中兴通讯:2024年3月28日投资者关系活动记录表

问题 1:2023 年 OpenAI 研发的 ChatGPT 火遍全球,掀起了智
算浪潮。2024 年春节期间,OpenAI 推出文生视频大模型 Sora,刷新
了我们的认知,智算再次成为科技创新的焦点。想请问徐总三个问题:
第一,您如何看待智算发展趋势?第二,公司拥有 39 年的软硬件研发
能力,在智算领域公司有哪些优势?第三,公司正在加速从全连接转
向“连接+算力”,公司在智算领域如何布局?
答复:
我们看到国家相关部门在实现网络强国的规划中,在落实“新质
生产力”的举措中,明确提出在数字基础设施方面要大力投入“高速
算力网络”,形成一体化的算力体系,以网调算,以网强算,打造类似
5G 一样的先进数字基础设施。这一目标的实现会极大推动全社会生产
要素的重构,加速生产力的升级,提升整个社会资源的高效使用,给
各行各业的创新提供更加灵活和高效的数字平台。
目前智算发展处于初级阶段,以 AI 大模型为代表的新一代算力
基础设施和应用这两年在很多领域已经显示出不同以往的生命力,这
是一波长周期的技术革命,对整个数字产业化和产业数字化原有技术
线路和发展模式,都会产生深远的变革,智算,特别是大模型,降低了各行各业获取新能力的门槛,降低了对陌生技术掌握的壁垒,极大
降低了客户从有想法、有需求,到能实现、能落地的实现成本,带来
整个社会资源更加高效的共享,成为创新的重要新生推动力。
过去一年,各科技企业都在积极拥抱这波浪潮,从海外 Open AI、
Google、Meta 的你追我赶,到国内百模大战,到英伟达市值的创新高。
当下,这波浪潮依然处于技术高速迭代的初期和炒作高峰期,我们需
要避免对其影响短期内过分高估而长期内过分低估。随着时间的推移,
我们可以看到无论是科技公司、AI 初创公司还是资本市场,对智算的
认知和期望都趋于更加理性务实,更多企业聚焦于探索如何更加有效
的使用这个技术,提升自身效率和竞争力。
AI 不是一个新话题,也发展了 60 年左右,在大模型和生成式 AI
之前,很多决策式 AI 在各个领域发挥了重要作用。任何技术创新突
破,商业闭环是其生命力的根本,最终客户无论是 C 端还是 B 端,都
会放到自身的场景落地、目标和资源约束下去平衡考量,核心还是解
决问题,适合才是最好的。
在这一波技术变革中,除了大家普遍关心的幻觉、鲁棒性、可解
释性等关键技术挑战外,还有两点需求对 AI 的健康发展也非常关键,
一是如何使用新的技术,降低算力单位成本,让企业“用得起”算力;
二是如何构建积极的 AI 的云原生生态,让行业应用和不同智算架构
实现一定程度解耦,一次开发,处处可用,让企业“用得好”算力。
这两个关键需求的实现,着力点是算力成“网”,通过高速的网络
连接(包括数据中心内部和数据中心之间的连接)实现算力硬件资源
的共享,降低单位算力成本;通过网络的统一服务实现算力调度以及
算力使用的通用化,让算力使用尽量标准化,降低应用迁移和边界翻
译的成本。通过超高速广域网络组建虚拟统一智算中心,规模越大,
单位成本越低;调用方式越统一,效率越高。
比特不会脱离原子独立存在,数字世界只会与物理世界共生相融,
大模型 AI 也一样,“连接+算力”的数字基础设施依然是其根基,绿色
节能也是永恒的追求,这需要强大的软硬件协同优化、算网协同优化、
应用与基础设施协同优化,尤其是产品化和产业化能力;而“能力”
如 AIE、训推工具链、大模型等也需要全面的技术积累,特别是大量
的工程实践。这些“能力”跟中兴通讯 39 年来持续在 ICT 领域的深耕
积累一脉相承。公司将积极发挥自身全栈全域的技术优势,助力国内
智算基础设施乃至整个产业的良性健康发展。具体而言:
在硬件基础设施,公司提供端到端的算力基础设施解决方案,涵
盖通算和智算所有算力领域和高速网络互联领域。除大家较为熟悉的
通算服务器和数据中心,400G/800G 骨干网传输,针对智算,公司推
出全解耦的全栈智算方案:智算服务器兼容国内外主流 CPU/GPU;提供全国产化 100G 和 200G 网卡,将在 2024 年推出支持 100G 无损网
络的全国产化 DPU 卡;已发布支持大规模组网的全盒式 400G Fabric
网络解决方案,可在单 POD 资源池支持千卡级 GPU 互联,2024 年将
发布新一代 400G Fabric 方案,同时提前布局下一代 800G Fabric 方案;
全系列智算中心解决方案,风液混合调节,PUE 低至 1.13,结合 AI 的
DCIM 管理系统保障数据中心全生命周期智能调优。以上产品系列可
满足万卡级 GPU 超大规模组网和模型训练需求,构建开放解耦生态,
支持多样化算力推理。智算方案包括智算资源池和 AiCube 训推一体
机两种形态,灵活满足不同场景下客户需求。
在大模型,公司采用“1+N+X”策略,其中,星云大模型采用自
研与生态合作并举,并在此基础上通过领域知识增量预训练“N”个领
域大模型,包括研发代码大模型、通信大模型、政务大模型、园区大
模型等,进而衍生出“X”种应用。具体来说,代码大模型已经在公司
研发发挥重要作用,编码效率提升 30%;通信大模型结合数字孪生和
大小模型协同,在网络保障、跨域问题闭环、加密、短信反诈等领域
已经落地实践,取得很好的效果。
中兴通讯愿意利用自身在“网”的能力,在构建关键算力网络上,
发挥自身优势,降低整个“算、网”的使用成本,服务好数字中国.

中兴通讯:2024年3月28日投资者关系活动记录表

 

滚动至顶部