
从大模型训练,到今年 Agent 的火热,再到各家云厂商不断扩建智算中心,行业讨论最多的,几乎都是 GPU、芯片和算力规模。好像只要卡够多,AI 就能继续往前跑。
不少做大模型训练和推理的人,已经越来越明显地感受到另一层问题:机器越来越贵,GPU 越来越强,但模型训练和推理的效率,却没有同步提升。
问题不一定出在算力本身,而可能出在另一件长期被忽视的事情上网力。
平头哥产品总监李旭慧打了个比方:「如果把算力比作 AI 时代的石油,网力就是输油管道。算力提供动力,网力保障效率。」
4 月 28 日,在数字中国建设峰会上,平头哥发布首款智能网卡磐脉 920。这是国内首个内置 PCIe Switch 的 400G 智能网卡,最大支持 400Gbps 吞吐带宽,可应用于万卡智算集群、通算集群和高性能存储等场景,目前已经量产,并将率先部署在阿里云数据中心。

今天的大模型训练,一个训练任务,往往需要几千甚至上万张 GPU 同时协作。单张 GPU 性能再强,也必须跟整个集群保持同步。
问题在于,只要其中一部分节点慢下来,其他节点就只能等待。他观察到,目前行业里很多万卡级智算集群,GPU 实际利用率较低,「能做到 60%,已经算行业顶尖水平。」
过去行业更容易关注「有多少卡」,但实际在 AI 训练场景中,系统运行效率并不是由最强的硬件决定,而是受限于集群里最慢的那个节点。「领先节点的算力会持续闲置等待,造成大规模算力浪费。」
磐脉 920 的发布实际上也指明了一个方向:当 GPU 已经足够强之后,下一步到底该补哪里。
「在 Agent 应用爆发的背景下,推理业务的增长速度显著快于训练。」李旭慧表示。
大模型训练强调强同步,而推理面对的是大量突发、小包、高频请求,对低时延和稳定性的要求更高,这也意味着对「网力」的要求更高。
而概括一下磐脉 920 在做的事,就是尽量减少整系统里的「堵」和「等」,通过网力的提升来释放 AI 算力。
通俗理解,就是原本只能走一条高速,现在变成多条路同时分流。更关键的是,这些数据虽然分开走,但最终还能按顺序准确拼回来。
李旭慧解释,磐脉 920 通过支持逐包喷洒、乱序接收和选择性重传,实现 RDMA 多路径。
按照官方实测,磐脉 920 支持单 QP 打满 400G 带宽,而同类主流产品带宽大约只有其一半。同时,多路径能力可以把交换机端口缓冲区水线%,减少丢包和重传。
磐脉 920 最大的亮点之一,是内置 PCIe Switch。这也是国内首个做到这一点的 400G 智能网卡。
传统服务器架构里,PCIe Switch 通常部署在主板上,数据需要绕多个节点转发。结果就是,有的路径长,有的路径短,时延不一致。
李旭慧打了个比方:传统架构里,经常会出现「四个下行通道挤一个上行通道」的情况。
磐脉 920 把 PCIe Switch 直接集成进芯片内部,让网卡与 CPU、GPU 形成更直接的连接关系。
根据平头哥实测,在相同集群规模和任务条件下,部署磐脉 920 后,大模型训练和推理任务完成时间可缩短 14%。
据了解,磐脉 920 加入了细粒度网络感知和可编程拥塞控制能力。直白讲,就是它能主动避堵。让网络开始从被动传输,变成主动调度。
从这些设计能看出来,磐脉 920 并不是在追求参数上的简单提升,它做的事情很务实,让已经很贵的算力,少浪费一点,从而激发最大的潜能。
除了性能本身,磐脉 920 背后更值得关注的,是平头哥和阿里的整体布局。
过去几年,很多Kaiyun科技有限公司公司做芯片,往往集中在单一环节,比如 GPU、AI 加速卡或者 CPU。
目前,平头哥已经形成四条产品线:真武系列 AI 芯片、倚天服务器 CPU、镇岳存储主控芯片,以及这次发布的磐脉系列智能网卡。
李旭慧在采访中表示:「单一芯片产品无法解决全链路问题,只有打通算力、存力、网力,才能最大化释放 AI 硬件性能。」
这也是平头哥和很多单点芯片公司的区别。它不是只做一块性能更强的芯片,而是试图从整个系统角度去看问题。
李旭慧告诉极客公园,磐脉 920 立项之时 AI 智能体尚未成为行业焦点。但他们从阿里云自身业务中判断,未来 AI 一定会推动数据中心网络能力升级。
「一线业务场景的实际需求,是芯片技术迭代与产品优化的核心驱动力。」先有阿里云的大规模业务场景,再从实际场景需求里倒推产品定义。
这就是磐脉 920 的商业路径。据透露,和平头哥倚天、真武、镇岳系列芯片一样,它会先部署在阿里云数据中心。
从这个角度看,磐脉 920 的发布,本身就是阿里「通云哥」协同能力的一次体现。
通义负责模型,阿里云负责场景,平头哥负责底层硬件。模型需求推动云基础设施升级,云场景又反向推动芯片演进。
这种全栈自研的闭环,在国内科技公司里并不多见。「通云哥」的模式虽然前期投入大、周期长,但一旦走通,护城河也极深。
AI 竞争走到今天,比拼的已经不是单点能力,而是这一整套系统能否顺畅运转。
随着 AI 越来越多从训练走向推理,模型、云与芯片之间形成的持续反馈循环,整体优势的显现可能才刚刚开始。