
刚刚,马斯克在X上发布:“恭喜 @Tesla_AI 芯片设计团队正在完成 AI5 的流片!AI6、Dojo3 及其他令人兴奋的芯片正在研发中。”
根据评论区网友介绍,“流片”源于一个古老的术语,源于过去真的把最终芯片设计数据装进磁带卷轴寄出去的时代。AI5芯片流片意味着进入““试生产”环节!


回顾马斯克的芯片计划,早期Tesla从HW3(2019年,144 TOPKaiyun科技有限公司S)走到AI4(2023年,500+ TOPS),用了大约4年时间,属于行业常规节奏。
而从被提前45天完成的AI5到正在研发中的AI6,马斯克提出了九个月的研发周期,预计AI6在今年12月“流片”。
这么高的效率,马斯克是如何做到的,以及AI5能否用于目前的特斯拉HW3车型?

根据官方描述,单颗AI5的实际算力,大约是现在双芯片 AI4 的5倍!整体比AI4强很多——计算能力提升约8倍,内存容量增加9倍,内存带宽提升5倍。
尺寸似乎为半光罩(约 430 平方毫米)。这使其在良率和成本方面优于英伟达 H100 等全光罩芯片(800 平方毫米)。假设特斯拉采用台积电 3 纳米工艺,则该芯片将包含 1080 亿至 1250 亿个晶体管。
这种封装方式相当不错。它将内存集成在封装内,相比传统的板载内存配置,在延迟方面优势显著。在我看来,这种封装方式的内存容量对于汽车来说完全过剩。我认为图中展示的是数据中心版本。而对于汽车或 Optimus 平台,我们或许会看到传统的板载内存配置(容量较小,例如 32GB)。并且估计大概是 H100 价格的 10%。
首先是特斯拉自动驾驶,线年。马斯克在 2024 年股东大会及 2025 年 Q2 财报中多次提到,“当前 HW3/HW4 硬件仍可通过软件持续提升自动驾驶能力,但面向大规模 Robotaxi 运营,特斯拉正在开发新一代 AI5 硬件,其核心目标是提供更高算力与更强系统冗余,从而支撑真正无人驾驶的商业化落地。”
然后是特斯拉人形机器人 Optimus,特斯拉的自动驾驶软件与机器人软件是高度通用的,机器人也需要处理来自视觉、力反馈和关节传感器的海量实时数据。
第三是xAI 数据中心与分布式计算,尽管马斯克强调AI5 主要针对边缘推理,但也可用于部分训练/推理场景。
一位独立研究员Shanaka Anslem Perera称:“90亿英里的驾驶数据被浓缩成了一块芯片。”
这款芯片最有趣的地方在于:他们没有按照英伟达传统生产方式,而是从 90 亿英里的 FSD 推理数据入手提出一个问题:神经网络的计算周期都浪费在哪里?答案是 softmax 计算和量化精度损失。
这两种特定的数学运算在地球上所有通用 GPU 中都消耗了不成比例的硅片面积和功耗。
特斯拉将定制的量化和 softmax 加速器模块直接烧录到芯片内部,使其在这些操作上的效率比任何通用同类产品高出五倍。此外,他们还增加了相对于 AI4 的 10 倍原始计算能力和 9 倍内存容量。
英伟达生产通用型 GPU:他们将晶体管封装在一个完整的芯片上,预装 CUDA,然后让客户自行决定哪些运算至关重要。Blackwell B200 的运算能力为 4.5 petaFLOPS,功耗最高可达 1000 瓦,它可以运行任何客户的任何模型——这既是护城河,也是代价。
而马斯克的 AI5 系统芯片的有效计算能力约为当前双芯片 AI4 配置的 5 倍,功耗约为 250 瓦。 AI5 被定位为英伟达 Hopper 级别的处理器,将双 AI5 定位为 Blackwell 级别的处理器,用于特斯拉工作负载,其能效比后者高出 3 到 5 倍,性价比高出约 10 倍。
它的设计初衷只有一个:运行一个基于90亿英里摄像头观测数据而构建的、可微分的物理引擎;每个晶体管都服务于这个引擎。没有硅片的浪费,也没Kaiyun科技有限公司有通用性成本。
在AI5芯片出来以后,网友最关注的问题就是它能否用于目前的HW3 和 HW4/AI4 车型?
Reddit 上的网友评论:“特斯拉的计划是“等待你”,希望你“自愿”升级到 HW4(或 HW5)汽车,这样他们就不必对你的 HW3 汽车进行改装了。”

声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。