
机锋资讯 显卡速递,就在今天3月19日,英伟达发布最强 AI 加速卡--Blackwell GB200,今年发货。
英伟达在今天召开的 GTC 开发者大会上,正式发布了最强 AI 加速卡 GB200,并计划今年晚些时候发货。

GB200 采用新一代 AI 图形处理器架构 Blackwell,黄仁勋在 GTC 大会上表示:“Hopper 固然已经非常出色了,但我们需要更强大的 GPU”。

英伟达目前按照每隔 2 年的更新频率,升级一次 GPU 架构,从而大幅提升性能。英伟达于 2022 年发布了基于 Hopper 架构的 H100 加速卡,而现在推出基于 Blackwell 的加速卡更加强大,更擅长处理 AI 相关的任务。

Blackwell GPU 体积庞大,采用台积电的 Kaiyun官方入口4 纳米(4NP)工艺蚀刻而成,整合两个独立制造的裸晶(Die),共有 2080 亿个晶体管,然后通过 NVLink 5.0 像拉链一样捆绑芯片。

英伟达表示每个 Blackwell Die 的浮点运算能力要比 Hopper Die 高出 25%,而且每个封装中有两个 Blackwell 芯片,总性能提高了 2.5 倍。如果处理 FP4 八精度浮点运算,性能还能提高到 5 倍。取决于各种 Blackwell 设备的内存容量和带宽配置,工作负载的实际性能可能会更高。


英伟达官方报告,训练一个 1.8 万亿个参数的模型以前需要8000 个 Hopper GPU 和 15 兆瓦的电力。如今,Nvidia 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为4 兆瓦。
英伟达还面向有大型需求的企业提供成品服务,提供完整的服务器出货,例如 GB200 NVL72 服务器,提供了36 个 CPU 和 72 个 Blackwell GPU,并完善提供一体水冷散热方案,可实现总计720 petaflops 的 AI 训练性能或 1,440 petaflops(又称 1.4 exaflops)的推理性能。它内部使用电缆长度累计接近 2英里,共有 5000 Kaiyun官方入口条独立电缆。

机架上的每个托盘包含两个 GB200 芯片或两个 NVLink 交换机,每个机架有 18 个 GB200 芯片和 9 个 NVLink 交换机,英伟达称,一个机架总共可支持 27 万亿个参数模型。而作为对比,GPT-4 的参数模型约为 1.7 万亿。
该公司表示,亚马逊、谷歌、微软和甲骨文都已计划在其云服务产品中提供 NVL72 机架,但不清楚它们将购买多少。
英伟达表示亚马逊 AWS 已计划采购由 2 万片 GB200 芯片组建的服务器集群,可以部署 27 万亿个参数的模型。