
英伟达在今天召开的 GTC 开发者大会上,正式发布了最强 AI 加速卡 GB200,并计划今年晚些时候发货。
![]()
![]()
GB200 采用新一代 AI 图形处理器架构 Blackwell,黄仁勋在 GTC 大会上表示:“Hopper 固然已经非常出色了,但我们需要更强大的 GPU”。
![]()
英伟达目前按照每隔 2 年的更新频率,升级一次 GPU 架构,从而大幅提升性能。英伟达于 2022 年发布了基于 Hopper 架构的 H100 加速卡,而现在推出基于 Blackwell 的加速卡更加强大,更擅长处理 AI 相关的任务。
![]()
Blackwell GPU 体积庞大,采用台积电的 4 纳米(4NP)工艺蚀刻而成,整合两个独立制造的裸晶(Die),共有 2080 亿个晶体管,然后通过 NVLink 5.0 像拉链一样捆绑芯片。
![]()
![]()
英伟达表示每个 Blackwell Die 的浮点运算能力要比 Hopper Die 高出 25%,而且每个封装中有两个 Blackwell 芯片,总性能提高了 2.5 倍。如果处理 FP4 八精度浮点运算,性能还能提高到 5 倍。取决于各种 Blackwell 设备的内存容量和带宽配置,工作负载的实际性能可能会更高。
![]()
英伟达还面向有大型需求的企业提供成品服务,提供完整的服务器出货,例如 GB200 NVL72 服务器,提供了36 个 CPU 和 72 个 Blackwell GPU,并完善提供一体水冷散热方案,可实现总计720 petaflops 的 AI 训练性能或 1,440 petaflops(又称 1.4 exaflops)的推理性能。它内部使用电缆长度累计接近 2英里,共有 5000 条独立电缆。
![]()
机架上的每个托盘包含两个 GB200 芯片或两个 NVLink 交换机,每个机架有 18 个 GB200 芯片和 9 个 NVLink 交换机,英伟达称,一个机架总共可支持 27 万亿个参数模型。而作为对比,GPT-4 的参数模型约为 1.7 万亿。
该公司表示,亚马逊、谷歌、微软和甲骨文都已计划在其云服务产品中提供 NVL72 机架,但不清楚它们将购买多少。
英伟达表示亚马逊 AWS 已计划采购由 2 万片 GB200 芯片组建的服务器集群,可以部署 27 万亿个参数的模型。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
上海女子怀孕5个月查出癌症,婆婆凑了400万为她治病,不料,她怕伤到胎儿,坚持先要生下孩子,结局令人泪目
上海女子怀孕5个月查出癌症,婆婆凑了400万为她治病,不料,她怕伤到胎儿,坚持先要生下孩子,结局令人泪目
队记:勇士相信波尔津吉斯会很快复出,和格林组成内线元相亲餐男子尿遁逃单!女子被迫买单,婚介甩锅:与我们无关
一女子购买58元零食Kaiyun抽中10克足金金条,全国限量14份,官方称价值约为1万元,目前已增值至1.4万余元
市场监管总局:对外卖行业补贴战等扰乱市场竞争秩序问题,及时开展行政约谈、划出监管红线