

现在AI加速器GPU几乎都离不开HBM,这东西就像给算力装了“高速通道”,数据传输快得飞起。
HBM是怎么火起来的?简单说,就是把DRAM芯片一层层叠起来,不用走传统线路,数据直接在芯片间“串门”,速度比普通内存快好几倍。
HBM的成本比普通DDR内存高出一大截,一块高端GPU光HBM成本就占了三成。
而且DRAM芯片密度提升越来越难,想堆更多容量,要么加芯片,要么等技术突破,短期内看不到头。
这些技术各有各的招,有的想把HBM做得更便宜,有的专攻大容量,还有的瞄准了手机、汽车这些终端设备。
JEDEC协会正在推这个标准,核心是把HBM的“豪华Kaiyun包装”简化了不用那么贵的载板,接口设计也优化了。
SK海力士、三星这些存储巨头都在盯着,说不定以后电脑、服务器也能用上类似技术。
普通HBM用DRAM,HBF直接上3DNAND闪存,相同空间下容量能翻10倍。
AI推理场景最需要这种“大胃王”,毕竟推理时要处理的图片、视频数据量太大了。
SK海力士搞了个HBS技术,把DRAM和NAND芯片垂直叠起来,不用复杂的TSV工艺,成本低不少。
还有个“老熟人”HMC,美光和英特尔早年搞的技术,后来被HBM盖过风头。
HBM继续守着高端AI加速卡,SPHBM4往通用计算渗透,HBF专攻大容量推理,HBS瞄准终端设备,HMC在定制化场景找机会。
HBM的高速、HBF的大容量、HBS的低成本,凑在一起才能撑起AI的“大场面”。
对行业来说,这种竞争才能让AI算力真正“飞”起来,而不是被存储技术卡脖子。
不管是HBM的改良,还是新技术的崛起,核心都是为了让AI跑得更快、用得更爽。
这场技术混战,最终受益的,会是整个AI产业,还有我们每一个用AI的人。返回搜狐,查看更多