动态资讯 分类
HBM遇瓶颈!五大替代技术崛起AI存储格局要变天? 发布日期:2026-01-12 17:09:32 浏览次数:

  

HBM遇瓶颈!五大替代技术崛起AI存储格局要变天?(图1)

  现在AI加速器GPU几乎都离不开HBM,这东西就像给算力装了“高速通道”,数据传输快得飞起。

  HBM是怎么火起来的?简单说,就是把DRAM芯片一层层叠起来,不用走传统线路,数据直接在芯片间“串门”,速度比普通内存快好几倍。

  HBM的成本比普通DDR内存高出一大截,一块高端GPU光HBM成本就占了三成。

  而且DRAM芯片密度提升越来越难,想堆更多容量,要么加芯片,要么等技术突破,短期内看不到头。

  这些技术各有各的招,有的想把HBM做得更便宜,有的专攻大容量,还有的瞄准了手机、汽车这些终端设备。

  JEDEC协会正在推这个标准,核心是把HBM的“豪华Kaiyun包装”简化了不用那么贵的载板,接口设计也优化了。

  SK海力士、三星这些存储巨头都在盯着,说不定以后电脑、服务器也能用上类似技术。

  普通HBM用DRAM,HBF直接上3DNAND闪存,相同空间下容量能翻10倍。

  AI推理场景最需要这种“大胃王”,毕竟推理时要处理的图片、视频数据量太大了。

  SK海力士搞了个HBS技术,把DRAM和NAND芯片垂直叠起来,不用复杂的TSV工艺,成本低不少。

  还有个“老熟人”HMC,美光和英特尔早年搞的技术,后来被HBM盖过风头。

  HBM继续守着高端AI加速卡,SPHBM4往通用计算渗透,HBF专攻大容量推理,HBS瞄准终端设备,HMC在定制化场景找机会。

  HBM的高速、HBF的大容量、HBS的低成本,凑在一起才能撑起AI的“大场面”。

  对行业来说,这种竞争才能让AI算力真正“飞”起来,而不是被存储技术卡脖子。

  不管是HBM的改良,还是新技术的崛起,核心都是为了让AI跑得更快、用得更爽。

  这场技术混战,最终受益的,会是整个AI产业,还有我们每一个用AI的人。返回搜狐,查看更多