动态资讯 分类
“科技的一切都将围绕AI展开”推动存储芯片需求持续高涨 发布日期:2026-02-15 14:03:31 浏览次数:

  

“科技的一切都将围绕AI展开”推动存储芯片需求持续高涨(图1)

  现在行业已经达成共识:科技的一切都将围绕人工智能(AI)展开。在计算机内存市场,这一点尤为明显。用于供给GPU和其他AI数据中心的DRAM需求和盈利能力如此巨大,以至于正在将内存供应转移到其他新应用,导致价格持续飞涨。根据Counterpoint Research的数据,本季度迄今DRAM价格已上涨80-90%。

  最大的AI硬件公司声称他们已经将芯片安全部署到2028年,但这让其他所有公司——无论是个人电脑(PC)制造商、消费设备制造商还是所有需要临时存储十亿比特的设备——都在忙于应对稀缺的供应和高昂的价格。

  电子行业是如何陷入这场混乱的?更重要的是,这场混乱将如何摆脱?IEEE Spectrum请经济学家和存储专家来解释。他们认为,当前的局面是DRAM行业历史性的繁荣与前所未有规模的AI硬件基础设施建设碰撞的结果。除非AI领域出现重大崩溃,否则新产能和新技术要使供需与需求保持一致,还需要数年时间。即使如此,价格也可能依然很高。

  HBM是DRAM行业试图通过3D芯片封装技术来缩短摩尔定律(Moore’s Law)减缓步伐的尝试。每个HBM芯片由多达12个DRAM芯粒组成,包含多个称为硅孔(TSV)的垂直连接。这些模具堆叠起来,并通过与TSV对齐的微型焊球阵列连接。这座DRAM塔——厚度约750微米,更像是一座野兽派办公楼而非塔楼——随后被堆放在所谓的基础芯片上,底座芯片在存储芯片和处理器之间传递比特。

  这项复杂的技术随后被放置在GPU或其他AI加速器一毫米范围内,并通过多达2048微米级连接。HBM连接在处理器的两侧,GPU和内存则作为一个整体封装在一起。

  GPU这种紧密且高度连接的压缩设计,是为了打破所谓的内存墙(memory wall)。这就是将运行大型语言模型(LLMs)所需的每秒太字节数据传输到GPU时,在能源和时间上的障碍。内存带宽是限制LLMs运行速度的关键因素。

  作为一项技术,HBM已经存在了十多年,DRAM制造商一直在努力提升其能力。随着AI模型规模的扩大,HBM对GPU的重要性也在提升。但这也付出了代价。SemiAnalysis估计,HBM通常成本是其他类型内存的三倍,且占GPU封装成本的50%或更多。

  行业观察者一致认为,DRAM是一个高度周期化的行业,经历过多次巨大的繁荣和毁灭性的崩盘。由于新晶圆厂的成本达到150亿美元甚至更多,企业极不愿意扩张,可能只有在繁荣时期才有资金支持,Coughlin Associates总裁兼存储与存储专家Thomas Coughlin解释道。但建造这样一座晶圆厂并使其投入运行可能需要18个月甚至更长时间,实际上确保新产能远远超过最初的需求激增,导致市场涌入并压低价格。

  Coughlin说,今天这一周期的起源可以追溯到新冠疫情时期的芯片供应恐慌。他指出,为了避免供应链出现故障并支持远程工作的快速转变,像亚马逊、谷歌和Microsoft这样的数据中心巨头等大量收购了内存和存储库存,推高了当时的价格。

  但随后供应变得更规律,数据中心扩展在2022年减弱,导致内存和存储价格暴跌。Coughlin表示,这种衰退持续到2023年,甚至导致三星等大型存储公司将产量削减50%,以试图保持价格低于制造成本。这是一次罕见且相当绝望的举措,因为公司通常必须满负荷运转工厂才能收回价值。

  到了2023年底,内存开始复苏,“但所有内存和存储公司都非常谨慎,不愿再次提升产能,”Coughlin说。“因此,2024年及2025年大部分时间几乎没有新产能投资。”

  新投资的缺乏正与新数据中心需求的巨大增长正面冲突。根据DataCenter Map,全球目前有近2000个新数据中心正在规划或建设中。如果全部建成,全球内存和存储需求量将增长20%,目前约有9000个设施。

  如果当前的建设持续加速,麦肯锡(McKinsey)预测到2030年企业将花费7万亿美元,其中大部分——5.2万亿美元——将专注于AI数据中心用途。该公司预测,其中33亿美元将用于服务器、数据存储和网络设备。

  迄今为止,AI数据中心热潮的最大受益者无疑是GPU制造商英伟达(Nvidia),其数据中心业务收入从2019年最后一个季度的不到10亿美元,增长到截至2025年10月的季度510亿美元。在此期间,其服务器GPU不仅需要越来越多的DRAM数据,还需要越来越多的DRAM芯片。最近发布的B300使用八个HBM芯片,每个芯片由12个DRAM芯粒组成。竞争对手对HBM的使用在很大程度上与英伟达类似。例如,AMD MI350 GPU也使用了八颗12芯片。

  由于需求如此之大,DRAM制造商收入中越来越多来自HBM。美光(Micron)是SK海力士和三星(Samsung)之后的第三大制造商,报告称HBM及其他云相关内存占其DRAM收入的比例从2023年的17%上升到2025年的近50%。

  Micron预测,HBM的总市场规模将从2025年的350亿美元增长到2028年的1000亿美元——这一数字超过了2024年整个DRAM市场,首席执行官Sanjay Mehrotra在去年12月告诉分析师。这一数字比Micron此前预期提前两年。在可预见的未来,整个行业需求将大幅超过供应。

  由于这些扩张在数年内无法产生贡献,需要其他因素来增加供应。全球电子协会(前身为IPC)首席经济学家Shawn DuBravac表示:“现有DRAM领导者逐步扩产、先进封装的良率提升以及供应链更广泛的多元化,将带来缓解。新晶圆厂的出现会带来一定帮助,但更快的成果将来自工艺学习、更好的DRAM堆叠效率,以及内存供应商与AI芯片设计师之间更紧密的协调。”

  谈及DRAM市场,英特尔CEO陈立武上周在思科人工智能峰会上对与会者表示:“直到2028年才有缓解。”

  “解决DRAM供应问题有两种方式:创新或建设更多晶圆厂,”Mkecon Insights的经济学家Mina Kim解释道。随着DRAM扩张变得越来越困难,行业转向了先进的封装技术......这只是用了更多的DRAM而已。”

  目前,Micron、Samsung和SK海力士合并占据了绝大多数的内存和存储市场,三者都在建设新的晶圆厂和设施。然而,这些措施不太可能对降低价格有实质性贡献。

  Micron正在新加坡建设一座HBM工厂,预计2027年投产。此外,它正在对从台湾PSMC购买的一座工厂进行改造,该厂将于2027年下半年开始投产。上个月,Micron在纽约奥农达加县为DRAM制造厂区奠基。该产品要到2030年才会全面生产。

  K海力士正在印第安纳州西拉斐特建设HBM和封装设施,计划于2028年底开始生产,其在清州的HBM工厂预计于2027年完工。SK海力士还声称,通过一种名为MR-MUF(mass reflow molded underfill)的制造工艺,在热传导方面具有优势。更远点,一种称为混合键合(hybrid bonding)的芯片叠加技术可以通过将芯片间垂直距离基本降至零来帮助热传导。2024年,三星的研究人员证明他们可以通过混合键合成16层高的堆叠,并表示20个芯粒并非遥不可及。

  那么,一旦这些新工厂投产,价格会下降吗?别指望。“总体来说,经济学家发现价格下降的速度远慢且不情愿地上涨。Mkecon公司Kim认为:“鉴于对计算量的无限需求,DRAM如今不太可能成为这一普遍观察的例外。”

  与此同时,技术正在研发中,可能使HBM成为硅的更大消费者。HBM4标准可容纳16个堆叠的DRAM芯片,尽管如今的芯片只使用12个芯片。达到16级很大程度上取决于芯片堆叠技术。通过硅、焊料和支撑材料组成的HBM“层状蛋糕”传导热量,是提升频率和重新定位HBM封装以获得更大带宽的关键限制。

  在AI无边界扩张大势下,国产存储产业链目前一片繁忙,行业将整体实现创纪录的盈利水平。无论内存芯片、封装,还是存储产品厂商,都在巩固现有市场份额的同时把目光投向更高端的技术领域。

  长江存储是国内唯一3D NAND量产企业,全球NAND市场份额约5%,产能规划2025年达30万片/月,目标全球前十。

  技术优势:自主研发Xtacking架构(存储阵列与外围电路分离制造),IO速度提升50%,存储密度增加48%,技术迭代至4.0版本,接口速度达3.6Gbps。

  长鑫存储是全球第四大DRAM厂商(市占率约5%),国内唯一实现DRAM大规模量产的企业,合肥/北京双基地月产能24万片,2025年目标30万片。

  技术优势:17nm DDR5良率达80%(2025年底目标90%),速率6400Mbps,功耗降低30%;HBM2采用TSV和KGSD封装技术,填补国内高端存储空白。

  兆易创新是国内存储芯片设计龙头,全球唯一在NOR Flash、SLC NAND、利基型DRAM、MCU领域均进入全球前十的企业。目前,兆易创新已经有DDR32Gb和4Gb、DDR4 4Gb和8Gb以及LPDDR4的小容量颗粒。

  主要产品:NOR Flash(全球第二)、SLC NAND Flash(全球第六)、利基型DRAM(全球第七)、MCU(全球第八)。

  技术优势:NOR Flash覆盖45nm工艺,车规级产品通过AECQ100认证;DRAM由长鑫代工,2025年关联交易预计11.61亿元,覆盖消费电子、工业控制领域。

  紫光国微是国内特种存储龙头,军工领域市占率超70%,车规MCU通过ASIL D认证,高端存储技术突破显著。

  技术优势:高可靠嵌入式存储技术,ECC DRAM全球首商用;HBM芯片进入样品系统集成验证阶段,适配AI服务器需求。

  北京君正是国内利基存储代表企业,SRAM毛利率超50%,DRAM在车规/工业市场市占率约15%。

  技术优势:21nm DRAM样品2024年推出,20nm工艺研发中;SRAM覆盖工业级宽温范围,Flash聚焦汽车/医疗高可靠场景。

  东芯股份是国内中小容量存储领先企业,SLC NAND全球市占率约3%,NOR Flash国内份额超10%。

  技术优势::SLC NAND制程迭代至55nm,车规MCP从4Gb+4Gb升级至16Gb+16Gb,车规级产品营收占比持续提升。

  普冉股份是国内EEPROM第二大供应商(市占率约8.7%),NOR Flash国内份额约8%,车规领域加速突破。

  主要产品:EEPROM(全球第六)、NOR Flash(全球第六),车规级EEPROM料号占比不到20%。

  技术优势:消费级EEPROM市占率超80%,车规产品通过AECQ100认证,NOR Flash覆盖55nm工艺,聚焦IoT和消费电子。

  复旦微电是国内FPGA龙头(28nm工艺),存储芯片在工业控制领域市占率约3.2%,智能电表芯片市占率超30%。

  技术优势:EEPROM覆盖1Kb1Mb容量,车规级产品通过AECQ100认证;智能电表MCU出货超4亿颗,绑定国家电网等大客户。

  澜起科技是全球内存接口芯片龙头(市占率超40%),CXL生态核心参与者,技术对标Rambus。

  技术优势:第二子代MRCD/MDB速率达12800 MT/s,提升45%,已送样主流服务器厂商;CXL控制器适配长鑫HBM供应链。

  国科微是国内SSD控制器前三供应商,目前正规划SoC平台DDR适配提速工作。

  主要产品:SSD控制器芯片(支持PCIe 4.0)、固态硬盘(貔貅/峨眉系列)。

  技术优势:自主主控芯片集成国产CPU IP核,通过国密/国测双重认证;SSD与国产平台全面适配,出货联想、华为等厂商。

  佰维存储2024年推出工业宽温级ECC DDR4 SODIMM内存条,是国内唯一实现“芯片设计 + 封测 + 模组”全链条布局的企业,当前已获得AI服务器厂商、头部互联网厂商及国内头部OEM核心供应商资质,2025年上半年发布的PCIe5.0×4 Gen 5 SSD,可满足大模型AI端侧部署需求。

  江波龙推出了多款高速企业级eSSD产品,覆盖480GB至7.68TB的主流容量范围,支持1DWPD(每日整盘写入次数)和3DWPD的耐用性选项,产品外形涵盖2.5英寸到M.2的多种规格。公司的企业级PCIe SSD与企业级SATASSD两大产品系列已成功完成与鲲鹏、海光、龙芯、飞腾、兆芯、申威多个国产CPU平台服务器的兼容性适配,为在主流平台上的广泛应用提供了坚实的技术基础。

  德明利提供DDR3、DDR4存储产品,且自研SATA SSD主控Kaiyun芯片已量产并批量销售

  通富微电公告称,拟募资不超过44亿元用于项目建设,其中拟投入8亿元用于存储芯片封测产能提升项目。该项目建成后年新增存储芯片封测产能84.96万片,将有助于公司进一步扩大生产规模、优化产品结构、增强抗风险能力。

  天山电子公告披露,公司通过武汉鼎典投资新存科技和天链芯,战略性投资布局“存储芯片研发与制造-主控芯片与内存模块研发-内存模块制造-市场商业化拓展”垂直整合全链条,并计划构建从AI算力底层支撑到智能终端应用的完整存储生态能力。

  长电科技曾于2024收购晟碟半导体,后者主要从事闪存存储产品的研发、封装和测试,预计公司全年存储业务将保持快速增长。

  正如兆易创新总经理何卫所言,目前DDR4和LPDDR4接口产品等利基DRAM产品的涨价还在持续,预计持续紧缺到今年全年。随着主流DRAM产品的迭代和演进,未来用于利基市场的主控芯片可能会更多地做LPDDR4和LPDDR5的兼容设计,逐渐往LPDDR5演进,满足日益增长的AI算力和数据处理需求。(镨元素)返回搜狐,查看更多