由AI大模型驱动的新一轮AI热潮,引爆了AI芯片需求,也带火了HBM。

随着AI芯片需求持续大增,作为目前AI芯片当中极为关键的器件,HBM(High Bandwidth Memory,高带宽内存)已出现供不应求。

近日美光在发布最近一季财报时表示,HBM今年已售罄,明年绝大多数产能已被预订。此前,SK海力士也曾透露,旗下的HBM今年已经全部售罄。

HBM为什么这么抢手?

因为HBM可以有效解决“内存墙”问题。随着人工智能发展和数据爆炸式增长,存储器访问速度跟不上处理器数据处理速度,出现了 “存”“算”性能失配的“内存墙”。

HBM通过堆叠多个DRAM芯片,形成了高度集成的模块,可以在更小的空间内提供更大的容量和更高的带宽。同时,HBM的电压和电流也低于传统存储,从而降低了能耗。

与传统DRAM相比,HBM具备高带宽、高容量、低延时与低功耗等优势,可以加快AI数据处理速度,更适用于大模型等高性能计算场景。

据了解,在面对AI大模型的千亿乃至万亿级别的参数时,服务器中的计算核心GPU几乎必须搭载HBM,如NVIDIA H100、A100、A800以及AMD MI250、MI250X系列,基本都配备了HBM。

自2014年首款硅通孔HBM产品问世至今,HBM技术已经发展至第四代,分别是HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代),HBM芯片容量从1GB升级至24GB,带宽从128GB/s提升至819GB/s,数据传输速率也从1Gbps提高至6.4Gbps。

打开网易新闻 查看更多图片

伴随AI芯片迅速迭代,所需HBM搭载量和技术要求随之提高。如近日GTC 2024上英伟达发布的新一代架构Blackwell及B200 GPU,通过搭载8颗HBM3E实现192GB内存容量和8TB/s的带宽。

可以说,HBM已成为GPU的“强助攻”。

英伟达联合创始人兼CEO黄仁勋曾表示“HBM是一个技术奇迹。”他认为,HBM可以提高能源效率,并且随着耗电的人工智能芯片变得更加普遍,可以帮助世界变得更加可持续。

根据市场研究公司Yole Group 2月8日发布的数据,2023年至2028年间,HBM供应的年复合增长率将达到45%。

目前全球只有SK海力士(SK Hynix)、三星电子(Samsung)和美光科技(Micron Technology)3家公司能够量产HBM。 受市场需求推动,这三家HBM大厂正纷纷加大产能扩张力度。

据报道,为了确保HBM的稳定供应,英伟达已向SK海力士和美光支付了数亿美元的预付款。近期,三星电子也结束了产品测试,并与英伟达签订了HBM产品供应协议。

从全球市场格局看,韩国企业处于绝对领先的第一梯队。

SK海力士是技术领先并拥有最高市场份额的公司,其市场占有率为50%。SK海力士实际上是AI芯片领导者英伟达的HBM3芯片的唯一供应商。

紧随其后的是三星,市场占有率约为40%。三星一直在HBM上投入巨资追赶,于2月份宣布开发出HBM3E 12H——这是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。

韩国政府高度重视HBM,最近将HBM指定为国家战略技术,并列出多项措施鼓励相关企业。

2月27日,韩国企划财政部公布了《2023年税法修正案后续执行规则修正案草案》,对被纳入韩国国家战略技术的高带宽存储器(HBM)等,进一步扩大税收支持。该项政策将惠及SK海力士、三星等企业。

美光作为美国企业,占据了大约10%的市场份额,属于第二梯队。

美光2月27宣布量产8层24GB HBM3E,确认供货英伟达H200。美光于3月出样12层36GB HBM3E,预期25年量产。随着HBM3E实现量产,美光力图实现份额追赶。

打开网易新闻 查看更多图片

过去一年,美光股价上涨了70%

HBM需求激增推高了美光的业绩,该公司刚刚公布的最新财季营收同比大增57.7%,远高于华尔街预期。HBM有望成为美光的“创收新引擎”。美光管理层预计,整个2024财年HBM产品将带来“数亿美元”级别的营收。

海外HBM大厂在比拼,国内厂商也在行动。

据武汉新芯近期发布的《高带宽存储芯粒先进封装技术研发和产线建设》招标项目称,利用三维集成多晶圆堆叠技术,打造国产高带宽存储器(HBM)产品,拟新增16台套设备,实现月产出能力3000片的目标。

除了武汉新芯外,国内还有包括材料供应商和封装公司等对HBM兴趣浓厚,如同富微电子、捷电和SJ半导体,已经具备了HBM封装技术,开发了专为HBM设计的高密度扇出封装解决方案。

总体来说,国产HBM正处于0到1的突破期。随着国产AI芯片需求快速增长,对HBM也将有强烈的供应保障诉求和国产化诉求,国内加快发展HBM势在必行!