投资要点:
近片存储成就高带宽,有限空间依赖堆叠封装。近存计算的HBM 需要通过2.5D/3D 封装纵向延伸,通过TSV 将多个DDR 颗粒、逻辑Die连接。单颗HBM 颗粒的位宽已达1024-bit,为GDDR5 的32 倍。以H100 为例,其内部拥有6 个HBM 堆栈,单堆栈为8 个堆叠,一个堆叠为2GB。总容量为96GB(6*8*2),考虑内存损耗,表观容量为80GB。HBM 的价格约为DDR5 的五倍,对应每GB 约15 美元,因此一张H100 中HBM 价值量约1500 美元。
供给测算:产能持续紧缺,24/25 年有望进入放量期。三星/海力士份额领先,合计份额约为95%。美光则跳过HBM3,直接专注开发HBM3E 产品。三大原厂均在加码提升HBM 产能,竭力弥补产能空缺。三大原厂均表示,公司24 年的 HBM 供应能力已全部耗尽,而25 年产能亦基本售罄。(1)海力士预计24 年HBM 产能同比增加一倍以上,预计其30 年HBM 出货量将达到每年1 亿颗。(2)三星预计公司24/25 年产能同比增加2.9/2 倍,28 年出货年比2023 年高23.1倍。(3)美光预计24 财年有望从HBM 获得数亿美元的收入,HBM份额将在2025 年的某个时点与公司的整体DRAM 份额相等(约20%)。24 年末原厂HBM 产能有望增至250K/m,占DRAM 总产能(约1800K/m)的14%。根据我们测算,我们认为HBM 供给产能将在24、25 年进入扩产时期,25 年供给量有望达23.7 亿GB,整体市场规模有望达到355 亿美元,一定程度缓解HBM 供给紧张状况。
需求测算:多维因素叠加,HBM 产能制约GPU 出货。从需求上看,HBM 在代次、容量、带宽上均持续提升。英伟达A100 芯片采用HBM2e,其显存带宽与显存容量分别为2039GB/s、80GB,而迭代至H200,显存带宽与显存容量均提升至4915 GB/s、141GB。对比英伟达H100 与H200,在算力能力相同的情况下,优化HBM 能够使得H200 在GPT-3 的推理性能为H100 的1.6 倍,其训练性能亦较H100提升约10%。英伟达H100 和A100 在23Q4 出货预计超50 万张。24年训练卡出货有望达300-400 万张,GPU 出货带动HBM 成长。HBM未来的三个迭代趋势亦共同驱动HBM量价齐升:(1)HBM3E 成高端GPU 标配。(2)HBM3E 从8 层逐渐升级至12 层。(3)单GPU 中HBM 容量提升。根据我们的测算,我们认为HBM 需求量在24、25年亦将翻倍增长,25 年需求量有望达20.8 亿GB,整体市场规模有望达311 亿美元。考虑HBM 与GPU 出货的时间差与GPU 厂商的HBM库存建立,我们认为即使原厂大规模扩产,HBM 在未来仍将长期处于供不应求态势。也正基于此,今年Q2 原厂已针对25 年HBM 进行议价,价格初步调涨5~10%。
行业重点公司:
HBM 设备建议关注:赛腾股份、精智达、芯源微、拓荆科技等HBM 材料建议关注:华海诚科、联瑞新材、强力新材、飞凯材料等
HBM 封测建议关注:通富微电、长电科技、深科技等海力士分销建议关注:香农芯创等
风险提示
AI需求不及预期风险、技术迭代不及预期、行业竞争加剧。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论