HBM 正成为HPC 军备竞赛的核心。英伟达早在2019 年便已推出针对数据中心和HPC 场景的专业级GPU Tesla P100,此后数据中心加速计算GPUV100、A100、H100 均搭载HBM 显存,容量及带宽持续提升。作为加速计算领域追赶者,AMD 对于HBM 的使用更为激进,其最新发布的MI300X GPU 搭载容量高达192GB HBM3 显存,为H100 的2.4 倍,内存带宽达5.3TB/s,为H100 的1.6 倍。2024 年3 月,英伟达又推出最新的Blackwell 架构GPU,搭载HBM3e 内存,GB200 由1 颗GRACE CPU 和2 颗Blackwell GPU 组成,GB200 的HBM 最高容量达到384GB,带宽16TB/s。
高性能计算驱动HBM 加速升级迭代。SK 海力士于2016 年左右首次推出HBM2,2020 年左右推出HBM2e,单颗HBM 容量提升为HBM2 的两倍。2021 年10 月,公司宣布成功开发出容量为16GB 的HBM3 DRAM,并于2022 年6 月初即宣布量产。2023 年4 月,公司官网再次宣布已成功开发出垂直堆叠12颗DRAM 芯片、容量高达24GB 的HBM3 新品。2023 年8 月,SK 海力士宣布开发出全球参数最领先的HBM3e 产品,单颗HBM 容量提升至HBM3 的1.5倍,带宽提升1.4 倍的同时,功耗为上一代的0.9 倍(pJ/bit)。2024 年3 月,SK 海力士开始大规模量产HBM3e,英伟达H200 及GB200 均会搭载HBM3e 产品。SK 海力士预计将会在2026 年量产下一代HBM4 产品。
统计全球龙头发布的AI 加速芯片,我们看到HBM 成为标配,且随着加速芯片的升级迭代,搭载的HBM 总容量、带宽等规格也持续升级。SK 海力士预计HBM 市场规模在2022 年到2025 年的复合增速有望达到109%。
2024 年全球HBM 市场规模有望达91 亿美金。综合考虑全球CoWoS 产能(估计台积电2024 年CoWoS 全年产出约252 千片)、客户份额、单片晶圆产出的芯片颗数、以及不同AI 加速芯片配备的HBM 规格,我们预计2024 年全球HBM 需求量约4000 万颗,容量合计约669M GB,市场规模达到91.4 亿美金。其中英伟达所需的HBM 占全球比重约58%,谷歌、AMD 紧随其后,分别占比15%和14%,中国厂商HBM 需求占比约7%。
预计到2024 年底三大原厂HBM(含TSV)产能合计超270K/月。根据TrendForce,从芯片尺寸来看,HBM 的die size 通常比相同工艺节点和容量的DDR5 大35-45%,HBM 的良率(包括TSV 封装)比DDR5 低20-30%,生产周期(包括TSV)比DDR5 长1.5-2 个月。从产能角度看,TrendForce 估计三星HBM 的产能预计在2024 年底达到约130K/月(包括TSV),为2023年的2.5 倍以上,预计2025 年产能再翻倍;SK 海力士2024 年底HBM 产能预计同比增长一倍以上,达到120K/月。
建议关注HBM 产业链:香农芯创,雅克科技,兆易创新,通富微电,深科技,太极实业。
风险提示:测算不准确风险、中美贸易摩擦加剧、扩产不及预期风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论