投资要点
英伟达发布AI 芯片H200,首次采用HBM3e,拥有141GB 显存,4.8TB/秒带宽。
与H100 相比,H200 的推理速度、带宽、显存容量等提升。随着H200 2024Q2 计划交付、B100 计划2024 年发布,叠加AI 发展算力需求持续增加驱动,有望带动HBM 产品市场规模快速增长,利好相关材料、经销、设备、封测等环节发展。
需求端:带宽为算力提升瓶颈,HBM 与大模型相辅相成HBM 突破了内存容量与带宽瓶颈,打破了“内存墙”对算力提升的桎梏,其具备高带宽、低功耗的特点,面对AI 大模型千亿、万亿的参数规模,服务器中负责计算的GPU 几乎必须搭载HBM。目前全球HBM 产能主要用于满足Nvidia 和AMD的AI 芯片需求。随着大型互联网客户自研AI 芯片陆续推出,HBM 客户群预计将大幅扩容,HBM 对全球半导体市场的影响力将进一步加大。据TrendForced 预测,2024 年整体HBM 营收有望达89 亿美元,年增127%。
供给端:产品升级,产能速增
目前HBM 产品市场SK 海力士及三星占据相对优势地位。据TrendForce 数据,三大原厂SK 海力士、三星、美光2022 年HBM 市占率分别为50%、40%、10%,2023 年预计分别为53%、38%、9%。原厂加大投入,带动HBM 产能持续扩张。
据TrendForced 数据,存储原厂在面临英伟达以及其他云端服务业者自研芯片的加单下,通过加大TSV 产线来扩增HBM 产能,预估2024 年HBM 供给位元量将年增105%;考虑到TSV 扩产加上机台交期与测试所需时间合计可能长达9~12 个月,多数HBM 产能24Q2 有望陆续开出。其中,2023 年主流需求自HBM2e 转往HBM3,随着HBM3 的加速芯片陆续放量,2024 年市场需求将大幅转往HBM3,其更高的ASP 有望带动2024 年HBM 市场显著成长。
设备/材料端:工艺升级,用量提升
HBM 的工艺把DRAM 技术路径从平面结构带向了3D 结构,3D 结构的构建将为对应的设备材料带来更多需求,其中TSV 工艺最为关键,核心设备为硅通孔刻蚀设备,刻蚀完成后的金属填充设备、CMP 设备、键合机需求也会相应增长,材料方面,刻蚀液、硅电极、电镀液、CVD 前驱体、靶材、键合材料、硅球粉同样会有需求提升。
封测端:先进封装,CoWos 助力
HBM 通过使用TSV 垂直堆叠多个DRAM,可显著提升数据处理速度,同时尺寸有所减小。目前大部分HBM 均使用CoWoS 封装技术实现低功耗、高速的数据传输。随着AI 及HBM 需求加速发展,有望带动先进封装需求持续增长。据台积电预计,目前其CoWos 产能供应紧张,2024-2025 年将扩产,2024 年其CoWos 产能将实现倍增。同时,三星计划于2024 年推出先进3D 芯片封装技术SAINT,具备SAINT S、SAINT D、SAINT L 三种方案。
产业链相关标的
材料:神工股份、雅克科技、华海诚科、联瑞新材、壹石通、宏昌电子等。
经销:香农芯创、雅创电子等。
设备:中微公司、盛美上海、赛腾股份等。
封测:盛合晶微、通富微电、长电科技等。
风险提示
产能不足,需求增长不及预期,技术进展不及预期等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论