事件:2023 年11 月13 日,英伟达发布了最新一代AI 芯片H200,旨在培训和部署各种AI 模型。H200 是全球首款搭载HBM3e 的芯片,HBM 产品迭代速度加快,我们认为在此催化下产业链将迎来蓬勃发展机遇。
支撑评级的要点
英伟达发布新一代AI 芯片H200:H200 芯片是当前用于训练最先进大语言模型H100 芯片的升级产品,更加擅长“推理”。用于推理或生成问题答案时,性能较H100 提高60%-90%。借助HBM3e,英伟达H200 以每秒4.8TB 的速度提供141GB 的内存,与A100 相比,容量几乎是其两倍,带宽增加了2.4 倍,预计于2Q24 出货。H200 与AMD 的MI300X GPU 展开竞争。与H200 类似,AMD 的芯片比其前身拥有更多的内存。
AI 芯片首度搭载HBM3e:伴随大模型训练渐进,充沛的存力为推理助力。相较A100/H100,H200 HBM 容量增加76%。同时HBM3e 为业内最先进产品内存,将实现高达 8 Gbps/pin 的速度。据韩媒businesskorea 报道,2023 年以来,三星电子和 SK 海力士HBM 订单一直在激增。与其他 DRAM 相比,HBM 通过垂直连接多个 DRAM 显著提高了数据处理速度。HBM 与CPU 和GPU 协同工作,可以极大地提高服务器的学习和计算性能。
长期空间广阔短期供应不足,巨头争相布局争夺高性能计算领导权:SK海力士副会长兼联席CEO 朴正浩透露,今年海力士HBM 芯片出货量为50 万颗,预计到2030 年将达到每年1 亿颗。集邦咨询指出,2023 下半年伴随NVIDIA H100 与AMD MI300 的搭载,三大原厂也已规划相对应规格HBM3 的量产。其中,在今年将有更多客户导入HBM3 的预期下,SK 海力士作为目前唯一量产新世代HBM3 产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM 市占率分别为38%及9%。
投资建议
我们认为伴随AI 大模型训练的不断推进,HBM 作为关键性技术,其增长确定性极高,相关投资机会有望集中在封装设备材料及国产HBM 配套供应。我们建议关注:1)原厂配套设备及材料供应商;赛腾股份、华海诚科、联瑞新材;2)原厂分销商:香农芯创;3)国产HBM 开发:通富微电、深科技。
评级面临的主要风险
AI 技术运用的监管风险、HBM 产品迭代进度不及预期、市场竞争格局恶化的风险、相关产品价格面临下滑风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论