电子行业专题:GPU龙头产品迭代不断 产业链各环节持续催化

2023-08-10 18:10:08 和讯  德邦证券陈海进/徐巡/陈妙杨/谢文嘉
  AI 服务器需求快速提升,GPU 新品不断性能持续提升。Trendforce 集邦咨询预计23 年AI 服务器出货量约120 万台,同比+38.4%,占整体服务器出货量的比约为9%,2022~2026 年AI 服务器出货量CAGR 将达22%,而AI 芯片2023 年出货量将成长46%。GPU 作为数据并行处理的核心,是AI 服务器的核心增量。2021 英伟达在企业级GPU 市场中占比91.4%,AMD 占比8.5%。目前英伟达产品DGXGH200 已发布,互连技术强大,算力进一步升级。5 月29 日,英伟达在其发布会上,正式发布最新的GH200 Grace Hopper 超级芯片,以及拥有256 个GH200超级芯片的NVIDIA DGX GH200 超级计算机。GH200 超级芯片内部集成了GraceCPU 和H100 GPU,晶体管数量达2000 亿个。同时,DGX GH200 的AI 性能算力将达到1 exaFLOPS。与DGX H100 相比,DGX GH200 的共享内存提升约230倍。而AMD 在美国时间2023 年6 月13 日,推出其新款AI 芯片MI300 系列,两款芯片分别为MI300A 与MI300X,分别集成1460、1530 亿个晶体管。MI300A内含13 个小芯片,总共集成1460 亿个晶体管,其内部包含24 个Zen 4 CPU 核心、1 个CDNA 3 图形引擎和128GB HBM3 内存;而MI300X 是针对大预言模型的优化版本,其内存达192GB,内存带宽为5.2TB/s,Infinity Fabric 带宽为896GB/s,晶体管达1530 亿个。AMD 表示,与上代MI 250 相比,MI300 的AI性能和每瓦性能分别为MI250 的8 倍和5 倍。MI300 由13 个小芯片整合而成,其中其计算部分由9 个基于台积电5nm 工艺制程的小芯片组成,这些小芯片包括了CPU 和GPU 内核。3D 堆叠设计极大提升了MI 300 的性能与数据吞吐量。同时,MI300 两侧排列着8 个合计128GB 的HBM3 芯片,满足其海量且高速的数据存储需求。
  性能升级带动产业革新,各环节增量不断。AI 大模型等AIGC 产业的升级离不开算力的底层支持,使得GPU 等大算力芯片性能持续提升,带来产业链各环节增量。
  其中,GPU 为产业链最大增量,若以每个NVIDIA H100 GPU 单价4 万美元测算,DGX H100 的GPU 价值量达32 万美元;AI 服务器中NAND/DRAM 的数据存储需求提升3 倍/8 倍,且各存储龙头逐渐发力HBM,服务高性能;而在PCB 方面,目前普通服务器需要6-16 层板和封装基板,而AI 服务器等高端服务器主板层数则达16 层以上,背板层数超过20 层,明确受益AI 算力提升;高制程芯片设计成本与制造成本均呈现指数型的增长趋势,Chiplet 等先进封装应运而生。目前以CoWoS 为代表的先进封装技术产能紧缺,已成为制约GPU 生产的关键环节。
  国内产业链机遇,PCB/内存接口/封测深度受益。(1)在PCB 领域,沪电股份为中高端通讯板龙头,深度受益AI 算力爆发;胜宏科技产品持续拓展,与优质客户共同成长;奥士康产品结构持续优化,聚焦ICT 核心应用。(2)在服务器接口芯片领域,澜起科技内存接口芯片位列全球前三,持续拓展新品类;聚辰股份则深耕EEPROM+ NOR Flash,服务器端SPD 稳步培育。(3)在封测领域,长电科技已是全球Top3 封测龙头,先进封装切入高性能计算;通富微电亦为先进封测龙头,深度绑定GPU 龙头AMD。(4)在算力映射领域,海光信息为国产CPU+DCU 龙头,产品性能逐代提升;龙芯中科产品高度可控,构建自主生态;寒武纪则聚焦人工智能领域,产品实现多维布局。
  风险提示:行业发展不及预期风险;下游需求不及预期风险;竞争加剧风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读