AI 模型数据量和算力需求大。ChatGPT3 相较ChatGPT2 在数据存储端从百G 提升至40T,在存储量上有约100 倍的提升,算力需求同样也呈几何倍增长。据OpenAI测算,2012 年以来全球头部AI 模型训练算力需求3-4 个月翻一番,每年头部训练模型所需算力增长幅度高达10 倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的DRAM 容量是普通服务器的8 倍,NAND 容量是普通服务器的3 倍。
AI 服务器快速增长,内存技术同步升级。根据TrendForce,预计 2022 年搭载GPGPU 的AI 服务器年出货量占整体服务器比重近1%,而2023 年ChatGPT 相关应用有望再度刺激AI 相关领域,预计2023 年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。为提升服务器性能,AI 服务器需搭载多个CPU 处理器,同时服务器CPU 性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink 等内存技术将加速渗透,有望充分受益于AI 带来的算力需求增长。
DDR5 需要使用更多内存接口芯片。DDR5 的内存接口缓存芯片RCD 价格远高于DDR4,内存接口芯片有望迎来量价齐升。DDR5 芯片需要搭载更多的SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套芯片。
HBM 为大算力芯片提供支撑。如今搭载于新兴AI 应用的内存芯片亟待升级,而HBM 是一种基于3D 堆叠工艺的DRAM 内存芯片,被安装在GPU、网络交换设备、AI 加速器及高效能服务器上。HBM 作为一种带宽远超DDR/GDDR 的高速内存,将为大算力芯片提供能力支撑,同时生成类模型也会加速HBM 内存进一步增大容量和增大带宽。TrendForce 预估2023-2025 年HBM 市场年复合成长率有望成长至40-45%以上。
CXL 兼容性强、可实现内存一致性。CXL 为英特尔于2019 年推出的一种开放性互联协议,能够让CPU 与GPU、FPGA 或其他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。在AMD、ARM、IBM以及英特尔等主要CPU 供应商的支持下,CXL 已经成为领先的行业标准。美光科技在22 年5 月与投资者交流时曾预测CXL 相关产品的市场规模,到2025 年预计将达到20 亿美金,到2030 年可能超过200 亿美金。
NVLink 可最大化提升系统吞吐量。第四代 NVIDIA NVLink技术可为多GPU 系统配置提供高于以往1.5 倍的带宽,以及增强的可扩展性。单个NVIDIA H100 TensorCore GPU 支持多达18 个NVLink 连接,总带宽为900GB/s,是PCIe 5.0 带宽的7倍。第三代NVIDIA NVSwitch基于NVLink 的高级通信能力构建,可为计算密集型工作负载提供更高带宽和更低延迟。NVIDIA DGX H100 等服务器可利用NVLink 技术来提高可扩展性,进而实现超快速的深度学习训练。
我们看好服务器带来的接口芯片技术升级趋势,建议关注澜起科技、聚辰股份、裕太微、龙迅股份。
风险提示
服务器需求拉动不及预期、新技术渗透率不及预期。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论