“AI的裂变时刻”系列报告10:HBM何以成为AI芯片核心升级点?全面理解AI存储路线图

2024-04-24 07:50:07 和讯  广发证券王亮/耿正/栾玉民
  核心观点:
  AI 存储路线图:更大容量、更大带宽、更低功耗。随着人工智能的快速发展,大模型的参数量指数级增长,不仅推升了处理器的算力需求,同时也对与处理器匹配的内存系统提出了更高的要求。一方面,大量模型数据的传输要求更大的内存带宽,以缓解“内存墙”问题,提升HPC 系统计算效率;另一方面,内存系统的容量需要大幅拓展,以存储千亿参数乃至更大规模的大模型。
  如何理解内存系统层级及关键参数?对于单个乃至多个处理器组成的系统而言,内存系统自下而上可以分为单元、阵列、die、封装、系统几个层级。根据处理器设计和应用的不同,所配置的内存类型、规格选择和配置数量也有所不同,需要和处理器总线宽度、时钟频率等参数相匹配。内存最重要的性能参数是容量、带宽和延迟,同时还需要考虑能耗和性价比。不同类型的DRAM 各有优势,在设计处理器系统架构的时候需要针对不同的应用,选择合适的内存系统设计。
  DDR+LPDDR 路线图:面向CPU,构建高效大容量内存系统。DDR 是最传统、最主流的DRAM 类型。广泛用于PC、服务器、HPC 等领域。目前,DDR5 是最新一代DDR 标准,提供更高的速度、更高的效率和更大的容量。LPDDR 正在成为数据中心CPU 的新选择,其原因是需要在大规模AI 和HPC 工作负载的带宽、能效、容量和成本之间取得最佳平衡。随着前端先进制造技术接近物理极限,DRAM 芯片本身的性能提升越来越难,从内存模组和系统架构层面进行性能提升成为新的方向。MCRDIMM/MRDIMM 允许并行访问同一个DIMM 中的两个阵列,从而大幅提升DIMM 模组的容量和带宽。CXL 是一种高速互连技术,提供处理器与专用加速器、高性能存储系统之间的高效、高速、低延时接口,以满足资源共享、内存池化和高效运算调度的需求。
  GDDR+HBM 路线图:面向GPU,HBM 高带宽优势成为AI 大模型训练推理关键。GDDR 是专为图形处理应用设计的高速内存技术,搭配GPU 用于图形处理、数据中心加速和AI 等需要高带宽数据处理的场景。HBM 是一种新型内存,得益于堆叠结构和垂直TSV 互连,HBM 具有更高的传输带宽、更高的存储密度、更低的功耗以及更小的尺寸,高带宽优势对大模型训练和推理的效率提升至关重要。近年来,大部分高端数据中心GPU 和ASIC 均使用HBM 作为内存方案,GDDR 在 推理等场景中具备性价比优势。未来,HBM 技术持续向更高带宽、更大容量发展,12Hi-16Hi HBM4 有望2026 年进入量产。
  风险提示。半导体行业周期性波动风险;人工智能行业发展不及预期风险;新技术进展不及预期风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读