“AI的IPHONE时刻”系列9:NVLINK + NVSWITCH 实现GPU间高速互联

2023-04-06 08:50:07 和讯  广发证券王亮/耿正/栾玉民
  核心观点:
  NVLink:实现GPU 间高速直联。NVLink 是一种GPU 之间的直接互联,可扩展服务器内的多GPU 输入/输出。
  2016 年,第一代NVLink 搭载基于Pascal 架构的Nvidia GP100 GPU 发布,其传输速率可达160GB/s;目前NVLink 已迭代至第四代,第四代 NVIDIA NVLink 总带宽为900GB/s,是PCIe 5.0 带宽的7 倍。一代NVLink共有4 个链路,单链路传输速率40GB/s;第二代、第三代、第四代NVLink 分别有6、12、18 个链路,单链路传输速率均为50GB/s。NVLink 不仅可实现NVIDIA GPU 间互联,也可以实现GPU 与CPU 之间的互联(CPU需要支持NVLink 协议,如IBM POWER9)。第一至第三代NVLink 传输信号为NRZ 调制的电信号,第四代NVLink 传输信号为PAM4 调制电信号;在信号传输过程,由NVLink 控制器+PHY 构成的组合实现信号的收发控制,其中NVLink 控制器按照功能又可分为三层:Physical Layer(PL)、Data Link Layer(DL)、TransactionLayer(TL)。
  NVSwitch:实现服务器内更高带宽、更低延迟、更多GPU 间通信。NVIDIA 在2018 GTC 大会发布了首款节点交换架构——第一代NVSwitch,其上有18 个NVLink 端口,在单服务器节点内通过12 个NVSwitch 可以实现16 个V100 以NVLink 能够达到的最高速度进行多对多GPU 通信;基于NVLink +NVSwitch 实现服务器节点内16 颗V100 互联的一台DGX-2 与两台通过IB 互联的DGX-1(每台内有8 个V100)相比,前者AI 运算速度是后者的两倍以上。目前NVSwitch 已经迭代到第三代,单芯片上共有64 个第四代NVLink 端口,支持GPU 间900GB/s 的通信速度,这些通过NVLink Switch 互联的GPU 可用作单个高性能加速器,拥有高达15petaFLOPS 的深度学习计算性能。
  服务器之间的NVLink 与NVSwitch:实现服务器节点间通信拓展。基于第三代NVSwitch,通过在服务器外部添加第二层NVSwitch,NVLink 网络可以连接多达32 个服务器、256 个GPU,并提供57.6TB/s 的多对多带宽,实现GPU 在服务器节点间通信扩展,形成数据中心大小的GPU。基于第三代NVSwitch 实现节点间互联的DGX H100 256 SuperPOD 与前代通过IB 网络实现节点间互联的DGX A100 256 SuperPOD 相比,前者对分带宽(Bisection Bandwidth)、全规约吞吐量(AllReduce Throughput)分别是后者的9 倍、4.5 倍。
  投资建议。AIGC 推动AI 服务器需求增长,建议关注GPGPU/ASIC/CPU 厂商:海光信息(与计算机组联合覆盖)、龙芯中科、芯原股份等;服务器芯片厂商:澜起科技、源杰科技、杰华特、裕太微、聚辰股份、帝奥微等;服务器硬件厂商:工业富联、沪电股份、胜宏科技等;AIGC 应用:海康威视、大华股份等。
  风险提示。AIGC 发展不及预期的风险; AI 服务器出货量不及预期的风险; 国产厂商技术和产品进展不及预期的风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读