AI 芯片Scale-up 领域,英伟达一骑绝尘。在Scale-up 领域,当前行业主流多采用闭环的自有协议方案,如业界发展最早和最成熟的英伟达NVLink 技术,可以将GPU 和GPU 互连,至多让576 个GPU 实现每秒1.8TB 的通信;而其他厂商的Scale-up 互连大多以PCIe 协议为基础,目前PCIe5.0 技术单通道双向速率为8GB/s,16 通道可达128GB/s,远远低于NVLink 同代技术。由AMD、AWS、谷歌和思科等九家巨头宣布成立的UALink 联盟则主张建立开放生态,从技术节奏来看,挑战英伟达NVLink 的难度较大。UALink 初代V1.0 标准已于25Q1 发布,NVLink1.0 早在2016 年已应用于Pascal 架构GPU。
英伟达如何实现卡间互连?英伟达GPU 中NVLink 和PCIe 同时存在,GPU 互连采用NVLink,GPU 与CPU 互连采用PCIe。Grace Hopper 超级芯片引入NVLink-C2C,可不通过PCIe 直接访问CPU,是一次重要的技术补齐。到英伟达 GB200 这一代,NVSwitch 技术进一步完善,一个NVLink 域内最多连接GPU 的数量从8 升级为576,使得内部互连更加庞杂。GB200 由两颗B200 GPU 和一颗Grace CPU 构成,B200 北向有基于200G SerDes 的1.8TB/s NVLink 5.0 链路,GB200 共包含72 对200G SerDes。B200 南向包含NVLink-C2C 接口和2 个PCIe 接口。我们分析接口的物理层结构发现,无论是NVLink 还是NVSwitch,SerDes都是物理层重要的底层技术支撑。在后续Rubin 架构中,英伟达通过引入独立I/O 芯片与第六代NVLink 进一步提升互连带宽至3.6TB/s,而Rubin Ultra 则在封装内采用多芯片分层互连与1TB HBM4E 的高带宽设计,机柜架构亦演进至Kyber,以支撑更大规模的GPU 集群。
UALink 开放生态新机遇,关注高速SerDes IP 供应商进展。在AI 需求提升的背景下,SerDes 技术向224G 升级的趋势加速确立。当前的高速SerDes 研发仍然由海外厂商主导,包括(1)第三方SerDes 供应商:
Cadence、Alphawave 等,授权SerDes IP 给芯片商使用并收取专利授权费;(2)自研厂商:博通、Marvell、英特尔等厂商根据自身需求或帮下游客户设计SerDes IP,定制化属性较强。以上海外SerDes 供应商均已具备224G SerDes 能力。国内能跟上高速SerDes 芯片开发的队伍屈指可数,高速SerDes 领域的市场格局仍未成型,主要玩家包括芯动科技、晟联科、集益威、芯耀辉等,最高能达到112G 速率。在AI 芯片Scaleup方面的国产化进程上,高速SerDes 芯片也应当给予足够的重视。
投资建议:重点推荐盛科通信、海光信息,关注万通发展、澜起科技等。
风险提示:AI应用进展不及预期,技术发展不及预期,市场竞争风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:贺翀 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论