通信行业周报:算力芯片持续更新 AI用户量初具规模

2024-06-11 09:05:05 和讯  开源证券蒋颖
  英伟达和AMD 公布AI 芯片路线图,全面进入液冷时代英伟达公布未来技术路线图,算力边际成本不断下降。2024 年6 月3 日,英伟达在COMPUTEX 2024 上发布GPU、CPU、NVlink、NIC 网卡以及交换芯片的技术路线。Blackwell Ultra 系列GPU 将于2025 年发布,搭载八个HBM3e 内存堆栈;下一代Rubin GPU 预计将在2026 年推出,搭载8 个HBM4 内存堆栈,配对的新一代Arm 数据中心CPU Vara 也将问世;RubinUltra 系列将于2027 年推出,将搭载12 个HBM4 内存堆栈,拥有更多内存容量,GPU 加速效应显著,单卡算力性能持续提升,算力边际成本不断下降,以支撑AI 大模型参数持续增长。
  AMD 公布全新云端AI 加速芯片路线图, 今年将推出全新InstinctMI325X。2024 年6 月3 日,AND 在COMPUTEX 2024 上公布全新云端AI加速芯片路线图,将会在今年推出全新的AI 加速芯片Instinct MI325X,2025年推出MI350,2026 年推出MI400。其中,MI325X 将延续CDNA3 构架,采用HBM3e 高带宽内存,容量大幅提升至288GB,内存带宽也将提升至6TB/s,相较竞品英伟达H200 将有1.3 倍以上的提升,更具性价比,预计MI325X 将于今年第四季度开始供货,其他方面规格基本与MI300X 保持一致;新一代MI350 系列将采用3nm 制程,基于全新的构架,集成288GBHBM3e 内存,并支持FP4/FP6 数据格式,推理运算速度较现有MI300 系列芯片快35 倍。
  算力芯片功耗持续增长,全面进入液冷时代。单个英伟达B200 八卡风冷DGX 服务器功耗接近15KW,散热模组体积较大,空间利用率较差,相比之下液冷MGX 服务器算力密度更高,液冷散热性价比优势显著;同时,据供应链信息透露,AMD MI350 将同样切换至液冷散热时代。
  AI 用户初具规模,ChatGPT 宕机造成竞品访问量激增“一鲸落而万物生”,ChatGPT 用户的庞大AI 需求致使竞品系统瘫痪。6 月4 日,OpenAI 旗下ChatGPT(包括网站、App 和桌面应用)出现系统故障,导致全球大量用户无法正常使用,持续长达近8 个小时。ChatGPT 在全球拥有约1.8 亿活跃用户,已成为部分人群工作流程的关键部分,此次宕机期间,用户纷纷转向替代工具,包括 Anthropic 公司的 Claude、谷歌 Gemini 和Perplexity 等,据软件公司QRFY 分析,谷歌 Gemini 的日均搜索量激增近60%,显示出用户对ChatGPT 替代品的蓬勃需求。然而,在流量激增之下,上述三大AI 平台也遭遇了系统瘫痪,Perplexity 网站显示因为接收到太多请求,显示超出服务容量。我们认为,此次事件映射出使用AI 模型对于某些用户已为刚性需求,且AI 用户量已初具规模,短时间内大量的增量需求已超出竞品的基础设施容量上限。当下算力基础设施建设仍存在结构性缺口,随着用户对于AI 的需求持续增长,算力基础设施建设或将长期持续。
  Aspeed 5 月营收同比大幅增长,服务器需求或迎来复苏全球服务器管理芯片供应商龙头Aspeed 2024 年5 月实现营收4.35 亿新台币,同比增长92.90%,环比增长4.67%,月度营收规模已接近2022 年平均水平。我们认为,公司营收大幅改善主要是AI 服务器的强劲需求,导致管理芯片单个服务器的价值量上升,以及传统服务器需求逐渐复苏所致。
  风险提示:5G 建设不及预期、AI 发展不及预期、智能制造发展不及预期、中美贸易摩擦等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读

          【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。