电子行业:英伟达推出推理上下文内存存储平台 AI存储需求持续扩张

2026-01-07 07:45:03 和讯  东方证券薛宏伟/蒯剑
  事件:英伟达创始人兼CEO 黄仁勋在CES 2026 上发表演讲,发布NVIDIA VeraRubin POD AI 超级计算机、NVIDIA Spectrum-X 以太网共封装光学器件、NVIDIA推理上下文内存存储平台、基于DGX Vera Rubin NVL72 的NVIDIA DGX SuperPOD等。
  英伟达推出推理上下文内存存储平台,打造AI 原生存储基础设施。本次英伟达发布的推理上下文内存存储平台是一个POD 级AI 原生存储基础设施,核心目标是在GPU 内存和传统存储之间创建一个专为推理优化的新型内存层,以支撑AI 长期运行。从技术上看,该平台是一套协同设计的结果,包括:(1)BlueField-4 负责在硬件层面加速上下文数据的管理与访问,减少数据搬移和系统开销;(2)Spectrum-X 以太网提供高性能网络,支持基于 RDMA 的高速数据共享;(3)DOCA、NIXL 和Dynamo 等软件组件负责在系统层面优化调度、降低延迟、提升整体吞吐。透过协同设计,该平台可将原本放在GPU 内存里的上下文数据扩展到一个独立、高速、可共享的“记忆层”中,可在释放 GPU 压力的同时在多个节点、多个AI 智能体之间快速共享上下文信息。在实际效果方面,英伟达表示使用这种方式可以让每秒处理的 token 数提升最高达5 倍,并实现同等水平的能效优化。
  AI 推理瓶颈正从计算转向上下文存储,存储芯片需求有望持续高速成长。黄仁勋在本次演讲强调,AI 推理瓶颈正从计算转向上下文存储。随着模型规模提升以及用户使用量的提升,AI 处理需要多轮对话、多步推理的复杂任务时会产生大量上下文数据。而传统网络存储对短期上下文而言效率过低,AI 存储架构需要重构。部分投资者对于AI 对存储芯片需求的带动幅度仍有低估。在此前的报告中我们已经强调,AI大模型推理过程中需要通过高频次地访问数据,来实现高质量内容生成,将使得存储结构发生较大变化,提升对存储芯片的需求。展望未来,AI 有望从“一次性对话的聊天机器人”演进为理解现实世界、持续推理、调用工具完成任务的智能协作体,而这需要持续扩大上下文容量、加快跨节点共享,从而带动存储芯片需求高速成长。
  存储供不应求持续,重视存储产业链国产化机遇。存储供不应求持续,同时海外存储巨头在通用存储方面的扩产进度可能有限,为国内存储厂商扩产、提升份额带来历史性机遇。技术方面,在DRAM 领域,长鑫科技于2025 年11 月推出DDR5 产品,在峰值速率等主流技术参数上达到国际一线水平;在NAND 领域,长江存储自主研发的Xtacking 架构实现了3D NAND 技术的跨越式发展。在IPO 进度方面,长鑫科技IPO 已获受理,长江存储的母公司长存集团于2025 年9 月完成股份制改革。
  我们认为,两存未来推进融资后有望实现较大的扩产体量,产业链上下游有望深度受益。
  英伟达推出推理上下文内存存储平台,AI 存储需求持续扩张。相关标的:国内半导体设备企业中微公司、精智达、京仪装备、微导纳米、拓荆科技、北方华创等;国内封测企业深科技、汇成股份、通富微电等;配套逻辑芯片厂商晶合集成等;布局端侧AI 存储方案的兆易创新、北京君正等;受益存储技术迭代的澜起科技、联芸科技等;国产存储方案厂商江波龙、德明利、佰维存储、联想集团等。
  风险提示
  AI 落地不及预期,技术迭代速度不及预期,国产化进展不及预期
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:刘畅 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读