投资要点
GB200 揭示AI 芯片发展趋势:多芯片高带宽协同、降精度提升性能(1)将更多芯片通过高带宽连接,形成“单个虚拟GPU”以突破制程瓶颈:由于光刻掩膜版尺寸极限带来的GPU 面积限制以及4nm 制程瓶颈,新发布的GB200 超级芯片采用多芯片设计,使用900GB/s 的超低功耗C2C 互连将两个B200 Tensor Core GPU 连接到Grace CPU 上,两个这样的超级芯片封装到一个主板上形成一个计算节点,18 个计算节点(72GPU+36CPU)通过速度高达800Gb/s 的Quantum-X800 IB 和Spectrum-X800 以太网平台网络链接,形成GB200 NVL72“计算单元”机柜,该机柜能以近似“一个虚拟GPU”的形式运算,FP8 下算力高达720Pflops,单机柜算力水平接近DGX H100 SuperPod 超级计算机集群(8 个机柜,1000 Pflops 算力),一个GB200 NVL72 就最高支持27 万亿参数的模型,远高于GPT-4 的1.7万亿参数;
(2)降低运算精度来实现性能的指数级提升:第二代Transformer 引擎可动态为神经网络中的每个神经元启用FP6 和FP4 精度支持,GB200 超级芯片在FP4 下算力值高达40Pflops,在标准的1750 亿参数GPT-3基准测试中,GB200 的性能是H100 的7 倍,提供的训练算力是H100 的4 倍;GB200 NVL72 机柜在FP4精度下算力高达1.44Eflops,与相同数量的72 个H100 相比,大模型推理性能提升高达30 倍,成本和能耗降低高达25 倍;在90 天内训练一个1.8 万亿参数的MoE 架构GPT 模型,需要8000 个Hopper 架构GPU,15 兆瓦功率,而在Blackwell 架构下只需要2000 个GPU,以及1/4 的能源消耗。
打造世界AI 入口,商业模式从硬件销售转向类Saas公司官宣ai.nvidia.com 及AI 推理微服务NIM,提供了一个从最浅层的应用软件到最深层的硬件编程体系CUDA 的直接通路,个人和企业可以直接简单部署完全利用自己数据的专属行业模型,绕过AI 开发公司或者模型公司部署调优的成本,同时保留对其知识产权的完全所有权和控制权;商业模式上订阅制进行收费,价格为1 美元/h/GPU 或者年付打五折4500 美元/年/GPU;我们认为公司开辟了软件付费新模式,而NIM 和CUDA 将做为中间枢纽连接百万开发者与上亿GPU 芯片,随着全球GPU 保有量的提升,未来NIM有望贡献持续增长动力;
进军人型机器人,开启新成长空间
公司目前正在构建与机器人产业高度关联的NVIDIA IAI、Omniverse、ISAAC 三大平台,其中NVIDIA IAI搭载DGX 系列产品,用于模拟物理世界,Omnivese 搭载RTX 和OVX 系列产品,用于驱动数字孪生的计算系统,ISAAC 搭载AGX 系列,用于驱动人工智能机器人;本次大会上,公司推出了Project GR00T 人型机器人基础模型项目,基于GR00T 人型机器人基础模型,可以实现通过语言、视频和人类演示,来理解自然语言,模仿人类动作,进而快速学习协调性、灵活性以及其他的技能,进而能够融入现实世界并与人类进行互动。
英伟达有望成为生成式AI 时代的“苹果公司”,看好算力及应用我们认为,英伟达作为生成式AI 浪潮中的领航者,有望在保持统一且领先的算力基座上向行业应用渗透,未来基于英伟达软硬件生态的各行业应用将在单位算力成本下降的促进下全面开花,英伟达将成为新时代的“苹果”,而国内也有望追随全球浪潮实现算力和应用的大发展;
关注标的
(1)关键部件:海光信息、寒武纪、华丰科技等;(2)液冷:曙光数创、英维克等;
(3)服务器及一体机:高新发展、中科曙光、神州数码、先进数通、鸿博股份、拓维信息、软通动力、烽火通信、中国长城、开普云、恒为科技等;
(4)AI+应用:润达医疗(医疗)、焦点科技(零售)、金山办公(办公)、福昕软件(办公)、中控技术(工业)、佳都科技(数字孪生)、德赛西威(智能驾驶)等;
风险提示
国际形势变化风险、芯片等关键部件供应风险、下游客户需求总额或释放节奏不及预期、国产替代进程不及预期、技术风险、竞争加剧风险等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论