英伟达Computex 直击:AI 计算与应用新纪元,由低成本算力开启
24 年6 月Computex 展会在中国台湾举行。英伟达CEO 黄仁勋于6 月2日发表主题演讲,阐述英伟达与AI 发展密不可分。自12 年开始AI 发展出现突破,CUDA 和Alexnet 奠定了英伟达为AI 提供大算力及软件生态的基础。而后19 年收购Mellanox 至今,发展NVLink 和InfiniBand 等传输互联技术,奠定了英伟达在解决AI 算力和传输瓶颈一枝独秀的地位。而17 年Transformers 出现后至22 年ChatGPT 诞生所掀起的GenAI 浪潮,其发展跟英伟达的GPU 也是密不可分。演讲有如下启示:算力成本的显著下降,使得处理海量数据成为可能,我们认为,从低成本算力到高速互联的AI 革命已全面开启。
从CUDA 生态拓展和NIM 看AI 商业应用探索
英伟达的CUDA 生态圈为行业领先。至今,NVIDIA 已经拥有超过350 个CUDA 应用库。从中我们可一窥面向企业的大模型应用。例如,台积电正在实施cuLITHO 以加速芯片设计;还有基于AI 的最佳路径规划算法的cuOPT、模拟量子计算机的cuQUANTUM;数据处理加速器cuDF 等。此外,英伟达还宣布推出一项AI 模型推理服务——NVIDIA NIM。全球2800 万开发者可以通过NIM 将AI 模型部署在云、数据中心或工作站上,可将构建copilots、ChatGPT 聊天机器人等生成式AI 应用的时间从数周缩短至几分钟。
NVLink 与InfiniBand 互为臂助,共建英伟达超级AI 工厂当前AI 巨头纷纷自研或升级互联技术以期突破算力飞涨带来的硬件限制。
英伟达“快人一步”,其以自研NVLink 为主、InfiniBand 为辅构建AI 工厂互联版图,实现由1 枚GPU 到32,000 枚GPU 组成超算中心“AI 工厂”的完整互联。该AI 工厂架构多由InfiniBand 负责服务器间互联,芯片互联采用NVLink 5.0,单枚英伟达Blackwell GPU 支持18 个NVLink 5.0 100 GB/s连接,总带宽可达1.8TB/s,是PCIe 5.0 带宽的14 倍,超AMD 自研InfinityFabric 4.0 总带宽约一倍。Blackwell 的下代Rubin GPU 架构计划于26 年推出,采用NVLink 6.0,公司预计速率达3600 GB/s,为NVLink 5.0 两倍。
英伟达加入Ethernet 战团,Ethernet、NVLink 及InfiniBand 各司其长黄仁勋在本次会上指出因Ethernet 已在部分数据中心先入为主,InfiniBand难以全面铺开。Ethernet、NVLink 及InfiniBand 在成本和性能上各有优劣,InfiniBand 及因完全私域化高速演进的NVLink 在延迟和数据丢包方面表现突出,但开放的Ethernet 性价比更优,未来互联三者将共存;类比铜光互联之争,铜缆因无需光电转换等成本相较低廉,但光缆在性能尤其远距离传输表现更为优异,因此未来二者将协同发展。Ethernet 方面,英伟达推出Spectrum Ethernet,相比传统Ethernet 性能提高1.6 倍;而谷歌、AMD 等巨头组成的UEC 联盟发展Ultra Ethernet,与英伟达分化为两大阵营竞争。
AI 机器人领域持续发力,英伟达引领物理智能浪潮黄仁勋在会上强调了机器人技术和AI 在未来发展的重要性,下一波AI 是物理AI,未来全球工业数字化转型市场规模有望达50 万亿美元,包括自动化运营和数字孪生模型以降本增效。比亚迪电子、西门子、和谷歌旗下公司Intrinsic 等全球十多家机器人行业领导者正在将NVIDIA Isaac 加速库、基于物理的仿真和人工智能模型集成到其软件框架和机器人模型中,提升工厂、仓库和配送中心的效率和安全,并充当重复或超精确任务的智能助手。
风险提示: AI 技术落地和推进不及预期,行业竞争激烈,中美贸易摩擦等;相关信息数据来自于公开客观信息,不代表对相关公司的研究覆盖和推荐。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论