人工智能行业点评:英伟达GPU、DGX云、AI工厂三驾马车发布 AI算力和应用再迎跃迁

2023-03-27 09:25:08 和讯  国信证券熊莉/库宏垚
  事项:
  英伟达本周举办GTC 大会,围绕AI、量子计算、芯片等前沿科技发布了一系列产品:如用于量子计算、光刻等领域的加速库;面向AI、数据中心等领域的CPU、DPU 加速芯片;面向AI 超级计算集群出租的DGX 云;用于生成式AI 的大模型“代工厂”;面向AI 视频、ChatGPT 等应用的推理芯片平台;面向智能制造的Omniverse 虚拟工厂。对于当前发展火热的AI 产业,英伟达发布会成为市场关注焦点。
  国信计算机观点:1)ChatGPT 在AI 问答上的优秀表现引爆网络,GPT-4 能力更加卓越,OpenAI 面临的访问流量呈现快速增长态势。最新的GPT-4 访问价格已上涨数倍,其算力消耗和成本必然也有较大提升。AI大规模的应用和普及,算力是瓶颈之一,英伟达发布产品有望助力AI 产业跃迁;2)芯片端,英伟达H100NVL 专门针对生成式AI 语言模型设计,可以将大型语言模型的处理成本降低一个数量级;3)云端,公司DGX 云服务更方便快捷的出租AI 超级计算集群算力,对于AI 创业公司将大幅降低投入成本,有望繁荣AI生态;4)应用端,公司已推出语言、视觉、和生物学三大模型,AI 模型“代工厂”的角色,让各类行业客户更加容易训练并使用针对自身的AI 应用模型,将进一步普及AI 应用;5)英伟达为AI 产业,从算力到应用均带来跃迁,将加速AI 的应用和落地。参考国内产业对比,以百度文心大模型发布来看,国内也会逐步复制国外AI 产业的发展路径,且当前已具备一定的应用案例,我们持续看好国内AI 产业的发展,重点关注AI 算力、算法、应用相关产业和标的;5)风险提示:AI 等应用发展和落地情况不及预期;国内AI 产业发展不及预期;国内算力、芯片等基础环节进展缓慢等。
  评论:
  英伟达发布ChatGPT 专用GPU,算力基础大幅提升英伟达再发重磅GPU 产品,AI 的“iPhone 时刻”来临。英伟达本次发布会展示了多项产品和技术,其中GPU 性能的持续提升一直是大会焦点。英伟达发布了全新的GPU 推理平台,该平台包括4 种不同配置,针对不同工作负载进行优化:L4:针对AI 视频工作负载。L4 在视频解码和编码、视频内容审核、视频通话功能等领域做了较大优化,其在AI 视频加速方面比CPU 高120 倍的性能。一台8-GPU L4 服务器将取代一百多台用于处理AI 视频的双插槽CPU 服务器。Google 云已与其合作推出了新的云硬件产品L4 平台。
  L40:针对Omniverse、图形渲染等生成式AI。L40 推理性能是英伟达的云推理GPU T4 的10 倍;L40 是英伟达元宇宙Omniverse 的引擎。当前火爆的AI 图片生成平台Midjourney、Stable Diffusion 等未来均是L40 的潜在的可能应用场景。
  H100 NVL:针对ChatGPT 等LLM 大语言模型的Hopper GPU。该产品是基于去年已经发布的H100 的改进版本:配备双GPU NVLink,将两张拥有94GB HBM3 显存的PCIe H100 GPU 拼接在一起。H100 可处理拥有1750亿参数的GPT-3,还可支持商业PCIE 服务器扩展。英伟达宣称H100 NVL 提供的GPT3-175B 推理吞吐量是上一代HGX A100 的12 倍(8 个H100 NVL 对比8 个A100)。H100 NVL 卡将于今年下半年开始发货,以满足当前对大语言模型训练的强烈需求。
  Grace Hopper:针对推荐系统和大型语言模型AI 数据库设计的超级芯片。该芯片可以通过900GB/s 的高速一致性芯片到芯片接口连接英伟达Grace CPU 和Hopper GPU,非常适合处理大型数据集。
  算力瓶颈制约AI 大规模应用和普及,英伟达助力算力跃迁。近期OpenAI 对于Plus 付费用户的GPT-4 访问连续下降阈值,已由最初的150 msg/ 4 hr 下降至25msg/3hr;其理由主要是为了控制成本。由于ChatGPT在AI 问答上的优秀表现引爆网络,GPT-4 能力更加卓越,OpenAI 面临的访问流量呈现快速增长。根据最新的GPT-4 访问价格,其每1000 个token 的价格数倍于原GPT-3 和GPT-3.5-turbo,因此其算力消耗和成本必然也有较大提升。英伟达最新产品即是解决算力瓶颈的关键,H100 NVL 专门针对生成式AI 语言模型设计,可以将大型语言模型的处理成本降低一个数量级。根据公司演示,训练Transformer 模型从5 天缩短到了19 小时,而在结合了英伟达多项尖端软硬件条件下,整个模型训练从7 天缩短到了20 小时,效率足足提升9 倍。算力性价比的提升,将帮助AI 在各种应用下迅速普及。
  英伟达推出DGX 云,AI 即服务再次降低行业门槛DGX Cloud 云服务问世,让AI 使用更简单。英伟达DGX Cloud 是未来公司重点计划,公司提供了专用的NVIDIA DGX AI 超级计算集群,搭配NVIDIA AI 软件,向每家企业出租AI 算力。英伟达的AI 计算集群强大而昂贵,企业以云租赁的方式采购将更快、更方便的实现自身的AI 训练和应用。目前英伟达已经和微软云、谷歌云、Oracle OCI 开展合作,其首个NVIDIA DGX Cloud 是与Oracle 合作的云服务,每个实例每月36,999 美元起。每个实例包括八个Nvidia H100 或A100 80 GB GPU,每个GPU 节点内存高达640 GB。
  计算资源是专用的,不与云中的其他租户共享,网络也在租户之间隔离。
  参考IaaS 到SaaS 的发展逻辑,DGX 云有望推动AI 生态更加繁荣。以OpenAI 大语言模型GPT3 为例,其1750 亿个参数,需要庞大成本投入和算力支持,一般企业难以涉足。目前在AI 大模型领域持续投入的主要是互联网大厂,如谷歌、百度、阿里等;OpenAI 的迅速发展也离不开微软等巨头的持续投资。因此,类似于2000 年后云计算的兴起,IaaS 让各类企业创业和发展更加容易,催生B 端SaaS 和C 端互联网生态。
  可以预期,英伟达DGX 云的推出,让AI 创业更为方便,不再只是巨头游戏,未来AI 应用和生态有望快速发展。
  英伟达AI 代工厂再向前端迈进一步,模型应用值得期待生成式AI 不断取得突破,英伟达进一步推出模型制作服务。ChatGPT、Midjourney 等生成式AI 应用让整个世界为之振奋,也彰显了大模型极强的应用能力和价值。英伟达发布AI Foundations,旨在为用户提供定制化的LLM 和生成式AI 解决方案。英伟达希望扮演AI 模型“代工厂”的角色,帮助客户构建、改进和操作自定义大型语言模型,这些模型和生成AI 使用其专有数据和特定领域的任务进行训练。英伟达AI 大模型包含语言、视觉和生物学三大模型
  NEMO:语言模型。NEMO 是用于自然语言文本的生成式模型,可以提供80 亿、430 亿、5300 亿参数的模型,且会定期更新额外的训练数据,英伟达AI 专家也可以提供全程指导合作。根据NEMO 模型,企业可以生成自己的大模型,实现客服、聊天机器人、撰写电子邮件等功能。NEMO 模型是一个基于PyTorch 的开源工具包,允许开发者快速构建、训练和微调会话式人工智能模型。NeMo 由NeMo Core 和NeMo Collection组成,在NeMo 的Speech Collection 中,可以找到用于语音识别、命令识别、说话人识别、说话人验证和语音活动检测的模型和各种构建模块。NeMo 的NLP Collection(nemo_nlp)包含了诸如问题回答、标点符号、命名实体识别等任务的模型。本次发布会,公司还发布了NVIDIA TAO Toolkit 5.0,借助NVIDIATAO(训练、适应、优化)工具包,开发人员可以利用迁移学习的强大功能和效率,通过适应和优化在创纪录的时间内实现最先进的准确性和生产级吞吐量,可以促进对话AI 模型的培训和微调。
  Picasso:视觉模型。Picasso 用于训练包括图像、视频和3D 应用的生成式AI 模型。公司宣布gettyimages、Shutterstock 将采用英伟达Picasso 服务,Adobe 将与英伟达共同打造新一代的生成式AI 模型。以Shutterstock 为例,其是一家面向创新品牌和媒体公司的领先创作平台。Shutterstock 使用NVIDIAPicasso 生成式AI 云服务,使这些模型能够根据简单的文字提示创建生成式3D 资产,同时将训练的3D模型转换为高保真的3D 内容,创作时间可以从数小时缩短至数分钟。
  Bionemo:生物学模型。Bionemo 专门为用户提供创建、微调、提供自定义模型的平台,可用于蛋白质结构预测、蛋白质生成、蛋白质性质预测、分子生成、分子对接等各个流程。在数百家新的AI 制药初创公司之中,英伟达已经积累了至少7 家公司,作为Bionemo 大模型的早期用户。
  英伟达AI 模型向产业前端再迈进一步,形成全产业链AI 能力输出。英伟达再提供芯片、AI 算力云服务后,也向产业提供自己的大模型能力,让客户能最简化定制自身需要的AI 能力。AI“代工厂”可以类比为云计算中PaaS 及SaaS 层服务,实现AI 全生命周期能力输出,更进一步推动AI 的应用普及。目前英伟达推出了三大模型,且已在业内有所应用,未来有望进一步推出更多模型。除此之外,英伟达“工业元宇宙”Omniverse Cloud 也是PaaS 平台,旨在建设虚拟工厂,让各个行业在投入实际生产之前先以数字化方式设计、建造、运营和优化物理产品和工厂。
  投资建议:
  以ChatGPT、Midjourney 为代表的生成式AI 应用席卷全球,对AI 算力、算法、应用的需求已形成快速增长趋势。即使单个GPT-4 的应用,算力和成本已呈现暴涨之势。英伟达近期发布的一系列产品对于AI 产业形成较大的利好:芯片端,H100 NVL 专门针对生成式AI 语言模型设计,可以将大型语言模型的处理成本降低一个数量级。云端,公司DGX 云服务更方便快捷的出租AI 超级计算集群算力,对于AI 创业公司将大幅降低投入成本,有望复制云计算催生B 端SaaS 和C 端互联网生态,同样繁荣AI 生态。应用端,公司已推出语言、视觉、和生物学三大模型,AI 模型“代工厂”的角色,让各类行业客户更加容易训练并使用针对自身的AI 应用模型,将进一步普及AI 应用。因此我们认为英伟达为AI 产业,从算力到应用均带来跃迁,将加速AI 的应用和落地。参考国内产业对比,以百度文心大模型发布来看,国内也会逐步复制国外AI 产业的发展路径,且当前已具备一定的应用案例,我们持续看好国内AI 产业的发展:
  算力端:重点关注中科曙光、海光信息等。
  算法端:重点关注科大讯飞、三六零等。
  应用端:重点关注金山办公、同花顺、凌志软件、彩讯股份等。
  风险提示:
  AI 等应用发展和落地情况不及预期;国内AI 产业发展不及预期;国内算力、芯片等基础环节进展缓慢等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读