一、 AI 景气度持续向上,音视频显控领域蓬勃发展
1.1 英伟达发布新一代Blackwell GPU
新一代Blackwell GPU 算力大幅提升
2024 年3 月英伟达推出新一代AI 图形处理器芯片(GPU)架构Blackwell,并重磅发布采用该架构的GPU——B200 和GB200 产品系列。英伟达声称,训练一个1.8 万亿个参数的模型以前需要8000 个Hopper GPU 和15 兆瓦的电力。如今,2000 个Blackwell GPU 就能完成这项工作,耗电量仅为4 兆瓦。在具有1750亿个参数的GPT-3 LLM 基准测试中,GB200 的性能是H100 的7 倍,而英伟达称其训练速度是H100 的4 倍。
(1)下一代AI 平台:Blackwell
英伟达首席执行官黄仁勋将Blackwell 称为“推动新一轮工业革命的引擎”,并定义其为一个平台,基于Blackwell,衍生出GPU、AI 超级芯片、服务器、大型计算集群、云服务等多套解决方案。新的 B200 GPU 拥有2080 亿个晶体管,可提供高达20petaflops 的FP4 算力。Blackwell 拥有六项革命性的技术,可以支持多达 10 万亿参数的模型进行 AI 训练和实时 LLM 推理:
全球最强大的芯片:Blackwell 架构GPU 由2080 亿个晶体管组成,采用量身定制的台积电4 纳米(nm)工艺制造,两个reticle 极限GPU 裸片将10 TB/ 秒的芯片到芯片链路连接成单个统一的GPU 。
第二代Transformer 引擎:结合了Blackwell Tensor Core 技术和TensorRT-LLM 和NeMo Megatron 框架中的英伟达先进动态范围管理算法,Blackwell 将通过新的4 位浮点AI 支持双倍的计算和模型大小推理能力。
第五代NVLink:为提高数万亿参数和混合专家AI 模型的性能,最新一代英伟达NVLink 为每个GPU 提供了突破性的1.8TB/s 双向吞吐量,确保最复杂LLM 之间多达576 个GPU 之间的无缝高速通信。
RAS 引擎 :Blackwell 支持的GPU 包含一个专用引擎,实现可靠性、可用性和服务性。此外,Blackwell 架构还增加了芯片级功能,利用基于AI 的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI 的弹性,使其能连续运行数周甚至数月,并降低运营成本。
安全人工智能:先进的机密计算功能可在不影响性能的情况下保护AI 模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。
解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由GPU 加速。
B200 由两个超大型Die(裸片)封装组合而成,黄仁勋用一句话描述了B200相对于前代产品的更新之处:“这是块非常非常大的GPU。”“大”既体现在尺寸:Blackwell GPU 的体积明显大于H100,采用台积电的4 纳米工艺蚀刻而成,整合了两个独立制造的裸晶,共有2080 亿个晶体管,而H100 芯片所拥有的晶体管数量为800 亿个;“大”也体现在性能:单块B200 GPU 能够提供高达20 PetaFlops(每秒千万亿次浮点运算)的FP4 八精度浮点运算能力,而H100则能提供4 petaflops 的FP4 八精度浮点运算能力。黄仁勋称,8 年时间,英伟达从Pascal 架构到Blackwell 架构,将AI 计算性能提升了1000 倍。
(2)GPU“新核弹”:GB200
GB200 将两个GPU 和一个Grace CPU 结合在一起,可为 LLM 推理工作负载提供30 倍的性能,同时还可能大大提高效率,与 H100 相比,它的成本和能耗最多可降低 25 倍。GB200 Grace Blackwell Superchip 集成了1 个Grace CPU和2 个B200 GPU,号称是全世界最强大的Grace 超级芯片。为了获得最高的 AI性能,GB200 驱动的系统可以与英伟达 Quantum-X800 InfiniBand 和Spectrum-X800 以太网平台连接,这些平台可提供速度高达800Gb/s 的高级网络。
GB200 是英伟达GB200 NVL72 的关键组件,GB200 NVL72 是一种多节点、液冷、机架规模系统,适用于计算最密集的工作负载。它结合了36 个GraceBlackwell 超级芯片,其中包括通过第五代NVLink 互连的72 个Blackwell GPU和36 个Grace CPU。GB200 NVL72 还包括 NVIDIA BlueField-3 数据处理单元,可在超大规模AI 云中实现云网络加速、可组合存储、零信任安全性和 GPU计算弹性。
GB200 NVL72 对于LLM 推理工作负载的性能提升高达30 倍,并将成本和能耗降低高达25 倍。GB200 NVL72 平台充当单个GPU 具有 1.4 exaflops 的AI 性能和30TB 的快速内存,是最新DGX SuperPOD 的构建块。
英伟达推出服务器主板HGX B200,它通过NVLink 连接八个B200 GPU,以支持基于x86 的生成式AI 平台。HGX B200 通过英伟达 Quantum-2 InfiniBand和 Spectrum-X 以太网网络平台支持高达 400Gb/s 的网络速度。
北美四大云厂商均将上调全年资本开支,布局 AI(1)微软:公司预计全年资本开支将逐季增长,将增加资本开支进行数据中心建设。(2)Meta:公司全年资本支出指引为350 -400 亿美元,预计同比增长26%-44%。公司资本开支倾向 AI,目标将AI 服务高效商业化。(3)谷歌:24Q1资本开支为120 亿美元,预计全年季度资本支出将保持或高于120 亿美元,2024年资本支出将增长50%以上,达到480 亿美元以上。(4)亚马逊:首席财务官表示计划上调2024 年资本开支,以投入生成式AI 项目、扩充AWS 容量。
三、投资建议
投资建议:英伟达发布新一代Blackwell GPU,算力大幅提升,北美四大云厂商均将上调全年资本开支,布局 AI,AI 景气度持续上行,建议重点关注【淳中科技】,公司与N 公司开展业务合作,布局液冷测试平台、AI 检测平台、测试板卡等业务。根据WIND 一致预期,淳中科技2024-2026 年归母净利润为1.21/1.90/3.29 亿元,同比增速分别为589%/57%/73%,目前市值对应PE 分别为64x/41x/24x。
风险提示:AI 产业进展不及预期,显控行业需求不及预期,竞争加剧。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论