英伟达:Blackwell 问世,见证AI 变革。NVIDIA 发布Blackwell 架构GPU,B200 AI 计算能力达到每秒20 千万亿次浮点运算,GB200 超级芯片由两颗Blackwell 单芯片和一颗Grace GPU 集成,AI 计算能力达到每秒40 千万亿次浮点运算。GB200 NVL72 是把18 个tray 连在一个机柜,内部连接为铜互联形式(高速背板连接器),共有5000 条独立铜缆,外部则使用光互联形式(光模块-I/O 连接器),集合了36 个GB200,72 个GPU,此外,GB200NVL72 还将采用液冷方案。黄仁勋表示服务器零部件更多来自中国大陆,我们认为全新Blackwell 平台的发布将为国产厂商带来新的成长机遇。
美光:HBM3E 正式量产,AI 引领存储新周期。美光FY24Q2 实现营收58.2 亿美元,超出此前指引(51-55 亿美元),YoY+58%,QoQ+23%;净利润4.8 亿美元,成功实现扭亏。受AI 驱动,终端市场库存去化加速,且AI 应用终端存储产品容量提升,DRAM、NAND 需求提升。HBM 供不应求,美光2024 年HBM产能已全部售罄,25 年产能多数也被预定,相同技术节点HBM 对晶圆需求高于普通DDR,给其他产品供给造成压力,先进节点DRAM 和NAND 供应紧张,供给增速慢于需求增速,预计DRAM 和NAND 的定价水平将在2024 年进一步上涨,存储行业进入量价齐升的上行周期。
Marvell:数据中心增长迅速,光模块业务加速AI 发展。FY24Q4 数据中心营收7.7 亿美元,占比86%,YoY+54%,QoQ+38%。芯片互连已成为芯片设计的主要瓶颈,Marvell 持续在芯片互联领域发力:1)与英伟达合作,推动加速计算。英伟达可插拔式光模块利用Marvell 的Spica TM 光学DSP,将数据传输速率提高至每秒800GB。2)推出全球首个2nm 平台。包括速度超过200Gbps 的高速长距离SerDes 和各种高带宽物理层接口。这些技术将成为人工智能集群和云数据中心的设备基础。与台积电合作生产2nm 平台,预计2025 年量产。3)开源OCTEON 10 加速器软件。将OCTEON 10 添加到Linux 数据路径开发人员套件和Apache 设备库中,从而提高5G 网络性能。
博通:上调2024 年AI 营收占比至35%,CPO 产品再突破。博通在2024 年3 月21 日会议中宣布上调AI 营收占比指引至35%,预计实现100 亿美元以上营收,期望2024 年将TPU 集群节点数扩大至3 万个以上,并于2027 年突破至100 万个节点,以适应AI 行业高速发展。同时公司宣布正式量产200G EML 激光器芯片,推出CPO 产品,与市场上主流产品的800G 可拔插收发器的14 W 功率相比,Broadcom CPO 的功率近有5 瓦,可节省几乎70%的功耗,CPO 的集成封装形式提高了产品的可靠性,AI 时代有望大展身手。
投资建议见第二章。
风险提示:复苏节奏不及预期;中美贸易摩擦加剧;行业竞争加剧。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论