电子行业专题报告:AI专题:AI巨轮滚滚向前

2024-02-19 09:35:05 和讯  方正证券郑震湘/佘凌星/钟琳/刘嘉元
  文生视频大模型Sora 震撼登场,AIGC 新时代已至。OpenAI 在2024 年2 月16 日发布文生视频模型Sora,该模型为基于transform 架构的扩散模型,完美继承DALL·E 3 的画质和遵循指令能力,并利用了GPT 扩写,具备超长生成时间(60s)、单视频多角度镜头、理解物理世界三大突出优势。我们认为,从Runway、Pika 到Sora,文生视频大模型频出,视频长度从表情包长度的3s-4s 到主流短视频长度的60s,模型对物理世界的理解愈加接近现实,已具备商业化落地价值,创作内容产业革命来临,AIGC 新时代已至。
  除此之外,2024 年2 月15 日谷歌发布Gemini 1.5 Pro,支持100 万token上下文长度, Gemini 1.5 Pro 性能显著增强,技术进步显著。
  英伟达正式发布Chat With RTX,AI 加速普及。这款应用适用于Windows平台,由TensorRT-LLM 提供支持,并完全在本地运行。用户可以利用ChatWith RTX 以自己的内容定制一个聊天机器人,从而体验独特的本地化系统设计和强大的功能。此次Chat With RTX 的发布不断加速人工智能的发展,加速了AI 的普及和应用。同时此款应用改变人与AI 的交互方式,用户可以根据自己的需求定制聊天机器人,这使得AI 的使用更加灵活和便捷。ChatWith RTX 也代表了大型语言模型技术发展的一个重要方向,即为本地化、个性化、隐私保护的AI 应用提供了新的可能。我们认为,AI 正逐渐普及,通用人工智能时代加速来临。
  CES 百花齐放,AI+终端智能化加速。英伟达、AMD、高通分别推出GeForceRTX 40 SUPER 系列、锐龙8000G 系列、骁龙XR2+ Gen 2 等高性能处理器,性能水平实现跃升,助力AI 加速渗透PC、汽车、智能家居等终端场景。我们看到,三星大力布局人车互联生态;英特尔在发布AI PC 平台的同时,推出SDV SoC 赋能AI+汽车;戴尔灵越系列搭载英特尔酷睿Ultra 7,AI 能效再度提升;联想十余款AI PC 产品发布,规模化落地逐步推进;华硕搭载酷睿Ultra 9,各系列产品针对不同的目标客户进行性能或配置上的优化,满足差异化需求。我们认为,在高性能AI 处理器的加持下,AI+N 类终端的时代浪潮已至,AI 改变的不只是PC 与手机,科技赋能将全方位渗透,消费电子也将迎来全新的增长机遇。
  MR 为AI 最佳落地终端,高度赋能MR 内容与硬件。AnyMAL 于2023 年9 月28 日发布,而Meta Quest 3 于同日发布,两者在时间上相近,且Meta Quest3 可收集多模态数据,将真实世界和虚拟世界无缝融合,实现 Meta Reality体验,我们认为AnyMAL 相关研究成果有望为Meta 的元宇宙产品线提供支持并应用到消费者市场。我们认为MR 是AI 最佳落地终端,泛社交、B 端应用拓展也拥有想象空间。
  英伟达:H200 出货在即,B100 在路上。2023 年11 月13 日,英伟达发布首款搭载HBM3e 的GPU H200,借助HBM3e,H200 能以每秒4.8 TB 的速度提供141GB 内存,与NVIDIA A100 相比,容量几乎翻倍,带宽增加2.4 倍。搭载HBM3e 的H200 在处理700 亿参数的大模型时,推理速度较H100 快了整整一倍,能耗降低了一半。受HBM3E 供应限制,预计H200 将于24Q2 实现出货。
  英伟达B100 原计划发布时间为2024Q4,但由于AI 需求的火爆,已经提前至2024Q2,目前已经进入供应链认证阶段,B100 将能够轻松应对1730 亿参数的大语言模型,比当前型号H200 的两倍还要强大。此外,B100 将采用  更高级的HBM 高带宽内存规格,有望在堆叠容量和带宽上继续突破,超越现有的4.8TB/s。根据英伟达产品路线图,预计2025 年将推出X100,进一步丰富GPU 产品矩阵,巩固英伟达AI 芯片龙头地位。
  AMD:MI300 正式发布,CoWoS+SoIC 赋能3.5D 封装。2023 年12 月6 日,AMD 在Advancing AI 活动上宣布推出Instinct MI300X,采用了AMD CDNA3架构,搭载了8 块HBM3,容量达192GB。与MI250X 相比,计算单元增加了约40%、内存容量增加1.5 倍、峰值理论内存带宽3 增加1.7 倍。在某些工作环境中,性能可达H100 的1.3 倍。MI300X 采用3.5D 封装,即通过混合键合技术实现XCD、I/Odie 的3D 堆叠,其次在硅中介层上实现与HBM 的集成,从而实现了超过1500 亿个晶体管的高密度封装。该封装方案由台积电提供,搭配SoIC 技术与CoWoS 技术共同实现。
  Coherent:800G 产品环比持续高增,2025 年顺应AI 发展推进1.6T 商业化。2023Q4 Coherent 实现收入11.31 亿美元,高于指引中值,yoy-17.45%,qoq+7.41%。受益于人工智能的蓬勃发展, AI/ML 相关数据收发器连续第三季获得强劲订单,800G 产品季度收入突破1 亿美元,环比增长超100%,800G出货量持续强劲增长,FY2024 公司预计超50%的数据通信收发器收入将来自人工智能相关应用,2025 年向1.6T 产品商业化发展前进以顺应AI 发展。
  Arista:云、AI 和数据中心核心业务发展势头迅猛。Arista 在2023 年的核心业务由云、Al 和数据中心产品组成,建立在高度差异化的Arista 可扩展操作软件系统堆栈上,部署了10G、25G、100G、200G 和400G 的速度。
  Arista 云网络产品提供了节能、高可用的区域,而不会增加冗余成本,因为数据中心对前端、后端存储和计算集群的带宽容量和网络速度都有很高需求。Arista 预计400 和800 千兆以太网将成为Al 后端GPU 集群的重要试点,预计2025 年实现Al 网络收入至少7.5 亿美元。
  国产算力把握机遇乘势而上。通过梳理IC 先进算力公司公告及业务进展近况我们发现:目前国内IC 先进算力公司在产品迭代、产能建设、斩获大额订单进展迅猛,其中产品迭代以及产能建设主要集中在算力核心硬件以及AI 相关芯片中,同时从部分公司目前斩获的订单来看,主要集中在国产化算力相关项目中。我们认为,核心公司业务进展近况进一步印证了现阶段板块发展两个核心要素:AI 方向的持续产品迭代、庞大的国产化算力需求。
  我们看好在AI 算力需求高景气的背景下,国内AI 算力产业链将在2024 年迎来更加快速的发展。
  HBM4 实现逻辑存储垂直堆叠,混合键合助力带宽提升。HPC 功耗问题突出,HBM 打破内存带宽及功耗瓶颈,已成为HPC 军备竞赛的核心。海力士凭借其先进封装技术如MR-MUF、混合键合和2.5D FOWLP 技术,保持性能领先,预计HBM4 将于2026 年面世,届时将实现逻辑和存储的垂直堆叠,对于键合、TSV 和散热环节的需求将大幅提升。混合键合是HBM4 的关键技术,助力凸点间距缩小至10um 以内,对应键合设备的单价将提升3-5 倍,对控制精度和工作效率都提出了新的要求。
  风险提示:AI进展不及预期,研发进度不及预期,海外贸易摩擦影响。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读