ChatGPT 带动模型训练热潮,公司AI 服务器有望放量随着国内各大互联网厂商相继布局ChatGPT 类似产品,对于大模型的训练需求或将带动底层算力需求快速增长。我们认为,算力需求逐步释放或将带动AI 服务器放量。公司作为国内AI 服务器产业龙头,有望凭借强大产品力,实现23 年营收高增长。上调收入预测,预计22-24 年EPS 为1.71、2.16、2.89 元(前值1.71、2.11、2.81 元),可比公司平均23E 20.4x PE(Wind),给予23E 20.4x PE,对应目标价44.06 元(前值:34.24 元),“买入”。
GPT 大模型训练热潮有望带动底层算力需求
ChatGPT 发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT 模型开发计划。据各公司官网,2023 年2 月7 日,百度宣布将推出ChatGPT 类似产品“文心一言”,预计今年3 月展开内测;2 月8 日阿里宣布阿里版ChatGPT 正在研发中,目前处于内测阶段;2 月9 日,字节跳动旗下AI Lab 宣布正在开展ChatGPT 和AIGC 相关研发,未来将为PICO提供技术支持;2 月10 日,京东旗下言犀人工智能平台推出产业版ChatGPT—“ ChatJD”。我们认为,随着国内互联网厂商陆续开展ChatGPT类似产品研发,GPT 大模型训练热潮或将带来底层算力需求快速释放。
预训练+日常运营+Finetune,或共同带动AI 服务器需求据我们2023 年2 月13 日发布的《从ChatGPT 看算力产业机遇》, AI 大模型的算力需求主要体现在以下三类场景:1)模型预训练:据我们测算,训练一次ChatGPT 模型(13 亿参数)需要的算力约27.5PFlop/s-day;2)日常运营:用户交互带来的单月运营算力需求约4874.4PFlop/s-day,对应成本约616 万美元;3)Finetune:模型需要持续进行大规模或小规模的迭代训练,参数调优过程同样需要算力支持。考虑到目前国内算力基础设施产业以服务器为核心,其中AI 服务器较一般服务器更适合进行AI 大规模并行计算,因此我们认为,AI 服务器行业或将率先受益于GPT 模型训练热潮。
公司AI 服务器性能优异,有望驱动23 年营收高增长公司在人工智能领域的产品布局主要包括AI 计算平台、AI 资源平台、AI 算法平台等。目前公司AI 服务器主要产品型号包括NF5688M6、NF5488A5等,据公司官网,2021 年上述两款AI 服务器在国际权威AI 基准测试MLPerf榜单中,获得7 项训练冠军,可满足包括自然语言理解等在内的多项AI 训练需求。据IDC,2021 年公司在国内AI 服务器市场份额51.2%,排名第一。
我们认为,在GPT 大模型训练热潮下,公司AI 服务器有望凭借优异性能,充分受益于算力需求的释放,预计公司2023 年有望迎来营收高增长。
风险提示:宏观经济波动风险;市场竞争加剧。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论