计算机行业:微软开源DEEP SPEED CHAT 将加快大模型应用在各行业的落地

2023-04-14 09:00:09 和讯  平安证券闫磊/付强/徐勇/徐碧云
事项:
当地时间4月12日,微软宣布开源Deep Speed Chat,帮助用户轻松训练类ChatGPT等大语言模型。
平安观点:
Deep Speed Chat的开源,将显著降低用户获得大模型的成本。DeepSpeed Chat是基于微软Deep Speed深度学习优化库开发而成,具备训练、强化推理等功能,还使用了RLHF(人工反馈机制的强化学习)技术,可将训练速度提升15倍以上,成本却大幅度降低。根据微软公布的数据,使用Deep Speed Chat训练,在微软Azure云上,以8X A100-80GB的GPU集群配置,训练一个130亿参数的大模型,只需9小时就能完成训练,训练花费约290美元。以64X A100-80GB的GPU集群配置,训练一个130亿参数的大模型,只需1.25小时就能完成训练,训练花费约320美元;而训练一个1750亿参数的大模型,也只需要20小时,训练花费约5120美元。Deep Speed Chat的开源,能大幅提升大模型训练速度并降低训练成本,将显著降低大模型的获得成本。
Deep Speed Chat的开源,将加速大模型在千行百业的应用落地。获得成本的显著降低,将加快大模型产品在企业端以及C端用户的普及。于企业端用户而言,利用行业know-how数据训练自己的专属大模型变得更具可行性;于C端用户而言,个人拥有自己的大模型产品也成为可能。
自ChatGPT面世以来,办公、游戏、数字人等应用场景已经初见端倪。
随着大模型的普及,预计千行百业都将加快大模型应用的探索,大模型在各行业应用的落地将加快。需要特别提出的是,大模型的普及将带来对算力的巨大需求。虽然Deep Speed Chat能大幅降低大模型的训练成本。但是根据我们之前的估算,在大模型的训练和推理中,推理的花费占比超过80%。更重要的是,参考个人电脑和智能手机的发展历程,获得成本的降低带来的产品普及,将带来对算力的长期巨大需求。
投资建议:Deep Speed Chat的开源,将显著降低用户获得大模型的成本,加速大模型在千行百业的应用落地。大模型产品应用的想象空间已经打开,国内AIGC产业链将迎来空前的市场机会。算法方面,预计今年国内龙头AI厂商将持续推出更多大模型产品;应用场景方面,预计国内将有办公、教育、医疗、金融等越来越多的行业探索大模型产品的应用;算力是短板,由于供应链的问题,我国高端训练芯片供给可能面对较大的压力,AI算力不足的问题可能显现,相关设备研发和基础设施建设企业可能继续受益。同时,AIGC新技术也会带来新的安全挑战,国产安全厂商也将受益。在标的方面:1)算法方面,推荐科大讯飞;2)应用场景方面,推荐金山办公,建议关注拓尔思、远光软件;3)算力方面 ,推荐浪潮信息、紫光股份、中科曙光、龙芯中科、海光信息,建议关注寒武纪、景嘉微;4)网络安全方面,强烈推荐启明星辰,推荐深信服、安恒信息和绿盟科技。
风险提示:1)合规风险上升。部分国家对ChatGPT较为严格,应用落地出现困难,如果后续国内采取类似措施,AIGC行业国内应用将存在较大挑战。2)国内大模型发展可能不及预期。虽然龙头企业持续在推出或规划推出大模型产品,但大规模应用落地还需要市场检验。3)供应链风险可能上升。AIGC在算力领域对海外供应商依赖比较严重,国产替代还需要时间,如果海外限制趋严,国内AIGC发展可能遭到迟滞。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读