计算机行业“智能网联”系列报告35:SLM AIPC和AI手机的最佳选择

2023-12-15 09:30:07 和讯  中信证券杨泽原/丁奇/黄亚元/潘儒琛
微软发布phi-2 小语言模型,27 亿参数实现百亿参数大模型的效果,我们认为16-32GB 内存+NPU 的PC 即可运行,后续手机也有望运行。建议关注具备较多C 端用户的AI 应用公司金山办公、科大讯飞、万兴科技。建议关注边缘AI模组厂商中科创达、移远通信、广和通、美格智能。
看模型:微软phi-2 发布,小模型也足够智能。2023 年12 月12 日,微软发布了Phi-2 语言模型。该模型仅有27 亿参数,比700 亿参数的Llama2 小一个数量级,然而在性能表现方面不输其他模型。根据微软的测试,该模型在语言理解、常识推理、数学、代码四方面的能力全面超越130 亿参数的Llama2,部分方面表现甚至优于700 亿参数的Llama2。
看硬件:16-32GB 内存+NPU 可支持PC 和手机AI 需求。SLM 可以极大降低硬件需求,根据微软官网,训练端phi-2 仅需96 个A100 GPU 训练14 天;推理端,模型2.7B 的参数量,在使用FP16 精度的情况下,仅需5.4GB 的存储空间。
2023 年6 月到12 月,微软Phi-1 1.3B、Phi-1.5 1.3B、谷歌Gemini Nano 3.2B、微软Phi-2 2.7B 等小模型先后发布,模型本体存储占用大致在2.6GB-6.4GB,结合运算需求,SLM 的RAM 存储容量或达到4-8GB。结合其他程序内存占用,根据我们使用测试,Windows 系统办公电脑日常轻载情况下内存占用约4GB,运行较多文档、网页的情况下内存占用或可达到12GB 左右。因此我们认为,存储空间方面,16G 内存PC 或可轻度运行语言模型,32G 内存的PC 则可以满足更多SLM+办公需求;当前手机配备的RAM 空间较小,大多在16GB 以下(也有配备24GB 的型号),相对PC 而言运行SLM 的压力更大。此外NPU运行AI 效率较高,能够帮助移动PC 和手机降低能源消耗,延长续航,并强化推理能力,改善AI 使用体验。
看应用:图片视频创意、智慧助手类应用可能率先推出。我们认为SLM 发展可以提升边端AI 助手的智能程度,SLM 与操作系统、办公软件以及各类APP 结合进行本地部署可以提升使用体验。图形图像类的模型普遍尺寸比语言模型更小,创意应用的容错率也更高,也有望随着小模型和AI PC 发展。
风险因素:小模型性能效果不及预期;NPU 发展不及预期;小模型在边端设备部署效果不及预期。
投资策略。2023 年下半年以来,SLM 发展迅速,结合高性能存储、集成NPU的发展,语言模型有望在边缘端落地,大幅提升C 端用户AI 使用体验,存储、PC 端和手机端AI 应用有望受益,建议关注具备较多C 端用户的AI 应用领军企业金山办公、科大讯飞、万兴科技。边缘AI 的落地也有助于边缘AI 算力硬件发展,建议关注AI 物联网模组企业中科创达、移远通信、广和通、美格智能。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读