事件
据IT 之家 1 月 20 日消息,幻方量化旗下 AI 公司深度求索(DeepSeek)正式发布 DeepSeek-R1 模型,并同步开源模型权重。据官方介绍,DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有少量标注数据的情况下,提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
核心观点
DeepSeek 大模型版本陆续迭代,低成本高性能优势明显。据光明网报道,2023 年11 月2 日,DeepSeek 推出首个模型DeepSeek Coder,该模型免费供商业使用且完全开源。2023 年11 月29 日,DeepSeek LLM上线,其参数规模达到67B 性能接近GPT-4,同时还发布了该模型聊天版本DeepSeek Chat。2024 年5 月,DeepSeek-V2 发布,该模型在性能上比肩GPT-4 Turbo,价格却只有GPT-4 的百分之一。2024 年12 月底DeepSeek-V3 发布,其性能与GPT-4o 和Claude Sonnet 3.5 等顶尖模型相近,但训练成本很低。整个训练在2048 块英伟达H800 GPU 集群上完成仅花费约557.6 万美元,相比之下GPT-4o 等模型至少要在万个GPU 量级的计算集群上训练,且使用的是性能更为优越的H100GPU,训练成本约1 亿美元。
用户增长迅速,国内外厂商积极适配DeepSeek 大模型。据证券时报报道,作为幻方量化旗下的AI 公司深度求索研发的国产开源大模型,DeepSeek 近期连续发布的DeepSeek V3、DeepSeek-R1 等AI 模型展示了很好的效果和低廉的训练成本。移动应用分析机构SensorTower 的数据显示,其应用软件在18 天内的下载量达到1600 万次,截至2025年2 月4 日,DeepSeek 日活用户数超越了2000 万,成为全球增速最快的AI 应用。1 月31 日,英伟达发布搭载DeepSeek-R1 671b 的“英伟达NIM 微服务”预览版,显著提升AI 模型的运行效率,简化企业部署流程,降低AI 落地的技术门槛。另外,AMD 已将新的DeepSeek-V3 模型集成到Instinct MI300X GPU 上;英特尔也表示其开发的AI 芯片/GPU 芯片可以支持DeepSeek,有意与中国芯片合作打破英伟达打造的生态垄断。海光信息作为国产AI 芯片企业,2 月4 日晚宣布成功完成DeepSeekV3 和R1 模型与海光AI 加速卡DCU 的适配并正式上线。
价格更便宜有利于下游应用的发展。据第一财经报道,DeepSeek-R1 输入(缓存命中)、输出定价分别为每百万tokens1 元、6 元,低于o1 的55 元、438 元。OpenAI CEO 山姆·奥尔特曼(Sam Altman)在当地时间1 月23 日宣布,OpenAI 将推出新一代o3 系列的o3-mini 版本,且ChatGPT 免费用户将能使用o3-mini。
投资建议
我们认为,随着此次DeepSeek-R1 模型的推出,不断降低大模型的使用成本,更多应用场景有望出现,端侧AI 有望受益。我们建议重点关注中兴通讯、小米集团、美格智能、广和通、移远通信等。
风险提示
AI 行业发展不及预期,AI 应用发展不及预期。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:张晓波 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论