本报告导读:
Deepseek 潜精研思重构AI 研发范式,在训练和推理效率上取得颠覆性成果,硬件需求的平民化有望推动国产算力繁荣发展,本地化部署有望迅速铺开。
投资要点:
投资建议:D eepseek降低对硬件算力的需求,云服务厂商将迎来一波新的增长势头,短期来看现阶段本地部署可能是最适合大型企业和特殊行业企业的AI 调用方式。我们看好本地国产推理算力的爆发,以及如向量数据库等新型基础软件的扩圈。推荐标的:浪潮信息、紫光股份、星环科技-U、软通动力。受益标的:中科曙光、神州数码、拓维信息、拓尔思等。
Deepseek 以“单位算力效能提升10 倍”为目标,通过算法优化降低模型训练与推理成本。Deepseek 打破了 AI 大模型领域 “拼投入” 的固有观念,以极低的成本实现了与行业巨头相媲美的模型性能。在训练成本方面,训练671B 的DeepSeek V3 的成本是557.6 万美元(约合4070 万人民币),仅为Llama 3 的7%,而OpenAI 训练ChatGPT-4o 所花费的成本高达7800 万美元甚至是1 亿美元,还需要上万张英伟达H100 芯片,相比之下DeepSeek-V3 在训练时使用的GPU 是英伟达的H800,一款在性能上被削弱的特供AI 芯片。如今DeepSeek-R1 用不到GPT 5%的成本,便获得了和OpenAI 的顶尖推理模型o1 相当的能力。同时公司采用MIT 协议全栈开源,包括模型权重、训练代码及部署工具链,吸引全球开发者共建生态。
DeepSeek 的技术革命性在于其开创了全新的大模型研发范式。首先DeepSeek 采用了MoE 和MLA 两大创新架构来实现高效的推理和成本效益高的训练;算法层面,动态稀疏化专家网络设计(DynamicMoE),使模型推理过程中仅需调用不足4%的神经网络参数;工程层面,Deepseek 采用FP8 低精度训练框架,相比传统32 位计算方案,能耗降幅高达80%的同时保持模型收敛稳定性;尤为突破的是DeepSeek R1 引入的强化学习驱动范式摆脱了对SFT 的依赖,通过自演进式训练机制,其基于强化学习的冷启动策略仅需行业基准值1/5 的标注数据量即可完成高效训练。这些创新突破共同构建了对"算力军备竞赛"发展路径的系统性颠覆。
开源模型 DeepSeek 在当下的AI 时代将扮演重要角色,就像Android 之于移动互联网革命。它会重构产业生态,引发链式反应,加速上层应用发展与下层系统统一。这将调动起跨越软硬件和上下游的生态力量,促使各方加大 “模型 - 芯片 - 系统” 协同优化与垂直打通的投入,进一步削弱 CUDA 生态优势,为国产 AI 产业发展创造机遇。DeepSeek 通过技术创新,在 AI 模型训练过程中实现了对高端进口芯片依赖的降低,这为国内企业展示了一条可行的技术路径,极大地增强了国内企业自主研发算力芯片的信心。
风险提示:技术研发进展不及预期、资本投入不及预期、市场竞争加剧的风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王治强 HF013)
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论