事项:
2024 年5 月6 日,幻方量化宣布旗下AI 公司 DeepSeek 正式开源第二代 MoE模型:DeepSeek-V2。该模型能力表现出色,中文综合能力与 GPT-4-Turbo,文心 4.0 等闭源模型处于同一梯队。英文综合能力与LLaMA3-70B 同处第一梯队。其知识、数学、推理、编程能力也位居前列。该模型性价比显著,每百万 tokens 输入 1 元、输出 2 元(32K 上下文),价格仅为 GPT-4-Turbo 的近百分之一 。其价格的降低有望吸引更多开发者和企业的入局,加速AIGC应用的落地和推广。
评论:
大模型主流榜单中DeepSeek-V2 各项均表现出色: DeepSeek-V2 在中文综合能力评测(AlignBench)中位列开源模型之首,并与GPT-4-Turbo、文心4.0 等闭源模型同处第一梯队。在英文综合能力评测(MT-Bench)中,它与LLaMA3-70B 并列第一,超过了Mixtral 8x22B。它在知识、数学、推理、编程等评测中也排名靠前,并支持128K 上下文窗口。
DeepSeek API 调用成本大幅压缩: DeepSeek-V2 采用 MoE 架构,成本大幅降低。其 API 定价远低于 GPT-4-Turbo,仅为 GPT-4-Turbo 的近百分之一。
DeepSeek-V2 在中文能力评测中表现出色,位于全球模型的第一梯队,同时具备极高的性价比。
模型结构创新,大幅减少计算量和推理显存:DeepSeek-V2 不采用传统的Dense 或 Sparse 结构, 而是创新性地提出了 MLA(Multi-head LatentAttention)架构,并结合自研的 Sparse 结构 DeepSeekMoE,显著降低了计算量和推理显存需求。以 236B 总参数和 21B 激活参数,实现了相当于 70B-110B Dense 模型的性能,同时显存消耗仅为同级别 Dense 模型的 1/5 至1/100。在实际部署中,DeepSeek-V2 在 8 卡 H800 机器上,每秒输入吞吐量超过 10 万 tokens,输出超过 5 万 tokens。
投资建议:AI 大模型本质应落脚垂类应用,国内大模型正快速追赶美国先进水平,中文大模型的突破有望为下游AI 应用注入新的活力,看好AI+应用产品力与商业化落地进程。建议关注以下标的:AI+应用侧:1)安全:永信至诚、深信服;2)办公:金山办公、福昕软件;3)法律:金桥信息、华宇软件、通达海;4)医疗:润达医疗;5)教育:佳发教育、欧玛软件、新开普;6)金融:同花顺、新致软件;7)邮箱:彩讯股份;8)传媒:掌阅科技、华策影视;9)数据:海天瑞声;10)电商:焦点科技;11)OA:致远互联、泛微网络;12)ERP:用友网络、金蝶国际。算力侧:1)算力基础:润泽科技、亚康股份、海光信息、寒武纪、龙芯中科;2)服务器:中科曙光、浪潮信息、紫光股份、神州数码、拓维信息。
风险提示:商业化后表现不及预期,用户付费意愿低,行业技术迭代速度较快。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论