投资要点:
幻方发布第二代MoE 模型DeepSeek-V2,综合性能位列第一梯队。
2024 年5 月6 日,幻方发布第二代MoE 模型DeepSeek-V2。在AlignBench、MT-Bench、MMLU 等多个benchmark 上表现出色,其中AlignBench 在开源模型中居首位,与GPT-4-Turbo,文心4.0 比肩。MTBench超过最强MoE 开源模型Mixtral 8x22B。
DeepSeek-V2 定价降至冰点,大模型价格战拉开序幕。
DeepSeek-V2(32k)每百万tokens 输入/输出价格分别为1/2 元,而GPT-4-Turbo-1106 分别为72/217 元,DeepSeek-V2 性价比显著。相对于Claude 3 Haiku,DeepSeek-V2 每百万tokens 输入/输出价格也仅为其50%/22.2%。除此之外,同为32k 上下文版本的moonshot-v1、SenseChat-32K、Qwen1.5 72B 每百万tokens 输入/输出价格分别为24/24、36/36、20/20 元。此次DeepSeek-V2 定价发布有望掀起新一轮大模型价格战,api 定价有望持续走低。
大模型定价下降的背后离不开成本的优化。
目前,众多大模型已经通过多种方式降低成本。从模型压缩的方向看,可以通过量化的形式将浮点表征为低位宽模型来压缩模型存储空间,加速模型推理;从模型架构的方向看,MoE 架构由于其内部的专家模型能够分配到不同设备,并可以执行并行计算,其计算效率较稠密模型显著提升,进而带来更低的成本。从tokens 量的方向来看,可以通过prompt 压缩等方式直接降低输入端tokens,进而降低成本。
除此之外,多种新的方案已出现在相关论文中,未来多种成本优化方案的融合将进一步加速模型成本的下降。
我们认为,大模型成本优化与算力需求并不是直接的此长彼消,而是互相搭台、相互成就。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活国内AI 应用及国产算力发展。
建议关注:
AI 算力:寒武纪、海光信息、浪潮信息、中科曙光等。
AI 应用:金山办公、科大讯飞、福昕软件、云从科技、商汤、出门问问等。
风险提示
大模型优化不及预期的风险;商业落地不及预期的风险等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论