计算机行业周报:大模型推理成本降低 AI应用落地可期

2024-06-11 08:10:06 和讯  财通证券杨烨
  「API 降价」为应用落地带来肥沃土壤。大模型的智能水平随着参数量和训练数据量的显著增加而提升,但高昂的推理成本限制了其应用落地。自5 月以来,幻方DeepSeek-V2 引入创新性的MLA 架构,将模型输入和输出价格分别降至1 元和2 元每百万token,受到广泛关注。随后,字节豆包在国内大模型市场率先降价,阿里、百度等云厂商以及智谱AI 等初创公司也推出具有竞争力的低价模型。事实上,API 价格下降是行业发展的必然趋势。得益于(i)模型架构的创新、(ii)推理引擎的推出、(iii)芯片性价比的提升以及(iv)参数量化的普及,大模型的推理成本已经取得了显著的优化,API 价格的下降将促进应用生态的繁荣,吸引更多开发者,推动AI 原生应用的落地。
  「Attention 机制」优化计算复杂度的源头。注意力机制(Attention)是大语言模型成功的关键技术,Transformer 模型利用自注意力机制在序列间建立长距离依赖,提高了seq2seq 任务性能。然而,标准自注意力机制的时间空间复杂度随序列长度N 呈二次方增长,为此业界探索简化MHA(如MQA、GQA、MLA)或替代Attention 机制(如Mamba、RWKV、RetNet)的方案来降低计算和内存需求。近期,以幻方DeepSeek 提出的MLA 和Mamba-2 为代表的SSD 架构让业界看到了对Attention 机制进一步优化提效的巨大潜力。
  「MoE 架构」高效扩展模型参数量的秘诀。混合专家模型(MoE)架构通过集成多个专家模型和门控网络,实现模型参数的高效扩展和计算量的降低。当前研究聚焦于构建更异构的MoE,以自适应地调整计算成本,提高模型效率。
  幻方DeepSeek-V2 和Snowflake 的Arctic 模型分别采用细粒度切割+共享专家独立机制和Dense-MoE 混合架构,显著提升了参数效率。随着业界对MoE 研究的深入,更加异构的MoE 架构将逐渐被主流模型厂商采用,并融入其旗舰模型中。这将带来模型的推理成本更加动态分配,与之对应的单位成本模型能力也将变得更加强大。
  风险提示:AI 技术迭代不及预期的风险,商业化落地不及预期的风险,政策支持不及预期风险,全球宏观经济风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读