昇思MindSpore 2.3亮相,助力AI大模型训练突破,提升算力至55%!

2024-03-23 18:23:50 自选股写手 
【昇思MindSpore 2.3发布,助力大模型训练与应用】

  3月22日,昇思人工智能框架峰会2024上,昇思MindSpore 2.3正式发布。华为公司ICT Marketing总裁周军表示,华为将从三方面推动昇思MindSpore的发展,包括聚焦根技术支持伙伴孵化原生大模型,面向行业场景加速大模型应用落地,以及使能开发者成长成功,打造开源社区。

  大模型正成为通用人工智能的关键路径,参数达到万亿级别。预计未来几年大模型参数将达百万级别,实现通用人工智能程度。然而,摩尔定律限制下,算力增长缓慢,与大模型需求形成巨大鸿沟,制约了快速发展。人工智能框架的并行计算能力、简洁编程能力和便捷部署能力,逐渐成为大模型训练的关键成功要素。

  昇思MindSpore技术总经理于璠在会上指出,目前大模型分布式训练过程中存在开发效率、训练性能和推理运行成本等关键挑战。例如,万卡集群训练时系统间频繁通信,导致计算利用率急剧下降,业界平均水平约40%。此外,千亿参数模型训练过程中,故障频繁,恢复时间长达3-4小时。

  昇思MindSpore 2.3发布,提供开源开放的训推全流程开发套件,支持伙伴基于昇思孵化原生大模型。在模型开发阶段,提供20多个开箱即用的业界主流训练模型,模型开发周期缩短30%。

  昇思MindSpore通过原创的多副本、多流水交织等8种并行技术,实现集群线性度达90%,算力利用率达55%。同时,针对集群故障率高、恢复时间长问题,采用编译快照、确定性CKPT技术实现20分钟完成故障恢复。

  为加速行业场景大模型应用落地,昇思MindSpore推出训推一体解决方案。在大模型推理方面,通过LLM Serving实现推理吞吐提升2倍多;升级模型压缩工具金箍棒2.0,实现千亿大模型压缩至十倍。

  昇思还持续升级MindSpore TransFormers大模型套件,提供MindSpore One生成式套件,助力开发者快速完成大模型全流程开发。此外,昇思联合顶级科研机构和伙伴打造AI生物计算套件,包含蛋白质结构预测、生成等20多个SOTA模型,加速相关领域创新。


和讯自选股写手
风险提示:以上内容仅作为作者或者嘉宾的观点,不代表和讯的任何立场,不构成与和讯相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。和讯竭力但不能证实上述内容的真实性、准确性和原创性,对此和讯不做任何保证和承诺。
(责任编辑:王治强 HF013)
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。