3月22日,昇思人工智能框架峰会2024上,昇思MindSpore 2.3正式发布。华为公司ICT Marketing总裁周军表示,华为将从三方面推动昇思MindSpore的发展,包括聚焦根技术支持伙伴孵化原生大模型,面向行业场景加速大模型应用落地,以及使能开发者成长成功,打造开源社区。
大模型正成为通用人工智能的关键路径,参数达到万亿级别。预计未来几年大模型参数将达百万级别,实现通用人工智能程度。然而,摩尔定律限制下,算力增长缓慢,与大模型需求形成巨大鸿沟,制约了快速发展。人工智能框架的并行计算能力、简洁编程能力和便捷部署能力,逐渐成为大模型训练的关键成功要素。
昇思MindSpore技术总经理于璠在会上指出,目前大模型分布式训练过程中存在开发效率、训练性能和推理运行成本等关键挑战。例如,万卡集群训练时系统间频繁通信,导致计算利用率急剧下降,业界平均水平约40%。此外,千亿参数模型训练过程中,故障频繁,恢复时间长达3-4小时。
昇思MindSpore 2.3发布,提供开源开放的训推全流程开发套件,支持伙伴基于昇思孵化原生大模型。在模型开发阶段,提供20多个开箱即用的业界主流训练模型,模型开发周期缩短30%。
昇思MindSpore通过原创的多副本、多流水交织等8种并行技术,实现集群线性度达90%,算力利用率达55%。同时,针对集群故障率高、恢复时间长问题,采用编译快照、确定性CKPT技术实现20分钟完成故障恢复。
为加速行业场景大模型应用落地,昇思MindSpore推出训推一体解决方案。在大模型推理方面,通过LLM Serving实现推理吞吐提升2倍多;升级模型压缩工具金箍棒2.0,实现千亿大模型压缩至十倍。
昇思还持续升级MindSpore TransFormers大模型套件,提供MindSpore One生成式套件,助力开发者快速完成大模型全流程开发。此外,昇思联合顶级科研机构和伙伴打造AI生物计算套件,包含蛋白质结构预测、生成等20多个SOTA模型,加速相关领域创新。
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。
最新评论