9月12日,蚂蚁集团与人大联合发布“LLaDA - MoE”模型,完成约20T数据训练,近期将开源推动AI技术发展。
【9月12日,蚂蚁集团与人大联合发布扩散语言模型“LLaDA - MoE”】 9月12日,在2025 Inclusion·外滩大会上,蚂蚁集团和中国人民大学携手发布业界首个原生MoE架构的扩散语言模型“LLaDA - MoE”。 该模型在约20T数据上完成从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性与稳定性。 模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。
本文由 AI 算法生成,仅作参考,不涉投资建议,使用风险自担
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论