DeepSeek:发布新论文并开源记忆模块Engram

2026-01-13 09:21:15 自选股写手 

快讯摘要

1月12日晚DeepSeek发布新论文,与北大共著,提出条件记忆提升模型表现,还开源记忆模块Engram 。

快讯正文

【1月12日晚DeepSeek发布新论文并开源记忆模块】 1月13日消息,DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》。该论文由北京大学与DeepSeek共同完成,合著作者署名中有梁文锋。 论文提出条件记忆,通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。同时,DeepSeek开源相关记忆模块Engram。

本文由 AI 算法生成,仅作参考,不涉投资建议,使用风险自担

(责任编辑:董萍萍 )

【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    推荐阅读