DeepSeek团队发布新型视觉压缩模型DeepSeek-OCR

2025-10-20 19:30:20 智通财经 
新闻摘要
智通财经APP获悉,10月20日,DeepSeek-AI团队推出全新研究成果——DeepSeek-OCR,提出通过视觉模态压缩长文本上下文的创新方法,即是把长长的上下文渲染成一张图片再喂给模型,让原本需要数千上万个文本token的上下文,只需几百个视觉token就能表示,实现信息的高效压缩。据悉,DeepSeek-OCR由两个部分组成 核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M。实验显示,当文本token数量不超过视觉token的10倍时,模型的OCR精度可达97%;即便压缩比提高到20x,准确率仍保持约60%,展现出在历史文档长上下文压缩和大语言模型记忆机制研究中的巨大潜力

智通财经APP获悉,10月20日,DeepSeek-AI团队推出全新研究成果——DeepSeek-OCR,提出通过视觉模态压缩长文本上下文的创新方法,即是把长长的上下文渲染成一张图片再喂给模型,让原本需要数千上万个文本token的上下文,只需几百个视觉token就能表示,实现信息的高效压缩。

据悉,DeepSeek-OCR由两个部分组成:核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M。DeepEncoder专为在高分辨率输入下保持低计算激活而设计,同时实现高压缩比,以控制视觉token数量在可管理的范围内。

实验显示,当文本token数量不超过视觉token的10倍(压缩比低于10x)时,模型的OCR(文字识别)精度可达97%;即便压缩比提高到20x,准确率仍保持约60%,展现出在历史文档长上下文压缩和大语言模型记忆机制研究中的巨大潜力。DeepSeek-OCR同时具备较高的实际应用价值。

在OmniDocBench测试中,DeepSeek-OCR使用100个视觉token就超过了阶跃星晨的GOT-OCR2.0(每页256个token),而使用不到800个视觉token便优于上海AI实验室的MinerU2.0(平均每页超过6000个token)。在实际生产中,DeepSeek-OCR可在单块A100-40G显卡上每天生成超过20万页的大语言模型/视觉语言模型训练数据。

(责任编辑:刘畅 )

【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读