百川智能披露To B技术路线:看好搜索增强大模型,文本获取规模增至1亿汉字

2023-12-19 16:53:00 新浪网 

新浪科技讯 12月19日下午消息,百川智能今日首次对外介绍了公司To B技术路线,同时宣布开放基于搜索增强的Baichuan2-Turbo系列API,包含Baichuan2-Turbo-192K及Baichuan2-Turbo。在支持192K超长上下文窗口的基础上,还增加了搜索增强知识库的能力。

据介绍,即日起,API用户可上传文本资料来创建自身专属知识库,从而根据自身业务需求打造更完整、高效的智能解决方案。此外,百川还升级了官网模型体验,目前其官网大模型已支持PDF、Word等多种文本上传以及URL网址输入,用户可通过官网入口体验搜索增强和长窗口加持后的通用智能。

在百川智能创始人、CEO王小川看来,搜索增强是大模型发展的必由之路,能够有效解决幻觉、时效性差、专业领域知识不足等阻碍大模型应用的核心问题。一方面,搜索增强技术能有效提升模型性能,并且使大模型能“外挂硬盘”,实现互联网实时信息+企业完整知识库的“全知”;另一方面,搜索增强技术还能让大模型精准理解用户意图,在互联网和专业/企业知识库海量的文档中找到与用户意图最相关的知识,然后将足够多的知识加载到上下文窗口,借助长窗口模型对搜索结果做进一步的总结和提炼,更充分地发挥上下文窗口能力,帮助模型生成最优结果,从而实现各技术模块之间的联动,形成一个闭环的强大能力网络。

“大模型+搜索构成完整技术栈,实现了大模型和领域知识、全网知识的全新链接。”王小川表示。在他看来,用行业大模型解决企业应用不是最佳方法,而大模型+搜索增强构成的全新技术栈,可以有效解决99%企业知识库的定制化需求。

据王小川介绍,通过长窗口+搜索增强的方式,百川智能在192K长上下文窗口的基础上,将大模型能够获取的原本文本规模提升了两个数量级,达到5000万tokens——相当于1亿汉字。通过搜索增强,模型可以先根据用户的Prompt在海量的文档中检索出最相关的内容,再将这些文档与Prompt一起放到长窗口中,有效节省了推理费用和时间成本。

“百川智能构建的大模型+搜索增强解决方案,解决掉幻觉和时效性问题后,有效提升了大模型的可用性,拓展了大模型能够覆盖的领域,例如金融、政务、司法、教育等行业的智能客服、知识问答、合规风控、营销顾问等场景。同时还显著降低了应用成本,让更多中小企业也能够享受到大模型带来的变革。”王小川表示。

责任编辑:王其霖

(责任编辑:周文凯 )
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读