谷歌PaLM2在训练中使用的文本数据是其前身的近五倍

2023-05-17 11:52:44 和讯  宋政

快讯摘要

谷歌PaLM2在训练中使用的文本数据是其前身的近五倍:据市场消息,谷歌上周宣布的大型语言模型PaLM2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据内部...

快讯正文

谷歌PaLM2在训练中使用的文本数据是其前身的近五倍:据市场消息,谷歌上周宣布的大型语言模型PaLM2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据内部文件,PaLM2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。

(责任编辑:宋政 HN002 )
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    推荐阅读