谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token为前一代5倍

2023-05-17 17:45:08 和讯  冀文超

快讯摘要

谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token为前一代5倍:据科创板日报,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练...

快讯正文

谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token为前一代5倍:据科创板日报,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

(责任编辑:冀文超 )
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    推荐阅读