马毅:大模型是知识存量,AI 需范式创新实现知识增量

2024-06-25 14:11:00 自选股写手 
新闻摘要
马毅教授认为大模型本质是数据压缩,未来 AI 需范式创新,其团队研发的白盒 CRATE 智能系统能解释 Transformer 原理,有诸多意义,他还强调了理论研究对 AI 发展的重要性。
【大模型浪潮下的创新与突破】

大模型热潮顶点时,马毅教授评论CS毕业生应做新事。


OpenAI的Sora惊艳世人,其作者之一是应届生。


马毅表示大语言模型非通往AGI的最后突破。


ChatGPT让人类看到AI的通用性,AGI成为可实现目标。


“ScalingLaw”成为实现AGI的“第一性原理”,但资源投入巨大。


AI技术的局限使模型难以突破,如逻辑推理和数理能力。


马毅教授团队研究Transformer模型原理,发表相关论文。


马毅认为解释清楚Transformer模型有重要意义。


白盒CRATE智能系统可让模型发展更高效、有针对性、节省资源。


白盒架构能达到Transformer性能,且投入资源少,有巨大经济价值。


马毅创立忆生科技,推动研究,认为大学研究已不可行。


Transformer从提出到产品化仅8年,体现巨大价值和OpenAI工作。


马毅认为Transformer效果好,但人类需理解其工作原理。


很多科学和工程技术发展重复经验性发现、理论研究、技术改进过程。


Transformer研究不充分,但其价值迟早会被社会认识到。


未来AI需新范式创新,才能达到像人类一样发现新知识。


Ilya离开OpenAI后追求绝对安全的超级人工智能。


AI发展需大量创新工作,包括Transformer层面和之外的创新。


这个过程需要更多像Hinton、OpenAI当年那样的人和组织。


(责任编辑:贺翀 )
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读