计算机行业周报:大模型竞争愈演愈烈 央企加快智算建设

2024-03-12 11:25:11 和讯  国都证券王树宝
  一、市场表现回顾:
  上周计算机板块(SW)上涨8.91%,在31 个申万行业中,表现排名第4位,同期沪深300 指数上涨3.71%;个股表现来看,维海德、当虹科技涨幅较大,中望软件、柏楚电子表现较弱。
  二、行业动态跟踪:
  2 月19 日,国务院国资委召开“AI 赋能 产业焕新”中央企业人工智能专题推进会。会议要求中央企业将发展人工智能作为全局工作的重点,以推动产业的更新和智能产业的发展。(中证报)2 月20 日,美国人工智能初创公司Groq 推出大模型推理芯片,是全球首个LPU(Language Processing Unit)方案,旨在提高机器学习和人工智能等计算密集型工作负载的性能。芯片拥有超高带宽的SRAM,从而使得其对于大模型的推理速度提高了10 倍以上,甚至超越了英伟达的GPU。不过,LPU 目前仅用于推理,要训练大模型,仍然需要使用英伟达GPU。(华尔街见闻)
  2 月21 日晚,谷歌宣布新一代免费可商用大语言模型Gemma 在全球开放使用。该模型被谷歌视为自身“最先进的开放模型”。其基础技术架构与谷歌最强AI 模型Gemini 一致,但参数规模较小,仅有20 亿参数和70 亿参数两个规模版本,小参数版本可以在笔记本电脑上运行。谷歌公布的测评结果显示,Gemma 在数学、编码、推理精通性和知识测试等许多外部基准测试中都优于Llama 2 模型。(界面新闻)三、行业投资逻辑:
  海外科技厂商在大模型的竞争愈演愈烈,此前OpenAI 发布的文生视频模型Sora 产品能力大超预期,引领多模态产业变革。近期,美国AI 初创公司Groq 最新推出的面向云端大模型的推理芯片LPU 也引发了业内的广泛关注。Groq 的LPU 推理引擎专为需要大量计算和连续处理的应用(如LLM)提供最快的推理而设计。通过消除外部内存瓶颈,LPU 推理引擎的性能比传统GPU 高出几个数量级。Groq 表示,基于其LPU 芯片的云服务器在Llama2 或Mistral 模型在计算和响应速度上远超基于NVIDIA AI GPU 的ChatGPT,其每秒可以生成高达500 个 token。相比之下,目前ChatGPT-3.5 的公开版本每秒只能生成大约40 个token。
  不过,LPU 目前仅用于推理,要训练大模型,仍然需要使用英伟达GPU。
  同时,每张芯片的内存容量较小,如果要运行大参数模型,可能需要上百张LPU 加速卡,其实际成本或许并不低,所以在短期内LPU 芯片可能并不能撼动英伟达GPU 芯片在AI 芯片中的地位。此外,谷歌发布Gemini1.5 不久后,又宣布开放新一代免费可商用大语言模型Gemma。谷歌声称,Gemma 模型18 个语言理解、推理、数学等关键基准测试中,有11个测试分数超越了Meta Llama-2 等更大参数的开源模型,成为了目前全球最强大的开源模型。同时,Gemma 较小的参数规模有助于其实现更广泛部署,比如可在笔记本电脑、台式机、物联网、移动设备和云端等环境上运行。在端侧AI 发展趋势下,小参数模型有望助力产业加速发展。此外,国资委于近期召开了央企人工智能专题推进会,强调央企要把发展人工智能放在全局工作中统筹谋划,要夯实发展基础底座,加快建设一批智能算力中心,开展AI+专项行动,来加快重点行业赋能,构建一批产业多模态优质数据集,打造从基础设施、算法工具、智能平台到解决方案的大模型赋能产业生态。当前,随着美国不断收紧AI 芯片出口,高端AI 芯片供给变得更加紧张,AI 算力的景气度和确定性持续提升。此次推进会有望加速推动央国企对于算力基础设施的建设及采购,在算力激增需求叠加自主可控的背景下,国产算力有望成为采购优先选择。建议关注国内大模型厂商能力突破情况以及国产算力产业链。
  重点公司:科大讯飞、海光信息、云赛智联、高新发展。
  风险提示:AI 技术发展不及预期、算力需求不及预期、行业竞争加剧等。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读