投资要点:
推理算力:算力芯片行业的第二重驱动力
我们在此前外发报告《如何测算文本大模型AI 训练端算力需求?》中,对未来三年AI 训练卡需求持乐观态度。我们认为,推理侧算力对训练侧算力需求的承接不意味着训练需求的趋缓,而是为算力芯片行业贡献第二重驱动力。当前推理算力市场已然兴起,24 年AI推理需求成为焦点。据Wind 转引英伟达FY24Q4 业绩会纪要,公司2024 财年数据中心有40%的收入来自推理业务。如何量化推理算力需求?与训练算力相比,推理侧是否具备更大的发展潜力?我们整理出AI 推理侧算力供给需求公式,并分类讨论公式中的核心参数变化趋势,以此给出我们的判断。
Scaling Laws&长文本趋势:推理需求的核心驱动力根据OpenAI《Scaling Laws for Neural Language Models》,并结合我们对于推理算力的理解,我们拆解出云端AI 推理算力需求≅2×模型参数量×数据规模×峰值倍数。由Scaling Laws 驱动的参数量爆发是训练&推理算力需求共同的影响因素;而对于推理需求,更为复杂的是对数据规模的量化。我们将数据规模(tokens)拆解为一段时间内用户对于大模型的访问量与单次访问产生的数据规模(tokens)的乘积,其中,单次访问产生的数据规模(tokens)可以进一步拆解为单次提问的问题与答案所包含的token 数总和乘以单次访问提出的问题数。通过层层拆解,我们发现单次问答所包含的token 数是模型中的重要影响因素,其或多或少会受到大模型上下文窗口(Context Window)的限制。
而随着上下文窗口瓶颈的快速突破,长文本趋势成为主流,有望驱动推理算力需求再上新台阶。
结论:
我们首先根据前述逻辑测算得到AI 大模型推理所需要的计算量,随后通过单GPU 算力供给能力、算力利用率等数值的假设,逐步倒推得到GPU 需求数量。若以英伟达当代&前代GPU 卡供给各占50%计算,我们认为2024-2026 年OpenAI 云端AI 推理GPU 合计需求量为148/559/1341 万张。
建议关注
算力芯片:寒武纪海光信息龙芯中科
服务器产业链:工业富联沪电股份深南电路胜宏科技? 风险提示
AI 需求不及预期风险、Scaling Law 失效风险、长文本趋势发展不及预期风险、GPU 技术升级不及预期的风险、测算模型假设存在偏差风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:王丹 )
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论