计算机行业点评报告:一文解读智能驾驶“端到端2.0”-VLA模型

2025-02-27 18:30:08 和讯  财通证券杨烨/王妍丹
  VLA 模型实现了高阶端到端智能。VLA 即视觉语言动作模型(Vision -Language - Action Model),最早由 DeepMind 于 2023 年提出并应用在机器人领域。VLA 不仅融合了视觉语言模型(VLM)的感知能力和端到端模型(E2E)的决策能力,更引入了“思维链”技术,实现了全局上下文理解与类人推理能力,它能够输入给定的文本和视觉数据,输出机器人可执行的动作,具有 AI 与物理世界交互的天然基因。同时,其系统透明与可解释性使得推理过程全程可求导,能够通过车载显示向用户解释驾驶逻辑,增强用户信任感。
  目前,VLA 模型在自动驾驶的应用流程为数据获取与预处理、多模态信息融合、动作指令生产和执行与反馈。
  VLA 模型或于2025 年量产落地,改写智能驾驶市场竞争格局。中国自动驾驶产业创新联盟调研员高超表示预计2025 年VLA 模型将量产落地,推动城区NOA 渗透率提升。现阶段,智驾市场竞争焦点已从单纯的功能实现转向了更深层次的技术范式竞争,强调技术架构的先进性和可持续性。高盛最新自动驾驶报告显示,到2030 年,VLA 模型主导的端到端方案可能占据L4 级市场60%份额,这意味着传统一级供应商的价值链地位面临重构。此外,苹果近期在机器学习研究页面发布了最新研究论文,提出了一种全新的大规模自博弈强化学习框架 GIGAFLOW,用于训练通用、鲁棒的自动驾驶策略。这一研究突破,为 VLA 模型提供了新的训练方式,有助于进一步可能结合强化学习、自博弈训练等新兴技术,提升自动驾驶系统的智能化和泛化能力。
  投资建议:建议关注虹软科技、锐明技术、华测导航、德赛西威、均胜电子、中科创达、经纬恒润、慧翰股份等。
  风险提示:汽车智能化渗透率提升速度低于预期的风险;政策法规的支持不及预期的风险;芯片等原材料短缺风险;宏观经济形势的风险。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
(责任编辑:刘畅 )

   【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。

【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com

看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

    推荐阅读