0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

VLA与世界模型有什么不同?

智驾最前沿 来源:智驾最前沿 作者:智驾最前沿 2025-12-17 09:13 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

[首发于智驾最前沿微信公众号]当前自动驾驶行业,各车企的技术路径普遍选择了单车智能方向。而在实际落地过程中,不同企业选择了差异化的技术实现方式,部分车企侧重于视觉—语言—动作模型(Vision Language Action,VLA),另一些则致力于构建并应用世界模型(World Model)。这两种路径有什么不同?

wKgZO2lCA5yADblnAAAQo00DEvw314.jpg

什么是VLA,什么是世界模型

先说说VLA。VLA是英文Vision-Language-Action的缩写,即视觉—语言—动作。也就是说,这种模型把视觉感知、语言/语义理解/推理和动作/控制输出这三步融合到一个端到端(end-to-end)的体系里。

wKgZPGlCA5yAOWtBAACupHq5c98893.jpg

图片源自:网络

VLA先通过摄像头(或其他传感器)获取环境信息,再用视觉编码器把它转成特征向量,然后把这些视觉特征“翻译”到类似语言模型(LLM,large language model)可以理解的语义空间里,通过语言模型进行高层推理、判断(如识别车道线、行人、交通标志,甚至判断行人的意图、交通规则优先级、当前场景该采取什么策略等等),语言模型的“结论”将会被送到动作生成模块,直接输出控制指令(例如转向、加减速、轨迹规划)。

VLA的主要作用就是让自动驾驶汽车具备“看、想、做”的能力,从视觉信息到动作输出,中间有进行了思考、推理、语义理解的环节,而不是简单的感知→规划→控制那种模块化规则的方式。

再说世界模型。世界模型的核心,是在模型大脑中里构建一个对外部世界的虚拟、内部模型。也就是说,它不只是看到当前路况,而是尝试理解世界的物理规律、交通规则、各种动态变化,然后在这个内部模型里模拟、推演、预测未来可能的场景。如可以预测前方那辆车会不会突然转向、行人是否会冲出、天气或光线变化会有怎样影响等,通过对交通环境的预测,可以辅助决策、规划、甚至策略验证。

世界模型常被用来做仿真、模拟,通过大规模模拟极端、稀有场景、长尾场景,为自动驾驶系统训练、验证、生成数据。也能让系统在内部预演并判断风险,而不仅仅依赖当前看到的画面。

简而言之:

VLA=视觉+语言(语义)+动作,通过一个端到端体系,把“看、理解、做”连起来。

世界模型=在“脑子里”建立对世界的模型、仿真,让系统可以想象未来、做预测/推理,从而判断风险。

wKgZPGlCA52AKc3cAAAR42n7O-I560.jpg

为什么车企会选择这两个方向?

现阶段众多车企在这两个方向并行投入,都期望这两项技术能给自动驾驶的落地带来更多可能。之所以会这样,是因为自动驾驶对复杂性、不确定性、安全性、长尾场景的高要求,传统的模块化+规则/规划+静态预测模式在真实交通场景中无法完全应对。

传统的自动驾驶系统,主流架构普遍采用“感知→规划→控制”的模块化设计。其通过摄像头、毫米波雷达、激光雷达等传感器采集环境数据,交由感知模块进行目标检测、分类与跟踪,识别如行人、车辆、车道线等关键信息;规划模块再依据感知结果,结合预设规则与预测模型,生成轨迹、速度及加减速等决策;控制模块将根据决策执行具体的转向、油门及制动指令。

wKgZO2lCA52AXwGdAACTt6NWpsc244.jpg

图片源自:网络

但随着自动驾驶车辆在道路上应用越来越多,复杂的路况、场景的动态多变以及边缘案例的持续涌现,让基于固定规则与静态预测的串联式架构局限凸显,难以覆盖所有潜在场景,尤其在长尾与极端情况下,系统的适应能力与鲁棒性面临显著挑战。

于是,人们希望自动驾驶系统能像老司机一样,不只是看见世界,还能“理解”、能“推理”、能“预测未来”、能“灵活应对变化”。VLA和世界模型正是基于此出现的。

wKgZPGlCA56AdX00AAASG3BOmsQ662.jpg

各自优势与局限

1)VLA的优势

语义理解+可解释性

因为VLA将视觉信息“翻译”成语义(类似语言描述),所以它更贴近人类理解世界的方式。对于如行人、骑车人、交通标志、交互意图等复杂交通场景,VLA的语言推理能力就表现出其优势性。

端到端+整体优化

端到端模型中,从感知到动作的流程都被统一在一个模型里,中间没有太多手工设定的规则和模块边界,使得它理论上可以通过大数据训练、学习,从经验里学会开车该怎样反应,从而体现出较强的泛化能力。

适合复杂语义场景+人机交互

自动驾驶系统需要实现与人类的高效协同,如准确理解请在前方便利店临时停车等自然语言指令,或在必要时向用户解释因左侧行人突然靠近而制动等决策原因。VLA技术所具备的多模态语义对齐与自然语言处理能力显现出其独特价值。其架构天然支持复杂语义的解析、推理与生成,能够为人机交互提供直观、可解释的沟通界面,从而增强系统的可理解性与用户体验。

2)VLA的局限

对环境物理动态+长尾、稀有场景的预测能力弱

VLA本质是“看到+推理+输出”,如果只是基于当前画面做判断,没有对未来可能变化(比如前方车辆突然紧急刹车、行人冲出、雨雪、光照变化等)做足够仿真及预测,就可能反应不够及时或不够安全。

监督信号稀疏/学习不充分

一些最新研究指出,仅靠动作输出(方向盘转角/加速/制动)作为监督,对于一个容量很大的VLA模型来说可能远远不够,有可能让模型的大部分潜能无法利用。近期就有研究提出把世界建模(预测未来画面)加到VLA的训练中,以获得更丰富、更密集的监督信号。

实时性、计算资源消耗

端到端大模型整合了多模态感知与直接动作生成,若进一步要求其具备长短时预测与复杂场景推理能力,将面临算力需求、实时延迟及能效挑战。这在车载嵌入式平台上尤为突出,这样成为其实际落地应用中必须攻克的难题。

3)世界模型的优势

对未来、动态、复杂场景的“预测+仿真+规划”能力强

通过在内部建立对世界的模型,系统可以不仅看到当下,还可以推演未来,从而实现如模拟前车可能刹车、行人可能穿过、光照/天气可能变、车辆可能并线等等预测,然后提前规划最安全/稳妥的动作。这对于自动驾驶尤其重要,因为真实道路环境充满变化、不确定和突发性。

适合大规模训练/长尾/极端场景生成

在真实交通环境中,某些危险或极端情况很难大量收集(比如夜间雨雪、大雾、极端行人行为、突发障碍物等),但用世界模型可以“仿真”这些情况,用来训练、验证、测试自动驾驶系统,增强其鲁棒性和安全性。

提供冗余、安全校验机制

即使主系统(决策/动作模块)出现问题,世界模型也能作为“虚拟大脑”进行冗余判断、风险分析、仿真校验。某些设计还会把轻量世界模型放到车端,用作校验及安全网。

4)世界模型的局限

构建和训练复杂

要让世界模型准确反映真实的交通环境,必须对车辆动力学、交通规则、不确定性因素及行人行为等多维要素进行高保真度建模。这种对物理、社会及动态规则的高精度模拟,对数据质量、计算规模与系统设计均提出了极高要求。正因如此,早期世界模型在实现实时推理与高效部署时存在诸多问题,尤其在GPU算力加速与车规级延迟约束下,其工程化应用受到较大限制。

与语义理解/规则/常识融合较弱

纯世界模型偏重物理+动态+预测/仿真/规划,但对复杂语义、交通规则、行人意图、社会交互规则这些语义+常识+规则+语言的范畴不一定做得很好。对于某些需要语义理解、规则判断、解释及交互的场景,表现将不够灵活。

可解释性/透明性可能较差

世界模型的核心机制在于对物理规律与动态场景进行内部仿真与数值化概率推演,其决策过程依赖于高维隐式状态空间的建模与计算。但这种基于数值模拟的推理方式,在对外输出时难以转化为人类可直观理解的语义解释。在自动驾驶的安全验证、法规合规、责任界定与系统可审计性等实际落地要求中,这种“黑箱”特性成为了不得不去面对的问题。

wKgZPGlCA5-AN01pAAASAJELks8686.jpg

最后的话

VLA和世界模型,看起来像是自动驾驶领域里两种不同的“脑子设计方式”,VLA让车具备“看到+理解+判断+动作”的能力;世界模型则给车提供了一个“内部虚拟世界+预测/仿真/推演未来”的能力。但在方向选择上,智驾最前沿以为,如果能把两条路结合起来、互补使用,或许可以让自动驾驶真正安全、智能、稳定地落地。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Vla
    Vla
    +关注

    关注

    0

    文章

    15

    浏览量

    5883
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    2500 TOPS!特斯拉HW5智驾算力怪兽突击,国产VLA火速进化

    芯片水平。与此同时,国内车企如小鹏、理想等也在加速自身技术进化,推出基于VLA的新一代智能驾驶解决方案。   未来,特斯拉能否凭借HW5与FSD技术“王者归来”,而国内车企又能否以VLA模型落地实现巩固竞争优势?这场围绕算力、算
    的头像 发表于 06-20 09:05 7706次阅读
    2500 TOPS!特斯拉HW5智驾算力怪兽突击,国产<b class='flag-5'>VLA</b>火速进化

    世界模型是让自动驾驶汽车理解世界还是预测未来?

      [首发于智驾最前沿微信公众号]世界模型在自动驾驶技术中已有广泛应用。但当谈及它对自动驾驶的作用时,难免会出现分歧。它到底是让自动驾驶汽车得以理解世界,还是为其提供了预测未来的视角? 世界
    的头像 发表于 12-16 09:27 507次阅读
    <b class='flag-5'>世界</b><b class='flag-5'>模型</b>是让自动驾驶汽车理解<b class='flag-5'>世界</b>还是预测未来?

    VLA能解决自动驾驶中的哪些问题?

    [首发于智驾最前沿微信公众号]很多从事自动驾驶的小伙伴应该对VLA这个概念已经非常熟悉了。VLA即“Visual-Language-Action”(视觉—语言—动作)模型,它的核心是将视觉信息
    的头像 发表于 11-25 08:53 217次阅读
    <b class='flag-5'>VLA</b>能解决自动驾驶中的哪些问题?

    VLA世界模型,谁才是自动驾驶的最优解?

    [首发于智驾最前沿微信公众号]随着自动驾驶技术发展,其实现路径也呈现出两种趋势,一边是以理想、小鹏、小米为代表的VLA(视觉—语言—行动)模型路线;另一边则是以华为、蔚来为主导的世界模型
    的头像 发表于 11-05 08:55 501次阅读
    <b class='flag-5'>VLA</b>和<b class='flag-5'>世界</b><b class='flag-5'>模型</b>,谁才是自动驾驶的最优解?

    自动驾驶上常提的VLA世界模型什么区别?

    自动驾驶中常提的VLA,全称是Vision-Language-Action,直译就是“视觉-语言-动作”。VLA的目标是把相机或传感器看到的画面、能理解和处理自然语言的大模型能力,和最终控制车辆
    的头像 发表于 10-18 10:15 813次阅读

    量产交付超10万辆!元戎启行携DeepRoute IO 2.0平台及VLA模型亮相德国IAA

    IO 2.0及其自研的VLA(Vision-Language-Action)模型,并以“安全第一、量产先行”为战略核心,持续推动海外市场拓展。   德国IAA元戎启行现场展位   截至目前,元戎启行
    发表于 09-09 10:09 2665次阅读
    量产交付超10万辆!元戎启行携DeepRoute IO 2.0平台及<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>亮相德国IAA

    基于大规模人类操作数据预训练的VLA模型H-RDT

    近年来,机器人操作领域的VLA模型普遍基于跨本体机器人数据集预训练,这类方法存在两大局限:不同机器人本体和动作空间的差异导致统一训练困难;现有大规模机器人演示数据稀缺且质量参差不齐。得益于近年来VR
    的头像 发表于 08-21 09:56 812次阅读
    基于大规模人类操作数据预训练的<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>H-RDT

    自动驾驶中常提的世界模型是个啥?

    [首发于智驾最前沿微信公众号]随着自动驾驶技术的不断成熟,车辆需要在复杂多变的道路环境中安全地行驶,这就要求系统不仅能“看见”周围的世界,还要能“理解”和“推测”未来的变化。世界模型可以被看作一种
    的头像 发表于 06-24 08:53 815次阅读
    自动驾驶中常提的<b class='flag-5'>世界</b><b class='flag-5'>模型</b>是个啥?

    世界模型:多模态融合+因果推理,解锁AI认知边界

    电子发烧友网综合报道 在人工智能的蓬勃发展进程中,世界模型正崭露头角,成为推动其迈向更高智能水平的关键力量。世界模型作为 AI 系统对外部世界
    的头像 发表于 06-23 04:49 3515次阅读

    VLA,是完全自动驾驶的必经之路?

    芯片,以及英伟达Thor的上车,越来越多的智驾方案选择VLA的路径。   那么本文就梳理一下当前智驾领域集中主流的大模型技术路线,以及各家厂商实现方式的区别和发展。   VLA 和VLM  
    的头像 发表于 06-18 00:06 8782次阅读

    元戎启行周光:VLA模型将于2025年第三季度量产

    2025年6月11日,元戎启行CEO周光受邀出席2025年火山引擎Force原动力大会,宣布元戎启行将携手火山引擎,基于豆包大模型,共同研发VLA等前瞻技术,打造物理世界的Agent。同时,周光宣布
    发表于 06-12 09:45 1265次阅读
    元戎启行周光:<b class='flag-5'>VLA</b><b class='flag-5'>模型</b>将于2025年第三季度量产

    地平线跑赢智能驾驶赛道的“铁人三项”

    在智能驾驶技术快速演进的当下,端到端、VLM、VLA世界模型等技术概念持续引领行业讨论。过去几年间,新技术路线的迭代频率显著提升。
    的头像 发表于 06-12 09:23 744次阅读

    华为、理想、特斯拉、商汤的世界模型是做什么用的

    最近世界模型(World Model)很火,甚至有人说世界模型是终极自动驾驶解决方案,实际上它只是端到端大模型的一种,和VLM没有本质区别。
    的头像 发表于 01-14 09:27 1817次阅读
    华为、理想、特斯拉、商汤的<b class='flag-5'>世界</b><b class='flag-5'>模型</b>是做什么用的

    英伟达发布Cosmos世界基础模型

    近日,在2025年1月6日于拉斯维加斯拉开帷幕的国际消费类电子产品展览会(CES)上,英伟达宣布了一项重大创新——Cosmos世界基础模型平台。该平台集成了先进的生成世界基础模型,旨在
    的头像 发表于 01-09 10:23 953次阅读

    NVIDIA Cosmos世界基础模型平台发布

    NVIDIA 宣布推出NVIDIA Cosmos,该平台由先进的生成式世界基础模型、高级 tokenizer、护栏和加速视频处理管线组成,将推动自动驾驶汽车(AV)和机器人等物理 AI 系统的发展。
    的头像 发表于 01-08 10:39 1060次阅读