0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI大模型在汽车应用中的推理、降本与可解释性研究

佐思汽车研究 来源:佐思汽车研究 2025-02-18 15:02 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

佐思汽研发布《2024-2025年AI大模型及其在汽车领域的应用研究报告》。

推理能力成为大模型性能提升的驱动引擎

2024下半年以来,国内外大模型公司纷纷推出推理模型,通过以CoT为代表的推理框架,加强大模型对复杂任务处理能力和自主决策能力。

部分大模型公司的推理模型发布情况

27871978-edbd-11ef-9310-92fbcf53809c.png

来源:佐思汽研《2024-2025年AI大模型及其在汽车领域的应用研究报告》

推理模型的密集上线,是为了提升大模型在复杂场景下的应对能力,同时也为Agent上线奠定基础;具体到汽车行业,汽车大模型推理能力的提升,能够切实解决AI应用场景下的痛点问题,如加强座舱助手对复杂语义的意图识别和提升自动驾驶规划决策中的时空预测场景精度。

部分汽车AI应用场景下对大模型推理能力的需求

2799bb6e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

2024年,上车的主流大模型推理技术仍以思维链CoT及其变种为主(如思维树ToT、思维图GoT、思维森林FoT等),在不同的场景下会融合生成模型(如扩散模型)、知识图谱、因果推理模型、累积推理、多模态推理链等技术。

如吉利提出模块化思维语言模型(MeTHanol),让大语言模型合成人类思维并用于监督 LLM 的隐藏层,通过适应日常对话和个性化提示,生成类似人类的思维行为,增强大语言模型的思维和推理能力,并提升可解释性。

MeTHanol(含中间思维层的双层微调和两阶段推理)与标准SFT技术的对比

27b839e0-edbd-11ef-9310-92fbcf53809c.png

来源:吉利

2025年,推理技术的重点会向多模态推理转移,常用的训练技术包括指令微调、多模态上下文学习与多模态思维链(M - CoT)等,多通过多模态融合对齐技术与LLM的推理技术结合而成。

部分多模态推理技术

27bc61a0-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

可解释性成为AI与用户的信任桥梁

在用户体会到AI的“好用”之前,首先需要满足用户对AI的“信任”,所以,2025年,AI系统运行的可解释性成为汽车AI用户基数增长的关键一环,该痛点也可通过长思维链的展示来解决。

AI系统的可解释性可通过数据可解释性、模型可解释性和事后可解释性三个层面分别实现:

AI可解释性的三个层面

27d808c4-edbd-11ef-9310-92fbcf53809c.png

27e7c71e-edbd-11ef-9310-92fbcf53809c.png

来源:IEEE;整理:佐思汽研

以理想为例,理想 L3 智驾通过 “AI 推理可视化技术”,可直观呈现端到端 + VLM 模型的思考过程,涵盖从物理世界感知输入到大模型完成行驶决策输出的全流程,提升用户对智能驾驶系统的信任。

理想L3智驾的可解释性

28058db2-edbd-11ef-9310-92fbcf53809c.jpg

来源:理想

理想的“AI推理可视化技术”中:

Attention(注意力系统)主要负责展示车辆感知到的交通和环境路况信息,能对实时视频流中的交通参与者进行行为评估,并使用热力图展示评估对象。

E2E(端到端模型)用于展示行驶轨迹输出的思考过程。模型会思考不同的行驶轨迹,展示 10 个候选输出结果,最终采用概率最大的输出结果作为行驶路径。

VLM(视觉语言模型)可展示自身的感知、推理和决策过程,其工作过程使用对话形式展示。

同时,理想Agent“理想同学”也提供可视化的工作流:

“理想同学”工作流

2809803e-edbd-11ef-9310-92fbcf53809c.png

来源:理想

同样通过长思维链进行推理流程拆解的还有各个推理模型的对话界面,以DeepSeek R1为例,在与用户的对话中,会先通过思维链展示每一个节点的决策,并通过自然语言进行说明。

DeepSeek R1长思维链界面

2823b4a4-edbd-11ef-9310-92fbcf53809c.png

来源:DeepSeek R1对话界面

此外,智谱的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持长思维链推理流程展示。

DeepSeek降低大模型上车的门槛,性能提升与降本兼得

推理能力乃至综合性能的提升,是否意味着需要付出高额成本?从DeepSeek的爆火来看,并不是。2025年初,主机厂先后接入DeepSeek,从应用详情来看,基本上是以提升车载大模型的综合能力为主。

2025年初,部分主机厂与DeepSeek合作情况

283cf73e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

事实上,DeepSeek系列模型推出之前,各大主机厂已经按照自己的节奏有序推进旗下车载AI大模型的开发与迭代工作。以座舱助手为例,部分主机厂的方案已经初步完成构建,并已接入云端大模型供应商试运行或初步敲定供应商,其中不乏阿里云、腾讯云等云服务厂商以及智谱等大模型公司,2025年初再次接入DeepSeek,看重的包括:

强大的推理性能表现,如推理模型R1的性能与OPEN AI 推理模型o1相当,甚至在数学逻辑方面更为突出;

更低的成本,在保证性能的同时,训练与推理成本均保持在同行业较低水平。

DeepSeek R1与OPEN AI o1模型成本的比较

285b919e-edbd-11ef-9310-92fbcf53809c.png

来源:公开信息

以上2点优势均在DeepSeek的技术创新上有所体现:

DeepSeek系列的部分技术对大模型性能和成本的影响

28669efe-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

通过接入DeepSeek,主机厂在部署智驾和座舱助手时,可以切实地降低大模型性能硬件采购、模型训练与维护成本,同时保证性能不下降:

低计算开销技术推动高阶智驾、智舱平权,意味着低算力车载芯片(如边缘计算单元)上也可实现部署高性能模型,降低对高成本GPU的依赖;再结合DualPipe算法、FP8混合精度训练等技术,优化算力利用率,从而实现中低端车型也能部署高阶座舱功能、高阶智驾系统,加速智能座舱的普及。

实时性增强,在汽车行驶环境下,智驾系统需实时处理大量传感器数据,座舱助手需要快速响应用户指令,而车端计算资源有限。DeepSeek 计算开销的降低使传感器数据的处理速度更快,可更高效的利用智驾芯片算力(服务器端训练阶段,DeepSeek实现了对英伟达A100芯片90%的算力利用率),同时降低延迟(如在高通8650平台上,芯片算力同为100TOPS时,使用DeepSeek推理响应时间从20毫秒降至9 - 10毫秒)。在智驾系统中,可确保驾驶决策及时准确,提升驾驶安全性和用户体验。在座舱系统中,支持座舱助手快速响应用户语音指令,实现流畅人机交互。

吉利星睿大模型的系统2接入DeepSeek R1

28862d00-edbd-11ef-9310-92fbcf53809c.png

来源:吉利

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41295

    浏览量

    302669
  • 汽车
    +关注

    关注

    15

    文章

    4246

    浏览量

    41360
  • 大模型
    +关注

    关注

    2

    文章

    3796

    浏览量

    5276

原文标题:AI大模型及汽车应用研究:推理、降本和可解释性

文章出处:【微信号:zuosiqiche,微信公众号:佐思汽车研究】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    黑马-Java+AI新版V16零基础就业班百度云网盘下载+Java+AI全栈开发工程师

    差异。 二、Java 推理引擎选型与性能优化 将 AI 模型 JVM 内,最大的技术挑战是性能。传统 Python 生态依靠原生 C++ 后端与高效内存管理获得
    发表于 05-01 11:29

    [完结15章]Java转 AI高薪领域必备-从0到1打通生产级AI Agent开发

    服务端的非阻塞实现机制,甚至深入研究WebSocket的长连接双向通信。更进一步,要结合Spring WebFlux或Project Reactor等响应式编程框架,理解背压机制AI流式数据传输
    发表于 04-30 13:46

    使用NORDIC AI的好处

    ; 自定义 Neuton 模型博客] Axon NPU :集成 nRF54LM20B 等高端 SoC 的专用 AI 加速器,对 TensorFlow Lite
    发表于 01-31 23:16

    谷歌正式发布Gemma Scope 2模型

    Scope 工具包推动了可解释性科学的发展,该工具旨在帮助研究人员理解我们轻量级开放模型系列 Gemma 2 的内部运作机制。
    的头像 发表于 01-24 14:01 753次阅读

    NVIDIA 推出 Alpamayo 系列开源 AI 模型与工具,加速安全可靠的推理型辅助驾驶汽车开发

    的仿真工具和数据集。 l Alpamayo 1、AlpaSim 和物理 AI 开放数据集可为开发具备感知、推理与类人决策能力的车辆提供支持,使开发者能够进行模型调优、蒸馏和测试,从而提升安全
    的头像 发表于 01-06 09:40 523次阅读
    NVIDIA 推出 Alpamayo 系列开源 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>与工具,加速安全可靠的<b class='flag-5'>推理</b>型辅助驾驶<b class='flag-5'>汽车</b>开发

    嵌入式软件单元测试AI自动化与人工检查的协同机制研究:基于专业工具的实证分析

    提升效率与覆盖率方面的优势。通过实证案例与工业实践数据,论证即使AI高度介入的测试流程,人工检查在测试用例设计、异常语义判断、边界条件推理与安全合规验证等关键环节仍具有不可替代
    发表于 12-31 11:22

    什么是AI模型推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日 Hugging Face 的物理
    的头像 发表于 09-23 15:19 1502次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片

    、现阶段更智能、更接近AGI的6算法与模型 1、MoE模型 MoE模型作为Transfomer模型的后继者,代表着
    发表于 09-18 15:31

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    流体芯片 ⑤AI计算平台 ⑥基于AI的自主决策系统 ⑦基于AI的自主学习系统 2、面临的挑战 ①需要造就一个跨学科、全面覆盖的知识库和科学基础模型
    发表于 09-17 11:45

    利用NVIDIA推理模型构建AI智能体

    开放式推理模型能够更快、更广泛地进行思考,为客户服务、网络安全、制造、物流和机器人等领域的 AI 智能体生成更明智的结果。
    的头像 发表于 08-13 14:32 1776次阅读
    利用NVIDIA<b class='flag-5'>推理模型</b>构建<b class='flag-5'>AI</b>智能体

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI模型。其核心优势
    发表于 07-16 15:29

    模型推理显存和计算量估计方法研究

    ,为实际应用提供了有益的参考。 未来,我们将继续深入研究模型推理的优化方法,以降低显存和计算资源的需求,提高深度学习模型实际应用
    发表于 07-03 19:43

    模型自适应控制永磁同步电机转速的仿真研究

    的可行和有效。 纯分享帖,点击下方附件免费获取完整资料~~~ *附件:无模型自适应控制永磁同步电机转速的仿真
    发表于 06-25 13:01

    模型半导体行业的应用可行分析

    有没有这样的半导体专用大模型,能缩短芯片设计时间,提高成功率,还能帮助新工程师更快上手。或者软硬件可以设计和制造环节确实有实际应用。会不会存在AI缺陷检测。 能否应用在工艺优化和预测
    发表于 06-24 15:10

    中国科学院西安光机所在计算成像可解释性深度学习重建方法取得进展

    图1 MDFP-Net网络结构 近日,中国科学院西安光机所空间光学技术研究计算成像可解释性深度学习重建方法研究取得创新进展。相关
    的头像 发表于 06-09 09:27 830次阅读
    中国科学院西安光机所在计算成像<b class='flag-5'>可解释性</b>深度学习重建方法取得进展