0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

可以提高机器学习模型的可解释性技术

QQ475400555 来源:机器视觉沙龙 2023-02-08 14:08 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其前一道其它的问题中,很难进行算法的debug。

本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。我们将其分为下面几种:

Partial Dependence Plot (PDP);

Individual Conditional Expectation (ICE)

Permuted Feature Importance

Global Surrogate

Local Surrogate (LIME)

Shapley Value (SHAP)

六大可解释性技术 8c86894c-a20d-11ed-bfe3-dac502259ad0.png

01

Partial Dependence Plot (PDP)

PDP是十几年之前发明的,它可以显示一个或两个特征对机器学习模型的预测结果的边际效应。它可以帮助研究人员确定当大量特征调整时,模型预测会发生什么样的变化。

8c9ef400-a20d-11ed-bfe3-dac502259ad0.png

上面图中,轴表示特征的值,轴表示预测值。阴影区域中的实线显示了平均预测如何随着值的变化而变化。PDP能很直观地显示平均边际效应,因此可能会隐藏异质效应。

例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。

02

Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之处在于,PDP绘制的是平均情况,但是ICE会显示每个实例的情况。ICE可以帮助我们解释一个特定的特征改变时,模型的预测会怎么变化。

8cb12472-a20d-11ed-bfe3-dac502259ad0.png

如上图所示,与PDP不同,ICE曲线可以揭示异质关系。但其最大的问题在于:它不能像PDP那样容易看到平均效果,所以可以考虑将二者结合起来一起使用。

03

Permuted Feature Importance

Permuted Feature Importance的特征重要性是通过特征值打乱后模型预测误差的变化得到的。换句话说,Permuted Feature Importance有助于定义模型中的特征对最终预测做出贡献的大小。

8cc51888-a20d-11ed-bfe3-dac502259ad0.png

如上图所示,特征f2在特征的最上面,对模型的误差影响是最大的,f1在shuffle之后对模型却几乎没什么影响,生息的特征则对于模型是负面的贡献。

04

Global Surrogate

Global Surrogate方法采用不同的方法。它通过训练一个可解释的模型来近似黑盒模型的预测。

首先,我们使用经过训练的黑盒模型对数据集进行预测;

然后我们在该数据集和预测上训练可解释的模型。

训练好的可解释模型可以近似原始模型,我们需要做的就是解释该模型。

注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。

8cd69950-a20d-11ed-bfe3-dac502259ad0.png

使用可解释的模型来近似黑盒模型会引入额外的误差,但额外的误差可以通过R平方来衡量。

由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。

05

Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因为它不尝试解释整个模型。相反,它训练可解释的模型来近似单个预测。LIME试图了解当我们扰乱数据样本时预测是如何变化的。

8ce83110-a20d-11ed-bfe3-dac502259ad0.jpg

上面左边的图像被分成可解释的部分。然后,LIME 通过“关闭”一些可解释的组件(在这种情况下,使它们变灰)来生成扰动实例的数据集。对于每个扰动实例,可以使用经过训练的模型来获取图像中存在树蛙的概率,然后在该数据集上学习局部加权线性模型。最后,使用具有最高正向权重的成分来作为解释。

06

Shapley Value (SHAP)

Shapley Value的概念来自博弈论。我们可以通过假设实例的每个特征值是游戏中的“玩家”来解释预测。每个玩家的贡献是通过在其余玩家的所有子集中添加和删除玩家来衡量的。一名球员的Shapley Value是其所有贡献的加权总和。Shapley 值是可加的,局部准确的。如果将所有特征的Shapley值加起来,再加上基值,即预测平均值,您将得到准确的预测值。这是许多其他方法所没有的功能。

8d168c90-a20d-11ed-bfe3-dac502259ad0.png

该图显示了每个特征的Shapley值,表示将模型结果从基础值推到最终预测的贡献。红色表示正面贡献,蓝色表示负面贡献。

小结

机器学习模型的可解释性是机器学习中一个非常活跃而且重要的研究领域。本文中我们介绍了6种常用的用于理解机器学习模型的算法。大家可以依据自己的实践场景进行使用。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • PDP
    PDP
    +关注

    关注

    0

    文章

    53

    浏览量

    37016
  • 机器学习
    +关注

    关注

    67

    文章

    8565

    浏览量

    137226

原文标题:机器学习模型的可解释性算法汇总!

文章出处:【微信号:机器视觉沙龙,微信公众号:机器视觉沙龙】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    人工智能多模态与视觉大模型开发实战 - 2026必会

    和鲁棒。同时,还会学习到如何使用数据增强技术扩充数据集,进一步提升模型的泛化能力。 部署应用:让视觉大模型落地生根
    发表于 04-15 16:06

    强化学习会让自动驾驶模型学习更快吗?

    [首发于智驾最前沿微信公众号]在谈及自动驾驶大模型训练时,有的技术方案会采用模仿学习,而有些会采用强化学习。同样作为大模型的训练方式,强化
    的头像 发表于 01-31 09:34 831次阅读
    强化<b class='flag-5'>学习</b>会让自动驾驶<b class='flag-5'>模型</b><b class='flag-5'>学习</b>更快吗?

    谷歌正式发布Gemma Scope 2模型

    Scope 工具包推动了可解释性科学的发展,该工具旨在帮助研究人员理解我们轻量级开放模型系列 Gemma 2 的内部运作机制。
    的头像 发表于 01-24 14:01 739次阅读

    脉冲神经元模型的硬件实现

    息电位 vrest。 LIF神经元模型在生物可解释性上低于其他模型,只体现了神经元计算的关键特性,并不能够解释真实神经元的脉冲是如何生成,也不包括丰富的神经元行为特性。但由于其简单的操
    发表于 10-24 08:27

    有哪些常见的AI算法可以用于装置数据的异常检测?

    在装置数据(如工业设备传感器数据、电子装置运行参数、化工装置工况数据等)的异常检测中,AI 算法的选择需结合数据特点(如 时序、维度、标注情况 )、检测目标(如实时、精度、可解释性)及部署环境
    的头像 发表于 09-18 09:27 1065次阅读
    有哪些常见的AI算法<b class='flag-5'>可以</b>用于装置数据的异常检测?

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    配备科学发现仍需人类的直觉和灵感 ④正价可解释性和透明 ⑤解决伦理和道德问题六、AI芯片用于“AI科学家”系统 AI芯片的作用:七、用量子启发AI技术发现新型超材料的案例 超材料特点: 可以
    发表于 09-17 11:45

    端到端发展趋势下,云算力如何赋能智能驾驶技术跃迁?

    学习网络中,让系统直接从传感器数据生成车辆控制指令。这种方法在提升系统响应速度、优化复杂场景表现以及减少模块间误差积累方面展现出显著优势,但同时,为了满足足够庞大的智能驾驶辅助需求,端到端模型也面临数据量、算力需求、可解释性和安
    的头像 发表于 09-08 09:16 1165次阅读
    端到端发展趋势下,云算力如何赋能智能驾驶<b class='flag-5'>技术</b>跃迁?

    超小型Neuton机器学习模型, 在任何系统级芯片(SoC)上解锁边缘人工智能应用.

    Neuton 是一家边缘AI 公司,致力于让机器 学习模型更易于使用。它创建的模型比竞争对手的框架小10 倍,速度也快10 倍,甚至可以在最
    发表于 07-31 11:38

    通过NVIDIA Cosmos模型增强机器人学习

    通用机器人的时代已经到来,这得益于机械电子技术机器人 AI 基础模型的进步。但目前机器技术
    的头像 发表于 07-14 11:49 1277次阅读
    通过NVIDIA Cosmos<b class='flag-5'>模型</b>增强<b class='flag-5'>机器人学习</b>

    模型推理显存和计算量估计方法研究

    GPU、FPGA等硬件加速。通过分析硬件加速器的性能参数,可以估算模型在硬件加速下的计算量。 四、实验与分析 为了验证上述估计方法的有效,我们选取了几个具有代表的深度
    发表于 07-03 19:43

    模型在半导体行业的应用可行分析

    有没有这样的半导体专用大模型,能缩短芯片设计时间,提高成功率,还能帮助新工程师更快上手。或者软硬件可以在设计和制造环节确实有实际应用。会不会存在AI缺陷检测。 能否应用在工艺优化和预测
    发表于 06-24 15:10

    中国科学院西安光机所在计算成像可解释性深度学习重建方法取得进展

    图1 MDFP-Net网络结构 近日,中国科学院西安光机所空间光学技术研究室在计算成像可解释性深度学习重建方法研究取得创新进展。相关研究成果发表于计算机视觉与图形学领域国际著名期刊
    的头像 发表于 06-09 09:27 821次阅读
    中国科学院西安光机所在计算成像<b class='flag-5'>可解释性</b>深度<b class='flag-5'>学习</b>重建方法取得进展

    云知声四篇论文入选自然语言处理顶会ACL 2025

    结果正式公布。云知声在此次国际学术盛会中表现卓越,共有4篇论文被接收,其中包括2篇主会论文(Main Paper)和2篇Findings。入选的4篇论文聚焦大语言模型知识溯源、图文音多模态大模型、大语言模型
    的头像 发表于 05-26 14:15 1457次阅读
    云知声四篇论文入选自然语言处理顶会ACL 2025

    【「# ROS 2智能机器人开发实践」阅读体验】视觉实现的基础算法的应用

    视觉巡线,展示了如何从数据采集、模型训练到机器人部署的完整流程。 值得注意的是,深度学习模型的实时
    发表于 05-03 19:41

    【「# ROS 2智能机器人开发实践」阅读体验】机器人入门的引路书

    的限制和调控) 本书还有很多前沿技术项目的扩展 比如神经网络识别例程,机器学习图像识别的原理,yolo图像追踪的原理 机器学习训练三大点:
    发表于 04-30 01:05