0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习模型的可解释性算法详解

C29F_xilinx_inc 来源:赛灵思 作者:赛灵思 2022-02-16 16:21 次阅读

本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术,包括它们的相对优点和缺点。我们将其分为下面几种:

1. Partial Dependence Plot (PDP);
2. Individual Conditional Expectation (ICE)
3. Permuted Feature Importance
4. Global Surrogate
5. Local Surrogate (LIME)
6. Shapley Value (SHAP)

六大可解释性技术

01. Partial Dependence Plot (PDP)

PDP是十几年之前发明的,它可以显示一个或两个特征对机器学习模型的预测结果的边际效应。它可以帮助研究人员确定当大量特征调整时,模型预测会发生什么样的变化。

pYYBAGIMpVqAaaFhAABRlVr4NOQ013.jpg

上面图中,轴表示特征的值,轴表示预测值。阴影区域中的实线显示了平均预测如何随着值的变化而变化。PDP能很直观地显示平均边际效应,因此可能会隐藏异质效应。

例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。

02. Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之处在于,PDP绘制的是平均情况,但是ICE会显示每个实例的情况。ICE可以帮助我们解释一个特定的特征改变时,模型的预测会怎么变化。

poYBAGIMpVyAE28WAABtjMnY2h8048.jpg

如上图所示,与PDP不同,ICE曲线可以揭示异质关系。但其最大的问题在于:它不能像PDP那样容易看到平均效果,所以可以考虑将二者结合起来一起使用。

03. Permuted Feature Importance

Permuted Feature Importance的特征重要性是通过特征值打乱后模型预测误差的变化得到的。换句话说,Permuted Feature Importance有助于定义模型中的特征对最终预测做出贡献的大小。

pYYBAGIMpV2AaQNOAABOmoyoiXQ106.jpg

如上图所示,特征f2在特征的最上面,对模型的误差影响是最大的,f1在shuffle之后对模型却几乎没什么影响,生息的特征则对于模型是负面的贡献。

04. Global Surrogate

Global Surrogate方法采用不同的方法。它通过训练一个可解释的模型来近似黑盒模型的预测。

首先,我们使用经过训练的黑盒模型对数据集进行预测;
然后我们在该数据集和预测上训练可解释的模型。

训练好的可解释模型可以近似原始模型,我们需要做的就是解释该模型。

注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。

poYBAGIMpV6AG-_EAABN555B_iQ111.jpg

使用可解释的模型来近似黑盒模型会引入额外的误差,但额外的误差可以通过R平方来衡量。

由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。

05. Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因为它不尝试解释整个模型。相反,它训练可解释的模型来近似单个预测。LIME试图了解当我们扰乱数据样本时预测是如何变化的。

pYYBAGIMpV-AL2OJAACsc1fOz3g389.jpg

上面左边的图像被分成可解释的部分。然后,LIME 通过“关闭”一些可解释的组件(在这种情况下,使它们变灰)来生成扰动实例的数据集。对于每个扰动实例,可以使用经过训练的模型来获取图像中存在树蛙的概率,然后在该数据集上学习局部加权线性模型。最后,使用具有最高正向权重的成分来作为解释。

06. Shapley Value (SHAP)

Shapley Value的概念来自博弈论。我们可以通过假设实例的每个特征值是游戏中的“玩家”来解释预测。每个玩家的贡献是通过在其余玩家的所有子集中添加和删除玩家来衡量的。一名球员的Shapley Value是其所有贡献的加权总和。Shapley 值是可加的,局部准确的。如果将所有特征的Shapley值加起来,再加上基值,即预测平均值,您将得到准确的预测值。这是许多其他方法所没有的功能。

poYBAGIMpWCAZz9gAABYg_zptR8122.jpg

该图显示了每个特征的Shapley值,表示将模型结果从基础值推到最终预测的贡献。红色表示正面贡献,蓝色表示负面贡献。

小结
机器学习模型的可解释性是机器学习中一个非常活跃而且重要的研究领域。本文中我们介绍了6种常用的用于理解机器学习模型的算法。大家可以依据自己的实践场景进行使用。

参考文献
https://www.twosigma.com/articles/interpretability-methods-in-machine-le...

【免责声明】本文转载自:Datawhale,转载此文目的在于传播相关技术知识,版权归原作者所有,如涉及侵权,请联系小编删除(联系邮箱:service@eetrend.com )。

审核编辑:符乾江

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • PDP
    PDP
    +关注

    关注

    0

    文章

    53

    浏览量

    36043
  • 机器学习
    +关注

    关注

    66

    文章

    8126

    浏览量

    130570
收藏 人收藏

    评论

    相关推荐

    机器学习的基本流程和十大算法

    为了进行机器学习和数据挖掘任务,数据科学家们提出了各种模型,在众多的数据挖掘模型中,国际权威的学术组织 ICDM(the IEEE International Conference o
    发表于 10-31 11:30 635次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b>的基本流程和十大<b class='flag-5'>算法</b>

    三个主要降维技术对比介绍:PCA, LCA,SVD

    随着数据集的规模和复杂性的增长,特征或维度的数量往往变得难以处理,导致计算需求增加,潜在的过拟合和模型可解释性降低。
    的头像 发表于 10-09 10:13 477次阅读
    三个主要降维技术对比介绍:PCA, LCA,SVD

    机器学习模型可解释性的结果分析

    模型可解释性机器学习领域的一个重要分支,随着 AI 应用范围的不断扩大,人们越来越不满足于模型的黑盒特性,与此同时,金融、自动驾驶等领域
    发表于 09-28 10:17 511次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b><b class='flag-5'>可解释性</b>的结果分析

    机器学习模型评估指标

    机器学习模型指标在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。
    发表于 09-06 12:51 452次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>评估指标

    机器学习有哪些算法机器学习分类算法有哪些?机器学习预判有哪些算法

    机器学习有哪些算法机器学习分类算法有哪些?机器
    的头像 发表于 08-17 16:30 1399次阅读

    机器学习vsm算法

    机器学习vsm算法 随着机器学习技术的不断发展,相似性计算是机器
    的头像 发表于 08-17 16:29 579次阅读

    机器学习算法入门 机器学习算法介绍 机器学习算法对比

    机器学习算法入门 机器学习算法介绍 机器
    的头像 发表于 08-17 16:27 630次阅读

    机器学习算法总结 机器学习算法是什么 机器学习算法优缺点

    机器学习算法总结 机器学习算法是什么?机器
    的头像 发表于 08-17 16:11 1087次阅读

    机器学习算法汇总 机器学习算法分类 机器学习算法模型

    机器学习算法汇总 机器学习算法分类 机器
    的头像 发表于 08-17 16:11 727次阅读

    机器学习算法的5种基本算子

    机器学习算法的5种基本算子 机器学习是一种重要的人工智能技术,它是为了让计算机能够通过数据自主的学习
    的头像 发表于 08-17 16:11 1341次阅读

    最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的
    的头像 发表于 07-10 11:35 1467次阅读
    最新综述!当大型语言<b class='flag-5'>模型</b>(LLM)遇上知识图谱:两大技术优势互补

    机器学习中使用的5种常见数据结构和算法

    使用数据结构和算法,您的代码可以提高机器学习系统的速度、可伸缩性和可解释性。选择的最佳设计将取决于主要问题的精确要求。每种设计都有一定的优势和用途。
    发表于 06-14 09:35 1446次阅读

    机器学习理论:k近邻算法

    KNN(k-Nearest Neighbors)思想简单,应用的数学知识几乎为0,所以作为机器学习的入门非常实用、可以解释机器学习
    的头像 发表于 06-06 11:15 433次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b>理论:k近邻<b class='flag-5'>算法</b>

    可信人工智能研究方向与算法探索

    为了建立可信、可控、安全的人工智能,学术界与工业界致力于增强人工智能系统与算法可解释性。具体地,可信人工智能旨在增强人工智能系统在知识表征、表达能力、优化与学习能力等方面的可解释性
    发表于 05-24 10:02 410次阅读
    可信人工智能研究方向与<b class='flag-5'>算法</b>探索

    你是什么时候对深度学习失去信心的?

    这就使得,原本深度学习被诟病可解释性问题,其实不再是问题。因为从业务顶层已经被拆分,拆分成一个个可以被人理解的因子,无法被合理解释的因子,项目启动的评审都无法通过。
    的头像 发表于 05-19 10:09 274次阅读
    你是什么时候对深度<b class='flag-5'>学习</b>失去信心的?