0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Explainable AI旨在提高机器学习模型的可解释性

倩倩 来源:互联网分析沙龙 2020-03-24 15:14 次阅读

Google LLC 在其云平台上推出了一项新的“ 可解释AI ”服务,旨在使机器学习模型做出决策的过程更加透明。

谷歌表示,这样做的想法是,这将有助于建立对这些模型的更大信任。这很重要,因为大多数现有模型往往相当不透明。只是不清楚他们如何做出决定。

Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。

换句话说,它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开发人员仍然有用。

可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。

她写道:“任何解释方法都有局限性。” “一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系。我们正在努力为客户提供最直接,最有用的解释方法,同时保持其局限性透明。”

但是,可解释的AI可能很重要,因为准确解释特定机器学习模型为何得出结论的原因对于组织内的高级管理人员很有用,他们最终负责这些决策。对于高度严格的行业来说,这尤其重要,而信心绝对至关重要。谷歌表示,对于处于这一位置的许多组织而言,目前没有任何可解释性的人工智能已经超出范围。

在相关新闻中,Google还发布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档。

这些模型卡详细说明了这些预先训练的机器学习模型的性能特征,并提供了有关其性能和限制的实用信息。谷歌表示,其目的是帮助开发人员就使用哪种模型以及如何负责任地部署它们做出更明智的决定。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5861

    浏览量

    103263
  • 机器学习
    +关注

    关注

    66

    文章

    8126

    浏览量

    130571
收藏 人收藏

    评论

    相关推荐

    爱立信推出认知软件新功能

    日前,爱立信宣布在其专为运营商设计的认知软件组合中,新增采用“可解释性人工智能(Explainable AI,XAI)”的新功能,进一步加速在网络设计和优化中采用人工智能后的价值转化。
    的头像 发表于 02-22 09:22 957次阅读

    华为云AI峰会揭示大模型实践难题

    除此之外,还存在行业训练数据安全控制、大模型幻觉缓解消除及可解释性、构建具有强大逻辑推理规划能力的大模型、基于图数据的知识增强技术、通用结构化数据特性对齐和预训练,以及视觉领域下一个token预测任务建模等挑战。
    的头像 发表于 12-25 10:33 478次阅读

    新火种AI|比尔盖茨表态:生成式AI已成过去接下来是可解释AI的天下

    可解释AI。比尔.盖茨预测,未来10年(2030年-2039年),AI领域的主角将成为可解释AI。   大部分人预判:GPT-5将明显优于
    的头像 发表于 12-06 10:36 543次阅读
    新火种<b class='flag-5'>AI</b>|比尔盖茨表态:生成式<b class='flag-5'>AI</b>已成过去接下来是<b class='flag-5'>可解释</b><b class='flag-5'>AI</b>的天下

    三个主要降维技术对比介绍:PCA, LCA,SVD

    随着数据集的规模和复杂性的增长,特征或维度的数量往往变得难以处理,导致计算需求增加,潜在的过拟合和模型可解释性降低。
    的头像 发表于 10-09 10:13 477次阅读
    三个主要降维技术对比介绍:PCA, LCA,SVD

    机器学习模型可解释性的结果分析

    模型可解释性机器学习领域的一个重要分支,随着 AI 应用范围的不断扩大,人们越来越不满足于模型
    发表于 09-28 10:17 511次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b><b class='flag-5'>可解释性</b>的结果分析

    机器学习模型评估指标

    机器学习模型指标在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。
    发表于 09-06 12:51 452次阅读
    <b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>评估指标

    AI模型和小模型是什么?AI模型和小模型的区别

      随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习中,我们通常将
    发表于 08-08 16:55 5579次阅读

    最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的
    的头像 发表于 07-10 11:35 1467次阅读
    最新综述!当大型语言<b class='flag-5'>模型</b>(LLM)遇上知识图谱:两大技术优势互补

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI
    发表于 06-27 10:48

    基于Transformer的大型语言模型(LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM
    的头像 发表于 06-25 15:08 1040次阅读
    基于Transformer的大型语言<b class='flag-5'>模型</b>(LLM)的内部机制

    使用机器学习模型(AI)进行预测是否安全

    电子发烧友网站提供《使用机器学习模型(AI)进行预测是否安全.zip》资料免费下载
    发表于 06-14 11:04 0次下载
    使用<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>模型</b>(<b class='flag-5'>AI</b>)进行预测是否安全

    机器学习中使用的5种常见数据结构和算法

    使用数据结构和算法,您的代码可以提高机器学习系统的速度、可伸缩性和可解释性。选择的最佳设计将取决于主要问题的精确要求。每种设计都有一定的优势和用途。
    发表于 06-14 09:35 1446次阅读

    可信人工智能研究方向与算法探索

    为了建立可信、可控、安全的人工智能,学术界与工业界致力于增强人工智能系统与算法的可解释性。具体地,可信人工智能旨在增强人工智能系统在知识表征、表达能力、优化与学习能力等方面的可解释性
    发表于 05-24 10:02 410次阅读
    可信人工智能研究方向与算法探索

    你是什么时候对深度学习失去信心的?

    这就使得,原本深度学习被诟病可解释性问题,其实不再是问题。因为从业务顶层已经被拆分,拆分成一个个可以被人理解的因子,无法被合理解释的因子,项目启动的评审都无法通过。
    的头像 发表于 05-19 10:09 274次阅读
    你是什么时候对深度<b class='flag-5'>学习</b>失去信心的?

    OpenAI用GPT-4解释了GPT-2三十万个神经元:智慧原来是这个样子

    可解释性研究的一种简单方法是首先了解 AI 模型各个组件(神经元和注意力头)在做什么。传统的方法是需要人类手动检查神经元,以确定它们代表数据的哪些特征。这个过程很难扩展,将它应用于具有数百或数千亿个参数的神经网络的成本过于高昂。
    的头像 发表于 05-15 09:40 337次阅读