电子发烧友App

硬声App

0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

电子发烧友网>人工智能>机器学习模型可解释性的结果分析

机器学习模型可解释性的结果分析

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论

查看更多

相关推荐

什么是“可解释的”? 可解释性AI不能解释什么

通过建立既可解释又准确的模型来改良这种错误的二分法。关键是将神经网络与决策树相结合,在使用神经网络进行低级决策时保留高级的可解释性
2020-05-31 10:51:447986

如何通过XGBoost解释机器学习

本文为大家介绍用XGBoost解释机器学习。 这是一个故事,关于错误地解释机器学习模型的危险以及正确解释所带来的价值。如果你发现梯度提升或随机森林之类的集成树模型具有很稳定的准确率,但还是需要
2020-10-12 11:48:481557

AI模型的演变与可解释性

人工智能正在改变几乎所有行业和应用领域的工程。随之而来的是对高 AI 模型准确性的需求。事实上,AI 模型在取代传统方法时往往更准确,但这有时也会付出代价:复杂的 AI 模型是如何做出决策的;作为工程师,我们如何验证结果是否如预期那样有效?
2022-09-01 13:06:051629

机器学习模型评估指标

机器学习模型指标在机器学习建模过程中,针对不同的问题,需采用不同的模型评估指标。
2023-09-06 12:51:50410

如何使用TensorFlow构建机器学习模型

在这篇文章中,我将逐步讲解如何使用 TensorFlow 创建一个简单的机器学习模型
2024-01-08 09:25:34272

25个机器学习面试题,你都会吗?

?为什么?(提示:空间复杂度)25. 为了构建一个机器学习模型,你准备了 100 个数据点和 5 种特征。为了减少偏差,你又引入了 5 个特征变量,并且又收集了 100 个数据点。请解释这种方法是否正确。(提示:机器学习会遇到的(维度)灾难,你听说过吗?)`
2018-09-29 09:39:54

分析一个不错的机器学习项目简历收集册

分析一个不错的机器学习项目简历收集册
2021-09-26 06:03:10

可解释机器学习——打开机器学习黑匣子

【资源下载】《可解释机器学习》,打开机器学习黑匣子
2020-05-20 14:16:57

机器学习模型之性能度量

机器学习模型的性能度量
2020-05-12 10:27:21

机器学习之偏差、方差,生成模型,判别模型,先验概率,后验概率

机器学习:偏差、方差,生成模型,判别模型,先验概率,后验概率
2020-05-14 15:23:39

机器算法学习比较

’ =p1H1+p2H2,则此时的信息增益ΔH = H - H’。以信息增益为原则,把所有的属性都测试一边,选择一个使增益最大的属性作为本次分枝属性。决策树自身的优点计算简单,易于理解,可解释性强;比较
2016-09-27 10:48:01

Python机器学习常用库

统计模型上的强大的库,主要用于预测和探索性分析,拟合线性模型、进行统计分析或者预测建模,使用 Statsmodels是非常合适的。三、PyMCPyMC是做“贝叶斯曲线”的工具,其包含贝叶斯模型、统计
2018-03-26 16:29:41

[转]物联网和机器学习究竟有哪些真实应用价值?

需要确定几十个传感器的输入与迅速产生数百万个数据点的外部因素之间的相关。  传统的数据分析需要基于历史数据和专家意见的模型来建立变量之间的关系,而机器学习结果(比如节能)出发,自动寻找预测变量及其
2017-04-19 11:01:42

【下载】《机器学习》+《机器学习实战》

  312索引  313版权声明  316工程师和数据科学家处理大量各种格式(如传感器、图像、视频、遥测、数据库等)的数据。他们使用机器学习来寻找数据中的模式,并建立基于历史数据预测未来结果模型
2017-06-01 15:49:24

一种从零搭建汽车知识的语义网络及图谱思路

语义网络。图谱构建中会面临较大的挑战,但构建之后,可在数据分析、推荐计算、可解释性等多个场景中展现出丰富的应用价值。  其中,构建挑战包括:  Schema 难定义。目前尚无统一成熟的本体构建流程,且特定
2022-11-22 15:37:08

什么是机器学习? 机器学习基础入门

模型这组读数是否与一台空闲的、正在运行的或坏掉的机器相对应。在这个过程中 TinyML 是如此重要,如此开创。那么 TinyML 适合哪里呢?如果还不清楚的话,机器学习是一个数据密集型的过程。当您
2022-06-21 11:06:37

如何实现机器人的自我学习

接近。如果我们用超高次多项式训(cha)练(zhi),则训练数据上的结果肯定为“全对”。这么说全部数据上的结果也接近全对了?不是的。这时的模型是多个“罐子取球”的叠加:在机器学习中,我们需要在巨大
2016-03-04 10:34:38

如何通过cube-ai扩展将机器学习模型部署到STM32H743ZIT6?

我正在尝试通过 cube-ai 扩展将机器学习模型部署到 STM32H743ZIT6。该模型采用 .tflite 格式。当我尝试分析模型时,结果如下:该工具指出 MCU 总共有 512KB 可用,模型超过了它,但在数据表上我发现有 1024KB。什么原因?
2022-12-30 08:57:53

常用python机器学习库盘点

,词性的解析,分类,语义解释,概率分析还有评估。2.scikit-learnPython社区里面机器学习模块sklearn,内置了很多算法,几乎实现了所有基本机器学习的算法。Python机器学习库主要
2018-05-10 15:20:21

软体机器人学习问题探讨

学习并探讨软体机器人结构设计、柔性制造、运动控制、装配和调试等内容,使学员熟练应用控制工程理论、自动化、材料力学、机械原理、机械设计、3D打印等基础知识,培养和提高学员对软体机器人目标分析模型建立、设计制作和实验测试的能力;
2019-08-12 15:09:17

部署基于嵌入的机器学习模型

1、如何在生产中部署基于嵌入的机器学习模型  由于最近大量的研究,机器学习模型的性能在过去几年里有了显著的提高。虽然这些改进的模型开辟了新的可能,但是它们只有在可以部署到生产应用中时才开始提供真正
2022-11-02 15:09:52

中心化模糊系统CTSK的分析及应用

从一个新角度重新探讨TSK模糊系统建模问题,引入并分析推导一种新的TSK模糊系统——CTSK。与传统TSK模糊系统相比,CTSK模糊系统具有良好的可解释性、更好的鲁棒性和较强的逼近能
2009-04-09 09:04:1520

异构信息网络构建的推荐系统新算法研究

1) 非常完美地将各种side information融入到一个统一的模型; 2)利用meta-path,可以设计出各种各样的推荐策略,除了推荐准确性提升之外,还能提供「可解释性」。
2017-10-10 11:47:092645

机器学习学习迎来瓶颈期,未来3~5年都会人才紧缺

所以如果你有足够的机器学习知识,并对特定领域有良好的理解,在职场供求中你肯定可以站在优势的那一边。以我的另一个回答为例「阿萨姆:反欺诈(Fraud Detection)中所用到的机器学习模型有哪些?」,特定领域的知识帮助我们更好的解释机器学习模型结果,得到老板和客户的认可,这才是算法落了地。
2017-10-18 15:15:512617

机器学习的十种经典算法详解

逻辑回归模型是一种强大的统计建模方式,它用一个或多个解释性变量对二值输出结果建模。它用逻辑斯蒂函数估计概率值,以此衡量分类依赖变量和一个或多个独立的变量之间的关系,这属于累积的逻辑斯蒂分布。
2017-12-06 09:20:119836

斯坦福探索深度神经网络可解释性 决策树是关键

深度学习的热潮还在不断涌动,神经网络再次成为业界人士特别关注的问题,AI 的未来大有可期,而深度学习正在影响我们的日常生活。近日斯坦福大学给我们分享咯一则他对深度神经网络可解释性的探索的论文,我们去看看他是如理解的吧!
2018-01-10 16:06:304032

机器学习可解释性为何如此重要?

而对于自底向上的模式,将商业模型中的一部分委派给机器学习,甚至从机器学习中得到全新的商业想法。自底向上的数据科学一般与手工劳作的自动化过程相关。例如制造业公司可将传感器放置在设备上收集数据并预测
2018-04-11 15:48:0413151

关于红外检测技术的解释性论文

关于红外检测技术的解释性论文
2018-05-21 11:15:582

机器学习预测世界杯的结果你相信吗?机器学习的应用

机器学习和大数据的方法正越来越多地被用在比赛结果预测上,不仅是世界杯,也不仅是结果,球队组成、战术选择和球员训练都已经开始见到机器学习的身影。对于球迷和观众而言,人工智能也将展开一种全新的参与/观看体育赛事的体验。
2018-06-12 19:00:384929

用浅显的语言带领大家了解可解释性的概念与方法

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息。
2018-06-25 10:21:115608

机器学习模型的“可解释性”的概念及其重要意义

如果考察某些类型的“事后可解释性”(post-hoc interpretable),深度神经网络具有明显的优势。深度神经网络能够学习丰富的表示,这些表示能够可视化、用语言表达或用于聚类。如果考虑对可解释性的需求,似乎线性模型在研究自然世界上的表现更好,但这似乎没有理论上的原因。
2018-07-24 09:58:2019321

谷歌新推无程式码机器学习模型分析工具

机器学习模型训练完成后,需要经过反覆的探索调校,What-If Tool不需撰写任何程式码,就能探索机器学习模型,让非开发人员眼能参与模型调校工作。
2018-09-14 14:47:282321

深度学习可解释性推理方向上的进展

所以网络学习特征向量,和未见分类一起保存于可微记忆块之中。这一表示不断发展,给了神经网络学习“如何快速学习”的能力,这正是我们将其称为元学习的原因。就这样,神经网络的行为开始变得更像人类了。人类联系
2018-11-10 10:07:554777

2018年,机器学习和人工智能领域最重要的突破是什么?

正如Xavier Amatriain说的那样,深度学习的寒冬不会到来——这项技术已经用到产业里并带来了收益,现实让人们收起了一部分对AI的期望和恐惧,业界开始思考数据的公平性、模型可解释性等更本质的问题。
2018-12-26 08:59:523600

最新医学图像处理技术:从形成到解释

图像形成过程包括数据采集和图像重建步骤,为数学逆问题提供解决方案。图像计算的目的是改善重建图像的可解释性并从中提取临床相关信息。
2019-04-15 16:29:096752

探讨一些可用于解释机器学习模型的不同技术

下图则阐述了在需要清晰简单的模型可解释性时,通常首选白盒模型 (具有线性和单调函数) 的原因。图的上半部显示,随着年龄的增长,购买数量会增加,模型的响应函数在全局范围内具有线性和单调关系,易于解释模型
2019-04-04 17:30:232470

人工数学建模和机器学习的优缺点进行介绍和比较

我主要研究医疗和金融领域的模型应用,在这些领域的实际问题中,上述模型能够在很大程度上解决模型解释性、人工数据生成和零样本学习问题。因此在下面的实验中,我使用 beta-VAEs 模型对心电图(ETC)数据和和比特币(BTC)的价格数据进行了分析。该实验的代码在 Github上可以找到。
2019-05-08 09:59:1610135

神经网络可解释性研究的重要性日益凸显

神经网络的可解释性,从经验主义到数学建模
2019-06-27 10:54:204942

深度学习全新打开方式Google Brain提出概念激活向量新方法

最近,Google Brain团队的研究人员发表了一篇论文,提出了一种名为概念激活向量(Concept Activation Vectors, CAV)的新方法,它为深度学习模型可解释性提供了一个新的视角。
2019-07-31 14:11:462702

深度理解神经网络黑盒子:可验证性和可解释性

虽然神经网络在近年来 AI 领域取得的成就中发挥了关键作用,但它们依旧只是有限可解释性的黑盒函数近似器。
2019-08-15 09:17:3412652

第三代AI要处理“可解释性”问题

语言是人类智能的重要标志,在人类文明中的地位与作用毋庸置疑,自然语言处理,通俗地解释就是“让计算机学习人类语言”。
2019-08-15 09:41:462540

联想集团携人工智能技术和解决方案亮相2019年The AI Summit

“因此,可解释性机器学习,特别是深度学习是一个很大的挑战。只有人类理解了AI的决策过程,才能将其应用在更广泛的社会场景中。”徐飞玉表示。
2019-09-27 11:24:012230

谷歌AI服务阐明了机器学习模型如何做出决策

Google LLC已在其云平台上推出了一项新的“可解释AI”服务,旨在使机器学习模型做出决策的过程更加透明。
2019-11-30 11:06:51882

什么是可解释的人工智能,它的定义如何

可解释的人工智能意味着人类可以理解IT系统做出决定的路径。人们可以通过分解这个概念来探究人工智能如此重要的原因。
2020-01-30 08:50:006437

Explainable AI旨在提高机器学习模型可解释性

Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。
2020-03-24 15:14:212655

一项关于可解释人工智能规划(XAIP)的工作调查

可解释AI(X AI)近年来一直是一个积极的研究课题,受到DARPA2016年倡议的推动。 计算机视觉和自然语言处理等“感知”问题的机器学习的广泛采用,导致了分类器的可解释性技术的发展,包括LIME和AllenNLP解释技术。
2020-04-03 14:57:482620

2020年AI如何发展?

今年秋天,Facebook发布了带有量化和TPU支持的PyTorch 1.3,以及深度学习可解释性工具Captum和PyTorch Mobile。还有诸如PyRobot和PyTorch Hub之类的东西,用于共享代码并鼓励机器学习(ML)实践者实现可重复性。
2020-04-15 16:40:001703

机器学习模型评估的11个指标

建立机器学习模型的想法是基于一个建设性的反馈原则。你构建一个模型,从指标中获得反馈,进行改进,直到达到理想的精度为止。评估指标解释模型的性能。评估指标的一个重要方面是它们区分模型结果的能力。
2020-05-04 10:04:002969

利用SHAP实现机器学习模型的输出预测

我最喜欢的库之一是SHAP,它是解释机器学习模型生成的输出不可或缺的工具。 SHAP是几种不同的当前解释模型的顶点,并且通过为每个特征分配重要性值来表示用于解释模型预测的统一框架。反过来,可以绘制这些重要性值,并用于产生任何人都可以轻易解释的漂亮可视化。
2020-05-04 18:09:007248

试图解构AI思维逻辑台大徐宏民力赞可信任的AI

 一般来说,效能(正确率)与可解释性呈现负相关的关系,也就是说,可解释性越高,效能就越差;效能越高,可解释性就越低。
2020-05-17 09:49:08641

人工智能科技的发展将指引智能网联汽车未来的发展方向

针对人工智能安全问题,他提出四大对策。第一方面对策是可解释性,即我们了解或者解决一件事情的时候,可以获得我们所需要的足够可以理解的信息。比如说过去算法是黑盒算法,缺乏透明性、可解释性,一旦发生问题,难以分析和验证到底问题出处。
2020-07-04 13:00:202783

详谈机器学习的决策树模型

决策树模型是白盒模型的一种,其预测结果可以由人来解释。我们把机器学习模型的这一特性称为可解释性,但并不是所有的机器学习模型都具有可解释性
2020-07-06 09:49:063073

人工智能算法的可解释性方法研究

以深度学习为代表的人工智能技术在信息领域的应用,极大地提高了信息的利用效率和挖掘价值,深刻的影响了各领域的业务形态,同时也引发了监管部门和用户对这一新技术运用中出现的 “算法黑箱”问题关切和疑虑。如何对相关算法、模型、及其给出的结果进行合理的解释成为数据科学家亟需解决的问题
2020-07-15 17:28:111166

理解机器学习中的算法与模型

对于初学者来说,这很容易让人混淆,因为“机器学习算法”经常与“机器学习模型”交替使用。这两个到底是一样的东西呢,还是不一样的东西?作为开发人员,你对排序算法、搜索算法等“算法”的直觉,将有助于你厘清这个困惑。在本文中,我将阐述机器学习“算法”和“模型”之间的区别。
2020-07-31 15:38:083347

dotData宣布dotData企业2.0版本的发布

AutoML中准确性和可解释性的自动平衡 -除了追求最高准确性的模型外,还使过程自动化,以最小的准确性变化探索更简单的ML模型。这使用户可以根据他们的业务需求来平衡准确性和可解释性
2020-09-11 10:32:041085

浅谈机器学习模型可解释性和透明性

对于机器学习模型来说,我们常常会提到2个概念:模型准确性(accuracy)和模型复杂度(complexity)。
2021-01-05 14:02:282825

医学图像分割中的置信度进行量化

在过去的十年里,深度学习在一系列的应用中取得了巨大的成功。然而,为了验证和可解释性,我们不仅需要模型做出的预测,还需要知道它在...
2020-12-08 22:14:02262

机器学习模型可解释性的介绍

模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这...
2020-12-10 20:19:43533

用于解释神经网络的方法是如何发展的?

深度学习)进行图像识别的最大挑战之一,是难以理解为什么一个特定的输入图像会产生它所预测的结果。 ML模型的用户通常想了解图像的哪些部分是预测中的重要因素。这些说明或“解释”之所以有价值,有很多原因: 机器学习开发人员可以分析调试模型的解
2020-12-23 10:23:091315

基于MASK模型的视频问答机制设计方案

与问题文本特征进行3种注意力加权,利用MASK屏蔽与问题无关的答案,从而增强模型可解释性。实验结果表明,该模型在视频问答任务中的准确率达到61%,与ⅤQA+、SA+等视频问答模型相比,其具有更快的预测速度以及更好的预测效果。
2021-03-11 11:43:282

基于注意力机制的深度兴趣网络点击率模型

和自适应激活函数,根据用户历史行为和给定广告自适应地学习用户兴趣。引人注意力机制,区分不同特征对预测结果的影响程度,从而增强模型可解释性。在3个公开数据集上的实验结果表明,相对LR、PNN等CTR预估模型,ADIN模型具有更高的AUC值和更
2021-03-12 10:55:115

综述深度神经网络的解释方法及发展趋势

、医药、交通等髙风险决策领域对深度神经网络可解释性提岀的强烈要求,对卷积神经网络、循环神经网绛生成对抗网络等典型网络的解释方法进行分析梳理,总结并比较现有的解释方法,同时结合目前深度神经网络的发展趋势,对其
2021-03-21 09:48:2318

一种拥有较好可解释性的启发式多分类集成算法

安全性得到重视,传统融合策略可解释性差的冋题凸显。夲文基于心理学中的知识线记忆理论进行建模参考人类决策过程,提出了一种拥有较好可解释性的启发式多分类器集成算法,称为知识线集成算法。该算法模拟人类学习与推断的
2021-03-24 11:41:3313

GNN解释技术的总结和分析与图神经网络的解释性综述

图神经网络的可解释性是目前比较值得探索的方向,今天解读的2021最新综述,其针对近期提出的 GNN 解释技术进行了系统的总结和分析,归纳对比了该问题的解决思路。
2021-03-27 11:45:325583

图神经网络的解释性综述

:https://arxiv.org/pdf/2012.15445.pdf 参考文献 0.Abstract近年来,深度学习模型可解释性研究在图像和文本领域取得了显著进展
2021-04-09 11:42:062440

一个机器学习系统的需求建模与决策选择

,用户信任通常取决于包含可解释性、公平性等非功能需求在内的综合需求的满足程度,且在不同领域内应用机器学习通常有特定的需求,为保证需求描述的质量及实施过程的决策带来了挑战。为解决以上问题,文中提岀了一个机器学习
2021-04-23 10:36:483

基于机器学习算法的水文趋势预测方法

针对传统的利用神经网络等工具进行水文趋势预测得出结果不具备解释性等不足,文中提出一种基于机器学习算法的水文趋势预测方法,该方法旨在利用 XGBOOST机器学习算法建立参照期与水文预见期之间各水文特征
2021-04-26 15:39:306

面向联邦学习的分布式与隐私安全性综述

设计。传统的可视化任务需要使用大量的数据,而联邦学习的隐私性决定了其无法获取用户数据。因此,可用的数据主要来自服务器端的训练过程,包括服务器端模型参数和用户训练状态。基于对联邦学习可解释性的挑战的分析,文
2021-04-29 11:13:593

基于狄利克雷过程的可扩展高斯混合模型

,以提升其可解释性。此外,对高斯混合模型的推理过程进行优化,给出一种基于批次处理方式的可扩展变分推理算法,求解图像去噪中所有隐变量的变分后验分布,实现先验学习。实验结果表明,该模型在图像去噪任务中较巸PLL等传
2021-04-29 11:17:497

六个构建机器学习模型需避免的错误

近年来,机器学习在学术研究领域和实际应用领域得到越来越多的关注。但构建机器学习模型不是一件简单的事情,它需要大量的知识和技能以及丰富的经验,才能使模型在多种场景下发挥功效。正确的机器学习模型要以数据
2021-05-05 16:39:001238

基于迁移学习的驾驶分心行为识别模型

为了提高驾驶分心识别的应用性及识别模型可解释性,利用迁移学习方法硏究构建驾驶人驾驶分心行为识别模型并采用神经网络可视化技术硏究对模型进行解释。以ⅤGσ-6模型为基础,对原模型全连接层进行修改以适应
2021-04-30 13:46:5110

机器学习模型在功耗分析攻击中的研究

不同的数据集的十折交叉验证结果进行模型选择,提高测试公平性及测试结果的泛化能力。为避免十折交叉验证过程中出现测试集误差不足以近似泛化误差的问题,采用 Fried man检验及 Nemeny后续检验相结合的方法对4种机器学习算法进行评估
2021-06-03 15:53:585

探究对深度学习模型VAE的时序性解耦

的主要原因之一,尤其是对于关键任务应用程序。 因此,“黑匣子”的解体已成为机器学习研究人员的一个重大开放问题,并且是该领域当前感兴趣的问题之一,这一研究领域通常被称为机器学习架构的“可解释性”。在本文中,我们将讨论
2021-06-04 11:10:444139

《计算机研究与发展》—机器学习可解释性

伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子,严重阻碍了机器学习在某些特定领域的使用,譬如医学、金融等领域.目前针对机器学习可解释性
2022-01-25 08:35:36790

关于机器学习模型的六大可解释性技术

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术。
2022-02-26 17:20:191831

机器学习模型可解释性算法详解

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
2022-02-16 16:21:313986

人工智能的透明度和可解释性义务

  SHAP 聚类提供了机器学习模型的局部、全局和组级决策的解释。这里提供的扩展允许对解释进行进一步分析。这允许从业者为基于机器学习的决策构建一个叙述和解释,以满足业务、监管和客户需求。
2022-04-07 09:12:232275

使用可解释机器学习构建多样化投资组合

  对形状值进行聚类的想法基于 EU Horizon 项目FIN-TECH中最成功的 AI 用例,发布为可解释机器学习在信用风险管理中的应用。它
2022-04-07 09:20:481296

使用RAPIDS加速实现SHAP的模型可解释性

  模型解释性 帮助开发人员和其他利益相关者理解模型特征和决策的根本原因,从而使流程更加透明。能够解释模型可以帮助数据科学家解释他们的模型做出决策的原因,为模型增加价值和信任。在本文中,我们将讨论:
2022-04-21 09:25:561922

InterpretML机器学习可解释性

./oschina_soft/interpret.zip
2022-06-16 09:51:541

可解释机器学习

可解释机器学习
2022-06-17 14:41:051

人工智能可解释性规制面临的问题分析

在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明性(Transparency)与可解释性(Explainability)是至关重要的。
2022-08-09 10:04:011132

使用机器学习方法来预测模拟了二维二氧化硅玻璃的失效

在此,研究者通过机器学习方法分析了二维石英玻璃的结构和失效行为,并说明了如何在保持结果的定性可解释性的情况下实现准确的失效预测。这要归功于梯度加权类激活映射(Gradient-weighted Class Activation Mapping, Grad-CAM)的使用
2022-08-18 16:22:26850

使用TensorBoard的机器学习模型分析

机器学习正在突飞猛进地发展,新的神经网络模型定期出现。这些模型针对特定数据集进行了训练,并经过了准确性和处理速度的证明。开发人员需要评估 ML 模型,并确保它在部署之前满足预期的特定阈值和功能
2022-12-06 14:35:10456

自动驾驶芯片行业趋势

一是自动驾驶高度依赖不具备可解释性的深度学习神经网络,不具备可解释性就意味着无法真正迭代升级。公认自动驾驶技术霸主的Waymo研发自动驾驶已经14年,但近10年来都没有取得显著进展原因就是如此。
2022-12-21 11:44:10728

机器学习模型可解释性算法汇总

目前很多机器学习模型可以做出非常好的预测,但是它们并不能很好地解释他们是如何进行预测的,很多数据科学家都很难知晓为什么该算法会得到这样的预测结果。这是非常致命的,因为如果我们无法知道某个算法是如何进行预测,那么我们将很难将其前一道其它的问题中,很难进行算法的debug。
2023-02-03 11:34:061038

可以提高机器学习模型可解释性技术

本文介绍目前常见的几种可以提高机器学习模型可解释性的技术,包括它们的相对优点和缺点。
2023-02-08 14:08:52861

LeCun新作:全面综述下一代「增强语言模型

最近图灵奖得主Yann LeCun参与撰写了一篇关于「增强语言模型」的综述,回顾了语言模型与推理技能和使用工具的能力相结合的工作,并得出结论,这个新的研究方向有可能解决传统语言模型的局限性,如可解释性、一致性和可扩展性问题。
2023-03-03 11:03:20673

如何评估机器学习模型的性能?机器学习的算法选择

如何评估机器学习模型的性能?典型的回答可能是:首先,将训练数据馈送给学习算法以学习一个模型。第二,预测测试集的标签。第三,计算模型对测试集的预测准确率。
2023-04-04 14:15:19549

文献综述:确保人工智能可解释性和可信度的来源记录

本文对数据起源、可解释AI(XAI)和可信赖AI(TAI)进行系统的文献综述,以解释基本概念,说明数据起源文件可以用来提升基于人工智能系统实现可解释性。此外,文中还讨论了这个领域近期的发展模式,并对未来的研究进行展望。
2023-04-28 15:55:48905

你是什么时候对深度学习失去信心的?

这就使得,原本深度学习被诟病可解释性问题,其实不再是问题。因为从业务顶层已经被拆分,拆分成一个个可以被人理解的因子,无法被合理解释的因子,项目启动的评审都无法通过。
2023-05-19 10:09:40244

可信人工智能研究方向与算法探索

为了建立可信、可控、安全的人工智能,学术界与工业界致力于增强人工智能系统与算法的可解释性。具体地,可信人工智能旨在增强人工智能系统在知识表征、表达能力、优化与学习能力等方面的可解释性与可量化性以及增强人工智能算法内在机理的可解释性
2023-05-24 10:02:16363

为k近邻机器翻译领域自适应构建可解释知识库

为了找到NMT模型的潜在缺陷,构建更加可解释的知识库,我们提出以局部准确性这一新概念作为分析角度。其中,局部准确性又包含两个子概念:条目准确性(entry correctness)和邻域准确性(neighborhood correctness)。
2023-06-13 15:25:19390

机器学习中使用的5种常见数据结构和算法

使用数据结构和算法,您的代码可以提高机器学习系统的速度、可伸缩性和可解释性。选择的最佳设计将取决于主要问题的精确要求。每种设计都有一定的优势和用途。
2023-06-14 09:35:201241

机器学习模型的集成方法总结:Bagging, Boosting, Stacking, Voting, Blending

来源:DeepHubIMBA作者:AbhayParashar机器学习是人工智能的一个分支领域,致力于构建自动学习和自适应的系统,它利用统计模型来可视化、分析和预测数据。一个通用的机器学习模型包括
2022-10-19 11:29:21528

最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM 是通过概率模型执行推理,而这是一个非决断性的过程。对于 LLM 用以得出预测结果和决策的具体模式和功能,人类难以直接获得详情和解释
2023-07-10 11:35:001354

机器学习算法汇总 机器学习算法分类 机器学习算法模型

机器学习算法汇总 机器学习算法分类 机器学习算法模型 机器学习是人工智能的分支之一,它通过分析和识别数据模式,学习从中提取规律,并用于未来的决策和预测。在机器学习中,算法是最基本的组成部分之一。算法
2023-08-17 16:11:48632

三个主要降维技术对比介绍:PCA, LCA,SVD

随着数据集的规模和复杂性的增长,特征或维度的数量往往变得难以处理,导致计算需求增加,潜在的过拟合和模型可解释性降低。
2023-10-09 10:13:47422

华为云AI峰会揭示大模型实践难题

除此之外,还存在行业训练数据安全控制、大模型幻觉缓解消除及可解释性、构建具有强大逻辑推理规划能力的大模型、基于图数据的知识增强技术、通用结构化数据特性对齐和预训练,以及视觉领域下一个token预测任务建模等挑战。
2023-12-25 10:33:53436

已全部加载完成