0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度理解神经网络黑盒子:可验证性和可解释性

mK5P_AItists 来源:YXQ 2019-08-15 09:17 次阅读

近年来,人工智能尤其是在机器学习领域中,取得了非常巨大的成就,看似其未来更加光明。然而这些系统仍旧不够完美,尤其是被应用到一些因为些许错误就能够导致人命伤害或亿万财产损失的行业中时,这将会存在巨大的风险。

这需要我们人为对这些系统进行保障,其中包括可验证性、可靠性、鲁棒性、可审计性、可解释性和无偏性,对此,斯坦福 AI 实验室对近年来关于 AI 安全、可靠性的研究进展进行了总结,并以文章的形式发布在博客上。

概述

为了能在一些关键应用中使用先进的 AI 系统,比如:商用飞机防撞、金融交易或大规模发电厂、化工厂控制等应用;我们必须保证这些系统具有可验证性(以正确的方式对一系列输入进行验证)、可靠性(即使是新的未见过的输入,表现能够与预期相符)、鲁棒性(在应用时不易受噪音或特定输入干扰)、可审计性(当做出任何给定的决定时,可检查其内部状态)、可解释性(有条理的,可以确保产生决策的数据、场景和假设都是能够被解释清楚的)以及无偏性(不会对某类行为表现出无意识的偏好)。

毫无疑问,这对 AI 系统提出了一系列极为严苛的要求。不过可喜的是,世界上已经有一批来自斯坦福人工智能实验室和斯坦福研究社区的优秀 AI 研究人员(其中包括 Clark Barrett, David Dill, Chelsea Finn, Mykel Kochenderfer, Anshul Kundaje, Percy Liang, Tengyu Ma, Subhasish Mitra, Marco Pavone, Omer Reingold, Dorsa Sadigh 以及 James Zou)正在努力解决这个问题。

本文将介绍一些致力于实现安全可靠的 AI 技术的研究案例。我们将从中看到新技术如何理解神经网络的黑盒子、如何找到和消除偏见,以及如何确保自动化系统的安全性。

理解神经网络的黑盒子:可验证性和可解释性

虽然神经网络在近年来 AI 领域取得的成就中发挥了关键作用,但它们依旧只是有限可解释性的黑盒函数近似器。即便是试图将有限训练数据泛化到未见过的输入,它们在小的干扰下也可能失败,更何况这种做法还会导致难以验证算法的鲁棒性。

让我们看看当前研究工作的两个案例,它们让研究者可以检验神经网络的内部运作。第一个是关于可验证性,第二个则是关于可解释性。

深度神经网络的可验证性

我们希望确保神经网络能够适用于所有可能的情况,但可验证性在实验方面超出了现有工具力所能及的范围。目前,专用工具只能处理非常小的网络,例如具有 10-20 个隐藏节点的单个隐藏层。Katz 等人在论文「Reluplex: An efficient SMT solver for verifying deep neural networks」(论文地址:https://arxiv.org/abs/1702.01135)中提出了 Reluplex,一种用于神经网络错误检测的新算法。Reluplex 将线性编程技术与 SMT(可满足性模块理论)求解技术相结合,其中神经网络被编码为线性算术约束。核心观点就是避免数学逻辑永远不会发生的测试路径,这允许测试比以前更大的数量级的神经网络,例如,每个具有 8 层和 300 个节点的全连接神经网络。

Reluplex 可以在一系列输入上证明神经网络的属性。它可以测量对抗鲁棒性,换言之,即测量可以产生虚假结果的最小或阈值对抗性信号。见 Raghunathan 等人的《针对对抗性实例的认证防御》(https://openreview.net/pdf?id=Bys4ob-Rb),这是另一个评估对抗鲁棒性的案例。

Reluplex 案例研究:无人机防撞

Reluplex 曾被用来测试 ACAS Xu (https://arxiv.org/abs/1810.04240)早期原型的神经网络,是一种用于无人机的机载防撞系统。如图所示,该系统考虑了两架无人机:一架是由 ACAS Xu 软件控制的你自己的无人机「Ownship」,另一架是我们进行观察的无人机「Intruder」。其目标是引导「Ownship」避免与「Intruder」发生碰撞。

在第一种情况下,要求研究人员展示,如果「Intruder」从左侧接近,那么系统将建议「Ownship」向右急转弯。研究人员使用一定的计算资源在 1.5 小时内证明了该网络在每种情况下都能正常运行。另一个更为复杂的情况是 「Intruder」 和 「Ownship」 处于不同海拔高度的情况,此外 「Ownship」 在这之前还接收到了关于缓慢左转的建议。这说明了在这种系统中可能出现的复杂性。在这种情况下,网络应该建议 COC(没有冲突,即保持当前路线)或缓慢左转。研究人员使用适度的计算资源在 11 个小时内找到了一个反例,后来又在不同的网络中纠正了该反例。

理解模型预测

我们能解释为什么神经网络会做出具体的预测吗?这是 Koh 和 Liang 在论文「 Understanding black-box predictions via influence functions」(https://arxiv.org/pdf/1703.04730.pdf)中提出的问题。当深度学习模型用于决定获得金融贷款或健康保险的对象以及一些其他应用程序时,这一点非常重要。当人工智能系统易于理解时,他们可能会做出更好的决策,从而改进模型的开发,得出更重大的发现,深化我们对 AI 的信任,以及实现更好的发展。因此,研究人员的方法是对给定预测结果最相关训练节点的确定。他们的关键点是使用「影响函数」,通过数学来回答这个问题:「如果我们没有训练节点,模型的预测会如何变化?」

在上图中,如果这只白狗的像素点正是使得该神经网络将其识别为狗,那么系统就非常合理。换句话说,如果海浪的像素点被识别输出为「狗」,则该系统易错率就很高 ——仅具有海浪的其他图像可能被错误地归类为「狗」。通过正确识别白狗的像素影响比海浪像素更高,我们的系统在处理噪声时就会表现得更可靠。

寻找和消除偏差

人工智能系统反映出社会偏差一点都不让人惊讶。Zou 和 Schiebinger 在论文「Design AI so that it’s fair 」(https://www.nature.com/articles/d41586-018-05707-8)中指出偏差可能有两个来源,即训练数据和算法。训练数据中的偏差可能是由于某些群体在数据库中占比过高或过低,解决方案是调查如何策划训练数据。而算法可以放大偏差,因为典型的机器学习程序是试图最大化整个训练数据的整体预测精度,因此解决方案是研究偏差的传播和放大方式。

几何捕获语义

Bolukbasi 等人在论文「Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings」(https://arxiv.org/pdf/1607.06520.pdf)中,使用单词配对来检查偏差。例如,考虑这个问题,男人对应王,那么女人对应什么?任何五岁的孩子都可以回答这个问题,男人是王,那么女人就是女王。研究人员使用 Google 新闻语料库的 Word2Vec 模型回答了单词配对问题。每个单词都映射到高维空间中的一个点。单词之间的关系由连接这些单词的向量表示。

单词嵌入高维空间的二维投影,其中连接女人与女王的向量

与连接男人与王的向量的长度和方向相同

谷歌新闻语料库很庞大,其中许多文章的作者都是专业记者,因此我们理想的期望是使用这些数据训练的模型没有偏差。然而经过片刻的反思,我们意识到这个模型可能会反映社会的偏差,因为它毕竟是对我们社会产生的数据进行的训练,这正是我们接下来讨论的。

让我们来看看另一个词配对:「他」对应的是「兄弟」,那「她」对应着的是什么?同样,任何五岁的孩子都可以回答说「他」对应「兄弟」,那么「她」对应「姐妹」。我们有一个良好的开端,但正如你在下图中看到的那样,事情开始急速转折。一些单词配对表现出偏差(「他」对应的是「医生」,那「她」则对应「护士」;「他」对应的是「计算机程序员」,那「她」则对应「家庭主妇」),另外有一些更是奇怪得彻头彻尾(「她」对应着「怀孕」,而「他」竟然对应着「肾结石」)。

研究人员发现,通过消除性别刻板印象,例如接待员和女性之间的联系,同时保留所期望的联系,比如女王和女性之间的关联,可以减少性别偏差。为了做到这一点,他们根据定义区分了与性别相关的性别特定词,如兄弟,姐妹,商人和女商人,以及其余的性别中性词。在几何学上,他们确定了两个正交维度,即性别特定词与性别中性词间的差别。他们的消除偏差算法通过折叠性别中立的方向去除性别中性词和性别的关联。谷歌,推特,脸书,微软和其他公司都在使用这种消除方式。

在没有人群统计的情况下实现公平

Hashimoto 等人在论文「Fairness without demographics in repeated loss minimization」(https://arxiv.org/pdf/1806.08010.pdf)中想搞清楚是否即使我们没有人群统计信息也有可能开发公平的系统。其主要问题是少数群体在最小化平均训练损失方面的代表性较低。由于成本或隐私原因,分组标签可能不可用,或者受保护的群体可能无法被识别或被知道。当前的方法,即经验风险最小化,会随着时间的推移进一步缩小输入数据中的少数群体,而使问题变得更糟。这些研究人员的目标是即使在没有人口统计标签的情况下,保护所有群体,甚至是少数群体。所以他们的解决方案是一种基于「分布式稳健优化」的方法,可以最大限度地减少所有群体的损失。

分布式稳健优化的目的是控制所有组的最坏情况风险。直观地说,这种方法是加大高损失样本的比重。相对于整个样本而言,加大高损失的样本比重能对具有较少高损失样本的模型做相应的调整,使得某些分组就不再有不成比例的高误差了。即少数群体相关的数据点将默认为遭受高损失的数据点,因此这种方法可以帮助避免这种情况。

确保安全的自治系统

机器人,无人机和自动驾驶车辆需要算法来进行安全学习、规划和操控。当系统探索周围环境时,他们必须处理它们的行为所造成的结果、动态环境和未知人类交互所存在的不确定性。在以下两个例子中,研究人员将自主机器人和人类建模为一个系统。

人机交互的数据驱动概率建模

Marco Pavone 教授的研究(论文:「Multimodal Probabilistic Model-Based Planning for Human-Robot Interaction」,https://arxiv.org/pdf/1710.09483.pdf),旨在开发一个决策和控制堆栈,用于在有多种不同行动方案的环境中进行安全的人机交互。在这案例中,研究人员考虑在进出高速公路的匝道上进行交织区交通流测试。他们的方法是首先从车辆交互样本的数据集中学习未来人类行为的多模态概率分布,然后通过从人类对指定机器人动作序列的回应中进行大规模并行采样来构建实时的机器人策略。该框架不对人类动机做出任何假设,这使得它可以对各种人类驾驶行为进行建模。

值得注意的是,该模型包括高级别随机决策和低级别安全保护控制。考虑到人类有时可能会无视机器人预测,该框架增加了一个低级别的跟踪控制器,当安全受到威胁时,该控制器将随机规划者所需轨迹转化为安全保护控制模式。

安全学习人的内在状态

Dorsa Sadigh (相关工作论文:「Planning for cars that coordinate with people: leveraging effects on human actions for planning and active information gathering over human internal state」,http://iliad.stanford.edu/pdfs/publications/sadigh2018planning.pdf)和 Mykel Kochenderfer 正在研究通过训练自动驾驶汽车来了解人类驾驶员的内在状态。他们将自主车辆和人类之间的相互作用建模为动力系统来实现这一点。当然,这项研究中,自动驾驶汽车的动作采用直接控制的方式,但这些动作会影响人类的行为,因此也可以间接控制人类的行为。

想象一下,你正试图在拥挤的高速公路上变道。在观察其他驾驶员的反应时,你可能会从当前车道缓慢进入新车道。如果另一个驾驶员减速并打开一个间隙,那么你继续换道,但如果另一个驾驶员加速并阻挡你,那么你将返回你的车道并稍后再试。曾经常用的方法大体是通过让机器人最大化其自身奖励函数,但现在这个奖励函数可以直接取决于人类做出的响应。由于司机对其他司机的行为做出回应,我们有机会进行积极的信息收集。

未来

在不久的将来,我们将享受安全可靠的人工智能系统,这些系统具有可验证性、可审计性、可解释性、无偏差性和鲁棒性。正如斯坦福大学人工智能实验室以及其他实验室的研究正在提供创新的技术解决方案,使得这些美好的期愿成为可能。

但光靠技术解决方案还不够,成功还需要对这些解决方案谨慎的实施,并引入社会意识,以确定我们希望在这些系统中加入哪些参数。最近,我们看到以人为本的人工智能方法的兴起,考虑了人为因素和社会影响,这让我们看到:即使对于文化迥异的用户和各种意外情况,这些方法都将赋予人工智能系统以安全、可靠和合理的工作方式!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4570

    浏览量

    98714
  • 黑盒子
    +关注

    关注

    0

    文章

    5

    浏览量

    8766

原文标题:AI 在安全、可靠性方面到底取得了哪些进展?斯坦福 AI 实验室进行了总结

文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过
    的头像 发表于 01-11 10:51 711次阅读
    详解<b class='flag-5'>深度</b>学习、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用

    卷积神经网络通俗理解

    卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是
    的头像 发表于 11-26 16:26 567次阅读

    浅析深度神经网络压缩与加速技术

    深度神经网络深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似
    的头像 发表于 10-11 09:14 393次阅读
    浅析<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>压缩与加速技术

    机器学习模型可解释性的结果分析

    模型的可解释性是机器学习领域的一个重要分支,随着 AI 应用范围的不断扩大,人们越来越不满足于模型的黑盒特性,与此同时,金融、自动驾驶等领域的法律法规也对模型的可解释性提出了更高的要求,在可解
    发表于 09-28 10:17 509次阅读
    机器学习模型<b class='flag-5'>可解释性</b>的结果分析

    卷积神经网络深度神经网络的优缺点 卷积神经网络深度神经网络的区别

    深度神经网络是一种基于神经网络的机器学习算法,其主要特点是由多层神经元构成,可以根据数据自动调整神经元之间的权重,从而实现对大规模数据进行预
    发表于 08-21 17:07 2305次阅读

    卷积神经网络的基本原理 卷积神经网络发展 卷积神经网络三大特点

    卷积神经网络的基本原理 卷积神经网络发展历程 卷积神经网络三大特点  卷积神经网络的基本原理 卷积神经网络(Convolutional Ne
    的头像 发表于 08-21 16:49 1434次阅读

    卷积神经网络三大特点

    卷积神经网络三大特点  卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,其具有三大特点:局部感知、参数共享和下采样。 一、局部感知 卷积神经
    的头像 发表于 08-21 16:49 3560次阅读

    卷积神经网络的工作原理 卷积神经网络通俗解释

    卷积神经网络的工作原理 卷积神经网络通俗解释  卷积神经网络(Convolutional Neural Network, CNN)是一种众所周知的
    的头像 发表于 08-21 16:49 2733次阅读

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法

    卷积神经网络原理:卷积神经网络模型和卷积神经网络算法 卷积神经网络(Convolutional Neural Network,CNN)是一种基于深度
    的头像 发表于 08-17 16:30 912次阅读

    卷积神经网络通俗理解

    卷积神经网络通俗理解 卷积神经网络,英文名为Convolutional Neural Network,成为了当前深度学习领域最重要的算法之一,也是很多图像和语音领域任务中最常用的
    的头像 发表于 08-17 16:30 2285次阅读

    在系统设计中添加“黑盒子”故障记录议

    在电子设备(而不是飞机)中增加数据记录功能—“黑盒子”,将为系统提供非常有价值的信息。电子设备中所谓的复杂系统管理器—黑盒子,用于记录网络、通讯、工业、医疗设备的故障数据。记录故障所带来的最大好处是快速、有效地进行失效分析。本文
    的头像 发表于 06-25 10:45 324次阅读
    在系统设计中添加“<b class='flag-5'>黑盒子</b>”故障记录议

    浅析三种主流深度神经网络

    来源:青榴实验室1、引子深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。在本文中,我们将了解深度神经网络的基础知识和三个最流行
    的头像 发表于 05-17 09:59 1071次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>

    浅析三种主流深度神经网络

    来源:青榴实验室 1、引子 深度神经网络(DNNs)最近在图像分类或语音识别等复杂机器学习任务中表现出的优异性能令人印象深刻。 在本文中,我们将了解深度神经网络的基础知识和三个最流行
    的头像 发表于 05-15 14:20 608次阅读
    浅析三种主流<b class='flag-5'>深度</b><b class='flag-5'>神经网络</b>

    三个最流行神经网络

    在本文中,我们将了解深度神经网络的基础知识和三个最流行神经网络:多层神经网络(MLP),卷积神经网络(CNN)和递归
    发表于 05-15 14:19 1174次阅读
    三个最流行<b class='flag-5'>神经网络</b>

    文献综述:确保人工智能可解释性和可信度的来源记录

    本文对数据起源、可解释AI(XAI)和可信赖AI(TAI)进行系统的文献综述,以解释基本概念,说明数据起源文件可以用来提升基于人工智能系统实现可解释性。此外,文中还讨论了这个领域近期的发展模式,并对未来的研究进行展望。
    的头像 发表于 04-28 15:55 962次阅读
    文献综述:确保人工智能<b class='flag-5'>可解释性</b>和可信度的来源记录