0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

科学家真正信任人工智能之前,首先需要去理解机器是如何学习的

bzSh_drc_iite 来源:未知 作者:李倩 2018-10-29 14:59 次阅读

As machine learning infiltrates society, scientists are trying to help ward off injustice.随着机器学习对社会各领域的渗透,科学家正努力去防止一些不公平的现象产生。

Illustration by Mario Wagner

一、背景人工智能无处不在,但在科学家真正信任人工智能之前,首先需要去理解机器是如何学习的。

随着人工智能技术的应用,计算机的决策会逐渐被人们所接受,但一些决策可能会影响人们的生活。比如,机器学习算法应用于虐童家庭预测和犯罪预测等。每天头条新闻都有人说孩子们处于危险中,而算法正在帮助公共部门改善儿童的危险处境。2015年,Rhema Vaithianathan在宾夕法尼亚州匹兹堡解释了软件怎么样帮我们改善儿童的危险处境。从匹兹堡的早期运行效果来看,算法预测分析技术似乎是儿童保护领域在过去20年间最令人兴奋的创新之一。在刑事司法领域,算法预测分析也已经被确立为法官和假释委员会的工具。

这些算法预测工具应该是一致、准确、严谨的。但对这些工具的监督却非常有限,因为没有人知道有多少人在使用这样的工具。2016年有美国记者称判定未来犯罪风险的系统会歧视黑人被告,算法运作本身的保密性(不透明性)激起了公众更为强烈的不满,而且大部分算法是由私营公司所开发、销售和严密保护的。

在这样的背景下,政府也在尝试让这样的软件更具可解释性。2017年12月11日,美国纽约市议会通过了《算法问责法案》,以解决算法歧视问题。根据该法案,纽约市将成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,专门监督市政机构使用的自动决策算法的公平性、问责性和透明度。该小组负责推动政府决策算法开源,使公众了解市政机构自动化决策的过程,并就如何改进算法问责制和避免算法歧视提出了一些建议。

今年年初,法国称会将政府使用的算法进行公开。6月英国政府发布了《数据伦理框架》,要求在公共领域使用数据要满足透明性和可解释性。5月底实施的欧盟GDPR中的内容也在推进算法可解释性。

Rhema Vaithianathan建立算法来帮助标记少儿虐待的案例

科学家正面临一个复杂的问题,就是算法公平到底意味着什么?像Vaithianathan这样正在与公共组织协作去建立负责、高效的软件的研究人员,必须解决的难题就是自动化的工具如何引入偏见或扩展当前的不平等性,尤其是当这种工具被应用到本来就有歧视的社会系统时。

理论计算机科学家Suresh Venkatasubramanian称,自动化决策工具软件引发的问题其实并不是新问题。评定犯罪或信用风险的工具已经存在数十年了。但随着更大的数据集和更复杂的模型的广泛应用,就不能忽视其中存在的伦理问题。

二、对公平的权衡

2014年,当Allegheny人类服务部的官员提出使用自动化的工具时,他们并没有决定是否要使用这些工具。但他们想公开这样的新系统。该部门数据分析研究和评估办公室副主任Erin Dalton说,“他个人非常反对使用政府资金提出黑盒的解决方案”。

Allegheny Family Screening Tool (AFST)项目是2016年8月发起的。对每个打进热线的电话,呼叫中心职员会看到一个自动风险评定系统给出的分值,范围为1~20,分值越大代表风险越高。目前的情况是呼叫中心职员得出的结论并不必须与算法给出的风险分值一致,但政府部门希望这两个结果能够保持一致性。

预测犯罪改革

随着AFST项目的应用,Dalton希望有更多的人能帮助发现该系统是否存在偏见。2016年,她与卡内基梅隆大学的数据分析师Alexandra Chouldechova一起分析了该软件是否对特定群体存在歧视。Chouldechova也一直在研究算法本身可能存在的一些偏见。

今年5月,新闻网站ProPublica报道说佛罗里达州Broward县法官使用了一款可以帮助决定罪犯在审判前是否可以保释的商业软件COMPAS。记者通过分析发现该软件对黑人被告存在偏见,因为该软件对黑人的打分有很大比例是假阳性的,也就是说软件给出的风险值很高,但在之后被没有被控诉。COMPAS算法的开发者称该工具是没有偏见的,在预测评分较高的白人被告和黑人被告再犯罪的准确率是相当的。

三、如何定义公平(FAIR)

研究算法偏见的研究人员说有许多方法来定义公平,而其中一些方法是互相矛盾的。

假设刑事司法使用的系统可以给两组人(蓝色和紫色)评定再次被捕的风险。历史数据表明,紫色组被捕的概率略高,所以模型更容易会将紫色组的人分类为高风险。即使模型开发人员尽力去弥补这种偏见,但模型根据数据集的学习可能也会得出这样的关联。

高风险的状态不能完美预测被捕率,但算法开发者尝试让预测是公正的:对两组人来说,高风险对应2年内被捕的概率是2/3。未来被捕的概率可能不会遵循过去的模型。但举一个简单的例子,假设蓝色组中有3/10最终被捕,紫色组中有6/10最终被捕。

在蓝色组中,1/7的人被误认为是高风险的;紫色组中,1/2的人被误认为是高风险的。所以紫色组看起来更像是“假阳性的”——被误认为是高风险的。

因为蓝色和紫色组成员以不同的比例被再次逮捕,所以很难去得到一个预测的公平性,也无法让假阳性率相等。有人就会认为紫色组的假阳性率太高本身就是一种歧视。但也有研究人员认为这并不足以说明算法存在偏见。

事实上,有很多的方法来定义公平。那么从数学的角度讲,计算机科学家Arvind Narayanan在今年2月的会议上做了题为“21 fairness definitions and their politics”的演讲。一些研究人员也研究了ProPublica的案例,他们认为这确实不足以证明算法存在偏见;但确实映射出了一种统计假象。

有些人认为ProPublica强调许多机构缺乏资源和合适的算法评估工具。芝加哥大学数据科学和公共政策中心主任Rayid Ghani说,雇佣Northpointe的政府机关没有给他们一个好的定义,政府需要学习和训练如何向这些系统寻求帮助,如何定义度量的标准来确保供应商、咨询者和研究者给出的系统的公平的。

Allegheny县的经验说明了驾驭这些问题的难度。Chouldechova发现他们的公司也存在同样的统计不平衡性。该模型有一些不想要的特征,这种错误率在种族和民族方面的期望要高很多,但是原因尚不清楚。Allegheny县和Vaithianathan团队也在考虑使用其他的模型来降低这种不平衡性。

虽然统计不平衡性是一个问题,算法中的不公平可能会加强社会中的不公平现象。比如, COMPAS这样的算法可能会用来预测未来犯罪情况,但只能利用一些可度量的指标来进行预测,比如再次被捕。即使我们准确预测了一些事情,但我们准确预测的事情也可能是不公平的。

卡姆登(美国新泽西州)的检查用自动化工具来预测哪些区域需要巡逻。

图片来源:Timothy Clary/AFP/Getty

Allegheny使用的工具同样饱受诟病。作家、政治学者Virginia Eubanks说,不论算法是不是准确的,输入本身就是不公平的,因为黑人和两种人种(两种肤色结合)的家庭更容易被举报。而且,因为该模型使用的数据是Allegheny系统中的公共服务信息,因为使用这些服务的家庭总体来说比较穷,所以算法对这种家庭更多监管本身也是不公平的。Dalton承认数据本身是有限的,但她认为这样的工具还是很有必要的。

四、算法透明性和限制

芝加哥大学、剑桥大学、斯坦福等高校和科研机构都在进行这类算法的研究。地区检察官办公室分析师Maria McKee说,“我们知道什么是对的,什么是公平的,但是我们没有工具或研究成果来准确地解释。”

算法确实需要更多的透明性,当算法不审计、不评审、不进行公开讨论、形成闭环的时候就会产生一些问题。但算法如何公开也是一个问题,而且算法的透明性和隐私性也可能会存在冲突。泄漏太多算法工作原理的信息可能会让有些人去探测系统。

算法审计的一个障碍是机构不会收集预测工具使用的过程信息和性能信息。算法不透明的原因是因为没有可共享的信息。California立法机关起草了一个法案草案,呼吁风险评定工具帮助减少被告必须支付保释金的频率,因为人们认为这是一种惩罚低收入被告的方式。Goel希望该法案批准收集法官不同意工具产生的结果的情况。这样做的目的是在维护公共安全的同时尽量减少监禁的情况。因为需要一些正当程序(due process)基础设施来确保算法是可审计的。今年4月,AI Now Institute就列出了公共机构感兴趣的算法决策工具负责任的应用,还呼吁社区参与来给予市民申诉有关自己的决策的能力。

许多人也希望法律可以强制实现这样的目标。在美国,一些消费者保护规则在有不利于公民的决策产生时,会给公民一个详细的解释。在法国,关于解释的权利和争议处理的立法可以追溯到20世纪70年代。

最大范围的一次测试就是欧盟的GDPR,该法案于今年5月25日正式实施。其中的一些条款看似在推动算法可审计性,比如自动决策过程实例中的逻辑相关信息的权利等。但牛津互联网研究院数据伦理学家Brent Mittelstadt认为,GDPR也可能会阻碍算法可审计性。因为它为那些需要评估公平性的人创造了一个雷区。

测试算法是否存在偏见最好的办法就是让相关人员了解相关的属性。但GDPR对敏感信息使用的限制太严厉、罚金太高,以致评估算法的公司可能没有太多的动机去处理这些信息。所以说,这对我们评估公平性的能力来说可能是一种限制。

而且一些GDPR的规则只适用于全自动化的系统,这会将那些算法做出参考决策、人类做最终决定的情况排除在外。

五、算法审计

同时,研究人员正在向那些并未受到公共监管的领域中的算法歧视进行检测。企业可能并不愿意去讨论他们是如何解决公平性的,因为这首先承认了他们存在公平性的问题。即使存在这样的问题,企业的行为可能也只是去缓解而不是彻底消除歧视。最近,微软和Facebook都声明正在开发检测算法歧视的工具。

还有研究人员尝试从外部去找出商业算法中的歧视问题。比如,通过向求职网站投递简历来检测性别歧视问题。今年5月,Ghani发布了一个开源软件Aequitas,该软件可以帮助工程师、政策制定者、数据分析师等来审计机器学习模型中的歧视问题。

还有研究人员选择了不同的研究方向。比如,刑事司法应用和其他领域目前主要是构建算法模型来预测犯罪。还有一种更好的方式就是找出人们犯罪的影响因素,然后进行干预,达到降低犯罪率的目的。

Vaithianathan目前仍在继续推广她的虐童预测模型,同时她也意识到需要构建更好的算法。在复杂的系统中,算法不可能像直升机一样直上直下,必须要有理解全局的人来帮助实施。但无论如何都会遇到一些挑战,所以在没有直接答案和完美解决方案之前,算法透明应该是最好的策略。

“If you can't be right,

be honest.”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1776

    文章

    43907

    浏览量

    230647
  • 机器学习
    +关注

    关注

    66

    文章

    8134

    浏览量

    130581
  • 数据集
    +关注

    关注

    4

    文章

    1179

    浏览量

    24360

原文标题:Nature:机器学习的偏见

文章出处:【微信号:drc_iite,微信公众号:全球技术地图】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    人工智能的前世今生 引爆人工智能大时代

    ,对人工智能的乐观预测无处不在,达特茅斯会议上的一段话或许能表明当时计算机科学界的宏大愿景:“这项研究建立在一种猜想的基础之上,那就是学习的每一方面或智力的任何其他功能,原则上都可以准确地描述,并由
    发表于 03-03 11:05

    了解AI人工智能背后的科学?

    是了解最初部署人工智能的原理。 组织有大量的数据,通过关注快速建立成功和建立信任是关键。例如,让我们将电子邮件指标作为客户行为的可能预测因素。 您可以从机器学习开始回答以下问题:√根据
    发表于 09-25 10:03

    百度深度学习研究院科学家深度讲解人工智能

    `点击报名直播观看:http://t.elecfans.com/live/538.html专家简介:邓亚峰现任格灵深瞳信息技术有限公司首席技术官,毕业于清华大学,具有16年的计算机视觉和人工智能方向
    发表于 07-19 10:01

    前百度深度学习研究院科学家分享:机器视觉开发实战经验

    其实就是计算机科学的一个分支,将来也是会成为人类社会基础设施的一部分。现在我们邀请来百度深度学习研究院科学家,为大家分享人工智能视觉开发的经验。点击报名直播观看:http
    发表于 07-20 11:06

    人工智能机器学习的前世今生

    可以交替使用的概念,这或多或少地加重了与这些概念相关联的已经存在的混淆程度。让我们领会这些概念,直截了当地理解它们的内涵和之间的细微差别。人工智能是一个比机器学习更广泛的概念。它是关于
    发表于 08-27 10:16

    前百度科学家邓亚峰第二期直播福利,360G的人工智能资料等你来拿!

    直播PPT下载:人工智能学习资料:https://pan.baidu.com/s/1W99e8vdbF8xgX_0Y1uiEqw 密码:hnol直播主题:让机器“看见”—计算机视觉入门及实战 第二期
    发表于 08-31 14:24

    机器能超越真正的人类吗?人工智能未来发展如何?

    评为“全世界最有影响力的计算机科学家”。   尽管他在AI界极富盛名又桃李满天下,乔丹本人却对“人工智能”这个概念不太感冒。他反复强调“机器没有智能,我们甚至还不
    发表于 10-03 09:26

    人工智能:超越炒作

    ,英国神经科学家人工智能先驱大卫马尔说:人工智能的目标是识别和解决有用的信息处理问题,并给出如何解决它的抽象说明,这被称为一个方法。人工智能的一个小但具有决定性的细节是它处理的信息处
    发表于 05-29 10:46

    人工智能——MATLAB图像处理及机器学习

    视觉、通讯、计算金融学、控制设计、机器人学等等。 为了帮助大家更好的学习机器学习和图像处理,我们上线了《人工智能—MATLAB图像处理及机器
    发表于 07-01 15:05

    人工智能后续以什么形式发展?

    从2014年开始,人工智能逐渐成为科技领域最热门的概念,被科技界,企业界和媒体广泛关注。作为一个学术领域,人工智能是在1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用
    发表于 08-12 07:53

    python人工智能/机器学习基础是什么

    python人工智能——机器学习——机器学习基础
    发表于 04-28 14:46

    物联网人工智能是什么?

    智能的,但是并不真正拥有智能,也不会有自主意识。 二、人工智能应用领域人工智能已经渗透到人类生活的各个领域,游戏,媒体,金融,建材等行业,并
    发表于 09-09 14:12

    什么是人工智能机器学习、深度学习和自然语言处理?

    领域,包括机器学习、深度学习、数据挖掘、计算机视觉、自然语言处理和其他几个学科。首先人工智能涉及使计算机具有自我意识,利用计算机视觉、自然
    发表于 03-22 11:19

    机器学习人工智能有什么区别?

    机器学习人工智能有什么区别?当今唯一可用的软件选项是 ML 系统。在十年左右的时间里,当计算能力和算法开发达到可以显着影响结果的地步时,我们将见证第一个真正
    发表于 04-12 08:21

    人工智能领域科学家排名

    2017年,“人工智能”成为一个热门词汇。随着人工智能领域学术研究和技术应用的进步,人工智能正在与各行各业形成融合,推动各个行业和社会经济的发展。在人工智能时代,全球有哪些受人瞩目的
    发表于 04-08 20:21 1.6w次阅读
    <b class='flag-5'>人工智能</b>领域<b class='flag-5'>科学家</b>排名