0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

探究人工智能偏见的识别和管理

Dbwd_Imgtec 来源:NIST 作者:李朦朦/赛博研究院 2022-04-17 10:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

2022年3月16日,美国国家标准与技术研究院(NIST)发布了《迈向识别和管理人工智能偏见的标准》(以下简称《标准》),《标准》的目的是分析人工智能偏见这一具有挑战性的领域中有争议的问题,并为制定识别和管理人工智能偏见的详细社会技术指导提供路线图上的第一步。NIST表示,《标准》是支持可信赖和负责任的人工智能开发的一部分,为NIST正在开发的AI风险管理框架(AI RMF)提供了相关的指导。

《标准》重点提出三部分内容:

描述了人工智能中偏见的利害关系和挑战,并举例说明了偏见破坏公众信任的原因和方式;

识别人工智能中的三类偏见(即系统性,统计性和人类偏见),并描述它们对社会产生负面影响的方式;

描述了减轻人工智能偏见的三大挑战,包括数据集,测试和评估、验证和核实以及人为因素,并对解决这些问题给出建议。

如何理解人工智能偏见

人工智能风险管理旨在最大限度地减少人工智能的负面影响,包括对公民自由和权利的威胁等。而在谈论人工智能风险时,“偏见”是一个重要话题。虽然人工智能偏见并不总是负面的,如通过自动化系统决策为公众提供生活便利。然而,人工智能模型和系统中表现出的某些偏见也可能对个人、组织和社会造成永久化和放大的负面影响。

《标准》指出,偏见与社会透明度和公平性息息相关。对于大多数人来说,算法很少透明,因为非技术受众很难了解和理解公司用于设计、开发和部署的代码及用于决策的复杂人工智能网络。此外,很多人受到人工智能技术和系统的困扰,如未经本人的同意,在申请大学、租赁房屋甚至互联网搜索时,个人数据被人工智能技术和系统输入等。这些情形都导致个人对“失控”和“失去隐私”的恐惧,以及对人工智能的信任下降。

人工智能偏见的类别

《标准》中,人工智能分为系统性偏见、统计性偏见和人类偏见三大类别,具体来看:

系统性偏见

系统性偏见,也被称为机构或历史偏见,是由特定机构的程序和做法造成,导致某些社会群体处于有利地位或受到青睐,而其他社会群体则处于不利地位或受到贬低。它们普遍存在于人工智能使用的数据,人工智能生命周期的流程中以及文化和社会中的机构规范、实践和流程中。这不一定是有意识偏见或歧视,而是大多数人遵循现有规则或规范造成的。最为典型的是种族主义和性别歧视,在日常基础设施中未能考虑残疾人的无障碍环境等。

统计性偏见

统计性偏见来自于系统性错误而非随机性错误,在没有偏见、偏袒或歧视性意图的情况下也会发生。在人工智能系统中,这些偏见存在于开发人工智能应用的数据集和算法过程中,当算法在一种类型的数据上训练而不能超越这些数据进行推断时,偏见就会出现。

人类偏见

人类偏见是人类思维的基本部分,反映了人类思维中的系统性错误。此类偏见往往是隐性的,并与个人或群体通过自动化信息进行决策有关,广泛存在于整个人工智能生命周期的机构、团体和个人决策过程中,以及在人工智能应用部署后的使用过程中。

fe9ed3c8-bbd5-11ec-aa7f-dac502259ad0.png

人工智能偏见对社会的影响

由于人工智能技术与社会紧密联系,其相比传统技术对社会的影响更大。各个部门都普遍部署人工智能的应用程序用于决策支持,从而代替人类做出具有高度影响力的决策。但目前,对这些应用程序的负面影响和其他结果进行验证的方法并不精确,也不全面。

虽然机器学习(ML)系统能够对复杂的现象进行建模,但其是否能够按照人类的社会价值观进行学习和操作,仍值得关注。系统性偏见(如种族偏见),可以通过训练中使用的数据,机构政策以及基础实践(如何被委托、开发、部署和使用),在人工智能模型中比较常见。而统计性偏见、人类偏见普遍存在于工程和建模过程中,只有当正确验证模型性能的不确定性时,这些偏见才会显现。

可以发现,开发和运用人工智能的团队往往对技术的使用方式和人类的监督有不准确的预期,或应用结果不符合设计原意,也会导致人工智能偏见。这些偏见放大和强化了歧视,从而对个人和社会产生负面影响,并且其速度和规模远远超过了传统的歧视性做法(如种族歧视、性别歧视、年龄歧视或能力歧视)。

减轻人工智能偏见面临的挑战和建议

《标准》探索了克服人工智能偏见的措施和治理过程,描述了其过程中的三大挑战,包括数据集、测试和评估以及人为因素,并为解决这些问题提出建议。

1、数据集挑战

人工智能的设计和开发实践依赖于大规模的数据集来驱动ML过程。一方面,研究人员、开发人员和从业人员更关注数据集的可用性或可获得性,而不是最合适性。因此,这些过程中使用的数据可能不具有代表性。而这些数据却经常在训练ML应用中使用。另一方面,当对一个过程或现象的社会技术背景没有足够的了解或认识时,这些在ML应用程序中所使用的属性,也可能不适用于对不同社会群体或文化的分析。

建议:开发和部署人工智能系统需要注意的关键问题:是否存在适合或适用于人工智能系统所开发和部署的各种应用、工作和任务的数据集?不仅ML系统的预测行为是由数据决定的,数据也在很大程度上决定了机器学习任务本身。所以,解决数据集的适用性问题需要注意三个因素:

统计因素:解决人工智能偏见的一个主要趋势是关注建模过程中使用的数据集的平衡统计代表性。使用统计现象分析可检测数据集中的偏见,有时有助于克服人工智能偏见。

社会技术因素:在ML应用中,使用数据集必须进行调整,要全面考虑其所处环境的全部社会技术因素。

人类和数据集的相互作用因素:在建立人工智能应用基础模型时,数据集中存在的系统性偏见是由人工智能设计和开发团队关于使用哪些数据集的决定和假设所造成。

2、TEVV(测试和评估、验证和核实)挑战

TEVV(测试和评估、验证和核实)是减轻人工智能偏见所面临的另一个挑战。作为一种工程结构,TEVV旨在事后检测和修复问题,而并不等同于科学方法的全面应用。一方面,结构有效性在人工智能系统开发中尤为重要,另一方面,在许多人工智能项目中,结构化数据收集、最小化确认偏差的可靠实验设计技术等都在被淡化,这一变化也导致人工智能偏见的增长。

建议:为了减轻认知和不确定性带来的风险,模型开发人员应该与部署它们的组织密切合作。团队应努力确保定期更新模型,并在更新的代表性数据集上测试和重新校准模型参数以满足业务目标,同时保持在预期的性能目标和可接受的偏差水平内。

3、人为因素挑战

随着ML算法在准确性和精确性方面的发展,计算系统已经转变为由人类提供有限输入的自动决策。算法决策系统的发展和普及的同时,由于算法模型会产生和放大不公正结果,公众对人工智能的信任感也随之下降。嵌入在算法模型中的系统性偏见也将造成灾难性的伤害。在没有评估和管理这些风险的情况下,贸然部署人工智能模型和系统的组织不仅会伤害其用户,还会损害其声誉。

建议:制定算法影响评估,提供一个高层次的结构,使组织能够确定每个算法的风险。

组织多方利益相关者参与:让各种利益相关者参与进来,利用他们的各种经验来应对核心挑战,即在人工智能系统将部署的特定环境中识别有害结果和环境变化。

保证多元化、公平与包容:使能够反映各种背景、观点和专业知识的不同个人群体发挥作用,这也有助于拓宽人工智能系统设计师和工程师的视野。

改进实践:采用生命周期方法确定一些关键点,在这些关键点上,完善的指导、担保和治理流程可以帮助多利益相关者协作整合流程,减少偏见。

优化人类与人工智能配置:利用人和机器智能来创建机器学习模型——“人在回路”(人们参与到一个良性循环中,在这个循环中他们训练、调整和测试特定的算法)的方法,考虑到广泛的社会技术因素,可以优化人类与人工智能的配置。

提高制度和程序透明度:人工智能系统需要更多的解释和可以很好地被解释,可以使用数据表和模型卡等工具。

让人类成为人工智能设计的中心:以人为中心的设计(HCD)可开发可靠、安全和值得信赖的人工智能系统,有助于提高用户有效使用产品的能力。

人工智能偏见的治理

人工智能偏见的治理过程几乎影响到管理过程的各个方面,不仅要关注技术工件(如人工智能系统),还要关注组织流程和文化能力,这些都直接影响到参与培训、部署和监测此类系统的群体。

《标准》指出,对于人工智能偏见治理可从八方面着手:

监测:人工智能系统一旦部署,其性能可能与预期不同,导致不同群体受到不同的待遇。控制该风险的关键措施是部署额外的系统来监测潜在的偏见问题。

追诉渠道:系统终端用户可以通过反馈渠道标记出不正确或潜在危害结果,并对错误或危害进行追诉。

政策和程序:政策和程序可以实现统一的开发和测试实践,这有助于确保人工智能系统结果的可重复性,相关风险可以得到统一的映射、测量和管理。

文本标准化:明确的文件可以帮助系统地执行政策和程序,使组织的偏见管理过程在每个阶段的实施和记录标准化。文件还可以作为重要信息的单一储存库,不仅支持对人工智能系统和相关业务流程的内部监督,还可以加强系统维护,并作为纠正或调试处理活动的宝贵资源。

问责制:问责制需要对人工智能系统本身的作用进行明确评估,其任务应嵌入到参与培训和部署人工智能系统的各个团队中,不能由一个人承担。

文化与实践:为了使治理有效,人工智能需要嵌入到一个组织的整个文化中来强调信仰、规范和价值观。风险管理文化和实践可以作为一种强大的技术,从社会技术系统的角度出发来识别整个人工智能生命周期中的偏见。

风险缓解、风险分类和激励结构:有效的人工智能偏见治理重点在于明确承认减轻风险,而不是避免风险。这有助于确保偏见风险在实践中得到迅速减轻并被明确分类,从而使组织能够将有限的资源集中在最重要的偏见风险上。调整各团队的薪酬和晋升激励机制,从而使风险缓解机制的参与者真正被激励使用健全的开发方法,进行严格测试和彻底审计。

信息共享:共享网络威胁信息有助于组织改善自身和其他组织的安全态势。确定内部机制,让团队分享有关人工智能的偏见事件或有害影响信息,有助于提升对人工智能风险的重视,并为团队提供信息以避免过去失败的设计。

于Imagination IP的产品已在全球数十亿人的电话、汽车、家庭和工作场所中使用。获取更多物联网、智能穿戴、通信汽车电子、图形图像开发等前沿技术信息,欢迎关注 Imagination Tech!

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 互联网
    +关注

    关注

    55

    文章

    11321

    浏览量

    108855
  • 人工智能
    +关注

    关注

    1813

    文章

    49734

    浏览量

    261526

原文标题:人工智能也存在偏见?探究人工智能偏见的识别和管理

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI人工智能语音识别控制模块:自定义命令词,全维度落地应用场景

    AI人工智能语音识别控制模块是一种集成了语音识别、自然语言处理和智能控制功能的电子设备或系统。用户通过语音指令来操作、管理或控制其他设备、系
    的头像 发表于 12-03 16:34 405次阅读

    旷视入选2025北京人工智能治理案例集

    近日,在2025国际前瞻人工智能安全与治理大会上,由北京人工智能产业联盟编制的《人工智能治理案例集》正式发布。旷视自主研发的统一生物特征安全管理方案凭借其在生物特征
    的头像 发表于 11-11 17:56 1218次阅读

    利用超微型 Neuton ML 模型解锁 SoC 边缘人工智能

    我们所有的 SoC 都能用于边缘人工智能。例子包括: 预测性维护和楼宇自动化系统 在每个节点上进行本地数据分析的智能传感器网络 遥控器和可穿戴设备的动作和手势识别 用于智能健康可穿戴设
    发表于 08-31 20:54

    挖到宝了!人工智能综合实验箱,高校新工科的宝藏神器

    和生态体系带到使用者身边 ,让我们在技术学习和使用上不再受制于人。 三、多模态实验,解锁AI全流程 它嵌入了2D视觉、深度视觉、机械手臂、语音识别、嵌入式传感器等多种类AI模块,涵盖人工智能领域主要
    发表于 08-07 14:30

    挖到宝了!比邻星人工智能综合实验箱,高校新工科的宝藏神器!

    和生态体系带到使用者身边 ,让我们在技术学习和使用上不再受制于人。 三、多模态实验,解锁AI全流程 它嵌入了2D视觉、深度视觉、机械手臂、语音识别、嵌入式传感器等多种类AI模块,涵盖人工智能领域主要
    发表于 08-07 14:23

    迅为RK3588开发板Linux安卓麒麟瑞芯微国产工业AI人工智能

    迅为RK3588开发板Linux安卓麒麟瑞芯微国产工业AI人工智能
    发表于 07-14 11:23

    CES Asia 2025同期低空智能感知与空域管理技术论坛即将启幕

    安全、UTM/UAM管理系统发展与互操作性、人工智能在空域动态管理中的应用等前沿议题,将汇聚全球顶尖专家、企业代表,共同探索低空领域的未来发展方向。 低空通信导航监视技术作为低空飞行的关键支撑
    发表于 07-10 10:16

    CES Asia 2025聚焦低空智能感知与空域管理,论坛开启行业新征程

    、UTM/UAM管理系统发展与互操作性、人工智能在空域动态管理中的应用等关键议题,旨在汇聚全球智慧,为低空经济发展注入新动力。 低空通信导航监视技术是低空飞行的基石。随着5G、卫星通信等技术的飞速发展
    发表于 07-10 09:57

    最新人工智能硬件培训AI 基础入门学习课程参考2025版(大模型篇)

    人工智能大模型重塑教育与社会发展的当下,无论是探索未来职业方向,还是更新技术储备,掌握大模型知识都已成为新时代的必修课。从职场上辅助工作的智能助手,到课堂用于学术研究的智能工具,大模型正在工作生活
    发表于 07-04 11:10

    支持实时物体识别的视觉人工智能微处理器RZ/V2MA数据手册

    。此外,利用了 DRP技术高灵活性特点的 OpenCV 加速器,除了可进行人工智能推理的图像预处理之外,还能在单芯片上实现人工智能范畴之外的高速图像处理。 *附件:支持实时物体识别的视觉人工智
    的头像 发表于 03-18 18:12 742次阅读
    支持实时物体<b class='flag-5'>识别</b>的视觉<b class='flag-5'>人工智能</b>微处理器RZ/V2MA数据手册

    人工智能视觉识别技术的应用领域及场景

    人工智能视觉识别技术的应用领域及场景
    的头像 发表于 03-14 11:41 2280次阅读

    人工智能对智慧园区的提升和帮助

    随着人工智能(AI)技术的快速发展,其在智慧园区中的应用正逐步改变传统园区的管理模式和服务方式。 智慧园区 通过整合物联网、大数据、云计算等技术,实现了资源的高效配置和管理智能化。而
    的头像 发表于 03-13 14:39 741次阅读

    曙光SothisAI人工智能管理平台接入DeepSeek

    近日,曙光SothisAI人工智能管理平台发布全新3.0版本,新版本在原功能基础上优化了整体性能及使用体验,并实现了DeepSeek全线接入,不仅提供对话服务、知识库及RAG管理智能
    的头像 发表于 02-18 09:22 1016次阅读

    探究人工智能发展前沿:智能体的演进及其社会影响

    了在推进这些技术时必须考虑的伦理问题(如透明度和问责制)以及建立有效管理框架和跨部门合作的重要性,为寻求深入了解人工智能体带来的机遇与挑战的读者提供了宝贵的信息。 该报告首先定义了人工智能体的概念,然后概述了不同类
    的头像 发表于 02-10 09:44 1335次阅读
    <b class='flag-5'>探究</b><b class='flag-5'>人工智能</b>发展前沿:<b class='flag-5'>智能</b>体的演进及其社会影响

    人脸识别技术与人工智能的关系

    人工智能(AI)的众多应用中,人脸识别技术无疑是最引人注目的技术之一。它不仅在安全监控、身份验证、社交媒体等领域发挥着重要作用,而且在法律执行、边境控制等关键领域也扮演着不可或缺的角色。 一
    的头像 发表于 02-06 17:32 1788次阅读