0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

科技巨头们现在是怎么讨论AI伦理的?

hl5C_deeptechch 来源:DeepTech深科技 作者:DeepTech深科技 2021-04-26 09:28 次阅读

对于人工智能(以下简称 AI),研究人员经常说,一流的机器学习实际上更像一门艺术而不是科学。有效的公共关系也是如此,选择合适的词语来传达积极的语调或重塑有关 AI 的话题是一项需要技巧的任务:做得好,就可以加强一个人的品牌形象,但做不好,可能会引起更强烈的反对和抵制。

科技巨头们对这一点肯定是心知肚明。过去几年里,他们不得不快速学会这门艺术,因为公众对他们的行为越来越不信任,他们的 AI 研究和技术也面临越来越多的批评。

现在,他们想向公众证明他们十分关注 AI 开发方式的合理性,但又想确保这样不会招来过多的审查,因此开发了一种新词汇。以下是一则解读他们的语言、挑战他们的假设和价值观的内部指南。

Accountability(责任,名词)—— 即你的 AI 系统失败时,让其他人为其后果负责的行为。

Accuracy(准确性,名词)—— 技术正确性。这是评估 AI 模型性能时最重要的成功衡量标准,参见 validation。

Adversary(对手,名词)—— 即一个能破坏你强大的盈利 AI 系统的独立工程师,参见 robustness 和 security。

Alignment(结盟,名词)—— 即设计 AI 系统的挑战,该系统需执行我们的命令,重视我们所重视的一切,故意转移注意力。避免使用造成不良意外后果的真实例子,参见 safety。

Artificial general intelligence(人工一般智能,短语)—— 假设的 AI 上帝,可能会在遥远的未来出现,但也可能马上就会到来。可好可坏,只要说得通即可,但你明显在打造一个好的 AI 上帝。这代价不菲,因此,你需要更多的资金,参见 long-term risks。

Audit(审计,名词)—— 你花钱请别人对你的公司或 AI 系统进行审查,这样你无需做任何改变就可以显得更透明,参见 impact assessment。

Augment(增加,动词)—— 即提高白领工人的生产力。副作用:自动化让蓝领无工可做,虽令人难过但不可避免。

Beneficial(有益的,形容词)—— 即对你要构建的体系的笼统描述,定义不明更好,参见 value。

By design(精心设计,词组)—— 如 “精心设计而来的公平” 或 “精心设计而来的责任”,这个词组表明你从一开始就在认真思考重要的事情。

Compliance(服从,名词)—— 即行为遵守法律,凡是不违法的都可以。

Data Labelers(数据标签者,词组)—— 据说这些人藏身于亚马逊的 “土耳其机器人接口背后,以低廉的价格做数据清理工作,不确定他们是谁,从未见过他们。

Democratize(民主化,动词)—— 即不惜一切代价扩展技术,也是集中资源的理由,参见 scale。

Diversity、equity、and inclusion(多样性、公平和包容,词组)—— 即雇佣边缘群体的工程师和研究人员的行为,这样你就可以把他们公之于众,如果他们挑战现状,就可以解雇他们。

Efficiency(效率,名词)—— 即使用较少的数据、内存、人员或精力来建立一个 AI 系统。

Ethics board (道德委员会,词组)—— 即一个没有实权的顾问小组,召集起来让你的公司表现出乐于倾听的样子。如谷歌的 AI 道德委员会(已取消),Facebook 的监督委员会(仍存在)。

Ethics principles(伦理原则,词组)—— 用来表明你动机良好的老生常谈。保持高水平,语言越模糊越好,参见 responsible AI。

Explainable(可解释的,形容词)—— 描述一个你、开发者和用户都能理解的 AI 系统,但对用户来说就很难实现这一点,可能不值得这么做,参见 interpretable。

Fairness (公平,名词)—— 一个用来描述公平算法的复杂概念,可根据你的偏好以几十种方式下定义。

For good (永久地,词组) —— 如 “永久的 AI” 或 “一劳永逸的数据”。一个与你的核心业务完全无关的倡议可以帮你起到良好的宣传效果。

Foresight (远见,名词)—— 即展望未来的能力。这基本上是不可能的,因此,你的 AI 系统为何无法摆脱意外后果也就有了非常合理的解释。

Framework (框架,名词) –即一套指导决策的方针。这是一个让你在实际过程中拖延决策时显得深思熟虑和慎重的好办法。

Generalizable (可推广的,形容词)—— 一个好 AI 模型的标志,即尽管条件不断变化仍能继续工作的 AI 模型,参见 real world。

Governance (管理方式,名词) —— 即官僚体系。

Human-centered design (以人为本的设计,词组)—— 这个过程包括代入 “角色” 来想象一个普通用户可能想从你的 AI 系统中得到什么,只要有时间的话,可能需要征求实际用户的反馈,参见 stakeholders。

Human in the loop (人机回圈,词组) —— 人人都是 AI 系统的一份子。责任范围很广,从伪造系统的能力到规避对自动化的指责。

Impact assessment(影响评估,词组)—— 你自己对你的公司或 AI 系统进行的评估,来表明你愿意在不做改变的情况下看到其缺点,参见 audit。

Interpretable (可说明的,形容词)—— 对一个 AI 系统的描述,作为开发者的你可以一步步遵循其计算过程来理解该系统是如何得出答案的。实际上可能只是线性回归。AI 听起来更好。

Integrity(诚信,名词)—— 即破坏你模型的技术性能或你公司扩张能力的因素。不要将之与对社会有害的问题弄混淆,也不要把 honesty(诚实)与之混淆。

Interdisciplinary(跨学科的,形容词)—— 凡是有不懂编码的人员的团队或项目就会用这个术语,这些人员包括用户研究者、产品经理、道德哲学家,尤其是道德哲学家。

Long-term risks(长期风险,名词)—— 在遥远的未来可能带来灾难性后果的坏事情,这也可能永远不会发生,但研究和避免长期风险比避免现有 AI 系统带来的直接危害更重要。

Partners(伙伴,名词)—— 其他精英团体,他们与你有相同的世界观,并能与你一起维持现状,参见 stakeholders。

Privacy trade-off(隐私取舍,词组)—— 牺牲个人对个人信息的控制来实现群体利益,比如 AI 驱动的医疗保健进步,这也是非常有利的。

Progress (进步,名词) —— 科学和技术进步。一种固有优势。

Real world(真实世界,词组)—— 与模拟世界相反,即一个充满意外惊喜的动态物理环境,AI 模型经过训练可在该环境生存。不要将之与人类社会混淆。

Regulation(监管,名词)—— 你呼吁把减轻有害 AI 的责任转嫁给政策制定者。不要将之与阻碍你发展的政策混淆。

Responsible AI(负责任的人工智能,名词)—— 即公司内凡是公众认为确实在努力减轻 AI 系统危害的工作。

Robustness(稳健性,名词)——AI 模型在恶意输入破坏数据的情况下仍能连贯无误工作的能力。

safety(安全性,名词)—— 即挑战构建不违背设计者意图的 AI 系统。不要将之与构建不会失败的 AI 系统混淆,参见 alignment。

Scale(规模,名词)—— 即任何好 AI 系统事实上都应该努力实现的最终状态。

Security(保障,名词)—— 即保护有价值或敏感数据和 AI 模型不被坏人破坏的行为,参见 adversary。

Stakeholders(利益相关者,名词)—— 即股东、监管机构、用户。你想让掌权的人满意。

Transparency(透明度,名词)—— 即显示你的数据和代码。这对所有人和敏感信息不利。因此做到这一点非常困难,坦白来说,可以说是不可能。不要将之理解为阐明你系统的实际工作原理

Trustworthy(可信赖的,形容词)—— 对一个在足够协调的宣传下制造出来的 AI 系统的评价。

Universal basic income(普遍基本收入,词组)—— 向每个人支付固定工资的想法可以平息自动化导致大规模失业带来的大规模经济动荡,受到了 2020 年的总统候选人杨安泽的推广,参见 wealth redistribution。

Validation(验证,名词)—— 对 AI 模型进行数据测试来检查模型是否仍准确的过程,而不是对它接入的数据进行测试。

Value(价值,名词)—— 给你的用户带来的无形利益,这让你赚得盆满钵满。

Value(价值观,名词)—— 提醒人们你有价值观。

Wealth redistribution(财富再分配,词组)—— 当人们因为你使用了太多资源和赚了太多钱审查你时,这个想法很有用。财富再分配如何运作呢?当然是靠普遍基本收入。这需要监管,也不是你自己能搞清楚的,参见 regulation。

Withhold publication(拒绝公开,词组)—— 选择不开放源代码的慈善行为,因为这可能会落入坏人的手中。最好是限制买得起源代码的合作伙伴的使用权。

原文标题:谷歌、Facebook等科技巨头是如何讨论AI伦理的?

文章出处:【微信公众号:DeepTech深科技】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5852

    浏览量

    103248
  • AI
    AI
    +关注

    关注

    87

    文章

    26424

    浏览量

    264034

原文标题:谷歌、Facebook等科技巨头是如何讨论AI伦理的?

文章出处:【微信号:deeptechchina,微信公众号:deeptechchina】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FPGA的高阶应用与发展方向讨论

    FPGA可编程器件做高阶应用如图像处理、语音识别等需要具备哪些能力,需要怎样更有效从入门到精通 ? FPGA与当下的AI发展结合的怎样?大家可以交流讨论
    发表于 03-30 18:09

    世界荣耀,做AI时代的海

    齐聚全球5大AI巨头,荣耀要做AI时代的海
    的头像 发表于 02-28 18:23 913次阅读
    世界荣耀,做<b class='flag-5'>AI</b>时代的海

    全球云服务支出增长19%,云巨头加大生成式AI投入 

    各大云计算巨头正积极加大对生成式AI的投资,借力推动云消费向纵深发展。据Canalys预测,2024年全球云基础设施服务支出增长率将达20%,相较之下,去年该增长率仅为18%。
    的头像 发表于 02-27 10:29 201次阅读

    AI手机出货量3年后占比将过半!智能手机巨头OPPO选择重金投入

    在星纪魅族选择All in AI后,另一智能手机巨头OPPO也选择重金投入。
    的头像 发表于 02-23 09:56 209次阅读

    全球科技巨头联手遵循人工智能伦理建议

    教科文组织总干事阿祖莱对此表示赞赏,他指出,随着《人工智能伦理问题建议书》于2021年11月获批,实现全球科技界的类似公开承诺成为了一项当务之急。
    的头像 发表于 02-18 16:29 306次阅读

    微软与美国劳工联合会和产业工会联合会建立新的合作伙伴关系 讨论AI

    微软与美国劳工联合会和产业工会联合会建立新的合作伙伴关系 讨论AI AI可能取代工作岗位的担忧正日益加深的大背景下。科技巨头微软联手劳工组织探索AI
    的头像 发表于 12-12 14:12 583次阅读

    关于垂直起降机场的讨论问题

    随之而来的似乎是不可避免的拥堵和成本。沃勒斯坦声称,道路现在是世界上最大的基础设施投资,全球支出约1.5万亿美元。这并不是给交通拥堵的城市居民和郊区通勤者带来多少快乐。
    发表于 10-08 10:12 446次阅读

    面部表情识别的伦理问题与应对策略

    面部表情识别技术作为一项涉及隐私和伦理的技术,需要我们在应用过程中关注并解决相关的伦理问题。本文将探讨面部表情识别的伦理问题及其应对策略,以促进该技术的合理应用和发展。 首先,面部表情识别的隐私
    的头像 发表于 08-21 18:07 374次阅读

    英伟达与云巨头必有一战

    众所周知,谷歌、亚马逊、微软先后在内部启动自研AI芯片项目——谷歌的TPU系列,亚马逊的Inferentia和Trainium系列,以及微软今年被曝光的Athena芯片。三大云巨头都有充分的资源与动力自研AI芯片,来削减英伟达的
    的头像 发表于 08-21 15:00 449次阅读
    英伟达与云<b class='flag-5'>巨头</b>必有一战

    烧录的时候芯片超时怎么解决?

    烧录现在是这个样子的 芯片连接的是nu_link_me M0的 大神怎么解决?
    发表于 08-21 08:18

    面部表情识别技术的伦理问题与应对策略

    面部表情识别技术作为一项涉及隐私和伦理的技术,需要我们在应用过程中关注并解决相关的伦理问题。本文将探讨面部表情识别技术的伦理问题及其应对策略,以促进该技术的合理应用和发展。 首先,面部表情识别的隐私
    的头像 发表于 08-14 17:41 337次阅读

    存储芯片巨头,开启AI算力争霸赛

    巨头排队疯抢、价格一路暴涨,HBM乘上生成式AI快车。
    的头像 发表于 08-08 11:16 795次阅读
    存储芯片<b class='flag-5'>巨头</b>,开启<b class='flag-5'>AI</b>算力争霸赛

    面部表情识别的伦理问题

    面部表情识别是一项涉及隐私和伦理的技术,其在应用过程中可能会引发一系列伦理问题。本文将探讨面部表情识别的伦理问题,包括隐私保护、种族和性别偏见、情绪识别准确率等方面。 首先,面部表情识别的隐私保护
    的头像 发表于 08-04 18:20 594次阅读

    河套IT TALK 87:(原创)谈机器智能与人类伦理的较量:电车难题探析

    最近不管是自动驾驶还是对话式AI中,智愿君都看到了人们在热烈讨论电车难题。电车难题从最初的针对人的道德哲学思考,变成了机器人伦理学的关键话题。这里面有什么有趣的故事吗?让我们先从电车难题的起源说起
    的头像 发表于 05-29 23:55 807次阅读
    河套IT TALK 87:(原创)谈机器智能与人类<b class='flag-5'>伦理</b>的较量:电车难题探析

    AI 开发不必&quot;因噎废食&quot;,但必须以伦理为先

    本文作者:Christina Montgomery,IBM首席隐私诚信官;Francesca Rossi,IBM研究院AI伦理全球负责人 北京2023年5月9日 /美通社/ -- 随着生成式 AI
    的头像 发表于 05-09 15:54 285次阅读