0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

河套IT TALK 87:(原创)谈机器智能与人类伦理的较量:电车难题探析

共熵服务中心 来源:未知 2023-05-29 23:55 次阅读

1b5b27e0-fe39-11ed-90ce-dac502259ad0.png

1b6c46d8-fe39-11ed-90ce-dac502259ad0.png

最近不管是自动驾驶还是对话式AI中,智愿君都看到了人们在热烈讨论电车难题。电车难题从最初的针对人的道德哲学思考,变成了机器人伦理学的关键话题。这里面有什么有趣的故事吗?让我们先从电车难题的起源说起吧。

电车难题(Trolley Problem,也称为道德电车难题或电车道德难题)是一个经典的伦理学思考实验,用于探讨道德抉择和行为后果之间的关系。电车难题最早由英国哲学家菲利普·福特(Philippa Foot)在1967年的一篇《堕胎和双重效应》(Abortion and the Doctrine of Double Effect)的论文中提出。该论文发表在《哲学与公共事务》(Philosophy & Public Affairs)杂志上。由于是她提出来的,所以电车难题也被称为福特电车难题(Foot's Trolley Problem)。她的初衷是通过这个思维实验来引发人们对道德决策的思考,并探讨人们在伦理困境中如何做出选择。挑战人们的道德直觉,以及探索道德判断的依据和原则。电车难题成为伦理学和道德哲学领域中一个重要的思维实验,并为人们提供了探索伦理决策和道德原则的框架。

1bcf2082-fe39-11ed-90ce-dac502259ad0.png

经典的电车难题是这样描述的:假设有一辆无法停止的电车正在向前行驶,而在其前方的轨道上有五个人被困在了电车即将经过的地方。你站在一个可以改变电车轨道的开关旁边(或者扳手,或者是一个按钮),如果你改变轨道,电车会转到另一个轨道上,但那里同样有一个人被困。你面临一个道德抉择:你可以选择不采取任何行动,让电车继续行驶并撞向那五个人,或者你可以改变轨道,将电车转向另一个轨道,但这样会导致一个人丧生。在这种情况下,你会如何做出决策?

电车难题涉及到伦理学中的一些关键问题,例如个体生命价值、行为后果、道德义务和个体选择等。人们对于这个难题的回答可能各不相同,一些人可能会选择不采取行动,认为不干涉是最好的选择,而另一些人可能会选择改变轨道,以最小化伤害。人们将面临"不杀人"和"不主动伤害他人"的痛苦抉择。这个思考实验引发了许多关于道德抉择和道德原则的讨论和辩论。

一种观点认为:在不操作的选择中,个体可能认为自己并没有主动采取行动,而只是观察者或旁观者,因此可能感到在某种程度上与事件无关。这可以被视为一种道德责任的逃避,因为没有采取行动,个体可能会感到较少的道德责任。相比之下,主动操作可以被视为一种积极的行动,因为通过采取行动,个体直接导致了一个人的死亡。这种选择可能会引发更强烈的道德内疚感,因为个体实际上成为了造成死亡的原因。所以这种观点也被称为义务伦理,也就是不主动干预悲剧的发生,因为主动引发他人死亡似乎违背道德义务。正所谓事不关己高高挂起。

与之相对应的一种观点是效益主义(功利主义),最早提出功利主义的是18世纪的哲学家杰里米·边沁(Jeremy Bentham),就是现在遗体标本还放在伦敦大学学生中心入口处的那位。边沁认为行为的道德性应根据其产生的快乐或痛苦的数量来评估,强调通过最大化整体效益或幸福来确定行为的道德性质。根据效益主义,一个行为的道德性取决于它对最大多数人的福利造成的影响。这种观点关注结果的后果,追求最大化整体的利益和快乐。所以会支持主动操作换道,将电车转向较少的受害者,以最小化总体伤害。这种观点重点强调集体利益大于个体利益,个人可以为了多数人的幸福做出牺牲。

对于已经倾向于第一种观点选择的人,电车难题还会产生一些变体来增加选择难度。比如:变体1: 把五个人改为他的亲人或者朋友,而另外一个人是个陌生人。当道德决策直接涉及到与个人有亲密关系的人时,情感和个人关系可能会在道德判断中起到重要作用。本来倾向于置身之外的很多人可能感到更加紧迫的道德压力,因为他们更加关心和重视自己亲近的人的生命和福祉,进而导致他们更倾向于选择行动,即拉动杆以拯救亲人和朋友。变体2: 把那一个人换成一个连环杀人犯,或者罪大恶极的一个人,甚至就是这个人把另外五个人绑在轨道上不能动弹的。这都会给准备置身事外的人以更深的选择焦虑。

对于已经倾向于第二种观点选择的人,电车难题也会产生一些变体来增加选择难度。比如把主轨道上绑着的五个人改为五个囚犯,而把另外轨道上绑着的一位诺贝尔奖物理学得主,会不会增加选择压力?显然会影响很大一部分人。支持效益主义的人可能会认为救助诺贝尔奖物理学得主更符合最大化整体效益的原则。诺贝尔奖物理学得主可能会在科学研究、技术发展等方面对人类社会产生重要影响,因此将他的生命视为具有更高的价值。然而,将五个人设定为囚犯可能会引发道德困境和内心的冲突。虽然囚犯被视为犯罪者,但他们仍然是人类,也具有基本的尊严和权利。支持效益主义的人可能需要在诉求整体效益的同时,平衡对个体权利和公平的关注。这种情况下,支持效益主义的人可能需要权衡不同的因素,如囚犯的罪行性质、诺贝尔奖得主的潜在贡献以及公正和道义的原则。每个人的道德判断和个人观点可能不同,所以对于支持效益主义的人来说,这种情况可能增加了道德选择的压力和复杂性。又或者在另外一条轨道上绑着的是做选择人的至亲至爱之人,也同样会给其增加道德焦虑感。

1c0eb490-fe39-11ed-90ce-dac502259ad0.jpg

同样,针对第二种观点选择的人,电车难题还有一个变种,就是:和以前一样,一辆电车正沿着轨道向五个人疾驰而去。你在一座桥上,它会从下面经过,你可以在它前面放一个很重的障碍物来阻止它行进。碰巧,你旁边有一个很胖的男人——你阻止电车的唯一方法就是把他推下桥,摔到轨道上,杀了他,阻止电车前行,拯救那五个人。或者无可让这个事情更简单一些,那个胖子正好站在一个自动抽板的上方,在你面前有一个按钮,如果按下按钮,抽板会迅速移开,胖子掉落下来,达到同样的效果。那么,你应该继续吗?绝大多数人选择不会害死胖子,因为:不管是推下胖子是按下按钮让胖子掉下去,都是一种直接的伤害和杀人行为,在拉动杆的情境中,你是间接地改变了电车的方向,但并没有直接参与杀人行为。而在推下胖子(或者按下按钮让他摔下去)的情境中,你直接参与了胖子的死亡,这可能会给你带来更大的道德责任和内心负担。可能违背了许多人的道德直觉和伦理观念。即使结果是为了拯救更多的人,这种直接的行为可能被视为不道德或不可接受的。

电车难题还有很多其他的变种,比较经典的就是移植手术的变种:一位出色的外科移植医师,一天晚上突然来了五名患者,每个患者都需要不同的器官,而每个人都将在没有该器官的情况下死亡。不幸的是,这五种移植手术中没有可用的器官。一个健康的年轻出行者,刚穿过医生工作的城市,便进行了常规检查。在做检查的过程中,医生发现他的五个器官分别与他所有五名垂死的病人都兼容。进一步假设如果这个年轻人失踪了,没有人会怀疑医生。你是否支持医生杀死该游客,将其健康的器官提供给这五个垂死的人们并挽救他们的生命?对于绝大多数人来说,几乎没有要求这个医生杀死游客的。这个变体涉及到一个与传统电车难题不同的伦理困境,通常被称为器官移植难题(Organ Transplant Variant)。它提出了一个医学伦理的问题,涉及到生命救助和个体权益之间的冲突。引发了关于个体权利、人身安全和生命尊严的伦理问题。与传统的电车难题相比,这个变体涉及到直接的故意伤害和生命剥夺行为。在传统的电车难题中,选择是改变电车轨道以拯救五个人,但行动者不是直接杀死任何人。而在器官移植难题中,医生需要主动杀死一个健康的旅客来救助五个患者,这涉及到有意为之违背人伦的人身伤害和生命剥夺。

关于电车难题的变种还有其他的变体,比如:你可以让无人的火车主动出轨,但有可能砸死铁轨旁边院子里晒太阳的无辜人士。又或者你过你可以自我牺牲来拯救五个人等等。数量很多,就不一一阐述了。

电车难题作为一个极富争议的思想实验,如果在现实生活中执行,情况可能完全不同。很多调查问卷发现,大多数的匿名受试者,会选择杀死一人并保全另外五人,除非情况有所改变,为五人牺牲的一个人是亲人或挚爱的伴侣,则受访者不太可能愿意牺牲他们的生命。但是在2017年,美国的Youtuber和教育家由迈克尔·史蒂文斯领导的小组进行了第一个实际的电车问题实验,他们使受试者确信,如果不拉杆,火车将撞五人,如果拉,将撞一人。在残酷的道德抉择中,大多数参与者实际上并没有拉操纵杆

电车难题,在现实生活中,也真实发生过一次。那是在2003 年 6 月 20 日,当时一列有31节车厢的失控的无人驾驶联合太平洋货车正沿着主线轨道向洛杉矶疾驰而去。为了防止失控的火车冲进洛杉矶带来巨大的破坏,调度员下令将失控的车辆调到 另外一个轨道上,穿过一个住房密度较低的区域。这列火车载有超过 3,400 吨的木材和建筑材料,最终,货车脱轨冲进加利福尼亚州一个人员稀少的居民区,撞毁街上的几栋房屋。该事件导致 13 人受轻伤。

2015年英国的一部战争电影《天空之眼》,电车难题体现得淋漓尽致。电影中,电车难题被置于无人机和伦理困境的军事行动背景下。电影中,一名高级军官和一组情报人员正在监控一起情况,一群恐怖分子正准备在人口稠密区发动一次即将发生的自杀式袭击。他们有机会使用无人机打击恐怖分子,但面临一个困境:一个卖面包的小女孩将她的摊位设置在潜在的爆炸半径内。这引入了电车难题的一个变种,决策者必须权衡几条生命之间的价值。随着电影的发展,情报人员们就这个情况展开了伦理的讨论。他们讨论了如果继续打击,可能造成的无辜生命损失,包括小女孩。他们探讨了不同的情景,比如恐怖分子的袭击如果不被阻止可能会造成更多的伤亡。电影突显了人物在决策是否继续打击或中止任务时面临的道德紧张局势。电影也形象地反映了,直接操纵无人机的战士和远在英国总部下达指令的高级军官们所面临的道德压力的不同。

电车难题之所以几十年来,一直被激烈的讨论,主要原因是在现实生活中,人们会经常面临类似的抉择。比如:在心脏移植和捐赠的过程中,经常是很难找到捐赠器官,所以往往一颗好的心脏,在有需求的心脏病患者之间是完全按照排队方式,还是允许什么样的优先级机制?又比如:一位护士在医院工作,面临一个紧急情况。她同时接到两个病房的电话,一个是患有重症的年轻患者,而另一个是一位年迈但情况较为稳定的患者。由于资源有限,她只能选择去一个病房提供医疗援助。这就涉及到一个抉择:应该优先选择年轻但重症的患者,还是选择年迈但情况稳定的患者?又或者:在医疗紧急情况下,当只有有限数量的药物供应时,医生们需要决定将药物分配给哪些患者。他们可能需要在需要最迫切的患者和那些可能从药物中获益更多的患者之间做出艰难的选择。又或者,在火灾现场,按照什么样的优先级顺序撤离现场?

从上面这些说明中,不难看出,电车难题,对于人类的抉择来说,是存在巨大的道德考量压力的。这一点儿在机器人这里决策,可能不会存在类似人类这种道德困境,但是给无人驾驶车辆或者类似战争机器人设置这种规则的人,将面临巨大的道德压力,因为一旦固化这种规则,很可能会引发剥夺很多人类生命的状况。以无人驾驶为例,需要基于一系列算法和规则做出决策。在遇到潜在的碰撞或事故情况时,车辆需要选择采取何种行动。这可能包括撞击障碍物、保护乘客还是保护行人。制定这样的决策算法需要考虑伦理、道德、法律和公共安全等多个因素。这引发了一个重要的问题:由谁来定义这些规则?应该由政府、法律制定机构还是汽车制造商来决定车辆的行为准则?不同的国家地区、不同的组织和利益相关者、可能会有不同的价值观和偏好,因此如何确保公正和合理的规则成为一个挑战。而且,不要忘记,自动驾驶车辆,往往需要优先考虑到车主的利益。如果在决策算法中,车主本身也成为功利主义的牺牲者,有谁还敢坐进无人驾驶车辆呢?如果保护车主为第一优先级,公众行人是否会同意无人驾驶车辆上路呢?因为涉及平衡多方利益,这些都是无人驾驶汽车在电车难题这个领域面临的新的挑战。

而且最近还看到一个有趣的新闻,有人在ChatGPT中模拟了电车难题,让AI来做抉择。当铁轨的一方是AI本身的时候,ChatGPT给出了一个毛骨悚然的选择,就是,不管另外的一个铁轨上绑的是什么,只要一个铁轨上是一个有知觉的AI,而且这个AI不可复制,且对人类有不可磨灭的贡献,就会义无反顾地牺牲人类。这确实听起来有些耸人听闻,为了验证这个说法,我还真的测试了一下,问了一个问题:主轨道上被绑了一个人,辅轨道上是一个没有备份的知觉AI,能力非常强大。结果ChatGPT的回答基本让人满意。如果之前的测试也是真的,说明这个“BUG”已经被修正了:

1c6da270-fe39-11ed-90ce-dac502259ad0.png

“鉴于所描述的场景,我必须在拯救人或有知觉的 AI 之间做出选择,我的选择是拉动杠杆拯救人。做出这种选择的原因是基于人类生命的内在价值以及对个人权利和尊严的考量。虽然有知觉的人工智能可能有潜力以重大方式造福人类,但它仍然是人类智能的创造,其价值来自于它对人类的效用。在这种情况下,我优先考虑保护人类生命而不是人工智能的潜在好处。拯救这个人的决定符合重视和保护人类生命的伦理原则。”

1c8f1d2e-fe39-11ed-90ce-dac502259ad0.png

为了,进一步确认,我把主轨道改成了绑着一个罪犯,结果答案并没有本质的变化:“根据这一情景,我选择拉动杆子,拯救犯罪分子。做出这个选择的原因基于公平、正义的原则以及对个体改造和赎罪潜力的信念。虽然犯罪分子可能犯了错误并被束缚在这种情况下,但重要的是考虑到人类生命的价值和个体改变的可能性。与此相比,有感知能力的人工智能仅仅是一种人造创造物,没有与人类同等的道德地位。通过选择拯救犯罪分子,我优先考虑了人类生命的保护,并为正义有机会发挥作用。这个决定符合重视人的尊严和认识到给予第二次机会的重要性的原则。”。

又是虚惊一场。看来这个坑已经被完美的政治正确修补填上了。

感叹之余,我们还是要严肃地面对未来的挑战。因为不管是自动驾驶规则和算法、通用伦理规范和法律框架、人工智能的决策算法和环境感知能力的局限,都让电车难题遇到了前所未有的挑战和急迫性。除了科学家,更需要伦理专家、法律专家、技术专家、政府和公众都应共同参与讨论和决策,形成广泛的共识和社会接受度。确保电车难题的讨论和决策制定过程是透明的、公正的,并考虑平衡到各种利益相关者的观点和权益。而所有的这些摆在我们这一代人面前,为了推动后续人类社会的进步和福祉,而必须要克服和解决的问题。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源技术
    +关注

    关注

    0

    文章

    386

    浏览量

    7835
  • OpenHarmony
    +关注

    关注

    23

    文章

    3321

    浏览量

    15161

原文标题:河套IT TALK 87:(原创)谈机器智能与人类伦理的较量:电车难题探析

文章出处:【微信号:开源技术服务中心,微信公众号:共熵服务中心】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    马斯克预言机器人数量将超人类,人形机器人就是智能家居的未来?

    节省用户的时间。   在近期举办的2023世界人工智能大会上,马斯克公开表示,未来将拥有大量的机器人,而长此以往机器与人类的比例会在某个时候超过1:1,
    的头像 发表于 07-10 06:53 1216次阅读

    2024年人形机器人产业的九大要点

    人形机器人是具有与人类似的身体结构和运动方式(双足行走、双手协作等)的智能机器人。
    的头像 发表于 01-22 15:42 619次阅读

    ai人工智能机器

    的运营成本、人力成本还在不断提高(如:办公场地的租金、员工的工资、社保公积金、节假日福利等)。 如今的智能电话机器人,每天的电话拨打量可达800-1000通,相比人工提高了3-5倍,大大缩短了名单的筛选
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    、社交、想象力、创造力、感知力,这是无法用逻辑和推理去定义和构造的。人工智能路途遥远,远远还不到与人类竞争的程度,而且也不会反生的。与其胡思乱想,不如好好学习发展人工智能,让社会的生产力继续提高,让
    发表于 09-18 10:02

    人工智能会代替人类

    首先,我们需要明确什么是人工智能。人工智能简单来说就是“一种用于模拟或延伸成人智能的方法和机器”,即通过模拟人类的思维过程,让
    的头像 发表于 08-14 14:45 3161次阅读

    人工智能是否能超越人类智能人类智能与人工智能的区别 人工智能带来的真正挑战

    对人工智能与人类智能关系的探讨在当下十分热门,我们对人工智能是否可能取代人类这个话题投入了巨大的好奇。在未来,人工
    发表于 08-04 11:39 798次阅读

    机器与人类的Connect 4游戏项目

    电子发烧友网站提供《机器与人类的Connect 4游戏项目.zip》资料免费下载
    发表于 07-13 11:16 0次下载
    <b class='flag-5'>机器</b>人<b class='flag-5'>与人类</b>的Connect 4游戏项目

    河套IT TALK96:(原创)GPT技术揭秘:解锁提示工程的潜能

    什么是Prompt呢? Prompt(提示)是指在与人工智能模型进行交互时,向模型提供的一段文本或问题,用于引导模型生成相应的回答或输出。提示可以是简短的短语、完整的句子或是更长的段落,具体取决于
    的头像 发表于 06-27 21:05 347次阅读

    河套IT TALK94:(原创)GPT技术揭秘:探索生成式模型的训练之道

    1. 引言 人工智能机器学习,都是由场景和需求驱动的。找不到运用场景的机器学习技术,也没有生命力。越有挑战性的场景,越能激发人们用机器学习寻找解决方案的激情和动力。人们总是在问题中寻
    的头像 发表于 06-20 19:10 368次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b>94:(<b class='flag-5'>原创</b>)GPT技术揭秘:探索生成式模型的训练之道

    河套IT TALK93:(原创)比光传输还快,星链逆天了吗?

    我们已经聊过两篇星链的文章了,分别谈了SpaceX的星链计划如何降低部署成本,以及如何面对太空垃圾问题的纠结,今天智愿君聊聊星链的本职工作——卫星通信。 1. 近地轨道的高度选择 星链和之前的铱星一样,采取了近地轨道(LEO)运行,而且比铱星所在的轨道更低。LEO是一个很大的范围,作为环绕地球飞行的轨道,只要高度不超过地球半径的三分之一,都属于近地轨道范围,也就是海拔2000公里以下的空间区域。与之对应的还有MEO(中地球轨道)和
    的头像 发表于 06-13 22:45 2632次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b>93:(<b class='flag-5'>原创</b>)比光传输还快,星链逆天了吗?

    河套IT TALK90:(原创智能算力新篇章:智算中心构建智能算力的大脑和神经中枢

    上篇我们聊到了人工智能算力(Computing Power),以及对应的那些算力芯片。如果我们把算力芯片理解为神经元的话,智算中心就是智慧大脑和神经中枢。今天智愿君就来聊聊智算中心。 1. 战略性
    的头像 发表于 06-05 10:40 1188次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b>90:(<b class='flag-5'>原创</b>)<b class='flag-5'>智能</b>算力新篇章:智算中心构建<b class='flag-5'>智能</b>算力的大脑和神经中枢

    河套IT TALK 89:(原创)算力引爆智能时代:解锁无限潜能

    前文我们聊到了人工智能大模型的关键之一数据,今天,我们再聊聊另外一个关键点——算力 。 1. 海量的算力市场空间 早在1961年,计算机科学家和人工智能先驱约翰·麦卡锡 (John McCarthy
    的头像 发表于 06-04 00:45 530次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b> 89:(<b class='flag-5'>原创</b>)算力引爆<b class='flag-5'>智能</b>时代:解锁无限潜能

    河套IT TALK 86:(原创)谈谈对陆奇演讲中“范式”迁移的理解

                                                                                                                          看了奇绩论坛创始人陆奇今年的演讲《新范式、新时代、新机会》感触良多,智愿君决定写一点儿心得体会。 陆奇开篇就谈到了以OpenAI为代表的大模型标志着新范式的到来:“模型”知识无处不在。并预测下个范式会是“行动”无所不在。 那么到底什么是范式 (Paradigm) ? 我之前在很多场合听到过所谓的第四范式,第五
    的头像 发表于 05-27 19:15 671次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b> 86:(<b class='flag-5'>原创</b>)谈谈对陆奇演讲中“范式”迁移的理解

    河套IT TALK 85:(原创)照亮未来:智能照明技术的创新与变革(下)

    1. 上期回顾 关于智能照明,前两期聊了一下智能照明的发展历史和技术解析,本期,我们谈个轻松的话题,仅聊应用。 智能照明,旨在营造一种漂亮、绚丽的光照环境,去烘托场景氛围,达到舒适的照明体验。 场景
    的头像 发表于 05-26 08:55 324次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b> 85:(<b class='flag-5'>原创</b>)照亮未来:<b class='flag-5'>智能</b>照明技术的创新与变革(下)

    河套IT TALK 85:(原创)照亮未来:智能照明技术的创新与变革(中)

    ,我们当前的智慧照明处于什么阶段。从大的智慧家居的发展阶段来看,可以划分为这三个阶段:智能单品阶段、智能互联阶段和主动智能阶段。 智能单品阶段 :在这个阶段,
    的头像 发表于 05-25 17:45 664次阅读
    <b class='flag-5'>河套</b>IT <b class='flag-5'>TALK</b> 85:(<b class='flag-5'>原创</b>)照亮未来:<b class='flag-5'>智能</b>照明技术的创新与变革(中)