0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

创造AI可能是人类历史上最后一个大事件

DPVg_AI_era 来源:未知 作者:李倩 2018-10-19 09:03 次阅读

霍金生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版。他在书中认为,技术奇点之后超级智能将出现,人类经过基因编辑之后成为超人,未来人类将到星系开疆拓土,新生命形式的星际旅行机器会出现。

“我在这个星球上过着不平凡的生活,同时用我的头脑和物理定律穿越宇宙。我去过银河系最远的地方,进入了黑洞,回到了时间的起源。在地球上,我经历过高潮和低谷,动荡和和平,成功和痛苦。我富有过,贫穷过,我健全过,残疾过。我受到过赞扬也受到过批评,但我从未被忽视。”

霍金逝世7个月后,他生前的最后一本著作“Brief Answers to the Big Questions”近日正式出版,上述文字是他在书中写的自白。

不同于经典著作《时间简史》,这本最新的著作重点关注目前地球上所有人都将面临的几个重大挑战,包括人工智能的发展、基因编辑技术、气候变化、核战争的威胁等等。

这部书由《万物理论》(The Theory of Everything)男主角、霍金扮演者Eddie Redmayne和2017年诺贝尔物理学奖获得者Kip Thorne做前言介绍,霍金女儿Lucy Hawking做后记。霍金在书中试图回答几个问题:人类会在挑战之下活下来吗?我们应该在太空中殖民吗?上帝真的存在吗?

Eddie Redmayne和霍金

亚马逊Kindle版的介绍中,给出了这样的评价:对世界来说,“Brief Answers to the Big Questions”是这位伟大的物理学家最给出的最后信息

新智元根据Vox等媒体对这本书的报道,将本书的核心观点进行梳理,以飨读者。

创造AI可能是人类历史上最后一个大事件

人们很容易把高度智能机器的概念当作科幻小说来看待,但这将是一个错误,而且可能是我们有史以来犯的最严重的错误。

霍金认为,当AI在人工智能设计领域变得比人类更优秀,以至于它可以在没有人类帮助的情况下递归地自我改进时,我们可能会面临一场智能爆炸,最终导致机器的智能远远超出我们。

机器智能跟人类的差距有多大?霍金说,这种差距甚至比人类超过蜗牛的还要大。当这种情况发生时,我们需要确保计算机有跟我们一致的目标。

迄今为止,人工智能的原始形式已被证明非常有用,但霍金担心,如果创造出一种能与人类匹敌或超越人类的东西,后果将不堪设想。人类受到缓慢的生物进化的限制,无法竞争,将被取代。在未来,人工智能可以发展出自己的意志,一种与我们的意志相冲突的意志。

霍金认为,创造人工智能将是人类历史上最大的事件。不幸的是,它也可能是最后一个,除非我们学会如何规避风险。

技术奇点之后超级智能会降临

数学家Irving Good在1965年提到,拥有超人智能的机器可以不断地进一步改进它们的设计,科幻作家Vernor Vinge把这种进化称之为技术奇点。

我们可以想象,这种技术会超过金融市场,超过人类研究人员的发明,超过人类领导人的操纵,甚至可能用我们甚至无法理解的武器制服我们。人工智能的短期影响取决于谁来控制它,而长期影响则取决于它能否被控制。

在中期,人工智能可能会使我们的工作自动化,带来巨大的繁荣和平等。展望未来,可以实现的目标没有根本的限制。一个爆炸性的转变是可能的,尽管它可能会以不同于电影的方式上演。

简而言之,超级智能人工智能的出现要么是人类有史以来最好的事情,要么是最糟糕的事情。人工智能真正的风险不是恶意,而是能力。

一个超级智能的人工智能会非常擅长实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。你可能是憎恨蚂蚁,也不出于恶意踩死蚂蚁,但如果你负责一个绿色水电能源项目,而该地区有一个蚁丘要被淹没,这种情况下对蚂蚁来说实在太糟糕了。

因此,人类不要成为AI的蚂蚁。

不要觉得这种担忧很可笑,举例来说,如果一个高级外星文明给我们发了一条短信,说:“我们再过几十年就会到达”。我们会不会只是回复说:“好吧,你来的时候给我们打电话,我们会让灯一直亮着。”

外星人可能不会来,但这很可能是会发生在人工智能身上的事情。

近期最担忧:各国开发自主武器系统

虽然霍金自己是一个众所周知的乐观主义者,但他不确定这种乐观能持续多久。例如,在短期内,世界各国军队正在考虑在自主武器系统中展开军备竞赛,以选择并消灭自己的敌人。

当联合国正在讨论一项禁止此类武器的条约时,自主武器的支持者通常忘记问一个最重要的问题:军备竞赛可能的终点是什么?这对人类来说是可取的吗?我们真的希望廉价的人工智能武器成为未来冲锋枪,在黑市上卖给犯罪分子和恐怖分子吗?考虑到人们对我们长期控制越来越先进的人工智能系统的能力的担忧,我们是否应该武装AI,并将我们的防御力量交给AI?

因此说,现在是停止自主武器军备竞赛的最佳时机。

星际扩张也许是人类拯救自己的唯一办法

霍金认为,在未来1000年的某个时间点,核对抗或环境灾难将使地球瘫痪是不可避免的。到那时,霍金希望并且相信,人类这个聪明的种族将会找到一种方法来摆脱地球上粗暴的束缚,从而在这场灾难中幸存下来。

目前,除了地球人类无处可去,但从长远来看,人类不应该把所有鸡蛋都放在一个篮子里,或者放在一个星球上。

霍金希望在人类学会如何逃离地球之前,能避免掉下篮子。

并且,离开地球需要一个协调一致的全球方式——每个人都应该加入。人们需要重新点燃20世纪60年代早期太空旅行的激情。

现在,太空探索技术几乎在人类的掌握之中,因此,是时候探索其他太阳系了。星际扩张也许是唯一能把人类拯救自己办法。

本世纪出现基因编辑后的超人

另一方面,人类没有时间等着达尔文的进化论让我们变得更聪明、更善良。人类现在正进入一个新的阶段,这个阶段可能被称为“自我设计进化”——人类将能够改变和改善我们的DNA。

首先,这些变化将局限于修复遗传缺陷——例如囊性纤维化和肌营养不良,它们由单个基因控制,因此很容易识别和纠正。其他的品质,比如智力,很可能是由大量的基因控制的,而要找到它们并找出它们之间的关系就会困难得多。

但也不是不可能。霍金确信在本世纪人们将会发现如何修正智力和本能,比如攻击性。因此,他预测反对人类基因工程的法律可能会通过。但有些人无法抗拒改善人类特征的诱惑,比如记忆力大小、抗病性和寿命长短。

一旦人们尝试这种“诱惑”,就会出现超人。一旦这样的超人出现,那些无法与之竞争的人类将面临重大的问题,他们将会消亡,或者变得不重要。相反,那些靠自我设计改变基因的人,会以越来越快的速度提升自己。

从这个角度讲,如果人类能够重新设计自己,也很可能会扩展到其他星球。

新生命形式的星际旅行机器会出现

然而,长距离的太空旅行对于以化学为基础的生命形式来说将是困难的,与旅行时间相比,人类这种生物的自然寿命很短。根据相对论,人类到达星系中心大约需要10万年。

在科幻小说中,人们通过太空扭曲或者穿越维度来克服这个困难。但霍金认为这些都不可能实现,无论生命变得多么聪明。

而未来还可能出现一种更简单的方法——几乎已经在我们的能力范围内——设计出能够持续足够长的机器用于星际旅行。当人们到达一颗新恒星时,他们可以在合适的行星上着陆,开采出更多的物质来制造更多的机器,这些机器可以被送往更多的恒星。

这样的机器将会是一种新的生命形式,基于机械电子元件而不是大分子。它们最终可能取代以DNA为基础的生命,就像DNA可能取代了早期生命一样。

宇宙中还有其他智慧生命吗?

这个问题争论已久。

如果存在外星生物,那为什么我们没有被拜访过呢?

霍金提出了几种可能。

形成自我复制系统的可能性是合理的,就像细胞一样,但这些生命的大多数形式并没有进化出智力。我们习惯于认为智能生命是进化的必然结果,但如果不是呢?

更有可能的是,进化是一个随机的过程,智力只是众多可能结果中的一个。甚至不清楚智力是否有任何长期的生存价值。如果地球上所有其他生命都被我们的行为所消灭,细菌和其他单细胞生物可能会继续生存。

从进化的年表来看,也许智力对地球上的生命来说是不太可能的发展,因为从单个细胞到多细胞生物需要很长时间——25亿年——这是智力的必要前体,所以这与生命发展智力的概率很低的假设是一致的。在这种情况下,我们可能期望在银河系中找到许多其他的生命形式,但我们不太可能找到智慧生命。

另一种无法发展到智能阶段的生命可能是小行星或彗星与行星相撞。一部分观点认为,大约6600万年前,一个相对较小的天体与地球相撞,导致了恐龙的灭绝。一些早期的小型哺乳动物幸存下来,但是任何像人类一样大的动物几乎肯定会被消灭。

还有一种可能性是,生命有合理的可能性形成并进化为智能生物,但系统变得不稳定,智能生命毁灭了自己。这将是一个悲观的结论,霍金说,我希望这不是真的。

他更倾向于第四种可能性:我们忽略了其他形式的智慧生命。在我们目前的阶段,与一个更先进的文明相遇,可能有点像当初的美洲居民与哥伦布相遇,霍金认为对方会因此而更现先进。

霍金生前最后一篇论文公开:物体落入黑洞的信息有什么变化?

而就在前不久,霍金临终论文也公开了。

这篇论文题为《Black Hole Entropy and Soft Hair》,作者分别是Sasha Haco、Stephen W. Hawking、Malcolm J. Perry和Andrew Strominger。

该论文阐述了物体落入黑洞时信息产生的变化,主要解决了“黑洞信息悖论”这一问题。该论文的观点是,黑洞中存在无穷尽的“柔软的头发”而非无迹可寻,同时也给出了黑洞熵的计算方法。

这一难题可追溯到爱因斯坦时代。1915年,爱因斯坦提出广义相对论,这对黑洞做出了一个重要的预测,即黑洞完全由三个特征来定义,分别是质量、电荷和角动量。

而霍金在将近60年后提出,黑洞也有温度,黑洞的命运最终将是蒸发,即黑洞蒸发理论。若是再考虑量子理论,即根据量子世界的定律,信息是不会消失的。这便成了一个矛盾点。

若是一个物体被丢进黑洞里,在黑洞消失的时候,物体的信息都去了哪里呢?

在这篇论文中,霍金及其同事展示了有些信息如何被保存下来。把一个物体扔进黑洞,黑洞的温度会因此而改变。一种叫做熵(用来测量物体内部无序程度的指标)的特性也会如此。温度越高,熵就越高。

除此之外,霍金还在论文中表示,他希望能将引力和其他的自然力量结合起来,从而统一爱因斯坦广义相对论于量子理论。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 自动化
    +关注

    关注

    28

    文章

    5024

    浏览量

    77707
  • 人工智能
    +关注

    关注

    1775

    文章

    43709

    浏览量

    230488

原文标题:霍金留给人类的最后警告:新书预言超级智能和超人会降临

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    富士通发布最新的人工智能(AI)战略,聚焦深化人类AI之间的协作

    富士通株式会社(以下简称“富士通”)发布了最新的集团人工智能(AI)战略,聚焦深化人类AI之间的协作,并提出了将AI作为“可信赖的助手”这一愿景,为提升
    的头像 发表于 02-21 17:09 409次阅读
    富士通发布最新的人工智能(<b class='flag-5'>AI</b>)战略,聚焦深化<b class='flag-5'>人类</b>与<b class='flag-5'>AI</b>之间的协作

    新火种AI|全网热炒的“AI PC”,可能是个伪概念

    作者:一号 编辑:美美 我们现在所看到的AI PC,可能只是一个营销噱头。 随着AI浪潮席卷全球,深刻改变各行各业,AI与硬件,尤其是消费电子,例如手机还有PC的结合愈发让人着迷。20
    的头像 发表于 02-18 14:25 245次阅读
    新火种<b class='flag-5'>AI</b>|全网热炒的“<b class='flag-5'>AI</b> PC”,<b class='flag-5'>可能是</b>个伪概念

    AI for Science,开启智能科学时代

    当人工智能遇上科研,让历史上的科学家都闻之落泪……
    的头像 发表于 02-02 09:36 2264次阅读
    <b class='flag-5'>AI</b> for Science,开启智能科学时代

    新火种AI|GPT Store可能是一个“硅基人才市场”

    作者:一号 编辑:美美 也许我们都错了,GPT Store可能是一个“硅基人才市场”,而不是APP Store。 如果要说在AI领域中最火的一个应用,那么在当下,毫无疑问会是ChatGPT
    的头像 发表于 01-31 09:29 184次阅读
    新火种<b class='flag-5'>AI</b>|GPT Store<b class='flag-5'>可能是</b>一个“硅基人才市场”

    iOS18将迎苹果史上最大革新

    苹果公司正在积极筹备的iOS 18操作系统可能是iPhone历史上最大的一次更新。虽然目前关于iOS 18的具体信息仍然相对较少,但已经有两项重大改进被确认。
    的头像 发表于 01-30 16:55 549次阅读

    马斯克称人类首次植入脑机接口芯片

    在科技前沿不断探索的埃隆·马斯克(Elon Musk)再次引领了潮流,其脑机接口公司Neuralink宣布,已成功在人类体内植入了脑机接口芯片。这是人类历史上首次实现这一突破性技术,预示着人机交互的新篇章。
    的头像 发表于 01-30 09:42 335次阅读

    自动驾驶落地,如何做到技术与场景相匹配?

    自从1885年卡尔·本茨发明汽车以来,这个人类历史上最重要的交通工具之一就开始朝着“自动化”不断发展。
    的头像 发表于 01-17 10:34 1032次阅读

    马斯克被曝透露对外星人看法 人类可能是银河系唯一

    马斯克被曝透露对外星人看法 人类可能是银河系唯一 马斯克在一场活动中透露他对外星人的看法,马斯克认为人类可能是银河系里唯一有意识的物种,马斯克还把
    的头像 发表于 12-17 17:50 1975次阅读

    仿真人类的微软AI翻译系统

    历史上看,曾经主流的机器学习技术在行业中应用是统计机器翻译 (SMT)。SMT 使用先进的统计分析,从一句话中上下文的几个词中来估计最佳可能的翻译。SMT自20 世纪中期以来的为所有主要翻译服务提供商所使用,其中包括微软。
    的头像 发表于 10-11 15:27 544次阅读

    08.08 Java及JVM历史上的重大事件 #硬声创作季

    代码项目开发
    充八万
    发布于 :2023年07月18日 06:06:17

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI人类种威胁;谷歌前CEO施密特认为AI
    发表于 06-27 10:48

    英特尔斥资300亿欧元在德国建立晶圆厂 德国历史上最大外国投资

    路透社消息,英特尔将投巨资超过300亿欧元在德国的马德堡(Magdeburg)设立两座晶圆厂,德国总理舒尔茨表示,这是德国历史上最大一笔外国投资。一位知情人士表示,德国柏林已与这家美国芯片制造商达成了价值近100亿欧元的补贴,超过了最初向英特尔提供的68亿欧元补贴,用于在东部城市建造两个尖端设施。
    的头像 发表于 06-20 09:12 7502次阅读
    英特尔斥资300亿欧元在德国建立晶圆厂 德国<b class='flag-5'>历史上</b>最大外国投资

    天线与晶体管发展历程

    天线与晶体管是人类历史上两项最伟大的发明。天线开启了无线电的时代,晶体管开辟了电子学的新世界。
    发表于 06-19 09:43 575次阅读
    天线与晶体管发展历程

    ChatGPT之父警告AI可能灭绝人类

    ChatGPT之父警告AI可能灭绝人类 此前先是特斯拉CEO埃隆·马斯克在内的1000多名行业高管和专家签署公开信,积极呼吁在6个月内暂停更高级AI的开发;呼吁暂停开发比GPT-4更强
    的头像 发表于 05-31 14:47 844次阅读

    商汤联合发布通才AI智能体通关《我的世界》,像人类一样生存、探索和创造

    AI发展进程中有一个非常有趣却有违常识的现象,“一些对人类而言相对困难的任务,例如下棋,对 AI 来说却相对容易实现;而在开放世界中与环境交互、进行规划和决策等对人类来说较简单的事,
    的头像 发表于 05-29 14:25 461次阅读
    商汤联合发布通才<b class='flag-5'>AI</b>智能体通关《我的世界》,像<b class='flag-5'>人类</b>一样生存、探索和<b class='flag-5'>创造</b>