您好,欢迎来电子发烧友网! ,新用户?[免费注册]

您的位置:电子发烧友网>源码下载>数值算法/人工智能>

AI具有威胁人类存续的可能性

大小:0.98 MB 人气: 2017-09-21 需要积分:1

 

 
 有新闻报道称,人工智能AI

  研究尽管在未来可能取得成功且前途不可限量,但潜在的长期风险正逐渐显示出来。奥伦·埃齐奥尼(Oren

  Etzioni)是一位知名的人工智能研究人员,他对此感到不满(参见《专家并不认为超级智能对人类是一种威胁》)。在他直接公开指责牛津大学哲学家尼克· 波斯特罗姆(Nick Bostrom)和他的最新著作《超级智能》

  (Superintelligence)后,埃齐奥尼指出,波斯特罗姆提出的“即将出现的人类层级智能的主要数据源”来自对 AI

  CFP供图

  研究人员意见的调查。在此之后,埃 大进展何时会发生。”

  齐奥尼自己也对 AI 研究人员的意见 因此,在我们看来,埃齐奥尼的

  进行了调查,声称他得出的结论推翻 文章转移了读者的注意力,使读者没

  了波斯特罗姆的观点。 有关注该书的核心内容。埃齐奥尼以

  要知道,埃齐奥尼甚至没提到为 质疑调查结果为由,直接从个人偏好

  什么他公开谴责《超级智能》所造成 的角度出发攻击波斯特罗姆。我们觉

  的影响,这点很重要。他也没有解释 得有必要更正一下。我们的一位同事

  清楚为什么超级智能的 AI 可能会造 (拉塞尔)甚至还参与了埃齐奥尼的

  成无法把控的负面影响,为什么提前 调查,但却发现他的回答完全被埃齐

  开始解决 AI 的问题是如此重要。波 奥尼曲解了。事实上,根据我们的详

  斯特罗姆并没有把事实建立在超人类 细分析,埃齐奥尼的调查结果与波斯

  AI 系统即将来临的这个预测上,他在 特罗姆的观点完全一致。

  著作中写道:“本书并不是在表明我 那么,埃齐奥尼是如何得出他的

  们正处于人工智能重大突破的开端, 新结论的呢?他自己设计了一份调查

  也没有表明我们可以准确预测这一重 问卷,不过问卷的质量比波斯特罗姆

  

  

非常好我支持^.^

(0) 0%

不好我反对

(0) 0%

      发表评论

      用户评论
      评价:好评中评差评

      发表评论,获取积分! 请遵守相关规定!