0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

马斯克呼吁暂停AI研究,吴恩达:呼吁无效!潘多拉的魔盒能“安全”打开吗?

硬科技星球 来源:硬科技星球 作者:硬科技星球 2023-04-12 11:40 次阅读

马斯克等“千人联名”呼吁暂停AI研究事件经过一天发酵后,以吴恩达、田渊栋为代表的AI研究支持派也开始发声,公开反对“千人联名”,一场关于“要不要打开潘多拉魔盒”的论战拉开帷幕,被网友戏称为“三体照进现实?降临派、拯救派和幸存派不是开玩笑的。”这究竟是怎么一回事?

暂停or继续,ChatGPT训练引发马斯克、吴恩达论战

事情起因是3月29日美国非营利性组织未来生命研究所(Future of Life Institute)发布的一封公开信,信中呼吁所有人工智能(AI)实验室立即暂停训练比GPT-4更强大的AI系统。

IMG_256

“千人联名”公开信(图片来源于网络截图)

半年前,ChatGPT的发布推动了AI热潮,不到两个月的时间就有了上亿个月活用户。时至今日,与ChatGPT相关的话题仍旧频繁登上社交媒体热搜榜单,A股市场上ChatGPT概念股板块历经多番涨停潮,百度、阿里、京东、网易等科技公司相继宣布推出或研发对标产品的计划。

就在行业期待通用型AI能够在ChatGPT的热潮中迎来真正落地的时刻,却冒出了呼吁暂停AI训练的公开信,而后特斯拉及推特首席执行官马斯克等上千人在这封公开信中予以了签名,Stability AI CEO、07年图灵奖得主、苹果联合创始人、多位DeepMind工程师也都赫然在列,形成了极具分量的“千人联名”,引发业界关注。

这封公开信表明了对AI潜在风险的担忧:“只有当我们能够确信,AI体系的有利因素都是积极的,且风险都可控,一个强大的AI体系才能成熟。”

IMG_256

吴恩达公开发贴反对“千人联名”(图片来源于推特截图)

很快,吴恩达、田渊栋等一众AI大牛发文公开反对“千人联名”,吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同,他们认为“6个月暂停令”本身并不是一个非常切实可行的建议,是在扼杀AI进步。

双方提到同一关键词“安全”,技术惊人进化引发人类担忧

无论是呼吁暂停研究的“拯救派”还是反对千人联名的“降临派”,仔细分析双方的发言,发现焦点集中在了“安全”:“千人联名”公开信中建议,利用“暂停训练”的这段时间,开发和实施一套共享安全协议,用于高级人工智能设计和开发,并由独立外部专家进行严格审核和监督……人工智能的研究和发展,应该重新聚焦于朝着更准确、安全、可信可解释等的AI系统开发工作上来。吴恩达的帖子中也提到,要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。

从双方对AI“安全”的关注可以看出,这轮关于“暂停AI训练”的争议,本质上是人们对于AI技术无序发展的恐惧和不安,这也并非AI发展中第一次引发这样的担忧。2015年,物理学家斯蒂芬·霍金和埃隆·马斯克等数位科学家、企业家,与人工智能领域有关的投资者,就曾联名发出了一封公开信,警告人们必须更多地注意人工智能的安全性及其社会效益。

当年的呼吁并没有阻挡技术前进的步伐,如今AI已经呈现出了更加令人不安的“智能”,以至于很多人担心,AI会不会像科幻作品中描述的那样,可以像人一样自主思考,甚至更全面更智慧,就像《流浪地球2》里的数字生命计划一样,人的智慧逃逸到数字空间之中,那么人类是否还有存在的必要?《人类简史》当中也描绘了未来人类这个物种可能面临的巨变。

清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈表示,AI距离具备科幻作品中呈现的那种自主人格,还相差很远的距离。“通俗来说,AI学习了大量的人类对话数据,而这些对话来自不同的人,所以可以认为AI学习到了一个‘平均’的人格,但也仅仅是语言说话风格,而且是来自人类的说话风格,并不是AI自发形成的。”

但是,科学的确存在伦理风险,尤其是人类对AI的情感依赖越来越多的情况下,黄民烈教授举例:假想某个受到生活严重打击的人,对AI说:“我想找个桥跳下去”,AI立刻提供了附近桥的位置并导航路径,后果细思恐极。

“千人联名”事件前后发生的一次自杀事件似乎印证了这种担忧,一名化名为皮埃尔的比利时男子在与一个名为“艾丽莎”的智能聊天机器人频繁聊天六周后自杀身亡。“艾丽莎”由美国硅谷一家初创公司开发,背后由GPT-J支撑,与ChatGPT采用OpenAI开发的GPT-3或GPT-4为竞争关系。

ChatGPT的开发公司OpenAI也曾在GPT-4技术报告中描述了一些可预见的,与偏见、虚假信息、过度依赖、隐私、网络安全等相关的风险——ChatGPT“胡言乱语”的问题始终没有得到有效解决,其因此备受诟病。

用魔法打败魔法,用技术规范技术

由此看来,暂停AI研究的确不切实际,借用Meta FAIR研究院研究员/高级经理、CMU机器人系博士田渊栋对AI发展的描述来说:一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。

但这不意味着人类对可能存在的伦理安全问题“束手无策”,ChatGPT这类生成式AI是通过范例学习的,他们的行为是可以规范的,应该鼓励合规的机构去发展AI,用合法AI去对抗非法AI,而不是停滞不前。

事实上,AI飞速向前发展的同时,有关AI安全的技术也从未止步。前不久,微软在其首届Microsoft Secure活动中发布了一款生成式AI安全产品Security Copilot,把AI技术应用到了网络安全领域。该产品由OpenAI的大型语言模型GPT-4和微软自家的安全模型提供支持,在微软云服务Azure上运行,用以帮助更快、更准确地检测和响应安全威胁。

在更早的2021年,微软就成立了安全、合规、身份与管理部门来应对日益加剧的网络安全挑战。2022年,网络安全业务为微软带来了超200亿美元的营收。微软曾称,未来五年间将不断加大对网络安全业务的投入,预计将在客户安全保护方面投入近200亿美元。

国内在AI安全方面的相关成果也正在出现,例如,3月聆心智能联合清华大学CoAI实验室历经两年建立的大模型安全评估框架正式发布,对ChatGPT的安全设计所不能规避的风险问题形成了更全面的补充,建立了大模型安全分类体系,设置了八大不安全的对话场景,包括政治敏感、犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论、伦理道德,并针对以上八大不安全场景对大模型进行针对性升级,使模型能够在遇到安全问题时给予正确的回复策略,不去做判断和误导。

此外,研究团队还收集和构造了相应的hard case(更难识别和处理的安全测试用例),总结和设计了六种一般模型难以处理的安全攻击方式,称为指令攻击。使安全体系更加完善,进一步改进和优化模型表现。

据了解,早在去年7月,黄民烈教授就在媒体报道中表现出了对AI安全的关注,他表示,“AI对话系统下一阶段发展的重点是更有伦理、更道德、更安全。我们可以通过额外的资源、规则、检测手段赋予AI这样的能力,使风险降至最低。”

“潘多拉的魔盒”难以逆转,积极拥抱AI for Social good

在科技发展的宏伟历史中,任何一项新兴技术的出现往往会引起人们对未知的恐惧,那些能够引起社会巨大变革的技术总是被比喻为“潘多拉的魔盒”,可能是引发灾难的根源,但是别忘了除了欲望与罪恶,盒子中也藏着希望。并且,“潘多拉的魔盒”一旦打开,很难扭转这一趋势,我们应该做的是规避不幸,释放希望。

就像当前急速发展的AI技术,暂停研究的呼吁是为了促进AI技术建立较高的道德标准和伦理规范,确保AI技术的应用不会对个人和社会造成潜在的危害。但应该看到,AI技术的发展是人类社会前进的必经之路,比起暂停进步,更应该做的是理解AI,适应它并利用其力量,同时建立起安全可信的框架规范其发展,确保其在促进人类社会发展的轨道上不偏航。

发展AI最终的目标是为人类谋福祉,而不是伤害人类,期待AI for Social good(AI赋能社会)尽快到来,为人类社会发展带来更高的社会意义和价值。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26451

    浏览量

    264068
  • ChatGPT
    +关注

    关注

    27

    文章

    1409

    浏览量

    4749
收藏 人收藏

    评论

    相关推荐

    马斯克回应特斯拉销量下滑:比亚迪销量也下滑

    前述事件发生在本周二。近日,洛克希德·马丁公司CEO杰夫·凯利强烈指责特斯拉第一季度表现欠佳,且将原因归咎于埃隆·马斯克,认为其行为不利于商品推广和市场营销。同时呼吁特斯拉董事会立即更换独立董事。
    的头像 发表于 04-03 16:09 625次阅读

    马斯克:AI发展速度前所未见 但马斯克起诉OpenAI及其创始人

    马斯克AI发展速度前所未见  现在市场上对于任何OpenAI的消息都非常敏感,我们分享一下马斯克对OpenAI起诉的一些事项。 马斯克在日前的一次活动表示
    的头像 发表于 03-02 15:29 1025次阅读

    马斯克550亿美元薪酬方案被推翻 马斯克4000亿薪酬被判无效

    马斯克550亿美元薪酬方案被推翻 马斯克4000亿薪酬被判无效 就在市场强烈关注马斯克的首例人类脑机接口手术之际,马斯克又爆出他那超级高的薪
    的头像 发表于 01-31 11:18 1540次阅读

    Grok即将上线!马斯克据此成为“数据封建王”?

    马斯克背刺Open AI,即将成为“数据封建主”?
    的头像 发表于 12-12 10:18 294次阅读
    Grok即将上线!<b class='flag-5'>马斯克</b>据此成为“数据封建王”?

    马斯克称人工智能比核弹危险 需要全球合作的组织来监管AI

    马斯克又开始放嘴炮了吗?马斯克称人工智能比核弹危险;马斯克一直深度关注人工智能的发展,并警告隐性风险,着重提示应该对人工智能实施某种监管。 马斯克一直都是向来强调
    的头像 发表于 12-01 19:23 338次阅读

    马斯克再创辉煌,隧道公司估值70亿美元改变城市生活

    马斯克行业芯事
    北京中科同志科技股份有限公司
    发布于 :2023年10月24日 09:56:15

    rt-studio潘多拉开发板最新rt-thread不能运行解决办法

    在rt-studio 上 选择基于开发板的项目,选择潘多拉,rt-thread选择lasted ,如下图
    的头像 发表于 10-16 14:50 625次阅读
    rt-studio<b class='flag-5'>潘多拉</b>开发板最新rt-thread不能运行解决办法

    基于潘多拉开发板的shell内容屏幕显示

    潘多拉开发板有个小屏幕,并且提供了屏幕的驱动,所以我一直想着把这个屏幕用起来,最后把tshell输出到串口的内容最终也输出到屏幕上 最终成果如下
    的头像 发表于 10-16 14:41 379次阅读
    基于<b class='flag-5'>潘多拉</b>开发板的shell内容屏幕显示

    马斯克最新消息 马斯克重申特斯拉将取消实体后视镜 马斯克回应被指叛国

    马斯克最新消息 马斯克重申特斯拉将取消实体后视镜 马斯克回应被指叛国 关于马斯克最新消息总是被关注,当然特别是特斯拉与SpaceX的一些最新消息,下面我们看看
    的头像 发表于 09-12 15:09 604次阅读

    马斯克称2年内从缺硅变缺电 甚至阻碍AI的发展

    马斯克称2年内从缺硅变缺电 甚至阻碍AI的发展 芯片缺货的大家的记忆还很深刻,现在马斯克称2年内从缺硅变缺电? 马斯克在奥斯汀举行的能源会议上预测,因为随着电动汽车的增加,到2045年
    的头像 发表于 07-31 15:34 831次阅读

    新大规模呼吁国际联合研究!ASPIRE(采用可持续伙伴关系促进创

    新大规模呼吁国际联合研究!ASPIRE(采用可持续伙伴关系促进创新研究生态系统)ppt分享
    发表于 07-14 17:15 0次下载

    AI 人工智能的未来在哪?

    人工智能、AI智能大模型已经孵化;繁衍过程将突飞猛进,ChatGPT已经上线。 世界首富马斯克认为AI对人类是一种威胁;谷歌前CEO施密特认为AI和机器学习对人类有很大益处。 每个国家
    发表于 06-27 10:48

    ChatGPT之父警告AI可能灭绝人类

    ChatGPT之父警告AI可能灭绝人类 此前先是特斯拉CEO埃隆·马斯克在内的1000多名行业高管和专家签署公开信,积极呼吁在6个月内暂停更高级AI
    的头像 发表于 05-31 14:47 854次阅读

    微软 CEO 反驳马斯克:我们没有控制 OpenAI

    ,要求 AI 实验室暂停 AI 研发。 纳德拉说:“我对马斯克以及他做的一切抱有敬意,但他说的话实际上并不正确。
    的头像 发表于 05-18 08:41 353次阅读
    微软 CEO 反驳<b class='flag-5'>马斯克</b>:我们没有控制 OpenAI

    微软首席科学官反驳马斯克 暂停开发人工智能没有意义

    ChatGPT火爆全球之后,AI被越来越多关注,更多的科技企业加入进来,更多的大佬在布局。微软首席科学官反驳马斯克 暂停开发人工智能没有意义。 微软首席科学官反驳马斯克关于
    的头像 发表于 05-04 18:41 1529次阅读