0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

科学家可以在一台计算机上解决最先进的AI问题

IEEE电气电子工程师 来源:IEEE电气电子工程师学会 2020-08-17 10:47 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

训练先进的人工智能系统所需的巨大计算资源意味着,经验丰富的科技公司将学术团队置于尘埃中。但是一种新方法可以帮助平衡规模,使科学家可以在一台计算机上解决最先进的AI问题。

OpenAI 2018年的一份报告发现,用于训练最强大的人工智能的处理能力正以惊人的速度增长,每3.4个月翻一番。最需要数据的方法之一是深度强化学习,其中AI通过遍历数百万次仿真来通过反复试验来学习。电子游戏如《星际争霸》和《Dota2》的最新进展都依赖于装有数百个CPUGPU的服务器。

诸如Cerebras System的Wafer Scale Engine之类的专用硬件有望用完美优化用于训练AI的单个大型芯片来取代这些机架式处理器。但是,由于价格高达数百万美元,对于资金不足的研究人员来说,这并不是什么安慰。

现在,来自南加州大学和英特尔实验室的一个团队已经发明了一种在学术实验室中常用的硬件上训练深度强化学习(reinforcement learning,RL)算法的方法。在近日举行的2020国际机器学习大会(International Conference on Machine Learning,ICML)上发表的一篇论文中,他们描述了如何能够使用一个高端工作站来训练人工智能,在第一人称射击游戏Doom上拥有最先进的表现。他们还使用一小部分正常计算能力来解决DeepMind提出的30种多样化3D挑战套件。

德州大学奥斯汀分校(University of Texas at Austin)专门研究深度RL的教授Peter Stone说:“发明对商品硬件进行深度RL的方法是一个了不起的研究目标。并且,除了将较小的研究小组抛在身后之外,进行此类研究通常所需的计算资源也会产生大量的碳足迹。”

USC研究生的主要作者Aleksei Petrenko说,该项目的灵感来自于必须成为发明之母的经典案例。随着在英特尔的暑期实习期结束,Petrenko失去了进入该公司的超级计算集群的权限,这使尚未完成的深度RL项目陷入危险之中。因此,他和同事决定找到一种方法来继续进行简单系统的工作。

使用一台配备36核CPU和一个GPU的机器,研究人员能够在接受Atari视频游戏和Doom训练时每秒处理大约14万帧图像,或者是次优方法的两倍。

Using a single machine equipped with a 36-core CPU and one GPU, the researchers were able to process roughly 140,000 frames per second while training on Atari videogames and Doom, or double the next best approach.

“根据我的经验,很多研究人员无法接触到尖端的、花哨的硬件,”Petrenko说。“我们意识到,只要重新考虑如何最大限度地提高硬件利用率,实际上就可以接近通常从大型集群中挤出的性能,即使是在单个工作站上。”

深度RL的主要方法是将AI代理置于一个模拟环境中,该环境为实现特定目标提供奖励,agent将此作为反馈来制定最佳策略。这涉及三个主要的计算工作:模拟环境和代理;根据学习到的规则(称为策略)决定下一步要做什么;以及使用这些操作的结果来更新策略。

Petrenko说,培训总是受到最慢流程的限制,但这三个工作通常在标准的深层次RL方法中交织在一起,因此很难单独优化它们。研究人员的新方法被称为“样本工厂(Sample Factory)”,将它们分开,这样就可以投入资源让它们都以峰值速度运行。

Petrenko解释说,进程之间的管道数据是另一个主要瓶颈,因为这些数据通常会分布在多台机器上。他的团队利用在一台机器上工作的优势,只需将所有数据塞进共享内存中,所有进程都可以即时访问这些数据。

与领先的深度RL方法相比,这形成了显著的加速。使用一台配备36核CPU和一个GPU的机器,研究人员能够在接受Atari视频游戏和Doom训练时每秒处理大约14万帧图像,或者是次优方法的两倍。在三维训练环境DeepMind实验室中,他们每秒的帧数为40000帧,比第二名高出15%。

为了检查帧速率是如何转化为训练时间的,研究小组将样本工厂(Sample Factory)与谷歌大脑(Google Brain)在3月份开源的一种算法进行了比较,该算法旨在显著提高深度RL的效率。研究小组还在DeepMind实验室用一台功能更强大的36核4-GPU机器,对30个挑战进行了测试。由此产生的人工智能的性能明显优于DeepMind用来应对挑战的原始人工智能,后者是在大型计算集群上训练的。

虽然论文中使用的计算机仍然是为人工智能研究而设计的高端工作站,但Petrenko说,他和他的合作者也一直在更简单的设备上使用样品工厂。他说,他甚至可以在他的中档游戏笔记本电脑上进行一些高级的深度RL实验。“这是前所未闻的。”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 计算机
    +关注

    关注

    19

    文章

    7764

    浏览量

    92692
  • AI
    AI
    +关注

    关注

    89

    文章

    38171

    浏览量

    296889
  • 人工智能系统

    关注

    0

    文章

    39

    浏览量

    10842

原文标题:现在可以在一台计算机上训练强大的AI啦

文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    中兴通讯崔丽受邀出席2025腾冲科学家论坛

    近日,“2025腾冲科学家论坛”云南启幕。本届论坛以“科学·AI改变世界”为主题,汇聚包括诺贝尔奖、图灵奖、菲尔兹奖得主在内的国际顶尖科学家
    的头像 发表于 12-09 11:36 245次阅读

    国际类脑计算科学家Yulia Sandamirskaya教授加盟时识科技

    近日,国际类脑计算与神经形态机器人领域知名科学家Yulia Sandamirskaya 教授,作为科学家顾问正式加入时识科技(SynSense)。
    的头像 发表于 10-13 13:50 456次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI科学应用

    AI被赋予了人的智能,科学家们希望没有人类的引导下,AI自主的提出科学假设,诺贝尔奖级别的假设哦。 A
    发表于 09-17 11:45

    【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件

    保持停滞的情况下,依照目前计算机的能耗效率,至少还需要30年的努力才接近其水准,见图1所示。 图1 大脑与计算机的能量效率对比 图2 类脑芯片的前瞻性研究领域AI湿件 为此,些想
    发表于 09-06 19:12

    NVIDIA驱动的现代超级计算机如何突破速度极限并推动科学发展

    现代高性能计算不仅使得更快的计算成为可能,它正驱动着 AI 系统解锁更多领域的科学突破。 高性能计算经历了多次迭代,每
    的头像 发表于 06-26 19:39 987次阅读
    NVIDIA驱动的现代超级<b class='flag-5'>计算机</b>如何突破速度极限并推动<b class='flag-5'>科学</b>发展

    高性能计算集群AI领域的应用前景

    的融合基础高性能计算是指使用超级计算机计算集群进行高效的数据处理与分析。它可以处理大规模的数据集,并提供快速的计算能力,使得
    的头像 发表于 06-23 13:07 1046次阅读
    高性能<b class='flag-5'>计算</b>集群<b class='flag-5'>在</b><b class='flag-5'>AI</b>领域的应用前景

    使用CY3014USB芯片组制作了一台相机,视频显示延迟怎么解决?

    我使用 CY3014USB 芯片组制作了一台相机,视频从相机流向计算机,显示屏上显示出精美的图像。 我注意到摄像机前发生的事情和信息屏幕上更新/流动之间存在延迟。 延迟时间几乎持续 1 秒。 这
    发表于 05-06 09:11

    Raspberry Pi 是单板计算机之王?

    如果你需要一台小型且经济实惠的电脑来完成个人项目,那么现在正是最佳时机。单板计算机市场价值30亿美元,预计未来十年将持续增长。这意味着有很多选择,但除非你有非常具体的需求,否则在考虑其他选项之前,有
    的头像 发表于 03-25 09:27 587次阅读
    Raspberry Pi 是单板<b class='flag-5'>计算机</b>之王?

    如何搭建和部署一台本地大模型Ai计算机

    无论是中小企业主还是致力于学习Ai的学生用户,对高性能的Ai计算机的需求十分旺盛。显然专业的HPC(高性能计算)价格不菲,例如英伟达Tesla H800高性能
    的头像 发表于 03-24 14:41 1565次阅读

    NVIDIA GTC2025 亮点 NVIDIA推出 DGX Spark个人AI计算机

    台式超级计算机由 NVIDIA Grace Blackwell 驱动,为开发者、研究人员和数据科学家提供加速 AI 功能;系统由头部计算机制造商(包括华硕、Dell Technolog
    的头像 发表于 03-20 18:59 1283次阅读
    NVIDIA GTC2025 亮点  NVIDIA推出 DGX Spark个人<b class='flag-5'>AI</b><b class='flag-5'>计算机</b>

    NVIDIA 宣布推出 DGX Spark 个人 AI 计算机

    台式超级计算机由 NVIDIA Grace Blackwell 驱动,为开发者、研究人员和数据科学家提供加速 AI 功能;系统由头部计算机制造商(包括华硕、Dell Technolog
    发表于 03-19 09:59 504次阅读
       NVIDIA 宣布推出 DGX Spark 个人 <b class='flag-5'>AI</b> <b class='flag-5'>计算机</b>

    AI4S科学研究的超能力时代是否已成必然

    ·帕斯卡发明的加法器(Pascaline)。 帕斯卡发明它的目的,是帮助父亲减少税务计算上的劳作。而此后,二进制和微积分的发明者莱布尼茨加法器的基础上,发明了人类第一台可进行四则运算的机械
    的头像 发表于 01-20 09:10 994次阅读
    <b class='flag-5'>AI</b>4S<b class='flag-5'>科学</b>研究的超能力时代是否已成必然

    NVIDIA推出个人AI超级计算机Project DIGITS

    NVIDIA 推出个人 AI 超级计算机 NVIDIA Project DIGITS,全球的 AI 研究员、数据科学家和学生都可获取 NVIDIA Grace Blackwell 平台
    的头像 发表于 01-08 11:03 1163次阅读

    云端超级计算机使用教程

    云端超级计算机种基于云计算的高性能计算服务,它将大量计算资源和存储资源集中在起,通过网络向
    的头像 发表于 12-17 10:19 963次阅读

    西湖大学:科学家+AI,科研新范式的样本

    研究,创新科研新范式。这一点在西湖大学的科研项目中已得到体现。 成立于2018年的西湖大学是由施公院士领衔创办的、聚焦前沿科学研究的研究型大学,该校鼓励科学家们探索
    的头像 发表于 12-12 15:59 852次阅读
    西湖大学:<b class='flag-5'>科学家</b>+<b class='flag-5'>AI</b>,科研新范式的样本