0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌推出新的基于Tensorflow的强化学习框架,称为Dopamine

DPVg_AI_era 来源:未知 作者:李倩 2018-08-31 09:20 次阅读

今天,谷歌宣布推出一个新的基于Tensorflow的强化学习框架,称为Dopamine,旨在为强化学习研究人员提供灵活性、稳定性和可重复性。这个强大的新框架或将推动强化学习研究取得根本性的新突破。

最近OpenAI在Dota 2上的表现,让强化学习又大大地火了一把,但是OpenAI的强化学习训练环境OpenAI Gym却一直遭到不少抱怨,比如不太稳定、更新没有及时……

今天,谷歌宣布开源基于TensorFlow的强化学习框架——Dopamine,代码现在就能在Github查看。

谷歌研究人员表示,他们开源的这个TensorFlow强化学习框架强调三点:灵活、稳定和可重复性(reproducibility)。

为此,配套开源的还包括一个专用于视频游戏训练结果的平台,以及四种不同的机器学习模型:DQN、C51、简化版的Rainbow智能体和IQN(Implicit Quantile Network)。

为了实现可重复性,Github代码包括Arcade Learning Environment支持的全部60个游戏的完整测试和训练代码,并遵循标准化经验评估结果的最佳实践。

除了开源这个增强学习框架,谷歌还推出了一个网站,允许开发人员将多个训练中智能体的运行情况快速可视化。其他还有训练好的模型、原始统计日志和TensorFlow event files,用于TensorBoard动态图的绘制。

Dopamine框架:灵感来自大脑的多巴胺受体

强化学习(RL)研究在过去几年取得了许多重大进展。强化学习的进步使得AI智能体能够在一些游戏上超过人类,值得关注的例子包括DeepMind攻破Atari游戏的DQN,在围棋中获得瞩目的AlphaGo和AlphaGo Zero,以及在Dota2对战人类职业玩家的Open AI Five。

具体来说,在DQN中引入重放记忆(replay memories)可以利用先前agent的经验,大规模的分布式训练可以在多个workers之间分配学习过程,分布式的方法允许agent建模完整的分布,而不仅仅是建模它们的期望值,从而能够学习更完整的世界。

这类进展非常重要,因为产生这些进展的算法也适用于其他领域,例如机器人技术。

通常,实现这类进展需要快速的迭代设计——通常没有明确的方向——并破坏既定方法的结构。然而,大多数现有的RL框架不能同时提供灵活性和稳定性,研究人员难以有效地迭代RL方法,进而探索新的研究方向,虽然这些新研究方向可能不会立即带来明显的好处。此外,从现有框架中复制结果常常太耗时,这可能导致后续的科学再现性问题。

今天,谷歌宣布推出一个新的基于Tensorflow的框架,称为Dopamine,旨在为RL研究人员提供灵活性、稳定性和可重复性。

这个平台的灵感来自于大脑中奖励动机行为的主要组成部分之一(多巴胺受体,dopamine receptor),这反映了神经科学和强化学习研究之间强大的历史联系,它的目的是使这种推测性的研究能够推动根本性的发现。开源框架还包含一组colabs,说明如何使用这个框架。

易用性

清晰和简洁是这个框架设计中的两个关键考虑因素。谷歌提供了紧凑的代码(大约15个Python files),并且有详细的文档记录。这是通过专注于Arcade Learning环境(一个成熟的、易于理解的baseline)和4个value-based的agent来实现的,分别是:DQN, C51,Rainbow agent的一个简化版本,以及Implicit Quantile Network agent,这是上个月刚在ICML大会上发表的。这种简单性能帮助研究人员更容易理解agent的内部工作原理,并快速尝试新的想法。

可重复性

谷歌尤其重视强化学习研究的可重复性(reproducibility)。他们为代码提供了完整的测试覆盖率;这些测试还可以作为文档的附加形式。此外,他们的实验框架遵循Machado et al. (2018)给出的建议,使用街机学习环境(Arcade Learning Environment)进行标准化经验评估。

基准测试

对于新的研究人员来说,能够快速地将他们的想法与已有的方法进行对比是很重要的。因此,我们在Arcade Learning Environment支持的60款游戏中提供了4个agent的完整训练数据,这些数据可以作为Python pickle文件(用于通过我们的框架训练的agent)和JSON数据文件(用于与在其他框架中训练的agent进行比较);此外,谷歌还开放了一个网站,在上面可以快速地查看所有60款游戏提供的agent的可视化训练运行。

下图是4个agent在Seaquest上的训练,这是Arcade Learning Environment支持的Atari 2600游戏之一。

在Seaquest上,4个agent进行了训练。x轴表示迭代,其中每次迭代是100万帧(4.5小时的实时游戏); y轴表示每场游戏获得的平均分数。阴影区域显示了5次独立运行的置信区间。

谷歌还提供了来自这些agent的训练好的深度网络、原始统计日志以及用于使用Tensorboard绘图的Tensorflow事件文件。这些都可以在官网下载

开源获取地址:

https://github.com/google/dopamine

其他主要强化学习框架

OpenAI Gym

2016 年 4 月 28 日,OpenAI 对外发布了强化学习开发平台 OpenAI Gym。Gym 平台的基本理念是,研究者建立自己的算法后,可以把该算法置于不同的环境中进行测试,然后把测试后的基本算法发布在 Gym 的平台上,让社区中的其他人看到。该平台现在已经与一些开放资源人工智能工具,例如谷歌的 TensorFlow 展开合作。

在OpenAI Gym上训练强化学习agent

OpenAI Gym 是一款用于研发和比较强化学习算法的工具包,它支持训练智能体(agent)做任何事——从行走到玩Pong或围棋之类的游戏,都在范围中。

OpenAI Universe

2016 年 12 月,OpenAI发布 OpenAI Universe。 根据其官方博客的介绍,这是一个能在几乎所有环境中衡量和训练 AI 通用智能水平的开源平台,当下的目标是让 AI 智能体能像人一样使用计算机。目前,Universe 已经有 1000 种训练环境,由微软、英伟达公司参与建设。

Universe AI训练平台

Universe 通过一个通用的接口适用于各种场景:智能体通过捕捉屏幕的像素生成对键盘和鼠标的命令来操作远程桌面。场景需要 VNC 服务器,universe 库将智能体转换为 VNC 客户端。

OpenAI Gym Retro

这是OpenAI开源的用于游戏研究的完整版强化学习平台 Gym Retro,支持的游戏从大约 70 多个Atari游戏和 30 多个世嘉游戏扩展到各种仿真器支持的 1000 多个游戏。

Gym Retro支持1000多个游戏

Gym Retro 用于研究强化学习算法及其泛化。RL 之前的研究主要集中在优化 Agent 解决单个任务上。通过 Gym Retro,我们可以研究内部概念相似但外观表现不同的游戏之间泛化的能力。

DeepMind Lab

就在OpenAI 刚刚宣布开源 Universe平台后,DeepMind 也宣布将其 AI 核心平台 DeepMind Lab 开源。该平台将几个不同的 AI 研究领域整合至一个环境下,方便研究人员测试 AI 智能体的导航、记忆和 3D 成像等能力。

DeepMind Lab

DeepMind Lab 是一个专为基于智能体的 AI 研究设计的,完全像 3D 游戏般的平台。它从自己的视角,通过模拟智能体的眼睛进行观察。场景呈现的视觉效果是科幻风格。可用的操作能让智能体环顾四周,并且以 3D 的形式移动。示例任务包括收集水果、走迷宫、穿越危险的通道且要避免从悬崖上坠落、使用发射台在平台间穿越、玩激光笔、以及快速学习并记住随机生成的环境。

阿里Gym StarCraft

阿里去年开源了针对星际AI的研究平台Gym StarCraft。在 Gym StarCraft 中,AI 和强化学习研究者可以非常方便地使用 Python 语言来进行深度强化学习智能 Agent 的开发,它底层完成了对 TorchCraft 和 OpenAI Gym 的封装,支持基于 TensorFlow 和 Keras 等主流算法框架进行开发,仅需几十行代码即可完成一个基本的智能 Agent 的开发。

同时,为了便于评测智能 Agent 的有效性,Gym StarCraft 被集成在了 OpenAI Gym 这一主流的强化学习 AI 评测平台中,支持世界各地的星际 AI 研究者基于它去进行公平、快捷的效果评估。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5852

    浏览量

    103246
  • 强化学习
    +关注

    关注

    4

    文章

    259

    浏览量

    11113

原文标题:谷歌用“多巴胺”怼上OpenAI,开源TensorFlow强化学习框架

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    谷歌模型框架是什么软件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌开发的用于机器学习和人工智能的软件框架,其中最著名的是TensorFlow
    的头像 发表于 03-01 16:25 230次阅读

    谷歌模型框架是什么?有哪些功能和应用?

    谷歌模型框架(Google Model Framework)并不是一个特定的框架,而是指谷歌开发的一系列软件框架,用于支持机器
    的头像 发表于 02-29 18:11 659次阅读

    什么是强化学习

    强化学习是机器学习的方式之一,它与监督学习、无监督学习并列,是三种机器学习训练方法之一。 在围棋上击败世界第一李世石的 AlphaGo、在《
    的头像 发表于 10-30 11:36 1628次阅读
    什么是<b class='flag-5'>强化学习</b>

    iTOP-RK3588开发板使用 tensorflow框架

    TensorFlow 是一个软件库或框架,由 Google 团队设计,以最简单的方式实现机器学习和深度学习概念。它结合了优化技术的计算代数,便于计算许多数学表达式。
    发表于 10-08 10:04

    NeurIPS 2023 | 扩散模型解决多任务强化学习问题

    扩散模型(diffusion model)在 CV 领域甚至 NLP 领域都已经有了令人印象深刻的表现。最近的一些工作开始将 diffusion model 用于强化学习(RL)中来解决序列决策问题
    的头像 发表于 10-02 10:45 447次阅读
    NeurIPS 2023 | 扩散模型解决多任务<b class='flag-5'>强化学习</b>问题

    模拟矩阵在深度强化学习智能控制系统中的应用

    讯维模拟矩阵在深度强化学习智能控制系统中的应用主要是通过构建一个包含多种环境信息和动作空间的模拟矩阵,来模拟和预测深度强化学习智能控制系统在不同环境下的表现和效果,从而优化控制策略和提高系统的性能
    的头像 发表于 09-04 14:26 327次阅读
    模拟矩阵在深度<b class='flag-5'>强化学习</b>智能控制系统中的应用

    深度学习框架对照表

    的深度学习框架,并对它们进行对比。 1. TensorFlow TensorFlow是由Google Brain团队开发的一款深度学习
    的头像 发表于 08-17 16:11 488次阅读

    深度学习算法库框架学习

    深度学习算法库框架的相关知识点以及它们之间的比较。 1. Tensorflow Tensorflow是Google家的深度学习
    的头像 发表于 08-17 16:11 433次阅读

    深度学习框架tensorflow介绍

    深度学习框架tensorflow介绍 深度学习框架TensorFlow简介 深度
    的头像 发表于 08-17 16:11 1424次阅读

    语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路

    在智能体的开发中,强化学习与大语言模型、视觉语言模型等基础模型的进一步融合究竟能擦出怎样的火花?谷歌 DeepMind 给了我们新的答案。 一直以来,DeepMind 引领了强化学习(RL)智能
    的头像 发表于 07-24 16:55 331次阅读
    语言模型做先验,统一<b class='flag-5'>强化学习</b>智能体,DeepMind选择走这条通用AI之路

    基于强化学习的目标检测算法案例

    摘要:基于强化学习的目标检测算法在检测过程中通常采用预定义搜索行为,其产生的候选区域形状和尺寸变化单一,导致目标检测精确度较低。为此,在基于深度强化学习的视觉目标检测算法基础上,提出联合回归与深度
    发表于 07-19 14:35 0次下载

    什么是深度强化学习?深度强化学习算法应用分析

    什么是深度强化学习? 众所周知,人类擅长解决各种挑战性的问题,从低级的运动控制(如:步行、跑步、打网球)到高级的认知任务。
    发表于 07-01 10:29 1184次阅读
    什么是深度<b class='flag-5'>强化学习</b>?深度<b class='flag-5'>强化学习</b>算法应用分析

    人工智能强化学习开源分享

    电子发烧友网站提供《人工智能强化学习开源分享.zip》资料免费下载
    发表于 06-20 09:27 1次下载
    人工智能<b class='flag-5'>强化学习</b>开源分享

    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架RLx2

    大模型时代,模型压缩和加速显得尤为重要。传统监督学习可通过稀疏神经网络实现模型压缩和加速,那么同样需要大量计算开销的强化学习任务可以基于稀疏网络进行训练吗?本文提出了一种强化学习专用稀疏训练
    的头像 发表于 06-11 21:40 399次阅读
    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出<b class='flag-5'>强化学习</b>专用稀疏训练<b class='flag-5'>框架</b>RLx2

    彻底改变算法交易:强化学习的力量

    强化学习(RL)是人工智能的一个子领域,专注于决策过程。与其他形式的机器学习相比,强化学习模型通过与环境交互并以奖励或惩罚的形式接收反馈来学习
    发表于 06-09 09:23 367次阅读