0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DeepMind开源了一个内部强化学习库TRFL

DPVg_AI_era 来源:未知 作者:李倩 2018-10-19 08:53 次阅读

今天,DeepMind开源了一个内部强化学习库TRFL,用于在TensorFlow中编写强化学习智能体。这个库包含DeepMind开发的大量成功的agent的关键算法组件,对于强化学习智能体的再现研究很有用。

今天,DeepMind开源了一个新的高效的构建模块库,用于在TensorFlow中编写强化学习(RL)智能体。这个库名为TRFL(发音为’truffle’),代表了DeepMind内部用于大量非常成功的agent的关键算法组件集合,如DQN,DDPG和IMPALA(Importance Weighted Actor Learner Architecture)。

一个典型的深度强化学习agent由大量的交互组件组成:至少包括环境(environment)和一些表示价值(value)或策略(policy)的深层网络,但它们通常也包括组件,例如环境的学习模型,伪奖励函数或replay系统。

这些组件通常以微妙的方式相互作用(通常没有在论文中详细记录),因此很难在如此庞大的计算图中识别错误。OpenAI最近发表的一篇博客文章通过分析强化学习智能体的一些最流行的开源实现,凸显了这个问题,他们发现10个实现中有6个“具有社区成员发现并被作者确认的小bug”。

解决这个问题的一种方法是通过开源的完整agent实现,帮助研究社区复现论文的结果。例如,我们最近发布了一种高度可扩展的分布式训练架构IMPALA,使用V-trace agent探索在单个智能体上完成多种任务的挑战。

这些大型agent代码库对于再现研究非常有用,但也很难修改和扩展。一种不同的、互补的方法是提供可靠的、经过良好测试的通用构建块实现,可以在各种不同的RL智能体中使用。此外,通过将这些核心组件抽象到单个库中,使用一致的API,可以更轻松地组合来自许多不同论文的创新想法。

TRFL库包含实现经典RL算法以及更前沿技术的许多函数。这里提供的损失函数和其他操作是在纯TensorFlow中实现的。它们不是完整的算法,而是在构建功能齐全的RL智能体时所需的特定于RL的数学运算实现。

对于value-based的强化学习,我们提供TensorFlow ops 用于在离散动作空间中学习,例如TD-learning,Sarsa, Q-learning及其变体,以及用于实现连续控制算法的操作,例如DPG。

TRFL库还包含用于学习分配价值函数的ops。这些ops支持批处理,并通过将其输入到TensorFlow Optimiser来返回可以最小化的损失。一些损失函数在批转换运行(例如Sarsa,Q-learning......),其他一些损失在多批轨迹上运行(例如Q lambda,Retrace,......)。

对于基于策略的方法,TRFL提供实用程序,可以轻松实现A2C等在线方法,以及支持off-policy纠正技术,如v-trace。TRFL还支持连续动作空间中的策略梯度计算。

最后,TRFL还提供了UNREAL使用的辅助伪奖励函数(pseudo-reward functions)的实现,我们发现它可以提高各个领域的数据效率。

这不是一次性的发布。由于TRFL库在DeepMind内部广泛使用,因此我们将继续维护它,并随着时间的推移添加新功能。我们也渴望得到更广泛的RL社区对这个库的贡献。

TRFL库由DeepMind研究工程团队创建。

开源获取地址:

https://github.com/deepmind/trfl

开源代码

安装

可以使用以下命令从github直接从pip安装TRFL:pip install git+git://github.com/deepmind/trfl.git

TRFL同时适用于TensorFlow的CPUGPU版本,但它没有将Tensorflow列为一个requirement,因此你需要单独安装Tensorflow和Tensorflow-probability。

用例

loss是代表损失的张量。对于Q-learning,它是预测的Q-values和TD targets之间的平方差的一半。

额外信息位于q_learning命名元组中,包括q_learning.td_error和q_learning.target。

大多数情况下,你可能只对loss感兴趣:

该模块中的所有损失函数使用上述约定返回损失张量和额外信息。

不同的函数可能有不同的额外字段。有关更多信息,请查看每个函数的文档。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 智能体
    +关注

    关注

    1

    文章

    111

    浏览量

    10421
  • 强化学习
    +关注

    关注

    4

    文章

    259

    浏览量

    11113
  • DeepMind
    +关注

    关注

    0

    文章

    126

    浏览量

    10708

原文标题:DeepMind开源强化学习库TRFL,关键算法可编写RL智能体

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是强化学习

    强化学习是机器学习的方式之一,它与监督学习、无监督学习并列,是三种机器学习训练方法之一。 在围棋上击败世界第一李世石的 AlphaGo、在《
    的头像 发表于 10-30 11:36 1603次阅读
    什么是<b class='flag-5'>强化学习</b>

    NeurIPS 2023 | 扩散模型解决多任务强化学习问题

    扩散模型(diffusion model)在 CV 领域甚至 NLP 领域都已经有了令人印象深刻的表现。最近的一些工作开始将 diffusion model 用于强化学习(RL)中来解决序列决策问题
    的头像 发表于 10-02 10:45 444次阅读
    NeurIPS 2023 | 扩散模型解决多任务<b class='flag-5'>强化学习</b>问题

    GPT-5正秘密训练!DeepMind联创爆料,这模型比GPT-4大100倍

    另外,采访中,Suleyman还爆出了很多自己在DeepMind和Inflection AI工作时的内部信息,包括了谷歌当时收购DeepMind和之后的抓马,某种程度上解释了为什么DeepMi
    的头像 发表于 09-04 16:28 458次阅读
    GPT-5正秘密训练!<b class='flag-5'>DeepMind</b>联创爆料,这模型比GPT-4大100倍

    模拟矩阵在深度强化学习智能控制系统中的应用

    讯维模拟矩阵在深度强化学习智能控制系统中的应用主要是通过构建一个包含多种环境信息和动作空间的模拟矩阵,来模拟和预测深度强化学习智能控制系统在不同环境下的表现和效果,从而优化控制策略和提高系统的性能
    的头像 发表于 09-04 14:26 326次阅读
    模拟矩阵在深度<b class='flag-5'>强化学习</b>智能控制系统中的应用

    开源三方】bignumber.js:大数数学

    OpenHarmony应用。如果是发布到开源社区,称为开源三方,开发者可以通过访问开源社区获取。接下来我们来了解bignumber.js开源
    发表于 08-21 16:37

    语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路

    在智能体的开发中,强化学习与大语言模型、视觉语言模型等基础模型的进一步融合究竟能擦出怎样的火花?谷歌 DeepMind 给了我们新的答案。 一直以来,DeepMind 引领了强化学习
    的头像 发表于 07-24 16:55 331次阅读
    语言模型做先验,统一<b class='flag-5'>强化学习</b>智能体,<b class='flag-5'>DeepMind</b>选择走这条通用AI之路

    基于强化学习的目标检测算法案例

    摘要:基于强化学习的目标检测算法在检测过程中通常采用预定义搜索行为,其产生的候选区域形状和尺寸变化单一,导致目标检测精确度较低。为此,在基于深度强化学习的视觉目标检测算法基础上,提出联合回归与深度
    发表于 07-19 14:35 0次下载

    45. 5 2 强化学习(深度强化学习) #硬声创作季

    机器学习
    充八万
    发布于 :2023年07月07日 01:56:26

    什么是深度强化学习?深度强化学习算法应用分析

    什么是深度强化学习? 众所周知,人类擅长解决各种挑战性的问题,从低级的运动控制(如:步行、跑步、打网球)到高级的认知任务。
    发表于 07-01 10:29 1183次阅读
    什么是深度<b class='flag-5'>强化学习</b>?深度<b class='flag-5'>强化学习</b>算法应用分析

    人工智能强化学习开源分享

    电子发烧友网站提供《人工智能强化学习开源分享.zip》资料免费下载
    发表于 06-20 09:27 1次下载
    人工智能<b class='flag-5'>强化学习</b><b class='flag-5'>开源</b>分享

    利用强化学习来探索更优排序算法的AI系统

    前言 DeepMind 最近在 Nature 发表了一篇论文 AlphaDev[2, 3],一个利用强化学习来探索更优排序算法的AI系统。 AlphaDev 系统直接从 CPU 汇编指令的层面入手
    的头像 发表于 06-19 10:49 390次阅读
    利用<b class='flag-5'>强化学习</b>来探索更优排序算法的AI系统

    它发现了更快的排序算法,速度快 70%

    这一次,Google DeepMind 的全新强化学习系统 AlphaDev 发现了一种比以往更快的哈希算法,这是计算机科学领域中的一种基本算法,AI 的成果现已被纳入 LLVM 标准 C++ 库 Abseil 并开源
    的头像 发表于 06-12 14:46 353次阅读
    它发现了更快的排序算法,速度快 70%

    基于深度强化学习的视觉反馈机械臂抓取系统

    机械臂抓取摆放及堆叠物体是智能工厂流水线上常见的工序,可以有效的提升生产效率,本文针对机械臂的抓取摆放、抓取堆叠等常见任务,结合深度强化学习及视觉反馈,采用AprilTag视觉标签、后视经验回放机制
    的头像 发表于 06-12 11:25 1379次阅读
    基于深度<b class='flag-5'>强化学习</b>的视觉反馈机械臂抓取系统

    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出强化学习专用稀疏训练框架RLx2

    大模型时代,模型压缩和加速显得尤为重要。传统监督学习可通过稀疏神经网络实现模型压缩和加速,那么同样需要大量计算开销的强化学习任务可以基于稀疏网络进行训练吗?本文提出了一种强化学习专用稀疏训练框架
    的头像 发表于 06-11 21:40 398次阅读
    ICLR 2023 Spotlight|节省95%训练开销,清华黄隆波团队提出<b class='flag-5'>强化学习</b>专用稀疏训练框架RLx2

    彻底改变算法交易:强化学习的力量

    强化学习(RL)是人工智能的一个子领域,专注于决策过程。与其他形式的机器学习相比,强化学习模型通过与环境交互并以奖励或惩罚的形式接收反馈来学习
    发表于 06-09 09:23 367次阅读