0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GAN新手必读:如何将将GAN应用于NLP(论文笔记)

电子工程师 来源:未知 作者:佚名 2017-11-22 09:43 次阅读

作者:MirandaYang

GAN 自从被提出以来,就广受大家的关注,尤其是在计算机视觉领域引起了很大的反响。“深度解读:GAN模型及其在2016年度的进展”[1]一文对过去一年GAN的进展做了详细介绍,十分推荐学习GAN的新手们读读。这篇文章主要介绍GAN在NLP里的应用(可以算是论文解读或者论文笔记),并未涉及GAN的基本知识 (没有GAN基础知识的小伙伴推荐先看[1],由于本人比较懒,就不在这里赘述GAN的基本知识了J)。由于很长时间没有写中文文章了,请各位对文章中不准确的地方多多包涵、指教。

虽然GAN在图像生成上取得了很好的成绩,GAN并没有在自然语言处理(NLP)任务中取得让人惊喜的成果。 其原因大概可以总结为如下几点:

  • 原始GAN主要应用实数空间(连续型数据)上,在生成离散数据(texts)这个问题上并不work。GAN 理论的提出者Ian Goodfellow 博士这样回答来这个问题问题:“GANs 目前并没有应用到自然语言处理(NLP)中,最初的 GANs 仅仅定义在实数领域,GANs 通过训练出的生成器来产生合成数据,然后在合成数据上运行判别器,判别器的输出梯度将会告诉你,如何通过略微改变合成数据而使其更加现实。一般来说只有在数据连续的情况下,你才可以略微改变合成的数据,而如果数据是离散的,则不能简单的通过改变合成数据例如,如果你输出了一张图片,其像素值是1.0,那么接下来你可以将这个值改为1.0001。如果输出了一个单词“penguin”,那么接下来就不能将其改变为“penguin + .001”,因为没有“penguin +.001”这个单词。 因为所有的自然语言处理(NLP)的基础都是离散值,如“单词”、“字母”或者“音节”, NLP 中应用 GANs是非常困难的。一般而言,采用增强学习算法。目前据我所知,还没有人真正的开始研究利用增强算法解决 NLP 问题。”

  • 在生成text时,GAN对整个文本序列进行建模打分。对于部分(partially)生成的序列,十分难判断其在之后生成整个 (fully) 序列时的分数。

  • 另一个潜在的挑战涉及RNN的性质(生成文本大多采用RNN模型)。假设我们试图从latent codes生成文本,error就会随着句子的长度成指数级的累积。最开始的几个词可能是相对合理的,但是句子质量会随着句子长度的增加而不断变差。另外,句子的长度是从随机的latent representation生成的,所以句子长度也是难以控制。

下面我将主要介绍和分析最近阅读过的将GAN应用于NLP中的一些论文:

1. Generating Text via Adversarial Training

  • 论文链接:

    http://people.duke.edu/~yz196/pdf/textgan/paper.pdf

  • 这是2016年的 NIPS GAN Workshop 上的一篇论文, 尝试将 GAN 理论应用到了文本生成任务上。 文中的方法比较简单,具体可以总结为:

  • 以递归神经网络(LSTM)作为GAN的生成器(generator)。其中,用光滑近似(smooth approximation)的思路来逼近 LSTM 的输出。结构图如下:

  • 本文的目标函数和原始GAN有所不同,文中采用了feature matching的方法 。迭代优化过程包含以下两个步骤:

其中式 (6) 为标准GAN的优化函数,式 (7) 为feature matching的优化函数。

  • 本文的初始化非常有意思,特别是在判别器的预训练方面,利用原始的句子和该句子中交换两个词的位置后得到的新句子进行判别训练。(在初始化的过程中,运用逐点分类损失函数对判别器进行优化)。这非常有意思,因为将两个单词互换位置,输入的数据信息实际上是基本相同的。比如,大多数卷积计算最终会得出完全相同的值。

  • 本文生成器的更新频率是判别器的更新频率的5倍,这与原始GAN的设定恰好相反。这是因为LSTM比CNN的参数更多,更难训练。

  • 然而,本文生成模型 (LSTM) decode阶段有exposure bias问题,即在训练过程中逐渐用预测输出替代实际输出作为下一个词的输入。

2. SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

  • 论文链接:

    https://arxiv.org/pdf/1609.05473.pdf

  • 论文源码:

    https://github.com/LantaoYu/SeqGAN

  • 文本将误差作为一种增强学习的奖励,以一种前馈的方式训练,用增强的学习的探索模式去更新G网络

  • 主要内容:这篇论文将序列生成过程当作一个sequential decision making过程。如下图:

(a) 其中左图为GAN网络训练的步骤1,判别器D主要用来区分真实样本和伪造样本,这里的判别器D是用CNN来实现的。

(b) 右图为GAN网络训练的步骤2, 根据判别器D回传的判别概率回传给生成器G,通过增强学习的方法来更新生成器G,这里的的生成器G是用LSTM来实现的.

(c) 因为G网络的更新策略是增强学习,增强学习的四个要素state, action, policy, reward分别为:state 为现在已经生成的tokens (当前timestep之前LSTM decoder的结果), action是下一个即将生成的token (当前解码词), policy为GAN的生成器G网络,reward为GAN的判别器D网络所生成的判别概率。其中,reward采用以下方法来近似:

本过程特点:即当解码到t时,即对后面T-t个timestep采用蒙特卡洛搜索搜索出N条路径,将这N条路径分别和已经decode的结果组成N条完整输出,然后将D网络对应奖励的平均值作为reward. 因为当t=T时无法再向后探索路径,所以直接以完整decode结果的奖励作为reward。

(d) 对于RL部分,本文采用了policy gradient方法。 根据policy gradient理论,生成器G的目标函数可以表示如下:

求导结果为: (详细推导过程请看原论文附页)

(e) 每隔一段时间,当生成更多的更逼真的句子后,重新训判别器D,其中判别器的目标函数表示如下:

算法结构图可以表示为如下:

  • 实验

实验部分主要分为合成数据实验和现实数据实验。

(a) 合成数据实验: 随机初始一个LSTM生成器A,随机生成一部分训练数据,来训练各种生成模型.

评判标准为:负对数似然(交叉熵) NLL. 详细实验设置可以参看原论文。

(b) 现实数据实验:主要展示中文诗句生成,奥巴马演讲生成,音乐生成的结果。实验数据分别为中文诗歌数据集 (16,394首绝句),奥巴马演讲数据集 (11,092 段落), Nottingham音乐数据集 (695首歌)。评测方法为BLEU score, 实验结果如下:

文中并未展示模型生成的诗歌等, 具体效果如何?

3. Adversarial Learning for Neural Dialogue Generation

  • 论文链接:

    https://arxiv.org/pdf/1701.06547.pdf

  • 论文源码:

    https://github.com/jiweil/Neural-Dialogue-Generation

  • 这篇论文是2017年1月26号上传到arxiv上的,属于最新的GAN用于NLP的论文。文中主要用对抗性训练 (adversarial training) 方法来进行开放式对话生成 (open-domain dialogue generation)。文中把这项任务作为强化学习(RL)问题,联合训练生成器和判别器。和SeqGAN一样,本文也是使用判别器D的结果作为RL的reward部分,这个reward用来奖励生成器G,推动生成器G产生的对话类似人类对话。

  • 总体来说,本文的思路和SeqGAN是大体一样的,但是有几处不同和改进的地方:

(a) 因为本文是用于开放式对话生成,所以文中的生成器采用seq2seq模型 (而非普通的LSTM模型)。 判别器则采用了hierarchical encoder (而非CNN)。

(b) 采取了两种方法为完全生成或者部分生成的序列计算reward。除了 Monte Carlo search (与SeqGAN相似) 方法,本文新提出了一个能对部分生成的序列进行reward计算的方法。使用所有完全 (fully) 和部分 (partially) 解码的序列来训练判别器会造成overfitting。早期产生的部分(partially)序列会出现在许多的训练数据中,比如生成的第一个token y_1将会出现在所有的部分生成 (partially generated) 的序列里。所以本文提出仅仅分别从正(positive)序列 y+ 和负(negative)序列y-的每个子序列中随机地选取一个 sample来训练判别器D。这个方法比Monte Carlo search更快速,但是也会使得判别器更弱,更不准确。

(c) 在SeqGAN中,生成器只能间接的通过判别器生成的reward来奖励或者惩罚自己所产生的序列。而不能直接从 gold-standard序列中直接获取信息。 这种训练方式是脆弱的,一旦生成器在某个训练batch中变坏,判别器将会很容易对生成的句子进行判断 (比如reward为0 ),此时生成器就会迷失。生成器只知道现在生成的句子是坏的,但是并不知道如何调整才能使得生成的句子变好。为了解决这个问题,在生成器的更新过程中,本文输入了human-generated responses。对于这些human-generated responses, 判别器可以将其reward设置为1。这样生成器可以在上述情况下仍能生成好的responses。

(d) 训练过程中,有些针对dialogue system的设置(trick)。这部分内容,读者可以参考Jiwei Li之前的关于dialogue system的论文。

  • 部分实验结果:

  • 值得思考的地方:文中只尝试用判别器的结果作为reward, 结合 原文作者之前在dialogue system文中提出的其他reward机制(e.g., mutual information)会不会提高效果?

4. GANs for sequence of discrete elements with the Gumbel-softmax distribution

  • 论文链接:

    https://arxiv.org/pdf/1611.04051.pdf

  • 相比前面两篇论文,本文在处理离散数据这个问题上则比较简单暴力。离散数据 (用one-hot方法表示)一般可以从多项式采样取得,例如由softmax函数的输出p = softmax(h)。 根据之前的概率分布,以p的概率进行采样y的过程等价于:y=one_hot(argmax_i(h_i+g_i)) , 其中g_i是服从Gumbel distribution (with zero location and unit scale)。然而one_hot(argmax(.)) 是不可微分的。与原始GAN不同,作者提出了一种方法来近似上面的式子: y = softmax(1/ r (h + g))。这个公式是可以微分的。算法结构如下:

  • 本文的实验部分做得比较粗糙,只展示了生成得context-free grammar, 并未在生成其他文本数据上做实验。

  • 总的来说,这篇论文本身方法还值得改进,也可以值得借鉴下。

5. Connecting generative adversarial network and actor-critic methods

  • 论文链接:

    https://arxiv.org/pdf/1610.01945.pdf

  • Actor-critic methods [2]: 许多RL方法 (e.g., policy gradient) 只作用于policy 或者 value function。Actor-critic方法则结合了policy-only和value function-only 的方法。 其中critic用来近似或者估计value function,actor 被称为policy structure, 主要用来选择action。Actor-critic是一个on-policy的学习过程。Critic模型的结果用来帮助提高actor policy的性能。

  • GAN和actor-critic具有许多相似之处。Actor-critic模型中的actor功能类似于GAN中的generator, 他们都是用来take an action or generate a sample。Actor-critic模型中的critic则类似于GAN中的discriminator, 主要用来评估 actor or generator 的输出。具体的相同和不同点,感兴趣的朋友可以仔细阅读原文。

  • 这篇论文主要贡献在于从不同的角度来说明了GAN和actor-critic模型的相同与不同点,从而鼓励研究GAN的学者和研究actor-critic模型的学者合作研发出通用、稳定、可扩展的算法,或者从各自的研究中获取灵感。

  • 最近Bahdanau等大神提出了用actor-critic模型来进行sequence prediction [3]。虽然[3]中并没有用到GAN,或许对各位能有启发。 用类似的思想,GAN在sequence prediction上也许也能取得的比较好的效果?

[1] 深度解读:GAN模型及其在2016年度的进展

[2] Actor-Critic Algorithms

[3] An actor-critic algorithm for sequence prediction


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • GaN
    GaN
    +关注

    关注

    19

    文章

    1759

    浏览量

    67755
  • nlp
    nlp
    +关注

    关注

    1

    文章

    463

    浏览量

    21813

原文标题:干货|GAN for NLP (论文笔记及解读)

文章出处:【微信号:DatamingHacker,微信公众号:深度学习与数据挖掘实战】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GaN已为数字电源控制做好准备

    更多是数字电源控制已准备好迎接GaN。因此,随着GaN继续开发,并应用于高密度和高性能电源解决方案,我们不必等待开发控制器时要借助GaN带给行业的优势。因此,这就是“准备就绪”的含义:
    发表于 08-30 15:05

    GaN可靠性的测试

    客户将把GaN用于电源转换,因此,硬开关转换是一个与应用相关的基本事件。较之预烧板合格标准,这产生了迥然不同的应力,如白皮书中图3、图4所示。因此,我们已开发出一种符合JEDEC标准的测试工具(如图1
    发表于 09-10 14:48

    如何将约束应用于设计

    我是FPGA新手,我想了解如何将约束应用于设计。请帮助我以上来自于谷歌翻译以下为原文i am new to FPGA, i want to have knowledge about applying constraintsto
    发表于 01-08 10:07

    未找到GaN器件

    您好,有人能告诉我如何在原理图窗口中添加GaN器件,因为当我在ADS的原理图窗口中搜索它时,它只显示GaAs,JFET和BJT器件。我想做一个功率放大器模拟,我需要一个GaN器件。请提出你的建议
    发表于 01-17 15:55

    基于GaN的开关器件

    。这些优势正是当下高功耗高密度系统、服务器和计算机所需要的,可以说专家所预测的拐点已经到来!时下,多个厂商正在大量的生产GaN器件,这些GaN器件正在被应用于工业、商业甚至要求极为严格的汽车领域的电力
    发表于 06-21 08:27

    不同衬底风格的GaN之间有什么区别?

    氮化镓(GaN)这种宽带隙材料将引领射频功率器件新发展并将砷化镓(GaAs)和LDMOS(横向扩散金属氧化物半导体)器件变成昨日黄花?看到一些媒体文章、研究论文、分析报告和企业宣传文档后你当然会这样
    发表于 07-31 07:54

    SiC/GaN具有什么优势?

    基于SiC/GaN的新一代高密度功率转换器SiC/GaN具有的优势
    发表于 03-10 08:26

    什么是GaN?如何面对GaN在测试方面的挑战?

    什么是GaN?如何面对GaN在测试方面的挑战?
    发表于 05-06 07:52

    GaN和SiC区别

    的主要原因。系统封装配置有助于降低EMI,例如三维空间。利用多层PCB技术和表面贴装技术(SMT)组件的布局。 可以使用导电材料的屏障来阻挡EMI。通常将此屏蔽应用于外壳以将电气设备与其周围环境隔离
    发表于 08-12 09:42

    GaN在开关速度方面的优势

    价值的市场分析。很难弄明白GaN参与者在开发过程中所起的作用,因此这些更新信息仅供参考。市场分析结束后之后,我们接着讨论了Ionel Dan Jitaru所做的一个电力转换性能分析。我并没有看出它与2013 APEC上提交的论文有多大区别,但
    发表于 11-16 08:05

    笔记本电脑认识(新手必读手册)

    笔记本电脑认识(新手必读手册)  眼下买笔记本的人是越来越多,这其中也不乏第一次接触笔记本电脑的新手
    发表于 02-23 15:22 3359次阅读

    光耦新手入门必读下篇

    光耦新手入门必读下篇
    发表于 07-21 10:08 1574次阅读

    应用于高密度电源设计的GaN半导体材料

    GaN产品应用于可靠和高密度电源的设计
    的头像 发表于 08-16 00:55 2845次阅读

    必读!生成对抗网络GAN论文TOP 10

    这篇 GAN 论文来自 NVIDIA Research,提出以一种渐进增大(progressive growing)的方式训练 GAN,通过使用逐渐增大的 GAN 网络(称为 PG-
    的头像 发表于 03-20 09:02 6238次阅读
    <b class='flag-5'>必读</b>!生成对抗网络<b class='flag-5'>GAN</b><b class='flag-5'>论文</b>TOP 10

    论文研究氮化镓GaN功率集成技术.zip

    论文研究氮化镓GaN功率集成技术
    发表于 01-13 09:07 3次下载