0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文带你了解RNN、LTSM、Seq2Seq、Attention机制

智能生物识别说 来源:快商通AI 作者:快商通AI 2021-09-27 18:03 次阅读

上一章我们详细介绍了小样本做文本分类中的胶囊网络,那么这一章我们就来看看RNN(循环神经网络)。大神们准备好了吗,我们要发车了~

首先就是我们为什么需要RNN?

举个简单的例子,最近娱乐圈顶流明星吴亦凡又出新瓜,大家都吃了咩?(反正小编吃的很饱哈)那么就以我 吃 瓜为例,三个单词标注词性为 我/nn 吃/v 瓜/nn。

那么这个任务的输入就是:

我 吃 瓜 (已经分词好的句子)

这个任务的输出是:

我/nn 吃/v 瓜/nn(词性标注好的句子)

很明显,一个句子中,前一个单词其实对于当前单词的词性预测是有很大影响的,比如预测“瓜”的时候,由于前面的吃是一个动词,那么很显然“瓜”作为名词的概率就会远大于动词的概率,因为动词后面接名词很常见,而动词后面接动词很少见。

所以为了更好的处理序列的信息,解决一些这样类似的问题,我们的RNN就诞生了。

rnn的结构和原理

看完初步的概念我们来深入一点看看RNN的结构和原理。rnn的结构和原理

pYYBAGC4meiAAdlHAABjM2jJoEw935.jpg

刚开始看到这幅图的同学会不会有一点懵懵?没关系,我们来带着解释一遍~

首先通过这副图,就能明白RNN的意义就是每个输出的状态都只由前一时刻的状态和当前时刻的输入来决定。从等式左边的一个环绕箭头就能明白参数是共享的。

一个序列的每个词就是每个时间步,每个词都会对应得到一个hidden_state,并将这个隐藏层状态输入下一个时间步。

最终会得到output和hidden,output是每一步运算的输出,因此output=(seqence_len, batch_size, hidden_size)。hidden_state是每一步的输出,当然有参数来控制可以取最后一步的输出,所以RNN中一般output=hidden。

lstm的结构和原理

聊完一圈RNN之后,我们来看看它的变种兄弟-LSTM吧!

别慌,我说的不是变种成僵尸的那种东东,Lstm为长短期记忆,是在RNN的基础上引入了细胞状态,根据细胞状态可决定哪些状态应该保留下来,哪些状态应该被遗忘,可以在一定程度上解决梯度消失问题。

那么为了能够学习序列关系的长期依赖,Lstm的输出和rnn一样都包含output和hidden,除此之外还有一个cell_state,这个就是学习序列信息lstm与rnn的差异。

在lstm里面理解的就是用“门”结构,来选择信息通过,关键是用了$sigmoid(\cdot)$函数来区分趋于0的和趋于1的特征数据。

遗忘门:通过$f_t=\sigma(W_f \cdot[h_{t-1},x_t] + b_f)$ 来判断隐藏层信息的取舍。

输入门:

poYBAGC4meWADv9WAAAccVYUC9w682.jpg

通过$\tanh(\cdot)$,来将隐藏层状态映射到(-1,1)最后来更新$C_{t-1}$ 到$C_t $

输出门:

pYYBAGC4meyAMy7aAAAWL7NbiQI218.jpg

会发现$f_t、i_t、o_t$的构成是一致的。但是通过不同的权重来学习。因此优化lstm是将遗忘门和输入门合并成了一个更新门,这就是GRU:

可以理解为主要分为两部分,第一部分:

pYYBAGC4me2AOoxXAAASZqSshqY694.jpg

$z_t$表示更新向量,$r_t$表示重置向量,于是在接下来就能够考虑$r_t$与$h_{t-1}$的相关性来去对部分数据进行重置,也就相当于舍弃。实现遗忘门的效果。

第二部分:

poYBAGC4meiAGOzMAAAd9tihyU0202.jpg

很好理解,就可以通过筛选得到的有效的隐藏层信息$\tilde{h}t$和更新向量来获取最终的输出结果$(1-z_t) * h{t-1}$表示对当前一时刻隐藏层状态选择性“遗忘”。$z_t * \tilde{h}_t$就表示对当前序列信息的“记忆”。

sequence-to-sequence的结构和原理

也叫做Encoder-Decoder结构,在encoder和decoder中也都是用序列模型,就是将数据先encode成一个上下文向量context vector,这个context vector可以是1)最后一个隐藏层状态,2)可以是完整的隐藏层输出,3)也可以是对隐藏层输出做激活或者线性变换之后的输出。

之后在decoder中,将context vector作为前一时刻初始化的状态输入从而将语义按监督信息的需要解码。或者将context vector作为decoder每一个时间步的输入。因此会发现seq2seq并不限制输入和输出的序列长度,这就表示应用范围可以很广。

Attention

会发现context vector并不能够包含长句的所有信息,或者说会造成信息的丢失,因此attention机制就是能够向decoder的每一个时间步输入不同的文本信息,提升语义的理解能力。

因为lstm会得到完整的包含每一个时间步的输出得到的ouput和hidden,因此$h_i$和$C_j$的相关性就能够表示在decode第$j$步序列时最关心的文本是那一步的 $h_i $,用 $\alpha_{ij}$来表示。

每一个encoder的hidden单元和每一个decoder的hidden单元做点乘,得到每两个单元之间的相关性,在lstm/rnn之后用attention就是计算hidden和ouput的每个单元之间的相关性,然后做一步$softmax$得到encoder的hidden或者说是lstm的hidden每个单元的attention weights。因此:Attention 无非就是这三个公式:

poYBAGC4meqAKxjvAAAT3nJUrlE172.jpg

从常规的(Q,K,V)的角度来理解,可以如图所示:

pYYBAGC4mfCAE2pwAAApg85OSxU468.jpg

在Attention中$Q$和$K$分别是hidden和output,同样的$V$也是ouput,在self-attention中Q=K=V,并且$\sqrt{d_k}$有些情况下是不会加在attention过程中的。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6514

    浏览量

    87609
  • Gru
    Gru
    +关注

    关注

    0

    文章

    9

    浏览量

    7445
收藏 人收藏

    评论

    相关推荐

    Xilinx FPGA NVMe主机控制器IP,高性能版本介绍应用

    ,使用NVMe的多队列特性,NVMe Host Controller IP支持灵活配置DMA读写的通道个数,按照NVMe队列优先级仲裁机制,实现多个DMA通道对同块PCIe SSD的高效访问,从而
    发表于 03-09 13:56

    Xilinx FPGA NVMe Host Controller IP,NVMe主机控制器

    SSD,使用NVMe的多队列特性,NVMe Host Controller IP支持灵活配置DMA读写的通道个数,按照NVMe队列优先级仲裁机制,实现多个DMA通道对同块PCIe SSD的高效访问
    发表于 02-21 10:16

    【先楫HPM5361EVK开发板试用体验】先楫HPM5361EVK开发板测试 16 位高精度 ADC

    个先楫标准的电机控制及传感器接口。HPM5300EVK同时集成了1个2x20 pin IO扩展接口,连接了HPM5300 MCU的大部分IO,供用户自由评估。HPM5300EVK集成了板载调试器
    发表于 01-09 21:59

    【每周练】盘古1K开发板 练习四:密码锁实验

    错误时显示7777。 SW1- SW4 设置2 位数密码,每两位设置位密码,BM[0:1]设置第位对应BM1 和BM2,BM[2:3]设
    发表于 12-22 18:39

    【先楫HPM5361EVK开发板试用体验】先楫HPM5361EVK开发板 ADC使用

    或等效位数(ENOB)。 可以通过依次配置 SEQ_QUE0 到 SEQ_QUE15 寄存器来指定转换序列的目标输入通道。SEQ_QUE0 [CHAN_NUM] 位域用于配置序列转换触发后的第
    发表于 12-20 23:11

    【每周练】+盘古1K开发板+4.密码锁

    前言 按照要求,应该实现如下功能: 实验目的: 利用按键、拨码开关以及数码管实现种简单的密码锁 实验要求: 拨码开关SW1-SW4 设置 2 位数密码,每两位设置位密码,BM[0:1]设置
    发表于 12-17 17:05

    ad7928采样的时候是如何处理机制的?

    ad7928 采样的时候是如何处理机制的 AD7928Data2.Wriite_SEQ = 0X11; AD7928Data2.DONT_TCARE_9_ADD2 = 0X01
    发表于 12-08 07:36

    ADC16 DMA缓冲区最大只能1024位,设置大于1024时,DMA缓冲里的数据打印出来全是0,不知道怎么回事?

    根据例程更改序列采样,利用个定时器定时进行序列采样,自动放入DMA缓冲区,由于需要的通道和数据较多,设置缓冲区大于1024位,现发现当我设置大于1024,例如2048位的时候,Printf()输出
    发表于 11-13 21:31

    DSP28335的ADC模块使用介绍

    级联模式或双排序模式,采用级联模式,8状态排序器SEQ1和SEQ2构成16状态的SEQ
    的头像 发表于 11-08 10:37 4392次阅读
    DSP28335的ADC模块使用介绍

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    深度学习、机器学习、生成式AI、深度神经网络、抽象学习、Seq2Seq、VAE、GAN、GPT、BERT、预训练语言模型、Transformer、ChatGPT、GenAI、多模态大模型、视觉大模型
    的头像 发表于 09-22 14:13 663次阅读
    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    FlexSPI1 ISSI HyperRAM初始化问题求解

    HYPERRAM_CMD_LUT_SEQ_IDX_READREG 2 #define HYPERRAM_CMD_LUT_SEQ_IDX_WRITEREG 3 flexspi_device_config_t devicecon
    发表于 06-09 08:29

    PyTorch教程10.7之用于机器翻译的编码器-解码器Seq2Seq

    电子发烧友网站提供《PyTorch教程10.7之用于机器翻译的编码器-解码器Seq2Seq.pdf》资料免费下载
    发表于 06-05 18:14 0次下载
    PyTorch教程10.7之用于机器翻译的编码器-解码器<b class='flag-5'>Seq2Seq</b>

    PyTorch教程-10.7. 用于机器翻译的编码器-解码器 Seq2Seq

    10.7. 用于机器翻译的编码器-解码器 Seq2Seq¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in Colab
    的头像 发表于 06-05 15:44 571次阅读
    PyTorch教程-10.7. 用于机器翻译的编码器-解码器 <b class='flag-5'>Seq2Seq</b>

    PyTorch教程-11.4. Bahdanau 注意力机制

    Studio 实验室在 SageMaker Studio Lab 中打开笔记本 当我们在10.7 节遇到机器翻译时,我们设计了一个基于两个 RNN 的序列到序列 (seq2seq) 学习的编码器-解码器架构
    的头像 发表于 06-05 15:44 565次阅读
    PyTorch教程-11.4. Bahdanau 注意力<b class='flag-5'>机制</b>

    PyTorch教程-10.5。机器翻译和数据集

    。示例包括从对话提示到回复或从问题到答案的映射。广义上,此类问题称为 序列到序列(seq2seq) 问题,它们是本章剩余部分和 第 11 节大部分内容的重点。 在本
    的头像 发表于 06-05 15:44 478次阅读
    PyTorch教程-10.5。机器翻译和数据集