0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用于语音情绪识别的基于对抗学习的说话人无关的表示

wpl4_DeepLearni 来源:lq 2019-05-07 17:59 次阅读

1. 用于语音情绪识别的基于对抗学习的说话人无关的表示

尝试解决的问题:

在语音情绪识别任务中,会面临到要测试的说话人未出现在训练集中的这个问题,本文尝试运用TDNN+LSTM作为特征提取部分,再通过对抗学习的方法来做到让模型可以对说话人身份不敏感,从模型上来说,该对抗训练的思想就是将特征提取器提取到的特征同时输入到说话人身份分类器和情绪识别分类器,对抗训练的损失函数是让说话人身份分类器的损失达到最大,让情绪识别分类器的损失达到最小,这样以后,无论是哪个说话人的语音,经过特征提取那部分以后,就没有身份这一区别了。

如果有读者阅读过论文《Domain adversarial training of neural networks》,那么对DAT这个名词就不陌生了,即迁移学习中的跨域学习,比如我现在有A领域的数据,并且该数据已经被标记好类别,同时也有B领域数据,但是未进行标记,如果我希望充分利用B数据,目标是进行分类,该怎么利用呢?我们只需要三个模块结合对抗学习即可完成,分别是特征提取器+域识别器+分类器,当域识别器已经无法正确判断的时候,说明特征提取器已经完成了身份融合的效果,这个时候训练分类器即可。

在本篇语音情绪识别中,作者所提出的模型如下图所示,输入音频的MFCC特征经过TDNN网络(由卷积神经网络实现)和BiLSTM网络得到新的特征分布,再将此特征分布同时输送到情绪识别器得到情绪种类y和说话人身份识别器得到身份s。

作者尝试运用了两种训练方法,一种是domain adversial training,即DAT;另一种是cross gradient training,即CGT。下面我将分别解释这两种训练算法

DAT

如前所述,DAT是通过对抗学习来使得网络具备跨域的能力,其损失函数如下,可以看到,对于身份识别器而言,它的损失函数前面乘了一个因子并且取了负号,这使得网络可以具备身份融合的作用,从而专注于情绪分类。

CGT

CGT是另外一种解决跨域学习的数据增强技巧,它通过将梯度传到输入数据上,于是情绪识别网络可以训练原数据和增强后的数据,这样就可以使得模型具备学习跨域的变化特征进而可以适应未知的测试数据集。CGT的数据增强技巧和损失函数如下,其中前两项是增强后的新数据,最后是参数更新公式。

作者基于本模型和两种训练技巧分别在IEMOCAP数据集和SpeechOcean中文大数据集上做了测试,所用的具体模型结构如下所示,实验结果表明,在IEMOCAP小数据集上,相比于基线模型,DAT提高了5.6%,CGT提高了7.4%;但是在SpeechOcean 250说话人的中文大数据集上,DAT提高了9.8%,CGT的性能不及基线模型。

同时,作者画出了通过DAT训练的经过特征提取器得到的特征分布的t-SNE降维表示,如下图所示,左边是情绪类别,右边是身份类别,可以看到身份标签已经很好地被融合在一起。

2. 基于滤波和深度神经网络的声源增强

参考文献:

data-driven design of perfect reconstruction filterbank for dnn-based sound source enhancement

链接:

https://arxiv.org/abs/1903.08876

单位:

早稻田大学 & 日本电话电报公司

尝试解决的问题:

传统的声源增强(Sound-source enhancement,SSE)的做法是首先将含噪音的信号进行STFT变换得到时频图,再借助深度神经网络进行特征变换,将得到的新的时频图与目标时频图进行求均方差,基于此均方差来训练神经网络的参数。训练好网络以后,将推理得到的时频图通过ISTFT变换到音频,即可得到增强的音频信号。这种做法的缺点按照文中的描述就是:

For example, MSE assumes that the error of all frequency bins has zero means and uniform variance, which cannot be met in usual situations, unfortunately.

按照笔者的理解就是训练均方差目标函数得确保数据中每个频率仓的均值和方差一样,因为只有这样训练才比较有效参数才可以稳定地更新,但是实际上,我们在计算STFT的时候,并没有考虑到所有音频的个体差异,本文尝试解决的就是这里的维度上的统计均匀的问题,DNN的框架是没有变的,整体框架可以参见下图的对比:

首先,传统的STFT算法作用到一个信号x上可以用如下公式描述:

这里得到的X就是该信号的时频信息,其中ω是频率索引,k是帧索引。我们知道,X是由目标信号和噪音信号共同组成的,根据傅里叶变换的可加性,可知:

为了得到目标时频,我们在X[ω,k]的基础上作用一个T-F遮罩G[ω,k],该T-F遮罩一般使用深度神经网络M来实现,于是整个模型的损失函数可以写成如下形式:

但是基于MSE的训练算法有一个数据上的缺陷,因为MSE的前提假设是各个维度的数据分布要保持一致,但这在实际中是很难保证的,因无论是声源还是噪声都有着不均匀的频谱分布,举个例子,由于高频区域音频较少,功率谱较小,误差变化比较小,因而高频区域要比低频区域更难训练。这个时候,对损失函数做一个加权是合理的想法,该权重应该是自适应频率的,并且与频率误差的标准差成反比,也就是说误差标准差越小的频率,我们需要多重视一下它的损失函数。

其中,权重的计算公式如下:

但是这样又带来一个问题,因为功率谱较小的频率区域权重比较大,故模型对那些区域的噪声特别敏感,那么,算法的有效性就降低了。

本文作者提出的改进的思路是保持损失函数不变,而对STFT部分进行改进,公式如下,作者将原公式中的ω定义成了φ(ω)的倒数的形式,这样就可以自定义频率的量级,这里的φ函数称之为频率扭曲函数。

那么如何设计这里的频率扭曲函数φ呢?通过对误差的功率谱密度进行累计求和,依次从低频到高频,并加上一个规则化因子:

本文中所用的特征变换网络的结构如下表所示,分别是全连接神经网络+两层双向LSTM循环神经网络+全连接分类网络,以输出目标频谱。

最后作者将此模型运用到以WSJ-0作为目标数据集,以CHiME-3作为噪声来源所构成的四套数据上,即通过构建含噪音频-清晰音频配对来作为训练样本,得到的实验结果如下,图中的数值代表信噪比,数值越大,表明信噪比越高,即增强效果越好。

总体而言,这篇文章是基于平行语料和深度神经网络,对语音增强中的输入频谱的预处理算法进行改进,以解决基于均方差训练中可能会出现的训练不稳定的问题。以后的推送中将会看到,对于语音增强或语音分离,我们甚至可以采用非平行语料来做。

3. 用于语音韵律、频谱可视化的在线网页平台

参考文献:

CRAFT: A Multifunction Online Platform for Speech Prosody Visualisation

链接:

https://arxiv.org/abs/1903.08718

单位:

比勒费尔德大学

demo体验网址:

http://wwwhomes.uni-bielefeld.de/gibbon/CRAFT/

尝试解决的问题:

提供一个更加友好的基频(各种不同的实现算法)、频谱包络可视化对比的在线平台。

这里我们先回顾几个声学频谱分析中的概念:

基频:一般我们对一个音频作短时傅里叶变化并画出时频图的时候,时频图上会出现很多条横条纹,而频率范围最小的那个横条纹一般可以认为就是基频的值;

谐波:除了基频那个横条纹以外,其他横条纹就是各次谐波;

共振峰:频谱上包络的峰值;

本文中介绍的demo如下图所示,其中包含基频估计的参数设计、振幅和频率调制、频率解调制、滤波等可视化窗口。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 分类器
    +关注

    关注

    0

    文章

    152

    浏览量

    13109
  • 数据集
    +关注

    关注

    4

    文章

    1176

    浏览量

    24340
  • 迁移学习
    +关注

    关注

    0

    文章

    72

    浏览量

    5501

原文标题:语音情绪识别|声源增强|基频可视化

文章出处:【微信号:DeepLearningDigest,微信公众号:深度学习每日摘要】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    求Labview做说话语音识别系统的方法或程序,大神来看看啊

    本帖最后由 ouqiyuan 于 2012-5-30 10:04 编辑 是用插进电脑的麦克风收集说话的声音,然后辨别说话(该人声音已经储存好)的身份。{:soso_e101:
    发表于 05-30 10:01

    labview说话语音识别相关的VI

    这是说话语音识别的相关资料,大神们来看看啊,顺便帮小弟做一个用电脑麦克风识别说话的程序,谢啦
    发表于 05-31 15:17

    语音编码识别的请进

    有哪位童鞋是研究语音编码识别的,可以与我讨论下.欢迎加Q:541274397
    发表于 07-11 09:46

    FPGA和Nios_软核的语音识别系统的研究

    FPGA和Nios_软核的语音识别系统的研究引言语音识别的过程是一个模式匹配的过程 在这个过程中,首先根据说话
    发表于 08-11 11:47

    会物体识别语音识别的nao机器

    是nao机器的伟大之处。面部探测与识别这是最广为人知的一项互动功能。nao机器可探测并学习记忆不同的面部,此后,它可对其进行识别
    发表于 02-13 14:09

    请问电销机器智能语音识别的原理是什么?

    让机器听懂人们说话,还要让机器能够与人对话的技术更是已经研究了30年之久。在今天,科幻电影里才会出现的,能够与人类自如交谈的机器终于出现了。那么,这些电销机器
    发表于 06-12 14:03

    DSP嵌入式说话识别系统设计方案

    0 引 言说话人身份识别属于生物认证技术的一种,是一项根据语音中反映说话人生理和行为特征的语音参数来自动
    发表于 07-29 06:34

    基于DSP嵌入式说话识别系统该怎么设计?

    说话人身份识别属于生物认证技术的一种,是一项根据语音中反映说话人生理和行为特征的语音参数来自动识别说话
    发表于 11-04 07:34

    自动语音识别的原理是什么?

    自动语音识别的原理是什么?如何利用WaveNet实现自动语音识别
    发表于 06-15 09:14

    基于PAD情绪模型的情感语音识别

    基于PAD情绪模型的情感语音识别_宋静
    发表于 01-08 14:47 0次下载

    如何使用多特征i-vector进行短语音说话识别算法说明

    当测试语音时长充足时,单一特征的信息量和区分性足够完成说话识别任务,但是在测试语音很短的情况下,语音信号里缺乏充分的
    发表于 12-14 13:42 6次下载
    如何使用多特征i-vector进行短<b class='flag-5'>语音</b><b class='flag-5'>说话</b>人<b class='flag-5'>识别</b>算法说明

    语音识别的技术历程

    深度学习技术自 2009 年兴起之后,已经取得了长足进步。语音识别的精度和速度取决于实际应用环境,但在安静环境、标准口音、常见词汇场景下的语音识别
    的头像 发表于 08-22 14:21 4166次阅读

    语音识别的两个方法_语音识别的应用有哪些

    本文主要阐述了语音识别的两个方法及语音识别的应用。
    发表于 04-01 09:04 5647次阅读

    基于一种新型的用于无声语音识别的贴片式智能传感器

    摘要:电子科技大学和格拉斯哥大学的研究人员合作开发了一种用于无声语音识别的贴片式智能传感器件,可以检测到说话时细微的喉咙振动,借助深度学习
    的头像 发表于 06-17 10:27 795次阅读

    深度学习语音识别中的应用及挑战

    一、引言 随着深度学习技术的快速发展,其在语音识别领域的应用也日益广泛。深度学习技术可以有效地提高语音
    的头像 发表于 10-10 18:14 475次阅读