首页 / 专利库 / 信号处理 / 音素 / 基于神经网络的语音与情绪的同步识别方法

基于神经网络的语音与情绪的同步识别方法

阅读:486发布:2020-05-11

专利汇可以提供基于神经网络的语音与情绪的同步识别方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于神经网络的语音与情绪的同步识别方法,步骤1:建立语音特征训练样本集;步骤2:建立同步识别模型, 卷积神经网络 的输出端分别连接有 语音识别 模型与情绪识别模 块 ;步骤3:利用语音特征训练样本集、语音代价函数与情绪代价函数对语音识别模型与情绪识别模型 迭代 交替训练,代价函数反向传递以交替更新卷积神经网络的权值,从而使得卷积神经网络用于语言特征提取的权值能够同时适用于语音识别与情绪识别;步骤4:采用训练完成后的同步识别模型同步识别语音 信号 中的语音与情绪。本发明能够对 语音信号 进行语音和情绪的同步识别,系统复杂度低,提高识别效率,能够通过同步识别的方式提高语音识别与情绪识别的准确性。,下面是基于神经网络的语音与情绪的同步识别方法专利的具体信息内容。

1.一种基于神经网络的语音与情绪的同步识别方法,其特征在于:包括以下步骤:
步骤1:建立语音特征训练样本集,语音特征训练样本集中包含若干语音特征输入矩阵,每个语音特征输入矩阵均对应有音素特征理论输出矩阵Fx和情绪特征理论输出矩阵Fy,其中,Fx={x1,...xi,...,xn},xi表示音素特征理论输出矩阵Fx中的第i个音素特征理论输出向量,每个音素特征理论输出向量均对应有音素标签;Fy={y1,...yj,...,ym},yj表示情绪特征理论输出矩阵Fy中的第j个情绪特征理论输出向量,每个情绪特征理论输出向量均对应有情绪标签;
步骤2:建立同步识别模型,所述同步识别模型包括用于对输入的语音特征矩阵进行降维与降噪处理的卷积神经网络,所述卷积神经网络的输出端分别连接有语音识别模型与情绪识别模型;
步骤3:采用语音特征训练样本集以及代价函数对同步识别模型进行训练,所述代价函数包括用于训练语音识别模型的语音代价函数L(θ)1以及用于训练情绪识别模型的情绪代价函数L(θ)2;对语音识别模型与情绪识别模型迭代交替训练,从而使得卷积神经网络用于语言特征提取的权值能够交替更新;每利用语音代价函数L(θ)1训练一次语音识别模型后,则将语音代价函数L(θ)1的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音模型与卷积神经网络用于语音特征提取的权值;每利用情绪代价函数L(θ)2训练一次情绪识别模型后,则将情绪代价函数L(θ)2的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷积神经网络用于语音特征提取的权值;训练完成后,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别;
步骤4:采用训练完成后的同步识别模型同步识别语音信号中的语音与情绪。
2.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:交替训练按如下步骤进行:
步骤301:初始化同步识别模型的用于语音特征提取的权值,包括卷积神经网络用于语音特征提取的权值、语音识别模型用于语音特征提取的权值以及情绪识别模型用于语音特征提取的权值;初始化t=1;
步骤302:从卷积神经网络输入语音特征训练样本集中的一个语音样本,对语音识别模型进行训练,设当前次训练为第t次,t∈{1,3,5,....,2n-1},得到第t次训练的语音代价函数 的值,将语音代价函数 的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音识别模型与卷积神经网络用于特征提取的权值;
步骤303:从卷积神经网络输入语音样本,对情绪识别模型进行训练,设当前次训练为第t+1次训练,得到第t+1次训练的情绪代价函数 的值,将情绪代价函数 的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷积神经网络用于语音特征提取的权值;
步骤304:根据预先设定的语音代价函数的期望值判断语音代价函数 的值是否收敛,并同时根据预先设定的情绪代价函数的期望值判断情绪代价函数 是否收敛;
若不能同时收敛,则令t=t+2,并回到步骤302;
若同时满足收敛,则在语音识别模型中保存以语音代价函数 的值反向传递更新得到的用于语音特征提取的权值,并且在情绪识别模型中保存以情绪代价函数 的值反向传递更新得到的用于语音特征提取的权值,同时在卷积神经网络中保存以情绪代价函数 的值反向传递更新得到的用于语音特征提取的权值;交替训练完成,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别。
3.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:所述语音识别模型包括能够从语音特征矩阵中提取音素特征矩阵的语音识别深度特征提取神经网络以及用于根据音素标签将音素特征矩阵转化文本的CTC时序分类模;所述情绪识别模型包括能够从语音特征矩阵中提取情绪特征矩阵并能输出对应情绪标签的情绪识别深度特征提取神经网络。
4.根据权利要求3所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:所述语音识别深度特征提取神经网络包括第一双向LSTM循环神经网络,第一双向LSTM循环神经网络的输入端与卷积神经网络的输出端连接;所述情绪识别深度特征提取神经网络包括第二双向LSTM循环神经网络,第二双向LSTM循环神经网络的输入端与卷积神经网络的输出连接。
5.根据权利要求4所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:所述语音识别深度特征提取神经网络还包括第一DNN深度神经网络,第一DNN深度神经网络的输入端、输出端分别与第一双向LSTM循环神经网络输出端、CTC时序分类模块输入端连接;
所述情绪识别深度特征提取神经网络还包括第二DNN深度神经网络,第二DNN深度神经网络的输入端与第二双向LSTM循环神经网络输出端连接。
6.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:在训练阶段语音识别模型的音素特征训练输出矩阵为 表示音素
特征训练输出矩阵 中的第i个音素特征训练输出向量;在训练阶段情绪识别模型的情绪特征训练输出矩阵为 表示情绪特征训练输出矩阵 中的
第j个情绪特征训练输出向量;
语音代价函数L(θ)1的计算公式为:
其中, 为交叉熵:
为方差:
R(θ)为防止训练过程中出现过拟合的正则项,λ1为权重系数;
Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
ρc1的计算公式如下:
其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
情绪代价函数L(θ)2的计算公式为:
其中,其中, 为交叉熵:
为方差:
R(θ)为防止训练过程中出现过拟合的正则项;
Lρc2为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
ρc2的计算公式如下:
其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差。
7.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:语音识别模型与情绪识别模型双向通信连接,使得在训练阶段语音识别模型能将音素特征训练输出矩阵 发送给情绪识别模型,并且情绪识别模型能够将情绪特征训练输出矩阵发送给语音识别模型;其中, 表示音素特征训练输出矩阵 中的
第i个音素特征训练输出向量; 表示情绪特征训练输出矩阵
中的第j个情绪特征训练输出向量。
8.根据权利要求7所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:语音代价函数L(θ)1的计算公式为:
其中, 为交叉熵:
为方差:
λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
ρc1的计算公式如下:
其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
Jtxtem为灵敏度矩阵:
Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
MVx为音素特征训练输出向量的均值方差矩阵:
MVy为情绪特征训练输出向量的均值方差矩阵;
情绪代价函数L(θ)2的计算公式为:
其中, 为交叉熵:
为方差:
λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
Lρc2为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
ρc2的计算公式如下:
其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差;
Jtxtem为灵敏度矩阵:
Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
MVx为音素特征训练输出向量的均值方差矩阵:
MVy为情绪特征训练输出向量的均值方差矩阵。
9.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:所述卷积神经网络包含用于消除时间差异的时间卷积层与用于减少相位变化的频域卷积层,频域卷积层的输入端与时间卷积层的输入端连接,频域卷积层的输出端同时与语音识别模型、情绪识别模型的输入端连接。
10.根据权利要求1所述的基于神经网络的语音与情绪的同步识别方法,其特征在于:
语音信号在输入同步识别模型进行识别前,进行预处理,以初步提取语音信号中的语音特征矩阵,所述语音特征矩阵中的语音特征向量包含以下语音特征:12维梅尔频谱倒谱系数MFCC、12维线性预测倒谱系数LPCC、过零率、短时能量、基频、共振峰、谱熵、频谱通量、频谱通量以及频谱滚降点;在进行语音识别时,卷积层同时向语音识别模型与情绪识别模型输出语音特征向量,语音识别模型与情绪识别模型同时分别独立根据输入的语音特征向量进行语音识别和情绪识别。

说明书全文

基于神经网络的语音与情绪的同步识别方法

技术领域

[0001] 本发明涉及音频数据处理领域,尤其涉及一种能够同时识别音频数据中的语音与情绪的方法。

背景技术

[0002] 语音识别技术是指将语音信号转变为相应的文本或命令的技术。早期语音识别是建立在声学模型和语言模型以及解码的基础上,训练时需要同时训练声学模型和语言模型,因此在识别时要综合声学模型和语言模型的得分得到的标签,还要进行解码才是识别的结果。这种方式存在着模型复杂,模型的通用性不高,准确度较低以及实时性较差的缺点。另外,语音信号中除包含义能转化成文本信息的语义信息外,还包括了说话者的情绪,大多数情况下,说话内容相同,但是情绪不同,说话者的状态会大相径庭。
[0003] 目前电话客服系统主要采用对电话进行录音存档,这种方式有着存储量大,不便查找的问题,同时人工打分对服务过程评价存在着恶意评分的问题。通过对音频的转换,以文字的方式进行储存,不仅减少了空间的占用,也为方便对特殊内容进行检索。从语音中挖掘出说话人的情绪,对情绪或者情绪的变化进行分析,便可以得出客户对服务的满意程度,可以省去评价的环节,对客服的服务态度做出客观的评价。
[0004] 此外,随着语音交互设备在车载系统的普及,语音情绪识别功能也开始用于监控情绪、保障驾驶安全。研究发现,积极的情绪可以促使驾驶者更好地驾驶,减少危险驾驶的行为。当驾驶者处于情绪不稳定的状态时,系统可以给予提醒,或者自动调节驾驶参数以防止事故的发生;系统也可以根据驾驶者的情绪提供关怀式的语音,提高驾驶体验。
[0005] 不仅如此,语音识别与情绪识别的结合还可应用于此外,随着医疗技术和语音分析技术的进步,通过声音诊断病情也将成为可能,通过患者的特定语音特征,辅助医生诊断抑郁症等心理疾病
[0006] 因此,在语音识别的同时进行情绪识别,对提高各个领域的智能化平具有重要意义。但是,目前语音识别和情绪识别是独立进行的,并且未考虑到语音和情绪之间的相互关性,还未对语音识别和情绪识别进行良好的融合。

发明内容

[0007] 针对上述现有技术的不足,本发明提供一种基于神经网络的语音与情绪的同步识别方法,解决现有技术中语音识别和情绪识别独立进行不能同步识别语音和情绪的技术问题,能够对语音信号进行语音和情绪的同步识别,提高识别效率,还能够通过同步识别的方式提高语音识别与情绪识别的准确性。
[0008] 为了解决上述技术问题,本发明采用了如下的技术方案:一种基于神经网络的语音与情绪的同步识别方法,包括以下步骤:
[0009] 步骤1:建立语音特征训练样本集,语音特征训练样本集中包含若干语音特征输入矩阵,每个语音特征输入矩阵均对应有音素特征理论输出矩阵Fx和情绪特征理论输出矩阵Fy,其中,Fx={x1,...xi,...,xn},xi表示音素特征理论输出矩阵Fx中的第i个音素特征理论输出向量,每个音素特征理论输出向量均对应有音素标签;Fy={y1,...yj,...,ym},yj表示情绪特征理论输出矩阵Fy中的第j个情绪特征理论输出向量,每个情绪特征理论输出向量均对应有情绪标签;
[0010] 步骤2:建立同步识别模型,所述同步识别模型包括用于对输入的语音特征矩阵进行降维与降噪处理的卷积神经网络,所述卷积神经网络的输出端分别连接有语音识别模型与情绪识别模型;
[0011] 步骤3:采用语音特征训练样本集以及代价函数对同步识别模型进行训练,所述代价函数包括用于训练语音识别模型的语音代价函数L(θ)1以及用于训练情绪识别模型的情绪代价函数L(θ)2;对语音识别模型与情绪识别模型迭代交替训练,从而使得卷积神经网络用于语言特征提取的权值能够交替更新;每利用语音代价函数L(θ)1训练一次语音识别模型后,则将语音代价函数L(θ)1的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音模型与卷积神经网络用于语音特征提取的权值;每利用情绪代价函数L(θ)2训练一次情绪识别模型后,则将情绪代价函数L(θ)2的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷积神经网络用于语音特征提取的权值;训练完成后,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别;
[0012] 步骤4:采用训练完成后的同步识别模型同步识别语音信号中的语音与情绪。
[0013] 优选的,交替训练按如下步骤进行:
[0014] 步骤301:初始化同步识别模型的用于语音特征提取的权值,包括卷积神经网络用于语音特征提取的权值、语音识别模型用于语音特征提取的权值以及情绪识别模型用于语音特征提取的权值;初始化t=1;
[0015] 步骤302:从卷积神经网络输入语音特征训练样本集中的一个语音样本,对语音识别模型进行训练,设当前次训练为第t次,t∈{1,3,5,....,2n-1},得到第t次训练的语音代价函数 的值,将语音代价函数 的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音识别模型与卷积神经网络用于特征提取的权值;
[0016] 步骤303:从卷积神经网络输入语音样本,对情绪识别模型进行训练,设当前次训练为第t+1次训练,得到第t+1次训练的情绪代价函数 的值,将情绪代价函数的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷
积神经网络用于语音特征提取的权值;
[0017] 步骤304:根据预先设定的语音代价函数的期望值判断语音代价函数 的值是否收敛,并同时根据预先设定的情绪代价函数的期望值判断情绪代价函数 是否收敛;
[0018] 若不能同时收敛,则令t=t+2,并回到步骤302;
[0019] 若同时满足收敛,则在语音识别模型中保存以语音代价函数 的值反向传递更新得到的用于语音特征提取的权值,并且在情绪识别模型中保存以情绪代价函数的值反向传递更新得到的用于语音特征提取的权值,同时在卷积神经网络中保存以情绪代价函数 的值反向传递更新得到的用于语音特征提取的权值;交替训练完成,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别。
[0020] 优选的,所述语音识别模型包括能够从语音特征矩阵中提取音素特征矩阵的语音识别深度特征提取神经网络以及用于根据音素标签将音素特征矩阵转化文本的CTC时序分类模;所述情绪识别模型包括能够从语音特征矩阵中提取情绪特征矩阵并能输出对应情绪标签的情绪识别深度特征提取神经网络。
[0021] 优选的,所述语音识别深度特征提取神经网络包括第一双向LSTM循环神经网络,第一双向LSTM循环神经网络的输入端与卷积神经网络的输出端连接;所述情绪识别深度特征提取神经网络包括第二双向LSTM循环神经网络,第二双向LSTM循环神经网络的输入端与卷积神经网络的输出连接。
[0022] 优选的,所述语音识别深度特征提取神经网络还包括第一DNN深度神经网络,第一DNN深度神经网络的输入端、输出端分别与第一双向LSTM循环神经网络输出端、CTC时序分类模块输入端连接;所述情绪识别深度特征提取神经网络还包括第二DNN深度神经网络,第二DNN深度神经网络的输入端与第二双向LSTM循环神经网络输出端连接。
[0023] 优选的,在训练阶段语音识别模型的音素特征训练输出矩阵为表示音素特征训练输出矩阵 中的第i个音素特征训练输出向
量;在训练阶段情绪识别模型的情绪特征训练输出矩阵为
表示情绪特征训练输出矩阵 中的第j个情绪特征训练输出向量;
[0024] 语音代价函数L(θ)1的计算公式为:
[0025]
[0026] 其中, 为交叉熵:
[0027] 为方差:
[0028] R(θ)为防止训练过程中出现过拟合的正则项,λ1为权重系数;
[0029] Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
[0030] ρc1的计算公式如下:
[0031] 其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
[0032] 情绪代价函数L(θ)2的计算公式为:
[0033]
[0034] 其中,其中, 为交叉熵:
[0035] 为方差:
[0036] R(θ)为防止训练过程中出现过拟合的正则项;
[0037] Lρc2为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
[0038] ρc2的计算公式如下:
[0039] 其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差。
[0040] 优选的,语音识别模型与情绪识别模型双向通信连接,使得在训练阶段语音识别模型能将音素特征训练输出矩阵 发送给情绪识别模型,并且情绪识别模型能够将情绪特征训练输出矩阵 发送给语音识别模型;其中, 表示音素特征训练输出矩阵 中的第i个音素特征训练输出向量; 表示情绪特
征训练输出矩阵 中的第j个情绪特征训练输出向量。
[0041] 优选的,语音代价函数L(θ)1的计算公式为:
[0042]
[0043] 其中, 为交叉熵:
[0044] 为方差:
[0045] λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
[0046] Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
[0047] ρc1的计算公式如下:
[0048] 其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
[0049] Jtxtem为灵敏度矩阵:
[0050] Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
[0051] MVx为音素特征训练输出向量的均值方差矩阵:
[0052] MVy为情绪特征训练输出向量的均值方差矩阵;
[0053] 情绪代价函数L(θ)2的计算公式为:
[0054]
[0055] 其中, 为交叉熵:
[0056] 为方差:
[0057] λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
[0058] Lρc2为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
[0059] ρc2的计算公式如下:
[0060] 其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差;
[0061] Jtxtem为灵敏度矩阵:
[0062] Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
[0063] MVx为音素特征训练输出向量的均值方差矩阵:
[0064] MVy为情绪特征训练输出向量的均值方差矩阵。
[0065] 与现有技术相比,本发明具有以下有益效果:
[0066] 1、同步识别模型中语音识别模型与情绪识别模型共用同一卷积神经网络对语音特征矩阵进行降维与降噪处理,简化了同步识别模型的结构,大大降低了数据处理量,并且在输入层保证了语音识别与情绪识别的同步性;对同步识别模型进行交替训练,使得语音识别模型与情绪识别模型共用的卷积神经网络的用于语音特征提取的权值能同时适用于语音识别与情绪识别。
[0067] 2、音素特征深度根据网络根据卷积神经网络提取出的语音特征矩阵进一不提取语音识别需要的音素特征矩阵,情绪识别深度特征提取神经网络根据网络根据卷积神经网络提取出的情绪特征矩阵。
[0068] 3、语音识别模型与情绪识别模型双向通信连接还进行双向通信连接,使得语音识别结果与情绪识别结果能够相互影响:分别交换音素特征训练输出向量与情绪特征训练输出向量,从而计算语音代价函数与情绪代价函数,获得能够将音素识别与情绪识别相互关联用于语音特征提取的权值。
[0069] 4、由于本发明在训练完成后所获得的用于语音特征提取的权值是情绪与音素相互影响的结果,因此在利用本发明的同步识别模型进行语音与情绪的同步识别时,虽然语音识别与情绪识别独立并行进行,但是语音识别模型与情绪识别模型中用于语音特征提取的权值是同时考虑情绪与语音的相互影响的,因此,不仅能通过独立并行识别提高识别效率和实时性,还能在用于语音特征提取的权值作用下,分别提高语音识别与情绪识别的准确性。附图说明
[0070] 图1是具体实施方式1中同步识别模型训练过程的原理框图
[0071] 图2是具体实施方式1中基于神经网络的语音与情绪的同步识别方法的总体流程图
[0072] 图3是具体实施方式1中利用训练完成后的同步识别模型识别语音信号的流程图;
[0073] 图4是具体实施方式2中同步识别模型训练过程的原理框图。

具体实施方式

[0074] 下面结合附图和优选实施方式对本发明作进一步的详细说明。
[0075] 具体实施方式1
[0076] 一种基于神经网络的语音与情绪的同步识别方法,如图2所示,包括以下步骤:
[0077] 步骤1:建立语音特征训练样本集,语音特征训练样本集中包含若干语音特征输入矩阵,每个语音特征输入矩阵均对应有音素特征理论输出矩阵Fx和情绪特征理论输出矩阵Fy,其中,Fx={x1,...xi,...,xn},xi表示音素特征理论输出矩阵Fx中的第i个音素特征理论输出向量,每个音素特征理论输出向量均对应有音素标签;Fy={y1,...yj,...,ym},yj表示情绪特征理论输出矩阵Fy中的第j个情绪特征理论输出向量,每个情绪特征理论输出向量均对应有情绪标签;
[0078] 步骤2:建立同步识别模型,所述同步识别模型包括用于对输入的语音特征矩阵进行降维与降噪处理的卷积神经网络,所述语音特征矩阵由若干语音特征向量组成,所述卷积神经网络的输出端分别连接有语音识别模型与情绪识别模型;
[0079] 步骤3:采用语音特征训练样本集以及代价函数对同步识别模型进行训练,所述代价函数包括用于训练语音识别模型的语音代价函数L(θ)1以及用于训练情绪识别模型的情绪代价函数L(θ)2;如图1所示,对语音识别模型与情绪识别模型迭代交替训练,从而使得卷积神经网络用于语言特征提取的权值能够交替更新;每利用语音代价函数L(θ)1训练一次语音识别模型后,则将语音代价函数L(θ)1的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音模型与卷积神经网络用于语音特征提取的权值;每利用情绪代价函数L(θ)2训练一次情绪识别模型后,则将情绪代价函数L(θ)2的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷积神经网络用于语音特征提取的权值;训练完成后,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别;
[0080] 步骤4:采用训练完成后的同步识别模型同步识别语音信号中的语音与情绪。
[0081] 本具体实施方式中交替训练按如下步骤进行:
[0082] 步骤301:初始化同步识别模型的用于语音特征提取的权值,包括卷积神经网络用于语音特征提取的权值、语音识别模型用于语音特征提取的权值以及情绪识别模型用于语音特征提取的权值;初始化t=1;
[0083] 步骤302:从卷积神经网络输入语音特征训练样本集中的一个语音样本,对语音识别模型进行训练,设当前次训练为第t次,t∈{1,3,5,....,2n-1},得到第t次训练的语音代价函数 的值,将语音代价函数 的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音识别模型与卷积神经网络用于特征提取的权值;
[0084] 步骤303:从卷积神经网络输入语音样本,对情绪识别模型进行训练,设当前次训练为第t+1次训练,得到第t+1次训练的情绪代价函数 的值,将情绪代价函数的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷
积神经网络用于语音特征提取的权值;在更新卷积神经网络的权值时,可以利用情绪代价函数或语音代价函数中的正则项,得到一个稀疏权值矩阵,进而可以用于语音特征提取。
[0085] 步骤304:根据预先设定的语音代价函数的期望值判断语音代价函数 的值是否收敛,并同时根据预先设定的情绪代价函数的期望值判断情绪代价函数 是否收敛;
[0086] 若不能同时收敛,则令t=t+2,并回到步骤302;
[0087] 若同时满足收敛,则在语音识别模型中保存以语音代价函数 的值反向传递更新得到的用于语音特征提取的权值,并且在情绪识别模型中保存以情绪代价函数的值反向传递更新得到的用于语音特征提取的权值,同时在卷积神经网络中保存以情绪代价函数 的值反向传递更新得到的用于语音特征提取的权值;交替训练完成,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别。
[0088] 由于语音识别模型与情绪识别模型是交替进行训练的,避免了语音识别模型训练完成后,再来训练情绪识别模型,造成卷积神经网络中用于语音特征提取的权值变化剧烈,然而通过交替训练的方式,卷积神经网络中用于语音特征提取的权值是通过微小的变化来累积进行更新的,因此,交替训练完成,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别。
[0089] 本具体实施方式中,所述语音识别模型包括能够从语音特征矩阵中提取音素特征矩阵的语音识别深度特征提取神经网络以及用于根据音素标签将音素特征矩阵转化文本的CTC时序分类模块;所述情绪识别模型包括能够从语音特征矩阵中提取情绪特征矩阵并能输出对应情绪标签的情绪识别深度特征提取神经网络。
[0090] 本具体实施方式中,所述语音识别深度特征提取神经网络包括第一双向LSTM循环神经网络,第一双向LSTM循环神经网络的输入端与卷积神经网络的输出端连接;所述情绪识别深度特征提取神经网络包括第二双向LSTM循环神经网络,第二双向LSTM循环神经网络的输入端与卷积神经网络的输出连接。
[0091] 本具体实施方式中,所述语音识别深度特征提取神经网络还包括第一DNN深度神经网络,第一DNN深度神经网络的输入端、输出端分别与第一双向LSTM循环神经网络输出端、CTC时序分类模块输入端连接;所述情绪识别深度特征提取神经网络还包括第二DNN深度神经网络,第二DNN深度神经网络的输入端与第二双向LSTM循环神经网络输出端连接。
[0092] 本具体实施方式中,在训练阶段语音识别模型的音素特征训练输出矩阵为表示音素特征训练输出矩阵 中的第i个音素特征训练输出向量;在训练阶段情绪识别模型的情绪特征训练输出矩阵为
表示情绪特征训练输出矩阵 中的第j个情绪特征训练输出向量;
[0093] 语音代价函数L(θ)1的计算公式为:
[0094]
[0095] 其中, 为交叉熵:
[0096] 为方差:
[0097] R(θ)为防止训练过程中出现过拟合的正则项,λ1为权重系数;
[0098] Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
[0099] ρc1的计算公式如下:
[0100] 其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
[0101] 情绪代价函数L(θ)2的计算公式为:
[0102]
[0103] 其中,其中, 为交叉熵:
[0104] 为方差:
[0105] R(θ)为防止训练过程中出现过拟合的正则项;
[0106] Lρc2为为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
[0107] ρc2的计算公式如下:
[0108] 其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差。
[0109] 本具体实施方式中,所述卷积神经网络包含用于消除时间差异的时间卷积层与用于减少相位变化的频域卷积层,频域卷积层的输入端与时间卷积层的输入端连接,频域卷积层的输出端同时与语音识别模型、情绪识别模型的输入端连接。
[0110] 如图3所示,本具体实施方式中,语音信号在输入同步识别模型进行识别前,进行预处理,以初步提取语音信号中的语音特征矩阵,所述语音特征矩阵中的语音特征向量包含以下32维语音特征:12维梅尔频谱倒谱系数MFCC、12维线性预测倒谱系数LPCC、过零率、短时能量、基频、共振峰、谱熵、频谱通量、频谱通量以及频谱滚降点;在进行语音识别时,卷积层同时向语音识别模型与情绪识别模型输出语音特征向量,语音识别模型与情绪识别模型同时分别独立根据输入的语音特征向量进行语音识别和情绪识别。
[0111] 具体实施方式2
[0112] 本具体实施方式是针对具体实施方式1进行的改进,改进之处主要在于同步识别模型结构的改进和训练过程中代价函数的改进,同步识别模型结构的改进如下:语音识别模型与情绪识别模型双向通信连接,使得在训练阶段语音识别模型能将音素特征训练输出矩阵 发送给情绪识别模型,并且情绪识别模型能够将情绪特征训练输出矩阵 发送给语音识别模型;其中, 表示音素特征训练输出矩阵 中的第i个音素特征训练输出向量; 表示情绪特征训练输出矩阵 中的第
j个情绪特征训练输出向量。
[0113] 基于上述同步识别模型的改进,交替训练按如下步骤进行:
[0114] 步骤401:初始化同步识别模型的用于语音特征提取的权值,包括卷积神经网络用于语音特征提取的权值、语音识别模型用于语音特征提取的权值以及情绪识别模型用于语音特征提取的权值;初始化t=1;
[0115] 步骤402:从卷积神经网络输入语音特征训练样本集中的一个语音样本,对语音识别模型进行训练,设当前次训练为第t次,t∈{1,3,5,....,2n-1},得到第i次训练的语音代价函数 的值,将语音代价函数 的值从语音识别模型输出端反向传递至卷积神经网络,以更新语音模型与卷积神经网络用于特征提取的权值;并将当前次训练得到的音素特征训练输出矩阵 发送给情绪识别模型,使得情绪代价函数能够根据音素特征训练输出矩阵 进行计算;
[0116] 步骤403:从卷积神经网络输入语音样本,对情绪识别模型进行训练,设当前次训练为第t+1次训练,得到第t+1次训练的情绪代价函数 的值,将情绪代价函数的值从情绪识别模型输出端反向传递至卷积神经网络,以更新情绪识别模型与卷
积神经网络用于语音特征提取的权值;并将当前次训练得到的情绪特征训练输出矩阵 发送给语音识别模型,使得语音代价函数能够根据情绪特征训练输出矩阵 进行计算;
[0117] 步骤404:根据预先设定的语音代价函数的期望值判断语音代价函数 的值是否收敛,并同时根据预先设定的情绪代价函数的期望值判断情绪代价函数 的值是否收敛;若不能同时收敛,则令t=t+2,并回到步骤302;
[0118] 若同时满足收敛,则在语音识别模型中保存以语音代价函数 的值反向传递更新得到的用于语音特征提取的权值,并且在情绪识别模型中保存以情绪代价函数的值反向传递更新得到的用于语音特征提取的权值,同时在卷积神经网络中保存以情绪代价函数 的值反向传递更新得到的用于语音特征提取的权值;交替训练完成,卷积神经网络中用于语音特征提取的权值能够同时适用于语音识别与情绪识别。
[0119] 本具体实施中,语音代价函数L(θ)1的计算公式为:
[0120]
[0121] 其中, 为交叉熵:
[0122] 为方差:
[0123] λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
[0124] Lρc1为语音相关系数损失函数,Lρc1=1-ρc1,ρc1表示音素特征理论输出向量与音素特征训练输出向量之间的相关系数;
[0125] ρc1的计算公式如下:
[0126] 其中, 为音素特征理论输出向量与音素特征训练输出向量的协方差矩阵,分别为音素特征理论输出矩阵方差、音素特征训练输出矩阵方差;
[0127] Jtxtem为灵敏度矩阵:
[0128] Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
[0129] MVx为音素特征训练输出向量的均值方差矩阵:
[0130] MVy为情绪特征训练输出向量的均值方差矩阵;
[0131] 情绪代价函数L(θ)2的计算公式为:
[0132]
[0133] 其中, 为交叉熵:
[0134] 为方差:
[0135] λ1、λ2均为权重系数,R(θ)为防止训练过程中出现过拟合的正则项;
[0136] Lρc2为情绪相关系数损失函数,Lρc2=1-ρc2;其中,ρc2表示情绪特征理论输出向量与情绪特征训练输出向量之间的相关系数;
[0137] ρc2的计算公式如下:
[0138] 其中, 为情绪特征理论输出向量与情绪特征训练输出向量的协方差矩阵,分别为情绪特征理论输出矩阵方差、情绪特征训练输出矩阵方差;
[0139] Jtxtem为灵敏度矩阵:
[0140] Fx为音素特征理论输出矩阵,Fy为情绪特征理论输出矩阵;
[0141] MVx为音素特征训练输出向量的均值方差矩阵:
[0142] MVy为情绪特征训练输出向量的均值方差矩阵。
[0143] 本具体实施方式中由于训练过程中考虑到了语音与情绪的相互关系,即情绪代价函数考虑了语音识别结果对情绪识别的影响,语音代价函数考虑了情绪识别结果对语音识别的影响,从而使得语音识别模型中用于语音特征提取的权值能够提取到隐含的情绪特征,同样,情绪识别模型中用于语音特征提取的权值能够提取到隐含的音素特征。
[0144] 为了使本发明更容易理解,现进行如下举例说明:设语音特征训练样本集中的一个语音特征输入矩阵则对应了一段语音A,一段语音为一句话,一句话中的一个发音对应多个语音特征向量,一个语音特征向量对应一个音素标签(音素标签为声母、韵母),一个语音特征输入矩阵对应一个情绪标签(可将情绪分为“高兴”、“惊喜”、“愤怒”、“中性”、“悲伤”、“害怕”等,为了简化还可大致分为三类“正面、”“中性”以及“负面”,分别对应的情绪标签为“1”“0”“-1”),该段语音的真实语义为“报酬”,说话者的情绪为“高兴”,那么整个语音特征输入矩阵对应的音素标签集为“baochou”,情绪标签为“1”。
[0145] 将语音A输入同步识别模型中进行训练时,卷积神经网络对原始语音信号进行降维降噪,然后分别输入给语音识别模型和情绪识别模型,语音识别深度特征提取神经网络得到了个音素特征训练输出矩阵,所对应的音素标签集“baochou”,该音素标签集对应的文本信息可能是“报酬”也可能是“报仇”由于所对应的情绪标签为“1”,那么CTC时序分类模块则将音素标签集“baochou”进行文本对齐得到“报酬”而不是“报仇”。
[0146] 经过上述训练后,再输入相同的语音信息A进行识别时,则能准确的识别出“报酬”的文本信息,而避免识别成“报仇”等文本信息,从而大大提高了语音识别的准确性,[0147] 同样,若语音特征训练样本集中有一段语音信息B,其真实语义为“太棒了”,情绪为“喜悦”,那么语音信息B的语音特征输入矩阵所对应的音素标签集为“taibangle”,情绪标签为“1”。
[0148] 将语音B输入同步识别模型中进行训练,卷积神经网络对原始语音信号进行降维降噪,然后分别输入给语音识别模型和情绪识别模型,情绪识别深度特征提取神经网络得到了情绪特征训练输出矩阵,该情绪特征训练输出矩阵对应的情绪标签可能是“1”也可能是“0”,由于CTC时序分类模块中音素标签集为“taibangle”,那么经过多次训练后情绪识别深度特征提取神经网络则会输出情绪标签“1”。
[0149] 经过上述训练后,再输入相同的语音信息B进行识别时,则能准确的识别出正面情绪标签“1”,而避免识别成负面或中性情绪,从而大大提高了情绪识别的准确性。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈