首页 / 专利库 / 数学与统计 / 倒谱 / 基于音频分析与深度学习的争吵识别方法

基于音频分析与深度学习的争吵识别方法

阅读:536发布:2020-05-13

专利汇可以提供基于音频分析与深度学习的争吵识别方法专利检索,专利查询,专利分析的服务。并且本 发明 提供的基于音频分析与 深度学习 的争吵识别方法,包括:采集与应用场景相匹配的语音样本;根据语音样本制作用于 情感识别 的争吵语音数据集,并构建情感识别模型;根据语音样本制作对话语音数据集,得到相关性系数数据表,并构建对话相关性分类模型;采集待检测音频,提取语音特征和相关性系数;将语音特征输入情感识别模型和将相关性系数输入对话相关性分类模型,实现对争吵语音的判断。本发明提供的基于音频分析与深度学习的争吵识别方法,将争吵识别方法结合情感识别与对话相关性分析,对现实情境下的争吵进行有效的判定,适合应用于公共交通场所,用于辅助管理人员监管,可以及时有效地发现争吵和避免引起相关的后果。,下面是基于音频分析与深度学习的争吵识别方法专利的具体信息内容。

1.基于音频分析与深度学习的争吵识别方法,其特征在于,包括以下步骤:
S1:采集与应用场景相匹配的语音样本,包括争吵与非争吵两类数据;
S2:根据语音样本制作用于情感识别的争吵语音数据集,并构建深度神经网络进行训练,得到情感识别模型;
S3:根据语音样本制作用于相关性分析的对话语音数据集,得到相关性系数数据表,并构建支持向量机分类器进行训练,得到对话相关性分类模型;
S4:采集待检测音频,针对情感识别模型、对话相关性分类模型对待检测音频进行预处理,提取语音特征和相关性系数;
S5:将语音特征输入情感识别模型,判断语音情感是否符合争吵的特点;若是,执行步骤S6;否则判断为非争吵语音;
S6:将相关性系数输入对话相关性分类模型,判断语音是否处于对话的状态;若是,则判断为争吵语音,否则判断为非争吵语音。
2.根据权利要求1所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S2具体包括以下步骤:
S21:根据语音样本制作用于情感识别的争吵语音数据集;
S22:对争吵语音数据集进行语音特征的提取,并对每一分别进行z-score标准化,得到语音特征序列组;
S23:根据语音特征序列组最大的序列长度对其他序列进行补零,将不定长序列转化为定长序列,得到定长特征序列组;
S24:根据定长特征序列组构建基于长短时记忆网络LSTM和注意机制的深度神经网络;
S25:对深度神经网络进行训练,得到情感识别模型。
3.根据权利要求2所述的基于音频分析与深度学习的争吵识别方法,其特征在于,在所述步骤S24中,所述定长特征序列组的数据标签进行进行独热编码One-Hot Encoding转换。
4.根据权利要求2所述的基于音频分析与深度学习的争吵识别方法,其特征在于,在所述步骤S24中,所述的深度神经网络具体包括:
输入层:输入步骤S23中得到的定长特征序列组,并对“0”值进行过滤;
单向LSTM层:含有与特征序列维度一一对应的神经元,对时序信息进行初步提取,返回全部输出的特征序列;
双向LSTM层:连接新的单向LSTM层,与上一层单向LSTM层输出一一对应,用于进一步时间信息建模,经过双向传播,返回全部输出的特征序列;
注意力机制层:从双向LSTM层输出的每一时间步中发现序列的依赖关系;
第一全连接层:含有多个神经元,执行全连接运行,输出为:
F=f(W·t+b)
其中,W为全连接层的权重值;所述t为全连接层的输入;b为全连接层的偏置层;所述f(·)为ReLu激活函数,公式为f(x)=max(0,x),所述x为该函数的自变量;
第一Dropout层:连接在第一全连接层后,重叠率为0.3,为了避免过拟合;
第二全连接层:含有多个神经元;
第二Dropout层:连接在第二全连接层后,重叠率为0.2;
输出层:该层神经元个数为2,通过sigmoid回归算法将特征映射到目标的两个分类,即愤怒/不愤怒;其中,sigmoid函数值在0~1之间,其函数形式为:
f(x)=1/(1+e-x)
其中,x为该函数的自变量。
5.根据权利要求4所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述LSTM模型包括单向LSTM层和双向LSTM层,包含多个LSTM单元,每个单元包含3中结构,包括遗忘门、输入门和输出门,以此保持状态信息的更新与双向传播;
在双向LSTM层中,其双向传播过程包括前向传播过程和后向传播过程,其中,前向传播过程具体为:
ft=σ(Wf·[ht-1,et]+bf)
it=σ(Wi·[ht-1,et]+bi)
其中, 是上一个前向LSTM单元输出状态信息;σ为sigmoid函数;Wf、Wi、Wc、Wo为连接权重;bf、bi、bc、bo为偏置;首先,通过遗忘门计算上一个前向单元传递的记忆信息 与丢弃的信息概率值ft,然后输入门中σ决定需要更新的信息值it,并通过tanh层得到需要添加的记忆信息 最终更新得到新的记忆信息 最后,输出门中确定 应输出的部分状态信息ot与 得到第t帧et的前向传播特征信息
后向传播过程与前向传播过程相同,不同之处在于序列信息为从句子后部向前传播,这样得到后向传播信息 融合前向传播特征信息 与后向传播特征信息 获得第t帧et完整特征信息ht,计算式如下:
接着将LSTM模型输出引入所述注意力机制中,权重计算公式具体为:
etj=u tanh(whj+b)
其中,hj表示注意力机制Encoder中的隐藏状态信息,u,w是权重参数,b表示偏置参数;
利用hj通过dot点积得到相似度etj,表示每个Encoder过程的隐藏状态对当前的输出St的一个贡献度,St为注意力机制层中每个Encoder过程的输出参数;然后,利用softmax函数将相似度etj转化为概率分布atj;最后,通过Encoder中的隐藏状态hj与条件概率atj的加权和得到注意力向量ct。
6.根据权利要求2所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S25具体过程为:
随机抽取80%语音样本数据形成训练集,剩下20%作为测试集对深度神经网络进行训练;训练使用交叉熵损失函数计算损失,并采用自适应矩估计Adam算法对深度神经网络进行参数的动态更新,最后得到情感识别模型。
7.根据根据权利要求4所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S3具体包括以下步骤:
S31:根据语音样本制作用于相关性分析的对话语音数据集;
S32:提取对话语音数据集的Mel频率倒谱系数MFCC,为了使两个说话人的时间序列能一一对应,对于一个对话场景下音频的每一帧,当A说话时,A的序列alist对应于这帧的值用这帧的MFCC表示;当A的对方B说话时,alist序列此时的值用0表示;B说话时B的序列blist同理,得到alist和blist两个一一对应维数相同的序列;
S33:提取pearson相关性系数,具体为:
提取两个序列alist和blist之间的pearson相关性系数,具体计算公式为:
其中,X,Y表示变量,cov(X,Y)表示协方差,σX,σY表示标准差,μX表示X的期望,μY表示Y的期望;
S34:提取spearman相关性系数,具体为:
提取两个序列alist和blist之间的spearman相关性系数,具体计算公式为:
其中,n为元素个数,若以Xi,Yi分别表示两个随机变量的第i个值,1≤i≤n,对X,Y进行排序,得到X,Y的排序集合x,y,其中元素xi,yi为Xi,Yi在x,y中的排序序号,则di=xi-yi(1≤i≤n);
S35:提取Kendell相关性系数,具体为:
提取两个序列alist和blist之间的Kendell相关性系数,具体计算公式为:
其中,C表示变量X,Y中拥有一致性的元素对数;D表示X,Y中拥有不一致性的元素对数;
N1表示X含有的元素个数s表示X中拥有的小集合数;Ui表示第i个小集合所包含的元素数;t表示Y中拥有的小集合数;Vi表示第i个小集合所包含的元素数;
S36:将得到的一个场景下的两个序列alist和blist之间的pearson相关性系数、spearman相关性系数、Kendell相关性系数作为特征值,表征此场景下的对话相关性或非对话相关性,汇总上述三个相关性系数得到相关性系数数据表;
S37:将相关性系数数据表导入支持向量机分类器中,得到对话相关性分类模型。
8.根据根据权利要求7所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S4具体包括以下步骤:
S41:采集待检测音频;
S42:对待检测的音频序列进行降噪处理,减少录音设备和环境噪音对语音造成的噪声影响;
S43:将降噪处理后的音频序列分成固定长度的语音段、提取MFCC系数并进行归一化处理,作为情感识别模型的输入;
S44:将降噪处理后的音频序列利用端点检测及说话人识别技术,在说话人发生改变处进行切割,依次得到单说话人的若干音频段,然后以同样方式提取MFCC系数,降维求均值,补零得到不同说话人的序列,并求得序列间pearson系数、spearman系数、kendell系数三种相关性系数,作为对话相关性分类模型的输入。
9.根据权利要求8所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S5具体为:将步骤S43得到的语音特征输入情感识别模型中,从输出层sigmoid输出对语音情感的判断,即愤怒/不愤怒,并对数据进行标记,若为愤怒,则执行步骤S6;否则判断为非争吵语音。
10.根据权利要求9所述的基于音频分析与深度学习的争吵识别方法,其特征在于,所述步骤S6具体为:将步骤S44得到的三种相关性系数输入对话相关性分类模型,按次序输入支持向量机模型进行预测,对对话相关性给出判断,输出1代表预测为对话相关,输出0代表预测为对话不相关。

说明书全文

基于音频分析与深度学习的争吵识别方法

技术领域

[0001] 本发明涉及人工智能技术领域,更具体的,涉及一种基于音频分析与深度学习的争吵识别方法。

背景技术

[0002] 公共交通场所人群混杂密集,人与人之间极易产生摩擦、发生口,进而引发打架、拥挤、踩踏等一系列影响公共交通秩序,妨碍公共交通工具正常运行,乃至危害人身安全的严重后果。然而目前公共场所并未采用专用于争吵的识别技术,故难以对激烈争吵等采取及时有效的预警与人工干预。
[0003] 目前国内在争吵等人际交往异常方向的研究扔存在空白。大脑对争吵行为的感知方式可分为“视”和“听”——鉴于争吵行为不同于一般的“举手”、“打球”等规律可循的简单行为,基于视觉的争吵行为识别难度甚高,目前国内外在基于视觉的争吵行为识别领域的研究仍存在空白之处;在音频识别领域,目前国内外在语音情感领域的研究多着眼于说话人基本情感的识别,针对争吵等人际交往异常情况的研究也存在空白之处。
[0004] 作为人机情感交互的基础情感识别的研究工作受到越来越多的关注,关于实现情感识别,国内外也涌现出了不尽相同的多种算法模型。但总结来说,情感识别过程一般包括四个部分:数据获取、数据预处理、情感特征获取、情感分类。其中,各个组成部分的实现方法又各有差异。目前,实现情感分类的常用方法主要由:支持向量机(SVM)、决策树随机森林、隐尔可夫模型、贝叶斯网络、K-means、线性回归分析、多层感知器、多分类器融合和深度神经网络等。Seppanen[1]等人提取了基频、能量、时长相关的40多维情感声学特征,使用KNN分类器取得了60%的识别率。Li[2]等人在SUSAS情感识别数据库上提取了振幅微扰和频率微扰两种音质特征作为语音情感识别特征,通过MFCC特征与振幅微扰及频率微扰的特征组合达到了69.1%的识别正确率。Hu[3]等人提出一种基于GMM超向量的支持向量机方法用于语音情感识别分类任务,发现基于GMM超向量的SVM分类器要好于单纯的SVM分类器。隋小芸[4]等人提出一种基于局部特征优化的语音情感识别方法,通过聚类分析去除语音中情感特征不显著的语音并进行分类,这种通过局部特征优化的语音情感识别方法在语料库上的平均准确率提高5%到17%。
[0005] 目前,语音情感识别技术已愈渐成熟,虽然基本完成对常见情感的分类,但仍存在以下缺点:(1)国内外关于语音情感识别的研究仍主要着眼于如何综合利用各主流算法模型,提高语音情感识别率;(2)相关研究多是针对单一说话人单个语句的情感识别,未考虑语音对话的特点,难以实现争吵等与情感密切相关的对话异常情况的识别。

发明内容

[0006] 本发明为克服现有的语音情感识别技术缺乏对现实情境下的争吵等异常情绪进行研究,存在局限于单人单句识别的技术缺陷,提供一种基于音频分析与深度学习的争吵识别方法。
[0007] 为解决上述技术问题,本发明的技术方案如下:
[0008] 基于音频分析与深度学习的争吵识别方法,包括以下步骤:
[0009] S1:采集与应用场景相匹配的语音样本,包括争吵与非争吵两类数据;
[0010] S2:根据语音样本制作用于情感识别的争吵语音数据集,并构建深度神经网络进行训练,得到情感识别模型;
[0011] S3:根据语音样本制作用于相关性分析的对话语音数据集,得到相关性系数数据表,并构建支持向量机分类器进行训练,得到对话相关性分类模型;
[0012] S4:采集待检测音频,针对情感识别模型、对话相关性分类模型对待检测音频进行预处理,提取语音特征和相关性系数;
[0013] S5:将语音特征输入情感识别模型,判断语音情感是否符合争吵的特点;若是,执行步骤S6;否则判断为非争吵语音;
[0014] S6:将相关性系数输入对话相关性分类模型,判断语音是否处于对话的状态;若是,则判断为争吵语音,否则判断为非争吵语音。
[0015] 其中,所述步骤S2具体包括以下步骤:
[0016] S21:根据语音样本制作用于情感识别的争吵语音数据集;
[0017] S22:对争吵语音数据集进行语音特征的提取,并对每一帧分别进行z-score标准化,得到语音特征序列组;
[0018] S23:根据语音特征序列组最大的序列长度对其他序列进行补零,将不定长序列转化为定长序列,得到定长特征序列组;
[0019] S24:根据定长特征序列组构建基于长短时记忆网络LSTM和注意机制的深度神经网络;
[0020] S25:对深度神经网络进行训练,得到情感识别模型。
[0021] 其中,在所述步骤S24中,所述定长特征序列组的数据标签进行进行独热编码One-Hot Encoding转换。
[0022] 其中,在所述步骤S24中,所述的深度神经网络具体包括:
[0023] 输入层:输入步骤S23中得到的定长特征序列组,并对“0”值进行过滤;
[0024] 单向LSTM层:含有与特征序列维度一一对应的神经元,对时序信息进行初步提取,返回全部输出的特征序列;
[0025] 双向LSTM层:连接新的单向LSTM层,与上一层单向LSTM层输出一一对应,用于进一步时间信息建模,经过双向传播,返回全部输出的特征序列;
[0026] 注意力机制层:从双向LSTM层输出的每一时间步中发现序列的依赖关系;
[0027] 第一全连接层:含有多个神经元,执行全连接运行,输出为:
[0028] F=f(W·t+b)
[0029] 其中,W为全连接层的权重值;所述t为全连接层的输入;b为全连接层的偏置层;所述f(·)为ReLu激活函数,公式为f(x)=max(0,x),所述x为该函数的自变量;
[0030] 第一Dropout层:连接在第一全连接层后,重叠率为0.3,为了避免过拟合;
[0031] 第二全连接层:含有多个神经元;
[0032] 第二Dropout层:连接在第二全连接层后,重叠率为0.2;
[0033] 输出层:该层神经元个数为2,通过sigmoid回归算法将特征映射到目标的两个分类,即愤怒/不愤怒;其中,sigmoid函数值在0~1之间,其函数形式为:
[0034] f(x)=1/(1+e-x)
[0035] 其中,x为该函数的自变量。
[0036] 其中,所述LSTM模型包括单向LSTM层和双向LSTM层,包含多个LSTM单元,每个单元包含3中门结构,包括遗忘门、输入门和输出门,以此保持状态信息的更新与双向传播;
[0037] 在双向LSTM层中,其双向传播过程包括前向传播过程和后向传播过程,其中,前向传播过程具体为:
[0038] ft=σ(Wf·[ht-1,et]+bf)
[0039] it=σ(Wi·[ht-1,et]+bi)
[0040]
[0041]
[0042]
[0043]
[0044] 其中, 是上一个前向LSTM单元输出状态信息;σ为sigmoid函数;Wf、Wi、Wc、Wo为连接权重;bf、bi、bc、bo为偏置;首先,通过遗忘门计算上一个前向单元传递的记忆信息与丢弃的信息概率值ft,然后输入门中σ决定需要更新的信息值it,并通过tanh层得到需要添加的记忆信息 最终更新得到新的记忆信息 最后,输出门中确定 应输出的部分状态信息ot与 得到第t帧et的前向传播特征信息
[0045] 后向传播过程与前向传播过程相同,不同之处在于序列信息为从句子后部向前传播,这样得到后向传播信息 融合前向传播特征信息 与后向传播特征信息 获得第t帧et完整特征信息ht,计算式如下:
[0046]
[0047] 接着将LSTM模型输出引入所述注意力机制中,权重计算公式具体为:
[0048] etj=u tanh(whj+b)
[0049]
[0050]
[0051] 其中,hj表示注意力机制Encoder中的隐藏状态信息,u,w是权重参数,b表示偏置参数;利用hj通过dot点积得到相似度etj,表示每个Encoder过程的隐藏状态对当前的输出St的一个贡献度,St为注意力机制层中每个Encoder过程的输出参数;然后,利用softmax函数将相似度etj转化为概率分布atj;最后,通过Encoder中的隐藏状态hj与条件概率atj的加权和得到注意力向量ct。
[0052] 其中,所述步骤S25具体过程为:
[0053] 随机抽取80%语音样本数据形成训练集,剩下20%作为测试集对深度神经网络进行训练;训练使用交叉熵损失函数计算损失,并采用自适应矩估计Adam算法对深度神经网络进行参数的动态更新,最后得到情感识别模型。
[0054] 其中,所述步骤S3具体包括以下步骤:
[0055] S31:根据语音样本制作用于相关性分析的对话语音数据集;
[0056] S32:提取对话语音数据集的Mel频率倒谱系数MFCC,为了使两个说话人的时间序列能一一对应,对于一个对话场景下音频的每一帧,当A说话时,A的序列alist对应于这帧的值用这帧的MFCC表示;当A的对方B说话时,alist序列此时的值用0表示;B说话时B的序列blist同理,得到alist和blist两个一一对应维数相同的序列;
[0057] S33:提取pearson相关性系数,具体为:
[0058] 提取两个序列alist和blist之间的pearson相关性系数,具体计算公式为:
[0059]
[0060] 其中,X,Y表示变量,cov(X,Y)表示协方差,σX,σY表示标准差,μX表示X的期望,μY表示Y的期望;
[0061] S34:提取spearman相关性系数,具体为:
[0062] 提取两个序列alist和blist之间的spearman相关性系数,具体计算公式为:
[0063]
[0064] 其中,n为元素个数,若以Xi,Yi分别表示两个随机变量的第i个值,1≤i≤n,对X,Y进行排序,得到X,Y的排序集合x,y,其中元素xi,yi为Xi,Yi在x,y中的排序序号,则di=xi-yi(1≤i≤n);
[0065] S35:提取Kendell相关性系数,具体为:
[0066] 提取两个序列alist和blist之间的Kendell相关性系数,具体计算公式为:
[0067]
[0068]
[0069] 其中,C表示变量X,Y中拥有一致性的元素对数;D表示X,Y中拥有不一致性的元素对数;N1表示X含有的元素个数s表示X中拥有的小集合数;Ui表示第i个小集合所包含的元素数;t表示Y中拥有的小集合数;Vi表示第i个小集合所包含的元素数;
[0070] S36:将得到的一个场景下的两个序列alist和blist之间的pearson相关性系数、spearman相关性系数、Kendell相关性系数作为特征值,表征此场景下的对话相关性或非对话相关性,汇总上述三个相关性系数得到相关性系数数据表;
[0071] S37:将相关性系数数据表导入支持向量机分类器中,得到对话相关性分类模型。
[0072] 其中,所述步骤S4具体包括以下步骤:
[0073] S41:采集待检测音频;
[0074] S42:对待检测的音频序列进行降噪处理,减少录音设备和环境噪音对语音造成的噪声影响;
[0075] S43:将降噪处理后的音频序列分成固定长度的语音段、提取MFCC系数并进行归一化处理,作为情感识别模型的输入;
[0076] S44:将降噪处理后的音频序列利用端点检测及说话人识别技术,在说话人发生改变处进行切割,依次得到单说话人的若干音频段,然后以同样方式提取MFCC系数,降维求均值,补零得到不同说话人的序列,并求得序列间pearson系数、spearman系数、kendell系数三种相关性系数,作为对话相关性分类模型的输入。
[0077] 其中,所述步骤S5具体为:将步骤S43得到的语音特征输入情感识别模型中,从输出层sigmoid输出对语音情感的判断,即愤怒/不愤怒,并对数据进行标记,若为愤怒,则执行步骤S6;否则判断为非争吵语音。
[0078] 其中,所述步骤S6具体为:将步骤S44得到的三种相关性系数输入对话相关性分类模型,按次序输入支持向量机模型进行预测,对对话相关性给出判断,输出1代表预测为对话相关,输出0代表预测为对话不相关。
[0079] 与现有技术相比,本发明技术方案的有益效果是:
[0080] 本发明提供的基于音频分析与深度学习的争吵识别方法,基于双向LSTM和自注意力机制的深度学习模型,实现与争吵相关情感的初步识别,在情感识别基础上,提取对话相关性的语音特征,通过基于支持向量机的对话相关性分类模型,最终实现争吵识别,本发明将争吵识别方法结合情感识别与对话相关性分析,对现实情境下的争吵进行有效的判定,适合应用于公共交通场所,用于辅助管理人员监管,可以及时有效地发现争吵和避免引起相关的后果。附图说明
[0081] 图1为本发明所述方法流程示意图;
[0082] 图2为深度神经网络结构示意图;
[0083] 图3为LSTM单元结构示意图。

具体实施方式

[0084] 附图仅用于示例性说明,不能理解为对本专利的限制;
[0085] 为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
[0086] 对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0087] 下面结合附图和实施例对本发明的技术方案做进一步的说明。
[0088] 实施例1
[0089] 如图1所示,基于音频分析与深度学习的争吵识别方法,包括以下步骤:
[0090] S1:采集与应用场景相匹配的语音样本,包括争吵与非争吵两类数据,且保持数据平衡;
[0091] S2:根据语音样本制作用于情感识别的争吵语音数据集,并构建深度神经网络进行训练,得到情感识别模型;
[0092] S3:根据语音样本制作用于相关性分析的对话语音数据集,得到相关性系数数据表,并构建支持向量机分类器进行训练,得到对话相关性分类模型;
[0093] S4:采集待检测音频,针对情感识别模型、对话相关性分类模型对待检测音频进行预处理,提取语音特征和相关性系数;
[0094] S5:将语音特征输入情感识别模型,判断语音情感是否符合争吵的特点;若是,执行步骤S6;否则判断为非争吵语音;
[0095] S6:将相关性系数输入对话相关性分类模型,判断语音是否处于对话的状态;若是,则判断为争吵语音,否则判断为非争吵语音。
[0096] 在具体实施过程中,本发明提供的基于音频分析与深度学习的争吵识别方法,基于双向LSTM和自注意力机制的深度学习模型,实现与争吵相关情感的初步识别,在情感识别基础上,提取对话相关性的语音特征,通过基于支持向量机的对话相关性分类模型,最终实现争吵识别,本发明将争吵识别方法结合情感识别与对话相关性分析,对现实情境下的争吵进行有效的判定,适合应用于公共交通场所,用于辅助管理人员监管,可以及时有效地发现争吵和避免引起相关的后果。
[0097] 实施例2
[0098] 更具体的,在实施例1的基础上,所述步骤S2具体包括以下步骤:
[0099] S21:根据语音样本制作用于情感识别的争吵语音数据集;本实施例采用的争吵语音数据集收集自影视剧作品的争吵片段,音频时长在10s左右,能较好体现争吵过程中的语音特征且不至于使得音频过长而难以处理和泛化。经过降噪和听辨筛选,保留情感表达充分且不易混淆、音质较好的音频共430条,16kHz采用,16bit量化,其中争吵音频215条,非争吵音频215条,满足数据平衡要求。
[0100] S22:对争吵语音数据集进行语音特征的提取,并对每一帧分别进行z-score标准化,得到语音特征序列组,即梅尔频率倒谱系数MFCC。MFCC是常用的语音特征,将捋人的听觉感知特征与语音信号的产生机制有机结合。本实施例利用python中的librosa工具包分别对上述两个数据提取48维的MFCC系数作为音频特征,并进行归一化处理。
[0101] S23:根据语音特征序列组最大的序列长度对其他序列进行补零,将不定长序列转化为定长序列,得到定长特征序列组;
[0102] S24:根据定长特征序列组构建基于长短时记忆网络LSTM和注意力机制的深度神经网络;
[0103] S25:对深度神经网络进行训练,得到情感识别模型。
[0104] 更具体的,在所述步骤S24中,所述定长特征序列组的数据标签进行进行独热编码(One-Hot Encoding)转换。
[0105] 更具体的,如图2所示,在所述步骤S24中,所述的深度神经网络具体包括:
[0106] 输入层:输入步骤S23中得到的48维定长特征序列组,并对“0”值进行过滤;
[0107] 单向LSTM层:含有48个神经元,对时序信息进行初步提取,返回全部输出的特征序列,仍为48维;
[0108] 双向LSTM层:连接新的含有48个神经元的单向LSTM层,与上一层单向LSTM层输出一一对应,用于进一步时间信息建模,经过双向传播,返回全部输出的特征序列,为96维;
[0109] 注意力机制层:从双向LSTM层输出的每一时间步中发现序列的依赖关系;
[0110] 第一全连接层:含有64个神经元,执行全连接运行,输出为:
[0111] F=f(W·t+b)
[0112] 其中,W为全连接层的权重值;所述t为全连接层的输入;b为全连接层的偏置层;所述f(·)为ReLu激活函数,公式为f(x)=max(0,x),所述x为该函数的自变量;
[0113] 第一Dropout层:连接在第一全连接层后,重叠率为0.3,为了避免过拟合;
[0114] 第二全连接层:含有32个神经元;
[0115] 第二Dropout层:连接在第二全连接层后,重叠率为0.2;
[0116] 输出层:该层神经元个数为2,通过sigmoid回归算法将特征映射到目标的两个分类,即愤怒/不愤怒;其中,sigmoid函数值在0~1之间,其函数形式为:
[0117] f(x)=1/(1+e-x)
[0118] 其中,x为该函数的自变量。
[0119] 更具体的,如图3所示,所述LSTM模型包括单向LSTM层和双向LSTM层,包含多个LSTM单元,每个单元包含3中门结构,包括遗忘门、输入门和输出门,以此保持状态信息的更新与双向传播;
[0120] 在双向LSTM层中,其双向传播过程包括前向传播过程和后向传播过程,其中,前向传播过程具体为:
[0121] ft=σ(Wf·[ht-1,et]+bf)
[0122] it=σ(Wi·[ht-1,et]+bi)
[0123]
[0124]
[0125]
[0126]
[0127] 其中, 是上一个前向LSTM单元输出状态信息;σ为sigmoid函数;Wf、Wi、Wc、Wo为连接权重;bf、bi、bc、bo为偏置;首先,通过遗忘门计算上一个前向单元传递的记忆信息 与丢弃的信息概率值ft,然后输入门中σ决定需要更新的信息值it,并通过tanh层得到需要添加的记忆信息 最终更新得到新的记忆信息 最后,输出门中确定 应输出的部分状态信息ot与 得到第t帧et的前向传播特征信息
[0128] 后向传播过程与前向传播过程相同,不同之处在于序列信息为从句子后部向前传播,这样得到后向传播信息 融合前向传播特征信息 与后向传播特征信息 获得第t帧et完整特征信息ht,计算式如下:
[0129]
[0130] 接着将LSTM模型输出引入所述注意力机制中,权重计算公式具体为:
[0131] etj=u tanh(whj+b)
[0132]
[0133]
[0134] 其中,hj表示注意力机制Encoder中的隐藏状态信息,u,w是权重参数,b表示偏置参数;利用hj通过dot点积得到相似度etj,表示每个Encoder过程的隐藏状态对当前的输出St的一个贡献度,St为注意力机制层中每个Encoder过程的输出参数;然后,利用softmax函数将相似度etj转化为概率分布atj;最后,通过Encoder中的隐藏状态hj与条件概率atj的加权和得到注意力向量ct。
[0135] 更具体的,所述步骤S25具体过程为:
[0136] 随机抽取80%语音样本数据形成训练集,剩下20%作为测试集对深度神经网络进行训练;训练使用交叉熵损失函数计算损失,并采用自适应矩估计Adam算法对深度神经网络进行参数的动态更新,学习率设置为0.0001,批大小为32,最大循环数为20,最后得到情感识别模型。
[0137] 更具体的,所述步骤S3具体包括以下步骤:
[0138] S31:根据语音样本制作用于相关性分析的对话语音数据集;本实施例采用的对话语音数据集收集自影视剧作品中的对话片段;简单起见,本实施例只考虑两个人的对话;若以A代表说话人A在说话,B代表说话人B在说话,为了确保相关性,剪辑的所有片段都至少是ABAB型的,且在一个片段中A、B个数均为偶数,A和B的总数从4到12不等。采样频率设置为44100HZ,16bit量化;再捋每一个对话片段的语音数据分别按时间顺序进行分割,使被分割的每个小片段只含有一个说话人的声音;本实施例最终得到10个争吵对话场景的数据,11个正常对话场景的数据,共180条单说话人音频。
[0139] S32:提取对话语音数据集的Mel频率倒谱系数MFCC,本实施例利用python中的librosa工具包对上述语音数据集提取20维的MFCC系数作为音频特征,并进行归一化处理,为了得到说话人的语音时间序列,对每一列20维的MFCC求均值,以此代表这帧的语音特征。为了使两个说话人的时间序列能一一对应,对于一个对话场景下音频的每一帧,当A说话时,A的序列alist对应于这帧的值用这帧的MFCC表示;当A的对方B说话时,alist序列此时的值用0表示;B说话时B的序列blist同理,得到alist和blist两个一一对应维数相同的序列;
[0140] S33:提取pearson相关性系数,具体为:
[0141] 提取两个序列alist和blist之间的pearson相关性系数,具体计算公式为:
[0142]
[0143] 其中,X,Y表示变量,cov(X,Y)表示协方差,σX,σY表示标准差,μX表示X的期望,μY表示Y的期望;
[0144] S34:提取spearman相关性系数,具体为:
[0145] 提取两个序列alist和blist之间的spearman相关性系数,具体计算公式为:
[0146]
[0147] 其中,n为元素个数,若以Xi,Yi分别表示两个随机变量的第i个值,1≤i≤n,对X,Y进行排序,得到X,Y的排序集合x,y,其中元素xi,yi为Xi,Yi在x,y中的排序序号,则di=xi-yi(1≤i≤n);
[0148] S35:提取Kendell相关性系数,具体为:
[0149] 提取两个序列alist和blist之间的Kendell相关性系数,具体计算公式为:
[0150]
[0151]
[0152] 其中,C表示变量X,Y中拥有一致性的元素对数;D表示X,Y中拥有不一致性的元素对数;N1表示X含有的元素个数s表示X中拥有的小集合数;Ui表示第i个小集合所包含的元素数;t表示Y中拥有的小集合数;Vi表示第i个小集合所包含的元素数;
[0153] S36:将得到的一个场景下的两个序列alist和blist之间的pearson相关性系数、spearman相关性系数、Kendell相关性系数作为特征值,表征此场景下的对话相关性或非对话相关性,汇总上述三个相关性系数得到相关性系数数据表;
[0154] S37:将相关性系数数据表导入支持向量机分类器中,得到对话相关性分类模型;本实施例中训练支持向量机分类器训练样本占比train_size=0.6,采用线性核函数kernel=’rbf’即高斯核,gamma值为20,惩罚系数C=0.8;决策函数decision_function_shape=’ovr’,为一个类别与其他类别的划分。
[0155] 更具体的,所述步骤S4具体包括以下步骤:
[0156] S41:采集待检测音频;
[0157] S42:对待检测的音频序列进行降噪处理,减少录音设备和环境噪音对语音造成的噪声影响;
[0158] S43:将降噪处理后的音频序列分成固定长度10s的语音段、提取48维MFCC系数并进行归一化处理,作为情感识别模型的输入;
[0159] S44:将降噪处理后的音频序列利用端点检测及说话人识别技术,在说话人发生改变处进行切割,依次得到单说话人的若干音频段,然后以同样方式提取MFCC系数,降维求均值,补零得到不同说话人的序列,并求得序列间pearson系数、spearman系数、kendell系数三种相关性系数,作为对话相关性分类模型的输入。
[0160] 更具体的,所述步骤S5具体为:将步骤S43得到的语音特征输入情感识别模型中,输入大小为timesteps*48,其中timesteps代表音频的帧数,48即特征个数,从输出层sigmoid输出对语音情感的判断,即愤怒/不愤怒,并对数据进行标记,若为愤怒,则执行步骤S6;否则判断为非争吵语音。
[0161] 更具体的,所述步骤S6具体为:将步骤S44得到的三种相关性系数输入对话相关性分类模型,按次序输入支持向量机模型进行预测,对对话相关性给出判断,输出1代表预测为对话相关,输出0代表预测为对话不相关。
[0162] 在具体实施过程中,本发明实施例基于情感识别分析和对话相关性分析,应用双向长短期记忆网络、注意力机制以及相关性分析,成功构建了争吵语音识别框架,并取得了理想的分类正确率。
[0163] 显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
[0164] [1]Eero Juhani Toivanen,Tapio Classification of emotion in spoken Finnish using vowel-length segments:Increasing reliability with a fusion technique[J].Speech Communication,2010,53(3).
[0165] [2]Xi Li,Jidong Tao,Johnson,M.T.,Soltis,J.,Savage,A.,Leong,K.M.,Newman,J.D..Stress and Emotion Classification using Jitter and Shimmer Features[P].Acoustics,Speech and Signal Processing,2007.ICASSP 2007.IEEE International Conference on,2007.
[0166] [3]Hao Hu,Ming-Xing Xu,Wei Wu.GMM Supervector Based SVM with Spectral Features for Speech Emotion Recognition[P].Acoustics,Speech and Signal Processing,2007.ICASSP 2007.IEEE International Conference on,2007.
[0167] [4]隋小芸,朱廷劭,汪静莹.基于局部特征优化的语音情感识别[J].中国科学院大学学报,2017,34(04):431-438.
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈