首页 / 专利库 / 人工智能 / 人工智能 / 机器学习 / 人工神经网络 / 前馈神经网络 / 深度神经网络 / 卷积神经网络 / 基于人工智能的语音增强方法、服务器及存储介质

基于人工智能的语音增强方法、服务器及存储介质

阅读:1023发布:2020-06-28

专利汇可以提供基于人工智能的语音增强方法、服务器及存储介质专利检索,专利查询,专利分析的服务。并且本 发明 涉及 数据处理 技术,提供了一种基于 人工智能 的语音增强方法、 服务器 及存储介质。该方法首先获取语音数据作为训练样本,构建生成对抗网络,将带噪语音与其对应的去噪语音输入 鉴别 器,通过损失函数更新鉴别器参数,然后将带噪语音输入生成器,将输出的语音与该带噪语音一起输入鉴别器,计算损失更新鉴别器的参数,固定鉴别器的参数,将带噪语音输入生成器,将输出的语音与该带噪语音输入鉴别器,通过生成器的损失函数更新生成器的参数,将更新参数后的生成器作为语音增强模型,将待增强语音数据输入语音增强模型,生成增强后的语音数据。本发明可以提升基于生成对抗网络的语音增强模型的性能,进而提高语音增强的效果。,下面是基于人工智能的语音增强方法、服务器及存储介质专利的具体信息内容。

1.一种基于人工智能的语音增强方法,应用于服务器,其特征在于,所述方法包括:
获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
2.如权利要求1所述的基于人工智能的语音增强方法,其特征在于,所述生成器由一个两层的卷积网络及一个两层的全连接神经网络组成,所述卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
3.如权利要求1所述的基于人工智能的语音增强方法,其特征在于,所述鉴别器由一个八层的卷积网络、一个一层的长短期记忆循环网络及一个二层的全连接神经网络组成,所述卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
4.如权利要求1所述的基于人工智能的语音增强方法,其特征在于,所述生成器的损失函数为:
其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示样本Z的分布,Xc表示与带噪语音输入生成器后输出的语音,E表示求样本Xc、Z输出的均值,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示所述鉴别器对G(Z,Xc)和Xc的真实度的评分。
5.如权利要求1至4任意一项所述的基于人工智能的语音增强方法,其特征在于,所述鉴别器的损失函数为:
其中,D表示鉴别器,X表示去噪语音,Xc表示与带噪语音输入生成器后输出的语音,X,Xc~Pdata(X,Xc)表示关于训练样本特征X和Xc的分布,D(X,Xc)表示鉴别器对X和Xc的真实度评分,Z~Pz(z)样本Z的分布,Xc~Pdata(Xc)表示样本Xc的分布,E表示求样本X、Xc或样本Z、Xc输出的均值,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示鉴别器对G(Z,Xc)和Xc的真实度评分。
6.一种服务器,该服务器包括存储器及处理器,其特征在于,所述存储器上存储基于人工智能的语音增强程序,所述基于人工智能的语音增强程序被所述处理器执行,实现如下步骤:
获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
7.如权利要求6所述的服务器,其特征在于,所述生成器由一个两层的卷积网络及一个两层的全连接神经网络组成,所述卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
8.如权利要求6所述的服务器,其特征在于,所述鉴别器由一个八层的卷积网络、一个一层的长短期记忆循环网络及一个二层的全连接神经网络组成,所述卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
9.如权利要求6所述的服务器,其特征在于,所述生成器的损失函数为:
其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示样本Z的分布,Xc表示与带噪语音输入生成器后输出的语音,E表示求样本Xc、Z输出的均值,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示所述鉴别器对G(Z,Xc)和Xc的真实度的评分。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括基于人工智能的语音增强程序,所述基于人工智能的语音增强程序被处理器执行时,可实现如权利要求1至5中任一项所述基于人工智能的语音增强方法的步骤。

说明书全文

基于人工智能的语音增强方法、服务器及存储介质

技术领域

[0001] 本发明涉及人工智能技术领域,尤其涉及一种基于人工智能的语音增强方法、服务器及存储介质。

背景技术

[0002] 语音增强的目的主要是从带噪语音中去除复杂的背景噪声,并保证在语音信号不失真的条件下提升语音可懂度。传统的语音增强算法大多是基于噪声估计,且处理的噪声类型单一,并不能很好的处理复杂背景下的语音去噪问题。随着神经网络的迅速发展,越来越多的神经网络模型也被应用到语音增强算法中。
[0003] 然而,由于语音噪声的分布通常复杂,现有的通过基于深度学习的语音增强方法,模型收敛不稳定,导致语音增强效果差。

发明内容

[0004] 鉴于以上内容,本发明提供一种基于人工智能的语音增强方法、服务器及存储介质,其目的在于本提升语音增强的效果。
[0005] 为实现上述目的,本发明提供一种基于人工智能的语音增强方法,该方法包括:
[0006] 获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
[0007] 构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
[0008] 第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
[0009] 第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
[0010] 反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0011] 优选的,所述生成器由一个两层的卷积网络及一个两层的全连接神经网络组成,所述卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
[0012] 优选的,所述鉴别器由一个八层的卷积网络、一个一层的长短期记忆循环网络及一个二层的全连接神经网络组成,所述卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
[0013] 优选的,所述生成器的损失函数为:
[0014]
[0015] 其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示样本Z的分布,Xc表示与带噪语音输入生成器后输出的语音,E表示求样本Xc、Z输出的均值,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示所述鉴别器对G(Z,Xc)和Xc的真实度的评分。
[0016] 优选的,所述鉴别器的损失函数为:
[0017]
[0018] 其中,D表示鉴别器,X表示去噪语音,Xc表示与带噪语音输入生成器后输出的语音,X,Xc~Pdata(X,Xc)表示关于训练样本特征X和Xc的分布,D(X,Xc)表示鉴别器对X和Xc的真实度评分,Z~Pz(z)样本Z的分布,Xc~Pdata(Xc)表示样本Xc的分布,E表示求样本X、Xc或样本Z、Xc输出的均值,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示鉴别器对G(Z,Xc)和Xc的真实度评分。
[0019] 为实现上述目的,本发明还提供一种服务器,该服务器包括:存储器及处理器,其特征在于,所述存储器上存储基于人工智能的语音增强程序,所述基于人工智能的语音增强程序被所述处理器执行,实现如下步骤:
[0020] 获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
[0021] 构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
[0022] 第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
[0023] 第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
[0024] 反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0025] 优选的,所述生成器由一个两层的卷积网络及一个两层的全连接神经网络组成,所述卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
[0026] 优选的,所述鉴别器由一个八层的卷积网络、一个一层的长短期记忆循环网络及一个二层的全连接神经网络组成,所述卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接神经网络的激活函数为sigmoid函数。
[0027] 优选的,所述生成器的损失函数为:
[0028]
[0029] 其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示样本Z的分布,Xc表示与带噪语音输入生成器后输出的语音,E表示求样本Xc、Z输出的均值,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示所述鉴别器对G(Z,Xc)和Xc的真实度的评分。
[0030] 为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括基于人工智能的语音增强程序,所述基于人工智能的语音增强程序被处理器执行时,可实现如上所述基于人工智能的语音增强方法中的任意步骤。
[0031] 相比现有技术的基于人工智能的语音增强方法,本发明提出的基于人工智能的语音增强方法、服务器及存储介质,通过获取带噪语音及其对应的去噪语音作为训练样本,构建包括鉴别器和生成器的生成式对抗网络,并基于带噪语音及生成器输出的语音多次调整、更新鉴别器的参数得到第一鉴别器,再基于第一鉴别器得到生成器的损失函数,最后通过最小化生成器的损失函数值调整生成器的参数得到语音增强模型,应用于语音数据增强。本发明提供的基于人工智能的语音增强方法应用的上述生成式对抗网络,没有RNN中类似的递归操作,相较于神经网络时效性更高、数据处理速度更快,从而实现快速增强语音。此外,上述生成式对抗网络的生成器和鉴别器处理的是原始音频,不需要手动提取特征,还可以从不同说话者和不同类型噪声中学习语音特征并将其结合在一起形成共享参数,使得系统简单且泛化能较强。
附图说明
[0032] 图1为本发明服务器较佳实施例的示意图;
[0033] 图2为图1中基于人工智能的语音增强程序较佳实施例的模示意图;
[0034] 图3为本发明基于人工智能的语音增强方法较佳实施例的流程图
[0035] 本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

[0036] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0037] 参照图1所示,为本发明服务器1较佳实施例的示意图。
[0038] 该服务器1包括但不限于:存储器11、处理器12、显示器13及网络接口14。所述服务器1通过网络接口14连接网络,获取原始数据。其中,所述网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯系统(Global System of  Mobile communication,GSM)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi、通话网络等无线或有线网络。
[0039] 其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器11可以是所述服务器1的内部存储单元,例如该服务器1的硬盘或内存。在另一些实施例中,所述存储器11也可以是所述服务器1的外部存储设备,例如该服务器1配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器11还可以既包括所述服务器1的内部存储单元也包括其外部存储设备。本实施例中,存储器11通常用于存储安装于所述服务器1的操作系统和各类应用软件,例如基于人工智能的语音增强程序10的程序代码等。此外,存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。
[0040] 处理器12在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器微控制器微处理器、或其他数据处理芯片。该处理器12通常用于控制所述服务器1的总体操作,例如执行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行基于人工智能的语音增强程序10的程序代码等。
[0041] 显示器13可以称为显示屏或显示单元。在一些实施例中显示器13可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器13用于显示在服务器1中处理的信息以及用于显示可视化的工作界面,例如显示数据统计的结果。
[0042] 网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),该网络接口14通常用于在所述服务器1与其它电子设备之间建立通信连接。
[0043] 图2仅示出了具有组件11-14以及基于人工智能的语音增强程序10的服务器1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
[0044] 可选地,所述服务器1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在服务器1中处理的信息以及用于显示可视化的用户界面
[0045] 该服务器1还可以包括射频(Radio Frequency,RF)电路传感器和音频电路等等,在此不再赘述。
[0046] 在上述实施例中,处理器12执行存储器11中存储的基于人工智能的语音增强程序10时可以实现如下步骤:
[0047] 获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
[0048] 构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
[0049] 第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
[0050] 第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
[0051] 反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0052] 关于上述步骤的详细介绍,请参照下述图2关于基于人工智能的语音增强程序10实施例的程序模块图以及图3关于基于人工智能的语音增强方法实施例的流程图的说明。
[0053] 在其他实施例中,所述基于人工智能的语音增强程序10可以被分割为多个模块,该多个模块被存储于存储器12中,并由处理器13执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
[0054] 参照图2所示,为图2中基于人工智能的语音增强程序10一实施例的程序模块图。在本实施例中,所述基于人工智能的语音增强程序10可以被分割为:获取模块110、构建模块120、第一训练模块130、第二训练模块140及反馈模块150。
[0055] 获取模块110,用于获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集。
[0056] 在本实施中,可以从预设第三方语音库获取预设数量的带噪语音数据以及与各带噪语音数据对应的去噪语音数据作为训练样本。所述去噪语音数据与带噪语音数据使用16KHz进行采样,语音长设置为16ms,语音帧移设置为8ms。可以理解的是,本发明对所获取的语音频谱的帧长、帧移以及语音频谱中所包含的声学特征不进行限定。
[0057] 从预设语音库获取到的带噪语音和去噪语音是未经处理的语音数据,未经处理的语音数据可能会包含一些无效、冗余的语音数据。例如,语音时长达不到要求,语音质量不符合要求等为无效、冗余的语音数据。或者,在未经处理的语音数据中会存在部分无效或者冗余的语音时段,这部分冗余或无效的语音时段的存在会对后续的语音数据处理过程带来不好的影响,因此需去除这部分冗余或无效的语音时段,其中,语音时段是未经处理的语音数据的一部分。可以对原始语音数据作除杂和滤波处理,以提高后续语音数据的处理效率。
[0058] 构建模块120,用于构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器。
[0059] 在本实施例中,构建的生成式对抗网络包括1个生成器和1个鉴别器,生成器的输出与鉴别器的输入相连,鉴别器的判别结果再反馈至生成器。
[0060] 生成器可以由一个两层的卷积网络和一个两层的全连接神经网络组成,卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接网络的激活函数为sigmoid函数,生成器将生成的语音和去噪语音输入鉴别器,训练鉴别器神经网络,鉴别器对生成器产生的预测语音判定为虚假数据并给予低分(接近0),对真实的去噪语音判定为真实数据并给予高分(接近1),以此学习去噪语音和生成器生成的语音数据的分布。鉴别器可以由一个八层的卷积网络、一个一层的长短期记忆循环网络和一个二层的全连接神经网络组成,卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接网络的激活函数为sigmoid函数。
[0061] 第一训练模块130,用于将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数。
[0062] 在迭代训练开始时,首先将第一数据集的语音输入鉴别器,鉴别器的输出值为输入的带噪语音的真实度评分,根据该带噪语音的真实度评分得到鉴别器的损失函数,根据鉴别器的损失函数利用反向传播算法更新鉴别器的参数,得到第一鉴别器。再将第二数据集的带噪语音输入生成对抗网络中的生成器,将生成器输出的语音和该带噪语音输入第一鉴别器,第一鉴别器的输出的结果通过反向传播算法,更新第一鉴别器的参数。在本实施例中,对任意的输入样本带噪语音X,鉴别器输出[0,1]的实数,用来表示输入X的真实度,越接近0表示真实度越低,越接近1表示真实度越高。
[0063] 根据目标公式对生成式对抗网络进行优化,所述目标公式为:
[0064]
[0065] 其中,V表示损失值,G表示生成器,D表示鉴别器,log为对数函数,X为去噪语音数据,X~Pdata(X)表示关于去噪语音X的分布,Z表示带噪语音,Z~Pz(z)表示关于带噪语音Z的分布,D(x)表示鉴别器对去噪语音X的真实度评分,G(z)表示带噪语音输入生成器后输出的生成语音,D(G(z))表示鉴别器对由生成器输出的生成语音的真实度评分,E表示求样本X或样本Z输出的均值。
[0066] 在对鉴别器进行优化时,需要最大化带噪语音Z与去燥语音X的均值之和,根据上述目标公式可得知鉴别器的损失函数为:
[0067]
[0068] 其中,D表示鉴别器,X表示去噪语音数据,Xc表示带噪语音输入生成器后输出的语音,Pdata表示训练样本,X,Xc~Pdata(X,Xc)表示关于训练样本特征X和Xc的分布,D(X,Xc)表示利用鉴别器对X和Xc的真实度评分,Z~Pz(z)表示带噪语音样本Z的分布,Xc~Pdata(Xc)表示关于生成器输出的生成语音Xc的分布,E表示求样本X、Xc或样本Z、Xc输出的均值,D(G(Z,Xc),Xc)表示鉴别器对由生成器生成的合成数据G(Z,Xc)和Xc的真实度评分,G(Z,Xc)表示该生成器将样本Z和样本Xc转换为合成数据。
[0069] 将训练样本Z和训练样本X、Xc的真实度评分代入鉴别器的损失函数中,通过不断最小化鉴别器的损失函数值,可以优化鉴别器不同层节点间的权重,当鉴别器的损失函数值小于第一预设阈值时,更新鉴别器的参数。
[0070] 第二训练模块140,用于将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型。
[0071] 在本实施例中,在对生成器G进行优化时,需要最小化生成样本的真实度评分值,根据上述目标公式可得知生成器的损失函数:
[0072]
[0073] 其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示关于带噪语音样本Z的分布,E表示求样本Xc、Z输出的均值,Xc表示与带噪语音输入生成器后输出的生成语音,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示该生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示该鉴别器对由生成器生成的合成数据G(Z,Xc)和Xc的真实度评分。
[0074] 将训练样本Z和训练样本Xc的真实度评分代入生成器的损失函数,通过不断最小化生成器的损失函数值,可以优化生成器不同层节点间的权重,当生成器的损失函数值小于第二预设阈值时,更新生成器的参数。
[0075] 在本实施例中,总共训练86个epoch,学习率为0.0002,Batchsize为400。一个epoch指所有的数据送入网络中完成一次前向计算及反向传播的过程。由于一个epoch太大,计算机难以负荷,因此将它分成几个较小的batches,batch就是每次送入网络中训练的一部分数据,而Batch Size就是每个batch中训练样本的数量。
[0076] 反馈模块150,用于接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0077] 在本实施例中,可以通过传声器接收用户发送的待增强语音,经短时傅里叶变换转化成语谱图送入已经训练好的语音增强模型中,生成预测去噪语音数据,再通过反短时傅里叶变换转化成语音模拟信号,将该语音模拟信号反馈给用户,经扬声器等装置播放出来,即得到增强的语音,将增强后的语音反馈给所述用户。
[0078] 此外,本发明还提供一种基于人工智能的语音增强方法。参照图3所示,为本发明基于人工智能的语音增强方法的实施例的方法流程示意图。服务器1的处理器12执行存储器11中存储的基于人工智能的语音增强程序10时实现基于人工智能的语音增强方法的如下步骤:。
[0079] 步骤S10:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集。
[0080] 在本实施中,可以从预设第三方语音库获取预设数量的带噪语音数据以及与各带噪语音数据对应的去噪语音数据作为训练样本。在一个实施例中,所述去噪语音数据与带噪语音数据使用16KHz进行采样,语音帧长设置为16ms,语音帧移设置为8ms。可以理解的是,本发明对所获取的语音频谱的帧长、帧移以及语音频谱中所包含的声学特征不进行限定。
[0081] 从预设语音库获取到的带噪语音和去噪语音是未经处理的语音数据,未经处理的语音数据可能会包含一些无效、冗余的语音数据。例如,语音时长达不到要求,语音质量不符合要求等为无效、冗余的语音数据。或者,在未经处理的语音数据中会存在部分无效或者冗余的语音时段,这部分冗余或无效的语音时段的存在会对后续的语音数据处理过程带来不好的影响,因此需去除这部分冗余或无效的语音时段,其中,语音时段是未经处理的语音数据的一部分。可以对原始语音数据作除杂和滤波处理,以提高后续语音数据的处理效率。
[0082] 步骤S20:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器。
[0083] 在本实施例中,构建的生成式对抗网络包括1个生成器和1个鉴别器,生成器的输出与鉴别器的输入相连,鉴别器的判别结果再反馈至生成器。
[0084] 生成器可以由一个两层的卷积网络和一个两层的全连接神经网络组成,卷积网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接网络的激活函数为sigmoid函数,生成器将生成的语音和去噪语音输入鉴别器,训练鉴别器神经网络,鉴别器对生成器产生的预测语音判定为虚假数据并给予低分(接近0),对真实的去噪语音判定为真实数据并给予高分(接近1),以此学习去噪语音和生成器生成的语音数据的分布。鉴别器可以由一个八层的卷积网络、一个一层的长短期记忆循环网络和一个二层的全连接神经网络组成,卷积网络、长短期记忆循环网络及第一层全连接神经网络的激活函数为Relu函数,第二层全连接网络的激活函数为sigmoid函数。
[0085] 步骤S30:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数。
[0086] 在迭代训练开始时,首先将第一数据集的语音输入鉴别器,鉴别器的输出值为输入的带噪语音的真实度评分,根据该带噪语音的真实度评分得到鉴别器的损失函数,根据鉴别器的损失函数利用反向传播算法更新鉴别器的参数,得到第一鉴别器。再将第二数据集的带噪语音输入生成对抗网络中的生成器,将生成器输出的语音和该带噪语音输入第一鉴别器,第一鉴别器的输出的结果通过反向传播算法,更新第一鉴别器的参数。在本实施例中,对任意的输入样本带噪语音X,鉴别器输出[0,1]的实数,用来表示输入X的真实度,越接近0表示真实度越低,越接近1表示真实度越高。
[0087] 根据目标公式对生成式对抗网络进行优化,所述目标公式为:
[0088]
[0089] 其中,V表示损失值,G表示生成器,D表示鉴别器,log为对数函数,X为去噪语音数据,X~Pdata(X)表示关于去噪语音X的分布,Z表示带噪语音,Z~Pz(z)表示关于带噪语音Z的分布,D(x)表示鉴别器对去噪语音X的真实度评分,G(z)表示带噪语音输入生成器后输出的生成语音,D(G(z))表示鉴别器对由生成器输出的生成语音的真实度评分,E表示求样本X或样本Z输出的均值。
[0090] 在对鉴别器进行优化时,需要最大化带噪语音Z与去燥语音X的均值之和,根据上述目标公式可得知鉴别器的损失函数为:
[0091]
[0092] 其中,D表示鉴别器,X表示去噪语音数据,Xc表示带噪语音输入生成器后输出的语音,Pdata表示训练样本,X,Xc~Pdata(X,Xc)表示关于训练样本特征X和Xc的分布,D(X,Xc)表示利用鉴别器对X和Xc的真实度评分,Z~Pz(z)表示带噪语音样本Z的分布,Xc~Pdata(Xc)表示关于生成器输出的生成语音Xc的分布,E表示求样本X、Xc或样本Z、Xc输出的均值,D(G(Z,Xc),Xc)表示鉴别器对由生成器生成的合成数据G(Z,Xc)和Xc的真实度评分,G(Z,Xc)表示该生成器将样本Z和样本Xc转换为合成数据。
[0093] 将训练样本Z和训练样本X、Xc的真实度评分代入鉴别器的损失函数中,通过不断最小化鉴别器的损失函数值,可以优化鉴别器不同层节点间的权重,当鉴别器的损失函数值小于第一预设阈值时,更新鉴别器的参数。
[0094] 步骤S40:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型。
[0095] 在本实施例中,在对生成器G进行优化时,需要最小化生成样本的真实度评分值,根据上述目标公式可得知生成器的损失函数:
[0096]
[0097] 其中,G表示生成器,D表示鉴别器,Z表示带噪语音,Z~Pz(Z)表示关于带噪语音样本Z的分布,E表示求样本Xc、Z输出的均值,Xc表示与带噪语音输入生成器后输出的生成语音,Xc~Pdata(Xc)表示样本Xc的分布,G(Z,Xc)表示该生成器将样本Z和样本Xc转换为合成数据,D(G(Z,Xc),Xc)表示该鉴别器对由生成器生成的合成数据G(Z,Xc)和Xc的真实度评分。
[0098] 将训练样本Z和训练样本Xc的真实度评分代入生成器的损失函数,通过不断最小化生成器的损失函数值,可以优化生成器不同层节点间的权重,当生成器的损失函数值小于第二预设阈值时,更新生成器的参数。
[0099] 在本实施例中,总共训练86个epoch,学习率为0.0002,Batchsize为400。一个epoch指所有的数据送入网络中完成一次前向计算及反向传播的过程。由于一个epoch太大,计算机难以负荷,因此将它分成几个较小的batches,batch就是每次送入网络中训练的一部分数据,而Batch Size就是每个batch中训练样本的数量。
[0100] 步骤S50:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0101] 在本实施例中,可以通过传声器接收用户发送的待增强语音,经短时傅里叶变换转化成语谱图送入已经训练好的语音增强模型中,生成预测去噪语音数据,再通过反短时傅里叶变换转化成语音模拟信号,将该语音模拟信号反馈给用户,经扬声器等装置播放出来,即得到增强的语音,将增强后的语音反馈给所述用户。
[0102] 此外,本发明实施例还提出一种计算机可读存储介质,该计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等等中的任意一种或者几种的任意组合。所述计算机可读存储介质中包括基于人工智能的语音增强程序10,所述基于人工智能的语音增强程序10被处理器执行时实现如下操作:
[0103] 获取步骤:获取预设数量的带噪语音及与各带噪语音对应的去噪语音,作为训练样本,将所述训练样本分为第一数据集、第二数据集及第三数据集;
[0104] 构建步骤:构建生成式对抗网络,所述生成式对抗网络包括至少一个生成器和一个鉴别器;
[0105] 第一训练步骤:将所述第一数据集输入所述鉴别器,以最小化鉴别器的损失函数值为目标调整鉴别器的参数,当鉴别器的损失函数值小于第一预设阈值时更新所述鉴别器的参数,得到第一鉴别器,再将第二数据集的带噪语音输入所述生成器,将输出的语音和该带噪语音输入所述第一鉴别器,利用反向传播算法更新第一鉴别器的参数;
[0106] 第二训练步骤:将所述第三数据集的带噪语音输入所述生成器,将输出的语音及该带噪语音输入更新参数后的第一鉴别器,根据所述更新参数后的第一鉴别器的输出结果得到生成器的损失函数,以最小化生成器的损失函数值为目标调整生成器的参数,当生成器的损失函数值小于第二预设阈值时,更新所述生成器的参数,将更新参数后的生成器作为语音增强模型;及
[0107] 反馈步骤:接收用户发送的待增强的语音数据,将待增强语音数据输入所述语音增强模型,生成增强后的语音数据并反馈至所述用户。
[0108] 本发明之计算机可读存储介质的具体实施方式与上述基于人工智能的语音增强方法的具体实施方式大致相同,在此不再赘述。
[0109] 需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
[0110] 通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质中,包括若干指令用以使得一台终端设备执行本发明各个实施例所述的方法。
[0111] 以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈