首页 / 专利库 / 电脑编程 / 算法 / 一种音视频合成方法

一种音视频合成方法

阅读:730发布:2024-01-17

专利汇可以提供一种音视频合成方法专利检索,专利查询,专利分析的服务。并且本 发明 提供了一种音视频合成方法,该音视频合成方法有别于 现有技术 需要对视频图像的关键点进行提取和建模处理,其在合成过程中并不涉及任何视频图像关键点的设计,而是完全通过输入的文本数据进行驱动实现音频和视频的生成以及两者的合成,并且该音视频合成方法在生成视频时充分考虑了视频前后 帧 图像之间的关系,还采用由粗到精的生成方式来对文本数据对应的视频进行进一步的优化处理,以使得生成的视频能够在画面连续性和画面清晰度上都满足特定要求,从而大大地降低了音视频合成的难度和提高音视频合成的 质量 。,下面是一种音视频合成方法专利的具体信息内容。

1.一种音视频合成方法,其特征在于,所述音视频合成方法包括如下步骤:
步骤(1),对经过训练的深度神经网络模型输入文本数据,以得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征;
步骤(2),根据所述声学参数,得到与所述文本数据对应的目标音频;
步骤(3),根据所述变分自编码器VAE隐层特征,得到与所述文本数据对应的目标视频;
步骤(4),将所述目标音频和所述目标视频进行组合,以实现所述音视频合成。
2.如权利要求1所述的音视频合成方法,其特征在于:
在所述步骤(1)中,对经过训练的深度神经网络模型输入文本数据,以得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征具体包括,
步骤(101),构建用于所述训练的文本-音频-视频数据库
步骤(102),基于所述文本-音频-视频数据库中的所有数据对所述深度神经网络模型进行训练;
步骤(103),将所述文本数据输入至经过训练的所述深度神经网络模型中,并从所述深度神经网络模型的输出得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征。
3.如权利要求2所述的音视频合成方法,其特征在于:
在所述步骤(101)中,构建用于所述训练的文本-音频-视频数据库具体包括,获取关于不同场景的音频数据和视频数据,并从所述音频数据中提取对应的声学参数,以及从所述视频数据的每一图像中提取对应的VAE隐层特征,并根据预设数据结构,通过所述声学参数和所述VAE隐层特征录制和标注,以得到所述文本-音频-视频数据库。
4.如权利要求1所述的音视频合成方法,其特征在于:
在所述步骤(2)中,根据所述声学参数,得到与所述文本数据对应的目标音频具体包括,
步骤(201),将所述文本数据输入至训练好的网络模型中,从而得到所述声学参数;
步骤(202),将所述声学参数输入至声码器,从而通过所述声码器重构得到所述目标音频。
5.如权利要求1所述的音视频合成方法,其特征在于:
在所述步骤(3)中,根据所述变分自编码器VAE隐层特征,得到与所述文本数据对应的目标视频具体包括,
步骤(301),对所述变分自编码器VAE隐层特征进行变换处理,以此得到初级视频;
步骤(302),对所述初级视频进行关于预设算法模型的变换处理,以此得到关于所述文本数据的自然视频;
步骤(303),根据所述自然视频生成所述目标视频。
6.如权利要求5所述的音视频合成方法,其特征在于:
在所述步骤(301)中,对所述变分自编码器VAE隐层特征进行变换处理,以此得到初级视频具体包括,
步骤(3011),对所述变分自编码器VAE隐层特征进行VAE解码处理,以此得到关于所述文本数据的若干帧图像;
步骤(3012),根据预设图像组合模式,对所述若干帧图像进行组合处理,以此得到所述初级视频。
7.如权利要求5所述的音视频合成方法,其特征在于:
在所述步骤(302)中,对所述初级视频进行关于预设算法模型的变换处理,以此得到关于所述文本数据的自然视频具体包括,
步骤(3021),基于条件生成对抗网络CGAN,构建Video-to-VideoSynthesis模型作为所述预设算法模型;
步骤(3022),对所述Video-to-Video Synthesis模型进行训练处理;
步骤(3023),将所述初级视频输入至经过所述训练处理的所述Video-to-Video Synthesis模型,以此输出得到所述自然视频。
8.如权利要求7所述的音视频合成方法,其特征在于:
在所述步骤(3021)中,基于条件生成对抗网络CGAN,构建Video-to-Video Synthesis模型作为所述预设算法模型具体包括,基于条件生成对抗网络CGAN、预设视频图像帧顺序条件和视频精度调整模式,构建得到所述Video-to-Video Synthesis模型;
或者,
在所述步骤(3022)中,对所述Video-to-Video Synthesis模型进行训练处理具体包括,
采用训练所述深度神经网络模型的文本-音频-视频数据库中的视频相关数据,对所述Video-to-Video Synthesis模型进行训练处理,以使所述Video-to-Video Synthesis模型的视频变换特性满足预设特性条件。
9.如权利要求7所述的音视频合成方法,其特征在于:
在所述步骤(3023)中,将所述初级视频输入至经过所述训练处理的所述Video-to-Video Synthesis模型,以此输出得到所述自然视频具体包括,
步骤(30231),获取所述Video-to-Video Synthesis模型对应的视频转换精度和/或视频转换连续度;
步骤(30232),基于所述视频转换精度和/或所述视频转换连续度,对所述Video-to-Video Synthesis模型进行训练处理;
步骤(30233),将所述初级视频输入至训练好的所述Video-to-VideoSynthesis模型,从而转换得到所述自然视频。
10.如权利要求1所述的音视频合成方法,其特征在于:
在所述步骤(4)中,将所述目标音频和所述目标视频进行组合,以实现所述音视频合成具体包括,
步骤(401),获取所述目标音频对应的音频特性和所述目标视频对应的视频特性;
步骤(402),根据所述音频特性和所述视频特性,通过预设音视频合成器,将所述目标音频和所述目标视频进行组合处理。

说明书全文

一种音视频合成方法

技术领域

[0001] 本发明涉及智能信号处理的技术领域,特别涉及一种音视频合成方法。

背景技术

[0002] 传统的语音合成只局限于音频信号的合成,其并未涉及音频信号和视频信号的同时合成。随着应用场景的变化和人机交互技术的广泛应用,关于音频信号和视频信号之间相互结合的音视频合成领域受到广泛的关注。现有技术对于视频的合成,一般是通过对视频图像中的关键点进行建模或者通过对视频图像进行降维处理后再进行建模。
[0003] 虽然,对视频图像进行建模能够精确地对图像进行标定,但是对视频图像的建模过程涉及较多繁复的步骤,其中还涉及在视频图像中提取关键点信息,但是无论是对视频图像中的关键点进行建模还是对视频图像进行降维处理后再进行建模,都普遍存在视频图像合成处理连续性较差和清晰度较低等不同的问题,这使得通过建模方式合成得到的音视频信号都不能满足对音视频信号连续和清晰的要求。可见,现有技术急需一种能够简便和快速地获得高质量音视频合成信号的合成方法。

发明内容

[0004] 针对现有技术存在的缺陷,本发明提供一种音视频合成方法,该音视频合成方法包括如下步骤:步骤(1),对经过训练的深度神经网络模型输入文本数据,以得到与该文本数据对应的声学参数和变分自编码器VAE隐层特征;步骤(2),根据该声学参数,得到与该文本数据对应的目标音频;步骤(3),根据该变分自编码器VAE隐层特征,得到与该文本数据对应的目标视频;步骤(4),将该目标音频和所述目标视频进行组合,以实现该音视频合成。可见,该音视频合成方法有别于现有技术需要对视频图像的关键点进行提取和建模处理,其在合成过程中并不涉及任何视频图像关键点的设计,而是完全通过输入的文本数据进行驱动实现音频和视频的生成以及两者的合成,并且该音视频合成方法在生成视频时充分考虑了视频前后图像之间的关系,还采用由粗到精的生成方式来对文本数据对应的视频进行进一步的优化处理,以使得生成的视频能够在画面连续性和画面清晰度上都满足特定要求,从而大大地降低了音视频合成的难度和提高音视频合成的质量。
[0005] 本发明提供一种音视频合成方法,其特征在于,所述音视频合成方法包括如下步骤:
[0006] 步骤(1),对经过训练的深度神经网络模型输入文本数据,以得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征;
[0007] 步骤(2),根据所述声学参数,得到与所述文本数据对应的目标音频;
[0008] 步骤(3),根据所述变分自编码器VAE隐层特征,得到与所述文本数据对应的目标视频;
[0009] 步骤(4),将所述目标音频和所述目标视频进行组合,以实现所述音视频合成;
[0010] 进一步,在所述步骤(1)中,对经过训练的深度神经网络模型输入文本数据,以得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征具体包括,[0011] 步骤(101),构建用于所述训练的文本-音频-视频数据库
[0012] 步骤(102),基于所述文本-音频-视频数据库中的所有数据对所述深度神经网络模型进行训练;
[0013] 步骤(103),将所述文本数据输入至经过训练的所述深度神经网络模型中,并从所述深度神经网络模型的输出得到与所述文本数据对应的声学参数和变分自编码器VAE隐层特征;
[0014] 进一步,在所述步骤(101)中,构建用于所述训练的文本-音频-视频数据库具体包括,
[0015] 获取关于不同场景的音频数据和视频数据,并从所述音频数据中提取对应的声学参数,以及从所述视频数据的每一帧图像中提取对应的VAE隐层特征,并根据预设数据结构,通过所述声学参数和所述VAE隐层特征录制和标注,以得到所述文本-音频-视频数据库;
[0016] 进一步,在所述步骤(2)中,根据所述声学参数,得到与所述文本数据对应的目标音频具体包括,
[0017] 步骤(201),将所述文本数据输入至训练好的网络模型中,从而得到所述声学参数;
[0018] 步骤(202),将所述声学参数输入至声码器,从而通过所述声码器重构得到所述目标音频;
[0019] 进一步,在所述步骤(3)中,根据所述变分自编码器VAE隐层特征,得到与所述文本数据对应的目标视频具体包括,
[0020] 步骤(301),对所述变分自编码器VAE隐层特征进行变换处理,以此得到初级视频;
[0021] 步骤(302),对所述初级视频进行关于预设算法模型的变换处理,以此得到关于所述文本数据的自然视频;
[0022] 步骤(303),根据所述自然视频生成所述目标视频;
[0023] 进一步,在所述步骤(301)中,对所述变分自编码器VAE隐层特征进行变换处理,以此得到初级视频具体包括,
[0024] 步骤(3011),对所述变分自编码器VAE隐层特征进行VAE解码处理,以此得到关于所述文本数据的若干帧图像;
[0025] 步骤(3012),根据预设图像组合模式,对所述若干帧图像进行组合处理,以此得到所述初级视频;
[0026] 进一步,在所述步骤(302)中,对所述初级视频进行关于预设算法模型的变换处理,以此得到关于所述文本数据的自然视频具体包括,
[0027] 步骤(3021),基于条件生成对抗网络CGAN,构建Video-to-Video Synthesis模型作为所述预设算法模型;
[0028] 步骤(3022),对所述Video-to-Video Synthesis模型进行训练处理;
[0029] 步骤(3023),将所述初级视频输入至经过所述训练处理的所述Video-to-Video Synthesis模型,以此输出得到所述自然视频;
[0030] 进一步,在所述步骤(3021)中,基于条件生成对抗网络CGAN,构建Video-to-Video Synthesis模型作为所述预设算法模型具体包括,
[0031] 基于条件生成对抗网络CGAN、预设视频图像帧顺序条件和视频精度调整模式,构建得到所述Video-to-Video Synthesis模型;
[0032] 或者,
[0033] 在所述步骤(3022)中,对所述Video-to-Video Synthesis模型进行训练处理具体包括,
[0034] 采用训练所述深度神经网络模型的文本-音频-视频数据库中的视频相关数据,对所述Video-to-Video Synthesis模型进行训练处理,以使所述Video-to-Video Synthesis模型的视频变换特性满足预设特性条件;
[0035] 进一步,在所述步骤(3023)中,将所述初级视频输入至经过所述训练处理的所述Video-to-Video Synthesis模型,以此输出得到所述自然视频具体包括,[0036] 步骤(30231),获取所述Video-to-Video Synthesis模型对应的视频转换精度和/或视频转换连续度;
[0037] 步骤(30232),基于所述视频转换精度和/或所述视频转换连续度,对所述Video-to-Video Synthesis模型进行训练处理;
[0038] 步骤(30233),将所述初级视频输入至训练好的所述Video-to-Video Synthesis模型,从而转换得到所述自然视频;
[0039] 进一步,在所述步骤(4)中,将所述目标音频和所述目标视频进行组合,以实现所述音视频合成具体包括,
[0040] 步骤(401),获取所述目标音频对应的音频特性和所述目标视频对应的视频特性;
[0041] 步骤(402),根据所述音频特性和所述视频特性,通过预设音视频合成器,将所述目标音频和所述目标视频进行组合处理。
[0042] 相比于现有技术,该音视频合成方法包括如下步骤:步骤(1),对经过训练的深度神经网络模型输入文本数据,以得到与该文本数据对应的声学参数和变分自编码器VAE隐层特征;步骤(2),根据该声学参数,得到与该文本数据对应的目标音频;步骤(3),根据该变分自编码器VAE隐层特征,得到与该文本数据对应的目标视频;步骤(4),将该目标音频和所述目标视频进行组合,以实现该音视频合成。可见,该音视频合成方法有别于现有技术需要对视频图像的关键点进行提取和建模处理,其在合成过程中并不涉及任何视频图像关键点的设计,而是完全通过输入的文本数据进行驱动实现音频和视频的生成以及两者的合成,并且该音视频合成方法在生成视频时充分考虑了视频前后帧图像之间的关系,还采用由粗到精的生成方式来对文本数据对应的视频进行进一步的优化处理,以使得生成的视频能够在画面连续性和画面清晰度上都满足特定要求,从而大大地降低了音视频合成的难度和提高音视频合成的质量。
[0043] 本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
[0044] 下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。

附图说明

[0045] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0046] 图1为本发明提供的一种音视频合成方法的结构示意图。

具体实施方式

[0047] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0048] 参阅图1,为本发明实施例提供的一种音视频合成方法的流程示意图。该音视频合成方法包括如下步骤:
[0049] 步骤(1),对经过训练的深度神经网络模型输入文本数据,以得到与该文本数据对应的声学参数和变分自编码器VAE隐层特征。
[0050] 优选地,在该步骤(1)中,对经过训练的深度神经网络模型输入文本数据,以得到与该文本数据对应的声学参数和变分自编码器VAE隐层特征具体包括,
[0051] 步骤(101),构建用于该训练的文本-音频-视频数据库;
[0052] 步骤(102),基于该文本-音频-视频数据库中的所有数据对该深度神经网络模型进行训练;
[0053] 步骤(103),将该文本数据输入至经过训练的该深度神经网络模型中,并从该深度神经网络模型的输出得到与该文本数据对应的声学参数和变分自编码器VAE隐层特征。
[0054] 优选地,在该步骤(101)中,构建用于该训练的文本-音频-视频数据库具体包括,[0055] 获取关于不同场景的音频数据和视频数据,并从该音频数据中提取对应的声学参数,以及从该视频数据的每一帧图像中提取对应的VAE隐层特征,并根据预设数据结构,通过该声学参数和该VAE隐层特征录制和标注,以得到该文本-音频-视频数据库。
[0056] 步骤(2),根据该声学参数,得到与该文本数据对应的目标音频。
[0057] 优选地,在该步骤(2)中,根据该声学参数,得到与该文本数据对应的目标音频具体包括,
[0058] 步骤(201),将该文本数据输入至训练好的网络模型中,从而得到该声学参数;
[0059] 步骤(202),将该声学参数输入至声码器,从而通过该声码器重构得到该目标音频。
[0060] 在该步骤(3)中,根据该变分自编码器VAE隐层特征,得到与该文本数据对应的目标视频具体包括,
[0061] 步骤(301),对该变分自编码器VAE隐层特征进行变换处理,以此得到初级视频;
[0062] 步骤(302),对该初级视频进行关于预设算法模型的变换处理,以此得到关于该文本数据的自然视频;
[0063] 步骤(303),根据该自然视频生成该目标视频。
[0064] 优选地,在该步骤(301)中,对该变分自编码器VAE隐层特征进行变换处理,以此得到初级视频具体包括,
[0065] 步骤(3011),对该变分自编码器VAE隐层特征进行VAE解码处理,以此得到关于该文本数据的若干帧图像;
[0066] 步骤(3012),根据预设图像组合模式,对该若干帧图像进行组合处理,以此得到该初级视频。
[0067] 优选地,在该步骤(302)中,对该初级视频进行关于预设算法模型的变换处理,以此得到关于该文本数据的自然视频具体包括,
[0068] 步骤(3021),基于条件生成对抗网络CGAN,构建Video-to-Video Synthesis模型作为该预设算法模型;
[0069] 步骤(3022),对该Video-to-Video Synthesis模型进行训练处理;
[0070] 步骤(3023),将该初级视频输入至经过该训练处理的该Video-to-Video Synthesis模型,以此输出得到该自然视频。
[0071] 优选地,在该步骤(3021)中,基于条件生成对抗网络CGAN,构建Video-to-Video Synthesis模型作为该预设算法模型具体包括,
[0072] 基于条件生成对抗网络CGAN、预设视频图像帧顺序条件和视频精度调整模式,构建得到该Video-to-Video Synthesis模型。
[0073] 优选地,在该步骤(3022)中,对该Video-to-Video Synthesis模型进行训练处理具体包括,
[0074] 采用训练该深度神经网络模型的文本-音频-视频数据库中的视频相关数据,对该Video-to-Video Synthesis模型进行训练处理,以使该Video-to-Video Synthesis模型的视频变换特性满足预设特性条件。
[0075] 优选地,在该步骤(3023)中,将该初级视频输入至经过该训练处理的该Video-to-Video Synthesis模型,以此输出得到该自然视频具体包括,
[0076] 步骤(30231),获取该Video-to-Video Synthesis模型对应的视频转换精度和/或视频转换连续度;
[0077] 步骤(30232),基于该视频转换精度和/或该视频转换连续度,对该Video-to-Video Synthesis模型进行训练处理;
[0078] 步骤(30233),将该初级视频输入至训练好的该Video-to-Video Synthesis模型,从而转换得到该自然视频。
[0079] 步骤(4),将该目标音频和该目标视频进行组合,以实现该音视频合成。
[0080] 优选地,在该步骤(4)中,将该目标音频和该目标视频进行组合,以实现该音视频合成具体包括,
[0081] 步骤(401),获取该目标音频对应的音频特性和该目标视频对应的视频特性;
[0082] 步骤(402),根据该音频特性和该视频特性,通过预设音视频合成器,将该目标音频和该目标视频进行组合处理。
[0083] 从上述实施例可以看出,该音视频合成方法有别于现有技术需要对视频图像的关键点进行提取和建模处理,其在合成过程中并不涉及任何视频图像关键点的设计,而是完全通过输入的文本数据进行驱动实现音频和视频的生成以及两者的合成,并且该音视频合成方法在生成视频时充分考虑了视频前后帧图像之间的关系,还采用由粗到精的生成方式来对文本数据对应的视频进行进一步的优化处理,以使得生成的视频能够在画面连续性和画面清晰度上都满足特定要求,从而大大地降低了音视频合成的难度和提高音视频合成的质量。
[0084] 显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈