首页 / 专利库 / 人工智能 / 情感计算 / 基于局部注意力模型的面部表情动作单元对抗合成方法

基于局部注意模型的面部表情动作单元对抗合成方法

阅读:1022发布:2020-06-07

专利汇可以提供基于局部注意模型的面部表情动作单元对抗合成方法专利检索,专利查询,专利分析的服务。并且本 发明 涉及 计算机视觉 和 情感计算 等领域,为增加AU表情数据集的多样性和普适性,本发明采取的技术方案是,基于局部注意 力 模型的面部表情动作单元对抗合成方法,通过局部注意力模型对面部运动单元AU区域进行特征提取,然后对局部区域进行对抗生成,最后再对增强数据进行AU强度的评估,以检测生成图像的 质量 。本发明主要应用于 图像处理 、 人脸识别 等场合。,下面是基于局部注意模型的面部表情动作单元对抗合成方法专利的具体信息内容。

1.一种基于局部注意模型的面部表情动作单元对抗合成方法,其特征是,通过局部注意力模型对面部运动单元AU区域进行特征提取,然后对局部区域进行对抗生成,最后再对增强数据进行AU强度的评估,以检测生成图像的质量
2.如权利要求1所述的基于局部注意力模型的面部表情动作单元对抗合成方法,其特征是,具体步骤细化如下:
步骤(1),通过局部注意力模型对人脸的局部区域进行特征提取,并基于条件对抗自编码生成模型对局部注意力模型提取的AU特征分布进行学习和建模,形成去除原有AU强度后的人脸特征向量;随后,在自编码生成器的特征层加入指定AU强度的标签信息,从而生成相应AU强度的图像,以达到改变AU强度的效果,从而,建立指定不同强度不同组合的面部运动单元标注与局部注意力模型所提取的初始AU特征分布之间的有效映射;
步骤(2),通过条件自编码器对抗生成模型中的判别器对生成指定AU强度的人脸图像的真实度进行判别,同局部注意力对抗生成模型的生成结果进行博弈优化;
步骤(3),将能够生成目标表情的模型参数应用于面部表情运动单元的生成模型中,实现对不平衡AU数据集的增强与扩充,并将所生成的数据应用于提高AU识别模型精度的工作当中。
3.如权利要求1所述的基于局部注意力模型的面部表情动作单元对抗合成方法,其特征是,步骤(1)中,将基于人脸关键点的AU高斯分布区域作为局部注意力模型的初始化输入,通过AU的识别损失函数对AU的注意力区域进行学习,其识别损失函数的计算方式如下:
其中,Rau(*)是AU注意力区域重定义模型,Dau(*)是预训练AU强度识别模型, 是已知AU强度标注的输入图像,y0是 的AU强度标注, 是均方差损失函数MSE(Mean squared error), 是局部注意力模型所学习出的AU注意力区域;
局部AU生成器将采用条件对抗自编码网络模型CAAE实现对任意给定面部AU编码进行面部表情运动单元合成,CAAE模型通过生成器和判别器两个子系统的目标博弈,实现将所关注的AU信息去除,形成保留除AU以外的人脸身份信息,然后在CAAE的特征层加入所期望的指定AU编码,进而实现对不同AU编码条件下面部表情运动特征分布的有效合成;
然后,将所有的局部面部运动单元整合成全局人脸,从而保留初始人脸非AU注意力区域的特征性。
4.如权利要求1所述的基于局部注意力模型的面部表情动作单元对抗合成方法,其特征是,步骤(2)中,CAAE模型是将局部输入的人脸表情区域,进行编码生成隐变量z,将隐变量z与真实的标注l进行融合,作为生成器decoder的输入,生成与l标注强度相同的AU;再将生成的AU区域与真实的表情区域送入判别器D中,进行博弈对抗训练;与此同时,中间生成的隐变量z与均匀分布P(z)进行对抗训练,从而使z更服从于除AU表情信息以外的面部信息分布,生成z的对抗损失计算如下:
其中,Log(*)是以2为底的对数函数,Dz(*)是z判别器的输出,z*是均匀分布,x是服从于数据集的图像分布,E(*)是编码器(encoder)的输出, 是对服从均匀分布的z求均方差损失, 是对服从原数据概率分布pdata(x)的x求均方差损失;生成局部AU的对抗损失计算如下:
其中,x,l是服从输入数据集的相互对应的图像和AU标注,Dimg(*)是图像的判别器,G(*)是生成器decoder的输出, 对服从pdata(x,l)的概率分布求均方差损失;
然后,将所有的局部面部运动单元整合成全局人脸,从而保留初始人脸非AU注意力区域的特征性,其计算公式如下:
其中,It是生成的目标图像,Is是输入的原始图像,Gi(Is×ri,yi)是生成器(decoder)对第i个AU区域的输出,ri对应单一AU的注意力区域,yi是目标图像的AU标注,n是AU类别的数量。
5.如权利要求1所述的基于局部注意力模型的面部表情动作单元对抗合成方法,其特征是,步骤(3)中,将增强数据集与原数据集分别训练深度模型后,计算深度模型识别AU强度的准确率是否存在差异。所选用的评估标准是绝对平均损失MAE(Mean Absolute Error),其计算方式如下:
是第i个样本的第j个AU的真实标注, 是第i个样本的第j个AU的预测结果,N表示样本数量,M表示单个样本AU的数量。

说明书全文

基于局部注意模型的面部表情动作单元对抗合成方法

技术领域:

[0001] 本发明涉及计算机视觉情感计算等领域,尤其涉及一种基于条件对抗自编码器(Conditional Adversarial Autoencoder,CAAE)和局部注意力模型(Local Attention Model)相结合的人脸表情运动单元合成方法,该方法可以被广泛用于数据增强、提高人脸表情识别模型精度等应用。背景技术:
[0002] 面部表情能够揭示人的内心活动、精神状态以及向外传达的社交行为。随着人工智能的发展,以人为中心的面部表情识别已逐渐受到业界和学术界的普遍关注。在面部表情分析领域,人类表情的标注方式主要有两种:基于情感类别的标注(如:喜悦、愤怒等)和基于面部运动编码系统(Facial Action Coding System,FACS)的标注。前者属于主观标注,适用于表情识别和理解领域;后者根据面部肌肉运动将面部表情分解成30多个具有不同强度的主要运动单元AU(Action Units)进行更加客观定量标注,更适用于对面部表情的合成和控制领域,而且AU的检测与识别对于理解和描述人脸表情有着重要的意义。基于此,面部的AU检测与分析已逐渐成为计算机视觉领域和情感计算领域的热研究内容之一。
[0003] 虽然已有方法对AU标注已经取得一些进展,但是由于面部AU标注非常复杂,现有的AU表情数据集的相对较小,依赖于大量复杂样本的深度模型很难应用于AU分析,导致现有的AU识别与检测仍多基于传统的手工特征和分类模型,应用识别模型和识别结果难以满足复杂环境下表情分析的需求。此外,现有AU数据的不均衡现象严重,也影响了AU识别和检测模型的准确率。因此,如何对现有的AU数据集从数据规模和标签均衡性等方面进行扩充,以满足基于深度模型的AU检测和识别的需求以及解决数据集标签不均衡问题,已经成为本领域亟需解决的一个问题。
[0004] 由于面部AU标注的复杂性,且容易受到不同脸型、不同表情、不同光照及脸部姿势的影响,基于AU标注的人脸面部表情运动单元合成仍然面临不少挑战和困难,难以得到广泛应用。而现有对AU生成的技术,普遍存在丢失细节、缺乏真实性等问题。为克服现有技术的不足,本发明旨在建立一种新的基于条件对抗自编码器,并结合局部注意力模型的人脸表情运动单元合成方法,对任意人脸图像上多个局部AU进行任意强度和任意组合的具有一定自然度的人脸表情合成,以用于增加AU表情数据集的多样性和普适性。本发明可以被广泛用于数据增强、提高人脸识别模型精度等应用,进而来解决目前AU检测器训练数据标注不足和样本标签不均衡等问题。发明内容:
[0005] 为克服现有技术的不足,本发明旨在增加AU表情数据集的多样性和普适性,本发明采取的技术方案是,基于局部注意力模型的面部表情动作单元对抗合成方法,通过局部注意力模型对面部运动单元AU区域进行特征提取,然后对局部区域进行对抗生成,最后再对增强数据进行AU强度的评估,以检测生成图像的质量
[0006] 具体步骤如下:
[0007] (1)首先,通过局部注意力模型对人脸的局部区域进行特征提取,并基于条件对抗自编码生成模型对局部注意力模型提取的AU特征分布进行学习和建模,形成去除原有AU强度后的人脸特征向量;随后,在自编码生成器的特征层加入指定AU强度的标签信息,从而生成相应AU强度的图像,以达到改变AU强度的效果,从而,建立指定不同强度不同组合的面部运动单元标注与局部注意力模型所提取的初始AU特征分布之间的有效映射;
[0008] (2)然后,通过条件自编码器对抗生成模型中的判别器对生成指定AU强度的人脸图像的真实度进行判别,同局部注意力对抗生成模型的生成结果进行博弈优化;
[0009] (3)最后,将能够生成目标表情的模型参数应用于面部表情运动单元的生成模型中,实现对不平衡AU数据集的增强与扩充,并将所生成的数据应用于提高AU识别模型精度的工作当中。
[0010] 步骤(1)中,将基于人脸关键点的AU高斯分布区域作为局部注意力模型的初始化输入,通过AU的识别损失函数对AU的注意力区域进行学习,其识别损失函数的计算方式如下:
[0011]
[0012]
[0013] 其中,Rau(*)是AU注意力区域重定义模型,Dau(*)是预训练AU强度识别模型, 是已知AU强度标注的输入图像,y0是 的AU强度标注, 是均方差损失函数MSE(Mean squared error), 是局部注意力模型所学习出的AU注意力区域;
[0014] 局部AU生成器将采用条件对抗自编码网络模型CAAE实现对任意给定面部AU编码进行面部表情运动单元合成,CAAE模型通过生成器和判别器两个子系统的目标博弈,实现将所关注的AU信息去除,形成保留除AU以外的人脸身份信息,然后在CAAE的特征层加入所期望的指定AU编码,进而实现对不同AU编码条件下面部表情运动特征分布的有效合成;
[0015] 然后,将所有的局部面部运动单元整合成全局人脸,从而保留初始人脸非AU注意力区域的特征性。
[0016] 步骤(2)中,CAAE模型是将局部输入的人脸表情区域,进行编码生成隐变量z,将隐变量z与真实的标注l进行融合,作为生成器decoder的输入,生成与l标注强度相同的AU;再将生成的AU区域与真实的表情区域送入判别器D中,进行博弈对抗训练;与此同时,中间生成的隐变量z与均匀分布P(z)进行对抗训练,从而使z更服从于除AU表情信息以外的面部信息分布。其生成z的对抗损失计算如下:
[0017]
[0018] 其中,Log(*)是以2为底的对数函数,Dz(*)是z判别器的输出,z*是均匀分布,x是服从于数据集的图像分布,E(*)是编码器(encoder)的输出, 是对服从均匀分布的z求均方差损失, 是对服从原数据概率分布pdata(x)的x求均方差损失。
[0019] 其生成局部AU的对抗损失计算如下:
[0020]
[0021] 其中,x,l是服从输入数据集的相互对应的图像和AU标注,Dimg(*)是图像的判别器,G(*)是生成器decoder的输出, 对服从pdata(x,l)的概率分布求均方差损失;
[0022] 然后,将所有的局部面部运动单元整合成全局人脸,从而保留初始人脸非AU注意力区域的特征性,其计算公式如下:
[0023]
[0024] 其中,It是生成的目标图像,Is是输入的原始图像,Gi(Is×ri,yi)是生成器(decoder)对第i个AU区域的输出,ri对应单一AU的注意力区域,yi是目标图像的AU标注,n是AU类别的数量。
[0025] 步骤(3)中,将增强数据集与原数据集分别训练深度模型后,计算深度模型识别AU强度的准确率是否存在差异。所选用的评估标准是绝对平均损失MAE(Mean Absolute Error),其计算方式如下:
[0026]
[0027] 是第i个样本的第j个AU的真实标注, 是第i个样本的第j个AU的预测结果,N表示样本数量,M表示单个样本AU的数量。
[0028] 本发明的特点及有益效果是:
[0029] (1)本发明最大的创新点在于提出了一种基于局部注意力模型和条件对抗自编码生成模型的AU编码人脸面部表情运动合成系统,可以实现对不同强度的面部运动单元实现有效合成,具有重要的研究和应用价值;
[0030] (2)本发明利用人工智能前沿技术—深度学习方法构建的自然面部表情运动单元生成算法能够实现真实人脸任意强度任意组合的面部运动单元,为人工智能领域中人脸表情生成的研究提供了重要的理论基础与技术平台。
[0031] (3)本发明同时可以应用于数据增强、提高人脸表情识别模型精度的研究中。附图说明:
[0032] 图1:本发明实施步骤图。
[0033] 图2:CAAE模型。
[0034] 图3:本发明验证数据增强框架图。
[0035] 图4:最终效果图。具体实施方式:
[0036] 本发明通过局部注意力模型对面部运动单元AU区域进行特征提取,然后对局部区域进行对抗生成,最后再对增强数据进行AU强度的评估,以检测生成图像的质量。
[0037] 本发明具体步骤如下:
[0038] 首先,通过局部注意力模型对人脸的局部区域进行特征提取,并基于条件对抗自编码生成模型对局部注意力模型提取的AU特征分布进行学习和建模,形成去除原有AU强度后的人脸特征向量;随后,在自编码生成器的特征层加入指定AU强度的标签信息,从而生成相应AU强度的图像,以达到改变AU强度的效果,从而,建立指定不同强度不同组合的面部运动单元标注与局部注意力模型所提取的初始AU特征分布之间的有效映射;
[0039] 然后,通过条件自编码器对抗生成模型中的判别器对生成指定AU强度的人脸图像的真实度进行判别,同局部注意力对抗生成模型的生成结果进行博弈优化;
[0040] 最后,将能够生成目标表情的模型参数应用于面部表情运动单元的生成模型中,实现对不平衡AU数据集的增强与扩充,并将所生成的数据应用于提高AU识别模型精度的工作当中。
[0041] 下面结合附图和具体实例进一步详细说明本发明。
[0042] 本发明的具体实施步骤如图1所示,主要包括以下三个步骤:
[0043] (1)面向真实人脸的局部注意力模型构建及AU注意力区域的特征分解[0044] 首先,将基于人脸关键点的AU高斯分布区域作为局部注意力模型的初始化输入,通过AU的识别损失函数对AU的注意力区域进行学习,其识别损失函数的计算方式如下:
[0045]
[0046]
[0047] 其中,Rau(*)是AU注意力区域重定义模型,Dau(*)是预训练AU强度识别模型, 是已知AU强度标注的输入图像,y0是 的AU强度标注, 是均方差损失函数(Mean squared error,MSE)。 是局部注意力模型所学习出的AU注意力区域。
[0048] (2)基于条件对抗自编码网络的面部表情运动单元合成
[0049] 对全局人脸使用预训练的AU注意力模型提取出局部AU注意力区域,局部AU生成器将采用条件对抗自编码网络模型(CAAE)实现对任意给定面部AU编码进行面部表情运动单元合成。较传统的生成模型不同,CAAE模型通过生成器和判别器两个子系统的目标博弈,实现将所关注的AU信息去除,形成保留除AU以外的人脸身份信息,然后在CAAE的特征层加入所期望的指定AU编码,进而实现对不同AU编码条件下面部表情运动特征分布的有效合成。本发明所采用CAAE模型框架如图2所示:
[0050] CAAE模型是将局部输入的人脸表情区域,进行编码生成隐变量z,将隐变量z与真实的标注l进行融合,作为生成器(decoder)的输入,生成与l标注强度相同的AU。再将生成的AU区域与真实的表情区域送入判别器D中,进行博弈对抗训练。与此同时,中间生成的隐变量z与均匀分布P(z)进行对抗训练,从而使z更服从于除AU表情信息以外的面部信息分布。其生成z的对抗损失计算如下:
[0051]
[0052] 其中,Log(*)是以2为底的对数函数,Dz(*)是z判别器的输出,z*是均匀分布,x是服从于数据集的图像分布,E(*)是编码器(encoder)的输出, 是对服从均匀分布的z求均方差损失, 是对服从原数据概率分布pdata(x)的x求均方差损失。
[0053] 其生成局部AU的对抗损失计算如下:
[0054]
[0055] 其中,x,l是服从输入数据集的相互对应的图像和AU标注,Dimg(*)是图像的判别器,G(*)是生成器(decoder)的输出, 对x,l服从pdata(x,l)的概率分布求均方差损失。
[0056] 然后,还会采用图像修复的思想,将所有的局部面部运动单元整合成全局人脸,从而保留初始人脸非AU注意力区域的特征性。其计算公式如下:
[0057]
[0058] 其中,It是生成的目标图像,Is是输入的原始图像,Gi(Is×ri,yi)是生成器(decoder)对第i个AU区域的输出,ri对应单一AU的注意力区域,yi是目标图像的AU标注,n是AU类别的数量。
[0059] (3)对增强的数据集进行测试与评估
[0060] 分析所生成的AU人脸表情数据集对基于深度学习的AU识别模型在数据增强方面的有效性。所评估标准是绝对平均损失(Mean Absolute Error,MAE),其计算方式如下:
[0061]
[0062] 是第i个样本的第j个AU的真实标注, 是第i个样本的第j个AU的预测结果,N表示样本数量,M表示单个样本AU的数量。
[0063] 对比使用增强数据集与原数据集分别训练深度模型后,深度模型识别AU强度的准确率是否存在差异。其实验框图如3所示。其MAE的的结果如表1所示,其中MAE(l,yreal)是真实图像与标注之间的MAE值,MAE(l,yfake)是生成图像与标注之间的MAE值[0064] 总结:
[0065] 本发明提出了一种基于条件生成自编码器的真实人脸表情运动单元合成方法,以用于人脸表情数据集的增强与扩充。通过结合局部注意力模型和深度学习的条件对抗网络,可以实现对任意人脸图像上多个局部AU进行任意强度和任意组合的人脸表情有效合成,以用于增加AU表情数据集的多样性和普适性,进而来解决目前AU检测器训练数据标注不足和样本标签不均衡等问题。本发明可以被广泛用于数据增强、提高人脸识别模型精度等工作中,为计算机视觉研究提供了重要的理论基础与技术平台,在人脸生成与微表情识别等领域的推广与应用具有重要的价值。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈