首页 / 专利库 / 人工智能 / 人脸姿态估计 / 人脸关键点定位方法及装置

人脸关键点定位方法及装置

阅读:424发布:2020-05-11

专利汇可以提供人脸关键点定位方法及装置专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种人脸关键点 定位 方法及装置。该方法包括:通过多任务 卷积神经网络 进行粗定位,确定人脸关键点大体 位置 ;然后在关键点周围提取局部区域,通过全局级联卷积神经网络把关键点周围提取局部区域融合到一起,进行级联定位;最后在针对每个关键点单独训练卷积神经网络进行精细定位。本发明所用神经网络总体数目较少,定位效果相对较好。,下面是人脸关键点定位方法及装置专利的具体信息内容。

1.一种人脸关键点定位方法,其特征在于,包括如下步骤:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
g g
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,S ,P分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
其中,N表示输入图像的个数, 是第i个输入图像中标定的人脸关键点位置, 表示第一阶段多任务深度卷积神经网络中第T层的输入, 为所述第一
阶段多任务深度卷积神经网络中第T层的映射函数, 为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
g
其中,K为头部姿态信息的类别数目,Pi 表示第i个输入图像中标定的头部姿态信息;
表示第i个输入图像被分为第k类头部姿态信息的概率, 为预测的第i个
输入图像的头部姿态信息;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
2.如权利要求1所述的方法,其特征在于,所述第一阶段多任务关键点定位模型通过如下方式训练得到:
获取包括人脸图像样本的训练样本集,在人脸图像样本中标定人脸关键点位置和头部姿态信息;
通过人脸检测器获取人脸图像样本中的人脸目标区域,把人脸目标区域缩放到第一指定分辨率,并更新标定的人脸关键点位置;
构建第一阶段多任务深度卷积神经网络;
将人脸图像样本的人脸目标区域作为输入图像输入至第一阶段多任务深度卷积神经网络进行训练,得到第一阶段关键点定位模型。
3.如权利要求1所述的方法,其特征在于,所述 如下表示:
其中, 是第k类头部姿态信息的映射矩阵, 是第j类头部姿态信息的映射矩阵,
4.如权利要求1所述的方法,其特征在于,所述第二阶段关键点校准模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
5.如权利要求4所述的方法,其特征在于,所述第二阶段全局卷积神经网络的目标函数如下表示:
g
J=Jr2(ΔS,f2(Ip;Wr))
其中,Jr2表示关键点定位的损失函数,ΔSg=Sg-S0表示标定的人脸关键点位置和更新后的所述初始人脸关键点位置的差值,S0是更新后的所述初始人脸关键点位置,Ip表示输入图像,f2(·)是第二阶段全局卷积神经网络的非线性映射函数。
6.如权利要求1所述的方法,其特征在于,所述第三阶段关键点检测模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第二阶段关键点校准模型定位得到的所述人脸图像样本的校准人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第三指定分辨率,并更新所述校准人脸关键点位置;
以更新后的所述校准人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
根据所述提取的局部区域图像训练得到关键点检测模型,其中,根据不同人脸关键点对应的局部区域训练得到不同的关键点检测模型。
7.一种人脸关键点定位装置,其特征在于,包括:
第一缩放模,用于将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
初始定位模块,用于将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
g g
J=Jr(S,f(I;Wr))+Jl(P,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
其中,N表示输入图像的个数, 是第i个输入图像中标定的人脸关键点位置, 表示第一阶段多任务深度卷积神经网络中第T层的输入, 为所述第一
阶段多任务深度卷积神经网络中第T层的映射函数, 为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
其中,K为头部姿态信息的类别数目,Pig表示第i个输入图像中标定的头部姿态信息;
表示第i个输入图像被分为第k类头部姿态信息的概率, 为预测的第i个
输入图像的头部姿态信息;
第二缩放模块,用于将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
第一局部区域提取模块,用于以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
校准模块,用于将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
第三缩放模块,用于将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
第二局部区域提取模块,用于以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
最终定位模块,用于将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
8.如权利要求7所述的装置,其特征在于,还包括训练模块,用于训练所述第二阶段关键点校准模型,包括:
第一获取子模块,用于获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
缩放子模块,用于将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
更新子模块,用于以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建子模块,用于构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
训练子模块,用于将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
9.一种人脸关键点定位装置,其特征在于,包括:处理器;
用于存储处理器可执行指令的存储器
其中,所述处理器被配置为:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
g g
J=Jr(S,f(I;Wr))+Jl(P,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
其中,N表示输入图像的个数, 是第i个输入图像中标定的人脸关键点位置, 表示第一阶段多任务深度卷积神经网络中第T层的输入, 为所述第一
阶段多任务深度卷积神经网络中第T层的映射函数, 为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
g
其中,K为头部姿态信息的类别数目,Pi 表示第i个输入图像中标定的头部姿态信息;
表示第i个输入图像被分为第k类头部姿态信息的概率, 为预测的第i个
输入图像的头部姿态信息;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。

说明书全文

人脸关键点定位方法及装置

技术领域

[0001] 本发明涉及数字图像处理计算机视觉等技术领域,具体涉及一种基于全局卷积神经网络人脸关键点定位方法及装置。

背景技术

[0002] 关键点定位(检测)在计算机视觉中是一个重要的问题,指的是定位人脸中有语义结构信息的一些关键部位,如眼睛,鼻子和嘴巴等,是有监督人脸对齐中的一个重要的步骤。关键点定位也有很多实际的应用,比如说人脸识别、人脸表情分析、人机交互应用等。由于头部姿态、人脸表情以及光照的变化,关键点定位依然是一个十分有挑战性的问题。传统的基于卷积神经网络的关键点检测算法先用一个整体神经网络定位关键点,之后把每个关键点单独隔离出来定位。虽然传统的方法定位精度较高,但是忽略了人脸形状的全局信息,对光照变化、遮挡等不够鲁棒,时间复杂度偏高,很难应用在大规模场景下的精准关键点定位。

发明内容

[0003] 为了解决现有技术不足,本发明的目的是提供一种基于全局卷积神经网络的关键点定位方法,该方法利用了人脸整体形状信息,把关键点之间位置顺序关系作为约束,加入到卷积神经网络之中,提高了关键点定位的鲁棒性。另外,为了克服大姿态对于人脸定位影响,本发明在第一阶段用多任务卷积神经网络定位关键点,同时考虑姿态估计和关键点定位,提升了在大姿态场景下的关键点定位精度。最后在每个关键点周围提取局部区域,训练精细关键点定位模型。综上所述,相比其他方法,本发明用三阶段卷积神经网络进行关键点定位,对于姿态、遮挡和光照等比较鲁棒,可以更加精准的定位人脸关键点。
[0004] 根据本发明一方面,提供了一种人脸关键点定位方法,包括如下步骤:
[0005] 将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
[0006] 将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
[0007] 将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
[0008] 以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
[0009] 将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
[0010] 将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
[0011] 以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
[0012] 将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
[0013] 其中,所述第一阶段多任务关键点定位模型通过如下方式训练得到:
[0014] 获取包括人脸图像样本的训练样本集,在人脸图像样本中标定人脸关键点位置和头部姿态信息;
[0015] 通过人脸检测器获取人脸图像样本中的人脸目标区域,把人脸目标区域缩放到第一指定分辨率,并更新标定的人脸关键点位置;
[0016] 构建第一阶段多任务深度卷积神经网络;
[0017] 将人脸图像样本的人脸目标区域作为输入图像输入至第一阶段多任务深度卷积神经网络进行训练,得到第一阶段关键点定位模型。
[0018] 其中,训练所述第一阶段多任务深度卷积神经网络的目标函数如下表示:
[0019] J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
[0020] 其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
[0021] 其中,Jr用回归形式的平方误差损失函数表示如下:
[0022]
[0023] 其中,N表示输入图像的个数, 是第i个输入图像中标定的人脸关键点位置,表示第一阶段多任务深度卷积神经网络中第T层的输入, 为所述第一阶段多任务深度卷积神经网络中第T层的映射函数, 为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
[0024] 其中,Jl用分类形式的交叉熵损失函数表示如下:
[0025]
[0026] 其中,K为头部姿态信息的类别数目, 表示第i个输入图像中标定的头部姿态信息; 表示第i个输入图像被分为第k类头部姿态信息的概率, 为预测的第i个输入图像的头部姿态信息。
[0027] 其中,所述 如下表示:
[0028]
[0029] 其中, 是第k类头部姿态信息的映射矩阵, 是第j类头部姿态信息的映射矩阵,
[0030] 其中,所述第二阶段关键点校准模型如下训练得到:
[0031] 获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
[0032] 将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
[0033] 以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
[0034] 构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
[0035] 将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
[0036] 其中,所述第二阶段全局卷积神经网络的目标函数如下表示:
[0037] J=Jr2(ΔSg,f2(Ip;Wr))
[0038] 其中,Jr2表示关键点定位的损失函数,ΔS=Sg-S0表示标定的人脸关键点位置和更新后的所述初始人脸关键点位置的差值,S0是更新后的所述初始人脸关键点位置,Ip表示输入图像,f2(·)是第二阶段全局卷积神经网络的非线性映射函数。
[0039] 其中,所述第三阶段关键点检测模型如下训练得到:
[0040] 获取包括人脸图像样本的训练样本集,以及利用第二阶段关键点校准模型定位得到的所述人脸图像样本的校准人脸关键点位置;
[0041] 将所述人脸图像样本中的人脸目标区域缩放到第三指定分辨率,并更新所述校准人脸关键点位置;
[0042] 以更新后的所述校准人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
[0043] 根据所述提取的局部区域图像训练得到关键点检测模型,其中,根据不同人脸关键点对应的局部区域训练得到不同的关键点检测模型。
[0044] 根据本发明第二方面,提供了一种人脸关键点定位装置,包括:
[0045] 第一缩放模,用于将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
[0046] 初始定位模块,用于将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
[0047] 第二缩放模块,用于将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
[0048] 第一局部区域提取模块,用于以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
[0049] 校准模块,用于将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
[0050] 第三缩放模块,用于将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
[0051] 第二局部区域提取模块,用于以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
[0052] 最终定位模块,用于将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
[0053] 其中,还包括训练模块,用于训练所述第二阶段关键点校准模型,包括:
[0054] 第一获取子模块,用于获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
[0055] 缩放子模块,用于将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
[0056] 更新子模块,用于以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
[0057] 构建子模块,用于构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
[0058] 训练子模块,用于将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
[0059] 根据本发明第三方面,提供了一种人脸关键点定位装置,包括:
[0060] 处理器;
[0061] 用于存储处理器可执行指令的存储器
[0062] 其中,所述处理器被配置为:
[0063] 将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
[0064] 将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
[0065] 将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
[0066] 以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
[0067] 将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
[0068] 将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
[0069] 以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
[0070] 将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
[0071] 本发明采用由粗到精的三阶段关键点定位方法,通过多任务卷积神经网络进行粗定位,确定人脸关键点大体位置;然后在关键点周围提取局部区域,通过全局级联卷积神经网络把关键点周围提取局部区域融合到一起,进行级联定位;最后在针对每个关键点单独训练卷积神经网络进行精细定位。在第一阶段的粗定位之中,把多种任务结合:头部姿态估计和人脸关键点定位,通过一个目标函数求解相关任务,增加了第一阶段模型对于头部姿态的鲁棒性能。在第二阶段中,本发明把不同部位关键点之间的位置顺序关系作为约束加入到神经网络训练中,增加了定位精度。在最后一个阶段再根据针对每个关键点单独训练关键点检测模型,进一步提高了定位的精度。本发明提出的关键点定位算法定位精度高,泛华性能好。附图说明
[0072] 图1是本发明基于全局卷积神经网络的关键点定位的流程图

具体实施方式

[0073] 为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
[0074] 本发明的目的是提供一种基于全局卷积神经网络的关键点定位方法。该方法把把不同部位关键点之间的位置顺序关系作为约束加入到神经网络训练中,实现精准的关键点定位。
[0075] 根据本发明一方面,提供了一种基于全局卷积神经网络关键点定位方法,如图1所示,包括如下步骤:
[0076] 步骤S1,建立人脸图像训练集,借助于相关标定软件,人工标定关键点位置的绝对坐标Sg和头部姿态信息Pg:左侧脸(侧脸度大于60度),轻微左侧脸(侧脸角度在30度到60度之间),正脸(侧脸角度在负30度到30度之间),轻微右侧脸(侧脸角度在负30度到负60度之间),右侧脸(侧脸角度在负60度以上)。
[0077] 步骤S2,通过人脸检测器获取训练集中人脸图像中的人脸位置,把人脸区域缩放到指定分辨率大小,更新标定的关键点位置,将将标定的关键点人脸位置坐标更新到缩放后人脸区域中的相对位置坐标。
[0078] 所述步骤S2具体包括如下:
[0079] 步骤S21,对输入人脸图像进行尺度变换、旋转、缩放等,计算扰动后关键点位置,增加训练样本。
[0080] 步骤S22,检测训练集中人脸图像中的人脸位置,把人脸区域缩放到第一指定分辨率,比如50x50,更新标定的人脸关键点位置。
[0081] 步骤S3,构建第一阶段多任务深度卷积神经网络,利用所述训练集中的人脸图像对其进行训练得到多任务关键点定位模型,该多任务关键点定位模型能够通过多任务学习(同时预测头部姿态和关键点位置)精准的定位关键点。
[0082] 步骤S31,步骤S2中训练集中人脸图像中缩放到第一指定分辨率的人脸区域的坐标位置归一化到0-1之间,图像像素灰度值也归一化到0-1之间,形成训练样本。
[0083] 步骤S32,把步骤S31中的训练样本输入到多任务卷积神经网络之中进行训练,最终得到多任务关键点定位模型。
[0084] 在一实施例中,第一阶段多任务深度卷积神经网络关键点定位目标函数为:
[0085] J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
[0086] 上述公式表示同时进行关键点定位和头部姿态估计,可以定位较大姿态下的关键点。公式中Jr表示关键点定位的损失函数,Jl表示头部姿态估计的损失函数,Sg,Pg分别表示人脸关键点位置坐标、头部姿态信息,I为输入图像,f(·)是第一阶段的多任务卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵。其中,Jr用回归形式的平方误差损失函数表示:
[0087]
[0088] 其中N表示输入图像的个数, 是第i个输入样本的关键点坐标的实际值, 表示第i个样本在第T层神经网络的输入, 为多任务卷积神经网络第T层映射函数, 为多任务卷积神经网络第T层基于回归的映射矩阵;Jl用分类形式的交叉熵损失函数表示,
[0089]
[0090] 其中K为头部姿态类别, 表示第i个输入的实际头部姿态信息, 表示第i个样本在第T层神经网络的输入,头部姿态被分成第k,k=1,...,K类的概率为:
[0091]
[0092] 其中, 为预测的第i个输入的头部姿态,Tj(j=1,...,K)是第T层神经网络中与头部姿态分类相关信息。 是多任务卷积神经网络中第T层第k类头部姿态的映射矩阵,是多任务卷积神经网络中第T层第j类头部姿态的映射函数,为多任务卷积神经网络第T层基于分类的映射矩阵。
[0093] 步骤S4,为了更加精准的定位关键点,本发明采取由粗到精的策略,把人脸图像再次缩放到第二指定分辨率,比如80x80,所述第二指定分辨率大于第一指定分辨率;同时根据步骤S3粗略定位的人脸关键点坐标,更新缩放后的人脸关键点坐标。
[0094] 步骤S5,根据步骤S4得到人脸关键点位置,以关键点位置为中心提取其周边预定范围内的局部区域,并重新进行归一化,归一化后把所有关键点位置周围提取的局部区域像素值串联起来输入到第二阶段全局卷积神经网络之中定位人脸关键点坐标的精细值。
[0095] 其中,所述全局卷积神经网络包括多个子神经网络以及一个全连接层,所述全连接层用于将所述多个子神经网络连接起来,所述多个子神经网络的输出作为全连接层的输入,全连接层的输出为所述全卷积神经网络的输出;所述多个子神经网络中的每个子神经网络对应所述人脸的其中一个关键点,训练好的所述多个子神经网络分别用于识别所述人脸的其中一个关键点,例如人脸包括五个关键点,所述子神经网络为五个,分别对应一个关键点;
[0096] 步骤S5包括:
[0097] 步骤S51,以步骤S4中得到关键点位置为中心,提取其周边预定范围内的局部区域的像素值,并且把像素值归一化到0-1之间。
[0098] 步骤S52,把所有关键点周围提取的局部区域归一化的像素值串联起来输入到第二阶段全局卷积神经网络之中定位关键点。
[0099] 第二阶段全局卷积神经网络总体目标函数如下:
[0100] J=Jr2(ΔS,f2(Ip;Wr))
[0101] 其中Jr2表示关键点定位的损失函数,ΔS=Sg-S1表示人脸关键点位置坐标的实际值和第一阶段多任务神经网络输出预测值的差值,S1是第一阶段多任务卷积神经网络预测的人脸关键点位置坐标,Ip表示以S1为中心提取的其周边预定范围内局部区域的像素值,f2(·)是第二阶段全局卷积神经网络的非线性映射函数,Wr表示第二阶段卷积神经网络回归映射矩阵。在每个关键点周围提取的局部区域像素值Ip依次输入到各自独立的子神经网络之中,最后在全连接层串联,其中每个各自独立的子神经网络形式如下:
[0102] 层 类型 核参数 激活函数 输出大小IO 输入层 - - 32x32x3
C1 卷积层 5x5x16 relu 32x32x16
P2 池化层 2x2 - 16x16x16
C3 卷积层 3x3x32 relu 18x18x32
P4 池化层 2x2 - 9x9x32
C5 局部卷积层 3x3x64 relu 9x9x64
F7 全连接层 - - 1x1x60
[0103] 步骤S6,根据本发明由粗到精的策略,把人脸图像再次缩放到第三指定分辨率,比如120x120,第三指定分辨率大于第一指定分辨率和第二指定分辨率;同时根据步骤S5定位的人脸关键点坐标,计算缩放后的关键点位置坐标。
[0104] 步骤S7,根据S6定位的人脸关键点坐标,在关键点位置周围提取预定大小的局部区域像素值,针对每一个关键点单独训练关键点定位模型,输入第三阶段卷积神经网络进行精细定位。
[0105] 步骤S61,以步骤S6中得到的关键点位置为中心,提取其周边预定范围内的局部区域的像素值,并且把像素值归一化到0-1之间。
[0106] 步骤S62,对每个关键点周围提取的局部区域像素值单独训练一个局部关键点检测器,经行精细定位。
[0107] 第三阶段局部卷积神经网络目标函数如下:
[0108] J=Jr3(ΔS,f3(Ip;Wr))
[0109] 其中Jr3表示关键点定位的损失函数,ΔS=Sg-S2表示人脸关键点位置坐标的实际2
值和第二阶段全局卷积神经网络输出预测值的差值,S是第二阶段全局卷积神经网络预测的人脸关键点位置坐标,Ip表示以S2为中心提取的其周边预定范围内局部区域的像素值,f3(·)是第三阶段卷积神经网络的非线性映射函数。第三阶段输出的关键点位置就是我们三阶段级联神经网络的最终定位结果。以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈