首页 / 专利库 / 地板,天花板和屋顶 / 可视表面 / 一种基于3D人脸模型的摄像监控人脸样本扩充方法

一种基于3D人脸模型的摄像监控人脸样本扩充方法

阅读:648发布:2024-02-19

专利汇可以提供一种基于3D人脸模型的摄像监控人脸样本扩充方法专利检索,专利查询,专利分析的服务。并且本 发明 涉及人脸样本扩充和 人脸识别 领域,具体的说是涉及一种摄像监控人脸样本扩充方法。本发明使用3D人脸用用模型,在只有一张 正面 人脸照片的 基础 上,合成其他视 角 的人脸照片,很好的解决了摄像监控人脸样本缺少、识别率低的问题。通过在合成人脸数据集上训练的 深度神经网络 可以获得很好的摄像监控人脸识别性能。,下面是一种基于3D人脸模型的摄像监控人脸样本扩充方法专利的具体信息内容。

1.一种基于3D人脸模型的摄像监控人脸样本扩充方法,其特征在于,包括以下具体步骤:
步骤1、人脸预处理:人脸检测、裁剪,并缩放到标准坐标系,使其能与3D模型匹配为准;
步骤2、人脸特征点检测、投影矩阵估计:
使用人脸特征点检测算法检测68个特征点(xk,yk),k=1,2,...,68,3D人脸模型上的3D特征点坐标为(Xk,Yk,Zk),假设3D特征点在相机中的坐标为(Uk,Vk,Wk),则对应关系为:
其中,R为旋转矩阵(3x3),t为平移向量(3x1),fx,fy表示相机x,y方向的焦距,cx,cy表示相机的光学中心,A即相机的内参矩阵,s为尺度因子;设定忽略尺度因子,给定相机内参矩阵A,可得到旋转矩阵R和平移向量t,进而得到投影矩阵C=A[R t];
步骤3、分离3D模型投影到2D图片的人脸区域:
首先通过投影矩阵C将3D模型坐标点(Xk,Yk,Zk)投影到2D平面坐标点(xk,yk):
(xk,yk)T=C*(Xk,Yk,Zk)T
由3D模型的人脸区域的索引,分别得到2D平面人脸区域和背景区域的坐标值和对应的索引,进而可以分离出人脸和背景;
步骤4、合成固定视人脸照片IR:
由给定的3D人脸模型,通过指定参考投影矩阵CM=AM[RM tM]来产生该模型固定角度的合成渲染视图;其中,AM是相机内参矩阵,[RM tM]是由旋转矩阵RM和平移向量tM组成的矩阵;
通过选择旋转矩阵和平移向量来产生模型的固定视角的视图,作为参考视图IR,由步骤3,可以得到参考视图IR的人脸区域的背景区域,具体为:
在产生参考视图IR时,为参考视图的每个像素点p'存储该像素点位于3D模型表面上点的3D坐标P=(X,Y,Z)T,其中,p'=CMP,pi'是由位于3D模型表面的坐标点Pi=(Xi,Yi,Zi)T通过投影矩阵CM投影而来;令pi=(xi yi)T是输入照片IF的人脸特征点;
同样,可以通过投影矩阵CQ来产生输入人脸照片IF的每个像素点的坐标pi=(xi yi)T;IF和参考视图IR对应像素点是通过3D模型中相同位置的3D坐标点投影产生;
通过双线性插值,采样输入人脸照片IF中像素点p处的强度,然后将采样的强度分配给新的视图中的相应像素点p',重映射后合成固定视角的人脸照片IR。

说明书全文

一种基于3D人脸模型的摄像监控人脸样本扩充方法

技术领域

[0001] 本发明涉及人脸样本扩充和人脸识别领域,具体的说是涉及一种摄像监控人脸样本扩充方法。

背景技术

[0002] 在过去几年中,人脸识别性能得到了巨大的提升,这种性能的提升很大一部分来源于深度学习方法的成功,该方法从大量训练集中学习人脸的特征表示。这些方法提出了一个基本的假设,即通过收集足够多的训练集,深度网络将有足够多的类间和类内变化的样本,从这些变化中,网络可以学会分辨每个样本和其他样本外观变换的特征。
[0003] 不幸的是,这种潜在的假设在实践中往往不存在。即便是庞大的数据集,如CASIA WebFace数据集,每类只包含少量的样本,而且样本之间表现出巨大的差异,主要体现在不同的光照和姿态下样本呈现出不一样的效果,这些数据集提供的类内和类间差异的变化是有限的。特别是在摄像监控样本中,每个类别往往只有特别少的样本,有的甚至只有一张正面照片。最近的许多方法使用计算机图形技术,通过对人脸照片合成许多新的视的照片来扩充数据集,从而使得深度网络有很大的性能提升。但是在摄像监控样本中这些方法并没有取得很好的效果,主要原因在于样本的差异性。不同于现有数据集,摄像监控样本最大的差异体现在其大姿态上。一般来讲,摄像监控样本很大一部分是自从高出往下拍摄,且包含一定的大的角度,因此样本扩充方法需要考虑从正面照片生成包含大的俯仰角的人脸照片。
[0004] 在由正面视图生成其他视图的人脸照片时,关键问题在于保持人脸局部特征不变,即生成的大角度人脸照片的局部特征和正面人脸照片相应的局部特征变化不大甚至不变。在计算机视觉领域,通常在合成新视图时,估计输入照片中人脸的3D几何形状以匹配输入照片,通过对3D人脸模型旋转一定的角度来生成需要的视图。借助于此方法,可以极大地扩充数据集,提高深度网络的识别率。
[0005] 但是此过程严重依赖于重建的准确性,而且对于人脸特征点检测有极高的准确度要求。此外,由于摄像监控样本的复杂,光照的变化和照片分辨率低等原因,并不能直接使用此过程进行其他视角人脸样本的扩充。

发明内容

[0006] 针对上述存在的问题或不足,为了实现摄像监控样本的多视图扩充,使得在只有一张正面照或其他小角度人脸照片的前提下可以扩充更多的其他视角的照片,本发明借助通用3D人脸模型,在不估计形状的前提下,通过2D人脸特征点和3D模型特征点匹配,可以有效的实现多视角样本扩充,而且相比之前的方法,该算法在保证精确度的同时,简化了合成和渲染过程,计算速度也得到了极大的提升。
[0007] 本发明由以下步骤实现,其扩充算法流程见附图1,实现过程见附图2。
[0008] 步骤1、人脸检测、裁剪、缩放到标准坐标系
[0009] 此过程对样本扩充算法的输入照片进行了预处理操作,主要是检测输入照片中的人脸区域,裁剪并缩放到固定的大小以匹配3D模型。
[0010] 步骤2、人脸特征点检测、投影矩阵估计。
[0011] 使用现有的特征点检测算法对预处理后的人脸照片进行68个2D特征点检测。借助于3D通用模型的3D特征点,可以估计得到投影矩阵。其过程如下:
[0012] 假设2D特征点坐标为(xk,yk),3D特征点坐标为(Xk,Yk,Zk),3D特征点在相机中的坐标为(Uk,Vk,Wk),则对应关系为:
[0013]
[0014]
[0015] 其中,R为旋转矩阵(3x3),t为平移向量(3x1),fx,fy表示相机x,y方向的焦距,cx,cy表示相机的光学中心,A即相机的内参矩阵,s为尺度因子。若忽略掉尺度因子,给定相机内参矩阵A,可以得到旋转矩阵R和平移向量t,进而可以得到投影矩阵C=A[R t]。
[0016] 步骤3、分离3D模型投影到2D图片的人脸区域。
[0017] 在由正面人脸照片合成其他视角的过程中需要分离出背景和人脸区域,只进行人脸区域的合成,而忽略背景区域,从可以减少背景区域对人脸识别的影响。该过程如下:
[0018] 首先通过投影矩阵C将3D模型坐标点(Xk,Yk,Zk)投影到2D平面坐标点(xk,yk):
[0019] (xk,yk)T=C*(Xk,Yk,Zk)T
[0020] 由3D模型的人脸区域的索引,可以分别得到2D平面人脸区域和背景区域的坐标值和对应的索引,进而可以分离出人脸和背景。
[0021] 步骤4、合成固定视角照片IR
[0022] 由给定的3D人脸模型,通过指定参考投影矩阵CM=AM[RM tM]来产生该模型固定角度的合成渲染视图。其中,AM是相机内参矩阵,[RM tM]是由旋转矩阵RM和平移向量tM组成的矩阵。通过选择旋转矩阵和平移向量来产生模型的固定视角的视图,作为参考视图IR,由步骤3,可以得到参考视图IR的人脸区域的背景区域。其过程如下:
[0023] 在产生参考视图IR时,为参考视图的每个像素点p'存储该像素点位于3D模型表面上点的3D坐标P=(X,Y,Z)T,其中,p'=CMP,pi'是由位于3D模型表面的坐标点Pi=(Xi,Yi,Zi)T通过投影矩阵CM投影而来。令pi=(xi yi)T是输入照片IF的人脸特征点。
[0024] 同样,可以通过投影矩阵CQ来产生输入人脸照片IF的每个像素点的坐标pi=(xi yi)T。IF和参考视图IR对应像素点是通过3D模型中相同位置的3D坐标点投影产生。
[0025] 通过双线性插值,采样输入人脸照片IF中像素点p处的强度,然后将采样的强度分配给新的视图中的相应像素点p',重映射后合成固定视角的人脸照片IR。

附图说明

[0026] 图1为人脸样本扩充算法流程图
[0027] 图2为人脸样本扩充算法实现过程示意图;
[0028] 图3为使用扩充后的人脸样本进行训练网络的训练损失和测试准确率;
[0029] 图4为使用训练好的模型进行准确预测的结果图;
[0030] 图5为使用训练好的模型预测错误的结果图。

具体实施方式

[0031] 下面以图2所示人脸照片为例,对本发明作进一步说明。
[0032] 本发明是为了解决在只有一张正面人脸照片的情况下,扩充摄像监控人脸样本,使得在其他视角和环境下的人脸样本也可以正确识别。本发明使用26类样本,每类只使用一张正面照片进行样本扩充,分别在x轴、y轴和z轴进行不同角度旋转,生成多个角度的人脸照片,同时在处理过程中忽略了背景信息,即不对背景区域进行合成。为了进一步扩充数据集,在扩充后的数据集基础上,进行了简单的裁剪、旋转、亮度调节等变换,这样将每个样本扩充为3000张样本,每类包含多个视角的人脸样本。将扩充后的人脸数据集分为训练集和测试集,比例为8:2,即训练样本62400张,测试样本15600张。采用VGG16深度神经网络进行训练,然后使用训练的网络对图2样本的其他视角和环境的人脸照片进行预测。
[0033] 实验的系统环境为Ubuntu16.04,使用Caffe框架训练VGG16网络。网络参数设置为:train_batch和test_batch为64,iter_test设置为300次,base_lr为0.001,每隔10000次减小一次。网络训练20000次可以收敛,且在测试集上的准确率为0.996,如图3所示。使用训练好的网络对其他视角和环境的人脸照片进行预测,当人脸视角为90度时,即侧面人脸或者接近侧面的情况下会识别出错,其他视角下的人脸照片有很好的准确率。使用训练好的深度网络模型进行预测的结果见图4和图5。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈