首页 / 专利库 / 图形技术 / 纹理合成 / 一种基于平面网格模型的虚拟试妆方法

一种基于平面网格模型的虚拟试妆方法

阅读:742发布:2020-05-12

专利汇可以提供一种基于平面网格模型的虚拟试妆方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于平面 网格模型 的虚拟试妆方法,包括下述步骤:S1,导入 化妆品 效果照片,并进行平面网格模型的处理;S1.1,平面网格模型的建立;平面网格模型采用的建模工具为3dsmax建模 软件 ,其建模方式采用多边形建模,首先用线将平面网格模型的结构表现出来,然后进行面、片的拼接;本发明利用 人脸识别 与追踪、人脸特征点提取、 图像处理 等技术,可以有效地达到对视频中的人脸进行动态上妆效果,从而达到虚拟试妆的功能,试妆者可以灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,这样可以给试妆者带来较好的方便性和简洁性,降低化妆成本,具有较好的应用价值。,下面是一种基于平面网格模型的虚拟试妆方法专利的具体信息内容。

1.一种基于平面网格模型的虚拟试妆方法,其特征在于,包括下述步骤:
S1,导入化妆品效果照片,并进行平面网格模型的处理;
S1.1,平面网格模型的建立;平面网格模型采用的建模工具为3dsmax建模软件,其建模方式采用多边形建模,首先用线将平面网格模型的结构表现出来,然后进行面、片的拼接;
为了保证平面网格模型的纹理与提取到的特征点进行映射,因此将平面网格模型制作成含有68个顶点的平面网格模型;将构建好的平面网格模型导出为OBJ的文件格式,然后导入Unity3D引擎中并给平面网格模型赋予材质,为其设置两个纹理,即主纹理和掩膜纹理,其中主纹理为标准人脸图片,掩膜纹理用来控制主纹理在平面网格中的显示区域,则需要这两个纹理大小相同;掩膜纹理控制主纹理具体方法为:分别获取该两个纹理的R、G、B、A四个通道,然后通过掩膜纹理的四个通道与主纹理的A通道进行分层操作,采用单一的线性叠加模型如下述公式(1)所示,从而达到掩膜纹理控制主纹理显示的效果:
(1)式中,Cd、Cm分别为主纹理和掩膜纹理对应的颜色分量,Cp为所生产化妆人脸图像的颜色分量,i为对应像素点的下标,k表示控制颜色分量的扰动参数,其默认值为1,d为掩膜纹理的像素区域;
S1.2,网格模型纹理的多边形填充;采用扫描线算法对主纹理进行多边形区域填充,根据S1.1中的平面网格模型的68个顶点纹理坐标,确定需要进行填充的多边形区域,然后从上到下对多边形区域进行扫描,在扫描过程中,先确定扫描线与填充区域边界的交点,并按x轴坐标排序,使其两两成对作为两个端点,然后将填充色应用于每一条扫描线的像素上;
S1.3,填充纹理的逻辑运算;对多边形纹理进行逻辑运算从而达到网格模型掩膜纹理控制模型主纹理的显示区域,多边形纹理的逻辑运算是处理二值图像,故在多边形填充时,为多边形填充的是白色,图像之间的逻辑运算采用异或运算,设A和B表示两幅多边形图像,像素之间保留A中不属于B的区域,即图像A中第m个区域中存在至少一个这样的像素,该像素也存在于图像B中,则将图像B中存在的像素只留下属于A但不属于B的区域;
S2,提取视频中的人脸特征点,并进行视频序列中人脸区域处理;
S2.1,视频帧序列中人脸的光照补偿;采用Gamma函数对光照补偿,Gamma函数矫正对γ值进行选取,图像中每个像素均以同一个γ值进行矫正,如下述公式(2)所示:
(2)式中,O(x,y)为输出图像,F(x,y)为源图像,通过伽参数γ对图像的高光部分和暗调部分进行扩展和压缩;
利用光照分量在图片中的分布情况,选择性地调整伽马参数γ,对光照分量M(x,y)的提取采用高斯函数G(x)与源图像F(x,y)进行卷积,如下述公式(3)和(4)所示:
M(x,y)=F(x,y)×G(x),      (4)
从而得到伽马参数γ,如下述公式(5)所示:
其中,高斯函数的卷积核选择13*13的卷积核;
S2.2,人脸特征点提取;采用OpenCV的Harr级联分类检测器进行人脸定位和追踪,然后调用Dlib的特征点检测方法进行提取和对齐;Dlib开源库完成人脸特征点提取,获取人脸上的68个特征点,并根据已经提取到的68个特征点位置,进行对额头区域依据美学标准三庭五眼进行等比例估算;
S3,通过步骤S2.2中提取的人脸特征点与S1.3中的平面网格模型进行纹理坐标映射,从而得到对视频人脸的上妆合成图;
纹理坐标映射是指三维模型的顶点坐标在二维纹理中找到对应的纹理位置,只需确定模型68个顶点坐标和模型纹理坐标的对应关系即可;设V(D)为网格模型顶点坐标集,F(D)为获取视频中的人脸特征点坐标集,CameraWidth为摄像头获取视频的宽度,CameraHeigth为摄像头获取视频的高度,ε为映射时的扰动误差,则可得到F(D)映射到V(D)的计算公式如式(6)和式(7)所示:
V(D).x=F(D).x/CameraWidth+ε,      (6)
V(D).y=F(D).y/CameraHeight+ε,     (7)
而模型的纹理坐标则是获取标准人脸纹理中的特征点的坐标,设UV(D)为网格模型纹理坐标集,FaceUV(D)为获取到的标准人脸纹理特征点坐标集,TexWidth为纹理的宽度,TexHeigth为纹理的高度,则可得到F(D)映射到V(D)的计算公式如式(8)和式(9)所示:
UV(D).x=FaceUV(D).x/TexWidth,    (8)
UV(D).y=(TexHeigth-FaceUV(D).y)/TexHeigth; (9)
S4,上妆合成图的效果展示。

说明书全文

一种基于平面网格模型的虚拟试妆方法

技术领域

[0001] 本发明涉及虚拟现实技术领域,具体涉及一种基于平面网格模型的虚拟试妆方法。

背景技术

[0002] 随着VR(虚拟现实)、AR(增强现实)等先进技术的迅速发展,利用虚拟现实技术可以给试妆者提供较好的化妆效果,在科研中成为一个有趣的研究问题。虚拟现实技术是指利用计算机系统辅助及其图像处理技术形象地展现人脸不同部位进行化妆时的效果。虚拟现实技术是20世纪60年代初首次提出的,通过用户各个器官(视觉、触觉、听觉、嗅觉等),可以带来更加真实和逼真的体验,该技术广泛应用于各个领域。近几年,不断有“虚拟试妆”的相关软件或应用被开发设计出来,并被广泛的推广,例如巴黎欧莱雅、LVMH旗下的美妆零售连店Sephora(丝芙兰)等企业都纷纷与专业的VR软件开发公司合作,先后推出了“虚拟试妆”相关软件,但是,这些软件是动态地对图像进行处理,采用的是贴图的方式,因而受到环境影响比较大,并且局限于指定的产品,而最主要的问题在于只能适用于特征比较明显的脸部区域,例如嘴部、眼部等,不能适用于非特征区域,因此对试妆区域有较大的局限性。现有技术中,专利CN201710390963.0公开了一种试妆方法、系统及设备,该专利是对视频流中每一人脸图像需要上妆的部位进行计算、上妆,然后将上妆后的部位叠加到原始图像,此专利中提出通过上妆指令确定需要上妆的至少一个目标面部部位,并且对目标面部部位所对应的关键点的像素点,勾画出各个目标面部部位的轮廓,并不能实时得到上妆后的真实效果,也达不到对现有化妆品进行试妆的效果。

发明内容

[0003] 本发明的目的在于克服现有技术的缺点与不足,提供一种基于平面网格模型的虚拟试妆方法,该方法利用人脸识别与追踪、人脸特征点提取、图像处理等技术,可以有效地达到对视频中的人脸进行动态上妆效果,从而达到虚拟试妆的功能,试妆者可以灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,这样可以给试妆者带来较好的方便性和简洁性,降低化妆成本,具有较好的应用价值。
[0004] 本发明的目的通过下述技术方案实现:
[0005] 一种基于平面网格模型的虚拟试妆方法,包括下述步骤:
[0006] S1,导入化妆品效果照片,并进行平面网格模型的处理;
[0007] S1.1,平面网格模型的建立;平面网格模型采用的建模工具为3dsmax建模软件,其建模方式采用多边形建模,首先用线将平面网格模型的结构表现出来,然后进行面、片的拼接;为了保证平面网格模型的纹理与提取到的特征点进行映射,因此将平面网格模型制作成含有68个顶点的平面网格模型;将构建好的平面网格模型导出为OBJ的文件格式,然后导入Unity3D引擎中并给平面网格模型赋予材质,为其设置两个纹理,即主纹理和掩膜纹理,其中主纹理为标准人脸图片,掩膜纹理用来控制主纹理在平面网格中的显示区域,则需要这两个纹理大小相同;掩膜纹理控制主纹理具体方法为:分别获取该两个纹理的R、G、B、A四个通道,然后通过掩膜纹理的四个通道与主纹理的A通道进行分层操作,采用单一的线性叠加模型如下述公式(1)所示,从而达到掩膜纹理控制主纹理显示的效果:
[0008]
[0009] (1)式中,Cd、Cm分别为主纹理和掩膜纹理对应的颜色分量,Cp为所生产化妆人脸图像的颜色分量,i为对应像素点的下标,k表示控制颜色分量的扰动参数,其默认值为1,d为掩膜纹理的像素区域;
[0010] S1.2,网格模型纹理的多边形填充;采用扫描线算法对主纹理进行多边形区域填充,根据S1.1中的平面网格模型的68个顶点纹理坐标,确定需要进行填充的多边形区域,然后从上到下对多边形区域进行扫描,在扫描过程中,先确定扫描线与填充区域边界的交点,并按x轴坐标排序,使其两两成对作为两个端点,然后将填充色应用于每一条扫描线的像素上;
[0011] S1.3,填充纹理的逻辑运算;对多边形纹理进行逻辑运算从而达到网格模型掩膜纹理控制模型主纹理的显示区域,多边形纹理的逻辑运算通常是处理二值图像,故在多边形填充时,为多边形填充的是白色,图像之间的逻辑运算主要采用异或运算,设A和B表示两幅多边形图像,像素之间保留A中不属于B的区域,即图像A中第m个区域中存在至少一个这样的像素,该像素也存在于图像B中,则将图像B中存在的像素只留下属于A但不属于B的区域;
[0012] S2,提取视频中的人脸特征点,并进行视频帧序列中人脸区域处理;
[0013] S2.1,视频帧序列中人脸的光照补偿;采用Gamma函数对光照补偿,Gamma函数矫正通常对γ值进行选取,图像中每个像素均以同一个γ值进行矫正,如下述公式(2)所示:
[0014]
[0015] (2)式中,O(x,y)为输出图像,F(x,y)为源图像,通过伽参数γ对图像的高光部分和暗调部分进行扩展和压缩;
[0016] 利用光照分量在图片中的分布情况,选择性地调整伽马参数γ,对光照分量M(x,y)的提取采用高斯函数G(x)与源图像F(x,y)进行卷积,如下述公式(3)和(4)所示:
[0017]
[0018] M(x,y)=F(x,y)×G(x),  (4)
[0019] 从而得到伽马参数γ,如下述公式(5)所示:
[0020]
[0021] 其中,高斯函数的卷积核选择13*13的卷积核;
[0022] S2.2,人脸特征点提取;采用OpenCV的Harr级联分类检测器进行人脸定位和追踪,然后调用Dlib的特征点检测方法进行提取和对齐;Dlib开源库完成人脸特征点提取,获取人脸上的68个特征点,并根据已经提取到的68个特征点位置,进行对额头区域依据美学标准三庭五眼进行等比例估算;
[0023] S3,通过步骤S2.2中提取的人脸特征点与S1.3中的平面网格模型进行纹理坐标映射,从而得到对视频人脸的上妆合成图;
[0024] 纹理坐标映射是指三维模型的顶点坐标在二维纹理中找到对应的纹理位置,只需确定模型68个顶点坐标和模型纹理坐标的对应关系即可;设V(D)为网格模型顶点坐标集,F(D)为获取视频中的人脸特征点坐标集,CameraWidth为摄像头获取视频的宽度,CameraHeigth为摄像头获取视频的高度,ε为映射时的扰动误差,则可得到F(D)映射到V(D)的计算公式如式(6)和式(7)所示:
[0025] V(D).x=F(D).x/CameraWidth+ε,  (6)
[0026] V(D).y=F(D).y/CameraHeight+ε,  (7)
[0027] 而模型的纹理坐标则是获取标准人脸纹理中的特征点的坐标,设UV(D)为网格模型纹理坐标集,FaceUV(D)为获取到的标准人脸纹理特征点坐标集,TexWidth为纹理的宽度,TexHeigth为纹理的高度,则可得到F(D)映射到V(D)的计算公式如式(8)和式(9)所示:
[0028] UV(D).x=FaceUV(D).x/TexWidth,  (8)
[0029] UV(D).y=(TexHeigth-FaceUV(D).y)/TexHeigth;  (9)
[0030] S4,上妆合成图的效果展示。
[0031] 本发明与现有技术相比具有以下的有益效果:
[0032] (1)本发明利用人脸识别与追踪、人脸特征点提取、图像处理等技术,可以有效地达到对视频中的人脸进行动态上妆效果,从而达到虚拟试妆的功能,试妆者可以灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,这样可以给试妆者带来较好的方便性和简洁性,降低化妆成本,具有较好的应用价值;
[0033] (2)本发明在试妆应用过程中,试妆者可灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,具有方便性和简洁性;利用了Gamma矫正对视频进行光照补偿,并且公开了平面网格纹理坐标与特征点坐标的映射关系;通过进行光照补偿,可以提高人脸识别准确率,同时也优化了试妆效果。附图说明
[0034] 图1为本发明的整体流程图
[0035] 图2为本发明平面网格模型的示意图;
[0036] 图3为本发明赋予材质的平面网格模型示意图;
[0037] 图4为本发明网格模型纹理的多边形填充效果图;
[0038] 图5为本发明填充纹理的逻辑运算效果图;
[0039] 图6为本发明的不同卷积核效果图;
[0040] 图7为本发明的人脸特征点提取流程图;
[0041] 图8为本发明的人脸特征点提取效果图;
[0042] 图9为本发明的纹理坐标映射流程图;
[0043] 图10为本发明的上妆合成图的效果展示图。

具体实施方式

[0044] 下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
[0045] 如图1~10所示,一种基于平面网格模型的虚拟试妆方法,导入化妆品效果照片作为网格模型的主纹理,记作D,根据模型主纹理坐标动态生成的掩膜纹理,记作M;通过提取到视频中的人脸特征点与网格模型进行纹理映射,从而得到对视频人脸的上妆合成图,记作S;其中为了消除环境光照的影响,对视频进行光照补偿;整体流程图如图1所示。
[0046] 具体包括下述步骤:
[0047] S1,导入化妆品效果照片,并进行平面网格模型的处理;
[0048] S1.1,平面网格模型的建立;平面网格模型采用的建模工具为3dsmax建模软件,其建模方式有多种:多边形建模、曲面建模、合成建模、面片建模、NURBS建模等,在本发明中的建模方式采用多边形建模,首先用线将平面网格模型的结构表现出来,然后进行面、片的拼接;为了保证平面网格模型的纹理与提取到的特征点进行映射,因此将平面网格模型制作成含有68个顶点的平面网格模型;将构建好的平面网格模型导出为OBJ的文件格式,然后导入Unity3D引擎中并给平面网格模型赋予材质,如图2平面网格模型的示意图和图3赋予材质的平面网格模型示意图所示,为其设置两个纹理,即主纹理和掩膜纹理,其中主纹理为标准人脸图片,掩膜纹理用来控制主纹理在平面网格中的显示区域,则需要这两个纹理大小相同;掩膜纹理控制主纹理具体方法为:分别获取该两个纹理的R、G、B、A四个通道,然后通过掩膜纹理的四个通道与主纹理的A通道进行分层操作,采用单一的线性叠加模型如下述公式(1)所示,从而达到掩膜纹理控制主纹理显示的效果:
[0049]
[0050] (1)式中,Cd、Cm分别为主纹理和掩膜纹理对应的颜色分量,Cp为所生产化妆人脸图像的颜色分量,i为对应像素点的下标,k表示控制颜色分量的扰动参数,其默认值为1,d为掩膜纹理的像素区域;
[0051] S1.2,网格模型纹理的多边形填充;对多边形的填充算法主要分为两大类:种子填充算法和扫描线算法,种子填充算法使用了递归,需要大量栈空间来存储相邻的点,因此效率不高,而扫描线算法只需要将每个平像素的起始点位置压入一个特殊栈,而不需要将所有相邻的点都压入堆栈,从而可以节省堆栈空间,考虑到运行效率,本发明采用扫描线算法对主纹理进行多边形区域填充,根据S1.1中的平面网格模型的68个顶点纹理坐标,确定需要进行填充的多边形区域,然后从上到下对多边形区域进行扫描,在扫描过程中,先确定扫描线与填充区域边界的交点,并按x轴坐标排序,使其两两成对作为两个端点,然后将填充色应用于每一条扫描线的像素上,具体填充效果如图4所示;
[0052] S1.3,填充纹理的逻辑运算;对多边形纹理进行逻辑运算从而达到网格模型掩膜纹理控制模型主纹理的显示区域,多边形纹理的逻辑运算通常是处理二值图像,故在多边形填充时,为多边形填充的是白色,图像之间常用的逻辑运算主要包括与(AND)、或(OR)、非(NOT)、或非(ORNOT)、与非(ANDNOT)、异或(XOR),本发明图像之间的逻辑运算主要采用异或运算,设A和B表示两幅多边形图像,像素之间保留A中不属于B的区域,即图像A中第m个区域中存在至少一个这样的像素,该像素也存在于图像B中,则将图像B中存在的像素只留下属于A但不属于B的区域,具体填充效果如图5所示;
[0053] S2,提取视频中的人脸特征点,并进行视频帧序列中人脸区域处理;
[0054] S2.1,视频帧序列中人脸的光照补偿;在本发明中对光照进行补偿有两个主要作用,一是提高人脸识别精确度,二是优化试妆显示效果,本发明考虑对视频采集效率以及计算复杂度等因素,采用Gamma函数对光照补偿,Gamma函数矫正通常对γ值进行选取,图像中每个像素均以同一个γ值进行矫正,如下述公式(2)所示:
[0055]
[0056] (2)式中,O(x,y)为输出图像,F(x,y)为源图像,通过伽马参数γ对图像的高光部分和暗调部分进行扩展和压缩;
[0057] 利用光照分量在图片中的分布情况,选择性地调整伽马参数γ,对光照分量M(x,y)的提取采用高斯函数G(x)与源图像F(x,y)进行卷积,如下述公式(3)和(4)所示:
[0058]
[0059] M(x,y)=F(x,y)XG(x),  (4)
[0060] 从而得到伽马参数γ,如下述公式(5)所示:
[0061]
[0062] 其中,高斯函数的卷积核选择13*13的卷积核;根据不同高斯函数的卷积核大小得到的光照分量图不同,如图6所示,当选择13*13大小的卷积核时对光照的补偿效果较好;
[0063] S2.2,人脸特征点提取;采用OpenCV的Harr级联分类检测器进行人脸定位和追踪,然后调用Dlib的特征点检测方法进行提取和对齐;Dlib开源库完成人脸特征点提取,获取人脸上的68个特征点,Dlib开源库里面包含许多常用的机器学习算法,例如:3D点、SURF特征、贝叶斯分类、SVM、深度学习、多种回归等算法,它被广泛应用于工业界和学术界,本发明将Harr级联分类检测器和Dlib开源库两者一起使用可大大提高检测速度,从而实现较好的试妆效果,若只利用Dlib进行人脸检测和特征点提取,则检测速度太慢,比如640*480分辨率的图像,需要0.15s左右的时间,而本发明将两者结合起来,对640*480分辨率的图片进行检测,时间消耗仅为70ms左右,极大地提高了运行效率,具体人脸特征点提取流程图如图7所示;根据已经提取到的68个特征点位置,并依据三庭五眼的美学标准对额头区域进行等比例估算,具体效果如图8所示;
[0064] S3,通过步骤S2.2中提取的人脸特征点与S1.3中的平面网格模型进行纹理坐标映射,从而得到对视频人脸的上妆合成图;
[0065] 纹理坐标映射是指三维模型的顶点坐标在二维纹理中找到对应的纹理位置,只需确定模型68个顶点坐标和模型纹理坐标的对应关系即可;设V(D)为网格模型顶点坐标集,F(D)为获取视频中的人脸特征点坐标集,CameraWidth为摄像头获取视频的宽度,CameraHeigth为摄像头获取视频的高度,ε为映射时的扰动误差,则可得到F(D)映射到V(D)的计算公式如式(6)和式(7)所示:
[0066] V(D)·x=F(D)·x/CameraWidth+ε,  (6)
[0067] V(D)·y=F(D)·y/CameraHeight+ε,  (7)
[0068] 而模型的纹理坐标则是获取标准人脸纹理中的特征点的坐标,设UV(D)为网格模型纹理坐标集,FaceUV(D)为获取到的标准人脸纹理特征点坐标集,TexWidth为纹理的宽度,TexHeigth为纹理的高度,则可得到F(D)映射到V(D)的计算公式如式(8)和式(9)所示:
[0069] UV(D).x=FaceUV(D).x/TexWidth,  (8)
[0070] UV(D).y=(TexHeigth-FaceUV(D).y)/TexHeigth;  (9)
[0071] 具体纹理坐标映射流程图如图9所示;
[0072] S4,上妆合成图的效果展示,如图10所示。
[0073] 本发明利用人脸识别与追踪、人脸特征点提取、图像处理等技术,可以有效地达到对视频中的人脸进行动态上妆效果,从而达到虚拟试妆的功能,试妆者可以灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,这样可以给试妆者带来较好的方便性和简洁性,降低化妆成本,具有较好的应用价值;在试妆应用过程中,试妆者可灵活调整脸部每一个需要化妆的部位,只需要一台带有摄像头的电脑或一部手机即可,具有方便性和简洁性;利用了Gamma矫正对视频进行光照补偿,并且公开了平面网格纹理坐标与特征点坐标的映射关系;通过进行光照补偿,可以提高人脸识别准确率,同时也优化了试妆效果。
[0074] 上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈