首页 / 专利库 / 电子零件及设备 / 差动输入级 / 一种摄像头自动跟随人脸转动的控制方法

一种摄像头自动跟随人脸转动的控制方法

阅读:20发布:2020-05-08

专利汇可以提供一种摄像头自动跟随人脸转动的控制方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种摄像头自动跟随人脸转动的控制方法,包括以下步骤:S1,摄像头实时获取人脸图像 帧 ,对人脸图像帧进行预处理;S2,基于多任务 卷积神经网络 模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;S3,根据检测出人脸的 位置 坐标和得分信息,计算获取最佳人脸;S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;S5,控制步进 电机 转动,使最佳人脸始终保持在视频框的中间位置。本发明通过上述方法使人脸始终保持在 视频帧 的中间位置,很好的克服了由于摄像头安装 角 度固定、用户姿势、光照或遮挡等原因造成的 人脸检测 精度 低的问题,为 人脸识别 和身份认证提供高 质量 的人脸图片信息。,下面是一种摄像头自动跟随人脸转动的控制方法专利的具体信息内容。

1.一种摄像头自动跟随人脸转动的控制方法,其特征在于:包括以下步骤:
S1,摄像头实时获取人脸图像,对人脸图像帧进行预处理;
S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸;
S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;
S5,控制步进电机转动,使最佳人脸始终保持在视频框的中间位置。
2.根据权利要求1所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤二中的多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
3.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤二中对人脸图像帧进行实时运算包括以下步骤:
S2.1:首先将图像进行不同尺度的变换,构建图像金字塔;
S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;
S2.3:将P-Net网络的候选边框输入R-Net网络,得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;然后通过回归向量对候选框边界进行回归,对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框;
S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置。
4.根据权利要求3所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤S2.1具体为:将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止。
5.根据权利要求3所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤S2.2具体为:
对于输入大小为:W*H的图像,产生N*M个候选框和N*M*4个回归向量,其中W为图像的宽,H为图像的高,
保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过非极大值抑制算法去除高度重叠的候选边框。
6.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述多任务卷积神经网络对人脸/非人脸的分类、边界框的回归和特征点的定位进行训练。
7.根据权利要求6所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述人脸/非人脸的分类的训练函数为:
其中,pi为候选框样本被网络预测为人脸的分类概率, 表示该候选框样本为真的标记;
边界框的回归的训练函数为:
其中, 为人脸区域框, 为真实人脸区域框;
特征点的定位的训练函数为:
yi∈R10
其中, 为网络预测的特征点位置, 为真实人脸区域特征点的位置坐
标。
8.根据权利要求2所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
9.根据权利要求1所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤4中人脸框的中间位置的计算公式为:
hbox-middle=ymin+(ymax-ymin)/2;
人脸框与当前视频框中间位置的差值的计算公式为:
hcurrent=hbox-middle-hframe/2;
其中,(xmin,ymin)为最佳人脸框左上坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
10.根据权利要求9所述的一种摄像头自动跟随人脸转动的控制方法,其特征在于:所述步骤5中具体为:
首先计算人脸框面积S,公式为:
S=(xmax-xmin)*(ymax-ymin);
当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。

说明书全文

一种摄像头自动跟随人脸转动的控制方法

技术领域

[0001] 本发明涉及一种摄像头自动跟随人脸转动的控制方法。

背景技术

[0002] 目前,随着人类科学技术的不断发展,人脸识别技术在人们日常生活中越来越普及,无论在人工智能研究还是公共安全应用方面,人脸识别技术一直是一项前沿、热技术,拥有举足轻重的地位。
[0003] 作为生物特征识别技术的一类,人脸识别由于其非接触性以及采集方便的特点,具有良好的发展和应用前景。人脸识别技术在诸多应用场景中都发挥了十分重要的作用,比如机场安检、边检通关等。近几年随着互联网金融的高速发展,人脸识别技术在移动支付上表现出极大的应用优势。人脸识别的目的是根据获取的用户人脸图像或视频得知用户的身份。
[0004] 目前,人脸识别技术非受控环境下仍无法满足实用要求,其主要难点在于人脸识别技术仍存在着易变性的问题,人脸的外形很不稳定,人可以通过脸部的变化产生很多表情,而在不同观察度,人脸的视觉图像也相差很大,研究中需要考虑到人的面部表情,姿态,年龄,位置,以及遮盖物等因素引起的类内变化,以及来自外界光照(例如白天和夜晚、室内和室外等),背景等环境不同引起的类间变化。
[0005] 因此,目前迫切需要一种方法,能够使人脸始终在最佳识别位置,来满足人们对人脸识别功能的要求,提高人脸识别的整体工作效率和工作质量

发明内容

[0006] 本发明的目的是提供一种摄像头自动跟随人脸转动的控制方法,使人脸始终保持在视频的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,是人脸识别和身份认证的核心技术,为人脸识别和身份认证提供高质量的人脸图片信息。
[0007] 实现本发明目的的技术方案是:一种摄像头自动跟随人脸转动的控制方法,包括以下步骤:
[0008] S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;
[0009] S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
[0010] S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸;
[0011] S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值;
[0012] S5,控制步进电机转动,使最佳人脸始终保持在视频框的中间位置。
[0013] 所述步骤二中的多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
[0014] 所述步骤二中对人脸图像帧进行实时运算包括以下步骤:
[0015] S2.1:首先将图像进行不同尺度的变换,构建图像金字塔;
[0016] S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;
[0017] S2.3:将P-Net网络的候选边框输入R-Net网络,得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;然后通过回归向量对候选框边界进行回归,对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框;
[0018] S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置。
[0019] 所述步骤S2.1具体为:将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止。
[0020] 所述步骤S2.2具体为:
[0021] 对于输入大小为:W*H的图像,产生N*M个候选框和N*M*4个回归向量,其中W为图像的宽,H为图像的高,
[0022] 保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过非极大值抑制算法去除高度重叠的候选边框。
[0023] 所述多任务卷积神经网络对人脸/非人脸的分类、边界框的回归和特征点的定位进行训练。
[0024] 所述人脸/非人脸的分类的训练函数为:
[0025]
[0026]
[0027] 其中,pi为候选框样本被网络预测为人脸的分类概率, 表示该候选框样本为真的标记;
[0028] 边界框的回归的训练函数为:
[0029]
[0030]
[0031] 其中, 为人脸区域框, 为真实人脸区域框;
[0032] 特征点的定位的训练函数为:
[0033]
[0034] yi∈R10
[0035] 其中, 为网络预测的特征点位置, 为真实人脸区域特征点的位置坐标。
[0036] 所述多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
[0037] 所述步骤4中人脸框的中间位置的计算公式为:
[0038] hbox-middle=ymin+(ymax-ymin)/2;
[0039] 人脸框与当前视频框中间位置的差值的计算公式为:
[0040] hcurrent=hbox-middle-hframe/2;
[0041] 其中,(xmin,ymin)为最佳人脸框左上角坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
[0042] 所述步骤5中具体为:
[0043] 首先计算人脸框面积S,公式为:
[0044] S=(xmax-xmin)*(ymax-ymin);
[0045] 当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
[0046] 若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
[0047] 若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
[0048] 使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。
[0049] 采用了上述技术方案,本发明具有以下的有益效果:
[0050] 本发明通过多任务卷积神经网络计算出人脸图像最佳显示位置,而后控制摄像头对准最佳人脸识别位置,使人脸始终保持在视频帧的中间位置,很好的克服了由于摄像头安装角度固定、用户姿势、光照或遮挡等原因造成的人脸检测精度低的问题,为人脸识别和身份认证提供高质量的人脸图片信息。附图说明
[0051] 为了使本发明的内容更容易被清楚地理解,下面根据具体实施例并结合附图,对本发明作进一步详细的说明,其中
[0052] 图1为本发明的流程示意图。
[0053] 图2为本发明的多任务卷积神经网络的结构图。

具体实施方式

[0054] (实施例1)
[0055] 见图1和图2,本实施例的摄像头自动跟随人脸转动的控制方法,包括以下步骤:
[0056] S1,摄像头实时获取人脸图像帧,对人脸图像帧进行预处理;
[0057] S2,基于多任务卷积神经网络模型对人脸图像帧进行实时运算,检测出图像中的所有人脸;
[0058] 其中,多任务卷积神经网络模型包括三个级联的网络,分别为生成候选人脸框的P-Net网络、对候选框优选过滤的R-Net网络和生成最终边界框与人脸关键点的O-Net网络。
[0059] 对人脸图像帧进行实时运算包括以下步骤:
[0060] S2.1:首先将图像进行不同尺度的变换,将图像缩小到上一次操作图像面积的一半,直到达到预先设置的最小人脸尺寸为止,构建图像金字塔。
[0061] S2.2:将图像输入P-Net网络,P-Net网络输出人脸的ROI区域候选框和候选框边界回归向量;对于输入大小为:W*H的图像,产生N*M个候选框和N*M*4个回归向量,其中W为图像的宽,H为图像的高, 保留得分超过阈值的候选框,通过回归向量对候选框边界进行回归,对保留的候选框边界进行校准,最终通过非极大值抑制算法去除高度重叠的候选边框。
[0062] S2.3:将P-Net网络的候选边框输入R-Net网络,通过人脸/非人脸的分类的训练函数:
[0063]
[0064]
[0065] 其中,pi为候选框样本被网络预测为人脸的分类概率, 表示该候选框样本为真的标记;
[0066] 得到人脸与非人脸的判定分类得分和候选框边界回归向量,如果分类得分超过阈值,则为人脸,继续保留该候选框,否则舍弃该候选框;
[0067] 然后通过回归向量对候选框边界进行回归,所用边界框的回归的训练函数为:
[0068]
[0069]
[0070] 其中, 为人脸区域框, 为真实人脸区域框;
[0071] 对保留下来的候选框边界进行校准;最后通过非极大值抑制算法去掉高度重叠的的候选框。
[0072] S2.4:O-Net网络给出人脸判定分类得分、候选框边界回归向量以及五个面部特征点的位置,其中特征点定位的训练函数为:
[0073]
[0074] yi∈R10
[0075] 其中, 为网络预测的特征点位置, 为真实人脸区域特征点的位置坐标。
[0076] 由于每个层级的CNN中完成不同的学习任务,所以在训练过程中使用不同类型的训练图像。那么总的学习目标函数为:
[0077]
[0078] 式中N代表训练样本的个数,系数αj表示任务的重要性。在训练P-Net和R-Net时,设置αdet为1,αbox为0.5,αlandmark为0.5。训练O-Net时,设置αdet为1,αbox为0.5,为了使特征点定位更准确,将αlandmark设置为1。 为样本类型指示器。
[0079] 另外的,多任务卷积神经网络使用wider_face数据集对人脸分类任务和候选框边界回归任务进行训练。
[0080] 数据集中包含一定比例的遮挡和姿势具有高度的变化性人脸标签,数据集中的人脸被随机划分,其中40%的数据用作训练集,10%的数据用作验证集,50%的数据作为测试集。使用CelebA数据集对特征点定位任务进行训练。CelebA数据集图片数量多,人脸姿势变化大、背景杂乱。每张照片有40个属性标注,5个特征点位置标注。该数据集可以用来进行面部属性识别,人脸检测和特征点定位。
[0081] 在训练时,由于人脸检测和对齐任务同时进行,因此需要根据与真实人脸框的重叠率IoU(Intersection-over-Union)划分4种不同的数据集。负样本集:IoU小于0.3的样本。正样本集:IoU大于0.65的样本。半人脸集:IoU大于0.3并且小于0.65的样本。特征点集:标注了五个特征点位置的样本。正样本集和负样本集用来训练人脸分类任务,正样本集和半人脸集用来训练候选框边界回归任务,特征点数据集的数据用来训练特征点定位任务。
训练P-Net时,随机从wider_face数据集中剪裁出正样本集,负样本集和半人脸集,从CelebA数据集中剪裁人脸作为特征点集。训练R-Net时,使用已经训练完的第一级网络P-Net对wider_fac数据集进行检测,并剪裁出正样本集,负样本集和半人脸集,并从CelebA数据集中检测特征点集。训练O-Net时的数据集收集同R-Net相似,只不过在检测时同时使用了前两级网络。
[0082] S3,根据检测出人脸的位置坐标和得分信息,计算获取最佳人脸。
[0083] S4,根据最佳人脸的位置信息计算人脸框与视频框中间的位置差值,其中,人脸框的中间位置的计算公式为:
[0084] hbox-middle=ymin+(ymax-ymin)/2;
[0085] 人脸框与当前视频框中间位置的差值的计算公式为:
[0086] hcurrent=hbox-middle-hframe/2;
[0087] 其中,(xmin,ymin)为最佳人脸框左上角坐标,(xmax,ymax)为最佳人脸框右下角坐标,hframe为人脸图像帧的高度,单位为像素(px)。
[0088] S5,首先计算人脸框面积S,公式为:
[0089] S=(xmax-xmin)*(ymax-ymin);
[0090] 当人脸框面积S大于所设阈值时,若:0≤abs(hcurrent)≤25,说明人脸框处于视频帧的中间位置摄像头不需要转动,控制串口发送控制步进电机的PWM占空比为0%的命令;
[0091] 若:±26≤hcurrent≤±100,则发送PWM占空比为25%的命令控制步进电机缓慢转动;
[0092] 若:±101≤hcurrent≤±240,则发送PWM占空比为50%的命令控制步进电机快速转动;
[0093] 使人脸框中间位置和视频框中间位置的差值小于阈值,从而保证人脸处于视频框的中间位置。
[0094] 以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈