首页 / 专利库 / 其他体育休闲活动 / 棒球棒 / 基于视频流数据的安全帽佩戴情况检测方法

基于视频流数据的安全帽佩戴情况检测方法

阅读:798发布:2021-01-06

专利汇可以提供基于视频流数据的安全帽佩戴情况检测方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了基于 视频流 数据的 安全帽 佩戴情况检测方法,包括以下步骤:视频流数据获取;活动目标提取;人体目标匹配;头部 定位 ;安全帽 颜色 匹配;安全帽轮廓匹配;安全帽佩戴特征匹配。本发明采用基于视频流数据的安全帽佩戴情况检测方法,突破了单一的检测手段,结合了活动目标检测、人体目标匹配、头部定位、安全帽颜色和轮廓匹配以及安全帽佩戴特征匹配技术,大大提高了安全帽以及安全帽正确佩戴的识别率,利用本发明涉及的方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者手拿安全帽的作业人员进入施工区域,并辅助各级施工区安全监管单位进行施工区智能化监管,提高施工区安全监管信息化 水 平。,下面是基于视频流数据的安全帽佩戴情况检测方法专利的具体信息内容。

1.基于视频流数据的安全帽佩戴情况检测方法,其特征在于,包括以下步骤:
步骤一、视频流数据获取
在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐解码,转化为Lab空间表示,使其转换为相应的彩色图像;
步骤二、活动目标提取
通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
步骤三、人体目标匹配
截取步骤二中获取的活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1]M值越大,表示目标为人的可能性越高;
步骤四、头部定位
对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
步骤五、安全帽颜色匹配
通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;
步骤六、安全帽轮廓匹配
将步骤五中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1;
步骤七、安全帽佩戴特征匹配
对步骤六中安全帽类型符合规定的头肩区域图片进行安全帽佩戴特征模型匹配,若匹配大于相似度P,则判断为正确佩戴安全帽,反之则返回步骤二;其中P=[0,1],精度要求越高,则越接近1。
2.根据权利要求1所述的基于视频流数据的安全帽佩戴情况检测方法,其特征在于:步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相似度R,则判断前景图片中有人体目标;其中R=[0,1],R越大,则匹配度越高。
3.根据权利要求1所述的基于视频流数据的安全帽佩戴情况检测方法,其特征在于,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于T,则判断为安全帽类型符合规定;T=[0,1],T越大,则匹配度越高。
4.根据权利要求1所述的基于视频流数据的安全帽佩戴情况检测方法,其特征在于,步骤七中安全帽佩戴特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
训练时,输入大量佩戴安全帽人员图片作为正样本,输入不佩戴安全帽人员图片作为负样本,通过训练器进行训练学习并得到安全帽佩戴特征模型;
识别时,输入安全帽类型符合规定的头肩区域图片,通过头部区域图片与神经网络模型训练分类器中的安全帽佩戴特征模型进行识别匹配,若匹配大于相似度U,则判断为正确佩戴安全帽;其中U=[0,1],U越大,则匹配度越高。
5.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤五中,在1080×720的分辨率下,S像素调整范围为400个像素,对应于20×20像素的矩形。
6.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤六中,所述阈值L的经验值取0.4。
7.根据权利要求1所述的基于视频流数据的安全帽识别方法,其特征在于:步骤七中,P的经验值取0.4。

说明书全文

基于视频流数据的安全帽佩戴情况检测方法

技术领域

[0001] 本发明涉及数字视频智能分析技术领域,尤其涉及一种基于视频流数据的安全帽佩戴情况检测方法,是一种用于各类工作现场人员的安全帽防护措施的保障和检测、识别预警的技术。

背景技术

[0002] 目前主要的检测目标手段,有以下几类:
[0003] 一是基于知识的安全帽检测方法,如模板匹配、人脸特征、形状与边缘、纹理特性、颜色特征。基于HOG(梯度直方图)特征的应用就是一种经典的模式。
[0004] 二是基于统计的安全帽检测方法,如主成分分析与安全帽特征、神经网络方法、支持向量机、隐尔可夫模型、Adaboost算法等。类HAAR分类器作为机器视觉的基本算法,也被工业界广泛的采用。所谓分类器,在这里就是指对安全帽和非安全帽进行分类的算法,在机器学习领域,很多算法都是对事物进行分类、聚类的过程。OpenCV中的ML机器学习模提供了很多分类、聚类的算法,已经在实际工程中大量使用。
[0005] 三是基于射频标签等传感器的方法,识别是否佩戴了安全帽。《一种安全帽、安全帽佩戴状态监控方法及系统》,它对于最关注的人本身的安全保障并不够,而且使用中安全帽因为遗失,损坏,更换等因素,造成使用和维护这套系统的代价较高,缺少市场应用的成本优势。
[0006] 现有的机器学习方法针对安全帽的识别方法,局限在特定测试集下表现尚可,但对于实际广泛使用的场景下,会出现不适应,表现为无法检测,或将类似颜色背景视为安全帽的误检测情况。
[0007] 使用静态分类检测器方法,以《一种基于视频分析的人员安全帽佩戴情况实时检测方法》,它使用的viola-Jones检测器,在现场使用中由于误识别人,会导致基于此对象判断的结果出现误判。
[0008] 使用动态视频流检测活动的人目标,再进行安全帽识别的方法,例如《施工现场安全帽佩戴情况监控方法》,比较静态分类检测器方法,增加了活动目标,降低了静态类似目标的干扰。有利提升检测目标人判断的准确率,但对于安全帽的多种场景下的适应,还不够。而且在真实的部署中,RGB颜色空间表示,对于光照亮度的变化极度敏感,并不能通过相对稳定的阈值反映出安全帽的颜色。由于其值阈变化范围不确定,导致在实际应用中,不同场景都要单独调试,造成使用成本和维护成本增加。难以在市场中进行批量应用。
[0009] 分析现有的安全帽识别方法,基本上从状态传感器、射频标签、静态图片安全帽特征识别、动态视频安全帽识别加以分类。主要的技术问题,是使用中实际场景的普遍的适用性不足,导致使用成本、实施和维护成本高,难以转化为产品提供给用户。

发明内容

[0010] 为了解决上述背景技术中提出的问题,本发明的目的是提出了基于视频流数据的安全帽佩戴情况检测方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者手拿安全帽的作业人员进入施工区域。
[0011] 为实现上述目的,本发明采取的技术方案为:
[0012] 基于视频流数据的安全帽佩戴情况检测方法,包括以下步骤:
[0013] 步骤一、视频流数据获取
[0014] 在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐解码,转化为Lab空间表示,使其转换为相应的彩色图像;
[0015] 步骤二、活动目标提取
[0016] 通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
[0017] 通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现,则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点,则判断为持续运动,得到活动目标的前景图片;其中,N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏;i表示为平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏;
[0018] 步骤三、人体目标匹配
[0019] 截取步骤二中获取的活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1]M值越大,表示目标为人的可能性越高;
[0020] 步骤四、头部定位
[0021] 对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
[0022] 步骤五、安全帽颜色匹配
[0023] 通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素,对应于10×10~40×40像素的矩形;
[0024] 步骤六、安全帽轮廓匹配
[0025] 将步骤五中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1;
[0026] 步骤七、安全帽佩戴特征匹配
[0027] 对步骤六中安全帽类型符合规定的头肩区域图片进行安全帽佩戴特征模型匹配,若匹配大于相似度P,则判断为正确佩戴安全帽,反之则返回步骤二;其中P=[0,1],精度要求越高,则越接近1。
[0028] 上述技术方案中,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
[0029] 训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
[0030] 识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相似度R,则判断前景图片中有人体目标;其中R=[0,1],R越大,则匹配度越高。
[0031] 上述技术方案中,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
[0032] 训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
[0033] 识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于T,则判断为安全帽类型符合规定;T=[0,1],T越大,则匹配度越高。
[0034] 上述技术方案中,步骤七中安全帽佩戴特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
[0035] 训练时,输入大量佩戴安全帽人员图片作为正样本,输入不佩戴安全帽人员图片作为负样本,通过训练器进行训练学习并得到安全帽佩戴特征模型;
[0036] 识别时,输入安全帽类型符合规定的头肩区域图片,通过头部区域图片与神经网络模型训练分类器中的安全帽佩戴特征模型进行识别匹配,若匹配大于相似度U,则判断为正确佩戴安全帽;其中U=[0,1],U越大,则匹配度越高。
[0037] 上述技术方案中,步骤五中,在1080×720的分辨率下,S像素调整范围为400个像素,对应于20×20像素的矩形。
[0038] 上述技术方案中,步骤六中,所述阈值L的经验值取0.4。
[0039] 上述技术方案中,步骤七中,P的经验值取0.4。
[0040] 与现有技术相比,本发明的有益效果在于:
[0041] 本发明通过人体目标匹配和头部定位,避免了现有技术中人脸识别出现的误检;通过安全帽颜色和轮廓匹配,避免了作业人员可能佩戴其它帽子如鸭舌帽、毛线帽等出现的误检;通过头部定位及安全帽颜色和轮廓匹配,实现正确佩戴安全帽的检测,避免了作业人员手拿安全帽等情况的误检,并且进一步通过安全帽佩戴特征比对,大大提高了安全帽正确佩戴的识别率。
[0042] 本发明采用基于视频流数据的安全帽佩戴情况检测方法,突破了单一的检测手段,结合了活动目标检测、人体目标匹配、头部定位、安全帽颜色和轮廓匹配以及安全帽佩戴特征匹配技术,大大提高了安全帽以及安全帽正确佩戴的识别率,利用本发明涉及的方法,可以实现对施工现场的作业人员安全帽佩戴状况的自动识别检测,防止未佩戴安全帽或者手拿安全帽的作业人员进入施工区域,替代人工巡视督导的传统模式,节省人,并辅助各级施工区安全监管单位进行施工区智能化监管,提高施工区安全监管信息化水平。附图说明
[0043] 图1为本发明提供的基于视频流数据的安全帽佩戴情况检测方法的流程图
[0044] 图2为本发明所述的人体特征模型通过神经网络模型训练分类器训练和识别的流程图;
[0045] 图3为本发明所述的安全帽轮廓特征模型通过SVM训练器训练和识别的流程图;
[0046] 图4为本发明所述的安全帽佩戴特征模型通过神经网络模型训练分类器训练和识别的流程图。

具体实施方式

[0047] 以下结合附图和具体实施例对本发明作进一步的详细描述:
[0048] 如图1至图4所示,本发明公开了一种基于视频流数据的安全帽佩戴情况检测方法,包括以下步骤:
[0049] 步骤一、视频流数据获取
[0050] 在施工现场中作业人员的活动区域设置摄像头,获取摄像机视频流,并对视频流数据进行逐帧解码,转化为Lab空间表示,使其转换为相应的彩色图像;
[0051] 步骤二、活动目标提取
[0052] 通过对视频中获取的n帧画面进行背景建模,然后对n+1帧画面中的活动目标进行帧差,将n+1帧像素值I(x,y)减去背景模型中相同位置像素点的平均值u(x,y),得到差值d(x,y),然后将该差值d(x,y)与阈值TH进行比较,当差值d(x,y)大于阈值TH时,则标记为前景点;否则,标记为背景点;其中,TH值采用自适应算法确定,即计算每个像素的3帧图像间帧间差的平均值与标准差的和,作为比较的标准TH;
[0053] 通过前景点连续的帧来判断该活动目标是否连续运动,是否连续出现,若达不到连续N帧出现(N=[1,200],N值的大小,反映为观察目标的时间跨度,此值越小,则给出判断的反应时间越快,越灵敏),则过滤;反之,该活动目标连续N帧出现,且N帧内活动目标的目标质心坐标的位置像素大于i个像素点(i表示为水平和垂直方向上的位置像素量,i的取值范围[1,20],i越小,检测越灵敏),则判断为持续运动,得到活动目标的前景图片;
[0054] 步骤三、人体目标匹配
[0055] 截取步骤二中获取的活动目标的前景图片与人体特征模型进行匹配,若大于相似度M,则判断前景图片中有人体目标,并进入下一步;反之,则判断待测目标图像中没有人体目标,并返回步骤二继续进行活动目标的提取操作;其中M=[0,1]M值越大,表示目标为人的可能性越高;
[0056] 步骤四、头部定位
[0057] 对在步骤三中获取的有人体目标的前景图片继续进行提取,并截取所述前景图片中Y坐标最大值的30%矩形区域为头肩区域,该头肩区域作为下一步的安全帽匹配区;
[0058] 步骤五、安全帽颜色匹配
[0059] 通过Lab颜色算法对步骤四中截取到的头肩区域图片进行颜色还原,并通过对区块的监测将相近的同类颜色点进行合并连接;若未监测到红、黄、蓝、白色块或合并后的红、黄、蓝、白色块区域小于S像素,则直接忽略,并返回步骤二;若监测到红、黄、蓝、白色块和/或合并后的红、黄、蓝、白色块区域大于S像素,则判断头肩区域图片与安全帽颜色匹配,进入下一步;其中,S像素为不同分辨率下安全帽最小像素要求值,在1080×720的分辨率下,S像素调整范围为100~1600个像素(对应于10×10~40×40像素的矩形);优选的,S像素调整范围为400个像素,对应于20×20像素的矩形;
[0060] 步骤六、安全帽轮廓匹配
[0061] 将步骤五中获取到的安全帽规定颜色匹配的头肩区域图片与安全帽轮廓特征模型进行安全帽轮廓匹配,若相似度大于L则判断为佩戴符合规定的安全帽类型,反之则判断为佩戴不符合规定的安全帽类型;阈值L的取值范围是[0,1],精度要求越高,则越接近1。优选的,所述阈值L的经验值取0.4;
[0062] 步骤七、安全帽佩戴特征匹配
[0063] 对步骤六中安全帽类型符合规定的头肩区域图片进行安全帽佩戴特征模型匹配,若匹配大于相似度P,则判断为正确佩戴安全帽,反之则返回步骤二;其中P=[0,1],精度要求越高,则越接近1。优选的,P的经验值取0.4。
[0064] 如图2所示,步骤三中的所述人体特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
[0065] 训练时,输入大量人体图片作为正样本,输入大量无人体图片作为负样本,通过神经网络模型训练分类器进行训练学习并得到人体特征模型;
[0066] 识别时,输入运动目标的前景图片,通过运动目标的前景图片与神经网络模型训练分类器中的人体特征模型进行识别匹配,若大于相似度R,则判断前景图片中有人体目标;其中R=[0,1],R越大,则匹配度越高。
[0067] 如图3所示,步骤六中所述安全帽轮廓特征模型是通过SVM训练器训练和识别得到的,其具体方法为:
[0068] 训练时,输入大量正确安全帽图片为正样本,输入大量毛线帽、鸭舌帽、棒球帽为负样本,通过SVM训练器进行训练并得到安全帽轮廓特征模型;
[0069] 识别时,输入与安全帽颜色匹配的头肩区域图片,通过与安全帽颜色匹配的头肩区域图片与SVM训练器中的安全帽轮廓特征模型进行识别匹配,若相似度大于T,则判断为安全帽类型符合规定;T=[0,1],T越大,则匹配度越高。
[0070] 如图4所示,步骤七中安全帽佩戴特征模型是通过神经网络模型训练分类器训练和识别得到的,其具体方法为:
[0071] 训练时,输入大量佩戴安全帽人员图片作为正样本,输入不佩戴安全帽人员图片作为负样本,通过训练器进行训练学习并得到安全帽佩戴特征模型;
[0072] 识别时,输入安全帽类型符合规定的头肩区域图片,通过头部区域图片与神经网络模型训练分类器中的安全帽佩戴特征模型进行识别匹配,若匹配大于相似度U,则判断为正确佩戴安全帽;其中U=[0,1],U越大,则匹配度越高。
[0073] 最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围中。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈