首页 / 专利库 / 人工智能 / 机器人自主导航 / 一种机器人巡视监测的方法

一种机器人巡视监测的方法

阅读:1024发布:2020-11-20

专利汇可以提供一种机器人巡视监测的方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种 机器人 巡视监测的方法,包括:对监测物体建立背景信息;在监测物体发生变化或增减时更新背景信息;机器人按设定时间对目标物与环境进行巡视自动监测,监测事件包括目标物的移动和消失及被遮挡、目标物 颜色 和灰度及纹理变化、目标物形状与 姿态 变化等;目标物为固定物、移动物、人、背景;在监测到事件时将事件信息通过网络通告设定的事件接收方;事件信息包括反映事件过程的 视频流 和事件图片、事件发生的起止时间、事件发生地点、事件发生地的地理信息、事件类型;本发明可移动监测、监测范围广、监测种类多、能自动视频分析,记录图像清晰,本方法能广泛应用于各种需要巡视安防进行自动监测的场合与领域。,下面是一种机器人巡视监测的方法专利的具体信息内容。

1.一种机器人巡视监测的方法,其特征在于:该方法采用机器人系统,该系统包括能根据导航信息自主行走的机器人,在机器人上安装有处理机和图像采集设备;处理机包括处理器、存储设备、输入设备、输出设备和网络设备,处理机装有操作系统和应用程序以及存储有导航信息并能通过网络设备连通网络;具体步骤如下:
A.建立背景信息与生成导航物体信息;步骤如下:
A1.取出导航信息:系统取出导航信息;导航信息是指采集点数量I和采集点i的导航信息,i=1,2,…,I;其中:采集点i导航信息是采集点编号i、M(i,W(i))、GS(i)与FS(i,R(i));M(i,W(i))是机器人从采集点i向采集点i+1行走的行走模式,W(i)是机器人旋转行走的旋转量,如果机器人直线行走W(i)=0;行走是指直线行走、旋转行走;直线行走是指向前直线行走、向后直线行走;旋转行走是指左转行走、右转行走,左转行走是指向前左转行走、向后左转行走;右转行走是指向前右转行走、向后右转行走;行走模式是指机器人行走的模式;GS(i)是系统在采集点i读取的图像;FS(i,R(i))是GS(i)的匹配数据,R(i)=1,2,…,N(i),N(i)是图像GS(i)中匹配数据的数量;匹配数据是指图像匹配所需的数据;
A2.设置背景点:操作者依据所述的行走路线上的采集点设置J个背景点;系统按照背景点与所述的采集点读取图像的位置最接近,将这J个背景点设置为背景点j,背景点j分别与采集点ij读取图像的位置最接近;其中,j是背景点编号,ij是采集点编号,j=
1,2,…,J,ij=i1,i2,…,iJ,1≤J≤I;
A3.初始点处理:系统得到初始点d,并将初始点d设为背景点0;
A4.赋背景点编号初值:系统赋背景点编号j的初值为1;
A5.机器人行走:系统控制机器人从背景点j-1向背景点j自主行走;如果背景点j-1到背景点j之间没有采集点,则机器人不进行行走;
A6.到达背景点j判断:系统根据图像匹配的结果判断机器人是否到达背景点j,如果机器人到达背景点j转步骤A7;否则转步骤A5;
A7.生成背景点j信息:系统在背景点j读取图像GB(j);系统对图像GB(j)进行识别物体处理,在图像GB(j)中识别出物体TB(j,S(j));系统用背景点编号j、采集点编号ij、GB(j)与TB(j,S(j))生成背景点j信息;其中,S(j)=1,2,…,L(j),L(j)是在图像GB(j)中识别出物体的数量;
A8.增加背景点编号:系统对背景点编号j加1;如果j=J+1则转步骤A9;否则j≤J转步骤A5;
A9.生成背景信息:系统用所述的背景点数量J和所述的背景点j信息,j=1,2,…,J,生成背景信息;
A10.存储背景信息:系统存储所述的背景信息;
A11.生成导航物体信息:如果系统生成过导航物体信息,则结束处理;否则,系统生成导航物体信息,导航物体信息是指TS(i,K(i)),i=1,2,…,I;生成导航信息物体信息是指系统分别对图像GS(i)进行识别物体处理,在图像GS(i)中识别出物体TS(i,K(i));其中,i是机器人行走路线上的采集点编号,i=1,2,…,I;K(i)=1,2,…,T(i),T(i)是GS(i)中识别出物体的数量;
A12.存储导航物体信息:系统存储所述的导航物体信息;
B.更新背景信息;步骤如下:
B1.取出信息:系统取出所述的导航信息和所述的背景信息;
B2.处理背景点:处理背景点的步骤如下:
B21.标注更新背景点:操作者在所述的原J个背景点中标注需更新点Kp和标注需删除背景点Sb;其中:Kp是原背景点中背景点的编号,p=1,2,…,P,P为原J个背景点中更新背景点的数量;Sb是原背景点中背景点的编号,b=1,2,…,B,B为原J个背景点中删除背景点的数量;
B22.删除原背景点:系统删除所述的标注需更新点Kp信息,p=1,2,…,P;系统删除所述的标注需删除背景点Sb信息,b=1,2,…,B;
B23.新增背景点:操作者依据所述的行走路线上的采集点新增Q个背景点;这Q个新增背景点的编号分别为L1,L2,…,LQ;
B24.生成更新点:如果在原背景点中没有需更新的背景点并且没有新增的背景点,则赋更新点数量K=0,转步骤B9;否则,系统将所述的需更新的原P个背景点和新增的Q个背景点,作为更新点;系统按照更新点与所述的采集点读取图像的位置最接近,将这K个更新点设置为更新点k,更新点k分别与采集点ik读取图像的位置最接近;其中,k是更新点的编号,ik是采集点的编号,k=1,2,…,K,ik=i1,i2,…,iK,K=P+Q,1≤K≤I;
B3.初始点处理:系统得到初始点d,并将初始点d设定为更新点0;
B4.赋更新点编号初值:系统赋更新点编号k的初值为1;
B5.机器人行走:系统控制机器人从更新点k-1向更新点k自主行走;如果更新点k-1到更新点k之间没有采集点,则机器人不进行行走;
B6.到达更新点k判断:系统根据图像匹配的结果判断机器人是否到达更新点k;如果机器人到达更新点k转步骤B7;否则转步骤B5;
B7.生成更新点k信息:系统在更新点k读取图像GB(k);系统对图像GB(k)进行识别物体处理在图像GB(k)中识别出物体TB(k,S(k));系统用更新点编号k、采集点编号ik、GB(k)与TB(k,S(k))生成更新点k信息;其中,S(k)=1,2,…,L(k),L(k)是在图像GB(k)中识别出物体的数量;
B8.增加更新点编号:系统对更新点编号k加1;如果k=K+1,转步骤B9;否则k≤K转步骤B5;
B9.生成背景信息:系统用所述的更新后的背景点数量M和所述的背景点m信息生成背景信息,m=1,2,…,M;其中,背景点m与采集点im读取图像的位置最接近,m是背景点编号,im是采集点编号,im=i1,i2,…,iM,1≤M≤I,M=T+K;所述的这M个背景点中有T个原背景点和所述的K个更新点;所述的T个原背景点是原背景信息中未被删除的背景点;
B10.存储背景信息:系统存储所述的背景信息;
C.巡视监测;步骤如下:
C1.取出信息:系统取出所述的导航信息和所述的背景信息以及所述的导航物体信息;
C2.设置监测信息:设置监测信息的步骤如下:
C21.设置监测点:操作者在所述的M个背景点中设置T个监测点;系统按照监测点与所述的采集点读取图像的位置最接近,将这T个监测点设置为监测点t,监测点t分别与采集点it读取图像的位置最接近;其中,t是监测点的编号,it是采集点的编号,t=
1,2,…,T,it=i1,i2,…,iT,1≤T≤M;
C22.设置监测时间:操作者对每个监测点t设置监测的开始时间与监测的结束时间,监测时间范围是从监测开始时间到监测结束时间这段时间;
C3.初始点处理:系统得到初始点d,并将初始点d设定为监测点0;
C4.赋监测点编号初值:系统赋监测点编号t的初值为1;
C5.机器人行走:系统控制机器人从监测点t-1向监测点t自主行走;如果监测点t-1到监测点t之间没有采集点,则机器人不进行行走;
C6.到达监测点t判断:系统根据图像匹配的结果判断机器人是否到达监测点t;如果机器人到达监测点t转步骤C9,否则转步骤C5;
C7.行走中事件监测:机器人在从监测点t-1向监测点t行走中,系统进行事件监测;
如果系统监测到事件转步骤C8;否则转步骤C5;
C8.事件处理:系统进行事件处理;事件处理结束转步骤C5;
C9.监测点t事件监测:监测点t事件监测的步骤如下:
C91.获取当前时间:系统获取当前时间;
C92.监测时间范围判断:系统判断当前时间是否在所述的监测点t时间范围内,如果当前时间处在监测点t时间范围内,转步骤C93;否则转步骤C91;
C93.监测点t事件监测:系统进行事件监测;如果监测到事件,转步骤C94;否则转步骤C95;
C94.事件处理:系统进行事件处理;
C95.获取当前时间:系统获取当前时间;
C96.监测结束时间判断:系统判断当前时间是否到或超过所述的监测点t监测结束时间,如果当前时间未到监测点t监测结束时间,转步骤C93;否则监测点t监测结束转步骤C10;
C10.增加监测点编号:系统对监测点编号t加1;如果t=T+1,结束巡视监测;否则t≤T转步骤C5。
2.根据权利要求1所述的机器人巡视监测的方法,其特征在于:所述的图像匹配是指系统用图像匹配算法对两幅图像分别进行处理得到这两幅图像的匹配数据,分析这两幅图像匹配数据的对应关系、相似性与一致性,得到图像匹配的结果是:这两幅图像相对缩放量、这两幅图像相对旋转量、这两幅图像相对平移量、这两幅图像的相同目标、这两幅图像相同目标的相对旋转量、这两幅图像相同目标的相对平移量、这两幅图像的不同目标;匹配数据是指灰度数据,或者特征数据,或者灰度数据与特征数据。
3.根据权利要求1所述的机器人巡视监测的方法,其特征在于:所述的系统得到初始点d是指系统读取在行走路线上机器人的所在位置的图像GA,并对图像GA进行处理得到匹配数据FA(R),R=1,2,…,N,N是图像GA中匹配数据的数量;系统用所述的FS(i,R(i))和FA逐一进行图像匹配,i=1,2,…,I,I是采集点的数量;从图像GS(i)中找到与图像GA对应图像GS(d),对应图像的读取位置即为初始点d,d是采集点的编号;图像GS(d)与图像GA为对应图像是指在导航信息的图像GS(i)中图像GS(d)与图像GA读取图像的位置最接近。
4.根据权利要求1所述的机器人巡视监测的方法,其特征在于:所述的系统对图像G进行识别物体处理是指系统对图像G进行识别物体处理,在图像G中识别出物体T(S),S=
1,2,…,L,L是在图像G中识别出物体的数量;识别物体是指用图像处理的方法对图像中的物体进行识别。
5.根据权利要求1所述的机器人巡视监测的方法,其特征在于:所述的系统控制机器人从所述的点j-1向点j自主行走是指系统依据从点j-1到点j的导航信息,控制机器人从点j-1向点j自主行走,从点j-1到点j的导航信息是从点j-1到点j之间的采集点n的机器人行走模式M(n,W(n))和匹配数据FS(n,R(n)),n=i(j-1),i(j-1)+1,…,ij;点j与采集点ij读取图像的位置最接近;所述的点是背景点,或是更新点,或是监测点。
6.根据权利要求1所述的机器人巡视监测的方法,其特征在于:所述的系统根据图像匹配的结果判断机器人是否到达所述的点j是指系统读取机器人所在位置的图像GA,并对图像GA进行处理得到匹配数据FA(R),R=1,2,…,N,N是图像GA中匹配数据的数量;系统用所述的匹配数据FA(R)和所述的匹配数据FS(ij,(Rij))进行图像匹配,并根据图像匹配的结果判断机器人是否到达所述的点j;点j与采集点ij读取图像的位置最接近;所述的点是背景点,或是更新点,或是监测点。
7.根据权利要求1所述的机器人巡视监测的方法,其特征在于,所述的系统进行事件监测是指系统通过图像分析,至少监测到以下一种事件:I 1.目标物位置移动;I2.目标物消失;I3.目标物被遮挡;I4.目标物全部颜色变化或目标物部分地方颜色变化;I5.目标物全部灰度变化或物体部分地方灰度变化;I6.目标物全部纹理变化或物体部分地方纹理变化;I7.目标物全部形状变化或物体部分地方形状变化;I8.目标物姿态变化;目标物是指至少以下一种图像处理对象:固定物体、移动物体、人、背景;所述的图像分析是指至少进行以下一种图像匹配和图像比较:J1.G(0)与G(p)图像分析,-5≤p≤-1;J2.TG(S)与所述的导航物体信息TS(k)图像分析;J3.TG(S)与所述的背景信息中的TB(t)图像分析;其中,G(0)是系统读取机器人所在位置的本图像,G(p)是本帧图像的前p帧图像;TG(S)是系统对本帧图像G(0)进行识别物体处理,在图像G(0)中识别出的物体,S=
1,2,…,L,L是在图像G(0)中识别出物体的数量;t是监测点t的编号,k是采集点的编号,it-D≤k≤D+it,D≥0;监测点t与采集点it读取图像的位置最接近。
8.根据权利要求1所述的机器人巡视监测的方法,其特征在于,所述的事件处理是指事件记录和事件通告;事件记录是指系统存储记录;记录是指至少以下一种记录数据:记录事件过程视频流的数据,记录事件图片的数据;事件通告是指系统通过网络将事件信息通告系统设定的事件接收方;事件信息包括事件记录、事件发生的起止时间、事件发生地点、事件发生地的地理信息、事件类型。

说明书全文

一种机器人巡视监测的方法

技术领域

[0001] 本发明涉及智能机器人、人工智能、视频图像处理技术领域。尤其是涉及一种利用视频图像处理技术的机器人巡视监测的方法。

背景技术

[0002] 机器人巡视监测需要发现事件并通告事件。
[0003] 中国发明专利申请号为201210031915.X专利公开了一种安防系统及其无线安防报警传感器的扩展方法。这种系统包括主机、无线网络模、无线报警设备、无线报警信号接收模块、监控终端;其中无线报警设备包括老人跌倒传感器、烟雾探测器温度探测器、气探测器、红外探测器和禁。这种系统的不足之处在于:不能对未戴跌倒传感器的被监护人进行监测,且不能对被监护人其它不正常状态进行监测;烟雾探测器只有当烟雾聚集到相当大浓度时才能探测,不能做到烟雾刚刚产生时就被监测到;红外探测器和门禁监测的地方固定、监测的范围较小。
[0004] 目前,为安防需要许多地方安装了很多监控摄像机。这类摄像机的不足之处在于:摄像机是固定摄像机,不能移动监测,监测范围内有死;监控主要以人工监控为主,不具备自动视频分析能;监控的场景较大,视频图像与录像是压缩后的视频,导致监控图像与录像图像较为模糊难以看清细节。

发明内容

[0005] 为了克服现有技术的监测范围不广、监测种类不多、没有自动视频分析的不足,本发明的目的是提供一种机器人巡视监测的方法,该方法可移动监测、监测范围广、监测种类多、能自动视频分析,记录图像清晰。
[0006] 本发明的目的通过以下技术方案实现:
[0007] 一种机器人巡视监测的方法,其特征在于:该方法采用机器人系统,该系统包括能根据导航信息自主行走的机器人,在机器人上安装有处理机和图像采集设备;处理机包括处理器、存储设备、输入设备、输出设备和网络设备,处理机装有操作系统和应用程序以及存储有导航信息并能通过网络设备连通网络;具体步骤如下:
[0008] A.建立背景信息与生成导航物体信息;步骤如下:
[0009] A1.取出导航信息:系统取出导航信息;导航信息是指采集点数量I和采集点i的导航信息,i=1,2,…,I;其中:采集点i导航信息是采集点编号i、M(i,W(i))、GS(i)与FS(i,R(i));M(i,W(i))是机器人从采集点i向采集点i+1行走的行走模式,W(i)是机器人旋转行走的旋转量,如果机器人直线行走W(i)=0;行走是指直线行走、旋转行走;直线行走是指向前直线行走、向后直线行走;旋转行走是指左转行走、右转行走,左转行走是指向前左转行走、向后左转行走;右转行走是指向前右转行走、向后右转行走;行走模式是指机器人行走的模式;GS(i)是系统在采集点i读取的图像;FS(i,R(i))是GS(i)的匹配数据,R(i)=1,2,…,N(i),N(i)是图像GS(i)中匹配数据的数量;匹配数据是指图像匹配所需的数据;
[0010] A2.设置背景点:操作者依据所述的行走路线上的采集点设置J个背景点;系统按照背景点与所述的采集点读取图像的位置最接近,将这J个背景点设置为背景点j,背景点j分别与采集点ij读取图像的位置最接近;其中,j是背景点编号,ij是采集点编号,j=1,2,…,J,ij=i1,i2,…,iJ,1≤J≤I;
[0011] A3.初始点处理:系统得到初始点d,并将初始点d设为背景点0;
[0012] A4.赋背景点编号初值:系统赋背景点编号j的初值为1;
[0013] A5.机器人行走:系统控制机器人从背景点j-1向背景点j自主行走;如果背景点j-1到背景点j之间没有采集点,则机器人不进行行走;
[0014] A6.到达背景点j判断:系统根据图像匹配的结果判断机器人是否到达背景点j,如果机器人到达背景点j转步骤A7;否则转步骤A5;
[0015] A7.生成背景点j信息:系统在背景点j读取图像GB(j);系统对图像GB(j)进行识别物体处理,在图像GB(j)中识别出物体TB(j,S(j));系统用背景点编号j、采集点编号ij、GB(j)与TB(j,S(j))生成背景点j信息;其中,S(j)=1,2,…,L(j),L(j)是在图像GB(j)中识别出物体的数量;
[0016] A8.增加背景点编号:系统对背景点编号j加1;如果j=J+1则转步骤A9;否则j≤J转步骤A5;
[0017] A9.生成背景信息:系统用所述的背景点数量J和所述的背景点j信息,j=1,2,…,J,生成背景信息;
[0018] A10.存储背景信息:系统存储所述的背景信息;
[0019] A11.生成导航物体信息:如果系统生成过导航物体信息,则结束处理;否则,系统生成导航物体信息,导航物体信息是指TS(i,K(i)),i=1,2,…,I;生成导航信息物体信息是指系统分别对图像GS(i)进行识别物体处理,在图像GS(i)中识别出物体TS(i,K(i));其中,i是机器人行走路线上的采集点编号,i=1,2,…,I;K(i)=1,2,…,T(i),T(i)是GS(i)中识别出物体的数量;
[0020] A12.存储导航物体信息:系统存储所述的导航物体信息;
[0021] B.更新背景信息;步骤如下:
[0022] B1.取出信息:系统取出所述的导航信息和所述的背景信息;
[0023] B2.处理背景点:处理背景点的步骤如下:
[0024] B21.标注更新背景点:操作者在所述的原J个背景点中标注需更新点Kp和标注需删除背景点Sb;其中:Kp是原背景点中背景点的编号,p=1,2,…,P,P为原J个背景点中更新背景点的数量;Sb是原背景点中背景点的编号,b=1,2,…,B,B为原J个背景点中删除背景点的数量;
[0025] B22.删除原背景点:系统删除所述的标注需更新点Kp信息,p=1,2,…,P;系统删除所述的标注需删除背景点Sb信息,b=1,2,…,B;
[0026] B23.新增背景点:操作者依据所述的行走路线上的采集点新增Q个背景点;这Q个新增背景点的编号分别为L1,L2,…,LQ;
[0027] B24.生成更新点:如果在原背景点中没有需更新的背景点并且没有新增的背景点,则赋更新点数量K=0,转步骤B9;否则,系统将所述的需更新的原P个背景点和新增的Q个背景点,作为更新点;系统按照更新点与所述的采集点读取图像的位置最接近,将这K个更新点设置为更新点k,更新点k分别与采集点ik读取图像的位置最接近;其中,k是更新点的编号,ik是采集点的编号,k=1,2,…,K,ik=i1,i2,…,iK,K=P+Q,1≤K≤I;
[0028] B3.初始点处理:系统得到初始点d,并将初始点d设定为更新点0;
[0029] B4.赋更新点编号初值:系统赋更新点编号k的初值为1;
[0030] B5.机器人行走:系统控制机器人从更新点k-1向更新点k自主行走;如果更新点k-1到更新点k之间没有采集点,则机器人不进行行走;
[0031] B6.到达更新点k判断:系统根据图像匹配的结果判断机器人是否到达更新点k;如果机器人到达更新点k转步骤B7;否则转步骤B5;
[0032] B7.生成更新点k信息:系统在更新点k读取图像GB(k);系统对图像GB(k)进行识别物体处理在图像GB(k)中识别出物体TB(k,S(k));系统用更新点编号k、采集点编号ik、GB(k)与TB(k,S(k))生成更新点k信息;其中,S(k)=1,2,…,L(k),L(k)是在图像GB(k)中识别出物体的数量;
[0033] B8.增加更新点编号:系统对更新点编号k加1;如果k=K+1,转步骤B9;否则k≤K转步骤B5;
[0034] B9.生成背景信息:系统用所述的更新后的背景点数量M和所述的背景点m信息生成背景信息,m=1,2,…,M;其中,背景点m与采集点im读取图像的位置最接近,m是背景点编号,im是采集点编号,im=i1,i2,…,iM,1≤M≤I,M=T+K;所述的这M个背景点中有T个原背景点和所述的K个更新点;所述的T个原背景点是原背景信息中未被删除的背景点;
[0035] B10.存储背景信息:系统存储所述的背景信息;
[0036] C.巡视监测;步骤如下:
[0037] C1.取出信息:系统取出所述的导航信息和所述的背景信息以及所述的导航物体信息;
[0038] C2.设置监测信息:设置监测信息的步骤如下:
[0039] C21.设置监测点:操作者在所述的M个背景点中设置T个监测点;系统按照监测点与所述的采集点读取图像的位置最接近,将这T个监测点设置为监测点t,监测点t分别与采集点it读取图像的位置最接近;其中,t是监测点的编号,it是采集点的编号,t=1,2,…,T,it=i1,i2,…,iT,1≤T≤M;
[0040] C22.设置监测时间:操作者对每个监测点t设置监测的开始时间与监测的结束时间,监测时间范围是从监测开始时间到监测结束时间这段时间;
[0041] C3.初始点处理:系统得到初始点d,并将初始点d设定为监测点0;
[0042] C4.赋监测点编号初值:系统赋监测点编号t的初值为1;
[0043] C5.机器人行走:系统控制机器人从监测点t-1向监测点t自主行走;如果监测点t-1到监测点t之间没有采集点,则机器人不进行行走;
[0044] C6.到达监测点t判断:系统根据图像匹配的结果判断机器人是否到达监测点t;如果机器人到达监测点t转步骤C9,否则转步骤C5;
[0045] C7.行走中事件监测:机器人在从监测点t-1向监测点t行走中,系统进行事件监测;如果系统监测到事件转步骤C8;否则转步骤C5;
[0046] C8.事件处理:系统进行事件处理;事件处理结束转步骤C5;
[0047] C9.监测点t事件监测:监测点t事件监测的步骤如下:
[0048] C91.获取当前时间:系统获取当前时间;
[0049] C92.监测时间范围判断:系统判断当前时间是否在所述的监测点t时间范围内,如果当前时间处在监测点t时间范围内,转步骤C93;否则转步骤C91;
[0050] C93.监测点t事件监测:系统进行事件监测;如果监测到事件,转步骤C94;否则转步骤C95;
[0051] C94.事件处理:系统进行事件处理;
[0052] C95.获取当前时间:系统获取当前时间;
[0053] C96.监测结束时间判断:系统判断当前时间是否到或超过所述的监测点t监测结束时间,如果当前时间未到监测点t监测结束时间,转步骤C93;否则监测点t监测结束转步骤C10;
[0054] C10.增加监测点编号:系统对监测点编号t加1;如果t=T+1,结束巡视监测;否则t≤T转步骤C5。
[0055] 本发明中,所述的图像匹配是指系统用图像匹配算法对两幅图像分别进行处理得到这两幅图像的匹配数据,分析这两幅图像匹配数据的对应关系、相似性与一致性,得到图像匹配的结果是:这两幅图像相对缩放量、这两幅图像相对旋转量、这两幅图像相对平移量、这两幅图像的相同目标、这两幅图像相同目标的相对旋转量、这两幅图像相同目标的相对平移量、这两幅图像的不同目标;匹配数据是指灰度数据,或者特征数据,或者灰度数据与特征数据。
[0056] 所述的系统得到初始点d是指系统读取在行走路线上机器人的所在位置的图像GA,并对图像GA进行处理得到匹配数据FA(R),R=1,2,…,N,N是图像GA中匹配数据的数量;系统用所述的FS(i,R(i))和FA逐一进行图像匹配,i=1,2,…,I,I是采集点的数量;从图像GS(i)中找到与图像GA对应图像GS(d),对应图像的读取位置即为初始点d,d是采集点的编号;图像GS(d)与图像GA为对应图像是指在导航信息的图像GS(i)中图像GS(d)与图像GA读取图像的位置最接近。
[0057] 所述的系统对图像G进行识别物体处理是指系统对图像G进行识别物体处理,在图像G中识别出物体T(S),S=1,2,…,L,L是在图像G中识别出物体的数量;识别物体是指用图像处理的方法对图像中的物体进行识别。
[0058] 所述的系统控制机器人从所述的点j-1向点j自主行走是指系统依据从点j-1到点j的导航信息,控制机器人从点j-1向点j自主行走,从点j-1到点j的导航信息是从点j-1到点j之间的采集点n的机器人行走模式M(n,W(n))和匹配数据FS(n,R(n)),n=i(j-1),i(j-1)+1,…,ij;点j与采集点ij读取图像的位置最接近;所述的点是背景点,或是更新点,或是监测点。
[0059] 所述的系统根据图像匹配的结果判断机器人是否到达所述的点j是指系统读取机器人所在位置的图像GA,并对图像GA进行处理得到匹配数据FA(R),R=1,2,…,N,N是图像GA中匹配数据的数量;系统用所述的匹配数据FA(R)和所述的匹配数据FS(ij,(Rij))进行图像匹配,并根据图像匹配的结果判断机器人是否到达所述的点j;点j与采集点ij读取图像的位置最接近;所述的点是背景点,或是更新点,或是监测点。
[0060] 所述的系统进行事件监测是指系统通过图像分析,至少监测到以下一种事件:I1.目标物位置移动;I2.目标物消失;I3.目标物被遮挡;I4.目标物全部颜色变化或目标物部分地方颜色变化;I5.目标物全部灰度变化或物体部分地方灰度变化;I6.目标物全部纹理变化或物体部分地方纹理变化;I7.目标物全部形状变化或物体部分地方形状变化;
I8.目标物姿态变化;目标物是指至少以下一种图像处理对象:固定物体、移动物体、人、背景;所述的图像分析是指至少进行以下一种图像匹配和图像比较:J1.G(0)与G(p)图像分析,-5≤p≤-1;J2.TG(S)与所述的导航物体信息TS(k)图像分析;J3.TG(S)与所述的背景信息中的TB(t)图像分析;其中,G(0)是系统读取机器人所在位置的本图像,G(p)是本帧图像的前p帧图像;TG(S)是系统对本帧图像G(0)进行识别物体处理,在图像G(0)中识别出的物体,S=1,2,…,L,L是在图像G(0)中识别出物体的数量;t是监测点t的编号,k是采集点的编号,it-D≤k≤D+it,D≥0;监测点t与采集点it读取图像的位置最接近。
[0061] 所述的事件处理是指事件记录和事件通告;事件记录是指系统存储记录;记录是指至少以下一种记录数据:记录事件过程视频流的数据,记录事件图片的数据;事件通告是指系统通过网络将事件信息通告系统设定的事件接收方;事件信息包括事件记录、事件发生的起止时间、事件发生地点、事件发生地的地理信息、事件类型。
[0062] 本发明对监测物体建立背景信息;在监测物体发生变化时,或增加监测物体,或减少监测物体时更新背景信息;系统按设定时间对物体与环境进行巡视监测,实现事件自动监测;在监测到事件时将事件信息通告系统设定的事件接收方;事件信息包括反映事件过程的视频流和事件图片、事件发生的起止时间、事件发生地点、事件发生地的地理信息、事件类型;事件监测是指对目标物位置移动、目标物消失、目标物被遮挡、目标物颜色变化、目标物灰度变化、目标物纹理变化、目标物形状变化、目标物姿态变化进行监测;目标物包括固定物体、移动物体、人、背景。
[0063] 本发明的有益效果是:采用该方法可移动监测、监测范围广、监测种类多,能自动视频分析、记录图像清晰。
[0064] 本发明广泛应用于各种需要巡视安防进行自动监测的场合与领域。附图说明
[0065] 图1是本发明的建立背景与生成导航物体信息的流程图
[0066] 图2是本发明的更新背景的流程图。
[0067] 图3是本发明的巡视监测的流程图。
[0068] 图4是本发明的监测点事件监测的流程图。

具体实施方式

[0069] 下面结合附图,详细叙述本发明的方法的具体实施方式:
[0070] 本发明的一种机器人巡视监测的方法,该方法采用机器人系统,该系统包括能根据导航信息自主行走的机器人,在机器人上安装有处理机和图像采集设备;处理机包括处理器、存储设备、输入设备、输出设备和网络设备,处理机装有操作系统和应用程序以及存储有导航信息并能通过网络设备连通网络;本例中,机器人是一台左右两轮驱动的机器人,处理机是一台平板电脑,平板电脑由处理器、SD卡、触摸屏、显示器、无线网卡组成,平板电脑装有操作系统和应用程序及存储有导航信息并能通过无线网卡联通网络;图像采集设备是200万彩色摄像机;来实现机器人巡视监测,实现机器人巡视监测方法的步骤如下:
[0071] A.建立背景信息与生成导航物体信息;
[0072] 其中,A.建立背景信息与生成导航物体信息的步骤如下:
[0073] A1.取出导航信息:系统取出导航信息;导航信息是指采集点数量I和采集点i的导航信息,i=1,2,…,I;其中:采集点i导航信息是采集点编号i、M(i,W(i))、GS(i)与FS(i,R(i));M(i,W(i))是机器人从采集点i向采集点i+1行走的行走模式,W(i)是机器人旋转行走的旋转量,如果机器人直线行走W(i)=0;行走是指直线行走、旋转行走;直线行走是指向前直线行走、向后直线行走;旋转行走是指左转行走、右转行走,左转行走是指向前左转行走、向后左转行走;右转行走是指向前右转行走、向后右转行走;行走模式是指机器人行走的模式;GS(i)是系统在采集点i读取的图像;FS(i,R(i))是GS(i)的匹配数据,R(i)=1,2,…,N(i),N(i)是图像GS(i)中匹配数据的数量;匹配数据是指图像匹配所需的数据;本例中,I=100;匹配数据是系统对图像进行处理,在图像提取出角点作为匹配(特征)数据;
[0074] A2.设置背景点:操作者依据所述的行走路线上的采集点设置J个背景点;系统按照背景点与所述的采集点读取图像的位置最接近,将这J个背景点设置为背景点j,背景点j分别与采集点ij读取图像的位置最接近;其中,j是背景点编号,ij是采集点编号,j=1,2,…,J,ij=i1,i2,…,iJ,1≤J≤I;本例中,取J=5,i1=10,i2=24,i3=58,i4=69,i5=92;即背景点1、背景点2、背景点3、背景点4、背景点5分别与导航信息采集点10、采集点24、采集点58、采集点69、采集点92读取图像的位置最接近;
[0075] A3.初始点处理:系统得到初始点d,并将初始点d设为背景点0;
[0076] A4.赋背景点编号初值:系统赋背景点编号j的初值为1;
[0077] A5.机器人行走:系统控制机器人从背景点j-1向背景点j自主行走;如果背景点j-1到背景点j之间没有采集点,则机器人不进行行走;本例中,背景点0到背景点1导航信息是从背景点0到背景点1之间的采集点n的机器人行走模式M(n)和匹配数据FS(n,R(n)),n=5,6,…,10;
[0078] A6.到达背景点j判断:系统根据图像匹配的结果判断机器人是否到达背景点j,如果机器人到达背景点j转步骤A7;否则转步骤A5;
[0079] A7.生成背景点j信息:系统在背景点j读取图像GB(j);系统对图像GB(j)进行识别物体处理,在图像GB(j)中识别出物体TB(j,S(j));系统用背景点编号j、采集点编号ij、GB(j)与TB(j,S(j))生成背景点j信息;其中,S(j)=1,2,…,L(j),L(j)是在图像GB(j)中识别出物体的数量;本例中,系统依次生成背景点1信息背景点编号1、采集点编号i1=10、GB(1)与TB(1,S(1));背景点2信息背景点编号2、采集点编号i2=24、GB(2)与TB(2,S(2));背景点3信息背景点编号3、采集点编号i3=58、GB(3)与TB(3,S(3));背景点4信息背景点编号4、采集点编号i4=69、GB(4)与TB(4,S(4));背景点5信息背景点编号5、采集点编号i5=92、GB(5)与TB(5,S(5));
[0080] A8.增加背景点编号:系统对背景点编号j加1;如果j=J+1则转步骤A9;否则j≤J转步骤A5;本例中,j值加1后依次为2,3,4,5,6;如果j=6转步骤A9;否则转步骤A5;
[0081] A9.生成背景信息:系统用所述的背景点数量J和所述的背景点j信息,j=1,2,…,J,生成背景信息;
[0082] A10.存储背景信息:系统存储所述的背景信息;
[0083] A11.生成导航物体信息:如果系统生成过导航物体信息,则结束处理;否则,系统生成导航物体信息,导航物体信息是指TS(i,K(i)),i=1,2,…,I;生成导航信息物体信息是指系统分别对图像GS(i)进行识别物体处理,在图像GS(i)中识别出物体TS(i,K(i));其中,i是机器人行走路线上的采集点编号,i=1,2,…,I;K(i)=1,2,…,T(i),T(i)是GS(i)中识别出物体的数量;本例中,如果是第一次进行建立背景信息与生成导航物体信息,系统没有生成过导航信息物体信息,系统分别对GS(i)进行识别物体处理,在GS(i)中识别出物体TS(i,K(i)),i=1,2,…,100;K(i)=1,2,…,T(i),T(i)是GS(i)中识别出物体的数量;
[0084] A12.存储导航物体信息:系统存储所述的导航物体信息;
[0085] B.更新背景信息;
[0086] 其中,B.更新背景信息的步骤如下:
[0087] B1.取出信息:系统取出所述的导航信息和所述的背景信息;
[0088] B2.处理背景点:处理背景点的步骤如下:
[0089] B21.标注更新背景点:操作者在所述的原J个背景点中标注需更新点Kp和标注需删除背景点Sb;其中:Kp是原背景点中背景点的编号,p=1,2,…,P,P为原J个背景点中更新背景点的数量;Sb是原背景点中背景点的编号,b=1,2,…,B,B为原J个背景点中删除背景点的数量;本例中,取J=5,P=2,K1=1,K2=3;B=1,B1=2;即在原5个背景点中标注需更新点背景点1、背景点3;标注需删除背景点2;
[0090] B B22.删除原背景点:系统删除所述的标注需更新点Kp信息,p=1,2,…,P;系统删除所述的标注需删除背景点Sb信息,b=1,2,…,B;本例中,系统删除所述的标注需更新的背景点1的信息、背景点3的信息;系统删除所述的标注需删除背景点2信息;
[0091] B23.新增背景点:操作者依据所述的行走路线上的采集点新增Q个背景点;这Q个新增背景点的编号分别为L1,L2,…,LQ;本例中,Q=2,L1=1,L2=2为新增背景点的编号;
[0092] B24.生成更新点:如果在原背景点中没有需更新的背景点并且没有新增的背景点,则赋更新点数量K=0,转步骤B9;否则,系统将所述的需更新的原P个背景点和新增的Q个背景点,作为更新点;系统按照更新点与所述的采集点读取图像的位置最接近,将这K个更新点设置为更新点k,更新点k分别与采集点ik读取图像的位置最接近;其中,k是更新点的编号,ik是采集点的编号,k=1,2,…,K,ik=i1,i2,…,iK,K=P+Q,1≤K≤I;本例中,K=P+Q=2+2=4,更新点1是需更新的原背景点1、更新点2是需更新的原背景点3,更新点3是新增背景点1、更新点4是新增背景点2;这4个更新点1、更新点2、更新点
3、更新点4分别与采集点j1=10、j2=58、j3=78、j4=99读取图像的位置最接近;
[0093] B3.初始点处理:系统得到初始点d,并将初始点d设定为更新点0;
[0094] B4.赋更新点编号初值:系统赋更新点编号k的初值为1;
[0095] B5.机器人行走:系统控制机器人从更新点k-1向更新点k自主行走;如果更新点k-1到更新点k之间没有采集点,则机器人不进行行走;本例中,刚开始行走时,更新点0即初始点d的采集点编号是10,所以更新点0到更新点1之间没有采集点,则机器人不进行行走;
[0096] B6.到达更新点k判断:系统根据图像匹配的结果判断机器人是否到达更新点k;如果机器人到达更新点k转步骤B7;否则转步骤B5;
[0097] B7.生成更新点k信息:系统在更新点k读取图像GB(k);系统对图像GB(k)进行识别物体处理在图像GB(k)中识别出物体TB(k,S(k));系统用更新点编号k、采集点编号ik、GB(k)与TB(k,S(k))生成更新点k信息;其中,S(k)=1,2,…,L(k),L(k)是在图像GB(k)中识别出物体的数量;本例中,系统依次用更新点编号1、采集点编号i1、GB(1)与TB(1,S(1))生成更新点1信息;用更新点编号2、采集点编号i2、GB(2)与TB(2,S(2))生成更新点2信息;用更新点编号3、采集点编号i2、GB(3)与TB(3,S(3))市场1更新点3信息;用更新点编号4、采集点编号i4、更新点4信息GB(4)与TB(4,S(4))生成更新点4信息;
[0098] B8.增加更新点编号:系统对更新点编号k加1;如果k=K+1,转步骤B9;否则k≤K转步骤B5;
[0099] B9.生成背景信息:系统用所述的更新后的背景点数量M和所述的背景点m信息生成背景信息,m=1,2,…,M;其中,背景点m与采集点im读取图像的位置最接近,m是背景点编号,im是采集点编号,im=i1,i2,…,iM,1≤M≤I,M=T+K;所述的这M个背景点中有T个原背景点和所述的K个更新点;所述的T个原背景点是原背景信息中未被删除的背景点;本例中,M=T+K=2+4=6,T=J-P-B=5-2-1=2,K=4,原5个背景点中被保留的背景点是原背景编号为4和原背景编号为5的2个背景点;更新点是更新点1、更新点2、更新点3、更新点4;原背景编号为4与原背景编号为5的背景点分别与采集点i4=69,i5=92读取图像的位置最接近;更新点1、更新点2、更新点3、更新点4分别与采集点j1=10、j2=58、j3=78、j4=99读取图像的位置最接近;
[0100] B10.存储背景信息:系统存储所述的背景信息;
[0101] C.巡视监测;
[0102] 其中:C实现巡视监测的步骤如下:
[0103] C1.取出信息:系统取出所述的导航信息和所述的背景信息以及所述的导航物体信息;
[0104] C2.设置监测信息:设置监测信息的步骤如下:
[0105] C21.设置监测点:操作者在所述的M个背景点中设置T个监测点;系统按照监测点与所述的采集点读取图像的位置最接近,将这T个监测点设置为监测点t,监测点t分别与采集点it读取图像的位置最接近;其中,t是监测点的编号,it是采集点的编号,t=1,2,…,T,it=i1,i2,…,iT,1≤T≤M;本例中,取T=3,即在6个背景点中设置3个监测点;监测点1、监测点2、监测点3分别与导航信息采集点i1=10、i2=69、i3=78读取图像的位置最接近;
[0106] C22.设置监测时间:操作者对每个监测点t设置监测的开始时间与监测的结束时间,监测时间范围是从监测开始时间到监测结束时间这段时间;本例中,取监测点1监测的起始时间为8:00,监测的结束时间为9:00;监测点2监测的起始时间为9:05,监测的结束时间为10:00;监测点3监测的起始时间为10:05,监测的结束时间为11:00;
[0107] C3.初始点处理:系统得到初始点d,并将初始点d设定为监测点0;
[0108] C4.赋监测点编号初值:系统赋监测点编号t的初值为1;
[0109] C5.机器人行走:系统控制机器人从监测点t-1向监测点t自主行走;如果监测点t-1到监测点t之间没有采集点,则机器人不进行行走;本例中,机器人依次从监测点0向监测点1不进行行走,机器人从监测点1向监测点2进行行走,从监测点2向监测点3进行行走;
[0110] C6.到达监测点t判断:系统根据图像匹配的结果判断机器人是否到达监测点t;如果机器人到达监测点t转步骤C9,否则转步骤C5;
[0111] C7.行走中事件监测:机器人在从监测点t-1向监测点t行走中,系统进行事件监测;如果系统监测到事件转步骤C8;否则转步骤C5;本例中,系统通过本帧图像G(0)与前帧图像G(-1)比较,进行固定物体位置移动的事件监测;如果监测到固定物体位置移动,系统对事件进行事件记录和事件通告;事件记录是指系统存储记录;记录是记录事件过程视频流的数据和记录事件图片的数据;事件通告是指系统通过网络将事件信息通告系统设定的事件接收方;事件信息包括事件记录、事件发生的起止时间、事件发生地点、事件发生地的地理信息、事件类型。
[0112] C8.事件处理:系统进行事件处理;事件处理结束转步骤C5;
[0113] C9.监测点t事件监测:监测点t事件监测的步骤如下:
[0114] C91.获取当前时间:系统获取当前时间;
[0115] C92.监测时间范围判断:系统判断当前时间是否在所述的监测点t时间范围内,如果当前时间处在监测点t时间范围内,转步骤C93;否则转步骤C91;本例中,监测点1监测的起始时间为8:00,监测的结束时间为9:00;监测点2监测的起始时间为9:05,监测的结束时间为10:00;监测点3监测的起始时间为10:05,监测的结束时间为11:00;如果当前时间处在监测点t时间范围内,转步骤C93;否则转步骤C91;
[0116] C93.监测点t事件监测:系统进行事件监测;如果监测到事件,转步骤C94;否则转步骤C95;
[0117] C94.事件处理:系统进行事件处理;本例中,系统用本帧图像G(0)识别处理得到的物体TG(S)与所述的背景信息中的TB(t)比较,监测物体消失事件,如果监测到物体消失,系统进行事件记录和事件通告;
[0118] C95.获取当前时间:系统获取当前时间;
[0119] C96.监测结束时间判断:系统判断当前时间是否到或超过所述的监测点t监测结束时间,如果当前时间未到监测点t监测结束时间,转步骤C93;否则监测点t监测结束转步骤C10;本例中,监测点1的监测的结束时间为9:00,监测点2的监测的结束时间为10:00,监测点3的监测的结束时间为11:00,如果当前时间依次未到监测点1、监测点2、监测点3监测的结束时间9:00、10:00、10:00转步骤C93;否则监测点1、监测点2、监测点3监测结束转步骤C10;
[0120] C10.增加监测点编号:系统对监测点编号t加1;如果t=T+1,结束巡视监测;否则t≤T转步骤C5。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈