技术领域
[0001] 本
发明涉及图像信息处理技术领域,具体涉及一种基于视觉注意机制的核环境中目标检测方法,该方法具体采用
自上而下与
自下而上结合的双向视觉注意模型,可用于特殊环境下的目标检测。
背景技术
[0002] 随着信息技术的快速发展、数据的膨胀,人们对信息处理的速度及精确度的要求越来越高了。理想的信息处理过程是,只需要处理与任务相关的那部分信息,但实际的信息处理过程是,需要处理许多与任务不相关的信息。因此,如何快速找到并仅仅处理与任务相关的那部分信息变得非常重要。
[0003] 人类视觉注意机制为快速找到并处理与任务相关的那部分信息提供了一种新的研究思路。研究表明,人类视觉具有超强的信息处理能
力,面对实时变化的各种信息,总能针对与其最相关的部分及时做出反应,而自动忽略不相关的部分。把人类视觉注意机制应用在
图像处理领域,形成图像处理领域的视觉注意机制,能够高效、准确地处理图像信息。因此,在图像处理过程中如何模仿人的视觉注意机制,快速找到图像中的目标区域,对于图像处理的实时性有着重要的意义。
[0004] 目前,已经有越来越多的研究者投入如何能快速、精准检测显著区域的研究中,并研究出了很多模型,其中一些典型的模型有:
[0005] 1)Itti模型:其主要过程是从输入图像中提取多方面的特征,如
颜色、方向、
亮度等,通过高期金字塔和中央周边操作算子形成各个特征的关注图,然后归一化组合得到显著图。在此
基础上,通过胜者全取神经网络相互竞争,使得显著区胜出。该方法对局部显著性进行了较好的度量。但没有充分考虑图像的全局信息;且没有考虑实际任务的需求,只属于自下而上的单向注意模型。
[0006] 2)Stentiford模型:该方法将图像的显著性用视觉注意图表示,其基本思想是当图像某区域特征在图像其他区域中出现
频率越少,其区域显著性就越高;通过抑制图像中具有相同模式的区域得到视觉注意图,用于表示显著性。该方法考虑了目标整体性,对图像进行了全局显著性度量,但该模型依然只属于自下而上的注意模型,没有确定的物理意义,也没有根据任务对目标的重要程度进行判断。
[0007] 3)HOAM模型:该模型是以强度和方向图作为引导视觉注意的早期特征。被注意的单元不是空间的某个点或某个区域,而是具有确定物理意义的完整目标。该方法首先需要假设图像已经分成了若干具有物理意义的目标或目标组合,因此需要人工进行干预。
发明内容
[0008] 针对于
现有技术中存在的上述问题,本发明提供了一种基于视觉注意机制的核环境中目标检测方法,使用该方法能够大幅度提高图像中目标区域检测的
精度,提取的显著性目标具有更好的鲁棒性和准确性,同时也大大提高了图像的处理效率。
[0009] 为实现上述目的,本发明的一个具体
实施例所采取的技术方案是:
[0010] S1、获取通过普通相机采集的所述目标的图像,提取图像的亮度、颜色和方向特征,分别得到亮度特征图、颜色特征图和方向特征图;
[0011] S2、通过高斯金字塔和中央周边算子的方法对亮度特征图、颜色特征图和方向特征图进行计算,分别得到6幅亮度
视差图、12幅颜色视差图和24幅方向视差图;
[0012] S3、分别对6幅亮度视差图、12幅颜色视差图和24幅方向视差图进行归一化处理,得到亮度显著图 颜色显著图 和方向显著图
[0013] S4、从显著图中选取最显著的点,以点为显著点,在对应的特征显著图中采用区域生长的方式进行分割,得到感兴趣区域;
[0014] S5、获取γ相机采集的含有
辐射强度分布信息的图像;
[0015] S6、分别提取混合图像和普通相机图像感兴趣区域的关键点;
[0017] S8、将感兴趣区域关键点的特征向量与混合图像关键点的特征向量进行匹配,如果符合匹配条件,则目标为作业目标。
[0018] 本发明的方法产生的有益效果为:
[0019] 首先利用自下而上数据驱动注意模型的优势,直接从普通相机采集的图像中提取出若干感兴趣区域,大大降低后期匹配过程的计算量;然后用г相机获取所述目标的计量强度分布和现场灰度的混合图进行特征匹配,建立自上而下与自下而上结合的双向视觉注意模型。因此,大幅度提高了图像中目标区域检测的精度,而且匹配过程消除了场景中不相关区域的干扰,使提取的显著性目标具有更好的鲁棒性和准确性,同时也大幅度提高了处理效率。
附图说明
[0020] 图1所示为本发明的一种基于视觉注意机制的核环境中目标检测方法的一个技术方案的
流程图;
[0021] 图2所示为本发明的DOG差分金字塔形成过程的示意图;
[0022] 图3所示为本发明的DOG函数的极值点检测的示意图。
具体实施方式
[0023] 为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。
[0024] 参考图1,图1所示为本发明的一种基于视觉注意机制的核环境中显著目标的检测方法的一个实施例S100的流程图;实施例S100包括如下步骤S1至S8。
[0025] 在步骤S1中,获取通过普通相机采集并进行预处理的目标的图像,提取图像的亮度、颜色和方向特征,分别得到亮度特征图、颜色特征图和方向特征图。
[0026] 在步骤S2中,通过高斯金字塔和中央周边算子的方法对亮度特征图、颜色特征图和方向特征图进行计算,分别得到6幅亮度视差图、12幅颜色视差图和24幅方向视差图。
[0027] 在本发明的一个实施例中,采用中央周边差的
采样方式获取图像的亮度、颜色和方向特征。每一个特征有一组类似视觉
感知区域的线性“中间-外围”算子计算。
[0028] 在本发明的一个实施例中,中央和外围的尺度可以做如下设定:中央尺度c∈{2,3,4},外围尺度相应的为s=c+δ,δ∈{3,4}。两个图的相交尺度差分通过精细尺度插补和点对点相减获得,使用不同的尺度得到多尺度特征的提取。
[0029] 用r,g,b表示输入图像的红、绿、蓝三个颜色通道的
像素值,它用来建立高斯金字塔I(x),x=[0......8]表示尺度级。高斯金字塔图像是一幅图像被高斯滤波后形成的一系列图像集合,随着高斯滤波次数的增加
分辨率会逐渐降低。金字塔最底层是未经滤波的图像,分辨率最高,而顶层是图像的低分辨率表示。这样图像金字塔由三个颜色通道的金字塔图像取均值获得,如式(1)所示:
[0030]
[0031] 通过中央和外围不同尺度下的图像进行差分,获得6幅中央周边差结构的亮度图,如式(2)所示:
[0032] I(c,s)=|I(c)-I(s)| (2)
[0033] 其中c∈{2,3,4},δ∈{3,4},s=c+δ;
[0034] 接着获取颜色特征图,首先对图像提取四个颜色通道红色、绿色、蓝色、黄色上的分量,如式(3)~(6)所示:
[0035] 红色R=r-(g+b)/2 (3)
[0036] 绿色G=g-(r+b)/2 (4)
[0037] 蓝色B=b-(r+g)/2 (5)
[0038] 黄色Y=(r+g)/2-|r-g|/2-b (6)
[0039] 通过其差分获得12幅中间-外围结构颜色图,如式(7)~(8)所示:
[0040] RG(c,s)=|(R(c)-G(c))-(G(s)-R(s))| (7)
[0041] BY(c,s)=|(B(c)-Y(c))-(Y(s)-B(s))|; (8)
[0042] 然后获取方向特征图,亮度金字塔图像I(x)与常用的Gabor方向
滤波器进行卷积,可以获得图像的方向,通过差分,获得24幅中间-外围结构方向图,如式(9)所示:
[0043] O(c,s,θ)=|O(c,θ)-O(s,θ)| (9)
[0044] 其中θ={0°,45°,90°,135°}。
[0045] 至此,根据显著图方法由普通相机采集到的图片得到了6幅亮度特征图、12幅颜色特征图和24幅方向特征图。
[0046] 在步骤S3中,分别对6幅亮度视差图、12幅颜色视差图和24幅方向视差图进行归一化处理,得到亮度显著图 颜色显著图 和方向显著图 特征图的融合为显著性图提供了一个自下而上的输入,从而模拟成一个动态神经网络。
[0047] 由于中央-周边的差最能反映图像显著度的高低,在得到关注图后,会存在某种特征存在多处反差极大值的情况,这时就会出现大量显著峰。因此,在本发明的一个实施例中,在合并关注图生成显著图之前,对三组特征图分别进行归一化。通过归一化和跨尺度相加,特征图被整合成亮度、颜色和方向三个显著性图得到 要想衡量图像中目标的显著性,需要综合三个通道的显著性图像。这里我们将综合后的三个通道的显著图再进行归一化。
[0048] 在本发明的一个实施例中,基于至上而下的思想,提出了一种加权特征图融合
算法,如式(10)所示:
[0049]
[0050] 其中,wt+wc+wo=1,这样仍然使S的取值范围归一化到一定范围内。当预知图像某一通道的特征比较敏感时,可以自适应调整权值wt、wc和wo。本模型以基于局部对比的显著区域检测算法获取感兴趣区域,从显著图中选取最显著的点,以该点为显著点,在对应的特征显著图中采用区域生长的方式进行分割,得到感兴趣区域,得到的显著图区域更加具有针对性。
[0051] 在本发明的一个实施例中,分别对6幅亮度视差图、12幅颜色视差图和24幅方向视差图进行归一化处理的具体过程为:
[0052] 设置一个归一化算子N(.)提升图的
质量,归一化算子N(.)计算流程如下:
[0053] 把各通道特征图的像素值归一化到一个固定的区间[0,M]内,M为一正整数;
[0054] 找到图中全局最大值M的
位置,计算其它所有特征图局部最大值的均值[0055] 特征图全局乘以
[0056] 通过归一化算子N(.)和跨尺度相加,特征图被整合成颜色、亮度和方向三个显著性图;
[0057] 颜色归一化特征图:
[0058] 亮度归一化特征图:
[0059] 方向归一化特征图:
[0060] 其中, 是在不同的尺度层上对每一特征的特征映射图进行降采样,而得到最高的主尺度层,再进行加法运算,得到颜色、亮度、方向三个特征上的显著图。
[0061] 在步骤S4中,从显著图中选取最显著的点,以该点为显著点,在对应的特征显著图中采用区域生长的方式进行分割,得到感兴趣区域。
[0062] 在本发明的一个实施例中,为了增强匹配的
稳定性,除了使用主方向之外,还可以选择辅方向。辅方向定义为:在直方图中,当某一个方向的值大于或者等于主峰值的80%时,则把这个方向做为关键点的辅方向。一个关键点一般会具有一个主方向以及多个辅方向。
[0063] 在步骤S5中,获取γ相机采集的含有辐射强度分布信息的图像。
[0064] 在步骤S6中,分别提取γ相机图像和普通相机图像感兴趣区域的关键点。
[0065] 在本发明的一个实施例中,二维灰度图像(如普通相机的感兴趣区域灰度图像以及经
伽马相机得到的混合图),在不同尺度下的尺度空间的表示可由图像与高斯核卷积得到,如式(14)所示:
[0066] L(x,y,σ)=G(x,y,σ)*I(x,y) (14)
[0067] 式中,G(x,y,σ)是可变尺度高斯函数,如式(15)所示:
[0068]
[0069] 其中x,y为图像的横纵坐标,σ表示可变尺度。
[0070] 尺度规范化的拉普拉斯函数σ2▽ 2G具有尺度不变性,产生最稳定的图像特征。尺度归一化的高斯拉普拉斯算子如式(16)所示:
[0071]
[0072] 令DOG(x,y,σ)=G(x,y,kσ)-G(x,y,σ),则
[0073] DOG(x,y,σ)=G(x,y,kσ)-G(x,y,σ)≈(k-1)σ2▽ 2G
[0074] 方程的左边为高斯差分算子(DOG),比例因子(k-1)并不影响极值点的位置,因此高斯差分算子近似于尺度归一化的拉普拉斯差分算子。
[0075] 在本发明的一个实施例中,利用不同尺度的高斯差分算子与图像进行卷积,如式(17)所示:
[0076] D(x,y,σ) = [G(x,y,kσ)-G(x,y,σ)]*I(x,y) = L(x,y,kσ)-L(x,y,σ) (17)
[0077] 图2所示为本发明的DOG差分金字塔形成过程的示意图,图左边部分为不同尺度下获得的高斯金字塔图像,右边是相邻尺度差分得到的差分金字塔图像。
[0078] 由上可知求取DOG空间的局部极值点可得到稳定的图像特征,DOG函数的极值点可通过与它周围相邻的26个点进行比较,判断是否是局部极值点。
[0079] 图3所示为本发明的DOG函数的极值点检测的示意图。中间的被检测点和它同尺度的8个相邻点和上下相邻尺度对应的9×2个点共26个点比较,以确保在尺度空间和二维
图像空间都检测到极值点。
[0080] 采用对空间尺度函数求导取极值的方法,并设定闭值消除一些
对比度低和不稳定的点,从而确定极值点的位置。
[0081] 利用DOG函数在尺度空间Taylor展开式,如式(18)所示:
[0082]
[0083] 其中,X=(x,y,σ)T为上一步中检测到的极值点坐标。
[0084] 对上式求导并令其为零,得到关键点的位置坐标:
[0085] 并将其带入泰勒展开式得:
[0086] 通过设定的
阈值,消除小于阈值的点。
[0087] DOG函数在图像边缘有较强的边缘响应,因此还需要排除边缘响应。可以通过计算该点所在位置尺度周围3x3窗口内的Hessian矩阵排除边缘响应,其计算如式(19)所示:
[0088]
[0089] 令α为最大特征值,β为最小的特征值,则α=rβ,如式(20)~(22)所示:
[0090]
[0091] Det(H)=DxxDyy-(Dxy)2=αβ (21)
[0092] Tr(H)=Dxx+Dyy=α+β (22)
[0093] (r+1)2/r在两特征值相等时达最小,随r的增长而增长。因此只需要在设定r后限定,如式(23)所示:
[0094]
[0095] 在步骤S7中,将所述关键点分别生成特征向量。
[0096] 在本发明的一个实施例中,特征向量的生成过程如下:
[0097] 1)首先确定提取关键点图像的变换参数;
[0098] 2)将关键点的坐标移至主方向;
[0099] 3)在以关键点为中心16*16的区域内,对每个以4*4的区域内计算8方向的梯度直方图,统计每个梯度的累积值,形成一个
种子点,共生成16种子点,128维向量;
[0100] 4)对得到的特征向量进行阈值化和向量归一化,归一化后的特征向量如下:
[0101] L=(l1,l2,...,l128)
[0102] 在本发明的一个实施例中,利用所述关键点邻域像素的梯度方向分布特性,为每个关键点
指定方向,关键点描述子相对于此方向表征,从而使关键点描述子对图像旋转具有不变性。
[0103] 在本发明的一个实施例中,利用梯度数学模型来为关键点指定方向,梯度数学模如式(24)所示:
[0104]
[0105] 梯度的幅值如式(25)所示:
[0106]
[0107] 梯度的方向如式(26)所示:
[0108]
[0109] 在本发明的一个实施例中,在以关键点为中心的邻域内进行采样,并使用直方图方法统计邻域像素的方向。梯度直方图统计后的方向范围是0度到360度,把每10度做为一个柱进行分析,总共包括36个柱。直方图峰值代表了关键点处梯度的主方向,即把它做为关键点的方向。
[0110] 至此,图像的关键点已检测完毕,每个关键点有三个信息:位置、尺度、方向。
[0111] 在步骤S8中,将普通相机图像感兴趣区域关键点的特征向量与混合图像关键点的特征向量进行匹配,如果符合匹配条件,则目标为显著性目标。
[0112] 普通相机的感兴趣区域灰度图像以及经伽马相机得到的混合图的特征点已分别被表征为特征向量,因此感兴趣区域灰度图像以及经伽马相机得到的混合图特征点的匹配可以通过两个特征向量的相似度来判断。
[0113] 在本发明的一个实施例中,分别对感兴趣区域灰度图像以及经伽马相机得到的混合图建立关键点描述子集合。目标的识别是通过两点集内关键点描述子的比对来完成。具有128维的关键点描述子的相似性度量采用欧式距离。
[0114] 模板图中关键点描述子,Ri=(ri1,ri2,...,ri128)
[0115] 实时图中关键点描述子,Si=(si1,si2,...,si128)
[0116] 任意两个描述子相似性定义如式(27)所示:
[0117]
[0119] 当Rj是Si匹配点, (Rj是实时图中距离Si最近的点,Rp是实时图中距离Si次最近的点)
[0120] 至此,已经完成图像匹配的所有工作。通过以上图像匹配算法,找出γ图像和普通相机图像中的匹配点
云,然后计算得到它们之间的变换矩阵,最后将污染源映射到普通相机的图像中,实现污染源目标的检测。
[0121] 虽然结合具体实施例对本发明的具体实施方式进行了详细地描述,但并非是对本
专利保护范围的限定。在
权利要求书所限定的范围内,本领域的技术人员不经创造性劳动即可做出的各种
修改或调整仍受本专利的保护。