首页 / 专利库 / 视听技术与设备 / 眼球追踪摄像头 / 一种基于AR智能眼镜的局部图像识别方法及系统

一种基于AR智能眼镜的局部图像识别方法及系统

阅读:298发布:2020-05-16

专利汇可以提供一种基于AR智能眼镜的局部图像识别方法及系统专利检索,专利查询,专利分析的服务。并且本 发明 属于AR智能眼镜应用技术领域,公开了一种基于AR智能眼镜的局部 图像识别 方法及系统,对智能眼镜成像屏幕、智能眼镜前置摄像头画面、周围真实环境的视域画面的一致性校准标定;识别人眼图像并计算眼球运动向量,获取眼动坐标;识别人双眼视觉延长线焦点落点是成像屏幕还是现实三维空间;获取人眼在周围真实世界的映射关系;根据内嵌映射 算法 分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标 位置 。本发明通过眼动仪获取人眼眼图信息,并进行人眼眼图与场景摄像头的同步标定,获取人眼在真实场景的注视点区域,在进行处理时,仅对注视点区域进行图像识别,大大降低了GPU的 图像处理 压 力 ,提高图像处理效率。,下面是一种基于AR智能眼镜的局部图像识别方法及系统专利的具体信息内容。

1.一种基于AR智能眼镜的局部图像识别方法,其特征在于,所述基于AR智能眼镜的局部图像识别方法包括:
步骤一、所述局部图像识别方法首先需要对智能眼镜成像屏幕、智能眼镜前置摄像头画面、周围真实环境中的人眼视域画面的一致性校准标定;所述一致性校准标定包括对AR眼镜摄像头进行图像畸变校正和标定,通过所述的图像畸变校正和标定得到真实世界坐标与AR眼镜成像屏幕和智能眼镜前置摄像头画面三者之间的坐标的投影关系;
步骤二、识别人眼图像并计算眼球运动向量,获取眼睛运动坐标;采用瞳孔-膜反射光斑法或MEMS眼球追踪技术,将人眼的运动行为数字化,转化为计算机系统计算的电子信号
步骤三、识别人双眼视觉延长线焦点落点是成像屏幕还是现实三维空间;注视点是成像屏幕则不开启局部图像识别,不进行下一步,若注视点落点是真实世界则开启局部图像识别,进行下一步;
步骤四、获取人眼在周围真实世界的映射关系;根据内嵌映射算法分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置
步骤五、过滤冗杂眼动行为;
步骤六、启动局部图像识别程序;
步骤七、截取人眼注视区域局部图像;
步骤八、局部图像通过5G上传服务器处理,并对图像进行运算、语义分割处理、识别、比对,获得相关运算结果;
步骤九、相关结果从云端通过5G回传智能眼镜终端进行内容呈现;
步骤四中,获取人眼在周围真实世界的映射关系;根据内嵌映射算法分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置,具体包括:
i),通过人眼注视眼镜成像屏幕的标定点获得人眼运动坐标与成像屏幕的映射关系;
ii),由于人眼透过半透明成像屏幕看到的真实世界场景与看到的半透明屏幕上正在呈现前置摄像头拍到的虚拟场景影像无重影且保持一致;通过相似三角形原理,获取人眼在真实世界的视觉注视区域;
步骤五中,过滤冗杂眼动行为包括:
I)低通滤波,对原始视线信号进行滤波以获取可以使用的视线信号;
II)T值自适应调节,实时监测当前的眼动模式,眼动角速度的计算、眼跳速度与阈值的比对,以及滤波参数的调节;
III)识别区域控制,主要控制识别区域移动;
步骤六中,所述启动局部图像识别程序,获取到人类生物电并识别出用户兴趣点时启动图像局部图像识别程序,兴趣识别条件包括:
A、对某一区域凝视时长超过阈值;
B、对某一区域回视次数超过预设次数;
C、对某一区域注视时眨眼次数或眨眼行为达到预设标准;
D、对某一事物产生规律性视觉注意模型;
E、同一时刻脑电波检测模检测出用户对该视觉注视区域产生情绪波动
F、同一时刻心率、血压人体生物信息监测模块检测出用户情绪发生波动;
G、同一时刻人眼对当下注视事物产生瞳孔放大或缩小的生理反应数据;
步骤七中,截取人眼注视区域局部图像,具体为,以注视点为圆心的某一固定值为半径的圆形、以注视点为中心的某一固定值为边长的正方形或眼动路径所形成的不规则多边形;
步骤八中,局部图像通过5G上传云端服务器进行云端识别,具体包括:图像特征点5G上传云端服务器做云端识别、语义分割运算、匹配、检索,获取相关信息内容;
步骤九中,相关结果数据5G回传智能眼镜进行内容呈现,内容包括文字、图片、声音、视频、三维模型;
步骤一中,一致性校准标定包括:
步骤1),
根据AR眼镜内参,获取AR眼镜前置摄像头与AR眼镜成像屏幕的投影关系;
根据所述AR眼镜前置摄像头与AR眼镜成像屏幕的投影关系,并利用相机的畸变参数对获取的真实世界坐标与AR眼镜成像屏幕和智能眼镜前置摄像头画面三者之间的投影关系进行调整,获取真实世界坐标与AR眼镜成像屏幕和智能眼镜前置摄像头画面三者之间的坐标的投影关系;
步骤2),
依次给出位于世界坐标内的多个校准点及多个校准点的坐标;
分别捕捉注视所述多个校准点时的眼图,利用瞳孔-角膜反射光斑插值拟合算法或MEMS眼球追踪技术,得到眼图数据并生成注视点坐标到摄像头拍摄图像的映射函数;
根据所述映射函数以及真实世界坐标与AR眼镜成像屏幕坐标和智能眼镜前置摄像头的投影关系,得到人眼在真实世界的注视点坐标到成像屏幕坐标的标定。
2.一种广告推送终端,其特征在于,所述广告推送终端集成有计算机可读存储介质,所述计算机可读存储介质的运行指令,运行权利要求1所述基于AR智能眼镜的局部图像识别方法。
3.一种实现权利要求1所述基于AR智能眼镜的局部图像识别方法的基于AR智能眼镜的局部图像识别装置,设置有眼镜本体,其特征在于,眼镜本体左右两侧分别安装有智能眼镜成像屏幕;
智能眼镜成像屏幕下侧集成有眼动跟踪摄像头;
左右两智能眼镜成像屏幕之间集成有场景摄像头;
眼镜本体的眼镜支架上集成有运算处理单元;
智能眼镜成像屏幕一侧集成有影像投影源;
智能眼镜上还有脑电波监测模块、体温、心率、肌肉电的监测模块;
眼镜成像屏幕、眼动追踪模块、场景摄像头、影像投影源、脑电波监测模块、体温、心率、肌肉电的监测模块均通过电路连接运算处理单元。
4.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的在线产品信息搜索的电子商务平台。
5.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的电子游戏产品或平台。
6.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的截取人眼注视区域局部图像的图像获取的方法。
7.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的对图像进行运算、识别、比对,进而获得相关运算结果的方法。
8.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的AR智能眼镜。
9.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的人脸面部识别系统。
10.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的二维码识别系统。
11.一种运行权利要求1所述基于AR智能眼镜的局部图像识别方法的广告智能推荐系统。

说明书全文

一种基于AR智能眼镜的局部图像识别方法及系统

技术领域

[0001] 本发明属于AR智能眼镜应用技术领域,尤其涉及一种基于AR智能眼镜的局部图像识别方法及系统。

背景技术

[0002] 目前,业内常用的现有技术是这样的:
[0003] 随着近几年AR/VR产业的高速发展,我们关注到AR智能眼镜会是淘汰智能手机的下一代智能终端,那么AR智能眼镜上的app就如同智能手机上在刚兴起时的app,存在着巨大的市场价值。我们了解到眼动追踪技术是未来AR智能眼镜的重要人机交互方式,我们立足这样的环境进行思考未来应用可能存在潜在市场,在未来时代来临时可能爆发巨大的市场价值。
[0004] 现有技术中,在VR虚拟现实技术中有一项通过眼动追踪技术实现的眼镜看哪里,计算机GPU对人眼注视的区域进行精细化的渲染处理-眼睛看哪里计算机渲染哪里。2016年CES上德国SMI展示了一项名为注视点渲染的技术,通过优先高清渲染人眼视野中心的部位,降低GPU的运算负荷,间接提升VR显示的效果。以HTC Vive为例,单眼的分辨率为1080*1200,游戏的刷新率最低为90HZ。意味着需要每秒2.33亿次像素渲染。而随着刷新率和分辨率的提高,未来GPU的压会越来越大。而眼控注视点渲染技术,无疑间接的降低了VR体验的槛。通过上述的VR注视点图像渲染技术和未来AR智能眼镜上应用的联想,促使本发明产生了通过眼动追踪技术来实现通过由人的视觉注视点引导的局部图像识别的方法。
[0005] 综上所述,现有技术存在的问题是:
[0006] 在未来智能时代,AR智能眼镜会为人类带来更智能更人性化的生活,因此在智能眼镜的应用设计中需要智能眼镜系统能够够更好理解用户周围的事物和环境已作出智能的个性化服务,计算机系统将通过的分析和识别摄像头拍摄到的实时画面来进行优质的服务,这将是巨大的运算量造成CUP、GPU、TPU巨大的计算量且对能量的消耗很大,并且占用过高的网络带宽,这导致设备的续航时间减少。产品整体的用户体验下降。
[0007] 同时本发明实现了针对于未来AR智能眼镜的的局部图片截取方法和信息弹出的新机制,及为由眼动视线引导的图像截取进而识别局部图片后弹出与图像内容相关的信息(文字、声音、图片、视频、三维模型)。目前纵观全球AR智能眼镜应用中内容信息的弹出是没有经过筛选过滤的,其中存在着大量对用户无用的信息,并且用户不希望被无用的信息骚扰。而现有技术不能有效解决。
[0008] 解决上述技术问题的难度和意义:
[0009] 难点一:要实现让AR智能眼镜系统知道用户看了哪里?
[0010] 需要实现人的视场FOV区域中的画面、前置摄像头的画面、成像屏幕中的画面、周围真实环境的一致性校准标定。识别人眼图像并计算眼球运动向量,获取眼动坐标,并计算获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置和周围环境的坐标位置。
[0011] 难点二:要实现让AR智能眼镜系统知道用户看的是什么?
[0012] 计算机截取人眼注视点区域图像,AR眼镜智能终端上传服务器进行图像识别,图像识别、图像的匹配需要大量的图像数据库进行人工智能机器学习的运算才能达到精准的识别匹配效果,因此在图像数据库、机器学习算法、超级计算机运算能力、数据上传下传的速度、AR智能眼镜技术都提出了巨大的考验。
[0013] 结合难点一、二,本发明给出了让AR智能眼镜能够以用户的第一人称视角去理解这个世界的方法,这可以更好的理解用户的心中所想,以此提供更好的服务。以本发明为基础具有巨大的AR智能眼镜应用想象空间,例如本发明还可以应用在人脸识别、二维码识别等,上述两项技术都属于图像识别领域,其技术效果为当用户佩戴着智能眼镜时,由人眼眼球注视点引导计算机对人脸或者二维码进行图像识别。
[0014] 本发明的实质是首先是基于AR智能眼镜上的眼动追踪模来实现由人眼注视行为或其他人体生物信息来引导计算机系统对局部图像截取的功能,并通过5G将所截取图像及时上传的云端服务器进行图像是识别、搜索、匹配等的一套技术方案。为智能眼镜上的图像识别技术提供了新的方法,及通过人眼眼动行为来引导的图像识别技术,为人脸识别和二维码识别、知识检索教学提供了新的方法。其次本专利还提出一种新的内容信息弹出前添加了通过识别眼动的内容弹出条件。将用户被动的接受信息转变为主动的去信息,大大提升了AR智能眼镜的用户体验的方法。

发明内容

[0015] 针对现有技术存在的问题,本发明提供了一种基于AR智能眼镜的局部图像识别方法及系统。
[0016] 本发明是这样实现的,一种基于AR智能眼镜的局部图像识别方法,包括:
[0017] 步骤一、对智能眼镜成像屏幕、智能眼镜前置摄像头画面、周围真实环境中的人眼视域画面的一致性校准标定;包括对AR眼镜摄像头进行图像畸变校正和标定,得到真实世界坐标与AR眼镜成像屏幕和智能眼镜前置摄像头画面三者之间的坐标的投影关系;
[0018] 步骤二、识别人眼图像并计算眼球运动向量,获取眼眼运动坐标;
[0019] 步骤三、识别人双眼视觉延长线焦点落点是成像屏幕还是现实三维空间;注视点是成像屏幕则不开启局部图像识别,不进行下一步,若注视点落点是真实世界则开启局部图像识别,进行下一步;
[0020] 步骤四、获取人眼在周围真实世界的映射关系;根据内嵌映射算法分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置;
[0021] 步骤五、过滤冗杂眼动行为;
[0022] 步骤六、启动局部图像识别程序;
[0023] 步骤七、截取人眼注视区域局部图像;
[0024] 步骤八、局部图像通过5G上传云端服务器处理,并对图像进行运算、语义分割运算、识别、比对,获得相关运算结果。
[0025] 步骤九、相关结果从云端通过5G回传智能眼镜终端进行内容呈现。
[0026] 进一步,步骤二中,识别人眼图像并计算眼球运动向量,获取眼动坐标中,采用瞳孔-角膜反射光斑法或MEMS眼球追踪技术,将人眼的运动行为数字化,转化为计算机系统可计算的电子信号
[0027] 步骤三中,识别人双眼视觉延长线焦点落点是成像屏幕还是现实三维空间,具体包括:
[0028] a),通过眼动坐标测定双眼各自的视线角度,确定目标对象的三维坐标;
[0029] b),计算每个眼睛的瞳孔当前的中心位置;
[0030] c),计算对象的二维坐标;
[0031] 步骤四中,获取人眼在周围真实世界的映射关系;根据内嵌映射算法分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置,具体包括:
[0032] i),通过人眼注视眼镜成像屏幕的标定点获得人眼运动坐标与成像屏幕的映射关系;
[0033] ii),由于人眼透过半透明成像屏幕看到的真实世界场景与看到的半透明屏幕上正在呈现前置摄像头拍到的虚拟场景影像无重影且保持一致;通过相似三角形原理,获取人眼在真实世界的视觉注视点位置;
[0034] 步骤五中,过滤冗杂眼动行为包括:
[0035] I)低通滤波,对原始视线信号进行滤波以获取可以使用的视线信号;
[0036] II)T值自适应调节,实时监测当前的眼动模式,眼动角速度的计算、眼跳速度与阈值的比对,以及滤波参数的调节;
[0037] III)识别区域控制,主要控制识别区域移动;
[0038] 步骤六中,所述启动局部图像识别程序,获取到人类生物电并识别出用户兴趣点时启动图像局部图像识别程序,兴趣识别条件包括:
[0039] A、对某一区域凝视时长超过阈值;
[0040] B、对某一区域回视次数超过预设次数;
[0041] C、对某一区域注视时眨眼次数或眨眼行为达到预设标准;
[0042] D、对某一事物产生规律性视觉注意模型;
[0043] E、同一时刻脑电波检测模块检测出用户对该视觉注视区域产生情绪波动
[0044] F、同一时刻心率、血压等人体生物信息监测模块检测出用户情绪发生波动;
[0045] G、同一时刻人眼对当下注视事物产生瞳孔放大或缩小的生理反应数据。
[0046] 步骤七中,截取人眼注视区域局部图像,具体为,以注视点为圆心的某一固定值为半径的圆形、以注视点为中心的某一固定值为边长的正方形或眼动路径所形成的不规则多边形;
[0047] 步骤八中,局部图像通过5G上传云端服务器进行云端识别,具体包括:图像特征点5G上传云端服务器做云端识别、语义分割运算、匹配、检索,获取相关信息内容。
[0048] 其核心在于图像识别的功能并非在本地智能眼镜终端中进行,而是在将图像上传到服务器云端进行图像识别,并将图像特征点与服务器已有数据库进行比对,然后将图像匹配、检索获得结果内容反馈传输给AR眼镜智能终端,智能眼镜获取到云端处理后的结果展开接下来的应用。云端数据库是通过强大计算能力的超级计算机利用复杂的人工智能机器学习算法对大量的图片进行分析、学习获得各个事物的特征数据库。例如“百度大脑”、“阿里云”。
[0049] 步骤九中,相关结果5G回传智能眼镜进行内容呈现,内容包括文字、图片、声音、视频、三维模型等。
[0050] 步骤一中,一致性校准标定包括:
[0051] 步骤1):
[0052] 根据AR眼镜内参,获取AR眼镜摄像头与AR眼镜成像屏幕的投影关系;
[0053] 获取真实世界标记位置的坐标数据以及摄像头拍摄图像中所述真实世界标记位置的坐标数据;
[0054] 根据所述AR眼镜摄像头与AR眼镜成像屏幕的投影关系,获取真实世界坐标与成像屏幕坐标的投影关系;
[0055] 根据所述AR眼镜摄像头与AR眼镜成像屏幕的投影关系,并利用相机的畸变参数对获取的真实世界坐标与成像屏幕坐标的投影关系进行调整,获取真实世界坐标与成像屏幕坐标的投影关系;
[0056] 步骤2),
[0057] 依次给出位于世界坐标内的多个校准点及多个校准点的坐标;
[0058] 分别捕捉注视所述多个校准点时的眼图,利用瞳孔-角膜反射光斑插值拟合算法或MEMS眼球追踪技术,得到眼图数据并生成注视点坐标到摄像头拍摄图像的映射函数;
[0059] 根据所述映射函数以及真实世界坐标与AR眼镜成像屏幕坐标和智能眼镜前置摄像头的投影关系,得到人眼在真实世界的注视点坐标到成像屏幕坐标的标定。
[0060] 本发明的另一目的在于提供一种广告推送终端,所述广告推送终端集成有计算机可读存储介质,所述计算机可读存储介质的运行指令,运行所述基于AR智能眼镜的局部图像识别方法。
[0061] 本发明的另一目的在于提供一种基于AR智能眼镜的局部图像识别装置,设置有眼镜本体,眼镜本体左右两侧分别安装有智能眼镜成像屏幕;
[0062] 智能眼镜成像屏幕下侧集成有眼动跟踪摄像头;
[0063] 左右两智能眼镜成像屏幕之间集成有场景摄像头;
[0064] 眼镜本体的眼镜支架上集成有运算处理单元;
[0065] 智能眼镜成像屏幕一侧集成有影像投影源;
[0066] 智能眼镜上还有脑电波监测模块、体温、心率、肌肉电等监测模块;
[0067] 眼镜成像屏幕、眼动跟踪摄像头、场景摄像头、影像投影源、脑电波监测模块、体温、心率、肌肉电等监测模块均通过导线连接运算处理单元。
[0068] 其中:
[0069] 眼镜成像屏幕:眼镜成像屏幕即为AR智能眼镜的光学成像原件,是由特殊的制造艺制作而成的透明镜片,其核心功能为既可以透过自然光也具有成像的作用。当人在佩戴智能眼镜时,透过眼镜成像屏幕既可以看到现实世界的物体也可以看到屏幕中的虚拟影像,两个影像得到有效的融合。
[0070] AR智能眼镜光学方案包括:偏振分光棱镜、自由曲面技术、离轴光学、光波导技术[0071] 场景摄像头:智能眼镜的前置摄像头;
[0072] 影像投影源:如下图IMAGE SOURCE位置所示,就是的LED、OLED等类似的用于成像的屏幕,然后通过上文所述的光学方案把光传到人的眼前。
[0073] Couple out optics为成像屏幕。
[0074] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的在线产品信息搜索的电子商务平台。
[0075] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的眼动行为或者脑电波信号引导的局部图像截取并识别的计算机程序
[0076] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的电子游戏产品或平台。
[0077] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的截取人眼注视区域局部图像计算机程序。
[0078] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的对图像进行运算、识别、比对,获得相关运算结果的计算机程序。
[0079] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的AR智能眼镜上弹出内容信息机制的计算机程序。
[0080] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的人脸面部识别系统。(用户看那个人的脸,把人脸图像截取下来进行身份识别,由用户注视点来引导面部识别)。技术应用客观效果为当用户佩戴着智能眼镜时,由人眼眼球注视点引导计算机对人脸进行面部识别的图像识别。
[0081] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的二维码识别系统。(人看哪里,识别哪里的二维码)。技术应用客观效果为当用户佩戴着智能眼镜时,由人眼眼球注视点引导计算机对所注视的二维码进行图像。
[0082] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的教学系统软件
[0083] 本发明的另一目的在于提供一种运行所述基于AR智能眼镜的局部图像识别方法的广告的智能推荐系统和广告的投放效果分析系统。
[0084] 综上所述,本发明的优点及积极效果为:
[0085] 本发明实现了针对于未来AR智能眼镜的信息弹出的新机制,及由眼睛视线引导的图像识别技术,进而截取图像内容进行识别,然后弹出与图像内容相关的信息(文字、声音、图片、视频、三维模型)。目前纵观全球AR智能眼镜应用中内容信息的弹出是没有经过筛选过滤的,其中存在着大量对用户无用的信息,并且用户不希望被无用的信息骚扰,本发明的实质是在内容信息弹出前添加了通过识别眼动的内容弹出条件。将用户被动的接受信息转变为主动的去获取信息,大大提升了AR智能眼镜的用户体验。
[0086] 在本发明中实现了当在未来人本佩戴AR智能眼镜终端时,人眼看哪里计算机图像识别哪里。做到让计算机在以人的第一视角感知环境,并识别人眼所关注区域。使人获取信息的方式更加高效。计算机图像识别更精准,计算机计算功耗降低。在后期对AR智能眼镜上的应用起到技术的铺垫,在本发明技术的基础上具有很大的延展性应用,例如广告、电商、游戏、教育。
[0087] 目前的手机上的以图搜图功能(淘宝上的拍立淘,百度上的相似图片搜索)是人举着手机拍照-图片上传到云端识别-获得结果。
[0088] 本发明创新点为基于智能眼镜的眼动追踪技术通过眼睛注视点直接获得图片进行检索,用户体验大大提升。
[0089] 目前的智能眼镜的交互技术都基于头部运动追踪、手势识别触摸屏、外设控制,还没有基于眼动追踪技术结合人类认知心理学理论的应用。附图说明
[0090] 图1是本发明实施例提供的基于AR智能眼镜的局部图像识别方法流程图
[0091] 图2是本发明实施例提供的基于AR智能眼镜的局部图像识别装置示意图。
[0092] 图3是本发明实施例提供的进行坐标标定的原理示意图;
[0093] 图4是本发明实施例提供的通过人眼注视眼镜成像屏幕的标定点示意图;
[0094] 图5是本发明实施例提供的通过眼动坐标测定双眼各自的视线角度,确定目标对象的三维坐标原理及判断视觉注视点落点位置原理示意图。
[0095] 图6是本发明实施例提供的过滤视线信号的方法原理图。

具体实施方式

[0096] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0097] 现有技术中,图像处理效率低,GPU图像处理压力大,不能提高用户体验效果。
[0098] 下面结合具体分析对本发明作进一步描述。
[0099] 图1,本发明实施例提供的基于AR智能眼镜的局部图像识别方法,包括以下步骤:
[0100] S101:对智能眼镜成像屏幕、智能眼镜前置摄像头画面、周围真实环境中的人眼视域画面的一致性校准标定;包括对AR眼镜摄像头进行图像畸变校正和标定,得到真实世界坐标与AR眼镜成像屏幕和智能眼镜前置摄像头画面三者之间的坐标的投影关系;
[0101] S102:智能眼镜集成的眼动追踪模块识别人眼图像并计算眼球运动向量,即为获取眼睛运动坐标;
[0102] S103:识别人双眼视觉延长线焦点落点是成像屏幕还是现实三维空间;若注视点是成像屏幕则不开启局部图像识别功能,不进行下一步,若注视点落点是真实世界则开启局部图像识别功能,进行S104;
[0103] S104:智能眼镜系统获取人眼在周围真实世界的映射关系;智能眼镜根据内嵌映射算法分别获取人眼注视点在眼镜成像屏幕和前置摄像头画面的坐标位置;
[0104] S105:过滤冗杂眼动行为;
[0105] S106:启动局部图像识别程序;
[0106] S107:截取人眼注视区域局部图像;
[0107] S108:局部图像通过5G上传云端服务器处理,并对图像进行运算、语义分割处理、识别、比对,获得相关运算结果;
[0108] S109:相关结果从云端回传到智能眼镜终端进行内容呈现。
[0109] 步骤1中所述的智能眼镜为AR智能眼镜,如图2所示,所述智能眼镜成像屏幕为半透明光学成像元件,通过智能眼镜成像屏幕、智能眼镜前置摄像头画面、周围真实环境的视域画面的一致性校准标定,确保人眼透过半透明成像屏幕看到的真实世界场景与看到的半透明屏幕上正在呈现前置摄像头拍到的虚拟场景影像无重影且保持一致。
[0110] 图2说明基于AR智能眼镜的局部图像识别装置,设置有眼镜本体,眼镜本体左右两侧分别安装有智能眼镜成像屏幕;
[0111] 智能眼镜成像屏幕下侧集成有眼动跟踪摄像头;
[0112] 左右两智能眼镜成像屏幕之间集成有场景摄像头;
[0113] 眼镜本体的眼镜支架上集成有运算处理单元;
[0114] 智能眼镜成像屏幕一侧集成有影像投影源;
[0115] 眼镜成像屏幕、眼动跟踪摄像头、场景摄像头、影像投影源均通过导线连接运算处理单元。
[0116] 如图3,所述的一致性校准标定,包括:
[0117] 步骤101,对AR眼镜摄像头进行标定,得到真实世界坐标与AR眼镜成像屏幕坐标的投影关系;
[0118] 步骤102,通过眼动仪获取人眼眼图,并对人眼眼图进行处理获取人眼在真实世界的注视点坐标,通过真实世界坐标与AR眼镜成像屏幕坐标的投影关系得到人眼在真实世界的注视点坐标到成像屏幕坐标的标定。
[0119] 作为本发明优选实施例,所述步骤101包括:
[0120] 根据AR眼镜内参,获取AR眼镜摄像头与AR眼镜成像屏幕的投影关系;
[0121] 获取真实世界标记位置的坐标数据以及摄像头拍摄图像中所述真实世界标记位置的坐标数据;
[0122] 根据所述AR眼镜摄像头与AR眼镜成像屏幕的投影关系,获取真实世界坐标与成像屏幕坐标的投影关系。
[0123] 作为本发明优选实施例,所述步骤101还包括:根据所述AR眼镜摄像头与AR眼镜成像屏幕的投影关系,并利用相机的畸变参数对获取的真实世界坐标与成像屏幕坐标的投影关系进行调整,进而获取真实世界坐标与成像屏幕坐标的投影关系。
[0124] 作为本发明优选实施例,所述步骤102包括:
[0125] 依次给出位于世界坐标内的多个校准点及其坐标;
[0126] 图4说明分别捕捉注视所述多个校准点时的眼图,利用瞳孔-角膜反射光斑插值拟合算法或MEMS眼球运动捕捉技术,得到眼图数据并生成注视点坐标到摄像头拍摄图像的映射函数;
[0127] 根据所述映射函数以及真实世界坐标与AR眼镜成像屏幕坐标的投影关系,得到人眼在真实世界的注视点坐标到成像屏幕坐标的标定。
[0128] 步骤2中所述的眼动追踪模块所采用技术为瞳孔-角膜反射光斑法或MEMS眼球追踪技术,将人眼的运动行为数字化,转化为计算机系统可计算的电子信号。
[0129] 作为本发明优选实施例,所述步骤3包括以下子步骤:
[0130] 步骤301,注视时,左右两只眼的视线汇聚相交于一对象,如图5所示;;
[0131] 步骤302,通过眼动坐标测定双眼各自的视线角度及计算双眼视线夹角度数,确定目标对象的三维坐标;
[0132] 步骤303,计算每个眼睛的瞳孔当前的中心位置;
[0133] 步骤304,计算对象的二维坐标;
[0134] 作为本发明优选实施例,所述步骤4包括以下子步骤:
[0135] 步骤401,通过人眼注视眼镜成像屏幕的标定点,如图4所示,获得人眼动坐标与成像屏幕的映射关系;
[0136] 步骤402,由于人眼透过半透明成像屏幕看到的真实世界场景与看到的半透明屏幕上正在呈现前置摄像头拍到的虚拟场景影像无重影且保持一致;通过相似三角形原理,获取人眼在真实世界的视觉注视点位置。
[0137] 作为本发明优选实施例,图6是本发明实施例提供的过滤视线信号的方法原理图,步骤5过滤冗杂眼动行为包括:
[0138] 步骤501,低通滤波,对原始视线信号进行滤波以获取可以使用的视线信号;
[0139] 步骤502,T值自适应调节,实时监测当前的眼动模式,眼动角速度的计算、眼跳速度与阈值的比对,以及滤波参数的调节;
[0140] 步骤503,识别区域控制,主要控制识别区域移动;
[0141] 眼动事件除了眼跳和注视外,还有大量因眼球生理构造而引起的震颤、漂移和微小眼跳,如果让计算机直接把从眼动仪读取的带有上述噪音的原始视线坐标投射到鼠标上,会导致鼠标在运动或注视过程中发生抖动,导致鼠标无法完成任何指点交互任务。因此,实现基于视线追踪的交互式系统,最大的问题是要解决如何过滤原始视线信号中的噪音。
[0142] 作为本发明优选实施例,所述启动局部图像识别程序,具体为当智能眼镜上眼动追踪模组、脑电波检测模组获取到人类生物电并识别出用户兴趣点时启动图像局部图像识别程序,兴趣识别条件如下:
[0143] A、对某一区域凝视时长超过阈值;
[0144] B、对某一区域回视次数超过预设次数;
[0145] C、对某一区域注视时眨眼次数或眨眼行为达到预设标准;
[0146] D、对某一事物产生规律性视觉注意模型;
[0147] E、同一时刻脑电波检测模块检测出用户对该视觉注视区域产生情绪波动;
[0148] F、同一时刻心率、血压等人体生物信息监测模块检测出用户情绪发生数据波动;
[0149] G、同一时刻人眼对当下注视事物产生瞳孔放大或缩小的生理反应。
[0150] 作为本发明优选实施例,所述的截取人眼注视区域局部图像,具体为,以注视点为圆心的某一固定值为半径的圆形、以注视点为中心的某一固定值为边长的正方形或眼动路径所形成的不规则多边形;
[0151] 所述的截取的局部图像特征点5G上传云端服务器做云端识别处理,具体包括:局部图像特征点5G上传云端服务器做云端、语义分割、识别、匹配、检索,获取相关信息内容,内容包括商品广告信息、事物百科、商品的购买信息,声音、文字、图片、视频、3D模型。
[0152] 相关结果从云端回传到智能眼镜终端进行内容呈现。
[0153] 在上述实施例中,可以全部或部分地通过软件、硬件固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
[0154] 以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈