首页 / 专利库 / 计算机网络 / 物联网 / 机器对机器 / 机器人的人机交互方法及机器人

机器人人机交互方法及机器人

阅读:519发布:2024-02-01

专利汇可以提供机器人人机交互方法及机器人专利检索,专利查询,专利分析的服务。并且本 发明 提供一种 机器人 的 人机交互 方法及机器人,通过获取包含可操作项的可视信息;控制投射单元将所述可视信息投射到投射区域内形成投射图案;获取拍摄单元采集的用户对所述投射图案的操作图像;根据所述操作 图像识别 用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。本发明的方法可为用户提供更便捷的人机交互方法,用户可通过肢体或延长肢体控制距离的工具等方式采用无声的方式对机器人输入指令,增加了机器人的人机交互方式的种类,使得人机交互更加灵活,也便于聋哑人操作,且不会像远程控制受 信号 传输的限制,也不会像声控受环境噪声的影响,具有较高的准确性。,下面是机器人人机交互方法及机器人专利的具体信息内容。

1.一种机器人人机交互方法,其特征在于,包括:
获取包含可操作项的可视信息;
控制投射单元将所述可视信息投射到投射区域内形成投射图案;
获取拍摄单元采集的用户对所述投射图案的操作图像;
根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。
2.根据权利要求1所述的方法,其特征在于,所述控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还包括:
获取第一预定范围内的能够承载所述投射图案的区域作为投射区域。
3.根据权利要求2所述的方法,其特征在于,所述获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,具体包括:
根据所述拍摄单元采集的周围环境图像和/或预存的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域;和/或,所述能够承载所述投射图案的区域包括能够通过漫反射形成所述投射图案的物体表面或者通过透射形成所述投射图案的物体表面;
和/或
所述控制投射单元将所述可视信息投射到投射区域内形成投射图案,具体包括:
根据所述拍摄单元采集的周围环境图像、和/或测距设备采集的所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,控制所述投射单元对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案。
4.根据权利要求1所述的方法,其特征在于,所述获取拍摄单元采集的用户对所述投射图案的操作图像,包括:
获取拍摄单元采集的用户肢体、用户肢体的影子、延长肢体控制距离的工具、和/或延长肢体控制距离的工具的影子在所述投射图案上的点击操作图像和/或滑动操作图像;
和/或
所述根据所述操作图像识别用户对可操作项的操作指令,包括:
根据点击操作图像识别用户所点击的可操作项、或根据滑动操作图像识别用户对可操作项的滑动轨迹,从而获得对应的用户对可操作项的操作指令。
5.根据权利要求1所述的方法,其特征在于,所述控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还包括:
判断所述可视信息是否急需用户操作;
若是,则获取用户位置,并根据所述用户位置控制机器人移动至所述用户位置附近区域;
若否,则判断用户位置是否在第二预定范围内;若所述用户位置不在所述第二预定范围内,则继续执行当前任务;若所述用户位置在所述第二预定范围内,则将所述可视信息投射到投射区域内形成投射图案。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述获取包含可操作项的可视信息前,还包括:
接收用户召唤指令,获取用户位置,并根据所述用户位置控制机器人移动至所述用户位置附近区域。
7.一种机器人,其特征在于,包括:投射单元、拍摄单元、控制单元以及执行单元,所述投射单元、所述拍摄单元和所述执行单元分别与所述控制单元电连接;
其中,所述控制单元用于,获取包含可操作项的可视信息,并发送给所述投射单元;
所述投射单元用于,将所述可视信息投射到投射区域内形成投射图案;
所述拍摄单元用于,采集的用户对所述投射图案的操作图像,并发送给所述控制单元;
所述控制单元还用于,根据所述操作图像识别用户对可操作项的操作指令,并控制相应的所述执行单元执行所述操作指令。
8.根据权利要求7所述的机器人,其特征在于,所述控制单元还用于:
获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,所述能够承载所述投射图案的区域包括能够通过漫反射形成所述投射图案的物体表面或者通过透射形成所述投射图案的物体表面;
和/或
所述拍摄单元还用于采集周围环境图像,并发送给所述控制单元;
和/或
所述控制单元还用于,根据所述环境图像和/或预存的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域;
和/或
还包括:测距设备,用于采集所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,并发送给所述控制单元;
和/或
所述控制单元还用于,根据所述环境图像、和/或所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,向所述投射单元发送调节指令;
和/或
所述投射单元还用于,根据所述调节指令对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案;
和/或
所述拍摄单元具体用于,获取拍摄单元采集的用户肢体、用户肢体的影子、延长肢体控制距离的工具、和/或延长肢体控制距离的工具的影子在所述投射图案上的点击操作图像和/或滑动操作图像,并发送给所述控制单元;
和/或
所述控制单元具体用于,根据所述点击操作图像识别用户所点击的可操作项、或根据所述滑动操作图像识别用户对可操作项的滑动轨迹,从而获得对应的用户对可操作项的操作指令。
9.根据权利要求7所述的机器人,其特征在于,还包括:
运动单元,用于移动所述机器人的位置;
和/或
用户探寻单元,用于探寻单元获取用户位置,并发送给所述控制单元;
和/或
所述控制单元还用于,判断所述可视信息是否急需用户操作;若是,则通过用户探寻单元获取用户位置,并根据所述用户位置通过所述运动单元控制机器人移动至所述用户位置附近区域;若否,则通过所述用户探寻单元判断所述用户位置是否在第二预定范围内;若所述用户位置不在所述第二预定范围内,则继续执行当前任务;若所述用户位置在所述第二预定范围内,则控制所述投射单元将可视信息投射到投射区域内形成投射图案。
10.根据权利要求9所述的机器人,其特征在于,
所述控制单元还用于,接收用户召唤指令,通过所述用户探寻单元获取所述用户位置,并根据所述用户位置通过所述运动单元移动至所述用户位置附近区域。

说明书全文

机器人人机交互方法及机器人

技术领域

[0001] 本发明涉及通信技术领域,尤其涉及一种机器人的人机交互方法及机器人。

背景技术

[0002] 目前,各种类型的自主机器人已经越来越多地进入了人们的日常生活,比如执行清洁任务的智能扫地机、智能拖地机、擦窗机器人,执行陪伴任务的保姆机器人、儿童玩伴机器人、儿童教育机器人,执行防火防盗等安全任务的警卫机器人等。对于各种类型的自主机器人而言,机器人与人类用户的交互方式及由交互方式决定的交互效果至关重要,因为交互方式影响到用户对机器人的可靠性、智能性、便捷性的使用体验。
[0003] 目前常用的人机交互方式主要包括:通过遥控器、手机或机器人本体上的触摸屏、声音等向机器人用户指令,通过机器人本体上或无线终端(例如手机、平板电脑等)的显示屏输出显示结果,或通过扬声器发出声音反馈信息,或直接执行而不反馈。这些人机交互方式均存在一定问题,比如通过遥控器、手机等进行远程控制,受限于是否有网络、网速快慢、机器人与用户距离以及机器人所在位置,控制效果并不理想;而通过声控或机器人声音反馈,可能会受到其它杂音(比如正在播放的歌曲歌词、广播或电视里的对白等)的影响,会导致机器人的误听误判;而机器人自身产生的噪音(比如执行清洁任务的机器人)也会影响机器人对用户语音命令的拾取准确率。

发明内容

[0004] 本发明提供一种机器人的人机交互方法及机器人,以为用户提供更便捷的人机交互方法,用户通过肢体采用无声的方式对机器人输入指令,不会像远程控制受信号传输的限制,也不会像声控受环境噪声的影响,具有较高的准确性。
[0005] 本发明的一个方面是提供一种机器人的人机交互方法,包括:
[0006] 获取包含可操作项的可视信息;
[0007] 控制投射单元将所述可视信息投射到投射区域内形成投射图案;
[0008] 获取拍摄单元采集的用户对所述投射图案的操作图像;
[0009] 根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。
[0010] 进一步的,所述控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还可以包括:
[0011] 获取第一预定范围内的能够承载所述投射图案的区域作为投射区域。
[0012] 进一步的,所述能够承载所述投射图案的区域可以包括能够通过漫反射形成所述投射图案的物体表面或者通过透射形成所述投射图案的物体表面;
[0013] 进一步的,所述获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,具体可以包括:
[0014] 根据所述拍摄单元采集的周围环境图像和/或预存的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域。
[0015] 进一步的,所述控制投射单元将所述可视信息投射到投射区域内形成投射图案,具体可以包括:根据所述拍摄单元采集的周围环境图像、和/或测距设备采集的所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,控制所述投射单元对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案。
[0016] 进一步的,所述获取拍摄单元采集的用户对所述投射图案的操作图像,可以包括:
[0017] 获取拍摄单元采集的用户肢体、用户肢体的影子、延长肢体控制距离的工具、和/或延长肢体控制距离的工具的影子在所述投射图案上的点击操作图像和/或滑动操作图像;
[0018] 进一步的,所述根据所述操作图像识别用户对可操作项的操作指令,可以包括:
[0019] 根据点击操作图像识别用户所点击的可操作项、或根据滑动操作图像识别用户对可操作项的滑动轨迹,从而获得对应的用户对可操作项的操作指令。
[0020] 进一步的,所述控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还可以包括:
[0021] 判断所述可视信息是否急需用户操作;
[0022] 若是,则获取用户位置,并根据所述用户位置控制机器人移动至所述用户位置附近区域;
[0023] 若否,则判断用户位置是否在第二预定范围内;若所述用户位置不在所述第二预定范围内,则继续执行当前任务;若所述用户位置在所述第二预定范围内,则将所述可视信息投射到投射区域内形成投射图案。
[0024] 进一步的,所述用户探寻单元可以包括:被动热红外设备和/或拾音设备。
[0025] 进一步的,所述获取包含可操作项的可视信息前,还可以包括:
[0026] 接收用户召唤指令,获取用户位置,并根据所述用户位置控制机器人移动至所述用户位置附近区域。
[0027] 本发明的另一个方面是提供一种机器人,包括:投射单元、拍摄单元、控制单元以及执行单元,所述投射单元、所述拍摄单元和所述执行单元分别与所述控制单元电连接;
[0028] 其中,所述控制单元可以用于,获取包含可操作项的可视信息,并发送给所述投射单元;
[0029] 所述投射单元可以用于,将所述可视信息投射到投射区域内形成投射图案;
[0030] 所述拍摄单元可以用于,采集的用户对所述投射图案的操作图像,并发送给所述控制单元;
[0031] 所述控制单元还可以用于,根据所述操作图像识别用户对可操作项的操作指令,并控制相应的所述执行单元执行所述操作指令。
[0032] 进一步的,所述控制单元还可以用于:
[0033] 获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,所述能够承载所述投射图案的区域包括能够通过漫反射形成所述投射图案的物体表面或者通过透射形成所述投射图案的物体表面;
[0034] 进一步的,所述拍摄单元还可以用于采集周围环境图像,并发送给所述控制单元;
[0035] 进一步的,所述控制单元还可以用于,根据所述环境图像和/或预存的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域。
[0036] 进一步的,所述机器人还可以包括:
[0037] 测距设备,可以用于采集所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,并发送给所述控制单元;
[0038] 进一步的,所述控制单元还可以用于,根据所述环境图像、和/或所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,向所述投射单元发送调节指令;
[0039] 进一步的,所述投射单元还可以用于,根据所述调节指令对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案;
[0040] 进一步的,所述拍摄单元具体可以用于,获取拍摄单元采集的用户肢体、用户肢体的影子、延长肢体控制距离的工具、和/或延长肢体控制距离的工具的影子在所述投射图案上的点击操作图像和/或滑动操作图像,并发送给所述控制单元;
[0041] 进一步的,所述控制单元具体可以用于,根据所述点击操作图像识别用户所点击的可操作项、或根据所述滑动操作图像识别用户对可操作项的滑动轨迹,从而获得对应的用户对可操作项的操作指令。
[0042] 进一步的,所述机器人还可以包括:
[0043] 运动单元,用于移动所述机器人的位置;
[0044] 进一步的,所述机器人还可以包括:用户探寻单元,用于探寻单元获取用户位置,并发送给所述控制单元;
[0045] 进一步的,所述控制单元还可以用于,判断所述可视信息是否急需用户操作;若是,则通过用户探寻单元获取用户位置,并根据所述用户位置通过所述运动单元控制机器人移动至所述用户位置附近区域;若否,则通过所述用户探寻单元判断所述用户位置是否在第二预定范围内;若所述用户位置不在所述第二预定范围内,则继续执行当前任务;若所述用户位置在所述第二预定范围内,则控制所述投射单元将可视信息投射到投射区域内形成投射图案。
[0046] 进一步的,所述用户探寻单元可以包括:被动热红外设备和/或拾音设备。
[0047] 进一步的,所述控制单元还可以用于,接收用户召唤指令,通过所述用户探寻单元获取所述用户位置,并根据所述用户位置通过所述运动单元移动至所述用户位置附近区域。
[0048] 本发明提供的机器人的人机交互方法及机器人,通过获取包含可操作项的可视信息;控制投射单元将所述可视信息投射到投射区域内形成投射图案;获取拍摄单元采集的用户对所述投射图案的操作图像;根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。本发明的方法可为用户提供更便捷的人机交互方法,用户可通过肢体或延长肢体控制距离的工具等方式采用无声的方式对机器人输入指令,增加了机器人的人机交互方式的种类,使得人机交互更加灵活,也便于聋哑人操作,且不会像远程控制受信号传输或网速的限制,也不会像声控受环境噪声的影响,具有较高的准确性。附图说明
[0049] 为了更清楚地说明本发明实施例现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0050] 图1为本发明一实施例提供的机器人的人机交互方法流程图
[0051] 图2为图1所示的实施例的方法的示意图;
[0052] 图3为本发明另一实施例提供的机器人的人机交互方法流程图;
[0053] 图4为本发明另一实施例提供的机器人的人机交互方法流程图;
[0054] 图5为本发明实施例提供的机器人的结构图;
[0055] 图6为本发明另一实施例提供的机器人的结构图。

具体实施方式

[0056] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0057] 本发明的说明书权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0058] 图1为本发明实施例提供的机器人的人机交互方法流程图。本实施例提供了一种机器人的人机交互方法,其中所述机器人可以为智能扫地机、保姆机器人、警卫机器人等各种类型的自主机器人,所述机器人具体可如图3所示,包括:投射单元、拍摄单元、控制单元以及执行单元,所述投射单元、所述拍摄单元和所述执行单元分别与所述控制单元电连接,本实施例的机器人的人机交互方法的执行主体为控制单元,该方法具体步骤如下:
[0059] S100、获取包含可操作项的可视信息。
[0060] 在本实施例中,所述可视信息包括的可操作项可以为可选选项,例如“A.静音模式;B.完全模式;C.重复清洁模式”,也可以既包括待确定问题又包括可选选项,例如“清扫哪个房间?”其可选选项为:“A.卧室、B.客厅、C.厨房、D.阳台”;可操作项也可以为非选项,比如供用户填写或修改的图案和/或文字,或供用户签字或作画的区域等。总而言之,只要是现有技术中触摸屏显示器上可以显示并与用户互动的内容及互动的形式均可作为本发明中的可操作项的内容和形式。本实施例中,可视信息预先存储于存储单元中,由控制单元从存储单元中获取。
[0061] S200、控制投射单元将所述可视信息投射到投射区域内形成投射图案。
[0062] 在本实施例中,控制单元获取到包含可操作项的可视信息后,可控制投射单元将可视信息投射到投射区域内形成投射图案,其中投射区域可以为固定的区域,例如固定位置的投影幕布或者墙面上,也可以为机器人周围任意能够承载投射图案的区域,例如地面、桌面等物体表面,投射区域也并不限于是平面,也可以是弯曲表面(例如健身球的球面)或多个面的组合(例如地面与墙面及其交界处组成的复合面)等,此外也可以是半透明物体的表面,例如从磨砂玻璃的餐桌下面向磨砂玻璃下表面投射投射图案,用户可以在磨砂玻璃的上表面查看到该投射图案。但不局限于半透明物体的表面,也可以是不透明物体的表面,比如当可视信息投射到不透明的幕布上,在幕布的另一面也可以透射出一定的投射图案。
[0063] 本实施例中可根据可视信息以及投射单元的类型的不同采用不同的投射图案。例如投射单元是多个LED灯,则所述投射图案可以是以不同颜色代表不同选项的LED光斑(比如红色光斑代表“否”,绿色光斑代表“是”;或者黄色光斑代表“厨房”,白色光斑代表“客厅”,紫色光斑代表“阳台”等),则LED灯投射出的不同颜色的光斑或形状即为本实施例中的投射图案。再如投射单元是投影仪,则可以在投射区域内形成代表不同选项的图案或文字,这里代表不同选项的图案或文字或图案及文字的组合都属于本发明中的所述投射图案。再如投射单元是全息投影仪,则投射区域可以是呈现全息投影的3D空间,此时的所述投射图案可以是代表不同选项的全息投影,所述全息投影可以是3D全息图像或文字,或全息图象与文字的组合。上述的投影仪不一定是市面上的投影仪整机,也可以是投影仪中的核心部件,比如投影仪灯泡、滤光片和/或滤色片。此外所述投射图案也可以是以一定频率依次显示或滚动显示的图像和/或文字,比如依次或滚动显示“卧室”、“客厅”、“厨房”、“阳台”等。
[0064] S300、获取拍摄单元采集的用户对所述投射图案的操作图像。
[0065] 在本实施例中,当投射单元将所述可视信息投射到投射区域内形成投射图案后,用户可以通过肢体(比如手、脚、胳膊肘等身体部分)或延长肢体控制距离的工具(比如拐杖、激光笔点击投射图案,或丢掷到投射图案上的物品等)在投射图案上进行操作,例如用户可以用手或脚在投射图案上点击或滑动,既可以是用户的肢体与投射图案的投射区域表面接触,也可以使用户的肢体在投射图案的上方掠过或虚悬一段时间,或用户用脚掠过投射图案的上方,或用户用脚虚悬在投射单元的投射光路上,使脚的影子与投影区域(比如地面上)的投射图案相互重叠或相交。此外还可根据投射区域的不同,用户采用不同的操作方式,例如投射区域为桌面或墙面,用户可用手指在投射图案上进行点击或滑动操作;投射区域为地面,用户可用脚、脚趾或脚上穿的袜踩到或点击或掠过投射图像的相应可操作项;投射区域为曲面或多个平面的组合时,例如投射区域为地面部分和墙面部分的组合,用户既可以用手指也可用脚、脚趾或脚上穿的鞋袜对投射图案进行操作。上述的点击可以包括单击、双击等动作,滑动或掠过可以包括以任意轨迹的滑动或掠过动作。此外,用户也可对投射图像进行其它自然交互动作,例如在投射图案的空白框内作画、写字,或用肢体触及投射图案中表示“删除”的“×”符号以删除与之对应的内容,或用肢体选中投射图案中的某个区域等,总之,用户对投射图案的操作可以是现有技术中用户在触摸屏显示器上的各种操作。基于上述的用户肢体对所述投射图案的操作,可以由拍摄单元采集对应的操作图像,将用户对投射图案中可操作项的操作以图像的形式固化,具体可以采用连续采集多张以记录用户肢体对投射图案的连续操作动作。在本发明其它实施例中,可以由用户使用延长肢体控制距离的工具进行以上操作,比如用户使用拐杖、假肢、激光笔、投掷物(比如小球、鞋、袜、钥匙等)进行上述点击、滑动、掠过等自然交互动作,用户也可以使拐杖、假肢等延长肢体控制距离的工具虚悬在投射单元的投射光路上,使拐杖、假肢等延长肢体控制距离的工具的影子与投影区域(比如地面上)的投射图案相互重叠或相交。因此,本实施例中,用户对所述投射图案的操作,即通过上述用户的肢体和/或延长肢体控制距离的工具等方式对所述投射图案的操作,而拍摄单元采集的用户对所述投射图案的操作图像即为拍摄单元拍摄得到的包含用户的上述对可操作项的操作指令的图像。
[0066] 图2给出了一种将可视信息投射到地面这一投射区域形成投射图案的示意图,机器人50通过投射单元501将所述可视信息投射到投射区域内形成投射图案600,其中投射图案600包括多个可操作项,用户可以通过脚与投射图案600表面接触做点击某一可操作项的操作,由控制单元(图中未示出)获取拍摄单元502采集的用户对投射图案600的操作图像,然后再执行后续的根据操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令即可。
[0067] 所述拍摄单元可以是鱼眼单目摄像头或广单目摄像头、双目摄像头、多目摄像头或深度摄像头等拍摄模,此处不做限制。所述拍摄单元可以仅包括一组拍摄模块,仅用于采集用户在投射图案的操作图像,而在工作过程中不使用拍摄单元(比如简单的固定式声音输入型陪伴机器人或教育机器人,不需要移动也不需要通过拍摄单元采集周围环境图像或用户的面部信息,仅仅采集用户对投射图案的操作图像即可);该拍摄模块还可以既用于采集机器人周围的环境图像(比如用于SLAM实时建图定位、导航、人脸识别和/或物体识别等),也用于采集用户对投射图案的操作图像。此外拍摄单元也并不仅限于包括一组拍摄模块,例如可以包括两组拍摄模块,其中第一拍摄模块可以用于采集用户对所述投射图案的操作图像,第二拍摄模块可以用于采集周围环境图像(比如清洁型机器人需要在房间内进行覆盖式清洁任务,需要第二拍摄模块采集周围环境图像辅助运动单元进行定位和导航),这种不同拍摄模块获取不同图像信息的设置,可以减少拍摄单元的复杂度、减少图像处理难度和错误,但也会增加拍摄单元占用的体积及成本。在另一可选实施例中,两组拍摄模块均具有采集操作图像和环境图像的功能,彼此成为另一个拍摄模块的冗余备份,在某组拍摄模块发生故障时,另一组正常的拍摄模块可以代替发生故障的拍摄模块,保障了机器人运行的稳定性和持续性。本领域技术人员根据上述实施例,很容易想到可以由其它类型的拍摄模块或多个同类/不同类的拍摄模块的组合作为本发明的拍摄单元,因此各种拍摄模块或多个同类/不同类的拍摄模块的组合也属于本发明的拍摄单元的具体形式,在本发明的保护范围之内。
[0068] S400、根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。
[0069] 在本实施例中,控制单元根据拍摄单元采集的操作图像识别出用户对可操作项的操作指令,具体的,可以根据所述点击操作图像识别用户所点击的可操作项、或根据所述滑动操作图像识别用户对可操作项的滑动轨迹,从而获得用户对对应的可操作项的操作指令。在识别出操作指令后,控制相应的执行单元执行该操作指令,例如识别出用户对可操作项的操作指令为命令移动到某个符合条件的位置执行特定任务,比如清洁某个区域、找寻某个家庭成员、或监视窗等,执行单元可对应包括运动单元和清洁单元、用户探寻单元、或拍摄单元等等。也即根据机器人的种类及执行任务的不同,可操作项的内容不同,待确定问题及相应的可选选项不同,即用户的操作指令不同,则执行单元有可能不同,或与上述的投射单元、拍摄单元、运动单元等重合。以清洁类的自主机器人为例,比如智能扫地机、智能拖地机、擦窗机器人,则用户的操作指令可以是清洁模式(比如“静音模式”、“完全模式”、“重复清洁模式”等);也可以是到指定的清洁区域(比如“卧室”、“客厅”、“厨房”、“阳台”等),因此执行用户的操作指令的部件既可能是专门的执行单元,比如智能扫地机的主刷、边刷,也可能是运动单元(执行的操作指令是“到达某个区域或地点”),比如智能扫地机的底盘及其轮组件、履带等。再如用户的操作指令为播放音乐,则对应的执行单元为音乐播放器,通过音乐播放器进行音乐播放。再如机器人是保姆机器人,用户的操作指令为“让小明来吃饭”,则对应的执行单元包括用户探寻单元、运动单元、以及扬声器等,通过用户探寻单元(例如被动热红外设备、人脸识别装置等)探寻家庭成员“小明”的位置,通过运动单元移动到“小明”的附近,并通过扬声器发出“小明,去吃饭”的语音信息。再如用户的操作指令为播放网络视频,则对应的执行单元包括通信单元以及投射单元,通过通信单元与终端和/或远程服务器进行连接和通信获取网络视频,并由投射单元进行投射播放。更多的可实现方式此处不再赘述。
[0070] 本实施例提供的机器人的人机交互方法,通过获取包含可操作项的可视信息;控制投射单元将所述可视信息投射到投射区域内形成投射图案;获取拍摄单元采集的用户对所述投射图案的操作图像;根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。本实施例的方法可为用户提供更便捷的人机交互方法,用户通过肢体或延长肢体控制距离的工具等方式采用无声的方式对机器人输入指令,增加了机器人的人机交互方式的种类,使得人机交互更加灵活,也便于聋哑人操作,且不会像远程控制受信号传输或网速的限制,也不会像声控受环境噪声的影响,具有较高的准确性。
[0071] 图3为本发明另一实施例提供的机器人的人机交互方法流程图。在上述实施例的基础上,S200所述的控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还可包括:
[0072] 获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,所述能够承载所述投射图案的区域包括能够通过漫反射形成所述投射图案的物体表面或者通过透射形成所述投射图案的半透明物体的表面。
[0073] 本实施例中,控制单元可获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,其中能够承载所述投射图案的区域包括能够通过漫反射形成所述投射图案的物体表面,例如桌面、墙面或地面的等,投射单元可直接将投射图案投射在物体表面;能够承载所述投射图案的区域也可包括如磨砂玻璃等半透明物体的表面,例如清洁机器人从磨砂玻璃的餐桌下面向磨砂玻璃下表面投射该投射图案,光线透过磨砂玻璃在磨砂玻璃上表面形成投射图案,用户在磨砂玻璃上表面对投射图案进行操作,清洁机器人的拍摄模块从磨砂玻璃下面采集操作图像。
[0074] 进一步的,如图3所示,所述获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,具体可包括:
[0075] S150、根据拍摄单元采集的周围环境图像和/或预存的环境布局图,获取第一预定范围内能够承载投射图案的连续规则的平面作为所述投射区域。
[0076] 本实施例中,机器人优先选择连续规则的平面作为投射区域。所述“连续”是指机器人优选没有由两个不同维度平面形成的锐利交界(比如墙壁与地面之间通常形成的直角交界)且没有由不同高度的平面形成的台阶的交界(比如地板与地毯之间的台阶交界或不同房间之间的凸起或凹陷的交界)的表面作为投射区域,此类不同维度平面形成的锐利交界或不同高度平面的台阶的交界会使投射区域内发生折痕或失真,会降低用户体验,但不应以上述文字对此类情况进行绝对化解释,比如由平缓过渡的曲面或坡面连接的两个不同维度的平面,即使这两个平面自身的维度垂直,但由于其交界处过渡平缓,在这两个不同维度的平面之间不会有明显的折痕或锐利交界导致图像失真,因此也应认为是“连续”的。所述“规则”是指机器人优选矩形或圆形或椭圆形规则区域作为投射区域,因为投射区域可以最大化利用这类规则区域的面积显示投影图案。机器人优选平面而非曲面或异形的表面作为投射区域,可以避免投射图案的失真。本实施例中可通过拍摄单元采集的周围环境图像和/或预存的环境布局图获取机器人周围第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域。其中环境布局图可包括房间的平面布局图、3D布局图,还可包括各种家具的摆设位置等信息,控制单元可从环境布局图中识别出哪些区域可作为投射区域。
[0077] 进一步的,步骤S200的所述控制投射单元将所述可视信息投射到投射区域内形成投射图案,具体还可包括:
[0078] S210、根据所述拍摄单元采集的周围环境图像、和/或测距设备采集的所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,控制所述投射单元对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案。
[0079] 本实施例中,可根据投射区域尺寸对投射图案进行缩放,并可根据投射单元到投射区域的距离进行调焦,还可根据投射区域表面的亮度调节投射亮度,从而在投射区域内形成清晰的投射图案,使用户可以清楚看到投射图案,既不刺眼也不模糊。可以使用拍摄单元拍摄到含有不同维度之间的锐利交界特征或不同高度平面形成的台阶交界特征的图像,并由控制单元从中提取这些交界特征以识别上述交界并计算得到“连续规则的平面”的实际尺寸,所述实际尺寸既包括连续规则平面的两个维度的长度也包括连续规则平面的位置。对于矩形,所述实际尺寸包括连续规则的平面的中心位置和/或端点位置,以及长、宽和/或对角线;对于圆形,所述实际尺寸包括连续规则的平面的圆心位置和/或直径;对于椭圆形,所述实际尺寸包括连续规则的平面的中心位置、长轴、短轴和/或长短轴之比。控制单元再根据所述实际尺寸对可视信息进行合适缩放并将缩放后的可视信息投射到连续规则平面中,使投射图案的大小尽可能符合所述实际尺寸,从而尽可能多的利用连续规则的平面的实际可用面积,既不失真又能向用户提供足够的操作空间。当然也可通过TOF(Time of flight,飞行时间)测距装置、激光雷达等测距设备获取投射区域的尺寸以及投射单元到投射区域的距离,再对投射图案进行缩放和清晰度调节,此处不再赘述。
[0080] 本实施例中的步骤S300、S400除根据本实施例的具体情形做适应性调整之外,均与上述实施例类似,此处不再赘述。
[0081] 进一步的,如图4所示,在另一实施例中,步骤S200的所述控制投射单元将所述可视信息投射到投射区域内形成投射图案前,还可包括:
[0082] S110:判断所述可视信息是否急需用户操作;若是,则进入步骤S120;若否,则进入步骤S130;
[0083] S120:获取用户位置(比如可通过用户探寻单元),并根据所述用户位置控制机器人移动(比如可通过轮子、履带等运动单元)至所述用户位置附近区域;而后继续进行步骤S200(或者步骤S200的细化步骤S210)或在其它实施例中,可以先进行步骤S150再进行步骤S200,最终将可视信息投射到投射区域内形成投射图案;
[0084] S130:判断用户位置是否在第二预定范围内(比如通过用户探寻单元)。若确定用户位置在第二预定范围内,则进行步骤S200(或者步骤S200的细化步骤S210)或在其它实施例中,可以先进行步骤S150再进行步骤S200,最终将可视信息投射到投射区域内形成投射图案;若确定用户位置超出第二预定范围,则执行步骤S140;
[0085] S140:继续执行当前任务,直至通过所述用户探寻单元确定用户处于所述第二预定范围内,再进行步骤S200(或者步骤S200的细化步骤S210)或在其它实施例中,可以先进行步骤S150再进行步骤S200,最终将可视信息投射到投射区域内形成投射图案。
[0086] 本实施例中,可根据需要用户确定的可视信息是否紧急来执行不同操作。例如对于不需要用户立即确定的可视信息,比如若预设应当开启空调温度条件设置为“当前温度>32℃”,而可开启、可不开启空调的温度条件设置为“28℃≤当前温度≤32℃”,则当检测到室温为30℃时,“是否开启空调”就是一个不需要用户立即确定的可视信息,此种情况下机器人可以将该指令暂时搁置继续执行当前任务,当在执行当前任务时若恰巧遇到用户时(比如拾音设备(比如麦克或麦克风阵列等)接收到近距离的说话声、唱歌声、走路声等声音并识别出这些声音是由设定用户发出的;再如被动热红外设备感应到用户的人体红外线辐射进入一定范围内),也即用户探寻单元确定用户进入机器人的第二预定范围内时,则进行步骤S200(或者步骤S200的细化步骤S210)或在其它实施例中,可以先进行步骤S150再进行步骤S200,最终将可视信息投射到投射区域形成投射图案。而对于需要用户立即确定的可视信息,机器人需要主动探寻用户位置,然后移动到用户附近区域,然后进行步骤S200(或者步骤S200的细化步骤S210)或在其它实施例中,可以先进行步骤S150再进行步骤S200,最终将可视信息投射到投射区域形成投射图案。其中主动探寻用户位置的用户探寻单元可以通过拾音设备采集用户发出的声音(可以是用户的说话声、走路发出的声响等)探寻用户位置,或者通过被动热红外设备根据用户发出的热红外特征(对于成人和儿童,由于体温的不同,人体呈现的热红外图颜色不同,可以据此区别成人与儿童)或热红外呈现的轮廓(根据热红外面积不同,可以区别不同身高的多个成人以及区别成人与儿童)探寻用户位置,此外若机器人安装了定位设备,并通过网络与用户的移动设备比如手机、平板电脑等进行无线连接,则可以通过用户的移动设备的定位系统探寻用户位置,本实施例不限制机器人探寻用户位置的方式。运动单元具体可包括底盘以及安装在底盘上的轮组件或履带,还可以包括码盘、陀螺仪加速度计等,用于计算运动的里程、加速度、速度、角度、角加速度等运动参数,帮助机器人定位,运动单元能接收控制单元的命令运行(比如向某个方向运动多少距离,或在已有地图的情况下运动到某个坐标位置)。此外需要说明的是,移动到用户附近区域并非必要步骤,比如非移动型自主机器人可以没有运动单元,对于这类机器人由于用户一般在其附近,可以在探寻到用户位置后,向用户附近的合适位置投射可视信息形成投射图案。
[0087] 进一步的,所述获取包含可操作项的可视信息前,还可包括:
[0088] S010:接收用户召唤指令,获取用户位置(比如通过用户探寻单元),并根据所述用户位置控制机器人移动(比如通过轮子、履带等运动单元)至所述用户位置附近区域。
[0089] 在本实施例中,在用户召唤机器人时,比如用户可以使用移动终端(比如手机、平板电脑等)通过无线网络向机器人发出召唤指令,或用户发出声音形式的召唤指令,由自主机器人的麦克风识别出是用户的声音(比如通过预设的声纹)及预存的召唤指令,然后再探寻用户位置,移动到用户附近区域,再执行上述S100-S400的步骤,当然对于非移动型自主机器人也可不移动。
[0090] 此外,控制单元还可通过温度传感器获取机器人的温度,当发现机器人的温度过高(比如高于50℃),则由报警单元进行报警(比如发出语音和/或光线);控制单元还可通过热红外传感器发现有明火迹象后,由报警单元进行报警(比如发出语音和/或光线)。
[0091] 本发明的一个实施例中,机器人还包括存储单元,用于存储各类数据、信息,包括但不限于地图、可视信息数据库、用户指令数据库、用于对比的各类图像数据库。所述存储单元既可以是本地存储单元,也可以是通过有线或无线网路连接的端数据库。
[0092] 本发明的一个实施例中,机器人还可通过输入单元接收其他形式的用户指令,比如触摸屏输入、声音输入等,可为用户提供多种输入方式,方便用户使用对自己更便捷的方式指示机器人执行指令。
[0093] 本发明的一个实施例提供应用上述机器人的人机交互方法的示例,例如机器人是带有音乐播放和跳舞机功能的清洁机器人,如图4所示,在用户召唤清洁机器人时(比如通过声音或移动终端发出召唤指令),清洁机器人在接收用户召唤指令后,获取用户位置(比如通过用户探寻单元),并根据用户位置通过运动单元移动至用户位置附近区域(S010)。用户可以通过声音、移动终端主动发出播放音乐、使用跳舞机功能的用户指令,或由清洁机器人通过其控制单元从存储单元存储的可视信息数据库中获取包含可操作项的可视信息,比如包括问题“需要哪种服务?”及选项“清洁”、“跳舞”、“IOT”等的可视信息(S100);并判断该可视信息是否急需用户操作(S110)。若该可视信息是符合控制单元中设定的“急需用户操作”的可视信息,则清洁机器人通过用户探寻单元获取用户位置,并根据所述用户位置通过运动单元移动至所述用户位置附近区域(S120);若该可视信息不是符合控制单元中设定的“急需用户操作”的可视信息,则清洁机器人通过用户探寻单元判断用户位置是否在第二预定范围内(S130)。若确定用户位置不在第二预定范围内,则继续执行当前任务(S140),直至通过所述用户探寻单元确定用户处于所述第二预定范围内。
[0094] 在上述步骤130后且已确定用户位置在第二预定范围内,或在上述步骤S120之后,可选的,根据拍摄单元采集的周围环境图像和/或预存在存储单元的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域(S150)。然后,可选的,根据拍摄单元采集的周围环境图像、和/或测距设备(比如激光雷达、TOF测距仪、红外测距仪等)采集的所述投射区域的尺寸以及所述投射单元到所述投射区域的距离,控制所述投射单元对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案(S210,即S200的细化步骤)。由用户在投射区域内的投射图案中的可视信息里的这些可操作项中作出选择或其它操作(用户的这类操作都属于操作指令),清洁机器人通过拍摄单元采集用户对于上述投射图案的操作图像(比如用脚点选投射区域中的选项“跳舞”)(S300),并通过控制单元从操作图像中识别出用户的操作指令(了解到用户希望开启跳舞机功能)(S400)。在跳舞机功能下,对应的执行单元包括扬声器、投射单元和拍摄单元,扬声器播放跳舞音乐;投射单元根据播放的跳舞音乐的节奏向地面投射带有踩点的投射图案;拍摄单元采集用户在投射单元投射到地面的投射图案上的操作图像,并由控制单元从操作图像中识别用户踩点信息,控制单元将识别出的所述用户踩点信息与存储单元中存储的与音乐节奏相关联的正确踩点信息进行对比,并反馈给用户使用户知道其踩点信息是否正确,而且控制单元还可以计算用户的踩点信息正确率,并反馈给用户(即由相应的执行单元执行操作指令)。本实施例仅是示例性的描述本发明的机器人人机交互方法,本实施例的上述过程虽然都描述了由特定的硬件模块实现特定功能,但本领域技术人员应该了解本发明的技术方案可以通过不同于上述拍摄单元、存储单元、控制单元、运动单元、执行单元的其它设备完成,也可以通过一个设备完成上述多个或全部功能,因此不应以上述硬件模块限制本发明的保护范围。另外,本实施例只是对本发明技术方案的优选实施例,用以示例性说明本发明技术方案的各个方面,因此不应以本实施例的细节限制本发明的保护范围;实际上,本领域技术人员在上述各实施例的教导和启发下得到的技术方案均应在本发明的保护范围之内。
[0095] 本实施例提供的机器人的人机交互方法,通过获取包含可操作项的可视信息;控制投射单元将所述可视信息投射到投射区域内形成投射图案;获取拍摄单元采集的用户对所述投射图案的操作图像;根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。本实施例的方法可为用户提供更便捷的人机交互方法,用户可通过肢体或延长肢体控制距离的工具等方式采用无声的方式对机器人输入指令,增加了机器人的人机交互方式的种类,使得人机交互更加灵活,也便于聋哑人操作,且不会像远程控制受信号传输或网速的限制,也不会像声控受环境噪声的影响,具有较高的准确性。
[0096] 图5为本发明一个实施例提供的机器人的结构图。本实施例提供一种机器人,可以执行上述机器人的人机交互方法实施例提供的处理流程,如图3所示,本实施例的机器人50包括投射单元501、拍摄单元502、控制单元500以及执行单元503,所述投射单元501、所述拍摄单元502和所述执行单元503分别与所述控制单元500电连接,可以为有线连接或者无线连接。
[0097] 其中,所述控制单元500用于,获取包含可操作项的可视信息,并发送给所述投射单元501;
[0098] 所述投射单元501用于,将所述可视信息投射到投射区域内形成投射图案;
[0099] 所述拍摄单元502用于,采集用户肢体(比如手、脚、胳膊肘等身体部分)或延长肢体控制距离的工具(比如拐杖、激光笔点击投射图案,或丢掷到投射图案上的物品等)等方式对所述投射图案的操作图像,并发送给所述控制单元500;
[0100] 所述控制单元500还用于,根据所述操作图像识别用户对可操作项的操作指令,并控制相应的所述执行单元503执行所述操作指令。
[0101] 进一步的,所述控制单元500还用于:获取第一预定范围内的能够承载所述投射图案的区域作为投射区域,所述能够承载所述投射图案的区域可以包括能够通过漫反射形成所述投射图案的物体表面,还可以包括通过透射形成所述投射图案的半透明物体的表面。
[0102] 进一步的,所述拍摄单元502还可以用于采集周围环境图像,并发送给所述控制单元500。
[0103] 所述控制单元500还可以用于,根据所述环境图像和/或预存的环境布局图,获取第一预定范围内能够承载所述投射图案的连续规则的平面作为所述投射区域。
[0104] 进一步的,所述机器人50还可以包括:测距设备,用于采集所述投射区域的尺寸以及所述投射单元501到所述投射区域的距离,并发送给所述控制单元500。
[0105] 所述控制单元500还可以用于,根据所述环境图像、和/或所述投射区域的尺寸以及所述投射单元501到所述投射区域的距离,向所述投射单元501发送调节指令。
[0106] 所述投射单元501还可以用于,根据所述调节指令对所述投射图案进行缩放和/或清晰度调节,从而在所述投射区域内形成清晰的投射图案。
[0107] 进一步的,所述拍摄单元502具体可以用于,获取拍摄单元502采集的用户肢体、用户肢体的影子、延长肢体控制距离的工具、和/或所述延长肢体控制距离的工具的影子等方式在所述投射图案上的点击操作图像和/或滑动操作图像,并发送给所述控制单元500;
[0108] 所述控制单元500具体可以用于,根据所述点击操作图像(即含有用户的点击操作的图像)识别用户所点击的可操作项、或根据所述滑动操作图像(即含有用户的滑动操作的图像)识别用户对可操作项的滑动轨迹,从而获得对应的用户对可操作项的操作指令。
[0109] 进一步的,如图6所示,所述机器人50还可包括:
[0110] 运动单元505,用于移动所述机器人50的位置;
[0111] 用户探寻单元(图中未示出),用于探寻单元获取用户位置,并发送给所述控制单元500;
[0112] 所述控制单元500还可以用于,判断所述可视信息是否急需用户操作;若是,则通过用户探寻单元获取用户位置,并根据所述用户位置通过所述运动单元505移动至所述用户位置附近区域;若否,则通过所述用户探寻单元判断所述用户位置是否在第二预定范围内;若不在所述第二预定范围内,则继续执行当前任务;若在所述第二预定范围内,则控制所述投射单元501投射所述可视信息。
[0113] 进一步的,所述用户探寻单元可以包括:被动热红外设备和/或拾音设备。
[0114] 进一步的,所述控制单元500还可以用于,接收用户召唤指令,通过所述用户探寻单元获取所述用户位置,并根据所述用户位置通过所述运动单元505移动至所述用户位置附近区域。
[0115] 进一步的,所述机器人50还可包括存储单元504,用于存储各类数据、信息,包括但不限于地图、可视信息数据库、用户指令数据库、用于对比的各类图像数据库。所述存储单元504既可以是本地存储单元504,也可以是通过有线或无线网路连接的云端数据库。
[0116] 所述机器人50还可包括输入单元506,接收其他形式的用户指令,比如触摸屏输入、声音输入等,可为用户提供多种输入方式,方便用户使用对自己更便捷的方式指示机器人执行操作指令。
[0117] 所述机器人50还可包括报警单元508,用于在机器人的温度过高或发现有明火迹象,也可由报警单元508发出语音和/或光线进行报警。
[0118] 所述机器人50还可包括通信单元507,用于与终端和/或远程服务器进行连接和通信。
[0119] 需要说明的是,根据机器人的种类及执行任务的不同,可操作项的内容不同,待确定问题及相应的可选选项不同,即用户的操作指令不同,则执行单元503有可能不同,或与上述的投射单元501、拍摄单元502、运动单元505等重合。
[0120] 本发明实施例提供的机器人50可以具体用于执行上述图1、图3和图4所提供的方法实施例,具体功能此处不再赘述。
[0121] 本实施例提供的机器人,通过获取包含可操作项的可视信息;控制投射单元将所述可视信息投射到投射区域内形成投射图案;获取拍摄单元采集的用户对所述投射图案的操作图像;根据所述操作图像识别用户对可操作项的操作指令,并控制相应的执行单元执行所述操作指令。本实施例的机器人可为用户提供更便捷的人机交互方法,用户可通过肢体或延长肢体控制距离的工具等方式采用无声的方式对机器人输入指令,增加了机器人的人机交互方式的种类,使得人机交互更加灵活,也便于聋哑人操作,且不会像远程控制受信号传输或网速的限制,也不会像声控受环境噪声的影响,具有较高的准确性。
[0122] 在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0123] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0124] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
[0125] 上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
[0126] 本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0127] 最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈