机器人及其控制方法 |
|||||||
申请号 | CN201310008020.9 | 申请日 | 2013-01-09 | 公开(公告)号 | CN103192387B | 公开(公告)日 | 2017-03-01 |
申请人 | 三星电子株式会社; | 发明人 | 金智英; 李光奎; 权宁道; 卢庆植; | ||||
摘要 | 本 发明 提供了一种 机器人 及其控制方法。所述机器人包括: 机器人手 和 机器人手臂 ;抓握 传感器 单元,被构造成使机器人手能够感测物体;抓握控制单元,被构造成根据从抓握传感器单元得到的抓握信息确定机器人手是否抓握了物体,根据确定的结果选择基于物体的动作来控制机器人手和机器人手臂的基于物体的坐标或者选择独立地控制机器人手和机器人手臂的独立坐标,并基于选择的坐标来控制机器人手和机器人手臂;以及坐标变换单元,被构造成计算虚拟物体根据基于物体的坐标的 位置 和方向,并将关于计算的虚拟物体的位置和方向的信息传送到抓握控制单元。 | ||||||
权利要求 | 1.一种主从机器人,所述主从机器人包括: |
||||||
说明书全文 | 机器人及其控制方法技术领域[0001] 本公开的实施例涉及一种机器人及其控制方法,通过将用户的手臂和手的动作传达给所述机器人,所述机器人能够执行任务,更具体地讲,涉及一种利用基于物体的坐标变换的机器人及其控制方法。 背景技术[0002] 通常,以将用户的动作如实地表现在机器人上的这样的方式来提供对机器人的控制。 [0003] 即,将用户的手臂的动作的信息传送到机器人手臂,并将用户的手的动作的信息传送到机器人手。 [0004] 因此,用户独立地控制机器人手臂和机器人手。 [0005] 然而,在这种情况下,需要单独的操纵器(manipulator)来独立地控制机器人手臂和机器人手,因此工作效率降低。 [0006] 另外,被识别为由用户抓握的物体的位置和方向可能与实际上由机器人手抓握的物体的位置和方向不同。 [0007] 因此,根据用户的手臂的动作的机器人手臂的动作可能会妨碍根据用户的手的动作的机器人手的动作。发明内容 [0008] 因此,本公开的一方面在于提供一种机器人及其控制方法,所述机器人能够在自由空间内独立地控制机器人手臂和机器人手,在抓握了物体之后,能够根据基于物体的坐标来控制机器人手臂和机器人手。 [0009] 本公开的其他方面将在以下描述中部分地进行阐述,并且部分将通过描述而显而易见,或者可以通过本公开的实施而了解。 [0010] 根据本公开的一方面,一种机器人包括机器人手、机器人手臂、抓握传感器单元、抓握控制单元和坐标变换单元。抓握传感器单元可以被构造成使机器人手能够感测物体。抓握控制单元可以被构造成根据从抓握传感器单元得到的抓握信息确定机器人手是否抓握了物体,根据确定的结果选择基于物体的动作控制机器人手和机器人手臂的基于物体的坐标或者选择独立地控制机器人手和机器人手臂的独立坐标,并基于选择的坐标来控制机器人手和机器人手臂。坐标变换单元可以被构造成计算虚拟物体根据基于物体的坐标的位置和方向,并将关于计算的虚拟物体的位置和方向的信息传送到抓握控制单元。 [0011] 如果确定机器人手抓握了物体,则抓握控制单元可以使用基于物体的坐标,并可维持机器人处于抓握物体的状态,从而防止机器人响应于用户的详细动作而移动。 [0012] 基于物体的坐标可以被构造成计算多个实际手指尖的位置,通过利用计算的多个实际手指尖的位置计算多个虚拟手指尖的位置,并基于计算的多个虚拟手指尖的位置得到虚拟物体的中心位置和方向矢量。 [0013] 抓握控制单元可以确定从主控装置或从属装置传送的虚拟物体的坐标的相对变化是平移运动、旋转运动还是抓握运动,并根据平移运动产生平移控制命令,根据旋转运动产生旋转控制命令或者根据抓握运动产生抓握控制命令。 [0014] 平移控制命令可以被构造成确定平移运动是否是在基于物体的坐标的XY平面上的平移运动,如果确定平移运动不是在基于物体的坐标的XY平面上的平移运动,则平移控制命令确定机器人手是否能够沿基于物体的坐标的Z轴执行平移运动,从而控制机器人手臂或机器人手。 [0015] 旋转控制命令可以被构造成确定旋转运动是否是绕基于物体的坐标的X轴或Y轴的旋转运动,如果确定旋转运动不是绕基于物体的坐标的X轴或Y轴的旋转运动,则旋转控制命令可以确定机器人手是否能够绕基于物体的坐标的Z轴执行旋转运动,从而控制机器人手臂或机器人手。 [0016] 抓握控制命令可以是被构造成控制机器人手的命令。 [0017] 根据本公开的另一方面,一种控制机器人的方法如下。可以根据从抓握传感器单元得到的抓握信息来确定机器人手是否抓握了物体。根据确定的结果,可以选择基于物体的动作控制机器人手和机器人手臂的基于物体的坐标或者选择独立地控制机器人手和机器人手臂的独立坐标。可以基于选择的坐标控制机器人手和机器人手臂。 [0018] 基于物体的坐标可以计算虚拟物体的位置和方向,并可将关于计算的虚拟物体的位置和方向的信息传送到抓握控制单元。 [0019] 对坐标的选择可以包括:如果确定机器人手抓握了物体,则使用基于物体的坐标,并维持机器人处于抓握物体的状态,从而防止机器人响应于用户的详细动作而移动。 [0020] 基于物体的坐标可以被构造成计算多个实际手指尖的位置,通过利用计算的多个实际手指尖的位置计算多个虚拟手指尖的位置,并基于计算的多个虚拟手指尖的位置得到虚拟物体的中心位置和方向矢量。 [0021] 可以通过执行以下步骤来完成对基于物体的坐标的选择。可以确定从主控装置或从属装置传送的虚拟物体的坐标的相对变化是平移运动、旋转运动还是抓握运动。可以根据平移运动产生平移控制命令,根据旋转运动产生旋转控制命令,根据抓握运动产生抓握控制命令。 [0022] 平移控制命令可以被构造成确定平移运动是否是在基于物体的坐标的XY平面上的平移运动,如果确定平移运动不是在基于物体的坐标的XY平面上的平移运动,则平移控制命令可以确定机器人手是否能够沿基于物体的坐标的Z轴执行平移运动,从而控制机器人手臂或机器人手。 [0023] 旋转控制命令可以被构造成确定旋转运动是否是绕基于物体的坐标的X轴或Y轴的旋转运动,如果确定旋转运动不是绕基于物体的坐标的X轴或Y轴的旋转运动,则旋转控制命令可以确定机器人手是否能够绕基于物体的坐标的Z轴执行旋转运动,从而控制机器人手臂或机器人手。 [0025] 通过下面结合附图对实施例进行的描述,本公开的这些和/或其他方面将变得明显且更加容易理解,在附图中: [0026] 图1是示出根据本公开的一个实施例的机器人的构造的示图。 [0027] 图2是示出根据本公开的一个实施例的机器人手的手掌侧的平面图。 [0028] 图3是示出根据本公开的一个实施例的机器人的框图。 [0029] 图4是示出根据本公开的一个实施例的主控手从五个实际的手指尖转换成两个虚拟的手指尖的透视图。 [0030] 图5是示出根据本公开的一个实施例的机器人获得基于物体的坐标的示图。 [0031] 图6是示出根据本公开的一个实施例的机器人的控制方法的流程图。 [0032] 图7是示出在根据本公开实施例的机器人的控制方法中根据基于物体的坐标控制机器人手臂和机器人手的部分的流程图。 [0033] 图8是根据本公开的一个实施例的从五个实际的手指尖转换成两个虚拟的手指尖的机器人手的透视图。 具体实施方式[0034] 现在将详细地描述本公开的实施例,其示例在附图中示出,在附图中,相同的标号始终指示相同的元件。 [0035] 图1是示出根据本公开的一个实施例的机器人的示图。 [0036] 参照图1,根据本公开的实施例的机器人包括由用户操纵的主控装置(master device)110和被构造成在远程区域中执行任务的从属装置(slavedevice)120。 [0037] 显示单元111与从属装置120的相机传感器单元125a配对。显示单元111可以将从从属装置120的相机传感器单元125a得到的图像信息显示给用户。 [0038] 主控手112与从属装置120的机器人手1配对。主控手112可以将用户的手的坐标信息传送到机器人手1。 [0039] 例如,根据本公开的实施例的主控手112可以使用由手套状的设备构成的设备来实现,以测量结合到外骨骼致动器结构的手指的关节的角度,从而提供力反馈。可选择地,可以使用由既用作传感器又用作致动器的连接件构成的外骨骼结构来实现主控手。 [0040] 主控手臂113与从属装置120的机器人手臂5配对。主控手臂113可以将用户的手臂的坐标信息传送给机器人手臂5。 [0041] 图2是示出根据本公开的一个实施例的机器人手的手掌侧的平面图。 [0042] 参照图2,应用于根据本公开的实施例的机器人的机器人手1被构造成包括以与人手相同的方式从手状部分2延伸的五个手指机构1a至1e的结构。手指机构1a至1e分别对应于人的拇指、食指、中指、无名指和小指。 [0043] 通过组装手掌形成构件3和手背(backhand)形成构件4来构造手状部分2。用于操作手指机构1a至1e的驱动机构的容纳部分设置在手掌形成构件3和手背形成构件4之间的间隙处。手状部分2的一侧连接到机器人手臂5。 [0044] 手指机构1a至1e中的每个包括三组关节连接构件6、7和8以及四组关节9、10、11和12。可选择地,手指机构1a至1e中的每个可以包括两组或更多组关节连接构件和三组或更多组关节。 [0045] 手指机构1b至1e的关节9至12中的连接到手掌的关节9被安装成可旋转的。根据关节9的旋转,手指机构1a至1e可以展开到侧部。 [0046] 另外,手指机构1a至1e的各个关节10至12被构造成沿相同的方向旋转。关节连接构件6至8中的每个被构造成围绕关节10至12中的相应的一个关节的轴可旋转。因此,手指机构1a至1e可以根据关节连接构件6至8在相应的关节10至12处的旋转来执行弯曲动作。 [0048] 缓冲构件13至15可以安装在手指机构1a至1e的关节连接构件6至8上,同时覆盖关节连接构件6至8的外周表面。 [0049] 用于手指的弹性盖构件16a至16e可拆卸地设置在手指机构1a至1e处,从而既覆盖手指机构1a至1e的表面又覆盖缓冲构件13至15的表面。 [0050] 图3是示出根据本公开的一个实施例的机器人的框图。 [0051] 参照图3,机器人100可以包括主控装置110和从属装置120。 [0052] 主控装置110是设置在用户侧的设备,用户可以通过使用主控装置110来控制从属装置120。主控装置110可以包括显示单元111、主控手112、主控手臂113、位置传感器单元114和第一通信单元115。 [0053] 显示单元111对应于机器人的头部,并且被构造成显示由从属装置120识别的图像。 [0054] 例如,当识别用户的头的动作时,显示单元111(例如,头戴式显示器(HMD))可以显示远程位置(remote site)的图像。 [0055] 用户可以基于从机器人获得的图像来控制从属装置120。 [0056] 主控手112对应于从属装置120的机器人手1,并且指的是用来感测用户的手的动作的设备。 [0057] 例如,主控手112可以感测用户的手的动作以测量手指的关节角度,并可根据所述动作产生坐标信息。 [0058] 主控手臂113对应于从属装置120的机器人手臂5,并且指的是用来感测用户的手臂的动作的设备。 [0059] 例如,主控手臂113可以感测用户的手臂的动作以测量手臂的关节角度,并可根据所述动作产生坐标信息。 [0060] 主控手112和主控手臂113可以彼此独立或者彼此协作地感测用户的动作,以将主控手112的坐标信息和主控手臂113的坐标信息发送到从属装置120。 [0061] 位置传感器单元114可以感测用户侧的主控手112和主控手臂113的位置。位置传感器单元114可以通过使用安装在主控手112和主控手臂113处的传感器(例如,译码器)来感测主控手112和主控手臂113的位置,并且可以将与感测到的位置相关的信息发送到抓握控制单元(grip control unit)122或坐标变换单元(未示出)。 [0062] 第一通信单元115可以与从属装置120的第二通信单元124交换数据。可以以有线或无线的方式实现数据发送/接收方案。 [0063] 从属装置120是根据用户的控制而操作的机器人设备。从属装置120包括控制单元121、抓握控制单元122、存储单元123、第二通信单元124、传感器单元125、机器人手1和机器人手臂5。 [0064] 控制单元121可以根据从主控装置110得到的多条坐标信息来控制从属装置120的操作。另外,控制单元121可以控制主控装置110和从属装置120的总体操作。 [0065] 为了变换参考坐标,抓握控制单元122可以确定机器人手1是否抓握了物体。变换的必要条件包括确定机器人手1是否以足够的力抓握物体。通过安装在机器人手1的手指尖上的抓握传感器单元125b来分析通过接触或抓握产生的相对于物体的反作用力,从而确定机器人手1是否抓握了物体。 [0066] 在机器人手1抓握了物体的情况下,抓握控制单元122可以将参考坐标变换成基于物体的坐标。另外,对于用户的详细动作,通过使用具有预定大小或超过预定大小的力,抓握控制单元122可以防止用户的动作被再现,从而防止机器人手1错失抓握的物体。 [0067] 抓握控制单元122可以包括用于变换成基于物体的坐标所需要的坐标变换单元(未示出)。 [0068] 基于物体的坐标指的是通过计算多个实际的手指尖的位置,利用计算的多个实际的手指尖的位置来计算多个虚拟的手指尖的位置,并基于计算的多个虚拟的手指尖的位置来得到虚拟物体的中心位置和方向矢量而限定的坐标。 [0069] 在这种情况下,当不考虑用户的手和手臂的动作而基于虚拟物体的动作来控制机器人时,另外,当物体的动作的幅度小时(如在抓握物体和释放物体时),采用基于物体的坐标。 [0070] 同时,在用户通过克服预定大小的力而移动以释放物体并因此不能满足抓握的必要条件的情况下,抓握控制单元122可以将参考坐标变换成独立坐标,所述独立坐标被构造成将用户的手的动作和手臂的动作分别发送到机器人手和机器人手臂。 [0071] 独立坐标可适用于机器人的动作的幅度大的情况,如在举起手臂时。 [0072] 存储单元123可以存储机器人手1和机器人手臂5的各种形式的动作。另外,存储单元123可以存储从从属装置120和主控装置110发送的各项坐标数据。 [0073] 第二通信单元124与主控装置110的第一通信单元115交换数据。可以以有线或无线的方式来实现数据发送/接收方案。 [0074] 传感器单元125可以包括:相机传感器单元125a,给远程位置处的周围环境拍照;抓握传感器单元125b,感测机器人手1是否抓握了物体;以及位置传感器单元125c,感测机器人手1和机器人手臂5的位置。 [0075] 相机传感器单元125a可以得到远程区域处的周围环境的图像,并且可以将该图像发送到用户侧的显示单元111。相机传感器单元125a可以包括被构造成给周围环境拍照的普通相机。 [0076] 抓握传感器单元125b可以使机器人手1能够感测物体,并且可将与所述感测相关的抓握信息发送到抓握控制单元122。 [0077] 例如,传感器(未示出)可以设置在各个手指机构1a至1e的指尖的位置p1至p5处,以感测机器人是否抓握了物体。 [0078] 另外,所述传感器(未示出)可以包括力传感器或触觉传感器。 [0079] 力传感器可以检测机器人手1的力。在将力转换成电量的过程中实现对机器人手1的力的检测,将力转换成电量的过程可以包括:利用弹性体的变形作为第一转换因子,并把测量的值与已知的力的大小等同。 [0080] 触觉传感器具有工程学地(engineeringly)呈现关于来自生物体的力/扭矩感觉和皮肤感觉的功能或部分功能。触觉传感器可以包括接触传感器、接触力传感器、滑觉传感器、力/扭矩传感器(重量传感器)、接近传感器或刚度传感器。 [0081] 触觉传感器可以以触觉传感器阵列的形式实现。 [0082] 从属装置120侧部的位置传感器单元125c可以感测从属装置120的机器人手1的位置和机器人手臂5的位置。位置传感器单元125c可以通过使用安装在从属装置120的机器人手1和机器人手臂5上的传感器(例如,译码器)来感测从属装置120的机器人手1的位置和机器人手臂5的位置,并可将位置信息发送到抓握控制单元122或坐标变换单元(未示出)。 [0083] 机器人手1可以执行抓握物体的动作和移动物体的动作。 [0084] 机器人手臂5可以执行动作从而改变机器人手1的坐标。 [0085] 以与人的手臂的结构相同的方式,机器人手臂5的一端可以连接到机器人手1,机器人手臂5的另一端可以连接到机器人的躯干。可选择地,机器人手臂可以具有与人的手臂的结构不同的结构。 [0086] 图4是示出根据本公开的一个实施例的主控手从实际的五个手指尖转换成两个虚拟的手指尖的透视图。 [0087] 参照图4,主控手112的实际手指尖的位置可以分别表示为P1、P2、P3、P4和P5。第一虚拟手指尖的位置Pv1可被设置为主控手112的第一实际手指尖的位置P1。第二虚拟手指尖的位置Pv2可被设置为第二实际手指尖的位置P2至第五实际手指尖的位置P5的中心Pv2。 [0088] 在这种情况下,第一虚拟手指尖的位置Pv1以一一对应的方式映射到第一实际手指尖的位置P1。另外,第二虚拟手指尖的位置Pv2以一对应于四的方式映射到第二实际手指尖的位置P2至第五实际手指尖的位置P5。 [0089] 之后,得到在第一虚拟手指尖的位置Pv1和第二虚拟手指尖的位置Pv2之间的中心位置。得到的中心位置可以被称作虚拟物体的中心位置Pc。 [0090] 根据基于物体的坐标,X轴方向指的是将虚拟物体的中心位置Pc作为原点时从虚拟物体的中心位置Pc朝向第二虚拟手指尖的位置Pv2的方向。根据基于物体的坐标,Y轴方向指的是将虚拟物体的中心位置Pc作为原点时从第二虚拟手指尖的位置Pv2朝向第二实际手指尖的位置P2的方向。根据基于物体的坐标,Z轴方向指的是将虚拟物体的中心位置Pc作为原点时垂直于根据基于物体的坐标的X轴和Y轴的方向,并且还可以被称作从主控手112的手掌朝向虚拟物体的中心位置Pc的方向。在下文中,X轴、Y轴和Z轴可以表示根据基于物体的坐标的X轴、Y轴和Z轴。 [0091] 尽管可以关于第二虚拟手指尖的位置Pv2是第二实际手指尖的位置P2至第五实际手指尖的位置P5的中心位置的情况对根据实施例的主控手112进行描述,但是本公开不限于此。根据另一实施例,第二虚拟手指尖的位置Pv2可指的是邻近于第二实际手指尖的位置P2至第五实际手指尖的位置P5中的一个的位置。 [0092] 尽管可以关于将第二实际手指尖的位置P2至第五实际手指尖的位置P5转换成单个虚拟手指尖的位置Pv2的情况对根据实施例的主控手112进行描述,但是本公开不限于此。根据另一实施例,可以将至少一个实际手指尖的位置转换成单个虚拟手指尖的位置Pv2。 [0093] 图5是示出根据本公开的一个实施例的机器人获得基于物体的坐标的示图。 [0094] 坐标变换单元(未示出)可以通过如下数学公式1得到虚拟物体的中心位置Pc。 [0095] 【数学公式1】 [0096] Pv1=P1 [0097] 在数学公式1中,Pv1是第一虚拟手指尖的位置,P1是第一实际手指尖的位置。 [0098] 第一虚拟手指尖的位置Pv1具有第一实际手指尖的位置P1的坐标值。 [0099] 【数学公式2】 [0100] [0101] 在数学公式2中,Pv2是主控手112的第二虚拟手指尖的位置,P2至P5指的是主控手112的第二实际手指尖的位置至第五实际手指尖的位置。 [0102] 第二虚拟手指尖的位置Pv2具有第二实际手指尖的位置P2的坐标值至第五实际手指尖的位置P5的坐标值的平均值。 [0103] 【数学公式3】 [0104] [0105] 在数学公式3中,Pv1和Pv2分别指的是主控手112的第一虚拟手指尖的位置和第二虚拟手指尖的位置,Pc指的是虚拟物体的中心位置。 [0106] 虚拟物体的中心位置Pc具有第一虚拟手指尖的位置Pv1的坐标值和第二虚拟手指尖的位置Pv2的坐标值的平均值。 [0107] 坐标变换单元(未示出)通过下面的数学公式4得到虚拟物体的方向矢量。 [0108] 【数学公式4】 [0109] x1=Pv2-Pv1 [0110] 在数学公式4中,Pv1和Pv2分别指的是主控手112的第一虚拟手指尖的位置和第二虚拟手指尖的位置,x1指的是用于得到X轴的矢量的临时矢量。 [0111] 矢量x1具有第二虚拟手指尖的位置Pv2减去第一虚拟手指尖的位置Pv1的值。 [0112] 【数学公式5】 [0113] [0114] 在数学公式5中,x1指的是用于得到X轴的矢量的临时矢量,x指的是X轴的矢量。 [0115] 得到单位矢量x。 [0116] 【数学公式6】 [0117] y1=P2-Pv2 [0118] 在数学公式6中,P2是主控手112的第二实际手指尖的位置,Pv2是第二虚拟手指尖的位置,y1是用于得到Y轴的矢量的临时矢量。 [0119] 矢量y1具有第二实际手指尖的位置P2减去第二虚拟手指尖的位置Pv2的值。 [0120] 【数学公式7】 [0121] [0122] 在数学公式7中,y1是用于得到Y轴的矢量的临时矢量,y是Y轴的矢量。 [0123] 得到单位矢量y。 [0124] 【数学公式8】 [0125] z1=x×y [0126] 在数学公式8中,x是X轴的矢量,z1是用于得到Z轴的矢量的临时矢量。 [0127] 矢量z1具有矢量x和矢量y的外积(outer product)的值。 [0128] 【数学公式9】 [0129] [0130] 在数学公式9中,z1是用于得到Z轴的矢量的临时矢量,z是Z轴的矢量。 [0131] 得到单位矢量z。 [0132] 【数学公式10】 [0133] y1=z×x [0134] 在数学公式10中,x是X轴的矢量,z是Z轴的矢量,y1是用于得到Y轴的矢量的临时矢量。 [0135] 矢量y1具有矢量z和矢量x的外积的值。 [0136] 【数学公式11】 [0137] [0138] 在数学公式11中,y1是用于得到Y轴的矢量的临时矢量,y是Y轴的矢量。 [0139] 得到单位矢量y。 [0140] 在数学公式1至11中计算的基于物体的坐标是基于固定到主控手112的手掌的坐标系计算的结果。 [0141] 因此,如果连同以上一起计算主控手112的手掌相对于固定的坐标系的坐标(位置和方向),则可以估算由主控手112抓握的虚拟物体的位置和方向。 [0142] 以这种方式,当坐标变换单元(未示出)将关于照此计算的虚拟物体的相对变化的信息发送到抓握控制单元122时,抓握控制单元122根据虚拟物体的相对变化确定机器人手臂5的动作和机器人手1的动作。 [0143] 尽管根据本公开实施例的坐标变换单元(未示出)在由用户操纵的主控装置110处得到虚拟物体的位置和方向,但是本公开不限于此。根据另一实施例,可以在从属装置120处得到虚拟物体的位置和方向,并且可以将与得到的位置和方向有关的数据发送到抓握控制单元122。 [0144] 例如,主控装置110的主控手112可以用从属装置120的机器人手1来替代。因此,坐标变换单元(未示出)可以根据机器人手1的实际手指尖的位置得到虚拟手指尖的位置,可以根据虚拟手指尖的位置得到虚拟物体的中心位置,并且可以基于得到的虚拟物体的中心位置估算由机器人手1抓握的虚拟物体的位置和方向。坐标变换单元(未示出)可以将关于虚拟物体的相对变化的信息发送到抓握控制单元122。 [0145] 图6是示出根据本公开的一个实施例的机器人的控制方法的流程图。 [0146] 在下文中,参照图1至图6描述根据本公开的一个实施例的机器人的控制方法。 [0147] 抓握传感器单元125b可以使机器人手1能够感测物体(200)。 [0148] 抓握控制单元122基于从抓握传感器单元125b得到的抓握信息来确定机器人手1是否抓握了物体(210)。 [0149] 如果确定机器人手1没有抓握物体,则抓握控制单元122将参考坐标变换成独立坐标(220),所述独立坐标被构造成独立地控制机器人手1和机器人手臂5。 [0150] 抓握控制单元122可以独立地控制机器人手臂5和机器人手1(230)。 [0151] 即,抓握控制单元122可以将用户的手臂的坐标信息和用户的手指的坐标信息分别发送到机器人手臂5和机器人手1。 [0152] 如果确定机器人手1抓握了物体,则抓握控制单元122将参考坐标变换成基于物体的坐标(240),所述基于物体的坐标被构造成基于虚拟物体的动作来控制机器人手1和机器人手臂5。 [0154] 当用户按照根据实施例的控制方法来控制从属装置120时,抓握控制单元122可以识别抓握物体和执行任务的时间点,可在该时间点之后分析用户操纵虚拟物体的意图,并可产生与所述意图对应的命令。 [0155] 因此,将用户通过有机地移动手臂和手而工作的意图施加到从属装置120的抓握和操纵任务,从而提高了工作效率。 [0156] 在将参考坐标变换成基于物体的坐标之后,对于用户的详细动作,通过利用预定刚度或超过预定刚度的刚度,抓握控制单元122防止用户的动作被再现,从而机器人手1不会错失物体并维持抓握物体的状态(250)。 [0157] 然而,如果用户通过克服预定大小的力而移动以释放物体并因此不能满足抓握的必要条件,则抓握控制单元122可以将参考坐标变换成独立坐标,所述独立坐标被构造成将用户的手的坐标和手臂的坐标分别发送到机器人手和机器人手臂。 [0158] 坐标变换单元(未示出)可以根据从位置传感器单元114发送的位置信息来计算主控手112的实际手指的位置和虚拟手指的位置(260和270)。位置传感器单元114可以通过安装在主控手112和主控手臂113上的传感器(例如,译码器)来感测主控手112的位置和主控手臂113的位置,并可将与位置相关的信息发送到坐标变换单元。 [0159] 在这种情况下,位置传感器单元114可以将主控手112的每个实际手指尖的位置信息发送到坐标变换单元(未示出)。 [0160] 再次参照图4,主控手112的实际手指尖的位置可以分别表示为P1、P2、P3、P4和P5。 [0161] 坐标变换单元(未示出)可以将第一虚拟手指尖的位置Pv1设置为主控手112的第一实际手指尖的位置P1。可以将第二虚拟手指尖的位置Pv2设置为第二实际手指尖的位置P2至第五实际手指尖的位置P5的中心Pv2。 [0162] 在这种情况下,第一虚拟手指尖的位置Pv1以一一对应的方式映射到第一实际手指尖的位置P1。另外,第二虚拟手指尖的位置Pv2以一对应于四的方式映射到第二实际手指尖的位置P2至第五实际手指尖的位置P5。 [0163] 之后,得到在第一虚拟手指尖的位置Pv1和第二虚拟手指尖的位置Pv2之间的中心位置。得到的中心位置可被称为虚拟物体的中心位置Pc。 [0164] 尽管可以关于第二虚拟手指尖的位置Pv2是第二实际手指尖的位置P2至第五实际手指尖的位置P5的中心位置的情况对根据实施例的主控手112进行描述,但是本公开不限于此。根据另一实施例,第二虚拟手指尖的位置Pv2可以指的是邻近于第二实际手指尖的位置P2至第五实际手指尖的位置P5中的一个的位置。 [0165] 尽管可以关于将第二实际手指尖的位置P2至第五实际手指尖的位置P5转换成单个虚拟手指尖的位置Pv2的情况对根据实施例的主控手112进行描述,但是本公开不限于此。根据另一实施例,可以将至少一个实际手指尖的位置转换成单个虚拟手指尖的位置Pv2。 [0166] 之后,坐标变换单元(未示出)可以计算虚拟物体的位置和方向(280)。 [0167] 可以通过数学公式1至11得到虚拟物体的中心位置Pc和方向矢量。 [0168] 在数学公式1至11中计算的虚拟物体的中心位置Pc的坐标是基于固定到主控手112的手掌的坐标系计算的结果。 [0169] 因此,如果连同以上一起计算主控手112的手掌相对于固定的坐标系的坐标(位置和方向),则可以估算由主控手112抓握的虚拟物体的位置和方向。 [0170] 另外,当坐标变换单元(未示出)将关于计算的虚拟物体的相对变化的信息发送到抓握控制单元122时,抓握控制单元122根据虚拟物体的相对变化产生移动机器人手臂5和机器人手1的命令(290)。 [0171] 尽管根据本公开实施例的坐标变换单元(未示出)在由用户操纵的主控装置110处得到虚拟物体的位置和方向,但是本公开不限于此。根据另一实施例,可以在从属装置120处得到虚拟物体的位置和方向,并且可以将与得到的位置和方向相关的数据发送到抓握控制单元122。 [0172] 例如,可以用从属装置120的机器人手1来替代主控装置110的主控手112。因此,坐标变换单元(未示出)可以根据机器人手1的实际手指尖的位置得到虚拟手指尖的位置,可根据虚拟手指尖的位置得到虚拟物体的中心位置,并可基于得到的虚拟物体的中心位置估算由机器人手1抓握的虚拟物体的位置和方向。坐标变换单元(未示出)可以将关于虚拟物体的相对变化的信息发送到抓握控制单元122。 [0173] 图7是示出在根据本公开实施例的机器人的控制方法中被构造成根据基于物体的坐标控制机器人手臂和机器人手的部分的流程图。 [0174] 抓握控制单元122可以确定从主控装置110传送的虚拟物体的坐标的相对变化(运动)是平移运动、旋转运动还是抓握运动(291)。 [0175] 在下文中,X轴、Y轴和Z轴分别表示根据基于物体的坐标的X轴、Y轴和Z轴。 [0176] 首先,在下文中,将描述根据本公开实施例的平移运动。抓握控制单元122可以确定虚拟物体的平移运动是否是在基于物体的坐标的XY平面上的平移运动(292a)。 [0177] 参照图4,机器人手1难以表现在基于物体的坐标的XY平面上的平移运动。因此,如果虚拟物体的平移运动是在基于物体的坐标的XY平面上的平移运动,则抓握控制单元122将在XY平面上的平移运动转换成机器人手臂的端部的坐标的平移运动(293a)。 [0178] 相反,如果确定虚拟物体的平移运动不是基于物体的坐标的XY平面上的平移运动,则抓握控制单元122可以确定机器人手1是否能够执行Z轴方向的平移运动(294a)。 [0179] 即,如果沿Z轴方向的平移的变化小或者机器人手1能够执行Z轴方向的平移运动,则抓握控制单元122可以将虚拟物体的平移运动转换成机器人手1的平移运动(295a)。 [0180] 例如,如果沿Z轴方向的平移的变化小,机器人手1能够在相对于物体维持抓握表面的状态下执行Z轴方向的平移运动,或者机器人手指当前的关节形态呈现出在工作空间内占有足够的区域,则抓握控制单元122可以将虚拟物体的平移运动转换成机器人手1的手指的运动。 [0181] 然而,如果沿Z轴方向的平移的变化大,或者机器人手1不能执行Z轴方向的平移运动,则抓握控制单元可以将平移运动转换成机器人手臂5的端部的坐标的平移运动(293a)。 [0182] 例如,如果沿Z轴方向的平移的变化大,机器人手1不能在相对于物体维持抓握表面的状态下执行Z轴方向的平移运动,或者即使当机器人手1能够执行相应的平移运动时机器人手指也难以在当前的关节形态下运动,则抓握控制单元可以将虚拟物体的平移运动转换成机器人手臂5的端部的坐标的平移运动。 [0184] 在下文中,将描述根据本公开实施例的旋转运动。 [0185] 抓握控制单元122可以确定虚拟物体的旋转运动是否是绕X轴或Y轴的旋转运动(292b)。 [0186] 再次参照图4,机器人手1难以表现绕X轴或Y轴的旋转运动。因此,抓握控制单元122将虚拟物体的旋转运动转换成机器人手臂的端部的坐标的旋转运动(293b)。 [0187] 相反,如果确定虚拟物体的旋转运动不是绕X轴或Y轴的旋转运动,则抓握控制单元122可以确定机器人手1是否能够执行Z轴方向的旋转运动(294b)。 [0188] 如果机器人手1能够执行绕Z轴的旋转运动,则抓握控制单元122将虚拟物体的旋转运动转换成机器人手1的旋转运动(295b)。 [0189] 例如,如果绕Z轴方向的旋转的变化小,机器人手1能够在相对于物体维持抓握表面的状态下执行Z轴方向的旋转运动,或者机器人手指当前的关节形态呈现出在工作空间内占有足够的区域,则抓握控制单元122可以将虚拟物体的旋转运动转换成机器人手1的手指的运动。 [0190] 相反,如果机器人手1不能执行绕Z轴的旋转运动,则抓握控制单元122可以将虚拟物体的旋转运动转换成机器人手臂5的端部的坐标的旋转运动(293b)。 [0191] 例如,如果绕Z轴方向的旋转的变化大,机器人手1不能在相对于物体维持抓握表面的状态下执行Z轴方向的旋转运动,或者即使当机器人手1能够执行相应的旋转运动机器人手指也难以在当前的关节形态下运动,则抓握控制单元可以将虚拟物体的旋转运动转换成机器人手臂5的端部的坐标的旋转运动。 [0192] 以这样的方式,抓握控制单元122可以连同抓握控制算法一起使涉及抓握运动的手指尖能够绕Z轴进行圆周运动。 [0193] 在下文中,将描述根据本公开实施例的抓握运动。 [0194] 如果确定发送的虚拟物体的坐标的相对变化是抓握运动,则抓握控制单元122执行抓握控制(293c)。 [0195] 抓握运动可以包括像人一样展开和合拢手指的动作。例如,抓握运动可以包括从准备抓握控制开始到实际抓握物体的动作、在抓握状态下张开手以释放物体的动作或者更用力抓握物体的动作。 [0196] 将参照图8详细描述抓握控制。 [0197] 图8是根据本公开的一个实施例的从五个实际的手指尖转换成两个虚拟的手指尖的机器人手的透视图。 [0198] 参照图8,可以将机器人手1的实际的手指尖的位置分别表示为P1'、P2'、P3'、P4'和P5'。 [0199] 首先,第一虚拟手指尖的位置Pv1'可以被设置为第一实际手指尖的位置P1'。第二虚拟手指尖的位置Pv2'可以被设置为第二实际手指尖的位置P2'至第五实际手指尖的位置P5'的中心Pv2'。 [0200] 在这种情况下,机器人手1的第一虚拟手指尖的位置Pv1'以一一对应的方式映射到第一实际手指尖的位置P1'。另外,第二虚拟手指尖的位置Pv2'以一对应于四的方式映射到第二实际手指尖的位置P2'至第五实际手指尖的位置P5'。 [0201] 之后,得到在第一虚拟手指尖的位置Pv1'和第二虚拟手指尖的位置Pv2'之间的中心位置。得到的中心位置可以被称为虚拟物体的中心位置Pc'。 [0202] 当机器人手1的第一虚拟手指尖和第二虚拟手指尖基于虚拟物体的中心位置Pc'朝着虚拟物体的中心位置Pc'移动时,抓握所述虚拟物体(未示出)。 [0203] 当机器人手1的第一虚拟手指尖和第二虚拟手指尖基于虚拟物体的中心位置Pc'朝着虚拟物体的中心位置Pc'移动时,第一虚拟手指尖和第二虚拟手指尖移动,同时在第一虚拟手指尖的位置Pv1'和第二虚拟手指尖的位置Pv2'之间保持相对位置关系,使得虚拟物体的中心位置Pc'不变。 [0204] 另外,当机器人手1的第二虚拟手指尖相对于虚拟物体的中心位置Pc'移动时,实际手指尖的位置P2'至P5'可以移动,同时关于第二虚拟手指尖的位置Pv2'保持相对位置关系。 [0205] 例如,可以按照与上面相同的方式来操作张开手以释放物体的动作以及在抓握状态下更用力抓握物体的动作。 [0206] 尽管可以关于第二虚拟手指尖的位置Pv2'是第二实际手指尖的位置P2'至第五实际手指尖的位置P5'的中心位置的情况对根据实施例的机器人手1进行描述,但是本公开不限于此。根据另一实施例,第二虚拟手指尖的位置Pv2'可以指的是邻近于第二实际手指尖的位置P2'至第五实际手指尖的位置P5'中的一个的位置。 [0207] 尽管可以关于将第二实际手指尖的位置P2'至第五实际手指尖的位置P5'转换成单个虚拟手指尖的位置Pv2'的情况对根据实施例的机器人手1进行描述,但是本公开不限于此。根据另一实施例,可以将至少一个实际手指尖的位置转换成单个虚拟手指尖的位置Pv2'。 |