首页 / 专利库 / 物理 / 加速 / 向心加速度 / 基于确定学习理论的机器人行走控制方法

基于确定学习理论的机器人行走控制方法

阅读:43发布:2020-10-12

专利汇可以提供基于确定学习理论的机器人行走控制方法专利检索,专利查询,专利分析的服务。并且一种基于确定学习理论的 机器人 行走控制方法。该方法包括建立机器人行走的模型、建立参考步态模型、神经网络的学习、建立常数神经网络和利用常数RBF神经网络完成行走任务等过程,克服了已有神经网络学习与控制方法在学习能 力 上的不足,能够实现对机器人闭环控制系统未知动力学模型沿机器人所经历周期步态轨迹在局部区域内的准确学习;能够在稳定的动态控制过程中学习到系统动力学的有效知识,并将其成功地应用到后续的相同或相似的任务当中去。该方法能够在节约 能量 的 基础 上实现快速步行,并为拟人机器人的发展提供了有力的 支撑 。,下面是基于确定学习理论的机器人行走控制方法专利的具体信息内容。

1、一种基于确定学习理论的机器人行走控制方法,其特征在于包括如下步骤:
(1)建立机器人行走的模型:建立以机器人关节位置以及关节角的角加速度作为 状态变量的机器人行走模型,该模型包括已知的动学模型、未知的动力学模型和有界的 干扰;
(2)建立参考步态模型:建立一个参考步态模型,来产生期望周期步态轨迹,并作为 机器人各个状态变量的跟踪信号
(3)神经网络的学习:根据步骤(1)建立的机器人行走的模型和步骤(2)建立的参 考步态模型建立自适应控制器,并嵌入RBF神经网络,根据李亚普诺夫稳定性理论调节 RBF神经网络的权值,实现机器人步态轨迹对期望周期步态轨迹跟踪,以及RBF神经网络 对机器人系统中的未知动力学模型的逼近;
(4)建立常数神经网络:根据确定学习理论,沿机器人系统轨迹的RBF神经网络的 神经元满足持续激励条件,其权值收敛到最优值,取权值收敛后的一段时间内各权值的均 值作为学习训练结果,并利用这些结果建立常数神经网络;
(5)利用常数神经网络完成行走任务:采用步骤(3)所述的自适应控制器,并用步 骤(4)所述常数神经网络来代替步骤(3)中自适应控制器的RBF神经网络,实现机器人 步态轨迹对期望周期步态轨迹的跟踪,所述常数神经网络用来消除未知动力学模型的影响, 提高机器人步态轨迹对期望周期步态轨迹的跟踪精度
2、根据权利要求1所述的方法,其特征在于步骤(1)中所述机器人行走模型包括单 足支撑阶段模型和落地阶段模型,
单足支撑阶段模型为:
X . 1 = X 2 X . 2 = - M ( q ) - 1 ( C m ( q , q . ) q . + Cg ( q ) + F ( q . ) + τ d . ) + M ( q ) - 1 τ n ,
其中,X1=q, X 2 = q , . q=[q1,q2,q3,q4,q5]T,q1~q5表示各关节点的关节角; q . = [ q . 1 , q . 2 , q . 3 , q . 4 , q . 5 ] T 是关节角加速度向量,为摩擦项,是未知的动力学模型;τd为未 知有界干扰;τ″为输入力矩,M(q)是惯性矩阵,是向心矩阵,C是重力矩阵,g(q) 是重力向量;
落地阶段模型为: q . + = q . - + M - 1 ( q ) J T ( J M - 1 ( q ) J T ) - 1 ( - X . sw - ) ,
其中, J = X sw q , Xsw=[xsw,zsw]T,xsw,zsw为机器人舞动腿末端的轨迹位置,机器人舞 动腿末端的轨迹位置,为舞动腿碰撞地面之前的瞬时速度,和分别为碰撞地面前 后的关节角速度
3、根据权利要求1所述的方法,其特征在于步骤(2)中所述参考步态模型由以下模 型表征:
x a = a π [ 2 π T s t - sin ( 2 π T s t ) ] - a
z a = d 2 [ 1 - cos ( 2 π T s t ) ]
x h = 1 2 x a + a 2 - a
z h = 1 2 x a + l 1 + l 2 - d 2 ,
其中,t表示时间,xa、za为舞动腿末端的坐标,xh、zh代表机器人臀部的坐标位置, a为半步长,d为舞动腿抬脚的最大高度,l1、l2为舞动腿两连杆的长度,Ts是完成一次步态 行走期望的时间。
4、根据权利要求2所述的方法,其特征在于步骤(3)中所述自适应控制器如下:
τ = - Z 1 - c 2 Z 2 + C m ( q , q . ) q . + Cg ( q ) + F d ( q . ) + M ( q ) α . 1 + W ^ T S ( Z ) , 其中,
Z1=X1-Xd1
α 1 = - c 1 Z 1 + X . d 1
Z2=X2-α1
α . 1 = - c 1 X 2 + c 1 X . d 1 + X . . d 1 ,
Xd1是参考步态模型的状态向量,是Xd1的导数,是的导数,c1,c2是自适应控制器 的反馈增益, F d ( q . ) = K d sgn ( q . ) , Kd=diag(ki)代表已知动摩擦,表示神经网络, 是神经网络权值向量,S(Z)是高斯函数。
5、根据权利要求4所述的方法,其特征在于步骤(3)所述RBF神经网络的神经元的 中心点均匀分布于机器人步态轨迹所在的状态空间里,其初始值均为零,RBF神经网络权 值的调节律如下:
W ^ . = Γ [ - S ( Z ) Z 2 T - σ W ^ ] ,
其中Γ、σ是调节律的调节参数,Γ>0,σ>0。
6、根据权利要求4所述的方法,其特征在于步骤(3)中期望周期步态轨迹规定了每 一步的时间,若机器人舞动腿在期望的步态时间内并没有着地,则引入额外的比例微分控 制器,
所述比例微分控制器由如下式子表征:
τ = - Z 1 - c 2 Z 2 + C m ( q , q . ) q . + Cg ( q ) + F d ( q . ) + M ( q ) α . 1 + W ^ T S ( Z ) - K p ( Z 1 + K v Z . 1 )
其中,代表了在期望的一步时间末端时刻的神经网络权值向量,Kp,Kv是比例微 分控制器的控制参数。
7、根据权利要求4所述的方法,其特征在于步骤(3)所述的自适应控制器根据机器 人步态轨迹对期望周期步态轨迹的跟踪误差的大小选择反馈增益c1,c2,跟踪误差越大,则 所选择的反馈增益越大,所述反馈增益用来抑制系统未知动力学和干扰的影响,使得机器 人步态轨迹对期望周期步态轨迹的跟踪误差在设定的范围内。
8、根据权利要求1所述的方法,其特征在于步骤(4)所述常数神经网络的权值选取 方式由如下式子表征:
W = mean t [ t a , t b ] W ^ ( t )
其中,[ta,tb]代表神经网络权值在完成向其最优值收敛的过渡过程之后的一个时间段, 为神经网络权值向量,所述常数神经网络是经验知识的表达方式,能够在沿步态轨迹 的局部区域里逼近机器人系统中的未知动力学模型。

说明书全文

技术领域

发明涉及一种拟人的机器人行走控制方法,具体是指基于确定学习理论的机器人步 态学习与控制方法。

背景技术

在科学技术高度发展的今天,机器人系统在诸多领域得到了越来越广泛的应用,如医 疗,工业,等。随着机器人系统的广泛应用,智能化、人性化成为其发展的一个重要方向。 双足机器人的步态控制是机器人控制领域的一个热点问题。双足机器人本身固有的不稳定 性,高阶耦合动学特性以及其步态的多阶段性,导致了其步行控制是一个具有很大挑战 性的课题。
随着神经计算科学的发展,神经网络已经在分类问题、模式识别、数字信号处理等许 多领域取得了很大的成就。目前关于神经网络拓扑结构的选择以及神经网络权值的调整都 已经有了严格的理论分析方法。鉴于神经网络的学习能力以及它与非线性系统理论中一系 列已经发展成熟的工具的融合能力,基于神经网络的控制方法在机器人领域被广泛研究。
基于神经网络的通用逼近性(学习能力),几种神经网络控制方法在机器人这个具有不 确定性的高度非线性系统中应运而生,包括:基于神经网络的逆运动学控制方法,基于模 糊神经网络产生双足机器人稳定步态的方法,基于模糊神经网络及H∞控制的机器人步态 跟踪混合控制方法,间接自适应神经网络控制方法,以及直接自适应神经网络控制方法等 等。
自适应控制从上个世纪50年代发展到今天,已经成为一个十分活跃的研究领域。尽管 线性系统的自适应控制领域已经趋于成熟,但是传统的自适应控制方法对于解决非线性自 适应控制问题仍存在一定的困难。自适应神经网络的提出为解决这一难题开辟了蹊径。神 经网络与自适应控制方法的结合使自适应控制领域的发展迈向了一个新的台阶。
目前,自适应神经网络控制日趋成熟并取得了很大的成绩,如,在保证系统稳定性方 面有着越来越严格的系统化的理论分析。合理设计的稳定自适应神经网络在机器人控制中, 有着很大的优越性,如,在不需要系统精确的动力学模型的情况下,神经网络控制器仍能 够在线实时地应对系统的变化,并能保证闭环系统的稳定。与传统的自适应控制方法相比, 神经网络自适应控制方法并不需要像传统自适应控制方法一样计算复杂的递归矩阵。
人工神经网络这种有效的模型逼近器已经在机器人步态行走控制中得到广泛的应用。 已有的基于人工神经网络的机器人行走控制方法大都以利用神经网络的通用逼近性为出发 点,采用神经网络来逼近机器人系统未知动力学模型。基于人工神经网络的通用逼近性, 所提控制方法可以不依赖于系统的动力学模型,因而在系统存在未知动力学模型的情况下 仍然可以达到控制目的。神经网络估计参数(即神经网络权值)的收敛性与持续激励条件 的满足息息相关。然而,人工神经网络隐含层输出递归向量的持续激励条件的满足是一件 很困难的事情。已有的神经网络机器人行走控制方法没有对持续激励条件的满足进行深入 的研究,因而在已有的控制方法中通用逼近性的实现实际上并没有得到保证,神经网络的 学习能力是相当有限的。这导致了在已有的控制策略中,即使是对于完全相同的步态跟踪 控制任务,神经网络都需要重复冗余而繁琐的训练过程。机器人神经网络行走控制问题中, 随着机器人系统复杂性的提高,神经网络的规模会相应的增大。神经网络的重复训练过程 将涉及到庞大的计算量,从而造成时间及能量的浪费。
对于许多实际系统而言,其固有的动态性能以及系统本身的确定性决定了它更希望有 一种具有确定性的学习策略来对其进行控制。确定学习提供了一种动态的确定性的学习策 略。确定性学习理论的命名是相对于随机理论而言的,它源于自适应控制理论。
确定学习理论具有如下主要特点,使得它能够有效地应用于机器人系统的学习控制当 中(Wang C.and Hill D.J..Learning From Neural Control[J].IEEE Transactions on Neural Networks,2006,17(1):130-145):
(1)径向基函数的采用;
(2)反馈闭环控制系统中部分持续激励条件的满足;
(3)在动态的闭环控制过程中实现真正意义上的学习;
(4)闭环系统控制性能的提高。
期望步态轨迹是控制机器人行走的参考信号,直接关系到机器人步态跟踪控制系统的 稳定性。机器人稳定步态的产生有几种方式:如基于傅立叶展开及遗传算法,基于零力矩 点方法,基于人类的行走模式等等。

发明内容

本发明的目的在于克服上述已有方法在学习能力上的不足,提供一种基于确定学习理 论的机器人行走控制方法,利用一种确定性的动态的学习方法(确定学习方法)来完成对 机器人系统的行走控制,该方法能在节约能量的基础上实现机器人快速步行。
本发明的目的通过以下步骤实现:
一种基于确定学习理论的机器人行走控制方法,包括如下步骤:
(1)建立机器人行走的模型,建立以机器人关节位置以及关节角的角加速度作为 状态变量的机器人行走模型,该模型包括已知的动力学模型、未知的动力学模型和有界的 干扰;(2)建立参考步态模型,建立一个参考步态模型,来产生期望周期步态轨迹,并作 为机器人各个状态变量的跟踪信号;(3)神经网络的学习,根据步骤(1)建立的机器人行 走的模型和步骤(2)建立的参考步态模型建立自适应控制器,并嵌入RBF神经网络,根 据李亚普诺夫稳定性理论调节RBF神经网络的权值,实现机器人步态轨迹对期望周期步态 轨迹跟踪,以及RBF神经网络对机器人系统中的未知动力学模型的逼近;(4)建立常数神 经网络,根据确定学习理论,沿机器人系统轨迹的RBF神经网络的神经元满足持续激励条 件,其权值收敛到最优值,取权值收敛后的一段时间内各权值的均值作为学习训练结果, 并利用这些结果建立常数神经网络;(5)利用常数RBF神经网络完成行走任务,采用步骤 (3)所述的自适应控制器,并用步骤(4)所述常数RBF神经网络来代替步骤(3)中自 适应控制器的RBF神经网络,实现机器人步态轨迹对期望周期步态轨迹的跟踪,所述常数 RBF神经网络用来消除未知动力学模型的影响,提高机器人步态轨迹对期望周期步态轨迹 的跟踪精度
上述方法中,步骤(1)中所述模型包括单足支撑阶段模型和落地阶段模型,
单足支撑阶段模型为:
X · 1 = X 2 X · 2 = - M ( q ) - 1 ( C m ( q , q · ) q · + Cg ( q ) + F ( q · ) + τ d ) + M ( q ) - 1 τ ,
其中,X1=q,关节角位置向量q=[q1,q2,q3,q4,q5]T;是关节 角加速度向量,为摩擦项,是未知的动力学模型;τd为未知有界干扰;τ为输入力矩, M(q)是惯性矩阵,是向心矩阵,C是重力矩阵,g(q)是重力向量;
落地阶段模型为: q · + = q · - + M - 1 ( q ) J T ( JM - 1 ( q ) J T ) - 1 ( - X · sw - ) ,
其中,Xsw=[xsw,zsw]T为机器人舞动腿末端的轨迹位置,为舞动腿碰撞 地面之前的瞬时速度,和分别为碰撞地面前后的关节角速度
上述方法中,步骤(2)中所述参考步态模型由以下模型表征:
x a = a π [ 2 π T s t - sin ( 2 π T s t ) ] - a
z a = d 2 [ 1 - cos ( 2 π T s t ) ]
x h = 1 2 x a + a 2 - a
z h = 1 2 x a + l 1 + l 2 - d 2 ,
其中,t表示时间,xa、za为舞动腿末端的坐标,xh、zh代表机器人臀部的坐标位置, a为半步长,d为舞动腿抬脚的最大高度,l1、l2为舞动腿两连杆的长度,Ts是完成一次步态 行走期望的时间。
上述方法中,步骤(3)中所述自适应控制器如下:
τ = - Z 1 - c 2 Z 2 + C m ( q , q · ) q · + Cg ( q ) + F d ( q · ) + M ( q ) α · 1 + W ^ T S ( Z ) , 其中,
Z1=X1-Xd1
α 1 = c 1 Z 1 + X · d 1
Z2=X2-α1
α · 1 = - c 1 X 2 + c 1 X · d 1 + X · · d 1 ,
Xd1是参考步态模型的状态向量,是Xd1的导数,是的导数,c1,c2是自适应控制器 的反馈增益,表示神经网络,是神经网络权值向量,S(Z)是高斯函数。
上述方法中,步骤(3)所述RBF神经网络的神经元的中心点均匀分布于机器人步态 轨迹所在的状态空间里,其初始值均为零,RBF神经网络权值的调节律如下:
W ^ · = Γ [ - S ( Z ) Z 2 T - σ W ^ ] ,
其中Γ、σ是调节律的调节参数,Γ>0,σ>0。
上述方法中,步骤(3)中期望步态轨迹规定了每一步的时间,若机器人舞动腿在期望 的步态时间内并没有着地,则引入额外的比例微分控制器,
所述比例微分控制器由如下式子表征:
τ = - Z 1 - c 2 Z 2 + C m ( q , q · ) q · + Cg ( q ) + F d ( q · ) + M ( q ) α · 1 + W ^ T S ( Z ) - K p ( Z 1 + K v Z · 1 )
其中,代表了在期望的一步时间末端时刻的神经网络权值向量,Kp,Kv是比例微 分控制器的控制参数。
上述方法中,步骤(3)所述的自适应控制器根据机器人步态轨迹对期望周期步态轨迹 的跟踪误差的大小选择反馈增益c1,c2,跟踪误差越大,则所选择的反馈增益越大,所述反 馈增益用来抑制系统未知动力学和干扰的影响,使得机器人步态轨迹对期望周期步态轨迹 的跟踪误差在设定的范围内。
上述方法中,步骤(4)所述常数神经网络的权值选取方式由如下式子表征:
W mea n t [ t a , t b ] W ^ ( t )
其中,[ta,tb]代表神经网络权值在完成向其最优值收敛的过渡过程之后的一个时间段, 所述常数RBF神经网络是经验知识的表达方式,能够在沿步态轨迹的局部区域里逼近机器 人系统中的未知动力学模型。
本发明与现有技术相比具有如下优点和有益效果:(1)所提机器人行走控制方法能够 实现对机器人闭环控制系统未知动力学模型沿机器人所经历周期步态轨迹在局部区域内的 真正学习。这使得了解未知动力学模型的物理特性成为可能。(2)所提机器人行走控制方 法并非无记忆式的依靠重新训练神经网络来实现跟踪控制。它能够在稳定的动态控制过程 中学习到闭环系统中的有效知识,并将这些知识成功地应用到后续的相同或相似的控制任 务当中去。这个知识的再利用过程无需进行冗余的神经网路参数重新调整。在实际应用中, 这在节约时间及能量方面有着很重要的意义
(3)所提机器人行走控制方法为进一步地实现真正意义上的人类的学习能力,如进 步展开基于模式的机器人学习与控制,提供了强有力的支撑。
附图说明
图1为5连杆平面机器人示意图。
图2为神经网络对闭环系统未知动力学模型Fv1的学习阶段的权值收敛的仿真图。
图3为神经网络对闭环系统未知动力学模型Fv2的学习阶段的权值收敛的仿真图。
图4为神经网络对闭环系统未知动力学模型Fv3的学习阶段的权值收敛的仿真图。
图5为神经网络对闭环系统未知动力学模型Fv4的学习阶段的权值收敛的仿真图。
图6为神经网络对闭环系统未知动力学模型Fv5的学习阶段的权值收敛的仿真图。
图7为收敛后的神经网络对闭环系统未知动力学模型Fv1的准确逼近的仿真图。
图8为收敛后的神经网络对闭环系统未知动力学模型Fv2的准确逼近的仿真图。
图9为收敛后的神经网络对闭环系统未知动力学模型Fv3的准确逼近的仿真图。
图10为收敛后的神经网络对闭环系统未知动力学模型Fv4的准确逼近的仿真图。
图11为收敛后的神经网络对闭环系统未知动力学模型Fv5的准确逼近的仿真图。
图12为基于经验知识的控制阶段的神经网络对闭环系统未知动力学模型Fv1的局部准 确逼近的仿真图。
图13为基于经验知识的控制阶段的神经网络对闭环系统未知动力学模型Fv2的局部准 确逼近的仿真图。
图14为基于经验知识的控制阶段的神经网络对闭环系统未知动力学模型Fv3的局部准 确逼近的仿真图。
图15为基于经验知识的控制阶段的神经网络对闭环系统未知动力学模型Fv4的局部准 确逼近的仿真图。
图16为基于经验知识的控制阶段的神经网络对闭环系统未知动力学模型Fv5的局部准 确逼近的仿真图。
图17为基于经验知识的控制阶段的机器人的关节角q1、q2的跟踪情况的仿真图。
图18为基于经验知识的控制阶段的机器人的关节角q3的跟踪情况的仿真图。
图19为基于经验知识的控制阶段的机器人的关节角q4、q5的跟踪情况的仿真图。

具体实施方式

以下结合实施例及附图对本发明作进一步地详细说明,但本发明的具体实施方式不限 于此。
实施例:5连杆平面机器人对期望步态的跟踪控制问题
(1)5连杆平面机器人系统模型
5连杆平面机器人的结构如图1如示,其中x表示机器人前进的距离,z表示高度, m1~m5表示各连杆的质量,l1~l5表示各连杆的长度,q1~q5表示各关节点的关节角,a1~a5表 示各连杆的重心到关节点的距离,xsw,zsw为机器人舞动腿末端的轨迹位置,机器人有5个 连杆组成,在着地的端点和连杆的各个关节点装有传感器来测量关节角位置,控制器来输 出力矩,并通过关节角计算角速度,其行走时的动力学模型如下:
单足支撑阶段模型:
X · 1 = X 2 X · 2 = - M ( q ) - 1 ( C m ( q , q · ) q · + Cg ( q ) + F ( q · ) + τ d ) + M ( q ) - 1 τ
其中,X1=q,关节角位置向量q=[q1,q2,q3,q4,q5]T;为未知的摩擦项;τd为 未知有界干扰;τ为输入力矩。
M(q)={rijcos(qi-qj)+pij};
C m ( q , q · ) = { r ij sin ( q i - q j ) q · i } ;
C=diag{-hi};
g(q)=[sinq1,sinq2,sinq3,sinq4,sinq5]T;
rij,pij,hi,i=1,2,…5,j=1,2,…5取值如下:
(1)rij,i=1,2,…5,j=1,2,…5给出如下:
r 11 = m 1 a 1 2 + ( m 2 + m 3 + m 4 + m 5 ) l 1 2 + I 1 ; r 22 = m 2 a 2 2 + ( m 3 + m 4 + m 5 ) l 2 2 + I 2 ;
r 33 = m 3 a 3 2 + I 3 ; r 44 = m 4 ( l 4 - a 4 ) 2 + m 5 l 4 2 + I 4 ; r55=m5(l5-a5)2+I5;
ri2=m2l1a2+(m3+m4+m5)1l12;r13=m3l1a3;r14=-m4l1(l4-a4)-m5l1l4;
r15=-m5l1(l5-a5);r23=m3l2l3;r24=-m4l2(l4-a4)-m5l2l4;r25=-m5l2(l5-a5);
r34=0;r35=0;r45=m5l4(15-a5);rij=rji,i=1,2,…5,j=1,2,…5.
(2)pij,i=1,2,…5,j=1,2,…5给出如下:
p 11 = p 55 = I M G 1 2 ; p 22 = p 44 = I M ( G 2 2 + G 1 2 - 2 G 1 + 1 ) ; p33=2IM(1-G2)2;
p12=p21=p45=p54=IMG1(1-G1);p23=p32=p34=p43=IMG2(1-G2);
p13=p31=p14=p41=p15=p51=p24=p42=p25=p52=p35=p53=0.
IM为伺服电机转动惯量
G1为膝关节的驱动装置的自动传动比
G2为臀部的驱动装置的自动传动比.
(3)hi,i=1,2,…5给出如下:
h1=(m1a1+m2l1+m3l1+m4l1+m5l1)g;h2=(m2a2+m3l2+m4l2+m5l2)g;
h3=m3a3g;h4=(m4a4-m4l4-m5l4)g;h5=(m5a5-m5l5)g.
m1=0.5kg,m2=0.5kg,m3=0.5kg,m4=0.5kg,m5=0.5kg;
l1=0.14m,l2=0.1m,l3=0.12m,l4=0.1m,l5=0.14m;
a1=0.07m,a2=0.05m,a3=0.06m,a4=0.05m,a5=0.07m;
I1=0.000883kg·m2;I2=0.000483kg·m2,I3=0.000667kg·m2,I4=0.000483kg·m2,I5=0.000883kg.m2;
IM=0.05kg·m2;G1=0.5,G2=0.5;g=9.8m/s2;
F d ( q · ) = diag ( 0.5,0.5,0.5,0.5,0.5 ) * sign ( q · ) ;
落地阶段模型:
假设机器人支撑腿与舞动腿之间的转换在瞬间完成。在这短暂的时间段内,机器人的关节 角位置保持不变,而关节角速度在这一瞬间发生改变。
q · + = q · - + M - 1 ( q ) J T ( J M - 1 ( q ) J T ) - 1 ( - X · sw - )
其中,Xsw=[xsw,zsw]T为舞动腿末端的轨迹位置,为舞动腿碰撞地面之前的 瞬时速度,和分别为碰撞地面前后的关节角速度。
(2)控制目标
在系统含有未知动力学模型的情况下,实现真正的对参考步态的步态跟踪 控制与学习,且像人类的步行行为一样具有一定的应对外界干扰的能力。
本实施例中,一个类似于人类步态的摆线轨迹被作为参考步态,参考步态如以下方程 所描述:
x a = a π [ 2 π T s t - sin ( 2 π T s t ) ] - a
z a = d 2 [ 1 - cos ( 2 π T s t ) ]
x h = 1 2 x a + a 2 - a
z h = 1 2 x a + l 1 + l 2 - d 2
其中,xa、za为舞动腿末端的坐标,xh、zh代表机器人臀部的坐标位置,a为半步长, d为舞动腿抬脚的最大高度,l1、l2如图1所示为每一连杆的长度。基于以上这种简单的方 程,针对不同的环境要求可以地通过改变方程的参数来产生不同的期望步态,Ts是完成一次 步态行走期望的时间。
(3)神经网络学习阶段
神经网络学习阶段暂不考虑干扰项τd,即为零干扰阶段。
本实施例中假设:对于严格设计好的确定性机器人系统,仅仅摩擦含有未知项。
将摩擦项表示为:
F ( q · ) = F d ( q · ) + F v ( q · )
其中,Kd=diag(ki)代表已知动摩擦;为连续的未知粘性摩擦。
采用神经网络逼近未知摩擦项其中,神经网络的输入Z=X2。选取直 接自适应控制器形式如下:
τ = - Z 1 - c 2 Z 2 + C m ( q , q · ) q · + Cg ( q ) + F d ( q · ) + M ( q ) α · 1 + W ^ T S ( Z )
其中,
Z1=X1-Xd1
Z2=X2-α1
α 1 = - c 1 Z 1 + X · d 1
α · 1 = - c 1 X 2 + c 1 X · d 1 + X · · d 1
调节律如下:
W ^ · = Γ [ - S ( Z ) Z 2 T - σ W ^ ]
每一步落地阶段的考虑:
期望轨迹规定了每一步的时间。若舞动腿在期望的步态时间内并没有着地,则引入额 外的比例微分控制器,迫使其着地,即
τ = - Z 1 - c 2 Z 2 + C m ( q , q · ) q · + Cg ( q ) + F d ( q · ) + M ( q ) α · 1 + W ^ T S ( Z ) - K p ( Z 1 + K v Z · 1 )
其中,代表了在期望的一步时间末端时刻的神经网络权值向量。
本实施例中一些主要参数:
系统初始条件
X(0)=[-0.3017,-0.0044,0,0.3159,0.0186,0.0381,-0.0346,0,0.0412,-0.0406]T。
控制器参数
神经网络权值初始值神经网络中心点数N=3×3×3×3×3=243,中心点均匀 地分布在[-22]×[-22]×[-22]×[-22]×[-22]上;c1=2;c2=14;Γ=diag{10};σ=0.001; Kp=diag(7,7,7,7,7);Kv=diag(4,4,4,4,4);
机器人行走训练总步数Nstep=300。
图2~图6所示为神经网络权值的收敛情况,其中,W1~W5分别为5个神经网络的权 值。图2为神经网络对闭环系统未知动力学模型Fv1的学习阶段的权值收敛的仿真图。图3 为神经网络对闭环系统未知动力学模型Fv2的学习阶段的权值收敛的仿真图。图4为神经网 络对闭环系统未知动力学模型Fv3的学习阶段的权值收敛的仿真图。图5为神经网络对闭环 系统未知动力学模型Fv4的学习阶段的权值收敛的仿真图。图6为神经网络对闭环系统未知 动力学模型Fv5的学习阶段的权值收敛的仿真图。特别地,只有部分神经网络的权值收敛。 这与部分持续激励条件的满足是相符合的。
神经网络通用逼近性的实现,即WTS(Z)沿周期步态轨迹对未知摩擦项的逼近情 况如图7~图11所示,Fv1~Fv5分别表示五个关节点对应的粘性摩擦图7为收敛后 的神经网络对闭环系统未知动力学模型Fv1的准确逼近的仿真图。图8为收敛后的神经网络 对闭环系统未知动力学模型Fv2的准确逼近的仿真图。图9为收敛后的神经网络对闭环系统 未知动力学模型Fv3的准确逼近的仿真图。图10为收敛后的神经网络对闭环系统未知动力 学模型Fv4的准确逼近的仿真图。图11为收敛后的神经网络对闭环系统未知动力学模型Fv5 的准确逼近的仿真图。
(4)基于经验知识的控制阶段
基于经验知识的控制阶段考虑外界干扰项τd。
选取

其中,设计矩阵∧为正定对称阵。
对于相同的跟踪任务,在加入了外界干扰τd的情况下,引入控制器
τ = - Z 1 - c 2 Z 2 + C m q · + Cg + F d + M α · 1 + W T S ( Z ) - k D S
此外,考虑到落地问题,为保证步态跟踪性能,当落地问题发生时,与神经网络训练 过程中的落地控制类似,需引入额外的比例微分控制器。
考虑系统存在外部有界干扰τd=[0.4cos(t),0.4exp(-t),2-t,0.1cos(3t),0.5cos(t)]T。
系统具有与神经网络学习阶段不同的初始状态
X(0)=[-0.3491,-0.0175,0,0.2618,0.2695,0.03,-0.03,0,0.05,-0.05]T。
控制器参数
KD=diag(7,7,7,7,7),∧=diag(3,3,3,3,3);其余设计参数与前面的神经网络训练学习阶 段相同。
机器人行走训练总步数Nstep=50。
神经网络WTS(Z)可以沿轨迹对闭环系统未知摩擦项完成准确的逼近,如图12~图16 所示。系统的步态跟踪性能如图17~图19所示,其中q1~q5表示各关节点的关节角,图17 为基于经验知识的控制阶段的机器人的关节角q1、q2的跟踪情况的仿真图。图18为基于经 验知识的控制阶段的机器人的关节角q3的跟踪情况的仿真图。图19为基于经验知识的控制 阶段的机器人的关节角q4、q5的跟踪情况的仿真图。从图17~图19可以看到在很短的时间 内(Nstep=50;Nstep=300)系统便能够完成很好的跟踪。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈