基于视觉图像的全向移动机器人轨迹跟踪控制研究

2023-04-26 08:38梁倍源
计算机测量与控制 2023年4期
关键词:线速度移动机器人轨迹

梁倍源,杨 瀚

(1.广西工业职业技术学院 智能制造学院,南宁 530001 ;2.广西大学 电气工程学院,南宁 530004)

0 引言

视觉图像技术具有效率和准确性高、鲁棒性强的特点,在跟踪目标对象行进轨迹时能够得到更加稳定且可靠的识别结果。其中,效率高表现在控制系统可以对目标节点进行连续跟踪,所得图像更符合人眼视觉标准,故而在图像帧采集方面的运行速率远高于其他类型的系统[1]。准确性高则是指利用视觉图像技术所采集到的跟踪图像始终具有较高的精度水平,随着目标对象运动范围的扩大,跟踪误报率与错报率指标的值不会发生显著变化。鲁棒性强是指目标跟踪过程相对稳定,即便是在外界环境较为复杂的跟踪环境下,视觉图像技术依然能够对目标对象行进节点进行准确标注,不但解决了因图像模糊而造成的跟踪失准问题,还可以最大程度上保障所得图像的真实性,为目标图像的后续加工与处理提供了便利[2]。

移动机器人是一种自动化机器装置,既能够接受主机的指挥与控制,也可以自主运行预先编排好的程序,在特定工作环境下若控制主机中寄存了自动判别指令,移动机器人则可以根据外界环境的具体情况,自主执行后续任务[3]。全向移动机器人是一种特殊的移动机器人设备,由于其运动方式不受到外界环境的影响,故而其运动位移可能覆盖当前空间环境中的所有行进方向。由于实际运动环境与理想化环境不可能完全相同,所以机器人实际轨迹曲线也就不能与期望轨迹曲线完全贴合。

针对这一问题,文献[4]提出基于Udwadia-Kalaba轨迹跟踪控制方法,该方法根据牛顿力学求解机器人运动表达式,又通过分解控制力矩的方式,实现对机器人轨迹节点的约束与跟踪控制。文献[5]提出了一种基于backstepping方法的移动机器人轨迹跟踪控制方法。该方法主要利用牛顿-欧拉公式对于机器人动力学进行了建模分析,并对所构建的动力学模型进行解耦处理,利用backstepping方法对于机器人进行跟踪与控制。文献[6]提出了一种基于萤火虫算法的移动机器人最优轨迹跟踪控制方法。该方法利用相关参数搭建移动机器人运动学模型,并结合机器人位置与姿态方程设置避障路径跟踪的目标函数,利用萤火虫算法对目标函数进行优化求解,利用PD控制律实现移动机器人跟踪可控制。

然而上述方法并不能完全符合准确跟踪机器人轨迹节点的实际应用需求,无法将实际轨迹曲线与期望轨迹曲线间的拟合误差控制在既定数值标准之内。为解决该问题,设计基于视觉图像的全向移动机器人轨迹跟踪控制方法。

1 机器人移动轨迹的数学模型

为实现对全向移动机器人轨迹的跟踪与控制,可以根据滑模变结构控制原理,求解运动学与动力学数学模型,本章节将针对这一内容展开研究。

(1)

由于全向移动机器人运动行为具有多样性,所以运动学数学模型的求解数值也并不唯一,但同一类运动行为所对应的数学模型求解结果则完全相等。

(2)

相较于运动学数学模型,动力学数学模型间接影响了全向移动机器人的运动行为,在对轨迹节点进行跟踪与控制时,可以通过控制电机设备转速水平的方式使整条运动轨迹保持相对平滑的状态[10]。

2 基于视觉图像的机器人轨迹节点跟踪

在机器人移动轨迹数学模型的基础上,为实现对轨迹节点的实时跟踪与控制,还需按照运动图像分割、目标节点分离、运动特征提取的处理流程,完成对全向移动机器人运动视觉图像的分析与研究。

2.1 运动图像分割

运动图像分割就是将一个完整且连续的全向移动机器人运动图像划分成多个独立但不连贯的次级图像,但出于完整性考虑,要求分割后图像必须能够准确反映出全向移动机器人的轨迹运动趋势[11]。

(3)

式中,φ表示轨迹线速度的运动学跟踪向量,γ表示轨迹线速度的动力学跟踪向量。为使机器人运动轨迹不发生明显偏移,φ>0、γ>0的不等式条件同时成立,且当φ=γ时,表示机器人运动轨迹的运动学分量与动力学分量完全相等。

2.2 目标节点分离

跟踪全向移动机器人轨迹路径时,保证主机所掌握的视觉图像是完整的,虽然经过分割处理后轨迹运动趋势能够表现得更加明显,但在图像样本相对比较稀疏的情况下,密集排列的轨迹节点极易出现相互覆盖或遮挡的问题,这就会造成控制主机的辨别困难,从而使得轨迹跟踪的准确性受到影响[13]。目标节点分离也叫目标样本分离,在分离处理原则的作用下,密集排列区域内的重复覆盖节点可以被筛选出来,控制主机可以利用这些筛选出来的节点对象建立一个独立的样本集合,一方面可以保证全向移动机器人原始运动图像的完整性,另一方面也可以突出密集排列区域内轨迹节点参量的分布特征,从而实现对机器人轨迹节点的准确跟踪与控制[14]。设A表示机器人运动图像的分割次数,其取值范围是(1,e),m表示轨迹节点提取特征,κ表示轨迹节点的密集性度量系数,λ表示节点分离标准参量。全向移动机器人轨迹目标节点的分离目标函数B满足式(4):

(4)

分离目标节点对象时,要求全向移动机器人轨迹核心标记点所处位置不能发生改变。

2.3 运动特征提取

运动特征影响全向移动机器人轨迹节点的排列形式。在处理视觉图像时,控制主机可以根据运动特征提取表达式判断机器人的实际运动状态,当既定区域内的目标节点完全分离后,运动特征参量的累积形式直接决定了主机元件对轨迹节点对象的跟踪与控制能力[15-16]。设ρ表示分离区域内目标节点的分布密度,ι、κ表示两个随机选取的视觉图像划分权值,且ι≠κ的不等式条件恒成立,dι表示机器人运动轨迹标记特征,dκ表示机器人运动轨迹标记特征,ΔD表示控制主机在单位时间内所能跟踪处理的机器人运动轨迹节点累积总量,μ表示运动轨迹路径内的跟踪向量,联立上述物理量,可将基于视觉图像的全向移动机器人轨迹运动特征提取结果S表示为:

(5)

由于权值指标ι、权值指标κ的取值恒不相等,所以特征值dι与dκ的取值也不可能相等。

3 机器人轨迹跟踪控制

(6)

式中,G1表示前馈控制器,G2表示扰动观测器。构建运动学不等式条件时,除了要求轨迹跟踪节点处于同一图像平面之内,还应控制轨迹路径的偏移程度,使其端节点不超出前馈控制器与扰动观测器的最远控制范围。

前馈控制器是一个完整的闭环结构,可以在已获取的全向移动机器人运动视觉图像中,调节轨迹节点的排列状态,从而使得控制主机所制定轨迹跟踪计划能够符合全向移动机器人的运动规律。在前馈控制器闭环内,控制主机对于机器人轨迹节点的跟踪,要求目标节点分离区域与运动特征提取区域必须为同一运动区域[19]。一般情况下规定转向度量指标的最小取值只能等于1,当其取得最小值时,表示当前情况下前馈控制器闭环对于机器人轨迹节点的跟踪能力较弱,随着度量指标取值的增大,前馈控制器闭环对于轨迹节点的跟踪能力也会不断增强[20]。G1的计算公式如下:

(7)

式中,f1表示前馈调节系数,ϖ1表示机器人运动轨迹节点偏离度,ν表示转向度量指标,gν表示轨迹跟踪控制特征。

扰动观测器G2在前馈控制器闭环的基础上,调节机器人运动视觉图像中轨迹密集区域内的跟踪节点,使得控制主机能够准确推断出全向移动机器人的运动状态,避免不良跟踪行为的出现[21-22]。在机器人运动视觉图像中,扰动观测器闭环可以直接控制的轨迹区域相对有限,所以在定义扰动观测器闭环的作用表达式时,要求机器人在单一运动轨迹内的运动转向幅度不宜过大。G2的计算公式如下:

(8)

式中,f2表示基于视觉图像技术的机器人轨迹节点扰动调节系数,ϖ2表示运动轨迹路径内的跟踪节点布局系数。

在轨迹跟踪控制特征参量取值保持恒定的情况下,控制主机可以根据扰动观测器作用表达式,调节视觉图像中待跟踪轨迹节点的分布形式。

误差向量影响主机元件对全向移动机器人轨迹跟踪节点的控制准确性,在同一视觉图像内运动坐标表达式保持不变的情况下,误差向量指标的取值越趋近自然数零,就表示主机元件对全向移动机器人轨迹跟踪节点的准确控制能力越强[23-24]。若视觉图像中所包含轨迹跟踪节点的数量值足够大,则可认为在当前情况下,所求得的每一个误差向量指标都对应唯一一个跟踪节点控制准确性标准条件。误差向量L满足式(9):

(9)

结合全向移动机器人轨迹跟踪控制的约束条件,利用滑模变结构设计全向移动机器人轨迹跟踪控制模型,以此保证跟踪控制精度与效率。

滑模变结构控制作用意在协调机器人移动方向与轨迹方向之间的变量关系,可以根据轨迹点附着状态,确定与控制全向移动机器人的实际运动方向。图1反映了滑模面控制点的选取原则。

图1 滑模面三类控制点

若移动方向与轨迹跟踪方向相对,则表示机器人运动方向与滑模变结构主控制方向相同;若轨迹跟踪方向与移动方向首尾相接,则表示机器人运动方向与滑模变结构主控制方向相反;若移动方向与轨迹跟踪方向首尾相接,则表示机器人运动方向平行于滑模变结构主控制方向。

假设α表示一个随机选取的轨迹节点标记参量,且α≠0的不等式条件恒成立,β表示滑模变结构表面的节点排列系数,联立上述物理量,基于滑模变结构的全向移动机器人轨迹跟踪控制模型表达式定义为:

(10)

4 实例分析

4.1 图像处理

设置多个监测摄像头跟踪机器人轨迹节点的运动路径,将摄像头设备所采集到的轨迹运动数据回传至Dali Master软件,使其能够对机器人实验对象在既定时间内的运动轨迹进行准确分析。利用Dali Master软件,截取完整的机器人运动图像,如图2所示。

图2 全向移动机器人运动图像

本次实验所选设备元件的具体型号参考表1。

表1 实验设备选型

为避免不公平实验结果的出现,基于视觉图像的控制方法、基于Udwadia-Kalaba的控制方法所用实验设备型号完全一致。

4.2 实验原理与实验步骤

全向移动机器人实际轨迹曲线与期望轨迹曲线之间的贴合程度,能够反映出运动学控制器对机器人轨迹节点的跟踪准确性,若机器人运动行为不会因外界干扰而出现中断现象,则可认为实际轨迹曲线与期望轨迹曲线之间的贴合程度越大,就表示机器人轨迹节点的准确跟踪能力越强。

机器人实际轨迹曲线与其期望轨迹曲线之间的贴合度求解表达式为:

(11)

式中,υmax与υmin分别表示贴合度的最大值与最小值,Wmax表示期望轨迹曲线极大值,ΔWmax表示实际轨迹曲线极大值与期望轨迹曲线极大值之间的数值差,Wmin表示期望轨迹曲线极小值,ΔWmin表示实际轨迹曲线极小值与期望轨迹曲线极小值之间的数值差。

实验过程中,利用基于视觉图像的跟踪控制方法以及基于Udwadia-Kalaba的轨迹跟踪控制方法作为实验对比方法,将不方法应用后的轨迹曲线与期望轨迹曲线进行对比,总结实验规律。

具体的实验步骤如下:

设置监测摄像头采样时间为1 ms,从上位机发送控制指令给信号触发器,信号触发器发出指令后,控制主机对全向移动机器人的电力驱动器、电动机、转向控制器进行控制,利用处理软件相关获取机器人运动图像数据,将滤波器滤波处理后数据的实时信息反馈回PC上位机,形成控制回路以完成控制指令,以此实现全向移动机器人跟踪控制。

4.3 结果分析

对于全向移动机器人而言,其轨迹曲线包括角速度曲线、线速度曲线两部分,具体实验图像如图3、图4所示。

图3 机器人角速度曲线

分析图3可知,机器人角速度期望轨迹曲线保持先来回波动、再趋于稳定的数值变化状态,最大角速度值为12.01 rad/s、最小角速度值为6.99 rad/s。基于视觉图像的控制方法角速度轨迹曲线的变化态势与期望轨迹曲线保持一致,最大角速度值为11.99 rad/s、最小角速度值为6.87 rad/s。基于Udwadia-Kalaba的控制方法角速度轨迹曲线的变化态势与期望轨迹曲线保持一致,最大角速度值为13.36 rad/s、最小角速度值为8.39 rad/s。联立式(11),基于视觉图像的控制方法、基于Udwadia-Kalaba的控制方法的角速度轨迹曲线贴合度进行计算,结果为:基于视觉图像的控制方法的υmax值为0.2%、基于视觉图像的控制方法的υmin值为1.7%;基于Udwadia-Kalaba的控制方法的υmax值为10.1%、基于Udwadia-Kalaba的控制方法的υmin值为20.0%,基于视觉图像的控制方法的角速度轨迹曲线贴合度明显低于基于Udwadia-Kalaba的控制方法。

图4 机器人线速度曲线

分析图4可知,机器人线速度期望轨迹曲线也保持先来回波动、再趋于稳定的数值变化状态,最大线速度值为6.00 m/s、最小线速度值为3.23 m/s。基于视觉图像的控制方法的线速度曲线的变化态势与期望轨迹曲线保持一致,最大线速度值为5.82 m/s、最小线速度值为2.97 m/s。基于Udwadia-Kalaba的控制方法的线速度曲线的变化态势与期望轨迹曲线保持一致,最大线速度值为6.41 m/s、最小线速度值为1.22 m/s。联立式(11),对基于视觉图像的控制方法、基于Udwadia-Kalaba的控制方法线速度轨迹曲线贴合度进行计算,结果为:基于视觉图像的控制方法的υmax值为3.00%、基于视觉图像的控制方法的υmin值为8.0%;基于Udwadia-Kalaba的控制方法的υmax值为6.9%、基于Udwadia-Kalaba的控制方法的υmin值为62.2%。

综上可知,在基于视觉图像的跟踪控制算法的作用下,全向移动机器人实际轨迹曲线与期望轨迹曲线呈现出更加贴合的状态,在增强运动学控制器对机器人轨迹节点的准确跟踪方面能够起到促进作用。

5 结束语

本文以视觉图像技术为基础,求解运动学表达式,又通过分离目标节点的方式,完成对机器人运动特征的提取,在前馈控制器闭环、扰动观测器闭环的作用下,利用运动学不等式条件获取约束误差向量指标的取值结果,以此实现全向移动机器人轨迹跟踪控制。实验结果表明,该方法不但可以使机器人实际轨迹曲线与期望轨迹曲线更加准确地贴合在一起,还能够增强运动学控制器对机器人轨迹节点的跟踪准确性,满足实际应用需求。

猜你喜欢
线速度移动机器人轨迹
移动机器人自主动态避障方法
轨迹
轨迹
轨迹
盘棒砂磨机线速度对研磨效果的影响
基于Twincat的移动机器人制孔系统
进化的轨迹(一)——进化,无尽的适应
一种辐照线缆表面品质保护装置
卫星线速度、周期、加速度的大小比较
连铸拉矫机预防辊面磨损等线速度调整