动态环境下分布式异构多机器人避障方法研究

2022-08-19 01:32欧阳勇平魏长赟蔡帛良
智能系统学报 2022年4期
关键词:障碍物梯度经验

欧阳勇平,魏长赟,蔡帛良,2

(1.河海大学 机电工程学院,江苏 常州 213022;2.英国卡迪夫大学 工学院,威尔士 卡迪夫 CF10 3A)

随着多机器人系统(multi-robot system,MRS)的广泛应用,其路径规划和导航避障领域一直是学者们关注的热点话题。传统的机器人避障算法主要有粒子群寻优算法[1]、基于障碍物的几何构型得到避障策略[2]、Khatib[3]提出了最优避碰策略(optimal reciprocal collision avoidance,ORCA)及其衍生的其他避障算法等,但这些导航模型在环境复杂的情况下调整效果不佳,不适用于动态环境。近年来,在基于强化学习的多机器人导航避障算法中,相关学者们提出了构建状态空间到动作空间的映射的控制逻辑,也即策略映射[4-8],其中Zhang 等[4]提出了一种以深度确定性策略梯度(deep deterministic policy gradient,DDPG)为基础的机器人控制模型,最终构建了基于激光雷达和位置信息的策略映射,但算法的收敛速度慢,训练效率较低。Chen[5]则提出了一种异步DDPG 算法(asynchronous DDPG,ADDPG),使用多个机器人在同一个实验环境中进行实验,提高了经验的搜集效率,缩短了算法的训练时间,但没有考虑移动机器人的导航避障规则。因此设计一种受客观条件限制较低,且可以实现人机协同的机器人避障算法对于提高异构多机器人的工作效率和安全性具有重要意义。

故本文在此提出了基于深度强化学习的多特征策略梯度优化算法,并引入人机协同环境下的社会范式以及提出经验优先采样机制,不仅使多机器人移动按照一定规则避障,而且提高了算法的训练速度以及控制精度,同时搭建了分布式多机器人的控制模型,在Gazebo 仿真环境下进行算法的训练学习,最后在现实环境下的多异构机器人平台上验证了导航避障方法的可行性。

1 问题描述

多机器人路径规划是在工作环境中为各个机器人都找到一条从起始点到目标点的最优无碰撞路径。其中,单个机器人前往目标点不仅需要考虑与环境内的障碍物避免碰撞,还需避免在移动时与其他机器人发生碰撞。因此,如何为环境内的各个机器人在寻找路径时不发生碰撞是存在的难题。

本文以深度强化学习模型为基础,为解决异构多机器人在动态环境下导航避障问题,搭建了不依赖精确地图机器人导航避障模型,机器人仅装有激光雷达传感器,只需对原始的测量信号进行获取和处理,即可实现异构多机器人的导航避障。具体模型如图1 所示。

图1 机器人导航避障模型Fig.1 Robot navigation and collision avoidance model

在图中机器人所获得的状态信息为目标点相对自身的极坐标位置 (ρ,θ)(图中黄色箭头),激光传感器所捕获的周围环境信息 ς=[l1,l2,···,l128](红色线)且每条激光编号从0 开始沿图中绿色箭头方向递增。

其中,极坐标位置信息 (ρ,θ)的计算公式为

式中:(xt,yt) 和 (xw,yw)分别是机器人和目标点在全局坐标系下的坐标,vt和vw分别是机器人的速度矢量和从机器人指向目标点的矢量。

最终上述两部分信息经过归一化处理后连同上一时刻的机器人动作信息at−1被组成一个状态信息st,并传递给强化学习算法进行计算,其中归一化公式为

式中:ξ是环境中的最大对角线长度,最大感知距离lmax=3 m。基于上述提出的不依赖精确地图导航的异构多机器人导航避障模型,本文将在后续仿真与真实实验中进一步介绍。

2 深度强化学习控制模型

2.1 马尔可夫决策过程

为各个机器人寻找一条最优无碰撞路径问题可以简化为马尔可夫决策过程。马尔可夫决策过程(Markov decision process,MDP)作为强化学习理论的基础,具有重要的理论价值。MDP 的数学要素可以表述为五元组,即 (S,A,P,R,γ),其中:

S表示状态空间,表示MDP 所在环境下所有可能状态的集合;

A表示动作空间,表示对应状态下所有可采取的动作的集合;

P表示状态的条件转移概率,表示代理在时刻st状态下采取动作a后,在t+1时 刻的状态st+1的状态为s′的概率,其公式表述为

R为 MDP 的评价函数,是算法在s状态下执行动作a后变换为s′的过程对算法目标结果好坏的量化评价标准,其定义为

γ是折扣因子,表示MDP 中每一个决策环节对相对于决策过程中未来的决策环节的重要性,γ ≤1恒成立,表示算法更看重当前奖励而不是未来的奖励。

MDP 的实际流程可以表示为图2,环境中受算法控制的代理对象在状态s0∈S的条件下初始化,并由算法根据状态s0选择建议动作a0∈S并由代理对象完成该动作,环境根据所执行的动作,根据条件转移概率P(s1|s0,a0) 转移至下一状态s1,同时,环境给出对应奖励r0(s0,a0,s1)。此后算法根据状态s1选择新的建议动作,并重复执行上述步骤直至达到终止条件。

图2 马尔可夫决策过程Fig.2 Markov decision process

2.2 深度强化学习

深度强化学习(deep reinforcement learning)算法模型是以一种通用的形式将深度学习的感知能力与强化学习的决策能力相结合,并能够通过端对端的学习方式实现从原始输入到输出的直接控制,在模拟环境中,从个人收集的所有数据都用于在中央服务器中进行训练[9-11],例如深度Q 学习网络(deep Q-learning,DQN)[12]解决了使用强化学习算法求解Atari 游戏最优决策问题,此后,又有诸如深度确定策略网络梯度(deep deterministic policy gradient,DDPG)[13],信赖邻域策略梯度优化(trust region policy optimization,TRPO)[14],近似策略梯度优化(proximal policy optimization,PPO)[15]等算法都取得了较好的成果,实验证明,深度强化学习可以处理解决复杂的高纬度状态动作映射问题,从而实现更全面感知决策,具有较强的实用性[16-20]。在一些多智能体强化学习 (multi-agent reinforcement learning,MARL)研究工作中,集中训练和分散执行方案用于训练多智能体系统,例如counterfactual multi-agent (COMA)[21]和multiagent DDPG(MADDPG)[22]。

其中,DQN 引入了两个重要策略实现了强化学习算法与深度神经网络的融合。第一个策略是目标网络的阶段性更新策略,保证了训练Q 网络的Q 值稳定性。另一个策略是经验回放机制,这个机制使得算法可以多次重复利用代理获得的经验,通过重复性采样,提高了经验的利用率,并有效降低了样本数据间的及关联参数,具体训练流程如图3 所示。

图3 DQN 算法训练流程Fig.3 DQN algorithm training process

DQN 是应用于离散动作空间的算法,这导致无法应对控制精度高、动作空间复杂的问题。而DDPG 作为解决连续控制型问题的算法适合本文所遇到的难题,其算法流程如图4 所示。

图4 DDPG 算法训练流程Fig.4 DDPG algorithm training process

3 多特征策略梯度优化算法

在现有的深度确定性策略梯度算法的基础上通过对机器人导航任务的任务奖励进行拆分,并构建了各自的Q 值网络用于优化策略网络,并在此基础上行构建了基于策略梯度优化算法的多特征策略梯度优化算法。

3.1 策略网络优化

针对前述算法中将机器人的导航奖励设计为统一奖励值的算法中存在的奖励显著性下降的问题,本文将机器人的导航问题分为避障任务和导航任务,分别对2 个任务进行量化评价并构建避障Q 值网络和导航Q 值网络,分别使用2 个Q 值网络计算2 个Q 值对策略网络参数的梯度,从而实现对策略网络的优化,本文将其称为多特征策略梯度优化算法(multi-featured policy gradients,MFPG)。

MFPG 将机器人的任务奖励分为两部分,分别称为导航奖励和避障奖励,因此在本算法中,算法在 时刻的经验则定义为

因此在MFPG 算法中策略网络 πφ的策略梯度是∇φJ=[∇φJNav,∇φJCA],因此,最终的策略参数更新公式为

式中 Φ是策略梯度权重,表示每个策略梯度分量的重要程度,其值与任务奖励、Q 网络损失值相关。

综上所述,本文所述多特征策略梯度算法的流程图如图5 所示,从图中可以看出,所提出的多特征策略梯度优化方法通过将对奖励信息进行划分,并分别由划分的两个奖励构建Q 网络,并在最终构建关于策略网络的优化梯度,实现了对策略网络的优化。

图5 多特征策略梯度优化算法Fig.5 MFPG algorithm

3.2 社会范式的奖惩函数设计

借鉴人类社会发展过程中产生的行动规则(例如右侧通行等),引入了社会范式奖励,其具体方式如图6 所示:当受控机器人(红)与其他机器人(黑)进行交互且产生图示的位置关系时候受控机器人会受到负奖励,从而降低出现图示位置关系的概率。然而,这种方法只是在图示状态下对机器人赋予了一个离散的负奖励信息,而且由于负奖励的判断范围较广(阴影所示区域),导致负奖励信息只能用于定性分析受控机器人状态,而不能用于提高算法的控制精度,且由于算法本身奖励稀疏,导致算法更无法学习在图示条件下的社会范式,因此将离散化的指标性奖励精确为基于实时状态的奖励可以有效提高算法的训练速度。

图6 离散的社会范式奖励Fig.6 Discrete social paradigm rewards

综上,本研究在前文研究的基础上,针对现有导航算法中提出的离散式社会规范奖励存在的奖励稀疏、离散的社会负奖励信息只能定性分析机器人的社会范式状态的问题提出了一种新的基于激光雷达信息的连续空间社会范式奖励计算方法,其计算公式为

上式表示rlaser(lmin)·G(z) 的值最终在 [−9.9,9.9]的边界区间内,其中rlaser(lmin)表示当前激光雷达探测区域最小值的计算奖励,lmin=lmin/lMAX表示激光雷达的最小探测值的正则化值,lMAX表示激光雷达的最大侦测范围,G(z)表示激光雷达最小值所在方位引起的奖励偏置因子,其中z表示激光雷达传感器探测到最短激光值所在位置的正则化序号值,其具体表述及序号关系详述于图1。上述两值的计算公式为

式中:kl表示避障增益,ol表示避障奖励的偏移量,在本文中两者分别为20 和0.5,该奖励值随lmin的变化如图7 所示。

图7 避障奖励值变化Fig.7 Changes of obstacle avoidance bonus value

此外,U和D分别表示偏置上限和偏置零点的位置,在本文中U和D分别为3 和2.5。因而,避障奖励函数的最终计算公式为

将上式标绘在平面直角坐标系中得到图8(a),同时作为对比,图8(b)也标绘了G(z)=1时的奖励分布。

从图8(a)的奖励状态分布可知,如果距离机器人最近的障碍物位于机器人两侧时,无偏置的奖励算法将输出同样的奖励结果,这导致了两辆车辆在相遇时,无法准确对对方的形为进行预测并进行有效规避,从而导致发生碰撞,而带有偏置的奖励计算方法可以对机器人左右两侧的信息进行有效区分,从而保证强化学习算法在训练过程中对于左侧和右侧的障碍物表现出明显的倾向性,因此可以保证车辆在相遇时会根据自身预设的策略倾向实现在无通讯信息条件下多机器人间的安全导航避障。

图8 奖励分布Fig.8 Bonus distribution

3.3 经验优先采样机制

在经验回放过程中,经验的选择会影响Q 网络的收敛速度,进而影响策略网络的训练。而传统的均匀采样不能显著提高Q 网络的训练速度,因此,本文采用了基于Q 网络损失值的经验优先采样算法并进行改进,其核心在于根据Q 值网络的损失值构建每一条经验的采样优先性,其主要流程为:对于每条经验ei及 其Q 值网络的损失Lθ(ei),定义其采样优先度为

式中 ε表示采样优先度指数,当 ε=0时代表算法采用均匀采样方法。在经验采样时,算法按照概率P(ei)随机选择经验组成训练经验组。因此,在实际训练时,每条经验ei被采样的概率正比于其损失函数Lθ(ei),因此可以显著提高Q 网络的收敛速度。

此外,由于Q 值网络的更新会改变Q 值网络的分布,从而改变经验ei的Q 值期望,因此基于优先级的经验回放算法会引入偏差,需要对优先采样获得的经验添加重要性修正权重以降低偏差,其计算公式为

式中:|B|表 示经验样本集合的容量,ς表示算法的修正权重,因此,修正后的策略网络的参数更新公式为

当新的经验enew被加入到经验池中时,会替代当前经验池中采样优先度最小的经验,其采样优先级会被设置为1。

综上,多特征策略梯度算法的主要流程如下:

3)初始化经验池N,其最大容量为n;

4) 当不满足终止条件时,获取当前代理状态st;

5)根据当前状态选择动作at=πφ(st),并由代理执行;

6)获取下一时刻状态st+1与 奖励

8) 如果 |N|≥n,根据Q 值网络更新方式从|N|采 样训练经验集合 |B|,更新Q 值网络和按照公式(2)更新策略网络参数;

9)如果达到策略网络更新条件,φ∗←φ;

10)如果达到Q 值网络更新条件,θNav∗←θNav,θCA∗←θCA;

11)返回更新后策略网络 πφ。

4 单机器人实验及结果分析

4.1 基于ROS 的移动机器人控制架构

本文构建了基于ROS 的多机器人控制系统以供强化学习算法进行机器人路径导航训练学习,每个机器人与ROS 主机的信息构图框架图如图9 所示。

图9 基于ROS 的单机器人控制系统Fig.9 Single robot control system based on ROS

本研究使用Gazebo 物理仿真环境作为机器人在实际环境中的模拟环境,并使用了Turtlebot3作为虚拟实验机器人,其装载有一个激光雷达扫描仪,其探测距离为3.5 m,激光雷达的采样率为128 Hz,采样范围为180°。

4.2 实验环境

本文所述ROS 系统基于Ubuntu18.04,使用虚拟机器人为Turtlebot3 waffle,在Gazebo 中构建避障模拟环境如图10 所示,本实验中 ξ=20。图中,绿色圆形区域为机器人的目标点区域,红色区域则表示障碍物,实际执行时,机器人将在一个非障碍物且非目标点的区域随机初始化,并在3 个目标点中随机选择一个作为任务目标。

图10 机器人导航实验环境Fig.10 Robot navigation experiment environment

4.3 实验结果

通过训练,获得了基于MFPG 算法的机器人导航模型,在训练过程中,与传统DDPG 算法以及加入奖励偏执的DDPG 算法相比,机器人每步动作获得的奖励值及对应Q值随训练步长的变化如图11 所示。

图11 模型训练Fig.11 Model training

3 种算法在训练过程中均具有收敛特征,但相比较而言,带有偏置奖励的DDPG 算法稳定性较差,训练过程中奖励值和Q值均出现大幅度波动,且方差区间较高,而标准DDPG 算法则表现出相对稳定的特征,并具有较为稳定的方差区间,Q值和奖励在训练过程中变化稳定,表明算法可以较好的应对多机器人避障问题,但仍存在训练过程中训练速度较慢等问题,而在本文所述多目标策略梯度优化算法中,从导航和避障奖励中可以看出,算法在训练早期(1000 步)时已经可以稳定获得较高奖励且在后续训练过程中仍能保持稳定,且方差较小,同时Q 值网络方差较小,且数值变化稳定,导航方面Q值的增长速度明显优于标准DDPG 算法,说明本文所述多目标策略梯度优化算法可以较好的完成多机器人避障任务。经过多次测试,机器人导航避障成功率约为95.3%。

4.4 现实环境实验测试

本节将前述小节中的机器人避障算法模型移植进入基于ROS 的移动机器人平台中,并在实验场地分别进行静态寻路测试和动态障碍物避障测试,最终得到结果如图12 所示,展示了2 个导航过程的行进示意和轨迹图。

在图12(a)和(b)中可以观察到机器人从地图左侧中间出发向右侧的通道行进,其行进图如图所示。途中经过3 个障碍物,并两次与动态障碍物相遇,从行进图中可以发现,第1~5 s,机器人发现右前方障碍物,并向着第1 个和第2 个障碍物之间的空间前进,第7 s 出现移动障碍物,机器人判断形势,在11 s 向左侧规避,但在13 s 发现移动障碍物已经快速达到左侧,因此在13~15 s 恢复正常航向,向右前侧出发,并调整姿态,避让第3个障碍物,此时移动障碍物从右侧出现,并在21 s快速移动到机器人右侧,此时机器人已经经过第3 个障碍物,向左前侧前进(21 s),并在23~35 s 正常导航直至抵达任务规定目标点。

在图12(c)和(d)中机器人从地图右侧中间出发,向其左前侧的区域前进,途中机器人经过3 个静态障碍物并与动态障碍物进行一次相遇,图中,1~9 s 机器人探测到前方的两个障碍物,并选择从二者中间的空间经过,11s 开始,动态障碍物开始出现,19~23 s 机器人探测到移动障碍物,并根据其位置调整其航向向右前方行驶(25~29 s),从而成功躲避了移动障碍物,31 s 至47 s 机器人按照自身信息及位置导航至目标点。

图12 单机器人静态测试结果Fig.12 Single robot static test results

从图中可以看出,移动机器可以准确完成机器人控制以及寻路任务,且对于移动障碍物具有明显的避障及寻路特征,说明训练所得算法在移动机器人控制中可以执行有障碍物状态下的寻路和动态避障任务。

5 分布式异构多机器人实验

本节将在先前基础上建立多机器人系统的控制流程,搭建用于多机器人导航的虚拟环境并进行训练,最后使用多台移动机器人平台进行寻路实验。

5.1 分布式多机器人控制结构

由于训练过程中机器人需要在环境中进行初期探索并积累经验池的经验,使用多机器人系统在训练早期可以有效提高经验搜集效率,缩短训练模型学习时间,从而提高算法训练效率,因此本文在前述单机器人导航任务实验的基础上,构建了多机器人训练的流程模型,其流程图可见图13。

图13 多机器人训练流程Fig.13 Multi-robot training process

1)算法获取虚拟环境中机器人的信息(激光雷达传感器数值,坐标位置信息),并进行预处理;

2) 将上述预处理后得到的状态信息和动作信息和奖励信息一起添加进经验回放池,留待训练;

3)判断当前经验池的状态,如果没有达到经验回放池上限,则使用人工势场算法,根据机器人的状态信息进行判断,并提出决策信息。

4)如果经验回放池达到上限,则开始强化学习算法的网络训练,神经网络会替代人工势场算法作为多机器人系统的控制算法,同时搜集新的经验信息替换已有的经验;

5)重复3)~4),直到达到终止条件。

其中为了提高早期经验搜集效率,增加经验池中优质经验比例,提高算法学习效率,在经验池达到上限之前,在环境中的各个机器人采用人工势场法进行导航,当经验池达到上限时,MFPG开始根据改进的人工势场算法对经验池进行采样,并进行学习,逐渐提高算法的决策能力。

5.2 控制信号解码

由于Turtlebot3 与远程主机使用WIFI 网络连接,实际执行过程中容易受到无线信号影响,因此,需要对两个Turtlebot3 的动作信息进行处理以保证动作信息在通信延迟较高的环境下仍然可以正常运行。

为了保证机器人的动作信息能够正常执行导航算法,将应用在机器人上的策略数值进行了缩放,保证机器人能正常执行动作策略,其具体计算公式为

式中:It表示t时刻的状态补偿参数,用来降低由于通信阻塞情况导致的策略误差,其定义为

执行任务时,为了保证算法能同时开始执行导航动作,在Linux 系统中搭建了一个本地NTP服务器用于保证Turtlebot3、远程主机和板载主机之间的时间统一,实际执行时,板载主机通过WIFI 连接向远程主机申请进行时间校验,并根据返回时间对自身信息进行校验,此后两个主机将选择同一时间执行导航任务。

5.3 模拟厂区的导航及避障测试及分析

5.3.1 训练环境

本节在前述机器人控制架构的基础上构建了模拟厂区环境,其环境如图14 所示。

图14 训练环境Fig.14 Training environment

我们选用4 个移动机器人进行算法的训练以及测试。在训练过程中,每个机器人随机选择图中绿色圆形区域和绿色方框区作为算法的任务初始点,并随机选择除该机器人初始点以外的其他任务初始点作为导航目标。机器人通过算法输出的运动指令向目标区域进行移动,完成各自的导航任务。在算法的性能测试过程中,车辆被随机分配至四个圆形区域,而其导航目标位置为该车的起始点在模拟工厂环境的对角位置,即对于为1 的机器人,其目标位置设置在3。

5.3.2 训练结果

经过200 轮训练后,对所得模型进行效果较好者进行性能测试对比,得到两算法在模拟厂区环境下的性能测试结果如表1 所示。在本实验中,实验参数为总训练回合数:400,单回合最多执250 步,ROS 系统运行频率45 Hz,ξ=20。

表1 算法性能对比Table 1 Comparison of algorithm performance

在测试中,采用了平均碰撞距离作为算法导航性能的衡量标准,其定义为:机器人发生碰撞时,距离目标点的直线距离,较小的平均碰撞距离反映算法具有较好的导航能力。从表中可以看出,相比较标准DDPG 算法,本文所述多特征策略优化算法具有更高的成功率,并且平均碰撞距离和最小距离圆面积的均值和方差也是小于标准DDPG 算法,说明所提出的基于多特征策略梯度优化方法的多机器人导航具有较高的可靠性。

将上述2 种算法在模拟厂区环境中的路径轨迹标绘在图中可以得到图15。

图15 路径轨迹Fig.15 Path trajectory

从图中可以看出,多特征策略优化算法控制下的多机器人轨迹相对平滑,具有较小的波动,且多机器人在相遇时具有较为规范的避让动作,保证了多机器人系统在执行过程中的控制稳定性,而标准DDPG 算法在导航过程中则具有较多的控制波动,说明算法在执行过程中存在决策稳定性差的情况,且在多个机器人相遇时,机器人轨迹波动严重,这说明算法在多机器人相遇时处理动态障碍物能力较差,这对多机器人系统而言是致命的,而统计结果也表明了所提出的多特征策略梯度优化方法在多机器人系统中的动态避障和导航问题中相对标准DDPG 算法具有显著优势。

此外,为保证本算法所训练模型不受机器人数目的影响,使用在前述算法所训练的模型在8 个机器人的模拟工厂环境中进行了寻路测试,由于实验机器人数目增加,为保证每个机器人的控制频率符合模型的控制频率,本次实验中ROS系统的控制频率为90 Hz,获得寻路轨迹如图16所示。

图16 8 机器人寻路路径轨迹Fig.16 8 Robot path trajectory

从图中可以看出,多个机器人在执行任务过程中在车流量较高的中心区域可以正常通行,且均遵循右手通行原则,保证了多机器人系统运行时的安全性,测试结果表明所提出的算法模型不受多机器人系统中机器人数目的影响,因而提高了该方法在多机器人系统中的应用范围。

5.4 实体机器人实验

本次测试使用的控制主机与前述相同,场地参数 ξ=5,运行速度0.4 m/s。机器人的抵达目标的感知半径为0.5 m,本次实验共计使用了2 台远程主机和1 台板载主机,3 台主机均连接至同一无线网络,2 台Turtlebot3 机器人具有自己的IP地址,并由2 台远程主机控制,为保证能够对2 台Turtlebot3 进行区分,也方便板载机器人获取其位置信息,在机器人顶端分别安装了红色和黄色的标识盒。

在行进图17(a)中黄色小车从下方开始从左侧运动并在达到边界后向右上侧运动,最终抵达目标点,而红色小车则在13 s 与板载主机机器人相遇,而后红色机器人感知到板载机器人位置,并执行避让动作,并在红色机器人与板载机器人之间出现可以通行的空间时,从板载主机机器人侧后方向前行驶,避免了与板载主机机器人的碰撞,二者在最后分别抵达目标点。

而在行进图17(b)中,黄色机器人运行时感知到板载主机机器人位置,选择从右侧行进,但在运行过程中判断与板载主机机器人发生碰撞的可能行较高,因此在33 s 时选择机器人板载机器人侧后方行进,并在脱离板载主机机器人碰撞范围后向目标点行进,最终抵达目标,而板载主机机器人则探测到其左侧存在红色机器人并向其运动方向前方运行,因此选择向红色机器人后侧转弯,红色机器人则选择向左前方运行,以避让板载主机机器人,而板载主机机器人在红色机器人离开后向目标点导航,最终二者顺利抵达目标点。

图17 多机器人动态避障导航实验Fig.17 Dynamic obstacle avoidance navigation experiment of multiple robots

其具体轨迹如图18 所示,轨迹图18(a) 和18(b)中红色机器人从图中上方向下方移动,而黄色机器人则从下方向上方移动,而轨迹图1 中板载机器人则从左侧移动至右侧,而在18(b)中则从右侧移动至左侧,图中蓝色虚线表示板载主机机器人的路径轨迹,绿色虚线表示黄色机器人的路径轨迹,红色虚线则表示红色机器人的路径轨迹信息。

图18 机器人轨迹Fig.18 Robot trajectory

实验结果显示,3 辆移动机器人平台在实验过程中可以感知到其他机器人的移动位置并执行相应的回避动作,最终安全抵达实验预定的目标地点。结果证明,本文所述的基于强化学习的多机器人导航算法可以应用于多移动机器人平台在不依靠精确地图环境下的导航及动态避障。

6 结束语

本文针对现有多机器人系统中依赖精确地图的人机协同场景下存在的问题提出了基于深度强化学习算法的多特征策略优化算法作为机器人导航模型中的决策中心,搭建了基于ROS 的强化学习虚拟训练环境,并将所得动态避障导航算法模型应用在实际机器人中。实验结果表明,本文所提出的导航算法可以应用于多移动机器人平台在不依靠精确地图环境下的导航及动态避障。但算法的训练时间较长,且在训练后期稳定性欠佳是该任务中尚存的问题,应当注意在未来工作中对于强化学习算法稳定性的分析和改进,保证强化学习算法的收敛稳定性。

猜你喜欢
障碍物梯度经验
带非线性梯度项的p-Laplacian抛物方程的临界指标
2021年第20期“最值得推广的经验”评选
高低翻越
赶飞机
一个具梯度项的p-Laplace 方程弱解的存在性
月亮为什么会有圆缺
2018年第20期“最值得推广的经验”评选
基于AMR的梯度磁传感器在磁异常检测中的研究
基于数字虚拟飞行的民机复飞爬升梯度评估
Can lucid dreams kill you?