朱少凯,孟庆浩,金晟,戴旭阳
(天津大学 电气自动化与信息工程学院 机器人与自主系统研究所,天津 300072)
视觉导航是一类新兴的导航技术,具有使用成本低、获取信息丰富的优点,成为近些年来机器人领域的研究热点之一[1-4]。路径规划是移动机器人实现自主视觉导航的关键技术之一,分为全局路径规划算法和局部路径规划算法[5]。常用的全局路径规划算法有A*算法[6]和D*算法[7]等。局部路径规划算法根据全局路径和部分环境信息,输出机器人运动控制指令,使机器人大致沿着全局路径的轨迹移动。动态窗口法(dynamic window algorithm, DWA)作为一种广泛使用的局部路径规划算法,具有良好的避障能力,且计算量小、实时性高,是机器人操作系统(robot operating system, ROS)的默认局部路径规划算法[8]。但是,当环境变得复杂时,DWA算法容易陷入局部极小值点,同时无法保证规划出的路径是最优的。时间弹性带(timed elastic band, TEB)算法是另一种广泛使用的局部路径规划算法,采用图优化的方法迭代求解局部路径规划问题,有较高的操作性[9]。模型预测控制(model predictive control,MPC)能根据机器人当前的运动状态预测其未来几个时间步的轨迹,通过二次规划方法来优化,求出一个最优局部路径规划解[10]。但是,TEB和MPC算法有非常多的参数需要设置,所以在复杂的环境应用时需要配备较高性能的计算机和花大量时间手工调参。综上所述,传统的局部路径规划方法存在参数调整耗时,缺乏对新环境的泛化能力等问题。此外,当与视觉SLAM协同工作时,传统局部路径规划算法仅仅考虑机器人运动代价等因素,没有考虑机器人在视觉SLAM过程中易在低纹理区域跟踪丢失的问题,以上原因导致传统局部路径规划算法应用于基于视觉SLAM的导航时表现较差。
深度强化学习自提出以来逐渐得到国内外学者的广泛关注,其相关理论和应用研究都得到了不同程度的发展[11-12]。由于其“交互式学习”和“试错学习”的特点,适用于很多问题的决策,已成为机器人控制领域的研究热点,其中也包括局部路径规划任务。张福海等[13]以激光雷达作为环境感知器,并构造了基于Q-learning的强化学习模型,将其应用在了局部路径规划任务中,提高了移动机器人对未知环境的适应性。Guldenring等[14]利用激光雷达来获取动态环境信息,并根据环境数据基于PPO的强化学习算法进行局部路径规划。Balakrishnan等[15]在A*全局路径规划算法基础上,利用深度强化学习训练了一种局部路径规划策略,以到达局部目标点。然而,该方法依赖于真实先验地图。Chaplot等[16]同样训练了一种基于深度强化学习的局部路径规划策略,并与全局策略相结合,以完成视觉探索任务。但是该方法依赖于真实先验位姿。在实际的视觉导航任务中,机器人需要依靠视觉传感器来获取位姿和环境地图。因此,如何合理地设计局部路径规划机制,使局部路径规划能够和视觉SLAM方法更好地配合,最大限度地避免碰撞和位姿跟踪丢失、提升导航成功率是这类方法的关键,也是至今仍未被探索的问题。
针对以上问题,本文在视觉SLAM和全局路径规划算法的基础上,提出一种基于深度强化学习的室内视觉局部路径规划策略。该策略在强化学习PPO[17](proximal policy optimization)算法的基础上,充分考虑了机器人避障、防止视觉SLAM跟踪丢失以及机器人行走效率等多方面因素,设计奖励函数和网络结构,在大量的场景下学习最佳状态-动作映射网络,提高移动机器人导航成功率。既避免了部分传统路径规划算法调参复杂的问题,又具有很好的泛化性,且与视觉SLAM模块契合。最终,在三维物理仿真平台 Habitat[18]中利用机器人对该局部路径规划策略进行相关仿真分析,证实了所提出策略的有效性。
本文的创新点主要包括:1)提出了一种基于深度强化学习的移动机器人室内视觉局部路径规划算法,合理地设计了环境交互机制与观测的状态空间; 2)研究了多样的奖励函数,加快了算法的收敛速度,提高了模型的性能,最大限度地避免了碰撞和位姿跟踪的丢失、可尽快到达局部目标点。3)将局部路径规划模型融入总体导航框架,与视觉SLAM模块、全局路径规划、仿真平台相互配合,有助于长距离室内复杂场景下的点导航。
机器人在室内导航的过程中,在低纹理区域易发生视觉SLAM跟踪失败现象。因此,考虑机器人快速接近局部目标点的同时,还要兼顾低纹理区域、障碍物等诸多不利因素对于视觉导航任务造成的影响。本文设计的局部目标点导航策略,可以实现规避障碍物、保证跟踪稳定性以避免视觉SLAM失败、成功到达局部目标点的目的。
局部路径规划策略是与视觉SLAM模块、全局路径规划、仿真平台相互配合的,它们的关系如图1所示。首先,选用Habitat仿真平台,机器人在该平台中能以实体的形式存在。该平台能实时地提供机器人在当前位置所采集到的彩色图、深度图,并实时检测机器人是否发生碰撞等。对于每一个导航任务,仿真平台会给定机器人的初始位置和机器人距离全局目标点的相对位置。其次,机器人通过视觉SLAM模块与三维重建技术[19-21]得到室内三维环境的稠密点云地图,然后将一定高度范围内的点云投影之后,获得用于导航的二维栅格地图。此外,视觉SLAM模块还能实时提供机器人在当前位置所采集到的ORB (oriented FAST and rotated BRIEF)特征点图[22]并实时监测机器人当前的位姿跟踪状态(跟踪正常/跟踪丢失)。然后,在得到的二维栅格地图基础上,使用A*算法规划全局路径。局部目标点位置的确定依赖于全局路径,如图2所示,以机器人当前位置为圆心,半径为r的圆与全局路径的交点即为局部路径规划目标点。最后,局部路径规划策略的目标是使机器人从起点成功移动到局部目标点的位置,同时兼顾避障、避免跟踪失败的目的。在本文中,局部路径规划策略的输入是当前时刻的观测(包括:彩色图、深度图、特征点图、当前位置与局部目标点之间的距离和方向),输出是机器人当前时刻所采取的动作。训练目标是避免发生碰撞和视觉SLAM跟踪丢失的同时,采取尽量少的动作运动到局部目标点。当机器人到达局部目标点或机器人行动步数达到步数限制时,则开始规划下一个局部目标点,以此循环,直到机器人到达全局目标点。当机器人在行走过程中发生碰撞或视觉SLAM跟踪丢失时,则认为导航任务失败。
图1 总体导航架构Fig.1 Overall navigation framework
图2 局部导航示意图Fig.2 Schematic diagram of the local navigation
大多数强化学习可以用部分可观测马尔科夫决策过程(POMDP)描述,POMDP用一个五元组(S,A,P,R,γ)来表示。其中S为机器人状态空间,A为机器人动作空间,P为从一个状态到另一个状态的转换概率,R为奖励,γ表示折扣因子。常用演员-评论家(actor-critic, AC)算法来解决该部分可观测的马尔科夫决策问题。AC算法基于策略梯度方法,并通过最大化平均回报来直接更新策略。在执行策略参数 π时,累积每个时间步动作的预期奖励来计算价值函数,如式(1)所示。随后,按式(2)的贝尔曼方程迭代直至策略参数收敛至最优。
式(1)和(2)中,E为求期望函数,st代表t时刻机器人观测状态,R(st,π(st)) 为当前策略在状态st下的奖励值,V*(st)为最优状态值函数,γ为折扣因 子。P(st,st+1|π(st))为状态转移概率。对于从状态st可以到达的任何状态st+1, π′′(st+1)为能够使得状态st+1获得最优价值的策略。
深度强化学习中,智能体(Agent)负责与环境交互,是算法的应用对象。外部环境(Env)是客观存在,用于制定奖惩规则和交互机制。本文将局部路径规划问题转换到深度强化学习的框架中进行求解。在交互过程中,需要定义相应的接口标准,主要有step、reset、render 3个函数。
1) step函数:负责制定Agent与Env的交互机制和奖惩规则,在基于深度强化学习的局部路径规划策略根据当前状态si求解出动作a1后,该函数能够返回执行a1后的奖励ri,以及是否结束的标志位done。此外,该函数能返回下一时刻的状态st+1。该函数是将局部路径规划问题转换到深度强化学习问题的关键,是算法设计中最重要的函数, (si,at,rt,si+1,done)构成了局部路径规划策略训练所需要的基本数据单元。
2) reset函数:定义一个回合(episode)为Agent与Env的一次完整交互。Agent通过与Env多次交互积累经验,从而学到好的局部路径规划策略。回合结束的判断标志位为done,当其为True时,回合结束。此时,Agent和Env需要通过该re-set函数重新初始化,开始新一轮的交互。为了保证Agent和Env的可持续性交互,回合结束在机器人到达局部目标点、发生碰撞、视觉SLAM跟踪失败、到达每回合的最大步数限制时触发。
3) render函数:局部路径规划策略需要与视觉SLAM模块、全局路径规划、仿真平台相互配合。为了便于算法调试,使用render函数来输出可视化窗口显示机器人当前的状态及所处环境,如彩色图(RGB)、深度图(Depth)、全局地图、路径规划等。
step函数、reset函数、render函数构成了Env部分。step函数负责Agent与Env之间的交互,其中嵌套了负责重置的reset函数和负责显示功能的render函数。
step函数是基于深度强化学习的局部路径规划策略实施的重点,其中涉及到两个关键问题:一是如何描述可观测状态空间,另一个是如何设计奖励函数。前者反映了机器人在局部路径规划的实施过程中需要注意的环境信息,后者能指导局部路径规划策略向目标方向更新。
在机器人的局部路径规划任务中,Agent所能观测到的状态S来源于自身所装备的RGB-D相机以及视觉SLAM模块,具体可用一个五元组(srgb,sdepth,sdis,sangle,smpt)来表示。其中srgb和sdepth来源于RGB-D相机,分别表示彩色图和深度图;sdis表示机器人与局部目标点的相对距离,计算方法如式(3)所示;sangle为机器人当前朝向角与机器人和局部目标点连线角度的差值,设机器人在二维栅格地图上的坐标为(x1,y1),朝向角为β,局部目标点坐标为(x2,y2),sangle计算方式如式(4):
smpt为采样时刻当前帧的特征点图的位置矩阵,包含了特征点在图像帧上的位置和数量信息。在ORB-SLAM2[23]算法中,ORB特征点的匹配是实现前端视觉里程计的基础,特征点在图像中的位置和数量包含了视觉SLAM跟踪稳定的信息。如图3所示,图3 (b)由图(a)采样位置向左旋转30°后得到。在图3(a)所示采样位置视觉SLAM跟踪成功,在图3(b)所示采样位置则跟踪丢失。由图3(a)可知,特征点集中于右半部分,左半部分特征较为稀疏,相机此时左转视觉SLAM跟踪失败的风险较高。定义动作空间A(al,af,ar),其3个元素分别代表机器人左转、前行和右转3个动作,每个动作执行时间为1 s,左转和右转的角速度为0.3 rad/s, 前进速度为0.1 m/s。
图3 ORB特征点跟踪图Fig.3 Pictures of ORB feature point tracking
充分考虑了机器人避障、防止视觉SLAM在低纹理区域跟踪丢失以及机器人行走效率等多方面因素,把奖励函数分为6个部分。其中,避障、距离、视觉SLAM的奖励函数部分分别用robv、rdis、rslam表示,λ1、λ2、λ3为相应部分奖励的系数。该3部分奖励函数已能够满足点导航的基本需求。然而,由于算法初期网络训练不充分,机器人在面对障碍和低纹理区域时会选择错误的动作导致碰撞、跟踪失败。在很多次试错之后,PPO算法的Actor网络才会在面对障碍时选择正确的动作,此时算法才开始收敛。所以仅依靠上述3部分的奖励函数训练局部路径规划算法会存在训练时间长、算法收敛速度慢的缺点。为了加快算法收敛速度,提高模型性能,本文又设计了角度、特征点数及到达局部目标点的奖励,分别使用rangle、rnmpt、rbonus表示,λ4、λ5、λ6为系数。为方便表示,ssts表示机器人运行状态,其值域为{0,1,2,3},分别表示机器人正常运行、碰撞、视觉SLAM跟踪丢失和到达局部目标点。
1) 避障
避障是导航的基本要求,机器人撞到障碍物就意味着本次导航任务的失败,机器人运动过程发生碰撞,会产生一个较大的负值奖励。具体设计如式(5):
2) 距离
导航过程中需要逐步减小与局部目标点的距离,故根据执行当前策略动作后与局部目标点距离的变化量设计相应奖励函数。设当前时刻机器人坐标为(xt,yt),执行当前策略得出的动作at后坐标为(xt+1,yt+1),局部目标点坐标为(xd,yd)。可以简单在笛卡尔坐标系上计算得到执行动作后,距目标点的距离变化量为
对应的奖励函数为
3) 视觉 SLAM 跟踪
在训练过程中,若机器人视觉SLAM跟踪稳定运行,执行某一动作后,若视觉SLAM跟踪能保持运行,不给予奖励,若执行动作后跟踪丢失,则导航失败,给予一个较大的负值奖励,即如式(8)所示:
4) 角度
正确的导航方向是机器人能到达目标点的前提,为防止机器人在调整方向时出现奖励稀疏的问题,根据机器人动作执行前后其与局部目标点的相对角度的变化量给予奖励。设当前时刻机器人与局部目标点的相对角度为αt,执行当前策略得出的动作后变为αt+1,对应奖励为
5) 特征点数
本文使用的ORB-SLAM2算法进行同时定位与建图。对ORB特征点的数量与视觉SLAM具有很强的关联性,当前帧中的特征点数高于一定数量时,视觉SLAM跟踪丢失的风险很低,而低于一定数值时,跟踪丢失的风险将会急剧上升。设执行动作前后,当前帧ORB特征点的数量分别为nmptt和nmptt+1,则对应奖励为
6) 达成目标奖励
为了使局部路径策略更快向局部目标点收敛,在训练过程中,若机器人顺利到达局部目标点,意味着当前策略更加接近目标策略,给予额外的正奖励值,加快算法的训练速度,故设计如式(11)所示奖励函数。
综上,综合奖励函数为
本文采用PPO算法来训练局部路径规划算法,这是一种基于策略梯度的算法,采用Actor-Critic架构集成了双网络的算法结构,并改进了基于置信域策略优化的强化学习算法[24](trust region policy optimization, TRPO)的步长选择机制。与TRPO算法相比,PPO算法计算复杂度更低,算法的训练速度更快,可实施性更强。算法的基本框架如图4所示。
图4 基于Actor-Critic框架的PPO算法示意图Fig.4 Schematic diagram of PPO algorithm based on Actor-Critic framework
基于Actor-Critic框架的PPO算法包含Actor和Critic双网络。Actor网络负责生成策略,其网络参数为 θA。Critic网络通过计算优势函数An来评估当前策略,其网络参数为θc。Actor网络目标函数如式(13)所示。
式中:clip为剪切函数,ε为剪切参数;ε为n次采样的期望函数。 πθA(an|tn)是待优化的策略网络,πAold(an|sn)为当前用于收集数据的策略网络,通过重要性采样来估计新策略。两者比值越接近1,说明新旧策略更新偏移越小。更新过程中,PPO算法利用式(13)中的剪切函数来限制策略的更新幅度。当新旧策略更新偏移量过大时,使用剪切项代替,这样确保新旧策略的偏离程度不至于太大,让Actor网络以一种相对平稳的方式进行更新,收敛速度更快。
Actor网络根据当前状态生成机器人当前动作,机器人执行当前动作后产生新状态并获得奖励为一次完整交互过程,按训练批次的大小将多次交互数据进行存储,用于更新Actor网络和Critic网络,获得相对最优的网络参数。
PPO算法包含了Actor和Critic两个神经网络。Actor网络结构如图5所示,整个网络包含了一个Resnet18网络[25],4个全连接层(fully connected,FC)和一个Softmax层。PPO算法的观测状态空间为S(srgb,sdepth,sdis,sangle,smpt),RGB 图像srgb、深度图像sdepth及ORB特征点图矩阵smpt整合而成的640×480×5的张量,作为Resnet18网络的输入,sdis和sangle分别作为全连接层的输入,三者均输出一维的向量,将其输出进行拼接(Concat),后接两个全连接层和一个Softmax层,输出PPO算法动作空间中的动作。Actor网络的参数设置如表1所示,Critic网络结构及参数与Actor网络大致相同,FC4层作为输出层,输出一维数据,用来估计状态价值函数。
图5 Actor网络结构Fig.5 Actor network structure
表1 网络参数设置Table 1 Network parameters setting
仿真所使用硬件平台为一台CPU型号为Intel Core i9-10900X,内存为64 GB,显卡类型为NVIDIA RTX 3090的台式机。软件方面装有:Ubuntu 18.04系统、python 3.6版本,Pytorch 1.7.1版本,ROS Melodic版本。仿真器使用Facebook公开的室内仿真平台Habitat[18]。训练集采用Gibson数据集,包含72个不同场景。算法在与训练集不同的3个 Gibson数据集[26]场景{Edgemere、Eastville、Mosquito}中测试,每个场景均包含71个导航任务。{Edgemere、Eastville、Mosquito}场景中导航任务的平均最短路径距离[26](geodesic distance along the shortest path, GDSP)分别为 3.24 m、7.51 m、10.84 m,可分别代表简单、中等和困难3种场景,如图6所示。可以看到,Edgemere场景的布局相对最简单,Mosquito场景的布局相对最复杂。
图6 导航地图可视化Fig.6 Navigation map visualization
仿真过程中,局部路径规划策略的训练相关参数如表2所示。本文选择前进动作时,距离变化为0.1 m,选择转向动作时,角度变化为0.3 rad。为了使机器人快速接近局部目标点,需先快速调整航向角,再向局部目标点快速移动,可通过设计奖励函数,使得角度奖励比距离奖励略大。因此,距离奖励系数和角度奖励系数可根据经验分别设置为20和40。如2.3节所述,本文在设计特征点奖励函数部分时采用以10为底数的对数函数。在实验过程中,可注意到机器人在纹理较丰富的区域时,图像帧中的特征点数变化幅度不大,大概在850~950。而机器人在由纹理较丰富的区域向低纹理区域运动时,相邻帧之间的特征点变化幅度较大,比值 n mptt+1/nmptt大概在1.3~1.8。因此,特征点奖励系数可根据经验设置为80。此外,本文将碰撞和跟踪失败时的奖励值设为-30,以此降低导致碰撞和跟踪失败的动作选择概率。为了提高正常到达局部目标点的动作选择概率,本文将顺利到达局部目标点的额外奖励设为80。
表2 算法训练参数Table 2 Algorithm training parameters
为了证明所述方法的有效性和优越性,对比了DWA、TEB、MPC算法和路径跟随(path follower, PF)算法。DWA、TEB、MPC算法是ROS系统中默认的局部路径规划算法,可作为很好的比较基准;PF算法是文献[27]中提到的一种路径跟随算法,算法基于PID的离散控制实现机器人沿着规划出的全局路径行走。在行走过程中,若机器人没有面朝局部目标点(当前位置与局部目标的朝向角超过15 °),则执行左转或右转以缩小自身朝向角,否则执行前进动作。当机器人与全局目标点的距离小于0.2 m时,则认为一个导航任务成功。
本文计算了相应的成功率(success rate, SR)、跟踪丢失率(tracking failure rate, TFR)、碰撞率(collision rate, CR)。表3~5分别给出了使用不同方法在Edgemere、Eastville和Mosquito 3种场景任务中的平均结果对比。可以得到以下几点结论:
1) PF算法在所有场景任务中表现都相对较差,这是因为该算法仅仅沿着规划出的全局路径行走,没有考虑如何避障。当全局路径附近存在障碍物时,该算法很难避免发生碰撞。因此,在所有场景的任务中,该算法的平均碰撞率均是最高的。
2) DWA、TEB、MPC算法运行时需要载入局部地图,根据参数对行走轨迹进行采样,选择运动代价最小的轨迹。因此,DWA、TEB、MPC算法在进行视觉导航时具有一定的避障能力。但是,DWA、TEB、MPC算法没有考虑机器人在视觉SLAM过程中易在低纹理区域跟踪丢失的问题,无法保证跟踪的稳定性。因此,在3个场景的任务中均会发生较高的跟踪丢失率。
3) 所提出的方法在所有的场景任务中都取得了最好的性能,可以在室内杂乱环境中也能较好完成导航任务。具体来说,本文所述方法在所有场景任务中相比于传统的路径规划算法的平均成功率提高了53.9%,位姿跟踪丢失率减小了66.5%,碰撞率减小了30.1%。这说明相比于传统的局部路径规划方法,本文所提出的方法能够实现到达局部目标点的同时,更好地规避障碍物,并保证跟踪稳定性。
4) 在表3~5中,本文所提出的方法在Edgemere场景任务中表现最好,在Eastville场景任务中表现次之,在Mosquito场景任务中表现相对较差。这是因为Mosquito场景的面积相对更大,包含了多个房间和障碍物,导航任务也相对较难,起点与终点距离较长。而Edgemere场景的面积相对较小,仅包含一个卧室和卫生间。
表3 不同算法在Edgemere场景任务中的平均结果对比Table 3 Comparison of the average results of different algorithms in the Edgemere scene task
5类算法导航成功率、碰撞率以及SLAM跟踪丢失的概率随导航距离的变化分别如图7的3种图所示,随着导航距离增加,各类算法碰撞概率和SLAM跟踪概率都有所增加,但本文提出算法的导航效果对导航距离更加鲁棒,尤其是SLAM跟踪丢失概率受导航距离影响很小。
图7 性能-导航距离变化曲线Fig.7 Performance-navigation distance change curves
表4 不同算法在Eastville场景任务中的平均结果对比Table 4 Comparison of the average results of different algorithms in the Eastville scene task
表5 不同算法在Mosquito场景任务中的平均结果对比Table 5 Comparison of the average results of different algorithms in the Mosquito scene task
为了进一步验证所述方法在避免视觉SLAM跟踪失败方面的有效性,以Edgemere场景的第30个导航任务为例,将机器人行走过程中的特征点个数进行对比统计。如图8所示,PF方法和MPC方法在低纹理区域发生了跟踪丢失现象,造成视觉SLAM失败。而DWA方法虽然没有发生跟踪丢失现象,但在第5~15个关键帧之间特征点急剧下降,有很大的跟踪丢失风险。类似地,TEB方法在第30~45个关键帧之间特征点急剧下降,也存在较大的跟踪丢失风险。相反,采用本文所提出的方法后,机器人在行走过程中所跟踪到的特征始终维持在580个以上,具有较强的稳定性。3种方法的轨迹对比如图9所示(起点在左上角)。绿色轨迹代表本文所提出的方法的行走过程,红色轨迹代表DWA方法的行走过程,蓝色轨迹代表PF方法的行走过程,青色轨迹代表TEB方法的行走过程,紫色轨迹代表MPC方法的行走过程。由于PF方法和MPC方法在行走的前15步时就跟踪失败,轨迹长度较短。机器人在沿着DWA方法规划出的轨迹行走时,需要近距离,DWA方法有沿墙行走的习惯,容易发生碰撞。
图8 特征点个数对比(Edgemere场景的第30个导航任务)Fig.8 Comparisons of the number of feature points (The 30th navigation mission of the Edgemere scene)
图9 轨迹对比Fig.9 Trajectory comparison
为了更客观地衡量本文奖励函数的设计对于模型性能的影响,使用消融实验证明其有效性。消融实验是深度强化学习研究中确定某种方法是否有效的最直接的方式。本文在500个任务组成的训练集中对所提出的6部分奖励函数进行消融实验,训练过程中每次剔除其中一部分奖励函数以查看对模型指标的影响。评价指标包括成功率、跟踪丢失率和碰撞率。实验结果如图10所示。同时使用6部分奖励函数时,模型在点导航问题上具有最好的性能。其他6个消融实验在各种指标上都略逊于6种奖励函数同时使用的效果,证明了这6种奖励函数在点导航任务上具有快速到达局部目标点,并降低碰撞率和跟踪丢失率的能力。另外,在删除角度奖励部分后,模型的性能有较大程度的下降,说明在本文的点导航任务中,角度奖励相比另外5种奖励更能提升模型的性能。
图10 消融实验结果图Fig.10 Results of ablation experiments
本文针对传统局部路径规划算法不适用于基于视觉SLAM导航的问题,使用深度强化学习算法训练局部路径规划策略,根据输入输出数据特点进行Actor网络和Critic网络的设计,根据一般导航需求和视觉SLAM工作特点设计奖励函数,在Habitat仿真平台中使用点导航数据集进行训练,最终得到训练好的策略。在与传统导航策略的对比中,训练好的策略在防止视觉SLAM失败避障导航方面都表现出良好的性能,最终在3种不同难度场景中的导航成功率,均有巨大提升。下一步计划,考虑将视觉SLAM建立的二维地图纳入强化学习的观测空间,使局部导航策略的决策具有记忆性;对特征点分布进行分析,不仅考虑特征点的数量,还要考虑将特征点分布对SLAM稳定性的影响。