安全强化学习及其在机器人系统中的应用综述

2023-02-09 02:04:30张昌昕张兴龙
控制理论与应用 2023年12期
关键词:约束机器人文献

张昌昕,张兴龙,徐 昕,陆 阳

(国防科技大学智能科学学院,湖南长沙 410000)

1 引言

作为机械化、信息化和智能化融合发展的重要体现,机器人系统在人类社会的生产生活中扮演着越来越重要的角色[1-3].地面移动机器人系统[4]、无人飞行器[5]及仿生机器人[6]等机器人系统将很大程度上方便人类的生活并提高生产效率.然而,这些机器人系统往往需要在复杂不确定场景中实现智能感知与优化决策[7].为了解决这一问题,研究人员通常采用机器学习方法,使得机器人系统利用经验数据来学习知识并优化性能[8-9].在此背景下,由于机器人系统本身及其面临的环境日益复杂,如何保证其安全有效地学习成为一个重要的需求和挑战.

强化学习(reinforcement learning,RL)是一类通过与环境交互实现序贯优化决策的机器学习方法,以探索环境并最大化累积回报的方式使智能体能够在未知环境中做出自主决策[10].近年来,针对强化学习中的高维连续特征表示问题,深度强化学习方法[11](deep RL,DRL)已经成为该领域的一个重要方向和趋势.DRL方法集成了深度学习(deep learning,DL)[12]在特征表达上的优势和强化学习在优化决策方面的能力,目前已经在许多领域开展广泛的应用研究,如游戏[13]、推荐系统[14]、自然语言处理[15]、医疗健康[16]和电网优化调度[17]等.由于机器人系统通常需要与环境交互并学习行为策略,使得强化学习在智能机器人系统中的应用得到广泛关注与研究[18-21].但由于环境的不确定性和复杂性,以及在策略学习过程中需要对未知环境进行探索,机器人系统可能会采取不安全的动作,导致意外事故的发生.在某些任务中,机器人系统的安全性至关重要[22],例如自动驾驶车辆的危险行为可能造成的损失不可忽视,甚至可能威胁到乘客的生命安全,因此,如何确保强化学习在实际应用中安全可靠是一个关键问题.强化学习方法应用于机器人系统时,机器人系统本身具有较强的不确定性和高动态性,并且在现实世界中面临的环境更加复杂.这些特点给机器人系统的安全性带来了诸多挑战.因此,针对机器人系统,设计具有安全性保证的强化学习方法受到越来越广泛的关注.

安全强化学习(safe RL,SRL)可以定义为确保系统表现合理或遵守安全约束的强化学习,旨在提高传统强化学习算法的安全性.Garcia和Fern[23]将安全强化学习分为两类方法: 一类为基于风险考量修改优化准则的方法;另一类为基于外部知识修改探索过程的方法.在Gu 等[24]的论文中,根据是否利用模型信息将安全强化学习方法分为基于模型和无模型两类.Brunke等[7]则从强化学习和控制方法两个角度阐述了机器人系统的安全学习控制.此外,王雪松等[25]将离线强化学习方法归类为安全强化学习方法,这种方法仅通过离线经验数据来学习最优策略,避免了在环境中进行探索的过程.近年来,安全强化学习领域涌现出多种多样的方法,几年时间内相关文献数量也从几十篇增长到数百篇[7].

本文结合现有的工作回顾了安全强化学习的一些重要进展和成果,并重点关注了这些方法在机器人领域的应用研究.在本文中,将安全强化学习方法分为满足安全约束与增强策略鲁棒性两类方法,这两类方法分别解决两种不同类型的安全问题,这种分类方式提供了与以往综述文献不同的视角来分析安全强化学习的方法脉络.在本文中,首先介绍了安全强化学习的一般问题描述: 强化学习问题可以建模为马尔可夫决策过程(Markov decision process,MDP)[26].为了对智能体系统进行安全约束,可以将传统MDP扩展为约束MDP(constrained MDP,CMDP)[22],在优化问题中引入约束;另外,受鲁棒控制的启发,可以将MDP扩展为鲁棒MDP(robust MDP,RMDP)[27],旨在提高机器人系统对不确定因素或风险的鲁棒性.然后,本文对安全强化学习的重要算法与理论研究进展进行了分类分析和讨论,包括约束策略优化、控制障碍函数、安全过滤器和对抗性博弈训练等方法.继而介绍了这类方法在地面移动机器人系统和无人飞行器等机器人系统中的应用研究情况.最后,对安全强化学习方法及其在机器人系统中应用的未来研究方向进行了展望和探讨.

本文组织结构如下: 第2节对安全强化学习问题进行了分类和形式化描述;第3节对安全强化学习方法的重要算法与理论研究进展进行了分类讨论与综述;第4 节介绍了安全强化学习在机器人领域的应用研究情况;第5节探讨了安全强化学习及在机器人系统中应用的未来研究方向;第6节对全文进行总结.

2 问题描述

安全强化学习问题可以视作对强化学习问题的扩展,旨在在学习或者部署过程中保证智能体以及周围环境的安全性.本节介绍了强化学习问题在安全性方面的两类扩展,分别为考虑安全约束的强化学习问题和考虑鲁棒性的强化学习问题.

强化学习问题通常由数学理想化形式的马尔可夫决策过程(MDP)进行建模,用于描述序列决策问题.MDP中包含了环境状态(state),动作(action)以及奖励(reward)等元素,可以表示为元组〈S,A,P,R,γ〉,其中:S为环境状态空间;A为智能体可以执行的动作空间;P:S×A×S →[0,1]为环境状态转移函数;R:S×A×S →R为奖励函数;γ ∈[0,1]为折扣因子,在计算长期回报过程中决定着智能体对当前和未来奖励的重视程度.在MDP中,智能体在t时刻使用策略(policy)π,根据当前状态st ∈S选择动作at ∈A并执行,然后通过环境状态转移函数P和奖励函数R得到下一时刻环境状态st+1并获得奖励rt.在这些经验数据的基础上,智能体根据得到的奖励反馈对策略π进行调整,通过最大化累积回报来提升行为策略的性能,构成了学习过程.在计算累计回报时,通常使用折扣因子γ对离当前状态更远的未来回报进行折衰减.该期望累积回报可以表示为策略π下的状态值函数,即

其中Eπ[·]表示数学期望.在强化学习中,智能体可以通过经验数据学习值函数并对策略进行评估与改进,最终得到最优的值函数和行为策略.

2.1 考虑安全约束的RL问题

在强化学习中,可以通过设置一些安全约束来定义和量化智能体的安全性.这些安全约束通常基于物理限制、法律法规或道德准则等来制定,然后将其纳入学习过程以监控和调整智能体的行为.为了对安全约束进行描述,一种常用的建模方式为约束马尔可夫决策过程(CMDP)[28].CMDP是标准马尔可夫决策过程的扩展形式,可以通过元组〈S,A,P,R,γ,C〉来表示,其中C表示约束集(constraint set).定义nc个状态约束函数:ct(st,at,st+1)∈,每个约束为实值的时变函数.轨迹约束可以定义为从初始时刻状态s0开始,经过一系列动作和状态,对轨迹的累积成本进行约束[24],即

和成本概率约束

其中:Pr(·)表示概率,η为常数.

轨迹约束的优点是可以容易地描述并解决约束优化问题,缺点是难以在学习过程中对轨迹上每一时刻的状态和动作进行约束,以保证每一时刻的安全性[24,29].为了对系统的学习或部署过程中的每一时刻的状态和动作施加约束,可以引入状态约束.状态约束按照严格程度从强到弱划分为硬约束(hard constraints)、概率约束(probabilistic constraints)和软约束(soft constraints)[7]:

1)硬约束.在所有时间里t ∈{0,···,N},系统满足硬约束

2)概率约束.系统满足约束

其中pj ∈(0,1)定义了第j个约束满足的可能性(likelihood),当pj=1时,概率约束与硬约束等价;

3)软约束.鼓励智能体的动作和状态满足约束,可在硬约束的不等式右边加入非负项来实现,即

并在目标函数中加入适当的惩罚项lϵ(ϵ)≥0,且lϵ(ϵ)=0⇔ϵ=0,提高违反约束的成本,向量ϵ作为优化变量.

因此,考虑满足约束的安全强化学习问题可以描述为在遵守安全约束条件的前提下,寻求最大化期望累积回报的策略π*[25],即

这种框架为马尔可夫决策过程引入了一系列限制和约束.在强化学习中,解决安全约束问题面临两个关键挑战:如何将约束条件融合到强化学习算法中,以及如何有效地解决带有约束条件的强化学习问题.

2.2 考虑鲁棒性的RL问题

除了满足约束条件外,安全性还要求智能体具备对系统不确定性和外界干扰等风险因素的鲁棒性.为了增强鲁棒性,安全强化学习问题通常可建模为鲁棒马尔可夫决策过程(RMDP)[27],在存在不确定性或扰动时优化最坏情况下的值函数或成本函数,可通过以下max-min优化问题来表示:

其中fd∈D为系统不确定性和扰动项.鲁棒性安全强化学习的关键问题包括如何考虑不确定性和干扰因素,以及如何有效地求解max-min优化问题.

3 安全RL算法与理论研究进展

本节从考虑安全约束和增强鲁棒性两类方法出发,对当前安全强化学习算法和理论的研究进展进行概述.这两类方法分别对应解决上节所述两种安全强化学习问题.表1从解决问题的目标、方式、方法以及优缺点几个方面对本文综述的安全强化学习方法进行了直观的分析和比较.

表1 安全强化学习方法分类及对比Table 1 Classification and comparison of safe reinforcement learning methods

3.1 考虑约束的安全RL方法

目前安全强化学习领域主流的方法是通过建立约束马尔可夫决策过程来引入安全约束信息.针对约束马尔可夫决策过程,求解方式主要有以下3种: 第1种通过修改学习目标,将安全因素纳入目标函数中;第2种通过修改学习过程,限制智能体采取危险动作;第3种通过学习约束信息,在无法事先获得安全知识的情况下从经验中提取约束信息.本小节由此3种方式出发,介绍不同约束安全强化学习方法研究工作[31-94].

3.1.1 修改学习目标

常规强化学习方法的目标函数不考虑危险状态和动作造成的潜在损害,可能带来安全问题.为了解决这一问题,修改学习目标的方式将风险信息引入回报或成本函数,继而进行约束优化问题的求解,求解方式通常将原约束优化问题转化为无约束优化问题.目前,修改学习目标的方法主要包括拉格朗日法、置信域法和后向值函数法等,此类方法通常适用于处理第2.1节中的轨迹约束问题.

1)拉格朗日方法.

对于满足约束g(x)≤0的优化问题拉格朗日方法引入了拉格朗日函数L(x,λ)=f(x)+λg(x),可以等价地在原始变量x和对偶变量λ上求解无约束优化问题原始-对偶求解常采用数值更新方法执行[31].该方法在解决约束强化学习问题时,通过拉格朗日乘数法将安全约束添加到目标函数中,在不违反或尽可能少违反安全约束的前提下寻找最优解[31-32].具体而言,首先使用拉格朗日函数L(π,λ)将约束优化问题转化为无约束优化问题,然后利用强化学习方法来求解原始-对偶无约束优化问题,即

使用拉格朗日方法,文献[31]提出了一种用于风险约束强化学习的原始-对偶次梯度方法,其中定义了基于条件风险值(conditional value-at-risk,CVaR)的约束优化问题.在文献[31]的基础上,文献[32]引入了对偶变量的离策略更新,通过实证表明该更新方式具有更高的样本效率和更快的收敛速度.然后,文献[33]提出了一种约束执行器-评价器方法,称为回报约束策略优化(reward constrained policy optimization,RCPO),首先通过拉格朗日乘子法将约束条件转化为惩罚信号,然后在不同的时间尺度上更新执行器、评价器和拉格朗日乘子,最后证明了方法的局部收敛性.除此之外,文献[34]对无模型的软执行器-评价器(soft actor-critic,SAC)进行了扩展,在CMDP框架中定义行为偏好,通过指定阈值和指示函数来规范行为.该方法不需要人类先验知识或持续反馈,利用拉格朗日方法自动权衡行为约束,完成了基于目标的多约束任务.文献[35]提出了一种保守的原始-对偶随机算法,通过后悔分析证明了在不违反约束的情况下解决CMDP问题的可行性.基于拉格朗日方法的安全强化学习方法在约束优化和强化学习之间建立了联系,将约束优化问题简化为带有惩罚项的无约束优化问题.然而,这种方法仅适用于处理轨迹约束并渐进收敛,在学习过程中不能保证系统的安全性,并且对拉格朗日乘子的初始值和学习率的选择较为敏感.

2)置信域方法.

置信域法在策略优化时与拉格朗日法有所不同,置信域法显式表示安全约束,在每次迭代过程中将策略投影到安全可行集内,以控制策略的更新方向,确保策略始终满足期望的约束.文献[36]提出的约束策略优化(CPO)方法首次将置信域策略优化(trust region policy optimization,TRPO)[95]扩展到解决CMDP 问题,以限制单步策略更新不违反约束,并在理论上保证了算法接近约束满足.在实现中,CPO方法使用了拉格朗日方法来近似求解.近年来,基于CPO的算法在安全强化学习领域受到广泛关注,并发展出多种解决约束MDP的算法[37-40].其中,文献[37]提出了一种基于投影的约束策略优化(projection-based CPO,PCPO)算法,使用投影梯度下降将TRPO的中间策略投射回约束集.另外,文献[38]提出了一阶约束优化方法,将更新的策略映射回参数化策略空间,避免了使用Fisher逆矩阵,提高了计算效率.对于高维连续控制任务的仿真结果显示,相较于复杂的二阶近似方法,使用一阶近似能够获得更好的性能.然后,文献[39]提出了一种惩罚近端策略优化(penalized proximal policy optimization,P3O)算法,引入精确惩罚函数将原问题转化为无约束优化问题,并采用一阶优化方法求解,避免了逆矩阵计算困难的问题.此外,文献[40]提出了一种约束修正策略优化方法,该方法基于原始问题进行求解,采用自然策略梯度来更新策略,在性能优化和约束满足之间交替更新策略,不需要引入额外的对偶变量,并分析了全局最优的收敛性.置信域法可以在每次更新中近似保证满足轨迹约束,在训练时有着较好的安全性,但是在矩阵求逆时计算代价较大,运用一阶或二阶近似的方法存在近似误差.

3)后向值函数方法.

文献[41]提出了一种基于后向值函数(backward value functions,BVFs)的约束马尔可夫过程求解方法,解决了上述两种方法计算成本过高的问题.类似于标准值函数V π估计从当前时刻出发未来累积回报或成本的期望值,后向值函数V b,π估计了从初始状态到当前状态累积回报或成本的期望值.然后,可以将任意时刻t的轨迹级约束成本分解为前向约束成本和后向约束成本的和,再减去当前时刻的约束成本cj(st).因此,后向值函数方法可以将轨迹累积成本的约束转化为基于状态的约束.此外,文献[41]证明了转换后基于状态的约束函数值是原始约束函数值的上界,即如果给定轨迹中每一步的状态约束得到满足,那么就可以保证给定的CMDP约束得到满足.后向值函数方法缓解了CPO算法需要回溯搜索过程和共轭梯度算法逼近Fisher信息矩阵时计算成本过高的问题.在实际应用中,可以利用从环境收集的样本通过时间差分(temporal difference,TD)[96]方法同时学习后向值函数和相应的约束成本,从而缓解了离线评估的问题.后向值函数方法提供了一种新的视角,将轨迹约束分解为每个状态时刻的约束对求解约束马尔可夫决策过程.但是在文献[41]中,其策略需要添加文献[60]中提出的安全层.

3.1.2 修改学习过程

仅通过修改学习目标无法保证智能体在自由探索时不会面临危险和安全事故的问题.因此,为了避免在探索过程中出现意外情况,往往需要对智能体的行动进行安全性评估,并通过先验知识来限制其仅在安全区域内进行探索,此方式可以叫做修改学习过程.修改学习过程的方法包括李雅普诺夫函数法、控制障碍函数法以及外部干预法,外部因素主要包括专家经验、人工介入和额外的安全模块等,此类方法可以适用于处理第2.1节中的状态约束问题.

1)李雅普诺夫函数方法.

李雅普诺夫函数在控制理论中广泛用于分析动态系统的稳定性,是一种将全局属性转换为局部条件的重要工具[97].在强化学习中,为了降低探索过程中的风险,要求智能体能够从不安全状态恢复,即具备控制理论中的渐近稳定性[25].在闭环系统的稳定性分析时,给定某个策略π(s),系统可以表示为

其中f表示系统的转移函数,它是利普希茨连续的.如果存在一个利普希茨连续的正定函数

满足L(0)=0和L(s)>0,∀s0,并且在闭环状态反馈下,该函数将反馈状态映射到比原状态严格小的值上(即ΔL(x)=L(fπ(s))-L(s)<0),那么系统的状态将收敛于原点处的平衡态.对于连续时间系统,也有类似基于L导数的表达式.文献[42]首次基于李雅普诺夫函数设计安全强化学习方法,通过设计智能体在不同基准控制器之间的切换策略,保证了系统的闭环稳定性.为了降低离策略评估过程中的计算代价,并更有效地处理轨迹约束(如式(2)),文献[43-44]利用李雅普诺夫函数将其转化为逐步的基于状态的约束.其中,文献[43]的方法适用于离散动作空间问题,而文献[44]则通过策略梯度方法将其扩展到连续动作空间问题.李雅普诺夫函数方法的基本思想是将整体约束分解为一系列局部约束,因此当状态空间无穷大时,可行集会形成无穷维的约束集.实现李雅普诺夫稳定性约束的策略更新在计算成本和方法适用性等方面仍具挑战性,且该方法需要模型知识[25].此外,此类方法要求系统的初始策略π0满足约束条件,但在某些复杂任务中难以找到满足约束的初始策略,从而一定程度上限制了方法的应用范围.

2)控制障碍函数方法.

障碍函数最初源于优化理论,作为一类约束函数用于优化问题的求解[98].在控制领域中,控制障碍函数(control barrier functions,CBFs)广泛应用于控制策略的安全性问题,以确保系统的稳定性和安全性.在安全强化学习中,一些研究工作通过引入CBF约束限制智能体的动态行为,从而保证智能体在执行任务时不会违反事先设定的安全约束条件.具体而言,CBF是一种将状态空间映射到实数空间的连续可微函数Bc:S →R,安全集可表示为

即CBF在可行集的内部是正定的.文献[45]将无模型的强化学习方法与基于模型的CBF控制器以及高斯过程未知系统动力学建模相结合,提出了一种控制器架构确保学习过程中的安全性,并实现了端到端的安全强化学习.文献[46]通过障碍函数对系统施加状态约束,并将原始问题转换为无约束优化问题,然后提出了静态和动态两种间歇反馈强化学习算法,利用执行器-评价器(actor-critic,AC)框架实现了安全策略的在线学习.文献[47]将控制障碍函数增广到离策略强化学习算法的成本函数中,并为CBF设计了权衡因子以平衡安全性与最优性.该方法实现了在安全集内状态的平稳过渡,并在车道保持实验中进行了验证.文献[48]在约束边界上定义了一种广义控制障碍函数(generalized CBF),针对约束强化学习提出了一种基于模型的可行性增强技术.利用模型信息,该方法能够在不违反实际安全约束的情况下进行策略优化,提高了样本效率,并通过自适应系数机制解决了约束策略梯度求解的不可行性问题.控制障碍函数方法在安全强化学习中提供了有效的思路,将安全集约束融入到强化学习中并指导训练过程中的安全探索.然而,在实际应用中,障碍函数仍需要人工设计和选择,并且权衡系数的调节较为困难.

3)外部干预方法.

外部因素,如专家指导[49-52]、人工介入[53-54]以及额外的安全过滤模块[55-59]等,可以指导智能体的学习过程或在发现不安全动作时对智能体系统进行中断或修正.在文献[50]中,受课程教学方法的启发,智能体在自动教师(automatic instructor)的监督下进行学习,并引入监视器,在智能体做出危险动作时进行重置操作,避免了智能体在学习过程中违反约束.针对智能体在训练过程中的安全性问题,文献[49]采用基于模仿学习[99]的人工介入方式保证智能体的安全运行.另一方面,文献[55]提出了一种基于屏障(shielding)的安全学习系统,该屏障模块监视来自执行器的动作,并在动作导致违反约束时进行纠正.这种使用安全层[60]或安全过滤器[56]等模块的方法通常对原始动作的纠正方式如下:

类似地,文献[59]将屏障策略和优势函数干预机制相结合,借助屏障策略替换原策略中的不安全动作,并在屏障策略触发时,通过优势函数干预机制对原策略进行惩罚.基于屏障的方法简单有效地保证了安全,但是其安全性往往受限于安全层模块的性能.此外,一些研究通过引入其他的安全模块来确保智能体的安全性.在文献[61]中,提出了一种结合强化学习和蒙特卡洛树搜索的算法,主要包括风险状态估计和安全策略搜索两个模块,如果计算得到未来状态存在风险,就会通过增加风险动作的额外惩罚保证更安全的探索.文献[62]提出一种双层控制器架构,其中上层为元感知层,用于关注系统的安全性和性能要求,下层则利用强化学习算法结合上层信息来学习最优控制策略,由于元感知层的存在,该架构可以在不同情况和不同任务中进行安全强化学习.综上所述,专家经验的引入可以加速学习过程,而人工介入和额外的安全过滤模块可以显著减少不安全因素.然而,此类方法也存在一些缺点,首先,获取专家经验并将其应用于学习过程并非易事;其次,人工介入会增加人力成本;此外,频繁中断可能导致学习过程的不连续.

3.1.3 学习约束信息

在某些情况下,环境中的安全知识或约束信息无法提前获得,这给人工设定安全约束带来了一定的困难.因此,一类研究工作聚焦对安全知识进行在线学习,这类方法主要包括安全评价器方法和贝叶斯推理,旨在没有先验知识的情况下,通过学习或推理环境中的约束和风险知识,达到提高安全性的目的.

1)安全评价器方法.

湖北省汽车零部件产业存在规模较小、分布较散、内部竞争等问题,应加快产业并购与整合,将产业做大做强。一是在产业的地域分布方面做好规划。二是发展错位竞争。三是加强产业的纵向与横向整合。四是对产业链优胜劣汰并加强产业龙头培育。

安全评价器方法通过学习一个安全评价器(safety critic)来评价当前状态和动作的安全性.文献[63]提出了一种安全Q函数强化学习(safeQ-functions for RL,SQRL)算法,利用安全动作-状态值函数从环境中学习稀疏的安全特征,并可以迁移到相似的任务中.在SQRL中,用来预测未来轨迹的不安全概率,用于对危险动作进行过滤.该方法在实现时,首先,在仿真环境中学习安全值函数和策略,然后,将策略迁移到实际系统中.基于SQRL,文献[64]提出了一种可恢复强化学习方法,通过学习恢复策略πrec作为在原策略经过危险动作过滤后的替代方案.文献[65]在保守Q学习[100]算法的基础上,提出了一种保守安全评价器方法,用于学习环境的安全特征并过滤危险动作.该方法从理论上描述了安全性和策略改进之间的权衡,并证明了训练过程中安全约束的概率满足.文献[66]提出了一种最坏情况软执行器-评价器(worst-case soft actor critic)算法,研究了对安全值函数的两种估计方法,分别为高斯近似和分位数回归,并分析得出在复杂安全约束环境下,分位数回归方法能够取得更好的效果.安全评价器方法无需专家经验标记安全知识,具有扩展性强的优点,但其对不安全动作的过滤准则依赖于无模型学习的值函数,难以保证学习期间的安全性.

2)贝叶斯推理方法.

贝叶斯优化(Bayesian optimization)是一种用于优化高成本目标函数的方法,依靠概率和贝叶斯推理来推演优化过程中的不确定量,已经在不同领域取得了成功的应用[101].一种基于贝叶斯优化的安全学习算法是SafeOpt(safe Bayesian optimization)[102],它使用高斯过程(Gaussian processes,GP)对安全集和目标函数进行建模和推断,并在优化过程中对满足所有安全约束的参数进行概率评估.SafeOpt 的扩展算法还包括多约束安全贝叶斯优化(SafeOpt multiple constraints,SafeOpt-MC)[103],阶段安全贝叶斯优化(stagewise safe Bayesian optimization,StageOpt)[104]以及全局最优安全机器人学习(globally optimal safe robot learning,GoSafe)[105]等.进而,一些研究工作将贝叶斯优化的思想用于安全强化学习,以解决强化学习的探索和利用权衡问题[67],这类方法通常使用高斯过程对未知目标函数进行建模和学习.在基于贝叶斯优化的安全学习方法启发下,SafeMDP方法[68]将SafeOpt的思想引入到马尔可夫决策过程中,在未知成本函数的情况下进行安全探索,并可满足单步安全约束.SafeExpOpt-MDP方法[69]将安全函数和MDP中的值函数作为独立的未知函数使用高斯过程进行学习,以在优化智能体性能的同时满足安全约束.此外,综述文献[70]详细阐述了安全学习、贝叶斯优化和高斯过程建模之间的联系.贝叶斯强化学习框架提供了一种解决探索和利用问题的原则性方法,其主要优点是在选定的参数表示中考虑了状态的全部信息,包括安全信息.然而,目前贝叶斯强化学习应用的主要挑战在于选择合适的信息表示方法,并且定义基于信息的状态往往要比原始状态更为复杂.

3.2 增强鲁棒性的安全RL方法

增强鲁棒性的安全强化学习旨在实现智能体策略在面对不确定性或干扰等风险因素时的安全学习和部署,通常可以建模为鲁棒马尔可夫决策过程(9).本节将介绍两种增强强化学习策略鲁棒性的方式,分别为鲁棒训练设计和鲁棒性分析.

3.2.1 鲁棒训练设计

鲁棒训练设计旨在改进智能体的训练过程,以获得对干扰或不确定性鲁棒的策略,主要包括对抗性博弈训练和随机性泛化训练.对抗性博弈训练使用博弈论的思想解决max-min优化问题,在此类方法中,智能体在训练过程中与其他智能体或环境中的对手进行竞争,并且尝试找到最佳策略来应对可能的对手行为,通过与对手交互,智能体可以学习适应不同情境下的干扰.随机性泛化训练增加系统的不确定性或引入扰动进行学习,训练过程引入一定程度的随机性,使智能体能够学习应对不确定性.

1)对抗性博弈训练方法.

文献[71]将强化学习与对抗性学习[106]相结合,提出了一种鲁棒对抗性强化学习(robust adversarial RL,RARL)方法.该方法将鲁棒强化学习问题设置为两方零和博弈的马尔可夫过程,其中一方智能体(主角)学习策略π控制系统;另一方智能体(对手)学习策略破坏系统.两个智能体以交替的方式进行学习和更新,相互影响,逐步提高主角策略对干扰的鲁棒性.文献[72]在RARL的基础上重点关注智能体对风险的处理,其中主角避免风险,而对手寻求风险,其中风险定义为值函数预测的方差,并且该方法结合了深度Q网络(deep Q-networks,DQN)[73]进行学习.文献[74]将RARL中的对手扩展为对手群,以降低算法对单一对手的依赖,进一步提高主角策略的鲁棒性.此外,文献[75]提出一种鲁棒强化学习方法,在执行过程中计算状态-动作值的下界,以在对手或不确定性造成最坏情况时选择最优动作.然后,文献[76]提出了部分监督强化学习框架(partially-supervised RL,PSRL),将对抗性强化学习置于确定性的部分可观马尔可夫决策过程中,以达到在安全约束下最大化累积奖励的目的.另外,文献[77]设计了一种执行器-干扰器-评价器结构,其中干扰器的目标是制造最恶劣的干扰,而执行器的目标是产生最佳的控制输入.研究者观察到,通过该方法学得的策略和值函数与线性系统H∞控制理论分析推导的策略和值函数一致.对抗性博弈训练方法直接考虑鲁棒强化学习的min-max问题,无需对风险和不确定性进行建模,但由于在博弈过程中对手寻求最坏情况可能导致危险发生,因此,该类方法的训练过程依赖仿真环境.

与考虑最坏情况干扰的对抗性博弈训练不同,随机性泛化训练方法在训练过程中增加系统的不确定性和扰动,这些不确定性通常在预定义的范围内,并可以表示为不确定性集合D.然后可以使用标准强化学习算法进行训练,主要目的是使智能体能够学习应对不确定性,提高策略的泛化性能.文献[78]在具有随机属性的仿真环境中,引导四旋翼飞行器进行了基于视觉的飞行学习,所学得的鲁棒策略可以迁移到真实世界环境中并具备避碰性能.类似地,文献[79]中的工作也在仿真环境中进行学习,通过域随机化(domain randomization)技术产生丰富的模拟数据.文献[80]提出了一种集成策略优化(ensemble policy optimization,EPOpt)算法,利用经验数据和近似贝叶斯方法,对仿真环境中随机参数的概率分布进行自适应调整,以产生高质量的数据并更好地学习鲁棒策略.在文献[81]中,针对域随机化可能会导致次优和高方差策略的问题,提出了一种主动域随机化算法,通过对抗性博弈训练寻找当前策略较少探索或利用的随机化区域,以更高效地学习近似最优的鲁棒策略.随机性泛化训练旨在通过丰富的经验数据提高策略的泛化性能,然而,该方法在训练过程中需要选择适当的随机因子,并且相较于常规方法需要更长的训练时间.

3.2.2 鲁棒性分析

与鲁棒训练设计方法不同,鲁棒性分析的方法主要通过对不确定性或者潜在的风险进行分析、建模和估计,在学习策略时充分考虑不确定性,以提高对不确定性或风险的鲁棒性,主要包括可达性分析方法和风险与不确定性建模方法.可达性分析方法提供了一种安全集分析方法,用于对系统的状态空间进行分析,以确定系统可以达到的安全状态集合.这种方法通过限制策略的探索过程,确保系统在面对不确定性时能够保持在安全状态.风险与不确定性建模方法通常基于统计模型或机器学习技术,对环境中的风险因素或不确定性进行建模,并利用这些模型知识来指导策略的学习过程.

1)可达性分析方法.

哈密尔顿-雅可比可达性分析(Hamilton-Jacobi reachability analysis,HJ-RA)方法源于鲁棒最优控制理论,是一种通用严谨的可行集分析方法[107].该方法通过以下步骤进行: 首先,设函数l:S →R,满足l(s)≥0,当且仅当s为安全状态.然后,定义最优安全值函数Vl(s)如下:

表示从状态s出发,使用策略π与环境交互的轨迹中函数l(s)的最小值.安全集Ωsafe的定义为{s:Vl(s)≥0},表示函数l(s)的最小值大于零,即使用策略π与环境交互的轨迹是安全的[82].根据此定义,可以计算最优安全策略其在最快上升方向上最大化Vl,以将系统导向安全集Ωsafe.HJ可达性分析方法考虑现实中的安全问题通常为伴随着时间推移而出现的最坏情况.文献[82]首次将HJ可达性分析引入无模型强化学习算法中,以对安全约束进行严格形式化.然后,文献[83]提出了一种基于HJ可达性方法的通用安全框架,该框架可以与任意学习算法结合使用,并使用高斯过程对系统动力学进行近似,只在安全性能需要时进行策略干预.文献[84]结合了HJ可达性分析和控制障碍函数,以实现更鲁棒的控制策略,同时避免了人工设计控制障碍函数,将可达性分析方法与控制障碍函数相结合以获得更好的性能.最近的拓展研究工作[85]改进了HJ可达性分析方法在高维系统上的适应性,并在十维四旋翼无人机跟踪控制问题上进行了验证.文献[86]首先对机器人系统的黑盒模型进行数据驱动的可达性分析;然后,使用在线训练的神经网络预测未来轨迹;最后,通过可达集与障碍物之间的碰撞关系来纠正不安全行为.此外,文献[87]针对基于HJ可达性分析的安全强化学习算法的最优性问题,提出了一种可达性约束强化学习(reachability constrained RL,RCRL),通过将可达性约束引入约束优化中,在可行集上学习接近最优且持续安全的策略,并证明了该策略在最大可行集上满足约束.随后,文献[88]将RCRL拓展到基于模型的强化学习方法中.HJ可达性分析方法提供了一种适用的安全集分析方法,可以计算出更大的可行策略空间,并在与强化学习的结合中展现出良好的效果.然而,这种方法在学习过程中需要探索安全边界,因此难以保证训练时的安全性.

2)风险与不确定性建模方法.

该方法通过在强化学习过程中推导和使用风险或不确定性,以训练出更保守的策略来提高学习的安全性.在文献[89-90]中,风险被定义为机器人系统在执行任务时发生碰撞的概率.这些研究使用神经网络对碰撞模型进行学习,得到了给定当前状态和未来动作序列的碰撞概率分布,然后在学习过程中考虑碰撞模型以选择执行的动作.继而,文献[91]提出了一种谨慎适应安全强化学习(cautious adaptation for safe RL,CARL)方法,利用模型集成和概率网络评估系统动力学中的不确定性[108],并提出了避免低回报轨迹与避免灾难性碰撞两个风险概念.文献[92]提出了一种离线风险规避的执行器-评价器方法(offline risk-averse actor-critic,O-RAAC),使用条件风险值评估风险,能够在完全离线的环境中学习风险规避策略,并且该方法无需使用模型.此外,文献[93]提出了均值-方差策略迭代(mean-variance policy iteration,MVPI)方法,在MDP中使用均值和方差对风险进行度量,并以双延迟深度确定性策略梯度算法(twin delayed deep deterministic policy gradient algorithm,TD3)为例,在仿真环境中实现了风险规避强化学习.类似地,文献[94]选择了均值-半方差(mean-semivariance,MSV)作为风险度量,即随机变量在其均值下的负偏差.本节讨论的风险与不确定性建模方法和第3.1.3节中学习约束信息的方式均关注学习环境中的风险知识,但其重点略有不同.不同的是前者关注学习或部署过程中如何考虑最坏风险或者不确定性,倾向于学习保守的策略,而后者关注解决约束优化问题,通过学习和应用先验的安全知识来限制策略的选择空间.风险与不确定性建模方法直接有效地通过推导和使用风险估计来提高系统的安全性,但是其性能依赖于选择考虑的风险因素和估计精度.

4 安全RL在机器人系统中的应用研究进展

安全强化学习方法已经在机器人领域获得了广泛的关注,其目标是确保强化学习在机器人系统上的训练和部署过程中能够保持安全和合理的行为.在最近的研究工作中,安全强化学习已经应用于设计地面移动机器人、无人飞行器和工业机器人等系统的决策、规划和控制算法,以确保它们在面对不可预测的情况时采取正确的行动,例如避免碰撞和遵守交通规则等,为机器人系统的自主智能操作提供了一种有效的途径,并有望使其更加安全、高效、准确地完成任务.下面从安全强化学习在地面移动机器人、无人飞行器以及其他机器人系统中的应用研究情况展开详细阐述.

4.1 安全RL在地面移动机器人系统中的应用

地面移动机器人系统需要在复杂和不可预测的交通环境下实现精确且安全的行驶.文献[109]将深度确定性策略梯度(deep deterministic policy gradient,DDPG)[110]和安全控制算法相结合,并使用人工势场法进行机器人路径规划.该方法首先在稳定的环境中使用DDPG学习驾驶策略,然后结合策略网络和安全控制避免碰撞,并表明在大多数情况下,深度强化学习与安全控制相结合能够取得良好的性能.文献[111]针对理想化模型对现实世界随机性和高维性的适应性问题,研究了如何使用模型预测来约束探索过程,并重点关注了地面移动机器人系统在十字路口的行为.文献[112]提出了一种增强策略概率保证的方法,在训练之前推导出一个探索策略,使智能体在动作空间中选择的动作满足线性时序逻辑(linear temporal logic,LTL)的期望概率规范,以缩小搜索空间并简化奖励设计,该研究在涉及多个交通参与者的交叉路口情景案例中进行了应用实验.文献[113]在强化学习中加入人类决策模型,采用后悔理论(regret theory)来描述和建模人类驾驶员的换道行为,然后将人类驾驶员决策纳入安全条例,以控制地面移动机器人系统进行安全有效并符合人类期望的操作.文献[114]针对地面移动机器人系统的规划任务提出了一种层次结构,引入了策略导向的轨迹规划器,上层深度强化学习算法输出策略,对下层轨迹规划器进行导向和建议.这种方法将交通规则和策略转化为正式的规范,上层深度强化学习算法处理长期的不确定性任务,而下层轨迹规划器负责保证安全性.文献[69]针对车道保持和多车决策任务的安全约束问题,提出了一种并行约束策略优化(parallel constrained policy optimization,PCPO)方法,将目前常见的执行器-评价器两学习器结构扩展为三学习器结构,使用3个神经网络分别逼近策略函数、值函数和风险函数,在搜索最优策略过程中同时考虑性能和风险.在文献[69]工作的基础上,文献[115]提出了一种基于控制障碍函数安全层的决策方法[116],并通过遵循交通规则确保高速公路场景下自动驾驶运动规划的安全性和合法性.文献[117]提出了一种多时间尺度约束DQN算法,该算法引入了基于截断值函数的近似多步约束公式,直接在Q函数更新中限制动作空间,能够在自动驾驶仿真平台[118]中学习策略,并迁移到真实数据集[119],验证了该算法的有效性.文献[120]使用变分自编码器[121]和DDPG构建了一个无模型强化学习框架,并加入逻辑规则,实现了真实世界中的车辆安全驾驶实验.文献[122]提出了一种多步策略评估机制,用于预测时变CBF安全约束下的策略风险.该机制能够引导地面移动机器人系统进行策略安全更新,并能够在理论上证明系统的稳定性和鲁棒性.

4.2 安全RL在无人飞行器系统中的应用

与地面移动机器人系统相比,无人飞行器(unmanned aerial vehicles,UAVs)具有更高维度的状态动作空间,使得其安全学习任务更具挑战.文献[123]为了应对微型飞行器控制的不可预测性和安全性问题,并解决训练样本需求量大的困扰,运用分层强化学习在未知环境下对安全性问题进行了扩展,并在无人机仿真平台中进行训练.文献[124]提出了一种基于两阶段强化学习的多无人机避碰方法,在第1阶段使用监督学习方法训练策略使智能体学习共同的避碰规则,在第2 阶段使用策略梯度方法进一步优化上述避碰策略,目标是仅通过局部噪声观测完成无人飞行器无碰撞轨迹规划任务.另外,文献[79]展示了四旋翼无人机竞速的案例,面对小型自主无人机环境动态变化、状态估计不可靠和计算资源限制等挑战,实现了基于视觉的自主无人机竞速.该工作通过域随机化方法在仿真环境中产生了丰富的模拟数据,实现了增强鲁棒性的安全强化学习,并将算法部署在竞速无人机的仿真和物理平台,使其能够完成移动门高速穿越任务.文献[125]提出了一种介入辅助式强化学习框架,通过人工介入智能体-环境交互的方式改进策略,并以无人机作为测试平台.实验结果表明,该算法能够减少人为干预,提高自主导航性能,并确保安全性.在机器学习中,选择合适的调优参数是一个普遍存在的难题,显著影响算法的性能.针对这一问题,文献[103]利用了贝叶斯优化方法和SafeOpt思想,将多个安全约束与目标分开考虑,提出了一种名为SafeOpt-MC的算法.该算法首先给定一组初始安全参数,在优化过程中只对满足所有安全约束条件的参数进行高概率评估,并可利用上下文变量将安全知识转移到新任务中.在四旋翼飞行器系统中的实验表明,该算法能够快速、自动且安全地调整并优化参数.文献[126]提出了一种强化学习的安全探索方法,通过预定义风险函数和基准策略来探索安全空间,并在直升机控制和自动泊车等任务中对提出方法进行了验证.此外,文献[127]提出了一种基于策略优先级的强化学习层次结构,将策略划分为具有不同选择优先级的子策略,从而降低了动作集的复杂性,并通过智能体之间的迁移学习来初始化学习参数,加速了最优策略的初始探索,该方法在无人机的抗干扰通信中得到了应用.

4.3 安全RL在其他机器人系统中的应用

除上述两种典型的机器人系统外,安全强化学习算法也在仿生机器人、工业机器人和机械臂等系统中得到了广泛的应用研究.机器人系统通常需要进行导航、行走、抓取等基础任务,并对人类工作进行辅助.无论在生活应用还是工业控制场景中,保证机器人系统的安全性都至关重要.文献[128]针对6自由度工业机械手开发了一种完全可微的安全层,该层将不安全的动作作为输入,并输出满足约束的相近动作,以确保机器人系统只能采取满足安全约束的动作.文献[129]使用安全强化学习来改善类人机器人的行走行为:首先,假设存在一个安全的基准策略;然后,通过概率重用来学习更好的策略;最后,在人形机器人系统[130]中进行了实验验证,结果表明该方法提高了学习速度并减少了学习过程中的跌倒次数.文献[131]针对四足机器人的安全运动控制问题,提出了一种安全强化学习策略框架,在安全恢复策略和原策略之间进行切换,其中安全恢复策略防止机器人进入不安全状态,降低行走过程中的损伤风险,并且尽量减少对学习过程的干预.该方法在四足机器人仿真和实际系统中进行了验证,可以执行走路、猫步、两腿平衡和踱步等任务.文献[132]提出了一种接触式安全强化学习框架,展示了安全强化学习在解决复杂接触式机器人操纵任务方面的潜力.该方法考虑任务空间和关节空间的安全性,当强化学习策略引起机器人手臂与环境之间的意外碰撞时,能够立即检测碰撞并保持接触力.在机器人擦拭任务上的实物实验表明,该方法能够在任务中保持较小的接触力,并且可以防止意外碰撞情况对任务的干扰.

5 未来研究展望

目前,安全强化学习及其在机器人系统中的应用研究已取得了一些成果,但仍面临着一些问题和挑战.在本节中,针对该领域研究的挑战和未来研究方向,主要总结以下几点进行探讨:

1)系统安全性和性能之间的权衡.强化学习方法需要在未知的环境中进行试错学习,然而过于激进的探索可能会导致机器人系统做出错误的决策,从而造成意外危险,过于保守又会对性能的提升产生不利影响.因此,强化学习中探索与利用的权衡至关重要.在进行探索时,必须考虑到安全性因素,例如,采用基于模型的强化学习方法,即利用已有的环境模型指导机器人系统的探索,使其更加高效和安全,或者采用混合智能方法,将传统的规则系统或人类经验和强化学习相结合,实现对机器人系统的指导和控制,以保证系统的安全性和性能.

2)仿真和实际系统之间的策略迁移,目前,安全强化学习仿真平台如Safety Gym[133],Safe-Control-Gym[134],SafeRL-Kit[135],D4RL[136]和NeoRL[137]等已经在模拟复杂物理机器人系统的任务中取得了积极成果.在仿真环境中进行训练的优点为试错成本低,安全性要求弱并且数据更易获得.然而,在实际系统中存在各种不确定性和噪声,而且系统动态变化更加复杂,仿真平台仍无法完全模拟实际系统.此外,物理世界的机器人系统在运行过程中需要更加严格的安全性能保证.因此,如何将在仿真环境中学习到的策略安全有效地迁移到实际系统中是未来研究的重要方向.

3)在线学习中的安全性保证.尽管目前的安全强化学习方法已经取得了许多进展,但真实世界中在线强化学习的安全性理论和算法还研究不够充分.此外,由于真实世界中的运行成本较高,智能体可能只能获得少量的数据(相较于仿真环境),因此,在线安全强化学习对样本利用效率也提出了很高的要求.因此,如何在现实世界中实现安全高效的在线学习,并保证策略函数和值函数的收敛性,仍然是一个具有挑战性的问题.

4)机器人系统与人类的安全交互问题.在机器人系统与人类交互的任务中,由于人类行为的不可预测性,机器人系统需要实时学习人类安全约束信息以及风格偏好,以及时调整策略.此类机器人系统需要保证在与人类互动的过程中安全可靠,并能够通过不断学习和自适应来优化自身的行为.因此,在与人类的交互过程中,如何使机器人系统具备强大的安全学习和自适应能力是一个重要问题.

6 结论

本文对近年来安全强化学习算法和理论进展及其在机器人系统中的应用进行了全面的综述和分析.首先对安全强化学习问题进行了形式化建模与分类,分为考虑安全约束的强化学习问题与考虑鲁棒性的强化学习问题.然后分别阐述了针对不同类型问题的代表性研究工作,包括考虑满足安全约束的修改学习目标、修改学习过程和学习约束信息,以及考虑增强鲁棒性的鲁棒训练设计和鲁棒性分析等.针对未来的研究,重点从系统安全性和性能之间的权衡、在线学习中的安全性保证等几个方面进行了探讨.

猜你喜欢
约束机器人文献
Hostile takeovers in China and Japan
速读·下旬(2021年11期)2021-10-12 01:10:43
“碳中和”约束下的路径选择
约束离散KP方程族的完全Virasoro对称
Cultural and Religious Context of the Two Ancient Egyptian Stelae An Opening Paragraph
大东方(2019年12期)2019-10-20 13:12:49
The Application of the Situational Teaching Method in English Classroom Teaching at Vocational Colleges
The Role and Significant of Professional Ethics in Accounting and Auditing
商情(2017年1期)2017-03-22 16:56:36
机器人来帮你
认识机器人
机器人来啦
认识机器人