机器人视觉伺服控制研究进展与挑战

2018-01-17 14:32杨月全秦瑞康李福东曹志强张天平
郑州大学学报(理学版) 2018年2期
关键词:位姿标定学报

杨月全, 秦瑞康, 李福东, 曹志强, 季 涛, 张天平

(1.扬州大学 信息工程学院 江苏 扬州 225009; 2.中科院自动化研究所 复杂系统管理与控制国家重点实验室 北京 100190)

0 引言

自从机器人诞生以来,其应用之初主要在工业制造领域, 后逐渐扩大至军事、航天、医疗、娱乐、生活等领域[1-8].传统的机器人控制一般使用示教再现方式,这种方法精度很高,但缺乏灵活性.后来将CCD像机用到机器人上,带有视觉功能的机器人技术成为研究热点.最初是一种“看后走”方法,该方法首先对物体进行特征提取,计算出像机坐标系下物体的位姿信息,通过正向运动学得出期望位姿;然后根据期望位姿通过解逆运动学来求解相应的期望关节向量.这种方法只能运用于静止物体,而且进度受多方面影响,如标定精度、机器人结构参数等.为了提高任务精度,1973年Shirai和Inoue提出了传统的视觉反馈[9],称之为“静态边走边看”,但受当时图像处理技术发展的限制,实时性无法得到满足.1979年,Hill和Park正式提出了“视觉伺服”的概念[10],与传统的视觉反馈的不同之处在于图像的处理与信息的反馈是同时进行的,控制精度、灵活性以及鲁棒性都有了较大提高.结合近几年的国内外对视觉伺服控制研究情况, 本文重点对机器人视觉伺服控制进展进行了回顾, 对该领域研究所面临的挑战进行了分析.

1 机器人视觉伺服系统

自从机器人视觉伺服被提出来以后,研究人员提出了许多伺服方法和伺服结构,按不同的标准可以将其分成不同的类别.根据摄像机个数不同,可分为单目视觉系统、双目视觉系统和多目视觉系统等.根据摄像机的安装方式,可分为手眼视觉系统(eye-in-hand)和场景视觉系统(eye-to-hand)等.根据输出信号的形式,可分为基于动力学的视觉伺服和基于运动学的视觉伺服.根据摄像机参数的需求情况,可分为基于标定的视觉伺服和基于无标定的视觉伺服.下面,根据反馈信息的类型,从基于位置的视觉伺服、基于图像的视觉伺服和混合视觉伺服等对国内外研究现状进行分析.

1.1 基于位置的视觉伺服

在基于位置的视觉伺服结构中,其初始给定信息与反馈信息都以笛卡尔空间的形式呈现.在笛卡尔空间中,将机器人末端执行器和目标物体间的相对位姿定义为伺服任务.利用所采集的图像信号得到机器人的当前位姿信息,将当前位姿与期望位姿的差值传输给视觉控制器,形成闭环反馈[11-14].

在基于位置的模型依赖视觉伺服结构中,利用扩展卡尔曼滤波器来求得相对位姿,文献[15]采用拥有eye-in-hand/eye-to-hand混合配置的多像机配置,这种方法计算量小.另外,广义预测控制器[16]与自回归模型[17]等方法也可用来估计机械手的位姿.在基于位置的模型无关的视觉伺服结构中,可以通过分解机器人当前和期望图像之间的本质矩阵[18],求得旋转和平移信息,以使其完成伺服任务. 利用当前图像与目标图像间的对极几何关系, 文献[19]得到两幅图像间分别在位置和方向上的参数. 采用基于位置的视觉伺服控制器和常规PD控制器相结合的方法, 文献[20]实现了机器人对目标运动的跟踪.针对激光焊接工业机器人运动轨迹的精度问题,文献[21]提出一种基于视觉反馈的激光焊接机器人轨迹跟踪控制策略.针对eye-to-hand单目视觉配置的目标跟踪问题,文献[22]提出了一种利用虚拟视觉伺服算法,使得CAD模型在图像空间中的投影收敛至目标边缘, 从而实现笛卡尔空间中三维目标物的精确跟踪的基于模型的三维跟踪算法.针对利用视觉引导的机器鱼水下追踪问题,文献[23]利用基于模糊滑膜控制机器鱼到达目标水深并保持该水深的位置,利用多步骤的方法控制机器鱼的走向,并且保持快速性与准确性.

由于伺服任务的精度较大程度依赖于系统标定.像机标定包括像机内参标定与像机外参标定,主要有直接线性变换、Tsai两步法[24]、张正友平面标定法[25]、平面圆标定法[26]、平行圆标定法[27]等. 基于标定板的传统标定方法,为了进一步改进内参标定的精度,文献[28]在传统标定方法的基础上,提出一种共面点的改进摄像机标定方法.基于张正友标定法,文献[29]提出一种新的基于遗传算法的摄像机内参标定优化.文献[30-32]分别提出一种新的标定板块及配套的、远心镜头的、基于两相同圆的标定算法.以上方法都是针对标定模板的标定方法,无法应用于无模板的场合.另外,自标定方法[33]研究主要有直接求解Kruppa方程法[34]、分层逐步标定法[35-36]、绝对二次曲面自标定[37]等. 为了提高外参标定的精度,文献[38]提出了一种迭代计算的方法.针对位置姿态分开标定引起的测量误差,文献[39]提出了一种奇异值分解的方法.以上的标定方法使得像机标定的精度问题得到有效解决.在实际应用过程中,每当系统发生改变的时候都需要重新精确标定.这种伺服方法在伺服控制中计算量较大,由于机器人运动过程中可能部分或者全部不在视野之内,使得伺服任务较难以完成.

1.2 基于图像的视觉伺服

基于图像的视觉伺服将给定信息与反馈信息均定义在图像特征空间.通过当前图像与期望图像相关特征的比较,求出两种图像间的误差关系,并将此作为控制信号,形成闭环反馈,通过控制机器人,使其末端执行器满足当前图像与期望图像特征相等的条件以完成伺服任务.

使用此种伺服结构,比较重要的一个任务就是解决图像雅可比矩阵的求解问题[40-45].求解图像雅可比矩阵也就是求解机器人末端执行器空间速度与图像特征变化率之间的变换关系.常数近似法是利用目标位姿得到的图像雅可比矩阵用于整个伺服过程,这种求解方法只能在期望位姿的小范围内完成伺服任务.文献[41]中指出在线估计不需要三维物体模型和精确像机标定参数.直接估计法是在机器人进行伺服任务时,用辨识来直接获取图像雅可比矩阵.与基于位置的视觉伺服控制方法相比,这种伺服控制方法无须进行位姿估计,也无须对物体三维重构,复杂程度大大降低.此外,这种方法不需要精确手眼标定,因此对手眼标定误差的鲁棒性较强.但这种方法也存在一些弊端.首先,这种伺服控制方法可以确保伺服系统局部渐近稳定,但确定稳定域大小却有一定的困难[43].其次,其本身是在二维空间定义的,无法对三维空间的路径直接控制,此时的路径可能无法达到最优.此外,雅可比矩阵的求解过程中还存在奇异性问题和局部极小值的问题.文献[44]指出选取3个以上的图像特征可一定程度上避免奇异性问题.

1.3 混合视觉伺服

无论是基于位置的视觉伺服,还是基于图像的视觉伺服,都存在各自的优缺点,因此,法国专家Malis等人提出了混合视觉伺服的方法[46].与基于图像的视觉伺服相比,混合视觉伺服可使任务空间严格收敛,与基于位置的视觉伺服相比,混合视觉伺服不需要物体的三维模型信息.

在这种伺服结构中,需要提前知道机器人的期望位姿信息,由机器人当前位姿与期望位姿之间的关系可得到对应的单应性矩阵,通过这个矩阵对机器人旋转操作控制.由图像特征的变化得到平移信息,从而对机器人平移操作控制.此方法实现了对机器人平移运动和旋转运动的部分解耦,也可将其称为基于单应性矩阵的视觉伺服控制.这种方法一定程度上可解决局部极小值问题.此外,文献[46]指出这种视觉伺服方法不存在奇异性问题.文献[47]对像机标定和手眼像机标定的误差进行了稳定性和鲁棒性分析.但是这种混合视觉伺服方法也存在不足,主要是单应性矩阵的求解问题.文献[46]指出单应性矩阵的求解对特征点的个数有要求,单应性矩阵的求解过程耗时大,而且可能存在多解问题,另外单应性矩阵的求解过程中对图像噪声比较敏感.

2 基于无标定的视觉伺服

传统视觉伺服一般需要像机内外参数标定[48-55], 受像机畸变以及图像噪声的影响,使得标定的结果很难达到要求.鉴于基于标定的视觉伺服仍存在很多的问题,1994年Hosoda等提出了无标定视觉伺服[51].这种方法的本质是通过求解图像雅可比矩阵设计视觉控制器,在只有粗略的像机内外参数以及粗略的机器人结构和运动参数的情况下控制机器人.无标定视觉伺服分为雅可比在线估计法、雅可比自适应法、深度独立雅可比矩阵估计法等.

2.1 雅可比在线估计法

该法又称为雅可比直接估计,是一种研究较为广泛的方法[56-67].针对不同运行速度的系统,文献[51]提出了静态加权Broyden法和指数加权递归最小二乘法的辨识方法.针对不依赖先验知识的情况,文献[58]提出了一种基于切比雪夫多项式构成成本函数的Broyden图像雅可比矩阵估计方法,该方法有较好的收敛速度与系统性能.为了解决大偏差对系统的影响问题,基于误差仿射模型,利用拟牛顿法估计图像雅可比矩阵,文献[59]提出了大偏差条件下的无标定视觉伺服控制策略.针对残差项的问题,基于动态割线法获得图像雅可比矩阵,文献[60]提出了全局Hessian矩阵逆的D-BFGS直接估计法.针对高斯牛顿法在大残量情况时可能不收敛或不能收敛到期望值的问题,文献[61]提出了一种采用L-M方法的无标定视觉伺服控制方法.在雅可比的求解过程中,环境噪声会对其求解造成影响,文献[62]提出了一种基于卡尔曼滤波器的雅可比在线估计方法.针对计算雅可比伪逆矩阵引起的奇异性问题,文献[66]提出了一种递推最小二乘法估计图像雅可比矩阵伪逆.针对视觉信息获取延时问题,文献[67]提出了一种带有时延补偿的视觉跟踪方法.

2.2 雅可比自适应估计法

雅可比自适应估计法不需要任何手眼系统参数,利用各种自适应算法对手眼系统参数进行在线估计[68-78].在运动学方面,基于单应性矩阵分解,文献[68]提出了一种eye-to-hand系统运动学自适应控制策略.利用分解单应性矩阵的方法,文献[69]设计高增益鲁棒控制器使得旋转误差稳定,以补偿未知深度信息和像机标定内参的自适应控制器使得平移误差稳定.在动力学方面,针对深度信息不断变化目标跟踪问题,文献[71]设计了自适应跟踪控制器.基于李雅普诺夫方法的自适应控制策略,文献[73]对特征点的深度信息进行补偿.基于自适应控制问题,文献[76]提出一种基于SDU分解的模型在线标定方法.在视觉跟踪方面,针对运动学和动力学参数的不确定问题,文献[77]提出了一种利用backstepping设计的自适应雅可比跟踪方法,设计观测器避免关节和任务空间加速度问题.在不测量图像空间速度的情况下,文献[78]提出了一种基于非线性观测器的控制方法,通过自适应控制器实现了深度信息、动力学参数以及深度无关运动模型参数的分离.

2.3 深度独立雅可比矩阵估计法

该法既能对未标定摄像机参数补偿,也可对未知变化运动的深度信息补偿,且对深度信息无约束[79-85].利用Slotine-Li算法与图像误差梯度最小下降法在线估计系统未知参数信息,文献[79]首次提出了深度独立雅可比矩阵的无标定视觉伺服控制方法.在定位方面,文献[80]提出了一种可同时处理动力学参数、机器人几何参数以及摄像机内外参数的自适应定位方法.在动态跟踪方面,文献[82]将基于深度独立雅可比矩阵估计法应用于eye-to-hand场景系统的单特征点动态轨迹跟踪问题.针对未知物体的跟踪问题,文献[84]提出了一种利用非线性观测器,在线估计未知物体运动状态的动态视觉跟踪方法,设计了基于深度独立雅可比矩阵估计的动态跟踪器.针对系统建模偏差或者外部干扰所导致的测量误差大和关节速度无法测量的问题,在使用深度无关矩阵实现参数线性表达的基础上,文献[85]提出了一种采用浸入与不变流形观测器对关节速度进行估计的无标定视觉伺服.

2.4 其他无标定视觉伺服方法

除了以上3种方法,还有其他无标定视觉伺服方法.在只知道摄像机内部粗略参数的情况下,文献[86]提出了一种采用图像特征信息和相对位姿分别作为平移运动和旋转运动反馈信号,使得定位系统渐近稳定的策略.基于自抗扰控制器,文献[87]提出一种将图像雅可比矩阵近似误差作为扰动进行补偿和估计的无标定视觉伺服方法.

由于机器人的视觉系统与机械手末端之间的关系是一个非线性时变问题,而现在的优化方法可能会导致某些情况下无解,或需要强约束条件. 故也有基于智能学习方法展开的研究[88-93].针对人工神经网络的结构选取问题,文献[89]设计了基于人工神经网络的视觉跟踪控制器, 完成三维目标跟踪任务.针对自由度机器人平动的视觉定位问题,文献[91]提出了一种利用人工神经网络对全局有效的非线性视觉映射关系模型拟合的无标定视觉伺服策略.由于雅可比矩阵本质上是线性和局部的,这影响了神经网络对全局非线性输入输出关系的逼近能力.

自抗扰控制器是针对不确定系统的非线性控制器[94-99]. 将机器人视觉与机器人末端执行器之间的未知映射关系作为未建模动态,文献[95]利用自抗扰控制器的思想设计控制器完成伺服任务.基于耦合的自抗扰控制器思想, 文献[96]通过对系统建模的不确定性及其未知外扰进行非线性补偿,完成了相互耦合的不依赖于系统特定任务的无标定手眼协调控制器的设计.基于自抗扰控制器思想,文献[97]通过对系统未建模动态和外部扰动的补偿,完成了不依赖于任务的无标定手眼协调控制器的设计.利用一个外部扩展状态观测器估计未建模动态和外部扰动,文献[87]设计了基于非线性状态误差反馈的控制策略.

3 面临的挑战

经过几十年的发展,机器人视觉伺服研究和应用取得了很大的发展和成就.但可以看出大多数的伺服算法仍有一定的局限性.为了将机器人视觉伺服系统应用于实际中,必须解决其精确度、实时性、可靠性以及鲁棒性等问题和要求,在这些方面仍面临很大挑战.

第一,视觉伺服的实时性问题.视觉伺服的过程中包含图像采集、图像处理、特征提取与分析、控制信息(如位姿、深度信息等)转换生成等.无论是基于位置的视觉伺服过程中的位姿估计,还是基于图像的视觉伺服过程中的图像雅可比矩阵估计、深度信息估计等,都需要有较强的算法来提高实时性.为了拓宽伺服系统的应用领域,如何进一步改善系统的实时性仍是当前亟待深入研究的问题之一.

第二,复杂动态环境下视觉伺服的可靠性问题.近年来针对视觉伺服的研究,往往将其处于理想的静态环境下,或者假设环境已知对系统约束处理,但真实环境是复杂的,多变的、未知的动态约束可能会导致机器人碰撞或者目标物遮挡;其次,在实际应用中会有图像噪声、控制延时和模型误差等问题,从而使得系统的稳定性以及动态性能受到影响.因此,针对视觉伺服可靠性,还有很多问题值得深入探索.

第三,多传感器的信息融合问题.当前的研究大多是利用单一视觉传感器进行的,但其自身存在某些缺陷,如探测空间受限.在复杂的实际环境中,如何有效地使多视觉传感器的信息进行有效融合,从而提高实际控制的性能成为研究重点.

第四,多任务控制问题.当前大多数的视觉伺服方法是基于单任务控制问题.但在一个实际应用中往往有多个任务,如机器人抓取系统、装配系统等,处理多任务控制问题是必不可少的.

第五,基于离散时间域以及混杂系统的控制器设计问题.由于当前大多数的动态视觉伺服控制器都是基于连续时间域的机器人动力学设计的,但是实际应用多是在离散时间域或连续/离散时间域混合情形下实现的.因此,如何基于离散时间域、混杂系统的机器人运动学和动力学设计与分析,开展动态视觉伺服控制器问题变得越来越重要.

4 总结

本文根据反馈方式对视觉伺服分为基于位置的视觉伺服、基于图像的视觉伺服和混合视觉伺服等3类,对其控制结构、算法等进行了回顾分析.此外,特别对无标定视觉伺服进行了着重分析和小结.最后,就当前视觉伺服研究所面临的挑战进行了分析.

参考文献:

[1] KHURSHID J, HONG B R. Military robots-a glimpse from today and tomorrow[C]// Proceedings of the 8th International Conference on Control, Automation, Robotics and Vision. Kunming, 2004: 771-777.

[2] MILLS S, AOUF N, MEJIAS L. Image based visual servo control for fixed wing UAVs tracking linear infrastructure in wind[C]//Proceedings of 2013 IEEE International Conference on Robotics and Automation (ICRA). Karlsruhe,2013: 5769-5774.

[3] LUO R C, CHEN C T, PU Y J. Internet based remote supervisory system for Tele-medicine robot application[C]// Proceedings of IEEE Workshop on Advanced Robotics and its Social Impacts. USA: IEEE Computer Society, 2009: 153-158.

[4] ISHIDA T, KUROKI Y. Motion and real-world sensing system of a small biped entertainment robot[J]. Proceedings of the world congress on intelligent control & automation, 2004, 6(10): 4834-4839.

[5] 赵清杰, 连广宇, 孙增圻. 机器人视觉伺服综述[J]. 控制与决策, 2001, 16(6): 849-853.

[6] 方勇纯. 机器人视觉伺服研究综述[J]. 智能系统学报, 2008, 3(2): 109-114.

[7] 黎志刚, 段锁林, 赵建英, 等. 机器人视觉伺服控制及应用研究的现状[J]. 太原科技大学学报, 2007, 28(1): 24-31.

[8] 贾丙西, 刘山, 张凯祥, 等. 机器人视觉伺服研究进展: 视觉系统与控制策略[J]. 自动化学报,2015,41(5): 861-873.

[9] SHIRAI Y, INOUE H. Guiding a robot by visual feedback in assembling tasks[J]. Pattern recognition, 1973, 5(2): 99-106.

[10] HILL J, PARK W T. Real time control of a robot with a mobile camera[C]// Proceedings of intermational symposium on industrial robots. Washington: D C, 1979: 233-246.

[11] TAYLOR G, KLEEMAN L.Hybrid position-based visual servoing with online calibration for a humanoid robot[C]// Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems. Japan:Sendai,2004: 686-691.

[12] GANS N R, DANI A P, DIXON W E. Visual servoing to an arbitrary pose with respect to an object given a single known length[C]//Proceedings of the American Control Conference. Washington, 2008:1261-1267.

[13] 董鹏飞. 基于位置的工业机器人视觉伺服控制系统研究[D]. 广州:华南理工大学, 2015.

[14] 李国栋, 田国会, 薛英花. 基于QRCode技术的家庭服务机器人视觉伺服抓取操作研究[J]. 东南大学学报(自然科学版), 2010, 40(S1): 30-36.

[15] LIPPIELLO V, SICILIANO B, VILLANI L.Eye-in-hand/eye-to-hand multi-camera visual servoing[C]// Proceedings of the 44th IEEE Conference on Decision and Control. Seville, 2005: 5354-5359.

[16] KOIVO A J, HOUSHANGI N. Real-time vision feedback for servoing robotic manipulator with self-tuning controller[J]. IEEE transactions on systems man and cybernetics, 1991, 21(1):134-142.

[17] WESTMORE D B, WILSON W J. Direct dynamic control of a robot using an end-point mounted camera and Kalman filter position estimation[C]// Proceedings of the IEEE International Conference on Robotics and Automation. Sacramento, CA, 1991:2376-2384.

[18] GEORGIEV G H, RADULOV V D. A practical method for decomposition of the essential matrix[J]. Applied mathematical sciences, 2014, 8(176): 8755-8770.

[19] BASRI R, RIVLIN E, SHIMSHONI I. Visual homing: Surfing on the epipoles[J]. International journal of computer vision, 1999, 33(2): 117-137.

[20] 赵艳花,卢秉娟.基于位置的机器人视觉伺服控制[J].洛阳理工学院学报(自然科学版),2008, 18(2): 77-79.

[21] 张文增,陈强,都东,等.基于三维视觉的焊接机器人轨迹跟踪[J].清华大学学报(自然科学版), 2007, 47(8): 1270 -1273.

[22] 张鹏程, 徐德. 基于CAD模型的目标跟踪和定位算法研究[J]. 高技术通讯, 2014, 24(6):623-631.

[23] YU J, SUN F, XU D, et al. Embedded vision-guided 3-D tracking control for robotic fish[J]. IEEE transactions on industrial electronics, 2016, 63(1): 355-363.

[24] TSAI R. A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses[J]. IEEE journal on robotics and automation, 2003, 3(4):323-344.

[25] ZHANG Z. A flexible new technique for camera calibration[J]. IEEE transactions on pattern analysis and machine intelligence, 2000, 22(11):1330-1334.

[26] 孟晓桥,胡占义.一种新的基于圆环点的摄像机自标定方法[J]. 软件学报, 2002, 13(5):957-965.

[27] 黄凤荣,胡占义,吴毅红.单幅图像测量的一种新方法[J].自动化学报, 2004, 30(4):487-495.

[28] 刘杨豪,谢林柏.基于共面点的改进摄像机标定方法研究[J].计算机工程, 2016, 42(8):289-293.

[29] 徐中宇,李春龙,孙秋成,等.基于遗传算法的摄像机内部参数标定优化方法[J]. 吉林大学学报(理学版), 2014, 52(6):1267-1271.

[30] 文涛,左东广,李忠科,等.一种鲁棒的高精度摄像机标定方法[J].计算机应用研究,2015, 32(11):3489-3491.

[31] 李林娜,毕德学,马丽.基于有序图像序列与可控外部参数的远心镜头标定方法[J].天津科技大学学报, 2015, 30(4):60-64.

[32] 张虎,达飞鹏,李勤.基于两相同圆的自标定方法[J].仪器仪表学报,2010,31(3):618-624.

[33] 孟晓桥,胡占义.摄像机自标定方法的研究与进展[J].自动化学报,2003,29(1):110-124.

[34] MA S D. A self-calibration technique for active vision systems[J]. IEEE transactions on robotics and automation, 1996, 12(1):114-120.

[35] HEYDEN A, ASTROM K. Euclidean reconstruction from constant intrinsic parameters[C]// Proceedings of the 13th International Conference on Pattern Recognition: Austria, Vienna, 1996:339-341.

[36] POLLEFEYS M, GOOL L V. Self-calibration from the absolute conic on the plane at infinity[C]// Proceedings of the International Conference on Computer Analysis of Images and Patterns. Berlin: Springer Verlag, 1997:175-182.

[37] TRIGGS B. Autocalibration and the absolute quadric[C]// Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Argentina: San Juan, 1997:609-614.

[38] ZHANG H. Hand/eye calibration for electronic assembly robots[J]. IEEE Transactions on Robotics and Automation, 1998, 14(4):612-616.

[39] DANIILIDIS K, BAYRO-CORROCHANO E. The dual quaternion approach to hand-eye calibration[C]// Proceedings of 13th International Conference on Pattern Recognition. Austria:Vienna, 1996:318-322.

[40] CHAUMETTE F, BOUKIR S, BOUTHEMY P, et al. Structure from controlled motion[J]. IEEE transactions on pattern analysis and machine intelligence, 1996, 18(5): 492-504.

[41] DE LUCA A, ORIOLO G, GIORDANO P R. On-line estimation of feature depth for image-based visual servoing schemes[C]// Proceedings of 2007 IEEE International Conference on Robotics and Automation. Italy: Rome, 2007: 2823-2828.

[42] PIEPMEIER J A, MCMURRAY G V, LIPKIN H. Uncalibrated dynamic visual servoing[J]. IEEE transactions on robotics and automation, 2004, 20(1): 143-147.

[43] CHAUMETTE F. Potential problems of stability and convergence in image-based and position-based visual servoing[M]. London:Springer London, 1998:66-78.

[44] CHAUMETTE F, HUTCHINSON S. Visual servo control, part I: basic approaches[J]. IEEE robotics and automation magazine, 2007, 13(4):82-90.

[45] MA Z, SU J. Robust uncalibrated visual servoing control based on disturbance observer[J]. Isa transactions, 2015, 59:193-204.

[46] MALIS E, CHAUMETTE F, BOUDET S. 2-D visual servoing[J]. IEEE transactions on robotics and automation, 1999, 15(2): 238-250.

[47] MALIS E, CHAUMETTE F. Theoretical improvements in the stability analysis of a new class of model-free visual servoing methods[J]. IEEE transactions on robotics and automation, 2002, 18(2): 176-186.

[48] 江祥奎,纪旭.一种摄像机标定系统的实现[J].西安邮电大学学报, 2015, 20(5): 71-75.

[49] 胡小平,左富勇,谢珂.微装配机器人手眼标定方法研究[J].仪器仪表学报, 2012, 33(7): 1521-1526.

[50] 冯春,周文.手眼系统中摄像机标定和手眼标定的同步算法[J].机械设计与制造,2015(12):58-61.

[51] HOSODA K, ASADA M. Versatile visual servoing without knowledge of true jacobian[C]// Proceedings of the IEEE/RSJ/GI International Conference on Intelligent Robots and Systems. Germany:Munich, 1994: 186-193.

[52] 付清山.机器人无标定视觉伺服控制研究[D].南京:东南大学, 2011.

[53] 梁新武.机械手无标定动态视觉伺服研究[D].武汉:华中科技大学, 2011.

[54] 毛尚勤.微操作系统的机器视觉与无标定视觉伺服研究[D].武汉:华中科技大学, 2013.

[55] 陶波,龚泽宇,丁汉.机器人无标定视觉伺服控制研究进展[J].力学学报, 2016, 48(4): 767-783.

[56] PIEPMEIER J A, MCMURRAY G V, LIPKIN H. Tracking a moving target with model independent visual servoing: a predictive estimation approach[C]//Proceedings of the IEEE International Conference on Robotics and Automation. Belgium:Leuven, 1998: 2652-2657.

[57] PIEPMEIER J A. Experimental results for uncalibrated eye-in-hand visual servoing[C]// Proceedings of the 35th Southeastern Symposium on System Theory. USA: Morgantown, W V, 2003: 335-339.

[58] 曾祥进,黄心汉,王敏.基于 Broyden 在线图像雅可比矩阵辨识的视觉伺服[J]. 华中科技大学学报(自然科学版), 2008, 36(9): 17-20.

[59] 赵杰,李牧,李戈,等.一种无标定视觉伺服控制技术的研究[J]. 控制与决策, 2006, 21(9): 1015-1019.

[60] 杨诚,匡森,宋彩温.基于动态 BFGS 法的无标定视觉伺服控制[J].中国科学技术大学学报, 2015, 45(1): 1-8.

[61] 付清山,张志胜,史金飞.一种采用 LM 方法的无标定视觉伺服控制方法[J].中国机械工程, 2008, 19(21): 2622-2626.

[62] QIAN J, SU J. Online estimation of image Jacobian matrix by Kalman-Bucy filter for uncalibrated stereo vision feedback[C]//Proceedings of the IEEE International Conference on Robotics and Automation. USA: Washington, D C, 2002: 562-567.

[63] 赵清杰,陈云蛟,张立群. 基于粒子滤波的雅可比矩阵在线估计技术[J].北京理工大学学报,2008, 28(5): 401-404.

[64] 张应博.基于无极卡尔曼滤波算法的雅可比矩阵估计[J].计算机应用, 2011, 31(6): 1699-1702.

[65] SUTANTO H, SHARMA R, VARMA V. The role of exploratory movement in visual servoing without calibration[J]. Robotics and autonomous systems, 1998, 23(3): 153-169.

[66] 康庆生,孟正大,戴先中.图像雅可比矩阵伪逆估计在视觉伺服中的应用[J].机器人,2006,28(4): 406-409.

[67] 吴越,匡森.带时延补偿的视觉跟踪控制[J].计算机系统应用,2015, 24(9): 212-218.

[68] CHEN J, BEHAL A, DAWSON D M, et al. Adaptive visual servoing in the presence of intrinsic calibration uncertainty[C]//Proceedings of the IEEE Conference on Decision and Control. USA: Hawai, 2003:5396-5401.

[69] HU G, MACKUNIS W, GANS N, et al. Homography-based visual servo control with imperfect camera calibration[J]. IEEE transactions on automatic control, 2009, 54(6): 1318-1324.

[70] 金梅,李惠光,张立国. 基于双目视觉模型的自适应控制[J].微计算机信息, 2009,25( 19): 24-25.

[71] CHEAH C C, LIU C, SLOTINE J J E. Adaptive vision based tracking control of robots with uncertainty in depth information[C]//Proceedings of the IEEE International Conference on Robotics and Automation. Italy: Rome, 2007: 2817-2822.

[72] WU B, LI H G. Uncalibrated visual servoing of robots with new image Jacobian estimation method[J]. J System Simulation, 2008, 20(14): 3767-3771.

[73] CHEAH C C, LIU C, SLOTINE J J E. Adaptive Jacobian vision based control for robots with uncertain depth information[J]. Automatica, 2010, 46(7): 1228-1233.

[74] LIU Y H, WANG H, LAM K. Dynamic visual servoing of robots in uncalibrated environments[C]// Proceedings of the IEEE International Conference on Robotics and Automation. Spain:Barcelona, 2005: 3131-3136.

[75] 宋彩温,匡森.未标定视觉伺服系统的动力学控制[J].中国科学技术大学学报, 2015, 45(7): 537-545.

[76] LIZARRALDE F, LEITE A C, HSU L, et al. Adaptive visual servoing scheme free of image velocity measurement for uncertain robot manipulators[J]. Automatica, 2013, 49(5): 1304-1309.

[77] LIU C, CHEAH C C, SLOTINE J J E. Adaptive Jacobian tracking control of rigid-link electrically driven robots based on visual task-space information[J]. Automatica, 2006, 42(9): 1491-1501.

[78] WANG H. Adaptive visual tracking for robotic systems without image-space velocity measurement[J]. Automatica, 2015, 55(C): 294-301.

[79] LIU Y H, WANG H, WANG C, et al. Uncalibrated visual servoing of robots using a depth-independent interaction matrix[J]. IEEE transactions on robotics, 2006, 22(4): 804-817.

[80] WANG H, JIANG M, CHEN W, et al. Adaptive visual servoing with imperfect camera and robot parameters[J]. Life system modeling and intelligent computing, 2010,97: 124-131.

[81] WANG H, LIU Y H, ZHOU D. Adaptive visual servoing using point and line features with an uncalibrated eye-in-hand camera[J]. IEEE transactions on robotics, 2008, 24(4): 843-857.

[82] LIU Y, WANG H, ZHOU D. Dynamic tracking of manipulators using visual feedback from an uncalibrated fixed camera[C]// Proceedings of the IEEE International Conference on Robotics and Automation. USA: Orlando, Florida, 2006: 4124-4129.

[83] WANG H, LIU Y H, ZHOU D. Dynamic visual tracking for manipulators using an uncalibrated fixed camera[J]. IEEE transactions on robotics, 2007, 23(3): 610-617.

[84] WANG H, LIU Y H, CHEN W, et al. A new approach to dynamic eye-in-hand visual tracking using nonlinear observers[J]. IEEE/ASME transactions on mechatronics, 2011, 16(2): 387-394.

[85] HUA C, LIU Y, YANG Y. Image-based robotic control with unknown camera parameters and joint velocities[J]. Robotica, 2015, 33(8): 1718-1730.

[86] HU G, MACKUNIS W, GANS N, et al. Homography-based visual servo control via an uncalibrated camera[C]// Proceedings of American Control Conference. USA: Washington, 2008: 4791-4796.

[87] SU J, QIU W, MA H, et al. Calibration-free robotic eye-hand coordination based on an auto disturbance-rejection controller[J]. IEEE transactions on robotics, 2004, 20(5): 899-907.

[88] HASHIMOTO H, KUBOTA T, SATO M, et al. Visual control of robotic manipulator based on neural networks[J]. IEEE transactions on industrial electronics, 1992, 39(6): 490-496.

[89] 潘且鲁,苏剑波,席裕庚.眼在手上机器人手眼无标定三维视觉跟踪[J].自动化学报,2002, 28(3): 371-377.

[90] CUPERTINO F, GIORDANO V, MININNO E, et al. A neural visual servoing in uncalibrated environments for robotic manipulators[C]// Proceedings of the IEEE International Conference on Systems, Man and Cybernetics. Netherlands:The Hague, 2004, 6: 5362-5367.

[91] 张家驹,吴洪涛.基于神经网络的机器人无标定视觉伺服系统仿真[J].应用科技, 2011, 38(9): 1-5.

[92] SU J, XI Y, HANEBECK U D, et al. Nonlinear visual mapping model for 3-D visual tracking with uncalibrated eye-in-hand robotic system[J]. IEEE transactions on systems, man, and cybernetics:part B (Cybernetics), 2004, 34(1): 652-659.

[93] 辛菁,刘丁,徐庆坤. 基于LS-SVR 的机器人空间 4DOF 无标定视觉定位[J]. 控制理论与应用, 2010, 27(1): 1-9.

[94] HAN J. From PID to active disturbance rejection control[J]. IEEE transactions on industrial electronics, 2009, 56(3): 900-906.

[95] 苏剑波.ADRC理论和技术在机器人无标定视觉伺服中的应用和发展[J].控制与决策,2015,30(1): 1-8.

[96] 马红雨,苏剑波.基于耦合 ADRC 原理的机器人无标定手眼协调[J].机器人,2003, 25(1): 39-43.

[97] 苏剑波,邱文彬.基于自抗扰控制器的机器人无标定手眼协调[J].自动化学报,2003, 29(2): 161-167.

[98] 马红雨,苏剑波.基于自抗扰控制器的机器人无标定三维手眼协调[J].自动化学报,2004,30(3): 400-406.

[99] SU J. Convergence analysis for the uncalibrated robotic hand-eye coordination based on the unmodeled dynamics observer[J]. Robotica, 2010, 28(4): 597-605.

猜你喜欢
位姿标定学报
《北京航空航天大学学报》征稿简则
《北京航空航天大学学报》征稿简则
《北京航空航天大学学报》征稿简则
《北京航空航天大学学报》征稿简则
无人机动平台着陆惯性/视觉位姿歧义校正算法
船舶清理机器人定位基准位姿测量技术研究
使用朗仁H6 Pro标定北汽绅宝转向角传感器
优化ORB 特征的视觉SLAM
CT系统参数标定及成像—2
CT系统参数标定及成像—2