单目视觉引导机器人在视觉检测中的应用

2017-06-02 00:11曾鹏
电子技术与软件工程 2017年10期
关键词:机器人

曾鹏

提出一种基于单目视觉引导的机器人工件表面缺陷检测系统。结合标定后的相机参数与物体成像以及物体虚拟投影建立的形状模板初步估计物体的位置姿态,物体的三维点云模型以一定位置姿态参数在虚拟空间的投影匹配零件真实位置姿态提升定位精度。定位完成后获取待检测位置的点云坐标及其法线方向经过坐标转换后提供给六轴机器人进行路径规划及机器人姿态控制,从而实现机器人辅助检测。

【关键词】单目视觉 机器人 视觉检测 姿态识别

机器人柔性化系统在现代化生产中起着越来越重要的作用,小批量多品种加工成为未来发展的趋势,利用工件三维模型辅助单目视觉实时定位是利用单目视觉的方法实现物体三维空间实时定位。

1 算法原理

1.1 物体定位

在物体定位及检测过程中涉及物体坐标系Om、世界坐标系Ow、像素坐标系、图像坐标系、相机坐标系Oc、机器人坐标系Ou,机器人末端坐标系Oe之间的转换。

相机的针孔模型成像涉及像素坐标系、相机坐标系、图像坐标系、以及世界坐标系,假设(u,v),(XW,YW,ZW)分别是相机成像平面和世界坐标系上的一点,存在着以下转换关系:

式(1)中f为相机焦距,ax,ay分别为图像成像的水平和垂直方向的尺度因子,u0,v0是图像坐标系原点在像素坐标系中的坐标, R,t分别为相机坐标系相对于标定坐标系的旋转矩阵和平移向量。

1.2 获取目标姿态参数

在物体实际姿态与OpenGL渲染模型进行匹配时,首先读取物体的三维模型数据,在球坐标系内以物体的几何中心作为物体旋转中心,每次以固定步长的角度在球坐标系中旋转后进行虚拟投影生成渲染图像。然后提取物体的最外层轮廓作为粗匹配的模板,并提取拍摄图像的外层轮廓进行伸缩不变性匹配。

获得物体姿态参数,从而得到物体坐标系与相机坐标系的转换关系即矩阵。匹配过程中采用Freeman链码对物体的边缘进行描述,并使用成对集合直方图(pairwise geometrical histogram)进行边缘特征的表达,二者直方图采用直方图相交的方法进行相似性匹配能够获得较好的匹配结果。Freedman链码原理图与边缘的直方图表示如图1,直方图的不同的相似性度量方式包括卡方、相关、直方图相交以及Bhattacharyya距离,其表达式分别为式2,3,4,由于各个姿态之间相差较小,需要用较为精确地相似性度量方法,所以使用Bhattacharyya距离的方式,其表達式如式4,根据得到d值得大小判断匹配程度,d值为0时完全匹配,d值为1时完全不匹配,取物体的任一位置在训练好的模板上进行匹配实验,实验结果表明Bhattacharyya距离能获得较高的识别正确率。

在精确参数求取时,采用L-M(Levenberg-Marquardt)算法思想,将粗略估计的模板参数作为初始迭代参数,进行多次非线性迭代,便可得到精确的物体位置与姿态参数[10]。

采用3d打印的鼠标及其三维点云模型进行实验,实验结果如表2所示。

2 定位与图像采集

相机及机器人标定等参数可以保存到文件中,再次使用时可以重新标定,也可读取之前标定数据,视觉定位的数据显示在相应的图像中,在检测定位时可以根据检测任务输入检测位置坐标(物体坐标系中待检测位置坐标),完成特定检测任务规划。之后可以指定系统进入自动视觉定位与检测状态。

3 结论

本文设计了基于单目视觉的定位以及机器人辅助检测系统,在零件精确定位的基础上个性化生产过程的零件表面检测任务,为生产线零件的实时检测提供了一个可行的方案。

参考文献

[1]朱迪.基于特征点和方向向量的快速目标匹配算法研究[D].上海:上海交通大学,2015.

[2]Wang Zhongren,Lu Qingyan,Liu Haisheng. Visual recogIlition and location method of randomly placed parts based 0n CAD model [J]. Infrared and Laser Engineering,2015,44(S):230-235.

作者单位

大连理工大学 辽宁省大连市 116024

猜你喜欢
机器人
“坏”机器人“大叛乱”
机器人
超酷机器人
疯狂机器人
机器人崛起
机器人,让未来走近你
拥抱未来——聚焦机器人