学位论文 > 优秀研究生学位论文题录展示

基于立体视觉的串联机器人跟踪检测系统

作 者: 孙美霞
导 师: 任立红
学 校: 东华大学
专 业: 模式识别与智能系统
关键词: 串联机器人 跟踪检测 立体匹配 位姿测量 CamShift算法 SURF算法
分类号: TP242
类 型: 硕士论文
年 份: 2012年
下 载: 59次
引 用: 0次
阅 读: 论文下载
 

内容摘要


串联机器人已经广泛应用在工业生产中的机械加工、焊接、装配、表面喷涂、搬运等作业。机器人在工作过程中,其末端操作器的位姿是体现串联机器人运动状态的重要参数,获得机器人的位姿信息对机器人操作目标尤为重要,同时,也是机器人视觉控制系统中视觉检测环节的重要参数。串联机器人具有多个自由度、运动轨迹复杂等特点,其末端操作器位姿的测量必须满足多个自由度的测量。与传统的检测方法相比,视觉检测能够完成非接触、智能、多个自由度测量。因此,本论文从机器视觉的角度,设计基于立体视觉的串联机器人跟踪检测系统,并通过对机器人在工作过程中跟踪定位,测量机器人末端操作器,并对机器人位姿信息进行计算与输出。本文主要做了以下工作:首先设计了基于立体视觉的串联机器人跟踪检测框架,用于串联机器人在工作过程中对其进行跟踪及位姿检测,通过该系统定位与检测机器人的实时位姿。主要包括图像视频的采集与传输、摄像机标定、机器人末端操作器的跟踪、SURF算法特征点的提取与匹配、特征点的重建、串联机器人的位姿建模与求解。其次将CamShift算法引入到跟踪检测系统框架中,利用OpenCV实现了对串联机器人操作器的实时跟踪,搜索窗口在大环境下跟踪锁定机器人操作器并可以自适应地调节窗口大小。系统基于CamShift算法跟踪在空间工作中具有复杂性的串联机器人,当目标发生部分遮挡时,也不会产生误跟踪。再次在串联机器人位姿检测中的特征提取和特征匹配步骤中引入SURF立体匹配算法,该算法以前尚未在该串联机器人位姿视觉检测系统中应用。SURF算法的特征提取与匹配作为系统的核心部分,首先在尺度空间极值检测,确定关键点方向向量,生成SURF特征向量,利用SURF特征向量完成匹配。然后,将SURF匹配算法获得特征点在每个摄像机系统下的2D坐标,根据特征点重建模型获得3D坐标,最后根据建立的串联机器人位姿模型,将3D坐标转化为求解φ,θ,ψ的多目标优化问题。将改进后的粒子群算法用于求解最优目标函数,并为机器人位姿测量提供了一个可行性方法。改进的PSO算法主要加入了惯性系数,并且采用领域极值与全局极值求平均值代替全局极值,减小了算法陷入局部极值的可能。最后,通过实验得到串联机器人的跟踪、特征点提取与立体匹配结果,并通过仿真计算出串联机器人在空间工作中的空间三维位姿参数(tx,ty,tz,θ,φ,ψ),与实际值相差较小,证明了上述方法的有效性和可行性,适用于对串联机器人多自由度和空间复杂运动的跟踪检测。

全文目录


摘要  5-7
ABSTRACT  7-12
第一章 绪论  12-21
  1.1 课题背景与意义  12-13
  1.2 研究现状  13-18
    1.2.1 摄像机标定的研究现状  13-14
    1.2.2 运动目标跟踪的研究现状  14-16
    1.2.3 立体匹配的研究现状  16-18
  1.3 主要研究内容及创新点  18-20
    1.3.1 主要研究内容  18-19
    1.3.2 创新点  19-20
  1.4 论文章节安排  20-21
第二章 基于立体视觉的跟踪检测系统设计  21-30
  2.1 引言  21
  2.2 串联机器人结构  21-23
  2.3 Bumblebee2视觉采集系统  23-26
  2.4 基于立体视觉串联机器人总体框架设计  26-29
    2.4.1 图像采集传输模块  28
    2.4.2 摄像机标定模块  28
    2.4.3 跟踪机器人模块  28
    2.4.4 立体匹配模块  28
    2.4.5 位姿测量模块  28-29
  2.5 小结  29-30
第三章 跟踪检测系统的摄像机标定  30-45
  3.1 引言  30
  3.2 坐标系与摄像机成像模型  30-36
    3.2.1 三种坐标系及相互关系  30-32
    3.2.2 摄像机成像针孔模型  32-34
    3.2.3 摄像机线性模型标定算法  34-36
  3.3 摄像机标定方法的选择  36-37
  3.4 基于张氏标定法求解系统的摄相机参数  37-40
  3.5 基于OpenCV的系统摄像机标定实现与结果  40-44
    3.5.1 OpenCV中标定函数的介绍  40
    3.5.2 基于OpenCV的标定步骤及实验结果  40-44
  3.6 小结  44-45
第四章 基于CamShift算法的机器人跟踪  45-57
  4.1 引言  45
  4.2 图像的颜色空间以及直方图  45-49
    4.2.1 常用颜色空间的介绍  46-48
    4.2.2 RGB颜色空间到HSV颜色空间的转换  48
    4.2.3 色彩直方图和色彩概率图  48-49
  4.3 CamShift算法原理与实现  49-53
    4.3.1 MeanShift算法  49-51
    4.3.2 CamShift算法  51-53
  4.4 基于OpenCV的CamShift算法实现  53-54
  4.5 基于CamShift算法的跟踪实验结果和讨论  54-56
  4.6 小结  56-57
第五章 基于SURF算法的特征点检测与匹配  57-71
  5.1 引言  57-58
  5.2 各种立体匹配技术及其特点  58-59
  5.3 SURF算法的原理与实现  59-66
    5.3.1 SURF算法特征点检测  59-64
    5.3.2 SURF算法的特征点描述符  64-66
    5.3.3 利用SURF算子完成立体匹配  66
  5.4 基于SURF算法的图像匹配实验分析  66-69
    5.4.1 基于SURF算法的OpenCV实现  66-67
    5.4.2 基于SURF算法的实验结果分析  67-69
  5.5 小结  69-71
第六章 串联机器人的位姿建模与求解  71-81
  6.1 引言  71-72
  6.2 特征点重建模型  72-73
  6.3 串联机器人位姿模型的建立与求解  73-78
    6.3.1 串联机器人位姿模型的建立  73-74
    6.3.2 机械臂位姿的求解  74-75
    6.3.3 基于粒子群算法的机器人位姿求解  75-78
  6.4 串联机器人位姿检测结果与分析  78-80
  6.5 小结  80-81
第七章 总结与展望  81-84
  7.1 总结  81-82
  7.2 展望  82-84
参考文献  84-90
致谢  90-91
附录 攻读硕士学位期间参加的项目和发表的论文  91
  1、攻读硕士学位期间参加的项目  91
  2、攻读硕士学位期间发表的论文  91

相似论文

  1. 空间交会接近视觉测量方法研究,TP391.41
  2. 基于机器视觉的车辆检测和车距测量方法研究,TP274
  3. 双目立体视觉关键技术研究,TP391.41
  4. 基于视频流的快速人脸检测与实时跟踪算法研究,TP391.41
  5. 串联机器人神经网络自适应控制的仿真研究,TP242
  6. 串联机器人可控阻尼半主动控制的基础研究,TB535.1
  7. 基于双目视觉的三维重建算法研究与实现,TP391.41
  8. 基于稀疏表示的立体匹配算法和红外目标的检测与跟踪,TP391.41
  9. 新型人体运动位姿测量系统,TH89
  10. 基于卡尔曼滤波的视频跟踪技术的研究及应用,TP391.41
  11. 基于SURF算法的多幅图像三维模型重建方法研究,TP391.41
  12. 基于双目视觉的微工作台位姿测量方法研究,TH703
  13. 视频图像中的运动目标跟踪算法研究,TP391.41
  14. 基于单目视觉的移动机器人目标识别与定位,TP242.6
  15. 串联手臂机构性能分析与乒乓球挥拍发力的最优条件,TP242
  16. 视频水印技术研究与应用,TP309.7
  17. 串联机器人在模拟座舱空间中的避障方法研究,TP242
  18. 一种基于置信传播的稀疏匹配算法研究,TP391.41
  19. 基于双目视觉的运动物体检测系统研究,TP391.41
  20. 基于双目立体视觉的三维场景重建研究,TP391.41

中图分类: > 工业技术 > 自动化技术、计算机技术 > 自动化技术及设备 > 机器人技术 > 机器人
© 2012 www.xueweilunwen.com