学位论文 > 优秀研究生学位论文题录展示

基于场景外观建模的移动机器人视觉闭环检测研究

作 者: 李博
导 师: 杨丹;Hong Zhang
学 校: 重庆大学
专 业: 计算机科学与技术
关键词: 同步定位和地图构建 场景外观建模 视觉闭环检测 视觉词袋模型 视觉字典树
分类号: TP242
类 型: 博士论文
年 份: 2011年
下 载: 98次
引 用: 0次
阅 读: 论文下载
 

内容摘要


机器人在未知环境中根据自身位置估计和传感器数据,创建环境地图同时指导机器人自主定位和导航,也即机器人同步定位与地图构建(SLAM),是实现真正自主移动机器人的关键,成为机器人和人工智能领域研究的热点和难点。闭环检测是SLAM的基础问题之一,如何准确判断机器人当前位置是否位于之前已经访问过的环境区域,对减少机器人位姿和地图状态变量的不确定性,避免错误引入地图冗余变量或重复结构,至关重要。由于视觉传感器的诸多优点,近年来,基于视觉的SLAM技术,即vSLAM引起了广泛关注。然而,移动机器人在视觉信息的采集、描述、匹配等关键环节中的模型固有缺陷和不可避免的计算误差,导致无法准确提取闭环响应,进而妨碍机器人完成SLAM任务,因此机器人在大规模非结构化环境中的视觉闭环检测仍是目前最具有挑战性的问题之一。本文对视觉闭环检测问题进行了深入系统的研究,旨在解决当前主流的基于视觉场景外观建模的闭环检测中存在的主要问题,提高闭环检测的效率和准确率。取得的创新成果主要包括:首先分析比较了视觉场景采样中,各种帧采样技术的优劣,提出了基于图像内容变化的关键采样方法成为vSLAM首选的依据。针对SLAM领域至今没有对关键帧检测方法的定量评估和选择标准,本文通过研究各种关键帧检测技术的算法机理,提出了无监督的算法性能评估方案和准则,搭建了系统的实验评估框架,通过视觉SLAM数据库上的实验分析,基于特征匹配的关键帧检测方法在本文研究的五类方法中具有最佳的检测效果。该研究工作常常被vSLAM研究所忽略,本研究为解决vSLAM中场景采样问题提供了参考依据。在机器人场景外观建模中,通过研究视觉词袋模型BoVW的关键问题,提出了一种鲁棒视觉字典本的优化构造策略,以克服底层特征的海量性、高维性、不稳定性对视觉字典本生成的影响。首先引入条件数理论定量评估海量底层特征的稳定性,筛选出鲁棒视觉特征;提出了一种聚类和降维的统一计算模型,构造了具有聚类结构的自适应维数约简算法;利用低维聚类信息中的邻域支持度,自适应选取最佳的初始视觉单词,选择Silhouette指标作为迭代目标函数,从而改进流行的LBG字典本生成算法敏感于初始点的随机选取,并只能得到局部最优等不足。新的视觉字典本生成算法具有聚类和降维的统一计算功能、良好的鲁棒性和自适应优化等特性,取得了良好的场景图像描述效果。提高视觉字典本表征性能是提高闭环检测准确性的关键,针对目前图像分类中的优化策略大都是面向类信息的有监督模式,本文立足闭环检测的无监督性,依托闭环提取计算出的数据实体,提出了一套无监督的视觉单词本表征性能定量评估和优化方法。首先采用熵排序技术的特征向量选择方法改进传统的谱聚类,对原始底层特征在无监督条件下聚类生成初始视觉单词;继而提出一种基于马氏距离测度的视觉单词区分度定量评估算法,在图像-单词矩阵上计算出视觉单词的区分度,设计了一个弱表征性单词的迭代更新策略;最后采用刻画图像相似性矩阵的分解复杂度的秩缩减技术度量新视觉字典本的表征性能。在移动机器人室内和室外场景实验中,本文方法提高了视觉字典本建模的有效性,获得了良好的闭环检测效果,同时对视觉混淆现象表现出良好鲁棒性。为提高闭环检测的效率,满足闭环检测的实时计算需求,针对场景外观表征性能受制于有限单词个数以及算法效率低的不足,本文对机器人视觉特征分层量化,构建了视觉字典树,并计算图像在树节点单词的TF-IDF投影权重,生成图像-单词逆向文档索引。为消除视觉字典本的单尺度量化误差,并克服传统平面匹配模式中不区分不同层次节点的区分度对闭环检测的影响,本文融合字典树低层单词的强表征性和高层单词的强鲁棒性,提出由下而上逐层计算图像间相似性增量的金字塔得分匹配方法。为剔除候选闭环中错误闭环的干扰,建立时间一致性约束、空间一致性约束和对极几何约束等后验确认操作,有效抑制错误闭环。在移动机器人视觉闭环检测实验中,本文算法提高了闭环提取的效率和检测性。通过对视觉闭环检测检测的系统研究,不仅提高了闭环检测的效率和准确性,更扩展了场景外观模型方法在整个vSLAM系统中的应用,也丰富了图像处理、机器视觉等领域的BoW方法研究。

全文目录


中文摘要  3-5
英文摘要  5-11
1 绪论  11-29
  1.1 机器人视觉SLAM 及闭环检测概述  11-21
    1.1.1 自主移动机器人概述  11-12
    1.1.2 移动机器人视觉导航  12-16
    1.1.3 移动机器人视觉SLAM  16-18
    1.1.4 视觉SLAM 中的闭环检测  18-21
  1.2 视觉闭环检测的关键问题  21-23
  1.3 论文的主要工作及内容组织结构  23-29
    1.3.1 论文的主要研究内容  23-26
    1.3.2 论文的主要研究成果  26-27
    1.3.3 论文的组织结构  27-29
2 移动机器人视觉场景采样的关键帧检测算法研究  29-49
  2.1 引言  29-32
    2.1.1 基于时空域的场景均匀采样  29-30
    2.1.2 基于视觉内容的场景关键帧采样  30-32
  2.3 视觉SLAM 中实时关键帧检测的评估框架  32-42
    2.3.1 相机标定和图像矫正  32-37
    2.3.2 视觉SLAM 中的关键帧检测  37-38
    2.3.3 关键帧检测算法性能评估框架  38-42
  2.4 关键帧检测算法性能评估实验  42-48
    2.4.1 移动机器人实验环境设置  42-44
    2.4.2 关键帧检测算法实验参数设置  44
    2.4.3 实验结果及分析  44-48
  2.5 本章小结  48-49
3 移动机器人视觉场景建模的 BoVW 方法及优化构造  49-71
  3.1 视觉场景表示方法概述  49-50
  3.2 视觉场景建模的 BoVW 方法  50-53
    3.2.1 BoVW 模型的关键技术  50-52
    3.2.2 视觉SLAM 中基于BoVW 的场景建模  52-53
    3.2.3 BoVW 中视觉字典本构造方法的不足  53
  3.3 场景建模的鲁棒视觉字典本优化构造方法  53-62
    3.3.1 稳定底层视觉特征提取与描述  53-55
    3.3.2 高维视觉特征的维数约减  55-57
    3.3.3 视觉特征降维与聚类的统一计算框架  57-60
    3.3.4 鲁棒视觉字典本的自适应优化构造算法  60-62
  3.4 实验结果及分析  62-69
    3.4.1 底层视觉特征稳定性实验  62
    3.4.2 视觉特征降维与聚类的统一计算实验  62-67
    3.4.3 优化视觉字典本的场景描述有效性评估  67-69
  3.5 本章小结  69-71
4 闭环检测中视觉字典本的强表征性研究及无监督优化  71-103
  4.1 引言  71-78
    4.1.1 视觉闭环检测计算框架  71-74
    4.1.2 闭环检测中的视觉混淆问题  74-76
    4.1.3 闭环检测中视觉字典本的表征性问题  76-78
  4.2 基于优化谱聚类的视觉字典本生成  78-85
    4.2.1 基于谱聚类算法的视觉字典本生成  78-80
    4.2.2 谱聚类中的特征向量选择  80-83
    4.2.3 基于优化谱聚类的视觉单词生成  83-85
  4.3 无监督的视觉字典本表征性评估及优化  85-90
    4.3.1 视觉单词表征性的无监督评估算法  85-87
    4.3.2 弱表征性视觉单词的无监督更新策略  87
    4.3.3 无监督的视觉字典本表征性度量  87-90
  4.4 基于强表征性的视觉字典本的闭环检测算法设计  90-91
  4.5 实验结果及分析  91-101
    4.5.1 移动机器人视觉实验数据库选取  91-92
    4.5.2 视觉单词个数确定实验  92-95
    4.5.3 优化谱聚类实验  95
    4.5.4 视觉单词表征性确认实验  95-97
    4.5.5 视觉字典本表征性度量实验  97-100
    4.5.6 视觉闭环检测结果评估  100-101
  4.6 本章小结  101-103
5 快速闭环检测的视觉字典树及分层匹配方法  103-119
  5.1 快速闭环检测的视觉字典树构建  103-105
    5.1.1 快速闭环检测中视觉字典本的不足  103-104
    5.1.2 高效的分层视觉字典树构建  104-105
  5.2 快速闭环检测的金字塔TF-IDF 得分匹配算法  105-108
    5.2.1 传统基于视觉字典树的得分相似性计算  105-106
    5.2.2 分层TF-IDF 熵的金字塔得分匹配算法  106-107
    5.2.3 算法优化计算及性能分析  107-108
  5.3 初始错误闭环的后验处理  108-112
  5.4 快速闭环检测算法设计  112-113
  5.5 实验结果及分析  113-118
    5.5.1 移动机器人实验场景及平台搭建  113-114
    5.5.2 快速闭环检测的计算效率实验  114-115
    5.5.3 平面匹配的量化误差实验  115-117
    5.5.4 闭环检测率对比实验  117-118
  5.6 本章小结  118-119
6 总结与展望  119-123
  6.1 本文主要工作总结  119-121
  6.2 后续研究工作展望  121-123
致谢  123-125
参考文献  125-137
附录  137
  A. 作者在攻读博士学位期间发表的论文目录  137
  B. 作者在攻读博士学位期间参加的科研项目及得奖情况  137

相似论文

  1. 基于ARM的实验机器人控制系统的研制,TP242.6
  2. 移动机器人视觉检测和跟踪研究,TP242.62
  3. 视觉伺服四自由度机械臂的研究,TP242.6
  4. 机械臂视觉伺服系统的研究,TP242.6
  5. 月球车建模分析及滑转量估计研究,TP242
  6. 家庭清扫机器人路径覆盖系统的设计与实现,TP242
  7. 机器人自动巡检系统中图像配准与图像匹配问题的研究,TP242.62
  8. 基于改进蚁群算法的机器人路径规划研究,TP242
  9. 基于全局视觉的仿人机器人足球比赛系统,TP242.6
  10. 多机器人合作追捕目标问题研究,TP242
  11. 双足机器人快速步行动力学研究,TP242.6
  12. 一种新型模块化自重构机器人的研究,TP242.2
  13. 腹腔介入式手术机器人机械结构设计及运动仿真,TP242.3
  14. 准四足被动行走机器人的动力学仿真研究,TP242.6
  15. 晶圆传输机器人关键控制技术研究,TP242.2
  16. 基于同步控制的多指手操作控制方法的研究,TP242
  17. 电动六自由度并联机器人的特性分析与控制,TP242.2
  18. FROV作业流程仿真技术研究,TP242
  19. 基于粒子滤波的自主机器人视觉目标跟踪研究,TP242
  20. 移动机器人声源定向方法研究,TP242
  21. 仿人形机器手的开发与研究,TP242

中图分类: > 工业技术 > 自动化技术、计算机技术 > 自动化技术及设备 > 机器人技术 > 机器人
© 2012 www.xueweilunwen.com