当前位置:文档之家› 基于全景视觉的移动机器人同步定位与地图创建研究

基于全景视觉的移动机器人同步定位与地图创建研究

第30卷第4期许俊勇等:基于全景视觉的移动机器人同步定位与地图创建研究291

在图像实际处理过程中,总会不可避免地提取出不属于路标图像的少量干扰颜色点,这些点在区域分割中会被误认为是路标.此外由后面4.2节的分析可知,利用距离机器人较远的路标对应的颜色区域定位出的空问位置不确定性较大,精度较低,而且会增大误匹配的概率;而近处的路标不确定性小,定位精度高,才是适合选取的.因此需要对得到的颜色区域特征进行筛选,去掉干扰颜色点和远处路标的成像区域.根据前面的描述,可以得出如下的筛选方法:

图2单视点示意图

Fig.2Sketchmapofsingleviewpoint

(a)原始图像

,a)如果颜色区域P的面积小于某个阈值,则认为是干扰颜色点,即:

若Areae<Areath,则P《Landmark.

b)如果颜色区域P的中心与全景图像中心之间的距离大于某个阈值,则认为是远处路标图像,即:

若Distancecp—Cl>Distance¥,贝0P《Landmark.

一个实验场景的全景图像处理结果如图3所示.原始全景图像(图3(a))中有一近一远两个人工视觉路标,在此场景中,路标颜色的HSV阈值可选取为:‰=200,魄吐=254,&Dw=60,Saigh=

200,Ⅵ。=100,‰曲=200.从图3(b)中可以看出,颜色提取不仅把路标图像提取出来,而且还提取出了少量的干扰颜色点.而经过特征筛选后只有近处的路标图像被很好地保存下来,见图3(c)(实验参数为面积阈值AreatlI=50像素,距离阈值Distancetll=150像素).

路标颜色区域的中心通过全景成像模型可以定位到二维平面坐标位置;尽管实际选用的是三维柱状人工视觉路标,但是它的几何尺寸不大,由此所产生的定位误差可以融合到观测量(“,v)的噪声干扰中.

㈣颜色提取后的图像(c)特征筛选后的图像图3全景图像处理结果

big.3?Resultsof

omnidirectionalimageprocessing

4同步定位与地图创建(Simultaneouslo-calizationandmapping)

从系统的角度来看,SLAM是一个滤波问题【13】,是根据系统从0时刻到k时刻的控制输入和观测信息来估计系统当前的状态.SLAM中系统的状态向量表示为x=懈,磙,磙,...,磙)T,由机器人的位置瓤和地图中的路标位置‰(f-1,2,...,n)组成.基于EKF的SLAM算法包含两个过程:运动更新和观测更新,分别是由系统的运动模型和观测模型描述的.下面通过建立Omni—vSLAM的运动模型和观测模型,分析其EKF算法的实现.运动更新

机器人在水平面上运动时的坐标系表示如图4所示.

机器人的世界坐标为XR=(xR,YR,oR)T,初始时刻机器人的局部坐标系被定义为世界坐标系,起

始坐标和协方差矩阵设定为:

第30卷第4期许俊勇等:基于全景视觉的移动机器人同步定位与地图创建研究295

把它加入到原系统状态中得到:

珊m州=(芝拦1))).

\她+,@+)/’

雌刊川寸七_。去o,,却)

从上面的结果可以看出,观测更新完成了对系统状态的修正和Omni—vSLAM地图的建立.有m个观测值,就有m次独立的观测更新,这些更新过程可以有效地减小系统的不确定性,提高定位的精度.由于系统状态中同时包含了机器人位置和地图信息,因此就实现了同步定位与地图创建.

5实验及结果分析(Experimentsandre.suitsanalysis)

实验共分两个部分:仿真和真实环境实验.仿真结果说明了全景视觉大视域的特点在解决SLAM问题上的优势,真实环境实验结果则证明了本文所提出的Omni.vSLAM方法的有效性.

SimulationExperimentField

Ⅺtoni

图7仿真实验场地示图

Fig.7Diagramofsimulationexperimentfield

的均方差及最大、最小偏差.从图中可以看出机器人2的定位误差较小,这是因为感知范围越大,观测路标的时间越长,修正定位误差的能力也越强;反之,感知范围越小,不但得到观测值的次数越少,而且建地图的能力也越弱.上述仿真结果说明了全景视觉人视域的优点加强了特征跟踪的连续性,从而提高了vSLAM定位的精度.

LocalizationErrorComparison

图8不同感知域机器人的SLAM定位误差比较

Fig.8ComparisonbetweenSLAMlocalizationerrorsofrobots

withdifferentperceptualfields

真实环境实验

本文采用的实验平台是上海交通太学自动化系机器人与智能信息处理研究所自主开发的Frontier-II移动机器人(图9).该机器人使用Pen—tiumM1.2G处理器,内存为512M,配备了无线网络系统和全景视觉系统,其摄像机分辨率为640x480像素.

仿真

普通摄像机的视角约为60。,现假设有两个机

器人,机器人1的传感器感知范围为前向600,机

器人2为全向360。,感知半径都是3m.如图7所

示,仿真场地中共有6个路标,两个机器人同时从

原点出发以0.1m/s的速度沿8mx4m的矩形边缘

逆时针运动4周.该仿真共进行两组,第一组施加

较小的高斯噪声,第二组施加较大的高斯噪声,以图9Frontier-II机器人

此来模拟不同条件的环境.为了显示一般性,每组Fig?9

Fron‘1e卜11m呶

仿真进行10次,得到10个独立的结果.图8比较实验场地是约6rex8m的实验室环境,光照了两个机器人在不同环境下最终SLAM定位误差均匀,在场地的固定位置摆放8个柱状人工视觉

基于全景视觉的移动机器人同步定位与地图创建研究

作者:许俊勇, 王景川, 陈卫东, XU Jun-yong, WANG Jing-chuan, CHEN Wei-dong

作者单位:上海交通大学自动化系,上海,200240

刊名:

机器人

英文刊名:ROBOT

年,卷(期):2008,30(4)

被引用次数:16次

参考文献(14条)

1.Tardos JD;Neira J;Newman P Robust mapping and localization in indoor environments using sonar data [外文期刊] 2002(04)

2.Guivant J;Nebot E;Balker S Localization and map building using laser range sensors in outdoor applications[外文期刊] 2000(10)

3.Se S;Lowe D G;Little J J Vision-based global localization and mapping for mobile robots[外文期刊] 2005(03)

4.Davison A J Real-time simultaneous localisation and mapping with a single camera 2003

5.Ishiguro H Development of low-cost compact omnidirectional vision sensors and their applications

6.Bunschoten R Mapping and Localization from a Panoramic Vision Sensor 2003

7.Andreasson H;Treptow A;Duckett T Localization for mobile robots using panoramic vision,local features and particle filter 2005

8.Durrant-Whyte H;Bailey T Simultaneous localization and mapping:Part Ⅰ 2006(02)

9.Dissanayake M W M G;Newman P;Clark S A solution to the simultaneous localization and map

building(SLAM)problem[外文期刊] 2001(03)

10.Zivkovic Z;Booij O How did we built our hyperbolic mirror omnidirectional camera-practical issues and basic geometry 2005

11.Sural S;Qian G;Pramanik S Segmentation and histogram generation using the HSV color space for image retrieval 2002

12.王磊;陈卫东面向自主机器人的实时彩色视觉系统[期刊论文]-上海交通大学学报 2003(11)

13.罗荣华;洪炳镕移动机器人同时定位与地图创建研究进展[期刊论文]-机器人 2004(02)

14.Neira J;Tardos J D Data association in stochastic mapping using the joint compatibility test[外文期刊] 2001(06)

本文读者也读过(7条)

1.张尧.陈卫东.ZHANG Yao.CHEN Wei-dong一个基于全景视觉的移动机器人导航系统的设计与实现[期刊论文]-机器人2005,27(2)

2.王景川.陈卫东.曹其新基于全景视觉与里程计的移动机器人自定位方法研究[期刊论文]-机器人2005,27(1)

3.魏振华.厉茂海.胡黎明.罗荣华.WEI Zhen-hua.LI Mao-hai.HU Li-ming.LUO Rong-hua Rao-Blackwellized滤波器实现机器人同时定位和地图创建[期刊论文]-哈尔滨工业大学学报2008,40(3)

4.陈卫东.张飞.CHEN Wei-dong.ZHANG Fei移动机器人的同步自定位与地图创建研究进展[期刊论文]-控制理论与应用2005,22(3)

5.夏桂华.王博.朱齐丹.XIA Gui-hua.WANG Bo.ZHU Qi-dan改进SIFT用于全景视觉移动机器人定位[期刊论文]-计

算机工程与应用2010,46(18)

6.厉茂海.洪炳熔.罗荣华.Li Mao-hai.Hong Bing-rong.Luo Rong-hua用改进的Rao-Blackwellized粒子滤波器实现移动机器人同时定位和地图创建[期刊论文]-吉林大学学报(工学版)2007,37(2)

7.高明基于全景视觉的单目SLAM系统[学位论文]2009

引证文献(16条)

1.王金祥视觉与激光信息融合应用于机器人环境感知方面的优势浅析[期刊论文]-科技信息 2010(29)

2.张浩鹏.王宗义.张智.刘涛全景摄像机标定[期刊论文]-哈尔滨工程大学学报 2009(11)

3.李新德.金晓彬.张秀龙.戴先中一种基于BoW物体识别模型的视觉导航方法[期刊论文]-东南大学学报(自然科学版) 2012(3)

4.孙凤池.康叶伟.黄亚楼.刘光基于综合互信息的视觉SLAM主动探索[期刊论文]-模式识别与人工智能 2010(3)

5.弋英民.刘丁有色量测噪声下机器人同步定位与地图构建[期刊论文]-计算机工程 2009(24)

6.张学习.杨宜民基于多传感器信息融合的移动机器人快速精确自定位[期刊论文]-控制理论与应用 2011(3)

7.张学习.杨宜民.刘润丹.刘汝宁全自主足球机器人混合视觉系统的设计与实现[期刊论文]-机器人 2010(3)

8.陈立栋.王炜.贺琳.陈旺基于双向映射的非网格型全向图展开插值方法[期刊论文]-国防科技大学学报 2010(4)

9.张学习.杨宜民.蔡述庭移动机器人前向单目视觉的建模研究[期刊论文]-控制与决策 2012(5)

10.徐华华.许瑛.郑文锋.胡小平轮式移动机器人的控制系统设计[期刊论文]-机械与电子 2009(2)

11.李艳辉.吴玲.尚胤彤机器人立体视觉中摄像机的标定[期刊论文]-自动化技术与应用 2012(3)

12.谭福生.杨军.申纯太一种家居监控机器人的角及平直线段匹配的组合定位方法[期刊论文]-上海电气技术2011(1)

13.唐恒博.陈卫东.王景川.刘帅.李国波.赵洪丹高精度高鲁棒性的轨道机器人全局定位方法[期刊论文]-机器人2013(5)

14.王景川.陈卫东.胡仕煜.张栩基于近红外视觉的机器人室外定位系统[期刊论文]-机器人 2010(1)

15.刘振宇.姜楠.张令涛基于人工路标和立体视觉的移动机器人自定位[期刊论文]-计算机工程与应用 2010(9)

16.孙凤池.黄亚楼.康叶伟基于视觉的移动机器人同时定位与建图研究进展[期刊论文]-控制理论与应用 2010(4)本文链接:https://www.doczj.com/doc/8017884249.html,/Periodical_jqr200804001.aspx

相关主题
文本预览
相关文档 最新文档