中文翻译基于视觉的场景识别为煤矿救灾机器人定位.docx
《中文翻译基于视觉的场景识别为煤矿救灾机器人定位.docx》由会员分享,可在线阅读,更多相关《中文翻译基于视觉的场景识别为煤矿救灾机器人定位.docx(14页珍藏版)》请在冰豆网上搜索。
中文翻译基于视觉的场景识别为煤矿救灾机器人定位
1介绍2
2凸显当地图像区域检测3
3场景识别和定位5
4基于模糊逻辑的比赛策略6
5实验,分析9
6总结10
参考11
基于视觉的场景识别为煤矿救灾机器人定位
文摘:
提出了一种新的场景识别系统提出了基于模糊逻辑的和隐马尔可夫模型(HMM),可以应用在煤矿救灾机器人定位在紧急情况下。
该系统使用单眼相机获取全方位的图像我的环境中机器人定位。
采用center-surround差分方法,突出地方形象地区从图像中提取天然地标。
这些指标的组织利用HMM代表在现场机器人、模糊逻辑策略是用来比赛现场,具有里程碑意义的。
通过这种方法,定位问题,这是现场识别问题的系统,可以转化为评价问题,嗯。
这些技能的贡献的系统有能力应付变化的规模、二维旋转和观点。
实验结果也证实了系统具有较高的识别和定位比静态和动态两种情况下我的环境。
关键词:
机器人位置;场景识别;突出形象;匹配策略、模糊逻辑、隐马尔可夫模型
1介绍
搜索和救援灾区的领域里机器人是一个新兴的、富有挑战性的课题。
救援机器人进入矿山开发过程中紧急逃生路线定位可能对那些困在里面和确定它是否对人畜安全进入与否。
本地化是一个基本问题这一领域。
定位方法基于相机可主要分为几何、拓扑或混合的。
以其有效性和可行性,场景识别已成为一个重要的技术拓扑关系的定位
目前多数场景识别方法为基础的在全球的图像特征,有两种截然不同的阶段:
培训的离线和在线匹配。
在训练阶段,机器人收集图像它工作的环境中处理图像特征提取全球代表场景。
一些方法被用来分析的data-set图像和一些基本特征发现,如主成分分析法(PCA)。
然而,主成分分析法(PCA)
不是有效的区分类别的特征。
另一种方法使用外观特征包括颜色、纹理和边缘密度代表图像。
例如,周刘哲用多维直方图来描述全球外观特征。
该方法简单易行,但敏感的规模和光照变化。
事实上,各种各样的国际形象特点是遭受环境的变化。
LOWE[5]的筛选方法,提出了一种使用相似性描述符所形成的特点。
不变在兴趣点的规模和方向来获得特征。
具有不变特征图像缩放,平移、旋转和部分不变光照变化。
但筛选可能产生1000或更多的兴趣点,这可能减慢处理器戏剧性的。
在匹配阶段,最近的邻居策略(NN)广泛应用于它的设施和清晰度[6]。
但它无法捕捉的贡献
个人特征为场景识别。
在实验中,这个神经网络还不足以很好的表达相似两种模式之间。
此外,所选特征不能代表现场彻底根据吗先进的模式识别,使识别不可靠[7]。
在一个复杂的矿山环境。
在这个系统中,我们通过提取显著提高变性地方形象地区创建取代整个图像处理与大的变化,规模、二维旋转和观点。
兴趣点的数量是有效降低,使加工容易。
模糊识别战略是为了认识论及的地方神经网络的,可以增强的贡献个人特征为场景识别。
因为它的部分信息恢复能力,隐马尔可夫模型采用组织这些地标,可以捕捉结构或他们之间的关系。
所以场景识别可以转化为评价问题,嗯,这使得识别的鲁棒性。
2凸显当地图像区域检测
研究表明,生物视觉系统生物(像果蝇)经常注重一定的特殊的地区,在现场行为的相关性或地方形象线索,同时观察环境[8]。
这些区域可以被看作是自然的创建有效地表示并区分不同环境。
灵感来自于那些,我们用center-surround差分方法对检测显著地区在多尺度图像空间。
opponencies的颜色和纹理计算到创造凸极地图。
输入表格内提供静态彩色图像命名为G0期。
多尺度图像空间G1−轮流以G4(1:
1到1:
64)是由方程式。
(1)和
(2)。
Gn0=w*Gn−1
(1)
Gn0n∈Gn=Subsampled[1,4]
(2)
在w是一个Gaussion低通滤波器,和“*”表示卷积实现。
让中心是{G1,G2}和环境都{G3,轮流以G4}的定义这些材料的特性是opponency尺度之间的差异中心和环境之间通过引入“Θ”,这意味着环境插值和吗然后减去中心像素。
计算opponencies呈现出希望的颜色,它是有必要把RGB空间分成RGBY空间为强调opponencies红/绿和蓝/黄[9]。
空间计算
R=r−(g+b)/2
G=g−(r+b)/2
B=b−(r+g)/2
Y=(r+g)/2−|r−g|/2−b
所以,opponencies计算出的颜色
RG(c,s)=|(R(c)−G(c))Θ(G(s)−R(s))|
BY(c,s)=|(B(c)−Y(c))Θ(Y(s)−B(s))|
其中c∈Centers,s∈Surroundings.RG(c,s)属于红和绿的对立;BY(c,s)属于蓝和黄的对立计算纹理opponencies,第十二滤波器因为其能力选择获得局部最优无论是在时间域和频率域。
研究人类心理物理和视觉生理表明,它更像人类的注意力机制[10]。
Gabor定理被定义为h(x,y)=g(x,y)e2πj(ux+vy).因为第十二过滤是极性的对称的频率领域,方向为0−π能覆盖所用的频率空间,一般情况下有4个过程其方向为0°,45°,90°和135°纹理4方向计算为
Tθ(x,y)=|Gn(x,y)*hθ(x,y)|
我们可以完成纹理方向的反方向为
T(c,s,θ)=|Tcθ(x,y)ΘTsθ(x,y)|
其中c∈Centers,s∈Surroundings,θ∈{0°,45°,90°,135°}.
vThen所有opponencies结合根据方程式。
(3)−(5)创造凸极图s,定义规范操作的N(),可以发现,在文献[9]。
在重量w1及w2为此所指示的意义的颜色和纹理。
我们也设计算法采用最小均方算法学习w1及参与离线。
图1(b)显示凸极具有里程碑意义的地区获得的位置更轻更凸现出来。
随访中,sub-image为中心的显著位置在年代作为这个具有里程碑意义的地区。
大小的这个具有里程碑意义的地区可以自适应地确定依据的变化梯度方向的地方图像[11]。
移动机器人导航要求自然地标应及时发现当环境稳定在某种程度上改变。
重复性验证在具有里程碑意义的检测我们的方法,我们已经做了很多实验对这种情况的规模、二维旋转和观点变化等。
图2显示门查它的凸极变化时的观点。
更多的详细分析和研究结果存在旋转和比例可以被发现在我们以前的作品[12]。
3场景识别和定位
不同于其他场景识别系统,我们的系统不需要训练离线。
换句话说,我们的场景不是预先分类。
当机器人徘徊,场景捕获间隔固定的时间是用来建造它的顶点的拓扑地图,代表了机器人定位的地方。
虽然这个地图的几何布局都被定位系统,它是有用的可视化和调试[13]吗有利于路径规划。
所以定位手段搜索最佳匹配的当前场景在地图上。
在本文隐马尔可夫模型是用来组织从当前场景中提取的地标和创造顶点的拓扑地图,其局部信息恢复能力。
类似的全景视觉系统,机器人看起来让omni-images周围。
从每一个形象,突出局部区域检测,构成了一个序列,命名为具有里程碑意义的序列的顺序是一样的图像序列。
然后一个隐马尔可夫模型创建基于这个具有里程碑意义的序列包括k突出地方形象地区,这是作为描述机器人的地方位于。
在我们的系统EVI-D70相机有±170°的视野。
考虑到重叠效果,我们样品的环境每45°到8图像。
让8图像作为隐藏状态Si(1≤i≤8),创造了HMM可以说明图。
参数对,aij和bjk,实现了学习、使用Baulm-Welch算法[14]。
的门槛收敛设置为0.001。
至于拓扑地图的边缘,我们将它随着距离的两个顶点之间的信息。
这距离可以根据odometry计算阅读资料。
位自身拓扑地图,机器人必须用“眼睛”的环境和提取具有里程碑意义的序列
那么搜索在地图上最好的匹配的顶点(现场。
不同于传统概率定位[15],在我们的系统定位问题可以转化为评价的问题嗯。
顶点以最大的评价值,必须大于一个阈值,作为吗最佳匹配的顶点,表明最机器人可能的地方。
为评估,首先我们必须准备一份观察序列
顺序
如下。
根据相似性计算
我们设计了一种新的基于模糊逻辑的比赛策略,可以发现在接下来的部分里。
一旦观察序列生成、评价过程计算出一个后概率值P(VT)根据Eqn。
(6),在那里
是一套隐藏状态吗序列和r指数一个特殊的隐藏状态序列[3]。
详细分析和算法发现在文献[4]。
4基于模糊逻辑的比赛策略
一个重要的问题在图像匹配问题选择最有效的特征,或描述代表了原始图像。
由于机器人运动,那些提取具有里程碑意义的地区将会改变像素水平。
所以,描述符或特征选择应不变在某种程度上根据变化的规模、旋转和观点等。
在本文中,我们利用4一般特点,采用社区简述如下。
GO:
梯度方向。
已经证明照明和旋转的变化可能有更少影响[5]。
ASM和ENT:
二阶矩和角熵,这是两个纹理描述符。
H亨利:
色调,用于描述基本信息的图像。
另一个关键的问题是要选择一个比赛良好的匹配策略和算法。
通常最近的邻居策略(NN)是用来衡量相似两种模式之间。
但是我们发现了实验表明,神经网络不能充分地展现个人描述符或特征的贡献相似性度量。
图中所示,输入图像图(a)来自不同的看法图(b)。
但是Figs.4之间的距离(a)和(b)计算Jefferey差异大于图(c)。
为了解决这个问题,我们设计一个新的比赛给出了一种基于模糊逻辑的微妙的表现每个特征的变化。
该算法描述下面。
使用Jefferey图计算相似度的差异:
(a)输入形象;(b)具有里程碑意义的数据库的索引是6和Jefferey分歧d=7.3052;(c)具有里程碑意义的数据库的索引14及其Jefferey分歧d=4.662
1)首先所有特征fuzzifyid如下。
在这些方程Nk代表的数量象素灰度k、Npixels像素的总数的形象,Nm_GO的像素数与角度学位m在{GOij},Nm_H在{
}。
Aij代表灰色价值的像素,μk的平均程度由于通过模糊分类灰色水平钾、μmk角程度相当于256个和m等于360。
2)相似性地标是计算机使用的个人特征,分别。
这关于古今特征相似度在模糊设置{ASM,ENT、GO、H}被定义为
然后我们比较地方形象和每个人都在数据库。
拒绝和rmean记录。
3)所有的相似程度的各具特色,融为一体获得一个判断,可由Eqn形式化(7)。
依据权重确定根据rmean−拒绝各具特色的。
经分类,然后王是指定的0.4、0.3、0.2、0.1,分别按顺序在数据库中,这个具有里程碑意义的融合相似度高于其他任何作为最好的比赛。
这个比赛结果的Figs.4(b)和(c)证明了图。
显示,该方法能测量两种模式之间相似度的有效。
5实验,分析
定位系统已经得到了落实在一个移动机器人,它建立在我们的实验室。
视觉系统由CCD相机和一个frame-grabber下腔静脉-4200。
图像的分辨率设置为400×320和采样频率将10帧/s。
计算机系统由1兆赫处理器和512米的记忆,这是所携带的机器人。
目前该机器人工作的室内环境。
同样的场景图像区域和区分有效。
表1显示静态识别结果环境包括5laneways和筒仓。
十个场景精选每个环境和HMMs创造了每一个场景中。
收集20的场景当机器人进入各个环境后比赛60HMMs以上。
在表格上,“真相”意味着情景局部场比赛对场景的评价价值是30%比HMM第二高评价)。
“不确定性”意味着评价HMM的价值大于第二高的评价在10%以下。
“错误匹配”意味着情景本地化的比赛,错误的场景。
在桌子上,比错误匹配是0。
但这是不可能的场景本地化无法匹配任何场景和新序列为依据被创造出来。
此外,“比真理“关于筒仓低,因为显著的球杆是减少这类环境。
在这个时期的自动探索,同样的场景可以结合。
这个过程可以概括为:
当定位成功,当前的地标序列添加到随之而来的观察序列匹配的顶点un-repeatedly照他们的定位(包括角度的图像从当地及突出的航向机器人来)。
学习参数的HMM再一次。
方法相比,使用外观整幅图像的特点(方法2,M2),我们的系统(M1)使用当地的显著区域的定位及地图,这使得它有更多的宽容的规模、观点机器人的运动引起的变化,性价比高识别和更少的金额数拓扑地图。
所以,我们的系统具有较好的性能在动态环境下。
这些表2中可以看出。
Laneways1、2、4、5运行有些矿工的地方在工作,这拼图机器人。
6总结
1)局部图像特征明显,提取取代整个图像参与识别,提高公差的变化在规模、2D旋转和观点的环境形象。
2)模糊逻辑是用来认识当地的形象,并强调个体特征的贡献识别,提高了可靠性的地标建筑。
3)HMM用于捕获结构或那些当地的图像之间的关系,把场景识别问题转化为评价的问题HMM。
4)从以上实验结果表明该煤矿救灾机器人场景识别系统具有较高比率的识别和定位。
参考
[1]QIANShan-hua,GEShi-rong,WANGYong-sheng,LIUChang-qing.
Researchstatusofthedisasterrescuerobotanditsapplicationstothe
minerescue[J].Robot,2006,28(3):
350−354.
[2]ULRICHI,NOURBAKHSHI.Appearancebasedplacerecognition
fortopologicallocalization[C]//KHATIBQ.ProcoftheIEEE
InternationalConferenceonRoboticsandAutomation.SanFrancisco,
2000:
1023−1029.
[3]ARTACM,JOGANM,LEONARDISA.Mobilerobotlocalization
usinganincrementaleigenspacemodel[C]//DUBEYRV.Procof
theIEEEInternationalConferenceonRoboticsandAutomation.
Washington,2002:
1025−1030.
[4]ZHOUC,WEIYC,TANTN.Mobilerobotself-localizationbased
onglobalvisualappearancefeatures[C]//LUORC.Procofthe
IEEEInternationalConferenceonRoboticsandAutomation.Taipei,
2003:
1271−1276.
[5]LOWED.Objectrecognitionfromlocalscaleinvariantfeatures[C]//
BOYERKL.ProcoftheInternationalConferenceonComputer
Vision.Greece,1999:
1150−1157.
[6]CHENYong-sheng,HUNGYi-ping,YENTing-fang,FUHChioushan.
Fastandversatilealgorithmfornearestneighborsearchbased
onalowerboundtree[J].PatternRecognition,2007,40
(2):
360−375.
[7]RAPTISSN,TZAFESTASSG.Fuzzy-probabilisticobject
recognitionbasedonedgeandtexturedescriptorsfusion[C]//JENG
Mu-de.IEEEInternationalConferenceonSystems,Man,and
Cybernetics.Nashville,USA.2000:
1621−1626.
[8]HEISENBERGM,WOLFR.Studiesofbrainfunction[M].Berlin,
Germany:
Springer-VerlagPress,1984.
[9]EDUARDOT,TORRASC.Detectionofnaturelandmarksthrough
multiscaleopponentfeatures[C]//LOOGM.ProcofInternational
ConferenceonPatternRecognition.Barcelona,2000:
3988−3991.
[10]SHENGW,XIAB.TexturesegmentationmethodbasedonGabor
ringfiltering[J].InfraredandLaserEngineering,2003,32(5):
484−488.
[11]MIKOLAJCZYKK,SCHMIDC.Scaleandaffineinvariantinterest
pointdetectors[J].InternationalJournalofComputerVision,2004,
60
(1):
63−86.
[12]WANGL,CAIZX.Saliencybasednaturallandmarksdetection
underunknownenvironments[J].PatternRecognitionandArtificial
Intelligence,2006,1
(1):
52−56.
[13]GUILHERMEND,AVINASHCK.Visionformobilerobot
navigation:
Asurvey[J].IEEETransactiononPatternAnalysisand
MachineIntelligence,2002,24
(2):
1−31.
[14]DUDAR,HARTP,STORKD.Patternclassification[M].2nded.
Beijing:
ChinaMachinePress,2004.
[15]VALEA,RIBEIROMI.Aprobabilisticapproachforthelocalization
ofmobilerobotsintopologicalmaps[C]//KOVACICZ.Procofthe
10thMediterraneanConferenceonControlandAutomation.Lisbon,
Portugal,2002:
1244−1249.