基于各向异性扩散的深度图像增强教材Word文档下载推荐.docx
《基于各向异性扩散的深度图像增强教材Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《基于各向异性扩散的深度图像增强教材Word文档下载推荐.docx(10页珍藏版)》请在冰豆网上搜索。
该模型在图像分割[8][30][11]是普遍存在的,但它很少用于图像增强的应用程序。
通过这个模型,引导深度增强问题能够通过求解一个稀疏线性系统来解决。
2相关工作
2.1指导深度上采样
它的目的是通过融合高分辨率视觉图像和低分辨率深度数据来生成高清晰度深度图。
为此,马尔可夫随机域(回收设施)被首先使用[6]。
它通过优化一个能量函数来推断深度,这个能量函数是由对已知测量结果的长期合理的评估和对深度平滑的长期正交化组成。
之后,提出了几个MRF的基础方法,这个方法通过进一步考虑新的正交化来拓展这份先进的工作,例如,非局部平滑约束[28][18]和时间相干性[31]。
另一组有关这个问题的方法是基于滤波技术。
他们大多使用联合双边滤波器或它们的变化[1][29][7]来整合深度采样的颜色信息。
2.2引导深度图像修复
引导深度图像修复这个问题对于Kinect-like传感器的发展很感兴趣。
在过去的两年中,我们提出各种方法来填充深度图中的无效区域,这些深度图是有着参考视觉图像对准的。
有研究将传统的修补算法[2][5][23]拓展到引导案例中。
具体地讲,新的修补模式[14][21]和扩展命令[14][15]被设计用以归纳引导信息。
这些方法仅限于其中无效区域被有效区域包围的情况下,以至于他们不适用于引导采样。
与他们相反,另一组研究中采用滤波器[19][10],这为采样工作的同时,也为引导深度进行修补。
2.3各向异性扩散
各向异性扩散各向异性扩散此处主要指的是热扩散框架,该框架通过偏微分方程(PDEs)来表示。
基于偏微分方程的各向异性扩散被广泛用于在图像或表面平滑[20][4],图像修复[2][3],分割[24][11],以及其他图像处理应用[27]。
最相关的工作是滤波和图像修复技术。
就我们所知,这些技术没有集成高分辨率参考图像来引导这个扩散过程。
在这项工作中,我们将引导深度增强,包括修补和采样,表述为一个线性各向异性扩散问题。
我们的扩散是通过一个大的从稳态中衍生出来的稀疏线性系统来进行的,而不是像传统技术一样反复的解决问题。
3方法论
3.1问题制定
假设我们事先已经给出了一个对准的深度图和彩色图对。
深度图要么是包含无效的区域要么是分辨率比配对彩色图像低。
彩色图像假定为无缺陷的。
我们将一个像素p=(X,Y)中的深度和颜色,分别由D(P)和I(P)来表示。
p在一个图像区域Ω。
已知深度值的像素被称为种子像素,其点集表示S.如果我们将种子像素作为热源,那么深度增强就可以像热源扩散一样,在这些图上是从热源开始的。
扩散过程由以下偏微分方程表示:
(1)
其中W(P;
t)是点P在时间t的扩散系数并且D0(p)为初始状态的深度值。
扩散系数的空间变化取决于所给的彩色引导图,从而使式
(1)变成各向异性扩散。
上述偏微分方程是一个初值问题[13]。
在该方程所代表的扩散系统中,我们感兴趣的只是深度值趋于稳定的状态[8][30][11]。
因此,毫不犹豫,我们在式中舍弃t符号,并获得下面的等式:
(2)
方程
(2)的解对应于我们期待实现的深度图增强。
当初始深度图给出,大幅度的增强质量依赖于W(P)的选择。
因此,我们探讨的扩散系数的设计将表现在如下求解稳态问题的方法中。
3.2数值方案
我们已经将深度图像的增强问题制定成各向异性扩散的过程。
扩散传导系数是一个条件,它依赖于彩色引导图像,但独立于深度值。
因此,我们引导的深度增强是一个线性各向异性扩散问题[11]。
线性意味着W不是D或∇D的函数。
现在,让我们把线性各向异性扩散的稳定状态看成式
(2)所描述的那样。
我们首先将离散的深度图以图形G=(V,E)来表示,其中V是一组顶点,即象素,并且E包含四邻域。
两个顶点之间的扩散系数由高斯设计在颜色上相似。
得到
(3)
这个传导性意味着,当两点的颜色相似时,深度扩散就快。
当我们构建完图形后,离散的扩散过程就会退化为随机游走模型[8][30][11]
(4)
(5)
如果我们把深度图作为一列向量,方程(4)可以变为以下公式:
(6)
其中,L是单位矩阵并且w是一个N×
N的对称矩阵,N是整个图像的像素的总数。
给定的始深度图D0,D的非0解可以通过求解线性系统AD=B来计算。
(7)
(8)
这里,列向量D中的第p个和第q个元素对应于像素p和q。
请注意,A是一个稀疏正定矩阵。
因此,引导深度增强可以转变为是一个能够有效求解的稀疏线性系统。
4实验
为了验证所提出的方法,我们进行了一系列的实验。
定量评价并且与使用双边过滤器以及MRF方法进行比较首先在米德尔伯里数据集[22]上进行。
然后,我们将算法运用在一个Kinect传感器的修补应用上,以及用于Velodyne64E雷达的上采样应用上。
实验的详细情况如下。
4.1实验在Middlebury数据集上
该实验的目的是定量地评价我们的算法的性能。
一组深度图像对取自米德尔伯里数据集。
数据集中的深度图被用作实际值。
这些图使用不同的采样因子,5×
,10×
,15×
,20×
,分别的去创造低分辨率深度图。
该彩色图像被作为深度上采样的引导。
在所有的实验中,我们将扩散电导率σ设定为10。
在不牺牲速度性能的情况下我们靠自己执行原始双边滤波器。
在双边滤波器中,邻域的大小是41×
41,σD=2,且强度σs=10。
MRF方法也被用于实现比较,其中,所述加权系数为1,规范数据和平滑之间的权重。
每个算法在每个采样系数下所获得的结果进行评价取决于根均方误差(RMSE),这个根均方误差是相对于实际值而言的。
表1总结的结果,从中我们得到几个观察结果。
当上采样因子小的时候,我们所提出的方法和双边滤波器是相当的。
当系数上升,我们的方法效果最好。
并且在所有情况下,MRF由于其过平滑影响,具有最大的错误。
图1也呈现了在间隔为10的采样结果。
从图像中可以看出,双边滤波器得到的是尖锐边界。
我们提出的方法和MRF方法都会得到模糊的边界。
但大多数情况下MRF会模糊。
此外,我们提出的方法和MRF方法在薄结构的区域都比双边滤波器执行地更好。
表1在Middlebury数据集上的定量评价结果。
将偏差值定义为RMSE
4.2实验在Kinect数据集上
在这个实验中,我们应用算法以修复Kinect传感器捕获的深度图。
Kinect的传感器以高帧速率产生对准的深度和图像对。
图1为在Middlebury数据集上进行引导深度上采样,其中(a)为高分辨率彩色图像,(b)为真实深度图,(c)(d)(e)分别为使用双边滤波器,MRF,和我们提出的方法以10为间隔进行上采样得出的结果
然而,所产生的深度图由于遮挡,反射性的或黑的表面,或区域的深度限制等原因通常含有大量无效区域,这些区域中测量的距离会丢失。
同时,从这些深度图到发生移位的彩色图的对准导致了大量无效区域,这些无效区域沿着图的边界。
在图二中我们给出了一些修补结果。
数据要么自己采取要么选择从已建立好的Kinect数据集[10]中选择。
从结果中,我们看到我们设置的固定窗口大小导致了双边滤波器不能填满所有的未知区域,。
它表明一个自适应方案应设计成在所有情况下都能有效的使用。
另一种看法与我们从以前的实验中看到的不太一样,双边滤波器得到清晰的边缘并且其他两个方法得到模糊边界。
MRF和我们提出的方法在视觉上获得的结果几乎是相同的。
图2为在Kinect数据集上进行引导深度修复,(a)为彩色图,(b)为包含大量缺失区域的深度图
(c)(d)(e)分别为使用双边滤波器,MRF,和我们提出的方法得出的结果
4.3实验在雷达数据上
在最后的实验中,我们应用算法来上采样由Velodyne64E激光雷达得到的距离数据,这个雷达用于与相机结合。
摄像机拍摄的图像作为引导。
与在米德尔伯里数据集上的采样实验不同,我们此处得到的是具有不均匀的分辨率的距离数据。
图3为在Velodyne64E数据上进行引导深度上采样的结果。
第一行给出的是彩色图像,第二行的图中包含距离数据,最下三行分别为使用双边滤波器,MRF,和我们提出的方法得到的上采样结果。
5结论
在本文中,我们提出了一种新的方法引导深度增强。
该方法是基于热扩散结构,并通过使用随机游走模型来有效地解决。
因此,它可以被应用于修补由Kinect传感器产生的有缺陷的深度图,也可以用于上采样由激光雷达获得的一系列距离数据。
上述两个应用都是时下流行的。
另一方面,为了研究从我们的算法到双边滤波器和MRF方法的基本关系,我们不考虑复杂的扩散电导率和在这个工作的BF和MRFs的变体。
更好的设计传导率会改善边界周围的扩散。
这将是我们未来的工作。
参考文献
1.Barash,D.:
BilateralFilteringandAnisotropicDiffusion:
TowardsaUnifiedViewpoint,HP
LaboratoriesIsrael,HPL-2000-18(R.1)(2000)
2.Bertalmio,M.,Sapiro,G.:
ImageInpainting.SIGGRAPH(2000)
3.Chan,T.,Shen,J.:
MathematicalModelsforLocalNon-textureInpaintings.UCLACAM
TR00-11(2001)
4.Clarenz,U.,Diewald,U.,Rumpf,M.:
AnisotropicGeometricDiffusioninSurfaceProcessing.
In:
IEEEConferenceonVisualization(2000)
5.Criminisi,A.,Perez,P.,Toyama,K.:
Regionfillingandobjectremovalbyexemplar-based
imageinpainting.IEEETransactionsonImageProcessing13(9),1–13(2004)
6.Diebel,J.,Thrun,S.:
AnApplicationofMarkovRandomFieldstoRangeSensing.In:
NIPS
(2005)
7.Dolson,J.,Baek,J.,Plagemann,C.,Thrun,S.:
UpsamplingRangeDatainDynamicEnvironments.
CVPR(2010)
8.Grady,L.:
RandomWalksforImageSegmentation.IEEETransactionsonPatternAnalysis
andMachineIntelligence28(11),1–17(2006)
9.He,K.,Sun,J.,Tang,X.:
GuidedImageFiltering.In:
Daniilidis,K.,Maragos,P.,Paragios,
N.(eds.)ECCV2010,PartI.LNCS,vol.6311,pp.1–14.Springer,Heidelberg(2010)
10.Janoch,A.,Karayev,S.,Jia,Y.,Barron,J.T.,Fritz,M.,Saenko,K.,Darrell,T.:
Acategorylevel
3-dobjectdataset:
Puttingthekinecttowork.In:
ICCVWorkshops(2011)
11.Kim,G.,Xing,E.P.,Fei-Fei,L.,Kanade,T.:
DistributedCosegmentationviaSubmodular
OptimizationonAnisotropicDiffusion.In:
ICCV(2011)
12.Kim,S.-Y.,Cho,J.-H.,Koschan,A.,Abidi,M.A.:
Spatialandtemporalenhancementof
depthimagescapturedbyatime-of-flightdepthsensor.In:
ICPR(2010)
13.Larsson,S.,Thomee,V.:
PartialDifferentialEquationswithNumericalMethods.Springer,
Heidelberg(2003)
14.Liu,J.,Gong,X.,Liu,J.:
GuidedInpaintingandFilteringforKinectDepthMaps.In:
ICPR
(2012)
15.Gong,X.,Liu,J.,Zhou,W.,Liu,J.:
GuidedDepthEnhancementviaAFastMarching
Method.ImageandVisionComputing31,695–703(2013)
16.Microsoft(2010),
17.Paris,S.,Durand,F.:
Afastapproximationofthebilateralfilterusingasignalprocessing
approach.InternationalJournalofComputerVision99(3),24–52(2009)
18.Park,J.,Kim,H.,Tai,Y.-W.,Brown,M.S.,Kweon,I.:
HighQualityDepthMapUpsampling
for3DTOFCameras.In:
19.Parker,R.:
Kinectdepthinpaintingandfiltering(2011),
20.Perona,P.,Malik,J.:
Scale-SpaceandEdgeDetectionUsingAnisotropicDiffusion.IEEE
TransactionsonPatternAnalysisandMachineIntelligence12(7),629–639(1990)
21.Qi,F.,Han,J.,Wang,P.,Shi,G.,Li,F.:
StructureGuidedFusionforDepthMapInpainting.
PatternRecognitionLetters(2012)(inpress)
22.Scharstein,D.,Pal,C.:
OnLearningconditionalrandomfieldsforstereo.InternationalJournal
ofComputerVision99(3),319–337(2007)
23.Telea,A.:
Animageinpaintingtechniquebasedonthefastmarchingmethod.Journalof
GraphicsTools9
(1),25–36(2004)
24.Tschumperle,D.,Deriche,R.:
AnisotropicDiffusionPDE’sforMulti-ChannelImageRegularization:
FrameworkandApplications.In:
AdvancesinImagingandElectronPhysics,pp.
1–47(2007)
25.Velodyne.VelodyneHDL-64E(2012),
GuidedDepthEnhancementviaAnisotropicDiffusion417
26.Wasza,J.,Bauer,S.,Hornegger,J.:
Real-timePreprocessingforDense3DRangeImaging
ontheGPU:
DefectInterpolation,BilateralTemporalAveragingandGuidedFiltering.In:
WorkshopinICCV(2011)
27.Weickert,J.:
AnisotropicDiffusioninImageProcessing.ECMISeries.Teubner-Verlag
(1998)
28.Wong,U.,Garney,B.,Whittaker,W.,Whittaker,R.:
Cameraandlidarfusionformapping
ofactivelyilluminatedsubterraneanvoids.In:
Howard,A.,Iagnemma,K.,Kelly,A.(eds.)
FieldandServiceRobotics.STAR,vol.62,pp.421–430.Springer,Heidelberg(2010)
29.Yang,Q.,Yang,R.,Davis,J.,Nister,D.:
Spatial-DepthSuperResolutionforRangeImages.
CVPR(2007)
30.Zhang,J.,Zheng,J.,Cai,J.:
ADiffusionApproachtoSeededImageSegmentation.In:
CVPR
(2010)
31.Zhu,J.,Wang,L.,Gao,J.,Yang,R.:
Spatial-TemporalFusionforHighAccuracyDepthMaps
UsingDynamicMRFs.IEEETransactionsonPatternAnalysisandMachineIntelligence32(5),899–909(2010)