基于小波空间的视图变形研究

基于小波空间的视图变形研究

一、基于小波空间的视图变形研究(论文文献综述)

许小艳[1](2011)在《多视点视频中的视图合成》文中研究指明3D电视是近年来兴起的一种能够增强视频观赏体验的新型媒体介质。多视点视频技术是3D电视的基础,它能够通过基于深度图像绘制(DIBR)技术来合成一定范围内的任意视点的视图,从而使3D电视系统具有交互性和立体感。本文研究的目的,就是通过对多视点视频中基于深度图像绘制的视图合成的原理、技术和方法进行研究,为它在3D电视中的应用提供理论和技术支撑。论文首先介绍了多视点视频中视图合成的理论基础——针孔摄像机模型;然后在该模型的基础上,研究了深度图像获取和基于DIBR视图合成所涉及的关键技术。在深度图像获取方面,重点研究立体图像对的极线校正;在视图合成方面,论文首先提出了一种空洞填充算法;然后研究了基于图像重投影的视图合成,以及任意视点的基于DIBR的视图合成方法;最后研究了基于深度图像的3D视频去隔行。论文的主要研究成果包括:①针对深度图像获取过程中的极线校正问题,研究了图像重投影,并在此基础上提出了一种立体图像对的极线校正方法。该方法结合了基于基本矩阵的极线校正方法和无需基本矩阵的极线校正方法,有效地避免了最优化时陷入局部最优的可能,同时又不过分依赖基本矩阵的精度。实验表明该方法具有较高的校正精度,图像的扭曲也比较小。②提出了一种新的空洞填充算法。该算法总是先填充那些4邻域像素集中不空的像素大于等于本轮域值的空洞点;并且每填完一遍空洞点之后都重新搜索4邻域像素集中所有像素都不空的空洞点以开始下一轮填充。实验表明该算法能较好地填充较小的空洞,特别是对纹理单一区域中的空洞能产生良好的填充效果。该算法适用于经过平滑深度图像处理后剩余空洞的填充,也便于硬件实现。③针对摄像机绕光心旋转的特殊情形,给出了单应矩阵具有的性质,并结合三维图像变换技术提出了一种摄像机绕光心旋转时新视图的合成方法。由于充分利用了单应矩阵的性质,该方法不但能够生成质量较好的新视图,而且绘制速度也得到了加快。④提出了一种基于DIBR的视图合成方法。该方法执行两次三维图像变换,第一次变换采用平滑后的深度图像,得到含有较小空洞的目标图像;第二次变换采用原始的深度图像,得到含有较大空洞的目标图像。然后以第二次变换得到的目标图像为基准将两幅目标图像融合,最后对得到的目标图像进行空洞填充。该方法能在消除空洞的同时保证不会降低非空洞区域图像的质量,从而尽可能地保留视图的真实性,适用于3DTV中的立体图像对的合成。⑤研究了基于深度图像的3D视频如何在现行的电视系统中传输的问题,提出了3D视频隔行化的概念,并提出了一种适用于DIBR的去隔行算法。由于该算法采用了基于方向的场内插值算法,因而能得到画质较高的逐行新视图,适用于基于深度图像的3D视频的去隔行。作为一项具有创新性意义的工作,论文在研究方法与思路上力求有所突破,其研究成果将为多视点视频的视图合成在3D电视中的应用提供具有实用价值的新方法。

邱国钦[2](2011)在《基于图像对的虚拟视点合成方法研究》文中提出本文研究基于图像的虚拟视点合成技术。虚拟视点合成是指通过两个或多个摄像机视点上所得到的同一场景的图像,直接计算出其它各个摄像机视点或视线方向上该场景的图像。由于避免了重建过程,使其更具有吸引力。本文首先对双目视觉系统获取的图像进行立体校正处理。图像立体校正是是通过某种变换,将双目计算机视觉系统获取的图像变换成平行视图,使得极线是平行于x坐标轴的,且对应极线是对齐的。首先,将一幅图像的极点通过一个旋转变换变换到x轴,再通过一个射影变换,将极点变换到无穷远处。接着,通过匹配立体变换的约束,以最小化变换前后视差为依据求得最优的匹配变换。由此可得到校正后的图像对。一般的,基于图像的虚拟视点合成技术将源图像看成一系列具有对应关系的像素集合,这种对应关系可以理解为视差或光流,也可看作简单的像素运动方向矢量,利用这些对应关系,通过二维图像变换来生成虚拟视点的图像。本文首先使用SIFT算子求得初始特征匹配点,并在此基础上,使用生长算法求得全图的视差。生长的过程中考虑到了初始匹配的可信程度,因此可以存在误匹配并不会干扰视差计算效果。在求得校正后图像对的视差数据后,使用线性插值的方法求得临时中间视点图,并使用一种自动确定后置变换的方法,将临时中间视点变换成观察角度合理的中间视点视图。所提出的方法用于KDDI的多视点视频测试序列等,实验结果证明了所提算法的有效性。

张会兵[3](2010)在《基于深度图像的视图合成技术研究》文中研究指明逼真场景的生成是虚拟现实研究的核心内容。从现有场景的几幅离散图像合成任意视点新视图,就是根据虚拟现实的应用需求而诞生的。视图合成技术研究如何使用两幅或多幅关于某个场景的图像,生成该场景在新视点下的相应图像。基于深度图像的视图合成研究的内容主要包括深度图像的获取和视图合成算法的研究。本文研究使用计算机视觉的相关算法获取图像的深度信息。主要包括相机定标、基础矩阵估计、立体匹配和深度估计等内容。本文首先研究了当前的相机定标方法,提出了改进的基于液晶显示器的相机快速定标方法。然后使用基于角点的特征匹配获得视图的稀疏匹配,通过使用改进M-Estimators方法计算得到鲁棒的基础矩阵F,再使用基于双阈值的分阶段立体匹配获取两幅视图的稠密匹配。最后通过对应点的匹配信息计算得到匹配点的三维信息。基于深度图像的视图合成是本文研究的重点。本文基于物体表面深度的连续性,利用对应共轭极线的整体匹配性和保序性,以及深度图像中隐含的基于广义视差的图像边界点信息,提出了基于逆向映射的深度图像视图合成算法。从一幅主参考源视图获取新视图对应像素的深度信息,进而通过逆向映射算法得到新视图在参考视图中的对应像素信息,从而得到新视图像素点的灰度信息,最终得到新视图。由于遮挡关系和投影区域扩张的原因导致新视图中不可避免地存在空洞。本文根据对极几何的相关知识,提出了改进的单点逆向映射空洞填补算法。使用了少量参考源视图,完成对合成的新视图中的空洞进行填补,并最终得到完整的新视图。

蒋轶玮[4](2010)在《视频/图像压缩域编辑技术的研究》文中认为视频编辑和图像编辑是近年来非常活跃的一个研究方向,其借助计算机来进行数字化制作,将传统线性编辑要完成的工作放在计算机的非线性编辑系统中来实现,突破传统线性编辑的按时间顺序处理的限制,缩短了制作周期,节省了人力、设备,大大提高了图像和视频的制作质量和水平。区别于传统的数据处理模式,压缩域处理技术直接面向数据量大大减少的压缩数据进行,同时也无需解压缩、再压缩的附加环节,从而能大大提高多媒体应用系统的整体性能和响应速度。该研究方向已形成了一个新的国际性的研究热点。论文结合这两个研究热点,基于压缩域,对非线性编辑技术进行研究。论文主要包括三个方面:图像变形、图像修复和视频修复的研究,提出了高效的算法,并用实验验证了这些算法的有效性。在图像变形算法的研究中,将注意力机制引入信息的分析,针对视频序列中的图像帧,提出了一种基于压缩域的有效的视频信息显着性分析方法,用于提取符合感知过程中受注意程度高的区域,即显着区域。利用结合视觉注意机制提取的显着区域作为图像的特征基元,通过插值算法生成中间过渡图像。当两幅图像之间没有明显的特征基元对应时,利用基于物理的流体模拟方法实现图像的变形。算法能在两种状态下,快速地实现图像之间的变形。在图像修复算法的研究中,从几何的角度对DCT系数进行分析,根据直流系数和交流系数的不同性质,对其采用不同的处理方法。算法在压缩域下通过采用偏微分方程和纹理合成相结合的方法,可以快速地实现任意尺度的图像修复。在对视频序列中的物体进行补全的研究中,借助有效区域的运动矢量信息对破损区域进行恢复,从物体运动的规律性考虑,采用不同的方式分别进行修复,最后对不同方式下计算的结果融合处理。该算法基于DCT压缩域,直接利用原始码流中的运动矢量信息和相关信息,减少了DCT编解码等中间过程,从而在保持质量的同时,大大提高编辑的处理速度。

李筱魁[5](2008)在《数学形态学用于虚拟视景仿真技术中图像配准方法的研究》文中研究指明虚拟现实(Virtual Reality,简称VR)是由计算机生成一个具有多种感官刺激的虚拟世界,能给人以沉浸感,并且人能与这个虚拟的世界进行交互。在这个多感官感知的系统中,目前的技术能提供包含视觉、听觉、触觉和极少的味觉在内的几种的感知信息。根据人类的生理特点,人类从客观世界获得的信息有70-80%以上来自视觉,因此,在VR系统中构造真实感的视觉场景——即视觉场景仿真技术自然成为虚拟现实系统的关键。从这点出发,本文介绍了虚拟现实系统中视觉场景的仿真生成技术,主要有基于图形的绘制和基于图像的绘制两种技术,而基于图像的绘制技术是近年来研究的热点。全景图像技术又是目前应用最广泛的一种基于图像绘制的技术,因此,本文重点研究了全景图像技术。全景图像的生成必须先进行多幅图像的配准,对于配准技术目前已有大量研究,但将数学形态学的方法用于图像配准的研究并不多见,本文对于能够用于图像配准的形态学运算提出了两个关键特征:即设计的数学形态学运算必须满足平移不变性,并且得到的运算结果是原输入图像的子集。只有满足这两个特征的形态学运算才能用于图像配准,本文对此做以详细阐释,最后给出了一组实验数据。

郭明恩[6](2007)在《基于图像的图像构建绘制和对象辨识》文中指出基于图像的构建及绘制技术是实现真实感场景绘制的一种新颖方法,它综合应用了计算机图形学、计算机视觉、图像处理、摄影测量等学科领域的理论和成果,成为一个倍受关注的研究热点,它以预先采集的离散图像作为基础表示,通过一系列的处理后,在计算机显示设备上再现出场景原貌的过程,较之基于几何模型的方法,它生成的景物真实自然,绘制速度不依赖于场景的复杂程度,但目前尚有许多方面有待进一步探讨,利用视觉敏感的特征进行自动匹配和相关处理以提高图像的视觉质量是其中之一。基于图像的辨识技术在自然景物分类、医学辅助诊断、木材缺陷判别、金相组织分析、生物和文字辨识等领域已获得广泛应用,但应用在食品方面还不多见。在流通过程中,有效地辨识出淀粉类食品中原料淀粉的种类和组分,对其安全和经济都具有现实的意义,目前,技术监督和商品检验检疫部门的做法是依据对产品的感官感觉进行评判,这种方法受主观因素和经验知识的制约,易于造成误判,且缺乏坚实的理论根据。利用显微图像所反映出来的微观形貌特征对其进行自动辨识是一种可行的实现途径。图像特征是事物本质属性在图像上的客观反映、是人类视觉感受外部世界的重要依据、也是计算机区分不同事物的原始输入。依据这一客观事实,本文分析研究了适合上述问题的图像特征及检测方法,并应用于相关应用中。以几何边缘上的角点为视觉敏感点、以分维数和灰度共生统计特征为微观形貌的描述。角点特征在图像旋转、缩放、平移及光照变化的条件下仍具有较高的重复被检率,相位一致提取方法可使角点定位准确且为边缘的严格子集,较适合人类视觉感受规律。形貌统计特征可很贴近地描述自然纹理图像的形貌特点,特征的相应统计值由灰度共生矩阵和分形维理论方法提取。特征点匹配是图像拼接和视图合成的一项基础而关键内容,也是比较困难的一步,通常由交互方式或标定相机完成。本文在尺度空间中,运用相位一致方法检测特征点集,以LOG算子确定选取的特征点及其特征尺度,以特征点及其特征尺度构造特征点邻域的特征区域,用颜色矩参数作为特征区域的描述向量,采用欧氏距离度量特征向量之间的相似性得到初始匹配的特征点,通过视觉一致几何约束条件剔除了误匹配点而获得特征点的精确匹配。该方法实现了图像特征点的自动匹配,用于存在较大尺度差异的宽基线图像时效果较好。基于全景图像的场景表示是图像绘制技术中具有代表性的应用之一,它的技术核心是获取表示场景的全景图像。对利用手持普通数码相机原地旋转拍摄的序列场景图像,本文研究以图像特征匹配和目标函数优化完成了平面全景图像拼接,改进了Szeliski算法。方法的具体实现为:首先利用相位一致方法提取各图像中边缘上的角点特征,对特征角点进行初始匹配,然后利用初始匹配的角点计算变换矩阵的初始参数,再以光强度差的平方和为优化目标函数,在优化的过程中逐步获得变换矩阵的最佳参数,最后对重叠区域运用渐入渐出的方法实现了光强或颜色的自然过渡。以预先采集的不同视点的场景离散图像,生成对应于当前虚拟视点的图像是基于图像绘制技术的一个研究热点。不同于相机需要标定、源图像的分辨率基本相同的常规方法,本文研究了一种利用未标定普通数码像机前向运动拍摄的序列图像,生成对应于当前虚拟视点图像的方案。该方案在仅知两幅二维图像的条件下处理了边缘可见性和无对应点区域的生成。算法的步骤为:利用傅立叶变换方法确定相邻源图像无对应点的区域;然后,利用尺度空间和相位一致原理在共同区域提取及匹配边缘上的关键点,计算其深度值,并在新图像中由该值判别虚拟图像中的可见性;再由关键点恢复极线约束,通过极线间的位置和颜色插值生成虚拟图像中有对应区域的一般点;在确定极线位于无对应点区域段后,利用加权平均或放大插值的方法实现了源图像无对应点区域在虚拟图像中的自然过渡。该算法不需要图像的其他先验知识,完全可以使用实拍图像。图像是客观对象的光能记录,它以颜色或灰度分布的形式反映了被记录对象的特有形貌或本质属性,利用计算机对象辨识分析技术对图像的颜色分布模式进行分析,可实现研究对象的自动辨识归类。本文以龙口粉丝组织的显微图像为素材,研究了淀粉类食品粉丝搀杂问题的一种辨识方法,即运用由灰度共生矩阵及分形维理论检测的统计特征为描述向量,通过神经网络分类来完成不同原料成分比例的商品粉丝辨识。实验中对绿豆与玉米、绿豆与马铃薯、绿豆与红薯等混合淀粉制成的粉丝进行了实验测试,结果表明该方法可行,并可推广于淀粉类加工产品。

吴琼玉[7](2006)在《基于图像的视图合成技术研究》文中认为本文研究基于图像的视图合成技术。视图合成(View Synthesis)是指通过两个或多个摄像机视点上所得到的同一场景的图像,直接计算出其它各个摄像机视点或视线方向上该场景的图像。虽然文献中有了不少算法,但仍然存在一些不足,例如目前视图合成技术主要存在的问题有实时性不强,中间视图真实性不够,需要手动建模等。为了解决这些问题,本文分析和讨论了基于图像的绘制技术的视图合成两方面的内容:一是基于立体匹配的视图插值,另一个是基于图像序列的视图合成。在基于立体视觉的图像合成中,存在两个难点:视点运动的局限性和立体匹配固有的模糊性。针对第一个问题,首先采用一种对视点任意运动都适应的图像校正算法,使任意运动的图像对转化为标准立体配置的图像对;其后,采用角点特征提取和三角形网格剖分、插值的方法完成了任意运动图像对的图像合成。针对第二个问题,提出了两种适合图像合成特殊应用的立体匹配算法:基于扫描线自适应分割的立体匹配和基于类树结构和二维DP优化的立体匹配算法。第一个算法,通过扫描线自适应分割保证了段内视差的平滑性,通过段内视差拟和以及假设验证法保证视差在垂直方向的平滑性。第二个算法首先将图像看作一个二维网格,图像的每一个像素点就是网格的一个节点,通过给网格节点指定特定的顺序关系和分割断开某些节点的联系,使图像网格变成一个类树的结构;其后采用二维DP优化算法,实现了基于类树结构的立体匹配。我们在基于图像序列的视图合成中提出了两个算法:一是基于图像学习的图像合成算法,二是基于TIP的图像序列重建法。基于图像学习的方法将生成中间视图表达为一个最大后验概率的问题。在弱定标的情况下,通过多极约束的原理,将深度域的最大后验概率计算问题转换到视差域,从原图像中学习获得最大后验概率,从而在不定标和不匹配条件下,可以从图像序列直接生成中间视图。基于TIP(Tour into the picture)的图像序列场景重建法可以认为是对TIP建模法的扩展。我们提出用曲面建模法代替TIP中的平面建模法,扩展了传统TIP建模法的适应范围。在对序列图像的每一幅都建模的基础上,我们通过模型拼接或者模型切换生成,建立有关图像序列场景的伪模型,然后实现了在伪模型内任意漫游。所提出的方法用于室内和室外场景的图像,实验结果证明了所提算法的有效性。

华臻,张鑫,王振[8](2006)在《基于小波空间中IBMR技术的矿井通风系统可视化研究》文中认为针对目前矿井通风作业中存在的一系列制约性问题,科学地生成通风网络图并解算风网;运用基于小波空间的IBMR,生成通风系统的三维虚拟环境,而且能够与系统自然地进行信息交互,从而为矿井通风安全可视化研究提供了更先进、快捷的方法;也为小波空间中IBMR的图像生成技术在矿业工程中的进一步开发与应用奠定了坚实的基础。

胡志萍[9](2005)在《图像特征提取、匹配和新视点图像生成技术研究》文中认为基于图像的绘制技术是近几年兴起的一种新的虚拟场景绘制策略,它已成为当前计算机图形学界的一个研究热点。基于图像的绘制技术结合了计算机图形学、计算机视觉、图像处理、摄影测量学等许多学科的理论和成果,用真实的图像来代替传统的几何建模,使绘制的图像真实自然、绘制的速度不依赖于场景的复杂度。本文对该领域中新视点图像生成和其相关技术进行了研究,主要包括特征的检测和提取、基于点特征和线特征的宽基线(wide baseline)图像匹配、基于轮廓对应的任意新视点图像生成等。 特征检测是图像处理中的一项基本技术。根据匹配和新视点图像生成的需求,特征检测方法需要特征定位的精度较高,能同时检测出角点、边缘等不同特征等。本文研究了基于相位一致的特征检测技术,从频域分析图像灰度的突变位置。讨论了不同方向的多尺度下相位一致值计算,并研究了一种用矩理论对各方向相位一致数据进行综合的方法,可有效的区分和提取边缘和角点特征。 现有虚拟视点图像生成中初始匹配点的选取,通常是直接在图像上由用户交互方式进行或由摄像机标定得到。交互方式容易受人为主观操作因素和图像分辨率的影响,使对应匹配点的选取产生误差,并且使视图生成过程需人工干预,不能实现完全的自动化,给实用化带来很大的困难;摄像机的标定需要采集图像摄像机的一些先验知识,限制了虚拟视点图像生成方法的适用范围。本文提出宽基线图像匹配方法,分别是基于点特征的匹配和基于线特征的匹配,将其应用到视图生成中,从而实现了虚拟视点图像的自动生成。根据欲匹配源图像间几何变形的不同,提出了两种点特征邻域的选取和匹配原理方法。当图像之间的尺度差异较小时,例如,在虚拟漫游中摄像机环绕景物运动时采集的序列图像,提出一种基于仿射不变量的点特征区域提取和匹配方法,能适应大的视点变化和光照条件的变迁。该方法以图像中颜色的局部极值点为种子点,过种子点作射线,将沿各射线上颜色变化为最大的点连线围成区域,取该区域的椭圆拟合作为特征区域,该特征区域具有仿射不变性。当图像之间尺度相差较悬殊时,可通过多尺度分析,在三维尺度空间选取颜色值为不连续突变的角点作种子点,特征区域是以种子点为圆心的邻域。对已选出的局域特征区域,逐步消除几何变换和光照变换对图像区域的影响,构造特征向量来表征该区域内颜色分布,通过特征向量的比较来确定特征区域的匹配。实验表明基于上述点特征区域的匹配方法具有较强的鲁棒性,可应用于宽基线图像的匹配。 基于点特征的匹配适用于纹理信息较丰富的图像,对于纹理信息较少的图像,为获得足够多的匹配点,还需要基于线特征的匹配。相对于基于点特征的宽基线图像匹配,线特征在宽基线图像的匹配应用中研究较少,线的匹配提供的图像间信息较少,但我们可以通过匹配直线的端点、交点,由匹配的直线段得到匹配的点。本文提出的线特征匹配方法通过基于相位一致的边缘检测技术,检测出图像边缘,提取组成边缘直线段链,由三条相邻直线段构成待匹配基元。检测组成基元的直线段间相对位置关系和相互连接方式,得到基元的不变量描述,以此作为匹配准则确定基元匹配,各基元的匹配关系构成图像间直线段的相似矩阵,通过相似矩阵的值确定全图像中直线段间的潜在匹配。并根据所有潜在匹配中直线段间的相对位置关系,提出了一种直线段匹配的全局几何约束,剔除错误匹配,得到了较好的直线段匹配效果。该算法可应用于宽基线图像的匹配。大连理工大学博士学位论文 由已知图像合成新视点的图像是基于图像的绘制中的一项基本技术,它用具有高度真实感的图像来表示虚拟场景。视图合成工作是在两幅同一目标景物,不同视点的图像之间合成一系列连续的期间过渡图像,其中要求合成视图应该具有三维真实感,如同虚拟摄像机所采集的图像。本文提出一种基于摄像机横向和纵向移动采集的图像合成新视点图像的方法,该方法在合成图像中优先保证轮廓对应准确,从而使合成图像轮廓清晰。对通过摄像机分别作横向和纵向运动采集的四幅图像,本文提出的新视点图像生成方法,可以实现在上述四幅图像视点围成的四边形中任意新视点图像。对于一幅图像来说,图像中形体轮廓线和区域分界线具有特殊的意义。一方面,轮廓边界是重要的视觉感知线索。图像中像素颜色值的变化,在一个区域内往往保持比较稳定的模式,在边界处则会发生急剧的突变。人类视觉的特点则是对颜色和亮度的变化最为敏感。在图像处理中,轮廓相对于其它图像信息也易于识别和提取。另一方面人类正是主要通过物体的轮廓来区别和认识物体的,如果生成图像的轮廓质量高,则生成的图像整体质量必定也高。实际上,质量不高的图像其最明显的外在特征就是边缘轮廓线模糊不清。因此,本文提出一种改进的基于轮廓对应的视图合成方法,首先以组成轮廓的直线段间相对位置和方向得到直线段间的正确对应,再由匹配的直线段和极线几何约束得到匹配的轮廓点,保证了轮廓对应的准确性,使合成图像轮廓清晰。再以轮廓为界限制其它像素的对应,减少错误匹配的几率,从而使生成图像出现“灰影”的概率减少,图像质量较好。对于摄像机纵向运动采集的图像,提出了一种确定远视?

梁二振[10](2005)在《图像特征匹配及合成方法研究》文中提出图像的特征是指图像中灰度变化较明显的点、线及区域。特征匹配从多幅参考图像中提取特征,并进一步利用立体匹配的理论与方法建立特征间的对应关系。图像合成方法利用多幅参考图像间的特征对应,生成新视点的图像。图像特征匹配及合成方法是基于图像的计算机图形学方法中的重要内容。 立体匹配是计算机视觉研究的一项重要课题,本文研究了一种基于角点提取的立体匹配算法。首先使用最小同值分割吸收核(SUSAN)方法判断左右图像的边缘点是否为角点。然后根据角点间的特征相似度,建立起左右图像中被保留角点的初始匹配关系,由此计算基础矩阵。用基础矩阵迭代改进初始匹配,去除误配点,得到最终匹配结果并计算出较精确的基础矩阵。在此基础上采用动态规划方法,自动寻找左右图像的对应极线上的象素点之间的对应,从而建立起左右两幅图像间所有象素点的对应关系。 图像变形是一种可在两幅形状及颜色完全不同的参考图像间生成一系列连续的期间过渡图像的技术。本文研究了几种基于特征线段对的图像变形方法:针对同一场景不同视点的两幅参考图像中存在遮挡现象的图像变形问题,采用基于特征线段对分组的图像变形方法,根据图像中前景和背景层特征点的视差变化范围的不同对特征线段对进行分组,然后由不同组的特征线段对分别进行图像变形;利用多分辨率图像变形方法,生成不同细节渐变特点的多个期间图像序列,在采样时,使用参考图像中以采样点为中心的可变矩形区域的颜色值;基于特征线段对的视图变形方法,在图像变形方法的基础上,采用预变换—变形—后变换三步算法,使生成的中间图像保持参考图像中物体的轮廓特征。 本文研究了由同一场景不同视点的多幅图像,建立场景三维几何模型的基于图像的三维重建技术。相机自定标及对应特征点三维重建是三维重建技术中的关键问题,本文对相机自定标及基于简化相机模型的对应点三维重建问题做了探索,并进行数值模拟,获得较好的效果。

二、基于小波空间的视图变形研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于小波空间的视图变形研究(论文提纲范文)

(1)多视点视频中的视图合成(论文提纲范文)

中文摘要
英文摘要
插图清单
列表清单
符号说明
术语
1 绪论
    1.1 立项依据
        1.1.1 研究意义
        1.1.2 国内外研究现状
    1.2 研究内容
2 针孔摄像机模型
    2.1 图形变换
        2.1.1 齐次坐标
        2.1.2 二维图形的几何变换
        2.1.3 三维图形的几何变换
    2.2 针孔摄像机模型
    2.3 极线几何
    2.4 小结
3 立体图像对的极线校正
    3.1 图像重投影
        3.1.1 单应矩阵及其性质
        3.1.2 图像平面的平行
    3.2 极线校正
        3.2.1 使图像平面平行
        3.2.2 对齐极线
        3.2.3 求解Hi
        3.2.4 生成校正后的图像
        3.2.5 算法描述
    3.3 实验
    3.4 小结
4 空洞填充
    4.1 均值滤波器
    4.2 算法描述
    4.3 算法分析
    4.4 实验
    4.5 小结
5 基于图像重投影的视图合成
    5.1 引言
    5.2 视图合成
        5.2.1 三维图像变换
        5.2.2 可见性变化
    5.3 实验
    5.4 小结
6 基于深度图像绘制的视图合成
    6.1 引言
    6.2 非空洞矩阵
    6.3 本文的方法
    6.4 选择滤波器
    6.5 实验
    6.6 小结
7 基于深度图像的3D 视频去隔行
    7.1 引言
    7.2 3D 视频隔行化
    7.3 3D 视频去隔行算法
    7.4 实验
    7.5 算法修改
        7.5.1 基于方向的场内插值
        7.5.2 三维图像变换
    7.6 小结
8 总结与展望
    8.1 总结
    8.2 展望
致谢
参考文献
附录
    A. 作者在攻读博士学位期间发表的相关论文目录
    B. 作者在攻读博士学位期间申请的相关专利目录
    C. 作者在攻读博士学位期间参加的相关标准制定
    D. 作者在攻读博士学位期间参加的相关科研项目

(2)基于图像对的虚拟视点合成方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 虚拟视点合成
        1.1.1 应用背景
        1.1.2 基于图像的虚拟视点合成方法综述
    1.2 本文主要工作
    1.3 章节内容提要
第2章 摄像机模型与射影几何基础
    2.1 针孔摄像机模型
        2.1.1 基本投影几何
        2.1.2 摄像机畸变
    2.2 立体视觉基础:对极几何
        2.2.1 基本矩阵 F
        2.2.2 本质矩阵 E
        2.2.3 单应性矩阵
    2.3 本章小结
第3章 图像立体校正
    3.1 立体校正综述
    3.2 改进的图像校正方法
        3.2.1 将极点映射到无穷远处
        3.2.2 计算另一个变换矩阵
        3.2.3 实验结果分析
    3.3 本章小结
第4章 基于生长算法的视差计算方法
    4.1 种子点的选取
        4.1.1 SIFT 特征提取
        4.1.2 全局约束
    4.2 生长算法
        4.2.1 区域相似度度量
        4.2.2 生长路径
    4.3 实验结果分析
    4.4 本章小结
第5章 基于图像的中间视点合成算法
    5.1 图像变形
        5.1.1 双线性插值原理
        5.1.2 逆向映射
    5.2 视图变形
        5.2.1 平行视图变形
        5.2.2 非平行视图变形
    5.3 基于非标定图像的中间视点合成
        5.3.1 保持单应的摄像机运动
        5.3.2 三步合成算法
        5.3.3 实验结果及分析
    5.4 本章小结
结论与展望
后续工作与展望
参考文献
攻读硕士学位期间取得的研究成果
致谢
答辩委员会对论文的评定意见

(3)基于深度图像的视图合成技术研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 引言
    1.2 视图合成技术研究现状
        1.2.1 基于全视函数的方法
        1.2.2 基于视点插值的方法
        1.2.3 基于深度图像的方法
    1.3 本文的研究内容
2 视图合成基础与相机定标
    2.1 引言
    2.2 基础概念和理论
        2.2.1 图像表示
        2.2.2 齐次坐标
        2.2.3 相机模型
    2.3 相机定标
        2.3.1 传统相机定标方法
        2.3.2 相机自定标方法
        2.3.3 本文改进的相机定标方法
        2.3.4 相机定标实验
3 对极几何与基础矩阵
    3.1 引言
    3.2 对极几何
    3.3 基础矩阵求解方法
        3.3.1 线性算法
        3.3.2 非线性迭代算法
        3.3.3 鲁棒性算法
    3.4 本文使用的矩阵估计算法
4 立体匹配与深度估计
    4.1 引言
    4.2 立体匹配
        4.2.1 匹配基元
        4.2.2 匹配准则与约束条件
    4.3 立体匹配的方法
        4.3.1 基于灰度的立体匹配
        4.3.2 基于特征的立体匹配
    4.4 本文使用的立体匹配算法
        4.4.1 基于角点特征的立体匹配
        4.4.2 基于窗口区域的立体匹配
    4.5 基于立体匹配的图像深度估计
    4.6 实验结果与分析
5 基于深度图像的视图合成
    5.1 引言
    5.2 基于深度图像的视图合成
        5.2.1 基于插值的视图合成
        5.2.2 基于三维变换的视图合成
        5.2.3 基于层次深度图的视图合成
    5.3 基于三维变换的视图合成
        5.3.1 预处理
        5.3.2 三维变换
        5.3.3 空洞填补
    5.4 基于逆向映射的视图合成
        5.4.1 预处理
        5.4.2 基于逆映射的三维变换
        5.4.3 空洞填补
    5.5 实验结果与分析
6 总结与展望
    6.1 工作总结
    6.2 未来展望
参考文献
攻读硕士期间发表的论文及所取得的研究成果
致谢

(4)视频/图像压缩域编辑技术的研究(论文提纲范文)

致谢
中文摘要
ABSTRACT
1 绪论
    1.1 课题的研究背景
    1.2 视频和图像编辑技术的研究现状
        1.2.1 视频和图像编辑的基本框架
        1.2.2 非线性编辑的研究方向
        1.2.3 相关研究
        1.2.4 应用前景、发展趋势和研究机构
    1.3 压缩域处理技术
    1.4 论文的主要工作及研究成果
    1.5 论文的结构安排
2 基于注意机制的压缩域视频序列显着区域提取
    2.1 问题描述
    2.2 相关工作介绍与分析
        2.2.1 相关工作介绍
        2.2.2 总结分析
    2.3 基于注意力机制的压缩域视频序列显着区域提取模型
        2.3.1 特征提取
        2.3.2 I帧的显着区域提取
        2.3.3 P帧的显着区域提取
    2.4 实验结果与分析
        2.4.1 实验数据集和评价指标
        2.4.2 实验结果及分析
    2.5 本章小结
3 基于压缩域的图像变形技术的研究
    3.1 问题描述
    3.2 相关工作介绍与分析
        3.2.1 基于特征对应的图像变形技术
        3.2.2 基于非特征基元的图像变形方法
        3.2.3 总结分析
    3.3 基于压缩域的图像变形技术的研究
        3.3.1 基于特征基元对应的图像变形算法
        3.3.2 基于物理的流体模拟的图像变形算法
    3.4 实验结果和分析
    3.5 本章小结
4 基于压缩域的图像修复技术的研究
    4.1 问题描述
    4.2 相关工作介绍及分析
        4.2.1 基于偏微分方程的修复算法
        4.2.2 基于纹理合成的修复算法
        4.2.3 总结分析
    4.3 基于压缩域的图像修复算法
        4.3.1 DCT系数的加权法
        4.3.2 基于压缩域的修复算法
    4.4 实验结果和分析
        4.4.1 实验数据集
        4.4.2 实验结果和分析
    4.5 本章小结
5 基于压缩域的视频序列中物体补全技术的研究
    5.1 问题描述
    5.2 相关工作介绍与分析
    5.3 基于压缩域的物体补全算法的研究与实现
        5.3.1 像素路径
        5.3.2 运动场匹配
        5.3.3 薄板插值(Thin Plate Spline Interpolation)
        5.3.4 两种补全结果的融合
    5.4 实验结果与分析
        5.4.1 评价方法与指标
        5.4.2 实验数据集
        5.4.3 实验结果
        5.4.4 实验分析
    5.5 本章小结
6 论文工作总结与展望
    6.1 论文工作总结
    6.2 进一步的工作
参考文献
作者简介
学位论文数据集

(5)数学形态学用于虚拟视景仿真技术中图像配准方法的研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 虚拟现实概述
    1.2 虚拟现实的应用与发展现状
    1.3 虚拟现实系统中视觉场景的生成
    1.4 图像配准技术研究现状
    1.5 本文研究的目的和意义
    1.6 本文主要研究内容
第二章 视觉场景仿真技术
    2.1 基于图形的绘制技术
    2.2 多细节层次模型(LOD)生成和绘制技术
    2.3 基于图像的绘制技术
    2.4 虚拟全景空间技术
    2.5 小结
第三章 数学形态学的方法用于图像配准
    3.1 数学形态学(mathematical morphology)概述
    3.2 数学形态学运算
    3.3 数学形态学运算用于图像配准的研究
    3.4 匹配方法
    3.5 实验结果及分析
    3.6 存在的问题及改进
第四章 总结与展望
结束语
致谢
参考文献

(6)基于图像的图像构建绘制和对象辨识(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究内容及意义
        1.1.1 真实感场景绘制
        1.1.2 基于图像的对象辨识
    1.2 基于图像的绘制技术
        1.2.1 基于图像绘制技术的兴起
        1.2.2 基于图像绘制技术的研究状况
        1.2.3 全景图像技术
        1.2.4 视图合成技术
    1.3 基于图像的对象辨识技术
        1.3.1 基于图像的对象形态形貌分析及辨识
        1.3.2 对象分析辨识技术的应用
    1.4 研究工作及内容安排
        1.4.1 主要研究工作
        1.4.2 论文内容安排
2 图像特征及检测
    2.1 图像几何关键点特征和形态形貌统计特征
        2.1.1 几何边缘和角点特征
        2.1.2 分形特征
        2.1.3 相关联灰度分布共生统计特征
    2.2 角点特征检测
        2.2.1 Harris算法
        2.2.2 SUSAN算法
        2.2.3 相位一致算法
        2.2.4 角点检测算法比较
    2.3 形貌特征检测
        2.3.1 分形特征检测
        2.3.2 灰度共生统计特征检测
    2.4 本章小结
3 多视角图像间的联系及匹配
    3.1 多视角几何学基础
        3.1.1 透视投影成像模型
        3.1.2 多视角图像间的联系
    3.2 图像对应匹配
        3.2.1 图像对应匹配综述
        3.2.2 基于边缘几何特征的匹配
    3.3 一种基于局部不变量的点特征匹配方法
        3.3.1 角点特征提取
        3.3.2 特征区域描述
        3.3.3 角点特征匹配
        3.3.4 实验结果
    3.5 本章小结
4 平面全景图像自动拼接
    4.1 引言
    4.2 图像拼接的基本问题
        4.2.1 相机相对运动
        4.2.2 变换模型
        4.2.3 图像拼接的关键技术
    4.3 基于角点特征的自动平面拼接
        4.3.1 特征选择与匹配
        4.3.2 初始变换参数
        4.3.3 变换矩阵的优化求解
        4.3.4 过渡平滑拼接
    4.4 图像拼接实验
        4.4.1 平面拼接策略
        4.4.2 实验结果及分析
    4.5 本章小结
5 光轴平行图像间新视点图像生成
    5.1 引言
    5.2 问题描述与算法思路
    5.3 共同区域的确定
        5.3.1 算法原理
        5.3.2 算法步骤
    5.4 共同区域对应关系的建立
        5.4.1 关键点匹配
        5.4.2 对应极线匹配
        5.4.3 极线各对应段内的点匹配
    5.5 关键点深度计算
    5.6 新视点目标图像生成与绘制
        5.6.1 目标图像关键点绘制
        5.6.2 一般点绘制
        5.6.3 非共同区域处理
    5.7 算法描述
    5.8 实例及分析
    5.9 本章小结
6 基于微观组织形貌的粉丝辨识
    6.1 引言
    6.2 淀粉的微观结构及性质
        6.2.1 淀粉颗粒及显微形貌
        6.2.2 淀粉的糊化与老化性质
    6.3 神经网络分类器
        6.3.1 神经网络概述
        6.3.2 BP网络
    6.4 基于形貌特征的粉丝辨识
        6.4.1 粉丝组织及其形成
        6.4.2 显微图像形貌特征检测
        6.4.3 分类器设计
        6.4.4 实验结果与分析
    6.5 本章小结
7 总结与展望
    7.1 工作总结
    7.2 工作展望
参考文献
攻读博士学位期间发表学术论文情况
论文创新点摘要
致谢

(7)基于图像的视图合成技术研究(论文提纲范文)

目录
图目录
表目录
摘要
Abstract
第一章 绪论
    1.1 概述
        1.1.1 视图合成
        1.1.2 视图合成和图像变形
        1.1.3 研究内容和目的
        1.1.4 应用背景
        1.1.5 基于图像的绘制
        1.1.6 理论基础
    1.2 视图合成的相关工作
        1.2.1 三维建模法
        1.2.2 基于图像的视图合成方法
        1.2.3 基于立体匹配的方法
        1.2.4 一些新的视图合成方法
        1.2.5 视图合成问题研究的发展趋势
    1.3 论文主要创新点和结构安排
第二章 图像校正和几何基础
    2.1 图像校正概述
    2.2 外极几何和基础矩阵
        2.2.1 外极几何
        2.2.2 带有方向的极线
        2.2.3 基本矩阵的计算
    2.3 校正
        2.3.1 计算公共区域
        2.3.2 计算极线的距离,保证图像的精度
    2.4 实验结果
    2.5 几何基础
        2.5.1 摄像机模型
        2.5.2 标准双目立体几何
        2.5.3 视差与深度的关系
    2.6 小结
第三章 任意运动图像对的视图插值
    3.1 角点提取
        3.1.1 角点定义及提取方法
        3.1.2 Harris算法
        3.1.3 SUSAN算法
        3.1.4 融合的角点提取算法
        3.1.5 实验结果及分析
    3.2 角点匹配
        3.2.1 进行相关运算确定匹配点集
        3.2.2 反变换
        3.2.3 三角化和插值
        3.2.4 实验结果
    3.3 小结
第四章 基于立体匹配的图像合成
    4.1 立体匹配和图像合成
        4.1.1 立体匹配和三维重建
        4.1.2 立体匹配的准确度
        4.1.3 真实的视图和正确的视图
        4.1.4 无纹理区域(或者称为亮度不变区域)
        4.1.5 部分遮挡问题
        4.1.6 结论
    4.2 立体匹配的建模
    4.3 自适应分段的立体匹配
        4.3.1 段的定义
        4.3.2 多门限分割
        4.3.3 段落的匹配
        4.3.4 相似度的计算
        4.3.5 段内视差计算
        4.3.6 假设法除错
        4.3.7 立体匹配实验和结果
        4.3.8 插值实验结果
    4.4 基于类树结构和二维 DP算法的立体匹配
        4.4.1 二维 DP算法的可行性
        4.4.2 二维 DP算法计算视差
        4.4.3 代价函数的选取
        4.4.4 实验结果
        4.4.5 树结构和类树结构的比较
    4.5 插值
        4.5.1 遮挡处理
        4.5.2 实验结果
    4.6 小结
第五章 基于学习方法的图像合成
    5.1 图像序列的极几何关系
    5.2 弱定标条件下的图像合成
        5.2.1 图像合成的建模
        5.2.2从深度域到视差域
        5.2.3 纹理先验概率
        5.2.4 图像连续性和纹理的结合
    5.3 算法实现
        5.3.1 计算E_(photo)(v)的最小值
        5.3.2 先验概率
        5.3.3 最优化的问题
    5.4 进一步提高算法的效率
        5.4.1 多尺度和多分辨率
        5.4.2 纹理块的聚类
    5.5 实验结果
    5.6 结论
第六章 基于 TIP的场景重建和漫游
    6.1 TIP技术简介
        6.1.1 预处理
        6.1.2 建模
    6.2 曲面 TIP建模
        6.2.1 绘制
        6.2.2 实验结果
    6.3 基于 TIP的运动序列场景重建
        6.3.1 未知路径序列的建模和漫游
        6.3.2 触发模型切换法
        6.3.3 实验结果
        6.3.4 已知路径的序列建模和漫游
    6.4 TIP在全景图漫游系统中的应用
        6.4.1 柱面全景图内模型的切换
        6.4.2 节点的切换
        6.4.3 实验结果
    6.5 纹理提取
        6.5.1 光线映射法
        6.5.2 透视变换法
        6.5.3 实验结果
    6.6 小结
第七章 总结
    7.1 论文的主要贡献
    7.2 今后的研究方向
致谢
参考文献
攻读博士学位期间发表的论文

(9)图像特征提取、匹配和新视点图像生成技术研究(论文提纲范文)

第一章 绪论
    1.1 研究背景及意义
        1.1.1 计算机图形学
        1.1.2 数字图像处理和计算机视觉
    1.2 基于图像的绘制技术
        1.2.1 基于图像的生成绘制技术的发展历史
        1.2.2 基于图像的生成绘制技术的分类
        1.2.3 几种基于图像的生成绘制技术的比较
    1.3 多视图几何的基本理论
        1.3.1 摄像机模型
        1.3.2 图像之间的几何变换和极线几何约束
        1.3.3 光照变化对成像的影响
    1.4 基于图像对应的视图合成技术回顾
        1.4.1 像素投影转移
        1.4.1.1 基于投影不变量的视图合成方法
        1.4.1.2 基于三线张量的视图合成方法
        1.4.2 视图插值
    1.5 图像特征匹配综述
        1.5.1 图像间基于点特征的匹配
        1.5.2 图像间基于线特征的匹配
    1.6 论文的主要工作及其组织
第二章 图像边缘和角点特征检测
    2.1 引言
        2.1.1 边缘检测
        2.1.2 角点检测
    2.2 利用相位信息进行特征检测
        2.2.1 相位一致性(PC:Phase Congruency)
        2.2.2 局部能量(Local Energy)与相位一致
        2.2.3 基于小波的相位一致性计算
        2.2.4 噪音
    2.3 特征检测
        2.3.1 二维滤波器的设计
        2.3.2 滤波器的方向
        2.3.3 二维中的噪声补偿
        2.3.4 基于各方向相位数据矩计算的特征检测
    2.4 小结
第三章 基于点特征的宽基线图像匹配
    3.1 引言
    3.2 基于仿射不变量的特征区域提取
        3.2.1 特征区域的提取
        3.2.2 特征区域的正则化
    3.3 Gaussian尺度空间原理及性质
        3.3.1 尺度空间定义
        3.3.2 尺度空间的基本定理
        3.3.3 尺度空间与其它图像多分辨率表示的区别
    3.4 基于尺度空间的特征区域提取
        3.4.1 特征点的特征尺度
        3.4.2 特征区域的提取
    3.5 特征区域的匹配
        3.5.1 标准化亮度变化
        3.5.2 特征区域的描述
        3.5.3 利用视点一致性约束剔除错误匹配
        3.5.4 基本矩阵计算
        3.5.4.1 八点算法和对级距离
        3.5.4.2 改进RANSAC算法
    3.6 实验结果及分析
    3.7 本章小结
第四章 基于边缘直线特征的宽基线图像匹配
    4.1 引言
    4.2 基于直线段的特征匹配
        4.2.1 直线的提取
        4.2.2 直线段间的几何结构关系
        4.2.3 匹配的基元
        4.2.4 基元的匹配
        4.2.5 全局几何校核
    4.3 实验结果及分析
    4.4 本章小结
第五章 基于轮廓对应的虚拟视点图像生成
    5.1 引言
    5.2 轮廓对应
        5.2.1 直线对的匹配
        5.2.2 直线段的匹配
    5.3 任意虚拟视点图像的生成
        5.3.1 预变换
        5.3.2 平行变换插值
        5.3.2.1 对应极线的段内间点的匹配
        5.3.2.2 动态规划匹配的原理
        5.3.2.3 动态规划匹配的具体实现
        5.3.3 后置变换
        5.3.4 摄像机纵向运动时远视点无对应区域的处理
        5.3.5 算法描述
    5.4 虚拟视点视图生成实例和实时漫游
    5.5 本章小结
第六章 基于立体序列图像的导管架下水运动参数测量
    6.1 引言
    6.2 立体视觉测量
        6.2.1 立体视觉原理
        6.2.2 摄像机标定
        6.2.2.1 摄像机参数解析解的获得
        6.2.2.2 极大似然估计
        6.2.3 测量特征点的设置与跟踪
    6.3 实验结果及分析
    6.4 本章小结
第七章 总结与展望
    7.1 全文工作总结
    7.2 展望
参考文献
攻读博士学位期间发表的论文
论文创新点摘要
致谢

(10)图像特征匹配及合成方法研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 图像特征匹配及合成的研究背景及意义
    1.2 立体匹配及图像合成方法的研究现状
        1.2.1 立体匹配研究现状
        1.2.2 图像合成研究现状
        1.2.2.1 图像变形技术
        1.2.2.2 视图变形技术
    1.3 本文的主要研究内容
2 针孔相机模型与对极几何基础理论
    2.1 针孔相机模型
        2.1.1 针孔相机模型
        2.1.2 相机内参数
        2.1.3 相机外参数
    2.2 对极几何中的基本理论
        2.2.1 归一化坐标系下的极线方程
        2.2.2 象素坐标系下的极线方程
        2.2.3 对应极线间的同构变换
3 基于角点提取的立体匹配算法
    3.1 角点提取
    3.2 自动匹配算法流程
    3.3 左右图像角点集合之间的自动匹配
        3.3.1 初始匹配
        3.3.2 相似度计算
        3.3.3 基础矩阵估计
    3.4 立体匹配过程中常用的约束
    3.5 左右图像间所有象素点的匹配
        3.5.1 极线对应
        3.5.2 按灰度对极线进行分段
        3.5.3 灰度段之间的匹配
        3.5.4 灰度段上象素点之间的匹配
    3.6 根据左右图像间的匹配结果生成新视点图像实例
    3.7 本章小节
4 基于特征线段对的图像变形
    4.1 基于特征线段对的图像变形方法
    4.2 一种基于特征线段对分组的遮挡图像变形方法
        4.2.1 特征线段对分组
        4.2.2 分组图像变形
    4.3 多分辨率图像变形
    4.4 基于特征线段对的视图变形方法
    4.5 本章小节
5 基于简化相机模型的对应点三维重建方法
    5.1 基于图像的三维重建
    5.2 相机定标
    5.3 基于简化相机模型的对应点三维重建方法
        5.3.1 简化相机模型
        5.3.2 用三角测量的方法实现对应点的三维重建
        5.3.3 实验
    5.4 本章小节
6 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间发表学术论文情况
致谢
大连理工大学学位论文版权使用授权书

四、基于小波空间的视图变形研究(论文参考文献)

  • [1]多视点视频中的视图合成[D]. 许小艳. 重庆大学, 2011(07)
  • [2]基于图像对的虚拟视点合成方法研究[D]. 邱国钦. 华南理工大学, 2011(12)
  • [3]基于深度图像的视图合成技术研究[D]. 张会兵. 中北大学, 2010(05)
  • [4]视频/图像压缩域编辑技术的研究[D]. 蒋轶玮. 北京交通大学, 2010(11)
  • [5]数学形态学用于虚拟视景仿真技术中图像配准方法的研究[D]. 李筱魁. 长春理工大学, 2008(02)
  • [6]基于图像的图像构建绘制和对象辨识[D]. 郭明恩. 大连理工大学, 2007(02)
  • [7]基于图像的视图合成技术研究[D]. 吴琼玉. 国防科学技术大学, 2006(06)
  • [8]基于小波空间中IBMR技术的矿井通风系统可视化研究[J]. 华臻,张鑫,王振. 煤矿机械, 2006(08)
  • [9]图像特征提取、匹配和新视点图像生成技术研究[D]. 胡志萍. 大连理工大学, 2005(04)
  • [10]图像特征匹配及合成方法研究[D]. 梁二振. 大连理工大学, 2005(03)

标签:;  ;  ;  ;  ;  

基于小波空间的视图变形研究
下载Doc文档

猜你喜欢