行驶车辆图像检测技术研究

行驶车辆图像检测技术研究

一、行驶车辆图像检测技术研究(论文文献综述)

曾聪[1](2021)在《基于视频图像处理的交通流信息提取方法研究》文中提出近年来,道路交通发展愈发快速,现代城市的交通情况复杂多变,仍存在许多问题需要改善。交通流信息作为道路交通状况的一项重要依据,其测算工作不容轻视。目前有着多种采集交通流信息的方式,其中采用图像检测的方法不仅可以减少其它方式的信息疏漏,同时还能够更方便地传输给交通部门,使得交通部门能够实时地掌握交通流状况。针对交通流信息智能化提取方法研究,以实现城市交通流信息的采集高效性和信息管理的信息化、智能化,提高交通管理与服务质量。伴随着视频图像处理技术的发展,图像采集具有成本优廉、操作便捷的优势,将视频图像处理技术引入交通流信息的采集检测有着良好的实用价值与发展前景。论文主要创新性和实验结果如下:首先创新性地采用了基于属性加权的朴素贝叶斯的最大类间方差法获取最佳阈值以此优化背景差分法,以及根据目标的形态大小、分布规律等特征分别应用已改进的背景差分法与对称帧间分差法进行车辆目标的提取工作,再根据图像的形态等特征进行差分图像膨胀、中值滤波消除小噪声后,得到最终目标提取结果。针对两类方法的提取结果对比分析,目前的实验表明,这两类方法均需要在精确度与实时性上得到进一步提高。其次,使用最新研究和总结出的YOLOv5网络检算法,并将其应用于目标检测领域,使其与两类不同的传统目标检测算法相结合进行检测工作,使用此类创新式结合检测方法,并且将得到的检测结果与两类传统方法的提取结果进行定性评价和利用评价指标进行对比分析。经实验定性指标类比,可以得知论文选用的YOLOv5网络结构分别与改进的背景差分法和对称帧间差分法两类算法相结合的新型算法检测的结果,具有更加优秀的准确性与实用性。基于以上研究,论文选用Python环境与Open CV,将视频图像转化为实时性交通流信息,为城市道路的管理协调提供数据支撑,所获得的道路信息实时性更强。提高了道路交通流信息管理的自动化与科学性,为今后交通管理部门实际建设和应用道路交通流信息的测算提供数据参考和工程实用价值。

李贵远[2](2021)在《基于深度学习的智能车辆可行驶区域检测方法研究》文中研究指明车辆智能化已经成为现代汽车行业发展的必然趋势,而环境感知技术是实现车辆智能化的基础和关键,其中道路可行驶区域检测是环境感知研究的重点内容,是决定智能车辆自动化水平的核心技术之一。随着深度学习的兴起,深度卷积神经网络在目标识别方面相关研究取得的显着成果直接影响并促进了智能汽车环境感知技术的发展,但由于网络的性能受其空间和时间复杂度的制约,这种矛盾导致现有的深度网络应用于智能车辆时难以同时满足环境感知系统对精度和速度的要求。因此,在当前深度卷积网络的理论研究深度及车载传感器技术的发展水平下,基于深度学习实现具有鲁棒性、准确性、快速性的道路可行区域检测算法仍是一项极具挑战的任务。在上述背景下,本论文依托辽宁省教育厅重大科技平台项目《基于车用雷达与视觉传感器信息融合的环境感知技术研究》(JP2016018),重点围绕“人—车—路”环境系统,基于深度学习方法对可行驶区域检测中的关键技术:路面检测、行人目标检测以及多目标联合检测展开研究,论文具体研究工作包括:(1)路面检测是可行驶区域检测的核心内容,快速准确的路面检测结果是智能车辆进行轨迹规划的基础和保障汽车安全行驶的关键。针对现有基于深度学习的路面分割方法由于采用多层级递推的金字塔结构和注意力机制导致网络复杂度高、计算效率低的问题,提出一种空域注意力迁移机制的路面分割方法。该方法根据卷积神经网络层间特征的分布规律,将Non-local空间注意力机制与通道注意力机制相结合,采用先合后分的策略实现将底层特征中蕴含的空间远程依赖关系赋予顶层特征,有效地提高了特征的感受野并降低了计算量。同时设计了一种1×1卷积核随机失活方法,实现有效利用注意力机制的前提下避免网络过拟合。在Cityscapes数据集上的测试结果表明,本文所提出的方法相对于现有同类方法在保持较高路面检测精度的同时显着提高了检测速度,并在跨数据集测试中表现出较好的泛化能力。(2)行人检测是可行驶区域检测的重要内容,实时精准的行人检测结果是智能车辆进行行为决策的依据和避免造成人员伤害的前提。针对现有基于深度学习的行人检测方法采用的级联多特征融合结构无法充分发挥各自优势导致对目标遮挡及表观状态变化的鲁棒性差的问题,提出一种级联自适应提升算法联合深度卷积网络的行人检测方法。该方法设计了一种级联AdaBoost分类器作为区域候选方法与CNN结合构成两阶段目标检测网络。采用快速聚合通道特征金字塔以高效获取多尺度特征,利用级联AdaBoost逐级递进式筛选正样本的特点设计一种负样本回捡策略,对难检样本按一定比例随机选出并送入到CNN中检测,实现了级联AdaBoost与CNN之间效率与精度的优势互补。在Caltech数据集上的测试结果表明,本文方法与同类方法相比漏检率显着降低的同时保持较高的检测速度。在实际采集的校园行车视频上进行的跨数据集测试中对行人的变化具有较好的鲁棒性。(3)在上述研究的基础上,针对当前视频处理的多任务方法逐帧特征提取存在大量冗余计算所导致实时性难以获得进一步提升的问题,提出一种空间相关特征传播的多任务检测算法。利用视频中帧间图像的相似性,设计一种空间相关引导的特征传播方法,通过Sobel算子得到表征空间变化的偏移量,利用该偏移量对关键帧的高层特征进行可微分的双线插值得到非关键帧的高层特征,有效地提高了特征提取的总体计算效率。以该特征传播方法为基础构建了路面分割与车辆、行人检测多任务网络框架,利用高层特征一致性约束设计辅助训练网络增强特征传播网络的参数训练,提升了特征传播网络对特征变化的建模能力。在具有代表性的KITTI和Cam Vid数据集的测试显示,本文所提出的方法在路面分割及行人、车辆检测上分别取得了与当前最新水准算法相当的精度但速度取得了明显的提升,在实际采集的城市道路视频上进行的跨数据集测试中对路面阴影、行人的变化具有较好的鲁棒性。

唐甜[3](2021)在《基于毫米波雷达与视觉信息融合的前方车辆检测》文中认为随着我国经济飞速发展,汽车作为一种便利性极高的交通工具正在逐渐走入千家万户中,随之而来的是日益增多的交通事故,为了提高行车的安全性,汽车高级辅助驾驶(Advanced Driving Assistance System,ADAS)系统应运而生,其核心是利用各种车载传感器感知行车环境,从而为驾驶者和汽车系统进行相应的决策和控制提供基础,其中,车辆检测技术是环境感知中的重要技术之一。毫米波雷达和摄像头是ADAS系统常见的用于感知环境的两种传感器,毫米波雷达良好的环境适应性,穿透能力强,能够准确地探测到目标的速度、方位、距离等信息。但是其受限于工作原理,探测噪声大,杂波干扰数据过多,并且无法获取目标的几何与类别信息。视觉传感器的成本低,能获取的数据信息量丰富,被广泛用于目标的识别分类,但是易受光照、天气等环境因素影响。因此,如果能对毫米波雷达信息与视觉信息进行融合,就可以将两者的优势结合,达到提高车辆检测的准确性、实时性的目的。本文主要研究内容如下:1)雷达数据预处理,实现有效目标的确定。基于毫米波雷达探测到的目标信息特征分析,对干扰目标进行分类,然后采取相应的方法滤除这些干扰目标。2)基于图像特征的车辆检测。采用一种基于车底阴影特征和车辆对称性特征结合的方法进行车辆检测。首先,对图像进行灰度化和图像分割预处理,然后对图像进行形态学操作确定图像感兴趣区域(ROI,Region of Interest),最后采用车辆对称性特征的方式进行车辆存在性验证。3)基于机器视觉的车辆检测。针对基于图像特征车辆检测的不足,选取一种基于Adaboost算法+Haar-like特征的方式训练得到Haar分类器用于车辆检测,采用Opencv+VS2019进行实现。4)进行毫米波雷达与视觉信息的融合。通过空间坐标系转换和传感器时间同步将雷达信息投影到图像中生成图像感兴趣区域,并采用基于图像特征与机器视觉结合方式同步进行车辆检测,然后将二者生成的图像ROI进行信息关联,从而实现基于毫米波雷达与视觉信息的融合的车辆检测。经实验验证,在光线条件良好、视野清晰的条件下,本文提出的方法能有效检测出前方车辆,并具备较高的实时性和准确性,为ADAS系统实现车辆道路交通环境感知提供关键信息。

陈卫卫[4](2021)在《基于机器视觉的车道偏离预警系统关键技术研究》文中提出车道偏离预警系统(LDWS)是智能交通系统(ITS)中车辆安全辅助驾驶子系统(SDAS)的一个重要组成部分。LDWS通过各种传感器获得行驶道路的相关信息,并参考车辆运行状态,预警阈值、距离等数据分析车辆有没有偏离当前车道的趋势。如果有发生偏离的趋势,则LDWS会通过图像、声音或震动等方式向驾驶员发出预警信息。LDWS的不断深入研究和广泛应用将大大提升驾驶员的行车安全,降低交通事故的发生概率。目前,LDWS已经成为了国内外相关研究人员聚焦的一个热点问题。本文主要研究内容是基于单目机器视觉的LDWS关键技术及相关算法研究。LDWS一般分为道路图像中车道线的识别检测、车道线建模、车道偏离决策预警等几个功能模块。目前恶劣天气环境下的车道线检测技术依然是一个难题。本文针对LDWS中的这些关键功能模块,主要研究的内容包括以下几个方面。(1)提出了一种自适应阈值的单行滑动窗口车道线检测算法。针对树阴遮挡、轻度雾霾、夜间光线差等不同情况,依据车道线图像中单行像素具有的“双峰”结构特征,设计了以滑动窗口进行图像行像素扫描,动态调整检测阈值,达到快速检测车道线的一种算法。经实验分析,该算法有着较强的准确性和鲁棒性。针对长度小于6和长度大于“滑动窗口”2倍的连续噪声都有着显着的抑制效果。(2)提出了一种基于分数阶微分和Frangi的夜间车道线检测算法。针对夜间光线较弱、图像噪声较大、单幅帧图像中车道线信息少的特点,通过合并连续3-4幅图像,使车道线信息相对比较丰富。再对合并后的图像进行降噪增强处理,然后进行车道线检测。经实验分析,该算法能够快速有效地检测出夜间道路图像中的车道线,准确率76%。(3)提出了一种基于山脊直线检测的车道线检测算法,针对大雨和雾(霾)的天气情况下,道路图像中含有大量雨滴、雾(霾)、水汽、路面积水等噪声导致对比度明显下降,设计了一种在图像去噪增强的基础上、再使用山脊直线检测、骨架提取、间隙缝合等过程的车道线检测算法。经过实验分析,该算法能够快速有效地检测出大雨和雾(霾)天气下的车道线,准确率71%。(4)结合我国公路设计标准《公路工程技术标准》(JTG B01-2014)和《车道偏离报警系统性能要求与检测方法》(GB/T26773-2011)重点分析了直线模型的实际意义。使用了一种基于Kalman滤波的车道线追踪算法,对车道标识线进行滤波追踪,有效地提升了车道线的检测效率。(5)提出了一种改进TLC并与CCP相结合的车道偏离决策算法。文中分析了各种车道偏离决策模型的优缺点,研究了有效检测区域下方车辆中心和左右车道线距离变化的速度、速率和趋势,结合驾驶员的驾驶特性,提出了一种改进TLC和CCP相结合的偏离决策算法。通过实验分析,文中算法误警率低于5%,漏警率低于4%。

许倩[5](2020)在《基于深度跟驰网络的驾驶行为特性分析》文中指出跟驰和换道行为是影响车辆运行安全性的重要因素,也是目前驾驶行为和车辆主动安全领域的研究热点。跟驰行为的研究提出了刺激-反应、安全距离等数学模型来揭示单行道上跟驰车辆之间的驾驶行为,在实际应用中,由于驾驶环境复杂,跟驰模型在少数刺激源下并不能真实揭露驾驶员的实际驾驶特性,因此,不能得到广泛推广。本文以车辆间的纵向跟驰行为研究现状与背景为基础,设计一种自学习深度跟驰网络,探索交通流中跟驰车及前导车的驾驶规律,最终以前导车速度、后导车速度、相对距离三个参数的变化趋势反应驾驶员的驾驶行为特性。主要研究内容如下:(1)深度跟驰网络下的前导车检测。借鉴CNN卷积网络及YOLO系列图像检测原理,设计深度跟驰网络目标检测算法,为保证数据在正反向传播时数据分布的一致性,在网络中引入批量归一化算法与卷积层构成基本组件,防止网络在训练过程中的过拟合问题;大量使用层与层之间的跳层链接,使网络检测深度增强,提高了对前导车检测的准确性;采用ROC曲线对YOLO以及深度跟驰网络进行分类效果评价,测试结果显示,深度跟驰网络在不同光线环境下检测性能均优于YOLO网络。(2)改进RNN网络下的驾驶行为分析。基于传统RNN对于序列化数据预测机理,设计能够预测驾驶行为表征参数序列化数据的分析网络,网络将输出层信息返回到隐藏层,并进行双向融合处理,使测试结果取决于输入及输出两个方向的信息特征,提高了序列化数据特征预测的准确性;对双向改进RNN进行最佳参数选取实验以及预测效果对比实验,实验结果表明,双向改进RNN对于驾驶行为的预测准确度优于传统RNN网络。(3)深度跟驰网络下的驾驶行为预测。将深度跟驰网络目标检测算法、双向改进RNN序列化数据预测算法、测速测距算法在Keras下进行融合构建深度跟驰网络驾驶行为分析算法,实现行车记录仪下的图像信息预测;搭建实验环境,对深度跟驰网络进行前导车不同行驶状态激励下的驾驶行为预测效果进行评估,实验结果表明,深度跟驰网络能够实现对驾驶员驾驶行为的预测。

贾岚翔[6](2020)在《计算机视觉在违章识别系统的研究与应用》文中进行了进一步梳理随着国力的增强以及人民的富裕,私家车的数量以及私家车出行正在逐渐取代公共交通工具出行方式,交通违章问题是现代交通的核心关注点,也是保证人民财产以及人身安全的的关键。在现实中,交通执法者往往会面临天气等不可抗因素无法执行道路面对面的监督违法,需要快速及时的对车辆违章行为事件做出反应,就需要违章识别系统来辅助交通执法者对交通违章行为识别以及记录,目前市面上的一些违章拍照系统过于单一且违章拍摄的准确度有待提高,在处理干扰事件时会被一些外因影响较大,因此在违章识别问题上利用计算机视觉更加具有现实意义。首先本文针对国内外的计算机视觉方向研究动态进行阐述,以目前的计算机现有运算能力以及网络传输能力应对计算机视觉以及机器学习的问题已经可以完成,进一步对图像预处理的算法进行研究,其中包括图像的基本表示法,形态学操作以及边缘检测和直线检测等,其中最主要的是形态学操作以及边缘检测和直线检测,对后续的违章行为识别有着关键作用。然后分析日常生活中常见的违章行为比如违章停车,违章变道,违章逆行和安全带的佩戴等依次分析和选择设计监测方案,对于车辆识别算法做了多种比对,最后选取了识别效果及速度上最折中的YOLO算法对车辆进行识别,然后对识别违章的算法进行设计,但是仅仅可是识别车辆违章行为还是不够的,还需对违章的车辆进行记录,其中涉及到了车辆牌照的识别,其中又涉及到了车牌的定位,车牌字符的分割以及单个字符的识别。改进了占空比方式违章停车检测方法,并运用在违章识别系统中。使用车辆识别方法加占空比方式识别,更加精确直观的识别违章停车的车辆,从而提高了违章检测的有效性。最后收集大量车辆数据集并对数据集进行标注处理,然后练训识别权重,最后对于识别算法进行比对,验证了识别方案的有效性,同时根据实际情况开发出违章识别系统,将研究算法在系统中进行了有效的应用。

刘庆淼[7](2020)在《基于图像识别的物流车辆行驶中车距预警系统研究》文中研究表明近年来随着快递、快运、大车队、车货匹配平台的快速兴起,我国的物流业进入了高速发展期,此外,我国关于安全生产的“十三五”规划也对物流运输特别是重型车辆运输提出了更高的要求。当下引发物流在途运输事故的原因大致可以分为三类:物流车辆因素,司机个人因素与企业管理因素。目前物流车辆在运输途中事故频发,同时也为了提高物流车辆驾驶员的安全绩效,保证运输途中的行车安全,实时检测两车之间的距离变得十分重要。随着国家对物流的政策倾斜和扶持,智能化物流不断推进,以及目前机器学习与图像识别技术的发展,本文在已有的车辆距离检测方法基础上,根据在途物流运输车辆对前车车距实时性与准确性的要求,对车牌定位以及车距测量进行了研究。车牌定位是为后期的车距测量打基础,目前的研究难点在于运动中车辆的车牌精准定位,以及后期实时车距的精确测量。针对以上难点,本文提出一种基于图像识别、Caffe-SSD目标检测网络和三角相似算法混合设计的车距预警系统。该系统依据基于单目视觉公路交通安全车距检测的需要,选择以车牌为检测对象,研究一种利用车牌四角特征匹配的方法,以获得车牌的像素点坐标,进而利用视差原理,通过车牌像素宽度与车牌实际宽度来检测车辆间距离。本文首先分析了当前大型物流车辆的车距测量与预警现状,同时对车牌定位、车距测量、目标检测和卷积神经网络等相关技术进行了解研究。分析了当前物流车辆在车距预警方面的不足之处,提出利用基于图像识别的智能技术来解决车距预警问题。在完成预警系统总体设计的基础上,通过采集大量车牌数据,包括蓝底白字、黄底黑字、绿底白字等各类车牌,以及车牌遮挡、污损、阴影等特殊情况,考虑到天气环境的影响,需要在各类天气下采集车牌图像。训练得到车距预警模型后,在测试中对模型进行改进和优化,通过模型的定位速度与测距精度来判断是否满足要求。该行驶中物流车辆的车距预警算法,定位时间仅为100ms,定位速度快,大大提升了预警系统的实时性。经实验表明,该系统达到了25帧每秒的测量速度,且测量精度高,摄像头焦距为36mm时,在0到30米的范围内,测距精度达到90%以上,满足物流车辆在行驶过程中对安全车距测量的需要,对行驶中物流车辆的车距检测应用有较好的实用价值。

唐悦[8](2020)在《基于视频监控的危险特征检测技术研究》文中进行了进一步梳理国家的经济条件直接影响着人们的出行方式,机动车几乎已经进入到了千家万户,在给我们的出行提供了方便之时,同时也给交通管理部门带来了繁重的工作量。为了减少交通事故的发生,在智能交通领域,如何实现视频监控中车辆危险特征的准确检测成为了一个热点问题。由于传统的人力监测会浪费大量的时间和精力,所以推动城市道路上的危险特征检测系统作为智能交通系统的研究是有重大意义的。针对传统Vi Be算法检测目标不完整等问题,提出了一种基于灰度投影运动估计的Vi Be算法改进,可得到更完整和清晰的前景目标。针对小目标检测难度大的场景,用深度学习技术设计了一种改进的GDT-YOLOv3高精度的目标检测算法。为了能更准确的判断车辆危险行为的发生,分析了车辆跟踪后得到的轨迹数据,同时提出了车辆逆行、变道和调头的判断准则。本文的主要工作与创新性研究成果如下:1)为了降低背景信息对目标检测的干扰,并提高检测精度,本文提出了一种基于灰度投影运动估计的Vi Be算法改进,此算法可分离全景视频图像的前景背景信息,有助于后续的目标检测与分类。实验结果表明,在消除鬼影及抗动态背景模型干扰等方面,本文改进的算法有很好的优势。2)为了解决视频图像中检测目标的准确率低、速度慢等问题。本文提出了一种改进的GDT-YOLOv3目标检测算法。首先用GIOU取代了IOU,可解决原IOU无法直接优化非重叠部分的问题。其次,在借鉴了密集连接网络的思想之后,将YOLOv3中的三个残差块更换为三个密集块可实现特征的复用与融合,同时引入了Max Pooling加强密集连接块之间的特征传递。在检测精度上,改进的GDT-YOLOv3比SSD512、YOLOv2与YOLOv3表现的更好。3)本文对具有危险特征行为的车辆进行检测时,首先利用了Kalman滤波算法跟踪车辆,可确定车辆的位置信息和运动轨迹,将得到的轨迹信息结合三种危险行为的判断法则,可准确的检测到车辆的危险特征行为。通过实验仿真结果图以及数据可证明,本文的判断方法可以应用于实际道路环境中危险事件的检测。

朱新龙[9](2020)在《基于分布式计算的视频测速算法研究》文中进行了进一步梳理近年来,随着图像处理技术的发展,基于图像处理的车速检测技术成了交通测速研究的热点。为简化现有道路车辆测速系统,降低测速系统成本,论文提出了一种使用图像处理及分布式计算技术的视频测速算法。论文对基于图像处理的视频测速系统总体架构和相关的车辆检测及跟踪算法以及分布式的车速计算方法进行了研究,论文的工作主要内容有以下几点:(1)视频测速系统的整体架构。论文对视频测速系统进行了相关的研究,分析了系统中可能存在的难点,并就相关的难点提出了解决方案,设计了本文视频测速系统的软件结构和硬件结构。(2)车辆检测与跟踪算法。论文对车辆检测及跟踪的相关技术进行了研究,提出了一种基于背景建模的自适应选择更新车辆检测方法,进一步提出了一种结合卡尔曼滤波器与匈牙利算法的车辆跟踪方法。(3)分布式的车速计算。论文使用了虚拟撞线法来对车速进行计算,为减小遍历车辆跟踪队列造成的车速计算误差,使用了分布式计算中的并行计算方法来并行地计算车辆跟踪队列中的车辆速度,进一步提出了分布式的车速计算方法。论文设计了一种具有实用性的视频测速系统,使用动画模拟及小车模拟实验测试算法并在城市的实际道路中使用速度已知的车辆进行了测速系统的实验。实验结果显示本文提出的视频测速方法能够有效检测出视频中的车辆,配合车辆跟踪算法可以将车速测量误差控制在小于3.2%的范围内,符合相关测速标准,具备一定的实用性。

金伟[10](2020)在《城市复杂交通场景下的跨摄像机多车辆目标跟踪研究》文中研究表明面对由交通摄像机组成的超大规模城市传感器网络,实现对车流信息的高效、联动处理是智能交通系统(Intelligent Transport System,ITS)建设的迫切需求,极大地推动了多目标多摄像机(Multi-Target Multi-Camera,MTMC)跟踪技术的发展。本文针对城市多路口的复杂交通环境,建立了基于时间与空间信息的摄像机链路模型,重建车辆的行驶路径,提出了从端到端,即由原始视频输入到语义视频输出的跨摄像机车辆连续跟踪的框架。通过车辆检测、跟踪和重识别等关键技术,实现了在多摄像机中对多车辆的连续跟踪。论文具体的工作和创新点如下:1.基于目标检测框中心点估计的车辆检测模型构建方法研究。为了提高车辆检测的性能,我们使用随机尺度和随机翻转对COCO训练数据集进行了数据增强,并在基于DLA-34和Hourglass-104网络结构的特征提取网络上进行了试验,比较其用于车辆目标检测的准确率和运行效率。针对小目标检测不稳定的情况,在训练车辆目标检测模型的基础上,将尺度约束用于过滤较小分辨率的检测。设计的车辆目标检测模型有效地减少了不稳定的检测结果,降低了车辆检测的误检率。2.基于运动状态估计和深度特征关联的单摄像机多车辆跟踪模型构建方法研究。为了降低车辆运动状态的不确定性的影响,对这两种度量方法的融合方式进行改进,将车辆图像的深度特征作为主要的匹配方式。同时,针对场景中易出现遮挡和轨迹丢失的情况,设计算法对车辆的被遮挡状态和轨迹从视野中消失的情况进行识别。另外,对车辆目标的跟踪状态进行建模,实施随目标跟踪状态转移的不同跟踪策略。设计的算法对被遮挡和漏检等情况下的车辆跟踪,均有较强的适应性,还通过“慢开始”等策略减少了同一目标跟踪的标识ID频繁切换的问题。3.基于时空约束的多摄像机多车辆目标跟踪方法研究。针对复杂交通场景下车流量多、车型相似等情况导致的多摄像机车辆轨迹关联困难的问题,提出了基于摄像机的地理方位信息和道路网络的联结关系,建立时空约束的跨摄像机车辆匹配链路模型,以缩小车辆图像跨摄像机匹配的搜索范围。研究尝试了不同的方法在City Flow训练数据集上重新训练基于深度特征提取和排序的车辆重识别网络,并基于车辆跟踪的结果,提取关键帧序列在City Flow多路口场景测试。设计的模型在极大缩短跨摄像机车辆匹配时间的同时,还提高了车辆链路匹配的精度。实验结果表明,本研究提出的方法可在城市复杂交通场景下实现对跨摄像机行驶的多车辆目标进行连续跟踪,以及还原车辆在多个摄像机视野中的连续行驶轨迹,具有较高的跨摄像机车辆跟踪精度和运行效率。

二、行驶车辆图像检测技术研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、行驶车辆图像检测技术研究(论文提纲范文)

(1)基于视频图像处理的交通流信息提取方法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景
    1.2 研究意义与目的
    1.3 国内外研究现状
        1.3.1 图像处理技术
        1.3.2 深度学习目标检测技术
    1.4 论文的主要研究内容与技术路线
        1.4.1 论文的主要研究内容
        1.4.2 论文的技术路线
第二章 交通流信息
    2.1 交通流
    2.2 交通流相关参数
        2.2.1 基本参数
        2.2.2 交通流参数的测量方法
    2.3 交通流特征
第三章 无人机视频图像采集和处理
    3.1 无人机视频图像采集和分析
    3.2 图像预处理
        3.2.1 灰度变换增强
        3.2.2 空域滤波去噪
        3.2.3 频域图像去噪
        3.2.4 边缘检测的图像分割
    3.3 图像形态学处理
        3.3.1 数学形态学
        3.3.2 基于形态学的图像提取
第四章 视频图像中车辆目标检测算法
    4.1 车辆目标检测概述
    4.2 改进的背景差分检测算法
        4.2.1 基于贝叶斯改进OTSU算法获取最佳阈值
        4.2.2 基于贝叶斯OTSU改进的背景差分算法
    4.3 对称帧间差分的目标检测算法
        4.3.1 对称帧间差分算法
        4.3.2 图像区域重叠处理
    4.4 两种目标检测实验结果分析
        4.4.1 定性对比
        4.4.2 评价指标对比
第五章 基于深度学习的运动目标检测算法
    5.1 深度学习检测算法概述
        5.1.1 深度学习检测主要算法
        5.1.2 YOLO多版本算法原理
    5.2 YOLOv5 算法
        5.2.1 YOLOv5 网络使用模型
        5.2.2 YOLOv5 网络结构
        5.2.3 YOLOv5 网络实验及结果
    5.3 基于YOLOv5 算法的目标检测过程
        5.3.1 YOLOv5 和背景差分法结合的目标检测算法
        5.3.2 YOLOv5 和对称帧间差分法结合的目标检测算法
    5.4 基于YOLOv5 算法的目标检测结果分析
        5.4.1 定性对比
        5.4.2 实验结果分析
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
个人简历 在读期间发表的学术论文
致谢

(2)基于深度学习的智能车辆可行驶区域检测方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景及意义
    1.2 可行驶区域检测技术研究现状
        1.2.1 智能车辆车载传感器应用现状
        1.2.2 基于经验模型的可行驶区域检测方法研究现状
        1.2.3 基于机器学习的可行驶区域检测方法研究现状
    1.3 研究现状总结
    1.4 论文研究的主要内容及方法
第2章 图像检测与分割基础理论
    2.1 特征向量
        2.1.1 表征不变性
        2.1.2 典型的特征
    2.2 卷积神经网络
        2.2.1 CNN基本原理
        2.2.2 模型可解释性
        2.2.3 模型基本框架
    2.3 模型性能评估
    2.4 本章小结
第3章 基于空域迁移注意力机制的路面分割算法
    3.1 引言
    3.2 注意力机制相关研究
    3.3 注意力迁移机制及路面分割算法
        3.3.1 骨干网络及金字塔结构
        3.3.2 空域迁移注意力
        3.3.3 卷积核随机失活
    3.4 结果与讨论
        3.4.1 实验设置
        3.4.2 模型训练
        3.4.3 结果分析
    3.5 本章小结
第4章 基于级联AdaBoost-CNN的行人检测算法
    4.1 引言
    4.2 多特征联合行人检测相关研究
    4.3 级联AdaBoost-CNN行人检测算法
        4.3.1 网络框架
        4.3.2 聚合通道快速特征金字塔
        4.3.3 骨干网络
    4.4 结果与讨论
        4.4.1 实验设置
        4.4.2 模型训练
        4.4.3 结果分析
    4.5 本章小结
第5章 基于空间相关特征传播的多任务联合检测算法
    5.1 引言
    5.2 视频检测加速的相关研究
    5.3 空间相关特征传播及多任务网络
        5.3.1 网络整体框架
        5.3.2 目标检测与语义分割联合网络
        5.3.3 相关性与帧选模块
        5.3.4 特征传播模块
    5.4 结果与讨论
        5.4.1 实验设置
        5.4.2 模型训练
        5.4.3 结果分析
    5.5 本章小结
第6章 总结与展望
    6.1 全文总结
    6.2 论文创新点
    6.3 研究展望
参考文献
作者简介及在学期间所取得的主要科研成果
致谢

(3)基于毫米波雷达与视觉信息融合的前方车辆检测(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究的背景及意义
    1.2 国内外研究现状
        1.2.1 基于毫米波雷达的车辆检测技术
        1.2.2 基于机器视觉的车辆检测技术
        1.2.3 基于多传感器信息融合的车辆检测技术
    1.3 论文主要研究工作及章节安排
第二章 毫米波雷达数据预处理
    2.1 毫米波雷达
        2.1.1 脉冲式毫米波雷达
        2.1.2 调频连续波式毫米波雷达
    2.2 车载毫米波雷达
    2.3 毫米波雷达有效目标确定
        2.3.1 空目标
        2.3.2 虚假目标
        2.3.3 静止目标
        2.3.4 非危险碰撞目标
    2.4 实验验证
        2.4.1 毫米波雷达数据传输与保存
        2.4.2 实验结果分析
    2.5 本章小结
第三章 基于图像特征的车辆检测
    3.1 基于图像特征的车辆检测方法
        3.1.1 基于模型匹配的车辆检测
        3.1.2 基于车辆特征的检测方法
    3.2 图像预处理
        3.2.1 图像灰度化
        3.2.2 图像分割
    3.3 假设生成
        3.3.1 图像形态学操作
        3.3.2 图像感兴趣区域确定
    3.4 假设验证
        3.4.1 基于canny算子的边缘检测
        3.4.2 车辆对称性验证
    3.5 算法验证与分析
    3.6 本章小结
第四章 基于机器学习算法的车辆检测
    4.1 Adaboost算法
        4.1.1 Adaboost算法原理
    4.2 基于Haar特征的分类器
        4.2.1 Haar-like矩形特征
        4.2.2 积分图方法
    4.3 基于Adaboost+Haar-like特征的车辆检测
        4.3.1 样本选取与处理
        4.3.2 基于Opencv的算法实现
        4.3.3 算法验证与分析
    4.4 本章小结
第5 章 毫米波雷达与视觉信息融合算法
    5.1 空间数据融合
        5.1.1 坐标系转换
        5.1.2 相机标定
    5.2 时间数据融合
    5.3 基于毫米波雷达与视觉信息的融合算法
        5.3.1 雷达投影ROI区域确定
        5.3.2 雷达与视觉信息融合的关联算法
        5.3.3 算法验证与分析
    5.4 本章小结
第六章 总结与展望
    6.1 全文总结
    6.2 不足与展望
致谢
参考文献
攻读硕士学位期间取得成果

(4)基于机器视觉的车道偏离预警系统关键技术研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 车道偏离预警系统研究的目的意义
    1.2 LDWS的研究现状
        1.2.1 LDWS的分类
        1.2.2 基于道路基础构造的车道偏离预警系统
        1.2.3 基于车辆的车道偏离预警系统
        1.2.4 国内车道偏离预警系统研究现状
    1.3 车道线检测技术研究现状
        1.3.1 基于传统图像处理的车道线检测技术
        1.3.2 基于语义分割网络的车道线检测技术
    1.4 车道线跟踪技术研究现状
        1.4.1 基于感兴趣区域的车道线跟踪方法
        1.4.2 基于模型参数的车道线跟踪方法
    1.5 车道偏离决策技术研究现状
        1.5.1 基于CCP(Car’s Current Position)的预警模型
        1.5.2 基于FOD(Future Offset Distance)的预警模型
        1.5.3 基于TLC(Time to Lane Crossing)的预警模型
        1.5.4 基于KBIRS(Knowledge-Based Interpretation of Road Scenes)的预警模型
        1.5.5 基于瞬时侧向位移的预警模型
        1.5.6 基于横向速度的预警模型
        1.5.7 基于预测轨迹偏离的预警模型
        1.5.8 基于EDF(Edge Distribution Function)的预警模型
        1.5.9 基于预瞄轨迹偏离TTD(Time to Trajectory Divergence)的预警模型
    1.6 车道偏离预警系统相关技术存在的问题
    1.7 研究内容与章节安排
第二章 基于自适应阈值单行滑动窗口的车道线检测技术研究
    2.1 道路视频(图像)采集
    2.2 道路图像车道线有效检测区域设置
    2.3 道路图像局部特征研究
        2.3.1 图像分割研究
        2.3.2 道路图像局部特征研究
    2.4 自适应阈值的单行滑动窗口车道线检测技术
        2.4.1 自适应阈值的单行滑动窗口车道线检测算法中相关概念定义
        2.4.2 自适应阈值的单行滑动窗口车道线检测算法设计
        2.4.3 自适应阈值动态调整原则
    2.5 实验结果与分析
    2.6 本章小结
第三章 基于分数阶微分和Frangi的夜间车道线检测技术研究
    3.1 夜间车道线图像特征分析
    3.2 夜间车道线图像合并
    3.3 基于Frangi和 Hessian的图像滤波增强
    3.4 基于分数阶微分的夜间车道线检测
    3.5 递归霍夫直线检测
    3.6 实验结果与分析
        3.6.1 本章算法与传统图像处理算法的比较
        3.6.2 本章算法与深度学习处理算法的比较
    3.7 本章小结
第四章 基于山脊直线的大雨和雾(霾)天气下车道线检测技术研究
    4.1 大雨和雾(霾)天气下车道线图像特征分析
    4.2 基于改进Retinex和 Hessian的图像增强算法
    4.3 基于山脊直线检测的车道线检测
    4.4 车道线线段骨架提取及间隙缝合
        4.4.1 车道线线段骨架提取
        4.4.2 车道线骨架间隙缝合
        4.4.3 最小外切矩形
    4.5 实验结果与分析
        4.5.1 极端天气下车道线检测过程
        4.5.2 大雨天车道线检测及增强算法比较
        4.5.3 雾(霾)天车道线检测及增强算法比较
        4.5.4 弯曲车道线的检测
        4.5.5 几种车道线检测算法对比分析
    4.6 本章小结
第五章 车道线模型分析及车道线跟踪技术研究
    5.1 车道线数学模型分析研究
    5.2 直线车道线模型分析研究
    5.3 Kalman滤波原理及优势分析
        5.3.1 Kalman滤波原理
        5.3.2 Kalman滤波优势分析
    5.4 Kalman滤波在车道线跟踪技术中的应用
    5.5 实验结果与分析
    5.6 本章小结
第六章 基于改进TLC和 CCP相结合的车道偏离决策技术研究
    6.1 车道偏离预警算法的主要技术要求
    6.2 改进TLC和 CCP相结合的车道偏离决策技术
        6.2.1 改进TLC的车道偏移预警算法
        6.2.2 车辆偏移方向及偏离速度研究
    6.3 实验结果与分析
        6.3.1 车道偏离预警测试标准
        6.3.2 车道偏离预警算法测试
    6.4 本章小结
第七章 总结与展望
    7.1 论文的工作总结
    7.2 下一步工作展望
参考文献
攻读博士学位期间取得的研究成果
致谢

(5)基于深度跟驰网络的驾驶行为特性分析(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景及意义
        1.1.1 研究课题背景
        1.1.2 研究意义
    1.2 国内外研究现状
        1.2.1 基于数学模型的驾驶行为研究现状
        1.2.2 基于机器学习的驾驶行为研究现状
    1.3 研究内容及技术路线
        1.3.1 研究内容
        1.3.2 技术方案
2 基于机器学习的深度跟驰网络基础研究
    2.1 驾驶车辆检测神经网络理论基础
        2.1.1 CNN卷积神经网络构建原理
        2.1.2 卷积神经网络反向传播训练算法
        2.1.3 随机隐退思想和批量归一化
    2.2 时间序列数据分析理论基础
        2.2.1 RNN循环神经网络预测机理
        2.2.2 RNN循环网络的训练
        2.2.3 计算循环神经网络的梯度
    2.3 RNN与 CNN网络结合
    2.4 本章小结
3 基于改进CNN网络的车辆检测
    3.1 车辆检测网络结构设计
    3.2 基于CNN的跟驰车辆特征提取
        3.2.1 特征提取网络结构
        3.2.2 卷积特征提取基本组件设计
    3.3 基于CNN卷积网络的车辆检测原理
        3.3.1 分类预测车辆
        3.3.2 前导车回归预测
    3.4 基于CNN卷积网络的车辆检测流程
    3.5 车辆检测实验过程及结果分析
        3.5.1 模型检测训练及实车实验
        3.5.2 ROC检测分类效果评价
    3.6 本章小结
4 基于车辆检测的驾驶行为分析算法研究
    4.1 驾驶行为分析下的深度跟驰网络设计目标
        4.1.1 基于改进RNN的驾驶行为预测网络设计
        4.1.2 双向改进RNN预测网络设计
        4.1.3 算法线性双向融合处理
    4.2 基于卷积特征提取的驾驶行为参数测量
        4.2.1 驾驶行为参数检测方法
        4.2.2 基于边缘回归的相对距离测量算法设计
        4.2.3 驾驶车辆速度测量方法研究
    4.3 跟驰车辆驾驶行为参数测量结果分析
        4.3.1 检测车辆速度测量结果分析
        4.3.2 跟驰车辆间距测量结果分析
    4.4 检测数据集预处理
        4.4.1 异常数据的处理
        4.4.2 数据的加和整理
        4.4.3 数据的正反归一化处理
    4.5 双向改进RNN网络的预测
        4.5.1 预测评价指标
        4.5.2 数据训练与预测流程
        4.5.3 实验结果及分析
    4.6 本章小结
5 基于CNN与 RNN的深度跟驰网络研究
    5.1 驾驶行为分析下的深度跟驰网络构建
        5.1.1 深度跟驰网络分析算法设计
        5.1.2 深度跟驰网络实验流程
    5.2 实验软硬件要求
        5.2.1 Keras需求
        5.2.2 图像采集
    5.3 实验结果及分析
        5.3.1 实验环境配置
        5.3.2 深度跟驰网络下驾驶行为预测
    5.4 本章小结
6 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
附录

(6)计算机视觉在违章识别系统的研究与应用(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 选题背景
    1.2 研究意义
    1.3 国内外研究动态
    1.4 本文主要研究内容及难点分析
    1.5 本章小结
第2章 图像预处理算法的研究
    2.1 图像基本表示方法
        2.1.1 二值图像
        2.1.2 灰度图像
        2.1.3 彩色图像
    2.2 图像基本处理
        2.2.1 彩色图像转灰度图像
        2.2.2 二值图像的转化
        2.2.3 图像去噪
    2.3 形态学操作
        2.3.1 腐蚀
        2.3.2 膨胀
        2.3.3 开运算与闭运算
    2.4 图像的边缘检测
        2.4.1 Canny边缘检测
        2.4.2 Sobel算子
    2.5 图像中直线检测
        2.5.1 霍夫变换
        2.5.2 概率霍夫变换
    2.6 图像金字塔
    2.7 本章小结
第3章 违章行为的分析与检测设计
    3.1 违章停车的检测与判别
        3.1.1 均值方差阈值方式检测违章停车
        3.1.2 占空比方式检测违章停车
    3.2 违章变道的检测与判别
        3.2.1 巴氏度量车辆违章变道检测
        3.2.2 分水岭加轨迹违章变道检测
    3.3 违章逆行的检测与判别
        3.3.1 质心坐标检测法
        3.3.2 卷积神经网络的车辆逆行检测
    3.4 安全带佩戴的检测与判别
        3.4.1 基于霍夫变换的安全带检测
        3.4.2 卷积神经网络的安全带识别
        3.4.3 显着梯度图检测安全带
        3.4.4 结合YOLO的驾驶员安全带检测
    3.5 本章小结
第4章 车牌识别算法的研究
    4.1 车牌定位算法的研究
        4.1.1 图像二值化
        4.1.2 边缘检测
        4.1.3 闭运算与车牌定位
    4.2 车辆牌照字符的分割
        4.2.1 模板匹配法
        4.2.2 垂直投影法
    4.3 单个字符的识别
    4.4 神经网络识别车牌
        4.4.1 特征值的提取
        4.4.2 BP神经网络的训练
    4.5 车辆牌照分类识别
        4.5.1 RGB图像转换HSV类型
        4.5.2 形态统计学识别车牌颜色
    4.6 本章小结
第5章 车辆识别及跟踪算法的确定
    5.1 SVM分类法识别车辆
        5.1.1 基于HOG特征和SVM的车辆识别
        5.1.2 HOG特征提取
        5.1.3 HOG特征提取的实现方法
        5.1.4 HOG特征提取与计算步骤
        5.1.5 SVM车辆分类器训练
    5.2 YOLO目标检测算法
        5.2.1 YOLOv3目标检测算法原理
        5.2.2 对图片进行标注
        5.2.3 Darknet-53 神经网络
        5.2.4 YOLOv3的多尺度特征目标识别
    5.3 SVM+HOG VS YOLOv3
    5.4 图像标注及权重训练
        5.4.1 增加数据集及图像信息标注
        5.4.2 训练数据集
        5.4.3 训练结果分析
    5.5 车辆追踪算法确定
        5.5.1 多目标跟踪算法
    5.6 本章小结
第6章 违章识别系统的设计
    6.1 软件需求分析
        6.1.1 用户需求分析
        6.1.2 界面需求分析
    6.2 系统模块及架构设计
        6.2.1 系统模块设计
        6.2.2 系统架构设计
    6.3 系统功能的实现
        6.3.1 软件开发环境
        6.3.2 UI设计
    6.4 软件检测结果分析
    6.5 本章小结
总结和展望
参考文献
攻读硕士学位期间发表的学术论文
致谢

(7)基于图像识别的物流车辆行驶中车距预警系统研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究现状
        1.2.1 车牌定位研究现状
        1.2.2 车距测量研究现状
    1.3 研究内容
    1.4 研究创新点
第二章 深度学习与目标检测理论研究
    2.1 深度学习与卷积神经网络
        2.1.1 深度学习概述与研究现状
        2.1.2 卷积神经网络概述
    2.2 卷积神经网络的选取
        2.2.1 Faster-RCNN与 YOLO模型简介
        2.2.2 SSD模型结构特征
        2.2.3 基于SSD的车牌定位方案
    2.3 本章小结
第三章 系统总体设计方案
    3.1 车距预警系统设计目标
        3.1.1 系统需求分析
        3.1.2 系统功能需求
        3.1.3 系统性能需求
    3.2 车距预警系统功能设计
        3.2.1 车牌定位功能设计
        3.2.2 车距检测功能设计
        3.2.3 车距预警功能设计
    3.3 设备架构设计
    3.4 本章小结
第四章 车距预警算法设计
    4.1 车牌检测与定位
        4.1.1 基于NMS的车牌检测定位
        4.1.2 SSD车牌定位实现原理
        4.1.3 建立车牌定位模型
        4.1.4 车牌定位算法实现
        4.1.5 基于SSD神经网络的车牌定位模型训练
    4.2 基于车牌定位的车距测量流程
        4.2.1 建立车距测量模型
        4.2.2 车距测量模型算法实现
        4.2.3 车距测量模型训练
    4.3 本章小结
第五章 系统测试
    5.1 系统环境
        5.1.1 硬件环境
        5.1.2 软件环境
        5.1.3 测试环境搭建
    5.2 系统测试
        5.2.1 车牌数据集准备
        5.2.2 车距预警模型的训练
        5.2.3 车距预警模型实验与结果分析
        5.2.4 车距预警系统测试
    5.3 本章小结
第六章 结论与展望
    6.1 结论
    6.2 展望
参考文献
附录
攻读学位期间取得的成果
致谢

(8)基于视频监控的危险特征检测技术研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 选题背景及研究的目的和意义
    1.2 基于视频监控检测技术的研究现状
    1.3 车辆危险特征检测技术的研究现状
    1.4 主要研究内容及章节安排
    1.5 本章小结
第2章 相关技术与理论概述
    2.1 引言
    2.2 传统目标检测相关算法的描述
    2.3 传统目标检测方法存在的缺点
    2.4 深度学习目标检测相关算法的描述
        2.4.1 卷积神经网络
        2.4.2 Faster R-CNN网络介绍
        2.4.3 SSD512网络介绍
        2.4.4 YOLOv2及YOLOv3 网络介绍
    2.5 本章小结
第3章 运动目标检测技术研究
    3.1 引言
    3.2 运动目标检测算法
        3.2.1 帧间差分法
        3.2.2 背景减除法
    3.3 VIBE前景检测算法
        3.3.1 算法原理
        3.3.2 背景模型初始化
        3.3.3 背景模型更新
    3.4 基于灰度投影运动估计的VIBE算法改进
        3.4.1 结合三帧差分的ViBe运动目标检测算法
        3.4.2 灰度投影运动估计
    3.5 实验仿真结果及分析
    3.6 本章小结
第4章 改进的GDT-YOLOV3 目标检测算法
    4.1 引言
    4.2 数据集的采集及候选边框维度聚类
    4.3 GIOU的基本原理
    4.4 密集连接多尺度检测算法
        4.4.1 残差连接
        4.4.2 密集连接
    4.5 GDT-YOLOV3 目标检测算法
    4.6 实验结果与分析
        4.6.1 网络的训练
        4.6.2 检测效果对比
    4.7 本章小结
第5章 车辆危险特征检测技术研究
    5.1 引言
    5.2 车辆跟踪及轨迹提取
        5.2.1 Kalman滤波的基本原理
        5.2.2 Kalman滤波算法设计
    5.3 车辆逆行事件的判断原理
        5.3.1 车辆逆行事件的检测结果分析
    5.4 车辆变道事件的判断原理
        5.4.1 车道线检测原理
        5.4.2 车辆变道事件的检测结果分析
    5.5 车辆调头事件的判断原理
        5.5.1 车辆调头事件的检测结果分析
    5.6 本章小结
第6章 结论与展望
    6.1 结论及创新点
    6.2 展望
参考文献
攻读硕士学位期间取得的成果
致谢

(9)基于分布式计算的视频测速算法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 研究目的及意义
    1.2 国内外的研究现状
        1.2.1 国外的研究现状
        1.2.2 国内的研究现状
    1.3 研究内容
    1.4 本文组织结构
第2章 视频测速系统
    2.1 现有测速技术简介
    2.2 视频测速概述
        2.2.1 视频测速原理
        2.2.2 系统存在的难点
        2.2.3 系统难点解决办法
    2.3 视频测速总体架构
        2.3.1 硬件架构
        2.3.2 软件架构
    2.4 本章小结
第3章 车辆检测及跟踪算法研究
    3.1 图像预处理
    3.2 运动检测方法
        3.2.1 帧差法
        3.2.2 光流法
        3.2.3 背景建模法
    3.3 本文的车辆检测方法
    3.4 目标跟踪方法
        3.4.1 目标跟踪方法简介
        3.4.2 卡尔曼滤波
        3.4.3 匈牙利算法
    3.5 本文的车辆跟踪方法
    3.6 本章小结
第4章 车速计算及实验
    4.1 车速计算原理
    4.2 车辆标识与超速
    4.3 并行的车速计算
        4.3.1 并行计算
        4.3.2 车速并行计算方法
    4.4 进一步的分布式车速计算
        4.4.1 Hadoop分布式计算平台
        4.4.2 MapReduce编程模型
        4.4.3 分布式车速计算
    4.5 实验设计与结果分析
        4.5.1 动画模拟实验
        4.5.2 小车模拟实验
        4.5.3 实际道路算法比较实验
    4.6 本章小结
第5章 总结及展望
    5.1 全文总结
    5.2 未来展望
参考文献
致谢
个人简历、在学期间发表的学术论文及研究成果

(10)城市复杂交通场景下的跨摄像机多车辆目标跟踪研究(论文提纲范文)

摘要
Abstract
第1章 绪言
    1.1 研究背景和意义
        1.1.1 交通视频分析问题
        1.1.2 跨摄像机车辆跟踪
        1.1.3 研究目的
    1.2 国内外研究现状
        1.2.1 目标检测
        1.2.2 多目标跟踪
        1.2.3 多摄像机目标跟踪
        1.2.4 存在问题与不足
    1.3 本文的主要工作及结构安排
        1.3.1 主要研究内容
        1.3.2 结构安排
第2章 车辆目标检测
    2.1 基于中心点估计的目标检测
        2.1.1 特征提取网络
        2.1.2 中心点预测和检测框尺寸回归
        2.1.3 目标检测框推断
        2.1.4 尺度约束的建立
    2.2 实验过程与结果
        2.2.1 测试数据集
        2.2.2 车辆检测结果与分析
    2.3 本章小结
第3章 单摄像机多车辆跟踪
    3.1 车辆运动状态估计和深度特征关联
        3.1.1 卡尔曼滤波器估计运动目标状态
        3.1.2 深度残差网络提取目标外观特征
        3.1.3 检测目标与车辆跟踪轨迹的关联
    3.2 目标跟踪策略
        3.2.1 跟踪状态转移判断
        3.2.2 级联匹配
    3.3 实验过程和结果
    3.4 本章小结
第4章 基于时空约束的多摄像机多车辆跟踪
    4.1 基于时空约束的摄像机链路模型
        4.1.1 空间约束关系
        4.1.2 时间约束关系
    4.2 基于深度特征提取和排序的车辆重识别方法
        4.2.1 深度神经网络设计与训练方法
        4.2.2 损失函数设计和网络优化
        4.2.3 关键帧序列提取
    4.3 实验结果与分析
        4.3.1 基于关键帧序列的车辆重识别
        4.3.2 跨摄像机车辆连续跟踪
        4.3.3 实验精度与评价
    4.4 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
参考文献
指导老师对学位论文的学术评语
学位论文答辩委员会决议书
致谢
攻读硕士学位期间的研究成果

四、行驶车辆图像检测技术研究(论文参考文献)

  • [1]基于视频图像处理的交通流信息提取方法研究[D]. 曾聪. 华东交通大学, 2021(01)
  • [2]基于深度学习的智能车辆可行驶区域检测方法研究[D]. 李贵远. 吉林大学, 2021(01)
  • [3]基于毫米波雷达与视觉信息融合的前方车辆检测[D]. 唐甜. 电子科技大学, 2021(01)
  • [4]基于机器视觉的车道偏离预警系统关键技术研究[D]. 陈卫卫. 长安大学, 2021
  • [5]基于深度跟驰网络的驾驶行为特性分析[D]. 许倩. 西安科技大学, 2020(01)
  • [6]计算机视觉在违章识别系统的研究与应用[D]. 贾岚翔. 大连交通大学, 2020(06)
  • [7]基于图像识别的物流车辆行驶中车距预警系统研究[D]. 刘庆淼. 山东财经大学, 2020(07)
  • [8]基于视频监控的危险特征检测技术研究[D]. 唐悦. 长春理工大学, 2020(01)
  • [9]基于分布式计算的视频测速算法研究[D]. 朱新龙. 华侨大学, 2020(01)
  • [10]城市复杂交通场景下的跨摄像机多车辆目标跟踪研究[D]. 金伟. 深圳大学, 2020(10)

标签:;  ;  ;  ;  ;  

行驶车辆图像检测技术研究
下载Doc文档

猜你喜欢