首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
在智能交通系统中,动态图像识别技术是系统应用的基础核心技术之一。以应用于交通监控、智能驾驶系统等场景的HSV空间动态车辆识别为基础,研究并论证提出了新的检测识别方法,实现对运动车辆的检测识别、目标追踪、驾驶辅助等功能。研究问题的难点是,如何从复杂的背景中分割运动物体,是检测方法能否有效的至关重要的一步,在研究了目前存在的各种方法之后,提出了一种新的基于阴影检测的HSV空间自适应背景模型的车辆追踪检测算法,算法基于HSV空间图像处理,采用最大类间方差法获取相邻帧二值化阈值,利用纹理信息进一步确定动态图像以及确认图像范围。通过截取由监控系统获取的视频信息,并对其进行图像处理检测车辆移动轨迹。从监控视频信息中获取两帧不同时刻的图像信息,在HSV空间进行相邻帧检测。由于阈值的选择将直接影响判断精度,本研究将固定阈值法进行了改进,该阈值是通过统计模型对整幅图像上灰度值进行计算,并通过最大类间方差法确定阈值。最后经过实际视频图像验证,仿真试验流程清晰,试验结果达到预期设想。  相似文献   

2.
实时检测内河船舶流量对水上交通管理具有重要意义.为实时检测船舶流量,研究了一种基于虚拟线圈的船舶流量检测系统.虚拟线圈即在视频图像上设置一个封闭区域,根据该区域内图像的变化检测是否有运动目标通过.利用RGB三通道背景差分法得到视频图像的二值化图像,二值化图像的三个分割阈值由大津法求出.设置2个平行的虚拟线圈,通过虚拟线圈的船舶会被检测并计数,同时检测船舶的船长与船宽,利用BP神经网络对船舶进行分类.通过在武汉长江大桥和武汉长江二桥上不同时间段采集的视频进行实验,结果表明,船舶计数正确率达到97.1%,计数漏检率2.9%,计数错检率0%,船舶分类正确率98.6%.处理一帧图片的平均时间为7 ms,具有较好的实时性.   相似文献   

3.
在道路视频检测技术中提出了一种基于同态滤波的背景建模法。对图像进行同态滤波的预处理,以适应渐变的光照情况。通过图像分块与帧间差分来获取临时背景序列,为背景建模做准备。为了处理背景中由于车辆突然开动或停止产生的"鬼影",对帧序列有效区中的每一像素进行基于灰度分区直方图模式建立背景模型。这种方法既能应对光照渐变又能适应大流量且车速慢的拥堵情况。实验结果表明,此算法具有良好的可靠性与鲁棒性。  相似文献   

4.
视频车辆检测技术中的阈值分割算法研究   总被引:1,自引:0,他引:1  
为了提高视频交通检测交通流参数提取的精度,研究了视频交通检测技术.中的阈值分割算法;文中使用分形维数法、双峰法、迭代法和大津法研究了获取图像的阈值分割方法使得车辆和背景分离。结果表明,分形维数法处理时间较长;迭代法编写程序较复杂,且运算时间长;由于双峰法对满足一定要求的图像处理效果较好,而试验证明双峰法不适用与车辆视频图像处理。大津法分割后得到的二值图像中仍然存在车辆内部存在黑色像素点的问题,但其效果图中车辆与背景的分离情况较好。所以课题中选取大津法作为视频车辆检测中闽值分割的最终处理算法。  相似文献   

5.
在将道路监控视频转单帧后,利用灰度变换、锐化、滤波、二值化等方法对图像进行预处理,以高斯混合模型对图像前景提取,进行边缘检测获取较为清楚的前景车辆图,在摄像机标定基础上,建立路面车辆和图像像素点的映射关系,再以虚拟线在图像上作计数依据,进而获得车流量。同时通过对普通背景差分模型与高斯混合背景模型的比较分析,选用高斯混合背景模型对预处理之后的图像进行背景分割。并结合粘连图像分割和阴影处理算法,对前景图像进行修复,得到良好的前景目标。采用高斯背景模型对样本视频处理,得到了满意的监控分析结果。  相似文献   

6.
背景提取基础上运动车辆视频检测   总被引:9,自引:0,他引:9  
提出了一种在一系列连续视频图像中提取背景的方法,在背景提取的基础上对视频图像中运动物体进行检测,以实现对高速公路上过往车辆的自动监控功能。  相似文献   

7.
车流量检测是智能交通系统中的关键技术之一。研究了多种基于视频图像处理的车流量检测算法,包括基于灰度图像的背景差分法、帧差法、边缘检测法和基于彩色图像的色彩跳变检测法。在分析了以上算法在不同检测环境中适用性差异的基础上,提出了1种修正的背景差分法,并在此基础上实现了1种通用性更强的综合检测法。综合检测法结合背景差分法,边缘检测法和色彩跳变法三者优点,可依据光线条件自动选择检测区域和检测算法,适用于多种检测环境,准确率超过90%。  相似文献   

8.
为了准确检测高速公路隧道火灾火焰,提出一种基于火焰区域跳动特性的火焰检测方法,其利用小波变换的高频敏感性来分析高速公路隧道视频火焰区域的高度变化特性。首先对视频图像进行背景更新,提取运动区域并滤除移动车辆的灯光干扰;然后在HSI颜色模型下识别出类似火焰颜色的疑似区域。疑似区域变化是火焰跳动特性的直接体现,故基于这一特点,对连续多帧图像疑似区域的高度变化曲线进行小波分解,并利用小波高频分量系数的局部极大值数量来判断视频图像中是否存在火焰。仿真试验结果表明,此种算法具有很高的准确性和有效性。  相似文献   

9.
高解析度轨迹数据蕴含丰富车辆行驶与交通流时空信息.为从航拍视频中提取车辆轨迹,构建了车辆检测目标跨帧关联与轨迹匹配融合方法.采用卷积神经网络YOLOv5构建视频全域车辆目标检测,提出车辆动力学与轨迹置信度约束下跨帧目标关联算法,建立了基于最大相关性的断续轨迹匹配与融合构建算法,实现轨迹车辆唯一编号.将轨迹从图像坐标转换为车道基准下Frenet坐标,构建集合经验模态分解(EEMD)模型进行轨迹数据噪声消除.采用南京市快速路无人机拍摄的2组开源航拍视频,涵盖拥堵与自由流交通状态,对轨迹提取算法进行效果测试.结果表明,在自由流和拥挤条件下轨迹准确率分别为98.86%和98.83%,轨迹召回率为93.00%和86.69%,构建算法的轨迹提取速度为0.07 s/辆/m.该方法处理得到的详细车辆时空轨迹信息能为交通流、交通安全、交通管控研究提供广泛的数据支撑,数据公开于http://seutraffic.com/.  相似文献   

10.
针对城市单车道车辆逆行违章检测问题,研究了基于视频的单车道车辆逆行违章自动检测方法。使用背景差分法进行车辆检测;用 Harris角点特征补充Mean-shift算法的颜色特征,提高车辆跟踪精度,以此得出被跟踪车辆的运动轨迹;通过计算机对运动轨迹进行分析,自动地判断其是否为逆行。从逆行检测正确率和计算量两方面进行了对比实验,实验结果表明,该方法对车辆逆行检测效果良好。车辆平均逆行识别率达到约87.55%,与对比方法基本相当;在计算时间方面,文中方法平均每帧计算时间比对比方法少约1956ms,更具快速性。   相似文献   

11.
<正>视频车辆检测技术即在视频序列中提取运动的车辆对象,是利用视频图像进行车辆检测的一种交通检测技术,它涉及计算机图像处理技术、模式识别、信号处理和信号融合等多个领域。近年来,基于计算机视觉和图像处理技术的视频车辆检测技术逐步成为研究主流。性价比优良的视频车辆检测技术1978年,美国JPT(加州帕萨迪纳市的喷气推进实验室)首先提出了运用机器视觉来进行车辆的检测的方法,指出其是传统检测方法的一种可行的替代方案。  相似文献   

12.
车辆间即碰时间(TTC)是驾驶辅助系统控制策略的基础,也是分析驾驶员驾驶行为的主要依据。为分析行车记录仪视频危险工况中驾驶员紧急制动时的TTC,提出了一种基于单目视觉估算算法。该算法先检测及跟踪车辆,判断前方有无车辆及其具体方位;再检测并匹配车辆角点,计算不同帧之间车辆图像的尺寸变化率,进而估算TTC。用最小二乘法、Kalman滤波方法处理数据;用多层金字塔图像来处理图像,实现了大运动的角点匹配。结果表明:该算法丰富了视频危险工况参数的分析方法,拓展了单目视觉的应用场景,为低成本驾驶辅助系统,提供了新的解决方案。  相似文献   

13.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

14.
车辆轨迹通常用于驾驶行为建模和交通安全领域。为获取交通视频中车辆轨迹,提出一种基于深度学习的自动采集方法。利用YOLOv5检测器在连续帧中的感兴趣区域进行车辆检测,通过DeepSORT跟踪器进行稳健而快速的车辆跟踪,该追踪器可以有效减少目标ID的跳变,提升跟踪稳定性,通过透视变换得到车辆的真实世界坐标并使用局部加权回归算法进行轨迹平滑。实验结果表明,该方法在高速公路监控数据集上的平均多目标跟踪准确率达96.1%,轨迹采集的平均准确度超过了93%,平滑算法能有效去除轨迹噪声。  相似文献   

15.
针对城市混合交通的复杂场景图像中多目标及其参数的检测问题,提出了一种由改进的帧间差分与边缘提取相结合的算法。利用帧间差分法检测车辆的存在,对帧差图像运用统计滤波算法提取多运动目标,通过形态学方法提取并细化目标边缘,根据主边缘(轮廓)信息完成车辆定位,最终结合摄像机标定结果计算出多目标交通参数。算法避免了复杂场景的背景建模,减少了运算量。实验结果表明,该算法不仅能较为准确地检测多运动目标的参数,而且具有较强的实时性。  相似文献   

16.
全天候车辆视频检测白天和黑夜车辆时其检测条件差异很大,要选择不同的检测方法。在夜间无补光光源环境下,将摄像机获得的彩色视频图像进行灰度处理,夜间图像中汽车前照灯具有很强的特征,因此对灰度图像进行二值化处理和灰度统计来提取前照灯的特征,根据汽车前照灯在画面中的形态特征设计了相应的定位算法,实现了夜间车辆的定位检测。实验结果表明,该方法实现夜间车辆定位的突出特点是定位准确,且定位时间短,满足了视频交通系统实时性的要求。  相似文献   

17.
为了研究无人机监测视频准确提取运动车辆交通参数信息,采用计算机人工智能图像处理技术和实际道路场景验证试验方法,提出一种基于YOLO v3神经网络模型的目标检测和Deep-Sort多目标跟踪算法相结合的运动车辆参数提取方法。为了验证无人机交通参数提取方法的可行性、准确性、可靠性,采用试验路段场景数字化、特征点标记、世界坐标采集的方法,标定世界坐标与图像坐标转换矩阵。采用装载高精度GNSS-RTK定位和车载OBD的试验车辆实时记录车辆微观运动参数(时间、速度、加速度等),对比验证视频提取车辆参数的准确性。共进行7组不同飞行高度(150~350 m)、不同行驶速度(40~90 km/h)验证试验,累计获得70 min试验路段监测视频,2辆试验车共获得5 400帧、1 192个速度验证信息。验证试验结果表明:视频识别算法目标检测精度为90. 88%、追踪精度为98. 9%,提取的车辆速度参数整体绝对误差在±3 km/h以内、相对误差在2%以内,参数提取整体准确率达98%。验证了无人机视频交通参数提取的可靠性和准确性,为交通管控提供了一种监测方法和数据提取手段,也为交通行为研究提供了数据采集手段。  相似文献   

18.
针对单个相机覆盖区域有限的问题,本文提出了通过路侧多个相机获取车辆连续轨迹数据的方法。在路侧端布置多台固定相机采集视频数据,采用直接线性变换算法解决相机外参造成的画面畸变问题;通过全时域抽帧提取图片训练样本,采用YOLOv5训练车辆检测模型;针对偶发的车辆漏检情形,通过完整性检查可以筛查出此类情况并修复;针对连续多帧漏检或误检导致的目标关联问题,通过异常轨迹核查算法及数据修复工具解决;针对相机斜下方区域的车辆轮廓变形问题,采用车辆检测轮廓修复算法解决车辆在不同路段检测框大小不一的问题;提出了基于车辆质心坐标匹配的方法实现相邻机位间的车辆轨迹拼接。基于上述多机视频目标关联与轨迹拼接方法,在多机位时间同步下构建了覆盖武汉珞狮路高架桥的车辆连续轨迹数据集,轨迹数据集验证结果表明:数据集涵盖从畅通到拥堵的各种交通状态,包含多段分合流区域,数据集连续时长达到3.5 h,覆盖区域1.41 km;车辆检测模型的召回率达到93.23%,准确率达到98.51%,F1分数为95.80%;数据集包含主路及各处匝道汇入的轨迹共25 734条,其中覆盖道路全域的完整长轨迹15 004条。本研究丰富了路侧多机视频...  相似文献   

19.
针对现有车速检测方法的局限性,提出了一种基于局部视频图像的车速检测新方法,该方法通过定位车牌的位置来确定车辆帧间移动的距离。讨论了车牌定位、如何将车辆帧间移动的像素行映射为对应的实际距离和最终实现车速检测等内容。经实验证明,本方法易于实现,具有很好的可维护性,车速检测的精度较高,平均精度为91.31%。  相似文献   

20.
基于倾向流和深度学习的机场运动目标检测   总被引:1,自引:0,他引:1       下载免费PDF全文
针对当前基于视频图像的场面监视目标检测方法存在定位误差较大,识别准确率低等问题,建立一种结合目标运动信息的机场场面运动目标检测方法:利用倾向流法提取出运动目标在图像中的候选区域,对候选区域执行点池化操作以确定区域建议的边界,采用Inception结构构建一个浅层卷积神经网络,并使用该网络对区域建议中的航空器、车辆和人员进行识别.结合国内机场的监视视频,构建了一个包含4 938张图片的机场目标数据集,用于算法的训练和测试.结果 表明,运动目标提取的准确率达到94%以上,运动目标识别的Top-1准确率达到了97.23%,运动目标平均准确率达到86.23%.与3种深度学习目标检测算法相比,运动目标检测精度平均提升了39%.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号