首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 531 毫秒
1.
混合交通中车辆和行人的检测识别是研究如何让计算机以人的思维方式从视频或图像中将车辆和行人从背景中区分出来。车辆检测与行人检测作为智能交通系统的核心组成部分,具有重大的研究价值与现实意义。本文基于候选区域和深度网络的深度特征提取方法,通过获取场景中的大量实时图像数据进行多任务深度模型训练,实现复杂交通场景中的车辆检测和行人检测的任务。相比于传统的车辆检测算法和行人检测算法,基于候选区域和深度网络的深度特征提取方法具有独特的优势:检测的准确性、鲁棒性、实时性可以在一定的条件下达到比较满意的程度。而传统车辆与行人的检测算法,并不能同时在3项指标上达到较好的状态。此外,候选区域的确定避免了穷举式搜索目标,从而节省了大量时间开销。  相似文献   

2.
在深入分析低照度环境下车牌图像特征的基础上,提出一种低照度环境下的车牌识别算法。该算法利用车牌区域水平灰度投影具有的显著纹理特征寻找车牌可能存在的区域作为车牌候选区。然后根据候选区域中的灰度分布特征确定最终的车牌位置。针对汉字与字母数字的结构上的差异,分别采用2种模板对汉字和数字字母进行了识别。对157张低照度条件下的车牌抓拍图像进行了算法测试。结果表明:提出算法的车牌定位准确率为97.46%,字符分割准确率为97.10%,字符识别准确率为94.71%,基本满足了实际工程需求。  相似文献   

3.
变化光照条件下交通标志检测算法的准确率往往会显著降低。针对此问题,提出了1种新颖的概率图建立方法,并结合最大稳定极值区域特征进行交通标志检测。该方法包括3个处理步骤:①根据不同光照条件对真实场景交通标志样本图像进行明确分类以构建多类颜色直方图,将交通标志输入图像由原始色彩表达转变为概率图(直方图反投影);②通过在概率图上进行 MSER特征提取,获取候选的交通标志区域;③根据候选区域的面积、宽高比等特征快速有效去除非交通标志区域。实验结果表明在弱光照和强光照条件下基于归一化RGB的交通标志检测算法检测准确率分别下降到84.4%和83.0%,基于红蓝图的交通标志检测算法检测准确率分别下降到87.4%和86.3%,提出的算法在变化光照条件下依然可以保持90%以上的检测准确率,对光照变化有较好的鲁棒性。   相似文献   

4.
针对传统机场场面监视手段的固有缺陷,为避免在机场发生航空器/车辆入侵跑道,将事件驱动型传感器网络引入到场面目标监视中,研究了1种基于灰色序列输入扩张状态观测器的场面目标跟踪方法.该方法采用灰色模型对速度序列进行建模,弱化了原始速度序列随机干扰的影响,并结合目标运动模型辨识理论设计了1类扩张状态观测器观测系统状态,实现了场面运动目标跟踪与模型参数辨识,应用仿真算例对模型和方法进行了验证,z轴速度误差峰值不超过2.6 m/s,该方法具有所需数据少、预测精度高和无需先验信息的特点.   相似文献   

5.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

6.
针对道路车流量检测问题,从便捷性、实时性角度出发,结合视频图像处理技术,对视频车辆计数进行了研究。直接在RGB图像中进行自适应背景更新,以此为基础,对RGB图像进行背景差分,提取出运动车辆区域,避免了复杂环境下图像灰度化过程中的信息丢失;利用当前帧和背景帧的HSI颜色空间信息来滤除阴影;通过在视频图像中设置固定虚拟检测区,实现对车辆的计数。实验结果表明,该方法计算量较小,白天情况下的计数准确率在89.58%以上;夜间的计数准确率较低,还需进一步研究改进。  相似文献   

7.
为解决基于彩色摄像机的人流量统计存在精度低、易受光照影响等问题,研究了利用RGB-D图像与头肩区域编码进行实时人流量检测的方法.在对RGB-D图像前景检测与空洞修复的基础上,采用随机点和漫水填充法提取潜在目标区域,并度量随机点与区域内极值点间的欧式距离以剔除噪声点的干扰,减少了冗余信息的计算量.根据人体头肩区域的先验信息,提出了一种七维头肩特征描述符对潜在目标区域编码,从而避免人体运动过程中产生的头肩部形变对头部区域检测的影响,采用SVM和阈值限制得到满足区域特征的头部区域.根据图像中不同区域的圆形度排序的思路,提出了头部区域筛选方法以去除无效区域,并构建了一种帧间目标匹配算法和多条计数线的方法,对已获得的头部区域实现计数,计数后获取人的身高数据.实验结果表明,该算法在教学楼楼道口和楼门口场景中人流量统计正确率高达99.30% 以上,身高测量平均相对误差在2.59% 以内,处理单帧图像的平均时间仅为18.31 m s.   相似文献   

8.
为了研究无人机监测视频准确提取运动车辆交通参数信息,采用计算机人工智能图像处理技术和实际道路场景验证试验方法,提出一种基于YOLO v3神经网络模型的目标检测和Deep-Sort多目标跟踪算法相结合的运动车辆参数提取方法。为了验证无人机交通参数提取方法的可行性、准确性、可靠性,采用试验路段场景数字化、特征点标记、世界坐标采集的方法,标定世界坐标与图像坐标转换矩阵。采用装载高精度GNSS-RTK定位和车载OBD的试验车辆实时记录车辆微观运动参数(时间、速度、加速度等),对比验证视频提取车辆参数的准确性。共进行7组不同飞行高度(150~350 m)、不同行驶速度(40~90 km/h)验证试验,累计获得70 min试验路段监测视频,2辆试验车共获得5 400帧、1 192个速度验证信息。验证试验结果表明:视频识别算法目标检测精度为90. 88%、追踪精度为98. 9%,提取的车辆速度参数整体绝对误差在±3 km/h以内、相对误差在2%以内,参数提取整体准确率达98%。验证了无人机视频交通参数提取的可靠性和准确性,为交通管控提供了一种监测方法和数据提取手段,也为交通行为研究提供了数据采集手段。  相似文献   

9.
针对在复杂场景下,背景区域干扰特征过多、被检测目标运动速度快等导致的动态目标检测率低的问题,研究了基于深度学习的多角度车辆动态检测方法,将带有微型神经网络的卷积神经网络(MLP-CNN)用于传统算法的改进.使用快速候选区域提取算法提取图像中可能存在车辆的区域,之后使用深层卷积神经网络(CNN)提取候选区域的特征,并在卷积层中增加微型神经网络(MLP)对每层的特征进一步综合抽象,最后使用支持向量机(SVM)区分目标和背景的CNN特征.实验表明,该方法能够处理高复杂度背景条件下,部分遮挡、运动速度快的目标特征检测,识别率高达87.9%,耗时仅需225ms,比常用方法效率有大幅度提升.   相似文献   

10.
针对Canny边缘检测阈值在车道线识别中不易选取的问题,提出了基于Otsu算法实现自适应Canny边缘检测的方法。实验验证表明,其对远视野道路图像可以获得良好的边缘检测效果,而对近视野道路图像效果较差。进一步提出了目标区域补偿策略改进上述算法。结合Hough变换算法,实现了车道线的识别。实验结果表明,改进的算法可以达到实时获取车道线的要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号