首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 859 毫秒
1.
为提高智能交通系统中运动车辆检测的效率,在固定场景视频下基于类Haar特征和AdaBoost算法提出了一种运动车辆检测方法.通过提取交通监控图像的扩展类Haar特征,在OpenCV平台上应用AdaBoost算法进行特征提取及训练得到级联分类器,利用级联分类器进行固定场景视频的运动车辆检测.测试结果表明,该方法具有良好的实时性和鲁棒性,在智能交通领域有广泛的应用前景.  相似文献   

2.
为了提高交通目标检测的实时性和准确性,针对交通目标检测过程中普遍存在的背景复杂、光线变化、物体遮挡等干扰问题,以及基于深度学习的目标检测算法在进行区域选择时滑动窗口遍历搜索耗时的问题,提出一种基于时空兴趣点(STIP)的交通多目标感兴趣区域快速检测算法。像素级时空兴趣点检测在处理目标遮挡时具有较好的鲁棒性,利用这一特点,首先在传统兴趣点检测算法的基础上加入背景点抑制和时空点约束,以减少无效兴趣点对有效兴趣点检测带来的干扰。通过改进均值漂移算法,使得聚类中心数量随目标数目的变化而改变。然后对被检测出的多目标附近的候选兴趣点分别进行聚类,获取各个目标聚类中心位置信息。根据聚类中心点与筛选后的目标兴趣点之间的相对位置关系进行特定组合获得感兴趣区域。在这些感兴趣区域上使用选择性搜索算法生成1 000~2 000个候选区域,并将这些候选区域放入训练好的深度卷积神经网络模型中进行特征提取。最后将特征提取结果送入支持向量机中进行目标种类判别并使用回归器精细修正目标识别框的位置。研究结果表明:通过对候选区域进行预处理,送入模型中的候选区域数量减少了82%,对应算法整体运行时间减少了74%,能够满足智能交通监控的实际需求。  相似文献   

3.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

4.
基于单目视觉的车辆识别通常分为候选车辆生成(CG)和候选车辆验证(CV)两个步骤。传统的CG步骤往往采用遍历的方法,获得的候选车辆窗口数量庞大,增加了后续CV阶段的计算耗时,难以满足实际应用的实时性要求。本文提出一种基于几何和深度信息的CG方法,在不丢失有效车辆区域的前提下极大减少了候选车辆的数量。该方法首先将图像以超像素形式进行分块,同时利用预先训练的Adaboost分类器获取超像素图像的几何信息和粗糙深度信息。然后利用车辆在世界坐标系下的垂直度、位置和尺寸等先验知识,采用了一种分层聚类策略,合并图像中属于车辆的超像素块并生成候选车辆。与传统算法的比较结果表明,本方法以检测率的微小降低为代价,实现了候选车辆窗口数量的大幅度减少。  相似文献   

5.
基于倾向流和深度学习的机场运动目标检测   总被引:1,自引:0,他引:1       下载免费PDF全文
针对当前基于视频图像的场面监视目标检测方法存在定位误差较大,识别准确率低等问题,建立一种结合目标运动信息的机场场面运动目标检测方法:利用倾向流法提取出运动目标在图像中的候选区域,对候选区域执行点池化操作以确定区域建议的边界,采用Inception结构构建一个浅层卷积神经网络,并使用该网络对区域建议中的航空器、车辆和人员进行识别.结合国内机场的监视视频,构建了一个包含4 938张图片的机场目标数据集,用于算法的训练和测试.结果 表明,运动目标提取的准确率达到94%以上,运动目标识别的Top-1准确率达到了97.23%,运动目标平均准确率达到86.23%.与3种深度学习目标检测算法相比,运动目标检测精度平均提升了39%.   相似文献   

6.
针对在复杂场景下,背景区域干扰特征过多、被检测目标运动速度快等导致的动态目标检测率低的问题,研究了基于深度学习的多角度车辆动态检测方法,将带有微型神经网络的卷积神经网络(MLP-CNN)用于传统算法的改进.使用快速候选区域提取算法提取图像中可能存在车辆的区域,之后使用深层卷积神经网络(CNN)提取候选区域的特征,并在卷积层中增加微型神经网络(MLP)对每层的特征进一步综合抽象,最后使用支持向量机(SVM)区分目标和背景的CNN特征.实验表明,该方法能够处理高复杂度背景条件下,部分遮挡、运动速度快的目标特征检测,识别率高达87.9%,耗时仅需225ms,比常用方法效率有大幅度提升.   相似文献   

7.
交通信号灯检测是先进驾驶辅助系统的关键技术之一,也是无人驾驶车辆车载环境感知的重要研究方向。本文中针对通用物体检测算法不适合信号灯这类小物体的检测和缺乏实时滑动窗口检测算法的问题,提出了一种交通信号灯检测方法,包括基于遗传优化的交通信号灯候选区域生成方法,和基于深度神经网络的信号灯定位与分类方法。其中,作为本文中研究重点的候选区域生成方法又分3部分:信号灯共用特征区域提取、基于重要性采样的信号灯候选区域参数采样和基于遗传算法的信号灯候选区域参数优化。与现有的信号灯检测方法相比,本文中所提出的方法可对横竖排的红色、绿色和圆形、箭头形信号灯进行有效检测和分类。在公开的交通信号灯数据库的对比实验表明,该方法对交通信号灯的召回率高,且能有效区分不同类别的信号灯。  相似文献   

8.
利用视觉传感器信息丰富的特性,提出了一种基于边缘对称性的行人检测方法。利用Sobel算子和Hough变换确定车辆前方的感兴趣区域(AOI),然后提取感兴趣区域图像的垂直边缘,根据行人腿部的垂直边缘对称性确定垂直边缘对称轴,并结合行人形态特征以确定行人初始候选区域,最后采用灰度对称性和局部熵对行人候选区域进行目标识别验证。道路试验结果表明,该检测方法识别有效、可靠,并具有良好的鲁棒性。  相似文献   

9.
针对自动驾驶车辆在雾天情况下易将行人误检和漏检的问题,提出一种基于改进GCANet除雾网络和CenterNet检测网络相结合、有效进行雾天行人识别的联合检测方法。该方法在GCANet中引入结合底层细节和全局结构的复合损失函数,优化除雾图的结构细节及图像质量;并将改进的GCANet除雾算法应用于检测算法的训练图像预处理中,最后送入CenterNet网络训练。试验结果显示,本文提出的方法在合成雾天数据集Foggy Citypersons上的平均对数漏检率MR-2值达到9.65,在真实雾天数据集RTTS上的平均精度AP50值达到86.11,降低了雾天场景下行人的漏检和误检情况,有效提升了检测网络在雾天条件下的泛化能力。  相似文献   

10.
针对大范围快速的车辆检测与计数,利用高分辨率卫星影像数据,提出了一种基于区域卷积神经网络的车辆检测算法。区域卷积神经网络是深度卷积神经网络和区域建议网络二者的结合。首先利用深度卷积神经网络自动提取各个层的特征,为了减少检测窗口的数量,提出区域建议网络,对下采样后的每个位置考虑3种窗口和对应的3种比例,这样大大减少了检测窗口的数量。再根据分类器对目标进行分类。这样将特征、检测窗口和分类器有效地结合在一起。在对遥感影像车辆检测试验中,通过对手工标注的车辆样本数据多次迭代来训练卷积神经网络和区域建议网络获取车辆检测的先验模型,再由先验模型检测出测试影像中车辆目标。与传统的基于梯度方向直方图(HOG)特征和支持向量机(SVM)车辆检测算法进行比较,在检测率方面,区域卷积神经网络算法明显高于HOG+SVM算法;在误检率方面,区域卷积神经网络检测明显小于HOG+SVM算法;在检测时间方面,同样的一张图像,区域卷积神经网络检测速度比HOG+SVM算法提升近800倍。试验结果表明:利用区域卷积神经网络方法进行大范围车辆检测,在精度和速度方面都有显著提升。  相似文献   

11.
行人的安全问题是智能交通系统中一个重要的环节,针对目前交通环境使用了一种融合了车载的激光雷达和摄像头数据的行人检测方法,将雷达和摄像头联合标定,将由雷达数据聚类得到的目标区域投影到图像中获取兴趣区域,然后根据行人对称度分析,腿部垂直边缘统计和基于Hausdorff距离的模板匹配的结果,分辨行人与非行人区域.并在交通仿真软件PRESCAN中把该车载的行人检测系统建模仿真,并添加该文的行人检测算法模块,论证了该算法的鲁棒性.   相似文献   

12.
人群计数是计算机视觉领域的重要任务。交通场景中的人群计数任务对于维护公众出行安全、实现交通智能化具有重要作用。公共交通场景中通常存在行人相互遮挡、背景复杂等现象,给人群计数带来了困难。为了实现高精度的人群计数,研究了基于注意力机制的人群密度估计网络。网络包含3个部分:特征提取模块通过生成多尺度的特征图,增强网络的特征表达能力,提高网络对行人大小变化的鲁棒性;注意力模块通过抑制背景噪声响应,强化人群特征响应,生成特征图中人群区域的概率分布,增强网络区分人群区域与背景区域的能力;密度估计模块在注意力机制的约束下指导网络回归高分辨率的人群密度图,提高网络对人群区域的敏感性。设计了基于背景感知的结构损失函数,能够降低模型的错误识别率,提高模型的计数准确率;采用多级监督机制指导网络进行学习,能够帮助梯度反向传播和减少过度拟合,进一步提高网络的人群计数精度。在公共数据集ShanghaiTech上进行了实验,实验结果表明:与目前最先进的算法相比,在ShanghaiTechA和ShanghaiTechB数据集上,平均绝对误差(mean absolute error,MAE)分别提高了2.4%和1.5%...  相似文献   

13.
传统的车辆视频检测算法都是基于带有复杂背景的面阵CCD图像,不利于对象分割和特征提取。线阵CCD图像的背景比较单一,且帧率远高于面阵CCD,可以实现高精度的车辆检测。提出基于小波变换的线阵CCD图像的车辆检测算法。试验结果证明该算法能有效降低光照和汽车阴影等因素造成的误检率。  相似文献   

14.
刘军  陈岚磊  李汉冰 《汽车工程》2021,43(1):50-58,67
针对复杂交通场景下单个模型无法同时对可行驶区域和交通目标进行统一检测和检测实时性较差的问题,本文中提出了一种基于类人视觉的多任务交通目标单阶段检测模型,实现了可行驶区域和车辆、行人的实时统一检测.首先建立类人视觉注意力机制进行监督,采用轻量化模型MobileNetV3作为骨架,接着利用特征金字塔的思想对可行驶区域进行检...  相似文献   

15.
针对现有端到端自动驾驶模型输入数据类型单一导致预测精确度低的问题,选取RGB图像、深度图像和车辆历史连续运动状态序列作为多模态输入,并利用语义信息构建一种基于时空卷积的多模态多任务(Multimodal Multitask of Spatial-temporal Convolution,MM-STConv)端到端自动驾驶行为决策模型,得到速度和转向多任务预测参量。首先,通过不同复杂度的卷积神经网络提取场景空间位置特征,构建空间特征提取子网络,准确解析场景目标空间特征及语义信息;其次,通过长短期记忆网络(LSTM)编码-解码结构捕捉场景时间上、下文特征,构建时间特征提取子网络,理解并记忆场景时间序列信息;最后,采用硬参数共享方式构建多任务预测子网络,输出速度和转向角的预测值,实现对车辆的行为预测。基于AirSim自动驾驶仿真平台采集虚拟场景数据,以98 200帧虚拟图像及对应的车辆速度和转向角标签作为训练集,历经10 000次训练周期、6 h训练时长后,利用真实驾驶场景数据集BDD100K进行模型的测试与验证工作。研究结果表明:MM-STConv模型的训练误差为0.130 5,预测精确度达到83.6%,在多种真实驾驶场景中预测效果较好;与现有其他主流模型相比,该模型综合场景空间信息与时间序列信息,在预测车辆速度和转向角方面具有明显的优势,可提升模型的预测精度、稳定性和泛化能力。  相似文献   

16.
智能驾驶作为汽车领域的一项前沿技术,日益受到广泛关注。人脸检测在智能驾驶中扮演着重要的角色,通过实时监测驾驶员和乘客的脸部特征能够提高车辆内部环境感知能力,增强系统对驾驶员和乘客的理解,从而提升交通安全性、舒适性和个性化服务体验。文章首先回顾了基于传统特征提取的人脸检测算法,然后介绍了基于深度学习的几种主流检测方法,包括基于级联卷积网络、单阶段检测及双阶段检测算法,分析了这几种算法的结构和优缺点并介绍了轻量级检测方法。最后,对未来的研究方向进行了展望。  相似文献   

17.
变化光照条件下交通标志检测算法的准确率往往会显著降低。针对此问题,提出了1种新颖的概率图建立方法,并结合最大稳定极值区域特征进行交通标志检测。该方法包括3个处理步骤:①根据不同光照条件对真实场景交通标志样本图像进行明确分类以构建多类颜色直方图,将交通标志输入图像由原始色彩表达转变为概率图(直方图反投影);②通过在概率图上进行 MSER特征提取,获取候选的交通标志区域;③根据候选区域的面积、宽高比等特征快速有效去除非交通标志区域。实验结果表明在弱光照和强光照条件下基于归一化RGB的交通标志检测算法检测准确率分别下降到84.4%和83.0%,基于红蓝图的交通标志检测算法检测准确率分别下降到87.4%和86.3%,提出的算法在变化光照条件下依然可以保持90%以上的检测准确率,对光照变化有较好的鲁棒性。   相似文献   

18.
基于改进YOLOv2模型的驾驶辅助系统实时行人检测   总被引:1,自引:0,他引:1  
为解决驾驶辅助系统(ADAS)对复杂背景行人和小尺寸行人检测精度较低的问题,基于深度神经网络模型YOLOv2建立了ADAS实时行人检测模型YOLOv2-P。首先在特征提取网络中采用参数化修正线性单元激活函数,以从训练数据中自适应地学习参数,并在行人检测网络中采用多层特征图融合方法,将低层特征图信息与高层特征图信息进行融合;然后使用交叉熵损失函数替代YOLOv2模型中的sigmoid激活函数,并对宽度、高度损失函数进行归一化处理;最后采用迭代自组织数据分析算法对行人数据集中行人边界框尺寸进行聚类。试验结果表明:相比于YOLOv2,YOLOv2-P对复杂背景行人及小尺寸行人的检测精度有明显提升,能够满足ADAS行人检测准确性和实时性需要。  相似文献   

19.
针对城市混合交通的复杂场景图像中多目标及其参数的检测问题,提出了一种由改进的帧间差分与边缘提取相结合的算法。利用帧间差分法检测车辆的存在,对帧差图像运用统计滤波算法提取多运动目标,通过形态学方法提取并细化目标边缘,根据主边缘(轮廓)信息完成车辆定位,最终结合摄像机标定结果计算出多目标交通参数。算法避免了复杂场景的背景建模,减少了运算量。实验结果表明,该算法不仅能较为准确地检测多运动目标的参数,而且具有较强的实时性。  相似文献   

20.
本文中针对现有检测方法中不能有效区分行人和骑车人两类目标的问题,提出了一种基于深度神经网络的行人和骑车人联合检测方法;而针对道路环境中的行人与骑车人联合检测误检漏检频繁、小尺寸目标检测效果不佳和背景环境复杂多变等问题,设计了难例提取、多层特征融合和多目标候选区域输入等多种深度神经网络改进方案,以实现行人与骑车人的联合检测。在公开的行人与骑车人数据库上进行的试验表明,所提出的方法对行人或骑车人的识别率高,且能有效区分彼此,其有效性得到了验证。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号