首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 312 毫秒
1.
道路目标检测环节是自动驾驶领域的关键技术之一,随着人工智能的发展应用逐渐广泛。文章基于YOLOv5网络提出一种新的目标检测方法,改进包括融合了ShuffleNet V2中的模块,使用GhostConv改造了传统的Conv模块等。先在不同道路环境中实时采集视频流,并进行图片和视频流的标注。在主干网络中融入ShuffleNet V2中的模块并使用GhostConv模块改进Conv模块,在降低模型权重的同时对目标检测精度影响较小。将标注完成后的图片输入改进后的YOLOv5网络进行训练,并将得到后的模型与Deep SORT算法结合,进行目标检测追踪。实验结果表明,所得结果权重大小下降许多,而目标检测精确度有所上升。改进后的网络更加轻便,易于部署在边缘嵌入式设备上。  相似文献   

2.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

3.
为解决隧道内交通监控视频的低分辨率以及光照不均匀导致的再识别准确率偏低的问题,提出了一种基于多特征融合的车辆再识别方法,通过充分利用车辆的各种有效特征信息提升车辆再识别精确度。首先,将卷积块注意力模块(Convolutional Block Attention Module, CBAM)嵌入到YOLOv5模型的骨干网络卷积层,同时采用CIoU损失和DIoU-NMS方案,提高车型检测准确率;其次,使用改进DeepSORT的表观特征提取网络和ResNet网络,分别获取深度卷积神经网络(Deep Convolution Neural Networks, DCNN)特征和车型ID特征;再次,将车型特征、DCNN特征及车辆ID特征使用加和表示层进行融合,形成可鉴别身份特征,以提高车辆再识别精度;最后,基于Softmax交叉熵损失和三元组损失设计指标函数并进行学习,对学习结果进行重排序以进一步提高模型的精度,并将算法在公开数据集VeRi776、VehicleID和自建数据集Tunnel_Veh4C进行训练验证。结果表明:与现有方法相比,提出的Rank-1、Rank-5和Rank-10识别准确率以及...  相似文献   

4.
车辆轨迹通常用于驾驶行为建模和交通安全领域。为获取交通视频中车辆轨迹,提出一种基于深度学习的自动采集方法。利用YOLOv5检测器在连续帧中的感兴趣区域进行车辆检测,通过DeepSORT跟踪器进行稳健而快速的车辆跟踪,该追踪器可以有效减少目标ID的跳变,提升跟踪稳定性,通过透视变换得到车辆的真实世界坐标并使用局部加权回归算法进行轨迹平滑。实验结果表明,该方法在高速公路监控数据集上的平均多目标跟踪准确率达96.1%,轨迹采集的平均准确度超过了93%,平滑算法能有效去除轨迹噪声。  相似文献   

5.
针对传统路端车辆目标检测算法参数多、检测速度较慢等问题,提出了基于YOLOv5 的车辆目标检测算法轻量化改进。首先,选用轻量化 EfficientnetV2 卷积神经网络对原骨干网络进行重构,同时在网络中引入 GAM 注意力机制;其次,为平衡 CIoU 损失和 IoU 损失在损失函数中的权重,引入 α-CIoU 损失代替原有的 CIoU 损失;最后,使用 soft-NMS 算法替换原有的 NMS 非极大值抑制算法。结果表明:相比原算法,改进后算法的精度提升了.51%,检测速度提升了 8.6%,模型大小降低了 31.7%;改进后的模型在提升检测速度的同时,还提高了路端车辆目标的检测性能。  相似文献   

6.
从监控图像中准确检测船舶对于港区水域船舶交通智能监管具有重要意义。为解决雾霾条件下传统YOLOv5目标检测算法对船舶红外图像检测准确率低、小目标特征提取能力弱等问题,提出了基于Swin Transformer的改进YOLOv5船舶红外图像检测算法。为扩大原始数据集的多样性,综合考虑船舶红外图像轮廓特征模糊、对比度低、抗云雾干扰能力强等特点,改进算法提出基于大气散射模型的数据集增强方法;为增强特征提取过程中全局特征的关注能力,改进算法的主干网络采用Swin Transformer提取船舶红外图像特征,并通过滑动窗口多头自注意力机制扩大窗口视野范围;为增强网络对密集小目标空间特征提取能力,通过改进多尺度特征融合网络(PANet),引入底层特征采样模块和坐标注意力机制(CA),在注意力中捕捉小目标船舶的位置、方向和跨通道信息,实现小目标的精确定位;为降低漏检率和误检率,采用完全交并比损失函数(CIoU)计算原始边界框的坐标预测损失,结合非极大抑制算法(NMS)判断并筛选候选框多次循环结构,提高目标检测结果的可靠性。实验结果表明:在一定浓度的雾霾环境下,改进算法的平均识别精度为93.73%,平...  相似文献   

7.
融合毫米波雷达与深度视觉的多目标检测与跟踪   总被引:1,自引:0,他引:1  
针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究。首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自适应扩展卡尔曼滤波算法。然后,为提高目标检测精度与速度,基于采集到的实车数据集训练卷积神经网络,完成深度视觉的多车辆检测。最后,采用决策级融合策略融合毫米波雷达与深度视觉信息,设计了一种用于复杂交通环境下前方车辆多目标检测与跟踪的框架。为验证所设计的框架,进行了不同交通环境下的实车实验。结果表明:该方法可实时检测跟踪前方车辆,具有比融合毫米波雷达与传统机器视觉的车辆检测方法更好的可靠性与鲁棒性。  相似文献   

8.
通过对YOLOv5机器视觉框架进行二次开发,同时融合DeepSORT追踪算法,实现对桥梁交通车辆时空信息的提取和车辆轨迹的追踪。改进了传统的虚拟线圈法,实现了对车辆速度的测量,避免对传统方法中因检测线圈的像素变化进行阈值的设定,提高了算法的普适性。最后,将算法应用到实际的场景中与测速仪结果进行对比,其中平均误差在1%以内,误差最大值控制在为15%以内。  相似文献   

9.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

10.
佟守愚  程三伟  李江 《公路交通科技》2006,23(10):113-116,123
针对高速公路上车辆违章超速行为,给出了一种基于虚拟视频检测线的车辆速度检测与违章超速行为判定的实用算法。对影响该算法精度的各种影响因素进行了详细的分析,特别是针对检测线的数量与间距设置、图像采集卡的采集频率等对算法的影响进行了细致的讨论,并给出了算法条件下,所能检测的最高理论车速。对在应用中可能存在的漏检、误检情况,提出了解决办法。通过实验验证了该算法具有良好的适应性和较高的检测率。  相似文献   

11.
在自动驾驶系统中,基于视觉的车辆前方多目标检测和轨迹跟踪能够为前方目标的姿态估计、行为分析提供有效信息。针对协同运动信息和核相关滤波跟踪信息的多目标跟踪的不足,使用卷积神经网络YOLOv2检测目标,提出了融合核相关滤波和目标运动信息的多目标轨迹跟踪方法,目的是将运动信息融入到图像特征跟踪容器中,优化运动模型,减少环境噪声造成的目标跟踪丢失、偏离。提出了基于运动信息改进核相关滤波跟踪尺度不变性算法。建立了多目标的检测跟踪容器,提出了结合目标属性、重合度、运动状态、跟踪状态的多目标匹配方法。实验表明,本文算法能够实现一定场景下的多目标的持续实时轨迹跟踪,平均有效跟踪率为92.5%。  相似文献   

12.
提出了一种用于基于视频的交通事件自动检测的交通行为模式学习方法。首先为了获取利用神经网络进行车辆行为模式学习所需的训练数据,一种基于运动估算的车辆跟踪算法被建立,将采集到的灰度视频图像序列转化为车辆标号场时空序列。其次,使用轨迹建模和编码的方法,将跟踪结果转化为轨迹数据用于网络训练。在此基础上,建立自组织神经网络,并针对自组织网络的不足使用改进的GSOM模型,选择欧氏范数作为测度,自主开发了试验软件,以U形转事件为对象开展试验,对轨迹数据进行学习。对比试验结果表明改进的GSOM算法能有效提取行为模式。GSOM相比SOM用于行为模式学习更为有效和准确。  相似文献   

13.
视频车辆检测技术中的阈值分割算法研究   总被引:1,自引:0,他引:1  
为了提高视频交通检测交通流参数提取的精度,研究了视频交通检测技术.中的阈值分割算法;文中使用分形维数法、双峰法、迭代法和大津法研究了获取图像的阈值分割方法使得车辆和背景分离。结果表明,分形维数法处理时间较长;迭代法编写程序较复杂,且运算时间长;由于双峰法对满足一定要求的图像处理效果较好,而试验证明双峰法不适用与车辆视频图像处理。大津法分割后得到的二值图像中仍然存在车辆内部存在黑色像素点的问题,但其效果图中车辆与背景的分离情况较好。所以课题中选取大津法作为视频车辆检测中闽值分割的最终处理算法。  相似文献   

14.
为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测.将车辆检测结果作为跟踪样本建立跟踪样本集合,通过建立匹配点对几何约束消除误匹配特征对,提高跟踪样本与待跟踪视频帧的SURF特征匹配准确度.针对车辆驶入、驶离相机视野,车辆间歇性运动,背景缓慢变化等情况提出跟踪样本更新机制,实现车辆的准确、实时跟踪.实验结果显示,所提算法的车辆检测率为88.3%,检测准确度为90.2%;跟踪精确度为86.4%,跟踪准确度为92.7%;检测时间成本为91.8ms,跟踪速率为52.2fps.检测准确度、跟踪准确度、检测速率、跟踪速率均高于光流法、粒子滤波法和SIFT特征匹配法,表明所提算法能较好地满足实时性应用.   相似文献   

15.
上下客行为是常见的人车交互交通行为,但随意地在路边或者禁停区域上下客,不但容易干扰道路交通秩序,还可能造成人员伤亡的恶性交通安全事故,需要及时检出以便疏导管理。受益于智慧灯杆的开发和部署,全路段的上下客行为检测成为可能。设计了一种基于智慧灯杆监控视频的人车交互行为模型HVIB(Human-Vehicle Interaction Behavior)及上下客行为识别方法,实现路边停车和上下客行为的检测。人车交互行为模型HVIB由车辆运动状态检测模块和人车关系检测模块组成。在车辆运动状态检测模块中,利用YOLOv4(You Only Look Once,Version 4)目标检测模型和SORT(Simple Online and Realtime Tracking)跟踪算法输出高置信度目标信息,并抽取车辆时空位置特征表达。在人车关系检测模块中,结合人与车辆的空间位置变化和相对运动方向,形成人车关系的时空特征表达。通过计算视频中人车时空位置特征,基于车辆运动状态判别函数和人车关系判别函数输出车辆运动状态和人车关系类别,并依据不同人车交互行为的定义,可以实现上下客行为识别。使用真实城市交通场景视频数据,对多种天气条件(晴天、阴天、雨天)下的不同人车行为进行了识别试验。试验结果表明:所提出的方法可以全天候工作,其中在白天多种天气条件下,停车和上下客行为的检测准确率能达到90%和87%以上,夜晚正常天气条件下分别为82.5%和77.5%;同时,检测速度在每秒30帧以上,满足实际应用的实时性要求。  相似文献   

16.
提出基于速度分类算法的交通事件实时视频检测方法,并对交通量检测方法、车辆跨道处理、速度检测、交通状况检测及交通事件识别等进行了研究.在车辆检测与跟踪的基础上,可实现车辆停止、慢行、车道变换次数和车流拥挤等交通事件识别功能,通过自动检测车辆避障、车道变换、超速、慢速、停止和交通阻塞等事件,获得交通流量、占有率、排队长度、车型和平均车速等交通参数.与传统交通事件检测系统相比,具有直观方便、费用低等优点.   相似文献   

17.
针对日益严重的道路交通拥挤问题,基于视频检测获得的道路占有率、平均速度、车流量3个交通特征参数,提出适用于城市交通拥堵判别的改进模糊综合判别模型。通过研究交通特征参数与道路拥挤状况的关系,提出拥堵预判别和依据不同拥堵状况采用不同权重集合的方法。通过实际采集的视频数据,对算法进行验证,以证明本文方法的有效性。  相似文献   

18.
现有的无人机(UAV)交通状态感知方法,主要针对宏观交通状态参数的获取,同时尚未克服UAV自运动对交通参数检测精度的影响,难以满足智能交通系统对于高精度微观交通参数的应用需求。为此,提出一种基于地空信息融合的UAV交通状态感知方法,该方法包括:地空信息融合模型、道路关键点(IKP)检测及跟踪、车辆目标检测及追踪算法和交通状态参数提取及估计。其中,地空信息融合模型利用地基信息(IKP世界坐标)与空基信息(IKP像素坐标)进行最优化融合,并通过自适应IKP追踪算法与自适应UAV位置偏移判断算法实时更新模型参数,以此克服UAV自运动对车辆轨迹精度的影响,进而获取可靠的车辆级(瞬时速度、车头间距和车头时距)与车道级(车道动态密度、车道流量和空间平均车速)交通状态参数。利用提出的感知方法获取实地拍摄视频的车辆级交通参数并进行了分布检验,同时比较了基于不同交通流模型的车道级参数估算方法。结果表明:该方法在车辆检测的mAP@0.5指数超过90%,同时提取的车辆轨迹相对完整,获取的车辆级和车道级交通状态参数也符合实际交通流状况。最后,将该模型应用于实地道路的交通拥堵检测及交通事件检测,该研究结果为UAV在现代交通感知和管理中的应用提供了一种理论和技术参考。  相似文献   

19.
为提高未来自动驾驶车辆对弱势道路使用群体的感知和决策融合的可靠性,本文提出一种基于目标检测算法(YOLOv5)、多目标跟踪算法(Deep-Sort)和社交长短时记忆神经网络(social-long short-term memory,Social-LSTM)的行人未来运动轨迹预测方法。结合YOLOv5检测和Deep-Sort跟踪算法,有效解决行人检测跟踪过程中目标丢失问题。提取特定行人目标历史轨迹作为预测框架的输入边界条件,并采用Social-LSTM预测行人未来运动轨迹。并对未来运动轨迹进行透视变换和直接线性变换,转换为世界坐标系中的位置信息,预测车辆与行人的可能未来碰撞位置。结果显示目标检测精度达到93.889%,平均精度均值达96.753%,基于高精度的检测模型最终轨迹预测算法结果显示,预测损失随着训练步长的增加呈递减趋势,最终损失值均小于1%,其中平均位移误差降低了18.30%,最终位移误差降低了51.90%,本研究可为智能车辆避撞策略开发提供理论依据和参考。  相似文献   

20.
为了解决交通路段不连续监控区域车辆目标的自动识别跟踪问题,提出了一种不连续空间车辆识别跟踪算法.该算法分为识别阶段和跟踪阶段,识别阶段利用高斯概率密度估计的方法建立前一场景中某个车辆目标的概率函数,再通过概率函数计算出出现在下一场景中的所有车辆的匹配概率,用概率阈值确定是否有车辆与前一场景的车辆目标匹配,匹配的车辆在下一场景中将被标记识别.而在跟踪阶段中车辆的跟踪基于无迹卡尔曼滤波(UKF),通过状态预测同时跟踪不同的车辆目标.该算法可以解决在不同路段的监控视频中自动识别并跟踪肇事潜逃车辆等实际问题.通过试验测试表明,该算法在车辆目标的识别上具有一定的精准性,且能够实现对车辆目标的实时跟踪.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号