首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
刘子龙  沈祥飞 《汽车工程》2022,(10):1511-1520+1536
针对目前自动驾驶领域的目标检测算法在对道路小目标和密集目标进行检测的时候出现漏检的问题,提出一种融合Lite-HRNet的Yolo v5网络。首先为了获得高分辨率的特征检测图将Lite-HRNet作为Yolo v5的主干网络,以增强对小目标及密集目标的检测。为提升暗光场景下的检测性能,将红外图像与可见光图像进行动态权值融合,充分发挥可见光图像与红外图像的互补优势。由于主干网络进行了充分的特征融合,为加快检测速度取消在检测层中的特征融合结构。其次为了加快收敛速度和提高回归精度采用α-EIoU作为边界框损失函数,同时为选取针对数据集更合适的先验框,使用二分K-means算法进行聚类,并且使用小目标数据增强算法对数据集进行样本扩充。最后在flir数据集上进行对比测试,根据实验结果,提出的算法比Yolo v5在平均精度上提高了7.64%,小目标和密集目标的漏检率明显减少。  相似文献   

2.
针对传统路端车辆目标检测算法参数多、检测速度较慢等问题,提出了基于YOLOv5 的车辆目标检测算法轻量化改进。首先,选用轻量化 EfficientnetV2 卷积神经网络对原骨干网络进行重构,同时在网络中引入 GAM 注意力机制;其次,为平衡 CIoU 损失和 IoU 损失在损失函数中的权重,引入 α-CIoU 损失代替原有的 CIoU 损失;最后,使用 soft-NMS 算法替换原有的 NMS 非极大值抑制算法。结果表明:相比原算法,改进后算法的精度提升了.51%,检测速度提升了 8.6%,模型大小降低了 31.7%;改进后的模型在提升检测速度的同时,还提高了路端车辆目标的检测性能。  相似文献   

3.
针对当前机器视觉识别中车流量检测的精度问题,以YOLOv7人工智能算法为基础,通过视觉跟踪并叠加注意力机制,提出一种基于YOLOv7和Deep SORT的改进型车流量智能检测方法。通过将注意力模块GAM与YOLOv7网络进行融合增强检测网络的特征提取能力;同时在改进后的YOLOv7网络中引入Deep SORT跟踪算法以改善车辆间相互遮挡导致复检漏检问题。实验选取重庆市渝中区经纬大道双向六车道为研究对象,在新铺社天桥上采用固定相机连接移动笔记本电脑的方式进行数据采集以及算法验证,为了保证算法的可重复性,分别选取早高峰、午平峰和晚高峰3个时段分别录取了5 min的交通流视频。利用在交通视频中通过设置虚拟检测线,让新算法在车辆检测的同时对车辆运行轨迹进行跟踪,当车辆经过检测线时记录车辆的身份编号,以此来实现交通视频的车流量监测与跟踪计数。实验结果表明:改进后的新算法相比于原YOLOv7算法在车辆检测方面平均精度提高了2.3%,视频车流量统计的精度提高了8.2%。  相似文献   

4.
基于改进YOLOv2模型的驾驶辅助系统实时行人检测   总被引:1,自引:0,他引:1  
为解决驾驶辅助系统(ADAS)对复杂背景行人和小尺寸行人检测精度较低的问题,基于深度神经网络模型YOLOv2建立了ADAS实时行人检测模型YOLOv2-P。首先在特征提取网络中采用参数化修正线性单元激活函数,以从训练数据中自适应地学习参数,并在行人检测网络中采用多层特征图融合方法,将低层特征图信息与高层特征图信息进行融合;然后使用交叉熵损失函数替代YOLOv2模型中的sigmoid激活函数,并对宽度、高度损失函数进行归一化处理;最后采用迭代自组织数据分析算法对行人数据集中行人边界框尺寸进行聚类。试验结果表明:相比于YOLOv2,YOLOv2-P对复杂背景行人及小尺寸行人的检测精度有明显提升,能够满足ADAS行人检测准确性和实时性需要。  相似文献   

5.
为实现更快速、准确的疲劳预警,提出了一种基于并行短时面部特征的驾驶人疲劳检测方法。基于加入了MicroNet模块、CA注意力机制、Wise-IoU损失函数的YOLOv7-MCW目标检测网络提取驾驶人面部的短时面部特征,再使用并行Informer时序预测网络整合YOLOv7-MCW目标检测网络得到的面部时空信息,对驾驶人疲劳状态进行检测与预警。结果表明:在领域内公开数据集UTA-RLDD和NTHU-DDD上,YOLOv7-MCW-Informer模型的准确率分别为97.50%和94.48%,单帧检测时间降低至28 ms,证明该模型具有良好的实时疲劳检测性能。  相似文献   

6.
针对小尺寸、远距离的交通标志检测过程中缺少信息的问题,以改进的更快速区域卷积神经网络(Faster R-CNN)检测器为基础,结合生成对抗网络(GAN)的目标检测算法实现对小目标交通标志的检测。Faster R-CNN首先根据期望目标设定合适的锚点数量,生成包含小目标的候选区域,再使用生成网络对候选区域中的模糊小目标进行上采样,生成高分辨率图像,最后使用分类损失函数与回归损失函数对判别网络进行改进。试验结果表明,Faster R-CNN和生成对抗网络相结合的检测算法可以提高远距离小目标交通标志检测性能。  相似文献   

7.
赵东宇  赵树恩 《汽车工程》2023,(7):1112-1122
针对图像和原始点云三维目标检测方法中存在特征信息残缺及点云搜索量过大的问题,以截体点网(frustum PointNet, F-PointNet)结构为基础,融合自动驾驶周围场景RGB图像信息与点云信息,提出一种基于级联YOLOv7的三维目标检测算法。首先构建基于YOLOv7的截体估计模型,将RGB图像目标感兴趣区域(region of interest, RoI)纵向扩展到三维空间,然后采用PointNet++对截体内目标点云与背景点云进行分割。最终利用非模态边界估计网络输出目标长宽高、航向等信息,对目标间的自然位置关系进行解释。在KITTI公开数据集上测试结果与消融实验表明,级联YOLOv7模型相较基准网络,推理耗时缩短40 ms/帧,对于在遮挡程度为中等、困难级别的目标检测平均精度值提升了8.77%、9.81%。  相似文献   

8.
针对复杂道路环境下交通目标与背景区分度低、交通小目标密集度高、部分遮挡严重、容易产生漏检、误检等问题,提出了一种融合注意力的无损跨尺度复合空洞残差网络的交通目标检测算法。通过改进SSD基础骨干网络和残差结构,加强网络提取强表征性的高级语义信息能力,解决信息传递损耗和丢失问题。在此基础上提出一种新的多视野聚合空洞残差单元,通过设置不同膨胀率的空洞卷积,获得不同大小感受野,聚合上下文信息实现大目标与小目标的兼顾。提出一种新的无损失跨尺度融合模块,通过该模块进行通道重组,结合通道维度信息填充像素,实现跨通道像素信息融合,进一步提升特征提取的能力。同时引入了坐标注意力机制,将轴向的空间坐标通道信息有效整合到生成注意力图中,构建出能够捕获跨通道信息且包含方向感知和位置敏感信息的注意力残差单元与多视野聚合空洞残差单元。此外,通过引入Soft-NMS降低与高置信度预测框重叠度较大的目标框的置信度,增加二次检测机会,提升了网络模型召回率。最后引入解耦检测头以加快模型收敛速度和提高检测精度。在VOC数据集07+12上的试验结果表明,算法平均精度提升了6.46%,证明了提出算法的准确性和鲁棒性。  相似文献   

9.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

10.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

11.
港船作业区域人员的异常行为识别可为智能航运的管控与决策提供重要数据支撑,有利于推动智慧港口和智能船舶的发展.基于异步交互聚合网络开展了面向港船工作环境下的人员异常行为识别研究.基于YOLO模型对港船图像进行卷积操作,利用特征金字塔优化卷积结果得到图像序列中每一帧的人员位置,结合联合学习检测和嵌入范式输出港船图像序列中的...  相似文献   

12.
近年来,社会经济持续高速的发展,人均汽车占有量迅速增加。为了避免车辆追尾等事故发生,结合道路环境下目标检测的难点及要求,文章选择基于卷积神经网络的YOLOv3算法,并针对YOLOv3中使用的k-means聚类算法初始时随机选择质心这一不稳定性以及原本的darknet53网络层数较低导致精度不是很高的问题,引用k-means++聚类算法对k-means聚类算法进行优化,并将darknet53替换成特征提取能力更强的resnet101,进行算法优化。实验结果显示优化后的算法mAP提高了12.2%,基本符合实际应用检测的精度要求。  相似文献   

13.
轨迹聚类在船舶行为分析与海事监管等领域发挥着重要作用。船舶轨迹存在长度与采样率不一致、结构差异明显等特点,在大范围水域难以实现大量船舶轨迹的高精度与快速聚类。针对该问题,在利用船舶自动识别系统获取海量船舶历史航行数据的基础上,提取与船舶航行行为、船舶交通密度相关的位置特征点,进而提出了多特征点驱动的船舶轨迹聚类方法。针对船舶航行时在大多数情形下具有保向、保速的特点,采用数据压缩的方法捕获船舶航行状态以及船舶航向发生显著变化的轨迹点,作为船舶轨迹结构特征点;针对目标水域中某些特定区域常存在船舶交叉会遇的情形,利用概率密度估计法分析船舶交通流的空间分布特点,并提取船舶会遇局面下的轨迹点,作为船舶交通流特征点;为剔除2类特征点中的异常值,采用密度聚类算法对特征点进行聚类,进一步提高特征点提取的可靠性,并将聚类结果中每类特征点的中心作为代表性特征点;统计途经代表性特征点的船舶轨迹分布情况,将具有相似分布的船舶轨迹视为同一类。实验结果表明:相比于常用的K-medoids聚类、层次聚类、谱聚类和DBSCAN等方法,提出的轨迹聚类方法在成山头水域、长江口南槽水域及舟山水域等典型区域均可获得优异的聚类...  相似文献   

14.
针对日益凸显的船舶值班人员疲劳驾驶问题,为有效预警值班驾驶员的疲劳状态,保障船舶航行安全,研究了基于深度学习的疲劳检测算法。考虑到船舶驾驶台空间大、背景复杂等特点,使用深度可分离卷积改进RetinaFace人脸检测模型,优化模型的检测速度;基于Channel Split和Channel Shuffle思想,结合批量归一化、全局平均池化等技术搭建改进的ShuffleNetV2网络,自动提取图像特征,识别眼睛、嘴巴的开闭状态;根据PERCLOS准则融合眼睛、嘴巴2个特征参数综合判定驾驶员是否疲劳。实验结果表明:改进后RetinaFace模型的检测速度由9.33帧/s提升至22.60帧/s,人脸检测精度和速度均优于多任务卷积神经网络(MTCNN);改进的ShuffleNetV2网络识别眼睛、嘴巴状态的准确率高达99.50%以上;算法在模拟驾驶台环境中识别疲劳状态的精确率达到95.70%,召回率达到96.73%,均高于目前常见的Haar-like+Adaboost以及MTCNN+CNN疲劳检测算法。算法检测每帧图片仅需0.083 s,基本满足实时检测的要求。   相似文献   

15.
为提高行人检测的准确率,提出一种基于卷积神经网络的行人检测方法。该方法以YOLOv3-tiny算法为基础,在骨干网络部分,用深度可分离卷积的网络结构代替原卷积网络结构,加深网络深度。在检测部分,提出一种改进的多级特征金字塔网络,该网络由8个结构相同的使用深度可分离卷积的特征金字塔组成,特征金字塔之间串联连接,将不同金字塔得到的相同尺寸的特征进行融合,利用融合后的特征金字塔进行检测。在Caltech Pedestrian数据集上进行测试。结果表明:该方法的漏检率为57.83%,比梯度方向直方图(HOG)方法低32.53%,比基于深度学习的方法SA Fast-RCNN和MS-CNN分别低4.67%、3.21%;运行速度为34 ms/帧。因而,该方法满足了实时性要求。  相似文献   

16.
针对现有SegNet算法难以精确区分裂缝和灌封裂缝等具有相似特征的沥青路面病害的问题,提出了基于改进SegNet网络的沥青路面病害提取方法。针对道路标线和光照不均匀等导致路面病害图像质量差异化的因素,本研究在去除道路标线的基础上,运用带色彩恢复的多尺度视网膜增强算法,降低道路标线和光照对图像质量的影响以及增强路面病害图像的对比度、色调和亮度,提高病害的识别精度;为了充分利用图像的上下文信息,解决SegNet网络对细微病害分割效果不佳的问题,引入残差神经网络(ResNet)作为编码器,并对解码器中每个上采样产生的特征图拼接2个分别由卷积层(1×1的卷积核)和空洞卷积层从对应的编码器中获取的尺度相同的特征图;运用形态学闭运算连接分割结果中不连续的裂缝。为了验证改进算法的有效性,将其与典型的语义分割方法(SegNet和BiSeNet)在测试集上进行测试和性能对比。研究结果表明,3种方法的平均交并比(MIoU)和F1分数(F1-score)分别为(82.4%,98.9%),(69.4%,94.0%),(80.5%,98.1%);利用这3种方法对甘肃省部分路段路面病害的提取效果进行对比测试,提出方法的裂缝漏检率和误检率分别为2.91%,1.94%,优于SegNet(10.68%,14.56%)和BiSeNet(6.80%,12.62%)。本研究所提方法能够更精确地提取和区分沥青路面裂缝和灌封裂缝。   相似文献   

17.
车牌定位是车牌自动识别系统的关键。提出了一种以纹理特征为主要手段,以彩色特征为辅助手段的多特征定位算法,对不同背景和光照条件下的各类车牌图像进行了实验,结果表明该算法是一种可行的方法。  相似文献   

18.
SuBSENSE是一种融合颜色特征和纹理特征的通用运动目标检测算法,同时算法中的参数自适应反馈机制使得背景模型能够良好地适应内河环境的多样性,在多种检测环境下达到参数最优化设置.针对一般运动目标检测算法用于内河船舶检测时,难以克服水波纹干扰这一问题,提出将SuBSENSE与基于全局对比度的显著性区域检测方法结合进行波纹抑制.利用水面显著值较低这一特性,通过设置适当阈值对显著图进行二值化,从而分离船舶与水面区域.将显著图与SuBSENSE检测结果进行与运算滤除背景干扰,即可得到船舶区域.实验证明,该方法能有效抑制内河环境中的波纹干扰,相比原SuBSENSE算法将综合表现提高了14.6%.   相似文献   

19.
大型港口集装箱码头运输车辆调度频繁,堆场过道和交换区等区域视距狭窄,容易导致港口集装箱卡车与设施、作业人员和车辆发生擦碰事故。为提高智能集装箱卡车在港口密集区域的轨迹跟踪精度和行车安全感知能力,提出了一种车联网条件下融合车载终端基本安全消息(Basic Safety Messages,BSM)数据和路侧视频数据的集装箱卡车碰撞风险辨识方法。采用YOLOv5s算法提取视频监控范围内的目标车辆和作业人员,根据目标集卡大尺寸特点设计非极大值抑制锚框来提高目标识别准确度。运用透视变换原理将目标像素坐标转换成地理坐标,并应用Deep-SORT算法匹配每帧图像的车辆轨迹信息。应用交互式多模型方法(interactive multi-model,IMM)融合视频轨迹信息和车载单元(on-board units,OBU)定位数据,减小了目标机动过程中的观测误差。基于集卡融合轨迹结果,提出了1种新型的轨迹冲突风险评估模型,能够根据目标集卡与周围目标轨迹的相对运动状态实时感知车辆碰撞危险,该碰撞危险检测结果在实际场景中可通过路侧设备对车载终端和作业人员终端实时播发预警信息。针对集卡跟踪误差的实验结果表明:...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号