首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
从监控图像中准确检测船舶对于港区水域船舶交通智能监管具有重要意义。为解决雾霾条件下传统YOLOv5目标检测算法对船舶红外图像检测准确率低、小目标特征提取能力弱等问题,提出了基于Swin Transformer的改进YOLOv5船舶红外图像检测算法。为扩大原始数据集的多样性,综合考虑船舶红外图像轮廓特征模糊、对比度低、抗云雾干扰能力强等特点,改进算法提出基于大气散射模型的数据集增强方法;为增强特征提取过程中全局特征的关注能力,改进算法的主干网络采用Swin Transformer提取船舶红外图像特征,并通过滑动窗口多头自注意力机制扩大窗口视野范围;为增强网络对密集小目标空间特征提取能力,通过改进多尺度特征融合网络(PANet),引入底层特征采样模块和坐标注意力机制(CA),在注意力中捕捉小目标船舶的位置、方向和跨通道信息,实现小目标的精确定位;为降低漏检率和误检率,采用完全交并比损失函数(CIoU)计算原始边界框的坐标预测损失,结合非极大抑制算法(NMS)判断并筛选候选框多次循环结构,提高目标检测结果的可靠性。实验结果表明:在一定浓度的雾霾环境下,改进算法的平均识别精度为93.73%,平均召回率为98.10%,平均检测速率为每秒38.6帧;与RetinaNet、Faster R-CNN、YOLOv3 SPP、YOLOv4、YOLOv5和YOLOv6-N算法相比,其平均识别精度分别提升了13.90%、11.53%、8.41%、7.21%、6.20%和3.44%,平均召回率分别提升了11.81%、9.67%、6.29%、5.53%、4.87%和2.39%。综上,所提的Swin-YOLOv5s改进算法对不同大小的船舶目标识别均具备较强的泛化能力,并具有较高的检测精度,有助于提升港区水域船舶的监管能力。  相似文献   

2.
环境感知是智能辅助驾驶的底层模块,单传感器感知存在易受干扰、所需配置传感器数量多和感知效果差等弊端,为此提出一种车载数字相机与激光雷达融合算法。综合考虑信息融合高效性与系统鲁棒性采取决策级融合策略,利用CENTER POINT算法对雷达点云数据进行处理,再利用Yolo v3算法进行密集型数据训练处理图像数据,最后使用交并比匹配(IOU)和已有文献的D-S论据实现数据融合并输出决策结果。经过KITTI数据集验证,该融合算法输出的识别效果优于单传感器,且在多种路况上均有良好的目标检测效果。  相似文献   

3.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。  相似文献   

4.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

5.
针对复杂道路环境下交通目标与背景区分度低、交通小目标密集度高、部分遮挡严重、容易产生漏检、误检等问题,提出了一种融合注意力的无损跨尺度复合空洞残差网络的交通目标检测算法。通过改进SSD基础骨干网络和残差结构,加强网络提取强表征性的高级语义信息能力,解决信息传递损耗和丢失问题。在此基础上提出一种新的多视野聚合空洞残差单元,通过设置不同膨胀率的空洞卷积,获得不同大小感受野,聚合上下文信息实现大目标与小目标的兼顾。提出一种新的无损失跨尺度融合模块,通过该模块进行通道重组,结合通道维度信息填充像素,实现跨通道像素信息融合,进一步提升特征提取的能力。同时引入了坐标注意力机制,将轴向的空间坐标通道信息有效整合到生成注意力图中,构建出能够捕获跨通道信息且包含方向感知和位置敏感信息的注意力残差单元与多视野聚合空洞残差单元。此外,通过引入Soft-NMS降低与高置信度预测框重叠度较大的目标框的置信度,增加二次检测机会,提升了网络模型召回率。最后引入解耦检测头以加快模型收敛速度和提高检测精度。在VOC数据集07+12上的试验结果表明,算法平均精度提升了6.46%,证明了提出算法的准确性和鲁棒性。  相似文献   

6.
针对高速路车辆移动速度快、检测器易出现漏检和误检、目标相互遮挡等问题,提出一种基于多种特征融合的高速路车辆多目标跟踪算法。检测器获取每帧目标检测框后,采用HSV颜色直方图和HOG直方图建立目标外观模型,通过卡尔曼滤波建立目标位置模型和尺寸模型,融合多种特征模型构建相似性度量矩阵,并利用二分图匹配解决在线数据关联问题。在KITTI车辆数据集和自采的高速车辆数据集上将该算法与若干经典算法进行比较,结果表明,该算法在跟踪正确率和跟踪速度上明显提升。  相似文献   

7.
程腾  倪昊  张强  王文冲  石琴 《汽车工程》2024,(2):222-229
针对点云的稀疏性和无序性对目标检测准确率的影响,本文提出了一种基于虚拟点云的二阶段多模态融合网络VPC-VoxelNet。首先,利用图像检测目标信息构造虚拟点云,增加点云的密集程度,从而提高目标特征的表现;其次,增加点云特征维度以区分真实和虚拟点云,并使用含置信度编码的体素,增强点云的相关性;最后,采用虚拟点云的比例系数设计损失函数,增加图像检测有监督训练,提高二阶段网络训练效率,避免二阶段端到端网络模型存在的模型误差累计问题。该目标检测网络VPC-VoxelNet在KITTI数据集上进行了测试,检测精度优于经典三维点云检测网络和某些多传感器信息融合网络,车辆检测精度达到了86.9%。  相似文献   

8.
为对混凝土病害图像进行更精确的实例分割,提出改进掩码-区域卷积神经网络(Mask Region Convolution Neural Network, Mask-RCNN)。该网络采用轻量级的可移动网络(MobileNetV2)代替原始Mask-RCNN中卷积层过大的主干网络——残差网络(ResNet101),加入路径聚合网络(PANet),以提高Mask-RCNN提取浅层特征信息的能力。为验证改进Mask-RCNN的识别精度及其在实际工程中的可行性,首先构建多类混凝土病害图像数据集,利用K-means聚类算法确定最适合该数据集的先验边界框的长宽比,然后对比改进Mask-RCNN与原始Mask-RCNN、其它主流深度学习网络对混凝土五类病害(裂缝、露筋、剥落、白皙和空洞)的识别结果;最后利用无人机采集到的钢筋混凝土桥梁病害图像作为测试集进行测试。结果表明:改进Mask-RCNN在提高计算速度的同时能更准确地定位病害,减少了误检和漏检,识别精度高于原始Mask-RCNN及其它深度学习网络;改进Mask-RCNN可以识别无人机拍摄的未经训练的新的混凝土病害图像,识别精度满足实际工程需求。  相似文献   

9.
基于毫米波雷达和机器视觉融合的车辆检测   总被引:1,自引:0,他引:1  
针对车辆检测中使用传统单一传感器的识别效果差、易受干扰等缺点,本文提出一种基于毫米波雷达和机器视觉融合的车辆检测方法.首先利用分层聚类算法对雷达数据进行处理,过滤无效目标;利用改进的YOLO v2算法降低漏检率,提高检测速度;然后运用目标检测交并比和全局最近邻数据关联算法实现多传感器数据融合;最后基于扩展卡尔曼滤波算法...  相似文献   

10.
为实现在自动驾驶复杂场景下检测数量变化的车道线,提出一种基于实例分割的车道线检测算法。首先以ResNet18网络作为主干网络提取图像特征,采用特征金字塔网络进行特征融合。同时设计一种扩张卷积残差模块来提高检测的精度;然后基于车道线的位置进行实例分割,利用语义分割出的车道线点位置预测对应的聚类点位置,通过对聚类点采用DBSCAN聚类算法实现车道线实例区分。结果表明,该算法能够在复杂的自动驾驶场景下有效地进行多车道线检测,在CULane数据集和TuSimple数据集上的调和平均值分别达到75.2%和97.0%。  相似文献   

11.
针对道路裂缝检测识别需人工参与、传统算法识别不准确等问题,提出一种基于YOLO v3深度学习算法的道路裂缝识别方法。首先将数据集图片缩放成416×416,然后利用Labelme对数据进行裂缝标注并对边界框位置信息进行转换,最后利用YOLO v3算法框架进行模型训练。结果表明:YOLO v3算法的精确率、召回率、F1分数都大于95%,图片检测速度达到0.123 1 s/张。YOLO v3深度学习算法在精度和速度上都满足了道路裂缝实时检测的要求。  相似文献   

12.
谢德胜  徐友春  陆峰  潘世举 《汽车工程》2022,(3):340-349+339
针对基于多传感器信息融合的3维目标检测,提出了一种实时高精度的双阶段深度神经网络PointRGBNet。第1阶段,在区域提案网络中,首先将3维点云投影到2维图像上生成6维RGB点云,然后对输入的6维RGB点云进行特征提取,得到低维特征图与高维特征图,利用融合后的特征图生成大量置信度较高的提案;第2阶段,在目标检测网络中,利用第1阶段生成的提案进行RoI池化,得到特征图上与每个提案对应的特征集合,通过针对性地学习提案的特征集合,实现了更精准的3维目标检测。在KITTI数据集上的公开测试结果表明,PointRGBNet在检测精度上不仅优于仅使用2维图像或3维点云的目标检测网络,甚至优于某些先进的多传感器信息融合网络,而且整个网络的目标检测速度为12帧/s,满足实时性要求。  相似文献   

13.
融合毫米波雷达与深度视觉的多目标检测与跟踪   总被引:1,自引:0,他引:1  
甘耀东  郑玲  张志达  李以农 《汽车工程》2021,43(7):1022-1029,1056
针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究.首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自适应扩展卡尔曼滤波算法.然后,为提高目标检测精度与速度,基于采集到的实车数据集训练卷积神经网络,完成深...  相似文献   

14.
为了进一步提高交通标志识别的检测精度,文章提出了一种改进的YOLO深度学习网络。其采用双向特征融合网络,引入较少的参数来实现更多的特征融合,并基于中国交通标志数据集计算瞄点框。通过与基准网络进行对比,结果显示,深度学习网络的检测性能更优,从而验证了改进网络的有效性。  相似文献   

15.
针对自动驾驶车辆在雾天情况下易将行人误检和漏检的问题,提出一种基于改进GCANet除雾网络和CenterNet检测网络相结合、有效进行雾天行人识别的联合检测方法。该方法在GCANet中引入结合底层细节和全局结构的复合损失函数,优化除雾图的结构细节及图像质量;并将改进的GCANet除雾算法应用于检测算法的训练图像预处理中,最后送入CenterNet网络训练。试验结果显示,本文提出的方法在合成雾天数据集Foggy Citypersons上的平均对数漏检率MR-2值达到9.65,在真实雾天数据集RTTS上的平均精度AP50值达到86.11,降低了雾天场景下行人的漏检和误检情况,有效提升了检测网络在雾天条件下的泛化能力。  相似文献   

16.
自动驾驶场景中交通标志的检测和识别十分重要,为提高自然场景下交通标志检测精度,本文中提出了一种基于Cascade-RCNN改进的交通标志识别算法。首先,针对交通标志这类小目标特殊任务,将FPN模块的深层特征信息融合进浅层特征层。其次,改进了目标检测任务中的评价指标IoU,引入目标检测任务的直接评价指标GIoU指导定位任务,提高了检测精度。最后,算法在德国交通标志数据集GTSDB下进行了实验验证,以ResNet101为基础特征提取网络,mAP可达98.8%,实验结果表明了所提算法的有效性,具有优越的工程实用价值。  相似文献   

17.
道路目标检测环节是自动驾驶领域的关键技术之一,随着人工智能的发展应用逐渐广泛。文章基于YOLOv5网络提出一种新的目标检测方法,改进包括融合了ShuffleNet V2中的模块,使用GhostConv改造了传统的Conv模块等。先在不同道路环境中实时采集视频流,并进行图片和视频流的标注。在主干网络中融入ShuffleNet V2中的模块并使用GhostConv模块改进Conv模块,在降低模型权重的同时对目标检测精度影响较小。将标注完成后的图片输入改进后的YOLOv5网络进行训练,并将得到后的模型与Deep SORT算法结合,进行目标检测追踪。实验结果表明,所得结果权重大小下降许多,而目标检测精确度有所上升。改进后的网络更加轻便,易于部署在边缘嵌入式设备上。  相似文献   

18.
程腾  孙磊  侯登超  石琴  张峻宁  陈炯  黄鹤 《汽车工程》2021,43(11):1602-1610
针对复杂环境下自动驾驶汽车环境感知的鲁棒性较低和小目标难以识别的问题,本文提出一种基于特征融合的多层次多模态融合方法.首先将图像与点云两种模态信息映射到同一维度,提取针对不同大小目标的层级特征,在此基础上进行多模态的多层次特征融合;并设计6次对比实验验证网络各模块的有效性.采用Waymo数据集结合蔚来汽车实车数据进行训...  相似文献   

19.
自动驾驶汽车技术的日新月异,主要得益于深度学习和人工智能的进步。然而深度学习模型大多是在静态同分布数据集上进行训练,无法随着时间而适应或扩展其行为。针对这一问题,论文将持续学习模型运用于车辆目标识别领域进行研究。首先搭建可以使得算法流畅运行的环境,选定目标识别的原始图像数据集;在分析现有评估指标的基础上,选取适合于本次实验的评估指标,并采用卷积神经网络(CNN)、最接近类均值(NCM)、增量分类器与特征表示(iCaRL)三种持续学习算法对原始图像数据集进行学习训练与对比验证,通过实验验证了应用iCaRL算法使机器进行持续学习训练时,其精度和效率均优于其他两种方法。针对智能驾驶目标识别图像数据集不完善这一问题,构建了一个新的图像数据集,包含车辆、行人、交通标志及信号灯,将iCaRL算法应用于新建图像数据集进行研究,并在新建智能驾驶图像数据集上进行了训练与测试。结果表明,采用iCaRL算法能够较好地学习新建图像数据集,不会因为环境的改变而使得其性能发生大幅变化,测试结果良好,证明该方法可以在智能驾驶领域进行目标识别。  相似文献   

20.
钢桥面板疲劳开裂为常见的钢桥病害,准确快速地发现并确定钢桥面板裂纹几何特征对降低运维成本、制定运维策略具有重要意义。针对传统人工巡检效率低、检测环境恶劣等问题,提出了基于计算机视觉的钢桥面板裂纹及其特征识别方法。采用目标检测网络YoloV5和图像语义分割网络U-Net++相结合的方法识别裂纹。根据2个网络的结构特性标注图像中的目标后生成数据集,并分别对网络中的参数进行训练。利用训练后的YoloV5与U-Net++分阶段对待测裂纹图像进行检测与分割,并通过阈值分割优化U-Net++分割结果,再通过骨架化后得到裂纹骨架线;在确定裂纹形貌后,采用YoloV5识别出的标定块求解透视变换矩阵与像素尺度系数,然后对裂纹骨架线进行图像矫正并确定裂纹几何特征。研究结果表明:YoloV5可准确检测出裂纹与标定块,且检测稳定性好;通过优化U-Net++训练时输入的像素尺寸,提高了U-Net++训练的收敛速度,网络损失由0.121降至0.096;求解透视变换矩阵时,使用所有角点坐标拟合该矩阵的最小二乘解可提高图像矫正标定的精度;当图像采集距离较远、角度较大时,角点投影误差增大,且该误差对角度更为敏感;不同图...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号