首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
从监控图像中准确检测船舶对于港区水域船舶交通智能监管具有重要意义。为解决雾霾条件下传统YOLOv5目标检测算法对船舶红外图像检测准确率低、小目标特征提取能力弱等问题,提出了基于Swin Transformer的改进YOLOv5船舶红外图像检测算法。为扩大原始数据集的多样性,综合考虑船舶红外图像轮廓特征模糊、对比度低、抗云雾干扰能力强等特点,改进算法提出基于大气散射模型的数据集增强方法;为增强特征提取过程中全局特征的关注能力,改进算法的主干网络采用Swin Transformer提取船舶红外图像特征,并通过滑动窗口多头自注意力机制扩大窗口视野范围;为增强网络对密集小目标空间特征提取能力,通过改进多尺度特征融合网络(PANet),引入底层特征采样模块和坐标注意力机制(CA),在注意力中捕捉小目标船舶的位置、方向和跨通道信息,实现小目标的精确定位;为降低漏检率和误检率,采用完全交并比损失函数(CIoU)计算原始边界框的坐标预测损失,结合非极大抑制算法(NMS)判断并筛选候选框多次循环结构,提高目标检测结果的可靠性。实验结果表明:在一定浓度的雾霾环境下,改进算法的平均识别精度为93.73%,平均召回率为98.10%,平均检测速率为每秒38.6帧;与RetinaNet、Faster R-CNN、YOLOv3 SPP、YOLOv4、YOLOv5和YOLOv6-N算法相比,其平均识别精度分别提升了13.90%、11.53%、8.41%、7.21%、6.20%和3.44%,平均召回率分别提升了11.81%、9.67%、6.29%、5.53%、4.87%和2.39%。综上,所提的Swin-YOLOv5s改进算法对不同大小的船舶目标识别均具备较强的泛化能力,并具有较高的检测精度,有助于提升港区水域船舶的监管能力。   相似文献   

2.
基于深度学习的实例分割算法在大规模通用场景中取得了良好的分割性能,然而面向复杂交通场景的多目标实例分割仍然极具挑战性,尤其在算法的高精度和较快推理速度的权衡方面,而这对于智能汽车的行驶安全性至关重要。鉴于此,本文以实时性算法Orienmask为基础,提出了一种基于单阶段检测算法的多头实例分割框架。具体来说,所提框架由骨干网络、特征融合模块和多头掩码构建模块组成。首先,本文通过在骨干网络中加入残差结构获取更加完整的高维表征信息。其次,为了产生更具判别性的特征表达,本文通过引入自校正卷积重构特征金字塔,并使用全局注意力机制改善信息传播以进一步优化所提框架的特征融合模块。最后,提出的多头掩码构建机制通过细化场景目标尺寸分布显著提高不同目标的分割性能。本文算法在开源数据集BDD100k上进行大量测试与验证,分别在边界框和掩码上获得了23.3%和19.4%的均交并比(mAP@0.5:0.95),与基线方法相比,平均指标提高了5.2%和2.2%。同时在基于自主搭建的实车平台上进行的道路实验也证明本算法能够较好地适应真实驾驶环境,且满足实时性分割需求。  相似文献   

3.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

4.
针对大多数跟踪算法对车辆等交通目标在行驶过程中的尺度变化、姿态变化的适应性差及在跟踪过程中使用固定尺度的跟踪框,导致所构造的目标模板包含大量背景信息,引起跟踪漂移甚至丢失的问题,提出一种基于压缩感知理论与超像素目标性度量的尺度自适应多示例交通目标跟踪算法,该算法首先利用压缩感知理论对多示例学习中的特征维数进行降维,减少算法计算的复杂度。其次,采用超像素目标性度量进行局部尺度自适应调整,解决多示例跟踪算法中的尺度适应问题。此外,引入基于目标判别机制的分类器更新,利用连续帧中目标的相似性判断跟踪目标是否存在遮挡或漂移问题。依据目标判别的结果,实现变学习率的分类器参数更新。试验结果表明:该方法具有较高的跟踪精度和良好的跟踪鲁棒性,在车辆目标发生遮挡、尺度变化、三维旋转等情况时均能较好地跟踪目标,通过对不同的交通视频序列进行测试,算法的平均中心位置误差远小于对比算法,仅为3.92像素,其对比算法CT跟踪、MIL跟踪及WMIL跟踪算法的平均位置误差分别为56.96像素、35.36像素及58.54像素,平均重叠率达80.1%,较CT跟踪、MIL跟踪及WMIL跟踪算法分别高44.9%、45.3%和45%,满足智能交通监控的实际需求。  相似文献   

5.
现有的无人机(UAV)交通状态感知方法,主要针对宏观交通状态参数的获取,同时尚未克服UAV自运动对交通参数检测精度的影响,难以满足智能交通系统对于高精度微观交通参数的应用需求。为此,提出一种基于地空信息融合的UAV交通状态感知方法,该方法包括:地空信息融合模型、道路关键点(IKP)检测及跟踪、车辆目标检测及追踪算法和交通状态参数提取及估计。其中,地空信息融合模型利用地基信息(IKP世界坐标)与空基信息(IKP像素坐标)进行最优化融合,并通过自适应IKP追踪算法与自适应UAV位置偏移判断算法实时更新模型参数,以此克服UAV自运动对车辆轨迹精度的影响,进而获取可靠的车辆级(瞬时速度、车头间距和车头时距)与车道级(车道动态密度、车道流量和空间平均车速)交通状态参数。利用提出的感知方法获取实地拍摄视频的车辆级交通参数并进行了分布检验,同时比较了基于不同交通流模型的车道级参数估算方法。结果表明:该方法在车辆检测的mAP@0.5指数超过90%,同时提取的车辆轨迹相对完整,获取的车辆级和车道级交通状态参数也符合实际交通流状况。最后,将该模型应用于实地道路的交通拥堵检测及交通事件检测,该研究结果为UAV在现代交通感知和管理中的应用提供了一种理论和技术参考。  相似文献   

6.
为了提高城市道路交通事件自动检测算法的性能,引入算法性能可靠度概念对基于浮动车数据和感应线圈数据的事件自动检测算法检测结果进行决策融合。决策融合算法包括3个模块:①感应线圈数据算法模块:选择流量、占有率、路段长度、前一个检测周期的检测参数作为输入参数,训练BP网络进行事件判别;②浮动车数据算法模块:使用误差分析理论确定满足数据精度要求的最小浮动车样本量,选择路段行程时间、行程速度作为BP网络输入参数,进行事件判别;③决策融合模块。引入算法性能可靠度概念,计算模块一和模块二判别结果的权重值,使用加权平均法进行决策融合。通过Vissim仿真获得数据,在Matlab中编程实现算法的计算,仿真结果表明决策融合算法的性能优于单数据源事件自动检测算法。  相似文献   

7.
环境车辆是自动驾驶汽车行驶时的主要障碍物之一,对环境车辆的尺寸、位置、朝向等空间信息进行感知对于保障行驶安全具有重要意义。激光雷达点云数据包含了场景中物体表面扫描点的三维坐标,是实现车辆目标检测任务的重要数据来源。结合SECOND与PointPillars方法,提出一种基于体素柱形的三维车辆目标检测模型,利用三维稀疏卷积聚合点云局部特征,在体素特征图上构造柱形并进行特征编码,有效解决点柱形方法缺乏柱形间特征交互问题,增强点云特征的空间语义信息;基于均值池化操作生成锚框点云占据位图并提出一种简单负样本过滤策略,在模型训练阶段筛除预设在无点云覆盖区域的无效锚框,缓解正负样本或难易样本不均衡问题;在目标框回归模块中,使用类别置信度与交并比(IoU)预测值计算混合置信度,改善分类分支与位置回归分支结果不一致问题,并使用KITTI三维目标检测数据集进行模型训练与评估。研究结果表明:在严格判定标准下(IoU阈值设置为0.7),所提算法在简单、中等、困难3种难度级别下分别获得了89.60%、79.17%、77.75%的平均检测精度(AP3D),与SECOND、PointPill...  相似文献   

8.
准确的多目标感知系统是自动驾驶技术的关键。本文提出了一种基于相机与激光雷达融合的多目标检测算法。针对相机传感器无法获得准确的目标距离等深度信息,激光雷达无法获得准确的目标类别信息的问题,首先采用嵌入自适应特征融合模块的YOLOv7网络处理相机数据,同时对激光雷达数据进行点云预处理以消除无用的噪声点;其次,利用坐标变换将激光点云数据和相机数据转换到像素坐标系中;最后,采用基于ROI感兴趣区域的方法对点云进行聚类处理,以参数加权的方式融合两种传感器的检测结果。实验结果表明,嵌入改进YOLOv7网络的融合算法能够检测出更加准确的目标信息。  相似文献   

9.
刘军  陈岚磊  李汉冰 《汽车工程》2021,(1):50-58,67
针对复杂交通场景下单个模型无法同时对可行驶区域和交通目标进行统一检测和检测实时性较差的问题,本文中提出了一种基于类人视觉的多任务交通目标单阶段检测模型,实现了可行驶区域和车辆、行人的实时统一检测。首先建立类人视觉注意力机制进行监督,采用轻量化模型MobileNetV3作为骨架,接着利用特征金字塔的思想对可行驶区域进行检测,最后采用动态注意力算法和anchor-free思想对交通目标进行检测。实验结果表明,引入驾驶员人眼注意力机制明显提升了模型的精度和鲁棒性,模型在实车上平均运算速度达到了12帧/s。  相似文献   

10.
为了提高交通目标检测的实时性和准确性,针对交通目标检测过程中普遍存在的背景复杂、光线变化、物体遮挡等干扰问题,以及基于深度学习的目标检测算法在进行区域选择时滑动窗口遍历搜索耗时的问题,提出一种基于时空兴趣点(STIP)的交通多目标感兴趣区域快速检测算法。像素级时空兴趣点检测在处理目标遮挡时具有较好的鲁棒性,利用这一特点,首先在传统兴趣点检测算法的基础上加入背景点抑制和时空点约束,以减少无效兴趣点对有效兴趣点检测带来的干扰。通过改进均值漂移算法,使得聚类中心数量随目标数目的变化而改变。然后对被检测出的多目标附近的候选兴趣点分别进行聚类,获取各个目标聚类中心位置信息。根据聚类中心点与筛选后的目标兴趣点之间的相对位置关系进行特定组合获得感兴趣区域。在这些感兴趣区域上使用选择性搜索算法生成1 000~2 000个候选区域,并将这些候选区域放入训练好的深度卷积神经网络模型中进行特征提取。最后将特征提取结果送入支持向量机中进行目标种类判别并使用回归器精细修正目标识别框的位置。研究结果表明:通过对候选区域进行预处理,送入模型中的候选区域数量减少了82%,对应算法整体运行时间减少了74%,能够满足智能交通监控的实际需求。  相似文献   

11.
交通图像分析是智能交通领域的关键技术之一。为实现复杂交通场景中的多目标检测与跟踪,设计了一种结合小波提升框架和KLT特征点跟踪的多运动目标检测与跟踪算法。对序列图像中相邻两帧图像的融合图像进行小波提升变换,求取水平和垂直方向上的小波能量,通过合理阈值二值化小波能量矩阵,再利用贴标签方法检测出运动目标;利用KLT特征点集合代表目标,通过跟踪后的特征点集合与目标检测区域的相互关联,实现多目标的跟踪。实验结果表明了所提算法的有效性。  相似文献   

12.
针对智能汽车道路目标检测任务中单一传感器感知能力有限、多传感器后融合处理复杂等问题,提出了一种基于Transformer交叉注意力机制的多模态感知融合方法。首先,利用交叉注意力机制能较好地融合多模态信息的优势,搭建了基于深度学习方式的端到端融合感知网络,用以接收视觉与点云检测网络的输出,并进行后融合处理。其次,对点云检测网络的三维目标信息进行高召回处理,与视觉图像检测器输出的道路目标信息一同作为网络的输入。最后,通过网络实现二维目标信息向三维信息的融合,输出对三维目标检测信息的修正,从而得到准确度更高的后融合检测信息。在KITTI公开数据集上的验证指标表明,通过所提融合方法引入二维检测信息后,相比较PointPillars、PointRCNN、PV-RCNN及CenterPoint四种基准方法,对车辆、骑行人、行人3种类别的综合平均提升分别为7.07%、2.82%、2.46%、1.60%。通过与基于规则的后融合方法对比,所提融合网络在行人和骑行人中等、困难样本检测上,分别有平均1.88%与4.90%的提升。进一步表明所提方法具有更强的适应性与泛化能力。最后,进行了实车试验平台的搭建及算...  相似文献   

13.
针对当前机器视觉识别中车流量检测的精度问题,以YOLOv7人工智能算法为基础,通过视觉跟踪并叠加注意力机制,提出一种基于YOLOv7和Deep SORT的改进型车流量智能检测方法。通过将注意力模块GAM与YOLOv7网络进行融合增强检测网络的特征提取能力;同时在改进后的YOLOv7网络中引入Deep SORT跟踪算法以改善车辆间相互遮挡导致复检漏检问题。实验选取重庆市渝中区经纬大道双向六车道为研究对象,在新铺社天桥上采用固定相机连接移动笔记本电脑的方式进行数据采集以及算法验证,为了保证算法的可重复性,分别选取早高峰、午平峰和晚高峰3个时段分别录取了5 min的交通流视频。利用在交通视频中通过设置虚拟检测线,让新算法在车辆检测的同时对车辆运行轨迹进行跟踪,当车辆经过检测线时记录车辆的身份编号,以此来实现交通视频的车流量监测与跟踪计数。实验结果表明:改进后的新算法相比于原YOLOv7算法在车辆检测方面平均精度提高了2.3%,视频车流量统计的精度提高了8.2%。  相似文献   

14.
针对传统路端车辆目标检测算法参数多、检测速度较慢等问题,提出了基于YOLOv5 的车辆目标检测算法轻量化改进。首先,选用轻量化 EfficientnetV2 卷积神经网络对原骨干网络进行重构,同时在网络中引入 GAM 注意力机制;其次,为平衡 CIoU 损失和 IoU 损失在损失函数中的权重,引入 α-CIoU 损失代替原有的 CIoU 损失;最后,使用 soft-NMS 算法替换原有的 NMS 非极大值抑制算法。结果表明:相比原算法,改进后算法的精度提升了.51%,检测速度提升了 8.6%,模型大小降低了 31.7%;改进后的模型在提升检测速度的同时,还提高了路端车辆目标的检测性能。  相似文献   

15.
冯润泽  江昆  于伟光  杨殿阁 《汽车工程》2022,(3):434-441+448
自动驾驶技术对于缓解交通拥堵,降低交通运输成本具有重要作用;高级驾驶辅助系统(ADAS)可以有效增加汽车驾驶的舒适性和安全性。交通标志牌中包含了丰富的语义信息,为自动驾驶汽车和ADAS的决策提供重要约束,因此交通标志牌的识别算法开发至关重要。本文基于中国交通场景特点以及自动驾驶、ADAS对于交通标志牌识别的高准确性需求,提出了一种基于两阶段分类的交通标志牌识别算法框架。算法包含检测和分类两个阶段,检测阶段检测出图像中的交通标志牌,分类阶段对交通标志牌先后进行大类和子类划分。算法通过细化任务,独立提升各算法模块的性能,进而提高整体算法的识别精度。本文对单阶段识别算法进行改进作为算法的检测模块,实验结果表明,提出的算法精度上优于基准单阶段识别算法,mAP平均提升8.52%,并且在检测速度优于传统两阶段识别算法Faster RCNN的情况下,mAP提升40%以上。  相似文献   

16.
自动驾驶环境感知系统的重要任务之一是对周围交通目标进行轨迹预测,其输出轨迹可为决策控制和路径规划提供所需目标信息.考虑传统轨迹预测方法一般基于俯视视角而难以满足自动驾驶车载感知的实际需求,提出一种基于长短时记忆(LSTM)网络模块、空间交互模块和时间行为注意力模块相融合的驾驶视角轨迹预测算法.为更好体现交通目标与周围环...  相似文献   

17.
道路目标检测环节是自动驾驶领域的关键技术之一,随着人工智能的发展应用逐渐广泛。文章基于YOLOv5网络提出一种新的目标检测方法,改进包括融合了ShuffleNet V2中的模块,使用GhostConv改造了传统的Conv模块等。先在不同道路环境中实时采集视频流,并进行图片和视频流的标注。在主干网络中融入ShuffleNet V2中的模块并使用GhostConv模块改进Conv模块,在降低模型权重的同时对目标检测精度影响较小。将标注完成后的图片输入改进后的YOLOv5网络进行训练,并将得到后的模型与Deep SORT算法结合,进行目标检测追踪。实验结果表明,所得结果权重大小下降许多,而目标检测精确度有所上升。改进后的网络更加轻便,易于部署在边缘嵌入式设备上。  相似文献   

18.
高解析度轨迹数据蕴含丰富车辆行驶与交通流时空信息.为从航拍视频中提取车辆轨迹,构建了车辆检测目标跨帧关联与轨迹匹配融合方法.采用卷积神经网络YOLOv5构建视频全域车辆目标检测,提出车辆动力学与轨迹置信度约束下跨帧目标关联算法,建立了基于最大相关性的断续轨迹匹配与融合构建算法,实现轨迹车辆唯一编号.将轨迹从图像坐标转换为车道基准下Frenet坐标,构建集合经验模态分解(EEMD)模型进行轨迹数据噪声消除.采用南京市快速路无人机拍摄的2组开源航拍视频,涵盖拥堵与自由流交通状态,对轨迹提取算法进行效果测试.结果表明,在自由流和拥挤条件下轨迹准确率分别为98.86%和98.83%,轨迹召回率为93.00%和86.69%,构建算法的轨迹提取速度为0.07 s/辆/m.该方法处理得到的详细车辆时空轨迹信息能为交通流、交通安全、交通管控研究提供广泛的数据支撑,数据公开于http://seutraffic.com/.  相似文献   

19.
杨旭华  孙优贤 《公路》2005,(8):114-118
提出一种基于ART2伸经网络的高速公路交通事件自动检测的新算法。该算法利用高速公路交通流模型和ART2神经网络分别作观测器和分类器。观测器估计的数据和实际交通数据进行比较,得到残差序列;利用ART2神经网络对残差序列进行分类,以区分不同交通状态下的交通信息,达到检测交通事件的目的。本算法不但可以识别已知的交通事件类型。还可以识别未知的或从未出现过的交通事件类型,是一个可以边工作、边学习的检测系统。  相似文献   

20.
基于车载环视摄像头的自动泊车辅助系统,使用了4个高清鱼眼摄像头,分别安装在整车的左/右外后视镜下方、前/后牌照框上方,该系统基于深度学习图像处理算法可以实现不同类型、不同颜色的地面划线停车位可靠识别和高精度定位,这种基于深度神经网络的停车位检测算法在算法主干网络中创新地引入了残差模块和注意力机制模块,大幅提升了划线停车位检测的成功率和准确率,基于深度神经网络的停车位检测算法使得自动泊车辅助系统变得更高效、更可靠,并已在各种停车场景中得到了证明,且不额外增加自动泊车辅助系统硬件成本,同时也兼容传统的360°全景影像监控功能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号