首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 328 毫秒
1.
针对现有的深度学习目标检测算法中存在的复杂光照场景下检测精度不高、实时性差等问题,提出了一种基于YOLO算法的抗光照目标检测网络模型YOLO-RLG。首先,将输入模型的RGB数据转换为HSV数据,从HSV数据分离出抗光照能力强的S通道,并与RGB数据合并生成RGBS数据,使输入数据具备抗光照能力;其次,将YOLOV4的主干网络替换成Ghostnet网络,并对其在普通卷积与廉价卷积的模型分配比例上进行调整,在保证检测精度的同时提高检测速度;最后,用EIoU替换CIoU改进模型的损失函数,提高了目标检测精度和算法鲁棒性。基于KITTI与VOC数据集的实验结果表明,与原网络模型比较,FPS提高了22.54与17.84 f/s,模型降低了210.3 M,精确度(AP)提升了0.83%与1.31%,且算法的抗光照能力得到显著增强。  相似文献   

2.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

3.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

4.
从监控图像中准确检测船舶对于港区水域船舶交通智能监管具有重要意义。为解决雾霾条件下传统YOLOv5目标检测算法对船舶红外图像检测准确率低、小目标特征提取能力弱等问题,提出了基于Swin Transformer的改进YOLOv5船舶红外图像检测算法。为扩大原始数据集的多样性,综合考虑船舶红外图像轮廓特征模糊、对比度低、抗云雾干扰能力强等特点,改进算法提出基于大气散射模型的数据集增强方法;为增强特征提取过程中全局特征的关注能力,改进算法的主干网络采用Swin Transformer提取船舶红外图像特征,并通过滑动窗口多头自注意力机制扩大窗口视野范围;为增强网络对密集小目标空间特征提取能力,通过改进多尺度特征融合网络(PANet),引入底层特征采样模块和坐标注意力机制(CA),在注意力中捕捉小目标船舶的位置、方向和跨通道信息,实现小目标的精确定位;为降低漏检率和误检率,采用完全交并比损失函数(CIoU)计算原始边界框的坐标预测损失,结合非极大抑制算法(NMS)判断并筛选候选框多次循环结构,提高目标检测结果的可靠性。实验结果表明:在一定浓度的雾霾环境下,改进算法的平均识别精度为93.73%,平...  相似文献   

5.
为解决智能驾驶系统中夜间车辆检测误检多、远处小目标检测效果差的问题,在RetinaNet的基础上对损失函数进行全面优化。在分类损失函数方面,分析了负样本与正样本交并比的产生机理和对训练的影响,构造了关联交并比的分类损失函数,利用负样本交并比使网络注重于训练难分类负样本,同时利用正样本交并比提高了检测框的定位精度;在定位损失函数方面,改进了传统L1损失的归一化方式,提高了小目标检测能力。此外,针对夜间场景中的车辆特征对网络结构进行了优化设计,并在夜间车辆数据集上进行了测试验证,结果表明模型优化后的平均检测精度提升了14.6%。  相似文献   

6.
针对当前机器视觉识别中车流量检测的精度问题,以YOLOv7人工智能算法为基础,通过视觉跟踪并叠加注意力机制,提出一种基于YOLOv7和Deep SORT的改进型车流量智能检测方法。通过将注意力模块GAM与YOLOv7网络进行融合增强检测网络的特征提取能力;同时在改进后的YOLOv7网络中引入Deep SORT跟踪算法以改善车辆间相互遮挡导致复检漏检问题。实验选取重庆市渝中区经纬大道双向六车道为研究对象,在新铺社天桥上采用固定相机连接移动笔记本电脑的方式进行数据采集以及算法验证,为了保证算法的可重复性,分别选取早高峰、午平峰和晚高峰3个时段分别录取了5 min的交通流视频。利用在交通视频中通过设置虚拟检测线,让新算法在车辆检测的同时对车辆运行轨迹进行跟踪,当车辆经过检测线时记录车辆的身份编号,以此来实现交通视频的车流量监测与跟踪计数。实验结果表明:改进后的新算法相比于原YOLOv7算法在车辆检测方面平均精度提高了2.3%,视频车流量统计的精度提高了8.2%。  相似文献   

7.
基于深度学习的目标检测算法能够取得良好的检测速度离不开高性能GPU硬件设备的支持。然而,在智能车中搭载高性能、高功耗、大尺寸的硬件设备与汽车的长续航理念不符。因此,文章以YOLOv3目标检测算法为基线模型进行改进,提出轻量化的目标检测模型Mobile-YOLO,并在采集制作的地下停车场数据集中进行训练测试。实验结果表明,提出了Mobile-YOLO相较于YOLOv3,在平均精度均值略微提升的情况下,检测速度提升了47.1%。在移动端平台TX2上每秒能够检测31张图像。  相似文献   

8.
针对大范围快速的车辆检测与计数,利用高分辨率卫星影像数据,提出了一种基于区域卷积神经网络的车辆检测算法。区域卷积神经网络是深度卷积神经网络和区域建议网络二者的结合。首先利用深度卷积神经网络自动提取各个层的特征,为了减少检测窗口的数量,提出区域建议网络,对下采样后的每个位置考虑3种窗口和对应的3种比例,这样大大减少了检测窗口的数量。再根据分类器对目标进行分类。这样将特征、检测窗口和分类器有效地结合在一起。在对遥感影像车辆检测试验中,通过对手工标注的车辆样本数据多次迭代来训练卷积神经网络和区域建议网络获取车辆检测的先验模型,再由先验模型检测出测试影像中车辆目标。与传统的基于梯度方向直方图(HOG)特征和支持向量机(SVM)车辆检测算法进行比较,在检测率方面,区域卷积神经网络算法明显高于HOG+SVM算法;在误检率方面,区域卷积神经网络检测明显小于HOG+SVM算法;在检测时间方面,同样的一张图像,区域卷积神经网络检测速度比HOG+SVM算法提升近800倍。试验结果表明:利用区域卷积神经网络方法进行大范围车辆检测,在精度和速度方面都有显著提升。  相似文献   

9.
为解决隧道内交通监控视频的低分辨率以及光照不均匀导致的再识别准确率偏低的问题,提出了一种基于多特征融合的车辆再识别方法,通过充分利用车辆的各种有效特征信息提升车辆再识别精确度。首先,将卷积块注意力模块(Convolutional Block Attention Module, CBAM)嵌入到YOLOv5模型的骨干网络卷积层,同时采用CIoU损失和DIoU-NMS方案,提高车型检测准确率;其次,使用改进DeepSORT的表观特征提取网络和ResNet网络,分别获取深度卷积神经网络(Deep Convolution Neural Networks, DCNN)特征和车型ID特征;再次,将车型特征、DCNN特征及车辆ID特征使用加和表示层进行融合,形成可鉴别身份特征,以提高车辆再识别精度;最后,基于Softmax交叉熵损失和三元组损失设计指标函数并进行学习,对学习结果进行重排序以进一步提高模型的精度,并将算法在公开数据集VeRi776、VehicleID和自建数据集Tunnel_Veh4C进行训练验证。结果表明:与现有方法相比,提出的Rank-1、Rank-5和Rank-10识别准确率以及...  相似文献   

10.
刘军  陈岚磊  李汉冰 《汽车工程》2021,(1):50-58,67
针对复杂交通场景下单个模型无法同时对可行驶区域和交通目标进行统一检测和检测实时性较差的问题,本文中提出了一种基于类人视觉的多任务交通目标单阶段检测模型,实现了可行驶区域和车辆、行人的实时统一检测。首先建立类人视觉注意力机制进行监督,采用轻量化模型MobileNetV3作为骨架,接着利用特征金字塔的思想对可行驶区域进行检测,最后采用动态注意力算法和anchor-free思想对交通目标进行检测。实验结果表明,引入驾驶员人眼注意力机制明显提升了模型的精度和鲁棒性,模型在实车上平均运算速度达到了12帧/s。  相似文献   

11.
针对复杂道路环境下交通目标与背景区分度低、交通小目标密集度高、部分遮挡严重、容易产生漏检、误检等问题,提出了一种融合注意力的无损跨尺度复合空洞残差网络的交通目标检测算法。通过改进SSD基础骨干网络和残差结构,加强网络提取强表征性的高级语义信息能力,解决信息传递损耗和丢失问题。在此基础上提出一种新的多视野聚合空洞残差单元,通过设置不同膨胀率的空洞卷积,获得不同大小感受野,聚合上下文信息实现大目标与小目标的兼顾。提出一种新的无损失跨尺度融合模块,通过该模块进行通道重组,结合通道维度信息填充像素,实现跨通道像素信息融合,进一步提升特征提取的能力。同时引入了坐标注意力机制,将轴向的空间坐标通道信息有效整合到生成注意力图中,构建出能够捕获跨通道信息且包含方向感知和位置敏感信息的注意力残差单元与多视野聚合空洞残差单元。此外,通过引入Soft-NMS降低与高置信度预测框重叠度较大的目标框的置信度,增加二次检测机会,提升了网络模型召回率。最后引入解耦检测头以加快模型收敛速度和提高检测精度。在VOC数据集07+12上的试验结果表明,算法平均精度提升了6.46%,证明了提出算法的准确性和鲁棒性。  相似文献   

12.
针对在嵌入式设备上部署神经网络模型存在受限于设备体积与计算性能的影响而难以保证神经网络模型的推理实时性的问题,提出了一种基于YOLOv5-nano的前车检测改进方法(HS-YOLO)。首先,采用硬拟合函数h-swish来取代SiLU激活函数,在激活关系相似的情况下提高模型推理速度;此外,引入SIOU边界框回归损失来替代CIOU损失,提高模型的训练速度与推理精度。为进一步验证改进模型的性能,使用SSD、YOLOv4-tiny、基础模型YOLOv5-nano与改进的HS-YOLO网络在相同训练条件下进行训练,得到最优模型并在测试集上进行推理测试。结果表明:HS-YOLO模型的精确率、召回率及AP0.5较原模型YOLOv5-nano分别提升了0.76%、0.43%、0.41%;在推理速度方面,HS-YOLO模型的单张图片推理耗时为7.8 ms,实时推理帧数为128 FPS,在所有模型中表现最优,较原模型分别提高了0.7 ms和10 FPS。  相似文献   

13.
针对高速路车辆移动速度快、检测器易出现漏检和误检、目标相互遮挡等问题,提出一种基于多种特征融合的高速路车辆多目标跟踪算法。检测器获取每帧目标检测框后,采用HSV颜色直方图和HOG直方图建立目标外观模型,通过卡尔曼滤波建立目标位置模型和尺寸模型,融合多种特征模型构建相似性度量矩阵,并利用二分图匹配解决在线数据关联问题。在KITTI车辆数据集和自采的高速车辆数据集上将该算法与若干经典算法进行比较,结果表明,该算法在跟踪正确率和跟踪速度上明显提升。  相似文献   

14.
针对强化学习算法下智能车辆训练中动作选择过程随机性强、训练效率低等问题,提出了基于规则约束和深度Q网络(DQN)算法的智能车辆行驶决策框架,将引入的规则分为与换道相关的硬约束和与车道保持相关的软约束,分别通过动作检测模块(Action Detection Module)与奖励函数来实现。同时结合竞争深度Q网络(Dueling DQN)和双重深度Q网络(Double DQN)对DQN的网络结构进行改进,并引入N步自举(N-Step Bootstrapping)学习提高DQN的训练效率,最后在Highway-env平台高速路场景下与原始DQN算法进行综合对比验证模型的有效性,改进后的算法提高了智能车辆任务成功率和训练效率。  相似文献   

15.
为有效降低物流配送过程产生的能耗和碳排放,控制配送成本,以传统带时间窗车辆路径问题为基础,研究低碳条件下的车辆路径问题.通过三角概率分布在合理速度区间内对车辆速度进行估算,综合考虑车辆行驶速度、载重量及运行里程构建碳排放计算模型,建立以系统总成本最低、车辆周转时间最小的多目标低碳车辆路径优化模型.将新兴多因子优化算法中协同进化和信息交互的思想应用于NSGA-II算法,提出增强型NSGA-II算法.算例结果表明,多目标优化模型可以更好地兼顾不同物流配送参与者的利益,更符合实际决策过程,所提出的ENSGA-II算法在经济成本上平均节省超过3%,在车辆周转时间上平均改进达到5.02%,表现出较好的求解性能.   相似文献   

16.
针对无人机航拍视角下存在整体图像分辨率高但占比较高的小尺度车辆检测特征点稀少这一问题,从卷积网络检测器针对性优化与基于目标分布特征的航拍图像自适应切分2个角度综合考虑,提出一种基于目标空间分布特征的无人机航拍车辆检测网络DF-Net。以单阶段目标检测框架SSD为基础,引入深度可分离卷积和抗混叠低通滤波器对网络结构进行优化搭建E-SSD,为后续检测网络搭建提供高效检测器;接着基于条件生成对抗CGAN思想构建密度估计网络生成器,从而得到航拍图像中车辆的准确分布特征,生成高质量的车辆密度图;将E-SSD与车辆密度估计网络结合,对车辆密度图进行自适应切分,并将切分后的局部图像与全局图像一同输入E-SSD,最后在决策层融合检测结果,由此实现对航拍视角道路交通场景下车辆目标的精确高效检测。在试验中,一方面将设计的基于目标空间分布特征的无人机航拍车辆检测网络DF-Net与E-SSD进行对比分析,另一方面将DF-Net与航拍目标检测领域表现较为优秀的网络进行比较。研究结果表明:设计的方法对于2个试验在均值平均精度指标上均有提升,与E-SSD网络对比时提升了至少4.4%,与航拍目标检测领域优秀网络比较时也有一定提升,并保持了较好的实时性。  相似文献   

17.
针对日益凸显的船舶值班人员疲劳驾驶问题,为有效预警值班驾驶员的疲劳状态,保障船舶航行安全,研究了基于深度学习的疲劳检测算法。考虑到船舶驾驶台空间大、背景复杂等特点,使用深度可分离卷积改进RetinaFace人脸检测模型,优化模型的检测速度;基于Channel Split和Channel Shuffle思想,结合批量归一化、全局平均池化等技术搭建改进的ShuffleNetV2网络,自动提取图像特征,识别眼睛、嘴巴的开闭状态;根据PERCLOS准则融合眼睛、嘴巴2个特征参数综合判定驾驶员是否疲劳。实验结果表明:改进后RetinaFace模型的检测速度由9.33帧/s提升至22.60帧/s,人脸检测精度和速度均优于多任务卷积神经网络(MTCNN);改进的ShuffleNetV2网络识别眼睛、嘴巴状态的准确率高达99.50%以上;算法在模拟驾驶台环境中识别疲劳状态的精确率达到95.70%,召回率达到96.73%,均高于目前常见的Haar-like+Adaboost以及MTCNN+CNN疲劳检测算法。算法检测每帧图片仅需0.083 s,基本满足实时检测的要求。   相似文献   

18.
针对自动驾驶车辆在雾天情况下易将行人误检和漏检的问题,提出一种基于改进GCANet除雾网络和CenterNet检测网络相结合、有效进行雾天行人识别的联合检测方法。该方法在GCANet中引入结合底层细节和全局结构的复合损失函数,优化除雾图的结构细节及图像质量;并将改进的GCANet除雾算法应用于检测算法的训练图像预处理中,最后送入CenterNet网络训练。试验结果显示,本文提出的方法在合成雾天数据集Foggy Citypersons上的平均对数漏检率MR-2值达到9.65,在真实雾天数据集RTTS上的平均精度AP50值达到86.11,降低了雾天场景下行人的漏检和误检情况,有效提升了检测网络在雾天条件下的泛化能力。  相似文献   

19.
在具有车道线的特定自动驾驶场景中,针对目前端到端的行为决策算法直接输入原始图像进行决策导致的网络模型迁移性差、预测精度欠佳、泛化能力不足等问题,提出一种基于分段学习模型的车辆自动驾驶行为决策算法。首先,基于GoogLeNet建立一种端到端的车道线检测网络模型,并引入车道中心线作为决策的重要线索提高算法的迁移能力,同时利用YOLOv3目标检测模型对本车道内前方最近障碍物进行位置检测;而后,经几何测量模型将两者检测结果转换成环境状态信息向量为决策做支撑;最后,构建基于长短期记忆(LSTM)网络的驾驶行为决策模型,根据编码的历史状态信息刻画出动态环境中车辆的运动模式,并结合当前时刻的状态推理得到驾驶行为参量。使用建立的真实驾驶场景数据集对模型分别进行训练、验证与测试,离线测试结果显示车道线检测模型的检测位置误差小于1.3%,车道内前方障碍物检测模型的检测精度达98%以上,驾驶行为决策网络模型表征预测优度的决定系数 大于0.7。为进一步验证算法的有效性,搭建了Simulink/PreScan联合仿真平台,多种工况下的仿真验证试验中多个评价指标均达到工程精度要求,实车测试的试验结果也表明该算法可实现复杂驾驶场景下平稳、准确无偏航的预测效果并满足实时性要求,且与传统端到端模式的算法相比,具有更好的迁移性和泛化能力。  相似文献   

20.
道路目标检测环节是自动驾驶领域的关键技术之一,随着人工智能的发展应用逐渐广泛。文章基于YOLOv5网络提出一种新的目标检测方法,改进包括融合了ShuffleNet V2中的模块,使用GhostConv改造了传统的Conv模块等。先在不同道路环境中实时采集视频流,并进行图片和视频流的标注。在主干网络中融入ShuffleNet V2中的模块并使用GhostConv模块改进Conv模块,在降低模型权重的同时对目标检测精度影响较小。将标注完成后的图片输入改进后的YOLOv5网络进行训练,并将得到后的模型与Deep SORT算法结合,进行目标检测追踪。实验结果表明,所得结果权重大小下降许多,而目标检测精确度有所上升。改进后的网络更加轻便,易于部署在边缘嵌入式设备上。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号