首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为了建立一种基于深度学习卷积神经网络的多目标路面裂缝检测模型,实现对路面裂缝的精确识别、分割与统计,采用卷积神经网络Mask R-CNN为主干框架,融入ResNet模型与特征金字塔网络(FPN)提高对病害特征提取的精度,建立了针对裂缝病害识别的基础网络体系;考虑裂缝病害图像特征,采用随机梯度下降算法与冲量算法优化损失函...  相似文献   

2.
本文中针对自动驾驶车辆在环境感知过程中易将行人与骑车人混淆的问题,提出一种有效区分行人与骑车人的联合检测方法,并基于快速区域卷积神经网络Faster R-CNN进行改进.首先,通过增加一个子网络提取图像形状特征通道,将其与主干网络生成的特征图进行聚合,额外的形状语义通道用以辅助检测器区分行人与骑车人的特征;接着,通过构...  相似文献   

3.
针对在复杂场景下,背景区域干扰特征过多、被检测目标运动速度快等导致的动态目标检测率低的问题,研究了基于深度学习的多角度车辆动态检测方法,将带有微型神经网络的卷积神经网络(MLP-CNN)用于传统算法的改进.使用快速候选区域提取算法提取图像中可能存在车辆的区域,之后使用深层卷积神经网络(CNN)提取候选区域的特征,并在卷积层中增加微型神经网络(MLP)对每层的特征进一步综合抽象,最后使用支持向量机(SVM)区分目标和背景的CNN特征.实验表明,该方法能够处理高复杂度背景条件下,部分遮挡、运动速度快的目标特征检测,识别率高达87.9%,耗时仅需225ms,比常用方法效率有大幅度提升.   相似文献   

4.
针对大范围快速的车辆检测与计数,利用高分辨率卫星影像数据,提出了一种基于区域卷积神经网络的车辆检测算法。区域卷积神经网络是深度卷积神经网络和区域建议网络二者的结合。首先利用深度卷积神经网络自动提取各个层的特征,为了减少检测窗口的数量,提出区域建议网络,对下采样后的每个位置考虑3种窗口和对应的3种比例,这样大大减少了检测窗口的数量。再根据分类器对目标进行分类。这样将特征、检测窗口和分类器有效地结合在一起。在对遥感影像车辆检测试验中,通过对手工标注的车辆样本数据多次迭代来训练卷积神经网络和区域建议网络获取车辆检测的先验模型,再由先验模型检测出测试影像中车辆目标。与传统的基于梯度方向直方图(HOG)特征和支持向量机(SVM)车辆检测算法进行比较,在检测率方面,区域卷积神经网络算法明显高于HOG+SVM算法;在误检率方面,区域卷积神经网络检测明显小于HOG+SVM算法;在检测时间方面,同样的一张图像,区域卷积神经网络检测速度比HOG+SVM算法提升近800倍。试验结果表明:利用区域卷积神经网络方法进行大范围车辆检测,在精度和速度方面都有显著提升。  相似文献   

5.
桥梁结构表面裂缝检测为桥梁状态识别、病害治理、安全评估提供了重要状态信息和决策依据。为解决传统人工检测方法存在的危险性高、影响交通、费用昂贵等问题,提出基于无人机(Unmanned Aerial Vehicle,UAV)及深度学习的桥梁结构裂缝智能识别方法。采用大疆M210-RTK多旋翼无人机进行贴近航摄,获取桥梁结构混凝土表面高清图像;利用SDNET裂缝数据集等图像资源,制作1 133张标记裂缝精确区域的深度学习训练样本图像库;引入掩膜区域卷积神经网络(Mask R-CNN)深度学习算法,训练和建立Mask R-CNN裂缝识别模型;基于Mask R-CNN裂缝识别模型,采用矩形滑动窗口模式扫描混凝土表面高清图像,实现裂缝自动识别和定位。构建包含图像二值化、连通域去噪、边缘检测、裂缝骨架化、裂缝宽度计算等流程的图像后处理方法,实现裂缝形态及宽度信息自动获取。通过精度验证试验,证实采用M210-RTK无人机+ZENMUSE X5S相机+45 mm奥林巴斯镜头的组合装备,当无人机至桥梁结构表面垂直距离为10.0 m时,无人机方法识别的裂缝宽度与裂缝测量仪结果吻合,其绝对误差小于0.097 mm,相对误差小于9.8%。将该无人机裂缝检测方法应用于高136.8 m长沙市洪山大桥桥塔表面裂缝检测,采用深度学习Mask R-CNN算法进行裂缝智能识别,其裂缝识别准确率和召回率分别达到92.5%和92.5%。研究结果表明:无人机桥梁裂缝检测方法可实现高耸桥梁结构表面裂缝的远程、非接触、自动化检测,具有重要的科学研究和工程应用价值。  相似文献   

6.
为提高夜间行车的安全性,提出了一种基于单目视觉的夜间前方车辆检测方法。该方法利用最大类间方差法自动确定阈值,从背景中抽取出前车尾灯,并根据HSV颜色空间的颜色阈值剔除非尾灯目标,利用Kalman滤波方法将图像分为跟踪区域和检测区域,在两个区域内分别进行尾灯配对,根据尾灯对之间特征相似性的比较,剔除误检的车辆;跟踪区域中漏检的车辆,根据前一帧检测的车辆位置和正确抽取的尾灯来估计,以实现车辆检测。实验结果表明,该算法能准确检测夜间前方车辆,有效降低漏检率和误检率。  相似文献   

7.
针对传统的裂缝分割算法难以识别狭窄裂缝且分割边缘不精准,从而造成识别精度较低的问题,研究了基于改进U型神经网络(Unet)的路面裂缝检测方法。由于传统Unet特征提取网络是层次较浅的浅层神经网络,难以提取更复杂的裂缝特征信息,故本文以牛津大学视觉几何组网络(VGG16)作为传统Unet的特征提取网络,提高网络的裂缝特征提取能力;为抑制高低阶特征融合时产生的无用特征,本文在模型解码部分添加压缩与激励单元(SE block),构建裂缝注意力单元,使得网络可以关注不同通道下的裂缝特征,建立了基于SE block和VGG16的改进Unet网络(SE-VUnet)。研究采用迁移学习的方法,将在ImageNet上预训练好的VGG16网络权重迁移到裂缝检测中。通过挑选Crack500数据集,并使用摄像头采集图片构建1 600张路面裂缝数据集,再次训练SE-VUnet模型,获得裂缝区域分割结果。以查准率(precision)与查全率(recall)的加权调和平均值F1和雅卡尔(Jaccard)相似系数作为量化评价指标。将SE-VUnet分别与Unet、SOLO v2、Mask R-CNN以及Deeplabv3+进行分割效果和实时性对比。研究结果表明:SE-VUnet模型的综合F1和雅卡尔系数分别为0.840 3和0.722 1,相比于Unet分别高出了1.04%和1.51%,且均高于其他3种对比模型;SE-VUnet的单帧图片预测时间为89 ms,在分割效果提升明显的情况下仅比Unet慢5 ms,优于其他模型。   相似文献   

8.
基于视觉的车辆检测作为辅助驾驶系统的输入,对智能车辆预警和决策起着重要的作用。针对目前传统深度卷积神经网络在基础网络设计和物体检测网络构建的不足,提出一种对经典的深度残差网络进行改进方法,提出带局部连接的残差单元,并以此构建带局部连接的残差网络;同时,提出基于共享参数的多分支网络和双金字塔语义传递网络形式,提升不同语义级别特征融合前的语义级别,以及实现深度融合不同分辨率特征图的语义。经过测试,车辆的检测准确率最高达到95.3%,且具备较高的实时性和环境适应性。  相似文献   

9.
为解决隧道内交通监控视频的低分辨率以及光照不均匀导致的再识别准确率偏低的问题,提出了一种基于多特征融合的车辆再识别方法,通过充分利用车辆的各种有效特征信息提升车辆再识别精确度。首先,将卷积块注意力模块(Convolutional Block Attention Module, CBAM)嵌入到YOLOv5模型的骨干网络卷积层,同时采用CIoU损失和DIoU-NMS方案,提高车型检测准确率;其次,使用改进DeepSORT的表观特征提取网络和ResNet网络,分别获取深度卷积神经网络(Deep Convolution Neural Networks, DCNN)特征和车型ID特征;再次,将车型特征、DCNN特征及车辆ID特征使用加和表示层进行融合,形成可鉴别身份特征,以提高车辆再识别精度;最后,基于Softmax交叉熵损失和三元组损失设计指标函数并进行学习,对学习结果进行重排序以进一步提高模型的精度,并将算法在公开数据集VeRi776、VehicleID和自建数据集Tunnel_Veh4C进行训练验证。结果表明:与现有方法相比,提出的Rank-1、Rank-5和Rank-10识别准确率以及...  相似文献   

10.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

11.
针对无人机航拍视角下存在整体图像分辨率高但占比较高的小尺度车辆检测特征点稀少这一问题,从卷积网络检测器针对性优化与基于目标分布特征的航拍图像自适应切分2个角度综合考虑,提出一种基于目标空间分布特征的无人机航拍车辆检测网络DF-Net。以单阶段目标检测框架SSD为基础,引入深度可分离卷积和抗混叠低通滤波器对网络结构进行优化搭建E-SSD,为后续检测网络搭建提供高效检测器;接着基于条件生成对抗CGAN思想构建密度估计网络生成器,从而得到航拍图像中车辆的准确分布特征,生成高质量的车辆密度图;将E-SSD与车辆密度估计网络结合,对车辆密度图进行自适应切分,并将切分后的局部图像与全局图像一同输入E-SSD,最后在决策层融合检测结果,由此实现对航拍视角道路交通场景下车辆目标的精确高效检测。在试验中,一方面将设计的基于目标空间分布特征的无人机航拍车辆检测网络DF-Net与E-SSD进行对比分析,另一方面将DF-Net与航拍目标检测领域表现较为优秀的网络进行比较。研究结果表明:设计的方法对于2个试验在均值平均精度指标上均有提升,与E-SSD网络对比时提升了至少4.4%,与航拍目标检测领域优秀网络比较时也有一定提升,并保持了较好的实时性。  相似文献   

12.
动车组在运行过程中容易附着塑料袋等异物,影响动车组的运行安全.针对动车组运行安全图像异物自动检测的问题,研究基于卷积神经网络的动车组异物检测与分割模型,该模型采用特征金字塔网络提取异物的多尺度融合特征,通过区域提议网络生成未知类别的候选区域,通过预测网络对候选区域进行分类和位置回归,并通过分割网络生成预测区域的蒙版.针对异物形态变化多样,采用可变形卷积改变感受野适应异物形态的变化.针对异物检测任务中异物数量远小于背景零部件的数量,采用在线困难样本挖掘筛选出困难样本重新输入预测网络以平衡正负样本的比例.实验分析表明,通过优化方法使得最终模型检测精度达到了90.35%,提升了4.03%;召回率达到94.85%,提升了8.1%.   相似文献   

13.
针对小尺寸、远距离的交通标志检测过程中缺少信息的问题,以改进的更快速区域卷积神经网络(Faster R-CNN)检测器为基础,结合生成对抗网络(GAN)的目标检测算法实现对小目标交通标志的检测。Faster R-CNN首先根据期望目标设定合适的锚点数量,生成包含小目标的候选区域,再使用生成网络对候选区域中的模糊小目标进行上采样,生成高分辨率图像,最后使用分类损失函数与回归损失函数对判别网络进行改进。试验结果表明,Faster R-CNN和生成对抗网络相结合的检测算法可以提高远距离小目标交通标志检测性能。  相似文献   

14.
基于倾向流和深度学习的机场运动目标检测   总被引:1,自引:0,他引:1       下载免费PDF全文
针对当前基于视频图像的场面监视目标检测方法存在定位误差较大,识别准确率低等问题,建立一种结合目标运动信息的机场场面运动目标检测方法:利用倾向流法提取出运动目标在图像中的候选区域,对候选区域执行点池化操作以确定区域建议的边界,采用Inception结构构建一个浅层卷积神经网络,并使用该网络对区域建议中的航空器、车辆和人员进行识别.结合国内机场的监视视频,构建了一个包含4 938张图片的机场目标数据集,用于算法的训练和测试.结果 表明,运动目标提取的准确率达到94%以上,运动目标识别的Top-1准确率达到了97.23%,运动目标平均准确率达到86.23%.与3种深度学习目标检测算法相比,运动目标检测精度平均提升了39%.   相似文献   

15.
利用视觉传感器信息丰富的特性,提出了一种基于边缘对称性的行人检测方法。利用Sobel算子和Hough变换确定车辆前方的感兴趣区域(AOI),然后提取感兴趣区域图像的垂直边缘,根据行人腿部的垂直边缘对称性确定垂直边缘对称轴,并结合行人形态特征以确定行人初始候选区域,最后采用灰度对称性和局部熵对行人候选区域进行目标识别验证。道路试验结果表明,该检测方法识别有效、可靠,并具有良好的鲁棒性。  相似文献   

16.
为了提高交通目标检测的实时性和准确性,针对交通目标检测过程中普遍存在的背景复杂、光线变化、物体遮挡等干扰问题,以及基于深度学习的目标检测算法在进行区域选择时滑动窗口遍历搜索耗时的问题,提出一种基于时空兴趣点(STIP)的交通多目标感兴趣区域快速检测算法。像素级时空兴趣点检测在处理目标遮挡时具有较好的鲁棒性,利用这一特点,首先在传统兴趣点检测算法的基础上加入背景点抑制和时空点约束,以减少无效兴趣点对有效兴趣点检测带来的干扰。通过改进均值漂移算法,使得聚类中心数量随目标数目的变化而改变。然后对被检测出的多目标附近的候选兴趣点分别进行聚类,获取各个目标聚类中心位置信息。根据聚类中心点与筛选后的目标兴趣点之间的相对位置关系进行特定组合获得感兴趣区域。在这些感兴趣区域上使用选择性搜索算法生成1 000~2 000个候选区域,并将这些候选区域放入训练好的深度卷积神经网络模型中进行特征提取。最后将特征提取结果送入支持向量机中进行目标种类判别并使用回归器精细修正目标识别框的位置。研究结果表明:通过对候选区域进行预处理,送入模型中的候选区域数量减少了82%,对应算法整体运行时间减少了74%,能够满足智能交通监控的实际需求。  相似文献   

17.
赵霞  李朝  付锐  葛振振  王畅 《汽车工程》2023,(6):974-988+1009
针对基于端到端深度卷积神经网络的驾驶行为检测模型缺乏全局特征提取能力以及视觉Transformer(vision transformer,ViT)模型不擅长捕捉底层特征和模型参数量较大的问题,本文提出一种基于深度卷积和Tokens降维的ViT模型用于驾驶人分心驾驶行为实时检测,并通过开展与其他模型的对比试验、所提模型的消融试验和模型注意力区域的可视化试验充分验证了所提模型的优越性。本文所提模型的平均分类准确率和精确率分别为96.93%和96.95%,模型参数量为21.22 M,基于真实车辆平台在线推理速度为23.32 fps,表明所提模型能够实现实时分心驾驶行为检测。研究结果有利于人机共驾系统的控制策略制定和分心预警。  相似文献   

18.
混合交通中车辆和行人的检测识别是研究如何让计算机以人的思维方式从视频或图像中将车辆和行人从背景中区分出来。车辆检测与行人检测作为智能交通系统的核心组成部分,具有重大的研究价值与现实意义。本文基于候选区域和深度网络的深度特征提取方法,通过获取场景中的大量实时图像数据进行多任务深度模型训练,实现复杂交通场景中的车辆检测和行人检测的任务。相比于传统的车辆检测算法和行人检测算法,基于候选区域和深度网络的深度特征提取方法具有独特的优势:检测的准确性、鲁棒性、实时性可以在一定的条件下达到比较满意的程度。而传统车辆与行人的检测算法,并不能同时在3项指标上达到较好的状态。此外,候选区域的确定避免了穷举式搜索目标,从而节省了大量时间开销。  相似文献   

19.
为实现在自动驾驶复杂场景下检测数量变化的车道线,提出一种基于实例分割的车道线检测算法。首先以ResNet18网络作为主干网络提取图像特征,采用特征金字塔网络进行特征融合。同时设计一种扩张卷积残差模块来提高检测的精度;然后基于车道线的位置进行实例分割,利用语义分割出的车道线点位置预测对应的聚类点位置,通过对聚类点采用DBSCAN聚类算法实现车道线实例区分。结果表明,该算法能够在复杂的自动驾驶场景下有效地进行多车道线检测,在CULane数据集和TuSimple数据集上的调和平均值分别达到75.2%和97.0%。  相似文献   

20.
为了充分利用自动驾驶汽车路测图像数据,增加行驶过程中对天气情况识别的准确性,提出了一种基于改进 ResNet50 网络的自动驾驶场景天气识别算法。该算法将 SE 模块与 ResNet50 网络相结合,通过在 ResNet50 网络 4 组模块内加入 SE 模块,以便更好地拟合通道间复杂的鲁棒性。基于自动驾驶汽车路测图像数据对所提算法进行 Python 编程实现,结果表明:SE 模块的加入能够增加算法的鲁棒性和准确性,提高了自动驾驶的天气识别精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号