首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为提高自动驾驶车辆在高速动态复杂交通场景下车辆换道意图识别精度和预判能力,提出了基于融合注意力机制的卷积残差双向长短时记忆(BiLSTM)识别模型。采用一维卷积神经网络提取车辆运动状态特征;将构造的特征向量作为BiLSTM输入信息;通过残差连接,解决多层BiLSTM易出现的优化瓶颈和梯度消失问题;利用注意力机制,调整残差BiLSTM不同时刻输出权重;应用Softmax函数计算驾驶意图概率。采用NGSIM高速公路数据集对模型进行验证,并与其他4种模型进行对比,结果表明:该模型对换道意图整体识别准确率最高,达到97.44%,在换道前2.5 s预测结果准确率达到90%以上,具有更好的识别精度和预判能力。  相似文献   

2.
为改善道路交通监测和保证智能网联交通系统的安全、可靠与稳定运行,提出了在路侧边缘平台中基于多通路高分辨率网络与注意力机制融合的车辆检测模型MCHRANet。该模型采用多通路的高分辨率网络的结构设计,保留高分辨率特征并保障识别准确率。融入注意力机制的特征融合方法,通过特征连接权重自学习实现多尺度特征的深度融合。各通路网络采用跳跃连接促进跨层特征融合,加速网络收敛,并利用公开数据集对车辆检测性能进行评估并验证。结果表明:所提模型的车辆检测性能优于3个传统模型,改进后的网络识别平均精度均值(mAP)指标接近95%,且对于不同场景下的检测具有良好的鲁棒性。  相似文献   

3.
针对道路交通环境中路面标志识别涉及的数据集较少和识别准确率不足的问题,研究了基于深度卷积生成对抗网络的道路表面指示标志的识别方法.在深度卷积生成对抗网络的结构基础上,根据具体应用修改生成网络和判别网络的损失函数,并用随机梯度下降算法替代原始的优化器,对指示标志的原始样本集进行样本生成,以增加样本数据量.基于Faster R-CNN算法进行路面标志的特征提取,实现路面指示标志的识别,并基于迁移学习对识别模型进行微调,将目标识别效果应用于实际道路环境中.实验结果表明,通过深度卷积生成对抗网络生成的样本图像有效地扩增了路面标志的数据集,增广后的多类目标识别的mAP提高了17.1%,小样本情况下的识别准确率随着样本量的增加和样本质量的改善而得到了明显的提高.   相似文献   

4.
为实现周围车辆行驶轨迹的准确预测,运用深度学习方法,设计了一种基于图神经网络与门控循环单元(GRU)的驾驶意图识别及车辆轨迹预测模型。驾驶意图识别模型将车-车间的交互关系构造成时空图,运用图神经网络学习其交互规律,并利用Softmax函数计算出不同驾驶意图的概率;轨迹预测模型采用编码-解码的GRU网络,编码器将车辆历史轨迹信息进行编码并融合识别的驾驶意图信息,再通过解码器实现轨迹预测。最后采用NGSIM数据集对模型进行训练和验证,结果表明:所提出的模型能够更好地识别车辆的驾驶意图,且考虑驾驶意图的车辆轨迹预测模型能够有效提高预测精度。  相似文献   

5.
目前基于深度学习的路面裂缝识别经常面临训练数据集小,以及路面图片标注成本高等问题,基于小规模路面图片数据集,利用卷积自编码(CAE)方法进行数据增强,开展包括路面裂缝在内的路面目标智能化识别方法研究。在传统图像几何变换数据增强的基础上,采用CAE重构图片方法对原始数据集进行两步骤扩增;利用卷积神经网络DenseNet,设置了不同数据扩增方法的对比试验;针对沥青路面裂缝图片背景较黑,裂缝特征不清晰,无监督聚类学习难度大等问题,采用了一种基于CAE预训练的深度聚类算法DCEC,对经数据增强的路面图片进行无标注的聚类识别。研究结果表明:经过DenseNet网络100代的训练,在同一测试集的测试下,基于原始数据集训练的网络分类准确度为78.43%,利用传统图像处理方法进行扩增后准确度为83.44%,利用所提出的图片增强方法进行数据扩增后准确度达87.19%;在保持扩增后数据集样本量大小相同的情况下,与几何变换、像素颜色变换等经典数据增强手段相比,CAE重构图片的数据扩增方法有较高的路面图片识别精度;CAE数据扩增方法较受训练数据集样本量的影响,利用传统方法将数据集扩增后进行CAE特征学习,重构后的图片样本更易被机器识别;相较于传统机器学习聚类算法,所提出的的DCEC深度聚类方法将聚类准确率提升了约10%,初步实现了无需人工标注的路面目标的端到端智能识别。  相似文献   

6.
针对BP神经网络等车型识别算法不能很好地适应我国车型复杂状况,分析了贝叶斯网络(IDS-BN)算法中完备数据集的问题,提出了基于非完备数据集的贝叶斯网络车型识别方法和车型识别系统结构模块,基于该模块拟定了车型特征变量.构建了车型识别网络模型,并给出了模型参数学习、车型分类器等算法,包括MDL评分和贪婪搜索的结构学习、EM参数学习、随机模拟采样推理等。实验表明,该方法识别率较高,鲁棒性好,满足我国车型识别的实际要求。  相似文献   

7.
本文中针对车型识别中计算时间长、识别精度低的问题,提出基于联合特征和压缩字典学习的车型识别算法。首先,利用SIFT算法提取车辆原始图像的纹理特征和车辆图像边缘的形状特征,并将其串联,生成更具差别性的联合特征;然后,构建特征字典并进行字典学习,在此过程中,将特征字典分成大小相同的数据块,利用非常稀疏随机投影矩阵,降低样本数据块的维度,通过稀疏编码和字典更新两个阶段,生成最终压缩特征字典;最后,建立稀疏表示分类模型,通过计算待测目标在字典中的最小重构误差,实现车型识别。实验结果表明,该算法能有效提高车型识别准确率和实时性。  相似文献   

8.
为了研究现有车辆目标检测算法的检测精度与检测速度相矛盾的问题,提出了一种小型化的改进YOLOv3深度卷积网络的实时车辆检测及跟踪算法。采用构建卷积层数少的网络架构以及进行多目标跟踪的方法,分析了大网络模型结构时正向推理速度慢、小网络模型结构时检测精度低的原因。在不同尺度卷积特征多层次提取车辆特征信息来保证准确率的基础上,利用K-means++算法改进聚类先验框中心点的提取,同时借鉴darknet19骨干网络结构,构建一种网络深度更小的基础卷积网络结构,采用更少的重复残差块结构单元,使网络模型结构小型化。在采用卡尔曼滤波算法对目标检测后下一时刻的车辆位置进行跟踪的基础上,利用匈牙利匹配算法进行分配关联视频相邻帧中的车辆,确定被检测目标唯一标签ID,实现对多个目标的精确定位与跟踪,以此改善检测不连续、漏检、目标被遮挡等检测不稳定的情况。结果表明:在实车自采集数据和公开数据集KITTI上进行测试,相较于YOLOv3网络,在平均准确率基本保持不变情况下,网络参数减小,网络模型大小缩小为1/4,为57.2 MB,检测速度提高一倍,达到101.7 f/s。整体算法检测速度达到11.3 ms/帧,检测率为97.50%。该小型化网络检测跟踪算法在复杂道路环境中有较强的鲁棒性,可以满足实际智能驾驶过程中对车辆检测跟踪的精度、速度的要求。  相似文献   

9.
针对现有的深度学习目标检测算法中存在的复杂光照场景下检测精度不高、实时性差等问题,提出了一种基于YOLO算法的抗光照目标检测网络模型YOLO-RLG。首先,将输入模型的RGB数据转换为HSV数据,从HSV数据分离出抗光照能力强的S通道,并与RGB数据合并生成RGBS数据,使输入数据具备抗光照能力;其次,将YOLOV4的主干网络替换成Ghostnet网络,并对其在普通卷积与廉价卷积的模型分配比例上进行调整,在保证检测精度的同时提高检测速度;最后,用EIoU替换CIoU改进模型的损失函数,提高了目标检测精度和算法鲁棒性。基于KITTI与VOC数据集的实验结果表明,与原网络模型比较,FPS提高了22.54与17.84 f/s,模型降低了210.3 M,精确度(AP)提升了0.83%与1.31%,且算法的抗光照能力得到显著增强。  相似文献   

10.
针对乘用车车内异响识别研究过程中数据集少且人工诊断法效率低的问题,提出了一种具有高识别准确率的数据扩充方法,并采取卷积神经网络与Transformer编码器栈并行的工作机制获得分类模型。结果表明,当将提取的扩充数据的梅尔倒谱系数特征用作并行网络的输入时,所提出的数据扩充方法可有效提高分类性能,且拟议模型在测试集上可以实现高达98.31%的分类精度。  相似文献   

11.
针对基于模型的视觉里程计在光照条件恶劣的情况下存在鲁棒性差、回环检测准确率低、动态场景中精度不够、无法对场景进行语义理解等问题,利用深度学习可以弥补其不足。首先,简略介绍了基于模型的里程计的研究现状,然后对比了常用的智能车数据集,将基于深度学习的视觉里程计分为有监督学习、无监督学习和模型法与深度学习结合3种,从网络结构、输入和输出特征、鲁棒性等方面进行分析,最后,讨论了基于深度学习的智能车辆视觉里程计研究热点,从视觉里程计在动态场景的鲁棒性优化、多传感器融合、场景语义分割3个方面对智能车辆视觉里程计技术的发展趋势进行了展望。  相似文献   

12.
准确识别周围车辆的换道意图将有助于自动驾驶系统决策,从而提升安全性和舒适性。提出一种基于长短期记忆(Long Short-term Memory,LSTM)网络的换道意图识别方法,能够较为准确地识别周围车辆的换道意图。该方法先通过构造收益函数来描述目标车辆(被预测的车辆)与其邻域车辆之间的交互关系,得到目标车辆左换道、右换道和车道保持的收益值,并将该收益值作为交互特征输入到意图识别网络;在意图识别网络中,引入注意力机制,通过网络自学习得到的权重对LSTM层各个时刻的输出加权求和,能够对编码信息进行有效利用,提高换道意图的识别性能;由于车辆的换道意图存在较强的前后依赖性,引入条件随机场(Conditional Random Field,CRF),采用意图转移特征函数对各个时刻换道意图进行联合建模,并构建负对数似然损失函数作为整个网络的损失。为了验证所提方法的有效性,基于NGSIM数据集训练并评估模型。结果表明:所提方法对换道意图识别的准确率、宏观F1分数、测试集损失分别为0.916 4、0.874 6和0.168 3,均优于支持向量机(SVM)、隐马尔可夫模型(HMM)和LSTM模型。同时,所提模型对左换道和右换道的平均换道提前识别时间分别为3.08、2.33 s,综合换道提前识别时间为2.81 s,优于基线模型,能够为主车的决策提供充足的冗余时间。通过消融分析可知,引入的交互作用模块、注意力机制和条件随机场对准确率的贡献分别为0.012 2、0.004 3和0.011 0,印证了相关模块的有效性。最后由场景验证的案例可以得出,所提方法在准确率、稳定性和换道提前识别时间等指标上优于对比模型。  相似文献   

13.
针对传统算法无法满足复杂交通场景下无人驾驶车辆对周围运动车辆轨迹预测需求的问题,提出一种基于观测数据潜在特征与双向长短期记忆(BiLSTM)网络的车辆轨迹预测方法.首先利用一维卷积神经网络(1DCNN)提取由传感器所获取的车辆运行状态观测数据的潜在特征,然后将以序列方式构造的具有时空关系的特征向量作为BiLSTM网络的...  相似文献   

14.
程腾  倪昊  张强  王文冲  石琴 《汽车工程》2024,(2):222-229
针对点云的稀疏性和无序性对目标检测准确率的影响,本文提出了一种基于虚拟点云的二阶段多模态融合网络VPC-VoxelNet。首先,利用图像检测目标信息构造虚拟点云,增加点云的密集程度,从而提高目标特征的表现;其次,增加点云特征维度以区分真实和虚拟点云,并使用含置信度编码的体素,增强点云的相关性;最后,采用虚拟点云的比例系数设计损失函数,增加图像检测有监督训练,提高二阶段网络训练效率,避免二阶段端到端网络模型存在的模型误差累计问题。该目标检测网络VPC-VoxelNet在KITTI数据集上进行了测试,检测精度优于经典三维点云检测网络和某些多传感器信息融合网络,车辆检测精度达到了86.9%。  相似文献   

15.
针对视角和环境变化的场景中现有视觉位置识别方法存在的匹配遗漏和实时性差的问题,提出基于单级特征图融合坐标注意力的视觉位置识别方法。首先通过坐标注意力捕获特征的相对位置信息,然后利用扩张卷积和局部聚合向量网络(NetVLAD)构造多尺度特征融合的编码器,最后基于三元组损失训练网络。经Pitts30k和Nordland数据集验证,在位置识别试验中,与同基线的先进方法 Patch-NetVLAD相比,所提出的方法能够获得同等的召回精度且检索速度提高19%。在回环检测试验中,所提出的方法达到了合理平衡鲁棒性和检索速度的目标。  相似文献   

16.
针对现有道路抛洒物检测算法识别准确率低、识别种类有限、实时检测效率低的问题,探索了将深度学习目标检测和传统图像处理相结合的抛洒物检测算法。提出在YOLOv5s目标检测算法基础上,对模型结构进行修改以满足实时性需求。具体地,使用卷积优化YOLO中的降采样模块,采用Ghost网络替代原始的特征提取网络以减少计算量,根据抛洒物检测对象的特点设计符合数据集的锚框以提高目标识别准确度。使用优化后的YOLO检测道路场景中车辆、行人作为交通参与者得到检测框,在检测框周围设定感兴趣区域,并在感兴趣区域内用背景差分算法实现前景目标识别。计算前景目标与YOLO检测结果的交并比,排除交通参与者目标后实现道路抛洒物的识别。针对交通参与者检测的实验结果表明,改进后的YOLO检测算法在整体识别精度没有损失的情况下单帧检测速度为20.67 ms,比原始YOLO检测算法速度提升16.42%。真实道路抛洒物实验结果表明,在没有抛洒物训练数据情况下,传统混合高斯模型算法平均精度值为0.51,采用融合改进YOLO和背景差分的抛洒物检测算法平均精度值为0.78,算法检测精度提高52.9%。改进后算法可适用于没有抛洒物数据或正样本数据稀少的情况。该算法在嵌入式设备Jetson Xavier NX上单帧检测速度达到24.4 ms,可实现抛洒物的实时检测。   相似文献   

17.
为对混凝土病害图像进行更精确的实例分割,提出改进掩码-区域卷积神经网络(Mask Region Convolution Neural Network, Mask-RCNN)。该网络采用轻量级的可移动网络(MobileNetV2)代替原始Mask-RCNN中卷积层过大的主干网络——残差网络(ResNet101),加入路径聚合网络(PANet),以提高Mask-RCNN提取浅层特征信息的能力。为验证改进Mask-RCNN的识别精度及其在实际工程中的可行性,首先构建多类混凝土病害图像数据集,利用K-means聚类算法确定最适合该数据集的先验边界框的长宽比,然后对比改进Mask-RCNN与原始Mask-RCNN、其它主流深度学习网络对混凝土五类病害(裂缝、露筋、剥落、白皙和空洞)的识别结果;最后利用无人机采集到的钢筋混凝土桥梁病害图像作为测试集进行测试。结果表明:改进Mask-RCNN在提高计算速度的同时能更准确地定位病害,减少了误检和漏检,识别精度高于原始Mask-RCNN及其它深度学习网络;改进Mask-RCNN可以识别无人机拍摄的未经训练的新的混凝土病害图像,识别精度满足实际工程需求。  相似文献   

18.
针对现有端到端自动驾驶模型输入数据类型单一导致预测精确度低的问题,选取RGB图像、深度图像和车辆历史连续运动状态序列作为多模态输入,并利用语义信息构建一种基于时空卷积的多模态多任务(Multimodal Multitask of Spatial-temporal Convolution,MM-STConv)端到端自动驾驶行为决策模型,得到速度和转向多任务预测参量。首先,通过不同复杂度的卷积神经网络提取场景空间位置特征,构建空间特征提取子网络,准确解析场景目标空间特征及语义信息;其次,通过长短期记忆网络(LSTM)编码-解码结构捕捉场景时间上、下文特征,构建时间特征提取子网络,理解并记忆场景时间序列信息;最后,采用硬参数共享方式构建多任务预测子网络,输出速度和转向角的预测值,实现对车辆的行为预测。基于AirSim自动驾驶仿真平台采集虚拟场景数据,以98 200帧虚拟图像及对应的车辆速度和转向角标签作为训练集,历经10 000次训练周期、6 h训练时长后,利用真实驾驶场景数据集BDD100K进行模型的测试与验证工作。研究结果表明:MM-STConv模型的训练误差为0.130 5,预测精确度达到83.6%,在多种真实驾驶场景中预测效果较好;与现有其他主流模型相比,该模型综合场景空间信息与时间序列信息,在预测车辆速度和转向角方面具有明显的优势,可提升模型的预测精度、稳定性和泛化能力。  相似文献   

19.
基于地磁的车型识别模糊数据融合方法研究   总被引:1,自引:0,他引:1  
把由各向异性磁阻传感器检测获得的地磁曲线视为车辆磁偶极模型的映像,通过分析车辆地磁曲线的峰值、峰谷比、峰值时间、谷值时间、车身长等特征的选择和提取,建立相应车型特征向量;然后,依据各类车型特征,应用三角形隶属度函数特征描述和模糊数据融合,提出了一种基于地磁传感器实时数据采集的车辆检测与车型识别流程和车型识别分类算法;最后,通过一组实际采集的车辆检测数据的分类结果,比较了4种模糊数据融合算式的差异,证明了车辆识别分类算法的有效性,并讨论了有待进一步研究的问题。  相似文献   

20.
针对大范围快速的车辆检测与计数,利用高分辨率卫星影像数据,提出了一种基于区域卷积神经网络的车辆检测算法。区域卷积神经网络是深度卷积神经网络和区域建议网络二者的结合。首先利用深度卷积神经网络自动提取各个层的特征,为了减少检测窗口的数量,提出区域建议网络,对下采样后的每个位置考虑3种窗口和对应的3种比例,这样大大减少了检测窗口的数量。再根据分类器对目标进行分类。这样将特征、检测窗口和分类器有效地结合在一起。在对遥感影像车辆检测试验中,通过对手工标注的车辆样本数据多次迭代来训练卷积神经网络和区域建议网络获取车辆检测的先验模型,再由先验模型检测出测试影像中车辆目标。与传统的基于梯度方向直方图(HOG)特征和支持向量机(SVM)车辆检测算法进行比较,在检测率方面,区域卷积神经网络算法明显高于HOG+SVM算法;在误检率方面,区域卷积神经网络检测明显小于HOG+SVM算法;在检测时间方面,同样的一张图像,区域卷积神经网络检测速度比HOG+SVM算法提升近800倍。试验结果表明:利用区域卷积神经网络方法进行大范围车辆检测,在精度和速度方面都有显著提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号