共查询到20条相似文献,搜索用时 156 毫秒
1.
针对点云的稀疏性和无序性对目标检测准确率的影响,本文提出了一种基于虚拟点云的二阶段多模态融合网络VPC-VoxelNet。首先,利用图像检测目标信息构造虚拟点云,增加点云的密集程度,从而提高目标特征的表现;其次,增加点云特征维度以区分真实和虚拟点云,并使用含置信度编码的体素,增强点云的相关性;最后,采用虚拟点云的比例系数设计损失函数,增加图像检测有监督训练,提高二阶段网络训练效率,避免二阶段端到端网络模型存在的模型误差累计问题。该目标检测网络VPC-VoxelNet在KITTI数据集上进行了测试,检测精度优于经典三维点云检测网络和某些多传感器信息融合网络,车辆检测精度达到了86.9%。 相似文献
2.
针对图像和原始点云三维目标检测方法中存在特征信息残缺及点云搜索量过大的问题,以截体点网(frustum PointNet, F-PointNet)结构为基础,融合自动驾驶周围场景RGB图像信息与点云信息,提出一种基于级联YOLOv7的三维目标检测算法。首先构建基于YOLOv7的截体估计模型,将RGB图像目标感兴趣区域(region of interest, RoI)纵向扩展到三维空间,然后采用PointNet++对截体内目标点云与背景点云进行分割。最终利用非模态边界估计网络输出目标长宽高、航向等信息,对目标间的自然位置关系进行解释。在KITTI公开数据集上测试结果与消融实验表明,级联YOLOv7模型相较基准网络,推理耗时缩短40 ms/帧,对于在遮挡程度为中等、困难级别的目标检测平均精度值提升了8.77%、9.81%。 相似文献
3.
4.
针对智能汽车道路目标检测任务中单一传感器感知能力有限、多传感器后融合处理复杂等问题,提出了一种基于Transformer交叉注意力机制的多模态感知融合方法。首先,利用交叉注意力机制能较好地融合多模态信息的优势,搭建了基于深度学习方式的端到端融合感知网络,用以接收视觉与点云检测网络的输出,并进行后融合处理。其次,对点云检测网络的三维目标信息进行高召回处理,与视觉图像检测器输出的道路目标信息一同作为网络的输入。最后,通过网络实现二维目标信息向三维信息的融合,输出对三维目标检测信息的修正,从而得到准确度更高的后融合检测信息。在KITTI公开数据集上的验证指标表明,通过所提融合方法引入二维检测信息后,相比较PointPillars、PointRCNN、PV-RCNN及CenterPoint四种基准方法,对车辆、骑行人、行人3种类别的综合平均提升分别为7.07%、2.82%、2.46%、1.60%。通过与基于规则的后融合方法对比,所提融合网络在行人和骑行人中等、困难样本检测上,分别有平均1.88%与4.90%的提升。进一步表明所提方法具有更强的适应性与泛化能力。最后,进行了实车试验平台的搭建及算... 相似文献
5.
针对无人机航拍视角下存在整体图像分辨率高但占比较高的小尺度车辆检测特征点稀少这一问题,从卷积网络检测器针对性优化与基于目标分布特征的航拍图像自适应切分2个角度综合考虑,提出一种基于目标空间分布特征的无人机航拍车辆检测网络DF-Net。以单阶段目标检测框架SSD为基础,引入深度可分离卷积和抗混叠低通滤波器对网络结构进行优化搭建E-SSD,为后续检测网络搭建提供高效检测器;接着基于条件生成对抗CGAN思想构建密度估计网络生成器,从而得到航拍图像中车辆的准确分布特征,生成高质量的车辆密度图;将E-SSD与车辆密度估计网络结合,对车辆密度图进行自适应切分,并将切分后的局部图像与全局图像一同输入E-SSD,最后在决策层融合检测结果,由此实现对航拍视角道路交通场景下车辆目标的精确高效检测。在试验中,一方面将设计的基于目标空间分布特征的无人机航拍车辆检测网络DF-Net与E-SSD进行对比分析,另一方面将DF-Net与航拍目标检测领域表现较为优秀的网络进行比较。研究结果表明:设计的方法对于2个试验在均值平均精度指标上均有提升,与E-SSD网络对比时提升了至少4.4%,与航拍目标检测领域优秀网络比较时也有一定提升,并保持了较好的实时性。 相似文献
6.
准确的多目标感知系统是自动驾驶技术的关键。本文提出了一种基于相机与激光雷达融合的多目标检测算法。针对相机传感器无法获得准确的目标距离等深度信息,激光雷达无法获得准确的目标类别信息的问题,首先采用嵌入自适应特征融合模块的YOLOv7网络处理相机数据,同时对激光雷达数据进行点云预处理以消除无用的噪声点;其次,利用坐标变换将激光点云数据和相机数据转换到像素坐标系中;最后,采用基于ROI感兴趣区域的方法对点云进行聚类处理,以参数加权的方式融合两种传感器的检测结果。实验结果表明,嵌入改进YOLOv7网络的融合算法能够检测出更加准确的目标信息。 相似文献
7.
环境感知是智能辅助驾驶的底层模块,单传感器感知存在易受干扰、所需配置传感器数量多和感知效果差等弊端,为此提出一种车载数字相机与激光雷达融合算法。综合考虑信息融合高效性与系统鲁棒性采取决策级融合策略,利用CENTER POINT算法对雷达点云数据进行处理,再利用Yolo v3算法进行密集型数据训练处理图像数据,最后使用交并比匹配(IOU)和已有文献的D-S论据实现数据融合并输出决策结果。经过KITTI数据集验证,该融合算法输出的识别效果优于单传感器,且在多种路况上均有良好的目标检测效果。 相似文献
8.
环境车辆是自动驾驶汽车行驶时的主要障碍物之一,对环境车辆的尺寸、位置、朝向等空间信息进行感知对于保障行驶安全具有重要意义。激光雷达点云数据包含了场景中物体表面扫描点的三维坐标,是实现车辆目标检测任务的重要数据来源。结合SECOND与PointPillars方法,提出一种基于体素柱形的三维车辆目标检测模型,利用三维稀疏卷积聚合点云局部特征,在体素特征图上构造柱形并进行特征编码,有效解决点柱形方法缺乏柱形间特征交互问题,增强点云特征的空间语义信息;基于均值池化操作生成锚框点云占据位图并提出一种简单负样本过滤策略,在模型训练阶段筛除预设在无点云覆盖区域的无效锚框,缓解正负样本或难易样本不均衡问题;在目标框回归模块中,使用类别置信度与交并比(IoU)预测值计算混合置信度,改善分类分支与位置回归分支结果不一致问题,并使用KITTI三维目标检测数据集进行模型训练与评估。研究结果表明:在严格判定标准下(IoU阈值设置为0.7),所提算法在简单、中等、困难3种难度级别下分别获得了89.60%、79.17%、77.75%的平均检测精度(AP3D),与SECOND、PointPill... 相似文献
9.
近年来,随着自动驾驶技术的快速发展,智能汽车对于环境感知技术的需求也越来越高,由于激光雷达数据具有较高的精度,能够更好的获取环境中的三维信息,已经成为了3D目标检测领域研究的热点。为了给智能汽车提供更加准确的环境信息,对激光雷达3D目标检测领域主要研究内容进行综述。首先,分析了自动驾驶车辆各种环境感知传感器的优缺点;其次,根据3D目标检测算法中数据处理方式的不同,综述了基于点云的检测算法和图像与点云融合的检测算法;然后,梳理了主流自动驾驶数据集及其3D目标检测评估方法;最后对当前点云3D目标检测算法进行总结和展望,结果表明当前研究中2D视图法和多模态融合法对自动驾驶技术发展的重要性。 相似文献
10.
11.
交通图像分析是智能交通领域的关键技术之一。为实现复杂交通场景中的多目标检测与跟踪,设计了一种结合小波提升框架和KLT特征点跟踪的多运动目标检测与跟踪算法。对序列图像中相邻两帧图像的融合图像进行小波提升变换,求取水平和垂直方向上的小波能量,通过合理阈值二值化小波能量矩阵,再利用贴标签方法检测出运动目标;利用KLT特征点集合代表目标,通过跟踪后的特征点集合与目标检测区域的相互关联,实现多目标的跟踪。实验结果表明了所提算法的有效性。 相似文献
12.
针对现有激光雷达衰减模型依赖统计生成点云、缺乏噪点解释性等问题,提出了一种面向降雨环境的激光雷达衰减模型。首先,建立激光雷达发射-接收模型,并根据雨滴尺寸分布模型模拟获得雨滴空间分布数据;其次,耦合散射模型与噪点模型,获得激光传播过程的光强变化,得到点云的仿真图像;最后,采集正常天气和降雨天气下的点云图像,仿真生成不同降雨量下的衰减点云。将衰减模型获得的点云与对应实际降雨天气点云图像进行对比,结果表明:所提出的模型在各评价指标上明显优于现有模型,有效解释了降雨过程对激光雷达产生的衰减影响。 相似文献
13.
14.
针对小尺寸、远距离的交通标志检测过程中缺少信息的问题,以改进的更快速区域卷积神经网络(Faster R-CNN)检测器为基础,结合生成对抗网络(GAN)的目标检测算法实现对小目标交通标志的检测。Faster R-CNN首先根据期望目标设定合适的锚点数量,生成包含小目标的候选区域,再使用生成网络对候选区域中的模糊小目标进行上采样,生成高分辨率图像,最后使用分类损失函数与回归损失函数对判别网络进行改进。试验结果表明,Faster R-CNN和生成对抗网络相结合的检测算法可以提高远距离小目标交通标志检测性能。 相似文献
15.
针对现有端到端自动驾驶模型未考虑驾驶场景中不同区域的重要性和不同语义类别之间的关系而导致预测准确率低的问题,受驾驶人注意力机制和现有端到端自动驾驶模型的启发,充分考虑驾驶场景的动态变化、驾驶场景的语义信息和深度信息对驾驶行为决策的影响,以连续多帧驾驶场景的RGB图像为输入,构建一种基于注意力机制的多模态自动驾驶行为预测模型,实现对方向盘转角和车速的准确预测。首先,通过语义分割模型和单目深度估计模型分别获取RGB图像的语义图像和深度图像;其次,为剔除与驾驶行为决策无关信息,以神经科学和空间抑制理论为基础,设计一种拟人化注意力机制作为能量函数来计算驾驶场景中不同区域的重要度;为学习语义图像中与驾驶行为决策最为相关类别之间的关系,采用图注意力网络(Graph Attention Network,GAT)对驾驶场景的语义图像进行特征提取;然后,以保留RGB特征为原则对提取的驾驶场景的图像特征、语义特征和深度特征进行融合,采用卷积长短期记忆网络(Convolutional Long Short Term Memory,ConvLSTM)实现融合特征在连续多帧之间的传递,进而实现下一帧驾驶场景对应驾驶行为的预测;最后,与其他模型的对比试验、消融试验、泛化试验和特征可视化试验来充分验证所提出自动驾驶行为预测模型的性能。试验结果表明:与其他驾驶行为预测模型相比,所提出模型的训练误差为0.021 2,预测准确率为86.97%,均方误差为0.031 5,其驾驶行为的预测性能优于其他模型;连续多帧的语义图像和深度图像、拟人化注意力机制和面向语义特征提取的GAT有助于提升驾驶行为预测的性能;该模型具有较好的泛化能力,其做出驾驶行为预测所依赖的特征与经验丰富的驾驶人所关注的特征基本一致。 相似文献
16.
钢桥面板疲劳开裂为常见的钢桥病害,准确快速地发现并确定钢桥面板裂纹几何特征对降低运维成本、制定运维策略具有重要意义。针对传统人工巡检效率低、检测环境恶劣等问题,提出了基于计算机视觉的钢桥面板裂纹及其特征识别方法。采用目标检测网络YoloV5和图像语义分割网络U-Net++相结合的方法识别裂纹。根据2个网络的结构特性标注图像中的目标后生成数据集,并分别对网络中的参数进行训练。利用训练后的YoloV5与U-Net++分阶段对待测裂纹图像进行检测与分割,并通过阈值分割优化U-Net++分割结果,再通过骨架化后得到裂纹骨架线;在确定裂纹形貌后,采用YoloV5识别出的标定块求解透视变换矩阵与像素尺度系数,然后对裂纹骨架线进行图像矫正并确定裂纹几何特征。研究结果表明:YoloV5可准确检测出裂纹与标定块,且检测稳定性好;通过优化U-Net++训练时输入的像素尺寸,提高了U-Net++训练的收敛速度,网络损失由0.121降至0.096;求解透视变换矩阵时,使用所有角点坐标拟合该矩阵的最小二乘解可提高图像矫正标定的精度;当图像采集距离较远、角度较大时,角点投影误差增大,且该误差对角度更为敏感;不同图... 相似文献
17.
针对现有的深度学习目标检测算法中存在的复杂光照场景下检测精度不高、实时性差等问题,提出了一种基于YOLO算法的抗光照目标检测网络模型YOLO-RLG。首先,将输入模型的RGB数据转换为HSV数据,从HSV数据分离出抗光照能力强的S通道,并与RGB数据合并生成RGBS数据,使输入数据具备抗光照能力;其次,将YOLOV4的主干网络替换成Ghostnet网络,并对其在普通卷积与廉价卷积的模型分配比例上进行调整,在保证检测精度的同时提高检测速度;最后,用EIoU替换CIoU改进模型的损失函数,提高了目标检测精度和算法鲁棒性。基于KITTI与VOC数据集的实验结果表明,与原网络模型比较,FPS提高了22.54与17.84 f/s,模型降低了210.3 M,精确度(AP)提升了0.83%与1.31%,且算法的抗光照能力得到显著增强。 相似文献
18.
车辆3D形态的精确实时感知对于智能交通中的车辆行为分析、交通流参数估计等应用和无人驾驶都至关重要,其中,如何克服透视投影的限制,从路侧单目视角下感知车辆3D形态正成为具有挑战的课题之一。为解决这个难题,采取深度网络提取投影特征,结合空间标定模型中的几何约束,实现2D投影至3D空间的3D形态恢复构建。首先,基于前期工作,对道路场景中的相机构建空间标定模型,以获取透视空间的2D-3D互映射矩阵;然后,以当前流行的简洁高效的CenterNet深度网络为基础,设计车辆3D形态投影特征的检测网络,融入多尺度特征融合模块以优化透视投影下不同尺度车辆目标的检测,同时优化高斯凸包热力图以增强车辆目标的特征检测力度,根据先验几何约束设计加强损失函数以加快收敛;最后,通过建立的空间形态几何约束模型,对网络输出特征投影点进行解码,构建出完整的车辆3D形态信息。试验以路侧视角下的BrnoCompSpeed数据集和自制数据集为基础,手工标注满足试验需求的样本目标,并做图像增广以模仿多变的道路监控视角及环境。在试验结果评价中,分别对网络检测结果及最终构建的3D形态进行评价,其中对于网络检测结果,以投影特征构成投影凸包的平均精度为评价指标,交并比(IoU)阈值为0.7时,在BrnoCompSpeed测试数据集上得到AP值为87.35%,召回率和精确率分别为87.39%与90.78%。同时,设计消融试验证明网络改进模块的有效性。对于3D形态构建结果,分别对空间定位、3D尺寸、偏转角及3DIoU等指标都进行定义,并以3DIoU为评价标准,验证多个改进模块及不同视角对于最终精度的影响,最后在BrnoCompSpeed测试数据集中的平均3DIoU达到0.738。设计的网络FPS为27,可满足实时性的需求。 相似文献
19.
《隧道建设》2021,(4)
为了解决隧道形变检测准确性低、分析不全面的问题,对隧道三维点云轴线提取、隧道影像生成及分割、隧道点云数据分割和隧道断面形变检测等方面进行研究。对于三维激光扫描仪获取到的隧道原始点云数据,首先基于设计轴线,对RANSAC算法进行改进,来拟合等间距隧道断面圆心,并采用基于最小二乘优化的3次B样条曲线拟合方法,获取隧道实测轴线;其次,通过从点云数据到影像的数据转换方法,生成隧道反射率影像,并进一步利用点云数据几何特征生成几何权重图,应用边界检测提取隧道影像中的边界线;然后,将边界线像素映射至隧道三维点云数据空间,实现隧道点云数据的分割;最后,设计一种精确的隧道断面形变分析方法,分析断面形变。试验表明:本算法可精确分割隧道点云数据,提高隧道断面形变检测的准确度和可靠性。 相似文献