共查询到20条相似文献,搜索用时 125 毫秒
1.
在智能车辆的同时定位与建图中,视觉特征点法通过对特征点的提取和匹配进行车辆位姿估计,但当环境缺少纹理或动态变化时,场景的特征稀疏、稳定性差,基于自然特征定位易导致精度下降甚至定位失败。在环境中加入视觉标签可有效解决特征稀疏问题,但基于视觉标签的定位方法高度依赖人工标定,且常因视角变化出现位姿抖动,影响定位的精度。为此,本文提出了一种基于标签的车辆视觉SLAM方法,充分利用标签信息,引入内外角点约束降低标签位姿抖动,同时借助视觉里程计建立低漂移、全局一致的地图;在定位时基于标签估计车辆位姿,并联合优化标签地图与车辆位姿,从而构建低成本、高鲁棒的视觉SLAM系统。试验结果表明,本文方法使用内外角点约束有效降低了标签的位姿抖动,使标签建图精度的提升率超过60%,定位精度的平均提升率超过30%,显著地提高了基于标签定位的精度与鲁棒性,有利于智能车辆的安全运行。 相似文献
2.
3.
4.
在自动驾驶车辆研究领域中,SLAM车辆感知是热点研究领域之一,SLAM根据里程计类型可分为以视觉为主和以激光为主。两者本质上都以实现位姿估计和地图构建为目的,激光里程计主要是构建点云地图比较直观,视觉里程计构建的是稀疏视觉特征的地图。本文提出紧耦合双里程计传感器融合的SLAM框架,以完成实时状态估计和地图构建,并且具有高精度和鲁棒性。该方法可以有效地解决传统基于视觉或激光算法或者视觉和激光单一松耦合中累积误差的问题,框架融合了视觉与激光惯性的各自优点而形成两个子系统,这两个子系统采用紧密耦合方式进行设计,构成一个完整的系统。实验通过Ouster数据集评估绝对轨迹整体误差,并且该方法在自动驾驶接驳车中的应用表现出较高的精度。 相似文献
5.
6.
为提高智能车节点定位准确率, 研究了基于3D点云语义地图表征的智能车定位方法。该方法分为3个部分: ①基于三维激光点云的语义分割, 包括地面分割, 交通标志牌分割和杆状语义目标分割; ②面向智能车的点云语义地图表征, 利用分割的语义目标投影, 生成带权有向图, 语义路, 语义编码, 再以语义编码和高精度GPS的全局位置组成语义地图表征模型; ③基于语义表征模型的智能车定位, 包括基于GPS匹配的粗定位和基于语义编码渐进匹配的节点定位。实验在3种长度不同、复杂度不同的道路场景下进行, 节点定位准确率分别为98.5%, 97.6%和97.8%, 结果表明所提出的定位方法节点定位准确率高、鲁棒性强且适用于不同的道路场景。 相似文献
7.
车辆在行驶过程中车路状况复杂多变,车载摄像机外参数会发生较大的变化,针对采用传统的基于预先标定外参数的方法进行车辆位姿计算会带来较大误差的问题,研究了一种基于实时三线标定的车辆视觉定位方法.基于三线标定法实时标定车载摄像机外参数,降低了其受到车辆震荡和路面环境的影响.然后利用外参数的实时标定结果,结合射影几何和消失点原理对车辆进行位姿计算,获取车道偏离距离和车辆偏转角度信息,从而实现对车辆的定位.通过在不同的路段架设不同高度的车载摄像机进行真实道路实验,计算车辆的位姿.结果表明,在不同路况下,车辆偏离车道线距离的平均误差为7.3cm,偏转角度平均误差为1.5°.该算法通过实时标定车载摄像机外参数,可以有效提高车辆位姿计算的精准性与适应性,对车载摄像机外参数的标定性能明显优于传统的预先标定法. 相似文献
8.
《公路交通科技》2017,(12)
为了解决激光雷达扫描远距离运动车辆产生的点云稀疏导致位姿特征难以提取的问题,提出了一种远距离运动车辆位姿估计方法。首先利用时空连续性提取远距离运动车辆。然后利用最小二乘拟合得到稀疏点云水平面二维投影近似拟合直线对,依次在不同角度的垂直正交直线对上对稀疏点云的二维投影进行一维向量估计的装箱过程,基于目标车辆与激光雷达间相对位置的观测角函数最大化匹配滤波响应,进而利用全局优化算法对投影点概率分布与匹配滤波运算得到的代价函数作离散卷积,寻优比较得到单帧拟合最优矩形。最后结合连续帧平移约束进行多帧拟合,优化当前帧目标车辆拟合矩形的位姿。利用仿真和真实场景下采集的目标车辆点云数据进行算法验证分析。结果表明:在点云稀疏的情况下,当远距离目标车辆做直线运动时,提出的多帧拟合方法得到的位姿参数均方根误差低于单帧拟合和已有的RANSAC拟合方法;当远距离目标车辆做曲线运动时,提出的单帧拟合和多帧拟合方法得到的位姿估计结果较为接近,且误差明显低于已有的RANSAC拟合方法;对于不同相对距离下采集的目标车辆点云,提出的单帧拟合和多帧拟合位姿估计方法的适应性优于已有的RANSAC拟合方法。 相似文献
9.
《中国公路学报》2017,(1)
为了在GPS盲区中利用激光雷达构建地图,提出了一种基于回环检测的高精度2D激光点云地图构建方法。首先,从2D激光雷达观测数据中获得无人车的位姿,在2D高斯概率密度空间中提取每帧数据中的环境特征以及求得高斯映射值累加和。其次,利用粒子滤波对车辆位姿与环境特征进行融合优化得到低精度的点云地图和特征地图。然后,利用数据帧中环境特征的数量、车辆位姿以及高斯映射累加和,计算发生轨迹回环的可能性;遍历所有观测帧后得到无人车轨迹回环帧;利用三角剖分法求解回环帧之间的真实转换关系。最后,利用图优化方法得到全局最优的无人车位姿和高精度点云地图与特征地图。试验结果表明:特征地图中同一特征的多次识别结果之间的标准差小于5mm;利用车辆位姿、环境特征和高斯映射累加和能够有效发现路径回环的可能性,其处理2 499帧耗时1.61s;利用Delaunay三角剖分能够准确计算路径回环点,单次运行用时小于1s。 相似文献
10.
11.
针对图像和原始点云三维目标检测方法中存在特征信息残缺及点云搜索量过大的问题,以截体点网(frustum PointNet, F-PointNet)结构为基础,融合自动驾驶周围场景RGB图像信息与点云信息,提出一种基于级联YOLOv7的三维目标检测算法。首先构建基于YOLOv7的截体估计模型,将RGB图像目标感兴趣区域(region of interest, RoI)纵向扩展到三维空间,然后采用PointNet++对截体内目标点云与背景点云进行分割。最终利用非模态边界估计网络输出目标长宽高、航向等信息,对目标间的自然位置关系进行解释。在KITTI公开数据集上测试结果与消融实验表明,级联YOLOv7模型相较基准网络,推理耗时缩短40 ms/帧,对于在遮挡程度为中等、困难级别的目标检测平均精度值提升了8.77%、9.81%。 相似文献
12.
13.
在自动驾驶系统的即时定位及地图构建问题中,当行车路况复杂多变时,如何对车辆位姿进行准确实时估计是一个关键问题。就该问题提出基于因子图的多传感器融合方法,在Matlab 软件环境中实现车辆的准确实时定位。根据实际驾驶过程的特性选择试验采用的数据类型并建立相应的数学模型,分别根据GPS 及IMU 数据特征以及VO 和IMU的数据特征建立相应的融合因子图模型,基于KITTI 数据集,对所建立的融合因子图模型进行试验验证。结果表明,通过融合因子图模型可以准确地估计车辆当前时刻的位姿。 相似文献
14.
15.
蒋朝阳兰天然郑晓妮高九龙叶学通 《汽车工程》2022,(12):1809-1817
可靠的定位与导航是实现自动驾驶的先决条件。单车视觉同时定位与建图(SLAM)技术能够在GNSS拒止的情况下实现车辆的定位,但累积误差会随运行时间逐渐增加,难以持续准确完成定位任务。通过多车协同视觉SLAM可以提升定位效果。本文提出了一种鲁棒、轻量化的分布式多车协同视觉SLAM系统,该系统以ORBSLAM2作为视觉里程计,利用NetVLAD全局图像描述子实现多车间共视区域识别和数据关联;提出了一种基于数据相似性和结构一致性的方法,实现多车间闭环离群值剔除;提出了一种分布式位姿图优化方法,提高多车协同定位精度。经过自主搭建平台所采集的真实数据以及KITTI数据集测试,该系统相较于已有的主流视觉SLAM算法以及协同SLAM算法均具有更高的定位精度。 相似文献
16.
激光雷达(LiDAR)、全球导航卫星系统(GNSS)与惯性测量单元(IMU)之间的外部参数标定精度是影响多传感器融合及高精度地图的主要因素。基于此,提出一种适用于无人车的LiDAR与GNSS/IMU标定方法,该方法可实时提取标定板点云中心坐标,并利用点特征进行外部参数标定。首先,分析了LiDAR、GNSS、IMU及通用横墨卡托格网系(UTM)坐标系的变换关系;其次,基于IMU安装平面与地面平行的假设,通过车辆前方地面的法向量计算LiDAR俯仰角和滚转角的初值,并利用标定板中心偏移量计算偏航角初值;然后,假设车辆在平面上保持直线运动,采用恒定姿态运动将旋转角度的求解问题转化为最优化问题,并根据标定板UTM坐标不变的约束求解出平移参数;最后,通过分析算法误差、传感器测量误差以及中心点匹配误差验证了方案的可行性,并通过无人矿车采集LiDAR、GNSS和IMU的同步数据,对所提出的外部参数标定方法进行测试。试验结果表明:提出的方法只需要一定范围的平坦区域和标定板就可以解决3自由度运动估计6自由度外部参数的退化问题,且标定后的外部参数可以保证点云地图在20 m内的拼接误差小于20 cm。 相似文献
17.
18.
集料级配是影响沥青路面抗滑和减噪性能的最主要因素,基于机器视觉技术,提出一种集料粒径高精度无损检测方法,结合骨架提取和支持向量机(SVM)算法来实现集料颗粒粒度分布的精确估计,为保证集料级配质量提供了有效手段。集料颗粒图像由数字相机获取,图像标定基于NI视觉助手Vision Assistant软件完成。颗粒骨架图像采用Skeleton-M骨架提取算法提取,针对所出现的骨架断裂情况,使用形态学膨胀和细化算法完成骨架修复;然后基于颗粒骨架图像提出颗粒粒径表征算法,基于骨架端点个数提出颗粒棱角表征方法;最后,通过提取颗粒图像特征参数,使用SVM算法对颗粒粒径分布进行精确估计。在颗粒棱角性表征方面,将所提出的颗粒骨架棱角性表征法与AIMS系统的梯度棱角法、未压实空隙率集料颗粒棱角法进行了比较。结果表明:与目前常见的粒径表征方法相比,所提出的方法可以较好地实现颗粒粒径表征和颗粒棱角性表征,所采用的基于多特征的SVM颗粒分档算法可以有效实现颗粒粒径分档,筛分档间的分档精度最高可达95%以上。 相似文献
19.
钢桥面板疲劳开裂为常见的钢桥病害,准确快速地发现并确定钢桥面板裂纹几何特征对降低运维成本、制定运维策略具有重要意义。针对传统人工巡检效率低、检测环境恶劣等问题,提出了基于计算机视觉的钢桥面板裂纹及其特征识别方法。采用目标检测网络YoloV5和图像语义分割网络U-Net++相结合的方法识别裂纹。根据2个网络的结构特性标注图像中的目标后生成数据集,并分别对网络中的参数进行训练。利用训练后的YoloV5与U-Net++分阶段对待测裂纹图像进行检测与分割,并通过阈值分割优化U-Net++分割结果,再通过骨架化后得到裂纹骨架线;在确定裂纹形貌后,采用YoloV5识别出的标定块求解透视变换矩阵与像素尺度系数,然后对裂纹骨架线进行图像矫正并确定裂纹几何特征。研究结果表明:YoloV5可准确检测出裂纹与标定块,且检测稳定性好;通过优化U-Net++训练时输入的像素尺寸,提高了U-Net++训练的收敛速度,网络损失由0.121降至0.096;求解透视变换矩阵时,使用所有角点坐标拟合该矩阵的最小二乘解可提高图像矫正标定的精度;当图像采集距离较远、角度较大时,角点投影误差增大,且该误差对角度更为敏感;不同图... 相似文献
20.
整车制造工厂车身车间零件样式和包装形式复杂多样,无序堆叠的小型金属零件自动抓取是实现车身车间上件完全自动化的关键环节。文章以一个无序堆叠包装的小型金属零件自动抓取为案例,搭建了包含机器人、抓手、料箱及视觉的验证系统,分别针对视觉抓取工艺中涉及的零件识别、路径规划、搬运定位三个关键步骤进行验证。研究结果发现,影响开动率和清箱率的三个关键因素是视觉传感器类型选择、抓取后零件定位精度、物料料箱设计形式及颜色。影响无序抓取的关键因素识别,确保了车身零件无序抓取系统性可靠性,为整车制造车身车间无序抓取应用起到借鉴作用。 相似文献