首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为了解决激光雷达扫描远距离运动车辆产生的点云稀疏导致位姿特征难以提取的问题,提出了一种远距离运动车辆位姿估计方法。首先利用时空连续性提取远距离运动车辆。然后利用最小二乘拟合得到稀疏点云水平面二维投影近似拟合直线对,依次在不同角度的垂直正交直线对上对稀疏点云的二维投影进行一维向量估计的装箱过程,基于目标车辆与激光雷达间相对位置的观测角函数最大化匹配滤波响应,进而利用全局优化算法对投影点概率分布与匹配滤波运算得到的代价函数作离散卷积,寻优比较得到单帧拟合最优矩形。最后结合连续帧平移约束进行多帧拟合,优化当前帧目标车辆拟合矩形的位姿。利用仿真和真实场景下采集的目标车辆点云数据进行算法验证分析。结果表明:在点云稀疏的情况下,当远距离目标车辆做直线运动时,提出的多帧拟合方法得到的位姿参数均方根误差低于单帧拟合和已有的RANSAC拟合方法;当远距离目标车辆做曲线运动时,提出的单帧拟合和多帧拟合方法得到的位姿估计结果较为接近,且误差明显低于已有的RANSAC拟合方法;对于不同相对距离下采集的目标车辆点云,提出的单帧拟合和多帧拟合位姿估计方法的适应性优于已有的RANSAC拟合方法。  相似文献   

2.
为了在GPS盲区中利用激光雷达构建地图,提出了一种基于回环检测的高精度2D激光点云地图构建方法。首先,从2D激光雷达观测数据中获得无人车的位姿,在2D高斯概率密度空间中提取每帧数据中的环境特征以及求得高斯映射值累加和。其次,利用粒子滤波对车辆位姿与环境特征进行融合优化得到低精度的点云地图和特征地图。然后,利用数据帧中环境特征的数量、车辆位姿以及高斯映射累加和,计算发生轨迹回环的可能性;遍历所有观测帧后得到无人车轨迹回环帧;利用三角剖分法求解回环帧之间的真实转换关系。最后,利用图优化方法得到全局最优的无人车位姿和高精度点云地图与特征地图。试验结果表明:特征地图中同一特征的多次识别结果之间的标准差小于5mm;利用车辆位姿、环境特征和高斯映射累加和能够有效发现路径回环的可能性,其处理2 499帧耗时1.61s;利用Delaunay三角剖分能够准确计算路径回环点,单次运行用时小于1s。  相似文献   

3.
传统的车辆同时定位与建图方法多依赖于静态环境假设,在动态场景下易引起位姿估计精度下降甚至前端视觉里程计跟踪失败。本文结合Fast-SCNN实时语义分割网络与运动一致性约束,提出一种动态场景视觉SLAM方法。首先利用Fast-SCNN获取潜在动态目标的分割掩码并进行特征点去除,以获取相机位姿的初步估计;随后基于运动约束与卡方检验完成潜在动态目标中静态点的重添加,以进一步优化相机位姿。验证集测试表明,所训练的语义分割网络平均像素精度和交并比超过90%,单帧图片处理耗时约14.5 ms,满足SLAM系统的分割精度与实时性要求。慕尼黑大学公开数据集和实车数据集测试表明,融合本文算法的ORB-SLAM3部分指标平均提升率超过80%,显著提升了动态场景下的SLAM运行精度与鲁棒性,有助于保障智能车辆的安全性。  相似文献   

4.
在智能车辆的同时定位与建图中,视觉特征点法通过对特征点的提取和匹配进行车辆位姿估计,但当环境缺少纹理或动态变化时,场景的特征稀疏、稳定性差,基于自然特征定位易导致精度下降甚至定位失败。在环境中加入视觉标签可有效解决特征稀疏问题,但基于视觉标签的定位方法高度依赖人工标定,且常因视角变化出现位姿抖动,影响定位的精度。为此,本文提出了一种基于标签的车辆视觉SLAM方法,充分利用标签信息,引入内外角点约束降低标签位姿抖动,同时借助视觉里程计建立低漂移、全局一致的地图;在定位时基于标签估计车辆位姿,并联合优化标签地图与车辆位姿,从而构建低成本、高鲁棒的视觉SLAM系统。试验结果表明,本文方法使用内外角点约束有效降低了标签的位姿抖动,使标签建图精度的提升率超过60%,定位精度的平均提升率超过30%,显著地提高了基于标签定位的精度与鲁棒性,有利于智能车辆的安全运行。  相似文献   

5.
车辆在行驶过程中车路状况复杂多变,车载摄像机外参数会发生较大的变化,针对采用传统的基于预先标定外参数的方法进行车辆位姿计算会带来较大误差的问题,研究了一种基于实时三线标定的车辆视觉定位方法.基于三线标定法实时标定车载摄像机外参数,降低了其受到车辆震荡和路面环境的影响.然后利用外参数的实时标定结果,结合射影几何和消失点原理对车辆进行位姿计算,获取车道偏离距离和车辆偏转角度信息,从而实现对车辆的定位.通过在不同的路段架设不同高度的车载摄像机进行真实道路实验,计算车辆的位姿.结果表明,在不同路况下,车辆偏离车道线距离的平均误差为7.3cm,偏转角度平均误差为1.5°.该算法通过实时标定车载摄像机外参数,可以有效提高车辆位姿计算的精准性与适应性,对车载摄像机外参数的标定性能明显优于传统的预先标定法.   相似文献   

6.
为减少由驾驶员分心造成的交通事故,并检测驾驶员在自动驾驶情况下的分心状态以判断驾驶员是否有接管车辆的能力,提出了一种基于图卷积的多信息融合驾驶员分心行为检测方法。通过分析驾驶员分心行为和姿态特征,设计了驾驶员姿态估计图,基于图卷积网络对驾驶员姿态估计图进行特征提取,使用全连接层对所提取特征进行行为分类,同时融合手机等关键物体信息对驾驶员分心行为进行再判断。实验结果表明,本文提出的方法在SrateFarm数据集和自制数据集上分别达到了90%和93%的准确率,检测速度约为20帧/s,准确性和实时性均达到检测要求。  相似文献   

7.
为提高地图的构建精度,提出一种混合视觉即时定位与地图构建方法.利用相机和激光雷达标定获得具有颜色信息的点云,并对点云数据进行预处理,选取相邻帧点云之间的特征点,制定匹配策略,对匹配点采取未解耦的位姿求解算法,获取两帧间的变换矩阵作为后续帧间匹配的初值.分别利用KITTI数据集和实车试验数据进行验证,结果表明,所提出的方...  相似文献   

8.
在自动驾驶系统的即时定位及地图构建问题中,当行车路况复杂多变时,如何对车辆位姿进行准确实时估计是一个关键问题。就该问题提出基于因子图的多传感器融合方法,在Matlab 软件环境中实现车辆的准确实时定位。根据实际驾驶过程的特性选择试验采用的数据类型并建立相应的数学模型,分别根据GPS 及IMU 数据特征以及VO 和IMU的数据特征建立相应的融合因子图模型,基于KITTI 数据集,对所建立的融合因子图模型进行试验验证。结果表明,通过融合因子图模型可以准确地估计车辆当前时刻的位姿。  相似文献   

9.
室内移动机器人是近年来研究的热点问题,同步定位与建图技术更是移动机器人的关键技术之一。为此文章设计了基于机器人操作系统(ROS)智能车的同步定位与建图系统,以Gmapping为核心算法,首先采用电机编码器构建的里程计对单线激光雷达的每帧数据进行运动畸变补偿,以运动畸变补偿后的激光雷达数据和里程计数据作为Gmapping算法输入;然后通过Gmapping算法粒子初始化,构建考虑观测量的提议分布并对粒子进行采样以估计智能车位姿,以重采样重要性系数对粒子进行重采样并设置重采样阀值,利用二值贝叶斯滤波器对每个粒子的地图状态更新;最后基于Gmapping算法输出智能车的位姿估计和地图数据。试验结果表明,所设计的同步定位与建图系统,在小尺寸环境下对智能车位姿估计和构建的地图较为准确,满足设计目标要求。  相似文献   

10.
在自动驾驶车辆研究领域中,SLAM车辆感知是热点研究领域之一,SLAM根据里程计类型可分为以视觉为主和以激光为主。两者本质上都以实现位姿估计和地图构建为目的,激光里程计主要是构建点云地图比较直观,视觉里程计构建的是稀疏视觉特征的地图。本文提出紧耦合双里程计传感器融合的SLAM框架,以完成实时状态估计和地图构建,并且具有高精度和鲁棒性。该方法可以有效地解决传统基于视觉或激光算法或者视觉和激光单一松耦合中累积误差的问题,框架融合了视觉与激光惯性的各自优点而形成两个子系统,这两个子系统采用紧密耦合方式进行设计,构成一个完整的系统。实验通过Ouster数据集评估绝对轨迹整体误差,并且该方法在自动驾驶接驳车中的应用表现出较高的精度。  相似文献   

11.
融合毫米波雷达与深度视觉的多目标检测与跟踪   总被引:1,自引:0,他引:1  
《汽车工程》2021,43(7)
针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究。首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自适应扩展卡尔曼滤波算法。然后,为提高目标检测精度与速度,基于采集到的实车数据集训练卷积神经网络,完成深度视觉的多车辆检测。最后,采用决策级融合策略融合毫米波雷达与深度视觉信息,设计了一种用于复杂交通环境下前方车辆多目标检测与跟踪的框架。为验证所设计的框架,进行了不同交通环境下的实车实验。结果表明:该方法可实时检测跟踪前方车辆,具有比融合毫米波雷达与传统机器视觉的车辆检测方法更好的可靠性与鲁棒性。  相似文献   

12.
针对当前目标检测方法普遍需要高功耗GPU计算平台、易受光照条件影响的问题,提出2种基于嵌入式平台的车前红外行人检测方法:将训练好的YOLOv4-tiny模型使用英伟达开源推理加速库TensorRT进行优化,部署于嵌入式平台;以YOLOv4-tiny模型作为算法的基本架构,结合视觉注意力机制和空间金字塔池化思想,同时增加1个YOLO层,提出YOLOv4-tiny+3L+SPP+CBAM网络模型。将2种方法在FLIR数据集上进行训练与测试,并在Jetson TX2嵌入式平台上进行试验,试验结果表明:相较于原始网络YOLOv4-tiny,所提出的第1种方法平均准确率降低0.54%,推理速度提升86.43%(帧速率达26.1帧/s);提出的第2种方法平均准确率提升16.21%,推理速度降低22.86%(帧速率达10.8帧/s)。2种方法均可兼顾准确率和实时性,能够满足车前红外行人检测的需要。  相似文献   

13.
车辆间即碰时间(TTC)是驾驶辅助系统控制策略的基础,也是分析驾驶员驾驶行为的主要依据。为分析行车记录仪视频危险工况中驾驶员紧急制动时的TTC,提出了一种基于单目视觉估算算法。该算法先检测及跟踪车辆,判断前方有无车辆及其具体方位;再检测并匹配车辆角点,计算不同帧之间车辆图像的尺寸变化率,进而估算TTC。用最小二乘法、Kalman滤波方法处理数据;用多层金字塔图像来处理图像,实现了大运动的角点匹配。结果表明:该算法丰富了视频危险工况参数的分析方法,拓展了单目视觉的应用场景,为低成本驾驶辅助系统,提供了新的解决方案。  相似文献   

14.
针对传统的高清相机和激光雷达外部参数手动或半自动化标定程序繁琐和耗时问题,提出一种适用于地面无人平台车载激光雷达和相机在线自动标定的方法,以安装标记板(Marker)的移动车辆为标定目标,实现车辆的快速识别和位姿估计。同时获取在两种传感器中得到的位姿估计结果,利用经典的定向求解方法计算得到相机与激光雷达之间的刚性转换关系,并在真实城区环境中利用最优评估优化减小标定误差,试验结果证明了所提方法的准确性与可靠性。  相似文献   

15.
针对现有端到端自动驾驶模型输入数据类型单一导致预测精确度低的问题,选取RGB图像、深度图像和车辆历史连续运动状态序列作为多模态输入,并利用语义信息构建一种基于时空卷积的多模态多任务(Multimodal Multitask of Spatial-temporal Convolution,MM-STConv)端到端自动驾驶行为决策模型,得到速度和转向多任务预测参量。首先,通过不同复杂度的卷积神经网络提取场景空间位置特征,构建空间特征提取子网络,准确解析场景目标空间特征及语义信息;其次,通过长短期记忆网络(LSTM)编码-解码结构捕捉场景时间上、下文特征,构建时间特征提取子网络,理解并记忆场景时间序列信息;最后,采用硬参数共享方式构建多任务预测子网络,输出速度和转向角的预测值,实现对车辆的行为预测。基于AirSim自动驾驶仿真平台采集虚拟场景数据,以98 200帧虚拟图像及对应的车辆速度和转向角标签作为训练集,历经10 000次训练周期、6 h训练时长后,利用真实驾驶场景数据集BDD100K进行模型的测试与验证工作。研究结果表明:MM-STConv模型的训练误差为0.130 5,预测精确度达到83.6%,在多种真实驾驶场景中预测效果较好;与现有其他主流模型相比,该模型综合场景空间信息与时间序列信息,在预测车辆速度和转向角方面具有明显的优势,可提升模型的预测精度、稳定性和泛化能力。  相似文献   

16.
同步定位与地图构建(Simultaneous Location and Mapping, SLAM)是机器人在未知环境中实现自我导航能力的重要保证。目前SLAM算法使用的主传感器基本是激光雷达或视觉相机。二者各具优劣,激光雷达能更精确地进行测距,视觉相机能反映环境丰富的纹理信息。与使用单一传感器相比,将二者融合的SLAM算法能够获得更多环境信息,达到更好的定位和建图效果。文章提出一种融合激光雷达和视觉相机的帧间匹配方法,通过在SLAM帧间匹配过程中加入地面约束以及视觉特征约束,提高帧间匹配过程精度,增强算法鲁棒性,从而提升SLAM算法整体效果。文章最后利用采集的地下停车库数据进行结果验证,与开源算法A-LOAM进行对比。结果表明,相比A-LOAM的帧间匹配方法,文章提出的方法相对位姿误差提升约30%。  相似文献   

17.
智能车辆关键技术之一是准确、实时地确定车辆的位置和姿态。本文中提出了一种利用旋转编码器计算车辆实时姿态的方法。利用旋转编码器测量智能车辆左右车轮的旋转角位移,并作为输入实时计算车辆的行驶轨迹和航向角。在计算中特别考虑了轮胎侧偏角对车辆行驶姿态的影响,有效降低了车辆在较高车速与弯道行驶时的计算误差。实验结果证明了该方法的准确性和可靠性。  相似文献   

18.
为弥补现有驾驶特征提取方法的不足,提高分心驾驶行为检测的准确性和鲁棒性,将2D/3D人体姿态估计应用于驾驶人行为检测,提出一种适用于驾驶舱环境下的驾驶特征提取方法。首先通过将2D姿态估计网络Simple Baseline和分类网络ResNet进行融合,构建基于2D姿态估计的分心驾驶行为检测模型,并在分心驾驶数据集State Farm上分析不同数据增强方法、不同超参数、不同分类网络对模型性能的影响。其次,融合3D密集姿态估计网络DensePose与分类网络ResNet,构建基于3D姿态估计的分心驾驶行为检测模型。接着,在State Farm数据集上,针对模型的实时性和泛化能力,对比分析基于原始图像和基于2D/3D姿态的分心驾驶行为检测模型。最后,针对效果更优的基于2D姿态估计的分心驾驶行为检测模型,在分心驾驶数据集State Farm上,对使用不同姿态估计算法和分类网络的分心驾驶行为检测模型做了交叉试验,对比分析4个不同检测模型的优缺点。进一步地,将基于2D姿态估计的分心驾驶行为检测模型应用于实际采集的驾驶图片,对模型的泛化能力和有效性进行了测试验证。研究结果表明:与基于原始图像的检测模型相比,基于2D和3D姿态的检测模型都能显著提高分心驾驶行为的检测准确率;基于3D姿态的检测模型在检测精度方面略优,但基于2D姿态的检测实时性更好,检测效率是基于3D姿态检测的4倍;在驾驶舱单一环境下,基于2D姿态估计的分心驾驶行为检测模型能够满足分心驾驶行为检测的需求,在分心驾驶行为检测方面具有重要应用价值。  相似文献   

19.
选取车辆当前位姿和参考位姿来构造车辆的动态位姿误差,建立车辆路径跟踪闭环控制系统的Simulink仿真模型,并设计了模糊自适应PID控制器,利用模糊推理的方法,对PID控制器的参数进行自动调整。利用常规PID和模糊自适应PID控制算法分别进行仿真实验。仿真结果表明,模糊自适应PID改善了控制器的动态性能且具有较好的自适应能力。  相似文献   

20.
激光雷达是智能网联汽车环境感知的重要传感器,多坐标系空间标定是激光雷达精准环境感知的前提条件。针对激光雷达与车体坐标系空间同步面临传感器观测单一的问题,提出基于激光雷达与车辆的平面运动和直线运动约束2步标定方法。为构建运动约束,基于激光里程计获取激光雷达运动位姿信息,通过激光雷达运动轨迹信息和时域上多帧地面平面拟合信息进行平面行驶识别,在满足平面路况下构建平面运动约束标定,进而标定横滚角与俯仰角;基于俯仰角和横滚角对车辆轨迹进行修正,通过激光运动轨迹建立直线行驶判别模型判别车辆运动状态,在满足车辆直线行驶路况下构建直线运动约束,从而标定偏航角。最后,在智能驾驶试验车上开展了激光雷达与车辆坐标系标定的实车试验,通过实车采集的数据验证了提出的空间同步方法的可行性。试验结果表明:提出的激光雷达与车体坐标系标定方法优于基于标定物的方法,在原始数据上可以保证标定后的旋转误差降低至0.61,误差率降低约47.4%。在手动调整的扩充数据上标定后的旋转误差降至1.64,误差率降低约40.6%。相对于基于标定物的方法,其旋转误差均有降低且不需要借助特定的标定物与标定场,降低了对环境的依赖程度。同时通过消...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号