首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
在目标车辆识别算法中,通常采用单一传感器作为感知器件。不论是摄像头还是雷达,都因为自身缺陷导致识别出的目标不准确,给ADAS系统的决策控制带来困难。文章提出了一种基于视觉传感器和毫米波雷达相融合的目标识别算法。该算法利用多传感器信息融合技术,按照本车道前方最危险目标(CIPV)的原则,并结合滤波原理,对目标车辆进行识别、提取和跟踪,以剔除无效目标,保留唯一、有效、可靠、稳定的目标,为ADAS系统的决策控制提供依据。  相似文献   

2.
鉴于传统车辆避撞系统中,因采用单一传感器进行目标识别,在感知范围、识别准确性等方面存在的固有缺陷,本文中提出了一种基于雷达与机器视觉信息融合的目标识别方法。该方法获取目标序列后,在目标级融合方法的基础上,引入马氏距离进行观测值匹配。再应用联合概率数据关联(JPDA)算法进行数据融合,建立系统观测模型与状态模型,从而实现了基于信息融合的目标识别。试验验证结果表明,该方法基于雷达与摄像头数据,可实现目标的准确识别与定位,其工程适应面更广。  相似文献   

3.
基于毫米波雷达和机器视觉融合的车辆检测   总被引:1,自引:0,他引:1  
针对车辆检测中使用传统单一传感器的识别效果差、易受干扰等缺点,本文提出一种基于毫米波雷达和机器视觉融合的车辆检测方法。首先利用分层聚类算法对雷达数据进行处理,过滤无效目标;利用改进的YOLO v2算法降低漏检率,提高检测速度;然后运用目标检测交并比和全局最近邻数据关联算法实现多传感器数据融合;最后基于扩展卡尔曼滤波算法进行目标跟踪,而得出最终结果。实车试验结果表明,该方法的车辆识别效果优于单一传感器,且在多种路况下识别效果良好。  相似文献   

4.
一种基于雷达和机器视觉信息融合的车辆识别方法   总被引:1,自引:0,他引:1  
为提高先进驾驶员辅助系统对车辆前方环境识别的准确性,提出一种基于雷达和视觉传感器信息融合的车辆识别方法。系统工作前预先对毫米波雷达和摄像头进行联合标定,并确定雷达坐标系和摄像头坐标系的变换关系。车辆识别过程中,首先根据雷达信息确定图像坐标系中的车辆识别感兴趣区域;然后对感兴趣区域进行对称性分析获得车辆对称中心,并对车辆底部阴影特征进行分析处理完成车辆边缘检测;最后根据逆透视变换得到车辆识别宽度,根据识别宽度对识别结果进行验证。结果表明该算法具有较强的环境适应性和准确率,弥补了单一传感器在车辆识别中的不足。  相似文献   

5.
针对单一传感器对目标车辆识别准确率低的问题,提出一种基于毫米波雷达和摄像头信息融合的目标跟踪方法,同时,基于扩展信息融合(EIF)和无迹信息融合(UIF)原理建立了检测无迹信息融合(CUIF)算法,对多传感器信息进行融合。CUIF算法采用分布式融合结构,将来自不同传感器的轨迹相互关联并融合以获得目标轨迹,并利用分布式检测系统对获取的传感器延迟信息进行实时系统状态补偿,从而解决了单传感器信号延迟、丢包等问题。通过CarSim与Simulink联合搭建仿真和试验平台对所研究的融合模型进行算法验证。试验结果表明,CUIF算法的目标丢失率比EIF和UIF减少了10%以上,它将时间延迟缩短至5 ms,满足系统对实时性的要求。  相似文献   

6.
融合毫米波雷达与深度视觉的多目标检测与跟踪   总被引:1,自引:0,他引:1  
针对现有融合毫米波雷达与传统机器视觉的车辆检测算法准确率较低与实时性较差的问题,本文中对多目标检测与跟踪进行研究。首先,利用阈值筛选和前后帧数据关联方法对毫米波雷达数据进行预处理,进而提出一种用于毫米波雷达数据跟踪的自适应扩展卡尔曼滤波算法。然后,为提高目标检测精度与速度,基于采集到的实车数据集训练卷积神经网络,完成深度视觉的多车辆检测。最后,采用决策级融合策略融合毫米波雷达与深度视觉信息,设计了一种用于复杂交通环境下前方车辆多目标检测与跟踪的框架。为验证所设计的框架,进行了不同交通环境下的实车实验。结果表明:该方法可实时检测跟踪前方车辆,具有比融合毫米波雷达与传统机器视觉的车辆检测方法更好的可靠性与鲁棒性。  相似文献   

7.
车辆前方行驶环境识别技术探讨   总被引:1,自引:1,他引:0  
基于雷达和视觉技术对车辆前方行驶环境识别,进而判断车辆安全状态和实现纵向横行运动状态警示和控制,其是实现汽车安全辅助驾驶的主要技术途径。介绍车辆前方行驶环境识别涉及到的雷达和视觉的一些技术,其中包括雷达种类和适用场合,雷达检测障碍物的算法,车用图像的性能要求,基于图像特征和模型的车道线识别的方法,利用图像实现其他环境信息识别的方法。  相似文献   

8.
环境感知是智能辅助驾驶的底层模块,单传感器感知存在易受干扰、所需配置传感器数量多和感知效果差等弊端,为此提出一种车载数字相机与激光雷达融合算法。综合考虑信息融合高效性与系统鲁棒性采取决策级融合策略,利用CENTER POINT算法对雷达点云数据进行处理,再利用Yolo v3算法进行密集型数据训练处理图像数据,最后使用交并比匹配(IOU)和已有文献的D-S论据实现数据融合并输出决策结果。经过KITTI数据集验证,该融合算法输出的识别效果优于单传感器,且在多种路况上均有良好的目标检测效果。  相似文献   

9.
自适应巡航控制系统是实现未来智能化汽车辅助驾驶的重要功能之一,以往该系统主要采用毫米波雷达感知周围环境,但是容易出现较多的误识别和漏识别情况。针对现存的问题,文章研究了自适应巡航感知系统,不同于以往单一雷达的方案,本设计采用毫米波雷达和视觉传感器融合的办法改善感知系统的性能。通过搭建电动车传感器数据采集系统,编写CAN通信报文解析程序,分析毫米波雷达和视觉传感器特性等,完成了对雷达和视觉信号的采集及处理,实现了感知系统目标级融合。并在巡航和跟车工况下进行离线仿真,验证了目标级融合方案能够有效地提高感知系统的准确性和合理性。  相似文献   

10.
针对智能车辆多传感器的目标融合问题,提出了一种改进的基于欧氏距离与余弦相似度的点迹和航迹数据关联的车用多传感器目标跟踪融合算法。该方法需获取由毫米波雷达系统和Mobileye视觉系统检测到的目标物数据列表,并对两个传感系统检测到的目标物数据进行匹配关联;然后对目标物进行匹配跟踪,更新目标物的生命周期状态;最后对上述两个传感系统输出的目标物的数据进行融合。该算法能够融合视觉系统和雷达系统两个传感系统的优点,以达到精确感知环境信息的目的,从而解决单一传感器难以满足感知系统精度及可靠性需求的问题。  相似文献   

11.
自动驾驶L2级别相关的如ACC、AEB、LKA、ELK、TJA等功能实现的准确度和驾乘舒适度在很大程度上依赖于融合算法的目标的稳定性、正确性和及时性,因此融合算法已成为多传感器融合系统中的最重要的算法之一。一个被传感器量测到的目标是否能够成为系统认可的目标并开始形成被系统认可的航迹,是多传感器融合算法的重要部分。文章介绍了一种摄像头与毫米波雷达的融合系统,并展示了一种基于传感器对量测特点的航迹起始决策算法在该系统中的应用,有效地提高了摄像头与毫米波雷达融合系统中航迹起始的准确率。  相似文献   

12.
通过对低能见度恶劣天气条件下,前方道路场景图像清晰度评价、增强和道路环境场景图像实时再现等同题的研究,提出了基于车载红外传感器和毫米波雷达传感器的驾驶员视觉增强系统设计方案,并运用信息融合和图像增强策略改善低能见度天气条件下的道路环境场景。  相似文献   

13.
介绍常见的基于单目视觉传感器的目标测距原理,分析不同传感器类型的多款FCW系统报警时间测试现状。针对3种测试场景,对某型单目视觉和视觉与雷达融合的FCW系统进行深度测试,并分析影响两种FCW系统测距精度的主要因素。  相似文献   

14.
交通参与者运动的准确跟踪与预测对智能车行为决策的有效性至关重要。传统运动目标的跟踪系统多采用单一传感器,难以保证数据的精度与可信度。为提高系统的鲁棒性与可靠性,设计一种融合毫米波雷达和相机的目标跟踪方案,该方案针对多目标的特征级信息进行融合。首先,考虑低速行驶的自动驾驶清扫车所处环境杂波较多,方案选择基于IMM/JPDA的多目标跟踪方法估计局部航迹。为降低JPDA数据关联的计算复杂度,结合基于马氏距离构造的椭圆关联门和基于车辆非完整性约束构造的扇形关联门,实现关联门的自适应调整,减少关联杂波的干扰。其次,结合传感器的配置与特性,对目标的航迹状态进行空间对准和时间对准,按照航迹点间的欧氏距离和互协方差选择融合模式,进行局部航迹融合。最后,为验证多目标跟踪和航迹融合方法的有效性与实用性,分别设计基于MATLAB/PreScan环境的仿真试验和基于智能清扫车平台的实车试验。研究结果表明:在横、纵方向上,融合后的系统状态都比单一传感器的估计状态更为准确,融合结果对单一传感器的估计误差有35%以上的提升;实车试验证明,该方案能有效融合ESR毫米波雷达和Mobileye单目前视相机的状态估计信息,能基本正确地跟踪目标和估计航迹;融合状态的横、纵向误差都在可接受范围以内,且融合状态比单一传感器的估计波动更小。  相似文献   

15.
智能车辆的障碍物检测研究方法综述   总被引:3,自引:0,他引:3  
按照使用传感器的不同类型来分类,对智能车辆的障碍物检测和识别技术进行了综述,并分析各种障碍物检测方法。这些方法中主要包括基于立体视觉方法、基于激光雷达的方法:基于彩色机器视觉的方法及基于结构光的方法等等,同时作者指出任何一种有效的障碍物检测系统不能只依靠单一传感器进行环境感知,因此利用多种传感器信息融合技术检测智能车辆前方障碍物,是未来该领域的研究重点与难点。另外,还介绍了近几年一些研究机构在该领域的研究成果,并对所使用的一些算法进行简要的概括,为我国在智能车辆的障碍物检测领域的发展提供借鉴。  相似文献   

16.
文章提出一种在车载视觉导航系统中实现交通标志识别的技术。该算法利用安装在车辆上的视频采集模块获取真实交通环境的视频,通过基于颜色—形状模型的目标检测算法和基于BP神经网络的识别算法,准确、实时地获得交通标志信息,并对驾驶员发出警示信息,从而达到进一步完善车载辅助驾驶系统和提高汽车主动安全性的目的。  相似文献   

17.
以纯电动无人驾驶重卡为研究对象,突破港区复杂工况下多传感路复合定位的关键技术,基于激光点云定位、视觉定位等技术建立高精度复合导航地图系统,实现信号盲区的高精度导航.基于GMCNN卷积神经网络深度学习算法和FusionEncoder算法为基本结构的多传感器数据融合模型对充满不确定性与模糊性的目标识别数据进行处理,实现无人...  相似文献   

18.
车载毫米波雷达是智能驾驶环境感知系统中重要的传感器,为实现车载毫米波雷达目标跟踪的稳定性、实时性和精确性,本文设计了一种基于联合概率数据关联(JPDA)的雷达目标跟踪算法,并提出了一种对传统JPDA算法的改进方式,该方式考虑了车载毫米波雷达运行的实际工况,通过改进点迹的选取方式以及利用生命周期理论简化关联事件的生成两个步骤,对传统JPDA算法进行了简化,解决了传统JPDA算法在密集目标环境下的组合爆炸问题,以及毫米波雷达虚警和漏检带来的数据不连贯、不稳定问题,实现了跟踪的稳定性和实时性;同时本文采用常加速度模型结合Kalman滤波对雷达目标运动状态进行了估计,解决了前后帧雷达目标运动状态不连续以及雷达信息中的噪声问题,实现了跟踪的精确性。实验结果表明:在复杂交通环境下,该毫米波雷达跟踪算法相较于传统JPDA算法,运算速率提升了50. 5%,稳定性提升了78. 46%。  相似文献   

19.
同步定位与地图构建(Simultaneous Location and Mapping,SLAM)是机器人在未知环境中实现自我导航能力的重要保证。目前SLAM算法使用的主传感器基本是激光雷达或视觉相机。二者各具优劣,激光雷达能更精确地进行测距,视觉相机能反映环境丰富的纹理信息。与使用单一传感器相比,将二者融合的SLAM算法能够获得更多环境信息,达到更好的定位和建图效果。文章提出一种融合激光雷达和视觉相机的帧间匹配方法,通过在SLAM帧间匹配过程中加入地面约束以及视觉特征约束,提高帧间匹配过程精度,增强算法鲁棒性,从而提升SLAM算法整体效果。文章最后利用采集的地下停车库数据进行结果验证,与开源算法A-LOAM进行对比。结果表明,相比A-LOAM的帧间匹配方法,文章提出的方法相对位姿误差提升约30%。  相似文献   

20.
基于雷达和视觉技术的车辆跟踪窗口   总被引:1,自引:0,他引:1  
针对基于视觉技术的运动检测鲁棒性差、计算量大的缺点,提出一种融合雷达与视觉信息建立车辆跟踪窗口的方法。采用动力学模型描述车辆运动,通过基于雷达量测的扩展卡尔曼滤波(EKF)估计,确定目标初始位置,然后根据灰度信息自适应调整跟踪窗口的中心位置及尺寸,快速而准确地建立起以目标形心为中心且适合目标大小的跟踪窗口,缩小了后续图像处理区域。三维场景仿真实验证明,该融合方法能快速有效地建立起目标的跟踪窗口。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号