共查询到16条相似文献,搜索用时 128 毫秒
1.
2.
基于单目视觉的道路边界检测由于其在车辆辅助驾驶系统中的重要应用价值成为当前计算机视觉和智能车辆领域最为活跃的研究课题之一。指出图像边缘检测现有算法的不足,采用领域平均法对图像进行平滑处理,根据图像的边缘特征运用Prewitt算子实现边缘增强,以获取精确的边缘信息。使用最大熵算法分割二值化图像进一步减少噪声,从而得到良好的道路特征图像数据。利用道路约束条件,建立视觉系统动态感兴趣区域(DAOI),运用改进的Hough变换最终识别道路边界。试验结果表明:本文所述算法不仅能准确、实时检测出道路板边界,而且能有效地抑制噪声,为区域交通智能车辆的换道和超车提供研究基础。 相似文献
3.
4.
5.
6.
基于成像模型的车道线检测与跟踪方法 总被引:1,自引:0,他引:1
针对结构化道路上存在非车道线标记干扰的情况,提出一种基于成像模型的线扫描车道线检测及跟踪方法。检测算法中首先对路面图像进行形态学高帽变换预处理,然后建立前方道路图像的成像模型,将图像坐标系中车道参数和世界坐标系中实际车道参数对应,对图像进行初扫描,利用边缘贡献函数及RANSAC算法选取最确定线后,以此线为标准进行二次扫描,得到边缘点后统计边缘贡献函数局部最大值并拟合成直线车道线。跟踪算法中运用Kalman滤波器预测车道线区域,并提取符合标准的控制点拟合成模型为B样条的车道线。试验结果表明:该方法能够快速准确地在复杂环境中提取多个车道线,尤其对存在非车道线道路标记干扰的情况有显著效果。 相似文献
7.
针对汽车前视摄像头(Forward View Camera)拍摄存在噪声及光照不均匀的问题,提出一种基于顶帽算法TopHat Canny的多重边缘检测图像预处理方法。通过对前视摄像头拍摄的道路行人、车辆及障碍物的图片进行分析,采用小波阈值算法分别对彩色图像(Red-Green-Blue,RGB)3个空间分量进行滤波去噪,并经加权平均法对重组的3个分量灰度化处理后,采用Top-Hat-Canny多重边缘检测方法对图像进行处理。实验仿真结果表明:该方法可以有效地解决噪声及光照不均对图像边缘检测带来的影响,为后续目标识别工作提供基础。 相似文献
8.
针对夜间环境下基于摄像机的车辆检测方法存在精度低、稳定性差以及无法对车型进行有效识别等问题,提出一种基于Kinect深度虚拟线圈的夜间车辆检测与计数算法.首先对Kinect深度图像进行预处理,分别获得运动目标深度图(MDM)与空洞深度图(HDM).然后在MDM与HDM上设置虚拟线圈,利用积分图像分别生成对应的一维运动信号,对其进行加权合成获得对车辆运动特征的表达,并在合成的运动信号范围内检测出车辆目标,并计算出车辆目标的几何特征,通过SVM对车型进行有效识别.实验结果表明,该算法对于单双车道的车辆计数正确率分别高达99.75%与99.25%,大小车型分类正确率可达99.80%,处理单张图片的平均时间仅为7 ms. 相似文献
9.
10.
11.
基于DS证据理论的不同光照条件下道路边界识别 总被引:1,自引:0,他引:1
为提高在不同光照条件下道路识别算法的适应性,采用从局部区域提取方向、道路边界梯度和灰度等3个特征的方法,该特征的提取几乎不受不同光照导致的道路图像全局灰度变化和阴影等噪声的干扰。共选取了14种特征单元,将道路的方向特征准确融入到局部梯度和局部灰度值中。通过应用DS证据理论,将道路边界3个特征和有效统计单元所占比例进行有效信息融合,使得目标函数可以准确拟合曲线的总体质量。在大量实验样本和光强信息的基础上,设定不同光照条件下的道路边界检验阈值选取范围,提高了识别的实时性。实验结果表明,该方法可以适应各种不同光照条件下的道路边界识别,且具有良好的准确性和实时性。 相似文献
12.
车道检测算法的研究是智能车辆自动导航的首要环节。与目前基于视觉的车道检测与跟踪系统不同,本文提出一种基于扩展卡尔曼滤波的车道融合跟踪方法。该方法利用毫米波雷达探测到前方车辆的距离信息,并采用扩展卡尔曼滤波技术和图像处理技术,建立车道跟踪的动态视觉窗口,提取车道边界,并判断前方车辆相对于车道的位置。该方法大大缩减了处理时间,且增强了系统的鲁棒性。 相似文献
13.
各种复杂环境下路面车道线的高效精确检测是自动驾驶领域中车道偏离预警系统的关键性技术之一。由于车辆实际运行环境的复杂性和路面车道线的多样性,现有方法在车道线检测的准确性和鲁棒性上仍需不断增强。提出一种面向多元场景结合GLNet的车道线检测算法。首先采用改进Gamma校正对待检测路面图像预处理,消减光照不均匀、夜晚等环境干扰,增强车道线纹理。然后为增强数据集的多样性,在LaneNet网络的基础上引入对抗生成网络DCGAN,构建GLNet网络模型。该模型采用编码-解码的网络结构提取车道线特征(车道蒙板和像素点),通过DBSCAN聚类算法将不同车道线划分为不同的实体,使用H-Net网络学习的视觉转换矩阵优化并拟合输出车道线。最后基于已训练好的GLNet权重模型对车道线进行精确提取,并在Tusimple数据集和自制数据集上测试验证。试验结果表明:该方法的检测准确率可达97.4%,相较于基于LaneNet网络的车道线检测算法明显提高;DCGAN网络的加入丰富了数据集类型,并提高了该模型的表征及分类能力;DBSCAN聚类算法的平均聚类时间约为0.016 s,相较于Meanshift算法运行效率更高。所提出的方法考虑了不规范、环境复杂等多种道路类型的车道线检测任务,提升了对复杂噪声与多元场景的处理能力,在车辆辅助驾驶领域具有较好的鲁棒性和适用性。 相似文献
14.
15.
Vision-based fusion of robust lane tracking and forward vehicle detection in a real driving environment 总被引:1,自引:0,他引:1
H. -C. Choi J. -M. Park W. -S. Choi S. -Y. Oh 《International Journal of Automotive Technology》2012,13(4):653-669
With the goal of developing an accurate and fast lane tracking system for the purpose of driver assistance, this paper proposes a vision-based fusion technique for lane tracking and forward vehicle detection to handle challenging conditions, i.e., lane occlusion by a forward vehicle, lane change, varying illumination, road traffic signs, and pitch motion, all of which often occur in real driving environments. First, our algorithm uses random sample consensus (RANSAC) and Kalman filtering to calculate the lane equation from the lane candidates found by template matching. Simple template matching and a combination of RANSAC and Kalman filtering makes calculating the lane equation as a hyperbola pair very quick and robust against varying illumination and discontinuities in the lane. Second, our algorithm uses a state transfer technique to maintain lane tracking continuously in spite of the lane changing situation. This reduces the computational time when dealing with the lane change because lane detection, which takes much more time than lane tracking, is not necessary with this algorithm. Third, false lane candidates from occlusions by frontal vehicles are eliminated using accurate regions of the forward vehicles from our improved forward vehicle detector. Fourth, our proposed method achieved robustness against road traffic signs and pitch motion using the adaptive region of interest and a constraint on the position of the vanishing point. Our algorithm was tested with image sequences from a real driving situation and demonstrated its robustness. 相似文献
16.
在基于视觉的自动驾驶环境感知中,路面阴影、雨水、污渍和反光会对车道线识别和车辆导航造成干扰,针对此问题提出了一种基于逆投影映射(IPM)和边缘图像过滤的改进车道线识别方法。通过逆投影方法可以得到原始道路图像的鸟瞰图像,很大程度上增强了车道线的视觉特性并减少了干扰。同时提出迭代聚类分割方法对IPM图像中的灰度值进行分析,并保留与车道线颜色和形态特征最为接近的灰度点作为车道线边缘。随后提出一种搜索统计边缘图像中连续边缘区域的方法,通过分析边缘点并保留最长区域实现过滤道路干扰因素的目的。最后将该算法与其他常用车道线检测算法进行对比。研究结果表明:该方法可以更好地过滤路面各种干扰因素,有效增强干扰环境下识别模糊车道线、实车道线、虚车道线、弯车道线的能力,大幅提高了自动驾驶环境中的车道保持能力,并且由于该方法相比其他方法能够更加有效地去除路面干扰区域,因此识别车道线的速度得到大幅提高,可以满足自动驾驶对于实时性的要求。 相似文献