首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
为了解决传统交通标志检测算法针对小目标交通标志检测时存在误检与漏检的问题,提出了一个基于金字塔多尺度融合的交通标志检测算法;为了提高算法对交通标志的特征提取能力,引入ResNet残差结构搭建算法的主干网络,并增加网络浅层卷积层数,以提取较小尺度交通标志目标更准确的语义信息;基于特征金字塔结构的思想,在检测结构中引入4个不同预测尺度,增强深层和浅层特征融合;为了进一步提高算法检测精度,引入GIoU损失函数定位交通标志的锚点框,利用k-means算法对交通标志标签信息进行聚类分析并生成更精准的先验框;为了验证算法的泛化性与解决试验所用数据集TT100K的类间不平衡问题,增强与扩充了数据集。试验结果表明:本文算法的精确率、召回率与平均精度均值分别达到了86.7%、89.4%与87.9%,与传统目标检测算法相比有显著提高;多尺度融合检测机制、GIoU损失函数与k-means的引入能够不同程度提高算法的检测性能,使算法检测精确率分别提升4.7%、1.8%与1.2%;提出算法针对不同尺度交通标志检测时均有更优越的性能表现,在TT100K数据集中的(0, 32]、(32, 96]与(96, 400]尺度下的检测召回率分别达到90%、93%与88%;与YOLOv3相比,提出算法在不同天气、噪声与几何变换等干扰下均能实现对交通标志的正确定位与分类,证明了提出算法具有良好的鲁棒性与泛化性,适用于道路交通标志检测。   相似文献   

2.
针对复杂交通场景中动态光照变化、目标尺度变化和部分遮挡等因素带来的影响,提出了一种基于特征点的稳定可靠的车辆跟踪方法.针对运动车辆高速行驶时具有较大帧间运动的特点,构造KLT算法的金字塔模型,根据前向和后向跟踪偏移量,对稳定性较差的特征点进行剔除.同时,采用SURF特征匹配算法对目标特征点集进行更新和校正.最后,利用特征点之间的位置信息,确定目标的尺度和旋转变化因子,从而实现当前帧中目标区域的定位.实验结果表明,提出的车辆跟踪方法可以有效地解决复杂场景中目标形变和部分遮挡等问题,对尺度和旋转变化也具有较强的鲁棒性.  相似文献   

3.
提出了一种基于单双目视觉融合的车辆检测与基于Kalman滤波的车辆跟踪算法,设计了一种基于二维深度置信网络的车辆检测器。在道路图像中利用单目视觉生成车辆可能存在的区域,构成双目视觉处理的车辆候选集合。在车辆可能存在的区域内利用双目视觉进行误检去除,并获得车辆的位置信息。在二维图像坐标系和三维世界坐标系内,利用Kalman滤波器对检测到的车辆进行跟踪。试验结果表明:算法的检测率为99.0%,误检率为1.3×10-4%,检测时间为57ms,检测率高,误检率低,检测时间短;与单双目视觉弱融合算法、单目视觉算法和双目视觉算法相比,本文车辆检测与跟踪算法兼具双目视觉算法检测率高和单目视觉算法检测时间短的优点。  相似文献   

4.
为了提高未标定图像序列三维重建得到的几何模型的质量,提出特征点检测算法,以得到更多的匹配点.其主要思想是在首帧图像指定密集的网格,在网格点附近确定最容易跟踪的特征点,利用迭代方法得到子像素精度的特征点坐标,然后用稀疏特征集的金字塔Lucas-Kanade光流跟踪算法跟踪这些特征点,再用自标定算法,重建出相对均匀和稠密的三维点云,最后利用基于径向基函数(RBF)的隐式曲面重建算法,生成目标的表面模型. 多个图像序列的重建结果表明,本方法对纹理丰富的场景能够获得较好的重建结果.  相似文献   

5.
SIFT由特征提取,特征描述符描述和特征匹配3部分构成,该算子特征提取数目庞大,建立特征描述符运算量高,导致算法效率低。提出了一种SEC(SIFT-Edge-Corner)算法,在图像尺度空间提取角点代替SIFT特征点,并根据角点是边缘曲率极值理论,预先采用Canny算子得到高斯边缘图像金字塔,再提取角点并进行尺度选择。实验结果表明:该算法在保障高准确率的前提下大幅度提高特征提取效率。  相似文献   

6.
SIFT由特征提取,特征描述符描述和特征匹配3部分构成,该算子特征提取数目庞大,建立特征描述符运算量高,导致算法效率低.提出了一种SEC (SIFT-Edge-Corner)算法,在图像尺度空间提取角点代替SIFT特征点,并根据角点是边缘曲率极值理论,预先采用Canny算子得到高斯边缘图像金字塔,再提取角点并进行尺度选择.实验结果表明:该算法在保障高准确率的前提下大幅度提高特征提取效率.  相似文献   

7.
车辆自定位是实现智能车辆环境感知的核心问题之一.全球定位系统(Global Positioning System,GPS)定位误差通常在10 m左右,不能满足智能车辆的定位需求;惯性导航系统成本较高,不适于智能车辆的推广.本文在视觉地图基础上,提出一种基于GPS与图像融合的智能车辆定位算法.该算法以计算当前位置距离视觉地图中最近一个数据采集点的位姿为目标,首先运用GPS信息进行初定位,在视觉地图中选取若干采集点作为初步候选,其次运用Oriented FAST and Rotated BRIEF(ORB)全局特征进行特征匹配,得到一个候选定位结果,最后通过待检测图像中的局部特征点与候选定位结果中的三维局部特征点建立透视n点模型(Perspective-n-Point,Pn P),得到车辆当前的位姿,并以此对候选定位结果进行修正,得到最终定位结果.实验在长为5 km的路段中进行,并在不同天气及不同智能车辆平台测试.经验证,平均定位精度为11.6 cm,最大定位误差为37 cm,同时对不同天气具有较强鲁棒性.该算法满足了智能车定位需求,且大幅降低了高精度定位成本.  相似文献   

8.
提出距离相关的变N值区域采样目标检测方法和距离无关的自相关目标识别方法用于检测识别特定公路段行驶的车辆.特点是不用对摄像机进行标定,使用方便,算法简单,运算速度快,识别距离远.用不同的N值对不同距离处公路宽度进行水平等分并且在车辆目标位置形成区域采样网格.由于模型图像采样网格密度也由N值决定,利用网格上的点集自相关方法将实际序列图像中不同大小目标区域与同一模型进行匹配.  相似文献   

9.
针对视觉里程计常用角点提取算法因角点分布不均匀而导致运动信息偏差较大的问题,提出一种基于高斯金字塔的角点提取算法。该算法在角点提取过程中先采用高斯金字塔算法对图片进行尺度压缩,纹理丰富区域压缩纹理,纹理稀疏区域聚集纹理,得到小尺度顶图;然后采用Shi-Tomasi算法提取小尺度顶图角点特征以实现角点粗定位,最后将粗定位信息映射回细节丰富的原图进行角点精准定位,得到图片特征信息。最后,利用金字塔LK光流法追踪角点,根据相机对极几何约束模型恢复运动信息。论文采用KITTI数据集,与原Shi-Tomasi算法、Harris算法、Fast算法进行了对比实验,结果表明本算法可有效改善角点分布均匀性,提高视觉里程计运动信息恢复的精度。  相似文献   

10.
基于多尺度区域网格的公路车辆自动检测识别   总被引:2,自引:1,他引:2  
提出距离相关的变N值区域采样目标检测方法和距离无关的自相关目标识别方法用于检测识别特定公路段行驶的车辆.特点是不用对摄像机进行标定,使用方便,算法简单,运算速度快,识别距离远.用不同的N值对不同距离处公路宽度进行水平等分并且在车辆目标位置形成区域采样网格.由于模型图像采样网格密度也由N值决定,利用网格上的点集自相关方法将实际序列图像中不同大小目标区域与同一模型进行匹配.  相似文献   

11.
针对道路车辆实时检测遮挡严重与小目标车辆漏检率高的问题,提出了基于改进YOLO v3模型和Deep-SORT算法的车辆检测方法;为提高模型对道路车辆的检测能力,采用K-means++聚类算法对目标候选框进行聚类分析,选择合适的Anchor box数量,并在网络浅层增加了特征提取层,可提取到更精细的车辆特征;为加强网络对远近不同目标的鲁棒性,在保留原YOLO v3模型输出层的同时,增加了一层输出层,将52像素×52像素输出特征图经过上采样后得到104像素×104像素特征图,并将其与浅层同尺寸特征图进行拼接,实现车辆目标的检测;为了降低目标遮挡对检测效果的影响,提高对视频上下帧之间关联信息的关注度,将改进YOLO v3模型和Deep-SORT算法相结合,以此来弥补两者之间的不足。试验结果表明:改进YOLO v3模型有效地提高了车辆检测的性能,与在网络浅层增加特征提取层的模型相比,平均精度提高了1.4%,与增加一层输出层的模型相比,平均精确度提高了0.8%,说明改进YOLO v3模型提取的特征表达能力更强,增强了网络对小目标的检测能力;改进YOLO v3模型在引入Deep-SORT算法后,查准率和召回率分别达到90.16%和91.34%,相比改进YOLO v3模型,查准率和召回率分别提高了1.48%和4.20%,同时保证了检测速度,对于不同大小目标的检测具有良好的鲁棒性。   相似文献   

12.
为提高恶劣雨天交通环境下车辆目标检测精度,提出一种基于PReNet和YOLOv4融合的深度学习网络DTOD-PReYOLOv4,融合了改进的图像复原子网D-PReNet和改进的目标检测子网TOD-YOLOv4;将多尺度膨胀卷积融合模块和添加了挤压激励块的注意机制残差模块引入PReNet,获得的D-PReNet可更有效提取雨纹特征; 使用轻量化的CSPDarknet26代替YOLOv4骨干模块CSPDarknet53,为YOLOv4的颈部路径聚合网络模块添加复合残差块,同时采用k-means++算法取代原始网络聚类算法,获得的TOD-YOLOv4可在改善交通小目标检测精度的同时进一步提高检测效率; 基于构建的雨天交通场景车辆目标数据集VOD-RTE对DTOD-PReYOLOv4进行了验证。研究结果表明:与当前YOLO系列主流网络相比,提出的DTOD-PReYOLOv4对原浅层ResBlock_body1叠加残差块,可以更好地提取分辨率较小的特征; 对原深层ResBlock_body3、ResBlock_body4和ResBlock_body5进行裁剪,获得ResBlock_body3×2、ResBlock_body4×2和ResBlock_body5×2,可以有效降低卷积层冗余,提高内存利用率; 为PANet中的Concat+Conv×5添加跳跃连接形成CRB模块,可以有效缓解网络层数加深引起的小目标检测效果退化问题; 采用k-means++算法,在多尺度检测过程中为较大的特征图分配更加适合的较小先验框,为较小的特征图分配更加适合的较大先验框,进一步提高了目标检测的精度; 与MYOLOv4相比,精确率和召回率的调和平均值、平均精度、检测速度分别提升了5.02%、6.70%、15.63帧·s-1,与TOD-YOLOv4相比,分别提升了3.51%、4.31%、2.17帧·s-1,与YOLOv3相比,分别提升了46.07%、48.05%、18.97帧·s-1,与YOLOv4相比,分别提升了31.06%、29.74%、16.26帧·s-1。   相似文献   

13.
为提高智能车在真实环境中的实时检测能力,改善复杂环境下检测效果不佳的问题,本文提出一种基于轻量化网络和注意力机制的智能车快速目标识别方法。首先,为了减少网络计算参数和提升目标识别算法的推理速度,提出利用GhostNet加速YOLOv4的特征提取;其次,为了提高复杂场景下对道路目标的识别精度,在GhostNet和特征金字塔部分添加结合软阈值化改进的注意力模块;最后,为了验证本文提出方法的有效性,选取Pascal VOC、KITTI公开数据集和自制城市道路数据集进行实验对比。与其他目标检测算法在精度和速度上进行比较,结果证明,本文方法在平均检测精度提升1.7%的情况下,模型参数量降低到原来的18.7%,检测速度提升了 66%,检测速度和精度均优于其他算法,可满足智能车的实时感知需求。  相似文献   

14.
从特征传输方式、空间维度、特征维度3个角度,论述了近年来卷积神经网络结构的改进方向,介绍了卷积层、池化层、激活函数、优化算法的工作原理,从基于值、等级、概率和转换域四大类总结了近年来池化方法的发展,给出了部分具有代表性的激活函数对比、梯度下降算法及其改进型和自适应优化算法的工作原理和特点;梳理了卷积神经网络在车牌识别、车型识别、交通标志识别、短时交通流预测等智能交通领域中的应用和国内外研究现状,并将卷积神经网络算法与支持向量机、差分整合移动平均回归模型、卡尔曼滤波、误差反向传播神经网络、长短时记忆网络算法从优势、劣势和在智能交通领域的主要应用场景三方面进行了对比;分析了卷积神经网络在智能交通领域面临的鲁棒性不佳和实时性较差等问题,并从算法优化、并行计算层面和有监督学习到无监督学习方向研判了卷积神经网络的发展趋势。研究结果表明:卷积神经网络在视觉领域具有较强优势,在智能交通系统中主要应用于交通标志、车牌、车型识别、交通事件检测、交通状态预测;相比其他算法,卷积神经网络所提取的特征更加全面,有效地提高了识别准确度与速度,具有较大的应用价值;卷积神经网络未来将通过网络结构的优化、算法的改进、算力的提升以及基准数据集的增强,为智能交通带来新的突破。   相似文献   

15.
为了在已有涡轮叶片实物基础上进行再创新设计,采用激光扫描仪对涡轮叶片进行数字化扫描,提出了在三维测量得到涡轮叶片点云数据的基础上,准确进行逆向建模、反求几何参数和提取气动特征参数的逆向设计方法.根据涡轮叶片的几何参数反求和提取气动特征参数要求,基于获取涡轮叶片的截面点云图,用五次多项式曲线拟合叶盆和叶背,并用圆弧逼近叶形前后缘.基于该方法,采用Matlab软件对涡轮截面线点云进行拟合,反求得到了叶身型线方程,拟合偏差控制在之内,能够获得准确的叶片截面型线和气动特征参数.   相似文献   

16.
为了准确提取广域场景道路交通信息,本文融合形态检测与深度卷积网络,提出了无人机视频车辆定位及车型识别方法. 首先,基于形态检测建立候选目标提取算法,并构建了含244 520 个无人机视频车辆样本的深度学习图像基准库;然后,通过增加卷积层、池化层及调整网络参数等方法对AlexNet 进行重构,提出了改进模型AlexNet*;最后,建立了基于候选目标提取算法与AlexNet*的车辆识别方法. 验证分析显示:AlexNet*的图像分类F1 均值达 85.51% ,优于AlexNet(82.54% )、LeNet(63.88% )、CaffeNet(46.64% )、VGG16(16.67% ) 及 GoogLeNet(14.38%);本文车辆识别方法对小汽车及公交车的正检率、重检率和漏检率均值分别达94.63%、6.87%、4.40%,可有效识别无人机视频目标.  相似文献   

17.
为了准确提取广域场景道路交通信息,本文融合形态检测与深度卷积网络,提出了无人机视频车辆定位及车型识别方法. 首先,基于形态检测建立候选目标提取算法,并构建了含244 520 个无人机视频车辆样本的深度学习图像基准库;然后,通过增加卷积层、池化层及调整网络参数等方法对AlexNet 进行重构,提出了改进模型AlexNet*;最后,建立了基于候选目标提取算法与AlexNet*的车辆识别方法. 验证分析显示:AlexNet*的图像分类F1 均值达 85.51% ,优于AlexNet(82.54% )、LeNet(63.88% )、CaffeNet(46.64% )、VGG16(16.67% ) 及 GoogLeNet(14.38%);本文车辆识别方法对小汽车及公交车的正检率、重检率和漏检率均值分别达94.63%、6.87%、4.40%,可有效识别无人机视频目标.  相似文献   

18.
针对城市交通行人安全问题,本文提出了一种基于激光与视频数据融合的行人检测方法.通过激光与视频数据空间和时间上的融合,将激光数据映射到图像坐标;在激光聚类过程中,采用K-means 聚类算法对激光云点进行聚类分析,然后运用行人宽度模型提取候选行人区域;在基于图像的行人检测过程中,选取头肩、躯干以及腿部人体特征部位,采用Haar-like 特征集和Boosting 算法进行训练,得到部位检测器;最后,基于贝叶斯决策的组合策略对候选行人区域进行有效判定.实验结果表明,本文所述算法有较好的检测精度和实时性能.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号