共查询到20条相似文献,搜索用时 564 毫秒
1.
2.
视频图像车速计算的工作中,相当一部分视频图像虽然能确定车辆运动过程对应的时间,但由于目标车辆大部分移动过程都在固定标尺之外的区域,或者找不到确定的移动标尺,无法标定或量化整个移动过程的距离参数,使车辆行驶速度无法计算;本文通过研究"kinovea"软件的基本功能——透视网格功能,在了解其功能、特点的基础上发现其特殊用途:可用经已知固定标尺标定后的透视网格来标定未知区域,使该区域的车辆位移参数可测量或量化,实现对车辆行驶速度进行精确计算;同时还可运用基于Kinovea软件网格功能的网格法对事故进行深度分析,通过网格的铺设,计算出目标车辆的车速,测算两肇事主体之间的距离,推断安全的停车距离,可以得到交通事故中目标车辆或物体的关键性位置参数,为事故的深度分析及处理提供强有力的技术支持。 相似文献
3.
4.
5.
6.
7.
8.
《公路交通技术》2018,(6)
城市出入口立交的通行状态是影响城市交通管理与出行诱导策略的重要因素,为了弥补固定型检测手段采集覆盖面小、获取立交路面交通信息少的不足,提出了基于无人机视频的城市出入口交通参数提取及通行状态判别方法。首先对无人机航拍采集的视频图像进行预处理和分析,通过背景建模和运动目标检测跟踪方法提取无人机悬停航拍视频中的交通流量、流速和占有率等参数;然后利用图像特征匹配方法校对不同拍摄角度与实际立交地理位置图,校准图像中的实际地理位置信息;最后,结合城市出入口立交特点建立基于运动目标占有率的通行状态判别模型,解决了通过无人机视频自动判别立交整体通行状态的问题。无人机视频技术的应用可为城市出入口交通诱导和交通应急管理提供前期决策依据。 相似文献
9.
交通图像分析是智能交通领域的关键技术之一。为实现复杂交通场景中的多目标检测与跟踪,设计了一种结合小波提升框架和KLT特征点跟踪的多运动目标检测与跟踪算法。对序列图像中相邻两帧图像的融合图像进行小波提升变换,求取水平和垂直方向上的小波能量,通过合理阈值二值化小波能量矩阵,再利用贴标签方法检测出运动目标;利用KLT特征点集合代表目标,通过跟踪后的特征点集合与目标检测区域的相互关联,实现多目标的跟踪。实验结果表明了所提算法的有效性。 相似文献
10.
11.
无人驾驶汽车主要依靠车载摄像头拍摄视频,通过计算机对该视频进行分析,综合道路信息、汽车位置和障碍物等对汽车车辆进行控制,实现对车辆方向和速度的控制,确保车辆可以安全可靠地在道路上行驶。无人车摄像头采集的图像处理是一项重要工作,是车辆系统作出判断的前提输入,通过对车载摄像头所获取的图像处理和分析,研究目标与目标物阴影之间的相关关系,利用图像阴影部分的基本特征,提出图像边界差的阴影检测方法。通过准确检测,利用图像处理技术去除阴影获取目标。 相似文献
12.
为克服传统车辆运动状态重建方法不能全面反映视频图像中车辆运动状态,且使用条件受限较大的问题,基于近景摄影测量中的直接线性变换原理,结合车身外廓特征信息,提出一种完整重建视频中车辆运动状态的有效方法。该方法中的特征标定信息全部取自目标车辆的外廓特征,不受路面和环境标定条件影响,扩大了使用范围;标定区域覆盖车辆在视频中的整个运动过程,最大限度地保证了车辆行驶轨迹的空间完整性;方法中每相邻2帧之间车辆行驶距离、行驶速度及加速度的解算均独立,避免产生累计误差。最后,使用该方法分别对车辆处于低速、中高速或减速3种运动状态下,摄像方向与车辆行驶方向呈90°或30°夹角的6种组合试验中车辆的相关运动状态参数进行解算,并与试验中采集的实际运动状态参数进行分析对比。研究结果表明:当车辆分别处于低速、中高速或减速3种运动状态时,在90°摄像视角下,计算所得车速值与记录值误差在1.5%以内,行驶距离值误差在3%以内,加速度值误差在7%以内;在30°摄像视角下,计算所得车速值误差在4%以内,行驶距离值误差在5%以内,加速度值误差在9%以内;该方法计算的视频中车辆的车速和行驶距离精度较高,加速度精度满足相关行业应用要求,证明该方法用于重建视频中车辆的运动状态有效、可行。 相似文献
13.
随着我国社会管理体系的不断完善,视频监控系统正成为我国城市管理和社会管理的重要手段。治安管理、道路交通管理视频监控网络正逐步形成,许多发生在视频监控区域的交通事故可以调取到视频资料,这有利于对事故的分析和处理。本文首先提出了使用监控视频来计算车速的方法,通过视频分析计算而来的车速数据,转化为对应的时间速度曲线,然后通过"时间速度曲线"来对整个事故过程进行还原,从而分析肇事车辆的运动状态、肇事车辆制动强度、驾驶员的操作过程、采取措施情况等,为交警部门提供处理事故的依据。 相似文献
14.
15.
16.
17.
《公路交通科技》2018,(11)
为探测沥青混合料内部颗粒群的变形情况,提出了一种基于方格靶标的抗干扰能力强、精度高、多目标跟踪的颗粒群变形分析方法。首先,将混合料车辙试件制成切片,在切面颗粒上印制5×5黑白相间的方格靶标,采集切面图像,捕捉该图像中的靶标图案,计算靶标中心点的位置坐标及靶标方位角,记录为颗粒的初始位姿。然后进行车辙试验,反复轮碾后,再次采集切面图像,提取颗粒群变形后的靶标图案,并由其计算靶标中心点位置及方位角,作为颗粒加载后的位姿。最后通过对比颗粒在两种位姿下靶标中心的位移量和靶标转角实现颗粒内部任意点的变形计算。在捕捉靶标的过程中,利用平行方格靶标明显的几何特征,使用边缘检测、投影技术,根据靶标图像旋转角度与边缘强度投影累加峰值的关系曲线,获得靶标角点阵列初始坐标及靶标角度候选值。在靶标位姿参数提取方面,主要通过角点阵列的亚像素搜索实现靶标中心点坐标高精度计算,结合靶标与集料纹理的图像相关性分析技术,完成靶标角度确定。试验结果表明:该方法能够实现颗粒群变形跟踪,为分析沥青混合料在荷载作用下内部颗粒群运动规律提供了一种有效的分析方法。 相似文献
18.
19.
针对图像和原始点云三维目标检测方法中存在特征信息残缺及点云搜索量过大的问题,以截体点网(frustum PointNet, F-PointNet)结构为基础,融合自动驾驶周围场景RGB图像信息与点云信息,提出一种基于级联YOLOv7的三维目标检测算法。首先构建基于YOLOv7的截体估计模型,将RGB图像目标感兴趣区域(region of interest, RoI)纵向扩展到三维空间,然后采用PointNet++对截体内目标点云与背景点云进行分割。最终利用非模态边界估计网络输出目标长宽高、航向等信息,对目标间的自然位置关系进行解释。在KITTI公开数据集上测试结果与消融实验表明,级联YOLOv7模型相较基准网络,推理耗时缩短40 ms/帧,对于在遮挡程度为中等、困难级别的目标检测平均精度值提升了8.77%、9.81%。 相似文献