首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 406 毫秒
1.
针对混合高斯模型背景建模在视频运动目标检测中的不足,提出了将混合高斯模型与三帧差分相结合来对视频中运动目标进行检测的算法。由混合高斯模型得到前景和背景,利用当前帧与混合高斯模型所得到的背景相减可以得到一个前景,使用三帧差分和边缘检测得到运动物体的精确轮廓,对此轮廓进行填充得到一个前景,将此三步前景进行运算得到最终的结果;通过新的更新策略来快速地对背景进行建模,以像素点的稳定性来调整像素点的更新速度,从而减少算法运算量,提高算法的运行速度。  相似文献   

2.
针对混合高斯模型背景建模在视频运动目标检测中的不足,提出了将混合高斯模型与三帧差分相结合来对视频中运动目标进行检测的算法。由混合高斯模型得到前景和背景,利用当前帧与混合高斯模型所得到的背景相减可以得到一个前景,使用三帧差分和边缘检测得到运动物体的精确轮廓,对此轮廓进行填充得到一个前景,将此三步前景进行运算得到最终的结果;通过新的更新策略来快速地对背景进行建模,以像素点的稳定性来调整像素点的更新速度,从而减少算法运算量,提高算法的运行速度。  相似文献   

3.
为解决铁路轨旁信号灯的定位与实时检测问题,在深入分析传统SSD算法与MobileNet模型的基础上,将MobileNet模型的最后平均池化层、全连接层转换为SSD算法的多尺度特征映射层,提出了一种基于MobileNet-SSD的铁路信号灯检测算法.实验结果表明:该算法克服了传统SSD算法对小目标识别不准确、检测实时性较差的问题,检测速度更快,准确率更高;在50 m监控范围内,算法的平均检测准确率达到85%以上,同时具有25帧/s的实时识别能力.  相似文献   

4.
针对采集图像中铁路扣件存在形状的变化、扣件图像的光照差异较大和扣件被异物局部遮挡的问题,根据对可变形部件模型算法和高斯混合模型的研究,提出了高斯混合部件模型算法. 结合扣件图像边缘特性及改进的Roberts算子计算图像梯度,将归一化后的方向梯度直方图特征作为高斯混合部件模型算法的底层特征,根据扣件形状划分部件,部件之间的相对位置采用星型连接方式度量,运用余弦相似性度量部件中方向梯度直方图特征的相似度,部件模型使用高斯混合模型并采用期望最大化算法迭代求解. 将高斯混合部件模型算法应用于扣件检测中,最终平均检测效果为漏检率3.16%、误检率9.80%、正确率90.27%.   相似文献   

5.
针对单高斯模型对道路背景提取的不足,提出一种基于混合高斯模型的道路背景提取方法。利用多个高斯分布组成混合高斯模型来表示道路背景图像中的各个像素点,并且针对该算法利用MATLAB进行仿真实验,实验结果验证了基于混合高斯模型的道路背景提取方法的实用性和有效性。  相似文献   

6.
提出了一种在静止背景交通图像序列中运动车辆的检测和分类方法,即基于GVF-Snake模型和惯量椭圆的车辆分类算法。利用混和高斯模型(GMM)、期望最大化(EM)估计算法、改进GVF-Snake模型,从序列交通视频图像中检测出运动车辆;然后,借用刚体惯量椭圆原理,计算运动车辆等效椭圆偏心率,从而建立车长-车投影面积-车的等效椭圆偏心率三参数建立了车辆分类器。该方法的车辆检测与分类都是基于数理统计原理,算法复杂度小,可用数字逻辑编程实现,适合在嵌入式系统中应用。  相似文献   

7.
基于车载视觉的行人检测与跟踪方法   总被引:2,自引:1,他引:1  
为提高城市交通环境下车辆主动安全性,保障行人安全,提出了基于车载视觉传感器的行人保护方法. 利用Adaboost算法实现行人的快速检测,结合Kalman滤波原理跟踪行人,以获取其运行轨迹.该方法利用离散 Adaboost算法训练样本类Haar特征,得到识别行人的级联分类器,遍历车载视觉采集的图像,以获取行人目 标;结合Kalman滤波原理,对检测到的行人目标进行跟踪,建立检测行人的动态感兴趣区域,利用跟踪结果分 析行人的运行轨迹.试验表明:该方法平均耗时约80ms/帧,检测率达到88%;结合Kalman滤波原理跟踪后,平 均耗时降到55ms/帧,实时性较好.   相似文献   

8.
提出一种基于负熵的分数低阶独立分量分析(ICA)算法,为使算法更好的适用于实际环境,结合当下较为新颖的Volterra滤波方法——VLMS算法,该算法对高斯噪声有良好的去除效果.仿真结果表明,算法对于含有两种噪声的混合图像具有良好的分离特性及实际意义.  相似文献   

9.
为了在考虑路面三维特征的基础上快速、准确、完整地识别裂缝,基于三维虚拟路面提出了裂缝自动并行识别算法。首先,对1 mm/像素的路面深度图像进行消隐处理和光照模型处理建立三维虚拟路面,通过4个角度的立体投影产生4幅投影图像(Ω1~Ω4);然后,分别对Ω1~Ω4进行降维处理、裂缝识别(包括强度验证及对称性检测)和裂缝连接,获得阴影区裂缝图像Ωs1~Ωs4及反光区裂缝图像Ωr1~Ωr4;最后,有效融合Ωs1~Ωs4及Ωr1~Ωr4的裂缝信息并进行深度验证和滑动去噪处理,获得裂缝图像。基于255张图像(4 096×2 048)的测试显示:算法具有较高的准确率(平均80.34%)和召回率(平均83.89%),以80.47%的F值优于ADA3D算法;此外,并行框架有利于程序并行化,能有效提高运算速度。  相似文献   

10.
为了实现音频文件的完整性认证,提出了一种基于内容的脆弱水印算法.对于一维序列,改变其离散余弦变换(DCT)域交流系数不会改变该序列的幅值和.基于这一性质,在音频分帧后,再对每帧分组,计算每组采样点和的绝对值,相加后得到该帧的和,将其作为该帧音频的特征,量化后转换为二进制作为水印;然后,用量化索引调制方法,通过调整每组DCT域的低频系数嵌入水印.实验表明:该算法具有很好的不可感知性;得到的含水印音频的信噪比约为80 dB;算法对添加噪声、重量化、重采样、低通滤波、MP3压缩等操作具有很强的敏感性,并且能够确定替换等恶意篡改的位置.  相似文献   

11.
为提高恶劣雨天交通环境下车辆目标检测精度,提出一种基于PReNet和YOLOv4融合的深度学习网络DTOD-PReYOLOv4,融合了改进的图像复原子网D-PReNet和改进的目标检测子网TOD-YOLOv4;将多尺度膨胀卷积融合模块和添加了挤压激励块的注意机制残差模块引入PReNet,获得的D-PReNet可更有效提取雨纹特征; 使用轻量化的CSPDarknet26代替YOLOv4骨干模块CSPDarknet53,为YOLOv4的颈部路径聚合网络模块添加复合残差块,同时采用k-means++算法取代原始网络聚类算法,获得的TOD-YOLOv4可在改善交通小目标检测精度的同时进一步提高检测效率; 基于构建的雨天交通场景车辆目标数据集VOD-RTE对DTOD-PReYOLOv4进行了验证。研究结果表明:与当前YOLO系列主流网络相比,提出的DTOD-PReYOLOv4对原浅层ResBlock_body1叠加残差块,可以更好地提取分辨率较小的特征; 对原深层ResBlock_body3、ResBlock_body4和ResBlock_body5进行裁剪,获得ResBlock_body3×2、ResBlock_body4×2和ResBlock_body5×2,可以有效降低卷积层冗余,提高内存利用率; 为PANet中的Concat+Conv×5添加跳跃连接形成CRB模块,可以有效缓解网络层数加深引起的小目标检测效果退化问题; 采用k-means++算法,在多尺度检测过程中为较大的特征图分配更加适合的较小先验框,为较小的特征图分配更加适合的较大先验框,进一步提高了目标检测的精度; 与MYOLOv4相比,精确率和召回率的调和平均值、平均精度、检测速度分别提升了5.02%、6.70%、15.63帧·s-1,与TOD-YOLOv4相比,分别提升了3.51%、4.31%、2.17帧·s-1,与YOLOv3相比,分别提升了46.07%、48.05%、18.97帧·s-1,与YOLOv4相比,分别提升了31.06%、29.74%、16.26帧·s-1。   相似文献   

12.
采用连续图像帧作为输入,挖掘连续图像帧之间的时序关联信息,构建一种融合时序信息的多任务联合驾驶环境视觉感知算法,通过多任务监督联合优化,实现交通参与目标的快速检测,同时获取可通行区域信息;采用ResNet50作为骨干网络,在骨干网络中构建级联特征融合模块,捕捉不同图像帧之间的非局部远程依赖关系,将高分辨率图像通过卷积下采样处理,加速不同图像帧的特征提取过程,平衡算法的精度和速度;在不同的图像帧中,为了消除由于物体运动产生的空间位移对特征融合的影响,且考虑不同图像帧的非局部关联信息,构建时序特征融合模块分别对不同图像帧对应的特征图进行时序对齐与匹配,形成融合全局特征;基于共享参数的骨干网络,利用生成关键点热图的方法对道路中的行人、车辆和交通信号灯的位置进行检测,并利用语义分割子网络为自动驾驶汽车提供道路可行驶区域信息。研究结果表明:提出的感知算法以多帧图像代替单一帧图像作为输入,利用了多帧图像的序列特性,级联特征融合模块通过下采样使得计算复杂度降低为原来的1/16,与CornerNet、ICNet等其他主流模型相比,算法检测精确率平均提升了6%,分割性能平均提升了5%,并保持了每秒12帧图像的处理速度,在检测与分割速度和精度上具有明显优势。   相似文献   

13.
为解决混合交通流饱和流率测算的实时性和时变性问题,实时获得混合交通流的饱和流率用以信号配时,本文提出基于自动车牌识别数据(Automatic License Plate Recognition,ALPR)的混合交通流饱和流率实时自动估计方法。首先,分信号周期提取车头时距数据,在当前车和后车车辆类型确定时车头时距满足同一正态分布的假设基础上,构建车头时距的高斯混合模型并应用 EM(Expectation Maximization) 算 法 求 解 ;其 次 ,基 于 赤 池 信 息 准 则 (Akaike Information Criterion,AIC)选取高斯混合模型的最优个数,拟合数据得到高斯混合模型参数;最后,根据车头时距的高斯混合模型推算出混合交通流饱和流率。以杭州城市道路3条路段的ALPR数据为例,分析基于 ALPR 数据获取车头时距的采样误差,对模型进行验证,并与传统的 HCM(Highway Capacity Manual)方法进行对比。结果表明:基于ALPR数据的车头时距采样误差满足精度要求; 与HCM的实测法相比,模型所得的混合饱和交通流率相对误差小,结果准确;该方法与传统的标准车流饱和流率折算法效果相近,并考虑混合交通流时变特性,能自动部署实时计算,鲁棒性良好,有实际应用意义。  相似文献   

14.
In this paper,we consider unusual event detection problem in a novel viewpoint and provide an algorithm to solve the problem.The actions or events in the scene is usual or not will eventually be reflected on the changes of some basic features.We summarize these basic event features and propose special representation for each of them.Thus we can model these features in a uniform mode using adaptive Gaussian mixture model.Supervised and unsupervised unusual event detection algorithm can be designed to fit var...  相似文献   

15.
针对现有交通路口车辆排队长度检测系统处理速度低、无法适用于实际复杂路口环境的缺陷,设计了一种基于FPGA的实时车辆排队长度图像检测系统.通过形态学边缘处理检测车辆的存在,对检测出的车队轮廓进行水平投影并采用一种基于信息量的车辆度量方法从投影结果中提取了排队的队尾,同时在确定排队长度时通过对算法参数的自适应调整有效消除图像逆透视效果的干扰;整个图像处理过程完全利用FPGA硬件逻辑实现,采用五级并行流水设计保证图像采集、高斯滤波、Sobel边缘检测、阈值分割和形态学腐蚀处理同步执行且同时完成,实现了对分辨率为720×576的图像25帧/s的处理速度.实验结果表明,系统性能良好,工作稳定,算法简单实用,具有较好的应用前景.  相似文献   

16.
基于扩张卷积金字塔网络的车道线检测算法   总被引:1,自引:0,他引:1  
为满足汽车高级驾驶辅助系统对车道线检测准确性和时效性的要求,采用改进的ResNet50网络作为基础模型提取局部车道线特征,利用扩张卷积能指数级扩大感受野的特点,设计了扩张卷积金字塔模块,用以完整提取不同尺度的车道线特征,提出“锚点栅格”的思想,将输出划分为一组栅格,对每个栅格进行分类和回归分析,经过非极大值抑制等后处理,最终输出车道线标记点集. 结果表明:在CULane多场景数据集里对模型进行测试,在交并比阈值取为0.3的评估条件下其综合评估指标F-measure达到78.6%,检测速率达到40帧/s,在评估指标相近的情况下具有远高于空间卷积神经网络(spatial convolutional neural networks,SCNN)模型的检测速率,并在眩光、弯道等困难场景中的检测效果优于SCNN.   相似文献   

17.
复杂交通场景由于背景构造困难限制了视频监控技术的应用. 为了解决这个问题,本文提出了一种新的基于传感器融合的复杂交通视频背景构造方法. 首先通过基于EM算法的高斯混合模型提高背景建模的准确性;其次,对于运动缓慢或者静止的区域,通过设定不同的采样频率来提高背景建模数据的可靠性;对来自线圈和虚拟检测线检测到的数据进行数据融合来提高虚拟线圈检测车速的精度,通过引入局部稳态最优Kalman平滑器提高了数据融合算法的自校正能力. 最后,实验结果证明了所提方法的有效性.  相似文献   

18.
复杂交通场景由于背景构造困难限制了视频监控技术的应用. 为了解决这个问题,本文提出了一种新的基于传感器融合的复杂交通视频背景构造方法. 首先通过基于EM算法的高斯混合模型提高背景建模的准确性;其次,对于运动缓慢或者静止的区域,通过设定不同的采样频率来提高背景建模数据的可靠性;对来自线圈和虚拟检测线检测到的数据进行数据融合来提高虚拟线圈检测车速的精度,通过引入局部稳态最优Kalman平滑器提高了数据融合算法的自校正能力. 最后,实验结果证明了所提方法的有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号