首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   7篇
  免费   0篇
综合类   5篇
铁路运输   2篇
  2014年   1篇
  2006年   1篇
  2005年   3篇
  2004年   2篇
排序方式: 共有7条查询结果,搜索用时 15 毫秒
1
1.
针对P2P网络在搜索资源时往往无法快速准确的定位目标,提出一种节点兴趣分组以及分层结构的P2P网络结构.网络拓扑在分布时将兴趣相似度高的节点放到一个兴趣组中,节点在搜索资源时就会更准确的定位在离自己距离近的同时也是兴趣最相似的节点上,减少了查询消息的路由转发.同时应用分层的管理,对整个网络中的节点功能细化,使得网络的稳定性和可扩展性得到优化.实验结果表明,采用兴趣分组和结构分层的网络访问延时得到有效控制,搜索成功率也得到提高.该算法在缩短路由跳数的同时还提高了搜索的精准率.  相似文献   
2.
鲍溪清 《铁道学报》2006,28(2):58-62
动态目标识别中,当摄像机和目标之间相对距离变化时,对于同一目标的多尺度序列图像。虽然目标区域图像大小和清晰度不同,但整体结构分布具有相似性和一致性。根据这一特点,提出基于目标区域网格量化的方法。在目标区域上形成采样网格,通过相对量化提取结构特征矩阵。对于同一目标序列图像中的每一个目标区域,其结构特征矩阵基本不变。结构特征矩阵反映象素分布的自相关性质。进一步,对由干扰引起的灰度值结构分布误差,采用网格区间均值的方法加以解决。目标区域网格量化是对相邻采样点的差值进行量化匹配。区间均值是对少数相邻采样点的进一步匹配。实例表明,本文的方法运算速度快、可靠性高,达到了实用目的。  相似文献   
3.
提出距离相关的变N值区域采样目标检测方法和距离无关的自相关目标识别方法用于检测识别特定公路段行驶的车辆.特点是不用对摄像机进行标定,使用方便,算法简单,运算速度快,识别距离远.用不同的N值对不同距离处公路宽度进行水平等分并且在车辆目标位置形成区域采样网格.由于模型图像采样网格密度也由N值决定,利用网格上的点集自相关方法将实际序列图像中不同大小目标区域与同一模型进行匹配.  相似文献   
4.
调车机车障碍物自动检测识别技术研究   总被引:3,自引:1,他引:2  
针对调车机车不能实施有效安全监控的现状,开发了基于视觉的车辆障碍物检测识别技术。透视变形使得视觉系统对目标的检测识别受距离影响。因此提出距离相关的变N值区域采样目标检测方法和距离无关的自相关目标识别方法。特点是不用对摄像机进行标定,使用方便,算法简单,运算速度快,识别距离远。用不同的N值对不同距离处铁道宽度进行水平等分并且在车辆目标位置形成区域采样网格。由于模型图像采样网格密度也由N值决定, 利用网格上的点集自相关方法将实际序列图像中不同大小目标区域与同一模型进行匹配。现场实验表明:用一般摄像机,在120 m之内是可行的。每幅图像的计算时间为0.5 s,达到了实时、实用、安全的目的。  相似文献   
5.
序列图像中多尺度目标具有灰度值分布一致性和不变性的特点.据此,提出基于量化灰度值自结构的动态目标识别方法.自结构的形成是通过相邻采样点之间的比较实现的.量化是对比较结果进行开关运算得到的.量化自结构之间的差值表示识别结果.识别计算过程可在0.3s~0.5s内完成,比一般的识别方法较大地提高了运算速度.本方法不受图像模糊的影响,提高了识别的可靠性和鲁棒性.应用实践表明,此方法是可行的和实用的.  相似文献   
6.
基于多尺度区域网格的公路车辆自动检测识别   总被引:2,自引:1,他引:2  
提出距离相关的变N值区域采样目标检测方法和距离无关的自相关目标识别方法用于检测识别特定公路段行驶的车辆.特点是不用对摄像机进行标定,使用方便,算法简单,运算速度快,识别距离远.用不同的N值对不同距离处公路宽度进行水平等分并且在车辆目标位置形成区域采样网格.由于模型图像采样网格密度也由N值决定,利用网格上的点集自相关方法将实际序列图像中不同大小目标区域与同一模型进行匹配.  相似文献   
7.
序列图像中多尺度目标具有灰度值分布一致性和不变性的特点.据此,提出基于量化灰度值自结构的动态目标识别方法.自结构的形成是通过相邻采样点之间的比较实现的.量化是对比较结果进行开关运算得到的.量化自结构之间的差值表示识别结果.识别计算过程可在0.3s~0.5s内完成,比一般的识别方法较大地提高了运算速度.本方法不受图像模糊的影响,提高了识别的可靠性和鲁棒性.应用实践表明,此方法是可行的和实用的。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号