首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  免费   1篇
公路运输   5篇
综合类   1篇
  2021年   2篇
  2020年   1篇
  2019年   1篇
  2018年   1篇
  2014年   1篇
排序方式: 共有6条查询结果,搜索用时 109 毫秒
1
1.
为研究驾驶人的跟车特性及探究可适用于不同风格驾驶人的跟车预警规则,为自动驾驶车辆开发可满足不同用户驾驶需求和驾乘体验的主动安全预警系统,选取50名被试驾驶人开展实车试验,采集驾驶人跟车行为表征参数并基于雷达数据确定跟车事件提取规则。选取平均跟车时距和平均制动时距为二维向量,使用基于K-means聚类结果的高斯混合模型将驾驶人聚类为3种风格类型(冒进型、平稳型、保守型)。通过分析3组驾驶人的跟车及制动数据,将不同类型驾驶人的制动时距分位数作为跟车预警阈值,结合实际预警数据及不同制动时距分位数对应的预警正确率,对现有跟车预警规则进行调整,以适应不同类型驾驶人的驾驶需求。研究结果表明:3组驾驶人的平均跟车时距和平均制动时距差异显著,冒进型驾驶人倾向于选择较小的跟车时距和制动时距,保守型驾驶人的跟车时距和制动时距则普遍较大;3组驾驶人的实际跟车预警次数为215次,驾驶人采取制动操作而系统未予以预警的次数为329次,系统整体预警正确率为21.9%,漏警率为87.5%,通过分析信息熵等判定当前预警规则并不合理;将每类驾驶人制动时距的10%分位数作为阈值时的预警效果较好,调整后的跟车预警规则能在一定程度上适应不同的驾驶人类型。  相似文献   
2.
为鲁棒检测自然环境中驾驶人的通话行为, 提出了一种驾驶人手机通话手势的识别方法。运用Adaboost算法检测驾驶人面部区域, 在YCgCr色彩空间中分别对面部肤色亮度分量和色度分量进行稀疏网格间隔采样, 由此建立了肤色的高斯分布模型; 针对驾驶室光照强度的不均匀性, 提出了肤色分量的漂移补偿算法, 建立了适应光照变化的在线肤色模型, 以准确分割左右手部肤色区域; 运用HOG算法获取手部肤色区域的2 376维HOG特征向量, 运用PCA方法将HOG特征降至400维; 同时提取手部肤色区域的PZMs特征, 并采用Relief算法筛选出权重最大的8个PZMs特征向量, 建立了融合PCA-HOG特征和Relief-PZMs特征的通话手势支持向量机分类决策。试验结果表明: 基于PCA-HOG特征的手势识别率为93.1%, 对光照变化的鲁棒性较好, 但易受到手部与头部转动的干扰; 基于Relief-PZMs特征的手势识别率为91.9%, 对于头部与手部姿态的耐受度较好, 但光照鲁棒性较差; 基于PCA-HOG和Relief-PZMs多元特征融合方法的手势识别率达到94.5%, 对光照波动、手部与头部转动等干扰条件具有较好的适应性。   相似文献   
3.
基于机器视觉的驾驶人面部特征识别受光照的影响很大.为克服由于动态光照引起的背景干扰,面部特征弱化的问题,采用一种基于Kalman Filtering的光照自适应AKF算法,通过高斯概率密度函数建立Gt(i,j)算子,实现驾驶室背景的分割;在HSI色彩空间中通过阈值分割算法提取面部肤色区域,最终建立了眼鼻坐标搜索模型;进行了不同的照度与头部姿态下的AKF-HSI算法试验,测试统计前景分割率kfrontground、肤色分割率kskin与眼鼻识别率δ,在2×104~10×104 lx的照度下,眼鼻的平均识别率δ达到82%~92%.结果表明AKF-HSI融合算法对动态光照下眼鼻识别具有较好的鲁棒性,照度E、头部姿态与硬件设备AGC是眼鼻识别的最主要影响因素.  相似文献   
4.
为了使自动驾驶汽车在人机混驾环境下能安全、高效地左转通过无信号交叉口,在借鉴人类驾驶人左转时会对周围车辆驾驶意图进行提前预判的基础上,提出了一种基于周围车辆驾驶意图预测的自动驾驶汽车左转运动规划模型。首先将无信号交叉口处周围车辆的驾驶意图分为左转、右转、直行3种类型,利用相关向量机预测周围车辆驾驶意图,以概率形式输出意图预测结果并实时更新,进一步界定自动驾驶汽车与周围车辆的潜在冲突区域并判断是否存在时空冲突;接着,在充分考虑他车速度、航向及车辆到达冲突区域边界距离的基础上建立基于部分可观测马尔可夫决策过程的自动驾驶汽车左转运动规划模型,生成一系列期望加速度;最后,基于Prescan-Simulink联合仿真平台搭建无信号交叉口仿真场景,对所提左转运动规划方法进行仿真验证,将基于博弈论的运动规划方法、基于人工势场理论的运动规划方法与所提出的方法进行比较,并选取行进比例达到1所用的时间和碰撞次数作为评价指标。研究结果表明:基于相关向量机的驾驶意图预测方法可在自动驾驶汽车到达交叉口之前准确预测出他车驾驶意图;基于部分可观测马尔可夫决策过程的左转运动规划方法能够通过速度调整策略实现人机混驾环境下自动驾驶汽车与周围车辆在无信号交叉口处的交互;不同算法对比效果表明,所提左转运动规划方法在自动驾驶汽车与不同数量周围车辆交互的仿真场景下均可有效避免碰撞事故发生并提高自动驾驶汽车左转通过无信号交叉口的效率。  相似文献   
5.
在手机通话(MPC)行为中,驾驶人极易陷入认知分心(DCD)状态,对此提出了一种基于头-眼行为特性的DCD图像识别方法。为适应自然驾驶中的波动光照和复杂背景,首先建立基于YCbCr色彩空间的在线肤色模型,提取待检肤色区域的PCA-HOG特征并建立支持向量机分类器来识别MPC手势;与此同时,采用多尺度局部模极大值方法检测嘴部显著边缘,并通过边缘活跃度来识别驾驶人说话行为,综合MPC手势和说话行为建立MPC行为的判别逻辑。最后,以5 s为时间窗口获取驾驶人的眼球活跃度、眨眼指数、头部横摆和俯仰运动活跃度,采用D-S证据理论建立融合头-眼行为特性的DCD识别方法。试验结果表明:融合手势和说话行为图像检测的MPC识别率为92.8%;对于不佩戴眼镜的驾驶人,眼球活跃度是DCD识别率最高的单一指标,“眼球活跃度-头部横摆活跃度-头部俯仰活跃度”融合证据的DCD识别率最高,为86.2%;对于佩戴眼镜的驾驶人,“头部横摆活跃度-头部俯仰活跃度”融合证据的DCD识别率最高,为83.2%;算法对熟练驾驶人的DCD识别率略高于非熟练驾驶人。  相似文献   
6.
为了避免现有驾驶分心研究方法的局限性,从注意力需求角度入手,探索了高速跟车过程中驾驶人安全驾驶所需的最低视觉注意力。在驾驶模拟器上进行试验,记录26名驾驶人在正常驾驶和视线遮挡驾驶2种状态下的视觉行为和视线遮挡行为数据,并进行统计分析。考虑驾驶人个体差异,初步探索了最低视觉注意力需求分布。结果表明:高速跟车驾驶状态下,驾驶人可以不需观察周围交通信息安全行驶35m左右,视线遮挡距离与车速无关,可用于表征注意力需求。视线遮挡距离和遮挡频率存在个体差异,但驾驶人总体遮挡百分比基本不变。高速跟车过程中驾驶人的剩余注意力主要用于观察道路前方和其他区域。具体表现为视线遮挡驾驶状态下驾驶人对道路前方和其他区域的观察距离显著缩短,而观察频率基本不变,且仅需行驶25m左右的时间驾驶人即可完成观察周围交通状况,说明观察频率对获取交通信息更为重要。驾驶人平均每行驶20~60m(1.0~2.8s)需要观察前方道路一次,每行驶80~220m(4.1~8.6s)需要观察车速表一次,每行驶140~300m(6.7~13.5s)需要观察后视镜一次,每50~200m(2.5~9.1s)可以遮挡视线一次,但遮挡距离一般小于43.7m(约2.4s)。研究结果有助于提高分心预警系统的环境敏感性和车内人机界面设计的合理性。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号