排序方式: 共有43条查询结果,搜索用时 888 毫秒
41.
为遏制超速驾驶,通过分析驾驶员超速的心理博弈过程,建立了交通管理者和驾驶员策略选择的决策博弈模型,应用演化博弈论分析了交通管理者检查与不检查、驾驶员超速与不超速各自2种策略选择的时间演化过程. 根据雅可比矩阵的局部稳定性对可能的演化稳定状态进行了分析,由于交通管理者和驾驶员选择不同的策略会有不同的收益,因此,演化稳定状态会有鞍点、稳定点、不稳定点等几种情况. 分析结果表明:政府部门要加强对交通管理者尽职的奖励与失职的惩罚,敦促交通管理者严格检查;同时,针对个体差异对超速的驾驶员进行严厉处罚,这样就会在一定程度上遏制超速驾驶,提高交通安全. 相似文献
42.
基于移动控制代理技术的交叉口交通信号控制算法 总被引:2,自引:0,他引:2
基于移动控制代理技术和“当地简单,远程复杂”的控制思想,提出了一种新型的交叉口交通信号控制算法。采用移动控制代理软件把多种交叉口信号控制算法“打包”成可在计算机网络上分发的移动控制代理(Mobile Control Agent,MCA);由位于远程监控层的网络调度器,根据交叉口实时交通流状况向交叉口信号控制器派遣或召回相应的MCA,从而实现“按需控制”。这种做法可降低交叉口信号控制器所需的内存等计算资源,实现低成本自适应智能交通信号网络化控制。 相似文献
43.
由于在现实生活中能够采集到的不同雾天等级的高速公路车辆跟驰样本有限,导致雾天跟驰模型精度不佳,为此在长短时记忆神经网络(long short-term memory,LSTM)跟驰模型的基础上,采用迁移学习(transfer learning,TL)方法来提升雾天跟驰模型的性能。利用驾驶模拟实验平台搭建高速公路雾天与正常天气2种实验场景进行驾驶模拟实验,获得296组正常天气下(源域)的跟驰样本与100组雾天下(目标域)的跟驰样本。提出了基于最长公共子序列(longest common sequence solution,LCSS)的迁移样本选择方法,从源域中选出100个样本迁移至目标域中,通过扩大训练样本提升LSTM从源域、目标域特征到目标域输出的端对端泛化学习能力,得到雾天高速公路车辆跟驰模型。为对比所提样本迁移方法对LSTM模型的效用,将LSTM-TL模型与训练样本全部来源于源域的LSTM-S模型和训练样本全部来源于目标域的LSTM-T模型进行对比,LSTM-TL模型的均方误差、均方根误差和平均绝对误差比LSTM-S模型分别减小47.5%、27.7%和46.5%,比LSTM-T模型减小31.1%、17.0%和29.9%。为对比不同模型在仅有100组目标域样本时的性能,将LSTM-TL模型与Gipps、IDM、BP这3个模型进行对比,LSTM-TL模型的均方误差、均方根误差和平均绝对误差比3个模型中表现最优的Gipps模型减小18.5%、8.0%和25.9%。结果表明:直接将LSTM-S模型应用于目标域的预测,其精度不高,采用样本迁移合理可行;LCSS方法对源域样本筛选有效,由100个源域样本迁移到目标域训练得到的LSTM-TL模型的精度最高;在小样本情况下,拥有较少参数的Gipps模型预测精度优于LSTM-T或LSTM-S模型,但由于迁移学习能够从源域样本中获取知识的特性,LSTM-TL模型有着最高的精度。 相似文献