首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4篇
  免费   1篇
公路运输   5篇
  2021年   3篇
  2020年   2篇
排序方式: 共有5条查询结果,搜索用时 0 毫秒
1
1.
2.
针对自动驾驶车辆,文章在交叉路口环境下提出了一种改进的快速搜索随机树(RRT*)路径规划算法。首先,对自动驾驶车辆的驾驶行为环境予以描述;其次,针对原始RRT*算法提出改进的目标偏向策略予以改善;进一步,对原始RRT*算法在交叉路口无效采样的问题,提出一种概率采样策略。基于Matlab/Simulink联合仿真平台构建相应环境使进行车辆直行驾驶,所规划路径长度为100.35m,仿真时长为5.71s。  相似文献   
3.
针对智能车辆在轨迹跟踪过程中的横向控制问题,提出一种基于强化学习中深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)的智能车辆轨迹跟踪控制方法。首先,将智能车辆的跟踪控制描述为一个基于马尔可夫决策过程(MDP)的强化学习过程,强化学习的主体是由Actor神经网络和Critic神经网络构成的Actor-Critic框架;强化学习的环境包括车辆模型、跟踪模型、道路模型和回报函数。其次,所提出方法的学习主体以DDPG方法更新,其中采用回忆缓冲区解决样本相关性的问题,复制结构相同的神经网络解决更新发散问题。最后,将所提出的方法在不同场景中进行训练验证,并与深度Q学习方法(Deep Q-Learning,DQN)和模型预测控制(Model Predictive Control,MPC)方法进行比较。研究结果表明:基于DDPG的强化学习方法所用学习时间短,轨迹跟踪控制过程中横向偏差和角偏差小,且能满足不同车速下的跟踪要求;采用DDPG和DQN强化学习方法在不同场景下均能达到训练片段的最大累计回报;在2种仿真场景中,基于DDPG的学习总时长分别为DQN的9.53%和44.19%,单个片段的学习时长仅为DQN的20.28%和22.09%;以DDPG、DQN和MPC控制方法进行控制时,在场景1中,基于DDPG方法的最大横向偏差分别为DQN和MPC的87.5%和50%,仿真时间分别为DQN和MPC的12.88%和53.45%;在场景2中,基于DDPG方法的最大横向偏差分别为DQN和MPC的75%和21.34%,仿真时间分别为DQN和MPC的20.64%和58.60%。  相似文献   
4.
电池故障诊断是电池管理系统中一项十分重要的技术。针对电池故障和电池输出状态量之间不确定的关系,采用模糊逻辑可以对模糊关系进行准确描述。选用合适的隶属度函数来表示输出的电压、电流信号,用模糊数学理论表示不确定的电池故障与电池输出状态量之间的关系,生成模糊数据库,用支持向量机对数据进行训练和测试,由结果可知该方法有较高的准确性。  相似文献   
5.
文章构建车辆的有限元模型,进行正面100%刚性壁障碰撞的模拟仿真,来分析车辆结构的潜在缺陷和合理性,主要内容为:(1)介绍整车中各个铰链以及加速度传感器的建立,对整车各个结构部件进行了连接设置,对整车的接触设置进行了说明,对材料的设置、刚性墙的建立以及控制卡片的导入进行说明。(2)利用Hypermesh和LS-DYNA对模型进行计算,利用HyperView查看输出结果。(3)根据仿真计算的数据,对模型的合理性进行评价分析,发现前围板入侵量和B柱右侧加速度的指标偏大,影响了汽车的安全性能。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号