全文获取类型
收费全文 | 120篇 |
免费 | 19篇 |
专业分类
公路运输 | 106篇 |
综合类 | 29篇 |
水路运输 | 1篇 |
铁路运输 | 1篇 |
综合运输 | 2篇 |
出版年
2024年 | 3篇 |
2023年 | 8篇 |
2022年 | 15篇 |
2021年 | 12篇 |
2020年 | 12篇 |
2019年 | 5篇 |
2018年 | 5篇 |
2017年 | 4篇 |
2016年 | 2篇 |
2015年 | 3篇 |
2014年 | 8篇 |
2013年 | 3篇 |
2012年 | 6篇 |
2011年 | 8篇 |
2010年 | 4篇 |
2009年 | 5篇 |
2008年 | 8篇 |
2007年 | 4篇 |
2006年 | 2篇 |
2005年 | 4篇 |
2004年 | 4篇 |
2003年 | 2篇 |
2002年 | 5篇 |
2001年 | 2篇 |
2000年 | 2篇 |
1999年 | 1篇 |
1997年 | 1篇 |
1995年 | 1篇 |
排序方式: 共有139条查询结果,搜索用时 15 毫秒
111.
112.
113.
114.
针对智能车辆在轨迹跟踪过程中的横向控制问题,提出一种基于强化学习中深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)的智能车辆轨迹跟踪控制方法。首先,将智能车辆的跟踪控制描述为一个基于马尔可夫决策过程(MDP)的强化学习过程,强化学习的主体是由Actor神经网络和Critic神经网络构成的Actor-Critic框架;强化学习的环境包括车辆模型、跟踪模型、道路模型和回报函数。其次,所提出方法的学习主体以DDPG方法更新,其中采用回忆缓冲区解决样本相关性的问题,复制结构相同的神经网络解决更新发散问题。最后,将所提出的方法在不同场景中进行训练验证,并与深度Q学习方法(Deep Q-Learning,DQN)和模型预测控制(Model Predictive Control,MPC)方法进行比较。研究结果表明:基于DDPG的强化学习方法所用学习时间短,轨迹跟踪控制过程中横向偏差和角偏差小,且能满足不同车速下的跟踪要求;采用DDPG和DQN强化学习方法在不同场景下均能达到训练片段的最大累计回报;在2种仿真场景中,基于DDPG的学习总时长分别为DQN的9.53%和44.19%,单个片段的学习时长仅为DQN的20.28%和22.09%;以DDPG、DQN和MPC控制方法进行控制时,在场景1中,基于DDPG方法的最大横向偏差分别为DQN和MPC的87.5%和50%,仿真时间分别为DQN和MPC的12.88%和53.45%;在场景2中,基于DDPG方法的最大横向偏差分别为DQN和MPC的75%和21.34%,仿真时间分别为DQN和MPC的20.64%和58.60%。 相似文献
115.
以智能车比赛中摄像头采集模块的应用问题为研究对象,介绍了在摄像头固定时需要注意的相对与车身的前后位置、安装高度和安装角度问题,以及摄像头成像后的简单距离计算和图像分区、起跑线和十字交叉线的识别. 相似文献
116.
通过分析2009年和2010年"中国智能车未来挑战赛"中车辆暴露出来的问题,并根据国家自然基金委员会"视听觉信息的认知计算"重大研究计划的总体目标和研究要求,对2 011年挑战赛资格测试的技术要求和实施规范进行了技术分析,并通过测试规范在资格测试环节的应用和验证,提出进一步修改完善挑战赛资格测试技术要求和实施规范的对策与建议。 相似文献
117.
118.
120.
正艾特萨米车的力矩传感器源于德国技术,用欧洲工艺打造,动能、电讯号无界转化,筑建人与车的桥梁。它能有效感知每一次脚踏,动态收集力度和转速信息,与终端智能联动适时做出反馈,行车信息与人共享。在当今科技飞速发展的时代背景下,智能手机、平板电脑等智能数码产品的打电话、发微信、听音乐、玩游戏等功能已经不足为奇,但如何跟电动自行车完美结合?在今年4月13日-16日上海举办的第二十四届中国国际自行车展览会上,这个问题有了答案。来自苏州的专业电动自行车生产商——赛诺伊电动科技公司首次推出了一款智能电动自行车,在车 相似文献