全文获取类型
收费全文 | 3341篇 |
免费 | 115篇 |
专业分类
公路运输 | 900篇 |
综合类 | 1363篇 |
水路运输 | 807篇 |
铁路运输 | 334篇 |
综合运输 | 52篇 |
出版年
2024年 | 48篇 |
2023年 | 192篇 |
2022年 | 153篇 |
2021年 | 195篇 |
2020年 | 131篇 |
2019年 | 81篇 |
2018年 | 21篇 |
2017年 | 35篇 |
2016年 | 34篇 |
2015年 | 79篇 |
2014年 | 151篇 |
2013年 | 153篇 |
2012年 | 198篇 |
2011年 | 172篇 |
2010年 | 203篇 |
2009年 | 230篇 |
2008年 | 147篇 |
2007年 | 215篇 |
2006年 | 184篇 |
2005年 | 117篇 |
2004年 | 150篇 |
2003年 | 135篇 |
2002年 | 114篇 |
2001年 | 101篇 |
2000年 | 55篇 |
1999年 | 28篇 |
1998年 | 14篇 |
1997年 | 19篇 |
1996年 | 40篇 |
1995年 | 19篇 |
1994年 | 10篇 |
1993年 | 9篇 |
1992年 | 4篇 |
1991年 | 4篇 |
1990年 | 5篇 |
1989年 | 2篇 |
1988年 | 2篇 |
1987年 | 2篇 |
1986年 | 4篇 |
排序方式: 共有3456条查询结果,搜索用时 0 毫秒
121.
由于在现实生活中能够采集到的不同雾天等级的高速公路车辆跟驰样本有限,导致雾天跟驰模型精度不佳,为此在长短时记忆神经网络(long short-term memory,LSTM)跟驰模型的基础上,采用迁移学习(transfer learning,TL)方法来提升雾天跟驰模型的性能。利用驾驶模拟实验平台搭建高速公路雾天与正常天气2种实验场景进行驾驶模拟实验,获得296组正常天气下(源域)的跟驰样本与100组雾天下(目标域)的跟驰样本。提出了基于最长公共子序列(longest common sequence solution,LCSS)的迁移样本选择方法,从源域中选出100个样本迁移至目标域中,通过扩大训练样本提升LSTM从源域、目标域特征到目标域输出的端对端泛化学习能力,得到雾天高速公路车辆跟驰模型。为对比所提样本迁移方法对LSTM模型的效用,将LSTM-TL模型与训练样本全部来源于源域的LSTM-S模型和训练样本全部来源于目标域的LSTM-T模型进行对比,LSTM-TL模型的均方误差、均方根误差和平均绝对误差比LSTM-S模型分别减小47.5%、27.7%和46.5%,比LSTM-T模型... 相似文献
122.
为提高自动驾驶车辆的跟驰性能,减轻交通震荡干扰的负面影响,研究了1种基于深度强化学习的自动驾驶跟驰模型。在现有奖励函数设计基础上融入对能源消耗的考虑,基于VT-Micro模型构建能耗相关项;同时对使用跟车时距构建行驶效率因素相关项的方法进行优化,添加虚拟速度来避免在交通震荡场景中出现计算溢出和车间距过近的问题。为克服过往抑制震荡研究中仅用闭合环状模拟道路和仿真车辆轨迹开展训练的局限性,选用NGSIM轨迹数据中交通震荡阶段的驾驶员行为特征搭建训练环境,应用双延迟深度确定性策略梯度算法(Twin Delayed Deep Deterministic Policy Gradient Algorithm,TD3)训练形成多目标优化的跟驰模型。进一步构建模型性能测试评价体系,对比分析TD3模型与其他传统模型在跟车与交通震荡2类测试场景中的表现。跟车测试场景实验结果表明:在舒适度与行驶效率上,TD3模型和传统自适应巡航控制(Adaptive Cruise Control, ACC)模型表现相近,二者均优于人类驾驶员;在安全性上,TD3模型相较于传统ACC模型安全隐患降低53.65%,相较于人类驾驶... 相似文献
123.
124.
为做好电网供需平衡,进一步改善电网的社会效益和经济效益,根据负荷数据的时序性特征,利用卷积神经网络的特征提取能力和长短期记忆神经网络捕捉时间序列关系的能力,采用卷积-长短期记忆混合神经网络进行电力负荷短期预测.首先根据历史数据对该模型进行训练,然后使用已训练好的模型进行预测,最后将其预测结果与长短期记忆神经网络预测结果进行比对.两组不同采样间隔的负荷预测仿真结果表明,卷积-长短期记忆混合神经网络相对于长短期记忆神经网络,可以更好地从负荷数据中提取出时序性特征,预测误差较小,精度较高,能够在电力短期负荷预测问题中提供可靠的预测结果. 相似文献
125.
126.
127.
在自动驾驶决策场景下,为解决强化学习算法安全性差、学习效率低的问题,提出一种在算法的训练阶段添加基于价值的安全约束和虚拟奖励的方法。首先,利用状态、动作价值函数和安全判断规则,对智能体执行的动作进行基于价值的安全约束,选择价值高且安全的动作。然后,向回放池添加包含虚拟奖励的预测轨迹数据,以补充由于约束而未能获取的试错动作信息和相应的状态、奖励信息。最后,为进行加减速和换道决策实验,基于修改后的高速公路仿真环境highway-env搭建了3车道高速公路场景,并以深度Q网络(Deep Q Network, DQN)算法为基础,分别训练和测试了无安全约束的算法、拥有基于规则的安全约束的算法和拥有基于价值的安全约束的算法。结果表明,考虑加速、减速、保持车速和车道、向左换道、向右换道共5种动作时,基于价值的安全约束算法的成功率比无安全约束的算法高3倍以上,平均回报提升28%;仅考虑向左换道、向右换道、保持车道这3种换道动作时,基于价值的安全约束算法的成功率比基于规则的安全约束算法高0.11,平均回报提升6%;都添加基于价值的安全约束时,考虑5种动作的算法相较于考虑3种动作的算法成功率低0.06但... 相似文献
128.
129.