全文获取类型
收费全文 | 2659篇 |
免费 | 299篇 |
专业分类
公路运输 | 700篇 |
综合类 | 1228篇 |
水路运输 | 370篇 |
铁路运输 | 436篇 |
综合运输 | 224篇 |
出版年
2024年 | 20篇 |
2023年 | 37篇 |
2022年 | 71篇 |
2021年 | 118篇 |
2020年 | 99篇 |
2019年 | 67篇 |
2018年 | 74篇 |
2017年 | 94篇 |
2016年 | 91篇 |
2015年 | 110篇 |
2014年 | 184篇 |
2013年 | 204篇 |
2012年 | 218篇 |
2011年 | 258篇 |
2010年 | 209篇 |
2009年 | 191篇 |
2008年 | 186篇 |
2007年 | 189篇 |
2006年 | 172篇 |
2005年 | 139篇 |
2004年 | 88篇 |
2003年 | 41篇 |
2002年 | 24篇 |
2001年 | 23篇 |
2000年 | 15篇 |
1999年 | 9篇 |
1998年 | 5篇 |
1997年 | 2篇 |
1996年 | 3篇 |
1995年 | 4篇 |
1994年 | 1篇 |
1992年 | 2篇 |
1991年 | 3篇 |
1990年 | 1篇 |
1989年 | 4篇 |
1988年 | 2篇 |
排序方式: 共有2958条查询结果,搜索用时 15 毫秒
31.
基于驾驶人的视觉惰性、视觉警示频率和感觉特性, 分析了突起路标的视觉警示作用, 确定了突起路标的闪现频率, 计算与修正了突起路标的初始间隔。应用ADAMS/Car仿真软件模块, 建立了道路、车辆和突起路标模型, 将车型设置为大型车和小型车, 大型车的车速设置为60、80、100km·h-1, 小型车的车速设置为80、100、120km·h-1, 大型车和小型车的方向盘转角均设置为1°、3°、5°。分别对提出的12m间隔与现行规范推荐的15m间隔各进行243次仿真, 分析振动警示效果。仿真结果表明: 在12m间隔下, 平均碾压率为93.1%, 小型车和大型车对应的平均警示率分别为41.7%和5.6%;在15m间隔下, 平均碾压率为93.7%, 小型车和大型车对应的平均警示率分别为33.3%和28.9%;12、15m间隔对小型车都具有较好的振动警示效果, 15m间隔对大型车的振动警示效果更好。当高速公路夜间交通流较大或需要加大交通设施的夜间安全效果时, 可选12m间隔提供良好的视觉连续性和视觉警示效果; 考虑施工维护的方便性和经济性或者大型车比例较大时, 可选择15m间隔。 相似文献
32.
33.
以客运枢纽内连接服务设施设备的通道作为研究对象,以通道的长度和宽度对行人流分散作用的强度分析入手,借助行人流仿真软件,设计仿真方案,利用仿真输出的行人流参数统计数据,建立行人流流量随观测时间的变化趋势曲线,一方面,对曲线的变化趋势进行对比分析,另一方面,对统计数据进行K-W检验以分析数据的差异性。结合曲线对比和K-W检验结果,综合分析单向通道、双向通道的长度和宽度变化对行人流分散作用的影响,进而确定单向通道和双向通道的最佳宽度分别为4m和8m,最佳长度为50m。 相似文献
34.
航空母舰舰载机任务规划问题涉及复杂的资源约束、时态约束、操作规范及设备使用限制,且任务间相互耦合,是一类非确定性难(NP-hard)问题。其计算复杂度随问题规模呈指数增长,采用常规数学建模和求解方法很难解决。针对舰载机任务规划问题,考虑任务的层次性特征,以及时间和空间约束导致的资源冲突,设计资源状态更新机制,提出层次任务网络(Hierarchical Task Network,HTN)规划算法。算例分析结果表明,该规划方法可以充分考虑资源与时间约束,快速为多个带有截止期限的飞行任务提供可行的行动方案。 相似文献
35.
基于随机用户平衡原则, 分析了出行者的路径选择和停车选择行为, 建立了满足Logit关系的城市道路停车流量分配模型。基于收益管理思想, 以停车收益最大为决策目标, 建立了城市停车费用的双层规划模型, 并以7个节点和2个停车场的小型网络进行实例验证。分析结果表明: 当停车需求为10 000pcu·h-1时, 随着停车场2停车费用的提高, 停车流量不断向停车场1转移, 停车场1在停车费用不变的情况下收益不断增加, 当停车场2的停车费用为4元·h-1时, 总的停车收益达到最大; 当停车需求为20 000pcu·h-1时, 随着停车费用的上升, 总的停车收益将持续增加; 2个停车场之间存在博弈关系, 停车费用存在纳什均衡点, 当停车需求为10 000pcu·h-1时, 2个停车场的最优停车费用均为5元·h-1; 当停车需求为20 000pcu·h-1时, 2个停车场的最优停车费用均为最高限价10元·h-1。 相似文献
36.
为提升焊接机器人的焊接效率与柔性水平,本文通过结合激光视觉模块与焊接路径规划模块,将焊接路径算法融入路径规划系统中,从而实现焊接零件多规格、多品种的柔性焊接。 相似文献
37.
38.
全球汽车保有量的增多,直接造成城市交通的拥堵以及停车位空间的减小。随之而来的就是泊车安全性问题,新手驾驶员或疲劳驾驶人员如何能在不发生碰撞的情况下,快速安全地泊车入库,成为当下研究的热点。针对以上问题,本文将对全自动泊车系统展开研究。基于B样条曲线设计出泊车路径,基于滑模变结构与预瞄方式进行泊车路径的跟踪。最后通过搭建SIMULINK与CARSIM仿真模型进行联合仿真。 相似文献
39.
总装生产线设计开发是总装工程的重要内容。文章结合纯电动乘用车的结构特点及工艺要求,对其总装生产过程进行了深入研究及思考,然后以生产线设计步骤为主线,着重分析了基本信息的收集、工艺流程及主线的设计、工艺设备及工艺布局的选择等关键环节,最终提出了纯电动乘用车总装生产线设计工作的方法及要点,这些方法及要点对于总装生产线规划与设计具有一定的实用价值,能有效地保证开发质量、缩短开发周期、降低设计成本。此外,对于企业加快形成更加科学化、高效化、规范化的汽车总装生产新局面有积极的指导意义。 相似文献
40.
This study proposes a framework for human-like autonomous car-following planning based on deep reinforcement learning (deep RL). Historical driving data are fed into a simulation environment where an RL agent learns from trial and error interactions based on a reward function that signals how much the agent deviates from the empirical data. Through these interactions, an optimal policy, or car-following model that maps in a human-like way from speed, relative speed between a lead and following vehicle, and inter-vehicle spacing to acceleration of a following vehicle is finally obtained. The model can be continuously updated when more data are fed in. Two thousand car-following periods extracted from the 2015 Shanghai Naturalistic Driving Study were used to train the model and compare its performance with that of traditional and recent data-driven car-following models. As shown by this study’s results, a deep deterministic policy gradient car-following model that uses disparity between simulated and observed speed as the reward function and considers a reaction delay of 1 s, denoted as DDPGvRT, can reproduce human-like car-following behavior with higher accuracy than traditional and recent data-driven car-following models. Specifically, the DDPGvRT model has a spacing validation error of 18% and speed validation error of 5%, which are less than those of other models, including the intelligent driver model, models based on locally weighted regression, and conventional neural network-based models. Moreover, the DDPGvRT demonstrates good capability of generalization to various driving situations and can adapt to different drivers by continuously learning. This study demonstrates that reinforcement learning methodology can offer insight into driver behavior and can contribute to the development of human-like autonomous driving algorithms and traffic-flow models. 相似文献