共查询到11条相似文献,搜索用时 31 毫秒
1.
证明了右半平面上有限级随机Dirichlet级数的增长性几乎必然与其在每条水平直线上的增长性相同。 相似文献
2.
证明了右半平面上无限级随机D irichlet级数的超级几乎必然与其在每条水平直线上的超级相同。 相似文献
3.
证明了全平面上无限级随机Dirichlet级数的超级几乎必然与其在每条水平直线上的超级相同. 相似文献
4.
5.
以妥协可接受的NTU对策的妥协值和TU对策的τ值为基础,将妥协值的性质推广到随机合作对策的模型中,从而得到具有非空核心的、妥协可接受随机合作对策的妥协值是可期望得到的最大支付和最小权之间的协调值,且妥协值介于两者之间. 相似文献
6.
7.
基于摄动理论、考虑地面运动的相位差,推导了大跨度随机结构在平稳随机地震作用下位移响应的零阶、一阶功率谱密度函数计算公式,算例表明,对大跨度随机结构考虑地震输入相位差的影响十分必要。 相似文献
8.
桥梁结构的随机振动有别于其他结构。由于车辆在桥上的位置是不断变化的,因此,即使作为输入的随机激励是平稳随机过程,车桥的动力响应也超出平稳随机过程的范围,即质量在梁上不断的运动,使系统运动方程组成为一个时变系数的二阶微分方程组,一般只能采用逐步积分的数值方法,也可以用频域法,假定其频率响应函数在瞬间不随时间变化,近似的处理这种时变性问题。 相似文献
9.
This paper investigated how to learn the optimal action policies in cooperative multi-agent systems if the agents‘ rewards are random variables, and proposed a general two-stage learning algorithm for cooperative multiagent decision processes. The algorithm first calculates the averaged immediate rewards, and considers these learned rewards as the agents‘ immediate action rewards to learn the optimal action policies. It is proved that the learning algorithm can find the optimal policies in stochastic environment. Extending the algorithm to stochastic Markov decision processes was also discussed. 相似文献
10.
11.