排序方式: 共有19条查询结果,搜索用时 15 毫秒
1.
2.
虽然笔者没有出生在那个满大街走的都是“蓝蚂蚁”,“灰蚂蚁”,“绿蚂蚁”的年代,但是说实话我对那时候的人还是相当同情的,尤其是对那些爱美的女性和讲究个性的人们,服装的力量是不可忽视的,大到款式.剪裁.小至一个边边角角的设计元素都有可能会起到掩盖缺点提升气质或者适得其反夸大缺点的作用——这跟穿者的身材比例非常有关。而服装中的另外一个最大的表情符号——颜色,也是人们极好的表达自我,调节自我的方式——这则跟穿者的肤色关系比较大。近些年来,人们选择服装颜色的着眼点已经不仅仅局限于“喜欢”了,而更多的是讲求“适合”——什么样肤色的人适合穿哪些颜色,色彩本身就是一门学问。色彩对于人们的视觉,心理等等方面都有着暗示作用,如果颜色错了,即使款式剪裁都很对味也会让人觉得别扭。应该说,人们对于服装色彩的认识已经逐渐趋于“理性”了,那么,对于车的颜色呢? 相似文献
3.
为鲁棒检测自然环境中驾驶人的通话行为, 提出了一种驾驶人手机通话手势的识别方法。运用Adaboost算法检测驾驶人面部区域, 在YCgCr色彩空间中分别对面部肤色亮度分量和色度分量进行稀疏网格间隔采样, 由此建立了肤色的高斯分布模型; 针对驾驶室光照强度的不均匀性, 提出了肤色分量的漂移补偿算法, 建立了适应光照变化的在线肤色模型, 以准确分割左右手部肤色区域; 运用HOG算法获取手部肤色区域的2 376维HOG特征向量, 运用PCA方法将HOG特征降至400维; 同时提取手部肤色区域的PZMs特征, 并采用Relief算法筛选出权重最大的8个PZMs特征向量, 建立了融合PCA-HOG特征和Relief-PZMs特征的通话手势支持向量机分类决策。试验结果表明: 基于PCA-HOG特征的手势识别率为93.1%, 对光照变化的鲁棒性较好, 但易受到手部与头部转动的干扰; 基于Relief-PZMs特征的手势识别率为91.9%, 对于头部与手部姿态的耐受度较好, 但光照鲁棒性较差; 基于PCA-HOG和Relief-PZMs多元特征融合方法的手势识别率达到94.5%, 对光照波动、手部与头部转动等干扰条件具有较好的适应性。 相似文献
4.
5.
基于肤色CIELab空间的视觉窗口手势跟踪 总被引:1,自引:0,他引:1
考虑到手势的应用场合,手部肤色作为特殊的识别标记往往区别于环境,因此加入肤色分割对手部图像序列进行分析以及跟踪.在CIELab空间,采用了平均转移分割算法提高了分割速度.在此基础上结合单目视觉中对指尖的识别,提高了手部分割的可识性和未来手部语义应用的可行性.跟踪则采用了卡尔曼滤波处理后的窗口跟踪.手指尖的半封闭特征的利用以及窗口算法保证了处理过程中的鲁棒性和准确性. 相似文献
6.
7.
利用色彩聚类的原理,建立了HSV,Fussy HSCC及YCbCr变形颜色空间肤色模型,并对这3种方法进行了比较。 相似文献
8.
通过判断手势的规范性与标准性,对机车司机的驾驶状态进行监测.首先对机车司机驾驶过程的视频文件进行一定的预处理,通过混合高斯模型、帧间差分法及背景减除法,得到不包含背景噪声的规定手势图像;然后,通过肤色模型的转换对手势的图像进行准确提取;再通过腐蚀与扩张等方法对其进行修正,从而得到清晰准确的二值图像;最后采用形状上下文算法、HOG特征和AdaBoost分类器等对手势的二值图像进行目标的识别与综合的判定,进而判断出机车司机的驾驶状态,对其进行监测.实验数据表明,视频文件经上述的运算预处理,可以较为准确地对机车驾驶的视频文件进行驾驶状态的监测. 相似文献
9.
采用一种人脸-人眼两层结构的定位方法.首先利用YCbCr空间的肤色模型粗定位可能的人脸区域,然后利用支持向量机的训练结果组成分类器,对人眼进行初检,最后根据人脸特征完成信息融合,最终标定人眼.实验结果表明:该方法在简单及复杂背景下都能够得到较高的定位速度和精确度,具有较好的鲁棒性. 相似文献
10.
介绍了一种快速检测和定位驾驶员面部区域的方法。首先将驾驶员面部图像映射到YCbCr颜色空间,建立肤色高斯模型;然后通过似然图自适应阈值分割获得驾驶员面部区域,对获得的二值化面部图像进行形态学操作消除毛刺和小孔;最后对处理后的面部图像进行灰度积分投影,结合面部特征获得驾驶员的面部区域并框定。并试验证明了方法的实时有效性。 相似文献