首先给大家分享一个巨牛巨牛的人工智能教程,是我无意中发现的。教程不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵段子,像看小说一样,哈哈~我正在学习中,觉得太牛了,所以分享给大家!点这里可以跳转到教程
1. 目前进展
1.1 相关资料
1) HANDS CVPR 2016
2) HANDS 2015 Dataset
3) CVPR 2016
4) Hand 3D Pose Estimation (Computer Vision for Augmented Reality Lab)
5) CVPR2016 Tutorial: 3D Deep Learning with Marvin
6) MSRA Hand Dataset
7) NYU Depth Dataset V2
8) Hand Gesture Datasets RGB-D Dataset from Multimedia Technology and Telecommunications Laboratory
9) HandNet RGB-D Dataset
10) LibHand
11) Dexter 1 Dataset
12) Vehicles and Applications (VIVA) Challenge
13) Hand Pose Estimation & Hand Gesture Recognition(Papers Reading List in CVPR 2016)
14) HAND DATASETS AND METHODS
15)
1.2 流程
基本流程如下:
1)Detect and Segment Hand
2)Estimate Pose
3)Validate or Refine
1.3 困难
手势识别困难之处:
1)手分辨率低(Low-res hand)
2)背景杂乱(Clutter background)
3)手与其它对象交互(Object/surface interaction)
4)手被遮挡(Occlusions/Self-occlusions)
5)不同手势相似(Self-similarity)
6)多自由度(many DoF(Degree of Freedom))
7)多视角(Multiple viewpoints)
8)不同的形状和尺寸
1.4 组件
1)Training sets
2)Testing sets
3)Models
1.5 生成方法与判别方法
数据驱动方法(Data-Driven)更有优势,因为它不需要复杂的模型校准;且即使初始化很差,其结果照样健壮(即对初始化的依赖性不高)。
- holistic (coarse to fine)
- 手势识别:Hand Gesture Recognition
- 动作识别:Action Recognition
- 手势估计方法 :生成方法和判别方法
1.5.1 生成方法(Generative Methods)
生成方法 (基于模型)(Generative mthods: model-based)
- 步骤:首先,创建大量的手势;然后, 选择一个最匹配当前深度图像的手势
- 目标函数(objective function):基于输入深度图与手模型近似深度图的相似性,然后对此目标函数进行优化,以找到最接近的手模型。
- 缺点:
(1)优化(找最匹配的)计算量大
(2)其精确性高度依赖人工创建的相似性函数(similarity function)
(3)如果前面的估计不准确,易于出现错误累积
(4)为减轻普遍存大的模型漂移(model drift),近来采用“优化+重新初始化”范式
1.5.2 判别方法(Discriminative Approaches)
判别方法(基于外貌)(Discriminative approaches:appearane based)
- 学习从深度图像到手势配置的映射(手势配置 = mapping(深度图像))
- 手深度图低分辨率、自我遮挡、快速移动会产生大量错误
- 基于局部回归(local regression)的方法:可以提高对遮挡的鲁棒性,但是易产生帧间抖动
1.6 手势姿态估计方法
1.6.1 方法分类
1)追踪与检测(Trackers versus Detec