人工智能中很多研究方向都很有意义,比如人体姿态估计,一个听起来很炫酷的简称,那么什么是人体姿态估计?姿态估计有什么意义?
先看下面这几张图片
姿态估计示意图
如上,为两种具有代表性的姿态估计效果。
姿态估计,就是利用神经网络模型,从图片中预测每个人物的关键点,然后将各个关键点位置信息标记并连接起来。
姿态估计中,通常有两种:自顶而下,子底而上的方法。
自顶而下的方法:先利用探测器检测图片中的所有人的位置,然后对检测到的么个人单独预测身体各个骨骼点位置。其缺点就是需要增加一个人物检测器,先检查人,在进行姿态估计,其算法时间复杂度随着图片中人物的多少而决定,人物越多,姿态估计耗时越长。典型的方法如AlphaPose,GitHub地址:https://github.com/MVIG-SJTU/AlphaPose
该方法是先检测人,在对检测到的人进行姿态估计,感兴趣的朋友可以试验运行一下这个实例。
自底而上的方法:直接从图片中预测每个人的所有骨骼点,然后估计骨骼点关联置信度确定每个骨骼点属于图片中的具体那个人。典型算法如openpose,GitHub地址:https://github.com/CMU-Perceptual-Computing-Lab/openpose
openpose不依赖行人检测,时间复杂度较低,也具有较好的实时性。
此外,还有一篇姿态估计,GitHub:https://github.com/microsoft/human-pose-estimation.pytorch
这是微软的一篇pytorch实现的,本人之前研究过,在coco上大概训练了几天,效果一般,不过加上mpii数据集后,效果会有很大提升。
其输入label是18个特征图,每个特征图负责预测一个人体关键点,每个特征图都经过高斯模糊化处理,模型输出也是18个特征图,后处理过程在每个特征图上找高斯模糊化亮度最高的点即为该特征图对应的骨骼点。
姿态估计算法除了上述之外,还有很多,2D,3D的姿态估计。姿态估计运用也是很广泛的,例如3D视觉重建,人物风格迁移等,用于视频中跟踪人体步态,从而判断行人姿态,例如摔倒、打架等,运用广泛。
喜欢的朋友可以点击关注哦