雷锋网 AI 科技评论按:今年 2 月,我们报道过上海交通大学卢策吾团队开源 AlphaPose 的消息。
AlphaPose 是一个多人姿态估计系统,具有极高的精准度。据卢策吾团队介绍, AlphaPose 在姿态估计(Pose Estimation)标准测试集 MSCOCO 上达到 72.3 mAP,是首个超过 70 mAP 的开源系统,比 Mask-RCNN 相对提高 8.2%,比 OpenPose(CMU)相对提高 17%。除此之外,在 MPII 排行榜上,AlphaPose 以 6% 的相对优势占据榜首。AlphaPose 基于腾讯优图和卢策吾团队在 ICCV 2017 上发表的分区域多人姿态识别算法(RMPE)。
近日,AlphaPose 迎来一次重大更新。在不损失精度的情况下,他们把识别速度提升到实时。系统采用PyTorch 框架,在姿态估计的标准测试集MSCOCO上,达到 71mAP 的精度,同时,速度达到 20FPS(平均每张图像中有 4. 6 人)。代码支持 Linux 和 Windows。
据卢策吾团队介绍,新版 AlphaPose 系统,架设在 PyTorch 框架上,得益于 PyTorch 的灵活性,新系统对用户更加友好,安装使用过程更加简易,也方便进行二次开发。同时,系统支持图片、视频、摄像头输入,实时在线计算出多人的姿态结果。
为了在兼顾速度的同时保持精度,新版 AlphaPose 提出了一个新的姿态估计模型。模型的骨架网络使用 ResNet101,在下采样部分添加 SE 模块作为 attention 模块。除此之外,使用 PixelShuffle 进行3次上采样,输出关键点的热度图,在提高分辨率的同时,保持特征信息不丢失,技术论文会在近期公布。
另一方面,卢策吾本人在知乎上表示,「alphapose 系统接下来计划上线 3D pose,密集人群 pose,超轻量级 pose,pose-action 联合预测模块,等等,每一个模块一般会对应一篇学术论文。MVIG 团队会持续优化速度,精度。希望能像 Yolo 一样持续更新成为一个对大家有用的系统。学术上,有新的算法第一时间更新,并投稿顶级会议。工程上,也会做到方便二次开发。」从这样的路线图可以看到,AlphaPose 目标是成为一个对学界、业界都开放、有用的代码库,我们也非常期待 AlphaPose 的未来更新。
项目链接:
https://github.com/MVIG-SJTU/AlphaPose/tree/pytorch
项目主页:
http://www.mvig.org/research/alphapose.html
ICCV 2017 RMPE论文链接:
http://cn.arxiv.org/abs/1612.00137
人体关键点检测对于描述人体姿态,预测人体行为至关重要。因此人体关键点检测是诸多计算机视觉任务的基础。其在动作分类,异常行为检测,以及人机交互等领域有着很广阔的应用前景,是计算机视觉领域中一个既具有研究价值、同时又极具挑战性的热门课题。
卢策吾:上海交通大学研究员,博士生导师。主要从事计算机视觉与深度学习相关研究,入选国家「青年千人」计划,原斯坦福 AI Lab 博士后研究员(导师:Fei-Fei Li 和 Leo Guibas),为斯坦福-丰田无人车重要研究人员之一。
雷锋网 AI 科技评论报道。上海交大机器视觉与智能实验室公众号推文参见这里。