通过解聚的关键点自下而上的人体姿势估计
在本文中,我们对从图像估计人的姿势的自下而上的范例感兴趣。 我们研究了密集的关键点回归框架,该框架先前不如关键点检测和分组框架。 我们的动机是准确地回归关键点位置需要学习专注于关键点区域的表示形式。
我们提出了一种简单而有效的方法,称为分解关键点回归(
DEKR)。 我们通过像素级空间转换器采用自适应卷积来激活关键点区域中的像素,并从中学习表示。 我们使用多分支结构进行单独的回归:每个分支学习具有专用自适应卷积的表示,然后对一个关键点进行回归。 产生的解缠结表示能够分别关注关键点区域,因此关键点回归在空间上更加准确。 我们凭经验表明,所提出的直接回归方法优于关键点检测和分组方法,并且在两个基准
数据集COCO和C
rowdPose上获得了出色的自下而上的姿势估计结果。
不进行多尺度
测试的
COCO val2017结果
本文是对HigherHRnet/DEKR骨骼关键点检测项目代码阅读后的笔记。
Github:https://github.com/HRNet/DEKR
论文:https://arxiv.org/abs/2104.02300
HigherHRnet/DEKR骨骼关键点检测是MIT提出一种新颖的bottom-up方法,并且在COCO和Crowdpose中达到了SOTA,利用HRnet网络预测骨骼点的heatmap和offset,得到骨骼关键点的坐标和置信度。
heatmap+offset是谷歌在CVPR2017
参考Simple BaseLine生成HeatMap的方法,这里整理进行显示,方便
可视化:
Simple BaseLine生成HeatMap的方法:https://github.com/microsoft/human-pose-estimation.
pytorch/blob/master/lib/dataset/JointsDataset.py
# -*- coding: utf-8 -*-
# ----------------------------