--cfg 模型的yaml配置文件
--videoFile 测试视频路径
--outputDir 输出可视化结果的目录
TEST.MODEL_FILE 指定测试所用的模型
DEKR项目地址:https://github.com/HRNet/DEKR核心绘图代码:1.1 COCO格式(17关键点)def show_skeleton(img,kpts,color=(255,128,128),thr=0.5): kpts = np.array(kpts).reshape(-1,3) skelenton = [[16, 14], [14, 12], [17, 15], [15, 13], [12, 13], [6, 12], [7, 13], [6, 7], [
参考Simple BaseLine生成HeatMap的方法,这里整理进行显示,方便可视化:
Simple BaseLine生成HeatMap的方法:https://github.com/microsoft/human-pose-estimation.pytorch/blob/master/lib/dataset/JointsDataset.py
# -*- coding: utf-8 -*-
# ----------------------------
该代码对于一张图进行heatmap图片的可视化,会存储coco的17组关节点图片,即每一个heatmap包含图片中所有人体的同一关节点位置。
##生成heatmap
import os
import numpy as np
import json
import cv2
from itertools import groupby
import random
from matplotlib import pyplot as plt
dataset_dir = "D:/send_paper/COCO val201
头部姿态估计(Head Pose Estimation ):通过一幅面部图像来获得头部的姿态角. 在3D 空间中,表示物体的旋转可以由三个欧拉角(Euler Angle)来表示:分别计算 pitch(围绕X轴旋转),yaw(围绕Y轴旋转) 和 roll(围绕Z轴旋转) ,分别学名俯仰角、偏航角和滚转角,通俗讲就是抬头、摇头和转头。百闻不如一见,上示意图:
HRNet-DEKR: 通过解耦关键点回归完成自下而上的人体位姿估计
摘要:在本文中我们对从图像中估计人体姿势的自底向上范式感兴趣。我们研究了以前不如关键点检测和分组框架的密集关键点回归框架。我们的动机是准确地回归关键点位置需要学习专注于关键点区域的表示。我们提出了一种简单而有效的方法,称为解缠(解耦)关键点回归(DEKR)。
我们通过逐像素空间变换器采用自适应卷积来激活关键点区域中的像素,并相应地从中学习表示。我们使用多分支结构进行单独的回归:每个分支通过专用的自适应卷积学习一个表示并回归一个关键点。由