diff --git a/docs/tasks/2d_body_keypoint.md b/docs/tasks/2d_body_keypoint.md index a275235d13..625e4d5714 100644 --- a/docs/tasks/2d_body_keypoint.md +++ b/docs/tasks/2d_body_keypoint.md @@ -40,8 +40,8 @@ MMPose supported datasets: For [COCO](http://cocodataset.org/) data, please download from [COCO download](http://cocodataset.org/#download), 2017 Train/Val is needed for COCO keypoints training and validation. [HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) provides person detection result of COCO val2017 to reproduce our multi-person pose estimation results. Please download from [OneDrive](https://1drv.ms/f/s!AhIXJn_J-blWzzDXoz5BeFl8sWM-) or [GoogleDrive](https://drive.google.com/drive/folders/1fRUDNUDxe9fjqcRZ2bnF_TKMlO0nB_dk?usp=sharing). -Download and extract them under $MMPOSE/data, and make them look like this: Optionally, to evaluate on COCO'2017 test-dev, please download the [image-info](https://download.openmmlab.com/mmpose/datasets/person_keypoints_test-dev-2017.json). +Download and extract them under $MMPOSE/data, and make them look like this: ```text mmpose diff --git a/docs_zh-CN/tasks/2d_body_keypoint.md b/docs_zh-CN/tasks/2d_body_keypoint.md index 165ec69803..47a1c3e40a 100644 --- a/docs_zh-CN/tasks/2d_body_keypoint.md +++ b/docs_zh-CN/tasks/2d_body_keypoint.md @@ -1,7 +1,7 @@ # 2D 人体关键点数据集 -建议您将数据集的根目录放置在 `$MMPOSE/data` 下。 -如果您的文件结构比较特别, 您需要在配置文件中修改相应的路径。 +我们建议您将数据集的根目录放置在 `$MMPOSE/data` 下。 +如果您的文件结构比较特别,您需要在配置文件中修改相应的路径。 MMPose 支持的数据集如下所示: @@ -37,11 +37,11 @@ MMPose 支持的数据集如下所示: -对 [COCO](http://cocodataset.org/) 数据集来说,请从此链接 [COCO download](http://cocodataset.org/#download) 下载, 2017 Train/Val 对于 COCO 关键点的训练和评估是非常必要的。 -[HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) 提供了 COCO val2017 的检测结果,来帮助重现我们的多人姿态估计的结果。 +请从此链接 [COCO download](http://cocodataset.org/#download) 下载数据集。请注意,2017 Train/Val 对于 COCO 关键点的训练和评估是非常必要的。 +[HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) 提供了 COCO val2017 的检测结果,可用于复现我们的多人姿态估计的结果。 请从 [OneDrive](https://1drv.ms/f/s!AhIXJn_J-blWzzDXoz5BeFl8sWM-) 或 [GoogleDrive](https://drive.google.com/drive/folders/1fRUDNUDxe9fjqcRZ2bnF_TKMlO0nB_dk?usp=sharing)下载。 -在 $MMPOSE/data 目录下下载并提取, 使得文件呈如下的格式: 可选地, 为了在 COCO'2017 test-dev 上评估, 请下载 [image-info](https://download.openmmlab.com/mmpose/datasets/person_keypoints_test-dev-2017.json)。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -91,9 +91,9 @@ mmpose -对于 [MPII](http://human-pose.mpi-inf.mpg.de/) 数据集, 请从此链接 [MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/) 下载。 -我们已经将原来的标注文件转成了json格式, 请从此链接 [mpii_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_annotations.tar) 下载。 -在 {MMPose}/data 目录下提取它们,使得文件呈如下的格式: +请从此链接 [MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/) 下载数据集。 +我们已经将原来的标注文件转成了 json 格式,请从此链接 [mpii_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_annotations.tar) 下载。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -116,7 +116,7 @@ mmpose ``` -在训练和推理过程中, 预测结果将会被默认保存为 '.mat' 的格式。 我们也会提供一个工具将这种 '.mat' 的格式转换成更加易读的 '.json' 格式。 +在训练和推理过程中,预测结果将会被默认保存为 '.mat' 的格式。我们提供了一个工具将这种 '.mat' 的格式转换成更加易读的 '.json' 格式。 ```shell python tools/dataset/mat2json ${PRED_MAT_FILE} ${GT_JSON_FILE} ${OUTPUT_PRED_JSON_FILE} @@ -147,9 +147,8 @@ python tools/dataset/mat2json work_dirs/res50_mpii_256x256/pred.mat data/mpii/an -对于 [MPII-TRB](https://github.com/kennymckormick/Triplet-Representation-of-human-Body) 数据集, 请从此链接[MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/)下载。 -请从此链接 [mpii_trb_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_trb_annotations.tar)下载标注文件。 -在 {MMPose}/data 目录下提取它们,使得文件呈如下的格式: +请从此链接[MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/)下载数据集,并从此链接 [mpii_trb_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_trb_annotations.tar) 下载标注文件。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -187,9 +186,9 @@ mmpose -对于 [AIC](https://github.com/AIChallenger/AI_Challenger_2017) 数据集, 请从此链接 [AI Challenger 2017](https://github.com/AIChallenger/AI_Challenger_2017)下载,2017 Train/Val 对于关键点的训练和评估是必要的。 -请从此链接 [aic_annotations](https://download.openmmlab.com/mmpose/datasets/aic_annotations.tar)下载标注文件。 -在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式: +请从此链接 [AI Challenger 2017](https://github.com/AIChallenger/AI_Challenger_2017) 下载 [AIC](https://github.com/AIChallenger/AI_Challenger_2017) 数据集。请注意,2017 Train/Val 对于关键点的训练和评估是必要的。 +请从此链接 [aic_annotations](https://download.openmmlab.com/mmpose/datasets/aic_annotations.tar) 下载标注文件。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -233,11 +232,10 @@ mmpose -对于 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 数据集,请从此链接 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 下载。 -请从此链接 [crowdpose_annotations](https://download.openmmlab.com/mmpose/datasets/crowdpose_annotations.tar) 下载标注文件和人体检测结果。 -对于 top-down 的方法, 我们仿照 [CrowdPose](https://arxiv.org/abs/1812.00324) , 使用 [YOLOv3](https://github.com/eriklindernoren/PyTorch-YOLOv3)的[预训练权重](https://pjreddie.com/media/files/yolov3.weights) ,来产生人体的检测框。 -对于模型训练, 我们仿照 [HigherHRNet](https://github.com/HRNet/HigherHRNet-Human-Pose-Estimation) ,在 CrowdPose 训练/验证 数据集上训练模型, 并在 CrowdPose 测试集上评估模型。 -在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式: +请从此链接 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 下载数据集,并从此链接 [crowdpose_annotations](https://download.openmmlab.com/mmpose/datasets/crowdpose_annotations.tar) 下载标注文件和人体检测结果。 +对于 top-down 方法,我们仿照 [CrowdPose](https://arxiv.org/abs/1812.00324),使用 [YOLOv3](https://github.com/eriklindernoren/PyTorch-YOLOv3)的[预训练权重](https://pjreddie.com/media/files/yolov3.weights) 来产生人体的检测框。 +对于模型训练, 我们仿照 [HigherHRNet](https://github.com/HRNet/HigherHRNet-Human-Pose-Estimation),在 CrowdPose 训练/验证 数据集上训练模型, 并在 CrowdPose 测试集上评估模型。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -280,8 +278,8 @@ mmpose -For [OCHuman](https://github.com/liruilong940607/OCHumanApi) 数据集,请从此链接 [OCHuman](https://github.com/liruilong940607/OCHumanApi)下载图像和标注文件, -将它们移至 $MMPOSE/data目录下,使得文件呈如下的格式: +请从此链接 [OCHuman](https://github.com/liruilong940607/OCHumanApi) 下载数据集的图像和标注文件。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -322,9 +320,8 @@ mmpose -对于 [MHP](https://lv-mhp.github.io/dataset) 数据集, 请从此链接 [MHP](https://lv-mhp.github.io/dataset)下载。 -请从此链接 [mhp_annotations](https://download.openmmlab.com/mmpose/datasets/mhp_annotations.tar.gz)下载标注文件。 -在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式: +请从此链接 [MHP](https://lv-mhp.github.io/dataset)下载数据文件,并从此链接 [mhp_annotations](https://download.openmmlab.com/mmpose/datasets/mhp_annotations.tar.gz)下载标注文件。 +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -377,11 +374,10 @@ mmpose -对于 [PoseTrack18](https://posetrack.net/users/download.php) 数据集,,请从此链接 [PoseTrack18](https://posetrack.net/users/download.php)下载。 -请从此链接下载 [posetrack18_annotations](https://download.openmmlab.com/mmpose/datasets/posetrack18_annotations.tar)下载标注文件。 -我们已将视频分离的官方标注文件合并为两个 json 文件 (posetrack18_train & posetrack18_val.json)。 我们也生成了 [mask files](https://download.openmmlab.com/mmpose/datasets/posetrack18_mask.tar) 来加速训练。 +请从此链接 [PoseTrack18](https://posetrack.net/users/download.php)下载数据文件,并从此链接下载 [posetrack18_annotations](https://download.openmmlab.com/mmpose/datasets/posetrack18_annotations.tar)下载标注文件。 +我们已将官方提供的所有单视频标注文件合并为两个 json 文件 (posetrack18_train & posetrack18_val.json),并生成了 [mask files](https://download.openmmlab.com/mmpose/datasets/posetrack18_mask.tar) 来加速训练。 对于 top-down 的方法, 我们使用 [MMDetection](https://github.com/open-mmlab/mmdetection) 的预训练 [Cascade R-CNN](https://download.openmmlab.com/mmdetection/v2.0/cascade_rcnn/cascade_rcnn_x101_64x4d_fpn_20e_coco/cascade_rcnn_x101_64x4d_fpn_20e_coco_20200509_224357-051557b1.pth) (X-101-64x4d-FPN) 来生成人体的检测框。 -在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式: +请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式: ```text mmpose @@ -443,7 +439,7 @@ mmpose │-- ... ``` -PoseTrack的官方评估工具应该从Github上安装。 +请从 Github 上安装 PoseTrack 官方评估工具: ```shell pip install git+https://github.com/svenkreiss/poseval.git