Skip to content

Commit

Permalink
revise the CN version
Browse files Browse the repository at this point in the history
  • Loading branch information
ly015 committed Aug 26, 2021
1 parent 98393bd commit de671c1
Show file tree
Hide file tree
Showing 2 changed files with 27 additions and 31 deletions.
2 changes: 1 addition & 1 deletion docs/tasks/2d_body_keypoint.md
Original file line number Diff line number Diff line change
Expand Up @@ -40,8 +40,8 @@ MMPose supported datasets:
For [COCO](http://cocodataset.org/) data, please download from [COCO download](http://cocodataset.org/#download), 2017 Train/Val is needed for COCO keypoints training and validation.
[HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) provides person detection result of COCO val2017 to reproduce our multi-person pose estimation results.
Please download from [OneDrive](https://1drv.ms/f/s!AhIXJn_J-blWzzDXoz5BeFl8sWM-) or [GoogleDrive](https://drive.google.com/drive/folders/1fRUDNUDxe9fjqcRZ2bnF_TKMlO0nB_dk?usp=sharing).
Download and extract them under $MMPOSE/data, and make them look like this:
Optionally, to evaluate on COCO'2017 test-dev, please download the [image-info](https://download.openmmlab.com/mmpose/datasets/person_keypoints_test-dev-2017.json).
Download and extract them under $MMPOSE/data, and make them look like this:

```text
mmpose
Expand Down
56 changes: 26 additions & 30 deletions docs_zh-CN/tasks/2d_body_keypoint.md
Original file line number Diff line number Diff line change
@@ -1,7 +1,7 @@
# 2D 人体关键点数据集

建议您将数据集的根目录放置在 `$MMPOSE/data` 下。
如果您的文件结构比较特别, 您需要在配置文件中修改相应的路径。
我们建议您将数据集的根目录放置在 `$MMPOSE/data` 下。
如果您的文件结构比较特别,您需要在配置文件中修改相应的路径。

MMPose 支持的数据集如下所示:

Expand Down Expand Up @@ -37,11 +37,11 @@ MMPose 支持的数据集如下所示:

</details>

[COCO](http://cocodataset.org/) 数据集来说,请从此链接 [COCO download](http://cocodataset.org/#download) 下载, 2017 Train/Val 对于 COCO 关键点的训练和评估是非常必要的。
[HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) 提供了 COCO val2017 的检测结果,来帮助重现我们的多人姿态估计的结果
请从此链接 [COCO download](http://cocodataset.org/#download) 下载数据集。请注意,2017 Train/Val 对于 COCO 关键点的训练和评估是非常必要的。
[HRNet-Human-Pose-Estimation](https://github.com/HRNet/HRNet-Human-Pose-Estimation) 提供了 COCO val2017 的检测结果,可用于复现我们的多人姿态估计的结果
请从 [OneDrive](https://1drv.ms/f/s!AhIXJn_J-blWzzDXoz5BeFl8sWM-)[GoogleDrive](https://drive.google.com/drive/folders/1fRUDNUDxe9fjqcRZ2bnF_TKMlO0nB_dk?usp=sharing)下载。
在 $MMPOSE/data 目录下下载并提取, 使得文件呈如下的格式:
可选地, 为了在 COCO'2017 test-dev 上评估, 请下载 [image-info](https://download.openmmlab.com/mmpose/datasets/person_keypoints_test-dev-2017.json)
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式:

```text
mmpose
Expand Down Expand Up @@ -91,9 +91,9 @@ mmpose

</details>

对于 [MPII](http://human-pose.mpi-inf.mpg.de/) 数据集, 请从此链接 [MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/) 下载
我们已经将原来的标注文件转成了json格式, 请从此链接 [mpii_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_annotations.tar) 下载。
在 {MMPose}/data 目录下提取它们,使得文件呈如下的格式
请从此链接 [MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/) 下载数据集
我们已经将原来的标注文件转成了 json 格式,请从此链接 [mpii_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_annotations.tar) 下载。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式

```text
mmpose
Expand All @@ -116,7 +116,7 @@ mmpose
```

在训练和推理过程中, 预测结果将会被默认保存为 '.mat' 的格式。 我们也会提供一个工具将这种 '.mat' 的格式转换成更加易读的 '.json' 格式。
在训练和推理过程中,预测结果将会被默认保存为 '.mat' 的格式。我们提供了一个工具将这种 '.mat' 的格式转换成更加易读的 '.json' 格式。

```shell
python tools/dataset/mat2json ${PRED_MAT_FILE} ${GT_JSON_FILE} ${OUTPUT_PRED_JSON_FILE}
Expand Down Expand Up @@ -147,9 +147,8 @@ python tools/dataset/mat2json work_dirs/res50_mpii_256x256/pred.mat data/mpii/an

</details>

对于 [MPII-TRB](https://github.com/kennymckormick/Triplet-Representation-of-human-Body) 数据集, 请从此链接[MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/)下载。
请从此链接 [mpii_trb_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_trb_annotations.tar)下载标注文件。
在 {MMPose}/data 目录下提取它们,使得文件呈如下的格式:
请从此链接[MPII Human Pose Dataset](http://human-pose.mpi-inf.mpg.de/)下载数据集,并从此链接 [mpii_trb_annotations](https://download.openmmlab.com/mmpose/datasets/mpii_trb_annotations.tar) 下载标注文件。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式:

```text
mmpose
Expand Down Expand Up @@ -187,9 +186,9 @@ mmpose

</details>

对于 [AIC](https://github.com/AIChallenger/AI_Challenger_2017) 数据集, 请从此链接 [AI Challenger 2017](https://github.com/AIChallenger/AI_Challenger_2017)下载,2017 Train/Val 对于关键点的训练和评估是必要的。
请从此链接 [aic_annotations](https://download.openmmlab.com/mmpose/datasets/aic_annotations.tar)下载标注文件。
在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式
请从此链接 [AI Challenger 2017](https://github.com/AIChallenger/AI_Challenger_2017) 下载 [AIC](https://github.com/AIChallenger/AI_Challenger_2017) 数据集。请注意,2017 Train/Val 对于关键点的训练和评估是必要的。
请从此链接 [aic_annotations](https://download.openmmlab.com/mmpose/datasets/aic_annotations.tar) 下载标注文件。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式

```text
mmpose
Expand Down Expand Up @@ -233,11 +232,10 @@ mmpose

</details>

对于 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 数据集,请从此链接 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 下载。
请从此链接 [crowdpose_annotations](https://download.openmmlab.com/mmpose/datasets/crowdpose_annotations.tar) 下载标注文件和人体检测结果。
对于 top-down 的方法, 我们仿照 [CrowdPose](https://arxiv.org/abs/1812.00324) , 使用 [YOLOv3](https://github.com/eriklindernoren/PyTorch-YOLOv3)[预训练权重](https://pjreddie.com/media/files/yolov3.weights) ,来产生人体的检测框。
对于模型训练, 我们仿照 [HigherHRNet](https://github.com/HRNet/HigherHRNet-Human-Pose-Estimation) ,在 CrowdPose 训练/验证 数据集上训练模型, 并在 CrowdPose 测试集上评估模型。
在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式:
请从此链接 [CrowdPose](https://github.com/Jeff-sjtu/CrowdPose) 下载数据集,并从此链接 [crowdpose_annotations](https://download.openmmlab.com/mmpose/datasets/crowdpose_annotations.tar) 下载标注文件和人体检测结果。
对于 top-down 方法,我们仿照 [CrowdPose](https://arxiv.org/abs/1812.00324),使用 [YOLOv3](https://github.com/eriklindernoren/PyTorch-YOLOv3)[预训练权重](https://pjreddie.com/media/files/yolov3.weights) 来产生人体的检测框。
对于模型训练, 我们仿照 [HigherHRNet](https://github.com/HRNet/HigherHRNet-Human-Pose-Estimation),在 CrowdPose 训练/验证 数据集上训练模型, 并在 CrowdPose 测试集上评估模型。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式:

```text
mmpose
Expand Down Expand Up @@ -280,8 +278,8 @@ mmpose

</details>

For [OCHuman](https://github.com/liruilong940607/OCHumanApi) 数据集,请从此链接 [OCHuman](https://github.com/liruilong940607/OCHumanApi)下载图像和标注文件,
将它们移至 $MMPOSE/data目录下,使得文件呈如下的格式
请从此链接 [OCHuman](https://github.com/liruilong940607/OCHumanApi) 下载数据集的图像和标注文件。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式

```text
mmpose
Expand Down Expand Up @@ -322,9 +320,8 @@ mmpose

</details>

对于 [MHP](https://lv-mhp.github.io/dataset) 数据集, 请从此链接 [MHP](https://lv-mhp.github.io/dataset)下载。
请从此链接 [mhp_annotations](https://download.openmmlab.com/mmpose/datasets/mhp_annotations.tar.gz)下载标注文件。
在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式:
请从此链接 [MHP](https://lv-mhp.github.io/dataset)下载数据文件,并从此链接 [mhp_annotations](https://download.openmmlab.com/mmpose/datasets/mhp_annotations.tar.gz)下载标注文件。
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式:

```text
mmpose
Expand Down Expand Up @@ -377,11 +374,10 @@ mmpose

</details>

对于 [PoseTrack18](https://posetrack.net/users/download.php) 数据集,,请从此链接 [PoseTrack18](https://posetrack.net/users/download.php)下载。
请从此链接下载 [posetrack18_annotations](https://download.openmmlab.com/mmpose/datasets/posetrack18_annotations.tar)下载标注文件。
我们已将视频分离的官方标注文件合并为两个 json 文件 (posetrack18_train & posetrack18_val.json)。 我们也生成了 [mask files](https://download.openmmlab.com/mmpose/datasets/posetrack18_mask.tar) 来加速训练。
请从此链接 [PoseTrack18](https://posetrack.net/users/download.php)下载数据文件,并从此链接下载 [posetrack18_annotations](https://download.openmmlab.com/mmpose/datasets/posetrack18_annotations.tar)下载标注文件。
我们已将官方提供的所有单视频标注文件合并为两个 json 文件 (posetrack18_train & posetrack18_val.json),并生成了 [mask files](https://download.openmmlab.com/mmpose/datasets/posetrack18_mask.tar) 来加速训练。
对于 top-down 的方法, 我们使用 [MMDetection](https://github.com/open-mmlab/mmdetection) 的预训练 [Cascade R-CNN](https://download.openmmlab.com/mmdetection/v2.0/cascade_rcnn/cascade_rcnn_x101_64x4d_fpn_20e_coco/cascade_rcnn_x101_64x4d_fpn_20e_coco_20200509_224357-051557b1.pth) (X-101-64x4d-FPN) 来生成人体的检测框。
在 {MMPose}/data 目录下下载并提取它们,使得文件呈如下的格式
请将数据置于 $MMPOSE/data 目录下,并整理成如下的格式

```text
mmpose
Expand Down Expand Up @@ -443,7 +439,7 @@ mmpose
│-- ...
```

PoseTrack的官方评估工具应该从Github上安装。
请从 Github 上安装 PoseTrack 官方评估工具:

```shell
pip install git+https://github.com/svenkreiss/poseval.git
Expand Down

0 comments on commit de671c1

Please sign in to comment.