与CycleGAN类似,U-GAT-IT使用未配对的图片进行图像风格转换,输入两个不同风格的图像,U-GAT-IT自动执行风格转换。不同的是,U-GAT-IT在历史研究的基础上以端到端的方式引入了一个新的注意模块和一个新的可学习的归一化函数。
U-GAT-IT使用的Selfie2anime数据集可以从这里下载,您也可以使用自己的数据集。
数据的组成形式为:
├── dataset
└── YOUR_DATASET_NAME
├── trainA
├── trainB
├── testA
└── testB
示例以selfie2anime数据集为例。如果您想使用自己的数据集,可以在配置文件中修改数据集为您自己的数据集。
训练模型:
python -u tools/main.py --config-file configs/ugatit_selfie2anime_light.yaml
测试模型:
python tools/main.py --config-file configs/ugatit_selfie2anime_light.yaml --evaluate-only --load ${PATH_OF_WEIGHT}
模型 | 数据集 | 下载地址 |
---|---|---|
ugatit_light | selfie2anime | ugatit_light |
-
@article{kim2019u, title={U-GAT-IT: unsupervised generative attentional networks with adaptive layer-instance normalization for image-to-image translation}, author={Kim, Junho and Kim, Minjae and Kang, Hyeonwoo and Lee, Kwanghee}, journal={arXiv preprint arXiv:1907.10830}, year={2019} }