Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于调超参 #17

Open
huchenjie339 opened this issue May 27, 2021 · 7 comments
Open

关于调超参 #17

huchenjie339 opened this issue May 27, 2021 · 7 comments

Comments

@huchenjie339
Copy link

对你们的网络进行小改,比如说,给某层特征加个注意力这种情况,需要自己重新调超参数吗?还是可以直接使用你们提供的超参数?还有一个问题,就是之前跑你们Siamcar的时候,总共跑了20个epoch,日志文件也显示成功跑了20个epoch,但是最终只保留保存了19个参数文件(checkpoint_e1.pth-checkpoint_e19.pth),没有第20个参数文件。这是为什么呢?希望作者帮忙解答下,谢谢。 @twotwo2 @ohhhyeahhh

@twotwo2
Copy link
Collaborator

twotwo2 commented Jul 3, 2021

1.建议在我们提供的超参数值附近搜索,找一个最优超参;
2.当训练总数据可被batch_size整除时,不能保存第20轮的模型,这是我们代码存在的一个小问题,后期会加以优化。现阶段可以通过调整batch_size的方式,保存第20轮的模型。

@huchenjie339
Copy link
Author

@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。

@mrlihellohorld
Copy link

您好,请问在多人复杂的场景中只跟踪指定某个人的脸部,您测试过吗?结果如何?

@ghostbreaken
Copy link

@twotwo2 非常感谢作者的回复,另外最近复现SiamCAR结果的时候遇到了点问题,在COCO,ImageNet VID,ImageNet DET,Y ouTube-BB四个数据集上训练,然后在OTB100数据集上test和eval,最终得出的结果比你给的结果成功率要低4个多点。但我最近在看你们SiamGAT的论文时,发现你们在训练uav123和got10k的模型时,除了上诉的四个数据集还多了 个got10k数据。所以我想问下,在SiamCAR上测试OTB10和UAV123时,是不是也是基于上诉五个数据集训练的模型?希望作者帮忙解答下。

你好,这个问题解决了嘛?

@twotwo2
Copy link
Collaborator

twotwo2 commented Jan 2, 2022

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

@ghostbreaken
Copy link

ghostbreaken commented Jan 2, 2022

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复

@dhy1222
Copy link

dhy1222 commented Mar 29, 2023

@huchenjie339 @ghostbreaken 是的,SiamCAR上测试OTB10和UAV123的general_model extract code: lw7w , 是也是基于上诉五个数据集训练的。训练otb_uav123_model时,我们发现加入got10k使训练样本更加丰富之后,在otb100和uav123测试集上跟踪器能获得更好的表现,关于训练集的样本划分可参照SiamGAT中的配置文件 配置文件

作者,你好,非常感谢你的回复,我用了5个数据集训练,加上了got,但是OTB100结果相比论文还是差2个点,用的是checkpoint11-20测试的。配置和github代码一样,想问一下,这是为什么呢?期待你的回复

你好,请问你这个问题解决了吗

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

5 participants