-
Notifications
You must be signed in to change notification settings - Fork 5.2k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
自定义多轮对话数据集,只学习最后一轮对话 #5165
Comments
@YeQiuO hi,我发现我使用这个参数以后,我在验证集上的损失,是逐渐上升的 |
训练loss降低,验证loss升高,那就是过拟合了呗,优化下数据吧 |
原因是什么呢? |
这个参数就是把之前的对话历史全部mask,只训练最后一轮对话呀 总而言之,这个参数可以认为模型只训练了最后一轮对话 |
不是这个原因,我验证集是从训练集分出来的一部分,除非是验证集是算上历史的损失; 查了一下代码,初步判断是这个原因:eval的时候,没有生效这个mask history参数 |
eval的时候确实不需要mask_history吧?lf的eval本来就只会测试最后一轮对话
…---- 回复的原邮件 ----
| 发件人 | ***@***.***> |
| 日期 | 2024年08月23日 16:02 |
| 收件人 | ***@***.***> |
| 抄送至 | Richard ***@***.***>***@***.***> |
| 主题 | Re: [hiyouga/LLaMA-Factory] 自定义多轮对话数据集,只学习最后一轮对话 (Issue #5165) |
不是这个原因,我验证集是从训练集分出来的一部分,除非是验证集是算上历史的损失;
查了一下代码,初步判断是这个原因:eval的时候,没有生效这个mask history参数
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
如果训练集需要加,那验证集也要加的,否则就会推理和训练过程不一致的; 而且我加了之后,训练eval loss 正常了 |
Hi @Syno8 想请教一下,验证集如何加入这个mask history参数呢? |
Reminder
System Info
略
Reproduction
略
Expected behavior
如题,现在 SFT 的自定义数据集会学习历史对话。那如何只学习最后一轮对话呢。
Others
No response
The text was updated successfully, but these errors were encountered: