Skip to content

Latest commit

 

History

History
13 lines (10 loc) · 885 Bytes

README.md

File metadata and controls

13 lines (10 loc) · 885 Bytes

LLM-Chinese

本仓库偏教程性质,希望以「模型中文化」为一个典型的模型训练需求场景,指导读者上手掌握LLM二次微调训练流程。

gemma2 中文版

shareAI-DPO对齐中文版 (教程撰写中...)

image 截图为2b版本的演示,实测当对话轮次增多后会与9b有一些明显性能差距,但10轮以内对话表现比较好。(测试了英文原版也是这样)