Skip to content

训练参数说明

Ming Xu (徐明) edited this page Aug 1, 2023 · 23 revisions

训练脚本

  • 第一阶段:PT(Continue PreTraining)增量预训练 run_pt.sh
  • 第二阶段:SFT(Supervised Fine-tuning)有监督微调 run_sft.sh
  • 第三阶段:RM(Reward Model)奖励模型建模 run_rm.sh
  • 第四阶段:RL(Reinforcement Learning)基于人类反馈的强化学习 run_rl.sh

训练参数说明

  1. 如果想要单卡训练,仅需将nproc_per_node设置为1即可,或者去掉torchrun命令,直接运行python脚本,如python supervised_finetuning.py
  2. 指定训练的base模型,训练代码也兼容ChatGLM/BLOOM/BaiChuan等GPT模型,以baichuan模型为例,调整--model_name_or_path baichuan-inc/Baichuan-13B-Chat,注意--model_type baichuan也需要同时调整,特别的,如果未训练只推理,base model是类似baichuan-inc/Baichuan-13B-Chat已经对齐的模型,则需要指定--template_name baichuan-chat;如果在base model基础上训练,默认采用vicuna模板,后续用训练好的模型推理时,也指定相同的--template_name vicuna即可
  3. 指定训练集,--train_file_dir指定训练数据目录,--validation_file_dir指定验证数据目录,如果不指定,默认使用--dataset_name指定的HF datasets数据集,训练集字段格式见数据集格式,建议领域训练集中加入一些通用对话数据,数据集链接见📚 Dataset,当前默认多轮对话格式,兼容单轮对话,微调训练集如果是alpaca格式,可以用convert_alpaca.py转为shareGPT格式,即可传入训练
  4. 如果运行环境支持deepspeed,加上--deepspeed deepspeed_config.json
  5. 如果gpu支持int8,加上--load_in_8bit True代表采用8bit量化训练,可显著减少显存占用
  6. 调试模型,--max_train_samples--max_eval_samples指定训练和验证数据集的最大样本数,用于快速验证代码是否可用,训练时请删除这两个参数或者设置为-1
  7. 训练方式,指定--use_peft False为全参训练(要移除--fp16),--use_peft True是LoRA训练;注意:全参训练LLaMA-7B模型需要120GB显存,LoRA训练需要13GB显存
  8. 支持恢复训练,LoRA训练时指定--peft_path为旧的adapter_model.bin所在文件夹路径;全参训练时指定--resume_from_checkpoint为旧模型权重的文件夹路径
  9. 支持qlora训练,如果运行环境支持nf4(eg:A100),加上--qloar True代表开启qlora训练,减少显存占用

关于LoRA Training

默认使用LoRA训练,每个stage的LoRA模型权重都需要合并到base model中,使用以下命令合并,下一个stage的model_name_or_path指定为合并后的模型文件夹。

LoRA layers were using at all stages to reduce memory requirements. At each stage the peft adapter layers were merged with the base model, using:

python merge_peft_adapter.py \
  --base_model_name_or_path base_model_dir \
  --tokenizer_path base_model_dir \
  --peft_model_path lora_model_dir \
  --output_dir outputs-merged
  • this script requires peft>=0.3.0
  • 合并后的权重保存在output_dir目录下,后续可通过from_pretrained直接加载

关于模型结果

训练日志和模型保存在output_dir目录下,目录下的文件结构如下:

output_dir/
|-- adapter_config.json
|-- adapter_model.bin
|-- checkpoint-24000
|   |-- adapter_config.json
|   |-- adapter_model.bin
|   |-- trainer_state.json
|   `-- training_args.bin
|-- train_results.txt
|-- eval_results.txt
|-- special_tokens_map.json
|-- tokenizer_config.json
|-- training_args.bin
|-- logs
|   |-- 1685436851.18595
|   |   `-- events.out.tfevents.1685436851.ts-89f5028ad154472e99e7bcf2c9bf2343-launcher.82684.1
└── config.json
  • trainer_state.json记录了loss、learning_rate的变化
  • logs目录下的文件可用于tensorboard可视化,启动tensorboard命令如下:
tensorboard --logdir output_dir/logs --host 0.0.0.0 --port 8008

关于deepspeed

deepspeed 的参数配置deepspeed_config.json可参考:

  1. https://www.deepspeed.ai/docs/config-json/
  2. https://huggingface.co/docs/accelerate/usage_guides/deepspeed
  3. https://github.com/huggingface/transformers/blob/main/tests/deepspeed

如果显存充足,可优先考虑stage 2,对应的配置文件是deepspeed_config.json。如果显存不足,可采用stage 3,该模式采用模型参数并行,可显著减小显存占用,但是训练速度会变慢很多。

关于多机多卡训练

以两台机器为例,每台机器上有8张卡

node_rank=$1
echo ${node_rank}
master_addr="10.111.112.223"

torchrun --nproc_per_node 8 --nnodes 2 --master_addr ${master_addr} --master_port 14545 --node_rank ${node_rank} run_supervised_finetuning.py ... 
  • node_rank 代表节点的rank,第一台机器(主机器)的node_rank设置为0,第二台机器的node_rank设置为1
  • nnodes 代表节点机器的数量
  • master_addr 代表主机器的ip地址
  • master_port 代表与主机器通信的端口号
Clone this wiki locally