更新日期 | bert4torch版本 | torch4keras版本 | 版本说明 |
---|---|---|---|
20240928 | 0.5.4 | 0.2.7 | 【新功能】增加deepseek系列、MiniCPM、MiniCPMV、llama3.2、Qwen2.5;支持device_map=auto;【修复】修复batch_generate和n>1的bug |
20240814 | 0.5.3 | 0.2.6 | 【新功能】增加llama3.1/Yi1.5;自动选择从hfmirror下载;支持命令行参数bert4torch-llm-server |
20240801 | 0.5.2 | 0.2.5 | 【新功能】chatglm/qwen系列支持function call调用, 增加internlm2系列;【小优化】简化pipeline中chat demo的调用,generate的终止token元素允许为列表, 统一rope_scaling参数名,增加rope衍生类;【bug】修复flash_attn2的推理bug, 修复bart的tie_word_embedding的bug |
20240619 | 0.5.1 | 0.2.4 | 增加Qwen1.5, Qwen2, glm4; 增加SWA/convert_lm_logits_dtype;调整各个trainer(重点DPOTrainer), generation中segment_ids, repetition_penalty需带query, RMSNorm中转类型bug |
20240418 | 0.5.0 | 0.2.2 | 修复chatglm3的bug, 修复save_pretrained时多文件的bug,增加CausalLMLoss, 修改deepspeed的传参逻辑,修改Text2Vec的bug, 完善openai client, 增加get_weight_decay_optim_groups |
20240317 | 0.4.9.post2 | 0.2.1.post2 | 增加get_weight_decay_optim_groups函数, attention中允许is_causal,修改repetition_penalty的bug,把baichuan从llama中剥离,修复config_path的bug,允许num_key_value_heads参数,torch4keras-v0.2.1.post2更新特性 |
20240221 | 0.4.8 | 0.2.0 | fastapi发布服务允许闲时offload到cpu, build_transformer_model 允许从hf下载, 添加FillMask 的pipeline, 添加SequenceClassificationTrainer |
20240204 | 0.4.7 | 0.1.9 | 修改save_pretrained 用于保存文件夹, 增加GenerateSpeed用于统计token生成速度,修复t5在use_states=True时候的错误, 修改层次编码的bug, 增加deepseek_moe模型,修复generation并发错误,优化大模型耗时 |
20240116 | 0.4.6 | 0.1.8 | bug修复,增加save_pretrained 用于保存transformer 格式的权重, 增加部分embedding 模型 |
20240111 | 0.4.5 | 0.1.7 | training 时候不生成past_key_values , 增加streamlit 的example, 修复句向量max 时的bug, batch_generate 合并到generate , 修改generation 的默认参数名(兼容过去的参数名), 多轮对话中可保留past_key_values , 把attention 中的mask 补齐逻辑移到apply_embedding 中, 增加uie 的pipeline ,增加PtuningV2Trainer |
20231228 | 0.4.4 | 0.1.7 | 新增pipelines 模块,把chat 整理进去,并新增Text2Vec 模块用于向量生成,新增snapshot_download 用于hf模型下载 |
20231224 | 0.4.3 | 0.1.7 | 在chat 中增加常见chat模型, 简化大模型调用的代码逻辑 |
20231219 | 0.4.2 | 0.1.7 | 参数checkpoint_path 支持传入文件夹地址,增加chat 模块用于快速发布demo/api, 支持加载.safetensors , meta 的device提示报错 |
20231210 | 0.4.1 | 0.1.6.post2 | 增加longlora, 增加test模块,适配torch4keras==0.1.6(监控fit过程,有报错则发送邮件提醒; 解决torch2.0的compile冲突问题; 修复clip_grad_norm的bug) |
20231126 | 0.4.0 | 0.1.5 | 修复flash_attn的bug, stream_generate支持仅输出last_token |
20231119 | 0.3.9 | 0.1.5 | 修复random_sample采样n>1, 新增Yi-6B, 支持flash_attn |
20231112 | 0.3.8 | 0.1.5 | 支持chatglm 32k的rope_ratio,config中可以指定mapping, 增加m3e和bge |
20231106 | 0.3.7 | 0.1.5 | 大部分模型文件无需convert,修复multi_query_group_num在int4/int8下bug, 简化build_transformer_model 中配置到config 中 |
20231022 | 0.3.6 | 0.1.5 | 增加falcon,layernorm支持torch自带 |
20230912 | 0.3.5.post2 | 0.1.4.post2 | 修复generation(既可初始化传参,也可以generate传参),decoder架构、encoder-decoder架构的增加generate系列方法直接推理, 增加internlm/baichuan2模型,训练时会默认自动把dataloader转移到model.device上, 增加xformers |
20230902 | 0.3.4 | 0.1.3 | 修复gradient_checkpoint在低版本torch时仅支持位置参数的问题, 增加trainer.py, 增加PPOTrainerTrl以及相应的三阶段rlhf训练+dpo训练 |
20230812 | 0.3.3 | 0.1.2 | 增加大模型deepspeed的使用,增加Qwen模型(增加ntk和logn_attn),generation的end_id支持多个token_id,修复多文件权重加载资源占用问题 |
20230804 | 0.3.2 | 0.1.1 | 修改依赖的torch4keras, 主要是进度条和logger, tensorboard的同步 |
20230726 | 0.3.1.post2 | 0.1.0.post2 | 修改baichuan的alibi逻辑,增加bloom, 简化decoder架构代码(gpt, llama, chatglm均继承decoder) |
20230716 | 0.3.0 | 0.0.9 | 修改models和layers为文件夹方便扩展, 增加flash_attention参数控制,修改skip_init逻辑减少显存占用,generation增加repetition_penalty,修复chatglm的pv2的bug,generation支持transformers的tokenize,增加ziya,Baichuan |
20230705 | 0.2.9 | 0.0.8 | 使用accelerate来实现skip_init精简代码, 修复add_trainer的代码提示, 增加chatglm的load_in_8bit+lora/qlora的训练, 修复grad_chechpoint, 增加chinese_llama_alpaca, torch2.0默认使用scaled_dot_product_attention加速, 增加chatglm2-6b+pv2+lora微调 |
20230518 | 0.2.8 | 0.0.7.post3 | 1)新增模型: 增加chatglm-6b/llama-7b/BELLE_llama/vicuna/moss/苏神、uer的roberta-small/Tiny模型以及ChatYuan v2模型/fnlp的bart2.0, 增加量化模块并适配llama,增加skip_init参数加快加载, 增加stream输出/网页demo, 增加ptuning_v2和lora; 2)generation: 生成式解码新增SeqGeneration和Seq2SeqGeneration,单向decoder模型和encoder decoder模型解码增加cache, 增加batch_generate()/stream_generate功能; 3)其他: 修改rope为不使用max_position,修复model.half()类型不一致问题,支持加载多个权重文件, gpt系列默认不加softmax,增加苏神Tiger的pytorch实现, 增加了对attention_key_size的入参支持,把_token_pad_ids重命名为pad_token_ids, tokenizor中重命名部分字段 |
20230310 | 0.2.7.post2 | 0.0.6 | 增加lion优化器, 修复albert_unshared加载权重, 修复lm系列(gpt, seq2seq)存在的forward参数不对的问题,修复GlobalPointer使用rope的bug |
20230213 | 0.2.7 | 0.0.6 | 修复random_sample()的bug,适配v0.0.6的torch4keras:增加resume_from_checkpoint和save_to_checkpoint;增加add_trainer方法,重构了Trainer(BaseModel)的实现,增加了AccelerateCallback |
20221231 | 0.2.6 | 0.0.5 | build_transformer_model需显式指定add_trainer才从BaseModel继承, 增加guwenbert, macbert,text2vec-bert-chinese, wobert预训练模型,允许position_ids从padding开始, transformer.configs支持点操作,可以使用torch4keras的Trainer(net)来初始化, 修复tokenizer的切分subtoken的bug, 允许embedding_size!=hidden_size |
20221127 | 0.2.5 | 0.0.4 | 对抗训练从compile转为使用Callback来实现,修复1.7.1版本兼容bug, uie模型内置 |
20221120 | 0.2.4 | 0.0.3.post2 | 删除SpTokenizer基类中的rematch, 增加deberta_v2模型 |
20221023 | 0.2.3 | 0.0.2 | 虚拟对抗VAT在多个ouput时支持指定,把Trainer抽象到torch4keras中,修复DP和DDP出现resume_epoch不存在的bug, tokenizer的never_split去除None, transformer_xl的bug, 增加gradient_checkpoint |
20220922 | 0.2.2 | —— | 修复t5的norm_mode问题,允许hidden_size不整除num_attention_heads,支持多个schedule(如同时ema+warmup) |
20220905 | 0.2.1 | —— | 兼容torch<=1.7.1的torch.div无rounding_mode,增加自定义metrics,支持断点续训,增加默认Logger和Tensorboard日志 |
20220823 | 0.2.0 | —— | 兼容torch1.9.0的缺失take_along_dim,修复bart中位置向量514的问题,修复Sptokenizer对符号不转换,打印Epoch开始的时间戳,增加parallel_apply |
20220808 | 0.1.9 | —— | 增加mixup/manifold_mixup/temporal_ensembling策略,修复pgd策略param.grad为空的问题,修改tokenizer支持批量 |
20220717 | 0.1.8 | —— | 修复原来CRF训练中loss陡增的问题,修复xlnet的token_type_ids输入显存占用大的问题 |
20220710 | 0.1.7 | —— | 增加EarlyStop,CRF中自带转bool类型 |
20220605 | 0.1.6 | —— | 增加transformer_xl、xlnet、t5_pegasus模型,prompt、预训练等示例,支持增加embedding输入,EMA策略,修复tokenizer和sinusoid的bug |
20220504 | 0.1.5 | —— | 增加GAU-alpha,混合梯度,梯度裁剪,单机多卡(DP、DDP) |
20220421 | 0.1.4 | —— | 增加了VAT,修复了linux下apply_embedding返回项有问题的情况 |
20220409 | 0.1.3 | —— | 初始版本 |