罗辑亲测,可用。引入了transformers库,精简的代码。
中文文本分类,Bert,ERNIE,基于pytorch,开箱即用。
模型介绍、数据流动过程:工作忙,懒得写了,类似文章有很多。欢迎其他人补充。
机器:
一块3080Ti laptop , 训练时间:22分钟。
一块2080Ti , 训练时间:30分钟。
python 3.9
pytorch 1.12.1
transformers 4.25.1
tqdm 4.64.1
tensorboardX 2.5.1
我从THUCNews中抽取了20万条新闻标题,已上传至github,文本长度在20到30之间。一共10个类别,每类2万条。数据以字为单位输入模型。
类别:财经、房产、股票、教育、科技、社会、时政、体育、游戏、娱乐。
数据集划分:
数据集 | 数据量 |
---|---|
训练集 | 18万 |
验证集 | 1万 |
测试集 | 1万 |
- 按照我数据集的格式来格式化你的中文数据集。
模型 | acc | 备注 |
---|---|---|
bert | 94.83% | 单纯的bert |
ERNIE | 94.61% | 说好的中文碾压bert呢 |
bert_CNN | 94.44% | bert + CNN |
bert_RNN | 94.57% | bert + RNN |
bert_RCNN | 94.51% | bert + RCNN |
bert_DPCNN | 94.47% | bert + DPCNN |
原始的bert效果就很好了,把bert当作embedding层送入其它模型,效果反而降了,之后会尝试长文本的效果对比。
bert模型放在 bert_pretain目录下,ERNIE模型放在ERNIE_pretrain目录下,每个目录下都是至少三个文件:
预训练模型下载地址:
bert_Chinese: bert-base-chinese at main (huggingface.co)
备用:模型的网盘地址:https://pan.baidu.com/s/1qSAD5gwClq7xlgzl_4W3Pw
ERNIE_Chinese: http://image.nghuyong.top/ERNIE.zip
来自这里
备用:网盘地址:https://pan.baidu.com/s/1lEPdDN1-YQJmKEd_g9rLgw
解压后,按照上面说的放在对应目录下,文件名称确认无误即可。
下载好预训练模型就可以跑了。
# 训练并测试:
# bert
python run.py --model bert
# bert + 其它
python run.py --model bert_CNN
# ERNIE
python run.py --model ERNIE
模型都在models目录下,超参定义和模型定义在同一文件中。
- 封装预测功能,提供flask接口
[1] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
[2] ERNIE: Enhanced Representation through Knowledge Integration