添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

ChatRWKV(有可用猫娘模型!)微调/部署/使用/训练资源合集

1 个月前

RWKV基础原理

综合

部署

使用

微调

创建镜像的实例显卡为RTX3090

1、进入train目录,执行初始化文件夹命令:
cd train
bash init.sh
执行完后会自动在/root/autodl-tmp/目录下创建工作文件夹,包括data、jsonl、lora_checkpoints、model、txt这5个文件夹。文件夹作用如下:txt文件夹直接放入TXT格式小说,小说可以放入多本,TXT编码要UTF-8,/train/gpt-neox-RWKV/tools目录下有windows使用的”批量-编码转换工具.exe“,可以下载到本地电脑批量把文件夹内的小说转换成UTF-8格式,然后上传到txt文件夹。jsonl文件夹用于存放txt文件转换后的临时文件。data文件夹用于存放gpt-neox-RWKV预处理之后的数据集。lora_checkpoints用于存放RWKV-LM-LoRA训练后的lora模型。model用于上传底模,RTX3090显卡只能用RWKV-4-Pile-3B-Chn-testNovel-done-ctx2048-20230312.pth这个模型。

2、运行bash

init.sh后,把所有要训练LORA的TXT文件上传完后,执行以下命令转换txt文件:
cd gpt-neox-RWKV

conda activate pre-t
python txt2jsonl.py
bash pre.sh
执行完后,会在/root/autodl-tmp/jsonl和/root/autodl-tmp/data生成文件。

3、上传模型到/root/autodl-tmp/model,目前最新是3B中文小说RWKV-4-Pile-3B-Chn-testNovel-done-ctx2048-20230312.pth,上传完成后,执行:

cd /root/train/RWKV-LM-LoRA/RWKV-v4neo
conda activate train
bash start_train.sh

以上txt2jsonl.py、pre.sh、start_train.sh文件可根据实际修改参数

训练

编辑于 2023-04-21 20:45 ・IP 属地广东