一、环境
在vscode中用连接云服务器,打开文件目录。
df -h #查看盘容量
二、下载LLaMA Factory框架和数据
下载LLaMA Factory到云服务器
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
pip install -e .命令的含义是在当前目录下查找一个setup.py文件(或其他
pyproject.toml文件,取决于包的配置),并根据该文件的指示以可编辑模式安装包。
将下载的数据放到LLaMA Factory data文件夹下,同时将json格式输入到dataset_info.json文件中。
启动 Web UI
cd LLaMA-Factory
llamafactory-cli webui
三、下载模型
用中文微调过的模型。
pip install -U huggingface_hub
pip install huggingface-cliexport HF_ENDPOINT=https://hf-mirror.comhuggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chinese-Chat --local-dir /root/autodl-tmp/models/Llama3-8B-Chinese-Chat1
四、微调训练和推理
加速方式选择unsloth会报错unsloth不存在
推理的时候选择vllm也会报错版本不合适。
gpu使用情况监控和进程杀死
【工具篇】如何优雅地监控显卡(GPU)使用情况? - 知乎 (zhihu.com)
终止进程后,GPU显存仍被占用问题: kill -9彻底杀死进程 | ps aux|grep python | 怎么确认僵尸进程?_杀死进程后显存还是没有下降-CSDN博客
还需要学习Unsloth 上进行微调
基于unsloth微调llama3.1_哔哩哔哩_bilibili
参考说明
【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili
LLaMA-Factory: 大语言模型统一高效微调框架 (gitee.com)
cgft-llm/llama-factory/README.md at master · echonoshy/cgft-llm · GitHub