1 准备anaconda
#1、安装包
wget https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh#2、提高权限
chmod +x Anaconda3-2024.10-1-Linux-x86_64.sh#3、执行安装命令
./Anaconda3-2024.10-1-Linux-x86_64.sh#4、一直按Enter健继续
yes继续 Enter#5、手动激活初始化
eval "$(/root/anaconda3/bin/conda shell.bash hook)"conda init
2、内网穿透——coplor
注意:路径应该放在LLaMA-Factory路径下
cpolar的liinux版本上传到服务器(下载地址)
将帐户的authtoken添加到cpolar.yml文件
./cpolar authtoken MThiNzBhMGEtMjJiNi00ZjVlLTgwNDgtZWRhN2Y4MDkyZjY2
选择需要暴露的端口进行网络穿透,启动LLaMA-Factory-webui项目的请求端口为7860
./cpolar 7860
3 LLaMA-Factory
默认端口7860
环境配置
!!为了避免冲突,务必在虚拟环境中配置环境
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
如果出现环境冲突,请尝试使用
pip install --no-deps -e .
解决
检测版本
llamafactory-cli version
启动WebUI
export USE_MODELSCOPE_HUB=1 && llamafactory-cli webui
理论上通过loaclhost:7860可以访问,但是我的这个地址仍然不能访问
通过下面的地址可以打开LlamaFactory的Web端
4、 配置HuggingFace并下载模型
export HF_ENDPOINT=https://hf-mirror.com
export HF_HOME=/mnt/workspace/huggingface
echo $HF_HOME
huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
llamafactory-cli webui
进入webUI后先打开加载模型选项卡,确保模型run起来
检测是否可以正常跑
重启后conda、coplar配置全都消失🫠
😓