1.ChatGLM2-6B 部署
更新系统
apt-get update
安装git
apt-get install git-lfs
git init
git lfs install
克隆 ChatGLM2-6B 源码
git clone https://github.com/THUDM/ChatGLM2-6B.git
克隆 chatglm2-6b 模型
#进入目录
cd ChatGLM2-6B
#创建目录
mkdir model
#进入目录
cd model
#克隆
git clone https://huggingface.co/THUDM/chatglm2-6b
安装 ChatGLM2-6B 依赖
cd ../
pip install -r requirements.txt
修改模型的路径
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).cuda()
修改成
tokenizer = AutoTokenizer.from_pretrained("model/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("model/chatglm2-6b", trust_remote_code=True).cuda()
启动服务
python web_demo.py
启动成功后
2.langchain+chatGLM 部署
克隆 langchain-ChatGLM 源码
git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git
克隆模型
#进入目录
cd langchain-ChatGLM
#创建目录
mkdir text2vec-large-chinese
#进入目录
cd text2vec-large-chinese
#克隆
git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese
安装 langchain-ChatGLM 依赖
cd ../
pip install -r requirements.txt
修改配置
修改一
"text2vec": "GanymedeNil/text2vec-large-chinese"
修改成
"text2vec": "text2vec-large-chinese/text2vec-large-chinese"
修改二
"pretrained_model_name": "THUDM/chatglm2-6b"
修改成
"pretrained_model_name": "../ChatGLM2-6B/model/chatglm2-6b"
修改三
# LLM 名称
LLM_MODEL = "chatglm-6b"
# 量化加载8bit 模型
LOAD_IN_8BIT = False
修改成
# LLM 名称
LLM_MODEL = "chatglm2-6b"
# 量化加载8bit 模型
LOAD_IN_8BIT = True
安装依赖 (启动langchain+chatGLM时,报错提示要安装的依赖)
pip install accelerate
pip install bitsandbytes
启动服务
python webui.py
启动成功后