Langchain-Chatchat 部署实践

Langchain-Chatchat 部署实践

LangChain-Chatchat (原 Langchain-ChatGLM),基于 ChatGLM 等大语言模型与 Langchain 等应用框架实现,开源、可离线部署的检索增强生成(RAG)大模型知识库项目。

一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。

受 GanymedeNil 的项目 document.ai 和 AlexZhangji 创建的 ChatGLM-6B Pull Request 启发,建立了全流程可使用开源模型实现的本地知识库问答应用。本项目的最新版本中通过使用 FastChat 接入 Vicuna, Alpaca, LLaMA, Koala, RWKV 等模型,依托于 langchain 框架支持通过基于 FastAPI 提供的 API 调用服务,或使用基于 Streamlit 的 WebUI 进行操作。

依托于本项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入。

一、AutoDL 镜像部署

codewithgpu镜像及安装步骤

二、Docker 镜像部署

以下均以Ubuntu系统为例。

准备NVIDIA驱动及工具包

不需要在主机系统上安装 CUDA 工具包,但需要安装 NVIDIA Driver 以及 NVIDIA Container Toolkit。

检查是否安装NVIDIA Driver、NVIDIA Container Toolkit
nvidia-smi

如果安装了NVIDIA驱动程序,nvidia-smi 命令将显示GPU的状态信息,包括驱动程序版本、CUDA版本等。如果没有安装驱动程序,该命令会报错或者显示不是内部或外部命令。
另一个选项是使用lspci命令来查找NVIDIA GPU的信息:

lspci | grep -i nvidia

如果系统中存在NVIDIA GPU,并且安装了驱动程序,这个命令将输出有关NVIDIA GPU的信息。如果没有输出,说明可能没有安装NVIDIA驱动程序,或者GPU不是NVIDIA制造的。

检查是否安装NVIDIA Container Toolkit

可以使用以下命令:

docker volume ls -q -f driver=nvidia-docker | wc -l

如果安装了NVIDIA Container Toolkit,该命令会返回一个非零数值。如果没有安装,则不会返回任何输出。

安装NVIDIA Container Toolkit

Ubuntu系统使用Apt安装,其他系统请参考:NVIDIA官网

安装工具包

1、Configure the production repository:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

Optionally, configure the repository to use experimental packages:

sed -i -e '/experimental/ s/^#//g' /etc/apt/sources.list.d/nvidia-container-toolkit.list

2、Update the packages list from the repository:

sudo apt-get update

3、Install the NVIDIA Container Toolkit packages:

sudo apt-get install -y nvidia-container-toolkit
配置工具包

配置Docker容器

Configure the container runtime by using the nvidia-ctk command:

sudo nvidia-ctk runtime configure --runtime=docker

The nvidia-ctk command modifies the /etc/docker/daemon.json file on the host. The file is updated so that Docker can use the NVIDIA Container Runtime.

Restart the Docker daemon:

sudo systemctl restart docker

Rootless mode
To configure the container runtime for Docker running in Rootless mode, follow these steps:

Configure the container runtime by using the nvidia-ctk command:

nvidia-ctk runtime configure --runtime=docker --config=$HOME/.config/docker/daemon.json

Restart the Rootless Docker daemon:

systemctl --user restart docker

Configure /etc/nvidia-container-runtime/config.toml by using the sudo nvidia-ctk command:

sudo nvidia-ctk config --set nvidia-container-cli.no-cgroups --in-place
检查是否安装成功

在安装和配置工具包以及安装NVIDIA GPU驱动程序之后,可以通过运行一个样本工作负载来验证安装。

在Docker容器内跑一个样本工作负载:

Run a sample CUDA container:

sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi

Your output should resemble the following output:

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 535.86.10    Driver Version: 535.86.10    CUDA Version: 12.2     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  Tesla T4            On   | 00000000:00:1E.0 Off |                    0 |
| N/A   34C    P8     9W /  70W |      0MiB / 15109MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------++-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+

在运行样本工作负载时可能出现异常:

Error response from daemon: Get “https://registry-1.docker.io/v2

这是Docker pull拉取镜像报错,大概率是拉取镜像超时。

解决办法:
1、检查daemon.json 文件:

cat /etc/docker/daemon.json

2、若不配置镜像,拉取速度会很慢,因此就会报超时的错误。可以增加中科院的和阿里云的镜像:

{"registry-mirrors":["https://6kx4zyno.mirror.aliyuncs.com","https://docker.mirrors.ustc.edu.cn"]
}

3、重启服务

systemctl daemon-reload
systemctl restart docker

部署Docker镜像

Docker镜像

同时支持 DockerHub、阿里云、腾讯云镜像源 :

docker run -d --gpus all -p 80:8501 isafetech/chatchat:0.2.10
docker run -d --gpus all -p 80:8501 ccr.ccs.tencentyun.com/chatchat/chatchat:0.2.10
docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.10

1、该版本镜像大小 50.1GB,使用 v0.2.10,以 nvidia/cuda:12.1.1-cudnn8-devel-ubuntu22.04 为基础镜像;
2、该版本为正常版本,非轻量化版本;
3、该版本内置并默认启用一个 Embedding 模型:bge-large-zh-v1.5,内置并默认启用 ChatGLM3-6B;
4、该版本目标为方便一键部署使用,请确保您已经在 Linux 发行版上安装了 NVIDIA 驱动程序;
5、请注意,您不需要在主机系统上安装 CUDA 工具包,但需要安装 NVIDIA Driver 以及 NVIDIA Container Toolkit,请参考之前的步骤;
6、首次拉取和启动均需要一定时间,首次启动时请查看日志:

 docker logs -f <container id> 

查看docker容器id的命令:

docker ps

7、如遇到启动过程卡在 Waiting… 步骤,建议使用:

 docker exec -it <container id> 

bash 进入 logs/ 目录查看对应阶段日志。

三、常规模式本地部署

敬请期待······

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/10399.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

对于FileUpload控件的一些bug

我写的程序&#xff0c;问题出现的也很神奇&#xff0c;就是我在上传已经存在在我指定目录下的就可以成功&#xff0c;如果不存在&#xff0c;上传仍是可以成功的&#xff0c;但是就会不显示&#xff0c;但是你重启服务器的时候又会再次显示。这种问题出现的原因我们就需要了解…

项目环境准备

在正式开始项目的环境准备前&#xff0c;先简单介绍这个项目。 先简单介绍一下该项目的技术栈 技术栈 基础工具环境&#xff1a;JDK17或JDK21IDEA2023(全新改版)Maven3.9Linux服务器 微服务技术&#xff1a;新版SpringCloudAlibaba全家桶SpringBoot3.XNacos2.xMybatisPlusMy…

AJ65SBT2B-64DA 三菱CC-Link D/A转换模块

AJ65SBT2B-64DA 是将数字值(16位有符号BIN数据)转换为模拟值(电压或电流)的模块。 AJ65SBT2B-64DA参数说明&#xff1a;4通道&#xff1b;输入分辨率0~12000&#xff0c;-12000~12000&#xff0c;-16000~16000&#xff1b;输出DC-10~10V&#xff0c;DC0~20mA&#xff1b;转换速…

028.实现 strStr()

题意 给你两个字符串 haystack 和 needle &#xff0c;请你在 haystack 字符串中找出 needle 字符串的第一个匹配项的下标&#xff08;下标从 0 开始&#xff09;。如果 needle 不是 haystack 的一部分&#xff0c;则返回 -1 。 难度 简单 示例 例 1 输入&#xff1a;hays…

【找最长重复子串长度】

你会得到一个DNA序列&#xff1a;一个由字符A、C、G和T组成的字符串。你的任务是找到序列中最长的重复次数。这是一个最大长度的子字符串&#xff0c;仅包含一种类型的字符。 输入 唯一的输入行包含 n&#xff08;1 ≤ n ≤ 10 的字符串6&#xff09; 字符。 输出 打印一个整数…

【Win10点击任务栏刷屏,卡死转圈(亲测有效)】

计算机疑难杂症001 Win10点击任务栏刷屏&#xff0c;卡死转圈(亲测有效)1、问题状况2、问题原因3、问题解决 Win10点击任务栏刷屏&#xff0c;卡死转圈(亲测有效) 1、问题状况 在偶然间&#xff0c;发现任务栏点不动了&#xff0c;点击无反应&#xff0c;再多点击几次&#x…

Ubuntu编译ftdi_sio

为了解决Ubuntu插入FTDI设备可能出现没有ttyUSB*设备的问题。可以通过命令看一下结果&#xff1a; dmesg | grep usb 例如发现错误&#xff1a; ftdi_sio: Unknown symbol usb_serial_handle_sysrq_char (err -2) 这种错误有可能是因为模块是为不同版本的内核编译的&#xf…

网络爬虫概述与原理

网络爬虫概述与原理 网络爬虫简介狭义上理解功能上理解常见用途总结 网络爬虫分类通用网络爬虫聚焦网络爬虫增量网络爬虫深度网络爬虫 网络爬虫流程网络爬虫采集策略深度有限搜索策略广度优先搜索策略 网络爬虫简介 通过有效地获取网络资源的方式&#xff0c;便是网络爬虫。网…

移动端 3060 6G 安装配置 TensorFlow 和 Pytorch(高版本)

目录 前置条件硬件条件 检查方法解决方法Python3.7GPU 系统驱动CUDA11.2cudnn8.1.1 GPU 在 Python 中的驱动cudatoolkit11.3.1cudnn8.2.1 Tensorflowtensorflow2.10.0 Pytorchpytorch1.10.0 结果 前置条件 硬件条件 R7-6800H RTX3060&#xff08;移动端&#xff09; 检查方法…

Threejs Shader动态修改Merge合并几何体中单个Mesh的颜色

目录 Merge合并 现象 思路 实现 为单个geometry添加映射 通过id检索Merge后的Geometry映射属性&#xff0c;获取顶点坐标 onBeforeCompile修改编译前材质的着色代码 编译前材质的顶点着色代码 编译前材质的片元着色代码 着色器代码 注意 效果 Merge合并 mergeBuf…

算法提高之魔板

算法提高之魔板 核心思想&#xff1a;最短路模型 将所有状态存入队列 更新步数 同时记录前驱状态 #include <iostream>#include <cstring>#include <algorithm>#include <unordered_map>#include <queue>using namespace std;string start&qu…

【GESP】2023年12月图形化二级 -- 小杨报数

小杨报数 【题目描述】 小杨需要从 1 1 1到 N N N报数。在报数过程中&#xff0c;小杨希望跳过 M M M的倍数。例如&#xff0c;如果 N 5 N5 N5&#xff0c; M 2 M2 M2&#xff0c;那么小杨就需要依次报出 1 1 1&#xff0c; 3 3 3&#xff0c; 5 5 5。 默认小猫角色和白色背…

数据库提权

1.此时实验需要用到的软件&#xff1a; &#xff08;1&#xff09;phpStudy该程序包集成最新的ApachePHPMySQL phpMyAdminZendOptimizer,一次性安装,无须配置即可使用,是非常方便、好用的PHP调试环境.该程序不仅包括PHP调试环境,还包括了开发工具、开发手册等.总之学习PHP只需…

Android 逆向

一、apk 查壳工具 ApkScan-PKID 相关APK文件可以在 豌豆荚 官网下载 ApkScan-PKID查壳工具 下载 - 简书 (jianshu.com) 二、脱壳工具&#xff1a;frida 1、Android端配置 frida-server&#xff1a; 该步骤需要使用到 adb&#xff0c;操作Android文件 Releases frida/frid…

SCADE 开发环境介绍

SCADE Suite 中的"SCADE"为"安全关键应用开发环境"的缩写。需说明的是&#xff0c;在时效性方面&#xff0c;下面的描述反映的是发展至2010年左右的情况。更详细的内容&#xff0c;可参考《Formal Methods - Industrial Use from Model to the Code》(ISBN…

对话NVIDIA英伟达:AI已照进现实 | 最新快讯

文 | MetaPost NVIDIA 创始人兼首席执行官黄仁勋在 GTC 2024 主题演讲上表示&#xff1a;下一波 AI 浪潮将是 AI 对物理世界的学习。 当下&#xff0c;全球范围内价值超过50万亿美金的行业正在竞相实现数字化&#xff0c;数字孪生技术正在赋能千行百业。NVIDIA Omniverse 中国…

TriDet: Temporal Action Detection with Relative Boundary Modeling

标题&#xff1a;TriDet&#xff1a;采用相对边界建模的时间动作检测 原文链接&#xff1a;TriDet: Temporal Action Detection With Relative Boundary Modeling (thecvf.com)https://openaccess.thecvf.com/content/CVPR2023/papers/Shi_TriDet_Temporal_Action_Detection_W…

性能分析:如何用互斥锁打造高效Java应用

1. 多线程环境下的原子性挑战 1.1 理解原子性和数据竞争 在多线程应用程序中&#xff0c;原子性是指一系列操作要么全部执行&#xff0c;要么全部不执行&#xff0c;没有中间状态。若多个线程同时读写共享变量&#xff0c;则可能出现争用条件&#xff08;race condition&…

笔试强训未触及题目(个人向)

1.DP22 最长回文子序列 1.题目 2.解析 这是一个区间dp问题&#xff0c;我们让dp[i][j]表示在区间[i&#xff0c;j]内的最长子序列长度&#xff0c;如图&#xff1a; 3.代码 public class LongestArr {//DP22 最长回文子序列public static void main(String[] args) {Scanner…

Android APP 剪切板应用

1 Android剪切板简介 Android 剪贴板是一个系统级服务&#xff0c;它允许应用程序之间共享文本、图像、二进制数据等多种形式的信息。用户可以通过常见的复制和粘贴操作&#xff0c;在不同的应用之间传递数据。该设计考虑到了易用性和灵活性&#xff0c;使得开发者可以轻松地为…