快速搭建 OLLAMA + DeepSeek 模型并对接 Cherry Studio
本文将指导您在基于 GPU 的 Ubuntu 服务器上快速搭建 OLLAMA,部署 DeepSeek 模型,并接入 Cherry Studio 进行使用。
环境说明
- GPU 服务器: GeForce RTX 2080 Ti, 16 核, 64G 内存
- 系统: Ubuntu 24.04.1 UEFI 64bit
- 系统盘: 150 GB
- OLLAMA 版本: 0.5.11
- DeepSeek 模型:
deepseek-r1:7b
,deepseek-r1:1.5b
- Cherry Studio 版本: 0.9.24
步骤 1: 安装 OLLAMA
-
1.下载并安装 OLLAMA
#Download and extract the package: curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz
-
2.创建模型存储目录
sudo mkdir -p /data/ollama/models sudo chown -R $USER:$USER /data/ollama/models
-
3.创建 Systemd 服务文件
sudo tee /etc/systemd/system/ollama.service <<EOF [Unit] Description=OLLAMA Service After=network-online.target[Service] ExecStart=/usr/bin/ollama serve User=root Group=root Restart=alwaysEnvironment="OLLAMA_MODELS=/data/ollama/models" Environment="OLLAMA_HOST=0.0.0.0:11434"[Install] WantedBy=multi-user.target EOF
-
4.启动 OLLAMA 服务
sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama
步骤 2: 加载 DeePSeek 模型
-
加载 DeePSeek 模型
ollama pull deepseek-r1:7b ollama pull deepseek-r1:1.5b
-
验证模型
ollama list
步骤 3: 对接 Cherry Studio
-
安装 Cherry Studio
- 下载并安装 Cherry Studio 0.9.24 版本。
-
配置模型
- 打开 Cherry Studio,进入 模型管理 页面。
- 输入 OLLAMA 服务地址:
http://192.168.100.2:11434
。 - 选择
deepseek-r1:7b
或deepseek-r1:1.5b
模型。
-
开始使用
- 返回 Cherry Studio 主界面,即可与模型进行交互。
总结
通过以上步骤,您已成功在 GPU 服务器上部署 OLLAMA,加载 DeePSeek 模型,并接入 Cherry Studio。