文章目录
- 1、Windows下ollama详细安装指南
- 1.1、ollama介绍
- 1.2、系统要求
- 1.3、下载安装程序
- 1.4、安装步骤
- 1.5、验证安装
- 1.6、环境变量配置
- 1.7、模型选择与安装【deepseek 示例】
- 1.7.1、拉取并运行模型
- 1.7.2、进阶使用技巧
1、Windows下ollama详细安装指南
1.1、ollama介绍
ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户
1.2、系统要求
- Windows 10/11 64位
- 8GB RAM(推荐16GB+)
- 10GB 可用存储空间
- 已启用虚拟化(BIOS/UEFI设置)
- 支持CUDA的NVIDIA GPU(可选,用于GPU加速)
1.3、下载安装程序
-
访问官方下载页面:
- 官方地址:https://ollama.com/download
- 百度网盘:https://pan.baidu.com/s/18X96ZrqZGF_kJlKLpuTZVA 提取码: byi8
-
选择
Windows
版本下载 -
保存安装文件到本地(默认名称为
OllamaSetup.exe
)
1.4、安装步骤
-
运行安装程序
- 双击下载的
OllamaSetup.exe
- 如果出现用户账户控制提示,点击"是"
- 双击下载的
-
完成安装
- 当出现"Installation Complete"提示时点击"Finish"
1.5、验证安装
-
打开 PowerShell 或 CMD
-
执行版本检查命令:
ollama --version
✅ 正常输出示例:
ollama version 0.1.20
1.6、环境变量配置
Ollama 的默认模型存储路径如下:C:\Users%username%.ollama\models,无论 C 盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘。
-
添加安装路径到PATH
-
设置步骤:
-
Win+S 搜索 “环境变量” → 编辑系统环境变量
-
点击"环境变量" → 系统变量 →新增
- 变量名为:OLLAMA_MODELS
- 变量值为:E:\Tools\ollama\models
-
确定保存
-
-
-
Ollama 退出重新启动
Windows 右下角图标点击退出后,重新启动
1.7、模型选择与安装【deepseek 示例】
- 硬件配置推荐表
R1模型版本 | CPU | GPU | 内存 | 存储 |
---|---|---|---|---|
1.5B | Intel Core i5/AMD Ryzen 5 及以上 | 无强制要求,有 1GB 及以上显存可提升性能 | 最低 8GB,推荐 16GB+ | 至少 10GB,建议留更多缓存空间 |
7B | Intel Core i7/AMD Ryzen 7 及以上 | 无强制要求,有 4GB 以上显存更好,推荐 8 - 12GB | 最低 16GB,推荐 32GB+ | 至少 12GB,建议 30GB+ |
8B | Intel Core i7/AMD Ryzen 7 及以上 | 无强制要求,有 4.5GB 以上显存更好,推荐 8GB+ | 最低 16GB,推荐 32GB+ | 至少 12GB,建议 30GB+ |
14B | Intel Core i9/AMD Ryzen 9 及以上 | 8GB 以上,推荐 12GB+,如 RTX 3080 及以上 | 最低 32GB,推荐 64GB | 至少 15GB,建议 50GB+ |
32B | 高端多核,强多线程处理能力 | 18GB 左右,建议 24GB+,如 NVIDIA A100 | 32GB+,推荐 64GB+ | 至少 20GB,建议 80GB+ |
70B | 服务器级 CPU,如 Intel Xeon 系列 | 40GB 以上,如 NVIDIA H100 | 64GB+,推荐 128GB+ | 至少 30GB,建议 200GB+ |
- 模型选择决策树
1.7.1、拉取并运行模型
-
ollama可拉取模型地址:
- ollama library : https://ollama.com/library
- 官网首页:https://ollama.com/
以deepseek-r1 为例,点击首页中 DeepSeek-R1
-
拉取并运行模型:
- 拉取指令
ollama run deepseek-r1:671b # ollama run 目标模型:大小
✅ 正常输出结果如下:
-
模型交互:
在交互框中可直接输入问题
✅ 正常输出结果如下:
-
查询已下载模型
ollama list
✅ 正常输出结果如下:
-
其他指令
# 查询模型信息 ollama show qwen2:0.5b# 删除模型 ollama rm qwen2:0.5b
1.7.2、进阶使用技巧
- API 调用
注意:python中有集成的ollama工具包,需Python 3.8及以上版本
- Install
pip install ollama
- Custom client 示例:
from ollama import Client
client = Client(host='http://localhost:11434'
)
response = client.chat(model='deepseek-r1:7b', messages=[{'role': 'user','content': 'strawberry 中有几个r',},
])print(response['message']['content'])
更多API详见:https://pypi.org/project/ollama
REST API详见:https://github.com/ollama/ollama/blob/main/docs/api.md