成功运行截图
部署步骤
我们进入到ollama的官网:
Ollamaollama.com/编辑
找到上方的Models ,然后点击
此时会跳转到模型列表页面:
点击 deepseek-r1 链接进去,此时我们会看到下拉框中有各个版本的大模型,越往后对电脑硬件的要求越高,如下图所示:
模型参数(1.5B、7B、8B等)是什么意思?
这些数字代表模型的 参数量(比如1.5B=15亿,7B=70亿),你可以简单理解为模型的“脑细胞数量”:
- 参数越多 → 模型越聪明(能处理复杂任务,比如写代码、逻辑推理),但需要的计算资源也越多。
- 参数越少 → 模型更轻量(反应快、适合简单任务),但对复杂问题可能表现一般。
举个例子:
- 1.5B 模型 ≈ 一个“高中生”水平(能聊天、写短文)。
- 7B 模型 ≈ “大学生”水平(能写代码、分析问题)。
- 70B 模型 ≈ “教授”水平(专业级回答,但需要顶级显卡)。
本地部署需要什么电脑配置?
运行模型主要依赖 内存(RAM) 和 显卡(GPU),具体需求如下:
最低配置(能跑,但可能慢)
1.5B 模型:
-
- CPU:4核(Intel/AMD均可)
- 内存:8GB
- 显卡:可选(无GPU也能跑,用CPU)
- 硬盘:5GB空间(存储模型)
7B~8B 模型:
-
- CPU:4核以上
- 内存:16GB(必须!)
- 显卡:可选,但有GPU(如NVIDIA GTX 1060 6GB)会快很多
- 硬盘:15GB空间
流畅配置(推荐)
7B~8B 模型:
-
- 内存:32GB(避免卡顿)
- 显卡:NVIDIA RTX 3060(12GB显存)或更高
- 硬盘:SSD(加快加载速度)
13B+ 模型:
-
- 需要高端显卡(如RTX 4090 24GB显存)或专业级设备。
根据上面的参考, 我们就安装8B, 也就是80亿参数。然后点击右边的复制,就会复制安装命令。
打开cmd, 粘贴上面复制的命令, 等待下载。
此时我们的模型下载目录就会多出文件:
等了很久,如果出现了 “unable to allocate CUDA0 buffer” , 表示你的GPU内存不足。
然后运行 “nvidia-smi”, 查看 占用GPU的进程,然后全部关掉。
然后重新运行 “ollama run deepseek-r1:8b” , 还是不行的话, 就用1.5B参数的吧!
我这里已经成功了: