文章目录
- 前提条件
- 1. RuoYi-AI 已成功部署并运行
- 2. Ollama 本地大模型已安装
- 1. 配置本地大模型
- 2. 切换至本地模型
- 3. 开始对话
- 总结
本文将详细介绍如何在
RuoYi-AI
中集成本地
Ollama
大模型,使系统能够在 离线环境 下提供智能对话能力。
前提条件
在开始集成本地大模型之前,请确保满足以下要求:
1. RuoYi-AI 已成功部署并运行
如果尚未完成本地环境搭建,请参考:RuoYi-AI 本地部署流程。
2. Ollama 本地大模型已安装
Ollama
是一款支持本地部署的 AI 大模型推理框架
,需先安装并下载相应的模型文件。
若尚未安装,可参考:Ollama高效、功能齐全的LLM大模型服务工具。
通过ollama list查看本地模型
1. 配置本地大模型
首先,在 RuoYi-AI
管理界面 中进行模型配置,确保系统能够正确调用本地 AI 模型。
在 运营管理 > 系统模型 中