Dify与之前的MaxKB不同,MaxKB可以实现基础的问答以及知识库功能,但是如果要开发一个Agent,或者工作流就还是需要额外开发,而Dify 是一个开源 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,让您可以快速从原型开发到生产。以下是核心功能的列表:
1. 工作流程:在可视化画布上构建和测试强大的 AI 工作流程,利用以下所有功能及其他功能。
2. 全面的模型支持:与数十家推理提供商和自托管解决方案的数百个专有/开源 LLM 无缝集成,涵盖 GPT、Mistral、Llama3 和任何兼容 OpenAI API 的模型。支持的模型提供商的完整列表可在此处找到。
3. Prompt IDE:直观的界面,用于制作提示、比较模型性能以及向基于聊天的应用程序添加文本转语音等附加功能。
4. RAG Pipeline:广泛的 RAG 功能涵盖从文档提取到检索的所有内容,并提供从 PDF、PPT 和其他常见文档格式中提取文本的开箱即用支持。
5. 代理能力:您可以基于 LLM Function Calling 或 ReAct 定义代理,并为代理添加预构建或自定义工具。Dify 为 AI 代理提供了 50+ 内置工具,例如 Google Search、DELL·E、Stable Diffusion 和 WolframAlpha。
6.LLMOps:监控和分析应用程序日志和性能。您可以根据生产数据和注释不断改进提示、数据集和模型。
7. 后端即服务:Dify 的所有产品都配有相应的 API,因此您可以毫不费力地将 Dify 集成到您自己的业务逻辑中。
这节一起来实现Dify的离线部署,官方的github仓库也提供了docker的部署方式,我们也使用docker的方式部署,因此需要在window上安装docker环境,安装好后,我们先从github将源码下载下来,然后解压到一个文件夹下,这里是我下载后解压的项目目录
进入docker文件夹,打开docker-compose.yaml,里面是docker的配置文件,因为项目涉及都多个组件nginx,redis,postgre等。所以有端口冲突可以在此修改,
修改后,打开命令提示符,进入项目的docker目录下,输入命令
docker-compose up -d
当所有组件pull不并started后就可以了,打开浏览器,输入IP+port,如果刚才映射的端口被修改,要记得这里的port是修改映射后的新端口,
第一次进入后会要求设置管理员账号,设置完成后就可以登录使用了
Dify分为探索,工作室,知识库和工具四个模块,探索模块中提供了一些已经实现的功能,可以作为入门学习。