RAG基础知识: https://python.langchain.com/docs/use_cases/question_answering/
本文主要讲解通过Langchain 和Ollama这2个工具实现RAG。
Langchain: https://python.langchain.com/docs/get_started/introduction
Ollama: https://ollama.com/
先简单理清一下RAG, Langchain, Ollama三者的关系:
RAG是一种技术方法, 通过信息检索给大模型提供事实数据, 从而增强大模型生成的真实性, 可以理解为大模型的一个外挂知识库。
Langchain是一个大模型模型的开源框架,核心是以pipeline的形式串联大模型应用构建的全流程, 使用它可以大幅简化大模型的应用开发流程。
Ollama是一个本地运行大模型的工具。想要把大模型在本地跑起来还是有一定门槛的, 并且模型众多,每个大模型的使用和配置都不同, 实在比较麻烦。 Ollama把这一切繁琐的流程都打包了,提供一键运行能力。
Langchain中目前已经支持Ollama接口。
所以总结一下, Langchain和Ollama就是2个非常重要的辅助工具, 使用他们可以非常便捷地实现RAG。