PDF 文件通常包含其他来源无法获取的重要非结构化数据。它们可能非常长,而且与纯文本文件不同,通常无法直接输入到语言模型的提示中。
在本中,我们将创建一个可以回答有关 PDF 文件的问题的系统。更具体地说,就是使用文档加载器加载 LLM 可以使用的格式的文本,然后构建检索增强生成 (RAG) 管道来回答问题,包括来自源材料的引文。
一、加载文档
首先,您需要选择要加载的 PDF。我们将使用 Python基础学习 文档。它长达 197 页,包含一些关键数据和较长的说明性文字。不过,您可以随意使用您选择的 PDF。
选择 PDF 后,下一步是将其加载为 LLM 更容易处理的格式,因为 LLM 通常需要文本输入。LangChain 内置有几个不同的文档加载器可用于文档转化文本,您可以尝试使用。下面,我们将使用一个由包提供支持的pypdf从文件路径读取的加载器:
1、安装所需库:
%pip install -qU pypdf langchain_community
%pip install faiss-cpu
2、代码使用:
from langchain_community.document_loaders import PyPDFLoaderfile_path = "PythonBase.pdf"
loader = PyPDFLoader(file_path)docs = loader.load()print(len(docs))
print(docs[0].page_content[0:100])
print(docs[0].metadata)
打印结果可以看出,能够正常的将pdf文档内容读取,这里的 PythonBase.pdf 替换成你们自己的pdf文档,放到跟代码同一目录下,即可正常读取到。
上面的代码实现逻辑:
1)加载器将指定路径下的PDF读入内存。
2)然后它使用该包提取文本数据pypdf。
3)最后,它为 PDF 的每一页创建一个 LangChain文档,其中包含页面的内容以及有关文本来源位置的一些元数据。
二、使用RAG
接下来,我们将已加载的文档进行处理,以供稍后检索。在此使用文本分割器,把已加载的文档分割成更小的文档,以便更容易地放入 LLM 的上下文窗口,然后将它们加载到向量存储中。然后,从向量存储中创建一个检索器,以在我们的 RAG 链中使用:
1、使用语言模型:
LangChain支持许多不同的语言模型,包含:OpenAI、Anthropic、Azure、Google、Cohere、FireworksAI、Groq、MistralAI、TogetherAI等,您可以互换使用 ,选择您要使用的语言模型!
1)下面内容将居于OpenAI语言模型进行演示:
pip install -qU langchain-openai
2)配置API KEY环境
import os
os.environ["OPENAI_API_KEY"]="填写自己的API KEY"
os.environ["LANGCHAIN_TRACING_V2"]="true"
os.environ["LANGCHAIN_API_KEY"]="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"
from langchain_openai import ChatOpenAImodel = ChatOpenAI(model="gpt-4")
2、文本分割器
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_community.vectorstores import FAISStext_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(docs)#向量化
vector = FAISS.from_documents(splits, OpenAIEmbeddings())
retriever = vector.as_retriever()
3、使用一些内置助手来构建最终的rag_chain
from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import ChatPromptTemplatesystem_prompt = ("你是问答任务的助理,使用以下检索到的上下文来回答问题。如果你不知道答案,就说你不知道。最多使用三句话,并保持回答简明扼要。""\n\n""{context}"
)prompt = ChatPromptTemplate.from_messages([("system", system_prompt),("human", "{input}"),]
)question_answer_chain = create_stuff_documents_chain(model, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)results = rag_chain.invoke({"input": "介绍一下python"})results
answer 中你可以看到,在 results 中获得了最终答案,并且 context 获得了用于生成答案的 LLM。
检查 context 数据,您可以看到它们是每个包含一部分提取的页面内容的文档。有用的是,这些文档还保留了第一次加载时的原始元数据。在 metadata 中还可以看到文档来源和页码。