RAG
RAG 模型的核心在于两大部分:检索器(Retriever)和生成器(Generator)。检索器的作用是从一个庞大的数据集中,根据输入的问题或者提示,快速有效地检索出最相关的信息或文档。这一步骤通常利用向量空间模型,将问题和文档库中的文档转化为高维空间中的向量,通过计算向量之间的相似度来找出最相关的文档。
检索到的相关文档随后被传递给生成器。生成器通常是一个基于Transformer的神经网络模型,如GPT或BERT,它使用检索来的文档作为上下文信息,结合原始输入(如问题),生成文本输出。这一过程中,生成器不仅仅依赖于自身预训练中获得的知识,更在于能够利用检索到的具体、实时的外部信息来生成回答或内容,使得输出更加准确和丰富。
例如,在问答系统中,传统的生成模型可能仅依赖于模型内部的知识库来回答问题,这容易造成回答过时或缺乏细节。而RAG 通过先检索最新的相关信息,然后基于这些信息构建答案,显著提高了回答的质量和实用性。
RAG 的实现通常依赖于两阶段的训练过程:首先,训练检索器,确保其能够有效地从文档库中检索信息;其次,训练生成器,使其能够在获得检索结果的基础上生成合理的文本。在实际应用中,这两个部分需要紧密协作,以确保整体模型的效能。
总之,RAG 通过结合检索技术和生成技术,为自然语言处理领域提供了一种强大的工具,特别适用于那些需要大量外部知识参与的复杂任务。它不仅提高了生成文本的质量,也拓展了模型处理复杂、知识密集型问题的能力。
在茴香豆 Web 版中创建自己领域的知识问答助手
上传简历的pdf文件,对项目经历提问
环境配置
studio-conda -o internlm-base -t InternLM2_Huixiangdou
conda activate InternLM2_Huixiangdou
下载基础文件
创建模型文件夹
cd /root && mkdir models
复制BCE模型
ln -s /root/share/new_models/maidalun1020/bce-embedding-base_v1 /root/models/bce-embedding-base_v1
ln -s /root/share/new_models/maidalun1020/bce-reranker-base_v1 /root/models/bce-reranker-base_v1
复制大模型参数(下面的模型,根据作业进度和任务进行选择一个就行)
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b
下载安装茴香豆
安装 python 依赖
pip install -r requirements.txt
pip install protobuf4.25.3 accelerate0.28.0 aiohttp3.9.3 auto-gptq0.7.1 bcembedding0.1.3 beautifulsoup44.8.2 einops0.7.0 faiss-gpu1.7.2 langchain0.1.14 loguru0.7.2 lxml_html_clean0.1.0 openai1.16.1 openpyxl3.1.2 pandas2.2.1 pydantic2.6.4 pymupdf1.24.1 python-docx1.1.0 pytoml0.1.21 readability-lxml0.8.1 redis5.0.3 requests2.31.0 scikit-learn1.4.1.post1 sentence_transformers2.2.2 textract1.6.5 tiktoken0.6.0 transformers4.39.3 transformers_stream_generator0.0.5 unstructured0.11.2
因为 Intern Studio 不支持对系统文件的永久修改,在 Intern Studio 安装部署的同学不建议安装 Word 依赖,后续的操作和作业不会涉及 Word 解析。
想要自己尝试解析 Word 文件的同学,uncomment 掉下面这行,安装解析 .doc .docx 必需的依赖
apt update && apt -y install python-dev python libxml2-dev libxslt1-dev antiword unrtf poppler-utils pstotext tesseract-ocr flac ffmpeg lame libmad0 libsox-fmt-mp3 sox libjpeg-dev swig libpulse-dev
使用茴香豆搭建 RAG 助手
修改配置文件
sed -i ‘6s#.*#embedding_model_path = “/root/models/bce-embedding-base_v1”#’ /root/huixiangdou/config.ini
sed -i ‘7s#.*#reranker_model_path = “/root/models/bce-reranker-base_v1”#’ /root/huixiangdou/config.ini
sed -i ‘29s#.*#local_llm_path = “/root/models/internlm2-chat-7b”#’ /root/huixiangdou/config.ini
创建知识库
cd /root/huixiangdou && mkdir repodir
git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou
cd /root/huixiangdou
mv resource/good_questions.json resource/good_questions_bk.json
echo ‘[
“mmpose中怎么调用mmyolo接口”,
“mmpose实现姿态估计后怎么实现行为识别”,
“mmpose执行提取关键点命令不是分为两步吗,一步是目标检测,另一步是关键点提取,我现在目标检测这部分的代码是demo/topdown_demo_with_mmdet.py demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth 现在我想把这个mmdet的checkpoints换位yolo的,那么应该怎么操作”,
“在mmdetection中,如何同时加载两个数据集,两个dataloader”,
“如何将mmdetection2.28.2的retinanet配置文件改为单尺度的呢?”,
“1.MMPose_Tutorial.ipynb、inferencer_demo.py、image_demo.py、bottomup_demo.py、body3d_pose_lifter_demo.py这几个文件和topdown_demo_with_mmdet.py的区别是什么,\n2.我如果要使用mmdet是不是就只能使用topdown_demo_with_mmdet.py文件,”,
“mmpose 测试 map 一直是 0 怎么办?”,
“如何使用mmpose检测人体关键点?”,
“我使用的数据集是labelme标注的,我想知道mmpose的数据集都是什么样式的,全都是单目标的数据集标注,还是里边也有多目标然后进行标注”,
“如何生成openmmpose的c++推理脚本”,
“mmpose”,
“mmpose的目标检测阶段调用的模型,一定要是demo文件夹下的文件吗,有没有其他路径下的文件”,
“mmpose可以实现行为识别吗,如果要实现的话应该怎么做”,
“我在mmyolo的v0.6.0 (15/8/2023)更新日志里看到了他新增了支持基于 MMPose 的 YOLOX-Pose,我现在是不是只需要在mmpose/project/yolox-Pose内做出一些设置就可以,换掉demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py 改用mmyolo来进行目标检测了”,
“mac m1从源码安装的mmpose是x86_64的”,
“想请教一下mmpose有没有提供可以读取外接摄像头,做3d姿态并达到实时的项目呀?”,
“huixiangdou 是什么?”,
“使用科研仪器需要注意什么?”,
“huixiangdou 是什么?”,
“茴香豆 是什么?”,
“茴香豆 能部署到微信吗?”,
“茴香豆 怎么应用到飞书”,
“茴香豆 能部署到微信群吗?”,
“茴香豆 怎么应用到飞书群”,
“huixiangdou 能部署到微信吗?”,
“huixiangdou 怎么应用到飞书”,
“huixiangdou 能部署到微信群吗?”,
“huixiangdou 怎么应用到飞书群”,
“huixiangdou”,
“茴香豆”,
“茴香豆 有哪些应用场景”,
“huixiangdou 有什么用”,
“huixiangdou 的优势有哪些?”,
“茴香豆 已经应用的场景”,
“huixiangdou 已经应用的场景”,
“huixiangdou 怎么安装”,
“茴香豆 怎么安装”,
“茴香豆 最新版本是什么”,
“茴香豆 支持哪些大模型”,
“茴香豆 支持哪些通讯软件”,
“config.ini 文件怎么配置”,
“remote_llm_model 可以填哪些模型?”
]’ > /root/huixiangdou/resource/good_questions.json
测试用例
cd /root/huixiangdou
echo ‘[
“huixiangdou 是什么?”,
“你好,介绍下自己”
]’ > ./test_queries.json
使用向量数据库
创建向量数据库存储目录
cd /root/huixiangdou && mkdir workdir
分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir
python3 -m huixiangdou.service.feature_store --sample ./test_queries.json
运行茴香豆知识助手
填入问题
sed -i ‘74s/.*/ queries = [“huixiangdou 是什么?”, “茴香豆怎么部署到微信群”, “今天天气怎么样?”]/’ /root/huixiangdou/huixiangdou/main.py
运行茴香豆
cd /root/huixiangdou/
python3 -m huixiangdou.main --standalone