节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂同学、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
今天分享大模型面试相关知识点,持续更新,希望对后续找工作的有所帮助。喜欢记得点赞、收藏、关注。更多技术交流&面经学习,可以文末加入我们交流群。
1. RAG技术体系的总体思路
数据预处理->分块(这一步骤很关键,有时候也决定了模型的效果)->文本向量化->query向量化->向量检索->重排->query+检索内容输入LLM->输出
2. 使用外挂知识库主要为了解决什么问题
-
克服遗忘问题
-
提升回答的准确性、权威性、时效性
-
解决通用模型针对一些小众领域没有涉猎的问题
-
提高可控性和可解释性,提高模型的可信度和安全性
3. 如何评价RAG项目效果的好坏
针对检索环节的评估:
-
MMR 平均倒排率:查询(或推荐请求)的排名倒数
-
Hits Rate 命中率:前k项中,包含正确信息的项的数目占比
-
NDCG
针对生成环节的评估:
-
非量化:完整性、正确性、相关性
-
量化:Rouge-L
4. 大模型的幻觉问题、复读机问题是什么
幻觉问题:即生成的内容是无意义的或不忠实于提供的源内容
复读机问题:重复生成某些话
5. 针对问题4,有没有什么解决办法
针对幻觉问题:引入外挂知识库,加入一些纠偏规则,限制输出长度等
针对复读机问题:
-
丰富数据集的多样性,预处理时尽量过滤重复无意义的文本
-
同义词替换等做数据增强
-
温度参数调整
-
后处理与过滤
6. 出现问题4的原因有哪些
7. 当前主流的开源大模型是哪个,其架构具体是怎样的?
当前开源影响范围最广,生态建设最好的开源大模型是Meta的LLaMA。其依旧采用Transformers架构,并做了如下改动:
-
为了提高训练稳定性,对每个子层做输入前置归一化,归一化函数为RMSNorm(受GPT-3启发)
-
为了提升性能,SwiGLU激活函数替换ReLU激活函数(受PaLM启发)
-
从绝对位置嵌入,改为旋转嵌入(受GPT-neo启发)
-
使用causal multi-head attention的一个高效实现来减少内存占用和运行时间
8. 有哪几种SFT方法
9. 什么是lora微调
12. 什么是LangChain
13. LangChain的常用模块有哪些?
14. SFT和RLHF优劣对比
15. 详细介绍一下RLHF
16. 大模型训练经常出现一些OOM问题,在现有硬件基础下,有什么性能提升trick
17. LLaMA模型输入句子理论上可以无限长吗?
18. 如何让大模型处理更长的文本?
19. 大模型推理时,显存中有那几部分数据?
20. 介绍下ChatGLM
21. 介绍下GLU激活函数和SwiGLU激活函数
22. LLaMA1/2的异同
23. 模型在训练和推理的时候各占用显存的多少?
24. 详细说说Deepspeed的机制
25. 什么是混合精度训练
26. 什么是prefix LLM和casual LLM
27. 说一说针对MHA后续的一些计算优化工作
28. 说说attention几种常见的计算方式
技术交流&资料
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了大模型面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流
通俗易懂讲解大模型系列
-
做大模型也有1年多了,聊聊这段时间的感悟!
-
用通俗易懂的方式讲解:大模型算法工程师最全面试题汇总
-
用通俗易懂的方式讲解:不要再苦苦寻觅了!AI 大模型面试指南(含答案)的最全总结来了!
-
用通俗易懂的方式讲解:我的大模型岗位面试总结:共24家,9个offer
-
用通俗易懂的方式讲解:大模型 RAG 在 LangChain 中的应用实战
-
用通俗易懂的方式讲解:一文讲清大模型 RAG 技术全流程
-
用通俗易懂的方式讲解:如何提升大模型 Agent 的能力?
-
用通俗易懂的方式讲解:ChatGPT 开放的多模态的DALL-E 3功能,好玩到停不下来!
-
用通俗易懂的方式讲解:基于扩散模型(Diffusion),文生图 AnyText 的效果太棒了
-
用通俗易懂的方式讲解:在 CPU 服务器上部署 ChatGLM3-6B 模型
-
用通俗易懂的方式讲解:使用 LangChain 和大模型生成海报文案
-
用通俗易懂的方式讲解:ChatGLM3-6B 部署指南
-
用通俗易懂的方式讲解:使用 LangChain 封装自定义的 LLM,太棒了
-
用通俗易懂的方式讲解:基于 Langchain 和 ChatChat 部署本地知识库问答系统
-
用通俗易懂的方式讲解:在 Ubuntu 22 上安装 CUDA、Nvidia 显卡驱动、PyTorch等大模型基础环境
-
用通俗易懂的方式讲解:Llama2 部署讲解及试用方式
-
用通俗易懂的方式讲解:基于 LangChain 和 ChatGLM2 打造自有知识库问答系统
-
用通俗易懂的方式讲解:一份保姆级的 Stable Diffusion 部署教程,开启你的炼丹之路
-
用通俗易懂的方式讲解:对 embedding 模型进行微调,我的大模型召回效果提升了太多了
-
用通俗易懂的方式讲解:LlamaIndex 官方发布高清大图,纵览高级 RAG技术
-
用通俗易懂的方式讲解:为什么大模型 Advanced RAG 方法对于AI的未来至关重要?
-
用通俗易懂的方式讲解:使用 LlamaIndex 和 Eleasticsearch 进行大模型 RAG 检索增强生成
-
用通俗易懂的方式讲解:基于 Langchain 框架,利用 MongoDB 矢量搜索实现大模型 RAG 高级检索方法
-
用通俗易懂的方式讲解:使用Llama-2、PgVector和LlamaIndex,构建大模型 RAG 全流程