文章目录
- 一、大模型(LLMs)基础面
- 二、大模型(LLMs)进阶面
- 三、大模型(LLMs)微调面
- 四、大模型(LLMs)langchain面
- 1. 基于LLM+向量库的文档对话 基础面
- 2. 基于LLM+向量库的文档对话 优化面
- 3. LangChain的概念面试问题
- 4.LangChain的一些模块提问
- 5.LangChain的业务提问
- 6.LangChain的问题解决
- 五、LoRA、QLoRA、AdaLoRA篇
- 六、Fine tune
- 1)基础概念
- 2)为什么需要 P-tuning v2?
- 3)为什么需要 P-tuning?
- 4)为什么需要 指示微调(Prompt-tuning)?
- 5)为什么需要 前缀微调(Prefix-tuning)?
- 6)适配器微调(Adapter-tuning)
- 七、大模型(LLMs)参数高效微调(PEFT) 面
- 八、大模型(LLMs)推理面
- 九、大模型(LLMs)评测面
- 十、大模型(LLMs)强化学习面
- 十一、大模型(LLMs)训练集面
- 十二、LLMs 位置编码篇
- 十三、简单介绍一下 SentencePiece 思路?
- 十四、Layer Normalization 篇
- 十五、LLMs 激活函数篇
- 十六、一些面试问题提问
- 1)为什么会出现 LLMs 复读机问题?
- 2)llama 输入句子长度理论上可以无限长吗?
- 3)什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
- 4)如何让大模型处理更长的文本?
- 十七、面试高频点
- 十九、其他面试问题
- 二十、题外音(社招来源)
一、大模型(LLMs)基础面
- 目前 主流的开源模型体系 有哪些?
- prefix LM 和 causal LM 区别是什么?
- 涌现能力是啥原因?
- 大模型LLM的架构介绍?
二、大模型(LLMs)进阶面
- llama 输入句子长度理论上可以无限长吗?
- 什么是 LLMs 复读机问题?
- 为什么会出现 LLMs 复读机问题?
- 如何缓解 LLMs 复读机