一、基础篇
1. 目前 主流的开源模型体系 有哪些?
2. prefix LM 和 causal LM 区别是什么?
3. 涌现能力是啥原因?
4. 大模型LLM的架构介绍?
5. 你比较关注那些主流的开源大模型?
6. 目前大模型模型结构都有那些?
7. prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点?
8. 模型幻觉是什么?业内解决方案是什么?
9. 大模型的 Tokenizer 的实现方法及原理?
10. ChatGLM3 的词表实现方法?
11. GPT3、LLAMA、Chatglm 的Layer Normalization 的区别是什么?各自的优缺点是什么?
12. 大模型常用的激活函数有那些?
14. Multi-query Attention 与 Grouped-query Attention 是否了解?区别是什么?
15. 多模态大模型是否有接触?落地案例?
二、大模型(LLMs)进阶面
1. llama 输入句子长度理论上可以无限长吗?
2. 什么是 LLMs 复读机问题?
3. 为什么会出现 LLMs 复读机问题?
4. 如何缓解 LLMs 复读机问题?
5. LLMs 复读机问题
6. llama 系列问题
7. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
8. 各个专业领域是否需要各自的大模型来服务?
9. 如何让大模型处理更长的文本?
10. 大模型参数微调、训练、推理
11. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
12. 为什么SFT之后感觉LLM傻了?
13. SFT 指令微调数据 如何构建?
14. 领域模型Continue PreTrain 数据选取?
15. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
16. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
17. 进行SFT操作的时候,基座模型选用Chat还是Base?
18.领域模型微调 指令&数据输入格式 要求?
19. 领域模型微调 领域评测集 构建?
20. 领域模型词表扩增是不是有必要的?
21. 如何训练自己的大模型?
22. 训练中文大模型有啥经验?
23. 指令微调的好处?
24. 预训练和微调哪个阶段注入知识的?
25. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
26. 多轮对话任务如何微调模型?
27. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
28. 微调模型需要多大显存?
29. 大模型LLM进行SFT操作的时候在学习什么?
30. 预训练和SFT操作有什么不同
31. 样本量规模增大,训练出现OOM错
32. 大模型LLM进行SFT 如何对样本进行优化?
33. 模型参数迭代实验
34.为什么需要进行参选微调?参数微调的有点有那些?
35.模型参数微调的方式有那些?你最常用那些方法?
36.prompt tuning 和 prefix tuning 在微调上的区别是什么?
37. LLaMA-adapter 如何实现稳定训练?
38. LoRA 原理与使用技巧有那些?
39. LoRA 微调优点是什么?
40. AdaLoRA 的思路是怎么样的?
41. LoRA 权重合入chatglm模型的方法?
42. P-tuning 讲一下?与 P-tuning v2 区别在哪里?优点与缺点?
43. 为什么SFT之后感觉LLM傻了?
44. 垂直领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
45. 进行SFT操作的时候,基座模型选用Chat还是Base?
46. 领域模型词表扩增是不是有必要的?
47. 训练中文大模型的经验和方法
48. 模型微调用的什么模型?模型参数是多少?微调模型需要多大显存?
49. 预训练和SFT操作有什么不同?
50. 训练一个通用大模型的流程有那些
51.DDO 与 DPO 的区别是什么?
52. 是否接触过 embeding 模型的微调方法
53.有哪些省内存的大语言模型训练/微调/推理方法?
54. 大模型(LLMs)评测有那些方法?如何衡量大模型的效果?
55.如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?
56. 模型训练的数据集问题:一般数据集哪里找?
57.为什么需要进行模型量化及原理?
58.大模型词表扩充的方法及工具?
59.大模型应用框架
60.搭建大模型应用遇到过那些问题?如何解决的?
61.如何提升大模型的检索效果
62.是否了解上下文压缩方法?
63.如何实现窗口上下文检索?
64.开源的 RAG 框架有哪些,你比较了解?
65. 大模型应用框架 LangChain 和 LlamaIndex 各种的优势有那些?
66. 你使用的向量库有那些?各自有点与区别?
67. 使用外部知识数据库时需要对文档进行分块,如何科学的设置文档块的大小?
68. LLMs 受到上下文长度的限制,如果检索到的文档带有太多噪声,该如何解决这样的问题?
69. RAG(检索增强生成)对于大模型来说,有什么好处?
三、大模型(LLMs)langchain面
什么是 LangChain?
LangChain 包含哪些 核心概念?
什么是 LangChain Agent?
如何使用 LangChain ?
LangChain 支持哪些功能?
什么是 LangChain model?
LangChain 包含哪些特点?
LangChain 如何使用?
LangChain 存在哪些问题及方法方案?
LangChain 替代方案?
LangChain 中 Components and Chains 是什么?
LangChain 中 Prompt Templates and Values 是什么?
LangChain 中 Example Selectors 是什么?
LangChain 中 Output Parsers 是什么?
LangChain 中 Indexes and Retrievers 是什么?
LangChain 中 Chat Message History 是什么?
LangChain 中 Agents and Toolkits 是什么?
LangChain 如何调用 LLMs 生成回复?
LangChain 如何修改 提示模板?
LangChain 如何链接多个组件处理一个特定的下游任务?
LangChain 如何Embedding & vector store?
LangChain 低效的令牌使用问题
LangChain 文档的问题
LangChain 太多概念容易混淆,过多的“辅助”函数问题
LangChain 行为不一致并且隐藏细节问题
LangChain 缺乏标准的可互操作数据类型问题
四、大模型分布式训练
大模型进行训练,你用的是什么框架?
业内常用的分布式AI框架,你什么了解?
数据并行、张量并行、流水线并行的原理及区别?
推理优化技术 Flash Attention 的作用是什么?
推理优化技术 Paged Attention 的作用是什么?
CPU-offload,ZeRO-offload 了解?
ZeRO,零冗余优化器 的三个阶段?
混合精度训练的优点是什么?可能带来什么问题?
Megatron-DeepSpeed 方法?
Megatron-LM 方法
五、大模型(LLMs)推理
为什么大模型推理时显存涨的那么多还一直占着?
大模型在gpu和cpu上推理速度如何?
推理速度上,int8和fp16比起来怎么样?
大模型有推理能力吗?
大模型生成时的参数怎么设置?
有哪些省内存的大语言模型训练/微调/推理方法?
如何让大模型输出合规化
应用模式变更