节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、算法项目落地经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
- 《大模型面试宝典》(2024版) 正式发布!
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球
个人情况:浙大研究生在读,游走在ZJU、Alibaba、miHoYo 的菜鸟
阿里通义这边总体战线还是挺长的,虽然早就面试完了,但是在 HR 排序部分耽搁了很久,可能确实有太多优秀的候选人了吧
本来以为已经没啥希望了,今天却突然收到了offer邮件,整个找暑期实习的过程也可以宣告结束了,后面也要开始好好准备秋招啦。
应星主邀请,我把面试题进行了回忆整理,可能有部分残缺,分享出来供大家参考学习,欢迎与我交流学习。
面试题
- 讲一下 Transformer 大概架构
- 分别讲讲 encoder-only、decoder-only、encoder-decoder不同架构在实际应用的使用场景。
- llama2 网络架构?使用了哪些注意力机制?
- 手写实现下分组注意力。
- llama2的位置编码了解吗? 讲讲几种位置编码的异同
- 了解langchain吗? 讲讲主要结构和主要组件,处理复杂任务链时有哪些优势。
- 用过微调技术吗,具体讲讲 p-tuning、lora 等微调方法,这些方法与传统fine-tuning微调有何不同。
- 模型出现幻觉时,一般怎么解决的
- 显存不够时,一般怎么解决的,有哪些常见的优化方法?
- 几种主流大模型的 loss了解过吗? 有哪些异同?
- 了解半精度训练吗? 展开讲讲原理和优点,在实际应用中有哪些挑战。
- deepspeed 用过吗? 分布式训练中如何提升效率。
- leetcode 题:合并K个升序链表
面试总结
- 当前大模型岗位更加强调实践,如果没有做过大模型的项目且没有针对性准备过,很难回答上。
- 大模型微调是很多公司的考察重点。
- 几种模型的注意力机制、位置编码要熟悉。
- RLHF 的几步多熟悉熟悉
技术交流&资料
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了算法面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流
通俗易懂讲解大模型系列
-
重磅消息!《大模型面试宝典》(2024版) 正式发布!
-
重磅消息!《大模型实战宝典》(2024版) 正式发布!
-
做大模型也有1年多了,聊聊这段时间的感悟!
-
用通俗易懂的方式讲解:大模型算法工程师最全面试题汇总
-
用通俗易懂的方式讲解:不要再苦苦寻觅了!AI 大模型面试指南(含答案)的最全总结来了!
-
用通俗易懂的方式讲解:我的大模型岗位面试总结:共24家,9个offer
-
用通俗易懂的方式讲解:大模型 RAG 在 LangChain 中的应用实战
-
用通俗易懂的方式讲解:ChatGPT 开放的多模态的DALL-E 3功能,好玩到停不下来!
-
用通俗易懂的方式讲解:基于扩散模型(Diffusion),文生图 AnyText 的效果太棒了
-
用通俗易懂的方式讲解:在 CPU 服务器上部署 ChatGLM3-6B 模型
-
用通俗易懂的方式讲解:ChatGLM3-6B 部署指南
-
用通俗易懂的方式讲解:使用 LangChain 封装自定义的 LLM,太棒了
-
用通俗易懂的方式讲解:基于 Langchain 和 ChatChat 部署本地知识库问答系统
-
用通俗易懂的方式讲解:Llama2 部署讲解及试用方式
-
用通俗易懂的方式讲解:一份保姆级的 Stable Diffusion 部署教程,开启你的炼丹之路
-
用通俗易懂的方式讲解:LlamaIndex 官方发布高清大图,纵览高级 RAG技术
-
用通俗易懂的方式讲解:为什么大模型 Advanced RAG 方法对于AI的未来至关重要?
-
用通俗易懂的方式讲解:基于 Langchain 框架,利用 MongoDB 矢量搜索实现大模型 RAG 高级检索方法