节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:《大模型面试宝典》(2024版) 正式发布!
暑期实习基本结束了,校招即将开启。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近一位球友跟我分享了他面试字节的面试经历,分享出来给大家,希望对大家有所帮助。喜欢欢迎点赞、收藏、分享,也可以技术交流学习
一面
总共70分钟左右,40分钟左右是自我介绍+论文+项目(大部分时间在围绕论文进行问答),25分钟左右两道算法题,5分钟左右自己向面试官提问
- 完全针对简历进行提问,所以对于简历上可能成为八股的关键词要注意在面试前再回忆一下相关知识
- 介绍Transformer的模型结构
- 位置编码
- 微调LLM的经验
- 两道手撕代码题,一道单词搜索(lc.79,dfs,medium),一道乘积最大子数组(lc.152,dp,medium)
一面结束后第二天发二面通知
二面
总共45分钟左右,25分钟左右自我介绍+论文,20分钟左右两道算法题,最后一两分钟面试官问有没有什么想问的
- 讲论文,讲得过程中间面试官可能打断提问一些东西(跟一面面试官的提问风格差异巨大,能明显感到二面面试官提的问题更偏向结合具体业务场景)
- 讲BERT模型结构
- 为什么Transformer中要使用残差连接
- 为什么使用layer norm而不用batch norm
- 讲一下MoE
- 两道手撕代码题,一道自注意力,一道数据结构题(lc.380,medium)
面试完感觉有点不好。。。就挂了
技术交流群
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
我们建了算法岗技术与面试交流群, 想要大模型技术交流、了解最新面试动态的、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。
想加入星球也可以如下方式:
方式①、微信搜索公众号:机器学习社区,后台回复:星球
方式②、添加微信号:mlc2040,备注:星球
面试精选
-
一文搞懂 Transformer
-
一文搞懂 Attention(注意力)机制
-
一文搞懂 Self-Attention 和 Multi-Head Attention
-
一文搞懂 BERT(基于Transformer的双向编码器)
-
一文搞懂 GPT(Generative Pre-trained Transformer)
-
一文搞懂 Embedding(嵌入)
-
一文搞懂 Encoder-Decoder(编码器-解码器)
-
一文搞懂大模型的 Prompt Engineering(提示工程)
-
一文搞懂 Fine-tuning(大模型微调)
-
一文搞懂 LangChain
-
一文搞懂 LangChain 的 Retrieval 模块
-
一文搞懂 LangChain 的智能体 Agents 模块
-
一文搞懂 LangChain 的链 Chains 模块