别求面经了!小夕手把手教你如何斩下和选择NLP算法岗offer!(19.11.21更新)

推完上一篇文章,订阅号和知乎后台有好多小伙伴跟小夕要面经(还有个要买简历的是什么鬼),然鹅小夕真的没有整理面经呀,真的木有时间(。 ́︿ ̀。)。不过话说回来,面经有多大用呢?最起码对于NLP岗位的面试来说,小夕发现根本不是面经中说的样子。。。

其实今年参加NLP算法岗秋招的小伙伴可能有感慨,
“照着别人的面经去准备了辣么多,轮到自己面试时内容怎么这么不一样?!”
“说好的要做到熟练推导SVM呢?怎么从来没人让我推导SVM?”
“整场面试都在聊前沿论文啊什么鬼?从来没见这样的面经呀!”
“为什么面试官只问他简历内容,轮到我时一点简历内容都不问?“

不止今年,将来的面试肯定更趋向于千人千面,毕竟AI行业也将越来越细化嘛。所以小夕精心准备了这篇“万能”文章给你们,希望大家将来都能收割到自己想要的offer~
这篇文章不是面经集合,也不是装X和贩卖焦虑的晒offer贴,也不是堆砌可能问到的知识点,而是希望给还在迷茫的小伙伴提供一些系统的指导和建议。当然,这些建议可能不适合每个人,因此希望大家从这篇文章里汲取到适合自己的养分,千万不要邯郸学步哦m(— —)m

目标观众

首先,本文的讨论范围仅限自然语言处理(NLP)相关岗位!亲测NLP岗的套路跟数据挖掘、机器学习岗还是有明显差异的,所以千万不要按本文的套路去准备DM、ML的面试!

然后说一下本文的目标群体。想去拿MSR、FAIR、Google Brain offer的大佬请放过小夕(。 ́︿ ̀。)深知自己哪怕能拿到这些地方的offer,也基本是在边边角角的地方做做边边角角的事情,所以直接放弃了,真的木有经验可以分享。还有那些已经一大把顶会的小伙伴,求给小夕指导好么!

其实之前小夕也曾想着去外企的研究院(虽然菜的一无所有),然而很扎心的一次次打听到外企的研究院的研究岗基本只招PhD,哪怕作为硕士进去了也基本是干边边角角杂活的engineer了。虽然外企的业务部门也有NLP岗位,而且硕士也容易进,但是进一步打听了一下,听说硕士进去很少有research相关的工作,最多做做模型优化,弄不好就是爬数据、清洗数据了。后来拿了一家的offer后聊了聊发现确实如此,加上后来没什么面试的状态了,也就把外企都统统放弃了。不过有条件的同学可以在外企研究院或业务部门做做research intern,这方面对硕士友好的多。

言归正传,对于想拿国内一线大厂的核心研究部门和核心业务部门NLP岗offer的童鞋,点赞本文,你就收获了半个offer!转发本文,你就收获了0.75个offer!(等等,文风好像越来越像传销了。。。)

国内的NLP方向的岗位一般叫做NLP算法工程师/研究员/工程师,不要被名字迷惑了,一些厂标榜的NLP研究员本质上就是懂点NLP的研发工程师,也有一些厂懒得区分,无论是做前瞻研究还是业务研发统一叫NLP工程师,需要大家拿到offer后自己跟主管多聊聊具体工作职责和日常工作内容,真的不要纠结岗位名字。

简单说一下自己的经历吧,可以给大家做个参考。虽然踩了些雷导致错过了一些机会,但是自己看好的NLP团队都拿到了offer,无非就是offer等级高低,package能谈多高的问题。最终也有幸拿到了心仪团队的SSP offer,其他大厂和一些明星初创公司也大都拿到了不错的SP offer。此外,就简历投递来说,投了一圈都没有沉(可能因为长得好看),有笔试环节的大厂也没挂过笔试,package大多开到40w左右,有两个给出户口承诺的,有几个户口抽签的。不过要兼备package、户口、团队实力与研究方向/业务的兴趣程度的话,并不容易。

Research or Product ?

首先,要搞懂自己想要什么。粗略的看,如果想做research,比如发发paper,打打国际比赛,做做通用技术平台,为现在或将来的产品孵化算法接口,就去偏research的团队;如果想直接优化产品的算法指标,看到自己的成果快速反映在产品的用户体验和经济效益上,那就去偏业务的部门。这两种不同导向的部门在面试的时候的关注点会存在一定差异。

当然,再偏research的部门也会把成果直接或间接的输出到各个产品线上(否则养你干嘛),再偏业务的部门也会有关注前沿的小团队,毕竟NLP本身还没有成熟嘛。

不过总的来说,比如你想做research,有不错的论文或比赛经历,对某个方向研究的比较深入,但做系统的经历相对匮乏,则偏research的团队可能更赏识你;如果你想做产品,并且做系统、啪代码的能力不错,论文也刷了不少但是科研热情不高,则你可能跟业务部门更match。

算下来自己面了8、9个NLP团队,加上一些跟小伙伴的交流,也算对国内工业界NLP团队的大概情况有一些了解了。下面说说几个面下来感觉团队不错或小伙伴反馈不错的团队吧,大家参考一下就好,很多优秀团队没贴上来仅仅是因为我们没去面过而已。。。

偏research/通用平台的:

  • 百度
    • AIG的NLP团队(分布在自然语言处理部深度学习技术平台部、知识图谱部百度研究院。其实看名字就能看出来区别,研究院大多是搞纯Research的,有EMNLP会议的创始人Kenneth Church,有李平巨佬(CCL实验室主任,每年NIPS,ACL等顶顶会量产),想做学术研究的小伙伴不用纠结,去研究院绝对不会错;自然语言处理部除了做研究,还要支撑厂内NLP业务,做一些通用的NLP平台,基本cover了NLP领域全部方向,触达厂内各业务线;而深度学习技术平台部(DLTP,飞桨团队)则是深入到DL框架层的NLP研究和系统研发,致力于解决NLP和speech中的最关键问题(比如NLP中的大规模预训练、大规模多任务学习问题等),比较像Google的TensorFlow团队,只做最硬核的NLP问题,有技术信仰的小伙伴不用犹豫,AI自上而下的技术贯穿国内只有这一个地方;知识图谱部做NLP的思路则是依赖于知识图谱啦,毕竟拥有全世界最大的中文知识图谱。

      多啰嗦一句,NLP是百度的支撑技术(NLP对百度的重要性远远大于国内任何一家大厂),因此自然是NLP全方向全覆盖且没有弱项,有高影响力论文(每年数十篇ACL、EMNLP)、有业界无人不知的NLP平台(PaddleNLP、NLPC、UNIT等)、有众多可以落地的国内绝对领先的NLP业务(第一搜索引擎百度搜索,第一广告系统凤巢,第一对话系统度秘,第一机器翻译系统百度翻译等)。百度的NLP团队阵容可以说国内没争议的最强了,毕竟是看家本领╮( ̄▽ ̄"")╭。当然,缺点也有,就是大牛太多了还不愿意走,head count很少很难进,需要有过硬的技术实力和亮眼的简历。
      BASE:北京、深圳、美国硅谷
  • 阿里
    • 达摩院的NLP团队(以前的idst合并进去了,前几年SQuAD刷的风生水起,负责阿里很多支撑性NLP基础技术平台的研发,而且还有很重要的一点是,有钱。不过最近BERT流行之后,不知道为什么貌似一直动静不大,可能在憋大招吧)
      BASE:北京、杭州
  • 腾讯
    • AI lab(之前的论文高产地,之前被拆了,听说最近又重组了。腾讯的组织架构导致AI lab等代表的TEG事业群一直在公司里处境比较尴尬,不过论产论文的能力的话,前些年真是其他大厂都比不过。。最近也在努力跟业务结合,应该会找到合适的发力点吧)
      BASE:深圳
  • 网易游戏
    • 伏羲AI实验室(新成立不久的。虽然互娱是网易游戏更大的团队,不过论研究来说,还是伏羲实验室更有想象力一些。NLP的业务一般也会跟游戏场景结合,比如智能NPC之类的。不过毕竟是做游戏的,还是需要对游戏有很大热情的小伙伴会比较合适一些。而且终面的时候感觉面试官的实力挺赞的)
      BASE:杭州
  • 京东
    • AI lab(方向上感觉有点对标阿里的lab,方向也是围绕着电商场景来的,总体上团队实力挺不错的,在一些小方向如对话上也有一些小夕觉得蛮不错的工作,而且讲真,京东给出的package确实比较有诱惑力)
      BASE:北京
  • 滴滴
    • AI lab(感觉滴滴还是DM领域比较厉害,NLP领域可以落地的场景不多,所以研究格局相对来说更小一些,主要是在语言模型,检索和翻译等。但是滴滴这么多金主爸爸养着,不会差的,而且package灰常给力)
      BASE:北京

偏业务/产品的:

  • 百度:
    • 度秘(百度对话技术主力落地的地方,做着各种“小度小度”的智能对话C端产品,可爱炸了。跟自动驾驶一样,背负着百度AI落地的使命,自然各方面都不会差。尤其在C端的对话产品上稳稳的国内老大,全球top 2,尤其是做对话的小伙伴,不管是做算法还是做系统,来度秘绝对不会错(现在好像叫小度云平台部)
    • 智能客服(现在貌似组织重构到产业智能化部了,听说团队拿过百度最高奖,主要做B端的对话产品)
    • 大搜索(感觉不用多说了,看家业务嘛。。。国内最硬核的IR、NLP和ranking系统,尤其是中文信息的处理,若能拿到offer,没有犹豫的必要吧)
    • 凤巢(国内最NB的搜索广告系统,扛着百度几百亿的年营收,有钱有数据有资源,同样是拿到offer不用犹豫系列)
  • 阿里
    • 智能服务(也就是小蜜相关的业务,分为店小蜜、云小蜜和阿里小蜜,落地到淘宝、其他阿里系产品以及B端用户上。方向上来说主要是对话、问答相关的场景,属于阿里的NLP技术落地最好的地方了)
    • 淘宝(NLP业务跟百度大搜比较近,主要是淘宝中的搜索、推荐相关,不过由于被检索的目标不是网页而是商品,所以技术上来说要偏多模态一些)
    • 达摩院AI labs(虽然名字叫AI labs,不过是属于那种做比较开脑洞产品的lab,比如天猫精灵这种。感觉虽然背负营收KPI,但是还是蛮好玩的业务)
  • 腾讯
    • 微信事业群(北京的模式识别中心应该是腾讯内部AI做的最靠谱的地方了吧,有微信这种10亿用户的业务,感觉NLP想做的烂都难)
    • AI技术平台部(在深圳的同学可以好好考虑~听说是个不错的地方)
  • 网易
    • 有道事业部(当时面试时间冲突放弃了,不过有道NLP产品这么成功,想必也不会差。方向上来说,听说文本挖掘、知识图谱、机器翻译相关的招的比较多)

好了,搞懂了自己想做什么,瞄准一两个目标部门立个flag,后续就要围绕这根主线来哦。有条件的童鞋可以找师兄师姐提前打听一下意向部门的研究方向或者业务方向,免得准备了一年后发现人家根本不做这个。。。如果实在打听不到,可以搜罗一下该部门近几年的顶会paper、宣传文章之类的,或者在知乎上撩一下相关的大佬们,结合官网上的宣传,基本可以摸个差不多。

啰嗦了好多,下面就分享经验啦。内容分私货篇和干货篇,私货篇主要讲前期的准备(笔试、简历、论文、比赛、实习等,没耐心的同学可以只看加粗的内容),干货篇看似是对小夕几十场面试的面经的知识点浓缩,实际上只是为了说明一个trick,即别人的面经不重要,去为自己的关键词去量身定做复习计划吧。文末给出一些超级有信息量的tips。

目录

私货篇

  1. 笔试与面试中的笔试的准备
  2. 简历的准备
  3. 论文的准备
  4. 比赛的准备
  5. 实习与项目的准备
  6. 其他

干货篇

  1. 面试中的基础知识
  2. 面试中的设计/方案题

私货篇

1. 笔试与面试中的笔试的准备

这方面小夕走了不少弯路,其实提前批(7月下旬到8月底)基本不会有笔试(今日头条、网易、网易游戏这三家有),因此大可把主要精力放在简历及延伸内容里。但是!解基本编程题的能力还是要锻炼出来的,这是红线。

面试中的白板编程题一般都超级简单,基本都是leetcode简单级别的或者剑指offer上的原题,偶尔出个leetcode中等难度的题。小夕把剑指offer刷了不到一半,leetcode刷了30来道题(按类别和top interviewed过滤后刷,先刷简单的),发现提前批面试中的白板编程题基本都可以应付了。当然,精力允许的话还是多刷点,毕竟解题解得快,别留边界问题,会给面试官印象好一些。

哦对了,编程语言的话,放心的用python就好,小夕实在没时间复习C/C++/Java了,所以leetcode还有各家的笔试面试都是用python写的,亲测没毛病。

至于计算机网络、操作系统、计算机组成原理、数据库、编程语言、设计模式之类的基础课,闲暇时翻一翻吧,全都从头复习一遍太费精力了,这些一般只出现在笔试的选择题中。面试过程中除了今日头条,其他家从来没考过。

另外,矩阵论、概率统计这些数学课也记得顺手复习哦,听后来参加正式校招的小伙伴说,有的大厂的算法岗试题不怎么考计算机基础,本科的数学课倒是考了很多。不过小夕亲测硕士阶段的数学课像最优化之类的,考的非常非常浅,科普级别的深度就够应付了。(感觉最优化白学了(´Д` ))

最后小夕不靠谱的猜测有的厂的笔试刷人可能不全看总分。因为小夕在网易的笔试的选择题部分瞎蒙了好多题,最后40分的问答题也完全空着没做,就中间30分的编程题磕磕绊绊的基本AC了(也挂了几个case),但是最后笔试竟然过了。

2. 简历的准备

翻了一下,发现自己的简历前前后后改了23版。。。回看7月份的简历,简直辣眼睛╮( ̄▽ ̄””)╭

毫无疑问简历是最最最重要的东西,它不仅是面试的敲门砖,而且基本贯穿了整个面试过程!从小夕的经历看,不加面试中的白板编程时间,简历内容一般会占据每轮面试80%-100%的时间(今日头条除外),其中占到100%时间的面试能占到50%以上。

做简历的最基本也是最关键也是最容易被忽视的一条原则是,整体内容一定要跟岗位需求match!其实做简历跟写文章很像,要围绕一根主线展开,如果发现电路也做,视觉也做,推荐也做,NLP也做的话,很容易被打上“跟岗位不match”或者“这孩子做事浮躁”的tag。(身边一小伙伴就这样被某二梯队厂以“NLP经历不足”为理由挂掉)

对于已经一串paper的那种简历来说,就不做建议了。但是如果对于比赛、论文、项目、专利都只有几条的童鞋来说,完全可以把简历做的有的放矢,match的内容展开写,不match的一笔带过或者直接不写,这样面试官也省的一条条甄别信息量,面试过程也会变得更加主题明确。

小夕的一个小trick是,可以尝试把最有信心在面试中谈起的经历所在的板块写在最前面(仅次于教育经历),并用配色突出这条经历。小夕亲测这样的第一条经历可以聚焦非常多的面试火力,甚至有15%的面试是全部面试时间都在死磕这条经历!而且小夕神奇的发现,各轮面试很少有第一轮面试官问第一条,第二轮面试官问第二条这种,倒是经常有面试官觉得你第一条经历很亮,于是告诉下一轮面试官这条很亮,然后下一轮面试官出于好奇就深入问这条经历,如果他也觉得很亮,就会转述再下一轮面试官,于是再下一轮面试官又会主要问你这条经历╮( ̄▽ ̄””)╭,然后offer就到手了。当然,这样的副作用就是,如果对面试官来说这条经历不亮,那面试基本挂掉一半了。

另外,除非你硕士期间对一个方向钻的很深、已经可以驾驭这个方向的绝大部分问题了,否则小夕墙裂建议单独设置一个板块列一下自己研究过的算法问题。比如分两级,第一级讲方向(比如对话系统),第二级讲具体研究的子问题(比如聊天的一致性问题),这样可以避免面试官对你进行天马行空式的考察,毕竟硕士时间有限,哪怕只做NLP中的一个方向,也难以研究的面面俱到。该板块会贡献大量的关键词,这些关键词基本可以决定面试官对你的考察范围,详见后面的干货篇。

还有一个trick,简历内容太多,做到两页后,难免最后要塞一些无关痛痒的荣誉(比如奖学金啥的)还有一些主观内容(比如算法研究、IT技能、自我评价之类的),这样面试官看到后面发现没营养了反而容易忘掉前面的亮点,所以小夕是把一条亮点经历放在简历最后点个题(记得颜色突出一下,否则真被忽略了就哭了),这样会让面试官觉得整个简历“干货满满,这么亮的经历都只能排到最后面了”。

最后,对小夕简历好奇的小伙伴也不要好奇了,除了性别没什么亮点╮( ̄▽ ̄””)╭各种被HR指控填错了性别,最后无奈之下把性别加粗了。嗯,是加粗了,不是改了。

3. 论文的准备

首先diss一下很多人把收不到NLP算法岗offer归结于没有顶会论文,实际上硕士期间出一篇顶会论文对于绝大部分硕士来说还是非常难的,更何况AAAI这类顶会自带灌水嫌疑,如果面试过程中也给人感觉是水文的话更不算什么加分项了。一般来说,硕士期间出一篇有意义的顶会最少意味着:

  1. 研一下学期之前把所有基础打好(不然别人刷paper的时候你刷教材么
  2. 有很负责且很有经验的导师/高年级博士带(纯靠自己摸索的话基本洗洗睡了
  3. 方向没偏(有些导师做的方向实在难出paper
  4. 数学、coding能力过关(学个numpy、tensorflow要花大半年的话可以转行了
  5. 运气好(不是说观点新,实验效果好,写的也ok就能中的,你要相信神马审稿人都会有的

一般来说研二那一年的最后能投的顶会是在4月之前的,再往后的会议出来录取结果的时候基本校招提前批进行一大半了,简历能丢的都丢出去了,所以真正可以好好做科研的时间基本只有研一下学期+研二上学期。(本科出顶会的大佬忽略)

而对于大部分人来说,很难一下子就有一个idea,然后一下子就做出来了好实验效果,一下子论文写的也很漂亮,一下子就中了顶会的,基本都要从水会投起,摸索套路,所以一无所有的情况下非顶会不投几乎等同于作死(当然水某些A类顶会的话另说)。但!是!尽自己的努力去水一篇非顶会还是不难的(比如CCF C类的水会,EI检索之类的)。水完水会之后,想进一步水顶会的小伙伴们可以根据这个ddl时间表规划一下自己的时间
-> AI Conference Deadlines

4. 比赛的准备

除了论文,另一个有吸引力而且性价比更高的活动就是打比赛了。个人英雄主义在大课题、大项目里很难体现,但是在一个比赛中却是有了充足的show的机会。但是注意那些小企业小机构办的几十个队伍参赛的小比赛就不要水了,提交个baseline模型就能水个top3挺没意思的,挂简历上会“很掉身价”的。

除了NLP各大顶会和kaggle的比赛,还可以多多关注各个互联网大厂举办的NLP比赛,比如微软的编程之美挑战赛(去年是问答bot)、百度的机器阅读理解大赛、阿里的天池系列比赛等,亲测在各大厂的面试中很有效(非举办方的互联网公司一般也都会关注友商的比赛的)。

另外,一定一定要打跟目标岗位match的比赛,底线是NLP比赛。比如你想做chatbot,却光打一些数据挖掘类的比赛,哪怕top 5也意义不大,但是这时文本匹配、生成、问答相关的比赛哪怕排名一般(差不多容忍到队伍数的10%)也完全可以强行写上去。已经有名次很好但是match程度不高的比赛了怎么办?简历上一句话带过吧,突出强调和大写特写只会让人觉得你跟岗位不match。

具体到比赛过程中,如果你要做NLP,千万不要靠堆开源模型做ensemble上分,这样虽然能为你争取到面试机会,但是这样基本没有任何创新,只会让面试官觉得你是个优秀的搬砖工程师和调参小能手,如果简历上也没有亮点,很容易被挂(身边有活体例子)。对于面试来说,优秀的单模型超级好用!另外最好把顶会SOTA也拿到比赛数据集上跑一下,这样面试时更有说服力。

5. 实习与项目的准备

一份儿好的实习经历确实可以加分,比如MSRA、百度自然语言处理部、阿里idst、腾讯AI lab这些部门的research经历或者大厂match的业务部门的出色工作都会让面试难度降低不少,然鹅小夕亲测这并不是必须的(心疼的抱抱导师不放实习的自己(。 ́︿ ̀。))。同时,小夕也亲测实验室的大项目一般木有多少吸引力,远不如上面那几个地方的实习经历值钱,所以抱怨自己实验室没项目的童鞋可以stop了,去找实习机会吧。

6. 其他

最后啰嗦一下,顶会paper、top比赛、大厂研究院实习都不是必须的,但是最好它们取或运算后为真。从小夕身边的小伙伴的情况看,只要取或运算后为真,一般BAT的核心研究部门或者核心业务部门最少也能拿一个offer。

如果很不幸成为了“三无人员”,那么一定要保证扎实的数学、NLP、coding能力和最少一个研究方向的专精,能够在面试时表现出超出简历描述的能力,这样也会非常打动面试官的,毕竟谁都想招一个潜力股嘛。

干货篇

1. 面试中的基础知识

这一篇说起来都是泪,小夕曾经努力挤出时间复习,手撸了一遍逻辑回归、最大熵、决策树、朴素贝叶斯、SVM、Adaboost、EM、HMM、CRF的推导,结果发现从来没被问到过。。。从来没被问到过。。。从来没。。。

然后很奇葩的竟然被问到过TCP三次握手,hadoop中的shuffle机制,linux的find命令怎么用。。。(from 今日头条)

虽然实现NLP的方法基本离不开机器学习与神经网络,但是如果按照前面简历篇讲的准备简历内容,其实在NLP岗的面试中很少直接考察ML和NN的理论知识。那考察什么呢?当然是考察关键词呀!所以总结一下自己简历的关键词,然后展开复习吧!

下面小夕拿自己举个例子。小夕简历上出现的NLP关键字如

问答、MRC、对话、匹配、词向量、迁移、分类、分词、POS、NER等

下面是面试中考过的基础知识举例

trick:方向不match的面试官喜欢考察词向量和文本分类相关的知识

模型篇

  • SGNS/cBoW、FastText、ELMo等(从词向量引出)
  • DSSM、DecAtt、ESIM等(从问答&匹配引出)
  • HAN、DPCNN等(从分类引出)
  • BiDAF、DrQA、QANet等(从MRC引出)
  • CoVe、InferSent等(从迁移引出)
  • MM、N-shortest等(从分词引出)
  • Bi-LSTM-CRF等(从NER引出)
  • LDA等主题模型(从文本表示引出)

训练篇

  • point-wise、pair-wise和list-wise(匹配、ranking模型)
  • 负采样、NCE
  • 层级softmax方法,哈夫曼树的构建
  • 不均衡问题的处理
  • KL散度与交叉熵loss函数

评价指标篇

  • F1-score
  • PPL
  • MRR、MAP

可以看出,其实面试考察的基础知识的内容跟简历中的关键字高度相关有木有。虽然偶尔也会问到一些超出关键字限制的范围,但是非常非常少,而且基本都是些跟研究方向无关的基础知识。当然,这个前提是按照前面简历篇的建议来认真构造“算法研究”的板块呐。身边不少小伙伴吐槽面试官问的问题很偏,跟自己的方向差别大,然而都木有反思过自己的简历到底有没有告诉面试官自己擅长什么,遇到不match的面试官的话肯定被问成狗哇。(当然,遇到完全不看简历,方向又跟自己不match的面试官的话可以善意的提醒“抱歉我不是做这个方向的”)

2. 面试中的设计/方案题

除了基础知识,有的公司还会出一些开放性的设计题(尤其在最后一两轮面试或者是为SP、SSP设置的加面时),解这些设计题主要还是靠项目和比赛的经验积累,切忌不要只拿论文说事儿,要站在以最小代价来解决问题的角度出方案,而不是非要用上最新的论文

解这类题的一条基本原则是,能用规则解决就不要用数据,能用简单特征工程解决就不要上大型神经网络,上大型网络时尽量不要使用深度LSTM这类推理复杂度太高的东西。

最后总结一下,精心的准备好简历,那么从巨头到startup的面试其实都大同小异(个别奇葩面试套路的公司除外)。hold住自己的简历和研究方向,白板编程别太差,面试基本都能过。另外,小夕参加的都是提前批,不太清楚正式批会不会有变化。不过貌似正式批的NLP岗少得多,尽量不要把重心放正式批哦

TIPS篇

  1. 一定不要错过提前批!一定不要错过提前批!一定不要错过提前批!不要相信错过提前批还有正式批的鬼话,很多核心部门的NLP岗的hc在提前批就用光了!
  2. 提前批不要拖到末尾!尤其百度自然语言处理部的坑,面试当天就给口头offer,先占先得!
  3. 阿里基本是远程面试,6轮面试都没编程题!简历内容准备好就可以直接投阿里了!
  4. 内推之前千万不要把简历挂到腾讯校招系统,填上意向部门都没用,不match的其他部门很可能以迅雷不及掩耳之势强行捞起你的简历,然后你的腾讯之旅就举步维艰了(我跟另外俩小伙伴血的教训。。。)
  5. 如果只是想找算法岗,但没有研究方向,没刷几篇paper,不过研发能力强,基础编程题解的快,工具用的熟,那就去投头条吧。(亲测它提前批的三轮技术面都没学术味儿,所以优势在对立面的小伙伴谨慎)
  6. 谨慎投递跟第三方招聘网站比如前程无忧 (51jobs) 合作的企业,除非你想换手机号了╮(╯▽╰)╭


更多精彩文章欢迎关注小夕的微信订阅号【夕小瑶的卖萌屋】噢 (・ω< )★

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481084.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

git - 简易指南

http://www.bootcss.com/p/git-guide/

梁家卿 | 百科知识图谱同步更新

本文转载自公众号知识工场。 本文整理自复旦大学知识工场梁家卿博士在IJCAI 2017 会议上的论文报告&#xff0c;题目为《How to Keep a Knowledge Base Synchronized with Its Encyclopedia Source》&#xff0c;作者包括&#xff1a;梁家卿博士&#xff08;复旦大学&#xff0…

【LeetCode】3月20日打卡-Day5

题1 最小的k个数 描述 输入整数数组 arr &#xff0c;找出其中最小的 k 个数。例如&#xff0c;输入4、5、1、6、2、7、3、8这8个数字&#xff0c;则最小的4个数字是1、2、3、4。 示例 1&#xff1a; 输入&#xff1a;arr [3,2,1], k 2 输出&#xff1a;[1,2] 或者 [2,1] 示…

别再搜集面经啦!小夕教你斩下NLP算法岗offer!

推完上一篇文章&#xff0c;订阅号和知乎后台有好多小伙伴跟小夕要面经&#xff08;还有个要买简历的是什么鬼&#xff09;&#xff0c;然鹅小夕真的没有整理面经呀&#xff0c;真的木有时间(&#xff61; ́︿ ̀&#xff61;)。不过话说回来&#xff0c;面经有多大用呢&#…

程序员面试100题之十六:二叉树中两个节点的最近公共父节点(最低的二叉树共同祖先)

这个问题可以分为三种情况来考虑&#xff1a;情况一&#xff1a;root未知&#xff0c;但是每个节点都有parent指针 此时可以分别从两个节点开始&#xff0c;沿着parent指针走向根节点&#xff0c;得到两个链表&#xff0c;然后求两个链表的第一个公共节点&#xff0c;这个方法很…

肖仰华 | 基于知识图谱的问答系统

本文转载自公众号知识工场。 本文整理自复旦大学知识工场肖仰华教授在VLDB 2017 会议上的论文报告&#xff0c;题目为《KBQA: Learning Question Answering over QA Corpora and Knowledge Bases》&#xff0c;作者包括&#xff1a;崔万云博士&#xff08;现上海财经大学讲师&a…

【LeetCode】3月21日打卡-Day6

题1 水壶问题 描述 有两个容量分别为 x升 和 y升 的水壶以及无限多的水。请判断能否通过使用这两个水壶&#xff0c;从而可以得到恰好 z升 的水&#xff1f; 如果可以&#xff0c;最后请用以上水壶中的一或两个来盛放取得的 z升 水。 你允许&#xff1a; 装满任意一个水壶 清空…

【小夕精选】YJango 7分钟带你领略你未曾想过的线性代数+微积分

小夕很早之前就想转一些精彩的技术文章&#xff0c;这样哪怕没有时间写作的时候&#xff0c;也能把优质的干货分享给大家&#xff5e;然鹅&#xff0c;由于我也不知道是什么的原因&#xff0c;就不小心拖到了现在╮(&#xffe3;▽&#xffe3;"")╭之前有不少粉丝希…

【LeetCode】3月22日打卡-Day7

题1 描述 给定整数数组 A&#xff0c;每次 move 操作将会选择任意 A[i]&#xff0c;并将其递增 1。 返回使 A 中的每个值都是唯一的最少操作次数。 示例 1: 输入&#xff1a;[1,2,2] 输出&#xff1a;1 解释&#xff1a;经过一次 move 操作&#xff0c;数组将变为 [1, 2, 3]。…

手写实现李航《统计学习方法》书中全部算法

https://github.com/Dod-o/Statistical-Learning-Method_Code

白硕 | 基于区块链的众包社区激励机制

本文整理自白硕老师在 YOCSEF 武汉专题论坛&#xff1a;“人工智能遇到区块链&#xff0c;是惊鸿一瞥还是天长地久&#xff1f;”的报告。 很高兴有这个机会跟大家交流。我先讲几个案例作为引子。第一个案例与知识图谱有关。这个公司做的是非常垂直的一个领域&#xff0c;安全教…

【小夕精选】多轮对话之对话管理(Dialog Management)

这一篇是一段时间之前小夕初入对话领域时刷到的徐阿衡小姐姐写的一篇文章&#xff0c;写的深入浅出&#xff0c;十分适合有一定基础的情况下想快速了解对话管理技术的童鞋阅读~另外顺手推一下阿衡小姐姐的订阅号「徐阿衡」&#xff0c;干货满满不要错过哦~这一篇想写一写对话管…

【LeetCode】3月23日打卡-Day8

题1 链表的中间结点 描述 给定一个带有头结点 head 的非空单链表&#xff0c;返回链表的中间结点。 如果有两个中间结点&#xff0c;则返回第二个中间结点。 示例 1&#xff1a; 输入&#xff1a;[1,2,3,4,5] 输出&#xff1a;此列表中的结点 3 (序列化形式&#xff1a;[3,4,5…

KD Tree的原理及Python实现

1. 原理篇我们用大白话讲讲KD-Tree是怎么一回事。1.1 线性查找假设数组A为[0, 6, 3, 8, 7, 4, 11]&#xff0c;有一个元素x&#xff0c;我们要找到数组A中距离x最近的元素&#xff0c;应该如何实现呢&#xff1f;比较直接的想法是用数组A中的每一个元素与x作差&#xff0c;差的…

漆桂林 | 知识图谱的应用

本文作者为东南大学漆桂林老师&#xff0c;首发于知乎专栏知识图谱和智能问答 前面一篇文章“知识图谱之语义网络篇”已经提到了知识图谱的发展历史&#xff0c;回顾一下有以下几点&#xff1a; 1. 知识图谱是一种语义网络&#xff0c;即一个具有图结构的知识库&#xff0c;这里…

NLP预训练之路——从word2vec, ELMo到BERT

前言 还记得不久之前的机器阅读理解领域&#xff0c;微软和阿里在SQuAD上分别以R-Net和SLQA超过人类&#xff0c;百度在MS MARCO上凭借V-Net霸榜并在BLEU上超过人类。这些网络可以说一个比一个复杂&#xff0c;似乎“如何设计出一个更work的task-specific的网络"变成了NLP…

论文 | 信息检索结果Ranking的评价指标《RankDCG: Rank-Ordering Evaluation Measure》

未经允许&#xff0c;不得转载&#xff0c;谢谢~~ 一 文章简介 为什么要提出这个新的评价算法&#xff1f; 我们都知道ranking过程对于信息检索的结果是非常重要的&#xff0c;那么我们就需要有一些算法能评价ranking的结果到底如何。现有用来评价ranking的常用算法有&#xff…

【LeetCode】3月24日打卡-Day9

题1 按摩师 描述 一个有名的按摩师会收到源源不断的预约请求&#xff0c;每个预约都可以选择接或不接。在每次预约服务之间要有休息时间&#xff0c;因此她不能接受相邻的预约。给定一个预约请求序列&#xff0c;替按摩师找到最优的预约集合&#xff08;总预约时间最长&#x…

肖仰华 | 基于知识图谱的用户理解

本文转载自公众号知识工场。 本文整理自肖仰华教授在三星电子中国研究院做的报告&#xff0c;题目为《Understanding users with knowldge graphs》。 今天&#xff0c;很高兴有这个机会来这里与大家交流。 前面两位老师把基于社会影响力的传播和推荐&#xff0c;以及跨领域的…

【LeetCode】3月25日打卡-Day10

题1 三维形体的表面积 描述 在 N * N 的网格上&#xff0c;我们放置一些 1 * 1 * 1 的立方体。 每个值 v grid[i][j] 表示 v 个正方体叠放在对应单元格 (i, j) 上。 请你返回最终形体的表面积。 示例 1&#xff1a; 输入&#xff1a;[[2]] 输出&#xff1a;10 示例 2&#xf…