阿里云开源EasyTransfer:业界首个面向NLP场景深度迁移学习框架

在这里插入图片描述

阿里云开源EasyTransfer:业界首个面向NLP场景深度迁移学习框架
原文链接:https://zhuanlan.zhihu.com/p/267392773

阿里云正式开源了深度迁移学习框架 EasyTransfer,本文详细介绍了 EasyTransfer 框架的核心功能。

机器之心发布,机器之心编辑部。

近日,阿里云正式开源了深度迁移学习框架 EasyTransfer,这是业界首个面向 NLP 场景的深度迁移学习框架。

开源链接:github.com/alibaba/Easy

该框架由阿里云机器学习 PAI 团队研发,让自然语言处理场景的模型预训练和迁移学习开发与部署更加简单和高效。

面向自然语言处理场景的深度迁移学习在现实场景里有巨大的需求,因为大量新的领域不断涌现,传统的机器学习需要对每个领域都积累大量训练数据,这将会耗费大量标注的人力与物力。深度迁移学习技术可以将源领域学到的知识迁移到新的领域的任务,进而大大减少标注的资源。

尽管面向自然语言场景的深度迁移学习有很多的需求,目前开源社区还没有一个完善的框架,而且构建一个简单易用且高性能的框架有巨大挑战。

首先,预训练模型加知识迁移现在是主流的 NLP 应用模式,通常预训练模型尺寸越大学习到的知识表征越有效,然而超大的模型给框架的分布式架构带来了巨大挑战。如何提供一个高性能的分布式架构,从而有效支持超大规模的模型训练。

其次,用户应用场景的多样性很高,单一的迁移学习算法无法适用,如何提供一个完备的迁移学习工具来提升下游场景的效果。

第三,从算法开发到业务落地通常需要很长的链路,如何提供一个简单易用的从模型训练到部署的一站式服务。

面对这三大挑战,PAI 团队推出了 EasyTransfer,一个简单易用且高性能的迁移学习框架。框架支持主流的迁移学习算法,支持自动混合精度、编译优化和高效的分布式数据 / 模型并行策略,适用于工业级的分布式应用场景。

值得一提的是,配合混合精度、编译优化和分布式策略,EasyTransfer 支持的 ALBERT 模型比社区版的 ALBERT 在分布式训练的运算速度上快 4 倍多。

同时,经过了阿里内部 10 多个 BU,20 多个业务场景打磨,给 NLP 和迁移学习用户提供了多种便利,包括业界领先的高性能预训练工具链和预训练 ModelZoo,丰富易用的 AppZoo,高效的迁移学习算法,以及全面兼容阿里巴巴 PAI 生态产品,给用户提供一个从模型训练到部署的一站式服务。

阿里云机器学习 PAI 团队负责人林伟表示:本次开源 EasyTransfer 代码,希望把阿里能力赋能给更多的用户,降低 NLP 的预训练和知识迁移的门槛,同时也和更多伙伴一起深入合作打造一个简单,易用,高性能的 NLP 和迁移学习工具。

<img src="https://pic2.zhimg.com/v2-bd7934043d3037fe46d6a47ef5698dc1_b.jpg" data-caption="" data-size="normal" data-rawwidth="692" data-rawheight="227" class="origin_image zh-lightbox-thumb" width="692" data-original="https://pic2.zhimg.com/v2-bd7934043d3037fe46d6a47ef5698dc1_r.jpg"/>

框架六大亮点

  • 简单高性能的框架:屏蔽复杂的底层实现,用户只需关注模型的逻辑结构,降低了 NLP 和迁移学习的入门门槛;同时,框架支持工业级的分布式应用场景,改善了分布式优化器,配合自动混合精度,编译优化,和高效的分布式数据 / 模型并行策略,做到比社区版的多机多卡分布式训练在运算速度上快 4 倍多;
  • 语言模型预训练工具链:支持完整的预训练工具链,方便用户预训练语言模型如 T5 和 BERT,基于该工具链产出的预训练模型在中文 CLUE 榜单和英文 SuperGLUE 榜单取得很好的成绩;
  • 丰富且高质量的预训练模型 ModelZoo:支持 PAI-ModelZoo,支持 Bert,Albert,Roberta,XLNet,T5 等主流模型的 Continue Pretrain 和 Finetune。同时支持自研的多模态模型服装行业的 Fashionbert 等;
  • 丰富且易用的应用 AppZoo:支持主流的 NLP 应用和自研的模型应用,比方说文本匹配下支持 DAM++、HCNN 等单塔模型,以及 BERT 双塔 + 向量召回模型;阅读理解下支持 BERT-HAE 等模型;
  • 自动知识蒸馏工具:支持知识蒸馏,可以从大的 teacher 模型蒸馏到小的 student 模型。集成了任务有感知的 BERT 模型压缩 AdaBERT,采用了神经网路架构搜索去搜索出任务相关的架构去压缩原始的 BERT 模型,可以压缩最多到原来的 1/17,inference 最多提升 29 倍,且模型效果损失在 3% 以内;
  • 兼容 PAI 生态产品:框架基于 PAI-TF 开发,用户通过简单的代码或配置文件修改,就可以使用 PAI 自研高效的分布式训练,编译优化等特性;同时框架完美兼容 PAI 生态的产品,包括 PAI Web 组件(PAI Studio),开发平台(PAI DSW),和 PAI Serving 平台(PAI EAS)。

平台架构总览

EasyTransfer 的整体框架如下图所示,在设计上尽可能的简化了深度迁移学习的算法开发难度。框架抽象了常用的 IO,layers,losses,optimizers, models,用户可以基于这些接口开发模型,也可以直接接入预训练模型库 ModelZoo 快速建模。框架支持五种迁移学习 (TL) 范式,model finetuning,feature-based TL, instance-based TL, model-based TL 和 meta learning。同时,框架集成了 AppZoo,支持主流的 NLP 应用,方便用户搭建常用的 NLP 算法应用。最后,框架无缝兼容 PAI 生态的产品,给用户从训练到部署带来一站式的体验。

<img src="https://pic1.zhimg.com/v2-d4d680ff72ee42d91638a41d117e2540_b.jpg" data-caption="" data-size="normal" data-rawwidth="692" data-rawheight="382" class="origin_image zh-lightbox-thumb" width="692" data-original="https://pic1.zhimg.com/v2-d4d680ff72ee42d91638a41d117e2540_r.jpg"/>

平台功能详解

下面详细介绍下 EasyTransfer 框架的核心功能。

简单易用的 API 接口设计

<img src="https://pic1.zhimg.com/v2-77be06b23b004f060e38ad6c61656b44_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="493" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic1.zhimg.com/v2-77be06b23b004f060e38ad6c61656b44_r.jpg"/>

高性能分布式框架

EasyTransfer 框架支持工业级的分布式应用场景,改善了分布式优化器,配合自动混合精度,编译优化,和高效的分布式数据 / 模型并行策略,做到比社区版的多机多卡分布式训练在运算速度上快 4 倍多。

<img src="https://pic3.zhimg.com/v2-29ed4e6e1abe5446efbcae928d817ffe_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="628" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-29ed4e6e1abe5446efbcae928d817ffe_r.jpg"/>

丰富的 ModelZoo

框架提供了一套预训练语言模型的工具供用户自定义自己的预训练模型,同时提供了预训练语言模型库 ModelZoo 供用户直接调用。目前支持了 20 + 预训练模型,其中在 PAI 平台上预训练的 PAI-ALBERT-zh 取得中文 CLUE 榜单第一名,PAI-ALBERT-en-large 取得英文 SuperGLUE 第二名的好成绩。下面是详细的预训练模型列表:

<img src="https://pic3.zhimg.com/v2-1eb88bc7572ca8a175d45539fce3b556_b.jpg" data-caption="" data-size="normal" data-rawwidth="841" data-rawheight="223" class="origin_image zh-lightbox-thumb" width="841" data-original="https://pic3.zhimg.com/v2-1eb88bc7572ca8a175d45539fce3b556_r.jpg"/>

预训练模型在 CLUE 榜单的效果:

<img src="https://pic2.zhimg.com/v2-4991f050102fd41334e13ecef03aaa19_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="520" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic2.zhimg.com/v2-4991f050102fd41334e13ecef03aaa19_r.jpg"/>

SuperGLUE 的效果:

<img src="https://pic1.zhimg.com/v2-399f69daedeb4fc61145b5043c121b90_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="478" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic1.zhimg.com/v2-399f69daedeb4fc61145b5043c121b90_r.jpg"/>

丰富的 AppZoo

EasyTransfer 封装了高度易用、灵活且学习成本低的 AppZoo,支持用户在仅用几行命令的条件下 “大规模” 运行 “前沿” 的开源与自研算法,即可迅速接入不同场景和业务数据下的 NLP 应用,包括文本向量化、匹配、分类、阅读理解和序列标注等。

<img src="https://pic3.zhimg.com/v2-e174b2c7e48bfc77988871f77b4ff67a_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="528" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-e174b2c7e48bfc77988871f77b4ff67a_r.jpg"/>

高效的迁移学习算法

EasyTransfer 框架支持所有主流的迁移学习范式,包括 Model Fine-tuning, Feature-based TL, Instance-based TL, Model-based TL 和 Meta Learning。基于这些迁移学习范式开发了 10 多种算法,在阿里的业务实践中取得了良好效果的效果。后续所有的算法都会开源到 EasyTransfer 代码库里。在具体应用的时候,用户可以根据下图来选择一种迁移学习范式来测试效果。

<img src="https://pic3.zhimg.com/v2-399a0897b2c389d25fedae5f6215099a_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="325" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-399a0897b2c389d25fedae5f6215099a_r.jpg"/>

预训练语言模型

自然语言处理的一大热点工作就是预训练语言模型比方说 BERT,ALBERT 等,这类模型在各大自然语言处理场景都取得了非常不错的效果。为了更好的支持用户使用预训练语言模型,我们在新版的迁移学习框架 EasyTransfer 里植入了一套预训练语言模型的标准范式和预训练语言模型库 ModelZoo。传统 Albert 为了减少参数总量,取消了 bert 的 encoder 堆叠的方式,转而采用 encoder 循环的方式,如下图所示。全循环方式在下游任务上表现并不十分理想,于是我们将全循环改为了在 2 层堆叠的 encoder 上全循环。然后我们基于英文 C4 数据,重新对 Albert xxlarge 进行预训练。在预训练的过程中,我们仅仅使用 MLM loss,配合 Whole Word Masking,基于 EasyTransfer 的 Train on the fly 功能,我们实现了 dynamic online masking,即可以在每次读入原始句子的同时动态生成需要 masking 的 tokens。我们最终的预训练模型 PAI-ALBERT-en-large 在 SuperGLUE 榜单上取得国际第二,国内第一的成绩,模型参数仅仅为第一名 Google T5 的 1/10,效果差距在 3.5% 以内。后续我们会继续优化模型框架,争取以 1/5 的模型参数达到比 T5 更好的效果。

<img src="https://pic1.zhimg.com/v2-eb2e138e7db965fa2b2c7c8f877cacc8_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="579" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic1.zhimg.com/v2-eb2e138e7db965fa2b2c7c8f877cacc8_r.jpg"/>

多模态模型 FashionBERT

随着 Web 技术发展,互联网上包含大量的多模态信息,包括文本,图像,语音,视频等。从海量多模态信息搜索出重要信息一直是学术界研究重点。多模态匹配核心就是图文匹配技术(Text and Image Matching),这也是一项基础研究,在非常多的领域有很多应用,例如 图文检索(Cross-modality IR),图像标题生成(Image Caption),图像问答系统(Vision Question Answering), 图像知识推理(Visual Commonsense Reasoning)。但是目前学术界研究重点放在通用领域的多模态研究,针对电商领域的多模态研究相对较少。基于此,我们和阿里 ICBU 团队合作提出了 FashionBERT 多模态预训练模型,针对电商领域的图文信息进行预训练的研究,在多个跨模态检索和图文匹配等业务场景都有成功的应用。模型架构图如下所示。该工作提出了 Adaptive Loss,用于平衡图文匹配,纯图片,和纯文本三部分 loss。

<img src="https://pic3.zhimg.com/v2-f99a2938e10497216033e5131745957e_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="641" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-f99a2938e10497216033e5131745957e_r.jpg"/>

任务自适应的知识蒸馏

预训练模型从海量无监督数据中提取通用知识,并通过知识迁移的方法提升下游任务的效果,在场景里取得了优异的效果。通常预训练模型尺寸越大,学习到的知识表征对下游任务越有效,带来的指标提升也越明显。然而大模型显然无法满足工业界应用的时效性需求,因此需要考虑模型压缩。我们和阿里智能计算团队合作提出了一种全新的压缩方法 AdaBERT,利用可微神经架构搜索(Differentiable Neural Architecture Search)自动地将 BERT 压缩成任务自适应的小型模型。在这个过程中,我们将 BERT 作为老师模型,提炼它在目标任务上有用的知识;在这些知识的指导下,我们自适应地搜索一个适合目标任务的网络结构,压缩得到小规模的学生模型。我们在多个 NLP 公开任务上进行了实验评估,结果显示经由 AdaBERT 压缩后的小模型在保证精读相当的同时,推理速度比原始 BERT 快 12.7 到 29.3 倍,参数规模比原始 BERT 小 11.5 到 17.0 倍 。

<img src="https://pic3.zhimg.com/v2-ad0456d69f61019db4753a11066b8cfe_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="318" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-ad0456d69f61019db4753a11066b8cfe_r.jpg"/>

QA 场景领域关系学习

早在 2017 年,我们就在阿里小蜜问答场景里面尝试了迁移学习,我们主要侧重于 DNN based Supervised TL。这类算法主要有两种框架,一个是 Fully-shared(FS),另外一个是 Specific-shared(SS)。两者最大的差别是前者只考虑了 shared representation,而后者考虑了 specific representation。通常来说 SS 的模型效果比 FS 效果好,因为 FS 可以看作是 SS 的一个特例。对于 SS 来说,最理想的情况下是 shared 的部分表示的是两个领域的共性,specific 的部分表示的是特性。然而往往我们发现要达到这样的效果很难,于是我们考虑用一个 adversarial loss 和 domain correlation 来协助模型学好这两部分特征。基于此,我们提出了一个新的算法,hCNN-DRSS,架构如下所示:

<img src="https://pic4.zhimg.com/v2-723f12e6227a8bf6683e483d045f7d53_b.jpg" data-caption="" data-size="normal" data-rawwidth="620" data-rawheight="238" class="origin_image zh-lightbox-thumb" width="620" data-original="https://pic4.zhimg.com/v2-723f12e6227a8bf6683e483d045f7d53_r.jpg"/>

我们将这个算法应用在了小蜜的实际业务场景中,在多个业务场景里(AliExpress, 万象,Lazada)取得了不错的效果。同时我们也在 WSDM2018 产出了一篇文章: Modelling Domain Relationships for Transfer Learning on Retrieval-based Question Answering Systems in E-commerce. Jianfei Yu, Minghui Qiu, et al., WSDM 2018。

强化迁移学习 Reinforced Transfer Learning

迁移学习的有效性,很大程度上取决于 source domain 和 target domain 之间的 gap,如果 gap 比较大,那么迁移很可能是无效的。在小蜜 QA 场景,如果直接把 Quora 的 text matching 数据迁移过来,有很多是不太合适的。我们在小蜜的 QA 场景,基于 Actor-Critic 算法,搭建了一个通用的强化迁移学习框架,用 RL 来做样本选择,帮助 TL 模型取得更好的效果。整个模型分三部分,基础 QA 模型,迁移学习模型 (TL) 和强化学习模型(RL)。其中 RL 的 policy function 负责选出高质量的样本(actions),TL 模型在选出来的样本上训练 QA 模型并提供反馈给 RL,RL 根据反馈(reward)来更新 actions。该框架训练的模型在双 11AliExpress 的俄语和西语匹配模型,在西语和俄语的匹配准确率都取得了非常不错的提升。同时,我们也将成果整理成论文,发表在 WSDM2019. (Learning to Selectively Transfer: Reinforced Transfer Learning for Deep Text Matching. Chen Qu, Feng Ji, Minghui Qiu, et al., WSDM 2019.)

<img src="https://pic3.zhimg.com/v2-dba4c435abbfb4cc85c39c4d153d022e_b.jpg" data-caption="" data-size="normal" data-rawwidth="897" data-rawheight="598" class="origin_image zh-lightbox-thumb" width="897" data-original="https://pic3.zhimg.com/v2-dba4c435abbfb4cc85c39c4d153d022e_r.jpg"/>

元调优 Meta Fine-tuning

预训练语言模型的广泛应用,使得 Pre-training+Fine-tuning 的两阶段训练模型成为主流。我们注意到,在 fine-tuning 阶段,模型参数仅在特定领域、特定数据集上 fine-tune,没有考虑到跨领域数据的迁移调优效果。元调优(Meta Fine-tuning)算法借鉴 Meta-learning 的思想,旨在学习预训练语言模型跨领域的 meta-learner,从而使得学习的 meta-learner 可以快速迁移到特定领域的任务上。这一算法学习训练数据样本的跨领域 typicality(即可迁移性),同时在预训练语言模型中增加 domain corruption classifier,使得模型更多地学习到领域无关的特征(domain-invariant representations)。

<img src="https://pic3.zhimg.com/v2-7112b6596ceae7be9c20acec04d6bbba_b.jpg" data-caption="" data-size="normal" data-rawwidth="1080" data-rawheight="364" class="origin_image zh-lightbox-thumb" width="1080" data-original="https://pic3.zhimg.com/v2-7112b6596ceae7be9c20acec04d6bbba_r.jpg"/>

我们将该 fine-tuning 算法应用于 BERT,在自然语言推理和情感分析等多个任务上进行了实验。实验结果表明,元调优算法在这些任务上都优于 BERT 的原始 fine-tuning 算法和基于 transfer learning 的 fine-tuning 算法。我们也将成果整理成 paper,发表在 EMNLP 2020. (Meta Fine-Tuning Neural Language Models for Multi-Domain Text Mining. Chengyu Wang, Minghui Qiu, Jun Huang, et al., EMNLP 2020.)

元知识蒸馏 Meta-Knowledge Distillation

随着 BERT 等预训练语言模型在各项任务上都取得了 SOTA 效果,BERT 这类模型已经成为 NLP深度迁移学习管道中的重要组成部分。但 BERT 并不是完美无瑕的,这类模型仍然存在以下两个问题:模型参数量太大和训练 / 推理速度慢的问题,因此一个方向是将 BERT 知识蒸馏到一个小模型。但是大部分的知识蒸馏工作都聚焦在同一个领域,而忽略了跨领域对蒸馏任务提升的问题。我们提出了用 Meta Learning 的方式将跨领域的可迁移知识学出,在蒸馏阶段额外对可迁移的知识进行蒸馏。这样的做法使得学习到的 Student 模型在相应的领域的效果显著提升,我们在多个跨领域的任务上都蒸馏出了较好的学生模型,逼近教师模型的效果。我们近期会梳理这个工作,发布代码和文章。

创新文章列表

EasyTransfer 框架已在阿里集团内数十个 NLP 场景落地,包括智能客服、搜索推荐、安全风控、大文娱等,带来了显著业务效果的提升。目前 EasyTransfer 日常服务有上亿次调用,月均训练调用量超过 5 万次。EasyTransfer 团队在落地业务的同时也沉淀了很多的创新的算法解决方案,包括元学习,多模态预训练,强化迁移学习,特征迁移学习等方向的工作,共合作发表了几十篇顶级会议文章,下面列举一些代表性工作。后续这些算法都会在 EasyTransfer 框架里开源供广大用户使用。

  • [EMNLP 2020]. Meta Fine-Tuning Neural Language Models for Multi-Domain Text Mining. EMNLP 2020. Full Paper.
  • [SIGIR 2020] FashionBERT: Text and Image Matching for Fashion Domain with Adaptive Loss.
  • [ACM MM 2020] One-shot Learning for Text Field Labeling in Structure Information Extraction. To appear, Full Oral paper.
  • [IJCAI 2020] AdaBERT: Task-Adaptive BERT Compression with Differentiable Neural Architecture Search, IJCAI 2020.
  • [KDD 2019] A Minimax Game for Instance based Selective Transfer Learning. Oral, KDD 2019.
  • [CIKM 2019] Cross-domain Attention Network with Wasserstein Regularizers for E-commerce Search, CIKM 2019.
  • [WWW 2019] Multi-Domain Gated CNN for Review Helpfulness Prediction, WWW.
  • [SIGIR 2019]. BERT with History Modeling for Conversational Question Answering. SIGIR 2019.
  • [WSDM 2019]. Learning to Selectively Transfer: Reinforced Transfer Learning for Deep Text Matching. WSDM 2019, Full Paper.
  • [ACL 2018]. Transfer Learning for Context-Aware Question Matching in Information-seeking Conversation Systems in E-commerce. ACL. 2018.
  • [SIGIR 2018]. Response Ranking with Deep Matching Networks and External Knowledge in Information-seeking Conversation Systems. Long Paper.
  • [WSDM 2018]. Modelling Domain Relationships for Transfer Learning on Retrieval-based Question Answering Systems in E-commerce, 2018. Long Paper.
  • [CIKM 2017]. AliMe Assist: An Intelligent Assistant for Creating an Innovative E-commerce Experience, CIKM 2017, Demo Paper, Best Demo Award.
  • [ICDM 2017]. A Short-Term Rainfall Prediction Model using Multi-Task Convolutional Neural Networks. Long paper, ICDM 2017.
  • [ACL 2017]. AliMe Chat: A Sequence to Sequence and Rerank based Chatbot Engine,ACL 2017.
  • [arXiv]. KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation Classification,arXiv.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478987.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LeetCode 559. N叉树的最大深度

文章目录1. 题目2. 解题2.1 递归2.2 按层queue遍历1. 题目 给定一个 N 叉树&#xff0c;找到其最大深度。 最大深度是指从根节点到最远叶子节点的最长路径上的节点总数。 2. 解题 2.1 递归 class Solution { public:int maxDepth(Node* root) {if(root NULL)return 0;int …

全链路压测平台(Quake)在美团中的实践

背景 在美团的价值观中&#xff0c;“以客户为中心”被放在一个非常重要的位置&#xff0c;所以我们对服务出现故障越来越不能容忍。特别是目前公司业务正在高速增长阶段&#xff0c;每一次故障对公司来说都是一笔非常不小的损失。而整个IT基础设施非常复杂&#xff0c;包括网络…

陈华钧等 | OpenKG区块链:构建可信开放的联邦知识图谱平台

文章导读本文介绍了OpenKG在区块链方向的一些实践和尝试。经过一年努力&#xff0c;OpenKG初步完成了底层区块链平台测试&#xff0c;以及OpenKG数据集、工具集和Openbase细粒度知识众包的上链测试工作。在这个测试平台中&#xff0c;已包含1033位确权的知识贡献者。上链测试两…

ICLR'21 | 一个二值化词向量模型,是怎么跟果蝇搭上关系的?

文&#xff5c;苏剑林&#xff08;追一科技&#xff09; 编 | 小轶可能有些读者最近会留意到ICLR 2021的论文Can a Fruit Fly Learn Word Embeddings?&#xff0c;文中写到它是基于仿生思想&#xff08;仿果蝇的嗅觉回路&#xff09;做出来的一个二值化词向量模型。其实论文的…

如何解决NLP分类任务的11个关键问题:类别不平衡低耗时计算小样本鲁棒性测试检验长文本分类 JayLou娄杰

原文链接&#xff1a;https://zhuanlan.zhihu.com/p/183852900 欢迎关注《高能AI》公众号&#xff5e;声明&#xff1a;文中观点谨代表笔者个人立场&#xff0c;盲目搬运有风险&#xff5e;在2020这个时间节点&#xff0c;对于NLP分类任务&#xff0c;我们的关注重点早已不再是…

LeetCode 908. 最小差值 I

1. 题目 给定一个整数数组 A&#xff0c;对于每个整数 A[i]&#xff0c;我们可以选择任意 x 满足 -K < x < K&#xff0c;并将 x 加到 A[i] 中。 在此过程之后&#xff0c;我们得到一些数组 B。 返回 B 的最大值和 B 的最小值之间可能存在的最小差值。 示例 1&#x…

论文浅尝 - AAAI2020 | 基于知识图谱进行对话目标规划的开放域对话生成技术

论文笔记整理&#xff1a;张傲&#xff0c;天津大学硕士。Knowledge Graph Grounded Goal Planning for Open-Domain Conversation Generation来源&#xff1a;哈工大SCIR动机让机器生成有内容并且主题连贯的多轮开放域对话&#xff0c;是人工智能公认的关键任务之一。针对这一…

一个程序员的“无聊”故事

文 | Cat Chen知乎本文已获作者授权&#xff0c;禁止二次转载不同时期的生活方式是非常不一样的。我觉得最重要的是意识到这一点&#xff0c;不要以为某一种生活方式会一直延续下去。这个世界上不会存在特定的程序员生活方式&#xff0c;你在不同的公司工作就会遇到不一样的公司…

LeetCode 349. 两个数组的交集(哈希)

1. 题目 给定两个数组&#xff0c;编写一个函数来计算它们的交集。 示例 1:输入: nums1 [1,2,2,1], nums2 [2,2] 输出: [2] 示例 2:输入: nums1 [4,9,5], nums2 [9,4,9,8,4] 输出: [9,4] 说明:输出结果中的每个元素一定是唯一的。 我们可以不考虑输出结果的顺序。来源&am…

论文浅尝 | Iterative Cross-Lingual Entity Alignment Based on TransC

论文笔记整理&#xff1a;谭亦鸣&#xff0c;东南大学博士。来源&#xff1a;IEICE TRANSACTIONS on Information and Systems, 2020, 103(5): 1002-1005.链接&#xff1a;https://www.jstage.jst.go.jp/article/transinf/E103.D/5/E103.D_2019DAL0001/_pdf介绍这篇论文关注的任…

ARKit:增强现实技术在美团到餐业务的实践

前言 增强现实&#xff08;Augmented Reality&#xff09;是一种在视觉上呈现虚拟物体与现实场景结合的技术。Apple 公司在 2017 年 6 月正式推出了 ARKit&#xff0c;iOS 开发者可以在这个平台上使用简单便捷的 API 来开发 AR 应用程序。 本文将结合美团到餐业务场景&#xff…

腾讯天衍实验室新算法入选国际万维网大会 新冠疫苗AI问答上线

新冠疫苗的效用和安全性如何&#xff1f;怎么预约接种新冠疫苗&#xff1f;哪些人可以接种新冠疫苗&#xff1f;接种新冠疫苗是否收费&#xff1f;进入年底&#xff0c;随着全国新冠疫苗接种工作规范有序开展&#xff0c;各地接种人数在不断增加&#xff0c;但在逐步面向全民推…

LeetCode 965. 单值二叉树

文章目录1. 题目2. 解题2.1 递归2.2 循环1. 题目 如果二叉树每个节点都具有相同的值&#xff0c;那么该二叉树就是单值二叉树。 只有给定的树是单值二叉树时&#xff0c;才返回 true&#xff1b;否则返回 false。 2. 解题 2.1 递归 class Solution { public:bool isUnivalT…

论文浅尝 - SIAM ICDM 2020 | 基于图时空网络的知识引导的诊断预测

论文笔记整理&#xff1a;吴锐&#xff0c;东南大学硕士。来源&#xff1a;SIAM ICDM 2020论文下载地址&#xff1a;https://epubs.siam.org/doi/abs/10.1137/1.9781611976236.3 动机基于电子病历&#xff08;EHR&#xff0c;Electronic Health Records&#xff09;对患者未来的…

Oceanus:美团HTTP流量定制化路由的实践

背景 Oceanus是美团基础架构部研发的统一HTTP服务治理框架&#xff0c;基于Nginx和ngx_lua扩展&#xff0c;主要提供服务注册与发现、动态负载均衡、可视化管理、定制化路由、安全反扒、session ID复用、熔断降级、一键截流和性能统计等功能。本文主要讲述Oceanus如何通过策略抽…

文本对抗攻击入坑宝典

文 | 阿毅编 | 小轶如果是咱家公众号的忠实粉丝就一定还记得之前咱家一篇关于NLP Privacy的文章&#xff0c;不出意外的话&#xff0c;你们是不是现在依然还担心自己的隐私被输入法窃取而瑟瑟发抖。所以&#xff0c;我们又来了&#xff01;今天给大家讨论的是NLP Privacy中一个…

LeetCode 350. 两个数组的交集 II(哈希)

文章目录1. 题目2. 解题2.1 hash2.2 数组已排序1. 题目 给定两个数组&#xff0c;编写一个函数来计算它们的交集。 示例 1:输入: nums1 [1,2,2,1], nums2 [2,2] 输出: [2,2] 示例 2:输入: nums1 [4,9,5], nums2 [9,4,9,8,4] 输出: [4,9] 说明&#xff1a;输出结果中每个元…

会议交流 | CCKS2020 第十四届全国知识图谱与语义计算大会

CCKS2020第十四届全国知识图谱与语义计算大会China Conference on Knowledge Graph and Semantic Computing, 2020南昌.江西&#xff0c;11月12日-15日主办: 中国中文信息学会语言与知识计算专业委员会承办: 江西师范大学会议网站&#xff1a;www.sigkg.cn/ccks2020大会主题&a…

用微前端的方式搭建类单页应用

前言 微前端由ThoughtWorks 2016年提出&#xff0c;将后端微服务的理念应用于浏览器端&#xff0c;即将 Web 应用由单一的单体应用转变为多个小型前端应用聚合为一的应用。 美团已经是一家拥有几万人规模的大型互联网公司&#xff0c;提升整体效率至关重要&#xff0c;这需要很…

12种NumpyPandas高效技巧

文 | Kunal Dhariwal本文分享给大家 12 种 Numpy 和 Pandas 函数&#xff0c;这些高效的函数会令数据分析更为容易、便捷。最后&#xff0c;读者也可以在 GitHub 项目中找到本文所用代码的 Jupyter Notebook。项目地址&#xff1a;https://github.com/kunaldhariwal/12-Amazing…