28篇标志性论文见证「自然语言处理NLP」2019-2020年度亮点进展

来源:专知

【导读】自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章中,我想重点介绍一些我在2019年遇到的与机器学习和NLP相关的最重要的故事。我将主要关注NLP,但我还将重点介绍一些与AI相关的有趣故事。标题没有特别的顺序。故事可能包括论文,工程工作,年度报告,教育资源的发布等。

  • 论文刊物

  • ML / NLP创造力与社会

  • ML / NLP工具和数据集

  • 文章和博客文章

  • 人工智能伦理

  • ML / NLP教育

Google AI引入了ALBERT ,它是BERT 的精简版本,用于自监督学习上下文语言表示。主要改进是减少冗余并更有效地分配模型的容量。该方法提高了12个NLP任务的最新性能。

  • Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut: ALBERTA Lite BERT for Self-supervised Learning of Language Representations.ICLR 2020. 

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186

    https://arxiv.org/abs/1810.04805

机器在比赛中的表现(类似sat的阅读理解)。随机猜测的基线得分为25.0。最高分是95.0分。

今年早些时候,NVIDIA的研究人员发表了一篇颇受欢迎的论文(Coined StyleGAN)(https://arxiv.org/pdf/1812.04948.pdf),提出了一种从样式转换中采用的GAN替代生成器架构。这是一项后续工作(https://arxiv.org/pdf/1912.04958v1.pdf),着重于改进,例如重新设计生成器归一化过程。

  • Tero Karras, Samuli Laine, Timo Aila: A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

  • Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排显示目标图像,下排显示合成图像

我今年最喜欢的论文之一是code2seq(https://code2seq.org/),它是一种从结构化代码表示中生成自然语言序列的方法。这样的研究可以让位于诸如自动代码摘要和文档之类的应用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav: code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有没有想过是否有可能为生物医学文本挖掘训练生物医学语言模型?答案是BioBERT(https://arxiv.org/abs/1901.08746),这是一种从生物医学文献中提取重要信息的情境化方法。

  • Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang: BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT发布后,Facebook研究人员发布了RoBERTa,该版本引入了新的优化方法来改进BERT,并在各种NLP基准上产生了最新的结果。(https://ai.facebook.com/blog/-teaching-ai-to-plan-using-language-in-a-new-open-source-strategy-game/)

  • Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov: RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

来自Facebook AI的研究人员最近还发布了一种基于全注意力关注层的方法,用于提高Transformer语言模型的效率。从这个研究小组更多的工作包括方法来教如何使用自然语言规划的AI系统。

  • Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin: Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解释性仍然是机器学习和NLP中的重要主题。集大成者!可解释人工智能(XAI)研究最新进展万字综述论文: 概念体系机遇和挑战—构建负责任的人工智能

  • Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera: Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. CoRR abs/1910.10045 (2019)

Sebastian Ruder发表了有关自然语言处理的神经迁移学习的论文

(https://ruder.io/thesis/)。

  • Ruder2019Neural, Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人员开发了一种在对话中进行情感识别的方法(https://arxiv.org/abs/1910.04980),可以为情感对话的产生铺平道路。另一个相关的工作涉及一种称为DialogueGCN(https://www.aclweb.org/anthology/D19-1015.pdf)的GNN方法,以检测对话中的情绪。该研究论文还提供了代码实现。

  • Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea: Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling. CoRR abs/1910.04980 (2019)

  • Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh: DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum团队在《自然》杂志上发表了一篇论文(https://www.nature.com/articles/s41586-019-1666-5),他们声称自己开发了一种量子计算机,其速度比世界上最大的超级计算机还要快。在此处详细了解他们的实验。

  • Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神经网络体系结构需要大量改进的领域之一是可解释性。本论文(https://arxiv.org/abs/1908.04626)探讨了在语言模型的上下文explainability一个可靠的方法关注的局限性。

  • Sarah Wiegreffe, Yuval Pinter: Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神经逻辑机器是一种神经符号网络体系结构(https://arxiv.org/abs/1904.11694),能够很好地在归纳学习和逻辑推理方面做得很好。该模型在诸如排序数组和查找最短路径之类的任务上表现出色。

  • Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神经逻辑机器架构

这是一篇将Transformer语言模型应用于提取和抽象神经类文档摘要的论文(https://arxiv.org/abs/1909.03186)。

  • Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:  On Extractive and Abstractive Neural Document Summarization with Transformer Language ModelsCoRRabs/1909.03186 (2019)

研究人员开发了一种方法,侧重于使用比较来建立和训练ML模型。这种技术不需要大量的特征标签对,而是将图像与以前看到的图像进行比较,以确定图像是否属于某个特定的标签。

https://blog.ml.cmu.edu/2019/03/29/building-machine-learning-models-via-comparisons/

Nelson Liu等人发表了一篇论文,讨论了预先训练的语境设定者(如BERT和ELMo)获取的语言知识的类型。

https://arxiv.org/abs/1903.08855

  • Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一种前训练方法,它在20个任务上都比BERT有改进。我写了一个总结,这伟大的工作在这里。

https://arxiv.org/abs/1906.08237

  • Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le: XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

这项来自DeepMind的工作报告了一项广泛的实证调查的结果,该调查旨在评估应用于各种任务的语言理解模型。这种广泛的分析对于更好地理解语言模型所捕获的内容以提高它们的效率是很重要的。

https://arxiv.org/abs/1901.11373

  • Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kociský, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom: Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一个简单而健壮的框架,用于建模视觉和语言任务,包括VQA和Flickr30K等。这种方法利用了一组Transformer层,并结合了self-attention来对齐文本中的元素和图像中的区域。

https://arxiv.org/abs/1908.03557

  • Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang: VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

这项工作提供了一个详细的分析比较NLP转移学习方法和指导NLP的从业者。

https://arxiv.org/abs/1903.05987

  • Matthew E. Peters, Sebastian Ruder, Noah A. Smith: To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks. RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的实现,能够产生高质量、流畅的表示。

https://arxiv.org/abs/1902.04094

Facebook的研究人员发表了XLM的代码(PyTorch实现),这是一个跨语言模型的预培训模型。

https://github.com/facebookresearch/XLM

本文全面分析了强化学习算法在神经机器翻译中的应用。

https://www.cl.uni-heidelberg.de/statnlpgroup/blog/rl4nmt/

这篇发表在JAIR上的调查论文对跨语言单词嵌入模型的培训、评估和使用进行了全面的概述。

https://jair.org/index.php/jair/article/view/11640

Gradient发表了一篇优秀的文章,详细阐述了强化学习目前的局限性,并提供了一条潜在的分级强化学习的前进道路。一些人发布了一套优秀的教程来开始强化学习。

https://thegradient.pub/the-promise-of-hierarchical-reinforcement-learning/

这篇简要介绍了上下文词表示。

https://arxiv.org/abs/1902.06006

参考链接:

https://medium.com/dair-ai/nlp-year-in-review-2019-fb8d523bcb19

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/488827.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

spark while_05_尚硅谷大数据技术之Spark内核解析(1.1) - 十一vs十一

尚硅谷大数据课程之Spark内核解析(作者:尚硅谷大数据研发部)官网:版本:V1. Spark 内核概述Spark内核泛指Spark的核心运行机制,包括Spark核心组件的运行机制、Spark任务调度机制、Spark内存管理机制、Spark核心功能的运行原理等&am…

AI初创公司都去哪了?2019年科技公司“五巨头”收购盘点

大数据文摘出品来源:venturebeat人工智能人才的争夺大战愈演愈烈。 今年,Pinterest的首席技术官Vanja Josifovski离职加入了Airbnb,而Pinterest则聘请了沃尔玛的首席技术官Jeremy King来领导工程团队。此外,包括谷歌和苹果在内的所…

angular element()

使用angular.element()获取一个dom的方法。 1.可以使用jquery的选择器 2.可以使用javascript的原生查找元素的方法 下面是angular.element()提供的方法 <input type"checkbox" class"input" /><input type"text" class"input1&quo…

【前沿科技】看完这篇文章前,你绝对想象不到欧美航空机器人竟然发展到这个程度了!...

来源&#xff1a;中国机器人网《工程》杂志撰文认为&#xff0c;工业机器人在许多行业中已经建立了良好的基础&#xff0c;并且通常与现代化的先进制造系统相关联&#xff0c;但是&#xff0c;航空制造仍然严重依赖熟练的手工作业。航空制造中采用机器人的一个主要障碍是缺乏精…

beautifulsoup网页爬虫解析_Python爬虫快速入门,静态网页爬取

在开始之前&#xff0c;请确保你的电脑上已经安装好了BeautifulSoup库&#xff0c;可以通过在命令行中输入pip install beautifulsoup4来进行安装。一、数据解析在爬取之前&#xff0c;我们需要检测下响应状态码是否为200&#xff0c;如果请求失败&#xff0c;我们将爬取不到任…

当超级智能崛起时……

来源&#xff1a;资本实验室“大雷&#xff0c;你脑子没出啥毛病吧&#xff1f;”李春花轻声问道&#xff0c;眼睛里满是关切的神色。“喔&#xff0c;你放心&#xff0c;俺没事&#xff01;上次的事故之后&#xff0c;我的芯片和操作系统都已经升级到最新版本啦&#xff01;”…

小米小爱音箱Pro8安装app_小米小爱音箱HD获DXO评为第二!低音准确度很高

前几天&#xff0c;知名评测机构DXOMARK公布了用于测试无线音箱音质的新基准——DXOMARK Speaker。据了解&#xff0c;这个基准由百个测试汇集而成&#xff0c;该机构称这个基准为针对音箱产品唯一的科学评分。11月9日&#xff0c;该机构发文称&#xff0c;小米小爱音箱HD获得了…

Lua的垃圾回收机制详解

Lua 是一种轻量级的编程语言&#xff0c;广泛用于嵌入到其他应用程序中&#xff0c;尤其是在游戏开发领域。Lua 的内存管理机制采用了自动垃圾收集&#xff08;Garbage Collection&#xff09;的方法。以下是Lua内存管理的一些关键方面&#xff1a; 垃圾收集原理概述 Lua 使用…

2020年AI怎么发展?听加州大学、谷歌、英伟达、IBM怎么说

来源&#xff1a;机器之心AI 领域最杰出的头脑如何总结 2019 年技术进展&#xff0c;又如何预测 2020 年发展趋势呢&#xff1f;本文介绍了 Soumith Chintala、Celeste Kidd、Jeff Dean 等人的观点。人工智能不是将要改变世界&#xff0c;而是正在改变世界。在新年以及新的十年…

ip打包后如何加入 xilinx_科普!插上USB设备后电脑是怎么识别的呢?

欢迎FPGA工程师加入官方微信技术群每次当插上鼠标或者U盘的时候&#xff0c;电脑是怎么知道是什么设备的呢&#xff1f;这里用到的就是枚举了。枚举&#xff0c;其实就是让HOST认识这个USB涉笔&#xff0c;并且为该设备准备资源&#xff0c;建立好主机和设备之间的数据传递机制…

两院院士评选2019年中国、世界十大科技进展新闻揭晓

来源&#xff1a;科学网由中国科学院、中国工程院主办&#xff0c;中国科学院学部工作局、中国工程院办公厅、中国科学报社承办&#xff0c;中国科学院院士和中国工程院院士投票评选的2019年中国十大科技进展新闻、世界十大科技进展新闻&#xff0c;1月11日在京揭晓。此项年度评…

android炫酷叼ui,XUI: 一个简洁而优雅的Android原生UI框架,解放你的双手!

XUI一个简洁而又优雅的Android原生UI框架&#xff0c;解放你的双手&#xff01;还不赶紧点击使用说明文档&#xff0c;体验一下吧&#xff01;涵盖绝大部分的UI组件&#xff1a;TextView、Button、EditText、ImageView、Spinner、Picker、Dialog、PopupWindow、ProgressBar、Lo…

笔记本电脑麦克风在哪里_定制款MacBook Pro? 13.3 体验 “旧”时代的 One Pecie_笔记本电脑...

2020-11-11 13:19:377点赞18收藏18评论9月28日 - 11月12日&#xff0c;参与#双11购物攻略#征稿活动&#xff0c;赢取苹果全家桶8888元超级锦鲤大奖&#xff01;瓜分十万金币&#xff0c;值得买周边一次全攒齐&#xff01;品类、品牌、场景、价格&#xff0c;快来分享你的购物心…

杨振宁眼中的物理学之美

来源&#xff1a;EETOP本文是当代物理学大师杨振宁教授1997年1月17日在香港中华科学与社会协进会与香港中文大学主办的演讲会上的演讲词&#xff0c;讲题原为“科学工作有没有风格”。转载于香港《二十一世纪》杂志1997 年 4 月号&#xff0c;总第40期&#xff1b;也收入杨振宁…

wechat电脑版_【学术工具】如何快速、免费翻译英文材料?原创·WeChat公号:本硕博资讯...

★学术工具英文材料免费翻译如何快速、免费翻译英文材料&#xff1f;原创WeChat公号&#xff1a;本硕博资讯分享一些亲测可用的资源&#xff0c;仅用于学术交流。建议大家试着自己翻译&#xff0c;提升英语水平。版权声明&#xff1a;如有侵权问题请通过邮箱或者公众号后台私信…

20155234 2016-2017-2 《Java程序设计》第5周学习总结

20155234 2016-2017-2 《Java程序设计》第5周学习总结 教材学习内容总结 Java中所有错误都会被打包为对象&#xff0c;运用try、catch&#xff0c;可以在错误发生时显示友好的错误信息。运用try、catch&#xff0c;还可以在捕捉处理错误之后&#xff0c;尝试恢复程序正常执行流…

harmonyos 编译打包生成app,鸿蒙(HarmonyOS)App开发入门(2)—运行HelloWorld

前言为确保HarmonyOS应用的完整性&#xff0c;HarmonyOS通过数字证书和授权文件来对应用进行管控&#xff0c;只有签名过的HAP(编译产物&#xff0c;后面章节详细讲述&#xff0c;本章主要讲证书申请到代码运行到真机)才允许安装到设备上进行运行(如果不带签名信息&#xff0c;…

【周末阅读】你不得不知道的10大AI赋能行业,你身边都能找到!

来源&#xff1a;青岛智能产业技术研究院智能产业 前沿高地【导读】AI正突破诸多技术瓶颈&#xff0c;在市政、交通、医疗、等行业横向渗透&#xff0c;逐步走入大众日常生活中。国务院印发的《新一代人工智能发展规划》中指出&#xff0c;2020年人工智能产业规模将超过1500亿元…

bindresult必须在哪个位置_管道疏通剂哪个牌子好 管道疏通机使用方法有哪些

平时大家不用的水或者一些物品&#xff0c;在处理的时候应该都会倒到下水道之中&#xff0c;而下水道确实具备着这一种效果&#xff0c;但很多时候&#xff0c;下水道往往会因为口比较小&#xff0c;而被一些物品所堵塞&#xff0c;这样一来&#xff0c;影响上其实会非常大&…

华为深度学习新模型DeepShift:移位和求反代替乘法,神经网络成本大降

来源&#xff1a;机器学习研究会订阅号【导读】深度学习模型&#xff0c;尤其是卷积神经网络的计算成本问题主要是由于卷积层和全连接层中大量进行乘法运算造成的。华为异构实验室的研究人员提出&#xff0c;用移位和求反运算代替乘法&#xff0c;可有效缓解计算成本过高的问题…