AI领域五年引用量最高的10大论文:Adam登顶,AlphaGo、Transfromer上榜

来源:图灵人工智能

编译:琰琰

近五年来,AI学术论文的投稿量和接收量都在不断攀升,包括NeurIPS、AAAI、ACL,ICML、EMNLP等国际顶会。根据权威数据统计,NeurIPS论文收录量在2019年呈指数级增长,领先AAAI近300篇;而AAAI 在2020年创下历史新高,达到了1692篇。

如何在海量论文库中发现最具影响力的论文,谷歌引用次数是学者们参考的一项重要指标,它在一定程度上反映了论文的质量。

近日,知名外媒《Towards Data Science》按这一指标,统计了近五年来发表在各大国际顶级会上引用量排名前十的论文。

根据统计结果显示,Top 10 论文引用量最高为67514次,最低6995次,全部出自ICLR、NeurIPSR、NeurIPS、ICML以及《Nature》四家期刊,覆盖深度学习、机器学、强化学习、视觉处理、自然语言处理等多个领域。其中,智能体AlphaGo、Transfromer模型、强化学习算法DQN,以及神经网络优化算法Adam全部在列。

大部分论文所属研究机构为Google Brain 、Facebook AI Research、DeepMind以及Amsterdam University,作者包括我们熟知的AI大佬Ian J. Goodfellow,Kaiming He Thomas Kipf 、Ashish Vaswani 等。

下面AI科技评论按引用次数从低到高的顺序对Top 10 论文进行简要整理:

Top10:Explaining and Harnessing Adversarial Examples

作者:Ian J. Goodfellow, J Shlens, C Szegedy ,收录于 ICLR 2015,引用 6995次.

论文地址:https://arxiv.org/abs/1412.6572

该论文介绍了快速生成神经网络对抗性示例的方法,并引入了对抗性训练作为正则化技术。

一些机器学习模型,包括最先进的神经网络都容易受到对抗攻击。如对数据集中的示例故意施加微小扰动,模型会对输入示例进行错误分类,从而使得扰动的输入结果以高置信度输出不正确的答案。

对于这一现象,早期的处理方法集中在非线性和过度拟合上。在本篇论文中,研究人员提出神经网络模型易受干扰的主要因其线性性质。通过定量实验,他们发现对抗样本在模型结构和训练集之间的泛化,并由此提出了一种简单而高效的生成对抗性例子的方法,即快速梯度符号法(Fast Gradient Sign Method)。

该方法的主要思想是让扰动的变化量与梯度的变化方向完全一致,通过增大误差函数,以对分类结果产生最大变化。他们认为,在构造对抗样本时更应该关心扰动的反向而不是扰动的数目。经实验,该方法可以有效减少MNIST数据集上maxout网络的测试集误差。 

图注:在ImageNet上用GoogLeNet快速对抗生成的示例

影响力:本篇论文揭示了一个普遍的现象,即攻击者对输入进行微小的修改就可以显著降低任何精确机器学习模型的性能。这一现象已经在其他任务和模式(如文本和视频)中观察到,并影响了了大量研究工作。

Top9:Semi-Supervised Classification with Graph Convolutional Networks

作者:Thomas Kipf 、Max  Welling, 收录于ICLR 2017, 引用7021次

论文地址:https://arxiv.org/abs/1609.02907

这篇论文证明了图卷积网络(GCN)在半监督节点分类任务中性能优越。

论文中,研究人员提出了一种可扩展的图结构数据半监督学习方法,该方法基于一种高效地、可直接操作于图的卷积神经网络。通过谱图卷积(spectral graph convolutions)的局部一阶近似来激励卷积结构的选择,可使模型在图的边数上线性伸缩,并且学习编码局部图结构和节点特征的隐藏层表示。通过在引文网络和知识图数据集中的大量实验,已证实该方法比相关研究有更大的优势。

 

图注:用图卷积网络变换图特征实例

影响:新型药物或高效能催化剂的发现需要将分子建模为图形。图卷积网络把深度学习的工具带到了图领域,并展示了相比于此前占主导地位的手动方法的优越性。

Top8:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

作者:Alec Radford 、Luke Metz et al. 收录于 ICLR 2016, 引用 8681次。

论文地址:https://arxiv.org/abs/1511.06434

该论文提出了一种深度CNN结构DCGAN,它在图像生成上获得了前所未有的效果。

近年来,卷积网络(Convolutional Networks ,CNNs )的监督学习在计算机视觉应用中得到了广泛应用。相对而言,使用CNNs的无监督学习受到的关注较少。在本篇论文中,作者弥合了CNNs在有监督学习和无监督学习方面的差距,提出了一种被称为深层卷积生成式对抗网络的CNN,即Deep Convolutional Generative Adversarial Networks ,简称DCGAN。

DCGAN模型的基本组成部分是用上采样卷积层替换生成器中的完全连接层。其完整体系结构如下:

 

图注:用于LSUN场景建模的DCGAN生成器

本质上,DCGAN是在GAN的基础上提出了一种训练架构,并对其做了训练指导,比如几乎完全用卷积层取代了全连接层,去掉池化层,采用批标准化(Batch Normalization, BN)等技术;将判别模型的发展成果引入到了生成模型中;强调了隐藏层分析和可视化计数对GAN训练的重要性和指导作用。 

图注:通过DCGAN生成的卧室图示例

DCGAN的网络结构可以作为基础架构,用以评价不同目标函数的GAN,让不同的GAN得以进行优劣比较。DCGAN的出现极大增强了GAN的数据生成质量。而如何提高生成数据的质量(如生成图片的质量)一直是GAN研究的热门话题。

影响:GANs是一种机器学习模型,它能够生成人、动物或物体的新图像,GANs的性能决定了机器学习的创造力,以及它在诸多现实场景中的应用能力。就目前来看,该方法仍然是所有目前GAN模型生成图像的基础。 

Top 7:Mastering the game of Go with deep neural networks and tree search

作者:David Silver 、Aja Huang et al. 2016年被《Nature》收录,引用9621次。

论文地址:https://www.nature.com/articles/nature16961

这篇论文代表了人工智能历史上的一个重要节点,它所描述的分布式AlphaGo第一次在围棋游戏中击败人类职业选手。AlphaGo是DeepMind公司针对围棋游戏而开发的AI智能体,其在2016年1月首次推出便在行业内引起不小震动。而在此之后,DeepMind不断优化智能体,AlphaGo又陆续战胜了世界顶级围棋选手李世石和柯洁。

围棋是人工智能最具挑战性的游戏之一。在这篇论文中,作者提出了一种新的计算围棋的方法,该方法使用“价值网络”评估棋子的位置,使用“策略网络”选择落子点,通过将两种网络与蒙特卡罗搜索树(MCTS)相结合所形成的搜索算法,能够使AlphaGo达到99.8%的获胜率。

具体来说,作者采用深度卷积神经网络,将19*19的棋盘看做是一个图像,使用网络构建棋盘每个位置的表示。其中价值神经网络用于棋面局势评估,策略神经网络用于采样下一步动作,这两种网络能够有效减少搜索树的宽度和深度。

接下来再使用管道来组织和训练神经网络,管道由多个阶段的机器学习过程构成。第一阶段先构建一个监督学习策略网络, 训练数据来自人类专家棋手的比赛数据;

第二阶段训练一个快速走子策略, 这个Rollout Policy可以在走子阶段快速采样获取落子点。

图注:AlphaGo采用蒙特卡洛树搜索获取最佳的落子点

第三阶段训练一个强化学习策略网络,通过自我对弈,在监督学习网络最终学习结果基础上调整优化学习目标。这里的学习目标是赢棋,战胜监督学习策略网络,而原始的监督学习策略网络预测的是跟专家走法一致的准确率。最后阶段训练一个价值网络,用于预测某个棋面局势下赢棋的概率。

以上这些离线训练的策略网络和价值网络能够有效的和蒙特卡罗搜索树(MCTS)结合在一起,进而在线上进行比赛。下图是分布式版AlphaGo和人类顶级职业棋手FanHui进行的5局对决的终局棋面,AlphaGo以5:0战胜FanHui。

AlphaGo之后,DeepMind又陆续推出了第二代、第三代智能体,其中,

  • 第二代AlphaGoZero,只使用自监督强化学习+无人工特征+单一网络+蒙特卡罗搜索

  • 第三代AlphaZero,在AlphaGoZero基础上做了进一步的简化,训练速度更快。

现阶段,DeepMind已将AI训练从围棋游戏扩展到了更为复杂的即时战略性游戏《星际争霸2》,所推出的智能体AlplaStar同样达到了战胜顶级职业选手的水平。

影响力:计算机程序第一次战胜人类职业选手,这是人工智能历史上的一个重要里程碑。

Top 6:Human-level control through deep reinforcement learning

作者:Volodymyr Mnih 、Koray Kavukcuoglu et al. 2015年被《Nature》收录,引用13615次。 

论文地址:https://www.nature.com/articles/nature14236

本篇论文提出了一种强化学习算法Deep Q-Learning,简称DQN,它几乎在所有游戏上超越了之前的强化学习方法,并在大部分Atari游戏中表现的比人类更好。

人工智能领域的从业者对DQN可能并不陌生,它被视为深度强化学习的开山之作,是将深度学习与强化学习结合起来从而实现从感知(Perception)到动作( Action )的端对端(End-to-end)学习的一种全新的算法。 

图注:DQN的网络模型

为了能够实现通用人工智能,即用单一的算法解决某个领域的多类挑战性任务,作者开发了一个深度Q网络(DQN),它是强化学习和深度学习的结合。我们知道,要想模拟现实世界中成功使用强化学习,智能体必须从高维感官输入中获得对环境的有效表示,并利用它们将过去的经验推广到新的场景中,而DQN使用端到端强化学习可以直接从高维感官输入中学习策略。

在深度学习方面,作者表示通过卷积神经网络,使用多层的卷积滤波器模仿感受野的作用——灵感来自于Hubel和Wiesel在视觉回路的原始前馈处理,因此,它可以挖掘图像中局部的空间相关的信息,建立对于视角和比例缩放自然转换非常鲁棒。

通过在Atari 2600款游戏中的测试表明,仅接收像素和游戏得分作为输入的深度Q网络超越了之前所有算法的性能,并在49款游戏中达到与人类玩家相当的水平。 

图注:DQN算法(蓝色)、SOTA算法(灰色)以及人类玩家(百分比)在Atari游戏中的比较

影响力:机器人、智能制造、智能物流等领域背后的算法已经从硬编码规则转向强化学习模型。DQN是目前最流行的深度强化学习算法之一,它在各种应用中表现出了优异性能,而且不需要人工策略的参与。

Top 5:Neural Machine Translation by Jointly Learning to Align and Translate

作者:Dzmity  Bahdanau、KyungHyun Cho et al. 收录于 ICLR 2015, 引用16866次。

论文地址:https://arxiv.org/abs/1409.0473

该论文首次提出将带有注意力机制的神经网络应用于机器翻译。“注意”表征的是特定词,而不是整个句子。

与传统的统计机器翻译不同,神经机器翻译的目的是构建可实现最大化翻译性能的单个神经网络。现有的神经机器翻译模型通常属于编码器-解码器家族,编码器将源句子编码为固定长度的向量的编码器,解码器再根据该固定长度向量生成翻译。

在此基础上,作者提出使用固定长度的向量可以提高编码器-解码器体系结构的性能,并且允许模型自动搜索对象可扩展此范围。后者意味着模型课搜索与预测目标单词相关的源句子,而无需进行明确的分割。

实验表明,该方法达到了与最先进的基于短语的最新系统相同的表现。此外,定性分析也表明该方法发现的软对齐方式与我们的直觉一致。

图注:英法翻译的注意矩阵, 较浅的区域代表单词之间相似性很高

影响:在机器翻译中,RNN等传统模型试图将源语句的所有信息压缩成一个向量。而本篇论文提出模型应将每个词表示为一个向量,然后关注每个词,这一认识对于神经网络的构建是一个巨大的范式转变,不仅在NLP领域,在ML的所有其他领域均是如此。

Top 4:Attention is all you need

作者:Ashish Vaswani 、Noam Shazeer 等人;收录于NeurIPS 2017, 引用18178次;

论文地址:https://arxiv.org/abs/1706.03762

该论文提出了一种有效的神经网络Transformer,它基于注意机制在机器翻译中取得了优异的性能。

通常来讲,序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器,表现最佳的模型还通过注意力机制连接编码器和解码器。基于此,作者提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全消除了重复和卷积。

图注:基于编解码器的Transformer架构

实验表明,该模型在机器翻译任务上表现良好,具有更高的可并行性,所需的训练时间也大大减少。如在WMT 2014英语到德语的翻译任务上达到了28.4 BLEU,比包括集成学习在内的现有最佳结果提高了2 BLEU;在2014年WMT英语到法语翻译任务中,创造了新的单模型最新BLEU分数41.8,比文献中最好的模型的训练成本更小。

由此证明了Transformer应用于具有大量训练数据和有限训练数据的英语解析可以很好的概括其他任务。

影响力:在Transformer模型中引入的多头注意力是最受欢迎的深度学习模块,也是另一主流语言模型BERT的一部分,它取代RNNs和CNNs,成为了处理文本和图像任务的默认模型。

Top 3:Faster R-CNN: towards real-time object detection with region proposal networks

作者:Shaoqing Ren ,Kaming He et al.收录于NeurIPS 2015, 引用19915次。

论文地址:https://arxiv.org/abs/1506.01497

该论文提出了一种用于目标检测的高效端到端卷积神经网络,包括图像和视频中。

最先进的物体检测网络依靠区域提议算法来假设物体的位置,基于此,作者在现有研究基础上,提出了一种区域提议网络(RPN),该网络与检测网络共享全图像卷积特征,从而实现几乎免费的区域提议。

RPN是一个完全卷积的网络,能够同时预测每个位置的对象边界和对象性分数。对RPN进行了端到端训练,可以生成高质量的区域建议,然后Fast R-CNN再通过这些建议进行检测。

作者表明通过共享RPN和Fast R-CNN的卷积特征,具有“注意力”机制的神经网络可将这些特征合并为一个网络。对于深层VGG-16模型,该检测系统在GPU上的帧速率为5fps(包括所有步骤),同时在PASCAL VOC 2007、2012和MS COCO数据集上实现了最新的对象检测精度(每张图片有300个建议)。在ILSVRC和COCO 2015竞赛中,Faster R-CNN和RPN是多个项目上获得最佳模型的基础。 

图注:在PASCAL VOC 2007测试中,使用RPN可以检测各种比例和宽高比的物体

影响:更快速是R-CNN是在工业场景中被广泛应用的主要原因之一。它在安全摄像头、自动驾驶和移动应用程序中的应用极大地影响了我们对机器的感知。

Top2:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

作者:Sergey Ioffe and Szegedy, 收录于ICML 2015, 引用 25297次。

论文地址:https://theaisummer.com/normalization/

该论文提出通过对输入特征进行归一化的方法,可使神经网络训练更快,更稳定。

训练深度神经网络是一个复杂的过程,一方面,随着各层参数的变化,输入的分布也会发生改变,而由于参数初始化和较低的学习效率,会导致训练速度减慢。另一方面,训练饱和的非线性模型非常困难。

作者将这两种现象归结为内部协变量偏移,并提出通过归一化输入层来解决。即通过将归一化作为模型体系结构的一部分,并为每次小批量训练执行归一化。这种批处理规范化处理方法可以显著提高学习率,同时不必对初始化进行任何注意,在某些情况下,也无需进行辍学。

图注:批处理规范的说明

论文中指出批归一化应用于最先进的图像分类模型,能够以相同精度,减少14倍的训练速度击败原始模型。论文中,作者展示了使用批归一化网络处理ImageNet分类图像的结果:达到4.82%的top-5测试错误,超过了人类评分者的准确性。

影响力:该方法广泛应用于大多数神经网络体系结构。批处理规范化是现代深度神经年网络获得最佳结果的原因之一。

Top 1:Adam: A Method for Stochastic Optimization

作者:Kingma and Ba,收录于ICLR 2015,引用 67514次。

本篇论文在五年里引用量最高接近7万次,它主要描述了一种新型的随机梯度下降优化算法(Adam),显著提高了神经网络的快速收敛率,在所有模型训练中具有普遍的适用性。

基于低阶矩的自适应估计的Adam,是一种基于一阶梯度的随机目标函数优化算法。它具有易实现,计算高效,存储需求小,对梯度对角线缩放无影响的特点,适合处理参数量、数据量较大,非固定目标以及嘈杂或稀疏梯度等问题。作者在论文中分析了Adam的理论收敛性,并提供了与在线凸优化框架下的最佳结果相当的收敛。

图注:Adam收敛更快

实验结果表明,与其他随机优化方法相比,Adam在实践中的效果更好。作者在论文中还进一步探讨了Adam的变体,即基于无穷范数的AdaMax。

影响:作为优化算法的默认方法,Adam已训练了的数以百万计的神经网络。

参考来源:https://towardsdatascience.com/top-10-research-papers-in-ai-1f02cf844e26

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/484760.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

64 求1+2+3+...+n(发散思维能力 )

题目描述: 求123...n,要求不能使用乘除法、for、while、if、else、switch、case等关键字及条件判断语句(A?B:C)。 解题思路: 1)利用&&的短路特性 2) 利用sizeof特性,使用公式n(n1)/2 …

Cell Reports:黄梓芮等揭示大脑皮层中通往意识的“大门”

来源:小柯生命北京时间2021年5月4日晚23时,Cell Reports在线发表美国密歇根大学一项关于前脑岛在大脑网络切换和意识通达中关键门控作用的研究——“Anterior insula regulates brain network transitions that gate conscious access”。此研究由密歇根…

DeepMind强化学习新研究:更快的知识学习,更强的环境适应

来源:AI科技评论编译:Mr Bear校对:维克多DeepMind官方博客在一篇文章“Fast reinforcement learning through the composition of behaviours”中,针对强化学习中的“从头学习”问题给予了解决方案。文章中表示,人类处…

为什么AI无法解决一般智能问题?

来源:学术头条我们什么时候才能拥有在各方面能够模仿人脑的人工智能?专家们对这个问题意见不一。但大家都同意的是,目前的人工智能系统与人类的智力相去甚远。直接表现是:AI只在特定任务中表现优异,无法将其能力扩展到…

ADT操作实例

ps.1.put(rank,value) 把当前rank的元素的数值修改 2.get(rank)获取rank的元素 3.remove(value)把向量中value剔除掉 4.size()返回元素个数 5.disordered()检测向量的有序性,是否存在紧邻的逆序对,只要返回的数值不是0,说明它尚未构成有序的序…

群雄逐鹿,谁会赢得自动驾驶之战?

来源:AI前线作者 | Timothy B.Lee译者 | 王强策划 | 刘燕自动驾驶技术行业今天正处于一种奇怪的状态。过去多年来,整个行业已经在自动驾驶技术上投入了庞大的资金,其中许多公司都拥有了看起来跑得不错的自动驾驶汽车原型。但据我所知&#xf…

ActiveMQ反序列化漏洞(CVE-2015-5254)复现

0x00 漏洞前言 Apache ActiveMQ是美国阿帕奇(Apache)软件基金会所研发的一套开源的消息中间件,它支持Java消息服务,集群,Spring Framework等。Apache ActiveMQ 5.13.0之前5.x版本中存在安全漏洞,该漏洞源于…

阿里最新研究试用因果推理方法让视觉AI更智能,入选CVPR 2021

来源:AI前线学过人类照片和鱼类照片的 AI,第一次见到美人鱼的照片会作何反应?人脸和鱼身它都很熟悉,但它无法想象一个从没见过的事物。近期,阿里巴巴达摩院将因果推理方法引入计算机视觉领域,尝试克服机器学习方法的缺…

博客文章排版学习

一、序言 第一次写博客觉得文章的排版十分重要,查阅了几篇博文,觉得Leo_wlCnBlogs的文章让我获益良多,所以我做出了总结,方便自己学习复习。 博文写出来排版好了才让人看得舒服,才有动力看下去,之前百度查资…

《神经元》发表脑智卓越中心关于灵活分类决策神经环路机制的研究成果

来源: 脑科学与智能技术卓越创新中心2021年5月5日,《Neuron》期刊在线发表了题为《基于任务结构信息的灵活感知抉择神经环路机制》的研究论文,该研究由中国科学院脑科学与智能技术卓越创新中心(神经科学研究所)、上海脑…

第九集 生死穿越风火山,感受尘世间轮回

在五道梁的一夜,终于可以不用睡帐篷。呼吸依然不顺,但比昆仑山口好多了,晚上也睡得安稳。 一早与开达吃完早餐,补充干粮,策马上路。早上阳光明媚,为弥补前三天落下的行程,计划加班骑行148公里至…

扩展图神经网络:暴力堆叠模型深度并不可取

来源:AI科技评论目前,阻碍图神经网络在业界大规模应用的挑战之一是:图神经网络很难被扩展到 Twitter 的用户关注关系图这类大型图上。节点之间的相互依赖关系使我们很难将损失函数分解为各个独立节点的影响。在本文中,我们介绍了T…

IBM 揭晓全球第一项 2纳米芯片技术,为半导体领域实现重大突破

来源:IBM中国这是芯片行业发展过程中的一个里程碑,将在芯片性能和能源效率方面实现飞跃。纽约州奥尔巴尼 — 2021年 5月 6日:IBM(纽约证券交易所:IBM)宣布,IBM 已成功研制出全球首款采用 2纳米 …

SpringCloud源码分析(一)--客户端搭建

一、前言 上一节的注册中心搭建完成了,本节开始搭建客户端,其实对于springcloud的Eureka注册中心而言,他本身就是服务端也是客户端,我们上节待见服务端注册中心的时候,已经通过配置来设置其不向自己注册,和…

【深度干货】强化学习应用简述

来源:海豚数据科学实验室 强化学习 (reinforcement learning) 经过了几十年的研发,在一直稳定发展,最近取得了很多傲人的成果,后面会有越来越好的进展。强化学习广泛应用于科学、工程、艺术等领域。下面简单列举一些强化学习的成…

柳进军 | 城市大脑的逻辑模型

来源:人民智库近年来,在人工智能、大数据、云计算等新技术发展以及国家新基建等政策的双重推动下,各地政府普遍将“城市大脑”建设纳入了城市发展建设计划,“城市大脑”相关的实践活动也在蓬勃开展,“城市大脑”已经成…

【综述专栏】神经网络的可解释性综述

来源:知乎作者:知乎—机器学习小谈地址:https://zhuanlan.zhihu.com/p/368755357本文以 A Survey on Neural Network Interpretability 读后感为主,加上自身的补充,浅谈神经网络的可解释性。论文:https://a…

吴军:既能得诺贝尔奖,又能生产高科技产品,美国的科研机制是如何运行的?...

来源:大数据文摘范内瓦布什(Vannevar Bush)一生大部分时间供职于麻省理工学院,是这所世界排名第一的理工科大学最引以为傲的人之一。2016年,我访问麻省理工的媒体实验室。由于我到的时间早了一点,伊藤主任还…

机器学习核心概念完全解析(建议收藏)

来源:机器学习研究组订阅刚接触机器学习框架 TensorFlow 的新手们,这篇由 Google 官方出品的常用术语词汇表,一定是你必不可少的入门资料!本术语表列出了基本的机器学习术语和 TensorFlow 专用术语的定义,希望能帮助您…

科学研究发现:说谎,是儿童成长的里程碑

来源:心灵成长家园(ID:xinling_JY)科学研究发现:说谎,是儿童成长的里程碑。和成年人的谎言不同,小朋友的谎言,是他们获得一类重要心智能力的标志。许多研究发现,越早学会…