PNAS “深度学习的科学”论文合集导读

来源:混沌巡洋舰

今天的科学家对于机器可以学习做什么的想法与我们10年前完全不同。

在图像处理、语音和视频处理、机器视觉、自然语言处理和经典的双人游戏中,特别是在过去的十年中,随着在一系列公共组织的挑战问题(例如围棋,图像分类)上,机器学习的表现超出预期记录,相关技术得到了迅速的推进。在许多这些挑战中,记录现在已经达到或超过了人类的水平。

2010年的一场比赛证明,当时的围棋电脑软件无法击败强大的人类围棋选手。2020年的今天,没有人相信人类围棋选手——包括人类世界冠军李世石——能够打败过去10年建立起来的 AlphaGo。这些新的记录,以及它们取得成就的方式,已经超越了10年前的期望。当时,人类水平的性能似乎还有很长的路要走,而且对于许多人来说,似乎没有任何可用的技术能够提供这样的性能。

像 AlphaGo 这样的系统在过去的十年中,受益于几个方面同时出现的出人意料的进步。一方面,我们看到了以云计算为代表的前所未有的随需应变的可扩展计算能力,另一方面,一些全球最大的技术公司从全球化的人才库中,组建工程师团队进行了大规模的算法优化。这些资源在过去十年中稳步部署,以便能够迅速扩大应对挑战问题的业绩。

21世纪10年代产生了真正的技术爆炸: 大量图片和文本数据的突然公开。随着“大数据”这个词进入媒体的视野,数十亿人在社交媒体上张贴了数万亿张图片和文件。图像处理和自然语言处理被这种新的数据资源永远改变了,因为他们利用计算能力的革命性增长,以及新的全球化人才库来挖掘新的图像和文本资源。

图像处理领域首先感受到了新数据的影响,李飞飞和她的合作者从网上提出了 ImageNet 数据集,为一系列年度 ImageNet 大规模视觉识别挑战(ILSVRC)预测挑战赛提供了数据集。这些比赛为机器学习中深度学习范式的出现和不断完善提供了一个平台。

深层神经网络至少从20世纪80年代以来一直稳步发展,然而,试错的启发式方法阻止了对其进行理论化分析的尝试。在20世纪90年代和21世纪初的相当一段时间里,人工神经网络一直受到坚持AI的发展需要正式理论论证的科学家们的怀疑。在这十年中,互联网上图像数据和云计算资源的爆炸式增长,使得雄心勃勃的深度网络模型能够赢得预测比赛,相对于基于核(kernel)的更“形式上可分析”的方法,取得了相当大的成功。

事实上,随着时间的推移,深度网络相对于“理论上可理解”的方法的性能优势越来越明显。最初的成功包括将猫和狗的图片分离开来,但很快成功的就是全面的计算机视觉问题,比如人脸识别和运动图像中的行人跟踪。

在图像处理取得初步成功的几年后,深层网络开始渗透到自然语言处理中,最终在最大的工业研究团队手中产生了能够将105种语言中的任何一种翻译成任何其他语言的系统,甚至是之前几乎没有翻译例子的语言对。

今天,听到深层网络使用数百亿个例子的数据库训练数百亿个参数已不再令人震惊。另一方面,它可能已经越来越令科学家感到不安,人们害怕目睹人类的在更多领域表现变得远远不足基于训练形成的智能体,尽管目前这些系统最容易的理解特性仅仅是他们在游戏中占优势的能力和能够在 ImageNet 这样的预测战胜人类。

2019年3月,美国国家科学院在华盛顿召开了一次关于“深度学习的科学”的座谈会。组织者的目标是促进对当今以经验为基础的深度学习系统的科学理解,同时推动将此类系统用于传统科学研究。

为此,来自学术界和产业界的重要人物进行了演讲; 听众包括来自全国各地机构的许多研究生和博士后,以及来自美国国家科学基金会(NSF)、国家卫生研究院(NIH)和国防部(DoD)的研究赞助商,还有来自华盛顿特区实验室的美国政府科学家。

来自希伯来大学的 Amnon Shashua 讨论了使自动驾驶汽车成为可能的计算机视觉研究策略。他告诉听众,移动车辆视觉系统的错误率需要保持在每万亿个视觉体验单位一个错误检测的水平以下,并讨论了建模和测试策略,这些策略有朝一日可以产生具有如此低错误率的验证系统。

麻省理工学院(MIT)的罗德尼 · 布鲁克斯(Rodney Brooks)解释了,在他看来,机器学习系统是如何在数百年后才能完全展现出一般智能的。作为支持,他指出当今成功的深度学习系统对大量优质数据的巨大需求,并将其与人类从极少数据中理解和概括的能力进行了对比。

在座谈会召开前的几周,白宫发布了一份名为《美国人民的人工智能》(Artificial Intelligence for the American People)的国家战略文件,呼吁美国对人工智能(AI)进行新的投资。

https://www.whitehouse.gov/briefings-statements/artificial-intelligence-american-people/

由于座谈会是在学院位于华盛顿广场的办公楼里举行的,所以这次座谈会一夜之间成为了讨论这项新举措的绝佳场所。资助机构(NSF、 NIH 和 DoD)的代表,包括一些深入参与制定该战略的人,描述了他们最近和即将进行的研究项目,并告诉听众深度学习研究如何适合即将进行的国家研究计划。

作为座谈会系列的一部分,这次活动伴随着一期 PNAS 的特刊,你们现在正在阅读的这期刊物,是由一些发言人和参加座谈会的人撰写的。特刊收集了许多有趣的论文,反映了在这个迅速发展的新领域正在进行的科学工作的活力和深度。

本期特刊以两篇概述性论文开篇。索尔克研究所的Terrence J. Sejnowski 讨论了“人工智能中深度学习的不合理的有效性”(2)。Sejnowski 的论文标题起源于 Eugene Wigner 的著名文章《数学在物理科学中的不合理的有效性》 ,并在这十年中延续了 Alon Halevy,Peter Norvig 和 Google 的费尔南多·佩雷拉的《数据的不合理的有效性》。

https://doi.org/10.1073/pnas.1907373117

在这种传统中,作者通常会指出一种技术(例如,数学、大数据、深度学习)在某些领域获得了毋庸置疑的成功,但我们并不完全理解,而且从更高层次的角度来看,这种技术似乎令人惊讶。Sejnowski研究了这样一个悖论: 对于一系列重要的机器学习问题,深度学习比传统的统计学习理论预测的效果要好得多。Sejnowski 认为,尽管今天的深度学习系统是受到大脑皮层的启发,但要达到人工一般智能,还需要从其它重要的大脑区域获得启发,比如那些负责计划和生存的区域。

麻省理工学院的 Tomaso Poggio,Andrzej Banburski 和 Liao 则很好地继承了“深层网络的理论问题”(5) ,它考虑了关于逼近能力、复杂性控制和深层神经网络泛化性质的理论成果。

https://doi.org/10.1073/pnas.1907369117

根据经验,深度神经网络在这三个方面表现非常不同于其他机器学习模型。为了逼近,作者给出了形式化的论证,证明了某些卷积网在逼近某些光滑函数时可以避免“维数灾难”。对于复杂性控制和正则化问题,作者将指数损失下适当正则化网络的梯度流看作动力系统。作者指出无约束的梯度下降法网络的隐式正则化特性,可能解释了在超参数化的深海网络中观察到的复杂性控制。

“深度学习一直让我们感到惊讶”的观点是由斯坦福大学的Christopher D. Manning, Kevin Clark, John Hewitt, Urvashi Khandelwal, and Omer Levy 进一步发展起来的。

https://doi.org/10.1073/pnas.1907367117

他们考虑通过自我监督训练的深层神经网络,这种神经网络在给定的上下文中没有标记的训练数据就能预测出一个带有掩码的单词。作者对语言学的主流观点提出质疑,认为统计机器学习预测语言模型并没有发展出有趣的突现的语言结构知识。在自我监督训练过程中,深层神经网络中出现了句法、形态和语义语言结构,这些语言结构具有惊人的经验证明。这些丰富的信息是通过自我监督而产生的,这对人类语言习得有着诱人的影响。

纽约大学的Kyle Cranmer与合著者Johann Brehmer 和 Gilles Louppe,在他们的文章“基于模拟推理的前沿”(7)中讨论了另一个领域的进展。本文描述了粒子物理学中的重要科学推理问题,这些问题一直被认为是难以解决的。

https://doi.org/10.1073/pnas.1907367117

针对今天的“机器学习革命” ,作者通过融合大量的科学模拟、诸如主动学习和概率建模等机器学习思想,确定了解决这类推理问题的新可能性。实际上,机器学习可以帮助我们从科学模拟的测量方面进行训练,给我们提供经验模型来代替经典的分析概率模型。文中指出了一系列的科学推理问题,并总结道: “ ... ... 科学的几个领域应该期待... ... 推理质量的显著提高... ... 这种转变可能对科学产生深远的影响”(7)。

该特刊也提供了关于具体研究问题的引人入胜的文章。加州大学伯克利分校的 Peter l. Bartlett,Philip m. Long,Gábor Lugosi和 Alexander Tsigler 讨论了“线性回归的良性过拟合”(8)。许多最近的深度学习模型包含了更多的需要确定的参数,而不是由数据点来适应它们。我们认为这样的模式过于合适。

传统上,这会被认为有害于基于经验主义的科学实践。正如作者所说: “良性过拟合现象是深度学习方法揭示的关键秘密之一: 深度神经网络似乎能很好地预测,即使它完全适合嘈杂的训练数据”(8)。作者在简化的线性回归中对这种情况进行了深入的正式分析。

https://doi.org/10.1073/pnas.1907378117

麻省理工学院(MIT)的Antonio Torralba,David Bau,(Jun-Yan Zhu,Hendrik Strobelt,Agata Lapedriza和Bolei Zhou探讨了一个重要问题: 深层神经网络包含数十亿个人工神经元,但它们在做什么?他们的文章《理解深层神经网络中单个单元的角色》(9)是这样开始的: “深层神经网络的单个隐藏单元能够教会我们网络如何解决复杂的任务吗? ”?

https://doi.org/10.1073/pnas.1907375117

有趣的是,在最先进的深度网络中,已经观察到许多单元匹配人类可解释的概念,而这些概念并没有被明确地传授给网络: 已经发现单元可以检测物体、部件、纹理、时态、性别、语境和情感作者描述了进行这种鉴定的定量工具。在构建第二个“解释网络”时,他们开发了一个“解剖”框架,识别驱动网络神经元响应的概念。该技术应用于图像分类和图像生成网络,为对抗性攻击和图像语义编辑提供了新的视角。

来自麦吉尔大学和 DeepMind 的 Doina prerup , André Barreto,Shaobo Hou,Diana Borsa,和 David Silver 讨论了机器学习的多样性---- 赋予我们 AlphaGo 世界一流的游戏系统的强化学习。强化学习是出了名的数据饥渴者。Prerup 和他的同事们提出了一个解决办法。

https://doi.org/10.1073/pnas.1907370117

他们的文章《快速强化学习与广义的政策更新》(10)开头写道: “强化学习与深度学习的结合是一种很有前途的方法,可以解决目前棘手且重要的连续决策问题。”为了克服这种强化学习与深度学习相结合的障碍,作者(10)提出了“ 强化学习的两个基本操作可以概括为: 政策改进和政策评估。这些操作的通用版本允许人们利用某些任务的解决方案来加快其他任务的解决方案。”Barreto 等人(10)发现“这两种策略都大大减少了解决强化学习问题所需的数据量。”

这期特刊以两篇文章结束,这两篇文章讨论了机器学习对日常生活的影响。剑桥大学的Anders C. Hansen 和合著者Vegard Antun, Francesco Renna, Clarice Poon及 Ben Adcock 确认了一个迫在眉睫的技术威胁。

他们的文章“关于图像重建中深度学习的不稳定性和人工智能的潜在代价”(11)引起人们对计算机视觉中深度神经网络不稳定的重要现象的关注。文献中广泛讨论了图像分类的不稳定性,以及在任务关键系统中使用深度学习视觉系统可能引起的安全和安保问题。

在基于深度学习的图像重建中,作者提出了一种类似的不稳定现象,即利用深度神经网络来解决图像生成问题。他们担心应用中的潜在安全问题,如医学成像。该文提出了一种稳定性测试来诊断稳定性问题,并描述了用于检测这类系统的测试的软件实现。

https://doi.org/10.1073/pnas.1907377117

康奈尔大学的 Jon Kleinberg 和他的合著者 Jens Ludwig,Sendhil Mullainathan和 Cass r. Sunstein (12)通过解决一个根本性的问题来结束这个专辑: 在日常生活中使用机器学习可能产生的副作用: 

算法是否依靠数据编码人类判断,使歧视和偏见系统化?他们总结他们的论点如下: “ ... 现有的法律、监管和相关的歧视检测系统最初是为人类决策者的世界而建立的,没有考虑算法的影响。如果不改变这些系统,算法的引入将无助于发现歧视的任务,并可能使整个问题变得更糟。”

https://doi.org/10.1073/pnas.1912790117

两位作者以乐观的语气结束了文章: “算法就其本质而言,需要比人类决策通常所涉及的更大程度的特异性,而人类决策在某种意义上是终极的‘黑盒子’。”在正确的法律和监管体系到位的情况下,算法可以充当类似于盖革计数器的东西,使其更容易被检测,从而防止歧视”(12)。

这些文章揭示了许多惊奇、悖论和挑战。他们提醒我们,在这一迅速发展的领域中,出现了许多学术研究机会。仅举几例: 

深度学习可能在科学领域得到更广泛的应用,从而加速现有领域的进步; 

理论家可能会更好地理解这十年深度学习革命带来的难题和悖论; 

科学家可能会更好地理解机器学习领域由工业驱动的创新如何影响社会层面的系统。

这样的机会将是具有挑战性的追求,尤其是因为它们需要新的资源和人才。我们希望这个特别的问题能够激励新的科学努力去寻找这样的机会,也许能够在未来的美国国家科学院院刊的版面中引起关于深度学习的进一步讨论。

本文翻译自:

https://www.pnas.org/content/117/48/30029

原文标题:The science of deep learning

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/486120.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

s3c6410 jpeg编码 linux,S3C6410 裸机硬件JPEG解码

主函数的部分代码/**************************************************************************************************************************函数 : static PIC_ERROR OpenPictureFile(const char *FileName,u8 *buff,u32 FileMaxSize)*功能 : 打开一张…

注解原理

学习spring时,大量使用了注解,但一直对其底层实现机制不得其解: ref:http://www.cnblogs.com/Johness/archive/2013/04/17/3026689.html ref:https://www.jianshu.com/p/28edf5352b63 ref:http://www.cnblo…

C语言中关于字符数组输入,scanf没执行

问题&#xff1a;有时C语言中关于字符数组输入&#xff0c;有的scanf语句没执行。 未执行scanf的代码&#xff1a; #include<stdio.h> int main() {int n;int t0;scanf("%d",&n);char arr[n];int i;for(i0;i<n;i){scanf("%c",&arr[i]);…

清华微电子副所长尹首一:中国AI芯片的技术路线最全面

大数据文摘出品整理&#xff1a;牛婉杨12月1日&#xff0c;GTIC 2020 AI芯片创新峰会在京举办&#xff0c;本次峰会聚集了AI芯片以及各个细分赛道的产、学、研精英人士&#xff0c;共议AI芯片在中国半导体黄金时代的创新与未来。2020年对于AI芯片来说&#xff0c;是充满坎坷的一…

linux socket资源耗尽,TCP的socket资源被耗尽的问题

一、 故障现象部分机顶盒用户出现大面积登录APP时&#xff0c;界面停留在登陆页面&#xff0c;无反应。二、现象初步分析本次问题出现时&#xff0c;所有AAA出现了异常流量波动&#xff0c;在AAA异常流量段期间接到用户故障报障。此时主要表现在LVS集群显示真实的EPG 服务器不停…

演讲实录丨CAAI名誉副理事长杨强教授:人工智能的金融实践

杨强CAAI 名誉副理事长、微众银行首席人工智能官AAAI/ACM/IEEE/CAAI/AAAS Fellow转自中国人工智能学会CAAI原创 丨 作者杨强教授以下是杨强教授的演讲实录&#xff1a;今天的报告主要讲两个内容&#xff0c;一个是人工智能发展&#xff1b;另一个是如何在金融领域落地。刚才已经…

玩转python(2)多线程的历史2

线程这个概念早在多核CPU出现之前就提出来了&#xff0c;单核时代的多线程主要是为了让CPU尽量不处于空闲状态&#xff0c;使其计算能力始终能得到利用。但本质上讲&#xff0c;在任意时刻只有一个线程在执行。 尽管任意时刻只有一个线程在执行&#xff0c;但是依然有些问题需要…

2020年第五届中国通用人工智能年会

来源&#xff1a;知乎-刘凯-AGI现阶段&#xff0c;人工智能热正迅速“退烧”而回归理性&#xff0c;主流人工智能学界急切寻觅新的突破口。通用人工智能再次获得关注&#xff0c;并被期待成为下一轮技术引爆点。中国通用人工智能年会已成功举办四届&#xff0c;涉及计算机科学、…

post发送byte数组_KAFKA消息发送

消息发送的整体架构RecordAccumulator 主要用来缓存消息以便 Sender 线程可以批量发送&#xff0c;进而减少网络传输的资源消耗以提升性能。RecordAccumulator 缓存的大小可以通过生产者客户端参数 buffer.memory 配置&#xff0c;默认值为 33554432B&#xff0c;即32MB。如果生…

未来的趋势发展 802.11v网络协议解析

目前的无线网络中&#xff0c;一个基站通常与拥有最强信号的接入点联系在一起。但是&#xff0c;这个接入点也许过载了。在802.11v标准中&#xff0c;包括了一个指令&#xff0c;接入点能够使用这个指令要求一个基站报告它支持的无线电信道、传输的功率范围、数据速率和支持的身…

从特斯拉到爱因斯坦,物理学家为何钟情于猫

牛顿和猫洞的故事&#xff0c;图片来自3milliondogs.com来源&#xff1a;数学中国尽管我们看到了大量的猫被用作实验对象。面对科学发展过程中这黑暗一面&#xff0c;我有必要强调一下&#xff0c;纵观历史&#xff0c;许多物理学家与他们的猫的关系要友好得多&#xff0c;猫成…

win10远程桌面连接凭据怎么设置_想在家办公,只需打开win10远程桌面连接就可以了,还犹豫什么...

远程桌面连接是一种使用户能够坐在一台计算机前连接到其他位置的“远程计算机”的技术。例如&#xff0c;用户可以从家庭计算机连接到工作计算机&#xff0c;并访问所有程序、文件和网络资源&#xff0c;就好像坐在工作计算机前一样。另外&#xff0c;用户可以让程序在工作计算…

Java的加载与执行

Java的运行包含两个特别重要的阶段&#xff1a;编译阶段&#xff0c;运行阶段。 编译阶段&#xff1a;编译阶段的主要任务是检查Java源程序是否符合Java语法。 符合Java语法则能够生成正常的字节码文件&#xff08;xxxx.class&#xff09; 不符合Java语法规则则无法生成字节码…

费曼:所有的科学知识都是不确定的

编辑 ∑Gemini来源:设计与哲学一、不存在决定什么是好概念的权威 观察是一个概念是否含有真理的判官&#xff0c;但这个概念从何而来的呢&#xff1f;科学的快速进步和发展要求人类发明出一些东西用以检验。在中世纪&#xff0c;人们认为只要多做观察&#xff0c;观察结果本身就…

Java--PATH环境变量

JDK安装成功后&#xff0c;对源程序首先需要进行的就是编译。 在DOS环境下输入javac&#xff0c;会出现以下提示&#xff1a;javac 不是内部或外部命令&#xff0c;也不是可运行的程序 或批处理文件。 出现这个问题的原因是&#xff1a;Windows操作系统无法找到javac命令文件…

RISC-V会被卡吗?那么你觉得C语言会不会被卡? | 包云岗

来源&#xff1a; 风云之声本文是对于知乎问题《从技术的角度来看&#xff0c;RISC-V 能对芯片发展、科技自主起到哪些作用&#xff1f;》的回答&#xff08;https://www.zhihu.com/question/425542531/answer/1607862976&#xff09;。一、关于RISC-V的一些解读看到很多回答都…

easyui 调用dialog中的方法_SolidWorks中标准件库的创建及调用方法

在使用SolidWorks进行产品设计时&#xff0c;常用的标准件&#xff08;如螺栓、螺母、垫圈等&#xff09;通常可以在安装了SolidWorksToolbox插件后调出使用&#xff0c;而许多标准件在Toolbox并不存在&#xff0c;不能从插件中直接调用。在用到这些零件时&#xff0c;设计人员…

【测试设计】基于正交法的测试用例设计工具--PICT

前言 我们都知道成对组合覆盖是一种非常有效的测试用例设计方法&#xff0c;但是实际工作过程中当成对组合量太大&#xff0c;我们往往很难做到有效的用例覆盖。 PICT是微软公司出品的一款成对组合命令行生成工具,它很好的解决了上述的难题。使用它我们可以有效地按照两两测试的…

Alpha fold: 人工智能在蛋白质结构预测上跑赢人类的启示

来自孙卫涛科学网博客2020年12月&#xff0c;Alpha Fold2在CASP14上 获得了惊人的进步&#xff0c;其蛋白质结构预测的能力已经达到了与实验方法相媲美的程度&#xff0c;国内外该领域的专家学者都为之惊叹&#xff0c;同时也都感受到巨大的压力&#xff0c;人工智能首次把一个…

卷积神经网络爬虫实现新闻在线分类系统

卷积神经网络&&爬虫实现网易新闻自动爬取并分类 项目地址 采用THUCnews全部数据集进行训练&#xff0c;效果如下。 详细实现见./text_classification 部署步骤如下&#xff1a; 运行环境 服务器&#xff1a;Ubuntu 16.04 数据库&#xff1a;Mysql 5.6 python&#xf…