深度 | IBM长文解读人工智能、机器学习和认知计算

640?wx_fmt=png

来源:人工智能产业链联盟


人工智能的发展曾经经历过几次起起伏伏,近来在深度学习技术的推动下又迎来了一波新的前所未有的高潮。近日,IBM 官网发表了一篇概述文章,对人工智能技术的发展过程进行了简单梳理,同时还图文并茂地介绍了感知器、聚类算法、基于规则的系统、机器学习、深度学习、神经网络等技术的概念和原理。


人类对如何创造智能机器的思考从来没有中断过。期间,人工智能的发展起起伏伏,有成功,也有失败,以及其中暗藏的潜力。今天,有太多的新闻报道是关于机器学习算法的应用问题,从癌症检查预测到图像理解、自然语言处理,人工智能正在赋能并改变着这个世界。


现代人工智能的历史具备成为一部伟大戏剧的所有元素。在最开始的 1950 年代,人工智能的发展紧紧围绕着思考机器和焦点人物比如艾伦·图灵、冯·诺伊曼,迎来了其第一次春天。经过数十年的繁荣与衰败,以及难以置信的高期望,人工智能及其先驱们再次携手来到一个新境界。现在,人工智能正展现着其真正的潜力,深度学习、认知计算等新技术不断涌现,且不乏应用指向。


本文探讨了人工智能及其子领域的一些重要方面。下面就先从人工智能发展的时间线开始,并逐个剖析其中的所有元素。



现代人工智能的时间线


1950 年代初期,人工智能聚焦在所谓的强人工智能,希望机器可以像人一样完成任何智力任务。强人工智能的发展止步不前,导致了弱人工智能的出现,即把人工智能技术应用于更窄领域的问题。1980 年代之前,人工智能的研究一直被这两种范式分割着,两营相对。但是,1980 年左右,机器学习开始成为主流,它的目的是让计算机具备学习和构建模型的能力,从而它们可在特定领域做出预测等行为。


640?wx_fmt=png

图 1:现代人工智能发展的时间线


在人工智能和机器学习研究的基础之上,深度学习在 2000 年左右应运而生。计算机科学家在多层神经网络之中使用了新的拓扑学和学习方法。最终,神经网络的进化成功解决了多个领域的棘手问题。


在过去的十年中,认知计算(Cognitive computing)也出现了,其目标是打造可以学习并与人类自然交互的系统。通过成功地击败 Jeopardy 游戏的世界级选手,IBM Watson 证明了认知计算的价值。


在本文中,我将逐一探索上述的所有领域,并对一些关键算法作出解释。

基础性人工智能


1950 年之前的研究提出了大脑是由电脉冲网络组成的想法,正是脉冲之间的交互产生了人类思想与意识。艾伦·图灵表明一切计算皆是数字,那么,打造一台能够模拟人脑的机器也就并非遥不可及。


上文说过,早期的研究很多是强人工智能,但是也提出了一些基本概念,被机器学习和深度学习沿用至今。


640?wx_fmt=png

图 2:1950 - 1980 年间人工智能方法的时间线



人工智能搜索引擎


人工智能中的很多问题可以通过强力搜索(brute-force search)得到解决。然而,考虑到中等问题的搜索空间,基本搜索很快就受影响。人工智能搜索的最早期例子之一是跳棋程序的开发。亚瑟·塞缪尔(Arthur Samuel)在 IBM 701 电子数据处理机器上打造了第一款跳棋程序,实现了对搜索树(alpha-beta 剪枝)的优化;这个程序也记录并奖励具体行动,允许应用学习每一个玩过的游戏(这是首个自我学习的程序)。为了提升程序的学习率,塞缪尔将其编程为自我游戏,以提升其游戏和学习的能力。


尽管你可以成功地把搜索应用到很多简单问题上,但是当选择的数量增加时,这一方法很快就会失效。以简单的一字棋游戏为例,游戏一开始,有 9 步可能的走棋,每 1 个走棋有 8 个可能的相反走棋,依次类推。一字棋的完整走棋树包含 362,880 个节点。如果你继续将这一想法扩展到国际象棋或者围棋,很快你就会发展搜索的劣势。



感知器


感知器是单层神经网络的一个早期监督学习算法。给定一个输入特征向量,感知器可对输入进行具体分类。通过使用训练集,网络的权重和偏差可为线性分类而更新。感知器的首次实现是 IBM 704,接着在自定义硬件上用于图像识别。


640?wx_fmt=png

图 3:感知器与线性分类


作为一个线性分类器,感知器有能力解决线性分离问题。感知器局限性的典型实例是它无法学习专属的 OR (XOR) 函数。多层感知器解决了这一问题,并为更复杂的算法、网络拓扑学、深度学习奠定了基础。



聚类算法


使用感知器的方法是有监督的。用户提供数据来训练网络,然后在新数据上对该网络进行测试。聚类算法则是一种无监督学习(unsupervised learning)方法。在这种模型中,算法会根据数据的一个或多个属性将一组特征向量组织成聚类。


640?wx_fmt=png

图 4:在一个二维特征空间中的聚类


你可以使用少量代码就能实现的最简单的聚类算法是 k-均值(k-means)。其中,k 表示你为样本分配的聚类的数量。你可以使用一个随机特征向量来对一个聚类进行初始化,然后将其它样本添加到其最近邻的聚类(假定每个样本都能表示一个特征向量,并且可以使用 Euclidean distance 来确定「距离」)。随着你往一个聚类添加的样本越来越多,其形心(centroid,即聚类的中心)就会重新计算。然后该算法会重新检查一次样本,以确保它们都在最近邻的聚类中,最后直到没有样本需要改变所属聚类。


尽管 k-均值聚类相对有效,但你必须事先确定 k 的大小。根据数据的不同,其它方法可能会更加有效,比如分层聚类(hierarchical clustering)或基于分布的聚类(distribution-based clustering)。



决策树


决策树和聚类很相近。决策树是一种关于观察(observation)的预测模型,可以得到一些结论。结论在决策树上被表示成树叶,而节点则是观察分叉的决策点。决策树来自决策树学习算法,其中数据集会根据属性值测试(attribute value tests)而被分成不同的子集,这个分割过程被称为递归分区(recursive partitioning)。


考虑下图中的示例。在这个数据集中,我可以基于三个因素观察到某人是否有生产力。使用一个决策树学习算法,我可以通过一个指标来识别属性(其中一个例子是信息增益)。在这个例子中,心情(mood)是生产力的主要影响因素,所以我根据 Good Mood 一项是 Yes 或 No 而对这个数据集进行了分割。但是,在 Yes 这边,还需要我根据其它两个属性再次对该数据集进行切分。表中不同的颜色对应右侧中不同颜色的叶节点。


640?wx_fmt=png

图 5:一个简单的数据集及其得到的决策树


决策树的一个重要性质在于它们的内在的组织能力,这能让你轻松地(图形化地)解释你分类一个项的方式。流行的决策树学习算法包括 C4.5 以及分类与回归树(Classification and Regression Tree)。



基于规则的系统


最早的基于规则和推理的系统是 Dendral,于 1965 年被开发出来,但直到 1970 年代,所谓的专家系统(expert systems)才开始大行其道。基于规则的系统会同时存有所需的知识的规则,并会使用一个推理系统(reasoning system)来得出结论。


基于规则的系统通常由一个规则集合、一个知识库、一个推理引擎(使用前向或反向规则链)和一个用户接口组成。下图中,我使用了知识「苏格拉底是人」、规则「如果是人,就会死」以及一个交互「谁会死?」


640?wx_fmt=png

图 6:基于规则的系统


基于规则的系统已经在语音识别、规划和控制以及疾病识别等领域得到了应用。上世纪 90 年代人们开发的一个监控和诊断大坝稳定性的系统 Kaleidos 至今仍在使用。



机器学习


机器学习是人工智能和计算机科学的一个子领域,也有统计学和数学优化方面的根基。机器学习涵盖了有监督学习和无监督学习领域的技术,可用于预测、分析和数据挖掘。机器学习不限于深度学习这一种。但在这一节,我会介绍几种使得深度学习变得如此高效的算法。


640?wx_fmt=png

图 7:机器学习方法的时间线



反向传播


神经网络的强大力量源于其多层的结构。单层感知器的训练是很直接的,但得到的网络并不强大。那问题就来了:我们如何训练多层网络呢?这就是反向传播的用武之地。


反向传播是一种用于训练多层神经网络的算法。它的工作过程分为两个阶段。第一阶段是将输入传播通过整个神经网络直到最后一层(称为前馈)。第二阶段,该算法会计算一个误差,然后从最后一层到第一层反向传播该误差(调整权重)。


640?wx_fmt=png

图 8:反向传播示意图


在训练过程中,该网络的中间层会自己进行组织,将输入空间的部分映射到输出空间。反向传播,使用监督学习,可以识别出输入到输出映射的误差,然后可以据此调整权重(使用一个学习率)来矫正这个误差。反向传播现在仍然是神经网络学习的一个重要方面。随着计算资源越来越快、越来越便宜,它还将继续在更大和更密集的网络中得到应用。



卷积神经网络


卷积神经网络(CNN)是受动物视觉皮层启发的多层神经网络。这种架构在包括图像处理的很多应用中都有用。第一个 CNN 是由 Yann LeCun 创建的,当时 CNN 架构主要用于手写字符识别任务,例如读取邮政编码。


LeNet CNN 由好几层能够分别实现特征提取和分类的神经网络组成。图像被分为多个可以被接受的区域,这些子区域进入到一个能够从输入图像提取特征的卷积层。下一步就是池化,这个过程降低了卷积层提取到的特征的维度(通过下采样的方法),同时保留了最重要的信息(通常通过最大池化的方法)。然后这个算法又执行另一次卷积和池化,池化之后便进入一个全连接的多层感知器。卷积神经网络的最终输出是一组能够识别图像特征的节点(在这个例子中,每个被识别的数字都是一个节点)。使用者可以通过反向传播的方法来训练网络。


640?wx_fmt=png

图 9.LeNet 卷积神经网络架构


对深层处理、卷积、池化以及全连接分类层的使用打开了神经网络的各种新型应用的大门。除了图像处理之外,卷积神经网络已经被成功地应用在了视频识别以及自然语言处理等多种任务中。卷积神经网络也已经在 GPU 上被有效地实现,这极大地提升了卷积神经网络的性能。



长短期记忆(LSTM)


记得前面反向传播中的讨论吗?网络是前馈式的训练的。在这种架构中,我们将输入送到网络并且通过隐藏层将它们向前传播到输出层。但是,还存在其他的拓扑结构。我在这里要研究的一个架构允许节点之间形成直接的回路。这些神经网络被称为循环神经网络(RNN),它们可以向前面的层或者同一层的后续节点馈送内容。这一特性使得这些网络对时序数据而言是理想化的。


在 1997 年,一种叫做长短期记忆(LSTM)的特殊的循环网络被发明了。LSTM 包含网络中能够长时间或者短时间记忆数值的记忆单元。


640?wx_fmt=png

图 10. 长短期记忆网络和记忆单元


记忆单元包含了能够控制信息流入或者流出该单元的一些门。输入门(input gate)控制什么时候新的信息可以流入记忆单元。遗忘门(forget gate)控制一段信息在记忆单元中存留的时间。最后,输出门(output gate)控制输出何时使用记忆单元中包含的信息。记忆单元还包括控制每一个门的权重。训练算法(通常是通过时间的反向传播(backpropagation-through-time),反向传播算法的一种变体)基于所得到的误差来优化这些权重。


LSTM 已经被应用在语音识别、手写识别、语音合成、图像描述等各种任务中。下面我还会谈到 LSTM。



深度学习


深度学习是一组相对新颖的方法集合,它们从根本上改变了机器学习。深度学习本身不是一种算法,但是它是一系列可以用无监督学习实现深度网络的算法。这些网络是非常深层的,所以需要新的计算方法来构建它们,例如 GPU,除此之外还有计算机集群。


本文目前已经介绍了两种深度学习的算法:卷积神经网络和长短期记忆网络。这些算法已经被结合起来实现了一些令人惊讶的智能任务。如下图所示,卷积神经网络和长短期记忆已经被用来识别并用自然语言描述图片或者视频中的物体。


640?wx_fmt=png

图 11. 结合卷积神经网络和长短期记忆来进行图像描述


深度学习算法也已经被用在了人脸识别中,也能够以 96% 的准确率来识别结核病,还被用在自动驾驶和其他复杂的问题中。


然而,尽管运用深度学习算法有着很多结果,但是仍然存在问题需要我们去解决。一个最近的将深度学习用于皮肤癌检测的应用发现,这个算法比经过认证的皮肤科医生具有更高的准确率。但是,医生可以列举出导致其诊断结果的因素,却没有办法知道深度学习程序在分类的时候所用的因素。这被称为深度学习的黑箱问题。


另一个被称为 Deep Patient 的应用,在提供病人的病例时能够成功地预测疾病。该应用被证明在疾病预测方面比医生还做得好——即使是众所周知的难以预测的精神分裂症。所以,即便模型效果良好,也没人能够深入到这些大型神经网络去找到原因。



认知计算


人工智能和机器学习充满了生物启示的案例。尽管早期的人工智能专注于建立模仿人脑的机器这一宏伟目标,而现在,是认知计算正在朝着这个目标迈进。


认知计算建立在神经网络和深度学习之上,运用认知科学中的知识来构建能够模拟人类思维过程的系统。然而,认知计算覆盖了好多学科,例如机器学习、自然语言处理、视觉以及人机交互,而不仅仅是聚焦于某个单独的技术。


认知学习的一个例子就是 IBM 的 Waston,它在 Jeopardy 上展示了当时最先进的问答交互。IBM 已经将其扩展在了一系列的 web 服务上了。这些服务提供了用于一些列应用的编程接口来构建强大的虚拟代理,这些接口有:视觉识别、语音文本转换(语音识别)、文本语音转换(语音合成)、语言理解和翻译、以及对话引擎。



继续前进


本文仅仅涵盖了关于人工智能历史以及最新的神经网络和深度学习方法的一小部分。尽管人工智能和机器学习经历了很多起起伏伏,但是像深度学习和认知计算这样的新方法已经明显地提升了这些学科的水平。虽然可能还无法实现一个具有意识的机器,但是今天确实有着能够改善人类生活的人工智能系统。



未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

640?wx_fmt=jpeg



本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/493877.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

多变量线性回归

目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征, 例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x1,x2,…,xn) 增添更多特征后,我们引入一系列新的注释: n 代表特征的数量 x(i)代表第 i 个训练实例,是特征矩阵中的第 i 行,是一…

人工智能乌托邦 迪拜认为2071年人类应该这样生活!

来源:网易智能不同于硅谷老牌的科技力量,迪拜一直是独特的存在。他们日益崛起的科技实力正在被验证,无论是全面AI化的基础建设和城市治安力量,还是频频登上全球科技头条的机器人警察和空中出租车,迪拜试图摆脱很多人眼…

逻辑回归与正则化

在分类问题中,你要预测的变量 y 是离散的值,我们将学习一种叫做逻辑回归 (Logistic Regression) 的算法,这是目前最流行使用最广泛的一种学习算法。 在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问 题的例子有:判断一封电子邮件是否是垃圾邮件;判…

万字报告!一文看懂全球车厂的技术家底模块化平台

来源:智东西摘要:介绍模块化平台以及该平台对车企的重要意义,详解车企模块化平台布局。汽车的研发制造方式经历了手工作坊式到标准化流水线再到平台化,目前主流车企纷纷采取模块化平台方式。汽车模块化平台研发制造是指车企基于通…

西湖大学全披露:68位顶级科学家加盟,已获捐资35亿,最小捐赠者12岁

来源:量子位最终,2018年10月20日,成为了西湖大学的成立日。在刚结束的成立大会上,5名诺贝尔奖得主、70余位国内外校长及代表、近百位捐赠人齐聚。可谓少长咸集,高朋满座,生而备受期待。而且就在创立大会上&…

字体大宝库:设计师必备的专业免费英文字体

字体绝对是每一个设计非常重要的部分,设计者总是希望有最好的免费字体,以保持他们字体库的更新。所以今天我要向设计师们分享一个专业的免费英文字体集合。这些免费的字体是适用于任何类型的图形设计:Web,打印,动态图形…

神经网络学习

代价函数 首先引入一些便于稍后讨论的新标记方法: 假设神经网络的训练样本有 m 个,每个包含一组输入 x 和一组输出信号 y,L 表示神经 网络层数,Sl表示每层的 neuron 个数(SL表示输出层神经元个数),SL代表最后一层中处理 单元的个数。 将神经网络的分类定义为两种情况:二类分…

干货|深度!“人工智能+制造”产业发展研究报告

来源::腾讯研究院工业革命以后的“自动化”概念追求的是机器自动生产,本质是“机器替人”,强调在完全不需要人的情况下进行不间断的大规模机器生产;而“智能化”追求的是机器的柔性生产,本质是“人机协同”…

机器学习系统设计与建议

当我们在运用训练好了的模型来预测未知数据的时候发现有较大的误差,我们下一步可以 做什么? 1. 获得更多的训练实例——通常是有效的,但代价较大,下面的方法也可能有效,可 考虑先采用下面的几种方法。 2. 尝试减少特征的数量 3. 尝试获得更多的特征 4. 尝试增加多项式特征…

李飞飞重返斯坦福后的大动作:开启「以人为中心的AI计划」

来源:网络大数据刚刚,李飞飞宣布斯坦福开启「以人为中心的 AI 计划」(Human-Centered AI Initiative,HAI),该项目由李飞飞和斯坦福大学前教务长 John Etchemendy 共同主导,Chris Manning 也参与其中。李飞飞在 twitter…

支持向量机学习

与逻辑回归和神经网络相比,支持向量机,或者简称 SVM,在学习复杂的非线性 方程时 供了一种更为清晰,更加强大的方式 如果我们用一个新的代价函数来代替,即这条从 0 点开始的水平直线,然后是一条斜 线,像上图。那么,现在让我给这两个方程命名,左边的函数,我称之为cost1(z),同时,…

中国安防行业十年报告:产值增涨四倍!双巨头全球称雄

来源:智东西近年来,安防是一个快速增长的行业, 过去十年, 复合 17%的行业增长率证明了行业的持续性,龙头份额提升持续获得超越平均的增速。 根据历史数据, 2008 年至 2017 年, 十年内中国安防行…

聚类算法学习

聚类是一种非监督学习方法 在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正 样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一 个假设函数。与此不同的是,在非监督学习中,我们的数据没有附带任何标签,我们拿到…

斯坦福大学:极限工况下的无人驾驶路径跟踪|厚势汽车

来源: 同济智能汽车研究所责任编辑:啜小雪文章译自 2017 年美国控制年会的会议论文原标题:Path-Tracking for Autonomous Vehicles at the Limit of Friction原作者:Vincent A. Laurense, Jonathan Y. Gohand J. Christian Gerdes…

SQLite DBHelp

c#连接SQLite SQLite这个精巧的小数据库,无需安装软件,只需要一个System.Data.SQLite.DLL文件即可操作SQLite数据库。SQLite是一个开源数据库,现在已变得越来越流行,它的体积很小,被广泛应用于各种不同类型的应用中。S…

手写数字识别实现

本文主要实现手写数字识别,利用多类逻辑回归与神经网络两种方法实现 Multi-class Classification 数据源 There are 5000 training examples in ex3data1.mat, where each training example is a 20 pixel by 20 pixel grayscale image of the digit. Each pixe…

Science:若DTC基因检测达2%成年人群,几乎所有人的身份或将无所遁形

来源:测序中国摘要:直接面向消费者(DTC)的基因检测不仅仅是有趣那么简单,它的有用性随着样本数据库的积累,会逐渐显露出来。消费级基因检测,即直接面向消费者(DTC)的基因…

降维算法学习

降维的动机 首先,让我们谈论降维是什么。作为一种生动的例子,我们收集的数据集,有许多, 许多特征,我绘制两个在这里。 假设我们未知两个的特征 x1:长度:用厘米表示;X2,是用英寸表示同一物体的长度。 所以,这给了我们高度冗余表示,也许不是两个分开的特征 x1 和 X2,这两个…

年龄大了学Java是爱好还是转型?

年龄大了学Java是爱好还是转型? 一、前言 35岁,好像年龄也不小了,工作也有十年多了,一直搞编程,也已经做过几年研发管理。较多使用的是Delphi语言,对这门语言曾经一度的情有独钟。那是我十年前的一…

人类为什么更聪明 | 人脑神经元关键结构差异被揭示

来源:DeepTech深科技人脑中,数以千计的神经元间电信号交替传送不断,而长短不一的树突(神经元胞体延伸)在神经元信息整合中起到了关键作用,由此我们的大脑细胞才能正常反应运作。而这次,MIT 的神…