人工智能、机器学习、深度学习和神经网络的区别

人工智能

  • 背景:人工智能最初可以追溯至1956年,当时多名计算机科学家在达特茅斯会议上共同提出了人工智能的概念。在随后几十年中,人工智能一方面被认为是人类文明未来的发展方向,另一方面也被认为是难以企及的梦想。实际上,直到2012年之前,情况一直如此。

  • 定义:人工智能(Artificial Intelligence,AI)是机器模拟人的意识和思维,让计算机具备人类拥有如感知、学习、记忆、推理、决策等的能力。细分为:

    • 机器感知:机器视觉、NLP
    • 学习:模式识别、机器学习、增强学习、迁移学习等
    • 记忆:知识表示
    • 决策:规划、数据挖掘、专家系统等
  • 在机器上实现人工智能

    人工智能

智能的三个核心部分,学习,存储,应用,在自然界中有自然界的实现方式。

  • 消费级人工智能产品:谷歌 Assistant、微软 Cortana、苹果 Siri、亚马逊 Alexa、阿里的天猫精灵、小米的小爱同学。

  • 人工智能的先锋

    • Geoffrey Hinton:多伦多大学教授,谷歌大脑多伦多分部负责人,人工智能领域的鼻祖,他发表了许多让神经网络得以应用的论文,激活了整个人工智能领域。他还培养了许多人工智能的大家。如LeCun就是他的博士后。
    • Yan LeCun:纽约大学教授,Facebook人工智能研究室负责人,他改进了卷积神经网络(CNN)算法,使CNN具有了工程应用价值,现在CNN依旧是计算机视觉领域最有效的模型之一。
    • Yoshua Bengio:蒙特利尔大学教授,现任微软公司战略顾问,他推动了循环神经网络(RNN)算法的发展,使RNN得到了工程应用,用RNN解决了自然语言处理中的问题。

机器学习:实现人工智能的方法

  • 背景: 机器学习的概念来自于人工智能发展的早期。随后多年中,基于算法的方法包括决策树学习、归纳逻辑编程、聚类算法、强化学习,以及贝叶斯网络等等。正如我们所知,这些技术最终都未能形成通用人工智能,而早期的机器学习方法甚至也没有带来狭义人工智能。

    机器学习 (Machine Learning) 是近 20 多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。

    machine_learn_model

  • 定义:机器学习是一种统计学习方法,计算机用已有的数据得出某种模型,再利用模型预测结果。如果一个程序可以在任务T上,随着经验E的增加,效果P也可以随之增加,则称这个程序可以从经验中学习。

    卡内基梅隆大学(Carnegie Mellon University)的Tom Michael Mitchell教授在1997年出版的书籍Machine Learning中对机器学习进行过非常专业的定义,这个定义在学术界内被多次引用。通过垃圾邮件分类的问题来解释机器学习的定义。在垃圾邮件分类问题中,“一个程序”指的是需要用到的机器学习算法,比如逻辑回归算法;“任务T”是指区分垃圾邮件的任务;“经验E”为已经区分过是否为垃圾邮件的历史邮件,在监督式机器学习问题中,这也被称之为训练数据;“效果P”为机器学习算法在区分是否为垃圾邮件任务上的正确率。

  • 机器学习三要素

    machine_learn

  • 分类:机器学习利用算法去分析数据、学习数据,随后对现实世界情况作出判断和预测。因此,与预先编写好、只能按照特定逻辑去执行指令的软件不同,机器实际上是在用大量数据和算法去“自我训练”,从而学会如何完成一项任务。机器学习可以分为以下几类:

    • 监督学习 (Supervised Learning):从给定的数据集中学习出一个函数, 当新的数据到来时, 可以根据这个函数预测结果, 训练集通常由人工标注
    • 无监督学习 (Unsupervised Learning):相较于监督学习, 没有人工标注
    • 强化学习(Reinforcement Learning,增强学习):通过观察通过什么样的动作获得最好的回报, 每个动作都会对环境有所影响, 学习对象通过观察周围的环境进行判断
    • 半监督学习(Semi-supervised Learning):介于监督学习和无监督学习
    • 深度学习 (Deep Learning):利用深层网络神经模型, 抽象数据表示特征。

      也有资料说明:深度学习是无监督学习的一种

      机器学习分类

  • 机器学习面临的挑战

    • 数据会以各种形式和大小出现。真实数据集可能比较混乱、不完整,并且采用各种不同格式提供。
    • 预处理数据可能需要掌握专业知识和工具 。例如,对象检测算法训练中的特征选取,需要掌握图像处理领域的专业知识。不同类型的数据的特征选取,需要掌握图像处理领域的专业知识。不同类型的数据
    • 找到拟合数据的最佳模型需要时间。 如何选择正确的模型是一项平衡过程。高度灵活的模型由于拟合了噪声的细微变化而造成了过度拟合。另一方面,简单的模型可能要有更多的假设条件。这些始终是在模型速度、准确性和复杂性之间权衡取舍。

深度学习:深层次神经网络/实现机器学习的技术

  • 背景:2006年,加拿大多伦多大学教授、机器学习领域的泰斗Geoffrey Hinton和他的学生RuslanSalakhutdinov在《科学》上发表了一篇文章,开启了深度学习在学术界和工业界的浪潮。这篇文章动机在于建立、模拟人脑进行分析学习,文章有两个主要观点:

    • 1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类;

    • 2)深度神经网络在训练上的难度,可以通过“逐层初始化”(layer-wise pre-training)来有效克服,在这篇文章中,逐层初始化是通过无监督学习实现的。

      深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

      Deep learning本身算是machine learning的一个分支,简单可以理解为neural network的发展。大约二三十年前,neural network曾经是ML领域特别火热的一个方向,但是后来确慢慢淡出了,原因包括以下几个方面:1)比较容易过拟合,参数比较难tune,而且需要不少trick;2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优;

      所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算法的天下。但是,一个痴心的老先生Hinton,他坚持了下来,并最终(和其它人一起Bengio、Yann.lecun等)提成了一个实际可行的deep learning框架。

  • 定义:深度学习(Deep learning)是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。因此,“深度模型”是手段,“特征学习”是目的。区别于传统的浅层学习,深度学习的不同在于:

    • 1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;

    • 2)明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。

  • 深度学习的训练过程

    为了克服神经网络训练中的问题,DL采用了与神经网络很不同的训练机制。深度学习与传统的神经网络在训练机制上存在差异:

    • 传统神经网络(这里作者主要指前向神经网络)中,采用的是back propagation的方式进行,简单来讲就是采用迭代的算法来训练整个网络,随机设定初值,计算当前网络的输出,然后根据当前输出和label之间的差去改变前面各层的参数,直到收敛(整体是一个梯度下降法)。

    • deep learning整体上是一个layer-wise的训练机制。这样做的原因是因为,如果采用back propagation的机制,对于一个deep network(7层以上),残差传播到最前面的层已经变得太小,出现所谓的gradient diffusion(梯度扩散)。

      如果对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合(因为深度网络的神经元和参数太多了)。

      2006年,hinton提出了在非监督数据上建立多层神经网络的一个有效方法,简单的说,分为两步,一是每次训练一层网络(相当于参数的初始化),二是调优,使原始表示x向上生成的高级表示r和该高级表示r向下生成的x’尽可能一致。

      具体的训练方法是:

      1)首先逐层构建单层神经元,这样每次都是训练一个单层网络。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,是和传统神经网络区别最大的部分(这个过程可以看作是feature learning过程)。

      使用自下上升非监督学习(就是从底层开始,一层一层的往顶层训练)

      2)当所有层训练完后,使用wake-sleep算法进行调优。wake-sleep算法进行调优,是自顶向下的监督学习(就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调)

      将除最顶层的其它层间的权重变为双向的,这样最顶层仍然是一个单层神经网络,而其它层则变为了图模型。向上的权重用于“认知”,向下的权重用于“生成”。然后使用Wake-Sleep算法调整所有的权重。让认知和生成达成一致,也就是保证生成的最顶层表示能够尽可能正确的复原底层的结点。比如顶层的一个结点表示人脸,那么所有人脸的图像应该激活这个结点,并且这个结果向下生成的图像应该能够表现为一个大概的人脸图像。Wake-Sleep算法分为醒(wake)和睡(sleep)两个部分。

    • (1)wake阶段:认知过程,通过外界的特征和向上的权重(认知权重)产生每一层的抽象表示(结点状态),并且使用梯度下降修改层间的下行权重(生成权重)。也就是“如果现实跟我想象的不一样,改变我的权重使得我想象的东西就是这样的”。

    • (2)sleep阶段:生成过程,通过顶层表示(醒时学得的概念)和向下权重,生成底层的状态,同时修改层间向上的权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念”。

  • 常见的深度学习算法包括
    • 受限波尔兹曼机(Restricted Boltzmann Machine, RBN)
    • 深度置信网络(Deep Belief Networks,DBN)
    • 卷积神经网络(Convolutional Neural Network, CNN)
    • 堆栈式自动编码器(Stacked Auto-encoders,SAE)。

神经网络

  • 背景:人工神经网络在人工智能的诞生早期就已出现,但在“智能性”方面一直未能取得太大突破。问题在于,最基本的神经网络也需要大量的计算资源,因此很难实现。不过,由多伦多大学的吉奥夫里•辛顿(Geoffrey Hinton)带领的一个小型研究团队持续地进行这方面的尝试,最终找到了一种可以由超级计算机运行的算法,证明了这一概念。然而,直到GPU开始大规模部署之后,这种技术才得以普及。

  • 神经网络的发展历史

    • 第一次兴起:1958年,人们把两层神经元首尾相接,则称单层神经网络,称为感知机。感知机成了首个可以学习的人工神经网络。引发了神经网络研究的第一次兴起。
    • 第二次寒冬:1969年,这个领域的权威者Minsky用数学公式证明了只有单层神经网络的感知机无法对异或逻辑进行分类,Minsky还指出要想解决异或逻辑可分问题,需要把单层神经网络扩展到两层或者以上。然而那个时代计算机的运算能力无法支撑这种运算量。只有一层计算单元的感知机暴露了它的天然缺陷,使得神经网络陷入第一次寒冬。
    • 第二次兴起:1986年,Hinton等人提出了方向传播方法(BP),有效地解决了两层神经网络的算理问题,引发了神经网络研究的第二次兴起。
    • 第二次寒冬:1995年,支持向量机(SVM)诞生,支持向量机可以免去神经网络需要调节参数的不足,还避免了神经网络中局部最优问题,一举击败神经网络,称为当时人工智能领域的主流算法,使得神经网络进入了第二个冬季。
    • 第二次兴起:2006年,深层次神经网络出现,2012年,卷积神经网络在图像识别领域中的惊人表现,又引发了神经网络研究的第三次兴起。

      relationship_machine1

  • 定义:人工神经网络(Artificial Neural Network,即ANN )是由大量的简单处理单元经广泛并行互连形成的一种网络系统。它是对人脑系统的简化、抽象和模拟,具有大脑功能的许多基本特征。

关系

  • 人工智能与机器学习

    机器学习是实现人工智能的手段, 其主要研究内容是如何利用数据或经验进行学习, 改善具体算法的性能多领域交叉, 涉及概率论、统计学, 算法复杂度理论等多门学科广泛应用于网络搜索、垃圾邮件过滤、推荐系统、广告投放、信用评价、欺诈检测、股票交易和医疗诊断等应用。

    人工智能的根本在于智能,而机器学习则是部署支持人工智能的计算方法。简单的讲,人工智能是科学,机器学习是让机器变得更加智能的算法,机器学习在某种程度上成就了人工智能。

    relationship_machine

  • 机器学习与深度学习

    深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是无监督学习的一种。

    深度学习与机器学习对比

  • 深度学习与神经网络

    深度学习算法是对人工神经网络的发展。在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。

    现代的深度学习已经超越了神经科学观点,它可以更广泛地适用于各种并不是由神经网络启发而来的机器学习框架。值得注意的是,有一个领域的研究者试图从算法层理解大脑的工作机制,它不同于深度学习的领域,被称为“计算神经学”(computational neuroscience)。深度学习领域主要关注如何搭建智能的计算机系统,解决人工智能中遇到的问题。计算神经学则主要关注如何建立更准确的模型来模拟人类大脑的工作。

    • Neural networks, a beautiful biologically-inspired programming paradigm which enables a computer to learn from observational data

    • Deep learning, a powerful set of techniques for learning in neural networks

参考:

  1. 无监督学习
  2. 简单读懂人工智能:机器学习与深度学习是什么关系
  3. 系统学习深度学习(一) –深度学习与神经网络关系
  4. Neural Networks and Deep Learning
  5. 机器学习算法汇总:人工神经网络、深度学习及其它

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/242478.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

神经网络知识整理

简介人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。ANN是由大量的简单处理单元经广泛并行互连形成的一种网络系统。它是对人脑系统的简化、抽象和模拟,具有大脑功能…

非线性控制理论

非线性控制理论 随着科学技术的发展,人们对实际生产过程的分析要求日益精密,各种较为精确的分析和科学实验的结果表明,任何一个实际的物理系统都是非线性的。所谓线性只是对非线性的一种简化或近似,或者说是非线性的一种特例。 …

回滚 - 每天5分钟玩转 Docker 容器技术(141)

kubectl apply 每次更新应用时 Kubernetes 都会记录下当前的配置,保存为一个 revision(版次),这样就可以回滚到某个特定 revision。 默认配置下,Kubernetes 只会保留最近的几个 revision,可以在 Deployment…

霍金一生重要时刻照片合集,3次来中国,年轻时也是帅哥一枚

霍金童年时期霍金和他妹妹12岁的时候霍金在之家花园霍金在骑自行车中青年时期霍金在划船霍金和同学们在一起霍金21岁时患上肌肉萎缩性侧索硬化症23岁时霍金取得了牛津大学博士学位1965年,霍金与简恩结为夫妻霍金与孩子们霍金和妻儿在牛津大学1973年,他考察黑洞附近的…

论文写作技巧

论文写作技巧 引言 回答二个问题,研究主题是啥?动机是啥?

没有还款日期的借条会永久有效吗?

从债务关系上看,借条的有效期是永久的,不管过来多长时间,哪怕是100年,只要钱没有还清,那债务关系就会一直存在,只要借款人愿意还钱都有效。但是这种债务关系是否受到法律的保护是有时间限制的,就…

为什么大多数穷人都不敢创业,穷人最缺的是什么?

提到这个问题,估计很多人会首先想到的是思维上的差异,我们网上看到最多的分析为什么穷人不敢创业而富人敢,很多人提到的就是思维上的差异。富人之所以富,因为他们有富的思维,而穷人之所以穷,是因为他们是穷…

原来信用卡肉这么肥,怪不得银行天天给你发短信叫你办理

大家是不是经常收到银行信用卡推销短信或电话?为什么银行这么积极推销信用卡呢?大家不要以为银行是慈善家,有着普渡天下的菩萨心肠,白白给你最多50多天的免息期。实际上信用卡是一块大肥肉,比贷款来钱更轻松&#xff0…

动态系统建模-状态空间方程

动态系统建模-状态空间方程 状态空间方程是现代控制理论的基础, 它以矩阵的形式表达系统状态变量、 输入及输出之间的关系。 它可以描述和处理多输入多输出(MultipleInput Multiple Output, MIMO) 的系统。 状态空间方程 单输入单输出(SingleInput Single Output,SISO) 系统…

社保卡绑定支付宝,直接在支付宝上报销!

很多朋友可能有这样的疑问,社保卡能绑定支付宝吗?如果你的社保卡是金融社保卡,那当然可以绑定支付宝和微信。但是如果你的社保卡是以前那种老社保卡,那是没法绑定的。一、金融社保卡可以正常绑定支付宝、微信。金融社保卡本身也是…

Health Check - 每天5分钟玩转 Docker 容器技术(142)

强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性。自愈的默认实现方式是自动重启发生故障的容器。除此之外,用户还可以利用 Liveness 和 Readiness 探测机制设置更精细的健康检查,进而实现如下需求: 零停机部署。 避免部署无效…

动态系统的建模与分析

动态系统的建模与分析 分析被控对象的物理特性及动态表现,在这个基础上建立数学模型,数学模型可以是动力学模型、热力学模型、流体力学模型和经济学模型等,然后在数学模型的基础上进行控制器的设计,为满足不同的要求就要应用不同…

应用监督式学习

监督学习定义:监督式学习算法接受已知的输入数据集合(训练集)和已知的对数据的响应(输出),然后训练一个模型,为新输入数据的响应生成合理的预测。监督学习技术可分成分类或者回归的形式。 分类&…

信用卡逾期成黑户,不良记录会背一辈子吗?

黑户不良记录是否会倍一辈子,关键在于你怎么选择。你可以选择背5年,也可以选择背一辈子!首先给大家一个安慰,信用卡逾期不等于黑名单,所谓黑名单只是银行的一种说法,一般连续逾期3个月以上才会被银行关进小…

傅里叶级数和傅里叶变换

傅里叶级数和傅里叶变换 傅里叶变换,表示能将满足一定条件的某个函数表示成三角函数(正弦和/或余弦函数)或者它们的积分的线性组合。

信用卡逾期,违约金和利息忘还了会怎么样?

违约金和利息忘还了,那将面临两个问题:一个是继续面临罚息和违约金;另一个是征信会逾期,给你征信造成不良影响。先说下罚息和违约金。如果你逾期之后把本金还清了,但是忘了还违约金和罚息,那你的还款是有一…

Liveness 探测 - 每天5分钟玩转 Docker 容器技术(143)

Liveness 探测让用户可以自定义判断容器是否健康的条件。如果探测失败,Kubernetes 就会重启容器。 还是举例说明,创建如下 Pod: 启动进程首先创建文件 /tmp/healthy,30 秒后删除,在我们的设定中,如果 /tmp/…

MPC模型预测控制

MPC模型预测控制 模型预测控制(MPC)是一类特殊的控制。它的当前控制动作是在每一个采样瞬间通过求解一个有限时域开环最优控制问题而获得。过程的当前状态作为最优控制问题的初始状态,解得的最优控制序列只实施第一个控制作用。这是它与那些使用预先计算控制律的算…

数据不平衡分类问题

引言不平衡分类问题是指训练样本数量在类间分布不平衡的模式分类问题。在实际应用中,不平衡问题很常见。有些问题其原始数据的分布就存在不平衡,如通过卫星雷达图片检测海面石油油污、监测信用卡非法交易、发掘基因序列中编码信息以及医学数据分类等。 所…

蚂蚁金服上市后,借呗额度会大幅提升吗?

我个人觉得蚂蚁金服上市之后,部分用户的借呗额度会提升,被关闭的借呗用户,大部分人应该会重新放开。我们首先来了解一下,为什么蚂蚁金服之前为什么蚂蚁金服对部分用户进行降额或关闭处理。1、监管政策从去年开始,监管部…