机器学习必知的8大神经网络架构和原理

来源:全球人工智能

概要:有些任务直接编码较为复杂,我们不能处理所有的细微之处和简单编码,因此,机器学习很有必要。


为什么需要机器学习?


有些任务直接编码较为复杂,我们不能处理所有的细微之处和简单编码,因此,机器学习很有必要。相反,我们向机器学习算法提供大量数据,让算法不断探索数据并构建模型来解决问题。比如:在新的杂乱照明场景内,从新的角度识别三维物体;编写一个计算信用卡交易诈骗概率的程序。


机器学习方法如下:它没有为每个特定的任务编写相应的程序,而是收集大量事例,为给定输入指定正确输出。算法利用这些事例产生程序。该程序与手写程序不同,可能包含数百万的数据量,也适用于新事例以及训练过的数据。若数据改变,程序在新数据上训练且被更新。大量的计算比支付手写程序要便宜的多。


机器学习的应用如下:


  1. 模式识别:识别实际场景的面部或表情、语言识别。


  2. 识别异常:信用卡交易顺序异常,核电厂传感器读数模式异常。


  3. 预测:未来股价或货币汇率,个人观影喜好。


什么是神经网络?


神经网络是一种通用机器学习模型,是一套特定的算法集,在机器学习领域掀起了一场变革,本身就是普通函数的逼近,可以应用到任何机器学习输入到输出的复杂映射问题。一般来说,神经网络架构可分为3类:


  1. 前馈神经网络:是最常见的类型,第一层为输入,最后一层为输出。如果有多个隐藏层,则称为“深度”神经网络。它能够计算出一系列事件间相似转变的变化,每层神经元的活动是下一层的非线性函数。


  2. 循环神经网络:各节点之间构成循环图,可以按照箭头的方向回到初始点。循环神经网络具有复杂的动态,难以训练,它模拟连续数据,相当于每个时间片段具有一个隐藏层的深度网络,除了在每个时间片段上使用相同的权重,也有输入。网络可以记住隐藏状态的信息,但是很难用这点来训练网络。


  3. 对称连接网络:和循环神经网络一样,但单元间的连接是对称的(即在两个方向的连接权重相同),它比循环神经网络更容易分析,但是功能受限。没有隐藏单元的对称连接的网络被称为“Hopfiels网络”,有隐藏单元的对称连接的网络则被称为“波兹曼机器”。


一、感知机(Perceptron)



作为第一代神经网络,感知机是只有一个神经元的计算模型。首先将原始输入矢量转化为特征矢量,再用手写程序定义特征,然后学习如何对每个特征加权得到一个标量,如果标量值高于某一阈值,则认为输入矢量是目标类的一个积极样例。标准的感知机结构是前馈模型,即输入传送到节点,处理后产生输出结果:从底部输入,顶部输出,如下图所示。但也有其局限性:一旦确定了手写编码特征,在学习上就受到了较大限制。这对感知器来说是毁灭性的,尽管转换类似于翻译,但是模式识别的重点是识别模式。如果这些转换形成了一个组,学习的感知器部分不能学会识别,所以需要使用多个特征单元识别子模式的转换。


没有隐藏单元的网络在输入输出映射建模上也有很大局限性。增加线性单元层也解决不了,因为线性叠加依然是线性的,固定的非线性输出也不能建立这种映射。因此需要建立多层自适应的非线性隐藏单元。


二、卷积神经网络(Convolutional Neural Network)


一直以来,机器学习研究广泛集中在对象检测上,但仍有诸多因素使其难以

识别对象:1.对象分割、遮挡问题;2.照明影响像素强度;3.物体以各种不同的形式展现;4.相同功能的对象具有不同的物理形状;5.视觉不同带来的变化;6.维度跳跃问题。




复制特征方法是当前CNN用于目标检测的主要方法,大规模的复制不同位置上相同的特征检测图,大大减少了要学习的自由参数数量。它使用不同的特征类型,每种类型都有自己的复制检测图,也允许以各种方式表示每个图像块。


CNN可用于手写数字识别到3D对象识别等,但从彩色图像中识别对象比手写数字识别要复杂,它的类别、像素是数字的100倍(1000 vs 100,256*256彩色vs28*28灰度)。


2012年的ILSVRC-2012竞赛中的ImageNet提供一个包含120万张高分辨率训练图像的数据集。测试图像没有标注,参赛者需要识别图像中对象的类型。获胜者 Alex Krizhevsky开发了一个深度卷积神经网络,除了一些最大池化层,架构还有7个隐藏层,前面都是卷积层,最后2层是全局连接。激活函数在每个隐藏层都是线性单元,比逻辑单元速度更快,还使用竞争性规范标准抑制隐藏活动,有助于强度变化。硬件上,在两个Nvidia GTX 580 GPU(超过1000个快速内核)上使用一个高效卷积网络实现,非常适合矩阵乘法,具有很高的内存带宽。


三、循环神经网络( Recurrent Neural Network)


循环神经网络(RNN)有两个强大的属性可以计算任何计算机计算出来的东西:(1)允许存储大量有效信息的分布式隐藏状态(2)用复杂的方式允许更新隐藏状态的非线性动态。RNN强大的计算能力和梯度消失(或爆炸)使其很难训练。通过多层反向传播时,若权重很小,则梯度呈指数缩小;若权重很大,则梯度呈指数增长。典型的前馈神经网络的一些隐藏层可以应对指数效应,另一方面,在长序列RNN中,梯度容易消失(或爆照),即使有好的初始权重,也很难检测出当前依赖于多个时间输入的目标输出因此很难处理远程依赖性。


学习RNN的方法如下:


  1. 长短期记忆:用具有长期记忆值的小模块制作RNN。


  2. Hessian Free Optimization:使用优化器处理梯度消失问题。


  3. 回声状态网络:初始化输入→隐藏和隐藏→隐藏和输出→隐藏链接,使隐藏状态有一个巨大的弱耦合振荡器储备,可以选择性的由输入驱动。


  4. 用动量初始化:和回声状态网络一样,再用动量学习所有连接。


四、长短期记忆网络(Long/Short Term Memory Network)



Hochreiter & Schmidhuber(1997年)构建了长短期记忆网络,解决了获取RNN长时间记忆问题,使用乘法逻辑线性单元设计存储单元,只要保持“写入”门打开,信息就会写入并保持在单元中,也可以打开“读取”门从中获取数据。


RNN可以阅读行书,笔尖的输入坐标为(x,y,p),p代表笔是向上还是向下,输出则为一个字符序列,使用一系列小图像作为输入而不是笔坐标。Graves & Schmidhuber(2009年)称带有LSTM的RNN是阅读行书的最佳系统。


五、霍普菲尔德网络(Hopfield Networks)


非线性循环网络有很多种表现方式,较难分析:能达到稳定、震荡或馄饨状态这三种表现形式。Hopfield网络是由有循环连接的二进制阈值单元组成。1982年,约翰·霍普菲尔德发现,如果连接对称,则存在一个全局能量函数,整个网络的每个二进制“结构”都有能量,而二进制阈值决策规则使网络为能量函数设置一个最小值。使用这种计算类型最简单的方法是将记忆作为神经网络的能量最小值。使用能量最小值表示记忆给出了一个内容可寻内存,可通过了解局部内容来访问整个项目。



每记忆一次配置,都希望能产生一个能量最小值。但若有两个最小值就会限制Hopfield网络容量。伊丽莎白·加德纳发现有一个更好的存储规则,它使用了所有的权重。而不是试图一次存储多个矢量,她通过训练集进行多次循环,并用感知器收敛程序训练每个单元,使该矢量的所有其它单元具有正确的状态。


六、玻尔兹曼机(Boltzmann Machine Network)


 玻尔兹曼机是一种随机循环神经网络,可以被看作是Hopfield网络的随机生成产物,是最先学习内部representations的神经网络之一。该算法旨在最大限度地提高机器在训练集中分配给二进制矢量的概率的乘积,相当于最大化其分配给训练矢量的对数概率之和,方法如下:(1)网络没有外部输入时,使网络在不同时间分布稳定;(2)每次对可见矢量采样。



2012年,Salakhutdinov和Hinton为玻尔兹曼机写了有效的小批量学习程序。2014年将模型更新,称之为受限玻尔兹曼机,详情请查看原文。


七、深度信念网络(Deep Belief Network)



反向传播,是人工神经网络计算处理一批数据后每个神经元的误差分布的标准方法,但是也存在一些问题。首先要标注训练数据,但几乎所有数据都没有标注;其次,学习时间不足,这意味着隐藏层数较多的网络较慢;第三,可能会使局部陷入最不利局面。因此,对于深度网络来说这远远不够。


无监督学习方法克服了反向传播的限制,使用梯度方法调整权重有助于保持架构的效率和简单性,还可以将它用于对感官输入结构建模。特别的是,它调整权重,将产生感官输入的生成模型概率最大化。信念网络是由随机变量组成的有向非循环图,可推断未观测变量的状态,还可以调整变量间的交互,使网络更可能产生训练数据。


早期图形模型是专家定义图像结构和条件概率,这些图形是稀疏连接的,他们专注于做正确的推论,而不是学习。但对于神经网络来说,学习是重点,其目的不在于可解释性或稀疏连接性使推断变得更容易。


八、深度自动编码器(Deep Auto-encoders)

该架构提供了两种映射方式,好像是一个做非线性降维非常好的方法,它在训练事例的数量上是线性的(或更好的),而最终编码模型相当紧凑和快速。然而,使用反向传播优化深度自动编码器很困难,若初始权重较小,反向传播梯度会消失。我们使用无监督逐层预训练或像回声状态网络一样认真的初始化权重。



对于预训练任务有三种不同类型的浅自动编码器:(1)RBM作为自动编码器;(2)去噪自动编码器;(3)压缩自动编码器。对于没有大量标注的数据集,预训练有助于后续的判别式学习。即便是深度神经网络,对于大量的标注数据集,无监督训练对权重初始化并不是必要的,预训练是初始化深度网络权重的第一个好方法,现在也有其它方法。但如果扩大网络,需要再次做预训练。


总结:传统的编程方法是我们告诉计算机做什么,将大问题分解成很多小而精确的且计算机可以轻松执行的任务。神经网络则不需要告诉计算机如何解决问题,而是从观测到的数据中学习,找到解决问题的办法。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。由互联网进化论作者,计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/497560.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《科学》盘点2018可能被聚焦的研究领域

来源:科学网 概要:随着这些大趋势展现出来,《科学》杂志预测了今年可能被聚焦的关于研究和政策的特定领域。动荡的政治变革将在新的一年塑造科学的进程。美国总统唐纳德特朗普领导的政府预计将继续致力于废除基于科学的环境法规。英国离开欧盟…

谷歌大脑2017总结下篇:从医疗、机器人等6个领域开始的改变世界之旅

作者:camel概要:Jeff Dean发表了这篇博文的下篇,内容包括谷歌大脑在 AI 应用方面(诸如医疗、机器人、创新、公平和包容等)的工作。昨天谷歌大脑(Google Brain)负责人 Jeff Dean 在 Google Resea…

Gartner:人工智能将改变个人设备领域的游戏规则

来源:人工智能和大数据概要:目前,AI正在产生多种颠覆性力量,重塑我们与个人技术互动的方式。近日,Gartner公司预测,随着情感人工智能(AI)日臻成熟,个人设备到2022年将比您…

张小龙演讲干货:微信的未来在哪?这里有7个答案

来源:钱塘大数据概要:1月15日,以“to be正当时”为主题的2018微信公开课Pro版在广州举行,腾讯集团高级执行副总裁、微信事业群总裁张小龙出席并发表演讲。1月15日,以“to be正当时”为主题的2018微信公开课Pro版在广州…

敏捷软件开发—原则、模式与实践总结

思维导图:https://www.processon.com/view/link/60d46dfb5653bb049a469068

AWS VS 阿里云 VS 腾讯云 国内三大云服务商云主机评测报告

来源:CloudBest概要:近几年,随着国内公有云市场规模的不断增长,以阿里云、腾讯云为代表的本土云服务商,以及以AWS、微软Azure为代表的海外云服务商,成为公有云市场最大的赢家,市场寡头化趋势已经…

单一职责原则(SRP)

单一职责原则(The Single Responsibility Principle,SRP) 就一个类而言,应该仅有一个引起它变化的原因。 为何要把两个职责分离到单独的类中? 因为每一个职责都是变化的一个轴线(an axis of change&…

多国相继出台政策法规:为「自动驾驶」的「创新发展」保驾护航

来源:腾讯研究院曹建峰 腾讯研究院法律研究中心高级研究员祝林华 腾讯研究院法律研究中心助理研究员人工智能等新技术,正从科幻概念逐步落地到各行各业,将从重塑驾驶、医疗、制造等领域开始,全面重构人类社会和生活。自动驾驶汽…

华为《5G业务商业价值评估》白皮书!

来源:5G蹇飒:华为公司商业与网络咨询部咨询专家。概要:在过去不长的时间里,5G技术不断取得重大进展,5G发展之路更为清晰。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学…

java正则匹配的坑_java正则表达式入坑指南

在日常开发工作中,无论你使用的语言是java、python、shell、golang还是C#, 正则表达式是编程语言中几乎绕不开的话题。有了它,可以帮你快速定位到符合条件的文本内容。今天小编带大家一起来学习下正则表达式,相信通过这篇文章的介…

这有5种来自大自然「馈赠」的AI技术及其应用,你知道多少?

原文来源:Towards Data Science作者:Luke James「雷克世界」编译:KABUDA对于技术领域中存在的AI相关技术,我们应心存感恩。人类不仅花费了数十年的时间来研究完善数学算法,以使这些奇妙复杂的算法发挥效用,…

物联网定位技术超全解析!定位正在从室外走向室内~

来源:物联网智库概要:GPS和基站定位技术基本满足了用户在室外场景中对位置服务的需求。GPS和基站定位技术基本满足了用户在室外场景中对位置服务的需求。然而,人的一生当中有80%的时间是在室内度过的,个人用户、服务机器人、新型物…

有效的单元测试--总结

思维导图:https://www.processon.com/view/link/60d3072d0791297edd63290a

java原生的ajax怎么写_原生Ajax代码实现

AjaxAsynchronous JavaScript And XML异步:指一段程序执行时不会阻塞其他程序执行,其表现形式为程序的执行顺序不依赖程序本身的书写顺序 ,相反的则为同步,自己理解的就是类似百度的搜索框输入内容时的提示相关的内容功能&#xf…

人工智能阅读理解是如何打破人类记录? 解读阿里iDST SLQA 技术

来源:网络大数据概要:微软和阿里巴巴开发的人工智能在斯坦福阅读理解测试中并列第一,在答案的精确匹配度上比人类高出几个基点。微软和阿里巴巴开发的人工智能在斯坦福阅读理解测试中并列第一,在答案的精确匹配度上比人类高出几个…

Java测试驱动开发--总结

思维导图:https://www.processon.com/view/link/60d307415653bb049a437111

看到记忆的印迹:神经科学家们如何定位、唤醒甚至偷换记忆

来源:澎湃新闻概要:借助新兴的脑部成像技术,神经科学家们得以“看到”与特定记忆相关的特定神经细胞,了解记忆形成和唤起的规律,并成功地重新激活记忆通路。《神探夏洛克》中福尔摩斯在停尸间的初次登场,给…

卓有成效的管理者--总结

思维导图:https://www.processon.com/view/link/60d6f723e401fd50b99628ad

人工合成生命的最新进展比AI还快

合成酵母的科学杂志当期封面来源:通信和互联网的扫地僧2016年以来,以AlphaGo为标志的人工智能技术进入了发展的快车道,成为了民众热议的话题。2017年12月27日,华大基因董事长汪建在深商大会上表示,未来的5-10年&#x…

加利福尼亚大学提出从「因果革命」的七大成就中为「机器学习」寻求良好的模型指导

原文来源:arxiv作者:Judea Pearl「雷克世界」编译:嗯~是阿童木呀可以这样说,目前的机器学习系统几乎完全是以统计模式或无模型模式运行的,这对于其功率和性能来说存在着严格的理论限制。这样的系统不能引发干预和反思&…