神经网络知识整理

简介

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。ANN是由大量的简单处理单元经广泛并行互连形成的一种网络系统。它是对人脑系统的简化、抽象和模拟,具有大脑功能的许多基本特征。

ANN是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。在ANN中,神经元之间互连方式成为连接模式或连接模型。它不仅决定了神经元网络的互联结构,同时也决定了神经网络的信号处理方式。

  • 神经网络的基本功能:(1)联想记忆(2)非线性映射(3)分类和识别(4)优化计算(5)知识处理
  • 神经网络的基本特征

    • 能力特征——自学习、自组织和自适应性。

    • 结构特征——并行处理、分布式存储和容错特性。

      人工神经网络是有大量的简单处理单元相互连接构成的高度并行的非线性系统,具有大规模并行性处理特征。结构上的并行性使得神经网络的信息存储必然分布式方式,即信息不是存储在网络的某个局部,而是分布在网络所有的连接权中。神经网络内在的并行性与分布性表现在其信息的存储余处理都是都是在空间上分布、时间上并行的,这连个特点必然使神经网络在两个方面表现出良好的容错性:一方面由于信息的分布式存储,当网络中部分神经元损环时不会对系统的整体性能造成影响,这一点就像人脑中每天都有神经细胞正常死亡而不会影响大脑的功能一样;另一方面单输入模糊、残缺或变形的信息时,神经网络能够通过联想恢复出完整的记忆,从而实现对不完整输入信息的正确识别,这一点就像人可以对不规则的手写进行正确识别一样。

参考:田雨波.混合神经网络技术[M].北京:科技出版社,2009.


发展历史

  1943年[1],心理学家W.S.McCulloch和数理逻辑学家W.Pitts提出了第一个人工神经元模型——MP模型。他们通过MP模型提出了神经元的形式化数学描述和网络结构方法,证明了单个神经元能执行逻辑功能,从而开创了人工神经网络研究的时代。

  1958 年 Rosenblatt[2]在 MP 模型的基础上提出了感知器模型(Perceptron),第一次将人工神经网络理论应用在实际问题中。M.Minsky等仔细分析了以感知器为代表的神经网络系统的功能及局限后,于1969年出版了《Perceptron》一书,指出感知器不能解决高阶谓词问题。他们的论点极大地影响了神经网络的研究,加之当时串行计算机和人工智能所取得的成就,掩盖了发展新型计算机和人工智能新途径的必要性和迫切性,使人工神经网络的研究处于低潮。

  在此期间,一些人工神经网络的研究者仍然致力于这一研究,提出了适应谐振理论(ART网)、自组织映射、认知机网络,同时进行了神经网络数学理论的研究。以上研究为神经网络的研究和发展奠定了基础。

  1982年,美国加州工学院物理学家J.J.Hopfield[3-4]提出了Hopfield神经网格模型,为以后人工神经网络的研究提供了理论基础,同时引入了“计算能量”概念,给出了网络稳定性判断。1984年,他又提出了连续时间Hopfield神经网络模型,为神经计算机的研究做了开拓性的工作,开创了神经网络用于联想记忆和优化计算的新途径,有力地推动了神经网络的研究。

  1985年,又有学者提出了波尔兹曼模型,在学习中采用统计热力学模拟退火技术,保证整个系统趋于全局稳定点。

  1986年Rumelhart等人提出了并行分布处理理论以及具有非线性转移函数的多层前馈网络(BackPropagation Networks)的误差反向传播算法(Back Propagation),Rumelhart和McClelland出版了《Parallel distribution processing: explorations in the microstructures of cognition》。迄今,BP算法已被用于解决大量实际问题。

  1988年,Linsker对感知机网络提出了新的自组织理论,并在Shanon信息论的基础上形成了最大互信息理论,从而点燃了基于NN的信息应用理论的光芒。1988年,Broomhead和Lowe用径向基函数(Radial basis function, RBF)提出分层网络的设计方法,从而将NN的设计与数值分析和线性适应滤波相挂钩。

  90年代初,Vapnik等提出了支持向量机(Support vector machines, SVM)和VC(Vapnik-Chervonenkis)维数的概念。人工神经网络的研究受到了各个发达国家的重视,美国国会通过决议将1990年1月5日开始的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”变为全球行为。在日本的“真实世界计算(RWC)”项目中,人工智能的研究成了一个重要的组成部分。

ANN简史


神经网络的三元素

ANN三要素

胜者为王学习规则即为竞争学习规则。

神经元模型

神经元模型图解:

神经元模型工作原理

功能函数f(激活函数)是表示神经元输入与输出之间关系的函数,根据功能的不同,可以得到不同的神经元模型。常用的神经元模型有一下几种:

  • (1)阈值型(Threshold):这种模型的神经元没有内部状态,激活函数f是一个阶跃函数,表示激活值σ和其输出f(σ)之间的关系。波形如下图中(1)。阈值型神经元是最简单的人工神经元,这种二值型神经元,其输入状态取值1或0,分别表示神经元的兴奋与抑制。如σ>0时激活,σ<0时抑制。其中 M-P模型 就属于一种阈值元件模型,它是由美国心理学家Mc Cukkoch和数学家Pitts提出的最早(1943)神经元模型之一。M-P模型是大多数神经网络模型的基础。M-P模型的6个特点:

    • 每个神经元都是一个多输入单输出的信息处理单元;

    • 神经元输入分兴奋性输入和抑制性输入两种类型;

    • 神经元具有空间整合特性和阈值特性

    • 神经元输入与输出间有固定的时滞,主要取决于突触延搁;

    • 忽略时间整合作用和不应期;

    • 神经元本身是非时变的,即其突触时延和突触强度均为常数。

  • (2)分段线性强饱和型(Linear staturation):这种模型又称伪线性,其输入/输出之间在一定范围内满足线性关系,一直延续到输出为最大值1为止,但达到最大就不再增大,波形如下图中(2)。

  • (3)S型(Sigmoid):这是一种连续的神经元模型,其输出函数也是一个最大输出值的非线性函数,其输出值在某个范围内连续取值,输入输出特性常用S型函数表示,它反映的是神经元的饱和特性,波形如下图中(3)。

  • (4)子阈累积型(Subthreshold Summation):这种类型的激活函数也是作为非线性,当产生的激活值超过T值时,该神经元被激活产生一个反响。在线性范围内,系统的反响是线性的,波形如下图中(4)。

常用的激活函数

从生理学角度看,阈值型最符合人脑神经元的特点,事实上,人脑神经元正式通过电位的高低两种状态来反映该神经元的兴奋与抑制。然而,由于阶跃函数不可微。因此,实际上更多使用的是与之相仿的S型函数

  • 常用激活函数

    • 线性函数 ( Liner Function )
    • 斜面函数 ( Ramp Function )
    • 阈值函数 ( Threshold Function )
    • S形函数 ( Sigmoid Function )
    • 双极S形函数

      前两种是线性的,后两种是非线性的。S形函数与双极S形函数都是可导的(导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)

参考:

  1. 神经网络学习 之 M-P模型
  2. 神经网络基本原理_PPT
  3. 人工神经元模型及常见激活函数

网络结构

一个ANN的神经元模型确定之后,一个神经网络的特性及能力主要取决于其网络结构与学习方法。神经网络通常被描述为具有层(输入,隐藏或输出层),其中每层由并行的单元组成。通常同一层不具有连接、两个相邻层完全连接(每一层的每一个神经元到另一层的每个神经元)。

  • 感知器:只有输入层和输出层,是最简单的神经网络结构。

  • 多层感知器:就是在输入层和输出层之间加入隐层。

    随着隐层层数的增多,凸域将可以形成任意的形状,因此可以解决任何复杂的分类问题。实际上,Kolmogorov理论指出:双隐层感知器就足以解决任何复杂的分类问题

  • …(具体如下图所示)

神经网络结构

参考:

  1. 史上最好记的神经网络结构速记表(下)
  2. 25张图让你读懂神经网络架构

学习算法

学习算法的定义及分类

学习算法是ANN的核心问题,神经网络的学习算法有很多种,大体可以分为有监督学习和无监督学习(半监督学习是介于两者之间)。另外一类是死记式学习。

  • 有监督学习(Supervised Learning):从给定的数据集中学习出一个函数, 当新的数据到来时, 可以根据这个函数预测结果, 训练集通常由人工标注。一般需要实现收集样本数据,将数据分为训练集和检验集两部分,以保证所训练的神经网络同时具有拟合精度和泛化能力。一般用于回归和分类

  • 无监督学习(Unsupervised Learning):相较于监督学习, 没有人工标注。主要用于聚类(clustering)和降维(DimensionReduction),可作为增强学习和监督学习的预处理。

  • 强化学习(Reinforcement Learning,增强学习):通过观察通过什么样的动作获得最好的回报, 每个动作都会对环境有所影响, 学习对象通过观察周围的环境进行判断。

  • 半监督学习(Semi-supervised Learning):介于监督学习和无监督学习。

  • 死记式学习:网络实现设计成能记忆特定的例子,以后当给定有关钙离子的输入信息时,例子便能被回忆起来。死记式学习中网络的权值一旦设计好了就不再变动,因此其学习是一次性的,而不是一个训练过程。

机器学习算法的选择,考虑的指标:(1)泛化能力(2)时间复杂度——训练的速度(3)空间复杂度——内存使用(4)在线学习能力(4)透明度或可解释性等。

训练与学习的区别

训练函数和学习函数是两个不同的函数,网络设置中两个都有。训练函数求得权值或阈值之后,由学习函数进行调整,然后再由训练函数训练新的权值或阈值,然后再调整,反复下去。

  • 训练函数确定调整的大算法,是全局调整权值和阈值,考虑的是整体误差的最小。训练函数是如何让误差最小的一些算法,如梯度下降,共轭梯度,这里强调算法。

  • 学习函数决定调整量怎么确定,是局部调整权值和阈值,考虑的是单个神经元误差的最小。学习函数是指权值和阈值的调整规则,或者称更新规则。

两者的联系:训练函数求得权值或阈值之后,由学习函数进行调整,然后再由训练函数训练新的权值或阈值,然后再调整,反复下去。

此处的训练函数对应神经网络的学习算法,是整个网络的权参数调整算法。

神经网络学习规则

神经网络的学习规则是修正权值的一种算法,分为联想式和非联想式学习,有监督学习和无监督学习等。下面介绍几个常用的学习规则。

  • 误差修正型规则:是一种有监督的学习方法,根据实际输出和期望输出的误差进行网络连接权值的修正,最终网络误差小于目标函数达到预期结果。
  • 竞争型规则:无监督学习过程,网络仅根据提供的一些学习样本进行自组织学习,没有期望输出,通过神经元相互竞争对外界刺激模式响应的权利进行网络权值的调整来适应输入的样本数据。
  • Hebb 型规则:利用神经元之间的活化值来反映它们之间联接性的变化,即根据相互连接的神经元之间的活化值来修正其权值。
  • 随机型规则:在学习过程中结合了随机、概率论和能量函数的思想,根据目标函数(即网络输出均方差)的变化调整网络的参数,最终使网络目标函数达到收敛值。

参考:马秋明. 基于感知机优化的BP神经网络邮件分类算法研究[D]. 电子科技大学, 2011.


神经网络的结构及工作原理

神经网络的一般结构

  神经网络一般由输入层、隐藏层、输出层三部分组成,具体如下:

  • 输入层(Input layer),众多神经元(Neuron)接受大量非线形输入讯息。输入的讯息称为输入向量。

  • 隐藏层(Hidden layer),简称“隐层”,是输入层和输出层之间众多神经元和链接组成的各个层面。如果有多个隐藏层,则意味着多个激活函数。

  • 输出层(Output layer),讯息在神经元链接中传输、分析、权衡,形成输出结果。输出的讯息称为输出向量。

神经网络的工作过程

神经网络的工作过程包括构造阶段、离线学习和在线判断两部分。

  • 构造阶段:确定神经网络的神经元模型(激励函数)、网络拓扑结构(连接方式,有几层以及各层的神经元个数)、学习算法三要素,确定神经网络的结构。

  • 学习过程:对各神经元进行规则学习,权参数调整,进行非线性映射关系拟合以达到训练精度;最终达到的效果是神经网络的权参数的固定值。

    神经网络的学习就是改变权值矩阵的过程。

  • 判断阶段:训练好的稳定的网络(有固定的权参数)读取输入信息通过计算得到输出结果。


神经网络模型分类

  神经网络由大量的神经元互相连接而构成,根据神经元的链接方式,神经网络可以分为3大类。

  • 前馈神经网络(Feedforward Neural Networks)

    前馈网络也称前向网络。这种网络只在训练过程会有反馈信号,而在分类过程中数据只能向前传送,直到到达输出层,层间没有向后的反馈信号,因此被称为前馈网络。前馈网络一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系;

    感知机( perceptron)与BP神经网络就属于前馈网络。下图是一个3层的前馈神经网络,其中第一层是输入单元,第二层称为隐含层,第三层称为输出层(输入单元不是神经元,因此图中有2层神经元)。

  • 反馈神经网络(Feedback Neural Networks)

    反馈型神经网络是一种从输出到输入具有反馈连接的神经网络,其结构比前馈网络要复杂得多。反馈神经网络的“反馈”体现在当前的(分类)结果会作为一个输入,影响到下一次的(分类)结果,即当前的(分类)结果是受到先前所有的(分类)结果的影响的。

    典型的反馈型神经网络有:Elman网络和Hopfield网络。

  • 自组织网络(SOM ,Self-Organizing Neural Networks)

    自组织神经网络是一种无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

    基本结构:输入层和竞争层


人工神经网络研究的局限性及发展趋势

  • 发展趋势

    • 促进神经生理学、神经解剖学的研究
    • 发展与之相关的数学领域
    • 增强对智能和机器关系问题的认识
    • 发展神经计算和进化计算的理论与应用
    • 促进信息科学与生命科学的相互融合

      注:神经网络与各种智能信息处理方法有很大的发展前景,如与模拟退火算法、遗传算法、粒子群算法、模糊理论、混沌理论和小波分析等相结合,即形成所谓的“混合神经网络技术

  • 局限性

    • ANN研究收到脑科学成果的限制。
    • ANN缺乏一个完整、成熟的理论体系。
    • ANN研究带有浓厚的策略和经验色彩。
    • ANN与传统技术的接口不成熟。

      相比于传统技术,ANN相当于一个黑箱,内部映射关系并不明确。ANN相比于经典计算方法并非优越,只有当常规方法解决不了或者效果不佳时,ANN方法才能显示出其优越性。尤其是问题的机理不甚了解后者不能用数学模型表示的系统,如故障诊断、特征提取和预测等问题,ANN往往是最有力的工具。另一方面,ANN对于处理大量原始数据而不能用规则或者公式描述的问题,表现出极大的灵活性和自适应性。

      总之,在具有成熟的经典技术问题上,ANN不具优势,但是针对难以数学建模的复杂系统,ANN具有极大的灵活性和适应性。

参考文献
[1] McCulloch W S, Pitts W. A logical calculus of the ideas immanent in nervous activity[J]. The bulletin of mathematical biophysics, 1943, 5(4): 115-133.
[2]Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain[J]. Psychological review, 1958, 65(6): 386.
[3] Hopfield J J. Neurons with graded response have collective computational properties like those of two-state neurons[J]. Proceedings of the national academy of sciences, 1984, 81(10): 3088-3092.
[4] Hopfield J J, Tank D W. Computing with neural circuits- A model[J]. Science, 1986, 233(4764): 625-633.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/242477.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

非线性控制理论

非线性控制理论 随着科学技术的发展&#xff0c;人们对实际生产过程的分析要求日益精密&#xff0c;各种较为精确的分析和科学实验的结果表明&#xff0c;任何一个实际的物理系统都是非线性的。所谓线性只是对非线性的一种简化或近似&#xff0c;或者说是非线性的一种特例。 …

回滚 - 每天5分钟玩转 Docker 容器技术(141)

kubectl apply 每次更新应用时 Kubernetes 都会记录下当前的配置&#xff0c;保存为一个 revision&#xff08;版次&#xff09;&#xff0c;这样就可以回滚到某个特定 revision。 默认配置下&#xff0c;Kubernetes 只会保留最近的几个 revision&#xff0c;可以在 Deployment…

霍金一生重要时刻照片合集,3次来中国,年轻时也是帅哥一枚

霍金童年时期霍金和他妹妹12岁的时候霍金在之家花园霍金在骑自行车中青年时期霍金在划船霍金和同学们在一起霍金21岁时患上肌肉萎缩性侧索硬化症23岁时霍金取得了牛津大学博士学位1965年,霍金与简恩结为夫妻霍金与孩子们霍金和妻儿在牛津大学1973年&#xff0c;他考察黑洞附近的…

论文写作技巧

论文写作技巧 引言 回答二个问题,研究主题是啥?动机是啥?

没有还款日期的借条会永久有效吗?

从债务关系上看&#xff0c;借条的有效期是永久的&#xff0c;不管过来多长时间&#xff0c;哪怕是100年&#xff0c;只要钱没有还清&#xff0c;那债务关系就会一直存在&#xff0c;只要借款人愿意还钱都有效。但是这种债务关系是否受到法律的保护是有时间限制的&#xff0c;就…

为什么大多数穷人都不敢创业,穷人最缺的是什么?

提到这个问题&#xff0c;估计很多人会首先想到的是思维上的差异&#xff0c;我们网上看到最多的分析为什么穷人不敢创业而富人敢&#xff0c;很多人提到的就是思维上的差异。富人之所以富&#xff0c;因为他们有富的思维&#xff0c;而穷人之所以穷&#xff0c;是因为他们是穷…

原来信用卡肉这么肥,怪不得银行天天给你发短信叫你办理

大家是不是经常收到银行信用卡推销短信或电话&#xff1f;为什么银行这么积极推销信用卡呢&#xff1f;大家不要以为银行是慈善家&#xff0c;有着普渡天下的菩萨心肠&#xff0c;白白给你最多50多天的免息期。实际上信用卡是一块大肥肉&#xff0c;比贷款来钱更轻松&#xff0…

动态系统建模-状态空间方程

动态系统建模-状态空间方程 状态空间方程是现代控制理论的基础, 它以矩阵的形式表达系统状态变量、 输入及输出之间的关系。 它可以描述和处理多输入多输出(MultipleInput Multiple Output, MIMO) 的系统。 状态空间方程 单输入单输出(SingleInput Single Output,SISO) 系统…

社保卡绑定支付宝,直接在支付宝上报销!

很多朋友可能有这样的疑问&#xff0c;社保卡能绑定支付宝吗&#xff1f;如果你的社保卡是金融社保卡&#xff0c;那当然可以绑定支付宝和微信。但是如果你的社保卡是以前那种老社保卡&#xff0c;那是没法绑定的。一、金融社保卡可以正常绑定支付宝、微信。金融社保卡本身也是…

Health Check - 每天5分钟玩转 Docker 容器技术(142)

强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性。自愈的默认实现方式是自动重启发生故障的容器。除此之外&#xff0c;用户还可以利用 Liveness 和 Readiness 探测机制设置更精细的健康检查&#xff0c;进而实现如下需求&#xff1a; 零停机部署。 避免部署无效…

动态系统的建模与分析

动态系统的建模与分析 分析被控对象的物理特性及动态表现&#xff0c;在这个基础上建立数学模型&#xff0c;数学模型可以是动力学模型、热力学模型、流体力学模型和经济学模型等&#xff0c;然后在数学模型的基础上进行控制器的设计&#xff0c;为满足不同的要求就要应用不同…

应用监督式学习

监督学习定义&#xff1a;监督式学习算法接受已知的输入数据集合&#xff08;训练集&#xff09;和已知的对数据的响应&#xff08;输出&#xff09;&#xff0c;然后训练一个模型&#xff0c;为新输入数据的响应生成合理的预测。监督学习技术可分成分类或者回归的形式。 分类&…

信用卡逾期成黑户,不良记录会背一辈子吗?

黑户不良记录是否会倍一辈子&#xff0c;关键在于你怎么选择。你可以选择背5年&#xff0c;也可以选择背一辈子&#xff01;首先给大家一个安慰&#xff0c;信用卡逾期不等于黑名单&#xff0c;所谓黑名单只是银行的一种说法&#xff0c;一般连续逾期3个月以上才会被银行关进小…

傅里叶级数和傅里叶变换

傅里叶级数和傅里叶变换 傅里叶变换&#xff0c;表示能将满足一定条件的某个函数表示成三角函数&#xff08;正弦和/或余弦函数&#xff09;或者它们的积分的线性组合。

信用卡逾期,违约金和利息忘还了会怎么样?

违约金和利息忘还了&#xff0c;那将面临两个问题&#xff1a;一个是继续面临罚息和违约金&#xff1b;另一个是征信会逾期&#xff0c;给你征信造成不良影响。先说下罚息和违约金。如果你逾期之后把本金还清了&#xff0c;但是忘了还违约金和罚息&#xff0c;那你的还款是有一…

Liveness 探测 - 每天5分钟玩转 Docker 容器技术(143)

Liveness 探测让用户可以自定义判断容器是否健康的条件。如果探测失败&#xff0c;Kubernetes 就会重启容器。 还是举例说明&#xff0c;创建如下 Pod&#xff1a; 启动进程首先创建文件 /tmp/healthy&#xff0c;30 秒后删除&#xff0c;在我们的设定中&#xff0c;如果 /tmp/…

MPC模型预测控制

MPC模型预测控制 模型预测控制(MPC)是一类特殊的控制。它的当前控制动作是在每一个采样瞬间通过求解一个有限时域开环最优控制问题而获得。过程的当前状态作为最优控制问题的初始状态&#xff0c;解得的最优控制序列只实施第一个控制作用。这是它与那些使用预先计算控制律的算…

数据不平衡分类问题

引言不平衡分类问题是指训练样本数量在类间分布不平衡的模式分类问题。在实际应用中&#xff0c;不平衡问题很常见。有些问题其原始数据的分布就存在不平衡&#xff0c;如通过卫星雷达图片检测海面石油油污、监测信用卡非法交易、发掘基因序列中编码信息以及医学数据分类等。 所…

蚂蚁金服上市后,借呗额度会大幅提升吗?

我个人觉得蚂蚁金服上市之后&#xff0c;部分用户的借呗额度会提升&#xff0c;被关闭的借呗用户&#xff0c;大部分人应该会重新放开。我们首先来了解一下&#xff0c;为什么蚂蚁金服之前为什么蚂蚁金服对部分用户进行降额或关闭处理。1、监管政策从去年开始&#xff0c;监管部…

富人为什么会富,穷人为什么穷?看完你就懂

说到富人为什么会富&#xff1f;可能很多人首先会想到的是继承家产&#xff0c;也就是大家所说的富二代&#xff0c;因为有家里的支持&#xff0c;所以很多人更容易取得成功。但是我们通过对2017年胡润财富榜进行分析发现&#xff0c;在大中华区上榜的819人当中&#xff0c;只有…