国科大高级人工智能2-人工神经网络(MLP、Hopfield)

常见组合函数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jYiSSFdV-1578316219152)(attachment:image.png)]

常见激活函数

在这里插入图片描述

结构

  • 前馈神经网络(单向)
  • 反馈/循环神经网络

学习方法

  • 学习模型

    • 增量
    • 迭代
  • 类型

    • 监督
    • 无监督
  • 学习策略

    • Hebbrian Learning
      • 若两端的神经元同时激活,增强联接权重
      • Unsupervised Learning
      • 循环?
      • ωij(t+1)=ωij(t)+η(xi(t),xj(t))\omega_{ij}(t+1)=\omega_{ij}(t)+\eta(x_i(t),x_j(t))ωij(t+1)=ωij(t)+η(xi(t),xj(t))
    • Error Correction
      • 最小化实际和输出的误差
        • BP
          • 目标函数:ω∗=argminω1KΣk=1Ke(Dk,Yk)\omega^* =argmin_{\omega} \frac{1}{K} \Sigma_{k=1}^Ke(D_k,Y_k)ω=argminωK1Σk=1Ke(Dk,Yk)
          • 迭代:ω←ω+Δω=ω+ηδ\omega \leftarrow \omega+\Delta \omega= \omega+\eta \deltaωω+Δω=ω+ηδ
        • delta rule(LMS rule,windrow-hoff
    • 随机学习(模拟退火?)
      • 采用随机模式,跳出局部极小
        • 如果网络性能提高,新参数被接受.
        • 否则,新参数依概率接受

重要的ANN

…损失函数……目标函数……激活函数……更新…特点
多层感知机(MLP,全连接)L(y,f(x))R(f)=∫L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x))R(f) =\int L(y,f(x))p(x,y)dx,R_{emf}=\Sigma L(y,f(x))R(f)=L(y,f(x))p(x,y)dx,Remf=ΣL(y,f(x))v=σiωixi,y=f(v)v=\sigma_i\omega_ix_i,y=f(v)v=σiωixi,y=f(v)梯度法-
多层感知机(MLP,全连接–>BP网络)平方误差-v=σiωixi,y=f(v),f是sigmoid,ω=argmin(E)v=\sigma_i\omega_ix_i,y=f(v),f是sigmoid,\omega=argmin(E)v=σiωixi,y=f(v)fsigmoidω=argmin(E)输入从前向后,损失从后向前(链式法则),梯度下降法允许非线性,收敛慢,过拟合,局部极小,表达能力强,容易执行
单层感知机看分类对错-ωx=0,一面1,一面−1,权向量是一个超平面\omega x=0,一面1,一面-1,权向量是一个超平面ωx=0,11ω=ω+y∗⋅x,y∗=1或−1(C,真实y,正确:y∗=y)\omega=\omega+y^* ·x,y^* =1或-1(C,真实y,正确:y^* =y )ω=ω+yxy=11Cyy=y)仅当线性可分时收敛,对噪声(不可分)/泛化性不好
单层感知机(最小二乘法)平方损失12Σi=1nΣk=1m(yk(xi)−tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221Σi=1nΣk=1m(yk(xi)tk,i)2-y=v(线性的)y=v(线性的)y=v(线wT=(XTX)−1XTTw^T=(X^TX)^{-1}X^TTwT=(XTX)1XTT仅当线性可分时收敛,对噪声(不可分)/泛化性不好
单层感知机(改进)平方损失E=12Σi=1nΣk=1m(yk(xi)−tk,i)2\frac{1}{2}\Sigma_{i=1}^n\Sigma_{k=1}^m(y_k(x_i)-t_{k,i})^221Σi=1nΣk=1m(yk(xi)tk,i)2-y=11+e−v(sigmoidy=\frac{1}{1+e^{-v}}(sigmoidy=1+ev1(sigmoid$\frac{
\partial E}{\partial w_k}=\Sigma_{i=1}n\Sigma_{k=1}m(y_k(x_i)-t_{k,i})y_k(x_i)(1-y_k(x_i))x_i$仅当线性可分时收敛,对噪声(不可分),泛化性不好
支持向量机-最大化间隔,约束:minω12∥ω∥2,yiωTxi≥1,任意i,小于则为0(relu)min_\omega \frac{1}{2} \|\omega\|^2,y_i\omega^Tx_i \geq 1,任意i,小于则为0(relu)minω21ω2,yiωTxi1i0relu)--可以找到最好的分界面,解决了泛化性
Hopfield网络(能量稳定点-记忆)-有输入:E=−12Σi=0nΣj=0nωijsisj−Σi=0nIisi,没有输入则去除后面的E=-\frac{1}{2}\Sigma_{i=0}^n\Sigma_{j=0}^n\omega_{ij}s_is_j-\Sigma_{i=0}^nI_is_i,没有输入则去除后面的E=21Σi=0nΣj=0nωijsisjΣi=0nIisi,wij=ji(i!=j)权值是设定的wij=Σk=1Kxikxjk,i≠j,否则0(n∗n矩阵)(s=x)权值是设定的w_{ij}=\Sigma_{k=1}^Kx_{ik}x_{jk},i\neq j,否则0(n* n矩阵)(s=x)wij=Σk=1Kxikxjk,i=j,0(nns=x)f分布式记忆,动态联想,记忆容量有限,伪稳定点的联想与记忆,样本接近时,难以回忆

感知机

  • 感知机收敛定理:线性可分则收敛

    • w、x是增广得到的
    • 若数据集可分,
      • 存在w∗(∣∣w∗∣∣=1),γ>0,使得ytw∗xt≥γw^* (||w^* ||=1),\gamma>0,使得y_tw^* x_t\geq \gammaw(w=1),γ>0,使ytwxtγ
    • 令最终分离超平面参数为w∗(∣∣w∗∣∣=1)w^* (||w^* ||=1)w(w=1)
      • wkw∗=(wk−1+xtyt)w∗≥wk−1w∗+γ≥...≥kγw_kw^* =(w_{k-1}+x_ty_t)w^* \geq w_{k-1}w^* + \gamma \geq ...\geq k\gammawkw=(wk1+xtyt)wwk1w+γ...kγ
      • ∣∣wk∣∣2=∣∣wk+1+xtyt∣∣2=∣∣wk−1∣∣2+2wk−1Txtyt+∣∣xt∣∣2||w_k||^2=||w_{k+1}+x_ty_t||^2=||w_{k-1}||^2+2w_{k-1}^Tx_ty_t+||x_t||^2wk2=wk+1+xtyt2=wk12+2wk1Txtyt+xt2——yt=1
      • ≤∣∣wk−1∣∣2+∣∣xt∣∣2≤∣∣wk−1∣∣2+R2≤...≤kR2\leq ||w_{k-1}||^2+||x_t||^2\leq ||w_{k-1}||^2+R^2 \leq ...\leq kR^2wk12+xt2wk12+R2...kR2
      • 所以kγ≤wkw∗≤∣∣wk∣∣∣∣w∗∣∣≤kRk\gamma \leq w_kw^* \leq ||w_k||||w^* || \leq \sqrt{k} RkγwkwwkwkR
      • k≤R2γ2k\leq \frac{R^2}{\gamma^2}kγ2R2
  • 改进

    • sigmoid激活函数
      • 批处理
        • 一次性更新权重
        • 收敛慢
      • 增量模式
        • 逐样本更新
        • 随机近似,但速度快能保证收敛
  • MLP(多层感知机

    • 在实际应用中
      • 预处理很重要—normalize
      • 调整学习率——ηt=1/t\eta_t=1/tηt=1/t
    • 表达能力强
    • 容易执行
    • 收敛速度慢
      • newton法
    • 过拟合(
      • 正则化,约束权值平滑性
      • 采用更少的隐层单元
    • 局部极小(不同的初始化,增加扰动
    • 三层-所有连续函数
    • 4层:多层连续
    • 权重如何学习?BP–链式法则计算反向传递

Hopfield

  • 应用
    • 将优化目标函数转换成能量函数(energy function)——网络的稳定状态是优化问题的解
  • 两个稳态:——>解
    • E最大——>w1
    • E最小——>w2
  • 两个工作方式
    • 异步:每次只改变一个状态x_i
    • 同步:所有状态均改变:x1~xn
  • 反馈网络(无向有权图)
  • 权值是设定的,而不是学习出来的
  • TSP:
    • Hopfield网络:l邻接矩阵
    • 行:城市;列:时间,每行只有一个亮,每列也只有一个on

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481671.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Nature:AI的瓶颈突破在于「实体人工智能(PAI)」

来源:公众号机器之能作者:AslanMiriyev 、 Mirko Kovač翻译:Panda近些年人工智能领域已经取得了突飞猛进的进步,但这些进步大都集中于数字人工智能领域,对于能和我们这种生物体一样执行日常任务的实体人工智能&#x…

国科大高级人工智能3-DNN(BM/RBM/DBN/DBM)

1.深层、浅层、BP 出现背景优点缺点浅层神经网络为了解决非线性问题可以拟合任何函数参数多,神经元多,需要更多的计算资源和数据BP算法(对p(labelinput)建模为了计算神经网络损失回传深度神经网络(>5)(时代背景数据…

世界元宇宙大会—李伯虎院士主旨报告:工业元宇宙模式、技术与应用初探

来源:北京物联网智能技术应用协会未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)…

国科大高级人工智能+prml4-CNN

文章目录CNN卷积paddingpoolingBP其他CNNResNets残差网络——图像数据应用CNN Hebb学习律(无监督 如果两个神经元在同一时刻被激发,则他们之间的联系应该被强化对神经元的重复刺激,使得神经元之间的突触强度增加 Delta学习律(有监…

​Science:灵长类前额叶皮质进化图谱

来源:brainnews相比其它物种,包括亲缘关系非常近的灵长类,我们人类进化出了高级的认知和复杂的社会行为。毋庸置疑,人类大脑是这一切独特变化的中心,而其中的前额叶皮质又格外的引人注目。灵长类的前额叶皮质跟其他物种…

基于深度学习的机器人目标识别和跟踪

如今,深度学习算法的发展越来越迅速,并且在图像处理以及目标对象识别方面已经得到了较为显著的突破,无论是对检测对象的类型判断,亦或者对检测对象所处方位的检测,深度学习算法都取得了远超过传统机器学习算法的准确率…

国科大高级人工智能5-RNN/LSTM/GRU/集束搜索/attention

文章目录BPTTBPTT前向传播长序列循环神经网络LSTM序列到序列的模型集束搜索——近似搜索改进的集束搜索集束搜索的误差分析图到文本注意力模型序列数据建模 输入序列–>输出序列预测序列的下一项(监督) 模糊了监督和非监督 有的cnn对序列不适用&…

揭秘虚拟电厂,它究竟是如何运行的?

来源:新浪科技(ID:techsina)作者:刘丽丽编辑 :韩大鹏与电力调度相关的虚拟电厂再次引发市场关注。日前,国内首家虚拟电厂管理中心深圳虚拟电厂管理中心揭牌,国内虚拟电厂迈入了快速发展新阶段。…

国科大高级人工智能6-GAN

文章目录生成式模型的基础:极大似然估计GANs最终版本问题非饱和博弈DCGAN不同类型的GANconditional GAN无监督条件GAN--cycle GAN对抗学习https://blog.csdn.net/suyebiubiu/category_9372769.html生成式模型的基础:极大似然估计 θ∗argmaxθExpdatalog…

为什么量子力学总是让人感到疑惑?

来源:中科院物理所作者:Paul Austin Murphy翻译:Nothing审校:藏痴我们认为量子粒子很奇怪的主要问题是将量子粒子视为经典粒子而它们的行为却表现得非常非经典。(或者,问题是将量子粒子视为“物体”&#x…

国科大高级人工智能7-命题逻辑

文章目录命题逻辑(语法Syntax)由枚举推理(inference by enumeration区别deduction(形式推演,演绎)作业(定理证明)logics:逻辑,表达信息的形式语言 语法syntax 语义semantics 逻辑…

费爱国院士:中国城市大脑已走在世界前沿,但仍需努力

信息来源:网易科技2022年9月1日,中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》;《城市大脑数字神经元基本规定》等三项团体标准,学会理事长,工…

国科大高级人工智能8-归结原理和horn子句

只有一条规则的推理 resolution(消解,归结) CNF(conjunction normal form合取范式 (A∨B)∧(B∨C)(A∨B)∧(B∨C)(A∨B)∧(B∨C)任何逻辑式都可转化为语义等价的CNF resolution消解(推理规则&…

国科大高级人工智能9-模糊数学和遗传算法

文章目录1.模糊计算笛卡尔积、关系模糊集连续的隶属度函数运算2.evolution 遗传算法1.模糊计算 why模糊 取得精确数据不可能或很困难没有必要获取精确数据 模糊性概念:对象从属的界限是模糊的,随判断人的思维而定 不同人的界定标准不一样 隶属函数&…

周宏仁详解智能革命:“人类不可能瞬间无处不在,但软件可以!”

来源:域名国家工程研究中心 ZDNS“最优秀的人类战斗员也无法抵御以超音速飞行、由人工智能跨地域组织、每秒机动数千次的多台作战装备。人类不可能瞬间无处不在,但软件可以。”近日,信息化百人会顾问、原国家信息化专家咨询委员会常务副主任周…

图灵奖得主Jack Dongarra:高性能计算与AI大融合,如何颠覆科学计算

来源: 智源社区整理:王光华编辑:李梦佳导读:浩瀚的宇宙中两个星云不断彼此接近、融合、再爆炸,这样奇幻的天文景观正是采用高性能计算(HPC)进行建模仿真生成的。在过去的三十年间,高…

国科大高级人工智能10-强化学习(多臂赌博机、贝尔曼)

文章目录多臂赌博机Multi-armed bandit(无状态)马尔科夫决策过程MDP(markov decision process1.动态规划蒙特卡罗方法——不知道环境完整模型情况下2.1 on-policy蒙特卡罗2.2 off-policy蒙特卡罗时序差分方法强化学习:Reinforcement learning…

《Science》封面:华大基因领导构建了世界上第一张大脑再生的时空地图

来源:生物通由华大基因研究院领导的多所研究团队使用华大基因Stereo-seq技术,构建了世界上第一个蝾螈(Ambystoma mexicanum)大脑发育和再生的时空细胞图谱,揭示了脑损伤如何自我愈合。这项研究发表在最新一期的《Science》杂志的封面故事上。…

国科大高级人工智能12-博弈

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注…

科研进展 | 脑智卓越中心揭示神经元与胶质细胞互作参与胶质细胞命运决定的机制...

来源:中科院神经所神经元细胞与胶质细胞是神经系统最主要的两个细胞分类。在神经发育过程中,神经元类型先产生(“神经发生”,neurogenesis),胶质细胞后产生(“胶质发生”,gliogenesi…