国科大高级人工智能5-RNN/LSTM/GRU/集束搜索/attention

文章目录

    • BPTT
      • BPTT前向传播
  • 长序列循环神经网络
    • LSTM
  • 序列到序列的模型
    • 集束搜索——近似搜索
    • 改进的集束搜索
    • 集束搜索的误差分析
      • 图到文本
  • 注意力模型

  • 序列数据建模
    • 输入序列–>输出序列
    • 预测序列的下一项(监督)
      • 模糊了监督和非监督
  • 有的cnn对序列不适用:
    • cnn假设:离得远的关系远,有关系的都在附近
    • 序列:可能长距离也有相关的(一段文字的代词)
      RNN结构
  • RNN
    • 结构:
      • 层间全连接
      • 层内全连接?
      • 自连接
    • 功能强大
      • 计算力够且单元数够的情况下
    • 每个时间点的输入输出不同–
      • 参数共享:一个序列的从前到后逐个输入到网络中(矩阵)(每个时间点不同的字进的都是同一个神经元–参数一样的)
      • 矩阵:行(时间,一行一个字的表达),列(神经元数目)
    • 特点(展开后的(可认为是:
      • 权值约束(共享
      • 多层
      • 前向网络
    • 损失函数:
      • 平方损失
      • 交叉熵
    • 训练:采用权值一致的BP算法(更新也一致
      • BP容易实现权值的线性约束
        • 约束w1=w2,令Δw1=Δw2=∂E∂w1+∂E∂w2约束w^1=w^2,令\Delta w^1=\Delta w^2=\frac{\partial E}{\partial w^1}+\frac{\partial E}{\partial w^2}w1=w2,Δw1=Δw2=w1E+w2E
      • BPTT(时间域上的BP
        1. 前向
          • 输入层:(常用tanhat=g1(Waaat−1+Waxxt+ba)=g1(Wa[at−1,xt]+ba),zat=Waaat−1+Waxxt+baa^t=g_1(W_{aa}a^{t-1}+W_{ax}x^t+b_a)=g_1(W_a[a^{t-1},x^t]+b_a),z_a^t=W_{aa}a^{t-1}+W_{ax}x^t+b_aat=g1(Waaat1+Waxxt+ba)=g1(Wa[at1,xt]+ba),zat=Waaat1+Waxxt+ba
          • 输出层:(softmaxy^t=g2(Wyaat+by),zyt=Wyaat+by\hat{y}^t=g_2(W_{ya}a^{t}+b_y),z_y^t=W_{ya}a^{t}+b_yy^t=g2(Wyaat+by),zyt=Wyaat+by
        2. 计算每一个时间的链式导数∂E∂wi\frac{\partial E}{\partial w^i}wiE
          • ΔW=−η∂L∂W,η学习率\Delta W=-\eta \frac{\partial L}{\partial W}, \eta学习率ΔW=ηWL,η
          • δt=∂L∂zt\delta^t=\frac{\partial L}{\partial z^t}δt=ztL
          • ∂Lt∂Wya=∂Lt∂y^t∂y^t∂zyt∂zyt∂Wya=∂Lt∂y^tg2′(zyt)at=δytat\frac{\partial L^t}{\partial W_ya}=\frac{\partial L^t}{\partial \hat{y}^t}\frac{\partial \hat{y}^t}{\partial z_y^t}\frac{\partial z_y^t}{\partial W_ya}=\frac{\partial L^t}{\partial \hat{y}^t}g_2'(z_y^t)a^t=\delta_y^ta^tWyaLt=y^tLtzyty^tWyazyt=y^tLtg2(zyt)at=δytat
          • δat=g1′(zat)(WyaTδyt+Waa′Tδa′t+1)\delta_a^t=g_1'(z_a^t)(W_{ya}^T\delta_y^t+W_{aa'}^T\delta_{a'}^{t+1})δat=g1(zat)(WyaTδyt+WaaTδat+1)
            • 前一项:WyaTδyt:当前层的y传来的W_{ya}^T\delta_y^t:当前层的y传来的WyaTδyt:y
            • 后一项:Waa′Tδa′t+1:其他隐层(上一时刻的)传递而来的W_{aa'}^T\delta_{a'}^{t+1}:其他隐层(上一时刻的)传递而来的WaaTδat+1:
        3. 将所有时间的导数加在一起约束w1=w2,令Δw1=Δw2=∂E∂w1+∂E∂w2约束w^1=w^2,令\Delta w^1=\Delta w^2=\frac{\partial E}{\partial w^1}+\frac{\partial E}{\partial w^2}w1=w2,Δw1=Δw2=w1E+w2E
          • ∂Lt∂Wya=Σt=1Tyδytat\frac{\partial L^t}{\partial W_ya}=\Sigma_{t=1}^{T_y}\delta_y^ta^tWyaLt=Σt=1Tyδytat
          • ∂Lt∂Waa=Σt=1Txδatat\frac{\partial L^t}{\partial W_aa}=\Sigma_{t=1}^{T_x}\delta_a^ta^tWaaLt=Σt=1Txδatat
          • ∂Lt∂Wya=Σt=1Txδatxt\frac{\partial L^t}{\partial W_ya}=\Sigma_{t=1}^{T_x}\delta_a^tx^tWyaLt=Σt=1Txδatxt
          • 这里的x、y、W都是向量、矩阵,可以视作一个向量中一个元素一个神经元
      • 交叉熵loss:
        • Lt(y^t,yt)=−ytlog(y^t)−(1−yt)log(1−y^t)L^t(\hat{y}^t,y^t)=-y^tlog(\hat{y}^t)-(1-y^t)log(1-\hat{y}^t)Lt(y^t,yt)=ytlog(y^t)(1yt)log(1y^t)
        • 用这个损失函数:L(y^,y)=Σt=1TyLt(y^t,yt)用这个损失函数:L(\hat{y},y)=\Sigma_{t=1}^{T_y}L^t(\hat{y}^t,y^t)L(y^,y)=Σt=1TyLt(y^t,yt)
    • 结构
      • 多对多1
      • 多对多2(encoder+decoder)
        • 机器翻译
      • 多对1
        • 情感分析
      • 1对多
      • 一对一
  • 语言模型(多对多1)
    • 计算P(sentence),大的好=P(y1,y2,...,yn)=P(cats在开头)P(average∣cats)P(15∣average,cats)P(y^1,y^2,...,y^n)=P(cats在开头)P(average|cats) P(15|average,cats)P(y1,y2,...,yn)=P(cats)P(averagecats)P(15average,cats)
      • RNN的每个时刻的输出y^1==第一个单词在开头的概率P(cats在开头)P(cats在开头)P(cats)
      • 第二个词的输出:给定第一个词,第二个词出现的概率P(average∣cats)P(average|cats)P(averagecats)
      • 第三个的输出:给定前两个词,第三个词出现的概率P(15∣average,cats)P(15|average,cats)P(15average,cats)
    • 标记
      • 句子结尾:/< E O S/>
      • 不名词:/< U N K />
    • 采样可以知道学到了什么)
    • 也可以在字符级别建立语言模型–
      • 不会有UNK,但序列很长很长(会梯度下降,计算要求大)
      • 会用在专业词陌生词多的i情况下
    • 不同语料可以训练出不同的文风

在这里插入图片描述

BPTT

BPTT前向传播

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

  • 1对多模型–序列生成任务
    在这里插入图片描述
    在这里插入图片描述

长序列循环神经网络

  • BP的困难–回传是线性的
    • error双倍,则回传的错误也是双倍的–>梯度爆炸或消失
      • δat=g1′(zat)(WyaTδyt+Waa′Tδa′t+1),忽略第一项,看第二项可以知道是线性的\delta_a^t=g_1'(z_a^t)(W_{ya}^T\delta_y^t+W_{aa'}^T\delta_{a'}^{t+1}),忽略第一项,看第二项可以知道是线性的δat=g1(zat)(WyaTδyt+WaaTδat+1)线
    • 梯度膨胀(容易发现:
      • (梯度修剪)限制梯度(好解决点
    • 梯度消失(难以发现难以处理–GRU可以解决
  • GRU单元
    • 为了保留远时刻的信息
    • 门限循环单元
    • RNN的:
      • 输入层:(常用tanhat=g1(Waaat−1+Waxxt+ba)=g1(Wa[at−1,xt]+ba),zat=Waaat−1+Waxxt+baa^t=g_1(W_{aa}a^{t-1}+W_{ax}x^t+b_a)=g_1(W_a[a^{t-1},x^t]+b_a),z_a^t=W_{aa}a^{t-1}+W_{ax}x^t+b_aat=g1(Waaat1+Waxxt+ba)=g1(Wa[at1,xt]+ba),zat=Waaat1+Waxxt+ba
      • 输出层:(softmaxy^t=g2(Wyaat+by),zyt=Wyaat+by\hat{y}^t=g_2(W_{ya}a^{t}+b_y),z_y^t=W_{ya}a^{t}+b_yy^t=g2(Wyaat+by),zyt=Wyaat+by
    • GRU(简单版本):
      • ct=atc^t=a^tct=at
      • 输入:c~t=tanh(Wc[ct−1,xt]+bc)输入:\tilde{c}^t=tanh(W_c[c^{t-1},x^t]+b_c)c~t=tanh(Wc[ct1,xt]+bc)–和RNN的输入一样
      • 激活门/更新门:Γu=σ(Wu[ct−1,xt]+bu)激活门/更新门:\Gamma_u=\sigma(W_u[c^{t-1},x^t]+b_u)/Γu=σ(Wu[ct1,xt]+bu)–sigmoid–0/1
      • ct=Γu∗c~t+(1−Γu)∗ct−1,Γu=1,更新并遗忘过去c^t=\Gamma_u*\tilde{c}^t+(1-\Gamma_u)*c^{t-1},\Gamma_u=1,更新并遗忘过去ct=Γuc~t+(1Γu)ct1Γu=1–决定遗忘还是记住过去
    • GRU(完全):
      • ct=atc^t=a^tct=at
      • 输入:c~t=tanh(Wc[Γr∗ct−1,xt]+bc),输入:\tilde{c}^t=tanh(W_c[\Gamma_r*c^{t-1},x^t]+b_c),c~t=tanh(Wc[Γrct1,xt]+bc),–和RNN的输入一样
      • 输入门:Γr=σ(Wr[ct−1,xt]+br)输入门:\Gamma_r=\sigma(W_r[c^{t-1},x^t]+b_r)Γr=σ(Wr[ct1,xt]+br)–sigmoid–0/1,备选状态和前一时刻状态是否相关
      • 激活门/更新门:Γu=σ(Wu[ct−1,xt]+bu)激活门/更新门:\Gamma_u=\sigma(W_u[c^{t-1},x^t]+b_u)/Γu=σ(Wu[ct1,xt]+bu)–sigmoid–0/1
      • ct=Γu∗c~t+(1−Γu)∗ct−1,Γu=1,更新并遗忘过去c^t=\Gamma_u*\tilde{c}^t+(1-\Gamma_u)*c^{t-1},\Gamma_u=1,更新并遗忘过去ct=Γuc~t+(1Γu)ct1Γu=1–决定遗忘还是记住过去
    • 有两个门,比LSTM更快、可以扩大模型的规模
  • LSTM长短时记忆
    • 利用逻辑和线性运算来求乘法?
    • BPTT训练
      • 前向
        • 写门(输入门)
          • aLt=WLTxt+WLTbt−1+WLTst−1,b是输出,x是输入,s是状态(隐层)a^t_L=W_{L}^Tx^t+W_{L}^Tb^{t-1}+W_{L}^Ts^{t-1},b是输出,x是输入,s是状态(隐层)aLt=WLTxt+WLTbt1+WLTst1,bxs
          • bLt=f(aLt)b^t_L=f(a^t_L)bLt=f(aLt)
        • 遗忘门
          • aϕt=WϕTxt+WϕTbt−1+WϕTst−1,b是输出,x是输入,s是状态(隐层)a^t_\phi=W_{\phi}^Tx^t+W_{\phi}^Tb^{t-1}+W_{\phi}^Ts^{t-1},b是输出,x是输入,s是状态(隐层)aϕt=WϕTxt+WϕTbt1+WϕTst1,bxs
          • bϕt=f(aϕt)b^t_\phi=f(a^t_\phi)bϕt=f(aϕt)
        • cell
          • aCt=WCTxt+WCTbt−1,b是输出,x是输入,s是状态(隐层)a^t_C=W_{C}^Tx^t+W_{C}^Tb^{t-1},b是输出,x是输入,s是状态(隐层)aCt=WCTxt+WCTbt1,bxs
          • sCt=bϕtsCt−1+bLtg(aCt)s_C^t=b^t_\phi s_C^{t-1}+b_L^tg(a_C^t)sCt=bϕtsCt1+bLtg(aCt)
        • 读门(输出门)
          • aωt=WωTxt+WωTbt−1+WωTst−1,b是输出,x是输入,s是状态(隐层)a^t_\omega=W_{\omega}^Tx^t+W_{\omega}^Tb^{t-1}+W_{\omega}^Ts^{t-1},b是输出,x是输入,s是状态(隐层)aωt=WωTxt+WωTbt1+WωTst1,bxs
          • bωt=f(aωt)b^t_\omega=f(a^t_\omega)bωt=f(aωt)
    • 和GRU比:更强大和灵活,有三个门
  • 双向RNN
    • 上下文都用上
  • 深层RNN

在这里插入图片描述

在这里插入图片描述

LSTM

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

序列到序列的模型

(many to many
在这里插入图片描述
GRU或者LSTM/RNN都可以
采样可能得到多个句子,选择可能性最大的那个

在这里插入图片描述
单词表很大,词很多,每一个句子的获得都要搜索很多单词,都产生也不划算
以BFS/DFS搜索效果都不大好—》集束搜索
贪婪搜索会受到常用词影响而不一定是最好的

集束搜索——近似搜索

  1. 利用P(y1∣x)P(y^1|x)P(y1x)找到最可能的三个单词(集束宽度B=3)
  2. 对这三个单词再看第二个单词有没有合适的
    • 对每个单词分别计算P(y1,y2∣x)=P(y1∣x)P(y2∣y1,x),P(y2∣y1,x)是神经网络计算出来的P(y^1,y^2|x)=P(y^1|x)P(y^2|y^1,x),P(y^2|y^1,x)是神经网络计算出来的P(y1,y2x)=P(y1x)P(y2y1,x),P(y2y1,x),单词表,10000,这里有30000个组合,再从这里挑出三个最大的组合
  3. 重复2

* 集束搜索宽度B=1:退化到贪婪搜索

  • B=∞B=\inftyB=:穷举、宽度优先搜索BFS
  • 实际应用中:B=10或者50
    在这里插入图片描述

改进的集束搜索

  • 长度归一化
    • 以前的:P(y1,y2,...,yTy∣x)=P(y1∣x)P(y2∣y1,x)...P(yTy∣y1,y2,...,yTx−1,x)=Πt=1TyP(yt∣y1,y2,...,yt−1,x)P(y^1,y^2,...,y^{T_y}|x)=P(y^1|x)P(y^2|y^1,x)...P(y^{T_y}|y^1,y^2,...,y^{T_x-1},x)=\Pi_{t=1}^{T_y} P(y^{t}|y^1,y^2,...,y^{t-1},x)P(y1,y2,...,yTyx)=P(y1x)P(y2y1,x)...P(yTyy1,y2,...,yTx1,x)=Πt=1TyP(yty1,y2,...,yt1,x)
      • argmaxyΠt=1TyP(yt∣y1,y2,...,yt−1,x)=argmaxyP(y1,y2,...,yTy∣x)argmax_y \Pi_{t=1}^{T_y} P(y^{t}|y^1,y^2,...,y^{t-1},x) =argmax_y P(y^1,y^2,...,y^{T_y}|x)argmaxyΠt=1TyP(yty1,y2,...,yt1,x)=argmaxyP(y1,y2,...,yTyx)
      • 乘积导致越来越小
    • 解决:log
      • argmaxyΣt=1TylogP(yt∣y1,y2,...,yt−1,x)argmax_y \Sigma_{t=1}^{T_y} log P(y^{t}|y^1,y^2,...,y^{t-1},x)argmaxyΣt=1TylogP(yty1,y2,...,yt1,x)
        • 是负数,所以以乘积或者求和得到的结果,序列越长则数值越小—趋向于选择短序列
      • 所以要归一化:argmaxy1TyαΣt=1TyP(yt∣y1,y2,...,yt−1,x)argmax_y \frac{1}{T_y^\alpha}\Sigma_{t=1}^{T_y} P(y^{t}|y^1,y^2,...,y^{t-1},x)argmaxyTyα1Σt=1TyP(yty1,y2,...,yt1,x)
  • 目标函数:归一化的对数似然函数
    • argmaxy1TyαΣt=1TyP(yt∣y1,y2,...,yt−1,x)argmax_y \frac{1}{T_y^\alpha}\Sigma_{t=1}^{T_y} P(y^{t}|y^1,y^2,...,y^{t-1},x)argmaxyTyα1Σt=1TyP(yty1,y2,...,yt1,x)

集束搜索的误差分析

  • y∗−−人的选择(最优,y^−−算法的选择y^*--人的选择(最优,\hat{y}--算法的选择yy^
  • P(y∗∣x)>P((^y)∣x)P(y^*|x)>P(\hat(y)|x)P(yx)>P((^y)x):集束搜索错误了(因为他选的应该是概率最大的
    • 解决:增加B
  • P(y∗∣x)<=P((^y)∣x),y∗最优,但却预测的小,RNN有问题,P(y∗∣x)<P((^y)∣x)P(y^*|x)<=P(\hat(y)|x) ,y^*最优,但却预测的小,RNN有问题,P(y^*|x)<P(\hat(y)|x)P(yx)<=P((^y)x)yRNNP(yx)<P((^y)x)

–>以上结果是多个句子结果比较之后才能判别到底是RNN还是集束搜索的问题

图到文本

一到多
x是图的特征表示
在这里插入图片描述

注意力模型

  • 对长序列的问题(句子长或短性能都会变差)
    • 长序列不好记忆
    • 每次只考虑一部分,看一部分翻译一部分
  • 结构
    • 输入:低层仍是原来的双向RNN,但是输出层不要了(不直接产生输出),只保留隐层输出的向量(表示)
    • 输出,换成了另一个RNN
    • 产生系数的小神经网络也加进去
    • –》一起训练(BP)

在这里插入图片描述
每个c是所有低层输出的线性组合(并非只有图中的三个)

  • c1=Σt′α<1,t′>a<t′>,Σt′α<1,t′>=1,a是低层的隐藏层的输出c^1=\Sigma_{t'}\alpha^{<1,t'>}a^{<t'>},\Sigma_{t'}\alpha^{<1,t'>}=1,a是低层的隐藏层的输出c1=Σtα<1,t>a<t>,Σtα<1,t>=1,a
  • α<t,t′>=softmax(et,t′)=exp(e<t,t′>)Σt′=1Txexp(e<t,t′>\alpha^{<t,t'>}=softmax(e^{t,t'})=\frac{exp(e^{<t,t'>}) }{\Sigma_{t'=1}^{T_x}exp(e^{<t,t'>}}α<t,t>=softmax(et,t)=Σt=1Txexp(e<t,t>exp(e<t,t>)—保证和为1
  • e<t,t′>=g(st−1,at)e^{<t,t'>}=g(s^{t-1},a^t)e<t,t>=g(st1,at)–用一个小的神经网络产生

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481661.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

揭秘虚拟电厂,它究竟是如何运行的?

来源&#xff1a;新浪科技&#xff08;ID:techsina&#xff09;作者&#xff1a;刘丽丽编辑 &#xff1a;韩大鹏与电力调度相关的虚拟电厂再次引发市场关注。日前&#xff0c;国内首家虚拟电厂管理中心深圳虚拟电厂管理中心揭牌&#xff0c;国内虚拟电厂迈入了快速发展新阶段。…

国科大高级人工智能6-GAN

文章目录生成式模型的基础&#xff1a;极大似然估计GANs最终版本问题非饱和博弈DCGAN不同类型的GANconditional GAN无监督条件GAN--cycle GAN对抗学习https://blog.csdn.net/suyebiubiu/category_9372769.html生成式模型的基础&#xff1a;极大似然估计 θ∗argmaxθExpdatalog…

为什么量子力学总是让人感到疑惑?

来源&#xff1a;中科院物理所作者&#xff1a;Paul Austin Murphy翻译&#xff1a;Nothing审校&#xff1a;藏痴我们认为量子粒子很奇怪的主要问题是将量子粒子视为经典粒子而它们的行为却表现得非常非经典。&#xff08;或者&#xff0c;问题是将量子粒子视为“物体”&#x…

国科大高级人工智能7-命题逻辑

文章目录命题逻辑&#xff08;语法Syntax)由枚举推理&#xff08;inference by enumeration区别deduction(形式推演&#xff0c;演绎&#xff09;作业&#xff08;定理证明&#xff09;logics&#xff1a;逻辑&#xff0c;表达信息的形式语言 语法syntax 语义semantics 逻辑…

费爱国院士:中国城市大脑已走在世界前沿,但仍需努力

信息来源&#xff1a;网易科技2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元基本规定》等三项团体标准&#xff0c;学会理事长&#xff0c;工…

国科大高级人工智能8-归结原理和horn子句

只有一条规则的推理 resolution(消解&#xff0c;归结&#xff09; CNF&#xff08;conjunction normal form合取范式 &#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)任何逻辑式都可转化为语义等价的CNF resolution消解&#xff08;推理规则&…

国科大高级人工智能9-模糊数学和遗传算法

文章目录1.模糊计算笛卡尔积、关系模糊集连续的隶属度函数运算2.evolution 遗传算法1.模糊计算 why模糊 取得精确数据不可能或很困难没有必要获取精确数据 模糊性概念&#xff1a;对象从属的界限是模糊的&#xff0c;随判断人的思维而定 不同人的界定标准不一样 隶属函数&…

周宏仁详解智能革命:“人类不可能瞬间无处不在,但软件可以!”

来源&#xff1a;域名国家工程研究中心 ZDNS“最优秀的人类战斗员也无法抵御以超音速飞行、由人工智能跨地域组织、每秒机动数千次的多台作战装备。人类不可能瞬间无处不在&#xff0c;但软件可以。”近日&#xff0c;信息化百人会顾问、原国家信息化专家咨询委员会常务副主任周…

图灵奖得主Jack Dongarra:高性能计算与AI大融合,如何颠覆科学计算

来源&#xff1a; 智源社区整理&#xff1a;王光华编辑&#xff1a;李梦佳导读&#xff1a;浩瀚的宇宙中两个星云不断彼此接近、融合、再爆炸&#xff0c;这样奇幻的天文景观正是采用高性能计算&#xff08;HPC&#xff09;进行建模仿真生成的。在过去的三十年间&#xff0c;高…

国科大高级人工智能10-强化学习(多臂赌博机、贝尔曼)

文章目录多臂赌博机Multi-armed bandit&#xff08;无状态&#xff09;马尔科夫决策过程MDP(markov decision process1.动态规划蒙特卡罗方法——不知道环境完整模型情况下2.1 on-policy蒙特卡罗2.2 off-policy蒙特卡罗时序差分方法强化学习&#xff1a;Reinforcement learning…

《Science》封面:华大基因领导构建了世界上第一张大脑再生的时空地图

来源&#xff1a;生物通由华大基因研究院领导的多所研究团队使用华大基因Stereo-seq技术&#xff0c;构建了世界上第一个蝾螈(Ambystoma mexicanum)大脑发育和再生的时空细胞图谱&#xff0c;揭示了脑损伤如何自我愈合。这项研究发表在最新一期的《Science》杂志的封面故事上。…

国科大高级人工智能12-博弈

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题&#xff0c;有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注…

科研进展 | 脑智卓越中心揭示神经元与胶质细胞互作参与胶质细胞命运决定的机制...

来源&#xff1a;中科院神经所神经元细胞与胶质细胞是神经系统最主要的两个细胞分类。在神经发育过程中&#xff0c;神经元类型先产生&#xff08;“神经发生”&#xff0c;neurogenesis&#xff09;&#xff0c;胶质细胞后产生&#xff08;“胶质发生”&#xff0c;gliogenesi…

国科大高级人工智能-总结

文章目录1.概论2. 搜索A\*最优性三个传教士与野人3.神经网络RBM DBN DBM hopfield比较结构及特性逐层贪婪训练与CDBPGAN4.逻辑一个永远无法归结结束的FOL合取范式规范化归结原理4.1resolution是完备的、可靠的Modus ponens4.1 蕴含与包含的证明蕴含与implication的关系5. 模糊数…

Science封面:全球首个脑再生时空图谱

来源&#xff1a;brainnews报道来源&#xff1a;作者团队原文链接&#xff1a;https://doi.org/10.1126/science.abp9444为了深入研究墨西哥钝口螈端脑再生的细胞和分子机制&#xff0c;并探讨其与发育的关系&#xff0c;研究人员收集了不同损伤再生阶段&#xff08;7个再生阶段…

国科大prml10-无监督学习

文章目录1.监督学习与无监督学习2. 聚类分析2.1簇的其他区别2.2类型2.2.1 基于中心的簇2.2.2 基于连续性的簇2.2.3 基于密度的簇2.2.4 基于概念的簇2.3 应用2.4 三要素3.距离函数3.1 距离函数的要求3.2标准化3.3其他相似、不相似函数4.评价指标4.1外部指标&#xff08;有参考模…

英伟达、AMD 高端芯片断供,国产芯片如何迅速崛起

来源&#xff1a;大数据文摘转载自AI科技大本营整理&#xff1a;苏宓出品&#xff1a;CSDN8 月 31 日&#xff0c;据外媒 Protocol、路透社等多家报道&#xff0c;美国开始对出口人工智能相关应用所需的先进芯片施加新的限制&#xff0c;其中 AMD、NVIDIA&#xff08;英伟达&am…

高文院士:AI将为芯片设计带来革命性改变

来源&#xff1a;中国电子报作者&#xff1a;姬晓婷9月1日&#xff0c;世界人工智能大会在上海举行。在芯片主题论坛上&#xff0c;中国工程院院士、鹏城实验室主任高文发表了题为“人工智能与EDA技术的前瞻性发展”的演讲。在高文看来&#xff0c;AI的应用将使芯片设计所需的时…

国科大prml11-降维

文章目录1.维度、特征与维度灾难维度特征维度灾难降维1 维度选择3.特征抽取3.1 预备知识3.2 线性模型3.2.1 多维缩放MDS3.2.2 线性降维的一般形式3.2.3 PCA主成分分析3.3 非线性模型3.3.1KPCA3.3.2流行学习&#xff08;欧氏距离不能反映相似性&#xff09;3.3.3 拉普拉斯特征映…

神经元模型:从离子通道到计算

导语本篇推文来自集智俱乐部的网站集智斑图的一篇路径《神经元模型&#xff1a;从离子通道到计算》&#xff0c;路径基于神经动力学模型读书会第一季臧蕴亮老师的分享整理而成。感兴趣的朋友可以结合本次分享的回放&#xff08;回放链接https://campus.swarma.org/course/4433&…