国科大高级人工智能3-DNN(BM/RBM/DBN/DBM)

1.深层、浅层、BP

出现背景优点缺点
浅层神经网络为了解决非线性问题可以拟合任何函数参数多,神经元多,需要更多的计算资源和数据
BP算法(对p(labelinput)建模为了计算神经网络损失回传
深度神经网络(>=5)(时代背景数据爆炸,计算资源提升,希望自动学习特征(有个好的初始值))1.比浅层更好的表达性(计算单元少,高层可利用低层,高层全局,低层局部,更有语义化),2.层次化地学习特征,3.多层隐变量允许统计上的组合共享;4.有效-
改进的BP(对p(input)建模为了让BP适应深度神经网络,建立产生输入的生成式模型,调整参数使得p最大--
  • 训练
    • 监督
      • 误差自顶向下,对网络微调
      • 微调特征,使之与问题更相关
    • 非监督
      • 自下向上(greedy layer-wise traing

自动编码器

  • 自动编码器
    • 无监督
    • loss:重构误差(输入,输出)最小–>尽可能复现输入
    • 输入=输出——尽可能复现输入
      • input–encoder–>code–decoder–>output
      • code:输入的特征表达
      • 若有多层,则有多个code,多个不同的表达
    • 网络结构:
      • 三层
        • 输入x->y
        • 隐藏y->z
        • 输出z
      • 公式
        • y=sigmoid(Wx+b)
        • z=sigmoid(W’y+b’)
      • 条件
        • 输入神经元数量=输出(因为要一样
        • 隐藏<输入
          • 想要得到输入的一个压缩表示、抽象表示
    • 简化:W′=WTW'=W^TW=WT——这样只要训练一组权值向量就可以
      • 再加一个约束,若不考虑sigmoid的话:
        • W−1=WTW^{-1}=W^TW1=WT:正交矩阵,也就是说W是可以训练成正交矩阵的
    • 深度结构
      • 预测时,只看encoder:encoder1–>encoder2–>encoder3
      • 逐层训练(训练时才看解码过程)
        • 将input–encoder1–>code1–decoder1–>input’,训练好后,去除decoder1
        • 将input–>encoder1–>code1–encoder2–>code2–decoder2–>code1’
        • 依次让每一层都得到最小的重构误差,每一层都一个好的表达
    • 监督学习
      • encoder(已经得到了一个很好地表达,有一个好的初始值)+分类器
      • 有监督微调训练
        • 只调整分类器
        • 整体调整(端对端,更好)
    • 扩展(通过增加约束来发现输入数据的结构
      • 稀疏自编码器
        • 约束:限制使得得到的表达code尽量稀疏
          • L1范数项
          • y=wTxy=w^Txy=wTx
          • loss(x,w)=∣∣wy−x∣∣2+λΣj∣yj∣loss(x,w)=||wy-x ||^2+\lambda\Sigma_j|y_j|loss(x,w)=wyx2+λΣjyj–>y长度小,loss要最小化,
          • z=wy
        • 稀疏容易得到更好的表达
      • 降噪自编码器
        • 存在噪声
        • 提高鲁棒性
        • 操作
          • x–>x’:以一定概率分布擦除x中项(置0)
          • x’->y–>z:loss(z,x)做误差迭代—>这样就学习到了x’(破损数据)
          • 破损数据的优点
            • 破损数据训练出来的w噪声小
            • 破损数据一定程度减轻了训练数据与测试数据的代购(去除了噪声)
            • 破损数据不影响记忆(人脑也是如此,虽然是随意擦除)
    • 栈式自编码器的优点
      • 有强大的表达能力
      • 深度神经网络的所有优点
      • 可以获得输入的层次型分组/部分-整体分解结构
        • 学习方式:逐层训练(前一层的输出是后一层的输入–依次训练

深度玻尔兹曼机DBM(deep boltzmann machine(DBM)

网络结构状态…目标函数…特点
Hopfield网络单层,全连接(有权,无向图)wij=wji,wii=01,-1(0),确定性地取1、0E=−12STωSE=-\frac{1}{2}S^T\omega SE=21STωS1.确定性地接受能量下降方向;2.会达到局部极小(模拟退火解决,以一定概率接受能量上升)
Boltzman机器p(v)符合玻尔兹曼分布,生成模型,有隐层(与外部无连接),有可见层(输入层、输出层)(与外部有链接,收到外部约束),全连接(同层也有)(有权无向图)wij=wji,wii=01(on),0(off),状态满足boltzman分布,以p取1(二值神经元)PαPβ=exp(−(E(Sα)−E(Sβ))/T)\frac{P_\alpha}{P_\beta}=exp(-(E(S^\alpha)-E(S^\beta))/T)PβPα=exp((E(Sα)E(Sβ))/T)1.接受能量下降,以p(p(si=1)=11+exp(−bi−Σjsjwji)p(s_i=1)=\frac{1}{1+exp(-b_i-\Sigma_js_jw_{ji})}p(si=1)=1+exp(biΣjsjwji)1)接受能量上升(模拟退火)2.训练时间长,3.结构复杂,4.也可能局部极小;5.功能强大
RBM(受限Boltzman机p(v)符合玻尔兹曼分布,生成模型,区别:同层无连接,其他全连接,可见层1(输入v)、隐藏层1(h,给定可视层下,条件独立)(二部图)vi,hj,{0,1},以p取1(二值神经元)联合组态能量函数E(v,h;θ)=−Σijwijvihj−Σibivi−Σjajhj,pθ(v,h)=1Z(θ)exp(−E),目标函数log(pθ(v))(极大似然)E(v,h;\theta)=-\Sigma_{ij}w_{ij}v_ih_j-\Sigma_{i}b_{i}v_i-\Sigma_{j}a_{j}h_j, p_\theta(v,h)=\frac{1}{Z(\theta)}exp(-E),目标函数log(p_\theta(v))(极大似然)E(v,h;θ)=ΣijwijvihjΣibiviΣjajhj,pθ(v,h)=Z(θ)1exp(E)log(pθ(v))(
DBN生成模型,多层,顶层无向图(RBM)(hn-1-hn),低层(v<-hn-1),去除上层,下层是个RBM(二值神经元)从下到上逐层当做RBM训练低层是单向的与RBM不一致,所以提出了DBM
DBMp(v)符合玻尔兹曼分布,生成模型,多层,全无向图(二值神经元)双向,每层需要考虑上下层神经元(多层)E(v,h1,h2;θ)=−vTW1h1−h1TW2h2;p(v)=Σh1,h21Zexp(−E)E(v,h^1,h^2;\theta)=-v^TW^1h^1-h^{1T}W^2h^2;p(v)=\Sigma_{h1,h2}\frac {1}{Z}exp(-E)E(v,h1,h2;θ)=vTW1h1h1TW2h2;p(v)=Σh1,h2Z1exp(E)低层是单向的与RBM不一致,所以提出了DBM
  • Hopfield网络
    • 以确定的方式,确定神经元输出是1/0:
    • 输入>0:1,输入<0:0
  • BM
    • 二值神经元:以不确定性的方式决定输出是1/0
      • sigmoid:p(si=1)=11+exp(−bi−Σjsjwji)p(s_i=1)=\frac{1}{1+exp(-b_i-\Sigma_js_jw_{ji})}p(si=1)=1+exp(biΣjsjwji)1
    • 状态分布;PαPβ=exp(−(E(Sα)−E(Sβ))/T)\frac{P_\alpha}{P_\beta}=exp(-(E(S^\alpha)-E(S^\beta))/T)PβPα=exp((E(Sα)E(Sβ))/T)
    • 状态:Pα=exp(−(E(Sα))/T){P_\alpha}=exp(-(E(S^\alpha))/T)Pα=exp((E(Sα))/T)

在这里插入图片描述

  • RBM(生成模型)
    • 二部图,层内无连接,层间全连接
    • 能量函数:E(v,h;θ)=−Σijwijvihj−Σibivi−ΣjajhjE(v,h;\theta)=-\Sigma_{ij}w_{ij}v_ih_j-\Sigma_{i}b_{i}v_i-\Sigma_{j}a_{j}h_jE(v,h;θ)=ΣijwijvihjΣibiviΣjajhj
    • (v,h)联合分布(满足boltzman):
      • pθ(v,h)=1Z(θ)exp(−E)=1Z(θ)ΠijewijvihjΠiebiviΠjeajhj=exp(−E)Σv,hexp(−E)p_\theta(v,h)=\frac{1}{Z(\theta)}exp(-E)=\frac{1}{Z(\theta)}\Pi_{ij}e^{w_{ij}v_ih_j}\Pi_{i}e^{b_{i}v_i}\Pi_je^{a_{j}h_j} =\frac{exp(-E)}{\Sigma_{v,h}exp(-E)}pθ(v,h)=Z(θ)1exp(E)=Z(θ)1ΠijewijvihjΠiebiviΠjeajhj=Σv,hexp(E)exp(E)
      • Z(θ)=Σv,hexp(−E)Z(\theta)=\Sigma_{v,h}exp(-E)Z(θ)=Σv,hexp(E)
      • ==>可以得到其他分布
        • pθ(v,h)=exp(−E)Σv,hexp(−E)p_\theta(v,h)=\frac{exp(-E)}{\Sigma_{v,h}exp(-E)}pθ(v,h)=Σv,hexp(E)exp(E)
        • pθ(v)=Σhexp(−E)Σv,hexp(−E)p_\theta(v)=\frac{\Sigma_{h}exp(-E)}{\Sigma_{v,h}exp(-E)}pθ(v)=Σv,hexp(E)Σhexp(E)
        • pθ(h)=Σvexp(−E)Σv,hexp(−E)p_\theta(h)=\frac{\Sigma_{v}exp(-E)}{\Sigma_{v,h}exp(-E)}pθ(h)=Σv,hexp(E)Σvexp(E)
        • pθ(h∣v)=exp(−E)Σhexp(−E)p_\theta(h|v)=\frac{exp(-E)}{\Sigma_{h}exp(-E)}pθ(hv)=Σhexp(E)exp(E)
        • pθ(v∣h)=exp(−E)Σvexp(−E)p_\theta(v|h)=\frac{exp(-E)}{\Sigma_{v}exp(-E)}pθ(vh)=Σvexp(E)exp(E)
    • 目标函数:log(pθ(v))log(p_\theta(v))log(pθ(v))——极大似然
      • N个样本
        • maxΣi=1Nlog(pθ(v))max \Sigma_{i=1}^N log(p_\theta(v))maxΣi=1Nlog(pθ(v))
      • log(pθ(v))=logΣhexp(−E)−logΣv′,h′exp(−E)log(p_\theta(v))=log{\Sigma_{h}exp(-E)}-log{\Sigma_{v',h'}exp(-E)}log(pθ(v))=logΣhexp(E)logΣv,hexp(E)
      • 求导(梯度法、CD算法
        • ∂log(pθ(v))∂θ=Σh(exp(−E)−∂E∂θ)Σhexp(−E)−Σv′,h′(exp(−E)−∂E∂θ)Σv′,h′exp(−E)\frac{\partial {log(p_\theta(v))}}{\partial \theta}=\frac{\Sigma_{h}(exp(-E)\frac{- \partial E}{\partial \theta})}{\Sigma_{h}exp(-E)}-\frac{\Sigma_{v',h'}(exp(-E)\frac{- \partial E}{\partial \theta})}{\Sigma_{v',h'}exp(-E)}θlog(pθ(v))=Σhexp(E)Σhexp(E)θEΣv,hexp(E)Σv,hexp(E)θE
        • =Σh(p(h∣v)−∂E∂θ)−Σv′,h′(p(v′,h′)−∂E∂θ)=\Sigma_h(p(h|v)\frac{- \partial E}{\partial \theta})-\Sigma_{v',h'}(p(v',h')\frac{- \partial E}{\partial \theta})=Σh(p(hv)θE)Σv,h(p(v,h)θE)
        • =Ep(h∣v)(−∂E∂θ)−Ep(v′,h′)(−∂E∂θ)=E_{p(h|v)}(\frac{- \partial E}{\partial \theta})-E_{p(v',h')}(\frac{- \partial E}{\partial \theta})=Ep(hv)(θE)Ep(v,h)(θE)(期望)
        • =正面-负面
        • 观测分布:Ep(h∣v)(−∂E∂θ)E_{p(h|v)}(\frac{- \partial E}{\partial \theta})Ep(hv)(θE):给定观测数据之后,隐变量对于可视层的在这个状态之下的一个期望获得的结果
        • 真实分布$E_{p(v’,h’)}(\frac{- \partial E}{\partial \theta}) $:整体的学习期望,在整个网络,所有变化之下的期望的求导
      • 对于具体的参数W,a,b
        • E=−vTWh−bTv−aThE=-v^TWh-b^Tv-a^ThE=vTWhbTvaTh
          • p(v,h)=1zevTWhebTveaThp(v,h)=\frac{1}{z}e^{v^TWh}e^{b^Tv}e^{a^Th}p(v,h)=z1evTWhebTveaTh
          • p(h∣v)=Πjp(hj∣v)=Πj=e(aj+Σiwijvi)hj1+e(aj+Σiwijvi)p(h|v)=\Pi_jp(h_j|v)=\Pi_j=\frac{e^{(a_j+\Sigma_iw_{ij} v_i)h_j}}{1+e^{(a_j+\Sigma_iw_{ij}v_i)}}p(hv)=Πjp(hjv)=Πj=1+e(aj+Σiwijvi)e(aj+Σiwijvi)hj
          • p(v∣h)=Πjp(vi∣h)=Πi=e(bi+Σjwijhj)vi1+e(bi+Σjwijhj))p(v|h)=\Pi_jp(v_i|h)=\Pi_i=\frac{e^{(b_i+\Sigma_jw_{ij} h_j)v_i}}{1+e^{(b_i+\Sigma_jw_{ij} h_j))}}p(vh)=Πjp(vih)=Πi=1+e(bi+Σjwijhj))e(bi+Σjwijhj)vi
          • −∂E∂wij=−vihj\frac{- \partial E}{\partial w_{ij}}=-v_ih_jwijE=vihj
          • −∂E∂bi=−vi\frac{- \partial E}{\partial b_{i}}=-v_ibiE=vi
          • −∂E∂aj=−hj\frac{- \partial E}{\partial a_{j}}=-h_jajE=hj
        • ∂log(pθ(v))∂θ=Ep(h∣v)(−∂E∂θ)−Ep(v′,h′)(−∂E∂θ)\frac{\partial {log(p_\theta(v))}}{\partial \theta}=E_{p(h|v)}(\frac{- \partial E}{\partial \theta})-E_{p(v',h')}(\frac{- \partial E}{\partial \theta})θlog(pθ(v))=Ep(hv)(θE)Ep(v,h)(θE)
          • ∂log(pθ(v))∂wij=Σhj(p(hj∣v)vihj)−Σv′(p(v′)Σhj′(p(hj′∣v′)vi′hj′))\frac{\partial {log(p_\theta(v))}}{\partial w_{ij}}=\Sigma_{h_j}(p(h_j|v)v_ih_j)-\Sigma_{v'}(p(v')\Sigma_{h'_j}(p(h'_j|v')v'_ih'_j))wijlog(pθ(v))=Σhj(p(hjv)vihj)Σv(p(v)Σhj(p(hjv)vihj))
            • 进一步简化=p(hj=1∣v)vi−Σv′(p(v′)p(hj′=1∣v′)vi′))=p(h_j=1|v)v_i-\Sigma_{v'}(p(v')p(h_j'=1|v')v'_i))=p(hj=1v)viΣv(p(v)p(hj=1v)vi))
            • 取值0就没有了,hj=0了都
          • ∂log(pθ(v))∂bi=Σhj(p(hj∣v)vi)−Σv′(p(v′)Σhj′(p(hj′∣v′)vi′))\frac{\partial {log(p_\theta(v))}}{\partial b_{i}}=\Sigma_{h_j}(p(h_j|v)v_i)-\Sigma_{v'}(p(v')\Sigma_{h'_j}(p(h'_j|v')v'_i))bilog(pθ(v))=Σhj(p(hjv)vi)Σv(p(v)Σhj(p(hjv)vi))
            • =vi−Σv′(p(v′)vi′);Σhjp(hj′∣v′)=1=v_i-\Sigma_{v'}(p(v')v'_i);\Sigma_{h_j}p(h_j'|v')=1=viΣv(p(v)vi)Σhjp(hjv)=1
          • ∂log(pθ(v))∂aj=Σhj(p(hj∣v)hj)−Σv′(p(v′)Σhj′(p(hj′∣v′)hj′))\frac{\partial {log(p_\theta(v))}}{\partial a_{j}}=\Sigma_{h_j}(p(h_j|v)h_j)-\Sigma_{v'}(p(v')\Sigma_{h'_j}(p(h'_j|v')h'_j))ajlog(pθ(v))=Σhj(p(hjv)hj)Σv(p(v)Σhj(p(hjv)hj))
            • =p(hj=1∣v)−Σv′(p(v′)p(hj′=1∣v′)))=p(h_j=1|v)-\Sigma_{v'}(p(v')p(h_j'=1|v')))=p(hj=1v)Σv(p(v)p(hj=1v)))
        • 计算
          • v是已知的,第一项可以计算,但第二项不好计算
          • 计算第二项:采样:E(f(x))=Σxf(x)p(x)=1Lσxf(x)p(x)E(f(x))=\Sigma_xf(x)p(x)=\frac{1}{L}\sigma_{x~f(x)}p(x)E(f(x))=Σxf(x)p(x)=L1σx f(x)p(x)
            • CD-K采样(与吉布斯采样存在差异
              • v0输入定
              • v0-p(h|v)->h0通过二值神经元计算
                • sigmoid:p(si=1)=11+exp(−bi−Σjsjwji)p(s_i=1)=\frac{1}{1+exp(-b_i-\Sigma_js_jw_{ji})}p(si=1)=1+exp(biΣjsjwji)1
              • h0-p(v|h)->v1(采样)
              • CD-1就已经能够得到足够的精度了
                • $v={v_i},v^{(0)}=vn $
                • 初始化Δwij=0,Δai=0,Δbj=0\Delta w_{ij}=0,\Delta a_i=0,\Delta b_j=0Δwij=0,Δai=0,Δbj=0
                • 迭代:
                  • 所有j,hj(0)p(hj∣v(0))h_j^{(0)}~p(h_j|v^{(0)})hj(0) p(hjv(0))
                  • 所有i,vi(0)p(vi∣h(0))v_i^{(0)}~p(v_i|h^{(0)})vi(0) p(vih(0))
                  • 计算梯度取平均值(批处理,每个样本都叠加

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481668.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

世界元宇宙大会—李伯虎院士主旨报告:工业元宇宙模式、技术与应用初探

来源&#xff1a;北京物联网智能技术应用协会未来智能实验室的主要工作包括&#xff1a;建立AI智能系统智商评测体系&#xff0c;开展世界人工智能智商评测&#xff1b;开展互联网&#xff08;城市&#xff09;大脑研究计划&#xff0c;构建互联网&#xff08;城市&#xff09;…

国科大高级人工智能+prml4-CNN

文章目录CNN卷积paddingpoolingBP其他CNNResNets残差网络——图像数据应用CNN Hebb学习律&#xff08;无监督 如果两个神经元在同一时刻被激发&#xff0c;则他们之间的联系应该被强化对神经元的重复刺激&#xff0c;使得神经元之间的突触强度增加 Delta学习律&#xff08;有监…

​Science:灵长类前额叶皮质进化图谱

来源&#xff1a;brainnews相比其它物种&#xff0c;包括亲缘关系非常近的灵长类&#xff0c;我们人类进化出了高级的认知和复杂的社会行为。毋庸置疑&#xff0c;人类大脑是这一切独特变化的中心&#xff0c;而其中的前额叶皮质又格外的引人注目。灵长类的前额叶皮质跟其他物种…

基于深度学习的机器人目标识别和跟踪

如今&#xff0c;深度学习算法的发展越来越迅速&#xff0c;并且在图像处理以及目标对象识别方面已经得到了较为显著的突破&#xff0c;无论是对检测对象的类型判断&#xff0c;亦或者对检测对象所处方位的检测&#xff0c;深度学习算法都取得了远超过传统机器学习算法的准确率…

国科大高级人工智能5-RNN/LSTM/GRU/集束搜索/attention

文章目录BPTTBPTT前向传播长序列循环神经网络LSTM序列到序列的模型集束搜索——近似搜索改进的集束搜索集束搜索的误差分析图到文本注意力模型序列数据建模 输入序列–>输出序列预测序列的下一项&#xff08;监督&#xff09; 模糊了监督和非监督 有的cnn对序列不适用&…

揭秘虚拟电厂,它究竟是如何运行的?

来源&#xff1a;新浪科技&#xff08;ID:techsina&#xff09;作者&#xff1a;刘丽丽编辑 &#xff1a;韩大鹏与电力调度相关的虚拟电厂再次引发市场关注。日前&#xff0c;国内首家虚拟电厂管理中心深圳虚拟电厂管理中心揭牌&#xff0c;国内虚拟电厂迈入了快速发展新阶段。…

国科大高级人工智能6-GAN

文章目录生成式模型的基础&#xff1a;极大似然估计GANs最终版本问题非饱和博弈DCGAN不同类型的GANconditional GAN无监督条件GAN--cycle GAN对抗学习https://blog.csdn.net/suyebiubiu/category_9372769.html生成式模型的基础&#xff1a;极大似然估计 θ∗argmaxθExpdatalog…

为什么量子力学总是让人感到疑惑?

来源&#xff1a;中科院物理所作者&#xff1a;Paul Austin Murphy翻译&#xff1a;Nothing审校&#xff1a;藏痴我们认为量子粒子很奇怪的主要问题是将量子粒子视为经典粒子而它们的行为却表现得非常非经典。&#xff08;或者&#xff0c;问题是将量子粒子视为“物体”&#x…

国科大高级人工智能7-命题逻辑

文章目录命题逻辑&#xff08;语法Syntax)由枚举推理&#xff08;inference by enumeration区别deduction(形式推演&#xff0c;演绎&#xff09;作业&#xff08;定理证明&#xff09;logics&#xff1a;逻辑&#xff0c;表达信息的形式语言 语法syntax 语义semantics 逻辑…

费爱国院士:中国城市大脑已走在世界前沿,但仍需努力

信息来源&#xff1a;网易科技2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元基本规定》等三项团体标准&#xff0c;学会理事长&#xff0c;工…

国科大高级人工智能8-归结原理和horn子句

只有一条规则的推理 resolution(消解&#xff0c;归结&#xff09; CNF&#xff08;conjunction normal form合取范式 &#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)任何逻辑式都可转化为语义等价的CNF resolution消解&#xff08;推理规则&…

国科大高级人工智能9-模糊数学和遗传算法

文章目录1.模糊计算笛卡尔积、关系模糊集连续的隶属度函数运算2.evolution 遗传算法1.模糊计算 why模糊 取得精确数据不可能或很困难没有必要获取精确数据 模糊性概念&#xff1a;对象从属的界限是模糊的&#xff0c;随判断人的思维而定 不同人的界定标准不一样 隶属函数&…

周宏仁详解智能革命:“人类不可能瞬间无处不在,但软件可以!”

来源&#xff1a;域名国家工程研究中心 ZDNS“最优秀的人类战斗员也无法抵御以超音速飞行、由人工智能跨地域组织、每秒机动数千次的多台作战装备。人类不可能瞬间无处不在&#xff0c;但软件可以。”近日&#xff0c;信息化百人会顾问、原国家信息化专家咨询委员会常务副主任周…

图灵奖得主Jack Dongarra:高性能计算与AI大融合,如何颠覆科学计算

来源&#xff1a; 智源社区整理&#xff1a;王光华编辑&#xff1a;李梦佳导读&#xff1a;浩瀚的宇宙中两个星云不断彼此接近、融合、再爆炸&#xff0c;这样奇幻的天文景观正是采用高性能计算&#xff08;HPC&#xff09;进行建模仿真生成的。在过去的三十年间&#xff0c;高…

国科大高级人工智能10-强化学习(多臂赌博机、贝尔曼)

文章目录多臂赌博机Multi-armed bandit&#xff08;无状态&#xff09;马尔科夫决策过程MDP(markov decision process1.动态规划蒙特卡罗方法——不知道环境完整模型情况下2.1 on-policy蒙特卡罗2.2 off-policy蒙特卡罗时序差分方法强化学习&#xff1a;Reinforcement learning…

《Science》封面:华大基因领导构建了世界上第一张大脑再生的时空地图

来源&#xff1a;生物通由华大基因研究院领导的多所研究团队使用华大基因Stereo-seq技术&#xff0c;构建了世界上第一个蝾螈(Ambystoma mexicanum)大脑发育和再生的时空细胞图谱&#xff0c;揭示了脑损伤如何自我愈合。这项研究发表在最新一期的《Science》杂志的封面故事上。…

国科大高级人工智能12-博弈

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题&#xff0c;有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注…

科研进展 | 脑智卓越中心揭示神经元与胶质细胞互作参与胶质细胞命运决定的机制...

来源&#xff1a;中科院神经所神经元细胞与胶质细胞是神经系统最主要的两个细胞分类。在神经发育过程中&#xff0c;神经元类型先产生&#xff08;“神经发生”&#xff0c;neurogenesis&#xff09;&#xff0c;胶质细胞后产生&#xff08;“胶质发生”&#xff0c;gliogenesi…

国科大高级人工智能-总结

文章目录1.概论2. 搜索A\*最优性三个传教士与野人3.神经网络RBM DBN DBM hopfield比较结构及特性逐层贪婪训练与CDBPGAN4.逻辑一个永远无法归结结束的FOL合取范式规范化归结原理4.1resolution是完备的、可靠的Modus ponens4.1 蕴含与包含的证明蕴含与implication的关系5. 模糊数…

Science封面:全球首个脑再生时空图谱

来源&#xff1a;brainnews报道来源&#xff1a;作者团队原文链接&#xff1a;https://doi.org/10.1126/science.abp9444为了深入研究墨西哥钝口螈端脑再生的细胞和分子机制&#xff0c;并探讨其与发育的关系&#xff0c;研究人员收集了不同损伤再生阶段&#xff08;7个再生阶段…