高维高斯分布基础

高维高斯分布基础

多位高斯分布的几何理解

多维高斯分布表达式为:
p(x∣μ,Σ)=1(2π)p/2∣Σ∣1/2e−12(x−μ)TΣ−1(x−μ)p(x|\mu,\Sigma)=\frac{1}{(2\pi)^{p/2}|\Sigma|^{1/2}}e^{-\frac{1}{2}(x-\mu)^{T}\Sigma^{-1}(x-\mu)} p(xμ,Σ)=(2π)p/2∣Σ1/21e21(xμ)TΣ1(xμ)
其中 x,μ∈Rp,Σ∈Rp×px,\mu\in\mathbb{R}^{p},\Sigma\in\mathbb{R}^{p\times p}x,μRp,ΣRp×pΣ\SigmaΣ 为协方差矩阵,一般而言是半正定矩阵,这里我们强化一下条件,只考虑正定矩阵。

首先我们处理指数上的数字,指数上的数字可以记为 xxxμ\muμ 之间的马氏距离

马氏距离(Mahalanobis Distance)是度量学习中一种常用的距离指标,同欧氏距离、曼哈顿距离、汉明距离等一样被用作评定数据之间的相似度指标。但却可以应对高维线性分布的数据中各维度间非独立同分布的问题。

两个向量 x\bf{x}xy\mathbf{y}{}y 之间的马氏距离为:
DM(x,y)=(x−y)TΣ−1(x−y))D_M(\bf{x},\bf{y})=\sqrt{(\bf{x}-\bf{y})^T\Sigma^{-1}(\bf{x}-\bf{y}))} DM(x,y)=(xy)TΣ1(xy))
其中 Σ\SigmaΣ 是多维随机变量的协方差矩阵,μ\muμ 为样本均值,如果协方差矩阵是单位向量(Σ=I\Sigma=IΣ=I),也就是各维度独立同分布,马氏距离就变成了欧氏距离。

关于马氏距离,详见:马氏距离(Mahalanobis Distance)。

对于对称的协方差矩阵可进行特征值分解,Σ=UΛUT=(u1,u2,⋯,up)diag(λi)(u1,u2,⋯,up)T=∑i=1puiλiuiT\Sigma=U\Lambda U^{T}=(u_{1},u_{2},\cdots,u_{p})diag(\lambda_{i})(u_{1},u_{2},\cdots,u_{p})^{T}=\sum\limits _{i=1}^{p}u_{i}\lambda_{i}u_{i}^{T}Σ=UΛUT=(u1,u2,,up)diag(λi)(u1,u2,,up)T=i=1puiλiuiT ,于是:
Σ−1=∑i=1pui1λiuiT\Sigma^{-1}=\sum\limits _{i=1}^{p}u_{i}\frac{1}{\lambda_{i}}u_{i}^{T} Σ1=i=1puiλi1uiT

Δ=(x−μ)TΣ−1(x−μ)=∑i=1p(x−μ)Tui1λiuiT(x−μ)=∑i=1pyi2λi\Delta=(x-\mu)^{T}\Sigma^{-1}(x-\mu)=\sum\limits _{i=1}^{p}(x-\mu)^{T}u_{i}\frac{1}{\lambda_{i}}u_{i}^{T}(x-\mu)=\sum\limits _{i=1}^{p}\frac{y_{i}^{2}}{\lambda_{i}} Δ=(xμ)TΣ1(xμ)=i=1p(xμ)Tuiλi1uiT(xμ)=i=1pλiyi2

我们注意到 yiy_{i}yix−μx-\muxμ 在特征向量 uiu_{i}ui 上的投影长度,因此上式子就是 Δ\DeltaΔ 取不同值时的同心椭圆。例如,在维度 P=2P=2P=2 时,取 Δ=1\Delta=1Δ=1,则有:y12λ1+y22λ2=1\frac{y_1^2}{\lambda_1}+\frac{y_2^2}{\lambda_2}=1λ1y12+λ2y22=1 ,明显就是椭圆的曲线方程。

多维高斯模型的限制

下面我们看多维高斯模型在实际应用时的两个限制:

  1. 参数 Σ,μ\Sigma,\muΣ,μ 的自由度为 O(p2)O(p^{2})O(p2) 对于维度很高的数据其自由度太高。
    • 解决方案:高自由度的来源是 Σ\SigmaΣp(p+1)2\frac{p(p+1)}{2}2p(p+1) 个自由参数,可以假设其是对角矩阵,甚至假设其对角线上的元素都相同,此时称为各向同性的高斯分布。前一种的算法有 Factor Analysis,后一种有概率 PCA (p-PCA) 。
  2. 第二个问题是单个高斯分布是单峰的,对有多个峰的数据分布不能得到好的结果。
    • 解决方案:使用多个单高斯模型组合得到高斯混合模型 GMM。

多维高斯分布的边缘概率和条件概率

对于高斯模型的线性变换,有这样一个定理(暂不证明):

定理:已知 x∼N(μ,Σ),y∼Ax+bx\sim\mathcal{N}(\mu,\Sigma), y\sim Ax+bxN(μ,Σ),yAx+bx∈Rp,y∈Rpx\in\mathbb{R}^p,y\in\mathbb{R}^pxRp,yRp,那么 y∼N(Aμ+b,AΣAT),Σ∈Rp×p,A∈R1×py\sim\mathcal{N}(A\mu+b, A\Sigma A^T),\ \ \Sigma \in \mathbb{R}^{p\times p },\ \ A\in\mathbb{R}^{1\times p}yN(Aμ+b,AΣAT),  ΣRp×p,  AR1×p

我们将 ppp 维样本数据拆分为 m+nm+nm+n 维: x=(x1,x2,⋯,xp)T=(xa,m×1,xb,n×1)Tx=(x_1, x_2,\cdots,x_p)^T=(x_{a,m\times 1}, x_{b,n\times1})^Tx=(x1,x2,,xp)T=(xa,m×1,xb,n×1)T

对应的高斯模型的参数也进行拆分:均值 μ=(μa,m×1,μb,n×1)T\mu=(\mu_{a,m\times1}, \mu_{b,n\times1})^Tμ=(μa,m×1,μb,n×1)T,协方差矩阵 Σ=(ΣaaΣabΣbaΣbb)\Sigma=\begin{pmatrix}\Sigma_{aa}&\Sigma_{ab}\\\Sigma_{ba}&\Sigma_{bb}\end{pmatrix}Σ=(ΣaaΣbaΣabΣbb),已知 x∼N(μ,Σ)x\sim\mathcal{N}(\mu,\Sigma)xN(μ,Σ)

下面介绍如何求多维高斯分布的边缘概率和条件概率 p(xa),p(xb),p(xa∣xb),p(xb∣xa)p(x_a),p(x_b),p(x_a|x_b),p(x_b|x_a)p(xa),p(xb),p(xaxb),p(xbxa)

求边缘概率

构造 xa=(Im×mOm×n)(xaxb)x_a=\begin{pmatrix}{I}_{m\times m}&{O}_{m\times n}\end{pmatrix}\begin{pmatrix}x_a\\x_b\end{pmatrix}xa=(Im×mOm×n)(xaxb),其中 I,OI,OI,O 分别是单位矩阵和零矩阵,代入上述定理中得到:
E[xa]=(IO)(μaμb)=μaVar[xa]=(IO)(ΣaaΣabΣbaΣbb)(IO)=Σaa\mathbb{E}[x_a]=\begin{pmatrix}{I}&{O}\end{pmatrix}\begin{pmatrix}\mu_a\\\mu_b\end{pmatrix}=\mu_a\\ Var[x_a]=\begin{pmatrix}{I}&{O}\end{pmatrix}\begin{pmatrix}\Sigma_{aa}&\Sigma_{ab}\\\Sigma_{ba}&\Sigma_{bb}\end{pmatrix}\begin{pmatrix}{I}\\{O}\end{pmatrix}=\Sigma_{aa} E[xa]=(IO)(μaμb)=μaVar[xa]=(IO)(ΣaaΣbaΣabΣbb)(IO)=Σaa
所以 xa∼N(μa,Σaa)x_a\sim\mathcal{N}(\mu_a,\Sigma_{aa})xaN(μa,Σaa), 边缘概率 p(xa)p(x_a)p(xa) 就得到了。 类似的,xb∼N(μb,Σbb)x_b\sim\mathcal{N}(\mu_b,\Sigma_{bb})xbN(μb,Σbb)

求条件概率

对于两个条件概率,通常是用配方法(如 PRML 的证明),这里我们用一种构造法。首先引入三个量,令:
xb⋅a=xb−ΣbaΣaa−1xaμb⋅a=μb−ΣbaΣaa−1μaΣbb⋅a=Σbb−ΣbaΣaa−1Σabx_{b\cdot a}=x_b-\Sigma_{ba}\Sigma_{aa}^{-1}x_a\\ \mu_{b\cdot a}=\mu_b-\Sigma_{ba}\Sigma_{aa}^{-1}\mu_a\\ \Sigma_{bb\cdot a}=\Sigma_{bb}-\Sigma_{ba}\Sigma_{aa}^{-1}\Sigma_{ab} xba=xbΣbaΣaa1xaμba=μbΣbaΣaa1μaΣbba=ΣbbΣbaΣaa1Σab
特别的,最后一个式子叫做 Σaa\Sigma_{aa}Σaa 的 Schur Complementary。可以看到:
xb⋅a=(−ΣbaΣaa−1In×n)(xaxb)x_{b\cdot a}=\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}&{I}_{n\times n}\end{pmatrix}\begin{pmatrix}x_a\\x_b\end{pmatrix} xba=(ΣbaΣaa1In×n)(xaxb)
再有定理,有:
E[xb⋅a]=(−ΣbaΣaa−1In×n)(μaμb)=μb⋅aVar[xb⋅a]=(−ΣbaΣaa−1In×n)(ΣaaΣabΣbaΣbb)(−Σaa−1ΣbaTIn×n)=Σbb⋅a\mathbb{E}[x_{b\cdot a}]=\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}&\mathbb{I}_{n\times n}\end{pmatrix}\begin{pmatrix}\mu_a\\\mu_b\end{pmatrix}=\mu_{b\cdot a}\\ Var[x_{b\cdot a}]=\begin{pmatrix}-\Sigma_{ba}\Sigma_{aa}^{-1}&{I}_{n\times n}\end{pmatrix}\begin{pmatrix}\Sigma_{aa}&\Sigma_{ab}\\\Sigma_{ba}&\Sigma_{bb}\end{pmatrix}\begin{pmatrix}-\Sigma_{aa}^{-1}\Sigma_{ba}^T\\{I}_{n\times n}\end{pmatrix}=\Sigma_{bb\cdot a} E[xba]=(ΣbaΣaa1In×n)(μaμb)=μbaVar[xba]=(ΣbaΣaa1In×n)(ΣaaΣbaΣabΣbb)(Σaa1ΣbaTIn×n)=Σbba
则对于我们构造的 xb⋅ax_{b\cdot a}xba ,有 xb⋅a∼N(μb⋅a,Σbb⋅a)x_{b\cdot a}\sim\mathcal{N}(\mu_{b\cdot a},\Sigma_{bb\cdot a})xbaN(μba,Σbba) ,这里可以看到最初这个构造的设计中,核心的构造就是 xb⋅ax_{b\cdot a}xba ,而 μb⋅a,Σbb⋅a\mu_{b\cdot a},\ \Sigma_{bb\cdot a}μba, Σbba 只是两个记号,在这种构造的推导下来表示一下均值和方差。

由我们最初的构造,有 xb=xb⋅a+ΣbaΣaa−1xax_b=x_{b\cdot a}+\Sigma_{ba}\Sigma_{aa}^{-1}x_axb=xba+ΣbaΣaa1xa ,再由定理:
E[xb∣xa]=μb⋅a+ΣbaΣaa−1xa\mathbb{E}[x_b|x_a]=\mu_{b\cdot a}+\Sigma_{ba}\Sigma_{aa}^{-1}x_a E[xbxa]=μba+ΣbaΣaa1xa

Var[xb∣xa]=Σbb⋅aVar[x_b|x_a]=\Sigma_{bb\cdot a} Var[xbxa]=Σbba

所以 xb∣xa∼N(μb⋅a+ΣbaΣaa−1xa,Σbb⋅a)x_b|x_a\sim \mathcal{N}(\mu_{b\cdot a}+\Sigma_{ba}\Sigma_{aa}^{-1}x_a,\Sigma_{bb\cdot a})xbxaN(μba+ΣbaΣaa1xa,Σbba) 。类似的,xa∣xb∼N(μa⋅b+ΣabΣbb−1xb,Σaa⋅b)x_a|x_b\sim \mathcal{N}(\mu_{a\cdot b}+\Sigma_{ab}\Sigma_{bb}^{-1}x_b,\Sigma_{aa\cdot b})xaxbN(μab+ΣabΣbb1xb,Σaab)

根据边缘概率和条件概率求联合概率

已知:p(x)=N(μ,Λ−1),p(y∣x)=N(Ax+b,L−1)p(x)=\mathcal{N}(\mu,\Lambda^{-1}),p(y|x)=\mathcal{N}(Ax+b,L^{-1})p(x)=N(μ,Λ1),p(yx)=N(Ax+b,L1),求解:p(y),p(x∣y)p(y),p(x|y)p(y),p(xy)

  1. 这种类型的问题在线性高斯模型、PCA降维等机器学习模型中经常出现。
  2. 这里的 Λ,L\Lambda, LΛ,L 称为精度矩阵,它们是协方差矩阵的逆。

解:令 y=Ax+b+ϵ,ϵ∼N(0,L−1)y=Ax+b+\epsilon,\epsilon\sim\mathcal{N}(0,L^{-1})y=Ax+b+ϵ,ϵN(0,L1),且 ϵ\epsilonϵxxx 相互独立,还是根据上节的定理,有
E[y]=E[Ax+b+ϵ]=Aμ+bVar[y]=AΛ−1AT+L−1\mathbb{E}[y]=\mathbb{E}[Ax+b+\epsilon]=A\mu+b\\ Var[y]=A \Lambda^{-1}A^T+L^{-1} E[y]=E[Ax+b+ϵ]=Aμ+bVar[y]=AΛ1AT+L1
此时,就已经得到 y∼N(Aμ+b,L−1+AΛ−1AT)y\sim\mathcal{N}(A\mu+b,L^{-1}+A\Lambda^{-1}A^T)yN(Aμ+b,L1+AΛ1AT) ,即 p(y)=N(Aμ+b,L−1+AΛ−1AT)p(y)=\mathcal{N}(A\mu+b,L^{-1}+A\Lambda^{-1}A^T)p(y)=N(Aμ+b,L1+AΛ1AT)

因此:
Var[x∣y]=Λ−1−Λ−1AT(L−1+AΛ−1AT)−1AΛ−1Var[x|y]=\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1} Var[xy]=Λ1Λ1AT(L1+AΛ1AT)1AΛ1
引入 z=(xy)z=\begin{pmatrix}x\\y\end{pmatrix}z=(xy),我们可以得到 Cov[x,y]=E[(x−E[x])(y−E[y])T]Cov[x,y]=\mathbb{E}[(x-\mathbb{E}[x])(y-\mathbb{E}[y])^T]Cov[x,y]=E[(xE[x])(yE[y])T]。对于这个协方差可以直接计算:
Cov(x,y)=E[(x−E[x])(y−E[y])T]=E[(x−μ)(Ax+b−Aμ−b+ϵ)T]=E[(x−μ)(Ax−Aμ+ϵ)T]=E[(x−μ)(Ax−Aμ)T+(x−μ)ϵT]=E[(x−μ)(Ax−Aμ)T]=E[(x−μ)(x−μ)T]AT=Var[x]AT=Λ−1AT\begin{align} Cov(x,y)&=\mathbb{E}[(x-\mathbb{E}[x])(y-\mathbb{E}[y])^T]\\ &=\mathbb{E}[(x-\mu)(Ax+b-A\mu-b+\epsilon)^T]\\ &=\mathbb{E}[(x-\mu)(Ax-A\mu+\epsilon)^T]\\ &=\mathbb{E}[(x-\mu)(Ax-A\mu)^T+(x-\mu)\epsilon^T]\\ &=\mathbb{E}[(x-\mu)(Ax-A\mu)^T]\\ &=\mathbb{E}[(x-\mu)(x-\mu)^T]A^T\\ &=Var[x]A^T\\ &=\Lambda^{-1}A^T \end{align} Cov(x,y)=E[(xE[x])(yE[y])T]=E[(xμ)(Ax+bAμb+ϵ)T]=E[(xμ)(AxAμ+ϵ)T]=E[(xμ)(AxAμ)T+(xμ)ϵT]=E[(xμ)(AxAμ)T]=E[(xμ)(xμ)T]AT=Var[x]AT=Λ1AT
注意到协方差矩阵的对称性,所以 p(z)=N(μAμ+b),(Λ−1Λ−1ATAΛ−1L−1+AΛ−1AT))p(z)=\mathcal{N}\begin{pmatrix}\mu\\A\mu+b\end{pmatrix},\begin{pmatrix}\Lambda^{-1}&\Lambda^{-1}A^T\\A\Lambda^{-1}&L^{-1}+A\Lambda^{-1}A^T\end{pmatrix})p(z)=N(μAμ+b),(Λ1AΛ1Λ1ATL1+AΛ1AT))。根据上一节的公式,我们可以得到:
E[x∣y]=μ+Λ−1AT(L−1+AΛ−1AT)−1(y−Aμ−b)\mathbb{E}[x|y]=\mu+\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}(y-A\mu-b) E[xy]=μ+Λ1AT(L1+AΛ1AT)1(yAμb)

Var[x∣y]=Λ−1−Λ−1AT(L−1+AΛ−1AT)−1AΛ−1Var[x|y]=\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1} Var[xy]=Λ1Λ1AT(L1+AΛ1AT)1AΛ1

故得到:p(x∣y)=N(μ+Λ−1AT(L−1+AΛ−1AT)−1(y−Aμ−b),Λ−1−Λ−1AT(L−1+AΛ−1AT)−1AΛ−1)p(x|y)=\mathcal{N}(\mu+\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}(y-A\mu-b),\Lambda^{-1}-\Lambda^{-1}A^T(L^{-1}+A\Lambda^{-1}A^T)^{-1}A\Lambda^{-1})p(xy)=N(μ+Λ1AT(L1+AΛ1AT)1(yAμb),Λ1Λ1AT(L1+AΛ1AT)1AΛ1)

Ref

  1. 机器学习白板推导
  2. 马氏距离(Mahalanobis Distance)
  3. 机器学习白板推导笔记

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/532425.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

angularjs sill 创建项目_开源项目——博客项目MyBlogs.Core,基于.NET 5

个人博客站项目源码,高性能低占用的博客系统,这也许是我个人目前写过的性能最高的web项目了 。目前日均处理请求数80-120w次,同时在线活跃用户数30-100人,数据量累计已达到100多万条,数据库Redis网站主程序同时运行在一…

怀旧服推荐配置_【怀旧服】狂暴战P4毕业装备推荐

在怀旧服开启P4阶段之后,狂暴战玩家的输出也得到了进一步的提升。当然,狂暴战想要打出足够的伤害离不开对应的装备,现在就给大家介绍下狂暴战P4阶段的BIS装备。散件装备狂暴战在这一阶段依旧有非常不错的散件装备,个人建议玩家入手…

高斯混合模型GMM及EM迭代求解算法(含代码实现)

高斯混合模型GMM及EM迭代求解算法(含代码实现) 高斯分布与高斯混合模型 高斯分布 高斯分布大家都很熟悉了,下面是一元高斯分布的概率密度函数(Probability Density Function,PDF): P(x)N(μ,…

十个模块_专栏 | ABAQUS Part模块的十个小技巧

作者介绍星辰_北极星2012年开始从事Abaqus仿真相关工作,服务大小课题逾百项; 主要仿真领域:石油工程、岩土工程和金属加工工艺; 重点研究方向:ABAQUS GUI二次开发、固体力学、断裂以及损伤等。Abaqus有部件(Part)和装配体(Assembl…

深度学习时代的视频理解综述

深度学习时代的视频理解综述 本文为b站bryanyzhu老师四期视频理解相关论文解读的汇总图文笔记。 我们先精读深度学习时代视频理解领域最为重要的两篇论文:双流网络和 I3D。它们分别是领域内两大类方法双流(利用光流)网络和 3D CNN 网络的代…

typec扩展坞hdmi没反应_typec扩展坞转hdmi/vga多功能网口usb转换器苹果华为电脑matebook6元优惠券券后价26.8元...

★typec扩展坞转hdmi/vga多功能网口usb转换器苹果华为电脑matebook,6元拼多多优惠券★券后价26.8元★★★typec扩展坞转hdmi/vga多功能网口usb转换器苹果华为电脑matebook¥26.8元¥32.8元已拼5097件点击抢购猜你喜欢[速发]喵喵机P1热敏打印机手…

NLP任务概览

NLP任务概览 本文为台湾大学李宏毅老师视频课程笔记。本课程介绍了 (2020年)NLP 领域常见的 17 种任务。本文只会从输入输出的角度概览多种 NLP 任务,并简介它们的常见做法,并不会细致地介绍每个任务模型的具体细节。 两种模式与…

大物实验总结模板_期中总结大会amp;期末动员大会

在逐渐降温的双创周麦包坊的期中总结暨期末动员大会来啦在学长团和小麦包的分享下希望大家重新启航奋斗期末板块一学长团经验分享面对本学期十二门科目,作为过来人的前辈们给出很多对本学期各科目的针对性建议,可谓是干货满满,快来瞧瞧吧&…

PTMs:NLP预训练模型的全面总结

PTMs:NLP预训练模型的全面总结 转自:https://zhuanlan.zhihu.com/p/115014536 预训练模型(Pre-trained Models,PTMs) 的出现将NLP带入了一个全新时代。2020年3月18日,邱锡鹏老师发表了关于NLP预训练模型的综述《Pre-trained Models for Natur…

python中提取几列_Python一键提取PDF中的表格到Excel(实例50)

从PDF文件获取表格中的数据,也是日常办公容易涉及到的一项工作。一个一个复制吧,效率确实太低了。用Python从PDF文档中提取表格数据,并写入Excel文件,灰常灰常高效。上市公司的年报往往包含几百张表格,用它作为例子再合…

EM算法公式推导

EM算法公式推导 EM 算法是一种用来进行含有隐变量的概率生成模型参数估计的迭代算法。 EM算法步骤 EM 算法通过迭代求 L(θ)log⁡P(X∣θ)L(\theta)\log P(X|\theta)L(θ)logP(X∣θ) 的极大似然估计,每次迭代包含两部:E步,求期望&#xf…

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解

详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解 声明:本文为原创文章,发表于nebulaf91的csdn博客。欢迎转载,但请务必保留本信息,注明文章出处。 本…

elemntui icon 大小_自定义elementui中的图标

前提elementui图标库图标较少当你想用elementui的控件而不想用它的图标时,就可以使用自定义的方式来实现实现el-icon-my-export为我自定义的图标命名导出//使用图片来替换//before属性中的content文本是用来占位的,必须有//可以设置字体大小来确定大小//使用visibil…

变分推断公式推导

变分推断公式推导 背景介绍 机器学习中的概率模型可分为频率派和贝叶斯派。频率派最终是求一个优化问题,而贝叶斯派则是求一个积分问题。 频率派 举几个例子: 线性回归 样本数据:{(xi,yi)}i1N\{(x_i,y_i)\}_{i1}^N{(xi​,yi​)}i1N​ 模…

重新打开_iPhone 应用停止响应或无法打开的解决办法

如果当您在 iPhone 上使用某个重要应用时,遇到应用停止响应、意外退出或无法打开的问题,请参考如下步骤尝试解决:1.强制退出应用:在 iPhone 后台强制关闭该应用之后,再次重新打开看看。2.重启您的设备,然后…

机器学习理论——优雅的模型:变分自编码器(VAE)

机器学习理论——优雅的模型:变分自编码器(VAE) 转自:机器学习理论—优雅的模型(一):变分自编码器(VAE) 另外直观理解 VAE, 推荐 台大李宏毅老师的课程&#…

grub引导项修复详解_重新安装win7后,修复Grub启动项

重新安装win7后,修复Grub启动项发布时间:2010-09-14 22:14:00来源:红联作者:null925[is] 本帖最后由 null925 于 2010-9-14 22:18 编辑 [/i]原先使用Win7,Gentoo,Ubuntu三系统,Grub作为系统引导管理器,今天重新安装Win…

基于流的(Flow-based)生成模型简介

基于流的(Flow-based)生成模型简介 生成任务 我们先回顾一下所谓的生成任务,究竟是做什么事情。我们认为,世界上所有的图片,是符合某种分布 pdata(x)p_{data}(x)pdata​(x) 的。当然,这个分布肯定是个极其复杂的分布。而我们有一…

iec60870-5-104通讯协议编程_三菱FX编程口通讯协议1——协议解读

三菱PLC编程口通讯协议:1、三菱PLC编程口通讯协议有四个命令,如下:2、三菱FX系列PLC地址对应表:PLC_X Group Base AddRess128;Const PLC_Y_Group Base AddRess160;M _Group Base_AddRess 256;P…

采用ODP.NET 批量进行数据同步

因开发、测试场景经常需要模拟机生产环境的数据,原同事开发了一个ado.net图形化同步工具,对非技术人员操作友好,但对技术员使用并不方便,每次同步需源库数据与目标的数据源字段进行配置,且同步大数据时慢,因…