国科大高级人工智能6-GAN

文章目录

  • 生成式模型的基础:极大似然估计
  • GANs
    • 最终版本
    • 问题
      • 非饱和博弈
  • DCGAN
  • 不同类型的GAN
    • conditional GAN
    • 无监督条件GAN--cycle GAN
  • 对抗学习

https://blog.csdn.net/suyebiubiu/category_9372769.html

生成式模型的基础:极大似然估计

  • θ∗=argmaxθExpdatalogPmodel(x∣θ)\theta^*=argmax_\theta E_{x~p_{data}}logP_{model}(x|\theta)θ=argmaxθEx pdatalogPmodel(xθ)

在这里插入图片描述

  • 生成式模型都源于极大似然估计

    • 显示概率分布
      • 马尔科夫链/BM
    • 隐式概率分布
      • GSN
      • GAN—唯一一个从数据观测一步到位的模型
        在这里插入图片描述
        以前比较强大的模型都源于HMM模型
  • 人工智能两个阶段

    • 感知阶段
    • 认知阶段
  • GAN(生成式模型

    • 生成数据样本的能力
    • 反应了他的理解(不能产生就没有理解)

GANs

  • 和以前模型的的区别

    • 使用了 latent code(缺省编码)
    • 数据会逐渐统一 (unlike variational methods)
    • 不需要马尔可夫链
    • 被认为可以生成最好的样本
      • (没有办法评价No good way to quantify this
  • 核心思想:博弈论的纳什均衡——对抗达到平衡(共同进步)

    • 生成器:尽量生成真实的分布——努力让判别器认不出来
      • 输入向量,输出图或序列。。。
      • 不同的向量表示不同的特征
      • 想要发现数据的分布Pdata(x)P_{data}(x)Pdata(x)
        • 假设一个分布Pdata(x;θ),用极大似然去找θP_{data}(x;\theta),用极大似然去找\thetaPdata(x;θ),θ
    • 判别器:区分是生成的还是真实的(努力让他能认出生成器生成的数据)
      • 输入:图片
      • 输出:标量评分
        • 分越大,越真实–1
        • 分小则假–0.1
  • 算法

    1. 固定生成器G,从真假图中采样,来更新(训练)判别器D–>D1

      • 版本1:$对V(G_0,D)找到D_0^* $===>D1
      • 版本2:实际使用最小化交叉熵来进行二分类
        • 原来:V(G,D)=ExPdata[log(D(x))]+ExPG[log(1−D(x))](G固定)原来:V(G,D)=E_{x~P_{data}}[log(D(x))]+E_{x~P_{G}}[log(1-D(x))] (G固定)V(G,D)=Ex Pdata[log(D(x))]+Ex PG[log(1D(x))](G
          • 目标函数==》maxV~=1mΣi=1mlog(D(xi))+1mΣi=1mlog(D(x~i))\tilde{V}=\frac{1}{m}\Sigma_{i=1}^{m}log(D(x^i))+\frac{1}{m}\Sigma_{i=1}^{m}log(D(\tilde{x}^i))V~=m1Σi=1mlog(D(xi))+m1Σi=1mlog(D(x~i))——均值代替期望
          • 原来是对概率求和–>期望–>均值(Σi=1mlogPG(xi;θ)\Sigma_{i=1}^mlog P_G(x^i;\theta)Σi=1mlogPG(xi;θ)
        • 多迭代几次:$\theta_d<–\theta_d+\eta d \tilde{V} $
    2. 固定D1,训练生成器G–>G1

      • v1:θG←θG−η∂V(G,D0∗)∂θG\theta_G \leftarrow \theta_G-\eta \frac{\partial V(G,D_0^*)}{\partial \theta_G}θGθGηθGV(G,D0)===>找到G1
      • v2:假设D0∗≈D1∗−−−也就是G变化很小(更新不能太频繁D_0^*\approx D_1^*---也就是G变化很小(更新不能太频繁D0D1G
        • V~=1mΣi=1mlog(D(G(zi))),z来自Pprior(z)\tilde{V}=\frac{1}{m}\Sigma_{i=1}^{m}log(D(G(z^i))),z来自P_{prior}(z)V~=m1Σi=1mlog(D(G(zi))),zPprior(z)–目标函数是一样的
          • 1mΣi=1mlog(D(xi))\frac{1}{m}\Sigma_{i=1}^{m}log(D(x^i))m1Σi=1mlog(D(xi))与生成器无关,可以不考虑
        • $\theta_G<–\theta_G- \eta d \tilde{V} $
    3. 重复到平衡

  • 生成器

    • 极大似然估计L=Πi=1mPG(xi;θ),L=\Pi_{i=1}^mP_G(x^i;\theta),L=Πi=1mPG(xi;θ),
      • θ∗=argmaxθΠi=1mPG(xi;θ)\theta^*=argmax_\theta \Pi_{i=1}^mP_G(x^i;\theta)θ=argmaxθΠi=1mPG(xi;θ)
      • θ∗=argmaxθΣi=1mlogPG(xi;θ)\theta^*=argmax_\theta \Sigma_{i=1}^mlog P_G(x^i;\theta)θ=argmaxθΣi=1mlogPG(xi;θ)
      • θ∗=argmaxθExPdata(logPG(xi;θ))\theta^*=argmax_\theta E_{x~Pdata}(log P_G(x^i;\theta) )θ=argmaxθEx Pdata(logPG(xi;θ))—求和近似于期望
      • =argmaxθ∫xPdata(x)logPG(x;θ)dx−∫xPdata(x)logPdata(xi)dx=argmax_\theta \displaystyle \int_x P_{data}(x)log P_G(x;\theta)dx-\displaystyle \int_x P_{data}(x)log P_{data}(x^i)dx=argmaxθxPdata(x)logPG(x;θ)dxxPdata(x)logPdata(xi)dx—后面的只与真实数据有关
      • =argminθKL(Pdata∣∣PG)=argmin_\theta KL(P_{data}||P_G)=argminθKL(PdataPG)----=最小化KL散度(就是最小化他俩的差别KL=Div
    • 如何产生通用的PGP_GPG?(通过神经网络
      • G∗=argminθKL(Pdata∣∣PG)G^* =argmin_\theta KL(P_{data}||P_G)G=argminθKL(PdataPG)
      • Pdata(从真实数据中),PG(生成的采样)未知−−通过采样得到P_{data}(从真实数据中),P_G(生成的采样)未知--通过采样得到Pdata,PG
      • $D^*=-2log2+2JSD(P_{data}||P_G) $
      • G∗=argminGKL(Pdata∣∣PG)=argminGmaxDV(G,D)G^*=argmin_G KL(P_{data}||P_G)=argmin_G max_D V(G,D)G=argminGKL(PdataPG)=argminGmaxDV(G,D)
  • 判别器

    • 希望判别器通过区分,以Pdata和以PG采样得到的数据
    • 目标函数:V(G,D)=ExPdata[log(D(x))]+ExPG[log(1−D(x))](G固定)V(G,D)=E_{x~P_{data}}[log(D(x))]+E_{x~P_{G}}[log(1-D(x))] (G固定)V(G,D)=Ex Pdata[log(D(x))]+Ex PG[log(1D(x))](G真实的+虚假的
      • =∫xPdata(x)logD(x)dx+∫xPG(x)log(1−D(x))dx=\displaystyle \int_x P_{data}(x)log D(x) dx +\displaystyle \int_x P_{G}(x)log (1-D(x)) dx=xPdata(x)logD(x)dx+xPG(x)log(1D(x))dx
      • =∫x(Pdata(x)logD(x)+PG(x)log(1−D(x)))dx=\displaystyle \int_x (P_{data}(x)log D(x)+ P_{G}(x)log (1-D(x))) dx=x(Pdata(x)logD(x)+PG(x)log(1D(x)))dx
        • 假设D(x)能够是任何函数–
        • 所以D要足够强–深度神经网络
        • 最大化(Pdata(x)logD(x)dx+PG(x)log(1−D(x)))(P_{data}(x)log D(x) dx + P_{G}(x)log (1-D(x)))(Pdata(x)logD(x)dx+PG(x)log(1D(x)))
          • 求导:
            • d(f(D))dD=a∗1D+b∗11−D∗(−1)=0\frac{d(f(D))}{dD}=a*\frac{1}{D}+b*\frac{1}{1-D}*(-1)=0dDd(f(D))=aD1+b1D1(1)=0
            • a∗1D∗=b∗11−D∗a*\frac{1}{D^*}=b*\frac{1}{1-D^*}aD1=b1D1
            • D∗(x)=aa+b=Pdata(x)Pdata(x)+PG(x)D^*(x)=\frac{a}{a+b}=\frac{P_{data}(x)}{P_{data}(x)+P_{G}(x)}Dx=a+ba=Pdata(x)+PG(x)Pdata(x)(在(0,1)之间
        • 带入$G^* $
          • D∗=maxDV(G,D)=V(G,D∗)=ExPdata[log(Pdata(x)Pdata(x)+PG(x))]+ExPG[log(PG(x)Pdata(x)+PG(x))]D^*=max_DV(G,D)=V(G,D^*)=E_{x~P_{data}}[log(\frac{P_{data}(x)}{P_{data}(x)+P_{G}(x)})]+E_{x~P_{G}}[log(\frac{P_{G}(x)}{P_{data}(x)+P_{G}(x)})]D=maxDV(G,D)=V(G,D)=Ex Pdata[log(Pdata(x)+PG(x)Pdata(x))]+Ex PG[log(Pdata(x)+PG(x)PG(x))]
          • =−2log2+∫x(Pdata(x)logPG(x)(Pdata(x)+PG(x))/2+PG(x)log(PG(x)(Pdata(x)+PG(x))/2))dx=-2log2+\displaystyle \int_x (P_{data}(x)log \frac{P_{G}(x)}{(P_{data}(x)+P_{G}(x))/2} + P_{G}(x)log (\frac{P_{G}(x)}{(P_{data}(x)+P_{G}(x))/2)}) dx=2log2+x(Pdata(x)log(Pdata(x)+PG(x))/2PG(x)+PG(x)log((Pdata(x)+PG(x))/2)PG(x))dx
          • =−2log2+KL(Pdata∣∣Pdata(x)+PG(x)2)+KL(PG∣∣Pdata(x)+PG(x)2)=-2log2+KL(P_{data}||\frac{P_{data}(x)+P_{G}(x)}{2})+KL(P_{G}||\frac{P_{data}(x)+P_{G}(x)}{2})=2log2+KL(Pdata2Pdata(x)+PG(x))+KL(PG2Pdata(x)+PG(x))
          • =−2log2+2JSD(Pdata∣∣PG)=-2log2+2JSD(P_{data}||P_G)=2log2+2JSD(PdataPG)
          • JSD(Pdata∣∣PG)=12D(P∣∣M)+12D(Q∣∣M),M=12(P+Q)JSD(P_{data}||P_G)=\frac{1}{2}D(P||M)+\frac{1}{2}D(Q||M),M=\frac{1}{2}(P+Q)JSD(PdataPG)=21D(PM)+21D(QM),M=21(P+Q)
    • 训练:D∗=argmaxDV(D,G)D^*=argmax_DV(D,G)D=argmaxDV(D,G)
      在这里插入图片描述

      在这里插入图片描述

最终版本

  • 训练:SGD,同时训练两组数据——深度神经网络
    • 真实的
    • 生成的
  • 优化
    • 可以一组训练跑一次时,另一组跑k次
      在这里插入图片描述

问题

  • 在开始的时候,训练较慢
    在这里插入图片描述

非饱和博弈

在这里插入图片描述

  • 更换后,极值点不变
  • 原来D=1/2时,就无法训练了,而这个里面,D=1/2时仍然可以对生成器进行训练

DCGAN

  • 反卷积生成图像
    在这里插入图片描述

不同类型的GAN

  1. 传统GAN–
    • 没有任何条件的,
    • 给定一个图片,生成类似的图片
  2. 有条件的GAN
    • 给定图片+图片里的信息(条件)
    • 传统的神经网络,容易输出一个图片的平均(不对)–用GAN
  3. 无监督有条件的GAN
    • 给定两个领域的图片
    • 由一个领域的图片可以生成另外一个领域的图片
    • 真实图片–》漫画风?

conditional GAN

  • 生成器
    • 不仅要生成火车,还要满足条件
  • 判别器
    • 判别是不是真实图片
    • 判别是不是满足条件
    • 对于真实的图片,不满足条件也输出0
      在这里插入图片描述

无监督条件GAN–cycle GAN

在这里插入图片描述

  • 直接使用会趋向于直接拿过来一个梵高的画
    1. 需要用一个网络,使得X≈YX \approx YXY
    2. 也可以用生成器的逆过程反过来生成X’,X≈X′X \approx X'XX

在这里插入图片描述

对抗学习

  • 区别
    • 一般机器学习只有一个机制点
    • 对抗学习基于博弈论
      • 有两个player
      • 一个取极大一个取极小—求个鞍点
  • 用于
    • 白天–>黑天
      • 没有真实对应的信息,只能通过对抗GAN网络生成—视频
    • 加噪音–让图片不可识别–安全(攻击分类器)
    • 通过将对抗的x’加入分类其中,提高分类器的能力(稳定性)
  • 损失函数
    • 分类器loss(θ)=C(y0,ytrue)小,y0=fθ(x)loss(\theta)=C(y0,y_{true})小,y0=f_{\theta}(x)loss(θ)=C(y0,ytrue),y0=fθ(x)
    • 对抗的就是loss(x′)=−C(y0,ytrue)+C(y′,yfalse,y0=fθ(x‘)loss(x')=-C(y0,y_{true})+C(y',y_{false},y0=f_{\theta}(x‘)loss(x)=C(y0,ytrue)+C(y,yfalse,y0=fθ(x)–优化x’
    • 约束:d(x0,x′)<=ϵd(x0,x')<=\epsilond(x0,x)<=ϵ看着原图没啥变化
    • 得到一个x’
      在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481659.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

为什么量子力学总是让人感到疑惑?

来源&#xff1a;中科院物理所作者&#xff1a;Paul Austin Murphy翻译&#xff1a;Nothing审校&#xff1a;藏痴我们认为量子粒子很奇怪的主要问题是将量子粒子视为经典粒子而它们的行为却表现得非常非经典。&#xff08;或者&#xff0c;问题是将量子粒子视为“物体”&#x…

国科大高级人工智能7-命题逻辑

文章目录命题逻辑&#xff08;语法Syntax)由枚举推理&#xff08;inference by enumeration区别deduction(形式推演&#xff0c;演绎&#xff09;作业&#xff08;定理证明&#xff09;logics&#xff1a;逻辑&#xff0c;表达信息的形式语言 语法syntax 语义semantics 逻辑…

费爱国院士:中国城市大脑已走在世界前沿,但仍需努力

信息来源&#xff1a;网易科技2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元基本规定》等三项团体标准&#xff0c;学会理事长&#xff0c;工…

国科大高级人工智能8-归结原理和horn子句

只有一条规则的推理 resolution(消解&#xff0c;归结&#xff09; CNF&#xff08;conjunction normal form合取范式 &#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)&#xff08;A∨B)∧(B∨C)任何逻辑式都可转化为语义等价的CNF resolution消解&#xff08;推理规则&…

国科大高级人工智能9-模糊数学和遗传算法

文章目录1.模糊计算笛卡尔积、关系模糊集连续的隶属度函数运算2.evolution 遗传算法1.模糊计算 why模糊 取得精确数据不可能或很困难没有必要获取精确数据 模糊性概念&#xff1a;对象从属的界限是模糊的&#xff0c;随判断人的思维而定 不同人的界定标准不一样 隶属函数&…

周宏仁详解智能革命:“人类不可能瞬间无处不在,但软件可以!”

来源&#xff1a;域名国家工程研究中心 ZDNS“最优秀的人类战斗员也无法抵御以超音速飞行、由人工智能跨地域组织、每秒机动数千次的多台作战装备。人类不可能瞬间无处不在&#xff0c;但软件可以。”近日&#xff0c;信息化百人会顾问、原国家信息化专家咨询委员会常务副主任周…

图灵奖得主Jack Dongarra:高性能计算与AI大融合,如何颠覆科学计算

来源&#xff1a; 智源社区整理&#xff1a;王光华编辑&#xff1a;李梦佳导读&#xff1a;浩瀚的宇宙中两个星云不断彼此接近、融合、再爆炸&#xff0c;这样奇幻的天文景观正是采用高性能计算&#xff08;HPC&#xff09;进行建模仿真生成的。在过去的三十年间&#xff0c;高…

国科大高级人工智能10-强化学习(多臂赌博机、贝尔曼)

文章目录多臂赌博机Multi-armed bandit&#xff08;无状态&#xff09;马尔科夫决策过程MDP(markov decision process1.动态规划蒙特卡罗方法——不知道环境完整模型情况下2.1 on-policy蒙特卡罗2.2 off-policy蒙特卡罗时序差分方法强化学习&#xff1a;Reinforcement learning…

《Science》封面:华大基因领导构建了世界上第一张大脑再生的时空地图

来源&#xff1a;生物通由华大基因研究院领导的多所研究团队使用华大基因Stereo-seq技术&#xff0c;构建了世界上第一个蝾螈(Ambystoma mexicanum)大脑发育和再生的时空细胞图谱&#xff0c;揭示了脑损伤如何自我愈合。这项研究发表在最新一期的《Science》杂志的封面故事上。…

国科大高级人工智能12-博弈

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题&#xff0c;有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注…

科研进展 | 脑智卓越中心揭示神经元与胶质细胞互作参与胶质细胞命运决定的机制...

来源&#xff1a;中科院神经所神经元细胞与胶质细胞是神经系统最主要的两个细胞分类。在神经发育过程中&#xff0c;神经元类型先产生&#xff08;“神经发生”&#xff0c;neurogenesis&#xff09;&#xff0c;胶质细胞后产生&#xff08;“胶质发生”&#xff0c;gliogenesi…

国科大高级人工智能-总结

文章目录1.概论2. 搜索A\*最优性三个传教士与野人3.神经网络RBM DBN DBM hopfield比较结构及特性逐层贪婪训练与CDBPGAN4.逻辑一个永远无法归结结束的FOL合取范式规范化归结原理4.1resolution是完备的、可靠的Modus ponens4.1 蕴含与包含的证明蕴含与implication的关系5. 模糊数…

Science封面:全球首个脑再生时空图谱

来源&#xff1a;brainnews报道来源&#xff1a;作者团队原文链接&#xff1a;https://doi.org/10.1126/science.abp9444为了深入研究墨西哥钝口螈端脑再生的细胞和分子机制&#xff0c;并探讨其与发育的关系&#xff0c;研究人员收集了不同损伤再生阶段&#xff08;7个再生阶段…

国科大prml10-无监督学习

文章目录1.监督学习与无监督学习2. 聚类分析2.1簇的其他区别2.2类型2.2.1 基于中心的簇2.2.2 基于连续性的簇2.2.3 基于密度的簇2.2.4 基于概念的簇2.3 应用2.4 三要素3.距离函数3.1 距离函数的要求3.2标准化3.3其他相似、不相似函数4.评价指标4.1外部指标&#xff08;有参考模…

英伟达、AMD 高端芯片断供,国产芯片如何迅速崛起

来源&#xff1a;大数据文摘转载自AI科技大本营整理&#xff1a;苏宓出品&#xff1a;CSDN8 月 31 日&#xff0c;据外媒 Protocol、路透社等多家报道&#xff0c;美国开始对出口人工智能相关应用所需的先进芯片施加新的限制&#xff0c;其中 AMD、NVIDIA&#xff08;英伟达&am…

高文院士:AI将为芯片设计带来革命性改变

来源&#xff1a;中国电子报作者&#xff1a;姬晓婷9月1日&#xff0c;世界人工智能大会在上海举行。在芯片主题论坛上&#xff0c;中国工程院院士、鹏城实验室主任高文发表了题为“人工智能与EDA技术的前瞻性发展”的演讲。在高文看来&#xff0c;AI的应用将使芯片设计所需的时…

国科大prml11-降维

文章目录1.维度、特征与维度灾难维度特征维度灾难降维1 维度选择3.特征抽取3.1 预备知识3.2 线性模型3.2.1 多维缩放MDS3.2.2 线性降维的一般形式3.2.3 PCA主成分分析3.3 非线性模型3.3.1KPCA3.3.2流行学习&#xff08;欧氏距离不能反映相似性&#xff09;3.3.3 拉普拉斯特征映…

神经元模型:从离子通道到计算

导语本篇推文来自集智俱乐部的网站集智斑图的一篇路径《神经元模型&#xff1a;从离子通道到计算》&#xff0c;路径基于神经动力学模型读书会第一季臧蕴亮老师的分享整理而成。感兴趣的朋友可以结合本次分享的回放&#xff08;回放链接https://campus.swarma.org/course/4433&…

国科大prml12-半监督学习

文章目录1.假设2. 自学习算法3.多视角学习3.1 协同训练&#xff08;co-training)3.2 多视角学习4. 生成模型生成模型的例子4.2 GMM高斯混合模型4.2.1 EM算法用于GMM4.2.2减小风险的启发式4.3 聚类标签法&#xff08;cluster-and-label)5. S3VMsTSVM5.2 学习算法SVMlightSVM^{li…

我国城市大脑首批三项标准的解读和专家评议

来源&#xff1a;远望智库预见未来我国城市大脑首批三项标准的解读与专家评议2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元基本规定》等三项…