GMM

GMM

  • 一个类一个正态分布
  • N(μk,Σk)N(\mu_k,\Sigma_k)N(μk,Σk)
有监督无监督半监督
目标函数L=logp(Xl,Yl∥θ)=Σi=1llogp(yi∥θ)p(xi∥yi,θ)=Σi=1llogαyiN(xi∥θyi)L=logp(X_l,Y_l\|\theta)=\Sigma_{i=1}^llogp(y_i\|\theta)p(x_i\|y_i,\theta)\\=\Sigma_{i=1}^llog \alpha_{y_i}N(x_i\|\theta_{y_i})L=logp(Xl,Ylθ)=Σi=1llogp(yiθ)p(xiyi,θ)=Σi=1llogαyiN(xiθyi)p(x;θ)=ΠiNΣk=1KπkN(xi∥μk,Σk)p(x;\theta)=\Pi_i^N\Sigma_{k=1}^K\pi_kN(x_i\|\mu_k,\Sigma_k)p(x;θ)=ΠiNΣk=1KπkN(xiμk,Σk)P(xl,yl,xu∥θ)=Σi=1llogαyiN(xi∥θyi)+Σi=lmlogΣk=1NαkN(xi∥θk)P(x_l,y_l,x_u\|\theta)=\Sigma_{i=1}^llog \alpha_{y_i}N(x_i\|\theta_{y_i})+\Sigma_{i=l}^mlog\Sigma_{k=1}^N\alpha_kN(x_i\|\theta_k)P(xl,yl,xuθ)=Σi=1llogαyiN(xiθyi)+Σi=lmlogΣk=1NαkN(xiθk)
E求导解决求γik=p(yi=k∥xi)=αkN(xi∥θk)Σk=1NαkN(xi∥θk)求\gamma_{ik}=p(y_i=k\|x_i)=\frac{\alpha_kN(x_i\|\theta_k)}{\Sigma_{k=1}^N\alpha_kN(x_i\|\theta_k)}γik=p(yi=kxi)=Σk=1NαkN(xiθk)αkN(xiθk)求γik=p(yi=k∥xi)=αkN(xi∥θk)Σk=1NαkN(xi∥θk)求\gamma_{ik}=p(y_i=k\|x_i)=\frac{\alpha_kN(x_i\|\theta_k)}{\Sigma_{k=1}^N\alpha_kN(x_i\|\theta_k)}γik=p(yi=kxi)=Σk=1NαkN(xiθk)αkN(xiθk)
Mμk=1lk(Σi∈Dl,yi=kxi)Σi=1lk(Σi∈Dl,yi=k(xi−μk)(xi−μk)T)αk=lkm\mu_k=\frac{1}{l_k}(\Sigma_{i\in D_l ,y_i=k}x_i)\\\Sigma_i=\frac{1}{l_k}(\Sigma_{i\in D_l ,y_i=k}(x_i-\mu_k)(x_i-\mu_k)^T)\\\alpha_k=\frac{l_k}{m}μk=lk1(ΣiDl,yi=kxi)Σi=lk1(ΣiDl,yi=k(xiμk)(xiμk)T)αk=mlkμk=Σiγ(zik)xiγ(zik)πk=Σiγ(zik)NΣk=Σiγ(zik)(xi−μk)(xi−μk)Tγ(zik)\mu_k=\frac{\Sigma_i\gamma(z_{ik})x_i}{\gamma(z_{ik})}\\\pi_k=\frac{\Sigma_i\gamma(z_{ik})}{N}\\\Sigma_k=\frac{\Sigma_i\gamma(z_{ik})(x_i-\mu_k)(x_i-\mu_k)^T}{\gamma(z_{ik})}μk=γ(zik)Σiγ(zik)xiπk=NΣiγ(zik)Σk=γ(zik)Σiγ(zik)(xiμk)(xiμk)Tμk=1Σi=lmγik+lk(Σi∈Dl,yi=kxi+Σi=lmγikxi)Σi=1Σi=lmγik+lk(Σi∈Dl,yi=k(xi−μk)(xi−μk)T+Σi=lmγik(xi−μk)(xi−μk)T)αk=Σi=lmγik+lkm\mu_k=\frac{1}{\Sigma_{i=l}^m\gamma_{ik}+l_k}(\Sigma_{i\in D_l ,y_i=k}x_i+\Sigma_{i=l}^m\gamma_{ik}x_i)\\\Sigma_i=\frac{1}{\Sigma_{i=l}^m\gamma_{ik}+l_k}(\Sigma_{i\in D_l ,y_i=k}(x_i-\mu_k)(x_i-\mu_k)^T+\Sigma_{i=l}^m\gamma_{ik}(x_i-\mu_k)(x_i-\mu_k)^T)\\\alpha_k=\frac{\Sigma_{i=l}^m\gamma_{ik}+l_k}{m}μk=Σi=lmγik+lk1(ΣiDl,yi=kxi+Σi=lmγikxi)Σi=Σi=lmγik+lk1(ΣiDl,yi=k(xiμk)(xiμk)T+Σi=lmγik(xiμk)(xiμk)T)αk=mΣi=lmγik+lk
半监督=无监督+有监督

有监督

  • 目标函数: L=logp(Xl,Yl∣θ)=Σi=1llogp(yi∣θ)p(xi∣yi,θ),θi=αi,μi,ΣiL=logp(X_l,Y_l|\theta)=\Sigma_{i=1}^llogp(y_i|\theta)p(x_i|y_i,\theta),\theta_i={\alpha_i,\mu_i,\Sigma_i}L=logp(Xl,Ylθ)=Σi=1llogp(yiθ)p(xiyi,θ),θi=αi,μi,Σi
  • =Σi=1llogαyiN(xi∣θyi)=Σi=1l(logαyi−n2log(2π)−12log(∣Σyi∣)−(xi−μyi)TΣyi−1(xi−μyi)=\Sigma_{i=1}^llog \alpha_{y_i}N(x_i|\theta_{y_i}) \\=\Sigma_{i=1}^l(log\alpha_{y_i}-\frac{n}{2}log(2\pi)-\frac{1}{2}log(|\Sigma_{y_i}|)-(x_i-\mu_{y_i})^T\Sigma_{y_i}^{-1}(x_i-\mu_{y_i})=Σi=1llogαyiN(xiθyi)=Σi=1l(logαyi2nlog(2π)21log(Σyi)(xiμyi)TΣyi1(xiμyi)
  • 直接求导得到结果
  • μk=1lk(Σi∈Dl,yi=kxi)Σi=1lk(Σi∈Dl,yi=k(xi−μk)(xi−μk)T)αk=lkm\mu_k=\frac{1}{l_k}(\Sigma_{i\in D_l ,y_i=k}x_i)\\ \Sigma_i=\frac{1}{l_k}(\Sigma_{i\in D_l ,y_i=k}(x_i-\mu_k)(x_i-\mu_k)^T)\\ \alpha_k=\frac{l_k}{m}μk=lk1(ΣiDl,yi=kxi)Σi=lk1(ΣiDl,yi=k(xiμk)(xiμk)T)αk=mlk

无监督

5.2GMM高斯混合模型和EM

在这里插入图片描述

  • 概率解释: 假设有K个簇,每一个簇服从高斯分布,以概率π𝑘随机选择一个簇 k ,从其分布中采样出一个样本点,如此得到观测数据
  • N个样本点𝒙的似然函数(Likelihood)
    • p(x;θ)=ΠiNΣk=1KπkN(xi∣μk,Σk),其中Σkπk=1,0≤πk≤1p(x;\theta)=\Pi_i^N\Sigma_{k=1}^K\pi_kN(x_i|\mu_k,\Sigma_k),其中\Sigma_k\pi_k=1,0\leq \pi_k\leq 1p(x;θ)=ΠiNΣk=1KπkN(xiμk,Σk),Σkπk=1,0πk1
    • 引入隐变量,指示所属类,k维独热表示
      • p(zk=1)=πkp(z_k=1)=\pi_kp(zk=1)=πk
      • p(xi∣z)=ΠkKN(xi∣μk,Σk)zkp(x_i|z)=\Pi_k^KN(x_i|\mu_k,\Sigma_k)^{z_k}p(xiz)=ΠkKN(xiμk,Σk)zk
        • p(xi∣zk=1)=N(xi∣μk,Σk)p(x_i|z_k=1)=N(x_i|\mu_k,\Sigma_k)p(xizk=1)=N(xiμk,Σk)
      • p(xi)=Σzp(xi∣z)p(z)=Σk=1KπkN(xi∣μk,Σk)p(x_i)=\Sigma_zp(x_i|z)p(z)=\Sigma_{k=1}^K\pi_kN(x_i|\mu_k,\Sigma_k)p(xi)=Σzp(xiz)p(z)=Σk=1KπkN(xiμk,Σk)
  • 从属度(可以看做,xi属于第k个簇的解释
    • γ(zik)=p(zik=1∣xi)=p(zik=1)p(xi∣zk=1)Σk=1Kp(zik=1)p(xi∣zk=1)=πkN(xi∣μk,Σk)Σk=1KπkN(xi∣μk,Σk)\gamma(z_{ik})\\=p(z_{ik=1}|x_i)\\=\frac{p(z_{ik}=1)p(x_i|z_k=1)}{\Sigma_{k=1}^Kp(z_{ik}=1)p(x_i|z_k=1)}\\=\frac{\pi_kN(x_i|\mu_k,\Sigma_k)}{\Sigma_{k=1}^K\pi_kN(x_i|\mu_k,\Sigma_k)}γ(zik)=p(zik=1xi)=Σk=1Kp(zik=1)p(xizk=1)p(zik=1)p(xizk=1)=Σk=1KπkN(xiμk,Σk)πkN(xiμk,Σk)

参数学习:极大似然估计–EM

  • 极大似然估计
    • 难:log里面有求和,所有参数耦合
    • 似然函数取最大值时满足的条件:log(P(x∣θ)对μk求导log(P(x|\theta)对\mu_k求导log(P(xθ)μk
      • 0=−Σi=1NπkN(xi∣μk,Σk)Σk=1KπkN(xi∣μk,Σk)Σk(xi−μk)0=-\Sigma_{i=1}^N\frac{\pi_kN(x_i|\mu_k,\Sigma_k)}{\Sigma_{k=1}^K\pi_kN(x_i|\mu_k,\Sigma_k)}\Sigma_k(x_i-\mu_k)0=Σi=1NΣk=1KπkN(xiμk,Σk)πkN(xiμk,Σk)Σk(xiμk)
        • μk=Σiγ(zik)xiγ(zik)\mu_k=\frac{\Sigma_i\gamma(z_{ik})x_i}{\gamma(z_{ik})}μk=γ(zik)Σiγ(zik)xi
        • πk=Σiγ(zik)N\pi_k=\frac{\Sigma_i\gamma(z_{ik})}{N}πk=NΣiγ(zik)
        • Σk=Σiγ(zik)(xi−μk)(xi−μk)Tγ(zik)\Sigma_k=\frac{\Sigma_i\gamma(z_{ik})(x_i-\mu_k)(x_i-\mu_k)^T}{\gamma(z_{ik})}Σk=γ(zik)Σiγ(zik)(xiμk)(xiμk)T
      • 这不是封闭解–》EM
        • E:给定当前参数估计值,求后验概率γ(zik)=E(zik)\gamma(z_{ik})=E(z_{ik})γ(zik)=E(zik)
        • M:依据后验概率γ(zik)\gamma(z_{ik})γ(zik),求参数估计μk、πk、Σk\mu_k、\pi_k、\Sigma_kμkπkΣk
        • 迭代收敛到局部极小

EM

  • 通用EM
    • 目标函数:极大似然函数logP(X∣θ)=logΣzP(x,z∣θ)logP(X|\theta)=log\Sigma_zP(x,z|\theta)logP(Xθ)=logΣzP(x,zθ)
    • 用于:不完整数据的对数似然函数
      • 不知Z的数据,只知道Z的后验分布P(z∣x,θold)P(z|x,\theta^{old})P(zx,θold)
      • 考虑其期望Q(θ,θold)=Ep(z∣x,θold)(logP(x,z∣θ))Q(\theta,\theta^{old})=E_{p(z|x,\theta^{old})}(log P(x,z|\theta))Q(θ,θold)=Ep(zx,θold)(logP(x,zθ))
      • 最大化期望θnew=argmaxθQ(θ,θold)\theta^{new}=argmax_\theta Q(\theta,\theta^{old})θnew=argmaxθQ(θ,θold)
    • E:求P(z∣x,θold)P(z|x,\theta^{old})P(zx,θold)
    • M:θnew=argmaxθQ(θ,θold)\theta^{new}=argmax_\theta Q(\theta,\theta^{old})θnew=argmaxθQ(θ,θold)
      • why是启发式的,但却存在似然函数?
        • Q(θ,θold)=Ep(z∣x,θold)(logP(x,z∣θ))=p(x;θ)Q(\theta,\theta^{old})=E_{p(z|x,\theta^{old})}(log P(x,z|\theta))=p(x;\theta)Q(θ,θold)=Ep(zx,θold)(logP(x,zθ))=p(x;θ)
    • 完整数据和不完整数据的比较
    • 不完整数据:logp(x)=ΣilogΣzp(xi∣z)p(z)=ΣilogΣk=1KπkN(xi∣μk,Σk)logp(x)=\Sigma_ilog \Sigma_zp(x_i|z)p(z)=\Sigma_ilog \Sigma_{k=1}^K\pi_kN(x_i|\mu_k,\Sigma_k)logp(x)=ΣilogΣzp(xiz)p(z)=ΣilogΣk=1KπkN(xiμk,Σk)
      • 不完整数据中,参数之间是耦合的,不存在封闭解
    • 完整数据
      • logp(x,z∣θ)=logp(z∣θ)p(x∣z,θ)=ΣiΣkzik(logπk+logN(xi∣μk,Σk))logp(x,z|\theta)=logp(z|\theta)p(x|z,\theta)=\Sigma_i\Sigma_k z_{ik}(log\pi_k+logN(x_i|\mu_k,\Sigma_k))logp(x,zθ)=logp(zθ)p(xz,θ)=ΣiΣkzik(logπk+logN(xiμk,Σk))
      • Ez(logp(x,z∣θ))=ΣiΣkE(zik)(logπk+logN(xi∣μk,Σk))=ΣiΣkγ(zik)(logπk+logN(xi∣μk,Σk))E_z(logp(x,z|\theta))\\=\Sigma_i\Sigma_kE(z_{ik})(log\pi_k+logN(x_i|\mu_k,\Sigma_k))\\=\Sigma_i\Sigma_k\gamma(z_{ik})(log\pi_k+logN(x_i|\mu_k,\Sigma_k))Ez(logp(x,zθ))=ΣiΣkE(zik)(logπk+logN(xiμk,Σk))=ΣiΣkγ(zik)(logπk+logN(xiμk,Σk))

EM收敛性保证

  • 目标:最大化P(x∣θ)=Σzp(x,z∣θ)P(x|\theta)=\Sigma_zp(x,z|\theta)P(xθ)=Σzp(x,zθ)
    • 直接优化P(x∣θ)P(x|\theta)P(xθ)很困难,但优化完整数据的p(x,z∣θ)p(x,z|\theta)p(x,zθ)容易
  • 证明
    • 分解
    • 对任意分布q(z),下列分解成立
      • lnp(x∣θ)=L(q,θ)+KL(q∣∣p)其中,L(q,θ)=Σzq(z)ln(p(x,z∣θ)q(z))KL(q∣∣p)=−Σzq(z)ln(p(z∣x,θ)q(z))KL(q∣∣p)≥0,L(q,θ)是lnp(x∣θ)的下界lnp(x|\theta)=L(q,\theta)+KL(q||p)\\其中,\\L(q,\theta)=\Sigma_zq(z)ln(\frac{p(x,z|\theta)}{q(z)})\\KL(q||p)=-\Sigma_zq(z)ln(\frac{p(z|x,\theta)}{q(z)})\\KL(q||p)\geq0,L(q,\theta)是lnp(x|\theta)的下界lnp(xθ)=L(q,θ)+KL(qp)L(q,θ)=Σzq(z)ln(q(z)p(x,zθ))KL(qp)=Σzq(z)ln(q(z)p(zx,θ))KL(qp)0,L(q,θ)lnp(xθ)
    • E:最大化L(q,θ),q(z)=P(z∣x,θold)最大化L(q,\theta),\\q(z)=P(z|x,\theta^{old})L(q,θ),q(z)=P(zx,θold)
    • M:原来的下界L(q,θ)=ΣzP(z∣x,θold)ln(p(x,z∣θ)q(z))=Q(θ,θold)+const−−−正好是期望M:原来的下界L(q,\theta)=\Sigma_zP(z|x,\theta^{old})ln(\frac{p(x,z|\theta)}{q(z)})=Q(\theta,\theta^{old})+const---正好是期望M:L(q,θ)=ΣzP(zx,θold)ln(q(z)p(x,zθ))=Q(θ,θold)+const
    • 下界提升了
      在这里插入图片描述
      在这里插入图片描述
      在这里插入图片描述
      在这里插入图片描述

半监督

  • 目标函数: L=logp(Xl,Yl,Xu∣θ)=Σi=1llogp(yi∣θ)p(xi∣yi,θ)+Σi=l+1mlog(Σk=1Np(yi=k∣θ)p(xi∣yi=k,θ)),θi=αi,μi,ΣiL=logp(X_l,Y_l,X_u|\theta)=\Sigma_{i=1}^llogp(y_i|\theta)p(x_i|y_i,\theta)+\Sigma_{i=l+1}^mlog(\Sigma_{k=1}^Np(y_i=k|\theta)p(x_i|y_i=k,\theta)),\theta_i={\alpha_i,\mu_i,\Sigma_i}L=logp(Xl,Yl,Xuθ)=Σi=1llogp(yiθ)p(xiyi,θ)+Σi=l+1mlog(Σk=1Np(yi=kθ)p(xiyi=k,θ)),θi=αi,μi,Σi
  • =Σi=1llogαyiN(xi∣θyi)+Σi=lmlogΣk=1NαkN(xi∣θk)=Σi=1l(logαyi−n2log(2π)−12log(∣Σyi∣)−(xi−μyi)TΣyi−1(xi−μyi)+Σi=lmlog(Σk=1N(αk1(2π)n/2∣Σk∣1/2exp{−12(xi−μk)TΣk−1(xi−μk)}))=\Sigma_{i=1}^llog \alpha_{y_i}N(x_i|\theta_{y_i})+\Sigma_{i=l}^mlog\Sigma_{k=1}^N\alpha_kN(x_i|\theta_k) \\=\Sigma_{i=1}^l(log\alpha_{y_i}-\frac{n}{2}log(2\pi)-\frac{1}{2}log(|\Sigma_{y_i}|)-(x_i-\mu_{y_i})^T\Sigma_{y_i}^{-1}(x_i-\mu_{y_i})+\Sigma_{i=l}^mlog(\Sigma_{k=1}^N(\alpha_k{{1} \over {(2\pi)^{n/2}|\Sigma_k|^{1/2}}} exp\{ -{{1} \over {2}}(x_i-\mu_k)^T{\Sigma_k}^{-1}(x_i-\mu_k)\}))=Σi=1llogαyiN(xiθyi)+Σi=lmlogΣk=1NαkN(xiθk)=Σi=1l(logαyi2nlog(2π)21log(Σyi)(xiμyi)TΣyi1(xiμyi)+Σi=lmlog(Σk=1N(αk(2π)n/2Σk1/21exp{21(xiμk)TΣk1(xiμk)}))
  • E:求γik=p(yi=k∣xi)=αkN(xi∣θk)Σk=1NαkN(xi∣θk)求\gamma_{ik}=p(y_i=k|x_i)=\frac{\alpha_kN(x_i|\theta_k)}{\Sigma_{k=1}^N\alpha_kN(x_i|\theta_k)}γik=p(yi=kxi)=Σk=1NαkN(xiθk)αkN(xiθk)
  • M:μk=1Σi=lmγik+lk(Σi∈Dl,yi=kxi+Σi=lmγikxi)Σi=1Σi=lmγik+lk(Σi∈Dl,yi=k(xi−μk)(xi−μk)T+Σi=lmγik(xi−μk)(xi−μk)T)αk=Σi=lmγik+lkm\mu_k=\frac{1}{\Sigma_{i=l}^m\gamma_{ik}+l_k}(\Sigma_{i\in D_l ,y_i=k}x_i+\Sigma_{i=l}^m\gamma_{ik}x_i)\\ \Sigma_i=\frac{1}{\Sigma_{i=l}^m\gamma_{ik}+l_k}(\Sigma_{i\in D_l ,y_i=k}(x_i-\mu_k)(x_i-\mu_k)^T+\Sigma_{i=l}^m\gamma_{ik}(x_i-\mu_k)(x_i-\mu_k)^T)\\ \alpha_k=\frac{\Sigma_{i=l}^m\gamma_{ik}+l_k}{m}μk=Σi=lmγik+lk1(ΣiDl,yi=kxi+Σi=lmγikxi)Σi=Σi=lmγik+lk1(ΣiDl,yi=k(xiμk)(xiμk)T+Σi=lmγik(xiμk)(xiμk)T)αk=mΣi=lmγik+lk

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481623.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

城市大脑已经几岁?城市大脑发展成熟度的年龄评估模型(修改版)

说明:该论文由科学院研究团队刘颖、刘锋于2022年7月发表在《科技导报》第14期,是对城市大脑发展成熟度的探索研究,为构建城市大脑发展成熟度评估规范提供参考。根据研究团队建立的评估模型,进行初步评估,提出目前城市大…

2022年 AI 技术成熟度曲线

来源:Gartner公司编辑:蒲蒲近日,Gartner发布了最新的《2022年人工智能技术成熟度曲线》报告,报告称尽早采用复合型人工智能(AI)、决策智能等AI技术将给企业机构带来明显的竞争优势,缓解AI模型脆…

国科大prml--SVM

拉格朗日的原始问题是minw,bmaxλLmin_{w,b} max_{\lambda} Lminw,b​maxλ​L对偶问题是maxλminw,bLmax_{\lambda} min_{w,b}Lmaxλ​minw,b​L 原问题拉格朗日对偶问题分界面最终参数hard marginminw12∥w∥2min_w \frac{1}{2}\|w\|^2minw​21​∥w∥2约束yi(wTxi)>1,对…

科学家们正在使用人工智能来构想革命性的新蛋白质

来源:ScienceAI编译:白菜叶6 月,韩国监管机构授权使用人类设计的新型蛋白质制成首个药物,即 COVID 疫苗。该疫苗基于研究人员近十年前通过劳动密集型试错过程创造的球形蛋白质「纳米颗粒」。现在,由于人工智能&#xf…

多模态认知计算

来源:图灵人工智能 日常生活中, 人类至少利用视觉, 听觉等多种感官理解周围环境, 通过整合多种感知模态, 形成对事件的整体认识. 为使机器更好地模仿人类的认知能力, 多模态认知计算模拟人类的“联 觉”(Synaesthesia), 探索图像, 视频, 文本, 语音等多模态输入的高…

知识表示与知识图谱--介绍

知识表示与知识图谱 知识支撑 人类理解需要机器也需要知识工程 手段:信息技术特点:高效率、大容量目标:获取并利用知识与信息的技术例子 第一个专家系统:费根鲍姆知识工程语言TUILI--1982--陆汝衿专家系统开发环‘天马’--1987--…

「图学习推荐系统」最新2022综述

来源:专知协同过滤是一种被广泛应用于推荐系统中的方法,其利用不同用户之间(或不同物品之间)的相似性关系来过滤和抽 取用户和物品的交互信息,从而进行用户推荐.近年来,图神经网络因其出色的表示学习性能和良好的可扩展性逐渐成为推荐 领域中的一种新兴的范式.文中从…

2知识图谱的生命周期

知识图谱的生命周期 知识图谱 知识建模--建立本体ontolog 建什么 概念、实体的类型概念/实体的关联关系要求:可靠性方法 自顶向下--专家手工形成数据模式自底向上--实体--类 利用现有的标准转换从现有的高质量数据源中进行映射:用知识图谱--抽象建模--来…

nlp1-介绍

能做什么? 自然语言处理: 如何让计算机能够自动或半自动地理解自然语言文本,懂得人的意图和心声?如何让计算机实现海量语言文本的自动处理、挖掘和有效利用,满足不同用户的各种需求,实现个性化信息服务&…

经纬张颖:给科研技术背景创始人的十条建议

来源:动脉橙果局编辑: Light出品: 科技智谷"给科研技术背景创始人的十条建议近一年,随着经纬在科技类公司的投资比例更大、金额更多,我和这类创始人们也进行了更高频次的交流,更多地了解了他们的困惑和…

nlp2-数学基础(信息论,概率论、词义消歧)

文章目录概率论信息论计算熵计算信息熵、条件熵、联合熵波利尼亚语熵率噪声信道模型建立一个翻译词义消歧(WSD贝叶斯最大熵的消歧方法概率论 在自然语言处理中,以句子为处理单位时一般假设句子独立于它前面的其它语句,句子的概率分布近似地符…

格鲁夫12年前惊人的预言,解释了今天美国对中国芯片所做的一切

来源: 未尽研究从芯片到光伏和动力电池,英特尔前董事长和CEO格鲁夫惊人地预言了美国制造业与科技当下所遇到的麻烦。他是一位以严厉著称的CEO,在美国金融危机刚结束之际,在商业杂志的封面发表了一篇犀利的评论。尤其是在美国硅谷如…

真正的人工智能,需要理解本体论

来源:混沌巡洋舰人工智能的终极语境是什么?真正的人工智能,需要理解本体论现在的人工智能技术突破或许具有划时代意义,但即使是计算能力最强大、最先进的机器,也达不到人类智能的层级。人工智能具备测算能力&#xff0…

知识图谱-架构图

binlog-MySQL的日志 用于实时处理与离线增量导入架构 Kafka消息队列 老虎队队长(AV75056045)

知识图谱2-知识表示

知识表示的重要性 知识是智能的基础 机器可以获得知识机器可以运用知识符合计算机要求的知识模式 计算机能存储处理的知识表示模式数据结构ER模型Sql与RDF模型SPARQL对比 关系模型 关系显式定义(RDF) 关系隐式定义(ER)(理解后写出来的表 数据变更时 RDF--数据变更…

韩国芯片教父:金钟基如何带领韩国成为半导体超级大国

来源 :大数据文摘编译:Mickey来源:https://spectrum.ieee.org/kim-choong-ki在韩国芯片行业有这样一群人的传说,他们被称为“金氏黑手党”。金钟基本人不会这么称呼这群人,但对韩国的半导体工程师们来说,“金氏黑手党”…

论文学习1-DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

文章目录摘要Introduction最近工作基于PRA的其他方法其他使用强化学习的方法我们的方法方法介绍(强化学习摘要 研究了大规模知识图的学习推理问题。更具体地说,我们描述了一个用于学习多跳关系路径的新型强化学习框架:我们使用一个基于知识图嵌入的具有…

万字因果推断入门:为什么要做因果推断?

来源:PaperWeekly1、为什么需要因果推断1.1 辛普森悖论首先,考虑一个与现实情况很相关的例子:针对某种新冠病毒 COVID-27,假设有两种疗法:方案 A 和方案 B,B 比 A 更稀缺(耗费的医疗资源更多&am…

论文学习2-Incorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforce

文章目录摘要介绍相关工作方法Mean Selection Rate (MSR) and Mean Replacement Rate (MRRIncorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforcement Learning摘要 知识图(KG)推理的目的是寻找关系的推理路径,以解决K…

报告下载:《2022城市大脑首部建设标准资料汇总》

2022年9月1日,中国指挥与控制学会正式发布城市大脑首批三项标准,这部《2022城市大脑首部建设标准资料汇总》除了包含发布的三项标准全文内容,还汇总了城市大脑标准研究团队2022年以来的相关研究资料,完整内容包括:1. 解…