国科大prml--SVM

  • 拉格朗日的原始问题是minw,bmaxλLmin_{w,b} max_{\lambda} Lminw,bmaxλL
  • 对偶问题是maxλminw,bLmax_{\lambda} min_{w,b}Lmaxλminw,bL
原问题拉格朗日对偶问题分界面最终参数
hard marginminw12∥w∥2min_w \frac{1}{2}\|w\|^2minw21w2约束yi(wTxi)>=1,对任意iy^i(w^Tx^i)>=1,对任意iyi(wTxi)>=1,iL(λi,w,b)=Σi=1Nλi(1−yi(wTxi+b))++12∥w∥2L(\lambda_i,w,b)=\Sigma_{i=1}^N\lambda_i(1-y^i(w^Tx^i+b))_++\frac{1}{2} \|w\|^2L(λi,w,b)=Σi=1Nλi(1yi(wTxi+b))++21w2maxλθD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txjmax_\lambda \theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jmaxλθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0b∗+Σi=1nλi∗yi(xi)Txj=0b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j=0b+Σi=1nλiyi(xi)Txj=0w∗=Σi=1nλi∗yixi;b∗=yj−Σi=1nλi∗yi(xi)Txjw*=\Sigma_{i=1}^n \lambda_i*y^ix^i;b*=y^j-\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^jw=Σi=1nλiyixi;b=yjΣi=1nλiyi(xi)Txj
softminw12∥w∥2+CΣi=1nξimin_w \frac{1}{2}\|w\|^2+C\Sigma_{i=1}^n\xi_iminw21w2+CΣi=1nξi约束yi(wTxi)>=1−ξi,ξi≥0,对任意iy^i(w^Tx^i)>=1-\xi_i,\xi_i \geq 0,对任意iyi(wTxi)>=1ξi,ξi0,iL(λi,ηi,ξ,w,b)=Σi=1Nλi(1−yi(wTxi+b)−ξi)−Σi=1nηiξi+12∥w∥2L(\lambda_i,\eta_i,\xi,w,b)=\Sigma_{i=1}^N\lambda_i(1-y^i(w^Tx^i+b)-\xi_i)-\Sigma_{i=1}^n\eta_i \xi_i+\frac{1}{2} \|w\|^2L(λi,ηi,ξ,w,b)=Σi=1Nλi(1yi(wTxi+b)ξi)Σi=1nηiξi+21w2maxλθD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txjmax_\lambda \theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jmaxλθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj 约束:0≤λi≤C=λi+ηi(ηi>=0);Σi=1nλiyi=00 \leq \lambda_i\leq C=\lambda_i+\eta_i(\eta_i>=0);\Sigma_{i=1}^n\lambda_iy^i=00λiC=λi+ηi(ηi>=0);Σi=1nλiyi=0b∗+Σi=1nλi∗yi(xi)Txj=0b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j=0b+Σi=1nλiyi(xi)Txj=0w∗=Σi=1nλi∗yixi;b∗=yj−Σi=1nλi∗yi(xi)Txjw*=\Sigma_{i=1}^n \lambda_i*y^ix^i;b*=y^j-\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^jw=Σi=1nλiyixi;b=yjΣi=1nλiyi(xi)Txj
kernel--θD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλjK(xi,xj)\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_jK(x^i,x^j)θD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλjK(xi,xj)约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0w∗=Σi=1nλi∗yixib∗=yj−Σi=1nλi∗yiK(xi,xj)w*=\Sigma_{i=1}^n \lambda_i*y^ix^i\\b*=y^j-\Sigma_{i=1}^n\lambda_i* y^i K(x^i,x^j)w=Σi=1nλiyixib=yjΣi=1nλiyiK(xi,xj)

hard margin

  • 原问题
    • minw12∣∣w∣∣2min_w \frac{1}{2}||w||^2minw21w2
    • 约束yi(wTxi)>=1,对任意iy^i(w^Tx^i)>=1,对任意iyi(wTxi)>=1,i
    • 拉格朗日:
      • L(λi,w,b)=Σi=1Nλi(1−yi(wTxi+b))++12∣∣w∣∣2L(\lambda_i,w,b)=\Sigma_{i=1}^N\lambda_i(1-y^i(w^Tx^i+b))_++\frac{1}{2} ||w||^2L(λi,w,b)=Σi=1Nλi(1yi(wTxi+b))++21w2(拉格朗日问题)
    • 损失函数
      • Σi=1Ni(1−yi(wTxi+b))++λ∣∣w∣∣2\Sigma_{i=1}^Ni(1-y^i(w^Tx^i+b))_++\lambda||w||^2Σi=1Ni(1yi(wTxi+b))++λw2
    • 目标函数(hinge loss function)
      • (1−yi(wTxi+b))+(1-y^i(w^Tx^i+b))_+(1yi(wTxi+b))+
  • 得到对偶形式:
    • θD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txj\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj
    • 约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0
    • 时间复杂度O(N3)O(N^3)O(N3)
    • 空间复杂度O(N2)O(N^2)O(N2)
  • 最终结果
    • w∗=Σi=1nλi∗yixiw*=\Sigma_{i=1}^n \lambda_i*y^ix^iw=Σi=1nλiyixi
    • b∗=yj−Σi=1nλi∗yi(xi)Txjb*=y^j-\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^jb=yjΣi=1nλiyi(xi)Txj
    • 所以分离超平面为:b∗+Σi=1nλi∗yi(xi)Txj=0b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j=0b+Σi=1nλiyi(xi)Txj=0
    • 决策函数:fw,b=sign(b∗+Σi=1nλi∗yi(xi)Txj)f_{w,b}=sign(b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j)fw,b=sign(b+Σi=1nλiyi(xi)Txj)
  • 转化为对偶问题会简单化(原问题复杂度高)
    • 拉格朗日的原始问题是minw,bmaxλLmin_{w,b} max_{\lambda} Lminw,bmaxλL
    • 对偶问题是maxλminw,bLmax_{\lambda} min_{w,b}Lmaxλminw,bL
      • 对偶问题:
      • 消去w/bθD(w)=minw,bL\theta_D(w)=min_{w,b}LθD(w)=minw,bL
        • 求梯度
          • ∂L∂w=w−Σi=1nλiyixi=0\frac{\partial L}{\partial w}=w-\Sigma_{i=1}^n \lambda_iy^ix^i=0wL=wΣi=1nλiyixi=0
            • w=Σi=1nλiyixiw=\Sigma_{i=1}^n \lambda_iy^ix^iw=Σi=1nλiyixi
          • ∂L∂b=−Σi=1nλiyi=0\frac{\partial L}{\partial b}=-\Sigma_{i=1}^n \lambda_iy^i=0bL=Σi=1nλiyi=0
            • Σi=1nλiyi=0\Sigma_{i=1}^n \lambda_iy^i=0Σi=1nλiyi=0
        • 结果带入L–得到对偶问题
          • θD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txj\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj
          • 约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0
      • 再求最大d∗<−−maxλθD(w)d^*<--max_{\lambda}\theta_D(w)d<maxλθD(w)
        • 由新的对偶问题求极值点,得到最优解$\lambda* $
          • 由此可以找到w∗,b∗w*,b*w,b
          • w∗=Σi=1nλi∗yixiw*=\Sigma_{i=1}^n \lambda_i*y^ix^iw=Σi=1nλiyixi
          • b∗=yj−Σi=1nλi∗yi(xi)Txjb*=y^j-\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^jb=yjΣi=1nλiyi(xi)Txj
          • 所以分离超平面为:b∗+Σi=1nλi∗yi(xi)Tx=0b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx=0b+Σi=1nλiyi(xi)Tx=0
          • 决策函数:fw,b(x)=sign(b∗+Σi=1nλi∗yi(xi)Tx)f_{w,b}(x)=sign(b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx)fw,b(x)=sign(b+Σi=1nλiyi(xi)Tx)
          • 可以看出
            1. 只受到支持向量的影响(其他的λ=0\lambda=0λ=0
            2. 正样本y=1,负样本y=-1,正样本对w起正向作用,负样本起负向作用

soft margin

  • 问题描述
    • minw12∣∣w∣∣2+CΣi=1nξimin_w \frac{1}{2}||w||^2+C\Sigma_{i=1}^n\xi_iminw21w2+CΣi=1nξi
    • 约束yi(wTxi)>=1−ξi,ξi≥0,对任意iy^i(w^Tx^i)>=1-\xi_i,\xi_i \geq 0,对任意iyi(wTxi)>=1ξi,ξi0,i
    • 凸函数的QP问题
    • 对应拉格朗日函数:
      • L(λi,ηi,ξ,w,b)=Σi=1Nλi(1−yi(wTxi+b)−ξi)−Σi=1nηiξi+12∣∣w∣∣2L(\lambda_i,\eta_i,\xi,w,b)=\Sigma_{i=1}^N\lambda_i(1-y^i(w^Tx^i+b)-\xi_i)-\Sigma_{i=1}^n\eta_i \xi_i+\frac{1}{2} ||w||^2L(λi,ηi,ξ,w,b)=Σi=1Nλi(1yi(wTxi+b)ξi)Σi=1nηiξi+21w2
  • 得到对偶形式:
    • maxθD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txjmax\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jmaxθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj
    • 约束:0≤λi≤C=λi+ηi(ηi>=0);Σi=1nλiyi=00 \leq \lambda_i\leq C=\lambda_i+\eta_i(\eta_i>=0);\Sigma_{i=1}^n\lambda_iy^i=00λiC=λi+ηi(ηi>=0);Σi=1nλiyi=0
    • 原来λi\lambda_iλi可以无限大,因为线性可分
    • C–容忍度是有限的,对应了λi\lambda_iλi–C越大越苛刻,margin越小,容忍度越小
      • C的三种理解方式

        • 容忍度
          • 在中间范围内也算是分错了的点
          • C-会有多少个分错的点,C大容忍度小
        • ξ\xiξ的惩罚,C越大,惩罚越大,越苛刻
        • C=12λ,与λ是相反的,λ大,希望模型不要太复杂,也就是C小的情况C=\frac{1}{2\lambda},与\lambda是相反的,\lambda大,希望模型不要太复杂,也就是C小的情况C=2λ1,λλC
      • 回忆KKT

        • λi∗fi(w∗)=0andηi∗ξi=0\lambda_i*f_i(w*)=0 and \eta_i*\xi_i=0λifi(w)=0andηiξi=0
        • λi∗=0==>yi(b∗+w∗Txi)>1,在正确的地方\lambda_i*=0==>y^i(b*+w*^Tx^i)>1,在正确的地方λi=0==>yi(b+wTxi)>1,
          • λi∗=0==>ηi∗=C>0==>ξ=0==>yi(b∗+w∗Txi)>1−ξ=1,在正确的地方\lambda_i*=0==>\eta_i*=C>0==>\xi=0==>y^i(b*+w*^Tx^i)>1-\xi=1,在正确的地方λi=0==>ηi=C>0==>ξ=0==>yi(b+wTxi)>1ξ=1,
        • 0<λi∗<C==>yi(b∗+w∗Txi)=1,在边界上−−−支持向量0<\lambda_i*<C==>y^i(b*+w*^Tx^i)=1,在边界上---支持向量0<λi<C==>yi(b+wTxi)=1,
          • λi∗>0==>ηi∗=C−λi∗>0==>ξ=0==>yi(b∗+w∗Txi)=1−ξ=1,在正确的地方\lambda_i*>0==>\eta_i*=C-\lambda_i*>0==>\xi=0==>y^i(b*+w*^Tx^i)=1-\xi=1,在正确的地方λi>0==>ηi=Cλi>0==>ξ=0==>yi(b+wTxi)=1ξ=1,
        • λi∗=C>0,ηi=0==>ξ>0==>yi(b∗+w∗Txi)=1−ξ<=1在错误的地方\lambda_i*=C>0,\eta_i=0==>\xi>0==>y^i(b*+w*^Tx^i)=1-\xi<=1在错误的地方λi=C>0,ηi=0==>ξ>0==>yi(b+wTxi)=1ξ<=1
  • 最终结果
    • w∗=Σi=1nλi∗yixiw*=\Sigma_{i=1}^n \lambda_i*y^ix^iw=Σi=1nλiyixi
    • b∗=yj−Σi=1nλi∗yi(xi)Txjb*=y^j-\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^jb=yjΣi=1nλiyi(xi)Txj
    • 所以分离超平面为:b∗+Σi=1nλi∗yi(xi)Txj=0b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j=0b+Σi=1nλiyi(xi)Txj=0
    • 决策函数:fw,b=sign(b∗+Σi=1nλi∗yi(xi)Txj)f_{w,b}=sign(b*+\Sigma_{i=1}^n\lambda_i* y^i (x^i)^Tx^j)fw,b=sign(b+Σi=1nλiyi(xi)Txj)

kernel SVM

  • 得到对偶形式:

    • θD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλjK(xi,xj)\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_jK(x^i,x^j)θD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλjK(xi,xj)
    • 约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0
      • w∗=Σi=1nλi∗yixiw*=\Sigma_{i=1}^n \lambda_i*y^ix^iw=Σi=1nλiyixi
      • b∗=yj−Σi=1nλi∗yiK(xi,xj)b*=y^j-\Sigma_{i=1}^n\lambda_i* y^i K(x^i,x^j)b=yjΣi=1nλiyiK(xi,xj)
      • 所以分离超平面为:b∗+Σi=1nλi∗yiK(xi,x)=0b*+\Sigma_{i=1}^n\lambda_i* y^i K(x^i,x)=0b+Σi=1nλiyiK(xi,x)=0
      • 决策函数:fw,b(x)=w∗Tϕ(x)+b∗=sign(b∗+Σi=1nλi∗yiK(xi,x))f_{w,b}(x)=w*^T\phi(x)+b*=sign(b*+\Sigma_{i=1}^n\lambda_i* y^i K(x^i,x))fw,b(x)=wTϕ(x)+b=sign(b+Σi=1nλiyiK(xi,x)
  • 常见几种核
    1. hillbert space:可以再生任意函数(最重要的)
    * ϕ(x)=K(⋅,x)K(x,z)=K(⋅,x)⋅K(⋅,z)=ϕ(x)Tϕ(z)再生性:f(⋅)=Σi=1mαiK(⋅,xi)f(⋅)K(⋅,x)=Σi=1mαiK(x,xi)=f(x),都是这个空间的两个函数\phi(x)=K(·,x)\\K(x,z)=K(·,x)·K(·,z)=\phi(x)^T\phi(z)\\再生性:f(·)=\Sigma_{i=1}^m\alpha_iK(·,x^i)\\f(·)K(·,x)=\Sigma_{i=1}^m\alpha_iK(x,x^i)=f(x),都是这个空间的两个函数ϕ(x)=K(,x)K(x,z)=K(,x)K(,z)=ϕ(x)Tϕ(z)f()=Σi=1mαiK(,xi)f()K(,x)=Σi=1mαiK(x,xi)=f(x)
    2. 多项式核K(x,z)=(xTz+1)pK(x,z)=(x^Tz+1)^pK(x,z)=(xTz+1)p
    3. 高斯核:K(x,z)=exp{−∥x−z∥22σ2}K(x,z)=exp\{-\frac{\|x-z\|^2}{2\sigma^2}\}K(x,z)=exp{2σ2xz2}–radial basis function(RBF)
    * K(x,z)=exp{−dist(x,z)2σ2}K(x,z)=exp\{-\frac{dist(x,z)}{2\sigma^2}\}K(x,z)=exp{2σ2dist(x,z)}
    * f(x)=sign(Σi=1nαi∗yiexp{−∥x−z∥22σ2}+b∗)f(x)=sign(\Sigma_{i=1}^n\alpha_i^*y^iexp\{-\frac{\|x-z\|^2}{2\sigma^2}\}+b^*)f(x)=sign(Σi=1nαiyiexp{2σ2xz2}+b)
    4. Sigmoid kernel:K(x,x′)=tanh(2xTx′+1)K(x,x')=tanh(2x^Tx'+1)K(x,x)=tanh(2xTx+1)

4.SMO–可以快速求解svm

  • 用对偶形式
  • 得到对偶形式:
    • θD(λ)=Σi=1nλi−12Σi,j=1nyiyjλiλj(xi)Txj\theta_D(\lambda)=\Sigma_{i=1}^n\lambda_i-\frac{1}{2}\Sigma_{i,j=1}^ny^iy^j\lambda_i\lambda_j(x^i)^Tx^jθD(λ)=Σi=1nλi21Σi,j=1nyiyjλiλj(xi)Txj
    • 约束:λi>=0;Σi=1nλiyi=0\lambda_i>=0;\Sigma_{i=1}^n\lambda_iy^i=0λi>=0;Σi=1nλiyi=0
  • Coordinate Ascent:每一次仅对一个λi\lambda_iλi求最大,从i=1,2,…,n
    • 可以直接用在svm上吗?
      • 不可以,λ\lambdaλ之间是线性相关的。
    • 改进:每次对一对,其他n-2个固定,求最大。
  • SMO
    • 每次对一对,其他n-2个固定:λ1y1+λ2y2=−Σi=3Nαiyi=C\lambda_1y^1+\lambda_2y^2=-\Sigma_{i=3}^N\alpha_iy^i=Cλ1y1+λ2y2=Σi=3Nαiyi=C
      • λ1=(C−λ2y2)y1\lambda_1=(C-\lambda_2y^2)y^1λ1=(Cλ2y2)y1
      • L((C−λ2y2)y1,λ2,...,λN),先忽略约束求导,得到λ2new,unclipped,再加上约束L((C-\lambda_2y^2)y^1,\lambda_2,...,\lambda_N),先忽略约束求导,得到\lambda_2^{new,unclipped},再加上约束L((Cλ2y2)y1,λ2,...,λNλ2new,unclipped
      • 用λ2更新λ1:λ1new=λ1old(λ2old−λ2new)y2y1用\lambda_2更新\lambda_1:\lambda_1^{new}=\lambda_1^{old}(\lambda_2^{old}-\lambda_2^{new})y^2y^1λ2λ1:λ1new=λ1old(λ2oldλ2new)y2y1
    • 从那一对开始呢?
      • 最优的λ\lambdaλ肯定是满足KKT条件的
        • λi=0<==>yig(xi)>=1\lambda_i=0<==>y^ig(x^i)>=1λi=0<==>yig(xi)>=1
        • 0<λi<C<==>yig(xi)=10<\lambda_i<C<==>y^ig(x^i)=10<λi<C<==>yig(xi)=1
        • λi=C<==>yig(xi)<=1\lambda_i=C<==>y^ig(x^i)<=1λi=C<==>yig(xi)<=1
          • g(xi)=Σj=1NαjyjK(xi,xj)+bg(x_i)=\Sigma_{j=1}^N\alpha_jy^jK(x^i,x^j)+bg(xi)=Σj=1NαjyjK(xi,xj)+b
      • 每次选择违背KKT条件最大的
        • 0<λi<C0<\lambda_i<C0<λi<C的开始,违背最多的选择一个
        • 第二个有固定准则来选:E1-E2
          • Ei=g(xi)−yiE_i=g(x^i)-y^iEi=g(xi)yi
            在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481620.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

科学家们正在使用人工智能来构想革命性的新蛋白质

来源&#xff1a;ScienceAI编译&#xff1a;白菜叶6 月&#xff0c;韩国监管机构授权使用人类设计的新型蛋白质制成首个药物&#xff0c;即 COVID 疫苗。该疫苗基于研究人员近十年前通过劳动密集型试错过程创造的球形蛋白质「纳米颗粒」。现在&#xff0c;由于人工智能&#xf…

多模态认知计算

来源&#xff1a;图灵人工智能 日常生活中, 人类至少利用视觉, 听觉等多种感官理解周围环境, 通过整合多种感知模态, 形成对事件的整体认识. 为使机器更好地模仿人类的认知能力, 多模态认知计算模拟人类的“联 觉”(Synaesthesia), 探索图像, 视频, 文本, 语音等多模态输入的高…

知识表示与知识图谱--介绍

知识表示与知识图谱 知识支撑 人类理解需要机器也需要知识工程 手段&#xff1a;信息技术特点&#xff1a;高效率、大容量目标&#xff1a;获取并利用知识与信息的技术例子 第一个专家系统&#xff1a;费根鲍姆知识工程语言TUILI--1982--陆汝衿专家系统开发环‘天马’--1987--…

「图学习推荐系统」最新2022综述

来源&#xff1a;专知协同过滤是一种被广泛应用于推荐系统中的方法,其利用不同用户之间(或不同物品之间)的相似性关系来过滤和抽 取用户和物品的交互信息,从而进行用户推荐.近年来,图神经网络因其出色的表示学习性能和良好的可扩展性逐渐成为推荐 领域中的一种新兴的范式.文中从…

2知识图谱的生命周期

知识图谱的生命周期 知识图谱 知识建模--建立本体ontolog 建什么 概念、实体的类型概念/实体的关联关系要求&#xff1a;可靠性方法 自顶向下--专家手工形成数据模式自底向上--实体--类 利用现有的标准转换从现有的高质量数据源中进行映射&#xff1a;用知识图谱--抽象建模--来…

nlp1-介绍

能做什么&#xff1f; 自然语言处理&#xff1a; 如何让计算机能够自动或半自动地理解自然语言文本&#xff0c;懂得人的意图和心声&#xff1f;如何让计算机实现海量语言文本的自动处理、挖掘和有效利用&#xff0c;满足不同用户的各种需求&#xff0c;实现个性化信息服务&…

经纬张颖:给科研技术背景创始人的十条建议

来源&#xff1a;动脉橙果局编辑&#xff1a; Light出品&#xff1a; 科技智谷"给科研技术背景创始人的十条建议近一年&#xff0c;随着经纬在科技类公司的投资比例更大、金额更多&#xff0c;我和这类创始人们也进行了更高频次的交流&#xff0c;更多地了解了他们的困惑和…

nlp2-数学基础(信息论,概率论、词义消歧)

文章目录概率论信息论计算熵计算信息熵、条件熵、联合熵波利尼亚语熵率噪声信道模型建立一个翻译词义消歧&#xff08;WSD贝叶斯最大熵的消歧方法概率论 在自然语言处理中&#xff0c;以句子为处理单位时一般假设句子独立于它前面的其它语句&#xff0c;句子的概率分布近似地符…

格鲁夫12年前惊人的预言,解释了今天美国对中国芯片所做的一切

来源&#xff1a; 未尽研究从芯片到光伏和动力电池&#xff0c;英特尔前董事长和CEO格鲁夫惊人地预言了美国制造业与科技当下所遇到的麻烦。他是一位以严厉著称的CEO&#xff0c;在美国金融危机刚结束之际&#xff0c;在商业杂志的封面发表了一篇犀利的评论。尤其是在美国硅谷如…

真正的人工智能,需要理解本体论

来源&#xff1a;混沌巡洋舰人工智能的终极语境是什么&#xff1f;真正的人工智能&#xff0c;需要理解本体论现在的人工智能技术突破或许具有划时代意义&#xff0c;但即使是计算能力最强大、最先进的机器&#xff0c;也达不到人类智能的层级。人工智能具备测算能力&#xff0…

知识图谱-架构图

binlog-MySQL的日志 用于实时处理与离线增量导入架构 Kafka消息队列 老虎队队长&#xff08;AV75056045)

知识图谱2-知识表示

知识表示的重要性 知识是智能的基础 机器可以获得知识机器可以运用知识符合计算机要求的知识模式 计算机能存储处理的知识表示模式数据结构ER模型Sql与RDF模型SPARQL对比 关系模型 关系显式定义&#xff08;RDF) 关系隐式定义(ER)(理解后写出来的表 数据变更时 RDF--数据变更…

韩国芯片教父:金钟基如何带领韩国成为半导体超级大国

来源 :大数据文摘编译&#xff1a;Mickey来源&#xff1a;https://spectrum.ieee.org/kim-choong-ki在韩国芯片行业有这样一群人的传说&#xff0c;他们被称为“金氏黑手党”。金钟基本人不会这么称呼这群人&#xff0c;但对韩国的半导体工程师们来说&#xff0c;“金氏黑手党”…

论文学习1-DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

文章目录摘要Introduction最近工作基于PRA的其他方法其他使用强化学习的方法我们的方法方法介绍&#xff08;强化学习摘要 研究了大规模知识图的学习推理问题。更具体地说&#xff0c;我们描述了一个用于学习多跳关系路径的新型强化学习框架:我们使用一个基于知识图嵌入的具有…

万字因果推断入门:为什么要做因果推断?

来源&#xff1a;PaperWeekly1、为什么需要因果推断1.1 辛普森悖论首先&#xff0c;考虑一个与现实情况很相关的例子&#xff1a;针对某种新冠病毒 COVID-27&#xff0c;假设有两种疗法&#xff1a;方案 A 和方案 B&#xff0c;B 比 A 更稀缺&#xff08;耗费的医疗资源更多&am…

论文学习2-Incorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforce

文章目录摘要介绍相关工作方法Mean Selection Rate (MSR) and Mean Replacement Rate (MRRIncorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforcement Learning摘要 知识图(KG)推理的目的是寻找关系的推理路径&#xff0c;以解决K…

报告下载:《2022城市大脑首部建设标准资料汇总》

2022年9月1日&#xff0c;中国指挥与控制学会正式发布城市大脑首批三项标准&#xff0c;这部《2022城市大脑首部建设标准资料汇总》除了包含发布的三项标准全文内容&#xff0c;还汇总了城市大脑标准研究团队2022年以来的相关研究资料&#xff0c;完整内容包括&#xff1a;1. 解…

nlp3-有限自动机FLandFA

文章目录1形式语言1.2形式语言3推导3.1句型、句子、语言3.2文法3.3派生树与二义性4有限自动机和正则文法4.1确定的有限自动机DFA4.2不确定的有限自动机NFA4.3有限自动机<>正则文法5.下推自动机PDA和上下文无关文法CFG5.1PDA5.1.1 PDA的例子.5.2 其他自动机5.2.1 区别6. 有…

经常看蓝色的东西能提升智力?科学研究发现,蓝色能改变意识状态

来源&#xff1a;科学的乐园我们的宇宙是一个“多姿多彩”的美丽时空&#xff0c;从人类睁开眼的那一刻开始&#xff0c;映入眼帘的就是一个五颜六色的世界。根据科学家的统计&#xff0c;人眼可以识别的电磁波频段包含100多万种“组合颜色”。这要归功于我们视觉系统得天独厚的…

论文学习3-Improving Neural Fine-Grained Entity Typing with Knowledge Attention

文章目录1 当前不足2. 本文的想法3.相关工作4.KNET4.1encoder4.2类型预测4.3attention5.实验6.以后Improving Neural Fine-Grained Entity Typing with Knowledge Attention用于&#xff1a;Fine-grained entity typing细粒度实体类型(它将实体划分为大量细粒度类型&#xff0c…