nlp3-有限自动机FLandFA

文章目录

  • 1形式语言
    • 1.2形式语言
  • 3推导
    • 3.1句型、句子、语言
    • 3.2文法
    • 3.3派生树与二义性
  • 4有限自动机和正则文法
    • 4.1确定的有限自动机DFA
    • 4.2不确定的有限自动机NFA
    • 4.3有限自动机<=>正则文法
  • 5.下推自动机PDA和上下文无关文法CFG
    • 5.1PDA
      • 5.1.1 PDA的例子.
    • 5.2 其他自动机
      • 5.2.1 区别
  • 6. 有限自动机在nlp中的应用
    • 6.1 英语单词拼写检查
      • 6.1.1 编辑距离
      • 6.1.2 有限状态机
      • 6.1.3 深度优先搜索找路径
    • 5.2 英语单词形态分析
    • FA的变种
  • 6.作业
    • 3.1
    • 3.2
    • 3.3
    • 3.4
    • 3.5
    • 3.6

1形式语言

  • 语言:人类所特有的用来表达意思、交流思想的工具,是一种特殊的社会现象,由语音、词汇和语法构成一定的系统。
  • 语言描述的三种途径
    • 穷举法 — 只适合句子数目有限的语言。
    • 语法描述 — 生成语言中合格的句子。
    • 自动机 — 对输入的句子进行检验,区别哪些是语言中的句子,哪些不是语言中的句子
  • 形式语言:是用来精确地描述语言(包括人工语言和自然语言)及其结构的手段。形式语言学 也称 代数语言学
    • 以重写规则 α→β\alpha\rightarrow\betaαβ的形式表示,其中, α,β\alpha,\betaα,β 均为字符串。顾名思义:字符串 α\alphaα 可以被改写成 β\betaβ 。一个初步的字符串通过不断地运用重写规则,就可以得到另一个字符串。通过选择不同的规则并以不同的顺序来运用这些规则,就可以得到不同的新字符串。

1.2形式语言

  • 形式语法:四元组G=(N、Σ,P,S)G=(N、\Sigma,P,S)G=(NΣ,P,S)
    • N:非终结符号(变量
    • Σ:\Sigma:Σ 终结符号
    • N∩Σ=∅;V=N∪Σ:词汇表N \cap \Sigma=\emptyset;\\V=N\cup\Sigma:词汇表NΣ=;V=NΣ:
    • P:一组重写规则的有限集合:P={α→β},其中α,β是V中元素构成的串,但α至少有一个非终结符号:S∈N(初始符或句子符号)P=\{\alpha\rightarrow\beta\},其中\alpha,\beta是V中元素构成的串,但\alpha至少有一个非终结符号:S\in N(初始符或句子符号)P={αβ},αβVαSN(
    • eg:
    • G=({ A,S},{0,1},P,S)
    • P:S→0A1,0A→00A1,A→1P:S\rightarrow0 A 1,\\0 A\rightarrow00A1,\\A\rightarrow1P:S0A1,0A00A1,A1

3推导

  • 推导:

    • G=(N、Σ,P,S)G=(N、\Sigma,P,S)G=(NΣ,P,S)施一个文法,在(N∪Σ)∗(N\cup\Sigma)^*(NΣ)上定义关系=>G(直接派生或推导):\stackrel{G}{=>}(直接派生或推导):=>G(
    • *推导:n>=1
    • +推导:n>=0
    • 推导:n=1
      在这里插入图片描述
      在这里插入图片描述
  • 最左推导

  • 最右推导(规范推导
    在这里插入图片描述

3.1句型、句子、语言

  • 句型与句子
    • 一些特殊类型的符号串G=(N、Σ,P,S)G=(N、\Sigma,P,S)G=(NΣ,P,S)的句子形式(句型):
      1. S是一个句子形式
      2. 句型推出的也是一个句型
        • αβγ是一个句型,且有β→δ是p的产生式,则αδγ也是一个句型\alpha\beta\gamma是一个句型,\\且有\beta\rightarrow\delta是p的产生式,\\则\alpha\delta\gamma也是一个句型αβγβδpαδγ
    • 句子:不含有非终结符的句型
    • 语言:L(G),G产生的所有句子
      • 在这里插入图片描述

3.2文法

  • 0型文法(无限制重写系统,无约束文法):P:α→β,字符串P:\alpha\rightarrow\beta,字符串P:αβ,(理论上的,无用处
  • 1型文法(上下文有关文法CSG):P:αAβ→αγβA∈N,α,γ,β∈(N∪Σ)∗,且γ至少包含一个字符另一种定义:ifx→y,x∈(N∪Σ)+,y∈(N∪Σ)∗,并且∣y∣≥∣x∣(越推越长)P:\alpha A\beta\rightarrow \alpha \gamma \beta\\A\in N,\alpha, \gamma ,\beta\in(N\cup \Sigma)^*,且\gamma至少包含一个字符\\另一种定义:if x\rightarrow y,x\in(N\cup \Sigma)^+,y\in(N\cup \Sigma)^*,并且|y|\geq|x|(越推越长)P:αAβαγβAN,α,γ,β(NΣ),γifxy,x(NΣ)+,y(NΣ),yx(
  • 2型文法(上下文无关文法CFG):P:A→α,A∈N,α∈(N∪Σ)∗P:A\rightarrow \alpha,A\in N,\alpha\in(N\cup \Sigma)^*P:Aα,AN,α(NΣ)
  • 3型文法(正则文法):P:A→Bx∣A→x,A,B∈N,x∈Σ(左线性正则文法A→xB(右线性正则文法)P:A\rightarrow Bx|A\rightarrow x,A,B\in N,x\in \Sigma(左线性正则文法\\A\rightarrow xB(右线性正则文法)P:ABxAx,A,BNxΣ(线AxB(线
  • 0-3,约束越来越大:L(G3)⊆L(G2)⊆L(G1)⊆L(G0)L(G3)\subseteq L(G2)\subseteq L(G1)\subseteq L(G0)L(G3)L(G2)L(G1)L(G0)
    • 显然,每一个正则文法都是上下文无关文法,每一个上下无关文法都是上下文有关文法,而每一个上下文有关文法都是0型文法
  • 判别文法类别时,倾向于判别为约束最大的:
    • 如果一种语言能由几种文法所产生,则把这种语言称为在这几种文法中受限制最多的那种文法所产生的语言。
      在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

3.3派生树与二义性

  • 2型文法(上下文无关)CFG 产生的语言句子的派生树表示CFGG=(N、Σ,P,S)G=(N、\Sigma,P,S)G=(NΣ,P,S)产生一个句子的派生树由如下
    步骤构成:
    • (1) 对于x∈N∪Σx\in N \cup \SigmaxNΣ 给一个标记作为节点, S 作为树的根节点。
    • (2) 如果一个节点的标记为 A,并且它至少有一个除它自身
      以外的后裔,则A∈NA\in NAN
    • (3) 如果一个节点的标记为 A,它的 k ( k > 0) 个直接后裔节 点按从左到右的次序依次标记为 A1, A2, …, Ak,则 A -> A1A2…Ak 一定是 P 中的一个产生式
  • 上 下文无关文法的二义性
    • 一个文法 G,如果存在某个句子有不只一棵分析树与之对应,那么称这个文法是二义的
      在这里插入图片描述在这里插入图片描述
      在这里插入图片描述在这里插入图片描述在这里插入图片描述

4有限自动机和正则文法

4.1确定的有限自动机DFA

  • 确定的有限自动机M是一个五元组M=(Σ,Q,δ,q0,F)Σ:输入符号的有穷集合Q:状态的有限集合q0∈Q:初始状态F:终止状态集合,F⊆Qδ:是Q×Σ到Q的映射,它支配着有限状态控制的行为,状态转移函数M=(\Sigma,Q,\delta,q_0,F)\\ \Sigma:输入符号的有穷集合\\ Q:状态的有限集合\\ q_0\in Q:初始状态\\ F:终止状态集合,F\subseteq Q\\ \delta:是Q×\Sigma到Q的映射,它支配着有限状态控制的行为,状态转移函数M=(Σ,Q,δ,q0,F)Σ:Qq0Q:FFQδ:Q×ΣQ
  • 从q0开始(输入头开始在最左边),输入a,q′=δ(q,a),从q转移到状态q′,并将输入头向右移动一个字符从q_0开始(输入头开始在最左边),输入a,q'=\delta(q,a),从q转移到状态q',并将输入头向右移动一个字符q0aq=δ(q,a)qq
  • 状态变换图如下:

在这里插入图片描述在这里插入图片描述

  • DFA所定义的语言
    • 可接受:如果有一个句子x,使得δ(q0,x)=p,p∈F,则x可被M接受如果有一个句子x,使得\delta(q_0,x)=p,p\in F,则x可被M接受x使δ(q0,x)=p,pF,xM
    • KaTeX parse error: Undefined control sequence: \inF at position 23: …x|\delta(q_0,x)\̲i̲n̲F̲\}
  • 确定的:接受一个输入,只会从一个状态转换到另一个状态,不会有其他可能
    在这里插入图片描述

4.2不确定的有限自动机NFA

  • 不确定的有限自动机M是一个五元组M=(Σ,Q,δ,q0,F)Σ:输入符号的有穷集合Q:状态的有限集合q0∈Q:初始状态F:终止状态集合,F⊆Qδ:是Q×Σ到Q的幂集2Q的映射,状态转移函数M=(\Sigma,Q,\delta,q_0,F)\\ \Sigma:输入符号的有穷集合\\ Q:状态的有限集合\\ q_0\in Q:初始状态\\ F:终止状态集合,F\subseteq Q\\ \delta:是Q×\Sigma到Q的幂集2^Q的映射,状态转移函数M=(Σ,Q,δ,q0,F)Σ:Qq0Q:FFQδ:Q×ΣQ2Q–区别在这里
  • 区别:
    • δ(q,a)\delta(q,a)δ(q,a)
      • 在DFA中是一个状态
      • 在NFA中是一个状态集合
        在这里插入图片描述
  • 不确定性:δ(q0,0)=q3,q0\delta(q_0,0)={q_3,q_0}δ(q0,0)=q3q0
  • 关系:设 L 是一个被 NFA 所接受的句子的集合,则存在一个 DFA,它能够接受 L。
    • 由于 DFA 与 NFA 所接受的是同样的链集,所以一般情况下无需区分它们,二者统称为有限自动机 (finite automata, FA)。
    • 可以转化

4.3有限自动机<=>正则文法

  • 正则文法和FA等价
    • G=(VN,VT,P,S)G=(V_N,V_T,P,S)G=(VN,VT,P,S)是一个正则文法,则必然存在一个有限自动机M=(Σ,Q,δ,q0,F)M=(\Sigma,Q,\delta,q_0,F)M=(Σ,Q,δ,q0,F),使得T(M)=L(G)
    • 若Ms是一个有限自动机,则必然存在正则文法G,L(G)=T(M)
  • 由正则文法构造有限自动机M:
    1. Σ=VT,Q=VN∪T,q0=S,其中,T是一个新增加的非终结符号\Sigma=V_T,Q=V_N\cup{T},q_0=S,其中,T是一个新增加的非终结符号Σ=VT,Q=VNT,q0=S,T
    2. 如果P中有:S→ϵ,则,F={S,T},否则,F={T}S\rightarrow\epsilon,则,F=\{S,T\},否则,F=\{T\}Sϵ,F={S,T}F={T}
    3. 如果P中有:B→a,B∈VN,a∈VT,则T∈δ(B,a)B\rightarrow a,B\in V_N,a\in V_T,则T\in\delta(B,a)Ba,BVN,aVT,Tδ(B,a)
    4. 如果P有B→aC,B、C∈VN,a∈VT,则C∈δ(B,a)B\rightarrow aC,B、C\in V_N,a\in V_T,则C\in \delta(B,a)BaC,BCVN,aVT,Cδ(B,a)
    5. 对于每一个a∈VT,有δ(T,a)=∅a\in V_T,有\delta(T,a)=\emptyaVT,δ(T,a)=
      在这里插入图片描述 在这里插入图片描述在这里插入图片描述
  • 由有限自动机M构造正则文法G:
    1. VN=Q,VT=Σ,S=q0V_N=Q,V_T=\Sigma,S=q_0VN=Q,VT=Σ,S=q0
    2. 如果C∈δ(B,a),B,C∈Q,a∈Σ,则P:B→aC如果C\in \delta(B,a),B,C\in Q,a\in \Sigma,则P:B\rightarrow aCCδ(B,a),B,CQ,aΣP:BaC
    3. 如果C∈δ(B,a),B,C∈F,a∈Σ,则P:B→a如果C\in \delta(B,a),B,C\in F,a\in \Sigma,则P:B\rightarrow aCδ(B,a),B,CF,aΣP:Ba

5.下推自动机PDA和上下文无关文法CFG

5.1PDA

  • 下推自动机PDA:PDA 可以看成是一个带有附加的下推存储器的有限自动机,下推存储器是一个栈
    • 一个不确定的PDA可以表达成一个7元组M=(Σ,Q,Γ,δ,q0,Z0,F)Σ:输入符号Q:状态的有限集合q0∈Q:初始状态Γ:下推存储器符号的有穷集合Z0∈Γ:为最初出现在下推存储器顶端的符号F:终止状态集合,F⊆Qδ是从Q×(Σ∪{ϵ})×Γ到Q×Γ∗子集的映射M=(\Sigma,Q,\Gamma,\delta,q_0,Z_0,F)\\\Sigma:输入符号\\Q:状态的有限集合\\q_0\in Q:初始状态\\\Gamma:下推存储器符号的有穷集合\\Z_0\in \Gamma:为最初出现在下推存储器顶端的符号\\F:终止状态集合,F\subseteq Q\\\delta是从Q×(\Sigma\cup\{\epsilon\})×\Gamma到Q×\Gamma^*子集的映射M=(Σ,Q,Γ,δ,q0,Z0,F)Σ:Q:q0QΓ:Z0Γ:F:FQδQ×(Σ{ϵ})×ΓQ×Γ
      在这里插入图片描述
  • 映射关系\delta的解释
    • δ(q,a,Z)={(q1,γ1).(q2,γ2),...(qm,γm)},q∈Q,a∈Σ,γ∈Γ∗\delta(q,a,Z)=\{(q_1,\gamma_1).(q_2,\gamma_2),...(q_m,\gamma_m)\},q\in Q,a\in \Sigma,\gamma \in \Gamma^*δ(q,a,Z)={(q1,γ1).(q2,γ2),...(qm,γm)},qQ,aΣ,γΓ
    • 当PDA处于状态 q,面临输入符号a 时,自动机将进入 qi , i = 1, 2, …, m 状态,并以γi\gamma_iγi 来代替下推存储器(栈)顶端符号Z,同时将输入头指向下一个字符 。当 Z 被γi\gamma_iγi取代时,γi\gamma_iγi 的符号按照从左到右的顺序依次从下向上推入到存储器。
    • 特殊情况ϵ移动:a=ϵ\epsilon移动:a=\epsilonϵa=ϵ,输入头位置不移动,只用于处理下推存储器内部的操作
  • 符号约定
    • 合法转移:设有序对(q,γ),q∈Q,γ∈Γ∗,对于a∈(Σ∪{ϵ})是输入字符,β∈Γ∗,Z∈F,如果(q′,β)∈δ(q,a,Z),q′,q∈Q(q,\gamma),q\in Q,\gamma\in \Gamma^*,对于a\in(\Sigma\cup\{\epsilon\})是输入字符,\beta\in \Gamma^*,Z\in F,如果(q',\beta)\in \delta(q,a,Z),q',q\in Q(q,γ),qQ,γΓ,a(Σ{ϵ}),βΓ,ZF,(q,β)δ(q,a,Z),q,qQ
      在这里插入图片描述
    • 0次或多次合法转移:*推
  • PDA M可以接受的语言为:
    • 接受收入并可到达一个可接受状态
      在这里插入图片描述

5.1.1 PDA的例子.

在这里插入图片描述在这里插入图片描述
输入串是从左到右依次输入的
入栈出栈都走左边进出

5.2 其他自动机

  • 图灵机
    • 图灵机与0型文法等价;
    • 图灵机与有限自动机(FA)的区别:图灵机可以通过其读/写头改变输入带的字符。
    • 仅存在概念,太灵活了
  • 线性带限自动机
    • 线性带限自动机与1型文法等价;
    • 线性带限自动机是一个确定的单带图灵机,其读 写头不能超越原输入带上字符串的初始和终止位置,即线性带限自动机的存储空间被输入符号串的长度所限制。

5.2.1 区别

  • 各类自动机的主要区别是它们能够使用的信息存储空间的差异:
    • 有限状态自动机只能用状态来存储信息;
    • 下推自动机除了可以用状态以外,还可以用下推存储器(栈);
    • 线性带限自动机可以利用状态和输入/输出带本身。因为输入/输出带没有**“先进后出”**的限制,因此,其功能大于栈;
    • 而图灵机的存储空间没有任何限制。
      在这里插入图片描述

6. 有限自动机在nlp中的应用

6.1 英语单词拼写检查

6.1.1 编辑距离

  • 编辑距离
    • 设 X 为拼写错误的字符串,其长度为m, Y 为 X 对应的正确的单词(答案),其长度为 n。则 X 和 Y 的编辑距离ed(X[m], Y[n]) 定义为:从字符串 X转换到 Y 需要的插入、删除、替换和交换两个相邻的基本单位(字符)的最小个数。如:
      • ed (recoginze, recognize) = 1
      • ed (sailn, failing) = 3
  • 假设 Z = z1 z2 … zp 为字母表 A上的p 个字母构成
    的字符串,Z[j] 表示含有j (j >= 1) 个字符的子串。X[m] 为拼写错误的字符串,其长度为m,Y[n] 为与X串接近的字符串(一个候选),其长度为n。则给定两个串X 和Y的编辑距离ed(X[m], Y[n]) 可以通过循环计算出从字符串X 转换到Y 需要进行插入、删除、替换和交换两个相邻的字符操作的最少次数
    • (1) 如果 xi+1=yj+1x_{i+1}= y_{j+1}xi+1=yj+1(两个串的最后一个字母相同),
      • 则 ed(X[i+1], Y[j+1]) = ed(X[i], Y[j]);
    • (2) 如果 xi=yj+1x_{i}= y_{j+1}xi=yj+1,并且 xi+1=yjx_{i+1}= y_{j}xi+1=yj(最后两个字符需要
      交换位置),
      • 则ed(X[i+1], Y[j+1]) = 1+min{ed(X[i-1], Y[j-1]),ed(X[i], Y[j+1]),ed(X[i+1], Y[j])}
        在这里插入图片描述

*(3)其他情况(xi+1≠yj+1并且(xi≠yj+1或xi+1≠yj)x_{i+1}\neq y_{j+1}并且(x_i\neq y_{j+1}或x_{i+1}\neq y_j)xi+1=yj+1(xi=yj+1xi+1=yj

  • ed(X[i+1], Y[j+1]) = 1+min{ed(X[i], Y[j]),ed(X[i], Y[j+1]),ed(X[i+1], Y[j])}
  • 其中:
    • ed(X[0],Y[j])=j (0<=j<=n)X长度为0
    • ed(X[i],Y[0])=i,(0<=i<=m
    • 边界约定:ed(X[-1],Y[j])=ed(X[i],Y[-1])=max{m,n}
      在这里插入图片描述

6.1.2 有限状态机

  • 有时候要在自动机上做改变
    • R=(Q,A,δ,q0,F)Q:状态集A:输入集δ:Q×A→Qq0∈Q:起始状态F⊆Q:终止状态集R=(Q,A,\delta,q_0,F)\\ Q:状态集\\ A:输入集\\ \delta:Q×A\rightarrow Q\\ q_0\in Q:起始状态\\ F\subseteq Q:终止状态集R=(Q,A,δ,q0,F)Q:Aδ:Q×AQq0QFQ
  • L⊆A∗L\subseteq A^*LA是R接受的语言,字母构成的所有合法单词都是有限状态机中的一条路径。给定一个输入串,对其进行检查的过程就是在给定阈值 t (t > 0) 的情况下,寻找那些与输入串的编辑距离小于 t 的路径。那么,一个字符串X[m]∉LX[m]\notin LX[m]/L 能够被 R识别的条件是存在非空集合
    C={Y[n]∣Y[n]∈L&ed(X[m],Y[n])≤t}C=\{Y[n]|Y[n]\in L \& ed(X[m],Y[n])\leq t\}C={Y[n]Y[n]L&ed(X[m],Y[n])t}

在这里插入图片描述
中间有共用的单词

  • 定义:cuted(X[m],Y[n])=minl≤i≤u{ed(X[i],Y[n])}l=max(1,n−t),u=min(m,n+t)cuted(X[m],Y[n])=min_{l\leq i\leq u}\{ed(X[i],Y[n])\}\\l=max(1,n-t),u=min(m,n+t)cuted(X[m],Y[n])=minliu{ed(X[i],Y[n])}l=max(1,nt),u=min(m,n+t)
    • t的用途:
      • 确定截取X的范围
      • 限定编辑距离
  • 在这里插入图片描述

6.1.3 深度优先搜索找路径

  • Y是合法的单词,X是输入的单词(可能是错的词),找与X最接近的合法词汇
  • 采用深度优先搜索算法从自动机中选择路径。假设X=bax, t=2。那么,Y=a/b/c/…/z,l=max{1, 1-2}=1, u=min{3, 1+2}=3。即从 X 中取长度在1~3个字符范围内的子串X’={b, ba, bax},分别计算与 Y 之间的编辑距离,保留那些 ed(X’, Y)≤ t 的路径,选择 ed 最小的路径继续扩展。
  • X=bax, t=2。 Y={ba, bi, bo, … …}。
    • 截取 X: l=max{1, 2-2}=1, u=min{3, 2+2}=3。 X’={b, ba, bax}
    • 保留那些 ed(X’, Y)≤ t 的路径,选择 ed 最小的路径继续扩展。
  • X=bax, t=2。Y={baa, bad, bag, bat, bay}。
    • 截取 X: l=max{1, 3-2}=1, u=min{3, 3+2}=3。 X’={b, ba, bax}
    • 保留那些 ed(X’, Y)≤ t 的路径,选择 ed 最小的路径,继续扩展Y。
  • X=bax, t=2。Y={bade}。
    • 截取 X: l=max{1, 4-2}=2, u=min{3, 4+2}=3。 X’={ba, bax}
    • 保留那些 ed(X’, Y)≤ t 的路径,选择 ed 最小的路径

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

  • 深度优先可能有只能得到一个解,不一定最优,但肯定
  • 宽度优先:可以得到最短的解
  • 算法
    在这里插入图片描述

5.2 英语单词形态分析

  • 单复数
  • 时态
  • 比较
    在这里插入图片描述在这里插入图片描述
  • 一般地,具有相同的前缀或词根,词缀不同的单词可以共用一个有限状态转移机,共享其中的某些状态节点。如:tie, ties, trap, traps, try, tries, to, torch, torches, toss, tosses 等。
  • 除了单词拼写检查、形态分析以外,有限状态自动机还广泛应用于词性标注、句法分析、短语识别、机器翻译和语音识别等很多方面。

FA的变种

  • 有限自动机FA:只实现状态转移,不产生任何输出
  • 有限状态机FSM:只实现状态转移,不产生任何输出
  • 有限状态转换机FST:完成状态转移的同时产生一个输出

6.作业

3.1

在这里插入图片描述

3.2

在这里插入图片描述
anbncn,n≥1a^nb^nc^n,n\geq1anbncn,n1

3.3

在这里插入图片描述

3.4

在这里插入图片描述

3.5

在这里插入图片描述

3.6

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481601.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

经常看蓝色的东西能提升智力?科学研究发现,蓝色能改变意识状态

来源&#xff1a;科学的乐园我们的宇宙是一个“多姿多彩”的美丽时空&#xff0c;从人类睁开眼的那一刻开始&#xff0c;映入眼帘的就是一个五颜六色的世界。根据科学家的统计&#xff0c;人眼可以识别的电磁波频段包含100多万种“组合颜色”。这要归功于我们视觉系统得天独厚的…

论文学习3-Improving Neural Fine-Grained Entity Typing with Knowledge Attention

文章目录1 当前不足2. 本文的想法3.相关工作4.KNET4.1encoder4.2类型预测4.3attention5.实验6.以后Improving Neural Fine-Grained Entity Typing with Knowledge Attention用于&#xff1a;Fine-grained entity typing细粒度实体类型(它将实体划分为大量细粒度类型&#xff0c…

深度学习和因果如何结合?北交最新《深度因果模型》综述论文,31页pdf涵盖216篇文献详述41个深度因果模型...

来源&#xff1a;专知北京交通大学最新《深度因果模型》综述论文&#xff0c;31页pdf涵盖216页pdf详述41个深度因果模型&#xff0c;值得关注&#xff01;因果关系概念在人类认知中起着重要作用。在过去的几十年里&#xff0c;因果推理在计算机科学、医学、经济学和教育等许多领…

论文学习4-An Attentive Neural Architecture for Fine-grained Entity Type Classification

文章目录1.introduction2.相关工作3. 本文model3.1general model3.2 mention represent3.3 context model3.3.1 averaging encoder3.3.2 LSTM encoder3.3.3 Attention Encoder4. 实验在这项工作中&#xff0c;我们提出了一种新的基于注意的神经网络模型来完成细粒度实体类型分类…

脑机接口技术或将纳入美出口管制?技术成熟度与军用进展情况

来源&#xff1a; 学术plus 编译&#xff1a;学术plus高级观察员 TAO2022年9月&#xff0c;美国国会的下属机构政府问责局&#xff08;Government Accountability Office, GAO&#xff09;发布了题为《脑机接口》&#xff08;Brain-Computer Interfaces&#xff09;的焦点…

OpenAI 发布新语音系统「Whisper 」,英文识别能力可接近人类水平

来源&#xff1a;AI科技评论作者&#xff1a;黄楠编辑&#xff1a;陈彩娴9月21日&#xff0c;OpenAI 发布了一个名为「Whisper 」的神经网络&#xff0c;声称其在英语语音识别方面已接近人类水平的鲁棒性和准确性。「Whisper 」式一个自动语音识别&#xff08;ASR&#xff09;系…

论文学习5-NODE2BITS: Compact Time- and Attribute-aware Node Representations for User Stitching

文章目录摘要1.Introduction2. 介绍两个概念2.1 Dynamic Heterogeneous Network Model动态异构网络模型2.2 时间随机游走3NODE2BITS:基于散列的Emdedding框架3.1 采样时间随机游动和定义时间上下文3.2 基于多维特征的时态语境&#xff08;上下文3.3基于特征的上下文聚合和散列4…

谷歌科学家亲讲:具身推理如何实现?让大模型「说」机器人的语言

来源&#xff1a;智源社区整理&#xff1a;戴一鸣导读&#xff1a;机器人领域已经发展了三四十年&#xff0c;但应用方面的进展较慢。这是因为&#xff0c;机器人建立在这样一个假设上&#xff1a;工作环境是简单可控的。如果将机器人部署到稍微复杂一些的环境&#xff08;如家…

论文学习6-(M2DNE)Temporal Network Embedding with Micro- and Macro-dynamics

文章目录1 intorduction2. 相关工作3. 准备工作4.model4.2 Micro-dynamics Preserved Embedding4.2.1 分层时间关注4.3 Macro-dynamics Preserved Embedding4.3.1链接速率4.3.2 宏观约束联合5. 实验网络嵌入的目的是将节点嵌入到低维空间中&#xff0c;同时捕获网络的结构和属性…

蒲慕明院士:我们为什么要探索人脑的奥秘

来源&#xff1a;学习时报作者简介蒲慕明&#xff0c;1948年出生&#xff0c;中国科学院院士&#xff0c;美国科学院外籍院士&#xff0c;现任中国科学院脑科学与智能技术卓越创新中心学术主任&#xff0c;上海脑科学与类脑研究中心主任。他是国际著名的神经生物学家和生物物理…

论文学习7-Spam Review Detection with Graph Convolutional Networks(阿里巴巴)

文章目录Introduction2. 相关工作3. 本文的model3.1 Preliminaries3.2建立问题3.3闲鱼图上的异构卷积网络3.3.1Aggregation Sub-layer3.3.2 Time-related Sampling3.3.4将图形网络与文本分类模型相结合。3.4 GCN-based反垃圾邮件模式4.实验Introduction ppt 任务&#xff1a;…

新型AI芯片 其能效或是替代品的两倍

DAVID BAILLOT/UNIVERSITY OF CALIFORNIA SAN DIEGO来源&#xff1a;IEEE电气电子工程师在软件和硅中复制人脑是人工智能&#xff08;AI&#xff09;研究的长期目标。虽然神经形态芯片在能够同时运行多个计算方面取得了重大进展&#xff0c;并且既能计算也能存储数据&#xff0…

论文学习8-How Question Generation Can Help Question Answering over Knowledge Base(KBQA-知识问答)

文章目录abstract1.introduction2. our approach2.2 微调fine tuning3.Model3.1QA Model3.2QG modelabstract 本文研究了基于知识库的问答系统的性能改进问题生成技术。问题生成(question generation, QG)的任务是根据输入的答案生成相应的自然语言问题&#xff0c;而问答(ques…

1575万美元!2023科学突破奖揭晓,AlphaFold、量子计算等突破斩获殊荣

来源&#xff1a;FUTURE远见选编&#xff1a;FUTURE | 远见 闵青云 2022年9月22日&#xff0c;科学突破奖基金会宣布了2023科学突破奖&#xff08;Breakthrough Prize&#xff09;的获奖名单。科学突破奖有「科学界的奥斯卡」之称&#xff0c;它表彰在生命科学、基础物理学和数…

nlp4-语料库

文章目录1. 语料库2.建设中的问题3.典型语料库介绍1. 语料库 语料库(corpus) 语料库(corpus) 就是存放语言材料的仓库 (语言数据库)。基于语料库进行语言学研究&#xff0d;语料库语言学(corpus linguistics) 根据篇章材料对语言的研究称为语料库语言学不是新术语&#xff1a;…

费曼:任何伟大的科学成就,都源于思想自由

来源&#xff1a;群学书院理查德菲利普斯费曼&#xff08;Richard Phillips Feynman&#xff0c;1918-1988&#xff09;&#xff0c;美籍犹太裔物理学家&#xff0c;加州理工学院物理学教授&#xff0c;1965年诺贝尔物理奖得主。>>>>费曼1939年毕业于麻省理工学院&…

nlp5-n-gram/语言模型(数据平滑方法

文章目录1.句子的先验概率1.1 n-gram2. 参数估计3. 数据平滑3.1 数据平滑度方法3.1.1加1法3.1.2减1.句子的先验概率 这个联合概率太小了 窗口越大&#xff0c;共现的可能性越小参数多 解决&#xff1a;等价类 不看所有的历史信息只看部分历史信息&#xff0c;但看所有的历史等价…

《科学》:3.8亿年前的心脏,揭示生命演化历史

来源&#xff1a;学术经纬编辑 &#xff1a;药明康德内容微信团队一颗3.8亿年前的心脏&#xff0c;可以告诉我们什么&#xff1f;在一篇近期的《科学》论文中&#xff0c;由澳大利亚科廷大学领导的研究团队借助最新的研究工具&#xff0c;从一枚有颌鱼化石中揭示了清晰的心脏、…

论文学习9-Bidirectional LSTM-CRF Models for Sequence Tagging(LSTM,BILSTM,LSTM-CRF,BILSTM-CRF

文章目录1.Introduction2 model2.1 LSTM2.2BI-LSTMBPTT2.3 CRF2.4 LSTM-CRF参考文献本篇论文介绍了LSTM网络、BI-LSTM网络、CRF网络、LSTM-CRF网络、BI-LSTM-CRF网络&#xff0c;比较将它们用于自然语言处理的性能与准确率。重点介绍了BI-LSTM-CRF网络。1.Introduction 序列标…

从连接组学到行为生物学,AI 助力使从图像中提取信息变得更快、更容易

来源&#xff1a;ScienceAI编辑&#xff1a;白菜叶一立方毫米听起来并不多。但在人脑中&#xff0c;这一体积的组织包含约 50,000 条由 1.34 亿个突触连接的神经「线路」。Jeff Lichtman 想追踪所有这些。为了生成原始数据&#xff0c;他使用了一种称为串行薄层电子显微镜的协议…