[ACL2020]Generalizing Natural Language Analysis through Span-relation Representations

文章目录

  • 1 介绍
  • 2 span-relation representations
    • 2.1未涉及句子级任务
  • 3.span-relation model
    • 3.1 span representation
    • 3.2 span and relation label prediction
    • 3.3 应用到不同任务
    • 3.5 多任务学习MTL
  • 4 GLAD Benchmark基准 and Results
    • 4.1 实验
    • 4.2 证明通用模型有效
    • 4.3 MTL
      • 4.3.2 任务之间的关系分析
      • 4.3.3 相似和区别
      • 4.3.4 MTL under different settings
      • 4.4.4 模型复杂度

1 介绍

  • nlp任务

    • span标记
    • span之间的关系标记
  • 希望用统一的框架处理nlp任务

  • 假设:人类可以用相同的格式标注数据,机器也可以

    • 人类标注:已经有统一的标准BRAT
  • 贡献

    • span标记和span之间的关系标记联合模型
      • 已经有端到端的共指消解模型(Lee et al. (2017))–本文对它进行少量修改
    • 预训练一个上下文的模型(Bert,Elmo)
    • 验证单一模型的适用性和通用性
      • 在10个任务上
        • named entity recognition(NER),
        • relation extraction (RE),
        • coreference resolution (Coref.),
        • open information extraction (OpenIE),
        • part-of-speech tagging (POS),
        • dependency parsing (Dep.),
        • constituency parsing (Consti.),
        • semantic role labeling (SRL),
        • aspect based sentiment analysis (ABSA),
        • and opinion role labeling (ORL)
      • 功能:
        • 一个模型可以处理多个任务
        • MTL:很方便,可以帮助数据量少的相关模型(相互协助)
          • 有的任务会互相帮助
          • 也有的任务会相互阻碍:因为不同的任务表现出不同的注意模式(attention)
  • 预训练模型

    • 使用相同的表示,通过预训练的embedding
  • 本文

    • 完全统一的模型,去处理所有任务

2 span-relation representations

  • 解释BRAT如何标注大量任务
    • span标注–span-oriented tasks
    • relation标注 --relation-oriented tasks
      在这里插入图片描述

2.1未涉及句子级任务

  • 注意
    • 未涉及句子级别的任务(情感分类。。)
      • 可以将整个句子当作一个span
      • 但因为之前的通用模型中已经有很好的表现了,就不做了
        • 通用模型(Lan and Xu, 2018)、
        • 多任务学习 (Devlin et al.,2019; Liu et al., 2019)

3.span-relation model

  • base(Lee et al., 2017)–一个端到端的共指消解模型,span标注
    • 扩展到其他任务
    • 模型核心:用一个任意长度的向量表示span–用以预测label或span-pair的label

3.1 span representation

  • 条件:可以任意长度
  • 内容表示zicz_i^czic
  • 边界表示ziuz_i^uziu
  • 句子的tokenw1,w2,...,wnw_1,w_2,...,w_nw1,w2,...,wn
  • span:si=[(bbi,bbi+1,...,bei]s_i=[(b_{b_i},b_{b_i+1},...,b_{e_i}]si=[(bbi,bbi+1,...bei]
  • c1,c2,...,cn=TokenRepr(w1,w2,...,wn)u1,u2,...,un=BiLSTM(c1,c2,...,cn)zic=SelfAttn(cbi,cbi+1,...,cei)ziu=[ubi;uei]zi=[zic;ziu]c_1,c_2,...,c_n=TokenRepr(w_1,w_2,...,w_n)\\ u_1,u_2,...,u_n=BiLSTM(c_1,c_2,...,c_n)\\ z_i^c=SelfAttn(c_{b_i},c_{b_i+1},...,c_{e_i})\\ z_i^u=[u_{b_i};u_{e_i}]\\ z_i=[z_i^c;z_i^u]c1,c2,...,cn=TokenRepr(w1,w2,...,wn)u1,u2,...,un=BiLSTM(c1,c2,...,cn)zic=SelfAttn(cbi,cbi+1,...cei)ziu=[ubi;uei]zi=[zic;ziu]
    • tokenRepr:Glove or Bert

3.2 span and relation label prediction

  • invalid label
    • NEG_SPAN
    • NEG_REL
  • Model
    1. 预测所有的span(长度<l):MLP(多层感知机)softmax(MLPspan(zi))∈Δ∣L∣softmax(MLP^{span}(z_i))\in\Delta^{|L|}softmax(MLPspan(zi))ΔL
    2. 剪枝:保留前K=n⋅τK=n\cdot \tauK=nτ个span,剩下的为NEG_SPAN(阈值τ\tauτ低,则剪枝更多)
    3. 预测关系的感知机MLP:ojk=MLPrel([zj;zk;zj⋅zk])∈R∣R∣o_{jk}=MLP^{rel}([z_j;z_k;z_j\cdot z_k])\in \mathbb{R}^{|R|}ojk=MLPrel([zj;zk;zjzk])RR

3.3 应用到不同任务

  • 最大化真实关系的概率

  • 具体到不同任务上需求不同

    • 关心前后顺序:关系抽取
    • 不关心顺序:
      • eg:共指消解:
        • 连接相同概念的span–cluster
        • 多个也只要连上了就好
  • 为此,提供两种loss–最大化

    • pairwise loss:softmax(ojk)rjk,rjk是实际答案的indexessoftmax(o_{jk})_{r_{jk}},r_{jk}是实际答案的indexessoftmax(ojk)rjk,rjkindexes–其他所有任务
      • 预测一对
    • head loss:Σk∈head(sj)softmax([oj1,oj1,...,ojK)k\Sigma_{k\in head(s_j)} softmax([o_{j1},o_{j1},...,o_{jK})_kΣkhead(sj)softmax([oj1oj1,...,ojK)k–用于共指消解
      • 预测一堆
      • (?多元关系?怎么样)
  • 这两个loss,仅在如何normalize时有区别,其他并无区别

  • test

    • 共指消解:把span连接到得分最高的前件上e (Lee et al., 2017)
    • consti:constituency parsing:贪婪的从上到下的解码,去产生有效的解析树
    • dep:依赖解析:每个词链接到一个父节点(最高关系得分的)
    • other:对每对实体预测关系,没关系的预测为NEG_REL
  • 核心观点

    • 我们的模型任务无关
      • 只要能建模为span标注任务和span关系预测任务即可

3.5 多任务学习MTL

  • SpanRel实现MTL
    • 共享参数,除了MLPs的
    • 问题:
      • 不同的任务,关注点不同(在语言方面)
      • 所以对于所有任务不是获得相同的增益的、
        • 在相关任务上联合训练是增益的
        • 而不相关的任务是hurt
      • 如何选择任务?
        • 任务数目多时,手动选择难
    • 解决:
      • SpanRel提供了一个系统的方式/基于attetion的方式–选择任务对(互相有增益的)–4.3

4 GLAD Benchmark基准 and Results

  • 提出GLAD基准和evaluation metrics
  • 证明SpanRel
    • 有效
    • 对MTL有益

4.1 实验

  • metrics
    • F1,P,R–for span and relation
  • token representation:Glove,ELMo,Span-Bert,Bert
  • BiLSTM 256 hidden\
  • MLP:2 layers,128hidden

4.2 证明通用模型有效

  • 在相同条件下与SOTA模型相比较
    • token representation(Bert or Glove…)相同
    • settings
  • 通用模型有效
    • 和sota差不多
      在这里插入图片描述

4.3 MTL

  • MTL和STL(单任务学习),FT(finetune)
    • 有Bert好于没有Bert
    • 有Finetune好于无FT
    • 下降的比较多:
      • 大多数任务数据稀疏
      • 不同的任务关注点不同,相互之间可能有助益也有阻碍

在这里插入图片描述

4.3.2 任务之间的关系分析

  • 假设:语言模型预训练在理论上与MTL正交,实际上benefit是重叠的
  • 分析
    • (1)对于OpenIE和ORL来说,使用SRL进行多任务学习可以显著提高性能,而其他任务的提高则很少或根本没有。
    • (2)依赖解析和SRL是对大多数目标任务有益的通用源任务。
    • SpanREL可以很容易地进行MTL,并且看出谁是有益的源任务

在这里插入图片描述

4.3.3 相似和区别

  • 证明SpanRel提供分析不同任务相似性和区别的平台
    • 猜测,与attention有关
      • attention反应内部焦点
      • 公式:simk(t,t′)=−1∣Xt∣Σx∈Xt∣∣Akt(x)−Akt′(x)∣∣F′Akt(x)是第k个头的attentionmapsim_k(t,t')=-\frac{1}{|X_t|}\Sigma_{x\in X_t}||A_k^t(x)-A_k^{t'}(x)||_{F'}\\A_k^t(x)是第k个头的attention mapsimk(t,t)=Xt1ΣxXtAkt(x)Akt(x)FAkt(x)kattentionmap
      • 下图证明这个公式确实反映了相似度
        在这里插入图片描述

4.3.4 MTL under different settings

  • token representation 越强大,improvement越少

    • MTL和预训练模型都倾向于学习通用表达,benefit重叠了
    • 5中glove训练了所有模型,所以效果差了–超出能力范围
      在这里插入图片描述
  • 数据稀疏的时候模型有用

  • 在这里插入图片描述

4.4.4 模型复杂度

  • 主要在bert
  • span O(l⋅n)O(l\cdot n)O(ln)
  • relation O(K2)=O(τ2⋅n2)O(K^2)=O(\tau^2\cdot n^2)O(K2)=O(τ2n2)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481474.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

为什么生成式AI这么火?OpenAI刚刚被曝估值已接近200亿美金

“生成式 AI 提醒我们&#xff0c;很难做出有关于人工智能的预测。十年前&#xff0c;传统观点认为&#xff1a;人工智能首先会影响体力劳动&#xff1b;然后&#xff0c;是认知劳动&#xff1b;然后&#xff0c;也许有一天它可以做创造性工作。现在看起来&#xff0c;它会以相…

报告预告:北斗网格码国家标准与城市大脑网格底座探讨

来源&#xff1a;中国指挥与控制学会中国指挥与控制学会“百名专家、百场讲座”第十七讲——城市大脑系列学术报告&#xff08;第八期&#xff09;主办单位&#xff1a;中国指挥与控制学会承办单位&#xff1a;中国指挥与控制学会城市大脑专业委员会远望智库报告人&#xff1a;…

{ACL2020}In Layman’s Terms: Semi-Open Relation Extraction from Scientific Texts(关系抽取,半开放关系抽取)

半开放关系抽取 用FOBIE训练一个narrow IE训练一个OpenIE用narrowIE矫正OpenIE 1.Introduction 标注困难、 跨领域标注更难 TRADE-OFF relations 随着干燥度的增加&#xff0c;木质部的安全性增加和效率降低的广泛模式是明显的&#xff0c;有一些证据表明在针叶树种或个体之…

马斯克成功收购推特,开除CEO等多名高管,还派特斯拉工程师进驻总部审查代码...

来源&#xff1a;AI前线作者&#xff1a;刘燕这场连环反转“大戏”&#xff0c;终于落幕。靴子终于落地10 月 28 日&#xff0c;据 《纽约时报》、CNBC 、《 华尔街日报》、《华盛顿邮报》 等多家外媒报道&#xff0c;马斯克收购推特的交易已经完成。这笔 440 亿美元的收购案终…

【ACL2020】Reasoning with Latent Structure Refinement for Document-Level Relation Extraction

1. 问题 句间关系 很多约等于文档级关系抽取 文档级关系抽取 句子间关系多 生物医药领域尤其多 需求/困难 整合同一文档不同句子间的信息处理句间实体复杂的交互 2.相关工作 文档级别关系抽取 结论&#xff1a; 实体mention之间的交互促进推理过程&#xff08;文档级关系抽…

孤独的宇宙中,人类是个例外吗?

© Movie Content Plus来源&#xff1a;人工智能学家利维坦按&#xff1a;爱因斯坦曾说&#xff0c;“宇宙的永恒之谜在于其可理解性&#xff0c;宇宙能被理解是个奇迹。”不过&#xff0c;就可理解性&#xff08;comprehensibility&#xff09;来说&#xff0c;该如何定义…

红杉资本谈生成式AI:预计AI的杀手级应用将出现,比赛正在进行

来源&#xff1a;硅发布13年前&#xff0c;我采访Wolfram|Alpha的创始人、美国计算机科学家史蒂芬.沃尔弗拉姆时&#xff0c;大吃一惊。当时Wolfram|Alpha刚推出&#xff0c;使命是&#xff1a;让每一个人都可以在搜索引擎里搜出计算机计算的结果。比如说&#xff0c;输入"…

Transformer and set Trasformer

1.Transformer multihead attention block:MAB(X,Y)LayerNorm(HrFF(H))HLayerNorm(Xmultihead(X,Y,Y;ω)MAB(X,Y)LayerNorm(HrFF(H))\\ HLayerNorm(Xmultihead(X,Y,Y;\omega)MAB(X,Y)LayerNorm(HrFF(H))HLayerNorm(Xmultihead(X,Y,Y;ω) * Attention:Att(Q,K,Vl;ω)ω(QKT)VAtt…

「图神经网络复杂图挖掘」 的研究进展

来源&#xff1a;专知图神经网络对非欧式空间数据建立了深度学习框架,相比传统网络表示学习模型,它对图结构能够实施更加深层的信息聚合操作.近年来,图神经网络完成了向复杂图结构的迁移,诞生了一系列基于复杂图的图神经网络模型. 然而,现有综述文章缺乏对复杂图神经网络全面、…

知识复习:nlp算法面试汇总

文章目录2.相似度3.正则化3.1 L13.2 过拟合和欠拟合3.2.1 dropout3.3 欠拟合4. 激活函数4.1 sigmoid5.Bert5.1 Bert原版5.1.2 bert的训练5.2改进5.2.1缺点改进5.2.2任务改进5.3 参数量5.3 transformer5.3.1 多头注意力机制6.搜索6.1pagerank6.2 文本匹配7.神经网络基础7.1Norm7…

光子深度学习:编码到光波上的机器学习模型的组件

编辑 | 萝卜皮由于功率、处理和内存的限制&#xff0c;高级机器学习模型目前无法在智能传感器和无人机等边缘设备上运行。麻省理工学院的研究人员介绍了一种基于跨网络的离域模拟处理的机器学习推理方法。在这种被称为 Netcast 的方法中&#xff0c;基于云的「智能收发器」将重…

【实体对齐·综述】A Benchmarking Study of Embedding-based Entity Alignment for Knowledge Graphs

文章目录模板的简述简述1.Introduction2. preliminatries2.1 literature review2.1.1 knowledge graph embedding2.1.2 Conventional Entity Alignment2.1.3 embedding-based entity alignment2.2 Categorization of Techniques2.2.1 Embedding Module2.2.1.1 关系嵌入2.2.1.2 …

深度学习优化背后包含哪些数学知识?

来源&#xff1a;图灵人工智能深度学习中的优化是一项极度复杂的任务&#xff0c;本文是一份基础指南&#xff0c;旨在从数学的角度深入解读优化器。深度学习中的优化是一项极度复杂的任务&#xff0c;本文是一份基础指南&#xff0c;旨在从数学的角度深入解读优化器。一般而言…

2022 剑桥 AI 全景报告出炉:扩散模型是风口,中国论文数量为美国的 4.5 倍

来源&#xff1a;FUTURE远见选编&#xff1a;FUTURE | 远见 闵青云 文&#xff1a;AI科技评论 近日&#xff0c;剑桥大学的2022年 AI 全景报告&#xff08;《State of AI Report 》&#xff09;出炉&#xff01;报告汇总和聚焦了过去一年里 AI 行业中炙手可热的事件&#xff0c…

实体对齐汇总

文章目录1.综述2.技术论文3.汇总3.1定义定义统一EA3.2 评价指标3.3 数据集3.4 数据预处理技术3.5 索引3.6 对齐3.6.1 按属性相似度/文本相似度做&#xff1a;成对实体对齐3.6.2 协同对齐&#xff1a;考虑不同实体间的关联3.6.2.1 局部实体对齐3.6.2.2 全局实体对齐3.6.3 基于em…

博后出站即任985教授!他致力于寻找人类五感世界的最后一块拼图

来源&#xff1a;iNature两年前&#xff0c;闫致强从底蕴深厚的复旦大学生命科学学院“跳”到尚处于新生期的深圳湾实验室&#xff0c;“蜗居”在一栋商业大楼里&#xff0c;和团队在这里寻找人类感知世界的最后一块拼图。在亚里士多德定义的五种感官中&#xff0c;介导嗅觉、味…

【实体对齐·BootEA】Bootstrapping Entity Alignment with Knowledge Graph Embedding

文章目录0.总结1.动机2. 贡献方法3.应用场景4.其他模型5.数据集6.效果以下的是组内比较BootEA: “Bootstrapping Entity Alignment with Knowledge Graph Embedding”.Zequn Sun, Wei Hu, Qingheng Zhang, Yuzhong Qu. (IJCAI 2018) [ paper][ code]0.总结 BootEA笔记 BootE…

一项人工智能、化学和分子机器人的交叉研究,加速创新和药物发现,并简化复杂的化学过程自动化...

编辑 | 萝卜皮深入了解各类化学物质的最佳一般反应条件&#xff0c;可以加速创新和药物发现&#xff0c;并使复杂的化学过程自动化且易于使用&#xff0c;对生物医药、材料研究具有重要意义。然而&#xff0c;有机反应的一般条件很重要但很少见&#xff0c;以往识别它们的研究通…

【实体对齐·综述】An Experimental Study of State-of-the-Art Entity Alignment Approaches

文章目录0.总结1.Introduction2.Preliminaries2.2 Scope and Related work2.2.1 Entity Linkingentity disambiguation2.2.2 Entity resolutionentity matchingdeduplicationrecord linkage2.2.3 Entity resolution on KGs2.2.4 EA3.general框架3.1 Embedding Learning Module3…

汽车生产线上的工业机器人是如何工作的?

来源&#xff1a;宝石部落 责任编辑&#xff1a;朱光明 审核人&#xff1a;王颖十年来&#xff0c;随着机器人在制造业的普遍应用&#xff0c;我国工业机器人产业规模快速增长。2021年&#xff0c;我国工业机器人产量达36.6万台&#xff0c;比2015年增长了10倍&#xff0c;市场…