论文学习16-Going out on a limb: without Dependency Trees(联合实体关系抽取2017)

文章目录

  • abstract
  • 1. Introduction
  • 2. 相关工作
  • 3. Model
    • 3.1 Multi-layer Bi-directional Recurrent Network
    • 3.2实体检测
    • 3.3 attention model
    • 3.4 关系检测
    • 3.5双向编码
  • 4.训练
  • 5.实验
    • 5.2 evaluation metrics
    • 5.3 基线和以前的模型
    • 5.4 超参数
  • 6.结果

Katiyar, A. and C. Cardie (2017). Going out on a limb: Joint extraction of entity mentions and relations without dependency trees. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers).

abstract

提出了一种新的基于注意的递归神经网络,用于联合提取实体提及度和关系。我们证明了注意力和长短时记忆(LSTM)网络可以在不访问依赖树的情况下提取实体提及之间的语义关系。在自动内容提取(ACE)语料库上的实验表明,我们的模型显著优于Li和Ji(2014)基于特征的联合模型。我们还将我们的模型与Miwa和Bansal(2016)的基于端到端树的LSTM模型(SPTree)进行了比较,结果表明我们的模型在实体提及率1%和关系率2%的范围内运行。我们的细粒度分析还表明,我们的模型在代理工件关系上表现得更好,而SPTree在物理和部分整体关系上表现得更好。

  • 一种新的基于注意的递归神经网络
  • l联合抽取
  • 无依赖树

1. Introduction

  • 联合模型的性能优于管道模型,因为类型化关系的知识可以增加模型对实体提取的信心,反之亦然

递归网络(RNNs) (Elman, 1990)最近成为非常流行的序列标记任务,如涉及一组连续令牌的实体提取。然而,它们识别序列中不相邻的标记(如两个实体的头名词)之间关系的能力却很少被研究。对于这些任务,使用树结构的rns被认为是更合适的。例如,Miwa和Bansal(2016)提出了一个由基于序列的长短时记忆(LSTM)和一个独立的基于树的依赖LSTM层组成的RNN来进行实体识别,并使用两个组件之间的共享参数进行关系分类。因此,他们的模型严重依赖于对依赖树的访问,将其限制在句子层次提取和存在(好的)依赖解析器的语言。而且,他们的模型并不共同提取实体和关系;它们首先提取所有实体,然后对句子中所有对实体进行关系分类。

  • 不相邻的标记之间的关系—用树结构的RNNs

在我们之前的工作(Katiyar和Cardie, 2016)中,我们在意见提取上下文中处理了相同的任务。我们基于lstm的公式明确地将实体头部之间的距离编码为意见关系标签。我们的模型的输出空间是实体和关系标签集大小的平方,我们没有明确地标识关系类型。不幸的是,添加关系类型使得输出标签空间非常稀疏,使得模型很难学习。

  • 本文:a novel RNN-based model,无树

与其他模型不同,我们的模型不依赖于任何依赖树信息。我们的基于rnn的模型是一个序列上的多层双向LSTM。我们从左到右对输出序列进行编码。在每个时间步上,我们在前面解码的时间步上使用一个类似于注意的模型,来标识与当前令牌具有指定关系的令牌。我们还在网络中添加了一个额外的层来对从右到左的输出序列进行编码,并发现使用双向编码对关系识别的性能有了显著的改进。
我们的模型显著优于Li和Ji(2014)的基于特征的结构化感知器模型,在ACE05数据集的实体和关系提取上都有了改进。与Miwa和Bansal(2016)的基于依赖树的LSTM模型相比,我们的模型对ACE05数据集的实体和关系的处理效率分别为1%和2%。我们还发现,我们的模型在AGENT-ARTIFACT关系上的表现明显好于基于树的模型,而他们的基于树的模型在物理和部分-整体关系上的表现更好;这两个模型在所有其他关系类型上的表现是比较的。我们的非树模型极具竞争力的性能对于在缺乏良好解析器的低资源语言中提取非相邻实体的关系来说是个好兆头。

2. 相关工作

RNNs (Hochreiter and Schmidhuber, 1997)最近被应用于许多顺序建模和预测任务,如机器翻译(Bahdanau et al., 2015;Sutskever等,2014),命名实体识别(NER) (Hammerton, 2003),意见挖掘(Irsoy and Cardie, 2014)。已经发现,在LSTMs上添加crf样目标等变体可以在多个序列预测NLP任务中产生最新的结果(Collobert et al., 2011;黄等,2015;Katiyar和Cardie, 2016)。这些模型在输出层假设条件独立,我们不假设条件独立在输出层,允许它对输出序列上的任意分布建模。

  • RNN+crf–效果更好
  • 以前都假设条件独立,我们不假设输出层条件独立,允许它对输出序列上的任意分布建模。

关系分类作为一个独立的任务被广泛研究,假设关系的参数是预先知道的。已经提出了几种模型,包括基于特征的模型(Bunescu和Mooney, 2005;和基于神经网络的模型(Socher et al., 2012;dos Santos等人,2015;桥本等人,2015;徐等,2015a,b)。
联合提取实体和关系,基于特征的结构化预测模型(Li and Ji, 2014;Miwa和Sasaki, 2014),联合推理整数线性规划模型(Yih和Roth, 2007;Yang和Cardie, 2013),卡片金字塔解析(Kate和Mooney, 2010)和概率图形模型(Yu和Lam, 2010;(Singh et al., 2013)已经被提出。与此相反,我们提出了一种不依赖于诸如词性(POS)标签、依赖树等任何特征的可用性的神经网络模型。

  • 本文:我们提出了一种不依赖于诸如词性(POS)标签、依赖树等任何特征的可用性的神经网络模型

最近,Miwa和Bansal(2016)提出了一种基于端到端的LSTM序列和树结构模型。它们通过序列层提取实体,通过最短路径依赖树网络提取实体之间的关系。在本文中,我们尝试研究递归神经网络,在不使用任何依赖解析树特征的情况下提取实体提及之间的语义关系。我们还提出了第一个基于神经网络的联合模型,该模型可以提取实体提及和关系以及关系类型。在我们之前的工作(Katiyar和Cardie, 2016)中,如前所述,我们提出了一个基于lstm的模型来联合提取意见实体和关系,但是没有关联类型。由于输出空间变得稀疏,使得模型难以学习,因此不能直接扩展该模型以包含关系类型。
递归神经网络的最新进展是将注意力应用于递归神经网络,以获得序列模型中令牌的重要性加权的表示。这些模型在问答任务中被频繁使用(最近的例子见Chen et al.(2016)和Lee et al.(2016)),机器翻译(Luong et al., 2015;以及许多其他NLP应用。指针网络(Vinyals et al., 2015)是注意力模型的一种适应,使用这些标记级权重作为指向输入元素的指针。例如,Zhai et al.(2017)将这些用于神经分块,Nallapati et al.(2016)和Cheng and Lapata(2016)用于总结。然而,就我们所知,这些网络还没有被用来联合提取实体提及和关系。我们首先尝试使用这些带有递归神经网络的注意模型来联合提取实体提及和关系。

3. Model

该模型由一个多层的双向递归网络构成,它学习序列中每个令牌的表示。我们使用来自顶层的隐藏表示来进行联合实体和关系提取。对于序列中的每个标记,我们输出一个实体标记和一个关系标记。实体标记对应于实体类型,而关系标记是指向相关实体及其各自关系类型的指针的元组。图1显示了来自数据集的一个示例句子的注释。我们将关系标记从实体级转换为令牌级。例如,我们为独立电视新闻实体中的每个令牌分别建模关系ORG-AFF。因此,我们分别模拟ITV和Martin Geissler, News和Martin Geissler之间的关系。为了找到每个令牌的关系标记,我们在序列层的顶部使用了一个类似指针的网络,如图2所示。在每个时间步骤中,网络利用前一个时间步骤中所有输出标记的可用信息来联合输出当前令牌的实体标记和关系标记。

  • 多层,双向RNN
    • 学习序列每个token的表示,然后用这个来进行联合实体和关系抽取
  • 为了找到每个token的关系标记
    • 使用类似指针的网络

3.1 Multi-layer Bi-directional Recurrent Network

  • 多层LSTMs,双向
    • 我们使用多层双向lstm进行序列标记,因为lstm更能够捕获令牌之间的长期依赖关系,这使得它非常适合实体提及和关系抽取。
    • xtl=[h→t−1l−1,h←t−1l−1]x_t^l=[\stackrel{\rightarrow}{h}_{t-1}^{l-1},\stackrel{\leftarrow}{h}_{t-1}^{l-1} ]xtl=[ht1l1ht1l1]
      在这里插入图片描述
  • 最终的隐层表示
    在这里插入图片描述

3.2实体检测

  • BILOU,序列标注任务
  • yt=softmax(Uzt′+b)y_t=softmax(Uz_t'+b)yt=softmax(Uzt+b)—找到最有可能的输出标签

我们的网络结构如图2所示,也包含了从前一个时间步骤的输出yt-1到当前顶层隐藏层的连接。因此,我们的产出并不是有条件地相互独立的。为了添加来自yt-1的连接,我们将这个输出k转换为一个嵌入bt−1kb^k_{t-1}bt1k的标签。(我们还可以使用前一个时间步骤的关系标签输出来添加关系标签嵌入。)我们表示每种标签类型k用一个密度表示bkb^kbk
在这里插入图片描述
在这里插入图片描述

  • 我们用贪婪的方式从左向右来解码输出序列

3.3 attention model

  • 关系抽取:attention model

我们使用注意模型进行关系提取。注意模型,在一个编码序列的表示z上,可以在这些学习的表示上计算一个软概率分布p,其中di是解码序列中的第i个标记。这些概率表示编码器序列中不同令牌的重要性:
在这里插入图片描述

  • v是attention scores
    • v是注意力的权重矩阵,它将隐藏的表征转化为注意力得分。

我们在我们的方法中使用了指针网络(Vinyals等人,2015),这是这些注意力模型的变体。指针网络将这些pi t解释为指向输入t的指针,表示在输入编码序列上的概率分布,并使用ui元素。我们可以使用这些指针来对当前令牌和之前预测的令牌之间的关系进行编码,使其适合于关系提取,如3.4节所述。

3.4 关系检测

在这里插入图片描述

  • 看做序列标注任务

我们还将关系提取描述为一个序列标记任务。对于每个令牌,我们希望找到与当前令牌相关的过去令牌及其关系类型。在图1中,“Safwan”通过关系类型“PHYS”与令牌“Martin”以及“Geissler”相关联。为简单起见,我们假设只有一个以前的令牌与当前的令牌在训练时相关,即,“Safwan”和“Geissler”是通过物理关系联系在一起的。我们可以扩展我们的方法来输出多个关系,如第4节所述。
使用3.3的pointer network。在每个时间步,我们堆栈顶部隐藏层表示从以前的时间步骤z<= t 及其相应的标签嵌入b<= t。我们只压栈顶部的令牌被预测为隐层表示non-O‘s之前的时间步骤如图2所示。我们在t时刻的译码表示是zt和bt的拼接,注意概率可以计算如下

在这里插入图片描述

  • p对应到目前为止序列中每个令牌在第t步与当前令牌相关的概率。对于没有关系的情况,t时刻的令牌与自身相关。

我们还想找出关系的类型。为了实现这一点,我们向v添加了一个额外的维度,该维度与关系类型R空间的大小相对应。因此,ui t不再是一个分数,而是一个R维向量。然后我们对这个大小为O(|z≤t|×R)的向量取softmax,以找到指向相关实体及其关系类型的最可能的指针元组。

3.5双向编码

  • biLSTMs比单向更好地获取上下文
  • –>在输出层双向编码
  • bi-LSTM+另一个隐层,对从右到左的输出序列编码–>实体标记和关系标记

基于它们在各种NLP任务上的性能(Irsoy和Cardie, 2014),双向lstm被发现能够比普通的从左到右lstm更好地捕获上下文。此外,Sutskever等(2014)发现,在训练过程中,他们在机器翻译任务中的表现随着输入句子的倒排而提高。受这些开发的启发,我们在输出层试验了双向编码。我们在图2的Bi-LSTM上添加了另一个顶层隐藏层,它对从右到左的输出序列进行编码。除了顶层隐藏层外,这两种编码共享相同的多层双向LSTM。因此,我们的网络中有两个输出层,分别输出实体标记和关系标记。在推理时,我们使用启发式来合并两个方向的输出。

4.训练

我们通过最大化正确实体E和关系R标签序列的logprobability来训练我们的网络
在这里插入图片描述

我们可以将目标分解为实体序列和关系序列的对数概率和。我们在培训时使用黄金实体标签。如图2所示,在当前时间步长中,我们将之前的时间步长嵌入到顶层隐藏层的标签与其他循环输入一起输入。在训练过程中,我们将金标签嵌入到下一个时间步中,这使得我们的模型能够得到更好的训练。但是,在测试时,当gold标签不可用时,我们使用先前时间步骤的预测标签作为当前步骤的输入。
因为,我们添加了另一个顶层,按照章节3.5中解释的相反顺序对标记序列进行编码,所以输出中可能会有冲突。我们选择了与Miwa和Bansal(2016)类似的积极和更自信的标签。

  • 贪婪解码
    在这里插入图片描述

我们提取关系的方法不同于Miwa和Bansal(2016)。Miwa和Bansal(2016)将每一对实体提交到其关系分类模型中。在我们的方法中,我们使用指针网络来标识相关实体。因此,对于目前所描述的方法,如果我们只计算目标上的argmax,那么我们将模型限制为每个标记只输出一个关系标签。但是,从我们对数据集的分析来看,一个实体可能与句子中的多个实体相关。因此,我们修改目标以包含多个关系。在图2中,令牌Safwan与实体Martin Geissler的令牌Martin和Geissler都相关,因此我们将概率赋值为0.5送给这两个token。这可以很容易地扩展为包含来自其他相关实体的令牌,这样我们就可以分配相等的概率1/N到所有tokens.取决于这些相关令牌的数量N。

  • 实体部分的log-probability与我们在第4节中讨论的目标相同,但是我们将关系log-probability修改如下
    在这里插入图片描述

  • ri’系数,因此使用交叉熵目标函数

  • 我们也可以使用Sparsemax (Martins and Astudillo, 2016)来代替softmax,后者更适合于稀疏分布。然而,我们把它留给未来的工作。

  • 在推理时,我们输出所有概率值超过一定阈值的标签。我们根据验证集调整这个阈值。

5.实验

5.2 evaluation metrics

为了将我们的系统与之前的系统进行比较,我们报告了与Li和Ji(2014)以及Miwa和Bansal(2016)类似的实体和关系的微观f1分数、精确度和召回率。如果我们能正确识别实体的头部和实体类型,则认为实体是正确的。如果我们能够识别参数实体的头部和关系类型,则关系被认为是正确的。当参数实体和关系都正确时,我们也报告一个合并的分数。

5.3 基线和以前的模型

我们将我们的方法与前面的两种方法进行比较。Li和Ji(2014)提出的模型是一种基于特征的结构化感知器模型,具有高效的波束搜索。他们使用基于分段的译码器而不是基于符号的译码器。他们的模型比之前最先进的流水线模型要好。Miwa和Sasaki (2014) (SPTree)最近提出了一个基于lstm的模型,其中包含一个用于实体识别的序列层,以及一个基于树的依赖层,该依赖层使用候选实体之间的最短依赖路径来识别候选实体对之间的关系。我们还使用了之前的方法(Katiyar和Cardie, 2016)来提取意见实体和与此任务的关系。我们发现,与上面提到的两种方法相比,这种方法的性能并不具有竞争力,在关系上的性能降低了10个百分点。因此,我们不包括表1中的结果。Li和Ji(2014)也表明,联合模型的性能优于流水线方法。因此,我们不包括任何管道基线。

5.4 超参数

使用300维word2vec (Mikolov et al., 2013)对谷歌新闻数据集进行单词嵌入训练。我们的网络中有3个隐藏层,隐藏单元的维度是100。网络中的所有权值都是由小的随机均匀噪声初始化的。我们基于ACE05开发集调整超参数,并使用它们对ACE04数据集进行培训。

6.结果

  • 我们的联合模型在实体和关系上都显著优于联合结构化感知器模型(Li和Ji, 2014),尽管还缺乏依赖树、POS标签等特性。然而,如果我们将我们的模型与SPTree模型进行比较,我们会发现它们的模型在实体和关系上有更好的回忆。
  • 我们发现将目标修改为包含多个关系可以提高系统对关系的回忆,从而略微提高系统的整体性能。但是,仔细调整阈值可以进一步提高精度。
  • 双向编码很有用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481563.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

困局中的英伟达:进一步是鲜花,退一步是悬崖

来源&#xff1a; AI前线整理&#xff1a;王强、冬梅看看最近几个月的股价&#xff0c;英伟达的投资者肯定不怎么开心&#xff1a;但如果把时间拉长到 5 年&#xff0c;我们看到的故事似乎又不一样了&#xff1a;2020 年底显然是是一个转折点。很多游戏玩家还清楚地记得&#x…

论文学习17-Global Normalization of Convolutional Neural Networks(联合实体关系抽取CNN+CRF)2017

文章目录abstract1.Introduction2.相关工作3.Model全局归一化层&#xff08;使用线性链CRF)4.实验和分析4.3实验结果总结Adel, H. and H. Schtze “Global Normalization of Convolutional Neural Networks for Joint Entity and Relation Classification.”abstract CNNCRF&g…

特斯拉AI日点不燃仿人机器人的市场热情

来源&#xff1a;科技智谷编辑&#xff1a;Light"仿人机器人的巨大市场蓝海能否兑现&#xff0c;核心还要看产品量产和成本控制。近期&#xff0c;沉寂已久的仿人机器人市场终于迎来了它的“春晚”——特斯拉AI日。根据外媒报道&#xff0c;在9月30日&#xff08;北京时间…

LSTM(序列标注,自实现)

文章目录1.LSTM1.1 单独计算单层LSTM-cell单层LSTMBPTT2.序列标注使用pytorch实现序列标注自实现lstmimport torchimport torch.nn as nndef prepare_sequence(seq, to_ix):idxs [to_ix[w] for w in seq]return torch.tensor(idxs, dtypetorch.long)training_data [("Th…

Science最新:Jeff Gore团队揭示复杂生态系统中涌现的相变

来源&#xff1a;集智俱乐部作者&#xff1a;胡脊梁编辑&#xff1a;邓一雪导语生态学致力于理解自然生态系统中的多样化的物种和复杂的动力学行为&#xff0c;然而科学家长期缺乏描述和预测生物多样性和生态动力学的统一框架。MIT物理系的胡脊梁和Jeff Gore等科学家结合理论和…

强化学习发现矩阵乘法算法,DeepMind再登Nature封面推出AlphaTensor

来源&#xff1a;机器之心 微信公众号DeepMind 的 Alpha 系列 AI 智能体家族又多了一个成员——AlphaTensor&#xff0c;这次是用来发现算法。数千年来&#xff0c;算法一直在帮助数学家们进行基本运算。早在很久之前&#xff0c;古埃及人就发明了一种不需要乘法表就能将两个数…

论文学习18-Relation extraction and the influence of automatic named-entity recognition(联合实体关系抽取模型,2007)

文章目录abstract1.introduction3.问题形式化4.系统架构5. 命名实体识别6.关系抽取&#xff08;核方法&#xff09;6.1global context kernel6.2 local context kernel6.3 shallow linguistic kernel7实验Giuliano, C., et al. “Relation extraction and the influence of aut…

Nature:进化新方式?线粒体DNA会插入我们的基因组

来源&#xff1a;生物通科学家们惊讶地发现&#xff0c;每4000个新生儿中就有一个会将线粒体中的一些遗传密码插入到我们的DNA中&#xff0c;这为人类的进化方式提供了新见解。剑桥大学和伦敦玛丽女王大学的研究人员表明&#xff0c;线粒体DNA也会出现在一些癌症DNA中&#xff…

论文学习19-Structured prediction models for RNN based sequence labeling in clinical text(LSTM_CRF,2016)

文章目录abstract1. Introduction2.相关工作3.方法3.1 Bi-LSTM (baseline)3.2BiLSTMCRF3.3 BiLSTM_CRF with pairwise modeling3.4 Approximate Skip-chain CRF5.实验Jagannatha, A. and H. Yu “Structured prediction models for RNN based sequence labeling in clinical te…

「深度学习表情动作单元识别」 最新2022研究综述

来源&#xff1a;专知基于深度学习的表情动作单元识别是计算机视觉与情感计算领域的热点课题.每个动作单元描述了一种人脸局部表情动作&#xff0c;其组合可定量地表示任意表情.当前动作单元识别主要面临标签稀缺、特征难捕捉和标签不均衡3个挑战因素. 基于此&#xff0c;本文将…

为什么物理诺奖颁给量子信息科学?——量子信息的过去、现在和未来

导语10月4日&#xff0c;2022年诺贝尔物理学奖授予 Alain Aspect, John F. Clauser 和 Anton Zeilinger&#xff0c;表彰他们“用纠缠光子实验&#xff0c;验证了量子力学违反贝尔不等式&#xff0c;开创了量子信息科学”。他们的研究为基于量子信息的新技术奠定了基础&#xf…

论文学习20-End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF(序列标注,2016ACL

文章目录abstract1.introduction2.Architecture2.1 CNN for Character-level Representation2.2 BiLSTM2.2.1 LSTM单元2.2.2BiLSTM2.3CRF2.4BiLSTM-CNNs-CRF3.训练Ma, X. and E. Hovy “End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF.”abstract 最先进的序列…

可溶解光开关利用光控制神经元

ISTOCK来源&#xff1a;IEEE电气电子工程师大约20年前&#xff0c;出现了一种称为光遗传学的策略&#xff0c;用激光控制大脑活动。它利用病毒将基因插入细胞&#xff0c;使其对光敏感。光遗传学给研究人员提供了一种精确的方法来刺激或抑制大脑回路&#xff0c;并阐明它们在大…

生成式AI无敌了: 大神微调Stable Diffusion,打造神奇宝贝新世界

来源&#xff1a;大数据文摘授权转载自AI科技评论作者&#xff1a;李梅、施方圆编辑&#xff1a;陈彩娴作为一个强大、公开且足够简单的模型&#xff0c;最近大火的 Stable Diffusion 在文本生成图像之外&#xff0c;给了大家无限的创作可能性。最近&#xff0c;来自 Lambda La…

论文学习21-Globally Normalized Transition-Based Neural Networks(2016,标签偏差问题

文章目录abstract1.introduction2.Model2.1 Transition System2.2 全局和局部归一化3.训练3.2标签偏差问题abstract 介绍了一种基于全局规范化转换的神经网络模型&#xff0c;该模型实现了最先进的词性标注、依存分析和句子压缩结果。我们的模型是一个简单的前馈神经网络&#…

推翻单一干细胞理论:哺乳动物大脑中发现了第二种干细胞

来源&#xff1a;生物通在成年哺乳动物的大脑中&#xff0c;神经干细胞保证了新的神经细胞&#xff0c;即神经元的不断形成。这个过程被称为成年神经发生&#xff0c;帮助鼠维持它们的嗅觉。一个研究小组最近在鼠大脑中发现了第二种干细胞群&#xff0c;它主要参与成年鼠嗅球中…

论文阅读课1-Attention Guided Graph Convolutional Networks for Relation Extraction(关系抽取,图卷积,ACL2019,n元)

文章目录abstract1.introduction1.1 dense connectionGCN1.2 效果突出1.3 contribution2.Attention Guided GCNs2.1 GCNs2.2 Attention Guided Layer2.3 Densely Connected Layer2.4 线性层2.5 AGGCN for RE3.实验3.1 数据集3.2 设置3.3 n-ary3.4 句子级4.ablation Study4.相关…

Nat. Rev. Genet. | 通过可解释人工智能从深度学习中获得遗传学见解

编译 | 沈祥振审稿 | 夏忻焱今天为大家介绍的是来自Maxwell W. Libbrecht&#xff0c;Wyeth W. Wasserman和Sara Mostafavi的一篇关于人工智能对于基因组学的可解释性的研究的综述。基于深度学习的人工智能&#xff08;AI&#xff09;模型现在代表了基因组学研究中进行功能预测…

复杂系统的逆向工程——通过时间序列重构复杂网络和动力学

导语蛋白质相互作用网络、生态群落、全球气候系统……很多复杂系统都可以抽象为一个相互作用的网络和其上的动力学。传统的研究主要关注在如何构建网络动力学模型&#xff0c;从而产生和实验观测数据具有相似统计特征的结果。所谓的复杂系统逆向工程&#xff0c;就是反其道而行…

关系提取论文总结

文章目录1.模型总结1.1 基于序列的方法1.2 dependency-based&#xff08;基于依赖的&#xff09;(有图&#xff09;1.2.2 句间关系抽取1.5 自动学习特征的方法1.4 联合抽取模型1.6 RNN/CNN/GCN用于关系提取1.7 远程监督1.8句子级关系提取1.9MCR&#xff08;阅读理解&#xff09…