ContEA阅读笔记

Facing Changes: Continual Entity Alignment for Growing Knowledge Graphs

面对变化:不断增长的知识图谱的持续实体对齐

Abstract

实体对齐是知识图谱(KG)集成中一项基本且重要的技术。多年来,实体对齐的研究一直基于知识图谱是静态的假设,忽略了现实世界知识图谱增长的本质。随着知识图谱的增长,之前的对齐结果需要重新审视,同时新的实体对齐等待被发现。在本文中,我们提出并深入研究了一个现实但尚未探索的环境,称为持续实体对齐。为了避免每当新实体和三元组出现时在整个 KG 上重新训练整个模型,我们为此任务提出了一种持续对齐方法。它根据实体邻接关系重建实体的表示,使其能够使用现有邻居快速、归纳地生成新实体的嵌入。它选择并重放部分预对齐的实体对,以仅训练部分知识图谱,同时提取值得信赖的对齐以增强知识。由于不断增长的知识图谱不可避免地包含不可匹配的实体,与以前的工作不同,该方法采用双向最近邻匹配来找到新的实体对齐并更新旧的对齐。此外,我们还通过模拟多语言 DBpedia 的增长来构建新的数据集。大量的实验表明,我们的持续对齐方法比基于再训练或归纳学习的基线更有效。

1 Introduction

现有的基于嵌入的实体对齐方法假设了静态知识图谱的理想化场景,忽略了许多现实世界的困难,例如对齐不完整、知识图谱增长和对齐增长。在本文中,提出并研究了一种新的设置,即不断增长的知识图谱和不完整的知识图谱之间的持续实体对齐。

真实场景对基于嵌入的实体对齐提出了新的挑战:

  1. 第一个挑战是如何以有效且高效的方式学习新实体的嵌入。当知识图谱增长时,预训练的实体对齐模型第一次看到新的实体,因为新的三元组给知识图谱带来了结构变化。因此,需要对预训练模型进行重要更新以合并新实体和新三元组。
  2. 第二个挑战是如何捕捉新旧实体的潜在一致性。在实际情况中,知识图谱总是包含未知的不可匹配实体,这需要更可靠的对齐检索策略,而不是简单地对测试集中的候选者进行排名。此外,由于新实体通常链接很少,捕获新实体的潜在对齐变得更加困难。
  3. 第三个挑战是如何将旧的预测对齐与新的预测相结合。在本文中,每次 KG 增长时都会输出对齐结果。新旧对齐不可避免地会发生冲突。需要一个有效的整合策略来组合它们并更新最终的对齐方式。

为了解决这些挑战,提出了一种持续实体对齐方法 ContEA。关键想法是微调预训练模型以合并新实体和三元组,同时捕获潜在的实体对齐。具体来说,使用 Dual-AMN作为我们的基础编码器。为了使其能够有效地处理新实体,设计了一个实体重建目标,它允许编码器仅使用相邻子图来生成实体嵌入。为了从嵌入空间检索对齐,提出了一种双向最近邻搜索策略。当且仅当两个实体是彼此最近的邻居时,才预测它们是对齐的。当新的实体和三元组出现时,ContEA 根据变化的结构对预训练模型进行微调。为了捕获潜在的实体对齐,重放部分已知的对齐以避免知识遗忘并选择高置信度预测来增强知识。

2 Problem Statement

将 KG 定义为三元组 G = { E , R , T } \mathcal{G}=\{\mathcal{E},\mathcal{R},\mathcal{T}\} G={E,R,T},其中 E \mathcal E E R \mathcal R R分别表示实体和关系的集合。 T ⊆ E × R × E \mathcal{T}\subseteq\mathcal{E}\times\mathcal{R}\times\mathcal{E} TE×R×E 是关系三元组的集合。

定义1 不断增长的知识图((Growing knowledge graphs) 增长的知识图 G \mathcal G G 是一系列快照 G = ( G 0 , G 1 , … , G T ) \mathcal{G}=(\mathcal{G}^{0},\mathcal{G}^{1},\ldots,\mathcal{G}^{T}) G=(G0,G1,,GT),其中上标数字表示不同的时间戳。对于任意两个连续的时间戳 G t = { E t , R t , T t } \mathcal{G}^{t}=\{\mathcal{E}^{t},\mathcal{R}^{t},\mathcal{T}^{t}\} Gt={Et,Rt,Tt} G t + 1 = { E t + 1 , R t + 1 , T t + 1 } \mathcal G^{t+1} = \{\mathcal{E}^{t+1},\mathcal{R}^{t+1},\mathcal{T}^{t+1}\} Gt+1={Et+1,Rt+1,Tt+1},存在 E t ⊆ E t + 1 \mathcal{E}^{t}\subseteq\mathcal{E}^{t+1} EtEt+1, R t ⊆ R t + 1 \mathcal{R}^{t}\subseteq\mathcal{R}^{t+1} RtRt+1 T t ⊆ T t + 1 \mathcal{T}^{t}\subseteq\mathcal{T}^{t+1} TtTt+1

在此定义中,在 t t t t + 1 t + 1 t+1 之间的 Δ T t + 1 \Delta\mathcal{T}^{\mathrm{t}+1} ΔTt+1中每个新添加的三元组包含零个、一个或两个新实体。考虑到知识图谱中的关系集远不如实体的多样化,我们在本文中忽略了新关系的出现,并假设知识图谱中的关系是预先定义的。

定义 2 持续实体对齐(Continual entity alignment) 给定两个不断增长的知识图 G 1 \mathcal G_1 G1 G 2 \mathcal G_2 G2,以及种子实体对齐 A s \mathcal A_s As 在时间 t = 0 t = 0 t=0 时,在时间 t t t 的连续实体对齐旨在基于当前学习的 KG 嵌入和对齐模型在 G 1 t \mathcal G^t_1 G1t G 2 t \mathcal G^t_2 G2t 之间找到潜在的实体对齐 A p t \mathcal A^t_p Apt

在此定义中, A s \mathcal A_s As的大小是恒定的,而 A p t \mathcal A^t_p Apt随着时间的推移而增长,因为新实体可能会发现新的实体对齐。考虑到种子实体对齐通常是有缺陷且难以获得的,我们不假设新快照带来新的种子对齐来增强训练数据。也就是说 t > 0 t > 0 t>0 时刻的快照 A s \mathcal A_s As t = 0 t = 0 t=0 时刻的快照 A s \mathcal A_s As 相同。

3 Methodology

image-20240423220242058

由两个模块组成:基于子图的实体对齐(Subgraph-based Entity Alignment)模块以及嵌入和对齐更新(Embedding and Alignment Update)模块。

3.1 Subgraph-based Entity Alignment

该模块基于 GNN构建,GNN通过聚合其邻域子图来表示实体。GNN背后的关键假设是具有相似邻域的实体看起来很接近,这使得 GNN 可扩展以表示新实体。

子图编码器。 采用基于 GNN 的 Dual-AMN编码器作为子图编码器,因为它的有效性和简单性。 Dual-AMN的编码器由捕获单个KG内的结构信息的内图层(即 A g g r e g a t o r 1 Aggregator_1 Aggregator1)和基于 A g g r e g a t o r 1 Aggregator_1 Aggregator1的输出捕获跨图匹配信息的跨图层( A g g r e g a t o r 2 Aggregator_2 Aggregator2)组成。从技术上讲, A g g r e g a t o r 1 Aggregator_1 Aggregator1是一个 2 层关系感知 GNN, A g g r e g a t o r 2 Aggregator_2 Aggregator2是一个代理注意力网络,将实体与代理节点列表连接起来。总体而言,给定一个实体 e e e,其经过 Dual-AMN 编码后的表示为
Encoder ( e ) = Aggregator 2 ( Aggregator 1 ( e , N e ) , E proxy ) , \text{Encoder}(e)=\text{Aggregator}_2(\text{Aggregator}_1(e,\mathcal{N}_e),\mathcal{E}_{\text{proxy}}), Encoder(e)=Aggregator2(Aggregator1(e,Ne),Eproxy),

其中 A g g r e g a t o r 1 ( ) Aggregator_1() Aggregator1() 聚合实体 e e e本身及其关系邻居 N e \mathcal N_e Ne 以生成其嵌入, A g g r e g a t o r 2 ( ) Aggregator_2() Aggregator2()将输出嵌入与代理节点 E p r o x y \mathcal E_{proxy} Eproxy 组合以生成实体的最终表示。

实体重建。 随着 KG 的增长,预训练的 GNN 编码器会遇到新的实体和三元组。关键的挑战是如何将看不见的实体合并到编码器中。随机初始化新实体的嵌入可能不利于之前优化的嵌入空间并导致表示不一致。基于嵌入的实体对齐的典型假设是,如果两个实体的邻域子图相似(即两个子图具有相似或预先对齐的实体),则两个实体相似。受此启发,提出了一个自监督学习目标,使编码器能够使用其邻域子图重建实体:
L reconstruct = ∑ e ∈ E ∥ e − 1 ∣ N e ∣ ∑ e ′ ∈ N e e ′ ∥ 2 2 . \mathcal{L}_{\text{reconstruct}}=\sum_{e\in\mathcal{E}}\left\|\mathbf{e}-\frac{1}{|\mathcal{N}_{e}|}\sum_{e'\in\mathcal{N}_{e}}\mathbf{e}'\right\|_{2}^{2}. Lreconstruct=eE eNe1eNee 22.

这里, N e \mathcal N_e Ne表示 e e e的一跳邻居集合。该目标最小化实体与其相邻子图嵌入(所有相邻嵌入的平均向量)之间的距离。

对齐学习。 给定编码器的输出,对齐学习的目的是收集相似的实体对并距离不相似的实体对。通过负采样对不同的实体对进行建模。继 Dual-AMN 之后,还采用 LogSumExp 函数来计算损失:
L a l i g n = log ⁡ [ 1 + ∑ ( e 1 , e 2 ) ∈ A s ∑ ( e 1 , e 2 ′ ) ∈ A e 1 n e g exp ⁡ ( γ ( λ + s i n ( e 1 , e 2 ) − s i m ( e 1 , e 2 ′ ) ) ) ] , \mathcal{L}_{\mathrm{align}}=\log\bigg[1+\sum_{(e_1,e_2)\in\mathcal{A}_s}\sum_{(e_1,e_2^{\prime})\in\mathcal{A}_{e_1}^{\mathrm{neg}}}\exp\big(\gamma(\lambda+\mathtt{s}\mathtt{in}(e_1,e_2)-\mathtt{s}\mathtt{im}(e_1,e_2^{\prime}))\big)\bigg], Lalign=log[1+(e1,e2)As(e1,e2)Ae1negexp(γ(λ+sin(e1,e2)sim(e1,e2)))],

其中 A e 1 n e g \mathcal{A}_{e_{1}}^{\mathrm{neg}} Ae1neg 表示为实体 e 1 e_1 e1生成的负对齐。 γ \gamma γ是比例因子, λ \lambda λ是用于分离种子对齐对和负对的相似性的余量。余弦用于计算嵌入相似度,即 sim ( e 1 , e 2 ) = cos ⁡ ( Encoder ( e 1 ) , Encoder ( e 2 ) \text{sim}(e_1,e_2)=\cos(\text{Encoder}(e_1),\text{Encoder}(e_2) sim(e1,e2)=cos(Encoder(e1),Encoder(e2)。我们采用批量负生成方法。具体来说,对于实体 e 1 e_1 e1,训练批次中的其他实体(例如 e 2 ′ e_2^\prime e2)充当其负对应物以生成负对 A e 1 n e g \mathcal{A}_{e_{1}}^{\mathrm{neg}} Ae1neg 。基于子图的实体对齐模块 L 1 \mathcal L_1 L1 的最终学习目标是 L a l i g n \mathcal L_{align} Lalign L r e c o n s t r u c t \mathcal L_{reconstruct} Lreconstruct的组合, L r e c o n s t r u c t \mathcal L_{reconstruct} Lreconstruct上的权重为 α \alpha α

L 1 = L align + α ⋅ L reconstruct . \mathcal{L}_1=\mathcal{L}_{\text{align}}+\alpha\cdot\mathcal{L}_{\text{reconstruct}}. L1=Lalign+αLreconstruct.

值得信赖的对齐搜索。 对齐学习完成后,根据优化的嵌入空间检索可信的实体对齐作为预测。之前基于嵌入的实体对齐方法假设一个 KG 中的每个实体必须在另一个 KG 中具有对应项。典型的推理过程是最近邻搜索,即它寻求
e ^ 2 = arg ⁡ min ⁡ e 2 ∈ E 2 π ( Encoder ( e 1 ) , Encoder ( e 2 ) ) , \hat{e}_2=\arg\min_{e_2\in\mathcal{E}_2}\pi(\text{Encoder}(e_1),\text{Encoder}(e_2)), e^2=arge2E2minπ(Encoder(e1),Encoder(e2)),

其中 π ( ) π() π() 是对齐搜索的度量, e ^ 2 \hat e_2 e^2 e 1 e_1 e1 的预测对应项。然而,这种“理想化”的假设在现实环境中可能并不成立,因为两个知识图谱中有许多不匹配的实体。为了解决这个问题并改进对齐搜索,提出了一种称为双向最近对齐搜索的无参数策略。它在一个 KG 中搜索另一个 KG 中实体的最近邻居。当且仅当 e 2 = e ^ 2 e_2 = \hat e_2 e2=e^2 e 1 = e ^ 1 e_1 = \hat e_1 e1=e^1 时,对齐对 ( e 1 , e 2 ) (e_1, e_2) (e1,e2) 才是值得信赖的对齐。其他对齐对被丢弃。

3.2 Embedding and Alignment Update

在时间 t > 0 t > 0 t>0 时,KG 的关系结构随着新三元组的出现而发生变化。它需要在捕获结构变化的同时为新实体生成嵌入。为了解决这一挑战,通过部分种子对齐和选定的可信对齐来微调 GNN 编码器和新实体嵌入。微调后,根据更新的模型和嵌入检索新的可信实体对齐。新的预测对齐用于使用启发式策略来完成和更新在时间 t − 1 t − 1 t1 发现的旧对齐。

编码器微调。 使用前一个模块/时间中学到的参数来初始化编码器。由于实体重建目标,编码器能够初始化新实体 e e e 的嵌入,如下所示:
Encoder ( e ) = Aggregator 2 ( Aggregator 1 ( MP ( N e ′ ) ) , E proxy ) \text{Encoder}(e)=\text{Aggregator}_2(\text{Aggregator}_1(\text{MP}(\mathcal{N}_e^{\prime})),\mathcal{E}_{\text{proxy}}) Encoder(e)=Aggregator2(Aggregator1(MP(Ne)),Eproxy)

其中 N e ′ \mathcal N_e^\prime Ne 表示新实体 e e e 的可见邻居。 M P ( ) MP() MP() 是使用 N e ′ \mathcal N_e^\prime Ne生成 e e e 嵌入的均值池化过程。

基于新实体和现有实体的输出嵌入,需要对 GNN 编码器进行微调。具体来说,冻结内图层 A g g r e g a t o r 1 Aggregator_1 Aggregator1,同时使跨图 A g g r e g a t o r 2 Aggregator_2 Aggregator2可学习。对于单个 KG,新数据的到来不会改变邻居聚合模式,因为 KG 的模式保持一致(没有新的关系或实体域)。但在所提出的场景中,两个 KG 独立且不对称地增长。需要对匹配网络进行微调,做出调整和新的发现。

对于训练数据,考虑到潜在的实体对齐更有可能发生在锚点附近,仅重播包含新三元组中涉及的锚点的受影响的种子实体对齐。这有助于新实体的协调,而这原本由于其程度低而很困难。此外,为了帮助对齐来自更广泛和更动态区域的实体,选择具有最高相似性分数的 t o p − m top-m topm 预测可信对齐,并将它们视为“新锚点”。

对获得的受影响种子对齐(简称 ASA)和 m m m 个选定的可信对齐(简称 TA)上的 GNN 编码器和新实体嵌入进行微调。对 m m m 个值得信赖的对齐的学习损失使用权重 β \beta β 来平衡其重要性。最终finetuning的损失函数 L 2 \mathcal L_2 L2

L 2 = L align ( A S A ) + α ⋅ L reconstruct + β ⋅ L align ( T A ) . \mathcal{L}_2=\mathcal{L}_{\text{align}}(ASA)+\alpha\cdot\mathcal{L}_{\text{reconstruct}}+\beta\cdot\mathcal{L}_{\text{align}}(TA). L2=Lalign(ASA)+αLreconstruct+βLalign(TA).

值得信赖的对齐更新。 微调后,可以使用更新的实体嵌入和模型检索一组新的可信对齐。有必要将其与先前发现的值得信赖的对齐方式结合起来,因为它们是从不同的快照中收集的,并且可以相互补充以产生更好的结果。在这里,采用启发式策略来整合它们,在两个新实体之间保持新的值得信赖的对齐。但对于导致对齐冲突与之前值得信赖的对齐(即一个实体与不同实体对齐)的新对齐,保留具有更高相似性分数的对齐,随着知识图谱的增长,可信实体对齐的规模不断累积。

3.3 Put It All Together

image-20240423222126939

第 1-3 行描述了时间 t = 0 时基于子图的实体对齐模块的过程。第 4-8 行描述了时间 t > 0 时嵌入和对齐更新模块的过程。

4 Experiments

4.1 New Datasets for Continual Entity Alignment

首先使用DBpedia中的语言间链接完成参考实体对齐,从而在第一个快照中产生超过15K的参考对齐对。然后,将参考实体对齐分为训练集、验证集和测试集(即 A s \mathcal A_s As A v \mathcal A_v Av A p 0 \mathcal A^0_p Ap0),比例为 2:1:7。构建五个快照来模拟 KG 的增长:

  • 在时间 t > 0 t > 0 t>0 时,首先从 DBpedia 收集包含 G 1 t − 1 \mathcal G^{t−1}_1 G1t1 G 2 t − 1 \mathcal G^{t−1}_2 G2t1中实体的关系三元组。然后,在这些三元组中,删除在时间 t − 1 t − 1 t1 时看到的三元组,并从剩余的三元组中采样新的三元组,其大小为先前快照中三元组的 20%。将新的三元组添加到 G 1 t − 1 \mathcal G^{t−1}_1 G1t1 G 2 t − 1 \mathcal G^{t−1}_2 G2t1 中,创建快照 G 1 t \mathcal G^{t}_1 G1t G 2 t \mathcal G^t_2 G2t
  • 然后,通过添加来自 DBpedia 的附加关系三元组来完成 G 1 t \mathcal G^{t}_1 G1t G 2 t \mathcal G^{t}_2 G2t,其中头实体和尾实体都在快照中,导致三元组大小增长超过 20%。
  • 最后,检索新添加的实体带来的新实体对齐对,并将它们添加到快照 t t t 的测试集 A p t \mathcal A^t_p Apt 中。训练集 A s \mathcal A_s As 或验证集 A v \mathcal A_v Av 仍然遵循时间 t = 0 t = 0 t=0 时第一个快照中的情况。不假设新快照引入新的训练数据,因为现实世界中获得新实体的种子对齐通常比为旧实体找到种子对齐更困难。

4.2 Baselines

将 ContEA 与两组实体对齐方法进行比较。

  • 再训练基线(Retraining baselines)。由于大多数现有的基于嵌入的 EA 方法都是为静态 KG 设计的,因此每次新的三元组出现时都需要重新训练。选择代表性的基于翻译的方法 MTransE,以及基于 GNN(GCN-Align、AlignE、AliNet、KEGCN、Dual-AMN)。
  • 归纳基线(Inductive baselines)。唯一关注 KG 增长的实体对齐方法是 DINGAL。选择变体之一 DINGAL-O 作为基线。此外,选择两种代表性的归纳式 KGE 方法 MEAN 和 LAN 作为实体表示层,并将它们与 Dual-AMN 结合起来(用 M E A N + MEAN^+ MEAN+ L A N + LAN^+ LAN+ 表示两个基线)。

4.3 Experiment Settings

评估指标: 准确率、召回率和 F1 分数

执行: 使用 PyTorch 实现 ContEA、Dual-AMN、 M E A N + MEAN^+ MEAN+ L A N + LAN^+ LAN+。对于其他再训练基线,使用开源库中的实现。为了公平比较,所有基线仅依赖 KG 的结构信息,不使用预训练模型进行初始化。

4.4 Results

Image

Image

Image

一般结果。 对构建的数据集进行了实验,结果如表 2、表 3 和表 4 所示。与基线相比,ContEA 在发现潜在实体对齐方面达到了最佳性能。

消融研究: 提出了三种变体,如下所示:

  • ContEA 不带 TA。在微调过程中,丢弃选定的可信实体对齐,仅对受影响的种子对齐进行训练。
  • ContEA 不含 TA 和 ASA。丢弃选定的可信对齐和受影响的种子对齐。因此,我们的方法不需要微调并简化为归纳方法。实体重建方法使用其邻居为新实体生成嵌入。
  • ContEA 再训练。与再训练基线相同,ContEA 将每个快照视为 t = 0 t = 0 t=0。旧预测的实体对齐完全被新预测的实体对齐取代,而不是集成。

表 2、表 3 和表 4 中显示了三个变体的结果。这些变体在 t = 0 t = 0 t=0​ 时继承了经过训练的 ContEA,并在之后分别执行。当丢弃选定的可信对齐时,性能下降。如果进一步降低受影响的种子排列,则会出现更大的下降。这证明了所选择的可信对齐和受影响的种子对齐重放的有效性。对于ContEA再训练,虽然它的表现比ContEA差很多,但它仍然优于所有再训练基线,包括Dual-AMN,这表明了实体重建的有效性。

image-20240424222337651

发现新的对齐方式。 在时间 t = { 1 , 2 , 3 , 4 , 5 } t = \{1, 2, 3, 4, 5\} t={1,2,3,4,5} 时,收集涉及新实体的最终预测对齐,并通过将其与包含新实体的黄金测试对齐进行比较来计算召回值。在表 5 中显示了 D B P Z H − E N DBP_{ZH-EN} DBPZHEN 上的结果。ContEA 相对于所有基线达到了最高的召回率,这表明ContEA在发现新实体的对齐方面的优势。此外,新实体的黄金对齐召回率明显低于所有黄金对齐召回率。这是因为新实体往往是稀疏链接的,这阻碍了对齐模型正确匹配它们。此外,图 3 说明了 ContEA 的总正确预测比对的增长。在时间 t t t,正确预测的总对齐大小计算为 ∣ A p t ∣ × R e c a l l |\mathcal{A}_{\mathrm{p}}^{t}|\times\mathrm{Recall} Apt×Recall​(表 2 中的 R)。结果表明,随着 KG 的增长,ContEA 可以找到越来越大的正确实体对齐,这满足了持续实体对齐的建议。

Image

效率。 将 ContEA 的训练效率与再训练基线进行比较。图 4 描述了不同快照下三个数据集的平均时间成本。ContEA 的训练时间显着减少,这显示了其在处理连续实体对齐任务方面的部分优势。

4.5 Further Analysis

Image

合并实体名称。 使用 fasttext 库来生成实体的名称嵌入。由于 fasttext 的原始词嵌入维度为 300,为了使嵌入空间可扩展,使用官方降维器将维度降低到 100。此外,还引入了 Google Translate (G.T.) 作为竞争方法。对于跨语言数据集,首先将两个知识图谱中的实体翻译成同一种语言(英语或非英语),然后使用 Levenshtein 距离(语言学中流行的测量方法 和本体匹配 来计算名称相似度)。稍后还使用双向最近邻搜索来获得预测的可信实体对齐,将其与黄金测试集进行比较以计算 P P P R R R F 1 F1 F1 分数。在表 6 中列出了 F 1 F1 F1 结果。通过利用名称属性,ContEA (fasttext) 的性能大幅优于 ContEA。随着时间的推移,谷歌翻译提供了令人满意且强大的性能,正如预期的那样强大。它的性能更稳定,对 KG 的大小不太敏感,在三个数据集的大多数快照上(第一个快照除外),其表现优于 ContEA(fasttext)。

进一步探索 ContEA 和 Google Translate 的结合。为此,在搜索从一个 KG 到另一个 KG 的最近邻居时组合它们的预测对齐,然后采用双向交集来获得最终的组合预测对齐。这种组合的结果显示在最后一行。在三个数据集的几乎所有快照中,它们的组合都优于 Google Translate 和 ContEA。

Image

纠正先前对齐的案例研究。 在表7中提供了几个关于先前预测的对齐在以后的精调过程中得到纠正的案例。保存预测的比对及其在时间 t = 0 t=0 t=0 t = 5 t=5 t=5的相似性分数,并将每次涉及相同实体的两个比对对并列在一起。手动检查并置列表,并注意到,在 t = 0 t=0 t=0处的预测对齐通常是不正确的,具有较小的相似性分数,而在 t = 5 t=5 t=5处的它们的对应物是正确的,具有较高的相似性分数。这表明了ContEA的自我纠正能力。同时,在 t = 0 t=0 t=0处错误预测的对准中的两个实体并非完全无关。

5 Related Work

静态实体对齐。 大多数现有的基于嵌入的实体对齐方法都关注静态知识图谱。根据 KG 编码器的技术,它们通常可以分为两类:基于翻译的 和基于 GNN 的。前一类采用基于翻译的知识图谱嵌入(KGE)技术来嵌入实体,并基于预对齐的实体对将跨图实体映射到统一空间。基于 GNN 的实体对齐方法的编码器学习共享邻域聚合器以将实体嵌入到不同的 KG 中。近年来,它们获得了压倒性的流行,因为它们具有使用实体周围的子图而不是单个三元组来捕获结构信息的强大能力。

动态实体对齐。 DINGAL是唯一解决知识图谱动态的实体对齐方法。在其动态场景中,新的三元组被添加到 KG 中,并且与这些新实体一起提供新的已知对齐。他们的工作中还提出了一种名为 DINGAL-O 的 DINGAL 变体,用于处理与我们类似的环境,其中预先已知的对齐不会增长。 DINGAL-O 是一种归纳方法,利用先前学习的模型参数来预测新的对齐方式。特别是,他们使用名称属性来生成用于实体初始化的词嵌入。

归纳知识图嵌入。 动态 KG 嵌入的研究多年来引起了广泛的关注。在 GNN 的支持下,提出了许多用于 KG 补全的归纳嵌入方法来生成新实体的嵌入。早期的归纳方法要么专注于半归纳设置,其中新实体连接到现有 KG 并在新实体和现有实体之间进行推理,要么专注于全归纳设置,其中新实体形成独立图并进行推理,新实体之间的推论。后来的归纳法打算解决这两种情况。同时,一些归纳知识图谱嵌入方法专注于特殊任务,例如小样本学习和超关系知识图谱补全。具体来说,作为第一个归纳 KG 嵌入方法,MEAN通过简单地对相邻实体关系对的信息进行均值池学习来使用其邻居来表示实体。LAN通过在池化过程中结合对实体关系对的基于规则的注意力和基于 GNN 的注意力来改进 MEAN。

6 Conclusion and Future Work

在本文中,考虑到现实世界知识图谱的增长性质,重点关注两个图都在增长的实体对齐场景,并解决名为连续实体对齐的新任务。提出了一种新方法 ContEA 作为该任务的解决方案。此外,构建了三个数据集来模拟场景并进行广泛的实验。实验结果表明,ContEA 相对于一系列再训练和归纳基线在有效性和效率方面具有优越性。对于未来的工作,当前提案有许多有希望的改进和扩展。关于设置,未来的研究可以考虑更复杂的场景,例如添加新关系、添加新的已知对齐方式,甚至删除实体和三元组。就方法而言,需要更可靠、更全面的值得信赖的对齐更新策略来处理复杂的对齐冲突情况。

论文原文:

https://arxiv.org/pdf/2207.11436.pdf

GitHub仓库:

https://github.com/nju-websoft/ContEA

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/7342.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人工智能的发展将如何重塑网络安全

微信搜索关注公众号网络研究观,获取更多信息。 人们很容易认为人工智能 (AI) 真正出现是在 2019 年,当时 OpenAI 推出了 ChatGPT 的前身 GPT-2。 但现实却有些不同。人工智能的基础可以追溯到 1950 年,当时数学家艾伦图灵发表了题为“计算机…

微信小程序如何使用svg矢量图标

微信小程序如何使用自定义SVG矢量图标 在微信小程序中,经常会用到小图标来装饰界面,我们常用的方法就是引用第三方的图标,但会存在收费或者找不到合适的图标,这时候我建议可以自行编写svg图标代码,就可以随心所欲的使…

【一起深度学习——kaggle叶子分类】

kaggle 叶子分类 目的:将叶子进行分类。实现步骤:1、数据处理:2、加载数据3、 定义残差块4、定义Resnet模型。5、定义训练以及评估函数:6、开始训练:7、输出结果: 目的:将叶子进行分类。 实现步…

知识图谱:人工智能的“核心驱动力”

知识图谱:人工智能的“核心驱动力” 一、人工智能与知识图谱二、知识图谱的定义与重要性三、知识图谱工程师的薪资情况四、知识图谱的应用领域六、知识图谱的未来展望七、总结 一、人工智能与知识图谱 人工智能(AI)作为21世纪的前沿技术&…

设备树与/sys/bus/platform/devices与/sys/devices目录关系

设备树与sys/bus/platform/devices sysfs文件系统中/sys/bus/platform/devices下的设备是由设备树生成, 根节点下有compatible的子节点都会在/bus/platform/devices生成节点 总线 I2C、SPI 等控制器会在/bus/platform/devices生成节点 总线 I2C、SPI 节点下的子节点…

牛客网刷题 | BC78 KiKi说祝福语

目前主要分为三个专栏,后续还会添加: 专栏如下: C语言刷题解析 C语言系列文章 我的成长经历 感谢阅读! 初来乍到,如有错误请指出,感谢! 描述 2020年来到了&#…

【Qt】按钮类控件

文章目录 1 :peach:Push Button:peach:2 :peach:Radio Buttion:peach:3 :peach:Check Box:peach:4 :peach:Tool Button:peach: 1 🍑Push Button🍑 使⽤ QPushButton 表⽰⼀个按钮,这也是当前我们最熟悉的⼀个控件了,QPushButton …

SOL链DApp智能合约代币质押挖矿分红系统开发

随着区块链技术的不断发展和普及,越来越多的项目开始探索基于区块链的去中心化应用(DApp)。Solana(SOL)作为一条高性能、低成本的区块链网络,吸引了众多开发者和项目,其中包括了各种类型的DApp&…

Altium Designer——检查原理图库正确性并生成报告

一、方法: 1.打开原理图库: 2.点击菜单栏的报告选项: 3.选择器件规则检查: 根据需求勾选,一般都是全部勾选: 二、问题: 1.缺少封装会导致什么问题: 1.首先: 封装是…

MWeb Pro for Mac:功能强大的Markdown博客编辑器

MWeb Pro for Mac是一款功能强大的Markdown博客编辑器,专为Mac用户设计,提供了一站式的博客写作和发布体验。这款软件不仅支持Markdown语法,还提供了丰富的编辑和排版功能,让用户能够轻松创建出精美的博客内容。 MWeb Pro的即时预…

重庆事业编5月7号开始报名⚠️报名照需审核

24年第二季度重庆事业编招聘 本次招聘实行网上报名。考生应按照招聘岗位要求,诚信、准确填写报考信息,并按网页提示上传电子材料(含电子登记照,jpg格式,20kb以下)。招聘方按照岗位报考要求,对考…

深度学习中的优化算法:选择现有的还是自创?

深度学习中的优化算法 深度学习中的优化算法:选择现有的还是自创?现有优化算法的优势**优点包括**: 开发新的优化算法的考虑**开发新算法的原因**:**开发新算法的风险**: 实用建议结论 深度学习中的优化算法&#xff1…

Mac跑llama.cpp过程中遇到的问题

原repo 在华为手机上安装termux、下载库:顺利在电脑上安装Android NDK:先下载Android Studio,再在里面下载Android SDK 安装Android Studio时,SDK的某些组件总是下载不成功。后来关了梯子、改了hosts,重新安装就成功了…

Ansible---自动化运维工具

一、Ansible概述 1.1 Ansible简介 Ansible是一款自动化运维工具,通过ssh对目标主机进行配置、应用部署、任务执行、编排调度等操作。它简化了复杂的环境管理和自动化任务,提高了工作效率和一致性,同时,Ansible的剧本(playbooks)…

53. 【Android教程】Socket 网络接口

Socket 网络接口 大家在学习计算机网络的时候一定学习过 TCP/IP 协议以及最经典的 OSI 七层结构,简单的回忆一下这 7 层结构: 从下到上依次是: 物理层数据链路层互联层网络层会话层表示层应用层 TCP/IP 协议对这 7 层了做一点精简&#xff…

三岁孩童被家养大型犬咬伤 额部撕脱伤达10公分

近期,一名被家养大型犬咬伤了面部的3岁小朋友,在被家人紧急送来西安国际医学中心医院,通过24小时急诊门诊简单救治后,转至整形外科,由主治医师李世龙为他实施了清创及缝合手术。 “患者额部撕脱伤面积约为10公分&…

Python3中Richdem包遇到问题

Python3中Richdem包遇到问题 文章目录 Python3中Richdem包遇到问题问题一报错解决 问题二报错解决 参考 问题一 报错 RichDEM 是一套数字高程模型 (DEM) 水文分析工具,这次打算用richdem进行地形分析,尝试在conda里面安装richde…

【华为】NAT的分类和实验配置

【华为】NAT的分类和实验配置 NAT产生的技术背景IP地址分类NAT技术原理NAT分类静态NAT动态NATNAPTEasy IP(PAT)NAT Server 配置拓扑静态NAT测试抓包 动态NAT测试抓包 NAPT测试抓包 PAT测试抓包 NAT Server检测抓包 PC1PC2服务器 NAT产生的技术背景 随着…

【管理篇】管理三步曲:团队建设(二)

目录标题 如何着手团队建设提升个人能力1、要提升员工的什么能力2、提升员工个人能力的初衷是什么?3、如何达成上述目标4、应该如何激发员工学习的动力和意愿呢5、关于提升员工的能力,有两个信念特别重要: 提升员工的工作意愿和积极性1、管理…

Spring与AI结合-spring boot3整合AI组件

⛰️个人主页: 蒾酒 🔥系列专栏:《spring boot实战》 目录 写在前面 spring ai简介 单独整合al接口 整合Spring AI组件 起步条件 ​编辑 进行必要配置 写在最后 写在前面 本文介绍了springboot开发后端服务中,AI组件(Spring A…