论文浅尝 | Seq2Seq 知识图谱补全与问答

41d7ca0a785e072e40c35de94d2b12d1.png

笔记整理:李行,天津大学硕士

论文题目:Sequence-to-Sequence Knowledge Graph Completion and Question Answering

链接:https://arxiv.org/pdf/2203.10321.pdf

动机

知识图嵌入 (KGE) 模型用低维嵌入向量表示知识图 (KG) 的每个实体和关系。这些方法最近已应用于知识图谱链接预测和不完整知识图谱 (KGQA) 上的问答。KGE 通常为图中的每个实体创建一个嵌入,这会导致在具有数百万个实体的真实世界图上产生大型模型。对于下游任务,这些原子实体表示通常需要集成到多级管道中,从而限制了它们的实用性。现成的编码器-解码器 Transformer 模型可以用作可扩展且通用的 KGE 模型,为 KG 链接预测和不完整的 KG 问答获得最先进的结果。本文提出了KGT5,将 KG 链接预测作为序列到序列的任务,并将先前 KGE 方法采用的三重评分方法与自回归解码进行交换,与传统的 KGE 模型相比,这种简单但功能强大的方法可将模型大小减少多达 98%,同时保持推理时间的可控性。在针对不完整 KG 的 KGQA 任务对该模型进行微调后,该方法在多个大规模数据集上的性能优于基线,而无需进行广泛的超参数调整。

亮点

KGT5的亮点主要包括:

1.将 KG 链接预测和问答可以被视为序列到序列的任务。2.使用KGT5 方法,将 KG 链接预测的模型大小减少了 98%,同时在具有 90M 实体的数据集上优于传统的 KGE。3.通过 KGQA 对不完整图的任务展示了KGT5的多功能性。

概念及模型

KGT5 首先在链接预测任务上进行训练(预测头/尾实体,给定尾/头和关系)。对于问答,使用 QA 对进一步微调相同的模型。方法的概述图如下:

09a87523728ea905f65df2277bdcba3f.png

在进行问答训练时,使用链接预测目标进行规范化。KGT5产生了一个可扩展的 KG 链接预测模型,其参数比用于大型 KG 的传统 KGE 模型少得多。KGT5赋予模型简单性和多功能性,因此无论问题复杂性如何,它都可以轻松地适应任何数据集上的 KGQA。

将 KG 链接预测作为 seq2seq 任务需要两个步骤:

•Text mapping:对于链接预测,需要在实体/关系及其文本表示之间进行一对一的映射。•Verbalization:通过语言化将 (s, p, ?) 查询回答转换为序列到序列的任务查询 (s, p, ?) 到文本表示。

•训练KGT5进行链接预测

为了训练 KGT5,需要一组(input, output)序列。对于训练图中的每个三元组 (s, p, o),对查询 (s, p, ?) 和 (?, p, o) 进行表述,以获得两个输入序列。相应的输出序列分别是 o 和 s 的文本提及。KGT5 使用teacher forcing和交叉熵损失进行训练。需要注意,实验在没有显式负采样的情况下进行训练。 在解码的每一步,模型都会生成可能的下一个标记的概率分布。在训练时,该分布因与“真实”分布不同(即,真正的下一个令牌的概率为 1,所有其他令牌的概率为 0)而受到惩罚,使用交叉熵损失。除了不是针对所有其他实体对真实实体进行评分,在每一步都针对所有其他令牌对真实令牌进行评分,并且该过程重复的次数与标记化真实实体的长度一样多。这避免了对许多负样本的需求,并且与实体的数量无关。

•链接预测推理

在传统的 KGE 模型中,通过找到分数   来回答查询 (s, p, ?),其中 f 是特定于模型的评分函数。然后根据分数对实体 o 进行排名。在KGT5中,给定查询 (s, p, ?),首先将其进行描述,然后再将其提供给 KGT5。然后,从解码器中采样固定数量的序列,然后将其映射到它们的实体 ID。通过使用这样的生成模型,能够近似(以高置信度)top-m 模型预测,而无需对所有模型进行评分KG 中的实体,正如传统的 KGE 模型所做的那样。对于每个解码的实体,为其分配一个等于解码其序列的(log)概率的分数。

bdd2b02a4a635405410fa4693c40a6a8.png

其中 α 是一个常数超参数,N (e) 是主题实体的 n 跳邻域(n = 1、2 或 3)。

这产生了一组(entity, score)对。为了计算与传统 KGE 模型相当的最终排名指标,作者为在采样过程中未遇到的所有实体分配一个无穷小的分数。

传统KGE模型与KGT5的推理策略对比如图所示。

61f4645e14f40f76c8f04f876cab8daa.png

•KGQA训练和推理

对于 KGQA,使用链接预测任务在背景 KG 上预训练模型。这种预训练策略类似于其他 KGQA 工作中使用的“KGE 模块训练”。然后对相同的模型进行微调以进行问答。因此,采用与 Roberts 等人相同的策略将一个新的任务前缀(预测答案:)与输入问题连接起来,并将答案实体的提及字符串定义为输出。 这种统一的方法允许将 KGT5 应用于任何 KGQA 数据集,而不管问题的复杂性如何,并且不需要实体链接等子模块。

为了在 QA 微调过程中对抗过拟合(尤其是在具有小 KG 的任务上),作者设计了一种正则化方案:将从背景 KG 随机采样的链接预测序列添加到每个批次中,这样一个批次由相同数量的 QA 和链接预测序列组成。对于推理,使用波束搜索,然后使用基于邻域的重新排序来获得模型的预测,这是一个单一的答案。

理论分析

实验

作者采用了5个数据集进行实验,分别是:WikiKG90Mv2、Wikidata5M、MetaQA、WQSP、CWQ,其中前两个数据集用来评估KGT5的链接预测能力,后三个数据集用来评估其QA能力。

e4264c80f3b047c488a8ca3c63920afc.png

下图显示了 Wikidata5M 上的链接预测性能,这是一个更小但研究得更好的 KG。可以看到 KGT5 在所有指标上都优于所有低参数计数模型。与大型 ComplEx 模型相比,MRR 下降了 0.008 点,而 hits@1 则增加了 0.012 点。

e63ad60e6eee16ad7bc957b7303cce0f.png

作者根据 Wikidata5M 的查询类型对模型预测进行了更细粒度的分析,创建了一个 ComplEx 和 KGT5 的集合,它按如下方式回答查询:如果查询在训练 KG 中没有答案,则使用 KGT5;否则使用 ComplEx (614M)。上图所示,由这个简单的规则创建的集成优于所有其他单一模型,并在 Wikidata5M 上达到了 state-of-theart。

类似地,下图显示了在WikiKG90Mv2上的链路预测性能。可以看出,KGT5在验证集上获得了最高的MRR,同时比排行榜上表现最好的模型少98%。

7ecbfb51224ffa865108cdbaf177fc15.png

作者在两个数据集上评估了KGT5对于不完整KG的QA能力。在这两个数据集上,KGT5 都优于所有基线。就复杂性和 KG 大小而言,ComplexWebQuestions 是最难的数据集,其收益是最大的。

f090aa869702a693218fd773849fd45b.png

下图显示了 MetaQA 数据集上的 hits@1 性能。然而,在 MetaQA 2-hop 上,与基线相比,性能明显更差,甚至比地面实况查询更差。为了解决这个问题并创建一个更忠实于不完整 KG 中存在的知识的模型,作者设计了一个带有 PathPred 基线的 KGT5 集合。集成工作如下:给定一个问题 q,尝试使用 PathPred 回答它。如果这返回一个空集,就使用 KGT5。

33b3cdc66e075ca89abe703c51d7f362.png

最后,作者进行了消融来研究邻域重新排序对 KGQA 性能的影响,发现重新排序在所有数据集上都带来了小而一致的收益。见下图:

b71f82a36e989856e3260903feecf594.png

总结

本文证明了KG 链接预测和问答可以被视为 seq2seq 任务,并使用单个编码器-解码器 Transformer 模型成功解决。通过在链接预测任务上训练具有与 T5-small 相同架构的 Transformer 模型来做到这一点,然后在 QA 任务上对其进行微调。这种简单但功能强大的方法(KGT5)与用于在大型 KG 上完成 KG 的最先进方法具有竞争力,同时使用的参数减少了 98%。在 KGQA 对不完整 KG 的任务中,发现本文的统一方法在多个大型基准数据集上优于基线。此外,还将语言建模预训练与 KG 链接预测训练进行了比较,发现对于 KGQA 等知识密集型任务,链接预测训练可能效果更好。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

9a5f70530c8a9739d538aeafd2e2507d.png

点击阅读原文,进入 OpenKG 网站。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/477740.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

刀功:谈推荐系统特征工程中的几个高级技巧

前言记得我入算法这一行的第一份工作面试的时候,最终的boss面的面试官是前微软工程院的副院长。面试进行得很顺利,不免向前院长卖弄一番,谈了谈我对算法的理解。我说算法工程师就好比厨师,模型是灶上功夫,而数据预处理…

Spring Cloud Alibaba基础教程:使用Sentinel实现接口限流

最近管点闲事浪费了不少时间,感谢网友libinwalan的留言提醒。及时纠正路线,继续跟大家一起学习Spring Cloud Alibaba。 Nacos作为注册中心和配置中心的基础教程,到这里先告一段落,后续与其他结合的内容等讲到的时候再一起拿出来说…

【报名开启】CCKS2022技术评测任务五“开放知识图谱问答”

转载公众号 | 图谱学苑CCKS2022评测任务五:开放知识图谱问答评测在线报名通道正式开启请通过扫描下方二维码或点击文末阅读原文填写报名信息欢迎大家踊跃报名参赛任务五:开放知识图谱问答任务描述:在互联网软硬件相关技术飞速发展的今天&…

年末回顾:2021年 AI 领域十大研究趋势及必读论文

编 | 小轶,Yimin_饭煲在本文中,我们将梳理近百篇的最新深度学习论文,以总结出“2021 年十大 AI 研究趋势”。AI 领域的论文可谓层出不穷。这篇文章或许能帮助你跟踪总体趋势和重要研究。下文中提及的部分工作可能并不发表于 2021 年&#xff…

LeetCode 445. 两数相加 II(链表大数加法)

1. 题目 给定两个非空链表来代表两个非负整数。数字最高位位于链表开始位置。它们的每个节点只存储单个数字。将这两数相加会返回一个新的链表。 你可以假设除了数字 0 之外,这两个数字都不会以零开头。 进阶: 如果输入链表不能修改该如何处理?换句话…

Spring Cloud Alibaba到底坑不坑?

之前我发过一篇《说说我为什么看好Spring Cloud Alibaba》,然后这两天有网友给我转了这篇文章《坑爹项目spring-cloud-alibaba,我们也来一个》,问我的看法是怎么样的,聊天时候简单说了一下。今天在家休息,抽空整理一下…

聚焦信息抽取前沿难题,CCKS-千言通用信息抽取竞赛报名启动

转载公众号 | 百度NLP信息抽取旨在将非结构化文本中的信息进行结构化,是自然语言处理的基础技术和重要研究领域,一直受到学术界和工业界广泛关注。传统的信息抽取任务与评测通常针对特定的文本领域和单一的抽取任务,难以评估相关技术与方法在…

我有文章了,但也不想搞学术了

文 | 微调源 | 知乎又到了年底,跟大家简单唠唠2021年的收获(和失去)。在2020年的总结文章里(阿调x2020:爱、学术、钱与系统[1]),我最大的困扰可能是读博一年多却没什么主要成果的痛苦。好消息是…

LeetCode 829. 连续整数求和(数学)

1. 题目 给定一个正整数 N,试求有多少组连续正整数满足所有数字之和为 N? 示例 1: 输入: 5 输出: 2 解释: 5 5 2 3,共有两组连续整数([5],[2,3])求和后为 5。示例 2: 输入: 9 输出: 3 解释: 9 9 4 5 2 3 4示例 3: 输入: 15 输出: 4 解释: 15…

说说我为什么看好Spring Cloud Alibaba

最近对《Spring Cloud Alibaba基础教程》系列的催更比较多,说一下最近的近况:因为打算Spring Boot 2.x一起更新。所以一直在改博客Spring Boot专题页和Git仓库的组织。由于前端技术太过蹩脚,花了不少时间。大家不用担心,这个系列不…

【报名开启】CCKS2022技术评测任务七“化学元素知识图谱构建及应用”

任务描述:随着AI技术的发展和普及,药物研发也逐渐进入到AI时代,擅长处理大数据的AI深度学习技术,就成为近年来大家关注的焦点。化合物的性质预测的主要目的在于及时发现理化性质不达标的化合物,以降低候选化合物进入临…

LeetCode 12/13 罗马数字与整型互转(哈希,贪心)

文章目录1. 罗马数字转整型解题2. 整数转罗马数字解题1. 罗马数字转整型 罗马数字包含以下七种字符: I, V, X, L,C,D 和 M。字符 数值 I 1 V 5 X 10 L 50 …

Facebook 推出多模态通用模型 FLAVA,吊打 CLIP 平均十个点!

文 | 子龙编 | 智商掉了一地厉害了!作者将单一模型运用于三个不同领域的不同任务,结构简单且训练直观,还能有着出色的表现。自Transformer横空出世,从NLP到CV,再到今天的多模态,无数基于Transformer的模型被…

Nacos配置中心原理

动态配置管理是 Nacos 的三大功能之一,通过动态配置服务,我们可以在所有环境中以集中和动态的方式管理所有应用程序或服务的配置信息。 动态配置中心可以实现配置更新时无需重新部署应用程序和服务即可使相应的配置信息生效,这极大了增加了系…

论文浅尝 | AI回答小学科学问题达到人类水平(OpenBookQA)

转载公众号 | 南大Websoft AI能否像人类一样学习掌握科学知识,理解运用常识知识,最终像人类一样参加并通过学科考试?近日,南京大学万维网软件研究组(Websoft)在人工智能评测集OpenBookQA上实现了突破&#…

LeetCode 1003. 检查替换后的词是否有效(栈)

1. 题目 给定有效字符串 “abc”。 对于任何有效的字符串 V,我们可以将 V 分成两个部分 X 和 Y,使得 X Y(X 与 Y 连接)等于 V。(X 或 Y 可以为空。)那么,X “abc” Y 也同样是有效的。 例…

论文浅尝 - IJCAI2022 | 基于自适应虚词增强的小样本逆关系分类

论文作者:窦春柳,天津大学,研究方向:知识图谱论文链接:http://arxiv.org/abs/2204.12111代码地址:https://github.com/DOU123321/FAEA-FSRC摘要小样本关系分类(Few-shot Relations Classificati…

Spring Cloud Alibaba与Spring Boot、Spring Cloud之间不得不说的版本关系

这篇博文是临时增加出来的内容,主要是由于最近连载《Spring Cloud Alibaba基础教程》系列的时候,碰到读者咨询的大量问题中存在一个比较普遍的问题:版本的选择。其实这类问题,在之前写Spring Cloud基础教程的时候,就已…

这个开源数据集要在全球扩大中文NLP影响力,你也能来做贡献!

源 | 机器之心编辑部千言的升级重点聚焦大模型时代的机遇和挑战。「千言」是由百度联合中国计算机学会、中国中文信息学会共同发起的面向自然语言处理的开源数据集项目,旨在推动中文信息处理技术的进步。近日,在 2021 年 12 月 12 日的 WAVE SUMMIT2021 …

LeetCode 676. 实现一个魔法字典(哈希)

1. 题目 实现一个带有buildDict, 以及 search方法的魔法字典。 对于buildDict方法,你将被给定一串不重复的单词来构建一个字典。 对于search方法,你将被给定一个单词,并且判定能否只将这个单词中一个字母换成另一个字母,使得所…