论文学习2-Incorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforce

文章目录

  • 摘要
  • 介绍
  • 相关工作
  • 方法
    • Mean Selection Rate (MSR) and Mean Replacement Rate (MRR

Incorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforcement Learning

摘要

知识图(KG)推理的目的是寻找关系的推理路径,以解决KG中的不完全性问题。以前的许多基于路径的方法,如PRA和DeepPath,要么缺乏记忆部件,要么在训练中卡住。因此,他们的表现总是依赖于良好的训练。本文提出了一种基于AttnPath的深度强化学习模型,该模型将LSTM和图注意机制作为记忆组件。我们定义了平均选择率(MSR)和平均替换率(MRR)两个指标来定量衡量查询关系的学习难度,并利用它们在强化学习框架下对模型进行微调。同时,提出了一种新的增强学习机制使agent每一步都向前走,以避免agent在同一实体节点上不断陷入停滞。在此基础上,该模型不仅可以摆脱训练前的训练过程,而且与其他模型相比,可以达到最先进的性能。我们使用不同的任务在FB15K-237和NELL- 995数据集上测试我们的模型。大量的实验表明,该模型与现有的许多最先进的方法相比是有效的和有竞争力的,并且在实践中表现良好。

介绍

  • 推理的方法

    • 基于规则
    • 基于路径
    • 基于嵌入
      同时,它提供了一个新的视角,将深度强化学习(Deep Reinforcement Learning, DRL)引入到预测缺失环节的任务中,如DeepPath (Xiong et al., 2017),这是一种基于路径的方法。DeepPath是第一个将DRL整合到KG推理中的作品。与PRA相比,它取得了显著的改进,但仍然存在一些缺点。首先,它缺少记忆部件,因此需要预先培训。训练前的操作需要为模型训练提供许多已知(或存在)的路径。这种蛮力操作可能会使模型在预先训练的给定路径上过度拟合。其次,在训练时对KG中不同的关系设置相同的超参数是不合适的,忽略了实体之间连接的多样性。最后,当代理选择了一个无效的路径时,它会停止并重新选择,这会导致不断地选择这个无效的路径,最后卡在一个节点上。因此,本文针对上述不足,提出了一种新的深度强化学习模型和算法。该模型也属于基于路径的框架。我们的贡献可以总结如下
  • DRL的缺陷

    • 缺少记忆部件,需要预先训练
      • 训练前的操作需要为模型训练提供许多已知(或存在)的路径–》过拟合
    • 不同关系超参数不同,忽略了实体之间连接的多样性
    • 当代理选择了一个无效的路径时,它会停止并重新选择–卡住
  • 本文的贡献

    • LSTM+图attention作为记忆组件,不用再预训练了
    • 定义了两个度量标准(MSR和MRR),以定量地度量学习关系的可替换路径的难度,这些可替换路径用于对模型进行微调。
    • 提出了一种新的增强学习机制,通过强制agent每一步都向前走来避免agent在同一实体节点上不断陷入停滞。

相关工作

到目前为止,已经有许多工作被提出来解决KG不完全的问题。

  • 基于规则的方法,如
    • ProPPR (Wang and Cohen, 2016)和Neural LP (Yang et al., 2017),通过人工或数学逻辑规则生成推理规则,然后根据现有的三元组将其应用于填补缺失的环节。虽然这类方法有坚实的数学背景,但它们很难扩展到大型的kg,因为它们直接操作符号,而可能的推理路径的数量与实体的数量呈指数关系。
  • 基于嵌入的方法,如
    • TransE (Bordes et al., 2013)和TransR (Lin et al., 2015),将实体和关系映射到低维连续的向量空间中,获取实体和关系之间的距离特征。然后,通过比较两个训练实体嵌入和查询关系嵌入之间的距离来判断查询关系是否存在。这种方法需要KG中的所有三元组都参与训练,只适用于单跳推理。
  • 基于路径的,如
    • PRA (Lao et al., 2011)和DeepPath (Xiong et al., 2017),训练一个agent在一个KG上导航,找到某个关系的可替换路径,然后将其作为下游任务的特征。路径排序算法(PRA)是第一个基于路径的推理方法。
    • Neelakantan等人开发了一个基于RNN的组合模型,该模型非原子性地组合了一条路径的含义和多跳关系连接的原因(Neelakantan et al., 2015)。
    • Guu等人提出了一种软边遍历算子,该算子可以递归地应用于预测路径,减少TransE和TransR等单跳KG完井方法面临的级联传播误差(Guu et al., 2015)。
    • Toutanova等人提出了一种动态规划算法,该算法将所有有界长度的关系路径合并到一个KG中,并对组合路径表示中的关系和中间节点进行建模(Toutanova等人,2016)。这样的表示可以帮助生成更多高质量的推理路径。
    • Das等人将DeepPath (Xiong等,2017)改进为MINERVA (Das等,2018),后者从QA s的角度看待KG。它去掉了预训练,引入LSTM来记忆以前走过的路径,并训练一个代理在某个实体上运行,如果它相信这个实体是正确的答案。
    • Lin等人通过引入奖励形成和行动退出来改进这两种方法(Lin et al., 2018)。奖励塑造用动态惩罚代替无用选择的固定惩罚,既可以基于基于边缘的预训练嵌入,如TransE,也可以基于基于概率的嵌入,如ConvE (Dettmers et al., 2018)。而action dropout则随机地掩盖了一定比例的有效action,以减少查询关系的不相关路径。
    • DIVA (Chen et al., 2018)将路径作为潜在变量,将关系作为观测变量,建立变量推理模型,完成KG推理任务。它还使用波束搜索来扩大搜索范围。
    • M-Walk (Shen et al., 2018)利用另一种称为蒙特卡罗树搜索(Monte Carlo Tree Search, MCTS)的RL算法来解决稀疏奖励问题。注意机制首次被引入多跳KG推理中(Wang et al., 2018)。但是,它只计算查询嵌入的注意权重和所有找到的路径嵌入。它们被用来帮助判断vanilla模型找到的答案是否正确。

方法

  • 由于我们使用强化学习(RL)作为序列决策模型的训练算法,我们首先在KG推理中引入RL框架的基本元素,包括环境、状态、动作和奖励。

  • 环境:在本任务中,环境指的是整个KG,不包括查询关系及其逆。整个培训过程环境保持一致

  • 状态:agent的状态由三个部分连接:

    • 嵌入部分、
      • deepPath中用了TransE,这里用TransD(映射到关系所带的向量空间中
      • e′=(rpep′+I)emt=(et′,etarget′−et′)e'=(r_pe_p'+I)e\\m_t=(e'_t,e'_{target}-e_t')e=(rpep+I)emt=(et,etargetet)
    • LSTM部分
      • ht=LSTM(ht−1,mt)h_t=LSTM(h_{t-1},m_t)ht=LSTM(ht1,mt)
    • 图形注意部分
  • 动作:选哪个关系(边)走

    • 有关系-有效边
    • 无关系-无效边
  • 奖励

    • 一步的无效操作:-1
    • 可以获得全局解的(一整条路径):convE(a series of actions can lead to ground truth)
    • 奖励是全局精度、路径效率和路径多样性的加权和。根据约定,全局精度设置为1,路径效率为路径长度的倒数,因为我们鼓励代理尽可能少的步进。(和DeepPath一样)
  • 使用注意力机制Graph Attention mechanism (GAT)

    • self-attention在实体层
    • attention权重用一层前馈神经网络训练
    • αij=LeakyReLU(aT(Wei′,Wej′)只计算它和它的邻居,j是与i相邻的节点,然后normalizeαij=αijΣk∈Niαikai=Σk∈NiαikWeksi,t=[mi,t;ht;at]\alpha_{ij}=LeakyReLU(a^T(W_{ei'},W_{ej'})\\只计算它和它的邻居,j是与i相邻的节点,然后normalize\\\alpha_{ij}=\frac{\alpha_{ij}}{\Sigma_{k\in N_i} \alpha_{ik}}\\a_i=\Sigma_{k\in N_i}\alpha_{ik}W_{e_k}\\s_{i,t}=[m_{i,t};h_t;a_t]αij=LeakyReLU(aT(Wei,Wejjinormalizeαij=ΣkNiαikαijai=ΣkNiαikWeksi,t=[mi,t;ht;at]
    • 然后输入一个三层前馈神经网络,其最终输出是一个长度等于所有关系的数量(以KG为单位)的Softmax概率。代理选择一个动作并获得奖励。当它成功到达尾部实体或在指定次数内没有到达时,整个事件的奖励将用于更新所有参数。
      在这里插入图片描述在这里插入图片描述
      在这里插入图片描述在这里插入图片描述

Mean Selection Rate (MSR) and Mean Replacement Rate (MRR

对于不同的查询关系,需要为每个查询关系训练不同的模型。而在实践中,每个关系的难度值都是不同的。某些关系可能具有更多的替换关系,这表明agent可以很容易地选择从head实体到tail的替换路径。因此,我们发明了两个指标,平均选择率(MSR)和平均替代率。在这里,定量地测量每个关系的不同值。

较低的MSR表示学习r比较困难,因为与关系r相关的实体可能有更多方面。

较高的MRR表示一个关系可能有更多的替换关系,因此更容易学习,因为代理可以直接选择一个替代关系来到达目的地。在我们的模型中,我们有三种方法来防止过度拟合:L2正则化、dropout和action dropout。然而,对于比较容易学习的关系(高MSR和MRR),我们希望实施更多的正规化,以鼓励代理寻找更多样化的路径,而不是过度拟合立即成功。否则,对于较难学习的关系(MSR和MRR较低),我们最好关注路径找到的成功率,因此我们应该减少正规化。
为简单起见,我们使用指数来计算关系r的难度系数。它被定义为exp(MSR®+MRR®),并分别乘以三种正则化方法的基本速率。正则化方法的基本速率是基于KG的,在相同KG中的所有关系之间共享。

在此基础上,我们提出了一种新的训练算法,如算法1所示。在我们的算法中,我们的贡献之一是,**当代理选择了一个无效路径时,我们的模型不仅惩罚了它,而且还迫使它选择一个有效的关系来前进。**神经网络的概率在所有有效关系上被归一化,这些有效关系反过来又决定了强制动作的概率。初始化之后,第6行根据网络的输出对操作进行采样。当代理选择了一个无效的操作时,第7行10被执行,第9行10强制代理前进。当代理选择一个有效的操作时,执行第12行。22和25行19日更新参数无效的行为,有效的行动成功的事件,和有效的行动在一个不成功的事件,分别与奖赏-1,Rtotal Rshaping。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481603.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

报告下载:《2022城市大脑首部建设标准资料汇总》

2022年9月1日,中国指挥与控制学会正式发布城市大脑首批三项标准,这部《2022城市大脑首部建设标准资料汇总》除了包含发布的三项标准全文内容,还汇总了城市大脑标准研究团队2022年以来的相关研究资料,完整内容包括:1. 解…

nlp3-有限自动机FLandFA

文章目录1形式语言1.2形式语言3推导3.1句型、句子、语言3.2文法3.3派生树与二义性4有限自动机和正则文法4.1确定的有限自动机DFA4.2不确定的有限自动机NFA4.3有限自动机<>正则文法5.下推自动机PDA和上下文无关文法CFG5.1PDA5.1.1 PDA的例子.5.2 其他自动机5.2.1 区别6. 有…

经常看蓝色的东西能提升智力?科学研究发现,蓝色能改变意识状态

来源&#xff1a;科学的乐园我们的宇宙是一个“多姿多彩”的美丽时空&#xff0c;从人类睁开眼的那一刻开始&#xff0c;映入眼帘的就是一个五颜六色的世界。根据科学家的统计&#xff0c;人眼可以识别的电磁波频段包含100多万种“组合颜色”。这要归功于我们视觉系统得天独厚的…

论文学习3-Improving Neural Fine-Grained Entity Typing with Knowledge Attention

文章目录1 当前不足2. 本文的想法3.相关工作4.KNET4.1encoder4.2类型预测4.3attention5.实验6.以后Improving Neural Fine-Grained Entity Typing with Knowledge Attention用于&#xff1a;Fine-grained entity typing细粒度实体类型(它将实体划分为大量细粒度类型&#xff0c…

深度学习和因果如何结合?北交最新《深度因果模型》综述论文,31页pdf涵盖216篇文献详述41个深度因果模型...

来源&#xff1a;专知北京交通大学最新《深度因果模型》综述论文&#xff0c;31页pdf涵盖216页pdf详述41个深度因果模型&#xff0c;值得关注&#xff01;因果关系概念在人类认知中起着重要作用。在过去的几十年里&#xff0c;因果推理在计算机科学、医学、经济学和教育等许多领…

论文学习4-An Attentive Neural Architecture for Fine-grained Entity Type Classification

文章目录1.introduction2.相关工作3. 本文model3.1general model3.2 mention represent3.3 context model3.3.1 averaging encoder3.3.2 LSTM encoder3.3.3 Attention Encoder4. 实验在这项工作中&#xff0c;我们提出了一种新的基于注意的神经网络模型来完成细粒度实体类型分类…

脑机接口技术或将纳入美出口管制?技术成熟度与军用进展情况

来源&#xff1a; 学术plus 编译&#xff1a;学术plus高级观察员 TAO2022年9月&#xff0c;美国国会的下属机构政府问责局&#xff08;Government Accountability Office, GAO&#xff09;发布了题为《脑机接口》&#xff08;Brain-Computer Interfaces&#xff09;的焦点…

OpenAI 发布新语音系统「Whisper 」,英文识别能力可接近人类水平

来源&#xff1a;AI科技评论作者&#xff1a;黄楠编辑&#xff1a;陈彩娴9月21日&#xff0c;OpenAI 发布了一个名为「Whisper 」的神经网络&#xff0c;声称其在英语语音识别方面已接近人类水平的鲁棒性和准确性。「Whisper 」式一个自动语音识别&#xff08;ASR&#xff09;系…

论文学习5-NODE2BITS: Compact Time- and Attribute-aware Node Representations for User Stitching

文章目录摘要1.Introduction2. 介绍两个概念2.1 Dynamic Heterogeneous Network Model动态异构网络模型2.2 时间随机游走3NODE2BITS:基于散列的Emdedding框架3.1 采样时间随机游动和定义时间上下文3.2 基于多维特征的时态语境&#xff08;上下文3.3基于特征的上下文聚合和散列4…

谷歌科学家亲讲:具身推理如何实现?让大模型「说」机器人的语言

来源&#xff1a;智源社区整理&#xff1a;戴一鸣导读&#xff1a;机器人领域已经发展了三四十年&#xff0c;但应用方面的进展较慢。这是因为&#xff0c;机器人建立在这样一个假设上&#xff1a;工作环境是简单可控的。如果将机器人部署到稍微复杂一些的环境&#xff08;如家…

论文学习6-(M2DNE)Temporal Network Embedding with Micro- and Macro-dynamics

文章目录1 intorduction2. 相关工作3. 准备工作4.model4.2 Micro-dynamics Preserved Embedding4.2.1 分层时间关注4.3 Macro-dynamics Preserved Embedding4.3.1链接速率4.3.2 宏观约束联合5. 实验网络嵌入的目的是将节点嵌入到低维空间中&#xff0c;同时捕获网络的结构和属性…

蒲慕明院士:我们为什么要探索人脑的奥秘

来源&#xff1a;学习时报作者简介蒲慕明&#xff0c;1948年出生&#xff0c;中国科学院院士&#xff0c;美国科学院外籍院士&#xff0c;现任中国科学院脑科学与智能技术卓越创新中心学术主任&#xff0c;上海脑科学与类脑研究中心主任。他是国际著名的神经生物学家和生物物理…

论文学习7-Spam Review Detection with Graph Convolutional Networks(阿里巴巴)

文章目录Introduction2. 相关工作3. 本文的model3.1 Preliminaries3.2建立问题3.3闲鱼图上的异构卷积网络3.3.1Aggregation Sub-layer3.3.2 Time-related Sampling3.3.4将图形网络与文本分类模型相结合。3.4 GCN-based反垃圾邮件模式4.实验Introduction ppt 任务&#xff1a;…

新型AI芯片 其能效或是替代品的两倍

DAVID BAILLOT/UNIVERSITY OF CALIFORNIA SAN DIEGO来源&#xff1a;IEEE电气电子工程师在软件和硅中复制人脑是人工智能&#xff08;AI&#xff09;研究的长期目标。虽然神经形态芯片在能够同时运行多个计算方面取得了重大进展&#xff0c;并且既能计算也能存储数据&#xff0…

论文学习8-How Question Generation Can Help Question Answering over Knowledge Base(KBQA-知识问答)

文章目录abstract1.introduction2. our approach2.2 微调fine tuning3.Model3.1QA Model3.2QG modelabstract 本文研究了基于知识库的问答系统的性能改进问题生成技术。问题生成(question generation, QG)的任务是根据输入的答案生成相应的自然语言问题&#xff0c;而问答(ques…

1575万美元!2023科学突破奖揭晓,AlphaFold、量子计算等突破斩获殊荣

来源&#xff1a;FUTURE远见选编&#xff1a;FUTURE | 远见 闵青云 2022年9月22日&#xff0c;科学突破奖基金会宣布了2023科学突破奖&#xff08;Breakthrough Prize&#xff09;的获奖名单。科学突破奖有「科学界的奥斯卡」之称&#xff0c;它表彰在生命科学、基础物理学和数…

nlp4-语料库

文章目录1. 语料库2.建设中的问题3.典型语料库介绍1. 语料库 语料库(corpus) 语料库(corpus) 就是存放语言材料的仓库 (语言数据库)。基于语料库进行语言学研究&#xff0d;语料库语言学(corpus linguistics) 根据篇章材料对语言的研究称为语料库语言学不是新术语&#xff1a;…

费曼:任何伟大的科学成就,都源于思想自由

来源&#xff1a;群学书院理查德菲利普斯费曼&#xff08;Richard Phillips Feynman&#xff0c;1918-1988&#xff09;&#xff0c;美籍犹太裔物理学家&#xff0c;加州理工学院物理学教授&#xff0c;1965年诺贝尔物理奖得主。>>>>费曼1939年毕业于麻省理工学院&…

nlp5-n-gram/语言模型(数据平滑方法

文章目录1.句子的先验概率1.1 n-gram2. 参数估计3. 数据平滑3.1 数据平滑度方法3.1.1加1法3.1.2减1.句子的先验概率 这个联合概率太小了 窗口越大&#xff0c;共现的可能性越小参数多 解决&#xff1a;等价类 不看所有的历史信息只看部分历史信息&#xff0c;但看所有的历史等价…

《科学》:3.8亿年前的心脏,揭示生命演化历史

来源&#xff1a;学术经纬编辑 &#xff1a;药明康德内容微信团队一颗3.8亿年前的心脏&#xff0c;可以告诉我们什么&#xff1f;在一篇近期的《科学》论文中&#xff0c;由澳大利亚科廷大学领导的研究团队借助最新的研究工具&#xff0c;从一枚有颌鱼化石中揭示了清晰的心脏、…