论文浅尝 | 神经符号推理综述(下)

笔记整理 | 许泽众,浙江大学在读博士


3、神经驱动的符号推理

相比于之前的两种类型,神经驱动的符号推理的目的是挖掘规则,而神经网络在其中扮演的作用是解决纯符号推理的不确定性,并且能够有效的减少搜索空间。这种类型的方法的基本思路是找到query的多跳邻居节点,然后根据概率从这些邻居节点中选择正确的答案。这类方法大致可以分为三类,基于路径的、基于图的和基于矩阵的。

3.1、基于路径的神经符号推理

如图是基于路径方法的基本方式,在每一步上都会选择一个可能的路径。

这一类的方法的较早尝试是Path-Ranking Algorithm(PRA),需要注意的是这个方法是纯symbolic的,但是其余方法大多借鉴了这个方法,所以先简要介绍一下这个方法。 核心思想是利用连接两个实体的路径去预测他们之间是否有潜在的关系。但是每条路径的重要程度不同,所以需要对每条路径的分配合适的权重。

给定头实体h和尾实体t,PRA通过执行具有l步长的重启算法的随机游走来获得从h到t的长度为l的路径,然后计算实体对(h ,t)遵循路径p时候的得分。最后,PRA通过将不同路径的分数作为对应特征值的线性回归模型来估计不同路径的权重。

PRA依赖KG中存在的关系来寻找路径,下面两篇文章就是通过不同的方式来添加KG中的关系,分别是利用web的文本信息和语义库中的单词来补充KG中的关系。

Reading the web with learned syntactic-semantic inference rules.

Improving learning and inference in a large knowledge-base using latent syntactic cues.

以上的文章只能处理见过的关系,同时算法中的路径生成,是针对每一种关系的,所以针对不同的关系,需要训练不同的模型分别计算每种关系对应的多条路径的权重,那么很明显这种方式的局限性是比较大的。

于是Compositional vector space models for knowledge base inference提出用一个RNN模型来融合路径上的不同关系。使用了PRA来挖掘各种路径。找到这样的路径以后呢,使用RNN来将在这条路径中出现的关系的embedding融合起来,然后让融合以后的embedding更像head relation。比如这个例子里面的就是融合了一条路径的embedding。这里的embedding都是随机初始化的。这种方法的相较于PRA,泛化性更强,它能够处理没有见过的路径,也能处理训练时没有将该关系作为head relation的推理。

另外一种方法Chain-of-Reasoning,相比于上面的方法,他在处理路径embedding的时候,将不同的路径信息融合了起来,没有仅仅使用上面的做法,即只使用了一条路径,而考虑了多条路径,并且融合路径的方式也有很多种方式。

以上的方法都需要遍历路径,当图谱较大的时候,这种路径会非常非常多,而上述方法没有对路径进行评估,所以搜索空间很大。DeepPath使用了强化学习的方法来完成这件事。

基本思想是将推理过程建模为马尔可夫决策过程,和agent交互的环境状态是由当前节点的embedding和目标embedding来构成的。它的奖励函数是手工设计的,考虑了不同的方面,另外,一开始使用了监督学习预训练防止搜索空间过大。

DeepPath 首次将强化学习方法引入到知识图谱推理中,它对知识图谱进行简单的采样,训练策略网络;并通过手工设计的奖励函数对策略网络进行再训练。DeepPath 的主要任务是给定一个知识图谱中的实体对 (entity1, entity2),使模型推理从 entity1 到 entity2 的路径评估模型的主要任务是链接预测和事实预测。DeepPath 中存在一定问题。例如,它的奖励函数是手工设定的,这种手工设定的策略可能并不是最优的,并且针对不同的数据集可能需要不同的设置;它的采样方法可能导致策略网络出现过拟合现象;强化学习环境中的状态使用 TransE 简单地进行表示,表征能力可能不足。

AnyBURL在使用强化学习完成路径抽取以后,会将其抽象成具体的路径,并且决定生成的不同规则中哪些是置信度高的规则,以下是一个根据路径抽象出规则的例子:

其余的强化学习方法例如MINERVA解决了其他的一些问题,Deeppath完成的是给定实体对从而推导实体之间的关系路径,而不能在给定头实体和关系的情况下推导出尾实体。MINERVA定义state的时候,没有使用answer的embedding,所以这里可以给定头实体和关系来查找答案,使用hard reward来作为激励。

Mutil-hop使用了相似度来代替hard reward。同时受到drop-out的启发,在选择过程中mask了一部分的选择来防止过拟合。

CPL在选择的时候除了考虑了KG中的信息,还考虑了文本库中的信息。

3.2、基于路径的神经符号推理

基于图的推理,GraIL利用图神经网络从抽取的子图中来推理。基本步骤如图,首先抽取head和tail周围的k跳邻居节点,然后对于每个邻居节点,用一个tuple来表示其特征,其中有两个元素,代表该节点到head和tail的距离。

这里借鉴了R -GCN的方法来建模对多关系图的消息传递,区别在于增加了一个注意力机制,该注意力机制不仅仅和两个相邻节点以及它们之间的关系有关,也和需要被预测的目标关系有关。最终利用两个目标节点的表示,整个图的表示,以及被预测被预测关系的表示,对该目标节点之间具有该目标关系进行打分,得分最高的目标关系为被预测关系。个人感觉这种方法的symbolic的成分比较少。

DPMPN提出基于动态子图的方法,将显示推理技术与图神经网络有效融合,开发出图版的注意力机制,用于引导动态剪枝的子图构建过程。其设计出两层图神经网络架构,下层是基于全图随机抽样的图神经网络,上层是基于批输入多子图的图神经网络,连接两个图神经网络层并指导子图构建的是一种图版的注意机制,更准确的说,是一种注意力转移机制(Attention Transition Mechanism)。深度学习网络通常是一个超大的网络,动用大量的计算节点及上百万的参数,但是针对每一个具体的例子,人类通常只用很少若干点来作解释,大量非必要的信息被过滤掉。我们看到的解释部分,实际反映的是我们的意识状态,它是从下层的潜意识全状态中通过某种筛选机制自动涌现出的可自我识别的特征,即解释,并通过主观的有序组合形成我们的推理过程,让我们能够从纷繁复杂的信息中迅速捕捉到最相关特征,大大降低后续作显式推理所需的计算复杂度。

3.3、基于矩阵的神经符号推理

基于矩阵的推理源于tensorlog框架,但是真正将其有效利用的当属neural-LP。

在tensorlog框架中,实体使用onehot向量表示,每一种关系都使用邻接矩阵表示,那么一个head relation所对应的若干条关系可以表示成如下形式:

本质上是通过矩阵来找到需要预测的triplet的不同层的邻居节点,并且对于每条规则有的不同置信度来选择概率最大的实体作为结果。但是这个框架本身的问题在于搜索空间过大,并且及其耗时。

于是Neural-LP将上面的式子改写为:

本质上是在规定了规则长度以后,在每一步上都给所有的关系分配一个的权重,这样最后的结果向量实际上是得到了head entity的T跳邻居节点,只不过每一个的权重不同,最后选择权重最大的作为预测结果。这个方法将tensorLog中离散的过程转为了可微的过程,并且通过端到端的框架直接学习到了规则。

DRUM的核心思想与Neural-LP一致,只是加了一些trick来使得寻来呢更加简单。

NLIL则注重于挖掘形式更加丰富的规则:

Neural-Num-LP则通过设计以下算子使得neural-LP框架能够学习到包含数值对比的规则。

总结

以下是这篇文章中提到的神经符号推理的所有模型和方法。总体而言,第一种神经符号推理,即符号驱动的神经推理,旨在学习实体和关系的嵌入。利用逻辑规则增加高置信度三元组的个数,提高embedding的效果。因此推理过程仍然是基于embedding的,这缺乏可解释性。第二类,即符号驱动的概率推理,通过以KGs为基础的规则来限定逻辑规则。随着KGs中实体和关系的增加,基础原子/规则将急剧增加,从而导致推理和学习的计算成本增加。此外,这些方法不会产生新的规则。以上两种方法都以答案预测为唯一目标。不同的是,在符号驱动的概率推理中,规则被用来作为预测答案的特征,而在符号驱动的神经推理中,规则被用来生成更多的事实。第三种,即神经驱动的符号推理,以答案预测和规则学习为目标。为了达到这一目的,它根据从头部实体开始的路径、图形或矩阵来推断答案,从而增强了预测答案的可读性。然而,随着跳数的增加,路径、子图或矩阵乘法变得更加复杂,使得预测性能对知识图的稀疏性更加敏感。

 


 

OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

点击阅读原文,进入 OpenKG 网站。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478281.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

没有导师指导,该如何自己选题发CVPR?

| 背景底层计算机视觉技术,如图像增强、图像复原等,一直以来都是一个重要且热门的研究方向。传统的方法多基于稀疏编码、小波变换等技术,近年来,深度学习的兴起为该领域带来了新的发展机遇,同时大幅度提升了方法性能。…

Android硬件加速原理与实现简介

在手机客户端尤其是Android应用的开发过程中,我们经常会接触到“硬件加速”这个词。由于操作系统对底层软硬件封装非常完善,上层软件开发者往往对硬件加速的底层原理了解很少,也不清楚了解底层原理的意义,因此常会有一些误解&…

LeetCode 482. 密钥格式化

1. 题目 给定一个密钥字符串S,只包含字母,数字以及 ‘-’(破折号)。N 个 ‘-’ 将字符串分成了 N1 组。给定一个数字 K,重新格式化字符串,除了第一个分组以外,每个分组要包含 K 个字符&#xf…

暑期学校 | 东南大学2021年国际暑期学校项目:从感知理解到智能认知 (知识图谱及应用课程)...

国际暑期学校开课啦 项目介绍 从感知理解到智能认知——走近新一代人工智能From perceptual understanding to intelligent cognition-Approaching a new generation of AI本项目是由东南大学计算机科学与工程学院、软件学院、人工智能学院组织,通过开设人工智…

LeetCode 970. 强整数

文章目录1. 题目2. 解题2.1 暴力法2.2 优化双重循环1. 题目 给定两个正整数 x 和 y,如果某一整数等于 xi yj,其中整数 i > 0 且 j > 0,那么我们认为该整数是一个强整数。 返回值小于或等于 bound 的所有强整数组成的列表。 你可以按…

ACL'21 | 弱标签的垃圾数据,也能变废为宝!

文 | LawsonAbs编 | 小戏是不是感觉 NER 领域效果提升太过困难?最近一篇来自 Amazon 的文章提出使用强弱标签结合的方式来解决 NER 的问题。强弱标签结合其实非常立足实际的数据情况——干净又准确的强标签数据非常稀少,更多的是标注质量存在问题的弱标签…

会议交流 | “数据智能与知识服务”研讨会的专家报告题目已更新!

“数据智能与知识服务”研讨会的专家报告题目有更新啦!这些专家既有久负盛名的国际知名学者、也有具有前瞻洞见的业界领袖,更有精通各种工程实战的技术大咖。他们将围绕“数据智能与知识服务”的核心主题,为您带来一场豪华的学术盛宴&#xf…

dockerfile拉取python3.7镜像

docker构建python3.7镜像:https://zhuanlan.zhihu.com/p/137288195 FROM:需要什么环境 ENV:修改path,即增加/usr/local/bin这个环境变量 ADD:将本地代码放到虚拟容器中,它有两个参数,第一个是 .…

LeetCode 849. 到最近的人的最大距离

1. 题目 在一排座位( seats)中,1 代表有人坐在座位上,0 代表座位上是空的。 至少有一个空座位,且至少有一人坐在座位上。 亚历克斯希望坐在一个能够使他与离他最近的人之间的距离达到最大化的座位上。 返回他到离他…

可解释性:对神经网络中层特征复杂度的解释与拆分

文 | 任洁,李明杰,刘泽旭源 | 知乎大家好,我们是任洁,李明杰和刘泽旭,本研究是在张拳石老师 Qs.Zhang张拳石 指导下完成的工作。随着深度神经网络的应用日益广泛,可解释性也逐渐受到更多学者的关注。目前对…

新一代开源Android渠道包生成工具Walle

在Android 7.0(Nougat)推出了新的应用签名方案APK Signature Scheme v2后,之前快速生成渠道包的方式(美团Android自动化之旅—生成渠道包)已经行不通了,在此应用签名方案下如何快速生成渠道包呢&#xff1f…

领域应用 | 机器知道哪吒是部电影吗?解读阿里巴巴概念图谱AliCG

转载公众号 | PaperWeekly概念是人类认知世界的基石。比如对于“哪吒好看吗?”,“哪吒铭文搭配建议”两句话,人可以结合概念知识理解第一个哪吒是一部电影,第二个哪吒是王者荣耀的英雄。然而机器能理解吗?针对这一问题…

LeetCode 605. 种花问题

1. 题目 假设你有一个很长的花坛,一部分地块种植了花,另一部分却没有。可是,花卉不能种植在相邻的地块上,它们会争夺水源,两者都会死去。 给定一个花坛(表示为一个数组包含0和1,其中0表示没种…

美团点评业务风控系统构建经验

本文根据“第八届中国系统架构师大会”演讲内容整理而成。 美团最初以团购的形式出现,到现在有了很大的业务形态转变。尤其是经过与大众点评的业务融合,从单一业务发展成了覆盖到店餐饮、到店综合、猫眼、外卖、酒店、旅游等多个垂直领域的综合性电商&am…

95后程序员晒出工资单:狠补了这个,真香…

作为AI 初学者来说,最大的问题就是:资料太多!!!看不完!!!不知道如何取舍!!!人的精力有限!!!大部分想转行AI算法…

领域应用 | 小米在知识表示学习的探索与实践

转载公众号 | DataFunTalk导读:知识表示是知识获取与应用的基础,贯穿了小米知识图谱的构建与应用。本文将结合小米知识图谱的构建及小爱问答场景,介绍融合文本和知识图谱的知识表示学习方法,以及知识表示在知识图谱补全、实体链接…

LeetCode 563. 二叉树的坡度(DFS)

1. 题目 给定一个二叉树,计算整个树的坡度。 一个树的节点的坡度定义即为,该节点左子树的结点之和和右子树结点之和的差的绝对值。空结点的的坡度是0。 整个树的坡度就是其所有节点的坡度之和。 示例:输入: 1/ \2 3输出: 1 解释: 结点的坡度 …

多模态为什么比单模态好?第一份严谨证明来了!

文 | 橙橙子面试官: 听说你对多模态感兴趣,请问为什么多模态学习要比单模态学习效果好?候选人: 直观地,多模态学习可以聚合多源数据的信息,使得模型学习到的表示更加完备。以视频分类为例,同时使用字幕标题等文本信息、…

推荐:26种NLP练手项目(代码+数据)

1.分词 Word Segmentation chqiwang/convseg ,基于CNN做中文分词,提供数据和代码。 对应的论文Convolutional Neural Network with Word Embeddings for Chinese Word Segmentation IJCNLP2017. 2.词预测 Word Prediction Kyubyong/word_prediction &…

会议交流 | 最新NLP核心技术与前沿实践分享!

2021年7月10日,09:00-18:10,DataFunSummit:自然语言处理峰会将如约而至,本次峰会由3位主席和6位出品人精心策划而来,邀请来自业界的40余位嘉宾从NLP基础技术、语义表示与计算、多模理解与生成、信息抽取与检索、人机对…