论文浅尝 | 用增强学习进行推理:问答与知识库完善(KBC)

本文转载自公众号:程序媛的日常



利用知识库、知识图谱来完善问答系统,有非常广阔的实际应用场景。当用户提出一个问题时,有时候仅用知识库中的某一个三元组事实(fact triple)即可回答。但当问题比较复杂时,而知识库中又经常是不完备的(incomplete),这时就需要结合多个事实、进行知识图谱上的推理,才能找到正确实体答案(entity)。举个例子来说,用户提出一个问题后,可以转换成如下的结构化查询:

进行这样一个查询并找到答案可能就需要访问知识图谱中的许多结点和边:

这样一个寻找答案的过程可以建模为一个序列化决策问题,也就自然可以用增强学习来解决。今天要分享的工作包括:

[1] Xiong et al., "DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning". EMNLP 2017.

[2] Das et al., "Go for a Walk and Arrive at the Answer: Reasoning Over Paths in Knowledge Bases using Reinforcement Learning". ICLR 2018.


[1] 提出的 DeepPath,是第一篇比较完整的用增强学习做知识库推理的工作,其将问题建模成一个马尔科夫决策过程 <S, A, P, R>。与以往工作不同的是,其状态空间 S 是连续的:[1] 利用 TransE 等模型预训练了整个知识图谱的表达,并将知识图谱两个实体之间的差表示为状态:

可以看到,这样建模就需要提前知道目标实体(也就是实体答案)。[1] 中的动作空间 A 就自然而然地定义为知识图谱中的所有关系。最后,奖励 R 的定义上他们采用了三种奖励函数:

这三种函数主要是为了让训练过程更加高效,让学习到的策略更快捷。有了这样的建模后,整个问题的解决过程就如下图所示:

虽然这个过程比较直观,但是用增强学习做知识图谱推理存在着一个很大的难点就是其动作空间比较大。在我们比较熟悉的其它使用增强学习的任务中, 比如 Atari games (Mnih et al., 2015),一般只有 4~18 valid actions;而前两年名声大噪的 AlphaGo (Silver et al. 2016),也“只有” 250 valid actions。但对于常见的知识图谱推理来说,有 >= 400 actions。[1] 给出的解决办法除了刚才特殊设计的奖励函数,还有像 AlphaGo 一样先用有监督学习进行预训练,这里的细节请参阅原论文。

可以看到这篇工作的效果还是不错的,这是一些到的推理路径(horn-clauses)


刚才提到,[1] 的工作中使用的建模方法必须要求提前知道推理的目标实体,也就是实体答案,并用这个目标实体去指导寻找推理路径的过程。这个“局限性”不仅存在于 [1] 这个基于增强学习做知识推理的工作中,也存在于过去几个非增强学习的基于路径(path-based)的工作里(如 Neelakantan et al., 2015; Toutanova et al., 2016)。而同样是基于增强学习,[2] 中提出的 MINERVA 模型就避免了这样的建模要求。换句话说,DeepPath [1] 做的是事实判断(fact prediction),也就是去判断某个三元组是否是正确的;而 MINERVA [2] 是做问答(query answering),是在知识图谱中的全部实体中找正确答案。尽管前者的算法可以应用到后者,但是这就需要去把所有可能的实体组合到三元组中,遍历一遍,很耗计算;而后者则希望尽量避免遍历,直接找出最合适的答案。直观上来讲,后者的问题就更难一些。


MINERVA [2] 的建模方法也就自然和 DeepPath [1] 不太一样。其“理想的”状态空间 S 包含了当前“走”到的实体结点 e_t,还有已知查询中的 e_{1q} 和 r_q,以及答案 e_{2q}。可是如前所说,[2] 中不需要提前知道答案结点。所以 [2] 将整个过程建模为一个 partially observed MDP(POMDP)。MINERVA [2] 的动作空间也做了精简,其每一时刻的可能动作是当前 e_t 的外出边(outgoing edge)。这点带来的效率上的优势在后续的实验中得到了印证。


为了解决这样一个 POMDP 过程,[2] 将观测序列和历史决策序列用 LSTM 建模表示,并让策略网络的学习基于这样的历史信息:

可以看到,MINERVA [2] 的方法还是比较简单的,不需要提前知道答案,不需要任何预训练,奖励函数不需要特殊设计,仅仅是用 LSTM 来做历史状态的表达。其优点也比较明显,这个工作对路径没有太多的限制,也没有对路径长度的限制,实验结果也表示其在路径比较长的情况下依然表现得很好。


从主要实验结果上来看,首先,MINERVA [2] 因为不断地利用了问题中的关系(query relation)和过去的历史状态信息,使得其的表现远远超过了非增强学习的基于随机游走的模型:

而其和 DeepPath [1] 也进行了比照:

尽管 MINERVA [2] 有很多优点,其也存在一个比较明显的弊端:MINERVA [2] 假设了一定存在一个推理路径,当推理路径不存在(问题不对)时,并不能做出特殊处理。


其实在这个知识图谱推理上还有很多工作,未来有时间会继续跟大家分享。





OpenKG.CN


中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 博客。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/480674.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

阿里P8架构师谈:高并发网站的监控系统选型、比较、核心监控指标

在高并发分布式环境下&#xff0c;对于访问量大的业务、接口等&#xff0c;需要及时的监控网站的健康程度&#xff0c;防止网站出现访问缓慢&#xff0c;甚至在特殊情况出现应用服务器雪崩等场景&#xff0c;在高并发场景下网站无法正常访问的情况&#xff0c;这些就会涉及到分…

斯坦福CS224n追剧计划【大结局】:NLP和深度学习的未来

一只小狐狸带你解锁炼丹术&NLP秘籍简介Stanford CS224n追剧计划是由夕小瑶的卖萌屋发起的开源开放NLP入门项目&#xff0c;借助github和微信群为大家提供同期小伙伴打卡讨论、内容沉淀、作业笔记和FAQ共享、连线斯坦福等服务。关于该计划的详请见这里 。1. Github项目地址h…

KubeVela 高可扩展的云原生应用平台与核心引擎

https://www.oschina.net/news/121015/kubevela-open-source 目录什么是 KubeVela &#xff1f;KubeVela 解决了什么问题&#xff1f;1. 应用开发者眼中的 KubeVela一个 Appfile 示例2. 平台工程师眼中的 KubeVela3. KubeVela vs 经典 PaaS快速入门安装KubeVela1. 安装Kubernet…

打造工业级推荐系统(三):推荐系统的工程实现与架构优化

打造工业级推荐系统&#xff08;三&#xff09;&#xff1a;推荐系统的工程实现与架构优化 gongyouliu 阅读数&#xff1a;4148 2019 年 4 月 26 日导读&#xff1a;个性化推荐系统&#xff0c;简单来说就是根据每个人的偏好推荐他喜欢的物品。互联网发展到现在&#xff0c;推荐…

2020年跨行业跨领域工业互联网平台

2020年跨行业跨领域工业互联网平台 来源&#xff1a;工信部 2020年12月&#xff0c;工信部信发司公示“2020年跨行业跨领域工业互联网平台”。公示的双跨平台共15家&#xff0c;比2019年十大双跨平台增长50%。新增的平台为&#xff1a;腾讯WeMake工业互联网平台&#xff0c;忽…

阿里P8架构师谈:什么是缓存雪崩?服务器雪崩的场景与解决方案

什么是应用服务雪崩 雪崩问题 分布式系统都存在这样一个问题&#xff0c;由于网络的不稳定性&#xff0c;决定了任何一个服务的可用性都不是 100% 的。当网络不稳定的时候&#xff0c;作为服务的提供者&#xff0c;自身可能会被拖死&#xff0c;导致服务调用者阻塞&#xff0c…

2018 年,NLP 研究与应用进展到什么水平了?

AI 前线导读&#xff1a; 随着人工智能的再次兴起&#xff0c;尤其是深度学习的成功应用&#xff0c;自然语言处理&#xff08;NLP&#xff09;也逐渐受到了科研研所、高校以及相关企业的关注&#xff0c;也成为了人工智能重点研究的课题之一。NLP 的主要目标是解决人机对话中的…

论文浅尝 | 基于RNN与相似矩阵CNN的知识库问答

链接:https://arxiv.org/pdf/1804.03317.pdf概述当前大部分的 kbqa 方法为将 kb facts 与 question 映射到同一个向量空间上,然后计算相似性. 但是这样的做法会忽视掉两者间原本存在的单词级别的联系与交互. 所以本文提出一种网络结构 ARSMCNN,既利用到语义的信息, 又利用到单词…

斯坦福大学最甜网剧:知识图谱CS520面向大众开放啦!

一只小狐狸带你解锁炼丹术&NLP秘籍受本次疫情的影响&#xff0c;斯坦福大学的2020春季知识图谱课程——CS520面向公众线上开放啦&#xff01;连课名都是爱你的形状&#xff01;简单翻译一下重点&#xff1a;今年的CS520面向公众开放&#xff0c;大家可以通过远程视频软件Zo…

一篇文章详解大数据技术和应用场景

“ 本文作者 陈睿 &#xff0c;优知学院创始人 新技术、新趋势往往趋之若鹜却又很难说的透彻&#xff0c;希望这篇文章能让大家完整的理解什么是大数据:该篇包含&#xff1a;大数据、技术、场景应用以及大数据的岗位。 什么是大数据 说起大数据&#xff0c;估计大家都觉得只…

推荐标星 100 K 的 GitHub 开源项目

推荐标星 100 K 的 GitHub 开源项目 原文见&#xff1a;推荐 10 个标星 100 K 的 GitHub 开源项目 以下摘录部分&#xff1a; Build Your Own X (GitHub Star&#xff1a;102,000)&#xff1a;汇集了诸多优质资源教你构建属于自己的东西&#xff0c;主要分为增强现实、区块链…

对话周明:回望过去,展望未来,NLP有哪些发展趋势?

HomeBlog 对话周明&#xff1a;回望过去&#xff0c;展望未来&#xff0c;NLP有哪些发展趋势&#xff1f; 2019年2月15日 by 打不死的小强 AI 新闻 0 comments 周明博士是微软亚洲研究院副院长、国际计算语言学协会&#xff08;ACL&#xff09;主席、中国计算机学会理事、中…

阿里P8架构师谈:MongoDB、Hbase、Redis等NoSQL优劣势、应用场景

NoSQL的四大种类 NoSQL数据库在整个数据库领域的江湖地位已经不言而喻。在大数据时代&#xff0c;虽然RDBMS很优秀&#xff0c;但是面对快速增长的数据规模和日渐复杂的数据模型&#xff0c;RDBMS渐渐力不从心&#xff0c;无法应对很多数据库处理任务&#xff0c;这时NoSQL凭借…

研讨会 | 知识图谱助力图书馆知识管理与智慧服务研讨会

知识图谱是大数据时代重要的知识表示方式之一&#xff0c;也是人工智能技术的重要支撑&#xff0c;在智能检索、数据分析、自动问答、知识推荐、知识管理等领域有着广泛的应用前景&#xff0c;为知识创新管理带来了新机遇。由于知识图谱实现了对象识别、文本理解、关系推理、机…

高效利用无标注数据:自监督学习简述

一只小狐狸带你解锁 炼丹术&NLP 秘籍 作者&#xff1a;huyber来源&#xff1a;https://zhuanlan.zhihu.com/p/108906502BERT的大热让自监督学习成为了大家讨论的热点&#xff0c;但其实word2vec和自编码器也都属于自监督学习范畴。本文通过整理自监督学习的一系列工作&…

TI-RTOS实时操作系统开发之功耗测试

文章目录写在前面CCS&#xff08;code composer studio&#xff09;开启Energy Trace配置电池参数设置测量时间在电流曲线图处点击右键开始测量写在前面 要测试一个产品的电流功耗方式有很多种&#xff1a; 1、电流转电压&#xff0c;通过在供电回路中串联10Ω电阻&#xff0c…

程序员真的只能干到35岁?——我的35岁危机度过之道!

“ 在我还是25岁的时候&#xff0c;我和很多程序员一样&#xff0c;其实都有同样的担心&#xff0c;老了以后怎么办&#xff1f;写代码难道还能写到35岁&#xff1f; 难道我这一辈子就做一个程序员就完了吗&#xff1f;难道这条路就不能走出更多的张小龙&#xff08;foxmail开…

研讨会 | 知识工程与问答技术研讨会 (KEQA2018)

人工智能的迅速发展将深刻改变人类社会&#xff0c;而知识工程是人工智能领域中的一个重要研究主题。随着机器学习、自然语言处理和语义网技术的快速发展&#xff0c;知识获取与处理的能力得到了极大的提升&#xff0c;包括自然语言问答技术在内的智能应用也备受关注。本次研讨…

统计学-自然语言处理

摘要&#xff1a;主成分分析&#xff08;英语&#xff1a;Principal components analysis&#xff0c;PCA&#xff09;是一种分析、简化数据集的技术。主成分分析经常用于减少数据集的维数&#xff0c;同时保持数据集中的对方差贡献最大的特征。常常应用在文本处理、人脸识别、…

在K40小破卡训练50层BERT Large的宝藏trick

前言 虽然TPU的显存令人羡慕&#xff0c;但是由于众所周知的原因&#xff0c;绝大部分人还是很难日常化使用的。英伟达又一直在挤牙膏&#xff0c;至今单卡的最大显存也仅仅到32G&#xff08;参考V100、DGX-2&#xff09;。然而&#xff0c;训练一个24层的BERT Large模型的时候…