论文浅尝 - AAAI2020 | 多通道反向词典模型

论文笔记整理:朱珈徵,天津大学硕士,自然语言处理方向。


链接:https://arxiv.org/pdf/1912.08441.pdf


动机

反向词典将一段描述作为输入,并一起输出与该描述匹配的其他词,具有重要实用价值和自然语言处理研究价值,例如有助于解决舌尖现象。但现有的反向词典方法不能很好地处理高度多样化的输入问题且存在大量低频词,因此受人从描述到词的这一推理过程的启发,作者提出了多通道反向词典模型,可以同时缓解这两个问题。模型提供了一个句子编码器和多个预测器。预测器将从输入的描述中识别目标词的不同特征。作者在英汉数据集上评估了文中的模型,包括字典的定义和人类的书面描述,表明该模型达到了目前最先进的性能,甚至在人类书面描述数据集上超过了最流行的商业反向字典系统。


亮点

(1)基于人的描述-词的推断过程,作者提出了多通道反向词典模型,包含多个预测器,每个特征预测器都被视为搜索目标词的信息通道,且分为两个类型:内部通道和外部通道。内部通道与词本身的特征相对应,包括词性标记和语素;外部渠道则反映了与外部知识库相关的目标词的特征,如词类、义原。

(2)作者通过对模型的调试,解决了一词多义的词典任务以及高频和低频单词很难预测等难点,在真实场景数据集实现了当前最佳性能且具有相当良好的稳定性和鲁棒性。


方法及模型

基本框架

该模型的基本框架与句子分类模型基本相似,由一个句子编码器和几个预测器组成,其整体框架如下图所示。作者选择双向LSTM (Bi-LSTM)作为句子编码器,它将一个输入的问题编码为一个向量。在一个句子中,不同的词对句子的表现有不同的重要性,因此,作者将注意机制整合到Bi-LSTM中来学习更好的句子表示。

形式上,对于输入的问题 Q={q1,...,q2}, 然后将预训练好的 q1,...q_|Q| 得词向量输入Bi-LSTM,其中d为词向量的维数,得到了两个隐藏方向状态的序列:


然后将双向隐藏状态连接,得到无方向隐藏状态以及最后无方向性隐藏状态加权和的句子表示。


其中αi作为注意力的权重:


接下来将输入问题的句子向量v映射到词向量空间中,使用点积计算每个单词的置信分数:

其中sc_{w,word}表示w的置信分数,W_word 是权值矩阵,b_word 是偏置向量

预测器

预测器主要分为两个通道,共有四种类型,其中内部通道有POS标签预测器及语素预测器,外部通道有词类预测器及义原预测器。

       1、内部通道: POS标签预测器

  字典定义或人写的对一个词的描述通常能够反映该词相应意义的词性标签。作者认为,预测目标词的词性标签可以缓解现有逆向词典模型中返回词性标签与输入查询相矛盾的问题,所以作者将输入问题v的句子向量传递给单层感知机,并将得到某个词w对POS标签的预测得分之和作为该词在POS标签预测器上的置信得分:


   其中记录每个POS标签的预测得分,为权值矩阵,为偏置向量,返回的POS标签索引。

       2、内部通道: 语素预测器

    大多数单词是由一个以上语素组成的复合词。词语的语素与词语的定义或描述之间存在着一种局部语义对应关系。逆向词典通过输入问题来预测目标词的语素,从而获取目标词的组合信息,并补充了词向量的上下文信息。作者设计了一个特殊的语素预测器,与POS标记预测器不同,它允许每个隐藏状态直接参与语素预测,并进行最大池运算获得最终的语素预测分数。具体来说,我们将每个无方向性隐藏状态输入到一个单层感知器中,得到局部语素预测分数,然后对所有局部语素预测分数进行最大池化,得到全局语素预测分数,最后得出语素预测器对某个词w的置信度得分


       3、外部通道: 词类预测器

       语义相关的词尽管它们有紧密的词向量,但是通常属于不同的类别,如“car”和“road”。词汇类别信息有助于从反向词典的结果中剔除语义相关但不相似的词。基于此作者设计了一个层次预测器来计算词类的预测分数

       具体地说,每个词在词的层次结构的每一层都属于一个特定的范畴,所以计算各层的单词类别预测得分,则某个词w在词类预测器上的最终置信度得分为其在各层类别预测得分的加权和:


       4、外部通道: 义原预测器

       在语言学中,义原是自然语言的最小语义单位,知网(HowNet)是目前世界上最著名的义原知识库。它定义了大约2000个义原,并用它们手工注释了10万多个中文和英文单词,被广泛应用于各种自然语言处理任务。知网中词语的义原标注既包括义原的层次结构,也包括义原与义原之间的关系。为简单起见,我们为每个词提取一组非结构化义原,在这种情况下,一个词的义原可以看作是该词的多个语义标签。

作者发现,词汇的义原与词语的描述也存在着局部语义对应关系。因此,设计了一种与语素预测器相似的义原预测器。用S来表示所有义原的集合,Sw为单词w的义原集合,将每个隐藏状态传递给一个单层感知器来计算局部义原预测分数,通过最大池化得到最终的义原预测分数,最后从义原预测器得到单词w的置信度得分

多通道反向词典模型

结合直接词预测中的句子编码器和间接特征预测中的预测器得到的置信度得分,得到多通道反向词典模型中给定词w的最终置信度得分:


其中 C = {pos, mor, cat,  sem} 是各个通道的输出数据,λ_word 和 λ_c 为控制相应项相对权重的超参数。


实验

作者将本文中的多通道反向词典模型与其他反向词典模型的性能和鲁棒性进行比较,进行了详细的定量分析和案例研究,来探讨影响反求字典任务的因素,并展示了该模型的优点和缺点。实验中的评价指标主要有三个:目标词的中位排名(越低越好)、目标词出现在top 1/10/100的准确率(越高越好)、目标词排名的标准差(越低越好)。

上表展示了所有模型在三个测试集上的反词典性能,其中“Mor”、“Cat”和“Sem”分别代表语素、词类和义原预测器。从表中可以看出:

1、与除OneLook之外的所有基准方法相比,文中的多通道模型在无定义数据集和描述集上取得了显著的性能提升,验证了该模型在推广到新的输入问题上的绝对优势。

2、当输入问题是字典定义时,OneLook的性能显著优于我们的模型。这个结果是预期的,因为输入字典定义已经存储在OneLook的数据库中,即使简单的文本匹配也可以轻松处理这种情况。但是,反向字典的输入问题实际上不可能是精确的字典定义。在描述集上,多通道模型取得了比单视图更好的整体性能。

3、MS-LSTM在可见定义集上表现良好,在描述集上表现较差,说明其泛化能力和实用价值有限。

4、通过各预测器加强的BiLSTM变体(+Mor、+Cat、+Sem)均优于BiLSTM。这些结果证明了在反向词典任务中预测目标词特征的有效性。与单通道模型相比,多通道模型的性能得到了进一步的提高,证明了特征融合的有效性,也验证了多通道模型的有效性。




5、BOW表现优于RNN,然而BiLSTM远远超过BOW和RNN。这验证了在神经网络模型中进行双向编码的必要性,也表明了神经网络的潜力。

此外作者还对进行了鲁棒性方面的实验,上图为各模型分别对不同义项数量、词频和查询长度这三个影响因素的实验。

首先在义项数方面,所有模型的性能都随着义项数的增加而下降,说明一词多义是反向词典任务中的难点。但多通道模型表现出了出色的鲁棒性,即使在最具意义的词语上,其性能也几乎没有下降;

其次在词频因素上,尽管最频繁和最不频繁的单词都很难预测,但模型仍有着非凡的稳定性;

最后在查询长度上,当输入只有一个词时,各个系统的性能都较差,是因为从输入查询中提取的信息非常有限,但模型仍在输入超过两个词时的性能较为优越。

总结

在文章中,作者创新地提出了一个多通道反向词典模型,该模型包含多个预测器来预测给定输入查询的目标词的特征。实验结果和分析表明,文章提出的模型达到了最先进的性能,并具有良好的鲁棒性。


 

OpenKG

开放知识图谱(简称 OpenKG)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 博客。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/478785.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

拒绝暴力调参!推荐一个模型Debug神器!

近些年深度学习在视觉、自然语言处理、语音等各个技术方向都诞生了不少创新应用,如智能识别医疗图像中的病灶,辅助医生做病情诊断;智能判别生产线上有质量问题的产品,减轻人工质检压力;对政务、金融等流程中的证件票据…

论文浅尝 - IJCAI2020 | Mucko:基于事实的多层跨模态知识推理视觉问答

论文笔记整理:陈卓,浙江大学计算机科学与技术系,博士研究生。论文链接:https://arxiv.org/pdf/2006.09073代码:https://github.com/astro-zihao/mucko发表会议:IJCAI 2020任务定义及背景VQA(视觉…

LeetCode 40. 组合总和 II(排列组合 回溯)

1. 题目 给定一个数组 candidates 和一个目标数 target ,找出 candidates 中所有可以使数字和为 target 的组合。 candidates 中的每个数字在每个组合中只能使用一次。 说明: 所有数字(包括目标数)都是正整数。 解集不能包含重…

质量运营在智能支付业务测试中的初步实践

背景 毋庸置疑,质量是决定产品能否成功、企业能否持续发展的关键因素之一。对于“质量时代”下的互联网企业,如何在快速迭代的节奏中兼顾质量,真正落地“人人重视质量、人人创造质量、人人享受质量”,这是对QA的要求,也…

新手手册:Pytorch分布式训练

文 | 花花机器学习算法与自然语言处理单位 | SenseTime 算法研究员目录0X01 分布式并行训练概述0X02 Pytorch分布式数据并行0X03 手把手渐进式实战A. 单机单卡B. 单机多卡DPC. 多机多卡DDPD. Launch / Slurm 调度方式0X04 完整框架 Distribuuuu0X05 Reference文中所有教学代码和…

Hotel booking酒店预订——数据分析与建模

Hotel booking酒店预订——数据分析与建模:https://zhuanlan.zhihu.com/p/196757364?utm_sourcewechat_session 写文章Hotel booking酒店预订——数据分析与建模(转载翻译自kaggle)海上泊舟数据分析师数据源:https://www.science…

论文浅尝 - ICLR2020 | Pretrained Encyclopedia: 弱监督知识预训练语言模型

论文笔记整理:陈想,浙江大学博士,研究方向为自然语言处理,知识图谱。Wenhan Xiong, Jingfei Du, William Yang Wang, Veselin Stoyanov.Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model来源&…

LeetCode 216. 组合总和 III(排列组合 回溯)

1. 题目 找出所有相加之和为 n 的 k 个数的组合。组合中只允许含有 1 - 9 的正整数,并且每种组合中不存在重复的数字。 说明: 所有数字都是正整数。 解集不能包含重复的组合。 示例 1: 输入: k 3, n 7 输出: [[1,2,4]]示例 2: 输入: k 3, n 9 输出…

“小众”之美——Ruby在QA自动化中的应用

前言 关于测试领域的自动化,已有很多的文章做过介绍,“黑科技”也比比皆是,如通过Java字节码技术实现接口的录制,Fiddler录制内容转Python脚本,App中的插桩调试等,可见角度不同,对最佳实践的理解…

软考中级 软件设计师资料(考点分析+复习笔记+历年真题+电子版课本)

软考中级 软件设计师资料(考点分析复习笔记历年真题电子版课本): https://blog.csdn.net/weixin_44754772/article/details/113763165 软件设计师是软考中级职称,相比高级的难度而言,中级难度较低,每个人花…

关于NLP相关技术全部在这里:预训练模型、图神经网络、模型压缩、知识图谱、信息抽取、序列模型、深度学习、语法分析、文本处理...

神器推荐NLP近几年非常火,且发展特别快。像BERT、GPT-3、图神经网络、知识图谱等技术应运而生。我们正处在信息爆炸的时代、面对每天铺天盖地的网络资源和论文、很多时候我们面临的问题并不是缺资源,而是找准资源并高效学习。但很多时候你会发现&#xf…

LeetCode 77. 组合(回溯)

1. 题目 给定两个整数 n 和 k,返回 1 … n 中所有可能的 k 个数的组合。 示例:输入: n 4, k 2 输出: [[2,4],[3,4],[2,3],[1,2],[1,3],[1,4], ]来源:力扣(LeetCode) 链接:https://leetcode-cn.com/problems/combin…

论文浅尝 - AAAI2020 | 从异质外部知识库中进行基于图的推理实现常识知识问答...

会议:AAAI2020论文链接:https://arxiv.org/pdf/1909.05311.pdf摘要常识问答旨在回答需要背景知识的问题,而背景知识并未在问题中明确表达。关键的挑战是如何从外部知识中获取证据并根据证据做出预测。最近的研究要么从昂贵的人类注释中生成证…

插件化、热补丁中绕不开的Proguard的坑

文章主体部分已经发表于《程序员》杂志2018年2月期,内容略有改动。 ProGuard简介 ProGuard是2002年由比利时程序员Eric Lafortune发布的一款优秀的开源代码优化、混淆工具,适用于Java和Android应用,目标是让程序更小,运行更快&…

互联网高端社畜行话大全(表情包)

作者 | 洋气的圆圆君前几天,字节跳动CEO张一鸣发表的演讲刷屏朋友圈,其中不忘开讽互联网黑话。燃鹅,作为一只卑微的互联网社畜,哪天被父母问起来我们行业常说的“抓手”、“赋能”都是啥,答不好的话那是要被challenge自…

论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习

Giorgi, J. M., O. Nitski, G. D. Bader and B. Wang (2020). "DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations." arXiv preprint arXiv:2006.03659.原文链接:https://arxiv.org/pdf/2006.03659GitHub项目地址&#xff1a…

MoCoV3:何恺明团队新作!解决Transformer自监督训练不稳定问题!

文 | happy源 | 极市平台论文链接: https://arxiv.org/abs/2104.02057本文是FAIR的恺明团队针对自监督学习Transformer的一篇实证研究。针对Transformer在自监督学习框架中存在的训练不稳定问题,提出了一种简单而有效的技巧:Random Patch Projection&…

LeetCode 496. 下一个更大元素 I(哈希)

1. 题目 给定两个没有重复元素的数组 nums1 和 nums2 ,其中nums1 是 nums2 的子集。找到 nums1 中每个元素在 nums2 中的下一个比其大的值。 nums1 中数字 x 的下一个更大元素是指 x 在 nums2 中对应位置的右边的第一个比 x 大的元素。如果不存在,对应…

论文浅尝 - AAAI2020 | 多模态基准指导的多模态自动文摘

论文笔记整理:刘雅,天津大学硕士。链接:https://aaai.org/ojs/index.php/AAAI/article/view/6525动机近年来,随着计算机视觉以及自然语言处理技术的发展,多模态自动文摘技术逐渐成为学术界和工业界研究的热点。当前的多…

改进YOLOv8注意力系列三:结合CrissCrossAttention、ECAAttention、EMAU期望最大化注意力

改进YOLOv8注意力系列三:结合CrissCrossAttention、ECAAttention、EMAU期望最大化注意力 代码CrissCrossAttention注意力ECAAttention通道注意力EMAU期望最大化注意力加入方法各种yaml加入结构本文提供了改进 YOLOv8注意力系列包含不同的注意力机制以及多种加入方式,在本文中…