文本相似度-相似度度量

NLP点滴——文本相似度

目录

  • 前言
  • 字面距离
    • common lang库
    • 相同字符数
    • 莱文斯坦距离(编辑距离)
      • 定义
      • 实现方式
    • Jaro距离
      • 定义
      • 实现方式
      • 应用
    • SimHash
      • 定义
      • 基本流程
      • 相似性度量
      • 存储索引
      • 实现
      • 应用
  • 语义相似性
    • 背景知识
      • 统计语言模型
      • n-gram模型
      • 词向量
    • 主题模型
      • LSA
      • PLSA
      • LDA
      • 应用
    • Word2Vec
      • 神经网络语言模型
      • CBOW和Skip-gram模型
      • 应用
  • 参考文献

前言

在自然语言处理过程中,经常会涉及到如何度量两个文本之间的相似性,我们都知道文本是一种高维的语义空间,如何对其进行抽象分解,从而能够站在数学角度去量化其相似性。而有了文本之间相似性的度量方式,我们便可以利用划分法的K-means、基于密度的DBSCAN或者是基于模型的概率方法进行文本之间的聚类分析;另一方面,我们也可以利用文本之间的相似性对大规模语料进行去重预处理,或者找寻某一实体名称的相关名称(模糊匹配)。而衡量两个字符串的相似性有很多种方法,如最直接的利用hashcode,以及经典的主题模型或者利用词向量将文本抽象为向量表示,再通过特征向量之间的欧式距离或者皮尔森距离进行度量。本文围绕文本相似性度量的主题,从最直接的字面距离的度量到语义主题层面的度量进行整理总结,并将平时项目中用到的文本相似性代码进行了整理,如有任何纰漏还请指出,我会第一时间改正^v^。(ps.平时用的Java和scala较多,本文主要以Java为例。)

语义相似性

在NLP中有时候我们度量两个短文本或者说更直接的两个词语的相似性时,直接通过字面距离是无法实现的,如:中国-北京,意大利-罗马,这两个短语之间的相似距离应该是类似的,因为都是首都与国家的关系;再比如(男人、男孩),(女人、女孩)应该是相同的关系,但是我们看其字面距离都是0。
想要做到语义层面的度量,我们需要用到机器学习建模,而自然语言的问题转化为机器学习的首要问题便是找到一种方法把自然语言的符号数学化。

背景知识

在自然语言处理领域中,有两大理论方向,一种是基于统计的经验主义方法,另一种是基于规则的理性主义方法[15]。而随着计算机性能的提升,以及互联网发展而得到的海量语料库,目前NLP的研究更多是基于统计的经验主义方法。所以在本文讨论的语义相似性中,也是从统计学的角度出发进行总结。

统计语言模型

对于统计语言模型而言,最基础的理论便是贝叶斯理论(Bayes' theorem PS.关于贝叶斯理论强烈推荐:数学之美番外篇:平凡而又神奇的贝叶斯方法,一篇深入浅出的好文。另外推荐下自己师兄参与翻译的作品《贝叶斯方法——概率编程与贝叶斯推断》很全面的贝叶斯理论+实践书籍)。对于大规模语料库,我们可以通过词频的方式来获取概率,例如100个句子中,出现了1次"Okay",那么

而同样的对于句子"An apple ate the chicken"我们可以认为其概率为0,因为这不符合我们说话的逻辑。
统计语言模型是用来计算一个句子的概率,其通常基于一个语料库D来构建。如何表示一个句子的概率呢?我们用来表示一个基元(通常就是指词语,也可以是字或短语),那么对于一个由N个词组成的句子W可以表示为

那么其联合概率

就可以认为是该句子的概率,根据贝叶斯公式的链式法则可以得到:

其中条件概率p(\omega_1)p(\omega_2|\omega_1)p(\omega_3|\omega_1,\omega_2)...p(\omega_n|\omega_1...\omega_{n-1})便是语言模型的参数,如果我们把这些全部算出来,那么一个句子的概率我们就能很轻易的得出。但是很明显,这个参数的量是巨大的是无法计算的。这时我们可以将\omega_i|\omega_1...\omega_{i-1}映射到某个等价类E(\omega_i|\omega_1...\omega_{i-1}),从而降低参数数目。
ps.语料库我们用C表示,而词典D一般为语料中出现的所有不重复词

n-gram模型

既然每个单词依赖的单词过多,从而造成了参数过多的问题,那么我们就简单点,假设每个单词只与其前n-1个单词有关,这便是n-1阶Markov假设,也就是n-gram模型的基本思想。
那么对于句子W的概率我们可以简化如下:

那么对于最简单的一阶情况也称unigram或uni-gram或monogram(二阶bigram 三阶trigram)就简单表示为

为了在句首和句尾能够统一,我们一般会在句首加一个BOS标记,句尾加一个EOS标记,那么对于句子"Mark wrote a book",其概率可以表示如下:

为了预估p(\omega_i|\omega_{i-1})条件概率,根据大数定理,简单统计语料库中\omega_{i-1},\omega_i出现的频率,并进行归一化。我们用c来表示频率,那么可表示如下:

p(\omega_i|\omega_{i-1})=\frac{c(\omega_{i-1}\omega_i)}{\sum_{\omega_i}c(\omega_{i-1}\omega_i)}

其中分母在unigram中就可以简单认为是词语\omega_{i-1}出现的次数。
在n-gram模型中还有一个很重要的问题就是平滑化,因为再大的语料库都不可能涵盖所有情况,考虑两个问题:

  1. c(\omega_{i-1}\omega_i)=0那么p(\omega_i|\omega_{i-1})=0就是0吗?
  2. c(\omega_{i-1}\omega_i)=\sum_{\omega_i}c(\omega_{i-1}\omega_i)那么p(\omega_i|\omega_{i-1})=0就是1吗?

这显然是不合理的,这就需要进行平滑,这里不展开讨论。
根据最大似然,我们可以得到:

其中C表示语料库,Context(omega)表示词语的上下文,而这里对于n-gram模型Context(\omega)=\oemga^{i-1}_{i-n+1},取对数后的对数似然函数为:

从上式我们可以看出p(\omega|Context(\omega))可以看做是\omega关于Context(omega)的函数,即:

其中theta为待定参数集,通过语料库训练得到参数集后,F便确定了,我们不需要再存储概率p(\omega|Context(\omega)),可以直接计算得到,而语言模型中很关键的就在于F的构造

词向量

为了从使得计算机从语义层面理解人类语言,首先要做的就是将语言数学化,如何进行表示呢?人们便提出了词向量的概念,即用一个向量来表示一个词。

One-hot Representation

一种最简单词向量就是利用词频向量将高维的语义空间抽象成数学符号表示,向量长度为词典的大小,这种表示方式非常直观,但是容易造成维度灾难,并且还是不能刻画语义的信息。

词语表示

对于词语而言,用一个向量来表示一个词,最直观简单的方式就是将每个词变为一个很长的向量,向量长度便是词典的长度,其中绝大部分为0,只有一个维度为1代表了当前词。
假设语料库:“冲突容易引发战争”,那么词典为

  • D=[冲突,容易,引发,战争]
  • 冲突=[1,0,0,0]
  • 战争=[0,0,0,1]

每个词都是含有一个1的n维向量(),这种方式我们压缩存储下,就是给每个词语分配一个ID,通常实际变成我们最简单的就是用hash值表示一个词语。这种方式可以用在SVM、最大熵和CRF等等算法中,完成NLP的大多数场景。例如,我们可以直接将
但是缺点很明显,就是我们用这种方式依旧无法度量两个词的语义相似性,任意两个词之间都是孤立的,比如上面的冲突和战争是近义词,但是却没有任何关联性。

文档表示

同样文档也可以用词频向量的形式来表示,一般我们会利用tf-idf作为每一个词的特征值,之后会挑选每篇文档比较重要的部分词来表示一篇文档,拿游戏来说,如下:
[王者荣耀, 阴阳师, 梦幻西游]

  • doc1:[tf-idf(王者荣耀), tf-idf(阴阳师), tf-idf(梦幻西游)]
  • doc2:[tf-idf(王者荣耀), tf-idf(阴阳师), tf-idf(梦幻西游)]

然后我们就可以利用K-means等聚类算法进行聚类分析,当然对于每篇文档,一般我们只会选取部分词汇,因为如果词汇过多可能造成NLP中常见的维度“灾难”。这种方式在大多数NLP场景中都是适用的,但是由于这种表示往往是建立在高维空间,为了避免维度灾难就要损失一定的语义信息,这也是这种方法的弊端。

Distributed representation

另外一种词向量的表示Distributed representation最早由 Hinton在 1986年提出。它是一种低维实数向量,这种向量一般长成这个样子:
[0.792, −0.177, −0.107, 0.109, −0.542, …]
维度以 50 维和 100 维比较常见,当然了,这种向量的表示不是唯一的。
Distributed representation的关键点在于,将高维空间中的词汇映射到一个低维的向量空间中,并且让相关或者相似的词,在距离上更接近(看到这里大家有没有想到普通hash以及simhash的区别呢?),这里引用一张图片(来自[13]):

图中是英语和西班牙语通过训练分别得到他们的词向量空间,之后利用PCA主成分分析进行降维表示在二维坐标图中的。我们可以清晰的看出,对于两种语系的一二三四五,在空间距离上竟是如此的相似,这就是Distributed representation词向量表示的意义所在。
这种采用低维空间表示法,不但解决了维数灾难问题,并且挖掘了word之间的关联属性,从而提高了向量语义上的准确度,下面我们讨论的语言模型都是基于这种词向量表示方式。
PS. 有时候也会出现Word Represention或 Word Embedding(所谓词嵌入)的说法。另外我们这里说的词向量是在词粒度进行分析,当然我们也可以在字粒度的字向量、句子粒度的句向量以及文档粒度的文档向量进行表示分析。

主题模型

在长文本的篇章处理中,主题模型是一种经典的模型,经常会用在自然语言处理、推荐算法等应用场景中。本节从LDA的演变过程对LDA进行阐述,然后就LDA在长文本相似性的判断聚类上做简要说明。

LSA

首先对于一篇文档Document,词语空间的一个词频向量如下:

其中每个维度表示某一词语term在该文档中出现的次数,最终对于大量的训练样本,我们可以得到训练样本的矩阵X,如下图:

LSA的基本思想,便是利用最基本的SVD奇异值分解,将高维语义空间映射到低维空间,其流程如下:

这样对于训练样本中词表的每一个term我们便得到了一个低维空间的向量表示。但LSA的显著问题便是值考虑词频,并不区分同一词语的不同含义

PLSA

LSA基于最基本的SVD分解,但缺乏严谨的数理统计逻辑,于是Hofmann提出了PLSA,其中P便是Probabilistic,其基本的假设是每个文档所表示的词频空间向量w服从多项式分布(Multinomial distribution)


简单扯两句多项式分布:

  • 伯努利分布(Bernoulli distribution)我们从接触概率论开始便知道,即所谓的投硬币,其离散分布如下:

    但是吊吊的数学家们总喜欢做一些优雅的让人看不懂的事情,所以也可以写作如下公式:

    其中k为0或者1

  • 二项分布(Binomial distribution):


    如果进行次投硬币实验,计算出现m次正面朝上的概率
    伯努利分布是二项分布中n=1时的特殊情况

  • Categorical分布(Categorical distribution),如果我们将投硬币改成掷骰子,那么原来一维向量x就会变成一个六维向量,其中每一维度为1表示出现该面,0表示没出现,用数学表示即对于随机变量X有k中情况,其中第种情况出现的概率为

    那么我们可以得到其离散概率分布如下:

    其中如果那么为1,否则为0

  • 多项式分布(Multinomial distribution):与二项分布类似,Categorical分布进行N次试验,便得到多项式分布:

    同样我们可以写成吊吊的形式:

其中为gamma函数:当n>0,则(ps.该形式与狄利克雷分布(Dirichlet distribution)的形式非常相似,因为多项式分布是狄利克雷分布的共轭先验)


OK简单梳理了下过去的知识,PLSA假设每篇文档的词频向量服从Categorical分布,那么对于整个训练样本的词频矩阵W则服从多项式分布。PLSA利用了aspect model,引入了潜在变量z(即所谓主题),使其变成一个混合模型(mixture model)。其图模型如下:

其中表示文档集,Z便是PLSA中引入的隐含变量(主题/类别),表示词表。表示单词出现在文档的概率,表示文档中出现主题下的单词的概率,给定主题出现单词的概率。其中每个主题在所有词项上服从Multinomial分布,每个文档在所有主题上服从Multinmial分布。按照生成模型,整个文档的生成过程如下:
(1)以的概率生成文档
(2)以的概率选中主题
(3)以的概率产生一个单词
那么对于单词出现在文档的联合概率分布,而是隐含变量。

其中分别对应了两组Multinomial分布,PLSA需要训练两组分布的参数

LDA

有了PLSA,那么LDA就相对简单了,其相当于贝叶斯(Bayes' theorem PS.关于贝叶斯理论强烈推荐:数学之美番外篇:平凡而又神奇的贝叶斯方法,一篇深入浅出的好文)PLSA即:
LDA=Bayesian pLSA
为什么这么说呢?我们站在贝叶斯理论的角度看上文提到的PLSA,基于上文的阐述,我们知道PLSA的假设是文档-词语的词频矩阵服从多项式分布(multinomial distribution),那么在贝叶斯理论中,相当于我们找到了似然函数,那么想要计算后验概率时,我们需要找到先验概率。


简单扯两句共轭先验:
根据贝叶斯理论我们有如下形式:

OK其中我们可以成为似然函数即一件事情发生的似然性(最大似然估计),那么相当于先验概率分布,一般为一个常数,所以忽略。那么对于计算后验概率,我们需要找到似然函数和先验分布。
一般当我们已知似然函数的形式的时候,我们需要找到先验分布,那么对于所有满足[0,1]区间内的分布都符合这个条件,为了计算简单,我们采用与似然函数形式尽量一致的分布作为先验分布,这就是所谓的共轭先验。
在上文中介绍多项式分布时提到了Dirichlet分布,我们看多项式分布的形式如下:

那么我们需要找寻形式相似如下的分布:

而Dirichlet分布的形式如下:

看出来了吧,去掉左边的Beta分布不说,在右边的形式上Dirichlet分布和Multinomial分布是及其相似的,所以Dirichlet分布是Multinomial分布的共轭先验。


再回到LDA,根据之前分析的PLSA可知,每个文档中词的Topic分布服从Multinomial分布,其先验选取共轭先验即Dirichlet分布;每个Topic下词的分布服从Multinomial分布,其先验也同样选取共轭先验即Dirichlet分布。其图模型如下:

我们可以看出LDA中每篇文章的生成过程如下:

  1. 选择单词数N服从泊松分布,,
  2. 选择服从狄利克雷分布,,
  3. 对于N个单词中的每个单词 a. 选择一个主题,服从多项分布, b. 以概率生成单词,其中表示在主题上的条件多项式概率。

在LDA中我们可以利用来表示一篇文档。

应用

从之前LDA的阐述中,我们可以利用theta来表示一篇文档,那么我们自然可以利用这个向量对文档进行语义层面的词语和文档的相似性分析从而达到聚类、推荐的效果。当然了LDA本身对于文档分析出的主题,以及每个主题下的词汇,就是对于文档词汇的一层低维聚类。
之前用过Git上Java版的LDA实现,但是语料不是很大,对其性能并不能做出很好的评估。其地址如下:
github: A Java implemention of LDA(Latent Dirichlet Allocation)

public static void main(String[] args)
{// 1. Load corpus from diskCorpus corpus = Corpus.load("data/mini");// 2. Create a LDA samplerLdaGibbsSampler ldaGibbsSampler = new LdaGibbsSampler(corpus.getDocument(), corpus.getVocabularySize());// 3. Train itldaGibbsSampler.gibbs(10);// 4. The phi matrix is a LDA model, you can use LdaUtil to explain it.double[][] phi = ldaGibbsSampler.getPhi();Map<String, Double>[] topicMap = LdaUtil.translate(phi, corpus.getVocabulary(), 10);LdaUtil.explain(topicMap);
}

其采用吉布斯采样的方法对LDA进行求解。之后自己也准备尝试用spark进行实现,看是否能够对性能进行优化。

Word2Vec

谷歌的Tomas Mikolov团队开发了一种词典和术语表的自动生成技术,能够把一种语言转变成另一种语言。该技术利用数据挖掘来构建两种语言的结构模型,然后加以对比。每种语言词语之间的关系集合即“语言空间”,可以被表征为数学意义上的向量集合。在向量空间内,不同的语言享有许多共性,只要实现一个向量空间向另一个的映射和转换,语言翻译即可实现。该技术效果非常不错,对英语和西语间的翻译准确率高达90%。

什么是word2vec?你可以理解为word2vec就是将词表征为实数值向量的一种高效的算法模型,其利用神经网络(关于神经网络之前有简单进行整理:马里奥AI实现方式探索 ——神经网络+增强学习),可以通过训练,把对文本内容的处理简化为K维向量空间中的向量运算,而向量空间上的相似度可以用来表示文本语义上的相似。(PS. 这里往往人们会将word2vec和深度学习挂钩,但其实word2vec仅仅只是用了一个非常浅层的神经网络,跟深度学习的关系并不大。)
Word2vec输出的词向量可以被用来做很多NLP相关的工作,比如聚类、找同义词、词性分析等等。如果换个思路, 把词当做特征,那么Word2vec就可以把特征映射到K维向量空间,可以为文本数据寻求更加深层次的特征表示 。

神经网络语言模型

word2vec的思想最早起源于2003年Yoshua Bengio等人的论文A Neural Probabilistic Language Model

Traditional but very successful approaches based on n-grams obtain generalization by concatenating very short overlapping sequences seen in the training set. We propose to fight the curse of dimensionality by learning a distributed representation for words which allows each training sentence to inform the model about an exponential number of semantically neighboring
sentences. [16]

从文中摘要中的这段话我们可以看出,神经网络语言模型提出的初衷便是为了解决传统的n-gram模型中维度灾难的问题,用distributed representation词向量的形式来表示每一个词语。
文中提出的模型利用了一个三层神经网络如下图(一般投影层算在输入层中,这里分开阐述):

其中,对于语料库C,词典D的长度为(|D|=N)为语料库C的词汇量大小。对于任意一个词omegaContext(omega)表示其前n-1个词语,类似于n-gram模型,二元对(Context(omega),omega)为一个训练样本。我们v(omega)为词向量,词向量的维度为m。图中W,U分别为投影层和隐藏层以及隐藏层和输出层之间的权值矩阵,p,q分别为隐藏层和输出层上的偏置向量。
论文中给出的神经网络模型如下图:

其中C(i)表示第i个词的特征向量(词向量),我们看到图中第一层为词omega的上下文Context(omega)的每个词向量,在第二层我们将输入层的n-1个词向量按顺序首尾拼接在一起,形成一个长向量,其长度为(n-1)m,输入到激活函数tanh双曲正切函数中,计算方式如下:

经过上述两步计算得到的只是一个长度为N的向量,我们看到图中第三层还做了一次softmax(Softmax function)归一化,归一化后
就可以表示为:

i_omega为词omega在词典D中的索引。
在之前的背景知识n-gram模型

我们知道语言模型中很关键的便是F的确定,其中参数theta如下:

  • 词向量:,以及填充向量(上下文词汇不够n时)
  • 神经网络参数:

论文的主要贡献有一下两点:

  1. 词语之间的相似性可以通过词向量来表示
    不同于之前我们讨论的One-hot Representation表示方式,论文中指出在进行训练时,向量空间表达的词语维度一般为30、60或100,远远小于词典长度17000,避免了维度灾难。同时语义相似句子的概率是相似的。比如:某个语料库中的两个句子S1="A dog is running in the room", S2="A cat is running in the room",两个句子从语义上看仅仅是在dog和cat处有一点区别,假设在语料库中S1=1000即出现1000次而S2=1即仅出现一次,按照之前我们讲述的n-gram模型,p(S1)>>p(S2),但是我们从语义上来看dog和cat在句子中无论从句法还是语义上都扮演了相似的角色,所以两者概率应该相似才对。
    而神经网络语言模型可以做到这一点,原因是:1)在神经网络语言模型中假设了相似的词在词向量上也是相似的,即向量空间中的距离相近,2)模型中的概率函数关于词向量是光滑的,那么词向量的一个小变化对概率的影响也是一个小变化,这样下面的句子:

    A dog is ruuning in the room
    A cat is running in the room
    The cat is running in the room
    A dog is walking in the bedroom
    The dog was walking in the bedroom

只要在语料库中出现一个,其他句子的概率也会相应增大。

  1. 基于词向量的模型在概率计算上已经是平滑的,不需要像n-gram模型一样做额外的平滑处理,因为在softmax阶段我们已经做了归一化,有了平滑性。

我们最终训练得到的词向量,在整个神经网络模型中,似乎只是一个参数,但是这个副作用也正是word2vec中的核心产物。

CBOW和Skip-gram模型

word2vec中用到了两个重要模型:CBOW(Continuous Bag-of-Words Model)和Skip-gram(Continuous Skip-gram Model)模型,文中作者Tomas Mikolov[17]给出了模型图如下:

由图中我们看出word2vec是一个三层结构的神经网络:输入层、投影层和输出层(这里我们发现word2vec与上面我们阐述的神经网络模型的显著区别是去掉了隐藏层)。对于图中左边的CBOW模型,是已知当前词omega_t的上下文的前提下预测当前词omega_t;而正好相反,Skip-gram模型是已知当前词omega_t的前提下来预测其上下文
CBOW模型的目标函数,即其对数似然函数形式如下:

而Skip-gram模型的优化目标函数则形如:

Mikolov在word2vec中提出了两套框架,Hieraichical Softmax和Negative Sampling,这里由于博文篇幅太长了,就不错过多阐述,只对基于Hieraichical Softmax的CBOW模型进行简单总结。
CBOW模型中,与之前神经网络语言模型类似(Context(omega),omega)表示一个样本,其中Context(omega)表示词omega的前后各c个词语(共2c个),其三层结构我们可以细化如下:

  1. 输入层:包含(Context(omega),omega)中2c个词的词向量,每个词向量的维度都是m
  2. 投影层:将输入层的2c个词向量做求和累加,即
  3. 输出层:输出层对应一颗二叉树,它是以语料中出现过的词作为叶子节点,以各词在语料中出现的次数作为权重构造出来的一颗Huffman树(Huffman coding),其叶子节点共N(=|D|)个对应语料库D中的各个词,非叶子节点为N-1个。

对比我们之前讨论的最早的神经网络语言模型,CBOW模型的区别主要为以下三点:

  1. 从输入层到投影层的操作,前者通过拼接,而后者通过累加求和
  2. 前者有隐藏层,后者无隐藏层
  3. 输出层前者是线性结构(softmax),后者是树形结构(Hierarchical softmax)

word2vec对于词典D中的任意词omega,Huffman树必存在一条从根结点到词omega的路径p_omega(且唯一)。路径p_omega上存在l_omega-1个分支(每条路径上的总结点数为l_omega),将每个分支看做一次二次分类,每一次分类产生一个概率,将这些概率乘起来,便是所需的。在二分类的过程中,可以利用Huffman编码值,即左树为1右树为0进行逻辑回归分类。
word2vec在求解的过程中主要利用了梯度下降的方法,调整学习率eta,这里我们不再长篇大论的阐述,具体可以参考文献[14],对word2vec中的数学原理阐述的非常清晰。

应用

word2vec从被发布起就是各种大红大紫,在谷歌的翻译系统中,得到了很好的验证。围绕本篇博文的主题,即文本相似度的度量,word2vec产生的词向量可以非常方便的让我们做这件事情,利用欧氏距离或者cos都可以。
在之前Wetest舆情项目,做句法分析时,需要找寻某一个词的同类词语,我们用用户的游戏评论训练word2vec,效果还是不错的如下图:

对于游戏的人工想到的维度词进行同类扩展,得到扩展维度词。
之前在应用时是自己师兄使用的python版word2vec,而Java对于word2vec有一个较好的东东DL4J,但其性能我并没有经过大规模预料测试,这个大家用的时候需谨慎。

OK,长舒一口气~,好长的一篇整理,整个文章虽然涵盖了好多个模型、算法,但是围绕的一个主题便是如何度量两个文本之间的相似性,从字面和语义两个角度对自己平时用过接触过的模型算法进行整理归纳,如有任何纰漏还请留言指出,我会第一时间改正。(感谢身边的同事和大神给予的指导帮助)

参考文献

  1. 莱文斯坦距离
  2. Commons Lang
  3. Jaro–Winkler distance
  4. 字符串相似算法-(1) Jaro-Winkler Distance
  5. Probabilistic Latent Semantic Indexing Thomas Hofmann
  6. [Algorithm & NLP] 文本深度表示模型——word2vec&doc2vec词向量模型
  7. 数学之美番外篇:平凡而又神奇的贝叶斯方法
  8. 概率语言模型及其变形系列(1)-PLSA及EM算法
  9. 概率语言模型及其变形系列(2)-LDA及Gibbs Sampling
  10. [Algorithm] 使用SimHash进行海量文本去重
  11. 海量数据相似度计算之simhash短文本查找
  12. word2vec 中的数学原理详解
  13. DL4J
  14. 机器翻译领域的新突破
  15. word2vec 中的数学原理详解
  16. 《统计自然语言处理第2版》 宗成庆
  17. A Neural Probabilistic Language Model
  18. Exploiting Similarities among Languages for Machine Translation
分类: NLP
标签: 文本相似度, LDA, word2vec, simhash, 自然语言处理, 编辑距离
好文要顶 关注我 收藏该文
xlturing
关注 - 0
粉丝 - 92
+加关注
6
0
« 上一篇:马里奥AI实现方式探索 ——神经网络+增强学习
» 下一篇:Spark踩坑记——Spark Streaming+Kafka
	</div><div class="postDesc">posted @ <span id="post-date">2016-12-06 10:50</span> <a href="https://www.cnblogs.com/xlturing/">xlturing</a> 阅读(<span id="post_view_count">10295</span>) 评论(<span id="post_comment_count">6</span>)  <a href="https://i.cnblogs.com/EditPosts.aspx?postid=6136690" rel="nofollow">编辑</a> <a href="#" "AddToWz(6136690);return false;">收藏</a></div>
</div>
<script src="//common.cnblogs.com/highlight/9.12.0/highlight.min.js"></script><script>markdown_highlight();</script><script type="text/javascript">var allowComments=true,cb_blogId=150286,cb_entryId=6136690,cb_blogApp=currentBlogApp,cb_blogUserGuid='7d97d526-35b5-e211-83e8-90b11c0b17d6',cb_entryCreatedDate='2016/12/6 10:50:00';loadViewCount(cb_entryId);var cb_postType=1;var isMarkdown=true;</script>

	<div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#3573416" class="layer">#1楼</a><a name="3573416" id="comment_anchor_3573416"></a>  <span class="comment_date">2016-12-06 11:29</span> <a id="a_comment_author_3573416" href="https://www.cnblogs.com/ddx-deng/" target="_blank">deeeeeed</a> <a href="http://msg.cnblogs.com/send/deeeeeed" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_3573416" class="blog_comment_body">可以看出作者的知识储备,并且在这篇文章上下了功夫</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(3573416,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(3573416,'Bury',this)">反对(0)</a></div><span id="comment_3573416_avatar" style="display:none;">http://pic.cnblogs.com/face/622385/20140410162948.png</span></div></div><div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#3573421" class="layer">#2楼</a><a name="3573421" id="comment_anchor_3573421"></a>  <span class="comment_date">2016-12-06 11:30</span> <a id="a_comment_author_3573421" href="https://www.cnblogs.com/goodfulcom/" target="_blank">码有钱</a> <a href="http://msg.cnblogs.com/send/%E7%A0%81%E6%9C%89%E9%92%B1" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_3573421" class="blog_comment_body">干货,加油!</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(3573421,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(3573421,'Bury',this)">反对(0)</a></div><span id="comment_3573421_avatar" style="display:none;">http://pic.cnblogs.com/face/u162282.jpg?id=19203843</span></div></div><div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#3573449" class="layer">#3楼</a><a name="3573449" id="comment_anchor_3573449"></a>  <span class="comment_date">2016-12-06 11:48</span> <a id="a_comment_author_3573449" href="https://www.cnblogs.com/zssxfc/" target="_blank">zssxfc</a> <a href="http://msg.cnblogs.com/send/zssxfc" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_3573449" class="blog_comment_body">清晰,详细</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(3573449,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(3573449,'Bury',this)">反对(0)</a></div></div></div><div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#3573586" class="layer">#4楼</a><a name="3573586" id="comment_anchor_3573586"></a>  <span class="comment_date">2016-12-06 14:07</span> <a id="a_comment_author_3573586" href="https://www.cnblogs.com/TextEditor/" target="_blank">codesnippet.info</a> <a href="http://msg.cnblogs.com/send/codesnippet.info" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_3573586" class="blog_comment_body">NLP这块以后也是很大的市场。</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(3573586,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(3573586,'Bury',this)">反对(0)</a></div><span id="comment_3573586_avatar" style="display:none;">http://pic.cnblogs.com/face/75847/20160425114402.png</span></div></div><div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#4021637" class="layer">#5楼</a><a name="4021637" id="comment_anchor_4021637"></a>  <span class="comment_date">2018-07-16 19:37</span> <a id="a_comment_author_4021637" href="http://home.cnblogs.com/u/1401872/" target="_blank">颦儿爱兮兮</a> <a href="http://msg.cnblogs.com/send/%E9%A2%A6%E5%84%BF%E7%88%B1%E5%85%AE%E5%85%AE" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_4021637" class="blog_comment_body">干货~谢谢作者,加油!</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(4021637,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(4021637,'Bury',this)">反对(0)</a></div></div></div><div class="feedbackItem"><div class="feedbackListSubtitle"><div class="feedbackManage">&nbsp;&nbsp;<span class="comment_actions"></span></div><a href="#4188757" class="layer">#6楼</a><a name="4188757" id="comment_anchor_4188757"></a><span id="comment-maxId" style="display:none;">4188757</span><span id="comment-maxDate" style="display:none;">2019/2/26 19:21:32</span>  <span class="comment_date">2019-02-26 19:21</span> <a id="a_comment_author_4188757" href="https://www.cnblogs.com/daletxt/" target="_blank">Daletxt</a> <a href="http://msg.cnblogs.com/send/Daletxt" title="发送站内短消息" class="sendMsg2This">&nbsp;</a></div><div class="feedbackCon"><div id="comment_body_4188757" class="blog_comment_body">太有深度了,目前一下子消化不了,收藏了以后慢慢咀嚼</div><div class="comment_vote"><a href="javascript:void(0);" class="comment_digg" "return voteComment(4188757,'Digg',this)">支持(0)</a><a href="javascript:void(0);" class="comment_bury" "return voteComment(4188757,'Bury',this)">反对(0)</a></div></div></div>
<div id="comments_pager_bottom"></div></div><script type="text/javascript">var commentManager = new blogCommentManager();commentManager.renderComments(0);</script>
刷新评论刷新页面返回顶部
【推荐】超50万C++/C#源码: 大型实时仿真组态图形源码
【推荐】百度云“猪”你开年行大运,红包疯狂拿,低至1折
【推荐】专业便捷的企业级代码托管服务 - Gitee 码云
【活动】2019第四届全球人工技术大会解码“智能+时代”
</div><!--end: forFlow -->
</div><!--end: mainContent 主体内容容器--><div id="sideBar"><div id="sideBarMain">

公告

		<div id="blog-calendar" style=""><table id="blogCalendar" class="Cal" cellspacing="0" cellpadding="0" title="Calendar">
<tbody><tr><td colspan="7"><table class="CalTitle" cellspacing="0"><tbody><tr><td class="CalNextPrev"><a href="javascript:void(0);" "loadBlogCalendar('2019/02/01');return false;">&lt;</a></td><td align="center">2019年3月</td><td class="CalNextPrev" align="right"><a href="javascript:void(0);" "loadBlogCalendar('2019/04/01');return false;">&gt;</a></td></tr>
</tbody></table></td></tr><tr><th class="CalDayHeader" align="center" abbr="日" scope="col">日</th><th class="CalDayHeader" align="center" abbr="一" scope="col">一</th><th class="CalDayHeader" align="center" abbr="二" scope="col">二</th><th class="CalDayHeader" align="center" abbr="三" scope="col">三</th><th class="CalDayHeader" align="center" abbr="四" scope="col">四</th><th class="CalDayHeader" align="center" abbr="五" scope="col">五</th><th class="CalDayHeader" align="center" abbr="六" scope="col">六</th></tr><tr><td class="CalOtherMonthDay" align="center">24</td><td class="CalOtherMonthDay" align="center">25</td><td class="CalOtherMonthDay" align="center">26</td><td class="CalOtherMonthDay" align="center">27</td><td class="CalOtherMonthDay" align="center">28</td><td align="center">1</td><td class="CalWeekendDay" align="center">2</td></tr><tr><td class="CalWeekendDay" align="center">3</td><td align="center">4</td><td align="center">5</td><td align="center">6</td><td align="center">7</td><td align="center">8</td><td class="CalWeekendDay" align="center">9</td></tr><tr><td class="CalWeekendDay" align="center">10</td><td align="center">11</td><td align="center">12</td><td align="center">13</td><td align="center">14</td><td align="center">15</td><td class="CalWeekendDay" align="center">16</td></tr><tr><td class="CalWeekendDay" align="center">17</td><td align="center">18</td><td align="center">19</td><td align="center">20</td><td align="center">21</td><td align="center">22</td><td class="CalWeekendDay" align="center">23</td></tr><tr><td class="CalWeekendDay" align="center">24</td><td align="center">25</td><td align="center">26</td><td align="center">27</td><td align="center">28</td><td align="center">29</td><td class="CalTodayDay" align="center">30</td></tr><tr><td class="CalWeekendDay" align="center">31</td><td class="CalOtherMonthDay" align="center">1</td><td class="CalOtherMonthDay" align="center">2</td><td class="CalOtherMonthDay" align="center">3</td><td class="CalOtherMonthDay" align="center">4</td><td class="CalOtherMonthDay" align="center">5</td><td class="CalOtherMonthDay" align="center">6</td></tr>
		<div id="leftcontentcontainer"><div id="blog-sidecolumn"><div id="sidebar_search" class="sidebar-block"></div><div id="sidebar_categories">
    • ACM(37)
    • Big data(5)
    • CV(5)
    • Java(11)
    • machine learning(2)
    • NLP(7)
    • 前端(1)
    • 数据库(1)
    • 	</div><!--end: sideBarMain -->
      </div><!--end: sideBar 侧边栏容器 -->
      <div class="clear"></div>
      </div><!--end: main -->
      <div class="clear"></div>
      <div id="footer">
      

      Copyright ©2019 xlturing

      id="google_osd_static_frame_6799767448321">

    本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481265.shtml

    如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

    相关文章

    《科学》封面文章AlphaCode的重大意义及其思考

    来源&#xff1a;陈德旺科学网博客链接地址&#xff1a;https://blog.sciencenet.cn/blog-57940-1368420.html程序员&#xff0c;虽然戏称程序猿&#xff0c;其实是一个高薪高智商工作&#xff0c;需要对问题的理解力、解决问题的创造性&#xff0c;还需要熟悉掌握编程语言。这…

    深度学习可以与大数据分手吗?

    小夕&#xff1a;hi&#xff0c;路人~你知道机器学习中数据的维度太高会带来什么问题吗&#xff1f;路人己&#xff1a;此时&#xff0c;如果样本量不足&#xff0c;会容易过拟合啊~小夕&#xff1a;为什么呢&#xff1f;路人己&#xff1a;这还有为什么&#xff1f;小夕&#…

    集群化:中国基础研究发展模式的转型方向

    来源&#xff1a;《学术前沿》作者&#xff1a;李侠2020年&#xff0c;科技部等五部门联合制定《加强“从0到1”基础研究工作方案》&#xff0c;旨在贯彻落实《国务院关于全面加强基础科学研究的若干意见》&#xff0c;其中明确指出&#xff0c;切实解决我国基础研究缺少“从0到…

    各种损失函数比较-带你斩获offer

    损失函数&#xff08;Loss function&#xff09;是用来估量你模型的预测值 f(x)f(x)值。2. 常用损失函数 常见的损失误差有五种&#xff1a; 1. 铰链损失&#xff08;Hinge Loss&#xff09;&#xff1a;主要用于支持向量机&#xff08;SVM&#xff09; 中&#xff1b; 2. 互…

    如果你跟夕小瑶恋爱了...(上)

    如果...如果...有一天...你追到了女神夕小瑶...并且与她恋爱了...&#xff08;想说“没有如果”的路人请自觉狗带(&#xffe3;∇&#xffe3;)&#xff09;小夕的生活很规律的哦&#xff0c;小夕每天都会依次经历且仅仅经历以下6件事情&#xff1a;化妆-吃饭-聊天-自习-上课-要…

    「返老还童」梦想成真?「NMN教父」争议研究将登陆科学顶刊

    来源&#xff1a;机器之心逆转衰老&#xff0c;我们终于有了新方法&#xff1f;一项为时13年的研究最近又有了新的突破&#xff0c;事关人类最在意的问题&#xff1a;衰老理论。12月19日&#xff0c;哈佛大学遗传学教授David Sinclair在社交网络上宣布有关人类衰老研究的最新突…

    对抗思想与强化学习的碰撞-SeqGAN模型原理和代码解析

    GAN作为生成模型的一种新型训练方法&#xff0c;通过discriminative model来指导generative model的训练&#xff0c;并在真实数据中取得了很好的效果。尽管如此&#xff0c;当目标是一个待生成的非连续性序列时&#xff0c;该方法就会表现出其局限性。非连续性序列生成&#x…

    如果你跟夕小瑶恋爱了...(下)

    AB派在上一篇文章中&#xff0c;你成功的将“挽回夕小瑶”的任务卡进了隐马尔可夫模型&#xff08;HMM&#xff09;中。那么我们来规范化的整理一下已经有的信息和需要计算得到的信息。还记得这两个图嘛&#xff1f;这就是我们建立好的模型。&#xff08;隐状态的转移图&#x…

    史上最简单的隐马尔可夫模型讲解

    如果... 如果...有一天...你追到了女神夕小瑶...并且与她恋爱了... &#xff08;想说“没有如果”的路人请选择狗带(&#xffe3;∇&#xffe3;)&#xff09; 小夕的生活很规律的哦&#xff0c;小夕每天都会依次经历且仅仅经历以下6件事情&#xff1a; 化妆-吃饭-聊天-自习-上…

    睡着了也在学习!Nature最新研究揭示运动记忆从何而来

    来源&#xff1a;生物通Steph Curry罚球时&#xff0c;他的大脑会利用运动记忆。现在&#xff0c;加州大学旧金山分校(UCSF)的研究人员已经展示了这种类型的记忆是如何在睡眠期间得到巩固的&#xff0c;当大脑处理白天的学习&#xff0c;使做某事的物理行为成为潜意识时。Karun…

    数据结构:堆(Heap)

    数据结构&#xff1a;堆&#xff08;Heap&#xff09; <!-- 文章内容 --><div data-note-content"" class"show-content"><div class"show-content-free"><p>堆就是用数组实现的二叉树&#xff0c;所有它没有使用父指针…

    BAT机器学习面试1000题系列

    1、本文的内容全部来源于七月在线发布的BAT机器学习面试1000题系列&#xff1b; 2、文章中带斜体的文字代表是本人自己增加的内容&#xff0c;如有错误还请批评指正&#xff1b; 3、原文中有部分链接已经失效&#xff0c;故而本人重新加上了新的链接&#xff0c;如有不当&…

    拉马努金:“与神对话”的数学天才

    来源&#xff1a;微信公众号“图灵教育”撰文&#xff1a;[英] 马库斯杜索托伊翻译&#xff1a;柏华元当哈代和利特尔伍德步履维艰地穿越陌生的黎曼图景时&#xff0c;在5000英里外的印度马德拉斯港务局内&#xff0c;一个名叫斯里尼瓦瑟拉马努金的年轻办事员被素数的神秘莫测吸…

    浅入深出被人看扁的逻辑回归!

    好像在各种机器学习入门教程中&#xff0c;逻辑回归模型&#xff08;Logistic/Logit Regression&#xff09;经常被拿来作为入门的机器学习模型&#xff0c;比如我家的Andrew Ng就是这样做的。看起来&#xff0c;逻辑回归模型实在太简单&#xff0c;甚至容易被认为是一个拍脑袋…

    全球Web3技术产业生态发展报告(2022年)

    来源&#xff1a;中国信息通信研究院编辑&#xff1a;蒲蒲Web3不只是互联网应用层的简单创新&#xff0c;可能会带来互联网体系架构整体性演进和系统性升级。党中央、国务院高度关注下一代互联网创新发展&#xff0c;在关键核心技术突破、新型基础设施建设、融合创新应用赋能等…

    算法工程师笔试 -剑指offer-习题详细解答

    说明 主要编程语言为 C/C涉及字符串的问题可能会使用 Python题目编号以原书为准&#xff0c;如“面试题 3&#xff1a;数组中重复的数字” 因为题目不多&#xff0c;所以就不做分类了 所有代码均通过 OJ 测试 在线 OJ 地址&#xff1a;剑指Offer_编程题 - 牛客网 Reference 《…

    深入深出Sigmoid与Softmax的血缘关系

    缘起逻辑回归逻辑回归模型是用于二类分类的机器学习模型&#xff08;不要说逻辑回归可以做多类分类啊喂&#xff0c;那是二类分类器的组合策略问题&#xff0c;而与逻辑回归分类器本身的构造没有半毛钱关系啊&#xff09;。我们知道&#xff0c;在逻辑回归中&#xff0c;用于预…

    科学家使用机器学习获得前所未有的小分子视图

    编辑 | 绿萝数以千计的不同小分子&#xff08;称为代谢物&#xff09;在整个人体中传输能量和传递细胞信息。由于它们非常小&#xff0c;因此很难在血液样本分析中将代谢物彼此区分开来——但识别这些分子对于了解运动、营养、饮酒和代谢紊乱如何影响健康非常重要。尽管在过去十…

    【Brain】脑洞从何而来?加州大学最新研究:有创造力的人神经连接会「抄近道」...

    来源&#xff1a;量子位为什么有的人更富创造力&#xff1f;总能想到别人不会想到的东西&#xff0c;做别人想不到做的事&#xff1f;最近&#xff0c;这个问题的答案被找到了&#xff1a;有创造力的人&#xff0c;大脑里的神经活动会“抄近道”。加州大学洛杉矶分校的研究人员…

    一位老师,一位领导,一个让全体学生考上目标学校的故事

    今天&#xff0c;小夕给大家讲一个故事... 从前&#xff0c;有座山...​ 山里&#xff0c;有座学校... 学校里&#xff0c;有一位老师&#xff0c;一位领导&#xff0c;还有五只可爱的小仙(学)女(生)。 这5个学生的名字是&#xff1a;小兔&#xff0c;小青&#xff0c;小路&…