简介
词向量是用于表示单词意义的向量, 并且还可以被认为是单词的特征向量或表示。 将单词映射到实向量的技术称为词嵌入。在实际应用中,词向量和词嵌入这两个重要的NLP术语通常可以互换使用。它们都表示将词汇表中的单词映射到固定大小的连续向量空间中的过程。这些向量可以捕捉词汇的语义信息。
词向量
词向量(Word Vector)是一种将词语表示为向量的方式,其核心思想是把词语映射到一个连续的向量空间中,每个词都对应空间中的一个点(向量),通过向量之间的运算(如距离计算、相似度计算等)来反映词语之间的语义关系。常见的方式包括:
- One-Hot编码(独热)
为词汇表中的每个词分配一个唯一的整数索引,然后将每个词表示为一个长度等于词汇表大小的向量,向量中只有对应索引位置的值为 1,其余位置为 0。例如,词汇表为 ["苹果", "香蕉", "橙子"],“苹果” 的独热编码向量为 [1, 0, 0]。这种表示方法简单直接,但存在维度高、无法表示词之间语义关系等缺点。 - 词袋模型(Bag-of-Words, BoW)
- TF-IDF
- 词嵌入(Word Embedding)
作用
- 语义表示:能够捕捉词语的语义信息,使得语义相近的词在向量空间中距离较近。例如,“苹果” 和 “香蕉” 在语义上都属于水果类别,它们的词向量在空间中会相对靠近。
- 作为模型输入:方便计算机对文本进行处理,可用于各种自然语言处理任务,如文本分类、情感分析、机器翻译等。
词嵌入(Word Embedding)
词嵌入是一种低维、密集的词向量表示方法,它能够捕捉单词之间的语义关系和上下文信息。词嵌入通常是从大规模文本语料库中通过机器学习训练得到的。这个术语通常用于描述将词映射到向量空间的过程或表示方法。它通常包括训练算法和生成的词向量空间。例如,我们可以说“我们使用Word2Vec算法来生成词嵌入”。
主要方法
-
Word2Vec(Google, 2013)
- CBOW(Continuous Bag of Words):根据上下文预测中心词。
- Skip-gram:根据中心词预测上下文词。
- 词向量能学习到“王子-男人+女人≈公主”这样的关系。
-
GloVe(Global Vectors for Word Representation)(Stanford, 2014)
- 结合全局统计信息,计算词的共现矩阵,然后通过矩阵分解得到词向量。
- 适用于捕捉更广泛的语义信息。
-
FastText(Facebook, 2016)
- 将单词拆分成多个子词(如"apple"→["ap", "pp", "pl", "le"])。
- 能够更好地处理未见过的新词(OOV, Out-of-Vocabulary)。
-
BERT(Google, 2018) 和 ELMo
- 采用深度神经网络(Transformer / LSTM),结合上下文语境生成动态词向量。
- BERT能捕捉单词在不同句子中的不同含义(例如“银行”在“去银行存钱”和“河岸边的风景”中的区别)。
词嵌入的应用
- 自然语言处理(NLP):机器翻译、情感分析、文本分类等。
- 搜索引擎:提升查询理解能力。
- 推荐系统:基于文本的个性化推荐(如新闻推荐)。
- 聊天机器人:让AI更好地理解用户输入。
Word2Vec:基于上下文学习单词的词向量模型
1、概念
Word2Vec 是一种基于神经网络的词向量训练方法,由 Google 在 2013年 提出,能够将单词映射到一个低维稠密向量(Dense Vector),并且可以捕捉单词之间的语义关系。
Word2Vec 训练出的词向量可以进行数学运算,例如:
“国王” - “男人” + “女人” ≈ “王后”
它比传统的 One-Hot 编码、TF-IDF 更紧凑,并且能学习到单词的语义信息。
2、原理
Word2Vec 基于分布式假设,即上下文相似的词,其语义也相似。它的核心思想是通过在大规模文本语料上进行训练,学习词语的上下文信息,从而将每个词语表示为一个固定长度的向量。在这个向量空间中,语义相近的词语对应的向量在空间上也比较接近。
Word2Vec通过训练一个神经网络模型来学习词嵌入,模型的任务就是基于给定的上下文词来预测目标词,或者基于目标词来预测上下文词。
3、训练模型
Word2Vec 主要有两种训练模型:连续词袋模型(CBOW)和跳字模型(Skip - Gram)。
- 连续词袋模型(CBOW)
- 原理:根据上下文词来预测目标词。例如,在句子 “The dog chased the cat” 中,如果上下文窗口大小设为 2,对于目标词 “chased”,上下文词就是 “The”、“dog”、“the”、“cat”。模型的任务就是根据这些上下文词预测出 “chased”。
- 结构:CBOW 模型包含输入层、隐藏层和输出层。输入层是上下文词的独热编码向量,隐藏层通常是线性变换,输出层是一个 softmax 函数,用于计算每个词作为目标词的概率。
- 跳字模型(Skip - Gram)
- 原理:与 CBOW 相反,它根据目标词来预测上下文词。同样以上述句子为例,以 “chased” 为目标词,模型要预测出它的上下文词 “The”、“dog”、“the”、“cat”。
- 结构:Skip - Gram 模型的结构与 CBOW 类似,但输入层是目标词的独热编码向量,输出层要预测多个上下文词的概率。
4、Word2Vec 的应用
📌 搜索引擎:提升关键词检索能力
📌 推荐系统:新闻推荐、商品推荐
📌 情感分析:用于理解文本情绪
📌 机器翻译:提升翻译质量
📌 聊天机器人:让 AI 更好地理解用户输入
5、Word2Vec 的局限性
❌ 无法处理 OOV(Out-Of-Vocabulary,新词):如果词汇表中没有某个单词,就无法表示它。
❌ 忽略单词顺序:Word2Vec 仅考虑局部上下文,无法捕捉完整句意(BERT 解决了这个问题)。
❌ 计算资源消耗大:在大规模数据集上训练需要较长时间。
6、Word2Vec vs. 其他词向量方法
方法 | 维度 | 是否有语义 | 计算量 | 适用场景 |
---|---|---|---|---|
One-Hot | 高(10万+) | ❌ 没有 | 低 | 传统文本分类 |
TF-IDF | 高 | ❌ 没有 | 中 | 文档检索 |
Word2Vec | 低(50-300) | ✅ 有 | 中等 | NLP 任务 |
BERT | 低(768+) | ✅ 动态语义 | 高 | 机器阅读理解 |