04.C1W3.Vector Space Models

往期文章请点这里

目录

  • Vector Space Models
  • Word by Word and Word by Doc
    • Word by Document Design
    • Word by Document Design
    • Vector Space
  • Euclidean Distance
    • Euclidean distance for n-dimensional vectors
  • Euclidean distance in Python
  • Cosine Similarity: Intuition
  • Cosine Similarity
    • Previous definitions
    • Cosine Similarity
  • Manipulating Words in Vector Spaces
  • Visualization and PCA
    • Visualization of word vectors
  • Principal Component Analysis
  • PCA Algorithm

往期文章请点 这里

Vector Space Models

在实际生活中,经常会出现以下两种场景:
相同文字不同含义:
在这里插入图片描述
不同文字相同含义:
在这里插入图片描述
这些是之前的语言模型无法处理的问题,而向量空间模型不但可以区分以上场景,还能捕获单词之间的依赖关系。
You eat cereal from a bowl
麦片和碗是强相关
You buy something and someone else sells it
这里的买依赖于卖
这个优点使得向量空间模型可以用于下面任务:
在这里插入图片描述

著名语言学学者(Firth, J. R. 1957:11)说过:
“You shall know a word by the company it keeps”
指出了上下文对当前词的表达有很大影响。

Word by Word and Word by Doc

构建共现矩阵(W/W and W/D 两种),并为语料库的单词提取向量表示。

Word by Document Design

两个不同单词的共现是它们在语料库中在一个特定的词距内一起出现的次数。
Number of times they occur together within a certain distance k k k
例如,假设语料库有以下两个句子。
在这里插入图片描述
假设 k = 2 k=2 k=2,则单词data的共现次数如下:
在这里插入图片描述
这里n取值在1到词表大小之间。data和simple在第一句话距离是1,第二句话距离是2:
在这里插入图片描述

Word by Document Design

计算来自词汇表的单词在属于特定类别的文档中出现的次数。
Number of times a word occurs within a certain category
例如下图中,语料库包含三类文档,然后可以计算某个单词分别在三类文档中出现的次数。
在这里插入图片描述

Vector Space

完成多组文档或单词的表示后,接下来可以构建向量空间。
以上面的矩阵为例
在这里插入图片描述
可以用行来表示单词,列表示文档,若以data和film构建坐标系,则可以根据矩阵中的数值得到向量表示:
在这里插入图片描述
从向量空间表示中可以看到,economy的ML的文档相似度要更大一些
当然这个相似度可以用计算Angle Distance来数字化度量。

Euclidean Distance

Euclidean Distance允许我们确定两个点或两个向量彼此之间的距离。
书接上回,假设有两个语料的向量表示为:
在这里插入图片描述

放到二维空间中:
在这里插入图片描述
用点表示他们后,可以用欧氏距离很衡量二者的相似度:
在这里插入图片描述
具体公式:
d ( B , A ) = ( B 1 − A 1 ) 2 + ( B 2 − A 2 ) 2 d(B,A)=\sqrt{(B_1-A_1)^2+(B_2-A_2)^2} d(B,A)=(B1A1)2+(B2A2)2
B 1 − A 1 B_1-A_1 B1A1 B 2 − A 2 B_2-A_2 B2A2分别对应上图中水平和垂直距离。
本例中带入数字:
d ( B , A ) = ( − 8820 ) 2 + ( 6000 ) 2 ≈ 10667 d(B,A)=\sqrt{(-8820)^2+(6000)^2}\approx10667 d(B,A)=(8820)2+(6000)2 10667

Euclidean distance for n-dimensional vectors

对于高维向量,欧氏距离仍然适用,例如:
在这里插入图片描述
想要计算ice-cream和boba的欧氏距离,则可以使用以下公式:
d ( v ⃗ , w ⃗ ) = ∑ i = 1 n ( v i − w i ) 2 等价于求范数Norm of ( v ⃗ , w ⃗ ) d(\vec{v},\vec{w})=\sqrt{\sum_{i=1}^n(v_i-w_i)^2}等价于求范数\text{Norm of}(\vec{v},\vec{w}) d(v ,w )=i=1n(viwi)2 等价于求范数Norm of(v ,w )
ice-cream和boba的欧氏距离可以写为:
( 1 − 0 ) 2 + ( 6 − 4 ) 2 + ( 8 − 6 ) 2 = 1 + 4 + 4 = 3 \sqrt{(1-0)^2+(6-4)^2+(8-6)^2}=\sqrt{1+4+4}=3 (10)2+(64)2+(86)2 =1+4+4 =3

Euclidean distance in Python

在这里插入代码片
# Create numpy vectors v and w
v np. array([1, 6, 8])
w np. array([0, 4, 6])
# Calculate the Euclidean distance d
d = np.linalg.norm(v-w)
# Print the result
print (("The Euclidean distance between v and w is: ", d)

Cosine Similarity: Intuition

先给结论:当语料库中文章包含单词数量差异较大时,使用Cosine Similarity
余弦相似度使用文档之间的角度,因此不依赖于语料库的大小。

假设我们有eggs和disease两个单词在三个语料库中图像如下:
在这里插入图片描述
语料库中各个类型的文章单词数量不相同,这里的Agriculture和History文章单词数量基本相同,而Food文章单词较少。Agriculture与其他两类文章的欧式距离分别写为: d 1 d_1 d1 d 2 d_2 d2
在这里插入图片描述
从图中可以看到 d 2 < d 1 d_2<d_1 d2<d1,表示Agriculture和History文章相似度更高。
余弦相似度是指The cosine of the angle between the vectors. 当角度接近90度时,余弦接近于0。
在这里插入图片描述
从余弦相似度上看, β > α \beta>\alpha β>α,表示Agriculture和Food文章相似度更高。

Cosine Similarity

Previous definitions

先回顾两个定义:
Vector norm,向量的模(范数)可以表示为:
∣ ∣ v ⃗ ∣ ∣ = ∑ i = 1 n v i 2 ||\vec{v}||=\sqrt{\sum_{i=1}^nv_i^2} ∣∣v ∣∣=i=1nvi2
Dot product点乘可以表示为:
v ⃗ ⋅ w ⃗ = ∑ i = 1 n v i ⋅ w i \vec{v}\cdot \vec{w}=\sum_{i=1}^nv_i\cdot w_i v w =i=1nviwi

下面是点乘推导:

设有两个向量 a \mathbf{a} a b \mathbf{b} b,在 n n n维空间中的坐标分别为 ( a 1 , a 2 , … , a n ) (a_1, a_2, \ldots, a_n) (a1,a2,,an) ( b 1 , b 2 , … , b n ) (b_1, b_2, \ldots, b_n) (b1,b2,,bn)。这两个向量的点积定义为:
a ⋅ b = a 1 b 1 + a 2 b 2 + … + a n b n \mathbf{a} \cdot \mathbf{b} = a_1b_1 + a_2b_2 + \ldots + a_nb_n ab=a1b1+a2b2++anbn

向量 a \mathbf{a} a b \mathbf{b} b 的范数(长度)分别是:
∥ a ∥ = a 1 2 + a 2 2 + … + a n 2 \|\mathbf{a}\| = \sqrt{a_1^2 + a_2^2 + \ldots + a_n^2} a=a12+a22++an2
∥ b ∥ = b 1 2 + b 2 2 + … + b n 2 \|\mathbf{b}\| = \sqrt{b_1^2 + b_2^2 + \ldots + b_n^2} b=b12+b22++bn2

两个向量之间的夹角 θ \theta θ 的余弦值可以通过点积和范数来表示:
cos ⁡ ( θ ) = a ⋅ b ∥ a ∥ ∥ b ∥ \cos(\theta) = \frac{\mathbf{a} \cdot \mathbf{b}}{\|\mathbf{a}\| \|\mathbf{b}\|} cos(θ)=a∥∥bab

将点积的公式代入上述表达式,我们得到:
cos ⁡ ( θ ) = a 1 b 1 + a 2 b 2 + … + a n b n a 1 2 + a 2 2 + … + a n 2 b 1 2 + b 2 2 + … + b n 2 \cos(\theta) = \frac{a_1b_1 + a_2b_2 + \ldots + a_nb_n}{\sqrt{a_1^2 + a_2^2 + \ldots + a_n^2} \sqrt{b_1^2 + b_2^2 + \ldots + b_n^2}} cos(θ)=a12+a22++an2 b12+b22++bn2 a1b1+a2b2++anbn

如果我们将 cos ⁡ ( θ ) \cos(\theta) cos(θ) 乘以 a \mathbf{a} a b \mathbf{b} b,我们可以得到点积的另一种形式:
∥ a ∥ ∥ b ∥ cos ⁡ ( θ ) = a 1 b 1 + a 2 b 2 + … + a n b n = a ⋅ b \|\mathbf{a}\| \|\mathbf{b}\| \cos(\theta) = a_1b_1 + a_2b_2 + \ldots + a_nb_n=\mathbf{a} \cdot \mathbf{b} a∥∥bcos(θ)=a1b1+a2b2++anbn=ab

Cosine Similarity

下图是单词eggs和disease在语料Agriculture和History出现频率的可视化表达。
在这里插入图片描述
根据上面推导的公式:
v ^ ⋅ w ^ = ∣ ∣ v ^ ∣ ∣ ∣ ∣ w ^ ∣ ∣ cos ⁡ ( β ) cos ⁡ ( β ) = v ^ ⋅ w ^ ∣ ∣ v ^ ∣ ∣ ∣ ∣ w ^ ∣ ∣ = ( 20 × 30 ) + 40 × 20 2 0 2 + 4 0 2 × 3 0 2 + 2 0 2 = 0.87 \hat v\cdot\hat w =||\hat v||||\hat w||\cos(\beta)\\ \cos(\beta)=\cfrac{\hat v\cdot\hat w}{||\hat v||||\hat w||}\\ =\cfrac{(20\times30)+40\times20}{\sqrt{20^2+40^2}\times\sqrt{30^2+20^2}}=0.87 v^w^=∣∣v^∣∣∣∣w^∣∣cos(β)cos(β)=∣∣v^∣∣∣∣w^∣∣v^w^=202+402 ×302+202 (20×30)+40×20=0.87
下面是余弦相似度的两个特殊情形:
在这里插入图片描述
在这里插入图片描述
注意:
Cosine Similarity gives values between 0 and 1.

Manipulating Words in Vector Spaces

扩展阅读:[Mikolov et al, 2013, Distributed Representations of Words and Phrases and their Compositionality]
这里的Manipulating Words,是指对词向量的加减(平移向量),使得我们可以计算对应关系,例如:已有国家和首都的词向量空间,已知漂亮国首都是DC(漫威表示不服),求大毛的首都是什么。
在这里插入图片描述
在本例子中,我们有一个假想的二维向量空间,里面包含了不同国家和首都的不同向量表示:
在这里插入图片描述
这里我们可以计算USA到Washington的向量差异(也相当于求USA到Washington之间的关系,也就是求连接二者的向量)
在这里插入图片描述
Washington-USA = [5 -1]
通过这个我们就可以知道要找到一个国家的首都需要移动多少距离,对于大毛就有:
Russia + [5 -1]=[10 4]
在这里插入图片描述
虽然[10 4]没有匹配到具体的城市,我们可以进一步比较每个城市的欧氏距离或者余弦相似性找到最邻近的城市。
在这里插入图片描述
答案是:Moscow

Visualization and PCA

可视化可以让我们很直观的看到单词的相似性,当单词的向量表示通常是高维的,需要我们将其降维到2D空间便于绘图,这里先学其中一种降维写方式:PCA

Visualization of word vectors

在这里插入图片描述
假设词向量维度远大于2,已知oil和gas,city和town相似度较高,如何可视化他们之间的关系?答案就是降维:
在这里插入图片描述
然后再进行可视化,则可得到类似下图的结果:
在这里插入图片描述

Principal Component Analysis

以二维空间为例来看:
在这里插入图片描述
降维就是将Uncorrelated Features映射到另外一个维度空间,并尽量保留更多信息,二维的映射方式一眼就可以看出来,就是垂直映射:
在这里插入图片描述

PCA Algorithm

在线代中有两个概念:Eigenvector(特征向量)和Eigenvalue(特征值)
特征值(Eigenvalue):
特征值是与线性变换相关联的一个标量,它描述了在该变换下,一个向量被缩放的比例。
对于一个给定的线性变换(由矩阵表示),如果存在一个非零向量 v v v,使得变换后的向量与原向量成比例,即 A v = λ v Av=\lambda v Av=λv,其中 A A A 是矩阵, λ \lambda λ 是一个标量,那么 λ \lambda λ 就是 A A A 的一个特征值,而 v v v 就是对应的特征向量。
特征向量(Eigenvector):
特征向量是线性变换下保持方向不变的向量,或者更准确地说,是方向被缩放的向量。
在上述方程 A v = λ v Av=\lambda v Av=λv 中,如果 λ ≠ 0 \lambda\neq 0 λ=0,那么 v v v 就是 A A A 的一个特征向量,它与特征值 λ \lambda λ 配对出现。
不需要知道如何计算这两个东西
算法第一步是为这一步获取一组无关的特征,需要对数据进行归一化,然后计算方差矩阵。
Mean Normalize Data  x i = x i − μ x i σ x i \text{Mean Normalize Data }x_i=\cfrac{x_i-\mu_{x_i}}{\sigma_{x_i}} Mean Normalize Data xi=σxixiμxi
第二步计算方差矩阵(Get Covariance Matrix): Σ \Sigma Σ
第三步奇异值分解(Perform SVD)得到一组三个矩阵: S V D ( Σ ) SVD(\Sigma) SVD(Σ)
在这里插入图片描述
SVD可以直接调用函数解决不用搓轮子。
然后进行投影,将Eigenvector(特征向量)和Eigenvalue(特征值)分别记为 U U U S S S
在这里插入图片描述
然后通过X点积U的前面两列来投影数据,这里我们只保留两列以形成二维可视化空间:
在这里插入图片描述
Percentage of Retained Variance: 这表示保留的方差百分比。在PCA中,我们通常选择前几个主成分来近似原始数据,这些主成分加起来解释了原始数据的一定比例的方差。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/41538.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

STM32-SPI和W25Q64

本内容基于江协科技STM32视频学习之后整理而得。 文章目录 1. SPI&#xff08;串行外设接口&#xff09;通信1.1 SPI通信简介1.2 硬件电路1.3 移位示意图1.4 SPI时序基本单元1.5 SPI时序1.5.1 发送指令1.5.2 指定地址写1.5.3 指定地址读 2. W25Q642.1 W25Q64简介2.2 硬件电路2…

嵌入式C语言面试相关知识——内存管理(不定期更新)

嵌入式C语言面试相关知识——内存管理&#xff08;不定期更新&#xff09; 一、博客声明二、自问题目1、嵌入式系统的内存布局是怎么样的&#xff1f;2、动态内存分配在嵌入式系统中的使用有什么注意事项&#xff1f;3、什么是内存碎片&#xff0c;如何减少内存碎片&#xff1f…

win11自动删除文件的问题,安全中心提示

win11自动删除文件的问题&#xff0c;解决方法&#xff1a; 1.点击任务栏上的开始图标&#xff0c;在显示的应用中&#xff0c;点击打开设置。 或者点击电脑右下角的开始也可以 2.点击设置。也可以按Wini打开设置窗口。 3.左侧点击隐私和安全性&#xff0c;右侧点击Windows安全…

我国网络安全领域有哪些法律法规?主要内容是什么?

1. 背景介绍 网络信息安全方面的法规在全球范围内都有相应的立法&#xff0c;我们主要的立法有《网络安全法》、《密码法》、《数据安全法》以及《个人信息保护法》。当前也有一些相关的条例和管理办法&#xff0c;接下来就为大家一一介绍。 2. 法规介绍 在中国&#xff0c;…

多线程(进阶)

前言&#x1f440;~ 上一章我们介绍了线程池的一些基本概念&#xff0c;今天接着分享多线程的相关知识&#xff0c;这些属于是面试比较常见的&#xff0c;大部分都是文本内容 常见的锁策略 乐观锁 悲观锁 轻量锁 重量级锁 自旋锁 挂起等待锁 可重入锁和不可重入锁 互斥…

接口测试分析、设计以及实现

接口相关理论 ui功能测试和接口测试哪个先执行&#xff1f;–为什么 结论&#xff1a;接口测试先执行 原因&#xff1a;ui功能测试需要等待前端页面开发完成、后台接口开发完后且前端与后端联调完成。ui功能测试与接口测试的区别&#xff1f; ui功能&#xff1a;功能调用&am…

【原理+使用】DeepCache: Accelerating Diffusion Models for Free

论文&#xff1a;arxiv.org/pdf/2312.00858 代码&#xff1a;horseee/DeepCache: [CVPR 2024] DeepCache: Accelerating Diffusion Models for Free (github.com) 介绍 DeepCache是一种新颖的无训练且几乎无损的范式&#xff0c;从模型架构的角度加速了扩散模型。DeepCache利…

【因果推断】优惠券政策对不同店铺的影响

这次依然是用之前rossmann店铺竞赛的数据集。 之前的数据集探索处理在这里已经做过了&#xff0c;此处就不再赘述了CSDN链接 数据集地址&#xff1a;竞赛链接 这里探讨数据集中Promo2对于每家店铺销售额的影响。其中&#xff0c;Promo2是一个基于优惠券的邮寄活动&#xff0c;发…

SQL Server 2022 中的 Tempdb 性能改进非常显著

无论是在我的会话中还是在我写的博客中&#xff0c;Tempdb 始终是我的话题。然而&#xff0c;当谈到 SQL Server 2022 中引入的重大性能变化时&#xff0c;我从未如此兴奋过。他们解决了我们最大的性能瓶颈之一&#xff0c;即系统页面闩锁并发。 在 SQL Server 2019 中&#x…

Go语言如何入门,有哪些书推荐?

Go 语言之所以如此受欢迎&#xff0c;其编译器功不可没。Go 语言的发展也得益于其编译速度够快。 对开发者来说&#xff0c;更快的编译速度意味着更短的反馈周期。大型的 Go 应用程序总是能在几秒钟之 内完成编译。而当使用 go run编译和执行小型的 Go 应用程序时&#xff0c;其…

如何利用Github Action实现自动Merge PR

我是蚂蚁背大象(Apache EventMesh PMC&Committer)&#xff0c;文章对你有帮助给项目rocketmq-rust star,关注我GitHub:mxsm&#xff0c;文章有不正确的地方请您斧正,创建ISSUE提交PR~谢谢! Emal:mxsmapache.com 1. 引言 GitHub Actions 是 GitHub 提供的一种强大而灵活的自…

SSM中小学生信息管理系统 -计算机毕业设计源码02677

摘要 随着社会的发展和教育的进步&#xff0c;中小学生信息管理系统成为学校管理的重要工具。本论文旨在基于SSM框架&#xff0c;采用Java编程语言和MySQL数据库&#xff0c;设计和开发一套高效、可靠的中小学生信息管理系统。中小学生信息管理系统以学生为中心&#xff0c;通过…

赤壁之战的烽火台 - 观察者模式

“当烽火连三月&#xff0c;家书抵万金&#xff1b;设计模式得其法&#xff0c;千军如一心。” 在波澜壮阔的三国历史长河中&#xff0c;赤壁之战无疑是一场改变乾坤的重要战役。而在这场战役中&#xff0c;一个看似简单却至关重要的系统发挥了巨大作用——烽火台。这个古老的…

OpenAI的崛起:从梦想到现实

OpenAI的崛起不仅是人工智能领域的重大事件&#xff0c;也是科技史上一个引人注目的篇章。本文将深入探讨OpenAI从创立到如今的演变过程&#xff0c;分析其成功的关键因素&#xff0c;以及未来的发展方向。 一、OpenAI的初创期&#xff1a;理想主义与混乱并存 OpenAI成立于20…

插入排序——C语言

假设我们现在有一个数组&#xff0c;对它进行排序&#xff0c;插入排序的算法如同它的名字一样&#xff0c;就是将元素一个一个插入到合适的位置&#xff0c;那么&#xff0c;该如何做呢&#xff1f; 如果我们要从小到大进行排序的话&#xff0c;步骤如下&#xff1a; 1.对于…

区间最值问题-RQM(ST表,线段树)

1.ST表求解 ST表的实质其实是动态规划&#xff0c;下面是区间最小的递归公式&#xff0c;最大只需将min改成max即可 f[i][j] min(f[i][j - 1], f[i (1 << j - 1)][j - 1]); 二维数组的f[i][j]表示从i开始连续2*j个数的最小/大值。 例如&#xff1a;我们给出一个数组…

uniapp启动安卓模拟器mumu

mumu模拟器下载 ADB&#xff1a; android debug bridge &#xff0c; 安卓调试桥&#xff0c;是一个多功能的命令行工具&#xff0c;他使你能够与连接的安卓设备进行交互 # adb连接安卓模拟器 adb connect 127.0.0.1:port # 查看adb设备 adb deviceshubuilderx 有内置的adb&a…

MSPM0G3507——滴答定时器和普通定时

滴答定时器定时&#xff1a;&#xff08;放在主函数即可&#xff09; volatile unsigned int delay_times 0;//搭配滴答定时器实现的精确ms延时 void delay_ms(unsigned int ms) {delay_times ms;while( delay_times ! 0 ); } //滴答定时器中断 void SysTick_Handler(…

Python28-7.4 独立成分分析ICA分离混合音频

独立成分分析&#xff08;Independent Component Analysis&#xff0c;ICA&#xff09;是一种统计与计算技术&#xff0c;主要用于信号分离&#xff0c;即从多种混合信号中提取出独立的信号源。ICA在处理盲源分离&#xff08;Blind Source Separation&#xff0c;BSS&#xff0…