最近几年,一种叫做向量数据库的产品,正趁着AI的热潮开始崭露头角。伴随着AI时代的到来,向量将成为一种重要的数据形式,而传统数据库并不适合用来存储和检索向量数据,因此我们大约需要一种专门设计的数据库来处理这些问题。
和存储数据表,然后用查询语句进行精准搜索的传统数据库不同,向量数据库存储的是向量数据,而查询过程则是从库中搜索出和查询向量最为相似的一些向量,具有一定的模糊性。
相似度计算
计算向量相似度的方法有很多,常用的有余弦相似度、欧几里得距离等
余弦相似度 (Cosine Similarity)
- 二维示意图
测量两个向量之间角度的余弦值。它的值范围从 -1 到 1,其中 1 表示向量完全相同,0 表示向量正交,-1 表示向量完全相反,当拥有的数据中向量的模长很重要,余弦相似度就不合适。
- 计算公式
余弦相似度指两个向量之间夹角的余弦值,反映了它们的方向相似性。余弦相似度的取值范围是[-1, 1],1表示方向完全相同,-1表示方向完全相反。
sim ( a , b ) = a ⋅ b ∥ a ∥ ∥ b ∥ \text{sim}(a, b) = \frac{a \cdot b}{\|a\| \|b\|} sim(a,b)=∥a∥∥b∥a⋅b
欧式距离 (Euclidean Distance)
- 二维示意图
测量两个向量之间的直线距离。它的值范围从 0 到无穷大,其中 0 表示向量完全相同,较大的值表示向量越来越不相似。欧氏距离对大小敏感,向量包含与计数或度量有关的信息时,它非常有用。
- 计算公式
欧几里得距离表示两个向量在空间中的直线距离,距离越小,则表示两个向量之间越相似。
d ( a , b ) = ( a 1 − b 1 ) 2 + ( a 2 − b 2 ) 2 + … + ( a n − b n ) 2 d(a, b) = \sqrt{(a_1 - b_1)^2 + (a_2 - b_2)^2 + \ldots + (a_n - b_n)^2} d(a,b)=(a1−b1)2+(a2−b2)2+…+(an−bn)2
点积(Dot product)
测量两个向量的模长乘积以及它们之间角度的余弦值。它的值范围从负无穷到正无穷,正值表示向量指向相同方向,0 表示向量正交,负值表示向量指向相反方向。
- 计算公式
a ⋅ b = ∑ i = 1 n a i b i a \cdot b = \sum_{i=1}^{n} a_i b_i a⋅b=i=1∑naibi
不同的相似度计算方法适用场景不同,需要考虑向量的特性和具体的应用场景,来选择合适的相似度计算方法。
-
余弦形似度
适用于高维且稀疏的向量的计算,因为它只关注向量的方向,不关注向量的大小。常用于信息检索中文本相似度的计算。 -
欧几里得距离
适用于低维且密集的向量的计算,因为它直接反应向量之间的几何距离。常用于图像特征向量相似度的计算。
相似性搜索
向量数据库的一大特点就是其高效的相似性搜索能力,能够快速的检索出与查询向量最相似的向量
最近邻搜索算法
通过以上这些例子不难看出,向量数据库的主要应用场景就是:给定一个查询向量,然后从众多向量中找到最为相似的一些,这就是所谓的最近邻问题。而能实现这一点的则称之为最近邻搜索算法。
暴力搜索
一种最容易想到的方法可能就是"暴力搜索",也叫平坦搜索,就是直接一路平推过去,依次比较所有向量和查询向量的相似度,挑选出相似度最高的几个。
显然,如果库中的向量过多,这种毫无技术含量的暴力方法将导致极高的搜索时间。但这种方法也有其他方法永远无法达到的一个好处:搜索质量是完美的,因为它真的比较了每一个向量。所以如果库中数据规模较小,遍历全部向量的时间可以接受,这也不失为一种好的方法。
然而实际应用中的数据规模往往都不会太小,所以必须要找出一些方法进行优化。有一种朴素的想法指出了优化的大致思路,可以用一个寻人的例子来说明。
假如已经知道照片上这人在A城市,现在请你想一个办法把他找出来。爆搜相当于去找A城市的每一个人逐一比较,这样一定能找到,但要花费海量的时间。但通过胸前的红领巾知道他是一名小学生,所以就把寻找范围缩小到A市的所有小学,如此就可能将千万级别的查找次数降到只有几十万的级别。
近似最近邻搜索(ANN)
近似最近邻搜索 - Approximate Nearest Neighbor
暴力搜索的问题在于它需要遍历所有的数据,那么可以考虑在搜索范围上去做优化,减少搜索的范围,来提升效率。
俗话说,物以类聚。相似度高的向量在坐标轴上的距离会更相近,而相似度低的向量直接则相距甚远。于是,可以根据向量的相似情况,将它们划分为若干个类别,每个类别可以计算出一个聚类中心。在搜索时,我们先找到与检索向量最相近的聚类中心,然后只需要在这个类别中检索最相似的内容即可。这样就大大减少了搜索的范围。
当然,这种搜索方式得到的结果不一定是最准确的,因为,缩小搜索范围的同时,也可能错过了一些正确的结果。
不过,搜索的质量和速度本身就是矛盾的关系,提升质量也就意味着需要消耗更多的时间,所以,保证质量可接受的前提下,牺牲一部分质量,换取更快的速度是值得的,这就是近似最近邻搜索的思想
聚类算法(k-means)
对于向量的搜索问题,假如能够为查询向量先划定一个大致范围再搜索。有一种称之为聚类的算法可以实现这一点。以最为流行的k-means聚类算法为例:
-
选一个想要分类的数量,比如4类
-
随机生成4个点,称之为聚类中心点
-
这些向量和哪个中心点最近就被分为哪一类
-
用当前被分为一类的向量计算出一个平均向量点
-
把对应的中心点的位置更新为这个平均点
-
判断每个向量点和哪一个中心点最近,重新分类
-
继续用同一类的向量点计算出一个平均点,把中心点更新过去,再次重新分类,如此反复
这个不断迭代的过程,就称之为训练。最后这些中心点将趋于稳定,或者说收敛。最终将这些向量分成了4类。如此在搜索的时候,只需要找出和查询向量最近的那个聚类中心,搜索这个分类中的向量即可,也就实现了缩小搜索范围的目的。
当然,聚类方法并不能保证不会出现遗漏的问题,比如查询向量在这里,但和他最接近的向量其实在这个分类中
有一些缓解这个问题的办法,比如增加聚类的数量,同时指定搜索多个最近区域从而减少遗漏。但只要是试图提高搜索质量,基本上都会增加搜索时间,实际上速度和质量,往往是一对难以调和的矛盾。
几乎所有的算法都是在这两个指标上结合实际情况衡量的结果(还有一个存储问题),所以现实就是除了爆搜能一定找到最近邻的一些向量以外,其他任何方法都不能保证这一点。而只能得到一些近似的结果,所以这些算法一般被称之为近似最近邻算法(ANN, Approximate Nearest Neighbors)
位置敏感哈希(LSH)
除了聚类以外,减少搜索范围的方式还有很多,介绍一种比较流行的基于哈希的方法,位置敏感哈希(Locality Sentence Hashing)。
哈希的概念简单来说就是,任何数据经过哈希函数计算后,都会输出一个固定长度的哈希值,比如128位
而且由于输入是任意数据,而输出是固定长度的数据,以有穷对无穷,根据鸽巢原理必然会出现数据不同但哈希值相同的情况,这也被称之为碰撞。通常情况下,哈希函数的设计一般力求减少这种碰撞的发生。但这里所构建的哈希函数却反其道而行,它力求增大碰撞发生的可能。因为哈希碰撞正是分组的依据,这些分组也被称之为桶(Bucket)
除了容易发生碰撞以外,这个哈希函数还要具备这样一个特征:位置越近,或者说越相似的向量,发生碰撞的概率越高,被分到一个桶中的可能性越大。如此,在查询的时候只需要计算一下查询向量的哈希值,找到其所在的桶,再在这个桶中搜索就好。因为和查询向量最相似的一些向量,大概率都在这个桶中。把具体这种特性的哈希函数称之为(对向量)位置敏感的哈希函数LSH。
LSH的思想是设计一组哈希函数,满足
- 容易发生碰撞
- 两个向量之间相似程度越高,则映射出的哈希值相同的概率越高
函数实现
这样的哈希函数怎么实现呢?看一种常用的手法。以A、B、C三个向量为例:
-
随机生成一条直线,而且这条直接区分正反两侧
如果一个向量在这条线的正的一侧,那么它就是1,如果在反的一侧那么就是0 -
再随机生成一条直线
同样正侧的向量是1,反侧的向量是0
如此这般,随机生成若干个这样的直线,每次都根据向量所在的正反侧得到1或者0。如果一共使用四条随机的直线,如此就为每个向量算出了4个0或1,各自得到一个四位的二进制编码
现在观察一下这3个二进制编码的相似程度,很明显,AC这两个相近的向量的编码更为相似,只有第3位不同,相似度高达3/4(这种比较方式也称汉明距离)。而这个较远的B和AC的相似度都很低,一个是1/4,一个是0
所以为什么向量越接近,得到的二进制编码越相似呢?直观的来定性分析一下
在计算这4个二进制编码的某一位的时候,如果要让B和C的结果一样,这条线无论如何,一定要从AC和BC之间穿过去
同样,如果要让A和C的结果一样的,这条线应该从BC和AB之间穿过
忽略共同穿越的AB,直观上来看,B和C之间的宽度要远大于A和C之间的宽度。而直线是随机生成的,所以从概率上来说,生成的直线从BC间穿过的可能性要比从C间穿过的要更大。所以在生成二进制编码的过程中,C更有可能和A的一样而不是B。
同样如果要让A和B的编码值一样,直线要穿过AC和BC。而如果要让A和C的结果一样,这条线应该从BC和AB之间穿过。忽略共同穿越的BC,AC间的宽度也远小于AB,所以A也是更有可能和C一样而不是B。
所以这串二进制编码便可以作为向量的哈希值,而这个生成的过程就是一种寻找的哈希函数。因为它满足刚才所说的两个要求:
- 容易碰撞
- 越近越容易碰撞
越近越相似的向量,越容易碰撞以至于被分到一个桶中
当然,这个三个向量的哈希值并不完全相同,但如果在观察一个距离A更近的D,会发现D最后的二进制编码或者说哈希值和A一样,发生了碰撞
用4个向量展示了这个方法的基本工作原理,而对于真实情况中许多的向量而言,每个向量通过这个哈希函数后,都会得到一串二进制编码的哈希值。
而那些非常接近的向量的哈希值大概率是一样的(碰撞),也就会被分到了同一个桶中。对于更高维度的向量,道理也是一样的。比如三维便可以使用三维空间中的一个随机平面来做哈希函数的计算。
这个面也有正反,正面的向量得到1,反面的得到0,若干的随机平面自然也得到了一串二进制编码的哈希值。
如果是更高的维度,在这些更高维度中也存在着高维的超平面,同样也可以完成这样的哈希值生成。所以把这种方法称之为随机超平面或者随机投影。
当然,除了直接爆搜,任何试图减少搜索量的方法都会在一定程度上降低搜索的质量。
比如还是这四个向量,现在用9个随机直线,每个向量生成长度为9的二进制哈希编码,可能是这样的过程,AD两个比较近的点的哈希值一致,被分到了同一个桶中,这是比较理想的结果。
分段优化
但因为直线是随机的,所以这个过程也有可能是这样的,在生成第6个编码的时候,这个直线就随机到了AD中间穿过,导致A和D的哈希编码的第6位不同
虽然说概率比较小,但毕竟是有可能发生的,最后A和D无法进入同一个桶。
LSH一般会采用一种分段的措施来改善这种情况。比如:
- 把这些二进制哈希值分成3段
- 独立对这些片段进行分桶
虽然AD的第二个片段被分到了不同的桶中,但第1、3两个片段被分到了同一个桶。可以采用只要匹配一个片段,就将其作为候选项的策略,合理的扩充更多的搜索范围。在这种分段措施下,A和C的第二段也分到一个桶中,两者由此成为了相似向量的候选项,因为它们比较接近,这是一种合理的扩充,而B则没有任何一个段和其他向量对应的段被分到同一个桶中,因为它们距离很远,这很合理。