原文链接:SVM支持向量机原理及核函数
转载请注明出处
支持向量机原理
大距离分类算法
1、名词解释:
分割超平面:如下图所示,构造一个分割线把圆形的点和方形的点分开,这个线称为分割超平面。
支持向量:离分割超平面最近的点
间距:支持向量到分割超平面距离的两倍
SVM算法的原理就是找到一个分割超平面,它能把数据正确的分类,并且间距最大!
2、计算间距
在而为空间里,可以使用方程w1x1+w2x2+b=0来表示分割超平面。针对高纬度空间,可以写成一般化的向量形式,即wTx+b=0。这里画出与分割线超平面平行的两条直线,分别穿过两个类别的支持向量。这两条直线的方程分别为wTx+b=−1和wTx+b=1。如下图所示:
根据点到直线的距离公式,可以算出支持向量A到分割超平面的距离为:
由于点A在直线
求1∣∣∣∣w∣∣∣∣的最大值即使求||w||2的最小值:
其中n为限量
类别是离散的值,分别使用-1表示圆点类别,1表示方点类别,即y\in \left\(-1,1 \right\)。针对数据集中的所有样本x(i),y(i),只要满足以下约束条件,则由以下参数w和参数
一句话概括:求解SVM算法,就是在满足约束条件y(i)(wTx(i)+b)≥1的前提下,求解||w||2的最小值。
松弛系数
针对现行不可分的数据集,上面的方法就不能用了。解决这个问题的办法就是引入一个参数ϵ,称为松弛系数。然后把优化的目标函数变为:
其中m为数据集的个数,
理解松弛系数:
可以把εi理解为样本x(i)违反一大间距规则的程度。针对大多数满足约束条件的样本ε=0。而对部分违反最大间距规则的样本ε>0。参数R则表示对违反约束的样本的”惩罚”。
把y(i)(wTx(i)+b)作为横坐标,违反约束条件的代价Ji作为纵坐标画图:
上图可以看出,针对哪些没有违反约束条件的样本,其成本为0。违反了约束条件的样本其成本与ε成正比,斜线的斜率为
因此,引入松弛系数类似于逻辑回归的成本函数引入正则项,目的是为了纠正过拟合问题,让SVM对噪声数据由更强的忍耐性。如上上图所示,当出现违反大间距规则的噪声样本出现时,仍能让分割超平面是原来的样子,这就是松弛系数的作用。
核函数
核函数是特征转换函数。
最简单的核函数
回顾上面内容,我们的任务是找出合适的参数w,b,使得分割超平面间距最大,且能正确对数据进行分类。间距最大是我们的优化目标。真确地对数据分类是约束条件。即在满足约束条件y(i)(wTx(i)+b)≥1的前提下,求解||w||2的最小值。
拉格朗日乘子法是解决约束条件下求函数极值的理想方法。其方法是引入非负系数α来作为约束条件的权重:
由于极值的偏导数为0,因此这需要让L对
接着继续求 L对
把这两个式子代入 L通过数学运算得出:
这个公式中 m是数据集个数,
这个公式的最小值求解这里就不说明了。最后求出的a有个明显的特点。即大部分
L里的
当wTx+b>0,预测函数为类别1,当wTx+b<0,预测类别为-1。注意到预测函数里也包含式子x(i)Tx。我们把K(x(i),x(j))=x(i)Tx(j)称为核函数。 x(i)Tx(j)是两个向量内积,它的物理含义是衡量两个向量的相似性。典型地,当两个向量相互垂直是,即完全线性无关,此时x(i)Tx(j)=0。引入核函数后预测函数为:
相似性函数
假设数据集已有一个数图特征,如下图,如何进行分类。
解决这个问题的方式是:用一定规则把这些无法进行线性分割的样本映射到更高纬度的空间里,然后找出超平面。
SVM的核函数就是为了实现这种相似性映射。最简单的核函数是K(x(i),x(j))=x(i)Tx(j),它衡量的是两个输入特征向量的相似性。可以通过定义和函数K(x(i),x(j))来重新定义相似性,从而得到想要的映射。例如在基因测试领域,我们需要根据DNA分子的特征来定义相似性函数,即和函数。在文本处理领域,也可以自己定义和函数来衡量两个词之间的相似性。
怎么把低维度的空间映射到高纬度的空间呢?
举个例子:联想下利用多项式解决线性回归欠拟合问题的方法。如果输入特征是一维的[x1]变量,我们把它变成二维的一个方法是把输入特征转化为[x1,2x21],定义这种特征映射的函数就称之为相似性函数Φ(x)。这样在原来低维度计算相似性的运算x(i)Tx(j),就可以转换为高纬度空间里进行相似性运算Φ(x(i))TΦ(x(i))。
核函数K(x(i),x(j))和相似性函数Φ(x)的关系:
相似性函数是特征的映射函数,起到转换的作用。而核函数是特征向量的内积。经过相似性函数转换后,核函数变成K(x(i),x(j))=Φ(x(i))TΦ(x(i))。
常用核函数
核函数一般和应用场景相关,在不同领域所应用的核函数可能也不相同。但是实际上也有一些通用核函数“万金油”,一般有两种:多项式核函数和高斯核函数。
1、多项式核函数:
2、高斯核函数:
如果输入的特征是一维的标量,那么高斯核函数对应的形状就是一个反钟形的曲线,其参数σ控制反钟形的宽度。如下图所示:
由于
前面无限多项的累加器,其物理意义就是把特征向量转换到无限多维向量空间里,即 高斯函数可以吧输入特征扩展到无限多维空间里。公式的推导公式会用到 泰勒公式。
其中 K(x(i),x(j))是高斯核函数, ai只在支持向量对应的样本出不为0.由此可知, 预测函数时中心点在支持向量机处的高斯函数的线性组合,其线性组合的系数为 aiy(i)。因此,高斯核函数也称为 RBF核函数,即反钟形函数的线性组合。
核函数的对比
1、 线性核函数:这是最简单的核函数,它直接计算两个输入特征向量的内积。
- 优点:简单高效,结果易解释,总能生成一个最简洁的线性分割超平面
- 缺点:只适用线性可分的数据集
2、多项式核函数:通过多项式来作为特征映射函数
- 优点:可以拟合出复杂的分割超平面。
- 缺点:参数太多。有γ,c,n三个参数要选择,选择起来比较困难;另外多项式的阶数不宜太高否则会给模型求解带来困难。
3、高斯核函数:
- 优点:可以把特征映射到无限多维,并且没有多项式计算那么困难,参数也比较好选择。
- 缺点:不容易解释,计算速度比较慢,容易过拟合。
核函数的选择
1、最一般的选择原则是针对数据量很大的时候,可以选择复杂一点的模型。虽然复杂模型容易过拟合,但由于数据量很大,可以有效弥补过拟合问题。如果数据集较小选择简单点的模型,否则很容易过拟合,此时特别要注意模型是否欠拟合,如果欠拟合可以增加多项式纠正欠拟合。
2、根据样本量m和特征量
- 特征相比样本较大(如m=10~1000,n=10000):选逻辑回归或者线性函数SVM
- 特征较少,样本量中(如m=10~10000,n=1~1000):选择高斯SVM
- 特征量少,样本多(如m=50000+,n=1~1000):选多项式或高斯SVM
原文链接:SVM支持向量机原理及核函数
转载请注明出处!