常见的最小二乘法我们就不多说了,下面主要介绍一下最小二乘法的一些先进方法。
-
正则化的最小二乘法
在使用常见的最小二乘法进行回归分析时,常常会遇到过拟合的问题,也就是在训练数据集上表现的很好,但是在测试数据集上表现的很差。这时候就需要将最小二乘法中引入一个正则化项。常见的正则化有两种。
L2正则化(Ridge回归):
L1正则化(Lasso回归):
从概率的角度解释正则化:正则化相当于参数W的先验分布。如果该分布是的高斯分布,就是L2正则化;如果该分布是的拉普拉斯分布,则是L1正则化。通过加入正则化来限制参数空间,控制模型的复杂度,从而防止过拟合。
-
阻尼最小二乘法(Levenberg–Marquardt algorithm,LMA)
我们常用的最小二乘法是拟合线性方程组,但是对于非线性的函数,我们就要用阻尼最小二乘法,本质上是一个迭代求解的过程,基本思想是利用泰勒展开把非线性函数线性化。
设方程,其中x是变量,c是要拟合的参数。我们要找到一组c使得:
将函数泰勒展开,只保留一阶项,可以得到:
其中是雅克比矩阵:
从而有,从而可以解出,不断迭代更新,直到。