线性回归是统计学中最常见的一种回归分析方法,用于建立自变量(解释变量)和因变量(响应变量)之间的线性关系。线性回归模型可以用来预测一个或多个自变量对应的因变量的值。
线性回归的基本形式如下:
𝑦=𝑋𝛽+𝜖
其中:
- 𝑦 是因变量的观测值,是一个维度为 𝑛 的向量。
- 𝑋 是自变量的设计矩阵,维度为 𝑛×𝑝,其中 𝑝 是自变量的数量。
- 𝛽 是回归系数,是一个维度为 𝑝 的向量,表示自变量对因变量的影响程度。
- 𝜖 是误差项,表示观测值与真实值之间的差异,通常假设其服从均值为0的正态分布。
线性回归模型的目的是通过最小化误差的平方和来估计回归系数 𝛽,这通常通过最小二乘法来实现。在简单线性回归中,只有一个自变量和一个因变量,模型形式简化为:
𝑦=𝛽0+𝛽1𝑥+𝜖
其中 𝛽0 是截距,𝛽1 是斜率,表示自变量 𝑥 对因变量 𝑦 的线性影响。
线性回归模型的假设包括:
- 线性:自变量和因变量之间存在线性关系。
- 独立性:观测值之间相互独立。
- 同方差性:所有观测值的误差项具有相同的方差。
- 正态分布:误差项服从均值为0的正态分布。
在线性回归中,回归系数 𝛽 通常是通过最小二乘法来计算的。最小二乘法的目标是最小化残差的平方和,即最小化观测值 𝑦𝑖 与预测值 𝑦^𝑖=𝑋𝛽 之间的差异的平方和:
其中,𝑆(𝛽) 是残差平方和,𝑛 是观测值的数量,𝑦𝑖 是第 𝑖个观测值的实际值,𝑋𝑖 是第 𝑖 个观测值的自变量向量(可能包含截距项),𝛽 是回归系数向量。
为了找到使 𝑆(𝛽) 最小的 𝛽,我们需要求解以下方程:
其中,𝑋𝑇 是设计矩阵 𝑋 的转置。这个方程被称为正规方程。解这个方程可以得到 𝛽 的最优估计值:
这里,(𝑋𝑇𝑋)^−1 是矩阵 𝑋𝑇𝑋 的逆。这个解被称为最小二乘估计(Least Squares Estimate, LSE)。
在实际应用中,如果设计矩阵 𝑋 的列线性无关,那么 𝑋𝑇𝑋 将是可逆的,上述解就有效。如果 𝑋 的列线性相关(例如,存在多重共线性),那么 𝑋𝑇𝑋 可能不是满秩的,其逆可能不存在。在这种情况下,可以通过正则化方法(如岭回归或LASSO)来计算 𝛽,或者通过删除或合并冗余的自变量来使 𝑋𝑇𝑋 成为可逆矩阵。
总结一下,线性回归中回归系数 𝛽 的计算步骤如下:
- 构建设计矩阵 𝑋。
- 计算矩阵 𝑋𝑇 和 𝑋𝑇𝑋。
- 计算 𝑋𝑇𝑦。
- 计算 (𝑋𝑇𝑋)−1(如果可能)。
- 计算 𝛽=(𝑋𝑇𝑋)−1𝑋𝑇𝑦。