个人主页:在线OJ的阿川
大佬的支持和鼓励,将是我成长路上最大的动力
阿川水平有限,如有错误,欢迎大佬指正
Python 初阶
Python–语言基础与由来介绍
Python–注意事项
Python–语句与众所周知
数据清洗前 基本技能
数据分析—技术栈和开发环境搭建
数据分析—Numpy和Pandas库基本用法及实例
回归模型前 必看
数据分析—三前奏:获取/ 读取/ 评估数据
数据分析—数据清洗操作及众所周知
数据分析—数据整理操作及众所周知
数据分析—统计学基础及Python具体实现
数据分析—数据可视化Python实现超详解
数据分析—推断统计学及Python实现
目录
- 线性回归模型简介
- 相关关系
- 相关系数r
- 共线性问题
- 回归线
- 残差
- 拟合目标
- 线性回归模型预测拟合度
- 虚拟变量
- 逻辑回归模型简介
- 拟合程度
- 最优参数值
- 线性回归Python具体实现
- 逻辑回归Python具体实现
回归模型是机器学习中很重要的一个数学模型
机器学习
- 简单线性回归
- 多元线性回归
- 逻辑回归
线性回归模型简介
相关关系
- 正相关
- 负相关
- 不相关
相关系数r
- 研究变量之间 线性关系 的相关程度
- 即衡量已知数据的相关性
- 越接近1,表示越接近线性正相关
- 越接近-1,表示越接近线性负相关
- 越接近0,表示越接近线性不相关
r = n ∑ x y − ( ∑ x ) ( ∑ y ) [ n ∑ x 2 − ( ∑ x ) 2 ] [ n ∑ y 2 − ( ∑ y ) 2 ] r=\frac{n\sum xy-(\sum x)(\sum y)}{\sqrt{[n\sum x^2-(\sum x)^2][n\sum y^2-(\sum y)^2]}} r=[n∑x2−(∑x)2][n∑y2−(∑y)2]n∑xy−(∑x)(∑y)
r:皮尔逊积矩相关系数,表示两个变量间的线性关系强度和方向,其阈值为[-1,1]
x:通常作为自变量
y:通常作为因变量
∑ \sum ∑ :求和符号,表示加和一系列数值
在多元线性回归中发现两个自变量相关系数r绝对值大,去除其中的一个自变量
例如:超过0.8或0.9可以考虑移除其中一个
- 因为一般认为相关系数大于0.8及以上,会导致严重共线性问题
共线性问题
- 若本身两个变量间是高度相关的,而处理过程中将两个变量认为不相关/相互独立的,会导致 系数估计不准确,从而对预测产生影响
例如:若男性和女性两个变量分别设置两个虚拟变量,会导致共线性问题- 因为男和女这两个变量本身是高度相关的,所以设置一个虚拟变量即可(1设成男,0设成女或者1设成男,0设成女),且当知道N-1虚拟变量值时,可以直接推导出第n个值,说明他们之间存在相关联,则设第n个虚拟变量是没必要的,会导致共线性问题
回归线
- 去拟合图中的数据点,尽可能的去靠近图中每个数据点的直线
残差
- 回归线的实际观测值与估计值(拟合值)之间的差
拟合目标
- 让所有残差的平方和最小
更专业的术语
- 最小二乘法
- 通过最小化残差的平方和来找到最好的模型参数
除了相关系数r 也要关注 p值
在独立双样本t/z检验中有一个叫做p值
p值小(拒绝原假设)
- 自变量对因变量有统计显著性影响
- 自变量对因变量有显著预测作用
p值大(接受原假设)
- 自变量对因变量无统计显著性影响
- 自变量对因变量无显著预测作用
p值大的自变量可选择剔除(因为该自变量对因变量无显著预测作用),再进行多轮拟合,再反复调整去求截距和系数,可以降低对预测值的干扰和误导
线性回归模型预测拟合度
R2 衡量线性回归模型整体的预测拟合度
- R2的范围值 [0,1]
- 越接近 1,说明模型的预测值与实际观察值相差越小,使得线性回归模型整体和实际高拟合
- 越接近 0,说明模型的预测值与实际观察值相差越大,使得线性回归模型整体和实际低拟合
R 2 = 1 − ∑ i = 1 n ( y i − y ^ i ) 2 ∑ i = 1 n ( y i − y ˉ ) 2 R^2=1-\frac{\sum_{i=1}^{n} (y_i-\hat{y}_i)^2} {\sum_{i=1}^{n}(y_i-\bar{y})^2} R2=1−∑i=1n(yi−yˉ)2∑i=1n(yi−y^i)2
y i y_i yi:第i个观测因变量值
y ˉ \bar{y} yˉ:所有观测因变量值的平均值
y ^ i \hat{y}_i y^i:由模型给出的第i个观测的观测因变量值
虚拟变量
在线性回归模型中表示分类变量要引入虚拟变量
- 即只取0和1这两个值的变量
根据分类的类别,若有n种类型,则引入n-1个虚拟变量
- 若引入n个虚拟变量,则会引起共线性问题
pd.get_dummies(DataFrame名, columns=[" 分类变量"], dtype=int, drop_first) 将分类变量 转化为虚拟变量0/1,且删除 第1个引用的虚拟变量(从而保持 n-1个虚拟变量)
逻辑回归模型简介
逻辑回归
- 处理二分类问题,只能在零和一之间
- 要设置阈值,一般为0.5,但可以根据具体情况来调整阈值
拟合程度
最大似然估计
- 需要用到数值优化算法(例如其中的梯度下降等)来寻找最优参数值
需要排除 高度相关的变量,否则会导致数值优化算法无法收敛的问题,无法计算出模型参数值
最优参数值
- 在这参数值下观察到的样本出现的概率是最大的,从而让模型预测和样本之间差距越小
求出最优参数值后,看p值
看自变量的系数值,然后对自然常数e 求系数的那个值的次方,反映的是自变量对因变量的倍数影响
线性回归Python具体实现
简单线性回归 y=b0+mx
- 预测未知数据,用 自变量值来预测因变量值
- 因变量只受到一个自变量影响
多元线性回归 y=b0+b1x+b2x+…+bnxn
- 因变量 受到 多个自变量影响
- 自变量应该相互独立,不应该高度相关
- 否则导致对系数估计不准确
- 自变量应该相互独立,不应该高度相关
y = b 0 + m x y= b_{0}+mx y=b0+mx
或者
y = b 0 + b 1 x + + b 2 x + . . + b n x n y= b_{0}+b_1x++b_2x+..+b_nx_n y=b0+b1x++b2x+..+bnxn
b = ∑ y i − m ( ∑ x i ) n b=\frac{\sum y_i-m(\sum x_i)}{n} b=n∑yi−m(∑xi)
m = n ( ∑ x i y i ) − ( ∑ x i ) n ( ∑ x i 2 ) − ( ∑ x i ) 2 m=\frac{n(\sum x_iy_i)-(\sum x_i)}{ n(\sum x_i^2)-(\sum x_i)^2} m=n(∑xi2)−(∑xi)2n(∑xiyi)−(∑xi)
y:因变量
b 0 b_0 b0:y轴截距,可以视为 与常量1相乘
m, b 1 b_1 b1, b 2 b_2 b2… b n b_n bn:斜率(也称系数)
x:自变量
x i x_i xi :第i个观测的自变量值
y i y_i yi :第i个观测的因变量值
先安装 statsmodels库,并引入模块:import statsmodels.api as sm
y=DataFrame名[" "] 提取因变量
x=DataFrame名.drop[" ",axis=1] 删除掉因变量从而提取自变量
或者
x=DataFrame名[[" "]] 选择提取自变量
自变量1.corr(自变量2) 验证自变量间的相关性
- 结果越接近1 说明越相关
- 结果越接近0 说明越不相关
或者
DataFrame名.corr() 自动对各变量之间找相关系数
.abs() 得到所有元素绝对值
- 还可以搭配热力图heatmap,一眼看出颜色深浅
以相关系数0.8作为阈值,进行筛选相关自变量,确保不会导致共线性问题,然后开始求截距
sm.add_constant(参数) 将截距常量1纳入模型
sm.OLS(因变量,自变量) 最小二乘法
.fit() 对数据进行拟合并生成一个实例
.summery() 对实例进行展示
当得到线性回归模型后,进行预测
pd.Categorical(DataFrame[分类变量], categories=[" "]) 将分类变量 转化为category类型
- categories 该参数可以告诉系统虚拟变量的全部类型
再get_dummies() 将分类变量转化为虚拟变量
线性回归模型.predict(传入包含所有自变量的DataFrame) 预测模型
- 要求:每列都是 模型中的自变量(不多不少),这样每行才是一个要预测的观测值
结构流程图
在模型中没有标准答案,去尝试、调整、验证模型
逻辑回归Python具体实现
逻辑回归 l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1−pp)=b0+b1x+b2x+..+bnxn
l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1−pp)=b0+b1x+b2x+..+bnxn
p = 1 1 + e − ( b 0 + b 1 x + b 2 x + . . + b n x n ) p=\frac{1}{1+e^{-(b_0+b_1x+b_2x+..+b_nx_n)}} p=1+e−(b0+b1x+b2x+..+bnxn)1
p:因变量y=1的概率( y是二元变量,只能取0或1)
x 1 x_1 x1, x 2 x_2 x2, x 3 x_3 x3,… x n x_n xn:预测变量
b 0 b_0 b0, b 1 b_1 b1, b 2 b_2 b2,…, b n b_n bn是回归系数
先导入模板:import statsmodels.api as sm
pd.get_dummies(DataFrame, columns=[" 分类变量"], dtype=int, drop_first)将分类变量转化为虚拟变量
.corr() 排除共线性问题
.abs() 转化为绝对值
sm.add_constant() 截距常量1纳入模型
sm.Logit(因变量,自变量) 最大似然估计
.fit() 对数据进行拟合并生成实例
.summary() 查看输出
先看p值看哪些变量没有显著预测作用,一般设置阈值为0.05,再看 codf系数,但要将该系数翻译成自然语言e的倍数
np.exp() 计算e的多少次方
.predict() 预测模型
好的,到此为止啦,祝您变得更强
想说的话
实不相瞒,这篇博客写了9个小时以上(加上自己学习了三遍和纸质笔记,共十一小时吧),很累,希望大佬支持
道阻且长 行则将至 |
---|
个人主页:在线OJ的阿川大佬的支持和鼓励,将是我成长路上最大的动力