logistic模型原理与推导过程分析(2)

二项逻辑回归模型

既然logistic回归把结果压缩到连续的区间(0,1),而不是离散的0或者1,然后我们可以取定一个阈值,通常以0.5为阈值,如果计算出来的概率大于0.5,则将结果归为一类(1),如果计算出来的概率小于0.5,则将结果归为另一类(0),用分段函数写出来便是

这样逻辑回归就可以用来进行2分类了,假设数据结构如下

其中m表示样本个数,n表示影响因数的个数,yi(i=0,1,⋯ ,m)取0或者1。现在我们结合数据,利用条件概率分布模型给出基于概率的二项logistic模型如下:

其中,X表示自变量,y表示因变量所属的类别,θ为模型待求的参数,模型解释为在特定的因素下,模型结果取1的概率和取0的概率。模型建好了,接下来就需要进行机器训练,而怎么来给训练一种恰当反馈呢?答案是损失函数,通过损失函数来评估模型学习的好坏和改进机制。

损失函数

机器学习或者统计机器学习常见的损失函数如下:

1.0-1损失函数(0-1 loss function)

2.平方损失函数(quadratic loss function)


3.绝对值损失函数(absolute oss function)

4.对数损失函数(logarithmic loss function)或对数似然损失函数(log - like hood loss function)

逻辑回归中,采用的则是对数损失函数。如果损失函数越小,表示模型越好

说说对数损失函数与平方损失函数

        在逻辑回归的推导中,我们假设样本是服从伯努利分布(0-1分布)的,然后求得满足该分布的似然函数,最终求该似然函数的极大值。整体的思想就是求极大似然函数的思想。而取对数,只是为了方便我们的在求MLE(Maximum Likelihood Estimation)过程中采取的一种数学手段而已。

        由前面阈值的取定原则,我们知道相当于我们用一个类别值代替概率值,而类别值是sigmoid函数的两个最值,概率不可能时时刻刻都取到最值,这势必会造成误差,我们把这种误差称为损失,为了给出损失函数表达式,我们假设模型第i个样本所求的概率值为Pi,而真实类别值可能是0或者1。

当类别真实值是1的情况下:
        所求的概率值pi越小,越接近0,被划为类别0的可能性越大,被划为类别1的可能性越小,导致的损失越大。
        所求的概率值pi越大,越接近1,被划为类别1的可能性越大,被划为类别0的可能性越小,导致的损失越小。我们用下面的函数来描述这种变化关系

其中pi∈(0,1),其图像大致如下

当类别真实值是0的情况下:
        所求的概率值pi越大,越接近1,其结果的类别判定更偏向于1,导致的损失越大。
        所求的概率值pi越小,越接近0,其结果的类别判断更偏向于0,导致的损失越小。我们用下面的函数来描述这种变化关系

其中pi∈(0,1),其图像大致如下

------------------------ ---------- ---------- 分割线内容,hθ等于Pi --------------------------------

根据上面的内容,我们可以得到逻辑回归的对数似然损失函数cost function:

当y=1时,假定这个样本为正类:
        ①如果此时预测的概率hθ(x)=1 ,则单对这个样本而言的cost=0,表示这个样本的预测完全准确。那如果所有样本都预测准确,则总损失total_cost=0
        ②如果此时预测的概率hθ(x)=0,那么单对这个样本而言的cost→∞。也就是说预测y=1的概率为0,那么此时就要对损失函数加一个很大的惩罚项。

当y=0时,推理过程跟上述完全一致,不再累赘。

将以上两个表达式合并为一个,则单个样本的损失函数可以描述为:

 

梯度下降的原理

由上述可知在单个样本中,其损失函数为:

现在问题就转化为一个无约束优化问题,即我们找出最小的θ,使得costfunction达到最小。而在无约束优化问题中,最重要最基本的方法莫过于梯度下降了。

梯度下降的过程:

现在就要把两种情况结合起来并且绘制成全样本的损失函数,就不需要分真实值是1还是0两种情况讨论,求出其期望值,做成一个交叉熵(cross entropy)的全体样本的损失函数如下:

        因为yi只有两种取值情况1或0,分别令y=1或y=0,即可得到原来的分段表示式。

        其中yi表示第i个样本的真实值,pi或者hθ(x)是根据模型计算出来的概率值。

        当yi=1时,costi=−log(pi),yi=0时,costi=−log(1−pi),这符合前面两种情况。

假设现在有m个样本,总体的损失函数为

 上式即为二项逻辑回归的损失函数,是一个关于参数θ和X的二元函数,也叫对数似然函数,现在问题转化为以对数似然函数为目标函数的最优化问题,其中θ为模型待求的参数,为了求参数θ,可以对目标函数求偏导数,记

对L(X∣θ)求关于θ的偏导,主要是里面对数函数关于θ的偏导数求解

--------------------------------------------------------分割线内容中hθ等于Pi-------------------------------------

logistic回归模型的应用

        既然logistic回归主要用来二分类,用logistic回归模型二分类的场景,用logistic回归模型预测某件事情的发生概率,我们常见的logistic回归模型的应用场景有

(1)根据申请人的提供的资料,预测其违约的可能性大小,进而决定是否给其贷款。

(2)根据购买记录预测用户下一次是否会购买某件商品。

(3)舆论平台做情感分类器。如根据某网友对某些特定主题的历史评论数据,预测其下次对某类型的主题是否会给出正面的评论。

(4)在医疗领域,根据病人症状,预测其肿瘤是良性的还是恶性的。

(5)根据CT,流行病学,旅行史,检测试剂结果等特点预测某位疑似病人是否真感染新型冠状病毒。

(6)在精准营销领域,预测某个产品的收益。

logistic回归模型的评价

        从logistic回归的数学原理,在阈值取定的时候一刀切的做法上面,我们能够根据logistic回归的这些特点给出模型优缺点评价

优点:

1、原理简单,模型清晰,操作高效,背后的概率的推导过程经得住推敲,在研究中,通常以Logistic回归模型作为基准,再尝试使用更复杂的算法,可以在大数据场景中使用。

2、使用online learning的方式更新轻松更新参数,不需要重新训练整个模型

3、基于概率建模,输出值落在0到1之间,并且有概率意义

4、求出来的参数θi代表每个特征对输出的影响,可解释性强

5、解决过拟合的方法很多,如L1、L2正则化,L2正则化就可以解决多重共线性问题

缺点:

1、对数据依赖性强,需要做特征工程,主要用来解决线性可分问题

2、Logistic回归模型本质上是一个线性的分类器,处理不好特征之间相关的情况,对模型中自变量多重共线性较为敏感,例如两个高度相关自变量同时放入模型,可能导致较弱的一个自变量回归符号不符合预期,符号被扭转,正好变负号。

3、logit变换过程是非线性的,在两端随着变化率微乎其微,而中间的变化很大,很敏感。导致很多区间的变量变化对目标概率的影响没有区分度,很难确定阀值。

4、当特征空间很大时,性能不好

5、容易欠拟合,精度不高

---------------------------------------------------------------------------------------------------------

logistic模型原理与推导过程分析(1)_LiBiGor的博客-CSDN博客
https://blog.csdn.net/qq_39237205/article/details/121031296

logistic模型原理与推导过程分析(2)_LiBiGor的博客-CSDN博客
https://blog.csdn.net/qq_39237205/article/details/121031899

logistic模型原理与推导过程分析(2)_LiBiGor的博客-CSDN博客
https://blog.csdn.net/qq_39237205/article/details/121031899

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/469851.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

linux下的字符设备驱动

Linux字符设备驱动程序的一个简单示例一.开发环境: 主 机:VMWare--Fedora 9 开发板:友善之臂mini2440--256MB Nandflash 编译器:arm-linux-gcc-4.3.2 二.驱动源码: 该源码很浅显易懂,非常适合初学者。 me…

logistic模型原理与推导过程分析(3)

附录:迭代公式向量化 θ相关的迭代公式为: ​ 如果按照此公式操作的话,每计算一个θ需要循环m次。为此,我们需要将迭代公式进行向量化。 首先我们将样本矩阵表示如下: 将要求的θ也表示成矩阵的形式: 将x…

计算机表示法是知识 表示法么,计算机三级考试关于IP地址知识点

计算机三级考试关于IP地址知识点IP地址是IP协议提供的一种统一的地址格式,它为互联网上的每一个网络和每一台主机分配一个逻辑地址,以此来屏蔽物理地址的差异,同时也是计算机三级考试的重要内容,小编整理了相关知识点,…

监督学习与无监督学习

监督学习 用一个例子介绍什么是监督学习把正式的定义放在后面介绍。 假如说你想预测房价。前阵子,一个学生从波特兰俄勒冈州的研究所收集了一些房价的数据。你把这些数据画出来,看起来是这个样子: 横轴表示房子的面积,单位是平…

【CodeVS】1023 GPA计算

1023 GPA计算 时间限制: 1 s 空间限制: 128000 KB 题目等级 : 青铜 Bronze 题目描述 Description 小松终于步入了大学的殿堂,带着兴奋和憧憬,他参加了信息科学技术学院的新生大会。会上,院长梅教授给大家介绍了在大学中的成绩计算方式&…

单变量与多变量线性回归(Linear Regression with One Variable)

2.1 线性回归算法模型表示 让我们通过一个例子来开始:这个例子是预测住房价格的,我们要使用一个数据集,数据集包含俄勒冈州波特兰市的住房价格。在这里,我要根据不同房屋尺寸所售出的价格,画出我的数据集。比方说&…

查看linux IO地址范围

端口统一编址原理是把IO控制器中的端口地址归入存储器寻址空间范围内,因此这种编址方式也成为存储器映像编址。CPU访问一个端口的操作与访问内存的操作一样,也使用访问内存的指令。 在linux下可以查看设置的IO地址范围

命令行import torch正常,但pycharm中显示“No module named torch”解决方法

pytorch第一步配置环境测试运行就遇到了如题目所述问题,问题如图: 步骤一 首先检查环境导入是否有问题,工具栏file–settings–project–project interpreter,在这里添加配置好的conda环境,注意添加时要选中对应的con…

机械厂html5手机模板,营销型机械消费设备企业通用织梦模板(带html5手机端) v1.0...

营销型机械消费设备企业通用织梦模板简介营销型机械消费设备企业通用织梦模板(带html5手机端)v1.0是一个自适应手机端和PC端的最新版织梦V5.7为内核的网站模板,软件兼容主流浏览器,模板包含安装说明,并包含测试数据。dedecms最新版内核开发&a…

Tensorboard --logdir=logs 无法显示图像的处理办法

Tensorboard --logdirlogs 无法显示图像的处理办法 问题描述: 解决方案:【要和工程目录对应!写全日志地址】 tensorboard --logdir"torch learning\logs" #注意要是双引号,而且路径不能单单是logs,还要包括…

C# 多种方式发送邮件(附帮助类)

因项目业务需要,需要做一个发送邮件功能,查了下资料,整了整,汇总如下,亲测可用~ QQ邮箱发送邮件 #region 发送邮箱try{MailMessage mail new MailMessage();MailAddress from new MailAddress("发件…

安霸SPI 剖析

最近在搞单片机和A5S的SPI通信 1、A5S是跑的是ITRON的系统、有自己相关的SPI API函数2、单片机这边也是可以熟悉了,发送,接收什么的,我都可以自模拟出来3、但是问题是,A5S上面的API函数的工作是如何的,我一直没怎么弄清…

linux-2.6.32在mini2440开发板上移植(16)之LED 驱动程序移植

LED 驱动程序移植 编者;对于led的驱动程序,很多文章都有详细的介绍,我的博客里面有一篇专门详解这个的。需要看的,可以找下。led灯的驱动其实就代表了I/O口的驱动。在linux系统下,操作一个I/O口,可以说实在…

单变量批量梯度下降算法与单变量随机梯度下降算法

2.3 代价函数的直观理解I 让我们通过一些例子来获取一些直观的感受,看看代价函数到底是在干什么。 2.4 代价函数的直观理解II 代价函数的样子类似于等高线图,则可以看出在三维空间中存在一个J(θ0,θ1)使得最小的点。 通过这些图形,我希望你…

一台计算机连入计算机网络后通过该计算机,一台计算机连入计算机网络后,该计算机( )。...

摘要:计算机连当碰撞已不可避免时,船舶应根据良好船艺的要求采取最有效的行动以减小碰撞的损失,下列说法正确的是()。①应避免两船首相撞;②应避免一船船首撞入他船机舱附近或船中;③应尽量使两船相撞前相对速度达到最大;④应尽量使两船相撞前相对速度达到最小。算机…

反向传播+代码实现

ywx的反向传播代码实现 import torch x_data [1.0, 2.0, 3.0] y_data [2.0, 4.0, 6.0]#w是Tensor(张量类型),Tensor中包含data和grad,data和grad也是Tensor。 # grad初始为None,调用l.backward()方法后w.grad为Tensor, # 故更…

计算机网络阅读报告,计算机网络实验二报告

计算机网络实验二报告 (5页)本资源提供全文预览,点击全文预览即可全文预览,如果喜欢文档就下载吧,查找使用更方便哦!11.90 积分计算机网络实验报告课程_ 计算机网络 _ 实验名称 TCP/IP协议分析与验证 姓 名 实 验 日 期&#xff…

使用Pytorch处理多维特征的输入

下图这个预测一个人在一年之后得糖尿病的概率的例子,这个时候我们的输入将会有很多的指标。你可以把它看成是我们体检的各种值。最后一排的外代表了他是否会得糖尿病。 那么多维的特征输入应该怎么办呢?我们就需要把每一个特征x付以相应的权重。在进行逻…

dubbo学习 三 dubbox概述

当当网根据自身的需求,对dubbo进行了扩展就叫成了dubbox。具体的使用方法可以参照官网各种例子:http://dangdangdotcom.github.io/dubbox/ 支持rest风格远程调用 之前了解过restful服务具体是什么,resteasy也了解过,所以看到就可以…

使用Pytorch完成多分类问题

多分类问题在最后的输出层采用的Softmax Layer,其具有两个特点:1.每个输出的值都是在(0,1);2.所有值加起来和为1. 假设是最后线性层的输出,则对应的Softmax function为: 输出经过sigmoid运算即可是西安输出的分类概率…