《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第6章 逻辑斯谛回归与最大熵模型(2)6.2 最大熵模型

文章目录

    • 6.2 最大熵模型
      • 6.2.1 最大熵原理
      • 6.2.3 最大熵模型的学习
      • 6.2.4 极大似然估计

《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第3章 k邻近邻法
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第1章 统计学习方法概论
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第 2章感知机
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第3章 k邻近邻法
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第4章 朴素贝叶斯法
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第5章 决策树
《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第6章 逻辑斯谛回归与最大熵模型(1)6.1 逻辑斯谛回归模型

我算是有点基础的(有过深度学习和机器学的项目经验),但也是半路出家,无论是学Python还是深度学习,都是从问题出发,边查边做,没有系统的学过相关的知识,这样的好处是入门快(如果想快速入门,大家也可以试试,直接上手项目,从小项目开始),但也存在一个严重的问题就是,很多东西一知半解,容易走进死胡同出不来(感觉有点像陷入局部最优解,找不到出路),所以打算系统的学习几本口碑比较不错的书籍。
  书籍选择: 当然,机器学习相关的书籍有很多,很多英文版的神书,据说读英文版的书会更好,奈何英文不太好,比较难啃。国内也有很多书,周志华老师的“西瓜书”我也有了解过,看了前几章,个人感觉他肯能对初学者更友好一点,讲述的非常清楚,有很多描述性的内容。对比下来,更喜欢《统计学习方法》,毕竟能坚持看完才最重要。
  笔记内容: 笔记内容尽量省去了公式推导的部分,一方面latex编辑太费时间了,另一方面,我觉得公式一定要自己推到一边才有用(最好是手写)。尽量保留所有标题,但内容会有删减,通过标黑和列表的形式突出重点内容,要特意说一下,标灰的部分大家最好读一下(这部分是我觉得比较繁琐,但又不想删掉的部分)。
  代码实现: 最后是本章内容的实践,如果想要对应的.ipynb文件,可以留言

6.2 最大熵模型

最大熵模型(maximum entropy model)由最大熵原理推导实现。

这里首先叙述一般的最大熵原理,然后讲解最大熵模型的推导,最后给出最大熵模型学习的形式。

6.2.1 最大熵原理

最大熵原理是概率模型学习的一个准则。最大熵原理认为,学习概率模型时,在所有可能的概率模型(分布)中,熵最大的模型是最好的模型。

通常用约束条件来确定概率模型的集合,所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。

假设离散随机变量 X X X概率分布 P ( X ) P(X) P(X),则其(参照5.2.2节)是

H ( P ) = − ∑ x p ( x ) l o g P ( x ) H(P)=-\sum_{x}p(x)logP(x) H(P)=xp(x)logP(x)

熵满足下列不等式:

0 ≤ H ( P ) ≤ l o g ∣ X ∣ 0\leq H(P)\leq log|X| 0H(P)logX

式中, ∣ X ∣ |X| X X X X的取值个数,当且仅当 X X X的分布是均匀分布右边的等号成立

这就是说,当 X X X服从均匀分布时,熵最大

直观地,最大熵原理认为要选择的概率模型

  1. 首先必须满足已有的事实,即约束条件。
  2. 在没有更多信息的情况下,那些不确定的部分都是“等可能的”。

最大熵原理通过熵的最大化来表示等可能性。“等可能”不容易操作,而熵则是一个可优化的数值指标。
在这里插入图片描述
图6.2提供了用最大熵原理进行概率模型选择的几何解释。

概率模型集合 P P P可由欧氏空间中的单纯形(simplex)[2]表示,

  • 如左图的三角形(2-单纯形)。一个代表一个模型,整个单纯形代表模型集合。
  • 右图上的一条直线对应于一个约束条件,直线的交集对应于满足所有约束条件的模型集合。

一般地,这样的模型仍有无穷多个。

学习的目的是在可能的模型集合中选择最优模型,而最大熵原理则给出最优模型选择的一个准则。

6.2.2 最大熵模型的定义

最大熵原理是统计学习的一般原理,将它应用到分类得到最大熵模型。

假设分类模型是一个条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX) X ∈ X ⊆ R n X\in \mathcal{X}⊆R^n XXRn表示输入, Y ∈ Y Y\in \mathcal{Y} YY表示输出, X \mathcal{X} X Y \mathcal{Y} Y分别是输入和输出的集合。

这个模型表示的是对于给定的输入 X X X,以条件概率 P ( Y ∣ X ) P(Y|X) P(YX)输出 Y Y Y

给定一个训练数据集

T = ( ( x 1 , x 1 ) , ( x 2 , x 2 ) 。。。, ( x N , x N ) ) T=((x_1,x_1),(x_2,x_2)。。。,(x_N,x_N)) T=((x1,x1)(x2,x2)。。。,(xN,xN))

学习的目标是用最大熵原理选择最好的分类模型。

首先考虑模型应该满足的条件。给定训练数据集,可以确定联合分布 P ( X , Y ) P(X,Y) P(X,Y)经验分布边缘分布 P ( X ) P(X) P(X)经验分布,分别以 p ^ ( X , Y ) \hat{p}(X,Y) p^(X,Y) p ^ ( X ) \hat{p}(X) p^(X)表示。这里,

联合分布 P ( X , Y ) P(X,Y) P(X,Y)经验分布:

p ^ ( X = x , Y = y ) = v ( X = x , Y = y ) N \hat{p}(X=x,Y=y)=\frac{\mathcal{v}(X=x,Y=y)}{N} p^(X=x,Y=y)=Nv(X=x,Y=y)

边缘分布 P ( X ) P(X) P(X)经验分布:

p ^ ( X = x ) = v ( X = x ) N \hat{p}(X=x)=\frac{\mathcal{v}(X=x)}{N} p^(X=x)=Nv(X=x)

其中,

  • v ( X = x , Y = y ) \mathcal{v}(X=x,Y=y) v(X=x,Y=y)表示训练数据中样本 ( x , y ) (x,y) x,y出现的频数,
  • v ( X = x ) \mathcal{v}(X=x) v(X=x)表示训练数据中输入 x x x出现的频数,
  • N N N表示训练样本容量。

特征函数(feature function) f ( x , y ) f(x,y) f(x,y)描述输入 x x x和输出 y y y之间的某一个事实。

其定义是
在这里插入图片描述
它是一个二值函数[3],当 x x x y y y满足这个事实时取值为1,否则取值为0。

特征函数 f ( x , y ) f(x,y) f(x,y)关于经验分布 p ^ ( X , Y ) \hat{p}(X,Y) p^(X,Y)期望值,用 E p ^ ( f ) E_{\hat{p}}(f) Ep^(f)表示。

在这里插入图片描述

特征函数 f ( x , y ) f(x,y) f(x,y)关于模型 P ( Y ∣ X ) P(Y|X) P(YX)与经验分布$ \hat{p}(X) 的期望值,用 的期望值,用 的期望值,用E_{p}(f)$表示。
在这里插入图片描述
如果模型能够获取训练数据中的信息,那么就可以假设这两个期望值相等,即

在这里插入图片描述
我们将式(6.10)或式(6.11)作为模型学习的约束条件。假如有n个特征函数 f i ( x , y ) , i = 1 , 2 , … , n f_i(x,y),i=1,2,…,n fi(x,y)i1,2,,n,那么就有 n n n个约束条件。
在这里插入图片描述

6.2.3 最大熵模型的学习

最大熵模型的学习过程就是求解最大熵模型的过程。最大熵模型的学习可以形式化为约束最优化问题

对于给定的训练数据集 T = ( ( x 1 , x 1 ) , ( x 2 , x 2 ) 。。。, ( x N , x N ) ) T=((x_1,x_1),(x_2,x_2)。。。,(x_N,x_N)) T=((x1,x1)(x2,x2)。。。,(xN,xN))以及特征函数 f i ( x , y ) f_i(x,y) fi(x,y),i=1,2,…,n,最大熵模型的学习等价于约束最优化问题
在这里插入图片描述
按照最优化问题的习惯,将求最大值问题改写为等价的求最小值问题:
在这里插入图片描述
求解约束最优化问题(6.14)~(6.16),所得出的解,就是最大熵模型学习的解。
(推到过程详见书 P 99 P_{99} P99

6.2.4 极大似然估计

从以上最大熵模型学习中可以看出,最大熵模型是由式(6.22)、式(6.23)表示的条件概率分布。

下面证明对偶函数的极大化等价于最大熵模型的极大似然估计

已知训练数据的经验概率分布 p ^ ( X , Y ) \hat{p}(X,Y) p^(X,Y),条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX)对数似然函数表示为:
在这里插入图片描述
当条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX)是最大熵模型(6.22)和(6.23)时,对数似然函数 L P ^ ( P w ) L_{\hat{P}}(P_w) LP^(Pw)为:

在这里插入图片描述
再看对偶函数$ \Psi(w)$。由式(6.17)及式(6.20)可得
在这里插入图片描述
比较式(6.26)和式(6.27),可得

Ψ ( w ) = L p ^ ( P w ) \Psi(w)=L_{\hat{p}}(P_w) Ψ(w)=Lp^(Pw)

既然对偶函数 Ψ ( w ) \Psi(w) Ψ(w)等价于对数似然函数 L p ^ ( P w ) L_{\hat{p}}(P_w) Lp^(Pw),于是证明了最大熵模型学习中的对偶函数极大化等价于最大熵模型的极大似然估计这一事实。

这样,最大熵模型的学习问题就转换为具体求解对数似然函数极大化或对偶函数极大化的问题。

可以将最大熵模型写成更一般的形式。
在这里插入图片描述
最大熵模型与逻辑斯谛回归模型有类似的形式,它们又称为对数线性模型(log linear model)。模型学习就是在给定的训练数据条件下对模型进行极大似然估计或正则化的极大似然估计。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/674447.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Mysql报错:too many connections

1 问题原因 MySQL报错“too many connections”通常是由于数据库的最大连接数超过了MySQL配置的最大限制。有以下几个原因: (1)访问量过高:当MySQL服务器面对大量的并发请求时,已经建立的连接数可能会不足以处理所有的请求,从而导致连接池耗尽、连接被拒绝、出现“too …

VMware17上安装centos7.9成功后,进入linux命令行以后,运行没几分钟直接卡死,或者说非常卡

VMware17上安装centos7.9成功后,进入linux命令行以后,运行没几分钟直接卡死,或者说非常卡 解决方案:关闭windows的Hyper-V服务,重启虚拟机

Biu懂AI:Object Detection训练数据的Label格式

Bui~ 新系列博文将专注AI相关领域,想要学习高通蓝牙相关知识请查看之前的系列或关注大博主声波电波就看今朝 在CV(computer vision)中,Object detection是其中的一个核心任务,它可以在输入图像或视频中识别并框出目标。…

Rust 初体验2

变量类型 Rust 语言的变量数据类型,主要包括整型、浮点型、字符、布尔型、元组、数组、字符串、枚举、结构体和可变变量等。 fn main() { // 整型 let integer: i32 100; println!("整型: {}", integer); // 浮点型 let floating_point: f64 3.1…

15.2 Linux入门(❤❤❤❤)

15.2 Linux入门 1. Linux基础1.1 基础概念1. 操作系统2. Linux操作系统3. CentOS操作系统1.2 CentOS安装配置1. 运行要求2. 虚拟机与CentOS安装1.3 Linux目录结构1.4 Linux远程管理配置2. Linux高级操作2.1 命令:vim文本编辑器(❤❤)2.2 命令:常用文本工具(❤❤)1. echo命令<

【网页设计期末】茶文化网站

本文资源&#xff1a;https://download.csdn.net/download/weixin_47040861/88818886 1.题目要求 设计要求&#xff1a; &#xff08;1&#xff09;网站页面数量不少于4个&#xff0c;文件命名规范&#xff0c;网站结构要求层次清楚&#xff0c;目录结构清晰&#xff0c;代码…

使用ORM模型操作MySQL数据库:Python爬虫数据持久化实践

源码分享 https://docs.qq.com/sheet/DUHNQdlRUVUp5Vll2?tabBB08J2 在Python爬虫开发中&#xff0c;数据持久化是一个重要的步骤。通常&#xff0c;我们会将爬取的数据保存到数据库中。本篇博客将介绍如何使用对象关系映射&#xff08;ORM&#xff09;模型在Python中操作MySQ…

Redis的数据类型与示例演示

目录 一、KEY操作 1.1 相关命令 说明&#xff1a; 1.2示例演示 二、String类型 2.1 结构图 2.2 示例演示 三、List类型 3.1 结构图 3.2 相关命令 3.3 示例演示 四、SET类型 4.1 结构图 4.2 相关命令 4.3 示例演示 五、ZSET类型 5.1 结构图 5.2 相关命令 六、…

NumPy基础之花式索引

1 NumPy基础之花式索引 NumPy的花式索引(Fancy indexing)指ndarray数组使用整数数组进行索引。这的整数数组可以是python的列表等可迭代对象&#xff0c;也可以是NumPy数组。 花式索引&#xff0c;用整数数组的元素作为对应轴的索引&#xff0c;并且按数组元素顺序选取子集。…

负载均衡SLB

1. 什么是阿里云上的负载均衡SLB&#xff1f;它的主要功能是什么&#xff1f; 阿里云上的负载均衡SLB是一种流量分发服务&#xff0c;它的主要功能是扩展应用系统的吞吐能力和提升系统可用性。 负载均衡SLB&#xff08;Server Load Balancer&#xff09;在阿里云中是一个核心…

useEffect的4种使用情况

useeffect的用法是&#xff1a;useEffect就是指定一个副效应函数&#xff0c;组件每渲染一次&#xff0c;该函数就自动执行一次。组件首次在网页 DOM 加载后&#xff0c;副效应函数也会执行。 useEffect使用时有以下4种情况 1、不传递 useEffect不传递第二个参数会导致每次渲染…

【Spring连载】使用Spring Data访问Redis(十一)----Redis事务 Transactions

【Spring连载】使用Spring Data访问Redis&#xff08;十一&#xff09;----Redis事务 Transactions Transactional 支持 Redis通过multi, exec 和 discard命令为事务提供支持。RedisTemplate上提供了这些操作。但是&#xff0c;RedisTemplate不能保证使用相同的连接运行事务中的…

C#上位机与三菱PLC的通信02--MC协议介绍

1、协议介绍 三菱 PLC MC 协议是一种用于三菱 PLC 与上位机之间进行数据通信的协议&#xff0c;也称为 Mitsubishi Communication Protocol。该协议支持串口、以太网等多种通讯方式&#xff0c;可实现实时数据的采集和交换。三菱PLC的MC协议是一种数据通信协议&#xff0c;它用…

Bootstrap5 响应式导航栏

Bootstrap5 响应式导航栏 我们可以使用 Bootstrap5 导航栏组件为网站或应用程序创建响应式导航标题。 这些响应式导航栏在手机等小视口的设备上会折叠&#xff0c;但当用户单击切换按钮时会展开。 但是&#xff0c;它在中型和大型设备&#xff08;例如笔记本电脑或台式机&#…

考研数据结构笔记(4)

链表&#xff08;链式存储&#xff09; 单链表定义基本操作的实现单链表的插入按位序插入指定节点的前插指定节点的后插 单链表的删除 小结 单链表 定义 顺序表优点:可随机存取&#xff0c;存储密度高&#xff0c;缺点:要求大片连续空间&#xff0c;改变容量不方便。 单链表优…

中科星图——如何利用中科星图智脑引擎来下载0.5米分辨率的高清遥感影像

简介 如何利用中科星图智脑引擎来下载0.5米分辨率的高清遥感影像,这里我们一旦您有GEE的基础那么还是非常好的接入到这个平台当中的,所以这里我们依旧是使用的JavaScript语言来进行编程,地球计算器-地球编程 (geovisearth.com) 这里有一个好处是这里的函数我们可以直接悬浮…

1898_野火FreeRTOS教程阅读笔记_链表操作

1898_野火FreeRTOS教程阅读笔记_链表操作 全部学习汇总&#xff1a; g_FreeRTOS: FreeRTOS学习笔记 (gitee.com) 新的节点的插入&#xff0c;影响到的是链表中最后一个元素的后继以及当前被插入元素的前驱、后继以及归属属性。具体的操作效果为&#xff1a;新的节点更新自己的前…

请解释Java中的设计模式,并举例说明一个常用的设计模式

请解释Java中的设计模式&#xff0c;并举例说明一个常用的设计模式 在Java中&#xff0c;设计模式是一种被广泛采用的解决特定问题的可复用方案。设计模式提供了一套经过验证的解决方案&#xff0c;可以帮助开发人员解决常见的软件设计问题&#xff0c;提高代码的可维护性、可…

2 月 7 日算法练习- 数据结构-树状数组

树状数组 lowbit 在学习树状数组之前&#xff0c;我们需要了解lowbit操作&#xff0c;这是一种位运算操作&#xff0c;用于计算出数字的二进制表达中的最低位的1以及后面所有的0。 写法很简单&#xff1a; int lowbit&#xff08;int x&#xff09;&#xff5b;return x &am…

51单片机精进之路-1点亮led灯

本例中led灯使用共阳极连接在电路中&#xff0c;共阳极即将led的正极接在一起&#xff0c;通过上拉电阻接到电源正极&#xff0c;通过单片机io与Led的负极相连&#xff0c;io输出低电平&#xff0c;有电流从led流过&#xff0c;此时led点亮&#xff0c;当io输出高电平时&#x…