国科大prml14-独立于算法的机器学习(boosting/

文章目录

  • 1.哲学定理
  • 2. 重采样resampling
    • 2.1 bagging
    • 2.2 boosting
    • 2.3 adaboost
      • 2.3.2训练误差
    • 2.4 active learning
  • 3. 估计和比较分类器--交叉检验
    • 3.1 交叉验证
  • 5.adaboost在人脸检测上的应用
    • 5.1肤色模型
    • 5.2基于AdaBoost的快速人脸检测

  • 如何选择好的模型和评价模型?
  • 独立于算法的机器学习:如何结合多个分类器

1.哲学定理

  • 来自https://blog.csdn.net/qq_28739605/article/details/80607330
  • 来自https://blog.csdn.net/qq_28739605/article/details/80607330
  • 没有免费的午餐therom
    • 前提:对于所有机器学习问题,且所有问题同等重要
    • 没有一种机器学习算法是适用于所有情况的
    • 更一般地说,对于所有机器学习问题,任何一种算法(包括瞎猜)的期望效果都是一样的
    • 有得必有失–没有最好的算法、学习期
  • Occam’s razor:简单的就是最好的
  • 丑小鸭定理:
    • 丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大
    • 世界上不存在分类的客观标准,一切分类的标准都是主观的
    • (有假设的)
    • 没有最优的特征
  • MDL principle:致力于找到一个最简单、不可约的表达-描述越短越好
  • 方差偏差dilemma:模型复杂度增大,方差增加,偏差减小
    • 方差:偏离测试集的程度
    • 偏差:偏离训练集的程度

2. 重采样resampling

  • 重采样:从原数据集(也可能子集)中采样
  • bootstrap:从训练集中随机选择n个点,重新设计每个点的权重
  • why重采样:
  • 改进分类器
  • 对统计信息进行更准确的估计
  • arcing methods(自适应调整和组合)
    • bagging:独立采样
    • boosting:不独立的采样
    • adaboost
思想独立数据集优缺点组件决策
bagging数据集分n个(独立采样出来的),每个子集单独训练一个分类器,最后多个分类器取平均(加权)独立的重采样子集间有交集,子集内有重复可并行; 提高不稳定分类器的识别能力(因为对多个取平均每个分类器可以使NN,SVM,tree,ann,…)加权多数投票
boosting多个弱分类器(比随机猜好一点就行)结合成一个强分类器;最后结果取加权和(后面的分类器判别前面分错的)不独立D1从X采样来的;D2一半是D1分对的,一半是他分错的;D3是D1、D2分的不同的结果不可并行;泛化能力强;不会过拟合任意可用加权多数投票
adaboost弱分类器集成,权重依赖于正确率H(x)=sign(Σt=1Tαtht(x))H(x)=sign(\Sigma_{t=1}^T\alpha_th_t(x))H(x)=signΣt=1Tαtht(x));学习一系列分类器,在这个序列中每一个分类器对它前一个分类器导致的错误分类样例给予更大的重视不独立Dt+1(i)=Dt(i)Ztexp(−αtyiht(xi))D1(i)=1/mϵt=Pi−Dt(ht(xi)≠yi)αt=12ln1−ϵtϵtD_{t+1}(i)=\frac{D_t(i)}{Z_t}exp(-\alpha_ty_ih_t(x_i))\\D_1(i)=1/m\\\epsilon_t=P_{i-D_t}(h_t(x_i)\neq y_i)\\\alpha_t=\frac{1}{2}ln\frac{1-\epsilon_t}{\epsilon_t}Dt+1(i)=ZtDt(i)exp(αtyiht(xi))D1(i)=1/mϵt=PiDt(ht(xi)=yi)αt=21lnϵt1ϵt不会过拟合;快,简单,好编程;参数少;弱分类器的先验少;通用性强 ;易受到均匀噪声影响;依赖于弱分类器(弱而不能太弱)和数据任意组件H(x)=sign(Σt=1Tαtht(x))H(x)=sign(\Sigma_{t=1}^T\alpha_th_t(x))H(x)=signΣt=1Tαtht(x))

2.1 bagging

在这里插入图片描述在这里插入图片描述

2.2 boosting

  • 将多个弱的“基础”学习者组合在一起,形成一个比任何基础分类器表现都要好的分类器
    在这里插入图片描述在这里插入图片描述在这里插入图片描述

2.3 adaboost

在这里插入图片描述在这里插入图片描述

  • ht(x)弱分类器h_t(x)弱分类器ht(x)
  • Dt+1(i)=Dt(i)Ztexp(−αtyiht(xi))D1(i)=1/mϵt=Pi−Dt(ht(xi)≠yi)αt=12ln1−ϵtϵtD_{t+1}(i)=\frac{D_t(i)}{Z_t}exp(-\alpha_ty_ih_t(x_i))\\D_1(i)=1/m\\\epsilon_t=P_{i-D_t}(h_t(x_i)\neq y_i)\\\alpha_t=\frac{1}{2}ln\frac{1-\epsilon_t}{\epsilon_t}Dt+1(i)=ZtDt(i)exp(αtyiht(xi))D1(i)=1/mϵt=PiDt(ht(xi)=yi)αt=21lnϵt1ϵt
  • 推测正确:yiht(xi)>0==>0<exp(−αtyiht(xi))<1;分对了的样本权重小分错了的样本权重推测正确:y_ih_t(x_i)>0==>0<exp(-\alpha_ty_ih_t(x_i))<1;分对了的样本权重小\\分错了的样本权重yiht(xi)>0==>0<exp(αtyiht(xi))<1;
  • H(x)=sign(Σt=1Tαtht(x))H(x)=sign(\Sigma_{t=1}^T\alpha_th_t(x))H(x)=signΣt=1Tαtht(x))

在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述

2.3.2训练误差

在这里插入图片描述

  • 何时停止?
    • 防止过拟合
    • adaboost不会过拟合
      • 类似svm,margin:趋向于增大margin–>减小泛化误差
      • margin theory即使在训练误差达到零的情况下,仍然可以增加集合的边界。
      • 训练时,不光考虑是否分对,还考虑置信度
        在这里插入图片描述
  • 要求
    • 弱分类器对训练集来说不复杂
    • 弱分类器有很大的边(margin)
  • –不满足可能会overfiting

2.4 active learning

  • 人在循环中
  • 机器会向人主动要标签

3. 估计和比较分类器–交叉检验

  • 方法
    • Jackknife (leave-one-out)
    • 交叉检验

3.1 交叉验证

  • 不应该在测试集上调参,在训练集上验证
  • 交叉检验:将有标签的训练数据分成训练集和验证集(少于0.5)
  • m-折交叉验证:1个做验证集,m-1个做训练集(轮流重复)(如果m=n则为Jackknife)
    在这里插入图片描述

5.adaboost在人脸检测上的应用

  • • 基于规则/知识方法
    • – 人脸模式的变化满足一定的规律,所以可以归纳描述人脸特征的规 则,如灰度分布、比例关系、纹理信息等
  • • 基于模板的方法
    • – 固定模板法,可变形模板法
  • • 基于不变特征的方法,如彩色信息
    • – 人脸的肤色在彩色空间中的分布相对比较集中,所以可用来检测和 跟踪人脸。
  • • 基于表观分类器学习的方法
    • – 将人脸检测视为区分“非人脸样本”与“人脸样本”的PR问题,通过对人脸样本集和非人脸样本集的学习产生分类器

5.1肤色模型

  • – 最简单的方法是用Cr, Cb值定义肤色区域,选定阈值[Cr1,Cr2]和[Cb1,Cb2]
    • – 一个像素点被归为肤色点,如果它的(Cr, Cb)值落入下面的范围:
    • Cr1≤Cr≤Cr2 and Cb1≤Cb≤Cb2

在这里插入图片描述

  • • 训练肤色模型
    • – 手工标注部分人脸(肤色区域)人脸图像
    • – 统计方法得到 ,
    • – 设置合适的阈值截断
  • • 测试阶段
    • – 逐像素判断其是否在设定的肤色特征范围内
  • • 对检测到的肤色区域进行分析
    • – 接近椭圆形
    • – 有部分非肤色区域(五官、头发)
      在这里插入图片描述
  • • 肤色模型难以适应各种环境光照变化
    • – 对于背景和前景的光照变化,肤色通常不稳定
    • – 单纯的肤色信息对于人脸检测通常是不充分的
  • • 如何适应在不同光照下的人脸跟踪
  • – 如果环境光照有变化,原有的肤色模型可能不再适用,如何建立一个自适应的肤色模型需要进一步的研究

在这里插入图片描述

5.2基于AdaBoost的快速人脸检测

  • 在2001年的ICCV上,当时在Compaq的研究员Paul Viola和Michael J. Jones发表的文章介绍了一个实时人脸检测系统
    • – 图像大小为384x288时,其速度是平均每秒15帧
    • – 第一个准实时的(准正面)人脸检测系统
    • – 可以较容易的扩展到多姿态人脸检测
  • • 系统在技术上的三个贡献:
    • – 1.用简单的Haar-like矩形特征作弱特征,可快速计算
    • – 2.基于AdaBoost的分类器设计(弱特征弱分类器)
    • – 3.采用了Cascade(分级分类器)技术提高检测速度
  • 人脸表示方法
  • 矩形特征(Haar-like特征)
  • – 矩形特征
    • • 所有白色矩形中像素的亮度值的和,减去所有灰色矩形中点的亮度值的和,所得到的差即为Haar-like特征
  • – 有4种类型的矩形特征
  • 具体特征可以用一个五元组表示
    • r(x,y,w,h,style)
    • – 比如:r(2,2,4,2,A)表示下面的特征
      • • 特征值即为白色四个像素与黑色四个像素的差值

在这里插入图片描述在这里插入图片描述

  • • 如何快速计算任意矩形内
    • 所有像素的亮度之和?
    • 请大家设计一个算法
    • – 要求计算量尽可能的小
    • 积分图为什么快?没有乘法,只有加减

在这里插入图片描述在这里插入图片描述

  • AdaBoost分类器
    • – Adaboost学习算法是用来提高简单分类算法的性能的 – 通过对一些弱分类器的组合来形成一个强分类器
    • • 功能–
      • 将分类性能不好的弱分类器提升为分类性能好的强分类器的学习算法
    • • 思想–
      • 学习一系列分类器,在这个序列中每一个分类器对它前一个分类器导致的错误分类样例给予更大的重视
        在这里插入图片描述在这里插入图片描述
  • • 输入
    • – 1.训练用人脸和非脸样本
    • – 2.指定要挑选出来的弱分类器的数目T
      • • 这也是程序循环的次数
    • – 3.利用先验知识初始化权值向量
      • • 一般可以平均设置
        在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
  • 检测系统的构建
    • 遍历所有位置
    • 人脸有大有小
    • 还有旋转
    • 如何加速?
    • 方法1 – 只用一个筛子,网眼非常小,所有的都要过这个筛子
    • • 方法2 – 用一系列筛子,网眼从大到小 – 非常容易被截住的巨石首先被排除,然后是大石头,再是小石头,沙 砾,粗沙,最后是细沙
  • 基于分级分类器的加速策略
    • – 大量候选窗口可以利用非常少量的特征(简单快速的分类器)就可以排除是人脸的可能性!
    • – 只有极少数需要大量的特征(更复杂的更慢的分类器来判别是否人脸)
    • • 采用由粗到细的思想(coarse to fine)
      • – 将少量区分性好的特征构成的简单分类器置于前面若干层
    • • 效果:
      • 放过检测绝大多数人脸的同时,排除大量非脸
      • – 后面层包含更多次重要的特征对非脸进行进一步排除
      • 检测率要高,误检率随意(比猜测好点就行)
    • • 训练方法关键思路
      • – 每层训练用非脸样本使用前面层分类器误判为人脸的那些样本
        在这里插入图片描述在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481634.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

解读2022中国城市大脑首批三项标准(新版)

来源&#xff1a;远望智库预见未来解读2022城市大脑首批三项标准&#xff08;新版&#xff09;2022年9月1日&#xff0c;中国指挥与控制学会在京召开《城市大脑首批标准新闻发布会》正式发布《城市大脑 术语》、《城市大脑顶层规划和总体架构》&#xff1b;《城市大脑数字神经元…

国科大prml15-基于浅层模型的计算机视觉--以人脸识别为例

文章目录2. 特征设计与提取过程q2.1 局部特征--SIFT2.2局部特征HOG3. 特征汇聚或变换h3.1BoVW视觉词袋模型3.2PCA4.以人脸识别为例4.1 主动统计模型4.1.1ASM(active shape model)4.1.2 AAM主动表观模型4.2人脸特征提取和比对特征脸Fisherfaces方法--本质&#xff08;Fisher线性…

DeepMind又放大招!用大型语言模型实现可信推理,距离模型可解释性又近了一步...

来源&#xff1a;AI前线整理&#xff1a;核子可乐、冬梅可解释性&#xff0c;已经成为当今机器学习研究与开发领域最紧迫的难题之一。尽管目前的大规模语言模型&#xff08;LM&#xff09;已经展现出令人印象深刻的问答能力&#xff0c;但其固有的不透明性却导致人们无法理解模…

机器智能的未来

来源&#xff1a;混沌巡洋舰今年8月&#xff0c;马斯克发布推文称将会在10月31日&#xff0c;更新有关脑机接口的最新进展。近几年&#xff0c;人工智能方面的发展一直在取得突破和进展&#xff0c;人们对这方面的期待和研究却一直没有停止。比尔盖茨2021年度书单重磅推荐了《千…

国科大prml15-目标检测

改进R-CNN缩放图片SPPNet允许不同大小输入&#xff0c;SPP(pooling)归一化到相同尺寸Fast RCNN1.SPP->Rol pooling;2.改进边框校准Smooth L1 loss&#xff1b;3.全连接加速Truncated SVDFaster RCNNRPN直接生成候选框&#xff08;共享CNN),anchor boxMask R-CNN实例分割&…

大模型铺天盖地出现后,计算机科学终成「自然科学」

来源&#xff1a;选自Communications of the ACM作者&#xff1a;Subbarao Kambhampati&#xff08;美国人工智能学会前主席&#xff09;编译&#xff1a;机器之心编辑&#xff1a;rome rome当部分人工智能正偏离其工程本源&#xff0c;AI 研究的方向变化&#xff0c;超出了我们…

Transformers 如何模仿大脑的某些部分

来源&#xff1a;ScienceAI编译&#xff1a;白菜叶了解大脑如何组织和访问空间信息「我们在哪里」&#xff0c;「拐角处有什么」&#xff0c;「如何到达那里」&#xff0c;这仍然是一项艰巨的挑战。该过程涉及从数百亿个神经元中调用整个记忆网络和存储的空间数据&#xff0c;每…

国科大prml-往年习题

文章目录1 模式识别过拟合欠拟合概率图概率图-独立性HMM哲学理论adaboost贝叶斯贝叶斯判别贝叶斯判别-正态分布贝叶斯估计贝叶斯决策朴素贝叶斯半监督无监督聚类GMMEM极大似然估计判别函数线性判别和非线性判别线性判别函数的数量&#xff08;M分类感知机势函数法9.势函数法&am…

城市大脑已经几岁?城市大脑发展成熟度的年龄评估模型

说明&#xff1a;该论文由科学院研究团队刘颖、刘锋于2022年7月发表在《科技导报》第14期&#xff0c;是对城市大脑发展成熟度的探索研究&#xff0c;为构建城市大脑发展成熟度评估规范提供参考。根据研究团队建立的评估模型&#xff0c;进行初步评估&#xff0c;提出目前城市大…

GMM

GMM 一个类一个正态分布N(μk,Σk)N(\mu_k,\Sigma_k)N(μk​,Σk​) 有监督无监督半监督目标函数Llogp(Xl,Yl∥θ)Σi1llogp(yi∥θ)p(xi∥yi,θ)Σi1llogαyiN(xi∥θyi)Llogp(X_l,Y_l\|\theta)\Sigma_{i1}^llogp(y_i\|\theta)p(x_i\|y_i,\theta)\\\Sigma_{i1}^llog \alpha_…

城市大脑已经几岁?城市大脑发展成熟度的年龄评估模型(修改版)

说明&#xff1a;该论文由科学院研究团队刘颖、刘锋于2022年7月发表在《科技导报》第14期&#xff0c;是对城市大脑发展成熟度的探索研究&#xff0c;为构建城市大脑发展成熟度评估规范提供参考。根据研究团队建立的评估模型&#xff0c;进行初步评估&#xff0c;提出目前城市大…

2022年 AI 技术成熟度曲线

来源&#xff1a;Gartner公司编辑&#xff1a;蒲蒲近日&#xff0c;Gartner发布了最新的《2022年人工智能技术成熟度曲线》报告&#xff0c;报告称尽早采用复合型人工智能&#xff08;AI&#xff09;、决策智能等AI技术将给企业机构带来明显的竞争优势&#xff0c;缓解AI模型脆…

国科大prml--SVM

拉格朗日的原始问题是minw,bmaxλLmin_{w,b} max_{\lambda} Lminw,b​maxλ​L对偶问题是maxλminw,bLmax_{\lambda} min_{w,b}Lmaxλ​minw,b​L 原问题拉格朗日对偶问题分界面最终参数hard marginminw12∥w∥2min_w \frac{1}{2}\|w\|^2minw​21​∥w∥2约束yi(wTxi)>1,对…

科学家们正在使用人工智能来构想革命性的新蛋白质

来源&#xff1a;ScienceAI编译&#xff1a;白菜叶6 月&#xff0c;韩国监管机构授权使用人类设计的新型蛋白质制成首个药物&#xff0c;即 COVID 疫苗。该疫苗基于研究人员近十年前通过劳动密集型试错过程创造的球形蛋白质「纳米颗粒」。现在&#xff0c;由于人工智能&#xf…

多模态认知计算

来源&#xff1a;图灵人工智能 日常生活中, 人类至少利用视觉, 听觉等多种感官理解周围环境, 通过整合多种感知模态, 形成对事件的整体认识. 为使机器更好地模仿人类的认知能力, 多模态认知计算模拟人类的“联 觉”(Synaesthesia), 探索图像, 视频, 文本, 语音等多模态输入的高…

知识表示与知识图谱--介绍

知识表示与知识图谱 知识支撑 人类理解需要机器也需要知识工程 手段&#xff1a;信息技术特点&#xff1a;高效率、大容量目标&#xff1a;获取并利用知识与信息的技术例子 第一个专家系统&#xff1a;费根鲍姆知识工程语言TUILI--1982--陆汝衿专家系统开发环‘天马’--1987--…

「图学习推荐系统」最新2022综述

来源&#xff1a;专知协同过滤是一种被广泛应用于推荐系统中的方法,其利用不同用户之间(或不同物品之间)的相似性关系来过滤和抽 取用户和物品的交互信息,从而进行用户推荐.近年来,图神经网络因其出色的表示学习性能和良好的可扩展性逐渐成为推荐 领域中的一种新兴的范式.文中从…

2知识图谱的生命周期

知识图谱的生命周期 知识图谱 知识建模--建立本体ontolog 建什么 概念、实体的类型概念/实体的关联关系要求&#xff1a;可靠性方法 自顶向下--专家手工形成数据模式自底向上--实体--类 利用现有的标准转换从现有的高质量数据源中进行映射&#xff1a;用知识图谱--抽象建模--来…

nlp1-介绍

能做什么&#xff1f; 自然语言处理&#xff1a; 如何让计算机能够自动或半自动地理解自然语言文本&#xff0c;懂得人的意图和心声&#xff1f;如何让计算机实现海量语言文本的自动处理、挖掘和有效利用&#xff0c;满足不同用户的各种需求&#xff0c;实现个性化信息服务&…