机器学习之扫盲导论篇
来都来了,不关注一下吗??
人工智能是当下最火的词,而机器学习就是它的灵魂。
现在超级多搞金融的人已经用到很深的机器学习模型了,更别提互联网企业的大佬们了,比如:
(这是一篇研报)
(这真的是某券商金工团队出的一篇研报)
更夸张的是,发现我校的“信息xxxx学院”在几年前偷偷改名为“人工智能学院”(还是我走夜路偶然发现的,抓住你了)
exmmmm 足以说明它的火爆程度
那么就别躲着着了,赶紧上车跟上这波潮流。让我们大声喊出口号: “机器学习,没有你想象的那么难。”
机器学习(Machine learning)是一门科学,准确的来说是一门关于算法的科学。
那么统计机器学习大致分为四类:监督学习、无监督学习、半监督学习和强化学习。下面一一来为大家扫个盲。
1监督学习
监督学习(supervised learning)是指从标注数据中学习预测模型的机器学习问题。标注数据表示输入输出对应关系,预测模型对给定的输入产生相应的输出。监督学习的本质是学习输入到输出的映射的统计规律。
通俗来说,就是给定数据,预测标签。每一个训练数据(training data)都是有特征和标签的。那么什么是特征和标签呢?
非常简单,我举一个例子。比如银行的贷款部门,每一个客户的基本情况都属于特征,包括他们的性别、年龄、工作单位类型、工资、目前在名下的房子价值、有无不良贷款记录等等。那么什么是标签?就是评估完这些特征之后,银行最终的决定:是否放贷给客户。
ID | 姓名 | 性别 | 年龄 | 工资 | 工作单位 | 有无不良记录 | 是否贷款 |
1 | 高高 | 男 | 30 | 15 | 国企 | 无 | 是 |
2 | 周周 | 女 | 23 | 13 | 个体 | 无 | 是 |
3 | 乐乐 | 男 | 27 | 15 | 个体 | 无 | 否 |
4 | 新新 | 男 | 35 | 30 | 个体 | 有 | 否 |
...........
好的,这是我们的训练数据,也就是training data,那么问题来了:如果再来一个人,他同样可以提供特征数据,那么能预测是否贷款吗?这就是监督学习。
ID | 姓名 | 性别 | 年龄 | 工资 | 工作单位 | 有无不良记录 | 是否贷款 |
9 | 方方 | 男 | 25 | 30 | 国企 | 有 | ? |
一句话概括监督学习:给定数据(特征),预测标签。
常见的监督学习算法:K近邻(KNN),决策树(DT),朴素贝叶斯(NB),逻辑回归(LR),支持向量机(SVM)等等
2无监督学习
无监督学习(unsupervised learning)是指从无标注数据中学习预测模型的机器学习问题。无标注是自然得到的数据,预测模型表示数据的类别、转换或概率。无监督学习的本质是学习数据中的统计规律或潜在结构。
无监督学习常常被用于数据挖掘,用于在大量无标签数据中发现些什么。它的训练数据是无标签的,训练目标是能对观察值进行分类或者区分等。例如无监督学习应该能在不给任何额外提示的情况下,仅依据所有“猫”的图片的特征,将“猫”的图片从大量的各种各样的图片中将区分出来。
可以想象,恰当地提取特征是无监督最为关键的环节。在老虎的识别中,我们来尝试提取老虎的特征:皮毛、四肢、耳朵、眼睛、胡须、牙齿、舌头等等。通过对特征相同的动物的聚类,可以将猫或者猫科动物聚成一类。但是此时,我们不知道这群毛茸茸的东西是什么,我们只知道,这团东西属于一类,兔子不在这个类(耳朵不符合),飞机也不在这个类(有翅膀)。特征有效性直接决定着算法有效性。如果我们拿体重来聚类,而忽略体态特征,恐怕就很难区分出老虎和豹子了。
再比如,孩子在一开始认识事物的时候,父母会给他一些苹果和橘子,但是并不告诉他哪儿个是苹果,哪儿个是橘子,而是让他自己根据两个事物的特征自己进行判断,会把苹果和橘子分到两个不同组中,下次再给孩子一个苹果,他会把苹果分到苹果组中,而不是分到橘子组中。
一句话概括:给定数据,寻找隐藏的结构。
常见的无监督学习算法:K-means聚类,主成分分析PCA等等
3半监督学习
半监督学习(semi-supervised learning)是指利用标注数据和未标注数据学习预测模型的机器学习问题。通常有少量标注数据、大量未标注数据,因为标注数据的构建往往需要人工,成本较高,未标注数据的手机不需要太多成本。半监督学习旨在利用未标注数据中的信息,辅助标注数据,进行监督学习,以较低的成本达到较好的学习效果。
使用的数据,一部分是标记过的,而大部分是没有标记的。和监督学习相比较,半监督学习的成本较低,但是又能达到较高的准确度。综合利用有类标的和没有类标的数据,来生成合适的分类函数。
4强化学习
强化学习(reinforcement learning)是指智能系统在于环境的连续互动中学习最有行为策略的机器学习问题。假设智能系统与环境的互动基于马尔可夫决策过程,智能系统能观测到的是与环境互动得到的数据序列。强化学习的本质是学习最优的序贯决策。
比如说训练一只小狗做动作,在它最对动作的情况下奖励骨头,再比如AI解游戏问题等等都属于强化学习,是可以通过一些方法知道你是离正确答案越来越近还是越来越远(奖惩函数)。可以把奖惩函数看作正确答案的一个延迟、稀疏的形式。可以得到一个延迟的反馈,并且只有提示你是离答案越来越近还是越来越远。
(注明:本文提到的定义均直接采用李航老师的《统计学习方法》)
是不是觉得机器学习也没有想象中那么神秘?我后期争取一周更一篇机器学习的推文,一起进步呦!
记得关注喵
留言板