1.机器学习的流程
(1)数据获取 (2)特征工程 (3)建立模型 (4)评估与应用
2.特征工程的作用
(1)数据特征决定了模型的上限
 (2)预处理和特征提取是最核心的
 (4)算法与参数 决定如何逼近上限
3.深度学习的应用
计算机视觉、自然语言
 (1)人类识别
 (2)自动驾驶
 (3)医学中的检测
 (4)上色:超分辨率重构
 ttps://www.image-net.org/update-mar-11-2021.php
 深度学习适合与几万、几十万甚至更多的数据,性能会更好!
 (深度学习的数据的扩充:如果是图像数据,可以对图像旋转、变换、镜面对称)
4.图像分类
(1)假设图片是猫,有一系列标签(狗,猫,汽车,飞机…) 最后要判断是猫
 1)把图片看成一个矩阵,然后矩阵用三维数组表示,每个像素值从0到255.
 0黑, 255白(数值越大代表图像越亮,数值越小代表图像越暗。)
 eg:3001003
 比如宽w=300,长l=100,颜色通道是3
 颜色通道通常是(RGB:红/绿/蓝)
 (2)计算机视觉面临的挑战:照射角度、形状改变、部分遮蔽、背景混入
5.图像分类
(1)机器学习常规套路
1)收集数据并给定标签
 2)训练一个分类器
 3)测试和评估
 
 (2)K近邻算法
 
 (1)计算已知类别数据集的点和当前点的距离
 (2)按照距离依次排序
 (3)选取与当前按点距离最小的K个点
 (4)确定前K个点所在类别的出现概率
 (5)返回前K个点出现频率最高的类别作为当前点的预测分类
(3)K近邻的测试结果
 1)部分结果可以
 2)对应位置的像素点相减,但是会出现背景相同的会放在一起。
 3)总结:背景主导是一个最大的问题,但是我们关注的是主题(主要成分)
6.得分函数
1.线性函数:从输入到输出的映射
 

 1)w:权重参数 13072
 x:像素点 30721
 w1猫的得分,w2是狗的得分
 10:代表10个不同类别
 b:偏置参数,起到微调作用
7.线性函数
(一)softmax分类器
 
 
 补充:先进行归一化,在进行计算损失值。
 (1)概率值越接近于1,损失值越小
 (2)logp(xi)是负值,所以-logp(xi)是正值。
 (3)前向传播
 回归问题:由得分算损失值
 分类问题:由概率值求损失值
 (4)更新模型:反向传播更新模型,也就是梯度下降
 Loss高,我们需要调解w权重参数
 (二)前向传播、反向传播
 

 
 
 
 (三)反向传播的例子
 (1)绿色代表输入,红色代表梯度下降的结果。
 
 
 
 
 
 (1)加法门单元:对x求偏导(y就是常数),所以就等于1
 对 y求偏导(x就是常数),所以就等于1
 也就是均等分配。
 (2)Max比如 z=2,w=-1,所以我们选z,然后把梯度下降(红色的值)给z,w就取0了。
 
 乘法门单元:x*y,对x求偏导是y , 对y求偏导是x。也就是x与y进行互换。
8.神经网络

 
 (1)层次结构:输入层、隐藏层、输出层
 (2)神经元就是那里面的圆圈
 (3)全连接:输入层的第一个神经元和隐藏层的每一个神经元都是有连接的,也就是称作全连接。
 补充:输入层是3个神经元,也就是3个特征。在隐藏层里面变成4个神经元也就是对特征的权重进行了扩充。
 (4)输入层:13,一个样本三个特征
 隐藏层1:14,一个样本四个特征
 输入层和隐藏层1之间的连线是w1=[3,4]的矩阵
 
(5)非线性只能在每次x与w权重矩阵乘法之后才能进行。
 常见的非线性函数有:sigmoid函数和max函数
 