目录
- 1.深度卷积神经网络ALexNet 2012
- AlexNet
- AlexNet架构
- AlexNet与LeNet复杂度对比
- 总结
- 代码实现
- 2.使用块的网络VGG 2014 image竞猜第二
- VGG架构
- 进度
- 总结
- 代码实现
- 3.网络中的网络NiN
- 全连接层的问题
- NiN块
- NiN架构
- 总结
- 代码实现
- 4.含并行连结的网络(GoogLeNet)2014 image竞猜第一
- 最好的卷积层超参数?
- Inception块:小学生才做选择题,我全要
- GoogLeNet网络结构
- Stage1 & Stage2
- Stage3
- Stage4 & 5
- Inception有各种后续变种
- 总结
- 代码实现
- 5.批量归一化(Batch Normalization) 为了更快的拟合
- 训练神经网络时出现的挑战
- 核心思想
- 批量归一化在做什么?
- 总结
- 批量归一化从零实现
- 简明实现
- 6.残差网络 ResNet
- 问题:随着神经网络的不断加深,一定会带来好处吗?
- 核心思想
- 残差块
- ResNet块细节
- ResNet架构
- 总结
- 代码实现
- 7.ResNet为什么能训练出1000层的模型
- 如何避免梯度消失?
- Residual如何处理梯度消失?
1.深度卷积神经网络ALexNet 2012
- 在深度学习之前的网络
- 机器学习(SVM) 2010年之前
- 提取特征
- 选择核函数来计算相关性
- 凸优化问题
- 漂亮的定理(优点:有一套完整的数学定理支持)
- 几何学 2000年
- 抽取特征
- 描述几何(例如多相机)
- (非)凸优化
- 漂亮定理
- 如果假设满足了,效果非常好
- 特征工程
- 特征工程是关键
- 特征描述子:SIFT SURF(特征提取算法)
- 最后使用SVM
- 机器学习(SVM) 2010年之前
-
深度神经网络能再起,数据和运算起到关键作用
- ImageNet(2010)
- 图片:自然物体的彩色图片
- 大小:469 * 387
- 样本数 1200000
- 类数:1000
- ImageNet(2010)
AlexNet
- AlexNet 赢了2012年Image竞赛
- 更深更大的LeNet
- 主要改进:
- 丢弃法ÿ