一、亮点
AlexNet、VGG都只有一个输出层。googlenet有三个(其中两个是辅助分类层)
二、先看看Inception结构
1、Inception
之前的网络:
AlexNet、VGG都是串行结构
Inception:
并行结构
上一层的输出同时传入四个并行结构:
得到四个特征矩阵
而后按深度进行拼接、得到输出层
注意:每一个分支所得到的特征矩阵必须高纬度和宽维度相同
2、Inception+降维
多了三个1×1的卷积层
起到降维作用
3、1×1的降维作用:
不使用1×1卷积核降维:参数计算量
使用1×1降维计算量:
4、辅助分类器
第一层:
平均池化下采样
池化核大小5×5、步长为3、
两个分类器分别来自4a和4d。长宽一样但深度不同一个512、一个528.
根据计算公式
其中输入为14、池化核大小为5、padding为0
步长为3
得结果=14
因为池化不改变深度,所以输出为14×14×512
第二层
使用128个卷积核大小为1×1进行降维、并使用ReLU
第三层
采用节点个数为1024的全连接层、同样使用ReLU。
第四层
使用drop out 以70%的比例随机失活神经元
而后全连接层预测1000个类别( 因为ImageNet有1000个类别)
三、看googleNet详表
#n×n reduce代表 在n×n卷积层之前
加入一个降维处理的1×1卷积
对照 下图;
我们看到输入先是经过7×7/2的卷积、3×3/2的池化后
进入一个1×1的卷积和3×3的卷积
因此depth写了2
四、参数
模型参数少、准确率高
但是搭建太复杂了。
参考:https://blog.csdn.net/m0_37867091/article/details/107404735