AlexNet是在2012年的ImageNet竞赛后,整理发表的文章,也是对CNN网络的衍生。
网络结构
AlexNet网络结构如下图所示,网络分为了上下两部分,对应两个不同的GPU训练,可以更好的利用GPU算力。只有在特殊的网络层后,两个网络层才进行交互,上下网络之间网络结构差异不是很大。网络总共有8层,分别是5层卷积、3层全连接。
论文中虽然显示图线是224*224*3,但按照后面的数据推算,应该输入的227*227*3的图像,可能是当时写错了?下面以227为例进行说明。
网络亮点
-
数据增强(data augmentation)
为了防止在有限的数据集与较深的网络结构下,网络仍有一个较好的结果,避免过拟合。论文中采用了两种数据增强的方式,
第一种:对图片镜像反射并裁剪。将原本256*256的图像镜像反射,这样训练集翻倍;针对原始图像和镜像图像,在左上、右上、左下、右下、中间分别做了5次裁剪,裁剪大小为224*224;这样一张图片经过了1变2,2变10的增加,完成的数据量级的增加。
第二种方式:对图像中RGB数据做PCA处理,对主成分做标准差为0.1的高斯扰动,增加数据噪声。通过PCA的色彩增强方法,使得图片的明亮程度会发生变化,但并没有改变图片的结构。具体过程如下:
-
一张图片为224*224*3,我们对其做一个变换,将其变成224*224行,3列的大矩阵。
-
对上面的矩阵进行主成分分析,获取排名top3的特征向量p和对应的特征值λ。
-
创建一个随机变量α,使其满足均值为0,方差1的高斯分布。
-
通过下面公式,对图片中的像素点进行重新赋值。
该方法在每训练一次之后,就会重新进行一次计算,产生的图片也像在强光或弱光下的照片,最终使得在top1错误率减少了1%以上。
-
激活函数
在神经网络中,常用的激活函数有tanh()和sigmoid()函数,这些饱和的非线性函数相对于非饱和的非线性函数max()等函数要慢很多,因此最终使用了ReLU作为激活函数,同时一定程度上解决了sigmoid函数带来的梯度弥散问题。
在使用ReLU的四层卷积网络,在CIFAR-10训练集中error rate降到25%的时候,比tanh快了六倍。
什么是饱和性?
简单来说,饱和性(saturating)是指,对于输入,函数的输出可以将其限定在一个范围内,即其输出有最大值和最小值,例如我们常见的sigmoid()->[0,1],输出在0~1之间。
非饱和性,即输入的数值,在通过函数之后没有被限定在一个范围,即我们常见的ReLU()函数。从论文中的实验结果看,也验证了非饱和性的速度更快一些。
-
Local Response Normalization(局部响应归一化)
局部归一化,简称LRN,可以带来泛化性能的提升,公式如下:
如下图是一组feature map,其中黄色像素点的位置为ax,y,计算相邻feature map相同位置的像素值,取平方,然后乘以α,加上k,做β次运算。论文中采用了k=2,n=5,α=0.0001,β=0.75。
具体来说,我们将k称作偏移量,α称作缩放比例系数,β称作超参数(影响归一化)。论文中在使用局部归一化后,top1的错误率降低了1.4%,top5的错误率降低了1.2%。
-
overlapping pooling(覆盖化的池化)
传统的CNN网络中池化核之间并不会重叠,本网络中使用池化层大小为3*3,stride为2,这样池化核之间就会有重叠,在top1和top5的实验中,错误率分别降低了0.4%和0.3%,在训练过程中也更加不易过拟合。
传统CNN中池化层一般会采用平均池化,AlexNet使用了最大池化,避免了平均池化带来的模糊化效果,覆盖化的池化,一定程度上提升了特征的丰富性。
-
Dropout
在全连接层中,使用了Dropout关闭一些网络中的神经节点,起到防止过拟合的作用。这些被关闭的神经元不再参与前向传播和反向传播。
因此在每次数据输入时,网络的结构(神经元)都会有所不同,但学习的权重一直都是在共享的状态。这种方式,是的神经元不是依赖单个或某些神经元完成训练,而是能有更大范围的鲁棒性,因此很大程度上避免了过拟合。
-
GPU计算
网络使用了两个GPU进行训练,减少了原有网络的训练时间,网络一共8层,其中绿色部分是上下两个GPU发生信息交互的位置。
-
权重动态调整
对于权重的动态调整,采用了如下公式,使得模型的训练误差得到了降低。
应用
-
定义模型结构
import torch.nn as nn
import torchclass AlexNet(nn.Module):def __init__(self, num_classes=1000, init_weights=False):super(AlexNet, self).__init__()self.features = nn.Sequential(# 卷积层1nn.Conv2d(3, 48, kernel_size=11, stride=4, padding=2), nn.ReLU(inplace=True), # inplace=True 增加计算量,降低了内存消耗nn.MaxPool2d(kernel_size=3, stride=2), # 卷积层2nn.Conv2d(48, 128, kernel_size=5, padding=2), nn.ReLU(inplace=True),nn.MaxPool2d(kernel_size=3, stride=2), # 卷积层3nn.Conv2d(128, 192, kernel_size=3, padding=1), nn.ReLU(inplace=True),# 卷积层4nn.Conv2d(192, 192, kernel_size=3, padding=1), nn.ReLU(inplace=True),# 卷积层5nn.Conv2d(192, 128, kernel_size=3, padding=1), nn.ReLU(inplace=True),nn.MaxPool2d(kernel_size=3, stride=2))self.classifier = nn.Sequential(# 全连接层6nn.Dropout(p=0.5),nn.Linear(128 * 6 * 6, 2048),nn.ReLU(inplace=True),# 全连接层7nn.Dropout(p=0.5),nn.Linear(2048, 2048),nn.ReLU(inplace=True),# 全连接层8nn.Linear(2048, num_classes),)if init_weights:self._initialize_weights()def forward(self, x):x = self.features(x)x = torch.flatten(x, start_dim=1)x = self.classifier(x)return xdef _initialize_weights(self):# 遍历所有网络层结构for m in self.modules():# 如果属于卷积层,使用如下方法初始化if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')if m.bias is not None:nn.init.constant_(m.bias, 0)# 如果是全连接层,使用如下方法初始化elif isinstance(m, nn.Linear):nn.init.normal_(m.weight, 0, 0.01)nn.init.constant_(m.bias, 0)