CNN的fliter里的每个值都是学习出来的不是事先设定好的。
经过fliter处理后得到是特征图(feature map)
卷积减少权重参数的本质:
权重共享,不同的fliter会在某些神经元上权重共享。
到底fliter,到底CNN学到了什么?
- 底层的fliter学到了小块的纹理信息
- 高层的fliter学到了整体的信息,比如在fully connected layers中可以定向让某个神经元的值尽可能大,然后定向梯度上升得到原来的输入信息X,于是我们就可以知道每一个神经元让他兴奋度activate最高的图片是什么样子的。
那么这便是CNN探测学习到的东西。底层局部信息,高层全局信息。
什么时候使用CNN模型?
3. 有些模式要比整个图像小很多 可以直接甄别。
4. 相同的模式会在期盼不同的区域出现多次。
5. 当使用CNN时考虑输入信息的特性是什么,要根据CNN的特性去设计fliter。