之前实现了一层的卷积神经网络,又实现了两层的卷积神经网络,接下来把cnn扩展到任意层就不难了。
这难道就是传说中的“道生一,一生二,二生三,三生万物”么?=。=
代码还是在github上。
比较有趣的一点是,我分别用两层的神经网络和一层的神经网络进行了实现,结果如下图:
两层的cnn结果:
一层的cnn结果:
可以看到,一层的cnn结果反而比两层的好,那么很有可能是两层的cnn出现了过拟合现象。对于mnist这种小数据集,一层的cnn加上一些参数调优绝对是够用了的。
之前实现了一层的卷积神经网络,又实现了两层的卷积神经网络,接下来把cnn扩展到任意层就不难了。
这难道就是传说中的“道生一,一生二,二生三,三生万物”么?=。=
代码还是在github上。
比较有趣的一点是,我分别用两层的神经网络和一层的神经网络进行了实现,结果如下图:
两层的cnn结果:
一层的cnn结果:
可以看到,一层的cnn结果反而比两层的好,那么很有可能是两层的cnn出现了过拟合现象。对于mnist这种小数据集,一层的cnn加上一些参数调优绝对是够用了的。
转载于:https://www.cnblogs.com/sunshineatnoon/p/4587396.html
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/471853.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!