尝试一种基于concatenation的网络结构,结果错把concatenation没接到下一步,训练时出现了无数个"Train net output #.....".
改了网络结构,同时又将原数据集合扩大到了六倍,结果发现迭代速度从4s降到了36s,尝试着将数据集缩小到六分之一,但速度只提高到33s,结论是影响迭代速度的主要因素还是网络结构复杂度。
而且网络结构变复杂之后,即使batch很小,也很容易GPU内存不足。
尝试一种基于concatenation的网络结构,结果错把concatenation没接到下一步,训练时出现了无数个"Train net output #.....".
改了网络结构,同时又将原数据集合扩大到了六倍,结果发现迭代速度从4s降到了36s,尝试着将数据集缩小到六分之一,但速度只提高到33s,结论是影响迭代速度的主要因素还是网络结构复杂度。
而且网络结构变复杂之后,即使batch很小,也很容易GPU内存不足。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/313274.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!