《Deep Learning with Python》是一本由Francois Chollet著作,Manning Publications出版的Paperback图书,本书定价:USD 49.99,页数:350,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。
《Deep Learning with Python》精选点评:
●作者是keras的开发者,非常适合深度学习入门
●进阶牛书啊。之前的很多不太清楚的细节都讲解到了。写的非常流畅易懂,而且饱含深情(前三章))
●实操入门好书,在普及深度学习上有大功德。
●原来是keras的开发者…
●就是听基础的,其中的代码质量还是很高的。
●keras作者出书,非常适合初学者。
●深度学习交给你的不仅仅是技术,还有人是如何认识事物的思想,而这也是与哲学更为接近的一部分,也是更为有趣的地方。越来越发现自然科学与哲学之间存在的千丝万缕联系是如此有趣,这也是我喜欢机器学习、模式识别的原因,超越技术之外的思想可以泛化到对世界的认知,而对“认知”过程和机理的了解则开启了最为奇妙的认知旅程——认识自己,则认识世界。在看过《形而上学》之后,看康德会有不一样的体会,而这些书应该也会为我看《GEB》奠定很好的基础吧。
●看的第一本关于神经网络的书,写得很好很流畅。第三章往后全是干货,基于Keras给出了很多基础代码实例,但没有涉及到理论如SGD,backpropagation,适合需要快速上手的初学者。
●intro
●Keras作者新作,拿到电子版就一口气读了快两章,不得不说,真的很喜欢,作者的文笔非常简练,写的通俗易懂,而且文中经常有独到的见解,就像作者说的,其实深度学习原理并不复杂,通过讲述力图揭开深度学习神秘的面纱,使大家能够对神经网络有足够的掌握,并通过keras这一建立在TensorFlow theano cntk的高级接口实现深度学习中的各种网络,解决实际中的问题。#追加#终于完整读完了一遍,2018年读的第一本书
《Deep Learning with Python》读后感(一):future of deep learning
主要是记录下我觉得最有用的一部分: the future of deep learning
1. models as programs/ program synthesi
2. beyond backprop and differentiable layers(我觉得不太现实,gradient-free optimization通常效率不够)
另外提到end to end backprop没有利用系统的层次性因此效率不足。改进是增加模块性和层次性,引入解耦的训练模块以及同步机制,以一种层次化的方式。可以关注下deepmind gradient synthesis的工作。
3.auto-ml
4.lifelong learning & modular subroutine reuse
《Deep Learning with Python》读后感(二):8.4节 VAE生成图像 公式错误
电子版8.4节,从300页开始出现了一个明显的错误,包括代码在内。
原文及代码中 decoder 使用 z = z_mean + exp(z_log_variance) * epsilon 生成 latent space 中的一个点,再依靠这些点的分布生成图像,这实际是对原图像分布的还原过程。 高斯分布可以使用 N~(μ, σ) 来描述,但作者这里使用的是方差(variance),方差相比标准差(σ sigma)多了一个平方符号。
所以正确算法应该是 “z = z_mean + exp(z_log_variance/2) * epsilon” ,或者直接使用标准差描述“z = z_mean + exp(z_log_sigma) * epsilon”。 另外,可以参见 keras 中 VAE 的实现代码,使用的是 “z_mean + K.exp(z_log_var / 2) * epsilon”,可见作者书中确实错了。 链接 keras/examples/variational_autoencoder.py
希望对大家有用。
《Deep Learning with Python》读后感(三):特别简单优美的入门介绍
对于新手小白我来说是很好的入门介绍,从模型到应用都能略窥一二,顺带这个风格迁移真的很好玩儿,把我身处的城市画成梵高的世界,希望以后能从模仿到创新实现突破吧。纽约风景Van Gogh Starry Night风格迁移画作
在看这本书期间我正好在做学校的大作业,有很多实用的评价模型,调参的部分都用在了大作业中,学以致用,越来越觉得深度学习是个很有意思的内容。
《Deep Learning with Python》读后感(四):精读一个月
这本书从6月11号那天老板递到我手里,到今天刚好六周,在这期间我逐字逐句地啃了这本书,并在每周的周二和周五下午给组里的其他人讲这本书,每次讲3个小时。直到五分钟前刚刚讲完最后一章,写了175页的PPT。
感想从何谈起呢?先说Keras吧,这本书的作者是Keras的作者,所以本书着重介绍Keras在deep learning中的各种用法。Keras非常容易上手,感觉用Keras写deep learning的代码就跟用Python一样,可以方便地把想到的东西用几行代码表达出来。比如今天想写个convnet+fully connected layer的model分类一下MNIST,如果用TensorFlow的话可能要前前后后写很多代码,但是用Keras的话只要不到十行就搞定了,然后就可以跑了,就跟跑“Hello World”一样简单。如果你想来个transfer learning,那也很简单,Keras有很多训练好的model,直接load一个,再在其上加一个fully connected layer,然后就能用训练好的model来训练分类自己的分类器了。很多Keras大牛肯定比我更有经验,我就不班门弄斧了。