《深度学习进阶》是一本非常实用的技术书籍,它涵盖了深度学习领域的最新进展,包括卷积神经网络、循环神经网络、生成对抗网络等。书中的实例和代码非常详细,让读者可以轻松上手实践。对于想要深入了解深度学习的人来说,这是一本必读的书。
《深度学习进阶》读后感(篇一)
确实挺不错的,之前买了前作,这次出了续作,更多的集中精力在NLP领域,很好。首先,风格简单易懂,延续了前作的风格,不需要太多的数理基础也可以看懂,稍微难一点点的,也会有详细的图例给你;然后代码的风格也很简单易懂,没有一大段一大段的,毕竟它目标不是实现一个工程嘛,主要是要你理解其中原理,所以代码都是短小精悍,直击要害的。最后,可能有一点点不足吧,发展日新月异,最新的技术有提到,但没有代码实现,当然,这是出版的时间差的问题啦,瑕不掩瑜,很好的一本书。
《深度学习进阶》读后感(篇二)
本书作为《深度学习入门:基于Python的理论与实现》的续作,主要介绍了深度学习在自然语言处理(NLP)上的主要方法和模型。近来也在转型学习神经网络和深度学习,对于书中的一些公式还不太能理解,只能浅要总结如下:
- 1、神经网络有输入层、隐藏层和输出层。神经网络的推理可以理解为数据的正向传播,神经网络的学习可以理解为梯度数据的反向传播。使用计算图可以帮助理解各节点的正向传播和反向传播的计算过程。
- 2、自然语言处理(NLP)是深度学习的一个领域,目的是让计算机能理解人类语言。在NLP中,单词用向量表示,单词向量化的方法主要有两种:一种是基于计数的方法,一种是基于推理的方法。
- 3、基于计数的方法是对语料库中每个单词上下文单词出现的频数进行计数生成共现矩阵,然后转换为PPMI矩阵,再做降维处理,可以将巨大的稀疏向量转换为小的密集向量。基于计数的方法的问题是共现矩阵巨大,做降维处理的复杂度很高。
- 4、基于推理的方法一次只选取一小部分数据,即在mini-batch语料上学习,它基于上下文的单词推测中心词,就像完形填空。从模型视角看,就是输入上下文,模型输出各单词的出现概率。
- 5、RNN循环神经网络为了表达自然语言的序列,利用RNN创建的语言模型具有记忆能力。RNN具有环路,因此可以在内部记忆隐藏状态。RNN可以理解为多个RNN层连接起来的神经网络。
- 6、RNN学习过程中可能出现梯度爆炸(梯度变大超过一定阈值)或梯度消失(梯度变小接近0)的问题,影响模型学习。梯度裁剪(超过阈值后裁剪)对解决梯度爆炸有效,而LSTM、GRU等模型(Gated RNN)引入“门”的结构,解决梯度消失问题。LSTM即Long Short-Term Memory,意思是可以长时间维持短期记忆。LSTM有三个门:输入门、遗忘门、输出吗。门有专门的权重。
- 7、文本数据、音频数据、视频数据都是时序数据。基于RNN语言模型可以生成新的文本,通过组合两个RNN,可以将将一个时序数据转换为另一个时序数据(seq2seq),如机器翻译、语音识别等。seq2seq模型包含两个RNN模块:Encoder(编码器)和Decoder(解码器)。文本识别的seq2seq实现:Encoder由Embedding层和LSTM层组成,Embedding层将字符转换为字符向量,再输入LSTM层。Decoder由Embedding层、LSTM层和Affine层构成。如果将编码器从LSTM换成CNN(卷积神经网络),seq2seq就可以处理图像。
- 8、seq2seq的问题是编码器的输出是固定长度的向量,也就会导致在长文本处理时可能会发生有用的信息从向量中溢出。Attention机制是为了进一步强化seq2seq,基于Attention机制,使得seq2seq能像人一样,将“注意力”关注在重要信息上。Attention机制通过改造编码器和解码器来解决seq2seq的固定长度向量问题。
- 9、Transformer模型不用RNN,基于Attention构成,使用Self-Attention技巧。
《深度学习进阶》读后感(篇三)
7.1.3节提到的参考论文