| 作者: | Nithin Buduma, Nikhil Buduma, and Joe Papa with contributions by Nicholas Locascio |
| 语言: | 英文 |
| 出版年份: | 2022 |
| 下载链接: |
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。 |
《Fundamentals of Deep Learning》第二版是一本面向 Python 程序员、软件工程师和计算机专业学生的深度学习入门到进阶教材。它不把重点放在追逐框架 API,而是先补足线性代数、概率、优化等基础,再用 PyTorch 和典型任务把神经网络、卷积网络、序列模型、生成模型、可解释性与强化学习串成一条完整路线。它适合想理解“为什么这样建模和训练”的读者,而不只是想复制几段代码的人。
全书的推进方式很清楚:先建立数学直觉,再解释神经网络的表达能力和训练机制,随后进入 PyTorch 实现,最后扩展到视觉、表示学习、自然语言序列、生成式建模、模型解释、记忆增强网络和深度强化学习等现代主题。第二版明显加强了数学背景,并把后半部分更新到更接近当代深度学习研究与工程实践的范围。
第一章和第二章分别讲深度学习所需的线性代数与概率基础,包括矩阵、向量空间、特征值、概率分布、条件概率等概念,并强调它们如何进入数据表示、分类和模型训练。
第三章到第六章构成神经网络核心部分:从机器学习区别于传统程序的根本思路讲起,介绍前馈网络、误差函数、梯度下降、学习率、反向传播,再进入 PyTorch 张量、模型定义、训练与测试,并讨论深层网络训练中的局部极小、非凸优化和现代优化器问题。
第七章到第十章转向主要应用和架构。书中用计算机视觉解释卷积神经网络为何能替代手工特征;用 PCA、autoencoder 和 embedding 说明表示学习;用神经 n-gram、RNN 等处理可变长度序列;再以 GAN 等内容介绍生成模型如何从数据分布中采样。
第十一章到第十三章覆盖更高级但很重要的主题:可解释性章节比较决策树、线性模型与神经网络解释方法;记忆增强网络讨论 Neural Turing Machine 和注意力式外部记忆;强化学习章节从 MDP、奖励、策略讲到 DQN,把深度网络放入与环境交互的学习框架中。
适合已经能写 Python、愿意补数学并希望系统进入深度学习的人。读者不必有机器学习博士级背景,但需要能接受公式、推导和较长的概念解释。若只想快速调用现成模型或寻找某个框架的速查手册,这本书会显得偏理论;若希望把 PyTorch 实践和底层直觉一起建立起来,它的节奏较合适。
这本书的价值在于把“基础—训练—实现—现代架构”连成整体:既不完全停留在科普层,也没有直接跳到论文级细节。它对初学者最有帮助的是建立深度学习问题的思考框架,对有编程经验但数学和模型直觉不够扎实的读者尤其友好。局限是覆盖面很宽,后半部分许多高级主题只能给出入口级理解;但作为进入深度学习体系的第二版教材,它足够扎实,也能帮助读者判断后续该深入优化、视觉、NLP、生成模型还是强化学习方向。