Inside Deep Learning
作者: Edward Raff
语言: 英文
出版年份: 2022
其他分类: 人工智能
下载链接:
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。

书籍摘要

核心定位

《Inside Deep Learning: Math, Algorithms, Models》是一本面向已有机器学习与 Python 基础读者的深度学习进阶教材。它不是速查型 cookbook,也不是偏证明的理论书,而是把 PyTorch 实作、数学表达和模型直觉放在一起,训练读者理解模型为何这样设计、何时选择哪类 building blocks。

内容主线

全书按“机制—基础架构—高级模型—工程取舍”推进。前半部分从 tensors、automatic differentiation、optimization、Dataset 与训练循环入手,再讲 fully connected networks、CNN、RNN、现代训练技巧和常用设计模式。后半部分扩展到 autoencoding、object detection、GAN、attention、Seq2Seq、Transformers、transfer learning 与高级结构改进,重点是把公式、代码和判断力对应起来。

章节内容

第一章建立 Colab、PyTorch tensors、GPU acceleration、automatic differentiation 和数据接口基础。第二章从 linear regression 过渡到 fully connected networks,讲训练循环、loss、分类、checkpoint 与 batch training。第三章第四章分别处理 CNN 与 RNN,解释卷积、pooling、数据增强、序列建模、embedding、packing、双向和多层 RNN。第五章第六章讲 learning rate schedules、Adam、gradient clipping、Optuna、ReLU、normalization、skip/residual connections、1×1 convolutions 与 LSTM。

第七章第九章覆盖 autoencoders、self-supervision、segmentation、U-Net、Faster R-CNN、GAN、WGAN、conditional GAN 和生成模型伦理。第十章第十二章围绕 attention、Seq2Seq、机器翻译、TorchText、positional embeddings 与 Transformers。第十三章讲 transfer learning、pretrained ResNet、Hugging Face Transformers 和冻结权重;第十四章补充 anti-aliased pooling、ReZero、MixUp。

适用读者

适合熟悉 Python、NumPy、pandas、scikit-learn,并理解训练/测试、过拟合、线性/逻辑回归、k-means、PCA 等基础概念的读者。无需预先掌握 PyTorch,但需要愿意同时阅读代码、公式和图示。它尤其适合 junior 到 mid-level ML engineer、data scientist、研究生,以及想从“会调用库”推进到“能解释、能改造、能选择模型”的学习者。

总评

这本书的长处是覆盖面宽而学习线清楚:从训练机制讲到 CNN/RNN,再到 GAN、attention、Transformer 和 transfer learning,同时持续说明模型选择背后的原因。它更适合作为系统学习深度学习工程与模型设计的主线教材,而不是临时查 API 的手册。

期待您的支持
捐助本站