| 作者: | Max Pumperla and Kevin Ferguson |
| 语言: | 英文 |
| 出版年份: | 2019 |
| 其他分类: | 人工智能 |
| 下载链接: |
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。 |
《Deep Learning and the Game of Go》是一本以“亲手实现围棋 AI”为主线的深度学习入门书。它不是单纯讲 AlphaGo 故事,也不是偏数学推导的机器学习教材,而是面向软件开发者,把树搜索、神经网络、强化学习和工程部署串成一个逐步变强的 Go bot 项目。全书使用 Python 与 Keras,强调通过可运行代码理解现代 AI 系统的组成方式。
本书的推进逻辑很清晰:先把围棋问题转化为可编程、可评估的游戏环境,再引入传统游戏 AI 的搜索方法,随后用神经网络从棋谱数据中学习落子策略,最后通过自我对弈和强化学习逼近 AlphaGo / AlphaGo Zero 的核心思想。围棋在书中既是应用场景,也是理解“模式识别 + 规划搜索”的教学载体。
第一章~第三章建立基础:介绍 AI、机器学习与深度学习的关系,说明围棋为什么适合作为机器学习问题,并用 Python 实现棋盘、落子、提子、禁入点、劫争和一个最弱但可运行的 Go bot。
第四章转向游戏搜索,从 minimax、alpha-beta pruning 讲到 Monte Carlo tree search,让读者理解在巨大状态空间中如何选择候选路径和评估局面。
第五章~第八章进入神经网络与监督学习:先用手写数字识别建立神经网络直觉,再把围棋局面编码为网络输入,使用 Keras 构建卷积网络预测落子,并处理 SGF 棋谱、训练数据、优化器、实验评估、Web 前端、Go Text Protocol、云端训练和在线围棋服务器部署。
第九章~第十二章讲强化学习:围绕智能体、经验、自我对弈、policy gradients、value methods 与 actor-critic 方法,展示 bot 如何不只模仿人类棋谱,而是通过实践改进策略和局面价值判断。
第十三章~第十四章把前面的部件合成 AlphaGo 风格系统,讨论策略网络、价值网络、自我对弈、树搜索结合方式,以及 AlphaGo Zero 中神经网络引导搜索、Dirichlet noise、batch normalization、residual networks 等更现代的设计。附录补充线性代数、微积分、反向传播、围棋程序/服务器和 AWS 部署等内容。
本书最适合有 Python 基础、希望以项目方式进入机器学习和游戏 AI 的软件开发者。读者不需要预先会围棋,书中会补足规则与基本概念;会围棋的读者则更容易感受到 bot 逐步变强的乐趣。它不太适合只想快速调用现成模型 API 的读者,也不适合追求严格理论证明或最新深度学习框架实践的人。
这本书的价值在于把现代 AI 的几个关键部件放进一个完整、可实验的系统里讲清楚:从随机落子的弱程序,到监督学习、强化学习,再到 AlphaGo 式的搜索与学习结合。它的技术栈带有 2019 年 Keras 时代的痕迹,但学习路径仍然扎实,尤其适合作为“用一个复杂游戏项目理解深度学习系统”的实践型入门读物。