| 作者: | Ajay Thampi |
| 语言: | 英文 |
| 出版年份: | 2022 |
| 其他分类: | 人工智能 |
| 下载链接: |
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。 |
《Interpretable AI: Building explainable machine learning systems》是一本面向实践者的可解释机器学习指南,重点不是泛谈“AI 伦理”,也不是只介绍单一解释工具,而是把白盒模型、黑盒模型解释、神经网络表征分析、公平性与偏差治理串成一条可落地的工程路径。作者 Ajay Thampi 结合数据科学和机器学习工程经验,强调在医疗、金融等关键场景中,模型性能之外还必须理解模型如何做出判断。
全书围绕“如何构建稳健、可解释、较少偏差的 AI 系统”展开。它先用 Diagnostics+ AI 这样的医疗诊断案例说明机器学习系统的构成、风险与解释需求,再从天然透明的模型过渡到黑盒模型的事后解释,最后进入深度模型内部表征、语义相似性、公平性定义、偏差缓解和 explainable AI 的系统化建设。
第一章建立全书问题背景,介绍监督学习、无监督学习、强化学习、数据表示、模型构建流程,以及 interpretability 与 explainability 的区别。第二章讨论白盒模型,包括 linear regression、decision trees 和 generalized additive models,并说明它们的可解释性与局限。
第三章到第五章转向黑盒模型解释:先用 tree ensembles 讲 global interpretability、partial dependence plots 和 feature interactions,再用 deep neural networks 介绍 LIME、SHAP、Anchors 等 local interpretability 方法,随后在 CNN 场景中讲 saliency maps、guided backpropagation、Grad-CAM、guided Grad-CAM 和 SmoothGrad。
第六章和第七章关注模型学到的内部表示:前者用 network dissection 理解 CNN 的 layers 和 units,后者以语言模型和 sentiment analysis 为背景,讲 word embeddings、PCA、t-SNE 及语义相似性可视化。第八章讨论 fairness notions、偏差检测、bias mitigation 和 datasheets for datasets。第九章收束到 explainable AI,并引入 counterfactual explanations。
本书适合已经具备机器学习基础、会读代码并希望把解释技术用于真实模型的数据科学家、机器学习工程师和 AI 架构师。它也适合需要理解模型风险、合规、公平性和业务影响的技术管理者或业务利益相关方。不适合作为零基础机器学习入门书;若读者尚不了解回归、分类、神经网络或 PyTorch,阅读时需要补充基础。
这本书的价值在于覆盖面较完整且偏实践:既讲可解释模型,也讲 LIME、SHAP、Grad-CAM 等常用解释方法,还把公平性和偏差治理纳入同一框架。它不会把可解释 AI 简化成画几张特征重要性图,而是提醒读者把数据、模型、解释、偏差和业务信任一起考虑。对正在部署或评估机器学习系统的读者来说,它比概念性读物更有操作参考价值。