Skip to content

《可解释的机器学习--黑盒模型可解释性理解指南》,该书为《Interpretable Machine Learning》中文版

License

Notifications You must be signed in to change notification settings

zhangbeyonder/InterpretableMLBook

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

16 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

《可解释的机器学习--黑盒模型可解释性理解指南》

该书为《Interpretable Machine Learning》中文版。该书原作者是 Christoph Molnar,他是一名统计学家和机器学习者 @christophM。该书的项目 地址,这是一个很棒的工作。你可以在 releases 中下载本书英文版 pdf

我是 朱明超,同样,我也是一名机器学习者。关于此书的译本,我在翻译后进行了一遍又一遍的校正。如果你在英文原书中看到某些表述问题,可以参考我在中文书里的描述。当然,由于英文原书是较早前出版的,本书并不是完全基于英文书,作者 Christoph Molnar 在《Interpretable Machine Learning》的 网页版 中对内容不断填充,所以中文版的翻译主要基于网页版 (内容会多于英文书)。你可以在 releases 中下载本书中文版 pdf

(* 如果对该书进行更新,会在 releases 处上传最新版本。)

我不是专职翻译,而且水平有限,无法消除众多读者的方差。如果你在阅读过程中有遇到任何问题,可以在 Issues 或者通过邮箱联系我 (邮箱联系方式见后文)。如果后面时间允许的话,我会为这本书描述的方法,补充基于 Python 的实战应用。

面向读者

建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的⼈阅读本书。

如果你是机器学习初学者,建议学习基础知识。关于机器学习的⼊门学习,我推荐 Andrew Ng 的 “机器学习” 在线课程。如果你是对机器学习或深度学习的原理感兴趣,我也推荐另一个 项目,该项目描述其原理和代码实现过程。

章节介绍

这本书的重点是机器学习的可解释性。你将学习简单的、可解释的模型,如线性回归、决策树和决策规则等。后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以及用 Shapley 值和 LIME 解释单个实例预测。

对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书将使你能够选择并正确应⽤最适合你的机器学习项⽬的解释⽅法。你阅读本书后,内化基础知识还使你能够更好地理解和评估 arxiv.org 上发表的有关可解释性的新论⽂。

《可解释的机器学习》该书总共包含 7 章内容。章节目录如下:

  • 第一章:前言

  • 第二章:可解释性

  • 第三章:数据集

  • 第四章:可解释的模型

  • 第五章:模型无关方法

  • 第六章:基于样本的解释

  • 第七章:水晶球

联系作者

我的邮箱联系方式为 deityrayleigh@gmail.com

如果你遇到任何问题,可以通过邮箱联系我。

同样,你可以通过邮箱联系 Christoph Molnar: christoph.molnar.ai@gmail.com

你可以在 leanpub.com 或 lulu.com 上购买英文书的电子版和纸质版。

感谢作者 Christoph Molnar 的支持:https://twitter.com/ChristophMolnar/status/1253657782269739008?s=20

感谢 刘蕊 @KaMAo112的帮助。

致谢

感谢对本项目的认可与推广:

赞助

本项目书写耗费时间精力。如果本项目对你有帮助,可以请作者吃份甜点:

支付

About

《可解释的机器学习--黑盒模型可解释性理解指南》,该书为《Interpretable Machine Learning》中文版

Resources

License

Stars

Watchers

Forks

Packages

No packages published