唯一《可解释机器学习》中文书来了:复旦研究生翻译,原作者点赞

      最后更新:2020-05-11 12:40:44 手机定位技术交流文章

      肖咋整理量子比特报告|公开数字量子比特

      新皇冠流行病的出现将许多人工智能医疗技术带到了表面。

      但是人工智能一直有一个黑盒问题。如果人工智能不能解释这一过程,如何能保证对病人进行诊断?然而,很少有关于机器学习的书籍能够解释问题。

      最近,复旦大学的研究生朱明超将一本罕见的书《可解释机器学习》翻译成了中文。

      这本书最初由德国慕尼黑大学的克里斯托弗·莫尔纳尔博士完成。它花了两年时间完成,长达250页。这是唯一系统介绍可解释机器学习的书。

      朱明超最近完成了这本书的翻译和校对,现在已经放到了GitHub上。在翻译过程中,朱还与原作者进行了多次讨论。克里斯托夫·莫尔纳尔在推特上也推荐了中文版。

      “可解释的”是这本书的核心主题。作者认为可解释性是机器学习乃至日常生活中一个非常重要的问题。建议机器学习实践者、数据科学家、统计学家和任何使机器学习模型可以解释的人阅读这本书。

      可解释的机器学习总共包含7章:

      第1章:前言第2章:可解释性第3章:数据集第4章:可解释性模型第5章:模型独立方法第6章:基于样本的解释第7章:水晶球Molnar说,尽管数据集和黑盒机器学习已经解决了许多问题,但这并不是使用的最佳姿态。现在,模型本身已经取代了作为信息源的数据,但是可解释性可以提取模型捕获的额外信息。

      当我们的日常生活充满了机器和算法时,我们也需要可解释性来增加社会接受度。毕竟,如果连科学家都不能理解“黑箱”,普通人怎么能完全信任模型做出的决定呢?

      这本书着重于机器学习的可解释性。你可以从这本书里学到简单和可解释的模型,比如线性回归、决策树和决策规则。

      接下来的章节集中在解释黑盒模型的模型独立性的一般方法,例如特征重要性和累积局部效应,以及使用Shapley值和LIME来解释单实例预测。

      对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释他们的产出?这本书使你能够选择和正确应用最适合你的机器学习项目的解释方法。

      这本书结合了各种现实生活的例子来介绍相关的概念,同时,有参考链接来帮助读者了解更多。

      此外,朱的GitHub一直坚持翻译Goodfellow的“机器学习”,并在翻译中加入了自己的Python代码以供参考。感兴趣的学生也可以顺便提及这项研究。

      最后,附上“可解释机器学习”的项目地址:https://github.com/MingchaoZhu/InterpretableMLBook

      -完毕-

      量子比特签了合同。

      请密切关注我们,首先了解最新的技术发展。

      本文由 在线网速测试 整理编辑,转载请注明出处,原文链接:https://www.wangsu123.cn/news/6346.html

          热门文章

          文章分类