內容簡介
機器學習雖然在改進產品性能、產品流程和推進研究方面有很大的潛力,但仍面臨一大障礙——計算機無法解釋其預測結果。因此,本書旨在闡明如何使機器學習模型及其決策具有可解釋性。 本書探索了可解釋性的概念,介紹了許多簡單的可解釋模型,包括決策樹、決策規則和線性回歸等。本書的重點是模型不可知方法,用於解釋黑盒模型(如特徵重要性和累積局部效應),以及用Shapley值和局部代理模型解釋單個實例預測。此外,本書介紹了深度神經網路的可解釋性方法。 本書深入解釋並批判性地討論所有的可解釋方法,如它們在黑盒下的運作機制,各自的優缺點,如何解釋它們的輸出結果。本書將幫助讀者選擇並正確應用最適用於特定機器學習項目的解釋方法。 本書適合機器學習從業者、數據科學家、統計學家及任何對機器學習模型可解釋性感興趣的讀者閱讀。作者簡介
Christoph Molnar克里斯托夫·莫爾納,可解釋機器學習研究員,目前在德國慕尼黑大學統計研究所攻讀博士學位,目標是讓機器學習模型的決策更容易被人類理解。著作Interpretable Machine Learning 受到業界高度關注。目錄
第1章 引言