AI 可解釋性 (Python語言版) Explainable AI with Python

Leonida Gianfagna,Antonio Di Cecco 郭濤 譯

  • AI 可解釋性 (Python語言版)-preview-1
  • AI 可解釋性 (Python語言版)-preview-2
  • AI 可解釋性 (Python語言版)-preview-3
AI 可解釋性 (Python語言版)-preview-1

買這商品的人也買了...

相關主題

商品描述

《AI可解釋性(Python語言版)》全面介紹了AI可解釋性的概念和可用技術,使機器學習系統更易於解釋。書中提出的方法可以應用於幾乎所有現有的機器學習模型:線性和邏輯回歸、深度學習神經網絡、自然語言處理和圖像識別等等。 隨著機器學習的發展,如今人們越來越多地使用人工智能體來執行以前由人類處理的關鍵任務(醫療、法律和金融等等)。雖然智能體的設計原則已被理解,但目前的大多數深度學習模型對人類理解而言是“不透明的”。《AI可解釋性(Python語言版)》從理論和實踐的角度填補了這個新興主題文獻方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。

目錄大綱

目    錄

 

第1章 前景   1

1.1  AI可解釋性示例   2

1.1.1  學習階段   3

1.1.2  知識發現   4

1.1.3  可靠性和魯棒性   5

1.1.4  三個示例的啟示   5

1.2  ML和XAI   6

1.2.1  ML分類法   8

1.2.2  常見誤解   11

1.3  對AI可解釋性的需求   12

1.4  可解釋性與可理解性:是否為表達相同事物的不同詞語   14

1.4.1  從物質世界到人類   15

1.4.2  相關性不是因果性   16

1.4.3  那麽可理解性和可解釋性的區別是什麽   19

1.5  使ML系統具備可解釋性   21

1.5.1  XAI工作流程   21

1.5.2  全局視覺   24

1.6  我們真的需要ML模型的可解釋性嗎   26

1.7  小結   28

參考文獻   29

 

第2章 AI可解釋性:需求、機遇和挑戰   31

2.1  人工介入   32

2.1.1  半人馬座XAI系統   32

2.1.2  從“人工介入”的角度評估XAI   35

2.2  如何使ML模型具備可解釋性   37

2.2.1  內在可解釋性   41

2.2.2  事後可解釋性   44

2.2.3  全局或局部可解釋性   46

2.3  解釋的性質   49

2.4  小結   51

參考文獻   52

第3章 內在可解釋性模型   53

3.1  損失函數   54

3.2  線性回歸   57

3.3  邏輯回歸   67

3.4  決策樹   78

3.5  K最近鄰算法(KNN)   87

3.6  小結   90

參考文獻   91

第4章 XAI的模型不可知方法   93

4.1  全局可解釋性:排序重要性與部分依賴圖   94

4.1.1  根據排序重要性將特徵排序   95

4.1.2  訓練集中的排序重要性   99

4.1.3  部分依賴圖   100

4.1.4  解釋的性質   104

4.2  局部可解釋性:XAI與Shapley加法解釋   106

4.2.1  Shapley值:一種博弈論方法   107

4.2.2  SHAP的首次應用   108

4.2.3  解釋的性質   111

4.3  KernelSHAP   111

4.3.1  Shapley公式   112

4.3.2  如何計算Shapley值   112

4.3.3  局部線性代理模型(LIME)   113

4.3.4  KernelSHAP是一種特殊的LIME   115

4.4  KernelSHAP與交互   116

4.4.1  紐約出租車情境   116

4.4.2  通過初步分析訓練模型   116

4.4.3  用KernelShap使模型具備可解釋性   120

4.4.4  特徵交互   120

4.5  提升樹的更快速SHAP   122

4.5.1  TreeShap的應用   122

4.5.2  提供解釋   123

4.6  對SHAP的樸素評價   125

4.7  小結   127

參考文獻   128

第5章 解釋深度學習模型   129

5.1  不可知方法   130

5.1.1  對抗性特徵   130

5.1.2  增強方法   132

5.1.3  將遮擋用作增強方法   133

5.1.4  將遮擋用作不可知XAI方法   134

5.2  神經網絡(NN)   138

5.2.1  神經網絡結構   138

5.2.2  為什麽神經網絡是深層網絡(與淺層網絡相對)   140

5.2.3  修正激活(和批量歸一化)   142

5.2.4  顯著圖   143

5.3  打開深度網絡   144

5.3.1  不同層解釋   144

5.3.2  CAM(類激活圖,Class Activation Maps)和Grad-CAM   144

5.3.3  DeepShap/ DeepLift   146

5.4  對顯著性方法的評判   150

5.4.1  網絡所見   150

5.4.2  可解釋性逐層批量標準化   151

5.5  無監督方法   152

5.5.1  無監督降維   152

5.5.2  捲積濾波器降維   154

5.5.3  激活圖集:如何區分炒鍋與煎鍋   156

5.6 小結   158

參考文獻   159

第6章 用ML和XAI創造科學   161

6.1  數據時代的科學方法   162

6.2  因果關系階梯   166

6.3  用ML和XAI發現物理概念   172

6.3.1  自動編碼器的魔力   173

6.3.2  利用ML和XAI發現阻尼擺的物理特性   177

6.3.3  攀登因果關系階梯   181

6.4  ML和XAI時代的科學   182

6.5  小結   184

參考文獻   185

第7章 對抗性機器學習和可解釋性   187

7.1  對抗性示例(AE)速成課程   188

7.2  使用對抗性示例運行XAI   201

7.3  用XAI抵禦對抗性攻擊   205

7.4  小結   208

參考文獻   209

第8章 關於XAI可持續模型的建議   211

8.1  XAI“Fil Rouge”   212

8.2  XAI和GDPR   214

8.3  結語   220

8.4  小結   224

參考文獻   224

附錄 F.A.S.T. XAI認證   227