特徵工程入門與實踐 (Feature Engineering Made Easy)

[土]錫南·厄茲代米爾(Sinan Ozdemir),迪夫婭·蘇薩拉(Divya Susarla)

立即出貨

買這商品的人也買了...

相關主題

商品描述

本書將帶你瞭解特徵工程的完整過程,使機器學習更加系統、高效。

你會從理解數據開始學習,機器學習模型的成功正是取決於如何利用不同類型的特徵,例如連續特徵、分類特徵等。你將瞭解何時納入一項特徵、何時忽略一項特徵,以及其中的原因。你還會學習如何將問題陳述轉換為有用的新特徵,如何提供由商業需求和數學見解驅動的特徵,以及如何在自己的機器上進行機器學習,從而自動學習數據中的特徵。

目錄大綱

第1章 特徵工程簡介  1
1.1 激動人心的例子:AI驅動的聊天 1
1.2 特徵工程的重要性 2
1.3 特徵工程是什麼 5
1.4 機器學習演算法和特徵工程的評估 9
1.4.1 特徵工程的例子:真的有人能預測天氣嗎 10
1.4.2 特徵工程的評估步驟 10
1.4.3 評估監督學習演算法 11
1.4.4 評估無監督學習演算法 11
1.5 特徵理解:我的資料集裡有什麼 12
1.6 特徵增強:清洗數據 13
1.7 特徵選擇:對壞屬性說不 14
1.8 特徵構建:能生成新特徵嗎 14
1.9 特徵轉換:數學顯神通 15
1.10 特徵學習:以AI促AI 16
1.11 小結 17

第2章 特徵理解:我的資料集裡有什麼 19
2.1 資料結構的有無 19
2.2 定量資料和定性資料 20
2.3 資料的4個等級 25
2.3.1 定類等級 26
2.3.2 定序等級 27
2.3.3 定距等級 30
2.3.4 定比等級 36
2.4 資料等級總結 38
2.5 小結 40

第3章 特徵增強:清洗數據 41
3.1 識別資料中的缺失值 41
3.1.1 皮馬印第安人糖尿病預測資料集 42
3.1.2 探索性資料分析 42
3.2 處理資料集中的缺失值 48
3.2.1 刪除有害的行 50
3.2.2 填充缺失值 54
3.2.3 在機器學習流水線中填充值 57
3.3 標準化和歸一化 61
3.3.1 z分數標準化 63
3.3.2 min-max標準化 67
3.3.3 行歸一化 68
3.3.4 整合起來 69
3.4 小結 70

第4章 特徵構建:我能生成新特徵嗎 71
4.2 填充分類特徵 72
4.2.1 自訂填充器 74
4.2.2 自訂分類填充器 74
4.2.3 自訂定量填充器 76
4.3 編碼分類變數 77
4.3.1 定類等級的編碼 77
4.3.2 定序等級的編碼 79
4.3.3 將連續特徵分箱 80
4.3.4 創建流水線 82
4.4 擴展數值特徵 83
4.4.1 根據胸部加速度計識別動作的資料集 83
4.4.2 多項式特徵 86
4.5 針對文本的特徵構建 89
4.5.1 詞袋法 89
4.5.2 CountVectorizer 90
4.5.3 TF-IDF向量化器 94
4.5.4 在機器學習流水線中使用文本 95
4.6 小結 97

第5章 特徵選擇:對壞屬性說不 98
5.1 在特徵工程中實現*好的性能 99
5.2 創建基準機器學習流水線 103
5.3 特徵選擇的類型 106
5.3.1 基於統計的特徵選擇 106
5.3.2 基於模型的特徵選擇 117
5.4 選用正確的特徵選擇方法 125
5.5 小結 125

第6章 特徵轉換:數學顯神通 127
6.1 維度縮減:特徵轉換、特徵選擇與特徵構建 129
6.2 主成分分析 130
6.2.1 PCA的工作原理 131
6.2.2 鳶尾花資料集的PCA——手動處理 131
6.2.3 scikit-learn的PCA 137
6.2.4 中心化和縮放對PCA的影響 144
6.3 線性判別分析 148
6.3.1 LDA的工作原理 149
6.3.2 在scikit-learn中使用LDA 152
6.4 LDA與PCA:使用鳶尾花資料集 157
6.5 小結 160

第7章 特徵學習:以AI促AI 161
7.1 資料的參數假設 161
7.1.1 非參數謬誤 163
7.1.2 本章的演算法 163
7.2 受限玻爾茲曼機 163
7.2.1 不一定降維 164
7.2.2 受限玻爾茲曼機的圖 164
7.2.3 玻爾茲曼機的限制 166
7.2.4 數據重建 166
7.2.5 MNIST資料集 167
7.3 伯努利受限玻爾茲曼機 169
7.3.1 從MNIST中提取PCA主成分 170
7.3.2 從MNIST中提取RBM特徵 177
7.4.1 對原始圖元值應用線性模型 178
7.4.3 對提取的RBM特徵應用線性模型 179
7.5 學習文本特徵:詞向量 180
7.5.1 詞嵌入 180
7.5.2 兩種詞嵌入方法:Word2vec和GloVe 182
7.5.3 Word2vec:另一個淺層神經網路 182
7.5.4 創建Word2vec詞嵌入的gensim包 183
7.5.5 詞嵌入的應用:資訊檢索 186
7.6 小結 190

第8章 案例分析 191
8.1 案例1:面部識別 191
8.1.1 面部識別的應用 191
8.1.2 數據 192
8.1.3 資料探索 193
8.1.4 應用面部識別 195
8.2 案例2:預測酒店評論資料的主題 200
8.2.1 文本聚類的應用 200
8.2.2 酒店評論數據 200
8.2.3 資料探索 201
8.2.4 聚類模型 203
8.2.5 SVD與PCA主成分 204
8.2.6 潛在語義分析 206
8.3 小結 210