白話機器學習——統計+概率+算法原理
洪錦魁
- 出版商: 清華大學
- 出版日期: 2025-08-01
- 售價: $894
- 語言: 簡體中文
- ISBN: 730269737X
- ISBN-13: 9787302697374
-
相關分類:
Machine Learning
下單後立即進貨 (約4週~6週)
相關主題
商品描述
作者簡介
目錄大綱
目 錄
第1章 機器學習基本概念1
1-1 人工智能、機器學習、深度學習
2
1-2 認識機器學習2
1-3 機器學習的種類2
1-3-1 監督學習3
1-3-2 無監督學習4
1-3-3 強化學習4
1-4 機器學習的應用範圍4
1-5 深度學習5
第2章 機器學習的基礎數學6
2-1 用數字描繪事物7
2-2 變量概念7
2-3 從變量到函數7
2-4 等式運算的規則8
2-5 代數運算的基本規則9
2-6 用數學抽象化開餐廳的生存條件9
2-6-1 數學模型 9
2-6-2 經營數字預估9
2-6-3 經營績效的計算 10
2-7 基礎數學的結論10
第3章 認識方程式、函數、坐標
圖形11
3-1 認識方程式12
3-2 方程式文字描述方法12
3-3 一元一次方程式13
3-4 函數13
3-5 坐標圖形分析14
3-5-1 坐標圖形與線性關系14
3-5-2 斜率與截距的意義15
3-5-3 細看斜率16
3-5-4 細看y截距16
3-5-5 細看x截距16
3-6 將線性函數應用於機器學習17
3-6-1 再看直線函數與斜率17
3-6-2 機器學習與線性回歸18
3-6-3 相同斜率平行移動18
3-6-4 不同斜率與相同截距19
3-6-5 不同斜率與不同截距19
3-7 二元函數到多元函數19
3-7-1 二元函數基本概念19
3-7-2 二元函數的圖形20
3-7-3 等高線圖20
3-7-4 多元函數21
3-8 Sympy模塊22
3-8-1 定義符號22
3-8-2 name屬性22
3-8-3 定義多個符號變量22
3-8-4 符號的運算23
3-8-5 將數值代入公式23
3-8-6 將字符串轉為數學表
達式23
3-8-7 Sympy模塊支持的數學
函數23
3-8-8 解一元一次方程式24
第4章 從聯立方程式看機器學習的
數學模型25
4-1 數學概念建立連接兩點的
直線26
4-1-1 基礎概念26
4-1-2 聯立方程式26
4-1-3 使用加減法解聯立方
程式26
4-1-4 使用代入法解聯立方
程式27
4-1-5 使用Sympy解聯立方
程式27
4-2 機器學習使用聯立方程式推估
數據28
4-2-1 基本概念28
4-2-2 數據推估30
4-3 從兩條直線的交叉點推估科學
數據31
4-3-1 雞兔同籠31
4-3-2 達成業績目標33
4-4 兩條直線垂直交叉34
4-4-1 基礎概念34
4-4-2 求解坐標某一點至一條直線
的垂直線36
第5章 從勾股定理看機器學習38
5-1 驗證勾股定理39
5-1-1 認識直角三角形39
5-1-2 驗證勾股定理39
5-2 將勾股定理應用於性向測試40
5-2-1 問題核心分析40
5-2-2 數據運算40
5-3 將勾股定理應用於三維空間41
5-4 將勾股定理應用於更高維的
空間41
5-5 電影分類42
5-5-1 規劃特征值42
5-5-2 項目程序實操42
5-5-3 電影分類結論43
5-6 計算兩個向量的歐幾裏得距離43
第6章 聯立不等式與機器學習44
6-1 聯立不等式與機器學習的關系45
6-2 再看聯立不等式的基本概念45
6-3 聯立不等式的線性規劃45
6-3-1 案例分析45
6-3-2 用聯立不等式表達46
6-3-3 在坐標軸上繪不等式的
區域46
6-3-4 目標函數47
6-3-5 平行移動目標函數48
6-3-6 將交叉點坐標代入目標
函數48
6-4 Python計算48
第7章 機器學習需要知道的二次
函數50
7-1 二次函數的基礎數學51
7-1-1 求一元二次方程式的根51
7-1-2 繪制一元二次方程式的
圖形53
7-1-3 一元二次方程式的最小值
與最大值54
7-1-4 一元二次函數參數整理56
7-1-5 一元三次函數的圖形
特征57
7-2 從一次到二次函數的實務58
7-2-1 呈現好的變化58
7-2-2 呈現不好的變化58
7-3 認識二次函數的系數59
7-4 使用3個點求解一元二次函數59
7-4-1 手動求解一元二次函數59
7-4-2 程序求解一元二次函數60
7-4-3 繪制一元二次函數60
7-4-4 使用業績回推應有的拜訪
次數61
7-5 二次函數的配方法62
7-5-1 基本概念62
7-5-2 配方法62
7-5-3 從標準式計算二次函數的
最大值63
7-5-4 從標準式計算二次函數的
最小值64
7-6 二次函數與解答區間64
7-6-1 營銷問題分析64
7-6-2 二次函數分析增加業績的
臉書營銷次數65
7-6-3 將不等式應用在條件
區間66
7-6-4 非實數根67
第8章 機器學習的最小二乘法68
8-1 最小二乘法基本概念69
8-1-1 基本概念69
8-1-2 數學觀點70
8-2 簡單的企業實例70
8-3 機器學習建立含誤差值的線性
方程式71
8-3-1 概念啟發 71
8-3-2 三項和的平方71
8-3-3 公式推導72
8-3-4 使用配方法計算直線的
斜率和截距72
8-4 Numpy實操最小二乘法73
8-5 線性回歸74
8-6 實務應用75
第9章 機器學習必須懂的集合77
9-1 使用Python建立集合78
9-1-1 使用{ }建立集合78
9-1-2 集合元素是唯一的78
9-1-3 使用set( )建立集合78
9-1-4 集合的基數78
9-1-5 建立空集合要用set( )79
9-1-6 大數據與集合的應用79
9-2 集合的操作79
9-2-1 交集79
9-2-2 並集80
9-2-3 差集81
9-2-4 對稱差集81
9-3 子集、超集與補集82
9-3-1 子集82
9-3-2 超集82
9-3-3 補集83
9-4 加入與刪除集合元素83
9-5 冪集與Sympy模塊84
9-5-1 Sympy模塊與集合84
9-5-2 建立冪集84
9-5-3 冪集的元素個數84
9-6 笛卡兒積84
9-6-1 集合相乘84
9-6-2 集合的n次方85
第10章 機器學習必須懂的排列與
組合86
10-1 排列的基本概念87
10-1-1 試驗與事件87
10-1-2 事件結果87
10-2 有多少條回家路88
10-3 排列組合89
10-4 階乘的概念90
10-5 重復排列93
10-6 組合93
第11章 機器學習需要認識的概率95
11-1 概率的基本概念96
11-2 數學概率與統計概率98
11-3 事件概率名稱98
11-4 事件概率規則99
11-4-1 不發生概率99
11-4-2 概率相加99
11-4-3 概率相乘99
11-4-4 常見的陷阱99
11-5 抽獎的概率—加法與乘法綜合
應用99
11-6 余事件與乘法的綜合應用101
11-7 條件概率101
11-7-1 基礎概念101
11-7-2 再談實例102
11-8 貝葉斯定理103
11-8-1 基本概念103
11-8-2 用實例驗證貝葉斯
定理103
11-8-3 貝葉斯定理的運用—
COVID-19的全民普篩
準確性推估104
11-8-4 再看一個醫學實例104
11-8-5 貝葉斯定理篩選垃圾
電子郵件的基礎概念105
11-8-6 垃圾郵件分類項目
實操105
11-9 蒙特卡洛模擬109
11-10 Numpy的隨機模塊random110
11-10-1 np.random.rand( )110
11-10-2 np.random.randint( )110
11-10-3 np.random.seed( )111
11-10-4 np.random.shuffle( )112
11-10-5 np.random.choice( )113
11-10-6 使用隨機數數組產生
圖像114
第12章 二項式定理115
12-1 二項式的定義116
12-2 二項式的幾何意義116
12-3 二項式展開與規律性分析116
12-4 找出xn-kyk項的系數117
12-4-1 基礎概念 117
12-4-2 組合數學概念117
12-4-3 系數公式推導與驗證118
12-5 二項式的通式119
12-5-1 驗證頭尾系數比較119
12-5-2 中間系數驗證119
12-6 二項式到多項式119
12-7 二項分布實驗119
12-8 將二項式概念應用於業務數據
分析120
12-8-1 每5次銷售0張考卷的
概率120
12-8-2 每5次銷售1張考卷的
概率120
12-8-3 每5次銷售2張考卷的
概率121
12-8-4 每5次銷售0~2張考卷的
概率121
12-8-5 列出拜訪5次銷售k張考
卷的概率通式121
12-9 二項式概率分布Python實操121
12-10 Numpy隨機數模塊的binomial( )
函數124
12-10-1 可視化模塊Seaborn124
12-10-2 Numpy的二項式隨機
函數binomial124
第13章 指數概念與指數函數126
13-1 認識指數函數127
13-1-1 基礎概念127
13-1-2 復利計算實例127
13-1-3 病毒復制128
13-1-4 指數應用在價值衰減128
13-1-5 用指數概念看iPhone
容量129
13-2 指數運算的規則129
13-3 指數函數的圖形131
13-3-1 底數是變量的圖形131
13-3-2 指數是實數變量131
13-3-3 指數是實數變量但底數
小於1132
第14章 對數133
14-1 認識對數函數134
14-1-1 對數的由來134
14-1-2 從數學看指數的運作
概念134
14-1-3 再看對數函數134
14-1-4 天文數字的處理135
14-1-5 Python的對數函數應用135
14-2 對數表的功能136
14-2-1 對數表基礎應用136
14-2-2 更精確的對數表136
14-3 對數運算可以解決指數運算的
問題137
14-3-1 用指數處理相當數值的
近似值137
14-3-2 使用對數簡化運算138
14-4 認識對數的特性138
14-5 對數的運算規則與驗證139
14-5-1 等號兩邊使用對數處理
結果不變139
14-5-2 對數的真數是1139
14-5-3 對數的底數等於真數139
14-5-4 對數內真數的指數可以
移到外面139
14-5-5 對數內真數是兩數據相乘
結果是兩數據各取對數後
再相加140
14-5-6 對數內真數是兩數據相除
結果是兩數據先取對數後
再相減140
14-5-7 底數變換140
第15章 歐拉數與邏輯函數141
15-1 認識歐拉數142
15-1-1 認識歐拉數142
15-1-2 歐拉數的緣由142
15-1-3 歐拉數使用公式做
定義143
15-1-4 計算與繪制歐拉數的函數
圖形143
15-2 邏輯函數144
15-2-1 認識邏輯函數144
15-2-2 x是正無限大144
15-2-3 x是0145
15-2-4 x是負無限大145
15-2-5 繪制邏輯函數145
15-2-6 Sigmoid函數145
15-3 logit函數146
15-3-1 認識Odds146
15-3-2 從Odds到logit函數147
15-3-3 繪制logit函數147
15-4 邏輯函數的應用147
15-4-1 事件說明與分析147
15-4-2 從邏輯函數到logit
函數148
15-4-3 使用logit函數獲得
系數149
第16章 三角函數150
16-1 直角三角形的邊長與夾角151
16-2 三角函數的定義151
16-3 計算三角形的面積152
16-3-1 計算直角三角形面積152
16-3-2 計算非直角三角形
面積152
16-4 角度與弧度153
16-4-1 角度的定義153
16-4-2 弧度的由來153
16-4-3 角度與弧度的換算153
16-4-4 圓周弧長的計算154
16-4-5 計算扇形面積154
16-5 程序處理三角函數155
16-6 從單位圓看三角函數155
16-7 三角函數與機器學習的關系157
第17章 基礎統計與大型運算符158
17-1 母體與樣本159
17-2 數據求和159
17-3 數據分布160
17-4 數據中心指針160
17-4-1 平均數160
17-4-2 中位數161
17-4-3 眾數162
17-4-4 統計模塊statistics的
眾數163
17-4-5 分數分布圖163
17-5 數據分散指針165
17-5-1 方差165
17-5-2 標準差167
17-6 ∑符號運算規則與驗證168
17-7 活用∑符號168
17-8 回歸分析170
17-8-1 相關系數170
17-8-2 建立線性回歸模型與數據
預測171
17-8-3 二次函數的回歸模型173
17-9 隨機函數的分布174
17-9-1 randn( )175
17-9-2 normal( )176
17-9-3 uniform( )177
第18章 機器學習的向量179
18-1 向量的基礎概念180
18-1-1 機器學習的向量知識180
18-1-2 認識標量180
18-1-3 認識向量180
18-1-4 向量表示法180
18-1-5 計算向量分量182
18-1-6 相對位置的向量183
18-1-7 不同路徑的向量運算183
18-2 向量加法的規則184
18-3 向量的長度185
18-4 向量方程式186
18-4-1 直線方程式186
18-4-2 Python實操連接兩點的
方程式188
18-4-3 使用向量建立回歸方程式
的理由188
18-5 向量內積189
18-5-1 協同工作的概念189
18-5-2 計算B所幫的忙190
18-5-3 向量內積的定義190
18-5-4 兩條直線的夾角193
18-5-5 向量內積的性質193
18-5-6 余弦相似度194
18-6 皮爾遜相關系數195
18-6-1 皮爾遜相關系數
定義195
18-6-2 網絡購物問卷調查案例
解說196
18-6-3 向量內積計算系數198
18-7 向量外積199
18-7-1 法線向量199
18-7-2 計算面積199
第19章 機器學習的矩陣201
19-1 矩陣的表達方式202
19-1-1 矩陣的行與列202
19-1-2 矩陣變量名稱202
19-1-3 常見的矩陣表達方式202
19-1-4 矩陣元素表達方式202
19-2 矩陣相加與相減203
19-2-1 基礎概念203
19-2-2 Python實操203
19-3 矩陣乘以實數204
19-4 矩陣乘法204
19-4-1 乘法基本規則204
19-4-2 乘法案例206
19-4-3 矩陣乘法規則207
19-5 方陣208
19-6 單位矩陣208
19-7 逆矩陣209
19-7-1 基礎概念209
19-7-2 Python實操209
19-8 用逆矩陣解聯立方程式209
19-9 張量210
19-10 轉置矩陣211
19-10-1 基礎概念211
19-10-2 Python實操211
19-10-3 轉置矩陣的規則212
19-10-4 轉置矩陣的應用212
第20章 向量、矩陣與多元線性
回歸213
20-1 向量應用於線性回歸214
20-2 向量應用於多元線性回歸215
20-3 矩陣應用於多元線性回歸215
20-4 將截距放入矩陣216
20-5 簡單的線性回歸217
第21章 三次函數回歸曲線的程序
實操218
21-1 繪制數據的散點圖219
21-2 三次函數的回歸曲線模型219
21-3 使用Scikit-learn模塊評估回歸
模型220
21-3-1 評估機器學習模型的
概念221
21-3-2 評估模型221
21-4 預測未來值223
21-5 不適合三次函數回歸的數據224
21-5-1 繪制三次函數回歸線224
21-5-2 計算R平方判定系數224
第22章 機器學習使用Scikit-learn
入門226
22-1 Scikit-learn的歷史227
22-2 機器學習的數據集227
22-2-1 Scikit-learn內建的
數據集227
22-2-2 Kaggle數據集228
22-2-3 UCI數據集228
22-2-4 Scikit-learn函數生成
數據229
22-3 Scikit-learn生成數據實操229
22-3-1 線性分布數據229
22-3-2 群集分布數據231
22-3-3 交錯半月群集數據233
22-3-4 環形結構分布的群集
數據234
22-3-5 產生n-class分類
數據集235
22-4 Scikit-learn數據預處理236
22-4-1 標準化數據Standard
Scaler236
22-4-2 設定數據區間MinMax
Scaler238
22-4-3 特殊數據縮放Robust
Scaler238
22-5 機器學習Scikit-learn入門239
22-5-1 身高與體重的數據239
22-5-2 線性擬合數據Linear
Regression239
22-5-3 數據預測predict( )240
22-5-4 模型的儲存與開啟241
22-5-5 計算線性回歸線的斜率
和截距243
22-5-6 R平方判定系數檢驗
模型的性能244
22-6 分類算法-機器學習模型的性能
評估245
22-6-1 計算精確度accuracy_
score( )245
22-6-2 召回率recall_score( )246
22-6-3 F1分數f1_score( )247
22-6-4 分類報告classification_
report( )247
22-6-5 混淆矩陣confusion_
matrix( )248
22-6-6 ROC_AUC分數250
22-7 機器學習必須會的非數值數據
轉換251
22-7-1 One-hot編碼251
22-7-2 特征名稱由中文改為
英文252
22-7-3 數據對應map( )方法253
22-7-4 標簽轉換Label
Encoder( )253
22-8 機器學習算法254
22-9 使用隨機數據學習線性回歸255
22-9-1 建立訓練數據與測試數據
使用train_test_split( )255
22-9-2 回歸模型判斷256
22-9-3 score( )和r2_score( )方法
的差異257
第23章 線性回歸(以波士頓房價
為例)259
23-1 從線性回歸到多元線性回歸260
23-1-1 簡單線性回歸260
23-1-2 多元線性回歸260
23-2 簡單數據測試260
23-2-1 身高、腰圍與體重的
測試260
23-2-2 了解模型的優劣262
23-3 波士頓房價數據集263
23-3-1 認識波士頓房價
數據集263
23-3-2 輸出數據集263
23-4 用Pandas顯示與預處理數據264
23-4-1 用Pandas顯示波士頓
房價數據265
23-4-2 將房價加入DataFrame266
23-4-3 數據清洗267
23-5 特征選擇267
23-6 使用最相關的特征做房價
預估269
23-6-1 繪制散點圖269
23-6-2 建立模型獲得R平方判定
系數、截距與系數270
23-6-3 計算預估房價271
23-6-4 繪制實際房價與預估
房價272
23-6-5 繪制3D的實際房價與
預估房價273
23-7 多項式回歸275
23-7-1 繪制散點圖和回歸
直線275
23-7-2 多項式回歸公式276
23-7-3 生成一元二次回歸公式的
多個特征項目276
23-7-4 多項式特征應用在Linear
Regression278
23-7-5 機器學習理想模型280
23-7-6 多元多項式的回歸模型281
23-7-7 繪制3D的實際房價與預
估房價283
23-8 用所有特征執行波士頓房價
預估284
23-9 殘差圖286
23-10 梯度下降回歸
SGD Regressor( )287
第24章 邏輯回歸(以信用卡、葡
萄酒、糖尿病為例)292
24-1 淺談線性回歸的問題293
24-2 邏輯回歸概念回顧293
24-2-1 基礎概念復習294
24-2-2 應用邏輯函數294
24-2-3 線性回歸與邏輯回歸的
差異295
24-3 邏輯回歸模型基礎應用295
24-3-1 語法基礎295
24-3-2 多分類算法解說297
24-4 中國臺灣信用卡持卡人數據集299
24-4-1 認識UCI_Credit_Card.csv
數據299
24-4-2 挑選最重要的特征300
24-4-3 用最相關的2個特征設計
邏輯回歸模型302
24-4-4 使用全部的特征設計邏輯
回歸模型303
24-5 葡萄酒數據303
24-5-1 認識葡萄酒數據303
24-5-2 使用邏輯回歸算法執行
葡萄酒分類305
24-6 糖尿病數據306
24-6-1 認識糖尿病數據306
24-6-2 缺失值檢查與處理307
24-6-3 用直方圖了解特征
分布309
24-6-4 用箱形圖了解異常值310
24-6-5 用所有特征值做糖尿病患
者預估311
24-6-6 繪制皮爾遜相關系數
熱力圖312
24-6-7 用最相關的皮爾遜系數
做糖尿病預估313
第25章 決策樹(以葡萄酒、泰坦
尼克號、Telco、Retail
為例)316
25-1 決策樹基本概念317
25-1-1 決策樹應用在分類
問題317
25-1-2 決策樹應用在回歸
問題318
25-2 從天氣數據認識決策樹設計
流程—分類應用 319
25-2-1 建立決策樹模型
對象319
25-2-2 天氣數據實例319
25-3 葡萄酒數據—分類應用321
25-3-1 默認條件處理葡萄酒
數據321
25-3-2 進一步認識決策樹
深度322
25-3-3 繪制決策樹圖323
25-4 泰坦尼克號—分類應用324
25-4-1 認識泰坦尼克號
數據集324
25-4-2 決策樹設計泰坦尼克號生
存預測325
25-4-3 交叉分析326
25-5 Telco電信公司—分類應用328
25-5-1 認識WA_Fn-UseC_-Telco-
Customer-Churn.csv數據328
25-5-2 決策樹數據分析330
25-5-3 了解特征對模型的
重要性331
25-5-4 交叉驗證—決策樹最佳
深度調整333
25-6 Retail Data Analytics—回歸
應用335
25-6-1 用簡單的數據預估
房價336
25-6-2 Retail Data Analytics
數據336
第26章 隨機森林(以波士頓房價、
泰坦尼克號、Telco、收入
分析為例)339
26-1 隨機森林的基本概念340
26-2 波士頓房價—回歸應用340
26-3 泰坦尼克號—分類應用341
26-4 Telco客戶流失—分類應用343
26-5 美國成年人收入分析—分類
應用343
26-5-1 認識adult.csv數據343
26-5-2 使用決策樹處理年收入
預估345
26-5-3 決策樹特征重要性346
26-5-4 使用隨機森林處理adult.
csv文件348
第27章 KNN算法(以鳶尾花、
小行星撞地球為例)349
27-1 KNN算法的基本概念350
27-2 電影推薦、足球射門—分類
應用350
27-2-1 認識語法與簡單實例350
27-2-2 電影推薦351
27-2-3 足球射門是否進球353
27-2-4 繪制分類的決策邊界354
27-2-5 多分類模型的準確率
分析357
27-3 房價計算、選舉準備香腸—
回歸應用358
27-3-1 認識語法與簡單實例358
27-3-2 房價計算359
27-3-3 選舉造勢與準備烤香腸
數量360
27-3-4 KNN模型的回歸線
分析361
27-4 鳶尾花數據—分類應用362
27-4-1 認識鳶尾花數據集362
27-4-2 輸出數據集363
27-4-3 用Pandas顯示鳶尾花
數據363
27-4-4 映射標簽364
27-4-5 繪制特征變量的散
點圖365
27-4-6 繪制鳶尾花的決策
邊界367
27-4-7 計算最優的k值369
27-5 小行星撞地球—分類應用370
27-5-1 認識NASA:Asteroids
Classification370
27-5-2 數據預處理372
27-5-3 預測小行星撞地球的準
確率373
第28章 支持向量機(以鳶尾花、
乳癌、汽車燃料為例)375
28-1 支持向量機的基礎概念376
28-1-1 支持向量機的基本
原理376
28-1-2 最大區間的分割376
28-1-3 認識支持向量、決策邊界
與超平面377
28-1-4 超平面公式378
28-2 支持向量機 — 分類應用的
基礎實例378
28-2-1 繪制10個數據點378
28-2-2 支持向量機的語法
說明380
28-2-3 推導超平面的斜率381
28-2-4 繪制超平面和決策
邊界382
28-2-5 數據分類383
28-2-6 decision_function( )383
28-3 從2維到3維的超平面386
28-3-1 增加數據維度386
28-3-2 計算3維的超平面公式與
系數387
28-3-3 繪制3維的超平面388
28-4 認識核函數389
28-4-1 linear389
28-4-2 徑向基函數—rbf391
28-4-3 多項式函數—poly392
28-4-4 支持向量機的方法395
28-5 鳶尾花數據—分類應用 395
28-6 乳腺癌數據—分類應用398
28-6-1 認識數據398
28-6-2 線性支持向量機預測乳癌
數據399
28-6-3 不同核函數應用在乳癌
數據400
28-7 支持向量機—回歸應用的基礎
實例401
28-7-1 SVR( )語法說明402
28-7-2 簡單數據應用402
28-7-3 電視購物廣告效益
分析403
28-8 汽車燃耗效率數據集—回歸
分析403
28-8-1 認識汽車燃耗效率
數據集403
28-8-2 使用SVR( )預測汽車燃料
數據404
第29章 單純貝葉斯分類(以垃圾
郵件、新聞分類、電影
評論為例)406
29-1 單純貝葉斯分類原理407
29-1-1 公式說明407
29-1-2 簡單實例407
29-1-3 拉普拉斯平滑修正410
29-2 詞頻向量模塊—Count
Verctorizer411
29-3 多項式單純貝葉斯模塊—
MultinomialNB413
29-3-1 語法概念413
29-3-2 文章分類實操414
29-3-3 垃圾郵件分類414
29-4 垃圾郵件分類—Spambase數
據集415
29-4-1 認識垃圾郵件數據集
Spambase415
29-4-2 垃圾郵件分類預測417
29-5 新聞郵件分類—新聞數據集
20newsgroups418
29-5-1 認識新聞數據集
20newsgroups418
29-5-2 新聞分類預測419
29-5-3 TfidfVectorizer模塊—
文件事前處理TF-IDF420
29-5-4 輸入文件做新聞分類422
29-6 情感分析—IMDB電影評論數
據集分析423
29-6-1 基礎概念實例423
29-6-2 IMDB電影評論
數據集424
29-7 單純貝葉斯分類於中文
的應用425
29-7-1 將中文字符串應用在
CountVectorizer模塊425
29-7-2 jieba—結巴425
29-7-3 jieba與CountVectorizer
組合應用426
29-7-4 簡單中文情感分析
程序427
29-8 今日頭條數據集428
29-8-1 認識數據集428
29-8-2 今日頭條數據集
實操429
第30章 集成機器學習(以蘑菇、
醫療保險、玻璃、加州
房價為例)431
30-1 集成學習的基本概念432
30-1-1 基本概念432
30-1-2 集合學習效果評估433
30-2 集成學習—投票法Voting
(鳶尾花、波士頓房價)433
30-2-1 投票法—分類應用433
30-2-2 投票法—回歸應用435
30-3 集成學習—裝袋法Bagging
(蘑菇、醫療保險)436
30-3-1 裝袋法—分類應用語法
說明437
30-3-2 蘑菇數據分類應用438
30-3-3 裝袋法—回歸應用語法
說明440
30-3-4 醫療保險數據回歸
應用441
30-4 集成學習—提升法
AdaBoost(糖尿病、波士頓房價)445
30-4-1 AdaBoost提升法—分類
應用語法說明445
30-4-2 AdaBoost提升法—回歸
應用語法說明446
30-5 集成學習—提升法Gradient Boosting(玻璃、加州房價)448
30-5-1 Gradient Boosting—分類
應用語法說明448
30-5-2 玻璃數據集分類的
應用449
30-5-3 Gradient Boosting—回歸
應用語法說明451
30-5-4 加州房價數據集回歸
應用451
30-6 集成學習—堆棧法Stacking(信用卡違約、房價預估)453
30-6-1 StackingClassifier—分類
應用語法說明454
30-6-2 RidgeCV( )456
30-6-3 StackingRegressor —回
歸應用語法說明458
第31章 K均值聚類(以購物中心
消費、葡萄酒評價
為例)461
31-1 認識無監督學習462
31-1-1 回顧監督學習數據462
31-1-2 無監督學習數據462
31-1-3 無監督學習與監督學習的
差異463
31-1-4 無監督學習的應用463
31-2 K均值算法463
31-2-1 算法基礎464
31-2-2 Python硬功夫程序
實操464
31-3 Scikit-learn的KMeans模塊467
31-3-1 KMeans語法467
31-3-2 聚類的基礎實例468
31-3-3 數據聚類的簡單實例470
31-4 評估聚類的效能471
31-4-1 群內平方和471
31-4-2 輪廓系數472
31-4-3 調整蘭德系數473
31-5 最佳群集數量475
31-5-1 肘點法475
31-5-2 輪廓分析476
31-6 消費分析—購物中心客戶消費
數據477
31-6-1 認識Mall Customer
Segmentation Data477
31-6-2 收入與消費聚類478
31-6-3 依據性別分析“年收入 vs
消費力”479
31-6-4 依據年齡層分析“年收入
vs 消費力”480
31-7 價格 vs 評價—葡萄酒Wine
Reviews481
31-7-1 認識Wine Reviews
數據481
第32章 PCA主成分分析(以手
寫數字、人臉數據
為例)484
32-1 PCA基本概念485
32-1-1 基本概念485
32-1-2 PCA方法與基礎數據
實操485
32-1-3 數據白化whiten487
32-2 鳶尾花數據的PCA應用488
32-2-1 鳶尾花數據降維488
32-2-2 SVM與PCA在鳶尾花的
應用488
32-2-3 PCA主成分與原始特征的
分析490
32-3 數字辨識—手寫數字digits
dataset492
32-3-1 認識手寫數字數據集
digits dataset492
32-3-2 決策樹與隨機森林辨識
手寫數字494
32-3-3 PCA與手寫數字整合
應用496
32-4 人臉辨識—人臉數據Labeled
Faces in the Wild498
32-4-1 認識人臉數據LFW499
32-4-2 人臉辨識預測502
32-4-3 加上PCA的人臉
辨識502
第33章 階層式分層(以小麥數據、
老實泉為例)506
33-1 認識階層式聚類507
33-2 凝聚型聚類507
33-2-1 凝聚型聚類定義507
33-2-2 簡單實例解說linkage( )
方法508
33-2-3 單鏈接法說明509
33-2-4 簡單實例解說聚類
方法509
33-2-5 聚類方法ward( )511
33-2-6 聚類數量的方法512
33-2-7 凝聚型聚類Agglomerative-
Clustering513
33-3 小麥數據集Seeds dataset515
33-3-1 認識數據集Seeds
dataset515
33-3-2 凝聚型聚類應用在Seeds
dataset517
33-4 老實泉數據Old Faithful Geyser
Data518
33-4-1 認識老實泉數據集518
33-4-2 繪制樹形圖520
33-4-3 凝聚型聚類應用在老實泉
數據520
第34章 DBSCAN算法(以購物
中心客戶分析為例)523
34-1 DBSCAN算法524
34-1-1 DBSCAN算法的參數
概念524
34-1-2 點的定義524
34-1-3 算法的步驟525
34-2 Scikit-learn的DBSCAN
模塊525
34-2-1 DBSCAN語法525
34-2-2 DBSCAN算法基礎
實例526
34-3 消費分析—購物中心客戶消費
數據528
第35章 語音識別531
35-1 語音轉文字532
35-1-1 建立模塊與對象532
35-1-2 開啟音源532
35-1-3 語音轉文字532
35-2 文字轉語音533
35-2-1 建立模塊與對象533
35-2-2 文字轉語音方法533
35-2-3 輸出語音534