白話機器學習——統計+概率+算法原理

洪錦魁

  • 出版商: 清華大學
  • 出版日期: 2025-08-01
  • 售價: $894
  • 語言: 簡體中文
  • ISBN: 730269737X
  • ISBN-13: 9787302697374
  • 相關分類: Machine Learning
  • 下單後立即進貨 (約4週~6週)

  • 白話機器學習——統計+概率+算法原理-preview-1
  • 白話機器學習——統計+概率+算法原理-preview-2
  • 白話機器學習——統計+概率+算法原理-preview-3
白話機器學習——統計+概率+算法原理-preview-1

相關主題

商品描述

方程式與函數,一元函數到多元函數,最小平方法,基礎統計,概率與貝葉斯理論,指數與對數,logit函數與logistic函數,向量與矩陣,二次函數、三次函數與多項式函數,線性回歸 ——波士頓房價,邏輯回歸 ——信用卡/葡萄酒/糖尿病,決策樹——葡萄酒/鐵達尼號/Telco/Retail,隨方程式與函數,一元函數到多元函數,最小平方法,基礎統計,機率與貝式理論,指數與對數,logit函數與logistic函數,向量與矩陣,二次函數、三次函數與多項式函數,線性回歸 – 波士頓房價,邏輯回歸 – 信用卡/葡萄酒/糖尿病,判定樹 – 葡萄酒/鐵達尼號/Telco/Retail,隨機森林樹 – 波士頓房價/泰坦尼克號/Telco/收入分析,KNN算法 – 電影推薦/足球射門/鳶尾花/小行星撞地球,支援向量機 – 鳶尾花/乳癌/汽車燃料,單純貝式分類 – 垃圾郵件/中英文的新聞分類/情感分析/電影評論,集成機器學習 – 蘑菇/醫療保險/玻璃/加州房價,K-means分群 – 購物中心消費/葡萄酒評價,PCA主成分分析 – 手寫數字/人臉數據,階層式分群 – 小麥數據/老實泉,DBSCAN算法 – 購物中心客戶分析。

作者簡介

洪錦魁,資深IT作家,具備30余年的IT從業及寫作經歷,為老中青三代程序員創作了上百本IT圖書,其作品始終屹立於編程基礎圖書巔峰而口碑不輟。洪老師的書,不拼頁數,不拼華而不實的所謂“增值品”,每節文字確保能看懂,每段代碼確保能跑通,每個提醒確保能用上,每個篇章確保有收獲。

目錄大綱

目 錄

第1章 機器學習基本概念1

1-1 人工智能、機器學習、深度學習

2

1-2 認識機器學習2

1-3 機器學習的種類2

1-3-1 監督學習3

1-3-2 無監督學習4

1-3-3 強化學習4

1-4 機器學習的應用範圍4

1-5 深度學習5

第2章 機器學習的基礎數學6

2-1 用數字描繪事物7

2-2 變量概念7

2-3 從變量到函數7

2-4 等式運算的規則8

2-5 代數運算的基本規則9

2-6 用數學抽象化開餐廳的生存條件9

2-6-1 數學模型    9

2-6-2 經營數字預估9

2-6-3 經營績效的計算    10

2-7 基礎數學的結論10

第3章 認識方程式、函數、坐標

    圖形11

3-1 認識方程式12

3-2 方程式文字描述方法12

3-3 一元一次方程式13

3-4 函數13

3-5 坐標圖形分析14

3-5-1 坐標圖形與線性關系14

3-5-2 斜率與截距的意義15

3-5-3 細看斜率16

3-5-4 細看y截距16

3-5-5 細看x截距16

3-6 將線性函數應用於機器學習17

3-6-1 再看直線函數與斜率17

3-6-2 機器學習與線性回歸18

3-6-3 相同斜率平行移動18

3-6-4 不同斜率與相同截距19

3-6-5 不同斜率與不同截距19

3-7 二元函數到多元函數19

3-7-1 二元函數基本概念19

3-7-2 二元函數的圖形20

3-7-3 等高線圖20

3-7-4 多元函數21

3-8 Sympy模塊22

3-8-1 定義符號22

3-8-2 name屬性22

3-8-3 定義多個符號變量22

3-8-4 符號的運算23

3-8-5 將數值代入公式23

3-8-6 將字符串轉為數學表

   達式23

3-8-7 Sympy模塊支持的數學

   函數23

3-8-8 解一元一次方程式24

第4章 從聯立方程式看機器學習的

    數學模型25

4-1 數學概念建立連接兩點的

直線26

4-1-1 基礎概念26

4-1-2 聯立方程式26

4-1-3 使用加減法解聯立方

   程式26

4-1-4 使用代入法解聯立方

   程式27

4-1-5 使用Sympy解聯立方

   程式27

4-2 機器學習使用聯立方程式推估

數據28

4-2-1 基本概念28

4-2-2 數據推估30

4-3 從兩條直線的交叉點推估科學

數據31

4-3-1 雞兔同籠31

4-3-2 達成業績目標33

4-4 兩條直線垂直交叉34

4-4-1 基礎概念34

4-4-2 求解坐標某一點至一條直線

   的垂直線36

第5章 從勾股定理看機器學習38

5-1 驗證勾股定理39

5-1-1 認識直角三角形39

5-1-2 驗證勾股定理39

5-2 將勾股定理應用於性向測試40

5-2-1 問題核心分析40

5-2-2 數據運算40

5-3 將勾股定理應用於三維空間41

5-4 將勾股定理應用於更高維的

空間41

5-5 電影分類42

5-5-1 規劃特征值42

5-5-2 項目程序實操42

5-5-3 電影分類結論43

5-6 計算兩個向量的歐幾裏得距離43

第6章 聯立不等式與機器學習44

6-1 聯立不等式與機器學習的關系45

6-2 再看聯立不等式的基本概念45

6-3 聯立不等式的線性規劃45

6-3-1 案例分析45

6-3-2 用聯立不等式表達46

6-3-3 在坐標軸上繪不等式的

   區域46

6-3-4 目標函數47

6-3-5 平行移動目標函數48

6-3-6 將交叉點坐標代入目標

   函數48

6-4 Python計算48

第7章 機器學習需要知道的二次

    函數50

7-1 二次函數的基礎數學51

7-1-1 求一元二次方程式的根51

7-1-2 繪制一元二次方程式的

   圖形53

7-1-3 一元二次方程式的最小值

   與最大值54

7-1-4 一元二次函數參數整理56

7-1-5 一元三次函數的圖形

   特征57

7-2 從一次到二次函數的實務58

7-2-1 呈現好的變化58

7-2-2 呈現不好的變化58

7-3 認識二次函數的系數59

7-4 使用3個點求解一元二次函數59

7-4-1 手動求解一元二次函數59

7-4-2 程序求解一元二次函數60

7-4-3 繪制一元二次函數60

7-4-4 使用業績回推應有的拜訪

   次數61

7-5 二次函數的配方法62

7-5-1 基本概念62

7-5-2 配方法62

7-5-3 從標準式計算二次函數的

   最大值63

7-5-4 從標準式計算二次函數的

   最小值64

7-6 二次函數與解答區間64

7-6-1 營銷問題分析64

7-6-2 二次函數分析增加業績的

   臉書營銷次數65

7-6-3 將不等式應用在條件

   區間66

7-6-4 非實數根67

第8章 機器學習的最小二乘法68

8-1 最小二乘法基本概念69

8-1-1 基本概念69

8-1-2 數學觀點70

8-2 簡單的企業實例70

8-3 機器學習建立含誤差值的線性

  方程式71

8-3-1 概念啟發   71

8-3-2 三項和的平方71

8-3-3 公式推導72

8-3-4 使用配方法計算直線的

   斜率和截距72

8-4 Numpy實操最小二乘法73

8-5 線性回歸74

8-6 實務應用75

第9章 機器學習必須懂的集合77

9-1 使用Python建立集合78

9-1-1 使用{ }建立集合78

9-1-2 集合元素是唯一的78

9-1-3 使用set( )建立集合78

9-1-4 集合的基數78

9-1-5 建立空集合要用set( )79

9-1-6 大數據與集合的應用79

9-2 集合的操作79

9-2-1 交集79

9-2-2 並集80

9-2-3 差集81

9-2-4 對稱差集81

9-3 子集、超集與補集82

9-3-1 子集82

9-3-2 超集82

9-3-3 補集83

9-4 加入與刪除集合元素83

9-5 冪集與Sympy模塊84

9-5-1 Sympy模塊與集合84

9-5-2 建立冪集84

9-5-3 冪集的元素個數84

9-6 笛卡兒積84

9-6-1 集合相乘84

9-6-2 集合的n次方85

第10章 機器學習必須懂的排列與

     組合86

10-1 排列的基本概念87

10-1-1 試驗與事件87

10-1-2 事件結果87

10-2 有多少條回家路88

10-3 排列組合89

10-4 階乘的概念90

10-5 重復排列93

10-6 組合93

第11章 機器學習需要認識的概率95

11-1 概率的基本概念96

11-2 數學概率與統計概率98

11-3 事件概率名稱98

11-4 事件概率規則99

11-4-1 不發生概率99

11-4-2 概率相加99

11-4-3 概率相乘99

11-4-4 常見的陷阱99

11-5 抽獎的概率—加法與乘法綜合

 應用99

11-6 余事件與乘法的綜合應用101

11-7 條件概率101

11-7-1 基礎概念101

11-7-2 再談實例102

11-8 貝葉斯定理103

11-8-1 基本概念103

11-8-2 用實例驗證貝葉斯

    定理103

11-8-3 貝葉斯定理的運用—

    COVID-19的全民普篩

    準確性推估104

11-8-4 再看一個醫學實例104

11-8-5 貝葉斯定理篩選垃圾

    電子郵件的基礎概念105

11-8-6 垃圾郵件分類項目

    實操105

11-9 蒙特卡洛模擬109

11-10 Numpy的隨機模塊random110

11-10-1 np.random.rand( )110

11-10-2 np.random.randint( )110

11-10-3 np.random.seed( )111

11-10-4 np.random.shuffle( )112

11-10-5 np.random.choice( )113

11-10-6 使用隨機數數組產生

     圖像114

第12章 二項式定理115

12-1 二項式的定義116

12-2 二項式的幾何意義116

12-3 二項式展開與規律性分析116

12-4 找出xn-kyk項的系數117

12-4-1 基礎概念    117

12-4-2 組合數學概念117

12-4-3 系數公式推導與驗證118

12-5 二項式的通式119

12-5-1 驗證頭尾系數比較119

12-5-2 中間系數驗證119

12-6 二項式到多項式119

12-7 二項分布實驗119

12-8 將二項式概念應用於業務數據

 分析120

12-8-1 每5次銷售0張考卷的

     概率120

12-8-2 每5次銷售1張考卷的

     概率120

12-8-3 每5次銷售2張考卷的

     概率121

12-8-4 每5次銷售0~2張考卷的

     概率121

12-8-5 列出拜訪5次銷售k張考

     卷的概率通式121

12-9 二項式概率分布Python實操121

12-10 Numpy隨機數模塊的binomial( )

  函數124

12-10-1 可視化模塊Seaborn124

12-10-2 Numpy的二項式隨機

      函數binomial124

第13章 指數概念與指數函數126

13-1 認識指數函數127

13-1-1 基礎概念127

13-1-2 復利計算實例127

13-1-3 病毒復制128

13-1-4 指數應用在價值衰減128

13-1-5 用指數概念看iPhone

    容量129

13-2 指數運算的規則129

13-3 指數函數的圖形131

13-3-1 底數是變量的圖形131

13-3-2 指數是實數變量131

13-3-3 指數是實數變量但底數

    小於1132

第14章 對數133

14-1 認識對數函數134

14-1-1 對數的由來134

14-1-2 從數學看指數的運作

    概念134

14-1-3 再看對數函數134

14-1-4 天文數字的處理135

14-1-5 Python的對數函數應用135

14-2 對數表的功能136

14-2-1 對數表基礎應用136

14-2-2 更精確的對數表136

14-3 對數運算可以解決指數運算的

 問題137

14-3-1 用指數處理相當數值的

    近似值137

14-3-2 使用對數簡化運算138

14-4 認識對數的特性138

14-5 對數的運算規則與驗證139

14-5-1 等號兩邊使用對數處理

    結果不變139

14-5-2 對數的真數是1139

14-5-3 對數的底數等於真數139

14-5-4 對數內真數的指數可以

    移到外面139

14-5-5 對數內真數是兩數據相乘

    結果是兩數據各取對數後

    再相加140

14-5-6 對數內真數是兩數據相除

    結果是兩數據先取對數後

    再相減140

14-5-7 底數變換140

第15章 歐拉數與邏輯函數141

15-1 認識歐拉數142

15-1-1 認識歐拉數142

15-1-2 歐拉數的緣由142

15-1-3 歐拉數使用公式做

    定義143

15-1-4 計算與繪制歐拉數的函數

     圖形143

15-2 邏輯函數144

15-2-1 認識邏輯函數144

15-2-2 x是正無限大144

15-2-3 x是0145

15-2-4 x是負無限大145

15-2-5 繪制邏輯函數145

15-2-6 Sigmoid函數145

15-3 logit函數146

15-3-1 認識Odds146

15-3-2 從Odds到logit函數147

15-3-3 繪制logit函數147

15-4 邏輯函數的應用147

15-4-1 事件說明與分析147

15-4-2 從邏輯函數到logit

    函數148

15-4-3 使用logit函數獲得

    系數149

第16章 三角函數150

16-1 直角三角形的邊長與夾角151

16-2 三角函數的定義151

16-3 計算三角形的面積152

16-3-1 計算直角三角形面積152

16-3-2 計算非直角三角形

    面積152

16-4 角度與弧度153

16-4-1 角度的定義153

16-4-2 弧度的由來153

16-4-3 角度與弧度的換算153

16-4-4 圓周弧長的計算154

16-4-5 計算扇形面積154

16-5 程序處理三角函數155

16-6 從單位圓看三角函數155

16-7 三角函數與機器學習的關系157

第17章 基礎統計與大型運算符158

17-1 母體與樣本159

17-2 數據求和159

17-3 數據分布160

17-4 數據中心指針160

17-4-1 平均數160

17-4-2 中位數161

17-4-3 眾數162

17-4-4 統計模塊statistics的

    眾數163

17-4-5 分數分布圖163

17-5 數據分散指針165

17-5-1 方差165

17-5-2 標準差167

17-6 ∑符號運算規則與驗證168

17-7 活用∑符號168

17-8 回歸分析170

17-8-1 相關系數170

17-8-2 建立線性回歸模型與數據

    預測171

17-8-3 二次函數的回歸模型173

17-9 隨機函數的分布174

17-9-1 randn( )175

17-9-2 normal( )176

17-9-3 uniform( )177

第18章 機器學習的向量179

18-1 向量的基礎概念180

18-1-1 機器學習的向量知識180

18-1-2 認識標量180

18-1-3 認識向量180

18-1-4 向量表示法180

18-1-5 計算向量分量182

18-1-6 相對位置的向量183

18-1-7 不同路徑的向量運算183

18-2 向量加法的規則184

18-3 向量的長度185

18-4 向量方程式186

18-4-1 直線方程式186

18-4-2 Python實操連接兩點的

      方程式188

18-4-3 使用向量建立回歸方程式

     的理由188

18-5 向量內積189

18-5-1 協同工作的概念189

18-5-2 計算B所幫的忙190

18-5-3 向量內積的定義190

18-5-4 兩條直線的夾角193

18-5-5 向量內積的性質193

18-5-6 余弦相似度194

18-6 皮爾遜相關系數195

18-6-1 皮爾遜相關系數

    定義195

18-6-2 網絡購物問卷調查案例

      解說196

18-6-3 向量內積計算系數198

18-7 向量外積199

18-7-1 法線向量199

18-7-2 計算面積199

第19章 機器學習的矩陣201

19-1 矩陣的表達方式202

19-1-1 矩陣的行與列202

19-1-2 矩陣變量名稱202

19-1-3 常見的矩陣表達方式202

19-1-4 矩陣元素表達方式202

19-2 矩陣相加與相減203

19-2-1 基礎概念203

19-2-2 Python實操203

19-3 矩陣乘以實數204

19-4 矩陣乘法204

19-4-1 乘法基本規則204

19-4-2 乘法案例206

19-4-3 矩陣乘法規則207

19-5 方陣208

19-6 單位矩陣208

19-7 逆矩陣209

19-7-1 基礎概念209

19-7-2 Python實操209

19-8 用逆矩陣解聯立方程式209

19-9 張量210

19-10 轉置矩陣211

19-10-1 基礎概念211

19-10-2 Python實操211

19-10-3 轉置矩陣的規則212

19-10-4 轉置矩陣的應用212

第20章 向量、矩陣與多元線性

     回歸213

20-1 向量應用於線性回歸214

20-2 向量應用於多元線性回歸215

20-3 矩陣應用於多元線性回歸215

20-4 將截距放入矩陣216

20-5 簡單的線性回歸217

第21章 三次函數回歸曲線的程序

     實操218

21-1 繪制數據的散點圖219

21-2 三次函數的回歸曲線模型219

21-3 使用Scikit-learn模塊評估回歸

 模型220

21-3-1 評估機器學習模型的

    概念221

21-3-2 評估模型221

21-4 預測未來值223

21-5 不適合三次函數回歸的數據224

21-5-1 繪制三次函數回歸線224

21-5-2 計算R平方判定系數224

第22章 機器學習使用Scikit-learn

     入門226

22-1 Scikit-learn的歷史227

22-2 機器學習的數據集227

22-2-1 Scikit-learn內建的

    數據集227

22-2-2 Kaggle數據集228

22-2-3 UCI數據集228

22-2-4 Scikit-learn函數生成

    數據229

22-3 Scikit-learn生成數據實操229

22-3-1 線性分布數據229

22-3-2 群集分布數據231

22-3-3 交錯半月群集數據233

22-3-4 環形結構分布的群集

    數據234

22-3-5 產生n-class分類

    數據集235

22-4 Scikit-learn數據預處理236

22-4-1 標準化數據Standard

    Scaler236

22-4-2 設定數據區間MinMax

    Scaler238

22-4-3 特殊數據縮放Robust

    Scaler238

22-5 機器學習Scikit-learn入門239

22-5-1 身高與體重的數據239

22-5-2 線性擬合數據Linear

    Regression239

22-5-3 數據預測predict( )240

22-5-4 模型的儲存與開啟241

22-5-5 計算線性回歸線的斜率

    和截距243

22-5-6 R平方判定系數檢驗

    模型的性能244

22-6 分類算法-機器學習模型的性能

 評估245

22-6-1 計算精確度accuracy_

    score( )245

22-6-2 召回率recall_score( )246

22-6-3 F1分數f1_score( )247

22-6-4 分類報告classification_

    report( )247

22-6-5 混淆矩陣confusion_

    matrix( )248

22-6-6 ROC_AUC分數250

22-7 機器學習必須會的非數值數據 

 轉換251

22-7-1 One-hot編碼251

22-7-2 特征名稱由中文改為

    英文252

22-7-3 數據對應map( )方法253

22-7-4 標簽轉換Label

    Encoder( )253

22-8 機器學習算法254

22-9 使用隨機數據學習線性回歸255

22-9-1 建立訓練數據與測試數據

    使用train_test_split( )255

22-9-2 回歸模型判斷256

22-9-3 score( )和r2_score( )方法

    的差異257

第23章 線性回歸(以波士頓房價

     為例)259

23-1 從線性回歸到多元線性回歸260

23-1-1 簡單線性回歸260

23-1-2 多元線性回歸260

23-2 簡單數據測試260

23-2-1 身高、腰圍與體重的

    測試260

23-2-2 了解模型的優劣262

23-3 波士頓房價數據集263

23-3-1 認識波士頓房價

    數據集263

23-3-2 輸出數據集263

23-4 用Pandas顯示與預處理數據264

23-4-1 用Pandas顯示波士頓

    房價數據265

23-4-2 將房價加入DataFrame266

23-4-3 數據清洗267

23-5 特征選擇267

23-6 使用最相關的特征做房價

 預估269

23-6-1 繪制散點圖269

23-6-2 建立模型獲得R平方判定

    系數、截距與系數270

23-6-3 計算預估房價271

23-6-4 繪制實際房價與預估

    房價272

23-6-5 繪制3D的實際房價與

    預估房價273

23-7 多項式回歸275

23-7-1 繪制散點圖和回歸

    直線275

23-7-2 多項式回歸公式276

23-7-3 生成一元二次回歸公式的

    多個特征項目276

23-7-4 多項式特征應用在Linear

    Regression278

23-7-5 機器學習理想模型280

23-7-6 多元多項式的回歸模型281

23-7-7 繪制3D的實際房價與預

    估房價283

23-8 用所有特征執行波士頓房價

 預估284

23-9 殘差圖286

23-10 梯度下降回歸

  SGD Regressor( )287

第24章 邏輯回歸(以信用卡、葡

     萄酒、糖尿病為例)292

24-1 淺談線性回歸的問題293

24-2 邏輯回歸概念回顧293

24-2-1 基礎概念復習294

24-2-2 應用邏輯函數294

24-2-3 線性回歸與邏輯回歸的

    差異295

24-3 邏輯回歸模型基礎應用295

24-3-1 語法基礎295

24-3-2 多分類算法解說297

24-4 中國臺灣信用卡持卡人數據集299

24-4-1 認識UCI_Credit_Card.csv

    數據299

24-4-2 挑選最重要的特征300

24-4-3 用最相關的2個特征設計

    邏輯回歸模型302

24-4-4 使用全部的特征設計邏輯

    回歸模型303

24-5 葡萄酒數據303

24-5-1 認識葡萄酒數據303

24-5-2 使用邏輯回歸算法執行

    葡萄酒分類305

24-6 糖尿病數據306

24-6-1 認識糖尿病數據306

24-6-2 缺失值檢查與處理307

24-6-3 用直方圖了解特征

    分布309

24-6-4 用箱形圖了解異常值310

24-6-5 用所有特征值做糖尿病患

    者預估311

24-6-6 繪制皮爾遜相關系數

    熱力圖312

24-6-7 用最相關的皮爾遜系數

     做糖尿病預估313

第25章 決策樹(以葡萄酒、泰坦

      尼克號、Telco、Retail

      為例)316

25-1 決策樹基本概念317

25-1-1 決策樹應用在分類

    問題317

25-1-2 決策樹應用在回歸

    問題318

25-2 從天氣數據認識決策樹設計

 流程—分類應用 319

25-2-1 建立決策樹模型

    對象319

25-2-2 天氣數據實例319

25-3 葡萄酒數據—分類應用321

25-3-1 默認條件處理葡萄酒

    數據321

25-3-2 進一步認識決策樹

    深度322

25-3-3 繪制決策樹圖323

25-4 泰坦尼克號—分類應用324

25-4-1 認識泰坦尼克號

    數據集324

25-4-2 決策樹設計泰坦尼克號生

    存預測325

25-4-3 交叉分析326

25-5 Telco電信公司—分類應用328

25-5-1 認識WA_Fn-UseC_-Telco-

    Customer-Churn.csv數據328

25-5-2 決策樹數據分析330

25-5-3 了解特征對模型的

    重要性331

25-5-4 交叉驗證—決策樹最佳

    深度調整333

25-6 Retail Data Analytics—回歸

 應用335

25-6-1 用簡單的數據預估

    房價336

25-6-2 Retail Data Analytics

    數據336

第26章 隨機森林(以波士頓房價、

      泰坦尼克號、Telco、收入

      分析為例)339

26-1 隨機森林的基本概念340

26-2 波士頓房價—回歸應用340

26-3 泰坦尼克號—分類應用341

26-4 Telco客戶流失—分類應用343

26-5 美國成年人收入分析—分類

 應用343

26-5-1 認識adult.csv數據343

26-5-2 使用決策樹處理年收入

    預估345

26-5-3 決策樹特征重要性346

26-5-4 使用隨機森林處理adult.

    csv文件348

第27章 KNN算法(以鳶尾花、

      小行星撞地球為例)349

27-1 KNN算法的基本概念350

27-2 電影推薦、足球射門—分類

 應用350

27-2-1 認識語法與簡單實例350

27-2-2 電影推薦351

27-2-3 足球射門是否進球353

27-2-4 繪制分類的決策邊界354

27-2-5 多分類模型的準確率

    分析357

27-3 房價計算、選舉準備香腸—

 回歸應用358

27-3-1 認識語法與簡單實例358

27-3-2 房價計算359

27-3-3 選舉造勢與準備烤香腸

    數量360

27-3-4 KNN模型的回歸線

    分析361

27-4 鳶尾花數據—分類應用362

27-4-1 認識鳶尾花數據集362

27-4-2 輸出數據集363

27-4-3 用Pandas顯示鳶尾花

    數據363

27-4-4 映射標簽364

27-4-5 繪制特征變量的散

    點圖365

27-4-6 繪制鳶尾花的決策

    邊界367

27-4-7 計算最優的k值369

27-5 小行星撞地球—分類應用370

27-5-1 認識NASA:Asteroids 

    Classification370

27-5-2 數據預處理372

27-5-3 預測小行星撞地球的準

    確率373

第28章 支持向量機(以鳶尾花、

      乳癌、汽車燃料為例)375

28-1 支持向量機的基礎概念376

28-1-1 支持向量機的基本

    原理376

28-1-2 最大區間的分割376

28-1-3 認識支持向量、決策邊界

    與超平面377

28-1-4 超平面公式378

28-2 支持向量機 — 分類應用的

 基礎實例378

28-2-1 繪制10個數據點378

28-2-2 支持向量機的語法

    說明380

28-2-3 推導超平面的斜率381

28-2-4 繪制超平面和決策

    邊界382

28-2-5 數據分類383

28-2-6 decision_function( )383

28-3 從2維到3維的超平面386

28-3-1 增加數據維度386

28-3-2 計算3維的超平面公式與

    系數387

28-3-3 繪制3維的超平面388

28-4 認識核函數389

28-4-1 linear389

28-4-2 徑向基函數—rbf391

28-4-3 多項式函數—poly392

28-4-4 支持向量機的方法395

28-5 鳶尾花數據—分類應用 395

28-6 乳腺癌數據—分類應用398

28-6-1 認識數據398

28-6-2 線性支持向量機預測乳癌

    數據399

28-6-3 不同核函數應用在乳癌

    數據400

28-7 支持向量機—回歸應用的基礎

 實例401

28-7-1 SVR( )語法說明402

28-7-2 簡單數據應用402

28-7-3 電視購物廣告效益

    分析403

28-8 汽車燃耗效率數據集—回歸

 分析403

28-8-1 認識汽車燃耗效率

    數據集403

28-8-2 使用SVR( )預測汽車燃料

    數據404

第29章 單純貝葉斯分類(以垃圾

      郵件、新聞分類、電影

      評論為例)406

29-1 單純貝葉斯分類原理407

29-1-1 公式說明407

29-1-2 簡單實例407

29-1-3 拉普拉斯平滑修正410

29-2 詞頻向量模塊—Count

 Verctorizer411

29-3 多項式單純貝葉斯模塊—

 MultinomialNB413

29-3-1 語法概念413

29-3-2 文章分類實操414

29-3-3 垃圾郵件分類414

29-4 垃圾郵件分類—Spambase數

 據集415

29-4-1 認識垃圾郵件數據集

    Spambase415

29-4-2 垃圾郵件分類預測417

29-5 新聞郵件分類—新聞數據集

 20newsgroups418

29-5-1 認識新聞數據集

    20newsgroups418

29-5-2 新聞分類預測419

29-5-3 TfidfVectorizer模塊—

    文件事前處理TF-IDF420

29-5-4 輸入文件做新聞分類422

29-6 情感分析—IMDB電影評論數

 據集分析423

29-6-1 基礎概念實例423

29-6-2 IMDB電影評論

    數據集424

29-7 單純貝葉斯分類於中文

 的應用425

29-7-1 將中文字符串應用在

    CountVectorizer模塊425

29-7-2 jieba—結巴425

29-7-3 jieba與CountVectorizer

    組合應用426

29-7-4 簡單中文情感分析

    程序427

29-8 今日頭條數據集428

29-8-1 認識數據集428

29-8-2 今日頭條數據集

    實操429

第30章 集成機器學習(以蘑菇、

      醫療保險、玻璃、加州

      房價為例)431

30-1 集成學習的基本概念432

30-1-1 基本概念432

30-1-2 集合學習效果評估433

30-2 集成學習—投票法Voting

 (鳶尾花、波士頓房價)433

30-2-1 投票法—分類應用433

30-2-2 投票法—回歸應用435

30-3 集成學習—裝袋法Bagging

 (蘑菇、醫療保險)436

30-3-1 裝袋法—分類應用語法

    說明437

30-3-2 蘑菇數據分類應用438

30-3-3 裝袋法—回歸應用語法

    說明440

30-3-4 醫療保險數據回歸

    應用441

30-4 集成學習—提升法

 AdaBoost(糖尿病、波士頓房價)445

30-4-1 AdaBoost提升法—分類

    應用語法說明445

30-4-2 AdaBoost提升法—回歸

    應用語法說明446

30-5 集成學習—提升法Gradient Boosting(玻璃、加州房價)448

30-5-1 Gradient Boosting—分類

    應用語法說明448

30-5-2 玻璃數據集分類的

    應用449

30-5-3 Gradient Boosting—回歸

    應用語法說明451

30-5-4 加州房價數據集回歸

    應用451

30-6 集成學習—堆棧法Stacking(信用卡違約、房價預估)453

30-6-1 StackingClassifier—分類

    應用語法說明454

30-6-2 RidgeCV( )456

30-6-3 StackingRegressor —回

    歸應用語法說明458

第31章 K均值聚類(以購物中心

      消費、葡萄酒評價

      為例)461

31-1 認識無監督學習462

31-1-1 回顧監督學習數據462

31-1-2 無監督學習數據462

31-1-3 無監督學習與監督學習的

    差異463

31-1-4 無監督學習的應用463

31-2 K均值算法463

31-2-1 算法基礎464

31-2-2 Python硬功夫程序

    實操464

31-3 Scikit-learn的KMeans模塊467

31-3-1 KMeans語法467

31-3-2 聚類的基礎實例468

31-3-3 數據聚類的簡單實例470

31-4 評估聚類的效能471

31-4-1 群內平方和471

31-4-2 輪廓系數472

31-4-3 調整蘭德系數473

31-5 最佳群集數量475

31-5-1 肘點法475

31-5-2 輪廓分析476

31-6 消費分析—購物中心客戶消費

 數據477

31-6-1 認識Mall Customer 

    Segmentation Data477

31-6-2 收入與消費聚類478

31-6-3 依據性別分析“年收入 vs 

    消費力”479

31-6-4 依據年齡層分析“年收入 

    vs 消費力”480

31-7 價格 vs 評價—葡萄酒Wine 

 Reviews481

31-7-1 認識Wine Reviews

    數據481

第32章 PCA主成分分析(以手

      寫數字、人臉數據

      為例)484

32-1 PCA基本概念485

32-1-1 基本概念485

32-1-2 PCA方法與基礎數據

    實操485

32-1-3 數據白化whiten487

32-2 鳶尾花數據的PCA應用488

32-2-1 鳶尾花數據降維488

32-2-2 SVM與PCA在鳶尾花的

    應用488

32-2-3 PCA主成分與原始特征的

    分析490

32-3 數字辨識—手寫數字digits 

 dataset492

32-3-1 認識手寫數字數據集

    digits dataset492

32-3-2 決策樹與隨機森林辨識

    手寫數字494

32-3-3 PCA與手寫數字整合

    應用496

32-4 人臉辨識—人臉數據Labeled 

 Faces in the Wild498

32-4-1 認識人臉數據LFW499

32-4-2 人臉辨識預測502

32-4-3 加上PCA的人臉

    辨識502

第33章 階層式分層(以小麥數據、

      老實泉為例)506

33-1 認識階層式聚類507

33-2 凝聚型聚類507

33-2-1 凝聚型聚類定義507

33-2-2 簡單實例解說linkage( )

    方法508

33-2-3 單鏈接法說明509

33-2-4 簡單實例解說聚類

    方法509

33-2-5 聚類方法ward( )511

33-2-6 聚類數量的方法512

33-2-7 凝聚型聚類Agglomerative-

    Clustering513

33-3 小麥數據集Seeds dataset515

33-3-1 認識數據集Seeds

    dataset515

33-3-2 凝聚型聚類應用在Seeds 

    dataset517

33-4 老實泉數據Old Faithful Geyser 

 Data518

33-4-1 認識老實泉數據集518

33-4-2 繪制樹形圖520

33-4-3 凝聚型聚類應用在老實泉

    數據520

第34章 DBSCAN算法(以購物

      中心客戶分析為例)523

34-1 DBSCAN算法524

34-1-1 DBSCAN算法的參數

    概念524

34-1-2 點的定義524

34-1-3 算法的步驟525

34-2 Scikit-learn的DBSCAN

 模塊525

34-2-1 DBSCAN語法525

34-2-2 DBSCAN算法基礎

    實例526

34-3 消費分析—購物中心客戶消費

 數據528

第35章 語音識別531

35-1 語音轉文字532

35-1-1 建立模塊與對象532

35-1-2 開啟音源532

35-1-3 語音轉文字532

35-2 文字轉語音533

35-2-1 建立模塊與對象533

35-2-2 文字轉語音方法533

35-2-3 輸出語音534

最後瀏覽商品 (20)