機器學習:算法背後的理論與優化
史春奇、蔔晶禕、施智平
- 出版商: 清華大學
- 出版日期: 2019-07-01
- 定價: $414
- 售價: 7.9 折 $327
- 語言: 簡體中文
- ISBN: 7302517185
- ISBN-13: 9787302517184
-
相關分類:
Machine Learning
立即出貨
買這商品的人也買了...
-
$305圖解機器學習 -
機器學習$648$616 -
程序員的數學3 : 線性代數$474$450 -
演算法技術手冊, 2/e (Algorithms in a Nutshell: A Practical Guide, 2/e)$580$458 -
$505圖像處理、分析與機器視覺, 4/e (Image Processing, Analysis, and Machine Vision, 4/e) -
$796深度學習 -
$294統計思維:程序員數學之概率統計(第2版) (圖靈程序設計叢書) -
演算法圖鑑:26種演算法 + 7種資料結構,人工智慧、數據分析、邏輯思考的原理和應用 step by step 全圖解$450$356 -
$403深入淺出強化學習 : 原理入門 -
$403程序員的數學2 : 概率統計 -
$403Python 統計分析 (An Introduction to Statistics with Python: With Applications in the Life Sciences) -
$280scikit-learn 機器學習, 2/e (Mastering Machine Learning with scikit-learn, 2/e) -
計算機科學中的數學:信息與智能時代的必修課$1,008$958 -
$450統計強化學習:現代機器學習方法 (Statistical Reinforcement Learning: Modern Machine Learning Approaches) -
$465統計學習方法, 2/e -
$280特徵工程入門與實踐 (Feature Engineering Made Easy) -
$607電腦時代的統計推斷:算法、演化和數據科學 (Computer Age Statistical Inference : Algorithms, Evidence, and Data Science) -
$352深度學習的數學 -
輕鬆學會 Google TensorFlow 2.0 人工智慧深度學習實作開發$520$406 -
$756強化學習, 2/e (Reinforcement Learning: An Introduction, 2/e) -
深度學習 (Deep Learning)(繁體中文版)$1,200$1,020 -
機器學習的數學基礎 : AI、深度學習打底必讀$580$458 -
$454智能風控:原理算法與工程實踐 -
程序員的數學 第2版$354$336 -
$714Python 金融大數據風控建模實戰:基於機器學習
中文年末書展|繁簡參展書2書75折 詳見活動內容 »
-
75折
為你寫的 Vue Components:從原子到系統,一步步用設計思維打造面面俱到的元件實戰力 (iThome 鐵人賽系列書)$780$585 -
75折
BDD in Action, 2/e (中文版)$960$720 -
75折
看不見的戰場:社群、AI 與企業資安危機$750$563 -
79折
AI 精準提問 × 高效應用:DeepSeek、ChatGPT、Claude、Gemini、Copilot 一本搞定$390$308 -
7折
超實用!Word.Excel.PowerPoint 辦公室 Office 365 省時高手必備 50招, 4/e (暢銷回饋版)$420$294 -
75折
裂縫碎光:資安數位生存戰$550$412 -
日本當代最強插畫 2025 : 150位當代最強畫師豪華作品集$640$576 -
79折
Google BI 解決方案:Looker Studio × AI 數據驅動行銷實作,完美整合 Google Analytics 4、Google Ads、ChatGPT、Gemini$630$498 -
79折
超有料 Plus!職場第一實用的 AI 工作術 - 用對 AI 工具、自動化 Agent, 讓生產力全面進化!$599$473 -
75折
從零開始學 Visual C# 2022 程式設計, 4/e (暢銷回饋版)$690$518 -
75折
Windows 11 制霸攻略:圖解 AI 與 Copilot 應用,輕鬆搞懂新手必學的 Windows 技巧$640$480 -
75折
精準駕馭 Word!論文寫作絕非難事 (好評回饋版)$480$360 -
Sam Yang 的插畫藝術:用 Procreate / PS 畫出最強男友視角 x 女孩美好日常$699$629 -
79折
AI 加持!Google Sheets 超級工作流$599$473 -
78折
想要 SSR? 快使用 Nuxt 吧!:Nuxt 讓 Vue.js 更好處理 SEO 搜尋引擎最佳化(iThome鐵人賽系列書)$780$608 -
78折
超實用!業務.總管.人資的辦公室 WORD 365 省時高手必備 50招 (第二版)$500$390 -
7折
Node-RED + YOLO + ESP32-CAM:AIoT 智慧物聯網與邊緣 AI 專題實戰$680$476 -
79折
「生成式⇄AI」:52 個零程式互動體驗,打造新世代人工智慧素養$599$473 -
7折
Windows APT Warfare:惡意程式前線戰術指南, 3/e$720$504 -
75折
我輩程式人:回顧從 Ada 到 AI 這條程式路,程式人如何改變世界的歷史與未來展望 (We, Programmers: A Chronicle of Coders from Ada to AI)$850$637 -
75折
不用自己寫!用 GitHub Copilot 搞定 LLM 應用開發$600$450 -
79折
Tensorflow 接班王者:Google JAX 深度學習又快又強大 (好評回饋版)$780$616 -
79折
GPT4 會你也會 - 共融機器人的多模態互動式情感分析 (好評回饋版)$700$553 -
79折
技術士技能檢定 電腦軟體應用丙級術科解題教本|Office 2021$460$363 -
75折
Notion 與 Notion AI 全能實戰手冊:生活、學習與職場的智慧策略 (暢銷回饋版)$560$420
相關主題
商品描述
以機器學習為核心的人工智能已經成為新一代生產力發展的主要驅動因素。新的技術正在向各行各業 滲透,大有變革各個領域的趨勢。傳統產業向智慧產業的升級迫使原行業從業人員逐漸轉型,市場上對相 關學習材料的需求也日益高漲。幫助廣大學習者更好地理解和掌握機器學習,是編寫本書的目的。 本書針對機器學習領域中最常見的一類問題——有監督學習,從入門、進階、深化三個層面由淺入深 地進行了講解。三個層麵包括基礎入門算法、核心理論及理論背後的數學優化。入門部分用以邏輯回歸為 代表的廣義線性模型為出發點,引入書中所有涉及的知識點;進階部分的核心理論涵蓋了經驗風險最小、 結構風險最小、正則化及統一的分類邊界理論;深化部分的數學優化則主要包括最大熵原理、拉格朗日對 偶等理論在數學上的推導,以及對模型求解的主流最優化方法的探討等。 本書由淺入深,從個別到普便,從自然算法到優化算法,從各個角度深入剖析了機器學習,力求幫助 讀者循序漸進地掌握機器學習的概念、算法和優化理論。
作者簡介
機器學習-算法背後的理論與優化
史春奇、蔔晶禕、施智平著
史春奇博士,畢業於日本京都大學,美國Brandeis University博士後,現為港輝金融信息Vice President, 曾任通用電氣(中國)有限公司資深數據科學家。
蔔晶禕,畢業於上海交通大學,現為友邦保險集團人工智能主管。曾就職於通用電氣(中國)研究開發中心有限公司,任資深數據科學家;曾任飛利浦亞洲研究院高級研究員。
施智平博士,首都師範大學信息工程學院教授,院長,畢業於中科院計算技術研究所。於2012年和2017年獲北京市科學技術獎二等獎兩次,中國計算機學會高級會員,形式化方法專委會委員,人工智能學會會員,智能服務專委會委員,IEEE/ACM 會員。
目錄大綱
第1 章線性回歸與邏輯回歸. 1
1.1 線性回歸. 1
1.1.1 函數關係與統計關係.1
1.1.2 統計與機器學習. 2
1.2 最小二乘法與高斯-馬爾可夫定理. 5
1.2.1 最小二乘法. . 5
1.2.2 高斯-馬爾可夫定理. . 6
1.3 從線性回歸到邏輯回歸. 8
1.4 最大似然估計求解邏輯回歸. . 9
1.5 最小二乘與最大似然. . 11
1.5.1 邏輯回歸與伯努利分佈. 11
1.5.2 線性回歸與正態分佈. 12
1.6 小結. 13
參考文獻. 13
第2 章廣義線性模型. 15
2.1 廣義線性模型概述.15
2.1.1 廣義線性模型的定義. 15
2.1.2 鏈接函數與指數分佈簇. 17
2.2 廣義線性模型求解.20
2.3 最大似然估計Ⅰ:Fisher 信息. 21
2.4 最大似然估計Ⅱ:KL 散度與Bregman 散度. 23
2.4.1 KL 散度. . 23
2.4.2 Bregman 散度. . 25
2.5 小結. 26
X
參考文獻. 26
第3 章經驗風險最小. 28
3.1 經驗風險與泛化誤差概述. .28
3.1.1 經驗風險. 30
3.1.2 泛化誤差. 30
3.1.3 欠擬合和過擬合. . 34
3.1.4 VC 維. . 37
3.2 經驗風險最小的算法. . 40
3.3 分類邊界. . 42
3.3.1 分類算法的損失函數. 42
3.3.2 分類算法的邊界. . 45
3.4 小結. 48
參考文獻. 48
第4 章結構風險最小. 49
4.1 經驗風險最小和過擬合. . 49
4.2 結構風險最小和正則化. . 51
4.2.1 從空間角度理解SRM 52
4.2.2 從貝葉斯觀點理解SRM 54
4.3 回歸的正則化. 55
4.3.1 L2 正則化和嶺回歸. 56
4.3.2 L1 正則化和Lasso 回歸. . 57
4.3.3 L1、L2 組合正則化和ElasticNet 回歸. . 58
4.4 分類的正則化. 60
4.4.1 支持向量機和L2 正則化. 60
4.4.2 XGBoost 和樹正則化. 62
4.4.3 神經網絡和DropOut 正則化. 65
4.4.4 正則化的優缺點. . 66
4.5 小結. 67
參考文獻. 67
第5 章貝葉斯統計與熵.68
5.1 統計學習的基礎:參數估計. .68
5.1.1 矩估計. .68
XI
5.1.2 最大似然估計.69
5.1.3 最小二乘法. 71
5.2 概率分佈與三大統計思維. .72
5.2.1 頻率派和正態分佈. . 72
5.2.2 經驗派和正態分佈. . 75
5.2.3 貝葉斯派和正態分佈. 76
5.2.4 貝葉斯統計和熵的關係. 79
5.3 信息熵的理解. 79
5.3.1 信息熵簡史. 79
5.3.2 信息熵定義. 80
5.3.3 期望編碼長度解釋. . 81
5.3.4 不確定性公理化解釋. 81
5.3.5 基於熵的度量.84
5.4 最大熵原理. . 86
5.4.1 最大熵的直觀理解. . 86
5.4.2 最大熵解釋自然指數分佈簇. . 87
5.4.3 最大熵解釋最大似然估計.89
5.5 小結. 90
參考文獻. 90
第6 章基於熵的Softmax. .92
6.1 二項分佈和多項分佈. . 92
6.2 Logistic 回歸和Softmax 回歸. .93
6.2.1 廣義線性模型的解釋. 93
6.2.2 Softmax 回歸. 94
6.2.3 最大熵原理與Softmax 回歸的等價性.96
6.3 最大熵條件下的Log-Linear 101
6.4 多分類界面.103
6.4.1 感知機和多分類感知機. . 104
6.4.2 多分類感知機和結構感知機. 105
6.5 概率圖模型裡面的Log-Linear 106
6.6 深度學習裡面的Softmax 層. . 108
6.7 小結. . 109
XII
參考文獻. . 109
第7 章拉格朗日乘子法. 111
7.1 凸共軛. .111
7.1.1 凸共軛的定義. 111
7.1.2 凸共軛定理. . 113
7.2 拉格朗日對偶. . 114
7.2.1 拉格朗日對偶概述.115
7.2.2 Salter 條件. . 117
7.2.3 KKT 條件. 118
7.3 Fenchel 對偶. .120
7.4 增廣拉格朗日乘子法. 123
7.4.1 近端. 123
7.4.2 增廣拉格朗日乘子法和對偶上升算法. .126
7.5 交替方向乘子法. . 129
7.5.1 對偶分解. . 130
7.5.2 交替方向乘子法概述. . 131
7.6 小結. . 131
參考文獻. . 132
第8 章隨機梯度下降法. 134
8.1 隨機梯度下降法概述. 134
8.1.1 機器學習場景. 134
8.1.2 隨機梯度下降法的定義. . 135
8.1.3 隨機梯度下降法收斂性分析. 136
8.1.4 收斂性證明. . 139
8.2 隨機梯度下降法進階Ⅰ:方差縮減. 140
8.2.1 方差縮減的效果. 141
8.2.2 方差縮減的實現. 143
8.3 隨機梯度下降法進階Ⅱ:加速與適應. 145
8.3.1 加速. 146
8.3.2 適應. 148
8.3.3 加速£ 適應. 151
8.4 隨機梯度下降法的並行實現. . 156
XIII
8.5 小結. . 160
參考文獻. . 161
第9 章常見的最優化方法. 163
9.1 最速下降算法. . 163
9.1.1 l2 範數與梯度下降法. . 164
9.1.2 l1 範數與坐標下降算法. . 165
9.1.3 二次範數與牛頓法.166
9.2 步長的設定.168
9.2.1 Armijo-Goldstein 準則. 169
9.2.2 Wolfe-Powell 準則. 170
9.2.3 回溯線搜索. . 171
9.3 收斂性分析.171
9.3.1 收斂速率. . 172
9.3.2 對目標函數的一些假設. . 173
9.4 一階算法:梯度下降法. 177
9.5 二階算法:牛頓法及其衍生算法. .178
9.5.1 牛頓法與梯度下降法的對比. 179
9.5.2 擬牛頓法. . 180
9.5.3 從二次範數的角度看牛頓法. 182
9.6 小結. . 183
參考文獻. . 185



