速通!深度學習的數學基礎
赤石雅典
- 出版商: 人民郵電
- 出版日期: 2025-08-01
- 售價: $414
- 語言: 簡體中文
- 頁數: 240
- ISBN: 7115650020
- ISBN-13: 9787115650023
-
相關分類:
DeepLearning、微積分 Calculus
下單後立即進貨 (約4週~6週)
相關主題
商品描述
本書將深度學習涉及的數學領域縮小到最低限度,以幫助讀者在最短的時間內理解深度學習必需的數學知識。全書分為導入篇、理論篇、實踐篇和發展篇四部分內容。導入篇系統介紹了一些機器學習的入門知識;理論篇包括微積分、向量和矩陣、多元函數、指數函數、概率論等知識;實踐篇介紹了線性回歸模型、邏輯回歸模型、深度學習模型;發展篇介紹了面向實踐的深度學習。本書編程實踐中的代碼使用Python及Jupyter Notebook編寫,簡明易懂,便於上手實戰。
作者簡介
[日]赤石雅典,1985年東京大學工程學院定量工程系畢業後加入IBM日本。 東京基礎研究室研究員,從事數學表達式處理系統的研究與開發。 1993年,主要負責基礎結構設計,開放系統的構建和應用程序設計。 2013年,移至智慧城市業務,2016年,移至沃森分公司。 自加入公司以來,他在IT和AI的各個領域都有豐富的經驗,並且可以暢談從IT平臺到DB設計,應用程序開發,編程語言,SQL調整,Watson,機器學習的所有內容。
目錄大綱
導入篇
第 1章 機器學習入門 2
11 人工智能(AI)與機器學習 2
12 機器學習 3
121 機器學習模型 3
122 學習的方法 4
123 監督學習與回歸和分類 4
124 訓練步與預測步 5
125 損失函數與梯度下降法 6
13 機器學習模型初步 7
14 本書中采用的機器學習模型 13
15 機器學習與深度學習中數學的必要性 15
16 本書的結構 16
理論篇
第 2章 微分與積分 22
21 函數 22
211 什麼是函數 22
212 函數圖像 23
22 復合函數與反函數 24
221 復合函數 24
222 反函數 25
23 微分與極限 27
231 微分的定義 27
232 微分與函數值的近似 29
233 切線方程 30
專欄 切線方程與訓練步和預測步 31
24 極大值與極小值 32
25 多項式的微分 34
251 x^n 的微分 34
252 微分的線性屬性以及多項式的微分 34
253 x^r 的微分 35
專欄 組合與二項式定理 36
26 乘積的微分 37
27 復合函數的微分 38
271 復合函數的微分 38
272 反函數的微分 40
28 商的微分 41
29 積分 42
專欄 積分符號的含義 45
第3章 向量與矩陣 46
31 向量入門 46
311 向量 46
312 向量的表示方法 47
313 向量的分量 48
314 向高維拓展 48
315 向量的分量表示法 49
32 向量的和、差與數乘 49
321 向量的和 49
322 向量的差 50
323 向量的數乘 51
33 長度(模)與距離 52
331 向量的長度(模) 52
332 Σ 符號的意義 54
333 向量間的距離 55
34三角函數 56
341 三角比 56
342 三角函數 56
343 三角函數的圖像 57
344 用三角函數表示直角三角形的邊 58
35 內積 58
351 基於數值定義內積 58
352 分量形式的內積公式 59
36 余弦相似度 61
361 二維向量之間的角度 61
362 余弦相似度 62
專欄 余弦相似度的應用舉例 63
37 矩陣與矩陣運算 63
371 輸出節點的內積形式 63
372 輸出節點的矩陣積形式 64
第4章 多元函數的微分 67
41 多元函數 67
42 偏微分 69
43 全微分 71
44 全微分與復合函數 73
45 梯度下降法 76
專欄 梯度下降法與局部最優解 82
第5章 指數函數與對數函數 83
51 指數函數 83
511 連乘的定義與法則 83
512 連乘的拓展 84
513 向函數拓展 86
52 對數函數 88
專欄 對數函數包含的意義 92
53 對數函數的微分 93
專欄 用 Python 計算自然常數 95
54 指數函數的微分 96
專欄 以自然常數 e 為底的指數函數的寫法 97
55 Sigmoid 函數 98
56 Softmax 函數 100
專欄 Sigmoid 函數與 Softmax 函數的關系 103
第6章 概率與統計 104
61 概率函數與概率分布 104
62 概率密度函數與概率分布函數 107
專欄 正態分布函數與 Sigmoid 函數 109
63 似然函數與最大似然估計 110
專欄 為何似然函數的極值不是極小而是極大 113
實踐篇
第7章 線性回歸模型 116
71 損失函數的偏微分與梯度下降法 116
72 例題的問題設定 117
73 訓練數據的記法 118
74 梯度下降法的思路 119
75 預測模型的構造 120
76 損失函數的構造 122
77 計算損失函數的微分 122
78 梯度下降法的應用 124
79 編程實踐 126
專欄 使用 NumPy 編程的技術 130
710 多元回歸模型的擴展 134
專欄 學習率·循環疊代次數的調整方法 138
第8章 邏輯回歸模型(二分類) 140
81 例題的問題設定 140
82 回歸模型與分類模型的區別 142
83 預測模型的分析 143
專欄 用概率表達預測值大有深意 147
84 損失函數(交叉熵函數) 147
85 計算損失函數的微分 151
86 梯度下降法的應用 154
87 編程實踐 155
專欄 scikit-learn 與模塊的比較 163
專欄 球迷國王的煩惱與交叉熵 163
第9章 邏輯回歸模型(多分類) 166
91 例題的問題設定 166
92 模型的基礎概念 168
93 權重矩陣 169
94 Softmax 函數 170
95 損失函數 172
96 計算損失函數的微分 173
97 梯度下降法的應用 177
98 編程實踐 178
專欄 NumPy 中的矩陣計算 180
第 10章 深度學習模型 189
101 例題的問題設定 189
102 模型結構與預測函數 190
103 損失函數 193
104 計算損失函數的微分 193
105 誤差逆傳播 197
106 梯度下降法的應用 200
107 編程實踐(1) 203
108 編程實踐(2) 210
109 編程實踐(3) 211
1010 編程實踐(4) 214
發展篇
第 11章 面向實踐的深度學習 218
111 使用框架 218
112 CNN 221
113 RNN 與 LSTM 223
114 數值微分 224
115 高級訓練法 226
116 避免過擬合 228
117 學習的單位 231
118 矩陣的初始化 232
119 更上一層樓 233
附錄 Jupyter Notebook 的安裝方法 234
A1 在 Windows 環境中安裝 Jupyter Notebook 234
A2 在 macOS 環境中安裝 Jupyter Notebook 238