速通!深度學習的數學基礎

赤石雅典

  • 出版商: 人民郵電
  • 出版日期: 2025-08-01
  • 售價: $414
  • 語言: 簡體中文
  • 頁數: 240
  • ISBN: 7115650020
  • ISBN-13: 9787115650023
  • 相關分類: DeepLearning微積分 Calculus
  • 下單後立即進貨 (約4週~6週)

  • 速通!深度學習的數學基礎-preview-1
  • 速通!深度學習的數學基礎-preview-2
速通!深度學習的數學基礎-preview-1

相關主題

商品描述

本書將深度學習涉及的數學領域縮小到最低限度,以幫助讀者在最短的時間內理解深度學習必需的數學知識。全書分為導入篇、理論篇、實踐篇和發展篇四部分內容。導入篇系統介紹了一些機器學習的入門知識;理論篇包括微積分、向量和矩陣、多元函數、指數函數、概率論等知識;實踐篇介紹了線性回歸模型、邏輯回歸模型、深度學習模型;發展篇介紹了面向實踐的深度學習。本書編程實踐中的代碼使用Python及Jupyter Notebook編寫,簡明易懂,便於上手實戰。

作者簡介

[日]赤石雅典,1985年東京大學工程學院定量工程系畢業後加入IBM日本。 東京基礎研究室研究員,從事數學表達式處理系統的研究與開發。 1993年,主要負責基礎結構設計,開放系統的構建和應用程序設計。 2013年,移至智慧城市業務,2016年,移至沃森分公司。 自加入公司以來,他在IT和AI的各個領域都有豐富的經驗,並且可以暢談從IT平臺到DB設計,應用程序開發,編程語言,SQL調整,Watson,機器學習的所有內容。

目錄大綱

導入篇

第 1章 機器學習入門 2

11 人工智能(AI)與機器學習 2

12 機器學習 3

121 機器學習模型 3

122 學習的方法 4

123 監督學習與回歸和分類 4

124 訓練步與預測步 5

125 損失函數與梯度下降法 6

13 機器學習模型初步 7

14 本書中采用的機器學習模型 13

15 機器學習與深度學習中數學的必要性 15

16 本書的結構 16

理論篇

第 2章 微分與積分 22

21 函數 22

211 什麼是函數 22

212 函數圖像 23

22 復合函數與反函數 24

221 復合函數 24

222 反函數 25

23 微分與極限 27

231 微分的定義 27

232 微分與函數值的近似 29

233 切線方程 30

專欄 切線方程與訓練步和預測步 31

24 極大值與極小值 32

25 多項式的微分 34

251 x^n 的微分 34

252 微分的線性屬性以及多項式的微分 34

253 x^r 的微分 35

專欄 組合與二項式定理 36

26 乘積的微分 37

27 復合函數的微分 38

271 復合函數的微分 38

272 反函數的微分 40

28 商的微分 41

29 積分 42

專欄 積分符號的含義 45

第3章 向量與矩陣 46

31 向量入門 46

311 向量 46

312 向量的表示方法 47

313 向量的分量 48

314 向高維拓展 48

315 向量的分量表示法 49

32 向量的和、差與數乘 49

321 向量的和 49

322 向量的差 50

323 向量的數乘 51

33 長度(模)與距離 52

331 向量的長度(模) 52

332 Σ 符號的意義 54

333 向量間的距離 55

34三角函數 56

341 三角比 56

342 三角函數 56

343 三角函數的圖像 57

344 用三角函數表示直角三角形的邊 58

35 內積 58

351 基於數值定義內積 58

352 分量形式的內積公式 59

36 余弦相似度 61

361 二維向量之間的角度 61

362 余弦相似度 62

專欄 余弦相似度的應用舉例 63

37 矩陣與矩陣運算 63

371 輸出節點的內積形式 63

372 輸出節點的矩陣積形式 64

第4章 多元函數的微分 67

41 多元函數 67

42 偏微分 69

43 全微分 71

44 全微分與復合函數 73

45 梯度下降法 76

專欄 梯度下降法與局部最優解 82

第5章 指數函數與對數函數 83

51 指數函數 83

511 連乘的定義與法則 83

512 連乘的拓展 84

513 向函數拓展 86

52 對數函數 88

專欄 對數函數包含的意義 92

53 對數函數的微分 93

專欄 用 Python 計算自然常數 95

54 指數函數的微分 96

專欄 以自然常數 e 為底的指數函數的寫法 97

55 Sigmoid 函數 98

56 Softmax 函數 100

專欄 Sigmoid 函數與 Softmax 函數的關系 103

第6章 概率與統計 104

61 概率函數與概率分布 104

62 概率密度函數與概率分布函數 107

專欄 正態分布函數與 Sigmoid 函數 109

63 似然函數與最大似然估計 110

專欄 為何似然函數的極值不是極小而是極大 113

實踐篇

第7章 線性回歸模型 116

71 損失函數的偏微分與梯度下降法 116

72 例題的問題設定 117

73 訓練數據的記法 118

74 梯度下降法的思路 119

75 預測模型的構造 120

76 損失函數的構造 122

77 計算損失函數的微分 122

78 梯度下降法的應用 124

79 編程實踐 126

專欄 使用 NumPy 編程的技術 130

710 多元回歸模型的擴展 134

專欄 學習率·循環疊代次數的調整方法 138

第8章 邏輯回歸模型(二分類) 140

81 例題的問題設定 140

82 回歸模型與分類模型的區別 142

83 預測模型的分析 143

專欄 用概率表達預測值大有深意 147

84 損失函數(交叉熵函數) 147

85 計算損失函數的微分 151

86 梯度下降法的應用 154

87 編程實踐 155

專欄 scikit-learn 與模塊的比較 163

專欄 球迷國王的煩惱與交叉熵 163

第9章 邏輯回歸模型(多分類) 166

91 例題的問題設定 166

92 模型的基礎概念 168

93 權重矩陣 169

94 Softmax 函數 170

95 損失函數 172

96 計算損失函數的微分 173

97 梯度下降法的應用 177

98 編程實踐 178

專欄 NumPy 中的矩陣計算 180

第 10章 深度學習模型 189

101 例題的問題設定 189

102 模型結構與預測函數 190

103 損失函數 193

104 計算損失函數的微分 193

105 誤差逆傳播 197

106 梯度下降法的應用 200

107 編程實踐(1) 203

108 編程實踐(2) 210

109 編程實踐(3) 211

1010 編程實踐(4) 214

發展篇

第 11章 面向實踐的深度學習 218

111 使用框架 218

112 CNN 221

113 RNN 與 LSTM 223

114 數值微分 224

115 高級訓練法 226

116 避免過擬合 228

117 學習的單位 231

118 矩陣的初始化 232

119 更上一層樓 233

附錄 Jupyter Notebook 的安裝方法 234

A1 在 Windows 環境中安裝 Jupyter Notebook 234

A2 在 macOS 環境中安裝 Jupyter Notebook 238