PyTorch深度學習——深入理解人工智能算法設計
龍良曲
- 出版商: 清華大學
- 出版日期: 2025-07-01
- 售價: $594
- 語言: 簡體中文
- ISBN: 7302690529
- ISBN-13: 9787302690528
-
相關分類:
DeepLearning
下單後立即進貨 (約4週~6週)
相關主題
商品描述
本書系統介紹了人工智能相關算法,尤其是深度學習算法,包含了基礎的算法理論介紹、深度學習框架實現和重要的算法模型應用簡介等,本書提供配套的源代碼、開源版本電子書、課件素材、以及微課視頻等資料。全書共14章,可以分為4部份:第1~3章為第1部分,主要介紹人工智能的初步認知,並引出相關算法問題;第4~5章為第2部分,主要介紹PyTorch框架使用基礎知識,為後續算法實現作鋪墊;第6~9章為第3部分,主要介紹神經網絡的核心理論基礎,讓讀者能理解深度學習的本質;第10~14章為第4部分,主要介紹經典算法方向與模型結構的應用,讓讀者能夠學有所用。
作者簡介
龍良曲:網名“龍龍老師”,畢業於中南大學,專註研究深度學習領域的前沿算法多年,發表多篇相關論文和發明專利。曾擔任網易雲課堂"深度學習與PyTorch”“深度學習與TensorFlow2”等視頻課程的主講教師,幫助大量學員快速掌握深度學習算法知識,課程廣受好評。
目錄大綱
目錄
第1章人工智能緒論
微課視頻25分鐘
1.1人工智能
1.1.1人工智能簡介
1.1.2機器學習
1.1.3神經網絡與深度學習
1.2神經網絡發展簡史
1.2.1淺層神經網絡
1.2.2深度學習
1.3深度學習特點
1.3.1數據量
1.3.2算力
1.3.3網絡規模
1.3.4通用智能
1.4深度學習應用
1.4.1計算機視覺
1.4.2自然語言處理
1.4.3強化學習
1.5深度學習框架
1.5.1主流框架
1.5.2靜態圖和動態圖
1.5.3功能演示
1.6開發環境安裝
1.6.1安裝Anaconda
1.6.2安裝CUDA
1.6.3安裝PyTorch
1.6.4常用編輯器安裝
第2章回歸問題
微課視頻32分鐘
2.1神經元模型
2.2優化方法
2.3線性模型實戰
2.4線性回歸
第3章分類問題
微課視頻17分鐘
3.1手寫數字圖片數據集
3.2模型構建
3.3誤差計算
3.4真的解決了嗎
3.5非線性模型
3.6表達能力
3.7優化方法
3.8手寫數字圖片識別體驗
3.8.1網絡搭建
3.8.2模型訓練
第4章PyTorch基礎
微課視頻149分鐘
4.1數據類型
4.1.1數值類型
4.1.2布爾類型
4.2數值精度
4.2.1讀取精度
4.2.2類型轉換
4.3待優化張量
4.4創建張量
4.4.1從數組、列表對象創建
4.4.2創建全0或全1張量
4.4.3創建自定義數值張量
4.4.4創建已知分布的張量
4.4.5創建序列
4.5張量的典型應用
4.5.1標量
4.5.2向量
4.5.3矩陣
4.5.4三維張量
4.5.5四維張量
4.6索引與切片
4.6.1索引
4.6.2切片
4.6.3小結
4.7維度變換
4.7.1改變視圖
4.7.2增加和刪除維度
4.7.3交換維度
4.7.4復制數據
4.8Broadcasting機制
4.9數學運算
4.9.1加、減、乘、除運算
4.9.2乘方運算
4.9.3指數和對數運算
4.9.4矩陣相乘運算
4.10前向傳播實戰
第5章PyTorch進階
微課視頻54分鐘
5.1合並與分割
5.1.1合並
5.1.2分割
5.2數據統計
5.2.1向量範數
5.2.2最值、均值、和
5.3張量比較
5.4填充與復制
5.4.1填充
5.4.2復制
5.5數據限幅
5.6高級操作
5.6.1索引采樣
5.6.2掩碼采樣
5.6.3gather采樣函數
5.6.4where采樣函數
5.6.5scatter寫入函數
5.6.6meshgrid網格函數
5.7經典數據集加載
5.7.1預處理
5.7.2隨機打散
5.7.3批訓練
5.7.4循環訓練
5.8MNIST測試實戰
第6章神經網絡
6.1感知機
6.2全連接層
6.2.1張量方式實現
6.2.2層方式實現
6.3神經網絡
6.3.1張量方式實現
6.3.2層方式實現
6.3.3優化目標
6.4激活函數
6.4.1Sigmoid
6.4.2ReLU
6.4.3LeakyReLU
6.4.4tanh
6.5輸出層設計
6.5.1普通實數空間
6.5.2[0,1]區間
6.5.3[0,1]區間,和為1
6.5.4(-1,1)區間
6.6誤差計算
6.6.1均方誤差函數
6.6.2交叉熵誤差函數
6.7神經網絡類型
6.7.1卷積神經網絡
6.7.2循環神經網絡
6.7.3註意力(機制)網絡
6.7.4圖卷積神經網絡
6.8汽車油耗預測實戰
6.8.1數據集
6.8.2創建網絡
6.8.3訓練與測試
第7章反向傳播算法
微課視頻136分鐘
7.1導數與梯度
7.2導數常見性質
7.2.1基本函數的導數
7.2.2常用導數性質
7.2.3導數求解實戰
7.3激活函數導數
7.3.1Sigmoid函數導數
7.3.2ReLU函數導數
7.3.3LeakyReLU函數導數
7.3.4tanh函數梯度
7.4損失函數梯度
7.4.1均方誤差函數梯度
7.4.2交叉熵損失函數梯度
7.5全連接層梯度
7.5.1單神經元梯度
7.5.2全連接層梯度
7.6鏈式法則
7.7反向傳播算法
7.8Himmelblau函數優化實戰
7.9反向傳播算法實戰
7.9.1數據集
7.9.2網絡層
7.9.3網絡模型
7.9.4網絡訓練
7.9.5網絡性能
第8章PyTorch高級用法
微課視頻89分鐘
8.1常見功能模塊
8.1.1常見網絡層類
8.1.2網絡容器
8.2模型創建、訓練與測試
8.2.1模型創建
8.2.2模型訓練
8.2.3模型測試
8.3模型保存與加載
8.3.1張量方式
8.3.2網絡方式
8.4自定義網絡
8.4.1自定義網絡層
8.4.2自定義網絡
8.5模型樂園
8.5.1加載模型
8.5.2微調模型
8.6測量工具
8.6.1新建測量器
8.6.2寫入數據
8.6.3統計數據
8.6.4清除狀態
8.6.5準確率統計實戰
8.7可視化
8.7.1模型端
8.7.2瀏覽器端
第9章過擬合
微課視頻72分鐘
9.1模型的容量
9.2欠擬合與過擬合
9.2.1欠擬合
9.2.2過擬合
9.3數據集劃分
9.3.1驗證集與超參數
9.3.2提前停止
9.4模型設計
9.5正則化
9.5.1L0正則化
9.5.2L1正則化
9.5.3L2正則化
9.5.4正則化效果
9.6Dropout
9.7數據增強
9.7.1隨機旋轉
9.7.2隨機翻轉
9.7.3隨機裁剪
9.7.4生成數據
9.7.5其他方式
9.8過擬合問題實戰
9.8.1構建數據集
9.8.2Pytorch lightning庫
9.8.3網絡層數的影響
9.8.4Dropout的影響
9.8.5正則化的影響
第10章卷積神經網絡
微課視頻162分鐘
10.1全連接網絡的問題
10.1.1局部相關性
10.1.2權值共享
10.1.3卷積運算
10.2卷積神經網絡
10.2.1單通道輸入和單卷積核
10.2.2多通道輸入和單卷積核
10.2.3多通道輸入和多卷積核
10.2.4步長
10.2.5填充
10.3卷積層實現
10.3.1自定義權值
10.3.2卷積層類
10.4LeNet5實戰
10.5表示學習
10.6梯度傳播
10.7池化層
10.8BatchNorm層
10.8.1前向傳播
10.8.2反向更新
10.8.3BN層實現
10.9經典卷積網絡
10.9.1AlexNet
10.9.2VGG系列
10.9.3GoogLeNet
10.10VGG13實戰
10.10.1CIFAR數據集
10.10.2VGG模型
10.11卷積層變種
10.11.1空洞卷積
10.11.2轉置卷積
10.11.3分離卷積
10.12深度殘差網絡
10.12.1ResNet原理
10.12.2ResBlock實現
10.13DenseNet
10.14ResNet18實戰
第11章循環神經網絡
微課視頻117分鐘
11.1序列表示方法
11.1.1Embedding層
11.1.2預訓練的詞向量
11.2循環神經網絡
11.2.1全連接層可行嗎
11.2.2共享權值
11.2.3全局語義
11.2.4循環神經網絡
11.3梯度傳播
11.4RNN層使用方法
11.4.1RNNCell
11.4.2多層RNNCell網絡
11.4.3RNN層
11.5RNN情感分類問題實戰
11.5.1數據集
11.5.2網絡模型
11.5.3訓練與測試
11.6梯度彌散和梯度爆炸
11.6.1梯度裁剪
11.6.2梯度彌散
11.7RNN短時記憶
11.8LSTM原理
11.8.1遺忘門
11.8.2輸入門
11.8.3刷新Memory
11.8.4輸出門
11.8.5小結
11.9LSTM層使用方法
11.9.1LSTMCell
11.9.2LSTM層
11.10GRU簡介
11.10.1復位門
11.10.2更新門
11.10.3GRU使用方法
11.11LSTM/GRU情感分類問題再戰
11.11.1LSTM模型
11.11.2GRU模型
第12章自編碼器
12.1自編碼器原理
12.2Fashion MNIST圖片重建實戰
12.2.1Fashion MNIST數據集
12.2.2編碼器
12.2.3解碼器
12.2.4自編碼器
12.2.5網絡訓練
12.2.6圖片重建
12.3自編碼器變種
12.3.1Denoising AutoEncoder
12.3.2Dropout AutoEncoder
12.3.3Adversarial AutoEncoder
12.4變分自編碼器
12.4.1VAE原理
12.4.2Reparameterization Trick
12.5VAE圖片生成實戰
12.5.1VAE模型
12.5.2Reparameterization函數
12.5.3網絡訓練
12.5.4圖片生成
第13章生成對抗網絡
微課視頻145分鐘
13.1博弈學習實例
13.2GAN原理
13.2.1網絡結構
13.2.2網絡訓練
13.2.3統一目標函數
13.3DCGAN實戰
13.3.1動漫圖片數據集
13.3.2生成器
13.3.3判別器
13.3.4訓練與可視化
13.4GAN變種
13.4.1DCGAN
13.4.2InfoGAN
13.4.3CycleGAN
13.4.4WGAN
13.4.5Equal GAN
13.4.6SelfAttention GAN
13.4.7BigGAN
13.5納什均衡
13.5.1判別器狀態
13.5.2生成器狀態
13.5.3納什均衡點
13.6GAN訓練難題
13.6.1超參數敏感
13.6.2模式崩塌
13.7WGAN原理
13.7.1JS散度的缺陷
13.7.2EM距離
13.7.3WGANGP
13.8WGANGP實戰
第14章自定義數據集
14.1精靈寶可夢數據集
14.2自定義數據集加載
14.2.1創建編碼表
14.2.2創建樣本和標簽表格
14.2.3數據集劃分
14.3寶可夢數據集實戰
14.3.1創建Dataset對象
14.3.2樣本預處理
14.3.3創建模型
14.3.4網絡訓練與測試
14.4遷移學習
14.4.1遷移學習原理
14.4.2遷移學習實戰