史上最完整 -- 一本書晉升深度學習世界級大師

王成、黃曉輝 編著

  • 出版商: 深智
  • 出版日期: 2025-12-19
  • 定價: $1,280
  • 售價: 7.9$1,011
  • 語言: 繁體中文
  • 頁數: 960
  • ISBN: 6267757587
  • ISBN-13: 9786267757581
  • 相關分類: DeepLearning
  • 尚未上市,歡迎預購

  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-1
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-2
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-3
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-4
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-5
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-6
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-7
  • 史上最完整 -- 一本書晉升深度學習世界級大師-preview-8
史上最完整 -- 一本書晉升深度學習世界級大師-preview-1

買這商品的人也買了...

相關主題

商品描述

【內容特點】

深度神經網路架構與演算法

★卷積神經網路、循環神經網路實作解析

★多頭注意力機制與Transformer原理

BERTGPT系列模型結構與應用

★預訓練語言模型任務與資料構建流程

★自然語言處理:Word2VecGloVefastText

★訓練最佳化:AdamAdaGradBatchNorm

★模型評估指標與過擬合正規化技術

★文字分類、問答系統、命名實體辨識模型建構

★端到端模型訓練與微調流程

★多GPU訓練與參數共享技術

PyTorch框架與範例程式實作

★深度學習開發環境與GPU部署教學

ChatGPTInstructGPTGPT-4使用與提示詞工程

 

【內容簡介】

本書針對自然語言處理與大語言模型的完整技術鏈條進行系統化整理,內容涵蓋文字表示、語言模型、詞向量、神經網路架構、預訓練模型、大語言模型訓練與應用等領域。相較於僅以應用為導向的實作教材,本書更注重方法論、模型結構與設計邏輯,透過引導方式逐步建構讀者對自然語言處理任務類型、演算法發展脈絡與各類模型原理的理解,並提供必要的數學符號與程式碼範例輔助說明,特別針對BERTGPT等模型提供演化系譜與結構剖析,搭配模型調配、微調、部署與評估技術,兼顧訓練方法與應用實作需求,對希望掌握現代語言模型核心機制與架構實現的技術開發者與研究人員具實質參考價值。

作者簡介

王成

華東交通大學電腦應用技術碩士畢業,機器學習領域知乎專欄常駐作者,自媒體創作者。專注於機器學習、深度學習技術原理分享,寫作8年累積數百萬字手稿,出版了《跟我一起學機器學習》,並著有 This Post Is All You Need 等電子讀物。

 

黃曉輝

哈爾濱工業大學電腦軟體與理論博士畢業,華東交通大學資訊工程學院教授、博士研究生導師,南洋理工大學電腦科學與工程學院訪問學者,贛鄱俊才支持計畫高校領軍人才(青年領軍人才),江西省傑出青年基金得主,江西省自然科學二等獎(排名第一)獲得者。長期從事深度學習、機器學習相關領域的研究工作,主持多項國家級和省級課題,並獲得多項發明專利。

目錄大綱

1 深度學習簡介

1.1 深度學習的發展階段

1.2 深度學習中的關鍵人物

1.3 深度學習框架介紹

1.4 本書的系統結構

 

2 環境設定

2.1 系統結構介紹

2.2 深度學習環境安裝

2.3 開發環境安裝設定

 

3 深度學習基礎

3.1 線性迴歸

3.2 線性迴歸的簡捷實現

3.3 梯度下降與反向傳播

3.4 從零實現迴歸模型

3.5 從邏輯迴歸到Softmax 迴歸

3.6 Softmax 迴歸的簡捷實現

3.7 從零實現分類模型

3.8 迴歸模型評估指標

3.9 分類模型評估指標

3.10 過擬合與正規化

3.11 超參數與交叉驗證

3.12 啟動函式

3.13 多標籤分類

 

4 卷積神經網路

4.1 卷積的概念

4.2 卷積的計算過程

4.3 填充和池化

4.4 LeNet5 網路

4.5 AlexNet 網路

4.6 VGG 網路

4.7 NIN 網路

4.8 GoogLeNet 網路

4.9 ResNet 網路

4.10 DenseNet 網路

 

5 模型訓練與重複使用

5.1 參數及日誌管理

5.2 TensorBoard 視覺化

5.3 模型的儲存與重複使用

5.4 模型的遷移學習

5.5 開放原始碼模型重複使用

5.6 GPU 訓練

5.7 資料前置處理快取

 

6 模型最佳化方法

6.1 學習率排程器

6.2 梯度裁剪

6.3 批歸一化

6.4 層歸一化

6.5 組歸一化

6.6 動量法

6.7 AdaGrad 演算法

6.8 AdaDelta 演算法

6.9 Adam 演算法

6.10 初始化方法

 

7 循環神經網路

7.1 RNN

7.2 時序資料

7.3 LSTM 網路

7.4 GRU 網路

7.5 BiRNN 網路

7.6 CharRNN 網路

 

8 時序與模型融合

8.1 TextCNN

8.2 TextRNN

8.3 CNN-RNN

8.4 ConvLSTM 網路

8.5 3DCNN

8.6 STResNet

 

9 自然語言處理

9.1 自然語言處理介紹

9.2 Word2Vec 詞向量

9.3 Word2Vec 訓練與使用

9.4 GloVe 詞向量

9.5 詞向量的微調使用

9.6 fastText 網路

9.7 Seq2Seq 網路

9.8 序列模型評價指標

9.9 NMT 網路

9.10 注意力機制

9.11 含注意力的NMT 網路

9.12 含注意力的RNN

 

10 現代神經網路

10.1 ELMo 網路

10.2 Transformer 網路

10.3 Transformer 結構

10.4 Transformer 實現

10.5 Transformer 對聯模型

10.6 BERT 網路

10.7 從零實現BERT

10.8 BERT 文字分類模型

10.9 BERT 問題選擇模型

10.10 BERT 問題回答模型

10.11 BERT 命名實體辨識模型

10.12 BERT 從零訓練

10.13 GPT-1 模型

10.14 GPT-2 GPT-3 模型

10.15 基於GPT-2 的中文預訓練模型

10.16 InstructGPT ChatGPT

10.17 ChatGPT 與提示詞工程

10.18 百川大模型使用

10.19 百川大模型實現

10.20 GPT-4 GPT 的使用