業界實戰親授 - 大型語言模型微調、最佳化、佈署一次到位
莊建、滕海云、莊金蘭 著
- 出版商: 深智
- 出版日期: 2025-06-19
- 定價: $980
- 售價: 7.9 折 $774
- 語言: 繁體中文
- 頁數: 424
- ISBN: 6267569934
- ISBN-13: 9786267569931
- 此書翻譯自: 大模型實戰:微調、優化與私有化部署
尚未上市,歡迎預購
買這商品的人也買了...
-
$880$695 -
$580$493 -
$650$507 -
$750$593
相關主題
商品描述
►回顧對話機器人歷史,從人機交流到現代語言模型
►解析人工智慧發展,聚焦通用人工智慧(AGI)
►指導大型語言模型私有化部署,涵蓋環境建置
►介紹語言模型核心理論,從統計方法到Transformer
►解析Hugging Face與Transformers函數庫應用
►介紹高效微調技術,如Prompt Tuning與LoRA
►實作LoRA與QLoRA微調GLM-4,提升效能
►探討提示工程,提升模型推理與應用能力
►解析多角色對話與AI Agent的運作模式
►介紹LangChain框架,涵蓋Chain與Agents
►展示垂直領域模型應用,以紅十字會資料實作
►解析檢索增強生成(RAG),結合LLM與知識庫
本書第一章回顧對話機器人的發展,探討人工智慧的演進與未來趨勢。第二章介紹大型語言模型的私有化部署,包括CUDA環境建置、PyTorch安裝與GLM-4模型執行。第三章解析語言模型的理論基礎,涵蓋統計語言模型、Transformer架構與Attention機制。第四章說明Hugging Face與Transformers函數庫的應用,幫助讀者開發與微調LLM。第五章介紹高效微調技術,如Prompt Tuning、LoRA、QLoRA等方法,提升模型效能。第六章進一步探討LoRA微調GLM-4的實戰應用與量化技術。第七章解析提示工程,說明Few-shot、Chain of Thought等推理增強技術。第八章介紹AI Agent與多角色對話模式,並探討Function Calling的應用。第九章深入LangChain框架,涵蓋Chain、Memory與Agents的實作,並整合資料庫與檢索增強生成(RAG)技術。第十章展示大型模型在垂直領域的應用,例如微調GLM-4處理紅十字會資料,提供完整的實戰示範。
目錄大綱
▍第1章 從零開始大型模型之旅
1.1 對話機器人歷史
1.1.1 人機同頻交流
1.1.2 人機對話發展歷史
1.2 人工智慧
1.2.1 從感知到創造
1.2.2 通用人工智慧
1.2.3 發展方向
1.2.4 本書焦點
1.3 本章小結
▍第2章 大型模型私有化部署
2.1 CUDA 環境準備
2.1.1 基礎環境
2.1.2 大型模型執行環境
2.1.3 安裝顯示卡驅動
2.1.4 安裝CUDA
2.1.5 安裝cuDNN
2.2 深度學習環境準備
2.2.1 安裝Anaconda 環境
2.2.2 伺服器環境下的環境啟動
2.2.3 安裝PyTorch
2.3 GLM-3 和GLM-4
2.3.1 GLM-3 介紹
2.3.2 GLM-4 介紹
2.4 GLM-4 私有化部署
2.4.1 建立虛擬環境
2.4.2 下載GLM-4 專案檔案
2.4.3 安裝專案相依套件
2.4.4 下載模型權重
2.5 執行GLM-4 的方式
2.5.1 基於命令列的互動式對話
2.5.2 基於Gradio 函數庫的Web 端對話應用
2.5.3 OpenAI 風格的API 呼叫方法
2.5.4 模型量化部署
2.6 本章小結
▍第3章 大型模型理論基礎
3.1 自然語言領域中的資料
3.1.1 時間序列資料
3.1.2 分詞
3.1.3 Token
3.1.4 Embedding
3.1.5 語義向量空間
3.2 語言模型歷史演進
3.2.1 語言模型歷史演進
3.2.2 統計語言模型
3.2.3 神經網路語言模型
3.3 注意力機制
3.3.1 RNN 模型
3.3.2 Seq2Seq 模型
3.3.3 Attention 注意力機制
3.4 Transformer 架構
3.4.1 整體架構
3.4.2 Self-Attention
3.4.3 Multi-Head Attention
3.4.4 Encoder
3.4.5 Decoder
3.4.6 實驗效果
3.5 本章小結
▍第4章 大型模型開發工具
4.1 Huggingface
4.1.1 Huggingface 介紹
4.1.2 安裝Transformers 函數庫
4.2 大型模型開發工具
4.2.1 開發範式
4.2.2 Transformers 函數庫核心設計
4.3 Transformers 函數庫詳解
4.3.1 NLP 任務處理全流程
4.3.2 資料轉換形式
4.3.3 Tokenizer
4.3.4 模型載入和解讀
4.3.5 模型的輸出
4.3.6 模型的儲存
4.4 全量微調訓練方法
4.4.1 Datasets 函數庫和Accelerate 函數庫
4.4.2 資料格式
4.4.3 資料前置處理
4.4.4 模型訓練的參數
4.4.5 模型訓練
4.4.6 模型評估
4.5 本章小結
▍第5章 高效微調方法
5.1 主流的高效微調方法介紹
5.1.1 微調方法介紹
5.1.2 Prompt 的提出背景
5.2 PEFT 函數庫快速入門
5.2.1 介紹
5.2.2 設計理念
5.2.3 使用
5.3 Prefix Tuning
5.3.1 背景
5.3.2 核心技術解讀
5.3.3 實現步驟
5.3.4 實驗結果
5.4 Prompt Tunin
5.4.1 背景
5.4.2 核心技術解讀
5.4.3 實現步驟
5.4.4 實驗結果
5.5 P-Tuning
5.5.1 背景
5.5.2 核心技術解讀
5.5.3 實現步驟
5.5.4 實驗結果
5.6 P-Tuning V2
5.6.1 背景
5.6.2 核心技術解讀
5.6.3 實現步驟
5.6.4 實驗結果
5.7 本章小結
▍第6章 LoRA 微調GLM-4 實戰
6.1 LoRA
6.1.1 背景
6.1.2 核心技術解讀
6.1.3 LoRA 的特點
6.1.4 實現步驟
6.1.5 實驗結果
6.2 AdaLoRA
6.2.1 LoRA 的缺陷
6.2.2 核心技術解讀
6.2.3 實現步驟
6.2.4 實驗結果
6.3 QLoRA
6.3.1 背景
6.3.2 技術原理解析
6.4 量化技術
6.4.1 背景
6.4.2 量化技術分類
6.4.3 BitsAndBytes 函數庫
6.4.4 實現步驟
6.4.5 實驗結果
6.5 本章小結
▍第7章 提示工程入門與實踐
7.1 探索大型模型潛力邊界
7.1.1 潛力的來源
7.1.2 Prompt 的六個建議
7.2 Prompt 實踐
7.2.1 四個經典推理問題
7.2.2 大型模型原始表現
7.3 提示工程
7.3.1 提示工程的概念
7.3.2 Few-shot
7.3.3 透過思維鏈提示法提升模型推理能力
7.3.4 Zero-shot-CoT 提示方法
7.3.5 Few-shot-CoT 提示方法
7.4 Least-to-Most Prompting(LtM 提示方法)
7.4.1 Least-to-Most Prompting 基本概念
7.4.2 Zero-shot-LtM 提示過程
7.4.3 效果驗證
7.5 提示使用技巧
7.5.1 B.R.O.K.E 提示框架
7.5.2 C.O.A.S.T 提示框架
7.5.3 R.O.S.E.S 提示框架
7.6 本章小結
▍第8章 大型模型與中介軟體
8.1 AI Agent
8.1.1 從AGI 到Agent
8.1.2 Agent 概念
8.1.3 AI Agent 應用領域
8.2 大型模型對話模式
8.2.1 模型分類
8.2.2 多角色對話模式
8.3 多角色對話模式實戰
8.3.1 messages 參數結構及功能解釋
8.3.2 messages 參數中的角色劃分
8.4 Function Calling 功能
8.4.1 發展歷史
8.4.2 簡單案例
8.5 實現多函數
8.5.1 定義多個工具函數
8.5.2 測試結果
8.6 Bing 搜索嵌入LLM
8.6.1 曇花一現的Browsing with Bing
8.6.2 需求分析
8.6.4 建構自動搜索問答機器人
8.7 本章小結
▍第9章 LangChain 理論與實戰
9.1 整體介紹
9.1.1 什麼是LangChain
9.1.2 意義
9.1.3 整體架構
9.2 Model I/O
9.2.1 架構
9.2.2 LLM
9.2.3 ChatModel
9.2.4 Prompt Template
9.2.5 實戰:LangChain 連線本地GLM
9.2.6 Parser
9.3 Chain
9.3.1 基礎概念
9.3.2 常用的Chain
9.4 Memory
9.4.1 基礎概念
9.4.2 流程解讀
9.4.3 常用Memory
9.5 Agents
9.5.1 理論
9.5.2 快速入門
9.5.3 架構
9.6 LangChain 實現Function Calling
9.6.1 工具定義
9.6.2 OutputParser
9.6.3 使用
9.7 本章小結
▍第10章 實戰:垂直領域大型模型
10.1 QLoRA 微調GLM-4
10.1.1 定義全域變數和參數
10.1.2 紅十字會資料準備
10.1.3 訓練模型
10.2 大型模型連線資料庫
10.2.1 大型模型挑戰
10.2.2 資料集準備
10.2.3 SQLite3
10.2.4 獲取資料庫資訊
10.2.5 建構tools 資訊
10.2.6 模型選擇
10.2.7 效果測試
10.3 LangChain 重寫查詢
10.3.1 環境配置
10.3.2 工具使用
10.4 RAG 檢索增強
10.4.1 自動化資料生成
10.4.2 RAG 架設
10.5 本章小結
▍參考文獻