大語言模型
大語言模型
- 出版商: 機械工業
- 出版日期: 2024-09-01
- 定價: $534
- 售價: 8.5 折 $454
- 語言: 簡體中文
- 頁數: 234
- 裝訂: 平裝
- ISBN: 7111762762
- ISBN-13: 9787111762768
-
相關分類:
Large language model
立即出貨 (庫存 < 4)
買這商品的人也買了...
中文年末書展|繁簡參展書2書75折 詳見活動內容 »
-
75折
為你寫的 Vue Components:從原子到系統,一步步用設計思維打造面面俱到的元件實戰力 (iThome 鐵人賽系列書)$780$585 -
75折
BDD in Action, 2/e (中文版)$960$720 -
75折
看不見的戰場:社群、AI 與企業資安危機$750$563 -
79折
AI 精準提問 × 高效應用:DeepSeek、ChatGPT、Claude、Gemini、Copilot 一本搞定$390$308 -
7折
超實用!Word.Excel.PowerPoint 辦公室 Office 365 省時高手必備 50招, 4/e (暢銷回饋版)$420$294 -
75折
裂縫碎光:資安數位生存戰$550$412 -
85折
日本當代最強插畫 2025 : 150位當代最強畫師豪華作品集$640$544 -
79折
Google BI 解決方案:Looker Studio × AI 數據驅動行銷實作,完美整合 Google Analytics 4、Google Ads、ChatGPT、Gemini$630$498 -
79折
超有料 Plus!職場第一實用的 AI 工作術 - 用對 AI 工具、自動化 Agent, 讓生產力全面進化!$599$473 -
75折
從零開始學 Visual C# 2022 程式設計, 4/e (暢銷回饋版)$690$518 -
75折
Windows 11 制霸攻略:圖解 AI 與 Copilot 應用,輕鬆搞懂新手必學的 Windows 技巧$640$480 -
75折
精準駕馭 Word!論文寫作絕非難事 (好評回饋版)$480$360 -
Sam Yang 的插畫藝術:用 Procreate / PS 畫出最強男友視角 x 女孩美好日常$699$629 -
79折
AI 加持!Google Sheets 超級工作流$599$473 -
78折
想要 SSR? 快使用 Nuxt 吧!:Nuxt 讓 Vue.js 更好處理 SEO 搜尋引擎最佳化(iThome鐵人賽系列書)$780$608 -
78折
超實用!業務.總管.人資的辦公室 WORD 365 省時高手必備 50招 (第二版)$500$390 -
7折
Node-RED + YOLO + ESP32-CAM:AIoT 智慧物聯網與邊緣 AI 專題實戰$680$476 -
79折
「生成式⇄AI」:52 個零程式互動體驗,打造新世代人工智慧素養$599$473 -
7折
Windows APT Warfare:惡意程式前線戰術指南, 3/e$720$504 -
75折
我輩程式人:回顧從 Ada 到 AI 這條程式路,程式人如何改變世界的歷史與未來展望 (We, Programmers: A Chronicle of Coders from Ada to AI)$850$637 -
75折
不用自己寫!用 GitHub Copilot 搞定 LLM 應用開發$600$450 -
79折
Tensorflow 接班王者:Google JAX 深度學習又快又強大 (好評回饋版)$780$616 -
79折
GPT4 會你也會 - 共融機器人的多模態互動式情感分析 (好評回饋版)$700$553 -
79折
技術士技能檢定 電腦軟體應用丙級術科解題教本|Office 2021$460$363 -
75折
Notion 與 Notion AI 全能實戰手冊:生活、學習與職場的智慧策略 (暢銷回饋版)$560$420
相關主題
商品描述
本書系統性地介紹了大語言模型的理論基礎、技術架構、應用實踐和發展趨勢,旨在為讀者深入瞭解大語言模型相關知識提供參考。
本書共10章,從邏輯上分為四個部分:
第一部分(第1-4章)由語言模型的基本概念入手,介紹了大模型的基礎構件、技術發展的脈絡及範式,以及模型對齊的方法;
第二部分(第5和6章)詳細介紹了大模型的評測與分佈式訓練的基本原理;
第三部分(第7-9章)著重介紹了大模型在垂直場景的應用、知識融合與工具使用的方法及大模型最佳化的高階主題;
第四部分(第10章)展望了大模型未來的發展方向與挑戰。
作者簡介
蘇之陽,博士,畢業於香港科技大學,現任小冰公司研發總監,專註於自然語言處理產品的研發工作。他主導了小冰框架、小冰智能評論和XEva等項目的架構設計和開發,特別是在大語言模型的研發與應用方面具有豐富的經驗。他曾任微軟公司資深研發工程師,並在國際學術會議和期刊上發表多篇高水平學術論文。他的研究興趣涵蓋自然語言處理、深度學習以及雲計算等領域。
目錄大綱
前言
第1章 語言模型簡介
1.1 傳統語言模型
1.1.1 n-gram語言模型
1.1.2 神經網絡語言模型
1.1.3 傳統語言模型的應用
1.2 大語言模型
1.2.1 大模型的發展歷程
1.2.2 訓練大模型的挑戰
1.2.3 大模型的應用
1.3 大模型實例
1.3.1 基座模型實例
1.3.2 對齊模型實例
1.4 小結
第2章 大模型網絡結構
2.1 Seq2Seq結構
2.2 註意力機制
2.3 Transformer架構
2.3.1 Transformer模型結構
2.3.2 編碼器單元
2.3.3 解碼器單元
2.3.4 位置編碼
2.4 詞元化
2.4.1 BPE
2.4.2 字節級BPE
2.4.3 WordPiece
2.4.4 Unigram語言模型
2.4.5 SentencePiece
2.5 解碼策略
2.5.1 貪心搜索
2.5.2 集束搜索
2.5.3 Top-k採樣
2.5.4 核採樣
2.5.5 溫度採樣
2.6 小結
第3章 大模型學習範式的演進
3.1 預訓練與微調的原理和典型模型
3.1.1 預訓練與微調
3.1.2 三個典型模型
3.2 多任務學習的原理和典型模型
3.2.1 多任務學習
3.2.2 兩個典型模型
3.3 大規模模型的能力
3.3.1 少樣本學習
3.3.2 提示學習
3.3.3 上下文學習
3.4 小結
第4章 大模型對齊訓練
4.1 對齊
4.1.1 對齊的定義
4.1.2 對齊的衡量指標
4.2 基於人類反饋的強化學習
4.2.1 監督微調的原理
4.2.2 訓練獎勵模型的原理
4.2.3 強化學習的原理
4.3 基於AI反饋的強化學習
4.4 直接偏好優化
4.5 超級對齊
4.6 小結
第5章 大模型評測與數據集
5.1 大模型評測方法
5.1.1 人工評測
5.1.2 自動評測
5.2 大模型評測指標
5.2.1 準確率、精確率、召回率與F1分數
5.2.2 困惑度
5.2.3 BLEU與ROUGE
5.2.4 pass@k
5.3 大模型能力評測基準
5.3.1 MMLU
5.3.2 GSM8K
5.3.3 C-Eval
5.3.4 HumanEval
5.4 數據集及預處理方法
5.4.1 預訓練數據集
5.4.2 指令微調數據集
5.4.3 人工反饋數據集
5.4.4 數據預處理方法
5.5 小結
第6章 分佈式訓練與內存優化
6.1 大模型擴展法則
6.2 分佈式訓練策略
6.2.1 數據並行
6.2.2 張量並行
6.2.3 流水線並行
6.2.4 混合並行
6.3 大模型訓練中的不穩定現象
6.4 分佈式訓練集群架構
6.4.1 中心化架構:參數服務器
6.4.2 去中心化架構:集合
通信
6.5 內存優化策略
6.5.1 混合精度訓練
6.5.2 梯度檢查點
6.5.3 梯度累積
6.5.4 FlashAttention
6.6 分佈式訓練框架
6.7 小結
第7章 大模型的垂直場景適配方案
7.1 從零開始訓練新模型
7.2 全量參數微調
7.3 低參數量微調
7.3.1 適配器方法
7.3.2 提示詞微調
7.3.3 前綴微調
7.3.4 LoRA
7.4 超低參數量微調的探索
7.5 小結
第8章 知識融合與工具使用
8.1 知識融合
8.1.1 檢索增強生成
8.1.2 解碼器融合
8.1.3 提示融合
8.2 工具使用
8.2.1 WebGPT
8.2.2 LaMDA
8.2.3 Toolformer
8.3 自主智能體
8.3.1 自主智能體的組件
8.3.2 自主智能體的工作流程
8.4 小結
第9章 大模型的進階優化
9.1 模型小型化
9.1.1 模型量化
9.1.2 知識蒸餾
9.1.3 參數剪枝
9.2 推理能力及其延伸
9.2.1 思維鏈
9.2.2 零樣本思維鏈
9.2.3 最少到最多提示
9.2.4 ReAct:推理能力行動能力
9.3 代碼生成
9.3.1 Codex
9.3.2 代碼生成的要素
9.4 多模態大模型
9.4.1 BEiT-3
9.4.2 CLIP
9.4.3 Flamingo
9.4.4 MiniGPT-4
9.5 高質量數據的作用與構建
9.5.1 LIMA
9.5.2 教科書級數據
9.6 模型能力“湧現”的原因
9.7 小結
第10章 大模型的局限性與未來發展方向
10.1 大模型的局限性
10.1.1 事實性錯誤
10.1.2 理解和推理缺陷
10.1.3 知識更新問題
10.1.4 安全性問題
10.1.5 計算資源限制
10.2 大模型的未來發展方向
10.2.1 更強的記憶:從通用到個性化
10.2.2 裝上“手腳”:賦予模型使用工具的能力
10.2.3 多模態交互:穿越文本的邊界
10.3 小結
參考文獻
