自然語言處理:基於大語言模型的方法
車萬翔,郭江,崔一鳴
- 出版商: 電子工業
- 出版日期: 2025-03-01
- 定價: $948
- 售價: 7.9 折 $749
- 語言: 簡體中文
- 頁數: 440
- ISBN: 7121495988
- ISBN-13: 9787121495984
-
相關分類:
Natural Language Processing
-
相關翻譯:
完整複習 NLP - 圍繞 LLM 打造自然語言處理應用 (繁中版)
立即出貨
買這商品的人也買了...
-
$796深度學習 -
深度學習|生命科學應用 (Deep Learning for the Life Sciences)$580$458 -
$216智能數據分析與應用 -
$322智能數據治理 — 基於大模型、知識圖譜 -
$245機器學習中的樣例選擇 -
$581ChatGPT 網絡安全實例精解 -
數據指標體系 構建方法與應用實踐$534$507 -
$505大模型應用開發 核心技術與領域實踐 -
$505AI賦能 -
$556底層視覺之美:高清大片背後的人工智能 -
$505大數據智慧風控:業務解析、核心演算法與尖端技術 -
新一代人工智能:從深度學習到大模型$534$507 -
MATLAB 程序設計 — 重新定義科學計算工具學習方法, 2/e$474$450 -
$250文本大數據分析方法及應用--基於主題模型與機器學習理論 -
$560多模態大模型技術與開發實戰 -
$305解鎖 DeepSeek:開啟多元智能應用新時代 -
$505智能體設計指南 成為提示詞高手和 AI Agent 設計師 -
生成式 AI 賦能一本通 編程數據科學與專業寫作$588$559 -
$611大模型智能推薦系統:技術解析與開發實踐 -
$564向量數據庫:大模型驅動的智能檢索與應用 -
$301集成多標簽學習方法 -
OpenCV 電腦視覺開發實踐:基於 Python$774$735 -
$454輕松拿捏大數據算法面試 -
深度學習詳解|台大李宏毅老師機器學習課程精粹$750$593 -
AI 工程|從基礎模型建構應用 (AI Engineering : Building Applications with Foundation Models)$1,200$948
中文年末書展|繁簡參展書2書75折 詳見活動內容 »
-
75折
為你寫的 Vue Components:從原子到系統,一步步用設計思維打造面面俱到的元件實戰力 (iThome 鐵人賽系列書)$780$585 -
75折
BDD in Action, 2/e (中文版)$960$720 -
75折
看不見的戰場:社群、AI 與企業資安危機$750$563 -
79折
AI 精準提問 × 高效應用:DeepSeek、ChatGPT、Claude、Gemini、Copilot 一本搞定$390$308 -
7折
超實用!Word.Excel.PowerPoint 辦公室 Office 365 省時高手必備 50招, 4/e (暢銷回饋版)$420$294 -
75折
裂縫碎光:資安數位生存戰$550$412 -
日本當代最強插畫 2025 : 150位當代最強畫師豪華作品集$640$576 -
79折
Google BI 解決方案:Looker Studio × AI 數據驅動行銷實作,完美整合 Google Analytics 4、Google Ads、ChatGPT、Gemini$630$498 -
79折
超有料 Plus!職場第一實用的 AI 工作術 - 用對 AI 工具、自動化 Agent, 讓生產力全面進化!$599$473 -
75折
從零開始學 Visual C# 2022 程式設計, 4/e (暢銷回饋版)$690$518 -
75折
Windows 11 制霸攻略:圖解 AI 與 Copilot 應用,輕鬆搞懂新手必學的 Windows 技巧$640$480 -
75折
精準駕馭 Word!論文寫作絕非難事 (好評回饋版)$480$360 -
Sam Yang 的插畫藝術:用 Procreate / PS 畫出最強男友視角 x 女孩美好日常$699$629 -
79折
AI 加持!Google Sheets 超級工作流$599$473 -
78折
想要 SSR? 快使用 Nuxt 吧!:Nuxt 讓 Vue.js 更好處理 SEO 搜尋引擎最佳化(iThome鐵人賽系列書)$780$608 -
78折
超實用!業務.總管.人資的辦公室 WORD 365 省時高手必備 50招 (第二版)$500$390 -
7折
Node-RED + YOLO + ESP32-CAM:AIoT 智慧物聯網與邊緣 AI 專題實戰$680$476 -
79折
「生成式⇄AI」:52 個零程式互動體驗,打造新世代人工智慧素養$599$473 -
7折
Windows APT Warfare:惡意程式前線戰術指南, 3/e$720$504 -
75折
我輩程式人:回顧從 Ada 到 AI 這條程式路,程式人如何改變世界的歷史與未來展望 (We, Programmers: A Chronicle of Coders from Ada to AI)$850$637 -
75折
不用自己寫!用 GitHub Copilot 搞定 LLM 應用開發$600$450 -
79折
Tensorflow 接班王者:Google JAX 深度學習又快又強大 (好評回饋版)$780$616 -
79折
GPT4 會你也會 - 共融機器人的多模態互動式情感分析 (好評回饋版)$700$553 -
79折
技術士技能檢定 電腦軟體應用丙級術科解題教本|Office 2021$460$363 -
75折
Notion 與 Notion AI 全能實戰手冊:生活、學習與職場的智慧策略 (暢銷回饋版)$560$420
相關主題
商品描述
自然語言處理被譽為“人工智能皇冠上的明珠”。深度學習等技術的引入為自然語言處理技術帶來了一場革命,尤其是近年來出現的基於大語言模型的方法,已成為研究自然語言處理的新範式。本書在介紹自然語言處理、深度學習等基本概念的基礎上,重點介紹新的基於預訓練語言模型和大語言模型的自然語言處理技術。本書包括基礎知識、預訓練語言模型和大語言模型三部分:基礎知識部分主要介紹自然語言處理和深度學習的基礎知識、基本工具集和常用數據集;預訓練語言模型部分主要介紹語言模型、預訓練詞向量、預訓練語言模型的實現方法和應用;大語言模型部分首先介紹大語言模型的預訓練方法,其次介紹大語言模型的適配、應用和評估方法,接著介紹基於預訓練語言模型思想的各種延伸技術,最後以DeepSeek 系列模型為例,介紹大語言模型的最新技術進展。除了理論知識,本書還有針對性地結合具體案例提供相應的PyTorch 代碼實現,讓讀者不僅能對理論有更深刻的理解,還能快速地實現自然語言處理模型,達到理論和實踐的統一。本書既適合具有一定機器學習基礎的高等院校學生、研究機構的研究者,以及希望深入研究自然語言處理算法的電腦工程師閱讀,也適合對人工智能、深度學習、大語言模型和自然語言處理感興趣的學生和希望進入人工智能應用領域的研究者參考。
作者簡介
車萬翔,博士,哈爾濱工業大學教授,博士生導師,斯坦福大學訪問學者。研究方向為自然語言處理。在CoNLL、SANICL、SemEval等國際評測獲得過冠軍。任ACL、DLING、EMNLP等國際會議領域主席。負責研發的語言技術平臺(LTP)已被600余家單位共享,並授權給百度、騰訊、華為等公司使用。曾獲黑龍江科技進步一等獎、技術發明二等獎;漢王青年創新獎一等獎;錢偉長中文信息處理科學獎等獎項。2017年主講的“Python語言程序設計”課程獲國家精品在線開放課程稱號。
目錄大綱
目錄
推薦序III
推薦語IV
前言VI
數學符號X
第1 部分基礎知識
第1 章緒論2
1.1 自然語言處理的概念3
1.2 自然語言處理的難點.3
1.3 自然語言處理任務體系5
1.3.1 任務層級5
1.3.2 任務類別6
1.3.3 研究對象與層次6
1.4 自然語言處理技術發展歷史7
第2 章自然語言處理基礎11
2.1 文本的表示12
2.1.1 詞的獨熱表示12
2.1.2 詞的分佈表示13
2.1.3 詞嵌入表示18
2.1.4 文本的詞袋表示18
2.2 自然語言處理任務19
2.2.1 自然語言處理基礎任務19
2.2.2 自然語言處理應用任務25
2.3 基本問題30
2.3.1 文本分類問題30
2.3.2 結構預測問題30
2.3.3 序列到序列問題33
2.4 評價指標34
2.4.1 自然語言理解類任務的評價指標35
2.4.2 自然語言生成類任務的評價指標36
2.5 小結37
第3 章基礎工具集與常用數據集38
3.1 tiktoken 子詞切分工具39
3.2 NLTK 工具集40
3.2.1 常用語料庫和詞典資源41
3.2.2 常用自然語言處理工具集43
3.3 LTP 工具集45
3.3.1 中文分詞45
3.3.2 其他中文自然語言處理功能45
3.4 PyTorch 基礎46
3.4.1 張量的基本概念46
3.4.2 張量的基本運算47
3.4.3 自動微分 51
3.4.4 調整張量形狀52
3.4.5 廣播機制53
3.4.6 索引與切片54
3.4.7 降維與升維54
3.5 大規模預訓練數據集55
3.5.1 維基百科數據55
3.5.2 原始數據的獲取55
3.5.3 語料處理方法56
3.5.4 其他文本預訓練數據集59
3.5.5 文本預訓練數據集討論60
3.6 更多數據集60
3.7 小結62
第4 章自然語言處理中的神經網絡基礎63
4.1 多層感知器模型64
4.1.1 感知器64
4.1.2 線性回歸64
4.1.3 Logistic 回歸65
4.1.4 Softmax 回歸66
4.1.5 多層感知器67
4.1.6 模型實現68
4.2 捲積神經網絡70
4.2.1 模型結構70
4.2.2 模型實現72
4.3 循環神經網絡74
4.3.1 模型結構74
4.3.2 長短時記憶網絡75
4.3.3 模型實現77
4.3.4 基於循環神經網絡的序列到序列模型79
4.4 Transformer 模型79
4.4.1 註意力機制79
4.4.2 自註意力模型80
4.4.3 Transformer81
4.4.4 基於Transformer 的序列到序列模型85
4.4.5 Transformer 模型的優缺點85
4.4.6 PyTorch 內置模型實現 86
4.5 神經網絡模型的訓練87
4.5.1 損失函數87
4.5.2 梯度下降89
4.6 自然語言處理中的神經網絡實戰92
4.6.1 情感分類實戰92
4.6.2 詞性標註實戰102
4.7 小結104
第2 部分預訓練語言模型
第5 章語言模型107
5.1 語言模型的基本概念108
5.2 N 元語言模型108
5.2.1 N 元語言模型的基本概念108
5.2.2 N 元語言模型的實現109
5.2.3 N 元語言模型的平滑111
5.3 神經網絡語言模型112
5.3.1 前饋神經網絡語言模型113
5.3.2 循環神經網絡語言模型114
5.3.3 Transformer 語言模型116
5.3.4 基於神經網絡語言模型生成文本 117
5.4 語言模型的實現118
5.4.1 數據準備 118
5.4.2 前饋神經網絡語言模型119
5.4.3 循環神經網絡語言模型122
5.4.4 Transformer 語言模型125
5.5 語言模型性能評價129
5.6 小結130
第6 章預訓練詞向量131
6.1 預訓練靜態詞向量132
6.1.1 基於神經網絡語言模型的靜態詞向量預訓練132
6.1.2 Word2vec 詞向量132
6.1.3 負採樣135
6.1.4 GloVe 詞向量136
6.1.5 模型實現137
6.1.6 評價與應用143
6.2 預訓練動態詞向量148
6.2.1 雙向語言模型149
6.2.2 ELMo 詞向量151
6.2.3 模型實現 152
6.2.4 評價與應用162
6.3 小結 164
第7 章預訓練語言模型166
7.1 概述167
7.2 Decoder-only 模型167
7.2.1 GPT 168
7.2.2 GPT-2 172
7.2.3 GPT-3 173
7.3 Encoder-only 模型174
7.3.1 BERT 174
7.3.2 RoBERTa 185
7.3.3 ALBERT 189
7.3.4 ELECTRA 191
7.3.5 MacBERT 194
7.3.6 模型對比196
7.4 Encoder-Decoder 模型196
7.4.1 T5 197
7.4.2 BART 198
7.5 預訓練模型的任務微調:NLU 類201
7.5.1 單句文本分類202
7.5.2 句對文本分類205
7.5.3 閱讀理解207
7.5.4 序列標註211
7.6 預訓練模型的任務微調:NLG 類216
7.6.1 文本生成216
7.6.2 機器翻譯217
7.7 小結220
第3 部分 大語言模型
第8 章 大語言模型的預訓練222
8.1 大語言模型的基本結構223
8.1.1 Llama 223
8.1.2 Mixtral 226
8.1.3 縮放法則228
8.1.4 常見大語言模型對比230
8.2 註意力機制的優化230
8.2.1 稀疏註意力231
8.2.2 多查詢註意力與分組查詢註意力233
8.2.3 FlashAttention 234
8.3 位置編碼策略237
8.3.1 RoPE 237
8.3.2 ALiBi 240
8.4 長上下文處理策略242
8.4.1 位置插值法242
8.4.2 基於NTK 的方法245
8.4.3 LongLoRA 246
8.4.4 YaRN 247
8.5 並行訓練策略251
8.5.1 數據並行251
8.5.2 模型並行252
8.5.3 流水線並行254
8.5.4 混合並行254
8.5.5 零冗餘優化255
8.5.6 DeepSpeed 256
8.6 小結257
第9 章大語言模型的適配258
9.1 引言259
9.2 基於提示的推斷259
9.2.1 提示工程260
9.2.2 檢索與工具增強267
9.3 多任務指令微調269
9.3.1 現有數據集轉換271
9.3.2 自動生成指令數據集271
9.3.3 指令微調的實現273
9.4 基於人類反饋的強化學習276
9.4.1 基於人類反饋的強化學習算法的原理276
9.4.2 基於人類反饋的強化學習算法的改進279
9.4.3 人類偏好數據集280
9.5 參數高效精調280
9.5.1 LoRA 281
9.5.2 QLoRA 284
9.5.3 Adapter 288
9.5.4 Prefix-tuning 289
9.5.5 P-tuning 290
9.5.6 Prompt-tuning 291
9.6 大語言模型的中文適配 292
9.6.1 中文詞表擴充 292
9.6.2 中文增量訓練 295
9.7 大語言模型壓縮 296
9.7.1 知識蒸餾 296
9.7.2 模型裁剪 302
9.7.3 參數量化 305
9.8 小結 310
第10 章大語言模型的應用311
10.1 大語言模型的應用示例312
10.1.1 知識問答 312
10.1.2 人機對話 313
10.1.3 文本摘要 314
10.1.4 代碼生成 315
10.2 生成指令數據 316
10.2.1 Self-Instruct 316
10.2.2 Alpaca 319
10.2.3 WizardLM 322
10.3 大語言模型的量化與部署324
10.3.1 llama.cpp 324
10.3.2 transformers 329
10.3.3 vLLM 332
10.4 本地化開發與應 335
10.4.1 LangChain 335
10.4.2 privateGPT 338
10.5 工具調用與自動化 342
10.5.1 AutoGPT 342
10.5.2 HuggingGPT 346
10.6 小結348
第11 章大語言模型的能力評349
11.1 引言350
11.2 通用領域及任務評估350
11.2.1 語言理解能力350
11.2.2 文本生成能力352
11.2.3 知識與推理能力357
11.3 特定領域及任務評估360
11.3.1 數學360
11.3.2 代碼360
11.4 模型對齊能力評估362
11.4.1 有用性363
11.4.2 無害性365
11.4.3 安全性367
11.4.4 真實性367
11.5 大語言模型的評價方法368
11.5.1 評價設置:適配368
11.5.2 自動評價方法369
11.5.3 人工評價方法370
11.5.4 紅隊測試371
11.6 小結372
第12 章預訓練語言模型的延伸374
12.1 多語言預訓練模型375
12.1.1 多語言BERT 375
12.1.2 跨語言預訓練語言模型376
12.1.3 多語言預訓練語言模型的應用378
12.1.4 大規模多語言模型379
12.2 代碼預訓練模型379
12.2.1 代表性代碼預訓練模型380
12.2.2 代碼預訓練模型的對齊383
12.2.3 代碼預訓練模型的應用383
12.3 多模態預訓練模型384
12.3.1 掩碼圖像模型384
12.3.2 基於對比學習的多模態預訓練模型.386
12.3.3 圖到文預訓練模型388
12.3.4 圖像或視頻生成390
12.4 具身預訓練模型392
12.5 小結394
第13 章DeepSeek 系列模型原理簡介395
13.1 DeepSeek 系列模型概述396
13.2 模型架構優化398
13.2.1 算法優化398
13.2.2 基礎設施優化 402
13.3 基於強化學習習得推理能力405
13.3.1 DeepSeek-R1-Zero:僅通過強化學習習得推理能力405
13.3.2 DeepSeek-R1:規範性和泛化性408
13.3.3 蒸餾: 推理能力的遷移 411
13.4 小結 411
參考文獻413
術語表421
