現代自然語言生成
黃民烈,黃斐,朱小燕
- 出版商: 電子工業
- 出版日期: 2021-01-01
- 售價: $474
- 貴賓價: 9.5 折 $450
- 語言: 簡體中文
- 頁數: 272
- 裝訂: 平裝
- ISBN: 7121402491
- ISBN-13: 9787121402494
-
相關分類:
Natural Language Processing
立即出貨 (庫存=1)
買這商品的人也買了...
-
Deep Learning|用 Python 進行深度學習的基礎理論實作$580$458 -
自然語言處理:用人工智慧看懂中文$690$587 -
$327自然語言處理實踐:聊天機器人技術原理與應用 -
Deep Learning 2|用 Python 進行自然語言處理的基礎理論實作$680$537 -
PyTorch 自然語言處理|以深度學習建立語言應用程式 (Natural Language Processing with PyTorch)$580$458 -
$505機器學習即服務:將 Python 機器學習創意快速轉變為雲端 Web 應用程序 (Monetizing Machine Learning: Quickly Turn Python ML Ideas into Web Applications on the Serverless Cloud) -
$403推薦系統開發實戰 -
$301圖解語音識別 -
$305Python Web 開發案例教程 — 使用 Flask、Tornado、Django (慕課版) -
$611機器學習:應用視角 -
Deep Learning 3|用 Python 進行深度學習框架的開發實作$780$616 -
資料密集型應用系統設計 (Designing Data-Intensive Applications: The Big Ideas Behind Reliable, Scalable, and Maintainable Systems)$980$774 -
機器學習設計模式 (Machine Learning Design Patterns: Solutions to Common Challenges in Data Preparation, Model Building, and Mlops)$680$537 -
$422文本數據挖掘基於R語言 -
$673圖深度學習 -
$551知識圖譜導論 -
深度學習 -- 最佳入門邁向 AI 專題實戰 (過版書特價)$1,200$399 -
基於 BERT 模型的自然語言處理實戰$828$787 -
$422深度學習:基於稀疏和低秩模型 -
$232智能語音信號處理及應用 -
$378PyTorch 自然語言處理入門與實戰 -
$458PyTorch 深度學習簡明實戰 -
$469精通 Transformer : 從零開始構建最先進的 NLP 模型 -
$327SAR 影像去噪聲模型及演算法 -
$331自然語言處理技術與應用
中文年末書展|繁簡參展書2書75折 詳見活動內容 »
-
75折
為你寫的 Vue Components:從原子到系統,一步步用設計思維打造面面俱到的元件實戰力 (iThome 鐵人賽系列書)$780$585 -
75折
BDD in Action, 2/e (中文版)$960$720 -
75折
看不見的戰場:社群、AI 與企業資安危機$750$563 -
79折
AI 精準提問 × 高效應用:DeepSeek、ChatGPT、Claude、Gemini、Copilot 一本搞定$390$308 -
7折
超實用!Word.Excel.PowerPoint 辦公室 Office 365 省時高手必備 50招, 4/e (暢銷回饋版)$420$294 -
75折
裂縫碎光:資安數位生存戰$550$412 -
85折
日本當代最強插畫 2025 : 150位當代最強畫師豪華作品集$640$544 -
79折
Google BI 解決方案:Looker Studio × AI 數據驅動行銷實作,完美整合 Google Analytics 4、Google Ads、ChatGPT、Gemini$630$498 -
79折
超有料 Plus!職場第一實用的 AI 工作術 - 用對 AI 工具、自動化 Agent, 讓生產力全面進化!$599$473 -
75折
從零開始學 Visual C# 2022 程式設計, 4/e (暢銷回饋版)$690$518 -
75折
Windows 11 制霸攻略:圖解 AI 與 Copilot 應用,輕鬆搞懂新手必學的 Windows 技巧$640$480 -
75折
精準駕馭 Word!論文寫作絕非難事 (好評回饋版)$480$360 -
Sam Yang 的插畫藝術:用 Procreate / PS 畫出最強男友視角 x 女孩美好日常$699$629 -
79折
AI 加持!Google Sheets 超級工作流$599$473 -
78折
想要 SSR? 快使用 Nuxt 吧!:Nuxt 讓 Vue.js 更好處理 SEO 搜尋引擎最佳化(iThome鐵人賽系列書)$780$608 -
78折
超實用!業務.總管.人資的辦公室 WORD 365 省時高手必備 50招 (第二版)$500$390 -
7折
Node-RED + YOLO + ESP32-CAM:AIoT 智慧物聯網與邊緣 AI 專題實戰$680$476 -
79折
「生成式⇄AI」:52 個零程式互動體驗,打造新世代人工智慧素養$599$473 -
7折
Windows APT Warfare:惡意程式前線戰術指南, 3/e$720$504 -
75折
我輩程式人:回顧從 Ada 到 AI 這條程式路,程式人如何改變世界的歷史與未來展望 (We, Programmers: A Chronicle of Coders from Ada to AI)$850$637 -
75折
不用自己寫!用 GitHub Copilot 搞定 LLM 應用開發$600$450 -
79折
Tensorflow 接班王者:Google JAX 深度學習又快又強大 (好評回饋版)$780$616 -
79折
GPT4 會你也會 - 共融機器人的多模態互動式情感分析 (好評回饋版)$700$553 -
79折
技術士技能檢定 電腦軟體應用丙級術科解題教本|Office 2021$460$363 -
75折
Notion 與 Notion AI 全能實戰手冊:生活、學習與職場的智慧策略 (暢銷回饋版)$560$420
相關主題
商品描述
本書總結了以神經網絡為代表的現代自然語言生成的基本思想、模型和框架。本書共12 章,首先介紹了自然語言生成的研究背景、從統計語言模型到神經網絡語言建模的過程,以及自然語言建模的思想與技術演化過程;其次從基礎模型角度介紹了基於循環神經網絡、基於Transformer 的語言生成模型,從優化方法角度介紹了基於變分自編碼器、基於生成式對抗網絡的語言生成模型,從生成方式角度介紹了非自回歸語言生成的基本模型和框架;然後介紹了融合規劃的自然語言生成、融合知識的自然語言生成、常見的自然語言生成任務和數據資源,以及自然語言生成的評價方法;最後總結了本書的寫作思路及對自然語言生成領域未來發展趨勢的展望。 本書可作為高等院校電腦科學與技術、人工智能、大數據等相關專業高年級本科生、研究生相關課程的教材,也適合從事自然語言處理研究、應用實踐的科研人員和工程技術人員參考。
作者簡介
黃民烈,博士,清華大學計算機科學與技術係長聘副教授。
主要研究興趣包括人工智能、自然語言處理,尤其是對話系統、語言生成。
曾獲中國人工智能學會吳文俊人工智能科技進步獎一等獎(****)、中文信息學會漢王青年創新獎,多次在國際主流會議獲得最佳或傑出論文獎。
研發對話系統平臺ConvLab和ConvLab-2,獲得NTCIR 2017年組織的短文本對話生成評測冠軍。
擔任神經領域頂級期刊TNNLS(SCI一區,影響因子>11)編委,自然語言處理領域頂級期刊TACL執行編輯,多次擔任自然語言處理頂級會議ACL、EMNLP的領域主席或資深領域主席。
目錄大綱
第1 章自然語言生成的研究背景. . . . . . . 1
1.1 自然語言生成的背景概述. . . . . . . 1
1.2 基本定義與研究範疇. . . . . . . . . . . . 2
1.3 自然語言生成與自然語言理解. . . 3
1.4 傳統的模塊化生成框架. . . . . . . . . 4
1.5 端到端的自然語言生成框架. . . . . 7
1.6 典型的自然語言生成任務. . . . . . . 9
1.7 自然語言生成的可控性. . . . . . . . 12
1.8 本書結構. . . . . . . . . . . . . . . . . . . . . . 14
第2 章從統計語言模型到神經網絡語言建模. . . . . . . . . . . . . . . . . . . . . . 15
2.1 統計語言模型. . . . . . . . . . . . . . . . . 15
2.1.1 基本原理. . . . . . . . . . . . . . . . . . 15
2.1.2 平滑技術. . . . . . . . . . . . . . . . . . 17
2.1.3 語言模型評價. . . . . . . . . . . . . . 19
2.1.4 統計語言模型的缺點. . . . . . . . 20
2.2 神經網絡語言模型. . . . . . . . . . . . . 21
2.2.1 前饋神經網絡語言模型. . . . . . 21
2.2.2 基於循環神經網絡的神經語言模型. . . . . . . . . . . . . . 24
2.2.3 基於Transformer 的神經語言模型. . . . . . . . . . . . . . 24
2.3 靜態詞向量模型. . . . . . . . . . . . . . . 26
2.3.1 分佈假設與分佈式表示. . . . . . 26
2.3.2 詞向量模型CBOW 和Skip-gram. . . . . . . . . . . . . . . . . 27
2.3.3 詞向量模型訓練優化:負採樣. . . . . . . . . . . . . . . . . . . . 30
2.3.4 詞向量模型訓練優化:層次化softmax . . . . . . . . . . . . 31
2.3.5 靜態詞向量的缺陷. . . . . . . . . . 32
2.4 語境化語言表示模型. . . . . . . . . . 33
2.4.1 ELMo . . . . . . . . . . . . . . . . . . . . 34
2.4.2 BERT . . . . . . . . . . . . . . . . . . . . 36
2.4.3 XLNet. . . . . . . . . . . . . . . . . . . . 38
2.5 本章小結. . . . . . . . . . . . . . . . . . . . . . 39
第3 章基於RNN 的語言生成模型. . . 41
3.1 RNN 的基本原理. . . . . . . . . . . . . . 41
3.2 RNN 的訓練算法. . . . . . . . . . . . . . 42
3.3 長短期記憶神經網絡與門控循環單元. . . . . . . . . . . . . . . . . 45
3.4 RNN 的架構設計. . . . . . . . . . . . . . 47
3.4.1 多層RNN . . . . . . . . . . . . . . . . 47
3.4.2 雙向RNN . . . . . . . . . . . . . . . . 48
3.5 基於RNN 的語言模型. . . . . . . . 48
3.5.1 模型結構. . . . . . . . . . . . . . . . . . 49
3.5.2 主要問題. . . . . . . . . . . . . . . . . . 50
3.5.3 模型改進. . . . . . . . . . . . . . . . . . 51
3.6 序列到序列模型. . . . . . . . . . . . . . . 52
3.6.1 基本原理. . . . . . . . . . . . . . . . . . 52
3.6.2 模型結構. . . . . . . . . . . . . . . . . . 53
3.6.3 註意力機制. . . . . . . . . . . . . . . . 54
3.7 解碼器的解碼方法. . . . . . . . . . . . . 57
3.7.1 基於搜索的解碼方法. . . . . . . . 59
3.7.2 基於採樣的解碼方法. . . . . . . . 61
3.8 序列到序列模型存在的問題. . . . 64
3.9 本章小結. . . . . . . . . . . . . . . . . . . . . . 65
第4 章基於Transformer 的語言生成模型. . . . . . . . . . . . . . . . . 66
4.1 Transformer 模型的基本原理. . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.1.1 多頭註意力機制. . . . . . . . . . . . 66
4.1.2 Transformer 基本單元. . . . . . 69
4.2 基於Transformer 的編碼器―解碼器結構. . . . . . . . . . 71
4.2.1 基本原理. . . . . . . . . . . . . . . . . . 71
4.2.2 位置編碼模塊. . . . . . . . . . . . . . 73
4.2.3 Transformer 編碼器. . . . . . . . 74
4.2.4 Transformer 解碼器. . . . . . . . 74
4.3 Transformer 模型與RNN 模型的比較. . . . . . . . . . . . . . 77
4.4 Transformer 模型問題與解決方案. . . . . . . . . . . . . . . . . . . . . . 79
4.4.1 長距離依賴問題. . . . . . . . . . . . 79
4.4.2 運算複雜度問題. . . . . . . . . . . . 81
4.5 基於Transformer 的預訓練語言生成模型. . . . . . . . . . . . . . . . . . . . . . 85
4.5.1 GPT 模型. . . . . . . . . . . . . . . . . 86
4.5.2 GPT-2 和GPT-3 . . . . . . . . . . 88
4.5.3 GPT 模型的擴展. . . . . . . . . . . 90
4.6 本章小結. . . . . . . . . . . . . . . . . . . . . . 92
第5 章基於變分自編碼器的語言生成模型. . . . . . . . . . . . . . . . . 93
5.1 自編碼器. . . . . . . . . . . . . . . . . . . . . . 93
5.2 變分自編碼器. . . . . . . . . . . . . . . . . 94
5.3 條件變分自編碼器. . . . . . . . . . . . . 98
5.4 解碼器設計. . . . . . . . . . . . . . . . . . 100
5.5 變分自編碼器在語言生成任務上的應用實例. . . . . . . . . . . . 102
5.5.1 含類別約束的條件變分自編碼器模型. . . . . . . . . . . . . 102
5.5.2 含隱變量序列的條件變分自編碼器模型. . . . . . . . . . . . . 104
5.6 主要問題及解決方案. . . . . . . . . 107
5.6.1 隱變量消失. . . . . . . . . . . . . . . 107
5.6.2 可解釋性增強. . . . . . . . . . . . . 109
5.7 本章小結. . . . . . . . . . . . . . . . . . . . . 111
第6 章基於生成式對抗網絡的語言生成模型. . . . . . . . . . . . . . . . 113
6.1 生成式對抗網絡的背景. . . . . . . 113
6.2 生成式對抗網絡的基本原理. . . 115
6.3 生成式對抗網絡的基本結構. . . 118
6.4 生成式對抗網絡的優化問題. . . 120
6.4.1 使用強化學習方法訓練生成式對抗網絡. . . . . . . . . . . . . . . . . 120
6.4.2 使用近似方法訓練生成式對抗網絡. . . . . . . . . . . . . . . . . 123
6.5 生成式對抗模型在文本與圖像中的區別. . . . . . . . . . . . . . . . 126
6.6 生成式對抗網絡的應用. . . . . . . 128
6.6.1 對話生成. . . . . . . . . . . . . . . . . 128
6.6.2 無監督的風格遷移. . . . . . . . . 129
6.7 本章小結. . . . . . . . . . . . . . . . . . . . . 130
第7 章非自回歸語言生成. . . . . . . . . . . 131
7.1 基本原理. . . . . . . . . . . . . . . . . . . . . 131
7.1.1 適用場景的問題定義. . . . . . . 131
7.1.2 自回歸模型和非自回歸模型. . . . . . . . . . . . . . . . . . . . 132
7.1.3 模型結構. . . . . . . . . . . . . . . . . 132
7.2 非自回歸模型的挑戰. . . . . . . . . 136
7.2.1 一對多問題. . . . . . . . . . . . . . . 136
7.2.2 內部依賴問題. . . . . . . . . . . . . 137
7.3 非自回歸模型的改進. . . . . . . . . 138
7.3.1 網絡結構的改進. . . . . . . . . . . 138
7.3.2 模型理論的改進. . . . . . . . . . . 139
7.3.3 後處理的方法. . . . . . . . . . . . . 142
7.3.4 半自回歸方法. . . . . . . . . . . . . 143
7.4 應用與拓展. . . . . . . . . . . . . . . . . . 144
7.5 本章小結. . . . . . . . . . . . . . . . . . . . . 145
第8 章融合規劃的自然語言生成. . . . . 146
8.1 數據到文本生成任務中的規劃. . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1.1 數據到文本生成任務的定義. . . . . . . . . . . . . . . . . . . . 147
8.1.2 傳統的模塊化方法. . . . . . . . . 149
8.1.3 神經網絡方法. . . . . . . . . . . . . 150
8.2 故事生成任務中的規劃. . . . . . . 158
8.2.1 故事生成任務的定義. . . . . . . 158
8.2.2 傳統方法. . . . . . . . . . . . . . . . . 159
8.2.3 神經網絡方法. . . . . . . . . . . . . 160
8.3 本章小結. . . . . . . . . . . . . . . . . . . . . 163
第9 章融合知識的自然語言生成. . . . . 164
9.1 引入知識的動機. . . . . . . . . . . . . . 164
9.2 引入知識面臨的挑戰. . . . . . . . . 165
9.3 知識的編碼與表示. . . . . . . . . . . . 166
9.3.1 結構化知識表示. . . . . . . . . . . 167
9.3.2 非結構化知識表示. . . . . . . . . 170
9.4 融合知識的解碼方法. . . . . . . . . 172
9.4.1 拷貝網絡. . . . . . . . . . . . . . . . . 172
9.4.2 生成式預訓練. . . . . . . . . . . . . 174
9.5 應用實例. . . . . . . . . . . . . . . . . . . . . 175
9.5.1 基於多跳常識推理的語言生成. . . . . . . . . . . . . . . . . 175
9.5.2 故事生成. . . . . . . . . . . . . . . . . 180
9.6 發展趨勢. . . . . . . . . . . . . . . . . . . . . 185
9.6.1 語言模型與知識的融合. . . . . 185
9.6.2 預訓練模型與知識的融合. . . 186
9.7 本章小結. . . . . . . . . . . . . . . . . . . . . 189
第10 章常見的自然語言生成任務和數據資源. . . . . . . . . . . . . . . . . . . 190
10.1 機器翻譯. . . . . . . . . . . . . . . . . . . . 190
10.1.1 常規機器翻譯. . . . . . . . . . . . 190
10.1.2 低資源機器翻譯. . . . . . . . . . 191
10.1.3 無監督機器翻譯. . . . . . . . . . 192
10.2 生成式文本摘要. . . . . . . . . . . . . 192
10.2.1 短文本摘要. . . . . . . . . . . . . . 192
10.2.2 長文本摘要. . . . . . . . . . . . . . 193
10.2.3 多文檔摘要. . . . . . . . . . . . . . 193
10.2.4 跨語言文本摘要. . . . . . . . . . 193
10.2.5 對話摘要. . . . . . . . . . . . . . . . 194
10.2.6 細粒度文本摘要. . . . . . . . . . 195
10.3 意義到文本生成. . . . . . . . . . . . . 195
10.3.1 抽象語義表示到文本生成. . . . . . . . . . . . . . . . 195
10.3.2 邏輯表達式到文本生成. . . . 197
10.4 數據到文本生成. . . . . . . . . . . . . 197
10.5 故事生成. . . . . . . . . . . . . . . . . . . . 200
10.5.1 條件故事生成. . . . . . . . . . . . 200
10.5.2 故事結局生成. . . . . . . . . . . . 201
10.5.3 故事補全. . . . . . . . . . . . . . . . 202
10.5.4 反事實故事生成. . . . . . . . . . 202
10.6 對話生成. . . . . . . . . . . . . . . . . . . . 203
10.6.1 常規對話生成. . . . . . . . . . . . 203
10.6.2 知識導引的對話生成. . . . . . 204
10.6.3 個性化對話生成. . . . . . . . . . 206
10.6.4 情感對話生成. . . . . . . . . . . . 207
10.7 多模態語言生成. . . . . . . . . . . . . 208
10.7.1 圖像描述生成. . . . . . . . . . . . 208
10.7.2 視頻描述生成. . . . . . . . . . . . 208
10.7.3 視覺故事生成. . . . . . . . . . . . 210
10.7.4 視覺對話. . . . . . . . . . . . . . . . 210
10.8 無約束語言生成. . . . . . . . . . . . . 211
10.9 本章小結. . . . . . . . . . . . . . . . . . . . 213
第11 章自然語言生成的評價方法. . . 214
11.1 語言生成評價的角度. . . . . . . . 215
11.2 人工評價. . . . . . . . . . . . . . . . . . . . 216
11.2.1 人工評價的分類. . . . . . . . . . 216
11.2.2 標註一致性. . . . . . . . . . . . . . 217
11.2.3 人工評價的問題與挑戰. . . . 219
11.3 自動評價. . . . . . . . . . . . . . . . . . . . 220
11.3.1 無需學習的自動評價方法. . . . . . . . . . . . . . . . 222
11.3.2 可學習的自動評價方法. . . . 228
11.4 自動評價與人工評價的結合. . . . . . . . . . . . . . . . . . . . . . . . 236
11.5 自動評價與人工評價的統計相關性. . . . . . . . . . . . . . . . . 238
11.5.1 Pearson 相關係數. . . . . . . . 238
11.5.2 Spearman 相關係數. . . . . . 239
11.5.3 Kendall 相關係數. . . . . . . . 239
11.5.4 相關係數的顯著性. . . . . . . . 240
11.6 本章小結. . . . . . . . . . . . . . . . . . . . 240
第12 章自然語言生成的趨勢展望. . . 242
12.1 現狀分析. . . . . . . . . . . . . . . . . . . . 242
12.2 趨勢展望. . . . . . . . . . . . . . . . . . . . 245
參考文獻. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
