多模態大模型:新一代人工智能技術範式

劉陽,林倞

  • 出版商: 電子工業
  • 出版日期: 2024-04-01
  • 售價: $714
  • 貴賓價: 9.5$678
  • 語言: 簡體中文
  • 頁數: 296
  • ISBN: 7121475472
  • ISBN-13: 9787121475474
  • 立即出貨

買這商品的人也買了...

商品描述

本書以深入淺出的方式介紹近年來人工智能領域最熱門的技術——多模態大模型的技術方法、開源平臺和應用場景,並詳細闡述因果推理、世界模型及多智能體與具身智能等前沿技術領域,有助於讀者全面瞭解多模態大模型的特點及發展方向,對新一代人工智能技術範式和通用人工智能的發展起到重要推動作用。全書共5章,第1章深入探討最具代表性的大模型結構,第2章深度剖析多模態大模型的核心技術,第3章介紹多個具有代表性的多模態大模型,第4章深入分析視覺問答、AIGC 和具身智能這3個典型應用,第5章探討實現通用人工智能的可行思路。 本書不僅適合高校相關專業高年級本科生和研究生作為教材使用,更是各類IT 從業者的必備參考之作。

目錄大綱

1 大模型全家桶 1
1.1 多模態大模型基本概念 3
1.1.1 多模態 4
1.1.2 大模型和基礎模型 4
1.1.3 多模態大模型 5
1.2 BERT技術詳解 6
1.2.1 模型結構 6
1.2.2 預訓練任務 10
1.2.3 下游應用場景 13
1.3 ViT技術詳解 14
1.3.1 模型結構 15
1.3.2 預訓練任務 17
1.4 GPT系列 19
1.4.1 GPT-1結構詳解 20
1.4.2 GPT-2結構詳解 23
1.4.3 GPT-3結構詳解 24
1.5 ChatGPT簡介 28
1.5.1 InstructGPT 28
1.5.2 ChatGPT 32
1.5.3 多模態GPT-4V 37
1.6 中英雙語對話機器人ChatGLM 40
1.6.1 ChatGLM-6B模型 41
1.6.2 千億基座模型GLM-130B的結構 43
1.7 百川大模型 46
1.7.1 預訓練 47
1.7.2 對齊 51
1.8 本章小結 53
2 多模態大模型核心技術 54
2.1 預訓練基礎模型 55
2.1.1 基本結構 56
2.1.2 學習機制 57
2.2 預訓練任務概述 59
2.2.1 自然語言處理領域的預訓練任務 59
2.2.2 電腦視覺領域的預訓練任務 59
2.3 基於自然語言處理的預訓練關鍵技術 60
2.3.1 單詞表徵方法 61
2.3.2 模型結構設計方法 63
2.3.3 掩碼設計方法 63
2.3.4 提升方法 64
2.3.5 指令對齊方法 65
2.4 基於電腦視覺的預訓練關鍵技術 67
2.4.1 特定代理任務的學習 68
2.4.2 幀序列學習 68
2.4.3 生成式學習 69
2.4.4 重建式學習 70
2.4.5 記憶池式學習 71
2.4.6 共享式學習 72
2.4.7 聚類式學習 74
2.5 提示學習 75
2.5.1 提示的定義 76
2.5.2 提示模板工程 78
2.5.3 提示答案工程 81
2.5.4 多提示學習方法 82
2.6 上下文學習 85
2.6.1 上下文學習的定義 86
2.6.2 模型預熱 86
2.6.3 演示設計 88
2.6.4 評分函數 90
2.7 微調 91
2.7.1 適配器微調 92
2.7.2 任務導向微調 95
2.8 思維鏈 98
2.8.1 思維鏈的技術細節 99
2.8.2 基於自洽性的思維鏈 100
2.8.3 思維樹 103
2.8.4 思維圖 106
2.9 RLHF 110
2.9.1 RLHF技術分解 111
2.9.2 RLHF開源工具集 114
2.9.3 RLHF的未來挑戰 115
2.10 RLAIF 115
2.10.1 LLM的偏好標簽化 116
2.10.2 關鍵技術路線 118
2.10.3 評測118
2.11 本章小結119
3 多模態基礎模型 120
3.1 CLIP 122
3.1.1 創建足夠大的數據集 122
3.1.2 選擇有效的預訓練方法 123
3.1.3 選擇和擴展模型 124
3.1.4 預訓練 124
3.2 BLIP 125
3.2.1 模型結構 125
3.2.2 預訓練目標函數 126
3.2.3 標註過濾 127
3.3 BLIP-2 128
3.3.1 模型結構 129
3.3.2 使用凍結的圖像編碼器進行視覺與語言表示學習 129
3.3.3 使用凍結的LLM進行從視覺到語言的生成學習 130
3.3.4 模型預訓練 131
3.4 LLaMA 132
3.4.1 預訓練數據 132
3.4.2 網絡結構 133
3.4.3 優化器 134
3.4.4 高效實現 134
3.5 LLaMA-Adapter 134
3.5.1 LLaMA-Adapter的技術細節 136
3.5.2 LLaMA-Adapter V2 137
3.6 VideoChat 140
3.6.1 VideoChat-Text 142
3.6.2 VideoChat-Embed 143
3.7 SAM 146
3.7.1 SAM任務 149
3.7.2 SAM的視覺模型結構 150
3.7.3 SAM的數據引擎 151
3.7.4 SAM的數據集 152
3.8 PaLM-E 153
3.8.1 模型結構155
3.8.2 不同傳感器模態的輸入與場景表示 157
3.8.3 訓練策略 158
3.9 本章小結 159
4 多模態大模型的應用 160
4.1 視覺問答 160
4.1.1 視覺問答的類型 161
4.1.2 圖像問答 162
4.1.3 視頻問答 179
4.1.4 未來研究方向 190
4.2 AIGC 191
4.2.1 GAN和擴散模型 192
4.2.2 文本生成 194
4.2.3 圖像生成 198
4.2.4 視頻生成 203
4.2.5 三維數據生成 204
4.2.6 HCP-Diffusion統一代碼框架 204
4.2.7 挑戰與展望 209
4.3 具身智能 209
4.3.1 具身智能的概念 210
4.3.2 具身智能模擬器 212
4.3.3 視覺探索 216
4.3.4 視覺導航 219
4.3.5 具身問答 223
4.3.6 具身交互 225
4.3.7 存在的挑戰 228
4.4 本章小結 231
5 多模態大模型邁向AGI 232
5.1 研究挑戰 233
5.1.1 缺乏評估準則 233
5.1.2 模型設計準則模糊 233
5.1.3 多模態對齊不佳 234
5.1.4 領域專業化不足 234
5.1.5 幻覺問題 236
5.1.6 魯棒性威脅 236
5.1.7 可信性問題 238
5.1.8 可解釋性和推理能力問題 242
5.2 因果推理 246
5.2.1 因果推理的基本概念 247
5.2.2 因果的類型 251
5.2.3 LLM的因果推理能力 252
5.2.4 LLM和因果發現的關系 254
5.2.5 多模態因果開源框架CausalVLR 255
5.3 世界模型 257
5.3.1 世界模型的概念 258
5.3.2 聯合嵌入預測結構 261
5.3.3 Dynalang:利用語言預測未來 264
5.3.4 交互式現實世界模擬器 266
5.3.5 Sora:模擬世界的視頻生成模型 267
5.4 超級智能體AGI Agent 271
5.4.1 Agent的定義 272
5.4.2 Agent的核心組件 274
5.4.3 典型的AGI Agent模型 275
5.4.4 AGI Agent的未來展望 284
5.5 基於Agent的具身智能 286
5.5.1 具身決策評測集 287
5.5.2 具身知識與世界模型嵌入 288
5.5.3 具身機器人任務規劃與控制 289
5.6 本章小結 296