大模型工程師面試:算法原理、開發實踐與系統部署
蘇宏博、溫智凱
- 出版商: 清華大學
- 出版日期: 2025-10-01
- 售價: $714
- 語言: 簡體中文
- ISBN: 7302703779
- ISBN-13: 9787302703778
-
相關分類:
Large language model
下單後立即進貨 (約4週~6週)
商品描述
作者簡介
目錄大綱
目 錄
第1章 大模型發展簡史與崗位解析 1
1.1 大模型簡史 1
1.1.1 何為大模型 1
1.1.2 大模型技術底座:從N-Gram到Transformer 3
1.1.3 商業大模型匯總 6
1.1.4 大模型發展現狀 11
1.2 大模型崗位全解析 12
1.2.1 大模型算法工程師 13
1.2.2 大模型開發工程師 14
1.2.3 大模型數據工程師 16
1.2.4 大模型推理部署工程師 17
1.2.5 大模型垂直領域微調工程師 19
1.2.6 不同崗位的技術側重點與面試策略 21
1.3 國內外代表性公司及其技術棧 22
1.3.1 OpenAI、Anthropic與Mistral 23
1.3.2 通義千問、文心一言與豆包 24
1.3.3 智譜AI、盤古大模型與訊飛星火 25
1.3.4 DeepSeek、X Grok與Claude 27
1.3.5 各大廠使用的主流框架對比 29
1.4 常見面試備考策略分析 31
1.4.1 技術廣度與技術深度 31
1.4.2 簡歷項目表征與亮點挖掘 33
1.4.3 刷題?論文?還是項目經驗 34
1.4.4 大模型領域常見面試提問類型匯總 36
1.5 本章小結 39
1.6 經典面試題自測 39
第2章 大模型數據集構建及預處理流程分析 42
2.1 預訓練數據集構建 42
2.1.1 詳解C4、Pile、BooksCorpus 43
2.1.2 中文數據集與中英文對齊 45
2.1.3 文本清洗與重復率控制 48
2.1.4 多輪對話數據與RLHF語料生成 51
2.2 數據預處理與分詞機制 54
2.2.1 Tokenization策略對比(BPE、Unigram) 54
2.2.2 SentencePiece與Tokenizer 56
2.2.3 Token長度分布與上下文截斷 59
2.3 模型輸入格式與批處理機制 61
2.3.1 Prompt模板與Instruction格式 61
2.3.2 Padding、Masking與Attention機制 64
2.3.3 Sliding Window與Chunking機制 65
2.3.4 動態Batch構建與GPU負載優化 68
2.4 數據增強與數據預微調 69
2.4.1 經典數據增強:樣本擴增與反事實生成 69
2.4.2 Few-shot語料設計原則 72
2.4.3 蒸餾數據與學生-教師模型 73
2.4.4 二次構造:社交語料、問答語料 74
2.5 本章小結 76
2.6 經典面試題自測 77
第3章 大模型預訓練核心原理 79
3.1 Transformer結構解析 79
3.1.1 Self-Attention機制實現 79
3.1.2 多頭註意力與參數分布 83
3.1.3 Position Embedding方式對比 85
3.1.4 層歸一化與殘差連接設計 86
3.2 損失函數與訓練目標 89
3.2.1 語言建模目標(MLM與CLM) 90
3.2.2 多任務損失與多目標聯合訓練 93
3.2.3 Label Smoothing與目標擾動 96
3.2.4 訓練穩定性提升策略 98
3.3 並行化訓練技術 100
3.3.1 數據並行、模型並行與流水線並行 100
3.3.2 ZeRO階段式內存優化 102
3.3.3 FlashAttention與Sparse模型優化 105
3.3.4 微調時的LoRA、QLoRA支持 108
3.4 本章小結 109
3.5 經典面試題自測 109
第4章 大模型部署與推理優化 111
4.1 常見模型部署方式總覽 111
4.1.1 本地部署與雲端服務部署 111
4.1.2 ONNX與TensorRT部署 113
4.1.3 HuggingFace+FastAPI組合部署 115
4.1.4 Triton Inference服務器部署 117
4.2 常見推理優化與量化方案 118
4.2.1 FP16、INT8、GPTQ量化技術原理 119
4.2.2 推理Latency瓶頸分析 122
4.2.3 KV-Cache與Prompt重用機制 124
4.2.4 多卡部署與推理並行方案 127
4.3 模型剪枝與壓縮 128
4.3.1 結構化剪枝與非結構化剪枝 128
4.3.2 權重共享與低秩分解技術 131
4.3.3 常見小模型蒸餾實現方式 133
4.4 本章小結 136
4.5 經典面試題自測 136
第5章 大模型微調技術 138
5.1 微調技術體系概覽 138
5.1.1 全參數微調與凍結微調 138
5.1.2 Prompt Tuning與Prefix Tuning機制 141
5.1.3 參數高效微調實現:Adapter與BitFit 143
5.2 LoRA與QLoRA微調實戰 147
5.2.1 低秩矩陣的參數註入機制 147
5.2.2 LoRA訓練流程與常用庫介紹 149
5.2.3 QLoRA量化策略與訓練資源壓縮 152
5.3 RLHF與SFT技術棧 156
5.3.1 RLHF 156
5.3.2 Reward模型構建與訓練策略 157
5.3.3 PPO算法在RLHF中的作用 158
5.4 本章小結 161
5.5 經典面試題自測 161
第6章 大模型核心架構簡介 163
6.1 大模型架構演化 163
6.1.1 GPT-1/2/3到GPT-4架構變化 163
6.1.2 LLaMA系列與Qwen架構對比 164
6.1.3 專家路由機制 166
6.1.4 SwiGLU與ReLU激活函數對比 169
6.2 混合專家(MoE)模型機制 171
6.2.1 MoE結構的稀疏激活原理 171
6.2.2 Top-k選擇機制 175
6.2.3 通信瓶頸與專家分布策略 178
6.3 本章小結 182
6.4 經典面試題自測 182
第7章 有關大模型經典論文的面試熱點解析 184
7.1 經典論文解析 184
7.1.1 Transformer:Attention is All You Need論文解析 184
7.1.2 ResNet:Deep Residual Learning for Image Recognition論文解析 186
7.1.3 Multi-Head:TransMLA: Multi-Head Latent Attention Is All You Need論文解析 188
7.1.4 論文實驗設定與性能評估要點 189
7.2 面試熱點一:GPT與InstructGPT系列分析 191
7.2.1 GPT-2開放式文本生成能力 191
7.2.2 GPT-3模型參數設計策略 192
7.2.3 InstructGPT引入人類偏好訓練 194
7.3 面試熱點二:LLaMA與Qwen系列分析 196
7.3.1 LLaMA數據選擇與Tokenizer策略 197
7.3.2 Qwen混合多任務指令訓練架構 199
7.3.3 中英文平衡設計 202
7.4 面試熱點三:常見論文類提問解析 205
7.4.1 Attention與CNN的結構對比 205
7.4.2 Scaling Law策略分析與實現 208
7.5 本章小結 209
7.6 經典面試題自測 210
第8章 基於大模型的智能體系統 212
8.1 智能體核心機制與類型 212
8.1.1 單智能體與多智能體架構差異 212
8.1.2 CoT工具調用 214
8.1.3 ReAct與AutoGPT推理結構解析 216
8.2 多輪對話狀態管理機制 219
8.2.1 Prompt狀態追蹤與上下文控制 219
8.2.2 記憶模塊調用與持久化管理 221
8.2.3 中斷恢復與任務持久化 224
8.3 智能體系統開發實戰 226
8.3.1 使用LangChain封裝交互組件 226
8.3.2 接入工具插件與API調度控制 229
8.3.3 多Agent協作任務實現策略 231
8.4 本章小結 234
8.5 經典面試題自測 234
第9章 RAG系統構建與知識檢索 236
9.1 RAG架構組成 236
9.1.1 Prompt檢索與嵌入召回流程 236
9.1.2 檢索器與生成器 238
9.1.3 Chunk策略與多文檔拼接控制 241
9.2 向量數據庫集成 245
9.2.1 FAISS/HNSW/Milvus的使用方法 245
9.2.2 多模態Embedding向量構建 250
9.3 文檔處理與分塊機制 255
9.3.1 基於Token的動態Chunk方法 255
9.3.2 元數據綁定與索引映射 258
9.3.3 文檔版本管理與權重控制 262
9.4 本章小結 267
9.5 經典面試題自測 267
第10章 MCP協議與A2A通信機制 269
10.1 MCP通信協議原理 269
10.1.1 MCP基本結構 269
10.1.2 基於MCP的Agent間對話通信機制詳解 273
10.2 A2A多智能體協作框架 276
10.2.1 A2A基本原理 276
10.2.2 Agent間消息同步與控制機制 279
10.2.3 中心調度與角色權限劃分 282
10.3 多Agent調度與資源管理 285
10.3.1 調度圖構建與任務依賴約束 285
10.3.2 事件觸發與反應式Agent調用 289
10.4 本章小結 292
10.5 經典面試題自測 292
第11章 項目工程化與系統集成實戰 294
11.1 模型部署環境構建 294
11.1.1 Conda/Docker環境構建 294
11.1.2 多模型版本共存管理 296
11.1.3 GPU/CPU資源調度與負載均衡 298
11.1.4 鏡像構建與自動化部署腳本 301
11.2 DevOps集成與CI/CD流程 303
11.2.1 GitOps與代碼分支控制流程 303
11.2.2 流水線構建與模型測試自動化 305
11.2.3 環境變量配置與多環境部署 309
11.2.4 模型上線回滾機制與灰度部署 311
11.3 系統安全與訪問控制 314
11.3.1 模型輸入審查與註入防護 314
11.3.2 認證鑒權機制(Token/OAuth2) 316
11.3.3 模型濫用監控與速率限制 319
11.3.4 敏感信息過濾與輸出安全評估 321
11.4 性能評估與系統監控 323
11.4.1 推理延遲與吞吐量指標 324
11.4.2 Prometheus+Grafana監控集成 326
11.4.3 模型質量回歸測試機制 328
11.5 本章小結 330
11.6 經典面試題自測 330
第12章 高頻面試題深度解析 332
12.1 算法與架構類問題 332
12.1.1 Self-Attention與MoE結構對比 332
12.1.2 RLHF算法流程還原類問答 335
12.1.3 計算復雜度控制面試題 338
12.1.4 參數調優策略分析型題目 340
12.2 項目實現與工程類問題 343
12.2.1 向量檢索系統構建提問拆解 343
12.2.2 模型上線部署 346
12.2.3 LoRA微調項目分析面試題 349
12.3 實戰情景題與系統設計題 352
12.3.1 多Agent協作任務設計面試題 352
12.3.2 Agent中斷恢復與狀態保持問題 355
12.4 面試綜合策略與答題技巧 358
12.4.1 行為面、技術面雙管齊下 358
12.4.2 面試現場邏輯結構化答題技巧 359
12.4.3 如何展示項目亮點與技術深度 360
12.4.4 模型安全、性能等擴展類問題答題套路 361
12.5 本章小結 362
12.6 經典面試題自測 363