解碼大模型:原理與實戰
王家林 段智華
- 出版商: 機械工業
- 出版日期: 2025-09-01
- 售價: $594
- 語言: 簡體中文
- ISBN: 7111788265
- ISBN-13: 9787111788263
-
相關分類:
Large language model
下單後立即進貨 (約4週~6週)
商品描述
本書是一本面向開發人員的大模型及生成式AI實戰指南,基於作者在美國矽谷企業級應用項目經驗及企業培訓經驗編著而成。本書重點介紹企業級大模型應用開發、模型調優及部署運維等技能。全書共10章,內容涵蓋生成式AI概述、大模型提示詞深度解析、LangGraph+CrewAI案例、生成式AI應用開發項目實戰、大模型指令微調與PEFT技術、RLHF與DPO模型對齊、大模型應用開發案例實戰、為何Sora是通往AGI道路的裏程碑、解碼Sora架構原理、Sora關鍵技術解密等,書中的每個知識點都有相應的實現代碼和實例。隨書附贈源碼,獲取方式見封底。 本書的核心讀者是有Python基礎的大模型愛好者,主要面向廣大從事大模型應用開發、機器學習、數據挖掘或深度學習的專業人員,相關專業的在校師生及相關領域的科研人員。
作者簡介
王家林(Gavin Wang) 人工智能專家,現任矽谷一家智能體企業CTO,專註於可控大模型、人本強化學習與智能體系統。擁有超過十年矽谷工作經驗,歷任 CTO、執行副總裁、首席數據科學家、傑出人工智能工程師與首席機器學習工程師。致力於推動人工智能系統走向“人本驅動、可信對齊、可持續進化”的下一代智能體範式。作為對話式人工智能與可控語言行為系統的實踐者和探索者,提出多維可控生成體系,集成指令微調、符號邏輯、策略調度與自動約束驗證,並將RLHF、DPO、GRPO、AZR、TTRL等強化學習算法用於語言行為控制。其“自博弈強化學習架構”通過自我生成、內部獎勵與策略演化,推動智能體在部署後實現閉環自我進化。 段智華 中國電信股份有限公司上海分公司 工程師,專註於大模型及智能體技術研究。持有多項軟著,發表多篇EI學術論文,技術博客總閱讀量達354萬次。
目錄大綱
前言
第1章 生成式AI概述/
1.1生成式AI主線及落腳點/
1.1.1生成式AI開發流程/
1.1.2生成式AI關鍵要素/
1.2生成式AI的深度探索/
1.2.1生成式AI提示詞七大關鍵/
1.2.2生成式AI參照物的解析/
1.2.3生成式AI核心組件的剖析/
1.2.4生成式AI工程實踐的全生命周期管理/
1.2.5生成式AI核心內容的解讀/
第2章 大模型提示詞深度解析/
2.1生成式AI的文本、符號和模式/
2.1.1提示詞中的符號提取/
2.1.2提示詞中的模式提取/
2.1.3文本處理和提取技術/
2.2思維鏈推理剖析/
2.3思維鏈提示實戰/
2.4ReAct技術原理/
第3章 LangGraph+CrewAI案例/
3.1生成式AI自動回覆郵件項目簡介/
3.2生成式AI自動回覆郵件項目代碼架構/
3.3LangGraph構建循環圖/
3.3.1圖代碼解析/
3.3.2邊代碼解析/
3.3.3節點代碼解析/
3.4CrewAI構建分布式對話機器人/
3.4.1EmailFilterCrew代碼解析/
3.4.2EmailFilterAgents代碼解析/
3.4.3CreateDraftTool代碼解析/
3.4.4EmailFilterTasks代碼解析/
3.4.5EmailsState代碼解析/
第4章 生成式AI應用開發項目實戰/
4.1生成式AI應用開發/
4.1.1生成式AI應用開發簡介/
4.1.2生成式AI框架LangChain/
4.1.3生成式AI智能體架構/
4.1.4生成式AI增強檢索RAG/
4.2生成式AI在教育領域的應用/
4.2.1生成式AI教育系統代碼目錄架構/
4.2.2生成式AI教育系統代碼詳細解析/
4.3基於生成式AI的托福輔導案例詳解/
第5章 大模型指令微調與PEFT技術/
5.1生成式AI指令微調原理和方法/
5.1.1生成式AI指令微調簡介/
5.1.2指令微調代碼解析/
5.1.3指令微調在LLaMA 3中的應用/
5.2PEFT與紅隊工程應用/
5.2.1PEFT高效微調簡介/
5.2.2PEFT原理解密/
5.2.3紅隊工程及安全/
5.2.4紅隊工程代碼解析/
5.2.5憲法AI開發應用/
第6章 RLHF與DPO模型對齊/
6.1大模型微調概述與實踐案例/
6.1.1大模型微調簡介/
6.1.2指令微調解析/
6.1.3指令微調數據集轉換/
6.1.4基於AWS微調 LLaMA實戰/
6.2KL散度解析/
6.2.1KL散度簡介/
6.2.2KL散度與大模型幻覺/
6.2.3KL散度數學原理解析/
6.3基於人類反饋強化學習(RLHF)解析/
6.3.1GPT模型訓練流程/
6.3.2RLHF解析/
6.3.3RLHF代碼解析/
6.3.4RLHF全流程指南/
6.3.5RLHF目標函數解析/
6.3.6RLHF項目實戰/
6.4直接偏好優化算法(DPO)解析/
6.4.1DPO算法解析/
6.4.2DPO代碼解析/
6.4.3DPO項目案例實戰/
6.4.4KTO算法解析/
6.4.5REFT算法解析/
第7章 大模型應用開發案例實戰/
7.1基於思維鏈提示的內隱情感分析/
7.1.1系統概述/
7.1.2相關工作/
7.1.3SAoT框架/
7.1.4案例實踐/
7.1.5結論及致謝/
7.2基於大語言模型的數學推理多工具集成應用/
7.2.1系統概述/
7.2.2相關工作/
7.2.3技術方案/
7.2.4案例實踐/
7.2.5結論及展望/
第8章 為何Sora是通往AGI道路的裏程碑/
8.1從大語言模型(LLM)到大視覺模型(LVM)的關鍵轉變/
8.1.1LLM和LVM之間的關系及轉變的意義/
8.1.2揭示LVM在實現通用人工智能(AGI)中的作用/
8.2Visual Data和Text Data的成功融合案例/
8.3Sora如何依據文本指令生成具有三維一致性的視頻內容/
8.4解析Sora根據圖像或視頻生成高保真內容的技術路徑/
8.4.1Sora的推理流程/
8.4.2Sora的訓練流程/
8.5探討Sora在不同應用場景中的實踐價值及其面臨的挑戰/
8.5.1Sora在不同應用場景中的實踐價值/
8.5.2Sora面臨的挑戰/
第9章 解碼Sora架構原理/
9.1Sora技術演進路徑及能力根源/
9.1.1Sora與神經網絡原理解析/
9.1.2Sora與擴散Transformers抽象/
9.2DiT是如何幫助Sora實現一致、逼真、富有想象力的視頻內容的/
9.3為何選用Transformer作為Diffusion的核心網絡/
9.3.1穩定擴散模型解析/
9.3.2CLIP模型解析/
9.3.3Sora使用Transformer代替U-Net/
9.3.4擴散模型加噪去噪流程解析/
9.4DiT的Patchification原理及流程/
9.5Conditional Diffusion過程及其在內容生成過程中的作用/
9.5.1視頻與文本指令對齊/
9.5.2RoPE位置編碼解析/
0章 Sora關鍵技術解密/
10.1Sora如何利用Transformer和Diffusion技術理解物體間的互動/
10.1.1Transformer加法操作解密/
10.1.2Transformer通信通道本質解析/
10.2為何時空塊是Sora技術的核心/
10.2.1Transformer嵌入式向量解密/
10.2.2Transformer註意力作用解析/
10.3時空潛在塊詳解/
10.3.1Sora雙核驅動機制解密/
10.3.2Sora是一個相互作用的網絡/
參考文獻/