LLM 走進你的電腦 - 自己動手開發大型語言模型應用
張奇、桂韜、鄭銳、黃萱菁 著
- 出版商: 深智
- 出版日期: 2024-06-19
- 定價: $880
- 售價: 7.9 折 $695
- 語言: 繁體中文
- 頁數: 408
- ISBN: 6267383768
- ISBN-13: 9786267383766
-
相關分類:
LangChain、Large language model
- 此書翻譯自: 大規模語言模型:從理論到實踐
立即出貨 (庫存 > 10)
買這商品的人也買了...
-
深度學習 (Deep Learning)(繁體中文版)$1,200$1,020 -
深度學習 -- 最佳入門邁向 AI 專題實戰$1,200$900 -
開發者傳授 PyTorch 秘笈$1,200$948 -
Keras 大神歸位:深度學習全面進化!用 Python 實作 CNN、RNN、GRU、LSTM、GAN、VAE、Transformer$1,200$948 -
Hugging Face 模型及資料大公開 - 利用 BERT 建立全中文 NLP 應用$720$569 -
跟 NVIDIA 學深度學習!從基本神經網路到 ......、GPT、BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎$880$748 -
Generative AI - Diffusion Model 擴散模型現場實作精解$720$569 -
新範式來臨 - 用 PyTorch 了解 LLM 開發微調 ChatGLM 全過程$980$774 -
$602大語言模型:基礎與前沿 -
新一代 Keras 3.x 重磅回歸:跨 TensorFlow 與 PyTorch 建構 Transformer、CNN、RNN、LSTM 深度學習模型$750$593 -
$559大語言模型應用指南:以 ChatGPT 為起點,從入門到精通的 AI 實踐教程 (全彩) -
LLM 的瑞士刀 - 用 LangChain 極速開發可擴充大型應用程式$880$695 -
新世代 AI 範式 - 多模態+大模型實作精解$800$632 -
LangChain 開發手冊 -- OpenAI × LCEL 表達式 × Agent 自動化流程 × RAG 擴展模型知識 × 圖形資料庫 × LangSmith 除錯工具$680$537 -
開放授權實戰 - OAuth2 最新應用場景開發$720$569 -
NLG 的王者 GPT 圖解 - LLM 的原來是這樣建構出來的$780$616 -
駭客廝殺不講武德 : CTF 強者攻防大戰直擊, 2/e$1,000$790 -
$374快速部署大模型:LLM 策略與實踐 (基於 ChatGPT 等大語言模型) -
深度學習 -- 最佳入門邁向 AI 專題實戰, 2/e$1,200$948 -
LLM 大型語言模型的絕世祕笈:27路獨步劍法,帶你闖蕩生成式 AI 的五湖四海 (iThome鐵人賽系列書)$650$507 -
LLM 串接所有服務 - LangChain 原型到產品全面開發$680$537 -
自己開發 ChatGPT - LLM 從頭開始動手實作$720$569 -
LLM 的大開源時代 - Llama 模型精讀實戰$650$514 -
全面掌握生成式 AI 與 LLM 開發實務:NLP × PyTorch × GPT 輕鬆打造專屬的大型語言模型(iThome鐵人賽系列書)$620$484 -
讓 AI 好好說話!從頭打造 LLM (大型語言模型) 實戰秘笈$680$537
商品描述
【新書簡介】
本書共分四部分,第一部分詳細介紹大型語言模型的基礎理論知識,包括語言模型的定義、Transformer 結構,以及大型語言模型框架等內容,並以 LLaMA 所採用的模型結構為例的程式碼。
第二部分主要介紹預訓練的相關內容,包括在模型分散式訓練中需要掌握的資料平行、流水線並行和模型平行等技術也介紹了ZeRO 最佳化,介紹預訓練資料分佈和資料預處理,以DeepSpeed 為例,介紹大型語言模型的預訓練。
第三部分為大型語言模型在指令理解,如何在基礎模型的基礎上利用有監督微調和強化學習方法,理解指令並給出回答,包括高效微調方法、有監督微調資料構造方法、強化學習基礎和近端策略優化方法,並以 DeepSpeed-Chat和 MOSS-RLHF 為例訓練類 ChatGPT 系統。
第四部分重點介紹了大型語言模型的擴充應用和評估。包括與外部工具和知識源連接的LangChain 技術。
【本書看點】
●LLM基礎,包括GPT、Transformer、LLAMA
●常用的模型倉庫Huggingface的介紹
●LLM的預訓練資料的介紹及整理
●多GPU分散式訓練的基礎及實作
●SFT有監督微調的應用實例及基礎,包括LORA、PEFT
●強化學習在LLM中的應用,包括獎勵模型及PPO
●LLM的應用,包括COT及LLM瑞士刀LangChain
●用科學方式來評估LLM的能力
作者簡介
張奇
復旦大學電腦科學技術學院教授、博士生導師。主要研究方向是自然語言處理和資訊檢索。兼任中國中文資訊學會理事,中國中文資訊學會資訊檢索專委會常務委員,中國人工智慧學會青年工作委員會常務委員。多次擔任ACL、EMNLP、COLING、全國資訊檢索大會等重要國際、國內會議的程式委員會主席、領域主席、講習班主席等。承擔國家重點研發計畫課題、國家自然科學基金、上海市科委等多個專案,在國際重要學術刊物和會議上發表論文150餘篇,獲得美國授權專利4項。獲得WSDM 2014最佳論文提名獎、COLING 2018領域主席推薦獎、NLPCC 2019傑出論文獎、COLING 2022傑出論文獎。獲得上海市「晨光計畫」人才計畫、復旦大學「卓越2025」人才培育計畫等支持,獲得錢偉長中文資訊處理科學技術一等獎、漢王青年創新一等獎、上海市科技進步二等獎、ACM上海新星提名獎、IBM Faculty Award等獎項。
桂韜
復旦大學自然語言處理實驗室副研究員、碩士生導師。研究領域為預訓練模型、資訊抽取和魯棒模型。在高水準國際學術期刊和會議上發表論文40餘篇,主持國家自然科學基金、電腦學會、人工智慧學會的多個基金項目。獲得錢偉長中文資訊處理科學技術一等獎、中國中文資訊學會優秀博士論文獎、COLING 2018最佳論文提名獎、NLPCC 2019傑出論文獎,入選第七屆中國科協青年人才托舉工程,入選上海市2023年度“科技創新行動計畫”啟明星專案,獲得2023年度世界人工智慧大會雲帆獎。
鄭銳
復旦大學電腦科學技術學院博士生,導師為張奇教授。研究興趣包括大模型對齊、魯棒性等。MOSS-RLHF開源專案負責人,文本魯棒性評測工具TextFlint的核心貢獻者,在ACL、EMNLP、COLING等國際會議上發表學術論文十餘篇。
黃萱菁
復旦大學電腦科學技術學院教授、博士生導師。主要從事人工智慧、自然語言處理和資訊檢索研究。兼任中國中文資訊學會理事,中國電腦學會自然語言處理專委會副主任,中國人工智慧學會女科技工作者委員會副主任,計算語言學學會亞太分會副主席,亞太資訊檢索學會指導委員會委員。承擔國家重點研發計畫課題、國家自然科學基金等多個專案,在國際重要學術刊物和會議上發表論文180餘篇。獲得錢偉長中文資訊處理科學技術一等獎、上海市育才獎、人工智慧全球女性學者、福布斯中國科技女性等多項榮譽。
目錄大綱
第 1 章 緒論
1.1 大型語言模型的基本概念
1.2 大型語言模型的發展歷程
1.3 大型語言模型的建構流程
1.4 本書的內容安排
第 2 章 大型語言模型基礎
2.1 Transformer 結構
2.2 生成式預訓練語言模型 GPT
2.3 大型語言模型的結構
2.4 實踐思考
第 3 章 大型語言模型預訓練資料
3.1 資料來源
3.2 資料處理
3.3 資料影響分析
3.4 開放原始碼資料集
3.5 實踐思考
第 4 章 分散式訓練
4.1 分散式訓練概述
4.2 分散式訓練的平行策略
4.3 分散式訓練的叢集架構
4.4 DeepSpeed 實踐
4.5 實踐思考
第 5 章 有監督微調
5.1 提示學習和語境學習
5.2 高效模型微調
5.3 模型上下文視窗擴展
5.4 指令資料的建構
5.5 DeepSpeed-Chat SFT 實踐
5.6 實踐思考
第 6 章 強化學習
6.1 基於人類回饋的強化學習
6.2 獎勵模型
6.3 近端策略最佳化
6.4 MOSS-RLHF 實踐
6.5 實踐思考
第 7 章 大型語言模型應用
7.1 推理規劃
7.2 綜合應用框架
7.3 智慧代理
7.4 多模態大模型
7.5 大型語言模型推理最佳化
7.6 實踐思考
第 8 章 大型語言模型評估
8.1 模型評估概述
8.2 大型語言模型評估系統
8.3 大型語言模型評估方法
8.4 大型語言模型評估實踐
8.5 實踐思考
參考文獻
索引

















