LLM 走進你的電腦 - 自己動手開發大型語言模型應用

張奇、桂韜、鄭銳、黃萱菁 著

  • 出版商: 深智數位
  • 出版日期: 2024-06-19
  • 定價: $880
  • 售價: 7.9$695
  • 貴賓價: 7.5$660
  • 語言: 繁體中文
  • 頁數: 408
  • ISBN: 6267383768
  • ISBN-13: 9786267383766
  • 尚未上市,歡迎預購

  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-1
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-2
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-3
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-4
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-5
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-6
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-7
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-8
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-9
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-10
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-11
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-12
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-13
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-14
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-15
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-16
  • LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-17
LLM 走進你的電腦 - 自己動手開發大型語言模型應用-preview-1

買這商品的人也買了...

相關主題

商品描述

【新書簡介】

本書共分四部分,第一部分詳細介紹大型語言模型的基礎理論知識,包括語言模型的定義、Transformer 結構,以及大型語言模型框架等內容,並以 LLaMA 所採用的模型結構為例的程式碼。

第二部分主要介紹預訓練的相關內容,包括在模型分散式訓練中需要掌握的資料平行、流水線並行和模型平行等技術也介紹了ZeRO 最佳化,介紹預訓練資料分佈和資料預處理,以DeepSpeed 為例,介紹大型語言模型的預訓練。

第三部分為大型語言模型在指令理解,如何在基礎模型的基礎上利用有監督微調和強化學習方法,理解指令並給出回答,包括高效微調方法、有監督微調資料構造方法、強化學習基礎和近端策略優化方法,並以 DeepSpeed-Chat MOSS-RLHF 為例訓練類 ChatGPT 系統。

第四部分重點介紹了大型語言模型的擴充應用和評估。包括與外部工具和知識源連接的LangChain 技術。

 

【本書看點】

LLM基礎,包括GPTTransformerLLAMA

●常用的模型倉庫Huggingface的介紹

LLM的預訓練資料的介紹及整理

●多GPU分散式訓練的基礎及實作

SFT有監督微調的應用實例及基礎,包括LORAPEFT

●強化學習在LLM中的應用,包括獎勵模型及PPO

LLM的應用,包括COTLLM瑞士刀LangChain

●用科學方式來評估LLM的能力

作者簡介

張奇

復旦大學電腦科學技術學院教授、博士生導師。主要研究方向是自然語言處理和資訊檢索。兼任中國中文資訊學會理事,中國中文資訊學會資訊檢索專委會常務委員,中國人工智慧學會青年工作委員會常務委員。多次擔任ACLEMNLPCOLING、全國資訊檢索大會等重要國際、國內會議的程式委員會主席、領域主席、講習班主席等。承擔國家重點研發計畫課題、國家自然科學基金、上海市科委等多個專案,在國際重要學術刊物和會議上發表論文150餘篇,獲得美國授權專利4項。獲得WSDM 2014最佳論文提名獎、COLING 2018領域主席推薦獎、NLPCC 2019傑出論文獎、COLING 2022傑出論文獎。獲得上海市「晨光計畫」人才計畫、復旦大學「卓越2025」人才培育計畫等支持,獲得錢偉長中文資訊處理科學技術一等獎、漢王青年創新一等獎、上海市科技進步二等獎、ACM上海新星提名獎、IBM Faculty Award等獎項。

 

桂韜

復旦大學自然語言處理實驗室副研究員、碩士生導師。研究領域為預訓練模型、資訊抽取和魯棒模型。在高水準國際學術期刊和會議上發表論文40餘篇,主持國家自然科學基金、電腦學會、人工智慧學會的多個基金項目。獲得錢偉長中文資訊處理科學技術一等獎、中國中文資訊學會優秀博士論文獎、COLING 2018最佳論文提名獎、NLPCC 2019傑出論文獎,入選第七屆中國科協青年人才托舉工程,入選上海市2023年度“科技創新行動計畫”啟明星專案,獲得2023年度世界人工智慧大會雲帆獎。

 

鄭銳

復旦大學電腦科學技術學院博士生,導師為張奇教授。研究興趣包括大模型對齊、魯棒性等。MOSS-RLHF開源專案負責人,文本魯棒性評測工具TextFlint的核心貢獻者,在ACLEMNLPCOLING等國際會議上發表學術論文十餘篇。

 

黃萱菁

復旦大學電腦科學技術學院教授、博士生導師。主要從事人工智慧、自然語言處理和資訊檢索研究。兼任中國中文資訊學會理事,中國電腦學會自然語言處理專委會副主任,中國人工智慧學會女科技工作者委員會副主任,計算語言學學會亞太分會副主席,亞太資訊檢索學會指導委員會委員。承擔國家重點研發計畫課題、國家自然科學基金等多個專案,在國際重要學術刊物和會議上發表論文180餘篇。獲得錢偉長中文資訊處理科學技術一等獎、上海市育才獎、人工智慧全球女性學者、福布斯中國科技女性等多項榮譽。

目錄大綱

1 緒論

1.1 大型語言模型的基本概念

1.2 大型語言模型的發展歷程

1.3 大型語言模型的建構流程

1.4 本書的內容安排

 

2 大型語言模型基礎

2.1 Transformer 結構

2.2 生成式預訓練語言模型 GPT

2.3 大型語言模型的結構

2.4 實踐思考

 

3 大型語言模型預訓練資料

3.1 資料來源

3.2 資料處理

3.3 資料影響分析

3.4 開放原始碼資料集

3.5 實踐思考

 

4 分散式訓練

4.1 分散式訓練概述

4.2 分散式訓練的平行策略

4.3 分散式訓練的叢集架構

4.4 DeepSpeed 實踐

4.5 實踐思考

 

5 有監督微調

5.1 提示學習和語境學習

5.2 高效模型微調

5.3 模型上下文視窗擴展

5.4 指令資料的建構

5.5 DeepSpeed-Chat SFT 實踐

5.6 實踐思考

 

6 強化學習

6.1 基於人類回饋的強化學習

6.2 獎勵模型

6.3 近端策略最佳化

6.4 MOSS-RLHF 實踐

6.5 實踐思考

 

7 大型語言模型應用

7.1 推理規劃

7.2 綜合應用框架

7.3 智慧代理

7.4 多模態大模型

7.5 大型語言模型推理最佳化

7.6 實踐思考

 

8 大型語言模型評估

8.1 模型評估概述

8.2 大型語言模型評估系統

8.3 大型語言模型評估方法

8.4 大型語言模型評估實踐

8.5 實踐思考

 

參考文獻

 

索引