LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)

Jay Alammar, Maarten Grootendorst 著 楊新章 譯

  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-1
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-2
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-3
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-4
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-5
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-6
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-7
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-8
  • LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-9
LLM 語意理解與生成技術完全開發 (Hands-On Large Language Models)-preview-1

買這商品的人也買了...

相關主題

商品描述

AI 語言技術的進步,正以前所未有的速度改變世界!

「Jay和Maarten一如既往地運用精美的插圖為複雜主題提供深具洞察的描述。對於任何想了解大型語言模型背後主要技術的人來說,這本書都是寶貴的資源。」
—Andrew Ng(吳恩達),DeepLearning.AI 創辦人

「我想不出有哪本書比這本書更重要,值得現在就去閱讀。書中的每一頁,我都學到在這個語言模型時代,對於成功至關重要的知識。」
—Josh Starmer,StatQuest


想深入了解大型語言模型的奧秘,並將其應用於實際專案中?
《Hands-On Large Language Models》正是為你量身打造的指南!

由知名AI專家Jay Alammar和Maarten Grootendorst執筆,透過近300幅精美圖解,帶你輕鬆掌握LLM的核心概念和實踐技巧。

無論是文案撰寫、摘要生成,還是建立先進的語義搜尋系統,本書都提供了詳盡的步驟和範例,助你在AI領域中脫穎而出。快讓《Hands-On Large Language Models》開啟你的 AI 進階之旅!

--------------------------------------------------------

近年來,AI在語言處理領域取得了驚人的突破。隨著深度學習的快速發展,語言AI系統在文字寫作與理解方面的能力,比以往任何時候都更加出色。這一趨勢正在催生全新的功能、產品,甚至是全新的產業。透過本書視覺化的教學方式,你將學習如何運用這些強大技術,掌握實用工具與關鍵概念,並能立即應用於你的專案中!

你將學會如何運用預訓練的 LLM 進行文案撰寫與摘要生成;打造超越傳統關鍵字匹配技術的語義搜尋系統;運用現有的函式庫和預訓練模型,來進行文本分類、搜尋與聚類。


本書將助你深入理解:
• Transformer語言模型的架構,掌握文本生成與語意表達的核心技術。
• 構建高效的LLM流程,對文本資料進行聚類並探索其主題。
• 透過密集檢索(dense retrieval)與重新排名(reranking),構建超越關鍵字匹配的語義搜尋引擎。
• 從提示工程(prompt engineering)到檢索擴增生成(RAG),探索生成式AI的各種運用方式。
• 深入學習如何訓練 LLM,針對特定應用進行優化,包括生成式微調(generative fine-tuning)、對比微調(contrastive fine-tuning)與上下文學習(in-context learning)。
• 透過生成式模型微調(Generative Model Fine-tuning)、對比式微調(Contrastive Fine-tuning)以及情境學習(In-context Learning),更深入地了解如何訓練LLM,並針對特定應用進行最佳化。

作者簡介

Jay Alammar 是Cohere的總監兼工程研究員。
Maarten Grootendorst 是荷蘭癌症研究組織(IKNL)的資深臨床資料科學家。

目錄大綱

【第一部分 理解語言模型】

第一章 大型語言模型簡介
什麼是語言人工智慧?
語言人工智慧的近期歷史
大型語言模型的定義演變
大型語言模型的訓練範式
大型語言模型應用:為何如此實用?
負責任的LLM 開發與使用
有限資源,同樣精彩
與大型語言模型互動
生成您的第一段文本

第二章 詞元與嵌入
LLM 的分詞過程
詞元嵌入
文本嵌入(針對句子和整個文件)
超越 LLM 的字嵌入應用
嵌入在推薦系統中的應用

第三章 深入探索大型語言模型
Transformer 模型概述
近期改進的 Transformer 架構


【第二部分 使用預訓練語言模型】

第四章 文本分類
電影評論的情感分析
使用表達型模型進行文本分類
模型選擇
使用任務特定模型
利用嵌入的分類任務
使用生成型模型進行文本分類

第五章 文本分群與主題建模
使用 ArXiv 論文:計算與語言領域
文本分群的一般流程
從文本分群到主題建模

第六章 提示工程
使用文本生成模型
提示工程入門
進階提示工程
使用生成模型以推理
輸出驗證

第七章 進階文本生成技術與工具
模型輸入與輸出:使用 LangChain 載入量化模型
鏈接:擴展 LLM 的能力
記憶:幫助 LLM 記住對話
代理:建立 LLM 系統

第八章 語意搜尋與檢索擴增生成
語意搜尋與 RAG 概述
以語言模型進行語意搜尋
檢索擴增生成(RAG)

第九章 多模態大型語言模型
用於視覺的 Transformer
多模態嵌入模型
使文本生成模型具備多模態能力


【第三部分 語言模型的訓練與微調】

第十章 建立文本嵌入模型
嵌入模型
什麼是對比學習?
SBERT
建立嵌入模型
微調嵌入模型
非監督式學習

第十一章 微調表達型模型以分類
監督式分類
少樣本分類
使用遮罩語言建模進行持續預訓練
命名實體識別

第十二章 微調生成模型
三個 LLM 訓練步驟:預訓練、監督式微調和偏好微調
監督式微調(SFT)
使用 QLoRA 進行指令微調
評估生成模型
偏好調整/對齊/RLHF
使用獎勵模型自動化偏好評估
使用 DPO 進行偏好微調

後記