商品描述
本書旨在幫助非計算機專業本科生快速掌握大語言模型(LLM)的入門知識和實用技術。全書共8章,闡述了LLM如何助力解決日常生活與科研中的難題,並深度挖掘了提示工程、檢索增強技術以及LLM在智能體領域的應用等實用技巧。同時,書中還涵蓋了LLM的應用環境、風險與安全技術,強調理性使用LLM技術的重要性。借助簡潔易懂的語言和實際案例,讀者既能洞悉LLM的核心理念,又能熟練駕馭其實戰應用,深切感受科技創新如何無縫融入日常學習、工作和生活,助力快速獲取信息和提高工作效率。本書適合作為普通高等學校非計算機專業本科生人工智能類通識課或選修課教材或參考書,也可供對大語言模型技術與應用感興趣的讀者參考閱讀
作者簡介
李倩,山東大學助理研究員,碩士生導師。中國計算機學會(CCF)自然語言處理專委會執行委員、信息系統專委會執行委員,中國中文信息學會(CIPS)社會媒體處理專委會委員、青年工作委員會委員,入選騰訊犀牛鳥菁英人才培養計劃。主要研究方向為知識圖譜與大語言模型,在TKDE、TNNLS等CCF A、B類和 一區刊物及ACL、IJCAI、EMNLP 會議上發表高水平論文10余篇,主持1項 自然科學基金青年項目、1項中央高校基本科研項目、1項山東大學本科教育教學改革項目。<br /><br />崔立真,山東大學教授,博士生導師,軟件學院院長,電子商務交易技術 工程實驗室副主任。中國計算機學會(CCF)協同計算專委會副主任,數據庫專委會常務委員, 軟件工程教指委委員。主要研究方向為軟件與數據工程。 重點研發計劃項目首席科學家,主持 重點研發計劃項目和課題、 自然科學基金重點項目等。以 完成人獲 教學成果二等獎、山東省科技進步獎一等獎。<br /><br />劉磊,山東大學齊魯青年學者特聘教授,泰山學者青年專家,博士生導師, 重點研發計劃項目負責人,山東大學軟件學院數據科學與大數據技術系副主任,中國計算機學會 會員,中國計算機學會青年計算機科技論壇濟南 。主要研究方向為大模型多智能體、網絡智能、5G網絡切片與網絡虛擬化資源調度優化。
目錄大綱
知名LLM推薦語
前言
致謝
第1章 導論
1.1 自然語言
1.1.1 歧義性
1.1.2 簡略性
1.1.3 易變性
1.2 語言模型
1.2.1 基於規則的語言模型
1.2.2 統計語言模型
1.2.3 神經網絡語言模型
1.2.4 預訓練語言模型
1.2.5 大語言模型
1.3 技術成熟度曲線
1.4 總結
1.5 習題
第2章 語言模型基礎技術
2.1 統計語言模型
2.2 神經網絡語言模型
2.2.1 Word2Vec模型
2.2.2 RNN模型
2.3 預訓練語言模型
2.3.1 編碼器-解碼器架構
2.3.2 註意力機制
2.3.3 Transformer架構
2.3.4 MoE架構
2.4 大語言模型
2.4.1 大語言模型之大
2.4.2 ChatGPT——閉源典型代表
2.4.3 LLaMA——開源典型代表
2.5 多模態大語言模型
2.5.1 多模態定義
2.5.2 多模態大語言模型的架構
2.5.3 應用領域
2.6 大語言模型的開發與使用模式
2.6.1 預訓練微調模式
2.6.2 提示指令模式
2.7 總結
2.8 習題
第3章 大語言模型的使用
3.1 基本概念
3.1.1 提示學習
3.1.2 提示詞範式
3.1.3 提示工程的優勢
3.2 提示詞的優化技巧
3.2.1 清晰準確表述
3.2.2 賦予身份角色
3.2.3 留出思考時間
3.2.4 提供相似示例
3.2.5 情感物質激勵
3.2.6 結構化提示詞
3.3 思維鏈
3.3.1 基本範式
3.3.2 零樣本思維鏈
3.3.3 多思維鏈
3.4 高級思維鏈
3.4.1 思維樹
3.4.2 思維圖
3.5 總結
3.6 習題
第4章 大語言模型的多工具
4.1 RAG基本概念
4.1.1 必要性
4.1.2 發展歷程
4.2 初級RAG
4.3 高級RAG
4.3.1 預檢索
4.3.2 後檢索
4.3.3 優缺點
4.4 模塊化RAG
4.4.1 模塊組
4.4.2 模式組
4.4.3 優缺點
4.5 檢索自由型RAG
4.6 知識圖譜型RAG
4.6.1 知識圖譜概念
4.6.2 知識圖譜構建
4.6.3 GraphRAG
4.6.4 LightRAG
4.7 總結
4.8 習題
第5章 大語言模型的多智能體
5.1 智能體基本概念
5.1.1 智能體的定義
5.1.2 智能體的特征
5.1.3 智能體的行動力
5.2 LLM作為智能體大腦
5.2.1 LLM出現前的智能體
5.2.2 LLM出現後的智能體
5.3 單智能體模式
5.3.1 單智能體特點
5.3.2 ReAct框架
5.3.3 ReAct示例
5.3.4 ReAct特點
5.4 多智能體模式
5.4.1 多智能體特點
5.4.2 兩智能體系統
5.4.3 三智能體模式
5.5 群體智能體智能
5.5.1 群體智能體特點
5.5.2 ChatDev框架
5.5.3 ChatDev示例
5.6 生成式智能體
5.6.1 生成式智能體特點
5.6.2 斯坦福AI小鎮簡介
5.6.3 斯坦福AI小鎮框架
5.7 總結
5.8 習題
第6章 大語言模型的多載體
6.1 超大型雲服務器
6.1.1 基本配置
6.1.2 適配的語言模型
6.2 小型服務器
6.2.1 基本配置
6.2.2 適配的語言模型
6.3 手機端
6.3.1 基本配置
6.3.2 MiniCPM模型
6.4 數據庫端
6.4.1 基本配置
6.4.2 HeatWave GenAI
6.5 端雲協同
6.5.1 端雲協同部署
6.5.2 適配的語言模型
6.5.3 技術挑戰
6.6 軟硬件適配與協同優化
6.6.1 現存軟硬件配置
6.6.2 大模型的軟硬件適配
6.6.3 大模型的軟硬件協同優化
6.7 總結
6.8 習題
第7章 大語言模型的風險及安全技術
7.1 LLM面臨的風險
7.1.1 幻覺問題
7.1.2 偏見歧視
7.1.3 隱私泄露
7.1.4 倫理問題
7.2 LLM的安全技術
7.2.1 減少幻覺和偏見
7.2.2 防禦提示註入攻擊
7.2.3 減少外部工具威脅
7.2.4 嚴查倫理問題
7.3 矽基人工智能已/將具有意識
7.3.1 碳基生物
7.3.2 矽基人工智能
7.3.3 矽基人工智能是否已/將具有意識
7.4 總結
7.5 習題
第8章 大語言模型的調用方式
8.1 在線LLM的網頁調用
8.1.1 DeepSeek
8.1.2 星火認知
8.1.3 文心一言
8.1.4 通義千問
8.1.5 混元
8.1.6 豆包
8.1.7 ChatGPT
8.1.8 DALL·E
8.1.9 PixVerse
8.2 在線LLM的API調用
8.2.1 基礎設置
8.2.2 DeepSeek
8.2.3 星火認知
8.2.4 文心一言
8.2.5 通義千問
8.2.6 混元
8.2.7 ChatGPT
8.3 開源LLM的代碼調用
8.3.1 DeepSeek
8.3.2 Qwen
8.3.3 ChatGLM
8.3.4 MOSS
8.3.5 LLaMA
8.4 總結
8.5 習題
附錄
附錄A 實驗
附錄B 習題參考答案
參考文獻