Node.js 與 LLM 原理與實務:AI 應用程式開發

Jollen

  • 出版商: 仕橙研策科技
  • 出版日期: 2025-11-01
  • 定價: $780
  • 售價: 7.9$616
  • 語言: 繁體中文
  • 裝訂: 平裝
  • ISBN: 6269983339
  • ISBN-13: 9786269983339
  • 相關分類: Node.js
  • 尚未上市,歡迎預購

  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-1
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-2
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-3
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-4
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-5
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-6
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-7
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-8
  • Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-9
Node.js 與 LLM 原理與實務:AI 應用程式開發-preview-1

相關主題

商品描述

本書是「極簡 LLM 應用程式開發入門」的教材。本書亦延續作者在 Node.js 系列著
作的風格,採用清楚的步驟式教學,並搭配語意導向的說明,讓 LLM 初學者了解每一
段程式碼背後的設計邏輯。

 

#推薦序

本書是「極簡 AI 入門系列」的教材,延續「Node.js Fullstack 原理與實務」一書,希望讓
初學者有效率入門 AI 應用程式,也能修練 LLM 的思惟內功;讀完本書後,就能讓你的
Node.js 應用程式具備「思惟能力」。
這本書是為 LLM 初學者設計的入門教材,這是一份幫助初學者,從零開始、逐步建立
LLM應用程式實作能力的學習指南。閱讀本書,您將學會:

1. 理解 LLM(大型語言模型)的基本概念
2. 如何用 Node.js 建立基本的 LLM 應用程式
3. 建立良好的 Node.js + LLM 應用程式架構(可擴充性)
4. 開發第一個 AI 對話程式
5. 導入外部資料庫,讓你的 LLM 應用程式更聰明,並降低成本
6. 能導入簡單的 In-Context Learning 與 MAML-en-LLM 大幅提升 LLM 的「腦力」
7. 使用 TAR 與 RAG 技術,打造「極簡 AI Agent」

本書延續 Node.js 系列著作的風格,採用清楚的步驟式教學,並搭配語意導向的說明,
讓LLM 初學者了解每一段程式碼背後的設計邏輯。這是一本實務導向的Node.js + LLM
入門教科書,本書並不是一本操作手冊,而是一本在鍛練 AI 軟體開發內功的祕笈。


#作者序

思考是什麼?何謂「思考」?人工智慧(AI)真的會像人類一樣「思考」嗎?特別是在體驗
過像是 ChatGPT 等 AI 後,每個人的心中不免會產生這樣的疑問。
要能想通這個問題,能了解 LLM 的原理,就是重要的第一步,這也是本書第一章的寫作宗
旨。
在閱讀完本書後,這個問題也可以更具體化:人類的思考,通常先有一個「目的」、有「主
題」,即「動腦」。然後再根據自身的知識,運用大量知識,進行邏輯組識,這就是「思
考」。
所以,思考是一個運用知識,來進行推理的過程。而 LLM 具備更大量的知識,以及更精密
的推論能力,這正能「輔助」我們來進行品質更好的「思考」。
所以,人工智慧的角度不在取代人類,反而是君臣相輔的角色。軟體工程領域的 Pair
Programming,便是一種君臣相輔的開發模式;將此模式結合 LLM 後,便是 Vibe
Coding。
在 AI 時代,人類更要多動動腦,讓 LLM 更好地輔佐我們,人類(君主)才會更強大。學習
LLM 應用軟體開發,就是在指導 LLM 這個大臣,「如何好好地輔佐我」。
此外,寫程式要畫流程圖,是筆者過去接受資訊科學訓練,被教導的知識;開發軟體前的行
前工作,例如:系統分析、架構設計、軟體工程方法等,幾乎可以說是「常識」。然而,有
了 LLM 等人工智慧技術後,現今的軟體開發方法論,跟過去還是一樣嗎?
以前,我們注意程式碼的「邏輯」,然而,在讀完本書,並且自行試作第一個「極簡 LLM
應用程式後」,你就會發現,「邏輯已經是其次」,我們首要注意的是「語境」,以及「語
意」。此外,更關心 LLM 生成文字的「語氣」是否符合心中的預期。
簡而言之,「輸出結果的內容正確性」,正被「輸出結果的語氣是否符合預期」的模式取
代。這正是過去典型的「應用軟體」開發,轉移到現念的 「LLM 應用軟體」開發,最主要
的「思惟」轉換之一。
因此,先理解 LLM 的本質,再親自動力打造 LLM 應用程式後,就能開始解答「AI 是不是真
的會思考」的疑問;並且,也能開始體會 LLM 的軟體開發方法論,與過去典型方法論「思
惟」上的差異。
這也是本書的寫作理念,注重 LLM 的軟體思惟,而不是 API 與語法;讓本書帶您進入「君
臣相輔」的全新軟體開發時代。

⸺Jollen

作者簡介

作者:Jollen
Moko365 技術總監、 Flowchain 基金會(新加坡)創辦人,專精於 Embedded Linux、
Android Framework 與驅動程式開發,累積超過二十年研發與實務經驗。曾為Motorola
、HTC、LG、OPPO、騰訊、廣達等五十餘家企業提供技術顧問、內訓與課程設計服務,
擅長系統架構設計、軟硬整合開發與研發流程管理。
2016 年創辦 Flowchain 基金會,推動以 Node.js 為核心的物聯網區塊鏈作業系統,
實踐開源實作與跨域整合,並取得多項國際專利。多年來受邀於日本、加拿大、新加坡、
斯洛維尼亞等地演講與授課,並多次在 Open Source Summit、OpenIoT Japan、
FOSSASIA Summit 等國際會議發表技術演說。其代表性研究《Devify: Decentralized
IoT Software Framework》曾於 AIoTAS’17 (加拿大)發表,並收錄於 ACM SIGBED
Review。
Jollen 著有十餘本技術書,涵蓋 Linux、Embedded Linux 與 PHP,具備深厚的技術
書寫與教材編撰經驗。近期聚焦於 WebAssembly 與語言模型整合開發,並主筆
《Node.js 與 LLM》系列教材。

Jollen's Blog:
https://jollen.org/blog
讀者服務:
www.jollen.org

目錄大綱

第 1 章:LLM 大型語言模型概念
1.1 什麼是大型語言模型(LLM)
1.2 Transformer:語言模型的新架構
1.3 幻覺、偏見與語意系統的技術邊界
1.4 LLM 與 Node.js 的整合應用:語意邏輯成為應用模組
1.5 In-Context Learning:從參數訓練轉向語境操控
1.6 LLM 與軟體工程的整合應用:語言成為流程驅動器
1.7 LLM 應用於新創產品:生成式 AI 的語意引擎角色

第 2 章:打造第一個 LLM 應用程式
2.1 安裝 Node.js 與 OpenAI 套件
2.2 註冊 OpenAI 帳號並設定 API 金鑰
2.3 建立 Node.js 基本專案結構
2.4 透過 OpenAI SDK 發送基礎請求
2.5 設計 API 請求流程與錯誤處理
2.6 使用 Chat Completions
2.7 小結

第 3 章:打造多輪對話與上下文記憶
3.1 多輪對話的工程邏輯
3.2 多輪對話的核心概念
3.3 建立對話記憶模組:Conversation Manager 定義與最佳實踐
3.4 改寫請求流程,支援多輪對話
3.5 升級至 Chat Completion 模式
3.6 控制上下文長度:壓縮與裁剪策略
3.7 使用記憶壓縮策略,優化 Token 控制
3.8 實作多使用者對話記憶:分流與隔離機制
3.9 回顧:從訊息記憶到多輪對話的模組化設計

第 4 章:建構具資料記憶能力的語言模型應用
4.1 為什麼 LLM 需要外部記憶體?
4.2 什麼是 RAG 架構?
4.3 建立本地知識庫
4.4 向量化文本資料
4.5 Node.js 結合向量資料庫與語言模型的整合流程
4.6 向量資料庫選型與開發情境對應
4.7 Redis 作為語意向量快取:Node.js 整合實務
4.8 總結:RAG 架構與語意記憶的整合基礎

第 5 章:開發你的第一個 CLI 對話助理
5.1 為何選擇 CLI 作為起點?
5.2 使用 Inquirer.js 建立命令列互動
5.3 整合 GPT 回覆生成與顯示
5.4 對話邏輯與上下文維持
補充:conversationManager.js 初版範例
5.5 提示工程初探:加入系統角色(System Prompt)
5.6 執行與測試
5.7 整合 Redis:讓對話有記憶

第 6 章:設計可控語境:Prompt Engineering × RAG 整合
6.1 Prompt 是語境 API:設計有效提示的基本結構
6.2 四種關鍵技巧:提示詞的工程邏輯拆解
6.3 角色設定(System Prompt):塑造 AI 的人格與知識邊界
6.4 格式控制與輸出結構
6.5 常見錯誤與優化策略
6.6 整合提示語與資料:建立可控且具知識邊界的語意回應架構

第 7 章:提示詞的學習性:In-Context Learning × MAML-en-LLM 導論
7.1 上下文就是訓練資料:In-Context Learning 的語意模型
7.2 提示設計的策略化發展:ICL 類型總覽與應用定位
7.3 從 Prompt 靜態模板邁向可學習提示模組:MAML-en-LLM 架構
7.4 在 Node.js 中實作提示學習架構:MAML-en-LLM 模擬流程
7.5 評估提示學習效能:如何讓 MAML-en-LLM 應用於產品開發

第 8 章:從語言到行動:Tool-Augmented Reasoning 架構與實作
8.1 為什麼 LLM 需要外部工具?
8.2 Prompt 內的記憶分配策略
8.3 Tool 回饋資料的融合技巧
8.4 與 RAG 架構的整合策略
8.5 延伸應用場景與案例設計
8.6 小結與展望:從 Tool-Augmented 到 Multi-Agent AI

第 9 章:記憶就是語境策略:選擇、壓縮與動態組裝技術
9.1 上下文長度限制的現實挑戰
9.2 記憶選擇:決定哪些內容值得保留
9.3 記憶壓縮:節省 token,保留意義
9.4 記憶選擇與工具引導:雙軌推理的實戰策略
9.5 策略型記憶控制與 API 對話整合
9.6 記憶策略的產品化與部署考量
9.7 記憶系統的總結與未來展望

第 10 章:整合系統思維:打造具備推理、記憶與檢索能力的 AI 助理
10.1 總覽:從模組到產品
10.2 模組整合實作與系統架構草圖
10.3 模型評估與 Prompt 策略調整
10.4 系統部署與持續優化
10.5 多模組維運與版本策略
10.6 模型與資料擴充:從 MVP 到大規模應用
10.7 本書總結
10.8 未來展望