AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)

黃朝隆 著

  • 出版商: 博碩
  • 出版日期: 2025-10-17
  • 定價: $650
  • 售價: 7.8$507
  • 語言: 繁體中文
  • 頁數: 296
  • ISBN: 6264143030
  • ISBN-13: 9786264143035
  • 相關分類: Large language model
  • 尚未上市,歡迎預購

  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-1
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-2
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-3
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-4
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-5
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-6
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-7
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-8
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-9
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-10
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-11
  • AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-12
AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)	 -preview-1

買這商品的人也買了...

相關主題

商品描述

全面掌握AI技術,開創屬於自己的AI之路,晉升專業實戰AI工程師
AI模型優化與實戰入門,矩陣到大型語言模型的完整攻略
理論與實作並行,完整理解AI的邏輯與機制



【專業推薦】
本書最討喜的地方在於理論與實作並重。更難得的是,書中穿插各式實務場景,點出真實專案裡那些惱人的小坑與解法,不只給漂亮結果,而是教你面對雜訊與限制。

許芫齊,2025 AI CUP春季賽亞軍


本書建立了一個完整的學習流程:大綱引導動手實作→QA問答,既易於理解,又能引導實作。對初學者而言,它是最穩妥的起點;對已有基礎的讀者,則提供了深化理論、補強實務的完整路徑。

蘇連宏,2025 AI CUP春季賽殿軍


本書是一套實戰導向的可遷移知識體系,把數學直覺、程式實作、實驗設計與效能量測有機地扣在一起,既能支撐學術研究的嚴謹,也能對接產業場景的效率與可靠度。

吳宇祈,國立成功大學 電機工程系碩士


本書以六個階段鋪陳學習路徑,先用NumPy把數學與張量運算動手拆開,再平順橋接到PyTorch的現代訓練框架,最後銜接自建模型與經典架構的理解與應用,結構清楚、節點分明,不會迷失方向。

陳冠穎,國立成功大學 電機工程系碩士



【內容簡介】
AI知識剖析:完整理解數學、程式及實戰案例
實務能力提升:學會建構、優化並實際應用AI模型
實戰案例培訓:提供競賽經驗與案例,符合現場實務需求
前瞻技術學習:掌握從經典模型到Transformer架構

 

本書內容改編自第16iThome鐵人賽AI/ ML & Data組佳作系列文章《從零開始學AI:數學基礎與程式碼撰寫全攻略》。本書是專為AI初學者與工程師所寫的實戰指南,涵蓋從數學基礎、NumPy操作到PyTorch建模與經典深度學習架構,強調不只教「怎麼做」,更解析「為什麼這樣做」。

作者結合競賽與實務經驗,深入剖析流程邏輯與常見錯誤,帶你掌握資料前處理、特徵選取、模型訓練、效能評估與部署,並逐步理解從感知器到Transformer的核心概念,幫助你真正理解模型原理、具備獨立設計與優化AI模型的能力。

【目標讀者】
想要補足實作能力並加強理解、提升競賽與研究成果的學生與研究者。
想用多樣的方式理解複雜概念、對AI感興趣的非專業人士。
想要理解並導入AI技術、強化職場競爭力軟體的開發人員與工程師。
調整模型成為特定領域專家、使其協助日常生活的專業領域人士。
 
範例檔下載網址:https://reurl.cc/qYkb43

作者簡介

黃朝隆
現任AI研發工程師,專注於人工智慧與軟體開發,擅長自然語言處理、生成式AI及大型語言模型應用,致力於將前沿技術導入企業實務與智慧化系統。自碩士期間起,積極參與跨領域專案與學術研究,曾率領團隊於2025 AI CUP全國大專院校人工智慧競賽榮獲冠軍與亞軍,並取得多項競賽佳績。

除研發與著作外,亦受邀擔任企業內訓與學術講師,並具有國內外家教經驗,長期協助澳洲、新加坡及台灣的大專學生及業界工程師學習Python、深度學習、自然語言處理及AI專案開發。以實務導向與國際視野的教學方式,協助學生成功完成學業、研究專案,並順利進入人工智慧相關產業。

目錄大綱

|Chapter 01| 人工智慧入門與Python環境建置
1.1 人工智慧的發展歷程:從熱潮到寒冬,再到現在
1.2 拆解三大核心:人工智慧、機器學習與深度學習
1.3 機器學習的四種學習方式:監督、非監督、強化與遷移
1.4 PythonJupyter Notebook實作的開發利器
1.5 常見問題與知識總整理
1.6 小結

|Chapter 02| 單層感知器的數學原理與實作入門
2.1 感知器簡介:人工智慧的起點
2.2 前向傳播:從輸入到預測的數學轉換
2.3 損失函數與反向傳播:學習的數學核心
2.4 梯度下降與參數更新:從錯誤中修正的機制
2.5 章節實作:從單層感知器建立到預測輸出
2.6 常見問題與知識總整理
2.7 小結

|Chapter 03| 多層感知器與優化策略實戰
3.1 多層感知器的誕生:破解單層感知器的限制
3.2 MLP結構與數學原理:從輸入到機率輸出
3.3 反向傳播機制:從損失回推模型調整方向
3.4 選擇適當優化器:GDSGD差異比較
3.5 章節實作:MLP訓練與優化器效能分析
3.6 常見問題與知識總整理
3.7 小結

|Chapter 04| PyTorch環境搭建與深度神經網路實作
4.1 PyTorch安裝與環境驗證
4.2 資料處理與MLP模型訓練流程
4.3 章節實作:MLPCIFAR-10上的應用
4.4 常見問題與知識總整理
4.5 小結

|Chapter 05| CNN原理與PyTorch實作
5.1 CNN基礎與卷積細節
5.2 章節實作:圖像前處理與可調式CNN模型設計
5.3 常見問題與知識總整理
5.4 小結

|Chapter 06| 文字處理、序列模型與情緒分析實戰
6.1 斷詞與子詞策略
6.2 向量化方法:獨熱編碼 vs 詞嵌入
6.3 循環神經網路(RNN
6.4 長短期記憶(LSTM
6.5 門控循環單元(GRU
6.6 章節實作:IMDB情緒分類(BERT分詞 + GRU
6.7 常見問題與知識總整理
6.8 小結

|Chapter 07| Seq2SeqAttention架構解析
7.1 Seq2Seq基礎:Encoder + Decoder
7.2 Attention
強化:解決資訊壓縮瓶頸
7.3 章節實作:中英翻譯模型
7.4 常見問題與知識總整理
7.5 小結

|Chapter 08| 萬物皆可TransformerEncoderBERT系列
8.1 遷移學習與微調
8.2 Transformer Encoder
8.3 BERT
:雙向編碼器預訓練模型
8.4 章節實作:假新聞辨識 with BERT
8.5
常見問題與知識總整理
8.6 小結

 
|Chapter 09| 萬物皆可TransformerDecoderGPT系列
9.1 Transformer Decoder
9.2 GPT-1
9.3 GPT-2
:規模、Pre-LN與殘差縮放
9.4 GPT-3:少樣本 / 零樣本與提示學習
9.5 章節實作:微調GPT-2用於翻譯任務
9.6 常見問題與知識總整理
9.7 小結

|Chapter 10| 萬物皆可Transformer:中文語音辨識與Whisper微調
10.1 語音資料格式與特徵萃取
10.2 Whisper模型架構
10.3 QLoRA:高效微調大模型
10.4 章節實作:中文語音辨識微調實作流程
10.5 常見問題與知識總整理
10.6 小結

|Chapter 11| 萬物皆可Transformer:從GPT-3LLaMA 3的指示學習
11.1 從提示學習到指示學習
11.2 ChatGPT三階段訓練流程
11.3 LLM架構優化技術
11.4 章節實作:用LLaMA 3訓練繁中聊天機器人
11.5 常見問題與知識總整理
11.6 小結