AI 程式設計、深度學習與 LLM 入門到精通:PyTorch × GPT × Transformer × LLaMA 實作指南(iThome鐵人賽系列書)
黃朝隆 著
- 出版商: 博碩
- 出版日期: 2025-10-17
- 定價: $650
- 售價: 7.8 折 $507
- 語言: 繁體中文
- 頁數: 296
- ISBN: 6264143030
- ISBN-13: 9786264143035
-
相關分類:
Large language model
尚未上市,歡迎預購
買這商品的人也買了...
-
$1,990$1,891 -
$550$435 -
$590$502 -
$359細說網頁製作
-
$699$594 -
$500$450 -
$750$638 -
$580$458 -
$680$578 -
$580$458 -
$680$537 -
$450$356 -
$500$395 -
$680$578 -
$480$374 -
$680$537 -
$780$663 -
$400$316 -
$359$341 -
$620$490 -
$980$774 -
$690$538 -
$650$507 -
$880$695 -
$850$663
相關主題
商品描述
全面掌握AI技術,開創屬於自己的AI之路,晉升專業實戰AI工程師
AI模型優化與實戰入門,矩陣到大型語言模型的完整攻略
理論與實作並行,完整理解AI的邏輯與機制
【專業推薦】
本書最討喜的地方在於理論與實作並重。更難得的是,書中穿插各式實務場景,點出真實專案裡那些惱人的小坑與解法,不只給漂亮結果,而是教你面對雜訊與限制。
─ 許芫齊,2025 AI CUP春季賽亞軍
本書建立了一個完整的學習流程:大綱引導→動手實作→QA問答,既易於理解,又能引導實作。對初學者而言,它是最穩妥的起點;對已有基礎的讀者,則提供了深化理論、補強實務的完整路徑。
─ 蘇連宏,2025 AI CUP春季賽殿軍
本書是一套實戰導向的可遷移知識體系,把數學直覺、程式實作、實驗設計與效能量測有機地扣在一起,既能支撐學術研究的嚴謹,也能對接產業場景的效率與可靠度。
─ 吳宇祈,國立成功大學 電機工程系碩士
本書以六個階段鋪陳學習路徑,先用NumPy把數學與張量運算動手拆開,再平順橋接到PyTorch的現代訓練框架,最後銜接自建模型與經典架構的理解與應用,結構清楚、節點分明,不會迷失方向。
─ 陳冠穎,國立成功大學 電機工程系碩士
【內容簡介】
♚AI知識剖析:完整理解數學、程式及實戰案例
♚實務能力提升:學會建構、優化並實際應用AI模型
♚實戰案例培訓:提供競賽經驗與案例,符合現場實務需求
♚前瞻技術學習:掌握從經典模型到Transformer架構
作者結合競賽與實務經驗,深入剖析流程邏輯與常見錯誤,帶你掌握資料前處理、特徵選取、模型訓練、效能評估與部署,並逐步理解從感知器到Transformer的核心概念,幫助你真正理解模型原理、具備獨立設計與優化AI模型的能力。
【目標讀者】
✪想要補足實作能力並加強理解、提升競賽與研究成果的學生與研究者。
✪想用多樣的方式理解複雜概念、對AI感興趣的非專業人士。
✪想要理解並導入AI技術、強化職場競爭力軟體的開發人員與工程師。
✪調整模型成為特定領域專家、使其協助日常生活的專業領域人士。
作者簡介
黃朝隆
現任AI研發工程師,專注於人工智慧與軟體開發,擅長自然語言處理、生成式AI及大型語言模型應用,致力於將前沿技術導入企業實務與智慧化系統。自碩士期間起,積極參與跨領域專案與學術研究,曾率領團隊於2025 AI CUP全國大專院校人工智慧競賽榮獲冠軍與亞軍,並取得多項競賽佳績。
除研發與著作外,亦受邀擔任企業內訓與學術講師,並具有國內外家教經驗,長期協助澳洲、新加坡及台灣的大專學生及業界工程師學習Python、深度學習、自然語言處理及AI專案開發。以實務導向與國際視野的教學方式,協助學生成功完成學業、研究專案,並順利進入人工智慧相關產業。
目錄大綱
|Chapter 01| 人工智慧入門與Python環境建置
1.1 人工智慧的發展歷程:從熱潮到寒冬,再到現在
1.2 拆解三大核心:人工智慧、機器學習與深度學習
1.3 機器學習的四種學習方式:監督、非監督、強化與遷移
1.4 Python與Jupyter Notebook實作的開發利器
1.5 常見問題與知識總整理
1.6 小結
|Chapter 02| 單層感知器的數學原理與實作入門
2.1 感知器簡介:人工智慧的起點
2.2 前向傳播:從輸入到預測的數學轉換
2.3 損失函數與反向傳播:學習的數學核心
2.4 梯度下降與參數更新:從錯誤中修正的機制
2.5 章節實作:從單層感知器建立到預測輸出
2.6 常見問題與知識總整理
2.7 小結
|Chapter 03| 多層感知器與優化策略實戰
3.1 多層感知器的誕生:破解單層感知器的限制
3.2 MLP結構與數學原理:從輸入到機率輸出
3.3 反向傳播機制:從損失回推模型調整方向
3.4 選擇適當優化器:GD與SGD差異比較
3.5 章節實作:MLP訓練與優化器效能分析
3.6 常見問題與知識總整理
3.7 小結
|Chapter 04| PyTorch環境搭建與深度神經網路實作
4.1 PyTorch安裝與環境驗證
4.2 資料處理與MLP模型訓練流程
4.3 章節實作:MLP在CIFAR-10上的應用
4.4 常見問題與知識總整理
4.5 小結
|Chapter 05| CNN原理與PyTorch實作
5.1 CNN基礎與卷積細節
5.2 章節實作:圖像前處理與可調式CNN模型設計
5.3 常見問題與知識總整理
5.4 小結
|Chapter 06| 文字處理、序列模型與情緒分析實戰
6.1 斷詞與子詞策略
6.2 向量化方法:獨熱編碼 vs 詞嵌入
6.3 循環神經網路(RNN)
6.4 長短期記憶(LSTM)
6.5 門控循環單元(GRU)
6.6 章節實作:IMDB情緒分類(BERT分詞 + GRU)
6.7 常見問題與知識總整理
6.8 小結
|Chapter 07| Seq2Seq與Attention架構解析
7.1 Seq2Seq基礎:Encoder + Decoder
7.2 Attention強化:解決資訊壓縮瓶頸
7.3 章節實作:中英翻譯模型
7.4 常見問題與知識總整理
7.5 小結
|Chapter 08| 萬物皆可Transformer:Encoder與BERT系列
8.1 遷移學習與微調
8.2 Transformer Encoder
8.3 BERT:雙向編碼器預訓練模型
8.4 章節實作:假新聞辨識 with BERT
8.5 常見問題與知識總整理
8.6 小結
9.1 Transformer Decoder
9.2 GPT-1
9.3 GPT-2:規模、Pre-LN與殘差縮放
9.4 GPT-3:少樣本 / 零樣本與提示學習
9.5 章節實作:微調GPT-2用於翻譯任務
9.6 常見問題與知識總整理
9.7 小結
|Chapter 10| 萬物皆可Transformer:中文語音辨識與Whisper微調
10.1 語音資料格式與特徵萃取
10.2 Whisper模型架構
10.3 QLoRA:高效微調大模型
10.4 章節實作:中文語音辨識微調實作流程
10.5 常見問題與知識總整理
10.6 小結
|Chapter 11| 萬物皆可Transformer:從GPT-3到LLaMA 3的指示學習
11.1 從提示學習到指示學習
11.2 ChatGPT三階段訓練流程
11.3 LLM架構優化技術
11.4 章節實作:用LLaMA 3訓練繁中聊天機器人
11.5 常見問題與知識總整理
11.6 小結