跟我一起學機器學習
王成、黃曉輝
- 出版商: 清華大學
- 出版日期: 2022-07-01
- 定價: $414
- 售價: 7.9 折 $327
- 語言: 簡體中文
- ISBN: 7302592845
- ISBN-13: 9787302592846
-
相關分類:
Machine Learning
立即出貨
買這商品的人也買了...
中文年末書展|繁簡參展書2書75折 詳見活動內容 »
-
75折
為你寫的 Vue Components:從原子到系統,一步步用設計思維打造面面俱到的元件實戰力 (iThome 鐵人賽系列書)$780$585 -
75折
BDD in Action, 2/e (中文版)$960$720 -
75折
看不見的戰場:社群、AI 與企業資安危機$750$563 -
79折
AI 精準提問 × 高效應用:DeepSeek、ChatGPT、Claude、Gemini、Copilot 一本搞定$390$308 -
7折
超實用!Word.Excel.PowerPoint 辦公室 Office 365 省時高手必備 50招, 4/e (暢銷回饋版)$420$294 -
75折
裂縫碎光:資安數位生存戰$550$412 -
85折
日本當代最強插畫 2025 : 150位當代最強畫師豪華作品集$640$544 -
79折
Google BI 解決方案:Looker Studio × AI 數據驅動行銷實作,完美整合 Google Analytics 4、Google Ads、ChatGPT、Gemini$630$498 -
79折
超有料 Plus!職場第一實用的 AI 工作術 - 用對 AI 工具、自動化 Agent, 讓生產力全面進化!$599$473 -
75折
從零開始學 Visual C# 2022 程式設計, 4/e (暢銷回饋版)$690$518 -
75折
Windows 11 制霸攻略:圖解 AI 與 Copilot 應用,輕鬆搞懂新手必學的 Windows 技巧$640$480 -
75折
精準駕馭 Word!論文寫作絕非難事 (好評回饋版)$480$360 -
Sam Yang 的插畫藝術:用 Procreate / PS 畫出最強男友視角 x 女孩美好日常$699$629 -
79折
AI 加持!Google Sheets 超級工作流$599$473 -
78折
想要 SSR? 快使用 Nuxt 吧!:Nuxt 讓 Vue.js 更好處理 SEO 搜尋引擎最佳化(iThome鐵人賽系列書)$780$608 -
75折
超實用!業務.總管.人資的辦公室 WORD 365 省時高手必備 50招 (第二版)$500$375 -
7折
Node-RED + YOLO + ESP32-CAM:AIoT 智慧物聯網與邊緣 AI 專題實戰$680$476 -
79折
「生成式⇄AI」:52 個零程式互動體驗,打造新世代人工智慧素養$599$473 -
7折
Windows APT Warfare:惡意程式前線戰術指南, 3/e$720$504 -
75折
我輩程式人:回顧從 Ada 到 AI 這條程式路,程式人如何改變世界的歷史與未來展望 (We, Programmers: A Chronicle of Coders from Ada to AI)$850$637 -
75折
不用自己寫!用 GitHub Copilot 搞定 LLM 應用開發$600$450 -
79折
Tensorflow 接班王者:Google JAX 深度學習又快又強大 (好評回饋版)$780$616 -
79折
GPT4 會你也會 - 共融機器人的多模態互動式情感分析 (好評回饋版)$700$553 -
79折
技術士技能檢定 電腦軟體應用丙級術科解題教本|Office 2021$460$363 -
75折
Notion 與 Notion AI 全能實戰手冊:生活、學習與職場的智慧策略 (暢銷回饋版)$560$420
相關主題
商品描述
目錄大綱
目錄
第1章環境配置
1.1安裝Conda
1.1.1Windows環境
1.1.2Linux環境
1.2替換源
1.3Conda環境管理
1.3.1虛擬環境安裝
1.3.2虛擬環境使用
1.4PyCharm安裝與配置
1.5小結
第2章線性回歸
2.1模型的建立與求解
2.1.1理解線性回歸模型
2.1.2建立線性回歸模型
2.1.3求解線性回歸模型
2.1.4sklearn簡介
2.1.5安裝sklearn及其他庫
2.1.6線性回歸示例代碼
2.1.7小結
2.2多變量線性回歸
2.2.1理解多變量
2.2.2多變量線性回歸建模
2.2.3多變量回歸示例代碼
2.3多項式回歸
2.3.1理解多項式
2.3.2多項式回歸建模
2.3.3多項式回歸示例代碼
2.3.4小結
2.4回歸模型評估
2.4.1常見回歸評估指標
2.4.2回歸指標示例代碼
2.4.3小結
2.5梯度下降
2.5.1方向導數與梯度
2.5.2梯度下降算法
2.5.3小結
2.6正態分佈
2.6.1一個問題的出現
2.6.2正態分佈
2.7目標函數推導
2.7.1目標函數
2.7.2求解梯度
2.7.3矢量化計算
2.7.4從零實現線性回歸
2.7.5小結
第3章邏輯回歸
3.1模型的建立與求解
3.1.1理解邏輯回歸模型
3.1.2建立邏輯回歸模型
3.1.3求解邏輯回歸模型
3.1.4邏輯回歸示例代碼
3.1.5小結
3.2多變量與多分類
3.2.1多變量邏輯回歸
3.2.2多分類邏輯回歸
3.2.3多分類示例代碼
3.2.4小結
3.3常見的分類評估指標
3.3.1二分類場景
3.3.2二分類指標示例代碼
3.3.3多分類場景
3.3.4多分類指標示例代碼
3.3.5小結
3.4目標函數推導
3.4.1映射函數
3.4.2概率表示
3.4.3極大似然估計
3.4.4求解梯度
3.4.5從零實現二分類邏輯回歸
3.4.6從零實現多分類邏輯回歸
3.4.7小結
第4章模型的改善與泛化
4.1基本概念
4.2特徵標準化
4.2.1等高線
4.2.2梯度與等高線
4.2.3標準化方法
4.2.4特徵組合與映射
4.2.5小結
4.3過擬合
4.3.1模型擬合
4.3.2過擬合與欠擬合
4.3.3解決欠擬合與過擬合問題
4.3.4小結
4.4正則化
4.4.1測試集導致糟糕的泛化誤差
4.4.2訓練集導致糟糕的泛化誤差
4.4.3正則化中的參數更新
4.4.4正則化示例代碼
4.4.5小結
4.5偏差、方差與交叉驗證
4.5.1偏差與方差定義
4.5.2模型的偏差與方差
4.5.3超參數選擇
4.5.4模型選擇
4.5.5小結
4.6實例分析手寫體識別
4.6.1數據預處理
4.6.2模型選擇
4.6.3模型測試
4.6.4小結
第5章K近鄰
5.1K近鄰思想
5.2K近鄰原理
5.2.1算法原理
5.2.2K值選擇
5.2.3距離度量
5.3sklearn接口與示例代碼
5.3.1sklearn接口介紹
5.3.2K近鄰示例代碼
5.3.3小結
5.4kd樹
5.4.1構造kd樹
5.4.2最近鄰kd樹搜索
5.4.3最近鄰搜索示例
5.4.4K近鄰kd樹搜索
5.4.5K近鄰搜索示例
5.4.6小結
第6章樸素貝葉斯
6.1樸素貝葉斯算法
6.1.1概念介紹
6.1.2理解樸素貝葉斯
6.1.3計算示例
6.1.4求解步驟
6.1.5小結
6.2貝葉斯估計
6.2.1平滑處理
6.2.2計算示例
6.2.3小結
第7章文本特徵提取與模型復用
7.1詞袋模型
7.1.1理解詞袋模型
7.1.2文本分詞
7.1.3構造詞表
7.1.4文本向量化
7.1.5考慮詞頻的文本向量化
7.1.6小結
7.2基於貝葉斯算法的垃圾郵件分類
7.2.1加載原始文本
7.2.2製作數據集
7.2.3訓練模型
7.2.4復用模型
7.2.5小結
7.3考慮權重的詞袋模型
7.3.1理解TFIDF
7.3.2TFIDF計算原理
7.3.3TFIDF計算示例
7.3.4TFIDF示例代碼
7.3.5小結
7.4詞雲圖
7.4.1生成詞雲圖
7.4.2自定義樣式
7.4.3小結
第8章決策樹與集成學習
8.1決策樹的基本思想
8.1.1冠軍球隊
8.1.2信息的度量
8.1.3小結
8.2決策樹的生成之ID3與C4.5
8.2.1基本概念與定義
8.2.2計算示例
8.2.3ID3生成算法
8.2.4C4.5生成算法
8.2.5特徵劃分
8.2.6小結
8.3決策樹生成與可視化
8.3.1ID3算法示例代碼
8.3.2決策樹可視化
8.3.3小結
8.4決策樹剪枝
8.4.1剪枝思想
8.4.2剪枝步驟
8.4.3剪枝示例
8.4.4小結
8.5CART生成與剪枝算法
8.5.1CART算法
8.5.2分類樹生成算法
8.5.3分類樹生成示例
8.5.4分類樹剪枝步驟
8.5.5分類樹剪枝示例
8.5.6小結
8.6集成學習
8.6.1集成學習思想
8.6.2集成學習種類
8.6.3Bagging集成學習
8.6.4Boosting集成學習
8.6.5Stacking集成學習
8.6.6小結
8.7隨機森林
8.7.1隨機森林原理
8.7.2隨機森林示例代碼
8.7.3特徵重要性評估
8.7.4小結
8.8泰坦尼克號生還預測
8.8.1讀取數據集
8.8.2特徵選擇
8.8.3缺失值填充
8.8.4特徵值轉換
8.8.5乘客生還預測
8.8.6小結
第9章支持向量機
9.1SVM思想
9.2SVM原理
9.2.1超平面的表達
9.2.2函數間隔
9.2.3幾何間隔
9.2.4最大間隔分類器
9.2.5函數間隔的性質
9.2.6小結
9.3SVM示例代碼與線性不可分
9.3.1線性SVM示例代碼
9.3.2從線性不可分談起
9.3.3將低維特徵映射到高維空間
9.3.4SVM中的核技巧
9.3.5從高維到無窮維
9.3.6常見核函數
9.3.7小結
9.4SVM中的軟間隔
9.4.1軟間隔定義
9.4.2最大化軟間隔
9.4.3SVM軟間隔示例代碼
9.4.4小結
9.5拉格朗日乘數法
9.5.1條件極值
9.5.2求解條件極值
9.5.3小結
9.6對偶性與KKT條件
9.6.1廣義拉格朗日乘數法
9.6.2原始優化問題
9.6.3對偶優化問題
9.6.4KKT條件
9.6.5計算示例
9.6.6小結
9.7SVM優化問題
9.7.1構造硬間隔廣義拉格朗日函數
9.7.2硬間隔求解計算示例
9.7.3構造軟間隔廣義拉格朗日函數
9.7.4軟間隔中的支持向量
9.7.5小結
9.8SMO算法
9.8.1坐標上升算法
9.8.2SMO算法思想
9.8.3SMO算法原理
9.8.4偏置b求解
9.8.5SVM算法求解示例
9.8.6小結
第10章聚類
10.1聚類算法的思想
10.2kmeans聚類算法
10.2.1算法原理
10.2.2k值選取
10.2.3kmeans聚類示例代碼
10.2.4小結
10.3kmeans算法求解
10.3.1kmeans算法目標函數
10.3.2求解簇中心矩陣Z
10.3.3求解簇分配矩陣U
10.3.4小結
10.4從零實現kmeans聚類算法
10.4.1隨機初始化簇中心
10.4.2簇分配矩陣實現
10.4.3簇中心矩陣實現
10.4.4聚類算法實現
10.4.5小結
10.5kmeans++聚類算法
10.5.1算法原理
10.5.2計算示例
10.5.3從零實現kmeans++聚類算法
10.5.4小結
10.6聚類評估指標
10.6.1聚類純度
10.6.2蘭德系數與F值
10.6.3調整蘭德系數
10.6.4聚類指標示例代碼
10.6.5小結
10.7加權kmeans聚類算法
10.7.1引例
10.7.2加權kmeans聚類算法思想
10.7.3加權kmeans聚類算法原理
10.7.4加權kmeans聚類算法疊代公式
10.7.5從零實現加權kmeans聚類算法
10.7.6參數求解
10.7.7小結



