模式辨識與機器學習基礎

Ulisses Braga-Neto 譯者 潘巍//歐陽建權//劉瑩//趙地//蘇統華

買這商品的人也買了...

相關主題

商品描述

模式識別和機器學習是人工智慧應用的基礎。
本書將模式辨識任務依照監督學習和無監督學習兩種方式進行組織。
第1章討論模式識別和機器學習的內在關係,介紹了兩者的基礎知識和模式識別的設計過程。
第2章和第3章介紹了zui最佳化的和常規的基於實例的分類問題。
第4~6章檢驗了參數的、非參數的和函數逼近的分類規則。
之後在第7章和第8章就分類的誤差估計和模型選擇對分類模型的表現進行討論。
第9章介紹了能夠提高分類模型的效能並減少儲存空間的降維技術。
第10章和第11章分別介紹了聚類分析技術和迴歸模型。
本書適合相關專業高年級本科生和研究生,以及該領域的從業人員閱讀。

目錄大綱

譯者序
前言
第1章概述
1.1 模式辨識與機器學習
1.2 數學基礎設定
1.3 預測
1.4 預測誤差1.5
監督學習與無監督學習
1.6 複雜性權衡
1.7 設計週期
1.8 應用實例
1.8.1 生物資訊學
1.8.2 材料材料資訊學
1.9 文獻註釋
第2章優分類
2.1 無特徵分類
2.2 有特徵分類
2.3 貝葉斯分類器
2.4 貝葉斯誤差
2.5 高斯模型
2.5.1 同方差情況
2.5.2 異方差情況
2.6 其他主題
2.6.1極小極大分類
2.6.2 F-誤差
2.6.3 貝葉斯決策理論
*2.6.4 分類問題的嚴格表達
2.7 文獻註釋
2.8 練習
2.9 Python作業
第3章基於實例的分類
3.1 分類規則
3.2 分類錯誤率
*3.3 一致性
3.4 沒有免費午餐定理
3.5 其他主題
3.5.1 集成分類
3.5.2 混合抽樣與獨立抽樣
3.6 文獻註釋
3.7 練習
3.8 Python作業
第4章參數分類
4.1 參數替換規則
4.2 高斯判別分析
4.2.1 線性判別分析
4.2.2 二次判別分析
4.3 邏輯斯諦分類
4.4 其他主題
4.4.1 正規化判別分析
*4.4.2 參數規則的一致性
4.4.3 貝葉斯參數規則
4.5 文獻註釋
4.6 練習
4.7 Python作業
第5章非參數分類
5.1 非參數替換規則
5.2 直方圖分類
5.3 最近鄰分類
5.4 核分類
5.5 Cover-Hart定理
*5.6 Stone定理
5.7 文獻註
5.8 練習
5.9 Python作業
第6章函數逼近分類
6.1 支援向量機
6.1. 1 可分割資料的線性支援向量機
6.1.2 一般線性支援向量機
6.1.3 非線性支援向量機
6.2 神經網路
6.2.1 反向傳播訓練
6.2.2 卷積神經網路
*6.2.3 神經網路的普遍逼近性質
6.2.4 普遍一致性定理
6.3 決策樹
6.4 有序分類器
6.5 文獻註釋
6.6 練習
6.7 Python作業
第7章分類誤差估計
7.1 誤差估計規則
7.2 誤差估計效能
7.2.1 偏差分佈
7.2.2 偏差、方差、均方根與尾機率
*7.2.3 一致性
7.3 測試集誤差估計
7.4 再代入誤差估計
7.5 交叉驗證
7.6 自助方法
7.7 增強誤差估計
7.8 其他主題
7.8.1 凸誤差估計器
7.8.2 平滑誤差估計器
7.8.3 貝葉斯誤差估計
7.9 文獻註釋
7.10 練習
7.11 Python作業
第8章分類模型選擇
8.1 分類複雜度
8.2 Vapnik-Chervonenkis理論
*8.2.1 有限模型選擇
8.2.2 打散係數與VC維度
8.2.3幾個分類規則中的VC參數
8.2.4 Vapnik-Chervonenkis定理
8.2.5 沒有免費午餐定理
8.3 模型選擇方法
8.3.1 驗證誤差最小化
8.3.2 訓練集誤差最小化
8.3.3 結構性風險最小化
8.4 文獻註釋
8.5 練習
第9章降維
9.1 面向分類任務的特徵提取
9.2 特徵選擇
9.2.1窮舉搜尋
9.2.2 單變量貪婪搜尋
9.2.3 多變量貪婪搜尋
9.2.4 特徵選擇與分類複雜性
9.2.5 特徵選擇與誤差估計
9.3 主成分分析
9.4 多維縮放
9.5 因子分析
9.6 文獻註釋
9.7 練習
9.8 Python作業
第10章聚類
10.1 K-Means演算法
10.2 高斯混合模型
10.2.1 期望大化方法
10.2.2 與K-Means的關係
10.3 層次聚類
10.4 自組織映射
10.5 文獻註釋
10.6 練習
10.7 Python作業
第11章迴歸
11.1 優迴歸
11.2 基於樣本的迴歸
11.3 參數迴歸
11.3.1 線性迴歸
11.3.2 高斯馬可夫定理
11.3.3 補償最小平方法11.4
非參數 迴歸11.4.1 核迴歸
11.4.2 高斯過程回歸11.5 函數迴歸11.4.1 核迴歸
11.4.2 高斯過程迴歸
11.5 函數過程近似迴歸
11.6 誤差估計
11.7 變數選擇
11.7.1 Wrapper搜尋
11.7.2 統計檢定
11.7.3 LASSO與ElasticNet
11.8 模型選擇
11.9 文獻註
11.10 練習
11.11 Python作業
附錄
參考文獻