Python 快樂編程 人工智能—深度學習基礎

千鋒教育高教產品研發部

  • 出版商: 清華大學
  • 出版日期: 2020-11-01
  • 定價: $294
  • 售價: 8.5$250
  • 語言: 簡體中文
  • 頁數: 199
  • 裝訂: 平裝
  • ISBN: 7302529132
  • ISBN-13: 9787302529132
  • 相關分類: Python程式語言DeepLearning
  • 下單後立即進貨 (約4週~6週)

  • Python 快樂編程  人工智能—深度學習基礎-preview-1
  • Python 快樂編程  人工智能—深度學習基礎-preview-2
Python 快樂編程  人工智能—深度學習基礎-preview-1

商品描述

本書是學習Python編程語言的入門書籍。Python是一種很流行的開源編程語言,可以在各種領域中用於編寫獨立的程序和腳本。
Python免費、可移植、功能強大,而且使用起來相當容易。來自軟件產業各個角落的程序員都已經發現,Python對於開發者效率和軟件質量的關註,這無論在大項目還是小項目中都是一個戰略性的優點。

作者簡介

胡耀文,清華大學出版社技術編審委員會委員,2009年參與國慶60週年官兵電子紀念冊項目,CSDN著名技術專家,博客瀏覽量超過1460350次,2012年7月出版Windows CE 7開發實戰詳解,2013年5月出版Windows8開發權威指南,2014年--2016年連續三年獲得微軟全球MVPz有價值專家。
尹成,​​畢業於清華大學,微軟全球z具價值專家,資深軟件架構師,CSDN著名技術專家,微軟-清華大學聯合實驗室技術顧問,清華大學移動互聯網技術協會顧問,清華大學Oracle-java創始人,清華大學Google技術俱樂部創始人,清華大學Linux技術俱樂部創始人。
精通java,C/C++,對於移動3G,語音技術,javaEE,信息安全,大數據高並發都有豐富的開發經驗。
2010年著書《Visual C++ 2010開發權威指南》,版權作為大陸的驕傲輸出台灣香港新加坡,代表大陸C++超越並引領台灣[4-5]

目錄大綱

目錄

第1章深度學習簡介
1.1什麽是機器學習
1.2什麽是深度學習
1.2.1深度學習的發展
1.2.2深度學習的3個層次
1.2.3深度學習的3種結構類型
1.3深度學習的研究現狀
1.4本章小結
1.5習題

第2章Theano基礎
2.1初識Theano
2.2安裝Theano
2.3配置環境變量
2.4Theano中的符號變量
2.5Theano編程風格
2.6Theano中的函數
2.6.1函數的定義
2.6.2函數的復制
2.6.3Theano中重要的函數
2.7Theano中的符號計算圖模型
2.7.1variable節點
2.7.2type節點
2.7.3apply節點
2.7.4op節點
2.7.5符號計算圖模型
2.8Theano中的條件表達式
2.9Theano中的循環
2.9.1scan循環的參數
2.9.2scan循環演示
2.10Theano中的常用Debug技巧
2.11本章小結
2.12習題

第3章線性代數基礎
3.1標量、向量、矩陣和張量
3.2線性相關與生成子空間
3.2.1線性組合
3.2.2線性相關
3.2.3向量組的秩
3.2.4實例: 求解方程組
3.2.5實例: 線性回歸
3.3範數
3.3.1向量範數
3.3.2矩陣範數
3.4特殊的矩陣與向量
3.5特徵值分解
3.6奇異值分解
3.7跡運算
3.8本章小結
3.9習題

第4章概率與信息論
4.1概率的用途
4.2樣本空間與隨機變量
4.3隨機變量的分佈函數
4.4一維隨機變量
4.4.1離散型隨機變量和分佈律
4.4.2連續型隨機變量和概率密度函數
4.4.3分辨離散型隨機變量和連續型隨機變量
4.5多維隨機變量
4.5.1二維隨機變量及其分佈函數
4.5.2邊緣分佈函數
4.6數學期望、方差、協方差
4.6.1數學期望
4.6.2方差
4.6.3協方差
4.7貝葉斯規則
4.7.1條件概率
4.7.2貝葉斯公式
4.7.3樸素貝葉斯
4.8正態分佈與最大似然估計
4.8.1正態分佈
4.8.2最大似然估計
4.9信息論
4.9.1信息熵
4.9.2條件熵
4.9.3互信息
4.9.4相對熵與交叉熵
4.10本章小結
4.11習題

第5章深度學習基礎知識
5.1學習算法
5.1.1任務T
5.1.2性能度量P
5.1.3經驗E
5.1.4人工神經網絡
5.1.5反向傳播算法
5.1.6MP神經元模型
5.1.7激活函數
5.2容量與擬合
5.2.1機器學習中的泛化
5.2.2過擬合
5.2.3欠擬合
5.2.4沒有免費的午餐定理
5.3評估方法
5.4偏差與方差
5.5監督學習算法
5.5.1線性回歸
5.5.2Logistic回歸
5.5.3支持向量機
5.6無監督學習算法
5.6.1K均值聚類
5.6.2主成分分析
5.7本章小結
5.8習題

第6章數值計算與最優化
6.1計算的穩定性
6.1.1上溢和下溢
6.1.2平滑與0
6.1.3算法穩定性與擾動
6.2數據的穩定性
6.2.1獨立同分佈與泛化能力
6.2.2類別不平衡
6.3性能的穩定性
6.4病態條件數
6.5梯度下降算法
6.6優化算法的選擇
6.7本章小結
6.8習題

第7章概率圖模型
7.1概率圖模型
7.2生成模型與判別模型
7.2.1生成模型
7.2.2判別模型
7.3表示理論與推理理論
7.4鏈式法則和因子分解
7.5獨立性和條件獨立性
7.6貝葉斯網絡
7.7馬爾可夫網絡
7.7.1條件獨立性
7.7.2分解性質
7.7.3圖像降噪
7.8圖模型中的推斷
7.8.1鏈推斷
7.8.2樹
7.8.3因子圖
7.8.4置信傳播算法
7.8.5一般圖的精確推斷
7.8.6學習圖結構
7.9本章小結
7.10習題

第8章前饋神經網絡
8.1神經元
8.2人工神經網絡
8.3感知機
8.3.1線性單元
8.3.2感知機的訓練
8.4激活函數
8.4.1Sigmoid函數
8.4.2Tanh函數
8.4.3ReLU函數
8.4.4Softmax函數
8.5基於梯度的學習
8.5.1前饋神經網絡的基本概念
8.5.2隨機梯度下降算法
8.6本章小結
8.7習題

第9章反向傳播與梯度計算
9.1風險最小化
9.1.1經驗風險最小化
9.1.2結構風險最小化
9.2梯度計算
9.2.1輸出層梯度
9.2.2隱藏層梯度
9.2.3參數梯度
9.2.4梯度消失和梯度爆炸
9.3反向傳播
9.4本章小結
9.5習題

第10章自編碼器
10.1自編碼器概述
10.2欠完備自編碼器
10.3常見的幾種自編碼器
10.3.1降噪自編碼器
10.3.2稀疏自編碼器
10.3.3棧式自編碼器
10.4本章小結
10.5習題

第11章玻爾茲曼機及其相關模型
11.1玻爾茲曼機
11.1.1玻爾茲曼機概述
11.1.2受限玻爾茲曼機
11.2能量模型
11.2.1能量函數
11.2.2能量函數與勢函數
11.2.3勢函數與概率分佈
11.3近似推斷
11.3.1邊緣分佈
11.3.2條件分佈
11.4對比散度
11.5本章小結
11.6習題

第12章循環神經網絡
12.1循環神經網絡概述
12.2語言模型
12.3雙向循環神經網絡
12.4深度循環神經網絡
12.5循環神經網絡的訓練
12.5.1前向計算
12.5.2誤差項的計算
12.5.3權重梯度的計算
12.6循環神經網絡中的梯度爆炸和梯度消失
12.7RNN的應用舉例——基於RNN的語言模型
12.7.1向量化
12.7.2Softmax層
12.7.3語言模型的訓練
12.8本章小結
12.9習題

第13章遞歸神經網絡
13.1遞歸神經網絡概述
13.2遞歸神經網絡的前向計算
13.3遞歸神經網絡的訓練
13.3.1誤差項的傳遞
13.3.2權重梯度的計算
13.3.3權重更新
13.4長短期記憶網絡
13.4.1遺忘門
13.4.2輸入門與輸出門
13.4.3候選門
13.5本章小結
13.6習題

第14章捲積神經網絡
14.1捲積運算
14.2網絡結構
14.3捲積層
14.4池化層
14.5輸出值的計算
14.6池化層輸出值的計算
14.7本章小結
14.8習題