詳解深度學習 基於 TensorFlow 和 Keras 學習 RNN
[日]巢籠悠輔
- 出版商: 人民郵電
- 出版日期: 2019-11-01
- 售價: $474
- 貴賓價: 9.5 折 $450
- 語言: 簡體中文
- 頁數: 293
- ISBN: 711551996X
- ISBN-13: 9787115519962
-
相關分類:
DeepLearning、TensorFlow、Python
立即出貨 (庫存=1)
買這商品的人也買了...
-
$351深度學習實戰 -
產品領導力|頂尖產品經理打造出色產品與成功團隊的致勝關鍵 (Product Leadership: How Top Product Managers Launch Awesome Products and Build Successful Teams)$400$316 -
產品路線圖|從革新到蛻變 (Product Roadmapping: Align Your Teams, and Deliver the Most to Your Customers and Stakeholders)$580$458 -
實戰 Firebase|APP 開發者的最佳雲端服務平台$400$316 -
數位通訊系統演進之理論與應用 : 2G/3G/4G/5G/NB-Iot, 4/e$430$387 -
Deep learning 深度學習必讀 - Keras 大神帶你用 Python 實作 (Deep Learning with Python)$1,000$790 -
用 Python 實作強化學習|使用 TensorFlow 與 OpenAI Gym (Hands-On Reinforcement Learning with Python)$520$410 -
$594深度強化學習原理與實踐 -
$400深度學習案例精粹 -
$355基於瀏覽器的深度學習 -
$356Python 機器學習和圖像處理實戰 : 面部識別、目標檢測和模式識別 (Practical Machine Learning and Image Processing: For Facial Recognition, Object Detection, and Pattern Recognition Using Python) -
Laravel 啟動與運行, 2/e (Laravel : Up & Running: A Framework for Building Modern PHP Apps, 2/e)$780$616 -
極詳細 + 超深入:最新版 TensorFlow 1.x/2.x 完整工程實作$1,200$948 -
$490程序員的AI書:從代碼開始 -
$453智能風控:原理算法與工程實踐 -
$351深度學習筆記 -
遷移學習 -- TRANSFER LEARNING (楊強教授新作)$834$792 -
用 TensorFlow 玩轉大數據與量化交易, 2/e$650$553 -
深度學習的 16 堂課:CNN + RNN + GAN + DQN + DRL, 看得懂、學得會、做得出! (Deep Learning Illustrated: A Visual, Interactive Guide to Artificial Intelligence)$620$489 -
深入理解 Transformer 自然語言處理$594$564 -
MediaPipe 機器學習跨平臺框架實戰$654$621 -
AI 大模型創新案例開發實踐 — 基於訊飛星火大模型項目開發 30例$594$564 -
Transformer原理解析及中文項目實踐(微課視頻版)$414$393 -
擴散模型 — 核心原理與強化學習優化$479$455 -
文本機器學習$954$906
商品描述
本書著眼於處理時間序列數據的深度學習算法,通過基於Python 語言的庫TensorFlow 和Keras來學習神經網絡、深度學習的理論和實現。全書共六章,前兩章講解了學習神經網絡所需的數學知識和Python 基礎知識;中間兩章講解了神經網絡的基本算法以及深度學習的基礎知識和應用;最後兩章詳細介紹了專門用於處理時間序列數據的循環神經網絡(RNN)。
作者簡介
鄭明智,智慧醫療工程師。主要研究方向為醫療領域的自然語言處理及其應用,密切關註大數據、機器學習、深度學習等領域。
目錄大綱
第1章 數學準備
1.1 偏微分
1.1.1 導函數和偏導函數
1.1.2 微分系數與偏微分系數
1.1.3 偏微分的基本公式
1.1.4 覆合函數的偏微分
1.1.5 拓展全微分
1.2 線性代數
1.2.1 向量
1.2.1.1 向量的基礎知識
1.2.1.2 向量的和與標量倍數
1.2.1.3 向量的內積
1.2.2 矩陣
1.2.2.1 矩陣的基礎知識
1.2.2.2 矩陣的和與標量倍數
1.2.2.3 矩陣的乘積
1.2.2.4 正則矩陣與逆矩陣
1.2.2.5 轉置矩陣
1.3 小結
第2章 Python準備
2.1 Python 2和Python 3
2.2 Anaconda發行版
2.3 Python的基礎知識
2.3.1 Python程序的執行
2.3.2 數據類型
2.3.2.1 類型是什麼
2.3.2.2 字符串類型
2.3.2.3 數值類型
2.3.2.4 布爾類型
2.3.3 變量
2.3.3.1 變量是什麼
2.3.3.2 變量與類型
2.3.4 數據結構
2.3.4.1 列表
2.3.4.2 字典
2.3.5 運算
2.3.5.1 運算符與操作數
2.3.5.2 算術運算的運算符
2.3.5.3 賦值運算符
2.3.6 基本結構
2.3.6.1 if語句
2.3.6.2 while語句
2.3.6.3 for語句
2.3.7 函數
2.3.8 類
2.3.9 庫
2.4 NumPy
2.4.1 NumPy數組
2.4.2 使用NumPy進行向量和矩陣的計算
2.4.3 數組和多維數組的生成
2.4.4 切片
2.4.5 廣播
2.5 面向深度學習的庫
2.5.1 TensorFlow
2.5.2 Keras
2.5.3 參考Theano
2.6 小結
第3章 神經網絡
3.1 什麼是神經網絡
3.1.1 腦和神經元
3.1.2 深度學習和神經網絡
3.2 作為電路的神經網絡
3.2.1 簡單的模型化
3.2.2 邏輯電路
3.2.2.1 邏輯門
3.2.2.2 與門
3.2.2.3 或門
3.2.2.4 非門
3.3 簡單感知機
3.3.1 模型化
3.3.2 實現
3.4 邏輯回歸
3.4.1 階躍函數與sigmoid函數
3.4.2 模型化
3.4.2.1 似然函數與交叉熵誤差函數
3.4.2.2 梯度下降法
3.4.2.3 隨機梯度下降法與小批量梯度下降法
3.4.3 實現
3.4.3.1 使用TensorFlow的實現
3.4.3.2 使用Keras的實現
3.4.4 拓展sigmoid函數與概率密度函數、累積分布函數
3.4.5 拓展梯度下降法和局部最優解
3.5 多分類邏輯回歸
3.5.1 softmax函數
3.5.2 模型化
3.5.3 實現
3.5.3.1 使用TensorFlow的實現
3.5.3.2 使用Keras的實現
3.6 多層感知機
3.6.1 非線性分類
3.6.1.1 異或門
3.6.1.2 邏輯門的組合
3.6.2 模型化
3.6.3 實現
3.6.3.1 使用TensorFlow的實現
3.6.3.2 使用Keras的實現
3.7 模型的評估
3.7.1 從分類到預測
3.7.2 預測的評估
3.7.3 簡單的實驗
3.8 小結
第4章 深度神經網絡
4.1 進入深度學習之前的準備
4.2 訓練過程中的問題
4.2.1 梯度消失問題
4.2.2 過擬合問題
4.3 訓練的高效化
4.3.1 激活函數
4.3.1.1 雙曲正切函數
4.3.1.2 ReLU
4.3.1.3 Leaky ReLU
4.3.1.4 Parametric ReLU
4.3.2 Dropout
4.4 代碼的設計
4.4.1 基本設計
4.4.1.1 使用TensorFlow的實現
4.4.1.2 使用Keras的實現
4.4.1.3 拓展對TensorFlow模型進行類封裝
4.4.2 訓練的可視化
4.4.2.1 使用TensorFlow的實現
4.4.2.2 使用Keras的實現
4.5 高級技術
4.5.1 數據的正則化與權重的初始化
4.5.2 學習率的設置
4.5.2.1 動量
4.5.2.2 Nesterov動量
4.5.2.3 Adagrad
4.5.2.4 Adadelta
4.5.2.5 RMSprop
4.5.2.6 Adam
4.5.3 早停法
4.5.4 Batch Normalization
4.6 小結
第5章 循環神經網絡
5.1 基本概念
5.1.1 時間序列數據
5.1.2 過去的隱藏層
5.1.3 基於時間的反向傳播算法
5.1.4 實現
5.1.4.1 準備時間序列數據
5.1.4.2 使用TensorFlow的實現
5.1.4.3 使用Keras的實現
5.2 LSTM
5.2.1 LSTM 塊
5.2.2 CEC、輸入門和輸出門
5.2.2.1 穩態誤差
5.2.2.2 輸入權重沖突和輸出權重沖突
5.2.3 遺忘門
5.2.4 窺視孔連接
5.2.5 模型化
5.2.6 實現
5.2.7 長期依賴信息的訓練評估——Adding Problem
5.3 GRU
5.3.1 模型化
5.3.2 實現
5.4 小結
第6章 循環神經網絡的應用
6.1 雙向循環神經網絡
6.1.1 未來的隱藏層
6.1.2 前向、後向傳播


