Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras Applied Reinforcement Learning with Python: With Openai Gym, Tensorflow, and Keras

Taweh Beysolow II 敖富江 杜靜 張民壘 譯

立即出貨 (庫存 < 3)

  • Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras-preview-1
  • Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras-preview-2
  • Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras-preview-3
Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras-preview-1

買這商品的人也買了...

相關主題

商品描述

主要內容:
 使用Python實現強化學習算法; 應用A相架,例如OpenAl Gym.TensorFlow和人cras利用雲資源部窖並訓練基於強化學習的解決方案;
 實戰遢化學習實際應用

 

作者簡介

Taweh Beysolow II

是一位數據科學家和作家,目前居住在美國。
他擁有美國聖約翰大學的經濟學學士學位和福特漢姆大學的應用統計學理學碩士學位。
在成功退出與他人共同創立的初創公司後,他現在擔任總部位於舊金山的私人股本公司Industry Capital的董事,
在那裡領導加密貨幣和區塊鏈平台。

目錄大綱

目 錄
第1章  強化學習導論  1
1.1  強化學習的發展史  2
1.2  MDP及其與強化學習的關系  3
1.3  強化學習算法和強化學習框架  5
1.4  Q學習  8
1.5  強化學習的應用  9
1.5.1  經典控制問題  9
1.5.2  《超級馬里奧兄弟》游戲  10
1.5.3  《毀滅戰士》游戲  11
1.5.4  基於強化學習的做市策略  12
1.5.5  《刺蝟索尼克》游戲  12
1.6  本章小結  13

第2章  強化學習算法  15
2.1  OpenAI Gym  15
2.2  基於策略的學習  16
2.3  策略梯度的數學解釋  17
2.4  基於梯度上升的策略優化  19
2.5  使用普通策略梯度法求解車桿問題  20
2.6  什麽是折扣獎勵,為什麽要使用它們  23
2.7  策略梯度的不足  28
2.8  近端策略優化(PPO)和Actor-Critic模型  29
2.9  實現PPO並求解《超級馬里奧兄弟》  30
2.9.1  《超級馬里奧兄弟》概述  30
2.9.2  安裝環境軟件包  31
2.9.3  資源庫中的代碼結構  32
2.9.4  模型架構  32
2.10  應對難度更大的強化學習挑戰  37
2.11  容器化強化學習實驗  39
2.12  實驗結果  41
2.13  本章小結  41

第3章  強化學習算法:Q學習及其變種  43
3.1  Q學習  43
3.2  時序差分(TD)學習  45
3.3  epsilon-greedy算法  46
3.4  利用Q學習求解冰湖問題  47
3.5  深度Q學習  50
3.6  利用深度Q學習玩《毀滅戰士》游戲  51
3.7  訓練與性能  56
3.8  深度Q學習的局限性  57
3.9  雙Q學習和雙深度Q網絡  58
3.10  本章小結  59

第4章  基於強化學習的做市策略  61
4.1  什麽是做市  61
4.2  Trading Gym  63
4.3  為什麽強化學習適用於做市  64
4.4  使用Trading Gym合成訂單簿數據  66
4.5  使用Trading Gym生成訂單簿數據  67
4.6  實驗設計  68
4.6.1  強化學習方法1:策略梯度  71
4.6.2  強化學習方法2:深度Q網絡  71
4.7  結果和討論  73
4.8  本章小結  74

第5章  自定義OpenAI強化學習環境  75
5.1  《刺蝟索尼克》游戲概述  75
5.2  下載該游戲  76
5.3  編寫該環境的代碼  78
5.4  A3C Actor-Critic  82
5.5  本章小結  88
附錄A  源代碼  91