深度強化學習核心算法與應用

陳世勇,蘇博覽,楊敬文

  • 出版商: 電子工業
  • 出版日期: 2021-09-01
  • 定價: $414
  • 售價: 8.5$352
  • 語言: 簡體中文
  • 頁數: 160
  • 裝訂: 平裝
  • ISBN: 712141760X
  • ISBN-13: 9787121417603
  • 相關分類: Reinforcement
  • 立即出貨 (庫存 < 3)

買這商品的人也買了...

商品描述

強化學習是實現決策智能的主要途徑之一。經歷數十年的發展,強化學習領域已經枝繁葉茂,技術內容紛繁復雜,這也為初學者快速入門造成障礙。 本書是一本深度強化學習領域的入門讀物。全書分為四部分。第一部分主要闡述強化學習領域的基本理論知識;第二部分講解深度強化學習常用算法的原理、各算法之間的繼承與發展,以及各自的算法流程;第三部分總結深度強化學習算法在游戲、推薦系統等領域的應用;第四部分探討了該領域存在的問題和發展前景。 本書適合對強化學習感興趣的讀者閱讀。

作者簡介

陳世勇
騰訊遊戲AI研究中心高級算法研究員。
畢業於南京大學機器學習與數據挖掘研究所,主要從事強化學習、分佈式機器學習方面的研究工作,並在國際頂級會議和期刊上發表多篇論文。
對於大規模強化學習在遊戲AI和推薦系統領域的研究和落地有著豐富經驗,負責了多款遊戲的強化學習AI項目和“淘寶錦囊”強化學習推薦項目研發,參與了虛擬淘寶項目研發。


蘇博覽
新加坡國立大學博士,曾任職於騰訊遊戲AI研究中心,參與了QQ飛車和斗地主遊戲AI的研發,在國際頂級會議和期刊發表論文數十篇,在機器學習和強化學習上有豐富的科研和落地應用經驗。


楊敬文
騰訊遊戲AI研究中心高級算法研究員。
畢業於南京大學機器學習與數據挖掘研究所,獲南京大學“優秀畢業生”稱號、南京大學計算機優秀碩士畢業論文獎。
曾獲全國大學生大數據競賽獲得冠軍,在國際頂會發表多篇論文和技術文章。
長期從事強化學習在遊戲領域的研究與應用,是競速類、格鬥類、射擊類、多人在線戰術競技類等強化學習AI項目的主要負責人之一,具有豐厚的強化學習研究和落地的經驗。

目錄大綱

第I 部分基礎理論篇 1
第1 章馬爾可夫決策過程 3
1.1 馬爾可夫性 3
1.2 一些基本定義 4
1.3 值函數 5
1.4 基於策略的值函數 5
1.5 貝爾曼方程 6
1.6 策略迭代與值迭代 7

第2 章無模型的強化學習 9
2.1 蒙特卡洛方法 10
2.1.1 蒙特卡洛方法預測狀態V 值 10
2.1.2 蒙特卡洛方法預測Q 值 11
2.1.3 蒙特卡洛策略優化算法 11
2.1.4 探索和利用 12
2.1.5 異策略蒙特卡洛方法 13
2.2 時間差分方法 16
2.2.1 基本思想 16
2.2.2 Sarsa 算法 17
2.2.3 Q-Learning 算法 20
2.3 值函數估計和策略搜索 23
2.3.1 值函數估計 23
2.3.2 策略搜索 24

第3 章有模型的強化學習 27
3.1 什麼是模型 27
3.2 基本思路 28
3.3 有模型方法和無模型方法的區別 29
3.4 典型算法 31

第II 部分常用算法篇 33
第4 章DQN 算法 35
4.1 算法介紹 35
4.1.1 背景 36
4.1.2 核心技術 37
4.1.3 算法流程 39
4.2 相關改進 40
4.2.1 Double Q-Learning 40
4.2.2 優先級回放 41
4.2.3 Dueling Networks 41
4.3 實驗效果與小結 43

第5 章A3C 算法 45
5.1 Actor-Critic 方法 45
5.2 基線減法與優勢函數 47
5.3 博採眾長的A3C 算法 48
5.4 實驗效果與小結 50

第6 章確定性策略梯度方法 53
6.1 隨機性策略梯度與確定性策略梯度 53
6.2 異策略的確定性策略梯度 54
6.3 深度確定性策略梯度 56
6.4 D4PG 算法 57
6.4.1 分佈式 57
6.4.2 值函數分佈 58
6.4.3 N-step TD 誤差和優先級的經驗回放 59
6.5 實驗效果與小結 59

第7 章PPO 算法 61
7.1 PPO 算法的核心 61
7.2 TRPO 算法 62
7.3 PPO 算法 65
7.4 實驗效果與小結 67
7.4.1 替代函數的對比 67
7.4.2 在連續空間中與其他算法的對比 68
7.4.3 小結 69

第8 章IMPALA 算法 71
8.1 算法架構 71
8.2 V-trace 算法 73
8.3 V-trace Actor-Critic 算法 75
8.4 實驗效果與小結 76
8.4.1 計算性能 76
8.4.2 單任務訓練性能 76
8.4.3 多任務訓練性能 78
8.4.4 小結 79

第III 部分應用實踐篇 81
第9 章深度強化學習在棋牌遊戲中的應用 83
9.1 棋盤類游戲 84
9.1.1 AlphaGo: 戰勝人類圍棋冠軍 84
9.1.2 AlphaGo Zero: 不使用人類數據,從頭學習 87
9.1.3 AlphaZero: 從圍棋到更多 90
9.2 牌類游戲 93
9.2.1 Suphx 的五個模型 93
9.2.2 Suphx 的訓練過程和算法優化 94
9.2.3 Suphx 的線上實戰表現 94

第10 章深度強化學習在電子遊戲中的應用 97
10.1 研發遊戲中的機器人 97
10.1.1 單機遊戲 97
10.1.2 對戰遊戲 99
10.1.3 小結 104
10.2 製作遊戲動畫 105
10.3 其他應用 106

第11 章深度強化學習在推薦系統中的應用 109
11.1 適用的場景 110
11.1.1 動態變化 110
11.1.2 考慮長期利益 110
11.2 淘寶錦囊推薦中的應用 111
11.2.1 淘寶錦囊推薦介紹 111
11.2.2 問題建模與推薦框架 112
11.2.3 算法設計與實驗 114

第12 章深度強化學習在其他領域中的應用 119
12.1 在無人駕駛中的應用 119
12.2 在金融交易中的應用 121
12.3 在信息安全中的應用 122
12.4 在自動調參中的應用 123
12.5 在交通控制中的應用 124

第IV 部分總結與展望篇 127
第13 章問題與挑戰 129
13.1 樣本利用率低 129
13.2 獎勵函數難以設計 131
13.3 實驗效果難復現 132
13.4 行為不完全可控 134

第14 章深度強化學習往何處去 135
14.1 未來發展和研究方向 136
14.1.1 有模型的方法潛力巨大 136
14.1.2 模仿學習 137
14.1.3 遷移學習的引入 138
14.1.4 分層強化學習 140
14.2 審慎樂觀,大有可為 141

參考資料 143