注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡人工智能深度強化學習核心算法與應用

深度強化學習核心算法與應用

深度強化學習核心算法與應用

定 價:¥69.00

作 者: 陳世勇,蘇博覽,楊敬文 著
出版社: 電子工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787121417603 出版時間: 2021-09-01 包裝: 平裝
開本: 16開 頁數: 160 字數:  

內容簡介

  強化學習是實現決策智能的主要途徑之一。經歷數十年的發(fā)展,強化學習領域已經枝繁葉茂,技術內容紛繁復雜,這也為初學者快速入門造成障礙。 本書是一本深度強化學習領域的入門讀物,梳理了深度強化學習算法的發(fā)展脈絡,闡述了各類算法之間的關聯,它們之間既有繼承也有更新和發(fā)展,這種寫法可以幫助讀者更好地掌握算法中不變的精髓,并理解在不同的場景下應如何根據情勢作出調整。 全書分為四部分。第一部分主要闡述強化學習領域的基本理論知識;第二部分講解深度強化學習常用算法的原理、各算法之間的繼承與發(fā)展,以及各自的算法流程;第三部分總結深度強化學習算法在游戲、推薦系統等領域的應用;第四部分探討了該領域存在的問題和發(fā)展前景。本書適合想了解強化學習算法的小伙伴作為入門讀物,也適合對強化學習感興趣的讀者閱讀。

作者簡介

  陳世勇 騰訊游戲AI研究中心高級算法研究員。畢業(yè)于南京大學機器學習與數據挖掘研究所,主要從事強化學習、分布式機器學習方面的研究工作,并在國際頂級會議和期刊上發(fā)表多篇論文。對于大規(guī)模強化學習在游戲AI和推薦系統領域的研究和落地有著豐富經驗,負責了多款游戲的強化學習AI項目和“淘寶錦囊”強化學習推薦項目研發(fā),參與了虛擬淘寶項目研發(fā)。蘇博覽 新加坡國立大學博士,曾任職于騰訊游戲AI研究中心,參與了QQ飛車和斗地主游戲AI的研發(fā),在國際頂級會議和期刊發(fā)表論文數十篇,在機器學習和強化學習上有豐富的科研和落地應用經驗。楊敬文 騰訊游戲AI研究中心高級算法研究員。畢業(yè)于南京大學機器學習與數據挖掘研究所,獲南京大學“優(yōu)秀畢業(yè)生”稱號、南京大學計算機優(yōu)秀碩士畢業(yè)論文獎。曾獲全國大學生大數據競賽第yi名,在國際頂會發(fā)表多篇論文和技術文章。長期從事強化學習在游戲領域的研究與應用,是競速類、格斗類、射擊類、多人在線戰(zhàn)術競技類等強化學習AI項目的主要負責人之一,具有豐厚的強化學習研究和落地的經驗。

圖書目錄

第I 部分基礎理論篇 1
第1 章馬爾可夫決策過程 3
1.1 馬爾可夫性 3
1.2 一些基本定義 4
1.3 值函數 5
1.4 基于策略的值函數 5
1.5 貝爾曼方程 6
1.6 策略迭代與值迭代 7
第2 章無模型的強化學習 9
2.1 蒙特卡洛方法 10
2.1.1 蒙特卡洛方法預測狀態(tài)V 值 10
2.1.2 蒙特卡洛方法預測Q 值 11
2.1.3 蒙特卡洛策略優(yōu)化算法 11
2.1.4 探索和利用 12
2.1.5 異策略蒙特卡洛方法 13
2.2 時間差分方法 16
2.2.1 基本思想 16
2.2.2 Sarsa 算法 17
2.2.3 Q-Learning 算法 20
2.3 值函數估計和策略搜索 23
深度強化學習核心算法與應用
2.3.1 值函數估計 23
2.3.2 策略搜索 24
第3 章有模型的強化學習 27
3.1 什么是模型 27
3.2 基本思路 28
3.3 有模型方法和無模型方法的區(qū)別 29
3.4 典型算法 31
第II 部分常用算法篇 33
第4 章DQN 算法 35
4.1 算法介紹 35
4.1.1 背景 36
4.1.2 核心技術 37
4.1.3 算法流程 39
4.2 相關改進 40
4.2.1 Double Q-Learning 40
4.2.2 優(yōu)先級回放 41
4.2.3 Dueling Networks 41
4.3 實驗效果與小結 43
第5 章A3C 算法 45
5.1 Actor-Critic 方法 45
5.2 基線減法與優(yōu)勢函數 47
5.3 博采眾長的A3C 算法 48
5.4 實驗效果與小結 50
第6 章確定性策略梯度方法 53
6.1 隨機性策略梯度與確定性策略梯度 53
iv
目錄
6.2 異策略的確定性策略梯度 54
6.3 深度確定性策略梯度 56
6.4 D4PG 算法 57
6.4.1 分布式 57
6.4.2 值函數分布 58
6.4.3 N-step TD 誤差和優(yōu)先級的經驗回放 59
6.5 實驗效果與小結 59
第7 章PPO 算法 61
7.1 PPO 算法的核心 61
7.2 TRPO 算法 62
7.3 PPO 算法 65
7.4 實驗效果與小結 67
7.4.1 替代函數的對比 67
7.4.2 在連續(xù)空間中與其他算法的對比 68
7.4.3 小結 69
第8 章IMPALA 算法 71
8.1 算法架構 71
8.2 V-trace 算法 73
8.3 V-trace Actor-Critic 算法 75
8.4 實驗效果與小結 76
8.4.1 計算性能 76
8.4.2 單任務訓練性能 76
8.4.3 多任務訓練性能 78
8.4.4 小結 79
v
深度強化學習核心算法與應用
第III 部分應用實踐篇 81
第9 章深度強化學習在棋牌游戲中的應用 83
9.1 棋盤類游戲 84
9.1.1 AlphaGo: 戰(zhàn)勝人類圍棋冠軍 84
9.1.2 AlphaGo Zero: 不使用人類數據,從頭學習 87
9.1.3 AlphaZero: 從圍棋到更多 90
9.2 牌類游戲 93
9.2.1 Suphx 的五個模型 93
9.2.2 Suphx 的訓練過程和算法優(yōu)化 94
9.2.3 Suphx 的線上實戰(zhàn)表現 94
第10 章深度強化學習在電子游戲中的應用 97
10.1 研發(fā)游戲中的機器人 97
10.1.1 單機游戲 97
10.1.2 對戰(zhàn)游戲 99
10.1.3 小結 104
10.2 制作游戲動畫 105
10.3 其他應用 106
第11 章深度強化學習在推薦系統中的應用 109
11.1 適用的場景 110
11.1.1 動態(tài)變化 110
11.1.2 考慮長期利益 110
11.2 淘寶錦囊推薦中的應用 111
11.2.1 淘寶錦囊推薦介紹 111
11.2.2 問題建模與推薦框架 112
11.2.3 算法設計與實驗 114
vi
目錄
第12 章深度強化學習在其他領域中的應用 119
12.1 在無人駕駛中的應用 119
12.2 在金融交易中的應用 121
12.3 在信息安全中的應用 122
12.4 在自動調參中的應用 123
12.5 在交通控制中的應用 124
第IV 部分總結與展望篇 127
第13 章問題與挑戰(zhàn) 129
13.1 樣本利用率低 129
13.2 獎勵函數難以設計 131
13.3 實驗效果難復現 132
13.4 行為不完全可控 134
第14 章深度強化學習往何處去 135
14.1 未來發(fā)展和研究方向 136
14.1.1 有模型的方法潛力巨大 136
14.1.2 模仿學習 137
14.1.3 遷移學習的引入 138
14.1.4 分層強化學習 140
14.2 審慎樂觀,大有可為 141
參考資料 143

本目錄推薦

掃描二維碼
Copyright ? 讀書網 ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號