注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書生活時尚體育棋牌深度學(xué)習(xí)與圍棋

深度學(xué)習(xí)與圍棋

深度學(xué)習(xí)與圍棋

定 價:¥99.00

作 者: [美] 馬克斯·帕佩拉(Max Pumperla) 著,趙普明 譯
出版社: 人民郵電出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787115551467 出版時間: 2021-03-01 包裝: 平裝
開本: 16開 頁數(shù): 312 字數(shù):  

內(nèi)容簡介

  這是一本深入淺出且極富趣味的深度學(xué)習(xí)入門書。本書選取深度學(xué)**年來最重大的突破之一 AlphaGo,將其背后的技術(shù)和原理娓娓道來,并配合一套基于 BetaGo 的開源代碼,帶領(lǐng)讀者從零開始一步步實現(xiàn)自己的“AlphaGo”。本書側(cè)重實踐,深入淺出,庖丁解牛般地將深度學(xué)習(xí)和AlphaGo這樣深奧的話題變得平易近人、觸手可及,內(nèi)容非常精彩。全書共分為3個部分:第一部分介紹機器學(xué)習(xí)和圍棋的基礎(chǔ)知識,并構(gòu)建一個最簡圍棋機器人,作為后面章節(jié)內(nèi)容的基礎(chǔ);第二部分分層次深入介紹AlphaGo背后的機器學(xué)習(xí)和深度學(xué)習(xí)技術(shù),包括樹搜索、神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)機器人和強化學(xué)習(xí),以及強化學(xué)習(xí)的幾個高級技巧,包括策略梯度、價值評估方法、演員-評價方法 3 類技術(shù);第三部分將前面兩部分準(zhǔn)備好的知識集成到一起,并最終引導(dǎo)讀者實現(xiàn)自己的AlphaGo,以及改進版AlphaGo Zero。讀完本書之后,讀者會對深度學(xué)習(xí)這個學(xué)科以及AlphaGo的技術(shù)細節(jié)有非常全面的了解,為進一步深入鉆研AI理論、拓展AI應(yīng)用打下良好基礎(chǔ)。本書不要求讀者對AI或圍棋有任何了解,只需要了解基本的Python語法以及基礎(chǔ)的線性代數(shù)和微積分知識。

作者簡介

  馬克斯·帕佩拉(Max Pumperla)供職于Skymind公司,是一位專職研究深度學(xué)習(xí)的數(shù)據(jù)科學(xué)家和工程師。他是深度學(xué)習(xí)平臺Aetros的聯(lián)合創(chuàng)始人。凱文·費格森(Kevin Ferguson)在分布式系統(tǒng)和數(shù)據(jù)科學(xué)領(lǐng)域擁有近20年的工作經(jīng)驗。他是Honor公司的數(shù)據(jù)科學(xué)家,曾就職于谷歌和Meebo等公司。馬克斯·帕佩拉和凱文·費格森都是經(jīng)驗豐富的深度學(xué)習(xí)專家,擁有豐富的分布式系統(tǒng)和數(shù)據(jù)科學(xué)方面的知識。他們是開源圍棋機器人 BetaGo 的共同創(chuàng)造者。

圖書目錄

目 錄
第 一部分 基礎(chǔ)知識
第 1章 走近深度學(xué)習(xí):機器學(xué)習(xí)入門 3
1.1 什么是機器學(xué)習(xí) 4
1.1.1 機器學(xué)習(xí)與AI的關(guān)系 5
1.1.2 機器學(xué)習(xí)能做什么,不能做什么 6
1.2 機器學(xué)習(xí)示例 7
1.2.1 在軟件應(yīng)用中使用機器學(xué)習(xí) 9
1.2.2 監(jiān)督學(xué)習(xí) 11
1.2.3 無監(jiān)督學(xué)習(xí) 12
1.2.4 強化學(xué)習(xí) 12
1.3 深度學(xué)習(xí) 13
1.4 閱讀本書能學(xué)到什么 14
1.5 小結(jié) 15
第 2章 圍棋與機器學(xué)習(xí) 16
2.1 為什么選擇游戲 16
2.2 圍棋快速入門 17
2.2.1 了解棋盤 17
2.2.2 落子與吃子 18
2.2.3 終盤與勝負計算 19
2.2.4 理解劫爭 20
2.2.5 讓子 20
2.3 更多學(xué)習(xí)資源 20
2.4 我們可以教會計算機什么 21
2.4.1 如何開局 21
2.4.2 搜索游戲狀態(tài) 21
2.4.3 減少需要考慮的動作數(shù)量 22
2.4.4 評估游戲狀態(tài) 22
2.5 如何評估圍棋AI的能力 23
2.5.1 傳統(tǒng)圍棋評級 23
2.5.2 對圍棋AI進行基準(zhǔn)測試 24
2.6 小結(jié) 24
第3章 實現(xiàn)第 一個圍棋機器人 25
3.1 在Python中表達圍棋游戲 25
3.1.1 實現(xiàn)圍棋棋盤 28
3.1.2 在圍棋中跟蹤相連的棋組:棋鏈 28
3.1.3 在棋盤上落子和提子 30
3.2 跟蹤游戲狀態(tài)并檢查非法動作 32
3.2.1 自吃 33
3.2.2 劫爭 34
3.3 終盤 36
3.4 創(chuàng)建自己的第 一個機器人:理論上最弱的圍棋AI 37
3.5 使用Zobrist哈希加速棋局 41
3.6 人機對弈 46
3.7 小結(jié) 47
第二部分 機器學(xué)習(xí)和游戲AI
第4章 使用樹搜索下棋 51
4.1 游戲分類 52
4.2 利用極小化極大搜索預(yù)測對手 53
4.3 井字棋推演:一個極小化極大算法的示例 56
4.4 通過剪枝算法縮減搜索空間 58
4.4.1 通過棋局評估減少搜索深度 60
4.4.2 利用α-β剪枝縮減搜索寬度 63
4.5 使用蒙特卡洛樹搜索評估游戲狀態(tài) 66
4.5.1 在Python中實現(xiàn)蒙特卡洛樹搜索 69
4.5.2 如何選擇繼續(xù)探索的分支 72
4.5.3 將蒙特卡洛樹搜索應(yīng)用于圍棋 74
4.6 小結(jié) 76
第5章 神經(jīng)網(wǎng)絡(luò)入門 77
5.1 一個簡單的用例:手寫數(shù)字分類 78
5.1.1 MNIST手寫數(shù)字數(shù)據(jù)集 78
5.1.2 MNIST數(shù)據(jù)的預(yù)處理 79
5.2 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 85
5.2.1 將對率回歸描述為簡單的神經(jīng)網(wǎng)絡(luò) 85
5.2.2 具有多個輸出維度的神經(jīng)網(wǎng)絡(luò) 85
5.3 前饋網(wǎng)絡(luò) 86
5.4 我們的預(yù)測有多好?損失函數(shù)及優(yōu)化 89
5.4.1 什么是損失函數(shù) 89
5.4.2 均方誤差 89
5.4.3 在損失函數(shù)中找極小值 90
5.4.4 使用梯度下降法找極小值 91
5.4.5 損失函數(shù)的隨機梯度下降算法 92
5.4.6 通過網(wǎng)絡(luò)反向傳播梯度 93
5.5 在Python中逐步訓(xùn)練神經(jīng)網(wǎng)絡(luò) 95
5.5.1 Python中的神經(jīng)網(wǎng)絡(luò)層 96
5.5.2 神經(jīng)網(wǎng)絡(luò)中的激活層 97
5.5.3 在Python中實現(xiàn)稠密層 98
5.5.4 Python順序神經(jīng)網(wǎng)絡(luò) 100
5.5.5 將網(wǎng)絡(luò)集成到手寫數(shù)字分類應(yīng)用中 102
5.6 小結(jié) 103
第6章 為圍棋數(shù)據(jù)設(shè)計神經(jīng)網(wǎng)絡(luò) 105
6.1 為神經(jīng)網(wǎng)絡(luò)編碼圍棋棋局 107
6.2 生成樹搜索游戲用作網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù) 109
6.3 使用Keras深度學(xué)習(xí)庫 112
6.3.1 了解Keras的設(shè)計原理 112
6.3.2 安裝Keras深度學(xué)習(xí)庫 113
6.3.3 熱身運動:在Keras中運行一個熟悉的示例 113
6.3.4 使用Keras中的前饋神經(jīng)網(wǎng)絡(luò)進行動作預(yù)測 115
6.4 使用卷積網(wǎng)絡(luò)分析空間 119
6.4.1 卷積的直觀解釋 119
6.4.2 用Keras構(gòu)建卷積神經(jīng)網(wǎng)絡(luò) 122
6.4.3 用池化層縮減空間 123
6.5 預(yù)測圍棋動作概率 124
6.5.1 在最后一層使用softmax激活函數(shù) 125
6.5.2 分類問題的交叉熵損失函數(shù) 126
6.6 使用丟棄和線性整流單元構(gòu)建更深的網(wǎng)絡(luò) 127
6.6.1 通過丟棄神經(jīng)元對網(wǎng)絡(luò)進行正則化 128
6.6.2 線性整流單元激活函數(shù) 129
6.7 構(gòu)建更強大的圍棋動作預(yù)測網(wǎng)絡(luò) 130
6.8 小結(jié) 133
第7章 從數(shù)據(jù)中學(xué)習(xí):構(gòu)建深度學(xué)習(xí)機器人 134
7.1 導(dǎo)入圍棋棋譜 135
7.1.1 SGF文件格式 136
7.1.2 從KGS下載圍棋棋譜并復(fù)盤 136
7.2 為深度學(xué)習(xí)準(zhǔn)備圍棋數(shù)據(jù) 137
7.2.1 從SGF棋譜中復(fù)盤圍棋棋局 138
7.2.2 構(gòu)建圍棋數(shù)據(jù)處理器 139
7.2.3 構(gòu)建可以高效地加載數(shù)據(jù)的圍棋數(shù)據(jù)生成器 146
7.2.4 并行圍棋數(shù)據(jù)處理和生成器 147
7.3 基于真實棋局數(shù)據(jù)訓(xùn)練深度學(xué)習(xí)模型 148
7.4 構(gòu)建更逼真的圍棋數(shù)據(jù)編碼器 152
7.5 使用自適應(yīng)梯度進行高效的訓(xùn)練 155
7.5.1 在SGD中采用衰減和動量 155
7.5.2 使用Adagrad優(yōu)化神經(jīng)網(wǎng)絡(luò) 156
7.5.3 使用Adadelta優(yōu)化自適應(yīng)梯度 157
7.6 運行自己的實驗并評估性能 157
7.6.1 測試架構(gòu)與超參數(shù)的指南 158
7.6.2 評估訓(xùn)練與測試數(shù)據(jù)的性能指標(biāo) 159
7.7 小結(jié) 160
第8章 實地部署圍棋機器人 162
8.1 用深度神經(jīng)網(wǎng)絡(luò)創(chuàng)建動作預(yù)測代理 163
8.2 為圍棋機器人提供Web前端 165
8.3 在云端訓(xùn)練與部署圍棋機器人 169
8.4 與其他機器人對話:圍棋文本協(xié)議 170
8.5 在本地與其他機器人對弈 172
8.5.1 機器人應(yīng)該何時跳過回合或認輸 172
8.5.2 讓機器人與其他圍棋程序進行對弈 173
8.6 將圍棋機器人部署到在線圍棋服務(wù)器 178
8.7 小結(jié) 182
第9章 通過實踐學(xué)習(xí):強化學(xué)習(xí) 183
9.1 強化學(xué)習(xí)周期 184
9.2 經(jīng)驗包括哪些內(nèi)容 185
9.3 建立一個有學(xué)習(xí)能力的代理 188
9.3.1 從某個概率分布中進行抽樣 189
9.3.2 剪裁概率分布 190
9.3.3 初始化一個代理實例 191
9.3.4 在磁盤上加載并保存代理 191
9.3.5 實現(xiàn)動作選擇 193
9.4 自我對弈:計算機程序進行實踐訓(xùn)練的方式 194
9.4.1 經(jīng)驗數(shù)據(jù)的表示 194
9.4.2 模擬棋局 197
9.5 小結(jié) 199
第 10章 基于策略梯度的強化學(xué)習(xí) 200
10.1 如何在隨機棋局中識別更佳的決策 201
10.2 使用梯度下降法修改神經(jīng)網(wǎng)絡(luò)的策略 204
10.3 使用自我對弈進行訓(xùn)練的幾個小技巧 208
10.3.1 評估學(xué)習(xí)的進展 208
10.3.2 衡量強度的細微差別 209
10.3.3 SGD優(yōu)化器的微調(diào) 210
10.4 小結(jié) 213
第 11章 基于價值評估方法的強化學(xué)習(xí) 214
11.1 使用Q學(xué)習(xí)進行游戲 214
11.2 在Keras中實現(xiàn)Q學(xué)習(xí) 218
11.2.1 在Keras中構(gòu)建雙輸入網(wǎng)絡(luò) 218
11.2.2 用Keras實現(xiàn)ε貪婪策略 222
11.2.3 訓(xùn)練一個行動-價值函數(shù) 225
11.3 小結(jié) 226
第 12章 基于演員-評價方法的強化學(xué)習(xí) 227
12.1 優(yōu)勢能夠告訴我們哪些決策更加重要 227
12.1.1 什么是優(yōu)勢 228
12.1.2 在自我對弈過程中計算優(yōu)勢值 230
12.2 為演員-評價學(xué)習(xí)設(shè)計神經(jīng)網(wǎng)絡(luò) 232
12.3 用演員-評價代理下棋 234
12.4 用經(jīng)驗數(shù)據(jù)訓(xùn)練一個演員-評價代理 235
12.5 小結(jié) 240
第三部分 一加一大于二
第 13章 AlphaGo:全部集結(jié) 243
13.1 為AlphaGo訓(xùn)練深度神經(jīng)網(wǎng)絡(luò) 245
13.1.1 AlphaGo的網(wǎng)絡(luò)架構(gòu) 246
13.1.2 AlphaGo棋盤編碼器 248
13.1.3 訓(xùn)練AlphaGo風(fēng)格的策略網(wǎng)絡(luò) 250
13.2 用策略網(wǎng)絡(luò)啟動自我對弈 252
13.3 從自我對弈數(shù)據(jù)衍生出一個價值網(wǎng)絡(luò) 254
13.4 用策略網(wǎng)絡(luò)和價值網(wǎng)絡(luò)做出更好的搜索 254
13.4.1 用神經(jīng)網(wǎng)絡(luò)改進蒙特卡洛推演 255
13.4.2 用合并價值函數(shù)進行樹搜索 256
13.4.3 實現(xiàn)AlphaGo的搜索算法 258
13.5 訓(xùn)練自己的AlphaGo可能遇到的實踐問題 263
13.6 小結(jié) 265
第 14章 AlphaGo Zero:將強化學(xué)習(xí)集成到樹搜索中 266
14.1 為樹搜索構(gòu)建一個神經(jīng)網(wǎng)絡(luò) 267
14.2 使用神經(jīng)網(wǎng)絡(luò)來指導(dǎo)樹搜索 268
14.2.1 沿搜索樹下行 271
14.2.2 擴展搜索樹 274
14.2.3 選擇一個動作 276
14.3 訓(xùn)練 277
14.4 用狄利克雷噪聲改進探索 281
14.5 處理超深度神經(jīng)網(wǎng)絡(luò)的相關(guān)最新技術(shù) 282
14.5.1 批量歸一化 282
14.5.2 殘差網(wǎng)絡(luò) 283
14.6 探索額外資源 284
14.7 結(jié)語 285
14.8 小結(jié) 285
附錄A 數(shù)學(xué)基礎(chǔ) 286
附錄B 反向傳播算法 293
附錄C 圍棋程序與圍棋服務(wù)器 297
附錄D 用AWS來訓(xùn)練和部署圍棋程序與圍棋服務(wù)器 300
附錄E 將機器人發(fā)布到OGS 307

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號