注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能深度學習:一起玩轉(zhuǎn)TensorLayer

深度學習:一起玩轉(zhuǎn)TensorLayer

深度學習:一起玩轉(zhuǎn)TensorLayer

定 價:¥99.00

作 者: 董豪 著
出版社: 電子工業(yè)出版社
叢編項:
標 簽: 暫缺

ISBN: 9787121326226 出版時間: 2018-01-01 包裝: 平裝
開本: 16 頁數(shù): 340 字數(shù):  

內(nèi)容簡介

  《深度學習:一起玩轉(zhuǎn)TensorLayer》由TensorLayer創(chuàng)始人領銜寫作,TensorLayer社區(qū)眾包完成,作者全部來自一線人工智能研究員和工程師,內(nèi)容不僅覆蓋了傳統(tǒng)書籍都有的多層感知器、卷積網(wǎng)絡、遞歸網(wǎng)絡及增強學習等,還著重講解了生成對抗網(wǎng)絡、學習方法和實踐經(jīng)驗,配有若干產(chǎn)品級別的實例。讀者將會從零開始學會目前新的深度學習技術,以及使用TL實現(xiàn)各種應用。 《深度學習:一起玩轉(zhuǎn)TensorLayer》以通俗易懂的方式講解深度學習技術,同時配有實現(xiàn)方法教學,面向深度學習初學者、進階者,以及希望長期從事深度學習研究和產(chǎn)品開發(fā)的深度學習工程師和TensorFlow用戶。

作者簡介

  董豪:目前就讀于帝國理工學院,從事計算機視覺、醫(yī)療數(shù)據(jù)分析和深度學習理論研究,在ICCV、TNSRE、TIFS、ACM MM等會議和期刊發(fā)表過論文,Neurocomputing、TIP等會議和期刊的審稿人。有創(chuàng)業(yè)經(jīng)驗,擅長把深度學習算法與實際問題結(jié)合,獲得多項國家發(fā)明專利和實用新型專利,TensorLayer創(chuàng)始人。 郭毅可:帝國理工學院計算機系終身教授,Data Science Institute主任,Discovery Science Group主任,主持多項歐盟和英國大型項目,研究重點為機器學習、云計算、大數(shù)據(jù)和生物信息學。倫敦E-Science研究中心首席科學家,英國InforSense有限公司董事會主席兼首席執(zhí)行官,上海生物信息技術研究中心客座教授、首席科學家,TensorLayer項目領導。 楊光:帝國理工醫(yī)學院高級研究員,皇家布朗普頓醫(yī)院醫(yī)學圖像分析師,倫敦大學圣喬治醫(yī)學院榮譽講師,倫敦大學學院(UCL)碩士、博士、IEEE會員、SPIE會員、ISMRM會員、BMVA會員,專注于醫(yī)療大數(shù)據(jù)以及醫(yī)學圖像的成像和分析,在各類期刊會議上發(fā)表論文近40篇,國際專利兩項,Medical Physics雜志臨時副主編,MIUA會議委員會委員,長期為專業(yè)雜志會議義務審稿50余篇。其研究方向獲得英國EPSRC、CRUK、NIHR和British Heart Foundation (BHF)資助。近期致力于Medical AI方向的創(chuàng)新創(chuàng)業(yè)。 吳超:帝國理工數(shù)字科學研究所研究員,主要從事醫(yī)療和城市領域數(shù)據(jù)分析和建模的研究工作,研究工作獲得EPSRC、Royal Society等多項研究基金資助。 王劍虹:帝國理工碩士及利物浦大學本科畢業(yè),主要研究語音識別分類問題;目前在UCL攻讀研究型碩士,主要研究增強學習在游戲中的運用。 幺忠瑋:帝國理工碩士,本科畢業(yè)于北京郵電大學,主要研究方向為計算機視覺,對生成模型和目標識別領域感興趣。目前致力于將目標檢測算法植入嵌入式系統(tǒng)實現(xiàn)即時檢測。 張敬卿:帝國理工博士在讀,研究型碩士,主要研究興趣包括深度學習、數(shù)據(jù)挖掘、時間序列與文本挖掘、多模態(tài)問題與生成模型。本科畢業(yè)于清華大學計算機科學與技術系,曾獲得中國國家獎學金。 陳竑:北京大學光華管理學院在讀,哈爾濱工業(yè)大學電子與信息工程學院畢業(yè),深度學習愛好者。 林一鳴:帝國理工博士在讀,主要研究深度學習在人臉分析方向的應用。 于思淼:帝國理工博士在讀,浙江大學本科畢業(yè),主要研究方向為深度學習、生成模型及其在計算機視覺方面的應用。 莫元漢:帝國理工博士在讀,北京航空航天大學本科畢業(yè),主要研究方向為深度學習、動力學及其在醫(yī)療圖像分析方面的應用。 袁航:瑞士洛桑聯(lián)邦理工(EPFL)碩士在讀,本科就讀于德國雅各布大學(Jacobs)計算機系,及在美國卡內(nèi)基梅隆大學(CMU)計算機科學學院交換學習,主要從事計算神經(jīng)科學與電腦人機接口研究。之前分別在帝國理工及馬克斯普朗克智能系統(tǒng)研究院(Max Planck Institute for Intelligent Systems)進行研習,現(xiàn)在主要在EPFL G-lab研究脊髓修復對運動功能康復及血壓控制等課題。

圖書目錄

1 深度學習簡介1
1.1 人工智能、機器學習和深度學習 1
1.1.1 引言 1
1.1.2 人工智能、機器學習和深度學習三者的關系 2
1.2 神經(jīng)網(wǎng)絡 3
1.2.1 感知器 3
1.2.2 激活函數(shù) 5
1.2.3 損失函數(shù) 8
1.2.4 梯度下降和隨機梯度下降 8
1.2.5 反向傳播算法簡述 11
1.2.6 其他神經(jīng)網(wǎng)絡 12
1.3 學習方法建議 13
1.3.1 網(wǎng)絡資源 13
1.3.2 TensorFlow 官方深度學習教程 14
1.3.3 開源社區(qū) 15
1.4 TensorLayer 15
1.4.1 深度學習框架概況 15
1.4.2 TensorLayer 概括 16
1.4.3 實驗環(huán)境配置 17
2 多層感知器19
2.1 McCulloch-Pitts 神經(jīng)元模型 19
2.1.1 人工神經(jīng)網(wǎng)絡到底能干什么?到底在干什么 21
2.1.2 什么是激活函數(shù)?什么是偏值 22
2.2 感知器 23
2.2.1 什么是線性分類器 24
2.2.2 線性分類器有什么優(yōu)缺點 26
2.2.3 感知器實例和異或問題(XOR 問題) 26
2.3 多層感知器 30
2.4 實現(xiàn)手寫數(shù)字分類 32
2.5 過擬合 40
2.5.1 什么是過擬合 40
2.5.2 Dropout 41
2.5.3 批規(guī)范化 42
2.5.4 L1、L2 和其他正則化方法 42
2.5.5 Lp 正則化的圖形化解釋 44
2.6 再實現(xiàn)手寫數(shù)字分類 46
2.6.1 數(shù)據(jù)迭代器 46
2.6.2 通過all_drop 啟動與關閉Dropout 47
2.6.3 通過參數(shù)共享實現(xiàn)訓練測試切換 50
3 自編碼器54
3.1 稀疏性 54
3.2 稀疏自編碼器 56
3.3 實現(xiàn)手寫數(shù)字特征提取 59
3.4 降噪自編碼器 65
3.5 再實現(xiàn)手寫數(shù)字特征提取 68
3.6 堆棧式自編碼器及其實現(xiàn) 72
4 卷積神經(jīng)網(wǎng)絡80
4.1 卷積原理 80
4.1.1 卷積操作 81
4.1.2 張量 84
4.1.3 卷積層 85
4.1.4 池化層 87
4.1.5 全連接層 89
4.2 經(jīng)典任務 90
4.2.1 圖像分類 90
4.2.2 目標檢測 91
4.2.3 語義分割 94
4.2.4 實例分割 94
4.3 經(jīng)典卷積網(wǎng)絡 95
4.3.1 LeNet 95
4.3.2 AlexNet 96
4.3.3 VGGNet 96
4.3.4 GoogLeNet 98
4.3.5 ResNet 99
4.4 實現(xiàn)手寫數(shù)字分類 100
4.5 數(shù)據(jù)增強與規(guī)范化 104
4.5.1 數(shù)據(jù)增強 104
4.5.2 批規(guī)范化 106
4.5.3 局部響應歸一化 107
4.6 實現(xiàn)CIFAR10 分類 108
4.6.1 方法1:tl.prepro 做數(shù)據(jù)增強 108
4.6.2 方法2:TFRecord 做數(shù)據(jù)增強 114
4.7 反卷積神經(jīng)網(wǎng)絡 120
5 詞的向量表達121
5.1 目的與原理 121
5.2 Word2Vec 124
5.2.1 簡介 124
5.2.2 Continuous Bag-Of-Words(CBOW)模型 124
5.2.3 Skip Gram(SG)模型 129
5.2.4 Hierarchical Softmax 132
5.2.5 Negative Sampling 135
5.3 實現(xiàn)Word2Vec 136
5.3.1 簡介 136
5.3.2 實現(xiàn) 136
5.4 重載預訓練矩陣 144
6 遞歸神經(jīng)網(wǎng)絡148
6.1 為什么需要它 148
6.2 不同的RNNs 151
6.2.1 簡單遞歸網(wǎng)絡 151
6.2.2 回音網(wǎng)絡 152
6.3 長短期記憶 153
6.3.1 LSTM 概括 153
6.3.2 LSTM 詳解 157
6.3.3 LSTM 變種 159
6.4 實現(xiàn)生成句子 160
6.4.1 模型簡介 160
6.4.2 數(shù)據(jù)迭代 163
6.4.3 損失函數(shù)和更新公式 164
6.4.4 生成句子及Top K 采樣 167
6.4.5 接下來還可以做什么 169
7 深度增強學習171
7.1 增強學習 172
7.1.1 概述 172
7.1.2 基于價值的增強學習 173
7.1.3 基于策略的增強學習 176
7.1.4 基于模型的增強學習 177
7.2 深度增強學習 179
7.2.1 深度Q 學習 179
7.2.2 深度策略網(wǎng)絡 181
7.3 更多參考資料 187
7.3.1 書籍 187
7.3.2 在線課程 187
8 生成對抗網(wǎng)絡188
8.1 何為生成對抗網(wǎng)絡 189
8.2 深度卷積對抗生成網(wǎng)絡 190
8.3 實現(xiàn)人臉生成 191
8.4 還能做什么 198
9 高級實現(xiàn)技巧202
9.1 與其他框架對接 202
9.1.1 無參數(shù)層 203
9.1.2 有參數(shù)層 203
9.2 自定義層 204
9.2.1 無參數(shù)層 204
9.2.2 有參數(shù)層 205
9.3 建立詞匯表 207
9.4 補零與序列長度 209
9.5 動態(tài)遞歸神經(jīng)網(wǎng)絡 210
9.6 實用小技巧 211
9.6.1 屏蔽顯示 211
9.6.2 參數(shù)名字前綴 212
9.6.3 獲取特定參數(shù) 213
9.6.4 獲取特定層輸出 213
10 實例一:使用預訓練卷積網(wǎng)絡214
10.1 高維特征表達 214
10.2 VGG 網(wǎng)絡 215
10.3 連接TF-Slim 221
11 實例二:圖像語義分割及其醫(yī)學圖像應用225
11.1 圖像語義分割概述 225
11.1.1 傳統(tǒng)圖像分割算法簡介 227
11.1.2 損失函數(shù)與評估指標 229
11.2 醫(yī)學圖像分割概述 230
11.3 全卷積神經(jīng)網(wǎng)絡和U-Net 網(wǎng)絡結(jié)構 232
11.4 醫(yī)學圖像應用:實現(xiàn)腦部腫瘤分割 234
11.4.1 數(shù)據(jù)與數(shù)據(jù)增強 235
11.4.2 U-Net 網(wǎng)絡 238
11.4.3 損失函數(shù) 239
11.4.4 開始訓練 241
12 實例三:由文本生成圖像244
12.1 條件生成對抗網(wǎng)絡之GAN-CLS 245
12.2 實現(xiàn)句子生成花朵圖片 246
13 實例四:超高分辨率復原260
13.1 什么是超高分辨率復原 260
13.2 網(wǎng)絡結(jié)構 261
13.3 聯(lián)合損失函數(shù) 264
13.4 訓練網(wǎng)絡 269
13.5 使用測試 277
14 實例五:文本反垃圾280
14.1 任務場景 280
14.2 網(wǎng)絡結(jié)構 281
14.3 詞的向量表示 282
14.4 Dynamic RNN 分類器 283
14.5 訓練網(wǎng)絡 284
14.5.1 訓練詞向量 284
14.5.2 文本的表示 290
14.5.3 訓練分類器 291
14.5.4 模型導出 296
14.6 TensorFlow Serving 部署 299
14.7 客戶端調(diào)用 301
14.8 其他常用方法 306
中英對照表及其縮寫309
參考文獻316

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號