注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡人工智能深度學習入門之PyTorch

深度學習入門之PyTorch

深度學習入門之PyTorch

定 價:¥79.00

作 者: 廖星宇 著
出版社: 電子工業(yè)出版社
叢編項: 博文視點AI系列
標 簽: 計算機/網(wǎng)絡 人工智能

購買這本書可以去


ISBN: 9787121326202 出版時間: 2017-09-01 包裝: 平裝
開本: 16開 頁數(shù): 232 字數(shù):  

內(nèi)容簡介

  深度學習如今已經(jīng)成為了科技領(lǐng)域*炙手可熱的技術(shù),在本書中,我們將幫助你入門深度學習的領(lǐng)域。本書將從人工智能的介紹入手,了解機器學習和深度學習的基礎(chǔ)理論,并學習如何用PyTorch框架對模型進行搭建。通過閱讀本書,你將會學習到機器學習中的線性回歸和logistic回歸,深度學習的優(yōu)化方法,多層全連接神經(jīng)網(wǎng)絡,卷積神經(jīng)網(wǎng)絡,循環(huán)神經(jīng)網(wǎng)絡以及生成對抗網(wǎng)絡,同時從零開始對PyTorch進行學習,了解PyTorch基礎(chǔ)及如何用其進行模型的搭建,*后通過實戰(zhàn)了解*前沿的研究成果和PyTorch在實際項目中的應用。

作者簡介

  廖星宇,目前就讀于中國科學技術(shù)大學應用數(shù)學系,獲得國家一等獎學金。在個人博客、知乎等平臺上發(fā)布多篇關(guān)于深度學習的文章,具有一定的閱讀量和人氣。

圖書目錄

第1 章深度學習介紹1
1.1 人工智能. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 數(shù)據(jù)挖掘、機器學習與深度學習. . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 數(shù)據(jù)挖掘. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 機器學習. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 深度學習. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 學習資源與建議. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
第2 章深度學習框架11
2.1 深度學習框架介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 PyTorch 介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 什么是PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 為何要使用PyTorch . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 配置PyTorch 深度學習環(huán)境. . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 操作系統(tǒng)的選擇. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Python 開發(fā)環(huán)境的安裝. . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 PyTorch 的安裝. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
第3 章多層全連接神經(jīng)網(wǎng)絡24
3.1 熱身:PyTorch 基礎(chǔ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.1 Tensor(張量) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.2 Variable(變量) . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Dataset(數(shù)據(jù)集) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.4 nn.Module(模組) . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.1.5 torch.optim(優(yōu)化) . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.6 模型的保存和加載. . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 線性模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2.2 一維線性回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.3 多維線性回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.4 一維線性回歸的代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . 35
3.2.5 多項式回歸. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 分類問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Logistic 起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.3 Logistic 分布. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.4 二分類的Logistic 回歸. . . . . . . . . . . . . . . . . . . . . . . . 43
3.3.5 模型的參數(shù)估計. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.6 Logistic 回歸的代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . 45
3.4 簡單的多層全連接前向網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.1 模擬神經(jīng)元. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.2 單層神經(jīng)網(wǎng)絡的分類器. . . . . . . . . . . . . . . . . . . . . . . . 50
3.4.3 激活函數(shù). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.4 神經(jīng)網(wǎng)絡的結(jié)構(gòu). . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4.5 模型的表示能力與容量. . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 深度學習的基石:反向傳播算法. . . . . . . . . . . . . . . . . . . . . . . 57
3.5.1 鏈式法則. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5.2 反向傳播算法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5.3 Sigmoid 函數(shù)舉例. . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 各種優(yōu)化算法的變式. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.1 梯度下降法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.2 梯度下降法的變式. . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7 處理數(shù)據(jù)和訓練模型的技巧. . . . . . . . . . . . . . . . . . . . . . . . . 64
3.7.1 數(shù)據(jù)預處理. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.7.2 權(quán)重初始化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.7.3 防止過擬合. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.8 多層全連接神經(jīng)網(wǎng)絡實現(xiàn)MNIST 手寫數(shù)字分類. . . . . . . . . . . . . . 69
3.8.1 簡單的三層全連接神經(jīng)網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . 70
3.8.2 添加激活函數(shù). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.8.3 添加批標準化. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.8.4 訓練網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
第4 章卷積神經(jīng)網(wǎng)絡76
4.1 主要任務及起源. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2 卷積神經(jīng)網(wǎng)絡的原理和結(jié)構(gòu). . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2.1 卷積層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2 池化層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.3 全連接層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.4 卷積神經(jīng)網(wǎng)絡的基本形式. . . . . . . . . . . . . . . . . . . . . . 85
4.3 PyTorch 卷積模塊. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3.1 卷積層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3.2 池化層. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.3.3 提取層結(jié)構(gòu). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.3.4 如何提取參數(shù)及自定義初始化. . . . . . . . . . . . . . . . . . . . 91
4.4 卷積神經(jīng)網(wǎng)絡案例分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.4.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.4.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.5 ResNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5 再實現(xiàn)MNIST 手寫數(shù)字分類. . . . . . . . . . . . . . . . . . . . . . . . . 103
4.6 圖像增強的方法. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.7 實現(xiàn)cifar10 分類. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
第5 章循環(huán)神經(jīng)網(wǎng)絡111
5.1 循環(huán)神經(jīng)網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.1 問題介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.1.2 循環(huán)神經(jīng)網(wǎng)絡的基本結(jié)構(gòu). . . . . . . . . . . . . . . . . . . . . . 112
5.1.3 存在的問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2 循環(huán)神經(jīng)網(wǎng)絡的變式:LSTM 與GRU . . . . . . . . . . . . . . . . . . . . 116
5.2.1 LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2.2 GRU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.2.3 收斂性問題. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3 循環(huán)神經(jīng)網(wǎng)絡的PyTorch 實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . 122
5.3.1 PyTorch 的循環(huán)網(wǎng)絡模塊. . . . . . . . . . . . . . . . . . . . . . . 122
5.3.2 實例介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4 自然語言處理的應用. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.1 詞嵌入. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4.2 詞嵌入的PyTorch 實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . 133
5.4.3 N Gram 模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.4.4 單詞預測的PyTorch 實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . 134
5.4.5 詞性判斷. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.4.6 詞性判斷的PyTorch 實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . 137
5.5 循環(huán)神經(jīng)網(wǎng)絡的更多應用. . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.5.1 Many to one . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.5.2 Many to Many(shorter) . . . . . . . . . . . . . . . . . . . . . . . 141
5.5.3 Seq2seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.5.4 CNN+RNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
第6 章生成對抗網(wǎng)絡144
6.1 生成模型. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.1.1 自動編碼器. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.1.2 變分自動編碼器. . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
6.2 生成對抗網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.2.1 何為生成對抗網(wǎng)絡. . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.2.2 生成對抗網(wǎng)絡的數(shù)學原理. . . . . . . . . . . . . . . . . . . . . . 160
6.3 Improving GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.1 Wasserstein GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.2 Improving WGAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
6.4 應用介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.4.1 Conditional GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
6.4.2 Cycle GAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
第7 章深度學習實戰(zhàn)173
7.1 實例一――貓狗大戰(zhàn):運用預訓練卷積神經(jīng)網(wǎng)絡進行特征提取與預測. 173
7.1.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7.1.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
7.1.3 代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.1.4 總結(jié). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
7.2 實例二――Deep Dream:探索卷積神經(jīng)網(wǎng)絡眼中的世界. . . . . . . . . 183
7.2.1 原理介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
7.2.2 預備知識:backward . . . . . . . . . . . . . . . . . . . . . . . . . 185
7.2.3 代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
7.2.4 總結(jié). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
7.3 實例三――Neural-Style:使用PyTorch 進行風格遷移. . . . . . . . . . . 196
7.3.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
7.3.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.3.3 代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
7.3.4 總結(jié). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.4 實例四――Seq2seq:通過RNN 實現(xiàn)簡單的Neural Machine Translation . 205
7.4.1 背景介紹. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.4.2 原理分析. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
7.4.3 代碼實現(xiàn). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
7.4.4 總結(jié). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號