注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能深度學(xué)習(xí)入門(mén)與TensorFlow實(shí)踐

深度學(xué)習(xí)入門(mén)與TensorFlow實(shí)踐

深度學(xué)習(xí)入門(mén)與TensorFlow實(shí)踐

定 價(jià):¥99.90

作 者: 林炳清 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787115575333 出版時(shí)間: 2022-02-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 326 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)首先介紹深度學(xué)習(xí)方面的數(shù)學(xué)知識(shí)與Python基礎(chǔ)知識(shí),線性模型中的線性回歸模型和logistic模型;然后講述正向傳播算法、反向傳播算法及深度神經(jīng)網(wǎng)絡(luò)的完整訓(xùn)練流程,輸出層的激活函數(shù)和隱藏層的常見(jiàn)激活函數(shù),深度學(xué)習(xí)的過(guò)擬合和欠擬合,應(yīng)對(duì)過(guò)擬合的方法,以及使用TensorFlow 2建立深度神經(jīng)網(wǎng)絡(luò)模型的步驟;接著介紹卷積神經(jīng)網(wǎng)絡(luò)及其兩個(gè)重要的組成部分—卷積和池化,以及如何使用TensorFlow 2建立卷積神經(jīng)網(wǎng)絡(luò);最后討論如何從零開(kāi)始實(shí)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò),如何搭建深度學(xué)習(xí)框架,如何使用TensorFlow 2建立循環(huán)神經(jīng)網(wǎng)絡(luò)模型。本書(shū)既可供從事人工智能方面研究的專業(yè)人士閱讀,也可供計(jì)算機(jī)專業(yè)的師生閱讀。

作者簡(jiǎn)介

  林炳清,畢業(yè)于新加坡南洋理工大學(xué),獲得統(tǒng)計(jì)學(xué)博士學(xué)位,現(xiàn)為深圳大學(xué)數(shù)學(xué)與統(tǒng)計(jì)學(xué)院副教授,碩士生導(dǎo)師,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、生物信息學(xué),在國(guó)內(nèi)外權(quán)威期刊發(fā)表論文三十余篇,主持并參與多項(xiàng)國(guó)家自然科學(xué)基金項(xiàng)目。

圖書(shū)目錄

目  錄

第 1章 深度學(xué)習(xí)簡(jiǎn)介 1
1.1 什么是深度學(xué)習(xí) 1
1.1.1 機(jī)器學(xué)習(xí)簡(jiǎn)介 1
1.1.2 深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)算法的區(qū)別 4
1.1.3 深度學(xué)習(xí)與人類(lèi)神經(jīng)網(wǎng)絡(luò)的關(guān)系 4
1.2 為什么需要學(xué)習(xí)深度學(xué)習(xí) 5
1.3 誰(shuí)需要學(xué)習(xí)深度學(xué)習(xí) 6
1.4 學(xué)深度學(xué)習(xí)之后,你可以做什么 6
1.5 本章小結(jié) 6
第 2章 數(shù)學(xué)和Python基礎(chǔ)知識(shí) 7
2.1 線性代數(shù) 7
2.1.1 數(shù)、向量、矩陣和張量 7
2.1.2 矩陣的轉(zhuǎn)置 8
2.1.3 矩陣的基本運(yùn)算 9
2.1.4 向量和矩陣的范數(shù) 10
2.2 微積分 10
2.2.1 導(dǎo)數(shù)的概念 10
2.2.2 求導(dǎo)法則 11
2.3 概率論 11
2.3.1 隨機(jī)變量 12
2.3.2 隨機(jī)變量的分布 12
2.3.3 常見(jiàn)的概率分布 13
2.3.4 條件概率 14
2.4 Anaconda 14
2.4.1 安裝Anaconda 14
2.4.2 包的管理 15
2.4.3 環(huán)境的管理 15
2.5 Jupyter Notebook 16
2.5.1 安裝Jupyter Notebook 16
2.5.2 打開(kāi)和關(guān)閉Jupyter Notebook 17
2.5.3 代碼框 18
2.5.4 標(biāo)記框 19
2.6 Python 22
2.6.1 Python基礎(chǔ) 22
2.6.2 Python基本數(shù)據(jù)結(jié)構(gòu) 23
2.6.3 控制結(jié)構(gòu)和函數(shù) 26
2.6.4 NumPy庫(kù) 28
2.6.5 Pandas 31
2.6.6 畫(huà)圖工具 32
2.7 本章小結(jié) 35
第3章 線性模型 36
3.1 線性回歸模型 36
3.1.1 線性回歸模型簡(jiǎn)介 36
3.1.2 隨機(jī)梯度下降法 41
3.1.3 全數(shù)據(jù)梯度下降法 50
3.1.4 批量隨機(jī)梯度下降法 56
3.1.5 學(xué)習(xí)步長(zhǎng) 59
3.1.6 標(biāo)準(zhǔn)化和中心化 61
3.1.7 3種梯度下降法的對(duì)比 62
3.2 logistic模型 63
3.2.1 logistic模型簡(jiǎn)介 63
3.2.2 估計(jì) 和 66
3.3 本章小結(jié) 70
習(xí)題 70
第4章 深度神經(jīng)網(wǎng)絡(luò) 72
4.1 為什么需要深度神經(jīng)網(wǎng)絡(luò) 72
4.1.1 簡(jiǎn)單神經(jīng)網(wǎng)絡(luò) 72
4.1.2 具有隱藏層的神經(jīng)網(wǎng)絡(luò) 78
4.2 正向傳播算法 83
4.3 反向傳播算法 87
4.4 深度神經(jīng)網(wǎng)絡(luò)的完整訓(xùn)練流程 96
4.4.1 隨機(jī)梯度下降法 96
4.4.2 批量隨機(jī)梯度下降法 98
4.5 本章小結(jié) 102
習(xí)題 103
第5章 激活函數(shù) 104
5.1 激活函數(shù)的基本要求 104
5.2 輸出層的激活函數(shù) 107
5.2.1 因變量為定量數(shù)據(jù) 107
5.2.2 因變量為二分類(lèi)定性數(shù)據(jù) 108
5.2.3 因變量為多分類(lèi)定性數(shù)據(jù) 108
5.2.4 識(shí)別MNIST數(shù)據(jù)集中的手寫(xiě)數(shù)字 111
5.3 隱藏層的激活函數(shù) 116
5.3.1 sigmoid函數(shù) 116
5.3.2 tanh函數(shù) 118
5.3.3 ReLU函數(shù) 119
5.3.4 Leaky ReLU函數(shù) 121
5.4 本章小結(jié) 125
習(xí)題 126
第6章 模型評(píng)估和正則化 130
6.1 模型評(píng)估 130
6.2 欠擬合和過(guò)擬合 133
6.3 正則化 140
6.3.1 早停法 141
6.3.2 懲罰法 141
6.3.3 丟棄法 145
6.3.4 增加觀測(cè)點(diǎn) 151
6.4 本章小結(jié) 151
習(xí)題 152
第7章 基于TensorFlow 2建立深度學(xué)習(xí)模型 153
7.1 安裝TensorFlow 154
7.2 TensorFlow 2基本用法 154
7.2.1 tf.Tensor 154
7.2.2 TensorFlow 2和NumPy的兼容性 156
7.3 深度神經(jīng)網(wǎng)絡(luò)建?;静襟E 156
7.3.1 創(chuàng)建模型結(jié)構(gòu) 157
7.3.2 訓(xùn)練模型 159
7.3.3 評(píng)估和預(yù)測(cè)模型 160
7.4 基于TensorFlow 2建立線性回歸模型 161
7.5 基于TensorFlow 2建立神經(jīng)網(wǎng)絡(luò)分類(lèi)模型 164
7.5.1 神經(jīng)網(wǎng)絡(luò)分類(lèi)模型 164
7.5.2 神經(jīng)網(wǎng)絡(luò)模型的正則化 167
7.6 本章小結(jié) 169
習(xí)題 170
第8章 卷積神經(jīng)網(wǎng)絡(luò) 171
8.1 卷積層 172
8.1.1 卷積運(yùn)算 172
8.1.2 卷積層運(yùn)算 173
8.1.3 卷積運(yùn)算的直觀理解 175
8.1.4 填充 177
8.1.5 卷積層求導(dǎo) 178
8.1.6 用Python實(shí)現(xiàn)卷積層的計(jì)算 180
8.2 池化層 183
8.2.1 池化運(yùn)算 183
8.2.2 池化層求導(dǎo) 185
8.2.3 用Python實(shí)現(xiàn)池化層的計(jì)算 187
8.3 卷積神經(jīng)網(wǎng)絡(luò) 189
8.4 本章小結(jié) 196
習(xí)題 196
第9章 基于TensorFlow 2搭建卷積神經(jīng)網(wǎng)絡(luò)模型 198
9.1 卷積層和池化層 199
9.2 CNN實(shí)例——MNIST數(shù)據(jù)集和CIFAR-10數(shù)據(jù)集 201
9.2.1 關(guān)于MNIST數(shù)據(jù)集的實(shí)例 201
9.2.2 關(guān)于CIFAR-10數(shù)據(jù)集的實(shí)例 207
9.3 CNN建模技巧 214
9.3.1 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 214
9.3.2 卷積層和池化層的超參數(shù)選擇 215
9.3.3 經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò) 216
9.4 本章小結(jié) 219
習(xí)題 219
第 10章 循環(huán)神經(jīng)網(wǎng)絡(luò) 221
10.1 分析IMDB的數(shù)據(jù) 221
10.1.1 IMDB的數(shù)據(jù) 221
10.1.2 神經(jīng)網(wǎng)絡(luò)模型(IMDB) 225
10.2 詞嵌入 229
10.3 循環(huán)神經(jīng)網(wǎng)絡(luò) 231
10.4 從零開(kāi)始實(shí)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò) 236
10.4.1 莎士比亞作品應(yīng)用示例 236
10.4.2 正向傳播算法 239
10.4.3 反向傳播算法 241
10.5 本章小結(jié) 246
習(xí)題 247
第 11章 搭建深度學(xué)習(xí)框架 248
11.1 類(lèi)Tensor和自動(dòng)求導(dǎo) 248
11.1.1 類(lèi) 248
11.1.2 類(lèi)Tensor 250
11.1.3 自動(dòng)求導(dǎo) 251
11.2 為T(mén)ensor類(lèi)添加運(yùn)算函數(shù)并建立神經(jīng)網(wǎng)絡(luò)模型 258
11.2.1 為T(mén)ensor類(lèi)添加運(yùn)算函數(shù) 258
11.2.2 使用Tensor類(lèi)建立神經(jīng)網(wǎng)絡(luò)模型 264
11.3 類(lèi)SGD、類(lèi)Layer和激活函數(shù) 266
11.3.1 類(lèi)SGD 266
11.3.2 類(lèi)Layer 267
11.3.3 激活函數(shù) 270
11.4 詞嵌入和循環(huán)神經(jīng)網(wǎng)絡(luò) 278
11.4.1 詞嵌入 278
11.4.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 285
11.5 本章小結(jié) 291
習(xí)題 291
第 12章 長(zhǎng)短期記憶模型與門(mén)控循環(huán)單元模型 292
12.1 簡(jiǎn)單循環(huán)神經(jīng)網(wǎng)絡(luò)的主要缺陷 292
12.2 長(zhǎng)短期記憶模型 298
12.2.1 LSTM模型的核心思想 299
12.2.2 詳解LSTM模型 299
12.2.3 實(shí)現(xiàn)LSTM模型 301
12.3 門(mén)控循環(huán)單元模型 306
12.3.1 詳解GRU模型 307
12.3.2 實(shí)現(xiàn)GRU模型 308
12.4 本章小結(jié) 311
習(xí)題 311
第 13章 基于TensorFlow 2搭建循環(huán)神經(jīng)網(wǎng)絡(luò)模型 312
13.1 建立LSTM模型 312
13.1.1 預(yù)處理數(shù)據(jù) 313
13.1.2 基于TensorFlow建立LSTM模型 315
13.2 基于TensorFlow建立GRU模型 316
13.3 本章小結(jié) 325
習(xí)題 326

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)