定 價(jià):¥109.00
作 者: | 吳茂貴,郁明敏,楊本法,李濤 |
出版社: | 機(jī)械工業(yè)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787111718802 | 出版時(shí)間: | 2023-02-01 | 包裝: | 平裝-膠訂 |
開(kāi)本: | 16開(kāi) | 頁(yè)數(shù): | 字?jǐn)?shù): |
前言
第1版前言
第一部分 PyTorch基礎(chǔ)
第1章 NumPy基礎(chǔ)知識(shí)2
1.1 生成NumPy數(shù)組3
1.1.1 數(shù)組屬性4
1.1.2 利用已有數(shù)據(jù)生成數(shù)組4
1.1.3 利用 random 模塊生成數(shù)組5
1.1.4 生成特定形狀的多維數(shù)組7
1.1.5 利用arange、linspace
函數(shù)生成數(shù)組8
1.2 讀取數(shù)據(jù)9
1.3 NumPy的算術(shù)運(yùn)算11
1.3.1 逐元素操作11
1.3.2 點(diǎn)積運(yùn)算12
1.4 數(shù)組變形13
1.4.1 修改數(shù)組的形狀13
1.4.2 合并數(shù)組16
1.5 批處理19
1.6 節(jié)省內(nèi)存20
1.7 通用函數(shù)21
1.8 廣播機(jī)制23
1.9 小結(jié)24
第2章 PyTorch基礎(chǔ)知識(shí)25
2.1 為何選擇PyTorch25
2.2 PyTorch的安裝配置26
2.2.1 安裝CPU版PyTorch26
2.2.2 安裝GPU版PyTorch28
2.3 Jupyter Notebook環(huán)境配置30
2.4 NumPy與Tensor31
2.4.1 Tensor概述31
2.4.2 創(chuàng)建Tensor32
2.4.3 修改Tensor形狀34
2.4.4 索引操作35
2.4.5 廣播機(jī)制35
2.4.6 逐元素操作36
2.4.7 歸并操作37
2.4.8 比較操作37
2.4.9 矩陣操作38
2.4.10 PyTorch與NumPy比較39
2.5 Tensor與autograd39
2.5.1 自動(dòng)求導(dǎo)要點(diǎn)40
2.5.2 計(jì)算圖40
2.5.3 標(biāo)量反向傳播41
2.5.4 非標(biāo)量反向傳播42
2.5.5 切斷一些分支的反向傳播45
2.6 使用NumPy實(shí)現(xiàn)機(jī)器學(xué)習(xí)任務(wù)47
2.7 使用Tensor及autograd實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)49
2.8 使用優(yōu)化器及自動(dòng)微分實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)51
2.9 把數(shù)據(jù)集轉(zhuǎn)換為帶批量處理功能的
迭代器52
2.10 使用TensorFlow 2實(shí)現(xiàn)機(jī)器
學(xué)習(xí)任務(wù)54
2.11 小結(jié)55
第3章 PyTorch神經(jīng)網(wǎng)絡(luò)工具箱56
3.1 神經(jīng)網(wǎng)絡(luò)核心組件56
3.2 構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要工具57
3.2.1 nn.Module57
3.2.2 nn.functional58
3.3 構(gòu)建模型59
3.3.1 繼承nn.Module基類構(gòu)建模型59
3.3.2 使用nn.Sequential按層
順序構(gòu)建模型60
3.3.3 繼承nn.Module基類并應(yīng)用
模型容器來(lái)構(gòu)建模型63
3.3.4 自定義網(wǎng)絡(luò)模塊66
3.4 訓(xùn)練模型68
3.5 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)實(shí)例69
3.5.1 背景說(shuō)明69
3.5.2 準(zhǔn)備數(shù)據(jù)70
3.5.3 可視化源數(shù)據(jù)71
3.5.4 構(gòu)建模型72
3.5.5 訓(xùn)練模型72
3.6 小結(jié)74
第4章 PyTorch數(shù)據(jù)處理工具箱75
4.1 數(shù)據(jù)處理工具箱概述75
4.2 utils.data76
4.3 torchvision78
4.3.1 transforms78
4.3.2 ImageFolder79
4.4 可視化工具81
4.4.1 TensorBoard簡(jiǎn)介81
4.4.2 用TensorBoard可視化
神經(jīng)網(wǎng)絡(luò)82
4.4.3 用TensorBoard可視化損失值83
4.4.4 用TensorBoard可視化特征圖84
4.5 小結(jié)85
第二部分 深度學(xué)習(xí)基礎(chǔ)
第5 章 機(jī)器學(xué)習(xí)基礎(chǔ)88
5.1 機(jī)器學(xué)習(xí)的基本任務(wù)88
5.1.1 監(jiān)督學(xué)習(xí)89
5.1.2 無(wú)監(jiān)督學(xué)習(xí)89
5.1.3 半監(jiān)督學(xué)習(xí)90
5.1.4 強(qiáng)化學(xué)習(xí)90
5.2 機(jī)器學(xué)習(xí)的一般流程90
5.2.1 明確目標(biāo)91
5.2.2 收集數(shù)據(jù)91
5.2.3 數(shù)據(jù)探索與預(yù)處理91
5.2.4 選擇模型及損失函數(shù)91
5.2.5 評(píng)估及優(yōu)化模型92
5.3 過(guò)擬合與欠擬合93
5.3.1 權(quán)重正則化93
5.3.2 dropout正則化94
5.3.3 批量歸一化97
5.3.4 層歸一化99
5.3.5 權(quán)重初始化99
5.4 選擇合適的激活函數(shù)100
5.5 選擇合適的損失函數(shù)101
5.6 選擇合適的優(yōu)化器103
5.6.1 傳統(tǒng)梯度優(yōu)化算法104
5.6.2 批量隨機(jī)梯度下降法105
5.6.3 動(dòng)量算法106
5.6.4 Nesterov動(dòng)量算法108
5.6.5 AdaGrad算法109
5.6.6 RMSProp算法111
5.6.7 Adam算法112
5.6.8 Yogi算法113
5.6.9 使用優(yōu)化算法實(shí)例114
5.7 GPU加速116
5.7.1 單GPU加速116
5.7.2 多GPU加速117
5.7.3 使用GPU時(shí)的注意事項(xiàng)120
5.8 小結(jié)121
第6章 視覺(jué)處理基礎(chǔ)122
6.1 從全連接層到卷積層122
6.1.1 圖像的兩個(gè)特性123
6.1.2 卷積神經(jīng)網(wǎng)絡(luò)概述124
6.2 卷積層125
6.2.1 卷積核127
6.2.2 步幅129
6.2.3 填充130
6.2.4 多通道上的卷積131
6.2.5 激活函數(shù)134
6.2.6 卷積函數(shù)135
6.2.7 轉(zhuǎn)置卷積136
6.2.8 特征圖與感受野137
6.2.9 全卷積網(wǎng)絡(luò)138
6.3 池化層139
6.3.1 局部池化140
6.3.2 全局池化140
6.4 現(xiàn)代經(jīng)典網(wǎng)絡(luò)142
6.4.1 LeNet-5模型142
6.4.2 AlexNet模型143
6.4.3 VGG模型143
6.4.4 GoogLeNet模型144
6.4.5 ResNet模型145
6.4.6 DenseNet模型146
6.4.7 CapsNet模型148
6.5 使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)CIFAR10
多分類149<>