注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)技術(shù)與實(shí)踐

深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)技術(shù)與實(shí)踐

深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)技術(shù)與實(shí)踐

定 價(jià):¥79.00

作 者: 高敬鵬 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 智能系統(tǒng)與技術(shù)叢書
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787111657378 出版時(shí)間: 2020-06-01 包裝: 平裝
開本: 16開 頁數(shù): 288 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書共11章,主要內(nèi)容包括深度學(xué)習(xí)簡(jiǎn)介、Python基礎(chǔ)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、卷積神經(jīng)網(wǎng)絡(luò)、經(jīng)典卷積網(wǎng)絡(luò)結(jié)構(gòu)、遷移學(xué)習(xí)、循環(huán)神經(jīng)網(wǎng)絡(luò)、強(qiáng)化學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)、基于策略的算法更新與趨勢(shì)等,通過具體案例,將Python語言、深度學(xué)習(xí)思想、強(qiáng)化學(xué)習(xí)思想和實(shí)際工程完美地結(jié)合起來。本書由淺入深,從易到難,各章節(jié)既相對(duì)獨(dú)立又前后關(guān)聯(lián),其*大的特點(diǎn)就是打破了傳統(tǒng)書籍的講解方法,在介紹各部分理論基礎(chǔ)的同時(shí),搭配具體實(shí)例,通過對(duì)相關(guān)程序的詳細(xì)講解進(jìn)一步加深對(duì)理論基礎(chǔ)的理解。

作者簡(jiǎn)介

暫缺《深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)技術(shù)與實(shí)踐》作者簡(jiǎn)介

圖書目錄

前言
第1章 深度學(xué)習(xí)簡(jiǎn)介1
11 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)1
12 TensorFlow概述2
13 環(huán)境搭建3
131 在Windows系統(tǒng)下安裝Anaconda3
132 在Anaconda下安裝TensorFlow與Keras6
133 Spyder編輯器8
第2章 Python基礎(chǔ)11
21 數(shù)據(jù)類型11
211 數(shù)值類型11
212 字符串類型13
213 布爾類型13
22 變量與常量14
23 運(yùn)算符14
231 運(yùn)算符概述14
232 運(yùn)算符優(yōu)先級(jí)15
24 選擇與循環(huán)15
241 if語句15
242 while循環(huán)18
243 for循環(huán)20
244 break和continue21
25 列表與元組23
251 創(chuàng)建23
252 查詢24
253 修改24
254 刪除26
26 字典26
261 字典的創(chuàng)建27
262 字典的常規(guī)操作27
263 字典的遍歷29
27 函數(shù)29
271 函數(shù)的定義與調(diào)用30
272 參數(shù)傳遞31
28 面向?qū)ο缶幊?3
281 類與對(duì)象33
282 繼承與多態(tài)34
29 思考與練習(xí)37
第3章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)38
31 單層神經(jīng)網(wǎng)絡(luò)38
32 多層神經(jīng)網(wǎng)絡(luò)39
321 隱藏層39
322 輸入層與輸出層41
33 激活函數(shù)42
331 Sigmoid函數(shù)42
332 Tanh函數(shù)43
333 Relu函數(shù)44
334 Softmax函數(shù)45
34 神經(jīng)網(wǎng)絡(luò)工作過程45
35 損失函數(shù)47
351 均方差函數(shù)47
352 交叉熵函數(shù)47
36 優(yōu)化算法48
37 反向傳播49
38 泛化能力52
39 多層感知器53
310 MNIST數(shù)據(jù)集54
3101 下載MNIST數(shù)據(jù)集54
3102 數(shù)據(jù)預(yù)處理56
311 Keras實(shí)現(xiàn)感知器的手寫體識(shí)別58
3111 單層感知器手寫體識(shí)別58
3112 多層感知器手寫體識(shí)別61
312 思考與練習(xí)67
第4章 卷積神經(jīng)網(wǎng)絡(luò)68
41 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及原理68
411 卷積神經(jīng)網(wǎng)絡(luò)特點(diǎn)69
412 卷積層70
413 池化層72
414 全連接層73
42 卷積神經(jīng)網(wǎng)絡(luò)工作過程74
43 簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)MNIST分類76
431 MNIST數(shù)據(jù)集預(yù)處理76
432 簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)搭建77
44 CIFAR-10數(shù)據(jù)集84
441 下載CIFAR-10數(shù)據(jù)集85
442 CIFAR-10數(shù)據(jù)集預(yù)處理87
45 簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)CIFAR-10分類88
46 思考與練習(xí)93
第5章 經(jīng)典卷積網(wǎng)絡(luò)結(jié)構(gòu)94
51 LeNet概述94
52 LeNet實(shí)現(xiàn)MNIST分類95
521 MNIST數(shù)據(jù)預(yù)處理95
522 基于Keras搭建LeNet網(wǎng)絡(luò)結(jié)構(gòu)95
523 對(duì)LeNet網(wǎng)絡(luò)模型進(jìn)行編譯、訓(xùn)練、評(píng)估與預(yù)測(cè)98
53 AlexNet概述101
54 AlexNet實(shí)現(xiàn)MNIST分類103
541 基于Keras搭建AlexNet網(wǎng)絡(luò)結(jié)構(gòu)103
542 對(duì)AlexNet網(wǎng)絡(luò)模型進(jìn)行編譯、訓(xùn)練、評(píng)估與預(yù)測(cè)107
55 VGG16概述110
56 VGG16實(shí)現(xiàn)MNIST分類111
561 基于Keras搭建VGG16網(wǎng)絡(luò)結(jié)構(gòu)112
562 對(duì)VGG16網(wǎng)絡(luò)模型進(jìn)行評(píng)估與預(yù)測(cè)115
57 思考與練習(xí)117
第6章 經(jīng)典卷積網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)階118
61 GoogLeNet概述118
62 GoogLeNet實(shí)現(xiàn)MNIST分類119
621 基于Keras搭建GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu)119
622 對(duì)GoogLeNet進(jìn)行訓(xùn)練、評(píng)估與預(yù)測(cè)125
63 ResNet概述129
64 ResNet50實(shí)現(xiàn)MNIST分類131
641 基于Keras搭建ResNet50網(wǎng)絡(luò)結(jié)構(gòu)131
642 對(duì)ResNet50網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練、評(píng)估與預(yù)測(cè)138
65 思考與練習(xí)142
第7章 遷移學(xué)習(xí)143
71 基于卷積網(wǎng)絡(luò)實(shí)現(xiàn)遷移學(xué)習(xí)143
72 InceptionV3實(shí)現(xiàn)遷移學(xué)習(xí)144
73 Xception實(shí)現(xiàn)遷移學(xué)習(xí)150
74 MobileNet實(shí)現(xiàn)遷移學(xué)習(xí)155
75 簡(jiǎn)單卷積網(wǎng)絡(luò)實(shí)現(xiàn)遷移學(xué)習(xí)164
76 思考與練習(xí)172
第8章 循環(huán)神經(jīng)網(wǎng)絡(luò)173
81 循環(huán)神經(jīng)網(wǎng)絡(luò)概述173
82 長(zhǎng)短期記憶網(wǎng)絡(luò)174
821 LSTM前向傳播175
822 LSTM反向傳播176
83 Reuters數(shù)據(jù)集176
831 Reuters數(shù)據(jù)集概述176
832 文本信息預(yù)處理177
84 簡(jiǎn)單RNN實(shí)現(xiàn)Reuters分類180
85 LSTM實(shí)現(xiàn)Reuters分類185
86 思考與練習(xí)190
第9章 強(qiáng)化學(xué)習(xí)191
91 初識(shí)強(qiáng)化學(xué)習(xí)191
911 什么是強(qiáng)化學(xué)習(xí)192
912 強(qiáng)化學(xué)習(xí)能解決什么類型的問題193
913 強(qiáng)化學(xué)習(xí)如何解決問題194
92 強(qiáng)化學(xué)習(xí)理論基礎(chǔ)194
921 基本組成元素194
922 基本模型196
923 價(jià)值函數(shù)198
93 求解強(qiáng)化學(xué)習(xí)—有模型199
931 動(dòng)態(tài)規(guī)劃與貝爾曼方程199
932 策略迭代200
933 值迭代202
934 值迭代算法實(shí)現(xiàn)格子世界202
94 求解強(qiáng)化學(xué)習(xí)—無模型208
941 蒙特卡羅算法208
942 時(shí)間差分法209
943 Q-learning算法210
944 Q-learning實(shí)現(xiàn)格子世界211
95 思考與練習(xí)213
第10章 深度強(qiáng)化學(xué)習(xí)214
101 深度強(qiáng)化學(xué)習(xí)框架214
102 TensorFlow編程216
1021 TensorFlow的計(jì)算模型—計(jì)算圖216
1022 TensorFlow的數(shù)據(jù)模型—張量219
1023 TensorFlow的運(yùn)行模型—會(huì)話220
1024 TensorFlow變量222
1025 TensorFlow共享變量225
103 Gym的安裝及使用226
1031 Gym的安裝226
1032 Gym的使用227
104 基于值的算法更新229
1041 Q-learning實(shí)現(xiàn)229
1042 DQN算法原理233
1043 DQN算法實(shí)現(xiàn)236
1044 DDQN算法原理241
1045 DDQN算法實(shí)現(xiàn)243
105 思考與練習(xí)248
第11章 基于策略的算法更新與趨勢(shì)250
111 策略梯度法250
11

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)