注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)TensorFlow智能算法與應(yīng)用

TensorFlow智能算法與應(yīng)用

TensorFlow智能算法與應(yīng)用

定 價(jià):¥59.00

作 者: 胡鶴
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787121368998 出版時(shí)間: 2019-07-01 包裝:
開本: 16開 頁數(shù): 240 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  TensorFlow是目前*受關(guān)注的機(jī)器學(xué)習(xí)框架,其模塊化設(shè)計(jì)非常適合大數(shù)據(jù)環(huán)境下智能算法的開發(fā)與應(yīng)用。本書介紹了使用TensorFlow進(jìn)行智能算法的實(shí)踐,包括經(jīng)典的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法實(shí)現(xiàn)。本書力求做到理論與實(shí)踐平衡統(tǒng)一,在相關(guān)理論上深入淺出,輔以多種TensorFlow實(shí)現(xiàn)技術(shù)對(duì)理論進(jìn)行具體實(shí)踐,有助于讀者快速理解與掌握智能算法的精髓和TensorFlow技術(shù)的要點(diǎn)。本書共4篇。入門篇介紹學(xué)習(xí)環(huán)境搭建和TensorFlow框架的基本使用;基礎(chǔ)篇介紹傳統(tǒng)智能算法及其TensorFlow的實(shí)現(xiàn);進(jìn)階篇介紹深度神經(jīng)網(wǎng)絡(luò)方法和CNN、RNN、LSTM、GRU等基礎(chǔ)的深度學(xué)習(xí)算法;應(yīng)用篇介紹GAN學(xué)習(xí)算法和TensorFlowHub遷移學(xué)習(xí)。

作者簡(jiǎn)介

  中國人民大學(xué)信息學(xué)院副教授,在人工智能領(lǐng)域發(fā)表論文30多篇,主持了兩項(xiàng)國家自然科學(xué)基金項(xiàng)目,擁有多項(xiàng)軟件著作權(quán)。自2004年起負(fù)責(zé)主講《人工智能》課程,在10多年的實(shí)際教學(xué)中,作者對(duì)深度學(xué)習(xí)方法相對(duì)傳統(tǒng)人工智能方法的顛覆性發(fā)展有深刻的切身體會(huì),也在教學(xué)中感受到學(xué)生學(xué)習(xí)深度學(xué)習(xí)算法和Tensorflow框架的極大熱情。作者曾將人工智能小車引入課堂教學(xué)和課程項(xiàng)目,建立實(shí)踐性強(qiáng)的人工智能實(shí)驗(yàn)平臺(tái),對(duì)多種智能算法進(jìn)行實(shí)踐和驗(yàn)證。通過建立有趣的智能應(yīng)用項(xiàng)目,激發(fā)學(xué)生對(duì)Tensorflow智能算法的學(xué)習(xí)熱情和實(shí)踐動(dòng)力。

圖書目錄

目 錄
入 門 篇
第1章 學(xué)習(xí)環(huán)境搭建\t3
1.1 Docker工具箱\t3
1.2 運(yùn)行Docker鏡像\t6
1.3 Jupyter筆記本\t10
1.3.1 Jupyter界面\t10
1.3.2 Jupyter單元格\t12
1.3.3 Jupyter模式\t14
1.3.4 Jupyter常用指令\t14
1.4 NumPy庫\t15
1.4.1 ndarray數(shù)據(jù)基礎(chǔ)\t16
1.4.2 ndarray廣播運(yùn)算\t20
1.4.3 ndarray函數(shù)運(yùn)算\t22
1.4.4 ndarray索引切分\t24
1.5 Pandas\t25
1.5.1 Pandas基礎(chǔ)對(duì)象\t26
1.5.2 Pandas選擇數(shù)據(jù)\t29
1.5.3 Pandas 處理實(shí)例\t31
1.6 Scikit-Learn\t34
1.6.1 sklearn.datasets\t34
1.6.2 Pandas處理\t35
1.6.3 sklearn回歸\t36
第2章 TensorFlow入門\t38
2.1 Hello TensorFlow\t39
2.2 TensorFlow數(shù)據(jù)結(jié)構(gòu)\t39
2.3 TensorFlow計(jì)算-數(shù)據(jù)流圖\t40
2.3.1 常量節(jié)點(diǎn)(Constant)\t42
2.3.2 占位符節(jié)點(diǎn)(Placeholder)\t42
2.3.3 變量節(jié)點(diǎn)(Variable)\t43
2.3.4 操作節(jié)點(diǎn)(Operation)\t45
2.4 TensorFlow會(huì)話與基本操作\t45
2.5 TensorFlow可視化\t47
第3章 TensorFlow進(jìn)階\t49
3.1 TensorFlow數(shù)據(jù)處理\t50
3.1.1 索引計(jì)算\t50
3.1.2 矩陣計(jì)算\t51
3.1.3 形狀計(jì)算\t53
3.1.4 規(guī)約計(jì)算\t54
3.1.5 分割計(jì)算\t55
3.1.6 張量的形狀\t57
3.1.7 張量的運(yùn)算\t58
3.1.8 骰子游戲\t61
3.2 TensorFlow共享變量\t62
3.2.1 name_scope名字域\t62
3.2.2 variablescope 變量域\t63
3.3 TensorFlow模型配置\t64
基 礎(chǔ) 篇
第4章 線性回歸算法\t69
4.1 BOSTON 數(shù)據(jù)集\t70
4.2 TensorFlow模型\t72
4.2.1 準(zhǔn)備數(shù)據(jù)\t72
4.2.2 定義模型\t72
4.2.3 訓(xùn)練模型\t73
4.2.4 評(píng)估模型\t73
4.2.5 可視化模型\t73
4.3 Estimator模型\t75
4.3.1 Dataset API\t75
4.3.2 估算器介紹\t76
4.3.3 準(zhǔn)備數(shù)據(jù)\t77
4.3.4 定義模型\t78
4.3.5 訓(xùn)練模型\t78
4.3.6 評(píng)估模型\t78
4.3.7 可視化模型\t79
4.4 Keras模型\t81
4.4.1 定義模型\t81
4.4.2 訓(xùn)練模型\t81
4.4.3 評(píng)估模型\t82
4.4.4 可視化模型\t82
第5章 邏輯回歸算法\t84
5.1 線性回歸到邏輯回歸\t84
5.2 最小二乘到交叉熵\t86
5.3 MNIST數(shù)據(jù)集\t88
5.4 TensorFlow模型\t88
5.4.1 準(zhǔn)備數(shù)據(jù)\t89
5.4.2 定義模型\t89
5.4.3 訓(xùn)練模型\t90
5.4.4 評(píng)估模型\t91
5.4.5 可視化模型\t91
5.5 Estimator模型\t92
5.5.1 準(zhǔn)備數(shù)據(jù)\t92
5.5.2 定義模型\t93
5.5.3 訓(xùn)練模型\t93
5.5.4 評(píng)估模型\t93
5.5.5 可視化模型\t94
5.6 Keras模型\t95
5.6.1 準(zhǔn)備數(shù)據(jù)\t95
5.6.2 定義模型\t96
5.6.3 訓(xùn)練模型\t96
5.6.4 評(píng)估模型\t96
5.6.5 可視化模型\t97
第6章 算法的正則化\t99
6.1 過擬合\t99
6.2 正則化\t99
6.3 編程實(shí)戰(zhàn)\t103
進(jìn) 階 篇
第7章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)算法\t113
7.1 神經(jīng)網(wǎng)絡(luò)\t113
7.1.1 激活函數(shù)\t114
7.1.2 編程實(shí)戰(zhàn)\t119
7.2 神經(jīng)網(wǎng)絡(luò)訓(xùn)練\t123
7.2.1 訓(xùn)練困難分析\t124
7.2.2 編程實(shí)戰(zhàn)\t124
7.3 多類別神經(jīng)網(wǎng)絡(luò)\t133
7.3.1 邏輯回歸與深度網(wǎng)絡(luò)\t133
7.3.2 權(quán)重可視化\t135
7.4 神經(jīng)網(wǎng)絡(luò)嵌入\t136
7.4.1 一維數(shù)軸排列\(zhòng)t137
7.4.2 二維數(shù)軸排列\(zhòng)t137
7.4.3 傳統(tǒng)類別表示\t138
7.4.4 嵌入表示\t140
第8章 卷積神經(jīng)網(wǎng)絡(luò)(CNN)\t141
8.1 卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介\t141
8.2 CNN與DNN\t142
8.3 卷積操作\t142
8.4 卷積實(shí)戰(zhàn)\t145
8.5 池化操作\t149
8.6 池化實(shí)戰(zhàn)\t149
8.7 Relu非線性激活\t150
8.8 TensorFlow卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t151
8.9 Estimalor卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t155
8.10 Keras卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t159
第9章 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)\t162
9.1 循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介\t162
9.2 DNN、CNN與RNN\t162
9.3 手工循環(huán)神經(jīng)網(wǎng)絡(luò)\t164
9.4 static_rnn循環(huán)神經(jīng)網(wǎng)絡(luò)\t165
9.5 dynamic_rnn循環(huán)神經(jīng)網(wǎng)絡(luò)\t167
9.6 TensorFlow循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t169
9.7 Estimator循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t173
9.8 Keras循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)\t176
9.9 LSTM模型\t178
9.10 GRU模型\t180
第10章 自動(dòng)編碼器(AutoEncoder)\t182
10.1 自動(dòng)編碼器簡(jiǎn)介\t182
10.2 自動(dòng)編碼器與PCA\t183
10.3 稀疏自動(dòng)編碼器\t185
10.4 棧式自動(dòng)編碼器(SAE)\t187
10.4.1 關(guān)聯(lián)權(quán)重\t190
10.4.2 分階段訓(xùn)練\t192
10.4.3 無監(jiān)督預(yù)訓(xùn)練\t194
10.5 降噪自動(dòng)編碼器(DAE)\t198
10.6 變分自動(dòng)編碼器(VAE)\t200
10.6.1 變分自動(dòng)編碼器原理\t200
10.6.2 變分自動(dòng)編碼器生成數(shù)字\t203
應(yīng) 用 篇
第11章 生成式對(duì)抗網(wǎng)絡(luò)\t207
11.1 生成式對(duì)抗網(wǎng)絡(luò)簡(jiǎn)介\t207
11.2 GAN工作原理\t207
11.3 GAN改進(jìn)模型\t209
11.4 GAN模型實(shí)戰(zhàn)\t212
11.5 GAN訓(xùn)練技巧\t221
11.6 GAN未來展望\t222
第12章 使用TensorFlow Hub進(jìn)行遷移學(xué)習(xí)\t223
12.1 圖像遷移學(xué)習(xí)\t223
12.2 文本遷移學(xué)習(xí)\t224
12.3 完整的文本分類器\t225
12.4 遷移學(xué)習(xí)分析\t228

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)