注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能Tensor Flow入門與實(shí)戰(zhàn)

Tensor Flow入門與實(shí)戰(zhàn)

Tensor Flow入門與實(shí)戰(zhàn)

定 價(jià):¥49.00

作 者: 羅冬日 著
出版社: 人民郵電出版社
叢編項(xiàng): 圖靈原創(chuàng)
標(biāo) 簽: 計(jì)算機(jī)?網(wǎng)絡(luò) 人工智能

購(gòu)買這本書(shū)可以去


ISBN: 9787115477019 出版時(shí)間: 2018-02-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 171 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  TensorFlow是2015年年底開(kāi)源的一套深度學(xué)習(xí)框架,是目前*活躍的深度學(xué)習(xí)框架。本書(shū)基于1.3版本,首先介紹了它的安裝和基本用法,然后討論了深度學(xué)習(xí)的基本概念,包括神經(jīng)網(wǎng)絡(luò)前向計(jì)算、損失函數(shù)、反向傳播計(jì)算和優(yōu)化函數(shù)等,接著介紹了卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),*后介紹了在大規(guī)模應(yīng)用的場(chǎng)景下,如何實(shí)現(xiàn)分布式的深度學(xué)習(xí)訓(xùn)練。本書(shū)適合深度學(xué)習(xí)的初學(xué)者學(xué)習(xí)和參考。

作者簡(jiǎn)介

  羅冬日 畢業(yè)于中科院研究生院;先后在百度,平安科技從事數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),深度學(xué)習(xí)相關(guān)的領(lǐng)域的研究工作。

圖書(shū)目錄

第1章 初識(shí)TensorFlow 1
1.1 TensorFlow特點(diǎn) 1
1.2 其他深度學(xué)習(xí)框架 3
1.2.1 Caffe 3
1.2.2 MXNet 3
1.2.3 Torch 4
1.2.4 Theano 4
1.2.5 CNTK 5
第2章 TensorFlow環(huán)境搭建 6
2.1 安裝環(huán)境介紹 6
2.1.1 CUDA簡(jiǎn)介 6
2.1.2 cuDNN簡(jiǎn)介 6
2.1.3 查看機(jī)器的GPU信息 7
2.2 安裝TensorFlow 8
2.2.1 安裝pip 9
2.2.2 通過(guò)pip安裝TensorFlow 9
2.2.3 源碼編譯安裝TensorFlow 10
2.3 NVIDIA驅(qū)動(dòng)安裝 11
2.4 安裝CUDA和cuDNN 12
2.4.1 Linux下安裝CUDA 12
2.4.2 Linux下安裝cuDNN 13
2.4.3 Windows和Mac系統(tǒng)下安裝CUDA 14
2.4.4 Windows和Mac系統(tǒng)下安裝cuDNN 14
2.5 安裝測(cè)試 15
第3章 TensorFlow基礎(chǔ) 16
3.1 基本概念 16
3.1.1 張量 16
3.1.2 圖 17
3.1.3 操作 18
3.1.4 會(huì)話 19
3.2 變量 24
3.2.1 變量的初始化 24
3.2.2 變量的變形 25
3.2.3 數(shù)據(jù)類型和維度 26
3.2.4 共享變量和變量命名空間 27
3.3 模型的保存和載入 33
3.3.1 模型的保存 33
3.3.2 模型的載入 34
3.4 使用GPU 34
3.4.1 指定GPU設(shè)備 35
3.4.2 指定GPU顯存占用 36
3.5 數(shù)據(jù)讀取 36
3.5.1 使用placeholder填充方式讀取數(shù)據(jù) 37
3.5.2 從文件讀入數(shù)據(jù)的方式 37
3.5.3 預(yù)先讀入內(nèi)存的方式 48
3.6 利用TensorBoard進(jìn)行數(shù)據(jù)可視化 49
3.6.1 在TensorBoard中查看圖結(jié)構(gòu) 49
3.6.2 訓(xùn)練過(guò)程中單一數(shù)據(jù)變化趨勢(shì) 51
3.6.3 訓(xùn)練過(guò)程中數(shù)據(jù)分布可視化 53
3.6.4 其他使用技巧 56
第4章 深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 58
4.1 神經(jīng)元 58
4.2 簡(jiǎn)單神經(jīng)網(wǎng)絡(luò) 59
4.3 深度神經(jīng)網(wǎng)絡(luò) 62
4.4 損失函數(shù) 63
4.5 梯度下降 64
4.6 反向傳播 66
4.6.1 求導(dǎo)鏈?zhǔn)椒▌t 66
4.6.2 反向傳播算法思路 67
4.6.3 反向傳播算法的計(jì)算過(guò)程 68
4.7 優(yōu)化函數(shù) 72
4.7.1 隨機(jī)梯度下降優(yōu)化算法 72
4.7.2 基于沖量的優(yōu)化算法 73
4.7.3 Adagrad優(yōu)化算法 74
4.7.4 Adadelta優(yōu)化算法 75
4.7.5 Adam優(yōu)化算法 75
4.7.6 TensorFlow中的優(yōu)化算法API 76
4.8 一個(gè)簡(jiǎn)單的例子 77
第5章 卷積神經(jīng)網(wǎng)絡(luò) 83
5.1 簡(jiǎn)介 83
5.2 什么是卷積 84
5.3 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 88
5.3.1 局部感知野 88
5.3.2 參數(shù)共享 89
5.3.3 多卷積核 91
5.3.4 池化 92
5.3.5 多層卷積 93
5.4 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 94
5.4.1 池化層反向傳播 95
5.4.2 卷積層反向傳播 96
5.5 TensorFlow中的卷積神經(jīng)網(wǎng)絡(luò) 101
5.5.1 TensorFlow的卷積操作 101
5.5.2 TensorFlow的池化操作 103
5.6 用TensorFlow實(shí)現(xiàn)0和1數(shù)字識(shí)別 104
5.6.1 由圖片生成TFRecord文件 104
5.6.2 構(gòu)建卷積網(wǎng)絡(luò)結(jié)構(gòu) 106
5.6.3 訓(xùn)練過(guò)程 110
5.6.4 卷積過(guò)程數(shù)據(jù)的變化 114
5.7 幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò) 117
5.7.1 AlexNet 117
5.7.2 VGGNet 118
5.7.3 Inception Net 120
5.7.4 ResNet 121
第6章 循環(huán)神經(jīng)網(wǎng)絡(luò) 123
6.1 普通RNN 123
6.1.1 普通RNN結(jié)構(gòu) 123
6.1.2 普通RNN的不足 125
6.2 LSTM單元 126
6.2.1 LSTM單元基本結(jié)構(gòu) 127
6.2.2 增加peephole的LSTM單元 131
6.2.3 GRU單元 132
6.3 TensorFlow中的RNN 132
6.4 用LSTM+CTC實(shí)現(xiàn)語(yǔ)音識(shí)別 136
6.4.1 語(yǔ)音特征介紹 136
6.4.2 計(jì)算流程描述 137
6.4.3 TensorFlow實(shí)現(xiàn) 139
6.5 在NLP中的應(yīng)用 144
6.5.1 語(yǔ)言模型 144
6.5.2 詞向量 147
6.5.3 中文分詞 148
6.6 小結(jié) 159
第7章 TensorFlow分布式 160
7.1 單機(jī)多GPU訓(xùn)練 160
7.2 多機(jī)多GPU分布式訓(xùn)練 163
7.2.1 參數(shù)服務(wù)器 163
7.2.2 in-graph和between-graph
模式 164
7.2.3 同步更新和異步更新 165
7.2.4 異步更新分布式示例 165

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)