注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能面向機(jī)器智能的TensorFlow實(shí)踐

面向機(jī)器智能的TensorFlow實(shí)踐

面向機(jī)器智能的TensorFlow實(shí)踐

定 價(jià):¥69.00

作 者: [美] 山姆·亞伯拉罕(Sam Abrahams),丹尼亞爾·哈夫納(Danijar Hafner),埃里克·厄威特,阿里爾·斯卡爾皮內(nèi)里 著;段菲,陳澎 譯
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 智能系統(tǒng)與技術(shù)叢書
標(biāo) 簽: 計(jì)算機(jī)/網(wǎng)絡(luò) 人工智能

購(gòu)買這本書可以去


ISBN: 9787111563891 出版時(shí)間: 2017-05-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 212 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書是一本*佳的TensorFlow入門指南。幾位作者都來(lái)自研發(fā)一線,他們用自己的寶貴經(jīng)驗(yàn),結(jié)合眾多高質(zhì)量的代碼,生動(dòng)講解TensorFlow的底層原理,并從實(shí)踐角度介紹如何將兩種常見(jiàn)模型——深度卷積網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用到圖像理解和自然語(yǔ)言處理的典型任務(wù)中。此外,還介紹了在模型部署和編程中可用的諸多實(shí)用技巧。全書分為四部分,共9章。第一部分(第1~2章)討論TensorFlow的設(shè)計(jì)模式以及選擇TensorFlow作為深度學(xué)習(xí)庫(kù)的優(yōu)勢(shì)和面臨的挑戰(zhàn),并給出詳細(xì)的安裝指南。第二部分(第3~4章)深入介紹TensorFlow API的基礎(chǔ)知識(shí)和機(jī)器學(xué)習(xí)基礎(chǔ)。第三部分(第5~6章)探討如何用TensorFlow實(shí)現(xiàn)高級(jí)深度模型,涉及卷積神經(jīng)網(wǎng)絡(luò)(或CNN)模型和循環(huán)神經(jīng)網(wǎng)絡(luò)(或RNN)模型。第四部分(第7~8章)探討TensorFlow API中*新推出的特性,包括如何準(zhǔn)備用于部署的模型、一些有用的編程模式等。第9章給出一些進(jìn)一步了解TensorFlow的學(xué)習(xí)資源。

作者簡(jiǎn)介

  山姆·亞伯拉罕:數(shù)據(jù)科學(xué)家、工程師,富有經(jīng)驗(yàn)的TensorFlow貢獻(xiàn)者。丹尼亞爾·哈夫納:谷歌軟件工程師埃里克·厄威特:高級(jí)軟件工程師阿里爾·斯卡爾皮內(nèi)里:團(tuán)隊(duì)負(fù)責(zé)人,高級(jí)Java開(kāi)發(fā)者段菲,清華大學(xué)信號(hào)與信息處理專業(yè)博士,前三星電子中國(guó)研究院高級(jí)研究員,現(xiàn)為英特爾中國(guó)研究院高級(jí)研究員。研究方向是深度學(xué)習(xí)、計(jì)算機(jī)視覺(jué)、數(shù)據(jù)可視化。參與翻譯過(guò)《機(jī)器學(xué)習(xí)》《機(jī)器學(xué)習(xí)實(shí)踐:測(cè)試驅(qū)動(dòng)的開(kāi)發(fā)方法》《DirectX103D游戲編程深度探索》等多本圖書。

圖書目錄

譯者序
前言
第一部分 開(kāi)啟TensorFlow之旅
第1章 引言2
1.1 無(wú)處不在的數(shù)據(jù)2
1.2 深度學(xué)習(xí)2
1.3 TensorFlow:一個(gè)現(xiàn)代的機(jī)器學(xué)習(xí)庫(kù)3
1.4 TensorFlow:技術(shù)概要3
1.5 何為TensorFlow4
1.5.1 解讀來(lái)自官網(wǎng)的單句描述4
1.5.2 單句描述未體現(xiàn)的內(nèi)容6
1.6 何時(shí)使用TensorFlow7
1.7 TensorFlow的優(yōu)勢(shì)8
1.8 使用TensorFlow所面臨的挑戰(zhàn)9
1.9 高歌猛進(jìn)9
第2章 安裝TensorFlow10
2.1 選擇安裝環(huán)境10
2.2 Jupyter Notebook與matplotlib12
2.3 創(chuàng)建Virtualenv環(huán)境12
2.4 TensorFlow的簡(jiǎn)易安裝13
2.5 源碼構(gòu)建及安裝實(shí)例:在64位Ubuntu Linux上安裝GPU版TensorFlow14
2.5.1 安裝依賴庫(kù)14
2.5.2 安裝Bazel15
2.5.3 安裝CUDA軟件(僅限NVIDIA GPU)16
2.5.4 從源碼構(gòu)建和安裝TensorFlow18
2.6 安裝Jupyter Notebook20
2.7 安裝matplotlib20
2.8 測(cè)試TensorFlow、Jupyter Notebook及matplotlib21
2.9 本章小結(jié)23
第二部分 TensorFlow與機(jī)器學(xué)習(xí)基礎(chǔ)
第3章 TensorFlow基礎(chǔ)26
3.1 數(shù)據(jù)流圖簡(jiǎn)介26
3.1.1 數(shù)據(jù)流圖基礎(chǔ)26
3.1.2 節(jié)點(diǎn)的依賴關(guān)系29
3.2 在TensorFlow中定義數(shù)據(jù)流圖33
3.2.1 構(gòu)建第一個(gè)TensorFlow數(shù)據(jù)流圖33
3.2.2 張量思維39
3.2.3 張量的形狀43
3.2.4 TensorFlow的Operation44
3.2.5 TensorFlow的Graph對(duì)象46
3.2.6 TensorFlow Session48
3.2.7 利用占位節(jié)點(diǎn)添加輸入52
3.2.8 Variable對(duì)象53
3.3 通過(guò)名稱作用域組織數(shù)據(jù)流圖56
3.4 練習(xí):綜合運(yùn)用各種組件61
3.4.1 構(gòu)建數(shù)據(jù)流圖63
3.4.2 運(yùn)行數(shù)據(jù)流圖66
3.5 本章小結(jié)71
第4章 機(jī)器學(xué)習(xí)基礎(chǔ)72
4.1 有監(jiān)督學(xué)習(xí)簡(jiǎn)介72
4.2 保存訓(xùn)練檢查點(diǎn)74
4.3 線性回歸76
4.4 對(duì)數(shù)幾率回歸78
4.5 softmax分類83
4.6 多層神經(jīng)網(wǎng)絡(luò)85
4.7 梯度下降法與誤差反向傳播算法88
第三部分 用TensorFlow實(shí)現(xiàn)更高級(jí)的深度模型
第5章 目標(biāo)識(shí)別與分類96
5.1 卷積神經(jīng)網(wǎng)絡(luò)97
5.2 卷積100
5.2.1 輸入和卷積核100
5.2.2 跨度102
5.2.3 邊界填充104
5.2.4 數(shù)據(jù)格式104
5.2.5 深入探討卷積核105
5.3 常見(jiàn)層107
5.3.1 卷積層108
5.3.2 激活函數(shù)108
5.3.3 池化層111
5.3.4 歸一化113
5.3.5 高級(jí)層114
5.4 圖像與TensorFlow116
5.4.1 加載圖像116
5.4.2 圖像格式117
5.4.3 圖像操作121
5.4.4 顏色127
5.5 CNN的實(shí)現(xiàn)129
5.5.1 Stanford Dogs數(shù)據(jù)集129
5.5.2 將圖像轉(zhuǎn)為TFRecord文件130
5.5.3 加載圖像133
5.5.4 模型134
5.5.5 訓(xùn)練136
5.5.6 用TensorBoard調(diào)試濾波器137
5.6 本章小結(jié)139
第6章 循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語(yǔ)言處理140
6.1 循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介140
6.1.1 時(shí)序的世界140
6.1.2 近似任意程序141
6.1.3 隨時(shí)間反向傳播142
6.1.4 序列的編碼和解碼143
6.1.5 實(shí)現(xiàn)第一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)145
6.1.6 梯度消失與梯度爆炸145
6.1.7 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)147
6.1.8 RNN結(jié)構(gòu)的變種148
6.2 詞向量嵌入149
6.2.1 準(zhǔn)備維基百科語(yǔ)料庫(kù)151
6.2.2 模型結(jié)構(gòu)155
6.2.3 噪聲對(duì)比分類器156
6.2.4 訓(xùn)練模型156
6.3 序列分類157
6.3.1 Imdb影評(píng)數(shù)據(jù)集158
6.3.2 使用詞向量嵌入159
6.3.3 序列標(biāo)注模型159
6.3.4 來(lái)自最后相關(guān)活性值的softmax層161
6.3.5 梯度裁剪162
6.3.6 訓(xùn)練模型163
6.4 序列標(biāo)注164
6.4.1 OCR數(shù)據(jù)集164
6.4.2 時(shí)間步之間共享的soft-max層166
6.4.3 訓(xùn)練模型169
6.4.4 雙向RNN171
6.5 預(yù)測(cè)編碼174
6.5.1 字符級(jí)語(yǔ)言建模174
6.5.2 ArXiv摘要API175
6.5.3 數(shù)據(jù)預(yù)處理177
6.5.4 預(yù)測(cè)編碼模型178
6.5.5 訓(xùn)練模型182
6.5.6 生成相似序列185
6.6 本章小結(jié)188
第四部分 其他提示、技術(shù)與特性
第7章 產(chǎn)品環(huán)境中模型的部署190
7.1 搭建TensorFlow服務(wù)開(kāi)發(fā)環(huán)境190
7.1.1 Docker鏡像190
7.1.2 Bazel工作區(qū)191
7.2 導(dǎo)出訓(xùn)練好的模型192
7.3 定義服務(wù)器接口195
7.4 實(shí)現(xiàn)推斷服務(wù)器197
7.5 客戶端應(yīng)用201
7.6 產(chǎn)品準(zhǔn)備203
7.7 本章小結(jié)203
第8章 輔助函數(shù)、代碼結(jié)構(gòu)和類204
8.1 確保目錄結(jié)構(gòu)存在204
8.2 下載函數(shù)204
8.3 磁盤緩存修飾器205
8.4 屬性字典206
8.5 惰性屬性修飾器207
8.6 覆蓋數(shù)據(jù)流圖修飾器209
第9章 結(jié)語(yǔ):其他資源212

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)