注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡(luò)軟件與程序設(shè)計實用卷積神經(jīng)網(wǎng)絡(luò):運用Python實現(xiàn)高級深度學習模型

實用卷積神經(jīng)網(wǎng)絡(luò):運用Python實現(xiàn)高級深度學習模型

實用卷積神經(jīng)網(wǎng)絡(luò):運用Python實現(xiàn)高級深度學習模型

定 價:¥69.00

作 者: [印度] 莫希特·賽瓦克(Mohit Sewak) 著
出版社: 機械工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787111621966 出版時間: 2019-05-01 包裝: 平裝
開本: 16 頁數(shù): 字數(shù):  

內(nèi)容簡介

  第1章對深度神經(jīng)網(wǎng)絡(luò)的科學原理和實現(xiàn)這種網(wǎng)絡(luò)的不同框架以及框架背后的數(shù)學機制提供一個快速回顧。 第2章向讀者介紹卷積神經(jīng)網(wǎng)絡(luò),并展示如何利用深度學習從圖像中提取信息。 第3章從零開始針對圖像分類問題構(gòu)建一個簡單的CNN,并闡明如何調(diào)整參數(shù)、優(yōu)化訓練時間以及CNN的性能,以分別提高效率和準確率。 第4章介紹幾種經(jīng)典的(在競賽中勝出的)CNN架構(gòu)的優(yōu)勢和運作機制,以及它們之間的差異和如何使用這些架構(gòu)。 第5章講授如何使用預(yù)先訓練好的網(wǎng)絡(luò),并使其適用于新的且不同的數(shù)據(jù)集。在實際應(yīng)用中也有一種自定義分類問題,它使用的技術(shù)稱為轉(zhuǎn)移學習。 第6章介紹一種稱為自編碼器的無監(jiān)督學習技術(shù),同時介紹了CNN自編碼器的不同應(yīng)用,比如圖像壓縮。 第7章講授目標檢測、實例分割和圖像分類的區(qū)別。然后介紹多種使用CNN進行目標檢測和實例分割的技術(shù)。 第8章探究生成式CNN網(wǎng)絡(luò),然后將其與我們學習得到的有識別力的CNN網(wǎng)絡(luò)相結(jié)合,用CNN/GAN創(chuàng)造新的圖像。 第9章講授深度學習中注意力背后的思想,并學習如何使用基于注意力的模型來實現(xiàn)一些高級解決方案(圖像捕捉和RAM)。我們還將了解不同類型的注意力以及強化學習在硬注意力機制中的作用。

作者簡介

  Mohit Sewak是IBM的高級認知數(shù)據(jù)科學家,也是比爾拉技術(shù)與科學學院的人工智能和計算機科學博士。他在人工智能、深度學習和機器學習方面擁有多項專利和著作。他曾是一些非常成功的人工智能/機器學習軟件和行業(yè)解決方案的首席數(shù)據(jù)科學家,并在早期就參與了沃森認知商業(yè)產(chǎn)品線的解決方案研究。他在TensorFlow、Torch、Caffe、Theano、Keras、Watson等架構(gòu)的設(shè)計和解決方案方面有14年的豐富經(jīng)驗。 Md. Rezaul Karim是德國Fraunhofer FIT的研究科學家。他也是德國亞琛工業(yè)大學的博士研究生。在加入FIT之前,他曾在愛爾蘭的Insight數(shù)據(jù)分析中心擔任研究員。他也曾是韓國三星電子的首席工程師。 他在C++、Java、R、Scala和Python方面有9年的研發(fā)經(jīng)驗,也在生物信息學、大數(shù)據(jù)和深度學習方面發(fā)表過研究論文。此外在Spark、Zeppelin、Hadoop、Keras、Scikit-Learn、TensorFlow、Deeplearning4j、MXNet、H2O等方面都有實際的工作經(jīng)驗。 Pradeep Pujari是沃爾瑪實驗室的機器學習工程師,也是ACM的杰出成員。他的核心專業(yè)領(lǐng)域是信息檢索、機器學習和自然語言處理。在空閑的時候,他喜歡研究人工智能技術(shù)、閱讀和輔導(dǎo)。

圖書目錄

前言
關(guān)于作者
關(guān)于審閱者
第1章 深度神經(jīng)網(wǎng)絡(luò)概述 1
1.1 創(chuàng)建神經(jīng)網(wǎng)絡(luò)塊 1
1.2 TensorFlow介紹 3
1.3 MNIST數(shù)據(jù)集介紹 10
1.4 Keras深度學習庫概述 14
1.5 基于Keras和MNIST的手寫數(shù)字識別 15
1.5.1 訓練和測試數(shù)據(jù)的檢索 17
1.5.2 訓練數(shù)據(jù)的可視化 18
1.5.3 創(chuàng)建神經(jīng)網(wǎng)絡(luò) 18
1.5.4 訓練神經(jīng)網(wǎng)絡(luò) 19
1.5.5 測試 19
1.6 理解反向傳播 20
1.7 本章小結(jié) 23
第2章 卷積神經(jīng)網(wǎng)絡(luò)介紹 25
2.1 CNN歷史 25
2.2 卷積神經(jīng)網(wǎng)絡(luò) 27
2.2.1 計算機如何解釋圖像 28
2.2.2 編碼實現(xiàn)圖像可視化 29
2.2.3 dropout 31
2.2.4 輸入層 31
2.2.5 卷積層 32
2.2.6 池化層 34
2.3 實踐示例:圖像分類 35
2.4 本章小結(jié) 39
第3章 構(gòu)建CNN并進行性能優(yōu)化 41
3.1 CNN架構(gòu)和DNN的缺點 41
3.1.1 卷積操作 44
3.1.2 池化、步長和填充操作 46
3.2 TensorFlow中的卷積和池化操作 48
3.2.1 在TensorFlow中應(yīng)用池化操作 49
3.2.2 TensorFlow中的卷積操作 51
3.3 訓練CNN 53
3.3.1 初始化權(quán)重和偏置 53
3.3.2 正則化 54
3.3.3 激活函數(shù) 54
3.4 創(chuàng)建、訓練和評估第一個CNN 56
3.5 模型性能優(yōu)化 73
3.5.1 隱含層數(shù)量 73
3.5.2 每個隱含層的神經(jīng)元個數(shù) 74
3.5.3 批標準化 74
3.5.4 高級正則化及過擬合的避免 76
3.5.5 運用哪個優(yōu)化器 79
3.5.6 內(nèi)存調(diào)優(yōu) 79
3.5.7 層的位置調(diào)優(yōu) 80
3.5.8 綜合所有操作創(chuàng)建第二個CNN 80
3.5.9 數(shù)據(jù)集描述和預(yù)處理 80
3.5.10 創(chuàng)建CNN模型 85
3.5.11 訓練和評估網(wǎng)絡(luò) 87
3.6 本章小結(jié) 90
第4章 經(jīng)典的CNN模型架構(gòu) 91
4.1 ImageNet介紹 91
4.2 LeNet 92
4.3 AlexNet架構(gòu) 93
4.4 VGGNet架構(gòu) 95
4.5 GoogLeNet架構(gòu) 97
4.5.1 架構(gòu)洞察 98
4.5.2 inception模塊 99
4.6 ResNet架構(gòu) 99
4.7 本章小結(jié) 101
第5章 轉(zhuǎn)移學習 103
5.1 特征提取方法 103
5.1.1 目標數(shù)據(jù)集較小且與原始訓練集相似 104
5.1.2 目標數(shù)據(jù)集較小且與原始訓練集不同 105
5.1.3 目標數(shù)據(jù)集很大且與原始訓練集相似 107
5.1.4 目標數(shù)據(jù)集很大且與原始訓練集不同 107
5.2 轉(zhuǎn)移學習示例 108
5.3 多任務(wù)學習 111
5.4 本章小結(jié) 111
第6章 CNN自編碼器 113
6.1 自編碼器介紹 113
6.2 卷積自編碼器 114
6.3 應(yīng)用 115
6.4 本章小結(jié) 116
第7章 CNN目標檢測與實例分割 119
7.1 目標檢測與圖像分類的區(qū)別 120
7.2 傳統(tǒng)的、非CNN的目標檢測方法 124
7.3 R-CNN:CNN特征區(qū) 128
7.4 Fast R-CNN:基于區(qū)域快速識別的CNN 130
7.5 Faster R-CNN:基于快速區(qū)域生成網(wǎng)絡(luò)的CNN 132
7.6 Mask R-CNN:CNN實例分割 135
7.7 實例分割的代碼實現(xiàn) 137
7.7.1 創(chuàng)建環(huán)境 138
7.7.2 準備COCO數(shù)據(jù)集文件夾結(jié)構(gòu) 139
7.7.3 在COCO數(shù)據(jù)集上運行預(yù)訓練模型 139
7.8 參考文獻 139
7.9 本章小結(jié) 141
第8章 GAN:使用CNN生成新圖像 143
8.1 Pix2pix:基于GAN的圖像翻譯 144
8.1.1 CycleGAN 144
8.1.2 訓練GAN模型 145
8.2 GAN的代碼示例 146
8.2.1 計算損失 149
8.2.2 半監(jiān)督學習和GAN 151
8.3 特征匹配 152
8.3.1 基于半監(jiān)督分類的GAN示例 152
8.3.2 深度卷積GAN 158
8.4 本章小結(jié) 159
第9章 CNN和視覺模型的注意力機制 161
9.1 圖像描述中的注意力機制 164
9.2 注意力類型 168
9.2.1 硬注意力 168
9.2.2 軟注意力 169
9.3 運用注意力改善視覺模型 170
9.3.1 視覺CNN模型次優(yōu)性能的原因 171
9.3.2 循環(huán)視覺注意力模型 174
9.4 參考文獻 180
9.5 本章小結(jié) 181

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號