注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能深度學(xué)習(xí):Keras快速開(kāi)發(fā)入門

深度學(xué)習(xí):Keras快速開(kāi)發(fā)入門

深度學(xué)習(xí):Keras快速開(kāi)發(fā)入門

定 價(jià):¥69.00

作 者: 樂(lè)毅,嚴(yán)超 著
出版社: 電子工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書(shū)可以去


ISBN: 9787121318689 出版時(shí)間: 2017-07-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 276 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  《深度學(xué)習(xí):Keras快速開(kāi)發(fā)入門》首先介紹了深度學(xué)習(xí)相關(guān)的理論和主流的深度學(xué)習(xí)框架,對(duì)比了不同深度學(xué)習(xí)框架的優(yōu)缺點(diǎn),以Keras這一具有高度模塊化,極簡(jiǎn)式的高層深度學(xué)習(xí)框架為切入點(diǎn),從Keras的安裝、配置和編譯等基本環(huán)境入手,詳細(xì)介紹了Keras的模型、網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)預(yù)處理方法、參數(shù)配置以及調(diào)試技巧和可視化工具。幫助讀者快速掌握一款深度學(xué)習(xí)框架,從而解決工作和學(xué)習(xí)當(dāng)中神經(jīng)網(wǎng)絡(luò)模型的使用問(wèn)題。同時(shí),《深度學(xué)習(xí):Keras快速開(kāi)發(fā)入門》還介紹了如何用Keras快速構(gòu)建深度學(xué)習(xí)原型并著手實(shí)戰(zhàn)。最后通過(guò)Kaggle的知識(shí)競(jìng)賽實(shí)例向讀者展示Keras作為深度學(xué)習(xí)開(kāi)發(fā)工具的強(qiáng)大之處,從而幫助讀者迅速獲得深度學(xué)習(xí)開(kāi)發(fā)經(jīng)驗(yàn)?!渡疃葘W(xué)習(xí):Keras快速開(kāi)發(fā)入門》是一本實(shí)踐性很強(qiáng)的深度學(xué)習(xí)工具書(shū),適合希望快速學(xué)習(xí)和使用Keras深度學(xué)習(xí)框架的工程師、學(xué)者和從業(yè)者。特別適合立志從事深度學(xué)習(xí)和AI相關(guān)的行業(yè),并且對(duì)于希望用Keras開(kāi)發(fā)實(shí)際項(xiàng)目的工程技術(shù)人員,是非常實(shí)用的參考手冊(cè)和工具書(shū)。

作者簡(jiǎn)介

  樂(lè)毅,計(jì)算機(jī)專業(yè)碩士,現(xiàn)任職于某人工智能企業(yè)深度視覺(jué)項(xiàng)目,資深深度視覺(jué)架構(gòu)師。負(fù)責(zé)公司利用深度學(xué)習(xí)技術(shù)在人臉識(shí)別的應(yīng)用和開(kāi)發(fā),對(duì)深度學(xué)習(xí)及人臉識(shí)別技術(shù)具有濃厚興趣。擅長(zhǎng)Caffe、Keras和TensoFlow等深度學(xué)習(xí)框架的開(kāi)發(fā)和應(yīng)用。嚴(yán)超,計(jì)算機(jī)專業(yè)碩士,現(xiàn)任職于某大型信息科技企業(yè),高級(jí)軟件工程師。負(fù)責(zé)公司深度學(xué)習(xí),云計(jì)算等技術(shù)領(lǐng)域的應(yīng)用研究及相關(guān)項(xiàng)目,對(duì)機(jī)器學(xué)習(xí)、云計(jì)算、數(shù)據(jù)深度挖掘具有濃厚興趣。擅長(zhǎng)Keras等深度學(xué)習(xí)框架及網(wǎng)絡(luò)模型應(yīng)用。

圖書(shū)目錄

第1章 Keras概述 1
1.1 Keras簡(jiǎn)介 1
1.1.1 Keras 2 1
1.1.2 Keras功能構(gòu)成 4
1.2 Keras特點(diǎn) 6
1.3 主要深度學(xué)習(xí)框架 8
1.3.1 Caffe 8
1.3.2 Torch 10
1.3.3 Keras 12
1.3.4 MXNet 12
1.3.5 TensorFlow 13
1.3.5 CNTK 14
1.3.6 Theano 14
第2章 Keras的安裝與配置 16
2.1 Windows環(huán)境下安裝Keras 16
2.1.1 硬件配置 16
2.1.2 Windows版本 18
2.1.3 Microsoft Visual Studio版本 18
2.1.4 Python環(huán)境 18
2.1.5 CUDA 18
2.1.6 加速庫(kù)CuDNN 19
2.1.7 Keras框架的安裝 19
2.2 Linux環(huán)境下的安裝 20
2.2.1 硬件配置 20
2.2.2 Linux版本 21
2.2.3 Ubuntu環(huán)境的設(shè)置 22
2.2.4 CUDA開(kāi)發(fā)環(huán)境 22
2.2.5 加速庫(kù)cuDNN 23
2.2.6 Keras框架安裝 24
第3章 Keras快速上手 25
3.1 基本概念 25
3.2 初識(shí)Sequential模型 29
3.3 一個(gè)MNIST手寫數(shù)字實(shí)例 30
3.3.1 MNIST數(shù)據(jù)準(zhǔn)備 30
3.3.2 建立模型 31
3.3.3 訓(xùn)練模型 32
第4章 Keras模型的定義 36
4.1 Keras模型 36
4.2 Sequential模型 38
4.2.1 Sequential模型接口 38
4.2.2 Sequential模型的數(shù)據(jù)輸入 48
4.2.3 模型編譯 49
4.2.4 模型訓(xùn)練 50
4.3 函數(shù)式模型 51
4.3.1 全連接網(wǎng)絡(luò) 52
4.3.2 函數(shù)模型接口 53
4.3.3 多輸入和多輸出模型 63
4.3.4 共享層模型 67
第5章 Keras網(wǎng)絡(luò)結(jié)構(gòu) 71
5.1 Keras層對(duì)象方法 71
5.2 常用層 72
5.2.1 Dense層 72
5.2.2 Activation層 74
5.2.3 Dropout層 75
5.2.4 Flatten層 75
5.2.5 Reshape層 76
5.2.6 Permute層 77
5.2.7 RepeatVector層 78
5.2.8 Lambda層 79
5.2.9 ActivityRegularizer層 80
5.2.10 Masking層 81
5.3 卷積層 82
5.3.1 Conv1D層 82
5.3.2 Conv2D層 84
5.3.3 SeparableConv2D層 87
5.3.4 Conv2DTranspose層 91
5.3.5 Conv3D層 94
5.3.6 Cropping1D層 97
5.3.6 Cropping2D層 97
5.3.7 Cropping3D層 98
5.3.8 UpSampling1D層 99
5.3.9 UpSampling2D層 100
5.3.10 UpSampling3D層 101
5.3.11 ZeroPadding1D層 102
5.3.12 ZeroPadding2D層 103
5.3.13 ZeroPadding3D層 104
5.4 池化層 105
5.4.1 MaxPooling1D層 105
5.4.2 MaxPooling2D層 106
5.4.3 MaxPooling3D層 108
5.4.4 AveragePooling1D層 109
5.4.5 AveragePooling2D層 110
5.4.6 AveragePooling3D層 111
5.4.7 GlobalMaxPooling1D層 112
5.4.8 GlobalAveragePooling1D層 113
5.4.9 GlobalMaxPooling2D層 113
5.4.10 GlobalAveragePooling2D層 114
5.5 局部連接層 115
5.5.1 LocallyConnected1D層 115
5.5.2 LocallyConnected2D層 117
5.6 循環(huán)層 120
5.6.1 Recurrent層 120
5.6.2 SimpleRNN層 124
5.6.3 GRU層 126
5.6.4 LSTM層 127
5.7 嵌入層 129
5.8 融合層 131
5.9 激活層 134
5.9.1 LeakyReLU層 134
5.9.2 PReLU層 134
5.9.3 ELU層 135
5.9.4 ThresholdedReLU層 136
5.10 規(guī)范層 137
5.11 噪聲層 139
5.11.1 GaussianNoise層 139
5.11.2 GaussianDropout層 139
5.12 包裝器Wrapper 140
5.12.1 TimeDistributed層 140
5.12.2 Bidirectional層 141
5.13 自定義層 142
第6章 Keras數(shù)據(jù)預(yù)處理 144
6.1 序列數(shù)據(jù)預(yù)處理 145
6.1.1 序列數(shù)據(jù)填充 145
6.1.2 提取序列跳字樣本 148
6.1.3 生成序列抽樣概率表 151
6.2 文本預(yù)處理 153
6.2.1 分割句子獲得單詞序列 153
6.2.2 OneHot序列編碼器 154
6.2.3 單詞向量化 155
6.3 圖像預(yù)處理 159
第7章 Keras內(nèi)置網(wǎng)絡(luò)配置 167
7.1 模型性能評(píng)估模塊 168
7.1.1 Keras內(nèi)置性能評(píng)估方法 168
7.1.2 使用Keras內(nèi)置性能評(píng)估 170
7.1.3 自定義性能評(píng)估函數(shù) 171
7.2 損失函數(shù) 171
7.3 優(yōu)化器函數(shù) 174
7.3.1 Keras優(yōu)化器使用 174
7.3.2 Keras內(nèi)置優(yōu)化器 176
7.4 激活函數(shù) 180
7.4.1 添加激活函數(shù)方法 180
7.4.2 Keras內(nèi)置激活函數(shù) 181
7.4.3 Keras高級(jí)激活函數(shù) 185
7.5 初始化參數(shù) 189
7.5.1 使用初始化方法 189
7.5.2 Keras內(nèi)置初始化方法 190
7.5.3 自定義Keras初始化方法 196
7.6 正則項(xiàng) 196
7.6.1 使用正則項(xiàng) 197
7.6.2 Keras內(nèi)置正則項(xiàng) 198
7.6.3 自定義Keras正則項(xiàng) 198
7.7 參數(shù)約束項(xiàng) 199
7.7.1 使用參數(shù)約束項(xiàng) 199
7.7.2 Keras內(nèi)置參數(shù)約束項(xiàng) 200
第8章 Keras實(shí)用技巧和可視化 202
8.1 Keras調(diào)試與排錯(cuò) 202
8.1.1 Keras Callback回調(diào)函數(shù)與調(diào)試技巧 202
8.1.2 備份和還原Keras模型 215
8.2 Keras內(nèi)置Scikit-Learn接口包裝器 217
8.3 Keras內(nèi)置可視化工具 224
第9章 Keras實(shí)戰(zhàn) 227
9.1 訓(xùn)練一個(gè)準(zhǔn)確率高于90%的Cifar-10預(yù)測(cè)模型 227
9.1.1 數(shù)據(jù)預(yù)處理 232
9.1.2 訓(xùn)練 233
9.2 在Keras模型中使用預(yù)訓(xùn)練詞向量判定文本類別 239
9.2.1 數(shù)據(jù)下載和實(shí)驗(yàn)方法 240
9.2.2 數(shù)據(jù)預(yù)處理 241
9.2.3 訓(xùn)練 245
9.3 用Keras實(shí)現(xiàn)DCGAN生成對(duì)抗網(wǎng)絡(luò)還原MNIST樣本 247
9.3.1 DCGAN網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu) 250
9.3.2 訓(xùn)練 254

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)