注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能用Python實(shí)現(xiàn)深度學(xué)習(xí)框架

用Python實(shí)現(xiàn)深度學(xué)習(xí)框架

用Python實(shí)現(xiàn)深度學(xué)習(xí)框架

定 價(jià):¥89.00

作 者: 張覺(jué)非,陳震 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書(shū)可以去


ISBN: 9787115548375 出版時(shí)間: 2020-10-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 271 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)帶領(lǐng)讀者用原生Python語(yǔ)言和Numpy線性代數(shù)庫(kù)實(shí)現(xiàn)一個(gè)基于計(jì)算圖的深度學(xué)習(xí)框架MatrixSlow(類似簡(jiǎn)易版的PyTorch、TensorFlow或Caffe)。全書(shū)分為三個(gè)部分。第一部分是原理篇,實(shí)現(xiàn)了MatrixSlow框架的核心基礎(chǔ)設(shè)施,并基于此講解了機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的概念和原理,比如模型、計(jì)算圖、訓(xùn)練、梯度下降法及其各種變體。第二部分是模型篇,介紹了多種具有代表性的模型,包括邏輯回歸、多層全連接神經(jīng)網(wǎng)絡(luò)、因子分解機(jī)、Wide & Deep、DeepFM、循環(huán)神經(jīng)網(wǎng)絡(luò)以及卷積神經(jīng)網(wǎng)絡(luò),這部分除了著重介紹這些模型的原理、結(jié)構(gòu)以及它們之間的聯(lián)系外,還用MatrixSlow框架搭建并訓(xùn)練它們以解決實(shí)際問(wèn)題。第三部分是工程篇,討論了一些與深度學(xué)習(xí)框架相關(guān)的工程問(wèn)題,內(nèi)容涉及訓(xùn)練與評(píng)估,模型的保存、導(dǎo)入和服務(wù)部署,分布式訓(xùn)練,等等。

作者簡(jiǎn)介

  張覺(jué)非本科畢業(yè)于復(fù)旦大學(xué)計(jì)算機(jī)系,于中國(guó)科學(xué)院古脊椎動(dòng)物與古人類研究所取得古生物學(xué)碩士學(xué)位,目前在互聯(lián)網(wǎng)行業(yè)從事機(jī)器學(xué)習(xí)算法相關(guān)工作。陳震碩士畢業(yè)于北京大學(xué)?,F(xiàn)任奇虎360智能工程部總監(jiān)、負(fù)責(zé)人,帶領(lǐng)團(tuán)隊(duì)建設(shè)集團(tuán)的機(jī)器學(xué)習(xí)計(jì)算調(diào)度平臺(tái)、機(jī)器學(xué)習(xí)建模平臺(tái)、機(jī)器學(xué)習(xí)推理引擎以及推薦平臺(tái)等AI基礎(chǔ)設(shè)施。

圖書(shū)目錄

第 一部分 原理篇
第 1章 機(jī)器學(xué)習(xí)與模型 2
1.1 模型 2
1.2 參數(shù)與訓(xùn)練 4
1.3 損失函數(shù) 9
1.4 計(jì)算圖的訓(xùn)練 10
1.5 小結(jié) 12
第 2章 計(jì)算圖 13
2.1 什么是計(jì)算圖 13
2.2 前向傳播 14
2.3 函數(shù)優(yōu)化與梯度下降法 18
2.4 鏈?zhǔn)椒▌t與反向傳播 29
2.5 在計(jì)算圖上執(zhí)行梯度下降法 36
2.6 節(jié)點(diǎn)類及其子類 36
2.7 用計(jì)算圖搭建ADALINE并訓(xùn)練 44
2.8 小結(jié) 48
第3章 優(yōu)化器 49
3.1 優(yōu)化流程的抽象實(shí)現(xiàn) 49
3.2 BGD、SGD和MBGD 53
3.3 梯度下降優(yōu)化器 58
3.4 樸素梯度下降法的局限 60
3.5 沖量?jī)?yōu)化器 61
3.6 AdaGrad優(yōu)化器 62
3.7 RMSProp優(yōu)化器 64
3.8 Adam優(yōu)化器 65
3.9 小結(jié) 68
第二部分 模型篇
第4章 邏輯回歸 70
4.1 對(duì)數(shù)損失函數(shù) 70
4.2 Logistic函數(shù) 73
4.3 二分類邏輯回歸 75
4.4 多分類邏輯回歸 78
4.5 交叉熵 81
4.6 實(shí)例:鳶尾花 85
4.7 小結(jié) 88
第5章 神經(jīng)網(wǎng)絡(luò) 90
5.1 神經(jīng)元與激活函數(shù) 90
5.2 神經(jīng)網(wǎng)絡(luò) 95
5.3 多層全連接神經(jīng)網(wǎng)絡(luò) 99
5.4 多個(gè)全連接層的意義 101
5.5 實(shí)例:鳶尾花 108
5.6 實(shí)例:手寫數(shù)字識(shí)別 110
5.7 小結(jié) 116
第6章 非全連接神經(jīng)網(wǎng)絡(luò) 117
6.1 帶二次項(xiàng)的邏輯回歸 117
6.2 因子分解機(jī) 124
6.3 Wide & Deep 132
6.4 DeepFM 137
6.5 實(shí)例:泰坦尼克號(hào)幸存者 141
6.6 小結(jié) 150
第7章 循環(huán)神經(jīng)網(wǎng)絡(luò) 151
7.1 RNN的結(jié)構(gòu) 151
7.2 RNN的輸出 152
7.3 實(shí)例:正弦波與方波 155
7.4 變長(zhǎng)序列 159
7.5 實(shí)例:3D電磁發(fā)音儀單詞識(shí)別 164
7.6 小結(jié) 167
第8章 卷積神經(jīng)網(wǎng)絡(luò) 168
8.1 蒙德里安與莫奈 168
8.2 濾波器 170
8.3 可訓(xùn)練的濾波器 176
8.4 卷積層 183
8.5 池化層 186
8.6 CNN的結(jié)構(gòu) 189
8.7 實(shí)例:手寫數(shù)字識(shí)別 190
8.8 小結(jié) 194
第三部分 工程篇
第9章 訓(xùn)練與評(píng)估 196
9.1 訓(xùn)練和Trainer訓(xùn)練器 196
9.2 評(píng)估和Metrics節(jié)點(diǎn) 202
9.3 混淆矩陣 204
9.4 正確率 204
9.5 查準(zhǔn)率 206
9.6 查全率 206
9.7 ROC曲線和AUC 208
9.8 小結(jié) 211
第 10章 模型保存、預(yù)測(cè)和服務(wù) 212
10.1 模型保存 213
10.2 模型加載和預(yù)測(cè) 216
10.3 模型服務(wù) 216
10.4 客戶端 222
10.5 小結(jié) 223
第 11章 分布式訓(xùn)練 224
11.1 分布式訓(xùn)練的原理 224
11.2 基于參數(shù)服務(wù)器的架構(gòu) 230
11.3 Ring AllReduce原理 241
11.4 Ring AllReduce架構(gòu)實(shí)現(xiàn) 248
11.5 分布式訓(xùn)練性能評(píng)測(cè) 257
11.6 小結(jié) 259
第 12章 工業(yè)級(jí)深度學(xué)習(xí)框架 261
12.1 張量 262
12.2 計(jì)算加速 263
12.3 GPU 265
12.4 數(shù)據(jù)接口 266
12.5 模型并行 266
12.6 靜態(tài)圖和動(dòng)態(tài)圖 267
12.7 混合精度訓(xùn)練 268
12.8 圖優(yōu)化和編譯優(yōu)化 270
12.9 移動(dòng)端和嵌入式端 270
12.10 小結(jié) 271

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)