注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)深度學(xué)習(xí):基于案例理解深度神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí):基于案例理解深度神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí):基于案例理解深度神經(jīng)網(wǎng)絡(luò)

定 價(jià):¥89.00

作 者: (瑞士),翁貝托·米凱盧奇
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787111637103 出版時(shí)間: 2019-11-01 包裝:
開本: 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書探討了深度學(xué)習(xí)中的高級(jí)主題,例如優(yōu)化算法、超參數(shù)調(diào)整、Dropout和誤差分析,以及解決在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)時(shí)遇到的典型問題的策略。你首先要研究激活函數(shù),主要是單個(gè)神經(jīng)元(relu、sigmoid和swish),了解如何使用TensorFlow進(jìn)行線性和邏輯回歸,并選擇正確的代價(jià)函數(shù)。接著討論了具有多個(gè)層和神經(jīng)元的更復(fù)雜的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并探討了權(quán)重的隨機(jī)初始化問題。一整章致力于對(duì)神經(jīng)網(wǎng)絡(luò)誤差分析的全面概述,給出了解決來自不同分布的方差、偏差、過度擬合和數(shù)據(jù)集問題的例子。

作者簡(jiǎn)介

暫缺《深度學(xué)習(xí):基于案例理解深度神經(jīng)網(wǎng)絡(luò)》作者簡(jiǎn)介

圖書目錄

譯者序 \n
前言 \n
審校者簡(jiǎn)介 \n
致謝 \n
第1章 計(jì)算圖和TensorFlow1 \n
1.1 如何構(gòu)建Python環(huán)境1 \n
1.1.1 創(chuàng)建環(huán)境3 \n
1.1.2 安裝TensorFlow7 \n
1.1.3 Jupyter記事本8 \n
1.2 TensorFlow基本介紹10 \n
1.2.1 計(jì)算圖10 \n
1.2.2 張量12 \n
1.2.3 創(chuàng)建和運(yùn)行計(jì)算圖13 \n
1.2.4 包含tf.constant的計(jì)算圖13 \n
1.2.5 包含tf.Variable的計(jì)算圖14 \n
1.2.6 包含tf. placeholder的計(jì)算圖15 \n
1.2.7 運(yùn)行和計(jì)算的區(qū)別18 \n
1.2.8 節(jié)點(diǎn)之間的依賴關(guān)系18 \n
1.2.9 創(chuàng)建和關(guān)閉會(huì)話的技巧19 \n
第2章 單一神經(jīng)元21 \n
2.1 神經(jīng)元結(jié)構(gòu)21 \n
2.1.1 矩陣表示法23 \n
2.1.2 Python實(shí)現(xiàn)技巧:循環(huán)和NumPy24 \n
2.1.3 激活函數(shù)25 \n
2.1.4 代價(jià)函數(shù)和梯度下降:學(xué)習(xí)率的特點(diǎn)32 \n
2.1.5 學(xué)習(xí)率的應(yīng)用示例34 \n
2.1.6 TensorFlow中的線性回歸示例38 \n
2.2 邏輯回歸示例47 \n
2.2.1 代價(jià)函數(shù)47 \n
2.2.2 激活函數(shù)48 \n
2.2.3 數(shù)據(jù)集48 \n
2.2.4 TensorFlow實(shí)現(xiàn)51 \n
2.3 參考文獻(xiàn)54 \n
第3章 前饋神經(jīng)網(wǎng)絡(luò)56 \n
3.1 網(wǎng)絡(luò)架構(gòu)57 \n
3.1.1 神經(jīng)元的輸出59 \n
3.1.2 矩陣維度小結(jié)59 \n
3.1.3 示例:三層網(wǎng)絡(luò)的方程59 \n
3.1.4 全連接網(wǎng)絡(luò)中的超參數(shù)60 \n
3.2 用于多元分類的softmax函數(shù)60 \n
3.3 過擬合簡(jiǎn)要介紹61 \n
3.3.1 過擬合示例61 \n
3.3.2 基本誤差分析66 \n
3.4 Zalando數(shù)據(jù)集68 \n
3.5 使用TensorFlow構(gòu)建模型71 \n
3.5.1 網(wǎng)絡(luò)架構(gòu)71 \n
3.5.2 softmax函數(shù)的標(biāo)簽轉(zhuǎn)換:獨(dú)熱編碼73 \n
3.5.3 TensorFlow模型74 \n
3.6 梯度下降變體77 \n
3.6.1 批量梯度下降77 \n
3.6.2 隨機(jī)梯度下降78 \n
3.6.3 小批量梯度下降79 \n
3.6.4 各種變體比較80 \n
3.7 錯(cuò)誤預(yù)測(cè)示例84 \n
3.8 權(quán)重初始化84 \n
3.9 有效添加多個(gè)層87 \n
3.10 增加隱藏層的優(yōu)點(diǎn)89 \n
3.11 比較不同網(wǎng)絡(luò)89 \n
3.12 選擇正確網(wǎng)絡(luò)的技巧92 \n
第4章 訓(xùn)練神經(jīng)網(wǎng)絡(luò)93 \n
4.1 動(dòng)態(tài)學(xué)習(xí)率衰減93 \n
4.1.1 迭代還是周期94 \n
4.1.2 階梯式衰減95 \n
4.1.3 步長(zhǎng)衰減96 \n
4.1.4 逆時(shí)衰減98 \n
4.1.5 指數(shù)衰減100 \n
4.1.6 自然指數(shù)衰減101 \n
4.1.7 TensorFlow實(shí)現(xiàn)105 \n
4.1.8 將方法應(yīng)用于Zalando數(shù)據(jù)集108 \n
4.2 常用優(yōu)化器109 \n
4.2.1 指數(shù)加權(quán)平均109 \n
4.2.2 Momentum112 \n
4.2.3 RMSProp115 \n
4.2.4 Adam117 \n
4.2.5 應(yīng)該使用哪種優(yōu)化器117 \n
4.3 自己開發(fā)的優(yōu)化器示例118 \n
第5章 正則化123 \n
5.1 復(fù)雜網(wǎng)絡(luò)和過擬合123 \n
5.2 什么是正則化127 \n
5.3 ?p范數(shù)128 \n
5.4 ?2正則化128 \n
5.4.1 ?2正則化原理128 \n
5.4.2 TensorFlow實(shí)現(xiàn)129 \n
5.5 ?1正則化136 \n
5.5.1 ?1正則化原理與TensorFlow實(shí)現(xiàn)137 \n
5.5.2 權(quán)重真的趨于零嗎137 \n
5.6 Dropout140 \n
5.7 Early Stopping143 \n
5.8 其他方法144 \n
第6章 指標(biāo)分析145 \n
6.1 人工水平表現(xiàn)和貝葉斯誤差146 \n
6.2 關(guān)于人工水平表現(xiàn)的故事148 \n
6.3 MNIST中的人工水平表現(xiàn)149 \n
6.4 偏差150 \n
6.5 指標(biāo)分析圖151 \n
6.6 訓(xùn)練集過擬合151 \n
6.7 測(cè)試集152 \n
6.8 如何拆分?jǐn)?shù)據(jù)集153 \n
6.9 不平衡類分布:會(huì)發(fā)生什么157 \n
6.10 精確率、召回率和F1指標(biāo)161 \n
6.11 不同分布的數(shù)據(jù)集164 \n
6.12 k折交叉驗(yàn)證170 \n
6.13 手動(dòng)指標(biāo)分析示例177 \n
第7章 超參數(shù)調(diào)優(yōu)183 \n
7.1 黑盒優(yōu)化183 \n
7.2 黑盒函數(shù)注意事項(xiàng)184 \n
7.3 超參數(shù)調(diào)優(yōu)問題185 \n
7.4 黑盒問題示例186 \n
7.5 網(wǎng)格搜索186 \n
7.6 隨機(jī)搜索190 \n
7.7 粗到細(xì)優(yōu)化192 \n
7.8 貝葉斯優(yōu)化195 \n
7.8.1 Nadaraya-Watson回歸195 \n
7.8.2 高斯過程195 \n
7.8.3 平穩(wěn)過程196 \n
7.8.4 用高斯過程預(yù)測(cè)196 \n
7.8.5 采集函數(shù)200 \n
7.8.6 上置信界(UCB)201 \n
7.8.7 示例201 \n
7.9 對(duì)數(shù)尺度采樣207 \n
7.10 使用Zalando數(shù)據(jù)集的超參數(shù)調(diào)優(yōu)208 \n
7.11 徑向基函數(shù)注意事項(xiàng)214 \n
第8章 卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)216 \n
8.1 卷積核和過濾器216 \n
8.2 卷積217 \n
8.3 卷積運(yùn)算示例223 \n
8.4 池化227 \n
8.5 構(gòu)建CNN塊230 \n
8.5.1 卷積層230 \n
8.5.2 池化層231 \n
8.5.3 各層的疊加231 \n
8.5.4 CNN示例232 \n
8.6 RNN介紹237 \n
8.6.1 符號(hào)237 \n
8.6.2 RNN的基本原理238 \n
8.6.3 循環(huán)神經(jīng)網(wǎng)絡(luò)名稱的由來239 \n
8.6.4 學(xué)會(huì)統(tǒng)計(jì)239 \n
第9章 研究項(xiàng)目244 \n
9.1 問題描述244 \n
9.2 數(shù)學(xué)模型246 \n
9.3 回歸問題246 \n
9.4 數(shù)據(jù)準(zhǔn)備250 \n
9.5 模型訓(xùn)練258 \n
第10章 從零開始進(jìn)行邏輯回歸261 \n
10.1 邏輯回歸的數(shù)學(xué)背景262 \n
10.2 Python實(shí)現(xiàn)264 \n
10.3 模型測(cè)試266 \n
10.3.1 數(shù)據(jù)集準(zhǔn)備267 \n
10.3.2 運(yùn)行測(cè)試268 \n
10.4 結(jié)論268

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)