注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)軟件與程序設(shè)計Python貝葉斯深度學(xué)習(xí)

Python貝葉斯深度學(xué)習(xí)

Python貝葉斯深度學(xué)習(xí)

定 價:¥79.80

作 者: [英]馬特·貝納坦(MattBenatan)約赫姆·吉特馬(JochemGietema),瑪麗安·施耐德(MarianSchneider)著,郭濤譯
出版社: 清華大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

ISBN: 9787302672166 出版時間: 2024-10-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  深度學(xué)習(xí)正日益深刻地滲入我們的生活,從建議內(nèi)容到在任務(wù)關(guān)鍵型和安全關(guān)鍵型應(yīng)用中發(fā)揮核心作用,其影響無所不在。然而,隨著這些算法影響力的逐漸擴大,人們對于依賴這些算法的系統(tǒng)安全性和魯棒性的擔(dān)憂也日益加劇。簡言之,傳統(tǒng)的深度學(xué)習(xí)方法往往難以察覺自身的知識邊界,即它們“不知其所不知”。貝葉斯深度學(xué)習(xí)(Bayesian Deep Learning,BDL)領(lǐng)域包含一系列利用深度網(wǎng)絡(luò)進行近似貝葉斯推理的方法。這些方法通過揭示模型對其預(yù)測結(jié)果的置信度,增強了深度學(xué)習(xí)系統(tǒng)的魯棒性,使我們能夠更謹慎地將模型預(yù)測融入實際應(yīng)用中?!禤ython貝葉斯深度學(xué)習(xí)》將引領(lǐng)你踏入迅速發(fā)展的不確定性感知深度學(xué)習(xí)領(lǐng)域,助你深入理解不確定性估計在構(gòu)建魯棒性的機器學(xué)習(xí)系統(tǒng)中的重要價值。你將學(xué)習(xí)多種流行的BDL方法,并通過涵蓋多種應(yīng)用場景的Python實用示例來掌握這些方法的實現(xiàn)技巧。讀完本書后,你將深刻理解BDL及其優(yōu)勢,并能夠為更安全、更魯棒的深度學(xué)習(xí)系統(tǒng)開發(fā)貝葉斯深度學(xué)習(xí)模型。主要內(nèi)容:● 了解貝葉斯推理和深度學(xué)習(xí)的優(yōu)缺點● 了解貝葉斯神經(jīng)網(wǎng)絡(luò)(Bayesian Neural Network,BNN)的基本原理● 了解主要貝葉斯神經(jīng)網(wǎng)絡(luò)實現(xiàn)/近似之間的差異● 了解生產(chǎn)環(huán)境中概率深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢● 在Python代碼中實現(xiàn)各種貝葉斯深度學(xué)習(xí)方法● 運用貝葉斯深度學(xué)習(xí)方法解決實際問題● 學(xué)習(xí)如何評估貝葉斯深度學(xué)習(xí)方法并為特定任務(wù)選擇最佳方法● 在實際深度學(xué)習(xí)應(yīng)用中處理“分布外”數(shù)據(jù)

作者簡介

  Matt Benatan博士是搜諾思(Sonos)的首席研究科學(xué)家,主要負責(zé)智能個性化系統(tǒng)的研究。他還獲得了曼徹斯特大學(xué)的西蒙工業(yè)獎學(xué)金,并在那里合作開展了多個人工智能研究項目。Matt在利茲大學(xué)獲得了視聽語音處理博士學(xué)位,之后進入工業(yè)界,在信號處理、材料發(fā)現(xiàn)和欺詐檢測等多個領(lǐng)域開展機器學(xué)習(xí)研究。Matt曾與他人合著了Wiley出版社出版的Deep learning for Physical Scientists一書,他目前的主要研究興趣包括面向用戶的人工智能、優(yōu)化和不確定性估計。Matt不僅要對妻子Rebecca的關(guān)心、耐心和支持深表感激,也要對父母Dan和Debby的不懈熱情、指導(dǎo)和鼓勵深表感激。Jochem Gietema在阿姆斯特丹學(xué)習(xí)哲學(xué)和法律,畢業(yè)后轉(zhuǎn)入機器學(xué)習(xí)領(lǐng)域。他目前在倫敦的Onfido公司擔(dān)任應(yīng)用科學(xué)家,在計算機視覺和異常檢測領(lǐng)域開發(fā)并部署了多項專有的解決方案。Jochem熱衷于研究不確定性估計、交互式數(shù)據(jù)可視化以及用機器學(xué)習(xí)解決現(xiàn)實世界中的問題。Marian Schneider博士是機器學(xué)習(xí)和計算機視覺領(lǐng)域的應(yīng)用科學(xué)家。他在馬斯特里赫特大學(xué)獲得了計算視覺神經(jīng)科學(xué)博士學(xué)位。此后,他從學(xué)術(shù)界轉(zhuǎn)入工業(yè)界,開發(fā)了一些機器學(xué)習(xí)解決方案并將其應(yīng)用于多種產(chǎn)品,涵蓋從大腦圖像分割到不確定性估計,再到移動電話設(shè)備上更智能的圖像獲取等方面。Marian非常感謝他的伴侶Undine,因為在本書的寫作過程中Undine給予了他大力支持,尤其是在周末的寶貴時光里陪伴他,從而使本書的寫作工作得以順利進行。

圖書目錄

第1章  深度學(xué)習(xí)時代的貝葉斯推理 1
1.1  技術(shù)要求 2
1.2  深度學(xué)習(xí)時代的奇跡 2
1.3  了解深度學(xué)習(xí)的局限性 4
1.3.1  深度學(xué)習(xí)系統(tǒng)中的偏見 4
1.3.2  過高置信預(yù)測導(dǎo)致危險 5
1.3.3  變化趨勢 6
1.4  核心主題 7
1.5  設(shè)置工作環(huán)境 8
1.6  小結(jié) 9
第2章  貝葉斯推理基礎(chǔ) 11
2.1  重溫貝葉斯建模知識 11
2.2  通過采樣進行貝葉斯推理 14
2.2.1  近似分布 14
2.2.2  利用貝葉斯線性回歸實現(xiàn)概率推理 17
2.3  探討高斯過程 20
2.3.1  用核定義先驗信念 22
2.3.2  高斯過程的局限性 27
2.4  小結(jié) 28
2.5  延伸閱讀 28
第3章  深度學(xué)習(xí)基礎(chǔ) 29
3.1  技術(shù)要求 29
3.2  多層感知器 29
3.3  回顧神經(jīng)網(wǎng)絡(luò)架構(gòu) 32
3.3.1  探索卷積神經(jīng)網(wǎng)絡(luò) 32
3.3.2  探索循環(huán)神經(jīng)網(wǎng)絡(luò) 35
3.3.3  注意力機制 37
3.4  理解典型神經(jīng)網(wǎng)絡(luò)存在的問題 38
3.4.1  未經(jīng)校準(zhǔn)和過高置信的預(yù)測 39
3.4.2  預(yù)測分布外數(shù)據(jù) 41
3.4.3  置信度高的分布外預(yù)測示例 44
3.4.4  易受對抗性操縱的影響 48
3.5  小結(jié) 52
3.6  延伸閱讀 52
第4章  貝葉斯深度學(xué)習(xí)介紹 55
4.1  技術(shù)要求 56
4.2  理想的貝葉斯神經(jīng)網(wǎng)絡(luò) 56
4.3  貝葉斯深度學(xué)習(xí)基本原理 58
4.3.1  高斯假設(shè) 58
4.3.2  不確定性的來源 60
4.3.3  超越極大似然:似然的重要性 63
4.4  貝葉斯深度學(xué)習(xí)工具 66
4.5  小結(jié) 69
4.6  延伸閱讀 69
第5章  貝葉斯深度學(xué)習(xí)原理方法 71
5.1  技術(shù)要求 71
5.2  解釋符號 72
5.3  深度學(xué)習(xí)中熟悉的概率概念 72
5.4  通過反向傳播進行貝葉斯推理 75
5.5  使用TensorFlow實現(xiàn)貝葉斯反向傳播 78
5.6  使用概率反向傳播擴展貝葉斯深度學(xué)習(xí) 82
5.7  實現(xiàn)概率反向傳播 85
5.8  小結(jié) 94
5.9  延伸閱讀 95
第6章  使用標(biāo)準(zhǔn)工具箱進行貝葉斯深度學(xué)習(xí) 97
6.1  技術(shù)要求 98
6.2  通過舍棄引入近似貝葉斯推理 98
6.2.1  利用舍棄進行近似貝葉斯推理 99
6.2.2  實現(xiàn)MC舍棄 100
6.3  使用集成學(xué)習(xí)進行模型不確定性估計 101
6.3.1  集成學(xué)習(xí)介紹 101
6.3.2  引入深度集成學(xué)習(xí) 101
6.3.3  實現(xiàn)深度集成學(xué)習(xí) 103
6.3.4  深度集成學(xué)習(xí)的實際局限性 106
6.4  探索用貝葉斯最后一層方法增強神經(jīng)網(wǎng)絡(luò) 106
6.4.1  貝葉斯推理的最后一層方法 107
6.4.2  最后一層MC舍棄 113
6.4.3  最后一層方法小結(jié) 115
6.5  小結(jié) 115
第7章  貝葉斯深度學(xué)習(xí)的實際考慮因素 117
7.1  技術(shù)要求 117
7.2  平衡不確定性質(zhì)量和計算考慮因素 118
7.2.1  設(shè)置實驗 118
7.2.2  分析模型性能 121
7.2.3  貝葉斯深度學(xué)習(xí)模型的計算考慮因素 124
7.2.4  選擇正確的模型 126
7.3  貝葉斯深度學(xué)習(xí)和不確定性來源 127
7.4  小結(jié) 143
7.5  延伸閱讀 143
第8章  貝葉斯深度學(xué)習(xí)應(yīng)用 145
8.1  技術(shù)要求 145
8.2  檢測分布外數(shù)據(jù) 145
8.2.1  探討分布外檢測問題 146
8.2.2  系統(tǒng)評估分布外檢測性能 150
8.2.3  無需重新訓(xùn)練的簡單分布外檢測 151
8.3  應(yīng)對數(shù)據(jù)集漂移的魯棒方法 153
8.3.1  測量模型對數(shù)據(jù)集漂移的響應(yīng) 153
8.3.2  用貝葉斯方法揭示數(shù)據(jù)集漂移 154
8.4  通過不確定性選擇數(shù)據(jù)來保持模型的新鮮度 169
8.5  利用不確定性估計進行更智能的強化學(xué)習(xí) 179
8.6  對對抗性輸入的敏感性 197
8.7  小結(jié) 201
8.8  延伸閱讀 201
第9章  貝葉斯深度學(xué)習(xí)的發(fā)展趨勢 203
9.1  貝葉斯深度學(xué)習(xí)的當(dāng)前趨勢 203
9.2  如何應(yīng)用貝葉斯深度學(xué)習(xí)方法解決現(xiàn)實世界中的問題 206
9.3  貝葉斯深度學(xué)習(xí)的最新方法 207
9.3.1  結(jié)合MC舍棄和深度集成學(xué)習(xí) 207
9.3.2  通過促進多樣性改進深度集成學(xué)習(xí) 208
9.3.3  超大網(wǎng)絡(luò)中的不確定性 209
9.4  貝葉斯深度學(xué)習(xí)的替代方案 211
9.4.1  可擴展的高斯過程 211
9.4.2  深度高斯過程 213
9.5  貝葉斯深度學(xué)習(xí)的下一步工作 213
9.6  延伸閱讀 214

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號