注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能異步深度學(xué)習(xí)經(jīng)典教程:深度學(xué)習(xí)+動(dòng)手學(xué)深度學(xué)習(xí)(套裝共2冊(cè),京東)

異步深度學(xué)習(xí)經(jīng)典教程:深度學(xué)習(xí)+動(dòng)手學(xué)深度學(xué)習(xí)(套裝共2冊(cè),京東)

異步深度學(xué)習(xí)經(jīng)典教程:深度學(xué)習(xí)+動(dòng)手學(xué)深度學(xué)習(xí)(套裝共2冊(cè),京東)

定 價(jià):¥253.00

作 者: [美] Ian Goodfellow(伊恩·古德費(fèi)洛),[加] Yoshua Bengio(約書亞·本吉奧) 等著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787115004697 出版時(shí)間: 2019-06-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  動(dòng)手學(xué)深度學(xué)習(xí)內(nèi)容簡(jiǎn)介:本書旨在向讀者交付有關(guān)深度學(xué)習(xí)的交互式學(xué)習(xí)體驗(yàn)。書中不僅闡述深度學(xué)習(xí)的算法原理,還演示它們的實(shí)現(xiàn)和運(yùn)行。與傳統(tǒng)圖書不同,本書的每一節(jié)都是一個(gè)可以下載并運(yùn)行的 Jupyter記事本,它將文字、公式、圖像、代碼和運(yùn)行結(jié)果結(jié)合在了一起。此外,讀者還可以訪問(wèn)并參與書中內(nèi)容的討論。全書的內(nèi)容分為3個(gè)部分:第一部分介紹深度學(xué)習(xí)的背景,提供預(yù)備知識(shí),并包括深度學(xué)習(xí)基礎(chǔ)的概念和技術(shù);第二部分描述深度學(xué)習(xí)計(jì)算的重要組成部分,還解釋近年來(lái)令深度學(xué)習(xí)在多個(gè)領(lǐng)域大獲成功的卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò);第三部分評(píng)價(jià)優(yōu)化算法,檢驗(yàn)影響深度學(xué)習(xí)計(jì)算性能的重要因素,并分別列舉深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理中的重要應(yīng)用。本書同時(shí)覆蓋深度學(xué)習(xí)的方法和實(shí)踐,主要面向在校大學(xué)生、技術(shù)人員和研究人員。閱讀本書需要讀者了解基本的Python編程或附錄中描述的線性代數(shù)、微分和概率基礎(chǔ)。深度學(xué)習(xí)內(nèi)容介紹:《深度學(xué)習(xí)》由全球知名的三位專家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰寫,是深度學(xué)習(xí)領(lǐng)域奠基性的經(jīng)典教材。全書的內(nèi)容包括3個(gè)部分:第 1部分介紹基本的數(shù)學(xué)工具和機(jī)器學(xué)習(xí)的概念,它們是深度學(xué)習(xí)的預(yù)備知識(shí);第 2部分系統(tǒng)深入地講解現(xiàn)今已成熟的深度學(xué)習(xí)方法和技術(shù);第3部分討論某些具有前瞻性的方向和想法,它們被公認(rèn)為是深度學(xué)習(xí)未來(lái)的研究重點(diǎn)。 《深度學(xué)習(xí)》適合各類讀者閱讀,包括相關(guān)專業(yè)的大學(xué)生或研究生,以及不具有機(jī)器學(xué)習(xí)或統(tǒng)計(jì)背景、但是想要快速補(bǔ)充深度學(xué)習(xí)知識(shí),以便在實(shí)際產(chǎn)品或平臺(tái)中應(yīng)用的軟件工程師。

作者簡(jiǎn)介

  動(dòng)手學(xué)深度學(xué)習(xí)作者介紹: 阿斯頓·張(Aston Zhang)美亞應(yīng)用科學(xué)家,美國(guó)伊利諾伊大學(xué)香檳分校計(jì)算機(jī)科學(xué)博士,統(tǒng)計(jì)學(xué)和計(jì)算機(jī)科學(xué)雙碩士。他專注于機(jī)器學(xué)習(xí)的研究,并在數(shù)個(gè)學(xué)術(shù)會(huì)議發(fā)表過(guò)論文。他擔(dān)任過(guò)NeurIPS、ICML、KDD、WWW、WSDM、SIGIR、AAAI 等學(xué)術(shù)會(huì)議的程序委員或?qū)徃迦艘约癋rontiers in Big Data 期刊的編委。 李沐(Mu Li)美亞首席科學(xué)家(Principal Scientist),加州大學(xué)伯克利分校客座助理教授,美國(guó)卡內(nèi)基梅隆大學(xué)計(jì)算機(jī)系博士。他專注于分布式系統(tǒng)和機(jī)器學(xué)習(xí)算法的研究。他是深度學(xué)習(xí)框架MXNet 的作者之一。他曾任機(jī)器學(xué)習(xí)創(chuàng)業(yè)公司Marianas Labs 的CTO 和百度深度學(xué)習(xí)研究院的主任研發(fā)架構(gòu)師。他在理論、機(jī)器學(xué)習(xí)、應(yīng)用和操作系統(tǒng)等多個(gè)領(lǐng)域的學(xué)術(shù)會(huì)議(包括FOCS、ICML、NeurIPS、AISTATS、CVPR、KDD 、WSDM、OSDI)上發(fā)表過(guò)論文。 扎卡里·C. 立頓(Zachary C. Lipton)美亞應(yīng)用科學(xué)家,美國(guó)卡內(nèi)基梅隆大學(xué)助理教授,美國(guó)加州大學(xué)圣迭戈分校博士。他專注于機(jī)器學(xué)習(xí)算法及其社會(huì)影響的研究,特別是在時(shí)序數(shù)據(jù)與序列決策上的深度學(xué)習(xí)。這類工作有著廣泛的應(yīng)用場(chǎng)景,包括醫(yī)療診斷、對(duì)話系統(tǒng)和產(chǎn)品推薦。他創(chuàng)立了博客“Approximately Correct”(approximatelycorrect.com)。 亞歷山大·J. 斯莫拉(Alexander J. Smola)美亞副總裁/ 杰出科學(xué)家,德國(guó)柏林工業(yè)大學(xué)計(jì)算機(jī)科學(xué)博士。他曾在澳大利亞國(guó)立大學(xué)、美國(guó)加州大學(xué)伯克利分校和卡內(nèi)基梅隆大學(xué)任教。他發(fā)表了超過(guò)200篇學(xué)術(shù)論文,并著有5本書,其論文及書被引用超過(guò)10萬(wàn)次。他的研究興趣包括深度學(xué)習(xí)、貝葉斯非參數(shù)、核方法、統(tǒng)計(jì)建模和可擴(kuò)展算法。 深度學(xué)習(xí)作者簡(jiǎn)介: Ian Goodfellow,谷歌公司(Google) 的研究科學(xué)家,2014 年蒙特利爾大學(xué)機(jī)器學(xué)習(xí)博士。他的研究興趣涵蓋大多數(shù)深度學(xué)習(xí)主題,特別是生成模型以及機(jī)器學(xué)習(xí)的安全和隱私。Ian Goodfellow在研究對(duì)抗樣本方面是一位有影響力的早期研究者,他發(fā)明了生成式對(duì)抗網(wǎng)絡(luò),在深度學(xué)習(xí)領(lǐng)域貢獻(xiàn)卓越。Yoshua Bengio,蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)與運(yùn)籌學(xué)系(DIRO) 的教授,蒙特利爾學(xué)習(xí)算法研究所(MILA) 的負(fù)責(zé)人,CIFAR 項(xiàng)目的共同負(fù)責(zé)人,加拿大統(tǒng)計(jì)學(xué)習(xí)算法研究主席。Yoshua Bengio 的主要研究目標(biāo)是了解產(chǎn)生智力的學(xué)習(xí)原則。他還教授“機(jī)器學(xué)習(xí)”研究生課程(IFT6266),并培養(yǎng)了一大批研究生和博士后。Aaron Courville,蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)與運(yùn)籌學(xué)系的助理教授,也是LISA 實(shí)驗(yàn)室的成員。目前他的研究興趣集中在發(fā)展深度學(xué)習(xí)模型和方法,特別是開(kāi)發(fā)概率模型和新穎的推斷方法。Aaron Courville 主要專注于計(jì)算機(jī)視覺(jué)應(yīng)用,在其他領(lǐng)域,如自然語(yǔ)言處理、音頻信號(hào)處理、語(yǔ)音理解和其他AI相關(guān)任務(wù)方面也有所研究。中文版審校者簡(jiǎn)介 張志華,北京大學(xué)數(shù)學(xué)科學(xué)學(xué)院統(tǒng)計(jì)學(xué)教授,北京大學(xué)大數(shù)據(jù)研究中心和北京大數(shù)據(jù)研究院數(shù)據(jù)科學(xué)教授,主要從事機(jī)器學(xué)習(xí)和應(yīng)用統(tǒng)計(jì)學(xué)的教學(xué)與研究工作。譯者簡(jiǎn)介 趙申劍,上海交通大學(xué)計(jì)算機(jī)系碩士研究生,研究方向?yàn)閿?shù)值優(yōu)化和自然語(yǔ)言處理。 黎彧君,上海交通大學(xué)計(jì)算機(jī)系博士研究生,研究方向?yàn)閿?shù)值優(yōu)化和強(qiáng)化學(xué)習(xí)。 符天凡,上海交通大學(xué)計(jì)算機(jī)系碩士研究生,研究方向?yàn)樨惾~斯推斷。 李凱,上海交通大學(xué)計(jì)算機(jī)系博士研究生,研究方向?yàn)椴┺恼摵蛷?qiáng)化學(xué)習(xí)。

圖書目錄

動(dòng)手學(xué)深度學(xué)習(xí)目錄:
對(duì)本書的贊譽(yù)
前言
如何使用本書
資源與支持
主要符號(hào)表
第 1 章 深度學(xué)習(xí)簡(jiǎn)介 1
1.1 起源 2
1.2 發(fā)展 4
1.3 成功案例 6
1.4 特點(diǎn) 7
小結(jié) 8
練習(xí) 8
第 2 章 預(yù)備知識(shí) 9
2.1 獲取和運(yùn)行本書的代碼 9
2.1.1 獲取代碼并安裝運(yùn)行環(huán)境 9
2.1.2 更新代碼和運(yùn)行環(huán)境 11
2.1.3 使用GPU版的MXNet 11
小結(jié)12
練習(xí)12
2.2 數(shù)據(jù)操作 12
2.2.1 創(chuàng)建NDArray 12
2.2.2 運(yùn)算 14
2.2.3 廣播機(jī)制 16
2.2.4 索引 17
2.2.5 運(yùn)算的內(nèi)存開(kāi)銷 17
2.2.6 NDArray和NumPy相互變換18
小結(jié)19
練習(xí)19
2.3 自動(dòng)求梯度 19
2.3.1 簡(jiǎn)單例子 19AL34
2.3.2 訓(xùn)練模式和預(yù)測(cè)模式 20
2.3.3 對(duì)Python控制流求梯度 20
小結(jié)21
練習(xí)21
2.4 查閱文檔 21
2.4.1 查找模塊里的所有函數(shù)和類 21
2.4.2 查找特定函數(shù)和類的使用 22
2.4.3 在MXNet網(wǎng)站上查閱 23
小結(jié) 24
練習(xí) 24
第3 章 深度學(xué)習(xí)基礎(chǔ) 25
3.1 線性回歸 25
3.1.1 線性回歸的基本要素 25
3.1.2 線性回歸的表示方法 28
小結(jié) 30
練習(xí) 30
3.2 線性回歸的從零開(kāi)始實(shí)現(xiàn) 30
3.2.1 生成數(shù)據(jù)集 30
3.2.2 讀取數(shù)據(jù)集 32
3.2.3 初始化模型參數(shù) 32
3.2.4 定義模型 33
3.2.5 定義損失函數(shù) 33
3.2.6 定義優(yōu)化算法 33
3.2.7 訓(xùn)練模型 33
小結(jié) 34
練習(xí) 34
3.3 線性回歸的簡(jiǎn)潔實(shí)現(xiàn) 35
3.3.1 生成數(shù)據(jù)集 35
3.3.2 讀取數(shù)據(jù)集 35
3.3.3 定義模型 36
3.3.4 初始化模型參數(shù) 36
3.3.5 定義損失函數(shù) 37
3.3.6 定義優(yōu)化算法 37
3.3.7 訓(xùn)練模型 37
小結(jié) 38
練習(xí) 38
3.4 softmax回歸 38
3.4.1 分類問(wèn)題 38
3.4.2 softmax回歸模型 39
3.4.3 單樣本分類的矢量計(jì)算表達(dá)式 40
3.4.4 小批量樣本分類的矢量計(jì)算表達(dá)式 40
3.4.5 交叉熵?fù)p失函數(shù) 41
3.4.6 模型預(yù)測(cè)及評(píng)價(jià) 42
小結(jié) 42
練習(xí) 42
3.5 圖像分類數(shù)據(jù)集(Fashion-MNIST) 42
3.5.1 獲取數(shù)據(jù)集 42
3.5.2 讀取小批量 44
小結(jié) 45
練習(xí) 45
3.6 softmax回歸的從零開(kāi)始實(shí)現(xiàn) 45
3.6.1 讀取數(shù)據(jù)集 45
3.6.2 初始化模型參數(shù) 45
3.6.3 實(shí)現(xiàn)softmax運(yùn)算 46
3.6.4 定義模型 46
3.6.5 定義損失函數(shù) 47
3.6.6 計(jì)算分類準(zhǔn)確率 47
3.6.7 訓(xùn)練模型 48
3.6.8 預(yù)測(cè) 48
小結(jié) 49
練習(xí) 49
3.7 softmax回歸的簡(jiǎn)潔實(shí)現(xiàn) 49
3.7.1 讀取數(shù)據(jù)集 49
3.7.2 定義和初始化模型 50
3.7.3 softmax和交叉熵?fù)p失函數(shù) 50
3.7.4 定義優(yōu)化算法 50
3.7.5 訓(xùn)練模型 50
小結(jié) 50
練習(xí) 50
3.8 多層感知機(jī) 51
3.8.1 隱藏層 51
3.8.2 激活函數(shù) 52
3.8.3 多層感知機(jī) 55
小結(jié) 55
練習(xí) 55
3.9 多層感知機(jī)的從零開(kāi)始實(shí)現(xiàn) 56
3.9.1 讀取數(shù)據(jù)集 56
3.9.2 定義模型參數(shù) 56
3.9.3 定義激活函數(shù) 56
3.9.4 定義模型 56
3.9.5 定義損失函數(shù) 57
3.9.6 訓(xùn)練模型 57
小結(jié) 57
練習(xí) 57
3.10 多層感知機(jī)的簡(jiǎn)潔實(shí)現(xiàn) 57
3.10.1 定義模型 58
3.10.2 訓(xùn)練模型 58
小結(jié) 58
練習(xí) 58
3.11 模型選擇、欠擬合和過(guò)擬合 58
3.11.1 訓(xùn)練誤差和泛化誤差 59
3.11.2 模型選擇 59
3.11.3 欠擬合和過(guò)擬合 60
3.11.4 多項(xiàng)式函數(shù)擬合實(shí)驗(yàn) 61
小結(jié) 65
練習(xí) 65
3.12 權(quán)重衰減 65
3.12.1 方法 65
3.12.2 高維線性回歸實(shí)驗(yàn) 66
3.12.3 從零開(kāi)始實(shí)現(xiàn) 66
3.12.4 簡(jiǎn)潔實(shí)現(xiàn) 68
小結(jié) 70
練習(xí) 70
3.13 丟棄法 70
3.13.1 方法 70
3.13.2 從零開(kāi)始實(shí)現(xiàn) 71
3.13.3 簡(jiǎn)潔實(shí)現(xiàn) 73
小結(jié) 74
練習(xí) 74
3.14 正向傳播、反向傳播和計(jì)算圖 74
3.14.1 正向傳播 74
3.14.2 正向傳播的計(jì)算圖 75
3.14.3 反向傳播 75
3.14.4 訓(xùn)練深度學(xué)習(xí)模型 76
小結(jié) 77
練習(xí) 77
3.15 數(shù)值穩(wěn)定性和模型初始化 77
3.15.1 衰減和爆炸 77
3.15.2 隨機(jī)初始化模型參數(shù) 78
小結(jié) 78
練習(xí) 79
3.16 實(shí)戰(zhàn)Kaggle比賽:房?jī)r(jià)預(yù)測(cè) 79
3.16.1 Kaggle比賽 79
3.16.2 讀取數(shù)據(jù)集 80
3.16.3 預(yù)處理數(shù)據(jù)集 81
3.16.4 訓(xùn)練模型 82
3.16.5 k 折交叉驗(yàn)證 82
3.16.6 模型選擇 83
3.16.7 預(yù)測(cè)并在Kaggle提交結(jié)果 84
小結(jié) 85
練習(xí) 85
第4章 深度學(xué)習(xí)計(jì)算 86
4.1 模型構(gòu)造 86
小結(jié) 89
練習(xí) 90
4.2 模型參數(shù)的訪問(wèn)、初始化和共享 90
小結(jié) 94
練習(xí) 94
4.3 模型參數(shù)的延后初始化 95
小結(jié) 96
練習(xí) 97
4.4 自定義層 97
小結(jié) 99
練習(xí) 99
4.5 讀取和存儲(chǔ) 99
小結(jié) 101
練習(xí) 101
4.6 GPU計(jì)算 101
小結(jié) 105
練習(xí) 105
第5章 卷積神經(jīng)網(wǎng)絡(luò) 106
5.1 二維卷積層 106
小結(jié) 110
練習(xí) 110
5.2 填充和步幅 111
小結(jié) 113
練習(xí) 113
5.3 多輸入通道和多輸出通道 114
小結(jié) 117
練習(xí) 117
5.4 池化層 117
小結(jié) 120
練習(xí) 121
5.5 卷積神經(jīng)網(wǎng)絡(luò)(LeNet) 121
小結(jié) 124
練習(xí) 124
5.6 深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet) 124
小結(jié) 128
練習(xí) 129
5.7 使用重復(fù)元素的網(wǎng)絡(luò)(VGG) 129
5.7.1 VGG塊 129
5.7.2 VGG網(wǎng)絡(luò) 129
5.7.3 訓(xùn)練模型 130
小結(jié) 131
練習(xí) 131
5.8 網(wǎng)絡(luò)中的網(wǎng)絡(luò)(NiN) 131
小結(jié) 134
練習(xí) 134
5.9 含并行連結(jié)的網(wǎng)絡(luò)(GoogLeNet) 134
小結(jié) 137
練習(xí) 137
5.10 批量歸一化 138
小結(jié) 142
練習(xí) 142
5.11 殘差網(wǎng)絡(luò)(ResNet) 143
小結(jié) 146
練習(xí) 146
5.12 稠密連接網(wǎng)絡(luò)(DenseNet) 147
小結(jié) 149
練習(xí) 149
第6章 循環(huán)神經(jīng)網(wǎng)絡(luò) 150
6.1 語(yǔ)言模型 150
小結(jié) 152
練習(xí) 152
6.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 152
小結(jié) 155
練習(xí) 155
6.3 語(yǔ)言模型數(shù)據(jù)集(歌詞) 155
小結(jié) 158
練習(xí) 159
6.4 循環(huán)神經(jīng)網(wǎng)絡(luò)的從零開(kāi)始實(shí)現(xiàn) 159
小結(jié) 164
練習(xí) 164
6.5 循環(huán)神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)潔實(shí)現(xiàn) 165
小結(jié) 168
練習(xí) 168
小結(jié) 170
練習(xí) 170
6.7 門控循環(huán)單元(GRU) 170
小結(jié) 176
練習(xí) 176
6.8 長(zhǎng)短期記憶(LSTM) 176
小結(jié) 181
練習(xí) 182
6.9 深度循環(huán)神經(jīng)網(wǎng)絡(luò) 182
小結(jié) 183
練習(xí) 183
6.10 雙向循環(huán)神經(jīng)網(wǎng)絡(luò) 183
小結(jié) 184
練習(xí) 184
第7章 優(yōu)化算法 185
7.1 優(yōu)化與深度學(xué)習(xí) 185
小結(jié) 188
練習(xí) 189
7.2 梯度下降和隨機(jī)梯度下降 189
小結(jié) 194
練習(xí) 194
7.3 小批量隨機(jī)梯度下降 194
小結(jié) 199
練習(xí) 199
7.4 動(dòng)量法 200
小結(jié) 205
練習(xí) 205
7.5 AdaGrad算法206
小結(jié) 209
練習(xí) 209
7.6 RMSProp算法 209
小結(jié) 212
練習(xí) 212
7.7 AdaDelta算法 212
小結(jié) 214
練習(xí) 214
7.8 Adam算法 215
小結(jié) 217
練習(xí) 217
第8章 計(jì)算性能 218
8.1 命令式和符號(hào)式混合編程 218
小結(jié) 224
練習(xí) 224
8.2 異步計(jì)算 224
小結(jié) 229
練習(xí) 229
8.3 自動(dòng)并行計(jì)算 229
小結(jié) 231
練習(xí) 231
8.4 多GPU計(jì)算 232
小結(jié) 237
練習(xí) 237
8.5 多GPU計(jì)算的簡(jiǎn)潔實(shí)現(xiàn) 237
小結(jié) 241
練習(xí) 241
第9章 計(jì)算機(jī)視覺(jué) 242
9.1 圖像增廣242
小結(jié) 250
練習(xí) 250
9.2 微調(diào) 250
熱狗識(shí)別 251
小結(jié) 255
練習(xí) 255
9.3 目標(biāo)檢測(cè)和邊界框 255
邊界框 256
小結(jié) 257
練習(xí) 257
9.4 錨框 257
小結(jié) 265
練習(xí) 265
9.5 多尺度目標(biāo)檢測(cè) 265
小結(jié) 268
練習(xí) 268
9.6 目標(biāo)檢測(cè)數(shù)據(jù)集(皮卡丘) 268
小結(jié) 270
練習(xí) 271
9.7 單發(fā)多框檢測(cè)(SSD) 271
小結(jié) 278
練習(xí) 278
9.8 區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)系列280
小結(jié) 285
練習(xí) 285
9.9 語(yǔ)義分割和數(shù)據(jù)集 285
小結(jié) 290
練習(xí) 290
9.10 全卷積網(wǎng)絡(luò)(FCN) 290
小結(jié) 297
練習(xí) 297
9.11 樣式遷移 298
小結(jié) 306
練習(xí) 306
9.12 實(shí)戰(zhàn)Kaggle比賽:圖像 分類(CIFAR-10)306
小結(jié) 313
練習(xí) 313
9.13 實(shí)戰(zhàn)Kaggle比賽:狗的品種識(shí)別(ImageNet Dogs) 314
小結(jié) 320
練習(xí) 320
第10 章 自然語(yǔ)言處理 321
10.1 詞嵌入(word2vec) 321
小結(jié) 325
練習(xí) 325
10.2 近似訓(xùn)練325
小結(jié) 327
練習(xí) 328
10.3 word2vec的實(shí)現(xiàn)328
小結(jié) 336
練習(xí) 336
10.4 子詞嵌入(fastText) 336
小結(jié) 337
練習(xí) 337
10.5 全局向量的詞嵌入(GloVe)337
小結(jié) 340
練習(xí) 340
10.6 求近義詞和類比詞340
小結(jié) 343
練習(xí) 343
10.7 文本情感分類:使用循環(huán)神經(jīng)網(wǎng)絡(luò) 343
小結(jié) 347
練習(xí) 347
10.8 文本情感分類:使用卷積神經(jīng)網(wǎng)絡(luò)(textCNN) 347
小結(jié) 353
練習(xí) 353
10.9 編碼器-解碼器(seq2seq)353
小結(jié) 355
練習(xí) 355
10.10 束搜索 355
小結(jié) 358
練習(xí) 358
10.11 注意力機(jī)制 358
小結(jié) 361
練習(xí) 361
10.12 機(jī)器翻譯 361
小結(jié) 369
練習(xí) 369
附錄A 數(shù)學(xué)基礎(chǔ) 370
附錄B 使用 Jupyter 記事本 376
附錄C 使用 AWS 運(yùn)行代碼 381
附錄D GPU 購(gòu)買指南 388
附錄E 如何為本書做貢獻(xiàn) 391
附錄F d2lzh 包索引 395
附錄G 中英文術(shù)語(yǔ)對(duì)照表 397
參考文獻(xiàn) 402
索引 407

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)