注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)人工智能深度學(xué)習(xí)導(dǎo)論 精裝版

深度學(xué)習(xí)導(dǎo)論 精裝版

深度學(xué)習(xí)導(dǎo)論 精裝版

定 價:¥89.00

作 者: 尤金·查爾尼克(Eugene Charniak) 著,沈磊,鄭春萍 譯
出版社: 人民郵電出版社
叢編項:
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787115534521 出版時間: 2020-04-01 包裝: 精裝
開本: 小16開 頁數(shù): 150 字?jǐn)?shù):  

內(nèi)容簡介

  《深度學(xué)習(xí)導(dǎo)論精裝版》講述了Tensorflow、前饋神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、詞嵌入、循環(huán)神經(jīng)網(wǎng)絡(luò)、序列到序列學(xué)習(xí)、深度強化學(xué)習(xí)、無監(jiān)督模型等深度學(xué)習(xí)領(lǐng)域的基本概念和技術(shù),通過一系列的編程任務(wù),向讀者介紹了熱門的人工智能應(yīng)用,包括計算機視覺和自然語言處理等。本書編寫簡明扼要,理論聯(lián)系實踐,每一章都包括一個編程項目、練習(xí)以及進一步閱讀的參考資料。本書既可作為高校人工智能教學(xué)用書,也可供從業(yè)者入門參考。本書要求讀者熟悉線性代數(shù)、多元微積分、概率和統(tǒng)計知識,另外需要讀者了解Python 編程。

作者簡介

  作者簡介Eugene Charniak是美國布朗大學(xué)計算機科學(xué)和認(rèn)知科學(xué)教授,博士畢業(yè)于MIT,博士導(dǎo)師是人工智能之父Marvin Minsky。他是國際知名的人工智能研究者,美國人工智能學(xué)會(AAAI)會士,2011年獲美國計算語言學(xué)會(ACL)終身成就獎。他撰寫了《統(tǒng)計語言學(xué)習(xí)》《人工智能編程》等圖書。譯者簡介沈磊,美國計算語言學(xué)會(ACL)會員,中國計算機學(xué)會(CCF)會員,博士畢業(yè)于北京航空航天大學(xué)計算機學(xué)院,博士研究方向為人工智能、模式識別,現(xiàn)為vivo公司北京AI研究院NLP算法專家,主要方向為自然語言理解和自動問答。她在自然語言處理及推薦算法方向發(fā)表了多篇學(xué)術(shù)論文,申請了5項專利。鄭春萍,教育學(xué)博士,北京郵電大學(xué)人文學(xué)院副教授,主要研究方向為應(yīng)用語言學(xué)與計算機輔助翻譯。她是美國國務(wù)院“英語語言學(xué)者項目”訪問學(xué)者、英國曼徹斯特大學(xué)人文藝術(shù)學(xué)院訪問學(xué)者,曾獲北京市高等教育教學(xué)成果一等獎、北京市高校青年教學(xué)名師獎、中央電視臺“希望之星”英語風(fēng)采大賽全國總決賽**指導(dǎo)教師獎等獎項。她主持了國家社科基金、教育部霍英東青年教師基金及教育部人文社科基金等省部級課題6項,發(fā)表學(xué)術(shù)論文40余篇,主編教材2部,出版專著1部、譯著2部。

圖書目錄

第 1章 前饋神經(jīng)網(wǎng)絡(luò) 1
1.1 感知機 3
1.2 神經(jīng)網(wǎng)絡(luò)的交叉熵?fù)p失函數(shù) 7
1.3 導(dǎo)數(shù)與隨機梯度下降 11
1.4 編寫程序 15
1.5 神經(jīng)網(wǎng)絡(luò)的矩陣表示 17
1.6 數(shù)據(jù)獨立性 19
1.7 參考文獻和補充閱讀 20
1.8 習(xí)題 21
第 2章 Tensorflow 23
2.1 預(yù)備知識 23
2.2 TF程序 26
2.3 多層神經(jīng)網(wǎng)絡(luò) 31
2.4 其他方面 34
2.4.1 檢查點 34
2.4.2 tensordot 35
2.4.3 TF變量的初始化 37
2.4.4 TF圖創(chuàng)建的簡化 39
2.5 參考文獻和補充閱讀 40
2.6 習(xí)題 40
第3章 卷積神經(jīng)網(wǎng)絡(luò) 43
3.1 濾波器、步長和填充 43
3.2 一個簡單的TF卷積例子 49
3.3 多層卷積 51
3.4 卷積細(xì)節(jié) 54
3.4.1 偏置 54
3.4.2 卷積層 55
3.4.3 池化運算(pooling) 55
3.5 參考文獻和補充閱讀 56
3.6 習(xí)題 57
第4章 詞嵌入與循環(huán)神經(jīng)網(wǎng)絡(luò) 59
4.1 語言模型的詞嵌入 59
4.2 構(gòu)建前饋語言模型 63
4.3 改進前饋語言模型 65
4.4 過擬合 66
4.5 循環(huán)網(wǎng)絡(luò) 69
4.6 長短期記憶模型 75
4.7 參考文獻和補充閱讀 78
4.8 習(xí)題 78
第5章 序列到序列學(xué)習(xí) 81
5.1 seq2seq模型 82
5.2 編寫一個seq2seq MT程序 84
5.3 seq2seq中的注意力機制 87
5.4 多長度seq2seq 90
5.5 編程練習(xí) 91
5.6 參考文獻和補充閱讀 93
5.7 習(xí)題 94
第6章 深度強化學(xué)習(xí) 97
6.1 值迭代 98
6.2 Q學(xué)習(xí) 101
6.3 深度Q學(xué)習(xí)基礎(chǔ) 103
6.4 策略梯度法 106
6.5 行動者-評論家方法 112
6.6 經(jīng)驗回放 114
6.7 參考文獻和補充閱讀 115
6.8 習(xí)題 116
第7章 無監(jiān)督神經(jīng)網(wǎng)絡(luò)模型 119
7.1 基本自編碼 119
7.2 卷積自編碼 122
7.3 變分自編碼 126
7.4 生成式對抗網(wǎng)絡(luò) 132
7.5 參考文獻和補充閱讀 137
7.6 習(xí)題 137
附錄A 部分習(xí)題答案 139
附錄B 參考文獻 143
附錄C 索引 147
本書贊譽 151

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號