注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)TensorFlow自然語言處理

TensorFlow自然語言處理

TensorFlow自然語言處理

定 價(jià):¥99.00

作 者: [奧] 圖珊·加內(nèi)格達(dá)拉(Thushan Ganegedara) 著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 智能系統(tǒng)與技術(shù)叢書
標(biāo) 簽: 暫缺

ISBN: 9787111629146 出版時(shí)間: 2019-07-01 包裝: 平裝
開本: 16 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  1章是對(duì)NLP的簡(jiǎn)單介紹。該章將首先討論我們需要NLP的原因。接下來,將討論NLP中一些常見的子任務(wù)。之后,將討論NLP的兩個(gè)主要階段,即傳統(tǒng)階段和深度學(xué)習(xí)階段。通過研究如何使用傳統(tǒng)算法解決語言建模任務(wù),我們將了解傳統(tǒng)階段NLP的特點(diǎn)。然后,將討論深度學(xué)習(xí)階段,在這一階段中深度學(xué)習(xí)算法被大量用于NLP。我們還將討論深度學(xué)習(xí)算法的主要系列。后,將討論一種基本的深度學(xué)習(xí)算法:全連接神經(jīng)網(wǎng)絡(luò)。該章結(jié)束時(shí)會(huì)提供一份路線圖,簡(jiǎn)要介紹后面的內(nèi)容。 第2章介紹Python TensorFlow庫(kù),這是我們實(shí)現(xiàn)解決方案的主要平臺(tái)。首先在TensorFlow中編寫一段代碼,執(zhí)行一個(gè)簡(jiǎn)單的計(jì)算,并討論從運(yùn)行代碼到得到結(jié)果這一過程中到底發(fā)生了什么。我們將詳細(xì)介紹TensorFlow的基礎(chǔ)組件。把Tensorflow比作豐富的餐廳,了解如何完成訂單,以便進(jìn)一步加強(qiáng)對(duì)TensorFlow的理解。稍后,將討論TensorFlow的更多技術(shù)細(xì)節(jié),例如數(shù)據(jù)結(jié)構(gòu)和操作(主要與神經(jīng)網(wǎng)絡(luò)相關(guān))。后,我們將實(shí)現(xiàn)一個(gè)全連接的神經(jīng)網(wǎng)絡(luò)來識(shí)別手寫數(shù)字。這將幫助我們了解如何使用TensorFlow來實(shí)現(xiàn)端到端解決方案。 第3章首先討論如何用TensorFlow解決NLP任務(wù)。在該章中,我們將討論如何用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)單詞向量或單詞表示。單詞向量也稱為詞嵌入。單詞向量是單詞的數(shù)字表示,相似單詞有相似值,不同單詞有不同值。首先,將討論實(shí)現(xiàn)這一目標(biāo)的幾種傳統(tǒng)方法,包括使用稱為WordNet的大型人工構(gòu)建知識(shí)庫(kù)。然后,將討論基于現(xiàn)代神經(jīng)網(wǎng)絡(luò)的方法,稱為Word2vec,它在沒有任何人為干預(yù)的情況下學(xué)習(xí)單詞向量。我們將通過一個(gè)實(shí)例來了解Word2vec的機(jī)制。接著,將討論用于實(shí)現(xiàn)此目的的兩種算法變體:skip-gram和連續(xù)詞袋(CBOW)模型。我們將討論算法的細(xì)節(jié),以及如何在TensorFlow中實(shí)現(xiàn)它們。 第4章介紹與單詞向量相關(guān)的更高級(jí)方法。首先,會(huì)比較skip-gram和CBOW,討論其中哪一種有明顯優(yōu)勢(shì)。接下來,將討論可用于提高Word2vec算法性能的幾項(xiàng)改進(jìn)。然后,將討論一種更新、更強(qiáng)大的詞嵌入學(xué)習(xí)算法:GloVe(全局向量)算法。后,將在文檔分類任務(wù)中實(shí)際觀察單詞向量。在該練習(xí)中,我們將看到單詞向量十分強(qiáng)大,足以表示文檔所屬的主題(例如,娛樂和運(yùn)動(dòng))。 第5章討論卷積神經(jīng)網(wǎng)絡(luò)(CNN),它是擅長(zhǎng)處理諸如圖像或句子這樣的空間數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)家族。首先,討論如何處理數(shù)據(jù)以及處理數(shù)據(jù)時(shí)涉及哪種操作,以便對(duì)CNN有較深的理解。接下來,深入研究CNN計(jì)算中涉及的每個(gè)操作,以了解CNN背后的數(shù)學(xué)原理。后,介紹兩個(gè)練習(xí)。練習(xí)使用CNN對(duì)手寫數(shù)字圖像進(jìn)行分類,我們將看到CNN能夠在此任務(wù)上很快達(dá)到較高的準(zhǔn)確率。接下來,我們將探討如何使用CNN對(duì)句子進(jìn)行分類。特別地,我們要求CNN預(yù)測(cè)一個(gè)句子是否與對(duì)象、人物、位置等相關(guān)。 第6章介紹遞歸神經(jīng)網(wǎng)絡(luò)。遞歸神經(jīng)網(wǎng)絡(luò)(RNN)是一個(gè)可以模擬數(shù)據(jù)序列的強(qiáng)大的神經(jīng)網(wǎng)絡(luò)家族。首先討論RNN背后的數(shù)學(xué)原理以及在學(xué)習(xí)期間隨時(shí)間更新RNN的更新規(guī)則。然后,討論RNN的不同變體及其應(yīng)用(例如,一對(duì)一RNN和一對(duì)多RNN)。后,用RNN執(zhí)行文本生成任務(wù)的練習(xí)。我們用童話故事訓(xùn)練RNN,然后要求RNN生成一個(gè)新故事。我們將看到在持久的長(zhǎng)期記憶方面RNN表現(xiàn)不佳。后,討論更高級(jí)的RNN變體,即RNN-CF,它能夠保持更長(zhǎng)時(shí)間的記憶。 第7章介紹長(zhǎng)短期記憶網(wǎng)絡(luò)。RNN在保持長(zhǎng)期記憶方面效果較差,這使我們需要探索能在更長(zhǎng)時(shí)間內(nèi)記住信息的更強(qiáng)大技術(shù)。我們將在該章討論一種這樣的技術(shù):長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)。LSTM功能更強(qiáng)大,并且在許多時(shí)間序列任務(wù)中表現(xiàn)得優(yōu)于其他序列模型。首先通過一個(gè)例子,研究潛在的數(shù)學(xué)原理和LSTM的更新規(guī)則,以說明每個(gè)計(jì)算的重要性。然后,將了解為什么LSTM能夠更長(zhǎng)時(shí)間地保持記憶。接下來,將討論如何進(jìn)一步提高LSTM預(yù)測(cè)能力。后,將討論具有更復(fù)雜結(jié)構(gòu)的幾種LSTM變體(具有窺孔連接的LSTM),以及簡(jiǎn)化LSTM門控循環(huán)單元(GRU)的方法。 第8章介紹LSTM的應(yīng)用:文本生成。該章廣泛評(píng)估LSTM在文本生成任務(wù)中的表現(xiàn)。我們將定性和定量地衡量LSTM產(chǎn)生的文本的好壞程度,還將比較LSTM、窺孔連接LSTM和GRU。后,將介紹如何將詞嵌入應(yīng)用到模型中來改進(jìn)LSTM生成的文本。 第9章轉(zhuǎn)到對(duì)多模態(tài)數(shù)據(jù)(即圖像和文本)的處理。在該章中,我們將研究如何自動(dòng)生成給定圖像的描述。這涉及將前饋模型(即CNN)與詞嵌入層及順序模型(即LSTM)組合,形成一個(gè)端到端的機(jī)器學(xué)習(xí)流程。 第10章介紹有關(guān)神經(jīng)機(jī)器翻譯(NMT)模型的應(yīng)用。機(jī)器翻譯指的是將句子或短語從源語言翻譯成目標(biāo)語言。首先討論機(jī)器翻譯是什么并簡(jiǎn)單介紹機(jī)器翻譯歷史。然后,將詳細(xì)討論現(xiàn)代神經(jīng)機(jī)器翻譯模型的體系結(jié)構(gòu),包括訓(xùn)練和預(yù)測(cè)的流程。接下來,將了解如何從頭開始實(shí)現(xiàn)NMT系統(tǒng)。后,會(huì)探索改進(jìn)標(biāo)準(zhǔn)NMT系統(tǒng)的方法。 第11章重點(diǎn)介紹NLP的現(xiàn)狀和未來趨勢(shì)。我們將討論前面提到的系統(tǒng)的相關(guān)新發(fā)現(xiàn)。該章將涵蓋大部分令人興奮的創(chuàng)新,并讓你直觀地感受其中的一些技術(shù)。 附錄向讀者介紹各種數(shù)學(xué)數(shù)據(jù)結(jié)構(gòu)(例如,矩陣)和操作(例如,矩陣的逆),還將討論概率中的幾個(gè)重要概念。然后將介紹Keras,它是在底層使用TensorFlow的高級(jí)庫(kù)。Keras通過隱藏TensorFlow中的一些有難度的細(xì)節(jié)使得神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)更簡(jiǎn)單。具體而言,通過使用Keras實(shí)現(xiàn)CNN來介紹如何使用Keras。接下來,將討論如何使用TensorFlow中的seq2seq庫(kù)來實(shí)現(xiàn)一個(gè)神經(jīng)機(jī)器翻譯系統(tǒng),所使用的代碼比在第11章中使用的代碼少得多。后,將向你介紹如何使用TensorBoard可視化詞嵌入的指南。TensorBoard是TensorFlow附帶的便捷可視化工具,可用于可視化和監(jiān)視TensorFlow客戶端中的各種變量。

作者簡(jiǎn)介

  圖珊 加內(nèi)格達(dá)拉(Thushan Ganegedara)目前是澳大利亞悉尼大學(xué)第三年的博士生。他專注于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)。他喜歡在未經(jīng)測(cè)試的數(shù)據(jù)上運(yùn)行算法。他還是澳大利亞初創(chuàng)公司AssessThreat的首席數(shù)據(jù)科學(xué)家。他在斯里蘭卡莫拉圖瓦大學(xué)獲得了理學(xué)士學(xué)位。他經(jīng)常撰寫有關(guān)機(jī)器學(xué)習(xí)的技術(shù)文章和教程。此外,他經(jīng)常通過游泳來努力營(yíng)造健康的生活方式。

圖書目錄

譯者序
前言
關(guān)于作者
關(guān)于審閱者
第1章 自然語言處理簡(jiǎn)介 1
1.1 什么是自然語言處理 1
1.2 自然語言處理的任務(wù) 2
1.3 傳統(tǒng)的自然語言處理方法 3
1.3.1 理解傳統(tǒng)方法 4
1.3.2 傳統(tǒng)方法的缺點(diǎn) 7
1.4 自然語言處理的深度學(xué)習(xí)方法? 8
1.4.1 深度學(xué)習(xí)的歷史 8
1.4.2 深度學(xué)習(xí)和NLP的當(dāng)前狀況 9
1.4.3 理解一個(gè)簡(jiǎn)單的深層模型—全連接神經(jīng)網(wǎng)絡(luò) 10
1.5 本章之外的學(xué)習(xí)路線 12
1.6 技術(shù)工具簡(jiǎn)介 14
1.6.1 工具說明 15
1.6.2 安裝Python和scikit-learn 15
1.6.3 安裝Jupyter Notebook 15
1.6.4 安裝TensorFlow 16
1.7 總結(jié) 17
第2章 理解TensorFlow 18
2.1 TensorFlow是什么 18
2.1.1 TensorFlow入門 19
2.1.2 TensorFlow客戶端詳細(xì)介紹 21
2.1.3 TensorFlow架構(gòu):當(dāng)你執(zhí)行客戶端時(shí)發(fā)生了什么 21
2.1.4 Cafe Le TensorFlow:使用類比理解TensorFlow 23
2.2 輸入、變量、輸出和操作 24
2.2.1 在TensorFlow中定義輸入 25
2.2.2 在TensorFlow中定義變量 30
2.2.3 定義TensorFlow輸出 31
2.2.4 定義TensorFlow操作 31
2.3 使用作用域重用變量 40
2.4 實(shí)現(xiàn)我們的第一個(gè)神經(jīng)網(wǎng)絡(luò) 42
2.4.1 準(zhǔn)備數(shù)據(jù) 43
2.4.2 定義TensorFLow圖 43
2.4.3 運(yùn)行神經(jīng)網(wǎng)絡(luò) 45
2.5 總結(jié) 46
第3章 Word2vec——學(xué)習(xí)詞嵌入 48
3.1 單詞的表示或含義是什么 49
3.2 學(xué)習(xí)單詞表示的經(jīng)典方法 49
3.2.1 WordNet—使用外部詞匯知識(shí)庫(kù)來學(xué)習(xí)單詞表示 50
3.2.2 獨(dú)熱編碼表示方式 53
3.2.3 TF-IDF方法 53
3.2.4 共現(xiàn)矩陣 54
3.3 Word2vec—基于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)單詞表示 55
3.3.1 練習(xí):queen = king – he + she嗎 56
3.3.2 為學(xué)習(xí)詞嵌入定義損失函數(shù) 58
3.4 skip-gram算法 59
3.4.1 從原始文本到結(jié)構(gòu)化的數(shù)據(jù) 59
3.4.2 使用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)詞嵌入 60
3.4.3 使用TensorFlow實(shí)現(xiàn)skip-gram 67
3.5 連續(xù)詞袋算法 69
3.6 總結(jié) 71
第4章 高級(jí)Word2vec 72
4.1 原始skip-gram算法 72
4.1.1 實(shí)現(xiàn)原始skip-gram算法 73
4.1.2 比較原始skip-gram算法和改進(jìn)的skip-gram算法 75
4.2 比較skip-gram算法和CBOW算法 75
4.2.1 性能比較 77
4.2.2 哪個(gè)更勝一籌:skip-gram還是CBOW 79
4.3 詞嵌入算法的擴(kuò)展 81
4.3.1 使用unigram分布進(jìn)行負(fù)采樣 81
4.3.2 實(shí)現(xiàn)基于unigram的負(fù)采樣 81
4.3.3 降采樣:從概率上忽視常用詞 83
4.3.4 實(shí)現(xiàn)降采樣 84
4.3.5 比較CBOW及其擴(kuò)展算法 84
4.4 最近的skip-gram和CBOW的擴(kuò)展算法 85
4.4.1 skip-gram算法的限制 85
4.4.2 結(jié)構(gòu)化skip-gram算法 85
4.4.3 損失函數(shù) 86
4.4.4 連續(xù)窗口模型 87
4.5 GloVe:全局向量表示 88
4.5.1 理解GloVe 88
4.5.2 實(shí)現(xiàn)GloVe 89
4.6 使用Word2vec進(jìn)行文檔分類 90
4.6.1 數(shù)據(jù)集 91
4.6.2 用詞向量進(jìn)行文檔分類 91
4.6.3 實(shí)現(xiàn):學(xué)習(xí)詞嵌入 92
4.6.4 實(shí)現(xiàn):詞嵌入到文檔嵌入 92
4.6.5 文本聚類以及用t-SNE可視化文檔嵌入 93
4.6.6 查看一些特異點(diǎn) 94
4.6.7 實(shí)現(xiàn):用K-means對(duì)文檔進(jìn)行分類/聚類 95
4.7 總結(jié) 96
第5章 用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類 97
5.1 介紹卷積神經(jīng)網(wǎng)絡(luò) 97
5.1.1 CNN基礎(chǔ) 97
5.1.2 卷積神經(jīng)網(wǎng)絡(luò)的力量 100
5.2 理解卷積神經(jīng)網(wǎng)絡(luò) 100
5.2.1 卷積操作 100
5.2.2 池化操作 103
5.2.3 全連接層 104
5.2.4 組合成完整的CNN 105
5.3 練習(xí):在MNIST數(shù)據(jù)集上用CNN進(jìn)行圖片分類 105
5.3.1 關(guān)于數(shù)據(jù) 106
5.3.2 實(shí)現(xiàn)CNN 106
5.3.3 分析CNN產(chǎn)生的預(yù)測(cè)結(jié)果 108
5.4 用CNN進(jìn)行句子分類 109
5.4.1 CNN結(jié)構(gòu) 110
5.4.2 隨時(shí)間池化 112
5.4.3 實(shí)現(xiàn):用CNN進(jìn)行句子分類 112
5.5 總結(jié) 115

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)