注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能基于深度學(xué)習(xí)的自然語言處理

基于深度學(xué)習(xí)的自然語言處理

基于深度學(xué)習(xí)的自然語言處理

定 價(jià):¥79.00

作 者: (美)卡蒂克·雷迪·博卡,(?。┦姘嗉?/td>
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購買這本書可以去


ISBN: 9787111653578 出版時(shí)間: 2020-06-01 包裝: 平裝
開本: 16開 頁數(shù): 226 字?jǐn)?shù):  

內(nèi)容簡介

  將深度學(xué)習(xí)方法應(yīng)用于各種自然語言處理任務(wù)可以將你的計(jì)算算法在速度和準(zhǔn)確性方面提升到一個(gè)全新的水平?!痘谏疃葘W(xué)習(xí)的自然語言處理》首先介紹自然語言處理領(lǐng)域的基本構(gòu)件,接著介紹使用先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型可以解決的問題。深入研究各種神經(jīng)網(wǎng)絡(luò)架構(gòu)及其特定的應(yīng)用領(lǐng)域?qū)⒂兄谀憷斫馊绾芜x擇模型來滿足你的需求。隨著學(xué)習(xí)的深入,你將學(xué)到卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)以及長短期記憶網(wǎng)絡(luò)。在后面的章節(jié)中,你將能夠使用自然語言處理技術(shù)(如注意力機(jī)制模型和集束搜索)開發(fā)應(yīng)用程序。學(xué)完《基于深度學(xué)習(xí)的自然語言處理》,你不僅能具備自然語言處理的基礎(chǔ)知識,還能選擇文本預(yù)處理和神經(jīng)網(wǎng)絡(luò)模型來解決一些自然語言處理的問題。了解深度學(xué)習(xí)問題的各種預(yù)處理技術(shù)。用word2vec和GloVe構(gòu)建文本的矢量表示。使用Apache OpenNLP創(chuàng)建命名實(shí)體識別器和詞性標(biāo)注器。在Keras中構(gòu)建機(jī)器翻譯模型。用LSTM開發(fā)文本生成應(yīng)用程序。使用注意力模型構(gòu)建觸發(fā)詞檢測應(yīng)用程序。

作者簡介

  卡蒂克·雷迪·博卡(Karthiek Reddy Bokka) 語音和音頻機(jī)器學(xué)習(xí)工程師,畢業(yè)于南加州大學(xué),目前在波特蘭的 Bi-amp Systems公司工作。他的興趣包括深度學(xué)習(xí)、數(shù)字信號和音頻處理、自然語言處理以及計(jì)算機(jī)視覺。他擁有設(shè)計(jì)、構(gòu)建和部署人工智能應(yīng)用程序的經(jīng)驗(yàn),這些應(yīng)用程序可以用各種形式的實(shí)際數(shù)據(jù)(包括圖像、語音、音樂、非結(jié)構(gòu)化原始數(shù)據(jù)等)來解決現(xiàn)實(shí)世界中的問題。舒班吉·霍拉(Shubhangi Hora) Python開發(fā)者、人工智能愛好者和作家。她有計(jì)算機(jī)科學(xué)和心理學(xué)背景,對與心理健康相關(guān)的人工智能特別感興趣。她住在印度浦那,熱衷于通過機(jī)器學(xué)習(xí)和深度學(xué)習(xí)來推進(jìn)自然語言處理。除此之外,她還喜歡表演藝術(shù),是一名訓(xùn)練有素的音樂家。塔努吉·賈因(Tanuj Jain) 在德國公司工作的數(shù)據(jù)科學(xué)家。他一直在開發(fā)深度學(xué)習(xí)模型,并將其投入生產(chǎn)以商用。他對自然語言處理特別感興趣,并將自己的專業(yè)知識應(yīng)用于分類和情感評級任務(wù)。他擁有電氣工程碩士學(xué)位,主要研究統(tǒng)計(jì)模式識別。莫尼卡·瓦姆布吉(Monicah Wambugu) 金融技術(shù)公司的首席數(shù)據(jù)科學(xué)家,該公司通過利用數(shù)據(jù)、機(jī)器學(xué)習(xí)和分析來提供小額貸款,以執(zhí)行替代信用評分。她是加州大學(xué)伯克利分校信息管理與系統(tǒng)碩士研究生。Monicah對如何利用數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)來設(shè)計(jì)產(chǎn)品和應(yīng)用程序,以滿足目標(biāo)受眾的行為和社會(huì)經(jīng)濟(jì)需求特別感興趣。

圖書目錄

譯者序
前言
第1章 自然語言處理 1
1.1 本章概覽 1
1.2 自然語言處理的基礎(chǔ)知識 1
1.3 自然語言處理的能力 3
1.4 自然語言處理中的應(yīng)用 4
1.4.1 文本預(yù)處理 5
1.4.2 文本預(yù)處理技術(shù) 6
1.5 詞嵌入 13
1.6 本章小結(jié) 22
第2章 自然語言處理的應(yīng)用 23
2.1 本章概覽 23
2.2 詞性標(biāo)注 24
2.2.1 詞性 24
2.2.2 詞性標(biāo)注器 25
2.3 詞性標(biāo)注的應(yīng)用 27
2.4 分塊 33
2.5 加縫 35
2.6 命名實(shí)體識別 37
2.6.1 命名實(shí)體 37
2.6.2 命名實(shí)體識別器 38
2.6.3 命名實(shí)體識別的應(yīng)用 38
2.6.4 命名實(shí)體識別器類型 39
2.7 本章小結(jié) 43
第3章 神經(jīng)網(wǎng)絡(luò) 44
3.1 本章概覽 44
3.1.1 深度學(xué)習(xí)簡介 44
3.1.2 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的比較 45
3.2 神經(jīng)網(wǎng)絡(luò) 46
3.3 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 50
3.3.1 計(jì)算權(quán)重 51
3.3.2 損失函數(shù) 52
3.3.3 梯度下降算法 53
3.3.4 反向傳播 56
3.4 神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)及其應(yīng)用 57
3.4.1 有監(jiān)督神經(jīng)網(wǎng)絡(luò) 57
3.4.2 無監(jiān)督神經(jīng)網(wǎng)絡(luò) 57
3.5 部署模型即服務(wù)的基礎(chǔ) 60
3.6 本章小結(jié) 62
第4章 卷積神經(jīng)網(wǎng)絡(luò) 63
4.1 本章概覽 63
4.2 理解CNN的架構(gòu) 65
4.2.1 特征提取 66
4.2.2 隨機(jī)失活 68
4.2.3 卷積神經(jīng)網(wǎng)絡(luò)的分類 69
4.3 訓(xùn)練CNN 71
4.4 CNN的應(yīng)用領(lǐng)域 77
4.5 本章小結(jié) 80
第5章 循環(huán)神經(jīng)網(wǎng)絡(luò) 81
5.1 本章概覽 81
5.2 神經(jīng)網(wǎng)絡(luò)的早期版本 82
5.3 RNN 84
5.3.1 RNN架構(gòu) 87
5.3.2 BPTT 88
5.4 更新和梯度流 90
5.4.1 調(diào)整權(quán)重矩陣Wy 90
5.4.2 調(diào)整權(quán)重矩陣Ws 90
5.4.3 關(guān)于更新Wx 92
5.5 梯度 94
5.5.1 梯度爆炸 94
5.5.2 梯度消失 94
5.5.3 Keras實(shí)現(xiàn)RNN 95
5.5.4 有狀態(tài)與無狀態(tài) 99
5.6 本章小結(jié) 102
第6章 門控循環(huán)單元 103
6.1 本章概覽 103
6.2 簡單RNN的缺點(diǎn) 104
6.3 門控循環(huán)單元 106
6.3.1 門的類型 108
6.3.2 更新門 108
6.3.3 重置門 110
6.3.4 候選激活函數(shù) 111
6.3.5 GRU變體 113
6.4 基于GRU的情感分析 114
6.5 本章小結(jié) 123
第7章 長短期記憶網(wǎng)絡(luò) 124
7.1 本章概覽 124
7.1.1 LSTM 124
7.1.2 遺忘門 126
7.2 輸入門和候選單元狀態(tài) 128
7.3 輸出門和當(dāng)前激活 132
7.4 神經(jīng)語言翻譯 139
7.5 本章小結(jié) 150
第8章 自然語言處理前沿 151
8.1 本章概覽 151
8.1.1 注意力機(jī)制 152
8.1.2 注意力機(jī)制模型 153
8.1.3 使用注意力機(jī)制的數(shù)據(jù)標(biāo)準(zhǔn)化 154
8.1.4 編碼器 155
8.1.5 解碼器 155
8.1.6 注意力機(jī)制 155
8.1.7 α的計(jì)算 156
8.2 其他架構(gòu)和發(fā)展?fàn)顩r 167
8.2.1 transformer 168
8.2.2 BERT 168
8.2.3 Open AI GPT-2 168
8.3 本章小結(jié) 169
第9章 組織中的實(shí)際NLP項(xiàng)目工作流 170
9.1 本章概覽 170
9.1.1 機(jī)器學(xué)習(xí)產(chǎn)品開發(fā)的一般工作流 170
9.1.2 演示工作流 171
9.1.3 研究工作流 171
9.1.4 面向生產(chǎn)的工作流 172
9.2 問題定義 173
9.3 數(shù)據(jù)采集 173
9.4 谷歌Colab 174
9.5 Flask 180
9.6 部署 182
9.6.1 對Flask網(wǎng)絡(luò)應(yīng)用程序進(jìn)行更改 183
9.6.2 使用Docker將Flask網(wǎng)絡(luò)應(yīng)用程序包裝到容器中 183
9.6.3 將容器托管在亞馬遜網(wǎng)絡(luò)服務(wù)EC2實(shí)例上 185
9.6.4 改進(jìn) 190
9.7 本章小結(jié) 190
附錄 191

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號