注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)軟件與程序設(shè)計自然語言處理:原理、方法與應(yīng)用

自然語言處理:原理、方法與應(yīng)用

自然語言處理:原理、方法與應(yīng)用

定 價:¥59.00

作 者: 王志立、雷鵬斌、吳宇凡
出版社: 清華大學(xué)出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302617747 出版時間: 2023-03-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  本書系統(tǒng)闡述自然語言處理基礎(chǔ)知識,以及自然語言處理高級模型應(yīng)用等高級知識。 全書共11章:第1~5章為自然語言處理的基礎(chǔ)知識,第6~11章則將自然語言處理知識應(yīng)用于實戰(zhàn)。書中主要內(nèi)容包括預(yù)訓(xùn)練模型、文本分類、機器閱讀理解、命名實體識別、文本生成、模型蒸餾與剪枝及損失函數(shù)等知識。 書中包含大量應(yīng)用示例,不僅可以學(xué)會理論知識還可以靈活應(yīng)用。書中示例基于Linux與PyTorch環(huán)境開發(fā),讀者在學(xué)習(xí)自然語言處理知識的同時還可學(xué)會PyTorch框架技術(shù),內(nèi)容完整、步驟清晰,提供了工程化的解決方案。 本書可作為有一定深度學(xué)習(xí)基礎(chǔ)的讀者的入門書,也可作為從事自然語言處理算法工作的技術(shù)人員及培訓(xùn)機構(gòu)的參考書。

作者簡介

  王志立,自然語言處理工程師,曾在國際與國內(nèi)的學(xué)術(shù)會議上發(fā)表學(xué)術(shù)論文多篇,先后在騰訊等多家知名企業(yè)從事大數(shù)據(jù)與人工智能算法工作,運營和分享人工智能相關(guān)知識,曾獲得多項人工智能比賽國家級獎項。雷鵬斌,深圳大學(xué)碩士,華為AI算法工程師,主要從事chatops、知識圖譜的研究與應(yīng)用工作,對自然語言處理各項任務(wù)的研究與應(yīng)用具有經(jīng)驗豐富。2019—2021年在國內(nèi)知名競賽的文本分類、命名實體識別、機器閱讀理解、智能問答,以及文本生成任務(wù)中摘獲大量榮譽。曾參與多項課題研究,在AAAI、中文信息學(xué)報等高影響力會議上發(fā)表多篇文章。吳宇凡,騰訊算法應(yīng)用研究員,長期從事業(yè)務(wù)安全和金融量化相關(guān)算法研究和實踐,已發(fā)表國際頂級會議論文多篇,申請專利數(shù)篇。

圖書目錄


第1章導(dǎo)論(13min)
1.1基于深度學(xué)習(xí)的自然語言處理
1.2本書章節(jié)脈絡(luò)
1.3自然語言處理算法流程
1.4小結(jié)
第2章Python開發(fā)環(huán)境配置(35min)
2.1Linux服務(wù)器
2.1.1MobaXterm
2.1.2使用MobaXterm連接遠程服務(wù)器
2.1.3在服務(wù)器上安裝Python開發(fā)環(huán)境
2.1.4使用Anaconda國內(nèi)源
2.1.5pip設(shè)定永久阿里云源
2.2Python虛擬環(huán)境
2.3PyCharm遠程連接服務(wù)器
2.4screen任務(wù)管理
2.5Docker技術(shù)
2.6小結(jié)
第3章自然語言處理的發(fā)展進程
3.1人工規(guī)則與自然語言處理
3.2機器學(xué)習(xí)與自熱語言處理
3.2.1詞袋模型
3.2.2ngram
3.2.3頻率與逆文檔頻率
3.3深度學(xué)習(xí)與自然語言處理
3.4小結(jié)
第4章無監(jiān)督學(xué)習(xí)的原理與應(yīng)用(30min)
4.1淺層無監(jiān)督預(yù)訓(xùn)練模型
4.2深層無監(jiān)督預(yù)訓(xùn)練模型
4.2.1BERT
4.2.2SelfAttention Layer原理
4.2.3SelfAttention Layer的內(nèi)部運算邏輯
4.2.4MultiHead SelfAttention
4.2.5Layer Normalization
4.2.6BERT預(yù)訓(xùn)練
4.2.7BERT的微調(diào)過程
4.3其他預(yù)訓(xùn)練模型
4.3.1RoBERTa
4.3.2ERNIE
4.3.3BERT_WWM
4.3.4ALBERT
4.3.5Electra
4.3.6NEZHA
4.3.7NLP預(yù)訓(xùn)練模型對比
4.4自然語言處理四大下游任務(wù)
4.4.1句子對分類任務(wù)
4.4.2單句子分類任務(wù)
4.4.3問答任務(wù)
4.4.4單句子標注任務(wù)
4.5小結(jié)
第5章無監(jiān)督學(xué)習(xí)進階
5.1生成式對抗網(wǎng)絡(luò)
5.2元學(xué)習(xí)
5.2.1MetricBased Method
5.2.2ModelBased Method
5.2.3PretrainBased Method
5.3小結(jié)
第6章預(yù)訓(xùn)練
6.1賽題任務(wù)
6.2環(huán)境搭建
6.3代碼框架
6.4數(shù)據(jù)分析實踐
6.4.1數(shù)據(jù)預(yù)處理
6.4.2預(yù)訓(xùn)練任務(wù)模型構(gòu)建與數(shù)據(jù)生成
6.4.3模型訓(xùn)練
6.5小結(jié)
第7章文本分類(45min)
7.1數(shù)據(jù)分析
7.2環(huán)境搭建
7.3代碼框架
7.4文本分類實踐
7.4.1數(shù)據(jù)預(yù)處理
7.4.2模型構(gòu)建
7.4.3數(shù)據(jù)迭代器
7.4.4模型訓(xùn)練
7.4.5模型預(yù)測
7.5小結(jié)
第8章機器閱讀理解(16min)
8.1機器閱讀理解的定義
8.1.1完形填空
8.1.2多項選擇
8.1.3片段抽取
8.1.4自由回答
8.1.5其他任務(wù)
8.2評測方法
8.3研究方法
8.3.1基于規(guī)則的方法
8.3.2基于神經(jīng)網(wǎng)絡(luò)的方法
8.3.3基于深層語義的圖匹配方法
8.4經(jīng)典結(jié)構(gòu)
8.4.1BiDAF模型
8.4.2QANet模型
8.4.3基于BERT模型的機器閱讀理解
8.5多文檔機器閱讀理解實踐
8.5.1疫情政務(wù)問答助手
8.5.2信息檢索
8.5.3多任務(wù)學(xué)習(xí)
8.5.4實踐
8.6小結(jié)
第9章命名實體識別(15min)
9.1NER技術(shù)的發(fā)展現(xiàn)狀
9.2命名實體識別的定義
9.3命名實體識別模型
9.3.1預(yù)訓(xùn)練模型
9.3.2下接結(jié)構(gòu)
9.3.3條件隨機場
9.4命名實體識別實驗
9.4.1數(shù)據(jù)介紹
9.4.2評估指標
9.4.3數(shù)據(jù)預(yù)處理
9.4.4模型構(gòu)建
9.4.5數(shù)據(jù)迭代器
9.4.6模型訓(xùn)練
9.4.7模型預(yù)測
9.5小結(jié)
第10章文本生成(26min)
10.1文本生成的發(fā)展現(xiàn)狀
10.1.1文本生成模板
10.1.2變分自編碼器
10.1.3序列到序列技術(shù)
10.2基于預(yù)訓(xùn)練模型的文本生成模型
10.3文本生成任務(wù)實踐
10.3.1數(shù)據(jù)介紹
10.3.2評估指標
10.3.3模型構(gòu)建
10.3.4數(shù)據(jù)迭代器
10.3.5模型訓(xùn)練
10.3.6模型預(yù)測
10.4小結(jié)
第11章?lián)p失函數(shù)與模型瘦身
11.1損失函數(shù)
11.2常用的損失函數(shù)
11.2.1回歸
11.2.2分類
11.3損失函數(shù)的進階
11.3.1樣本不均衡
11.3.2Focal Loss
11.3.3Dice Loss
11.3.4拒識
11.3.5帶噪學(xué)習(xí)
11.4模型瘦身
11.4.1知識蒸餾
11.4.2模型剪枝
11.5小結(jié)
 

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號