注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡人工智能PYTHON分布式機器學習

PYTHON分布式機器學習

PYTHON分布式機器學習

定 價:¥99.00

作 者: (美)冠華·王
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302633112 出版時間: 2023-04-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內容簡介

  《Python分布式機器學習》本書詳細闡述了與分布式機器學習相關的基本解決方案,主要包括拆分輸入數(shù)據(jù)、參數(shù)服務器和All-Reduce、構建數(shù)據(jù)并行訓練和服務管道、瓶頸和解決方案、拆分模型、管道輸入和層拆分、實現(xiàn)模型并行訓練和服務工作流程、實現(xiàn)更高的吞吐量和更低的延遲、數(shù)據(jù)并行和模型并行的混合、聯(lián)合學習和邊緣設備、彈性模型訓練和服務、進一步加速的高級技術等內容。此外,本書還提供了相應的示例、代碼,以幫助讀者進一步理解相關方案的實現(xiàn)過程。本書適合作為高等院校計算機及相關專業(yè)的教材和教學參考書,也可作為相關開發(fā)人員的自學用書和參考手冊。

作者簡介

  冠華·王是加州大學伯克利分校 RISELab 的計算機科學博士(導師為Ion Stoica教授)。他的研究主要集中在機器學習系統(tǒng)領域,包括快速集體通信、高效并行模型訓練和實時模型服務等。他的研究得到了學術界和工業(yè)界的廣泛關注。他曾受邀在頂級大學(麻省理工學院、斯坦福大學、卡內基梅隆大學和普林斯頓大學)和大型科技公司(Facebook/Meta和微軟)進行演講。他在香港科技大學獲得碩士學位,在中國東南大學獲得學士學位。他在無線網(wǎng)絡方面還有一些很好的研究。他喜歡踢足球,并且曾在加州灣區(qū)跑過多次半程馬拉松。

圖書目錄

第1篇 數(shù) 據(jù) 并 行

第1章 拆分輸入數(shù)據(jù) 3

1.1 單節(jié)點訓練太慢 3

1.1.1 數(shù)據(jù)加載帶寬和模型訓練帶寬之間的不匹配 5

1.1.2 流行數(shù)據(jù)集的單節(jié)點訓練時間 5

1.1.3 使用數(shù)據(jù)并行加速訓練過程 7

1.2 數(shù)據(jù)并行 8

1.2.1 隨機梯度下降 11

1.2.2 模型同步 12

1.3 超參數(shù)調優(yōu) 14

1.3.1 全局批次大小 14

1.3.2 學習率調整 14

1.3.3 模型同步方案 15

1.4 小結 16

第2章 參數(shù)服務器和All-Reduce 17

2.1 技術要求 18

2.2 參數(shù)服務器架構 18

2.2.1 參數(shù)服務器架構中的通信瓶頸 19

2.2.2 在參數(shù)服務器之間分片模型 21

2.3 實現(xiàn)參數(shù)服務器 23

2.3.1 定義模型層 23

2.3.2 定義參數(shù)服務器 24

2.3.3 定義工作節(jié)點 25

2.3.4 在參數(shù)服務器和工作節(jié)點之間傳遞數(shù)據(jù) 26

2.4 參數(shù)服務器的問題 27

2.4.1 情況1—更多參數(shù)服務器 28

2.4.2 情況2—更多工作節(jié)點 28

2.4.3 參數(shù)服務器架構為從業(yè)者帶來了很高的編碼復雜度 28

2.5 All-Reduce架構 29

2.5.1 Reduce 29

2.5.2 All-Reduce 30

2.5.3 Ring All-Reduce 31

2.6 集體通信 33

2.6.1 Broadcast 33

2.6.2 Gather 34

2.6.3 All-Gather 35

2.7 小結 36

第3章 構建數(shù)據(jù)并行訓練和服務管道 37

3.1 技術要求 37

3.2 數(shù)據(jù)并行訓練管道概述 38

3.2.1 輸入預處理 39

3.2.2 輸入數(shù)據(jù)分區(qū) 40

3.2.3 數(shù)據(jù)加載 41

3.2.4 數(shù)據(jù)訓練 41

3.2.5 模型同步 42

3.2.6 模型更新 42

3.3 單機多GPU和多機多GPU 42

3.3.1 單機多GPU 43

3.3.2 多機多GPU 46

3.4 檢查點和容錯 52

3.4.1 模型檢查點 52

3.4.2 加載模型檢查點 53

3.5 模型評估和超參數(shù)調優(yōu) 55

3.6 數(shù)據(jù)并行中的模型服務 57

3.7 小結 59

第4章 瓶頸和解決方案 61

4.1 數(shù)據(jù)并行訓練中的通信瓶頸 62

4.1.1 通信工作負載分析 62

4.1.2 參數(shù)服務器架構 62

4.1.3 All-Reduce架構 65

4.1.4 最新通信方案的效率問題 68

4.2 利用空閑鏈路和主機資源 69

4.2.1 Tree All-Reduce 69

4.2.2 通過PCIe和NVLink進行混合數(shù)據(jù)傳輸 75

4.3 設備內存瓶頸 76

4.4 重新計算和量化 77

4.4.1 重新計算 77

4.4.2 量化 81

4.5 小結 82

第2篇 模 型 并 行

第5章 拆分模型 85

5.1 技術要求 86

5.2 單節(jié)點訓練錯誤—內存不足 86

5.2.1 在單個GPU上微調BERT 86

5.2.2 嘗試將一個巨型模型打包到單個GPU中 88

5.3 ELMo、BERT和GPT 90

5.3.1 基本概念 91

5.3.2 循環(huán)神經(jīng)網(wǎng)絡 94

5.3.3 ELMo 97

5.3.4 BERT 99

5.3.5 GPT 101

5.4 預訓練和微調 102

5.5 最先進的硬件 103

5.5.1 P100、V100和DGX-1 103

5.5.2 NVLink 104

5.5.3 A100和DGX-2 105

5.5.4 NVSwitch 105

5.6 小結 105

第6章 管道輸入和層拆分 107

6.1 普通模型并行的低效問題 108

6.1.1 前向傳播 109

6.1.2 反向傳播 110

6.1.3 前向傳播和反向傳播之間的GPU空閑時間 111

6.2 管道輸入 114

6.3 管道并行的優(yōu)缺點 118

6.3.1 管道并行的優(yōu)勢 118

6.3.2 管道并行的缺點 118

6.4 層拆分 119

6.5 關于層內模型并行的注意事項 121

6.6 小結 122

第7章 實現(xiàn)模型并行訓練和服務工作流程 123

7.1 技術要求 124

7.2 整個模型并行管道概述 124

7.2.1 模型并行訓練概述 124

7.2.2 實現(xiàn)模型并行訓練管道 125

7.2.3 指定GPU之間的通信協(xié)議 127

7.2.4 模型并行服務 131

7.3 微調Transformer 134

7.4 模型并行中的超參數(shù)調優(yōu) 136

7.4.1 平衡GPU之間的工作負載 136

7.4.2 啟用/禁用管道并行 136

7.5 NLP模型服務 137

7.6 小結 138

第8章 實現(xiàn)更高的吞吐量和更低的延遲 139

8.1 技術要求 140

8.2 凍結層 140

8.2.1 在前向傳播期間凍結層 141

8.2.2 在前向傳播期間降低計算成本 144

8.2.3 在反向傳播期間凍結層 145

8.3 探索內存和存儲資源 147

8.4 了解模型分解和蒸餾 150

8.4.1 模型分解 151

8.4.2 模型蒸餾 153

8.5 減少硬件中的位數(shù) 153

8.6 小結 154

第3篇 高級并行范式

第9章 數(shù)據(jù)并行和模型并行的混合 157

9.1 技術要求 158

9.2 Megatron-LM用例研究 158

9.2.1 模型并行和層拆分 159

9.2.2 按行試錯法 161

9.2.3 按列試錯法 165

9.2.4 跨機數(shù)據(jù)并行 168

9.3 Megatron-LM的實現(xiàn) 169

9.4 Mesh-TensorFlow用例研究 171

9.5 Mesh-TensorFlow的實現(xiàn) 172

9.6 Megatron-LM和Mesh-TensorFlow的比較 172

9.7 小結 173

第10章 聯(lián)合學習和邊緣設備 175

10.1 技術要求 176

10.2 共享知識而不共享數(shù)據(jù) 176

10.2.1 傳統(tǒng)數(shù)據(jù)并行模型訓練范式 176

10.2.2 工作節(jié)點之間沒有輸入共享 178

10.2.3 在工作節(jié)點之間通信以同步梯度 179

10.3 用例研究:TensorFlow Federated 183

10.4 使用TinyML運行邊緣設備 185

10.5 用例研究:TensorFlow Lite 185

10.6 小結 186

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號