定 價:¥118.00
作 者: | (英)赫芬·I.里斯(Hefin Rhys),但波 |
出版社: | 清華大學(xué)出版社 |
叢編項: | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302578277 | 出版時間: | 2021-06-01 | 包裝: | |
開本: | 16開 | 頁數(shù): | 字?jǐn)?shù): |
目 錄
第Ⅰ部分 簡介
第1章 機器學(xué)習(xí)介紹 2
1.1 機器學(xué)習(xí)的概念 3
1.2 機器學(xué)習(xí)算法的分類 7
1.3 關(guān)于機器學(xué)習(xí)道德影響的思考 12
1.4 使用R語言進行機器學(xué)習(xí)的原因 13
1.5 使用哪些數(shù)據(jù)集 13
1.6 從本書可以學(xué)到什么 13
1.7 本章小結(jié) 14
第2章 使用tidyverse整理、操作和繪制數(shù)據(jù) 15
2.1 tidyverse和整潔數(shù)據(jù)的概念 15
2.2 加載tidyverse 17
2.3 tibble程序包及其功能介紹 17
2.4 dplyr程序包及其功能介紹 21
2.5 ggplot2程序包及其功能介紹 26
2.6 tidyr程序包及其功能介紹 29
2.7 purrr程序包及其功能介紹 32
2.8 本章小結(jié) 38
2.9 練習(xí)題答案 38
第Ⅱ部分 分類算法
第3章 基于相似性的k近鄰分類 42
3.1 k近鄰算法的概念 42
3.2 建立第一個kNN模型 45
3.3 平衡模型誤差的兩個來源:偏差-方差權(quán)衡 51
3.4 運用交叉驗證判斷是否過擬合或欠擬合 52
3.5 交叉驗證kNN模型 53
3.6 算法將要學(xué)習(xí)的內(nèi)容以及它們必須知道的內(nèi)容:參數(shù)和超參數(shù) 59
3.7 調(diào)節(jié)k值以改進模型 60
3.8 kNN算法的優(yōu)缺點 64
3.9 本章小結(jié) 64
3.10 練習(xí)題答案 65
第4章 對數(shù)幾率回歸分類 67
4.1 什么是對數(shù)幾率回歸 67
4.2 建立第一個對數(shù)幾率回歸模型 74
4.3 交叉驗證對數(shù)幾率回歸模型 81
4.4 理解模型:幾率比 83
4.5 使用模型進行預(yù)測 84
4.6 對數(shù)幾率回歸算法的優(yōu)缺點 84
4.7 本章小結(jié) 85
4.8 練習(xí)題答案 85
第5章 基于判別分析的最大分離方法 88
5.1 什么是判別分析 88
5.2 構(gòu)建線性和二次判別模型 95
5.3 LDA和QDA算法的優(yōu)缺點 100
5.4 本章小結(jié) 101
5.5 練習(xí)題答案 101
第6章 樸素貝葉斯和支持向量機分類算法 103
6.1 什么是樸素貝葉斯算法 104
6.2 建立第一個樸素貝葉斯模型 107
6.3 樸素貝葉斯算法的優(yōu)缺點 110
6.4 什么是支持向量機(SVM)算法 110
6.5 構(gòu)建第一個SVM模型 117
6.6 交叉驗證SVM模型 123
6.7 SVM算法的優(yōu)缺點 124
6.8 本章小結(jié) 124
6.9 練習(xí)題答案 125
第7章 決策樹分類算法 127
7.1 什么是遞歸分區(qū)算法 127
7.2 構(gòu)建第一個決策樹模型 133
7.3 加載和研究zoo數(shù)據(jù)集 134
7.4 訓(xùn)練決策樹模型 134
7.5 交叉驗證決策樹模型 139
7.6 決策樹算法的優(yōu)缺點 140
7.7 本章小結(jié) 140
第8章 使用隨機森林算法和boosting技術(shù)改進決策樹 142
8.1 集成學(xué)習(xí)技術(shù):bagging、boosting和stacking 142
8.2 建立第一個隨機森林模型 148
8.3 建立第一個XGBoost模型 150
8.4 隨機森林和XGBoost算法的優(yōu)缺點 155
8.5 在算法之間進行基準(zhǔn)測試 155
8.6 本章小結(jié) 156
第Ⅲ部分 回歸算法
第9章 線性回歸 158
9.1 什么是線性回歸 158
9.2 建立第一個線性回歸模型 163
9.3 線性回歸的優(yōu)缺點 178
9.4 本章小結(jié) 178
9.5 練習(xí)題答案 179
第10章 廣義加性模型的非線性回歸 180
10.1 使用多項式項使線性回歸非線性 180
10.2 更大的靈活性:樣條曲線和廣義加性模型 182
10.3 建立第一個GAM 184
10.4 GAM的優(yōu)缺點 188
10.5 本章小結(jié) 188
10.6 練習(xí)題答案 189
第11章 利用嶺回歸、LASSO回歸和彈性網(wǎng)絡(luò)控制過擬合 190
11.1 正則化的概念 190
11.2 嶺回歸的概念 191
11.3 L2范數(shù)的定義及其在嶺回歸中的應(yīng)用 193
11.4 L1范數(shù)的定義及其在LASSO中的應(yīng)用 195
11.5 彈性網(wǎng)絡(luò)的定義 197
11.6 建立嶺回歸、LASSO和彈性網(wǎng)絡(luò)模型 198
11.7 對嶺回歸、LASSO、彈性網(wǎng)絡(luò)和OLS進行基準(zhǔn)測試并對比 210
11.8 嶺回歸、LASSO和彈性網(wǎng)絡(luò)的優(yōu)缺點 211
11.9 本章小結(jié) 212
11.10 練習(xí)題答案 212
第12章 使用kNN、隨機森林和XGBoost進行回歸 215
12.1 使用kNN算法預(yù)測連續(xù)變量 215
12.2 使用基于決策樹的算法預(yù)測連續(xù)變量 217
12.3 建立第一個kNN回歸模型 219
12.4 建立第一個隨機森林回歸模型 226
12.5 建立第一個XGBoost回歸模型 227
12.6 對kNN、隨機森林和XGBoost模型的構(gòu)建過程進行基準(zhǔn)測試 229
12.7 kNN、隨機森林和XGBoost算法的優(yōu)缺點 230
12.8 本章小結(jié) 230
12.9 練習(xí)題答案 231
第Ⅳ部分 降維算法
第13章 最大化方差的主成分分析法 234
13.1 降維的目的 234
13.2 主成分分析的概念 236
13.3 構(gòu)建第一個PCA模型 240
13.4 PCA的優(yōu)缺點 247
13.5 本章小結(jié) 247
13.6 練習(xí)題答案 247
第14章 最大化t-SNE和UMAP的相似性 249
14.1 t-SNE的含義 249
14.2 建立第一個t-SNE模型 253
14.3 UMAP的含義 256
14.4 建立第一個UMAP模型 258
14.5 t-SNE和UMAP的優(yōu)缺點 261
14.6 本章小結(jié) 261
14.7 練習(xí)題答案 262
第15章 自組織映射和局部線性嵌入 263
15.1 先決條件:節(jié)點網(wǎng)格和流形 263
15.2 自組織映射的概念 264
15.3 建立第一個SOM 268
15.4 局部線性嵌入的概念 277
15.5 建立第一個LLE 278
15.6 建立跳蚤數(shù)據(jù)集的LLE 282
15.7 SOM和LLE的優(yōu)缺點 283
15.8 本章小結(jié) 284
15.9 練習(xí)題答案 284
第Ⅴ部分 聚類算法
第16章 使用k-均值算法尋找中心聚類 288
16.1 k-均值算法的定義 288
16.2 建立第一個k-均值算法模型 292
16.3 k-均值算法的優(yōu)缺點 304
16.4 本章小結(jié) 304
16.5 練習(xí)題答案 304
第17章 層次聚類 306
17.1 什么是層次聚類 306
17.2 建立第一個聚合層次聚類模型 311
17.3 聚類穩(wěn)定嗎 318
17.4 層次聚類的優(yōu)缺點 320
17.5 本章小結(jié) 320
17.6 練習(xí)題答案 320
第18章 基于密度的聚類:DBSCAN和OPTICS 323
18.1 基于密度的聚類的定義 323
18.2 建立DBSCAN模型 331
18.3 建立OPTICS模型 343
18.4 基于密度的聚類的優(yōu)缺點 345
18.5 本章小結(jié) 346
18.6 練習(xí)題答案 346
第19章 基于混合建模的分布聚類 348
19.1 混合模型聚類的概念 348
19.2 建立第一個用于聚類的高斯混合模型 353
19.3 混合模型聚類的優(yōu)缺點 356
19.4 本章小結(jié) 357
19.5 練習(xí)題答案 357
第20章 最終筆記和進一步閱讀 359
20.1 簡要回顧機器學(xué)習(xí)概念 359
20.2 學(xué)完本書后,還可以學(xué)習(xí)哪些內(nèi)容 367
20.3 結(jié)語 369
附錄 復(fù)習(xí)統(tǒng)計學(xué)概念 370