定 價(jià):¥68.00
作 者: | 林薈 |
出版社: | 電子工業(yè)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 工業(yè)技術(shù) 自動(dòng)化技術(shù) |
ISBN: | 9787121326585 | 出版時(shí)間: | 2017-10-01 | 包裝: | |
開(kāi)本: | 16開(kāi) | 頁(yè)數(shù): | 332 | 字?jǐn)?shù): |
第1章白話數(shù)據(jù)科學(xué)1
1.1什么是數(shù)據(jù)科學(xué)3
1.2什么是數(shù)據(jù)科學(xué)家5
1.2.1數(shù)據(jù)科學(xué)家需要的技能6
1.2.2數(shù)據(jù)科學(xué)算法總結(jié)10
1.3數(shù)據(jù)科學(xué)可以解決什么問(wèn)題20
1.3.1前提要求20
1.3.2問(wèn)題種類(lèi)22
1.4小結(jié)25
第2章數(shù)據(jù)集26
2.1服裝消費(fèi)者數(shù)據(jù)26
2.2航空公司滿意度調(diào)查33
2.3生豬疫情風(fēng)險(xiǎn)預(yù)測(cè)數(shù)據(jù)37
第3章數(shù)據(jù)分析流程41
3.1從問(wèn)題到數(shù)據(jù)42
3.2從數(shù)據(jù)到信息44
3.3從信息到行動(dòng)46
第4章數(shù)據(jù)預(yù)處理47
4.1介紹47
4.2數(shù)據(jù)清理50
4.3缺失值填補(bǔ)52
4.3.1中位數(shù)或眾數(shù)填補(bǔ)53
4.3.2K—近鄰填補(bǔ)54
4.3.3裝袋樹(shù)填補(bǔ)56
4.4中心化和標(biāo)量化56
4.5有偏分布59
4.6處理離群點(diǎn)63
4.7共線性66
4.8稀疏變量70
4.9編碼名義變量71
4.10小結(jié)73
第5章數(shù)據(jù)操作75
5.1數(shù)據(jù)讀寫(xiě)76
5.1.1取代傳統(tǒng)數(shù)據(jù)框的tibble對(duì)象76
5.1.2高效數(shù)據(jù)讀寫(xiě):readr包80
5.1.3數(shù)據(jù)表對(duì)象讀取83
5.2數(shù)據(jù)整合91
5.2.1base包:apply()91
5.2.2plyr包:ddply()函數(shù)93
5.2.3dplyr包96
5.3數(shù)據(jù)整形102
5.3.1reshape2包102
5.3.2tidyr包105
5.4小結(jié)107
第6章基礎(chǔ)建模技術(shù)109
6.1有監(jiān)督和無(wú)監(jiān)督109
6.2誤差及其來(lái)源111
6.2.1系統(tǒng)誤差和隨機(jī)誤差111
6.2.2因變量誤差117
6.2.3自變量誤差121
6.3數(shù)據(jù)劃分和再抽樣122
6.3.1劃分訓(xùn)練集和測(cè)試集123
6.3.2重抽樣131
6.4小結(jié)135
第7章模型評(píng)估度量136
7.1回歸模型評(píng)估度量136
7.2分類(lèi)模型評(píng)估度量139
7.2.1Kappa統(tǒng)計(jì)量141
7.2.2ROC曲線143
7.2.3提升圖145
7.3小結(jié)146
第8章特征工程148
8.1特征構(gòu)建149
8.2特征提取152
8.2.1初步探索特征153
8.2.2主成分分析158
8.2.3探索性因子分析163
8.2.4高維標(biāo)度化167
8.2.5知識(shí)擴(kuò)展:3種降維特征提取方法的理論171
8.3特征選擇177
8.3.1過(guò)濾法178
8.3.2繞封法188
8.4小結(jié)195
第9章線性回歸及其衍生196
9.1普通線性回歸197
9.1.1最小二乘線性模型197
9.1.2回歸診斷201
9.1.3離群點(diǎn)、高杠桿點(diǎn)和強(qiáng)影響點(diǎn)204
9.2收縮方法205
9.2.1嶺回歸205
9.2.2Lasso209
9.2.3彈性網(wǎng)絡(luò)212
9.3知識(shí)擴(kuò)展:LASSO的變量選擇功能213
9.4主成分和偏最小二乘回歸215
9.5小結(jié)221
第10章廣義線性模型壓縮方法222
10.1初識(shí)GLMNET223
10.2收縮線性回歸227
10.3邏輯回歸235
10.3.1普通邏輯回歸235
10.3.2收縮邏輯回歸236
10.3.3知識(shí)擴(kuò)展:群組lasso邏輯回歸239
10.4收縮多項(xiàng)回歸243
10.5泊松收縮回歸246
10.6小結(jié)249
第11章樹(shù)模型250
11.1分裂準(zhǔn)則252
11.2樹(shù)的修剪256
11.3回歸樹(shù)和決策樹(shù)260
11.4裝袋樹(shù)268
11.5隨機(jī)森林273
11.6助推法277
11.7知識(shí)擴(kuò)展:助推法的可加模型框架283
11.8知識(shí)擴(kuò)展:助推樹(shù)的數(shù)學(xué)框架286
11.8.1數(shù)學(xué)表達(dá)286
11.8.2梯度助推數(shù)值優(yōu)化289
11.9小結(jié)290
第12章神經(jīng)網(wǎng)絡(luò)292
12.1投影尋蹤回歸(PROJECTIONPURSUITREGRESSION)293
12.2神經(jīng)網(wǎng)絡(luò)(NEURALNETWORKS)296
12.3神經(jīng)網(wǎng)絡(luò)擬合299
12.4訓(xùn)練神經(jīng)網(wǎng)絡(luò)300
12.5用CARET包訓(xùn)練神經(jīng)網(wǎng)絡(luò)302
12.6小結(jié)311
參考文獻(xiàn)312