注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能實(shí)用機(jī)器學(xué)習(xí)

實(shí)用機(jī)器學(xué)習(xí)

實(shí)用機(jī)器學(xué)習(xí)

定 價(jià):¥79.00

作 者: 孫亮,黃倩 著
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 計(jì)算機(jī)/網(wǎng)絡(luò) 人工智能

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787115446466 出版時(shí)間: 2017-03-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 338 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  大數(shù)據(jù)時(shí)代為機(jī)器學(xué)習(xí)的應(yīng)用提供了廣闊的空間,各行各業(yè)涉及數(shù)據(jù)分析的工作都需要使用機(jī)器學(xué)習(xí)算法。本書(shū)圍繞實(shí)際數(shù)據(jù)分析的流程展開(kāi),著重介紹數(shù)據(jù)探索、數(shù)據(jù)預(yù)處理和常用的機(jī)器學(xué)習(xí)算法模型。本書(shū)從解決實(shí)際問(wèn)題的角度出發(fā),介紹回歸算法、分類(lèi)算法、推薦算法、排序算法和集成學(xué)習(xí)算法。在介紹每種機(jī)器學(xué)習(xí)算法模型時(shí),書(shū)中不但闡述基本原理,而且討論模型的評(píng)價(jià)與選擇。為方便讀者學(xué)習(xí)各種算法,本書(shū)介紹了R語(yǔ)言中相應(yīng)的軟件包并給出了示例程序。本書(shū)的一大特色就是貼近工程實(shí)踐。首先,本書(shū)僅側(cè)重介紹當(dāng)前工業(yè)界常用的機(jī)器學(xué)習(xí)算法,而不追求知識(shí)內(nèi)容的覆蓋面;其次,本書(shū)在介紹每類(lèi)機(jī)器學(xué)習(xí)算法時(shí),力求通俗易懂地闡述算法思想,而不追求理論的深度,讓讀者借助代碼獲得直觀(guān)的體驗(yàn)。

作者簡(jiǎn)介

  孫亮,阿里巴巴數(shù)據(jù)科學(xué)與技術(shù)研究院高級(jí)專(zhuān)家。曾任微軟Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)部門(mén)高級(jí)數(shù)據(jù)科學(xué)家,先后畢業(yè)于南京大學(xué)計(jì)算機(jī)系(1999-2003)、中國(guó)科學(xué)院軟件研究所(2003-2006)、美國(guó)亞利桑那州立大學(xué)計(jì)算機(jī)系(2006-2011),研究興趣包括機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘及其實(shí)際應(yīng)用等。近年來(lái)參加了KDD Cup、Heritage HealthPrize等多項(xiàng)數(shù)據(jù)挖掘競(jìng)賽并多次取得優(yōu)異成績(jī)。在IEEE T-PAMI、NIPS、ICML、SIGKDD等機(jī)器學(xué)習(xí)領(lǐng)域的知名國(guó)際期刊和國(guó)際會(huì)議上發(fā)表論文近20篇,著有機(jī)器學(xué)習(xí)英文專(zhuān)著1部。 黃倩,河海大學(xué)副研究員,先后畢業(yè)于南京大學(xué)計(jì)算機(jī)系(1999-2003)、中國(guó)科學(xué)院計(jì)算技術(shù)研究所(2003-2010),研究興趣包括多媒體大數(shù)據(jù)處理、機(jī)器學(xué)習(xí)、云計(jì)算等。參加過(guò)多個(gè)973、863、國(guó)家自然科學(xué)基金項(xiàng)目的研究,參與過(guò)AVS、H.265 HEVC等國(guó)內(nèi)外視頻壓縮標(biāo)準(zhǔn)的制訂?,F(xiàn)主持包括國(guó)家自然科學(xué)基金在內(nèi)的多個(gè)國(guó)家、省市級(jí)項(xiàng)目,并獲南京市江寧區(qū)首批高層次創(chuàng)業(yè)人才“創(chuàng)聚工程”項(xiàng)目資助。在相關(guān)領(lǐng)域的知名國(guó)際期刊和國(guó)際會(huì)議上發(fā)表論文逾20篇,出版譯著4本,參編專(zhuān)著1部。

圖書(shū)目錄

第1章 引論 1
1.1 什么是機(jī)器學(xué)習(xí) 1
1.2 機(jī)器學(xué)習(xí)算法的分類(lèi) 2
1.3 實(shí)際應(yīng)用 3
1.3.1 病人住院時(shí)間預(yù)測(cè) 3
1.3.2 信用分?jǐn)?shù)估計(jì) 4
1.3.3 Netflix上的影片推薦 4
1.3.4 酒店推薦 5
1.3.5 討論 6
1.4 本書(shū)概述 7
1.4.1 本書(shū)結(jié)構(gòu) 9
1.4.2 閱讀材料及其他資源 10
第2章 R語(yǔ)言 12
2.1 R的簡(jiǎn)單介紹 12
2.2 R的初步體驗(yàn) 13
2.3 基本語(yǔ)法 14
2.3.1 語(yǔ)句 14
2.3.2 函數(shù) 17
2.4 常用數(shù)據(jù)結(jié)構(gòu) 19
2.4.1 向量 19
2.4.2 因子 23
2.4.3 矩陣 24
2.4.4 數(shù)據(jù)框 26
2.4.5 列表 29
2.4.6 下標(biāo)系統(tǒng) 33
2.5 公式對(duì)象和apply函數(shù) 34
2.6 R軟件包 36
2.6.1 軟件包的安裝 37
2.6.2 軟件包的使用 38
2.6.3 軟件包的開(kāi)發(fā) 38
2.7 網(wǎng)絡(luò)資源 38
第3章 數(shù)學(xué)基礎(chǔ) 39
3.1 概率 39
3.1.1 基本概念 39
3.1.2 基本公式 40
3.1.3 常用分布 42
3.1.4 隨機(jī)向量及其分布 43
3.1.5 隨機(jī)變量的數(shù)字特征 46
3.1.6 隨機(jī)向量的數(shù)字特征 48
3.2 統(tǒng)計(jì) 49
3.2.1 常用數(shù)據(jù)特征 49
3.2.2 參數(shù)估計(jì) 52
3.3 矩陣 54
3.3.1 基本概念 54
3.3.2 基本運(yùn)算 56
3.3.3 特征值與特征向量 57
3.3.4 矩陣分解 60
3.3.5 主成分分析 62
3.3.6 R中矩陣的計(jì)算 68
第4章 數(shù)據(jù)探索和預(yù)處理 74
4.1 數(shù)據(jù)類(lèi)型 74
4.2 數(shù)據(jù)探索 75
4.2.1 常用統(tǒng)計(jì)量 76
4.2.2 使用R實(shí)際探索數(shù)據(jù) 76
4.3 數(shù)據(jù)預(yù)處理 82
4.3.1 缺失值的處理 82
4.3.2 數(shù)據(jù)的標(biāo)準(zhǔn)化 83
4.3.3 刪除已有變量 85
4.3.4 數(shù)據(jù)的變換 86
4.3.5 構(gòu)建新的變量:?jiǎn)∽兞俊?6
4.3.6 離群數(shù)據(jù)的處理 88
4.4 數(shù)據(jù)可視化 89
4.4.1 直方圖 89
4.4.2 柱狀圖 92
4.4.3 莖葉圖 95
4.4.4 箱線(xiàn)圖 96
4.4.5 散點(diǎn)圖 100
第5章 回歸分析 104
5.1 回歸分析的基本思想 104
5.2 線(xiàn)性回歸和最小二乘法 105
5.2.1 最小二乘法的幾何解釋 106
5.2.2 線(xiàn)性回歸和極大似然估計(jì) 107
5.3 嶺回歸和Lasso 108
5.3.1 嶺回歸 108
5.3.2 Lasso與稀疏解 110
5.3.3 Elastic Net 114
5.4 回歸算法的評(píng)價(jià)和選取 114
5.4.1 均方差和均方根誤差 114
5.4.2 可決系數(shù) 114
5.4.3 偏差-方差權(quán)衡 115
5.5 案例分析 118
5.5.1 數(shù)據(jù)導(dǎo)入和探索 118
5.5.2 數(shù)據(jù)預(yù)處理 120
5.5.3 將數(shù)據(jù)集分成訓(xùn)練集和測(cè)試集 121
5.5.4 建立一個(gè)簡(jiǎn)單的線(xiàn)性回歸模型 121
5.5.5 建立嶺回歸和Lasso模型 122
5.5.6 選取合適的模型 124
5.5.7 構(gòu)造新的變量 126
5.6 小結(jié) 126
第6章 分類(lèi)算法 127
6.1 分類(lèi)的基本思想 127
6.2 決策樹(shù) 130
6.2.1 基本原理 130
6.2.2 決策樹(shù)學(xué)習(xí) 131
6.2.3 過(guò)擬合和剪枝 138
6.2.4 實(shí)際使用 139
6.2.5 討論 148
6.3 邏輯回歸 148
6.3.1 sigmoid函數(shù)的性質(zhì) 148
6.3.2 通過(guò)極大似然估計(jì)來(lái)估計(jì)參數(shù) 149
6.3.3 牛頓法 151
6.3.4 正則化項(xiàng)的引入 153
6.3.5 實(shí)際使用 154
6.4 支持向量機(jī) 161
6.4.1 基本思想:最大化分類(lèi)間隔 161
6.4.2 最大分類(lèi)間隔的數(shù)學(xué)表示 163
6.4.3 如何處理線(xiàn)性不可分的數(shù)據(jù) 164
6.4.4 Hinge損失函數(shù) 166
6.4.5 對(duì)偶問(wèn)題 168
6.4.6 非線(xiàn)性支持向量機(jī)和核技巧 170
6.4.7 實(shí)際使用 173
6.5 損失函數(shù)和不同的分類(lèi)算法 175
6.5.1 損失函數(shù) 175
6.5.2 正則化項(xiàng) 178
6.6 交叉檢驗(yàn)和caret包 180
6.6.1 模型選擇和交叉檢驗(yàn) 180
6.6.2 在R中實(shí)現(xiàn)交叉檢驗(yàn)以及caret包 182
6.7 分類(lèi)算法的評(píng)價(jià)和比較 192
6.7.1 準(zhǔn)確率 193
6.7.2 混淆矩陣 193
6.7.3 精確率、召回率和F1度量 195
6.7.4 ROC曲線(xiàn)和AUC 196
6.7.5 R中評(píng)價(jià)標(biāo)準(zhǔn)的計(jì)算 199
6.8 不平衡分類(lèi)問(wèn)題 201
6.8.1 使用不同的算法評(píng)價(jià)標(biāo)準(zhǔn) 201
6.8.2 樣本權(quán)值 201
6.8.3 取樣方法 202
6.8.4 代價(jià)敏感學(xué)習(xí) 203
第7章 推薦算法 205
7.1 推薦系統(tǒng)基礎(chǔ) 205
7.1.1 常用符號(hào) 208
7.1.2 推薦算法的評(píng)價(jià)標(biāo)準(zhǔn) 209
7.2 基于內(nèi)容的推薦算法 210
7.3 基于矩陣分解的算法 211
7.3.1 無(wú)矩陣分解的基準(zhǔn)方法 211
7.3.2 基于奇異值分解的推薦算法 212
7.3.3 基于SVD推薦算法的變體 216
7.4 基于鄰域的推薦算法 222
7.4.1 基于用戶(hù)的鄰域推薦算法 223
7.4.2 基于商品的鄰域推薦算法 225
7.4.3 混合算法 226
7.4.4 相似度的計(jì)算 227
7.5 R中recommenderlab的實(shí)際 使用 232
7.6 推薦算法的評(píng)價(jià)和選取 250
第8章 排序?qū)W習(xí) 253
8.1 排序?qū)W習(xí)簡(jiǎn)介 253
8.1.1 解決排序問(wèn)題的基本思路 254
8.1.2 構(gòu)造特征 255
8.1.3 獲取相關(guān)度分?jǐn)?shù) 256
8.1.4 數(shù)學(xué)符號(hào) 257
8.2 排序算法的評(píng)價(jià) 257
8.2.1 MAP 258
8.2.2 DCG 260
8.2.3 NDCG 261
8.2.4 討論 261
8.3 逐點(diǎn)方法 262
8.3.1 基于SVM的逐點(diǎn)排序方法 263
8.3.2 逐點(diǎn)方法討論 264
8.4 逐對(duì)方法 265
8.4.1 Ranking SVM算法 265
8.4.2 IR-SVM算法 266
8.4.3 RankNet算法 267
8.4.4 LambdaRank算法 271
8.4.5 LambdaMART算法 273
8.5 逐列方法 279
8.5.1 SVMmap算法 279
8.5.2 討論 283
第9章 集成學(xué)習(xí) 284
9.1 集成學(xué)習(xí)簡(jiǎn)介 284
9.2 bagging簡(jiǎn)介 285
9.3 隨機(jī)森林 289
9.3.1 訓(xùn)練隨機(jī)森林的基本流程 289
9.3.2 利用隨機(jī)森林估計(jì)變量的 重要性 290
9.3.3 隨機(jī)森林的實(shí)際使用 291
9.4 boosting簡(jiǎn)介 300
9.4.1 boosting和指數(shù)損失函數(shù) 301
9.4.2 AdaBoost算法 302
9.4.3 AdaBoost的實(shí)際使用 306
9.4.4 討論 311
9.5 提升決策樹(shù)和梯度提升算法 311
9.5.1 提升決策樹(shù)和梯度提升算法的基本原理 311
9.5.2 如何避免過(guò)擬合 315
9.5.3 gbm包的實(shí)際使用 318
9.5.4 討論 327
9.6 學(xué)習(xí)器的聚合及stacking 328
9.6.1 簡(jiǎn)單平均 328
9.6.2 加權(quán)平均 329
9.6.3 stacking的基本思想及應(yīng)用 329
9.7 小結(jié) 331
參考文獻(xiàn) 332
索引 334

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)