注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計(jì)用Python動(dòng)手學(xué)機(jī)器學(xué)習(xí)

用Python動(dòng)手學(xué)機(jī)器學(xué)習(xí)

用Python動(dòng)手學(xué)機(jī)器學(xué)習(xí)

定 價(jià):¥89.00

作 者: [日] 伊藤真 著,鄭明智,司磊 譯
出版社: 人民郵電出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787115550583 出版時(shí)間: 2021-03-01 包裝: 平裝
開(kāi)本: 大32開(kāi) 頁(yè)數(shù): 348 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書(shū)是面向機(jī)器學(xué)習(xí)新手的入門(mén)書(shū),從學(xué)習(xí)環(huán)境的搭建開(kāi)始,圖文并茂地介紹了學(xué)習(xí)機(jī)器學(xué)習(xí)所需的Python知識(shí)和數(shù)學(xué)知識(shí),并在此基礎(chǔ)上結(jié)合數(shù)學(xué)式、示例程序、插圖等,抽絲剝繭般地對(duì)有監(jiān)督學(xué)習(xí)中的回歸與分類(lèi)、神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的算法與應(yīng)用、手寫(xiě)數(shù)字識(shí)別、無(wú)監(jiān)督學(xué)習(xí)的算法等進(jìn)行了介紹。本書(shū)既有圖形、代碼,又有詳細(xì)的數(shù)學(xué)式推導(dǎo)過(guò)程,大大降低了機(jī)器學(xué)習(xí)的學(xué)習(xí)門(mén)檻,即使沒(méi)有學(xué)過(guò)Python、數(shù)學(xué)基礎(chǔ)不太好,也可以看懂。

作者簡(jiǎn)介

  伊藤真(作者)日本栃木縣人,目前居住在神奈川縣。2000年獲得日本東北大學(xué)大學(xué)院信息科學(xué)博士學(xué)位,研究?jī)?nèi)容為小鼠導(dǎo)航行為的數(shù)理模型。2004年~2016年在沖繩科學(xué)技術(shù)大學(xué)院大學(xué)擔(dān)任神經(jīng)計(jì)算單元實(shí)驗(yàn)小組負(fù)責(zé)人,主要研究如何通過(guò)強(qiáng)化學(xué)習(xí)模型解釋小鼠的選擇行為和腦活動(dòng)。2017年入職Progress Technologies株式會(huì)社,研究人工智能的產(chǎn)業(yè)應(yīng)用。愛(ài)好是用瓦楞紙板做手工藝品。鄭明智(譯者)智慧醫(yī)療工程師。主要研究方向?yàn)獒t(yī)療與前沿ICT技術(shù)的結(jié)合及其應(yīng)用,密切關(guān)注人工智能、5G、量子計(jì)算等領(lǐng)域。譯有《松本行弘:編程語(yǔ)言的設(shè)計(jì)與實(shí)現(xiàn)》《深度學(xué)習(xí)基礎(chǔ)與實(shí)踐》《詳解深度學(xué)習(xí)》《白話(huà)機(jī)器學(xué)習(xí)的數(shù)學(xué)》等書(shū)。司磊(譯者)碩士畢業(yè)于日本芝浦工業(yè)大學(xué)理工學(xué)研究科,研究方向?yàn)殡姎怆娮有畔⒐W(xué),該校智能系統(tǒng)實(shí)驗(yàn)室成員。目前在某智能設(shè)備廠商任系統(tǒng)工程師。喜歡讀書(shū)、跑步、學(xué)習(xí)新知識(shí)以及嘗試實(shí)現(xiàn)一些好玩的idea。

圖書(shū)目錄

第 1章 學(xué)習(xí)前的準(zhǔn)備  1
1.1 關(guān)于機(jī)器學(xué)習(xí) 2
1.1.1 學(xué)習(xí)機(jī)器學(xué)習(xí)的竅門(mén) 4
1.1.2 機(jī)器學(xué)習(xí)中問(wèn)題的分類(lèi) 5
1.1.3 本書(shū)的結(jié)構(gòu) 6
1.2 安裝Python 7
1.3 Jupyter Notebook 11
1.3.1 Jupyter Notebook的用法 11
1.3.2 輸入Markdown格式文本 14
1.3.3 更改文件名 16
1.4 安裝Keras和TensorFlow 17
第 2章 Python基礎(chǔ)知識(shí) 19
2.1 四則運(yùn)算 20
2.1.1 四則運(yùn)算的用法 20
2.1.2 冪運(yùn)算 20
2.2 變量 21
2.2.1 利用變量進(jìn)行計(jì)算 21
2.2.2 變量的命名 21
2.3 類(lèi)型 22
2.3.1 類(lèi)型的種類(lèi) 22
2.3.2 檢查類(lèi)型 22
2.3.3 字符串 23
2.4 print 語(yǔ)句 24
2.4.1 print語(yǔ)句的用法 24
2.4.2 同時(shí)顯示數(shù)值和字符串的方法1 24
2.4.3 同時(shí)顯示數(shù)值和字符串的方法2 25
2.5 list(數(shù)組變量) 26
2.5.1 list的用法 26
2.5.2 二維數(shù)組 27
2.5.3 創(chuàng)建連續(xù)的整數(shù)數(shù)組 28
2.6 tuple(數(shù)組) 29
2.6.1 tuple的用法 29
2.6.2 讀取元素 29
2.6.3 長(zhǎng)度為1的tuple 30
2.7 if 語(yǔ)句 31
2.7.1 if語(yǔ)句的用法 31
2.7.2 比較運(yùn)算符 32
2.8 for 語(yǔ)句 33
2.8.1 for語(yǔ)句的用法 33
2.8.2 enumerate的用法 33
2.9 向量 34
2.9.1 NumPy的用法 34
2.9.2 定義向量 35
2.9.3 讀取元素 36
2.9.4 替換元素 36
2.9.5 創(chuàng)建連續(xù)整數(shù)的向量 36
2.9.6 ndarray的注意事項(xiàng) 37
2.10 矩陣 38
2.10.1 定義矩陣 38
2.10.2 矩陣的大小 38
2.10.3 讀取元素 39
2.10.4 替換元素 39
2.10.5 生成元素為0和1的ndarray 39
2.10.6 生成元素隨機(jī)的矩陣 40
2.10.7 改變矩陣的大小 41
2.11 矩陣的四則運(yùn)算 41
2.11.1 矩陣的四則運(yùn)算 41
2.11.2 標(biāo)量×矩陣 42
2.11.3 算術(shù)函數(shù) 42
2.11.4 計(jì)算矩陣乘積 43
2.12 切片 43
2.13 替換滿(mǎn)足條件的數(shù)據(jù) 45
2.14 help 46
2.15 函數(shù) 47
2.15.1 函數(shù)的用法 47
2.15.2 參數(shù)與返回值 47
2.16 保存文件 49
2.16.1 保存一個(gè)ndarray類(lèi)型變量 49
2.16.2 保存多個(gè)ndarray類(lèi)型變量 49
第3章 數(shù)據(jù)可視化 51
3.1 繪制二維圖形 52
3.1.1 繪制隨機(jī)圖形 52
3.1.2 代碼清單的格式 53
3.1.3 繪制三次函數(shù)f (x) = (x - 2) x (x + 2) 53
3.1.4 確定繪制范圍 54
3.1.5 繪制圖形 55
3.1.6 裝飾圖形 55
3.1.7 并列顯示多張圖形 58
3.2 繪制三維圖形 59
3.2.1 包含兩個(gè)變量的函數(shù) 59
3.2.2 用顏色表示數(shù)值:pcolor 60
3.2.3 繪制三維圖形:surface 62
3.2.4 繪制等高線:contour 64
第4章 機(jī)器學(xué)習(xí)中的數(shù)學(xué) 67
4.1 向量 68
4.1.1 什么是向量 68
4.1.2 用Python定義向量 69
4.1.3 列向量的表示方法 69
4.1.4 轉(zhuǎn)置的表示方法 70
4.1.5 加法和減法 71
4.1.6 標(biāo)量積 73
4.1.7 內(nèi)積 74
4.1.8 向量的?!?5
4.2 求和符號(hào) 76
4.2.1 帶求和符號(hào)的數(shù)學(xué)式的變形 77
4.2.2 通過(guò)內(nèi)積求和 79
4.3 累乘符號(hào) 79
4.4 導(dǎo)數(shù) 80
4.4.1 多項(xiàng)式的導(dǎo)數(shù) 80
4.4.2 帶導(dǎo)數(shù)符號(hào)的數(shù)學(xué)式的變形 82
4.4.3 復(fù)合函數(shù)的導(dǎo)數(shù) 83
4.4.4 復(fù)合函數(shù)的導(dǎo)數(shù):鏈?zhǔn)椒▌t 84
4.5 偏導(dǎo)數(shù) 85
4.5.1 什么是偏導(dǎo)數(shù) 85
4.5.2 偏導(dǎo)數(shù)的圖形 87
4.5.3 繪制梯度的圖形 89
4.5.4 多變量的復(fù)合函數(shù)的偏導(dǎo)數(shù) 91
4.5.5 交換求和與求導(dǎo)的順序 93
4.6 矩陣 95
4.6.1 什么是矩陣 95
4.6.2 矩陣的加法和減法 97
4.6.3 標(biāo)量積 99
4.6.4 矩陣的乘積 100
4.6.5 單位矩陣 103
4.6.6 逆矩陣 105
4.6.7 轉(zhuǎn)置 107
4.6.8 矩陣和聯(lián)立方程式 109
4.6.9 矩陣和映射 111
4.7 指數(shù)函數(shù)和對(duì)數(shù)函數(shù) 113
4.7.1 指數(shù) 113
4.7.2 對(duì)數(shù) 115
4.7.3 指數(shù)函數(shù)的導(dǎo)數(shù) 118
4.7.4 對(duì)數(shù)函數(shù)的導(dǎo)數(shù) 120
4.7.5 Sigmoid函數(shù) 121
4.7.6 Softmax函數(shù) 123
4.7.7 Softmax函數(shù)和Sigmoid函數(shù) 127
4.7.8 高斯函數(shù) 128
4.7.9 二維高斯函數(shù) 129
第5章 有監(jiān)督學(xué)習(xí):回歸 135
5.1 一維輸入的直線模型 136
5.1.1 直線模型 138
5.1.2 平方誤差函數(shù) 139
5.1.3 求參數(shù)(梯度法) 142
5.1.4 直線模型參數(shù)的解析解 148
5.2 二維輸入的平面模型 152
5.2.1 數(shù)據(jù)的表示方法 154
5.2.2 平面模型 155
5.2.3 平面模型參數(shù)的解析解 157
5.3 D維線性回歸模型 159
5.3.1 D維線性回歸模型 160
5.3.2 參數(shù)的解析解 160
5.3.3 擴(kuò)展到不通過(guò)原點(diǎn)的平面 164
5.4 線性基底函數(shù)模型 165
5.5 過(guò)擬合問(wèn)題 171
5.6 新模型的生成 181
5.7 模型的選擇 185
5.8 小結(jié) 186
第6章 有監(jiān)督學(xué)習(xí):分類(lèi) 189
6.1 一維輸入的二元分類(lèi) 190
6.1.1 問(wèn)題設(shè)置 190
6.1.2 使用概率表示類(lèi)別分類(lèi) 194
6.1.3 最大似然估計(jì) 196
6.1.4 邏輯回歸模型 199
6.1.5 交叉熵誤差 201
6.1.6 學(xué)習(xí)法則的推導(dǎo) 205
6.1.7 通過(guò)梯度法求解 209
6.2 二維輸入的二元分類(lèi) 210
6.2.1 問(wèn)題設(shè)置 210
6.2.2 邏輯回歸模型 214
6.3 二維輸入的三元分類(lèi) 219
6.3.1 三元分類(lèi)邏輯回歸模型 219
6.3.2 交叉熵誤差 222
6.3.3 通過(guò)梯度法求解 223
第7章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 227
7.1 神經(jīng)元模型 229
7.1.1 神經(jīng)細(xì)胞 229
7.1.2 神經(jīng)元模型 230
7.2 神經(jīng)網(wǎng)絡(luò)模型 234
7.2.1 二層前饋神經(jīng)網(wǎng)絡(luò) 234
7.2.2 二層前饋神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 237
7.2.3 數(shù)值導(dǎo)數(shù)法 242
7.2.4 通過(guò)數(shù)值導(dǎo)數(shù)法應(yīng)用梯度法 246
7.2.5 誤差反向傳播法 251
7.2.6 求.E / .vkj 252
7.2.7 求.E / .wji 256
7.2.8 誤差反向傳播法的實(shí)現(xiàn) 262
7.2.9 學(xué)習(xí)后的神經(jīng)元的特性 268
7.3 使用Keras實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型 270
7.3.1 二層前饋神經(jīng)網(wǎng)絡(luò) 271
7.3.2 Keras的使用流程 273
第8章 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的應(yīng)用(手寫(xiě)數(shù)字識(shí)別) 277
8.1 MINST數(shù)據(jù)集 278
8.2 二層前饋神經(jīng)網(wǎng)絡(luò)模型 279
8.3 ReLU激活函數(shù) 286
8.4 空間過(guò)濾器 291
8.5 卷積神經(jīng)網(wǎng)絡(luò) 295
8.6 池化 300
8.7 Dropout 301
8.8 融合了各種特性的MNIST識(shí)別網(wǎng)絡(luò)模型 302
第9章 無(wú)監(jiān)督學(xué)習(xí) 307
9.1 二維輸入數(shù)據(jù) 308
9.2 K-means算法 310
9.2.1 K-means算法的概要 310
9.2.2 步驟0:準(zhǔn)備變量與初始化 311
9.2.3 步驟1:更新R 313
9.2.4 步驟2:更新μ 315
9.2.5 失真度量 318
9.3 混合高斯模型 320
9.3.1 基于概率的聚類(lèi) 320
9.3.2 混合高斯模型 323
9.3.3 EM算法的概要 328
9.3.4 步驟0:準(zhǔn)備變量與初始化 329
9.3.5 步驟1(步驟E):更新γ 330
9.3.6 步驟2(步驟M):更新π、μ和Σ 332
9.3.7 似然 336
第 10章 本書(shū)小結(jié) 339
后記 349

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)