注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學(xué)技術(shù)計算機/網(wǎng)絡(luò)軟件與程序設(shè)計程序設(shè)計綜合速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

速通深度學(xué)習(xí)數(shù)學(xué)基礎(chǔ)

定 價:¥79.00

作 者: 盧菁
出版社: 電子工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787121447808 出版時間: 2022-12-01 包裝: 平裝
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  本書以線性代數(shù)、微積分、概率論為邏輯主線,講解了與深度學(xué)習(xí)有關(guān)的大部分數(shù)學(xué)內(nèi)容。本書以理論結(jié)合實際的方式講解,使數(shù)學(xué)知識不再是冰冷的公式堆砌,而變成一個個真實的案例,同時對案例背后的原理進行理論上的升華,希望達到一通百通的效果。讀者通過閱讀本書,不僅能夠提升閱讀學(xué)術(shù)論文中的數(shù)學(xué)公式的能力,還能加深對深度學(xué)習(xí)本身的理解。 本書面向入門級讀者,摒棄復(fù)雜的數(shù)學(xué)推導(dǎo)和證明,重視邏輯推理和簡單的表達,特別適合數(shù)學(xué)基礎(chǔ)不足的讀者閱讀。

作者簡介

  2003年~2012年年就讀于北京科技大學(xué)本科碩士博士,2016年于北京大學(xué)博士后流動站出站,研究方向為:機器學(xué)習(xí),人工智能,計算機視覺和自然語言屬于。工作于騰訊,愛奇藝等頂級互聯(lián)網(wǎng)公司從事人工智能技術(shù)的應(yīng)用研發(fā)工作。曾獲得騰訊年度人工智能銅獎,所做項目涉及自然語言處理,推薦系統(tǒng),領(lǐng)導(dǎo)團隊參與多項公司級項目的搭建和優(yōu)化。工作之余,一直和培訓(xùn)機構(gòu)進行合作,主講人工智能課程,致力于人工智能在中國的普及推廣和應(yīng)用。

圖書目錄

第1章 線性代數(shù)的基本概念 1

1.1 向量和深度學(xué)習(xí) 1

1.2 向量距離計算 7

1.3 向量的基本性質(zhì) 11

1.3.1 向量的基本運算 11

1.3.2 線性相關(guān)和線性無關(guān) 14

1.3.3 向量的投影和正交 15

1.4 矩陣 18

1.4.1 矩陣的基本概念 18

1.4.2 矩陣和神經(jīng)網(wǎng)絡(luò) 26

1.4.3 矩陣的秩 28

1.5 一些特殊的矩陣 30

1.5.1 矩陣的逆和廣義逆 30

1.5.2 正交矩陣 32

第2章 線性代數(shù)在深度學(xué)習(xí)中的應(yīng)用 34

2.1 特征值和特征向量 34

2.1.1 特征值和特征向量的定義 34

2.1.2 一般矩陣的特征分解 37

2.1.3 對稱矩陣的特征分解 38

2.2 奇異值分解 41

2.3 正定矩陣 45

2.4 矩陣的范數(shù)和神經(jīng)網(wǎng)絡(luò) 46

2.5 主成分分析 49

2.6 推薦系統(tǒng)中的矩陣分解 55

第3章 微積分的基本概念 59

3.1 導(dǎo)數(shù)的定義和幾何意義 59

3.2 復(fù)雜函數(shù)求導(dǎo) 61

3.3 導(dǎo)數(shù)的存在性 64

3.4 多元函數(shù)求導(dǎo) 65

3.5 二階導(dǎo)數(shù)和高階導(dǎo)數(shù) 65

3.6 函數(shù)的極大值和極小值 69

3.6.1 一元函數(shù)的極大值和極小值 69

3.6.2 多元函數(shù)的凹凸性和海森矩陣 72

3.6.3 凸優(yōu)化證明 73

第4章 微積分在深度學(xué)習(xí)中的應(yīng)用 77

4.1 梯度下降法 77

4.1.1 梯度下降法在深度學(xué)習(xí)中的應(yīng)用 77

4.1.2 泰勒公式和梯度下降法 80

4.1.3 牛頓迭代法 81

4.2 梯度下降法的缺點 84

4.3 矩陣求導(dǎo)術(shù) 88

4.3.1 標量對向量和矩陣求導(dǎo) 88

4.3.2 向量對向量求導(dǎo) 89

4.3.3 鏈式法則 91

4.4 常見激活函數(shù)及其導(dǎo)數(shù) 92

4.5 常見損失函數(shù)及其導(dǎo)數(shù) 99

4.5.1 分類和回歸 99

4.5.2 哈夫曼樹和負采樣 103

4.5.3 度量學(xué)習(xí) 106

4.6 積分和求和 108

4.6.1 積分和不定積分 108

4.6.2 多重積分 111

4.6.3 分類模型的效果指標AUC 113

第5章 概率的基本概念 117

5.1 概率入門 117

5.2 聯(lián)合概率和條件概率 119

5.3 貝葉斯定理 122

5.4 連續(xù)概率分布 124

5.5 均值和方差 126

5.6 相關(guān)性 130

5.7 正態(tài)分布 133

5.7.1 正態(tài)分布的基本概念和性質(zhì) 133

5.7.2 正態(tài)分布和邏輯回歸 137

第6章 概率在深度學(xué)習(xí)中的應(yīng)用 139

6.1 概率分布之間的距離 139

6.2 最大似然估計 140

6.3 Logit和Softmax 143

6.3.1 二分類的Logit 143

6.3.2 多分類的Softmax 144

6.4 語言模型 147

6.5 概率悖論 150

6.5.1 辛普森悖論 150

6.5.2 基本比率謬誤 151

6.5.3 羅杰斯現(xiàn)象 153

6.5.4 伯克森悖論 153

6.6 統(tǒng)計學(xué)基礎(chǔ) 155

6.6.1 卡方分布和學(xué)生分布 155

6.6.2 假設(shè)檢驗 158

6.6.3 AB測試 168

6.7 各類散列變換 172

6.7.1 特征Hash 172

6.7.2 MD5 174

6.7.3 特征空間的投影 175

6.7.4 simhash 177

6.7.5 minhash 178

6.8 分類器性能的極限 181

6.8.1 最大AUC 181

6.8.2 貝葉斯錯誤率 184


本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號