注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書教育/教材/教輔教材研究生/本科/??平滩?/a>大機組繼電保護

大機組繼電保護

大機組繼電保護

定 價:¥59.00

作 者: 史世文編
出版社: 水利電力出版社
叢編項: 國外計算機科學教材系列
標 簽: 模式識別

ISBN: 9787120000509 出版時間: 1987-11-01 包裝: 膠版紙
開本: 26cm 頁數(shù): 190頁 字數(shù):  

內(nèi)容簡介

  統(tǒng)計學習理論的基本內(nèi)容誕生于20世紀60~70年代,到90年代中期發(fā)展到比較成熟并受到世界機器學習界的廣泛重視,其核心內(nèi)容反映在Vapnik的兩部重要著作中,本書即是其中一部。由于較系統(tǒng)地考虎了有限樣本的情況,統(tǒng)計學習理論與傳統(tǒng)統(tǒng)計學理論相比有更好的實用性。VladimirN.Vapnik于1990年加入美國AT&T貝爾實驗室,現(xiàn)仍擔任顧問,1995年起任英國RoyalHolloway大學計算機和統(tǒng)計學教授。Vapnik教授從事計算機科學、理論與應(yīng)用統(tǒng)計學研究已有30多年,發(fā)表了7部學術(shù)著作和上百篇研究論文。他的主要學術(shù)成就是研究發(fā)展了一套基于經(jīng)驗數(shù)據(jù)估計依賴關(guān)系的一般理論,即統(tǒng)計學習理論,以及在此理論基礎(chǔ)上的一種新的學習機器::支持向量機,它具有很高的推廣能力。這些理論與方法可以用在很多模式識別和回歸估計問題中,并已經(jīng)在很多實際問題中取得了很好的應(yīng)用成果。許建華,2002年于清華大學模式識別與智能系統(tǒng)專業(yè)獲工學博士學位?,F(xiàn)在南京師范大學計算機系從事教學與科研工作。主要研究方向為模式識別、神經(jīng)網(wǎng)絡(luò)、機器學習、?斯ぶ悄?、信号揣f砝礪奐捌溆τ謾?統(tǒng)計學習理論是研究利用經(jīng)驗數(shù)據(jù)進行機器學習的一種一般理論,屬于計算機科學、模式識別和應(yīng)用統(tǒng)計學相交叉與結(jié)合的范疇,其主要創(chuàng)立者是本書的作者VladimirN.Vapnik。統(tǒng)計學習理論的基本內(nèi)容誕生于20世紀60~70年代,到90年代中期發(fā)展到比較成熟并受到世界機器學習界的廣泛重視,其核心內(nèi)容反映在Vapnik的兩部重要著作中,本書即是其中一部,另一部是“TheNatureofStatisticalLearningTheory”(《統(tǒng)計學習理論的本質(zhì)》)。由于較系統(tǒng)地考慮了有限樣本的情況,統(tǒng)計學習理論與傳統(tǒng)統(tǒng)計學理論相比有更好的實用性,在這一理論下發(fā)展出的支持向量機(SVM)方法以其有限樣本下良好的推廣能力而備受重視。本書是對統(tǒng)計學習理論和支持向量機方法的全面、系統(tǒng)、詳盡的闡述,是各領(lǐng)域中研究和應(yīng)用機器學習理論與方法的科研工作者和研究生的重要參考資料。

作者簡介

  Vladimir N.Vapnik于1990年加入美國AT&T貝爾實驗室,現(xiàn)仍擔任顧問,1995年起任英國Royal Holloway大學計算機和統(tǒng)計學教授。Vapnik教授從事計算機科學、理論與應(yīng)用統(tǒng)計學研究已有30多年,發(fā)表了7部學術(shù)著作和上百篇研究論文。他的主要學術(shù)成就是研究發(fā)展了一套基于經(jīng)驗數(shù)據(jù)估計依賴關(guān)系的一般理論,即統(tǒng)計學習理論,以及在此理論基礎(chǔ)上的一種新的學習機器——支持向量機,它具有很高的推廣能力。這些理論與方法可以用在很多模式識別和回歸估計問題中,并已經(jīng)在很多實際問題中取得了很好的應(yīng)用成果。許建華,2002年于清華大學模式識別與智能系統(tǒng)專業(yè)獲工學博士學位?,F(xiàn)在南京師范大學計算機系從事教學與科研工作。主要研究方向為模式識別、神經(jīng)網(wǎng)絡(luò)、機器學習、人工智能、信號處理理論及其應(yīng)用。

圖書目錄

引論:歸納和統(tǒng)計推理問題
0.1 統(tǒng)計學中的學習理論體系
0.2 統(tǒng)計推理的兩種方法:特殊方法(參數(shù)推理)和通用方法(非參數(shù)推理)
0.3 參數(shù)方法的體系
0.4 參數(shù)體系的缺點
0.5 經(jīng)典體系后的發(fā)展
0.6 復興階段
0.7 Glivenko-Cantelli-Kolmogorov理論的推廣
0.8 結(jié)構(gòu)風險最小化原則
0.9 小樣本集推理的主要原則
0.10 本書的要點
第一部分 學習和推廣性理論
第1章 處理學習問題的兩種方法
1.1 基于實例學習的一般模型
1.2 最小化經(jīng)驗數(shù)據(jù)風險泛函的問題
1.3 模式識別問題
1.4 回歸估計問題
1.5 解釋間接測量結(jié)果的問題
1.6 密度估計問題(Fisher-Wald表達)
1.7 基于經(jīng)驗數(shù)據(jù)最小化風險泛函的歸納原則
1.8 解函數(shù)估計問題的經(jīng)典方法
1.9 隨機對象的識別;密度和條件密度估計
1.10 解近似確定性積分方程的問題
1.11 Glivenko-Cantelli定理
1.12 不適定問題
1.13 學習理論的結(jié)構(gòu)
第1章附錄 解不適定問題的方法
A1.1 解算子方程問題
A1.2 Tikhonov意義下的適定問題
A1.3 正則化方法
第2章 概率測度估計與學習問題
2.1 隨機實驗的概率模型
2.2 統(tǒng)計學的基本問題
2.3 估計一致收斂于未知概率測度的條件
2.4 部分一致收斂性和Glivenko-Cantelli定理的推廣
2.5 在概率測度估計一致收斂的條件下最小化風險泛函
2.6 在概率測度估計部分一致收斂的條件下最小化風險泛函
2.7 關(guān)于概率測度估計收斂方式和學習問題表達的評述
第3章 經(jīng)驗風險最小化原則一致性的條件
3.1 一致性的經(jīng)典定義
3.2 嚴格(非平凡)一致性的定義
3.3 經(jīng)驗過程
3.4 學習理論的關(guān)鍵定理(關(guān)于等價性的定理)
3.5 關(guān)鍵定理的證明
3.6 最大似然方法的嚴格一致性
3.7 頻率一致收斂于概率的充分必要條件
3.8 有界實函數(shù)集均值一致收斂于期望的充分必要條件
3.9 無界函數(shù)集均值一致收斂于期望的充分必要條件
3.10 Kant的劃分問題和Popper的不可證偽學說
3.11 不可證偽性定理
3.12 一致單邊收斂性經(jīng)驗風險最小化原則和一致性的條件
3.13 學習理論的三個里程碑
第4章 指示損失函數(shù)風險的界
4.1 最簡單模型的界:悲觀情況
4.2 最簡單模型的界:樂觀情況
4.3 最簡單模型的界:一般情況
4.4 基本不等式:悲觀情況
4.5 定理4.1的證明
4.6 基本不等式:一般情況
4.7 定理4.2的證明
4.8 主要的非構(gòu)造性的界
4.9 VC維
4.10 定理4.3的證明
4.11 不同函數(shù)集的VC維的例子
4.12 關(guān)于學習機器推廣能力的界的評述
4.13 兩個等分樣本子集上頻率差的界
第4章附錄 關(guān)于ERM原則風險的下界
A4.1 統(tǒng)計揄中的兩種策略
A4.2 學習問題的最小最大損失策略
A4.3 經(jīng)驗風險最小化原則的最大損失的上界
A4.4 樂觀情形下最小最大損失策略的下界
A4.5 悲觀情形下最小最大損失策略的下界
第5章 實損失函數(shù)風險的界
5.1 最簡單模型的界:悲觀情形
5.2 實函數(shù)集的容量
5.3 一般模型的界;悲觀情形
5.4 基本不等式
5.5 一般模型的界:普遍情形
5.6 一致相對收斂的界
5.7 無界損失函數(shù)集中風險最小化問題的先驗信息
5.8 無界非負函數(shù)集的風險的界
5.9 樣本選擇與野值問題
5.10 界理論的主要結(jié)果
第6章 結(jié)構(gòu)風險最小化原則
6.1 結(jié)構(gòu)風險最小化歸納原則的構(gòu)架
6.2 最小描述長度和結(jié)構(gòu)風險最小化歸納原則
6.3 結(jié)構(gòu)風險最小化原則的一致性與關(guān)于收斂速率的漸近界
6.4 回歸估計問題的界
6.5 函數(shù)逼近問題
6.6 局部風險最小化問題
第6章附錄 基于間接測量的函數(shù)估計
A6.1 估計間接測量結(jié)果的問題
A6.2 關(guān)于利用間接測量估計函數(shù)的定理
A6.3 定理的證明
第7章 隨機不適定問題
7.1 隨機不適定問題
7.2 解隨機不適定問題的正則化方法
7.3 定理的證明
7.4 密度估計方法一致性的條件
7.5 非參數(shù)密度估計子:基于經(jīng)驗分布函數(shù)逼近分布函數(shù)的估計子
7.6 非經(jīng)典估計子
7.7 光滑密度函數(shù)的漸近收斂速率
7.8 定理7.4的證明
7.9 密度估計問題中光滑(正則化)參數(shù)值的選取
7.10 兩個密度比值的估計
7.11 直線上兩個密度比值的估計
7.12 直線上條件概率的估計
第8章 估計給定點上的函數(shù)值
8.1 最小化總體風險的方法
8.2 總體風險的結(jié)構(gòu)最小化方法
8.3 關(guān)于兩個樣本子集上頻率的一致相對偏差的界
8.4 關(guān)于兩個樣本子集上均值的一致相對偏差的界
8.5 在線性決策規(guī)則集中估計指示函數(shù)的值
8.6 指示函數(shù)值估計的樣本選取
8.7 在與參數(shù)成線性關(guān)系的函數(shù)集中估計實函數(shù)值
8.8 實函數(shù)值估計的樣本選取
8.9 估計指示函數(shù)值的局部算法
8.10 估計實函數(shù)值的局部算法
8.11 在給定樣本集中尋找最好點的問題
第二部分 函數(shù)的支持向量估計
第9章 感知器及其推廣
9.1 Rosenblatt感知器
9.2 定理的證明
9.3 隨機逼近方法和指示函數(shù)的Sigmoid逼近方法
9.4 勢函數(shù)法與徑向基函數(shù)法
9.5 最優(yōu)化理論中的三個定理
9.6 神經(jīng)網(wǎng)絡(luò)
第10章 估計指示函數(shù)的支持向量方法
10.1 最優(yōu)超平面
10.2 不可分樣本集的最優(yōu)超平面
10.3 最優(yōu)超平面的統(tǒng)計特性
10.4 定理的證明
10.5 支持向量機的思想
10.6 支持向量方法的另一種構(gòu)造方式
10.7 利用界選擇支持向量機
10.8 模式識別問題的支持向量機的例子
10.9 轉(zhuǎn)導推理的支持向量方法
10.10 多類分類
10.11 關(guān)于支持向量方法推廣性的評述
第11章 估計實函數(shù)的支持向量方法
11.1 不敏感損失函數(shù)
11.2 魯棒估計子的損失函數(shù)
11.3 最小化包含不敏感損失函數(shù)的風險
11.4 函數(shù)估計的支持向量機
11.5 構(gòu)造實函數(shù)估計的核
11.6 生成樣條的核
11.7 生成Fourier展開的核
11.8 函數(shù)逼近和回歸估計的支持向量ANOVA分解
11.9 解線性算子方程的支持向量方法
11.10 密度估計的支持向量方法
11.11 條件概率函數(shù)和條件密度函數(shù)的估計
11.12 支持向量方法與稀疏函數(shù)逼近之間的關(guān)系
第12章 模式識別的支持向量機
12.1 二次優(yōu)化問題
12.2 數(shù)字識別問題:美國郵政服務(wù)數(shù)據(jù)庫
12.3 切距
12.4 數(shù)字識別問題:NIST數(shù)據(jù)庫
12.5 將來的競爭
第13章 函數(shù)逼近、回歸估計和信號處理的支持向量機
13.1 模型選擇問題
13.2 正則化線性函數(shù)集上的結(jié)構(gòu)
13.3 利用支持向量方法的函數(shù)逼近
13.4 回歸估計的支持向量機
13.5 求解正電子放射層析成像(PET)問題的支持向量方法
13.6 關(guān)于支持向量方法的評述
第三部分 學習理論的統(tǒng)計學基礎(chǔ)
第14章 頻率一致收斂于概率的充分必要條件
14.1 頻率一致收斂于概率
14.2 基本引理
14.3 事件集的熵
14.4 熵的漸近性質(zhì)
14.5 一致收斂性的充分必要條件:充分性的證明
14.6 一致收斂性的充分必要條件:必要性的證明
14.7 充分必要條件:必要性的證明(續(xù))
第15章 均值一致收斂于期望的充分必要條件
15.1 熵
15.2 偽立方體
15.3 集合的擴張
15.4 輔助引理
15.5 一致收斂性的充分必要條件:必要性的證明
15.6 一致收斂性的充分必要條件:充分性的證明
15.7 定理15.1的推論
第16章 均值一致單邊收斂于期望的充分必要條件
16.1 引言
16.2 最大體積部分
16.3 平均對數(shù)定理
16.4 走廊存在性定理
16.5 鄰近走廊邊界的函數(shù)的存在性定理(潛在不可證偽的定理)
16.6 必要條件
16.7 充分必要條件
注釋與參考文獻評述
參考文獻
中英文術(shù)語對照表

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號