注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)數(shù)據(jù)庫(kù)數(shù)據(jù)庫(kù)理論支持向量機(jī)導(dǎo)論:英文版

支持向量機(jī)導(dǎo)論:英文版

支持向量機(jī)導(dǎo)論:英文版

定 價(jià):¥29.00

作 者: (美)Nello Cristianini,(英)John Shawe-Taylor著
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng): 經(jīng)典原版書庫(kù)
標(biāo) 簽: 數(shù)據(jù)庫(kù)存儲(chǔ)與管理

ISBN: 9787111167891 出版時(shí)間: 2005-07-01 包裝: 膠版紙
開(kāi)本: 24cm 頁(yè)數(shù): 189 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  “本書對(duì)機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘的最重要發(fā)展領(lǐng)域進(jìn)行了全面的介紹。書中清晰的條理、富于邏輯性的推演以及優(yōu)美的文字,備受初學(xué)者和專家的贊許。在線參考文獻(xiàn)與軟件是本書獨(dú)一無(wú)二的和適應(yīng)時(shí)代的新穎特點(diǎn)。我竭誠(chéng)地向讀者推薦此書?!薄狾lvi Mangasarian,威斯康星大學(xué)?!氨緯榻B支持向量機(jī)的理論與實(shí)踐,是一本優(yōu)秀的和引人入勝的著作。書中闡明了專業(yè)人員所面臨的種種關(guān)鍵問(wèn)題及其解決方案,書后包含一個(gè)非常有用的附錄,是用偽代碼編寫的優(yōu)化算法?!薄狣avid Haussler,加利福尼亞大學(xué)?!氨緯宫F(xiàn)了一個(gè)主要由Vladimir Vapnik 創(chuàng)立的統(tǒng)計(jì)學(xué)習(xí)理論的全新領(lǐng)域,它以正則化技術(shù)的研究成果為基礎(chǔ),在數(shù)學(xué)方法和應(yīng)用技術(shù)兩個(gè)方面都可能成為一座真正的科學(xué)金礦。在這一領(lǐng)域中形成并在日益增多的重大應(yīng)用中得到使用的主要算法是與正則化類似的支持向量機(jī)技術(shù)。這本簡(jiǎn)明扼要的著作對(duì)支持向量機(jī)及其理論基礎(chǔ)進(jìn)行了嚴(yán)密而自含的介紹。這是值得數(shù)學(xué)家和工程師一讀的讀物。”——Tomaso Poggio,麻省理工學(xué)院。支持向量機(jī) (Support Vector Machine, SVM) 是建立在統(tǒng)計(jì)學(xué)理論最新進(jìn)展基礎(chǔ)上的新一代學(xué)習(xí)系統(tǒng)。本書是第一本全面介紹支持向量機(jī)的著作。支持向量機(jī)是在20世紀(jì)90年代初提出的,隨之引發(fā)了對(duì)這種技術(shù)的廣泛應(yīng)用和深入理論分析。至今在若干實(shí)際應(yīng)用 (如文本編目、手寫字符識(shí)別、圖像分類和生物進(jìn)化鏈分析等)中,支持向機(jī)量足以提供最佳的學(xué)習(xí)性能,而且在機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘中已被確立為一種標(biāo)準(zhǔn)工具。學(xué)生將會(huì)發(fā)現(xiàn)本書不僅對(duì)他們具有激勵(lì)作用,同時(shí)也很容易理解;對(duì)于專業(yè)人員而言,本書可以引導(dǎo)他們輕松自如地獲得為掌握理論及其應(yīng)用所需的材料。本書以循序漸進(jìn)的、自含的、易于接受的方式引入各種概念,而且論述嚴(yán)謹(jǐn)透徹。本書所提供的參考文獻(xiàn)和可以下載軟件的網(wǎng)站將會(huì)成為讀者進(jìn)一步學(xué)習(xí)的起點(diǎn)。同樣,本書及相關(guān)網(wǎng)站將引導(dǎo)專業(yè)人員了解最新的文獻(xiàn)、新應(yīng)用和在線軟件。

作者簡(jiǎn)介

  Nello Cristianini 先后在意大利的里雅斯特大學(xué)、英國(guó)倫敦大學(xué)皇家豪勒威學(xué)院、英國(guó)布里斯投大學(xué)、美國(guó)加州大學(xué)圣克魯茲分校學(xué)習(xí)。他是支持向量機(jī)與其他學(xué)習(xí)系統(tǒng)的理論與應(yīng)用方面卓有成就的年青研究人員,在各種雜志和國(guó)際學(xué)術(shù)會(huì)議上發(fā)表了許多有關(guān)這一領(lǐng)域的論文。John Shawe-Taylor 先后在英國(guó)劍橋大學(xué)、位于斯洛文尼亞的盧布爾雅那大學(xué)、加拿大西蒙·弗雷澤大學(xué)、英國(guó)倫敦大學(xué)帝國(guó)學(xué)院、英國(guó)倫敦大學(xué)皇家豪勒威學(xué)院學(xué)習(xí)。他發(fā)表了許多有關(guān)學(xué)習(xí)系統(tǒng)以及離散數(shù)學(xué)和計(jì)算機(jī)科學(xué)等領(lǐng)域的論文。他是英國(guó)倫敦大學(xué)皇家勒威學(xué)院計(jì)算科學(xué)系教授,同時(shí)還是由16年大學(xué)共同成立的歐洲合作基金的協(xié)調(diào)者,該基金是為了研究神經(jīng)學(xué)習(xí)和計(jì)算學(xué)習(xí)。

圖書目錄

Preface
Notation
1 The Learning Methodology
1.1 Supervised Learning
1.2 Learning and Generalisation
1.3 Improving Generalisation
1.4 Attractions and Drawbacks of Learning
1.5 Support Vector Machines for Learning
1.6 Exercises
1.7 ,,Further Reading and Advanced Topic
Linear Learning Machines
2.1 Linear Classification
2.1.1 Rosenblatt's Perceptron
2.1.2 Other Linear Classifiers
2.1.3 Multi-class Discrimination
2.2 Linear Regression
2.2.1 Least Squares
2.2.2 Ridge Regression
2.3 Dual Representation of Linear Machines
2.4 Exercises
2.5 Further Reading and Advanced Topics
3 Kernel-lnduced Feature Spaces
3.1 Learning in Feature Space
3.2 The Implicit Mapping into Feature Space
3.3 Making Kernels
3.3.1 Characterisation of Kernels
3.3.2 Making Kernels from Kernels
3.3.3 Making Kernels from Features
3.4 Working in Feature Space
3.5 Kernels and Gaussian Processes
3.6 Exercises
3.7 Further Reading and Advanced Topics
4 Generalisation Theory
4.1 Probably Approximately Correct Learning
4.2 Vapnik Chervonenkis (VC) Theory
4.3 Margin-Based Bounds on Generalisation
4.3.1 Maximal Margin Bounds
4.3.2 Margin Percentile Bounds
4.3.3 Soft Margin Bounds
4.4 Other Bounds on Generalisation and Luckiness
4.5 Generalisation for Regression
4.6 Bayesian Analysis of Learning
4.7 Exercises
4.8 Further Reading and Advanced Topics
Optimisation Theory
5.1 Problem Formulation
5.2 Lagrangian Theory
5.3 Duality. ~
5.4 Exercises
5.5 Further Reading and Advanced Topics
Support Vector Machines
6.1 Support Vector Classification
6.1.1 The Maximal Margin Classifier
6.1.2 Soft Margin Optimisation
6.1.3 Linear Programming Support Vector Machines
6.2 Support Vector Regression
6.2.1 e-Insensitive Loss Regression
6.2.2 Kernel Ridge Regression
6.2.3 Gaussian Processes
6.3 Discussion
6.4 Exercises
6.5 Further Reading and Advanced Topics
7 Implementation Techniques
7.1 General Issues
7.2 The Naive Solution: Gradient Ascent
7.3 General Techniques and Packages
7.4 Chunking and Decomposition
7.5 Sequential Minimal Optimisation (SMO)
7.5.1 Analytical Solution for Two Points
7.5.2 Selection Heuristics
7.6 Techniques for Gaussian Processes
7.7 Exercises
7.8 Further Reading and Advanced Topics
8 Appfications of Support Vector Machines
8.1 Text Categorisation
8.1.1 A Kernel from IR Applied to Information Filtering
8.2 Image Recognition
8.2.1 Aspect Independent Classification
8.2.2 Colour-Based Classification
8.3 Hand-written Digit Recognition
8.4 Bioinformatics
8.4.1 Protein Homology Detection
8.4.2 Gene Expression
8.5 Further Reading and Advanced Topics
A Pseudocode for the SMO Algorithm
B Background Mathematics
B.1 Vector Spaces
B.2 Inner Product Spaces
B.3 Hilbert Spaces
B.4 Operators, Eigenvalues and Eigenvectors
References
lndex

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)