Cantitate/Preț
Produs

A Probabilistic Theory of Pattern Recognition: Stochastic Modelling and Applied Probability, cartea 31

Autor Luc Devroye, Laszlo Györfi, Gabor Lugosi
en Limba Engleză Hardback – 4 apr 1996

Bazându-ne pe datele furnizate de editura Springer și pe structura riguroasă a seriei Stochastic Modelling and Applied Probability, descoperim în acest volum o tratare fundamentală a recunoașterii formelor prin prisma teoriei probabilităților. A Probabilistic Theory of Pattern Recognition nu este doar un manual de inginerie, ci o explorare matematică profundă a modului în care datele pot fi clasificate folosind proprietăți independente de distribuție. Reținem că autorii, Luc Devroye, Laszlo Györfi și Gabor Lugosi, pun un accent deosebit pe derivarea inegalităților și pe analiza consistenței regulilor de decizie.

Structura cărții urmărește o progresie logică, pornind de la eroarea Bayes și inegalități de distanță, trecând prin metode neparametrice precum regulile histogramei și ale nucleului (kernel), până la fundamentele combinatorice ale teoriei Vapnik-Chervonenkis. Cititorii familiarizați cu Lectures on the Nearest Neighbor Method de Gérard Biau vor aprecia aici extinderea analizei către rețele neuronale și entropia epsilon, oferind un cadru mult mai vast de cercetare. Spre deosebire de abordarea mai aplicată din Introduction to Statistical Pattern Recognition de Keinosuke Fukunaga, acest volum se concentrează pe rigoarea matematică a ratelor de convergență și pe limitele inferioare ale selecției clasificatorilor.

În contextul operei lui Luc Devroye, această lucrare consolidează direcțiile explorate în Combinatorial Methods in Density Estimation, extinzând utilizarea metodelor combinatorice de la estimarea densității la problema mai complexă a clasificării. Cu peste 430 de probleme propuse, volumul servește drept piatră de temelie pentru cercetătorii care doresc să înțeleagă nu doar cum funcționează un algoritm, ci și garanțiile matematice din spatele performanței acestuia.

Citește tot Restrânge

Din seria Stochastic Modelling and Applied Probability

Preț: 77820 lei

Preț vechi: 94903 lei
-18%

Puncte Express: 1167

Carte tipărită la comandă

Livrare economică 26 mai-09 iunie


Specificații

ISBN-13: 9780387946184
ISBN-10: 0387946187
Pagini: 660
Ilustrații: XV, 638 p.
Dimensiuni: 160 x 241 x 40 mm
Greutate: 1.14 kg
Ediția:1996
Editura: Springer
Colecția Stochastic Modelling and Applied Probability
Seria Stochastic Modelling and Applied Probability

Locul publicării:New York, NY, United States

Public țintă

Research

De ce să citești această carte

Este o resursă esențială pentru cercetătorii în statistică și machine learning care caută o fundamentare teoretică riguroasă. Cititorul câștigă o înțelegere profundă a limitelor matematice ale învățării automate, beneficiind de un set impresionant de exerciții și demonstrații pentru inegalități complexe. Este volumul de referință care transformă intuiția algoritmică în certitudine probabilistică.


Despre autor

Luc Devroye este profesor la McGill University din Montreal, fiind o autoritate recunoscută în informatică și statistică, cu contribuții majore în generarea variabilelor aleatorii și analiza algoritmilor. Împreună cu Laszlo Györfi și Gabor Lugosi, ambii specialiști de renume în teoria informației și statistică matematică, a format o echipă care a definit standardele moderne în analiza teoretică a învățării statistice. Opera lor colectivă, reflectată și în volume precum cele dedicate dezvoltărilor recente în probabilități aplicate, se distinge prin rigoarea tratamentului matematic al problemelor de recunoaștere a formelor.


Descriere scurtă

Pattern recognition presents one of the most significant challenges for scientists and engineers, and many different approaches have been proposed. The aim of this book is to provide a self-contained account of probabilistic analysis of these approaches. The book includes a discussion of distance measures, nonparametric methods based on kernels or nearest neighbors, Vapnik-Chervonenkis theory, epsilon entropy, parametric classification, error estimation, free classifiers, and neural networks. Wherever possible, distribution-free properties and inequalities are derived. A substantial portion of the results or the analysis is new. Over 430 problems and exercises complement the material.

Cuprins

Preface * Introduction * The Bayes Error * Inequalities and alternate
distance measures * Linear discrimination * Nearest neighbor rules *
Consistency * Slow rates of convergence Error estimation * The regular
histogram rule * Kernel rules Consistency of the k-nearest neighbor
rule * Vapnik-Chervonenkis theory * Combinatorial aspects of Vapnik-
Chervonenkis theory * Lower bounds for empirical classifier selection
* The maximum likelihood principle * Parametric classification *
Generalized linear discrimination * Complexity regularization *
Condensed and edited nearest neighbor rules * Tree classifiers * Data-
dependent partitioning * Splitting the data * The resubstitution
estimate * Deleted estimates of the error probability * Automatic
kernel rules * Automatic nearest neighbor rules * Hypercubes and
discrete spaces * Epsilon entropy and totally bounded sets * Uniform
laws of large numbers * Neural networks * Other error estimates *
Feature extraction * Appendix * Notation * References * Index