Deep Learning Architectures: Springer Series in the Data Sciences
Autor Ovidiu Calinen Limba Engleză Hardback – 14 feb 2020
Subliniem faptul că Deep Learning Architectures nu este un manual de programare, ci o investigație riguroasă a fundamentelor matematice care guvernează inteligența artificială modernă. Suntem de părere că valoarea acestui volum rezidă în metodologia sa de organizare: materialul pornește de la componentele atomice — funcții de activare și algoritmi de optimizare — și evoluează sistematic către arhitecturi complexe precum rețelele convoluționale și recurente. Structura cuprinsului reflectă o tranziție logică de la învățarea exactă și reprezentarea informației către concepte avansate de geometrie a informației, culminând cu analiza neuromanifoldurilor. Această lucrare ocupă un loc distinct în bibliografia de specialitate prin rigoarea formală. Acoperă aceeași arie tematică precum Math and Architectures of Deep Learning de Krishnendu Chaudhury, dar cu o abordare mult mai teoretică, eliminând implementările de cod în favoarea demonstrațiilor matematice robuste. Dacă lucrări precum cele ale lui Ian Goodfellow oferă o panoramă vastă a domeniului, Ovidiu Calin alege să pună sub lupă mecanismele de aproximare universală, oferind instrumente analitice pentru cercetătorii care doresc să înțeleagă „cutia neagră” a rețelelor neurale. În contextul operei autorului, această ediție reprezintă o convergență naturală a preocupărilor sale anterioare. Regăsim aici finețea analitică din Geometric Modeling in Probability and Statistics, aplicată acum structurilor de date de mare dimensiune. Deep Learning Architectures transformă intuițiile empirice din ingineria software în teoreme matematice, fiind o resursă esențială pentru cursuri postuniversitare unde precizia limbajului modern este prioritară.
Preț: 625.51 lei
Preț vechi: 762.81 lei
-18%
Carte disponibilă
Livrare economică 04-18 mai
Livrare express 17-23 aprilie pentru 82.58 lei
Specificații
ISBN-10: 3030367207
Pagini: 760
Ilustrații: XXX, 760 p. 207 illus., 35 illus. in color.
Dimensiuni: 182 x 263 x 42 mm
Greutate: 1.74 kg
Ediția:1st edition 2020
Editura: Springer Nature Switzerland AG
Colecția Springer Series in the Data Sciences
Seria Springer Series in the Data Sciences
Locul publicării:Cham, Switzerland
De ce să citești această carte
Recomandăm această carte cercetătorilor și studenților la masterat care doresc să depășească nivelul intuitiv al învățării profunde. Cititorul câștigă o înțelegere matematică profundă asupra modului în care rețelele neurale procesează informația, beneficiind de expertiza unui specialist în analiză geometrică. Este resursa ideală pentru a înțelege de ce și cum funcționează arhitecturile complexe, nu doar cum să le implementezi.
Despre autor
Ovidiu Calin este profesor asociat de matematică la Eastern Michigan University, având un doctorat în analiză geometrică obținut la University of Toronto. Cu o carieră academică ce include stagii la University of Notre Dame și prelegeri internaționale, autorul s-a specializat în studiul varietăților și al geometriei informației. Experiența sa în scrierea de monografii tehnice despre nuclee de căldură și finanțe computaționale se reflectă în precizia și eleganța cu care tratează arhitecturile de deep learning în acest volum publicat de Springer Nature Switzerland AG.
Cuprins
Introductory Problems.- Activation Functions.- Cost Functions.- Finding Minima Algorithms.- Abstract Neurons.- Neural Networks.- Approximation Theorems.- Learning with One-dimensional Inputs.- Universal Approximators.- Exact Learning.- Information Representation.- Information Capacity Assessment.- Output Manifolds.- Neuromanifolds.- Pooling.- Convolutional Networks.- Recurrent Neural Networks.- Classification.- Generative Models.- Stochastic Networks.- Hints and Solutions.
Recenzii
Notă biografică
Ovidiu Calin, a graduate from University of Toronto, is a professor at Eastern Michigan University and a former visiting professor at Princeton University and University of Notre Dame. He has delivered numerous lectures at several universities in Japan, Hong Kong, Taiwan, and Kuwait over the last 15 years. His publications include over 60 articles and 8 books in the fields of machine learning, computational finance, stochastic processes, variational calculus and geometric analysis.
Textul de pe ultima copertă
This book describes how neural networks operate from the mathematical point of view. As a result, neural networks can be interpreted both as function universal approximators and information processors. The book bridges the gap between ideas and concepts of neural networks, which are used nowadays at an intuitive level, and the precise modern mathematical language, presenting the best practices of the former and enjoying the robustness and elegance of the latter.
This book can be used in a graduate course in deep learning, with the first few parts being accessible to senior undergraduates. In addition, the book will be of wide interest to machine learning researchers who are interested in a theoretical understanding of the subject.
Caracteristici
Full solutions provided to all exercises
Appendices including topics needed in the book exposition