Neural Networks and Deep Learning
Autor Charu C. Aggarwalen Limba Engleză Paperback – iul 2024
În cadrul acestei a doua ediții a volumului Neural Networks and Deep Learning, descoperim o structură riguros compartimentată, menită să ghideze cititorul de la mecanismele elementare la cele mai complexe arhitecturi contemporane. Organizarea materialului urmează o progresie logică în trei etape: primele capitole stabilesc legătura matematică dintre învățarea automată clasică și rețelele neuronale, partea centrală se concentrează pe fundamentele antrenării și regularizării, în timp ce secțiunile finale explorează frontierele actuale ale domeniului. Reținem efortul autorului de a demistifica succesul rețelelor adânci, oferind răspunsuri argumentate la întrebări esențiale despre utilitatea adâncimii rețelelor și dificultățile inerente procesului de antrenare. Considerăm că această ediție aduce o valoare adăugată semnificativă prin capitolele noi despre rețelele neuronale pe grafuri și prin extinderea secțiunilor dedicate modelelor de limbaj bazate pe transformatoare. Această abordare completează perspectiva oferită de Understanding Deep Learning de Simon J. D. Prince; în timp ce Prince pune accent pe o intuiție digestibilă și curatată, Charu C. Aggarwal preferă o tratare algoritmică exhaustivă, ancorată în teoria matematică solidă. De asemenea, lucrarea se distinge de Introduction to Deep Learning de Sandro Skansi prin profunzimea detaliilor tehnice, fiind adresată cu precădere studenților la nivel masteral sau cercetătorilor. Poziționăm acest titlu ca un pilon central în opera autorului, făcând trecerea de la lucrările sale axate pe baze de date spre inteligența artificială modernă. Cartea rafinează conceptele prezentate în Linear Algebra and Optimization for Machine Learning, aplicând acele fundamente teoretice direct în designul arhitectural al rețelelor neuronale. Prin includerea unor teme precum învățarea prin întărire (reinforcement learning) și rețelele generative adversariale, Aggarwal oferă un instrumentar complet pentru înțelegerea peisajului tehnologic actual.
Preț: 427.05 lei
Carte disponibilă
Livrare economică 19 mai-02 iunie
Livrare express 02-08 mai pentru 64.62 lei
Specificații
ISBN-10: 3031296443
Pagini: 556
Ilustrații: XXIV, 529 p. 150 illus., 22 illus. in color.
Dimensiuni: 178 x 254 x 30 mm
Greutate: 1.03 kg
Ediția:Second Edition 2023
Editura: Springer
Locul publicării:Cham, Switzerland
De ce să citești această carte
Recomandăm această carte oricărui student la informatică sau inginerie care dorește să înțeleagă nu doar cum să folosească modelele de deep learning, ci mai ales de ce funcționează acestea. Cititorul câștigă o viziune unitară asupra domeniului, învățând să proiecteze arhitecturi specifice pentru text, imagini sau grafuri. Este resursa ideală pentru a trece de la utilizarea unor biblioteci software la înțelegerea algoritmilor de bază care stau la temelia inteligenței artificiale.
Despre autor
Charu C. Aggarwal este un cercetător de renume mondial, ocupând poziția de Research Staff Member la IBM Research. Cu un parcurs academic de excepție, fiind licențiat la IIT Kanpur și doctor al MIT, Aggarwal a publicat peste 90 de lucrări științifice și deține zeci de brevete de invenție, fiind desemnat „Master Inventor” de către IBM. Experiența sa vastă în data mining și baze de date se reflectă în precizia matematică a textelor sale. În contextul actualei lucrări, autorul folosește rigoarea dobândită în cercetarea industrială pentru a oferi o perspectivă pragmatică, dar profund teoretică asupra rețelelor neuronale.
Descriere scurtă
The basics of neural networks: The backpropagation algorithm is discussed in Chapter 2.
Many traditional machine learning models can be understood as special cases of neural networks. Chapter 3 explores the connections between traditional machine learning and neural networks. Support vector machines, linear/logistic regression, singular value decomposition, matrix factorization, and recommender systems are shown to be special cases of neural networks.
Fundamentals of neural networks: A detailed discussion of training and regularization is provided in Chapters 4 and 5. Chapters 6 and 7 present radial-basis function (RBF) networks and restricted Boltzmann machines.
Advanced topics in neural networks: Chapters 8, 9, and 10 discuss recurrent neural networks, convolutional neural networks, and graph neural networks. Several advanced topics like deep reinforcement learning, attention mechanisms, transformer networks, Kohonen self-organizing maps, and generative adversarial networks are introduced in Chapters 11 and 12.
The textbook is written for graduate students and upper under graduate level students. Researchers and practitioners working within this related field will want to purchase this as well.
Where possible, an application-centric view is highlighted in order to provide an understanding of the practical uses of each class of techniques.
The second edition is substantially reorganized and expanded with separate chapters on backpropagation and graph neural networks. Many chapters have been significantly revised over the first edition. Greater focus is placed on modern deep learning ideas such as attention mechanisms, transformers, and pre-trained language models.