Linear Algebra and Optimization for Machine Learning
Autor Charu C. Aggarwalen Limba Engleză Hardback – 24 sep 2025
Descoperim în Linear Algebra and Optimization for Machine Learning o structură progresivă riguroasă, concepută special pentru a elimina decalajul dintre matematica pură și implementarea algoritmilor de învățare automată. Considerăm că forța acestui volum rezidă în refuzul de a trata algebra liniară ca pe o disciplină izolată; în schimb, Charu C. Aggarwal ancorează fiecare concept teoretic în utilitatea sa practică imediată. De la transformări liniare la descompunerea valorilor singulare (SVD) și analiza grafurilor, parcursul editorial este unul tehnic și aplicat. Structura cărții este împărțită strategic: prima parte fundamentează algebra liniară prin prisma aplicațiilor precum factorizarea matricială și metodele kernel, în timp ce a doua parte se concentrează pe optimizare, explorând dualitatea și grafurile computaționale. Dacă Mathematics for Machine Learning de Marc Peter Deisenroth v-a oferit cadrul teoretic general, această carte oferă instrumentele practice și detaliile de finețe necesare pentru a înțelege cum funcționează „sub capotă” regresia logistică sau mașinile cu vectori suport (SVM). Această lucrare ocupă un loc central în opera autorului, făcând legătura între fundamentele statistice din Probability and Statistics for Machine Learning și arhitecturile complexe explorate în Neural Networks and Deep Learning. Găsim aici explicații detaliate despre cum optimizarea prin backpropagation nu este doar un algoritm, ci o extensie naturală a calculului matricial. Ediția a doua rafinează aceste concepte, oferind un manual de soluții pentru instructori și exerciții care transformă teoria în competență algoritmică reală.
Preț: 384.26 lei
Preț vechi: 480.33 lei
-20%
Carte disponibilă
Livrare economică 19 mai-02 iunie
Livrare express 02-08 mai pentru 172.54 lei
Specificații
ISBN-10: 3031986180
Pagini: 672
Dimensiuni: 183 x 260 x 42 mm
Greutate: 1.44 kg
Ediția:Second Edition 2026
Editura: Springer
De ce să citești această carte
Pentru studenții avansați și profesioniștii în data science, acest volum este esențial deoarece elimină conținutul matematic redundant, concentrându-se strict pe ce este vital pentru machine learning. Veți câștiga o înțelegere profundă a modului în care optimizarea modelează acuratețea algoritmilor, beneficiind de expertiza unui autor care a modelat domeniul prin zeci de brevete și cercetări fundamentale la IBM.
Despre autor
Charu C. Aggarwal este un cercetător de renume mondial, membru al echipei de cercetare IBM din 1996, după finalizarea doctoratului la MIT. Cu peste 90 de lucrări publicate și peste 50 de brevete de invenție, Aggarwal a fost desemnat de două ori „Master Inventor” la IBM pentru valoarea comercială a inovațiilor sale. Expertiza sa vastă în baze de date și data mining se reflectă în abordarea sa pedagogică, reușind să sintetizeze concepte matematice abstracte în soluții aplicabile pentru inteligența artificială modernă.
Descriere
Cuprins
Recenzii
“This book should be of interest to graduate students in engineering, applied mathematics, and other fields requiring an understanding of the mathematical underpinnings of machine learning.” (IEEE Control Systems Magazine, Vol. 40 (6), December, 2020)
Notă biografică
Textul de pe ultima copertă
1. Linear algebra and its applications: The chapters focus on the basics of linear algebra together with their common applications to singular value decomposition, matrix factorization, similarity matrices (kernel methods), and graph analysis. Numerous machine learning applications have been used as examples, such as spectral clustering, kernel-based classification, and outlier detection. The tight integration of linear algebra methods with examples from machine learning differentiates this book fromgeneric volumes on linear algebra. The focus is clearly on the most relevant aspects of linear algebra for machine learning and to teach readers how to apply these concepts.
2. Optimization and its applications: Much of machine learning is posed as an optimization problem in which we try to maximize the accuracy of regression and classification models. The “parent problem” of optimization-centric machine learning is least-squares regression. Interestingly, this problem arises in both linear algebra and optimization, and is one of the key connecting problems of the two fields. Least-squares regression is also the starting point for support vector machines, logistic regression, and recommender systems. Furthermore, the methods for dimensionality reduction and matrix factorization also require the development of optimization methods. A general view of optimization in computational graphs is discussed together with its applications to back propagation in neural networks.
A frequent challenge faced by beginners in machine learning is the extensive background required in linear algebra and optimization. One problem is that the existing linear algebra and optimization courses are not specific to machine learning; therefore, one would typically have to complete more course material than is necessary to pick up machine learning. Furthermore, certain types of ideas and tricks from optimization and linear algebra recur more frequently in machine learning than other application-centric settings. Therefore, there is significant value in developing a view of linear algebra and optimization that is better suited to the specific perspective of machine learning.