Cantitate/Preț
Produs

Nonlinear Conjugate Gradient Methods for Unconstrained Optimization: Springer Optimization and Its Applications, cartea 158

Autor Neculai Andrei
en Limba Engleză Paperback – 24 iun 2021

Monografia Nonlinear Conjugate Gradient Methods for Unconstrained Optimization reprezintă un efort de sistematizare fără precedent, fiind prima lucrare care analizează în profunzime metodele gradientului conjugat pentru probleme de optimizare nelineară de mari dimensiuni. Observăm o abordare riguroasă, dar accesibilă, care transformă teoria algoritmilor într-o metodologie de lucru aplicabilă, oferind cititorului instrumentele necesare nu doar pentru a înțelege convergența, ci și pentru a dezvolta proprii algoritmi.

Structura volumului este una progresivă: după o introducere necesară în algoritmii liniari, autorul trece prin metodele standard, accelerarea acestora și variantele hibride sau parametrizate. Descoperim aici secțiuni tehnice avansate dedicate precondiționării BFGS memoryless și metodelor cu trei termeni, elemente esențiale pentru performanța computațională modernă. Comparabil cu Modern Numerical Nonlinear Optimization în rigurozitate, acest volum este actualizat pentru provocările specifice ale scalabilității, aducând în prim-plan eficiența metodelor gradientului conjugat în raport cu abordările quasi-Newton.

Ceea ce diferențiază această lucrare în bibliografia autorului Neculai Andrei este focusul empiric masiv. Dacă în Nonlinear Optimization Applications Using the GAMS Technology accentul cădea pe modelarea în limbaj GAMS, aici accentul este pus pe mecanica internă a algoritmilor și pe validarea lor prin studii numerice. Analiza a 800 de probleme complexe, cu până la 10.000 de variabile, oferă o bază solidă pentru concluziile privind performanța și robustețea metodelor prezentate, transformând textul într-o resursă fundamentală pentru cercetarea operațională și inginerie.

Citește tot Restrânge

Din seria Springer Optimization and Its Applications

Preț: 87139 lei

Preț vechi: 106267 lei
-18%

Puncte Express: 1307

Carte tipărită la comandă

Livrare economică 17 iunie-01 iulie


Specificații

ISBN-13: 9783030429522
ISBN-10: 3030429520
Pagini: 528
Ilustrații: XXVIII, 498 p. 93 illus., 90 illus. in color.
Dimensiuni: 155 x 235 x 29 mm
Greutate: 0.79 kg
Ediția:1st edition 2020
Editura: Springer
Colecția Springer Optimization and Its Applications
Seria Springer Optimization and Its Applications

Locul publicării:Cham, Switzerland

De ce să citești această carte

Această lucrare este esențială pentru cercetătorii și studenții la doctorat care au nevoie de o bază teoretică și practică solidă în optimizarea de mari dimensiuni. Câștigați acces la o analiză comparativă detaliată a celor mai eficienți algoritmi și învățați cum să demonstrați convergența propriilor metode. Este un ghid complet care face trecerea de la teoria matematică pură la implementarea industrială eficientă.


Despre autor

Neculai Andrei este un cercetător proeminent în domeniul optimizării matematice, cu o activitate vastă publicată sub egida Springer. Expertiza sa acoperă atât dezvoltarea de algoritmi teoretici, cât și aplicațiile practice în inginerie, fiind recunoscut pentru utilizarea tehnologiei GAMS în rezolvarea problemelor complexe de optimizare nelineară. Lucrările sale sunt puncte de referință în literatura de specialitate, reușind să îmbine rigoarea matematică cu necesitățile computaționale ale cercetării operaționale moderne.


Descriere scurtă

Two approaches are known for solving large-scale unconstrained optimization problems—the limited-memory quasi-Newton method (truncated Newton method) and the conjugate gradient method. This is the first book to detail conjugate gradient methods, showing their properties and convergence characteristics as well as their performance in solving large-scale unconstrained optimization problems and applications. Comparisons to the limited-memory and truncated Newton methods are also discussed. Topics studied in detail include: linear conjugate gradient methods, standard conjugate gradient methods, acceleration of conjugate gradient methods, hybrid, modifications of the standard scheme, memoryless BFGS preconditioned, and three-term. Other conjugate gradient methods with clustering the eigenvalues or with the minimization of the condition number of the iteration matrix, are also treated. For each method, the convergence analysis, the computational performances and thecomparisons versus other conjugate gradient methods are given.  
The theory behind the conjugate gradient algorithms presented as a methodology is developed with a clear, rigorous, and friendly exposition; the reader will gain an understanding of their properties and their convergence and will learn to develop and prove the convergence of his/her own methods. Numerous numerical studies are supplied with comparisons and comments on the behavior of conjugate gradient algorithms for solving a collection of 800 unconstrained optimization problems of different structures and complexities with the number of variables in the range [1000,10000].  The book is addressed to all those interested in developing and using new advanced techniques for solving unconstrained optimization complex problems. Mathematical programming researchers, theoreticians and practitioners in operations research, practitioners in engineering and industry researchers, as well as graduate students in mathematics, Ph.D. and master students in mathematical programming, will find plenty of information and practical applications for solving large-scale unconstrained optimization problems and applications by conjugate gradient methods.

Cuprins

1. Introduction.- 2. Linear Conjugate Gradient Algorithm.- 3. General Convergence Results for Nonlinear Conjugate Gradient Methods.- 4.  Standard Conjugate Gradient Methods.- 5. Acceleration of Conjugate Gradient Algorithms.- 6. Hybrid and Parameterized Conjugate Gradient Methods.- 7. Conjugate Gradient Methods as Modifications of the Standard Schemes.- 8. Conjugate Gradient Methods Memoryless BFGS Preconditioned.- 9. Three-Term Conjugate Gradient Methods.- 10. Other Conjugate Gradient Methods.- 11. Discussion and Conclusions.- References.- Author Index.- Subject Index.

Recenzii

“The book is well written for understanding several kinds of nonlinear CG methods and their
convergence properties. … The book will be very useful for researchers, graduate students and practitioners interested in studying nonlinear CG methods.” (Hiroshi Yabe, Mathematical Reviews, April, 2022)

Notă biografică

Neculai Andrei holds a position at the Center for Advanced Modeling and Optimization at the Academy of Romanian Scientists in Bucharest, Romania. Dr. Andrei’s areas of interest include mathematical modeling, linear programming, nonlinear optimization, high performance computing, and numerical methods in mathematical programming. In addition to this present volume, Neculai Andrei has published 2 books with Springer including Continuous Nonlinear Optimization for Engineering Applications in GAMS Technology (2017) and Nonlinear Optimization Applications Using the GAMS Technology (2013).

Caracteristici

An explicit and thorough treatment of the conjugate gradient algorithms for unconstrained optimization properties and convergence A clear illustration of the numerical performances of the algorithms described in the book Provides a deep analysis of the performances of the algorithms Maximizes the reader’s insight into the implementation of the conjugate gradient methods in professional computing programs