Cantitate/Preț
Produs

Numerical Optimization with Computational Errors: Springer Optimization and Its Applications, cartea 108

Autor Alexander J. Zaslavski
en Limba Engleză Paperback – 27 mai 2018

Recomandăm acest volum ca referință de nivel master și doctorat pentru cercetătorii din domeniul matematicii aplicate și al teoriei optimizării. Lucrarea lui Alexander J. Zaslavski abordează o problemă fundamentală în calculul numeric: modul în care erorile inerente de procesare afectează stabilitatea și convergența algoritmilor. Spre deosebire de abordările pur teoretice care presupun condiții ideale, Numerical Optimization with Computational Errors investighează comportamentul algoritmilor în spații Hilbert sub incidența erorilor de calcul, oferind o perspectivă pragmatică asupra preciziei rezultatelor.

Structura celor 16 capitole reflectă o progresie riguroasă, de la introducerea algoritmilor de proiecție a subgradientului și mirror descent, până la metode complexe precum cea a punctului proximal sau metoda lui Newton. Considerăm că valoarea adăugată a acestei ediții constă în demonstrația faptului că, atâta timp cât erorile sunt menținute sub un anumit prag, algoritmii rămân instrumente robuste pentru obținerea unor soluții aproximative corecte. Cititorii familiarizați cu The Projected Subgradient Algorithm in Convex Optimization vor aprecia modul în care acest volum extinde analiza de la o singură metodă la un spectru larg de tehnici de optimizare, integrând erorile în modele matematice complexe.

Această lucrare continuă direcția de cercetare stabilită de autor în Convex Optimization with Computational Errors, rafinând analizele anterioare prin includerea inegalităților variaționale și a metodelor de penalizare. Stilul este unul tehnic, specific editurii Springer, punând accent pe demonstrații matematice formale și pe aplicabilitatea acestora în inginerie și economie.

Citește tot Restrânge

Din seria Springer Optimization and Its Applications

Preț: 58011 lei

Preț vechi: 72514 lei
-20%

Puncte Express: 870

Carte tipărită la comandă

Livrare economică 25-30 mai


Specificații

ISBN-13: 9783319809175
ISBN-10: 3319809172
Pagini: 304
Ilustrații: IX, 304 p.
Dimensiuni: 155 x 235 mm
Greutate: 0.45 kg
Ediția:Softcover reprint of the original 1st ed. 2016
Editura: Springer International Publishing
Colecția Springer
Seria Springer Optimization and Its Applications

Locul publicării:Cham, Switzerland

De ce să citești această carte

Această monografie este esențială pentru doctoranzii în matematică și informatică care doresc să înțeleagă limitele de eroare acceptabile în algoritmii de optimizare. Cititorul câștigă o înțelegere profundă a stabilității numerice în spații Hilbert, primind instrumente matematice concrete pentru a valida convergența algoritmilor în condiții reale de calcul, unde precizia absolută este imposibilă.


Descriere scurtă

This book studies the approximate solutions of optimization problems in the presence of computational errors. A number of results are presented on the convergence behavior of algorithms in a Hilbert space; these algorithms are examined taking into account computational errors. The author illustrates that algorithms generate a good approximate solution, if computational errors are bounded from above by a small positive constant. Known computational errors  are examined with the aim of determining an approximate solution. Researchers and students interested in the optimization theory and its applications will find this book instructive and informative.
 
This monograph contains 16 chapters; including a chapters devoted to the subgradient projection algorithm, the mirror descent algorithm, gradient projection algorithm, the Weiszfelds method, constrained convex minimization problems, the convergence of a proximal point method in a Hilbert space, the continuous subgradient method, penalty methods and Newton’s method.
  

Cuprins

1. Introduction.- 2. Subgradient Projection Algorithm.- 3. The Mirror Descent Algorithm.- 4. Gradient Algorithm with a Smooth Objective Function.- 5. An Extension of the Gradient Algorithm.- 6. Weiszfeld's Method.- 7. The Extragradient Method for Convex Optimization.- 8. A Projected Subgradient Method for Nonsmooth Problems.- 9. Proximal Point Method in Hilbert Spaces.- 10. Proximal Point Methods in Metric Spaces.- 11. Maximal Monotone Operators and the Proximal Point Algorithm.- 12. The Extragradient Method for Solving Variational Inequalities.- 13. A Common Solution of a Family of Variational Inequalities.- 14. Continuous Subgradient Method.- 15. Penalty Methods.- 16. Newton's method.- References.- Index. 

Recenzii

“The author studies the approximate solutions of optimization problems in the presence of computational errors. A number of results are presented on the convergence behavior of algorithms in a Hilbert space. Researchers and students will find this book instructive and informative. The book has contains 16 chapters … .” (Hans Benker, zbMATH 1347.65112, 2016)

Caracteristici

Examines approximate solutions of optimization problems in the presence of computational errors Reinforces basic principles with an introductory chapter Analyzes the gradient projection algorithm for minimization of convex and smooth functions Includes supplementary material: sn.pub/extras