Cantitate/Preț
Produs

The Projected Subgradient Algorithm in Convex Optimization: SpringerBriefs in Optimization

Autor Alexander J. Zaslavski
en Limba Engleză Paperback – 26 noi 2020

În cadrul programelor de studii avansate în optimizare matematică, analiza stabilității algoritmilor în prezența erorilor numerice reprezintă o necesitate practică stringentă. The Projected Subgradient Algorithm in Convex Optimization se încadrează în acest context disciplinar, oferind o examinare riguroasă a problemelor de minimizare cu constrângeri într-un spațiu Hilbert. Considerăm că relevanța acestui volum rezidă în abordarea realistă a procesului de calcul: autorul nu presupune un mediu de calcul ideal, ci analizează cum erorile specifice fiecărei iterații influențează convergența.

Structura volumului este una progresivă, debutând cu fundamentele optimizării convexe neslefuite și extinzându-se către aplicații complexe în jocurile cu sumă zero între doi jucători și optimizarea cvasiconvexă. Această organizare permite cititorului să urmărească demonstrațiile matematice detaliate, care, așa cum notează recenziile de specialitate, sunt plasate strategic pentru a nu fragmenta cursivitatea lecturii. Autorul Alexander J. Zaslavski continuă aici direcția de cercetare stabilită în lucrări anterioare precum Numerical Optimization with Computational Errors, rafinând studiul soluțiilor aproximative.

Cititorii familiarizați cu Convex Optimization with Computational Errors vor aprecia modul în care acest volum nou izolează și analizează specific algoritmul de proiecție a subgradientului, oferind estimări precise asupra numărului de iterații necesare în funcție de magnitudinea erorilor cunoscute. Față de Optimization in Banach Spaces, unde accentul era pus pe funcții obiectiv diferențiabile Fréchet, lucrarea de față extinde analiza către funcțiile non-diferențiabile, utilizând subgradienții ca instrument central. Recomandăm această monografie pentru rigoarea cu care tratează distincția dintre eroarea de calcul a subgradientului și cea a proiecției pe setul fezabil, un detaliu tehnic crucial pentru implementările în inginerie și economie.

Citește tot Restrânge

Din seria SpringerBriefs in Optimization

Preț: 36707 lei

Puncte Express: 551

Carte tipărită la comandă

Livrare economică 28 mai-11 iunie


Specificații

ISBN-13: 9783030602994
ISBN-10: 3030602990
Pagini: 146
Ilustrații: VI, 146 p.
Dimensiuni: 155 x 235 mm
Greutate: 0.23 kg
Ediția:1st ed. 2020
Editura: Springer International Publishing
Colecția Springer
Seria SpringerBriefs in Optimization

Locul publicării:Cham, Switzerland

De ce să citești această carte

Recomandăm această carte experților în optimizare numerică și cercetătorilor din inginerie care au nevoie de soluții robuste în fața erorilor de calcul. Cititorul câștigă o înțelegere profundă a stabilității algoritmilor de subgradient, primind instrumente matematice concrete pentru a determina numărul de iterații necesar obținerii unei soluții optime într-un mediu de calcul imperfect. Este o resursă esențială pentru rafinarea modelelor computaționale complexe.


Despre autor

Alexander J. Zaslavski este un matematician de renume, specializat în teoria optimizării și analiză neliniară, cu o activitate publicistică vastă în cadrul editurii Springer. Opera sa se concentrează pe studiul fenomenelor de convergență și al condițiilor de stabilitate (precum fenomenul „turnpike”) în controlul optim și optimizarea matematică. Prin lucrări precum Turnpike Conditions in Infinite Dimensional Optimal Control și seria dedicată erorilor computaționale, Zaslavski s-a impus ca o autoritate în analiza comportamentului algoritmilor în spații infinit dimensionale, aducând contribuții teoretice cu aplicabilitate directă în economie și inginerie.


Descriere scurtă

This focused monograph presents a study of subgradient algorithms for constrained minimization problems in a Hilbert space. The book is of interest for experts in applications of optimization  to engineering and economics. The goal is to obtain a good approximate solution of the problem in the presence of computational errors. The discussion takes into consideration the fact that for every algorithm its iteration consists of several steps and that computational errors for different steps are different, in general.  The book is especially useful for the reader because it contains solutions to a number of difficult and interesting problems in the numerical optimization.  The subgradient  projection algorithm is one of the most important tools in optimization theory and its applications. An optimization  problem is described by an objective function and a set of feasible points. For this algorithm each iteration consists of two steps. The first step requires a calculation of a subgradient of the objective function; the second requires a calculation of a projection on the feasible set. The computational errors in each of these two steps are different.  This book shows that the algorithm discussed, generates a good approximate solution, if all the computational errors are bounded from above by a small positive constant. Moreover, if computational errors for the two steps of the algorithm are known, one discovers an approximate solution and how many iterations one needs for this.  In addition to their mathematical interest, the generalizations considered in this book have a significant practical meaning.

Cuprins

1. Introduction.- 2. Nonsmooth Convex Optimization.- 3. Extensions.-  4. Zero-sum Games with Two Players.- 5. Quasiconvex Optimization.- References.

Recenzii

“The book is rigorously written, and organized taking into account the cursiveness of reading. The long proofs of the theorems are placed in annexes to chapters, in order to emphasize the importance of every result in a generating methodology of studying and solving problems.” (Gabriela Cristescu, zbMATH 1464.90063, 2021)

Notă biografică

​Alexander J. Zaslavski is professor in the Department of Mathematics, Technion-Israel Institute of Technology, Haifa, Israel.​

Caracteristici

Studies the influence of computational errors for the generalized subgradient projection algorithm Contains solutions to a number of difficult and interesting problems in the numerical optimization Useful for experts in applications of optimization, engineering, and economics Focuses on the subgradient projection algorithm for minimization of convex and nonsmooth functions and for computing the saddle points of convex-concave functions under the presence of computational errors