A Derivative-free Two Level Random Search Method for Unconstrained Optimization: SpringerBriefs in Optimization
Autor Neculai Andreien Limba Engleză Paperback – apr 2021
Observăm în această primă ediție a lucrării A Derivative-free Two Level Random Search Method for Unconstrained Optimization o abordare inovatoare în domeniul matematicii aplicate, concentrată pe rezolvarea problemelor de optimizare fără restricții prin metode care nu utilizează derivate. Autorul introduce un algoritm original bazat pe generarea aleatorie a punctelor de probă, unde selecția celor mai bune variante se face iterativ, pe baza unui set riguros de reguli. Această metodă se distinge de soluțiile clasice prin eficiența demonstrată în gestionarea unui număr mare de variabile, fiind testată pe 140 de scenarii complexe.
Structura monografiei este una progresivă: după o introducere conceptuală, capitolul al doilea detaliază metoda de căutare aleatorie pe două niveluri, urmat de o demonstrație matematică a convergenței algoritmului în capitolul al treilea. Găsim în capitolul al patrulea o analiză empirică vastă, care include 16 aplicații din lumea reală, evidențiind tranziția procesului de optimizare de la faza de reducere la cea de stagnare. Această lucrare acoperă o arie tematică similară cu Derivative-Free and Blackbox Optimization de Charles Audet, însă, spre deosebire de abordarea didactică și modulară a lui Audet, textul lui Neculai Andrei este mai focalizat pe o metodologie specifică de căutare aleatorie și pe performanța computațională a acesteia în probleme de scară largă.
În contextul operei sale, această carte completează cercetările anterioare precum Nonlinear Conjugate Gradient Methods for Unconstrained Optimization, unde autorul explora metode de gradient conjugat pentru probleme de dimensiuni mari. Dacă în lucrările precedente accentul cădea pe tehnici GAMS sau metode bazate pe gradient, volumul de față propune o alternativă robustă pentru situațiile în care informațiile despre derivate sunt indisponibile sau dificil de calculat, consolidând expertiza autorului în optimizarea neliniară modernă.
Din seria SpringerBriefs in Optimization
-
Preț: 328.85 lei -
Preț: 332.41 lei -
Preț: 364.56 lei -
Preț: 365.09 lei -
Preț: 365.29 lei -
Preț: 364.35 lei -
Preț: 364.35 lei -
Preț: 362.30 lei -
Preț: 366.87 lei -
Preț: 365.33 lei - 15%
Preț: 443.57 lei - 15%
Preț: 448.01 lei -
Preț: 360.18 lei -
Preț: 359.94 lei -
Preț: 358.97 lei -
Preț: 363.71 lei -
Preț: 360.87 lei -
Preț: 363.99 lei -
Preț: 363.54 lei -
Preț: 429.79 lei -
Preț: 366.49 lei -
Preț: 365.97 lei -
Preț: 367.07 lei -
Preț: 364.65 lei -
Preț: 359.14 lei -
Preț: 429.35 lei -
Preț: 462.32 lei - 15%
Preț: 387.53 lei -
Preț: 364.57 lei - 15%
Preț: 387.93 lei -
Preț: 366.74 lei -
Preț: 334.47 lei
Preț: 429.79 lei
Carte tipărită la comandă
Livrare economică 17 iunie-01 iulie
Specificații
ISBN-10: 3030685160
Pagini: 118
Ilustrații: XI, 118 p. 14 illus., 13 illus. in color.
Dimensiuni: 155 x 235 mm
Greutate: 0.2 kg
Ediția:1st ed. 2021
Editura: Springer International Publishing
Colecția Springer
Seria SpringerBriefs in Optimization
Locul publicării:Cham, Switzerland
De ce să citești această carte
Această lucrare este esențială pentru cercetătorii și studenții la master sau doctorat din domeniile matematicii și informaticii care caută metode numerice robuste. Cititorul câștigă acces la un algoritm nou, validat prin teste pe 140 de probleme complexe, și înțelege mecanismele de convergență ale căutării aleatorii. Este un instrument valoros pentru cei care lucrează cu optimizări de scară largă unde metodele tradiționale bazate pe derivate nu sunt aplicabile.
Despre autor
Neculai Andrei este un cercetător proeminent în domeniul optimizării matematice, recunoscut pentru contribuțiile sale sistematice în dezvoltarea algoritmilor de optimizare neliniară. Opera sa vastă include titluri de referință precum Modern Numerical Nonlinear Optimization și studii aplicate în tehnologia GAMS, reflectând o preocupare constantă pentru intersecția dintre rigoarea teoretică și eficiența computațională. Prin lucrările sale publicate la edituri de prestigiu precum Springer, autorul a influențat cercetarea în metodele de gradient conjugat și optimizarea de scară largă, fiind o figură centrală în comunitatea de cercetare operațională din România și de la nivel internațional.
Descriere scurtă
Structured into 4 chapters, Chapter 1 is introductory. Chapter 2 is dedicated to presenting a two level derivative-free random search method for unconstrained optimization. It is assumed that the minimizing function is continuous, lower bounded and its minimum value is known. Chapter 3 proves the convergence of the algorithm. In Chapter 4, the numerical performances of the algorithm are shown for solving 140 unconstrained optimization problems, out of which 16 are real applications. This shows that the optimization process has two phases: the reduction phase and the stalling one. Finally, the performances of the algorithm for solving a number of 30 large-scale unconstrained optimization problems up to 500 variables are presented. These numerical results show that this approach based on the two level random search method for unconstrained optimization is able to solve a large diversity of problems with different structures and complexities.
There are a number of open problems which refer to the following aspects: the selection of the number of trial or the number of the local trial points, the selection of the bounds of the domains where the trial points and the local trial points are randomly generated and a criterion for initiating the line search.