Cantitate/Preț
Produs

Information Theoretic Principles for Agent Learning: Synthesis Lectures on Engineering, Science, and Technology

Autor Jerry D. Gibson
en Limba Engleză Hardback – 6 aug 2024

În lucrarea Information Theoretic Principles for Agent Learning, observăm o structură progresivă riguroasă, concepută să ghideze cititorul de la conceptele de bază ale teoriei informației către implementări complexe în învățarea automată. Suntem de părere că această abordare este esențială pentru înțelegerea modului în care metricele statistice pot defini comportamentul unui agent de învățare dincolo de limitele clasice ale transmisiunii de date. Notăm cu interes modul în care Jerry D. Gibson organizează materialul: primele capitole stabilesc fundamentul prin entropie și informație mutuală, trecând apoi prin secvențe tipice și lanțuri Markov, pentru a culmina cu aplicații avansate precum principiul Information Bottleneck și teoria distorsiunii ratei.

Ca și Frank Emmert-Streib în Information Theory and Statistical Learning, autorul distilează experiență reală în principii acționabile, oferind instrumente matematice pentru analiza științei datelor. Totuși, spre deosebire de abordarea pur statistică, Jerry D. Gibson își folosește expertiza vastă acumulată în lucrări de referință precum Digital Communications sau Mobile Communications Handbook pentru a aduce o perspectivă tehnică asupra sistemelor în cascadă și a capacității canalelor. Dacă în lucrările sale anterioare accentul cădea pe transmisia semnalului și egalizarea erorilor, aici focusul se mută pe modul în care aceste principii guvernează achiziția de cunoștințe de către agenții artificiali. Găsim în această carte o punte necesară între ingineria comunicațiilor și arhitecturile moderne de învățare statistică, totul fiind prezentat într-un format dens și aplicat, specific seriei Synthesis Lectures on Engineering, Science, and Technology.

Citește tot Restrânge

Din seria Synthesis Lectures on Engineering, Science, and Technology

Preț: 37300 lei

Puncte Express: 560

Carte disponibilă

Livrare economică 04-18 mai


Specificații

ISBN-13: 9783031653872
ISBN-10: 3031653874
Pagini: 108
Ilustrații: Approx. 150 p.
Dimensiuni: 173 x 246 x 12 mm
Greutate: 0.37 kg
Ediția:2024
Editura: Springer
Colecția Synthesis Lectures on Engineering, Science, and Technology
Seria Synthesis Lectures on Engineering, Science, and Technology

Locul publicării:Cham, Switzerland

De ce să citești această carte

Această carte este ideală pentru inginerii și cercetătorii care doresc să aplice rigoarea teoriei informației în proiectarea agenților de învățare. Cititorul câștigă o înțelegere profundă a limitelor fundamentale ale analizei datelor, învățând să utilizeze entropia și capacitatea canalului ca instrumente de evaluare a performanței algoritmice. Este un ghid tehnic esențial pentru tranziția de la comunicații clasice la știința datelor avansată.


Despre autor

Jerry D. Gibson face parte din Departamentul de Inginerie Electrică al Southern Methodist University din Dallas. Cu o carieră dedicată procesării semnalelor și comunicațiilor, acesta a publicat lucrări fundamentale care au modelat industria telecomunicațiilor, printre care Mobile Communications Handbook și Analog Communications. Expertiza sa în transformate Fourier și procese aleatoare îi permite să abordeze învățarea automată dintr-o perspectivă analitică unică, ancorată în legile fizice și matematice ale fluxului de informație, oferind o claritate rar întâlnită în literatura de specialitate curentă.


Cuprins

Background and Overview.- Entropy and Mutual Information.- Differential Entropy, Entropy Rate, and Maximum Entropy.- Typical Sequences and The AEP.- Markov Chains and Cascaded Systems.- Hypothesis Testing, Estimation, Information, and Sufficient Statistics.- Information Theoretic Quantities and Learning.- Estimation and Entropy Power.- Time Series Analyses.- Information Bottleneck Principle.- Channel Capacity.- Rate Distortion Theory.

Notă biografică

Jerry D. Gibson is Professor of Electrical and Computer Engineering at the University of California, Santa Barbara. He has been an Associate Editor of the IEEE Transactions on Communications and the IEEE Transactions on Information Theory. He was an IEEE Communications Society Distinguished Lecturer for 2007-2008. He is an IEEE Fellow, and he has received The Fredrick Emmons Terman Award (1990), the 1993 IEEE Signal Processing Society Senior Paper Award, the 2009 IEEE Technical Committee on Wireless Communications Recognition Award, and the 2010 Best Paper Award from the IEEE Transactions on Multimedia. He is the author, coauthor, and editor of several books, the most recent of which are The Mobile Communications Handbook (Editor, 3rd ed., 2012), Rate Distortion Bounds for Voice and Video (Coauthor with Jing Hu, NOW Publishers, 2014), and Information Theory and Rate Distortion Theory for Communications and Compression (Morgan-Claypool, 2014). His research interests are lossy source coding, wireless communications and networks, and digital signal processing.

Textul de pe ultima copertă

This book provides readers with the fundamentals of information theoretic techniques for statistical data science analyses and for characterizing the behavior and performance of a learning agent outside of the standard results on communications and compression fundamental limits. Readers will benefit from the presentation of information theoretic quantities, definitions, and results that provide or could provide insights into data science and learning.
In addition, this book:
  • Describes the fundamentals of information theoretic techniques for statistical data science analyses
  • Provides succinct introductions to key topics, with references as needed for further technical depth
  • Enables readers from varying backgrounds to understand the behavior and performance of a learning agent