Cantitate/Preț
Produs

Advances in Multimodal Information Retrieval and Generation: Synthesis Lectures on Computer Vision

Autor Man Luo, Tejas Gokhale, Neeraj Varshney, Yezhou Yang, Chitta Baral
en Limba Engleză Hardback – 26 iun 2024

Ne-a atras atenția Advances in Multimodal Information Retrieval and Generation prin modul riguros în care abordează problema tehnică a fuziunii datelor eterogene. Provocarea principală pe care acest volum o rezolvă este optimizarea sistemelor de inteligență artificială care trebuie să „înțeleagă” și să genereze conținut pornind de la surse multiple, precum textul și imaginea, depășind limitările modelelor unimodale clasice. Putem afirma că lucrarea reprezintă un punct de referință pentru implementarea tehnologiilor de tip Retrieval-Augmented Generation (RAG), oferind un cadru teoretic solid pentru utilizarea arhitecturilor Transformer în procesarea multimodală.

Notăm cu interes structura progresivă a volumului, care facilitează o înțelegere aprofundată a domeniului. Autorii încep prin a revizui metodele de recuperare a informației (IR) pentru text, imagine și audio în mod individual, stabilind astfel o bază comparativă necesară. Ulterior, progresia narativă se mută către învățarea reprezentărilor multimodale și, esențial pentru practicieni, către metodele de evaluare a performanței acestor sisteme complexe. Cititorul care a aplicat deja conceptele fundamentale din Multimodal Learning Using Heterogeneous Data va găsi aici o continuare firească, centrată pe cele mai noi metodologii de generare și pe modul în care interacțiunile dintre modalități pot fi modelate matematic și computațional.

Spre deosebire de lucrări care tratează multimedia la modul general, acest titlu publicat de Springer în seria Synthesis Lectures on Computer Vision se concentrează pe mecanismele interne de aliniere a spațiilor de reprezentare. Este un instrument de lucru esențial pentru cei care doresc să treacă de la simpla clasificare la sisteme generative capabile să recupereze informații relevante din seturi de date masive și diverse.

Citește tot Restrânge

Din seria Synthesis Lectures on Computer Vision

Preț: 36539 lei

Preț vechi: 45674 lei
-20%

Puncte Express: 548

Carte tipărită la comandă

Livrare economică 03-09 iunie


Specificații

ISBN-13: 9783031578151
ISBN-10: 3031578155
Pagini: 172
Ilustrații: VIII, 164 p. 47 illus., 45 illus. in color.
Dimensiuni: 173 x 246 x 16 mm
Greutate: 0.48 kg
Ediția:2025
Editura: Springer
Colecția Synthesis Lectures on Computer Vision
Seria Synthesis Lectures on Computer Vision

Locul publicării:Cham, Switzerland

De ce să citești această carte

Această carte este recomandată cercetătorilor și inginerilor AI care doresc să stăpânească arhitecturile Transformer aplicate pe date mixte. Cititorul câștigă o perspectivă clară asupra sistemelor RAG multimodale, învățând cum să integreze eficient fluxurile de text și imagine. Este un ghid tehnic concis care elimină ambiguitatea din procesul de aliniere a datelor, oferind soluții concrete pentru evaluarea modelelor generative de ultimă generație.


Despre autor

Echipa de autori, formată din cercetători precum Man Luo, Tejas Gokhale, Neeraj Varshney, Yezhou Yang și Chitta Baral, reunește expertiză de vârf în domeniul viziunii computerizate și al procesării limbajului natural. Chitta Baral, profesor la Arizona State University, este recunoscut pentru contribuțiile sale majore în reprezentarea cunoștințelor și raționament logic. Împreună, autorii combină rigoarea academică cu viziunea practică necesară dezvoltării noilor frontiere în inteligența artificială multimodală, fiind implicați în proiecte de cercetare care definesc standardele actuale în învățarea automată.


Descriere scurtă

This book provides an extensive examination of state-of-the-art methods in multimodal retrieval, generation, and the pioneering field of retrieval-augmented generation.  The work is rooted in the domain of Transformer-based models, exploring the complexities of blending and interpreting the intricate connections between text and images.  The authors present cutting-edge theories, methodologies, and frameworks dedicated to multimodal retrieval and generation, aiming to furnish readers with a comprehensive understanding of the current state and future prospects of multimodal AI.  As such, the book is a crucial resource for anyone interested in delving into the intricacies of multimodal retrieval and generation.  Serving as a bridge to mastering and leveraging advanced AI technologies in this field, the book is designed for students, researchers, practitioners, and AI aficionados alike, offering the tools needed to expand the horizons of what can be achieved in multimodal artificial intelligence.

Cuprins

Preface.- Motivation and Background.- Review: Methods for Information Retrieval under Single Modality Setting.- Text IR.- Image IR.- Audio IR.- Review: Multimodal Representation Learning.- Evaluation Methods.- Information Retrieval for Multi-modality Setting.- Conclusions and Future Directions.

Notă biografică

Man Luo, Ph.D. is a Research Fellow at Mayo Clinic, Arizona.  She received her Ph.D. at ASU in 2023. Her research interests lie in Natural Language Processing (NLP) and Computer Vision (CV) with a specific focus on open-domain information retrieval under multi-modality settings and Retrieval-Augmented Generation Models.  She has published first author at top conferences such as AAAI, ACL and EMNLP. She serves as the guest editor of PLOS Digital Medicine Journal. She has served as reviewer for AAAI, IROS, EMNLP, NAACL, ACL conferences.  Dr. Luo is an organizer of the ODRUM workshops at CVPR 2022 and CVPR 2023 and Multimodal4Health at ICHI 2024. 
Tejas Gokhale, Ph.D., is an Assistant Professor at the University of Maryland, Baltimore County.  He received his Ph.D. from Arizona State University in 2023, M.S. from Carnegie Mellon University in 2017, and B.E.(Honours) from Birla Institute of Technology and Science, Pilani in 2015.  Dr. Gokhale is a computer vision researcher working on robust visual understanding with a focus on connection between vision and language, semantic data engineering, and active inference.  His research draws inspiration from the principles of perception, communication, learning, and reasoning.  He is an organizer of the ODRUM workshops at CVPR 2022 and CVPR 2023, SERUM tutorial at WACV 2023, and RGMV tutorial at WACV 2024. 
Neeraj Varshney is a Ph.D. candidate at ASU and works in natural language processing, primarily focusing on improving the efficiency and reliability of NLP models. He has published multiple papers in top-tier NLP and AI conferences including ACL, EMNLP, EACL, NAACL, and AAAI and is a recipient of the SCAI Doctoral Fellowship, GPSA Outstanding Research Award, and Jumpstart Research Grant.  He has served as a reviewer for several conferences including ACL, EMNLP, EACL, and IJCAI and has also been selected as an outstanding reviewer by EACL'23 conference.
Yezhou Yang, Ph.D., is an Associate Professor with the School of Computing and Augmented Intelligence (SCAI), Arizona State University.  He received his Ph.D. from University of Maryland.  His primary interests lie in Cognitive Robotics, Computer Vision, and Robot Vision, especially exploring visual primitives in human action understanding from visual input, grounding them by natural language as well as high-level reasoning over the primitives for intelligent robots. 
Chitta Baral, Ph.D., is a Professor with the School of Computing and Augmented Intelligence (SCAI), Arizona State University and received his Ph.D. from University of Maryland. His primary interests lie in Natural Language Processing (NLP), Computer Vision (CV), the intersection of NLP and CV, and Knowledge Representation and Reasoning.Chitta Baral is a Professor with the School of Computing and Augmented Intelligence (SCAI), Arizona State University, and received his PhD from University of Maryland. His primary interests lie in Natural Language Processing (NLP), Computer Vision (CV), the intersection of NLP and CV, and Knowledge Representation and Reasoning.

Caracteristici

Provides a comprehensive overview of the state-of-the-art in multi-modal architectures and representation learning Presents state-of-the-art techniques including neural models based on transformers and multi-modal learning techniques Explores the foundations and algorithms that power MMIR and how information can be retrieved using multimodal queries