Cantitate/Preț
Produs

How Large Language Models Work

Autor Edward Raff, Drew Farris, Stella Biderman
en Limba Engleză Paperback – 5 aug 2025

Structura progresivă: de la concept la implementare, transformă acest volum într-o resursă tehnică esențială pentru înțelegerea mecanismelor interne ale modelelor lingvistice mari. Notăm cu interes modul în care autorii de la Manning Publications, cercetători de elită în cadrul Booz Allen Hamilton, reușesc să demistifice arhitecturi complexe precum GPT sau Gemini fără a sacrifica rigoarea științifică. Textul ghidează cititorul prin procesul de transformare a unui prompt în text coerent, explicând rolul crucial al tokenizării și al arhitecturii de tip Transformer.

Reținem accentul pus pe latura aplicativă a tehnologiei. Edward Raff, Drew Farris și Stella Biderman nu se limitează la teorie, ci detaliază tehnici de optimizare precum Retrieval Augmented Generation (RAG) și fine-tuning-ul bazat pe feedback uman. Ne-a atras atenția capitolul dedicat limitărilor și erorilor de înaltă mize, oferind soluții concrete pentru reducerea halucinațiilor și a bias-ului în aplicațiile de producție. Cititorul care a aplicat ideile din Building Applications with Large Language Models de Bhawna Singh va găsi aici fundamentul teoretic și structural care completează perfect implementarea practică, oferind o perspectivă mai profundă asupra modului în care aceste sisteme „gândesc”.

Experiența de lectură este susținută de o organizare logică a informației, de la modul în care LLM-urile văd lumea prin tokeni, până la integrarea acestora în sisteme complexe de interacțiune om-calculator. Deși volumul este accesibil și celor fără experiență în Machine Learning, profunzimea detaliilor despre antrenament și constrângerea comportamentului modelelor îl face valoros și pentru profesioniștii din IT care doresc să construiască soluții AI fiabile.

Citește tot Restrânge

Preț: 26109 lei

Preț vechi: 32636 lei
-20%

Puncte Express: 392

Carte disponibilă

Livrare economică 02-16 mai
Livrare express 18-24 aprilie pentru 11830 lei


Specificații

ISBN-13: 9781633437081
ISBN-10: 1633437086
Pagini: 200
Dimensiuni: 186 x 233 x 11 mm
Greutate: 0.36 kg
Editura: Manning Publications

De ce să citești această carte

Recomandăm această carte oricărui profesionist sau entuziast care dorește să treacă de la simpla utilizare a chatboților la înțelegerea arhitecturală a sistemelor AI. Veți câștiga o viziune clară asupra proceselor de fine-tuning și RAG, esențiale pentru dezvoltarea de aplicații sigure și eficiente. Este un ghid practic care elimină confuzia din jurul modelelor generative, oferind instrumentele necesare pentru a evalua corect performanța și etica în proiectele de inteligență artificială.


Descriere

Learn how large language models like GPT and Gemini work under the hood in plain English. How Large Language Models Work translates years of expert research on Large Language Models into a readable, focused introduction to working with these amazing systems. It explains clearly how LLMs function, introduces the optimization techniques to fine-tune them, and shows how to create pipelines and processes to ensure your AI applications are efficient and error-free. In How Large Language Models Work you will learn how to: • Test and evaluate LLMs • Use human feedback, supervised fine-tuning, and Retrieval Augmented Generation (RAG) • Reducing the risk of bad outputs, high-stakes errors, and automation bias • Human-computer interaction systems • Combine LLMs with traditional ML How Large Language Models Work is authored by top machine learning researchers at Booz Allen Hamilton, including researcher Stella Biderman, Director of AI/ML Research Drew Farris, and Director of Emerging AI Edward Raff. They lay out how LLM and GPT technology works in plain language that’s accessible and engaging for all. About the Technology Large Language Models put the “I” in “AI.” By connecting words, concepts, and patterns from billions of documents, LLMs are able to generate the human-like responses we’ve come to expect from tools like ChatGPT, Claude, and Deep-Seek. In this informative and entertaining book, the world’s best machine learning researchers from Booz Allen Hamilton explore foundational concepts of LLMs, their opportunities and limitations, and the best practices for incorporating AI into your organizations and applications. About the Book How Large Language Models Work takes you inside an LLM, showing step-by-step how a natural language prompt becomes a clear, readable text completion. Written in plain language, you’ll learn how LLMs are created, why they make errors, and how you can design reliable AI solutions. Along the way, you’ll learn how LLMs “think,” how to design LLM-powered applications like agents and Q&A systems, and how to navigate the ethical, legal, and security issues. What’s Inside • Customize LLMs for specific applications • Reduce the risk of bad outputs and bias • Dispel myths about LLMs • Go beyond language processing About the Readers No knowledge of ML or AI systems is required. About the Author Edward Raff, Drew Farris and Stella Biderman are the Director of Emerging AI, Director of AI/ML Research, and machine learning researcher at Booz Allen Hamilton. Table of Contents 1 Big picture: What are LLMs? 2 Tokenizers: How large language models see the world 3 Transformers: How inputs become outputs 4 How LLMs learn 5 How do we constrain the behavior of LLMs? 6 Beyond natural language processing 7 Misconceptions, limits, and eminent abilities of LLMs 8 Designing solutions with large language models 9 Ethics of building and using LLMs Get a free eBook (PDF or ePub) from Manning as well as access to the online liveBook format (and its AI assistant that will answer your questions in any language) when you purchase the print book.