Cantitate/Preț
Produs

Large Language Models for Developers: MLI Generative AI Series

Autor Oswald Campesato
en Limba Engleză Paperback – 2025

Implementarea eficientă a modelelor de limbaj de mari dimensiuni (LLM) în fluxurile de producție reprezintă o provocare tehnică majoră, de la gestionarea latenței până la optimizarea resurselor hardware. Large Language Models for Developers de Oswald Campesato abordează direct aceste obstacole, oferind un ghid tehnic riguros pentru dezvoltatorii care au deja baze solide în învățarea automată. Observăm o tranziție clară de la teoria arhitecturilor generative la aplicații practice, unde cititorul învață să lucreze cu modele de vârf precum Llama-3.1 405B sau GPT-4o.

Ne-a atras atenția profunzimea capitolului dedicat arhitecturii Transformer, unde mecanismul de atenție este explicat prin pași de implementare a straturilor de self-attention. Spre deosebire de lucrările introductive, acest volum din MLI Generative AI Series pune un accent deosebit pe eficiență. Capitolul despre cuantificare (quantization) explorează metode dinamice și probabilistice esențiale pentru reducerea amprentei de memorie fără a degrada performanța. Cititorul care a aplicat ideile din Building Applications with Large Language Models de Bhawna Singh va găsi aici o aprofundare tehnică superioară, în special în zona de fine-tuning prin LoRA și QLoRA, tehnici care permit personalizarea modelelor pe seturi de date specifice cu resurse computaționale minime.

Stilul este unul pragmatic, axat pe cod Python și structuri de prompt-uri avansate, precum Chain of Thought (CoT) și Tree of Thought. Apreciem faptul că autorul nu se limitează la utilizarea API-urilor, ci ghidează dezvoltatorul prin întregul ecosistem de optimizare necesar pentru a transforma un model generic într-o soluție specializată de înaltă performanță.

Citește tot Restrânge

Din seria MLI Generative AI Series

Preț: 43748 lei

Preț vechi: 54685 lei
-20%

Puncte Express: 656

Carte disponibilă

Livrare economică 01-07 mai
Livrare express 18-24 aprilie pentru 4755 lei


Specificații

ISBN-13: 9781501523564
ISBN-10: 1501523562
Pagini: 1046
Dimensiuni: 152 x 229 x 56 mm
Greutate: 1.48 kg
Ediția:1. Auflage
Editura: Mercury Learning and Information
Colecția MLI Generative AI Series
Seria MLI Generative AI Series


De ce să citești această carte

Recomandăm această resursă dezvoltatorilor IT care doresc să treacă de la simpla utilizare a chat-urilor la ingineria de sistem în AI generativ. Câștigați expertiză în tehnici critice de optimizare precum cuantificarea și fine-tuning-ul eficient, elemente obligatorii pentru scalarea oricărei aplicații bazate pe LLM-uri moderne. Este un manual tehnic de referință care transformă conceptele complexe de cercetare în instrumente de producție utilizabile.


Descriere

This book offers a thorough exploration of Large Language Models (LLMs), guiding developers through the evolving landscape of generative AI and equipping them with the skills to utilize LLMs in practical applications. Designed for developers with a foundational understanding of machine learning, this book covers essential topics such as prompt engineering techniques, fine-tuning methods, attention mechanisms, and quantization strategies to optimize and deploy LLMs. Beginning with an introduction to generative AI, the book explains distinctions between conversational AI and generative models like GPT-4 and BERT, laying the groundwork for prompt engineering (Chapters 2 and 3). Some of the LLMs that are used for generating completions to prompts include Llama-3.1 405B, Llama 3, GPT-4o, Claude 3, Google Gemini, and Meta AI. Readers learn the art of creating effective prompts, covering advanced methods like Chain of Thought (CoT) and Tree of Thought prompts. As the book progresses, it details fine-tuning techniques (Chapters 5 and 6), demonstrating how to customize LLMs for specific tasks through methods like LoRA and QLoRA, and includes Python code samples for hands-on learning. Readers are also introduced to the transformer architecture's attention mechanism (Chapter 8), with step-by-step guidance on implementing self-attention layers. For developers aiming to optimize LLM performance, the book concludes with quantization techniques (Chapters 9 and 10), exploring strategies like dynamic quantization and probabilistic quantization, which help reduce model size without sacrificing performance. FEATURES * Covers the full lifecycle of working with LLMs, from model selection to deployment * Includes code samples using practical Python code for implementing prompt engineering, fine-tuning, and quantization * Teaches readers to enhance model efficiency with advanced optimization techniques * Includes companion files with code and images -- available from the publisher