Quick Start Guide to Large Language Models
Autor Sinan Ozdemiren Limba Engleză Paperback – 13 oct 2024
Observăm o structură progresivă riguroasă care transformă complexitatea modelelor de limbaj mari în fluxuri de lucru aplicabile. Quick Start Guide to Large Language Models începe prin demistificarea arhitecturii Transformer, trecând rapid de la conceptele de bază — tokenizare și embeddings — la implementări concrete de căutare semantică și sisteme de tip RAG. Autorul, Sinan Ozdemir, elimină barierele de intrare pentru specialiștii în date, oferind un ghid care nu se limitează la teorie, ci pune accent pe scalabilitate și performanță în producție. Subliniem importanța capitolelor dedicate optimizării, unde cititorul învață să aleagă între modele open-source (precum familia LLaMA de la Meta) și soluții closed-source (OpenAI sau Google). Pe linia practică a volumului Large Language Models Projects, dar cu un focus specific pe integrarea în infrastructuri cloud și conducte de evaluare, această lucrare oferă un echilibru între ingineria de prompt și fine-tuning-ul arhitectural. Reținem că progresia materialului este susținută de exerciții hands-on care acoperă de la construcția unui bot de întrebări și răspunsuri până la antrenarea modelelor multimodale. În contextul operei sale anterioare, Principles of Data Science, unde Sinan Ozdemir punea bazele matematice și de codare pentru analiza datelor, acest nou volum reprezintă o evoluție firească spre vârful tehnologic actual. Dacă în lucrările trecute accentul cădea pe înțelegerea datelor, aici accentul se mută pe utilizarea acestora pentru a „instrui” modele complexe să execute sarcini specifice prin tehnici precum RLHF și RLAIF. Structura în două părți — introducere și maximizarea potențialului LLM — garantează că orice specialist IT poate parcurge drumul de la un simplu apel de API la gestionarea unor arhitecturi neuronale personalizate.
Preț: 289.18 lei
Preț vechi: 361.47 lei
-20%
Carte disponibilă
Livrare economică 27 mai-10 iunie
Livrare express 12-16 mai pentru 60.05 lei
Specificații
ISBN-10: 0135346568
Pagini: 384
Dimensiuni: 176 x 230 x 21 mm
Greutate: 0.64 kg
Ediția:2nd edition
Editura: Pearson Education
De ce să citești această carte
Pentru inginerii de date și dezvoltatorii software care doresc să treacă de la simpla utilizare a ChatGPT la construirea de produse proprietare scalabile. Câștigați expertiză în tehnici esențiale precum RAG, fine-tuning și prompt engineering avansat. Este un instrument practic care transformă conceptele abstracte de inteligență artificială în soluții tehnice gata de implementare în proiecte reale.
Despre autor
Sinan Ozdemir este un om de știință de date și antreprenor în domeniul inteligenței artificiale, recunoscut pentru capacitatea sa de a explica sisteme complexe într-un mod accesibil. Cu o experiență vastă în domeniu, el a fondat companii de tehnologie și a publicat lucrări fundamentale care fac puntea între mediul academic și cel industrial. În Quick Start Guide to Large Language Models, el își folosește expertiza pentru a ghida practicienii prin ecosistemul în continuă schimbare al modelelor de limbaj, punând la dispoziție resurse de cod și seturi de date actualizate pentru cele mai noi arhitecturi de la OpenAI, Google și Meta.
Descriere scurtă
Large Language Models (LLMs) like ChatGPT are demonstrating breathtaking capabilities, but their size and complexity have deterred many practitioners from applying them. In Quick Start Guide to Large Language Models, pioneering data scientist and AI entrepreneur Sinan Ozdemir clears away those obstacles and provides a guide to working with, integrating, and deploying LLMs to solve practical problems.
Ozdemir brings together all you need to get started, even if you have no direct experience with LLMs: step-by-step instructions, best practices, real-world case studies, hands-on exercises, and more. Along the way, he shares insights into LLMs' inner workings to help you optimize model choice, data formats, parameters, and performance. You'll find even more resources on the companion website, including sample datasets and code for working with open- and closed-source LLMs such as those from OpenAI (GPT-4 and ChatGPT), Google (BERT, T5, and Bard), EleutherAI (GPT-J and GPT-Neo), Cohere (the Command family), and Meta (BART and the LLaMA family).
- Learn key concepts: pre-training, transfer learning, fine-tuning, attention, embeddings, tokenization, and more
- Use APIs and Python to fine-tune and customize LLMs for your requirements
- Build a complete neural/semantic information retrieval system and attach to conversational LLMs for retrieval-augmented generation
- Master advanced prompt engineering techniques like output structuring, chain-ofthought, and semantic few-shot prompting
- Customize LLM embeddings to build a complete recommendation engine from scratch with user data
- Construct and fine-tune multimodal Transformer architectures using opensource LLMs
- Align LLMs using Reinforcement Learning from Human and AI Feedback (RLHF/RLAIF)
- Deploy prompts and custom fine-tuned LLMs to the cloud with scalability and evaluation pipelines in mind
--Giada Pistilli, Principal Ethicist at HuggingFace
"A refreshing and inspiring resource. Jam-packed with practical guidance and clear explanations that leave you smarter about this incredible new field."
--Pete Huang, author of The Neuron
Register your book for convenient access to downloads, updates, and/or corrections as they become available. See inside book for details.
Cuprins
Part I: Introduction to Large Language Models 1
Chapter 1: Overview of Large Language Models 3 What Are Large Language Models? 4 Popular Modern LLMs 20 Domain-Specific LLMs 22 Applications of LLMs 23 Summary 29
Chapter 2: Semantic Search with LLMs 31 Introduction 31 The Task 32 Solution Overview 34 The Components 35 Putting It All Together 51 The Cost of Closed-Source Components 54 Summary 55
Chapter 3: First Steps with Prompt Engineering 57 Introduction 57 Prompt Engineering 57 Working with Prompts Across Models 65 Building a Q/A Bot with ChatGPT 69 Summary 74
Part II: Getting the Most Out of LLMs 75
Chapter 4: Optimizing LLMs with Customized Fine-Tuning 77 Introduction 77 Transfer Learning and Fine-Tuning: A Primer 78 A Look at the OpenAI Fine-Tuning API 82 Preparing Custom Examples with the OpenAI CLI 84 Setting Up the OpenAI CLI 87 Our First Fine-Tuned LLM 88 Case Study: Amazon Review Category Classification 93 Summary 95
Chapter 5: Advanced Prompt Engineering 97 Introduction 97 Prompt Injection Attacks 97 Input/Output Validation 99 Batch Prompting 103 Prompt Chaining 104 Chain-of-Thought Prompting 111 Revisiting Few-Shot Learning 113 Testing and Iterative Prompt Development 123 Summary 124
Chapter 6: Customizing Embeddings and Model Architectures 125 Introduction 125 Case Study: Building a Recommendation System 126 Summary 144
Part III: Advanced LLM Usage 145
Chapter 7: Moving Beyond Foundation Models 147 Introduction 147 Case Study: Visual Q/A 147 Case Study: Reinforcement Learning from Feedback 163 Summary 173
Chapter 8: Advanced Open-Source LLM Fine-Tuning 175 Introduction 175 Example: Anime Genre Multilabel Classification with BERT 176 Example: LaTeX Generation with GPT2 189 Sinan's Attempt at Wise Yet Engaging Responses: SAWYER 193 The Ever-Changing World of Fine-Tuning 206 Summary 207
Chapter 9: Moving LLMs into Production 209 Introduction 209 Deploying Closed-Source LLMs to Production 209 Deploying Open-Source LLMs to Production 210 Summary 225
Part IV: Appendices 227
Appendix A: LLM FAQs 229 Appendix B: LLM Glossary 233 Appendix C: LLM Application Archetypes 239
Index 243