Cantitate/Preț
Produs

Deep Learning with Jax

Autor Grigory Sapunov
en Limba Engleză Paperback – 29 oct 2024

Actualizarea majoră pe care o aduce acest volum în peisajul învățării automate este trecerea de la cadrele de lucru tradiționale la JAX, biblioteca Google de înaltă performanță care redefinește viteza calculelor numerice. Găsim în această carte o documentare tehnică riguroasă despre cum platforma XLA (Accelerated Linear Algebra) poate fi exploatată pentru a accelera sarcini intensive de date, transformând operațiunile NumPy în execuții hyper-optimizate. Reținem că JAX nu este doar un alt instrument de calcul, ci o schimbare de paradigmă către programarea funcțională, facilitând derivarea automată și paralelizarea fără efort pe arhitecturi hardware complexe.

Putem afirma că structura lucrării este una eminamente practică, ghidând cititorul de la bazele manipulării matricelor până la implementarea unor modele complexe precum clasificatoarele de imagini. Ca și David Paper în State-of-the-Art Deep Learning Models in TensorFlow, autorul Grigory Sapunov distilează experiență reală în principii acționabile, însă pune un accent mult mai mare pe controlul fin al proceselor de gradient și pe sharding-ul tensorilor. Un aspect distinctiv este integrarea ecosistemului Flax, care permite construirea de modele diferențiabile folosind primitivele JAX, oferind în același timp interoperabilitate cu fluxurile de date din TensorFlow sau PyTorch.

Experiența de lectură este marcată de un ton tehnic precis, unde listele de cod adnotate servesc drept laborator de testare pentru execuția pe unități TPU. Față de abordările teoretice, acest volum publicat de Manning Publications se concentrează pe eficiența antrenării modelelor pe seturi de date masive, fiind o resursă esențială pentru cei care au depășit stadiul de începător în Python și doresc să optimizeze performanța la nivel de sistem.

Citește tot Restrânge

Preț: 32161 lei

Preț vechi: 40202 lei
-20%

Puncte Express: 482

Carte disponibilă

Livrare economică 07-21 mai
Livrare express 22-28 aprilie pentru 12702 lei


Specificații

ISBN-13: 9781633438880
ISBN-10: 1633438880
Pagini: 408
Dimensiuni: 184 x 231 x 23 mm
Greutate: 0.7 kg
Editura: Manning Publications

De ce să citești această carte

Recomandăm această carte inginerilor de date și cercetătorilor care doresc să atingă limitele superioare de viteză în antrenarea modelelor. Prin stăpânirea JAX, câștigați un control granular asupra calculelor de gradient și o scalabilitate superioară pe TPU-uri. Este ghidul ideal pentru a face tranziția de la biblioteci standard la un ecosistem de înaltă performanță, esențial în proiecte de calcul științific și inteligență artificială avansată.


Descriere

Accelerate deep learning and other number-intensive tasks with JAX, Google’s awesome high-performance numerical computing library. The JAX numerical computing library tackles the core performance challenges at the heart of deep learning and other scientific computing tasks. By combining Google’s Accelerated Linear Algebra platform (XLA) with a hyper-optimized version of NumPy and a variety of other high-performance features, JAX delivers a huge performance boost in low-level computations and transformations. In Deep Learning with JAX you will learn how to: • Use JAX for numerical calculations • Build differentiable models with JAX primitives • Run distributed and parallelized computations with JAX • Use high-level neural network libraries such as Flax • Leverage libraries and modules from the JAX ecosystem Deep Learning with JAX is a hands-on guide to using JAX for deep learning and other mathematically-intensive applications. Google Developer Expert Grigory Sapunov steadily builds your understanding of JAX’s concepts. The engaging examples introduce the fundamental concepts on which JAX relies and then show you how to apply them to real-world tasks. You’ll learn how to use JAX’s ecosystem of high-level libraries and modules, and also how to combine TensorFlow and PyTorch with JAX for data loading and deployment. Purchase of the print book includes a free eBook in PDF and ePub formats from Manning Publications. About the technology Google’s JAX offers a fresh vision for deep learning. This powerful library gives you fine control over low level processes like gradient calculations, delivering fast and efficient model training and inference, especially on large datasets. JAX has transformed how research scientists approach deep learning. Now boasting a robust ecosystem of tools and libraries, JAX makes evolutionary computations, federated learning, and other performance-sensitive tasks approachable for all types of applications. About the book Deep Learning with JAX teaches you to build effective neural networks with JAX. In this example-rich book, you’ll discover how JAX’s unique features help you tackle important deep learning performance challenges, like distributing computations across a cluster of TPUs. You’ll put the library into action as you create an image classification tool, an image filter application, and other realistic projects. The nicely-annotated code listings demonstrate how JAX’s functional programming mindset improves composability and parallelization. What's inside • Use JAX for numerical calculations • Build differentiable models with JAX primitives • Run distributed and parallelized computations with JAX • Use high-level neural network libraries such as Flax About the reader For intermediate Python programmers who are familiar with deep learning. About the author Grigory Sapunov holds a Ph.D. in artificial intelligence and is a Google Developer Expert in Machine Learning. The technical editor on this book was Nicholas McGreivy. Table of Contents Part 1 1 When and why to use JAX 2 Your first program in JAX Part 2 3 Working with arrays 4 Calculating gradients 5 Compiling your code 6 Vectorizing your code 7 Parallelizing your computations 8 Using tensor sharding 9 Random numbers in JAX 10 Working with pytrees Part 3 11 Higher-level neural network libraries 12 Other members of the JAX ecosystem A Installing JAX B Using Google Colab C Using Google Cloud TPUs D Experimental parallelization