Cantitate/Preț
Produs

Mastering Large Datasets with Python

Autor John T Wolohan
en Limba Engleză Paperback – 21 ian 2020

În domeniul data science, tranziția de la prototipuri rulate pe un laptop la soluții industriale capabile să proceseze terabytes de informații reprezintă pragul critic de scalabilitate. Mastering Large Datasets with Python de John T Wolohan se concentrează pe această evoluție tehnică, oferind o metodologie bazată pe paradigma map and reduce, esențială pentru scrierea unui cod curat și eficient. Remarcăm structura progresivă a volumului: prima parte stabilizează conceptele de procesare paralelă folosind resursele locale ale procesorului, în timp ce secțiunile următoare extind aceste principii către medii distribuite. Observăm un accent deosebit pus pe utilizarea modulelor `multiprocessing` și a framework-ului `pathos`, care permit divizarea sarcinilor complexe în unități de lucru simultane. Cititorul care a aplicat ideile din Large Scale Machine Learning with Python va găsi aici elementele care completează arhitectura sistemului, trecând de la construcția modelelor la optimizarea fluxurilor de date prin `PySpark` și `Hadoop`. Diferența majoră față de alte titluri similare constă în ancorarea practică în ecosistemul Amazon Web Services, unde autorul demonstrează cum pot fi rulate joburi MapReduce direct în cloud folosind AWS S3. Stilul este unul tehnic și aplicat, evitând abstractizările inutile în favoarea unor exerciții practice menite să consolideze abilitățile de programare funcțională. Utilizarea fluxurilor de tip „lazy” și a conductelor de funcții (pipelines) asigură că aplicațiile rezultate nu necesită rescrieri totale pe măsură ce volumul datelor crește, transformând Mastering Large Datasets with Python într-un ghid de bune practici pentru inginerii de date și programatorii Python care vizează performanța la nivel enterprise.

Citește tot Restrânge

Preț: 26681 lei

Preț vechi: 33351 lei
-20%

Puncte Express: 400

Carte disponibilă

Livrare economică 22 mai-05 iunie


Specificații

ISBN-13: 9781617296239
ISBN-10: 1617296236
Pagini: 312
Dimensiuni: 190 x 233 x 20 mm
Greutate: 0.53 kg
Editura: Manning Publications

De ce să citești această carte

Recomandăm această carte programatorilor Python care s-au lovit de limitările hardware în procesarea seturilor mari de date. Cititorul câștigă expertiză în tehnologii de calcul distribuit precum Spark și Hadoop, învățând să scaleze aplicații de la nivel local la infrastructuri cloud complexe. Este un ghid esențial pentru a stăpâni paralelizarea și optimizarea fluxurilor de lucru în proiecte moderne de inteligență artificială și analiză de date.


Descriere

Summary Modern data science solutions need to be clean, easy to read, and scalable. In Mastering Large Datasets with Python, author J.T. Wolohan teaches you how to take a small project and scale it up using a functionally influenced approach to Python coding. You’ll explore methods and built-in Python tools that lend themselves to clarity and scalability, like the high-performing parallelism method, as well as distributed technologies that allow for high data throughput. The abundant hands-on exercises in this practical tutorial will lock in these essential skills for any large-scale data science project. Purchase of the print book includes a free eBook in PDF, Kindle, and ePub formats from Manning Publications. About the technology Programming techniques that work well on laptop-sized data can slow to a crawl—or fail altogether—when applied to massive files or distributed datasets. By mastering the powerful map and reduce paradigm, along with the Python-based tools that support it, you can write data-centric applications that scale efficiently without requiring codebase rewrites as your requirements change. About the book Mastering Large Datasets with Python teaches you to write code that can handle datasets of any size. You’ll start with laptop-sized datasets that teach you to parallelize data analysis by breaking large tasks into smaller ones that can run simultaneously. You’ll then scale those same programs to industrial-sized datasets on a cluster of cloud servers. With the map and reduce paradigm firmly in place, you’ll explore tools like Hadoop and PySpark to efficiently process massive distributed datasets, speed up decision-making with machine learning, and simplify your data storage with AWS S3. What's inside An introduction to the map and reduce paradigm Parallelization with the multiprocessing module and pathos framework Hadoop and Spark for distributed computing Running AWS jobs to process large datasets About the reader For Python programmers who need to work faster with more data. About the author J. T. Wolohan is a lead data scientist at Booz Allen Hamilton, and a PhD researcher at Indiana University, Bloomington. Table of Contents: PART 1 1 ¦ Introduction 2 ¦ Accelerating large dataset work: Map and parallel computing 3 ¦ Function pipelines for mapping complex transformations 4 ¦ Processing large datasets with lazy workflows 5 ¦ Accumulation operations with reduce 6 ¦ Speeding up map and reduce with advanced parallelization PART 2 7 ¦ Processing truly big datasets with Hadoop and Spark 8 ¦ Best practices for large data with Apache Streaming and mrjob 9 ¦ PageRank with map and reduce in PySpark 10 ¦ Faster decision-making with machine learning and PySpark PART 3 11 ¦ Large datasets in the cloud with Amazon Web Services and S3 12 ¦ MapReduce in the cloud with Amazon’s Elastic MapReduce