Cantitate/Preț
Produs

Data Pipelines with Apache Airflow

Autor Bas Harenslak, Julian Ruiter
en Limba Engleză Paperback – 7 iun 2021

Actualizarea esențială pentru inginerii de date vine sub forma acestui ghid tehnic, care transformă Apache Airflow dintr-un simplu orchestrator într-un mediu unificat de gestionare a fluxurilor de lucru. Merită menționat că volumul scris de Bas Harenslak și Julian Ruiter elimină necesitatea proceselor fragmentate, oferind o metodologie riguroasă pentru construcția graficelor aciclice direcționate (DAG-uri). Considerăm că punctul forte al lucrării este tranziția de la scripting Python intermediar la arhitecturi de producție scalabile, abordând direct problemele de latență și blocajele dintre task-uri. Structura este una progresivă: se începe cu anatomia unui DAG și programarea acestuia, trecând rapid la subiecte avansate precum templating-ul sarcinilor folosind contextul Airflow și definirea dependențelor complexe. Pe linia practică a volumului Data Engineering with Python, dar cu focus pe orchestrarea specifică prin Airflow, această carte detaliază cum se pot automatiza transformările de date și cum se pot analiza seturile de date istorice prin tehnici de backfilling. Spre deosebire de Modern Data Engineering with Apache Spark, care tratează un ecosistem vast de instrumente, lucrarea de față se concentrează pe profunzimea integrării Airflow cu stivele tehnologice moderne. Recomandăm atenția sporită asupra secțiunilor dedicate securității și operării în medii cloud (AWS, Azure, GCP), unde autorii explică implementarea componentelor personalizate și testarea riguroasă a codului. Exemplele sunt ancorate în scenarii reale, culminând cu un proiect complex care demonstrează utilitatea platformei în rezolvarea problemelor logistice urbane.

Citește tot Restrânge

Preț: 30922 lei

Preț vechi: 38652 lei
-20%

Puncte Express: 464

Carte disponibilă

Livrare economică 02-16 mai
Livrare express 18-24 aprilie pentru 4180 lei


Specificații

ISBN-13: 9781617296901
ISBN-10: 1617296902
Pagini: 425
Ilustrații: Illustrations, unspecified
Dimensiuni: 187 x 232 x 25 mm
Greutate: 0.68 kg
Editura: Manning Publications

De ce să citești această carte

Pentru inginerii de date și specialiștii DevOps, acest volum publicat de Manning Publications reprezintă resursa tehnică definitivă pentru stăpânirea Apache Airflow. Cititorul câștigă capacitatea de a proiecta și monitoriza conducte de date robuste, reducând costurile operaționale. Este recomandată celor care dețin cunoștințe de Python și doresc să treacă de la cod „snowflake” la procese automatizate, testabile și scalabile în orice mediu cloud.


Descriere scurtă

Data Pipelines with Apache Airflow teaches you how to build and maintain effective data pipelines. Summary
A successful pipeline moves data efficiently, minimizing pauses and blockages between tasks, keeping every process along the way operational. Apache Airflow provides a single customizable environment for building and managing data pipelines, eliminating the need for a hodgepodge collection of tools, snowflake code, and homegrown processes. Using real-world scenarios and examples, Data Pipelines with Apache Airflow teaches you how to simplify and automate data pipelines, reduce operational overhead, and smoothly integrate all the technologies in your stack. Purchase of the print book includes a free eBook in PDF, Kindle, and ePub formats from Manning Publications. About the technology
Data pipelines manage the flow of data from initial collection through consolidation, cleaning, analysis, visualization, and more. Apache Airflow provides a single platform you can use to design, implement, monitor, and maintain your pipelines. Its easy-to-use UI, plug-and-play options, and flexible Python scripting make Airflow perfect for any data management task. About the book
Data Pipelines with Apache Airflow teaches you how to build and maintain effective data pipelines. You'll explore the most common usage patterns, including aggregating multiple data sources, connecting to and from data lakes, and cloud deployment. Part reference and part tutorial, this practical guide covers every aspect of the directed acyclic graphs (DAGs) that power Airflow, and how to customize them for your pipeline's needs. What's inside
Build, test, and deploy Airflow pipelines as DAGs
Automate moving and transforming data
Analyze historical datasets using backfilling
Develop custom components
Set up Airflow in production environments About the reader
For DevOps, data engineers, machine learning engineers, and sysadmins with intermediate Python skills. About the author
Bas Harenslak and Julian de Ruiter are data engineers with extensive experience using Airflow to develop pipelines for major companies. Bas is also an Airflow committer. Table of Contents PART 1 - GETTING STARTED 1 Meet Apache Airflow
2 Anatomy of an Airflow DAG
3 Scheduling in Airflow
4 Templating tasks using the Airflow context
5 Defining dependencies between tasks PART 2 - BEYOND THE BASICS 6 Triggering workflows
7 Communicating with external systems
8 Building custom components
9 Testing
10 Running tasks in containers PART 3 - AIRFLOW IN PRACTICE 11 Best practices
12 Operating Airflow in production
13 Securing Airflow
14 Project: Finding the fastest way to get around NYC PART 4 - IN THE CLOUDS 15 Airflow in the clouds
16 Airflow on AWS
17 Airflow on Azure
18 Airflow in GCP