Hadoop with Python
Corso
A Milano
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
-
Tipologia
Corso
-
Luogo
Milano
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
Machine Translated
Sedi e date
Luogo
Inizio del corso
Inizio del corso
Profilo del corso
Experience with Python programming
Basic familiarity with Hadoop
Opinioni
Materie
- Framework
- Python
- Workflow
Programma
Introduction
Understanding Hadoop's Architecture and Key Concepts
Understanding the Hadoop Distributed File System (HDFS)
- Overview of HDFS and its Architectural Design
- Interacting with HDFS
- Performing Basic File Operations on HDFS
- Overview of HDFS Command Reference
- Overview of Snakebite
- Installing Snakebite
- Using the Snakebite Client Library
- Using the CLI Client
Learning the MapReduce Programming Model with Python
- Overview of the MapReduce Programming Model
- Understanding Data Flow in the MapReduce Framework
- Map
- Shuffle and Sort
- Reduce
- Using the Hadoop Streaming Utility
- Understanding How the Hadoop Streaming Utility Works
- Demo: Implementing the WordCount Application on Python
- Using the mrjob Library
- Overview of mrjob
- Installing mrjob
- Demo: Implementing the WordCount Algorithm Using mrjob
- Understanding How a MapReduce Job Written with the mrjob Library Works
- Executing a MapReduce Application with mrjob
- Hands-on: Computing Top Salaries Using mrjob
Learning Pig with Python
- Overview of Pig
- Demo: Implementing the WordCount Algorithm in Pig
- Configuring and Running Pig Scripts and Pig Statements
- Using the Pig Execution Modes
- Using the Pig Interactive Mode
- Using the Pic Batch Mode
- Understanding the Basic Concepts of the Pig Latin Language
- Using Statements
- Loading Data
- Transforming Data
- Storing Data
- Extending Pig's Functionality with Python UDFs
- Registering a Python UDF File
- Demo: A Simple Python UDF
- Demo: String Manipulation Using Python UDF
- Hands-on: Calculating the 10 Most Recent Movies Using Python UDF
Using Spark and PySpark
- Overview of Spark
- Demo: Implementing the WordCount Algorithm in PySpark
- Overview of PySpark
- Using an Interactive Shell
- Implementing Self-Contained Applications
- Working with Resilient Distributed Datasets (RDDs)
- Creating RDDs from a Python Collection
- Creating RDDs from Files
- Implementing RDD Transformations
- Implementing RDD Actions
- Hands-on: Implementing a Text Search Program for Movie Titles with PySpark
Managing Workflow with Python
- Overview of Apache Oozie and Luigi
- Installing Luigi
- Understanding Luigi Workflow Concepts
- Tasks
- Targets
- Parameters
- Demo: Examining a Workflow that Implements the WordCount Algorithm
- Working with Hadoop Workflows that Control MapReduce and Pig Jobs
- Using Luigi's Configuration Files
- Working with MapReduce in Luigi
- Working with Pig in Luigi
Summary and Conclusion
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Hadoop with Python