Hadoop Apache Spark
Corso
A Torino
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
-
Tipologia
Corso
-
Livello
Livello base
-
Luogo
Torino
-
Ore di lezione
32h
-
Durata
4 Giorni
-
Inizio
Scegli data
Hadoop è la piattaforma ideale per la gestione dei Big Data aziendali grazie alle alte prestazione ed un costo contenuto.
Sedi e date
Luogo
Inizio del corso
Inizio del corso
Profilo del corso
Obiettivo del corso Hadoop Apache Spark è quello di acquisire competenze riguardo i concetti teorici, strumenti e tecniche per la progettazione e l’implementazione di procedure per l’analisi avanzata dei Big Data.
I partecipanti dovranno avere competenze riguardo i principi della programmazione ed esperienza nello sviluppo software con l’utilizzo di Python oppure Scala. Consigliata la conoscenza di SQL e Data Streaming.
I partecipanti dovranno avere competenze riguardo i principi della programmazione ed esperienza nello sviluppo software con l’utilizzo di Python oppure Scala. Consigliata la conoscenza di SQL e Data Streaming.
Sarete contattati dallo staff di Argo 3000, vi saranno fornite ulteriori informazioni.
Opinioni
Successi del Centro
Tutti i corsi devono essere aggiornati
La media delle valutazioni dev'essere superiore a 3,7
Più di 50 opinioni degli ultimi 12 mesi
8 anni del centro in Emagister.
Materie
- Hadoop
- Big Data
- Apache
- ICT
- Informatica Avanzata
- Gestione dati
- Piattaforma
- Spark
- HDFS
- Hdp
Professori
Ugo Betori
Dott. Ing.
Programma
- Illustrare Hadoop, HDFS, YARN, e l’ecosistema HDP
- Illustrare alcuni Spark use cases
- Analizzare e manipolare dati utilizzando Zeppelin
- Analizzare e manipolare dati utilizzando Spark REPL
- Illustrare lo scopo e la funzione di RDDs
- Utilizzare le pratiche di programmazione funzionale
- Eseguire le trasformazioni ed azioni con Spark
- Lavorare con Pair RDDs
- Eseguire Spark queries utilizzando Spark SQL e DataFrames
- Utilizzare Spark Streaming stateless e window transformation
- Visualizzare dati, generare reports e collaborare utilizzando Zeppelin
- Monitorare applicazioni Spark utilizzando Spark History Server
- Apprendere le linee guida generali per l’ottimizzazione delle applicazioni
- Utilizzare il data caching per migliorare le performance delle applicazioni
- Effettuare build e package di applicazioni Spark
- Effettuare il deploy delle applicazioni nel cluster utilizzando YARN
- Comprendere gli scopi di Spark MLib
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Hadoop Apache Spark