Introduzione ai big data: Hadoop, Spark, e MapReduce.

Corso

Online

250 € IVA inc.

Chiama il centro

Hai bisogno di un coach per la formazione?

Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.

Descrizione

  • Tipologia

    Corso

  • Metodologia

    Online

  • Inizio

    Scegli data

La figura del ”data scientist” è un professionista che analizza e interpreta grandi quantità di dati per estrarre informazioni utili e supportare decisioni strategiche. Il suo lavoro combina competenze in statistica, matematica, programmazione e conoscenza dei business o dei settori specifici. I data scientist utilizzano strumenti avanzati, come machine learning e intelligenza artificiale, per costruire modelli predittivi e risolvere problemi complessi. La loro attività può spaziare dall'analisi dei dati aziendali per migliorare l'efficienza operativa, alla creazione di algoritmi per migliorare i prodotti o i servizi offerti da un'azienda

Sedi e date

Luogo

Inizio del corso

Online

Inizio del corso

Scegli dataIscrizioni aperte

Domande e risposte

Aggiungi la tua domanda

I nostri consulenti e altri utenti potranno risponderti

Chi vuoi che ti risponda?

Inserisci i tuoi dati per ricevere una risposta

Pubblicheremo solo il tuo nome e la domanda

Emagister S.L. (Titolare del trattamento dati) utilizzerà i tuoi dati per svolgere attività promozionali (via email e/o telefono), pubblicare recensioni o gestire eventuali segnalazioni. Nella politica sulla privacy potrai conoscere i tuoi diritti e gestire la cancellazione.

Opinioni

Successi del Centro

2023
2022
2020

Tutti i corsi devono essere aggiornati

La media delle valutazioni dev'essere superiore a 3,7

Più di 50 opinioni degli ultimi 12 mesi

6 anni del centro in Emagister.

Materie

  • E-learning
  • Programmazione
  • Apache
  • SQL
  • E-business

Programma

Modulo 1: Introduzione ai Big Data Cos'è il Big Data? Definizione e caratteristiche: Volume, Velocità, Varietà, Veridicità e Valore L'importanza dei Big Data nelle moderne applicazioni Esempi di applicazioni Big Data: sanità, finanza, e-commerce, ecc. Modulo 2: Sfide e opportunità dei Big Data Perché è difficile gestire i Big Data? La necessità di soluzioni scalabili e distribuite Le sfide di storage, elaborazione e analisi Opportunità derivanti dall'analisi dei Big Data Modulo 3: Architettura e componenti del Big Data Struttura di un sistema di Big Data Componenti di base: storage, elaborazione, gestione e analisi Modelli di architettura distribuita: Master-Slave, Peer-to-Peer Piattaforme principali per il trattamento dei Big Data Modulo 4: Cos'è Hadoop? Introduzione a Hadoop Cos'è Hadoop e come funziona I principali componenti di Hadoop: HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator) Vantaggi e limitazioni di Hadoop Modulo 5: Hadoop Distributed File System (HDFS) Approfondimento su HDFS Cos'è HDFS e come si organizza Gestione dei dati distribuiti e replicazione Come Hadoop gestisce la lettura e la scrittura dei dati Modulo 6: YARN (Yet Another Resource Negotiator) Cos'è YARN e come gestisce le risorse Funzione di YARN nel framework Hadoop Come YARN coordina l'esecuzione dei lavori su un cluster Gestione delle risorse e allocazione dei job Modulo 7: MapReduce in Hadoop Cos'è MapReduce? Definizione e funzionamento di MapReduce Il modello di programmazione MapReduce: fasi di mappatura, riduzione e gestione dei dati Implementazione di un programma MapReduce semplice Modulo 8: Come funziona MapReduce Il processo di esecuzione in MapReduce La fase di mappatura: distribuzione e parallellizzazione La fase di riduzione: aggregazione e somma dei risultati Esecuzione distribuita su cluster Hadoop Modulo 9: Esempi pratici con MapReduce Implementazione pratica di MapReduce Esempi di codice MapReduce in Java Applicazioni di MapReduce per il trattamento di grandi volumi di dati Analisi dei dati di log, conteggio delle parole, aggregazione di dati Modulo 10: Apache Spark: Introduzione Cos'è Apache Spark? Differenze tra Hadoop MapReduce e Apache Spark I vantaggi di Spark: velocità, facilità d'uso, compatibilità con Hadoop Componenti di Spark: Spark Core, Spark SQL, Spark Streaming, MLlib, GraphX Modulo 11: Spark RDD (Resilient Distributed Dataset) Cos'è un RDD in Spark? La struttura di dati fondamentale di Spark: RDD Creazione e manipolazione di RDD: trasformazioni e azioni Vantaggi degli RDD per l'elaborazione parallela e distribuita Modulo 12: Spark SQL e DataFrames Utilizzo di Spark SQL Cos'è Spark SQL e come funziona DataFrames e la loro struttura: come gestire i dati in modo strutturato Operazioni con Spark SQL: query SQL su grandi dataset distribuiti Modulo 13: Spark Streaming Introduzione a Spark Streaming Cos'è Spark Streaming e come si utilizza per l'elaborazione in tempo reale Flussi di dati in tempo reale: gestione e analisi Esempi di utilizzo in scenari di streaming (ad esempio, analisi dei social media, monitoraggio in tempo reale) Modulo 14: Integrazione tra Hadoop e Spark Utilizzare Spark con Hadoop Come Spark e Hadoop possono lavorare insieme Hadoop come storage (HDFS) e Spark come motore di elaborazione Esempi di configurazione e implementazione in un ambiente di Big Data Modulo 15: Best Practices e strumenti per lavorare con Big Data Best practices nella gestione dei Big Data Ottimizzazione delle performance di MapReduce e Spark Gestione dei job distribuiti: parallelizzazione, bilanciamento del carico Strumenti aggiuntivi per il Big Data: Apache Hive, Apache Pig, e Apache Flink

Chiama il centro

Hai bisogno di un coach per la formazione?

Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.

Introduzione ai big data: Hadoop, Spark, e MapReduce.

250 € IVA inc.