Programma
Modulo 1: Introduzione ai Big Data
Cos'è un Big Data?: Definizione di Big Data e perché è importante nell'era digitale.
Caratteristiche dei Big Data: Le 3 V dei Big Data (Volume, Velocità, Varietà) e come si applicano.
Applicazioni dei Big Data: Settori e casi di utilizzo come sanità, finanza, marketing, e-commerce, e altro.
Modulo 2: Architettura dei Big Data
Panoramica dell'architettura dei Big Data: Componenti principali di un'infrastruttura Big Data.
Tecnologie di gestione dei dati: Database relazionali vs. NoSQL, data lakes, e sistemi distribuiti.
Data Warehousing e Data Lakes: Differenze e vantaggi di Data Warehouses e Data Lakes nella gestione dei Big Data.
Modulo 3: Tecnologie di Storage per Big Data
Storage tradizionale vs. Storage distribuito: concetto di archiviazione dei dati distribuita.
Hadoop Distributed File System (HDFS): Cos'è HDFS e come viene utilizzato per la gestione di dati distribuiti.
Cloud Storage: Come i dati vengono archiviati nel cloud e le soluzioni offerte da AWS, Google Cloud, e Microsoft Azure.
Modulo 4: Hadoop e MapReduce
Cos'è Hadoop?: la piattaforma Hadoop per la gestione di Big Data.
MapReduce: Comprendere il paradigma di programmazione MapReduce per l'elaborazione parallela dei dati.
Hadoop Ecosystem: Altri strumenti dell'ecosistema Hadoop, come Pig, Hive, HBase, e Sqoop.
Modulo 5: NoSQL Databases
Introduzione a NoSQL: Differenza tra database relazionali e NoSQL.
Tipologie di database NoSQL: Key-Value, Document, Columnar, Graph, e quando usarli.
Esempi di database NoSQL: MongoDB, Cassandra, CouchDB e altri.
Modulo 6: Data Processing e Data Pipelines
Cos'è il Data Processing?: Il processo di trasformazione dei dati grezzi in informazioni utili.
Data Pipelines: Come costruire e gestire pipeline per l'estrazione, la trasformazione e il caricamento dei dati (ETL).
Tecnologie di Data Processing: Strumenti come Apache Spark, Flink, e Storm per l'elaborazione in tempo reale dei dati.
Modulo 7: la Data Analytics
Cosa significa Data Analytics?: Definizione e importanza dell'analisi dei dati nei Big Data.
Tipologie di Analytics: Descriptive, diagnostic, predictive e prescriptive analytics.
Obiettivi dell'Analytics: Come analizzare i dati per prendere decisioni basate su informazioni e non su ipotesi.
Modulo 8: Analisi Statistica dei Dati
Statistica descrittiva: Tecniche per descrivere i dati (media, mediana, moda, deviazione standard).
Distribuzioni di probabilità: Nozioni di distribuzioni come normale, binomiale, Poisson.
Inferenza statistica: Test di ipotesi, intervalli di confidenza, e analisi di regressione.
Modulo 9: Machine Learning per Big Data
Machine Learning: Cos'è il machine learning e come viene applicato ai Big Data.
Algoritmi di Machine Learning: Supervisionati (regressione, classificazione), non supervisionati (clustering, riduzione dimensionale).
Tecniche avanzate di Machine Learning: Deep learning, reti neurali, e apprendimento rinforzato.
Modulo 10: Strumenti di Data Analytics
Strumenti di analisi dei dati: Panoramica degli strumenti utilizzati per l'analisi dei Big Data (Tableau, Power BI, QlikView).
Strumenti di programmazione per l'analisi: Python (pandas, NumPy, scikit-learn) e R per l'analisi statistica.
Sistemi di Business Intelligence: Come le soluzioni BI vengono integrate nei sistemi di Big Data.
Modulo 11: Visualizzazione dei Dati
Principi di visualizzazione dei dati: Come rappresentare i dati in modo chiaro e comprensibile.
Tecniche di visualizzazione: Grafici, mappe termiche, diagrammi di dispersione, dashboard.
Strumenti per la visualizzazione dei dati: Tableau, Power BI, matplotlib (Python), ggplot2 (R).
Modulo 12: Analisi dei Dati in Tempo Reale
Cos'è l'analisi in tempo reale?: La necessità di analizzare e reagire ai dati in tempo reale.
Streaming dei dati: Tecnologie per l'analisi dei dati in tempo reale (Apache Kafka, Apache Flink).
Applicazioni dell'analisi in tempo reale: Settori come il monitoraggio dei social media, l'analisi delle transazioni finanziarie, e la rilevazione delle frodi.
Modulo 13: Data Governance e Sicurezza
Cos'è la Data Governance?: Principi di gestione e controllo dei dati aziendali.
Politiche di sicurezza dei dati: Come proteggere i dati sensibili nei Big Data.
Compliance normativa: Le normative legali relative alla protezione dei dati (GDPR, HIPAA, CCPA).
Modulo 14: Big Data nel Cloud
Big Data nel cloud computing: Come i Big Data vengono gestiti e analizzati nelle piattaforme cloud.
Principali fornitori di servizi cloud per Big Data: AWS, Microsoft Azure, Google Cloud.
Integrazione tra Big Data e il cloud: Come sfruttare le soluzioni di cloud per l’analisi e l’archiviazione di Big Data.
Modulo 15: Progetti Finali e Casi di Studio
Sviluppo di un progetto pratico: Creazione di un'applicazione di Big Data Analytics utilizzando gli strumenti e le tecnologie apprese durante il corso.
Analisi di casi reali: Studio di casi di applicazione dei Big Data e dell'Analytics in vari settori (sanità, finanza, marketing).
Preparazione alla carriera: Come prepararsi per ruoli professionali nel campo dei Big Data e Analytics, includendo competenze richieste e risorse utili.