Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
Tipologia
Corso
Metodologia
Online
Inizio
Scegli data
Descrizione
La figura del ”data scientist” è un professionista che analizza e interpreta grandi quantità di dati per estrarre informazioni utili e supportare decisioni strategiche. Il suo lavoro combina competenze in statistica, matematica, programmazione e conoscenza dei business o dei settori specifici. I data scientist utilizzano strumenti avanzati, come machine learning e intelligenza artificiale, per costruire modelli predittivi e risolvere problemi complessi. La loro attività può spaziare dall'analisi dei dati aziendali per migliorare l'efficienza operativa, alla creazione di algoritmi per migliorare i prodotti o i servizi offerti da un'azienda
Sedi e date
Luogo
Inizio del corso
Online
Inizio del corso
Scegli dataIscrizioni aperte
Domande e risposte
Aggiungi la tua domanda
I nostri consulenti e altri utenti potranno risponderti
Stiamo controllando la tua domanda per verificare che sia conforme con gli standard di pubblicazione. A parte questo, abbiamo rilevato dalle tue risposte che potresti non essere in grado di immatricolarti a questa formazione. Questo potrebbe essere dovuto al titolo di studio che possiedi, al luogo in cui vivi, ecc. In ogni caso ti consigliamo di verificare contattando il centro di formazione.
Grazie mille!
Stiamo verificando la tua domanda. A breve sarà pubblicata
Preferisci essere contattato dal centro?
Opinioni
Hai seguito questo corso? Condividi la tua opinione
Successi del Centro
2023
2022
2020
Tutti i corsi devono essere aggiornati
La media delle valutazioni dev'essere superiore a 3,7
Più di 50 opinioni degli ultimi 12 mesi
6 anni del centro in Emagister.
Materie
Web master
E-learning
Programmazione
Apache
E-business
Programma
Modulo 1: l'Orchestrazione e alla Necessità di Strumenti come Apache Airflow
Cos'è l'orchestrazione dei flussi di lavoro e perché è importante.
Panoramica su Apache Airflow e il suo ruolo nell'automazione dei flussi di lavoro.
Confronto con altri strumenti di orchestrazione: Luigi, Celery, Kubernetes.
Modulo 2: Architettura di Apache Airflow
Panoramica sull'architettura di Apache Airflow: componenti principali (Scheduler, Web Server, Workers, Metadata Database).
Come funziona il DAG (Directed Acyclic Graph) in Airflow.
Ruolo del database metadata e del broker di messaggi.
Modulo 3: Installazione e Configurazione di Apache Airflow
Guida passo-passo all'installazione di Apache Airflow.
Configurazione iniziale di Airflow su macchine locali e server remoti.
Impostazione del backend di Airflow (SQLite, PostgreSQL, MySQL) e gestione degli ambienti di esecuzione.
Modulo 4: Concetti Fondamentali di Apache Airflow: DAG e Operatori
Cos'è un DAG e come si costruisce.
Comprensione degli operatori in Airflow: BashOperator, PythonOperator, DummyOperator, ecc.
Creazione di DAG semplici e gestione dei task.
Modulo 5: Gestione della Programmazione e dei Tempi di Esecuzione
Come pianificare l'esecuzione di un DAG: il parametro schedule_interval.
Gestione degli orari di esecuzione e del ciclo di vita di un task.
Gestione dei task falliti e recupero degli errori.
Modulo 6: Esecuzione e Monitoraggio dei Task in Airflow
Introduzione agli strumenti di monitoraggio: interfaccia Web di Airflow.
Come monitorare lo stato dei task, i log e le esecuzioni dei DAG.
Utilizzo delle metriche di Airflow per il monitoraggio delle performance.
Modulo 7: Gestione delle Dipendenze tra i Task
Come configurare le dipendenze tra i task all'interno di un DAG.
Utilizzo dei set_upstream() e set_downstream() per definire l'ordine di esecuzione.
Tecniche avanzate per creare DAG dinamici e flessibili.
Modulo 8: Gestione degli Errori e Recupero dei Task
Strategie per gestire i task falliti in Airflow.
Come configurare i retries, i timeouts e i trigger per la gestione degli errori.
Utilizzo delle funzionalità di alerting per notificare gli errori.
Modulo 9: Airflow e l'Integrazione con Altri Sistemi
Come Apache Airflow si integra con altri strumenti e sistemi di data pipeline.
Integrazione con database, file system distribuiti, sistemi di messaggistica (Kafka, RabbitMQ).
Esecuzione di job in container Docker o su Kubernetes.
Modulo 10: Autenticazione, Autorizzazione e Sicurezza in Apache Airflow
Gestione dei permessi e configurazione del sistema di ruoli (RBAC).
Impostazione della sicurezza e protezione della dashboard di Airflow.
Strategie per la gestione delle credenziali e la protezione dei dati sensibili.
Modulo 11: Airflow per il Data Engineering e le Pipeline di Dati
Creazione e gestione di pipeline ETL con Airflow.
Come orchestrare e monitorare flussi di dati complessi.
Esecuzione di operazioni di data processing e trasformazione dei dati con Airflow.
Modulo 12: Scalabilità e Prestazioni di Apache Airflow
Ottimizzazione delle prestazioni di Airflow per gestire grandi carichi di lavoro.
Configurazione di Airflow per eseguire su più worker e su sistemi distribuiti.
Tecniche di bilanciamento del carico e parallelizzazione delle esecuzioni.
Modulo 13: Airflow con Kubernetes e Docker
Utilizzo di Apache Airflow con Kubernetes per orchestrare container in modo efficiente.
Configurazione di Airflow su cluster Kubernetes e gestione delle risorse.
Come gestire i DAG che coinvolgono l'esecuzione di container Docker.
Modulo 14: Tendenze Avanzate e Personalizzazioni in Apache Airflow
Personalizzazione degli operatori di Airflow per scenari specifici.
Sviluppo di nuovi operatori e hook per l’integrazione con sistemi esterni.
Tecniche avanzate come la gestione delle versioni e l’upgrade di Airflow.
Modulo 15: Best Practices e Risoluzione dei Problemi Comuni in Apache Airflow
Best practices per la creazione di DAG ben progettati e manutenibili.
Risoluzione dei problemi comuni di Airflow (task in esecuzione infinita, ritardi, errori nei log).
Pianificazione e gestione a lungo termine delle pipeline con Apache Airflow.