Introduzione ad Apache Kafka

Stream processing & fast data (introductory)

Corso

A Milano

2001-3000 €

Descrizione

  • Tipologia

    Laboratorio intensivo

  • Livello

    Livello intermedio

  • Metodologia

    In company

  • Luogo

    Milano

  • Ore di lezione

    16h

  • Durata

    2 Giorni

  • Inizio

    Scegli data

Descrizione

Il centro Bottega52 presenta sul portale Emagister.it il corso Stream Processing – Introduzione ad Apache Kafka.

Stream Processing si riferisce all'elaborazione in tempo reale di "dati in movimento": tramite questo insieme di tecnologie si realizzano pipeline di calcolo che eseguono computazione sui dati mentre essi vengono trasmessi e distribuiti ai sistemi che da questi dipendono.

Apache Kafka è una tecnologia centrale nella costruzione di questa tipologia di sistemi: è un gestore distribuito di code di messaggi, progettato per realizzare applicazioni data streaming real-time, scalabili orizzontalmente, robuste ed incredibilmente veloci.

In questo corso saranno insegnati i concetti base delle architetture streaming e come queste siano un'evoluzione rispetto ai più tradizionali sistemi di big data/analytics, trasferendo una competenza di eccezionale valore per ogni figura in area Software Engineering, IT ed Ops/DevOps.

Sedi e date

Luogo

Inizio del corso

Milano
Visualizza mappa
Via Durando 38/A, 20158

Inizio del corso

Scegli dataIscrizioni aperte

Profilo del corso

L'obbiettivo del corso è trasferire le conoscenze essenziali per confrontare tra loro alcuni tipi di architetture di calcolo nel mondo big data/fast data/sistemi distribuiti, con particolare focus sulle architetture streaming ed il loro ruolo nel panorama tecnologico del futuro. Allo scopo, descriveremo Apache Kafka, i suoi molteplici utilizzi ed alcuni casi di studio "compare & contrast" in cui lo confronteremo con database relazionali, OLAP, sistemi monolitici, database NoSQL, data lakes ed altro.

I destinatari principali di questo corso sono professionisti IT, tecnici applicativi, architetti, sviluppatori, amministratori e capi progetto che vogliono acquisire know how teorico e pratico sulla realizzazione di sistemi streaming.

Non sono richieste precedenti competenze verticali nel mondo stream computing. In ogni caso, il percorso verrà personalizzato a seconda della competenza del gruppo.

Il particolare formato ben ritagliato intorno alle effettive caratteristiche e competenze del cliente permette di erogare una formazione totalmente in linea con i need del cliente. Sebbene esista una scaletta nota, a differenza della maggior parte dei corsi su questa tecnologia che si focalizzano solo e strettamente su quella, il focus sarà centrato tanto sul cliente quanto sul ruolo della tecnologia nel suo particolare operativo.

Appena riceveremo la tua richiesta, sarai contattato da un responsabile commerciale che comincerà a raccogliere i particolari need. A seconda della vostra preferenza, possiamo organizzare una teleconferenza direttamente con le vostre figure tecniche ed i nostri formatori, con cui personalizzare la scaletta del corso. Infine, organizzeremo il corso nelle date maggiormente compatibili con le vostre esigenze, tendenzialmente presso la vostra sede.

Ci sono momenti di lezione frontale e momenti di workshop/coding lab

Si! Questo corso é introduttivo ed adatto ai team tecnici che desiderano avvicinarsi al mondo dello streaming computing per risolvere i problemi più complessi legati al mondo dei sistemi distribuiti e fast data, ma offriamo anche un corso più avanzato che entra in maggior dettaglio sugli specifici aspetti della tecnologia Kafka. Questo secondo corso é maggiormente orientato a chi é interessato ad avere un cluster Kafka in produzione.

Domande e risposte

Comunicaci i tuoi dubbi,altri utenti potranno risponderti

Chi vuoi che ti risponda?

Pubblicheremo solo il tuo nome e la domanda

Materie

  • Sistemi informativi aziendali
  • Database design
  • Data transformation services
  • Kafka
  • Fast Data
  • Big Data
  • Streaming
  • Stream processing
  • DevOps
  • Sistemi distribuiti
  • Sistemi di informazione
  • Sistemi di archiviazione
  • Apache
  • Api
  • Sistemi di trasmissione
  • Data Mining
  • Data Warehouse
  • Database tuning
  • Informatica
  • Tecnologia

Professori

Matteo Ferroni

Matteo Ferroni

CTO, PhD Computer Science and Engineering

Dopo la laurea ed un dottorato di ricerca al Politecnico di Milano, Matteo si é dedicato alla computazione streaming ed allo sviluppo e progettazione di sistemi distribuiti. É CTO di Bottega52 ed organizzatore del Kafka Meetup di Milano.

Programma

Modulo 1: concetti generali su Apache Kafka
  1. Apache Kafka: introduzione e motivazioni
  2. Kafka, concetti base: commit logs, brokers, topics, partitions, etc.
  3. Producer e Consumer: concetti ed API di base
  4. Kafka architecture: internals, log files, replicas, durability, scalability, etc.
  5. Hands-on: esercizi e sviluppo (Java)
Modulo 2: specificità di Apache Kafka
  1. Kafka Brokers: installazione ed amministrazione del cluster, data retention, log compaction, performance tuning, etc.
  2. Producer e Consumer, concetti avanzati: retries, groups, acks, performance tuning, etc.
  3. Schema management: Apache Avro, Schema Registry, data evolution, etc.
  4. Exactly Once Semantics, teoria e pratica: delivery guarantees, idempotent writes, transactions, etc.
  5. Hands-on: esercizi e sviluppo (Java)

Chiama il centro

Hai bisogno di un coach per la formazione?

Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.

Stream processing & fast data (introductory)

2001-3000 €