Bottega52

Stream processing & fast data (introductory)

Bottega52
A Milano
  • Bottega52

2001-3000 €
CORSO PREMIUM
Preferisci chiamare subito il centro?
Chiedi informazioni a un consulente Emagister

Informazioni importanti

Tipologia Laboratorio intensivo
Livello Livello intermedio
Metodologia In company
Luogo Milano
Ore di lezione 16h
Durata 2 Giorni
Inizio Scegli data
  • Laboratorio intensivo
  • Livello intermedio
  • In company
  • Milano
  • 16h
  • Durata:
    2 Giorni
  • Inizio:
    Scegli data
Descrizione

Il centro Bottega52 presenta sul portale Emagister.it il corso Stream Processing – Introduzione ad Apache Kafka.

Stream Processing si riferisce all'elaborazione in tempo reale di "dati in movimento": tramite questo insieme di tecnologie si realizzano pipeline di calcolo che eseguono computazione sui dati mentre essi vengono trasmessi e distribuiti ai sistemi che da questi dipendono.

Apache Kafka è una tecnologia centrale nella costruzione di questa tipologia di sistemi: è un gestore distribuito di code di messaggi, progettato per realizzare applicazioni data streaming real-time, scalabili orizzontalmente, robuste ed incredibilmente veloci.

In questo corso saranno insegnati i concetti base delle architetture streaming e come queste siano un'evoluzione rispetto ai più tradizionali sistemi di big data/analytics, trasferendo una competenza di eccezionale valore per ogni figura in area Software Engineering, IT ed Ops/DevOps.

Strutture (1)
Dove e quando
Inizio Luogo
Scegli data
Milano
Via Durando 38/A, 20158, Milano, Italia
Visualizza mappa
Inizio Scegli data
Luogo
Milano
Via Durando 38/A, 20158, Milano, Italia
Visualizza mappa

Da tener presente

· Quali sono gli obiettivi del corso?

L'obbiettivo del corso è trasferire le conoscenze essenziali per confrontare tra loro alcuni tipi di architetture di calcolo nel mondo big data/fast data/sistemi distribuiti, con particolare focus sulle architetture streaming ed il loro ruolo nel panorama tecnologico del futuro. Allo scopo, descriveremo Apache Kafka, i suoi molteplici utilizzi ed alcuni casi di studio "compare & contrast" in cui lo confronteremo con database relazionali, OLAP, sistemi monolitici, database NoSQL, data lakes ed altro.

· A chi è diretto?

I destinatari principali di questo corso sono professionisti IT, tecnici applicativi, architetti, sviluppatori, amministratori e capi progetto che vogliono acquisire know how teorico e pratico sulla realizzazione di sistemi streaming.

· Requisiti

Non sono richieste precedenti competenze verticali nel mondo stream computing. In ogni caso, il percorso verrà personalizzato a seconda della competenza del gruppo.

· In cosa si differenzia questo corso dagli altri?

Il particolare formato ben ritagliato intorno alle effettive caratteristiche e competenze del cliente permette di erogare una formazione totalmente in linea con i need del cliente. Sebbene esista una scaletta nota, a differenza della maggior parte dei corsi su questa tecnologia che si focalizzano solo e strettamente su quella, il focus sarà centrato tanto sul cliente quanto sul ruolo della tecnologia nel suo particolare operativo.

· Quali saranno i passi successivi alla richiesta di informazioni?

Appena riceveremo la tua richiesta, sarai contattato da un responsabile commerciale che comincerà a raccogliere i particolari need. A seconda della vostra preferenza, possiamo organizzare una teleconferenza direttamente con le vostre figure tecniche ed i nostri formatori, con cui personalizzare la scaletta del corso. Infine, organizzeremo il corso nelle date maggiormente compatibili con le vostre esigenze, tendenzialmente presso la vostra sede.

· Come si svolgono le lezioni?

Ci sono momenti di lezione frontale e momenti di workshop/coding lab

· Esiste un livello più avanzato del corso?

Si! Questo corso é introduttivo ed adatto ai team tecnici che desiderano avvicinarsi al mondo dello streaming computing per risolvere i problemi più complessi legati al mondo dei sistemi distribuiti e fast data, ma offriamo anche un corso più avanzato che entra in maggior dettaglio sugli specifici aspetti della tecnologia Kafka. Questo secondo corso é maggiormente orientato a chi é interessato ad avere un cluster Kafka in produzione.

Domande e risposte

Comunicaci i tuoi dubbi,altri utenti potranno risponderti

Cosa impari in questo corso?

Sistemi informativi aziendali
Database design
Data transformation services
Kafka
Fast Data
Big Data
Streaming
Stream processing
DevOps
Sistemi distribuiti
Sistemi di informazione
Sistemi di archiviazione
Apache
Api
Sistemi di trasmissione
Data Mining
Data Warehouse
Database tuning
Informatica
Tecnologia

Professori

Matteo Ferroni
Matteo Ferroni
CTO, PhD Computer Science and Engineering

Dopo la laurea ed un dottorato di ricerca al Politecnico di Milano, Matteo si é dedicato alla computazione streaming ed allo sviluppo e progettazione di sistemi distribuiti. É CTO di Bottega52 ed organizzatore del Kafka Meetup di Milano.

Programma

Modulo 1: concetti generali su Apache Kafka
  1. Apache Kafka: introduzione e motivazioni
  2. Kafka, concetti base: commit logs, brokers, topics, partitions, etc.
  3. Producer e Consumer: concetti ed API di base
  4. Kafka architecture: internals, log files, replicas, durability, scalability, etc.
  5. Hands-on: esercizi e sviluppo (Java)
Modulo 2: specificità di Apache Kafka
  1. Kafka Brokers: installazione ed amministrazione del cluster, data retention, log compaction, performance tuning, etc.
  2. Producer e Consumer, concetti avanzati: retries, groups, acks, performance tuning, etc.
  3. Schema management: Apache Avro, Schema Registry, data evolution, etc.
  4. Exactly Once Semantics, teoria e pratica: delivery guarantees, idempotent writes, transactions, etc.
  5. Hands-on: esercizi e sviluppo (Java)