Stream processing & fast data (introductory)
Corso
A Milano
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Il corso per conoscere Apache Kafka
-
Tipologia
Laboratorio intensivo
-
Livello
Livello intermedio
-
Metodologia
In company
-
Luogo
Milano
-
Ore di lezione
16h
-
Durata
2 Giorni
-
Inizio
Scegli data
Il centro Bottega52 presenta sul portale Emagister.it il corso Stream Processing – Introduzione ad Apache Kafka.
Stream Processing si riferisce all'elaborazione in tempo reale di "dati in movimento": tramite questo insieme di tecnologie si realizzano pipeline di calcolo che eseguono computazione sui dati mentre essi vengono trasmessi e distribuiti ai sistemi che da questi dipendono.
Apache Kafka è una tecnologia centrale nella costruzione di questa tipologia di sistemi: è un gestore distribuito di code di messaggi, progettato per realizzare applicazioni data streaming real-time, scalabili orizzontalmente, robuste ed incredibilmente veloci.
In questo corso saranno insegnati i concetti base delle architetture streaming e come queste siano un'evoluzione rispetto ai più tradizionali sistemi di big data/analytics, trasferendo una competenza di eccezionale valore per ogni figura in area Software Engineering, IT ed Ops/DevOps.
Sedi e date
Luogo
Inizio del corso
Inizio del corso
Profilo del corso
L'obbiettivo del corso è trasferire le conoscenze essenziali per confrontare tra loro alcuni tipi di architetture di calcolo nel mondo big data/fast data/sistemi distribuiti, con particolare focus sulle architetture streaming ed il loro ruolo nel panorama tecnologico del futuro. Allo scopo, descriveremo Apache Kafka, i suoi molteplici utilizzi ed alcuni casi di studio "compare & contrast" in cui lo confronteremo con database relazionali, OLAP, sistemi monolitici, database NoSQL, data lakes ed altro.
I destinatari principali di questo corso sono professionisti IT, tecnici applicativi, architetti, sviluppatori, amministratori e capi progetto che vogliono acquisire know how teorico e pratico sulla realizzazione di sistemi streaming.
Non sono richieste precedenti competenze verticali nel mondo stream computing. In ogni caso, il percorso verrà personalizzato a seconda della competenza del gruppo.
Il particolare formato ben ritagliato intorno alle effettive caratteristiche e competenze del cliente permette di erogare una formazione totalmente in linea con i need del cliente. Sebbene esista una scaletta nota, a differenza della maggior parte dei corsi su questa tecnologia che si focalizzano solo e strettamente su quella, il focus sarà centrato tanto sul cliente quanto sul ruolo della tecnologia nel suo particolare operativo.
Appena riceveremo la tua richiesta, sarai contattato da un responsabile commerciale che comincerà a raccogliere i particolari need. A seconda della vostra preferenza, possiamo organizzare una teleconferenza direttamente con le vostre figure tecniche ed i nostri formatori, con cui personalizzare la scaletta del corso. Infine, organizzeremo il corso nelle date maggiormente compatibili con le vostre esigenze, tendenzialmente presso la vostra sede.
Ci sono momenti di lezione frontale e momenti di workshop/coding lab
Si! Questo corso é introduttivo ed adatto ai team tecnici che desiderano avvicinarsi al mondo dello streaming computing per risolvere i problemi più complessi legati al mondo dei sistemi distribuiti e fast data, ma offriamo anche un corso più avanzato che entra in maggior dettaglio sugli specifici aspetti della tecnologia Kafka. Questo secondo corso é maggiormente orientato a chi é interessato ad avere un cluster Kafka in produzione.
Opinioni
Materie
- Sistemi informativi aziendali
- Database design
- Data transformation services
- Kafka
- Fast Data
- Big Data
- Streaming
- Stream processing
- DevOps
- Sistemi distribuiti
- Sistemi di informazione
- Sistemi di archiviazione
- Apache
- Api
- Sistemi di trasmissione
- Data Mining
- Data Warehouse
- Database tuning
- Informatica
- Tecnologia
Professori
Programma
- Apache Kafka: introduzione e motivazioni
- Kafka, concetti base: commit logs, brokers, topics, partitions, etc.
- Producer e Consumer: concetti ed API di base
- Kafka architecture: internals, log files, replicas, durability, scalability, etc.
- Hands-on: esercizi e sviluppo (Java)
- Kafka Brokers: installazione ed amministrazione del cluster, data retention, log compaction, performance tuning, etc.
- Producer e Consumer, concetti avanzati: retries, groups, acks, performance tuning, etc.
- Schema management: Apache Avro, Schema Registry, data evolution, etc.
- Exactly Once Semantics, teoria e pratica: delivery guarantees, idempotent writes, transactions, etc.
- Hands-on: esercizi e sviluppo (Java)
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Stream processing & fast data (introductory)