Building Stream Processing Applications with Kafka Streams
Corso
A Milano
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Descrizione
-
Tipologia
Corso
-
Luogo
Milano
Kafka Streams è una libreria clientide per la creazione di applicazioni e microservizi i cui dati vengono trasferiti da e verso un sistema di messaggistica Kafka Tradizionalmente, Apache Kafka si è basata su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori Chiamando l'API di Kafka Streams da un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare i flussi di Kafka in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione del flusso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere le caratteristiche e i vantaggi di Kafka Stream rispetto ad altri framework di elaborazione dello stream Elabora i dati del flusso direttamente all'interno di un cluster Kafka Scrivi un'applicazione Java o Scala o microservizio che si integri con Kafka e Kafka Stream Scrivi un codice conciso che trasforma gli argomenti di input di Kafka in argomenti di output di Kafka Costruisci, impacchetta e distribuisci l'applicazione Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
Machine Translated
Sedi e date
Luogo
Inizio del corso
Inizio del corso
Profilo del corso
An understanding of Apache Kafka
Java programming experience
Opinioni
Materie
- Api
- Apache
Programma
Introduction
- Kafka vs Spark, Flink, and Storm
Overview of Kafka Streams Features
- Stateful and stateless processing, event-time processing, DSL, event-time based windowing operations, etc.
Case Study: Kafka Streams API for Predictive Budgeting
Setting up the Development Environment
Creating a Streams Application
Starting the Kafka Cluster
Preparing the Topics and Input Data
Options for Processing Stream Data
- High-level Kafka Streams DSL
- Lower-level Processor
Transforming the Input Data
Inspecting the Output Data
Stopping the Kafka Cluster
Options for Deploying the Application
- Classic ops tools (Puppet, Chef and Salt)
- Docker
- WAR file
Troubleshooting
Summary and Conclusion
Hai bisogno di un coach per la formazione?
Ti aiuterà a confrontare vari corsi e trovare l'offerta formativa più conveniente.
Building Stream Processing Applications with Kafka Streams