Obiettivi
L’obiettivo del corso è quello di dotare i partecipanti degli strumenti culturali necessari per valutare i pro ed i contro dell’adozione di tecnologie streaming nella propria azienda, e disporre delle competenze minime necessarie legate a come estrarre valore dai data systems legacy nell’ottica della scalabilità del business.
Programma
Modulo 1: Kafka Connect
• Data integration: casi di studio, patterns e criticità
• Kafka Connect: introduzione, concetti ed API di base
• Caso di studio: JDBC Source Connector, teoria e pratica
• Caso di studio: ElasticSearch Sink Connector, teoria e pratica
• Kafka Connect, concetti avanzati: internals, stand-alone vs.
distributed, Single Message Transforms (SMT), Schema
Registry integration, etc.
• Connect API e connettori custom: cenni ed approfondimenti
• Hands-on: esercizi e sviluppo (Java)
Modulo 2: Kafka Streams e KSQL
• Introduzione: batch vs. stream processing, stream-table
duality, etc.
• Kafka Streams: introduzione, concetti ed API di base (maps,
joins, windows, etc.)
• Stateful stream processing: RocksDB, KTable, interactive
queries, etc.
• Kafka Streams, concetti avanzati: fault-tolerancy, scalability,
Schema Registry integration, etc.
• KSQL: introduzione, concetti e sintassi
• Hands-on: esercizi e sviluppo (Java)
Destinatari
I destinatari principali di questo corso sono professionisti IT, tecnici applicativi, architetti, sviluppatori, amministratori e capi progetto che vogliono acquisire know how sulla realizzazione di sistemi streaming che già hanno utilizzato Apache Kafka o ne hanno una conoscenza base
Richiedi informazioni
Se vuoi ti richiamiamo noi