Data Streaming with KStreams and Confluent’s ksqlDB
Big Data & Algorithmic Business
06.09.2022Workshop abgesagt!
9:00 – 17:00 Uhr
BFH - Berner Fachhochschule
Max. Teilnehmer: 30
Einleitung
Die kontinuierliche Übermittlung von Datensätzen ist heute Teil vieler digitaler Applikationen. Lerne in diesem Workshop die Grundlagen der Data Streaming Architekturen kennen. Auf Basis von Apache Kafka machen wir uns nicht nur mit theoretischem Wissen vertraut, sondern entwickeln unser Können ganz praktisch in sogenannten «Lab-Sessions». Der Fokus liegt dabei auf der Anwendung von Apache KStream und Confluent’s ksqlDB.
Programm
TEIL I
- KStreams Konzept&Architekturen (Theorie I)
- LAB – Erste Implementierung einer KStreams App (java + gradle/maven)
- LAB – Implementierung der KStreams App (java + gradle/maven) mit einem Beispiel für benutzerdefinierte Serden
TEIL II
- KStreams Konzept&Architekturen (Theorie II)
- LAB – Implementierung KStreams App (java + gradle/maven) mit verbundenen Datenströme
- LAB – Implementierung KStreams App (java + gradle/maven) mit API-Prozessor
TEIL III
- ksqlDB Konzept (Theorie Teil I)
- LAB – ksqlDB; Datenströme, Tabellen, Abfragen von Daten
- ksqlDB Konzept (Theorie Teil II)
- LAB – ksqldb Applikation (Beispiel Pipeline)
Kursziel
- Kennenlernen der Grundlagen von Kafka Streams und ksqldB
- Erste praktische Erfahrungen im Umgang mit den Data Streaming Technologien
Adressaten
Softwareentwickler und Architekten mit Java Kenntnisse und Interesse an Data Streaming Technologien.
Voraussetzungen
Erfahrung mit Java und Docker
Infrastruktur
Die Teilnehmer sollen wenn möglich:
- docker engine lokal und IDE für Java + gradle/maven installiert haben
- über einen Internetzugang (github, etc.) verfügen
Referenten
Pawel Wasowicz
mimacom agPawel Wasowicz ist Softwareentwickler mit einem Hintergrund in JVM/ Spring. Das Entwickeln digitaler Lösungen, bei denen Datenforschung und -analyse, sowie regelbasierte Programmierung zum Einsatz kommen, begeistert ihn. Durch seine langjährige Erfahrung in der Anwendung von Apache Kafka besitzt er ein grosses Fachwissen. Seine Leidenschaft für Data Engineering Technologien und Architekturen lebt er in seiner Funktion als Head of Data Engineering bei der mimacom ag, wo er derzeit den Aufbau dieser Abteilung leitet.