Event Streaming mit Kafka und Spring Boot

In diesem eintägigen Workshop wird eine Movie-App, die mit Spring Boot entwickelt wurde, um Stream Processing Funktionalität erweitert. Im ersten Teil des Workshops werden Grundlagen über Apache Kafka vermittelt und demonstriert, wie die Consumer- und Producer-API funktioniert. Im Zweiten Teil wird das Spring Cloud Stream Framework eingeführt und vorgestellt, wie sich Kafka in diese Technologie integrieren lässt. Im letzten großen praktischen Teil werden die bisher theoretisch vermittelten Konzepte praktisch angewendet: Es werden von den Teilnehmern verschiedene Stream Prozessoren implementiert, welche die Events der Movie-App verarbeiten und hieraus neue Business-Events erzeugen.

Termine

Der Kurs wird als Präsenztermin abgehalten. Bei den Praxisübungen werden eventuell die eigenen Bildschirminhalte anderen Teilnehmer gezeigt.
Die Termine werden auf Anfrage mit Ihnen persönlich unter geltenden und gültigen Kontaktbeschränkungen abgestimmt. Kontaktieren sie uns einfach über das Kontfaktformular auf dieser Seite. Wählen sie dabei bitte den 31.12.21 als Termin aus. Der tatsächliche Termin wird mit ihnen persönlich abgestimmt.

Als Veranstaltungsort haben sie die Wahl zwischen Hannover, Mannheim und Hamburg. Fragen sie uns auch gerne nach einer Vor-Ort-Schulung in Ihren eigenen Räumlichkeiten.

Beginn ist jeweils um 08:30. Weitere Details folgen zwei Wochen vor dem jeweiligen Termin.

Zielgruppe

Anwendungsentwickler, IT Berater, Daten/Business Analysten, ETL-Entwickler, Studierende der Informatik oder Wirtschaftsinformatik.

Voraussetzungen

Dieser Kurs setzt voraus, dass die Teilnehmer Java 8 beherrschen und mit den Gundkonzepten der Webentwicklung vertraut sind.  Die Inhalte werden in Vortragsform vermittelt und anhand konkreter Beispiele verdeutlicht.

Seminarinhalt

In einer Welt, in der immer mehr Daten anfallen, werden Werkzeuge benötigt, um diese große Mengen effektiv verarbeiten zu können. Apache Kafka ist solch ein Tool, das zum Einen eine Verarbeitung enormer Datenmengen in Echtzeit ermöglicht und zum Anderen ein zentraler Hub im Unternehmen darstellt, um Daten via publish/subscribe zu integrieren. Schwerpunkt dieses Workshops sind die Grundkonzepte bei der Entwicklung mit Apache Kafka. Es wird erläutert, wie die Architektur von Kafka Skalierbarkeit und Parallelität sicherstellt. Um die theoretischen Konzepte zu festigen, wird im praktischen Teil eine bestehende Spring-Boot-Anwendung um Stream Processing erweitert. Diese Stream Processoren werden mit dem Spring Cloud Streams (SCS) und der Kafka Streams Bibliothek implementiert. Gerade SCS eignet sich nicht nur für die Entwicklung von Streaming-Anwendungen mit Kafka, sondern auch zur Integration bestehenden Systeme, wie z.B. RabbitMQ. Durch verschiedene Übungen werden die meisten Funktionen der Kafka Streams Bibliothek abgedeckt, sodass die Teilnehmer fundierte Kenntnisse der Streaming-Entwicklung mit Kafka und Java erwerben. Um nah an der Praxis zu bleiben, wird für die Serialisierung und Deserialisierung Apache Avro und die Schema Registry verwendet. 

  • Was ist Apache Kafka?
  • Grundlagen und Konzepte
    • Architektur
    • Broker und Cluster
    • Messages und Batches
    • Topics und Partitionen
    • Producer und  Consumer
    • Apache Avro und Schema Registry
  • Kafka Producers
  • Kafka Consumer
  • Stream Processing
    • Warum Stream Processing?
    • Kafka Streams
    • Zeit
    • Zustand
    • Table-Stream Dualität
    • Kafka Connect
    • Spring Cloud Stream und Kafka Binder

 

Facts

Teilnehmerpreise

Regulär: 790,- zzgl. MwSt.
Studenten: auf Anfrage
Gruppenrabatt: 10% ab dem 3 Teilnehmer 
Early Bird: 10% bis 10 Wochen vor Seminarstart
Seminardauer: 1 Tag
In-House Seminare: Bei Anfrage ab 6 Teilnehmern

Im Falle einer Absage durch den Teilnehmer, 6 Wochen vor Kursbeginn, erfolgt keine Erstattung des Teilnehmerpreises. Es besteht jedoch die Möglichkeit, den ausgefallenen Teilnehmer durch eine andere Person zu ersetzen.

 

Anmeldung

CAPTCHA Diese Sicherheitsfrage überprüft, ob Sie ein menschlicher Besucher sind und verhindert automatisches Spamming.