Event Streaming mit Kafka und Spring Boot

In diesem eintägigen Workshop wird eine bestehende Web-Shop-Anwendung, die mit Spring Boot entwickelt wurde, um User Tracking erweitert. Im ersten Teil des Workshops werden die benötigen Konzepte von Spring Boot und Apache Kafka vorgestellt. Im zweiten Teil der Schulung wird das theoretisch vermittelte Wissen dann praktisch angewendet, indem die Shop-Anwendung ausgebaut wird. Nachdem viele Events über das Verhalten der Nutzer auf der Webseite gesammelt wurden, werden anschließend mit Kafka Streams und KSQL verschiedene Abfragen und Analysen implementiert, um Business Events zu ermitteln.

Facts

Teilnehmerpreise

Regulär: 790,- zzgl. MwSt.
Studenten: auf Anfrage
Gruppenrabatt: 10% ab dem 3 Teilnehmer 
Early Bird: 10% bis 10 Wochen vor Seminarstart
Seminardauer: 1 Tag
In-House Seminare: Bei Anfrage ab 6 Teilnehmern

Im Falle einer Absage durch den Teilnehmer, 6 Wochen vor Kursbeginn, erfolgt keine Erstattung des Teilnehmerpreises. Es besteht jedoch die Möglichkeit, den ausgefallenen Teilnehmer durch eine andere Person zu ersetzten.

Die Termine 2020 stehen unter Vorbehalt und können durch den Veranstalter noch geändert werden.

Termine

Der Kurs wird aktuell online abgehalten. Bei den Praxisübungen werden eventuell die eigenen Bildschirminhalte anderen Teilnehmer gezeigt.
Die Termine sind:
11. September, 23. Oktober und 04. Dezember 2020. Begin ist jeweils um 08:30. Weitere Details folgen zwei Wochen vor dem jeweiligen Termin.

Zielgruppe

Anwendungsentwickler, IT Berater, Daten/Business Analysten, ETL-Entwickler, Studierende der Informatik oder Wirtschaftsinformatik.

Vorraussetzungen

Dieser Kurs setzt voraus, dass die Teilnehmer Java 8 beherrschen und mit den Gundkonzepte der Webentwicklung vertraut sind.  Die Inhalte werden in Vortragsform vermittelt und anhand konkreter Beispiele verdeutlicht.

Seminarinhalt

In einer Welt, in der immer mehr Daten anfallen, werden Werkzeuge benötigt, um diese große Mengen effektiv verarbeiten zu können. Apache Kafka ist solch ein Tool, das zum Einen eine Verarbeitung enormer Datenmengen in Echtzeit ermöglicht und zum Anderen ein zentraler Hub im Unternehmen darstellt, um Daten via publish/subscribe zu integrieren. Schwerpunkt dieses Workshops sind die Grundkonzepte bei der Entwicklung mit Apache Kafka. Es wird erläutert, wie die Architektur von Kafka Skalierbarkeit und Parallelität sicherstellt. Um die theoretischen Konzepte zu festigen, wird im zweiten Teil eine bestehende Web-Shop-Anwendung um Activity Tracking erweitert. Activity Tracking ist der ursprüngliche Use Case von Kafka, als es bei LinkedIn entwickelt wurde. Hier werden Daten über das Verhalten der Nutzer in einer Anwendung gesammelt, um sinnvolle Business-Events zu ermitteln (BEISPIEL). Zunächst werden Metriken wie Seitenaufrufe, Klicks und Suchanfragen als Events an Kafka gesendet werden. Anschließend werden mit der Kafka Streams Bibliothek verschiedene Algorithmen implementiert, um z.B. Statistiken über Seitenaufrufe und Korrelationen von Suchanfragen zu erstellen (welche Ergebnisse haben Nutzer interessiert)?

  • Was ist Apache Kafka?
  • Grundlagen und Konzepte
    • Architektur
    • Messages und Batches
    • Topics und Partitionen
    • Producer und  Consumer
    • Broker und Cluster
  • Kafka Producers
    • Producer Konfiguration
    • Nachrichten an eine Topic senden
    • Serialisierer
  • Kafka Consumer
    • Consumer Konfiguration
    • Nachrichten einer Topic verarbeiten
    • Consumer Groups 
    • Commits und Offsets
    • Rebalancing
    • Deserialisierer
  • Stream Processing
    • Konzepte: Zeit, Zustand und Table-Stream Dualität
    • Anwendungsfälle
    • Stream Topologie
    • Design Patterns
      • Single Event Processing
      • Local State Processing
      • Stream Join

 

Anmeldung