Termine
Der Kurs wird als Präsenztermin abgehalten. Bei den Praxisübungen werden eventuell die eigenen Bildschirminhalte anderen Teilnehmer gezeigt.
Die Termine werden auf Anfrage mit Ihnen persönlich unter geltenden und gültigen Kontaktbeschränkungen abgestimmt. Kontaktieren sie uns einfach über das Kontfaktformular auf dieser Seite. Wählen sie dabei bitte den 31.12.21 als Termin aus. Der tatsächliche Termin wird mit ihnen persönlich abgestimmt.
Als Veranstaltungsort haben sie die Wahl zwischen Hannover, Mannheim und Hamburg. Fragen sie uns auch gerne nach einer Vor-Ort-Schulung in Ihren eigenen Räumlichkeiten.
Beginn ist jeweils um 08:30. Weitere Details folgen zwei Wochen vor dem jeweiligen Termin.
Zielgruppe
Anwendungsentwickler, IT Berater, Daten/Business Analysten, ETL-Entwickler, Studierende der Informatik oder Wirtschaftsinformatik.
Voraussetzungen
Dieser Kurs setzt voraus, dass die Teilnehmer Java 8 beherrschen und mit den Gundkonzepten der Webentwicklung vertraut sind. Die Inhalte werden in Vortragsform vermittelt und anhand konkreter Beispiele verdeutlicht.
Seminarinhalt
In einer Welt, in der immer mehr Daten anfallen, werden Werkzeuge benötigt, um diese große Mengen effektiv verarbeiten zu können. Apache Kafka ist solch ein Tool, das zum Einen eine Verarbeitung enormer Datenmengen in Echtzeit ermöglicht und zum Anderen ein zentraler Hub im Unternehmen darstellt, um Daten via publish/subscribe zu integrieren. Schwerpunkt dieses Workshops sind die Grundkonzepte bei der Entwicklung mit Apache Kafka. Es wird erläutert, wie die Architektur von Kafka Skalierbarkeit und Parallelität sicherstellt. Um die theoretischen Konzepte zu festigen, wird im praktischen Teil eine bestehende Spring-Boot-Anwendung um Stream Processing erweitert. Diese Stream Processoren werden mit dem Spring Cloud Streams (SCS) und der Kafka Streams Bibliothek implementiert. Gerade SCS eignet sich nicht nur für die Entwicklung von Streaming-Anwendungen mit Kafka, sondern auch zur Integration bestehenden Systeme, wie z.B. RabbitMQ. Durch verschiedene Übungen werden die meisten Funktionen der Kafka Streams Bibliothek abgedeckt, sodass die Teilnehmer fundierte Kenntnisse der Streaming-Entwicklung mit Kafka und Java erwerben. Um nah an der Praxis zu bleiben, wird für die Serialisierung und Deserialisierung Apache Avro und die Schema Registry verwendet.
- Was ist Apache Kafka?
- Grundlagen und Konzepte
- Architektur
- Broker und Cluster
- Messages und Batches
- Topics und Partitionen
- Producer und Consumer
- Apache Avro und Schema Registry
- Kafka Producers
- Kafka Consumer
- Stream Processing
- Warum Stream Processing?
- Kafka Streams
- Zeit
- Zustand
- Table-Stream Dualität
- Kafka Connect
- Spring Cloud Stream und Kafka Binder