Jährlich werden zunehmend mehr Daten über das Internet verbreitet. Trotz der rasant steigenden Menge sollen diese Daten in möglichst kurzer Zeit verarbeitet werden. Zusätzlich wächst die Größe des Quellcodes und die Komplexität moderner Anwendungen stetig. Diese Gegebenheiten stellen Softwareentwickler vor große Herausforderungen, zu deren Lösung neue Vorgehensweisen eingesetzt werden. Beispielsweise werden Anwendungen in sogenannte Microservices unterteilt, wodurch die Wartung und Erweiterung des Systems vereinfacht wird. In dieser Arbeit wird eine moderne Anwendung entwickelt, die in Services unterteilt wird und mit großen Datenmengen arbeitet. Hierdurch wird gezeigt, wie die genannten Schwierigkeiten, mit der Zuhilfenahme von Apache Kafka, überwunden werden können. Genauer werden Sensordaten generiert und an Kafka gesendet. Anschließend sollen diese, durch Stream Processing, effizient verarbeitet und zuletzt in Echtzeitgraphen visualisiert werden. Hierbei werden die genutzten Open- Source-Software mit alternativen Frameworks verglichen. Um ein Verständnis für Apache Kafka zu schaffen, wird zu Beginn dieser Arbeit ein ausführlicher Überblick, inklusive interner Umsetzung und einfachen Beispielen, gegeben.
Konzeption und Realisierung eines fortschrittlichen Anwendungsszenarios mit Kafka
Universität Ulm Universität UlmBA Abschlussvortrag, Dominik Pascal Koitka, Ort: Online, Datum: 07.09.2020, Zeit: 11:30 Uhr