VerarbeitungsEngines
VerarbeitungsEngines sind Softwarekomponenten, die Aufgaben der Datenverarbeitung ausführen, koordinieren oder orchestrieren. Sie nehmen Eingaben entgegen, wenden Berechnungen an, transformieren Daten und liefern Ergebnisse an Anwendungen oder Benutzeroberflächen.
Sie lassen sich grob in Batch-, Streaming-, Abfrage-, Workflow- und Regel-Engines einteilen. Batch-VerarbeitungsEngines führen periodische Aufgaben
Technisch bestehen sie typischerweise aus einer Kernlogik, einer Ausführungs-Pipeline, einem Scheduler, Konnektoren zu Datenquellen sowie Zustandsverwaltung
Wichtige Kennzahlen sind Durchsatz, Latenz, Skalierbarkeit und Konsistenzmodelle (z. B. exactly-once). Die Wahl einer Engine hängt
Typische Beispiele sind Apache Spark (Batch und teilweise Streaming), Apache Flink (Streaming), Elasticsearch (Such- und Aggregationsfunktionen)
Historisch spiegeln VerarbeitungsEngines die Entwicklung von einfachen Batch-Jobs hin zu verteilten, fault-toleranten Pipelines wider, mit zunehmender