Rechenzeiten
Rechenzeiten bezeichnet die Zeitdauer, die benötigt wird, um eine gegebene Berechnung oder Aufgabe auszuführen. Im Kontext der Informatik unterscheidet man oft zwischen realer Zeit (Elapsed Time, Wandzeit) und CPU-Zeit (Benutzerzeit bzw. Systemzeit). Rechenzeit ist eine zentrale Größe der Leistungsbewertung von Algorithmen und Systemen und hängt wesentlich von der Eingabegröße ab; häufig beschreibt man sie mit der Zeitkomplexität, etwa O(n) oder O(n log n). Die tatsächliche Rechenzeit kann von der theoretischen Komplexität abweichen, weil Faktoren wie Implementierung, Compiler, Programmiersprache, Speicherzugriffe, Cacheverhalten, parallele Verarbeitung und Betriebssystem-Overhead eine Rolle spielen.
Messung erfolgt durch das Erfassen von Start- und Endzeit; oft werden CPU-Zeit und Echtzeit getrennt angegeben.
Anwendungsbeispiele: Sortieralgorithmen zeigen unterschiedliche Rechenzeiten bei wachsender Eingabegröße: QuickSort hat typischerweise bessere Rechenzeiten als BubbleSort, während
Optimierung zielt auf geringere Rechenzeiten durch verbesserten Algorithmus, effizientere Datenstrukturen, Parallelisierung, Just-in-time-Kompilierung oder Hardwarebeschleunigung sowie bessere