Home

Rechenzeit

Rechenzeit bezeichnet in der Informatik die Zeit, die ein Rechner benötigt, um eine Berechnung durchzuführen. Im engeren Sinn ist damit der CPU-Zeitraum gemeint, der von einem Prozess auf einem Prozessor verbraucht wird. Die Rechenzeit kann in Sekunden oder Millisekunden angegeben werden und wird oft als CPU-Nutzungszeit (user time) und Systemzeit (kernel time) angegeben; zusammen ergeben sie die gesamte Rechenzeit. In der Praxis wird häufig zwischen Rechenzeit (CPU-Zeit) und Realzeit (Wall-Clock Time) unterschieden, da sie durch Parallelität, Eingabe/Ausgabe und Betriebssystem-Scheduling unterschiedlich beeinflusst wird.

Rechenzeit wird in der Praxis mit Messwerkzeugen ermittelt, etwa dem Unix-Befehl time, der real, user und sys

Es ist wichtig, Rechenzeit von der zeitlichen Komplexität eines Algorithmus zu unterscheiden: Die algorithmische Komplexität gibt

Siehe auch CPU-Zeit, Wall-Clock-Time, Benchmark, Zeitmessung.

unterscheidet.
Programmiersprachen
bieten
Funktionen
zur
Zeitmessung,
etwa
hochauflösende
Timer
oder
Clock-Funktionen.
Die
Rechenzeit
ist
ein
zentraler
Bestandteil
der
Leistungsbewertung,
wird
aber
von
Systemlast,
Cache-Effekten,
Speicherzugriff
und
paralleler
Verarbeitung
beeinflusst.
eine
grobe,
hardwareunabhängige
Obergrenze
des
benötigten
Rechenaufwands
an,
während
die
Rechenzeit
die
tatsächliche
Laufzeit
auf
einer
bestimmten
Maschine
misst.
In
der
Praxis
spielen
Rechenzeit
und
Effizienz
eine
zentrale
Rolle
beim
Benchmarking,
bei
der
Ressourcenabrechnung
in
Rechenzentren
und
in
Echtzeitsystemen.