Zeitschrittgröße
Die Zeitschrittgröße, im Fachjargon oft als Δt bezeichnet, ist das diskrete Zeitintervall, mit dem die zeitliche Entwicklung von Modellen abgebildet wird. In der Numerik werden zeitabhängige Gleichungen wie gewöhnliche Differentialgleichungen (ODEs) oder partielle Differentialgleichungen (PDEs) durch eine Folge von Zeitpunkten t_n = n Δt angenähert. Die Wahl von Δt bestimmt Auflösung, Genauigkeit und Rechenaufwand der Simulation.
Die Größe Δt beeinflusst maßgeblich die Fehlerbildung eines Verfahrens. Für ein Verfahren mit Ordnung p verhält
Stabilität spielt besonders bei zeitabhängigen PDEs eine zentrale Rolle. Explizite Verfahren haben oft feste Stabilitätsgrenzen: Δt
Praktisch wird Δt oft durch eine Mischung aus physikalischer Skala, gewünschter Genauigkeit und verfügbaren Rechenressourcen festgelegt.