Home

Zeitschrittgröße

Die Zeitschrittgröße, im Fachjargon oft als Δt bezeichnet, ist das diskrete Zeitintervall, mit dem die zeitliche Entwicklung von Modellen abgebildet wird. In der Numerik werden zeitabhängige Gleichungen wie gewöhnliche Differentialgleichungen (ODEs) oder partielle Differentialgleichungen (PDEs) durch eine Folge von Zeitpunkten t_n = n Δt angenähert. Die Wahl von Δt bestimmt Auflösung, Genauigkeit und Rechenaufwand der Simulation.

Die Größe Δt beeinflusst maßgeblich die Fehlerbildung eines Verfahrens. Für ein Verfahren mit Ordnung p verhält

Stabilität spielt besonders bei zeitabhängigen PDEs eine zentrale Rolle. Explizite Verfahren haben oft feste Stabilitätsgrenzen: Δt

Praktisch wird Δt oft durch eine Mischung aus physikalischer Skala, gewünschter Genauigkeit und verfügbaren Rechenressourcen festgelegt.

sich
der
globale
Fehler
typischerweise
wie
O(Δt^p).
Kleinere
Δt
erhöhen
die
Genauigkeit,
bedeuten
aber
mehr
Rechenschritte.
Viele
numerische
Solver
verwenden
adaptive
Zeitschrittweitensteuerung,
die
Δt
automatisch
an
eine
gewünschte
Fehlertoleranz
anpasst,
um
Effizienz
und
Stabilität
zu
optimieren.
muss
ausreichend
klein
im
Verhältnis
zur
räumlichen
Diskretisierung
und
zu
charakteristischen
Geschwindigkeiten
sein
(CFL-Bedingung).
Bei
steifen
Gleichungen
oder
komplexen
Systeme
sind
implicit
oder
semi-implicit
Verfahren
vorteilhaft,
da
sie
größere
Δt
zulassen,
allerdings
pro
Schritt
eine
Lösung
eines
Gleichungssystems
erfordern.
Typische
Beispiele
für
Verfahren,
die
Δt
verwenden,
sind
das
Euler-Verfahren
oder
Runge-Kutta-Verfahren,
teils
mit
adaptiver
Schrittweitensteuerung
zur
Balance
von
Stabilität,
Genauigkeit
und
Aufwand.