Zeitdiskretisierung
Zeitdiskretisierung bezeichnet in der Numerik die Ersetzung der kontinuierlichen Zeitvariable durch eine diskrete Abfolge von Zeitschritten. Typischerweise wird t_k = t_0 + k h eingeführt, wobei h der Zeitabstand zwischen den Stufen ist. Ziel ist es, zeitabhängige Modelle, die als Differentialgleichungen vorliegen, numerisch zu lösen, indem man die Ableitungen durch Differenzen ersetzt.
Bei einer gewöhnlichen Differentialgleichung dy/dt = f(y,t) mit Anfangsbedingung y(t_0) wird durch Zeitdiskretisierung eine Rekursion geschaffen, die
Höhere Ordnung: Runge-Kutta-Verfahren (z. B. RK4) liefern höhere Genauigkeit pro Zeitschritt, während Mehrschritt-Verfahren wie Adams-Bashforth/Adams-Moulton oft
Stabilität und Fehler: Der Schritt h beeinflusst Stabilität und Konvergenz. Explizite Methoden können bei großen h
Anwendungsbereiche: Zeitdiskretisierung ist zentral in der Simulation dynamischer Systeme, der Regelungstechnik, numerischer Physik und in der