Home

Diskretisierungsfehler

Diskretisierungsfehler ist in der numerischen Mathematik der Unterschied zwischen der exakten Lösung eines kontinuierlichen Problems (etwa einer Differentialgleichung) und der durch Diskretisierung erhaltenen numerischen Lösung. Er entsteht, wenn Raum und Zeit oder Funktionenräume durch diskrete Strukturen ersetzt werden, zum Beispiel durch Finite-Differenzen-Methoden, Finite-Elemente-Methoden oder durch numerische Integrationsverfahren.

Ursachen sind die räumliche Diskretisierung mittels eines Gitters (mit Abstand h), die zeitliche Diskretisierung (Schrittgröße Δt)

Die Größenordnung des Diskretisierungsfehlers hängt von der Ordnung p des verwendeten Verfahrens ab. Typischerweise nimmt der

Zur Reduktion des Diskretisierungsfehlers werden feinere Gitter, höherwertige Elemente oder Differenzenquotienten mit höherem Ordnung eingesetzt. Adaptive

Beispiele finden sich in der Lösung von Poisson-Gleichungen mit Finite-Differenzen oder Finite-Elemente-Methoden, der numerischen Lösung von

sowie
die
Approximation
der
Lösung
durch
Basisfunktionen
oder
quadraturbasierte
Integrationen.
Diskretisierungsfehler
ist
nicht
mit
Rundungsfehlern
zu
verwechseln,
die
durch
endliche
Wortlänge
der
Rechenoperationen
entstehen.
Fehler
mit
einer
Rate
O(h^p)
ab,
wenn
das
Gitter
verfeinert
wird,
bei
zeitlichen
Verfahren
analog
O(Δt^q).
Die
genaue
Konvergenz
hängt
auch
von
der
Glattheit
der
exakten
Lösung
ab;
bei
Unstetigkeiten
oder
starken
Gradienten
kann
die
Konvergenz
langsamer
ausfallen.
Mesh-Refinement,
verbesserte
Integrationsschemata
und
Stabilisierungstechniken
können
ebenfalls
helfen.
In
der
Praxis
gilt
es,
Diskretisierungsfehler
gegen
andere
Fehlerquellen
abzuwägen,
insbesondere
gegen
Rundungs-
und
Modellierungsfehler.
gewöhnlichen
Differentialgleichungen
mit
Mehrschritt-Verfahren
und
in
der
zeitlichen
Integration
von
PDEs.
Diskretisierungsfehler
ist
ein
zentrales
Konzept
bei
der
Beurteilung
der
Zuverlässigkeit
von
numerischen
Simulationen.