Home

OLSVerfahren

Das OLS-Verfahren (Ordinary Least Squares) ist eines der gebräuchlichsten Verfahren zur Schätzung der Parameter eines linearen Regressionsmodells. Ziel ist es, die Parameter β so zu bestimmen, dass die Summe der quadrierten Residuen zwischen den beobachteten Werten y und den durch das Modell vorhergesagten Werten minimiert wird. Das lineare Modell hat typischerweise die Form y = Xβ + ε, wobei X die Designmatrix der Regressoren, β der Vektor der Koeffizienten und ε der Fehlervektor ist. Unter Standardannahmen gilt E[ε|X] = 0 und Var(ε|X) = σ^2 I; bei zusätzlichen Annahmen, insbesondere Normalverteilung der Fehler, ermöglichen sie zuverlässige Inferenz.

Die analytische Lösung ergibt sich, sofern X vollständigen Spaltenrang hat, zu β̂ = (X'X)^{-1}X'y. Die Schätzung ist unter

Maße der Anpassung sind R² und angepasstes R²; Informationen zur Signifikanz der Koeffizienten erfolgen über t-Tests

Wichtige Einschränkungen: OLS ist empfindlich gegenüber Ausreißern und falsch spezifizierten Modellen; Multikollinearität kann die Stabilität der

dem
Gauss-Markov-Satz
BLUE
(beste
lineare,
unverzerrte
Schätzer)
bei
Homoskedastizität
und
fehlender
Autokorrelation.
Für
Normalfehler
liefert
OLS
außerdem
die
Grundlage
für
genaue
Hypothesentests
und
Konfidenzintervalle.
(und
F-Tests
für
multiple
Koeffizienten).
Die
Robustheit
der
Schlussfolgerungen
gegenüber
Verletzungen
der
Annahmen
kann
durch
robuste
Standardfehler
oder
durch
alternative
Modelle
wie
GLS
verbessert
werden,
insbesondere
bei
Heteroskedastizität
oder
Autokorrelation.
Koeffizienten
beeinträchtigen.
Trotzdem
bleibt
es
ein
zentrales
Verfahren
in
Statistik
und
empirischer
Forschung,
weit
verbreitet
in
Ökonomie,
Sozialwissenschaften
und
Naturwissenschaften.