Regressionshypothesen
Regressionshypothesen sind die grundlegenden Annahmen, die einem Regressionsmodell — insbesondere der klassischen linearen Regression (OLS) — zugrunde liegen. Sie definieren die Bedingungen, unter denen Schätzer unverzerrt, effizient und konsistent sind sowie Tests und Konfidenzintervalle gültige Aussagen liefern.
- Lineare Form: Der Einfluss der erklärenden Variablen auf die abhängige Variable ist linear in den Parametern
- Exogenität: Die Regressoren sind erwartungstreu gegenüber dem Fehlerterm (keine Korrelation mit den Residuen).
- Keine perfekte Multikollinearität: Es gibt keine exakte lineare Abhängigkeit zwischen erklärenden Variablen.
- Homoskedastizität: Die Varianz der Fehler ist für alle Beobachtungen konstant.
- Unabhängigkeit/keine Autokorrelation: Fehlerterme sind unkorreliert, besonders wichtig bei Zeitreihen.
- Normalverteilung der Fehler: Für kleine Stichproben notwendig, um exakte Inferenz durchzuführen.
Verletzungen dieser Hypothesen führen zu Verzerrungen, inkonsistenten Schätzern oder ungültigen Standardfehlern. Diagnosetests und graphische Residuenanalysen (z.
Die konkreten Anforderungen variieren je nach Regressionsmodell; daher ist Anpassung der Hypothesenprüfung an Modelltyp und Datenstruktur