Home

AkaikeInformationskriterium

Das Akaike-Informationskriterium (AIC) ist ein Maß zur Modellselektion in der Statistik, benannt nach Hirotugu Akaike. Es dient dem Vergleich konkurrierender statistischer Modelle anhand ihrer Informationsbilanz und Güte der Anpassung.

Formel und Berechnung: AIC = 2k - 2 ln L, wobei k die Anzahl der geschätzten Parametern (einschließlich

Interpretation: Ein Modell mit niedrigerem AIC gilt als besser in der Balance zwischen Güte der Anpassung und

Anwendung, Stärken und Einschränkungen: Die Aussagen des AIC hängen vom Wahrscheinlichkeitsmodell ab; es setzt voraus, dass

Intercept)
und
L
das
Maximum
der
Likelihood-Funktion
des
Modells
ist.
Für
kleine
Stichproben
ist
die
korrigierte
Form
AICc
=
AIC
+
(2k(k+1))/(n-k-1)
sinnvoll.
Der
Wert
allein
ist
kein
absolutes
Maß,
sondern
dient
dem
relativen
Vergleich
mehrerer
Modelle
mit
denselben
Daten.
Modellkomplexität.
AIC
liefert
relative
Bewertungen
und
soll
helfen,
Modelle
zu
identifizieren,
die
gute
Vorhersage
liefern,
ohne
unnötig
viele
Parameter
zu
verwenden.
Es
handelt
sich
nicht
um
einen
formalen
Test
der
Modellwahrheit.
ein
geeignetes
Modell
im
Kandidaten-set
enthalten
ist.
Im
Vergleich
zu
dem
strengeren
Kriterium
BIC
wird
die
Komplexität
weniger
stark
bestraft,
wodurch
AIC
bei
größeren
Stichproben
tendenziell
komplexere
Modelle
bevorzugt.
AIC
ist
daher
besonders
nützlich
für
Vorhersageorientierte
Modellwahl
in
Bereichen
wie
Ökonometrie,
Biologie,
Psychologie
und
maschinellem
Lernen.
Es
ist
wichtig,
die
Grenzfälle
und
Annahmen
des
Modells
zu
beachten.