Home

LikelihoodFunktionen

LikelihoodFunktionen, im Deutschen häufiger als Likelihood-Funktionen bezeichnet, beschreibt die Wahrscheinlichkeit der beobachteten Daten als Funktion der unbekannten Parameter eines statistischen Modells. Formal ist die Likelihood L(θ; x) = p(x|θ), wobei x die Daten und θ der Parametervektor ist. Bei unabhängigen Beobachtungen x1, ..., xn ergibt sich L(θ; x) = ∏_{i=1}^n f(x_i; θ). Die Likelihood ist keine Wahrscheinlichkeitsverteilung über θ; sie bewertet stattdessen, wie gut ein Parameterwert die Daten erklärt. Die Log-Likelihood ℓ(θ) = log L(θ; x) wird häufig genutzt, da sie Produkte in Summen überführt und Berechnungen erleichtert.

Maximum-Likelihood-Ansatz: Der Parameter θ wird so gewählt, dass L(θ; x) bzw. ℓ(θ) maximiert wird. Unter geeigneten Regularitätsbedingungen lassen

Eigenschaften: Die Likelihood hängt von der Modellierung ab und verändert sich mit Parametrisierung; sie ist invariant

Beispiele: Bei normalverteilter Daten mit bekannter Varianz maximiert der Mittelwert μ die Likelihood und entspricht dem Stichprobenmittelwert.

Verwendung: Likelihood-Funktionen sind Kernbestandteile von Schätzungen, Tests und Modellvergleichen in der Frequentist-Statistik. In Bayes’cher Statistik dient

sich
Lösungen
analytisch
oder
durch
numerische
Optimierung
finden.
Die
Likelihood
kann
auch
für
Hypothesentests,
Modellvergleich
und
Informationskriterien
herangezogen
werden,
etwa
mittels
Likelihood-Ratio
oder
Akaike-Information-Criterion.
unter
monotone
Transformationen
der
Daten.
Der
Maximum-Likelihood-Schätzer
ist
in
vielen
Modellen
konsistent
und
asymptotisch
normal.
Für
mehrdimensionale
Parameter
θ
liefert
die
Hessian-Matrix
der
Log-Likelihood
am
Maximum
Hinweise
auf
die
Präzision
der
Schätzung.
Bei
Bernoulli-Daten
führt
L(p)
zu
einem
Schätzer
p̂
=
k/n,
wobei
k
die
Anzahl
der
Erfolge
ist.
die
Likelihood
zusammen
mit
der
Prior
zur
Bestimmung
der
Posterior-Verteilung.