RényiEntropien
Rényi-Entropien bezeichnen eine Familie von Entropie-Maßen, die von dem ungarisch-französischen Mathematiker Alfréd Rényi eingeführt wurden. Sie erweitern das Konzept der Informationstheorie um einen Parameter α, der je nach Ausprägung das Gewicht der Wahrscheinlichkeiten unterschiedlich betont. Für eine diskrete Wahrscheinlichkeitsverteilung P = {p_i} über einer endlichen oder abzählbar unendlichen Menge definiert sich die Rényi-Entropie als H_α(P) = 1/(1−α) log(∑_i p_i^α), wobei das Logarithmus die Basis und damit die Einheit bestimmt (Basis e liefert Nats, Basis 2 liefert Bits). Gilt α=1, nimmt man den Grenzwert und erhält die Shannon-Entropie H(P) = −∑_i p_i log p_i.
Spezialfälle und Eigenschaften: Für α=0 ergibt sich H_0(P) = log|Supp(P)|, dem Logarithmus der Anzahl der nicht Null-Wahrscheinlichkeiten.
Bezug und Anwendungen: Die Rényi-Entropien sind eng verwandt mit Diversitätsmaßen (Hill-Zahlen) über den Zusammenhang D_α = exp(H_α).