EntropieKennzahlen
Entropiekennzahlen, auch Entropiekennzahlen genannt, sind quantitative Kenngrößen, die den Grad der Unbestimmtheit, Unordnung oder des Informationsgehalts in einem System oder Datensatz charakterisieren. Sie dienen dazu, die Verteilung von Zuständen oder Ereignissen zusammenzufassen und Vergleiche zwischen unterschiedlichen Situationen zu ermöglichen.
In der Informationstheorie ist die Shannon-Entropie H(p) definiert als die negative Summe p_i log p_i über alle
In der Thermodynamik und Statistik fungieren Entropiekennzahlen als Maß für die Verallgemeinerung des Unordnungsgrades eines Systems.
Anwendungsgebiete finden sich in der Datenkompression, Mustererkennung, Kryptografie, Qualitätskontrolle, Ökonomie und Ökologie, wo Entropie als Indikator
Wichtige Bemerkungen: Entropie ist eine Zustandsgröße und hängt von der gewählten Wahrscheinlichkeitsverteilung oder dem Modell ab.