Perplexität
Perplexität ist eine Kennzahl in der Informationstheorie und der Sprachmodellierung, die misst, wie gut ein Wahrscheinlichkeitsmodell eine Folge von Wörtern vorhersehen kann. Sie wird häufig verwendet, um die Leistungsfähigkeit von Sprachmodellen wie n-grammen oder neuronalen Netzen auf Textkorpora zu bewerten. Die Perplexität gibt an, wie „überraschend“ die beobachteten Daten für das Modell sind, und dient als praktischer Indikator für die Güte der Wahrscheinlichkeitsabschätzungen.
Metrische Definition: Für ein Modell M, das p(wi | w1,...,w_{i-1}) schätzt, und einen Korpus S mit N Wörtern,
Interpretation: Die Perplexität lässt sich als der effektive Anzahl möglicher nächster Tokens interpretieren. Ein niedriger Wert
Zusammenhang zu anderen Größen: Die Perplexität entspricht dem Exponenten der durchschnittlichen negativen Log-Wahrscheinlichkeit (Cross-Entropy) des Modells.
Anwendungen und Grenzen: Perplexität wird zur Modellselektion, zum Vergleich von Architekturen oder zur Überwachung des Lernfortschritts