Stichprobenungleichheiten
Stichprobenungleichheiten sind Ungleichheiten in der Wahrscheinlichkeitstheorie, die Abschätzungen darüber ermöglichen, wie weit eine Stichprobenstatistik von einem zugrunde liegenden Populationsparameter abweichen kann. Sie gelten für verschiedene Arten von Stichproben, oft unter Unabhängigkeit oder bestimmten Abhängigkeitsbedingungen, und geben Wahrscheinlichkeitsgrenzen für Abweichungen von Mittelwerten, Summen oder anderen Funktionswerten der Stichprobe an. Diese Ungleichheiten gehören zum Bereich der Konzentrationsungleichheiten und spielen eine zentrale Rolle in Statistik, Wahrscheinlichkeitstheorie und Anwendungen wie maschinellem Lernen.
Eine der bekanntesten Stichprobenungleichheiten ist die Chebyschev-Ungleichung. Sie liefert eine allgemeine Obergrenze für die Abweichung des
Weitere wichtige Ungleichheiten sind die Hoeffding-Ungleichung, die für unabhängige, identisch verteilte oder allgemein gebundene Zufallsvariablen gilt
Anwendungen finden Stichprobenungleichheiten in der Abschätzung von Fehlern von Schätzern, in der Konstruktion von Konfidenzintervallen, in