InterRaterReliabilität
Interrater-Reliabilität (IRR) bezeichnet das Maß der Übereinstimmung zwischen unabhängigen Beurteilern bei der Bewertung eines Merkmals oder Phänomens. Sie ist ein wichtiger Indikator für die Objektivität eines Messverfahrens. IRR wird in verschiedenen Formen gemessen, abhängig von der Art der Daten und der Zahl der Rater. Bei kategorialen Daten ermöglichen Kennzahlen wie Cohen's Kappa (zwei Rater) oder Fleiss' Kappa (mehrere Rater) die Berücksichtigung der Zufallsübereinstimmung; bei ordinal skalierten Merkmalen kommen gewichtete Kappas zum Einsatz. Für kontinuierliche Messwerte dienen Intraclass Correlation Coefficients (ICC) verschiedene Modelle, je nach Schätzungseffekt und Festlegung der Rater.
Die Interpretation von IRR ist je nach Kontext unterschiedlich; allgemein gelten höhere Werte als bessere Übereinstimmung.
Anwendungen finden sich in der Psychologie, Medizin, Bildungsforschung und Inhaltsanalyse, etwa bei Diagnosen, Einstufung von Symptomen