interbedömarereliabilitet
Interbedömarreliabilitet, eller inter-rater reliability, är graden av överenskommelse mellan två eller fler bedömare när de skattar samma fenomen, observation eller datapunkt. Den används för att avgöra hur konsekventa bedömningar är och därmed hur tillförlitliga analyser av data blir.
Data kan vara nominal, ordinal eller kontinuerlig. Vanliga mått är Cohen's kappa för två bedömare med nominal
Bedömning av vad som är tillräcklig överenskommelse är kontextberoende. Som vägledning används ofta kategorier som 0,00–0,20
Faktorer som påverkar reliabiliteten inkluderar tydliga operativa definitioner, utbildning och träning av bedömare, enhetliga bedömningsinstruktioner, blindning
Rapportering av interbedömarreliabilitet bör ange antalet bedömare, deras utbildning, bedökningsinstrumentet, datatyp, vilken beräkningsmodell som använts och