Cohens Kappa
Jump to navigation
Jump to search
Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität, welches Jacob Cohen 1960 vorschlug.
Beschreibung
Beispiel: 2 Rater führen eine Risikoeinschätzung bei 40 Teilnehmern durch.
- absolute Übereinstimmung: Man addiert die Fälle, in denen beide Rater einen Teilnehmer als "Nicht-Risiko" einschätzen und solche, wo sie beide ein "Risiko" einschätzen.
- erwartete Übereinstimmung: würden beide Rater per Münzwurf die Risikoeinschätzung durchführen, so würden sie (rein zufällig) in 50% der Fälle übereinstimmen.
Wenn man nun von der absoluten Übereinstimmung die erwarete Übereinstimmung abzieht, so erhält man den Anteil, in welchem die beiden Rater dem Zufall überlegen sind.
Cohens Kappa setzt diese "Überlegenheit" nun in Bezug zu der erwarteten NICHT-Übereinstimmung (beim Münzwurf würden die Rater auch in 50% der Fälle nicht übereinstimmen.
Formel
Die Gleichung für Cohens Kappa lautet:
wobei p(a) der gemessene Übereinstimmungswert der beiden Beobachter und p(e) die zufällig erwartete Übereinstimmung ist.
Literatur
- Herbert Mayer et. al (2004): "Qualitätskriterien von Assessmentinstrumenten - Cohen's Kappa als Maß der Interrater-Reliabilität", in: Pflege (Zeitschrift), 17(1):36-46
Weblinks
Beurteilung: Dieser Artikel ist sehr kurz oder unvollständig, und sollte noch erweitert werden. Falls Du etwas zu diesem Thema weißt, dann sei mutig und füge Dein Wissen hinzu. |