Cohens Kappa

Aus Familienwortschatz
Zur Navigation springen Zur Suche springen

Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität, welches Jacob Cohen 1960 vorschlug.

Beschreibung

Beispiel: 2 Rater führen eine Risikoeinschätzung bei 40 Teilnehmern durch.

  • absolute Übereinstimmung: Man addiert die Fälle, in denen beide Rater einen Teilnehmer als "Nicht-Risiko" einschätzen und solche, wo sie beide ein "Risiko" einschätzen.
  • erwartete Übereinstimmung: würden beide Rater per Münzwurf die Risikoeinschätzung durchführen, so würden sie (rein zufällig) in 50% der Fälle übereinstimmen.

Wenn man nun von der absoluten Übereinstimmung die erwarete Übereinstimmung abzieht, so erhält man den Anteil, in welchem die beiden Rater dem Zufall überlegen sind.

Cohens Kappa setzt diese "Überlegenheit" nun in Bezug zu der erwarteten NICHT-Übereinstimmung (beim Münzwurf würden die Rater auch in 50% der Fälle nicht übereinstimmen.


Formel

Die Gleichung für Cohens Kappa lautet:

Datei:Cohenskappa01.png


wobei p(a) der gemessene Übereinstimmungswert der beiden Beobachter und p(e) die zufällig erwartete Übereinstimmung ist.

Literatur

  • Herbert Mayer et. al (2004): "Qualitätskriterien von Assessmentinstrumenten - Cohen's Kappa als Maß der Interrater-Reliabilität", in: Pflege (Zeitschrift), 17(1):36-46

Weblinks


vgl. Wikipedia: "Cohens Kappa"




Diser Artikel ist unvollständig

Beurteilung: Dieser Artikel ist sehr kurz oder unvollständig, und sollte noch erweitert werden. Falls Du etwas zu diesem Thema weißt, dann sei mutig und füge Dein Wissen hinzu.