Kappa di Cohen

Da Wikipedia, l'enciclopedia libera.

Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza calcolato in base al rapporto tra l'accordo in eccesso e l'accordo massimo ottenibile.

Questo valore deve il suo nome allo scienziato Jacob Cohen.

Attraverso la matrice di confusione è possibile valutare questo parametro:

\kappa = \frac{\Pr(a) - \Pr(e)}{1 - \Pr(e)},

dove \Pr(a) è data dalla somma della prima diagonale della matrice e rappresenta la proporzione dei giudizi concordanti tra i giudici. Mentre \Pr(e) è il prodotto dei totali positivi sommato a quelli negativi e rappresenta la proporzione dei giudizi concordanti casualmente.

Se \kappa = 1, allora la statistica rappresenta il caso ottimo. Infatti -1<= \kappa <= 1.

Esistono diversi "gradi di concordanza", in base ai quali possiamo definire se Kappa di Cohen è scarso o ottimo:

  • se k assume valori inferiori a 0, allora non c'è concordanza;
  • se k assume valori compresi tra 0-0,4, allora la concordanza è scarsa;
  • se k assume valori compresi tra 0,4-0,6, allora la concordanza è discreta;
  • se k assume valori compresi tra 0,6-0,8, la concordanza è buona;
  • se k assume valori compresi tra 0,8-1, la concordanza è ottima.
  Valori
reali
  p n totale
Valori
predetti
p' Veri
positivi
Falsi
positivi
P'
n' Falsi
negativi
Veri
negativi
N'
totale P N