A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Kappa de Cohen Prof. Ivan Balducci FOSJC / Unesp.

Apresentações semelhantes


Apresentação em tema: "Kappa de Cohen Prof. Ivan Balducci FOSJC / Unesp."— Transcrição da apresentação:

1 Kappa de Cohen Prof. Ivan Balducci FOSJC / Unesp

2 Kappa p/ Avaliar Confiabilidade Kappa é um teste de acordo (ou de confiabilidade) inter ou intra-observador que corrige o acordo obtido por acaso (casual) (sob hipótese de independência)

3 Dr. V. Abraira, SEMERGEN, vol. 27, nº 5, mayo 2001, p Representação gráfica do Índice Kappa = (P o - P e ) / (1 - P e )

4 Escala do índice Kappa de Landis & Koch* * LANDIS, J.R. & KOCH, G.G. The measurement of observer agreement for categorical data. Biometrics, 33(1977)

5 < >0.75 Pobre Bom Excelente Escala do índice Kappa de Fleiss* * FLEISS, J.L. (1981). Statistical methods for rates and proportions, 2nd ed. NY.p.216,218.

6 Kappa de Cohen ? Representa a proporção de acordos observados além do acaso em relação do máximo acordo possível além do acaso. é usado para avaliar a concordância ou reprodutibilidade de instrumentos de medida cujo resultado é categórico ( 2 ou mais categorias). = (P o - P e ) / (1 - P e )

7 Compare as duas tabelas: médico 1 SimNão Médico 2 Sim13 Não294 médico 1 SimNão Médico 2 Sim433 Não252 Em ambas tabelas, os médicos concordam 95% das vezes. Os dois médicos são igualmente confiáveis nas duas tabelas? Tabela 1 Tabela 2

8 Cálculo de Kappa Calculamos o acordo observado (células nas quais os observadores concordam / total das células). Em ambas tabelas 1 e 2 é 95%. Calculamos o acordo esperado (P e ) (acordo by chance ) a partir dos totais marginais.

9 Como calcular o n esperado by chance em cada célula? H 0 : eventos independentes P(A B) = P(A)P(B) (A) … m é dico 2 não = 96/100 (B) … m é dico 1 não = 97/100 P(A B) = 96/100 x 97/100 P(A B) = ? = OBSERVADOSmédico 1 SimNão médico 2 Sim134 Não ESPERADOS médico 1 SimNão médico 2 Sim4 Não ? Tabela 1

10 H 0 : eventos independentes P(A B) = P(A)P(B) (A) … médico 2 sim = 4/100 e (B) … médico 1 sim = 3/100 P(A B) = 4/100 x 3/100 freq. esperada = (4)(3)/100 P(A B) = 0.12 = ESPERADO médico 1 SimNão médico 2Yes4 Não (96/100) x 97 = Tabela 1

11 Por subtração, todas as outras células são preenchidas automaticamente. Qualquer célula poderia ter sido escolhida para fazer o cálculo. ESPERADO médico 1 SimNão médico 2Sim Não = = 0.12 Tabela 1

12 Apenas, devido ao acaso, encontram-se em acordo das 100 observações. ESPERADO médico 1 SimNão médico 2Sim Não = P e = / 100 Tabela 1

13 P e = 93.24/100 = (P o - P e ) / (1 - P e ) P o = 95/100 Tabela 1

14 Fórmula Kappa Acordo observado - Acordo Esperado 1 - Acordo Esperado = 95% % = 1.76% = % 6.76% Tabela 1

15 Como interpretar um Kappa igual a 0.26? Kappa Grau de acordo <0,00 Sem acordo 0,00 - 0,20Insignificante 0, Mediano 0,41 - 0,60Moderado 0,61 - 0,80Substancial 0,81 - 1,00Quase Perfeito Tabela 1

16 Vamos considerar agora a Tabela 2 Tabela 2 = ???? médico 1 Sim Não Médico 2 Sim433 Não =

17 Compare as duas tabelas: médico 1 SimNão Médico 2 Sim13 Não294 médico 1 SimNão Médico 2 Sim433 Não252 Em ambas tabelas, os médicos concordam 95% das vezes. Os dois médicos são igualmente confiáveis nas duas tabelas? Tabela 1 = 0,26 Tabela 2 = ????

18 médico 1 SimNão Médico 2 Sim433 Não252 Os médicos concordam 95% das vezes. (43+52)/100 Tabela 2 Qual é o valor de kappa para essa Tabela 2?

19 As células que indicam acordo estão em vermelho, e somam 50.4% REAL médico 1 YesNão médico 2Sim Não P e = 50.4 Tabela = (45)(46)/ = (55)(54)/100

20 Fórmula de : = Acordo Observado – Acordo Esperado 1 - Acordo Esperado =95% % = 44.6% = % 49.6% Kappa = 0.90 é considerado um acordo excelente Tabela 2

21 Termos que devem ser familiares Kappa de Cohen Acordo inter, intra-observadores Índice de reprodutibilidade


Carregar ppt "Kappa de Cohen Prof. Ivan Balducci FOSJC / Unesp."

Apresentações semelhantes


Anúncios Google