MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA

Slides:



Advertisements
Apresentações semelhantes
Agenda Introdução Justificativa Objetivo Detecção de Spam
Advertisements

Inteligência Artificial
Aprendizado de Máquina
Mineração de Dados Avaliação de Classificadores
HAC MD -junho/ Noções de algoritmos e estudo de casos das principais tarefas de Mineração de dados.
AULA 03 PERCEPTRON SIMPLES.
Aprendizado de Máquina
Aprendem a partir de seus vizinhos AULA 9 DATA MINING Sandra de Amo
Classificação Arvores de Decisão
Classificadores em Dados não Balanceados
Avaliação de Clusteres
Aprendizagem - Neurônio de McCulloch & Pitts Série: Por que não me contaram antes isto Prof. Dr. Hemerson Pistori www. gpec. ucdb. br/pistori Univesidade.
Reconhecimento de Padrões Tipos de Aprendizagem
Reconhecimento de Padrões Receiver Operating Characteristics (ROC)
Reconhecimento de Padrões Aprendizagem Supervisionada (KNN)
Reconhecimento de Padrões Tipos de Aprendizagem David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa.
Sensibilidade / Especificidade
Adaboost A decision theoretic generalization of on-line learning and an application to boosting Journal of Computer and System Sciences, no
Exercícios de revisão.
Estudo de Benefícios e Custos de Algoritmos para Seleção de Características Eduardo Mendel do Nascimento Estefhan Dazzi Wandekokem.
Autores: João Paulo do Vale Madeiro Paulo César Cortez
INF 1771 – Inteligência Artificial
Suellen Silva de Almeida Victor Hugo Cunha de Melo Jean Carlos Mendes
Avaliação de testes diagnósticos
Avaliação de Testes Diagnósticos
Tratamento de Dados Desbalanceados
Aprendizado de Máquina Aula 8
Parte D Inversão de dados
Alexandre Xavier Falcão & David Menotti
Aula Prática Classificação
Aprendizado Baseado em Instâncias – Algoritmo k-NN
Tratamento de Dados Desbalanceados
Laís Araújo Lopes de Souza
K-Means / Clustering.
Suellen Silva de Almeida Victor Hugo Cunha de Melo David Menotti
Avaliação de Clusteres Parte II
Sistemas Inteligentes
Métodos de Desagrupamento Método de Células Móveis
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Classificação: avaliação de modelos
KNN – K Nearest Neighbor (K Vizinhos mais Próximos)
SVMSharp – Uma implementação didática de uma SVM
Noções de Inferência Estatística
Aula 11 - Teste de hipóteses, teste de uma proporção
Aprendizagem Estatística de Dados Aprendizagem Estatística de Dados Francisco Carvalho.
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2015 Análise de Variância (ANOVA) Camilo Daleles Rennó
A Lexicon-Enhanced Method for Sentiment Classification: An Experiment on Online Product Reviews Bruno Andrade.
1 2º Ciclo de Estudos – Mestrado Informática Médica Docente: Inês Dutra Alunos: João Janeiro Luis Martinez Ricardo Casal Disciplina: Sistemas de Apoio.
Avaliação do Conhecimento Descoberto
Uma Introdução a SVM Support Vector Machines
Deleterious SNP prediction: be mindful of your training data! Flávia Araújo
SENSIBILIDADE, ESPECIFICIDADE E VALORES PREDITIVOS
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
Regressão e Previsão Numérica.
Classificação de Texto Baseada na aula de Henrique Borges e Ícaro Medeiros Alterada por Flávia Barros.
Teste Qui-quadrado Comparando proporções
M ÉTODOS E STATÍSTICOS PARA E XATIDÃO DE M APEAMENTO E A VALIAÇÃO DE M ODELOS Camilo Daleles Rennó Referata Biodiversidade 8 novembro 2007.
Avaliação de Classificadores Binários
PROBABILIDADE E AVALIAÇÃO DE TESTES DE DIAGNÓSTICOS
Tecnologias e Sistemas de Informação
DECOM – ICEB – UFOP Prof. Álvaro Guarda Aprendizado de Máquina - 0 Aprendizado Indutivo de Conceitos Conceito Conjunto de objetos com características comuns.
Aula Pratica Aprendizagem WEKA Prof. Ivan Gesteira Costa Filho Centro de Informática Universidade Federal de Pernambuco.
Conselhos para a aplicação de aprendizagem de máquinas
©2005 Germano C.Vasconcelos Projeto da Disciplina Germano C. Vasconcelos Centro de Informática - UFPE.
Aula X: Curva ROC e teste de hipóteses M-ário
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
PARÂMETROS DOS TESTES SOROLÓGICOS
Variância/ Covariância, Correlação Regressão. Variância.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

MEDIDAS DE DESEMPENHO Classificação SUPERVISIONADA

Matriz de Confusão A matriz de confusão de uma hipótese h oferece uma medida efetiva do modelo de classificação, ao mostrar o número de classificações corretas versus as classificações preditas para cada classe, sobre um conjunto de exemplos T O número de acertos, para cada classe, se localiza na diagonal principal M(Ci,Ci) da matriz Os demais elementos M(Ci,Cj), para i ≠ j, representam erros na classificação A matriz de confusão de um classificador ideal possui todos esses elementos iguais a zero uma vez que ele não comete erros

Medidas de Desemepenho Acurácia: porcentagem de amostras positivas e negativas classificadas corretamente sobre a soma de amostras positivas e negativas

Estimação da taxa de erro (ou de acerto = Acuracia) Holdout - 2/3 treinamento, 1/3 teste Validação cruzada (k-fold) K conjuntos exclusivos e exaustivos O algoritmo é executado k vezes Bootstrap Com reposição de amostras

Desbalanceamento de Classes Suponha um conjunto de amostras com a seguinte distribuição de classes dist(C1, C2, C3) = (99.00%, 0.25%, 0.75%) Um classificador simples que classifique sempre novos exemplos como pertencentes à classe majoritária C1 teria uma precisão de 99,00% Isto pode ser indesejável quando as classes minoritárias são aquelas que possuem informação importante. Por exemplo: C1: paciente normal, C2: paciente com doença A C3: paciente com doença B

Desbalanceamento de Classes Exemplo : C1 = pacientes com câncer (4 pacientes) C2 = pacientes saudáveis (500 pacientes) acc(M) = 90% Classificou corretamente 454 pacientes que não tem câncer Não acertou nenhum dos que tem câncer Pode ser considerado um “bom classificador”?

Desbalanceamento de Classes Quando se trabalha com classes desbalanceadas é desejável utilizar uma medida de desempenho diferente da precisão A maioria dos sistemas de aprendizado é projetada para otimizar a precisão. Estes classificadores apresentam um desempenho ruim se o conjunto de treinamento encontra-se fortemente desbalanceado, Algumas técnicas foram desenvolvidas para lidar com esse problema, tais como a introdução de custos de classificação incorreta, a remoção de amostras redundantes ou prejudiciais ou ainda a detecção de exemplos de borda e com ruído

Medidas de Desemepenho Sensitividade (Recall): porcentagem de amostras positivas classificadas corretamente sobre o total de amostras positivas Precisão: porcentagem de amostras positivas classificadas corretamente sobre o total de amostras classificadas como positivas Especificidade: porcentagem de amostras negativas identificadas corretamente sobre o total de amostras negativas

Medidas de Desempenho F-measure também chamada F-score. É uma média ponderada de precisão e recall

Curva ROC ROC = Receiver Operating Characteristic Curve Enfoque gráfico que mostra um trade-off entre as taxas de TP (TPR) e FP (FPR) de um classificador. TPR = TP/(TP + FN) ( = recall) = Porcentagem de amostras corretamente classificadas como positivas dentre todas as positivas reais FPR = FP/(TN + FP) Porcentagem de amostras erroneamente classificadas como positivas dentre todas as negativas reais Ideal : TPR = 1 e FPR = 0

Exemplo Pts without the disease Pts with disease Test Result

Limiar Test Result Call these patients “negative” Call these patients “positive” Test Result

True Positives Test Result Call these patients “negative” Call these patients “positive” True Positives Test Result without the disease with the disease

False Positives Test Result Call these patients “negative” Call these patients “positive” False Positives Test Result

True negatives Test Result Call these patients “negative” Call these patients “positive” True negatives Test Result

False negatives Test Result Call these patients “negative” Call these patients “positive” False negatives Test Result

Movendo o Limiar para a direita ‘‘-’’ ‘‘+’’ Test Result

Movendo o Limiar para a esquerda ‘‘-’’ ‘‘+’’ Test Result

Curva ROC True Positive Rate (sensitivity) 0% 100% False Positive Rate (1-specificity)

Curva ROC Cada ponto na curva corresponde a um dos modelos induzidos pelo classificador Um bom modelo deve estar localizado próximo do ponto (0,1) Modelos localizados na diagonal são modelos aleatórios TPR = FPR Modelos localizados acima da diagonal são melhores do que modelos abaixo da diagonal.

Comparação curvas ROC A poor test: A good test: True Positive Rate 0% 100% False Positive Rate True Positive Rate 0% 100% False Positive Rate

Comparando performance relativas de diferentes classificadores Curvas Roc são utilizadas para se medir a performance relativa de diferentes classificadores. M1 M2 Até aqui M2 é melhor do que M1 A partir daí, M1 fica melhor do que M2 x

Análise da curva ROC Ponto (0,1) é o classificador perfeito: classifica todas as amostras positivas e negativas corretamente. FPR=0 e TPR=1. O ponto (0,0) representa um classificador que classifica todas as amostras como negativas, enquanto o ponto (1,1) corresponde a um classificador que classifica todas as amostras como positivas. O ponto (1,0) é o classificador que classifica incorretamente todas as amostras. Em muitos casos, os classificadores possuem um parâmetro que pode ser ajustado para aumentar TP aumentando também FP. Cada parâmetro fornece um par (FP, TP). Um classificador não-paramétrico é representado por um único ponto na curva ROC.

Extremos da curva ROC Best Test: Worst test: True Positive Rate 0% 100% False Positive Rate True Positive Rate 0% 100% False Positive Rate The distributions don’t overlap at all The distributions overlap completely

Area abaixo da curva ROC (AUC) A área abaixo da curva ROC fornece medida para comparar performances de classificadores. Quanto maior a área AUC melhor a performance global do classificador. Classificador optimal: área =1 Classificador randômico : área = 0.5

AUC para diferentes curvas ROC True Positive Rate 0% 100% False Positive Rate True Positive Rate 0% 100% False Positive Rate AUC = 100% AUC = 50% True Positive Rate 0% 100% False Positive Rate True Positive Rate 0% 100% False Positive Rate AUC = 90% AUC = 65%

Referências P-N Tan et al. Introduction to Data Mining – Capitulo 5, seção 5.7 Jesse Davis, Mark Goadrich - The Relationship between Precision-Recall and ROC Curves. Proc. 23rd Int. Conf. On Machine Learning. 2006. Gary M. Weiss. Mining with Rarity: A Unifying Framework. SIGKDD Explorations, Vol. 6, Issue 1, 2007. Software: AUCCalculator 0.2 A Java program for finding AUC-ROC and AUC-PR http://www.cs.wisc.edu/~richm/programs/AUC/