A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD

Apresentações semelhantes


Apresentação em tema: "O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD"— Transcrição da apresentação:

1 O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Interpretação e Avaliação Data Mining Conhecimento Seleção e Pré-processamento p(x)=0.02 Consolidação de dados Padrões & Modelos Warehouse Dados Preparados Dados Consolidados Fontes de dados

2 SUMÁRIO - Aula 2 Algoritmo ID3 usando Medida de Entropia e Medida de Ganho

3 SUMÁRIO - Aula 3 Aprendizagem Indutiva Definição de Hipótese Representação da Hipótese por Árvore de Decisão Expressividade das Árvores de Decisão Avaliação da Eficiência de um Algoritmo

4 SUMÁRIO - Aula 4 Problemas Apropriados Diferença entre lógica proposicional e lógica e primeira ordem Aplicações Questões Práticas: - Overfitting - Atributos com valores contínuos - Dados ausentes - Atributos multivalorados

5 SUMÁRIO - AULA 5 - Como evitar “overfitting” - Poda da árvore 1. Abordagem do conjunto de validação e do conjunto de teste: - Reduced-Error Pruning - Rule Post-Pruning - Precisão de uma regra. - Teoria da aprendizagem computacional - número de exemplos do conjunto de treinamento.

6 SUMÁRIO - AULA 6 Avaliação de Hipóteses - Vamos discutir medidas para avaliar hipóteses aprendidas. 1. Ao avaliar hipóteses aprendidas estaremos interessados em estimar a precisão com que ela classificará futuros exemplos. 2. Gostaríamos de saber os erros prováveis desta estimativa de precisão.

7 Machine Learning - Tom M. Mitchell
Nomenclatura: X = espaço de possíveis instâncias, ou exemplos (Ex. conjunto de todas as pessoas) sobre o qual várias funções objetivos podem ser definidas (Ex. pessoas que planejam comprar novos eskis este ano). Suponha que diferentes instâncias em X possam ser encontradas com diferentes freqüências: existe alguma distribuição de probabilidade desconhecida D que define a probabilidade de encontrar cada instância em X. “D não diz nada sobre se x é um exemplo positivo ou negativo”

8 A tarefa de aprendizagem consiste em aprender o
conceito ou função objetivo f considerando um espaço H de possíveis hipóteses. Exemplos de treino da função objetivo f são fornecidos ao “aprendiz” por um “supervisor” que extrai cada instância x independentemente, de acordo com a distribuição D. Cada instância x junto com seu valor objetivo f(x) correto é passado ao aprendiz.

9 Erro Amostral e Erro Verdadeiro
1. Taxa de erro da hipótese sobre a amostra disponível de exemplos. 2. Taxa de erro da hipótese sobre o conjunto total de exemplos que ocorrem com uma certa distribuição D. Definição: O Erro amostral da hipótese h com relação a função objetivo f e a amostra de dados S é: onde n é o número de exemplos em S, e a quantidade é 1 se , e 0 caso contrário.

10 Definição: O Erro Verdadeiro da hipótese h com relação a
função objetivo f e a distribuição D, é a probabilidade que h classifique errado uma instância retirada aleatoriamente de acordo com a distribuição D: O que usualmente desejamos saber é o erro verdadeiro da hipótese, porque este é o erro que podemos esperar ao aplicar a hipótese a exemplos futuros.

11 Segundo Lavrac - 1999(Dissertação de Mestrado de Alan K. Gomes)
Passando uma árvore para regras e considerando as regras na forma geral: Usaremos a abreviatura: Obs: Essas regras preditivas podem ser induzidas por sistemas de aprendizado proposicional.

12 Medidas de avaliação de regras pretendem
dar uma indicação da força(hipotética) de associação(entre Cabeça e Corpo) expressa por uma regra.

13 Notações: Na tabela a seguir denota o conjunto de exemplos para os quais o corpo da regra é verdade e denota o seu complemento, ou seja, o conjunto de exemplos para os quais o corpo da regra é falso e referem-se similarmente à cabeça da regra. denota então denota a cardinalidade do conjunto X. A frequência relativa é utilizada como uma estimativa da probabilidade , ou seja,

14 Tabela de Contingência para uma regra R: B  H
Ela avalia cada regra que faz parte da hipótese induzida. = número de exemplos do conjunto de teste para os quais B é verdade e H é verdade. = número de exemplos para os quais B é verdade e H é falso. = número total de exemplos.

15 Exemplos de Estimativas Probabilidades

16 Medidas de Avaliação de Regras
Utilizam o conjunto de teste Todas as medidas de avaliação de regras consideradas abaixo estão definidas em termos de estimativas de probabilidade, que são frequências relativas procedentes da tabela. Definição 1. Precisão: A precisão de uma regra é uma medida do quanto uma regra é específica para o problema. A definição acima está dentro do framework proposto em (Lavrac et al., 1999). Mede a fração de exemplos predito positivos que são verdadeiros positivos. Quanto maior o valor dessa medida, mais precisamente a regra cobre corretamente os exemplos de sua classe.

17 Definição 2. Erro: Quanto maior o erro menos precisamente a regra cobre corretamente os exemplos da sua classe. Outras medidas são: Confiança negativa, Sensitividade e Especificidade, Cobertura e Suporte, Novidade, Satisfação. Pode-se definir essas mesmas medidas como sendo relativas, usando um peso.

18 Exemplo para o Conceito Objetivo: Viajar
Considerando as regras da Tabela 3.6 (ver cópia), a precisão e o erro delas resulta em:

19 Matriz de Confusão O termo matriz de confusão refere-se ao classificador, enquanto a tabela de contigência refere-se a uma única regra. Ambos os conceitos são semelhantes mas, no primeiro caso é considerada a hipótese induzida (classificador), enquanto no segundo, somente cada regra que faz parte da hipótese induzida. A matriz de confusão mostra o número de classificações corretas em oposição às classificações preditas para cada classe.

20 Matriz de Confusão para problemas de Classificação Binária
Classe Preditos como C+ Preditos como C- Precisão da Classe Precisão Total C+ Verdadeiros positivos Falsos negativos C- Falsos positivos Verdadeiros negativos Onde: é o número de exemplos corretamente classificados como positivos, é o número de exemplos erroneamente classificados como positivos e similarmente se definem os outros

21 Matriz de Confusão Quatro situações podem ocorrer: 1. O exemplo pertence à classe C+ e é predito pelo classificador como pertencente à classe C+. Neste caso, o exemplo é um verdadeiro positivo. 2. O exemplo pertence à classe C- e é predito pelo classificador como pertencente à classe C-. Neste caso, o exemplo é um verdadeiro negativo. 3. O exemplo pertence à classe C- e é predito pelo classificador como pertencente à classe C+. Neste caso, o exemplo é um falso positivo. 4. O exemplo pertence à classe C+ e é predito pelo classificador como pertencente à classe C-. Neste caso, o exemplo é um falso negativo.

22 No exemplo considerado(ver cópia), a hipótese (classificador) induzida
pelo C4.5 rules consiste do conjunto de 5 regras ilustrada na Tabela3.4(ver copia), mais a regra defaut CLASS=go, que é utilizada para classificar exemplos que não são cobertos pelas cinco regras anteriores. Matriz de Confusão Preditos como “go” Preditos como “dont go” Precisão da Classe Precisão Total Classes C1 Tp=8 Fn=1 8/(8+1) (8+5)/15=0.87 C2 Fp=1 Tn=5 5/(1+6) Obs: A precisão do classificador(ou da hipótese) é 0.87.


Carregar ppt "O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD"

Apresentações semelhantes


Anúncios Google