Métodos de Classificação por Árvores de Decisão

Slides:



Advertisements
Apresentações semelhantes
Sistema robótico baseado em controladores de redes neurais
Advertisements

Inteligência Artificial
Aprendizado de Máquina
Indução de Árvores de Decisão
Katia S. Guimarães QUICKSORT Katia S. Guimarães
Mineração de Dados Avaliação de Classificadores
Araken de Medeiros Santos Anne Magály de Paula Canuto
HAC MD -junho/ Noções de algoritmos e estudo de casos das principais tarefas de Mineração de dados.
Análise Projeto de Algoritmos
Analise e Seleção de Variáveis
Árvores.

Mineração de Dados ou Descoberta de conhecimento em BDs
Computação Evolutiva: Programação Genética
Árvore Geradora de Peso Mínimo
Jacques Robin, Francisco Carvalho, Flávia Barros
FACENS – Engenharia da Computação Inteligência Artificial
Árvores Introdução e Aplicações Árvores de Busca Binária Fundamentos
FACENS – Engenharia da Computação Inteligência Artificial
Fast Effective Rule Induction (Willian W. Cohen)
Classificação: conceitos básicos e árvores de decisão
Aprendizagem de Máquina
Aprendizagem a partir de observações
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Sistemas Inteligentes
Auxílio multicritério à decisão – amd
3. Árvore de Decisão.
Aprendizado de Máquina
Informática Teórica Engenharia da Computação
Aprendizado de Árvores de Decisão
Compressão de Textos Juliano Palmieri Lage.
Pesquisa em Memória Primária
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
Ouro Preto, 10 de Setembro de 2011
Aula 14.
Sistemas Inteligentes
Indução de Árvore de Decisão
Aprendizado de Máquina - Introdução
Sistemas Inteligentes
© Copyright 2007 Algoritmos e Estruturas de Dados - Todos os direitos reservados Átila Valgueiro Malta Moreira Juliana Medeiros de Lucena Rafael Alberto.
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
QuickSort Dividir: A[p…r] é particionado (reorganizado) em dois subvetores não vazios A[p…q] e A[q+1…r] tal que cada elemento de A[p…q] é menor ou igual.
Ademir Rafael Marques Guedes
Árvores de Decisão Valmir Macário.
1 Árvores de Decisão Marcílio Souto DIMAp/UFRN. 2 Árvores de Decisão – ADs (1/4) zForma mais simples: yLista de perguntas  respostas “sim” ou “não” yHierarquicamente.
Busca Combinatorial e Métodos de Heurística
Projeto Final MCI 2004 Filtragem de s Agente de Classificação de SPAM.
Disciplina Análise de Algoritmos Bacharelado em CC
Mineração de Dados: Classificação e Predição
Aprendizagem por Reforço Alexandre Luiz G. Damasceno.
Programação Dinâmica.
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
Combinação de Preditores utilizando o Coeficiente de Correlação aplicado aos Problemas de Regressão Resumo Este trabalho apresenta um algoritmo de Boosting.
Marcus Sampaio DSC/UFCG Os slides 3-15 foram copiados de Pang-Ning Tan.
Classificação de Texto Baseada na aula de Henrique Borges e Ícaro Medeiros Alterada por Flávia Barros.
Classificação: conceitos básicos e árvores de decisão
Prof. Alexandre Monteiro Recife
Inteligência Artificial I
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Conjuntos - 1 Conjuntos disjuntos Objectivo ° resolver eficientemente o problema da equivalência ° estrutura de dados simples (vector) ° implementação.
Paradigmas de Mineração de Dados
Aprendizado de Máquinas
Árvores Equilibradas Sumário Splay B-tree Vermelho-Preto AA e BB
ATAL – Prof. Jorge Figueiredo Ordenação AT AL Análise e Técnicas de Algoritmos Análise de Algoritmos de Ordenação.
Revisão de Sistemas Inteligentes
Feature Learning for Image Classification via Multiobjective Genetic Programming Seminários de Inteligência Artificial Felipe de Paula Wanderley Barros.
Aprendizagem Simbólica
Mineração de Dados Classificação Felipe Carvalho – UFES 2009/2.
Mineração de Dados (Data Mining)
Transcrição da apresentação:

Métodos de Classificação por Árvores de Decisão Juliana Moreira Barbosa Orientador: Tiago Garcia de Senna Carneiro. Co – Orientadora : Andrea Iabrudi Tavares.

Índice O Problema. O que é Classificação? Por que Árvores de Decisão? Indução de Árvores de Decisão CART C4.5 Análise de Complexidade Experimentos Conclusão

O Problema Tomada de decisão Atualização do IPTU Anual Depende do valor venal do imóvel

O que é Classificação? Aprendizagem Supervisionada Exemplo : é um par (x, f(x)), onde x é a entrada e f(x) é a saída da função aplicada a x Dada uma coleção de exemplos f, retornar uma função h que se aproxime de f. A função h é chamada hipótese.

Por que Árvores de Decisão? Classificadores: Redes Neurais, Algoritmos Genéticos, Árvores de Decisão e etc Simplicidade de árvores de decisão Inteligibilidade dos Resultados

Indução de Árvores de Decisão Particionamento recursivo do conjunto de exemplos até que façam parte de uma mesma classe. Entrada : Objeto ou Situação Saída : Decisão

Indução de Árvores de Decisão

CART e C4.5 Divisão e Conquista e Guloso Como escolher as condições para dividir cada nó? Que critério devemos usar para dividir um nó pai em nós filhos? Quando parar a divisão? Qual classe atribuir ao nó terminal?

Pseudocódigo InducaoCARTeC4.5(exemplos, subAtributos) IF CriterioParada(exemplos) EscolheClasse(exemplos) ELSE melhor = EscolheAtributo(subAtributos, exemplos) arvore = nova arvore com nó raiz = melhor particao = EscolheParticao(melhor) WHILE particao exp = elementos com melhor = p subAvr = InducaoCARTeC4.5(exp, subAtributos – melhor) AdicionaRamoArvore(subAvr, p) PodaArvore(arvore)

CART EscolheAtributo() Índice de Gini Onde: pi é a frequência relativa de cada classe em cada nó. c é o número de classes.

CART EscolheParticao() Sempre Binária Para m distintas categorias, temos um conjunto de 2m-1 - 1 de possíveis divisões Escolha dentre todas as possibilidades a que tem a menor impureza

CART CriterioParada() Cresce a árvore até a saturação EscolheClasse() Regra de pluralidade

CART PodaArvore() Taxa de erro ajustada EA(T) = E(T) + α ContadorFolhas(T) Podar primeiro os ramos que tem menor poder preditivo. Se o erro da subárvore for menor que o da árvore ela se torna candidata Testa as candidatas para ver quem é melhor

C4.5 EscolheAtributo() Entropia Onde: pi é a proporção de dados em S que pertencem a classe i.

C4.5 P(A) : conjunto de valores de A x : um elemento desse conjunto Sx : subconjunto de S onde A = x O ganho é:

C4.5 EscolherParticao() Um ramo para cada valor de A CriterioParada() Cresce a árvore até saturação EscolheClasse() Regra da pluralidade

C4.5 PodaArvore() Poda baseada no erro Erro do nó menor que dos filhos: Poda Atribui ao nó a classe mais provável

Análise de Complexidade CART Crescer a árvore: Podar: C4.5

Experimentos Atributos

Experimentos C4.5 CART

Experimentos Tabela Comparativa

Conclusão Ajuda Profissional Ter certeza a respeito dos atributos realmente necessários Saber se tem algum atributo para acrescentar