Exercícios sobre classificação

Slides:



Advertisements
Apresentações semelhantes
Aprendizado de Máquina
Advertisements

Calculando a intensidade do exercício
Indução de Árvores de Decisão
Estatística amintas paiva afonso.
Resposta do Exercício sobre Árvores de Decisão
6a Aula Horacio Nelson Hastenreiter Filho
INTELIGÊNGIA COMPUTACIONAL
Nome : Resolve estas operações começando no centro de cada espiral. Nos rectângulos põe o resultado de cada operação. Comprova se no final.
FINANÇAS EM PROJETOS DE TI
HAC MD -junho/ Noções de algoritmos e estudo de casos das principais tarefas de Mineração de dados.
Exercício 1 Rodar o algoritmo de classificação J4.8 do Weka variando:
Algoritmos Construtivos
Algoritmos para Operação de Junção
Classificadores em Dados não Balanceados
Algoritmos para Operação de Junção AULA 17 Profa. Sandra de Amo Programa de Pós-Graduação em CC - UFU Sistemas de Banco de Dados
Analise e Seleção de Variáveis
Relações Adriano Joaquim de O Cruz ©2002 NCE/UFRJ
Introdução à Lógica Nebulosa
SEL310 Ondas eletromagnéticas
Germano C. Vasconcelos Centro de Informática - UFPE
Jacques Robin, Francisco Carvalho, Flávia Barros
1 Projeto Filtragem de Mensagens Eletrônicas Disciplina: Inteligência Artificial Simbólica Professores: Geber Ramalho e Jacques Robin.
FACENS – Engenharia da Computação Inteligência Artificial
DATA MINING Inteligência Artificial
SIMPLEX ANÁLISE COMPLETA ANDERSON BESTETTI 1, EDUARDO RIGHES 1, EVERTON FONTOURA 2, GUILHERME LAZZARI 3, RODRIGO SCHRAMM 3, ROGERIO MARTINS 4 1 {anderson.bestetti,
Ambiente de simulação Os algoritmos previamente discutidos foram analisados usando um simulador de mobilidade. Ele modela uma cidade de 20 Km de raio,
Teste da fala É bastante simples, embora algo subjectivo, mas muito prático para saber se o seu esforço é excessivo. Durante o exercício a respiração.
Colégio Estadual de Caldas Novas Departamento de Educação Física
Sistemas Inteligentes
Auxílio multicritério à decisão – amd
ESTATÍSTICA: O estudo numérico dos fatos sociais
3. Árvore de Decisão.
Aprendizado de Máquina
Exercício – Derivação dos Casos de Teste
Aula Prática Classificação
Aprendizado de Árvores de Decisão
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
CENTRO UNIVERSITÁRIO Franciscano
DERIVAÇÃO DE UM SISTEMA BÔNUS-MALUS UMA ABORDAGEM USANDO A TEORIA DA DECISÃO.
A Hybrid Method for Robust Car Plate Character Recognition.
MATRIZES. Definição: Qualquer tabela de números dispostos em linhas e colunas.
Métodos de Classificação por Árvores de Decisão
Mini testes A apresentar na aula da semana a seguir à data descrito em cada teste. As respostas não devem exceder mais do que duas páginas A4.
ESCOLA SECUNDÁRIA DE EMÍDIO NAVARRO
Pesquisa Operacional: Método Simplex – Duas Fases
Economia e Gestão ESAPL - IPVC
INF 1771 – Inteligência Artificial
Aprendizagem de Máquina “Learning a Neural Tree” Paulo Amorim - prfa.
CLASSES: SÃO INTERVALOS DE VARIAÇÃO DA VARIÁVEL.
DIEGO RICARDO DE ARAUJO DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO INSTITUTO DE CIÊNCIA EXATAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA Seleção de Características.
F USION O F C ONTINUOUS -V ALUED O UTPUTS Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)
Árvores de Decisão: supervisionado, simbólico, não incremental (?)
Olhe fixamente para a Bruxa Nariguda
INE 5644 – Mineração de Dados Análise Exploratória de Dados
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Classificação: avaliação de modelos
Redes Neurais Artificiais
Modelagem Estatística
Lição nº52 e /11/2013 Sumário: Tratamento de Dados: frequências, mediana,gráficos e dados agrupados em classes.
Mineração de Dados: Classificação e Predição
Classificação: conceitos básicos e árvores de decisão
Laboratório 5 Regras. Bases Utilize a base que se encontra no diretório de dados do weka: wheather.nominal.arff Gere regras usando diferentes classificadores.
HAC 1 MD - junho/2008 Tecnologias de suporte à Mineração de Dados Gerenciamento de dados Data Warehouse OLAP Arquiteturas Visualização Sistemas de Suporte.
ALGORITMOS Profº Antonio Carlos Marcelino de Paula.
Aprendizagem Simbólica
Sistemas de Informação Inteligentes Aula 1 Nadilma Nunes
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Mineração de Dados Classificação Felipe Carvalho – UFES 2009/2.
Mineração de Dados (Data Mining)
MODELOS DE DECISÃO António Câmara ADSA. Modelos de Decisão Modelos de decisão –modelos de decisão com incerteza –modelos de decisão com risco Modelos.
Transcrição da apresentação:

Exercícios sobre classificação Mineração de dados Exercícios sobre classificação

O que deveria ser feito, na fase de preparação de dados, para aplicar o método ID3 para classificação com os dados abaixo? cor altura forma local Classe preto 32,5 largo Rua Canindé, 123 A marrom 22,3 Rua Borges, 456/304 C 15,7 estreito Rua Chaves, 132 B amarelo 31,4 Rua Napoleão, 45/101 …

O que deveria ser feito, na fase de preparação de dados, para aplicar o método k-NN para classificação com os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 C 1,57 1956,50 23,55 B amarelo 3,14 3490,00 3 42,50 …

O que deveria ser feito, na fase de preparação de dados, considerando uma rede neural backpropagation para classificação usando os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 B 1,57 1956,50 23,55 amarelo 3,14 3490,00 3 42,50 …

O que deveria ser feito, na fase de preparação de dados, considerando o uso do algoritmo naïve bayes e os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 B 1,57 1956,50 23,55 amarelo 3,14 3490,00 3 42,50 …

Entropia (S) = - (p+ log2 p+ + p- log2 p-) Considere o seguinte conjunto de treino, em que cada exemplo é definido por três atributos (A,B,C) e a classe X. Sabendo que: Entropia (S) = - (p+ log2 p+ + p- log2 p-) Ganho (S, A) = Entropia (S) -  ((|Sv| / |S|) * Entropia (Sv)), onde Sv = subconjunto de S para um valor do atributo At |Sv| = número de elementos de Sv |S| = número de elementos de S a) Qual a incerteza (entropia) associada ao conjunto de treino inicial? b) Qual o Ganho de Informação para cada um dos atributos? (log2 1=0, log2 0,5=-1, log2 0,25=-2 , log2 0,75=-0,415, log2 0,333=-1,585, log2 0,667=-0,585) c) Face a este resultado, qual seria a árvore de decisão obtida para este conjunto de treino, construída de acordo com o critério de maximização do ganho de informação? Entropia (S) =1 (entropia máxima, pois as duas classes tem o mesmo número de instâncias) Entropia(A=1) = 0 Entropia(A=2) = 0 Ganho(S,a) = 1 - (0+0) = 1 Entropia(B=1) = 1 Entropia(B=2) = 1 Ganho (S,B) = 1- (1/2 . 1 + 1/2 . 1) = 1 – 1 = 0 Entropia(C=3) = 0 Entropia(C=4) = -1/3. log2(1/3) – 2/3. log2(2/3) = = -1/3. -1.585 -2/3. -0,585 = 0,528 + 0,390 = 0,918 Ganho(S,C) = 1 – ( 1/4 . 0 + 3/4 . 0,918) = 1 - 0,6885 = 0,3115

Dada a árvore de decisão abaixo, que regras seriam geradas pelo algoritmo C4.5?

Qual a árvore de decisão gerada? Considerando os dados de treino abaixo e o algoritmo C4.5, quais seriam os intervalos de decisão considerados para o atributo Peso? Peso Idade Sexo Classe 70 jovem Masc 2 80 adulto 60 Fem 1 75 35 criança 85 50 Peso Classe 35 1 50 60 70 2 75 80 85 Peso <= 65 e peso > 65 Qual a árvore de decisão gerada?

P( E1 |H ).P( E2 | H)... .P(En | H).P(H ) P(H|E)= Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo naive Bayes, considerando os dados de treino abaixo e sabendo que P( E1 |H ).P( E2 | H)... .P(En | H).P(H ) P(H|E)= P( E1 ).P( E2)... .P(En) P(Z1=C|P)=1/3 P(Z1=C|N)=2/5 P(Z2=1|P)= 3/3 P(Z2=1|N)= 2/5 P(Z3=1|P)= 1/3 P(Z3=1|N)= 4/5 P(Z1=C)= 3/8 P(Z2=1)= 5/8 P(Z3=1)= 5/8 P(X=P)= 3/8 P(X=N)= 5/8 P(X=P|C11)= (1/3. 1 . 1/3 . 3/8) / (3/8 . 5/8. 5/8 ) = 64/225 = 0,284 P(X=N|C11)= (2/5. 2/5 . 4/5 . 5/8) / (3/8 . 5/8. 5/8 ) = 1024/1875 = 0,546 Como P(X=N|C11) > P(X=P|C11), a classe prevista será a classe N

Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo k-NN, considerando os dados abaixo e k=1.

Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo k-NN, considerando os dados abaixo, k=3, e a seguinte tabela de distâncias para o atributo Z1: A B C 1 2 0,5 D(C11,X1)= (2*2+1+0)1/2 = (5) 1/2 D(C11,X2)= (0,5*0,5+0+1)1/2 = (1,25) 1/2 D(C11,X3)= (0+0+0)1/2 = 0 D(C11,X4)= (2*2+0+0)1/2 = (4) 1/2 = 2 D(C11,X5)= (0+1+0)1/2 = 1 D(C11,X6)= (4+0+0)1/2 = 2 D(C11,X7)= (0,5*0,5+0+1)1/2 = (1,25) 1/2 D(C11,X8)= (0+1+1)1/2 = (2) 1/2

lágrimas astigmat. prescrição lágrimas astigma-tismo pressão LENTES normal sim hipermetr. NÃO não miopia GELAT. DURA reduzida alta miopia. lágrimas reduzida normal astigmat. 1 sim não prescrição 2 miopia hipermetr. 4 3 Complete a árvore de decisão colocando no lugar dos números das folhas, a classe, de forma a minimizar os erros de classificação. Faça a matriz de confusão correspondente.