A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Exercícios sobre classificação

Apresentações semelhantes


Apresentação em tema: "Exercícios sobre classificação"— Transcrição da apresentação:

1 Exercícios sobre classificação
Mineração de dados Exercícios sobre classificação

2 O que deveria ser feito, na fase de preparação de dados, para aplicar o método ID3 para classificação com os dados abaixo? cor altura forma local Classe preto 32,5 largo Rua Canindé, 123 A marrom 22,3 Rua Borges, 456/304 C 15,7 estreito Rua Chaves, 132 B amarelo 31,4 Rua Napoleão, 45/101

3 O que deveria ser feito, na fase de preparação de dados, para aplicar o método k-NN para classificação com os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 C 1,57 1956,50 23,55 B amarelo 3,14 3490,00 3 42,50

4 O que deveria ser feito, na fase de preparação de dados, considerando uma rede neural backpropagation para classificação usando os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 B 1,57 1956,50 23,55 amarelo 3,14 3490,00 3 42,50

5 O que deveria ser feito, na fase de preparação de dados, considerando o uso do algoritmo naïve bayes e os dados abaixo? cor altura comprimento tipo peso Classe preto 3,25 1057,00 1 50,34 A marrom 2,23 2343,00 2 45,89 B 1,57 1956,50 23,55 amarelo 3,14 3490,00 3 42,50

6 Entropia (S) = - (p+ log2 p+ + p- log2 p-)
Considere o seguinte conjunto de treino, em que cada exemplo é definido por três atributos (A,B,C) e a classe X. Sabendo que: Entropia (S) = - (p+ log2 p+ + p- log2 p-) Ganho (S, A) = Entropia (S) -  ((|Sv| / |S|) * Entropia (Sv)), onde Sv = subconjunto de S para um valor do atributo At |Sv| = número de elementos de Sv |S| = número de elementos de S a) Qual a incerteza (entropia) associada ao conjunto de treino inicial? b) Qual o Ganho de Informação para cada um dos atributos? (log2 1=0, log2 0,5=-1, log2 0,25=-2 , log2 0,75=-0,415, log2 0,333=-1,585, log2 0,667=-0,585) c) Face a este resultado, qual seria a árvore de decisão obtida para este conjunto de treino, construída de acordo com o critério de maximização do ganho de informação? Entropia (S) =1 (entropia máxima, pois as duas classes tem o mesmo número de instâncias) Entropia(A=1) = 0 Entropia(A=2) = 0 Ganho(S,a) = 1 - (0+0) = 1 Entropia(B=1) = 1 Entropia(B=2) = 1 Ganho (S,B) = 1- (1/ /2 . 1) = 1 – 1 = 0 Entropia(C=3) = 0 Entropia(C=4) = -1/3. log2(1/3) – 2/3. log2(2/3) = = -1/ /3. -0,585 = 0, ,390 = 0,918 Ganho(S,C) = 1 – ( 1/ /4 . 0,918) = ,6885 = 0,3115

7 Dada a árvore de decisão abaixo, que regras seriam geradas pelo algoritmo C4.5?

8 Qual a árvore de decisão gerada?
Considerando os dados de treino abaixo e o algoritmo C4.5, quais seriam os intervalos de decisão considerados para o atributo Peso? Peso Idade Sexo Classe 70 jovem Masc 2 80 adulto 60 Fem 1 75 35 criança 85 50 Peso Classe 35 1 50 60 70 2 75 80 85 Peso <= 65 e peso > 65 Qual a árvore de decisão gerada?

9 P( E1 |H ).P( E2 | H)... .P(En | H).P(H ) P(H|E)=
Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo naive Bayes, considerando os dados de treino abaixo e sabendo que P( E1 |H ).P( E2 | H)... .P(En | H).P(H ) P(H|E)= P( E1 ).P( E2)... .P(En) P(Z1=C|P)=1/ P(Z1=C|N)=2/5 P(Z2=1|P)= 3/ P(Z2=1|N)= 2/5 P(Z3=1|P)= 1/ P(Z3=1|N)= 4/5 P(Z1=C)= 3/8 P(Z2=1)= 5/8 P(Z3=1)= 5/8 P(X=P)= 3/ P(X=N)= 5/8 P(X=P|C11)= (1/ /3 . 3/8) / (3/8 . 5/8. 5/8 ) = 64/225 = 0,284 P(X=N|C11)= (2/5. 2/5 . 4/5 . 5/8) / (3/8 . 5/8. 5/8 ) = 1024/1875 = 0,546 Como P(X=N|C11) > P(X=P|C11), a classe prevista será a classe N

10 Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo k-NN, considerando os dados abaixo e k=1.

11 Determine a classificação obtida para o exemplo C11 (Z1=C, Z2=1, Z3=1) utilizando o algoritmo k-NN, considerando os dados abaixo, k=3, e a seguinte tabela de distâncias para o atributo Z1: A B C 1 2 0,5 D(C11,X1)= (2*2+1+0)1/2 = (5) 1/2 D(C11,X2)= (0,5*0,5+0+1)1/2 = (1,25) 1/2 D(C11,X3)= (0+0+0)1/2 = 0 D(C11,X4)= (2*2+0+0)1/2 = (4) 1/2 = 2 D(C11,X5)= (0+1+0)1/2 = 1 D(C11,X6)= (4+0+0)1/2 = 2 D(C11,X7)= (0,5*0,5+0+1)1/2 = (1,25) 1/2 D(C11,X8)= (0+1+1)1/2 = (2) 1/2

12 lágrimas astigmat. prescrição lágrimas astigma-tismo pressão
LENTES normal sim hipermetr. NÃO não miopia GELAT. DURA reduzida alta miopia. lágrimas reduzida normal astigmat. 1 sim não prescrição 2 miopia hipermetr. 4 3 Complete a árvore de decisão colocando no lugar dos números das folhas, a classe, de forma a minimizar os erros de classificação. Faça a matriz de confusão correspondente.


Carregar ppt "Exercícios sobre classificação"

Apresentações semelhantes


Anúncios Google