Agrupamento e Classificação de Padrões.

Slides:



Advertisements
Apresentações semelhantes
Parte I - Sistemas de Aprendizado: Overview
Advertisements

Experiments with Clustering as a Software Remodularization Method Nicolas Anquetil and Timothy C. Lethbridge University of Ottawa, Canada WCRE 1999:
Quantização de Cores por GNG
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
O Problema do Passeio mais Curto
INSTALAÇÕES ELÉTRICAS I
14/10/09 Uma animação possui: Início; Passo; Fim; 1.
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Problemas de fluxo numa rede
Ludwig Krippahl, 2008 Programação para as Ciências Experimentais 2007/8 Teórica 11.
Estatística Descritiva Aula 02
Agrupamento (clustering)
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
Neurônio .3.
Aprendizado de Máquina
Análise de Clusters – Introdução Método K-means
Método de Clusterização baseado em Densidade Algoritmo DBSCAN
Aprendem a partir de seus vizinhos AULA 9 DATA MINING Sandra de Amo
MC542 Organização de Computadores Teoria e Prática
ANÁLISE DE AGRUPAMENTO
Redes de Kohonen Paulo Adeodato e Germano Vasconcelos
Redes de Funções de Base Radial Radial Basis Functions (RBFs)
Ernesto F. F. Ramírez e Saide J. Calil
Sistema de Recuperação de Imagens Baseada em Conteúdo
Anderson Berg Orientador: Prof. Fernando Buarque
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
EXERCÍCIOS DE REVISÃO PARA PRÉ-VESTIBULANDOS
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Previsão de consumos a curto prazo
Aprendizado de Máquina
Introdução O que é computação?.
Inteligência Artificial
Alexandre Xavier Falcão & David Menotti
CLUSTERING: UMA REVISÃO AOS ALGORITMOS BÁSICOS
Aprendizagem de Máquina - Agrupamento
Redes Neurais Auto-organizáveis
Resultantes de Sistemas de Forças Cap. 4
Momentos de Inércia Cap. 10
Momentos de Inércia Cap. 10
Anderson Berg Orientador: Prof. Fernando Buarque
IFPE Campus Garanhuns– Curso Técnico em Informática 1 Sexta-feira, 19 de Agosto de 2011 Eletrônica Arquitetura de Computadores.
1 Descoberta de Conhecimento em Bases de Dados por Algoritmos Genéticos Prof. Marco Aurélio C. Pacheco.
1 ESTATÍSTICA. 2 UDIII - Relação Entre Duas ou Mais Variáveis ESTATÍSTICA Ass 01: Regressão Simples.
ESTATÍSTICA.
E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK FOR O NLINE U NSUPERVISED L EARNING Cesar Lima José Francisco Maíra Nascimento.
Redes Neurais Prof. Alex F. V. Machado.
Conceitos de Lógica Digital
Introdução aos Computadores e Programação DI-FCT-UNL-2003/2004
Centro de Gravidade e Centróide Cap. 9
Redes neurais artificiais
Problema do menor Caminho
Redes Neuronais/Neurais/ Conexionistas Introdução
50 cm 70 cm CARGA E DESCARGA Início MODELO 01
Introdução à Aprendizagem Estatística Prof. Dr. Hemerson Pistori INOVISAO – Pesquisa, Desenvolvimento e Inovação em Visão Computacional Universidade Católica.
Circuitos Combinacionais Exercícios 2 POSCOMP e ENADE
Programas Inteiros -Seleção de Investimentos Problema: Uma empresa tem $ de capital disponível para novos investimentos. Ela pré-selecionou 4 bons.
Nome alunos 1 Título UC. Título – slide 2 Conteúdo Conteúdo 2.
RNA – Radial Basis Function
REDES NEURAIS ARTIFICIAIS Mapa Auto-Organizável de Kohonen (Self-Organizing Map - SOM) pertence a classe de redes neurais não-supervisionadas que se baseiam.
Aprendizado não-supervisionado
Redes Neurais Artificiais
Marcus Sampaio DSC/UFCG. Marcus Sampaio DSC/UFCG Classificação Não Supervisionada As instâncias não são previamente classificadas Um algoritmo de classificação.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
CIn-UFPE1 Recuperação Inteligente de Informação Agrupamento de Texto.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Agrupamento e Classificação de Padrões

Característica = Número de Vértices Agrupamento: Característica = Número de Vértices 0 vértices 4 vértices

Característica = Cor (Comprimento de Onda) Agrupamento: Característica = Cor (Comprimento de Onda)  = 470 nm  = 550 nm

Agrupamento: Característica = Área A > 3 cm2 A  3 cm2

Classificação ? 0 vértices 4 vértices

Classificação ? 0 vértices 4 vértices

Classificação ? 0 vértices 4 vértices

Classificação ? 0 vértices 4 vértices

Classificação ? 0 vértices 4 vértices

? 0 vértices 4 vértices

Reconhecimento de Padrões Círculo

Reconhecimento de Padrões Quadrado

Reconhecimento de Padrões Uh?

Ventilador acionado por Motor DC W TAC MOT J,B BAT I mot W,t

Ventilador acionado por Motor DC t,W F A V W TAC MOT J,B BAT I mot W,t

Ventilador acionado por Motor DC t,W F t nom W w nom

Ventilador acionado por Motor DC t,W F B t nom W w nom

Ventilador acionado por Motor DC RBAT + Ra  W

Ventilador acionado por Motor DC VBAT  W

Ventilador acionado por Motor DC Eixo Quebrado W

Ventilador acionado por Motor DC Curto-ciruito Eixo-travado W

Imot E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E E E E N N N B N N B B B B Q Q Q Q Q W

Imot E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E E E E N N N B N N B B B B Q Q Q Q Q W

Imot E – Escova com R N – Nominal B – Bateria com V C – Curto g( W , Imot ) = 0 C < 0 > 0 C Curto-circuito Motor-travado T E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E Eixo Quebrado E E E N N N B N N B B B B Q Q d Q Q Qnew Q W

0.2935 0.0151 1.0227 0.0016 0.2549 0.0121 0.2960 0.0131 0.2871 0.0151 1.0943 0.0021 0.3128 0.0138 0.3004 0.0143 0.2636 0.0122 0.3048 0.0140 0.3036 0.0131 0.3054 0.0139 0.9157 0.0023 0.3573 0.0155 0.2950 0.0131 0.3431 0.0155 0.3191 0.0135 0.3071 0.0143 0.2975 0.0140 0.3382 0.0159 0.2672 0.0122 0.3509 0.0159 0.3536 0.0149 0.2939 0.0142 0.3177 0.0134 0.2545 0.0123 0.2523 0.0127 0.3070 0.0147 0.3625 0.0165 0.2511 0.0120 0.3121 0.0134 0.3436 0.0148 0.2948 0.0140 0.3105 0.0133 0.2936 0.0143 0.9123 0.0019 0.2975 0.0136 0.2615 0.0125 0.9941 0.0021 0.9485 0.0022 0.2619 0.0116 0.3065 0.0135 0.3051 0.0135 0.3065 0.0135 0.9897 0.0021 0.2523 0.0127 0.3147 0.0141 0.2646 0.0120 0.3470 0.0158 0.3005 0.0138 0.2939 0.0142 0.3279 0.0177 0.2882 0.0143 0.3382 0.0159 0.2997 0.0150 0.3068 0.0140 0.3061 0.0142 0.3001 0.0132 0.2871 0.0151 0.3095 0.0140 0.2975 0.0136 0.3128 0.0148 0.3463 0.0162 0.3175 0.0130 0.3417 0.0164 0.3121 0.0134 0.2887 0.0148 0.3356 0.0167 0.2669 0.0114 0.2754 0.0122 0.3038 0.0131 0.2927 0.0149 0.2938 0.0135 0.3082 0.0146 0.2580 0.0123 0.2632 0.0120 0.3194 0.0138 1.0943 0.0021 0.2995 0.0135 0.2935 0.0151

0.2935 0.0151 1.0227 0.0016 0.2549 0.0121 0.2960 0.0131 0.2871 0.0151 1.0943 0.0021 0.3128 0.0138 0.3004 0.0143 0.2636 0.0122 0.3048 0.0140 0.3036 0.0131 0.3054 0.0139 0.9157 0.0023 0.3573 0.0155 0.2950 0.0131 0.3431 0.0155 0.3191 0.0135 0.3071 0.0143 0.2975 0.0140 0.3382 0.0159 0.2672 0.0122 0.3509 0.0159 0.3536 0.0149 0.2939 0.0142 0.3177 0.0134 0.2545 0.0123 0.2523 0.0127 0.3070 0.0147 0.3625 0.0165 0.2511 0.0120 0.3121 0.0134 0.3436 0.0148 0.2948 0.0140 0.3105 0.0133 0.2936 0.0143 0.9123 0.0019 0.2975 0.0136 0.2615 0.0125 0.9941 0.0021 0.9485 0.0022 0.2619 0.0116 0.3065 0.0135 0.3051 0.0135 0.3065 0.0135 0.9897 0.0021 0.2523 0.0127 0.3147 0.0141 0.2646 0.0120 0.3470 0.0158 0.3005 0.0138 0.2939 0.0142 0.3279 0.0177 0.2882 0.0143 0.3382 0.0159 0.2997 0.0150 0.3068 0.0140 0.3061 0.0142 0.3001 0.0132 0.2871 0.0151 0.3095 0.0140 0.2975 0.0136 0.3128 0.0148 0.3463 0.0162 0.3175 0.0130 0.3417 0.0164 0.3121 0.0134 0.2887 0.0148 0.3356 0.0167 0.2669 0.0114 0.2754 0.0122 0.3038 0.0131 0.2927 0.0149 0.2938 0.0135 0.3082 0.0146 0.2580 0.0123 0.2632 0.0120 0.3194 0.0138 1.0943 0.0021 0.2995 0.0135 0.2935 0.0151 Clusters?

No passado, a causa de motor parado tem sido: Observou-se W = 0 No passado, a causa de motor parado tem sido: - 70% casos = curto-circuito - 30 % casos = eixo-travado Sem dados adicionais Curto-circuito é a causa mais provável Critério Utilizado: P(curto) > P(travado)

Observou-se W = 0 e mediu-se a corrente Imot = 21 A Dados Históricos + = eixo-travado + = curto-circuito [A] + + + + + + + + + + + + + 10 20 30 Como aproveitar a informação de que Imot = 21A ?

Observou-se  = 0 e mediu-se a corrente Imot = 21 A Fórmula de Bayes P(a|b)= P(b|a)P(a)/P(b) Dados Históricos P(Imot|eixo-travado) P(Imot|curto-circuito) P(curto|Imot)=P(Imot|curto)P(curto)/P(Imot) P(travado|Imot)=P(Imot|travado)P(travado)/P(Imot) [A] + + + + + + + + + + + + + 10 20 30 P(Imot) é comum nas 2 expressões Imot Eixo-travado é a causa mais provável Critério Utilizado: P(travado | Imot ) > P(curto| Imot )

Notação Geral 1 = curto 2 = travado x = Imot P(curto|Imot)=P(Imot|curto)P(curto)/P(Imot) P(travado|Imot)=P(Imot|travado)P(travado)/P(Imot) P(1|x)=P(x| 1)P(1) P(2|x)=P(x| 2)P(2) P(travado | Imot ) > P(curto| Imot ) P(2|x) > P(1|x) P(x| 2)P(2) > P(x| 1)P(1)

 decide w2 P(x| 2)P(2) > P(x| 1)P(1)

 decide w2  decide w2  decide w2  decide w2  decide w1

( 2, 2 ) ( 1, 1 ) No caso particular

No caso particular

Caso I :

Caso I : Igual para todos os i ai

Caso I : g(x)

Caso II :  arbitrário mas igual para i g(x)

Caso III : i arbitrários (  cada i )

 A ou  B ? A B

 A ou  B ? A B

Distância de Mahalanobis  A ou  B ? A B  

Propriedades requeridas: d(x,y)  0 d(x,y) = 0  x=y d(x,y) = d(y,x) Distância d: X  X  R+ Propriedades requeridas: d(x,y)  0 d(x,y) = 0  x=y d(x,y) = d(y,x) d(x,z) + d(z,y)  d(x,y) Distância de Minkowski: k=1 Manhattan k=2 Euclidiana

Agrupamento Hierárquico 1 2 x1 x2 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> y=pdist(x,'euclidean'); >> z=linkage(y,'average'); >> dendrogram(z) 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

Agrupamento Hierárquico 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

Agrupamento Hierárquico 1 2 x1 x2 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4 Dados:

Agrupamento Hierárquico x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4 2 1 x1 1 2

Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4

Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4

Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4

Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4

Agrupamento Hierárquico 1 2 x2 x1 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4

K-means 1 2 x1 x2 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> [idx,c]=kmeans(x,2) idx = 2 1 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> [idx,c]=kmeans(x,2) idx = 2 1 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:

K-means x2 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados: 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

K-means x2 2 1 x1 1 2

Ventilador acionado por Motor DC

Centróides 251,5 12,2 0,0 19,5 1.000,7 2,5 351,0 16,0 0,0 30,7 298,4 14,0

1 2 3 4 5 6

Aprendizado Competitivo Entrada RNA Padrão 1 Padrão 3 Padrão 2

wi wi* wi x A regra competitiva de atualização dos pesos é: O tamanho do passo  (0 <  < 1) controla o tamanho da atualização em cada passo. wi wi* wi x

>> net=newc([0 10 ; 0 20],3); >> net=train(net,P); x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200 >> P=x'; >> net=newc([0 10 ; 0 20],3); >> net=train(net,P); >> xsim = sim(net,P); >> Yc = vec2ind(xsim);

NEWC Create a competitive layer. net = newc(PR,S,KLR,CLR) TRAIN Train a neural network. [net,tr,Y,E,Pf,Af] = train(NET,P,T,Pi,Ai,VV,TV) VEC2IND Transform vectors to indices. vec = 1 0 0 0 0 0 1 0 0 1 0 1 ind = 1 3 2 3 >> P=x'; >> net=newc([0 10 ; 0 20],3); >> net=train(net,P); >> xsim = sim(net,P); >> Yc = vec2ind(xsim);

x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200

Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA Entrada

Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 2 x2 = 4

Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 6 x2 = 5

Redes de Kohonen RNA de 1 camada simples composta de uma camada de entrada e outra de saída Aprendizado não-supervisionado Unidades de Entrada Unidades concorrentes de Saída

Redes de Kohonen Unidades de Entrada Unidades concorrentes de Saída

1. Camada de entrada é apresentada Unidades de Entrada Unidades concorrentes de Saída

Onde j é a unidade de saída e é a distância resultante. 2. A distância do padrão de entrada para os pesos para cada unidade de saída é calculada através da fórmula euclidiana: Onde j é a unidade de saída e é a distância resultante. Unidades de Entrada Unidades concorrentes de Saída

Cada vez que um vetor de entrada é apresentado para a rede, a distância em relação a ele para cada unidade na camada de saída é calculada A unidade de saída com a menor distância em relação ao vetor de entrada é a vencedora Unidades de Entrada Unidades concorrentes de Saída unidade vencedora

Os pesos são ajustados de acordo com o vencedor Os vizinhos se aproximam de acordo com o treinamento e a estrutura se auto-organiza Unidades de Entrada Unidades concorrentes de Saída unidade vencedora

di,i* wi wi* wi x

Sexo Idade Pessoas de Sexo e Idades Variados

net.trainParam.epochs = 100; net = train(net,P); x = 1.6972 4.2944 0.8341 2.6638 2.0877 4.7143 2.2014 5.6236 1.1975 3.3082 2.8336 4.8580 2.8324 5.2540 1.9737 2.4063 2.2291 2.5590 2.1222 4.5711 1.8693 3.6001 2.5081 4.6900 1.5882 4.8156 3.5282 4.7119 1.9045 5.2902 2.0798 4.6686 2.7467 5.1908 2.0415 2.7975 1.9330 3.9802 1.4174 3.8433 5.8771 5.0000 7.1801 4.6821 6.2605 6.0950 7.9906 3.1260 6.4364 5.4282 7.3701 5.8956 7.1535 5.7310 6.3547 5.5779 5.4805 5.0403 6.9586 5.6771 6.2926 5.5689 7.4301 4.7444 7.3554 4.6225 8.1847 4.7041 7.4139 3.5249 6.5495 4.7660 7.2662 5.1184 6.2936 5.3148 6.9863 6.4435 6.9662 4.6490 3.2493 9.5747 3.3196 8.3572 3.3764 12.1836 2.6032 10.3776 3.0848 11.3928 3.0952 11.2809 2.5969 11.0258 2.7032 9.7953 3.4329 9.8634 2.9474 10.5507 3.1560 9.5769 3.0352 9.7329 2.7458 12.7670 2.7762 11.0669 3.1775 9.5392 2.6200 10.9505 3.3125 9.6460 3.2276 9.3809 2.6713 10.6867 2.8938 12.1442 P=x'; net = newsom([0 10; 0 20],[1 3],... 'gridtop','dist',0.9,200,0.01,0); net.trainParam.epochs = 100; net = train(net,P); NEWSOM Create a self-organizing map. net = newsom(PR,[d1,d2,...],tfcn,dfcn,olr,osteps,tlr,tns) PR - Rx2 matrix of min and max values for R input elements. Di - Size of ith layer dimension, defaults = [5 8]. TFCN - Topology function, default = 'hextop'. DFCN - Distance function, default = 'linkdist'. OLR - Ordering phase learning rate, default = 0.9. OSTEPS - Ordering phase steps, default = 1000. TLR - Tuning phase learning rate, default = 0.02; TNS - Tuning phase neighborhood distance, default = 1.

net = newsom([0 10; 0 20],[1 3],'gridtop','dist',0.9,200,0.01,0);

Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 2 x2 = 4 net = newsom([0 10; 0 20],[1 3],'gridtop','dist',0.9,200,0.01,1);

net = newsom([0 10; 0 20],[1 50],'gridtop','dist',0.9,200,0.01,3);

net = newsom([0 10; 0 20],[3 3],'hextop','dist',0.9,200,0.01,1);

EM (Expectation-Maximization)

Cluster A Cluster B

Cluster A Cluster B

Dept of Electrical and Computer Eng University of Waterloo >> [W,M,V,L] = EM_GM(X,3,[],[],1,[]) EM algorithm for k multidimensional Gaussian mixture estimation X(n,d) - input data n=number of observations d=dimension of variable k - maximum number of Gaussian components allowed ltol - percentage of log likelihood difference between 2 iterations maxiter - maximum number of iteration allowed ([] for none) pflag - 1 for plotting GM for 1D or 2D cases only, 0 otherwise Init - structure of initial W, M, V: Init.W, Init.M, Init.V W(1,k) - estimated weights of GM M(d,k) - estimated mean vectors of GM V(d,d,k) - estimated covariance matrices of GM L - log likelihood of estimates Patrick P. C. Tsui, Dept of Electrical and Computer Eng University of Waterloo

x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200

Muito Obrigado!