Carregar apresentação
A apresentação está carregando. Por favor, espere
1
Algoritmos de Aprendizado
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptron (Back Propagation) Competitive Learning Mapa de Kohonen (SOM)
2
Redes Auto-Organizáveis
Redes com Treinamento Não-Supervisionado
3
Redes Auto-Organizáveis
Aplicações: Clustering os dados de entrada devem ser agrupados em conjuntos que agregam padrões semelhantes Regularity Detector O sistema deve extrair as características do padrão de entrada
4
Redes Auto-Organizáveis
Os algoritmos não-supervisionados são geralmente baseados em uma forma de competição entre os processadores O método mais comum é o chamado Competitive Learning
5
Competitive Learning É uma forma de aprendizado que divide o conjunto de padrões de entrada em grupos inerentes aos dados
6
Competitive Learning É uma forma de aprendizado que divide o conjunto de padrões de entrada em grupos inerentes aos dados Em sua forma mais simples “winner takes all”
7
Competitive Learning Elemento Processador x1 w1j Padrão de Entrada:
vetor X x2 w2j netj sj wij xi
8
Competitive Learning Topologia s1 PE1 x1 x2 s2 PE2 x3 s3 PE3 xn sp PEn
9
Competitive Learning Características Básicas:
10
Competitive Learning Características Básicas:
Regra de Propagação netj = xi.wij = X.Wj
11
Competitive Learning Características Básicas:
Regra de Propagação netj = xi.wij = X.Wj Função de Ativação Degrau (para o neurônio vencedor)
12
Competitive Learning Características Básicas:
Regra de Propagação netj = xi.wij = X.Wj Função de Ativação Degrau (para o neurônio vencedor) Topologia Uma única camada de processadores.
13
Competitive Learning Características Básicas:
Regra de Propagação netj = xi.wij = X.Wj Função de Ativação Degrau (para o neurônio vencedor) Topologia Uma única camada de processadores. Algoritmo de Aprendizado Não Supervisionado: wik= . (xi - wik)
14
Competitive Learning Características Básicas:
Regra de Propagação netj = xi.wij = X.Wj Função de Ativação Degrau (para o neurônio vencedor) Topologia Uma única camada de processadores. Algoritmo de Aprendizado Não Supervisionado: wik= . (xi - wik) Valores de Entrada/Saída Binários/Contínuos
15
Competitive Learning Funcionamento:
16
Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados
17
Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net)
18
Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net) sk = 1 se netk > neti, i k sk = 0 caso contrário
19
Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net) sk = 1 se netk > neti, i k sk = 0 caso contrário somente os pesos do neurônio vencedor são atualizados wik= . (xi - wik)
20
Competitive Learning Geometricamente:
supondo que os vetores de entrada e os vetores de peso estão normalizados, tem-se todos os vetores dentro de um círculo de raio 1 x1 xn x3 x2
21
Competitive Learning Geometricamente:
supondo que os vetores de entrada e os vetores de peso estão normalizados, tem-se todos os vetores dentro de um círculo de raio 1 wp x1 xn w1 x3 x2 w2
22
Competitive Learning Objetivo:
Ajusta-se os pesos de forma que vetores de entrada similares ativem o mesmo neurônio
23
Competitive Learning Aprendizado:
A direção de atualização dos pesos minimiza a diferença entre o vetor de pesos e o vetor de entrada do processador vencedor.
24
Competitive Learning Aprendizado: wik= . (xi - wik) wt x
25
Competitive Learning Aprendizado: wik= . (xi - wik) wt x - wt x
26
Competitive Learning Aprendizado: wik= . (xi - wik) (x - wt) wt
27
Competitive Learning Aprendizado: wik= . (xi - wik) (x - wt) wt
28
Competitive Learning Em 3 dimensões: vetores de entrada
29
Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada Topologia PE3 PE2 PE1 s1 s2 s3 x1 x2 x3
30
Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada vetores de pesos no instante t Topologia w1t PE3 PE2 PE1 s1 s2 s3 x1 x2 x3 w1t w2t w2t w3t w3t
31
Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada vetores de pesos no instante t vetores de pesos após aprendizado Topologia w1t w1t+n PE3 PE2 PE1 s1 s2 s3 x1 x2 x3 w1t+n w3t+n w2t+n w2t w3t w2t+n w3t+n
32
Competitive Learning Questões importantes:
Por que somente os pesos do neurônio vencedor são atualizados? Por que se deve usar < 1? Como o algoritmo deve ser modificado para vetores não normalizados? Como os pesos devem ser inicializados? Como efetuar a competição?
33
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados?
34
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada.
35
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada. Processador vencedor possui o maior valor de net net = xi wij = X.W = cos ||X|| ||W|| = cos
36
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada. Processador vencedor possui o maior valor de net net = xi wij = X.W = cos ||X|| ||W|| = cos a regra de propagação (soma ponderada) indica a proximidade dos dois vetores
37
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? A atualização dos pesos do processador vencedor faz com que o vetor W fique ainda mais próximo do vetor de entrada corrente.
38
Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? A atualização dos pesos do processador vencedor faz com que o vetor W fique ainda mais próximo do vetor de entrada corrente. o vetor W fica mais representativo do GRUPO ao qual aquele padrão de entrada pertence.
39
Competitive Learning Por que se deve usar < 1?
40
Competitive Learning Por que se deve usar < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico.
41
Competitive Learning Por que se deve usar < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico. Procura-se achar o centro do GRUPO
42
Competitive Learning Por que se deve usar < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico. Procura-se achar o centro do GRUPO OBS: deve ser adaptativo, decrescendo com o tempo
43
Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados?
44
Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W2 W1 está mais próximo de X w1 x w2
45
Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W X.W1< X.W2 W1 está mais próximo de X mas W1 está mais próximo de X w1 w1 x w2 x w2
46
Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W X.W1< X.W2 W1 está mais próximo de X mas W1 está mais próximo de X Neste caso deve-se usar como medida de proximidade a Distância Euclidiana ||Wk - X|| ||Wi - X|| j k k é o neurônio vencedor w1 w1 x w2 x w2
47
Competitive Learning Como os pesos devem ser inicializados?
48
Competitive Learning Como os pesos devem ser inicializados?
Prática comum pesos randômicos e normalizados
49
Competitive Learning Como os pesos devem ser inicializados?
Prática comum pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera
50
Competitive Learning Como os pesos devem ser inicializados?
Prática comum pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição)
51
Competitive Learning Como os pesos devem ser inicializados?
Prática comum pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição) Super-grupos processadores que representam mais de uma classe
52
Competitive Learning Como os pesos devem ser inicializados?
Prática comum pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição) Super-grupos processadores que representam mais de uma classe Sub-grupos mais de um processador para representar uma única classe
53
Competitive Learning Como os pesos devem ser inicializados?
Solução distribuir os vetores de pesos de acordo com a densidade de vetores de entrada
54
Competitive Learning Como os pesos devem ser inicializados?
Solução distribuir os vetores de pesos de acordo com a densidade de vetores de entrada Mais pesos na região com mais amostras de vetores de entrada
55
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? Solução distribuir os vetores de pesos de acordo com a densidade de vetores de entrada Mais pesos na região com mais amostras de vetores de entrada Mapa de Kohonen
56
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? Mapa de Kohonen Camada de saída x1 x2 ... xp
57
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída k x1 x2 ... xp
58
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(0) k x1 x2 ... xp
59
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(t1) k x1 x2 ... xp
60
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(t2) k x1 x2 ... xp
61
Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída k Nek(t3) x1 x2 ... xp
62
Competitive Learning Como efetuar a competição?
63
Competitive Learning Como efetuar a competição? F(net) = 1 net n 1 n
s1 PE1 x1 s2 x2 PE2 x3 xn sp PEn
64
Competitive Learning Como efetuar a competição? - 1 - ... -
F(net) = 1 net n 1 1 n 1 s1 PE1 1 - s1t+1 1 W = - - 1 - - - . - - - - x1 - s2 s2t+1 x2 PE2 1 2 x3 - xn - sp - n spt+1 1 PEn
65
Competitive Learning Exemplo: x1 = [0,8 0,6] x2 = [0,1736 -0,9848]
w1 = [0 1] w2 = [-1 0] x5 x3 x1 w2 w1 x4 x2
66
Competitive Learning Exemplo: x5 x3 x1 w2 w1 x4 x2
67
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 x4 x2
68
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 2 x4 x2
69
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 3 2 x4 x2
70
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 3 2 4 x4 x2
71
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 5 3 2 4 x4 x2
72
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 6 5 3 2 4 x4 x2
73
Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 6 5 3 2 4 x4 7 x2
74
Competitive Learning Exemplo: w1 w2 x5 x3 x1 8 1 6 5 3 2 4 x4 7 x2
75
Competitive Learning Exemplo: w1 w2 x5 x3 x1 8 1 6 5 3 2 4 x4 7 x2 9
76
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 8 1 6 5 3 2 4 7
9
77
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 11 8 1 6 5 3 2 4
7 x2 9
78
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 11 8 1 6 5 3 2 4
7 x2 9 12
79
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 13 11 8 1 6 5 3
7 x2 9 12
80
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 13 11 8 1 6 5 3
7 x2 9 12 14
81
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 11 8 1 6 5
7 x2 9 12 14
82
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 11 8 1
7 x2 9 12 14
83
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 11 8 1
7 x2 9 12 14 17
84
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 18 11 8
7 x2 9 12 14 17
85
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 18 11 8
7 x2 19 9 12 14 17
86
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 20 15 10 13 16 18
11 x1 8 1 6 5 3 2 4 x4 7 x2 19 9 12 14 17
87
Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 20 15 10 13 16 18
11 x1 8 1 6 5 3 2 4 x4 7 x2 19 9 12 14 17
88
Não Supervisionado Não existe conhecimento a respeito da classe a que o padrão pertence; Aprendizado depende das entradas e de suas densidades de probabilidade; Precisa de um grande conjunto de dados redundância para adquirir conhecimento das propriedades estatísticas dos padrões; Dependência do histórico de apresentação dos padrões.
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.