A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Algoritmos de Aprendizado

Apresentações semelhantes


Apresentação em tema: "Algoritmos de Aprendizado"— Transcrição da apresentação:

1 Algoritmos de Aprendizado
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptron (Back Propagation) Competitive Learning Mapa de Kohonen (SOM)

2 Redes Auto-Organizáveis
Redes com Treinamento Não-Supervisionado

3 Redes Auto-Organizáveis
Aplicações: Clustering os dados de entrada devem ser agrupados em conjuntos que agregam padrões semelhantes Regularity Detector O sistema deve extrair as características do padrão de entrada

4 Redes Auto-Organizáveis
Os algoritmos não-supervisionados são geralmente baseados em uma forma de competição entre os processadores O método mais comum é o chamado Competitive Learning

5 Competitive Learning É uma forma de aprendizado que divide o conjunto de padrões de entrada em grupos inerentes aos dados

6 Competitive Learning É uma forma de aprendizado que divide o conjunto de padrões de entrada em grupos inerentes aos dados Em sua forma mais simples  “winner takes all”

7 Competitive Learning Elemento Processador x1 w1j Padrão de Entrada:
vetor X x2 w2j netj sj wij xi

8 Competitive Learning Topologia s1 PE1 x1 x2 s2 PE2 x3 s3 PE3 xn sp PEn

9 Competitive Learning Características Básicas:

10 Competitive Learning Características Básicas:
Regra de Propagação  netj =  xi.wij = X.Wj

11 Competitive Learning Características Básicas:
Regra de Propagação  netj =  xi.wij = X.Wj Função de Ativação  Degrau (para o neurônio vencedor)

12 Competitive Learning Características Básicas:
Regra de Propagação  netj =  xi.wij = X.Wj Função de Ativação  Degrau (para o neurônio vencedor) Topologia  Uma única camada de processadores.

13 Competitive Learning Características Básicas:
Regra de Propagação  netj =  xi.wij = X.Wj Função de Ativação  Degrau (para o neurônio vencedor) Topologia  Uma única camada de processadores. Algoritmo de Aprendizado  Não Supervisionado: wik= . (xi - wik)

14 Competitive Learning Características Básicas:
Regra de Propagação  netj =  xi.wij = X.Wj Função de Ativação  Degrau (para o neurônio vencedor) Topologia  Uma única camada de processadores. Algoritmo de Aprendizado  Não Supervisionado: wik= . (xi - wik) Valores de Entrada/Saída  Binários/Contínuos

15 Competitive Learning Funcionamento:

16 Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados

17 Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net)

18 Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net)  sk = 1 se netk > neti,  i  k sk = 0 caso contrário

19 Competitive Learning Funcionamento:
os vetores X e Wj devem ser normalizados somente o neurônio vencedor é ativado (neurônio com maior valor de net)  sk = 1 se netk > neti,  i  k sk = 0 caso contrário somente os pesos do neurônio vencedor são atualizados  wik= . (xi - wik)

20 Competitive Learning Geometricamente:
supondo que os vetores de entrada e os vetores de peso estão normalizados, tem-se todos os vetores dentro de um círculo de raio 1 x1 xn x3 x2

21 Competitive Learning Geometricamente:
supondo que os vetores de entrada e os vetores de peso estão normalizados, tem-se todos os vetores dentro de um círculo de raio 1 wp x1 xn w1 x3 x2 w2

22 Competitive Learning Objetivo:
Ajusta-se os pesos de forma que vetores de entrada similares ativem o mesmo neurônio

23 Competitive Learning Aprendizado:
A direção de atualização dos pesos minimiza a diferença entre o vetor de pesos e o vetor de entrada do processador vencedor.

24 Competitive Learning Aprendizado: wik= . (xi - wik) wt x

25 Competitive Learning Aprendizado: wik= . (xi - wik) wt x - wt x

26 Competitive Learning Aprendizado: wik= . (xi - wik) (x - wt) wt

27 Competitive Learning Aprendizado: wik= . (xi - wik) (x - wt) wt

28 Competitive Learning Em 3 dimensões: vetores de entrada

29 Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada Topologia PE3 PE2 PE1 s1 s2 s3 x1 x2 x3

30 Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada vetores de pesos no instante t Topologia w1t PE3 PE2 PE1 s1 s2 s3 x1 x2 x3 w1t w2t w2t w3t w3t

31 Competitive Learning Topologia s1 s2 s3 Em 3 dimensões: x1 x2 x3
vetores de entrada vetores de pesos no instante t vetores de pesos após aprendizado Topologia w1t w1t+n PE3 PE2 PE1 s1 s2 s3 x1 x2 x3 w1t+n w3t+n w2t+n w2t w3t w2t+n w3t+n

32 Competitive Learning Questões importantes:
Por que somente os pesos do neurônio vencedor são atualizados? Por que se deve usar  < 1? Como o algoritmo deve ser modificado para vetores não normalizados? Como os pesos devem ser inicializados? Como efetuar a competição?

33 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados?

34 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada.

35 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada. Processador vencedor  possui o maior valor de net net =  xi wij = X.W = cos  ||X|| ||W|| = cos 

36 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? No caso de vetores normalizados, o processador vencedor é o que possui o vetor w mais próximo do vetor de entrada. Processador vencedor  possui o maior valor de net net =  xi wij = X.W = cos  ||X|| ||W|| = cos  a regra de propagação (soma ponderada) indica a proximidade dos dois vetores

37 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? A atualização dos pesos do processador vencedor faz com que o vetor W fique ainda mais próximo do vetor de entrada corrente.

38 Competitive Learning Por que somente os pesos do neurônio vencedor são atualizados? A atualização dos pesos do processador vencedor faz com que o vetor W fique ainda mais próximo do vetor de entrada corrente. o vetor W fica mais representativo do GRUPO ao qual aquele padrão de entrada pertence.

39 Competitive Learning Por que se deve usar  < 1?

40 Competitive Learning Por que se deve usar  < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico.

41 Competitive Learning Por que se deve usar  < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico. Procura-se achar o centro do GRUPO

42 Competitive Learning Por que se deve usar  < 1?
Para representar a CLASSE ou GRUPO de padrões semelhantes e não um padrão de entrada específico. Procura-se achar o centro do GRUPO OBS:  deve ser adaptativo, decrescendo com o tempo

43 Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados?

44 Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W2 W1 está mais próximo de X w1 x w2

45 Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W X.W1< X.W2 W1 está mais próximo de X mas W1 está mais próximo de X w1 w1 x w2 x w2

46 Competitive Learning Como o algoritmo deve ser modificado para vetores não normalizados? X.W1 > X.W X.W1< X.W2 W1 está mais próximo de X mas W1 está mais próximo de X Neste caso deve-se usar como medida de proximidade a Distância Euclidiana  ||Wk - X||  ||Wi - X|| j  k k é o neurônio vencedor w1 w1 x w2 x w2

47 Competitive Learning Como os pesos devem ser inicializados?

48 Competitive Learning Como os pesos devem ser inicializados?
Prática comum  pesos randômicos e normalizados

49 Competitive Learning Como os pesos devem ser inicializados?
Prática comum  pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera

50 Competitive Learning Como os pesos devem ser inicializados?
Prática comum  pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição)

51 Competitive Learning Como os pesos devem ser inicializados?
Prática comum  pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição) Super-grupos  processadores que representam mais de uma classe

52 Competitive Learning Como os pesos devem ser inicializados?
Prática comum  pesos randômicos e normalizados a aleatoriedade distribui os pesos uniformemente pela hiperesfera Pode gerar processadores inúteis (nunca vencem a competição) Super-grupos  processadores que representam mais de uma classe Sub-grupos  mais de um processador para representar uma única classe

53 Competitive Learning Como os pesos devem ser inicializados?
Solução  distribuir os vetores de pesos de acordo com a densidade de vetores de entrada

54 Competitive Learning Como os pesos devem ser inicializados?
Solução  distribuir os vetores de pesos de acordo com a densidade de vetores de entrada Mais pesos na região com mais amostras de vetores de entrada

55 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? Solução  distribuir os vetores de pesos de acordo com a densidade de vetores de entrada Mais pesos na região com mais amostras de vetores de entrada Mapa de Kohonen

56 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? Mapa de Kohonen Camada de saída x1 x2 ... xp

57 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída k x1 x2 ... xp

58 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(0) k x1 x2 ... xp

59 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(t1) k x1 x2 ... xp

60 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída Nek(t2) k x1 x2 ... xp

61 Competitive Learning Mapa de Kohonen
Como os pesos devem ser inicializados? A atualização de pesos é feita não só para o neurônio vencedor k mas também para os neurônios pertencentes a uma certa vizinhança NEk(t), ajustável com o tempo. Mapa de Kohonen Camada de saída k Nek(t3) x1 x2 ... xp

62 Competitive Learning Como efetuar a competição?

63 Competitive Learning Como efetuar a competição? F(net) = 1 net n 1 n
s1 PE1 x1 s2 x2 PE2 x3 xn sp PEn

64 Competitive Learning Como efetuar a competição? - 1 - ... -
F(net) = 1 net n 1 1 n 1 s1 PE1 1 - s1t+1 1 W =  -  - 1 -  - -  . - - - - x1 - s2 s2t+1 x2 PE2 1 2 x3 - xn - sp - n spt+1 1 PEn

65 Competitive Learning Exemplo: x1 = [0,8 0,6] x2 = [0,1736 -0,9848]
w1 = [0 1] w2 = [-1 0] x5 x3 x1 w2 w1 x4 x2

66 Competitive Learning Exemplo: x5 x3 x1 w2 w1 x4 x2

67 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 x4 x2

68 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 2 x4 x2

69 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 3 2 x4 x2

70 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 3 2 4 x4 x2

71 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 5 3 2 4 x4 x2

72 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 6 5 3 2 4 x4 x2

73 Competitive Learning Exemplo: w1 w2 x5 x3 x1 1 6 5 3 2 4 x4 7 x2

74 Competitive Learning Exemplo: w1 w2 x5 x3 x1 8 1 6 5 3 2 4 x4 7 x2

75 Competitive Learning Exemplo: w1 w2 x5 x3 x1 8 1 6 5 3 2 4 x4 7 x2 9

76 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 8 1 6 5 3 2 4 7
9

77 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 11 8 1 6 5 3 2 4
7 x2 9

78 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 11 8 1 6 5 3 2 4
7 x2 9 12

79 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 13 11 8 1 6 5 3
7 x2 9 12

80 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 10 13 11 8 1 6 5 3
7 x2 9 12 14

81 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 11 8 1 6 5
7 x2 9 12 14

82 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 11 8 1
7 x2 9 12 14

83 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 11 8 1
7 x2 9 12 14 17

84 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 18 11 8
7 x2 9 12 14 17

85 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 15 10 13 16 18 11 8
7 x2 19 9 12 14 17

86 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 20 15 10 13 16 18
11 x1 8 1 6 5 3 2 4 x4 7 x2 19 9 12 14 17

87 Competitive Learning Exemplo: w1 w2 x5 x3 x1 x4 x2 20 15 10 13 16 18
11 x1 8 1 6 5 3 2 4 x4 7 x2 19 9 12 14 17

88 Não Supervisionado Não existe conhecimento a respeito da classe a que o padrão pertence; Aprendizado depende das entradas e de suas densidades de probabilidade; Precisa de um grande conjunto de dados  redundância para adquirir conhecimento das propriedades estatísticas dos padrões; Dependência do histórico de apresentação dos padrões.


Carregar ppt "Algoritmos de Aprendizado"

Apresentações semelhantes


Anúncios Google