A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Redes Competitivas e de Kohonen

Apresentações semelhantes


Apresentação em tema: "Redes Competitivas e de Kohonen"— Transcrição da apresentação:

1 Redes Competitivas e de Kohonen
Prof. Júlio Cesar Nievola PPGIA PUCPR

2 Prof. Júlio Cesar Nievola
Competição Competição por recursos maneira de diversificar e otimizar a função dos elementos de um sistema distribuído conduz à otimização a nível local sem controle global para assinalar recursos do sistema PEs de redes competitivas recebem informação idêntica das entradas mas competem pelos recursos: através de conexões laterais na topologia; ou pela formulação da regra de aprendizagem especializam-se em áreas diferentes da entrada PPGIA - PUCPR Prof. Júlio Cesar Nievola

3 Prof. Júlio Cesar Nievola
Competição É intrinsecamente uma operação não-linear e, portanto, o tratamento matemático não está tão desenvolvido como em outras áreas de sistemas adaptativos Dois tipos básicos: Hard: somente um PE ganha os recursos Soft: há um vencedor, mas seus vizinhos também recebem uma parte dos recursos PPGIA - PUCPR Prof. Júlio Cesar Nievola

4 Redes Winner-take-all
A rede competitiva típica consiste de uma camada de PEs, todos com mesma entrada. O PE com melhor saída é o vencedor Na rede winner-take-all não há controle global. Se houverem N entradas, a saída será dada por: PPGIA - PUCPR Prof. Júlio Cesar Nievola

5 Redes winner-take-all
Há realimentação entre os PEs A saída leva algum tempo até estabilizar Embora a amplitude da diferença na entrada possa ser pequena, a saída é muito bem definida Exemplo 01 PPGIA - PUCPR Prof. Júlio Cesar Nievola

6 Aprendizagem Competitiva
O objetivo da aprendizagem competitiva é criar uma regra de aprendizagem que possa ser aplicada a uma topologia de camada única e que atribua os PEs a áreas diferentes do espaço de entrada Aprendizagem competitiva é um paradigma de aprendizagem não-supervisionada, a qual extrai informação somente dos padrões de entrada sem a necessidade de uma resposta desejada PPGIA - PUCPR Prof. Júlio Cesar Nievola

7 Prof. Júlio Cesar Nievola
Rede Instar Grossberg propôs uma rede como um único PE de McCulloch-Pitts treinado com a regra estrela: onde y(n) é a saída limitada aos valores zero e um, ou seja, o peso é atualizado somente se o PE está ativo PPGIA - PUCPR Prof. Júlio Cesar Nievola

8 Prof. Júlio Cesar Nievola
Rede Instar Quando o PE está ativo, a rede move os pesos na direção da entrada em uma linha direta proporcional ao tamanho de  Um PE treinado com a regra instar fornece saída 1 para exemplos próximos do padrão de treinamento (o bias controla a vizinhança), ou seja, é capaz de reconhecer se um vetor padrão é “similar” à uma classe armazenada nos pesos Exemplo 02 PPGIA - PUCPR Prof. Júlio Cesar Nievola

9 Regra Competitiva e a Rede winner-take-all
A regra instar é similar à regra de Hebb e à de Oja: Como na regra de Oja, o segundo termo evita a instabilidade da regra de Hebb Usando a regra instar com um PE não-linear, padrões não-freqüentes são preservados, enquanto o PE estiver inativo PPGIA - PUCPR Prof. Júlio Cesar Nievola

10 Regra Competitiva e a Rede winner-take-all
A regra competitiva torna-se onde i* é o PE que venceu a competição. Todos os outros PEs mantém seus pesos anteriores O tamanho do passo  (0 <  < 1) controla o tamanho da atualização em cada passo Exemplo 03 PPGIA - PUCPR Prof. Júlio Cesar Nievola

11 Critério para Competição
O PE mais próximo à entrada atual deve vencer a competição, portanto precisa-se de uma medida de proximidade O produto interno é sensível não somente às direções mas também ao comprimento dos vetores, isto é , a entrada e os pesos devem ser normalizados Produto interno fazendo a escolha errada do vencedor PPGIA - PUCPR Prof. Júlio Cesar Nievola

12 Critério para Competição
Uma alternativa ao produto interno é o uso da distância Euclidiana como métrica para definir o vencedor: Como a raiz quadrada é uma função computacionalmente cara, a distância métrica é menos eficiente que o produto interno As vezes a métrica de Manhattan (L1) é usada, pois só envolve subtrações e valores absolutos Exemplo 04 PPGIA - PUCPR Prof. Júlio Cesar Nievola

13 Prof. Júlio Cesar Nievola
Agrupamento Usando a regra competitiva uma rede linear de camada única agrupa e representa dados que residem em uma vizinhança do espaço de entrada. Cada vizinhança é representada por um único PE Os pesos de cada PE representam pontos no espaço de entrada chamados vetores protótipos Se os vetores forem unidos por uma linha e forem traçadas perpendiculares na metade de cada uma, as mesmas se encontrarão e formarão uma estrutura semelhante a uma colméia de abelhas PPGIA - PUCPR Prof. Júlio Cesar Nievola

14 Prof. Júlio Cesar Nievola
Tesselação de Voronoi Amostras de dados que estão nas regiões são assinaladas aos correspondentes vetor-protótipo Agrupamento é uma transformação contínuo-para-discreto Do ponto de vista teórico, agrupamento é uma forma de estimação não-paramétrica de densidade PPGIA - PUCPR Prof. Júlio Cesar Nievola

15 Prof. Júlio Cesar Nievola
Agrupamento k-médio O algoritmo não-neural típico de agrupamento é o k-médio, o qual encontra a melhor divisão de N amostras em K grupos, tal que a distância total entre as amostras agrupadas e seus respectivos centros, isto é, a variância total, seja minimizada Redes competitivas implementam uma versão on-line do agrupamento k-médio em vez das operações de adaptação batch Exemplo 05 PPGIA - PUCPR Prof. Júlio Cesar Nievola

16 Agrupamento x classificação
é o processo de agrupar amostras de entradas que são vizinhos espaciais é um processo não-supervisionado Classificação: consiste na rotulação de amostras de entrada através de algum critério externo é um processo supervisionado PPGIA - PUCPR Prof. Júlio Cesar Nievola

17 Agrupamento x classificação
Como agrupamento é não-supervisionado, ele não pode ser usado diretamente para classificação Em várias aplicações práticas, os dados de cada classe tendem a ser densos e, portanto, há um vale natural entre as classes. Nestes casos o agrupamento pode ser um pré-processador para a classificação Com isto obtém-se redes de classificação mais simples PPGIA - PUCPR Prof. Júlio Cesar Nievola

18 Agrupamento x classificação
PPGIA - PUCPR Prof. Júlio Cesar Nievola

19 Melhorando a Aprendizagem Competitiva
Se o vetor de pesos de um PE está muito distante dos grupos de dados ele nunca vencerá a competição (PE morto) Consciência: penaliza um PE se ele vence em demasia ou ajuda-o em caso contrário Fração de vezes que um PE vence: onde o(n) é a saída da competição atual (1 se o PE ganha e 0 se perde) e  é uma pequena constante positiva (em torno de ) PPGIA - PUCPR Prof. Júlio Cesar Nievola

20 Melhorando a Aprendizagem Competitiva
Cada PE atualiza seu bias através de: onde  é uma constante positiva (p.ex.10) O bias é o termo de penalização por vencer freqüentemente e é subtraído da distância normal antes da seleção do vencedor: onde D() é a distância euclidiana (se for usado o produto interno, muda-se o sinal de bi) Exemplo 06 PPGIA - PUCPR Prof. Júlio Cesar Nievola

21 Determinação do Número de Agrupamentos
O número de centros é controlado pelo número de PEs de saída: Se o número de PEs é menor que o número de grupos reais, cada PE representa mais de um grupo e é colocado no centro de massa destes Se o número de PEs é maior que o número de grupos reais, alguns PEs podem “congelar” ou mais de um representar o mesmo grupo O princípio da competição é diferencial por natureza, ou seja, quão bom é o PE que ganhou a competição? Exemplo 07 PPGIA - PUCPR Prof. Júlio Cesar Nievola

22 Prof. Júlio Cesar Nievola
Competição Soft Cria uma “bolha” de atividade no espaço de saída, onde o PE mais próximo é o mais ativo e seus vizinhos são menos ativos Uma rede softmax pode ser criada usando realimentação lateral, onde os pesos laterais variam com a distância dos PEs conectados Competição soft cria uma relação de vizinhança entre PEs, isto é, eles ligam-se por uma métrica de similaridade Mapeamentos topológicos do espaço de entrada para o espaço dos PEs são possíveis Exemplo 08 PPGIA - PUCPR Prof. Júlio Cesar Nievola

23 Mapa Auto-Organizável de Kohonen
A rede SOM de Kohonen realiza um mapeamento de um espaço contínuo de entrada para um espaço discreto de saída, onde as propriedades topológicas da entrada são preservadas A rede SOM de Kohonen é uma rede linear de camada única totalmente conectada, cuja saída é organizada em uma ou duas dimensões Quando a SOM se adapta a entradas de altas dimensões, ela deve se estender e enrolar para cobrir o espaço de entrada PPGIA - PUCPR Prof. Júlio Cesar Nievola

24 Arquitetura de uma SOM com saída 2D
PPGIA - PUCPR Prof. Júlio Cesar Nievola

25 Dados de entrada 2D e mapeamento em SOM 1D
PPGIA - PUCPR Prof. Júlio Cesar Nievola

26 Algoritmo SOM de Aprendizagem
Assume-se que a rede de inibição lateral produz uma distribuição gaussiana centrada no PE vencedor Como aplica-se a regra de aprendizagem do tipo instar, que escala a regra competitiva pela atividade de saída de cada PE, a regra competitiva SOM de Kohonen torna-se onde a função i,i* é uma função de vizinhança centrada no PE vencedor PPGIA - PUCPR Prof. Júlio Cesar Nievola

27 Algoritmo SOM de Aprendizagem
Normalmente, tanto o tamanho do passo quanto a vizinhança diminuem com o tempo A função de vizinhança  é normalmente uma gaussiana: com uma variância que decresce com a iteração. Inicialmente ela cobre todo o mapa, mas reduz-se progressivamente a uma vizinhança de zero, isto é, somente o PE vencedor é atualizado PPGIA - PUCPR Prof. Júlio Cesar Nievola

28 Algoritmo SOM de Aprendizagem
Conforme a vizinhança é reduzida, a rede move-se de uma competição “muito soft” (quase todo PE é atualizado) para uma competição “hard” (somente o PE vencedor é atualizado) Há evidências que a SOM cria um espaço de saída discreto onde relações topológicas dentro das vizinhanças do espaço de entrada são preservadas A rede SOM é criada de uma maneira não-supervisionada PPGIA - PUCPR Prof. Júlio Cesar Nievola

29 Algoritmo SOM de Aprendizagem
A seleção de parâmetros é crucial para a preservação de topologia A experiência mostrou que há duas fases na aprendizagem SOM: Fase de ordenação topológica dos pesos, ou seja, definição das vizinhanças Fase de convergência com o ajuste fino da distribuição de entrada PPGIA - PUCPR Prof. Júlio Cesar Nievola

30 Fase de Ordenação Topológica dos Pesos
Nesta fase, suposta tendo No iterações, a função de vizinhança decresce, em geral, linearmente com um raio definido por: Normalmente a taxa de aprendizagem é alta (acima de 0.1) para permitir à rede se auto-organizar. Ela também é linearmente ajustada: onde 0 é a taxa de aprendizagem inicial e K é a taxa final de aprendizagem PPGIA - PUCPR Prof. Júlio Cesar Nievola

31 Prof. Júlio Cesar Nievola
Fase de Convergência É a fase mais demorada, onde se mantém uma taxa de aprendizagem pequena (0.01) e usa-se a menor vizinhança (somente o PE ou seus vizinhos mais próximos) A escolha do número de PEs é feita experimentalmente. O número de saídas afeta a precisão do mapeamento e o tempo de treinamento O aumento do número de PEs aumenta a resolução mas aumenta em muito o tempo de treinamento Exemplo 09&10 PPGIA - PUCPR Prof. Júlio Cesar Nievola

32 Prof. Júlio Cesar Nievola
Propriedade da SOM Aproximação do Espaço de Entrada: A SOM é capaz de preservar a estrutura do espaço de entrada relativamente bem Ordenamento Topológico: Os PEs na saída da SOM estão topologicamente ordenados no sentido de que PEs vizinhos correspondem a regiões similares no espaço de entrada Manutenção da densidade: Regiões no espaço de entrada com maior densidade de pontos são mapeadas para regiões maiores no espaço de saída Exemplo 11 PPGIA - PUCPR Prof. Júlio Cesar Nievola

33 Classificador - Redes LVQ “Learning Vector Quantization”
Faz uso de informações de classes para ajustar os limites das regiões de tesselação Se a regra competitiva produz a saída certa, não há alteração; se a saída estiver errada, os pesos dos PEs devem ser “repelidos” do agrupamento atual, pela regra: Apresenta problemas se os dados de entrada são multimodais Exemplo 12 PPGIA - PUCPR Prof. Júlio Cesar Nievola

34 Rede Counterpropagation
PPGIA - PUCPR Prof. Júlio Cesar Nievola

35 Rede Counterpropagation
Proposto por Hecht-Nielsen, é semelhante ao treinamento da RBF Como a camada escondida tem ativações digitais, a atualização LMS dos pesos é ou seja, os pesos da camada de saída são o valor médio do rótulo da classe para aquela região de tesselação em particular A rede counterpropagation implementa a quantização de vetores e é mais rápida que a MLP Exemplo 13 PPGIA - PUCPR Prof. Júlio Cesar Nievola

36 Rede Instar-Outstar de Grossberg
PPGIA - PUCPR Prof. Júlio Cesar Nievola

37 Rede Instar-Outstar de Grossberg
A rede outstar pode associar uma entrada escalar a um vetor de saída para recuperação de padrões. A regra de aprendizagem é obtida alterando os papéis das entradas com a saída, isto é, Se a saída é substituída pela resposta desejada, o resultado é exatamente o mesmo A função pode ser a mesma da rede counterpropagation PPGIA - PUCPR Prof. Júlio Cesar Nievola

38 Rede ART Adaptive Resonance Theory
A rede instar-outstar mapeia dados de entrada em padrões de saída Esta arquitetura pode ser usada para descoberta de grupos se a resposta desejada torna-se entrada, d(n)=x(n) e a saída do sistema torna-se a camada competitiva Maior problema: instabilidade devido à aprendizagem instar e recursos limitados Dilema estabilidade-plasticidade (D-E-P) PPGIA - PUCPR Prof. Júlio Cesar Nievola

39 Rede ART Adaptive Resonance Theory
Para resolver o D-E-P pode-se usar a porção outstar da rede e exigir que a entrada atual esteja a uma distância pré-especificada do centro do grupo Grossberg criou um método para adicionar novos PEs à camada competitiva quando não há “ressonância” entre o dado atual e os grupos existentes PPGIA - PUCPR Prof. Júlio Cesar Nievola

40 Rede ART Adaptive Resonance Theory
A especificação da vizinhança é controlada por um parâmetro de vigilância Esta rede é chamada de ART: É capaz de se dimensionar para agrupamento de dados Pode ser usada para detectar padrões não vistos anteriormente, quando cria novos grupos após o período de aprendizagem O ajuste do parâmetro de vigilância é delicado PPGIA - PUCPR Prof. Júlio Cesar Nievola


Carregar ppt "Redes Competitivas e de Kohonen"

Apresentações semelhantes


Anúncios Google