E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK FOR O NLINE U NSUPERVISED L EARNING Cesar Lima José Francisco Maíra Nascimento.

Slides:



Advertisements
Apresentações semelhantes
Parte I - Sistemas de Aprendizado: Overview
Advertisements

Prof. André Laurindo Maitelli DCA-UFRN
Quantização de Cores por GNG
Redes Competitivas e de Kohonen
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
INTELIGÊNGIA COMPUTACIONAL
Redes Neurais Artificiais (RNA): Introdução
Redes Neurais Artificiais (RNA): Aprendizado
PERCEPTRON (CONTINUAÇÃO)
Adaptive Resonance Theory Carpenter & Grossberg
AULA 03 PERCEPTRON SIMPLES.
Aprendizado de Máquina
Prof. Júlio Cesar Nievola PPGIA - PUCPR
Redes Neurais Artificiais
Prof. Júlio Cesar Nievola
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Aspectos da Implementação de Redes Neurais
Reconhecimento de Padrões Tipos de Aprendizagem
Reconhecimento de Padrões Classificadores Lineares
Redes Neurais (Conceitos Fundamentais)
Listas lineares Listas Lineares Fila Dupla Pilha Fila Saída restrita
Inteligência Artificial
FACENS – Engenharia da Computação Inteligência Artificial
Apresentação: Léia Michelle de Souza
Anderson Berg Orientador: Prof. Fernando Buarque
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Previsão de consumos a curto prazo
Aprendizado de Máquina
Inteligência Artificial
Alexandre Xavier Falcão & David Menotti
CLUSTERING: UMA REVISÃO AOS ALGORITMOS BÁSICOS
Aprendizagem de Máquina - Agrupamento
Redes Neurais Auto-organizáveis
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
Caracterização de consumos
K-Means / Clustering.
Redes Neurais Prof. Alex F. V. Machado.
INF 1771 – Inteligência Artificial
Redes neurais artificiais
Aprendizagem de Máquina “Learning a Neural Tree” Paulo Amorim - prfa.
Cesar Lima José Francisco
F USION O F C ONTINUOUS -V ALUED O UTPUTS Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)
Redes Neuronais/Neurais/ Conexionistas Introdução
RNA – Radial Basis Function
Análise de padrões de uso em grades computacionais oportunistas
REDES NEURAIS ARTIFICIAIS Mapa Auto-Organizável de Kohonen (Self-Organizing Map - SOM) pertence a classe de redes neurais não-supervisionadas que se baseiam.
Revisão 2° Bimestre Inteligência Artificial. Redes Neurais.
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Locus Localização Eudes Cavalcanti.
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Recuperação Inteligente de Informação
Uma Introdução a SVM Support Vector Machines
Prof. Anne Magály de Paula Canuto
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
Mapas de Auto-reconstrução
Clustering Algorithms for Gene Expression Analysis Pablo Viana Fagner Nascimento.
Redes Neurais Artificiais
Laboratório de Mecatrónica/IST - COPPE Elétrica/UFRJ
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Algoritmos de Aprendizagem Baseados em Instâncias: Técnicas de Redução Cesar Lima Pereira George Darmiton da Cunha Cavalcanti (Orientador)‏
Estrutura de Dados Aula 3 - Listas
CIn-UFPE1 Recuperação Inteligente de Informação Agrupamento de Texto.
Redes Neurais Artificiais (Parte 2)
Curso: Redes de Computadores Turno: Noturno Disciplina: Introdução a Sistemas Abertos Professor: Jean Galdino Componentes: Andresa Maria Camilla Priscilla.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK FOR O NLINE U NSUPERVISED L EARNING Cesar Lima José Francisco Maíra Nascimento

R OTEIRO Introdução Revisão literária SOINN ESOINN Experimentos Conclusão Referências

I NTRODUÇÃO Aprendizagem não supervisionada Construção de grupos (agrupamentos) de dados baseado em suas características Aprendizagem de topologia Encontrar grupos homogêneos de dados dentre todos de um conjunto.

I NTRODUÇÃO Problemas Custo computacional Armazenamento Outros problemas referem-se a: Inicialização do algoritmo Pré-definição do número desejado de clusters

I NTRODUÇÃO Algoritmos de agrupamento (clustering) Hierárquico, por partição, fuzzy, nearest neighbor, RNA etc. Aprendizagem incremental Adaptar-se a novas informações sem esquecer informação previamente aprendida

R EVISÃO LITERÁRIA K-means e LBG Inicialização dos parâmetros Determinação do número de clusters Ambos têm melhorias que reduzem suas limitações

R EVISÃO LITERÁRIA Redes neurais para clusterização topology learning Geram mapeamentos entre dados em espaço de alta dimensão para uma estrutura topológica Redes auto-organizáveis (SOM, NG, etc.) são utilizadas para este fim

R EVISÃO LITERÁRIA Self Organizing Map (SOM) Estrutura predefinida

R EVISÃO LITERÁRIA Neural Gas (NG) Competitive Hebbian Learning Decisão a priori do tamanho da rede Growing Neural Gas (GNG) Estrutura dinâmica, sem necessidade de definí-la previamente Incremento constante de novos nodos, deslocamento de centros (nodos representantes)

R EVISÃO LITERÁRIA Growing Neural Gas - Utility (GNG-U) Remoção de nodos baseado em parâmetro de utilidade Limitações (GNG, GNG-U, etc) Aumento permanente da rede Representação do estado atual da distribuição de dados

S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (SOINN) Objetivos: Processar dados não estacionários on-line ou life-long Não necessitar de condições iniciais (quantidade de classes, número de nodos, parâmetros iniciais, etc.) Separar classes com interseção de baixa densidade (reportar clusters)

S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (SOINN) Rede de duas camadas 1 ª: Densidade da distribuição dos dados 2 ª: Separa clusters e fornece seus protótipos representativos Algoritmo Recebe vetor de entrada ξ (na 1 ª camada) Encontra os dois nodos mais próximos: s 1 e s 2 Julga se ξ pertence ao cluster s 1 ou s 2 Baseado em limiar adaptativo por nodo (T s1 e T s2 nesse caso)

S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (SOINN) Algoritmo (continuação) Se ξ representa uma nova classe, adicionar nodo r com vetor ξ à rede e reinicie com uma nova entrada. Caso contrário crie uma nova aresta entre s 1 e s 2 e zere sua idade Incrementa a idade de todas as conexões do vencedor Atualiza os pesos do vencedor e de seus vizinhos Remove nodos com idade maior que age dead

S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (SOINN) Algoritmo (continuação) Após λ iterações Insere um novo nodo onde o erro acumulado é maior Se não houver redução do erro local, cancela a inserção Remove nodos ruidosos Com nenhum ou um vizinho

S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (SOINN) Algoritmo (continuação) Após LT iterações Submete os nodos atuais da rede como entrada para o próprio algoritmo Gera os nodos da segunda camada Após aprendizagem, nodos conectados representam um cluster

SOINN

E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (ESOINN) Principais problemas do SOINN: Adotar rede de duas camadas Quando encerrar o treinamento da 1ª camada e iniciar o da 2ª Requer grande número de parâmetros determinados pelo usuário Separa clusters com interseção de baixa densidade

E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (ESOINN) ESOINN Baseado no SOINN Herda todas as funções do SOINN Soluciona problemas citados Adota apenas uma camada Algoritmo Recebe vetor de entrada ξ Encontra os dois nodos mais próximos: s 1 e s 2 Julga se ξ pertence ao cluster s 1 ou s 2 Baseado em limiar adaptativo por nodo (T s1 e T s2 nesse caso)

E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK (ESOINN) Algoritmo (continuação) Se ξ representa uma nova classe, adiciona nodo r com vetor ξ à rede e reinicia com uma nova entrada. Incrementa a idade de todas as conexões do vencedor Caso contrário cria uma nova aresta entre s 1 e s 2 e zera sua idade, se: s 1 e s 2 são nodos novos Pertecem a mesma subclasse Pertecem a classes diferentes e satisfazem: min(h s1, h s2 ) > α A A max ou min(h s1, h s2 ) > α B B max Caso contrário, se existir uma conexão entre s 1 e s 2, ela é removida Atualiza a densidade do vencedor, usando a equação: h = 1/ Atualiza os pesos do vencedor e de seus vizinhos Remove nodos com idade maior que age dead