Aprendizagem de Máquina “Learning a Neural Tree” Paulo Amorim - prfa.

Slides:



Advertisements
Apresentações semelhantes
Construção de listas de decisão Os tópicos anteriores tratam de indução de conceitos que podem ser descritos usando uma única região de decisão Neste tópico.
Advertisements

Agenda Introdução Justificativa Objetivo Detecção de Spam
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Prof. M.Sc. Fábio Francisco da Costa Fontes Abril
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
Aprendizado de Máquina
Prof. Júlio Cesar Nievola
Algoritmos Construtivos
Árvores.
Aspectos da Implementação de Redes Neurais
Medida do Tempo de Execução de um Programa
Computação Evolutiva: Programação Genética
Medida do Tempo de Execução de um Programa
Medida do Tempo de Execução de um Programa
Árvores Introdução e Aplicações Árvores de Busca Binária Fundamentos
FACENS – Engenharia da Computação Inteligência Artificial
Classificação e Pesquisa de Dados
Métodos de Classificação por Seleção: HeapSort
Instituto Tecnológico da Aeronáutica – ITA Divisão de Ciência de Engenharia Eletrônica e Computação EE-09 Inteligência Artificial Prof. Adilson Marques.
ESTRUTURA DE COMUNICAÇÃO DE DADOS
Aspectos Avançados em Engenharia de Software Aula 3 Fernanda Campos
Anderson Berg Orientador: Prof. Fernando Buarque
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Inteligência Artificial Redes Neurias
Previsão de consumos a curto prazo
Aprendizado de Máquina
Introdução O que é computação?.
Aprendizado Baseado em Instâncias – Algoritmo k-NN
VETORES Roteiro da aula Referência ao Programa: Estrutura de Dados
VETORES Roteiro da aula Referência ao Programa: Estrutura de Dados
Exercícios PAA- Grafos
Algorítmos e estrutura de dados III
Aula 03 – BCC202 Análise de Algoritmos (Parte 1) Túlio Toffolo www
E NHANCED S ELF -O RGANIZING I NCREMENTAL N EURAL N ETWORK FOR O NLINE U NSUPERVISED L EARNING Cesar Lima José Francisco Maíra Nascimento.
Algoritmos e Estrutura de Dados III
Redes neurais artificiais
Listas de Prioridades Em muitas aplicações, dados de uma coleção são acessados por ordem de prioridade A prioridade associada a um dado pode ser qualquer.
F USION O F C ONTINUOUS -V ALUED O UTPUTS Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)
Disciplina Análise de Algoritmos BCC-UFU Profa. Sandra de Amo
Redes Neurais Artificiais
Extração de Regras de RNA Wilian Soares Lacerda Fevereiro de 2003.
REDES NEURAIS ARTIFICIAIS Mapa Auto-Organizável de Kohonen (Self-Organizing Map - SOM) pertence a classe de redes neurais não-supervisionadas que se baseiam.
Busca Combinatorial e Métodos de Heurística
(OU) Hardware da Rede Implementacao da rede
Árvores Vermelho-Preto
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
1 Introdução aos Agentes Inteligentes Inventando Funções Heurísticas Flávia Barros.
© 2011 Pearson Prentice Hall. Todos os direitos reservados.slide 1 © 2011 Pearson Prentice Hall. Todos os direitos reservados.slide 1 © 2011 Pearson Prentice.
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Programação Dinâmica.
Universidade Federal de Lavras Departamento de Ciência da Computação
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
Combinação de Preditores utilizando o Coeficiente de Correlação aplicado aos Problemas de Regressão Resumo Este trabalho apresenta um algoritmo de Boosting.
Problemas NP-completos e Programação Dinâmica
AULA 21 Profa. Sandra de Amo BCC - UFU
Márcio Leal de Melo Dahia1 Aprendizado baseado em instâncias.
Aprendizado Baseado em Instancias. Introdução Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Árvores Estrutura de dados que se caracteriza por uma relação de
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Aprendizagem de Máquina “Learning a Neural Tree” Paulo Amorim - prfa

Roteiro Introdução Proposta Descrição do Projeto Algoritmo de Construção – SGNT Aperfeiçoamento:  Otimização;  Poda; Resultados Resoluções Trabalhos Futuros...

Introdução Treinamento pelo ajuste dos pesos das conexões. Estrutura para satisfazer a aprendizagem. Desvantajoso. Redes que apenas resolvem problemas específicos.

Proposta Construção automática de uma estrutura neural através de dados de treinamento. Algoritmo SGNT (Self-Generated Neural Tree). Estrutura de rede, membros dos neurônios, conexões entre eles e seus pesos são atualizados.

Descrição do Projeto Instância (vetor de atributos, com mesmo peso) Nó da árvore representa um neurônio:  poder de resposta;  peso associado;  um vetor contendo os neurônios “filhos”;  instância associada; Neurônio “vencedor” (Distância Euclidiana).

SGNT (1/2) Neurônios, gerados automaticamente a partir das instâncias de treinamento. Entradas:  limiar θ;  dados carregados do conjunto de treinamento; Descrição do Algoritmo:  Definição da raiz;  Para cada elemento, distância mínima, neurônio “vencedor”;

SGNT (2/2) Menor distância comparada ao limiar. Caso seja maior:  um novo neurônio filho, representando o mesmo, caso seja folha;  um novo filho, representando o dado de entrada; Atualização dos pesos dos neurônios da árvore. Neurônio-folha, corresponde a um ou mais exemplos de treinamento.

Aperfeiçoamento (1/3) Otimização:  Vertically Well Placed (VWP): Distância entre o peso de um neurônio aos antecessores tem que ser crescente;  Se não: colocado numa camada acima, como “filho” do neurônio “pai-antecessor” como o qual ele possui menor distância; neurônio “pai-anterior” terá seu peso e poder de decisão atualizados;

Aperfeiçoamento (2/3)  Horizontally Well Placed (HWP): Distância do neurônio “pai” a um de seus neurônios filhos tem que ser menor ou igual, que a diferença entre “irmãos”.  Se não: Movido uma camada abaixo, como “filho” do “irmão” mais próximo. Novo filho é adicionado como cópia do mesmo de forma a não perder a informação. O peso e poder de decisão desse neurônio é atualizado.

Aperfeiçoamento (3/3) Poda (Prunning):  Realização repetitiva do treinamento e eliminação dos “galhos mortos”.  Uma sub-árvore é um “galho morto” se o número de exemplos alcançados pela raiz não aumentar a cada repetição do processo. Não-implementado.

Resultados Lenses - UCI Machine Learning Repository:  K-nn, com k = 1: 87,5% de acertos  K-nn, com k = 3: 62,5% de acertos  K-nn, com k = 5: 62,5% de acertos  Árvore sem otimização: 87,5% de acertos.  Árvore com otimização: 73,4375% de acertos. (?)

Resoluções Compreensão média. Exemplos simples, problemas mais complexos poderiam ser apresentados. Pouca (quase nenhuma) ênfase ao processo de busca.

Trabalhos Futuros... Vários pontos:  realização da poda;  tamanho máximo ótimo da árvore;  adaptação para utilização de dados compostos: categóricos; reais;