Algoritmos Construtivos

Slides:



Advertisements
Apresentações semelhantes
Algoritmo de Caminho Mínimo
Advertisements

Antonio Dirceu Rabelo de Vasconcelos Filho
Gustavo Sant´Anna Ferreira Rodrigo Ribeiro de Souza
Construção de listas de decisão Os tópicos anteriores tratam de indução de conceitos que podem ser descritos usando uma única região de decisão Neste tópico.
Fluxo em Redes Prof. Ricardo R. Santos.
Como se familiarizar com seu banco de dados usando o SPSS
Percursos em um grafo 2010/1 Teoria dos Grafos (INF 5037/INF2781)
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
Mineração de Dados Avaliação de Classificadores
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Introdução a Algoritmos Seqüenciais
AULA06-exercícios MLP.
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
Aprendizado de Máquina
Prof. Júlio Cesar Nievola PPGIA - PUCPR
Redes Neurais Artificiais
Prof. Júlio Cesar Nievola
Perceptron Simples Algoritmo do Bolso com catraca
Prof. Júlio Cesar Nievola
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Projeto e Treinamento de MLPs
Aprendizagem Hebbiana e PCA
Redes de Hopfield Redes Neurais COPIN
Estruturas de repetição
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Refatorações Experiência é aquela coisa maravilhosa que permite que você reconheça um erro tão logo o cometa novamente F.P. Jones.
Geometria Computacional Interseção de Segmentos
Aplicações de Pilhas Pilhas são fundamentais em diversas áreas da computação: Sistemas Operacionais Arquitetura de Computadores Compiladores Entre outros.
Inteligência Artificial
Inteligência Artificial
Rejane Sobrino Pinheiro Tania Guillén de Torres
Como se familiarizar com seu banco de dados Como se familiarizar com seu banco de dados usando o SPSS Profa. Suzi Camey Depto de Estatística - UFRGS.
Métodos de Classificação por Seleção: HeapSort
Relações em uma Gramática
Construção de Compiladores
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
T ÓPICOS DE I.A. Métodos de Busca Busca em Espaços de Estado Prof. Mário Dantas.
Introdução O que é computação?.
Exercícios PAA- Grafos
Treinamento do Microsoft® Access® 2010
Redes Neurais Prof. Alex F. V. Machado.
Problemas de fluxo em grafos 1º semestre/2012 Prof. André Renato
Redes Neuronais/Neurais/ Conexionistas Introdução
Pilhas Profa. Nádia Félix.
Redes Neurais Artificiais
(OU) Hardware da Rede Implementacao da rede
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Prof. Anne Magály de Paula Canuto

Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Introdução à Programação
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Programação Computacional Aula 8: Entrada e Saída pelo Console Prof a. Madeleine Medrano
Redes Neurais Artificiais
Inteligência Artificial
Redes Neurais Artificiais Prof. Júlio Cesar Nievola PPGIA – PUCPR Especialização em Inteligência Computacional.
Linguagem de Programação I Parte IV
Usando Excel Prof. Rosemberg Trindade. Parte 1 Representação tabular de distribuição com variáveis discretas e contínuas.
Estrutura de dados Pilhas e filas
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Módulo I Capítulo 7: Funções e Procedimentos William Ivanski Curso de Programação C#
Sistemas de Controle III N8SC3
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Algoritmos Construtivos Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Introdução Motivação: transformar o treinamento em um problema simples de aprendizagem de uma célula: Algoritmo da torre Algoritmo da pirâmide Algoritmo de correlação em cascata Algoritmo do telhado Algoritmo grandioso Problemas de aprendizagem fácil Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo da Torre Todas as células intermediárias e de saída vêem as de entrada e a imediatamente anterior Usa-se o algoritmo do bolso com catraca para treinar cada célula intermediária e de saída Quando uma célula está treinada seus pesos são “congelados” e treina-se a próxima célula no caminho para a saída Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo da Torre Usar o algoritmo do bolso para gerar um modelo de célula única e congelar seus pesos após o treinamento Criar uma nova célula que vê as p entradas mais a ativação da célula mais recentemente treinada. Executar o algoritmo do bolso com catraca para treinar os p+2 pesos (incluindo bias) para esta célula Se a rede com a nova célula tem desempenho melhorado, congelar seus pesos e retornar ao passo 2; caso contrário remover a última célula e terminar Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo da Pirâmide Idêntico ao algoritmo da torre, exceto que cada nova célula recebe conexões de todas as outras células Embora as conexões e pesos adicionais pareçam melhorar a sua aprendizagem, as simulações foram inconclusivas Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Algoritmo de Correlação em Cascata Topologia similar à pirâmide Usa ativação contínua (sigmóide) Em cada estágio, adiciona-se e treina-se uma nova célula intermediária e retreina-se a célula de saída (que tem mais uma entrada) Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Algoritmo de Correlação em Cascata Treina-se a nova célula para a correlação com o erro residual da célula de saída. Usando uik para indicar o valor de ui para o exemplo de treinamento k e indicar a média da variável x sobre todos os N exemplos de treinamento, busca-se maximizar Usa-se a descida do gradiente para encontrar pesos {wi,j} que maximizem . A seguir congelam-se os pesos para a nova célula e retreina-se a saída usando backpropagation para encontrar wn,i Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo do Telhado Construção em camadas onde células da camada L recebem ativações somente da camada L-1 A célula mestre da camada L classifica corretamente mais exemplos que aquela da camada L-1 As células subordinadas garantem que não hajam dois exemplos de treinamento com classificações diferentes que tenham o mesmo conjunto de ativações na camada L Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo do Telhado As células mestre estão em azul Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo do Telhado Fazer camada L=2 (camada 1 é a camada de entrada) Usar o algoritmo do bolso com catraca para criar a célula mestre para a camada L usando todas as ativações da camada L-1 Se a célula mestre da camada L classifica corretamente todos os exemplos de treinamento, então terminar Caso contrário, continuar a adicionar células subordinadas até que a camada L se torne fiel: Encontrar um subconjunto de exemplos de treinamento de tamanho máximo com mais de uma classificação, que produz as mesmas ativações para todas as células na camada L Usar o algoritmo do bolso com catraca para treinar uma nova célula subordinada para a camada L usando somente o subconjunto de exemplos de treinamento do passo anterior A camada L tornou-se fiel. Fazer L=L+1 e retornar ao segundo passo Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo Grandioso Entradas e saídas são discretas em {+1,-1} Treina-se uma única célula un usando o algoritmo do bolso com catraca No caso de não-separabilidade treinam-se unidades un+ e un- para corrigir os erros de un A unidade un+ fornece reforço positivo quando un classifica incorretamente uma saída –1. Idem para un- com saída +1 Após treinar un+ e un- as mesmas são unidas a un por grandes pesos positivos e negativos respectivamente Se un+ e un- não classificam seus respectivos conjuntos de treinamento repete-se a construção recursivamente Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo Grandioso un +l -l un+ un- u1 u2 u3 Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Prof. Júlio Cesar Nievola - PPGIA - PUCPR Algoritmo Grandioso Construir uma rede inicial com uma única célula com célula de saída u. Colocar u e todos os exemplos de treinamento em LISTA-A-TRABALHAR Enquanto LISTA-A-TRABALHAR não estiver vazia: Remover um nó ui e exemplos de treinamento associados, E={Ek} de LISTA-A-TRABALHAR Executar o algoritmo do bolso com catraca para gerar pesos para ui Se ui classifica incorretamente um ou mais exemplos de treinamento com saída correta de +1: Criar um novo nó ui+ ligado a ui por um grande peso positivo. ui+ vê todas as células de entrada Colocar ui+ na LISTA-A-TRABALHAR juntamente com o seguinte subconjunto de exemplos de E: exemplos positivos: {Ek|uik=-1, Ck=1}, exemplos negativos: {Ek|Ck=-1} Se ui classifica incorretamente um ou mais exemplos de treinamento com saída correta de -1: Criar um novo nó ui- ligado a ui por um grande peso negativo. ui- vê todas as células de entrada Colocar ui- na LISTA-A-TRABALHAR juntamente com o seguinte subconjunto de exemplos de E: exemplos positivos: {Ek|uik=1, Ck=-1}, exemplos negativos: {Ek|Ck=1} Prof. Júlio Cesar Nievola - PPGIA - PUCPR

Problemas de Aprendizagem Fácil São problemas nos quais tem-se uma rede e onde os exemplos de treinamento especificam os valores de entrada e as ativações corretas para todas as células de entrada e intermediárias Eles são “fáceis” pois podem ser decompostos em problemas de uma única célula Prof. Júlio Cesar Nievola - PPGIA - PUCPR