AULA06-exercícios MLP.

Slides:



Advertisements
Apresentações semelhantes
Sistema robótico baseado em controladores de redes neurais
Advertisements

Rede Neural de Backpropagation
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
REDES NEURAIS ARTIFICIAIS
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Araken de Medeiros Santos Anne Magály de Paula Canuto
PERCEPTRON (CONTINUAÇÃO)
Adaptive Resonance Theory Carpenter & Grossberg
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Prof. Júlio Cesar Nievola PPGIA - PUCPR
Prof. Júlio Cesar Nievola
Algoritmos Construtivos
Perceptrons e Multilayer Perceptrons
Redes Neurais Artificial
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Rede Neural de Backpropagation
Introdução à Inteligência Artificial Redes Neurais Artificiais Prof
Reconhecimento de Padrões Classificadores Lineares
Reconhecimento de Padrões Multi-Layer Perceptron (MLP)
Redes de Funções de Base Radial Radial Basis Functions (RBFs)
Inteligência Artificial
Inteligência Artificial
Análise Multivariada Aplicada as Ciências Agrárias
Lista de Exercícios de Redes Neurais - Sistemas Inteligentes -
Ernesto F. F. Ramírez e Saide J. Calil
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Inteligência Artificial Redes Neurias
Implementação de Redes Neurais para Classificação de Odores
Introdução O que é computação?.
Monitoria de Sistemas Inteligentes Alice Lucena Prof Teresa Ludermir.
Cálculo Numérico / Métodos Numéricos
A Hybrid Method for Robust Car Plate Character Recognition.
Redes Neurais Prof. Alex F. V. Machado.
Aprendizado de Máquina
Redes neurais artificiais
SBRN’02 - Simpósio Brasileiro de Redes Neurais
Projeto de Redes Neurais e MATLAB
Redes Neuronais/Neurais/ Conexionistas Introdução
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
Redes Neurais Artificiais
RNA – Radial Basis Function
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Uma Introdução a SVM Support Vector Machines
Prof. Anne Magály de Paula Canuto
Combinação de Preditores utilizando o Coeficiente de Correlação aplicado aos Problemas de Regressão Resumo Este trabalho apresenta um algoritmo de Boosting.
Aula 6 Propagação de erros
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Redes Neurais Artificial
Introdução à Programação
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Revisão de Sistemas Inteligentes
Redes Neurais Artificiais
DAS MSPO Eduardo Camponogara
Inteligência Artificial
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
Ajustamento de Observações
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
Prof. Ivair Teixeira Redes de Computadores.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

AULA06-exercícios MLP

exercício1 Definir os pesos iniciais e aplicar o algoritmo do gradiente (backpropagation com atualização em lote) para a função XOR, com entradas binárias e funções de ativação sigmoidais.

Algoritmo de primeira ordem: gradiente Dado o gradiente da soma dos quadrados dos erros por: a direção de maior decrescimento é dada por e o ajuste do peso é dado por:

Programa – gradiente1 Subprogramas Os seguintes arquivos constituem o programa do gradiente binário: Inicializa – deve ser executado primeiro para inicializar os pesos e parametros Continua100 – executa 100 épocas Continua1000– executa 1000 épocas Subprogramas Passo1 – calcula o passo do cálculo da saida Passo2 – calcula o passo da retro-propagação do erro Erromed – calcula o erro medio quadrático Atualizarpesos – atualiza os pesos Epoca – calcula e ajusta os pesos para uma época Plotag – plota o erro medio quadrático para todas as épocas Plotatodos – plota as saídas dos neurônios para todas as épocas e entradas Saídas – mostra as saídas atuais para todas as entradas

exercício2 Definir os pesos iniciais e aplicar o algoritmo do gradiente com momento para a função XOR, com entradas binárias e funções de ativação sigmoidais

Momentum As fórmulas de atualização são ou onde o parâmetro de momentum m é restrito ao intervalo (0,1). O momentum permite à rede realizar ajustes de peso razoavelmente grande enquanto as correções forem na mesma direção para vários padrões, e uma pequena taxa de aprendizado para quaisquer erros de padrão de treinamento. Exemplo: Usando os mesmos pesos iniciais e arquitetura para os exemplos de aplicação para o problema do Xor e valores desejados +1 e -1, adicionando momentum (parâmetro = 0.9) com a taxa de aprendizado como antes (0.02) reduz o número de épocas de 387 para 38.

Programa – momento1 Subprogramas Os seguintes arquivos constituem o programa do gradiente binário: Inicializa – deve ser executado primeiro para inicializar os pesos e parametros Continua100 – executa 100 épocas Continua1000– executa 1000 épocas Subprogramas Passo1 – calcula o passo do cálculo da saida Passo2 – calcula o passo da retro-propagação do erro Erromed – calcula o erro medio quadrático Atualizarpesos – atualiza os pesos Epoca – calcula e ajusta os pesos para uma época Plotag – plota o erro medio quadrático para todas as épocas Plotatodos – plota as saídas dos neurônios para todas as épocas e entradas Saídas – mostra as saídas atuais para todas as entradas

exercício3 Definir os pesos iniciais e aplicar o algoritmo do gradiente com delta-bar-delta para a função XOR, com entradas binárias e funções de ativação sigmoidais.

Delta-bar-delta A regra delta-bar-delta muda os pesos conforme: Seja wji (t) um peso arbitrário no tempo t, e a ji (t) a respectiva taxa de treinamento, e a soma dos quadrados dos erros para o padrão apresentado nesse tempo t. A regra delta-bar-delta muda os pesos conforme: Cada peso muda numa taxa de aprendizado individual.

Delta-bar-delta (cont.) Se, para regra delta convencional, a regra delta-bar-delta usa uma combinação da informação sobre a derivada atual e passada para formar um novo delta, ou delta-bar, para cada unidade: onde o valor do parâmetro b deve ser especificado pelo usuário (0< b <1). Assim a nova taxa de aprendizado é dada por

Programa – deltabardelta1 Os seguintes arquivos constituem o programa do gradiente binário: Inicializa – deve ser executado primeiro para inicializar os pesos e parametros Continua100 – executa 100 épocas Continua1000– executa 1000 épocas Subprogramas Passo1 – calcula o passo do cálculo da saida Passo2 – calcula o passo da retro-propagação do erro Erromed – calcula o erro medio quadrático Atualizarpesos – atualiza os pesos Epoca – calcula e ajusta os pesos para uma época Plotag – plota o erro medio quadrático para todas as épocas Plotatodos – plota as saídas dos neurônios para todas as épocas e entradas Saídas – mostra as saídas atuais para todas as entradas

exercício4 Definir os pesos iniciais e aplicar o algoritmo do gradiente conjugado para a função XOR, com entradas binárias e funções de ativação sigmoidais.

Resumo do Algoritmo de Gradiente Conjugado Iniciar os valores de w(0) Para w(0) usar o back-propagation para computar o gradiente g(0). Fazer s(0)=r(0)=-g(0) No passo n, usar a busca em linha para encontrar h(n) que minimiza . Testar se a norma euclidiana do residual r(n) caiu num valor abaixo do especificado, ou seja numa pequena fração do valor inicial r(0). Atualizar o vetor peso: Para w(n+1) usar back-propagation para computar o vetor gradiente g(n+1) Fazer r(n+1) = - g(n+1) Usar o método de Polak-Ribiére para calcular Atualizar a direção conjugada Fazer n = n + 1 e ir para o passo 4.

Programa – gradienteconjugado1 Os seguintes arquivos constituem o programa do gradiente binário: Inicializa – deve ser executado primeiro para inicializar os pesos e parametros Continua– executa até minimizar o MSE, 100 épocas Subprogramas Passo1 – calcula o passo do cálculo da saida Passo2 – calcula o passo da retro-propagação do erro polak– calcula a direção conjugada s(n), a partir de n = 2 Calculalinha– faz a busca em linha para a obtenção de h(n) Linha – calcula o valor do erro médio quadratico na linha Erromed – calcula o erro medio quadrático para a época Atualizarpesos – atualiza os pesos Epoca – calcula e ajusta os pesos para uma época Plotagc – plota o erro medio quadrático para todas as épocas Plotatodos – plota as saídas dos neurônios para todas as épocas e entradas Saídas – mostra as saídas atuais para todas as entradas