Aspectos de Implementação do Algoritmo Backpropagation

Slides:



Advertisements
Apresentações semelhantes
Sistema robótico baseado em controladores de redes neurais
Advertisements

Rede Neural de Backpropagation
Prof. André Laurindo Maitelli DCA-UFRN
REDES NEURAIS ARTIFICIAIS
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Adriano Kaminski Sanches
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
AULA06-exercícios MLP.
Adaptive Resonance Theory Carpenter & Grossberg
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Prof. Júlio Cesar Nievola PPGIA - PUCPR
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Projeto e Treinamento de MLPs
Perceptrons e Multilayer Perceptrons
Redes de Hopfield Redes Neurais COPIN
Método de NewtonRaphson
Redes Neurais Artificial
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Rede Neural de Backpropagation
Aspectos da Implementação de Redes Neurais
Introdução à Inteligência Artificial Redes Neurais Artificiais Prof
Reconhecimento de Padrões Classificadores Lineares
Redes de Kohonen Paulo Adeodato e Germano Vasconcelos
Redes de Funções de Base Radial Radial Basis Functions (RBFs)
Inteligência Artificial
Inteligência Artificial
Análise Multivariada Aplicada as Ciências Agrárias
Lista de Exercícios de Redes Neurais - Sistemas Inteligentes -
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
AGNALDO CALVI BENVENHO
INF 1771 – Inteligência Artificial
Daniela Justiniano de Sousa
Implementação de Redes Neurais para Classificação de Odores
Cálculo II Aula 07: Maximizando a Derivada Direcional, Plano Tangente às Superfícies de Nível, A Importância do Vetor Gradiente.
Introdução O que é computação?.
Monitoria de Sistemas Inteligentes Alice Lucena Prof Teresa Ludermir.
PROJETO DE REDES NEURAIS Leyla Manoella (lmmrl) Thiago Henrique (thfp)
Redes Neurais Prof. Alex F. V. Machado.
Aprendizado de Máquina
Marcílio C. P. de Souto DIMAp/UFRN
Projeto de Redes Neurais e MATLAB
Redes Neuronais/Neurais/ Conexionistas Introdução
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
RNA – Radial Basis Function
(OU) Hardware da Rede Implementacao da rede
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Prof. Anne Magály de Paula Canuto
Universidade Federal de Lavras Departamento de Ciência da Computação
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Redes Neurais Artificial
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Revisão de Sistemas Inteligentes
Redes Neurais Artificiais
DAS MSPO Eduardo Camponogara
©2001 Germano Vasconcelos, Paulo Adeodato Desenvolvimento de Aplicações Germano C. Vasconcelos Centro de Informática - UFPE.
Redes Neurais Artificiais
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Aspectos de Implementação do Algoritmo Backpropagation Função de Ativação Momento Inicialização dos Pesos Critério de Parada Generalização Normalização dos vetores entrada-saída Número de camadas intermediárias Escolha dos padrões de treinamento Sobretreinamento

Função de Ativação Tem que ser derivável em todo o seu domínio! Necessário para o cálculo do gradiente local dos neurônios Função Linear, Função Sigmóide (ou Logística), Função Tangente Hiperbólica

Momento Método do Gradiente Descendente Converge lentamente se  for muito pequeno Apresenta oscilações se  for muito grande

 em torno de 0.9 (normalmente) Momento Solução simples: acresentar uma taxa de momento  é a taxa de momento  em torno de 0.9 (normalmente) Com a taxa de momento, pode-se escolher uma taxa de aprendizado mais elevada

Momento Evolução da função custo sem momento Evolução da função custo com momento

Inicialização dos Pesos Como escolher os valores iniciais dos pesos ? O ideal seria possuir alguma informação a respeito dos valores desejados destes parâmetros Entretanto normalmente esta informação é impossível de se obter a priori Pesos, e bias, devem ser pequenos (<<1) e escolhidos de forma aleatória dentro de um certo intervalo Importância da escolha dos valores iniciais: peso elevado pode resultar, mesmo para entradas pequenas, na saturação do neurônio Neurônios operando próximos da saturação é uma das causas do decaimento lento da função custo. Outra causa deste decaimento lento é a proximidade de um mínimo local

Inicialização dos Pesos Os pesos iniciais deve ser pequenos o suficiente para que o neurônio opere em uma região fora da saturação e grande o suficiente para que o tempo de treinamento não se torne muito elevado

Critério de Parada Não existe um critério bem definido para parada Como saber se o Algoritmo de Treinamento convergiu adequadamente ? Não existe um critério bem definido para parada Gradiente da Função Custo é nulo ! Esta condição não é suficiente para garantir um desempenho desejado para a RNA (mínimo local) Avaliar a Função Custo no final de uma determina época ! Considera-se que o algoritmo convergiu quando a Função Custo estiver próximo de um determinado valor, por exemplo 0.01 (o mínimo ainda pode ser local) Combinação dos dois casos anteriores !! Considerar a validação e os dois casos anteriores !!! Quando trabalha-se com RNAs uma das características mais importantes do uso das mesmas é a Generalização. Deve-se considerar no critério de parada a avaliação da Função Custo medida com um conjunto de entradas para o qual a RNA não foi treinada

Critério de Parada (conjunto de teste) Final do treinamento Função Custo = 0.022 Início do treinamento Conjunto de teste Função Custo = 0.18

Generalização Na fase de treinamento de uma RNA um conjunto de pares entrada-saída é apresentado à rede, e para cada par os pesos são ajustados Os pares entrada-saída são apresentados várias vezes para a rede No final do treinamento a RNA “aprendeu” o mapeamento, normalmente não-linear, entrada-saída daqueles pares apresentados Mas a RNA deve também “aprender” o mapeamento entrada-saída para outros pares diferentes daqueles apresentados durante o treinamento  isto é a “generalização” treinamento x * x * Espaço de Entradas Espaço de Saídas generalização

Generalização A generalização pode ser melhor entendida no contexto de aproximação funcional Considere um exemplo em que conhecemos um conjunto de N pontos x é a entrada y é a saída f(.) é desconhecida O problema é encontrar um função f(x) que represente bem este conjunto de pontos Pesos,