Rede Neural de Backpropagation

Slides:



Advertisements
Apresentações semelhantes
Sistema robótico baseado em controladores de redes neurais
Advertisements

Rede Neural de Backpropagation
A = ( 3 ) , logo | A | = 3 Determinantes
Capítulo 7 Tableaux semânticos e resolução na Lógica Proposicional
Amintas engenharia.
REDES NEURAIS ARTIFICIAIS
Conversores A/D e D/A Conversor analógico-digital (ADC) e conversor digital-analógico (DAC) são usados para interfacear um computador com o mundo analógico.
Transformada de Laplace. Teoremas da Transformada de Laplace
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Cálculo - Thomas Capítulo 1.
Aspectos de Implementação do Algoritmo Backpropagation
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
Especificações de Filtros
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
AULA06-exercícios MLP.
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Para Casa – Montar o cariograma
1 Camada de redes: Interoperabilidade com IP. 2 Enlaces entre duas máquinas.
Quantificação DNA – Grupo 1
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Redes Neurais Uma introdução Introdução Inhaúma Neves Ferraz
Exemplo de Espalhamento Extensível 1. Definição dos dados a processar 2 Escondido pela moldura.
Cérebro Artificial Intelligence, a modern approach
Inteligência Artificial
Inteligência Artificial
Análise Multivariada Aplicada as Ciências Agrárias
Estruturas de Dados II Prof.: Sergio Pacheco Prof.: Sergio Pacheco 1 1.
Determinantes SilvanaWBenvenutti Turma:301
Auditoria de Segurança da Informação
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Inteligência Artificial Redes Neurias
Expressão algébrica a partir da representação gráfica da função
Fundamentos e aplicações
Derivada e integral de uma função
Relação de Movimentação de Produtos 1 Posto de Combustível.
Inteligência Artificial
MECÂNICA - DINÂMICA Dinâmica de um Ponto Material: Impulso e Quantidade de Movimento Cap. 15.
IFPE Campus Garanhuns – Curso Técnico em Informática 1 Quarta-feira, 10 de Agosto de 2011 Anatomia do Computador Arquitetura de Computadores.
SISTEMAS LINEARES.
Salas de Matemática.
Circuitos Elétricos 2 Circuitos Elétricos Aplicados
Funções e suas propriedades
Capítulo 10 Funções polinomiais slide 1
Sistemas Operacionais
Redes Neurais Prof. Alex F. V. Machado.
Conceitos de Lógica Digital
Redes neurais artificiais
Infra-Estrutura de Hardware
1 2 Observa ilustração. Cria um texto. Observa ilustração.
Prof. Celso Cardoso Neto. (2) ALINHAMENTO Caso 1.
Redes Neuronais/Neurais/ Conexionistas Introdução
1.
EFD – SPED FISCAL 1. Objetivos: O arquivo Sped Fiscal é uma obrigação fiscal e deve ser gerado mensalmente por alguns estabelecimentos. Esse arquivo deve.
Circuitos Combinacionais Exercícios 2 POSCOMP e ENADE
Redes Neurais Artificiais
Nome alunos 1 Título UC. Título – slide 2 Conteúdo Conteúdo 2.
Diagrama Polar 请看下页.
(OU) Hardware da Rede Implementacao da rede
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Prof. Anne Magály de Paula Canuto
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
Transcrição da apresentação:

Rede Neural de Backpropagation

Aprendizagem Seja tk a k-th saída alvo (desejada) e zk a k-th saída computada para k = 1, …, c Sejam w os pesos da rede Seja net a soma ponderada de entradas de um neurônio Erro de treinamento: A minimização do erro só pode ser feita atuando sobre os pesos das conexões da rede

Notação para a dedução Seja tk a k-th saída alvo (desejada) e zk a k-th saída computada para k = 1, …, c Sejam w os pesos da rede Seja net a soma ponderada de entradas de um neurônio

Minimização do erro Para minimizar o erro é preciso igualar a zero sua derivada em relação aos pesos Erro é função de net e net é função dos pesos Derivando parcialmente (camada de saída) k mostra a variação do erro com a unidade (neurônio)

Atualização dos pesos das conexões A minimização do erro só pode ser feita atuando sobre os pesos das conexões da rede Depois de cada computação de saída de ordem m o erro de treinamento deve ser minimizando modificando esse pesos para a computação de ordem m+1 w(m +1) = w(m) + w(m) Incremento de peso para redução do erro de treinamento, que deve ser minimizado  é o coeficiente de aprendizagem

Conexões com a camada de saída Erro é função da saída zk e zk é função de net como netk = wkt.y A regra de aprendizagem ou atualização de pesos entre a camada de saída e a camada oculta é wkj = kyj = (tk – zk) f’ (netk)yj

Conexões com a camada oculta A regra de aprendizagem ou atualização de pesos entre a camada oculta e a camada de entrada é semelhante k mostra a variação do erro com o peso da conexão

Resumo da atualização de pesos Mas Para os pesos entre a camada de saída e a camada oculta o incremento é wkj = kyj = (tk – zk) f’ (netk)yj = (tk – zk) f (netk) (1- f (netk))yj Para os pesos entre a camada oculta e a camada de entrada o incremento é

Derivadas das funções de transferência Para a função logística Para a função tangente hiperbólica f(y) = tanh(y)

Exemplo de backpropagation XOR Camada de saída 3 1 w3(0,1) w2(0,2) w3(2,1) bias w3(1,1) w2(0,1) 2 Camada oculta 2 1 w2(2,2) w2(1,1) w2(2,1) Camada de entrada 1 1 w2(1,2) 2 0,0 0,0

Notação para o exemplo Seja net a soma ponderada de entradas de um neurônio Sejam as camadas numeradas a partir de 1 (entrada) xc-1(n)  entrada no neurônio n da camada c wk(i,j)  peso da conexão entre o neurônio i da camada k-1 e o neurônio j da camada k k(n)  parcela a corrigir do nó n na camada k w2(0,1) = *x1(0)*2(1) atualização de pesos Para conexão com a camada de saída 3(1) = x3(1)*(1 - x3(1))*(d - x3(1)) Para conexão com camada oculta 2(1) = x2(1)*(1 - x2(1))*(w3(1,1)*3(1)+ w3(1,1)*3(2))

Exemplo – Inicialização Camada oculta Neurônio 1: w2(0,1) = 0.341232 w2(1,1) = 0.129952 w2(2,1) =-0.923123 Camada oculta Neurônio 2: w2(0,2) =-0.115223 w2(1,2) = 0.570345 w2(2,2) =-0.328932 Camada de saía Neurônio 1: w3(0,1) =-0.993423 w3(1,1) = 0.164732 w3(2,1) = 0.752621 Entrada inicial x1(0) = 1 (bias) x1(1) = 0 x1(2) = 0

Exemplo – Treinamento Forward Para a camada oculta os resultados da função somadora são Neurônio 1: (1 * 0.341232) + (0 * 0.129952) + (0 * -0.923123) = 0.341232 Neurônio 2: (1 *-0.115223) + (0 * 0.570345) + (0 * -0.328932) = -0.115223 Aplicando a função de ativação logística temos x2(1) = 1/(1+e^(-0.341232)) = 0.584490 x2(2) = 1/(1+e^( 0.115223)) = 0.471226 Camada oculta Neurônio 1: w2(0,1) = 0.341232 w2(1,1) = 0.129952 w2(2,1) =-0.923123 Camada oculta Neurônio 2: w2(0,2) =-0.115223 w2(1,2) = 0.570345 w2(2,2) =-0.328932

Exemplo – Treinamento Forward (2) A entrada para camada de saída será x2(0) = 1 (bias) x2(1) = 0.584490 x2(2) = 0.471226 Para a camada de saída o resultado da função somadora é Neurônio 1: (1 *-0.993423) + (0.584490 * 0.164732) + (0.471226 * 0.752621) = -0.542484 Aplicando a função de ativação logística temos x3(1) = 1/(1+e^(0.542484)) = 0.367610 Camada de saía Neurônio 1: w3(0,1) =-0.993423 w3(1,1) = 0.164732 w3(2,1) = 0.752621

Exemplo – Treinamento Forward (3) O resultado esperado era 0 logo o erro é 0.367610.  A diferença a corrigir é dada por No caso em tela 3(1) = x3(1)*(1 - x3(1))*(d - x3(1)) 3(1) = x3(1)*(1 - x3(1))*(d - x3(1)) = = 0.367610 * (1 - 0.367610)(0 - 0.367610) = =-0.085459 x3(1) = 0.367610

Exemplo – Treinamento Backward (1) Para os neurônios da camada oculta as diferenças a corrigir são w3(1,1)3(1) é a diferença a corrigir neurônio 1 w3(2,1)3(1) é a diferença a corrigir neurônio 2   2(1) = x2(1)*(1 - x2(1))*w3(1,1)*3(1) = 0.584490 * (1 - 0.584490)*(0.164732)*(-0.085459) = -0.0034190 2(2) = x2(2)*(1 - x2(2))*w3(1,1)*3(1) 2(2) = 0.471226 * (1 - 0.471226)*(0.752621)*(-0.085459) = -0.0160263 x2(0) = 1 (bias) x2(1) = 0.584490 x2(2) = 0.471226 3(1) =-0.085459 w3(1,1) = 0.164732 w3(2,1) = 0.752621

Exemplo – Treinamento Backward (2) A atualização dos pesos das conexões é dada por sendo  o coeficiente de aprendizagem um amortecedor empírico, no caso com valor igual a 0,5.

Exemplo – Treinamento Backward (3) w2(0,1) = *x1(0)*2(1) = 0.5 * 1 * -0.0034190 = -0.017095 w2(1,1) =  *x1(1)*2(1) = 0.5 * 0 * -0.0034190 = 0 w2(2,1) =  *x1(2)*2(1) = = 0.5 * 0 * -0.0034190 0 w2(0,2) = *x1(0)*2(2) = 0.5 * 1 * -0.0160263 = -0.0080132 w2(1,2) = *x1(1)*2(2) = 0.5 * 0 * -0.0160263 = 0 w2(2,2) = *x1(2)*2(2) = 0.5 * 0 * -0.0160263 = 0 w3(0,1) = *x2(0)*3(1) = 0.5 * 1 * -0.085459 = -0.042730 w3(1,1) = *x2(0)*3(1) = 0.5 * 0.584490 * -0.085459 = -0.024975 w3(2,1) = *x2(0)*3(1) = 0.5 * 0.471226 * -0.085459 = -0.020135

Exemplo – Atualização dos pesos Valores atualizados dos pesos das conexões   w2(0,1) = 0.341232 + -0.017095 = 0,3395225 w2(1,1) = 0.129952 + 0 = 0.129952 w2(2,1) =-0.923123 + 0 =-0.923123 w2(0,2) =-0.115223 + = 0,10720985 w2(1,2) = 0.570345 + 0 = 0.570345 w2(2,2) =-0.328932 + 0 =-0.328932 w3(0,1) =-0.993423 + -0.042730 = 0,9506935 w3(1,1) = 0.164732 + -0.024975 = 0,139757035 w3(2,1) = 0.752621 + -0.020135 = 0,732485749