A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

AULA 03 PERCEPTRON SIMPLES.

Apresentações semelhantes


Apresentação em tema: "AULA 03 PERCEPTRON SIMPLES."— Transcrição da apresentação:

1 AULA 03 PERCEPTRON SIMPLES

2 Perceptron Clássico – Rosenblatt (1958)
Embora essa topologia possua 3 níveis, é conhecida como perceptron de uma camada, pois somente as unidades de saída possuem propriedades adaptativas. As unidades intermediárias, possuem pesos fixos, definidos antes do período de treinamento.

3 Perceptron Basicamente o perceptron consiste de uma única camada de neurônios com com pesos sinápticos e bias ajustáveis. Se os padrões de entrada forem linearmente separáveis, o algoritmo de treinamento possui convergência garantida, i.é, tem capacidade para encontrar um conjunto de pesos que classifica corretamente os dados. Os neurônios do perceptron são similares ao de McCulloch-Pitts, por terem a função de ativação do tipo degrau, mas possuem pesos associados e bias. Função degrau

4 Treinamento de um único neurônio
O algoritmo do perceptron: para cada padrão de treinamento xi, a saída da rede yi é calculada. determina-se o erro ei entre a saída desejada para esse padrão di e a saída da rede yi, (ei = di – yi). O vetor de pesos e o bias são atualizados de acordo com as regras:

5 Algoritmo de treinamento de um único neurônio
Para classificação padrões de entrada como pertencentes ou não a uma dada classe, seja o conjunto de treinamento formado por N amostras {x1,d1}, {x2,d2}, ..., {xN,dN}, onde xj é o vetor de entradas e dj a saída desejada, que em notação vetorial tem-se {X,d}, onde: e Procedure [w] = perceptron (max_it, E, a, X,d) inicializar w // para simplicidade, com zeros inicializar b // para simplicidade, com zero t  1 while t < max_it & E > 0 do for i from 1 to N do // para cada padrão de entrada yi  f(w xi + b) // determinar a saída ei  di – yi // determinar o erro w  w + a ei xi // atualizar o vetor peso b  b + a ei // atualizar o bias end for E  sum (ei) //quantidade de erros t  t + 1 end while end procedure

6 Exemplo: função AND Entrada (1,1)
Temos como vetores de entrada e saída desejada: Iniciando os pesos e o limiar em zero w = [0 0], b = 0 e a = 1, tem-se w1 = 2, w2 = 1, b = -3 e a equação da reta 2x1 + 1x2 – 3 = 0.

7 Algoritmo de treinamento para perceptron de múltiplos neurônios
Nesse caso, para cada vetor de entradas tem-se um vetor de saída: Procedure [W] = perceptron (max_it, a, X,D) inicializar W // para simplicidade, com zeros inicializar b // para simplicidade, com zero t  1 while t < max_it do for i from 1 to N do // para cada padrão de entrada yi  f(W xi + b) // determinar a saída ei  di – yi // determinar o erro W  W + a ei xiT // atualizar a matriz peso b  b + a ei // atualizar o vetor bias end for t  t + 1 end while end procedure

8 Adaline Na mesma époce em que Rosenblatt propôs o perceptron, Widrow e Hoff propuseram o algoritmo dos mínimos quadrados (regra delta) para a rede Adaline (Adaptive Linear Element), similar ao perceptron, porém com função de ativação linear ao invés de função degrau. O objetivo do algoritmo de treinamento é minimizar o erro quadrático médio (MSE) entre a saída de rede e a saída desejada. A soma dos erros quadráticos para um determinado padrão é dada por: O gradiente de , também denominado de índice de desempenho ou função custo, fornece a direção de crescimento mais rápido de . Portanto, a direção oposta ao gradiente de é a direção de maior decrescimento

9 Adaline (cont.) O erro pode ser reduzido ajustando-se os pesos da rede de acordo com onde wIJ é o peso específico para o neurônio pós-sináptico I, da entrada J, e a é a taxa de aprendizagem . Como wIJ influencia apenas o neurônio I, Como

10 regra delta Portanto a regra delta para o adaline resume-se em:
Em notação vetorial tem-se:


Carregar ppt "AULA 03 PERCEPTRON SIMPLES."

Apresentações semelhantes


Anúncios Google