A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

AULA 03 PERCEPTRON SIMPLES. Perceptron Clássico – Rosenblatt (1958) Embora essa topologia possua 3 níveis, é conhecida como perceptron de uma camada,

Apresentações semelhantes


Apresentação em tema: "AULA 03 PERCEPTRON SIMPLES. Perceptron Clássico – Rosenblatt (1958) Embora essa topologia possua 3 níveis, é conhecida como perceptron de uma camada,"— Transcrição da apresentação:

1 AULA 03 PERCEPTRON SIMPLES

2 Perceptron Clássico – Rosenblatt (1958) Embora essa topologia possua 3 níveis, é conhecida como perceptron de uma camada, pois somente as unidades de saída possuem propriedades adaptativas. As unidades intermediárias, possuem pesos fixos, definidos antes do período de treinamento.

3 Perceptron Basicamente o perceptron consiste de uma única camada de neurônios com com pesos sinápticos e bias ajustáveis. Se os padrões de entrada forem linearmente separáveis, o algoritmo de treinamento possui convergência garantida, i.é, tem capacidade para encontrar um conjunto de pesos que classifica corretamente os dados. Os neurônios do perceptron são similares ao de McCulloch-Pitts, por terem a função de ativação do tipo degrau, mas possuem pesos associados e bias. Função degrau

4 Treinamento de um único neurônio O algoritmo do perceptron: para cada padrão de treinamento x i, a saída da rede y i é calculada. determina-se o erro e i entre a saída desejada para esse padrão d i e a saída da rede y i, (e i = d i – y i ). O vetor de pesos e o bias são atualizados de acordo com as regras:

5 Algoritmo de treinamento de um único neurônio Para classificação padrões de entrada como pertencentes ou não a uma dada classe, seja o conjunto de treinamento formado por N amostras {x 1,d 1 }, {x 2,d 2 },..., {x N,d N }, onde x j é o vetor de entradas e d j a saída desejada, que em notação vetorial tem-se {X,d}, onde: e Procedure [w] = perceptron (max_it, E,, X,d) inicializar w // para simplicidade, com zeros inicializar b // para simplicidade, com zero t 1 while t 0 do for i from 1 to N do // para cada padrão de entrada y i f(w x i + b) // determinar a saída e i d i – y i // determinar o erro w w + e i x i // atualizar o vetor peso b b + e i // atualizar o bias end for E sum (e i ) //quantidade de erros t t + 1 end while end procedure

6 Exemplo: função AND Iniciando os pesos e o limiar em zero w = [0 0], b = 0 e = 1, tem-se w 1 = 2, w 2 = 1, b = -3 e a equação da reta 2x 1 + 1x 2 – 3 = 0. T emos como vetores de entrada e saída desejada: Entrada (1,1)

7 Algoritmo de treinamento para perceptron de múltiplos neurônios Procedure [W] = perceptron (max_it,, X,D) inicializar W // para simplicidade, com zeros inicializar b // para simplicidade, com zero t 1 while t < max_it do for i from 1 to N do // para cada padrão de entrada y i f(W x i + b) // determinar a saída e i d i – y i // determinar o erro W W + e i x i T // atualizar a matriz peso b b + e i // atualizar o vetor bias end for t t + 1 end while end procedure Nesse caso, para cada vetor de entradas tem-se um vetor de saída:

8 Adaline Na mesma époce em que Rosenblatt propôs o perceptron, Widrow e Hoff propuseram o algoritmo dos mínimos quadrados (regra delta) para a rede Adaline (Adaptive Linear Element), similar ao perceptron, porém com função de ativação linear ao invés de função degrau. O objetivo do algoritmo de treinamento é minimizar o erro quadrático médio (MSE) entre a saída de rede e a saída desejada. A soma dos erros quadráticos para um determinado padrão é dada por: O gradiente de, também denominado de índice de desempenho ou função custo, fornece a direção de crescimento mais rápido de. Portanto, a direção oposta ao gradiente de é a direção de maior decrescimento

9 Adaline (cont.) O erro pode ser reduzido ajustando-se os pesos da rede de acordo com onde w IJ é o peso específico para o neurônio pós-sináptico I, da entrada J, e é a taxa de aprendizagem. Como C omo w IJ influencia apenas o neurônio I,

10 regra delta Portanto a regra delta para o adaline resume-se em: Em notação vetorial tem-se:


Carregar ppt "AULA 03 PERCEPTRON SIMPLES. Perceptron Clássico – Rosenblatt (1958) Embora essa topologia possua 3 níveis, é conhecida como perceptron de uma camada,"

Apresentações semelhantes


Anúncios Google