Carregar apresentação
1
Redes Neurais Artificiais (RNA): Perceptron
Disciplina: Inteligência Artificial CONTEÚDO (1) Perceptron (2) Topologia (3) Aprendizado (4) Treinamento (5) Exercício (6) Adaline (7) Diferença entre Perceptron e Adaline (8) Projeto 1
2
Você deverá ser capaz de explicar:
Ao final da aula... Você deverá ser capaz de explicar: O que é um problema lineamente separável A diferença entre Perceptron e Adaline O funcionamento do Perceptron A grande deficiência do Perceptron Diferença entre a função de ativação escada e a função de ativação sigmóide
3
(1) Perceptron Frank Rosenblatt introduz o conceito de aprendizado em 1958 e o modelo Perceptron. Composto por nodos MCP e regra de aprendizado. Sempre converge caso o problema seja linearmente separável.
4
(1) Perceptron Não teve vida muito longa; Muitas críticas em relação a sua capacidade computacional; Grande desinteresse na área nos anos 70 e início dos anos 80; Ganhou novo impulso com as descrições da rede de Hopfield em 1982 e do algoritmo Back-propagation em 1986.
5
(2) Perceptron - Topologia
Unidades de Entrada (retina); Unidades de Associação (pesos fixos); Unidades de Resposta. Somente o nível de saída possui propriedades adaptativas! Por isso chamado de 1 camada!
6
(2) Perceptron - Topologia
∑ Θ r Resposta Associação Retina
7
(3) Perceptron - Aprendizado
O desejo é encontrar a variação Δw onde será utilizado na atualização do valor de w(t), chegando próximo ao desejado.
8
(3) Perceptron - Aprendizado
Ativação de um nodo é dado por: w’ . x’ ≥ θ, onde w’ é o vetor de pesos e x’ o vetor de entrada. Caso crítico, quando w’ . x’ = θ, ou w’ . x’ – θ = 0 Equivalente a adicionar um peso θ as entradas (como um peso) do nodo e conectar a um xi = -1. Assim w={θ, w1, w2,...wn} e x={-1,x1, x2,...xn} tendo w.x = 0 Olhar o site abaixo, para entender as explicações acima:
9
(3) Perceptron - Aprendizado
Considere o par de treinamento {x,d} Saída da rede será y Erro: e = d – y y є {0,1} e d є {0,1} e ≠ 0: d =1 e y = 0 ou d = 0 e y =1 Conclui-se na equação de atualização dos pesos: w(t +1) = w(t ) + ηex(t )
10
(4) Perceptron - Treinamento
O algoritmo de treinamento sempre chega a uma solução para problemas linearmente separáveis.
11
(4) Perceptron - Treinamento
Passos: Inicializar η e o vetor de pesos w; Repetir { Para cada par do conjunto de treinamento (x,y): Atualizar os pesos por: w(t+1) = w(t)+ηex(t) Até e=0 para todos os elementos do conjunto de treinamento em todos os nodos. Voltar para o site do applet do perceptron, e executar passo-a-passo:
12
(5) Exercício Dado os vetores de treinamento:
OBS: Saiba que: x[0] = -1 w[0] = θ Dado os vetores de treinamento: x1 = [ ] com y = 1 x2 = [ ] com y = 0 Vetor de pesos iniciais zerados: w(0) = [ ] //pode ser aleatório também E a taxa de aprendizagem: η = 0.05 Fórmula do erro: e(x) = d(x) - y(x) Fórmula de correção dos pesos: w(t+1) = w(t) + η * e(t) * x(t) Encontre os pesos finais, para 5 interações Realize esse exercício no papel, passo-a-passo: (1) monte a topologia da RNA; depois (2) monte uma tabela contendo todas as variáveis da sua rede, para fazer o acompanhamento
13
(6) Adaline Chamado de: ADAptive LINear Element e depois de ADAptive Linear NEuron Surgiu quase que simultaneamente com o perceptron Quase as mesmas características do perceptron, mas surgiu em área diferente.
14
Adaline surgiu dentro de um conceito de processamento de sinais.
Frank Rosenblatt era psicólogo e o perceptron surgiu em uma revista de psicologia Adaline surgiu dentro de um conceito de processamento de sinais. Adaline possui saídas bipolares: y є [-1, +1] Seus pesos são adaptados em função de uma saída linear: y = ∑iwixi antes da aplicação da função de ativação.
15
(6) Adaline ∑ +1 -1 . w1 w2 wn x1 x2 xn ℮ yd - +
16
Trabalha semelhante ao perceptron:
(6) Adaline Trabalha semelhante ao perceptron: Tenta minimizar o erro das saídas em relação aos valores desejados di do conjunto de treinamento
17
(6) Adaline Prova-se que, dada a fórmula do erro quadrático, chega-se a fórmula de ajuste dos pesos: Exatamente igual a do perceptron, só que os ajustes ocorrem de forma DIFERENTE! w(t+1) = wk(t) + ηex(t)
18
(7) Diferença entre Perceptron e Adaline
A equação de ajuste foi obtida para a saída linear Perceptron: A equação foi obtida para a saída do nodo após a aplicação da função de ativação
19
Reconhecimento do T e H (Projeto em Delphi) Vetores:
w = [0,0,0,0,0,0,0,0,0,0] w[0] = Θ , u = ∑xiwi - Θ y = 1/(1 + ε-u) // função de ativação sigmóide (0,1) e = (y * (1 - y)) * (d - y) n i=1
20
(8) Projeto 1 Passo 1: Passo 2: Passo 3: Calcular u
Calcular y pela função sigmoidal Achar o erro Passo 3: Atualizar os pesos e o limiar pela fórmula conhecida: w(t+1) = w(t) + ηex(t) Até o passo 3, você tem um projeto em Delphi, que reconhece um T e um H...
21
(8) Projeto 1 Passo 4: Data da entrega:
Abrir o arquivo Caractere.xls ( e seguir as intruções para extensão desse projeto Data da entrega: ??/??/2006 Seu trabalho é estender esse projeto... então, boa sorte!
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.