Redes Neurais Artificiais (RNA): Perceptron

Slides:



Advertisements
Apresentações semelhantes
Rede Neural de Backpropagation
Advertisements

Redes Neurais Artificiais (RNA): Introdução
Redes Neurais Artificiais (RNA): Estudo de Caso
Prática de Alg. Genéticos
Redes Neurais Artificiais (RNA): Aprendizado
Algoritmos Genéticos Problema das 8 Rainhas Algoritmo Genético
Aspectos de Implementação do Algoritmo Backpropagation
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
AULA06-exercícios MLP.
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Redes Neurais Artificiais
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Redes Neurais Artificial
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Estatística Básica Utilizando o Excel
Aspectos da Implementação de Redes Neurais
Introdução à Inteligência Artificial Redes Neurais Artificiais Prof
Reconhecimento de Padrões Classificadores Lineares
Reconhecimento de Padrões Multi-Layer Perceptron (MLP)
Redes Neurais (Conceitos Fundamentais)
Centro de Informática - UFPE
Redes de Kohonen Paulo Adeodato e Germano Vasconcelos
Inteligência Artificial
Inteligência Artificial
Redes Neurais prof. Luis Otavio Alvares
INDICADORES DE PROCESSO E DE RESULTADO
Alexandre de Oliveira Stauffer
Inteligência Artificial
Classes e objetos P. O. O. Prof. Grace.
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Progressão Aritmética (PA) Professor : Eduardo Jatobá
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Inteligência Artificial Redes Neurias
Campus de Caraguatatuba
Professor: Juliano Lucas Gonçalves
Aprendizado de Máquina Aula 8
Introdução O que é computação?.
MECÂNICA - DINÂMICA Dinâmica de um Ponto Material: Impulso e Quantidade de Movimento Cap. 15.
1 ESTATÍSTICA. 2 UDIII - Relação Entre Duas ou Mais Variáveis ESTATÍSTICA Ass 01: Regressão Simples.
Redes Neurais Prof. Alex F. V. Machado.
Introdução teórica A modulação em freqüência consiste na variação da freqüência da portadora proporcionalmente ao sinal de informação. Dado o sinal modulador.
Aprendizado de Máquina
Conceitos de Lógica Digital
Prof: Luiz Carlos Zancanella :: INE / UFSC-SC 1 INE 5201 – Aula 002 Algoritmo Um conjunto de ações, com propriedades especiais e específicas e com algumas.
Redes Neurais Artificiais
ÁLGEBRA – AULA 2 Equações.
PROGRAMAÇÃO MATEMÁTICA MÉTODO SIMPLEX
Marcílio C. P. de Souto DIMAp/UFRN
Redes Neuronais/Neurais/ Conexionistas Introdução
Como Programar? Dicas para começar a programar bem
Redes Neurais Artificiais
Inteligência Artificial: Uma Abordagem de Aprendizado de Máquina
Adaline ta distância entre saída e resposta desejada
Nome alunos 1 Título UC. Título – slide 2 Conteúdo Conteúdo 2.
Campus de Caraguatatuba Matemática Discreta 1 – MD 1
(OU) Hardware da Rede Implementacao da rede
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Prof. Anne Magály de Paula Canuto
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Redes Neurais Artificiais
DAS MSPO Eduardo Camponogara
Inteligência Artificial
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Redes Neurais Artificiais (RNA): Perceptron Disciplina: Inteligência Artificial CONTEÚDO (1) Perceptron (2) Topologia (3) Aprendizado (4) Treinamento (5) Exercício (6) Adaline (7) Diferença entre Perceptron e Adaline (8) Projeto 1

Você deverá ser capaz de explicar: Ao final da aula... Você deverá ser capaz de explicar: O que é um problema lineamente separável A diferença entre Perceptron e Adaline O funcionamento do Perceptron A grande deficiência do Perceptron Diferença entre a função de ativação escada e a função de ativação sigmóide

(1) Perceptron Frank Rosenblatt introduz o conceito de aprendizado em 1958 e o modelo Perceptron. Composto por nodos MCP e regra de aprendizado. Sempre converge caso o problema seja linearmente separável.

(1) Perceptron Não teve vida muito longa; Muitas críticas em relação a sua capacidade computacional; Grande desinteresse na área nos anos 70 e início dos anos 80; Ganhou novo impulso com as descrições da rede de Hopfield em 1982 e do algoritmo Back-propagation em 1986.

(2) Perceptron - Topologia Unidades de Entrada (retina); Unidades de Associação (pesos fixos); Unidades de Resposta. Somente o nível de saída possui propriedades adaptativas! Por isso chamado de 1 camada!

(2) Perceptron - Topologia ∑ Θ r Resposta Associação Retina

(3) Perceptron - Aprendizado O desejo é encontrar a variação Δw onde será utilizado na atualização do valor de w(t), chegando próximo ao desejado.

(3) Perceptron - Aprendizado Ativação de um nodo é dado por: w’ . x’ ≥ θ, onde w’ é o vetor de pesos e x’ o vetor de entrada. Caso crítico, quando w’ . x’ = θ, ou w’ . x’ – θ = 0 Equivalente a adicionar um peso θ as entradas (como um peso) do nodo e conectar a um xi = -1. Assim w={θ, w1, w2,...wn} e x={-1,x1, x2,...xn} tendo w.x = 0 Olhar o site abaixo, para entender as explicações acima: http://diwww.epfl.ch/mantra/tutorial/english/perceptron/html/

(3) Perceptron - Aprendizado Considere o par de treinamento {x,d} Saída da rede será y Erro: e = d – y y є {0,1} e d є {0,1} e ≠ 0: d =1 e y = 0 ou d = 0 e y =1 Conclui-se na equação de atualização dos pesos: w(t +1) = w(t ) + ηex(t )

(4) Perceptron - Treinamento O algoritmo de treinamento sempre chega a uma solução para problemas linearmente separáveis.

(4) Perceptron - Treinamento Passos: Inicializar η e o vetor de pesos w; Repetir { Para cada par do conjunto de treinamento (x,y): Atualizar os pesos por: w(t+1) = w(t)+ηex(t) Até e=0 para todos os elementos do conjunto de treinamento em todos os nodos. Voltar para o site do applet do perceptron, e executar passo-a-passo: http://diwww.epfl.ch/mantra/tutorial/english/perceptron/html/

(5) Exercício Dado os vetores de treinamento: OBS: Saiba que: x[0] = -1 w[0] = θ Dado os vetores de treinamento: x1 = [-1 -0.1 0.4 -0.7 -1.8] com y = 1 x2 = [-1 0.1 0.2 -0.3 -0.9] com y = 0 Vetor de pesos iniciais zerados: w(0) = [0 0 0 0 0] //pode ser aleatório também E a taxa de aprendizagem: η = 0.05 Fórmula do erro: e(x) = d(x) - y(x) Fórmula de correção dos pesos: w(t+1) = w(t) + η * e(t) * x(t) Encontre os pesos finais, para 5 interações Realize esse exercício no papel, passo-a-passo: (1) monte a topologia da RNA; depois (2) monte uma tabela contendo todas as variáveis da sua rede, para fazer o acompanhamento

(6) Adaline Chamado de: ADAptive LINear Element e depois de ADAptive Linear NEuron Surgiu quase que simultaneamente com o perceptron Quase as mesmas características do perceptron, mas surgiu em área diferente.

Adaline surgiu dentro de um conceito de processamento de sinais. Frank Rosenblatt era psicólogo e o perceptron surgiu em uma revista de psicologia Adaline surgiu dentro de um conceito de processamento de sinais. Adaline possui saídas bipolares: y є [-1, +1] Seus pesos são adaptados em função de uma saída linear: y = ∑iwixi antes da aplicação da função de ativação.

(6) Adaline ∑ +1 -1 . w1 w2 wn x1 x2 xn ℮ yd - +

Trabalha semelhante ao perceptron: (6) Adaline Trabalha semelhante ao perceptron: Tenta minimizar o erro das saídas em relação aos valores desejados di do conjunto de treinamento

(6) Adaline Prova-se que, dada a fórmula do erro quadrático, chega-se a fórmula de ajuste dos pesos: Exatamente igual a do perceptron, só que os ajustes ocorrem de forma DIFERENTE! w(t+1) = wk(t) + ηex(t)

(7) Diferença entre Perceptron e Adaline A equação de ajuste foi obtida para a saída linear Perceptron: A equação foi obtida para a saída do nodo após a aplicação da função de ativação

Reconhecimento do T e H (Projeto em Delphi) Vetores: w = [0,0,0,0,0,0,0,0,0,0] w[0] = Θ , u = ∑xiwi - Θ y = 1/(1 + ε-u) // função de ativação sigmóide (0,1) e = (y * (1 - y)) * (d - y) n i=1

(8) Projeto 1 Passo 1: Passo 2: Passo 3: Calcular u Calcular y pela função sigmoidal Achar o erro Passo 3: Atualizar os pesos e o limiar pela fórmula conhecida: w(t+1) = w(t) + ηex(t) Até o passo 3, você tem um projeto em Delphi, que reconhece um T e um H...

(8) Projeto 1 Passo 4: Data da entrega: Abrir o arquivo Caractere.xls (www.fredbf.com), e seguir as intruções para extensão desse projeto Data da entrega: ??/??/2006 (unipe@fredbf.com) Seu trabalho é estender esse projeto... então, boa sorte!