Carregar apresentação
A apresentação está carregando. Por favor, espere
1
Redes Neurais Artificiais (Parte 1)
3/25/2017 MD - Prof. Paulemir Campos
2
MD - Prof. Paulemir Campos
Roteiro da Aula Redes Neurais Artificiais (RNAs): Introdução; Tipos de RNAs; Aprendizado em RNAs. Referências. 3/25/2017 MD - Prof. Paulemir Campos
3
Redes Neurais Artificiais: Introdução
3/25/2017 MD - Prof. Paulemir Campos
4
MD - Prof. Paulemir Campos
O Que São RNAs? Redes Neurais Artificiais (RNAs) são modelos de computação com propriedades particulares: Capacidade de se adaptar ou aprender; Generalizar; Agrupar ou organizar dados. 3/25/2017 MD - Prof. Paulemir Campos
5
MD - Prof. Paulemir Campos
O Que São RNAs? RNAs: estruturas distribuídas formadas por grande número de unidades de processamento conectadas entre si; Multi-disciplinaridade: Ciência da Computação, Matemática, Física, Engenharias, Psicologia, Biologia, Lingüística, Filosofia, etc. 3/25/2017 MD - Prof. Paulemir Campos
6
MD - Prof. Paulemir Campos
O Que São RNAs? Modelos inspirados no cérebro humano: Compostas por várias unidades de processamento (“neurônios” ou nodos) interligadas por um grande número de conexões (“sinapses” ou pesos). Eficientes onde métodos tradicionais têm se mostrado inadequados. 3/25/2017 MD - Prof. Paulemir Campos
7
Exemplo de Topologia de uma RNA
O Que São RNAs? Exemplo de Topologia de uma RNA 3/25/2017 MD - Prof. Paulemir Campos
8
Características das RNAs
Aprendem através de exemplos; Adaptabilidade; Capacidade de generalização; Tolerância a falhas; Implementação rápida. 3/25/2017 MD - Prof. Paulemir Campos
9
MD - Prof. Paulemir Campos
História das RNAs Inter-relação entre Investigação do comportamento e estrutura do sistema nervoso através de experimentação e modelagem biológica; Desenvolvimento de modelos matemáticos e suas aplicações para a solução de vários problemas práticos. Simulação e implementação destes modelos. 3/25/2017 MD - Prof. Paulemir Campos
10
História das RNAs A Origem
( a. C.) Aristóteles escreveu: “De todos os animais, o homem, proporcionalmente, tem o maior cérebro.” (1700) Descartes acreditava que mente e cérebro eram entidades separadas; (1911) Ramon e Cajal introduzem a idéia de neurônios como estruturas básicas do cérebro. 3/25/2017 MD - Prof. Paulemir Campos
11
História das RNAs A Década de 1940: O Começo
(1943) McCulloch & Pitts: Provam, teoricamente, que qualquer função lógica pode ser implementada utilizando unidades de soma ponderada e threshold (limiar); (1949) Hebb desenvolve algoritmo para treinar RNA (aprendizado Hebbiano): Se dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser reforçada. 3/25/2017 MD - Prof. Paulemir Campos
12
História das RNAs 1950-1960: Anos de Euforia
(1958) Von Neumann mostra interesse em modelagem do cérebro (RNA): “The Computer and the Brain”, Yale University Press (1959) Rosenblatt implementa primeira RNA, a rede Perceptron: Ajuste iterativo de pesos; Prova teorema da convergência. 3/25/2017 MD - Prof. Paulemir Campos
13
História das RNAs Década de 1970: Pouca Atividade
(1969) Minsky & Papert analisam Perceptron e mostram suas limitações: Não poderiam aprender a resolver problemas simples como o OU-exclusivo; Causou grande repercussão. 3/25/2017 MD - Prof. Paulemir Campos
14
História das RNAs Década de 1970: Pouca Atividade
(1971) Aleksander propõe Redes Booleanas; (1972) Kohonen e Anderson trabalham com RNA Associativas; (1975) Grossberg desenvolve a Teoria da Ressonância Adaptiva (redes ART). 3/25/2017 MD - Prof. Paulemir Campos
15
História das RNAs Década de 1980: A Segunda Onda
(1982) Hopfield mostra que Redes Neurais podem ser tratadas como sistemas dinâmicos; (1986) Hinton, Rumelhart e Williams, propõem algoritmo de aprendizagem para redes multi-camadas: Parallel Distribuited Processing Paul Werbos (1974) 3/25/2017 MD - Prof. Paulemir Campos
16
Unidades de Processamento
Função: receber entradas de conjunto de unidades A, computar função sobre entradas e enviar resultado para conjunto de unidade B. Entrada Total: N u = xiwj i=1 3/25/2017 MD - Prof. Paulemir Campos
17
Unidades de Processamento
Representação Local: unidades representam objetos bem definidos (Ex. letras, palavras, faces, etc); Distribuída: unidades representam elementos abstratos. Localização das unidades Intermediária (escondida); Saída. 3/25/2017 MD - Prof. Paulemir Campos
18
Unidades de Processamento
Estado de ativação: Representa o estado dos neurônios da rede; Pode assumir valores: Binários (0 e 1); Bipolares (-1 e +1); Reais Definido através de funções de ativação. 3/25/2017 MD - Prof. Paulemir Campos
19
MD - Prof. Paulemir Campos
Funções de Ativação Processa conjunto de entradas recebidas e o transforma em estado de ativação; Funções de ativação típicas envolvem: Adições; Comparações; Transformações matemáticas. 3/25/2017 MD - Prof. Paulemir Campos
20
MD - Prof. Paulemir Campos
Funções de Ativação Função de ativação Atualiza estado de ativação a(t + 1) = F [a(t), u(t)] a(t + 1) = F [a(t)] a(t + 1) = F [u(t)] Atualização Síncrona (mais comum) Assíncrona 3/25/2017 MD - Prof. Paulemir Campos
21
MD - Prof. Paulemir Campos
Funções de Ativação Funções de ativação mais comuns 3/25/2017 MD - Prof. Paulemir Campos
22
MD - Prof. Paulemir Campos
Funções de Ativação Sigmoid Logística 3/25/2017 MD - Prof. Paulemir Campos
23
MD - Prof. Paulemir Campos
Funções de Ativação Tangente Hiperbólica 3/25/2017 MD - Prof. Paulemir Campos
24
MD - Prof. Paulemir Campos
Funções de Saída Função de saída Transforma estado de ativação de uma unidade em seu sinal de saída yi(t) = fi (ai(t)) Geralmente é uma função identidade. 3/25/2017 MD - Prof. Paulemir Campos
25
Valores de Entrada e Saída
Sinais de entrada e saída de uma RNA geralmente são números reais Números devem estar dentro de um intervalo Tipicamente entre -1 e +1 ou 0 e 1 Codificação realizada pelo projetista da rede Técnica de codificação mais simples é a binária Número restrito de aplicações. 3/25/2017 MD - Prof. Paulemir Campos
26
MD - Prof. Paulemir Campos
Conexões Definem como neurônios estão interligados Nós são conectados entre si através de conexões específicas. Codificam conhecimento da rede Uma conexão geralmente tem um valor de ponderamento ou peso associada a ela. 3/25/2017 MD - Prof. Paulemir Campos
27
MD - Prof. Paulemir Campos
Conexões Tipos de conexões (wik(t)) Excitatória: (wik(t) > 0) Inibitória: (wik(t) < 0) Conexão inexistente: (wik(t) = 0) Número de conexões de um nó Fan-in: número de conexões de entrada; Fan-out: número de conexões de saída. 3/25/2017 MD - Prof. Paulemir Campos
28
Redes Neurais Artificiais: Tipos
3/25/2017 MD - Prof. Paulemir Campos
29
MD - Prof. Paulemir Campos
Topologia Número de camadas Uma camada (Ex.: Perceptron, Adaline) Multi-camadas (Ex.: MLP) Completamente conectada; Parcialmente conectada; Localmente conectada. 3/25/2017 MD - Prof. Paulemir Campos
30
MD - Prof. Paulemir Campos
Topologia Completamente Conectada 3/25/2017 MD - Prof. Paulemir Campos
31
MD - Prof. Paulemir Campos
Topologia Parcialmente Conectada 3/25/2017 MD - Prof. Paulemir Campos
32
MD - Prof. Paulemir Campos
Topologia Localmente Conectada 3/25/2017 MD - Prof. Paulemir Campos
33
MD - Prof. Paulemir Campos
Topologia Arranjo das conexões: Redes Feedforward Não existem loops de conexões Redes Recorrentes Conexões apresentam loops Mais utilizadas em sistemas dinâmicos Lattices Matriz n-dimensional de neurônios 3/25/2017 MD - Prof. Paulemir Campos
34
MD - Prof. Paulemir Campos
Topologia Redes Feedforward Sinal segue numa única direção; Tipo mais comum. 3/25/2017 MD - Prof. Paulemir Campos
35
MD - Prof. Paulemir Campos
Topologia Redes Recorrentes Possuem conexões ligando saída da rede a sua entrada; Podem lembrar entradas passadas e, conseqüentemente, processar seqüência de informações (no tempo ou espaço) 3/25/2017 MD - Prof. Paulemir Campos
36
MD - Prof. Paulemir Campos
Topologia Redes Recorrentes 3/25/2017 MD - Prof. Paulemir Campos
37
MD - Prof. Paulemir Campos
Topologia Camada de Saída Nodo Vencedor Lattices 1 i n Camada de Entrada 3/25/2017 MD - Prof. Paulemir Campos
38
Redes Neurais Artificiais: Aprendizado
3/25/2017 MD - Prof. Paulemir Campos
39
MD - Prof. Paulemir Campos
Aprendizado Capacidade de aprender a partir de seu ambiente e melhorar sua performance com o tempo; Parâmetros livres de uma RNA são adaptados através de estímulos fornecidos pelo ambiente: Processo iterativo de ajustes aplicado a sinapses e thresholds; Idealmente, a RNA sabe mais sobre seu ambiente após cada iteração. 3/25/2017 MD - Prof. Paulemir Campos
40
Aprendizado RNA deve produzir para cada conjunto de entradas apresentado o conjunto de saídas desejado: wik(t+ 1) = wik(t) + wik(t) 3/25/2017 MD - Prof. Paulemir Campos
41
MD - Prof. Paulemir Campos
Aprendizado Mecanismos de aprendizado: Modificação de pesos (wij(t)) associados às conexões; Armazenamento de novos valores em conteúdos de memória; Acréscimo e/ou eliminação de conexões/neurônios. 3/25/2017 MD - Prof. Paulemir Campos
42
Paradigmas de Aprendizado
Os paradigmas de aprendizado em RNAs são: Aprendizado Supervisionado; Aprendizado por Reforço; Aprendizado Não-Supervisionado. 3/25/2017 MD - Prof. Paulemir Campos
43
Aprendizado Supervisionado
Professor externo: Possui conhecimento sobre ambiente Representado por conjunto de pares (x,d); Geralmente, a rede não possui informações prévias sobre ambiente. Parâmetros da rede são ajustados por (x,d); Rede procura emular professor. 3/25/2017 MD - Prof. Paulemir Campos
44
Aprendizado Supervisionado
Problema de atribuição de crédito: Atribuir crédito ou culpa pelo resultado à cada uma das decisões internas que contribuíram para ele; Para rede melhorar desempenho, o custo deve mover para ponto de mínimo na superfície de erro: Utiliza informação sobre gradiente da superfície para os parâmetros atuais da rede; Gradiente: vetor que aponta na direção da descida mais íngreme. 3/25/2017 MD - Prof. Paulemir Campos
45
Aprendizado Supervisionado
Formas de aprendizado supervisionado: Offline (estático) Módulo externo para aprendizado; Rede é congelada após o treinamento. Online (dinâmico) Rede nunca para de ser treinada; Aprendizado auto-contido Desvantagem: dependência do professor 3/25/2017 MD - Prof. Paulemir Campos
46
Aprendizado Supervisionado
Um algoritmo de aprendizado supervisionado é o aprendizado por correção de erro; 3/25/2017 MD - Prof. Paulemir Campos
47
Aprendizado Supervisionado
Aprendizado por Correção de Erro: Regra Delta (Widrow e Hoff 1960); Erro: ek(t) = dk(t) - yk(t); Minimizar função de custo baseada em ek(t); Função de custo c(t) = -1/2e2k(t) Minimização de c(t) utiliza método de gradiente descendente; Aprendizado atinge solução estável quando os pesos não precisam mudar muito. 3/25/2017 MD - Prof. Paulemir Campos
48
Aprendizado Supervisionado
Aprendizado por Correção de Erro (Cont.): Após seleção da função de custo, aprendizado se torna um problema de otimização: RNA é otimizada pela minimização de c(t) com respeito aos pesos da rede Modelo matemático: wik(t) = . ek(t) . xi(t) 3/25/2017 MD - Prof. Paulemir Campos
49
Aprendizado Por Reforço
Crítico externo: Processo de tentativa e erro; Procura maximizar sinal de reforço. Se ação tomada por sistema é seguida por estado satisfatório, sistema é fortalecido, caso contrário, sistema é enfraquecido (lei de Thorndike). 3/25/2017 MD - Prof. Paulemir Campos
50
Aprendizado Não-Supervisionado
Não tem crítico ou professor externo; Extração de características estatisticamente relevantes: Cria classes automaticamente. 3/25/2017 MD - Prof. Paulemir Campos
51
Aprendizado Não-Supervisionado
São métodos de aprendizado não-supervisionado: Aprendizado Hebbiano; Aprendizado Competitivo. 3/25/2017 MD - Prof. Paulemir Campos
52
Aprendizado Não-Supervisionado
Aprendizado Hebbiano: Regra mais antiga e famosa (Hebb 1949); Dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser fortalecida; Regra modificada (sinapse Hebbiana) Dois neurônios são ativados sincronamente, força da sinapse deve ser aumentada; Dois neurônios são ativados assincronamente, força da sinapse deve ser reduzida. 3/25/2017 MD - Prof. Paulemir Campos
53
Aprendizado Não-Supervisionado
Aprendizado Competitivo: Neurônios competem entre si para ser ativado; Apenas um neurônio se torna ativo (regra winner-takes-all); Adequado para descobrir características estatisticamente salientes: Podem classificar conjuntos de entradas 3/25/2017 MD - Prof. Paulemir Campos
54
MD - Prof. Paulemir Campos
Referências Braga, A. P.; Ludermir, T. B. e Carvalho, A. C. P. L. F. Redes Neurais Artificiais: Teoria e Aplicações. Editora LTC, 2000. Notas de aulas da Profa. Teresa B. Ludermir do CIn/UFPE. 3/25/2017 MD - Prof. Paulemir Campos
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.