A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

1/13/2014MD - Prof. Paulemir Campos1 Redes Neurais Artificiais (Parte 1)

Apresentações semelhantes


Apresentação em tema: "1/13/2014MD - Prof. Paulemir Campos1 Redes Neurais Artificiais (Parte 1)"— Transcrição da apresentação:

1 1/13/2014MD - Prof. Paulemir Campos1 Redes Neurais Artificiais (Parte 1)

2 1/13/2014MD - Prof. Paulemir Campos2 Roteiro da Aula Redes Neurais Artificiais (RNAs): Introdução; Tipos de RNAs; Aprendizado em RNAs. Referências.

3 1/13/2014MD - Prof. Paulemir Campos3 Redes Neurais Artificiais: Introdução

4 1/13/2014MD - Prof. Paulemir Campos4 O Que São RNAs? Redes Neurais Artificiais (RNAs) são modelos de computação com propriedades particulares: Capacidade de se adaptar ou aprender; Generalizar; Agrupar ou organizar dados.

5 1/13/2014MD - Prof. Paulemir Campos5 O Que São RNAs? RNAs: estruturas distribuídas formadas por grande número de unidades de processamento conectadas entre si; Multi-disciplinaridade: Ciência da Computação, Matemática, Física, Engenharias, Psicologia, Biologia, Lingüística, Filosofia, etc.

6 1/13/2014MD - Prof. Paulemir Campos6 O Que São RNAs? Modelos inspirados no cérebro humano: Compostas por várias unidades de processamento (neurônios ou nodos) interligadas por um grande número de conexões (sinapses ou pesos). Eficientes onde métodos tradicionais têm se mostrado inadequados.

7 1/13/2014MD - Prof. Paulemir Campos7 O Que São RNAs? Exemplo de Topologia de uma RNA

8 1/13/2014MD - Prof. Paulemir Campos8 Características das RNAs Aprendem através de exemplos; Adaptabilidade; Capacidade de generalização; Tolerância a falhas; Implementação rápida.

9 1/13/2014MD - Prof. Paulemir Campos9 História das RNAs Inter-relação entre Investigação do comportamento e estrutura do sistema nervoso através de experimentação e modelagem biológica; Desenvolvimento de modelos matemáticos e suas aplicações para a solução de vários problemas práticos. Simulação e implementação destes modelos.

10 1/13/2014MD - Prof. Paulemir Campos10 História das RNAs A Origem ( a. C.) Aristóteles escreveu: De todos os animais, o homem, proporcionalmente, tem o maior cérebro. (1700) Descartes acreditava que mente e cérebro eram entidades separadas; (1911) Ramon e Cajal introduzem a idéia de neurônios como estruturas básicas do cérebro.

11 1/13/2014MD - Prof. Paulemir Campos11 História das RNAs A Década de 1940: O Começo (1943) McCulloch & Pitts: Provam, teoricamente, que qualquer função lógica pode ser implementada utilizando unidades de soma ponderada e threshold (limiar); (1949) Hebb desenvolve algoritmo para treinar RNA (aprendizado Hebbiano): Se dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser reforçada.

12 1/13/2014MD - Prof. Paulemir Campos12 História das RNAs : Anos de Euforia (1958) Von Neumann mostra interesse em modelagem do cérebro (RNA): The Computer and the Brain, Yale University Press (1959) Rosenblatt implementa primeira RNA, a rede Perceptron: Ajuste iterativo de pesos; Prova teorema da convergência.

13 1/13/2014MD - Prof. Paulemir Campos13 História das RNAs Década de 1970: Pouca Atividade (1969) Minsky & Papert analisam Perceptron e mostram suas limitações: Não poderiam aprender a resolver problemas simples como o OU-exclusivo; Causou grande repercussão.

14 1/13/2014MD - Prof. Paulemir Campos14 História das RNAs Década de 1970: Pouca Atividade (1971) Aleksander propõe Redes Booleanas; (1972) Kohonen e Anderson trabalham com RNA Associativas; (1975) Grossberg desenvolve a Teoria da Ressonância Adaptiva (redes ART).

15 1/13/2014MD - Prof. Paulemir Campos15 História das RNAs Década de 1980: A Segunda Onda (1982) Hopfield mostra que Redes Neurais podem ser tratadas como sistemas dinâmicos; (1986) Hinton, Rumelhart e Williams, propõem algoritmo de aprendizagem para redes multi-camadas: Parallel Distribuited Processing Paul Werbos (1974)

16 1/13/2014MD - Prof. Paulemir Campos16 Unidades de Processamento Função: receber entradas de conjunto de unidades A, computar função sobre entradas e enviar resultado para conjunto de unidade B. Entrada Total: N u = x i w j i=1

17 1/13/2014MD - Prof. Paulemir Campos17 Unidades de Processamento Representação Local: unidades representam objetos bem definidos (Ex. letras, palavras, faces, etc); Distribuída: unidades representam elementos abstratos. Localização das unidades Intermediária (escondida); Saída.

18 1/13/2014MD - Prof. Paulemir Campos18 Unidades de Processamento Estado de ativação: Representa o estado dos neurônios da rede; Pode assumir valores: Binários (0 e 1); Bipolares (-1 e +1); Reais Definido através de funções de ativação.

19 1/13/2014MD - Prof. Paulemir Campos19 Funções de Ativação Processa conjunto de entradas recebidas e o transforma em estado de ativação; Funções de ativação típicas envolvem: Adições; Comparações; Transformações matemáticas.

20 1/13/2014MD - Prof. Paulemir Campos20 Funções de Ativação Função de ativação Atualiza estado de ativação a(t + 1) = F [a(t), u(t)] a(t + 1) = F [a(t)] a(t + 1) = F [u(t)] Atualização Síncrona (mais comum) Assíncrona

21 1/13/2014MD - Prof. Paulemir Campos21 Funções de Ativação Funções de ativação mais comuns

22 1/13/2014MD - Prof. Paulemir Campos22 Funções de Ativação Sigmoid Logística

23 1/13/2014MD - Prof. Paulemir Campos23 Funções de Ativação Tangente Hiperbólica

24 1/13/2014MD - Prof. Paulemir Campos24 Funções de Saída Função de saída Transforma estado de ativação de uma unidade em seu sinal de saída y i (t) = f i (a i (t)) Geralmente é uma função identidade.

25 1/13/2014MD - Prof. Paulemir Campos25 Valores de Entrada e Saída Sinais de entrada e saída de uma RNA geralmente são números reais Números devem estar dentro de um intervalo Tipicamente entre -1 e +1 ou 0 e 1 Codificação realizada pelo projetista da rede Técnica de codificação mais simples é a binária Número restrito de aplicações.

26 1/13/2014MD - Prof. Paulemir Campos26 Conexões Definem como neurônios estão interligados Nós são conectados entre si através de conexões específicas. Codificam conhecimento da rede Uma conexão geralmente tem um valor de ponderamento ou peso associada a ela.

27 1/13/2014MD - Prof. Paulemir Campos27 Conexões Tipos de conexões (w ik (t)) Excitatória: (w ik (t) > 0) Inibitória: (w ik (t) < 0) Conexão inexistente: (w ik (t) = 0) Número de conexões de um nó Fan-in: número de conexões de entrada; Fan-out: número de conexões de saída.

28 1/13/2014MD - Prof. Paulemir Campos28 Redes Neurais Artificiais: Tipos

29 1/13/2014MD - Prof. Paulemir Campos29 Topologia Número de camadas Uma camada (Ex.: Perceptron, Adaline) Multi-camadas (Ex.: MLP) Completamente conectada; Parcialmente conectada; Localmente conectada.

30 1/13/2014MD - Prof. Paulemir Campos30 Topologia Completamente Conectada

31 1/13/2014MD - Prof. Paulemir Campos31 Topologia Parcialmente Conectada

32 1/13/2014MD - Prof. Paulemir Campos32 Topologia Localmente Conectada

33 1/13/2014MD - Prof. Paulemir Campos33 Topologia Arranjo das conexões: Redes Feedforward Não existem loops de conexões Redes Recorrentes Conexões apresentam loops Mais utilizadas em sistemas dinâmicos Lattices Matriz n-dimensional de neurônios

34 1/13/2014MD - Prof. Paulemir Campos34 Topologia Redes Feedforward Sinal segue numa única direção; Tipo mais comum.

35 1/13/2014MD - Prof. Paulemir Campos35 Topologia Redes Recorrentes Possuem conexões ligando saída da rede a sua entrada; Podem lembrar entradas passadas e, conseqüentemente, processar seqüência de informações (no tempo ou espaço)

36 1/13/2014MD - Prof. Paulemir Campos36 Topologia Redes Recorrentes

37 1/13/2014MD - Prof. Paulemir Campos37 Topologia Lattices... Camada de Entrada 1in Camada de Saída Nodo Vencedor

38 1/13/2014MD - Prof. Paulemir Campos38 Redes Neurais Artificiais: Aprendizado

39 1/13/2014MD - Prof. Paulemir Campos39 Aprendizado Capacidade de aprender a partir de seu ambiente e melhorar sua performance com o tempo; Parâmetros livres de uma RNA são adaptados através de estímulos fornecidos pelo ambiente: Processo iterativo de ajustes aplicado a sinapses e thresholds; Idealmente, a RNA sabe mais sobre seu ambiente após cada iteração.

40 1/13/2014MD - Prof. Paulemir Campos40 Aprendizado RNA deve produzir para cada conjunto de entradas apresentado o conjunto de saídas desejado: w ik (t+ 1) = w ik (t) + w ik (t)

41 1/13/2014MD - Prof. Paulemir Campos41 Aprendizado Mecanismos de aprendizado: Modificação de pesos ( w ij (t)) associados às conexões; Armazenamento de novos valores em conteúdos de memória; Acréscimo e/ou eliminação de conexões/neurônios.

42 1/13/2014MD - Prof. Paulemir Campos42 Paradigmas de Aprendizado Os paradigmas de aprendizado em RNAs são: Aprendizado Supervisionado; Aprendizado por Reforço; Aprendizado Não-Supervisionado.

43 1/13/2014MD - Prof. Paulemir Campos43 Aprendizado Supervisionado Professor externo: Possui conhecimento sobre ambiente Representado por conjunto de pares (x,d); Geralmente, a rede não possui informações prévias sobre ambiente. Parâmetros da rede são ajustados por (x,d); Rede procura emular professor.

44 1/13/2014MD - Prof. Paulemir Campos44 Aprendizado Supervisionado Problema de atribuição de crédito: Atribuir crédito ou culpa pelo resultado à cada uma das decisões internas que contribuíram para ele; Para rede melhorar desempenho, o custo deve mover para ponto de mínimo na superfície de erro: Utiliza informação sobre gradiente da superfície para os parâmetros atuais da rede; Gradiente: vetor que aponta na direção da descida mais íngreme.

45 1/13/2014MD - Prof. Paulemir Campos45 Aprendizado Supervisionado Formas de aprendizado supervisionado: Offline (estático) Módulo externo para aprendizado; Rede é congelada após o treinamento. Online (dinâmico) Rede nunca para de ser treinada; Aprendizado auto-contido Desvantagem: dependência do professor

46 1/13/2014MD - Prof. Paulemir Campos46 Aprendizado Supervisionado Um algoritmo de aprendizado supervisionado é o aprendizado por correção de erro;

47 1/13/2014MD - Prof. Paulemir Campos47 Aprendizado Supervisionado Aprendizado por Correção de Erro: Regra Delta (Widrow e Hoff 1960); Erro: e k (t) = d k (t) - y k (t); Minimizar função de custo baseada em e k (t); Função de custo c(t) = -1/2 e 2 k (t) Minimização de c(t) utiliza método de gradiente descendente; Aprendizado atinge solução estável quando os pesos não precisam mudar muito.

48 1/13/2014MD - Prof. Paulemir Campos48 Aprendizado Supervisionado Aprendizado por Correção de Erro (Cont.): Após seleção da função de custo, aprendizado se torna um problema de otimização: RNA é otimizada pela minimização de c(t) com respeito aos pesos da rede Modelo matemático: w ik (t) =. e k (t). x i (t)

49 1/13/2014MD - Prof. Paulemir Campos49 Aprendizado Por Reforço Crítico externo: Processo de tentativa e erro; Procura maximizar sinal de reforço. Se ação tomada por sistema é seguida por estado satisfatório, sistema é fortalecido, caso contrário, sistema é enfraquecido (lei de Thorndike).

50 1/13/2014MD - Prof. Paulemir Campos50 Aprendizado Não-Supervisionado Não tem crítico ou professor externo; Extração de características estatisticamente relevantes: Cria classes automaticamente.

51 1/13/2014MD - Prof. Paulemir Campos51 Aprendizado Não-Supervisionado São métodos de aprendizado não- supervisionado: Aprendizado Hebbiano; Aprendizado Competitivo.

52 1/13/2014MD - Prof. Paulemir Campos52 Aprendizado Não-Supervisionado Aprendizado Hebbiano: Regra mais antiga e famosa (Hebb 1949); Dois neurônios estão simultaneamente ativos, a conexão entre eles deve ser fortalecida; Regra modificada (sinapse Hebbiana) Dois neurônios são ativados sincronamente, força da sinapse deve ser aumentada; Dois neurônios são ativados assincronamente, força da sinapse deve ser reduzida.

53 1/13/2014MD - Prof. Paulemir Campos53 Aprendizado Não-Supervisionado Aprendizado Competitivo: Neurônios competem entre si para ser ativado; Apenas um neurônio se torna ativo (regra winner-takes-all); Adequado para descobrir características estatisticamente salientes: Podem classificar conjuntos de entradas

54 1/13/2014MD - Prof. Paulemir Campos54 Referências Braga, A. P.; Ludermir, T. B. e Carvalho, A. C. P. L. F. Redes Neurais Artificiais: Teoria e Aplicações. Editora LTC, Notas de aulas da Profa. Teresa B. Ludermir do CIn/UFPE.


Carregar ppt "1/13/2014MD - Prof. Paulemir Campos1 Redes Neurais Artificiais (Parte 1)"

Apresentações semelhantes


Anúncios Google