A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Redes Neurais Artificiais (RNA)

Apresentações semelhantes


Apresentação em tema: "Redes Neurais Artificiais (RNA)"— Transcrição da apresentação:

1 Redes Neurais Artificiais (RNA)
Prof. Alexandre Monteiro Recife

2 Contatos Prof. Guilherme Alexandre Monteiro Reinaldo
Apelido: Alexandre Cordel Site: Celular: (81)

3 Sumário Introdução Inspiração biológica Histórico Neurônio artificial
Treinamento do neurônio Redes de neurônios Treinamento da rede Aplicações Extração de regras

4 Inteligência Computacional
A Inteligência Computacional busca, através de técnicas inspiradas na Natureza, o desenvolvimento de sistemas inteligentes que imitem aspectos do comportamento humano, tais como: aprendizado, percepção, raciocínio, evolução e adaptação.

5

6 Redes Neurais Artificiais (RNA)
Definições: Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. Técnica de aproximação de funções por regressão não linear.

7 Capacidade de Generalização
Isso significa que se a rede aprende a lidar com um certo problema, e lhe é apresentado um similar, mas não exatamente o mesmo, ela tende a reconhecer esse novo problema, oferecendo a mesma solução.

8 Aproximador de funções
A característica mais significante de redes neurais está em sua habilidade de aproximar qualquer função contínua ou não contínua com um grau de correção desejado. Esta habilidade das redes neurais as tem tornado útil para modelar sistemas não lineares.

9 Mapeamento Entrada-Saída para Aproximação de Funções
Objetivo da Aprendizagem: descobrir a função f() dado um número finito (desejável pequeno) de pares entrada-saída (x,d).

10 Redes Neurais Artificiais (RNA)
Devido à sua estrutura, as Redes Neurais Artificiais são bastante efetivas no aprendizado de padrões a partir de dados: não-lineares, incompletos, com ruído e até compostos de exemplos contraditórios.

11 Técnica x Natureza Técnica Computacional Inspiração na Natureza
Redes Neurais Artificiais Neurônios biológicos Computação Evolucionária Evolução biológica Lógica Fuzzy Processamento lingüístico Sistemas Especialistas Processo de Inferência

12

13 Os principais componentes dos neurônios são:
Os dentritos, que tem por função, receber os estímulos transmitidos pelos outros neurônios; O corpo de neurônio, também chamado de soma, que é responsável por coletar e combinar informações vindas de outros neurônios; E finalmente o axônio, que é constituído de uma fibra tubular que pode alcançar até alguns metros, e é responsável por transmitir os estímulos para outras células.

14 Em média, cada neurônio forma entre mil e dez mil sinapses.
O cérebro humano possui cerca de 1011 neurônios, e o número de sinapses é de mais de 1014, possibilitando a formação de redes muito complexas.

15 Cérebro humano

16 Quadro comparativo entre cérebro e o computador
 Parâmetro  Cérebro  Computador  Material  Orgânico  Metal e plástico  Velocidade  Milisegundos  Nanosegundos  Tipo de Processamento  Paralelo  Seqüencial  Armazenamento  Adaptativo  Estático  Controle de Processos  Distribuído  Centralizado  Número de elementos processados  1011 à 1014  105 à 106 Eficiência energética 10-16 J/op./seg. 10-6 J/op./seg  Ligações entre elementos processados  10.000  <10

17 Histórico (1943) O neurofisiologista McCulloch e matemático Walter Pitts (1943), cujo trabalho fazia uma analogia entre células vivas e o processo eletrônico, simulando o comportamento do neurônio natural, onde o neurônio possuía apenas uma saída, que era uma função do valor de suas diversas entradas.

18 O neurônio de McCulloch e Pitts
Consiste basicamente de um neurônio que executa uma função lógica. Os nós produzem somente resultados binários e as conexões transmitem exclusivamente zeros e uns. As redes são compostas de conexões sem peso, de tipos excitatórios e inibitórios. Cada unidade é caracterizada por um certo limiar (threshold) q.

19 Histórico (1949) O psicólogo Donald Hebb, demostrou que a capacidade da aprendizagem em redes neurais biológicas vem da alteração da eficiência sináptica, isto é, a conexão somente é reforçada se tanto as células pré-sinápticas quanto as pós-sinápticas estiverem excitadas; Hebb foi o primeiro a propor uma lei de aprendizagem específica para as sinapses dos neurônios.

20 Histórico (1951) Construção do primeiro neuro computador, denominado Snark, por Mavin Minsky. O Snark operava ajustando seus pesos automaticamente.

21 Histórico (1956) Surgimento dos dois paradigmas da Inteligência Artificial: Simbólica: tenta simular o comportamento inteligente humano desconsiderando os mecanismos responsáveis por tal. Conexionista: acredita que construindo-se um sistema que simule a estrutura do cérebro, este sistema apresentará inteligência, ou seja, será capaz de aprender, assimilar, errar e aprender com seus erros.

22 Histórico (1958) Rosemblatt (1958) mostrou em seu livro (Principles of Neurodynamics) o modelo dos "Perceptrons". Nele, os neurônios (Perceptrons) eram organizados em camada de entrada e saída, onde os pesos das conexões eram adaptados a fim de se atingir a eficiência sináptica usada no reconhecimento de caracteres.

23 Perceptron Clássico – Rosenblatt (1958)

24

25 Histórico (1960) Em 1960 surgiu a rede ADALINE (ADAptative LInear NEtwork) e o MADALINE (Many ADALINE), proposto por Widrow e Hoff. O ADALINE/MADALINE utilizou saídas analógicas em uma arquitetura de três camadas.

26 Histórico (1969) Foi constatado por Minsky & Papert que um neurônio do tipo Perceptron só é capaz de resolver problemas com dados de classes linearmente separáveis.

27 Histórico ( ) Muitos historiadores desconsideram a existência de pesquisa nessa área nos anos 60 e 70.

28 Histórico (1982) Retomada das pesquisas com a publicação dos trabalhos do físico e biólogo Hopfield relatando a utilização de redes simétricas para otimização, através de um algoritmo de aprendizagem que estabilizava uma rede binária simétrica com realimentação.

29 Histórico (1986) Rumelhart, Hinton e Williams introduziram o poderoso método de treinamento denominado “Backpropagation”. Rumelhart e McClelland escreveram o livro “Processamento Paralelo Distribuído: Explorações na Microestrutura do Conhecimento”.

30 Histórico (1988) Broomhead e Lowe descreveram um procedimento para o projeto de uma rede neural (feedforward) usando funções de base radial (Rede de Base Radial – RBF).

31 Componentes do neurônio artificial
As sinapses (entradas), com seus pesos associados A junção somadora; e A função de ativação.

32

33 Princípio de funcionamento
A operação de um neurônio artificial se resume em: Sinais são apresentados à entrada (x1 à xm); Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade (wk); É feita a soma ponderada dos sinais que produz um nível de atividade (uk); A função de ativação f(uk) tem a função de limitar a saída e introduzir não-linearidade ao modelo. O bias bk tem o papel de aumentar ou diminuir a influência do valor das entradas. É possível considerar o bias como uma entrada de valor constante 1, multiplicado por um peso igual a bk.

34 Expressão matemática do neurônio artificial
Matematicamente a saída pode ser expressa por: ou considerando o bias como entrada de valor x0=1 e peso wk0=bk,

35 Funções de ativação

36 Função de ativação tangente hiperbólica
Tangente hiperbólica (a) e sua derivada (b).

37 Função de ativação logística (sigmóide)
(b) Sigmóide (a) e sua derivada (b).

38 Função de ativação semi-linear
(b) Função de ativação semi-linear (a) e sua derivada (b).

39 Resposta do neurônio (saída)
Considerando um neurônio artificial com duas entradas (x1, x2) e função de ativação sigmóide:

40 Separação Linear Sabe-se que se formarmos uma combinação linear de duas variáveis, e igualá-la a um número, então os pontos no espaço bidimensional podem ser divididos em três categorias: a) pontos pertencentes à linha com coordenadas tais que w1. x1 + w2 . x2 = q b) pontos em um lado da linha tem coordenadas tais que w1 . x1 + w2 . x2 < q c) pontos no outro lado da linha tem coordenadas tais que w1 . x1 + w2 . x2 > q . Nota: bias b = - q, pois:

41 Exemplo Pontos 2x1+3x2 posição (x1 , x2 ) (0.0, 2.0) 6 linha
(1.0, 1.0) abaixo (1.0, 2.0) acima (2.0, 0.0) abaixo (2.0, 0.66) linha (2.0, 1.0) acima Posição dos pontos em função da linha 2 x1 + 3 x2 = 6 de delimitação. x1 Linha: 2 x1 + 3 x2 = 6 Acima: 2 x1 + 3 x2 > 6 q = 6 Abaixo: 2 x1 + 3 x2 < 6

42 f(u) f(u) Com os parâmetros w0, w1 e w2, a função f(u) separa o espaço de entradas em duas regiões, usando uma linha reta dada por: w1x1 + w2x2 + w0 = 0

43 Perceptron de limiar O perceptron de limiar é chamado separador linear
Porque traça um plano entre os pontos de entrada onde a saída é zero ou um Funções linearmente separáveis (a) e (b)

44 Exemplo: um neurônio para a função AND de 2 entradas
Iniciamos o neurônio com os pesos 0.5 e 0.6 para as duas entradas, e -0.3 para o limiar (w0). Isso é equivalente à equação: u = 0.5 x x x0 onde x0 é a entrada estável sempre igual a 1. Assim, a saída y deve disparar quando u >= 0).

45 x1 x u y a saída é 1 para os padrões 01, 10 e 11, enquanto desejamos que a saída seja 1 somente para o padrão 11.

46 Seqüência de passos na aplicação do algoritmo
Inicio w1 = 0.5 w2 = 0.6 w0 = -0.3 Entrada u = y = 0 correta Entrada u = y = 1 incorreta Correção dos pesos de 0.1 para baixo para Xi=1  w1 = w2 = 0.5 w0 = -0.4 Entrada u = y = 1 incorreta Correção dos pesos de 0.1 para baixo para Xi=1  w1 = 0.4 w2 = w0 = -0.5 Entrada u = y = 1 correta Entrada u = y = 0 correta Entrada u = y = 1 incorreta Correção dos pesos de 0.1 para baixo para Xi=1  w1 = 0.4 w2 = w0 = -0.6 Entrada u = y = 0 correta Entrada u = y = 1 correta Entrada u = y = 0 correta Entrada u = y = 0 correta Fim w1 = 0.4 w2 = w0 = -0.6

47 Resultado do aprendizado

48 A reta 0.4 x1 + 0.4 x2 - 0.6 = 0 separa os pontos 00, 01 e 10, do ponto 11.

49 Exemplo: um neurônio para a função XOR

50 No caso do XOR, não existe uma única reta que divide os pontos (0,0) e (1,1) para um lado, e (0,1) e (1,0) do outro lado. Função xor: Conclui-se que um neurônio do tipo Perceptron não implementa uma função ou-exclusivo (constatado por Minsky & Papert, em 1969).

51 Exemplo de funcionamento

52 Referências Mitchell, T., Machine Learning. McGraw-Hill, 1997
Haykin, S. Redes Neurais – Princípios e prática. 2. Ed. Porto Alegre, RS: Bookman, 2001


Carregar ppt "Redes Neurais Artificiais (RNA)"

Apresentações semelhantes


Anúncios Google