Carregar apresentação
A apresentação está carregando. Por favor, espere
1
Redes neurais artificiais
Prof. João Henrique
2
Inspiração biológica O neurônio é a unidade básica cerebral, especializada na transmissão de informações, devido às propriedades de excitabilidade e transmissão de mensagens nervosas.
3
Modelo do neurônio biológico
4
Fluxo de informação A soma e os dendritos forma a superfície de entrada do neurônio e o axônio forma a superfície de saída da informação.
5
A informação Na realidade, a mensagem transmitida entre os neurônios é o impulso elétrico propagado entre os mesmos, captado por receptores nervososos.
6
Modelo matemático do neurônio
McCulloch e Pitts (1943): Perceptron; Impulsos representados por sinais de entrada, xi O estímulo é representado pelos pesos sinápticos;
7
Pesos sinápticos Valores aleatórios (aprendizagem por tentativa e erro); Maior peso, mais excitatório é o estímulo; Excitatório ou inibitório; Vários algoritmos para calcular os pesos.
8
Soma ou corpo celular Função aditiva: somatória da multiplicação de cada sinal de entrada por seu peso; Função de ativação: indica qual será o resultado do processamento, passado então ao axônio.
9
Modelo do neurônio artificial
10
Representação matemática
x: sinal de entrada, w: peso sináptico e m: número de sinais de entrada no neurônio i
11
Função de ativação
12
Função de ativação logística
13
Redes neurais artificiais
Tipicamente formada por neurônios interconectados em camadas, onde cada neurônio interfere em outro; Representadas normalmente por grafos direcionados, onde os vértices são os neurônios e as arestas são as sinapses;
14
Representação de redes neurais
15
Aquisição de conhecimento
Se a situação gerada pela combinação de características for informada à rede, o aprendizado é supervisionado. Caso contrário, será não supervisionado; O conhecimento é armazenado na forma dos pesos das conexões, ajustados sempre para melhorar o processo de tomada de decisões; O ajuste dos pesos é feito pelo algoritmo de aprendizagem. O mais utilizado é o backpropagation.
16
Construção da rede neural
Decisões importantes: Topologia; Algoritmo de aprendizagem; Função de ativação.
17
Topologia de redes neurais
Diz respeito à disposição dos neurônios, e está intimamente relacionada ao algoritmo de aprendizagem.
18
Topologia: feed-forward
19
Feed-forward: características
Neurônios organizados em camadas; A camada inicial (input) recebe os dados de entrada; Camadas intermediárias são chamadas de ocultas; Cada neurônio de uma camada é conectado a todos da próxima camada; Não há conexão entre neurônios da mesma camada.
20
Feed-backward: características
A saída de um neurônio é usada como alimentação do mesmo neurônio ou de um neurônio de camada anterior.
21
Mapas auto-organizáveis
Os neurônios são forçados a competir entre si; Entenda isso como um neurônio que oferece a melhor resposta a um estímulo; A melhor resposta ganha a competição e este será o neurônio ativado em cada iteração; As redes deste tipo mais conhecidas são as Redes de Kohonen.
22
Redes de Kohonen: exemplo
O neurônio vencedor é o de cor mais clara, próximo ao centro do mapa
23
O Processo de aprendizagem
Atualização da representação interna do sistema em resposta a um estímulo externo; Basicamente se dá por meio do ajuste de pesos sinápticos e ativação de regras de neurônios individuais; Normalmente dividida em 4 tipos, vistos adiante.
24
#1: Correção de erro Característica do aprendizado supervisionado (saída esperada é conhecida) Muda os pesos sinápticos a cada iteração, após comparar a saída da rede com a saída esperada; O ajuste leva, quase sempre, a erros gradativamente menores;
25
#2: Aprendizagem Hebbiana
Postulado de Donald Hebb; “Se dois neurônios em ambos os lados da sinapse são ativados sincrona e simltaneamente, então a força daquela conexão deve ser seletivamente aumentada”; A atividade dos neurônios gera o ajuste dos pesos.
26
#3: Aprendizagem de Boltzmann
27
#4: Aprendizagem competitiva
Veja os slides das redes competitivas
28
Perceptron de Múltiplas Camadas
Redes MLP são redes alimentadas adiante que possuem uma ou mais camadas de neurônios entre as camadas de entrada e saída, chamada de camada oculta. Esta camada adiciona um poder maior em relação àsredes Perceptron de camada única, que classifica apenas padrões linearmente separáveis, sendo os neurônios ocultos responsáveis por capturar a não- linearidade dos dados.
29
Perceptron de Múltiplas Camadas
Neste modelo todos os neurônios são ligados aos neurônios da camada sub-sequente, não havendo ligação com os neurônios laterais (da mesma camada) e também não ocorre realimentação. A aprendizagem de uma rede neural MLP é um processo iterativo, conhecido como aprendizagem por experiência, no qual padrões de treinamento (exemplos) são apresentados a rede e com base nos erros obtidos, são realizados ajustes nos pesos sinápticos, com o intuito de diminuir o erro nas próximas iterações.
30
Treinamento no MPL O principal algoritmo de treinamento é o algoritmo de retropropagação de erro (error backpropagation), baseado na regra de aprendizagem por correção de erro, que consiste basicamente de dois passos, um para frente e outro para trás.
31
Treinamento na MLP: frente
O passo para frente é chamado de propagação, os valores provindos dos neurônios de entrada (nós fontes) são aplicados aos neurônios ocultos e posteriormente suas saídas são aplicadas como entradas aos neurônios da camada final, obtendo a resposta da rede. Durante este passo os pesos sinápticos da rede são todos fixos
32
Treinamento MPL: trás o passo para trás é incumbido de ajustar os pesos sinápticos, por meio do cálculo do erro realizado na camada de saída, os pesos sinápticos entre as camadas antecessoras são ajustados de acordo com uma regra de correção de erro.
33
Perceptron de múltiplas camadas
34
Algoritmo da Backpropagation
35
MLP: problemas ao implementar
Padrões adequadamente representados; Número de camadas escondidas; Número de neurônios nas camadas escondidas; Super-treinamento.
36
Outros modelos: SOM Self Organized Maps
Aprendizagem não-supervisionada Proposta por Teuvo Kohonen em 1982
37
SOM: bases biológicas Utilizando conhecimento biológico, a rede de Kohonen utiliza-se de duas camadas, a camada de entrada e a grade pós-sináptica ou mapa de características, sendo a úlltima um arranjo bi-dimensional de neurônios.
38
SOM: esquema
39
SOM: mais detalhes O mapa auto-organizável é treinado utilizando uma aprendizagem híbrida composta por aprendizagem Hebbiana e competitiva, onde os neurônios da grade pós-sináptica competem entre si, com base em uma medida de similaridade com o sinal de entrada, o neurônio mais similar é dito ser o vencedor.
40
SOM: mais detalhes A distância euclidiana é geralmente utilizada como medida de similaridade. O algoritmo responsável pela formação do mapa começa pela atribuição de valores iniciais dos pesos sinápticos da grade, atribuindo valores pequenos gerados aleatoriamente.
41
SOM: competição Para cada padrão de entrada, os neurônios da grade competem entre si, calculando a distância euclidiana entre seus pesos sinápticos e os valores do padrão de entrada, sendo o neurônio com a menor distância o vencedor (Aprendizagem Competitiva);
42
SOM: cooperação O neurônio vencedor determina uma área, vizinhança topológica, na qual os neurônios cooperarão entre si (Aprendizagem Hebbiana);
43
SOM: adaptação sináptica
Determinada a vizinhança, os neurônios cooperam de modo a atualizarem seus pesos sinápticos, sendo que os mais próximos do neurônio vencedor sofrem modificações mais significativas do que os neurônios mais distantes.
44
SOM: vizinhança gaussiana
45
SOM: aplicação Clusterização de dados, ou seja, agrupamento de dados intrinsecamente semelhantes, utilizado quando nada é conhecido sobre os dados. Os mapas de Kohonen podem ser aplicados em compressão de dados, uma vez que dados de alta dimensionalidade são mapeados em um espaço de baixa dimensão, preservando seu conteúdo
46
Aplicações de redes neurais
Basicamente, o problema de classificação consiste em classificar padrões de entrada entre classes previamente conhecidas, tomando como base de conhecimento algumas características do problema aplicado.
47
Aplicações de redes neurais
A clusterização pode ser vista como um problema de classificação de padrões, quando é desconhecido previamente quantas e quais são as classes a serem classificadas. A este tipo de problema aplicam-se redes que utilizem aprendizagem não-supervisionada, podendo destacar a Rede de Kohonen.
48
Conclusões As redes neurais são modelos pertencentes ao paradigma de aprendizagem conexionista indutivo, na qual um conjunto de unidades simples de processamento (neurônios), são fortemente conectados, formando uma complexa e altamente robusta ferramenta de aquisição do conhecimento.
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.