Prof. Júlio Cesar Nievola PPGIA - PUCPR

Slides:



Advertisements
Apresentações semelhantes
Computação Gráfica I Conteúdo: Professor: - Objetos gráficos espaciais
Advertisements

Aprendizado de Máquina
Aproximação de Funções usando MLPs, RBFs e SVM
Redes Competitivas e de Kohonen
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
UNIVERSIDADE LUTERANA DO BRASIL COMUNIDADE EVANGÉLICA LUTERANA SÃO PAULO Reconhecida pela Portaria Ministerial nº 681 de 07/12/89 – DOU de 11/12/89 Campus.
Redes Neurais Artificiais (RNA): Introdução
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
Mineração de Dados Avaliação de Classificadores
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
PERCEPTRON (CONTINUAÇÃO)
AULA06-exercícios MLP.
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Ajuste de Dados através do Uso de Modelos Lineares
Redes Neurais Artificiais
Prof. Júlio Cesar Nievola
Prof. Júlio Cesar Nievola
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Algoritmos Construtivos
Neurocomputação Baseada em Conhecimento
Projeto e Treinamento de MLPs
Aprendizagem Hebbiana e PCA
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
1 Complexidade de Algoritmos Complexidade de pior caso Complexidade de melhor caso de uso bem menos freqüente em algumas situações específicas Complexidade.
Aspectos da Implementação de Redes Neurais
Reconhecimento de Padrões Classificadores Lineares
Redes Neurais (Conceitos Fundamentais)
Inteligência Artificial
Inteligência Artificial
Ernesto F. F. Ramírez e Saide J. Calil
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Teoria da Produção e do Custo
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Aprendizado de Máquina
Aprendizado de Máquina Aula 13
Aprendizado de Máquina Aula 8
Introdução O que é computação?.
Márcia Zanutto Barbosa
TMA 01 As Relações de Maxwell Matemática: Se e somente se,
Redes Neurais Prof. Alex F. V. Machado.
Busca com informação e exploração
O Plano "Não basta destruir o que sobra;
Redes neurais artificiais
Marcílio C. P. de Souto DIMAp/UFRN
Redes Neuronais/Neurais/ Conexionistas Introdução
Cálculo Numérico / Métodos Numéricos
CALENDÁRIO SEXY Ele & Ela. CALENDÁRIO SEXY Ele & Ela.
Rio Verde - Goiás - Brasil
Support Vector Machine - SVM
Inferência Estatística
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
RNA – Radial Basis Function
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Uma Introdução a SVM Support Vector Machines
Prof. Anne Magály de Paula Canuto
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Redes Neurais Artificiais
Inteligência Artificial
Redes Neurais Artificiais Prof. Júlio Cesar Nievola PPGIA – PUCPR Especialização em Inteligência Computacional.
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Prof. Júlio Cesar Nievola PPGIA - PUCPR MLP Prof. Júlio Cesar Nievola PPGIA - PUCPR

Redes Neurais Artificiais Redes neurais artificiais são máquinas de aprendizagem distribuídas adaptativas geralmente não lineares construídas a partir de muitos elementos de processamento (PE) diferentes PPGIA - PUCPR Prof. Júlio Cesar Nievola

Redes Neurais Artificiais PPGIA - PUCPR Prof. Júlio Cesar Nievola

Redes Neurais Artificiais RNAs constroem funções discriminantes a partir de seus PEs A topologia da RNA determina o número e formato das funções discriminantes RNA => classificador semi-paramétrico Posicionamento das funções discriminantes controlado pelos pesos Pesos ajustados pelos dados sem consideração sobre a distribuição estatística dos dados PPGIA - PUCPR Prof. Júlio Cesar Nievola

Princípios Gerais de Treinamento de Sistema Adaptativos PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola PE de McCulloch-Pitts Equação entrada-saída Função de ativação f é a função signum Exemplo 01 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Não-linearidades Tangente hiperbólica - Saídas em [-1,1] Logística - Saídas em [0,1] Ambas são suaves, ou seja, continuamente diferenciáveis Exemplo 02 Exemplo 03 Exemplo 04 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Algoritmo de Aprendizagem para uma Máquina Não-Linear Em relação ao Adaline: forma funcional igual não corresponde ao gradiente já que existe uma não-linearidade descontínua aprende apenas quando a saída está ERRADA!!! a atualização se torna mais seletiva há um grande impacto no desempenho Exemplo 05 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Regra Delta É uma extensão direta da regra LMS para sistemas não-lineares com não-linearidades suaves A regra delta é local ao padrão e ao peso Derivada da função logística e tanh: Exemplo 06 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Implicações da Não-Linearidade O relacionamento pesos-desempenho torna-se não-linear (superfície não-convexa) Não há garantia de um único mínimo Surgimento de “pontos de sela” (planos) O “rattling” torna-se vantajoso A busca do gradiente se torna menos robusta O novo mínimo global é menor que o mínimo da rede linear: melhor ajuste Exemplo 07 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Perceptron – Rosenblatt, 1950 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Perceptron Criado em 1950 para reconhecimento ótico de caracteres Mais geral, há M PEs de McCulloch-Pitts, cada um criando a própria função linear discriminante no espaço de dimensão D Propriedade importante: capacidade de generalização Exemplo 08 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Superfície de Decisão do Perceptron O perceptron com M saídas pode dividir o espaço de padrões em M regiões distintas Os hiperplanos que contribuem para a definição da superfície de decisão devem ser contíguos As regiões de decisão do perceptron sempre são regiões convexas, pois durante o treinamento exige-se que uma e somente uma das saídas seja positiva O perceptron é uma implementação física da máquina linear de reconhecimento de padrões Exemplo 09 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Perceptron de Margem Larga Aprendizagem perceptron muito eficiente mas não efetiva A margem do hiperplano ao conjunto de amostras S é definida como O hiperplano ótimo maximiza a margem entre duas classes, colocando o discriminante entre os limites mais próximos (chamados vetores de suporte) PPGIA - PUCPR Prof. Júlio Cesar Nievola

Hiperplano com maior margem PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Algoritmo Adatron Encontra os parâmetros da função que possui a maior margem É seqüencial, ótimo e tem taxa de convergência exponencialmente rápida PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Algoritmo Adatron Definir Escolher multiplicador inicial comum, p.ex. i = 0,1 taxa de aprendizagem  pequeno limiar, p.ex. t = 0,01 Enquanto M > t, escolher um padrão xi e calcular a atualização i = [1-g(xi)], e fazer PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Algoritmo Adatron É condizente com a implementação local Localização da fronteira determinada por poucos exemplos próximos à fronteira, chamados vetores suporte (pois a maioria dos  tende a zero) Algoritmo insensível ao formato geral dos clusters de dados, concentra-se na vizinhança dos limites para ajustar a posição dos hiperplanos PPGIA - PUCPR Prof. Júlio Cesar Nievola

Diferenças na distribuição entre o Adatron e a Regra Delta Exemplo 10 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Limitações do Perceptron Resolve somente problemas lineares Aprendizagem on-line sofre com dados ruidosos Aprendizagem on-line tem maior possibilidade de evitar mínimos locais Regiões de decisão convexas, formadas pela interseção de hiperplanos Exemplo 11 PPGIA - PUCPR Prof. Júlio Cesar Nievola

MLP com uma camada escondida Camada escondida: não ligada exteriormente Os PEs são geralmente sigmóides Conceitualmente são cascata de perceptrons PPGIA - PUCPR Prof. Júlio Cesar Nievola

Funções Discriminantes da MLP Mapeamento entrada-saída de uma MLP O MLP separa o espaço em várias áreas com diferentes saídas. Isto é chamado tesselação A alteração em um dos pesos altera toda a tesselação, ou seja, MLP não é gulosa (“greedy”) O forte acoplamento entre os pesos é quem dá poder ao MLP Diferentes combinações de pesos levam à mesma tesselação Exemplo 12 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Características do MLP Com uma camada extra no perceptron, altera-se qualitativamente o formato das funções discriminantes O número máximo de regiões distintas no espaço de entrada é controlado pelo número de PEs escondidos Os PEs de saída criam regiões de decisão que não são mais convexas Existe mais de uma combinação de pesos com uma combinação particular de regiões de decisão Exemplo 13 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Capacidade de Mapeamento do MLP com 1 camada escondida Capaz de construir uma saliência no espaço de entrada MLP com uma camada escondida e PEs sigmoidais (com um número adequado de PEs na camada escondida) é um mapeador universal, isto é, pode aproximar arbitrariamente bem qualquer região de decisão contínua A função de ativação não é muito importante para a capacidade de mapeamento Exemplo 14 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Treinamento do MLP com uma camada escondida É uma aprendizagem com correção do erro, ou seja, aprendizagem supervisionada Para adaptar os pesos: para calcular o erro no i-ésimo PE usa-se um erro derivado da camada mais próxima da saída este erro é o erro de saída propagado e escalado a sensibilidade é automaticamente calculada pela regra da cadeia Exemplo 15 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Prof. Júlio Cesar Nievola Atualização dos pesos A atualização dos pesos usando o algoritmo backpropagation é dada por: Exemplo 16 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Efeito do Número de PEs Escondidos Com muitos PEs escondidos atinge-se a solução rapidamente, mas o poder de generalização é sacrificado Durante o treinamento, o sistema posiciona as funções discriminantes que classificam corretamente a maioria dos exemplos, para então lentamente classificar áreas com poucos exemplos O erro estabilizará em um alto valor se os graus de liberdade não forem suficientes Exemplo 17 Exemplo 18 PPGIA - PUCPR Prof. Júlio Cesar Nievola

MLPs com duas camadas escondidas Funções discriminantes para este caso: Um MLP com duas camadas escondidas é um aproximador universal, ou seja, realiza qualquer mapeamento entrada-saída Cada PE na primeira camada cria uma saliência. A segunda camada combina estas saliências em regiões disjuntas do espaço Quantos PEs e quantas camadas??????? Exemplo 19 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Treinamento do MLP 2 camadas escondidas com backpropagation O uso do backpropagation é sistemático Uso da matriz de confusão para análise Erros de classificação x MSE: podem variar em sentidos opostos. O MSE é sensível à diferença entre a resposta desejada e a atual, enquanto que o número de classificações erradas é uma quantidade digital que depende somente da maior saída Iniciar com a topologia mais simples Exemplo 20 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Treinamento do MLP 2 camadas escondidas com backpropagation O algoritmo backpropagation pode ser aplicado a qualquer topologia em avanço Exemplo 21 PPGIA - PUCPR Prof. Júlio Cesar Nievola

Algoritmo backpropagation com a rede dual Exemplo 22 PPGIA - PUCPR Prof. Júlio Cesar Nievola

MLP como classificador ótimo Um classificador ótimo deve criar funções de discriminação arbitrárias que separem os clusters de dados de acordo com a probabilidade a posteriori MLP pode fazer isto desde que: hajam PEs suficientes para fazer o mapeamento hajam dados em quantidade e qualidade a aprendizagem convirja para o mínimo global as saídas estejam entre 0 e 1 com  = 1 (softmax) Exemplo 23 Exemplo 24 PPGIA - PUCPR Prof. Júlio Cesar Nievola