Implementação de Redes Neurais para Classificação de Odores

Slides:



Advertisements
Apresentações semelhantes
Aprendizado de Máquina
Advertisements

Otimização com Simulated Annealing e Tabu Search
UNICAMP Universidade Estadual de Campinas Centro Superior de Educação Tecnológica Divisão de Telecomunicações Propagação de Ondas e Antenas Prof.Dr. Leonardo.
Inversor Trifásicos com Três Pernas
WebDesign Redes de Computadores Aula 07
Kit Alfa Marcello Cláudio de Gouvêa Duarte.
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Araken de Medeiros Santos Anne Magály de Paula Canuto
AULA06-exercícios MLP.
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Fonte, Sumidouro, Capacidade e Fluxo
Curso de ADMINISTRAÇÃO
PREDIÇÃO DATA MINING AULA 13 SANDRA DE AMO
Redes de Hopfield Redes Neurais COPIN
Árvore Binária de Busca
Reconhecimento de Padrões Multi-Layer Perceptron (MLP)
Germano C. Vasconcelos Centro de Informática - UFPE
Lista de Exercícios de Redes Neurais - Sistemas Inteligentes -
Base na composição química
Estatística Aplicada (Aula 4)
Ernesto F. F. Ramírez e Saide J. Calil
INF 1771 – Inteligência Artificial
Progressão Aritmética
Previsão de consumos a curto prazo
Renda até 2 SM.
Diagnósticos Educativos = Diagnósticos Preenchidos 100% = 1.539
Bolha Posição de máx. W2 Ponto de Estagnação
6 Resultados de Medições Diretas
Monitoria de Sistemas Inteligentes Alice Lucena Prof Teresa Ludermir.
PROCESSOS PRINCIPAIS Alunos - Grau de Satisfação 4971 avaliações * Questões que entraram em vigor em 2011 ** N.A. = Não Aplicável Versão: 07/02/2012 INDICADORES.
Ficha de matemática Matéria do 5º ano.
Multiplexadores e Demultiplexadores
Redes Neurais Prof. Alex F. V. Machado.
Aula 17 1 Análise Sintáctica Compiladores, Aula Nº 17 João M. P. Cardoso.
Aprendizado de Máquina
Tributação da Exportação nas Empresas optantes pelo Simples Nacional
Núcleo de Mídia – Comercial Ranking Nacional de Circulação - Domingos Evolução Mês* 3,38% 2,20% 1,39% 1,13% -4,84% 0,49% -6,16% -0,07% -0,71% 0,27% 0,43%
Projeto Medindo minha escola.
BUSINESS INTELLIGENCE MASTER
Projeto de Redes Neurais e MATLAB
Redes Neuronais/Neurais/ Conexionistas Introdução
CONCEITOS FUNDAMENTAIS
Olhe fixamente para a Bruxa Nariguda
Circuitos Combinacionais Exercícios 2 POSCOMP e ENADE
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
Redes Neurais Artificiais
Campus de Caraguatatuba Aula 9: Noções Básicas sobre Erros (3)
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Uma Introdução a SVM Support Vector Machines
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Biometria Reconhecimento de Assinaturas
FERRAMENTA PARA AUXÍLIO AO DIAGNÓSTICO DE IMAGENS PULMONARES DE TOMOGRAFIA COMPUTADORIZADA Filipe Vernetti Giusti Orientador: Prof. Dr. Lucas Ferrari Oliveira.
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Revisão de Sistemas Inteligentes
Redes Neurais Artificiais
O Que São as Redes Neurais Artificiais
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
©2005 Germano C.Vasconcelos Projeto da Disciplina Germano C. Vasconcelos Centro de Informática - UFPE.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Redes Neurais Treinamento de MLP.
Transcrição da apresentação:

Implementação de Redes Neurais para Classificação de Odores Akio Yamazaki Aula Prática – Disciplina de Redes Neurais – 2001.2

Reconhecimento de Padrões (Rede Neural) Nariz Artificial Reconhecimento de Padrões (Rede Neural) Sensores Pré-processamento ... S1 S2 S6 Substância

Problema Abordado Base de Dados: Classificação entre odores de duas safras de vinho (A e B) Para cada safra, as resistências dos sensores foram registradas a cada 0.5s. Cada conjunto de seis valores registrados no mesmo instante de tempo é um padrão (total de 200 padrões, sendo 100 da safra A e 100 da safra B). Divisão do Conjunto de Padrões (Proben1): 50% dos padrões de cada safra escolhidos aleatoriamente para treinamento, 25% para validação, e 25% para teste.

Respostas dos Sensores Resistência 2 1 S1 S2 S3 S4 S5 S6 3 4 100 ... Tempo (x0.5s)

Rede MLP Rede MLP: Uma camada intermediária, 6 unidades de entrada (uma para cada sensor), 2 unidades de saída (uma para cada safra de vinho), Função de ativação sigmóide logística, Todas as possíveis conexões entre camadas adjacentes, sem conexões entre camadas não-adjacentes,

Pré-processamento Vinho A Vinho B Vinho A Vinho B Normaliza e 234 345 456 567 678 789 1 100 Vinho A Padrão t 987 876 765 654 543 432 Vinho B 0.12 0.23 0.34 0.45 0.56 0.67 1 100 Vinho A 0 1 0.87 0.76 0.65 0.54 0.43 0.32 Vinho B 1 0 Padrão normalizado t Saída Normaliza e acrescenta saídas

Pré-processamento Normalização: Padrões normalizados para a faixa entre 0 e 1 (unidades com função de ativação sigmóide logística), Expressão de normalização: onde xnorm é o valor normalizado correspondente a x, e xmin e xmax são os valores mínimo e máximo entre todos os valores do conjunto. Obs.: Também pode ser feita separadamente por sensor.

Pré-processamento Vinho A Vinho B Vinho A Vinho B Vinho A (50%) 0.12 ... 0.67 1 100 Vinho A 0 1 0.87 ... 0.32 Vinho B 1 0 0.12 ... 0.67 34 12 Vinho A 0 1 0.87 ... 0.32 46 Vinho B 1 0 78 0.39 ... 0.27 08 0.51 ... 0.92 61 Randomiza Particiona

Pré-processamento Treinamento Validação Teste Vinho A (50%) Vinho B (50%) Vinho B (25%) Vinho A (50%) Vinho B (50%) Vinho A (25%) Vinho B (25%) Treinamento Validação Teste Randomiza

Treinamento 0.12 0.23 0.34 0.45 0.56 0.67 0 1 Treinamento

Soma dos Erros Quadráticos (SSE) Saídas da rede: 0.98 0.12 ... 0.16 0.02 0.96 ... 0.88 Saídas desejadas: 1.00 0.00 ... 0.00 0.00 1.00 ... 1.00 Soma dos erros quadráticos (SSE): SSE = (0.98 – 1)2 + (0.12 – 0)2 + ... + (0.16 – 0)2 + (0.02 – 0)2 + (0.96 – 1)2 + ... + (0.88 – 1)2

Parada por erro mínimo de treinamento SSE Parada Conjunto de treinamento Erro mínimo de treinamento Iteração Conjunto de validação (observado a cada 3 iterações) Erro alto para dados não usados no treinamento (não generaliza bem) Iteração

Usando o critério da perda de generalização Perda de Generalização (Proben1): GL(iteração) = 100 * [(Erro atual de validação /Erro mínimo de validação) – 1] Para este exemplo, interrompe treinamento quando GL > 5% a GL(1) = 100*[(a/a) – 1] = 0 SSE d GL(2) = 100*[(d/d) – 1] = 0 c GL(3) = 100*[(c/d) – 1] < 5% b GL(4) = 100*[(b/d) – 1] > 5% Conjunto de validação É importante salvar as configurações (melhor rede foi a da iteração 2). Iteração