Rafael Lima(ragpl) Recife, 29 de Junho de 2010.  Descrição do problema  Redes Neurais Artificiais  Preparação dos dados  O experimento  Resultados.

Slides:



Advertisements
Apresentações semelhantes
Aprendizado de Máquina
Advertisements

Amintas engenharia.
Palestras, oficinas e outras atividades
Vamos contar D U De 10 até 69 Professor Vaz Nunes 1999 (Ovar-Portugal). Nenhuns direitos reservados, excepto para fins comerciais. Por favor, não coloque.
REDES NEURAIS ARTIFICIAIS
Redes Neurais Artificiais (RNA): Aprendizado
Nome : Resolve estas operações começando no centro de cada espiral. Nos rectângulos põe o resultado de cada operação. Comprova se no final.
Aspectos de Implementação do Algoritmo Backpropagation
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
Mineração de Dados Avaliação de Classificadores
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Curso de ADMINISTRAÇÃO
Prof. Júlio Cesar Nievola PPGIA - PUCPR
Redes Neurais Artificiais
Perceptrons e Multilayer Perceptrons
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
EXPRESSÕES ARITMÉTICAS
Aspectos da Implementação de Redes Neurais
Cérebro Artificial Intelligence, a modern approach
Germano C. Vasconcelos Centro de Informática - UFPE
Inteligência Artificial
Análise Multivariada Aplicada as Ciências Agrárias
Lista de Exercícios de Redes Neurais - Sistemas Inteligentes -
Ernesto F. F. Ramírez e Saide J. Calil
INF 1771 – Inteligência Artificial
AGNALDO CALVI BENVENHO
Apresentação CAIXA.
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Inteligência Artificial Redes Neurias
Aluno: Angelo Ferreira Assis
Renda até 2 SM.
Implementação de Redes Neurais para Classificação de Odores
Redes Neurais - Cross-Selling
Monitoria de Sistemas Inteligentes Alice Lucena Prof Teresa Ludermir.
PROJETO DE REDES NEURAIS Leyla Manoella (lmmrl) Thiago Henrique (thfp)
Márcia Zanutto Barbosa
LINHAS MAIS RECLAMADAS Ranking Negativo para Fiscalização Direcionada Nível de Serviço ANO II – Nº 06.
Estatística Para um dado conjunto de dados, podemos calcular as seguintes grandezas: 1) Medidas de posição 2) Medidas de dispersão 3) Parâmetros de simetria.
Redes Neurais Prof. Alex F. V. Machado.
Modelagem Estatística
Redes neurais artificiais
NOVOS CONCEITOS DE DEPRECIAÇÃO PARA MÁQUINA E EQUIPAMENTOS
Fernando Valeriano de Almeida Lins. Problema  PAKDD 2007  Dados reais de uma companhia financeira  padrões de entrada sendo de uma classe.
DIEGO RICARDO DE ARAUJO DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO INSTITUTO DE CIÊNCIA EXATAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA Seleção de Características.
Projeto de Redes Neurais e MATLAB
Redes Neuronais/Neurais/ Conexionistas Introdução
Olhe fixamente para a Bruxa Nariguda
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
(OU) Hardware da Rede Implementacao da rede
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Prof. Anne Magály de Paula Canuto
Universidade Federal de Lavras Departamento de Ciência da Computação
Combinação de Preditores utilizando o Coeficiente de Correlação aplicado aos Problemas de Regressão Resumo Este trabalho apresenta um algoritmo de Boosting.
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
O Que São as Redes Neurais Artificiais
Inteligência Artificial
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
©2005 Germano C.Vasconcelos Projeto da Disciplina Germano C. Vasconcelos Centro de Informática - UFPE.
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Rafael Lima(ragpl) Recife, 29 de Junho de 2010

 Descrição do problema  Redes Neurais Artificiais  Preparação dos dados  O experimento  Resultados  Conclusões  Bibliografia

Deseja fritas para acompanhar!?  Direcionamento de Produtos  35% das vendas do Amazom

 Baseadas nas redes neurais biológicas  Neurônio de McCulloch & Pitts  Caracteristicas desejadas ◦ Aprendizagem através de exemplos ◦ Adaptabilidade ◦ Capacidade de generalização ◦ Tolerância a ruídos Dendritos Axônio

 Rede feed forward com mais de uma camada de neurônios  Aproximador universal de funções  Uma única camada é suficiente para aproximar qualquer superficie contida num hipercubo

 Base de dados PAKDD: ◦ 40700amostras  Processamento para procura de inconsistências: ◦ 23 instancias repetidas removidas  PAKDD: ◦ amostras de C1 ◦ 700 amostras de C

 Divisão dos dados ◦ amostras de C1 ◦ 700 amostras de C

 Divisão dos dados ◦ amostras de C1 ◦ 700 amostras de C2  Treinamento com validação cruzada ◦ 50% treinamento ◦ 25% validação ◦ 25% teste  Conjuntos de dados são normalizados ◦ Replicar dados do conjunto menor ◦ Selecionar dados do conjunto maior  Randomização C2C1

 Primeira fase ParâmetroValores testados Número máximo de iterações de treinamento (épocas) 50, 250 e 1250 Quantidade máxima de erros na validação 20 Algoritmo de aprendizagem Back Propagation e Levenberg-Marquardt Algoritmo de treinamento ‘learngdm’ Função de ativação das camadas intermediária e de saída Sigmóide Logística e Tangente Hiperbólica Taxa de aprendizagem 0.01, e Quantidade de neurônios na camada escondida 1, 6 e 36

 Primeira fase (REPLICADA) ◦ 90 redes testadas ◦ Script MATLAB calculou, gerou gráficos de desempenho e curvas ROC automaticamente. ◦ Dados guardados em arquivos txt e bmp ◦ Configurações comparadas com auxílio do excel

 Segunda fase (REDUZIDA) ◦ As 5 redes com menor MSE de teste da primeira fase  Terceira fase (REPETIÇÃO) ◦ Selecionadas duas redes:  Menor MSE de teste  Maior AUC da curva ROC

 Resultados primeira fase: ◦ 32 configurações com MSE teste < 0.22  Resultados segunda fase: ◦ Das 5 configurações apenas uma apresentou MSE de teste maior do que na primeira fase  Resultados terceira fase: ◦ BTA x BNME = Rede instável ◦ Aleatorização inicial dos pesos com alta influência

 Primeira Fase Configuração Número de iterações de treinamento 50 Taxa de aprensizagem0.001 Nós da camada intermediaria6 Função de ativaçãoSigmóide Logística Algoritmo de aprendizagemGradient descent backpropagation Resultados MSE Treinamento MSE Validação MSE Teste Taxa de erro % (TESTE) Área sob a curva0.495 Matriz de Confusão Resposta desejada Resposta da rede C1C2 C C

 Segunda fase: Configuração Número de iterações de treinamento 50 Taxa de aprensizagem0.001 Nós da camada intermediaria6 Função de ativaçãoSigmóide Logística Algoritmo de aprendizagemGradient descent backpropagation Resultados MSE Treinamento MSE Validação MSE Teste Taxa de erro % (TESTE) Área sob a curva0.522 Matriz de Confusão Resposta desejada Resposta da rede C1C2 C C

 Tegunda fase: Taxa de Erro(%)MSE de TesteÁrea sob a Curva ROC Media Desvio Padrão Máximo Mínimo

 Primeira fase: Configuração Número de iterações de treinamento 1250 Taxa de aprensizagem0.001 Nós da camada intermediaria6 Função de ativaçãoSigmóide Logística Algoritmo de aprendizagemLevenberg- Marquardt Resultados MSE Treinamento MSE Validação MSE Teste Taxa de erro % (TESTE) Área sob a curva0.696 Matriz de Confusão Resposta desejada Resposta da rede C1C2 C C

 Segunda fase Resultados MSE Treinamento MSE Validação MSE Teste Taxa de erro % (TESTE) Área sob a curva0.657 Matriz de Confusão Resposta desejada Resposta da rede C1C2 C C Configuração Número de iterações de treinamento 1250 Taxa de aprensizagem0.001 Nós da camada intermediaria6 Função de ativaçãoSigmóide Logística Algoritmo de aprendizagemLevenberg- Marquardt

 Terceira fase Taxa de Erro(%)MSE de TesteÁrea sob a Curva ROC Media Desvio Padrão Máximo Mínimo