Luiz Eduardo Balabram.  CERN  UPSO  Resultados  Conclusão.

Slides:



Advertisements
Apresentações semelhantes
Sistemas Distribuídos
Advertisements

Sistema robótico baseado em controladores de redes neurais
Metodologia de testes Nome: Gustavo G. Quintão
Controle de Processos por Computador
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
6 Outubro de 2005Trajectória de um Projéctil1 Jorge Cruz DI/FCT/UNL Introdução aos Computadores e à Programação 1º Semestre 2005/2006.
2 Dezembro de 2005Simulação com Modelos Diferenciais1 Jorge Cruz DI/FCT/UNL Programação para as Ciências Experimentais 1º Semestre 2005/2006.
2 de Junho de 2005Conclusão1 Pedro Barahona DI/FCT/UNL Junho 2005.
1 Conclusão DI/FCT/UNL 1º Semestre 2004/ Ciclos de Simulação A técnica usada no exemplo da queda livre pode ser utilizada para trajectórias a duas.
Araken de Medeiros Santos Anne Magály de Paula Canuto
PERCEPTRON (CONTINUAÇÃO)
AULA06-exercícios MLP.
Adaptive Resonance Theory Carpenter & Grossberg
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Computação Evolutiva: Estratégias Evolutivas
Reconhecimento de Padrões Multi-Layer Perceptron (MLP)
Reconhecimento de Padrões Inteligência de Enxame
Redes Neurais (Conceitos Fundamentais)
Inteligência Artificial
CAPÍTULO Introdução 2. Programação de tarefas de robôs
Prof. Rafael Stubs Parpinelli
1 Simulação baseada em multiagentes – aplicação em educação O processo de simulação significa dirigir o modelo de um sistema com entradas satisfatórias.
Simulação de Sistemas Prof. MSc Sofia Mara de Souza AULA2.
Prof. MSc Sofia Mara de Souza AULA3
Algoritmos Genéticos - Capítulo 10 Representação Numérica
Universidade do Vale do Rio dos Sinos - São Leopoldo -
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Previsão de consumos a curto prazo
Sistema Um conjunto de partes que interagem para funcionar como um todo. Um sistema quase sempre é definido tendo em vista um propósito específico. Os.
Meta - heurísticas Prof. Aurora
Informática Teórica Engenharia da Computação
Uma Introdução a Evolução Diferencial
Média, ponderada pelas massas, das posições das partículas
Formulação original de Newton da sua 2ª Lei
Função de uma Variável Aleatória
Redes Neurais Prof. Alex F. V. Machado.
SBRN’02 - Simpósio Brasileiro de Redes Neurais
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
Confiabilidade - Árvore de Falhas
RNA – Radial Basis Function
(OU) Hardware da Rede Implementacao da rede
Equações algébricas e transcendentais
Best Combination of Binarization Methods for License Plate Character Segmentation (2013) - Resumo Vinicius Queiroz e Vinicius M. de Almeida.
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Prof. Anne Magály de Paula Canuto
Universidade Federal de Lavras Departamento de Ciência da Computação
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Biometria Reconhecimento de Assinaturas
Mecanismo de sugestão e processo de caracterização de redes sociais
Redes Neurais Artificiais
Redes Neurais Treinamento de MLP. Treinamento Divisão das entradas Parâmetros de treinamento –350 iterações –Nº de nós da camada interna (26, 46, 92)
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
PSO - Aplicações em Aprendizagem de Máquina
Ringer Offline Fernando Miranda Vieira Xavier UNIVERSIDADE FEDERAL DO RIO DE JANEIRO PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA / COPPE LABORATÓRIO DE PROCESSAMENTO.
Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Ant Colony Optimization Theory Rio de Janeiro 2011 Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Estatística Aplicada - Componente Prática Ensaio de hipóteses estatísticas Ensaio para µ com  2 conhecido e desconhecido.
Modelagem de Fenômenos Físicos Utilizando a Técnica de Monte Carlo Universidade de Brasília Departamento de Engenharia Mecânica Programa de Pós graduação.
USO DA REDUÇÃO DE PRESSÕES COMO POLÍTICA NA REDUÇÃO DO VOLUME DE VAZAMENTO.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Algoritmos BioInspirados: Inteligência de Enxames
Transcrição da apresentação:

Luiz Eduardo Balabram

 CERN  UPSO  Resultados  Conclusão

 Fundado no ano de 1954 é o maior centro de pesquisas científicas na área de física de partículas  Conta com a colaboração de 113 países, envolvendo 608 universidades e institutos  Possui o maior acelerador de partículas já construído, LHC

 É um dos dois detectores de propósito geral localizados ao redor do LHC  Grava as medidas das partículas criadas na colisão  É composto por vários subsistemas com características específicas

 O ATLAS possui um sistema de coordenadas cartesiano que segue a regra da mão direita

Geometria de células do TileCal

 PSO voltado para exploitation ou exploration  Parsopoulos and Vrahatis (2004) Buscaram um algoritmo capaz de vasculhar localmente e globalmente, sem aumentar a carga computacional  Utiliza o coeficiente de constrição (constriction coefficient) Global: Local:

 Principal novidade de UPSO, ocorre na atualização da velocidade  Atualização de posição permanece a mesma  u funciona como uma compensação ponderada do melhor mínimo global e local  u é valido no intervalo [0,1]  u=0, favorece a exploration (busca local)  u=1, favorece a exploitation (busca global)

 Outra novidade, melhoria no fator de exploração  Adicionado um novo parâmetro estocástico na equação 3, gerando 2 novas possibilidades para atualizar a velocidade  Global:  Local  r 3 segue uma distribuição gaussiana

 Tipos t representa a iteração T max representa o número máximo de iterações Linear Modular Exponencial Sigmoid

 Inicialização aleatória das posições e velocidades  Avaliação de desempenho(mse) Busca em cada enxame, atualizando mínimo local e mínimo global  Iteração até o término ou alcance de desempenho Atualização de velocidades  Atualização do Componente Global de PSO (formula 1) para cada enxame  Atualização do Componente Local de PSO (formula 2) para cada enxame Atualização da velocidade utilizando o parâmetro u (fórmula 3) Verificação do limite de velocidade inferior e superior Atualização de posição com base na nova velocidade (fórmula 4) Avaliação de desempenho(mse)  Busca em cada enxame, atualizando mínimo local e mínimo global

 Run_ (eventos de outubro de 2011) – aquisição de múons 4015 múons 422 não-múons  Minbias (etapa offline) – rejeição de múons 2252 múons (selecionados pelo critério tight) 430 não-múon (selecionados pelo critério loose)

 70% treino  20% validação  10% teste  Replicação dos dados  Mudanças das variáveis eta para sin() e cos()  Variação aleatoriamente uniforme entre conjunto de terinamento/validação/teste  Rede Neural MLP 7 entradas Neurônios na camada escondida  Quantidade: 15 para e 29 para minbias  Tipo: tangente hiperbólico Camada de saída 1 tangente hiperbólica  UPSO 40 enxames Chi ; C1=C2=2.05; U = 0.5  Ambos Inicialização de pesos aleatória 4000 épocas; fail = 500

Best SP(%) mean SP(%) stdSP (%) Best FA(%) Mea_ fa(%) Std_F A(%) Best TA(%) Mean TA(%) Std TA(%) Upso64,4660,022,8132,3940,383,5964,2859,502,53 Upso_ linear 63,3659,872,1832,6040,723,3562,8659,392,18 Upso_ mod 66,1060,533,7932,5740,914,4166,1759,693,75 Upso_ exp 63,3359,772,9934,1940,123,1463,0059,412,84 Upso_ sig 65,5561,463,0533,4039,893,7165,3460,743,12 NN80,7472,325,3815,3624,795,9680,5672,235,34 NN_w UPSO 72,1065,923,7629,1839,175,5871,6162,845,03 SPFATA NN_Fernando82,0021,282,3

Mean time Std time Upso161,7237,2 Upso_ linear 267, ,1 Upso_ mod 305,2272,2 Upso_ exp 126, ,8 Upso_ sig 217,0282,0 NN106,381,92 NN_w UPSO 157,569,27

Best SP(%) mean SP(%) stdSP (%) Best FA(%) Mea_ fa(%) Std_F A(%) Best TA(%) Mean TA(%) Std TA(%) Upso99,930 Upso_ linear 99,970 Upso_ mod 99,950 Upso_ exp 99,960 Upso_ sig 99,86099,87 NN99,960 NN_w UPSO 99,85099,86 SPFATA NN_Fernando80,0015,475,6

Mean time Std time Upso117,437,51 Upso_ linear 126,253,70 Upso_ mod 112,042,21 Upso_ exp 170,9193,4 Upso_ sig 123,363,56 NN114,341,54 NN_w UPSO 165,876,64

Best SP(%) mean SP(%) stdSP (%) Best FA(%) Mea_ fa(%) Std_F A(%) Best TA(%) Mean TA(%) Std TA(%) Upso66,4462,983,6544,6638,194,7166,3061,963,42 Upso_ linear 68,7264,742,2741,1835,405,1268,5463,992,79 Upso_ mod 67,4463,162,9942, ,8666,7162,122,83 Upso_ exp 65,5863,513,2144,8434,895,5966,1861, Upso_ sig 68,4564,082,7640,7634,345,8268,3363,412,70 NN76,3172,262,7231,4125,803,6776,2672,272,68 NN_w UPSO 68,4162,085,3345,9238,315,0567,63 60,395,63 SPFATA NN_Fernando80,0015,475,6

Mean time Std Time Upso86,1265,70 Upso_ linear 105,587,01 Upso_ mod 100,3100,6 Upso_ exp 53,4024,63 Upso_ sig 77,4774,61 NN63,0818,64 NN_w UPSO 103,670,92

 O algoritmo UPSO apresentou um desempenho pior em relação a rede neural  Não houveram melhorias significativas em relação aos algoritmos