Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.

Slides:



Advertisements
Apresentações semelhantes
DISTRIBUIÇÕES AMOSTRAIS
Advertisements

Agenda Introdução Justificativa Objetivo Detecção de Spam
Aprendizado de Máquina
INTELIGÊNGIA COMPUTACIONAL
Mineração de Dados Avaliação de Classificadores
Araken de Medeiros Santos
Algoritmos Genéticos Alex F. V. Machado. Algoritmos Genéticos Quanto melhor um indivíduo se adaptar ao seu meio ambiente, maior será sua chance de sobreviver.
Aprendizado de Máquina
Redes Neurais Artificiais
Aprendizado de Máquinas
Reconhecimento de Padrões Seleção de Características
Reconhecimento de Padrões Dissimilaridade
Prof. Rafael Stubs Parpinelli
O Surgimento dos Sistemas de Bioinformática
Instituto Tecnológico da Aeronáutica – ITA Divisão de Ciência de Engenharia Eletrônica e Computação EE-09 Inteligência Artificial Prof. Adilson Marques.
INF 1771 – Inteligência Artificial
Controle de parâmetros em algoritmos evolucionários
Técnicas Experimentais Aplicadas em Ciência do Solo
A Framework for Robots Development and Programming Based on Genetic Algorithms Palmeira P.F.M Silvino J.S. de Melo J.C.D DEE-UFMG DELT-UFMG.
Aprendizado de Máquina
Aprendizado de Máquina Aula 8
Otimização Prof. Benedito C. Silva IRN UNIFEI
Laís Araújo Lopes de Souza
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
INTELIGÊNCIA ARTIFICIAL (IA OU AI)
A License Plate-Recognition Algorithm for Intelligent Transportation System Applications (2006) Christos Nikolaos E. Anagnostopoulos, Ioannis E. Anagnostopoulos,
Sistemas Distribuídos
Redes Neurais Prof. Alex F. V. Machado.
Aprendizagem de Máquina
Aprendizado de Máquina - Introdução
Redes Bayesianas - Aplicação em Risco Operacional
DIEGO RICARDO DE ARAUJO DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO INSTITUTO DE CIÊNCIA EXATAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA Seleção de Características.
F USION O F C ONTINUOUS -V ALUED O UTPUTS Equipe: Henrique Lins (hsmpl) João Pascoal Neto (jrpn) Mário Barbosa (mbaj) Tiago Farias (tfs)
Redes Neuronais/Neurais/ Conexionistas Introdução
Seleção de Atributos Ricardo Prudêncio.
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
SVMSharp – Uma implementação didática de uma SVM
Sistemas Baseados em Aprendizado (Aprendizado de Máquina)
RNA – Radial Basis Function
C LASSIFICAÇÃO DE N ÓS Ricardo Prudêncio. L INK M INING - T AREFAS Relacionadas a Objetos Relacionadas a Arestas Relacionadas a Grafos Ranking de Nós.
(OU) Hardware da Rede Implementacao da rede
Mineração de Dados: Classificação e Predição
Universidade Federal de Lavras Departamento de Ciência da Computação
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
Combinação de Preditores utilizando o Coeficiente de Correlação aplicado aos Problemas de Regressão Resumo Este trabalho apresenta um algoritmo de Boosting.
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Mecanismo de sugestão e processo de caracterização de redes sociais
HAC 1 MD - junho/2008 Tecnologias de suporte à Mineração de Dados Gerenciamento de dados Data Warehouse OLAP Arquiteturas Visualização Sistemas de Suporte.
Alinhamentos Múltiplos
Feature Learning for Image Classification via Multiobjective Genetic Programming Seminários de Inteligência Artificial Felipe de Paula Wanderley Barros.
Redes Neurais Artificiais
Aplicações em Redes Neurais Artificiais De acordo com Turbam, McLean e Wetherbe (2004), “a computação neural também pode ser combinada com outros sistemas.
Classificação de Textos
Inteligência Artificial
PSO - Aplicações em Aprendizagem de Máquina
Análise Digital de Imagens
Luiz Eduardo Balabram.  CERN  UPSO  Resultados  Conclusão.
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Ant Colony Optimization Theory Rio de Janeiro 2011 Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.
1 Reunião do Grupo de Estudos do Serviço de Informática do InCor Artigo-base: Nonparametric Snakes (Umut Ozertem e Deniz Erdogmus) 28 de março de 2008.
Taís Sineiro Herig Laboratório de Genômica e Expressão / UNICAMP
Gráficos – Parte I CEPZ1 – 2015 – AULA 08 PROFESSORA: BRUNA CAVALLINI E RODRIGUES.
Métodos Populacionais. Mantém um conjunto de soluções candidatas e não só uma solução Cada solução será modificada e avaliada Hill-Climbing paralelos.
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2016 Apresentação da Disciplina Camilo Daleles Rennó
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
AVALIAÇÃO DOS DADOS DE PRECIPITAÇÃO DO SATÉLITE TRMM PARA A BACIA DE CONTRIBUIÇÃO DA UHE ITUMBIARA (GO) Alunos: Marcelo Pedroso Curtarelli,
Algoritmos BioInspirados: Inteligência de Enxames
Ant Colony Optimization Eraylson Galdino da Silva Universidade Federal de Pernambuco Centro de Informática Tópicos Avançados em Inteligência.
Transcrição da apresentação:

Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior Rio de Janeiro 2011

Introdução Estudos cerebrais e em biologia molecular produzem grande quantidade de dados. Processamento e avaliação está no campo de bioinformática. Metodologias de processamento de informação. Metodologias de processamento de informação. Tarefas biológicas; Tarefas biomédicas. Desenvolvimento de modelos computacionais. Desenvolvimento de modelos computacionais.Modelagem; Mineração de dados; Machine learning. Exemplos de problemas: Exemplos de problemas: Localização de proteínas; Análise de genoma e sequências de genomas; Análise e monitoramento da atividade cerebral.

Introdução Metodologias: Redes neurais; Redes neurais; Algoritmos evolucionários; Algoritmos evolucionários; Inteligência de enxame. Inteligência de enxame. Particle swarm optimization (PSO) combinado com diferentes técnicas de modelagem: Modelo adaptativo de redes neurais para classificação; Modelo adaptativo de redes neurais para classificação; Modelamento adaptativo – PSO, mecanismo de configuração básico. Localização de proteínas. Diagnósticos médicos. PSO unificado aplicado à problemas de magnetoencefalografia (MEG). PSO unificado aplicado à problemas de magnetoencefalografia (MEG). PSO para detectar fontes excitatórias desconhecidas.

Redes Neurais Probabilísticas (PNNs) PNNs - modelos de redes neurais de classificação supervisionadas. Está relacionada: Está relacionada: Regra de classificação de Bayes; Teoria de estimação com função densidade de probabilidade (PDF) não paramétrica de Parzen Vantagem da PNN Habilidade para explorar todas informações disponíveis no problema e fornecer medidas de incerteza da classificação. Habilidade para explorar todas informações disponíveis no problema e fornecer medidas de incerteza da classificação. Ex. Classificação de câncer – probabilidade de tumor maligno ou benigno. Diferente de resposta sim ou não de outros classificadores.

Redes Neurais Probabilísticas (PNNs) Aplicações de PNN na biomédica: PNN combinado com método de extração de características na classificação de câncer (Huang 2002). PNN combinado com método de extração de características na classificação de câncer (Huang 2002). PNN para desenvolver modelos metabonômicos baseado em NMR para predição de toxidade induzida por xenobióticos, enfatizando seu potencial na aceleração de descobertas de novas drogas (Holmes et al. 2001). PNN para desenvolver modelos metabonômicos baseado em NMR para predição de toxidade induzida por xenobióticos, enfatizando seu potencial na aceleração de descobertas de novas drogas (Holmes et al. 2001). PNN na construção de sistema de predição automática, eficiente e confiável para localização de proteína sub-celular em análises de genomas em grandes escalas (Guo et al. 2004). PNN na construção de sistema de predição automática, eficiente e confiável para localização de proteína sub-celular em análises de genomas em grandes escalas (Guo et al. 2004). PNN para identificar pequenas mudanças em quantidade e volume do tecido cerebral através de análises de imagens de ressonância magnética (Wang et al. 1998) PNN para identificar pequenas mudanças em quantidade e volume do tecido cerebral através de análises de imagens de ressonância magnética (Wang et al. 1998)

Redes Neurais Probabilísticas (PNNs) A estrutura da PNN é semelhante a das redes neurais feedforward. PNN tem 4 camadas: input, pattern, summation e output.

Redes Neurais Probabilísticas (PNNs) Parâmetros de espalhamento determinam forma e tamanho do kernel. PNN homocedástico – utiliza um único parâmetro de espalhamento global; PNN homocedástico – utiliza um único parâmetro de espalhamento global; PNN heterocedástico – utiliza separados parâmetros de espalhamento não correlacionados. PNN heterocedástico – utiliza separados parâmetros de espalhamento não correlacionados.

Modelo PNN adaptativo (SA-PNN) A matriz de espalhamento, ∑, tem efeito direto nos kernels (elementos de classificação das PNNs) A detecção de uma ∑ ótima aumenta significantemente a qualidade de qualificação das PNNs. PNN adaptativo (Georgiou et al. 2006) – uso do PSO Incorporou algoritmos de otimização para detectar parâmetros de espalhamento ótimos. Incorporou algoritmos de otimização para detectar parâmetros de espalhamento ótimos. PNN homocedástico PNN heterocedástico

Modelo PNN adaptativo (SA-PNN) Georgiou et al. (2006) utilizou a proporção de erro de classificação leave-one- out do grupo de treinamento como valor objetivo da partícula (matriz de espalhamento). A PNN foi treinada utilizando todos os modelos do grupo de treinamento. O modelo excluído é usado para avaliar a acurácia da classificação. O processo repete excluindo modelos a modelo, até acabar todos modelos

Experimentos e resultados Modelo SA-PNN com PSO aplicado a: E. Coli E. Coli Localização celular de proteínas (8 locais) Levedura Levedura Localização celular de proteínas (10 locais) Câncer de mama Câncer de mama Classificação: benigno e maligno Diabetes de índios Pima Diabetes de índios Pima Classificação: com ou sem diabetes

Experimentos e resultados Foram utilizadas 3 técnicas de amostragem: 1 - Stratified random sampling (SRS) 1 - Stratified random sampling (SRS) Conjunto de dados com tamanho N e K classes, é dividido em K subgrupos não sobrepostos (camadas), contendo N k vetores padrão da k-gésima classe (k = 1, 2,..., K). Uma amostra aleatória de tamanho a k é selecionada independentemente de cada camada. Todas amostras selecionadas são colocadas juntas para formar a SRS. As amostras não selecionadas são utilizadas como grupo teste.

Experimentos e resultados 2 - λ-fold cross-validation (λ-CV) 2 - λ-fold cross-validation (λ-CV) O grupo de dados é dividido em λ partes de tamanho aproximadamente iguais. Cada subgrupo é utilizado como grupo teste. Enquanto o resto é usado como grupos de treinamento. 3 - Train-validation-test partitioning (TVT) 3 - Train-validation-test partitioning (TVT) Os dados são divididos em 3 componentes.. PSO minimiza o erro de classificação leave-one-out no grupo de treinamento para determinar ∑. Erro e validação são monitorados a cada interação.

Experimentos e resultados Georgiou et al. (2006) aplicou: SA-PNNs homocedástico SA-PNNs homocedástico Otimizado com constriction coefficient Inertia weight SA-PNNs heterocedástico SA-PNNs heterocedástico Otimizado com constriction coefficient Inertia weight Comparou o desempenho com: PNN básico PNN básico PNN otimizado com golden section PNN otimizado com golden section NN feedforward NN feedforward Máquina de vetores suporte Máquina de vetores suporte

Experimentos e resultados Parâmetros do PSO Teste Kolmogorov-Smirnov E. Coli LeveduraDiabetes Câncer de mama λ-CV ******* SRS* TVT*

Experimentos e resultados Combinações entre SA-PNN e PSO mais eficientes dependem do problema em questão e das técnicas de amostragem. Melhores desempenhos: SRS e TVT - constriction coefficient para qualquer modelo SA-PNN SRS e TVT - constriction coefficient para qualquer modelo SA-PNN λ-CV com constriction coefficient λ-CV com constriction coefficient SA-PNN homocedático - E. Coli SA-PNN heterocedático – diabetes de índios Pima Inertia weight - levedura e câncer de mama, para modelos homo e heterocedáticos. Inertia weight - levedura e câncer de mama, para modelos homo e heterocedáticos. SA-PNN homocedático - E. Coli e câncer de mama SA-PNN homocedático - E. Coli e câncer de mama SA-PNN heterocedático - levedura e diabetes dos índios Pima SA-PNN heterocedático - levedura e diabetes dos índios Pima PSO promove melhoramentos em modelos PNN

Magnetoencefalografia (MEG) Utilizada em estudos sobre o comportamento funcional do cérebro. Baseada na captura e análise de campos elétricos gerados pela excitação de pequenas áreas do cérebro.

Magnetoencefalografia (MEG) Parsopoulos et al. (2009) - dois problemas em MEG utilizando PSO: Inverse problem – fonte de excitação desconhecida é detectada por um número de sensores. Inverse problem – fonte de excitação desconhecida é detectada por um número de sensores. Identificar a fonte. Forward task for inverse use – computação de coeficientes que otimizam a aproximação de potenciais magnéticos através de expansões esféricas Forward task for inverse use – computação de coeficientes que otimizam a aproximação de potenciais magnéticos através de expansões esféricas Expansão esférica:

Magnetoencefalográfia (MEG) Inverse problem PSO foi utilizado para detectar as 3 fontes em diferentes níveis de ruído. Cada partícula do enxame foi considerada uma posição candidata da fonte. PSO unificado (UPSO) com constriction coeficient

Magnetoencefalografia (MEG) Inverse problem

Magnetoencefalografia (MEG) Forward task for inverse use UPSO com u = 0.1 Sensores: 10 – 1000 (incremento 10) 3 fontes Função potencial Cada partícula do enxame corresponde a um grupo candidato de 8 coeficientes. Valor dos coeficientes - média de 5 experimentos Erro entre números de sensores

Magnetoencefalografia (MEG) Forward task for inverse use