A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.

Apresentações semelhantes


Apresentação em tema: "Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior."— Transcrição da apresentação:

1 Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior Rio de Janeiro 2011

2 Introdução Estudos cerebrais e em biologia molecular produzem grande quantidade de dados. Processamento e avaliação está no campo de bioinformática. Metodologias de processamento de informação. Metodologias de processamento de informação. Tarefas biológicas; Tarefas biomédicas. Desenvolvimento de modelos computacionais. Desenvolvimento de modelos computacionais.Modelagem; Mineração de dados; Machine learning. Exemplos de problemas: Exemplos de problemas: Localização de proteínas; Análise de genoma e sequências de genomas; Análise e monitoramento da atividade cerebral.

3 Introdução Metodologias: Redes neurais; Redes neurais; Algoritmos evolucionários; Algoritmos evolucionários; Inteligência de enxame. Inteligência de enxame. Particle swarm optimization (PSO) combinado com diferentes técnicas de modelagem: Modelo adaptativo de redes neurais para classificação; Modelo adaptativo de redes neurais para classificação; Modelamento adaptativo – PSO, mecanismo de configuração básico. Localização de proteínas. Diagnósticos médicos. PSO unificado aplicado à problemas de magnetoencefalografia (MEG). PSO unificado aplicado à problemas de magnetoencefalografia (MEG). PSO para detectar fontes excitatórias desconhecidas.

4 Redes Neurais Probabilísticas (PNNs) PNNs - modelos de redes neurais de classificação supervisionadas. Está relacionada: Está relacionada: Regra de classificação de Bayes; Teoria de estimação com função densidade de probabilidade (PDF) não paramétrica de Parzen Vantagem da PNN Habilidade para explorar todas informações disponíveis no problema e fornecer medidas de incerteza da classificação. Habilidade para explorar todas informações disponíveis no problema e fornecer medidas de incerteza da classificação. Ex. Classificação de câncer – probabilidade de tumor maligno ou benigno. Diferente de resposta sim ou não de outros classificadores.

5 Redes Neurais Probabilísticas (PNNs) Aplicações de PNN na biomédica: PNN combinado com método de extração de características na classificação de câncer (Huang 2002). PNN combinado com método de extração de características na classificação de câncer (Huang 2002). PNN para desenvolver modelos metabonômicos baseado em NMR para predição de toxidade induzida por xenobióticos, enfatizando seu potencial na aceleração de descobertas de novas drogas (Holmes et al. 2001). PNN para desenvolver modelos metabonômicos baseado em NMR para predição de toxidade induzida por xenobióticos, enfatizando seu potencial na aceleração de descobertas de novas drogas (Holmes et al. 2001). PNN na construção de sistema de predição automática, eficiente e confiável para localização de proteína sub-celular em análises de genomas em grandes escalas (Guo et al. 2004). PNN na construção de sistema de predição automática, eficiente e confiável para localização de proteína sub-celular em análises de genomas em grandes escalas (Guo et al. 2004). PNN para identificar pequenas mudanças em quantidade e volume do tecido cerebral através de análises de imagens de ressonância magnética (Wang et al. 1998) PNN para identificar pequenas mudanças em quantidade e volume do tecido cerebral através de análises de imagens de ressonância magnética (Wang et al. 1998)

6 Redes Neurais Probabilísticas (PNNs) A estrutura da PNN é semelhante a das redes neurais feedforward. PNN tem 4 camadas: input, pattern, summation e output.

7 Redes Neurais Probabilísticas (PNNs) Parâmetros de espalhamento determinam forma e tamanho do kernel. PNN homocedástico – utiliza um único parâmetro de espalhamento global; PNN homocedástico – utiliza um único parâmetro de espalhamento global; PNN heterocedástico – utiliza separados parâmetros de espalhamento não correlacionados. PNN heterocedástico – utiliza separados parâmetros de espalhamento não correlacionados.

8 Modelo PNN adaptativo (SA-PNN) A matriz de espalhamento, ∑, tem efeito direto nos kernels (elementos de classificação das PNNs) A detecção de uma ∑ ótima aumenta significantemente a qualidade de qualificação das PNNs. PNN adaptativo (Georgiou et al. 2006) – uso do PSO Incorporou algoritmos de otimização para detectar parâmetros de espalhamento ótimos. Incorporou algoritmos de otimização para detectar parâmetros de espalhamento ótimos. PNN homocedástico PNN heterocedástico

9 Modelo PNN adaptativo (SA-PNN) Georgiou et al. (2006) utilizou a proporção de erro de classificação leave-one- out do grupo de treinamento como valor objetivo da partícula (matriz de espalhamento). A PNN foi treinada utilizando todos os modelos do grupo de treinamento. O modelo excluído é usado para avaliar a acurácia da classificação. O processo repete excluindo modelos a modelo, até acabar todos modelos

10 Experimentos e resultados Modelo SA-PNN com PSO aplicado a: E. Coli E. Coli Localização celular de proteínas (8 locais) Levedura Levedura Localização celular de proteínas (10 locais) Câncer de mama Câncer de mama Classificação: benigno e maligno Diabetes de índios Pima Diabetes de índios Pima Classificação: com ou sem diabetes

11 Experimentos e resultados Foram utilizadas 3 técnicas de amostragem: 1 - Stratified random sampling (SRS) 1 - Stratified random sampling (SRS) Conjunto de dados com tamanho N e K classes, é dividido em K subgrupos não sobrepostos (camadas), contendo N k vetores padrão da k-gésima classe (k = 1, 2,..., K). Uma amostra aleatória de tamanho a k é selecionada independentemente de cada camada. Todas amostras selecionadas são colocadas juntas para formar a SRS. As amostras não selecionadas são utilizadas como grupo teste.

12 Experimentos e resultados 2 - λ-fold cross-validation (λ-CV) 2 - λ-fold cross-validation (λ-CV) O grupo de dados é dividido em λ partes de tamanho aproximadamente iguais. Cada subgrupo é utilizado como grupo teste. Enquanto o resto é usado como grupos de treinamento. 3 - Train-validation-test partitioning (TVT) 3 - Train-validation-test partitioning (TVT) Os dados são divididos em 3 componentes.. PSO minimiza o erro de classificação leave-one-out no grupo de treinamento para determinar ∑. Erro e validação são monitorados a cada interação.

13 Experimentos e resultados Georgiou et al. (2006) aplicou: SA-PNNs homocedástico SA-PNNs homocedástico Otimizado com constriction coefficient Inertia weight SA-PNNs heterocedástico SA-PNNs heterocedástico Otimizado com constriction coefficient Inertia weight Comparou o desempenho com: PNN básico PNN básico PNN otimizado com golden section PNN otimizado com golden section NN feedforward NN feedforward Máquina de vetores suporte Máquina de vetores suporte

14 Experimentos e resultados Parâmetros do PSO Teste Kolmogorov-Smirnov E. Coli LeveduraDiabetes Câncer de mama λ-CV ******* SRS* TVT*

15 Experimentos e resultados Combinações entre SA-PNN e PSO mais eficientes dependem do problema em questão e das técnicas de amostragem. Melhores desempenhos: SRS e TVT - constriction coefficient para qualquer modelo SA-PNN SRS e TVT - constriction coefficient para qualquer modelo SA-PNN λ-CV com constriction coefficient λ-CV com constriction coefficient SA-PNN homocedático - E. Coli SA-PNN heterocedático – diabetes de índios Pima Inertia weight - levedura e câncer de mama, para modelos homo e heterocedáticos. Inertia weight - levedura e câncer de mama, para modelos homo e heterocedáticos. SA-PNN homocedático - E. Coli e câncer de mama SA-PNN homocedático - E. Coli e câncer de mama SA-PNN heterocedático - levedura e diabetes dos índios Pima SA-PNN heterocedático - levedura e diabetes dos índios Pima PSO promove melhoramentos em modelos PNN

16 Magnetoencefalografia (MEG) Utilizada em estudos sobre o comportamento funcional do cérebro. Baseada na captura e análise de campos elétricos gerados pela excitação de pequenas áreas do cérebro.

17 Magnetoencefalografia (MEG) Parsopoulos et al. (2009) - dois problemas em MEG utilizando PSO: Inverse problem – fonte de excitação desconhecida é detectada por um número de sensores. Inverse problem – fonte de excitação desconhecida é detectada por um número de sensores. Identificar a fonte. Forward task for inverse use – computação de coeficientes que otimizam a aproximação de potenciais magnéticos através de expansões esféricas Forward task for inverse use – computação de coeficientes que otimizam a aproximação de potenciais magnéticos através de expansões esféricas Expansão esférica:

18 Magnetoencefalográfia (MEG) Inverse problem PSO foi utilizado para detectar as 3 fontes em diferentes níveis de ruído. Cada partícula do enxame foi considerada uma posição candidata da fonte. PSO unificado (UPSO) com constriction coeficient

19 Magnetoencefalografia (MEG) Inverse problem

20 Magnetoencefalografia (MEG) Forward task for inverse use UPSO com u = 0.1 Sensores: 10 – 1000 (incremento 10) 3 fontes Função potencial Cada partícula do enxame corresponde a um grupo candidato de 8 coeficientes. Valor dos coeficientes - média de 5 experimentos Erro entre números de sensores

21 Magnetoencefalografia (MEG) Forward task for inverse use


Carregar ppt "Applications in Bioinformatics and Medical Informatics Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior."

Apresentações semelhantes


Anúncios Google