Carregar apresentação
A apresentação está carregando. Por favor, espere
PublicouCláudio Capistrano Barros Alterado mais de 8 anos atrás
2
Programas Genes, R e MatLab integrados para fins de análises em Genética e Melhoramento Dr. Cosme Damião Cruz - UFV 04, 05 e 06/08/2015 13:00h às 14:00h
3
Programa do Curso O programa Genes – Visão Geral Instalação Configurações Erros mais frequentes Integração Integração Genes e R Programa R Procedimentos Genes –R Integração Genes e MatLab Redes Neurais Lógica Fuzzy Mapa de Kohonen
4
Programa GENES - Integração
Coleta de informações Processamento Script Arquivo auxiliar Resultados Usuário Pasta de dados do usuário C:\dados\ Interface de apresentação dos resultados para o usuário
5
REDES NEURAIS – Considerações Gerais
Inteligência Computacional Área da ciência que estuda a teoria e a aplicação de técnicas inspiradas na Natureza, como Redes Neurais, Lógica Nebulosa e Computação Evolucionária. Redes Neurais Redes Neurais são modelos computacionais não lineares, inspirados na estrutura e operação do cérebro humano, que procuram reproduzir características humanas, tais como: aprendizado, associação, generalização e abstração. Devido à sua estrutura, as Redes Neurais são bastante efetivas no aprendizado de padrões a partir de dados não-linares, incompletos, com ruído e até compostos de exemplos contraditórios.
6
Paradigma Estatístico - Modelo Estatístico
Qual é o melhor genótipo...A, B ou C ? Resposta: A B C Yij = m + Gi + Bj + Eij Modelo estatístico Pressuposições e distribuições Análises estatísticas
7
Paradigma da IC - Modelo biológico
Que animal é este ??? Treinamento e aprendizagem
8
Aplicações de RNA disponíveis no Genes
- Teoria - Comparação - Aplicação REDES NEURAIS VS ANÁLISE DISCRIMINANTE
9
Aplicações 1. RNA e análise discriminante Problema: Foram avaliadas 5 populações em relação a 5 características. Cada população era representada por 100 indivíduos. Arquivo: c:\dados\plano13_t.dat % de cada população c:\dados\plano13_v.dat % de cada população Objetivo: estudar a diferenciação entre as populações e estabelecer critério que permita classificar novos indivíduos em uma das cinco populações consideradas. a. Estudo da diferenciação dispersão dos dados de treinamento por componentes principais
10
b. Estudo da análise discriminante – Anderson (ou de Fisher)
Teoria - Análise Discriminante de Anderson - Análise Discriminante de Fisher > 1
11
Análise e Processamento
Resultado TREINAMENTO NÚMERO DE CLASSIFICAÇÕES ERRADAS : 34 NÚMERO TOTAL DE CLASSIFICAÇÕES : 240 TAXA DE ERRO APARENTE (%) : ________________________________________________________________ Resumo - % de Classificação correta e incorreta de cada grupo Pop VALIDAÇÃO: NÚMERO TOTAL DE CLASSIFICAÇÕES : 80 Número de erros : 12 Porcentagem de erros : 20.0
12
c. Estudo da análise discriminante - RNA
Modelos McCulloch e Pitts
13
Modelos Modelo Percepetron Rosenblatt, 1958 Modelo Adaline Widrow e Hoff em 1960
14
Adaline vs Perceptron
15
Ilustração – Modelo MCP
( w1) X1 (w2) X2 θ = 16 Yr = 1 se f( Yr = 0 se f( Yd Erro = Yr-Yd 122.77 106.29 S1 = 12 1 110.01 111.08 S2 = 10 121.87 104.21 S3 125.21 114.94 S4 124.02 110.23 S5 125.52 105.07 S6 117.28 106.8 S7 112.16 112.43 S8 123.35 118.12 S9 117.76 110.81 S10 = 15 138.55 120.98 S11 = 22 2 148.3 111.9 S12 = 25 139.58 129.88 S13 132.88 110.37 S14 133.51 121.71 S15 136.33 112.81 S16 134.78 124.79 S17 145.28 138.13 S18 154.31 114.1 S19 136.43 115.29 S20 = 28 Conceitos envolvidos Pesos Somatório (porta do limiar) c. Limiar d. Função de ativação e. Saída de rede f. Saída desejada g. Erro – EQM Aprendizado EQM=0
16
Perspectiva Histórica de RNAs
17
Perceptron Multicamadas (MLP)
Fundamentou-se no desenvolvimento do algoritmo de treinamento backpropagation. Foi formulado por Rumelhart, Hinton e Williams em 1986, RUMELHART et. al. (1986), precedido por propostas semelhantes ocorridas nos anos 70 e 80, WERBOS (1974); PARKER (1985) Mostrou que é possível treinar eficientemente Redes Neurais com camadas intermediárias - Número de camadas Número de neurônios Função de ativação Alg. Treinamento Critério de parada
18
Utilizando RNA pela interação Genes - MatLab
Definição da topologia de rede Processamento
19
Resultado Topologia Taxas de Erro Rede Neural Épocas : 1500
EQM : e-02 Camadas Ocultas : 1 Algoritmo de Treinamento : 1 Earling stoping (1=sim, 2=nã0): 2 Embaralhar: (1=2im, 2=não) 2 Aq treinamento: c:\dados\plano13_t.dat Aq. Validação c:\dados\plano13_v.dat Topologia Neurônios na camada 1: 6 Neurônios na camada 2: 0 Neurônios na camada 3: 0 Neurônios na camada 4: 0 Neurônios na camada 5: 0 Funçao Atv 1: logsig Taxas de Erro Rede Neural
20
Utilização da RNA para classificação de novos indivíduos
>> Resultado >> Entrada Class_P1 Class_P2 Class_P3 Class_P4 Orig_P Orig_P Orig_P Orig_P Classificação pela Rede Obs Orig Clas Total de classificações erradas : 0 >> Rede
21
REDES NEURAIS VS AJUSTE DE MODELOS
22
Problema: Foram avaliadas 6 variáveis em 200 indivíduos.
Aplicações RNA e ajuste de modelo Problema: Foram avaliadas 6 variáveis em 200 indivíduos. Arquivo: c:\dados\plano18_t.dat c:\dados\plano18_v.dat Objetivo: Ajustar o modelo Y6 = f(Y1,Y2,Y3,Y4,Y5) a. Estudo da relação por regressão linear múltipla Entrada de dados Resultado ANÁLISE DE REGRESSÃO MÚLTIPLA ________________________________________________________________________ FV GL SQ QM F PROBABILIDADE REGRESSÃO DESVIO __________________________________________________________________________________ TOTAL R²(%) R² ajustado(%) ESTIMATIVAS DOS COEFICIENTES DE REGRESSÃO NOME COEFICIENTE(ß) DESVIO t PROBAB(*) x x x x x CONSTANTE (*) A PROBABILIDADE FOI OBTIDA PARA O TESTE t BILATERAL Processamento
23
b. Estudo da relação por RNA
Entrada dos dados Topologia Processamento
24
Resultado – Importância de variáveis
Resultado - Ajuste
25
c. Estudo da relação por regressão linear múltipla - Stepwise
Entrada dos dados Modelagem ============ > Resultado final < ============ Modelo : x6= f(x 1) Regressão parcial ____________________________________________________________________________________________________ FV GL SQ QM F PROBAB REGRESSÃO DESVIO TOTAL R² : R² Aj : .2995 CoeficienteValor Desvio t Probabilidade(*) ß( 1 ) Constante Determinante da Matriz X'X (*) Teste t bilateral Regressão sequencial x Processamento Resultado
26
REDES NEURAIS VS GWS
27
3. RNA e GWS Problema: Foram avaliadas 3 variáveis (Vg, Vf, VfVg com H2 = 60% gmd = 0,5) em 300 indivíduos. Arquivo: c:\dados\F2gws_fenoEp.txt Também foi feita a genotipagem em relação a 500 marcadores Arquivo: c:\dados\F2gws_genoEp.txt Objetivo: Comparar resultado obtido por teoria de GWS e RNA a. Análise baseada em GWS Teoria Metodologia, proposta por Meuwissen et al. (2001), permite incorporar informações moleculares diretamente na predição do mérito genético dos indivíduos. Dessa forma, utiliza-se a informação fenotípica e genotípica do indivíduo (obtida via marcadores moleculares) para identificar e selecionar genótipos superiores
28
a. Análise baseada em GWS H² R² Entrada dos dados
Fundamentos Ind M1 M2 ... Mm Fenótipo VGG G (verdadeiro) 1 Y1 VGG1 G1 2 Y2 VGG2 G2 3 -1 Y3 VGG3 G3 N YN VGGN a. Análise baseada em GWS H² R² Entrada dos dados Processamento
29
Acurácia ou confiabilidade
Treinamento Validação R2 Treinamento R2 Validação H2 real Genotípico 100% Fenotípico 60% 60% - 100% Agentes pertubadores Dominância Epistasia Ambiente b. Análise baseada em RNA Entrada dos dados Topologia
30
Análise da Característica Genotípica
Resultado Análise da Característica Genotípica Rede Neural – 2 camadas H² = 100% gmd = 0,5 Epistasia RNA Neurônios na camada 1: 8 Neurônios na camada 2: 12 Funçao Atv 1: logsig Funçao Atv 2: tansig GWS Treinamento Validação R2 Treinamento R2 Validação H2 real Genotípico 100%
31
Análise da Característica Fenotípica/Genotípica Resultado
Rede Neural – 2 camadas H2 = 60% gmd = 0,5 Epistasia RNA Neurônios na camada 1: 8 Neurônios na camada 2: 12 Funçao Atv 1: logsig Funçao Atv 2: tansig GWS Treinamento Validação R2 Treinamento R2 Validação H2 real Fenotípico Genotípico 60% - 100%
32
REDES NEURAIS VS ANOVA
33
Arquivo: c:\dados\rede.dat
4. RNA e Anova Problema: Foram avaliadas 5 variáveis em experimentos em DBC envolvendo 100 cultivares e 6 blocos Arquivo: c:\dados\rede.dat Para fins de treinamento: Foi considerado como referência a variável 1. Arquivo ampliado: c:\dados\rede_t.dat (com 500 genótipos) Objetivo: Comparar resultado obtido pela média e a saída RNA Teoria Gen Bloco 1 Bloco 2 ... Bloco b Média Máx Min DP CV Pi Rank Classe RNA 1 Y11 Y12 Y1b Y1 2 Y21 Y22 Y2b Y2 3 Y31 Y32 Y3b Y3 g Yg1 Yg2 Ygb Yg
34
Estatísticas Auxiliares
Média Max Min DP CV Pi Rank Classe RNA Entrada dos Dados Ampliação dos dados µ Σ µ Σ
35
Topologia Processamento Resultados
36
Importância das Estatísticas Auxiliares
Média Max Min DP CV Pi Rank Classe
37
Melhor - Topologia de Rede
Eficiência da RNA
38
Saída de Rede Valores associados aos genótipos = Gen Média Max Min DP
Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id CV Pi Rank Classe RNA
39
Seleção (Melhores) = Média RNA Rank Id1 29.00000 94.00000 51.00000
Descarte (piores) Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id Id
40
MAPAS AUTO-ORGANIZÁVEIS DE KOHONEN
41
Mapas Auto-Organizáveis de Kohonen
Teoria O Self-Organizing Map (SOM), ou Mapas Auto-Organizáveis foram desenvolvidos por Kohonen a partir de 1982 Aprendizado não-supervisionado, diferente de todas as redes neurais artificiais desenvolvidas até então É baseado em Aprendizagem Competitiva Aprendizagem Competitiva
42
Mapas Auto-Organizáveis
Neurônio Vencedor O modelo de Kohonen Produz um mapeamento topológico Transforma um padrão de dimensão arbitrária em um mapa discreto uni- ou bidimensional Preserva a relação de vizinhança entre os neurônios Arranjo bidimensional de neurônios Conexões sinápticas Entrada x Moacir P. Ponti Jr.
43
Mapa Topológico No caso bidimensional, dois tipos de grade são possíveis: hexagonal ou retangular. Na hexagonal, cada neurônio possui 6 vizinhos diretos Na retangular, cada neurônio possui 4 vizinhos diretos Moacir P. Ponti Jr.
44
Aplicação Aplicação: Avaliação de 300 indivíduos a partir de 5 caraterísticas. Arquivo: plano13a.txt a. Análise de componentes principais – k means Entrada dos dados Processamento
45
Resultado K means Kohonen
46
Análise do genes
47
Análise pelo MatLab Resultado
49
LÓGICA FUZZY
50
Conceito • Extensão da lógica booleana para lidar com verdades parciais, incertezas • Linguagem natural que usa termos para descrever objetos: – Quando está muito nublado, muito provavelmente choverá - Os termos muito e muito provavelmente fazem sentido para o cérebro. • Lógica fuzzy: formalismo para escrever softwares que permitam sistemas computacionais trabalharem com termos vagos e tomarem decisões.
51
Precedente - Lógica de Lukasiewicz - 1920
Conceito • Extensão da lógica booleana para lidar com verdades parciais, incertezas • Linguagem natural que usa termos para descrever objetos: • Lógica fuzzy: formalismo para escrever softwares que permitam sistemas computacionais trabalharem com termos vagos e tomarem decisões. Precedente - Lógica de Lukasiewicz • Jan Lukasiewicz inventa uma lógica tri-valorada – Verdadeiro, falso e talvez (ou indeterminado) – 0, 1 e u – 0, 1 e 1/2 1878 – 1956
52
Surgimento de Lógica Fuzzy - 1965
Lotfi Zadeh publica o Fuzzy Sets: • Admite uma gradação infinita entre falso e verdadeiro • Lógica de infinitos valores Zadeh, L. A. 1965, "Fuzzy sets" Information and Control 8: (No. de citações: Fonte Isknowledge.com)
53
Aplicação Entre 1970 e 1980 as aplicações industriais da lógica "fuzzy" aconteceram com maior importância na Europa e após 1980, o Japão iniciou seu uso com aplicações na indústria. Algumas das primeiras aplicações foram em um tratamento de água feito pela Fuji Electric em 1983 e pela Hitachi em um sistema de metrô inaugurado em 1987. Por volta de 1990 é que a lógica "fuzzy" despertou um maior interesse em empresas dos Estados Unidos. Devido ao desenvolvimento e as inúmeras possibilidades práticas dos sistemas "fuzzy" e o grande sucesso comercial de suas aplicações, a lógica "fuzzy" é considerada hoje uma técnica "standard" e tem uma ampla aceitação na área de controle de processos industriais.
54
Conjuntos 1,70 1,75 1, , , ,72 Baixo = {1,65 1,68 } Alto = {1,70 1,72 1,75 1,78} Conjuntos fuzzy Em um conjunto fuzzy os elementos possuem grau de pertinência que mede a certeza do elemento no conjunto. Alto = {1,65 1,68 1,70 1,72 1,75 1,78} Baixo = {1,65 1,68 1,70 1,72 1,75 1,78} Alto = {1,65/0,1 1,68/0,3 1,70/0,5 1,72/0,6 1,75/0,7 1,78/0,9} Baixo = {1,65/0,9 1,68/0,7 1,70/0,5 1,72/0,4 1,75/0,3 1,78/0,1}
55
Conceito de Pertinência -
São a essência dos conjuntos fuzzy. A FP define completamente o conjunto. Ex.: A = {a/0,2, b/0,9, c/0,4, d/1, e/0,4}
56
Funções de pertinência
59
Operações Fuzzy • Subconjunto • Igualdade • Complemento • União (T-norma) • Interseção (S-norma)
60
X = {a, b, c, d, e} Universo de Discurso
Exemplo 1: Operações Fuzzy X = {a, b, c, d, e} Universo de Discurso A = {1/a, /b, 0.3/c, 0/d, 0.9/e} B = {0.2/a, 0.9/b, 0.4/c, 1/d, 0.4/e} – União • C = {1/a, /b, /c, 1/d, /e} – Interseção • D = {0.2/a, 0.7/b, /c, /d, /e}
61
Exemplo 2: Operações Fuzzy
União Interseção Não A
62
Raciocínio nebuloso (rudimentar)
Sejam os conjuntos fuzzy: ALTO = {Pedro/0.9 João/0.9} BOM_ATLETA = {Pedro/08 João/0.5} BOM_DE_BASQUETE = ALTO ^ BOM_ATLETA Qual é o melhor em basquete? ... Usando interseção ... BOM_DE_BASQUETE = = {Pedro/08 João/0.5}
63
Inferências Nebulosas
Conceito: Procedimento que conduz a conclusões a partir de regras nebulosas e funções de pertinência. Procedimento: – Avaliar o antecedente – Aplicar o resultado ao conseqüente Exemplo: Regra - Se a estatura é alta então o peso é pesado. - Se altura =1.85 Então peso = ?)
64
Sistema de inferência nebulosa
1 Aplicação • Vários antecedentes • Vários conseqüentes 2 Arquitetura do Sistema
65
2 .1 Fuzificação • Etapa na qual as variáveis lingüísticas são definidas de forma subjetiva, bem como as funções de pertinência. • Associa valores de função de pertinência para os valores possíveis de entrada
66
2 .2 Inferência Etapa na qual as regras são definidas e depois são examinadas paralelamente (ver exemplo) • É o mecanismo-chave da inferência fuzzy • Na definição das regras, deve-se trabalhar com: • Regras condicionais Se W é Z então X é Y • Regras factuais X é Y 2 .3 Agregação -Calcula a importância de cada regra para o conseqüente.
67
2 .4 Defuzificação - Transforma valores fuzzy (funções de pertinência) em números reais. Dentre os diversos tipos de técnicas de defuzificação, destacam-se: Centróide First-of-Maxima Middle-of-Maxima Critério Máximo
68
Aplicação : Análise de adaptabilidade e estabilidade envolvendo
8 genótipos em 6 ambientes Análise de estabilidade e adaptabilidade Processamento
69
Arquivo gravado para análise fuzzy : c:\dados\plano2mga_FuzzyER.$$$
Resultado Estimativas dos parâmetros de adaptabilidade - Modelo Yij = ß0 + ß1Ij + dij + Eij. ________________________________________________________________________________ Genótipo Média(ß0) ß t (ß1=1) Probab(%) Variância V(ß0) : Variância V(ß1): Correlação r(ß0,ß1) : Estimativas da estabilidade Genótipo Média S²d Probab(%) R²(%) ** ** ** ** ** ** ** ** Arquivo gravado para análise fuzzy : c:\dados\plano2mga_FuzzyER.$$$
70
Processamento Fuzificação Agregação Defuzificação
71
Resultado Classificação dos genótipos quanto a seu comportamento
matrizcomp = 'Genótipos' 'Comportamento' 'Pertinência' [ ] 'Ruim' [ ] [ ] 'Ruim' [ ] [ ] 'Ruim' [ ] [ ] 'Favorável' [ ] [ ] 'Ruim' [ ] [ ] 'Ruim' [ ] [ ] 'Ruim' [ ] [ ] 'Ruim' [ ] Pertinências MatrizPertsSaidaER2 = 'Genótipos' 'Média Geral' 'B1' 'R²' 'Geral' 'Ruim' 'Favorável' 'Desfavorável' [ ] [ ] [ ] [ ] [0.2249] [0.7032] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.6622] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.5219] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.2284] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.5275] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.6620] [ ] [ ] [ ] [ ] [ ] [ ] [ 0] [0.8138] [ ] [ e-04] [ ] [ ] [ ] [ ] [ 0] [0.8940] [ ] [ e-05]
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.