Programas Genes, R e MatLab integrados para fins de análises em Genética e Melhoramento Dr. Cosme Damião Cruz - UFV 04, 05 e 06/08/ :00h às 14:00h.

Slides:



Advertisements
Apresentações semelhantes
Agenda Introdução Justificativa Objetivo Detecção de Spam
Advertisements

REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
Lógica Difusa (Fuzzy). Lógica tradicional x Lógica difusa Lógica tradicional (Aristóteles) –Uma proposição = dois estados possíveis (V ou F) –Pode ser.
Redes Neurais Artificiais (RNA): Introdução
Redes Neurais Artificiais (RNA): Aprendizado
Lógica Fuzzy Aplicada a Sistemas de Diagnóstico
Introdução a Sistemas Fuzzy no Matlab e uso do Simulink
Sistemas especialistas Fuzzy
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Araken de Medeiros Santos Anne Magály de Paula Canuto
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Redes Neurais Artificiais
Redes Neurais Artificial
Aspectos da Implementação de Redes Neurais
5. MODELAGEM: PLANTAS E PROCESSOS - 1
Redes Neurais (Conceitos Fundamentais)
FACENS – Engenharia da Computação Inteligência Artificial
Inteligência Artificial
Inteligência Artificial
FACENS – Engenharia da Computação Inteligência Artificial
Inteligência Artificial
Polliana Corrêa Morais (bolsista); Leandro Osmar Werle (colaborador/
Estruturação e Desenvolvimento de
PHD 5729 SIMULAÇÃO HIDROLÓGICA
Anderson Berg Orientador: Prof. Fernando Buarque
INF 1771 – Inteligência Artificial
Previsão de consumos a curto prazo
A Framework for Robots Development and Programming Based on Genetic Algorithms Palmeira P.F.M Silvino J.S. de Melo J.C.D DEE-UFMG DELT-UFMG.
Introdução O que é computação?.
Uma Introdução às Redes Neurais
INF 1771 – Inteligência Artificial
Redes Neurais Prof. Alex F. V. Machado.
Redes neurais artificiais
DSC/CCT/UFCG Projeto de Redes Neurais Apresentação Parcial do Projeto Universidade Federal de Campina Grande Unidade Acadêmica de Sistemas e Computação.
Marcílio C. P. de Souto DIMAp/UFRN
Redes Neuronais/Neurais/ Conexionistas Introdução
Teste de Hipótese.
Introdução à Estatística
Redes Neurais Artificiais
Extração de Regras de RNA Wilian Soares Lacerda Fevereiro de 2003.
Estatística e Probabilidade
RNA – Radial Basis Function
REDES NEURAIS ARTIFICIAIS Mapa Auto-Organizável de Kohonen (Self-Organizing Map - SOM) pertence a classe de redes neurais não-supervisionadas que se baseiam.
Sobre o uso de métodos estatísticos auxiliares nos estágios iniciais de seleção dos programas de melhoramento de plantas Luiz Alexandre Peternelli Área.
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
Prof. Anne Magály de Paula Canuto
Universidade Federal de Lavras Departamento de Ciência da Computação
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Redes Neurais Artificiais
Redes Neurais Artificial
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Revisão de Sistemas Inteligentes
Redes Neurais Artificiais
O Que São as Redes Neurais Artificiais
Redes Neurais Artificiais Prof. Júlio Cesar Nievola PPGIA – PUCPR Especialização em Inteligência Computacional.
REDES NEURAIS E SUAS APLICAÇÕES ALUNO: Paulo Celso da Silva e Souza Junior.
Inteligência artificial (IA)
ITA - Instituto Tecnológico de Aeronáutica Arquiteturas Programáveis de uma Máquina de Inferência Fuzzy em Tecnologia CMOS Autor: Leonardo Mesquita Orientador:
Redes Neurais Artificiais
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Redes Neurais Artificiais (Parte 2)
Estimação: Estimativa Pontual Estimativa Intervalar
Regressão Linear Simples
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
1 Projeto Híbrido de Redes Neurais Ricardo Bastos C. Prudêncio Orientação: Teresa B. Ludermir CIn - UFPE Jan
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 08 Conjuntos Difusos Max Pereira.
Transcrição da apresentação:

Programas Genes, R e MatLab integrados para fins de análises em Genética e Melhoramento Dr. Cosme Damião Cruz - UFV 04, 05 e 06/08/2015 13:00h às 14:00h

Programa do Curso O programa Genes – Visão Geral Instalação Configurações Erros mais frequentes Integração Integração Genes e R Programa R Procedimentos Genes –R Integração Genes e MatLab Redes Neurais Lógica Fuzzy Mapa de Kohonen

Programa GENES - Integração Coleta de informações Processamento Script Arquivo auxiliar Resultados Usuário Pasta de dados do usuário C:\dados\ Interface de apresentação dos resultados para o usuário

REDES NEURAIS – Considerações Gerais Inteligência Computacional Área da ciência que estuda a teoria e a aplicação de técnicas inspiradas na Natureza, como Redes Neurais, Lógica Nebulosa e Computação Evolucionária. Redes Neurais Redes Neurais são modelos computacionais não lineares, inspirados na estrutura e operação do cérebro humano, que procuram reproduzir características humanas, tais como: aprendizado, associação, generalização e abstração. Devido à sua estrutura, as Redes Neurais são bastante efetivas no aprendizado de padrões a partir de dados não-linares, incompletos, com ruído e até compostos de exemplos contraditórios.

Paradigma Estatístico - Modelo Estatístico Qual é o melhor genótipo...A, B ou C ? Resposta: A B C Yij = m + Gi + Bj + Eij Modelo estatístico Pressuposições e distribuições Análises estatísticas

Paradigma da IC - Modelo biológico Que animal é este ??? Treinamento e aprendizagem

Aplicações de RNA disponíveis no Genes - Teoria - Comparação - Aplicação REDES NEURAIS VS ANÁLISE DISCRIMINANTE

Aplicações 1. RNA e análise discriminante Problema: Foram avaliadas 5 populações em relação a 5 características. Cada população era representada por 100 indivíduos. Arquivo: c:\dados\plano13_t.dat 80% de cada população c:\dados\plano13_v.dat 20% de cada população Objetivo: estudar a diferenciação entre as populações e estabelecer critério que permita classificar novos indivíduos em uma das cinco populações consideradas. a. Estudo da diferenciação dispersão dos dados de treinamento por componentes principais

b. Estudo da análise discriminante – Anderson (ou de Fisher) Teoria - Análise Discriminante de Anderson - Análise Discriminante de Fisher > 1

Análise e Processamento Resultado TREINAMENTO NÚMERO DE CLASSIFICAÇÕES ERRADAS : 34 NÚMERO TOTAL DE CLASSIFICAÇÕES : 240 TAXA DE ERRO APARENTE (%) : 14.16 ________________________________________________________________ Resumo - % de Classificação correta e incorreta de cada grupo Pop 1 2 3 1 91.25 0.0 8.75 2 0.0 86.25 13.75 3 16.25 3.75 80.0 VALIDAÇÃO: NÚMERO TOTAL DE CLASSIFICAÇÕES : 80 Número de erros : 12 Porcentagem de erros : 20.0

c. Estudo da análise discriminante - RNA Modelos McCulloch e Pitts

Modelos Modelo Percepetron Rosenblatt, 1958 Modelo Adaline Widrow e Hoff em 1960

Adaline vs Perceptron

Ilustração – Modelo MCP ( w1) X1 (w2) X2 θ = 16 Yr = 1 se f( Yr = 0 se f( Yd Erro = Yr-Yd 122.77 106.29 S1 = 12 1 110.01 111.08 S2 = 10 121.87 104.21 S3 125.21 114.94 S4 124.02 110.23 S5 125.52 105.07 S6 117.28 106.8 S7 112.16 112.43 S8 123.35 118.12 S9 117.76 110.81 S10 = 15 138.55 120.98 S11 = 22 2 148.3 111.9 S12 = 25 139.58 129.88 S13 132.88 110.37 S14 133.51 121.71 S15 136.33 112.81 S16 134.78 124.79 S17 145.28 138.13 S18 154.31 114.1 S19 136.43 115.29 S20 = 28 Conceitos envolvidos Pesos Somatório (porta do limiar) c. Limiar d. Função de ativação e. Saída de rede f. Saída desejada g. Erro – EQM Aprendizado EQM=0

   Perspectiva Histórica de RNAs

Perceptron Multicamadas (MLP) Fundamentou-se no desenvolvimento do algoritmo de treinamento backpropagation. Foi formulado por Rumelhart, Hinton e Williams em 1986, RUMELHART et. al. (1986), precedido por propostas semelhantes ocorridas nos anos 70 e 80, WERBOS (1974); PARKER (1985) Mostrou que é possível treinar eficientemente Redes Neurais com camadas intermediárias - Número de camadas Número de neurônios Função de ativação Alg. Treinamento Critério de parada

Utilizando RNA pela interação Genes - MatLab Definição da topologia de rede Processamento

Resultado Topologia Taxas de Erro Rede Neural Épocas : 1500 EQM : 1.000000e-02 Camadas Ocultas : 1 Algoritmo de Treinamento : 1 Earling stoping (1=sim, 2=nã0): 2 Embaralhar: (1=2im, 2=não) 2 Aq treinamento: c:\dados\plano13_t.dat Aq. Validação c:\dados\plano13_v.dat ------------------------------------ Topologia Neurônios na camada 1: 6 Neurônios na camada 2: 0 Neurônios na camada 3: 0 Neurônios na camada 4: 0 Neurônios na camada 5: 0 Funçao Atv 1: logsig Taxas de Erro Rede Neural

Utilização da RNA para classificação de novos indivíduos >> Resultado >> Entrada Class_P1 Class_P2 Class_P3 Class_P4 Orig_P1 20.00000 0 0 0 Orig_P2 0 20.00000 0 0 Orig_P3 0 0 20.00000 0 Orig_P4 0 0 0 0 Classificação pela Rede Obs Orig Clas 1 1 1 2 1 1 3 1 1 4 1 1 5 1 1 6 1 1 15 1 1 16 1 1 17 1 1 18 1 1 19 1 1 20 1 1 21 2 2 22 2 2 34 2 2 35 2 2 36 2 2 37 2 2 38 2 2 53 3 3 54 3 3 55 3 3 56 3 3 57 3 3 58 3 3 59 3 3 60 3 3 Total de classificações erradas : 0 >> Rede

REDES NEURAIS VS AJUSTE DE MODELOS

Problema: Foram avaliadas 6 variáveis em 200 indivíduos. Aplicações RNA e ajuste de modelo Problema: Foram avaliadas 6 variáveis em 200 indivíduos. Arquivo: c:\dados\plano18_t.dat c:\dados\plano18_v.dat Objetivo: Ajustar o modelo Y6 = f(Y1,Y2,Y3,Y4,Y5) a. Estudo da relação por regressão linear múltipla Entrada de dados Resultado ANÁLISE DE REGRESSÃO MÚLTIPLA ________________________________________________________________________ FV GL SQ QM F PROBABILIDADE REGRESSÃO 5 8422.60594451 1684.5211889 14.27430111 .00001558 DESVIO 154 18173.65775353 118.01076463 __________________________________________________________________________________ TOTAL 159 26596.26369804 R²(%) 31.66838034 R² ajustado(%) 29.44982126 ESTIMATIVAS DOS COEFICIENTES DE REGRESSÃO NOME COEFICIENTE(ß) DESVIO t PROBAB(*) x1 .73912376 .08792652 8.40615252 . x2 .0478388 .08298773 .57645636 .57238355 x3 .09276159 .08655529 1.07170332 .2855559 x4 .00250907 .08801405 .02850762 .97551702 x5 .11287609 .08320854 1.35654449 .17327821 CONSTANTE -96.25131852 (*) A PROBABILIDADE FOI OBTIDA PARA O TESTE t BILATERAL Processamento

b. Estudo da relação por RNA Entrada dos dados Topologia Processamento

Resultado – Importância de variáveis Resultado - Ajuste

c. Estudo da relação por regressão linear múltipla - Stepwise Entrada dos dados Modelagem ============ > Resultado final < ============ Modelo : x6= f(x 1) Regressão parcial ____________________________________________________________________________________________________ FV GL SQ QM F PROBAB REGRESSÃO 1 8083.77473 8083.77473 68.99323 . DESVIO 158 18512.48897 117.16765 TOTAL 159 26596.2637 R² : .3039 R² Aj : .2995 CoeficienteValor Desvio t Probabilidade(*) ß( 1 ) .72161 .08688 8.30622 . Constante -69.0101 Determinante da Matriz X'X 15524.38707 (*) Teste t bilateral Regressão sequencial x 1 1 8083.77473 8083.77473 68.99323 . Processamento Resultado

REDES NEURAIS VS GWS

3. RNA e GWS Problema: Foram avaliadas 3 variáveis (Vg, Vf, VfVg com H2 = 60% gmd = 0,5) em 300 indivíduos. Arquivo: c:\dados\F2gws_fenoEp.txt Também foi feita a genotipagem em relação a 500 marcadores Arquivo: c:\dados\F2gws_genoEp.txt Objetivo: Comparar resultado obtido por teoria de GWS e RNA a. Análise baseada em GWS Teoria Metodologia, proposta por Meuwissen et al. (2001), permite incorporar informações moleculares diretamente na predição do mérito genético dos indivíduos. Dessa forma, utiliza-se a informação fenotípica e genotípica do indivíduo (obtida via marcadores moleculares) para identificar e selecionar genótipos superiores

a. Análise baseada em GWS H² R² Entrada dos dados Fundamentos Ind M1 M2 ... Mm Fenótipo VGG G (verdadeiro) 1   Y1 VGG1 G1 2 Y2 VGG2 G2 3 -1 Y3 VGG3 G3 N YN VGGN a. Análise baseada em GWS H² R² Entrada dos dados Processamento

Acurácia ou confiabilidade Treinamento Validação R2 Treinamento R2 Validação H2 real Genotípico 0.5907649 0.3683474 100% Fenotípico 0.3330227 0.2236187 60% 0.3545634 60% - 100% Agentes pertubadores Dominância Epistasia Ambiente b. Análise baseada em RNA Entrada dos dados Topologia

Análise da Característica Genotípica Resultado Análise da Característica Genotípica Rede Neural – 2 camadas H² = 100% gmd = 0,5 Epistasia RNA Neurônios na camada 1: 8 Neurônios na camada 2: 12 Funçao Atv 1: logsig Funçao Atv 2: tansig GWS Treinamento Validação R2 Treinamento R2 Validação H2 real Genotípico 0.5907649 0.3683474 100%

Análise da Característica Fenotípica/Genotípica Resultado Rede Neural – 2 camadas H2 = 60% gmd = 0,5 Epistasia RNA Neurônios na camada 1: 8 Neurônios na camada 2: 12 Funçao Atv 1: logsig Funçao Atv 2: tansig GWS Treinamento Validação R2 Treinamento R2 Validação H2 real Fenotípico Genotípico 0.3330227 0.3545634 60% - 100%

REDES NEURAIS VS ANOVA

Arquivo: c:\dados\rede.dat 4. RNA e Anova Problema: Foram avaliadas 5 variáveis em experimentos em DBC envolvendo 100 cultivares e 6 blocos Arquivo: c:\dados\rede.dat Para fins de treinamento: Foi considerado como referência a variável 1. Arquivo ampliado: c:\dados\rede_t.dat (com 500 genótipos) Objetivo: Comparar resultado obtido pela média e a saída RNA Teoria Gen Bloco 1 Bloco 2 ... Bloco b Média Máx Min DP CV Pi Rank Classe RNA 1 Y11 Y12   Y1b Y1 2 Y21 Y22 Y2b Y2 3 Y31 Y32 Y3b Y3 g Yg1 Yg2 Ygb Yg

Estatísticas Auxiliares Média Max Min DP CV Pi Rank Classe RNA Entrada dos Dados Ampliação dos dados µ Σ µ Σ

Topologia Processamento Resultados

Importância das Estatísticas Auxiliares Média Max Min DP CV Pi Rank Classe

Melhor - Topologia de Rede Eficiência da RNA

Saída de Rede Valores associados aos genótipos = Gen Média Max Min DP Id1 29.00000 119.53500 131.63000 110.22000 7.82239 Id2 94.00000 118.31000 127.30000 108.06000 8.02068 Id3 82.00000 115.40833 127.12000 98.55000 9.58755 Id4 72.00000 115.26333 131.47000 92.58000 13.99433 Id5 5.00000 114.80000 139.63000 98.33000 15.68572 Id6 41.00000 114.08167 128.62000 92.83000 12.49490 Id7 37.00000 113.44500 139.30000 93.30000 17.85024 Id8 89.00000 111.88833 126.81000 97.37000 11.44704 Id9 85.00000 111.27333 127.21000 89.09000 13.65321 Id10 83.00000 110.86500 124.26000 81.33000 15.33652 Id11 67.00000 110.41333 126.69000 97.01000 11.19454 Id12 32.00000 110.28000 134.63000 87.22000 15.12335 Id13 21.00000 109.97167 120.36000 101.44000 6.31486 Id14 93.00000 109.29500 120.25000 92.32000 11.32562 Id15 48.00000 109.03833 120.40000 95.26000 11.06012 Id16 18.00000 108.78000 127.66000 84.72000 15.15585 Id17 38.00000 108.57333 118.27000 92.35000 11.51940 Id18 62.00000 106.30833 110.84000 98.99000 4.54291 Id19 39.00000 105.99667 110.31000 98.67000 4.42195 Id20 34.00000 105.71833 120.46000 91.95000 10.37383 CV Pi Rank Classe RNA 6.54402 12.77443 341.00000 1.00000 111.47239 6.77938 13.82928 279.00000 1.00000 111.47280 8.30750 15.09703 278.00000 2.00000 111.44669 12.14118 17.07908 321.00000 2.00000 111.36092 13.66352 16.94813 283.00000 2.00000 110.45529 10.95259 16.91903 338.00000 2.00000 111.36246 15.73471 19.62457 388.00000 2.00000 110.43134 10.23077 17.66813 311.00000 2.00000 110.72827 12.26998 18.83772 441.00000 2.00000 111.28558 13.83351 20.43622 426.00000 2.00000 111.15170 10.13876 19.78939 311.00000 2.00000 108.68471 13.71359 20.75967 239.00000 2.00000 110.29273 5.74226 18.70706 393.00000 2.00000 109.65315 10.36243 20.23781 334.00000 2.00000 110.81167 10.14334 19.69930 245.00000 2.00000 110.66185 13.93257 21.11901 260.00000 2.00000 111.15550 10.60979 20.55548 247.00000 2.00000 110.75068 4.27333 20.92129 245.00000 3.00000 103.74176 4.17178 20.80588 277.00000 3.00000 103.83507 9.81271 22.17218 379.00000 3.00000 105.33340

Seleção (Melhores) = Média RNA Rank Id1 29.00000 94.00000 51.00000 Descarte (piores) Id70 80.00000 12.00000 10.00000 Id71 25.00000 44.00000 41.00000 Id72 22.00000 73.00000 3.00000 Id73 45.00000 79.00000 35.00000 Id74 35.00000 77.00000 31.00000 Id75 12.00000 55.00000 87.00000 Id76 49.00000 68.00000 29.00000 Id77 97.00000 26.00000 23.00000 Id78 74.00000 33.00000 27.00000 Id79 19.00000 58.00000 64.00000 Id80 90.00000 14.00000 46.00000 Id81 7.00000 98.00000 44.00000 Id82 68.00000 80.00000 54.00000 Id83 42.00000 13.00000 7.00000 Id84 60.00000 61.00000 90.00000 Id85 3.00000 42.00000 34.00000 Id86 40.00000 63.00000 95.00000 Id87 33.00000 60.00000 56.00000 Id88 58.00000 40.00000 11.00000 Id89 61.00000 57.00000 37.00000 Id90 63.00000 6.00000 73.00000 Id91 57.00000 3.00000 26.00000 Id92 64.00000 1.00000 55.00000 Id93 6.00000 7.00000 21.00000 Id94 26.00000 100.00000 53.00000 Id95 50.00000 27.00000 71.00000 Id96 15.00000 19.00000 92.00000 Id97 27.00000 64.00000 83.00000 Id98 1.00000 50.00000 36.00000 Id99 100.00000 52.00000 97.00000 Id100 52.00000 15.00000 85.00000

MAPAS AUTO-ORGANIZÁVEIS DE KOHONEN

Mapas Auto-Organizáveis de Kohonen Teoria O Self-Organizing Map (SOM), ou Mapas Auto-Organizáveis foram desenvolvidos por Kohonen a partir de 1982 Aprendizado não-supervisionado, diferente de todas as redes neurais artificiais desenvolvidas até então É baseado em Aprendizagem Competitiva Aprendizagem Competitiva

Mapas Auto-Organizáveis Neurônio Vencedor O modelo de Kohonen Produz um mapeamento topológico Transforma um padrão de dimensão arbitrária em um mapa discreto uni- ou bidimensional Preserva a relação de vizinhança entre os neurônios Arranjo bidimensional de neurônios Conexões sinápticas Entrada x Moacir P. Ponti Jr.

Mapa Topológico No caso bidimensional, dois tipos de grade são possíveis: hexagonal ou retangular. Na hexagonal, cada neurônio possui 6 vizinhos diretos Na retangular, cada neurônio possui 4 vizinhos diretos Moacir P. Ponti Jr.

Aplicação Aplicação: Avaliação de 300 indivíduos a partir de 5 caraterísticas. Arquivo: plano13a.txt a. Análise de componentes principais – k means Entrada dos dados Processamento

Resultado K means Kohonen

Análise do genes

Análise pelo MatLab Resultado

LÓGICA FUZZY

Conceito • Extensão da lógica booleana para lidar com verdades parciais, incertezas • Linguagem natural que usa termos para descrever objetos: – Quando está muito nublado, muito provavelmente choverá - Os termos muito e muito provavelmente fazem sentido para o cérebro. • Lógica fuzzy: formalismo para escrever softwares que permitam sistemas computacionais trabalharem com termos vagos e tomarem decisões.

Precedente - Lógica de Lukasiewicz - 1920 Conceito • Extensão da lógica booleana para lidar com verdades parciais, incertezas • Linguagem natural que usa termos para descrever objetos: • Lógica fuzzy: formalismo para escrever softwares que permitam sistemas computacionais trabalharem com termos vagos e tomarem decisões. Precedente - Lógica de Lukasiewicz - 1920 • Jan Lukasiewicz inventa uma lógica tri-valorada – Verdadeiro, falso e talvez (ou indeterminado) – 0, 1 e u – 0, 1 e 1/2 1878 – 1956

Surgimento de Lógica Fuzzy - 1965 Lotfi Zadeh publica o Fuzzy Sets: • Admite uma gradação infinita entre falso e verdadeiro • Lógica de infinitos valores Zadeh, L. A. 1965, "Fuzzy sets" Information and Control 8: 338-53. (No. de citações: 6512. Fonte Isknowledge.com)

Aplicação Entre 1970 e 1980 as aplicações industriais da lógica "fuzzy" aconteceram com maior importância na Europa e após 1980, o Japão iniciou seu uso com aplicações na indústria. Algumas das primeiras aplicações foram em um tratamento de água feito pela Fuji Electric em 1983 e pela Hitachi em um sistema de metrô inaugurado em 1987. Por volta de 1990 é que a lógica "fuzzy" despertou um maior interesse em empresas dos Estados Unidos. Devido ao desenvolvimento e as inúmeras possibilidades práticas dos sistemas "fuzzy" e o grande sucesso comercial de suas aplicações, a lógica "fuzzy" é considerada hoje uma técnica "standard" e tem uma ampla aceitação na área de controle de processos industriais.

Conjuntos 1,70 1,75 1,68 1,78 1,65 1,72 Baixo = {1,65 1,68 } Alto = {1,70 1,72 1,75 1,78} Conjuntos fuzzy Em um conjunto fuzzy os elementos possuem grau de pertinência que mede a certeza do elemento no conjunto. Alto = {1,65 1,68 1,70 1,72 1,75 1,78} Baixo = {1,65 1,68 1,70 1,72 1,75 1,78} Alto = {1,65/0,1 1,68/0,3 1,70/0,5 1,72/0,6 1,75/0,7 1,78/0,9} Baixo = {1,65/0,9 1,68/0,7 1,70/0,5 1,72/0,4 1,75/0,3 1,78/0,1}

Conceito de Pertinência - São a essência dos conjuntos fuzzy. A FP define completamente o conjunto. Ex.: A = {a/0,2, b/0,9, c/0,4, d/1, e/0,4}

Funções de pertinência

Operações Fuzzy • Subconjunto • Igualdade • Complemento • União (T-norma) • Interseção (S-norma)

X = {a, b, c, d, e} Universo de Discurso Exemplo 1: Operações Fuzzy X = {a, b, c, d, e} Universo de Discurso A = {1/a, 0.7/b, 0.3/c, 0/d, 0.9/e} B = {0.2/a, 0.9/b, 0.4/c, 1/d, 0.4/e} – União • C = {1/a, 0.9/b, 0.4/c, 1/d, 0.9/e} – Interseção • D = {0.2/a, 0.7/b, 0.3/c, 0/d, 0.4/e}

Exemplo 2: Operações Fuzzy União Interseção Não A

Raciocínio nebuloso (rudimentar) Sejam os conjuntos fuzzy: ALTO = {Pedro/0.9 João/0.9} BOM_ATLETA = {Pedro/08 João/0.5} BOM_DE_BASQUETE = ALTO ^ BOM_ATLETA Qual é o melhor em basquete? ... Usando interseção ... BOM_DE_BASQUETE = = {Pedro/08 João/0.5}

Inferências Nebulosas Conceito: Procedimento que conduz a conclusões a partir de regras nebulosas e funções de pertinência. Procedimento: – Avaliar o antecedente – Aplicar o resultado ao conseqüente Exemplo: Regra - Se a estatura é alta então o peso é pesado. - Se altura =1.85 Então peso = ?)

Sistema de inferência nebulosa 1 Aplicação • Vários antecedentes • Vários conseqüentes 2 Arquitetura do Sistema

2 .1 Fuzificação • Etapa na qual as variáveis lingüísticas são definidas de forma subjetiva, bem como as funções de pertinência. • Associa valores de função de pertinência para os valores possíveis de entrada

2 .2 Inferência Etapa na qual as regras são definidas e depois são examinadas paralelamente (ver exemplo) • É o mecanismo-chave da inferência fuzzy • Na definição das regras, deve-se trabalhar com: • Regras condicionais Se W é Z então X é Y • Regras factuais X é Y 2 .3 Agregação -Calcula a importância de cada regra para o conseqüente.

2 .4 Defuzificação - Transforma valores fuzzy (funções de pertinência) em números reais. Dentre os diversos tipos de técnicas de defuzificação, destacam-se: Centróide First-of-Maxima Middle-of-Maxima Critério Máximo

Aplicação : Análise de adaptabilidade e estabilidade envolvendo 8 genótipos em 6 ambientes Análise de estabilidade e adaptabilidade Processamento

Arquivo gravado para análise fuzzy : c:\dados\plano2mga_FuzzyER.$$$ Resultado Estimativas dos parâmetros de adaptabilidade - Modelo Yij = ß0 + ß1Ij + dij + Eij. ________________________________________________________________________________ Genótipo Média(ß0) ß1 t (ß1=1) Probab(%) 1 284.9167 .9849 -2.0605 3.828 2 345.0833 1.5744 78.4322 . 3 510.9444 1.6619 90.3855 . 4 544.75 2.3233 180.7008 . 5 404.7778 2.3772 188.0627 . 6 345.1945 -.8222 -248.8385 . 7 260.9167 .0923 -123.9548 . 8 630.4444 -.1916 -162.7275 . Variância V(ß0) : .3333 Variância V(ß1): .0001 Correlação r(ß0,ß1) : .1744 Estimativas da estabilidade Genótipo Média S²d Probab(%) R²(%) 1 284.9167 3661.4598 .0 ** 71.1724 2 345.0833 10134.6269 .0 ** 69.511 3 510.9444 26917.9492 .0 ** 48.8908 4 544.75 3072.5543 .0 ** 94.2425 5 404.7778 42418.8226 .0 ** 55.3981 6 345.1945 2896.8262 .0 ** 68.4991 7 260.9167 6107.6533 .0 ** 1.2831 8 630.4444 103357.9471 .0 ** .3302 Arquivo gravado para análise fuzzy : c:\dados\plano2mga_FuzzyER.$$$

Processamento Fuzificação Agregação Defuzificação

Resultado Classificação dos genótipos quanto a seu comportamento matrizcomp = 'Genótipos' 'Comportamento' 'Pertinência' [ 1] 'Ruim' [ 0.7032] [ 2] 'Ruim' [ 0.6622] [ 3] 'Ruim' [ 0.5219] [ 4] 'Favorável' [ 0.7716] [ 5] 'Ruim' [ 0.5275] [ 6] 'Ruim' [ 0.6620] [ 7] 'Ruim' [ 0.8138] [ 8] 'Ruim' [ 0.8940] Pertinências MatrizPertsSaidaER2 = 'Genótipos' 'Média Geral' 'B1' 'R²' 'Geral' 'Ruim' 'Favorável' 'Desfavorável' [ 1] [ 33.5326] [ -1.3112] [71.1724] [0.2249] [0.7032] [ 0] [ 0.2249] [ 2] [ 41.0981] [ 88.9184] [69.5110] [ 0] [0.6622] [ 0.3378] [ 0] [ 3] [ 61.9538] [ 102.3112] [48.8908] [ 0] [0.5219] [ 0.4781] [ 0] [ 4] [ 66.2046] [ 203.5459] [94.2425] [ 0] [0.2284] [ 0.7716] [ 0] [ 5] [ 48.6042] [ 211.7959] [55.3981] [ 0] [0.5275] [ 0.4725] [ 0] [ 6] [ 41.1120] [-277.9082] [68.4991] [ 0] [0.6620] [ 0] [ 0.3380] [ 7] [ 30.5147] [-137.9337] [ 1.2831] [ 0] [0.8138] [ 0] [ 3.2927e-04] [ 8] [ 76.9800] [-181.3878] [ 0.3302] [ 0] [0.8940] [ 0] [ 2.1806e-05]