Agrupamento e Classificação de Padrões
Característica = Número de Vértices Agrupamento: Característica = Número de Vértices 0 vértices 4 vértices
Característica = Cor (Comprimento de Onda) Agrupamento: Característica = Cor (Comprimento de Onda) = 470 nm = 550 nm
Agrupamento: Característica = Área A > 3 cm2 A 3 cm2
Classificação ? 0 vértices 4 vértices
Classificação ? 0 vértices 4 vértices
Classificação ? 0 vértices 4 vértices
Classificação ? 0 vértices 4 vértices
Classificação ? 0 vértices 4 vértices
? 0 vértices 4 vértices
Reconhecimento de Padrões Círculo
Reconhecimento de Padrões Quadrado
Reconhecimento de Padrões Uh?
Ventilador acionado por Motor DC W TAC MOT J,B BAT I mot W,t
Ventilador acionado por Motor DC t,W F A V W TAC MOT J,B BAT I mot W,t
Ventilador acionado por Motor DC t,W F t nom W w nom
Ventilador acionado por Motor DC t,W F B t nom W w nom
Ventilador acionado por Motor DC RBAT + Ra W
Ventilador acionado por Motor DC VBAT W
Ventilador acionado por Motor DC Eixo Quebrado W
Ventilador acionado por Motor DC Curto-ciruito Eixo-travado W
Imot E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E E E E N N N B N N B B B B Q Q Q Q Q W
Imot E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E E E E N N N B N N B B B B Q Q Q Q Q W
Imot E – Escova com R N – Nominal B – Bateria com V C – Curto g( W , Imot ) = 0 C < 0 > 0 C Curto-circuito Motor-travado T E – Escova com R N – Nominal B – Bateria com V C – Curto T – Eixo Travado Q – Eixo Quebrado T T E E Eixo Quebrado E E E N N N B N N B B B B Q Q d Q Q Qnew Q W
0.2935 0.0151 1.0227 0.0016 0.2549 0.0121 0.2960 0.0131 0.2871 0.0151 1.0943 0.0021 0.3128 0.0138 0.3004 0.0143 0.2636 0.0122 0.3048 0.0140 0.3036 0.0131 0.3054 0.0139 0.9157 0.0023 0.3573 0.0155 0.2950 0.0131 0.3431 0.0155 0.3191 0.0135 0.3071 0.0143 0.2975 0.0140 0.3382 0.0159 0.2672 0.0122 0.3509 0.0159 0.3536 0.0149 0.2939 0.0142 0.3177 0.0134 0.2545 0.0123 0.2523 0.0127 0.3070 0.0147 0.3625 0.0165 0.2511 0.0120 0.3121 0.0134 0.3436 0.0148 0.2948 0.0140 0.3105 0.0133 0.2936 0.0143 0.9123 0.0019 0.2975 0.0136 0.2615 0.0125 0.9941 0.0021 0.9485 0.0022 0.2619 0.0116 0.3065 0.0135 0.3051 0.0135 0.3065 0.0135 0.9897 0.0021 0.2523 0.0127 0.3147 0.0141 0.2646 0.0120 0.3470 0.0158 0.3005 0.0138 0.2939 0.0142 0.3279 0.0177 0.2882 0.0143 0.3382 0.0159 0.2997 0.0150 0.3068 0.0140 0.3061 0.0142 0.3001 0.0132 0.2871 0.0151 0.3095 0.0140 0.2975 0.0136 0.3128 0.0148 0.3463 0.0162 0.3175 0.0130 0.3417 0.0164 0.3121 0.0134 0.2887 0.0148 0.3356 0.0167 0.2669 0.0114 0.2754 0.0122 0.3038 0.0131 0.2927 0.0149 0.2938 0.0135 0.3082 0.0146 0.2580 0.0123 0.2632 0.0120 0.3194 0.0138 1.0943 0.0021 0.2995 0.0135 0.2935 0.0151
0.2935 0.0151 1.0227 0.0016 0.2549 0.0121 0.2960 0.0131 0.2871 0.0151 1.0943 0.0021 0.3128 0.0138 0.3004 0.0143 0.2636 0.0122 0.3048 0.0140 0.3036 0.0131 0.3054 0.0139 0.9157 0.0023 0.3573 0.0155 0.2950 0.0131 0.3431 0.0155 0.3191 0.0135 0.3071 0.0143 0.2975 0.0140 0.3382 0.0159 0.2672 0.0122 0.3509 0.0159 0.3536 0.0149 0.2939 0.0142 0.3177 0.0134 0.2545 0.0123 0.2523 0.0127 0.3070 0.0147 0.3625 0.0165 0.2511 0.0120 0.3121 0.0134 0.3436 0.0148 0.2948 0.0140 0.3105 0.0133 0.2936 0.0143 0.9123 0.0019 0.2975 0.0136 0.2615 0.0125 0.9941 0.0021 0.9485 0.0022 0.2619 0.0116 0.3065 0.0135 0.3051 0.0135 0.3065 0.0135 0.9897 0.0021 0.2523 0.0127 0.3147 0.0141 0.2646 0.0120 0.3470 0.0158 0.3005 0.0138 0.2939 0.0142 0.3279 0.0177 0.2882 0.0143 0.3382 0.0159 0.2997 0.0150 0.3068 0.0140 0.3061 0.0142 0.3001 0.0132 0.2871 0.0151 0.3095 0.0140 0.2975 0.0136 0.3128 0.0148 0.3463 0.0162 0.3175 0.0130 0.3417 0.0164 0.3121 0.0134 0.2887 0.0148 0.3356 0.0167 0.2669 0.0114 0.2754 0.0122 0.3038 0.0131 0.2927 0.0149 0.2938 0.0135 0.3082 0.0146 0.2580 0.0123 0.2632 0.0120 0.3194 0.0138 1.0943 0.0021 0.2995 0.0135 0.2935 0.0151 Clusters?
No passado, a causa de motor parado tem sido: Observou-se W = 0 No passado, a causa de motor parado tem sido: - 70% casos = curto-circuito - 30 % casos = eixo-travado Sem dados adicionais Curto-circuito é a causa mais provável Critério Utilizado: P(curto) > P(travado)
Observou-se W = 0 e mediu-se a corrente Imot = 21 A Dados Históricos + = eixo-travado + = curto-circuito [A] + + + + + + + + + + + + + 10 20 30 Como aproveitar a informação de que Imot = 21A ?
Observou-se = 0 e mediu-se a corrente Imot = 21 A Fórmula de Bayes P(a|b)= P(b|a)P(a)/P(b) Dados Históricos P(Imot|eixo-travado) P(Imot|curto-circuito) P(curto|Imot)=P(Imot|curto)P(curto)/P(Imot) P(travado|Imot)=P(Imot|travado)P(travado)/P(Imot) [A] + + + + + + + + + + + + + 10 20 30 P(Imot) é comum nas 2 expressões Imot Eixo-travado é a causa mais provável Critério Utilizado: P(travado | Imot ) > P(curto| Imot )
Notação Geral 1 = curto 2 = travado x = Imot P(curto|Imot)=P(Imot|curto)P(curto)/P(Imot) P(travado|Imot)=P(Imot|travado)P(travado)/P(Imot) P(1|x)=P(x| 1)P(1) P(2|x)=P(x| 2)P(2) P(travado | Imot ) > P(curto| Imot ) P(2|x) > P(1|x) P(x| 2)P(2) > P(x| 1)P(1)
decide w2 P(x| 2)P(2) > P(x| 1)P(1)
decide w2 decide w2 decide w2 decide w2 decide w1
( 2, 2 ) ( 1, 1 ) No caso particular
No caso particular
Caso I :
Caso I : Igual para todos os i ai
Caso I : g(x)
Caso II : arbitrário mas igual para i g(x)
Caso III : i arbitrários ( cada i )
A ou B ? A B
A ou B ? A B
Distância de Mahalanobis A ou B ? A B
Propriedades requeridas: d(x,y) 0 d(x,y) = 0 x=y d(x,y) = d(y,x) Distância d: X X R+ Propriedades requeridas: d(x,y) 0 d(x,y) = 0 x=y d(x,y) = d(y,x) d(x,z) + d(z,y) d(x,y) Distância de Minkowski: k=1 Manhattan k=2 Euclidiana
Agrupamento Hierárquico 1 2 x1 x2 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> y=pdist(x,'euclidean'); >> z=linkage(y,'average'); >> dendrogram(z) 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
Agrupamento Hierárquico 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
Agrupamento Hierárquico 1 2 x1 x2 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4 Dados:
Agrupamento Hierárquico x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4 2 1 x1 1 2
Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4
Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4
Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4
Agrupamento Hierárquico 1 2 x1 x2 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4
Agrupamento Hierárquico 1 2 x2 x1 Dados: 1 1.0 1.0 2 1.0 0.7 3 1.2 0.7 4 1.2 1.2 5 0.8 1.0 6 0.7 0.7 7 2.0 2.0 8 1.8 1.8 9 1.8 2.1 10 2.3 2.0 11 2.3 1.7 12 2.0 2.4
K-means 1 2 x1 x2 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> [idx,c]=kmeans(x,2) idx = 2 1 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
>> x = 1.0000 1.0000 1.0000 0.7000 1.2000 0.7000 1.2000 1.2000 0.8000 1.0000 0.7000 0.7000 2.0000 2.0000 1.8000 1.8000 1.8000 2.1000 2.3000 2.0000 2.3000 1.7000 2.0000 2.4000 >> [idx,c]=kmeans(x,2) idx = 2 1 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados:
K-means x2 c = 2.0333 2.0000 0.9833 0.8833 1.0 1.0 1.0 0.7 1.2 0.7 1.2 1.2 0.8 1.0 0.7 0.7 2.0 2.0 1.8 1.8 1.8 2.1 2.3 2.0 2.3 1.7 2.0 2.4 Dados: 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
K-means x2 2 1 x1 1 2
Ventilador acionado por Motor DC
Centróides 251,5 12,2 0,0 19,5 1.000,7 2,5 351,0 16,0 0,0 30,7 298,4 14,0
1 2 3 4 5 6
Aprendizado Competitivo Entrada RNA Padrão 1 Padrão 3 Padrão 2
wi wi* wi x A regra competitiva de atualização dos pesos é: O tamanho do passo (0 < < 1) controla o tamanho da atualização em cada passo. wi wi* wi x
>> net=newc([0 10 ; 0 20],3); >> net=train(net,P); x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200 >> P=x'; >> net=newc([0 10 ; 0 20],3); >> net=train(net,P); >> xsim = sim(net,P); >> Yc = vec2ind(xsim);
NEWC Create a competitive layer. net = newc(PR,S,KLR,CLR) TRAIN Train a neural network. [net,tr,Y,E,Pf,Af] = train(NET,P,T,Pi,Ai,VV,TV) VEC2IND Transform vectors to indices. vec = 1 0 0 0 0 0 1 0 0 1 0 1 ind = 1 3 2 3 >> P=x'; >> net=newc([0 10 ; 0 20],3); >> net=train(net,P); >> xsim = sim(net,P); >> Yc = vec2ind(xsim);
x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200
Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA Entrada
Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 2 x2 = 4
Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 6 x2 = 5
Redes de Kohonen RNA de 1 camada simples composta de uma camada de entrada e outra de saída Aprendizado não-supervisionado Unidades de Entrada Unidades concorrentes de Saída
Redes de Kohonen Unidades de Entrada Unidades concorrentes de Saída
1. Camada de entrada é apresentada Unidades de Entrada Unidades concorrentes de Saída
Onde j é a unidade de saída e é a distância resultante. 2. A distância do padrão de entrada para os pesos para cada unidade de saída é calculada através da fórmula euclidiana: Onde j é a unidade de saída e é a distância resultante. Unidades de Entrada Unidades concorrentes de Saída
Cada vez que um vetor de entrada é apresentado para a rede, a distância em relação a ele para cada unidade na camada de saída é calculada A unidade de saída com a menor distância em relação ao vetor de entrada é a vencedora Unidades de Entrada Unidades concorrentes de Saída unidade vencedora
Os pesos são ajustados de acordo com o vencedor Os vizinhos se aproximam de acordo com o treinamento e a estrutura se auto-organiza Unidades de Entrada Unidades concorrentes de Saída unidade vencedora
di,i* wi wi* wi x
Sexo Idade Pessoas de Sexo e Idades Variados
net.trainParam.epochs = 100; net = train(net,P); x = 1.6972 4.2944 0.8341 2.6638 2.0877 4.7143 2.2014 5.6236 1.1975 3.3082 2.8336 4.8580 2.8324 5.2540 1.9737 2.4063 2.2291 2.5590 2.1222 4.5711 1.8693 3.6001 2.5081 4.6900 1.5882 4.8156 3.5282 4.7119 1.9045 5.2902 2.0798 4.6686 2.7467 5.1908 2.0415 2.7975 1.9330 3.9802 1.4174 3.8433 5.8771 5.0000 7.1801 4.6821 6.2605 6.0950 7.9906 3.1260 6.4364 5.4282 7.3701 5.8956 7.1535 5.7310 6.3547 5.5779 5.4805 5.0403 6.9586 5.6771 6.2926 5.5689 7.4301 4.7444 7.3554 4.6225 8.1847 4.7041 7.4139 3.5249 6.5495 4.7660 7.2662 5.1184 6.2936 5.3148 6.9863 6.4435 6.9662 4.6490 3.2493 9.5747 3.3196 8.3572 3.3764 12.1836 2.6032 10.3776 3.0848 11.3928 3.0952 11.2809 2.5969 11.0258 2.7032 9.7953 3.4329 9.8634 2.9474 10.5507 3.1560 9.5769 3.0352 9.7329 2.7458 12.7670 2.7762 11.0669 3.1775 9.5392 2.6200 10.9505 3.3125 9.6460 3.2276 9.3809 2.6713 10.6867 2.8938 12.1442 P=x'; net = newsom([0 10; 0 20],[1 3],... 'gridtop','dist',0.9,200,0.01,0); net.trainParam.epochs = 100; net = train(net,P); NEWSOM Create a self-organizing map. net = newsom(PR,[d1,d2,...],tfcn,dfcn,olr,osteps,tlr,tns) PR - Rx2 matrix of min and max values for R input elements. Di - Size of ith layer dimension, defaults = [5 8]. TFCN - Topology function, default = 'hextop'. DFCN - Distance function, default = 'linkdist'. OLR - Ordering phase learning rate, default = 0.9. OSTEPS - Ordering phase steps, default = 1000. TLR - Tuning phase learning rate, default = 0.02; TNS - Tuning phase neighborhood distance, default = 1.
net = newsom([0 10; 0 20],[1 3],'gridtop','dist',0.9,200,0.01,0);
Padrão 1 Padrão 3 Padrão 2 Padrão 1 Padrão 2 Padrão 3 RNA x1 = 2 x2 = 4 net = newsom([0 10; 0 20],[1 3],'gridtop','dist',0.9,200,0.01,1);
net = newsom([0 10; 0 20],[1 50],'gridtop','dist',0.9,200,0.01,3);
net = newsom([0 10; 0 20],[3 3],'hextop','dist',0.9,200,0.01,1);
EM (Expectation-Maximization)
Cluster A Cluster B
Cluster A Cluster B
Dept of Electrical and Computer Eng University of Waterloo >> [W,M,V,L] = EM_GM(X,3,[],[],1,[]) EM algorithm for k multidimensional Gaussian mixture estimation X(n,d) - input data n=number of observations d=dimension of variable k - maximum number of Gaussian components allowed ltol - percentage of log likelihood difference between 2 iterations maxiter - maximum number of iteration allowed ([] for none) pflag - 1 for plotting GM for 1D or 2D cases only, 0 otherwise Init - structure of initial W, M, V: Init.W, Init.M, Init.V W(1,k) - estimated weights of GM M(d,k) - estimated mean vectors of GM V(d,d,k) - estimated covariance matrices of GM L - log likelihood of estimates Patrick P. C. Tsui, Dept of Electrical and Computer Eng University of Waterloo
x = 2.8912 4.6925 2.6977 4.1531 3.0674 4.6355 3.3912 5.3341 3.0143 2.7596 3.6210 4.2673 2.8230 2.7786 3.8884 3.7128 2.2805 4.1053 3.0817 2.5987 2.0551 2.6898 2.4385 4.2339 2.3248 4.0878 3.3256 4.9084 2.7722 2.1358 2.4511 4.5631 3.0654 4.4797 2.9662 5.4541 2.7239 3.9596 2.1473 4.1791 6.0088 0.6796 5.3473 1.1695 6.3248 1.9968 4.9683 1.6344 5.3939 2.2423 6.0501 2.6200 6.4412 2.3042 6.4970 1.3510 6.1491 2.6364 7.3517 3.8455 7.0299 2.6696 5.4482 1.8907 6.9373 3.1359 6.3841 2.7066 7.3473 3.1661 6.4294 3.3694 6.0328 0.7340 6.3068 3.6512 7.4664 3.3202 6.0249 2.4205 4.2419 11.8915 4.1505 11.0143 4.2313 11.6063 3.4451 10.9294 3.7475 11.7190 3.7444 12.5351 3.6118 9.6320 3.9555 9.5597 4.2682 9.6711 4.4645 12.2583 4.3494 11.9162 4.0312 10.1017 3.5433 11.4301 3.9182 9.4428 4.1586 10.8102 4.0116 13.5573 4.0372 10.7638 3.6609 11.7846 3.3139 11.4386 3.9235 10.7200
Muito Obrigado!