A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Elementos de Análise NuméricaSistemas lineares -matrizes e operações com matrizes -forma geral de sistemas de equações lineares -solução gráfica -métodos.

Apresentações semelhantes


Apresentação em tema: "Elementos de Análise NuméricaSistemas lineares -matrizes e operações com matrizes -forma geral de sistemas de equações lineares -solução gráfica -métodos."— Transcrição da apresentação:

1 Elementos de Análise NuméricaSistemas lineares -matrizes e operações com matrizes -forma geral de sistemas de equações lineares -solução gráfica -métodos directos -regra de Cramer -Gauss (pivotagem) -matriz inversa (Gauss-Jordan) -factorização LU -análise dos erros (número de cond. da matriz) -métodos iterativos -Gauss-Siedel -Jacobi -Sistemas especiais Resolução de sistemas de equações lineares Pontos mais importantes: 1

2 Elementos de Análise NuméricaSistemas lineares Representação geral de sistemas lineares -procuramos os valores de x 1, x 2, ,x n que satisfaçam simultaneamente as funções seguintes: f 1 (x 1, x 2, ,x n )=0 f 2 (x 1, x 2, ,x n )=0... f n (x 1, x 2, ,x n )=0 -sistemas lineares (f i (1

3 Elementos de Análise NuméricaSistemas lineares Solução gráfica -aplicação para n=2 x2x2 x1x1 solução -sistemas singulares: -sem solução: decl. iguais -infinit num.de sol.: decl. e intercep. iguais -mal condicionados: -próximo de singulares -extremamente sens. a erros 3

4 Elementos de Análise NuméricaSistemas lineares Métodos de solução 1, Métodos directos:-solução por eliminação de incógnitas -solução “exacta” num número fin. de op. aritméticas simples -regra de Cramer -eliminação Gaussiana -matriz inversa (Gauss-Jordan) -factorização LU 4

5 Elementos de Análise NuméricaSistemas lineares Factorização LU (decomposição triangular) -só envolve operações com a matriz dos coeficientes -adequada para resolver sistemas com a mesma matriz dos coef. (várias vectores de segundos membros) -consequentemente mais eficiente que o método de Gauss-Jordan -com certas modificações simples permite calcular a matriz inversa de [A] -necessita de uma estratégia de pivotagem como os outros métodos directos -a eliminação Gaussiana pode ser usada como um método LU 5

6 Elementos de Análise NuméricaSistemas lineares Factorização LU (decomposição triangular) [A] nn *{x} n -{c} n =0 -suponha que esta eq. pode ser reformulada como: ou [U] nn *{x} n -{d} n =0 -suponha também que existe uma matriz triangular inferior: tal que: [L] nn ([U] nn *{x} n -{d} n )= [A] nn *{x} n -{c} n então: [L] nn [U] nn =[A] nn e [L] nn {d} n ={c} n 6

7 Elementos de Análise NuméricaSistemas lineares Factorização LU (decomposição triangular) diagrama do método: [A] nn *{x} n ={c} n [U] nn [L] nn [L] nn * {d} n ={c} n [U] nn *{x} n ={d} n {x}{x} decomposição substituição para frente substituição para trás 7

8 Elementos de Análise NuméricaSistemas lineares Decomposição Crout -resulta uma matriz onde [U] contém 1 na diagonal -determinação de elementos de [L] e [U] simultaneamente usando as regras de multiplicação da matrizes: [L] nn [U] nn =[A] nn Algoritmo: l i1 =a i1 1

9 Elementos de Análise NuméricaSistemas lineares Substituição para frente: aplicação das regras de multiplicação de matrizes [L] nn * {d} n ={c} n -algoritmo: 9

10 Elementos de Análise NuméricaSistemas lineares Substituição para trás: aplicação das regras de multiplicação de matrizes [U] nn *{x} n ={d} n -algoritmo: 10

11 Elementos de Análise NuméricaSistemas lineares -exemplo: - decomposição: l 11 =a 11 =-1 ; l 21 =a 21 =3 ; l 31 =a 31 =6 l 11  u 12 =a 12 ->u 12 =a 12 /l 11 =3/-1=-3 l 11  u 13 =a 13 ->u 13 =a 13 /l 11 =7/-1=-7 l 21  u 12 + l 22  1 =a 22 ->l 22 =10 l 31  u 12 + l 32  1 =a 32 ->l 32 =20 l 21  u 13 + l 22  u 23 =a 23 ->u 23 =2.9 l 31  u 13 + l 32  u 23 + l 33  1 =a 33 ->l 33 =-18 11

12 Elementos de Análise NuméricaSistemas lineares -Substituição para frente: [L] nn * {d} n ={c} n d 1 =-10/-1=10 d 2 =(9-3  10)/10=-2.1 d 3 =(0-6   (-2.1))/-18=1 12

13 Elementos de Análise NuméricaSistemas lineares Substituição para trás: [U] nn *{x} n ={d} n x 3 =1 x 2 =  1=-5 x 1 =10-(-3)  (-5)- (-7)  1 =2 13

14 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes -a solução de um sistema linear envolve a propagação dos erros de arredondamento, por isso deve ser considerada como uma solução aproximada 14 -exemplo (solução exacta: x 1 =8 x 2 =0,8):

15 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes -erro de aproximação: -resíduo da solução: -além de aplicações em engenharia, a matriz inversa indica se um sistema é mal condicionado (erros grandes): 15 - A é normalizada e existem elementos em A -1 que são várias ordens de magnitude maiores que a unidade - A* A -1 é muito diferente que I - [A -1 ] -1 é muito diferente que A

16 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes Normas de vectores e matrizes: uma função real que mede o “tamanho” de vectores e matrizes -a norma tem propriedades semelhantes ao valor absoluto de um número vectores: -Euclidiana: -”uniform vector norm” (elemento de valor maior absoluto): -norma de ordem p: 16

17 Elementos de Análise NuméricaSistemas lineares matrizes: -Frobenius: Análise dos erros e número de condição de matrizes -”uniform matrix norms” -”row sum” (linha com maior somatório): -”column sum”(coluna com maior somatório): 17

18 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes Características de normas: Resumindo a relação entre erro e resíduo de uma solução aprox.: então: 18

19 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes -erro relativo:-resíduo relativo: -combinando estas expressões, os limites superior e inferior do erro relativo (desconhecido) em termos do resíduo relativo (conhecido) podem ser escritos: ou onde cond(A)=||A||*||A -1 || 19

20 Elementos de Análise NuméricaSistemas lineares Análise dos erros e número de condição de matrizes -se cond(a) é próx. de 1, então o erro relativo e o resíduo relativo têm sempre grandezas semelhantes > o resíduo relativo pode ser usado como uma estimativa do erro relativo -quanto maior for cond(A) maior é a incerteza associada à solução aproximada, e menos informação é obtida a partir do resíduo relativo -é obvio que cond(A) depende da norma usada (sempre >1) -erros de arredondamento (expressão alternativa): se os elementos de A têm t algar. sign. (  ij aprox. 10 -t ) e cond(A)=10 c ----> a solução pode ser correcta ate t-c dígitos (erro de arredondamento da ordem 10 c-t ) 20

21 Elementos de Análise NuméricaSistemas lineares Métodos de solução 2, Métodos iterativos:-solução por processo iterativo (um número infinito de operações) -necessita de estimativas iniciais para cada incógnita -mais adequado que os métodos directos no caso de sistemas muito grandes (n>100) -vantagem que A nunca é alterada durante o processo iterativo------> fácil “economizar” a memória -a presença de erros de arredondamento origina um limite de melhoramento -método de Jacobi -método de Gauss-Seidel 21

22 Elementos de Análise NuméricaSistemas lineares Métodos iterativos -métodos iterativos em forma geral:[M]{x (k+1) }={c}+[N]{x (k) } -comparando com a expressão para sistemas lineares: [A]*{x}={c} [A]= [M]- [N] -a forma particular de [M] e [N] depende de método utilizado 22

23 Elementos de Análise NuméricaSistemas lineares Método de Jacobi [M]=[D]=diag[A] e [N]=[D]-[A]= -([L]+[U]) -onde [L] e [U] são matrizes triagonais (não iguais às matrizes resultantes de decomp. LU!) com a i i =0. -o algoritmo em termos de componentes: 23

24 Elementos de Análise NuméricaSistemas lineares k=0 k=1 k=2 k=3 -exemplo 24

25 Elementos de Análise NuméricaSistemas lineares Método de Gauss-Seidel -semelhante ao método de Jacobi -diferença: o novo valor de x i é utilizado logo na equação seguinte para determinar x i+1 ou por outras palavras, a melhor estimativa disponível é logo utilizada (em caso de convergência) algoritmo: [M]=[L]+ [D] e [N]=[D]-[A]= - [U] 25

26 Elementos de Análise NuméricaSistemas lineares k=0 k=1 k=2 k=3 -exemplo 26

27 Elementos de Análise NuméricaSistemas lineares Convergência de métodos iterativos -como para o caso de funções simples não há sempre convergência -a partida semelhança com o método de IPF o critério de conv. pode ser definido da seguinte forma: para j=1,2,...,nou -matrizes com esta característica são chamadas diagonalmente dominantes -condição suficiente mas não necessária 27

28 Elementos de Análise NuméricaSistemas lineares Aceleração de convergência com relaxação -modificação do processo no sentido de “antecipar” a evolução das iterações: - é o factor de relaxação e pode variar entre =0-1, média pesada entre o novo e o valor presente (sub- relaxação), para evitar oscilações na solução - =1-2, mais peso para o novo valor, só para sistemas muito estáveis (sobre-relaxação) -o valor óptimo de é determinada empiricamente (excepto casos muito simples) 28

29 Elementos de Análise NuméricaSistemas lineares -modificação dos métodos com o objectivo de produzir um algoritmo mais eficaz a partir da estrutura especial da matriz -matriz esparsa: muitos coeficientes zeros ( matriz densa) -matrizes em banda: algoritmo de Thomas -matrizes simétricas: método de Cholesky Sistemas com matrizes especiais 29

30 Elementos de Análise NuméricaSistemas lineares Matrizes em banda 0 0 BW HBW - o seu armazenamento requer muito menos espaço de memória do que no caso geral - o número de operações que nós precisamos para resolver o problema é menor do que no caso geral BW=2*HBW+1 a ij = 0 onde |i-j|>HBW 30

31 Elementos de Análise NuméricaSistemas lineares Sistemas tridiagonais (BW=3 ou HBW=1) -sistemas tridiagonais são resultado frequente de cálculo de “splines” e da solução numérica de equações diferenciais 1D. -exemplo:-u´´(x)=f(x)0

32 Elementos de Análise NuméricaSistemas lineares Sistemas tridiagonais (BW=3 ou HBW=1) -representação geral: -algoritmo de Thomas(Gauss): -eliminação: -d´ k e c´ k são os coeficientes modificados -o núm. de op e proporcional com n em vez de n 3 no caso de algoritmo geral de Gauss -substituição para trás: 32

33 Elementos de Análise NuméricaSistemas lineares Matrizes simétricas -matrizes simétricas: a ij =a ji -desejável trabalhar só com um dos triângulos, superior ou inferior, da matriz de coeficientes -o processo de eliminação produz submatrizes também simétricas -factorização de Choleski (adaptada para o método LU): [A]=[L]*[L] T [A] nn *{x} n ={c} n [L] T nn [L] nn [L] nn * {d} n ={c} n [L] T nn *{x} n ={d} n {x}{x} decomposição substituição para frente substituição para trás 33

34 Elementos de Análise NuméricaSistemas lineares Factorização de Choleski -aplicando das regras de multiplicações de matrizes (para linha k): -podemos chegar o algoritmo de Choleski: -só funciona se a expressão baixo de raiz quadrado é positivo (matrizes definidas positivas) -quase duas vezes mais rápido do que método geral -pode ser mostrado que o método é numericamente estável sem pivotagem 34


Carregar ppt "Elementos de Análise NuméricaSistemas lineares -matrizes e operações com matrizes -forma geral de sistemas de equações lineares -solução gráfica -métodos."

Apresentações semelhantes


Anúncios Google