Gradientes Conjugados

Slides:



Advertisements
Apresentações semelhantes
Retas.
Advertisements

Método Simplex Resolução Algébrica
Sistemas Realimentados
DETERMINANTES de Ordem n (n > 3).
Amintas engenharia.
Métodos para representação de estruturas hierárquicas
Inicialização: Escolher > 0 para ser usado como terminação. Sejam d 1, d 2, …, d n as direcções das coordenadas. Escolher um ponto inicial x 1 e seja y.
SISTEMAS DE EQUAÇÕES.
Métodos Numéricos e Estatísticos
Estrutura e movimento a partir de imagens
SISTEMAS LINEARES I Prof. Marlon.
SISTEMAS LINEARES II Prof. Marlon.
Equação de onda Agora que as equações de Maxwell estão completas, vamos ver se o campo eletromagnético pode ter comportamento ondulatório. Se conseguirmos.
ROBÓTICA Helder Anibal Hermini.
Prof. Wellington D. Previero
Dependência e Independência Linear e Produto Vetorial
Prof. Roberto Cristóvão
Conceitos fundamentais
Cálculo Numérico Aula 8 – Sistemas de Equações Lineares / Parte 1
Matemática para Economia III
Prof. Guilherme Amorim 14/11/2013
SISTEMAS LINEARES.
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE MATEMÁTICA
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Grandezas Vetoriais & Operações com Vetores
Conceitos fundamentais
Conceitos fundamentais
SOLUÇÃO DA EQUAÇÃO DE SCHRÖDINGER
Instituto de Aplicação Fernando Rodrigues da Silveira (CAp/UERJ)
MÉTODOS NUMÉRICOS APLICAÇÃO NO MATLAB
Aceite para publicação em 15 de Março de 2010
Quadrados Mínimos.
Sistema de equações lineares
Equações diferenciais ordinárias
O método dos gradientes conjugados
Cálculo Numérico / Métodos Numéricos
Equações de Maxwell Aula 13 Prof Paulo Rosa INFI/UFMS.
Otimização Linear Definições e Solução Gráfica
Equações diferenciais ordinárias de segunda ordem
SISTEMAS LINEARES Prof. Moacir.
Espaços e Subespaços Vetoriais
Campus de Caraguatatuba
MÚLTIPLOS GRAUS DE LIBERDADE
Otimização Numérica de Processos
Sistemas de Recomendação – Filtragem Colaborativa
Retas paralelas aos Planos e Eixos Coordenados
1 Análise de regressão linear simples: abordagem matricial Álgebra de matrizes é amplamente utilizada na estatística. É praticamente uma necessidade na.
Campus de Caraguatatuba Aula 16: Sistemas de Equações Lineares (4)
Regressão e Previsão Numérica.
Problemas de Forma Não-Padrão
Sistemas de Equações Lineares (SEL ) – Parte II
FEAMIG – Faculdade de Engenharia de Minas Gerais
CÁLCULO NUMÉRICO Aula 5 – Sistema de Equações lineares.
Professor: Cezar Augusto Pereira dos Santos
ax2 + bx + c = 0, a  0 a, b e c são números reais
PROFESSOR: CÉZAR AUGUSTO PEREIRA DOS SANTOS 1.
Noções sobre Vetores Exemplo Produto escalar
Sistemas de equações lineares de 1 a ordem Sistemas de equações diferenciais simultâneas aparecem naturalmente em problemas envolvendo diversas variáveis.
Hidrodinâmica Aula 08 (1 0 Sem./2016) 1. A viscosidade e a Equação de Navier-Stokes 2.
Álgebra Linear Tipos Especiais de Operadores Lineares
REGRAS PARA A RESOLUÇÃO DE UMA EQUAÇÃO
Transcrição da apresentação:

Gradientes Conjugados Referência: “An Introduction to the Conjugate Gradient Method Without the Agonizing Pain”, J. R. Shewchuk (Google) Problema: como minimizar uma função de muitas variáveis, conhecendo o valor da função e de seu gradiente em cada ponto? Problema equivalente: sistemas de equações lineares A matriz A é simétrica e positiva-definida: , qualquer x

A função f (x) é minimizada pela solução do sistema Forma quadrática A função f (x) é minimizada pela solução do sistema Exemplo: Solução: Solução:

Gradiente da forma quadrática Se e se A é simétrica, Minimizar f é o mesmo que tornar seu gradiente nulo, ou seja, resolver Solução:

O método de “steepest descent” Iniciar em um ponto x(0) e executar vários passos para x(1), x(2), sempre nas direções contrárias aos gradientes (descida mais íngreme): Definições importantes: Erro: indica o quão longe estamos da solução Resíduo: Primeiro passo: Qual o tamanho do passo? Minimizar f ao longo de uma linha: novo gradiente deve ser ortogonal ao anterior x(1) x(0)

Calculando α: Em resumo, o método de “steepest descent”:

Em “steepest descent”, temos que dar vários passos na mesma direção Em “steepest descent”, temos que dar vários passos na mesma direção. O ideal seria se, em cada passo, eliminássemos completamente a componente do erro naquela direção. Infelizmente isso é impossível, pois não sabemos o erro. Se soubéssemos o erro, já teríamos a solução, e o problema estaria resolvido. Em vez disso, podemos fazer como na linha verde: minimizar ao longo de uma linha e depois tomar a direção que nos leva até o mínimo. Esta é a direção conjugada

Direções conjugadas Dois vetores d(i) e d(j) são conjugados (ou A-ortogonais) se Vamos ver o que acontece quando impomos que o erro e(i+1) deve ser conjugado (e não mais ortogonal) à direção de busca anterior d(i)

Inicialmente, veremos que isto equivale a uma minimização na direção d(i) Onde usamos que Vamos agora encontrar o coeficiente α, impondo a condição

Veremos agora que, se tivermos um conjunto de n direções conjugadas, onde n é a dimensão dos espaço, veremos que esse procedimento minimza a função em apenas n passos. Para isto, expressamos o erro inicial em uma combinação linear das direções: Ou seja, em cada passo eliminamos a componente do erro na direção correspondente, e esta componente nunca mais aparece nos passos seguintes

Conjugação de Gram-Schmidt Precisamos então encontrar um conjunto de n direções conjugadas. Isto pode ser feito pelo método de conjugação de Gram Schmidt: Dado um conjunto de n vetores L.I. u(i):

Gradientes Conjugados Usar como u(i) o conjunto dos resíduos (gradientes) para obter, por Gram-Schmidt, as direções de busca. Usando a identidade: Obtemos: Gradientes são ortogonais

Definindo β(i) = βi,i-1 e a expressão para αi: Finalmente, o algoritmo de gradientes conjugados: Primeira direção é o resíduo inicial Minimizar ao longo de d(i): Calcular o novo gradiente (resíduo) r(i+1) e obter Com isso, obter a nova direção