Inicialização: Escolher > 0 para ser usado como terminação. Sejam d 1, d 2, …, d n as direcções das coordenadas. Escolher um ponto inicial x 1 e seja y.

Slides:



Advertisements
Apresentações semelhantes
Método dos Mínimos Quadrados
Advertisements

Métodos Iterativos.
Zeros de Funções.
QUESTÕES PARA DISCUSSÃO E EXERCÍCIOS – CAP. 4
Métodos Analíticos – Particularização para a equação de Laplace
INVESTIGAÇÃO OPERACIONAL
CONCEITOS BÁSICOS DA META-HEURÍSTICA TABU SEARCH
Conjuntos disjuntos Objectivo
REDES NEURONAIS ARTIFICIAIS (RNAs) Universidade do Minho.
Passo Inicial: Escolher a constante de discriminação, 2 > 0, e o comprimento de incerteza final, l > 0. Seja [a 1, b 1 ] o intervalo de incerteza inicial.
CÁLCULO DA INVERSA DA BASE
CÁLCULO DA INVERSA DA BASE
Método de NewtonRaphson
Métodos Numéricos e Estatísticos
Métodos Numéricos e Estatísticos
Métodos Numéricos e Estatísticos
Introdução O que é o problema de sequenciamento em processadores paralelos (P| | Cmax)? Temos n tarefas independentes, cada uma com um tempo de execução.
Ajuste de Curvas e Interpolação
Iluminação e FotoRealismo: R adiosidade Luís Paulo Peixoto dos Santos
Computação Gráfica Iluminação.
APLICADOS EM SISTEMAS ELÉTRICOS DE POTÊNCIA
Gráficos.
Dependência e Independência Linear e Produto Vetorial
Parte D Inversão de dados
Otimização por Colônia de Formigas (ACO)
Simulação no Tempo: Esquemas de Solução
Formulação matemática do Problema Inverso
SISTEMAS LINEARES.
Algoritmos Genéticos em Problemas com Restrições
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE MATEMÁTICA
Movimento Oscilatório.
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
Cálculo Numérico / Métodos Numéricos
SOLUÇÃO DA EQUAÇÃO DE SCHRÖDINGER
Modelos de Optimização de Redes
Diferenciação e Optimização Numéricas - LEGI
Resultante de forças.
Braquistócrona vs. Geodésica
Meta-Heurística Colônia de Formigas
MÉTODOS NUMÉRICOS APLICAÇÃO NO MATLAB
Integração Numérica Método de Romberg Felipe Antônio Lacerda
Quadrados Mínimos.
Equações diferenciais ordinárias
Problema: Sejam v1, v2,...,vn e b vectores de Rm.
Cálculo Numérico / Métodos Numéricos
Resolução de sistemas de equações lineares
Otimização Linear Definições e Solução Gráfica
Resolução de sistemas de equações não-lineares Método de Newton
Método Simplex Tópicos em Otimização
Otimização Paramétrica (Cap. 5)
Equações algébricas e transcendentais
Gradientes Conjugados
Equações algébricas e transcendentais
Interpolação e Ajuste de Curvas
Métodos de Resolução Solução Analítica Solução Numérica
Prof. Anne Magály de Paula Canuto
Regressão e Previsão Numérica.
Problemas de Forma Não-Padrão
Campus de Caraguatatuba Aula 18: Sistemas de Equações Lineares (6)
Análise e Síntese de Algoritmos
Como estimar o Modelo Linear Geral
CÁLCULO NUMÉRICO Aula 5 – Sistema de Equações lineares.
Aproximação e Interpolação MCEF 2011/12. O Problema da interpolação consiste na obtenção de funções que descrevam de forma exacta um conjunto de dados.
DETEÇÃO E ESTIMAÇÃO Aula 19: Deteção Gaussiana – Parte 2.
Sistemas de equações não lineares
Transcrição da apresentação:

Inicialização: Escolher > 0 para ser usado como terminação. Sejam d 1, d 2, …, d n as direcções das coordenadas. Escolher um ponto inicial x 1 e seja y 1 = x 1 e k = j = 1. Saltar para o Passo Principal. Passo Principal: 1 Seja j a solução óptima do problema min f(y j + d j ) s.a. R e seja y j+1 = y j + j d j. Se j < n, substituir j por j+1 e repetir o Passo 1. Caso contrário, se j = n, saltar para o Passo 2. 2Fazer x k+1 = y n+1. Se x k+1 - x k <, parar. Caso contrário, fazer y 1 = x k+1, j = 1. Substituir k por k+1 e repetir o Passo 1. MO-01 Resumo do método das Coordenadas Cíclicas

Inicialização: Escolher > 0 para ser usado como terminação. Escolher um ponto de partida x 1 e fazer y 1 = x 1 e k = j = 1. Saltar para o Passo Principal. Passo Principal: 1 Seja j a solução óptima do problema min f(y j + d j )d j é a direcção da s.a. Rcoordenada j. e fazer y j+1 = y j + j d j. Se j < n, substituir j por j+1 e repetir o Passo 1. Caso contrário, se j = n, fazer x k+1 = y n+1. Se x k+1 - x k <, parar; caso contrário, saltar para o Passo 2. 2Fazer d = x k+1 - x k e a solução do problema min f(x k+1 + d) s.a. R Fazer y 1 = x k+1 + d, j = 1, substituir k por k+1 e repetir o Passo 1. MO-02 Resumo do método de Hooke and Jeeves

Inicialização: Sejam d 1, d 2,…, d n as direcções das coordenadas. Escolher um escalar > 0 para terminar o algoritmo. Escolher um passo inicial, >, e um factor de aceleração, > 0. Escolher um ponto inicial x 1, fazer y 1 = x 1 e k = j = 1. Saltar para o Passo Principal. Passo Principal: 1 Se f(y j + d j ) < f(y j ) a tentativa diz-se um sucesso; fazer y j+1 = y j + d j e saltar para o Passo 2. Se f(y j + d j ) f(y j ) a tentativa diz-se um fracasso. Neste caso, se f(y j - d j ) < f(y j ) fazer y j+1 = y j - d j e saltar para o Passo 2; se f(y j - d j ) f(y j ), fazer y j+1 = y j e saltar para o Passo 2. 2 Se j < n, substituir j por j+1 e repetir o Passo 1. Caso contrário, saltar para o Passo 3 se f(y n+1 ) < f(x k ) e saltar para o Passo 4 se f(y n+1 ) f(x k ). 3Fazer x k+1 = y n+1 e y 1 = x k+1 + (x k+1 - x k ). Substituir k por k+1, j = 1 e saltar para o Passo 1. 4Se, parar; x k é a solução. Caso contrário, substituir por /2. Fazer y 1 = x k, x k+1 = x k, substituir k por k+1, j = 1 e saltar para Passo 1. MO-03 Resumo do método de Hooke and Jeeves (com passos discretos)

Inicialização: Escolher d 1, d 2,…, d n as direcções das coordenadas. Seja > 0 o erro de terminação. Escolher um ponto de partida x 1, fazer y 1 = x 1 e k = j = 1. Saltar para o Passo Principal. Passo Principal: 1 Seja j uma solução óptima do problema min f(y j + d j ) s.a. R e fazer y j+1 = y j + j d j. Se j < n, substituir j por j+1 e repetir o Passo 1. Caso contrário, j = n, saltar para o Passo 2. 2 Fazer x k+1 = y n+1. Se x k+1 - x k <, parar. Caso contrário, fazer y 1 = x k+1, j = 1. Substituir k por k+1 e saltar para o Passo 3. 3Formar um novo conjunto de direcções de procura ortogonais usando o procedimento de Gram-Schmidt. Designar estas direcções por d 1, d 2,…, d n e saltar para o Passo 1. MO-04 Resumo do método de Rosenbrock

Procedimento de Gram-Schmidt d j se j = 0 a j = n i=j i d i se j 0 a j se j = 1 b j = a j - j-1 i=1 (a j T d i )d i se j > 1 d j = b j / b j Explicação: Existem d 1, d 2,…, d n vectores linearmente independentes e mutuamente ortogonais (d i T d j = 0 para i j) De x k obtém-se x k+1 por minimização iterativa ao longo das direcções. x k+1 - x k = n j=1 j d j j é a distância percorrida ao longo de d j. A nova colecção de direcções é d 1, d 2,…, d n. MO-05

Inicialização: Seja > 0 o erro de aproximação. Escolher um ponto de partida x 1 e fazer k = 1. Saltar para o Passo Principal. Passo Principal: Se f(x k ) <, parar. A solução é x k. Caso contrário, seja d k = - f(x k ) e seja k a solução óptima do problema min f(x k + d k ) s.a. 0 Fazer x k+1 = x k + k d k. Substituir k por k+1 e repetir o Passo Principal. MO-06 Resumo do método de maior gradiente (steepest descent)

Inicialização: Seja > 0 o erro de terminação. Escolher um ponto de partida x 1 e fazer k = 1. Saltar para o Passo Principal. Passo Principal: Se H (x k ) possui inversa * fazer x k+1 = x k - H(x k ) -1 f(x k ). Se x k+1 - x k <, parar; caso contrário repetir o Passo Principal. *Se H (x k ) não tiver inversa definir B = ( I + H) -1 é tal que os valores próprios de I+H estão todos acima de algum > 0. MO-07 Resumo do método de Newton

Inicialização: Escolher um erro de terminação > 0. Escolher um ponto de partida x 1, e uma primeira matriz simétrica positiva definida, D 1. Fazer y 1 = x 1 e k = j = 1. Saltar para o Passo Principal. Passo Principal: 1 Se f(y j ) <, parar; caso contrário fazer d j = -D j f(y j ) e seja j uma solução óptima do problema min f(y j + d j ) s.a. 0 Fazer y j+1 = y j + j d j. Se j < n, saltar para o Passo 2. Se j = n, fazer y 1 = x k+1 = y n+1, substituir k por k+1, fazer j = 1 e repetir o Passo 1. 2 Construir D j+1 como segue D j+1 = D j + p j p j T /p j T p j - D j q j q j T D j /q j T D j q j onde p j = j d j q j = f(y j+1 ) - f(y j ) Substituir j por j+1 e saltar para o Passo 1. MO-08 Resumo do método de Davidon-Fletcher-Powell

Inicialização: Escolher um erro de terminação > 0. Escolher um ponto de partida x 1. Fazer y 1 = x 1, d 1 = - f(y 1 ), k = j = 1 e saltar para o Passo Principal. Passo Principal: 1 Se f(y j ) <, parar; caso contrário, seja j uma solução óptima do problema min f(y j + d j ) s.a. 0 Fazer y j+1 = y j + j d j. Se j < n, saltar para o Passo 2; caso contrário, saltar para o Passo 3. 2 Seja d j+1 = - f(y j+1 ) + j d j, onde j = f(y j+1 ) 2 / f(y j ) 2. Substituir j por j+1 e saltar para o Passo 1. 3Seja y 1 = x k+1 = y n+1 e seja d 1 = - f(y 1 ). Fazer j = 1, substituir k por k+1 e saltar para o Passo 1. MO-09 Resumo do método de Fletcher and Reeves

Inicialização: Escolher um erro de terminação > 0. Escolher um ponto de partida x 1. Fazer y 1 = x 1, d 1 = - f(y 1 ), k = j = 1 e saltar para o Passo Principal. Passo Principal: 1 Seja j uma solução óptima para o problema min f(y j + d j ) s.a. R Fazer y j+1 = y j + j d j. Se j = n, saltar para o Passo 4; caso contrário, saltar para o Passo 2. 2 Fazer d = - f(y j+1 ) e seja a solução óptima de min f(y j+1 + d) s.a. R + Fazer z 1 = y j+1 + d. Fazer i = 1 e saltar para o Passo 3. 3 Se f(z i ) <, parar com z i. Caso contrário, seja i a solução óptima de min f(z i + d i ) s.a. R Fazer z i+1 = z i + i d i. Se i < j, substituir i por i+1 e repetir o Passo 3. Caso contrário, fazer d j+1 = z j+1 - y j+1, substituir j por j+1 e saltar para o Passo 1. 4Fazer y 1 = x k+1 = y n+1. Fazer d 1 = - f(y 1 ), substituir k por k+1, j = 1 e saltar para o Passo 1. MO-10 Resumo do método de Zangwill