A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Otimização. Estrutura Introdução Métodos baseados no gradiente – Método de Newton – Método de Gauss-Newton – Método de Steepest Decent – Método de Levenberg-Marquardt.

Apresentações semelhantes


Apresentação em tema: "Otimização. Estrutura Introdução Métodos baseados no gradiente – Método de Newton – Método de Gauss-Newton – Método de Steepest Decent – Método de Levenberg-Marquardt."— Transcrição da apresentação:

1 Otimização

2 Estrutura Introdução Métodos baseados no gradiente – Método de Newton – Método de Gauss-Newton – Método de Steepest Decent – Método de Levenberg-Marquardt Métodos Heurísticos – Simulated Annealing – Método das Formigas

3 Introdução dados observados dados preditos parâmetros

4 Introdução dados observados dados preditos norma L2 (função escalar) parâmetros

5 Introdução dados observados dados preditos norma L2 (função escalar) parâmetros

6 Introdução dados observados dados preditos norma L2 (função escalar) parâmetros Problema linear Problema não-linear

7 Introdução dados observados dados preditos norma L2 (função escalar) parâmetros Problema linear Problema não-linear

8 Introdução dados observados dados preditos norma L2 (função escalar) parâmetros Problema linear Problema não-linear

9 Introdução Problema linear

10 Introdução mínimo

11 Introdução O mínimo pode ser calculado diretamente

12 Introdução Ou a partir de uma aproximação inicial

13 Introdução

14 Nesse caso, o mínimo é encontrado com apenas um passo a partir da aproximação inicial

15 Introdução Por outro lado, em um problema não- linear, o mínimo é encontrado após sucessivos passos a partir de uma aproximação inicial

16 Introdução

17

18 Curvas de nível

19 Introdução Aproximação inicial

20 Introdução

21

22

23 Estimativa do ponto mínimo obtida após a otimização

24 Introdução A partir de um determinado ponto, é necessário estabelecer uma direção e o comprimento do passo que será dado

25 Introdução

26

27 Direção

28 Introdução Tamanho do passo

29 Introdução Existem dois grupos principais de métodos para estimar o mínimo de uma função:

30 Introdução Existem dois grupos principais de métodos para estimar o mínimo de uma função: Métodos que se baseiam no gradiente da função Métodos Heurísticos

31 Introdução Métodos baseados no gradiente – Método de Newton – Método de Gauss-Newton – Método de Steepest Decent – Método de Levenberg-Marquardt Métodos Heurísticos – Simulated Annealing – Método das Formigas

32 Métodos baseados no gradiente

33

34

35 Diferença entre os métodos

36 Métodos baseados no gradiente Diferença entre os métodos Newton Gauss - Newton Steepest Decent Levenberg - Marquardt

37 Métodos baseados no gradiente Vamos às contas!

38 Métodos baseados no gradiente MétodoConvergência Steepest Decent0 Levenberg - Marquardt1 Gauss - Newton2 Newton3 0 – lento 3 – rápido

39 Métodos baseados no gradiente Método Aproximação inicial Steepest DecentPode ser distante Levenberg - MarquardtPode ser distante Gauss - NewtonDeve ser próxima NewtonDeve ser próxima

40 Métodos baseados no gradiente MétodoDireção Steepest Decent É a do gradiente Levenberg - Marquardt Entre a do gradiente e a do produto hessiana-gradiente Gauss - Newton Predita pelo produto hessiana-gradiente Newton Predita pelo produto hessiana-gradiente

41 Métodos baseados no gradiente Método Tamanho do passo Steepest Decent Depende de um parâmetro e do gradiente Levenberg - Marquardt Depende de um parâmetro, do gradiente e da hessiana Gauss - Newton Depende do gradiente e da hessiana Newton Depende do gradiente e da hessiana

42 Métodos baseados no gradiente Método Custo computacional Steepest Decent0 Levenberg - Marquardt2 Gauss - Newton1 Newton3 0 – baixo 3 – alto

43 Métodos Heurísticos (Simulated Annealing) temp_inicial, temp_final, kappa, itmax, p inferior, p superior, p inicial iteracao = 0, p 1 = p inicial, calcula f(p 1 ), f minimo = f(p1), p minimo = p 1 temperatura = temp_inicial FAÇA { iteracao = iteracao + 1 sorteia p 2, calcula f(p 2 ) SE [f(p 2 ) < f minimo ] f minimo = f(p 2 ), p minimo = p 2 probabilidade de sobrevivência ps SE [f(p 2 ) < f(p 1 )] ps = 1 SE [f(p 2 ) f(p 1 )] ps = exp {[f(p 1 ) - f(p 2 )]/temperatura} SE{(ps = 1) OU [(ps 1) E (moeda ps)]} p 1 = p 2 temperatura = kappa*temperatura } ENQUANTO [(iteracao = temp_final)]

44 Métodos Heurísticos (Simulated Annealing) temp_inicial, temp_final, kappa, itmax, p inferior, p superior, p inicial iteracao = 0, p 1 = p inicial, calcula f(p 1 ), f minimo = f(p1), p minimo = p 1 temperatura = temp_inicial FAÇA { iteracao = iteracao + 1 sorteia p 2, calcula f(p 2 ) SE [f(p 2 ) < f minimo ] f minimo = f(p 2 ), p minimo = p 2 probabilidade de sobrevivência ps SE [f(p 2 ) < f(p 1 )] ps = 1 SE [f(p 2 ) f(p 1 )] ps = exp {[f(p 1 ) - f(p 2 )]/temperatura} SE{(ps = 1) OU [(ps 1) E (moeda ps)]} p 1 = p 2 temperatura = kappa*temperatura } ENQUANTO [(iteracao = temp_final)]

45 Métodos Heurísticos (Simulated Annealing) f(p 2 ) - f(p 1 ) = x temperatura = λ f(p 1 ) f(p 2 )

46 Métodos Heurísticos (Método das Formigas) Modificada de Dorigo e Gambardella, 1997)


Carregar ppt "Otimização. Estrutura Introdução Métodos baseados no gradiente – Método de Newton – Método de Gauss-Newton – Método de Steepest Decent – Método de Levenberg-Marquardt."

Apresentações semelhantes


Anúncios Google