A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

1 Regressão não linear Modelos de regressão linear e não linear Modelos de regressão linear Até o presente momento do curso, consideramos modelos lineares.

Apresentações semelhantes


Apresentação em tema: "1 Regressão não linear Modelos de regressão linear e não linear Modelos de regressão linear Até o presente momento do curso, consideramos modelos lineares."— Transcrição da apresentação:

1 1 Regressão não linear Modelos de regressão linear e não linear Modelos de regressão linear Até o presente momento do curso, consideramos modelos lineares nos parâmetros. Por exemplo: 1) Modelo linear geral: 1) Modelo polinomial:

2 2 1) Modelo com variáveis transformadas: Os modelos lineares, podem ser escritos, na forma: Onde X i é o vetor de observações das variáveis preditoras para o i-ésimo caso: é o vetor dos parâmetros, e f(X i, ) representa o valor esperado E(Y i ), o qual para o modelo linear é:

3 3 Nos modelos lineares, o problema de estimação dos parâmetros, cai no problema de resolver um sistema de equações lineares com relação aos coeficientes de regressão desconhecidos. Existe uma solução única e, portanto, obtemos uma forma analítica de estimação dos parâmetros. Esta forma é a mesma para qualquer modelo e qualquer conjunto de dados. Além disso, como os coeficientes são combinações lineares das observações, pela teoria estatística, demonstra-se que a distribuição amostral dos coeficientes de regressão segue uma distribuição t, assim, podemos realizar os testes de hipóteses, calcular os intervalos de confiança para esses coeficientes. Existe, entretanto, muitas situações nas quais não é desejável, ou mesmo possível, descrever um fenômeno através de um modelo de regressão linear. Ao invés de se fazer uma descrição puramente empírica do fenômeno em estudo, pode-se, a partir de suposições importantes sobre o problema (freqüentemente dadas através de uma ou mais equações diferenciais), trabalhar no sentido de obter uma relação teórica entre as variáveis observáveis de interesse. O problema, diferentemente do caso linear, é que os parâmetros entram na equação de forma não linear, assim, nós não podemos simplesmente aplicar fórmulas para estimar os parâmetros do modelo. Modelos de regressão não linear

4 4 Os modelos não lineares podem ser escritos como: f(X i, ) é uma função não linear; os erros, i, tem média zero, variância constante, e não são correlacionados. Assume-se que os erros apresentam distribuição normal, são independentes e com variância constante. é o vetor de parâmetros do modelo. Outra vantagem dos modelos não lineares é obter parâmetros que são facilmente interpretáveis. Em muitas situações, necessita-se menos parâmetros nos modelos não lineares do que nos lineares, isto simplifica e facilita a interpretação. Dois exemplos de modelos não lineares. 1) Modelo exponencial 0 e 1 são os parâmetros do modelo; X i são constantes conhecidas (variável preditora) e i são os termos do erro, independentes, com distribuição normal de média 0 (zero) e variância 2.

5 5 Diferenciando f com respeito a 0 e 1 obtemos (usando MAPPLE): Como estas derivadas envolvem pelo menos um dos parâmetros, o modelo é reconhecido como não linear. Um modelo exponencial mais geral: Veja figura.

6 6 Estes modelos exponenciais são muito utilizados em estudos de crescimento, onde a taxa de crescimento num dado tempo X é proporcional a quantidade de crescimento restante (final) que ocorre com o aumento do tempo, e 0 representa o crescimento máximo

7 7 2) Modelo logístico i são os termos do erro, independentes, com distribuição normal de média 0 (zero) e variância 2. A função esperada é: O modelo logístico é muito usado para variáveis qualitativas. Exemplo: acertos na cache (acerta/não acerta). Neste caso, os erros não tem mais distribuição normal com variância constante.

8 8 Alguns aspectos do uso de modelos não lineares: os modelos não lineares tem uma base teórica, os parâmetros dos modelos fornecem um maior conhecimento sobre o fenômeno em estudo do que os modelos lineares. os modelos não lineares, geralmente fornecem um bom ajuste, com menos parâmetros do que os modelos lineares. A transformação de um modelo não linear em um modelo linear nos parâmetros, se por um lado facilita o processo de ajuste, implica em fazer suposições não realísticas sobre o termo dos erros (distribuição normal com variância constante); além disso, perde-se informação sobre os erros padrões dos parâmetros originais. Além disso, existem modelos que são intrinsicamente não lineares, isto é, não podem ser linearizados por transformação. Embora vamos usar variáveis contínuas como variáveis independentes, não há razão para que as variáveis independentes, nos modelos não lineares, sejam contínuas. Ao contrário, podemos fazer uso de variáveis dummy para indicar a presença ou ausência de um grupo, ou codificar diferenças entre indivíduos (dados de medidas repetidas).

9 9 Estimação de modelos não lineares, é um bom exemplo de que a despeito de se obter os resultados no computador, não significa que os resultados sejam corretos ou razoáveis. A forma geral do modelo não linear Onde f(X i, ) é a função esperada para o i-ésimo caso.

10 10 Estimação dos parâmetros Métodos:»Mínimos quadrados »Máxima verossimilhança Importante: nos modelos não lineares não é possível encontrarmos formas analíticas para os estimadores de mínimos quadrados ou máxima verossimilhança. Ao invés, métodos numéricos devem ser usados juntamente com os métodos referidos e, isto, requer cálculos computacionais intensivos. Sempre usamos softwares computacionais. Exemplo Um administrador de um hospital deseja ajustar um modelo de regressão para estimar o tempo de recuperação depois que o paciente saiu do hospital devido a uma doença grave. A variável preditora é o número de dias que o paciente ficou hospitalizado (X), e a variável resposta é um índice de prognóstico para o tempo de recuperação (Y), onde, valores grandes indicam um bom prognóstico. A seguir temos os dados e o diagrama de dispersão:

11 11

12 12 Encontrou-se na literatura que a relação entre a variável preditora e a variável resposta segue o modelo: Onde os i são os termos dos erros, independentes, com distribuição normal de média 0 (zero) e variância 2 (constante). Precisamos estimar os parâmetros 0 e 1.

13 13 Método de mínimos quadrados na regressão não linear Como no modelo de regressão linear geral, o critério de mínimos quadrados é: O critério Q deve ser minimizado com respeito aos parâmetros de regressão não linear 0, 1,..., p-1 para obter as estimativas de mínimos quadrados. Métodos: 1) procura numérica e 2) equações normais de mínimos quadrados. A diferença com a regressão linear é que a solução das equações normais usualmente requer um método numérico iterativo, pois a solução analítica geralmente não pode ser encontrada.

14 14 Exemplo: para os dados de pacientes com doença grave, a função esperada é: O critério Q é dado por: Método da máxima verossimilhança: Vamos considerar que os erros i são independentes, normalmente distribuídos com variância constante. A função de máxima verossimilhança é dada por: Maximizar esta função com relação aos parâmetros, é idêntico a minimizar o somatório na parte do expoente, portanto, chega-se aos mesmos estimadores com os dois métodos.

15 15 Solução das equações normais Para obter as equações normais para um modelo não linear Precisamos minimizar o critério Q com respeito aos parâmetros 0, 1,..., p-1-. As derivadas parciais de Q com respeito aos k é:

16 16 Igualando-se as derivadas parciais a zero e, substituindo-se k por g k (estimativas de mínimos quadrados), obtemos o sistema de equações normais (p equações, k=0,1,...,p-1): Onde g é o vetor das estimativas de mínimos quadrados g k : As equações normais (6) são não lineares nas estimativas dos parâmetros g k, portanto, difíceis de serem resolvidas. Dessa forma, vamos precisar de métodos numéricos para obter uma solução das equações normais iterativamente.

17 17 Exemplo: para os dados de pacientes com doença grave, a função esperada para o i-ésimo caso é: As derivadas parciais já foram mostradas anteriormente. Substituindo-se 0 e 1 pelas estimativas de mínimos quadrados g 0 e g 1, as equações normais (6) são dadas por: Procedendo-se a algumas simplificações, obtemos: São equações não lineares nas estimativas dos parâmetros, assim, métodos numéricos devem ser empregados(métodos iterativos).

18 18 Método de Gauss-Newton (Procura numérica direta – Direct numerical search) Na maioria dos problemas com modelos não lineares, é mais prático encontrar as estimativas de mínimos quadrados por procedimentos de procura numérica direta do que, inicialmente, obter as equações normais e, então, usar métodos numéricos para encontrar a solução dessas equações iterativamente. O método de Gauss-Newton, também conhecido como método da linearização, usa uma expansão em série de Taylor para aproximar o modelo de regressão não linear com termos lineares e, então, aplica mínimos quadrados ordinário para estimar os parâmetros. Iterações desses passos geralmente conduzem a uma solução para o problema de regressão não linear. O método de Gauss-Newton inicia dando-se valores iniciais aos parâmetros 0, 1,..., p-1, denotados por: Esses valores iniciais podem ser obtidos de estudos anteriores, conhecimentos teóricos ou por uma grade de valores que minimize (5).

19 19 Com os valores iniciais dos parâmetros, aproximamos a função esperada f(X i, ) para os n casos por termos lineares da expansão em série de Taylor, de primeira ordem, em torno dos valores iniciais g k (0). Obtemos para o i-ésimo caso: Aqui g (0) é o vetor dos valores iniciais dos parâmetros. Observe que as derivadas, assim como a f, são avaliadas em k =g k (0). Fazendo-se:

20 20 Podemos reescrever a aproximação (7) como: E uma aproximação para o modelo (4) é dada por: Passando f i (0) para o lado esquerdo e, denotando a diferença Y i - f i (0) por Y i (0), temos: Observe que chegamos a uma aproximação para um modelo de regressão linear.

21 21 Cada coeficiente de regressão k (0) representa a diferença entre os verdadeiros parâmetros da regressão e as estimativas iniciais dos mesmos. Assim, os coeficientes de regressão representam uma correção que deve ser feita nos coeficientes de regressão iniciais. O propósito de ajustar o modelo de regressão linear (10) é estimar os coeficientes de regressão k (0) e usar essas estimativas para corrigir as estimativas iniciais dos parâmetros de regressão. O modelo (10) na forma matricial fica:

22 22 Observe as similaridades entre o modelo de regressão linear : A matriz D faz o papel da matriz X: Podemos, portanto, estimar os parâmetros (0) pelo método de mínimos quadrados ordinários: Usar um programa de computador que faça regressão múltipla, porém não esquecer de especificar que não desejamos o intercepto.

23 23 Nós, então, usamos estas estimativas de mínimos quadrados para obter os coeficientes de regressão estimados corrigidos g k (1) por meio de (7.A): Onde g k (1) representa a estimativa corrigida de k no fim da primeira iteração. Na forma matricial, temos: Neste ponto, nós podemos verificar se os coeficientes de regressão corrigidos representam uma melhoria na direção apropriada. Denotaremos o critério Q, calculado nos coeficientes de regressão iniciais g (0), por SQE (0), ou seja,

24 24 No final da primeira iteração, os coeficientes de regressão corrigidos são g (1). Denotaremos o critério Q, calculado nos coeficientes de regressão g (1), por SQE (1), ou seja, Se o algoritmo de Gauss-Newton está na direção correta, SQE (1) deverá ser menor do que SQE (0), pois os coeficientes de regressão no passo (1) deverão ser melhores. O método de Gauss-Newton repete o procedimento como foi descrito, com g (1) sendo, agora, usado como valores iniciais. Isto resulta num novo conjunto de estimativas corrigidas, representadas por g (2), e teremos um novo critério SQE (2). O processo iterativo continua até que as diferenças entre sucessivas estimativas dos coeficientes g (s+1) -g (s) e/ou a diferença entre sucessivas soma de quadrados de erros SQE (s-1) -SQE (s) tornam-se desprezíveis. As estimativas finais dos coeficientes de regressão são representadas por g e a soma de quadrado dos erros por SQE.

25 25 Exemplo: para os dados de pacientes com doença grave, a função é: Usando o PROC NLIN do SAS, vamos fazer a análise estatística dos dados. O programa é: data doenca; input obs dias indice; datalines; ; proc print data=doenca; run; proc nlin data=doenca method=gauss maxiter=20; parms a= b= ; model indice = a*exp(b*dias); der.a=exp(b*dias); der.b=a*dias*exp(b*dias); output out=doencaou p=predito r=residuo; run; Os valores iniciais de a e b, foram obtidos através de uma regressão linear simples do modelo:

26 26 Output do SAS: Non-Linear Least Squares Iterative Phase Method: Gauss-Newton Iter A B Sum of Squares NOTE: Convergence criterion met. Non-Linear Least Squares Summary Statistics Source DF Sum of Squares Mean Square Regression Residual Uncorrected Total (Corrected Total) Parameter Estimate Asymptotic Asymptotic 95 % Std. Error Confidence Interval Lower Upper A B

27 27

28 28 Exercício: vamos considerar os dados de pacientes com doença grave. Aplicar a transformação logarítmica e obter as estimativas iniciais dos coeficientes de regressão. A função resposta é: Aplicando o logaritmo, obtemos: Podemos aproximar o modelo exponencial pelo modelo linear:

29 29 Com o uso do PROC IML do SAS obtemos: proc iml; reset print; Y={54, 50, 45, 37, 35, 25, 20, 16, 18, 13, 8, 11, 8, 4, 6}; X={1 2, 1 5, 1 7, 1 10, 1 14, 1 19, 1 26, 1 31, 1 34, 1 38, 1 45, 1 52, 1 53, 1 60, 1 65}; YT=log(Y); XLX=X`*X; XLXinv=inv(xlx); b=XLXinv*x`*yt; b 0 =4,0371 b 1 =-0,03797

30 30 A soma de quadrados do erro no passo zero, SQE (0), requer o cálculo da função de regressão não linear para cada caso, utilizando os valores iniciais. Por exemplo, para o primeiro caso, onde X 1 =2, obtemos: Para os 15 casos, temos: /* valores iniciais */ g00= ; g10= ; X2=X[1:15,2]; /* funcao de regressão */ f=g00*exp(g10*X2); f (0) =

31 31 Para o primeiro caso, Y 1 =54, portanto, o desvio da resposta esperada é: Y (0) = A soma de quadrados do erro no passo zero, SQE (0), vale: Y0=Y-f; /* soma de quadrados do erro no passo zero */ SQE0=Y0`*Y0;

32 32 Para obter as estimativas dos coeficientes corrigidos, precisamos calcular D (0). Para obter esta matriz, precisamos das derivadas parciais da função de regressão (12) calculadas em = g (0). Para ilustrar, vamos tomar o caso 1, para o qual X 1 =2. Assim, o valor das derivadas parciais em g (0) são: D (0) = /*derivadas parciais calculadas em g(0)*/ D0_0=exp(g10*X2); D1_0=g00*X2#exp(g10*X2); D0=D0_0||d1_0;

33 33 Agora, podemos obter as estimativas de mínimos quadrados b (0), fazendo a regressão de Y (0) sobre as 2 variáveis X na matriz D (0). Continuando com o nosso programa no IML do SAS obtemos: b (0) = b0=inv(D0`*D0)*D0`*Y0; Usando 11.A, obtemos os coeficientes de regressão corrigidos g (1) : /* novas estimativas corrigidas */ g0=g00//g10; g1=g0+b0; Aqui, chegamos ao final da primeira iteração com: A soma de quadrados residual na primeira iteração vale:

34 34 = f1=g1[1,1]*exp(g1[2,1]*X2); Y1=Y-f1; /* soma de quadrados do erro na iteracao 1 */ SQE1=Y1`*Y1; Observe que houve uma redução nas somas de quadrados dos resíduos. Continuação do exercício: Faça as próximas três iterações, verifique se foi encontrado o critério de convergência ((SQE (s) -SQE (s-1) ) <0,0001) e escreva o modelo.

35 35 proc iml; reset print; Y={54, 50, 45, 37, 35, 25, 20, 16, 18, 13, 8, 11, 8, 4, 6}; X={1 2, 1 5, 1 7, 1 10, 1 14, 1 19, 1 26, 1 31, 1 34, 1 38, 1 45, 1 52, 1 53, 1 60, 1 65}; YT=log(Y); XLX=X`*X; XLXinv=inv(xlx); b=XLXinv*x`*yt; /* valores iniciais */ g00= ; g10= ; X2=X[1:15,2]; f=g00*exp(g10*X2); Y0=Y-f; /* soma de quadrados do erro no passo zero */ SQE0=Y0`*Y0; /* derivadas parciais calculadas em g(0) */ D0_0=exp(g10*X2); D1_0=g00*X2#exp(g10*X2); D0=D0_0||d1_0; b0=inv(D0`*D0)*D0`*Y0; /* novas estimativas corrigidas - iteracao 1 */ g0=g00//g10; g1=g0+b0; f1=g1[1,1]*exp(g1[2,1]*X2); /* residuos da iteracao 1 */ Y1=Y-f1; /* soma de quadrados do erro na iteracao 1 */ SQE1=Y1`*Y1; /*********************fim da iteracao 1 ****************/

36 36 /* derivadas parciais calculadas em g(1) */ D0_1=exp(g1[2,1]*X2); D1_1=g1[1,1]*X2#exp(g1[2,1]*X2); D1=D0_1||d1_1; /* estimativas corrigidas na iteracao 2 */ b1=inv(D1`*D1)*D1`*Y1; /* novas estimativas corrigidas - iteracao 2 */ g2=g1+b1; f2=g2[1,1]*exp(g2[2,1]*X2); /* residuos da iteracao 2 */ Y2=Y-f2; /* soma de quadrados do erro na iteracao 2 */ SQE2=Y2`*Y2; /***********fim da iteracao 2 *******************/

37 37 /* derivadas parciais calculadas em g(2) */ D0_2=exp(g2[2,1]*X2); D1_2=g2[1,1]*X2#exp(g2[2,1]*X2); D2=D0_2||d1_2; /* estimativas corrigidas na iteracao 3 */ b2=inv(D2`*D2)*D2`*Y2; g3=g2+b2; f3=g3[1,1]*exp(g3[2,1]*X2); /* residuos da iteracao 3 */ Y3=Y-f3; /* soma de quadrados do erro na iteracao 3 */ SQE3=Y3`*Y3; /************fim da iteracao 3 */ /* derivadas parciais calculadas em g(3) */ D0_3=exp(g3[2,1]*X2); D1_3=g3[1,1]*X2#exp(g3[2,1]*X2); D3=D0_3||d1_3; /* estimativas corrigidas na iteracao 4 */ b3=inv(D3`*D3)*D3`*Y3; g4=g3+b3; f4=g4[1,1]*exp(g4[2,1]*X2); /* residuos da iteracao 4 */ Y4=Y-f4; /* soma de quadrados do erro na iteracao 4 */ SQE4=Y4`*Y4; /************fim da iteracao 4 */

38 38 Comentários: 1) A escolha das estimativas iniciais no método de Gauss-Newton é muito importante, pois uma má escolha pode resultar num número muito grande de iterações até convergir; pode convergir num mínimo local, ou, mesmo, não convergir. Bons valores iniciais pode levar a um mínimo global, quando existir vários mínimos locais. SQE b (0) b (1)

39 39 2) Para o método de Gauss-Newton ou similares, é uma boa prática utilizar um outro conjunto de valores iniciais e verificar se chega-se ao mesmo resultado. 3) Algumas propriedades válidas para os modelos lineares, não são para os modelos não lineares. Por exemplo, a soma dos resíduos não necessariamente é igual a zero; a soma dos quadrados do erro mais a soma dos quadrados da regressão, não necessariamente é igual a soma dos quadrados total. Consequentemente, o coeficiente de determinação pode não ser uma estatística descritiva importante para os modelos não lineares. Inferência sobre os parâmetros na regressão não linear Na análise de regressão não linear com erros normais, os estimadores de mínimos quadrados ou de máxima verossimilhança, para qualquer tamanho de amostra, não tem distribuição normal, não são imparciais e não tem variância mínima. As inferências sobre os parâmetros da regressão, no caso não linear, geralmente são baseadas na teoria das grandes amostras.

40 40 Esta teoria mostra que os estimadores (de mínimos quadrados ou máxima verossimilhança) para os modelos de regressão não linear com erros normais, quando o tamanho da amostra é grande, apresentam distribuição aproximadamente normal, são aproximadamente não tendenciosos, e aproximadamente variância mínima. Estimativa de 2 g é o vetor das estimativas finais dos parâmetros; para os modelos de regressão não linear, o QME não é um estimador não tendencioso de 2, porém, o viés é pequeno se o tamanho da amostra for grande. Teoria das grandes amostras Teorema: para i independentes N(0, 2 ) e o tamanho da amostra n razoavelmente grande, a distribuição amostral de g é aproximadamente normal. O valor esperado do vetor de médias é aproximadamente:

41 41 Uma aproximação da estimativa da matriz de variância-covariância dos coeficientes de regressão é dada por: D é a matriz de derivadas parciais calculada nas estimativas finais, g. Quando a teoria de grandes amostras é aplicável? Orientações: » o processo iterativo converge rapidamente; » calcular algumas medidas: medidas de curvatura de Bates e Watts, medida de vício de Box; » estudos de simulação, por exemplo, amostragem Bootstrap verifica se as distribuições amostrais das estimativas dos parâmetros de regressão não linear são aproximadamente normal, se as variâncias das distribuições amostrais são próximas das variâncias para o modelo linearizado, e se o viés em cada estimativa dos parâmetros é pequeno.

42 42 Algumas medidas usadas quando os resultados da teoria das grandes amostras não se aplica: Usar outra parametrização do modelo Fazer intervalos de confiança Bootstrap Aumentar o tamanho da amostra

43 43 Intervalo de confiança para os parâmetros De acordo com o teorema 13, temos: Onde t(n-p) é a variável com distribuição t com (n-p) graus de liberdade. De (14) obtemos: Onde t(1- /2;n-p) é o (1- /2)100 percentil da distribuição t com (n-p) graus de liberdade. Exemplo: vamos considerar os dados de pacientes com doença grave. Desejamos estimar 1 com um intervalo de 95% de confiança. Temos:

44 44 Concluímos, com aproximadamente 95% de confiança, que 1 está entre - 0,0433 e -0,0359. Teste de hipóteses Onde k0 é um valor específico de k. O teste estatístico é: Regra de decisão: Exemplo: vamos considerar os dados de pacientes com doença grave. Desejamos testar as hipóteses:

45 45 O valor p é: Portanto, rejeitamos a hipótese nula.


Carregar ppt "1 Regressão não linear Modelos de regressão linear e não linear Modelos de regressão linear Até o presente momento do curso, consideramos modelos lineares."

Apresentações semelhantes


Anúncios Google