Regressão linear simples Variável independente, X Variável dependente, Y Temperatura do forno (0C) Resistência mecânica da cerâmica (MPa) Quantidade de aditivo (%) Octanagem da gasolina Renda (R$) Consumo (R$) Memória RAM do computador (Gb) Tempo de resposta do sistema (s) Área construída do imóvel (m2) Preço do imóvel (R$)
Exemplo 11.2: Resultados de n = 6 ensaios experimentais: X = % de aditivo Y = Índice de octanagem da gasolina X Y 1 80,5 2 81,6 3 82,1 4 83,7 5 83,9 6 85,0
Exemplo 11.2:
Regressão - Modelo Y = + Regressão Linear Simples Parâmetros Predito por X, se- gundo uma função Efeito aleatório + Regressão Linear Simples Parâmetros
Modelo de regressão linear simples Em termos das variáveis: Em termos dos dados: Yi = + xi + i Suposições: os termos de erro (1, 2, ..., n) são variáveis aleatórias independentes; E{i} = 0; V{i} = 2; e i tem distribuição normal (i = 1, 2, ..., n).
Método dos mínimos quadrados para estimar e Minimizar em relação a e : yi xi i
Método dos mínimos quadrados para estimar e Resultado das derivadas parciais: Estimativa de : Estimativa de : Reta de regressão construída com os dados:
Qualidade do ajuste Ajustou-se uma equação de regressão entre X e Y. E a qualidade do ajuste? análise de variância do modelo análise dos resíduos
Reta de regressão e resíduos Valores preditos: yi xi ei Resíduos:
Análise de variância do modelo Desvio em relação à média aritmética: yi xi ei di Desvio em relação à reta de regressão (resíduo da regressão):
Somas de quadrados = + SQT variação total SQR variação explicada pela equação de regressão SQE variação não explicada
Somas de quadrados Coeficiente de determinação:
Medida da qualidade do ajuste: Coeficiente de determinação (R2) R2 = Variação total explicada = (yi - y)2 ^ Matematicamente, R2 é o quadrado do Coef. de Correlação de Pearson. 0 R2 1
Exemplo 11.2: Interpretar.
Análise de variância do modelo Fonte de variação gl SQ QM Razão f Regressão 1 Erro n – 2 Total n – 1
Teste de significância do modelo H0: = 0 e H1: 0 Distribuição de referência para a razão f : distribuição F com gl = 2 no numerador e gl = n – 2 no denominador (Tabela 6).
Exemplo 11.2: gl SQ MQ Fonte de variação Razão f Regressão 1 13,73 13,729 156,26 Erro 4 0,35 0,088 Total 5 14,08
Regressão Múltipla Predizer valores de uma variável dependente (Y) em função de variáveis independentes (X1, X2, ..., Xk). Conhecer o quanto variações de Xj (j = 1,...,k) podem afetar Y.
Modelo de Regressão Múltipla E{Y} = f(X1, X2, ..., Xk) Linear: E{Y} = 0 + 1X1 + 2X2 + ... + kXk onde Y, X1, ..., Xk podem representar as variáveis originais ou transformadas. Admite-se que X1, ..., Xk são variáveis matemáticas e Y é uma variável aleatória.
Modelo de Regressão Múltipla E{Y} = 0 + 1X1 + 2X2 + ... + kXk O coeficiente k representa a variação esperada de Y para cada unidade de variação em Xk (k = 1, 2, ..., k), considerando as outras variáveis independentes fixas. O primeiro objetivo é estimar os coeficientes: 0, 1, 2, ..., k.
Modelo de Regressão Múltipla AMOSTRA: variáveis obs. Y X1 X2 ... Xk 1 y1 x11 x12 ... x1k 2 y2 x21 x22 ... x2k ... ... ... ... ... ... n yk xn1 xn2 ... xnk E{yi} = 0 + 1xi1 + 2xi2 + ... + kxik yi = 0 + 1xi1 + 2xi2 + ... + kxik + ei termo aleatório (erro)
Modelo de Regressão Múltipla Suposições yi = 0 + 1xi1 + 2xi2 + ... + kxik + ei termo aleatório (erro) Os erros (ei) são independentes e variam aleatoriamente segundo uma distribuição (normal) com média zero e variância constante. Suposição adicional: não deve haver correlações muito forte entre as variáveis independentes.
Modelos lineares: Exemplo com regressãolinear simples i xi yi yi = 0 +1xi + ei 1 20 98 98 = 0 + 1.20 + e1 2 25 110 110 = 0 + 1.25 + e2 3 30 112 112 = 0 + 1.30 + e3 4 35 115 115 = 0 + 1.35 + e4 5 40 122 122 = 0 + 1.40 + e5
Modelos lineares: Exemplo com regressão linear simples Y = X + e1 e2 e3 e4 e5 e1 e2 e3 e4 e5 98 110 112 115 122 1 20 1 25 1 30 1 35 1 40 0 1 = +
Modelos lineares: Exemplo com regressão linear múltipla i x1i x2i yi 1 20 70 98 2 25 68 110 3 30 83 112 4 35 77 115 5 40 65 122
Modelos lineares: Exemplo com regressão linear múltipla Y = X + e1 e2 e3 e4 e5 e1 e2 e3 e4 e5 0 1 2 98 110 112 115 122 1 20 70 1 25 68 1 30 83 1 35 77 1 40 65 + =
Modelos lineares: Estimador de mínimos quadrados Y = X + Estimador de mínimos quadrados de , isto é, o vetor b que minimiza a função L() = ’ = (Y - X)’(Y - X) : b = (b0, b1, ..., bk)’
Regressão Múltipla Equação de regressão ajustada aos dados: Valores preditos: Resíduos: (estimativa da) variância do erro:
Regressão Múltipla: comparando modelos Dado dois modelos p1 e p2 com n1 e n2 coeficientes com n2>n1. H0: o número maior de coeficientes de p2 só servem para ajustar o erro experimental Sob H0 e considerando as suposições do modelo, f tem distrib. F com g.l. n2-n1 (no num.) e (Nexp-n21) (no denom.)
Medida do Ajuste (yi - y)2 Coeficiente de determinação (R2) R2 = Variação total explicada = (yi - y)2 ^ 0 R2 1 Coef. de correlação múltiplo (R): coef. de correlação entre yi e
Regressão Múltipla: teste sobre o modelo E{Y} = 0 + 1X1 + 2X2 + ... + kXk H0: 1 = 2 = ... = k = 0 Sob H0 e considerando as suposições do modelo, f tem distrib. F com g.l. k (no num.) e (n-k-1) (no denom.)
Teste de falta de ajuste m = número de níveis de X; n = número de replicações; p = número de parâmetros do modelo Estatística do teste:
Teste de falta de ajuste m = número de níveis de X; n = número de replicações; p = número de parâmetros do modelo Estatística do teste:
% Variação explicada: SQR/SQT % Variação explićavel: (SQT-Sqep)/SQT
Regressão Múltipla: teste sobre um particular coeficiente E{Y} = 0 + 1X1 + ... + kXk + ... + kXk H0: j = 0 onde cjj é o k-ésimo elemento da diag. princ. da matriz C = (X’X)-1. Sob H0 e considerando as suposições do modelo, t tem distrib. t de student com g.l. = (n-k-1)
Exemplo 2 Obter o melhor modelo (Taylor) para:
Exemplo 2