A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Regressão Linear Múltipla Arquivo: seleção2.sav. Base de dados Variáveis independentes: X 1, X 2, X 3,..., X 14 Variável dependente ou Resposta: Y 1428.

Apresentações semelhantes


Apresentação em tema: "Regressão Linear Múltipla Arquivo: seleção2.sav. Base de dados Variáveis independentes: X 1, X 2, X 3,..., X 14 Variável dependente ou Resposta: Y 1428."— Transcrição da apresentação:

1 Regressão Linear Múltipla Arquivo: seleção2.sav

2 Base de dados Variáveis independentes: X 1, X 2, X 3,..., X 14 Variável dependente ou Resposta: Y 1428 observações

3 1º. Análise da Correlação entre as variáveis a partir da Matriz de correlações Analyze Correlate Bivariate

4 Matriz de correlações As correlações acima de 0,8 estão destacadas na Tabela 1. O ideal é que as correlações entre as variáveis independentes sejam baixas e entre a variável dependente com as independentes sejam altas.

5 2º. Estudo das variáveis - Estatísticas descritivas Presença de outliers em praticamente todas as variáveis (exceção: X 4, X 8 e Y) A presença de outliers pode ser um indicativo de violação das suposições da regressão

6 Estatísticas descritivas A assimetria em algumas variáveis através dos coeficientes destacadas na Tabela 2

7 Variável X 1 Análise das distribuição de cada variável através do Histograma e Box Plot Presença de outliers

8 Variável X 2 Presença de outliers

9 Variável X 3 Presença de outliers

10 Variável X 4 Não há outliers

11 Variável X 5 Presença de outliers

12 Variável X 6 Presença de outliers

13 Variável X 7 Presença de outliers

14 Variável X 8 Não há outliers

15 Variável X 9 Presença de outliers

16 Variável X 10 Presença de outliers

17 Variável X 11 Presença de outliers

18 Variável X 12 Presença de outliers

19 Variável X 13 Presença de outliers

20 Variável X 14 Presença de outliers

21 Variável Y Não há outliers

22 Modelo de Regressão (completo)

23 Qualidade do ajuste 76% da variabilidade de Y pode ser explicada pelas variáveis X 1, X 2, X 3,... X 14 (todas juntas) – para saber qual explica “mais” ver p-valor (Sig.) na tabela Coefficients a

24 ANOVA da Regressão (Teste F) Trata-se de um teste de hipótese, testando se: Rejeita H 0. Pelo menos um β é ≠ 0

25 Coeficientes estimados Sig < 0,05 são significativas

26 Análise dos resíduos Observa-se valores discrepantes fora do intervalo -3 a 3 e uma tendência nos resíduos 3 -3

27 Modelo de Regressão - seleção de variáveis Método backward ANOVA da Regressão (Teste F) O método foi executado em 6 etapas (Model)

28 Coeficientes estimados

29 Análise dos resíduos

30 Modelo de Regressão - seleção de variáveis Método forward ANOVA da Regressão (Teste F)

31 Coeficientes estimados

32 Análise dos resíduos

33 Comparativo entre os métodos

34 Suposições do Modelo

35 Verificação das Suposições do Modelo (considerando as variáveis selecionadas pelo método backward) 1º) salvar os valores preditos padronizados (ZPR_1) e os resíduos padronizados (ZRE_1) Variáveis: X 2, X 5, X 6, X 8, X 9, X 10, X 11, X 13 e X 14 Arquivo: selecao2_backward.sav Valores preditos não padronizados

36 2º) Criar duas variáveis: uma variável com os valores previstos elevados ao quadrado (ZPR_1) 2 chamando de ZPRE_2 Transform Compute variable Target variable...... ZPR_2 Numeric expression.... Standardized predicted x Standardized predicted OK

37 2º) Criar duas variáveis: OUTRA variável com os resíduos padronizados elevados ao quadrado (ZRE_1) 2 chamando de ZRE_2 Transform Compute variable Target variable...... ZRE_2 Numeric expression.... Standardized predicted x Standardized predicted OK

38 Verificação das Suposições do Modelo no SPSS Statistic.... Collinearity diagnostics Multicolinearidade

39 Saídas Diagnóstico de multicolinearidade – VIF e Tolerance Regra para o VIF (GUJARATI, 2000; HAIR, 2005) Até 1 – sem multicolinearidade De 1 até 10 – com multicolinearidade aceitável Acima de 10 – com multicolinearidade problemática Multicolineariade aceitável Multicolineariade problemática

40 A medida condition index compara a magnitude das razões entre as variações do eigenvalue; altos índices (maiores que 15) importam em alto relacionamento entre variáveis, indicando a presença de multicolineariade.

41 Verificação das Suposições do Modelo no SPSS Ausência de autocorrelação serial (independência dos erros) Statistic.... Durbin-Watson

42 O teste de Durbin-Watson baseia-se em cálculo de medida conhecida como estatística DW, tabelada para valores críticos segundo o nível de confiança escolhido. Regra para a estatística DW – valores próximos de 2 atendem ao pressuposto (CORRAR, 2011, p.191)

43 Verificação das Suposições do Modelo no SPSS Normalidade Teste de Kolmogorov-Smirnov H 0 : a distribuição da série testada é normal. H 1 : a distribuição não tem comportamento normal Através de uma estatística K-S que usa a distribuição D (distância euclidiana máxima)

44 Analyze Nonparametric tests 1 – Sample K-S Selecionar variável... Standardized residual – ZRE_1 OK p-valor < 0,05, Rejeita H 0. Conclusão: A distribuição não é normal Transformações nas variáveis; Aumentar tamanho da amostra; Retirada de outliers. Em amostras com número de observações menores do que 30 deve ser utilizado o teste de normalidade de Shapiro-Wilk

45 Verificação das Suposições do Modelo no SPSS Homocedasticidade Teste de Pesarán-Pesarán – verifica se a variância dos resíduos se mantém constante em todo o espectro das variáveis independentes. H 0 : os resíduos são homocedásticos. H 1 : os resíduos são heteroedásticos

46 Analyze Regression... linear Selecionar variável dependente... ZRE_2 Selecionar variável independente... ZPR_2 OK p-valor < 0,05, Rejeita H 0. Conclusão: O pressuposto da homocedasticidade foi violado. Transformações nas variáveis; Aumentar tamanho da amostra; Retirada de outliers.

47 Verificação das Suposições do Modelo no SPSS Análise através de gráficos

48 Graphs Scatterplot Define Seleciona variáveis OK Independentes : X 2, X 5, X 6, X 8, X 9, X 10, X 11, X 13 e X 14 Dependente: Y A seleção deve ser feita entre uma variável independente de cada vez com a variável dependente Y Linearidade

49 baixa correlação linear com a variável dependente

50 Moderada (X 9 ) e Forte (X 10, X 11, X 13 e X 14 ) correlação linear com a variável dependente Transformação (?)

51

52

53

54 Multicolinearidade Resultados X 14 e X 13 → alta correlação (0,955) X 2 e X 8 → fraca correlação (-0,022) A Tabela 4 apresenta o coeficiente de correlação para as variáveis:

55 Confirmação de alta correlação entre X 13 e X 14 r = 0,955 Confirmação de fraca correlação entre X 2 e X 8 r = -0,022 Graficamente é observada através de diagrama de dispersão bidimensional com as variáveis Independentes.

56 Resumo da Validação Ajustamento aos pressupostos

57 Estatísticas descritivas A presença de outliers pode ser um indicativo de violação das suposições da regressão (normalidade, homodedasticidade)

58 Análise da influência de valores extremos através dos resíduos Regression Linear Statistic Casewise Diagnostics Continue.... OK

59 Ajustamento aos pressupostos Transformações nas variáveis; Aumentar tamanho da amostra; Remoção de outliers (?)

60 Transformação (?) Analisando as variáveis X 13 e X 14 Substituir X 13 por X 13 2 e X 14 por X 14 2

61 Refazendo a seleção... Método backward O método foi executado em 10 etapas (Model) com R 2 = 0,887 Independência dos erros

62 Modelo de Regressão - seleção de variáveis Método backward ANOVA da Regressão (Teste F) Coeficientes estimados

63 Análise dos resíduos Observa-se valores discrepantes fora do intervalo -3 a 3 mas com distribuição aleatória dos resíduos.

64 Normalidade p-valor > 0,05, Aceita H 0. Conclusão: A distribuição é normal Gráfico da Probabilidade Normal


Carregar ppt "Regressão Linear Múltipla Arquivo: seleção2.sav. Base de dados Variáveis independentes: X 1, X 2, X 3,..., X 14 Variável dependente ou Resposta: Y 1428."

Apresentações semelhantes


Anúncios Google