Regressão Linear Múltipla

Slides:



Advertisements
Apresentações semelhantes
ANÁLISE MULTIVARIADA DE DADOS
Advertisements

Correlação e Regressão
Estatística amintas paiva afonso.
Deve ser selecionado o modo
Prof. Darlan Marcelo Delgado
ANÁLISES DE REGRESSÃO.
Analise de Regressão Parte 2.
Modelos de Regressão Múltipla.
Regressão Linear Aula 09 Prof. Christopher Freire Souza
MB751 – Modelos de previsão
ANÁLISE DE REGRESSÃO UM GUIA PRÁTICO.
Regressão Linear Múltipla
Rejane Sobrino Pinheiro Tania Guillén de Torres
Diagramas de dispersão
Regressão linear A regressão linear é usada para determinar o valor de uma variável dependente contínua baseando-se na sua relação linear com uma (regressão.
Uma avaliação do consumo de energia em rede de sensores sem fio
Laís Araújo Lopes de Souza
DELINEAMENTOS CORRELACIONAIS
Pressuposições do Modelo Estatístico e Transformação de Dados
Etapa Estatística Planejamento Análise Estatística Efeito de sequência
Deve ser selecionado o modo
Regressão Múltipla Profas: Gardênia da Silva Abbad Elaine Rabelo Neiva
Regressão Pontos mais importantes: -objectivo -regressão linear
Aula 6 - Método não-experimental ou de seleção não-aleatória
Mario de Andrade Lira Junior lira.pro.br\wordpress 2/4/2015 lira.pro.br\wordpress - Reservados todos os direitos autorais.
Violação dos pressupostos do modelo de regressão : Autocorrelação
Regressão Linear.
ANOVA II.
Interpolação e Ajuste de Curvas
Análise multivariável
Universidade Estadual Paulista “Júlio de Mesquita Filho” FCLassis – Depto de Ciências Biológicas Programa de Pós-graduação em Biociências Área de Concentração.
UFSC.PósMCI.FME.Inferências Envolvendo Variâncias. (8.1) 6 Inferências Envolvendo Variâncias.
Modelagem Estatística
Professor Antonio Carlos Coelho
Aula 12 - Teste de associação1 DATAAulaCONTEÚDO PROGRAMÁTICO 10/03Segunda1Níveis de mensuração, variáveis, organização de dados, apresentação tabular 12/03Quarta2Apresentação.
Regressão e Previsão Numérica.
Nota: Na literatura distingue-se a associação (vars. categóricas
análise dos estimadores
7 Ajuste de Curvas UFSC.PósMCI.FME.Ajuste de curvas. (11.1)
Regressão.
Estatística para Cursos de Engenharia e Informática
Análise de Variância one-way two-way
Análise de Variância medidas repetidas: one-way two-way
Multicolinearidade.
Introdução a planejamento e otimização de experimentos
Econometria Avançada Prof. Alexandre Gori Maia
Descrição Bivariada Comparando Duas Distribuições
ME623A Planejamento e Pesquisa
Testes de Hipóteses.
Aula 12 - Relaxando as hipóteses do MCRL
Métodos Estatísticos Aplicados às Ciências Biológicas
PPGTI AULA 3 Prof. Dr. Márcio A. Fiori –
Métodos Estatísticos Aplicados às Ciências Biológicas - 11ª aula -
Regressão Linear Simples
Testes de Hipóteses.
Correlação e regressão
Regressão Linear. Introdução A relação linear entre duas variáveis contínuas pode ser aferida através do coeficiente de correlação ou do modelo de regressão.
SPSS. 1 - Inserir dados na planilha: digite os dados na planilha.
Regressão linear simples
Regressão linear simples
Econometria Félix Bernardo. Econometria “a Econometria procura fornecer uma base empírica para o estudo de relações entre variáveis económicas (ou, em.
Experimentação e Instrumentação Regressão Linear e Múltipla
SER301 – ANÁLISE ESPACIAL DE DADOS GEOGRÁFICOS Fernando Leonardi RA: Matheus Vieira RA: Uso das.
AULA 11 – REGRESSÃO Parte I
LINEARIDADE Kamila Dias Nayara Rayanne Pereira Renata Fernandes Solange Araújo.
Regressão Linear (aula 14 – Parte 2).
Variância/ Covariância, Correlação Regressão. Variância.
CMIP- Centro de Metrologia e Inovação em Processos Programa de Pós-Graduação em Odontologia Profª Andréa ANÁLISE DE REGRESSÃO LINEAR MÚLTIPLA.
Como construir modelos empíricos. Nos modelos estudados, cada fator foi fixado em dois níveis Por esta razão temos que nos contentar com uma visão limitada.
Regressão Linear Múltipla Arquivo: seleção2.sav. Base de dados Variáveis independentes: X 1, X 2, X 3,..., X 14 Variável dependente ou Resposta: Y 1428.
Transcrição da apresentação:

Regressão Linear Múltipla Arquivo: seleção2_tarefa.sav

Base de dados Variáveis independentes: X1, X2, X3, ..., X14 Variável dependente ou Resposta: Y 1428 observações

1º. Análise da Correlação entre as variáveis a partir da Matriz de correlações Analyze Correlate Bivariate

Matriz de correlações As correlações acima de 0,8 estão destacadas na Tabela 1. O ideal é que as correlações entre as variáveis independentes sejam baixas e entre a variável dependente com as independentes sejam altas.

2º. Estudo das variáveis - Estatísticas descritivas Presença de outliers em praticamente todas as variáveis (exceção: X4, X8 e Y) A presença de outliers pode ser um indicativo de violação das suposições da regressão

Estatísticas descritivas A assimetria em algumas variáveis através dos coeficientes destacadas na Tabela 2

Análise das distribuição de cada variável através do Histograma e Box Plot Variável X1 Presença de outliers

Variável X2 Presença de outliers

Variável X3 Presença de outliers

Variável X4 Não há outliers

Variável X5 Presença de outliers

Variável X6 Presença de outliers

Variável X7 Presença de outliers

Variável X8 Não há outliers

Variável X9 Presença de outliers

Variável X10 Presença de outliers

Variável X11 Presença de outliers

Variável X12 Presença de outliers

Variável X13 Presença de outliers

Variável X14 Presença de outliers

Variável Y Não há outliers

Modelo de Regressão (completo)

Qualidade do ajuste 76% da variabilidade de Y pode ser explicada pelas variáveis X1, X2, X3, ... X14 (todas juntas) – para saber qual explica “mais” ver p-valor (Sig.) na tabela Coefficientsa

ANOVA da Regressão (Teste F) Trata-se de um teste de hipótese, testando se: Rejeita H0. Pelo menos um β é ≠ 0

Coeficientes estimados Sig < 0,05 são significativas

Análise dos resíduos 3 Observa-se valores discrepantes fora do intervalo -3 a 3 e uma tendência nos resíduos -3

O método foi executado em 6 etapas (Model) Modelo de Regressão - seleção de variáveis Método backward ANOVA da Regressão (Teste F) O método foi executado em 6 etapas (Model)

Coeficientes estimados

Análise dos resíduos

Modelo de Regressão - seleção de variáveis ANOVA da Regressão (Teste F) Método forward

Coeficientes estimados

Análise dos resíduos

Comparativo entre os métodos

Suposições do Modelo

Verificação das Suposições do Modelo (considerando as variáveis selecionadas pelo método backward) Variáveis: X2, X5, X6, X8, X9, X10, X11, X13 e X14 Arquivo: selecao2_backward.sav 1º) salvar os valores preditos padronizados (ZPR_1) e os resíduos padronizados (ZRE_1) Valores preditos não padronizados

Transform Compute variable Target variable ...... ZPR_2 2º) Criar duas variáveis: uma variável com os valores previstos elevados ao quadrado (ZPR_1)2 chamando de ZPRE_2 Transform Compute variable Target variable ...... ZPR_2 Numeric expression .... Standardized predicted x Standardized predicted OK

Transform Compute variable Target variable ...... ZRE_2 2º) Criar duas variáveis: OUTRA variável com os resíduos padronizados elevados ao quadrado (ZRE_1)2 chamando de ZRE_2 Transform Compute variable Target variable ...... ZRE_2 Numeric expression .... Standardized predicted x Standardized predicted OK

Multicolinearidade Verificação das Suposições do Modelo no SPSS Statistic .... Collinearity diagnostics

Saídas Diagnóstico de multicolinearidade – VIF e Tolerance Multicolineariade aceitável Multicolineariade problemática Regra para o VIF (GUJARATI, 2000; HAIR, 2005) Até 1 – sem multicolinearidade De 1 até 10 – com multicolinearidade aceitável Acima de 10 – com multicolinearidade problemática

A medida condition index compara a magnitude das razões entre as variações do eigenvalue; altos índices (maiores que 15) importam em alto relacionamento entre variáveis, indicando a presença de multicolineariade.

Ausência de autocorrelação serial (independência dos erros) Verificação das Suposições do Modelo no SPSS Ausência de autocorrelação serial (independência dos erros) Statistic .... Durbin-Watson

O teste de Durbin-Watson baseia-se em cálculo de medida conhecida como estatística DW, tabelada para valores críticos segundo o nível de confiança escolhido. Regra para a estatística DW – valores próximos de 2 atendem ao pressuposto (CORRAR, 2011, p.191)

Normalidade Verificação das Suposições do Modelo no SPSS Teste de Kolmogorov-Smirnov Através de uma estatística K-S que usa a distribuição D (distância euclidiana máxima) H0: a distribuição da série testada é normal. H1: a distribuição não tem comportamento normal

Selecionar variável ... Standardized residual – ZRE_1 OK Analyze Nonparametric tests 1 – Sample K-S Selecionar variável ... Standardized residual – ZRE_1 OK p-valor < 0,05, Rejeita H0. Conclusão: A distribuição não é normal Transformações nas variáveis; Aumentar tamanho da amostra; Retirada de outliers. Em amostras com número de observações menores do que 30 deve ser utilizado o teste de normalidade de Shapiro-Wilk

Homocedasticidade Verificação das Suposições do Modelo no SPSS Teste de Pesarán-Pesarán – verifica se a variância dos resíduos se mantém constante em todo o espectro das variáveis independentes. H0: os resíduos são homocedásticos. H1: os resíduos são heteroedásticos

Selecionar variável dependente ... ZRE_2 Analyze Regression ... linear Selecionar variável dependente ... ZRE_2 Selecionar variável independente ... ZPR_2 OK p-valor < 0,05, Rejeita H0. Conclusão: O pressuposto da homocedasticidade foi violado. Transformações nas variáveis; Aumentar tamanho da amostra; Retirada de outliers.

Análise através de gráficos Verificação das Suposições do Modelo no SPSS Análise através de gráficos

Linearidade Graphs Scatterplot Define Seleciona variáveis OK Independentes : X2, X5, X6, X8, X9, X10, X11, X13 e X14 Dependente: Y A seleção deve ser feita entre uma variável independente de cada vez com a variável dependente Y

baixa correlação linear com a variável dependente

Moderada (X9) e Forte (X10, X11, X13 e X14) correlação linear com a variável dependente Transformação (?)

Transformação (?)

Transformação (?)

Multicolinearidade A Tabela 4 apresenta o coeficiente de correlação para as variáveis: Resultados X14 e X13 → alta correlação (0,955) X2 e X8 → fraca correlação (-0,022)

Graficamente é observada através de diagrama de dispersão bidimensional com as variáveis Independentes. Confirmação de alta correlação entre X13 e X14 r = 0,955 Confirmação de fraca correlação entre X2 e X8 r = -0,022

Resumo da Validação Ajustamento aos pressupostos

Estatísticas descritivas A presença de outliers pode ser um indicativo de violação das suposições da regressão (normalidade, homodedasticidade)

Análise da influência de valores extremos através dos resíduos Regression Linear Statistic Casewise Diagnostics Continue .... OK

Ajustamento aos pressupostos Transformações nas variáveis; Aumentar tamanho da amostra; Remoção de outliers (?)

O método foi executado em 9 etapas (Model) com R2 = 0,760 Solução 1: Método de seleção forward O método foi executado em 9 etapas (Model) com R2 = 0,760 Independência dos erros

ANOVA da Regressão (Teste F)

Coeficientes estimados (β)

Análise dos resíduos Selecionando SOMENTE as variáveis X12, X14, X6, X11, X9, X10, X8, X2 e X5 com método ENTER salvando os valores preditos (não padronizados) x Resíduos (padronizados)

PLOTAR OS RESÍDUOS Valores preditos em X Resíduos Padronizados (Y)

ZRE_1 PRE_1

Explorando a relação das variáveis independentes X12, X14, X6, X11, X9, X10, X8, X2 e X5 com Y

Aparente relação quadrática entre X12 e X14 com Y. Conforme já visto anteriormente nos gráfico de correlação, as variáveis X12 e X14 apresentam uma relação quadrática com a variável independente Y. Assim, vamos incluir no modelo X122 e X142 e analisar novamente os resíduos. Aparente relação quadrática entre X12 e X14 com Y. Y = β0 + β1.X12 + β2.X14 + β3.X6 + β4.X11 + β5.X9 + β6.X10 + β7.X8 + β8.X2 + β9.X5 + β10.X122 + β11.X142 + Ɛ Incluir no modelo a tendência quadrática

Transforme / Compute variable O mesmo para X14

Observa-se distribuição aleatória dos resíduos.

SAÍDAS após a Inclusão de X122 e X142 R2 = 0,982

Coeficientes estimados (β) Y = β0 + β1.X12 + β2.X14 + β3.X6 + β4.X11 + β5.X9 + β6.X10 + β7.X8 + β8.X2 + β9.X5 + β10.X122 + β11.X142 + Ɛ 1,619 + 0,129X12 + 1,373X14 - 0,044X6 + 0,002X11 - 0,026X9 - 0,054X10 -2,919X8 + 0,086X2 – - 3,17.105 X5 -0,003X122 + -0,012X142 + Ɛ

Resposta: Equação de regressão: 1,619 + 0,129X12 + 1,373X14 - 0,044X6 + 0,002X11 - 0,026X9 - 0,054X10 -2,919X8 + 0,086X2 – - 3,17.105 X5 -0,003X122 + -0,012X142