LINEARIDADE Kamila Dias Nayara Rayanne Pereira Renata Fernandes Solange Araújo
A regressão e a correlação são duas técnicas estreitamente relacionadas que envolvem uma forma de estimação. A análise da correlação e regressão compreende a análise de dados amostrais para saber se e como duas ou mais variáveis estão relacionadas uma com a outra numa população. A regressão dá uma equação que descreve o relacionamento em termos matemáticos; a correlação mede a força, ou grau de relacionamento entre duas variáveis. Linearidade
Regressão Linear Simples Análise de regressão é uma metodologia estatística que utiliza a relação entre duas ou mais variáveis quantitativas (ou qualitativas) de tal forma que uma variável pode ser predita a partir da outra ou outras. Exemplos: A população de bactérias pode ser predita a partir da relação entre população e o tempo de armazenamento. Concentrações de soluções de proteína de arroz integral e absorbâncias médias corrigidas. Relação entre textura e aparência.
Diagrama de Dispersão É um gráfico bidimensional, por meio do qual podemos analisar o comportamento das variáveis em estudo. O comportamento entre duas variáveis pode assumir diversas formas, que vão desde uma relação linear até complicadas formas não-lineares.
Se x e y crescem no mesmo sentido, existe uma correlação positiva entre as variáveis, que será tanto maior quanto menor fora a dispersão dos pontos.
Correlação Fraca Diagramas de dispersão que mostram correlação positiva entre as variáveis.
Diagramas de dispersão que mostram correlação positiva entre as variáveis. Correlação Forte
Diagramas de dispersão que mostram correlação positiva entre as variáveis. Correlação Perfeita
Se x e y variam em sentidos contrários, existe correlação negativa entre as variáveis. Essa correlação é tanto maior quanto menor é a dispersão dos pontos.
Se x cresce e y varia ao acaso, não existe correlação entre as variáveis.A correlação entre elas é nula.
Diagrama de Dispersão que mostra correlação nula entre variáveis.
Equação da Reta Toda reta pode ser representada pela seguinte expressão matemática: y = a + bx, onde a e b são valores que se determinam com base nos dados amostrais; a é a cota da reta em x=0 ou seja coeficiente linear, b é o coeficente angular. A variável y é a variável que deve ser predita, e x é o valor preditor.
y = a = bx x=1 yy y = a X = 0 Coef. Angular b = ∆y ∆x
Método dos Mínimos Quadrados O método mais usado para ajustar uma linha reta a um conjunto de pontos é conhecido como técnica do mínimos quadrados. Simbolicamente, o valor minimizado é ∑ u² = (y – yc)², sustituindo yc = a + bx na sua fórmula, resulta em: ∑ u² = (y – a – bx)².
As formulas para o calculo dos coeficientes de a e b: b = [nSxy – SxSy] [nSx 2 – (Sx) 2 ] a = (Sy – bSx) n
Utilidade Busca de relações de Causa e Efeito Predição de valores Economia em custos de projeção Estabelecer explanação sobre uma população a partir de uma amostra
Coeficiente de Determinação (r²) O Coeficiente de determinação mede o grau de ajustamento da reta de regressão ao dados observados. y = a = bx
Erro padrão das estimativas O erro padrão da estimativa (Se) é uma medida que avalia o grau de precisão da reta da regressão. Este erro padrão é o desvio padrão da distribuição de pontos em torno da reta de regressão.
Fórmula: S e = y 2 - a y - b xy n - 2
Suposições básicas de validação do modelo de regressão Os quatro principais pressupostos da regressão são: Independência de erros ou auto correlação residual; Homocedasticidade; Normalidade; Linearidade.
Referências: CORRAR,Luiz J.; THEÓFILO, Carlos Renato.Pesquisa Operacional para decisão em contabilidade e administração: Contabilometria. São Paulo:Atlas,2004. STEVENSON,William J.Estatística aplicada à administração.São Paulo:Harper & Row do Brasil,1981.