A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Revisão de inferência.

Apresentações semelhantes


Apresentação em tema: "Revisão de inferência."— Transcrição da apresentação:

1 Revisão de inferência

2 Inferência estatística: estimativa e teste de hipótese.
Problema do teste de hipótese Supor uma variável X com uma fdp conhecida 𝑓(𝑥;𝜃), em que 𝜃 é o parâmetro da distribuição. Depois de obter uma amostra aleatória de tamanho n, obtém-se o estimador de ponto 𝜃 . Como não se conhece o verdadeiro 𝜃fica a questão: o estimador 𝜃 é “compatível” com algum valor hipotético de 𝜃, 𝜃= 𝜃 ∗ , em que 𝜃 ∗ é um valor específico de 𝜃?

3 Na linguagem do teste de hipótese, 𝜃= 𝜃 ∗ é chamada de hipótese nula e é geralmente indicada por 𝐻 0 . A hipótese nula é testada contra uma hipótese alternativa, indicada por 𝐻 1 . A hipótese alternativa pode estabelecer: 1) 𝜃≠ 𝜃 ∗ (teste bilateral) 2) 𝜃> 𝜃 ∗ ou 𝜃< 𝜃 ∗ (testes unilaterais)

4 Para testar a hipótese nula (isto é, sua validade), usa-se a informação da amostra para obter o que conhecido como estatística de teste. Muitas vezes a estatística de teste é um estimador pontual do parâmetro desconhecido. Depois é preciso verificar a distribuição de probabilidade da estatística de teste e usar a abordagem do intervalo de confiança ou do teste de significância para testar a hipótese nula.

5 Abordagem do intervalo de confiança
Intervalo de confiança: intervalo construído de tal maneira que exista uma probabilidade 1−𝛼 dele incluir em seus limites o valor verdadeiro do parâmetro . 𝛼: nível de significância. Também conhecido como a probabilidade de cometer um erro Tipo I* (rejeitar uma hipótese quando ela é verdadeira). Quando, por exemplo, 𝛼=0,05 0u 5% diz-se que a probabilidade do intervalo incluir o valor verdadeiro do parâmetro é de 0,95 ou 95%. Se está disposto a aceitar no máximo uma probabilidade de 5% de cometer um erro Tipo I – não se quer rejeitar a verdadeira hipótese em mais de 5 dentre 100 vezes. * Erro Tipo II: Aceitar uma hipótese falsa.

6 𝑋 𝑖 ~𝑁(𝜇, 𝜎 2 ) (1) 𝑋 ~𝑁(𝜇, 𝜎 2 /n) (2) Como a distribuição de probabilidade de 𝑋 é conhecida, é possível construir um intervalo de confiança de 100 1−𝛼 %para 𝜇com base em 𝑋 e ver se este intervalo de confiança inclui 𝜇= 𝜇 ∗ . De (2) : 𝑍 𝑖 = 𝑋 −𝜇 𝜎 𝑛 ~N(0,1)

7 Pela tabela da distribuição normal sabe-se que:
Pr (−1,96≤ 𝑍 𝑖 ≤1,96) Ou Pr⁡(−1,96≤ 𝑋−𝜇 𝜎 𝑛 ≤1,96)=0,95 Rearranjando: Pr⁡[ 𝑋 −1,96 𝜎 𝑛 ≤𝜇≤ 𝑋 +1,96 𝜎 𝑛 ] = 0,95 Este é um intervalo de confiança de 95% para 𝜇.

8 p-valor Em vez de se escolher um valor arbitrário para 𝛼 (1%, 5% ou 10%) é possível obter o p-valor ou o nível exato de significância de uma estatística de teste. Define-se o p-valor como o nível de significância mais baixo ao qual a hipótese nula pode ser rejeitada.

9 Abordagem do teste de significância
Lembrar que 𝑍 𝑖 = 𝑋 −𝜇 𝜎 𝑛 ~N(0,1) Em qualquer aplicação, 𝑋 e n são conhecidos, mas as verdadeiras 𝜇 e 𝜎 são não conhecidas. Mas se 𝜎está especificada e supõe-se que (sob 𝐻 0 ) que 𝜇 =𝜇 ∗ , um valor numérico específico, então 𝑍 𝑖 pode ser calculado diretamente e pode-se facilmente olhar a tabela da distribuição normal para achar a probabilidade de obter o valor Z calculado. Se esta probabilidade for pequena (menor que 5%, por exemplo) é possível rejeitar a hipótese nula. Se a hipótese nula fosse verdadeira, a probabilidade de obter esse valor de Z deveria ser muito grande.

10 Na linguagem do teste de significância, quando se diz que uma estatística de teste é significante o que se quer dizer é que é possível rejeitar a hipótese nula. A estatística de teste é considerada significativa se a probabilidade dela ser obtida é igual ou menor do que 𝛼, a probabilidade de cometer erro Tipo I.

11 Inferência no modelo de regressão

12 Objetivo: não é simplesmente obter 𝛽 1 , por exemplo, mas também em usá-lo para fazer inferências sobre o verdadeiro 𝛽 1 . Como o objetivo é tanto a estimativa quanto o teste de hipótese, é necessário especificar a distribuição de probabilidade dos erros. Isto porque como vimos, os estimadores de MQO são funções lineares de 𝑢 𝑖 , que por hipótese, são aleatórios. Assim, as distribuições de probabilidade dos estimadores de MQO dependerão das hipóteses feitas sobre a distribuição de probabilidade de 𝑢 𝑖 . Necessário, então, supor que os us seguem alguma distribuição de probabilidade.

13 Hipótese RLS.6 (Normalidade)
O erro populacional u é independente da variável explicativa e é normalmente distribuído com média zero e variância 𝜎 2 Cada 𝑢 𝑖 se distribui normalmente com Média: 𝐸( 𝑢 𝑖 ) = 0 Variância: 𝐸( 𝑢 𝑖 2 ) = 𝜎 2 Estas hipóteses podem ser enunciadas de forma resumida como: 𝑢 𝑖 ~ N (0, 𝜎 2 )

14 Por que a hipótese de normalidade?
1) Os erros representam a influência combinada de um grande número de variáveis independentes que não são explicitamente introduzidas no modelo de regressão. Espera-se que a influência dessas variáveis omitidas seja pequena e, quando muito, aleatória. Usando o teorema central do limite, é possível demonstrar que se houver um grande número de variáveis aleatórias independentes e identicamente distribuídas, então, como poucas exceções, a distribuição de sua soma tenderá para uma distribuição normal à medida que o número dessas variáveis aumentar indefinidamente . 2) Uma variante do teorema central do limite diz que, mesmo que o número das variáveis não seja muito grande ou que essas variáveis não sejam rigorosamente independentes, sua soma pode ainda assim se distribuir normalmente.

15 Por que a hipótese de normalidade?
3) Com a hipótese da normalidade, as distribuições de probabilidade dos estimadores de MQO podem ser facilmente derivadas. Uma propriedade da distribuição normal é que qualquer função linear de variáveis distribuídas normalmente é ela própria distribuída normalmente. 4) A distribuição normal é uma distribuição relativamente simples que envolve somente dois parâmetros (média e variância) e é bastante conhecida.

16 Normalidade de u é uma questão empírica
Teste de normalidade de Jarque-Bera (JB)*: Teste assintótico, ou seja, para grandes amostras. Baseado nos resíduos de MQO * C.M. Jarque e A.K. Bera (1987) A test for normality of observations and regression residuals, International Statistical Review, vol. 55, pp

17 JB Primeiro calcular a assimetria e a curtose dos resíduos de MQO e então utilizar a seguinte estatística: JB = n 𝐴 (𝐶−3) 2 24 Em que A representa a assimetria e C representa a curtose. Sob a hipótese nula de que os resíduos se distribuem normalmente, Jarque e Bera mostraram que assintoticamente a estatística JB segue a distribuição qui- quadrado com 2 graus de liberdade.

18 Teorema 1: Sob as hipóteses do modelo linear clássico, RLS. 1 a RLS
Teorema 1: Sob as hipóteses do modelo linear clássico, RLS.1 a RLS.6, condicional aos valores amostrais das variáveis independentes 𝛽 𝑗 ~ N [ 𝛽 𝑗 , var ( 𝛽 𝑗 )] ( 𝛽 𝑗 - 𝛽 𝑗 ) / dp ( 𝛽 𝑗 ) ~ N (0,1)

19 Teste de hipóteses sobre um único parâmetro populacional: teste t
Lembrar: os 𝛽 𝑗 são características desconhecidas da população e nunca serão conhecidos com certeza. É possível, no entanto, fazer hipóteses sobre o valor de 𝛽 𝑗 e então utilizar inferência estatística para testa esta hipótese. Para construir os testes de hipótese é preciso o seguinte resultado: Teorema 2: Sob as hipóteses do modelo linear clássico: ( 𝛽 𝑗 - 𝛽 𝑗 ) / dp ( 𝛽 𝑗 ) ~ 𝑡 𝑛−𝑘−1 , onde k é o número de coeficientes de inclinação estimados. Como no modelo de regressão simples estima-se o intercepto e uma inclinação tem-se 𝑡 𝑛−2 . No caso da regressão múltipla estima-se o intercepto e k parâmetros de inclinação tem-se 𝑡 𝑛−𝑘−1 . Daqui para frente vamos usar sempre n-k-1.

20 Teorema 2 permite testar hipóteses que envolvem os 𝛽 𝑗
Teorema 2 permite testar hipóteses que envolvem os 𝛽 𝑗 . Principal interesse, na maioria das aplicações, é testar a hipótese nula 𝐻 0 : 𝛽 𝑗 = 0 (1) Em j=0 corresponde ao intercepto e j=1 corresponde à única variável explicativa. No modelo de regressão múltipla j corresponderá a qualquer uma das k variáveis explicativas.

21

22 Teste contra hipóteses alternativas unilaterais

23

24 Hipótese alternativa unilateral cujo parâmetro é menor do que zero:
𝐻 1 : 𝛽 𝑗 < 0 Regra de rejeição : valor crítico vem da cauda esquerda da distribuição t. 𝑡 𝛽 𝑗 < - c

25 Teste contra alternativas bilaterais

26

27

28

29 Intervalo de confiança
Intervalo construído de tal maneira que exista uma probabilidade 1−𝛼 dele incluir em seus limites o valor verdadeiro do parâmetro . Quando por exemplo, se 𝛼=0,05 0u 5% diz-se que a probabilidade do intervalo incluir o valor verdadeiro do parâmetro é de 0,95 ou 95%.

30 Lembrando 𝑡= 𝛽 1 − 𝛽 1 𝑑𝑝( 𝛽 1 ) = 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 −𝑝𝑎𝑟â𝑚𝑒𝑡𝑟𝑜 𝑑𝑒𝑠𝑣𝑖𝑜−𝑝𝑎𝑑𝑟ã𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟
= 𝛽 1 − 𝛽 ( 𝑥 𝑖 − 𝑥) 𝜎 (1) Lembrando ainda que a variável t segue a distribuição t com n-2 graus de liberdade. Usar a distribuição t para estabelecer um intervalo de confiança para 𝛽 2 como segue: Pr (− 𝑡 𝛼/2 ≤𝑡≤ 𝑡 𝛼/2 ) = 1−𝛼 (2) Em que o valor t no meio desta dupla desigualdade é o valor t dado por (1) e em que 𝑡 𝛼/2 é o valor da variável t obtido da distribuição t para o nível de significância 𝛼/2 e n-2 graus de liberdade.

31 𝑡 𝛼/2 também é chamado de t crítico.
Substituindo (1) em (2) resulta em: Pr⁡[− 𝑡 𝛼/2 ≤ 𝛽 1 − 𝛽 1 𝑑𝑝 𝛽 ≤𝑡 𝛼/2 ] = 1−𝛼 (3) Rearranjando (3) tem-se: Pr[ 𝛽 1 − 𝑡 𝛼/2 dp 𝛽 1 ≤ 𝛽 1 ≤ 𝛽 1 + 𝑡 𝛼/2 𝑑𝑝( 𝛽 1 )] = 1−𝛼 (4) Equação (4) fornece um intervalo de confiança de 100 1−𝛼 % para 𝛽 1 . Esse intervalo pode ser escrito de forma resumida como 𝛽 1 ± 𝑡 𝛼/2 𝑑𝑝( 𝛽 1 ).

32 De forma análoga para o intercepto:
Pr⁡[− 𝑡 𝛼/2 ≤ 𝛽 0 − 𝛽 0 𝑑𝑝 𝛽 ≤𝑡 𝛼/2 ] = 1−𝛼 Ou de forma resumida: 𝛽 0 ± 𝑡 𝛼/2 𝑑𝑝( 𝛽 0 )

33 Característica importante dos intervalos de confiança
A amplitude do intervalo de confiança é proporcional ao desvio-padrão do estimador, ou seja, quanto maior o desvio-padrão, maior a amplitude do intervalo de confiança. Dito de outra forma, quanto maior o desvio-padrão do estimador, maior a incerteza de se estimar o verdadeiro valor do parâmetro desconhecido. Assim, o desvio-padrão de um estimador é muitas vezes descrito como uma medida de precisão do estimador, isto é, quão precisamente o estimador mede o valor da população verdadeiro.

34 Abordagem tradicional
Envolve escolher um nível de significância a prior. No entanto, tal procedimento significa que pesquisadores diferentes, usando os mesmos dados e o mesmo procedimento para testar a mesma hipótese, podem acabar com conclusões diferentes. Por exemplo, supor que o objetivo é testar a hipótese nula de que um parâmetro é igual a zero contra uma alternativa bilateral. A estatística t calculada é igual a 1,85. Com 40 graus de liberdade e nível de significância de 5%, c = 2,021. Um pesquisador cuja agenda é não rejeitar a hipótese nula poderia simplesmente reportar este resultado e concluir que a hipótese nula não é rejeitada. Por outro lado, se o nível de significância é 10%, c = 1,684, um pesquisador cuja agenda é rejeitar a hipótese nula poderia confirmar a sua agenda.

35 Ao invés de testar níveis diferentes de significância é mais informativo responder à seguinte questão: dado o valor observado da estatística t, qual o menor nível de significância ao qual a hipótese nula pode ser rejeitada? De outra forma, depois de obter, em um dado exemplo, uma estatística de teste (no nosso caso, a estatística t) porque não pegar a tabela da estatística t e descobrir a probabilidade efetiva de se obter um valor da estatística de teste similar ou maior que a obtida no exemplo em questão? Esta probabilidade é chamada p-valor, nível de significância exato ou probabilidade exata de cometer um erro Tipo I.

36 p-valor Testes bilaterais: p-valor P( 𝑇 > 𝑡 ) = 2P(T>t)
Onde T denota uma variável aleatória com uma distribuição t com n-k-1 graus de liberdade e t denota o valor numérico da estatística de teste. Para conhecer o p-valor é necessário então uma tabela impressa extremamente detalhada da distribuição t ou um programa de computador que calcule áreas sob a função densidade de probabilidade da distribuição t.

37 Testes unilaterais: 𝐻 0 :𝛽 𝑗 = 𝐻 1 :𝛽 𝑗 >0 Se 𝛽 𝑗 <0 não é importante computar o p-valor. Se 𝛽 𝑗 >0 então o p-valor é somente a probabilidade de que uma variável aleatória distribuída como t com os graus de liberdade apropriados exceda o valor de t. Alguns pacotes de regressão só calculam p-valores para alternativas bilaterais. Para obter o p-valor para o teste unilateral basta dividir o p- valor bilateral por 2. Mesmo raciocínio vale quando 𝐻 1 :𝛽 𝑗 <0.

38 Exemplo t = 1,85 40 graus de liberdade
p-valor = P(|T|>1,85)=2P(T>1,85)=2(0,0359)=0,0718 Interpretação: se a hipótese nula é verdadeira, observaríamos um valor absoluto da estatística T tão grande quanto 1,85 cerca de 7,2% das vezes. Isto fornece alguma evidência contra a hipótese nula, mas não se rejeitaria a hipótese nula ao nível de significância de 5%. Ou Porque o p-valor =0,0718, o nível de significância mais alto ao qual não se pode rejeitar a hipótese nula é 7,2%. Se a tolerância com erro Tipo I fosse pequena, o que seria representado pela escolha de um nível de significância de 5%, então não se rejeitaria a hipótese nula. Por outro lado, se essa tolerância fosse maior, por exemplo, fosse aceito um nível de significância de 10% então a hipótese nula seria rejeitada.

39 p-valores pequenos são em geral evidência contra a hipótese nula
p-valores pequenos são em geral evidência contra a hipótese nula. Isto porque, para um dado tamanho da amostra, conforme |t| aumenta o p- valor diminui e é possível rejeitar a hipótese nula com confiança crescente.

40 Assumir que n é grande o suficiente para tratar T como tendo uma distribuição normal padrão sob a hipótese nula . Se t=0,47 p-valor = P(T>0,47) = 1 - Φ 0,47 =0,32 Evidência forte de que não deve se rejeitar a hipótese nula . Se t=1,52 p-valor = P(T>1,52) = 1 - Φ 1,52 =1 −0,935745=0,065 Evidência de que não se deve rejeitar a hipótese nula ao nível de significância de 5% e evidência de que se deve rejeitar a hipótese nula ao nível de significância de 10%. . Se t = 2,85 p-valor = P(|T|>t) = 1 - Φ 2,85 =1 −0, =0,002186 Evidência de que se deve rejeitar a hipótese nula ao nível de significância de 5%.

41 Quando a hipótese nula não é rejeitada deve-se dizer não é possível rejeitar a hipótese nula ao nível de significância de x%, ao invés de a hipótese nula é aceita ao nível de significância de x%.

42 Significância econômica ou prática versus significância estatística

43 Se fatores importantes que são correlacionados com as variáveis explicativas forem omitidos, então as estimativas dos coeficientes não são confiáveis: MQO é viesado. Se a heterocedasticidade está presente, como se verá melhor depois, então os desvios-padrão anteriores são incorretos, assim como os intervalos de confiança e testes de significância construídos a partir deles. Também se usou a hipótese de normalidade dos erros para construir os intervalos de confiança e testes de significância. Isso, no entanto, não é tão importante quando se tem muitas observações, como se verá mais para frente.


Carregar ppt "Revisão de inferência."

Apresentações semelhantes


Anúncios Google