Revisão de inferência.

Slides:



Advertisements
Apresentações semelhantes
A ULA 6 B IOESTATÍSTICA Inferência Pontual, Intervalar e Testes de Hipóteses.
Advertisements

6. Andando na Superfície de Resposta Técnica de otimização baseada em planejamentos fatoriais Etapas distintas: Modelagem e deslocamento Modelagem: ajuste.
O Processo de Poisson Série: Processos Estocásticos Disciplina: Métodos Matemáticos 1C Dennis S. Poisson, Sceaux, France.
Estatística Aula 16 Universidade Federal de Alagoas Centro de Tecnologia Prof. Marllus Gustavo Ferreira Passos das Neves Adaptado do material elaborado.
Estatística aplicada a ensaios clínicos
Taciana Villela Savian
Confiabilidade Estrutural
TÉCNICAS DE AMOSTRAGEM AMOSTRAGENS NÃO PROBABILÍSTICAS
ESTATÍSTICA AULA 15 Testes de hipóteses – Unidade 10
Confiabilidade Estrutural
Testes de Hipóteses.
ESTATÍSTICA AULA 11 Modelos probabilísticos mais comuns – Unidade 7
Probabilidade e Estatística Aplicadas à Contabilidade II
DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO
Probabilidade e Estatística Aplicadas à Contabilidade I
Análise da Regressão múltipla: Inferência Revisão
Estatística Bivariada
Distribuições de Probabilidade
ESTATÍSTICA . SÍNTESE DO 10.º ANO . RELAÇÕES BIDIMENSIONAIS (11.º ANO)
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2017 Teste de Hipótese Camilo Daleles Rennó
ESTATÍSTICA AULA 07 PROBABILIDADE – Unidade 5 Conceitos básicos
Estatística aplicada a ensaios clínicos
Estimação de Parâmetros – Unidade 9 Professor Marcelo Menezes Reis
Regressão com uma variável dependente Binária
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2017 Intervalo de Confiança Camilo Daleles Rennó
ESTATÍSTICA AULA 12 Inferência Estatística e Distribuição Amostral – Unidade 8 Professor Marcelo Menezes Reis.
Padronização.
EAL ESTATÍSTICA, PLANEJAMENTO E OTIMIZAÇÃO DE EXPERIMENTOS
Distribuições de Probabilidade
Estimação de Máxima Verossimilhança
Curso de Medicina/Nutrição Ms.Rosebel Trindade Cunha Prates
Estatística aplicada a ensaios clínicos
A.L. 1.0│Medição em Química.
Ajustamento de Observações
ALGEBRA LINEAR AUTOVALORES E AUTOVETORES Prof. Ademilson
TESTES DE HIPÓTESES.
Inferência Estatística
Prof. Eduardo Bezerra (CEFET/RJ)
Análise de regressão múltipla
Abordagem à previsão de fadiga térmica de matriz (AISI H13) utilizada para fundição de alumínio em alta pressão utilizando a equação Basquin e elementos.
9. Testes de Hipóteses Paramétricos
O QUE É CONTROLE DE QUALIDADE ?
A.L. 1.0│Medição em Química.
DISTRIBUIÇÕES AMOSTRAIS
7 Resultados de Medições Indiretas
Profa. Dra. Andreia Adami
Enfoque sistêmico na agricultura Fundamentos Estatísticos
Profa. Andréia Adami Escola Superior de Agricultura “Luiz de Queiroz” Universidade de São Paulo LCE0211 – Estatística Geral Profa.
Amostragem e estimadores
Intervalo de confiança
Estatística amintas paiva afonso.
Prof. Elisson de Andrade
Profa. Andréia Adami Escola Superior de Agricultura “Luiz de Queiroz” Universidade de São Paulo LCE0211 – Estatística Geral Profa.
Amostragem e estimadores
ANÁLISE DE VARIÂNCIA (ANOVA)
Controlando por covariadas
Unidade 6 – Desenho da amostra Aspectos técnicos
Variância e Desvio padrão
Mestrado Profissional em Física Médica
Profa. Andréia Adami Escola Superior de Agricultura “Luiz de Queiroz” Universidade de São Paulo LCE0211 – Estatística Geral Profa.
ANÁLISE DISCRIMINANTE
Prof. Antonio Lopo Martinez
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2018 Intervalo de Confiança Camilo Daleles Rennó
Aula 13 Goodies* * Goodies related to animals, plants and numbers…
Metodologia da Pesquisa em Ensino de Ciências I
Regression and Clinical prediction models
Probabilidade e Estatística Aplicadas à Contabilidade II
Intervalo de confiança (IC95%) e teste do chi-quadrado
MATEMÁTICA.
Testes de Hipóteses.
Transcrição da apresentação:

Revisão de inferência

Inferência estatística: estimativa e teste de hipótese. Problema do teste de hipótese Supor uma variável X com uma fdp conhecida 𝑓(𝑥;𝜃), em que 𝜃 é o parâmetro da distribuição. Depois de obter uma amostra aleatória de tamanho n, obtém-se o estimador de ponto 𝜃 . Como não se conhece o verdadeiro 𝜃fica a questão: o estimador 𝜃 é “compatível” com algum valor hipotético de 𝜃, 𝜃= 𝜃 ∗ , em que 𝜃 ∗ é um valor específico de 𝜃?

Na linguagem do teste de hipótese, 𝜃= 𝜃 ∗ é chamada de hipótese nula e é geralmente indicada por 𝐻 0 . A hipótese nula é testada contra uma hipótese alternativa, indicada por 𝐻 1 . A hipótese alternativa pode estabelecer: 1) 𝜃≠ 𝜃 ∗ (teste bilateral) 2) 𝜃> 𝜃 ∗ ou 𝜃< 𝜃 ∗ (testes unilaterais)

Para testar a hipótese nula (isto é, sua validade), usa-se a informação da amostra para obter o que conhecido como estatística de teste. Muitas vezes a estatística de teste é um estimador pontual do parâmetro desconhecido. Depois é preciso verificar a distribuição de probabilidade da estatística de teste e usar a abordagem do intervalo de confiança ou do teste de significância para testar a hipótese nula.

Abordagem do intervalo de confiança Intervalo de confiança: intervalo construído de tal maneira que exista uma probabilidade 1−𝛼 dele incluir em seus limites o valor verdadeiro do parâmetro . 𝛼: nível de significância. Também conhecido como a probabilidade de cometer um erro Tipo I* (rejeitar uma hipótese quando ela é verdadeira). Quando, por exemplo, 𝛼=0,05 0u 5% diz-se que a probabilidade do intervalo incluir o valor verdadeiro do parâmetro é de 0,95 ou 95%. Se está disposto a aceitar no máximo uma probabilidade de 5% de cometer um erro Tipo I – não se quer rejeitar a verdadeira hipótese em mais de 5 dentre 100 vezes. * Erro Tipo II: Aceitar uma hipótese falsa.

𝑋 𝑖 ~𝑁(𝜇, 𝜎 2 ) (1) 𝑋 ~𝑁(𝜇, 𝜎 2 /n) (2) Como a distribuição de probabilidade de 𝑋 é conhecida, é possível construir um intervalo de confiança de 100 1−𝛼 %para 𝜇com base em 𝑋 e ver se este intervalo de confiança inclui 𝜇= 𝜇 ∗ . De (2) : 𝑍 𝑖 = 𝑋 −𝜇 𝜎 𝑛 ~N(0,1)

Pela tabela da distribuição normal sabe-se que: Pr (−1,96≤ 𝑍 𝑖 ≤1,96) Ou Pr⁡(−1,96≤ 𝑋−𝜇 𝜎 𝑛 ≤1,96)=0,95 Rearranjando: Pr⁡[ 𝑋 −1,96 𝜎 𝑛 ≤𝜇≤ 𝑋 +1,96 𝜎 𝑛 ] = 0,95 Este é um intervalo de confiança de 95% para 𝜇.

p-valor Em vez de se escolher um valor arbitrário para 𝛼 (1%, 5% ou 10%) é possível obter o p-valor ou o nível exato de significância de uma estatística de teste. Define-se o p-valor como o nível de significância mais baixo ao qual a hipótese nula pode ser rejeitada.

Abordagem do teste de significância Lembrar que 𝑍 𝑖 = 𝑋 −𝜇 𝜎 𝑛 ~N(0,1) Em qualquer aplicação, 𝑋 e n são conhecidos, mas as verdadeiras 𝜇 e 𝜎 são não conhecidas. Mas se 𝜎está especificada e supõe-se que (sob 𝐻 0 ) que 𝜇 =𝜇 ∗ , um valor numérico específico, então 𝑍 𝑖 pode ser calculado diretamente e pode-se facilmente olhar a tabela da distribuição normal para achar a probabilidade de obter o valor Z calculado. Se esta probabilidade for pequena (menor que 5%, por exemplo) é possível rejeitar a hipótese nula. Se a hipótese nula fosse verdadeira, a probabilidade de obter esse valor de Z deveria ser muito grande.

Na linguagem do teste de significância, quando se diz que uma estatística de teste é significante o que se quer dizer é que é possível rejeitar a hipótese nula. A estatística de teste é considerada significativa se a probabilidade dela ser obtida é igual ou menor do que 𝛼, a probabilidade de cometer erro Tipo I.

Inferência no modelo de regressão

Objetivo: não é simplesmente obter 𝛽 1 , por exemplo, mas também em usá-lo para fazer inferências sobre o verdadeiro 𝛽 1 . Como o objetivo é tanto a estimativa quanto o teste de hipótese, é necessário especificar a distribuição de probabilidade dos erros. Isto porque como vimos, os estimadores de MQO são funções lineares de 𝑢 𝑖 , que por hipótese, são aleatórios. Assim, as distribuições de probabilidade dos estimadores de MQO dependerão das hipóteses feitas sobre a distribuição de probabilidade de 𝑢 𝑖 . Necessário, então, supor que os us seguem alguma distribuição de probabilidade.

Hipótese RLS.6 (Normalidade) O erro populacional u é independente da variável explicativa e é normalmente distribuído com média zero e variância 𝜎 2 Cada 𝑢 𝑖 se distribui normalmente com Média: 𝐸( 𝑢 𝑖 ) = 0 Variância: 𝐸( 𝑢 𝑖 2 ) = 𝜎 2 Estas hipóteses podem ser enunciadas de forma resumida como: 𝑢 𝑖 ~ N (0, 𝜎 2 )

Por que a hipótese de normalidade? 1) Os erros representam a influência combinada de um grande número de variáveis independentes que não são explicitamente introduzidas no modelo de regressão. Espera-se que a influência dessas variáveis omitidas seja pequena e, quando muito, aleatória. Usando o teorema central do limite, é possível demonstrar que se houver um grande número de variáveis aleatórias independentes e identicamente distribuídas, então, como poucas exceções, a distribuição de sua soma tenderá para uma distribuição normal à medida que o número dessas variáveis aumentar indefinidamente . 2) Uma variante do teorema central do limite diz que, mesmo que o número das variáveis não seja muito grande ou que essas variáveis não sejam rigorosamente independentes, sua soma pode ainda assim se distribuir normalmente.

Por que a hipótese de normalidade? 3) Com a hipótese da normalidade, as distribuições de probabilidade dos estimadores de MQO podem ser facilmente derivadas. Uma propriedade da distribuição normal é que qualquer função linear de variáveis distribuídas normalmente é ela própria distribuída normalmente. 4) A distribuição normal é uma distribuição relativamente simples que envolve somente dois parâmetros (média e variância) e é bastante conhecida.

Normalidade de u é uma questão empírica Teste de normalidade de Jarque-Bera (JB)*: Teste assintótico, ou seja, para grandes amostras. Baseado nos resíduos de MQO * C.M. Jarque e A.K. Bera (1987) A test for normality of observations and regression residuals, International Statistical Review, vol. 55, pp. 163-172.

JB Primeiro calcular a assimetria e a curtose dos resíduos de MQO e então utilizar a seguinte estatística: JB = n 𝐴 2 6 + (𝐶−3) 2 24 Em que A representa a assimetria e C representa a curtose. Sob a hipótese nula de que os resíduos se distribuem normalmente, Jarque e Bera mostraram que assintoticamente a estatística JB segue a distribuição qui- quadrado com 2 graus de liberdade.

Teorema 1: Sob as hipóteses do modelo linear clássico, RLS. 1 a RLS Teorema 1: Sob as hipóteses do modelo linear clássico, RLS.1 a RLS.6, condicional aos valores amostrais das variáveis independentes 𝛽 𝑗 ~ N [ 𝛽 𝑗 , var ( 𝛽 𝑗 )] ( 𝛽 𝑗 - 𝛽 𝑗 ) / dp ( 𝛽 𝑗 ) ~ N (0,1)

Teste de hipóteses sobre um único parâmetro populacional: teste t Lembrar: os 𝛽 𝑗 são características desconhecidas da população e nunca serão conhecidos com certeza. É possível, no entanto, fazer hipóteses sobre o valor de 𝛽 𝑗 e então utilizar inferência estatística para testa esta hipótese. Para construir os testes de hipótese é preciso o seguinte resultado: Teorema 2: Sob as hipóteses do modelo linear clássico: ( 𝛽 𝑗 - 𝛽 𝑗 ) / dp ( 𝛽 𝑗 ) ~ 𝑡 𝑛−𝑘−1 , onde k é o número de coeficientes de inclinação estimados. Como no modelo de regressão simples estima-se o intercepto e uma inclinação tem-se 𝑡 𝑛−2 . No caso da regressão múltipla estima-se o intercepto e k parâmetros de inclinação tem-se 𝑡 𝑛−𝑘−1 . Daqui para frente vamos usar sempre n-k-1.

Teorema 2 permite testar hipóteses que envolvem os 𝛽 𝑗 Teorema 2 permite testar hipóteses que envolvem os 𝛽 𝑗 . Principal interesse, na maioria das aplicações, é testar a hipótese nula 𝐻 0 : 𝛽 𝑗 = 0 (1) Em j=0 corresponde ao intercepto e j=1 corresponde à única variável explicativa. No modelo de regressão múltipla j corresponderá a qualquer uma das k variáveis explicativas.

 

Teste contra hipóteses alternativas unilaterais  

 

Hipótese alternativa unilateral cujo parâmetro é menor do que zero: 𝐻 1 : 𝛽 𝑗 < 0 Regra de rejeição : valor crítico vem da cauda esquerda da distribuição t. 𝑡 𝛽 𝑗 < - c

Teste contra alternativas bilaterais  

 

 

   

Intervalo de confiança Intervalo construído de tal maneira que exista uma probabilidade 1−𝛼 dele incluir em seus limites o valor verdadeiro do parâmetro . Quando por exemplo, se 𝛼=0,05 0u 5% diz-se que a probabilidade do intervalo incluir o valor verdadeiro do parâmetro é de 0,95 ou 95%.

Lembrando 𝑡= 𝛽 1 − 𝛽 1 𝑑𝑝( 𝛽 1 ) = 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 −𝑝𝑎𝑟â𝑚𝑒𝑡𝑟𝑜 𝑑𝑒𝑠𝑣𝑖𝑜−𝑝𝑎𝑑𝑟ã𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑑𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 = 𝛽 1 − 𝛽 1 ( 𝑥 𝑖 − 𝑥) 2 𝜎 (1) Lembrando ainda que a variável t segue a distribuição t com n-2 graus de liberdade. Usar a distribuição t para estabelecer um intervalo de confiança para 𝛽 2 como segue: Pr (− 𝑡 𝛼/2 ≤𝑡≤ 𝑡 𝛼/2 ) = 1−𝛼 (2) Em que o valor t no meio desta dupla desigualdade é o valor t dado por (1) e em que 𝑡 𝛼/2 é o valor da variável t obtido da distribuição t para o nível de significância 𝛼/2 e n-2 graus de liberdade.

𝑡 𝛼/2 também é chamado de t crítico. Substituindo (1) em (2) resulta em: Pr⁡[− 𝑡 𝛼/2 ≤ 𝛽 1 − 𝛽 1 𝑑𝑝 𝛽 2 ≤𝑡 𝛼/2 ] = 1−𝛼 (3) Rearranjando (3) tem-se: Pr[ 𝛽 1 − 𝑡 𝛼/2 dp 𝛽 1 ≤ 𝛽 1 ≤ 𝛽 1 + 𝑡 𝛼/2 𝑑𝑝( 𝛽 1 )] = 1−𝛼 (4) Equação (4) fornece um intervalo de confiança de 100 1−𝛼 % para 𝛽 1 . Esse intervalo pode ser escrito de forma resumida como 𝛽 1 ± 𝑡 𝛼/2 𝑑𝑝( 𝛽 1 ).

De forma análoga para o intercepto: Pr⁡[− 𝑡 𝛼/2 ≤ 𝛽 0 − 𝛽 0 𝑑𝑝 𝛽 0 ≤𝑡 𝛼/2 ] = 1−𝛼 Ou de forma resumida: 𝛽 0 ± 𝑡 𝛼/2 𝑑𝑝( 𝛽 0 )

Característica importante dos intervalos de confiança A amplitude do intervalo de confiança é proporcional ao desvio-padrão do estimador, ou seja, quanto maior o desvio-padrão, maior a amplitude do intervalo de confiança. Dito de outra forma, quanto maior o desvio-padrão do estimador, maior a incerteza de se estimar o verdadeiro valor do parâmetro desconhecido. Assim, o desvio-padrão de um estimador é muitas vezes descrito como uma medida de precisão do estimador, isto é, quão precisamente o estimador mede o valor da população verdadeiro.

Abordagem tradicional Envolve escolher um nível de significância a prior. No entanto, tal procedimento significa que pesquisadores diferentes, usando os mesmos dados e o mesmo procedimento para testar a mesma hipótese, podem acabar com conclusões diferentes. Por exemplo, supor que o objetivo é testar a hipótese nula de que um parâmetro é igual a zero contra uma alternativa bilateral. A estatística t calculada é igual a 1,85. Com 40 graus de liberdade e nível de significância de 5%, c = 2,021. Um pesquisador cuja agenda é não rejeitar a hipótese nula poderia simplesmente reportar este resultado e concluir que a hipótese nula não é rejeitada. Por outro lado, se o nível de significância é 10%, c = 1,684, um pesquisador cuja agenda é rejeitar a hipótese nula poderia confirmar a sua agenda.

Ao invés de testar níveis diferentes de significância é mais informativo responder à seguinte questão: dado o valor observado da estatística t, qual o menor nível de significância ao qual a hipótese nula pode ser rejeitada? De outra forma, depois de obter, em um dado exemplo, uma estatística de teste (no nosso caso, a estatística t) porque não pegar a tabela da estatística t e descobrir a probabilidade efetiva de se obter um valor da estatística de teste similar ou maior que a obtida no exemplo em questão? Esta probabilidade é chamada p-valor, nível de significância exato ou probabilidade exata de cometer um erro Tipo I.

p-valor Testes bilaterais: p-valor P( 𝑇 > 𝑡 ) = 2P(T>t) Onde T denota uma variável aleatória com uma distribuição t com n-k-1 graus de liberdade e t denota o valor numérico da estatística de teste. Para conhecer o p-valor é necessário então uma tabela impressa extremamente detalhada da distribuição t ou um programa de computador que calcule áreas sob a função densidade de probabilidade da distribuição t.

Testes unilaterais: 𝐻 0 :𝛽 𝑗 =0 𝐻 1 :𝛽 𝑗 >0 Se 𝛽 𝑗 <0 não é importante computar o p-valor. Se 𝛽 𝑗 >0 então o p-valor é somente a probabilidade de que uma variável aleatória distribuída como t com os graus de liberdade apropriados exceda o valor de t. Alguns pacotes de regressão só calculam p-valores para alternativas bilaterais. Para obter o p-valor para o teste unilateral basta dividir o p- valor bilateral por 2. Mesmo raciocínio vale quando 𝐻 1 :𝛽 𝑗 <0.

Exemplo t = 1,85 40 graus de liberdade p-valor = P(|T|>1,85)=2P(T>1,85)=2(0,0359)=0,0718 Interpretação: se a hipótese nula é verdadeira, observaríamos um valor absoluto da estatística T tão grande quanto 1,85 cerca de 7,2% das vezes. Isto fornece alguma evidência contra a hipótese nula, mas não se rejeitaria a hipótese nula ao nível de significância de 5%. Ou Porque o p-valor =0,0718, o nível de significância mais alto ao qual não se pode rejeitar a hipótese nula é 7,2%. Se a tolerância com erro Tipo I fosse pequena, o que seria representado pela escolha de um nível de significância de 5%, então não se rejeitaria a hipótese nula. Por outro lado, se essa tolerância fosse maior, por exemplo, fosse aceito um nível de significância de 10% então a hipótese nula seria rejeitada.

p-valores pequenos são em geral evidência contra a hipótese nula p-valores pequenos são em geral evidência contra a hipótese nula. Isto porque, para um dado tamanho da amostra, conforme |t| aumenta o p- valor diminui e é possível rejeitar a hipótese nula com confiança crescente.

Assumir que n é grande o suficiente para tratar T como tendo uma distribuição normal padrão sob a hipótese nula . Se t=0,47 p-valor = P(T>0,47) = 1 - Φ 0,47 =0,32 Evidência forte de que não deve se rejeitar a hipótese nula . Se t=1,52 p-valor = P(T>1,52) = 1 - Φ 1,52 =1 −0,935745=0,065 Evidência de que não se deve rejeitar a hipótese nula ao nível de significância de 5% e evidência de que se deve rejeitar a hipótese nula ao nível de significância de 10%. . Se t = 2,85 p-valor = P(|T|>t) = 1 - Φ 2,85 =1 −0,997814 =0,002186 Evidência de que se deve rejeitar a hipótese nula ao nível de significância de 5%.

Quando a hipótese nula não é rejeitada deve-se dizer não é possível rejeitar a hipótese nula ao nível de significância de x%, ao invés de a hipótese nula é aceita ao nível de significância de x%.

Significância econômica ou prática versus significância estatística  

Se fatores importantes que são correlacionados com as variáveis explicativas forem omitidos, então as estimativas dos coeficientes não são confiáveis: MQO é viesado. Se a heterocedasticidade está presente, como se verá melhor depois, então os desvios-padrão anteriores são incorretos, assim como os intervalos de confiança e testes de significância construídos a partir deles. Também se usou a hipótese de normalidade dos erros para construir os intervalos de confiança e testes de significância. Isso, no entanto, não é tão importante quando se tem muitas observações, como se verá mais para frente.