OBJETIVO : Comparar as médias de mais de duas amostras

Slides:



Advertisements
Apresentações semelhantes
Estatística Não Paramétrica ANOVA de Kruskal-Wallis Ivan Balducci FOSJC / Unesp.
Advertisements

Teste de Comparação Múltipla de Tukey
Departamento de Informática em Saúde Universidade Federal de São Paulo – UNIFESP UNIFESP Teste de Mann-Whitney Alex E. J. Falcão (
Aprendizado de Máquina
Deve ser selecionado o modo
Analise de Regressão Parte 2.
CAPÍTULO 7 TESTE DE HIPÓTESE
2.5 INFERÊNCIAS SOBRE A DIFERENÇA NAS MÉDIAS, COMPARAÇÕES EMPARELHADAS
ANÁLISE DISCRIMINANTE
CAPÍTULO 7 TESTE DE HIPÓTESE
ESTIMAÇÃO.
Análise de regressão linear simples: abordagem matricial
Prof. Marllus Gustavo Ferreira Passos das Neves
1 Complexidade de Algoritmos Complexidade de pior caso Complexidade de melhor caso de uso bem menos freqüente em algumas situações específicas Complexidade.
Estatística 8 - Distribuições Amostrais
Capítulo 6 Estimativas e Tamanho de Amostras
MB751 – Modelos de previsão
Estatística: Aplicação ao Sensoriamento Remoto ANO 2010
MEDIDAS DE DISPERSÃO Medidas de tendência central fornecem um resumo parcial das informações de um conjunto de dados. A necessidade de uma medida de variação.
Distribuição F Considere duas populações com distribuição de Gauss com médias 1, 2 e variâncias 12 e 22 . Retire uma amostra aleatória de tamanho.
Kruskal-Wallis Test Ex: Pesos em Kg de 3 grupos de indivíduos de grupos étnicos diferentes (caucasianos, latinos e asiáticos). Grupo 1: 72; 75; 73; 67;
ESTATÍSTICA.
ESTATÍSTICA.
Quadro síntese – Escolha do teste estatístico mais adequado
ANOVA Prof. Herondino.
J. Landeira-Fernandez Ética e Ciência
ME623 Planejamento e Pesquisa
Análise de Variância (ANOVA)
Análise da Regressão múltipla: Inferência Revisão da graduação
ME623 Planejamento e Pesquisa
ME623 Planejamento e Pesquisa
ME623A Planejamento e Pesquisa
ME623 Planejamento e Pesquisa
Teste de Hipóteses de uma amostra Prof. Helcio Rocha
Estatística e Probabilidade
Estatística Para um dado conjunto de dados, podemos calcular as seguintes grandezas: 1) Medidas de posição 2) Medidas de dispersão 3) Parâmetros de simetria.
Análise Fatorial Factor analysis.
Diogo Fernando Bornancin Costa Fábio de H.C.R. dos Santos
Site: Estatística Prof. Edson Nemer Site:
Deve ser selecionado o modo
Aula 6 - Método não-experimental ou de seleção não-aleatória
Exercício - 1. Criar no SPSS o banco de dados com as informações fornecidas 2. Salvar o banco com o nome atividade física na pasta pos pilates 3.
Introdução à Estatística
Estatística Aula 13 Prof. Marllus Gustavo Ferreira Passos das Neves
Aula 11 - Teste de hipóteses, teste de uma proporção
Campus de Caraguatatuba Aula 9: Noções Básicas sobre Erros (3)
Aplicações Estatísticas uma rápida abordagem
COMPARAÇÃO DE DUAS POPULAÇÕES
Estatística e Probabilidade
2.3 Experimentos Fatoriais 22 Efeitos das Interações
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2015 Análise de Variância (ANOVA) Camilo Daleles Rennó
Especialização em Pesquisa Clínica Módulo 3 – Epidemiologia e Bioestatística Daniel Kashiwamura Scheffer 1o. Semestre – 2009.
Regressão e Previsão Numérica.
Universidade Federal Fluminense Faculdade de Medicina Mestrado Profissional em Saúde Materno-Infantil 2011 BIOESTATÍSTICA-aula 2 Prof. Cristina Ortiz Valete.
análise dos estimadores
Análise de Variância one-way two-way
Análise de Variância medidas repetidas: one-way two-way
Metodologia da Pesquisa em Ensino de Ciências I
ME623A Planejamento e Pesquisa
ANOVA.
Testes de Hipóteses.
Verificação da Normalidade
Métodos Estatísticos Aplicados às Ciências Biológicas - 7ª aula -
Métodos Estatísticos Aplicados às Ciências Biológicas 10ª aula.
Testes de Hipóteses.
NOÇÕES DE INFERÊNCIA ESTATÍSTICA
Estimação e Intervalo de Confiança. Estimação Frequentemente necessitamos, por meio das amostras, conhecer informações gerais da população. A estimação.
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Estatística: Aplicação ao Sensoriamento Remoto SER ANO 2016 Teste de Hipótese Camilo Daleles Rennó
OBJETIVO : Comparar as médias de mais de duas amostras
Transcrição da apresentação:

OBJETIVO : Comparar as médias de mais de duas amostras independentes. Porque não posso comparar as médias duas a duas com testes t ? Exemplo com 3grupos : 1X2, 1X3 e 2X3. Em cada teste que realizo tenho uma chance de erro do tipo I () que estabeleço igual a 0.05. Se realizo 3 testes estes meu erro é multiplicativo então minha chance que de não cometer o erro que era de (1 - 0.05) será de (1 - 0.05)* (1 - 0.05)* (1 - 0.05) = 0.857 e  = 0.143, bem maior do que estipulamos. Consequência : Rejeitaríamos HO mais do que deveríamos, encontraríamos mais diferenças significativas do que elas realmente existem. O teste estatístico que veremos protege contra este tipo de situação comparando simultaneamente mais de duas médias. Fixa o meu erro.

Variáveis envolvidas: 1-A var. referente aos grupos que serão comparados, que pode ser cat. nominal (Pr/Br/Am), cat. Ordinal ou quantitativas contínuas ou não, desde que categorizadas em 2 categorias (0-20/21-40/41 ou +). Neste teste são bastante conhecidos por FATORES ou tratamentos. 2 - A var. que será propriamente comparada, que deve ser numérica (contínua ou discreta). Há grande controvérsia quanto às ordinais, teoricamente não, mas no mundo real utiliza-se bastante também as ordinais. Exemplos: - A média da taxa de glicemia é equivalente entre as raças (preto,branco e amarelo) - O tempo gasto para o alivio da dor é equivalente entre as drogas A, B, C e o placebo - A o valor da escala de depressão (BECK) varia conforme grupo com IMC < 20, com IMC entre 20 e 25 e com IMC > 25

1 - A variável que será comparada (2) precisa ter SUPOSIÇÃO : distribuição normal, é necessário realizar um teste de normalidade antes, c.c, a eficácia do teste é bastante questionável. O procedimento correto é testar a normalidade para cada nível da var. categorizada, cada nível do FATOR (Usualmente testa-se somente a variável como um todo). SUPOSIÇÃO : 2 - A amostras precisam ter variâncias equivalentes, os fatores precisam ter variância iguais. HOMOCEDASTICIDADE das variâncias. Raramente vejo alguém realizar esta verificação. OBS. 3 - As observações (xi) de cada grupo são independentes uma das outras, e as amostras são independentes entre si. Graficamente

Tese de hipótese associado H0: Média da amostra 1 = Média da amostra 2; ...= Média da amostra n X H1: Média da amostra i  Média da amostra j; para i  j Teste estatístico: Verificada e não rejeitada a hipótese de normalidade e a homocedasticidade é o teste conhecido por Análise de Variância ou ANOVA. Lógica do teste: Suponha K amostras Am.1 Am.2....Am.k Se tudo é casual ,todas as variações x11 x12 x1k  Mx1. s1. são casuais, a variação DENTRO x21 x22 x2k Mx2. s2. de cada amostra deve equivalente x31 x32 x3k a variação ENTRE cada amostra. xn1 xn2 xnk Mxk. Sk. Variação ENTRE = 1 Mx.1 Mx.2 Mx.k Mx.. Variação DENTRO s.1 s.2 s.k

Am.1 Am.2....Am.k x11 x12 x1k  Mx1. s1. x21 x22 x2k Mx2. s2. x31 x32 x3k. xn1 xn2 xnk Mxk. Sk. Mx.1 Mx.2 Mx.k Mx.. s.1 s.2 s.k A variação ENTRE é a soma dos desvios das médias das amostras em relação à média total  ni(Mx. - Mx..)² A variação TOTAL é a soma dos desvios de cada observação em relação à média Total   (xij - Mx..)² Como var. TOTAL = var. ENTRE + var. DENTRO, a var. DENTRO é calculada em função das outra duas. TABELA DA ANOVA Fontes de variação Soma dos Quadrados g.l. Qua. Médio F Entre  ni(Mx. - Mx..)^2 k-1 SQ/(K-1) QMEntre Dentro Total - Entre N-k SQ/(N-k) QMDentro Total   (xij - Mx..)^2 N-1

A estatística (Quadr.médio ENTRE)/(Quadr. Médio Dentro) tem uma distribuição tabelada conhecida por F ( de Snedecor). Então acho o valor da est. e comparo com o valor da distribuição F com (N-1);(N-k) g.l. e nível de significância adotado. OU (mais comum) verifico qual a probabilidade do valor da est. numa distr. F com (N-1); (N-k) g.l. e comparo com = 0.05. Se for menor rejeito HO. Observe que na tabela F tenho que verificar dois graus de liberdade. Um relativo a variação Entre e outro a variação Dentro

Exemplo direto no Minitab: Desejo comparar as notas (0 -100) no provão de 4 faculdades. Vou em ‘Stats’ e daí em “ANOVA” e depois “One-way” Na nova tela coloco a var. Nota (que contém os valores) em ‘Response’ e a var. Fac (que contém a que faculdade o aluno pertence) em ‘Factor’. E OK

Na saída há a tabela da Anova, com os g Na saída há a tabela da Anova, com os g.l, SQ, QM, a estatística F e “p”. Além disso temos o tamanho da amostra, média, dp para cada nível do fator. Portanto Rejeito H0. Concluo que há diferença significativa entre as amostras, mas quem é diferente de quem ?

Quando rejeito H0 em uma ANOVA necessito realizar um teste post hoc. Este teste é que indicará quem é diferente significativamente de quem. Existem muitos testes post hoc, cada um tem sua característica e é indicado para situações específicas. O Minitab fornece dois bastante utilizados, o de TUKEY, que veremos, e o de DUNNET que é utilizado quando uma das amostras é um controle que desejamos comparar com as demais. Na tela da ANOVA clicamos em ‘COMPARISONS” e obtemos a tela ao lado. Nesta tela optamos por “Tukey’s, o valor 5 corresponde a 0.05 e é o default. E OK.

No output verificamos que há 6 intervalos de confiança, cada um refere- se a uma comparação específica, nesta ordem: 1x2, 1x3, 1x4, 2x3, 2x4 e 3x4. Regra: Se o 0 não estiver dentro do intervalo há diferença significativa entre os dois fatores, c.c., se o 0 estiver dentro do intervalo não há diferença significativa entre os fatores. Quais as diferenças significativas ? Resultado final é: Há diferença quanto às faculdades: F1 > F2 > (F3=F4)

Lembre que devemos testar a normalidade (vocês já estão cansados de saber como) e devemos testar também a homocedasticidade das variâncias Em ‘Anova’ vamos em ‘Test for Equal Va Riances”. Lembre que nossa H0 neste tipo de teste é que as variâncias são equivalentes e H1 de não equivalência. O preenchimento é o mesmo, a var. com os valores em ‘Response’ e a var. do grupo em ‘Factors’

1 - Teste a normalidade da variável (se não for normal tente Test for Equal Variances Response Prova Factors Fac ConfLvl 95,0000 Bonferroni confidence intervals for standard deviations Lower Sigma Upper N Factor 11,6940 14,5611 19,1065 54 1 12,7417 14,9885 18,1156 103 2 10,5853 13,8308 19,6191 35 3 9,2218 15,4712 39,7042 8 4 Bartlett's Test (normal distribution) Test Statistic: 0,360 P-Value : 0,948 Temos na saída um intervalo de confiança para o dp de cada fator, e o resultado do teste de Bartlett que compara mais de dois dp’s . Com p = 0.948, não rejeito H0 e assumo a igualdade das variâncias. Resumindo : 1 - Teste a normalidade da variável (se não for normal tente alguma transformação). 2 - Verifique a homocedasticidade das variâncias. 3 - Se rejeitar HO, aplique um teste post hoc.

Vimos a situação em que comparamos uma var. “ numérica” entre os níve- is de uma outra var. categórica ou “ categorizada”. Podemos efetuar este mesmo raciocínio para mais de uma var. categorizada ao mesmo tempo e verificar se existe uma interação entre as variáveis categorizadas, p.exp: Sexo e Raça influem nos valores de uma escala de ansiedade; Escolaridade e Presença de trauma influem no tempo de resolução de um teste; Renda (categorizada) e Situação conjugal influem nos resultados de um teste de stress ? Em situações como esta, em que as variáveis independentes são duas ou mais, podemos dizer que estamos realizando uma análise multivariada, nas situações anteriormente vistas tínhamos sempre uma var. dependente e uma independente, análise univariada, agora com duas vars. , multi, aná lise multivariada. Tipos de variáveis: 1- A dependente, que deve ter dist. Normal e homo- cedasticidade das variâncias; 2 - As independentes que precisam ser cate- gorias e um número mínimo em cada categoria (n = 10). Conselho

Um pesquisador deseja saber se 4 diferentes tipos de droga, bem como a raça (3 categorias, raças) tem influência sobre os valores de uma determinada medida em ratos . Observe que colocamos cada variável em uma coluna. O método estatístico utilizado é conhecido por “ANOVA TWO WAY”, devido as duas variáveis, ou “ANOVA com 2 Fatores”, porém no Minitab a utilização deste método requer um experimento BALANCEADO, i. é, todas as combinações de Droga e raça (4 X 3 = 12 ) precisam ter o mes- mo tamanho amostral. Quando isto não ocorre (experimento não balanceado) o Minitab não rea- liza o teste. Usaremos então o módulo “General Linear Model”. Em “ANOVA” vamos em “General Linear Model.

Nesta tela alocamos a var. resposta, dependente, em ‘Response’, as vars. independentes, os fatores, alocamos em ‘ Random factors’ e na janela referente a ‘Model’ explicitamos o modelo que desejamos com os dois Fatores e a interação: Droga, Raça, Droga*Raça. E “OK”. No output temos as vars. com os nú- meros de níveis de cada uma e a tabela da Anova. O que esta abaixo não nos interessa. Na Anova vemos que há uma diferen- ça significativa entre as Drogas ( p = 0.008), não há diferença significativa entre as Raças (0.81)e a interação não foi significativa (p = 0.60).

A interação verifica, testa, se a eventual diferença encontrada em uma var. permanece a mesma nos diferentes níveis da outra var., ou seja, será que a diferença encontrada entre as drogas é a mesma para as diferentes raças ? Como a interação do nosso exemplo não foi significativa (p = 0.60), con- cluímos que sim. Se a interação fosse significativa (p ≤ 0.05) teríamos que a diferença entre as drogas variaria significativamente conforme a raça Para sabermos quem difere de quem nas drogas podemos utilizar o ícone de “Multiple Comparisons” da “ANOVA ONE WAY”: Perceba que quando fazemos um teste como este estamos realizando 3 testes de hipótese: 1 - que compara os níveis da var. Droga; 2 - // // // // // // Raça; 3 – o que verifica a interação; se as diferenças encontradas nos níveis de um determinado fator variam ou não significativamente conforme os níveis do outro fator (variável).

Outro exemplo: Desejamos verificar se 3 diferentes tipos de terapia e o ní- vel sócio-econômico (com 3 categorias) influem em uma escala. Observe, novamente, como fica a nossa tela no GLM do Minitab. Da tabela da Anova, inferimos que há diferença significativa entre as clas- ses sociais, e que esta diferença varia conforme a terapia utilizada, a intera- ção foi significativa ( p = 0.019).

Temos que Nse = 1 tem média 144.8; Nse = 2 tem média 107.6; Nse = 3 tem média 64.2, portanto NSE 1 > NSE 2 > NSE 3. MAS isto é para o ge- ral, esta relação muda conforme a terapia. Observando as médias dos NSE dentro de cada terapia será que a relação Nse 1 > Nse2 > Nse 3 mantém-se em cada uma as terapias ? Não. Dependendo do objetivo do pesquisador pode-se realizar uma Anova one-way para cada terapia. O raciocínio da Anova com 2 fatores pode ser extendido para n fatores, uma Anova n fatorial (multifatorial), tantas quantas forem as vars. inde- pendentes. Vejamos um caso com 3 vars.

Desejamos testar se uma var Desejamos testar se uma var. dependente (Esc2) sofre influência do Sexo, Trauma (Sim/Não) e da Idade categorizada em 3 níveis. Ao lado temos como nos- sa tela do GLM é organi- zada. No output temos que a Idade influi na escala e esta influên- cia varia conforme o Sexo

Como já foi dito, pode-se extender o raciocínio para mais variáveis inde- pendentes, porém não é muito comum pois: a)Devido a dificuldade de interpretação dos resultados, não é fácil“enxergar” o que realmente está acontecendo; b)É necessário uma amostra grande, consistente, que tenha uma quantidade razoável de sujeitos em cada nível de cada variável; c) O experimento precisa ser minimamente balanceado, ou seja, todos os possíveis cruzamentos necessitam ter um número de amostra parecido e não muito pequeno. Quando temos muitas variáveis dependentes usualmente realizam-se as análises univariadas e para a análise multivariada selecionamos aquelas que na análise univariada apresentaram um “p” menor que um valor pré- estabelecido (p ≤ 0.20 ou ≤ 0.10 ou ≤ 0.05) e as vars. que o pesquisador acredita terem importância. Na situação em que temos muitas vars. dependentes, ou mesmo poucas mas o experimento não é balanceado (quando determinados níveis de uma ou mais vars. não possuem amostra suficiente), utiliza-se a Anova mas sem testar-se as interações, é a Anova somente com os efeitos principais.

Todos os testes vistos até agora (teste z, teste t para uma amostra, teste t para amostras independentes, teste t para amostras pareadas e Anova) possuem um ponto em comum e necessário para que possam ser aplicados: NORMALIDADE, a variável que esta sendo comparada necessita ter distribuição Normal Mas e quando rejeitamos a normalidade ou está claro que os dados não possuem distribuição Normal, o que fazer ? Em 1o. Lugar podemos tentar aplicar uma transformação em nossos dados originais. Algumas transformações são bastante conhecidas e em boa parte das vezes levam nossos dados que não possuem normalidade a uma distribuição normal. No Minitab na barra de ferramentas na função Calc. E depois Calculator. São elas : Log, Ln, Raiz quadrada, Arcseno, 1/x ... Entretanto nem sempre as transformações funcionam e há o caso de amostras muito pequenas, onde não é possível nem testar a normalidade

Nestes casos iremos utilizar testes conhecidos por NÃO-PARAMÉTRICOS Os testes não-paramétricos também são conhecidos por testes de distribuição livre (Free), pois não exigem nenhuma condição quanto à forma da distribuição dos dados. 1 - O teste análogo ao teste t para duas amostras independentes é o teste de MANN-WHITNEY, cujo objetivo é comparar se a média (mediana) de uma amostra possui valor equivalente ao da outra amostra. O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras independentes, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é : HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2.

Suposição: Não há suposição de normalidade, mas há a suposição de independência entre as unidades amostrais (xi). Procedimento: Exemplo: Desejamos comparar os scores de dois grupos para um determinado teste psicológico: Valores do grupo A: 5, 10, 2, 8 ,9, 1, 12 Valores do grupo B: 4, 3, 5, 0, 6, 7, 2 O 1o. passo é ordenar as duas amostras simultaneamente e atribuir RANKS ( em português POSTOS) a ordenação Valor Rank Valor Rank 0 1 6 9 Após esta operação retornamos 1 2 7 10 aos grupos os valores dos ranks 2 3.5 8 11 2 3.5 9 12 Grupo A: 7.5, 13, 3.5, 11, 12, 2, 14 3 5 10 13 Grupo B: 6, 5, 7.5, 1, 9, 10, 3.5 4 6 12 14 5 7.5 Com este valores (ranks) é que 5 7.5 serão efetuados os cálculos do teste.

A estatística T = S - ni(ni+1)/2 onde S =  (Ranks de uma das amostras tem uma distribuição tabelada.ni= Tamanho da amostra escolhida. Então S = 7.5 + 13 + ... + 14 = 63 e T = 63 - (7*8)/2 = 35 que equivale na tabela específica a um p value = 0.20, logo não rejeitamos H0 (0.20 > 0.05). Desejamos comparar a renda de homens e mulheres numa determina da função. ‘Stats’, daí vamos em “Nonparame trics” e depois em “Mann-Whitney. Observe que apesar das amostras serem independentes elas estão em colunas diferentes.

Aloco uma amostra em “First Sample”, a outra amostra em “Second Sample”. Observe que optei por um teste bicaudal e OK No output temos os tamanhos de amostra, as medianas, um interva- lo de confiança para a diferença das medianas, a estatística calculada teste de hipótese, seu tipo e o p-value. Mann-Whitney Test and CI: renmas; renfem renmas N = 13 Median = 518,1 renfem N = 19 Median = 401,1 Point estimate for ETA1-ETA2 is 101,4 95,4 Percent CI for ETA1-ETA2 is (23,2;286,0) W = 219,0 Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0193 The test is significant at 0.0189 (adjusted for ties Portanto rejeitamos H0. Para fugir de polêmicas, conclua assim : O sexo masc. apresentou valores significativamente superiores aos do fem.

Suposição: A variável ‘DIFERENÇA’ não necessita ter distribuição 2 - O teste análogo ao teste t para duas amostras pareadas é o teste de WILCOXON, cujo objetivo é comparar as médias (medianas) de duas amostras correlacionadas, pareadas, ou seja, não independentes . Tudo o que foi visto anteriormente a respeito das duas medidas serem realizadas na mesma unidade amostral contínua válido aqui. O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras pareadas, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é: HO: A diferença entre as medianas (médias) = 0; X H1: A diferença entre as medianas (médias)  0 Observe que este teste é semelhante a testarmos , se a “variável” diferença difere ou não significativamente de 0. Suposição: A variável ‘DIFERENÇA’ não necessita ter distribuição normal, a suposição de independência entre as diferenças é necessária..

Infelizmente o Minitab não possui um módulo específico para a realização do teste de Wilcoxon para amostras pareadas. Adotaremos um procedimento que fornecerá o mesmo resultado. Procedimento:Exemplo: Desejamos comparar o % de resposta de um tipo de tratamento em dois lotes de células tumorais: Após calcular as diferenças entre a unidades amostrais realizarei u m teste que verifica se a mediana das diferenças é equivalente a 0 H0: Antes = Depois  Antes - Depois = 0 Diferença = Antes -Depois  H0:Diferença = 0 X H1 : Diferença  0

Após digitar meus grupos A e B nas colunas C1 e C2, na barra de ferramentas vou em “Calc” e daí em “Calculator” Na tela resultante no espaço “Expression” indico a operação que desejo, que é var. A - var.B, e aviso que desejo armazena-lá na coluna C6 em “Store result ... “. E OK

Depois vamos em ‘Stat’, “Nonparametrics” e daí em “1-Sample Wilcoxon” Na tela do teste especificamos a variável C6 (Diferença), ativamos “Test median” e colocamos o valor 0 Wilcoxon Signed Rank Test: C6 Test of median = 0,000000 versus median not = 0,000000 N for Wilcoxon Estimated N Test Statistic P Median C6 9 8 33,0 0,042 5,000 Na saída temos o teste de hipótese, o p-value e a mediana estimada. Rejeitamos H0, portanto a diferença entre as amostras A e B e A > B, pois a mediana estimada é positiva.

3 - O teste análogo ao teste para comparar mais de duas amostras independentes (ANOVA) é o teste de KRUSKAL-WALLIS, também conhecido por Análise de Variância Não-Paramétrica O tópico referente às variáveis envolvidas é equivalente ao do teste t para duas amostras independentes, com ênfase que este método é bastante utilizado com variáveis qualitativas ordinais. O teste de hipótese associado é : HO: Média (Mediana) da amostra 1 = Média (Mediana) da amostra 2 X H1 : Média (Mediana) da amostra 1 Média (Mediana) da amostra 2. Suposição: Não há suposição de normalidade, mas há a suposição de independência entre as unidades amostrais (xi)e entre as unidades das diferentes amostras. A estatística onde Ri é o ranking médio de cada amostra K = número de amostras (fatores, grupos) , N = tamanho total da amostra e ni = tamanho de cada amostra; tem distribuição Qui-Quadrado com k-1 graus de liberdade.

Exemplo da distribuição Qui- Quadrado com g.l. = 4. Exemplo direto no Minitab: Quero verificar se 3 tratamentos produzem resultados equivalentes ou não. ‘Stats’, “Nonparametrics”, e daí em “Kruskal-Wallis” Na tela alocamos a var. X em”Response“ e a var. dos grupos em “Factor”.

Na saída temos para cada fator o n, a mediana, o rank médio, a esta Kruskal-Wallis Test: X versus Trat Kruskal-Wallis Test on X Trat N Median Ave Rank Z 1 10 1,882 8,8 -2,95 2 10 3,903 24,0 3,74 3 10 2,289 13,7 -0,79 Overall 30 15,5 H = 15,53 DF = 2 P = 0,000 Na saída temos para cada fator o n, a mediana, o rank médio, a esta tística calculada, os g.l. e o p-value < 0.001, portanto Rejeito H0, há diferença entre os tratamentos. Entretanto, quase sempre desejamos saber quais as diferenças significativas entre os tratamentos. O Minitab não fornece nenhum teste post hoc quando rejeitamos H0 em sua ANOVA não-paramétrica. O teste post hoc utilizado é o de DUNN, portanto pesquise um programa que faça este teste. Outro recomendado é o de Newman-Keuls, encontra do nos módulos da ANOVA paramétrica, normal em alguns programas..

1) Comparar uma média (mediana) amostral Normal  Teste t para uma amostra Não Normal  Teste de Wicoxon para uma amostra 2) Comparar duas médias medianas amostrais independentes (unidades amostrais independentes) Normal  Teste t para amostras independentes Não Normal  Teste de Mann-Whitney 3) Comparar duas médias amostrais pareadas ou correlacionadas (mesma unidade amostral) Normal  Teste t para amostras pareadas ou correlacionadas Não Normal  Teste de Wilcoxon para amostras pareadas Normalidade da variável DIFERENÇA 4) Comparar mais de duas amostras independentes Normal  ANOVA (Análise de Variância) Não Normal  Teste de Kruskal-Wallis.