Análise de variância unilateral - One-way analysis of variance
Em estatísticas , de um modo análise de variância (abreviado one-way ANOVA ) é uma técnica que pode ser utilizada para comparar os dois meios se amostras são significativamente diferentes ou não (usando a distribuição F ). Esta técnica pode ser usada apenas para dados de resposta numérica, o "Y", geralmente uma variável, e dados de entrada numéricos ou (geralmente) categóricos, o "X", sempre uma variável, portanto "unilateral".
A ANOVA testa a hipótese nula , que afirma que as amostras em todos os grupos são retiradas de populações com os mesmos valores médios. Para fazer isso, duas estimativas são feitas da variância da população. Essas estimativas baseiam-se em várias premissas ( veja abaixo ). A ANOVA produz uma estatística F, a razão entre a variância calculada entre as médias e a variância dentro das amostras. Se as médias do grupo são extraídas de populações com os mesmos valores médios, a variância entre as médias do grupo deve ser menor do que a variância das amostras, seguindo o teorema do limite central . Uma proporção mais alta, portanto, implica que as amostras foram retiradas de populações com diferentes valores médios.
Normalmente, no entanto, a ANOVA de um fator é usada para testar as diferenças entre pelo menos três grupos, uma vez que o caso de dois grupos pode ser coberto por um teste t (Gosset, 1908). Quando há apenas dois meios para comparar, o teste t e o teste F são equivalentes; a relação entre ANOVA e t é dada por F = t 2 . Uma extensão da ANOVA unilateral é a análise de variância bidirecional que examina a influência de duas variáveis independentes categóricas diferentes em uma variável dependente.
Premissas
Os resultados de uma ANOVA unilateral podem ser considerados confiáveis, desde que as seguintes suposições sejam atendidas:
- Os resíduos da variável de resposta são normalmente distribuídos (ou aproximadamente normalmente distribuídos).
- As variações das populações são iguais.
- As respostas para um determinado grupo são variáveis aleatórias normais independentes e distribuídas de forma idêntica (e não uma amostra aleatória simples (SRS)).
Se os dados forem ordinais , uma alternativa não paramétrica a esse teste deve ser usada, como a análise de variância unilateral de Kruskal-Wallis . Se as variâncias não forem iguais, uma generalização do teste t de Welch de 2 amostras pode ser usada.
Saídas da normalidade da população
ANOVA é um procedimento relativamente robusto no que diz respeito a violações do pressuposto de normalidade.
A ANOVA unilateral pode ser generalizada para os layouts fatoriais e multivariados, bem como para a análise de covariância.
É freqüentemente afirmado na literatura popular que nenhum desses testes F é robusto quando há violações graves da suposição de que cada população segue a distribuição normal , particularmente para níveis alfa pequenos e layouts desequilibrados. Além disso, também é afirmado que, se a suposição subjacente de homocedasticidade for violada, as propriedades de erro do Tipo I degeneram muito mais severamente.
No entanto, isso é um equívoco, baseado no trabalho feito na década de 1950 e antes. A primeira investigação abrangente do problema pela simulação de Monte Carlo foi Donaldson (1966). Ele mostrou que sob os desvios usuais (inclinação positiva, variâncias desiguais) "o teste F é conservador" e, portanto, é menos provável do que deveria ser descobrir que uma variável é significativa. No entanto, à medida que aumenta o tamanho da amostra ou o número de células, "as curvas de poder parecem convergir para aquelas baseadas na distribuição normal". Tiku (1971) descobriu que "o poder da teoria não normal de F difere do poder da teoria normal por um termo de correção que diminui drasticamente com o aumento do tamanho da amostra." O problema da não normalidade, especialmente em grandes amostras, é muito menos sério do que os artigos populares poderiam sugerir.
A visão atual é que "os estudos de Monte-Carlo foram usados extensivamente com testes baseados na distribuição normal para determinar o quão sensíveis eles são às violações da suposição de distribuição normal das variáveis analisadas na população. A conclusão geral desses estudos é que o as consequências de tais violações são menos graves do que se pensava anteriormente. Embora essas conclusões não devam desestimular ninguém de se preocupar com a suposição de normalidade, elas aumentaram a popularidade geral dos testes estatísticos dependentes da distribuição em todas as áreas de pesquisa. "
Para alternativas não paramétricas no layout fatorial, consulte Sawilowsky. Para obter mais informações, consulte ANOVA on ranks .
O caso de efeitos fixos, experimento totalmente aleatório, dados desequilibrados
O modelo
O modelo linear normal descreve grupos de tratamento com distribuições de probabilidade que são curvas em formato de sino (normais) idênticas com médias diferentes. Assim, o ajuste dos modelos requer apenas as médias de cada grupo de tratamento e um cálculo de variância (uma variância média dentro dos grupos de tratamento é usada). Os cálculos das médias e da variância são realizados como parte do teste de hipótese.
Os modelos lineares normais comumente usados para um experimento completamente aleatório são:
- (o modelo de meios)
ou
- (o modelo de efeitos)
Onde
- é um índice sobre unidades experimentais
- é um índice sobre os grupos de tratamento
- é o número de unidades experimentais no jº grupo de tratamento
- é o número total de unidades experimentais
- são observações
- é a média das observações para o jº grupo de tratamento
- é a grande média das observações
- é o jº efeito do tratamento, um desvio da grande média
- , são erros aleatórios de média zero normalmente distribuídos.
O índice sobre as unidades experimentais pode ser interpretado de várias maneiras. Em alguns experimentos, a mesma unidade experimental está sujeita a uma variedade de tratamentos; pode apontar para uma unidade específica. Em outros, cada grupo de tratamento possui um conjunto distinto de unidades experimentais; pode ser simplesmente um índice na -ésima lista.
Os dados e resumos estatísticos dos dados
Uma forma de organizar observações experimentais é com grupos em colunas:
Listas de Observações de Grupo | ||||||||
---|---|---|---|---|---|---|---|---|
1 | ||||||||
2 | ||||||||
3 | ||||||||
Estatísticas de resumo do grupo | Estatísticas de resumo geral | |||||||
# Observado | # Observado | |||||||
Soma | Soma | |||||||
Soma Sq | Soma Sq | |||||||
Mau | Mau | |||||||
Variância | Variância |
Comparando o modelo com os resumos: e . A grande média e a grande variância são calculadas a partir das grandes somas, não das médias e variâncias do grupo.
O teste de hipótese
Dadas as estatísticas de resumo, os cálculos do teste de hipótese são mostrados em forma de tabela. Enquanto duas colunas de SS são mostradas para seu valor explicativo, apenas uma coluna é necessária para exibir os resultados.
Fonte de variação | Soma dos quadrados | Soma dos quadrados | Graus de liberdade | Quadrado médio | F |
---|---|---|---|---|---|
SS explicativo | SS Computacional | DF | em | ||
Tratamentos | |||||
Erro | |||||
Total |
é a estimativa da variância correspondente a do modelo.
Resumo da análise
A análise ANOVA básica consiste em uma série de cálculos. Os dados são coletados em forma de tabela. Então
- Cada grupo de tratamento é resumido pelo número de unidades experimentais, duas somas, uma média e uma variância. Os resumos do grupo de tratamento são combinados para fornecer totais para o número de unidades e as somas. A grande média e a grande variância são calculadas a partir das grandes somas. O tratamento e os grandes meios são usados no modelo.
- Os três DFs e SSs são calculados a partir dos resumos. Em seguida, os MSs são calculados e uma proporção determina F.
- Um computador normalmente determina um valor p de F, que determina se os tratamentos produzem resultados significativamente diferentes. Se o resultado for significativo, o modelo provisoriamente tem validade.
Se o experimento for balanceado, todos os termos serão iguais, então as equações SS simplificam.
Em um experimento mais complexo, onde as unidades experimentais (ou efeitos ambientais) não são homogêneas, as estatísticas de linha também são usadas na análise. O modelo inclui termos dependentes de . A determinação dos termos extras reduz o número de graus de liberdade disponíveis.
Exemplo
Considere um experimento para estudar o efeito de três níveis diferentes de um fator em uma resposta (por exemplo, três níveis de um fertilizante no crescimento da planta). Se tivéssemos 6 observações para cada nível, poderíamos escrever o resultado do experimento em uma mesa como este, onde a 1 , a 2 e um 3 são os três níveis do fator a ser estudado.
a 1 a 2 a 3 6 8 13 8 12 9 4 9 11 5 11 8 3 6 7 4 8 12
A hipótese nula, denotada H 0 , para o teste F geral para este experimento seria que todos os três níveis do fator produzem a mesma resposta, em média. Para calcular a taxa F :
Passo 1: Calcule a média dentro de cada grupo:
Etapa 2: Calcule a média geral:
- onde a é o número de grupos.
Etapa 3: calcule a soma "entre os grupos" das diferenças quadradas:
onde n é o número de valores de dados por grupo.
Os graus de liberdade entre os grupos são um a menos que o número de grupos
então o valor médio quadrático entre os grupos é
Etapa 4: calcule a soma dos quadrados "dentro do grupo". Comece centralizando os dados em cada grupo
a 1 | a 2 | a 3 |
---|---|---|
6−5 = 1 | 8−9 = −1 | 13−10 = 3 |
8−5 = 3 | 12−9 = 3 | 9−10 = −1 |
4−5 = −1 | 9−9 = 0 | 11−10 = 1 |
5−5 = 0 | 11−9 = 2 | 8−10 = −2 |
3−5 = −2 | 6−9 = −3 | 7−10 = −3 |
4−5 = −1 | 8−9 = −1 | 12−10 = 2 |
A soma dos quadrados dentro do grupo é a soma dos quadrados de todos os 18 valores nesta tabela
Os graus de liberdade dentro do grupo são
Assim, o valor quadrático médio dentro do grupo é
Etapa 5: a proporção F é
O valor crítico é o número que a estatística de teste deve exceder para rejeitar o teste. Nesse caso, F crit (2,15) = 3,68 em α = 0,05. Como F = 9,3> 3,68, os resultados são significativos ao nível de significância de 5%. Seria rejeitada a hipótese nula, concluindo que há fortes evidências de que os valores esperados nos três grupos são diferentes. O valor p para este teste é 0,002.
Depois de realizar o teste F , é comum realizar algumas análises "post-hoc" das médias do grupo. Neste caso, as primeiras duas médias de grupo diferem em 4 unidades, a primeira e a terceira médias de grupo diferem em 5 unidades e as médias do segundo e terceiro grupo diferem em apenas 1 unidade. O erro padrão de cada uma dessas diferenças é . Assim, o primeiro grupo é fortemente diferente dos outros grupos, pois a diferença média é mais vezes o erro padrão, portanto, podemos estar altamente confiantes de que a média populacional do primeiro grupo difere das médias populacionais dos outros grupos. No entanto, não há evidências de que o segundo e o terceiro grupos tenham médias populacionais diferentes entre si, pois sua diferença média de uma unidade é comparável ao erro padrão.
Nota F ( x , y ) indica um F -distribuição função de distribuição cumulativa com x graus de liberdade do numerador e y graus de liberdade no denominador.
Veja também
- Análise de variação
- Teste F ( inclui um exemplo de ANOVA unilateral )
- Modelo misto
- Análise multivariada de variância (MANOVA)
- ANOVA de medidas repetidas
- ANOVA de duas vias
- Teste t de Welch
Notas
Leitura adicional
- George Casella (18 de abril de 2008). Desenho estatístico . Springer . ISBN 978-0-387-75965-4.