ANOVA nas classificações - ANOVA on ranks

Em estatística , um dos objetivos da análise de variância (ANOVA) é analisar as diferenças de médias entre os grupos. A estatística de teste, F , pressupõe independência de observações, variâncias homogêneas e normalidade populacional . ANOVA nas classificações é uma estatística projetada para situações em que a suposição de normalidade foi violada.

Lógica do teste F nas médias

A estatística F é a proporção de um numerador para um denominador. Considere sujeitos selecionados aleatoriamente que são subsequentemente atribuídos aleatoriamente aos grupos A, B e C. Sob a verdade da hipótese nula , a variabilidade (ou soma dos quadrados) das pontuações em alguma variável dependente será a mesma dentro de cada grupo. Quando dividido pelos graus de liberdade (ou seja, com base no número de indivíduos por grupo), o denominador da razão F é obtido.

Trate a média de cada grupo como uma pontuação e calcule a variabilidade (novamente, a soma dos quadrados) dessas três pontuações. Quando dividido por seus graus de liberdade (ou seja, com base no número de grupos), o numerador da razão F é obtido.

Na verdade da hipótese nula, a distribuição amostral da razão F depende dos graus de liberdade do numerador e do denominador.

Modele um tratamento aplicado ao grupo A aumentando cada pontuação em X. (Este modelo mantém a suposição subjacente de variâncias homogêneas. Na prática, é raro - senão impossível - que um aumento de X em um grupo médio ocorra por meio de um aumento de cada membro pontua em X.) Isso mudará as unidades de distribuição X na direção positiva, mas não terá nenhum impacto na variabilidade dentro do grupo. No entanto, a variabilidade entre as pontuações médias dos três grupos aumentará agora. Se a razão F resultante aumenta o valor a tal ponto que excede o limite do que constitui um evento raro (chamado de nível Alfa), o teste Anova F rejeita a hipótese nula de médias iguais entre os três grupos, em a favor da hipótese alternativa de que pelo menos um dos grupos tem uma média maior (que, neste exemplo, é o grupo A).

Lidando com violação da normalidade da população

A classificação é um dos muitos procedimentos usados ​​para transformar dados que não atendem às premissas de normalidade . Conover e Iman forneceram uma revisão dos quatro principais tipos de transformações de classificação (RT). Um método substitui cada valor de dados original por sua classificação (de 1 para o menor a N para o maior). Este procedimento baseado em classificação foi recomendado como sendo robusto a erros não normais, resistente a outliers e altamente eficiente para muitas distribuições. Isso pode resultar em uma estatística conhecida (por exemplo, nos resultados de classificação de layout de duas amostras independentes no teste de soma de classificação de Wilcoxon / Mann-Whitney ) e fornece a robustez desejada e o poder estatístico aumentado que se busca. Por exemplo, estudos de Monte Carlo mostraram que a transformação de classificação no layout de teste t de duas amostras independentes pode ser estendida com sucesso para as amostras independentes unilaterais ANOVA, bem como as duas amostras independentes layouts T 2 multivariados de Hotelling Pacotes de software estatístico comercial (por exemplo, SAS) seguido de recomendações aos analistas de dados para executar seus conjuntos de dados por meio de um procedimento de classificação (por exemplo, PROC RANK) antes de conduzir análises padrão usando procedimentos paramétricos.

Falha de classificação na ANOVA fatorial e outros layouts complexos

ANOVA em classificações significa que uma análise padrão de variância é calculada nos dados transformados por classificação. Também foi sugerida a realização de ANOVA fatorial nas classificações das pontuações originais. No entanto, estudos de Monte Carlo e estudos assintóticos subsequentes descobriram que a transformação de classificação é inadequada para testar os efeitos de interação em um projeto fatorial 4x3 e 2x2x2. À medida que o número de efeitos (ou seja, principal, interação) se torna não nulo, e conforme a magnitude dos efeitos não nulos aumenta, há um aumento no erro Tipo I , resultando em uma falha completa da estatística com valores tão altos quanto uma probabilidade de 100% de tomar uma decisão falsa positiva. Da mesma forma, foi descoberto que a transformação de classificação falha cada vez mais no layout de duas amostras dependentes conforme a correlação entre as pontuações do pré e pós-teste aumenta. Também foi descoberto que o problema de taxa de erro Tipo I foi exacerbado no contexto da Análise de Covariância, particularmente à medida que a correlação entre a covariável e a variável dependente aumentava.

Posições transformadoras

Uma variante da transformação de classificação é a 'normalização de quantil', na qual uma transformação adicional é aplicada às classificações de modo que os valores resultantes tenham alguma distribuição definida (geralmente uma distribuição normal com uma média e variância especificadas). Análises posteriores de dados normalizados por quantis podem então assumir essa distribuição para calcular os valores de significância. No entanto, dois tipos específicos de transformações secundárias, as pontuações normais aleatórias e a transformação de pontuações normais esperadas, mostraram aumentar muito os erros do Tipo I e reduzir severamente o poder estatístico.

Violando homocedasticidade

A ANOVA em classificações nunca foi recomendada quando a suposição subjacente de variâncias homogêneas foi violada, por si só ou em conjunto com uma violação da suposição de normalidade da população. Em geral, as estatísticas baseadas em classificação tornam-se não robustas em relação aos erros do Tipo I para desvios da homocedasticidade ainda mais rapidamente do que as contrapartes paramétricas que compartilham a mesma suposição.

Outras informações

Kepner e Wackerly resumiram a literatura observando "no final dos anos 1980, o volume da literatura sobre os métodos de RT estava se expandindo rapidamente à medida que novos insights, tanto positivos quanto negativos, eram obtidos em relação à utilidade do método. Sawilowsky et al. (1989, p. 255) alertou os profissionais para evitar o uso desses testes 'exceto em situações específicas onde as características dos testes são bem compreendidas'. " De acordo com Hettmansperger e McKean, "Sawilowsky (1990) fornece uma excelente revisão das abordagens não paramétricas para testar a interação" em ANOVA.

Notas