Professional Documents
Culture Documents
Inferência Estatística
Unidade de Aprendizagem 5
ANOVA
Introdução ............................................................................................................... 3
Resumo .................................................................................................................. 34
Referências ............................................................................................................ 35
Introdução
Este capítulo prossegue a apresentação de testes de hipóteses paramétricos, onde uma hipótese
é especificada sobre um parâmetro da população e as estatísticas da amostra são usadas para
avaliar a probabilidade de essa hipótese ser verdadeira. O teste específico considerado aqui é
designado por análise de variância (ANOVA) com um fator e é um teste de hipóteses apropriado
para comparar as médias de uma variável contínua em duas ou mais amostras independentes.
Esta técnica é uma extensão do teste de hipóteses para a diferença entre duas médias
populacionais baseado em duas amostras independentes. O cálculo da estatística de teste é
mais complexo, pois deve ter em consideração a dimensão das amostras, bem como as médias
e os desvios padrão em cada uma das amostras.
Caso se pretenda investigar a diferença entre as médias, por exemplo, de três grupos de
observações independentes (A, B, C), poderá ser tentador realizar comparações separadamente
para os três pares de amostras (A e B; A e C; B e C). Contudo, esta abordagem está incorreta
porque cada uma dessas comparações não tem em consideração todas as observações e
aumenta a probabilidade de se concluir incorretamente que existem diferenças
estatisticamente significativas, porque cada comparação aumenta a probabilidade de erro de
tipo I.
A análise de variância evita este problema ao colocar uma pergunta mais global, ou seja, se há
diferenças significativas entre todos os grupos, sem abordar as diferenças entre dois grupos em
particular. Como se verá posteriormente, caso a técnica ANOVA permita concluir que há pelo
menos um par de médias que é diferente, são então aplicados testes adicionais que permitem
identificar quais são exatamente as médias que diferente entre si. Estes testes são designados
por testes de comparação múltipla.
A análise da variância, ou ANOVA, é uma técnica estatística introduzida por Ronald Fisher (1890–
1962) que permite analisar dados que são afetados por várias condições externas (fatores) que
podem, ou não, operar em simultâneo.
Definições:
O texto que se segue foi adaptado de Fernandes (1999, p. 117). Se o investigador está perante
um conjunto de unidades experimentais e pretende identificar e analisar os efeitos causados na
variável resposta, por um certo número de fatores (variáveis independentes), cria as condições
necessárias para a realização de uma experiência. A partir dessa experiência, o investigador vai
obter um conjunto de observações experimentais, que serão posteriormente analisadas
estatisticamente. As condições necessárias para a execução da experiência estão diretamente
relacionadas com o que o investigador pretende identificar e analisar. Para que uma experiência
seja realizada eficientemente, deve usar-se uma técnica científica para o planeamento dessa
experiência.
3. A escolha do modo como cada tratamento vai ser aplicado às unidades experimentais.
Exemplo 1
Para curar uma certa doença existem quatro medicamentos possíveis: A, B, C e D. Pretende-se
saber se existem diferenças significativas nos medicamentos no que diz respeito ao tempo
necessário para eliminar a doença.
A variável resposta corresponde ao tempo necessário para eliminar a doença. Note-se que se
trata de uma variável contínua. As unidades experimentais são os doentes aos quais serão
administrados os medicamentos. Neste caso, há apenas um fator (administração de
medicamentos), que se apresenta em quatro níveis: A, B, C e D. Portanto, cada
grupo/tratamento corresponde a um nível do fator.
Exemplo 2
Suponhamos agora que existe a suspeita de que uma estação quente é um fator determinante
para uma cura rápida. Então, o estudo deve ser conduzido tendo em conta este segundo fator
(estação do ano), que tem dois níveis: estação quente (primavera e verão) e estação fria (outono
e inverno). Neste caso, ambos os fatores são qualitativos.
Os oito tratamentos, também designados grupos, correspondem à combinação dos níveis dos
dois fatores:
1. Medicamento A + estação quente
2. Medicamento A + estação fria
3. Medicamento B + estação quente
4. Medicamento B + estação fria
5. Medicamento C + estação quente
6. Medicamento C + estação fria
7
A técnica apropriada será a análise de variância com dois fatores, ou “Two-way ANOVA“ que,
além de testar se existem diferenças entre os medicamentos, permite verificar se existem
diferenças entre as estações do ano e também entre os oito grupos, no que diz respeito ao
tempo necessário para eliminar a doença.
Exemplo 3
Considere-se um ensaio clínico que pretende comparar o efeito da aplicação de diferentes doses
de uma substância ativa analgésica na duração de ausência de dor:
- Dose A: 50 a 150 mg
- Dose B: 150 a 250 mg
- Dose C: 250 a 500 mg
- Dose D (placebo): 0 mg
Neste caso, a variável resposta é a quantidade de tempo sem dor após a toma da substância. As
unidades experimentais são os pacientes aos quais é administrada a substância. O fator é a dose
da substância ativa analgésica administrada e tem 4 níveis (A, B, C e D). Ao contrário dos
exemplos anteriores, este fator corresponde a uma variável quantitativa, pelo que o fator se diz
quantitativo.
Neste capítulo apresenta-se apenas o caso da análise de variância com um fator e efeitos fixos.
Considerando que o fator tem k níveis e que cada grupo/tratamento corresponde a um nível do
fator, obtêm-se k grupos/tratamentos. A ANOVA permite comparar a igualdade de k valores
médios populacionais, com base nas amostras independentes de uma variável contínua obtidas
para cada um dos k grupos.
8
A cada um dos k grupos/tratamentos está associada uma população que consiste em todas as
observações que se obteriam se o tratamento fosse repetidamente aplicado a todas as unidades
experimentais possíveis. Os valores observados da variável resposta em cada um dos grupos
constitui uma amostra aleatória da população associada ao respetivo grupo. Portanto, num
delineamento completamente aleatorizado, obtêm-se k amostras aleatórias independentes das
populações correspondentes aos grupos/tratamentos. Denota-se por n1, n2, …, nk a dimensão
das amostras observadas em cada grupo, sendo todas as amostras, e respetivas observações,
independentes entre si.
O teste estatístico da ANOVA com um fator e efeitos fixos formaliza-se da seguinte forma.
Considerem-se k populações X1~N(1,12), X2~N(2,22), …, Xk~N(k,k2) para as quais se verifica
homocedasticidade (ou seja, 12= 22=…=k2=2). Considere-se um delineamento experimental
completamente aleatorizado, em que são obtidas k amostras aleatórias independentes das
populações em estudo, com dimensões n1, n2, …, nk, em que n1 + n2 + … + nk = n. A ANOVA com
um fator tem por objetivo testar a igualdade de três ou mais valores médios populacionais:
Em primeiro lugar, note-se que são exigidos três pressupostos para a aplicação da ANOVA:
2. Cada grupo (amostra) de observações deve provir de uma população com distribuição
Normal.
A técnica da ANOVA consiste em testar a hipótese nula de que três ou mais valores médios
populacionais são iguais, contra a hipótese alternativa de que pelo menos um par de valores
médios é diferente. Pretende-se, portanto, testar se para um determinado fator a média é igual
para todos os seus níveis. Por outras palavras, a ANOVA permite testar se existem diferenças
significativas nos dados provenientes dos diferentes tratamentos (grupos).
Primeiro é preciso estudar as causas de variação. Porque é que os dados variam? Uma
explicação é o facto de as amostras provirem de populações diferentes. Outra explicação é o
acaso; ou seja, os dados variam mesmo que sejam provenientes da mesma população.
A tabela ANOVA (Tabela 1) resume a informação sobre a origem da variabilidade dos dados,
bem como os cálculos que permitem obter o valor observado para a estatística do teste-F. Note-
se que, embora sejam apresentados em seguida, o cálculo destes valores não tem especial
interesse no âmbito deste livro, pois estamos mais interessados em retirar conclusões da tabela
ANOVA que é produzida através de aplicações computacionais (por exemplo, o Excel ou o SPSS).
10
k
n=∑ ni Número total de observações
i=1
ni
Total amostral correspondente
X i∙ = ∑ X ij
j=1 ao nível (população) i
1 ni X i∙
̅ Média amostral correspondente
X i∙ = ∑ X ij =
ni j=1 ni ao nível (população) i
X nX 2
2
S2 ij X
2
n 1 i1 n 1
ij
j1 i1 j1
1
X
ni ni
X
1
ni Xi
2
Si ij Xi
2 2 2
Variância amostral do nível
ni 1 ni 1
ij
j1 j1 (população) i
n X
k k 2
2 Xi entre os níveis do fator (variação
SQTr i i X nX2
i1 i1 ni devida aos tratamentos;
dispersão que se verifica entre
os grupos)
X (n 1)S
k ni k
2 dentro dos níveis do fator
SQE Xi
2
ij i i
i1 j1 i1
(variação devida ao erro;
dispersão que se verifica dentro
dos grupos)
SQT
MQT Média dos quadrados dos
n 1 desvios totais
Erro SQE
n–k SQE MQE =
(within; dentro dos grupos) n−k
Esta técnica da análise de variância pode ser formulada através de um modelo matemático,
conforme se descreve no Anexo II – Modelo matemático da ANOVA com um fator. Esta
formulação é especialmente útil quando se pretende generalizar a análise de variância para mais
de um fator, ou para um modelo com efeitos aleatórios.
Hipóteses a testar:
H0: 1= 2 =…= k
H1: i,j (ij): i j (i j: i, j = 1, 2, …, k)
Estatística do teste:
MQTr
𝐹𝑜𝑏𝑠 = ~𝐹(𝑘−1,𝑛−𝑘)
MQE
Regra de decisão:
Rejeitar H0 se 𝐹𝑜𝑏𝑠 ≥ 𝐹(𝑘−1,𝑛−𝑘;1−𝛼) = 𝐹𝑐𝑟í𝑡𝑖𝑐𝑜 , sendo o nível de significância
Valor p:
𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃(𝐹(𝑘−1,𝑛−𝑘) ≥ 𝐹𝑜𝑏𝑠 )
A hipótese nula (H0) é rejeitada para valores elevados da estatística do teste-F (valor de Fobs). Por
este motivo, trata-se de um teste unilateral direito. Portanto, para verificar se a hipótese nula é
rejeitada, compara-se o valor de Fobs com o valor crítico da distribuição F (com k-1 e n-k graus
1
A ordem da 2ª e 3ª colunas da tabela ANOVA pode diferir de software para software.
13
de liberdade). Se o valor observado para a estatística do teste (Fobs) for superior ou igual ao valor
crítico (Fcrítico), então rejeita-se a hipótese nula.
Alternativamente, tal como em qualquer teste estatístico, também se pode concluir sobre a
rejeição de H0 com base no p-value do teste: rejeita-se H0 se p-value ≤ , sendo o nível de
significância do teste. Tipicamente, rejeita-se H0 se p-value ≤ 0.05. Ou seja, rejeita-se H0 para
níveis de significância superiores ou iguais a 5%.
Caso a hipótese nula seja rejeitada, conclui-se que há evidência de que existem diferenças
significativas entre os grupos/tratamentos. Mais especificamente, se H0 for rejeitada conclui-se
que pelo menos um par de médias dos vários grupos/tratamentos são significativamente
diferentes. Caso os dados das amostras não permitam rejeitar H0, conclui-se que não existe
evidência suficiente para concluir que as médias dos vários grupos/tratamentos são diferentes.
Mas, a ANOVA não nos permite identificar quais são os grupos/tratamentos que produzem as
diferenças e quais são semelhantes. Sempre que as diferenças são significativas, e só nesse caso,
temos que proceder a comparações a posteriori (post-hoc). Para tal, iremos aplicar testes de
comparações múltiplas, como veremos posteriormente. Em seguida, discutem-se os
pressupostos da ANOVA e apresenta-se um exemplo de aplicação.
Ainda que as amostras sejam obtidas de forma independente entre si, ocorre com frequência as
observações de cada amostra não serem independentes quando a variável resposta é de
natureza temporal. Ou seja, se as amostras forem constituídas por observações temporais,
poderá haver uma violação deste pressuposto, porque uma observação num instante de tempo
poderá estar relacionada com a(s) observação(ões) do(s) instante(s) anterior(es). Nestes casos,
se a amostra for suficientemente grande, é preferível selecionar aleatoriamente uma
subamostra da amostra original.
14
Pressuposto 2: Cada amostra (grupo) de observações deve provir de uma população com
distribuição Normal.
O teste de Shapiro-Wilk tem vindo a ser cada vez mais utilizado para testar a hipótese nula de
que os dados da amostra provêm de uma população Normal com parâmetros desconhecidos.
Geralmente, apresenta uma potência elevada quando comparado com outros testes,
designadamente o Teste do Qui-Quadrado e o Teste de Lilliefors. Com amostras pequenas,
apresenta melhor desempenho do que o teste de Kolmogorov-Smirnov.
O teste de Bartlett não deve ser aplicado se existirem dúvidas sobre a normalidade das
populações associadas aos grupos. O teste de Levene é um dos mais robustos face à violação do
pressuposto da normalidade e é um dos mais potentes para testar a homocedasticidade.
Se as populações forem normais, mas a homocedasticidade não possa ser assumida, deve-se
usar a estatística de Brown-Forsythe ou a estatística de Welch2 em vez do teste-F da ANOVA.
2
No SPSS, estas estatísticas podem ser pedidas selecionando: Menu Analisar + Comparar médias + ANOVA
unidirecional + Opções… + Brown-Forsythe (ou Welch, ou ambas).
15
Para aplicar a ANOVA no Excel, primeiro, é necessário ativar o suplemento Analysis ToolPak
(Ferramentas de Análise) que fica disponível a partir do momento em que o Microsoft Office ou
o Excel é instalado. Este suplemento permite desenvolver análises complexas de estatística de
forma rápida e simples. Basta fornecer os dados e parâmetros para cada análise e a ferramenta
utiliza funções de macro apropriadas para calcular e apresentar os resultados numa tabela de
resultados. Algumas ferramentas criam gráficos, para além das tabelas de resultados.
Para ser aplicar a ANOVA no Analysis Toolpak, a tabela de dados deve estar organizada de modo
a que as observações de cada amostra (grupo) estejam inseridos em diferentes colunas.
Selecione o menu Dados e, depois de clicar no botão Análise de Dados (Data Analysis), selecione
a ferramenta Anova: Fator único. Na janela que surge (Figura 1):
Coloque o cursor na opção "Intervalo de entrada" e selecione todos os dados, incluindo
o nome das colunas, arrastando o rato sobre as células.
Como foram selecionados os nomes das colunas (i.e., nomes dos grupos), é necessário
clicar em "Rótulos na primeira linha".
A opção “Alfa” especifica o nível de significância pretendido. Por defeito este valor é
igual a 0.05, pelo que geralmente não é necessário alterar.
Nas opções do Output, é recomendável não alterar a opção selecionada por efeito (Nova
Folha de Cálculo), a qual envia os resultados para uma nova folha do ficheiro Excel que
3
Se o Analysis ToolPak não aparecer na lista Suplementos disponíveis, clique em Procurar (Browse) para
o localizar. Se aparecer uma mensagem com a indicação de que o Analysis ToolPak não está instalado no
computador, clique em Sim para o instalar.
16
está a ser utilizado. A opção Intervalo de Saída permite especificar qual é a célula
superior esquerda da tabela de resultados. A opção Novo Livro coloca os resultados num
novo ficheiro de Excel.
Por fim, clique em OK.
Figura 1: Janela da ferramenta “Anova: Fator único” do suplemento Analysis ToolPak do Excel
Exemplo 4
Um departamento governamental está preocupado com os aumentos dos custos verificados no
âmbito de projetos de I&D que são encomendados aos hospitais A, B, C e D. Decidiu-se então
analisar os custos associados a diferentes projetos, calculando para cada um deles a razão entre
o custo final incorrido e o custo inicialmente previsto na adjudicação. Para cada projeto, os dois
custos foram expressos numa base constante (Tabela 2). Será que os quatro hospitais têm um
comportamento global distinto em relação ao agravamento dos custos?
A B C D
1.0 1.7 1.0 3.8
0.8 2.5 1.3 2.8
1.9 3.0 3.2 1.9
1.1 2.2 1.4 3.0
2.7 3.7 1.3 2.5
1.9 2.0
Adaptado de Guimarães e Sarsfield Cabral (2007)
17
Neste exemplo, o custo associado a cada projeto é calculado como sendo o quociente entre o
custo final incorrido e o custo previsto no orçamento inicial. Portanto, valores inferiores a 1
significam que o custo incorrido foi inferior ao orçamentado; e os valores superiores a 1
significam que houve um agravamento da despesa em relação ao previsto no orçamento inicial.
A resposta à questão colocada passa por efetuar uma análise de variância com um fator
(hospital) e efeitos fixos. Trata-se de um modelo com efeitos fixos porque os hospitais A, B, C e
D foram definidos à partida. Caso fossem selecionados aleatoriamente quatro hospitais de entre
um conjunto alargado de possíveis hospitais, então o modelo a aplicar seria a ANOVA a um fator
com efeitos aleatórios.
No caso de se pretender aplicar a ANOVA no Excel, os dados têm que estar organizados tal como
se apresenta na Tabela 2. Para efetuar a análise de variância no SPSS, ou outro software
estatístico, as 22 observações disponíveis têm que estar todas numa mesma coluna (variável
resposta) no ficheiro de dados. Assim, é necessário criar outra variável (numérica, no caso do
SPSS) que identifique o grupo (hospital) a que pertence cada uma das observações (Tabela 3).
Quando a dimensão das amostras é reduzida, como neste caso, é conveniente usar um teste
não paramétrico equivalente ao teste-F da ANOVA. Será utilizada a ANOVA paramétrica para se
ilustrar a aplicação desta técnica no Excel.
18
Hospital4 Custo
A 1.0
A 0.8
A 1.9
A 1.1
A 2.7
B 1.7
B 2.5
B 3.0
B 2.2
B 3.7
B 1.9
C 1.0
C 1.3
C 3.2
C 1.4
C 1.3
C 2.0
D 3.8
D 2.8
D 1.9
D 3.0
D 2.5
Vamos começar por formalizar o problema em termos estatísticos. Sejam XA~N(A, 2),
XB~N(B, 2), XC~N(C, 2) e XD~N(D, 2) as variáveis aleatórias que reportam o custo dos
projetos dos hospitais A, B, C e D, respetivamente. As hipóteses a testar são:
H0: A= B = C = D
H1: A B ou A C ou A D ou B C ou B D ou C D
Depois de definidos os pressupostos e as hipóteses a testar, deve-se começar por efetuar uma
análise exploratória dos dados (Tabela 4).
Tabela 4: Estatísticas descritivas dos custos de projetos de I&D encomendados aos hospitais
4
No caso do SPSS, a variável que define os grupos (Hospital) tem que ser numérica, pelo que se sugere a
numeração de 1 a 4, em vez das letras de A a D.
19
Estes resultados são também evidentes nos gráficos de caixa-de-bigodes (box-plots) paralelos
(Figura 2), pois permitem observar a localização relativa dos quatro grupos. Como a localização
da distribuição das amostras dos quatro hospitais não parece ser idêntica, vamos aplicar a
técnica ANOVA para testar se as médias diferem significativamente entre si. Note-se que, antes
de se aplicar a ANOVA, deveríamos testar primeiro os seus pressupostos (veremos
posteriormente como faze-lo).
4
3.5
3
2.5
2
1.5
1
0.5
0
A B C D
A tabela ANOVA (Tabela 5) que se obtém (por exemplo, usando o suplemento Analysis Toolpak
do Excel) permite concluir que o valor observado da estatística do teste-F é 3.533, e o valor
crítico da distribuição F(3,18) é 3.16. Usando a regra de decisão do teste unilateral direito, como
Fobs = 3.533 > 3.16 = Fcrit, rejeita-se H0 para o nível de significância de 5%.
20
Tabela 5: Tabela ANOVA para os dados dos custos de projetos de I&D encomendados a cada hospital5
Origem da SQ gl MQ F de
F F crit
variação
(soma de (graus de (médias
(F observado) significação (F crítico)
quadrados) liberdade) quadráticas) (valor p)
Total 16.619 21
Há portanto evidência de que os custos médios de projetos de I&D são diferentes em pelo
menos dois hospitais. Ou seja, há evidência de que os quatro hospitais não têm um
comportamento global igual, em valor médio, em relação ao agravamento dos custos.
Quando se rejeita a hipótese nula da igualdade de três ou mais valores médios no teste-F da
ANOVA, não se tem informação sobre qual ou quais dos grupos são responsáveis pela diferença.
Uma das possibilidades para efetuar comparações múltiplas consiste em comparar todos os
pares de valores médios. Aliás, após a análise exploratória de verificação dos pressupostos da
ANOVA, a tendência atual é evitar o uso da ANOVA e passar imediatamente para os testes de
comparação múltipla.
5
As designações na 1ª linha da tabela podem diferir consoante a versão do Excel e a língua em que está
instalado (ex.: Português do Brasil).
21
probabilidade de se rejeitar indevidamente pelo menos uma das hipóteses nulas do conjunto.
Relembre-se que o nível de significância de um teste corresponde à probabilidade de se rejeitar
indevidamente a hipótese nula. Por este motivo, não é adequado aplicar testes-t a cada par de
valores médios. Neste caso, a probabilidade de se tomar uma decisão conjunta correta é igual a
(1)k < 1.
Existem métodos que procuram tomar em consideração este problema, como por exemplo o
Teste de Bonferroni (baseia-se na estatística t de Student e ajusta o nível de significância
observado), o Teste de Sidak (também ajusta o nível de significância, mas é menos conservado
que o teste de Bonferroni), o Teste HSD de Tukey (Honestly Significant Difference), o Teste de
Tukey-Kramer, o Teste de Scheffé, Teste MRT de Duncan (Multiple Range Test), entre outros. É
conveniente consultar a documentação do software que se pretende usar porque existem
muitos testes de comparações múltiplas, e versões melhoradas dos testes clássicos aqui
enumerados.
H0: i = j
H1: i j (i j: i, j = 1, 2, …, k)
Iremos ver em mais detalhe apenas o Teste HSD de Tukey e o Teste de Tukey-Kramer, devido à
sua importância. Ambos os testes de Tukey assumem que os dados provêm de distribuições
normais, com variâncias iguais (pressupostos da ANOVA). O Teste HSD de Tukey pressupõe ainda
que o delineamento da experiência é equilibrado6. Ou seja, que as amostras de todos os grupos
têm a mesma dimensão.
O teste de Tukey é preferível ao de Scheffé, mas o teste de Scheffé (mais conservador) apresenta
a vantagem de ter alguma robustez relativamente às condições de normalidade e de
homocedasticidade.
6
O SPSS, bem como outros softwares de estatística, reconhece automaticamente se o delineamento é
equilibrado, ou não, pelo que existe apenas uma opção para aplicar estes testes: “Teste de Tukey”. O
Teste WSD de Tukey (Wholly Significant Difference), disponibilizado no SPSS na opção “Teste B de
Tukey”, corresponde a uma outra versão, em que o valor crítico é igual à média dos valores críticos do
Teste HSD de Tukey e do Teste Student-Newman-Keuls. Este teste não é recomendado porque a taxa de
erro que controla é ambígua.
22
Hipóteses a testar:
H0: i = j
H1: i j (i j: i, j = 1, 2, …, k)
Estatística do teste:
|𝑋̅𝑖∙ − 𝑋̅𝑗∙ |
W= ~𝑞(𝑘,𝑛−𝑘)
2
√𝑆
𝑏
onde, S2 é o valor MQE da tabe ANOVA (Tabela 1), e 𝑞(𝑘,𝑛−𝑘) é a distribuição Studentized
Range com (k; n–k) graus de liberdade.
Regra de decisão:
Rejeitar H0 se 𝑊𝑜𝑏𝑠 ≥ 𝑞(𝑘,𝑛−𝑘;1−𝛼) , sendo o nível de significância
Valor p:
𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃(𝑞(𝑘,𝑛−𝑘) ≥ 𝑊𝑜𝑏𝑠 )
A estatística do teste tem uma distribuição especial designada Studentized Range. Caso não se
tenha acesso a um software estatístico para aplicar o teste, pode-se usar uma tabela de
probabilidades desta distribuição para se obter o valor crítico 𝑞(𝑘,𝑛−𝑘;1−𝛼) . Tendo em conta a
regra de decisão, verifica-se que se trata de um teste unilateral direito, apesar das hipóteses
alternativas conterem desigualdades.
23
Teste de Tukey-Kramer
O teste de Tukey-Kramer tem os mesmos pressupostos que a ANOVA, e é uma extensão do teste
HSD de Tukey para delineamentos não equilibrados. Contudo, o teste de Tukey-Kramer não
controla o nível de significância global do conjunto de comparações, mas é minimamente
conservativo no sentido em que o nível de significância global da família dos testes é muitas
vezes menor que .
Hipóteses a testar:
H0: i = j
H1: i j (i j: i, j = 1, 2, …, k)
Estatística do teste:
|𝑋̅𝑖∙ − 𝑋̅𝑗∙ |
W= ~𝑞(𝑘,𝑛−𝑘)
𝑆21 1
√ 2 (𝑛 + 𝑛 )
𝑖 𝑗
onde, S2 é o valor MQE da tabe ANOVA (Tabela 1), e 𝑞(𝑘,𝑛−𝑘) é a distribuição Studentized
Range com (k; n–k) graus de liberdade.
Regra de decisão:
Rejeitar H0 se 𝑊𝑜𝑏𝑠 ≥ 𝑞(𝑘,𝑛−𝑘;1−𝛼) , sendo o nível de significância
Valor p:
𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃(𝑞(𝑘,𝑛−𝑘) ≥ 𝑊𝑜𝑏𝑠 )
O suplemento Analysis ToolPak do Excel não permite realizar testes de comparação múltipla. Na
internet são disponibilizados vários suplementos para Excel que contêm as mais variadas
ferramentas estatísticas, por exemplo o XLSTAT (https://www.xlstat.com) e o Real Statistics
Resource Pack (www.real-statistics.com). Sugere-se a instalação deste último por ser totalmente
gratuito.
24
Para aplicar testes de comparação múltipla associados à ANOVA com um fator, procede-se da
seguinte forma:
Seleciona-se a opção “Data Analysis Tools” no comando Real Statistics do menu ADD-
INS (ou Suplementos).
Na janela de ferramentas do Real Statistics, seleciona-se a opção “Analysis of Variance”
e clica-se em Ok.
Na janela “Analysis of Variance” (Figura 3), deve-se selecionar o método ANOVA mais
adequado ao delineamento experimental associado aos dados. A opção correspondente
à ANOVA com um fator é “Anova: one factor”. Depois, clique em Ok.
7
O ficheiro pode ser guardado em qualquer pasta do computador, mas o utilizador deverá recordar-se
mais tarde qual foi. Recomenda-se que o ficheiro seja guardado na pasta C:\Users\user-
name\AppData\Roaming\Microsoft\AddIns.
25
Figura 3: Métodos ANOVA/MANOVA disponíveis no suplemento Real Statistics Resource Pack do Excel
- Selecione o nível de significância (Alpha), utilizando uma vírgula para separar as casas
decimais.
- Selecione uma das seguintes opções consoante a forma como a tabela de dados está
organizada e os dados foram selecionados na opção “Input Range”:
o “Excel format with column headings”: quando os dados estão organizados de
modo a que as observações de cada amostra (grupo) se encontram em
diferentes colunas (como na Tabela 2), e foram selecionadas as células com os
nomes dos grupos;
o “Excel format w/o column headings”: quando os dados estão organizados de
modo a que as observações de cada amostra (grupo) se encontram em
diferentes colunas (como na Tabela 2), mas não foram selecionadas as células
com os nomes dos grupos;
o “Standard (stacked) format”: quando os dados estão organizados de modo a
que todas as observações da variável resposta se encontram na mesma coluna,
e a coluna anterior identifica cada um dos grupos (como na Tabela 3). Neste
caso, as células com os nomes das colunas não devem ser selecionadas.
- Para além do teste-F da ANOVA, podem ser selecionados diversos testes estatísticos
associados à ANOVA com um fator:
o Testes alternativos à ANOVA:
Teste de Kruskal-Wallis (não paramétrico)
Teste de Welch (para populações normais heterocedásticas)
Teste de Brown-Forsythe (para populações normais heterocedásticas)
o Testes de comparações múltiplas:
26
- As opções de “Alpha correction for contrasts” permitem selecionar o método a usar para
corrigir, ou não (No Correction), o nível de significância dos testes de comparação
múltipla. No conjunto de testes disponíveis, apenas os testes de Contrastes requerem a
utilização da correção de Dunn-Sydak ou de Bonferroni.
- No campo “Output Range”, selecione uma célula para definir a célula superior esquerda
da tabela de resultados, ou clique no botão “Ne” para enviar os resultados para uma
nova folha do ficheiro Excel que está a ser utilizado.
8
A análise de contrastes baseia-se em testes de hipóteses sobre combinações lineares dos valores médios
dos grupos onde a soma do pesos (constantes) associados aos valores médios é igual a zero. Para mais
detalhes, veja-se por exemplo a documentação do suplemento Real Statistics Resource Pack
(http://www.real-statistics.com/one-way-analysis-of-variance-anova/planned-comparisons/; acedido 11
de junho de 2017).
27
Figura 4: Testes estatísticos associados à ANOVA com um fator disponíveis no suplemento Real Statistics
Resource Pack do Excel
Na tabela de resultados dos testes de comparações múltiplas, irá surgir uma coluna sombreada
a cinzento, designada por c (contraste), onde o utilizador tem que especificar o peso associado
a cada valor médio do teste de hipóteses pretendido9. Considerando os dados do exemplo
anterior (Tabela 2), suponhamos que se pretende testar 𝐻0 : 𝜇𝐵 − 𝜇𝐶 = 0. Neste caso, o
utilizador deverá introduzir o valor 1 na célula correspondente ao grupo B, e o valor –1 na célula
correspondente ao grupo C (Figura 5). Na tabela “Q TEST”, o campo sig fornece a conclusão do
teste estatístico para o nível de significância selecionado previamente.
9
Para mais detalhes, veja-se por exemplo a documentação do suplemento Real Statistics Resource Pack
(http://www.real-statistics.com/one-way-analysis-of-variance-anova/unplanned-comparisons/; acedido
11 de junho de 2017).
28
Figura 5: Tabela de resultados do teste de Tukey para verificar se o valor médio do grupo B difere do valor médio
do grupo C (suplemento Real Statistics Resource Pack).
Exemplo 5
Considerem-se novamente os dados do exemplo anterior (Tabela 2), referentes aos custos de
projetos de I&D encomendados a quatro hospitais (A, B, C e D). Através do teste-F da ANOVA,
concluiu-se anteriormente que há evidência de que os quatro hospitais não têm um
comportamento global igual, em valor médio, em relação ao agravamento dos custos. Importa
então investigar quais são os hospitais que diferem entre si em termos de custos médios. Para
tal, vamos aplicar o teste de Tukey-Kramer. As hipóteses estatísticas a testar são:
H0: A = B H0: A – B = 0
H1: A B H1: A – B 0
H0: A = C H0: A – C = 0
H1: A C H1: A – C 0
H0: A = D H0: A – D = 0
H1: A D H1: A – D 0
H0: B = C H0: B – C = 0
H1: B C H1: B – C 0
H0: B = D H0: B – D = 0
H1: B D H1: B – D 0
H0: C = D H0: C – D = 0
H1: C D H1: C – D 0
Relembre-se que o teste-F da ANOVA permitiu concluir que há evidência de que pelo menos
dois hospitais têm valores médios diferentes. Mas, verificamos agora com o teste de Tukey-
Kramer, que não há evidência de que os valores médios sejam diferentes, para o nível de
significância de 5%. Por vezes acontecem situações destas, em que os resultados são
inconclusivos! O que fazer a seguir? Como as amostras têm uma dimensão reduzida, deveria
tentar-se obter amostras maiores e repetir a análise.
Nota: O suplemento Real Statistics Resource Pack não fornece os valores p (p-value). Caso se
repetisse o procedimento para um nível de significância de 7%, concluía-se que havia evidência
estatística de que o valor médio do hospital A difere do hospital D. Na verdade, para níveis de
significância ≥ 0.065 (valor p), rejeita-se a hipótese nula H0: A = D. Portanto, será melhor não
aceitar despreocupadamente esta hipótese. Como referido anteriormente, recomenda-se a
obtenção de amostras de maior dimensão em cada um dos grupos.
30
Figura 6: Resultados do teste de Tukey-Kramer obtidos com o suplemento Real Statistics Resource Pack do Excel
Teste de Levene
O teste de Levene consiste em aplicar a análise de variância (ANOVA) a uma nova variável Zij que
̅ i∙ ) do
corresponde aos desvios absolutos entre os valores da variável resposta (Xij) e a média (X
respetivo grupo. Uma transformação alternativa, robusta para a não normalidade, foi proposta
por Brown e Forsythe (1974) e consiste em substituir a média de cada grupo pela mediana de
cada grupo. Ou seja, caso haja suspeitas de que a distribuição populacional não é Normal, deve-
se considerar a transformação dos valores da variável resposta com base na mediana de cada
grupo.
Hipóteses a testar:
H0: 12 = 22 = … = k2 = 2
H1: i,j (ij) i2 j2 (i j: i, j = 1, 2, …, k)
Estatística do teste:
Para cada grupo, calculam-se os valores Z como sendo os desvios absolutos entre os
̅ i∙), ou a mediana (𝑋̃i∙ ), do respetivo grupo:
valores da variável resposta (Xij) e a média (X
𝑍𝑖𝑗 = |𝑋𝑖𝑗 − ̅
X i∙ | ou 𝑍𝑖𝑗 = |𝑋𝑖𝑗 − 𝑋̃i∙ |, respetivamente.
𝑛 𝑍𝑖𝑗 1 𝑛
onde, 𝑍𝑖∙̅ = ∑𝑗=1
𝑖
𝑛
é a média do grupo i, e 𝑍̅ = 𝑛 ∑𝑘𝑖=1 ∑𝑗=1
𝑖
𝑍𝑖𝑗 é a média aritmética de
𝑖
Regra de decisão:
Rejeitar H0 se 𝐹𝑜𝑏𝑠 ≥ 𝐹(𝑘−1,𝑛−𝑘;1−𝛼) = 𝐹𝑐𝑟í𝑡𝑖𝑐𝑜 , sendo o nível de significância
Valor p:
𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 𝑃(𝐹(𝑘−1,𝑛−𝑘) ≥ 𝐹𝑜𝑏𝑠 )
Exemplo 6
Considerem-se novamente os dados dos exemplos anteriores (Tabela 2), referentes aos custos
de projetos de I&D encomendados a quatro hospitais (A, B, C e D). Vamos agora usar o teste de
Levene para testar se existe algum par de populações (supostamente Normais) que têm
variâncias diferentes:
Utilizando o suplemento Real Statistics Resource Pack do Excel obtém-se a Tabela 6. Uma vez
que o valor p (p-value), do teste que considera a transformação mediana (medians), é superior
a 0.05, conclui-se que não se rejeita a hipótese nula para o nível de significância de 5%. Aliás,
33
como o valor p é muito elevado, há forte evidência de que tal aconteça (apenas se rejeita H 0
para ≥0.992617). Por outras palavras, não há evidência de que as variâncias das populações
subjacentes aos grupos (hospitais) sejam diferentes. Portanto, a não rejeição da hipótese nula
permite validar o pressuposto da homogeneidade de variâncias do teste-F da ANOVA.
type p-value
means 0.939184
medians 0.992617
trimmed 0.939184
Para aplicar o teste de Levene no SPSS seleciona-se no menu ANALISAR a opção “Comparar
médias”, e depois “ANOVA unidirecional”. Depois de se selecionar os dados, clica-se no botão
“Opções…” e escolhe-se a opção “Homogeneidade do teste de variância” (Figura 7). Depois,
basta clicar em Continuar e fazer OK na janela anterior.
A tabela de resultados que se obtém apresenta a estatística do teste de Levene, bem como o
respetivo valor p (Sig.), com a transformação através das médias dos grupos.
34
Resumo
Neste capítulo foi introduzida a análise de variância (ANOVA) com um fator e efeitos fixos. Foram
discutidos os pressupostos da sua aplicação, e indicados alguns dos testes estatísticos
adequados para a verificação desses pressupostos. O teste de Levene, que permite testar o
pressuposto da homogeneidade de variâncias, foi apresentado detalhadamente. Para os casos
em que os pressupostos da ANOVA não se verifiquem, foram apontados testes estatísticos
alternativos.
Foi também discutida a utilização de testes de comparações múltiplas (post-hoc), os quais são
aplicados quando o teste-F da ANOVA rejeita a hipótese nula da igualdade dos valores médios
populacionais. Para além de serem apontados diversos testes post-hoc alternativos, foram
apresentados em detalhe os testes de Tukey.
Todos testes estatísticos abordados com maior detalhe (teste-F da ANOVA, teste de Tukey, e
teste de Levene) foram ilustrados utilizando ferramentas de suplementos gratuitos do Excel: o
Analysis Toolpak e o Real Statistics Resource Pack.
Qual é a diferença entre análise de variância com efeitos fixos e efeitos aleatórios?
Indique pelo menos uma alternativa ao teste-F da ANOVA, para situações em que as
variâncias das populações não são iguais.
Referências
Brown, M. B., Forsythe, A. B. (1974). Robust tests for the equality of variances. Journal of the
American Statistical Association, 69(346), 364-367.
Fernandes, E. M. (1999). Estatística Aplicada. Universidade do Minho, Braga, Portugal, 313 pp.
Disponível em http://www.norg.uminho.pt/emgpf/documentos/Aplicada.pdf (acesso: julho
2014).
X
ni
2
Xi
ni 1S i2
ij
j1
~ (2ni 1)
2
2
X
ni
Xi
2
k ij
SQE j1
~ k
2
2 i 1 2 i
n 1
i 1
SQE
~ (2nk )
2
2
n k
Propriedade 3: Sob a hipótese nula H0: 1= 2 =…= k, tem-se SQT/2~2 (n-1).
Xij X
k ni
2
Propriedade 4: Sob a hipótese nula H0: 1= 2 =…= k, tem-se SQTr/2~2 (k-1).
Propriedade 5: Sob a hipótese nula H0: 1= 2 =…= k, tem-se SQTr/(k1) é um estimador
centrado de 2.
2
k 1
2
Propriedade 6: Sejam 𝑋~𝜒2(𝑛) e 𝑌~𝜒(𝑚) variáveis aleatórias independentes, então
2
𝑋⁄ 𝜒(𝑛)⁄𝑛
𝑛
𝐹= = 2 ~𝐹(𝑛,𝑚)
𝑌⁄
𝑚 𝜒(𝑚)⁄
𝑚
Propriedade 7: Sob a hipótese nula H0: 1= 2 =…= k, a estatística do teste-F da ANOVA com um
fator é
𝑀𝑄𝑇𝑟
𝐹= ~𝐹(𝑘−1,𝑛−𝑘)
𝑀𝑄𝐸
2
𝑆𝑄𝑇𝑟 𝑆𝑄𝑇𝑟 𝜒(𝑘−1)
⁄(𝑘 − 1) ⁄ ⁄
MQTr 𝜎 2 (𝑘 − 1) (𝑘 − 1)
= = = 2 ~𝐹(𝑘−1,𝑛−𝑘)
MQE 𝑆𝑄𝐸 𝑆𝑄𝐸 𝜒(𝑛−𝑘)
⁄(𝑛 − 𝑘) ⁄𝜎 2 (𝑛 − 𝑘) ⁄
(𝑛 − 𝑘)
41
O modelo matemático aqui apresentado descreve o modelo subjacente à ANOVA com um fator
e efeitos fixos, supondo um delineamento experimental completamente aleatorizado. Esta
formulação da hipótese nula subjacente à ANOVA é especialmente útil quando se pretende
generalizar a análise de variância para mais de um fator, ou para um modelo com efeitos
aleatórios.
As variáveis aleatórias Xij são independentes e verificam (para cada unidade experimental
j=1,…,ni de cada grupo i=1,…,k):
onde,
µi = µ + i é o valor médio populacional do nível i do fator;
µ é o valor médio da população;
i é o efeito do fator
ij~N(0, 2) é um resíduo aleatório
Esta hipótese nula estabelece que não existem diferenças entre as médias das k populações. Ou
seja, estabelece que as diferenças dos efeitos da aplicação dos k tratamentos não são
estatisticamente significativos. Portanto, a hipótese alternativa estabelece que os efeitos da
aplicação dos tratamentos são significativos.