En estadística, cuando se comparan las medias de dos o más muestras en relación a alguna variable de interés (por ejemplo, la ansiedad después de un tratamiento psicológico), se utilizan pruebas que determinan si existen o no diferencias significativas entre las medias.
Una de ellas es el Análisis de Varianza (ANOVA). En este artículo conoceremos en qué consiste esta prueba paramétrica y qué supuestos deben cumplirse para poder utilizarla.
- Artículo relacionado: "Psicología y estadística: la importancia de las probabilidades en la ciencia de la conducta"
Análisis de Varianza (ANOVA): ¿qué es?
En estadística, encontramos el concepto de análisis de Varianza (ANOVA), que consiste en una agrupación de modelos estadísticos y sus procedimientos asociados, donde la varianza está particionada en ciertos componentes, debido a variables explicativas diversas. Si desglosamos sus siglas en inglés, ANOVA significa: ANalysis Of VAriance (Análisis de la varianza).
El Análisis de Varianza (ANOVA) es un tipo de prueba paramétrica. Esto quiere decir que deben cumplirse una serie de supuestos para aplicarla, y que el nivel de la variable de interés debe ser, como mínimo, cuantitativo (es decir, como mínimo de intervalo, por ejemplo el coeficiente intelectual, donde existe un 0 relativo).
Técnicas de análisis de varianza
Las primeras técnicas de análisis de varianza fueron desarrolladas en los años ‘20 y ‘30 por R.A. Fisher, un estadístico y genetista. Es por ello que el análisis de Varianza (ANOVA) también se conoce como “Anova de Fisher” o “análisis de varianza de Fisher”; esto también es debido al uso de la distribución F de Fisher (una distribución de probabilidad) como parte del contraste de hipótesis.
El análisis de varianza (ANOVA) surge de los conceptos de regresión lineal. La regresión lineal, en estadística, es un modelo matemático que se utiliza para aproximar la relación de dependencia entre una variable dependiente Y (por ejemplo la ansiedad), las variables independientes Xi (por ejemplo diferentes tratamientos) y un término aleatorio.
- Quizás te interese: "Distribución normal: qué es, características y ejemplos en estadística"
Función de esta prueba paramétrica
Así, un análisis de varianza (ANOVA) sirve para determinar si diferentes tratamientos (por ejemplo, tratamientos psicológicos) muestran diferencias significativas, o si por el contrario, puede establecerse que sus medias poblaciones no difieren (son prácticamente iguales, o su diferencia no es significativa).
Es decir, se utiliza la ANOVA para contrastar hipótesis acerca de diferencias de medias (siempre más de dos). El ANOVA implica un análisis o descomposición de la variabilidad total; ésta, a su vez, se puede atribuir principalmente a dos fuentes de variación:
- Variabilidad intergrupo
- Variabilidad intragrupo o error
Tipos de ANOVA
Existen dos tipos de análisis de varianza (ANOVA):
1. Anova I
Cuando solo existe un criterio de clasificación (variable independiente; por ejemplo, tipo de técnica terapéutica). A su vez, puede ser intergrupo (existen varios grupos experimentales) e intragrupo (existe un único grupo experimental).
2. Anova II
En este caso, hay más de un criterio de clasificación (variable independiente). Igual que en el caso anterior, esta puede ser intergrupo e intragrupo.
Características y supuestos
Cuando se aplica el análisis de varianza (ANOVA) en estudios experimentales, cada grupo consta de un determinado número de sujetos, siendo posible que difieran los grupos en cuanto a este número. Cuando el número de sujetos coincide, se habla de un modelo equilibrado o balanceado.
En estadística, para poder aplicar el análisis de varianza (ANOVA) deben cumplirse una serie de supuestos:
1. Normalidad
Esto quiere decir que las puntuaciones en la variable dependiente (por ejemplo la ansiedad) deben seguir una distribución normal. Este supuesto se comprueba mediante las llamadas pruebas de bondad de ajuste.
2. Independencia
Implica que no exista autocorrelación entre las puntuaciones, es decir, la existencia de independencia de las puntuaciones entre sí. Para asegurarnos del cumplimiento de este supuesto, deberemos realizar un MAS (muestreo aleatorio simple) para seleccionar la muestra que vamos a estudiar o sobre la que vamos a trabajar.
3. Homocedasticidad
Este término significa “igualdad de varianzas de las subpoblaciones”. La varianza es un estadístico de variabilidad y dispersión, y aumenta cuanto mayor sea la variabilidad o dispersión de las puntuaciones.
El supuesto de homocedasticidad se comprueba mediante la Prueba de Levene o la de Barlett. En caso de no cumplirlo, otra alternativa es realizar una transformación logarítmica de las puntuaciones.
Otros supuestos
Los supuestos anteriores deben cumplirse cuando se emplea el análisis de varianza (ANOVA) intergrupo. Sin embargo, cuando se utiliza un ANOVA intragrupo, deben cumplirse los supuestos anteriores y dos más:
1. Esfericidad
Si no se cumple, indicaría que las diferentes fuentes de error correlacionan entre sí. Una posible solución si eso pasa es realizar un MANOVA (Análisis Multivariado de la Varianza).
2. Aditividad
Supone la no interacción sujeto x tratamiento; si se incumple engrosaría la varianza error.
Referencias bibliográficas:
- Botella, J., Sueró, M., Ximénez, C. (2012). Análisis de datos en psicología I. Madrid: Pirámide.
- Fontes de Gracia, S. García, C. Quintanilla, L. et al. (2010). Fundamentos de investigación en psicología. Madrid.
- Martínez, M.A. Hernández, M.J. Hernández, M.V. (2014). Psicometría. Madrid: Alianza.