- La prueba de Kruskal-Wallis es una alternativa no paramétrica al ANOVA tradicional cuando no se cumplen los supuestos de normalidad.
- Permite comparar tres o más grupos independientes y detectar si existen diferencias significativas entre ellos en términos de su tendencia central.
- El contraste se basa en la suma de rangos asignados a cada grupo y el valor resultante se compara con la distribución chi-cuadrado.

¿Te has preguntado alguna vez cómo analizar varios grupos de datos cuando las condiciones ideales del análisis estadístico clásico no se cumplen? La estadística está repleta de retos: datos que no siguen una distribución normal, tamaños de muestra pequeños o grandes, o la presencia de valores atípicos que lo ponen todo patas arriba. Ahí es cuando entran en juego las pruebas no paramétricas, y entre ellas, la prueba de Kruskal-Wallis se posiciona como una de las herramientas más potentes y versátiles que existen.
En el día a día de la investigación —sea en biomedicina, psicología, ciencias sociales o incluso negocios— la prueba de Kruskal-Wallis es el salvavidas para quienes necesitan comparar tres o más grupos independientes sin cumplir los exigentes requisitos del ANOVA clásico. Si te interesa conocer a fondo cómo funciona, cuándo usarla, cuáles son sus requisitos y qué puede aportarte en la interpretación de resultados, este artículo es para ti.
Índice
- 1 ¿Qué es la prueba de Kruskal-Wallis?
- 2 ¿Para qué sirve la prueba de Kruskal-Wallis?
- 3 Hipótesis de la prueba de Kruskal-Wallis
- 4 Supuestos y requisitos para aplicar Kruskal-Wallis
- 5 ¿Cómo funciona la prueba de Kruskal-Wallis?
- 6 Interpretación de los resultados de Kruskal-Wallis
- 7 Ejemplo ilustrativo de Kruskal-Wallis
- 8 Análisis post-hoc: ¿Qué grupos son diferentes?
- 9 Ventajas y desventajas de la prueba de Kruskal-Wallis
- 10 Aplicaciones frecuentes
- 11 Aspectos técnicos y fórmulas
- 12 Cómo realizar la prueba de Kruskal-Wallis en software estadístico
¿Qué es la prueba de Kruskal-Wallis?
La prueba de Kruskal-Wallis, también conocida como test H, es un método estadístico no paramétrico propuesto por William Kruskal y W. Allen Wallis en los años 50. Su objetivo principal es comparar si existen diferencias estadísticamente significativas en la tendencia central (normalmente la mediana) entre tres o más grupos independientes.
A diferencia del conocido ANOVA de una vía, que requiere datos normalmente distribuidos y varianzas homogéneas, la prueba de Kruskal-Wallis solo necesita que los datos sean de al menos escala ordinal y que las muestras sean independientes. Es decir, no se ve limitada por la falta de normalidad ni por la presencia de datos extremos o atípicos.
Por esta razón, se la conoce como la alternativa no paramétrica al ANOVA de un factor y también como una extensión de la prueba de Mann-Whitney U para más de dos grupos.
ANOVA: qué es, para qué sirve y cómo interpretar sus resultados
¿Para qué sirve la prueba de Kruskal-Wallis?
Esta prueba es especialmente útil cuando:
- Los datos están distribuidos de forma desconocida o no normal, y no puedes justificar el uso de pruebas paramétricas.
- Analizas tres o más grupos independientes, por ejemplo, diferentes tratamientos en medicina, hábitos en grupos de edad o metodologías educativas.
- Las variables son ordinales o continuas, es decir, pueden ser ordenadas o medidas en intervalos, pero no necesariamente cumplen con la normalidad.
- Hay sospecha de valores extremos (outliers) o de varianzas no homogéneas entre los grupos.
Al aplicar Kruskal-Wallis, puedes determinar si al menos uno de los grupos presenta un comportamiento diferente respecto a los demás en la variable de interés.
Hipótesis de la prueba de Kruskal-Wallis
Como ocurre en casi todas las pruebas estadísticas, aquí también se plantea una hipótesis nula (H0) y una alternativa (H1):
- Hipótesis nula (H0): Las muestras independientes proceden de poblaciones con la misma tendencia central (por ejemplo, la misma mediana o la misma distribución).
- Hipótesis alternativa (H1): Al menos una de las muestras independientes procede de una población con diferente tendencia central.
La prueba de Kruskal-Wallis permite rechazar o no la hipótesis nula, pero no indica qué grupos difieren exactamente, para ello, será necesario realizar análisis post-hoc.
Supuestos y requisitos para aplicar Kruskal-Wallis
Antes de calcular el test H, asegúrate de que se cumplen las condiciones mínimas para su aplicación:
- Independencia de las observaciones: Los datos dentro de cada grupo y entre los grupos no deben estar relacionados.
- Variable dependiente de al menos nivel ordinal: Puedes utilizar datos ordinales (ranking, posiciones) o datos continuos (valores numéricos), pero no categóricos puros.
- Tres o más grupos independientes: Aunque puede usarse con dos, su sentido está en comparar tres o más muestras independientes.
- Suficiente tamaño de muestra: Cada grupo debería tener al menos cinco observaciones para garantizar resultados más robustos.
- Forma similar de las distribuciones: No es necesario que sean iguales, pero sí que tengan una forma similar (por ejemplo, todas asimétricas a la derecha).
Si alguna de estas condiciones no se cumple, considera otras pruebas alternativas, como la prueba de Friedman para muestras dependientes.
¿Cómo funciona la prueba de Kruskal-Wallis?
La lógica de Kruskal-Wallis es sencilla pero ingeniosa: en lugar de comparar los valores originales, transforma todos los datos en una escala común de rangos, lo que elimina la influencia de valores extremos, distribuciones anómalas y varianzas dispares.
Paso a paso en el cálculo
- Combina todos los datos de los distintos grupos en un único conjunto y ordénalos de menor a mayor.
- Asigna rangos consecutivos (el valor más bajo recibe el 1, el siguiente el 2, etc.). Si hay valores repetidos, asigna el promedio de los rangos correspondientes.
- Suma los rangos dentro de cada grupo.
- Calcula el estadístico H usando la fórmula:
H = ∑ – 3·(N+1)
- N: número total de observaciones
- Ri: suma de rangos de cada grupo i
- ni: tamaño del grupo i
- k: número de grupos
- Compara el valor de H con el valor crítico de la distribución chi-cuadrado con k-1 grados de libertad para determinar la significación estadística.
- Interpreta el valor p resultante.
Interpretación de los resultados de Kruskal-Wallis
El valor p (o p-value) será la clave para tomar decisiones. Debes compararlo con el nivel de significación establecido (por ejemplo, 0,05):
- Si p > 0,05: No hay evidencias suficientes para rechazar la hipótesis nula. Los grupos no presentan diferencias significativas en su tendencia central.
- Si p ≤ 0,05: Se rechaza la hipótesis nula. Hay al menos un grupo cuya distribución, mediana o tendencia central difiere de los demás.
La prueba de Kruskal-Wallis indica que existen diferencias, pero no especifica cuáles en particular. Para ello, será necesario realizar análisis post-hoc con pruebas específicas.
Cómo hacer una ANOVA en Excel: guía completa, ejemplos y trucos
Ejemplo ilustrativo de Kruskal-Wallis
Supón que tienes tres grupos de personas a los que has medido su tiempo de reacción ante diferentes estímulos:
- Grupo 1: 12, 18, 15, 20
- Grupo 2: 25, 30, 28, 22
- Grupo 3: 35, 38, 40, 42
El proceso sería:
- Combinas todos los datos: 12, 15, 18, 20, 22, 25, 28, 30, 35, 38, 40, 42
- Asignas rangos del 1 al 12:
- Grupo 1: 1, 2, 3, 4 (Suma 10)
- Grupo 2: 5, 6, 7, 8 (Suma 26)
- Grupo 3: 9, 10, 11, 12 (Suma 42)
- Calcula el valor de H usando la fórmula.
- Compara el estadístico con el valor crítico en la tabla chi-cuadrado (k-1 grados de libertad).
- Verifica el p-valor y decide si hay diferencias significativas.
Si el valor p resultante es menor a 0,05, puedes afirmar que existen diferencias estadísticamente significativas entre al menos uno de los grupos.
Análisis post-hoc: ¿Qué grupos son diferentes?
Una vez detectadas las diferencias, surge la duda: ¿cuáles son los grupos que difieren?
Para identificar exactamente qué pares difieren, se emplean pruebas post-hoc. Las más recomendadas son:
- Prueba de Dunn: Ideal para comparar múltiples pares y controlar el error tipo I, especialmente si se aplica la corrección de Bonferroni.
- Pruebas de Mann-Whitney por pares: Comparas cada par con la y ajustas los valores p con Holm o Bonferroni.
- En R: funciones como
pairwise.wilcox.test()okruskalmc()del paquete pgirmess facilitan estos análisis.
Estos test revelan qué grupos difieren exactamente, ayudando a interpretar mejor los resultados de Kruskal-Wallis.
Ventajas y desventajas de la prueba de Kruskal-Wallis
Ventajas
- No exige normalidad: Es útil cuando los datos no siguen distribución normal o no se puede garantizar.
- Trabaja con datos ordinales: No requiere datos métricos; basta con rangos ordinales.
- Resistente a valores extremos: La transformación en rangos evita que outliers distorsionen los resultados.
- Puede usarse en muestras pequeñas o grandes.
Desventajas
- No indica qué grupo es diferente: Solo revela la existencia de diferencias, no su ubicación específica, por lo que necesita análisis post-hoc.
- Asume formas similares de distribución: Si las distribuciones son muy dispares, el resultado puede ser engañoso.
- Menor potencia estadística respecto a ANOVA si se cumplen los requisitos de este último.
Prueba Chi-cuadrado: Qué es, para qué sirve y cómo aplicarla paso a paso
Aplicaciones frecuentes
Se emplea en diversos ámbitos, como por ejemplo:
- Medicina: Comparar eficacia de tratamientos sin garantizar distribución normal de resultados.
- Ciencias sociales: Analizar variaciones en respuestas según edad, nivel educativo o regiones.
- Biología: Estudiar efectos de condiciones ambientales en crecimiento de plantas o animales.
- Marketing: Evaluar aceptación de productos o campañas agrupando consumidores con diferentes características.
Aspectos técnicos y fórmulas
Para quienes quieran profundizar en la fórmula y fundamentos:
- El estadístico H puede ajustarse si hay valores repetidos mediante un factor de corrección.
- En muestras grandes, H sigue aproximadamente una distribución chi-cuadrado con k-1 grados de libertad.
- El p-valor se obtiene comparando H con la tabla de chi-cuadrado correspondiente.
- Para muestras con menos de cinco observaciones en algún grupo, es recomendable usar métodos exactos o tablas especiales.
Consulta detalles en Wikipedia u otros recursos especializados.
Cómo realizar la prueba de Kruskal-Wallis en software estadístico
Esta prueba es sencilla de implementar en programas como R, Python o plataformas online. Por ejemplo, en R, la función kruskal.test(). En Python, scipy.stats ofrece stats.kruskal(). También existen calculadoras en línea, como la de DATAtab.
Ejemplo en Python:
from scipy.stats import kruskal
stat, p_value = kruskal(, , )
print('Estadístico H:', stat)
print('Valor p:', p_value)
Siempre revisa los resultados interpretándolos correctamente y considerando los requisitos de la prueba.
Guía completa sobre abas ERP: qué es, cómo funciona y todo lo que necesitas saber
La prueba de Kruskal-Wallis destaca por su versatilidad para la comparación de múltiples grupos independientes, especialmente cuando no se cumplen los requisitos de normalidad y homogeneidad de varianzas que exigen los tests paramétricos. Su sencillez, resistencia a valores extremos y capacidad para trabajar con datos ordinales la convierten en una herramienta fundamental en el análisis estadístico. Recuerda complementar con análisis post-hoc para determinar qué grupos presentan diferencias específicas.

