Curso Introducción Estadística Analítica 5

0

Revista Madrileña de Medicina

Logo revista

Volumen 2, nº 10. Febrero 2014.

Formación Médica Acreditada

INTRODUCCIÓN A LA ESTADÍSTICA ANALÍTICA: INFERENCIA POBLACIONAL DE UNA VARIABLE Y DE RELACIONES BIVARIADAS

Ángel Rodríguez Laso *

Bloque 5: Comparación de tres o más medias

En un módulo anterior hemos visto el procedimiento para comparar dos medias de dos muestras. En el caso de que hubiera tres o más muestras, ¿valdría con compararlas dos a dos para saber si sus medias son diferentes? Esta forma de proceder tiene dos problemas:

  1. Al hacer varias comparaciones, estamos aumentando sin darnos cuenta el nivel de error que estamos dispuestos a asumir.
    Por teoría de probabilidad sabemos que la probabilidad de que ocurra uno de varios sucesos excluyentes (que ocurra el suceso A o que ocurra el suceso B o que ocurra el suceso C, etc.) es la suma de sus probabilidades. Por otro lado, sabemos que el error alfa que se asume como máximo por convención para rechazar la hipótesis nula (no hay diferencia entre las medias) es 0,05. Si tenemos por ejemplo tres muestras y las comparamos dos a dos tendremos que realizar tres comparaciones, A con B, B con C y A con C. Pues bien, como cada comparación asume ese nivel máximo de error, el error total que estaríamos aceptando al decir que al menos una de las medias es distinta a otra es 0,05+0,05+0,05=0,15, muy lejos del 0,05 que se acepta en los contrastes de hipótesis.

  2. Hacer varias comparaciones es un mecanismo poco potente, porque no utiliza toda la información de las muestras, sino la parte correspondiente a la comparación de las dos muestras que se está realizando cada vez.

El procedimiento que debe utilizarse en esta situación es el Análisis de la Varianza, conocido como ANOVA por sus siglas en inglés (ANalysis Of VAriance). La lógica que utiliza ANOVA es la de comparar varianzas en lugar de medias, de ahí su nombre. ANOVA es un procedimiento de análisis que permite analizar diseños de investigación muy complejos, en los que se pueden mezclar muestras independientes, pareadas y covariables. En este curso vamos a explicar sus bases y cómo se utiliza para la comparación de medias independientes y pareadas, lo que se denomina ANOVA para un factor.

El planteamiento del que parte ANOVA se puede entender viendo la Figura. En ella hemos representado con diamantes azules los valores de la talla de 6 niños de una clase de primero de primaria (muestra x), de cuarto de primaria (muestra y) y de cuarto de la ESO (muestra z).

Los diamantes rojos representan las tallas medias de cada una de las muestras o grupos (x, y, z) y el diamante negro la talla media si juntáramos a los 18 niños (M). Las líneas rojas representan las distancias de las medias de las muestras o grupos a la media total. Cuando las medias muestrales son muy diferentes, estas distancias son grandes.

La suma de estas distancias es una dispersión, que se denomina dispersión factorial.

La línea azul mide la distancia de un individuo a la media de su grupo. Si la suma de las distancias de cada individuo a su media grupal es muy grande, significa que los valores de los individuos de los distintos grupos pueden solaparse; con ello será más difícil decir que las medias grupales son diferentes, porque un mismo individuo podría pertenecer a distintos grupos.

En nuestro ejemplo no sucede así: los individuos están muy próximos respecto a las medias grupales, por lo que sus tallas no se solapan entre grupos. Esto también va a favor de que hay diferencias entre las medias de los grupos. La suma de las distancias de los individuos a sus medias grupales es una dispersión que se llama debida al azar.

Lo que hace ANOVA es comparar estas dos dispersiones. Pero no lo hace restándolas, sino dividiéndolas, porque es el cociente el que sigue una distribución probabilística conocida, que en este caso se llama F de Snedecor.

En el fondo, lo que pretendemos es valorar qué parte de la dispersión global encontrada en el conjunto de los individuos analizados se debe a la dispersión aleatoria esperable dentro de cada grupo, y qué parte se debe a la dispersión de los grupos entre sí. Si predomina esta última dispersión, todo apuntará a que hay diferencias entre los grupos; si la que predomina es la primera dispersión, la debida al azar, tendremos que concluir que no hay diferencias significativas.

Bloque 5 figura 1 puntos

Figura 7. Distribución muestral de la diferencia de proporciones para 100 muestras de tamaño 5 (izquierda) y tamaño 50 (derecha) en dos poblaciones donde un 56% de los hombres entre 45 y 64 años tienen 200mg/dl ó más de colesterol.

Vamos a ver cómo hacemos los cálculos de las dispersiones. Como toda dispersión (recordemos el numerador de la fórmula de la varianza, por ejemplo), la dispersión factorial (la que se produce entre los diferentes grupos de datos) se calcula restando cada media grupal de la media total, elevando el resultado al cuadrado y sumando todos los cuadrados. Pero como son varios los individuos en cada grupo o muestra, para ponderar los resultados habrá antes que multiplicar cada término cuadrático por la n de su grupo:

Bloque 5 formula 1

Damos así a la diferencia de la media de cada grupo con la media general el peso que le corresponde según el número de elementos que aporte.

La dispersión factorial será más grande en una comparación de más grupos que de menos grupos, porque se incrementa el número de sumandos. Para que esto no suceda y la dispersión sea comparable, independientemente del número de grupos, debemos convertirla en varianza, dividiéndola, no entre el número de grupos como cabría pensar (en este caso 3), sino entre el número de grupos con sus medias libres (grados de libertad). Este número es 2 en este caso porque sabiendo la media total y dos de las medias grupales podemos calcular la tercera.

Bloque 5 formula 2

Aparece nuevamente el concepto de grados de libertad. Vamos entendiendo ya que, una vez utilizamos una media, uno de los datos de la muestra ya no nos aporta información, por lo que siempre que hablamos de grados de libertad aparecerá una fórmula del tipo n-1.

Ahora vamos a calcular la dispersión debida al azar (la que se produce dentro de cada grupo). Habrá que restar el valor de cada individuo de su media grupal (líneas azules en la figura), elevarla al cuadrado y sumar los cuadrados. Habrá que hacerlo para los individuos de los tres grupos en conjunto:

Bloque 5 formula 3

Nuevamente la suma será mayor cuantos más individuos haya. Para evitar esta dependencia, dividiremos la dispersión por el número de términos libres. En este caso son el total de individuos menos las tres medias grupales que, una vez conocidas, condicionan cada una un valor de su grupo.

Bloque 5 formula 4

Ahora ya podemos dividir las varianzas:

Bloque 5 formula 5

Este valor F se compara con los que vienen en una tabla que indica el valor máximo del cociente que se podría observar por azar si las medias en realidad no fueran diferentes. En estas tablas hay que entrar con unos grados de libertad que son nº grupos-1 y n-nº grupos, los mismos valores que hemos usado en el denominador de la varianza factorial y debida al azar, respectivamente.

Si el valor Fexperimental supera al que figura en la tabla para un determinado nivel de error, podremos decir que al menos una de las medias muestrales es distinta de las demás con ese nivel de error. Si no lo supera, diremos que no hemos encontrado diferencias significativas entre las medias muestrales, lo que es muy distinto a asegurar que son iguales.

Cuando la prueba F ha resultado significativa, podemos realizar un tipo especial de contrastes que se llaman comparaciones múltiples post hoc o comparaciones a posteriori. Se denominan así porque se realizan después de realizar la prueba F. Nos permiten concretar qué diferencias de medias dos a dos son significativas. Hay varios tipos de contraste. La calculadora estadística que vamos a emplear utiliza el Test HSD de Tukey, cuyos detalles de cálculo no vamos a explicar. Baste decir que nos dirá qué medias son diferentes con un nivel de error determinado.

Como vemos, ANOVA funciona mediante el contraste de hipótesis. No proporciona intervalos de confianza de las diferencias de medias, a diferencia de la prueba t.

Condiciones de aplicación de ANOVA

Son muy similares a las de la comparación de dos medias:

  1. Cada una de las muestras presenta una distribución normal o no se aleja mucho de una distribución normal y tiene al menos 30 individuos.

  2. Las muestras tienen el mismo tamaño o sus varianzas son homogéneas.

Si no se cumple alguno de estos supuestos, deberemos realizar el test no paramétrico de Kruskal-Wallis.

Test de Kruskal-Wallis

La prueba de Kruskal-Wallis es una generalización de la U de Mann-Withney para más de dos muestras independientes. Como en ella, lo primero que se hace es ordenar por orden creciente a los individuos según el valor de la variable de interés e independientemente de a qué muestra pertenezcan. Después se sustituye cada valor inicial de la variable de cada individuo por el número de orden de ese valor en la ordenación. Si hay empates se asigna a los individuos la media de los rangos que ocupan.

Es decir, si hay empate entre cuatro observaciones para ocupar el 5º lugar (es decir, 5º, 6º, 7º y 8º tendrían el mismo valor), a los cuatro les otorgamos el ordinal 6,5 (media de 5, 6, 7 y 8)

Después se suman los ordinales de los individuos de cada muestra por separado y se suman todas estas sumas. Finalmente se obtienen las medias de los rangos u ordinales para cada muestra (suma de los rangos/tamaño del grupo) y la media de los rangos totales (suma de todos los rangos/suma de todos los tamaños de muestra). Estos índices se utilizan para calcular un valor H que se compara con el valor de la χ2 para (nº muestras-1) grados de libertad. Mirando el valor p correspondiente , sabremos el nivel de error del contraste. Las aplicaciones estadísticas dan el resultado directamente.

La prueba de Kruskal-Wallis también tiene una condición de aplicación: todas las muestras deben ser mayores de 5. De no ser así el resultado se considera una aproximación imperfecta.

COMPARACIÓN DE TRES O MÁS MEDIAS PAREADAS

Podemos encontrarnos con el caso de que las variables no se han medido en individuos distintos, sino en los mismos individuos varias veces. En lugar de varios grupos de individuos diferentes, lo que tendremos son grupos de medidas repetidas en los mismos individuos. Diremos entonces que esas medidas están pareadas o que son dependientes. Es la misma situación que estudiamos en la comparación de dos medias pareadas, pero ahora hay más de dos medidas.

Utilizar los mismos individuos en todas las ocasiones de medida tiene una ventaja de diseño clara: las diferencias que encontremos entre las medidas no se pueden atribuir a diferencias entre los individuos, ya que las medidas se efectúan y comparan sobre los mismos individuos. Seguirá habiendo una dispersión de las medidas respecto a la media de cada ocasión de medida(líneas azules de la Figura anterior), pero, al tener varias medidas de cada individuo, podremos saber cuánta de esta dispersión se debe a las peculiaridades de cada individuo y eliminarla.

Como en ANOVA de medidas independientes, compararemos la varianza factorial (la que se produce entre las distintas series de medidas en cada individuo) con la varianza debido al azar (dentro de cada ocasión de medida), pero de esta última podremos quitar una parte que es la debida a las características particulares de los individuos. Como hemos medido varias veces en el mismo individuo, podemos hacernos una idea de qué tendencia general tiene cada uno, por ejemplo, a dar medidas más altas o más bajas.

Imaginemos que hemos realizado tres medidas de cada uno de n individuos. Tendremos que realizar tres pasos consecutivos:

  1. La varianza factorial se calcula con las mismas fórmulas que si las medidas fueran independientes. nx, ny, nz son el número de individuos en cada ocasión de medida (que será igual) x, y y z las medias de la primera, segunda y tercera ocasión de medida. M la media total. El denominador de la varianza factorial será (nº medidas-1).

  2. La dispersión debida al azar en medidas repetidas se calcula igual inicialmente: x1, y1 y z1 serán las medidas repetidas del primer individuo, x2, y2 y z2 las del segundo y así para cada uno de ellos.

Bloque 5 formula 6

  1. Pero la novedad es que le restamos la dispersión debida a los individuos.

Bloque 5 formula 8 

Esta última, como cualquier dispersión, se calcula obteniendo la media de las medidas repetidas para cada individuo (media para cada individuo), calculando la media del conjunto de los individuos (que es igual a la media total M) y restando la media de cada individuo de la total; elevamos al cuadrado las diferencias, y las multiplicamos por el número de medidas repetidas. El resultado de esta operación para cada individuo se suma para todos ellos.

Bloque 5 formula 7

Donde msujeto1,2,n son las medias de las medidas repetidas de cada individuo.

Ahora tendremos que convertir la dispersión en varianza. Para ello tendremos que dividirla por los grados de libertad correspondientes, que, como se desprende de lo anterior, serán: la resta de los grados de libertad de la dispersión debida al azar, como en medidas independientes (número total de observaciones menos número de ocasiones de medida), menos los grados de libertad de la dispersión debida a los individuos (número de individuos menos 1).

Como en ANOVA, la varianza factorial y la debida al azar se dividen y el resultado se compara con el valor de la distribución F de Snedecor para los grados de libertad de la varianza factorial (nº medidas repetidas-1) y la varianza debida al azar ( (nº medidas totales-nº medidas)-(nº individuos-1).

Cuando la prueba F ha resultado significativa, podemos realizar también comparaciones múltiples ajustadas para la situación de medidas repetidas. Entre ellas también está el Test HSD de Tukey, que presentamos en el tutorial.

Condiciones de aplicación de ANOVA para medidas repetidas

Las mismas que para ANOVA de medidas independientes (la condición de muestras del mismo tamaño siempre se va a cumplir en medidas repetidas) más una nueva. La nueva condición tiene que ver con el hecho de que las medidas repetidas tienen que estar correlacionadas. Adopta el nombre de simetría compuesta, homogeneidad de la covarianza, circularidad y esfericidad y su nivel de complejidad no corresponde al de este curso. Pero puede resumirse en que los coeficientes de correlación de las ocasiones de medida entre sí tienen que ser positivos y de una magnitud aproximadamente igual.

Si no se cumple alguno de estos supuestos, deberemos realizar el test no paramétrico de Friedman.

Test de Friedman

Como en otras pruebas no paramétricas, el test de Friedman lo que hace es ordenar los valores, en este caso las medidas repetidas de cada individuo. Sustituye luego los valores por los respectivos números de orden y los suma para cada muestra. Con estos totales obtiene un índice que se demuestra que sigue una distribución χ2 con (nº medidas-1) grados de libertad. Si el índice supera el valor de χ2 para un nivel de significación determinado, podremos decir que las distribuciones de las muestras son distintas con una probabilidad de equivocarnos equivalente a ese nivel de significación.

Para poder usar el test de Friedman, si tenemos 3 muestras debemos tener al menos 7 individuos en cada una. Si se trata de 4 muestras al menos debemos tener 5 individuos.

 

 

Ángel Rodríguez Laso es especialista en Medicina de Familia y Comunitaria, Doctor en Medicina, Máster en Salud Pública e investigador en el Matía Instituto Gerontológico

 

Anterior (Comparación y asociación de variables cualitativas)     Siguiente (Asociación de dos variables cuantativas)

 

 

Compartir:

Deja una respuesta

¡Usamos cookies propias y de terceros para mejorar tu experiencia en esta web! Si sigues navegando, consientes y aceptas estas cookies en tu ordenador, móvil o tablet. Más información sobre las cookies y cómo cambiar su configuración en tu navegador aquí.

x