Curso Introducción Estadística Analítica 4

0

Revista Madrileña de Medicina

Logo revista

Volumen 2, nº 10. Febrero 2014.

Formación Médica Acreditada

INTRODUCCIÓN A LA ESTADÍSTICA ANALÍTICA: INFERENCIA POBLACIONAL DE UNA VARIABLE Y DE RELACIONES BIVARIADAS

Ángel Rodríguez Laso *

Bloque 4: Comparación y asociación de variables cualitativas

En este módulo explicaremos como se comparan dos proporciones obtenidas a partir de dos muestras independientes por medio de la llamada prueba z. Veremos sus condiciones de aplicación y la alternativa cuando no se cumplen. Por último explicaremos la comparación de dos proporciones obtenidas de los mismos sujetos, es decir, en muestras pareadas o dependientes.

COMPARACIÓN DE DOS PROPORCIONES DE MUESTRAS INDEPENDIENTES

Como en la comparación de medias, podemos plantear el experimento de ir tomando muestras de dos centros sanitarios donde la proporción de hombres de entre 45 y 64 años con niveles de colesterol por encima de 200mg/dl es del 56%. El resultado de tomar muestras de tamaño 5 de los dos centros y restar las proporciones obtenidas (distribución muestral de la diferencia de proporciones) y hacer lo mismo para muestras de tamaño 50 se presenta en la Figura 6.

Grafico bloque 3 1

Figura 6. Distribución muestral de la diferencia de proporciones para 100 muestras de tamaño 5 (izquierda) y tamaño 50 (derecha) en dos poblaciones donde un 56% de los hombres entre 45 y 64 años tienen 200mg/dl ó más de colesterol.

Nuevamente las diferencias que nos iremos encontrando irán variando, pero la distribución muestral de la diferencia de proporciones se centra en 0 incluso con muestras muy pequeñas porque no hay diferencias entre las dos poblaciones. Va adoptando, además, una forma normal a medida que aumentan los tamaños de las muestras. El 95% de las diferencias poblacionales de proporciones estará comprendida en un intervalo con centro en 0 y por cada lado 1,96*EEDP, donde EEDP es el error estándar de la diferencia de proporciones (la desviación típica de la distribución muestral de la diferencia de proporciones). Como el error estándar de una proporción era igual a:

Formula bloque 3 1

es lógico que si tenemos dos poblaciones, las dos deban contribuir su error estándar al de la diferencia de proporciones, por lo que la fórmula del EEDP será:

Formula bloque 3 2

La fórmula no es una suma de dos raíces sino un raíz con dos sumandos porque en realidad lo que se suma son las varianzas (que son el error estándar al cuadrado) y luego se obtiene la raíz de esa suma.

En la vida real no conoceremos la diferencia de proporciones poblacional y sólo tendremos una muestra de cada población. Lo que plantearemos para calcular el intervalo de confianza al 95% de la diferencia de proporciones es asumir que en su centro se encuentra la diferencia de proporciones muestral y sumaremos y restaremos a cada lado 1,96*EEDP, con la siguiente fórmula del EEDP:

Formula bloque 3 3

Donde pA y nA y pB y nB son la proporción y el tamaño de cada una de las muestras. Tal como sucedía en la estimación de una proporción, utilizamos 1,96 y no el valor t correspondiente.

En resumen, intervalo de confianza al 95% de la diferencia de dos proporciones:

pA-pB ± (1,96*EEDP)

Contraste de la diferencia de proporciones

El contraste de hipótesis de la diferencia de proporciones sigue la misma lógica que el de la diferencia de medias. La hipótesis nula es que no hay diferencia entre las poblaciones, como en el ejemplo que hemos planteado y, por lo tanto, πAB=0, donde πA y πB son las proporciones poblacionales. El EEDP en este caso es distinto, porque como partimos de la suposición de que las dos poblaciones tienen la misma proporción, los dos numeradores son iguales, por lo que

Formula bloque 3 4  =  Formula bloque 3 5

p lo calcularemos sumando el número de casos en las dos muestras y dividiendo el resultado por la suma de los dos tamaños de muestra. Luego dividiremos la diferencia de proporciones encontrada en las muestras, pA-pB, por el EEDP. El valor z así obtenido se corresponde en cada suma de tamaños de muestra con un nivel de error de rechazar la hipótesis nula, que es el valor p que devuelven las aplicaciones estadísticas. Si sólo partimos de la base de que las dos proporciones son diferentes utilizaremos el resultado del contraste bilateral. Si podemos especificar de antemano que una proporción sólo puede ser mayor o igual a otra, pero no menor, utilizaremos el nivel p del contraste unilateral, que es la mitad del bilateral.

Condiciones de aplicación del intervalo de confianza y el contraste de hipótesis: Al igual que en la estimación de proporciones, hemos utilizado una distribución normal para calcular el intervalo de confianza y hacer el contraste de hipótesis de una variable que en realidad sigue una distribución binomial por su carácter dicotómico (tener/ no tener el atributo). Para que esto sea lícito, deben cumplirse las siguientes condiciones:

nA*p, nA*(1-p), nB*p y nB*(1-p) ≥5

Es decir, que el producto de n por p y por (1-p) en cada muestra sea superior a 5; ya vismo el significado de esta condición en la estimación de un porcentaje.

A diferencia de las condiciones para la estimación de una proporción se trabaja directamente con las proporciones muestrales y no con los límites de sus intervalos de confianza. Si las condiciones no se cumplen, debe recurrirse a la prueba no paramétrica de Fisher, cuya interpretación explicaremos en el análisis de la asociación de dos variables categóricas.

COMPARACIÓN DE DOS PROPORCIONES PAREADAS

Supongamos que queremos estudiar la diferencia de proporciones de pacientes cuyos síntomas han mejorado después de recibir un tratamiento o un placebo. Aleatoriamente unos reciben primero el tratamiento y luego el placebo y otros al revés. Se trata de un ensayo clínico cruzado (“cross over trial”) que es un ejemplo clásico de comparación de dos proporciones en los mismos individuos. Un fragmento de una matriz de datos de un ensayo de este tipo sería:

Individuo

Secuencia

Mejora con tratamiento (T)

Mejora con placebo (P)

1

TP

No

2

TP

3

PT

No

4

PT

No

5

 ……Para saber si las proporciones de aliviados de sus síntomas son diferentes en los dos grupos no pueden usarse las mismas fórmulas que hemos empleado cuando las dos proporciones vienen de muestras distintas. El planteamiento que se hace es construir una tabla de 2×2 en la que en las celdas de ubican los pacientes según las combinaciones de éxito o fracaso de la administración del tratamiento y el placebo. Si el ensayo clínico que estamos usando como ejemplo se hubiera realizado en 30 sujetos, el resultado podría haber sido:

 

Con tratamiento NO han mejorado

Con tratamiento han mejorado

Totales

Con placebo han mejorado

9 (a)

8 (b)

17

Con placebo NO han mejorado

1 (c)

12 (d)

13

Totales

10

20

30 (n)

De esta tabla podemos calcular que de los 30 sujetos de estudio, 20 (0,67) han mejorado con el tratamiento, mientras que sólo 17 (0,57) han mejorado con el placebo. La diferencia de mejoría es del 0,1 pero, ¿podemos dar un intervalo de confianza para ese porcentaje? Sí, pero depende del número de sujetos donde la respuesta al tratamiento y al placebo han sido distintas (independientemente de cuál haya funcionado mejor):

  1. Si el número de sujetos con respuestas diferentes es mayor o igual a 20 (como en este ejemplo, donde a+d=21), se construye el intervalo de confianza al 95% con la siguiente fórmula:
    pT – pP ± 1,96 * EE
    siendo EE el error estándar correspondiente, que en este caso se calcula con:
    Formula bloque 3 6
    Siendo a, d y n los valores que aparecen en las celdas.
    En nuestro ejemplo, el intervalo de confianza al 95% sería:
    0,1±1,96 Formula bloque 3 7 = (-0,2; 0,4)
    También se puede hacer un contraste de hipótesis (prueba de McNemar), pero en este caso no se usa el EE del intervalo de confianza sino que se obtiene un valor z que se compara con los valores z de la distribución normal:
     Formula bloque 3 8
    En nuestro ejemplo: z= Formula bloque 3 9 =0,65. Que en las tablas z corresponde a un valor p de 0,516, muy lejos de la significación estadística como ya nos hacía sospechar el intervalo de confianza.
  2. Si el número de sujetos con respuestas discordantes es menor de 20 el intervalo de confianza se calcula con una fórmula especial y la prueba de significación se hace con la prueba binomial exacta (ver en el tutorial de este bloque temático).

ASOCIACIÓN ENTRE DOS VARIABLES CATEGÓRICAS: PRUEBA DE CHI CUADRADO (χ2) 

La prueba estadística para determinar si dos variables están asociadas de forma estadísticamente significativa es muy elegante. Puede emplearse para variables de cualquier número de categorías. Se basa en la construcción de una tabla de tantas filas como categorías tiene una variable y tantas columnas como categorías tiene la otra. En las celdas se ponen los individuos en los que coinciden las categorías de las dos variables.

Vamos a explicarlo con un ejemplo. Queremos saber si la distribución por colores de pelo es diferente entre dos clases de primero de primaria, o dicho de otra manera, si hay asociación entre pertenecer a una clase y tener un determinado color de pelo. Las variables son clase de pertenencia, con dos categorías 1ºA y 1ºB, y color del pelo, con 3 categorías (rubio, castaño, moreno). Nos hará falta una tabla con 2×3 celdas donde iremos colocando a los alumnos según sus características (Tabla 1). Añadimos una columna y una fila más para poner la suma de las celdas a lo ancho y alto. Estas se llaman marginales de la tabla.

 

Clase 1A

Clase 1B

 

Moreno

14

10

24

Rubio

5

8

13

Castaño

6

9

15

 

25

27

52

Tabla 1: Distribución observada de los alumnos de dos clases en función de su color del pelo.

Esto es lo que nosotros hemos observado y por eso a esta tabla se la conoce como de frecuencias observadas.

El razonamiento probabilístico es que si el color del pelo no dependiera de la clase, en cada una de ellas tendría que haber la misma proporción de colores de pelo. Podemos entonces construir una tabla de frecuencias esperadas si no hubiera asociación, a partir de la proporción general de alumnos con cada color de pelo (con datos que obtenemos en nuestro caso de las celdas marginales de la columna derecha de nuestra tabla, los totales de cada color, divididos entre el total de alumnos), y multiplicando por el número de alumnos de cada clase (marginales de la fila inferior).

Las fórmulas de cálculo, entonces, son:

 

Clase 1A

Clase 1B

 

Moreno

25×24/52

27×24/52

24

Rubio

25×13/52

27×13/52

13

Castaño

25×15/52

27×15/52

15

 

25

27

52

Tabla 2: Cálculo de la distribución esperada de los alumnos de dos clases en función de su color del pelo si no hubiera asociación entre color del pelo y clase.

Con lo que la tabla de frecuencias esperadas sería:

 

Clase 1A

Clase 1B

 

Moreno

11,5

12,5

24

Rubio

6,3

6,8

13

Castaño

7,2

7,8

15

 

25

27

52

Tabla 3: Distribución de frecuencias esperadas si no hubiera asociación entre color del pelo y clase.

Salvo por errores de redondeo, las frecuencias esperadas deben sumar a lo alto y a lo ancho lo que indican los marginales.

Ahora sólo queda comparar la tabla de frecuencias observadas y esperadas. Esto se hace restando en cada una de las 6 celdas centrales la frecuencia esperada de la observada, elevando al cuadrado esta resta y dividiendo el resultado por la frecuencia esperada.

Es decir, estamos dando a la diferencia entre frecuencias reales y esperadas un valor relativo, al dividirlas por la frecuencia esperada.

Después se suma el resultado de estas operaciones en las 6 celdas. El estadístico así obtenido se compara con la tabla de la distribución χ2 (chi o ji cuadrado).

El valor correspondiente del estadístico χ2 se busca en la fila correspondiente a los grados de libertad. En este caso, los grados de libertad se calculan con el producto (nº filas-1)*(nº columnas-1). Esto es así porque al construir una tabla de este tipo, las únicas celdas que no están predeterminadas (términos realmente libres) son (nº filas-1)*(nº columnas-1). El resto se pueden rellenar a partir de éstas y delos marginales.

En nuestro ejemplo, los grados de libertad son (3-1)*(2-1)=2. Se puede comprobar que conociendo los marginales, con saber el número de morenos y rubios que hay en 1ºA se puede rellenar toda la tabla, mostrándonos claramente el sentido del concepto de grados de libertad

Si el estadístico que hemos obtenido supera los valores que vienen en esa tabla para distintas probabilidades de error (p<0,05, p<0,01, p<0,001), podremos decir que existe una asociación entre las dos variables con ese nivel de error. Las aplicaciones estadísticas dan el valor del estadístico χ2 obtenido y su nivel de significación.

Como todas las pruebas estadísticas, la prueba de χ2 tiene unos requerimientos para poderse aplicar. Estos son que ninguna de las frecuencias esperadas sea menor de 1 y que menos del 20% de las celdas centrales tengan frecuencias esperadas menores de 5. Si no se cumplen estas exigencias y la tabla tiene más de dos filas y/o más de dos columnas, se pueden juntar las filas o columnas donde haya frecuencias esperadas bajas con las adyacentes. Si después de haber unido filas y columnas se ha llegado a una tabla de dos filas y dos columnas y siguen sin cumplirse los requerimientos, será necesario utilizar la prueba no paramétrica de Fisher. No vamos a explicar su funcionamiento aquí. Basta con saber que se interpreta igual que la prueba de χ2.

Como hemos dicho, la χ2 sirve para valorar la asociación de dos variables cualitativas, independientemente del número de categorías que tenga cada una. Cuando las dos variables tienen dos categorías (es decir, son dicotómicas), se obtiene una tabla de 2×2.

Imaginemos que una de las variables es tener hipercolesterolemia o no y la otra el sexo. Podremos calcular en la tabla las proporciones de hipercolesterolémicos en ambos sexos y luego compararlas para ver si son iguales. Estaríamos haciendo un contraste de dos proporciones independientes, que ya conocemos. Si el contraste fuera significativo, lo lógico es que la prueba χ2 también lo fuera. En efecto, el nivel de significación de un contraste de este tipo y una prueba de χ2 es el mismo. De hecho, el valor de z es la raíz cuadrada del valor de χ2.

Por lo tanto hacer una prueba de χ2 en una tabla de 2×2 es otra forma de hacer un contraste de hipótesis de dos proporciones independientes.

Fuerza de la asociación

Vamos a hacer un experimento. Como calcularemos en el tutorial de este módulo, el valor de χ2 para el ejemplo de asociación de color de pelo y clase de pertenencia es 1,88. Supongamos ahora que doblamos el número de individuos en cada una de las celdas centrales. Las proporciones de colores de pelo en cada clase permanecerán iguales. Por lo tanto, el grado o fuerza de la asociación entre las variables color de pelo y clase no habrá variado.

Lo lógico sería esperar que el valor de χ2 tampoco cambiara. Sin embargo, el nuevo valor es de 3,77. Es decir, como toda buena prueba estadística, la de χ2 tiene en cuenta el tamaño de la muestra para establecer si una asociación es significativa, pero por eso mismo no sirve para establecer si la fuerza de la asociación entre variables encontrada en dos o más experimentos es la misma. Para ello han de utilizarse otros índices.

Hagamos otro experimento. Comparemos con placebo dos tratamientos, A y B. La medida del efecto la hacemos con una variable categórica con las posibilidades “mejoría”, “sin cambios” y “empeoramiento”, con sus correspondientes códigos. La variable tratamiento también está codificada. Las tablas de contingencia con los resultados son estas:

 

Placebo (código 1)

Tratamiento A (código 2)

Empeoramiento (código 1)

6

4

Sin cambios (código 2)

38

12

Mejoría (código 3)

6

34

 

50

50

 

 

Placebo (código 1)

Tratamiento B (código 2)

Empeoramiento (código 1)

6

34

Sin cambios (código 2)

38

12

Mejoría (código 3)

6

4

 

50

50

Las dos tablas ofrecen el mismo valor de χ2:33,53 (p<0,001). Pero los efectos de los tratamientos son bien distintos. Mientras con el A hay una gran proporción de pacientes que mejoran respecto a placebo, con el B hay una gran proporción que empeoran. Es evidente que necesitamos algún indicador que maneje la información de que no todas las categorías de respuesta son equivalentes porque tienen un orden.

Índices para variables nominales

Se usan cuando ninguna de las dos variables es ordinal. Hay varios. Los que usa la aplicación estadística que estamos usando en este curso son:

    1. Índices derivados de χ2. Lo que buscan es disminuir la dependencia de este estadístico del tamaño de la muestra y obtener un valor entre 0 (ausencia de asociación) y 1 (fuerza de asociación máxima) que pueda compararse entre distintos experimentos.

      Se utilizan cuando la relación entre las variables es simétrica, es decir, no hay una variable que anteceda a otra, como en el ejemplo de clase de pertenencia y color del pelo.

 

      • Coeficiente de contingencia: Su fórmula es:

Formula bloque 3 9a

Su limitación es que no puede alcanzar el valor máximo de 1.

 

      • V de Cramer:

Formula bloque 3 9b

donde k es el menor del número de filas o de columnas. Corrige la limitación del anterior y puede alcanzar la unidad.

    1. Índices para variables asimétricas. No modifican el valor de χ2, sino que calculan cuanto error reduciríamos si, al predecir a qué categoría pertenece un individuo, utilizáramos la información de las dos variables de la tabla en lugar de sólo una de ellas. Se utilizan cuando se considera que una variable es independiente y la otra dependiente, como cuando por ejemplo una es la aplicación o no de un tratamiento y otra su resultado (no se utilizaría en el ejemplo de arriba porque no tiene en cuenta si alguna de las variables es ordinal o no). Entre ellos se encuentra la Tau de Goodman y Kruskal, que también toma valores entre 0 (ausencia de asociación) y 1 (fuerza de la asociación máxima).

Índices para variables ordinales

Se utilizan cuando una (el ejemplo que hemos visto de tratamientos y placebo) o las dos lo son:

      1. Prueba de tendencia lineal: Utiliza los códigos de las variables (1,2, etc.) como si fueran variables cuantitativas y calcula la correlación entre las dos variables con el coeficiente de correlación de Spearman. Lo veremos con más detalle en un próximo tutorial, pero podemos adelantar que lo que mide este coeficiente es si al aumentar los valores (códigos) de una variable, los de otra aumentan (con lo que tomaría valores positivos, siendo el máximo 1), disminuyen (con lo que tomaría valores negativos, siendo el más negativo posible -1) o no varían (con lo que tomaría un valor en torno a 0).

        Sobre este coeficiente se puede hacer una prueba de significación. Por lo tanto, al interpretar el resultado veremos primero si el coeficiente es significativo y luego el signo, para saber si los valores con códigos más altos de una variable se asocian con los valores con códigos más altos de otra (asociación positiva) o con códigos más bajos (asociación negativa).

      2. Índices basados en la concordancia o discordancia de casos: Dos casos se consideran concordantes cuando tienen códigos distintos en las dos variables y cuando uno tiene un código mayor que el otro en una variable también lo tiene mayor en la otra, o cuando tiene un código menor en una también lo tiene menor en la otra. Concordantes serían los casos (placebo[1],empeoramiento[1]) y (tratamiento A[2], mejoría[3]). Son discordantes en la situación contraria: (placebo[1], mejoría[3]), (tratamiento A[2],empeoramiento[1]). Se denominan empates cuando coinciden los códigos de alguna de las variables.

        Si hay más concordancias que discordancias la relación entre las variables es positiva, cuando aumentan los códigos de una aumentan los de la otra. Si hay más discordancias que concordancias la relación es negativa: cuando aumentan los códigos de una variable disminuyen los de la otra. Todos los índices de este tipo juegan con la diferencia entre concordancias y discordancias, pero difieren en si tienen en cuenta los empates o no. Todos tienen pruebas de significación. Los índices son:

 

        • Coeficiente gamma de Goodman y Kruskal: No tiene en cuenta los empates. Puede tomar valores entre -1 (máxima asociación negativa) y 1 (máxima asociación positiva). Un valor de 0 indica ausencia de relación entre las variables.

        • Coeficiente Tau-b de Kendall: Tiene en cuenta los empates. Sólo puede alcanzar los valores máximos de -1 y 1 en tablas cuadradas (mismo número de filas que columnas).

        • Coeficiente Tau-c de Stuart: Tiene en cuenta los empates y puede alcanzar los valores máximos incluso en tablas no cuadradas.

        • Coeficiente d de Sommers: Se utiliza cuando las variables son asimétricas, como ocurría con la Tau de Goodman y Kruskal, en las variable nominales. Toma valores entre -1 y 1.

Es necesario saber que los índices de asociación de variables ordinales, incluido el de Spearman, son más potentes que la prueba de χ2. Es decir, podemos encontrarnos casos en que χ2 no sea significativa y los índices sí. En esta situación consideraríamos el resultado estadísticamente significativo.

 

Ángel Rodríguez Laso es especialista en Medicina de Familia y Comunitaria, Doctor en Medicina, Máster en Salud Pública e investigador en el Matía Instituto Gerontológico

 

 Anterior (Estimación de un porcentaje. Relación entre variables)     Siguiente (Diferencia de tres o más medias)

 

Compartir:

Deja una respuesta

¡Usamos cookies propias y de terceros para mejorar tu experiencia en esta web! Si sigues navegando, consientes y aceptas estas cookies en tu ordenador, móvil o tablet. Más información sobre las cookies y cómo cambiar su configuración en tu navegador aquí.

x