Tema 6. Estadística inferencial.


6.1 ESTADÍSTICA INFERENCIAL

Los investigadores deberán interrogarse si los resultados del estudio podrían generalizarse más allá del tamaño relativamente pequeño de la muestra estudiada. Esto se denomina validez o capacidad de generalización externa.

La estadística nos ayuda a hacer inferencias. Una inferencia es una generalización que se hace acerca de una población a partir del estudio de un subconjunto o muestra de esa población. Una población contiene normalmente demasiados individuos para estudiarlos con comodidad, muchas veces, la investigación está restringida a una o más muestras extraídas de ella. Debe recalcarse que si la muestra de estudio no es representativa de la población, la inferencia que nosotros obtenemos del resultado será engañosa. La estadística analítica no será de ninguna utilidad si la muestra no es representativa. La estadística analítica no puede corregir nuestros errores en el diseño del estudio.

6.2 ERROR ESTÁNDAR

El error estándar (EE) es una medida estadística acerca de la probabilidad de que el resultado en la muestra refleje el resultado de la población. El error estándar depende de dos factores, el tamaño de la muestra y las variaciones de las mediciones en la muestra, indicadas por la desviación estándar. Por ejemplo, el error estándar de una media se calcula como la desviación estándar dividida entre la raíz cuadrada del número de observaciones. 

6.3 PRUEBA DEL CONTRASTE DE HIPÓTESIS

El objetivo del contraste de hipótesis es permitir generalizaciones de los resultados de nuestra muestra a la población de la que procede. Cuando el resultado de un estudio, en el que se comparan varias alternativas, muestra diferencias, el siguiente paso es estimar si dichas diferencias corresponden a diferencias reales en la población o pueden ser explicadas por azar.

Si la probabilidad de que el resultado obtenido se deba al azar es muy baja, podremos asumir que corresponda a una diferencia real en la población, aunque siempre existirá una cierta probabilidad de error. Esta probabilidad será tanto más baja cuanto mayor sea la diferencia encontrada y más grande el tamaño muestral.

6.4 PROBABILIDAD, SIGNIFICACIÓN ESTADÍSTICA E INTERVALOS DE CONFIANZA

6.4.1 Probabilidad

En la ciencia no hay ninguna certidumbre, hay probabilidades. Lo que es cierto acerca de la ciencia es la incertidumbre. En la metodología científica, tratamos de reducir al mínimo la probabilidad de encontrar una asociación cuando en realidad no existe ninguna, y de reducir al mínimo la probabilidad de pasar por alto u omitir una asociación cuando en realidad sí existe.

6.4.2 Significación estadística

Las pruebas de significación estadística se basan en la lógica y en el sentido común.

Una prueba de significación estadística calcula la probabilidad de que un resultado observado de un estudio, por ejemplo, una diferencia entre dos grupos o una asociación se deba al azar y por consiguiente, de que no pueda obtenerse ninguna inferencia del mismo. 

6.4.3 Intervalos de confianza

La significación estadística del resultado nos da una indicación de que era improbable que la diferencia se explicara por el azar. Sin embargo, no nos da una indicación de la magnitud de esa diferencia en la población a partir de la cual se estudió la muestra. Para ello, se ha creado el concepto de intervalo de confianza (IC).

El IC proporciona un intervalo de posibilidades correspondiente al valor de la población y nos permite calcular si las pruebas obtenidas en el estudio son robustas o débiles, y si el estudio es definitivo o se precisarán otros. Si el intervalo de confianza es estrecho, las pruebas obtenidas serán robustas. Un estadístico puede calcular los intervalos de confianza del resultado de casi cualquier prueba estadística.

6.5 TIPOS DE PRUEBAS DE CONTRASTE DE HIPÓTESIS

Las pruebas de contraste de hipótesis se pueden clasificar en tres tipos según el problema que planteen:

  • Pruebas de conformidad; 
  • Pruebas de homogeneidad; 
  • Pruebas de relación o de independencia; 

Las pruebas de hipótesis también se pueden clasificar en función de la dis­tribución que siguen las variables estudiadas o los estadísticos utilizados. Se diferencian dos tipos de pruebas:

  • Pruebas paramétricas
  • Pruebas no paramétricas

6.5.1 Comparación de proporciones. Prueba de Jhi cuadrado

Para estudiar la relación entre dos variables cualitativas o categóricas se utiliza la prueba de la Jhi cuadrado o Chi cuadrado.

6.5.2 Comparación de medias. Prueba t de student y análisis de la varianza

Las pruebas de comparación de medias estudian la relación entre una va­riable categórica y una variable cuantitativa. Las pruebas utilizadas son:

  • la t de Student, cuando la variable cualitativa o categórica tiene dos catego­rías
  • el análisis de la varianza (ANOVA), si la variable categórica posee más de dos categorías.

6.5.3 Estudio de la relación entre dos variables cuantitativas. Correlación y regresión

Existen dos tipos de análisis para estudiar la relación entre dos variables cuantitativas: la correlación y la regresión lineal.

6.5.4 Análisis de datos apareados

Los datos apareados son aquéllos en los que la misma variable se mide antes y después de una intervención.

Las pruebas estadísticas utilizadas son la prueba de McNe­mar (comparación de proporciones), la prueba t de Student para datos apareados y el índice kappa (para valorar la concordancia en estudios de reproducibilidad).

6.5.5 Pruebas no paramétricas

Se llaman pruebas no paramétricas aquellas pruebas cuyas hipótesis se formulan independientemente de las distribuciones de probabilidad que sigan las variables, es decir, las variables no cumplen las condiciones de aplicación de las pruebas paramétricas clásicas.

Algunas pruebas no paramétricas se describen en los ejemplos siguientes:

  • U Mann Whitney.
  • T de Wilcoxon.
  • Kruskal Wallis.
  • Friedman.
  • Coeficiente de correlación de Spearman.

6.5.6 Análisis multivariante

En la investigación no experimental se utilizan técnicas estadísticas que permiten controlar el efecto de otras variables que pudie­sen enmascarar una relación causa-efecto. Las herramientas fundamentales para el análisis multivariante son la regresión múltiple y la re­gresión logística.