La estadística nos ayuda a hacer inferencias. Una inferencia es una generalización que se hace acerca de una población a partir del estudio de un subconjunto o muestra de esa población.
De forma general se distinguen dos grandes categorías de métodos de inferencia:
- Métodos para estimación de parámetros poblacionales, que puede ser puntual o por intervalos.
- Métodos para contraste de hipótesis.
1. ERROR ESTÁNDAR
El error estándar (EE) es una medida estadística acerca de la probabilidad de que el resultado en la muestra refleje el resultado de la población. El error estándar depende de dos factores, el tamaño de la muestra y las variaciones de las mediciones en la muestra, indicadas por la desviación estándar.
2. PRUEBA DEL CONTRASTE DE HIPÓTESIS
El objetivo del contraste de hipótesis es permitir generalizaciones de los resultados de nuestra muestra a la población de la que procede. Cuando el resultado de un estudio, en el que se comparan varias alternativas, muestra diferencias, el siguiente paso es estimar si dichas diferencias corresponden a diferencias reales en la población o pueden ser explicadas por azar.
El contraste de hipótesis se plantea habitualmente bajo el supuesto de 2 hipótesis contrapuestas, una hipótesis nula conservadora que sostiene la ausencia de diferencias (por ejemplo el porcentaje de curación con el nuevo tratamiento es igual al que se obtiene con un tratamiento clásico), frente a una hipótesis alternativa novedosa que defiende la existencia de diferencias (por ejemplo el porcentaje de curación con el nuevo tratamiento es mayor). Para poder aceptar la hipótesis alternativa debe rechazarse la hipótesis nula, lo cual se consigue cuando la diferencia o efecto encontrado en el estudio no parece debido al azar.
Diversos procedimientos estadísticos (basados en los datos del estudio y en el tamaño muestral) nos permiten calcular la probabilidad de que dicho resultado se produzca por azar. Por convención, si esta probabilidad es menor del 5% (p<0,05) se considera que no se debe al azar, en ese caso se rechaza la hipótesis nula y se acepta la alternativa. En los programas informáticos (SPSS, Epi Info, EPIDAT, etc.) en el resultado aparecerá que p < 0.05 o 0.01, es decir, la diferencia es estadísticamente significativa y no se debe al azar.
Si la probabilidad de que los resultados sean debidos al azar es mayor (p≥0,05), en estos casos el contraste de hipótesis no permite rechazar la hipótesis nula. En la mayoría de los programas informáticos en el resultado aparecerá p > 0.05 o 0.01, la diferencia no es estadísticamente significativa.
3. PROBABILIDAD, SIGNIFICACIÓN ESTADÍSTICA E INTERVALOS DE CONFIANZA
3.1. PROBABILIDAD
En la ciencia no hay ninguna certidumbre, hay probabilidades.
No podemos eliminar esta probabilidad de error, sin embargo, la estadística analítica puede darnos un cálculo de su magnitud. La probabilidad de cometer un error depende del tamaño de la muestra estudiada para probar la hipótesis de nulidad.
3.2. SIGNIFICACIÓN ESTADÍSTICA
Una prueba de significación estadística calcula la probabilidad de que un resultado observado de un estudio, por ejemplo, una diferencia entre dos grupos o una asociación, se deba al azar y por consiguiente, de que no pueda obtenerse ninguna inferencia del mismo.
Que una diferencia tenga la probabilidad de ser real y no debida al azar se basa en gran parte en tres criterios:
- Magnitud de la diferencia observada.
- Grado de variaciones de los valores obtenidos en el estudio.
- Tamaño de la muestra estudiada.
3.3. INTERVALOS DE CONFIANZA
El IC proporciona un intervalo de posibilidades correspondiente al valor de la población y nos permite calcular si las pruebas obtenidas en el estudio son robustas o débiles, y si el estudio es definitivo o se precisarán otros. Si el intervalo de confianza es estrecho, las pruebas obtenidas serán robustas. Un estadístico puede calcular los intervalos de confianza del resultado de casi cualquier prueba estadística.
En general, cuando un IC de 95% contiene una diferencia igual a cero, significa que no es posible rechazar la hipótesis de nulidad en el nivel de 5%.
4. TIPOS DE PRUEBAS DE CONTRASTE DE HIPÓTESIS
Las pruebas de contraste de hipótesis se pueden clasificar en tres tipos según el problema que planteen:
- Pruebas de conformidad.
- Pruebas de homogeneidad.
- Pruebas de relación o de independencia.
Las pruebas de hipótesis también se pueden clasificar en función de la distribución que siguen las variables estudiadas o los estadísticos utilizados. Se diferencian dos tipos de pruebas:
- Pruebas paramétricas.
- Pruebas no paramétricas.
4.1. COMPARACIÓN DE PROPORCIONES. PRUEBA DE JHI CUADRADO.
Para estudiar la relación entre dos variables cualitativas o categóricas se utiliza la prueba de la Jhi cuadrado o Chi cuadrado.
4.2. COMPARACIÓN DE MEDIAS. PRUEBA T DE STUDENT Y ANÁLISIS DE LA VARIANZA.
Las pruebas de comparación de medias estudian la relación entre una variable categórica y una variable cuantitativa. Las pruebas utilizadas son la t de Student, cuando la variable cualitativa o categórica tiene dos categorías, y el análisis de la varianza (ANOVA), si la variable categórica posee más de dos categorías.
4.3. ESTUDIO DE LA RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS. CORRELACIÓN Y REGRESIÓN.
Existen dos tipos de análisis para estudiar la relación entre dos variables cuantitativas: la correlación y la regresión lineal.
4.4. ANÁLISIS DE DATOS APAREADOS
Los datos apareados son aquéllos en los que la misma variable se mide antes y después de una intervención.
Las pruebas estadísticas utilizadas son la prueba de McNemar (comparación de proporciones), la prueba t de Student para datos apareados y el índice kappa (para valorar la concordancia en estudios de reproducibilidad).
4.5. PRUEBAS NO PARAMÉTRICAS
Se llaman pruebas no paramétricas aquellas pruebas cuyas hipótesis se formulan independientemente de las distribuciones de probabilidad que sigan las variables, es decir, las variables no cumplen las condiciones de aplicación de las pruebas paramétricas clásicas.
4.6. ANÁLISIS MULTIVARIANTE
En la investigación no experimental se utilizan técnicas estadísticas que permiten controlar el efecto de otras variables que pudiesen enmascarar una relación causa-efecto. Las herramientas fundamentales para el análisis multivariante son la regresión múltiple y la regresión logística.
