El plan de análisis debe tener en cuenta el número de variables, el número de grupos y las relaciones entre variables.
Así, el NUMERO DE VARIABLES dependerá del tipo, nivel de medida y categorías en las que se subdividen las variables.
Respecto al NUMERO DE GRUPOS, estos variarán según el tipo de estudio y objetivos planteados.
Además, hay que tener en cuenta las RELACIONES ENTRE VARIABLES, es decir, la forma en que las variables independientes conectan con las variables de resultado.
EL ANÁLISIS DE DATOS EN ABORDAJE CUANTITATIVO
Podemos clasificar los métodos estadísticos en dos grandes familias Estadística descriptiva y Estadística Inferencial.
La ESTADISTICA DESCRIPTIVA organiza y describe de forma resumida los datos obtenidos en la muestra, de forma que podamos comprenderlos y manejarlos.
Los datos se pueden trabajar en conjunto si ofrecen cierta continuidad o en forma de rangos o intervalos si los datos fuesen muy dispersos y su distribución muy irregular.
Primeramente analizaremos la frecuencia con que cada valor aparece en los sujetos de la muestra. Así tenemos:
- Frecuencia absoluta, correspondiente al número de personas que tienen una característica.
- Frecuencia relativa, producto de dividir la frecuencia absoluta por el total de la muestra.
Dentro de los criterios estadísticos descriptivos, la centralidad y la dispersión tienen suma importancia por su utilidad para comparar muestras. Los criterios estadísticos de centralidad son valores que tienden a situarse en el centro del conjunto de datos, ordenados respecto a su magnitud. Pueden ser de tamaño, como en el caso de las diversas medias, de posición, como en el caso de la mediana, cuartiles, deciles y percentiles o de frecuencia, como en el caso de la moda. Que estos valores coincidan o no nos informa ya sobre la forma de la distribución y su simetría.
Respecto a la dispersión, nos permite conocer si los datos de cada variable están más o menos agrupados.
Otros criterios estadísticos descriptivos son:
- El recorrido o Rango, que marca los límites de la muestra para la variable en cuestión.
- La Desviación media. Es la media aritmética de las desviaciones de cada valor de la muestra respecto a la media de la misma.
- La Varianza. De cada valor de la muestra se halla su desviación respecto a la media, se eleva al cuadrado y se halla la media. Se denomina como S2.
- La Desviación típica. Es la raíz cuadrada de la varianza y expresa la medida de dispersión de los valores alrededor de su valor central. En un informe de investigación, salvo que la muestra no se ajuste a lo que se llama “distribución normal” siempre que se exprese un valor medio de la muestra se acompañará de su desviación típica.
- El Coeficiente de variación es la relación entre la desviación típica y la media y nos da una medida de dispersión relativa.
- La Distribución normal, conocida también como CAMPANA DE GAUSS es la forma de distribución de una gran mayoría de los valores de variables biológicas en las que media, moda y mediana coinciden y una mayoría (63%) de los valores se hallan dentro de la desviación típica y casi todos (95%) dentro de 2 desviaciones típicas.
- La Significación estadística nos ayuda a aseverar que las relaciones observadas entre las variables son ciertas y no debidas al azar se la representa como “p”. El límite para tal afirmación está relacionado con el llamado NIVEL DE CONFIANZA que predeterminamos para nuestro estudio (generalmente un 95%).
Respecto a la ESTADÍSTICA INFERENCIAL, las pruebas estadísticas más frecuentemente utilizadas en el análisis entre dos variables son:
- El test de la T de Student es una prueba paramétrica usada en variables cuantitativas con muestras de más de 30 sujetos N>30.
- El test de CHI-CUADRADO (X2), es una prueba no paramétrica usada en variables cualitativas y en las cuantitativas con menos de 30 sujetos N<30.
Estas pruebas nos permitirán aseverar si existe alguna relación entre las variables pero NO si existe una causalidad. El análisis multivariante se realiza cuando encontramos que 2 o más variables independientes se relacionan con una misma variable dependiente.
Para poder extrapolar los datos hallados en un estudio sobre una muestra a una población debemos calcular el conocido como INTERVALO DE CONFIANZA o IC. Cuando estamos ante datos cualitativos, se habla de IC de proporción o error estándar de la proporción, mientas que para datos cuantitativos se habla de IC de media o error estándar de la media. El IC permite evaluar la precisión con que el parámetro para la población ha sido estimado.
Los principales ERRORES SISTEMÁTICOS son:
- Sesgo de selección. Se da cuando la inclusión de sujetos en los grupos se hace con diferentes métodos.
- Sesgo de seguimiento. Los grupos no son seguidos de igual forma y hay pérdidas no debidas al azar.
- Sesgo de información. No se aplica el mismo procedimiento en todos los grupos del estudio.
- Sesgo de confusión. Producido por una variable independiente asociada a un factor de riesgo o exposición que lo potencia.
El Error Aleatorio se produce cuando debido a la variabilidad de los datos, se ve afectada la precisión y fiabilidad del estudio, tanto por falsos positivos (error tipo I o alfa), como por faltos negativos (error tipo II o beta).
El Error de Inferencia se debe a una mala interpretación de las conclusiones, bien porque la muestra no fuese representativa de la población o porque la inferencia se realiza a una población en la que la muestra no está incluida.
EL ANÁLISIS DE DATOS EN ABORDAJE CUALITATIVO
En primer lugar, los discursos han de ser trascritos, organizados y estructurados, creando categorías para buscar patrones. No sólo se busca conocer la experiencia del sujeto, sino la situación y el ambiente. No se trata de un análisis secuencial al uso, si no que cada fuente de datos es analizado en sí mismo y tampoco se realiza longitudinalmente, sino que sigue un esquema espiral “abriendo” la óptica desde el sujeto hasta la comunidad.
El análisis de datos en metodología cualitativa exige un registro exhaustivo de los pasos seguidos y su justificación.
La trascripción no es un apartado mecánico de la toma de datos, sino que es parte del análisis y tras la misma se inicia un primer proceso de codificación extrayendo categorías de los discursos. Estas categorías elementales luego serán integradas en categorías superiores.
Posteriormente cada categoría ha de ser descrita y colocada en el fenómeno estudiado, analizándose su significado para los sujetos y valorando su importancia y las relaciones entre las distintas categorías.
En algunos planteamientos, la estructura de categorías viene planteada a priori y ya ha tenido presencia en la toma de datos (entrevista estructurada, grupo focal).
Como ya comentamos en ciertas técnicas cualitativas, los investigadores comparten sus impresiones y las contrastan triangulando sus datos o teorías para alcanzar mayor validez en sus conclusiones.
LA DISCUSIÓN
La discusión es la interpretación de los hallazgos a la luz del estado de los conocimientos existentes, la metodología de nuestro estudio, sus resultados, su alcance y sus limitaciones. Se realizan comparaciones con los estudios previos y se exponen nuestras especulaciones sobre el tema.
Se deben dar explicaciones válidas y significativas explicando las limitaciones y sesgos del estudio y las repercusiones de los datos nulos y las pérdidas de seguimiento. Se dará interpretación a los datos en relación con los conocimientos precedentes, explicando las concordancias o discordancias con argumentos, pero sin repetir los datos ni la información ya incluida en la introducción.
