Análisis de consistencia interna mediante el modelo Alfa de Cronbach.

Dentro de la Teoría Clásica de los Tests (TCT) el método de consistencia interna es el camino más habitual para estimar la fiabilidad de pruebas, escalas o test, cuando se utilizan conjuntos de ítems o reactivos que se espera midan el mismo atributo o campo de contenido. La principal ventaja de ese método es que solamente requiere una administración de la prueba; además, los principales coeficientes de estimación basados en este enfoque son sencillos de computar y están disponibles como opción de análisis en los programas estadísticos más conocidos.

Dentro de esta categoría de coeficientes, Alfa de Cronbach es, sin duda, el más utilizado por los investigadores. Alfa estima el límite inferior del coeficiente de fiabilidad.

Dentro de la Teoría Clásica de los Tests (TCT) el método de consistencia interna es el camino más habitual para estimar la fiabilidad de pruebas, escalas o test, cuando se utilizan conjuntos de ítems o reactivos que se espera midan el mismo atributo o campo de contenido. La principal ventaja de ese método es que solamente requiere una administración de la prueba; además, los principales coeficientes de estimación basados en este enfoque son sencillos de computar y están disponibles como opción de análisis en los programas estadísticos más conocidos.

Dentro de esta categoría de coeficientes, Alfa de Cronbach es, sin duda, el más utilizado por los investigadores. Alfa estima el límite inferior del coeficiente de fiabilidad.

Alfa de Cronbach en los programas estadísticos convencionales.

Además del permanente interés teórico que el coeficiente ha despertado entre los especialistas, en la práctica, su uso se ha extendido ampliamente entre los investigadores. Por tal razón, se han desarrollado herramientas que permiten realizar el análisis de forma automatizada, existen gran variedad de programas informáticos que incluyen el cálculo estadístico de ítems, variables, descriptivos, validez y confiabilidad entre sus opciones de análisis. Dentro del software disponible, los programas más utilizados son los denominados “paquetes estadísticos de propósitos múltiples”, como SPSS, Statistics o SAS.

La ventaja de estos programas es que pueden utilizarse para desarrollar procesos completos de gestión y tratamiento de datos, proporcionando al investigador una amplia gama de métodos, modelos y herramientas de análisis. No obstante, también pueden señalarse algunas limitaciones en este tipo de software. En primer lugar, se trata de productos comerciales, por lo que se plantean ciertas limitaciones de acceso para aquellos usuarios o instituciones que disponen de recursos económicos limitados o escasos.

En segundo lugar, el diseño lineal de los programas (input-análisis-output) conlleva ciertas dificultades en la ejecución de determinadas tareas de análisis. Este punto es importante, ya que los procesos interactivos son algo común en la dinámica del análisis psicométrico. Por ejemplo, cuando se realizan comparaciones sucesivas de escalas basadas en subconjuntos de ítems, sea para maximizar la fiabilidad o reducir la longitud de la prueba. En los programas disponibles, cada “ciclo” supone la ejecución completa de un nuevo análisis, lo cual hace más lenta la ejecución de la tarea y dificulta la interpretación y comparación de resultados.

Por último, los programas convencionales sólo proporcionan, para estos análisis, salidas numéricas en formato texto (listado). Cuando se trabaja con pruebas extensas, estas salidas pueden ser excesivamente largas y difíciles de interpretar. Además, en momentos exploratorios, puede ser importante interpretar los índices o resúmenes estadísticos sin perder en ese proceso otros detalles de la información, como las distribuciones empíricas de los ítems o los patrones de respuesta de los sujetos. En todo caso, mediante salidas numéricas, resultará difícil lograr el equilibrio necesario entre resumir y perder información (Behrens & Yu, 1994).