Estadística Aplicada: Interpretación de Modelos y Pruebas Clave

Regresión Lineal Simple

Correlación (R) y Coeficiente Beta (Estandarizado)

Existe una correlación alta, positiva y significativa (p < 0.05) entre la Variable Independiente (VI) y la Variable Dependiente (VD). Esto indica que a mayor ___, mayor ___.

Coeficiente de Determinación (R²)

Existe una correlación alta, positiva y significativa (p < 0.05) entre la VI y la VD, la cual explica el 51.9% de la varianza total del modelo.

Estadístico Durbin-Watson

Evalúa la independencia de los errores. Un valor cercano a 2 indica independencia. Valores cercanos a 0 sugieren autocorrelación positiva, y valores cercanos a 4 sugieren autocorrelación negativa.

ANOVA (Bondad de Ajuste del Modelo)

El modelo de regresión se ajusta significativamente a los datos, con un valor F de 281.55.

Coeficiente B (No Estandarizado)

Indica el cambio en la variable dependiente (Y) por cada unidad de cambio en la variable independiente (X). Por ejemplo, ‘el tener apertura tiene ___ puntos más que el no tener apertura’. O, ‘cuando X cambia en una unidad, Y cambia en 48.56 unidades’.

Gráfico de Dispersión (Scatterplot)

Permite visualizar supuestos clave:

  • Homocedasticidad: Los residuos se distribuyen de manera uniforme alrededor de la línea de regresión (nube de puntos sin patrón, similar a ‘líneas paralelas’ imaginarias).
  • Independencia de los errores: Los residuos no muestran patrones sistemáticos (nube de puntos aleatoria).
  • Normalidad de los errores: La mayoría de los puntos se encuentran entre -2 y 2 desviaciones estándar.

Gráfico P-P (Probability-Probability Plot)

Evalúa la normalidad de la distribución de los residuos. Los puntos deben seguir una línea diagonal.

Prueba de Normalidad de Kolmogorov-Smirnov

Si la significancia (p-valor) es mayor a 0.05, indica que no hay diferencias significativas con una distribución normal. El valor del estadístico Kolmogorov-Smirnov Z es de ___.

Regresión Lineal Múltiple

Coeficiente de Correlación Múltiple (R)

Representa la correlación entre el conjunto de variables predictoras (VI) y la variable predicha (VD). Existe una correlación alta, positiva y significativa (p < 0.05) de ___ entre la mejor combinación lineal de las VI y la VD.

Coeficiente de Determinación Múltiple (R²)

Indica el porcentaje de la varianza total de la VD que es explicada por el conjunto de las VI. Existe una correlación alta, positiva y significativa (p < 0.05) de ___ entre las VI y la VD, que explica el ___% de la varianza total del modelo.

Otros Supuestos y Estadísticos

Los demás supuestos y estadísticos (Durbin-Watson, ANOVA, Coeficientes B, Scatterplot, P-P Plot, Kolmogorov-Smirnov) se interpretan de manera similar a la Regresión Lineal Simple.

Interpretación de Coeficientes Específicos

  • R
  • Beta
  • X.Y.Z.20: No significativo
  • .8: Significativo
  • Variable Supresora: Coeficiente de +0.3
  • Coeficiente: -0.28
  • Variable Supresora
  • .8: Significativo
  • .2: No significativo
  • Variable Explicativa: Coeficiente de 0.20
  • Coeficiente: 0.22
  • S.E. (Error Estándar)

Métodos de Selección de Variables

Selección Hacia Adelante (Stepwise Forward)

  • Se añaden variables una a una, comenzando por la más significativa hasta la menos significativa. Es útil para modelos con pocas variables.

Diagnóstico de Multicolinealidad

  • Tolerancia: Debe ser mayor a 0.6 para indicar la ausencia de multicolinealidad.
  • VIF (Factor de Inflación de la Varianza): Valores menores a 1.6 (o comúnmente < 5 o < 10) sugieren ausencia de multicolinealidad.

Otros Aspectos

Los demás aspectos se interpretan de manera similar a la Regresión Lineal Simple.

Selección Hacia Atrás (Stepwise Backward)

  • Se eliminan variables una a una, comenzando por las menos significativas. Es útil cuando hay muchas variables no significativas, o cuando se busca un modelo parsimonioso. Después de la selección, se deben revisar los supuestos de tolerancia y VIF, así como los gráficos P-P Plot y Scatterplot.

Regresión Jerárquica

  • Se analizan los cambios en el R² (ΔR²) en cada paso, indicando las variables que se introducen en cada uno. Se concluye el porcentaje de varianza total explicada por el conjunto de variables en cada paso. Por ejemplo: «En el Paso 2, las variables edad, género, estado marital, educación, antigüedad en la organización y negatividad afectiva explican el 8% de la varianza total, siendo este incremento significativo (p < 0.05).»

Análisis de Función Discriminante

Prueba M de Box

  • Evalúa la igualdad de las matrices de covarianza entre los grupos. Para cumplir el supuesto, la prueba no debe ser significativa (p > 0.05). Ejemplo: «La M de Box de 54.3 fue significativa (F = 1.785, p = 0.007), lo que indica que no se cumple el supuesto de igualdad de las matrices de covarianza

Eigenvalores (Autovalores)

  • Indican la cantidad de varianza explicada por cada función discriminante. Se interpreta la correlación canónica asociada, su magnitud (positiva/negativa) y su significancia (p < 0.05).

Lambda de Wilks

  • Indica la proporción de varianza no explicada por las funciones discriminantes. Un valor bajo sugiere una buena discriminación. Ejemplo: «La Función 1 deja de explicar el 66.1% de la varianza total

Matriz de Estructura (Cargas Factoriales)

  • Muestra la correlación entre cada variable predictora y cada función discriminante. Se identifican las variables con cargas más altas (criterio común: cargas > 0.3), indicando su dirección (positiva/negativa) y magnitud. Conclusión ejemplo: «Esto indica que a mayor edad, mayor creencia, presencia de diabetes tipo II y menor cuidado, se asocia con un mayor porcentaje en la Función ___.»

Centroides de Grupo

  • Representan la media de las puntuaciones de la función discriminante para cada grupo. Permiten visualizar la separación entre grupos. Ejemplo: «Se presentan los centroides para la presencia de otras enfermedades (sí/no). La hipótesis es que un mayor puntaje en la Función 1 se asocia con la presencia de enfermedades. Se observa que el Centroide 1 (sí) es 0.457 y el Centroide 2 (no) es -0.420, lo que indica que el conjunto de variables permite discriminar eficazmente entre los grupos

Análisis Factorial Exploratorio

Medida de Adecuación Muestral de Kaiser-Meyer-Olkin (KMO)

  • Evalúa la adecuación de la muestra para el análisis factorial. Un valor de KMO mayor o igual a 0.5 (idealmente cercano a 1) es deseable. Ejemplo: «El KMO fue de 0.887, lo que indica una adecuación excelente de la muestra para el análisis factorial.»

Prueba de Esfericidad de Bartlett

  • Evalúa si las variables están correlacionadas lo suficiente como para justificar un análisis factorial. Un valor de significancia (p-valor) cercano a 0.000 (es decir, p < 0.05) indica que las correlaciones entre las variables son significativas y que el análisis factorial es apropiado. Ejemplo: «La prueba de Esfericidad de Bartlett fue significativa (p = 0.000), lo que indica la presencia de correlaciones significativas entre las variables y el cumplimiento de este supuesto.»

Gráfico de Sedimentación (Scree Plot)

  • Ayuda a determinar el número óptimo de factores a retener, buscando el «codo» en el gráfico. Ejemplo: «El Scree Plot sugiere la extracción de ___ factores, los cuales explican el 23.575% de la varianza total


Prueba Chi-Cuadrado (χ²)

  • Evalúa la asociación entre dos variables categóricas. Ejemplo: «Existe una asociación moderada entre las variables, en el sentido de que la Variable Dependiente (VD) depende de la Variable Independiente (VI).»

9ELSkmTi8nTnofEwAqBCWLRCFLHE4rGBFMJCkiEA

  • El valor del estadístico Chi-Cuadrado es X² = sIeJQ4zArZt0dpJPv0aSnZJiZMORpqG9dH9Kq1sg . Para la interpretación de las celdas, se suele usar el criterio del 10% para los residuos estandarizados ajustados.

Análisis de Ruta (Path Analysis)

Efecto Directo

  • Representa la influencia directa de una variable sobre otra, interpretándose de manera similar a un coeficiente Beta en regresión.

Efecto Indirecto

  • Representa la influencia de una variable sobre otra a través de una o más variables mediadoras. Se calcula multiplicando los coeficientes Beta a lo largo de cada ruta indirecta y sumando los resultados de las distintas rutas. Ejemplo: «El efecto indirecto entre la VI y la VD es bajo y positivo (0.154), mediado por la comunicación asertiva. Esto significa que a mayor [VI], mayor [variable mediadora], lo que a su vez lleva a mayor [VD].»

Efecto Total

  • Es la suma del efecto directo y todos los efectos indirectos entre dos variables. Ejemplo: «El efecto total es negativo y moderado

Interpretación General del Modelo de Ruta

  • Describe las relaciones causales hipotetizadas entre las variables. Ejemplo: «A mayor depresión, se observa menor comunicación asertiva, lo que a su vez se asocia con menor adhesión al tratamiento. Por otro lado, a mayor rumiación, se observa mayor comunicación asertiva, lo que se asocia con mayor adhesión al tratamiento

Modelos de Ecuaciones Estructurales (SEM)

Cargas Factoriales (Modelo de Medida)

  • Representan la fuerza de la relación entre una variable latente y su indicador observado. Un valor de carga mayor a 0.6 es generalmente considerado bueno para un ajuste adecuado del modelo. Ejemplo: «Existe una carga positiva y moderada de 0.6, lo que indica que a mayor [indicador], mayor [variable latente].»

Coeficientes Beta (Modelo Estructural)

  • Representan las relaciones directas entre variables latentes en el modelo estructural, interpretándose como en regresión. Ejemplo: «A mayor [variable latente 1], mayor [variable latente 2].»

Evaluación del Modelo de Medida

  • El modelo de medida (que define cómo las variables latentes se relacionan con sus indicadores observados) debe ser evaluado y ajustado antes de interpretar el modelo estructural. Esta verificación asegura que los indicadores miden adecuadamente los constructos latentes.

Índices de Ajuste del Modelo

  • Chi-Cuadrado Normalizado (χ²/gl): Evalúa el ajuste global del modelo. Valores menores a 3 (o 5) son deseables.
  • GFI (Goodness-of-Fit Index): Mide la proporción de la varianza y covarianza en los datos explicada por el modelo. Valores superiores a 0.90 (o 0.95) indican un buen ajuste.
  • NFI (Normed Fit Index): Mide la mejora en el ajuste del modelo propuesto en comparación con un modelo nulo. Valores superiores a 0.90 (o 0.95) indican un buen ajuste.
  • RMSEA (Root Mean Square Error of Approximation): Mide la discrepancia por grado de libertad. Valores inferiores a 0.08 (o 0.10) indican un buen ajuste, con valores inferiores a 0.05 considerados excelentes.