Mis grupos son diferentes ¿Cuán diferentes? El tamaño del efecto

Estimados todos, nos vemos de nuevo, para una aventura más en Stats SOS. Espero que estén muy bien y tengan los cinturones bien abrochados y estén preparados para la aventura de hoy.

Quizás se habrán preguntado, “Ok, mis grupos son diferentes en una T-student (ver post) o U de Mann Whitney (ver post), pero ¿cómo se cuán diferentes son?” Bueno, para ello existen ciertas técnicas para averiguarlo. No basta solo con mirar los promedios y decir “¡Ah, hay una gran diferencia entre un promedio o una mediana y otra entonces deben ser muy diferentes”. Para ello veremos un análisis llamado el tamaño del efecto que nos permite comprender con mayor profundidad la diferencia entre dos grupos.

Entonces, la aventura de hoy requiere estar con la mente abierta y bien animados, para lograr cruzar por el camino del tamaño del efecto para que al final de la travesía podamos describir de manera sencilla qué es este análisis.

En ese caso, el tamaño del efecto en sencillo es la magnitud de la diferencia entre los puntajes promedio o medio de un grupo y otro. En sencillo, cuán diferentes son los puntajes promedios (o las medianas de los puntajes) de  dos grupos. Los que no recuerdan qué son promedios o medianas siempre pueden ir a este post para refrescar la memoria.

En este caso, el tamaño del efecto es un complemento de nuestra significación estadística en las comparaciones de medias o medianas. Ahora nos preguntamos, ¿Por qué se necesita esto? Por dos razones muy sencillas: a) Por ejemplo, la T-Student o los análisis de U de Mann Whitney te dicen exactamente que hay diferencias entre dos grupos pero no cuán diferentes son.  b) Cuando tenemos grupos muy pequeños (por ejemplo: grupo uno con 10 personas y grupo dos con otras 10  personas) las pruebas de significancia (el valor p) no funcionan de manera adecuada porque estos análisis están diseñados para muestras más grandes. Los que no recuerdan qué es la significancia siempre pueden volver a este post. 

¡Perfecto! ¿Hasta ahí todo bien? No se angustien, vamos con calma. Creo que dos ejemplos nos podrán ayudar a pasar exitosamente por esta travesía. En este caso, tomaremos ejemplos pasados, para ello, veremos por un lado al ejemplo del post de T-student con muestras independientes y por otro al de U de Mann Whitney.

¡Muy bien vamos al primer ejemplo! En esa aventura comparamos si existía diferencias entre los puntajes de una prueba de bienestar entre hombres y mujeres. Ahí comparamos dos grupos (50 hombres y 50 mujeres) y les tomamos una prueba de bienestar. Finalmente, los resultados salieron significativos y por ende se mostró una diferencia entre hombres y mujeres ¡y fuimos felices! Los que quieren recordar esto siempre pueden volver a este post. 

Pero ahora iremos un poco más lejos y averiguaremos cuán grande son estas diferencias. Para ello veremos primero la tabla que muestra algunos resultados.

Tabla 1:

Untitled

¡Excelente! Ahora que tenemos estos resultados, necesitamos calcular el tamaño del efecto. Para ello, necesitaremos nuestra calculadora de mano o alguna hoja de cálculo como Excel o Numbers (Mac). Pero no nos asustemos, no es una fórmula imposible ni mucho menos. ¿Están preparados? ¡Aquí va!

Fórmula 1: Esta fórmula es la llamada d de cohen, porque Jacob Cohen fue el primero que la propuso para poder calcular cuán diferentes eran dos grupos.

 d de Cohen

Fórmula 2: Esta fórmula muestra cómo calcular la desviación estándar ponderada. Esta se utiliza cuando las desviaciones estándar (o típicas) de nuestros grupos son diferentes.

desviacionstandard

Listo! Aquí tenemos las dos fórmulas, se que pueden verse horribles y espantosas, pero no lo son, nosotros somos valientes aventureros y podemos enfrentar exitosamente este reto. Como ven, para calcular la d de cohen que nos muestra la magnitud del efecto es necesario primero calcular la desviación estándar ponderada. Esta es una especie de desviación estándar general para nuestros dos grupos.

En este caso, asumiremos que el grupo t son hombres y el grupo c son mujeres. Por ello, podemos ver los siguientes valores que sacamos de la Tabla 1:

nt = 50,

nc = 50

st = 4.23031

sc = 5.02975

xt = 14.32

xc = 11.74

Paso 1: Calcula la desviación estándar ponderada

Muy bien, si reemplazamos todos esos valores primero en la fórmula 2 vemos que la desviación estándar ponderada es: 

S ponderada = √((50-1)(4.230312)) + ((50 -1)(5.029752))/50 + 50 = 4.601

No se asusten si ponen estos valores en Excel o Numbers la computadora puede hacer el cálculo por ustedes.

Paso 2: Calcular la de d de Cohen.

¡Listo! Ya que tenemos la primera parte que es la desviación estándar ponderada vamos a la otra fórmula que es la d de cohen que nos dará los tamaños del efecto. Para ello hacemos el siguiente cálculo:

d = (14.32 – 11.74)/4.601 = 0.5607

Ahora, ¿qué diablos significa este número? ¡Muy sencillo Cohen propuso algunas reglas para determinar si una diferencia es pequeña, moderada o grande. El autor planteaba que .20 hacia arriba, es una diferencia pequeña, .50 hacia arriba es una diferencia moderada y .80 hacia arriba es una diferencia grande (Cohen, 1988).

Ojo, pestaña y ceja (1): En cierta literatura es posible que se encuentre otra fórmula donde no se debe calcular una desviación estándar ponderada. Esto se debe a que la primera fórmula que utilizó Cohen asumía que ambos grupos tenían desviaciones estándar iguales. Sin embargo, como vemos en nuestro ejemplo, (y en la mayoría de casos de la vida real) esto no se da. Aparte, en la literatura existen una serie de diferentes fórmulas como la delta de Glass y la g de Hedges que son extensiones o mejorías de la fórmula original de Cohen. Los que tienen curiosidad sobre estas fórmulas siempre pueden dejar un genial comentario al final para poder conversar sobre ello. Por el momento, utilizaremos esta fórmula que suele ser la más convencional pero que además propone una alternativa cuando los puntajes de nuestros grupos tienen desviaciones estándar distintas.

¡Perfecto! Luego de haber hecho el preámbulo, podemos ver que nuestra d = 0.5607, lo cual muestra una diferencia moderada entre los puntajes de bienestar entre hombres y mujeres. 

Ojo, pestaña y ceja (2): El tamaño del efecto está muy relacionado con el poder estadístico. Sin embargo, en esta aventura no veremos este tema. De todos modos, los que están interesados en surcar por esos senderos, siempre pueden dejar un maravilloso comentario en este post.

¿Siguen aquí? ¿Está todo bien? ¡Seguro que sí! Ahora vamos a nuestro segundo ejemplo. En este veremos la diferencia de dos grupos utilizando la U de Mann Whitney y luego de ello calcularemos el tamaño del efecto cuando utilizamos análisis no paramétricos. 

¡Excelente! En este caso, recabamos 27274 personas y comparamos entre hombres y mujeres la percepción de cuánto dinero se necesita para vivir en un mes. En este análisis comparamos 14711 mujeres contra  12563 hombres. En ello vimos que los puntajes no tenían una distribución normal por lo que tuvimos que utilizar la U de Mann Whitney. Al final, encontramos que los hombres mostraban un mediana de 1200 mientras que las mujeres una mediana de 1000 (pongamos dólares) para vivir durante un mes y estas diferencias eran significativas (Ver tabla 3).  Los que quieren recordar este ejemplo siempre pueden volver a este post. 

Tabla 3

significancia

Ahora, ¿Cómo saber si es que esa diferencia es efectivamente grande?

¡Muy sencillo! Tenemos que calcular una nueva fórmula. Dejamos a Cohen descansar y en esta ocasión invocamos la r de Rosenthal (Rosenthal, 1991). ¿Están listo? ¡Aquí va!

Formula 1:

Rosenthal

Como ven, esta fórmula se ve mucho más sencilla. Para ella, necesitamos el valor Z de nuestra U de Mann Whitney y la cantidad de gente (N) del cual se basa todo el análisis.

Ojo, pestaña y ceja (3): Se usa la cantidad de gente de todo el análisis y no de cada uno de los grupos.

En este caso, tenemos una Z = -9.666 y una N = 27274. Si realizamos el cálculo obtenemos lo siguiente:

r= -9.666/√27274 = -0.058

Este valor, según los criterios de Cohen (o también la extensión que hizo Rosenthal) que vimos previamente, muestra que existe un efecto pequeño (Rosenthal, 1991) en las diferencias de puntajes de percepción de dinero necesario para vivir un mes entre hombres y mujeres.

Ojo, pestaña y ceja (4): La r de Rosenthal es muy sensible a la cantidad de gente que se tiene en el estudio (la cantidad de muestra, mientras más grande la muestra menor será el tamaño entre un grupo y otro). ¡No hay que temer con esto! Esto es normal, muestras muy grandes (grupos con cantidades muy grandes de gente), por un lado pueden tener la posibilidad de incluso representar a la población (dependiendo de otros factores como por ejemplo, el tipo de muestreo que se utilice). Por otro, agregar por ejemplo 10 personas más a dos grupos de 28 mil personas y obtener las medianas no generará una diferencia muy potente por eso el efecto suele ser pequeño cuando tienes muestras demasiado grandes.

¡Perfecto! Creo que esto sería todo por hoy, hemos llegado a la meta sanos y salvos :). Espero que esta aventura haya sido agradable para ustedes valientes lectores. Como siempre los invito a dejar un comentario en el post de hoy compartiendo sus impresiones.

Para la siguiente aventura volveremos a las regresiones y nos extenderemos un poco más y veremos temas como mediación y moderación. Ha sido un placer compartir esta aventura con ustedes y los invito a poner “Me gusta” (Like) en la página de Facebook de Stats SOS, así como seguirnos en Twitter.

¡Hasta la próxima aventura! ¡Buenas vibras!

Referencias

Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd. edit., Hillsdale, N.J., Erlbaum (primera edición, 1977 New York: Academic Press).

Field, A. Discovering statistics using SPSS. Sage. UK.

Ledesma, R., Macbeth, G., Cortada de Kohan, N. (2008). Tamaño del efecto: revisión teórica y aplicaciones con el sistema estadístico vista. Revista Latinoamericana de Psicología, 40(3), 425-239.

Rosenthal, R. (1991). Meta- analytic procedures for social research (2nd ed.). Newbury Park, CA: Sage.

Thalheimer, W., & Cook, S. (2002, August). How to calculate effect sizes from published research articles: A simplified methodology. Retrieved November 31, 2002 from http://work-learning.com/effect_sizes.htm.

Publicado en Básico 1.0 | Etiquetado , , , , , | 90 comentarios

Cálculos manuales Regresión lineal múltiple: Algebra de matrices

Estimados todos,

Como siempre bievenidos a Stats SOS, aquí les comparto el cálculo manual de una regresión lineal múltiple utilizando álgebra de matrices. Espero les sea de ayuda.

¡Buenas vibras!

Regresion_multiple_algebra_matrices

Publicado en Cálculos manuales | Etiquetado , , | 2 comentarios

¿Tienes confianza? La confiabilidad y el Alfa de Cronbach

Estimados todos, bienvenidos a un nuevo episodio de Stats SOS, espero que estén muy bien.

En la aventura de hoy tenemos que tener mucha confianza en nosotros y nuestros datos :). El post de hoy como bien sale, busca ver cuán confiables son nuestros datos. En otras palabras, ver si es que las personas nos han respondido por responder o si lo han hecho de manera consciente. Otro tema que nos ayuda la confiabilidad es conocer a grandes rasgos cómo es que está funcionando nuestro cuestionario.

En ese caso, el reto de nuestra aventura es poder resolver el tema de la confiabilidad y poder describirla de manera sencilla. 

Entonces, ¿qué es la confiabilidad? La confiabilidad estadística es cuando los resultados de un análisis se pueden reproducir en diferentes muestras. En otras palabras, son consistentes. Cuando se analiza un cuestionario, se busca que este tenga confiabilidad y consistencia interna. El primero significa que este cuestionario pueda representar efectivamente y sin un gran sesgo, las opiniones de las personas. Aparte, estas opiniones pueden reproducirse nuevamente con el mismo cuestionario.

¡Excelente! Ahora vamos a lo siguiente, consistencia interna. Como el mismo nombre lo dice, se refiere al interior de un cuestionario. En otras palabras, a que los puntajes de cada pregunta del cuestionario sean consistentes con el puntaje total de todo el cuestionario. Pero ahora me dirán, ¿Cómo diablos sacamos el puntaje total de todo la prueba? Muy sencillo, la colección de todas las preguntas del cuestionario nos permite obtener un puntaje total del mismo. Hay varias maneras de obtener esto, pero no tocaré este tema aquí, los que tienen interés en ello siempre pueden ir a la parte de comentarios :).

Entonces, dicho esto en esta aventura veremos específicamente una técnica para obtener la confiabilidad o fiabilidad que vendría a ser el análisis por consistencia interna, el cual es el Alfa de Cronbach. Pero es importante mencionar que existen otras formas de calcular la confiabilidad, como la técnica por mitades, el test-retest, etc.

Ojo, pestaña y ceja (1): El análisis de consistencia funciona de manera adecuada con preguntas que tienen un escala de respuesta de tipo Likert. Una escala Likert, es la clásica escala de respuesta que tiene por ejemplo, valores del 1 – 7, donde 1 es “Nunca”, 2 “Algunas veces”, hasta el  7 que sería “Siempre”. El Alfa de Cronbach no funciona bien con escalas que tienen valores sí y no (dos opciones de respuesta). Para ello, existen otras técnicas estadísticas (Sijtsma, 2009).

¡Perfecto! En lugar de estar hablando tanto, creo que lo mejor que podríamos hacer es ir a un ejemplo :). Imagínense que queremos conocer los niveles de estrés de un grupo de trabajadores justo después del cierre laboral de fin de mes donde la carga de trabajo es muy alta. Para ello, usamos un cuestionario de 33 preguntas sobre síntomas de estrés que tienen opciones de respuesta del 1-5, donde 1 es “Nunca” y 5 es “Siempre”.

Le pedimos a la empresa que nos de tiempo para entregarle una encuesta a los 250 trabajadores para conocer sus síntomas de estrés. Sin embargo, el encargado nos comenta que tengamos cuidado porque en este espacio laboral, la gente tiende a subestimar sus niveles de estrés y muchos de ellos no aceptan que se sienten muy tensos y evidencian síntomas de estrés.

Dicho esto, nos ponemos alerta y sabemos que tenemos que tener especial cuidado con esto. Muy bien, les tomamos el cuestionario de estrés a los trabajadores, ingresamos toda la información a la computadora y ¡a viajar!

Para nuestro viaje es necesario que sigamos la siguiente ruta:

Analizar/Escala/Análisis de fiabilidad/

En esta ventana, es necesario entrar a Estadísticos, y hacer click (pinchar) para marcar la casilla que dice “Escala si se elimina el elemento”, luego de ello Continuar. 

¡Genial! Ya estamos a mitad del proceso, ahora cerremos esta parte. Luego de ello, debemos poner los elementos que vendrían a ser todos los ítems o preguntas de la prueba que quieren analizar. Aceptar. 

¡Muy bien! Si necesitan un café, té o manzanilla, ¡este es el momento perfecto! (5 minutos después). (Tambores para darle ritmo a los análisis de nuestros resultados).

Tabla 1

Alfadecronbach

Esta primera tabla nos dice nuestro Alfa de Cronbach general. ¿Qué diablos significa este número? ¡Muy sencillo! En el fondo es una correlación, así como la correlación de Pearson que ya conocemos (ver post). La única diferencia con una correlación es que los valores posibles son de 0 – 1. Si les sale un Alfa de Cronbach negativo es muy probable que hay un error de dignación de los cuestionarios. 

En esencia, este estadístico nos propone lo siguiente: Nosotros le tomamos la prueba a 250 trabajadores, ¿cierto? Ahora asumamos que escogemos al azar otro grupo de 250 trabajadores y se les toma la misma prueba. Luego de ello, se hace una correlación de los puntajes de la prueba de nuestros trabajadores con este grupo “ficticio” o mejor dicho “esperado” de puntajes. Y así, mis valientes aventureros sale el Alfa de Cronbach. ¿Enredado? ¡No se preocupen! Lo seguimos viendo.

En ese caso, nuestro Alfa de Cronbach debe ser alto, porque demuestra que hay una relación fuerte entre estos dos grupos, lo cual a su vez muestra que hay consistencia, porque se puede reproducir los mismo puntajes de nuestra prueba de estrés con este otro grupo esperado.

En este caso, nuestro Alfa de Cronbach es de .933 lo cual muestra un Alfa de Cronbach bastante bueno. Algunos autores muestran que valores mayores a .70 son adecuados y que menor a esto puede ser complicado (George & Mallery, 2003; Gliem & Gliem, 2003). En ese caso, vamos !muy bien!

Tabla 2

descripcionconsistenciainterna1

 descripcionconsistenciainterna2

Ahora se viene lo bueno, ¡¿Qué es esta tabla enorme con muchos números?! Sencillo, es un resumen de nuestras 33 preguntas de síntomas de estrés. Nada más y nada menos. Los que aún siguen un poco nerviosos por esta tabla no hay problema, (aquí un poco de música relajante para calmar los ánimos).

Si bien aquí salen 4 columnas, las columnas más importantes para nosotros son las dos últimas hacia la derecha. La primera nos dice la correlación item-test. ¿Qué es esto? Es la correlación de los puntajes de cada pregunta con los puntajes totales de toda la prueba.  Pero en este caso, los valores sí pueden ir de -1 a 1. Pero lo que nosotros buscamos es que todos los valores sean positivos. Nuevamente, así como el Alfa de Cronbach, los puntajes deben ser altos. En ese caso, una clásica regla de dedo es que los valores deben ser mayores a .40 (Gliem & Gliem, 2003). Sin embargo, esto es bien discutible porque se pueden encontrar otras reglas de dedo con valores menores.

En nuestro caso, podemos ver que la gran mayoría de las preguntas funcionan bien con la excepción de la: 8, 12, 14 y 33. Esto lo sabemos porque la correlación ítem – test es menor a .40. En otras palabras, los puntajes de estos ítems no están fuertemente relacionados con el puntaje total de la prueba.  En general, cuando ocurre esto la lógica sería retirar los ítems que no funcionan bien del análisis. 

¡Pero no tan rápido! ¡Paremos el carro! Antes de hacer esto, es necesario ver a la última columna de la derecha, que es el “Alfa de Cronbach si es que se elimina el elemento”. Aquí, como el nombre lo dice, nos muestra cuánto subiría nuestro Alfa de Cronbach si es que retiramos el ítem (pregunta) de nuestro análisis. Si vemos en la columna, si retiramos los ítems 8, 12 y 14 el Alfa de Cronbach no subiría nada o subiría a penas un punto, entonces no vale la pena quitar esos ítems.

Por otro lado, si retiramos el ítem 33 (que tiene una correlación ítem-test de .078), aquí sí hay un cambio de 3 puntos en el Alfa de Cronbach. Por lo tanto, sería recomendable eliminar ese ítem de nuestra escala de estrés.

¿Cómo se elimina el ítem? Muy sencillo se vuelve a realizar todo la aventura con la única diferencia que esta vez no incluimos la pregunta 33 y listo (Aquí les dejo una tonada aventurera de los 80).

Ojo, pestaña y ceja (2): El Alfa de Cronbach asume por defecto Unidimensionalidad. ¿Uni…que? Esto quiere decir que interpreta que todas las preguntas que pongamos en el análisis generan un puntaje total único. Si tienen cuestionarios que tienen diferentes áreas o temas. Por ejemplo, 5 ítems miden autoestima, 6 ítems miden, identidad, etc. Es mejor utilizar el Alfa de Cronbach separando por cada una de las áreas.

¡Muy bien! Creo esto sería todo mis valientes lectores, ¡hemos logrado la hazaña! ¡Los felicito por ello! Recuerden que si tienen alguna pregunta pueden ir siempre a la parte de comentarios. Encantado de poder responderles y saber más de ustedes. Por último, un ojo, final.

Ojo, pestaña y ceja (3): Si bien el Alfa de Cronbach se ha mostrado como una aventura aparte, en general siempre que hagamos análisis inferenciales (ver post), cualquiera que hayamos visto en Stats SOS, siempre es importante antes analizar la consistencia interna de nuestros datos. ¿Por qué? porque sino estamos analizando datos y haciendo concluyendo sobre la base de datos que no son confiables. 

¡Perfecto! Para la siguiente aventura volveremos a nuestras queridas regresiones y las miraremos más a profundidad. En otras palabras, entraremos en la selva de la moderación y la mediación estadística. 

Espero que todos hayan experimentado una excelente aventura, siempre es muy agradable poder enfrentar estas aventuras con ustedes.

¡Buenas vibras para todos!

Referencias

George, D., & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.

Gliem, J & Gliem, R. (2003). Calculating, Interpreting, and Reporting Cronbach’s Alpha Reliability Coefficient for Likert-Type Scales. Conference in Adult, Continuing, and Community Education. Midwest Research to Practice.

Sijtsma, K. (2009). On the use, the misuse and the very limited of the Cronbach’s Alpha. Psychometrika, 74(1) 107-120. DOI: 10.1007/S11336-008-9101-0

Publicado en Básico 2.0 | Etiquetado , , , , | 185 comentarios

Un día llegó la regresión múltiple

Estimados todos, saludos para ustedes, espero que estén muy bien. Bienvenidos a otra aventura de Stats SOS. El episodio de hoy, es parte del mundo lineal. 🙂

Esta aventura nos verá enfrentados a la regresión lineal múltiple, dónde tendremos que revisarla y comprenderla. Estoy seguro que al final la entenderemos y la podremos describir de manera sencilla. 

¡Excelente! Primero que todo, la regresión lineal múltiple, es parte de la familia lineal y es una extensión de la regresión lineal simple. Esta busca relacionar varias variables independientes (o predictoras) con una variable dependiente y esta relación es lineal. ¿Vamos bien, no?

¿Qué les parece si vamos a un ejemplo? Imagínense que tenemos intención de saber si es que el soporte social (Variable A) y una menor desesperanza (Variable B) predice los niveles de estrés (Variable C). Para ello, encuestamos a 269 jóvenes y les preguntamos sobre su soporte social, desesperanza y estrés. ¡Perfecto! Luego de esto, ingresamos todos nuestros cuestionarios a la computadora, y en este caso abrimos SPSS y ¡vamos para adelante! (Aplausos).

Antes de entrar de lleno a nuestra regresión múltiple es importante revisar si es que efectivamente el soporte social y menor desesperanza (por separado) tienen una relación lineal con el estrés. Para ello, tenemos que hacer un análisis ¿Cuál? Seguramente ustedes ya lo deben saber, sin embargo, los que que no recuerdan pueden ir a este post para refrescar la memoria. 

¡Muy bien! Aparte, otra medida que podemos tomar previa a nuestro análisis es evaluar la relación entre soporte social y menor desesperanza para revisar si es que hay una fuerte relación entre ellos. ¿Por qué se hacemos esto? ¡Adivinemos! No, nosotros vivimos de hechos y no de adivinanzas así que si no recordamos podemos ir a este post y revisar él título de Mulcolinealidad. 

Ojo pestaña y ceja: Aquí hay que tener cuidado, si bien hacer este análisis nos puede dar indicios de que dos variables están muy relacionadas, esto no debe ser determinante (Yoo, Mayberry, Bae, Singh, Qinghua & Lillard jr, 2014), de todos modos, es mejor utilizar diagnósticos de multicolinealidad que los veremos más abajo.

Luego de haber hecho todo el calentamiento previo para la verdadera aventura, vamos al meollo de todo el asunto (Tambores). Para ello, vamos a la siguiente ruta:

Analizar/Regresión/Lineales/

Ahí nos va a salir una ventana que dice Regresiones lineales. En ella, tenemos que especificar cuáles son nuestra variable dependiente y nuestras variables independientes. Es importante que recordemos que nuestra variable dependiente es la que queremos medir, mientras que nuestras variables independientes (o predictoras) son las que queremos utilizar para para medir o predecir los puntajes de la variable dependiente.

En este caso, ponemos Estrés en la parte de que dice Dependientes y en la que dice  Independientes ponemos soporte social y menor desesperanza total. ¿Por qué hacemos esto? Porque queremos saber cuánto predicen el soporte social y la menor desesperanza los puntajes de la prueba de estrés.

¡Muy bien! Ahora que tenemos esto, como ya mencionamos anteriormente, es importante también revisar temas como Multicolinealidad así como Homocedasticidad.  Los que no recuerdan qué era esto, ¡No hay problema! Este post les puede ser de ayuda. 

Para ello, vamos a Estadísticos y marcamos la casilla que dice Diagnósticos de colinealidad, luego continuar.  Esta opción nos ayudará a revisar si tenemos problemas de Multicolinealidad o no.

Por otro lado, para probar la Homocedasticidad tenemos que ir a gráficos y ahí en el eje Y es necesario poner Zresid que son los residuos. En otras palabras la variabilidad del error de nuestras variables. Por otro lado, en el eje X es necesario poner Zpred que vendría a ser la variabilidad de nuestros predictores o variables independientes. En otras palabras, la habilidad para predecir de nuestras variables. Luego ponemos continuar. Finalmente aceptar y ¡Ahí vamos!

Tabla 1

modelo_resumen_reg_multiple

Esta tabla, es un resumen general de nuestro modelo. Aquí, podemos ver dos cosas muy importantes: a) Según el R, la combinación de puntajes de Soporte social y puntajes de menos desesperanza tienen una relación de.557 con los puntajes de estrés.  Este valor se interpreta de la misma manera que se interpretaría una correlación de Pearson (ver post). Pero lo más importante para nosotros son los siguientes dos valores. El R cuadrado y el R cuadrado corregido que nos llevan a nuestro otro punto: b) Estos números nos indican la proporción de varianza de los puntajes de estrés explicada por los puntajes de Soporte social y de menor desesperanza. Entonces, la proporción de varianza explicada por nuestras dos variables vendría a ser .31. ¿Cuándo usamos el R cuadrado corregida? Es mejor usar este valor cuando tenemos muchas variables independientes (predictoras). Esto se da debido a que muchas variables tienden a subir (o inflar) el R cuadrado y nos podría dar una idea errónea de cuánto está siendo explicada nuestras variable dependiente por nuestras independientes. ¡Muy bien! Eso no fue tan malo, sigamos con la siguiente. 🙂

Tabla 2

Anova_regresion_multiple

No iremos mucho en detalle con esta tabla. Si se fijan esta es la misma tabla que hemos visto tanto en el post de ANOVA, así como en el post de regresión lineal simple. Esto nos muestra dos cosas: a) la regresión y el ANOVA en el fondo son el mismo análisis que pertenecen a la misma familia (la familia de relaciones lineales). b) La regresión múltiple es una extensión (más compleja) de la regresión lineal simple.

Aquí lo importante es que el modelo es significativo porque muestra una F enorme que genera una significación menor a 0.05. Los que desean ver la relación entre la significación y la F pueden ir al post de ANOVA y también pueden revisar las tablas de valores críticos donde pueden buscar la F = 59.761 y ver cuál es la significancia. Por otro lado, los que no recuerdan por qué diablos es significativo cuando es menor a 0.05 pueden ir al post de estadística inferencial que les puede dar muchas luces sobre ello. 🙂

Ahora vamos a la última tabla, ¿Vamos bien? Tomémoslo con calma, respiremos y descansemos un rato si es necesario, entiendo que esta es una aventura larga pero es importante tener toda la información con nosotros para poder lograr nuestra meta. 🙂 ¡Sigamos adelante valientes lectores!

Tabla 3

coeficientes_regresion_multiple

¡Muy bien! Ahora en este tabla veremos nuestros coeficientes, en este caso nos enfocaremos en los coeficientes no estandarizados,  los coeficientes estandarizados y la Tolerancia y el FIV. Los que tiene interés en saber qué es la constante, siempre pueden dejar un excelente comentario abajo y encantado de responder :).

¡Vamos a lo nuestro! Primero que todo, el coeficiente no estandarizado nos muestra cuánto cambia el estrés cada vez que sube un punto de soporte social o de menor desesperanza. Entonces por ejemplo, cada vez que una persona puntúa un punto extra en el cuestionario de soporte social, el estrés baja (por el signo negativo) en .867. ¿Todo bien? ¿Están ahí? (cric cric, como los grillos). ¡Excelente! ¡Sigamos!

El coeficiente estandarizado, se llama de esa manera porque ahora los valores han sido estandarizados, que en sencillo significa que se le han puesto límites donde los números pueden ir de -1 a 1. ¿les suena conocido? A los que no, ¡no hay problema! Este post les podrá luces sobre ello. ¡Muy bien! Este coeficiente nos menciona cuánto nuestras variables independientes o predictoras predicen nuestra variable dependiente cuando las otras (en este caso la otra) tiene un valor constante.  Para seguir con el ejemplo, Soporte social se relaciona en .16 (negativo) con estrés cuando menor desesperanza es constante. Mientras que menor desesperanza se relaciona en .469 (negativo) con estrés cuando soporte social se mantiene en un valor constante. ¿Qué nos dice esto? Que dentro de nuestro modelo, menor desesperanza predice mejor el estrés que soporte social. 

Aparte, vemos que ambas variables independientes son significativas (menores a 0.05) por ello, podemos decir que estas dos variables son las que predicen los valores de estrés.

¡Excelente! Vamos muy bien, ahora el último respiro para acabar la tabla y terminar con nuestra regresión múltiple :). ¡Vamos nosotros podemos, fuerza!

El FIV (factor de inflación de la varianza), nos muestra si es que un predictor (Variable independiente) tiene una fuerte relación lineal con otro predictor. Un FIV mayor a 10 es muy problemático (Bowerman & O’Connell, 1990; Myers, 1990). Aparte, un FIV muy por encima de 1 puede ser que nuestros resultados estén sesgados (Bowerman & O’Connell, 1990).

Por otro lado, la Tolerancia está relacionada al FIV. En realidad el inverso del FIV es la tolerancia. ¿Qué significa esto? 1/FIV es igual a la tolerancia. Cuando esta es menor a 0.2 es problemático y nos puede dar indicios que hay una relación entre dos variables independientes de nuestro modelo (Menard, 1995).

En nuestro caso, vemos que el FIV (1.218) está muy lejos de 10 y si bien está por encima de 1, no está muy por encima de 1. ¡Así que todo muy bien! No hay multicolinelidad en nuestro modelo :).

Ojo pestaña y ceja: Siempre hay que ser bien precavidos con estas “reglas de dedo”, por ejemplo, algunos autores más actuales han visto que el FIV también puede estar afectado por el tamaño de muestra (O’brien, 2007). Entonces es bueno usar, no solo una correlación previa de nuestras variables independientes (ver más arriba) así como también el diagnóstico de multicolinealidad.

Gráfica 1

Homocedasticidad

Finalmente, este gráfico nos ayuda a ver si es que hay un problema de Homocedasticidad o no. Como vemos, no hay relación lineal entre los residuos y nuestros predictores, por ello, podemos ver que no hay Heterocedasticidad. Los que no recuerdan qué es esto, siempre pueden ir a este post que los puede ayudar. ¿Cómo se sabe cuándo hay relación o no? Muy sencillo, si los puntos tienen una forma en línea diagonal hacia arriba o hacia abajo, quiere decir que hay una relación lineal entre ellos. En ese caso, tenemos un problema de Heterocedasticidad. Para poner gráficamente esta idea de relación entre variables, siempre pueden ir a este post. 

¡Excelente! ¡Lo logramos! ¡Qué tal jornada! Pero me imagino que están muy bien. Dense golpecitos en el hombro como manera de felicitarse, ha sido una gran travesía pero que siento que ha valido la pena. Para la siguiente aventura comenzaremos a entrar más a fondo al mundo no lineal así como lo hemos hecho con el mundo lineal. Este mundo  también es fascinante :). Pero vamos de a pocos, recuerden que nuestro camino es largo, lleno de retos y aventuras. ¡Espero verlos pronto!

¡Recuerden! Siempre pueden dejar geniales comentarios en el post del blog o poner like en la página de Facebook. 

¡Espero verlos pronto! ¡Buenas vibras y una excelente semana!

Referencias:

Bowerman, B. L., & O’Connell, R. T. (1990). Linear statistical models: An applied approach (2nd ed.). Belmont, CA: Duxbury.

O’Brien, R. (2007). A Caution Regarding Rules of Thumb for Variance Inflation Factors. Quality & Quantity, 41, 673–690.

Menard, S. (1995). Applied logistic regression analysis. Sage university paper series on quantitative applications in the social sciences, 07-106. Thousand Oaks, CA: Sage.

Myers, R. (1990). Classical and modern regression with applications (2nd ed.). Boston, MA: Duxbury.

Yoo, W., Mayberry, R., Bae, S., Singh, K., Qinghua, P., & Lillard jr, J. (2014). A Study of Effects of MultiCollinearity in the Multivariable Analysis. International Journal of Applied Science and Technology, 4(5), 9-19.

Publicado en Regresiones | Etiquetado , , , | 47 comentarios

¿Muestras no paramétricas relacionadas? La W-wilcoxon

Estimados todos, bienvenidos a una nueva aventura de Stats SOS. Espero que estén muy bien. En el capítulo de hoy estamos de vuelta en el mundo no lineal. Así es, en la aventura de hoy, veremos el análisis del título de hoy. Aunque no lo crean, ya hemos visto ciertos elementos que nos podrán ayudar a entender con mayor facilidad este análisis.

¡Vamos a lo nuestro! El post de hoy, es describir de manera sencilla la W de Wilcoxon. Como ya mencioné, este análisis es no lineal. Pero además, se utiliza cuando ocurren dos cosas: a) tenemos muestras relacionados y b) cuando nuestros datos son ordinales o tienen una distribución no normal. Con calma, los que no recuerdan qué es un dato ordinal siempre pueden ir ha este episodio 🙂

En ese caso, este análisis, en sencillo, podría decirse que es la versión no lineal y no normal de la t-student de muestras relacionadas. Los que no recuerdan qué es este análisis siempre pueden ir a este post como un recordatorio :). Por otro lado, los que no recuerdan qué es una muestra no normal, ¡No hay problema! Siempre pueden volver a este post que les puede dar ciertas ideas.

Antes de comenzar nuestro ejemplo sería genial poder preparar todo el escenario para mostrar la W de Wilcoxon. Entonces, hasta ahora hemos dicho dos cosas: a) utiliza muestras relacionadas, b) usa datos ordinales  y ahora agregaré tres más: c) por defecto utiliza rangos promedio (ver post), d) cuando se quieren comparar dos mediciones de intervalo que la distribución no es normal se usa la mediana (ver post) y e) el análisis es útil para analizar un mismo grupo al que se le ha hecho dos mediciones en momentos distintos. Este análisis no se puede hacer con más de dos mediciones.

¡Excelente ahora vamos a lo nuestro! (tambores de entrada), un ejemplo. Imagínense que queremos ver si es que la música clásica realmente nos ayuda a recordar mayor información. En ese caso, juntamos 32 jóvenes y hacemos la siguiente tarea:

Paso 1: Les mostramos 15 palabras, a los jóvenes en una presentación y la exposición de cada palabra dura 5 segundos. Luego que terminamos, les entregamos una hoja de papel y les pedimos que escriban todas las palabras que recuerdan. Esta sería nuestra primera medida, la variable A que llamaremos, “pre-música”

Paso 2: Luego de una semana, recopilamos a los mismos jóvenes y les mostramos las mismas 15 palabras, en la misma cantidad de tiempo, pero en este caso mientras que hacemos la presentación de las palabras, les ponemos a los participantes como música de fondo Ave María de Schubert, (aquí la tonada). Luego de las 15 palabras, repetimos la misma tarea, les entregamos una hoja de papel a los participantes y les pedimos que escriban todas las palabras que recuerdan. Esta sería nuestra segunda medida, la variable B que llamaremos “música”.

¡Excelente, luego de recopilar toda la data, la ponemos en el paquete estadístico (en este caso utilizaremos SPSS) y analizamos la información.

¿Analizamos la información? ¡Un momento! Antes que nada debemos ver si ambas medidas tienen puntajes con distribución normal.

Para ello, debemos seguir la siguiente ruta:

Analizar/Frecuencias/Estadísticos/

Aquí, pinchamos (o hacemos click) en asimetría, curtosis y mediana (al igual que en la U de Mann Whitney esto se usa luego). Luego en la casilla que dice Variables debemos poner nuestra Variable A y B. Después, Aceptar.

¡Muy bien! Ahora debemos percatarnos si es que la asimetría es mayor a 3 y la curtosis mayor a 8, que muestra que los puntajes de una medida no tienen una distribución normal. (Kline, 1998; 2005). Para el ejemplo, asumamos que este caso se dio.

Luego de ello, vamos al análisis. Para ello, debemos de seguir la siguiente ruta:

Analizar/Pruebas no paramétricas/Cuadros de diálogos antiguos/2 muestras relacionadas.

¡Listo! Esta ruta se sigue, porque queremos hacer un análisis que no asume que nuestros puntajes tienen una distribución normal, los cuadros antiguos porque somos old school 🙂 y 2 muestras relacionadas porque se mide al mismo grupo dos veces a lo largo del tiempo. 

Luego, nos aparecerá un cuadro de diálogo y ahí tenemos que poner nuestras variables. Ahí veremos que sale un cuadro llamado Contrastar pares. En este caso, en variable 1 tenemos que poner nuestra medición previa que la llamamos “pre-música”, luego en variable 2 es necesario que pongamos la segunda variable que en nuestro ejemplo se llama “música”. Por otro lado, para que sea más fácil reportar nuestros resultados, podemos ir a opciones y marcar en la casilla de descriptivos y poner continuar. 

¿Vamos bien? ¡Sigamos adelante! Seguidamente, debemos de poner el análisis que queremos hacer. Ahí hay varias opciones, pero nosotros para este caso queremos utilizar Wilcoxon entonces, hacemos click (pinchamos) en esa opción y ponemos Aceptar. Ojo pestaña y ceja: Siempre hay que revisar esto no vaya a ser que terminemos realizando otro análisis. 

Bueno, después de un recorrido largo comenzamos en la etapa final de nuestro post. ¡Los análisis de nuestras tablas!

Aquí nos aparecerán las siguientes 3 tablas:

Tabla 1:

descriptivosWilcoxonEsta tabla lo único que nos muestra son los estadísticos descriptivos de nuestras variables y la cantidad de personas por grupo (N). Los que no recuerdan qué son estadísticos descriptivos, siempre pueden volver a este post.

Tabla 2:

rangospromediosWilcoxon

Esta tabla como ya comentamos anteriormente nos muestran los rangos promedio. Esta tabla tan solo la he puesto para que podamos ver que el SPSS utiliza por defecto los rangos promedio para calcular la W de Wilcoxon. Los que no recuerdan qué son los rangos promedio siempre pueden volver a este post. En general, estos resultados lo que nos está diciendo es que se están comparando los puntajes de Música y Pre Música. Entonces, lo que hace el SPSS es hacer un conteo (La N) de cuántas personas tuvieron menos puntaje en la prueba con música que sin música (Rangos negativos, que es igual a 13). Aparte, cuantas personas tuvieron más puntaje en la prueba con música que sin música (Rangos positivos, que es igual a 12). Finalmente, cuándo el puntaje de pre música y música fueron iguales (Empates, que es igual a 7). Aparte, como ya mencione nos muestra los rangos promedio y la suma de rangos promedio.

Tabla 3

 SignificanciaWilcoxon

Esta tabla es la más importante de nuestro análisis.  Nos muestra el valor Z (que es acorde a las tablas de significancia, estas tablas las pueden encontrar en este post). Entonces, está tabla lo que nos dice es si comparamos los puntajes de música y pre música, obtenemos un puntaje Z igual a (-.514), para este caso no iré a la matemática, pero para obtener este resultado se realiza un cálculo con una fórmula (los interesados siempre pueden dejar un comentario :)).

Además, para un puntaje Z de -.514, se obtiene una significancia de .607. Esto como nosotros muy bien sabemos es claramente no significativo porque está muy por encima de 0.05. Esto demuestra, que no hay diferencias significativas entre la capacidad para recordar palabras con o sin música.  Los que no recuerdan por qué llegamos a esta conclusión siempre pueden ir a este post que les puede ayudar a refrescar la memoria.

¡Muy bien! Aún no satisfechos con este resultado, por si acaso revisamos las medianas de las dos mediciones nos encontraremos que la mediana es igual a 5 en ambos casos. Ello refuerza el hallazgo de la tabla 3 que nos propone que no hay diferencias entre las dos medidas. Para este caso no he puesto la tabla para no llenarnos de tablas :).

¡Muy bien! Creo que esto sería todo por hoy, espero que esta aventura les haya gustado. En broma y broma ya hemos visto varios análisis: las comparaciones de grupos independientes y dependientes  de muestras con puntajes con distribución normal (ver enlaces en los nombres).  Así como la comparación de grupos independientes y dependientes con puntajes que tienen una distribución no normal. Para la siguiente aventura relacionada a este tema, iremos un paso más adelante. Ya no solo sabremos, que hay diferencias sino cuán grandes son estad diferencias y para ello utilizaremos algo llamado tamaño del efecto. 

¡Así que estén muy preparados! Pero ustedes valientes lectores son unos guerreros entonces estoy seguro que no tendrán ningún problema.

Recuerden que siempre es un placer recibir comentarios en la sección posterior. Aparte, los interesados en seguir las aventuras de este blog siempre pueden ir al botón Seguir que se encuentra arriba de su pantalla.

¡Muy buenas vibras!

Referencias

– Kline, R. B. (1998). Principles and practice of structural equation modeling. NY: Guilford Press.
– Kline, R.B. (2005), Principles and Practice of Structural Equation Modeling (2nd Edition ed.). New York: The Guilford Press.

Publicado en Básico 2.0 | Etiquetado , , | 6 comentarios

Tablas de valores críticos para diferentes distribuciones

Estimados todos,

Este no es un post convencional. Aquí simplemente he decidido colgar las tablas de valores críticos de las diferentes distribuciones. Esto, nos podrá ayudarnos a evitar ir buscando por todo el internet por las mismas, en caso las necesitemos o se nos pierdan.

¡Espero les sirva!

¡Buenas vibras!

Tablas valores criticos

Publicado en Conceptos | Etiquetado | 2 comentarios

No es paramétrico, ¿Y ahora? ¡Cómo comparo! La U de Mann-Whitney

Estimados todos, ¿cómo les va? Saludos, muchos saludos para ustedes. Espero que estén muy bien. Nosotros aquí seguimos avanzando, escribiendo más posts, compartiendo y creciendo. ¿Y por qué no? ¡De eso se trata, de aprender y crecer! Espero que para este momento le hayan perdido el temor a este tema de la estadística y sus aventuras por acá estén siendo muy gratas.

Tal como me pidieron, por un momento me moveré del mundo lineal. En el post de hoy, ¿adivinen qué vamos a tratar? (Así es, el título tiene la clave y creo que ya pueden adivinar los objetivos del post :)). Aunque no lo crean, ya hemos visto algunas ideas sobre este análisis. Si volvemos en el tiempo al post de rangos promedio, verán que al final mencionamos la U de Mann Whitney. Esto se debe a que este análisis trabaja con rangos promedio. 

Dicho esto, vamos a lo nuestro. La U de Mann Whitney es un análisis no lineal, que trabaja con variables ordinales y lo que busca es contrastar dos grupos diferentes cuando los datos que queremos comparar son ordinales o con una distribución no normal. ¿Qué es esto? No se preocupen, si no recuerdan qué es una variable ordinal siempre pueden volver a ese post, si su curiosidad continúa pueden ir a este post para recordar qué es una distribución no normal.

En palabras coloquiales, la U de Mann Whitney, es la versión no lineal de la T-Student para muestras independientes (que es un análisis lineal). Los que no recuerdan qué es una T-Student siempre pueden ir a este post que les podría ser de mucha.

Entonces, recapitulando antes de ir a nuestro maravilloso ejemplo. La U de Mann Whitney tiene dos funciones importantes: a) Comparar datos ordinales de dos grupos distintos y para ello, comparamos los rangos promedio. b) En el momento que la distribución de los puntajes de alguno de nuestros grupos no es normal, utilizamos este análisis. Sin embargo, como ustedes bien saben, excelentes lectores, los puntajes son variables de intervalo (ver post), por ello, no se pueden usar l0s rangos promedio porque esos cálculos están diseñados para variables ordinales. ¡Entonces! ¿Qué hacemos? Contenemos las lágrimas y el susto, y en lugar de comparar los rangos promedios, comparamos las medianas. ¿Por qué las medianas? Muy sencillo, porque este estadístico es el punto céntrico en un grupo de puntajes y eso soluciona el problema que la distribución de los puntajes que tienen no sea normal. Los que no recuerden detalles sobre la mediana siempre pueden volver a este post. 

¡Muy bien! ¿Siguen acá? ¿Se asustaron? Estoy seguro que no. Mejor vamos a un ejemplo, para este caso solo pondré uno:  Una comparación de dos grupos con una variable de intervalo y que la distribución de sus puntajes es no normal. ¿Por qué? Porque este blog está dirigido ha profesionales de ciencias sociales. El uso de los rangos promedio  tiene un peso más matemático. Además, por motivos prácticos, es bien complicado interpretar un rango promedio. De todos modos, quería presentarlo porque es importante que sepamos que existe y tenerlo en cuenta para no cometer el error de usarlo cuando no se debe utilizar. 

Imagínense que tenemos curiosidad de conocer si existen diferencias en la percepción de ingreso mensual necesario para vivir (Variable A) entre hombres y mujeres (Variable B). Encuestamos a nuestros participantes peruanos, luego, ingresamos toda la data y…¿Qué hacemos? Primero, antes que nada debemos revisar si es que la distribución de nuestra (variable A) es no paramétrica. 

Para hacer esto tenemos que hacer dos pasos.

Paso 1: Separar nuestra variable entre hombres y mujeres.

Para ello, en SPSS debemos seguir a la siguiente ruta:

Datos/Dividir archivo/

Aquí debemos hacer click (pinchar) en la opción que dice “Comparar grupos” y luego ingresar en “Grupos basados en” la variable “Sexo” para comparar por sexo. Luego Aceptar. 

Paso 2: Revisar la asimetria y curtosis para ver si la distribución es no paramétrica o no. Los que no recuerdan qué eran estos estadísticos, siempre pueden ir a este post que les puede dar un excelente recordatorio. Recuerden que existen ciertos criterios. Si la asimetría es mayor a 3 y/o la curtosis es mayor a 8, esto quiere decir que la distribución es no normal. Para mayor información pueden ir a este post. (Kline, 1998; 2005).

Para revisar la asimetría y curtosis debemos seguir la siguiente ruta:

Analizar/Estadísticos descriptivos/Frecuencias/Estadísticos/

Aquí sería bueno solo marcar, Curtosis, Asimetría y Mediana (que la usaremos luego). Luego ponemos en “Variables” la percepción de ingreso mensual necesario para vivir (Variable A) y Aceptar.

Los resultados obtenidos fueron una asimetría de 6.163 y una curtosis de 92.039 para la distribución de puntajes de hombres y una asimetría de 4.53 y una curtosis de 53.92 para la distribución de puntajes de mujeres. Como ven esto es claramente mayor a los valores que comentamos antes entonces podemos decir que la distribución de puntajes es no parametríca. ¿Qué puntajes? Los de percepción de ingreso mensual necesario.

¡Que genial! Ahora tenemos que hacer la prueba de significancia y ver si hay diferencias por sexo en la percepción de ingreso mensual necesario.

Para ello debemos seguir dos pasos.

Paso 1: Sacar la división por sexo.

En este caso, debemos volver a esta ruta.

Datos/Dividir archivo/

Aquí es necesario presionar en la opción que dice. Analizar todos los casos no crear grupos. Luego, obviamente, Aceptar.

¡Perfecto!

Paso 2: Hacer la prueba de U de Mann Whitney.

Para ello, debemos seguir la siguiente ruta:

Analizar/Pruebas no paramétricas/Cuadros de diálogos antiguos/2 muestras independientes/

En este caso uso cuadros de diálogos antiguos porque me gusta ponerme “old school” :).

Luego, en lista de contrastar variables ponemos la que queremos medir. En este caso es la percepción de ingreso mensual necesario para vivir (Variable A), luego en variable de agrupación ponemos Sexo (Variable B). Aparte, podemos hacer click (pinchar) en opciones y poner descriptivos para tener los estadísticos descriptivos y Aceptar. 

Nota: Es importante que esté marcada la casilla que dice U de Mann Whitney, porque sino ¡estaremos haciendo otro análisis!

¡Genial! ¡Ahora a ver nuestras tablas!

Tabla 1

descriptivosUmann

Esta primera tabla básicamente lo que nos menciona son los estadísticos descriptivos de la prueba así como la cantidad de personas (la N). Los que no recuerdan qué era un estadísticos descriptivo siempre pueden ir a este post. Aquí no me detendré mucho, más bien pasaré velozmente hasta la tabla que más nos importa.

Tabla 2

Umannwhitneyrangos

En este tabla están los rangos promedios. Como ya les mencioné la U de Mann Whitney trabaja con Rangos promedios, pero son muy difíciles de interpretar. Aparte, cuando se comparan grupos con una variable que tiene una distribución no normal, se usa U de Mann Whitney pero se revisa la Mediana. Esta tabla solo la puse para que sepan cómo trabaja el SPSS, pero recuerden no reporten en sus informes los rangos promedios al comparar variables que tienen una distribución no paramétrica.

Tabla 3

significancia

¡Excelente! ¡Vamos a lo que nos interesa! Como ustedes pueden ver bien, aquí hay varios estadísticos. La U de Mann-Whitney, sale a raíz de una serie de cálculos utilizando los rangos promedios y la Z. Pero para términos prácticos, lo que más nos interesa es si hay diferencias entre sexo por percepción de ingreso mensual necesario para vivir. En ese caso, tenemos que ver la significación y percatarnos como siempre, si es menor a 0.05 o no. Si no recuerdan por qué usamos ese punto de corte, siempre pueden volver en el tiempo a este post que toca este tema con mayor profundidad.

¡Genial! Como vemos, la significación es mucho menor a 0.05 lo cual significa que sí existen diferencias entre percepción de ingreso mensual necesario para vivir por sexo. Pero ahora, la pregunta del millón, ¿Cuál es mayor?

¡Muy sencillo! ¿Recuerdan que calculamos la Mediana anteriormente? ¡Bueno! ¡Ahora, nos será de ayuda!

Para este caso, no pondré una tabla extra para no llenarnos de tablas. En este ejemplo, la mediana para hombres salió 1200 mientras que para mujeres 1000. Combinando estos datos con la tabla 3, podemos decir que existe una diferencia significativa en la percepción de ingreso mensual necesario para vivir entre hombres y mujeres. Donde los hombres, perciben que se necesita mayor dinero para vivir mensualmente que las mujeres.

Entiendo que este post, ha sido realmente bastante largo, pero espero que sigan acá, valientes lectores. Estos análisis no se suelen utilizar demasiado, pero de todos modos es bueno conocerlos y uno nunca sabe cuándo puede toparse con una situación que requiere utilizarlos. Para la siguiente aventura me gustaría sorprenderlos. Por ello, no les diré el análisis que haremos. Sino que me encantaría que ustedes mismos se sorprendan cuando aparezca.

Recuerden que siempre pueden comentar en la parte de comentarios y encantado de responderles.

¡Buenas vibras para todos!

Referencias

– Kline, R. B. (1998). Principles and practice of structural equation modeling. NY: Guilford Press.
– Kline, R.B. (2005), Principles and Practice of Structural Equation Modeling (2nd Edition ed.). New York: The Guilford Press.

Publicado en Básico 2.0 | Etiquetado , , , , , | 41 comentarios

Una línea que sigue y avanza: La regresión lineal simple

Estimados todos, ¿qué tal? Espero que todo esté yendo muy bien. Les comento que este es el comienzo, sí, ¿el comienzo de qué? El inicio de una aventura hacia uno de los análisis más usados en estadística. La regresión lineal. Antes que nada, les cuento que este es un previo, porque ese análisis que les cuento es la regresión lineal múltiple. Pero para llegar a ella, previamente tenemos que hacer la más simple de sus versiones.

En este, caso, no pondré cuál es el objetivo de este post al comienzo, los valientes lectores ya deben imaginar cuál debe ser el propósito de este capítulo de Stats SOS. Para este post, y a manera de comenzar un nuevo tema y hacer pequeños cambios pondré el objetivo al final.

La regresión lineal simple, como su nombre lo dice es un análisis lineal. ¿qué significa esto? Que busca encontrar si existe una relación entre una variable y otra. Ahora, los valientes lectores que conocen la correlación de pearson (pueden encontrarla aquí), me dirán que esto suena igual. Bueno, en cierta manera la regresión lineal simple y la correlación de pearson son análisis muy parecidos y son parte de una misma familia. La gran diferencia entre una y otra es que la correlación de Pearson busca la relación entre dos variables, mientras que la regresión busca ver cómo una variable explica a otra variable. Aparte, al igual que la correlación, la regresión lineal simple utiliza variables de intervalo y no puede utilizarse con otros tipos debido a que es un análisis lineal. Recuerden, valientes lectores, siempre pueden ir a post anteriores para revisar algo que no recuerden. Para este caso, este post  los puede ayudar a recordar qué es una variable de intervalo.

¿Está todo bien? ¿Suena raro y extraño? No hay ningún problema, no se angustien ni se preocupen. Vamos a un ejemplo, los maravillosos ejemplos siempre son excelentes para nuestro aprendizaje.

En nuestras labores cotidianas (ya sea estudiando algo o trabajando en algo), nos hemos percatado que tener un grupo de amigos o amables colegas en el trabajo nos permite relajarnos y a su vez hacer que el estrés descienda. Sin embargo, esta es una simple deducción y como investigadores, es importante que probemos científicamente si es que efectivamente esto se da en la realidad. Si lo haces al ojo, terminas con un ojo morado :).

Por ello, un grupo de investigadores deciden hacer una pequeña investigación. Para ella, recogen información de 270 jóvenes sobre estrés (variable A) y soporte social (variable B) y buscan conocer si es que el soporte social puede explicar el estrés. Para ello, miden las dos variables con dos cuestionario y sacan los promedios de puntajes de cada uno. En ese caso, tanto la variable A, así como la variable B son de intervalo. Recuerden, este post los puede ayudar para recodar qué es una variable de intervalo. 

¡Excelente! Luego de ingresar todos los datos, corremos los análisis. ¡Espera! ¿Cómo se corren los análisis? ¡Pues muy sencillo!

En este caso, con el SPSS se debe seguir la siguiente ruta:

Analizar/regresión/lineales/

Para este caso, como queremos saber si el soporte social puede explicar el estrés, ponemos como variable dependiente, estrés y en variable independiente soporte social. Luego de ello ponemos aceptar. ¡Aquí vamos!

¡Muy bien! Ahora que el SPSS proceso todos nuestros datos, esto ocurrió: ¿Están listos? ¿Preparados? Nos mostró tres tablas básicas. Para este post solo pondré las tablas básicas pero para siguientes publicaciones esto se irá poniendo más y más complejo. Pero con calma, estoy seguro que todo irá muy bien.

Tabla 1

regresion simple1

Esta tabla lo que nos muestra básicamente es cuán relacionadas están estas variables. En este caso, la tabla no pone la dirección (directa o inversa) de la relación entre soporte social y estrés. Lo único que hace es poner cuán relacionadas están las variables. Esto es muy similar a una correlación de Pearson, los que no recuerdan que es esto pueden ir a este post. 

¡Muy bien! En este caso, la R significa la relación entre soporte social y estrés, en este caso nos dice que hay una importante relación (.36) entre las dos variables. Los que no recuerdan qué era una relación entre dos variables, ¡no hay problema! este post puede ser de mucha utilidad. 

Por otro lado, la R cuadrado es como su nombre lo dice, la relación (R) elevada al cuadrado. El R cuadrado, es la proporción de varianza explicada de estrés por soporte social. En otras palabras, cuánto los puntajes de soporte social explican los puntajes de estrés. Por el momento, solo hablaremos de estos dos análisis, los que tienen curiosidad de saber qué es la R cuadrado corregida, siempre pueden dejar un comentario en la sección posterior y encantado de ayudar. De todos modos, cuando veamos regresión múltiple la R cuadrado corregida tomará bastante importancia.

Tabla 2

regresionsimple2

Esta tabla de ANOVA (¿les suena conocida? a los que no, este post puede ayudarlos a identificar rápidamente la misma). Nos menciona si es que nuestro modelo que busca explicar el estrés utilizando el soporte social es significativo o no. Mientras más grande sea la F hay más probabilidad que nuestro modelo sea significativo. ¿Por qué? Porque mientras más grande es la F hay menor probabilidad que la explicación de estrés por soporte social se de por el azar o algún motivo desconocido. En este caso, vemos que el modelo es significativo ya que es menor a .05. Los que no recuerdan qué significa esto, ¡no hay ningún problema! Este post los puede ayudar a recordar a qué se refiere una significación.

Tabla 3

regresionsimple3

Finalmente, esta tabla nos muestra nuestro modelo de regresión lineal simple pero al detalle. En este caso podemos ver dos lineas, de datos. La primera que se refiere a la constante y la segunda directamente al soporte social. En este caso, no hablaremos mucho de la constante, pero lo que si mencionaremos es que la constante se refiere a los valores que toma la variable que queremos explicar (en este caso estrés) cuando nuestra variable explicativa o predictiva (soporte social) es igual a 0. ¡Muy bien! Dicho esto, sigamos avanzando. Vamos a saltar la línea de la constante y nos iremos directamente a la línea que nos habla del soporte social. Los coeficientes no estandarizados, miden el cambio entre la variable independiente (soporte social) y la variable dependiente (estrés). ¿Qué dice este análisis? Para este caso, cada vez que se incrementa un punto en soporte social, el estrés baja en 1.928 (porque si ven la tabla 3, el número tiene un signo negativo).

Por otro lado, el coeficiente tipificado, nos menciona la misma información con una gran diferencia. El coeficiente tipificado mide el cambio o cuánto explica soporte social al estrés, con valores que van desde -1 a 1 (así como una correlación). Este coeficiente también es llamado coeficiente estandarizado, porque los puntajes se han estandarizado (o convertidos) para solo tener valores entre -1 y 1. ¿Por qué es útil esto? Cuando se tiene varias variables (regresión múltiple) se puede saber cuál de las variables de nuestro modelo explica mejor la variable que queremos explicar. Entiendo que ahora esto puede ser poco claro, pero cuando veamos regresiones múltiples verán que esto se vuelve mucho más claro ¡Se los prometo!

De todos modos, el coeficiente tipificado, tiene una particularidad bien interesante en la regresión lineal simple. Este valor, es idéntico al que obtendríamos si hiciéramos una correlación de Pearson entre Soporte social y estrés. Si no me creen, ¡no hay problema! Si ven a continuación (tabla 4), observarán un análisis de correlación de las dos variables que mencioné y verán que estrés y soporte social tienen una relación de -.36 que es exactamente igual al coeficiente tipificado de la tabla 3 en la línea de soporte social. 

¿Qué significa esto? Que hay una relación inversa (ver post de correlaciones), entre los puntajes de soporte social y los puntajes de estrés. En términos de regresión, el soporte social explica el estrés en .360 y ha mayor soporte social menor estrés. 

Finalmente, verán que estos valores son significativos porque son menores a 0.05 (en las tablas 3 y 4 aparecen valores de .000, en otras palabras, valores muy pequeños). Ello implica que está relación es significativa (ver post).

Tabla 4

regresionlineal4

¡Muy bien! Esto sería todo por hoy. El objetivo de este post fue describir de manera sencilla, ¿qué es una regresión simple?  Un tema importantísimo de tomar en cuenta, es que si bien hemos utilizado la palabra “explicar” para referirnos a la regresión, no es apropiado hablar de causalidad aquí. Es mejor, y más cauteloso hablar de relación en lugar de causalidad, pero por temas didácticos es que hemos usado la palabra explicar. Para lograr encontrar causalidad es necesario utilizar diferentes diseños de investigación como por ejemplo el experimental.

Para la siguiente aventura de Stats SOS, veremos los principios que se deben seguir para hacer una eficiente y precisa regresión lineal multiple. En el siguiente post verán que haré mención de un buen amigo y seguidor del blog que quería ser parte del blog y como él siempre me ha dado apoyo entonces le concedí el pedido. Dudo que mi novia se ponga celosa de ello, así que no hay problema :). Recuerden que siempre pueden dejar un maravilloso comentario en la parte de comentarios.

¡Espero que todos tengan una excelente semana y buenas vibras para todos!

Publicado en Regresiones | Etiquetado , | 31 comentarios

¿Qué rango tiene usted? Los rangos promedio

Estimados todos, bienvenidos a otro maravilloso capítulo de Stats SOS. En la aventura de hoy veremos un concepto que nos ayudará a introducir los análisis no lineales.

En el capítulo de hoy describiremos de manera sencilla los rangos promedio o mean ranks y mencionaremos en qué análisis se usan.

¿Están listos? Me imagino que sí, valientes lectores. ¡Muy bien! El rango promedio, es un promedio obtenido después de haber ordenado nuestros datos de menor a mayor. 

¿Suena raro? No se preocupen que un momento vamos a presentar un maravilloso ejemplo, pero antes es importante mencionar que los rangos promedio se utilizan cuando queremos comparar variables que son ordinales. ¿Recuerdan lo que era una variable ordinal? Si no se acuerdan, ¡no hay problema! Vayan a esto post que les ayudará a poder recordar este concepto. 

¡Excelente! Presentado esto, vamos a un ejemplo de cómo convertir un grupo de números a rangos promedio. Este ejemplo es sencillo y he intentado no utilizar muchas categorías para simplificar el tema.  Imagínense que estamos midiendo nivel educativo y tenemos 5 valores  (1 – primaria, 2 – secundaria, 3- universitario técnicos, 4 – estudios universitarios y 5 – posgrado).

Luego, vamos a un grupo de 10 personas y les preguntamos su nivel educativo. Luego de hacer las encuestas ingresamos la data a la computadora y obtenemos los siguientes valores:

3, 3, 3, 4, 4, 5, 1, 2, 2, 5. Que son los niveles educativos de las 10 personas encuestas. 

En otras palabras: tenemos 3 personas con estudios técnicos, 2 personas con estudios universitarios, 2 personas con estudio de posgrado, 2 personas con secundaria y una persona con primaria.

¡Muy bien! ¿Hasta ahí todo bien? Ahora vamos a la parte interesante. Cuando cualquier programa estadístico les muestre rangos  promedios, el paquete ha hecho la siguiente transformación:

Paso 1:

Niveles de instrucción

3

3

3

4

4

5

1

2

2

5

Números ordenados

5

5

5

7.5

7.5

9.5

1

2.5

2.5

9.5

Niveles ordenados

1

2

2

3

3

3

4

4

5

5

Rangos

1

2.5

2.5

5

5

5

7.5

7.5

9.5

9.5

Se preguntarán ¿qué diablos paso aquí?  Muy sencillo, lo que hemos hecho es ordenar los números. En general, los paquetes estadísticos para calcular los rangos promedios primero ordenan de menor a mayor. Sin embargo, cuando el número se repite, por ejemplo el SPSS, saca el promedio de las posiciones en que se encuentra ese valor. Pongamos dos ejemplos: el nivel “2″ se repite dos veces y el nivel “3” se repite tres veces. Entonces el SPSS hace los siguientes cálculos:

(2 + 3)/2 = 2.5

¿Cómo? El primer “2”, está en la segunda posición, el siguiente dos está en la tercera posición. Por eso, se suma 2 + 3, donde estos números representan la posición en que está las categorías o niveles. Luego, hay solo dos números dos en nuestra tabla entonces dividimos entre 2. De ahí sale (2 + 3)/2 = 2.5. 

¿Confuso? ¡No hay problema! ¡Vamos a otro ejemplo!

El número 3, tiene el rango 5, ¿Verdad? ¿Por qué creen que pasó esto? ¡Muy sencillo!

Contando de izquierda hacia la derecha, el primer “3”, está en la posición 4, el segundo “3” está en la posición 5 y finalmente el tercer “3” está en la posición 6.

En ese caso, debemos sumar (4 + 5 + 6) que representan las tres posiciones que están los “3” repetidos. Como hay tres repeticiones de la categoría “3” que viene a ser universitario técnico, entonces se divide entre 3. Por eso sale (4 + 5+ 6)/3 = 5. 

¿Siguen aquí? Me imagino que sí valientes lectores. Esto no es magia, sino un proceso, ya sabremos por qué es importante saber esto. Paciencia :).

Paso 2:

Luego de haber sacado los rangos, el último paso es sumar todos los rangos y dividirlos entre la cantidad de casos. Como tenemos 10 personas, dividimos entre 10. Entonces, hacemos la siguiente operación:

(1 + 2.5 + 2.5 + 5 + 5 + 5 +7.5 + 7.5 + 9.5 + 9.5)/ 10 = 5.5

Y este es nuestro Rango promedio.

¿Por qué diablos nos estamos tomando el trabajo de aprender esta cosa rara? ¡Muy sencillo, porque para todos los análisis que tienen que comparar variables ordinales, los paquetes estadísticos hacen este procedimiento. Entonces, es importante saber qué diablos está pasando. Análisis como la W de Wilcoxon o la U de Mann Whitney hacen este cálculo.

Es vital saber esto porque, cuando la distribución de nuestros puntajes es no normal (ver este post), tenemos que usar la W de Wilcoxon o la U de Mann Whitney y estos análisis por defecto botarán rangos promedios. Por ejemplo, si nosotros reportamos los rangos promedios de nuestros puntajes de autoestima entonces estaremos metiendo la pata y cometiendo un error grave. Será un error grave porque tratamos nuestros puntajes como categorías con un orden cuando en realidad no lo son. Los rangos promedios solo se usan cuando quieren comparar variables que son ordinales. 

¿Quedó un poco en el aire? No se preocupen y respiren, los análisis la W de Wilcoxon y la U de Mann Whitney los vamos a ver luego. En esos casos, vamos a poner un caso donde usaremos estos análisis cuando comparemos puntajes que tienen una distribución no normal y usaremos la mediana y otro caso cuando comparemos variables ordinales y usaremos los rangos promedio. 

¡Muy bien! ¡Creo que esto sería todo por hoy! Espero que estén muy bien valientes lectores, estoy seguro que sí, ustedes tienen mucho empeño y son muy inteligentes. Para el siguiente post sobre estos temas, veremos la U de Mann Whitney, y conoceremos de manera sencilla, cómo funciona y cuándo es que debemos usarlo.

Ya saben que siempre pueden dejar sus excelentes comentarios que serán muy bien recibidos. ¡Buenas vibras para todos!

Publicado en Conceptos | Etiquetado , , , , , , , | 4 comentarios

Cálculos manuales del ANOVA de dos vías

Estimados todos, bienvenidos nuevamente a Stats SOS. Este no es un post convencional, aquí solo les dejaré la forma de hacer un ANOVA de dos vías utilizando cálculos manuales (ANOVA dos vias).

Lo que están interesados en saber cómo se este análisis en el SPSS pueden ir a este post.

¡Buenas vibras!

Publicado en Uncategorized | Etiquetado , | Deja un comentario