¡No puedo comparar cosas medidas de diferente manera! Los puntajes Z

Estimados todos,

Como siempre es un gran gusto tenerlos aquí en Stats SOS. La aventura de hoy nuevamente será corta pero bastante útil.

¿Alguna ves se han preguntado cómo hace la gente para comparar algo que está medido de manera diferente? Por ejemplo, en la escuela nos dicen que si tenemos dos valores, uno en metros y otro en centímetros tenemos que poner todo en centímetros para que se pueda comparar o medir correctamente, ¿cierto?

¡Bueno! El mismo tango ocurre en estadística cuando tenemos por ejemplo pruebas psicológicas. Le llamamos que la métrica es distinta. En otras palabras, que dos variables (ustedes ya saben muy bien lo que es una variable :)) están medidas de diferente manera. Para eso, necesitamos algo, llamado puntajes Z. 

De este modo, la aventura de hoy es describir qué son los puntajes Z y cómo calcularlos con el SPSS. En sencillo, un puntaje Z es un valor estándar que permite comparar dos variables que antes estaban medidas con unidades (metros, kilómetros, etc) diferentes. En ese caso, se está transformando un puntaje medido de una forma y se mide de otra. En términos técnicos, es la distancia que tiene un valor o persona específica del promedio de toda la muestra.  Si el puntaje Z es positivo, quiere decir que esa persona tiene un puntaje por encima del promedio de toda la muestra o grupo. Si el puntaje Z es negativo, esa persona tiene un puntaje que está por debajo del promedio. Aparte, otra gran utilidad que tienen los puntajes Z es que estos se distribuyen de manera normal (¿recuerdan qué es esto? ver aquí).

Aquí les muestro la fórmula:

 

zscore

Ojo, no se asusten con esto, solo les pongo la fórmula para que se vea más claro. Entonces, así como mencionaba para lo que es muy útil el puntaje Z es para comparar o relacionar dos variables que están medidas de manera diferente y poner todos los valores en una misma forma o misma medida.  Además, es sumamente útil para saber cuan lejos los puntajes de las personas están por debajo o por encima del promedio de todo el grupo. En otras palabras, pone el promedio de todo el grupo como punto de referencia (en un puntaje Z el “0” significa que el valor de la persona es igual al promedio de todo el grupo) para describir la muestra.

¡Muy bien! ¿Cómo se sienten? ¿Están bien? Estoy seguro que sí. Para aliviarnos de esto, vamos a un ejemplo práctico.

Imaginen que tenemos una muestra de 100 personas donde queremos conocer el consumo de drogas ilegales y cuántas personas consumen una gran cantidad de estas y cuántas no. Entonces asumimos que una cantidad alta son todas las personas que tienen un consumo de dos unidades en puntaje Z por encima del promedio y un consumo bajo es el resto. Para ello, podemos usar nuestros puntajes Z. ¿Preparados?

Cuando ya tenemos nuestra base de datos en el SPSS, podemos hacer lo siguiente:

Analizar/Estadísticos descriptivos/Descriptivos/

Luego, introducimos la variable que nos interesa en el recuadro de la derecha y marcamos la casilla que está en la parte inferior de la ventana “Guardar valores tipificados como variables” y luego ponemos aceptar. ¡Nada más!

Después de todo esto, regresen a su base de datos y verán que al final tendrán una nueva variable que dice “Zsustanciailegales” y tendrán valores negativos y positivos. 

¡Fantastico! Ya tienen la variable Z creada. Lo único que hizo el SPSS es aplicar la fórmula que les mostré arriba a los puntajes de consumo de sustancias ilegales para los 100 participantes. ¿Ven? La formula no era tan terrible y el SPSS nos ayuda a hacer el cálculo, pero recuerden jóvenes valores mundiales, es vital que ustedes sepan qué está haciendo el SPSS para que no los sorprenda :).

¡Muy bien! Ahora vamos a la recta final. Ya que tengo mi puntaje Z ahora lo que necesito es saber qué porcentaje de las 100 personas que tengo tienen un alto consumo de drogas ilegales y qué porcentaje no. Aquí, con un análisis de frecuencia creo que bastaría. ¡Así que vamos a eso!

Analizar/Estadísticos descriptivos/Frecuencias

Introduzco en la casilla de la mano derecha mi nueva variable “puntaje Z” y pongo a aceptar ¡y listo! Después de todo esto, les tendría que salir una tabla más o menos así.

resultadosZ

Si observo el porcentaje válido puedo ver que 4% de mi muestra tiene un consumo alto de drogas ilegales y 96% (el resto) no. (Ver la columna 1 donde salen los puntajes y al final hay un grupo que consume más de dos unidades por encima del promedio. Luego ver la columna 3 donde dice porcentaje válido y pueden ver 4% de toda la muestra de 100 personas consume bastante drogas ilegales).  ¡Listo! Con eso ya tenemos la respuesta a nuestra inquietud :).

¡Ven muchachos y muchachas! ¡Todo muy bien! No pasó nada terrible ni nada, con esto podemos ver cómo el puntaje Z que es una transformación me ayuda a conocer más sobre las características de mi muestra. Para los que no me crean que esta transformación genera que los puntajes estén distribuidos de manera normal o paramétrica aquí el ejemplo.

histograma.jpg

Espero que este pequeño capítulo allá sido útil para ustedes :), nota importante, esto también lo pueden hacer con múltiple variables y el programa les hará el trabajo de calcular el puntaje para que puedan medir sus variables con una misma métrica y distribuidos normalmente para poder conocer más sobre sus cómo se comportó su muestra con respecto a las variables que evaluaron.

¡Mucho éxito y ya nos veremos pronto, ya les pondré otros ejemplos de transformaciones de datos y lo útil que pueden ser para nosotros realizarlos. ¡Vamos gente! Súbanse al carro, la estadística no es fea y puede ser muy útil e interesante para nosotros. Nuevas aventuras habrán, recuerden de poner “like” en la página de Facebook, seguirnos en Twitter y por supuesto, comentar con todas sus preguntas e inquietudes sobre este tema. Encantado de responder, recuerden ustedes son los que hacen que este blog exista :).

Anuncios
Publicado en Conceptos, Uncategorized | Etiquetado , | 4 comentarios

Poblaciones con constantes y muestras que varían

Estimados todos,

Bienvenidos a otro fantástico capítulo de Stats SOS. La misión de esta pequeña aventura es describir qué es una población, una muestra, una variable y una constante.   

No se inquieten ni se asusten, este post será bastante pequeño debido a que la idea es complementar otras aventuras que ya hemos realizado. En este caso, estamos con la técnica del cangrejo el cual camina hacia atrás. ¿Por qué? Porque aquí buscamos relatar cuatro conceptos bastante básicos después de haber representado otros mucho más complejos.

Pero bueno, vamos a lo nuestro. En esencia, una población es la totalidad de personas que muestran características específicas. Otro nombre muy común para referirse a este concepto es universo. Vamos a un ejemplo para que sea más fácil representar esto. En sí, la población total de cualquier país es como su nombre lo dice una población. En otras palabras, la población de Angola es todo el universo de personas que representan a este país. 

En los estudios de investigación no se suele utilizar con frecuencia la población debido a que puede ser muy costoso y se necesita un despliegue enorme de recursos para lograr esto. Por ejemplo, en Angola existen 21,47 millones de habitantes. ¿Se imaginan entrevistar a todas estas personas? Asumiendo que la encuesta que van a utilizar dura 10 minutos, el tiempo que tomaría en entrevistar a todas estas personas es 10 * 21,47 millones minutos, sin contar en ir a la casa de cada una de las personas. ¡Demasiado tiempo! Por eso, para realizar estudios de investigación de utiliza algo llamado muestra. 

En esencia, una muestra es un subconjunto de casos de una población o un universo. En otras palabras, es un grupo más pequeño que mediante técnicas de muestreo pueden representar a la población. Entonces, si cerramos la idea una muestra representativa es un grupo que es más chico que la población que se obtienen con la intención de obtener resultados que puedan representar a toda la población. 

Luego que se obtiene una muestra por lo general se busca obtener características, ya sea de las personas, de los peces, los árboles etc. En este caso, asumiremos que queremos obtener las características de una muestra. Para ello, necesitamos algo llamado variable.  Una variable es una característica que al ser medida en diferentes personas puede adoptar diferentes valores. Por ejemplo, si usamos una prueba que mide depresión es posible que los niveles o valores de depresión varíen entre cada uno de los individuos. Entonces los valores  de la variable depresión varían o son distintos por cada uno de los individuos.

Sin embargo, esto no se da en todos los casos, a veces puede ocurrir que existan características de las personas que tengan valores fijos o constantes. ¿Confuso? ¡Vamos a un ejemplo! Imagínense que tenemos una muestra de 100 personas y que les tomamos una prueba de estadística. Luego de haber tomado la prueba nos percatamos que los 100 estudiantes obtuvieron una nota de 20. En ese caso, todos los alumnos tienen la misma nota, en otras palabras un valor fijo de 20. Ahora, imagínense que en mi muestra de 100 personas existen 40 mujeres y 60 hombres y quiero sacar el promedio de notas de hombres y mujeres. Dado que el valor es fijo o constante, así yo saque el promedio 40 mujeres y de 60 hombres por separado, como la nota de mi muestra tiene un valor fijo (que es 20), siempre el promedio saldrá 20.

¡Un último ejemplo y con esta nos vamos! En el ámbito científico se dice que la velocidad de la luz es constante. ¿Por qué? Porque siempre va a ser 299.792.458 m/s. Esta velocidad es pareja y no cambia, así pase 1 hora o pasen 5 horas.

¿Están bien? ¿se sienten cansados y aterrados?  Me imagino que no, ustedes son muy inteligentes jóvenes lectores y seguro que para ustedes esto fue sumamente sencillo. Si llegaron hasta acá los felicito y les agradezco, siempre es fantástico compartir una nueva aventura con ustedes. Los que que quieren seguir profundizando estos temas siempre pueden ir al post de tipos de variables que va un paso más adelante en este.

Mucho éxito y definitivamente nos vemos pronto con más aventuras y experiencias. Recuerden visitar el twitter de Stats SOS y obviamente el fan page de Facebook. Además, cualquier duda o comentario que quieran compartir siempre son bienvenidos. ¡Anímense a comentar que sus intervenciones son lo que realmente le dan vida a estas aventuras!

¡Nos vemos y hasta la próxima!

Publicado en Básico 1.0, Uncategorized | Etiquetado , , , | 12 comentarios

Mis grupos son diferentes ¿Cuán diferentes? El tamaño del efecto

Estimados todos, nos vemos de nuevo, para una aventura más en Stats SOS. Espero que estén muy bien y tengan los cinturones bien abrochados y estén preparados para la aventura de hoy.

Quizás se habrán preguntado, “Ok, mis grupos son diferentes en una T-student (ver post) o U de Mann Whitney (ver post), pero ¿cómo se cuán diferentes son?” Bueno, para ello existen ciertas técnicas para averiguarlo. No basta solo con mirar los promedios y decir “¡Ah, hay una gran diferencia entre un promedio o una mediana y otra entonces deben ser muy diferentes”. Para ello veremos un análisis llamado el tamaño del efecto que nos permite comprender con mayor profundidad la diferencia entre dos grupos.

Entonces, la aventura de hoy requiere estar con la mente abierta y bien animados, para lograr cruzar por el camino del tamaño del efecto para que al final de la travesía podamos describir de manera sencilla qué es este análisis.

En ese caso, el tamaño del efecto en sencillo es la magnitud de la diferencia entre los puntajes promedio o medio de un grupo y otro. En sencillo, cuán diferentes son los puntajes promedios (o las medianas de los puntajes) de  dos grupos. Los que no recuerdan qué son promedios o medianas siempre pueden ir a este post para refrescar la memoria.

En este caso, el tamaño del efecto es un complemento de nuestra significación estadística en las comparaciones de medias o medianas. Ahora nos preguntamos, ¿Por qué se necesita esto? Por dos razones muy sencillas: a) Por ejemplo, la T-Student o los análisis de U de Mann Whitney te dicen exactamente que hay diferencias entre dos grupos pero no cuán diferentes son.  b) Cuando tenemos grupos muy pequeños (por ejemplo: grupo uno con 10 personas y grupo dos con otras 10  personas) las pruebas de significancia (el valor p) no funcionan de manera adecuada porque estos análisis están diseñados para muestras más grandes. Los que no recuerdan qué es la significancia siempre pueden volver a este post. 

¡Perfecto! ¿Hasta ahí todo bien? No se angustien, vamos con calma. Creo que dos ejemplos nos podrán ayudar a pasar exitosamente por esta travesía. En este caso, tomaremos ejemplos pasados, para ello, veremos por un lado al ejemplo del post de T-student con muestras independientes y por otro al de U de Mann Whitney.

¡Muy bien vamos al primer ejemplo! En esa aventura comparamos si existía diferencias entre los puntajes de una prueba de bienestar entre hombres y mujeres. Ahí comparamos dos grupos (50 hombres y 50 mujeres) y les tomamos una prueba de bienestar. Finalmente, los resultados salieron significativos y por ende se mostró una diferencia entre hombres y mujeres ¡y fuimos felices! Los que quieren recordar esto siempre pueden volver a este post. 

Pero ahora iremos un poco más lejos y averiguaremos cuán grande son estas diferencias. Para ello veremos primero la tabla que muestra algunos resultados.

Tabla 1:

Untitled

¡Excelente! Ahora que tenemos estos resultados, necesitamos calcular el tamaño del efecto. Para ello, necesitaremos nuestra calculadora de mano o alguna hoja de cálculo como Excel o Numbers (Mac). Pero no nos asustemos, no es una fórmula imposible ni mucho menos. ¿Están preparados? ¡Aquí va!

Fórmula 1: Esta fórmula es la llamada d de cohen, porque Jacob Cohen fue el primero que la propuso para poder calcular cuán diferentes eran dos grupos.

 d de Cohen

Fórmula 2: Esta fórmula muestra cómo calcular la desviación estándar ponderada. Esta se utiliza cuando las desviaciones estándar (o típicas) de nuestros grupos son diferentes.

desviacionstandard

Listo! Aquí tenemos las dos fórmulas, se que pueden verse horribles y espantosas, pero no lo son, nosotros somos valientes aventureros y podemos enfrentar exitosamente este reto. Como ven, para calcular la d de cohen que nos muestra la magnitud del efecto es necesario primero calcular la desviación estándar ponderada. Esta es una especie de desviación estándar general para nuestros dos grupos.

En este caso, asumiremos que el grupo t son hombres y el grupo c son mujeres. Por ello, podemos ver los siguientes valores que sacamos de la Tabla 1:

nt = 50,

nc = 50

st = 4.23031

sc = 5.02975

xt = 14.32

xc = 11.74

Paso 1: Calcula la desviación estándar ponderada

Muy bien, si reemplazamos todos esos valores primero en la fórmula 2 vemos que la desviación estándar ponderada es: 

S ponderada = √((50-1)(4.230312)) + ((50 -1)(5.029752))/50 + 50 = 4.601

No se asusten si ponen estos valores en Excel o Numbers la computadora puede hacer el cálculo por ustedes.

Paso 2: Calcular la de d de Cohen.

¡Listo! Ya que tenemos la primera parte que es la desviación estándar ponderada vamos a la otra fórmula que es la d de cohen que nos dará los tamaños del efecto. Para ello hacemos el siguiente cálculo:

d = (14.32 – 11.74)/4.601 = 0.5607

Ahora, ¿qué diablos significa este número? ¡Muy sencillo Cohen propuso algunas reglas para determinar si una diferencia es pequeña, moderada o grande. El autor planteaba que .20 hacia arriba, es una diferencia pequeña, .50 hacia arriba es una diferencia moderada y .80 hacia arriba es una diferencia grande (Cohen, 1988).

Ojo, pestaña y ceja (1): En cierta literatura es posible que se encuentre otra fórmula donde no se debe calcular una desviación estándar ponderada. Esto se debe a que la primera fórmula que utilizó Cohen asumía que ambos grupos tenían desviaciones estándar iguales. Sin embargo, como vemos en nuestro ejemplo, (y en la mayoría de casos de la vida real) esto no se da. Aparte, en la literatura existen una serie de diferentes fórmulas como la delta de Glass y la g de Hedges que son extensiones o mejorías de la fórmula original de Cohen. Los que tienen curiosidad sobre estas fórmulas siempre pueden dejar un genial comentario al final para poder conversar sobre ello. Por el momento, utilizaremos esta fórmula que suele ser la más convencional pero que además propone una alternativa cuando los puntajes de nuestros grupos tienen desviaciones estándar distintas.

¡Perfecto! Luego de haber hecho el preámbulo, podemos ver que nuestra d = 0.5607, lo cual muestra una diferencia moderada entre los puntajes de bienestar entre hombres y mujeres. 

Ojo, pestaña y ceja (2): El tamaño del efecto está muy relacionado con el poder estadístico. Sin embargo, en esta aventura no veremos este tema. De todos modos, los que están interesados en surcar por esos senderos, siempre pueden dejar un maravilloso comentario en este post.

¿Siguen aquí? ¿Está todo bien? ¡Seguro que sí! Ahora vamos a nuestro segundo ejemplo. En este veremos la diferencia de dos grupos utilizando la U de Mann Whitney y luego de ello calcularemos el tamaño del efecto cuando utilizamos análisis no paramétricos. 

¡Excelente! En este caso, recabamos 27274 personas y comparamos entre hombres y mujeres la percepción de cuánto dinero se necesita para vivir en un mes. En este análisis comparamos 14711 mujeres contra  12563 hombres. En ello vimos que los puntajes no tenían una distribución normal por lo que tuvimos que utilizar la U de Mann Whitney. Al final, encontramos que los hombres mostraban un mediana de 1200 mientras que las mujeres una mediana de 1000 (pongamos dólares) para vivir durante un mes y estas diferencias eran significativas (Ver tabla 3).  Los que quieren recordar este ejemplo siempre pueden volver a este post. 

Tabla 3

significancia

Ahora, ¿Cómo saber si es que esa diferencia es efectivamente grande?

¡Muy sencillo! Tenemos que calcular una nueva fórmula. Dejamos a Cohen descansar y en esta ocasión invocamos la r de Rosenthal (Rosenthal, 1991). ¿Están listo? ¡Aquí va!

Formula 1:

Rosenthal

Como ven, esta fórmula se ve mucho más sencilla. Para ella, necesitamos el valor Z de nuestra U de Mann Whitney y la cantidad de gente (N) del cual se basa todo el análisis.

Ojo, pestaña y ceja (3): Se usa la cantidad de gente de todo el análisis y no de cada uno de los grupos.

En este caso, tenemos una Z = -9.666 y una N = 27274. Si realizamos el cálculo obtenemos lo siguiente:

r= -9.666/√27274 = -0.058

Este valor, según los criterios de Cohen (o también la extensión que hizo Rosenthal) que vimos previamente, muestra que existe un efecto pequeño (Rosenthal, 1991) en las diferencias de puntajes de percepción de dinero necesario para vivir un mes entre hombres y mujeres.

Ojo, pestaña y ceja (4): La r de Rosenthal es muy sensible a la cantidad de gente que se tiene en el estudio (la cantidad de muestra, mientras más grande la muestra menor será el tamaño entre un grupo y otro). ¡No hay que temer con esto! Esto es normal, muestras muy grandes (grupos con cantidades muy grandes de gente), por un lado pueden tener la posibilidad de incluso representar a la población (dependiendo de otros factores como por ejemplo, el tipo de muestreo que se utilice). Por otro, agregar por ejemplo 10 personas más a dos grupos de 28 mil personas y obtener las medianas no generará una diferencia muy potente por eso el efecto suele ser pequeño cuando tienes muestras demasiado grandes.

¡Perfecto! Creo que esto sería todo por hoy, hemos llegado a la meta sanos y salvos :). Espero que esta aventura haya sido agradable para ustedes valientes lectores. Como siempre los invito a dejar un comentario en el post de hoy compartiendo sus impresiones.

Para la siguiente aventura volveremos a las regresiones y nos extenderemos un poco más y veremos temas como mediación y moderación. Ha sido un placer compartir esta aventura con ustedes y los invito a poner “Me gusta” (Like) en la página de Facebook de Stats SOS, así como seguirnos en Twitter.

¡Hasta la próxima aventura! ¡Buenas vibras!

Referencias

Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd. edit., Hillsdale, N.J., Erlbaum (primera edición, 1977 New York: Academic Press).

Field, A. Discovering statistics using SPSS. Sage. UK.

Ledesma, R., Macbeth, G., Cortada de Kohan, N. (2008). Tamaño del efecto: revisión teórica y aplicaciones con el sistema estadístico vista. Revista Latinoamericana de Psicología, 40(3), 425-239.

Rosenthal, R. (1991). Meta- analytic procedures for social research (2nd ed.). Newbury Park, CA: Sage.

Thalheimer, W., & Cook, S. (2002, August). How to calculate effect sizes from published research articles: A simplified methodology. Retrieved November 31, 2002 from http://work-learning.com/effect_sizes.htm.

Publicado en Básico 1.0 | Etiquetado , , , , , | 63 comentarios

Cálculos manuales Regresión lineal múltiple: Algebra de matrices

Estimados todos,

Como siempre bievenidos a Stats SOS, aquí les comparto el cálculo manual de una regresión lineal múltiple utilizando álgebra de matrices. Espero les sea de ayuda.

¡Buenas vibras!

Regresion_multiple_algebra_matrices

Publicado en Cálculos manuales | Etiquetado , , | Deja un comentario

¿Tienes confianza? La confiabilidad y el Alfa de Cronbach

Estimados todos, bienvenidos a un nuevo episodio de Stats SOS, espero que estén muy bien.

En la aventura de hoy tenemos que tener mucha confianza en nosotros y nuestros datos :). El post de hoy como bien sale, busca ver cuán confiables son nuestros datos. En otras palabras, ver si es que las personas nos han respondido por responder o si lo han hecho de manera consciente. Otro tema que nos ayuda la confiabilidad es conocer a grandes rasgos cómo es que está funcionando nuestro cuestionario.

En ese caso, el reto de nuestra aventura es poder resolver el tema de la confiabilidad y poder describirla de manera sencilla. 

Entonces, ¿qué es la confiabilidad? La confiabilidad estadística es cuando los resultados de un análisis se pueden reproducir en diferentes muestras. En otras palabras, son consistentes. Cuando se analiza un cuestionario, se busca que este tenga confiabilidad y consistencia interna. El primero significa que este cuestionario pueda representar efectivamente y sin un gran sesgo, las opiniones de las personas. Aparte, estas opiniones pueden reproducirse nuevamente con el mismo cuestionario.

¡Excelente! Ahora vamos a lo siguiente, consistencia interna. Como el mismo nombre lo dice, se refiere al interior de un cuestionario. En otras palabras, a que los puntajes de cada pregunta del cuestionario sean consistentes con el puntaje total de todo el cuestionario. Pero ahora me dirán, ¿Cómo diablos sacamos el puntaje total de todo la prueba? Muy sencillo, la colección de todas las preguntas del cuestionario nos permite obtener un puntaje total del mismo. Hay varias maneras de obtener esto, pero no tocaré este tema aquí, los que tienen interés en ello siempre pueden ir a la parte de comentarios :).

Entonces, dicho esto en esta aventura veremos específicamente una técnica para obtener la confiabilidad o fiabilidad que vendría a ser el análisis por consistencia interna, el cual es el Alfa de Cronbach. Pero es importante mencionar que existen otras formas de calcular la confiabilidad, como la técnica por mitades, el test-retest, etc.

Ojo, pestaña y ceja (1): El análisis de consistencia funciona de manera adecuada con preguntas que tienen un escala de respuesta de tipo Likert. Una escala Likert, es la clásica escala de respuesta que tiene por ejemplo, valores del 1 – 7, donde 1 es “Nunca”, 2 “Algunas veces”, hasta el  7 que sería “Siempre”. El Alfa de Cronbach no funciona bien con escalas que tienen valores sí y no (dos opciones de respuesta). Para ello, existen otras técnicas estadísticas (Sijtsma, 2009).

¡Perfecto! En lugar de estar hablando tanto, creo que lo mejor que podríamos hacer es ir a un ejemplo :). Imagínense que queremos conocer los niveles de estrés de un grupo de trabajadores justo después del cierre laboral de fin de mes donde la carga de trabajo es muy alta. Para ello, usamos un cuestionario de 33 preguntas sobre síntomas de estrés que tienen opciones de respuesta del 1-5, donde 1 es “Nunca” y 5 es “Siempre”.

Le pedimos a la empresa que nos de tiempo para entregarle una encuesta a los 250 trabajadores para conocer sus síntomas de estrés. Sin embargo, el encargado nos comenta que tengamos cuidado porque en este espacio laboral, la gente tiende a subestimar sus niveles de estrés y muchos de ellos no aceptan que se sienten muy tensos y evidencian síntomas de estrés.

Dicho esto, nos ponemos alerta y sabemos que tenemos que tener especial cuidado con esto. Muy bien, les tomamos el cuestionario de estrés a los trabajadores, ingresamos toda la información a la computadora y ¡a viajar!

Para nuestro viaje es necesario que sigamos la siguiente ruta:

Analizar/Escala/Análisis de fiabilidad/

En esta ventana, es necesario entrar a Estadísticos, y hacer click (pinchar) para marcar la casilla que dice “Escala si se elimina el elemento”, luego de ello Continuar. 

¡Genial! Ya estamos a mitad del proceso, ahora cerremos esta parte. Luego de ello, debemos poner los elementos que vendrían a ser todos los ítems o preguntas de la prueba que quieren analizar. Aceptar. 

¡Muy bien! Si necesitan un café, té o manzanilla, ¡este es el momento perfecto! (5 minutos después). (Tambores para darle ritmo a los análisis de nuestros resultados).

Tabla 1

Alfadecronbach

Esta primera tabla nos dice nuestro Alfa de Cronbach general. ¿Qué diablos significa este número? ¡Muy sencillo! En el fondo es una correlación, así como la correlación de Pearson que ya conocemos (ver post). La única diferencia con una correlación es que los valores posibles son de 0 – 1. Si les sale un Alfa de Cronbach negativo es muy probable que hay un error de dignación de los cuestionarios. 

En esencia, este estadístico nos propone lo siguiente: Nosotros le tomamos la prueba a 250 trabajadores, ¿cierto? Ahora asumamos que escogemos al azar otro grupo de 250 trabajadores y se les toma la misma prueba. Luego de ello, se hace una correlación de los puntajes de la prueba de nuestros trabajadores con este grupo “ficticio” o mejor dicho “esperado” de puntajes. Y así, mis valientes aventureros sale el Alfa de Cronbach. ¿Enredado? ¡No se preocupen! Lo seguimos viendo.

En ese caso, nuestro Alfa de Cronbach debe ser alto, porque demuestra que hay una relación fuerte entre estos dos grupos, lo cual a su vez muestra que hay consistencia, porque se puede reproducir los mismo puntajes de nuestra prueba de estrés con este otro grupo esperado.

En este caso, nuestro Alfa de Cronbach es de .933 lo cual muestra un Alfa de Cronbach bastante bueno. Algunos autores muestran que valores mayores a .70 son adecuados y que menor a esto puede ser complicado (George & Mallery, 2003; Gliem & Gliem, 2003). En ese caso, vamos !muy bien!

Tabla 2

descripcionconsistenciainterna1

 descripcionconsistenciainterna2

Ahora se viene lo bueno, ¡¿Qué es esta tabla enorme con muchos números?! Sencillo, es un resumen de nuestras 33 preguntas de síntomas de estrés. Nada más y nada menos. Los que aún siguen un poco nerviosos por esta tabla no hay problema, (aquí un poco de música relajante para calmar los ánimos).

Si bien aquí salen 4 columnas, las columnas más importantes para nosotros son las dos últimas hacia la derecha. La primera nos dice la correlación item-test. ¿Qué es esto? Es la correlación de los puntajes de cada pregunta con los puntajes totales de toda la prueba.  Pero en este caso, los valores sí pueden ir de -1 a 1. Pero lo que nosotros buscamos es que todos los valores sean positivos. Nuevamente, así como el Alfa de Cronbach, los puntajes deben ser altos. En ese caso, una clásica regla de dedo es que los valores deben ser mayores a .40 (Gliem & Gliem, 2003). Sin embargo, esto es bien discutible porque se pueden encontrar otras reglas de dedo con valores menores.

En nuestro caso, podemos ver que la gran mayoría de las preguntas funcionan bien con la excepción de la: 8, 12, 14 y 33. Esto lo sabemos porque la correlación ítem – test es menor a .40. En otras palabras, los puntajes de estos ítems no están fuertemente relacionados con el puntaje total de la prueba.  En general, cuando ocurre esto la lógica sería retirar los ítems que no funcionan bien del análisis. 

¡Pero no tan rápido! ¡Paremos el carro! Antes de hacer esto, es necesario ver a la última columna de la derecha, que es el “Alfa de Cronbach si es que se elimina el elemento”. Aquí, como el nombre lo dice, nos muestra cuánto subiría nuestro Alfa de Cronbach si es que retiramos el ítem (pregunta) de nuestro análisis. Si vemos en la columna, si retiramos los ítems 8, 12 y 14 el Alfa de Cronbach no subiría nada o subiría a penas un punto, entonces no vale la pena quitar esos ítems.

Por otro lado, si retiramos el ítem 33 (que tiene una correlación ítem-test de .078), aquí sí hay un cambio de 3 puntos en el Alfa de Cronbach. Por lo tanto, sería recomendable eliminar ese ítem de nuestra escala de estrés.

¿Cómo se elimina el ítem? Muy sencillo se vuelve a realizar todo la aventura con la única diferencia que esta vez no incluimos la pregunta 33 y listo (Aquí les dejo una tonada aventurera de los 80).

Ojo, pestaña y ceja (2): El Alfa de Cronbach asume por defecto Unidimensionalidad. ¿Uni…que? Esto quiere decir que interpreta que todas las preguntas que pongamos en el análisis generan un puntaje total único. Si tienen cuestionarios que tienen diferentes áreas o temas. Por ejemplo, 5 ítems miden autoestima, 6 ítems miden, identidad, etc. Es mejor utilizar el Alfa de Cronbach separando por cada una de las áreas.

¡Muy bien! Creo esto sería todo mis valientes lectores, ¡hemos logrado la hazaña! ¡Los felicito por ello! Recuerden que si tienen alguna pregunta pueden ir siempre a la parte de comentarios. Encantado de poder responderles y saber más de ustedes. Por último, un ojo, final.

Ojo, pestaña y ceja (3): Si bien el Alfa de Cronbach se ha mostrado como una aventura aparte, en general siempre que hagamos análisis inferenciales (ver post), cualquiera que hayamos visto en Stats SOS, siempre es importante antes analizar la consistencia interna de nuestros datos. ¿Por qué? porque sino estamos analizando datos y haciendo concluyendo sobre la base de datos que no son confiables. 

¡Perfecto! Para la siguiente aventura volveremos a nuestras queridas regresiones y las miraremos más a profundidad. En otras palabras, entraremos en la selva de la moderación y la mediación estadística. 

Espero que todos hayan experimentado una excelente aventura, siempre es muy agradable poder enfrentar estas aventuras con ustedes.

¡Buenas vibras para todos!

Referencias

George, D., & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.

Gliem, J & Gliem, R. (2003). Calculating, Interpreting, and Reporting Cronbach’s Alpha Reliability Coefficient for Likert-Type Scales. Conference in Adult, Continuing, and Community Education. Midwest Research to Practice.

Sijtsma, K. (2009). On the use, the misuse and the very limited of the Cronbach’s Alpha. Psychometrika, 74(1) 107-120. DOI: 10.1007/S11336-008-9101-0

Publicado en Básico 2.0 | Etiquetado , , , , | 116 comentarios

Un día llegó la regresión múltiple

Estimados todos, saludos para ustedes, espero que estén muy bien. Bienvenidos a otra aventura de Stats SOS. El episodio de hoy, es parte del mundo lineal. 🙂

Esta aventura nos verá enfrentados a la regresión lineal múltiple, dónde tendremos que revisarla y comprenderla. Estoy seguro que al final la entenderemos y la podremos describir de manera sencilla. 

¡Excelente! Primero que todo, la regresión lineal múltiple, es parte de la familia lineal y es una extensión de la regresión lineal simple. Esta busca relacionar varias variables independientes (o predictoras) con una variable dependiente y esta relación es lineal. ¿Vamos bien, no?

¿Qué les parece si vamos a un ejemplo? Imagínense que tenemos intención de saber si es que el soporte social (Variable A) y una menor desesperanza (Variable B) predice los niveles de estrés (Variable C). Para ello, encuestamos a 269 jóvenes y les preguntamos sobre su soporte social, desesperanza y estrés. ¡Perfecto! Luego de esto, ingresamos todos nuestros cuestionarios a la computadora, y en este caso abrimos SPSS y ¡vamos para adelante! (Aplausos).

Antes de entrar de lleno a nuestra regresión múltiple es importante revisar si es que efectivamente el soporte social y menor desesperanza (por separado) tienen una relación lineal con el estrés. Para ello, tenemos que hacer un análisis ¿Cuál? Seguramente ustedes ya lo deben saber, sin embargo, los que que no recuerdan pueden ir a este post para refrescar la memoria. 

¡Muy bien! Aparte, otra medida que podemos tomar previa a nuestro análisis es evaluar la relación entre soporte social y menor desesperanza para revisar si es que hay una fuerte relación entre ellos. ¿Por qué se hacemos esto? ¡Adivinemos! No, nosotros vivimos de hechos y no de adivinanzas así que si no recordamos podemos ir a este post y revisar él título de Mulcolinealidad. 

Ojo pestaña y ceja: Aquí hay que tener cuidado, si bien hacer este análisis nos puede dar indicios de que dos variables están muy relacionadas, esto no debe ser determinante (Yoo, Mayberry, Bae, Singh, Qinghua & Lillard jr, 2014), de todos modos, es mejor utilizar diagnósticos de multicolinealidad que los veremos más abajo.

Luego de haber hecho todo el calentamiento previo para la verdadera aventura, vamos al meollo de todo el asunto (Tambores). Para ello, vamos a la siguiente ruta:

Analizar/Regresión/Lineales/

Ahí nos va a salir una ventana que dice Regresiones lineales. En ella, tenemos que especificar cuáles son nuestra variable dependiente y nuestras variables independientes. Es importante que recordemos que nuestra variable dependiente es la que queremos medir, mientras que nuestras variables independientes (o predictoras) son las que queremos utilizar para para medir o predecir los puntajes de la variable dependiente.

En este caso, ponemos Estrés en la parte de que dice Dependientes y en la que dice  Independientes ponemos soporte social y menor desesperanza total. ¿Por qué hacemos esto? Porque queremos saber cuánto predicen el soporte social y la menor desesperanza los puntajes de la prueba de estrés.

¡Muy bien! Ahora que tenemos esto, como ya mencionamos anteriormente, es importante también revisar temas como Multicolinealidad así como Homocedasticidad.  Los que no recuerdan qué era esto, ¡No hay problema! Este post les puede ser de ayuda. 

Para ello, vamos a Estadísticos y marcamos la casilla que dice Diagnósticos de colinealidad, luego continuar.  Esta opción nos ayudará a revisar si tenemos problemas de Multicolinealidad o no.

Por otro lado, para probar la Homocedasticidad tenemos que ir a gráficos y ahí en el eje Y es necesario poner Zresid que son los residuos. En otras palabras la variabilidad del error de nuestras variables. Por otro lado, en el eje X es necesario poner Zpred que vendría a ser la variabilidad de nuestros predictores o variables independientes. En otras palabras, la habilidad para predecir de nuestras variables. Luego ponemos continuar. Finalmente aceptar y ¡Ahí vamos!

Tabla 1

modelo_resumen_reg_multiple

Esta tabla, es un resumen general de nuestro modelo. Aquí, podemos ver dos cosas muy importantes: a) Según el R, la combinación de puntajes de Soporte social y puntajes de menos desesperanza tienen una relación de.557 con los puntajes de estrés.  Este valor se interpreta de la misma manera que se interpretaría una correlación de Pearson (ver post). Pero lo más importante para nosotros son los siguientes dos valores. El R cuadrado y el R cuadrado corregido que nos llevan a nuestro otro punto: b) Estos números nos indican la proporción de varianza de los puntajes de estrés explicada por los puntajes de Soporte social y de menor desesperanza. Entonces, la proporción de varianza explicada por nuestras dos variables vendría a ser .31. ¿Cuándo usamos el R cuadrado corregida? Es mejor usar este valor cuando tenemos muchas variables independientes (predictoras). Esto se da debido a que muchas variables tienden a subir (o inflar) el R cuadrado y nos podría dar una idea errónea de cuánto está siendo explicada nuestras variable dependiente por nuestras independientes. ¡Muy bien! Eso no fue tan malo, sigamos con la siguiente. 🙂

Tabla 2

Anova_regresion_multiple

No iremos mucho en detalle con esta tabla. Si se fijan esta es la misma tabla que hemos visto tanto en el post de ANOVA, así como en el post de regresión lineal simple. Esto nos muestra dos cosas: a) la regresión y el ANOVA en el fondo son el mismo análisis que pertenecen a la misma familia (la familia de relaciones lineales). b) La regresión múltiple es una extensión (más compleja) de la regresión lineal simple.

Aquí lo importante es que el modelo es significativo porque muestra una F enorme que genera una significación menor a 0.05. Los que desean ver la relación entre la significación y la F pueden ir al post de ANOVA y también pueden revisar las tablas de valores críticos donde pueden buscar la F = 59.761 y ver cuál es la significancia. Por otro lado, los que no recuerdan por qué diablos es significativo cuando es menor a 0.05 pueden ir al post de estadística inferencial que les puede dar muchas luces sobre ello. 🙂

Ahora vamos a la última tabla, ¿Vamos bien? Tomémoslo con calma, respiremos y descansemos un rato si es necesario, entiendo que esta es una aventura larga pero es importante tener toda la información con nosotros para poder lograr nuestra meta. 🙂 ¡Sigamos adelante valientes lectores!

Tabla 3

coeficientes_regresion_multiple

¡Muy bien! Ahora en este tabla veremos nuestros coeficientes, en este caso nos enfocaremos en los coeficientes no estandarizados,  los coeficientes estandarizados y la Tolerancia y el FIV. Los que tiene interés en saber qué es la constante, siempre pueden dejar un excelente comentario abajo y encantado de responder :).

¡Vamos a lo nuestro! Primero que todo, el coeficiente no estandarizado nos muestra cuánto cambia el estrés cada vez que sube un punto de soporte social o de menor desesperanza. Entonces por ejemplo, cada vez que una persona puntúa un punto extra en el cuestionario de soporte social, el estrés baja (por el signo negativo) en .867. ¿Todo bien? ¿Están ahí? (cric cric, como los grillos). ¡Excelente! ¡Sigamos!

El coeficiente estandarizado, se llama de esa manera porque ahora los valores han sido estandarizados, que en sencillo significa que se le han puesto límites donde los números pueden ir de -1 a 1. ¿les suena conocido? A los que no, ¡no hay problema! Este post les podrá luces sobre ello. ¡Muy bien! Este coeficiente nos menciona cuánto nuestras variables independientes o predictoras predicen nuestra variable dependiente cuando las otras (en este caso la otra) tiene un valor constante.  Para seguir con el ejemplo, Soporte social se relaciona en .16 (negativo) con estrés cuando menor desesperanza es constante. Mientras que menor desesperanza se relaciona en .469 (negativo) con estrés cuando soporte social se mantiene en un valor constante. ¿Qué nos dice esto? Que dentro de nuestro modelo, menor desesperanza predice mejor el estrés que soporte social. 

Aparte, vemos que ambas variables independientes son significativas (menores a 0.05) por ello, podemos decir que estas dos variables son las que predicen los valores de estrés.

¡Excelente! Vamos muy bien, ahora el último respiro para acabar la tabla y terminar con nuestra regresión múltiple :). ¡Vamos nosotros podemos, fuerza!

El FIV (factor de inflación de la varianza), nos muestra si es que un predictor (Variable independiente) tiene una fuerte relación lineal con otro predictor. Un FIV mayor a 10 es muy problemático (Bowerman & O’Connell, 1990; Myers, 1990). Aparte, un FIV muy por encima de 1 puede ser que nuestros resultados estén sesgados (Bowerman & O’Connell, 1990).

Por otro lado, la Tolerancia está relacionada al FIV. En realidad el inverso del FIV es la tolerancia. ¿Qué significa esto? 1/FIV es igual a la tolerancia. Cuando esta es menor a 0.2 es problemático y nos puede dar indicios que hay una relación entre dos variables independientes de nuestro modelo (Menard, 1995).

En nuestro caso, vemos que el FIV (1.218) está muy lejos de 10 y si bien está por encima de 1, no está muy por encima de 1. ¡Así que todo muy bien! No hay multicolinelidad en nuestro modelo :).

Ojo pestaña y ceja: Siempre hay que ser bien precavidos con estas “reglas de dedo”, por ejemplo, algunos autores más actuales han visto que el FIV también puede estar afectado por el tamaño de muestra (O’brien, 2007). Entonces es bueno usar, no solo una correlación previa de nuestras variables independientes (ver más arriba) así como también el diagnóstico de multicolinealidad.

Gráfica 1

Homocedasticidad

Finalmente, este gráfico nos ayuda a ver si es que hay un problema de Homocedasticidad o no. Como vemos, no hay relación lineal entre los residuos y nuestros predictores, por ello, podemos ver que no hay Heterocedasticidad. Los que no recuerdan qué es esto, siempre pueden ir a este post que los puede ayudar. ¿Cómo se sabe cuándo hay relación o no? Muy sencillo, si los puntos tienen una forma en línea diagonal hacia arriba o hacia abajo, quiere decir que hay una relación lineal entre ellos. En ese caso, tenemos un problema de Heterocedasticidad. Para poner gráficamente esta idea de relación entre variables, siempre pueden ir a este post. 

¡Excelente! ¡Lo logramos! ¡Qué tal jornada! Pero me imagino que están muy bien. Dense golpecitos en el hombro como manera de felicitarse, ha sido una gran travesía pero que siento que ha valido la pena. Para la siguiente aventura comenzaremos a entrar más a fondo al mundo no lineal así como lo hemos hecho con el mundo lineal. Este mundo  también es fascinante :). Pero vamos de a pocos, recuerden que nuestro camino es largo, lleno de retos y aventuras. ¡Espero verlos pronto!

¡Recuerden! Siempre pueden dejar geniales comentarios en el post del blog o poner like en la página de Facebook. 

¡Espero verlos pronto! ¡Buenas vibras y una excelente semana!

Referencias:

Bowerman, B. L., & O’Connell, R. T. (1990). Linear statistical models: An applied approach (2nd ed.). Belmont, CA: Duxbury.

O’Brien, R. (2007). A Caution Regarding Rules of Thumb for Variance Inflation Factors. Quality & Quantity, 41, 673–690.

Menard, S. (1995). Applied logistic regression analysis. Sage university paper series on quantitative applications in the social sciences, 07-106. Thousand Oaks, CA: Sage.

Myers, R. (1990). Classical and modern regression with applications (2nd ed.). Boston, MA: Duxbury.

Yoo, W., Mayberry, R., Bae, S., Singh, K., Qinghua, P., & Lillard jr, J. (2014). A Study of Effects of MultiCollinearity in the Multivariable Analysis. International Journal of Applied Science and Technology, 4(5), 9-19.

Publicado en Regresiones | Etiquetado , , , | 37 comentarios

¿Muestras no paramétricas relacionadas? La W-wilcoxon

Estimados todos, bienvenidos a una nueva aventura de Stats SOS. Espero que estén muy bien. En el capítulo de hoy estamos de vuelta en el mundo no lineal. Así es, en la aventura de hoy, veremos el análisis del título de hoy. Aunque no lo crean, ya hemos visto ciertos elementos que nos podrán ayudar a entender con mayor facilidad este análisis.

¡Vamos a lo nuestro! El post de hoy, es describir de manera sencilla la W de Wilcoxon. Como ya mencioné, este análisis es no lineal. Pero además, se utiliza cuando ocurren dos cosas: a) tenemos muestras relacionados y b) cuando nuestros datos son ordinales o tienen una distribución no normal. Con calma, los que no recuerdan qué es un dato ordinal siempre pueden ir ha este episodio 🙂

En ese caso, este análisis, en sencillo, podría decirse que es la versión no lineal y no normal de la t-student de muestras relacionadas. Los que no recuerdan qué es este análisis siempre pueden ir a este post como un recordatorio :). Por otro lado, los que no recuerdan qué es una muestra no normal, ¡No hay problema! Siempre pueden volver a este post que les puede dar ciertas ideas.

Antes de comenzar nuestro ejemplo sería genial poder preparar todo el escenario para mostrar la W de Wilcoxon. Entonces, hasta ahora hemos dicho dos cosas: a) utiliza muestras relacionadas, b) usa datos ordinales  y ahora agregaré tres más: c) por defecto utiliza rangos promedio (ver post), d) cuando se quieren comparar dos mediciones de intervalo que la distribución no es normal se usa la mediana (ver post) y e) el análisis es útil para analizar un mismo grupo al que se le ha hecho dos mediciones en momentos distintos. Este análisis no se puede hacer con más de dos mediciones.

¡Excelente ahora vamos a lo nuestro! (tambores de entrada), un ejemplo. Imagínense que queremos ver si es que la música clásica realmente nos ayuda a recordar mayor información. En ese caso, juntamos 32 jóvenes y hacemos la siguiente tarea:

Paso 1: Les mostramos 15 palabras, a los jóvenes en una presentación y la exposición de cada palabra dura 5 segundos. Luego que terminamos, les entregamos una hoja de papel y les pedimos que escriban todas las palabras que recuerdan. Esta sería nuestra primera medida, la variable A que llamaremos, “pre-música”

Paso 2: Luego de una semana, recopilamos a los mismos jóvenes y les mostramos las mismas 15 palabras, en la misma cantidad de tiempo, pero en este caso mientras que hacemos la presentación de las palabras, les ponemos a los participantes como música de fondo Ave María de Schubert, (aquí la tonada). Luego de las 15 palabras, repetimos la misma tarea, les entregamos una hoja de papel a los participantes y les pedimos que escriban todas las palabras que recuerdan. Esta sería nuestra segunda medida, la variable B que llamaremos “música”.

¡Excelente, luego de recopilar toda la data, la ponemos en el paquete estadístico (en este caso utilizaremos SPSS) y analizamos la información.

¿Analizamos la información? ¡Un momento! Antes que nada debemos ver si ambas medidas tienen puntajes con distribución normal.

Para ello, debemos seguir la siguiente ruta:

Analizar/Frecuencias/Estadísticos/

Aquí, pinchamos (o hacemos click) en asimetría, curtosis y mediana (al igual que en la U de Mann Whitney esto se usa luego). Luego en la casilla que dice Variables debemos poner nuestra Variable A y B. Después, Aceptar.

¡Muy bien! Ahora debemos percatarnos si es que la asimetría es mayor a 3 y la curtosis mayor a 8, que muestra que los puntajes de una medida no tienen una distribución normal. (Kline, 1998; 2005). Para el ejemplo, asumamos que este caso se dio.

Luego de ello, vamos al análisis. Para ello, debemos de seguir la siguiente ruta:

Analizar/Pruebas no paramétricas/Cuadros de diálogos antiguos/2 muestras relacionadas.

¡Listo! Esta ruta se sigue, porque queremos hacer un análisis que no asume que nuestros puntajes tienen una distribución normal, los cuadros antiguos porque somos old school 🙂 y 2 muestras relacionadas porque se mide al mismo grupo dos veces a lo largo del tiempo. 

Luego, nos aparecerá un cuadro de diálogo y ahí tenemos que poner nuestras variables. Ahí veremos que sale un cuadro llamado Contrastar pares. En este caso, en variable 1 tenemos que poner nuestra medición previa que la llamamos “pre-música”, luego en variable 2 es necesario que pongamos la segunda variable que en nuestro ejemplo se llama “música”. Por otro lado, para que sea más fácil reportar nuestros resultados, podemos ir a opciones y marcar en la casilla de descriptivos y poner continuar. 

¿Vamos bien? ¡Sigamos adelante! Seguidamente, debemos de poner el análisis que queremos hacer. Ahí hay varias opciones, pero nosotros para este caso queremos utilizar Wilcoxon entonces, hacemos click (pinchamos) en esa opción y ponemos Aceptar. Ojo pestaña y ceja: Siempre hay que revisar esto no vaya a ser que terminemos realizando otro análisis. 

Bueno, después de un recorrido largo comenzamos en la etapa final de nuestro post. ¡Los análisis de nuestras tablas!

Aquí nos aparecerán las siguientes 3 tablas:

Tabla 1:

descriptivosWilcoxonEsta tabla lo único que nos muestra son los estadísticos descriptivos de nuestras variables y la cantidad de personas por grupo (N). Los que no recuerdan qué son estadísticos descriptivos, siempre pueden volver a este post.

Tabla 2:

rangospromediosWilcoxon

Esta tabla como ya comentamos anteriormente nos muestran los rangos promedio. Esta tabla tan solo la he puesto para que podamos ver que el SPSS utiliza por defecto los rangos promedio para calcular la W de Wilcoxon. Los que no recuerdan qué son los rangos promedio siempre pueden volver a este post. En general, estos resultados lo que nos está diciendo es que se están comparando los puntajes de Música y Pre Música. Entonces, lo que hace el SPSS es hacer un conteo (La N) de cuántas personas tuvieron menos puntaje en la prueba con música que sin música (Rangos negativos, que es igual a 13). Aparte, cuantas personas tuvieron más puntaje en la prueba con música que sin música (Rangos positivos, que es igual a 12). Finalmente, cuándo el puntaje de pre música y música fueron iguales (Empates, que es igual a 7). Aparte, como ya mencione nos muestra los rangos promedio y la suma de rangos promedio.

Tabla 3

 SignificanciaWilcoxon

Esta tabla es la más importante de nuestro análisis.  Nos muestra el valor Z (que es acorde a las tablas de significancia, estas tablas las pueden encontrar en este post). Entonces, está tabla lo que nos dice es si comparamos los puntajes de música y pre música, obtenemos un puntaje Z igual a (-.514), para este caso no iré a la matemática, pero para obtener este resultado se realiza un cálculo con una fórmula (los interesados siempre pueden dejar un comentario :)).

Además, para un puntaje Z de -.514, se obtiene una significancia de .607. Esto como nosotros muy bien sabemos es claramente no significativo porque está muy por encima de 0.05. Esto demuestra, que no hay diferencias significativas entre la capacidad para recordar palabras con o sin música.  Los que no recuerdan por qué llegamos a esta conclusión siempre pueden ir a este post que les puede ayudar a refrescar la memoria.

¡Muy bien! Aún no satisfechos con este resultado, por si acaso revisamos las medianas de las dos mediciones nos encontraremos que la mediana es igual a 5 en ambos casos. Ello refuerza el hallazgo de la tabla 3 que nos propone que no hay diferencias entre las dos medidas. Para este caso no he puesto la tabla para no llenarnos de tablas :).

¡Muy bien! Creo que esto sería todo por hoy, espero que esta aventura les haya gustado. En broma y broma ya hemos visto varios análisis: las comparaciones de grupos independientes y dependientes  de muestras con puntajes con distribución normal (ver enlaces en los nombres).  Así como la comparación de grupos independientes y dependientes con puntajes que tienen una distribución no normal. Para la siguiente aventura relacionada a este tema, iremos un paso más adelante. Ya no solo sabremos, que hay diferencias sino cuán grandes son estad diferencias y para ello utilizaremos algo llamado tamaño del efecto. 

¡Así que estén muy preparados! Pero ustedes valientes lectores son unos guerreros entonces estoy seguro que no tendrán ningún problema.

Recuerden que siempre es un placer recibir comentarios en la sección posterior. Aparte, los interesados en seguir las aventuras de este blog siempre pueden ir al botón Seguir que se encuentra arriba de su pantalla.

¡Muy buenas vibras!

Referencias

– Kline, R. B. (1998). Principles and practice of structural equation modeling. NY: Guilford Press.
– Kline, R.B. (2005), Principles and Practice of Structural Equation Modeling (2nd Edition ed.). New York: The Guilford Press.

Publicado en Básico 2.0 | Etiquetado , , | 4 comentarios