Professional Documents
Culture Documents
INDICE
INDICE.................................................................................................................................... 3
INTRODUCCIÓN .................................................................................................................... 4
1. ESTADÍSTICA DESCRIPTIVA........................................................................................ 5
1.1. ANÁLISIS UNIVARIADO .................................................................................................. 5
1.1.1. Distribución de frecuencias ................................................................................... 5
1.1.2. Medidas de tendencia central: media, moda, mediana. ........................................ 9
1.1.3. Medidas de dispersión ........................................................................................ 11
ANÁLISIS BIVARIADO ............................................................................................................. 12
1.1.4. Asociación entre dos variables ........................................................................... 12
1.1.5. Coeficientes de asociación ................................................................................. 16
2. ESTADÍSTICA INFERENCIAL...................................................................................... 18
2.1. PRUEBAS NO PARAMÉTRICAS .................................................................................... 18
2.1.1. Chi cuadrado de Pearson ................................................................................... 18
2.2. PRUEBAS PARAMÉTRICAS .......................................................................................... 26
2.2.1. Medias ................................................................................................................ 26
2.2.2. Contraste sobre una media................................................................................. 30
2.2.3. Contraste sobre dos medias independientes ...................................................... 32
2.2.4. Análisis de varianza de un factor ........................................................................ 37
2.2.5. Correlaciones Bivariadas .................................................................................... 41
BIBLIOGRAFÍA .................................................................................................................... 47
3
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Introducción
El presente manual ilustra los procedimientos para análisis de datos más utilizados en
ciencias sociales que ofrece el paquete estadístico SPSS. El mismo no pretende ser un libro
de estadística ni de metodología y por lo tanto no contiene explicaciones ni conceptos de
tales materias.
Nota: Se recuerda a los usuarios que al trabajar con la versión de prueba de SPSS que se
brinda junto con este manual, se puede pedir que los resultados sean generados en otros idiomas ya
que la misma se encuentra en inglés. Para los ejemplos utilizados en este manual se ha configurado
la salida de resultados en español. Para cambiar el idioma en el que se generarán los resultados se
debe ingresar en el menú Edición / Opciones… ( Edit / Options…) y en la pestaña General dentro
del recuadro Resultados (Output) seleccionar Español (Spanish) en donde dice Idioma
(Language).
4
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
1. Estadística Descriptiva
1.1. Análisis univariado
Para los informes de frecuencias y los gráficos de barras, puede organizar los diferentes
valores en orden ascendente o descendente u ordenar las categorías por sus frecuencias. Es posible
suprimir el informe de frecuencias cuando una variable posee muchos valores diferentes. Puede
etiquetar los gráficos con las frecuencias (la opción por defecto) o con los porcentajes.
Datos: Utilice códigos numéricos o cadenas cortas para codificar las variables categóricas (medidas de nivel
nominal u ordinal).
Supuestos: Las tabulaciones y los porcentajes proporcionan una descripción útil para los datos de cualquier
distribución, especialmente para las variables con categorías ordenadas o desordenadas. Muchos de los
estadísticos de resumen optativos, tales como la media y la desviación típica, se basan en la teoría normal y
son apropiados para las variables cuantitativas con distribuciones simétricas. Los estadísticos robustos, tales
como la mediana, los cuartiles y los percentiles son apropiados para las variables cuantitativas que pueden o
no cumplir el supuesto de normalidad.
5
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
A la izquierda del cuadro se ubica el listado de variables: las variables contenidas en la matriz
de datos. Las variables aparecen según el orden que tienen en la matriz de datos (se puede
optar por el orden alfabético en el menú Edit: Options....). De este listado se deben
seleccionar las variables para el análisis univariado, en este caso, la distribución de
frecuencias. Para seleccionar las variables, se utilizan los procedimientos habituales de
selección empleados en las aplicaciones Windows. Para seleccionar una sola variable, se
apunta con el mouse a la misma y se aprieta el botón izquierdo del mouse. La variable
quedará seleccionada. Para seleccionar varias variables contiguas, se apunta con el mouse a
la primera, se aprieta el botón izquierdo y se arrastra la flecha del mouse hasta seleccionar
todas las variables. También se pueden utilizar las teclas Shift y . Para seleccionar
variables que se ubican en lugares discontinuos, se mantiene apretada la tecla Ctrl y se las
selecciona con el mouse (apretando el botón izquierdo).
En el centro del cuadro de diálogo se ubica un cuadro de texto que lleva el nombre Variables.
En este cuadro se ubicarán las variables que se han seleccionado para el análisis. Para
pasarlas del listado de variables a este cuadro, se acciona la flecha negra que separa el
listado del cuadro de texto. Para volver a pasar las variables al listado de variables, se las
selecciona y se las pasa al listado accionando la pequeña flecha negra.
6
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
- Luego hacemos clic en Aceptar (Ok) y observamos los cuadros generados en el visor de
resultados (Output).
Interpretación:
El primer cuadro nos muestra por defecto algunos estadísticos descriptivos relacionados con
esta prueba. En él se puede ver un resumen en donde se indica la cantidad de casos que fueron
procesados y los que fueron excluidos del análisis.
Estadísticos
LINEA DE LINEA DE
POBREZA INDIGENCIA
N Válidos 3625 3625
Perdidos 196 196
Los siguientes dos cuadros son las tablas de distribución de frecuencias propiamente dichas
de cada una de las variables seleccionadas.
LINEA DE POBREZA
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Pobre 2145 56,1 59,2 59,2
No pobre 1480 38,7 40,8 100,0
Total 3625 94,9 100,0
Perdidos Ns/Nc 196 5,1
Total 3821 100,0
7
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
LINEA DE INDIGENCIA
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Pobre 1047 27,4 28,9 28,9
No pobre 2578 67,5 71,1 100,0
Total 3625 94,9 100,0
Perdidos Ns/Nc 196 5,1
Total 3821 100,0
Los cuadros de distribución de frecuencias generados en SPSS contienen los siguientes elementos:
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Pobre 2145 56,1 59,2 59,2
No pobre 1480 38,7 40,8 100,0
Total 3625 94,9 100,0
Perdidos Ns/Nc 196 5,1
Total 3821 100,0
En el caso en que determinados valores de la variable se definen como valores perdidos (en
el ejemplo, la categoría “Ns/Nc” de la variable “Línea de pobreza” se definió como “valor perdido”, en
realidad esta categoría indica que no se dispone de los datos de ingresos del hogar), el cálculo del
porcentaje válido se realiza tomando como base el total del cual se resta la cantidad de casos
perdidos. Es decir, la base de cálculo del porcentaje válido será 3821 – 196 = 3625.
Al realizar este cálculo, se acepta implícitamente el hecho de que los valores perdidos se
distribuyen en la población con la misma proporción que los restantes valores de la variable.
8
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Cuando se definen ciertos códigos o valores como “valores perdidos” siempre hay que
evaluar el porcentaje de dichos casos en la distribución de frecuencias de la variable. Si el porcentaje
excede el 5%, la distribución de estos casos según la frecuencia válida puede sesgar los resultados,
sobre todo por el hecho de que a veces los casos de no respuesta tienen alguna característica que
los diferencia del resto de la muestra y por ende, no se reparten en la misma proporción que los
casos válidos.
La distribución de frecuencias se puede utilizar para todos los niveles de medición: nominal,
ordinal, intervalar y de razón. Para los niveles de medición intervalar y de razón se aconseja
presentar los datos bajo forma agrupada, es decir, obteniendo variables con intervalos. El
procedimiento de recodificación de las variables (véase el capítulo 6) permite agrupar una variable
cuantitativa en una variable con intervalos de clase.
Para calcular la media de una variable cuyo nivel de medición es intervalar o de razón
(recuérdese que el cálculo de la media no tiene sentido para variables nominales y ordinales), se
procede de la siguiente manera: se elige la opción Estadísticos Descriptivos (Descriptive
Statistics) del menú Analizar (Analyze). En la opción Estadísticos Descriptivos se elige
Descriptivos... (Descriptives…)
Al seleccionar esta opción, se genera un cuadro de diálogo que contiene en la parte izquierda
el listado de variables de la matriz. Al activar el botón Opciones (Options) se puede visualizar el
cuadro que contiene algunos estadísticos relacionados con las medidas de tendencia central y de
dispersión. Para el cálculo de la media se hace clic con el mouse en la opción Media (Mean) (al
elegir la opción, aparece una tilde en la casilla correspondiente). Para desactivar las otras opciones
seleccionadas, se hace un clic con el mouse en las casillas correspondientes. Después se hace clic
en el botón Continue, volviéndose al cuadro inicial. El procedimiento de selección de variables para
las cuales se quiere calcular la media es el mismo que en el caso de las distribuciones de
frecuencias.
Para calcular la moda y la mediana se debe utilizar la opción Frecuencias... En esta opción
también se puede calcular la media.
Recuérdese que la moda se puede calcular para todos los niveles de medición, e indica el
valor o categoría que tiene la frecuencia máxima en la distribución. La mediana se puede calcular a
partir del nivel ordinal, e indica el valor que divide a la serie de datos (ordenada de manera
ascendente o descendente) en dos partes numéricamente iguales.
9
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
10
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
La varianza (Variance) es la media de las desviaciones que tienen los casos con respecto a
la media de la serie de datos, elevadas al cuadrado.
Para calcular las medidas descritas, se hace clic con el mouse en las siguientes opciones:
Desviación típica, Varianza, Amplitud.
Ejemplo: Cálculo del rango, desviación típica y varianza del ingreso total familiar, en base a
la EPH, onda octubre de 2002.
Estadísticos descriptivos
11
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Análisis bivariado
Para poder analizar la asociación entre dos variables, en primer lugar se deben comparar
porcentajes. Dichos porcentajes se obtienen mediante una tabulación cruzada (un “cruce”) de las dos
variables que se quieren analizar. La tabulación cruzada es una tabla de dos entradas, que permite
examinar conjuntamente el comportamiento de dos variables.
Variable X
Variable Y x1 x2 Total Fila
Y1 f11 f12 f11 + f12
Y2 f21 f22 f21 + f22
Total columna f11 + f21 f12 + f22 N
Las frecuencias correspondientes al total marginal de las columnas (total columna) y al total
marginal de las filas (total fila) se llaman frecuencias marginales, y en realidad, representan la
distribución de frecuencias para cada variable en parte. Así, la frecuencia marginal de la columna
representa la distribución de frecuencias de la variable X, sin tener en cuenta la influencia de la
variable Y. N representa el total de la población o de la muestra.
Los porcentajes por fila se obtienen dividiendo el valor absoluto de cada celda al total
marginal de la fila correspondiente y multiplicando por 100, es decir f11/(f11+ f12) *100; f12(/f11 + f12)*
100 para la primera fila del cuadro y f21(/f21 + f22)*100; (f22/f21 + f22)*100 para la segunda fila. Los
porcentajes así obtenidos deben sumar 100 horizontalmente.
Los porcentajes por columna se obtienen dividiendo el valor absoluto de cada celda al total
marginal de la columna correspondiente y multiplicando el resultado por 100, es decir f11/(f11 +
f21)*100; f21/(f11 + f21)*100 para la primera columna del cuadro y f12/(f12 + f22)*100; (f22/f12 + f22)*100 para
la segunda columna. Los porcentajes así obtenidos deben sumar 100 verticalmente.
Para efectuar de una manera correcta la comparación de los porcentajes por columna y por
fila, en el caso en que se quiere estudiar el efecto que produce una variable sobre la otra, se debe
seguir la regla de Zeisel. Según esta regla, la comparación de los porcentajes siempre se debe hacer
en el sentido opuesto al que han sido sacados. Así, en el caso en que el porcentaje se obtuvo por
columna (utilizando como base de cálculo los totales marginales de columna), la comparación se
hace horizontalmente, y a la inversa, si los porcentajes se han sacado en el sentido de la fila, la
comparación se debe hacer verticalmente.
12
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Variable X
Variable Y x1 x2 Total Fila
y1 a b a+c
y2 c d c+d
Total columna a+c b+d a+b+c+d
Si se calculan los porcentajes por columna se obtienen los siguientes resultados: a/(a+c)*100
y c/(a+c)*10 para la primera columna y b/(b+d)*100 y d/(b+d)*100 para la segunda columna. Si la
diferencia porcentual se calcula en el mismo sentido en que han sido sacados los porcentajes, se
obtiene:
Si los porcentajes se comparan en el sentido opuesto al que han sido sacados, los resultados
son:
En este caso el resultado obtenido refleja los valores contenidos en toda la tabla.
Para obtener una tabla de asociación entre dos variables en el SPSS, accedemos a través
del menú Analizar / Estadísticos Descriptivos / Tablas de contingencia... (Analyze / Descriptive
Statistics / Crosstabs…) y de esta manera nos encontramos con el siguiente cuadro de diálogo:
13
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
En el cuadro de diálogo que se genera se eligen del listado de variables las dos variables que
se quieren asociar. Una de ellas se ubicará horizontalmente (por fila) y la otra, verticalmente (por
columna) en la tabla de dos entradas. La variable que se ubicará por fila se debe pasar al cuadro
correspondiente a Filas (Rows) y la variable que se situará por columna, se debe pasar al cuadro
llamado Columnas (Columns).
Para poder calcular los porcentajes en el interior de cada celda, se elige en el cuadro de
diálogo correspondiente a las tablas de asociación la opción Casillas (Cells....)
En el cuadro que se genera al activar esta opción, se hace clic con el mouse en las casillas
correspondientes a Porcentajes (Percentages) indicando el tipo de porcentajes que se quiere
obtener: Fila (Row) (calculado sobre el total de la fila), Columna (Column) (calculado sobre el total de
la columna), Total (calculado sobre el total de la población). Una vez activadas las opciones, se hace
clic en el botón Continue y se vuelve al cuadro inicial.
En el caso en que una de las variables (o ambas) contienen valores perdidos (del sistema o
definidos por el usuario), estos valores se omitirán de la tabla de asociación.
Dado que se pueden sacar tres tipos de porcentajes, es importante establecer cuál de los tres
presenta mayor interés para el análisis. También es muy importante, antes de efectuar la asociación,
formular la hipótesis asociativa que vincula las dos variables que se estudian.
14
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
ingresos los ubican encima de la línea de pobreza) y hogares no pobres (no presentan carencias
críticas y se ubican encima de la línea de pobreza). Para analizar la proporción de cada uno de estos
tipos en los hogares estudiados, se realiza el cruce correspondiente y se calculan los porcentajes
sobre el total.
Ejemplo: Cruce de la variable NBI con la variable Pobreza por ingresos para establecer tipos
de pobreza. Datos de la EPH – onda octubre de 1996 (total hogares)
NBI
Pobre No pobre Total
LINEA DE POBREZA Pobre Recuento 93 210 303
% del total 9,5% 21,5% 31,0%
No pobre Recuento 40 635 675
% del total 4,1% 64,9% 69,0%
Total Recuento 133 845 978
% del total 13,6% 86,4% 100,0%
En el cuadro del ejemplo se puede observar que el 9,5% de los hogares se encuentra en
pobreza crónica, el 21,5% debajo de la línea de pobreza (“nuevos pobres”), el 4,1% son pobres
inerciales y un 64,9% del total de los hogares no son pobres.
Cuando se desea comparar porcentajes por fila o columna, en primer lugar se debe
establecer cuál de las dos variables es la independiente (la causa) y cuál es la dependiente (el
efecto). Obviamente no en todas las situaciones es posible establecer la causa de un fenómeno,
sobre todo en ciencias sociales, donde la mayoría de los fenómenos tienen causas múltiples, y
generalmente las relaciones no son asimétricas (de causa a efecto), sino recíprocas (una de las
variables influye en la otra, y viceversa). Pese a estas dificultades, en ciertas situaciones se puede
establecer con precisión cuál es la variable independiente.
La relativa permanencia de una variable con respecto a la otra (los cambios en la primera no
ocurren con frecuencia, mientras que la segunda varía a menudo) hace que se pueda asumir
que la primera es la independiente y la segunda la dependiente.
La anterioridad temporal de una variable con respecto a la otra. La variable anterior puede
considerarse como variable independiente.
15
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
independiente por columna, la comparación se hace horizontalmente, dado que los porcentajes se
han calculado en el sentido vertical. En el siguiente ejemplo se muestra el procedimiento.
Casos
Válidos Perdidos Total
N Porcentaje N Porcentaje N Porcentaje
LINEA DE POBREZA
994 94,2% 61 5,8% 1055 100,0%
* NIVELREC
NIVELREC
Primario Secundario Superior Universitario Total
LINEA DE POBREZAPobre Recuento 254 195 14 29 492
% de NIVELREC 63,2% 53,1% 27,5% 16,7% 49,5%
No pobre Recuento 148 172 37 145 502
% de NIVELREC 36,8% 46,9% 72,5% 83,3% 50,5%
Total Recuento 402 367 51 174 994
% de NIVELREC 100,0% 100,0% 100,0% 100,0% 100,0%
Los porcentajes han sido sacados verticalmente, pero la comparación se debe hacer por fila.
Leyendo dichos porcentajes, se puede observar que a menor nivel educativo, aumenta el porcentaje
de los jefes de hogar que están en situación de pobreza (se comparan los porcentajes en sentido
horizontal: 63,2%, 53,1%, 27,5% y 16,7%). A la inversa, a mayor nivel educativo, desciende el
porcentaje de jefes de hogar pobres.
En el caso en que las variables son nominales y dicotómicas, el coeficiente más utilizado es el
Phi. Si la tabla tiene dimensiones más grandes, se recomienda el uso del coeficiente V de Cramer.
En el caso de dos variables ordinales, se pueden utilizar los coeficientes Tau-b y Tau-c de
Kendall. Para las tablas simétricas (igual cantidad de filas y columnas) se debe utilizar el Tau-b. Para
las tablas asimétricas (la cantidad de filas no coincide con la cantidad de columnas) se debe utilizar
el Tau-c.
Si se asocia una variable ordinal con una nominal, se debe utilizar un coeficiente
correspondiente al nivel nominal.
16
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Para calcular estos coeficientes, se debe activar la opción Statistics de la instrucción Tablas
de contingencia (Crosstabs) y se hace clic en los nombres de los coeficientes que se desea calcular
(Phi y V de Cramer; Tau-b de Kendall; Tau-c de Kendall).
17
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
2. Estadística Inferencial
2.1. Pruebas No Paramétricas
las columnas y filas, correspondientes a cada una de las celdas de la tabla de asociación y
dividiendo el producto a la cantidad de casos.
Para la tabla de asociación general que se presenta a continuación, la frecuencia esperada
para la primera celda de la tabla con la frecuencia observada f11 es (f11 + f12)(f11 + f21) / n. Cuanto
mayor es la diferencia entre las frecuencias observadas y esperadas, mayor será la probabilidad de
que la muestra provenga de una población en la que las variables estén relacionadas.
Variable X
Variable Y X1 x2 Total Fila
Y1 f11 f12 f11 + f12
Y2 f21 f22 f21 + f22
Total columna f11 + f21 f12 + f22 N
Para efectuar la Prueba de Chi cuadrado accedemos a través del menú Analizar /
Estadísticos Descriptivos / Tablas de contingencia... (Analyze / Descriptive Statistics /
Crosstabs…) y de esta manera nos encontramos con el siguiente cuadro de diálogo:
La lista de variables contiene un listado con todas las variables del archivo de datos. Para
llevar a cabo un contraste con las especificaciones que el procedimiento tiene establecidas por
defecto:
Trasladar al menos una variable al cuadro de Filas (Row(s)) y una variable al cuadro de
Columnas (Column(s)).
19
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Luego hacer click en el botón Estadísticos (Statistics) y tildar la opción Chi cuadrado (Chi-
square).
También se pueden obtener las frecuencias esperadas. Para esto se debe hacer click en el
botón Casillas (Cells) y tildar la opción Esperadas (Expected). Se puede observar que la
opción Observadas (Observed) está predeterminada. Esta opción permite obtener las
frecuencias absolutas observadas en cada celda de la tabla de asociación.
20
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
muestra es pequeña, o las variables cruzadas contienen muchas categorías. En el último caso
conviene agrupar las categorías, reduciendo la cantidad de las mismas.
- Luego damos click en el botón Casillas (Cells), tildamos las opciones “Esperadas”
(Expected) y “Columna” (Column) y damos click en Continuar (Continue).
21
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
- Luego damos click en el botón Estadísticos (Statistics), tildamos la opción “Chi cuadrado”
(Chi-square) y damos click en Continuar (Continue).
- Luego damos click en Aceptar (Ok) y observamos los cuadros generados en el visor de
resultados (Output).
22
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
SEXO
Varón Mujer Total
CONDICION DE Ocupado Recuento 787 527 1314
ACTIVIDAD Frecuencia esperada 782,2 531,8 1314,0
% de SEXO 89,0% 87,7% 88,5%
Desocupado Recuento 97 74 171
Frecuencia esperada 101,8 69,2 171,0
% de SEXO 11,0% 12,3% 11,5%
Total Recuento 884 601 1485
Frecuencia esperada 884,0 601,0 1485,0
% de SEXO 100,0% 100,0% 100,0%
Pruebas de chi-cuadrado
Interpretación:
Si se analiza la tabla de asociación obtenida, se distinguen los siguientes valores:
las frecuencias absolutas observadas en cada celda. Por ejemplo, hay 787 varones
ocupados y 74 mujeres desocupadas.
los totales de cada fila y columna, es decir, las frecuencias marginales que representan la
distribución de frecuencia simple de cada una de las variables cruzadas.
el segundo valor de la celda indica la frecuencia esperada (por ejemplo, 782,2 en el caso
de los varones ocupados). Si se analizan dichas frecuencias, se puede notar que la
diferencia entre los valores observados y esperados es muy reducida.
los porcentajes por columna. Se puede observar que la diferencia porcentual entre
varones y mujeres según las dos categorías de la condición de actividad (ocupado y
desocupado) es muy reducida.
El Chi-cuadrado utilizado en la evaluación de la significación estadística de la relación es el
Chi-cuadrado (Chi-Square) de Pearson. El SPSS efectúa otros dos contrastes también: Likelihood
Ratio (Razón de Máxima Verosimilitud) y Linear-by-Linear Association. La razón de máxima
verosimilitud se utiliza en el contexto de modelos lineales logarítmicos (que representa un sistema
23
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
general de análisis de tablas de asociación), y para muestras grandes tiene valores semejantes al
Chi-cuadrado de Pearson.
También se indica la frecuencia mínima esperada (Minimum Expected Frequency), que en
ninguna celda debe ser menor de 1. Si en el 20% de las celdas se obtienen valores esperados entre
1 y 5, la salida de resultados indicará esta situación. En nuestro ejemplo se consigna que no hay
ninguna celda que tenga una frecuencia esperada inferior a 5.
Si las variables que se han cruzado son dicotómicas, en vez de leer el valor del Chi-Cuadrado
(Chi-Square), se debe leer el valor del Continuity Correction que es la corrección de Yates
(corrección por continuidad) aplicada al cálculo del Chi-Cuadrado de las tablas dicotómicas.
En el ejemplo presentado, el Chi-cuadrado de Pearson es 0,630 y la corrección por
continuidad introduce una leve modificación al valor del Chi-cuadrado: 0,506.
Cabe notar que en la salida del SPSS se registran los valores de las pruebas de contraste en
la columna correspondiente a Valor (se lee la fila correspondiente al Chi-cuadrado de Pearson /
corrección por continuidad), los grados de libertad en la columna llamada gl (grados de libertad) y los
valores-P en la columna Sig. Asintótica (significación asintótica – bilateral)
El valor-P mide la probabilidad de obtener al azar un determinado estadístico. En el ejemplo
presentado, el valor-P representa la probabilidad de obtener el valor 0,506 del estadístico de Chi-
cuadrado al azar. Observamos que el valor-P de este estadístico es 0,477, casi 0,5. Esto significa
que la probabilidad de rechazar la hipótesis nula equivocadamente a partir de los resultados del
ejemplo es 0,5; probabilidad significativamente mayor que = 0,05.
En consecuencia, la evaluación de los resultados de la salida de SPSS para el Chi-cuadrado
se puede hacer de dos formas:
Se compara el valor crítico del estadístico 2 (obtenido de las tablas, en función del nivel
de significación y los grados de libertad) con el valor observado obtenido en la salida de
resultados. Si el valor observado es mayor que el valor crítico, se puede rechazar la
hipótesis nula de independencia. A la inversa, si el valor observado es menor que el valor
crítico, hay que aceptar la hipótesis nula.
Se compara el valor del (generalmente 0,05) con el valor-P (Significación) obtenido en
la salida de resultados. Si el valor-P es mayor que =0,05, hay que aceptar la hipótesis
nula de independencia (es decir, no hay relación entre las variables estudiadas). Si el
valor-P es menor que =0,05, se rechaza la hipótesis nula, confirmándose de este modo
la existencia de una relación entre las dos variables.
En este ejemplo, el valor-P es significativamente mayor que =0,05, por lo tanto se acepta la
hipótesis nula, es decir, se puede inferir, que a nivel de la población en cuestión, no hay relación
entre las dos variables estudiadas: sexo y condición de actividad.
Veamos otro ejemplo, en donde trabajamos con una variable dicotómica y otra, policotómica
(que tiene más de dos categorías). Planteamos la siguiente hipótesis de investigación: existe relación
entre sexo y categoría ocupacional. La hipótesis nula correspondiente es: no hay relación entre sexo
y categoría ocupacional.
Nuevamente se debe acondicionar la base, seleccionando, esta vez, al conjunto de
ocupados.
Se obtiene la siguiente tabla de asociación:
24
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
SEXO
Varón Mujer Total
CATEGORIA Patrón Recuento 36 11 47
OCUPACIONAL Frecuencia esperada 28,2 18,8 47,0
% de SEXO 4,6% 2,1% 3,6%
Cta. propia Recuento 225 102 327
Frecuencia esperada 195,9 131,1 327,0
% de SEXO 28,6% 19,4% 24,9%
Asalariado Recuento 510 407 917
Frecuencia esperada 549,4 367,6 917,0
% de SEXO 64,9% 77,4% 69,9%
Trabaj. sin salario Recuento 15 6 21
Frecuencia esperada 12,6 8,4 21,0
% de SEXO 1,9% 1,1% 1,6%
Total Recuento 786 526 1312
Frecuencia esperada 786,0 526,0 1312,0
% de SEXO 100,0% 100,0% 100,0%
Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 24,425a 3 ,000
Razón de verosimilitud 25,144 3 ,000
Asociación lineal por
18,035 1 ,000
lineal
N de casos válidos 1312
a. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 8,42.
25
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Comparación de medias
La opción Comparar medias (Compare Means) del menú Analizar (Analyze) contiene varios
de los procedimientos estadísticos diseñados para efectuar contrastes de hipótesis sobre medias, en
concreto, la prueba T y el análisis de varianza de un factor.
En las pruebas para comparación de medias la Hipótesis nula que se formula es del tipo “las
medias de las poblaciones comparadas son iguales”. Evaluando la probabilidad de que esta H0 se
cumpla podemos responder a preguntas tales como “¿Son distintas las medias de las poblaciones
en estudio?” , “¿Qué tan distintas podrían ser en el universo?” , “¿Con qué porcentaje de
confiabilidad puedo asegurarlo?”
2.2.1. Medias
Datos: Las variables dependientes son cuantitativas y las independientes son categóricas. Los valores de las
variables categóricas pueden ser numéricos o de cadena corta.
Supuestos: Algunos de los estadísticos opcionales de subgrupo, como la media y la desviación típica, se basan
en la teoría normal y son adecuados para variables cuantitativas con distribuciones simétricas. Los estadísticos
robustos, tales como la mediana y el rango, son adecuados para las variables cuantitativas que pueden o no
cumplir el supuesto de normalidad. El análisis de varianza es robusto a las desviaciones de la normalidad,
aunque los datos de cada casilla deberían ser simétricos. El análisis de varianza también supone que los
grupos proceden de poblaciones con la misma varianza. Para comprobar este supuesto, utilice la prueba de
homogeneidad de las varianzas de Levene, disponible en el procedimiento ANOVA de un factor.
Para utilizar el procedimiento Medias accedemos a través del menú Analizar / Comparar
medias / Medias... (Analyze / Compare Means / Means…) y de esta manera nos encontramos con el
siguiente cuadro de diálogo:
26
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Trasladar a la lista Dependientes (Dependent list) la/s variable/s que interesa describir o
aquellas en las que se van a comparar los grupos.
Trasladar a la lista Independientes (Independent list) la/s variable/s que definen los grupos
que interesa describir o comparar.
El botón Opciones… (Options) permite seleccionar los estadísticos descriptivos concretos que
interese obtener y algunos contrastes sobre medias o linealidad.
También es posible combinar más de una variable independiente para, dentro de los grupos
definidos por una primera variable, formar subgrupos definidos por una segunda variable (o una
tercera, o una cuarta, etc.). Es decir, cada estadístico solicitado puede calcularse en cada uno de los
27
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
subgrupos resultantes de combinar dos o más variables independientes. Esto se consigue definiendo
capas (layers).
Para definir capas (layers) utilice los botones Siguiente y Anterior (Next , Previous) del
apartado Capa “x” de “n” (Layer “x” of “n”) donde “x” se refiere al número de capa en el que nos
encontramos y ”n” al número total de capas definidas.
28
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
- Una vez seleccionados los estadísticos hacemos click en Continuar (Continue) y luego en
Aceptar (Ok) y observamos los cuadros generados en el visor de resultados (Output).
Interpretación:
El primer cuadro nos muestra por defecto algunos estadísticos descriptivos relacionados con
esta prueba. En él se puede ver un resumen en donde se indica la cantidad de casos que fueron
procesados y los que fueron excluidos del análisis (que para nuestro ejemplo no se excluye ninguno)
Casos
Incluidos Excluidos Total
N Porcentaje N Porcentaje N Porcentaje
AÑOS CUMPLIDOS
3821 100,0% 0 ,0% 3821 100,0%
* SEXO
29
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Informe
AÑOS CUMPLIDOS
% del
SEXO Media Desv. típ. N total de N
Varón 30,03 21,179 1742 45,6%
Mujer 33,30 22,518 2079 54,4%
Total 31,81 21,975 3821 100,0%
El procedimiento Prueba T para una muestra contrasta si la media de una sola variable
difiere de una constante especificada.
Datos: Para contrastar los valores de una variable cuantitativa con un valor de contraste hipotetizado, elija una
variable cuantitativa e introduzca un valor de contraste hipotetizado.
Supuestos: Esta prueba asume que los datos están normalmente distribuidos; sin embargo, esta prueba es
bastante robusta frente a las desviaciones de la normalidad.
Atención: Antes de realizar el próximo ejemplo aplicamos un filtro “estado = 1” para trabajar
con los ocupados
Para utilizar el procedimiento Prueba T para una muestra accedemos a través del menú
Analizar / Comparar medias / Prueba T para una muestra... (Analyze / Compare Means / One-
Sample T test…) y de esta manera nos encontramos con el siguiente cuadro de diálogo:
La lista de variables contiene un listado con todas las variables del archivo de datos excepto
las que tienen formato cadena. Para llevar a cabo un contraste con las especificaciones que el
procedimiento tiene establecidas por defecto:
Trasladar a la lista Contrastar variables (Test variable(s)) la/s variable/s cuya media
poblacional se desea contrastar.
Indicar el Valor de prueba (Test value) el valor poblacional concreto que se desea contratar.
Este valor se utiliza para todas las variables seleccionadas en la lista Contrastar variables.
30
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Valores perdidos (Missing values): Podemos optar entre dos formas diferentes de tratar los
casos con valores perdidos:
o Excluir casos según análisis (Exclude cases analysis by analysis). Esta opción
excluye de cada análisis (de cada prueba T) los casos con valor perdido en la variable
concreta que se está contrastando.
o Excluir casos según lista (Exclude cases listwise). Esta opción excluye de todos los
análisis los casos con algún valor perdido en cualquiera de las variables
seleccionadas en la lista Contrastar variables.
- Luego damos click en Aceptar (Ok) y observamos los cuadros generados en el visor de
resultados (Output).
Interpretación:
La Hipótesis nula (H0) que se plantea en esta prueba nos dice que “las medias de las
poblaciones comparadas son iguales”. En este caso bien la podemos enunciar como : “la diferencia
entre la media de la población y el valor de prueba es nula” o bien como “la media de la población
es igual al valor de prueba”
31
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
El primer cuadro nos muestra por defecto algunos estadísticos descriptivos relacionados con
esta prueba.
Estadísticos para una muestra
En el segundo cuadro nos encontramos con los resultados de la prueba para una muestra
propiamente dicha.
Los grados de libertad (gl = N-1) que junto con el nivel de significación alfa (en el SPSS se
define como intervalo de confianza en %) se utilizan para entrar en la tabla de la distribución t y de esta
manera comparar con el valor obtenido para t en nuestra prueba y así determinar la aceptación o el
rechazo de la Hipótesis nula. En nuestro ejemplo para gl = 1313 y alfa = 0,05
El Intervalo de confianza para la diferencia nos indica los valores entre los cuales puede
oscilar la diferencia de medias con una confiabilidad igual al porcentaje que hayamos indicado en el
botón opciones en intervalo de confianza. Nos dice: “Podemos asegurar con una confiabilidad del
95% (o del % que se haya indicado) que la media poblacional se encuentra comprendida entre:
32
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Datos: Los valores de la variable cuantitativa de interés se hallan en una única columna del archivo de datos.
El procedimiento utiliza una variable de agrupación con dos valores para separar los casos en dos grupos. La
variable de agrupación puede ser numérica (valores como 1 y 2, o 6,25 y 12,5) o de cadena corta (como SÍ y
NO). También puede usar una variable cuantitativa, como la EDAD, para dividir los casos en dos grupos
especificando un punto de corte (el punto de corte 21 divide la EDAD en un grupo de menos de 21 años y otro
de más de 21).
Supuestos: Para la prueba t de igualdad de varianzas, las observaciones deben ser muestras aleatorias
independientes de distribuciones normales con la misma varianza de población. Para la prueba t de varianzas
desiguales, las observaciones deben ser muestras aleatorias independientes de distribuciones normales. La
prueba t para dos muestras es bastante robusta a las desviaciones de la normalidad.
La lista de variables contiene un listado con todas las variables numéricas y de cadena corta
del archivo de trabajo. Para llevar a cabo un contraste con las especificaciones que el procedimiento
tiene establecidas por defecto:
Trasladar a la lista Contrastar variables (Test variable(s)) la/s variable/s en la que desea
comparar los grupos. Todas estas variables deben ser de tipo numérico. Cada variable
seleccionada genera una prueba T acompañada de su nivel crítico y del intervalo de
confianza para la diferencia entre las medias.
Trasladar al cuadro Variable de agrupación (Grouping variable) la variable que define los
grupos que se desean comparar. Esta variable puede ser de tipo numérico o de cadena corta.
Definir grupos (Define Groups). Tras seleccionar una variable de agrupación, es necesario
iniciar cuáles son los códigos que definen los dos grupos que se desea comparar. Para ello:
Pulsar el botón Definir Grupos… (Define Groups…) para acceder al subcuadro de diálogo
Definir grupos (Define Groups) que se muestra a continuación:
33
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Valores perdidos (Missing values): Podemos optar entre dos formas diferentes de tratar los
casos con valores perdidos:
o Excluir casos según análisis (Exclude cases analysis by analysis). Esta opción
excluye de cada análisis (de cada prueba T) los casos con valor perdido en la variable
concreta que se está contrastando.
o Excluir casos según lista (Exclude cases listwise). Esta opción excluye de todos los
análisis los casos con algún valor perdido en cualquiera de las variables
seleccionadas en la lista Contrastar variables.
- Accedemos a través del menú Analizar / Comparar medias / Prueba T para muestras
independientes… ( Analyze / Compare Means / Independent-Samples T test…)
34
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Interpretación:
La Hipótesis nula (H0) que se plantea en esta prueba nos dice que “las medias de las
poblaciones comparadas son iguales”.
El primer cuadro nos muestra por defecto algunos estadísticos descriptivos relacionados con
esta prueba.
35
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Estadísticos de grupo
Prueba de
Levene para
la igualdad de
varianzas Prueba T para la igualdad de medias
Error
típ. de 95% Intervalo de
Diferen la confianza para la
Sig. cia de diferen diferencia
F Sig. t gl (bilateral) medias cia Inferior Superior
INGRESO Se han asumido
7,445 ,006 3,288 1312 ,001 92,592 28,162 37,345 147,840
TOTAL varianzas iguales
INDIVIDUAL No se han
asumido varianzas 3,303 1145,7 ,001 92,592 28,032 37,593 147,592
iguales
La t y los gl se calculan de distinta manera para varianzas iguales que para varianzas
desiguales. Es por eso que en primer lugar nos encontramos con la Prueba de Levene para la
igualdad de las varianzas . Dicho test da un valor F que relaciona ambas varianzas muestrales
indicándonos la homogeneidad de las mismas. Si el valor de F se aproxima a 1 entonces las
varianzas serán similares, a mayor valor de F mayor diferencia entre las varianzas.
El nivel de significancia (Sig.) nos indica la probabilidad de que se cumpla la HF. Un valor
mayor a 0,05 nos indica que se debe aceptar esta hipótesis.
A partir de aquí estudiamos el cuadro siguiendo la fila que indica que se han asumido
varianzas iguales o desiguales según corresponda. En nuestro ejemplo el nivel de significancia es
igual a 0,006 o sea mucho menor que 0,05 con lo cual rechazamos la HF y asumimos varianzas
desiguales (o sea que leemos los valores de la segunda fila).
El análisis que se hace de los demás valores de la tabla es el mismo que se hizo para
Contraste sobre una media.
Nota: Las diferencias de ingresos medios pueden estar sometidas a la influencia de factores como los estudios
y no solamente el sexo. En estas situaciones, debe asegurarse de que las diferencias en otros factores no
enmascaren o resalten una diferencia significativa entre las medias.
36
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Datos: Los valores de la variable de factor deben ser enteros y la variable dependiente debe ser cuantitativa.
Supuestos: Cada grupo es una muestra aleatoria independiente procedente de una población normal. El
análisis de varianza es robusto a las desviaciones de la normalidad, aunque los datos deberán ser simétricos.
Los grupos deben proceder de poblaciones con varianzas iguales. Para contrastar este supuesto, se utiliza la
prueba de Levene de homogeneidad de varianzas.
Para utilizar el procedimiento ANOVA de un factor accedemos a través del menú Analizar /
Comparar medias / ANOVA de un factor... (Analyze / Compare Means / One-Way ANOVA…) y nos
encontramos con el cuadro de diálogo:
La lista de variables contiene un listado con todas las variables numéricas del archivo de trabajo
(No figuran las variables de cadena). Para llevar a cabo un ANOVA de un factor con las
especificaciones que el procedimiento tiene establecidas por defecto:
Trasladar a la lista Dependientes (Dependent List) la/s variable/s en la que desea comparar
los grupos. Se generará un ANOVA de un factor para cada una de las variables
seleccionadas.
Trasladar al cuadro Factor (Factor) la variable que define los grupos que se desean
comparar. Esta variable debe ser categórica (nominal u ordinal).
37
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Efectos fijos y aleatorios (Fixed and random effects): Muestra la desviación típica, el error
típico de la media, intervalo de confianza para la media al 95% para los modelos de efectos
fijos, y el error típico de la media, intervalo de confianza para la media al 95% y la varianza
entre componentes para los modelos de efectos aleatorios.
Los test para igualdad de medias de grupo de Brown-Forsythe y de Welch son preferibles
al estadístico de F cuando no se pueden asumir varianzas iguales.
Gráfico de las medias (Means Plot). Esta opción permite obtener un gráfico de líneas con la
variable factor en el eje de abscisas y la variable dependiente en el de ordenadas
Valores perdidos (Missing values): Podemos optar entre dos formas diferentes de tratar los casos
con valores perdidos:
38
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
o Excluir casos según análisis (Exclude cases analysis by analysis). Esta opción excluye de
cada ANOVA los casos que tienen algún valor perdido en la variable factor o en la variable
dependiente que está siendo analizada.
o Excluir casos según lista (Exclude cases listwise). Esta opción excluye de todos los ANOVA
solicitados los casos con algún valor perdido en la variable factor o en cualquiera de las
variables seleccionadas en la lista Dependientes.
- Trasladamos la variable “Máximo nivel que cursa o cursó” [nivel] al cuadro Factor (Factor)
39
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Interpretación:
La Hipótesis nula (H0) que se plantea en esta prueba nos dice que “las medias de los
grupos comparados son iguales”. Es decir que toda la varianza de los ingresos es atribuible a
otros factores, independientes del nivel educativo, lo cual implica que los promedios poblacionales de
ingresos son iguales en todos los niveles educativos, y que la varianza entre los grupos es igual a
cero.
El primer cuadro nos muestra por defecto algunos estadísticos descriptivos relacionados con
esta prueba.
Descriptivos
En el segundo cuadro nos encontramos con los resultados del Análisis de Varianza
propiamente dicho.
40
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
ANOVA
Se presenta la Suma de cuadrados (es decir la suma de las diferencias respecto a la media,
elevadas al cuadrado) entre los grupos (Inter-grupos, varianza explicada) y dentro de los grupos (o
varianza residual).
Los grados de libertad Inter-grupos (gl = cant. grupos – 1) e Intra-grupos (gl = N-1).
El valor que obtenemos de F que nos permite verificar la aceptación o rechazo de la Hipótesis
nula (H0) se calcula como el cociente: media cuadrática Inter-grupos / media cuadrática Intra-grupos)
La Significación es la probabilidad asociada a ese valor de F. Siendo este valor igual a 0,000
determinamos el rechazo de la hipótesis nula, y se concluye que a nivel del universo de referencia el
nivel educativo es un factor significativo para explicar las diferencias de ingreso.
Nota: Para calcular qué porcentaje de la variable dependiente es explicada por la variable
independiente puede realizarse un cuadro como el siguiente:
Las correlaciones miden cómo están relacionadas las variables o los órdenes de los rangos.
Antes de calcular un coeficiente de correlación, inspeccione los datos para detectar valores atípicos
(que pueden producir resultados equívocos ) y evidencias de una relación lineal.
Datos: Utilice variables cuantitativas simétricas para el coeficiente de correlación de Pearson y variables
cuantitativas o variables con categorías ordenadas para la rho de Spearman y la tau-b de Kendall.
41
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Supuestos: El coeficiente de correlación de Pearson asume que cada pareja de variables es normal bivariada.
La lista de variables contiene un listado con todas las variables numéricas del archivo de trabajo
(No figuran las variables de cadena). De este cuadro de diálogo es posible obtener varios
coeficientes de correlación y algunos estadísticos descriptivos básicos. Para ello:
Trasladar a la lista Variables (Variables) la/s variable/s cuyo grado de relación se desea
estudiar. Es necesario trasladar el menos dos variables.
Pearson. Medida de asociación lineal entre dos variables medidas en un nivel por intervalos
o de razón: Dos variables pueden estar perfectamente relacionadas, pero si la relación no es
lineal, el coeficiente de correlación de Pearson no será un estadístico adecuado para medir
su asociación.
Marcar las correlaciones significativas. Marca con un asterisco los coeficientes de correlación
significativos al nivel 0,05 y, con dos asteriscos, los significativos al nivel 0,01.
Medias y desviaciones típicas (Means and Standard deviations). Muestra, para cada
variable, la media aritmética, la desviación típica insesgada y el número de casos válidos
Valores perdidos (Missing values): Podemos optar entre dos formas diferentes de tratar los
casos con valores perdidos:
o Excluir casos según pareja (Exclude cases pairwise). Se excluyen del cálculo de cada
coeficiente de correlación los casos con valor perdido en alguna de las dos variables que se
están correlacionando.
43
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
o Excluir casos según lista (Exclude cases listwise). Se excluyen del cálculo de todos los
coeficientes de correlación los casos con valor perdido en cualquiera de las variables
seleccionadas.
Atención: Para este ejemplo desactivamos todos los filtros que puedan estar activos.
Interpretación:
La Hipótesis nula (H0) que se plantea en esta prueba es de independencia lineal y se puede
enunciar como “el coeficiente de correlación vale cero en la población”.
44
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
CANTIDAD
MONTO DEL MONTO DEL DE
INGRESO INGRESO INGRESO PERSONAS
AÑOS TOTAL TOTAL PER CAPITA EN EL
CUMPLIDOS INDIVIDUAL FAMILIAR FAMILIAR HOGAR
AÑOS CUMPLIDOS Correlación de Pearson 1 ,346** ,037* ,185** -,369**
Sig. (bilateral) ,000 ,025 ,000 ,000
N 3821 3821 3585 3821 3821
INGRESO TOTAL Correlación de Pearson ,346** 1 ,469** ,583** -,186**
INDIVIDUAL Sig. (bilateral) ,000 ,000 ,000 ,000
N 3821 3821 3585 3821 3821
MONTO DEL INGRESO
Correlación de Pearson ,037* ,469** 1 ,804** ,037*
TOTAL FAMILIAR Sig. (bilateral) ,025 ,000 ,000 ,027
N
3585 3585 3585 3585 3585
Cada celda contiene tres valores referidos al cruce entre cada dos variables:
45
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
En amarillo una correlación poco significativa entre la variable “Ingreso total familiar” y la
variable “Cantidad de personas en el hogar”. Esta correlación tiene una intensidad muy
baja de solo 0,037 en el rango de 0 a 1, el signo positivo indica que es una relación
directa, es decir, del tipo “A mayor cantidad de personas en el hogar, mayor Ingreso Total
familiar”, y es significativa al 95% ya que presenta un nivel crítico (Sig) igual a 0,027.
Concluimos que existe una correlación entre ambas variables pero de una intensidad tan
baja que la torna insignificante.
En el mismo cuadro se encuentran correlaciones con coeficientes más altos que los
resaltados, sin embargo, esto se debe a que una de estas variables ha sido calculada a partir de la
otra con la cual existe una correlación tan alta.
46
Análisis Estadístico con SPSS versión 13.0 Lic. Andrea Blazsek – Ing. Augusto Norte
Bibliografía
Carrión Sánchez, Juan Javier “Manual de análisis de datos”. Madrid, Alianza Editorial, 1995.
Galtung J “Teoría y Métodos de Investigación Social”, tomo I y II. Buenos Aires, Eudeba,
1973.
47