Professional Documents
Culture Documents
U NA
GRÁFICOS Pag.
de dos colas 13
TABLAS
nula μ = μ 0 22
iii
nula μ X = μ Y 24
nula μ A = μ B 29
de la diferencia 54
personas 57
Tabla III.5.4. Datos del papel tamaño carta con sus rangos y sus sumas
de rango 65
D, E 68
Tabla III.8.2. Los valores de la tabla III.8.1 sustituidos por sus rangos 79
de Kolmogorov-Smirnov 111
vi
RESUMEN
ÍNDICE
Pág.
Introducción 1
CAPÍTULO I 2
I.2.1 Selección 4
I.2.2 Interpretación 4
I.4.1 Introducción 8
CAPÍTULO II 14
comparados 17
II.2.1 Prueba de rangos para una sola muestra. Intervalos con signos 20
de pares comparados 23
CAPÍTULO III 43
CAPÍTULO IV 89
ix
IV.4 Recomendaciones 94
APÉNDICE A 95
APÉNDICE B 98
INTRODUCCIÓN
conocimiento, entre otras, las ciencias sociales, medicina, ingeniería y aquellas que
estudian las preferencias del consumidor. Esto ha motivado la elaboración del presente
trabajo. Las pruebas estadísticas no paramétricas forman, hoy día, un conjunto amplio
CAPÍTULO I
PRUEBA ESTADÍSTICA Y PRUEBA DE HIPÓTESIS
En una prueba estadística todo se inicia con una suposición que hacemos de
relacionada con los valores de uno o más parámetros poblacionales. Una vez planteado
hipótesis nula y se denota mediante H 0 . Este término, hipótesis nula, surgió de las
era que no tuvo efecto, es decir, no hubo diferencia entre las muestras tratadas y no
tratadas.
nula.
La decisión acerca del significado de los datos, una vez procesado, puede
originó.
compuesta.
función de las mediciones de la muestra que sirve de fundamento para las tomas de
decisiones estadísticas. La región de rechazo, denotada por RR, especifica los valores
del estadístico de prueba para los que la hipótesis nula se rechaza a favor de la hipótesis
prueba estadística y en cualquier región de rechazo fija se pueden cometer dos tipos de
H 1 cuando es verdadera; este error se denomina del tipo II con probabilidad β . Así
tabla # I.1.1
1
Aceptar es asegurar que la hipótesis Ho es verdadera 100% y esto no es así. En la mayoría de los textos
que tratan el tema se usa esta expresión como una abreviación que no es más que un abuso del lenguaje.
Todos aclaran, y así también lo hacemos aquí, que lo que se quiere decir es que no se tiene suficientes
elementos de juicio desde el punto de vista estadístico como para rechazarla; siendo ésta la forma más
adecuada o completa. En esta monografía se hace también de las dos formas y es bueno que se tenga
presente para no crear confusión.
4
P(RH 1 CEV) = β II
I.2.1 SELECCIÓN
Una vez establecida la hipótesis nula y la alternativa, entonces, todo consiste en decidir
I.2.2 INTERPRETACIÓN
recordar que la elección del estándar mínimo para una probabilidad aceptable, o el nivel
cuando es cierta. Mientras más alto sea el nivel de significancia que se utilice para
probar una hipótesis, mayor será la probabilidad de rechazar una hipótesis nula cuando
sea cierta.
1
Probabilidad de Rechazar la Hipótesis Cuando Es Verdadera se abrevia como P(RHCEV). Obsérvese
que las palabras que se inician con mayúscula son las únicas que se incluyen en el paréntesis.
5
(sombreada).
También se ubica en ella la misma muestra x en cada una de las distribuciones en donde
puede verse que tanto en a) como en b) aceptaríamos la hipótesis nula de que la media
figura, rechazaríamos la misma hipótesis nula que con la condición anterior se aceptó,
pues nuestro nivel de significancia de 0.50 en esa parte es tan alto que raramente
rechazo RR*; es decir, RR ⊂ RR*, la prueba con la región de rechazo RR* nos llevará a
tipo I (niveles de las pruebas) cuando utilizamos RR* y RR como regiones de rechazo,
denotan las probabilidades de los errores tipo II para las pruebas con regiones de
mantiene fijo con un valor suficientemente menor, β disminuye a medida que aumenta
el tamaño de la muestra.
Figura # I.3.1. Curvas de función de potencia de una prueba de dos colas con nivel de
significancia α = 0.05 con diferentes tamaños de muestras.
Un método que presenta una mayor utilidad para evaluar el desempeño de una prueba
el investigador puede estar estudiando un caso muy raro de enfermedad, por ejemplo, en
la potencia de una prueba de dos colas de la media que se produce con muestras de
8
tamaño cada vez mayor, siendo n sucesivamente igual a 4, 10, 20, 50 y 100. Estas
modelo estadístico para una prueba no han sido en verdad satisfechos, o cuando la
prueba.
I.4.1 INTRODUCCIÓN
cual de las pruebas estadísticas es la más adecuada para analizar un conjunto de datos.
Las áreas en las que se aplica la estadística para el análisis de datos son muy amplias y
diversas, pues abarca desde las ciencias básicas, pasando por las ciencias médicas y las
tecnológicas, hasta llegar a las ciencias sociales y las que estudian las preferencias del
varios factores, y uno de ellos es la escala con la que se están midiendo los datos que se
analizarán, pues no es igual procesar una variable que identifica el peso de un artículo
distinguir entre sí los grupos a que pertenecen varios objetos, personas o características
representando un nivel elemental de medición pues simplemente los clasifica. Cada uno
Ejemplos. Cuando un médico psiquiátrico examina a sus pacientes y los agrupa por
vale de un símbolo para representar la clase de personas a que pertenece ese individuo;
esta escala, pues en algunos países los números y letras de las placas indican el lugar
donde reside cada propietario del automóvil, y tenemos que cada subclase de la escala
mismo lugar. La asignación de los números debe ser tal que el mismo número (o letra)
se dé a todas las personas que residen en el mismo lugar y que diferentes números (o
letras) se den a personas que residen en lugares diferentes. Esto es, el número o la letra
de la placa debe indicar claramente a qué conjunto de las subclases que se excluyen
anteriores, la diferencia entre dos valores cualesquiera de una escala para una prueba
relación >, que significa mayor que, entre todos los pares de clases de modo que surja
un rango ordenado completo. Este orden cumple con las relaciones de equivalencia ( = )
o grado de preparación, alcanzado por los estudiantes en las diferentes materias según
las notas por ellos obtenidas. En la escala del 1 al 20 cada una de las notas representa
una clase. La relación de equivalencia (=) se mantiene entre los miembros de la misma
ordinal. El sargento > el cabo > el soldado raso cumple con la relación mayor que, la
es mayor que el soldado raso entonces el soldado raso no es mayor que el cabo y
transitiva: como el sargento es mayor que el cabo y éste a su vez mayor que el soldado
raso entonces el sargento es mayor que el soldado raso. Aquí también se mantiene la
simétrica y transitiva.
Como puede verse por medio de estos ejemplos la diferencia entre valores
en esta escala no representa información con valor aunque sí la posición que las
Existen varios estadísticos que usan este tipo de escala para pruebas
diferencia entre 30º C y 35º C es la misma que entre 45º C y 50º C y si se dice que un
Centígrados 0 10 30 100
Fahrenheit 32 50 86 212
30 − 10
Calculamos ahora la proporción de la diferencia en cada escala: centígrados =2
10 − 0
86 − 50
y Fahrenheit = 2 . Las lecturas comparables en ambas escalas, como se ven
50 − 32
producto del cálculo, dan como resultado la misma proporción: 2. Esta escala es de tipo
paramétricas.
Se llaman así a las escalas que además de tener todas las características de
una escala de intervalo tienen un punto cero real en su origen. En ella, la proporción de
números que se asocian con esta escala son números con verdadero cero y cualquier
libras tiene un verdadero punto cero. Lo mismo sucede con las escalas en gramos,
unidad de medida. Por ejemplo, si determinamos los pesos de dos objetos diferentes no
12
sólo en libras sino también en gramos, encontramos que la razón de los dos pesos en
Esto es, cuando la probabilidad asociada con un valor observado de una prueba
H 0 , se rechaza siempre que ocurra un resultado significativo. Por tanto, se llama valor
igual o menor que α . Obsérvese que las figuras # I.5.1, # I.5.2., y # I.5.3 muestran las
caso de dos y una cola, siendo esta última de cola derecha o de cola izquierda según
corresponda.
Figura # I.5.1. El área sombreada muestra la región de rechazo de una prueba de dos
colas.
Figura # I.5.2. El área sombreada muestra la región de rechazo de una prueba de cola
derecha o superior.
Figura # I.5.3. El área sombreada muestra la región de rechazo de una prueba de cola
izquierda o inferior
14
CAPÍTULO ІI
LAS PRUEBAS Y SU TEORÍA
todas, pues está reportada en la literatura desde 1710 por John Arbuthnott, quien hizo
uso de este procedimiento, por primera vez, para demostrar que la proporción de
generan la diferencia de comparar los datos en una población con respecto a su media,
mediana o con respecto a otros datos tomados de la misma población, presentándose así
dos casos, el de una muestra sencilla (una sola muestra) y el de una muestra en pares.
Si cada vez que se vaya a realizar una experiencia aleatoria, fijamos nuestra
trivialmente una variable aleatoria Y , dicotómica, tomando valores en {0,1} , que recibe
veces que ha tenido lugar el suceso A define el modelo binomial B (x,n,p) que tiene por
⎛n⎞
f (x) = P (X= x ) = ⎜⎜ ⎟⎟ p x (1 − p ) n − x ; x = 0,1,...., n
⎝ x⎠
15
t t
⎛n⎞
FX (t ) = P ( X ≤ t ) = ∑ f (k ) = ∑ ⎜⎜ ⎟⎟ p k (1 − p) n − k
k =0 k =0 ⎝ k ⎠
prueba del signo de una sola muestra, en donde el suceso A aparece como resultado de
la diferencia de cada uno de los datos con la media y la probabilidad de obtener un valor
de la muestra que sea mayor que la media o que sea menor que la media son ambas ½.
sobre la base de una muestra aleatoria de tamaño n, se sustituye cada valor de la muestra
que exceda a μ 0 por un signo más y cada valor de la muestra menor que μ 0 con un
signo menos, y después se prueba la hipótesis nula de que el número de signos más es el
valor de una variable aleatoria que tiene una distribución binomial con los parámetros
las alternativas unilaterales μ < μ 0 y μ > μ 0 se convierte en p < 1/2 y p > 1/2
ψ ( xi ) = 1 si xi > 0
ψ ( xi ) = 0 si xi < 0
Entonces sea T(ψ 1 ,…,ψ n ) un estadístico basado sobre los ψ i . Los estadísticos
n
T( X 1 , X 2 ,....., X n ) = ∑X
i =1
i y μ 0 es la mediana común de los X i , se tiene el siguiente
n n
S = T(ψ 1 ,…,ψ n ) = ∑ψ i =
i =1
∑ψ ( X
i =1
i - μ 0 ) = “número de diferencias X i - μ 0
estrictamente positivas”
Para ejecutar una prueba del signo de una sola muestra cuando la muestra es
Sea p = ½
grandes de S.
17
DE PARES COMPARADOS
diferencias significativas que no son resultado del tratamiento. Por ejemplo para
aprenda con uno de los métodos y un grupo diferente aprenda con el otro. Ahora bien, si
uno de los grupos tiene estudiantes más capaces o más motivados, la ejecución de los
dos grupos puede no reflejar exactamente la relativa efectividad de los dos métodos de
los grupos es usar dos muestras relacionadas o comparables en la investigación. Esto es,
uno puede “igualar”, relacionar o hacer comparables de otra manera las dos muestras
estudiadas, cosa que puede lograrse cuando cada sujeto es su propio control o con
parejas de sujetos en las que se asignan los miembros de cada pareja a las dos
condiciones. Cuando un sujeto sirve como su propio control está expuesto a ambos
seleccionar, dentro de lo posible, en cada pareja de sujetos, aquellos que sean los más
18
semejantes, con respecto a cualquier variable extraña que pudiera influir el resultado de
que fueran seleccionadas numerosas parejas de estudiantes, cada una compuesta por
cada pareja, escogido al azar, sería asignado a uno de los métodos de enseñanza y su
“compañero” al otro.
H 0 : F(z) = G(z) frente a H 1 : F(z) ≠ G(z), para las que las formas de estas distribuciones
no están determinadas. Obsérvese que H 1 es una hipótesis muy amplia. Muchas veces el
experimentador querrá analizar la hipótesis alternativa más específica que indica que Y1
COMPARADOS
alternativa que sostiene que la distribución tiene diferente localización. Con base en la
19
Hipótesis nula…..…………… H 0 : p = ½
independiente.
X −μ S −n/2
Estadístico de prueba: Z= =
σ (1 / 2) n
20
distribución normal.
CON SIGNOS
Como se vio en secciones anteriores, la prueba del signo en sus dos versiones
es muy fácil de realizar, pues sin importar la distribución que siguen las observaciones,
sólo utilizamos los signos de las diferencias entre éstas y μ 0 o entre las parejas
comparadas, siendo los signos + y – las direcciones de las diferencias producto de las
que toma en cuenta, además de los signos, las magnitudes de las diferencias por medio
n
rango se determinará mediante la fórmula Ri = ∑ (1 − ψ ( X j − X i )) , donde ψ es como
j =1
se definió en la sección II.1.1, teniéndose en particular que Z (1) < Z ( 2 ) < Z ( 3) < .... < Z ( n )
Z (n ) = máx( Z 1 ,…, Z n ).
En esta prueba se ordenan por rango los valores absolutos de las diferencias
en relación con sus signos: asignamos el rango 1 a la menor de las diferencias en valor
21
sucesivamente. Cuando varias de las diferencias sean las mismas, si fuera el caso de las
que corresponderían a 3, 4 y 5, cada una tomaría como rango el valor promedio de las
tres, en este caso, 4, seria el rango asignado a cada una de las diferencias iguales, y a la
Calcularíamos ahora la suma de los rangos para las diferencias negativas T − y las
sumas de los rangos para las diferencias positivas T + .En el caso de una prueba de dos
colas utilizamos T, la más pequeña de estas dos cantidades, como estadístico de prueba
para probar la hipótesis nula que afirma que las dos poblaciones son idénticas. Cuanto
más pequeño sea el valor de T, mayor el peso de la evidencia que favorece el rechazo de
a algún valor T α .
La hipótesis nula permite que para cada rango, las probabilidades de que se
le asigne una diferencia positiva o una negativa son ambas ½. Podemos escribir el
estadístico como
Var( X i ) = 1/2 .(1 – 1/2 ) = 1/4 para i = 1, 2, 3, ……,n , y tomando en cuenta las
siguientes propiedades
E ( a1 X 1 + a 2 X 2 + ....... + a n X n ) = a1 E ( X 1 ) + . . . + a n E ( X n ) y
se deduce que
1 + 2 + ... + n
E (T + ) = 1.1/2 + 2.1/2 + . . . + n.1/2 =
2
n(n + 1)
y aplicando el método de inducción completa, se tiene que E ( T + ) = ,
4
22
y que
1 + 2 + ... + n
Var(T + ) = 1 2 .1/4 + 2 2 .1/4 +. . .+n 2 .1/4 =
4
n(n + 1)(2n + 1)
Var(T + ) =
24
μ > μ0 T − ≤ T 2α
μ < μ0 T + ≤ T 2α
críticos de T, que son tales que T α es el valor más grande para el cual P(T ≤ T α ) no es
mayor que α , se dan en la tabla 3 del apéndice B. Obsérvese que los mismos valores
esperaríamos que la mitad de las diferencias de los pares fuera negativa y la otra mitad
positiva, o sea, que el número esperado de las diferencias negativas fuera de valor n/2.
cada uno de los n pares eliminando las diferencias nulas y se asignan los rangos como
en la sección anterior.
los valores T + ≤ T 2α .
2.2.1 donde hay que tener presente los mismos detalles de la sección anterior y manejar
la tabla con los mismos criterios indicados allí. A continuación se resume la prueba que
μ X > μY T − ≤ T 2α
μ X < μY T + ≤ T 2α
comparados.
son idénticas.
Estadístico de la prueba:
los rangos de las diferencias positivas y T − es igual a la suma de los rangos de las
diferencias negativas.
Región de rechazo:
son idénticas.
X −μ T + − [n(n +1) / 4]
Estadístico de prueba: Z= = , T = T + ya que T +
σ n(n +1)(2n +1) / 24
colas.
ALEATORIAS INDEPENDIENTES
(la más pequeña) a la n (la más grande). Los empates se manejan igual que como se
rangos para las muestra deberían ser más o menos proporcionales a los tamaños de las
muestras n 1 y n 2 . Por ejemplo, si n 1 y n 2 son iguales, esperamos que las sumas de los
ejemplo, tienden a ser mayores que las observaciones de la muestra B, las observaciones
de la muestra A tenderán a recibir los rangos más altos, y la suma de rangos que le
pertenece será mayor que la suma de rangos esperada. Por consiguiente, teniendo
otra es muy pequeña, esta podría indicar una diferencia importante entre las dos
INDEPENDIENTES
la de Wilcoxon que también incluye las sumas de los rangos de dos muestras, la cual
aquí Q = (R 1 ,…,R m ) y S = (R m +1 ,…,R N ) son los vectores de los rangos de los X y los Y
m N N
N ( N + 1)
en la muestra combinada y se tiene ∑ Ri +
i =1
∑ Rj =
j = m +1
∑k
k =1
=
2
.
m
Consideremos los estadísticos T 1 , T 2 , T 3 y T 4 tales que T 1 (Z 1 ,…,Z N ) = ∑Z
i =1
i
N m n
T 2 ( Z 1 ,…,Z N ) = ∑Z j ,
j = m +1
T 3 ( Z 1 ,…,Z N ) = ∑∑ψ ( X
i =1 j =1
i − Yj )
m n
T 4 ( Z 1 ,…,Z N ) = ∑∑ψ (Y
i =1 j =1
j − Xi)
m
Entonces los estadísticos W y W’ tales que W = T 1 (R 1 ,…,R N ) = ∑R
i =1
i = suma de los
N
rangos de las X i en la muestra combinada y W’ = T 2 (R 1 ,…,R N ) = ∑R
j = m +1
j = suma de los
m n
U = MW = T 3 (Z 1 ,…,Z N ) = ∑∑ψ ( X
i =1 j =1
i − Yj )
m n
U’ = MW’ = T 4 (Z 1 ,…,Z N ) = ∑∑ψ (Y
i =1 j =1
j − Xi) ,
entonces
∑ψ ( X
j =1
i - Y j ) = número de valores de j tal que Y j < X i para un i, i = 1,…,m, fijado
n
Luego si m i = número de X menor o igual a X i se tiene: ∑ψ ( X i - X j ) = R i - m i
j =1
28
m m m m m m
m(m + 1)
Entonces U A = MW = ∑ ( Ri - m i ) = ∑ Ri - ∑ mi =
i =1 i =1 i =1
∑ Ri - ∑ i =
i =1 i =1
∑R
i =1
i -
2
N
n(n + 1)
Cambiando m por n se obtiene inmediatamente U B = MW’ = ∑R
j = m +1
j -
2
MW = U A = R 1 - n 1 (n 1 +1)/2
MW’= U B = R 2 - n 2 (n 2 +1)/2
donde
U A + U B = n1n 2
consiguiente, para efectuar una prueba de dos colas con el fin de detectar un
rechazar la hipótesis nula que afirma que no hay diferencia en las distribuciones de
para valores pequeños de U A . De manera similar, para llevar a cabo una prueba de una
observado de U sea menor que un valor específico U α . Para llevar a cabo una prueba
rechazar H 0 para U < U α . El valor de α para la prueba de una cola es el doble del de
una prueba de dos colas tal como se muestra en la siguiente tabla # II.4.1.
Hipótesis Rechace la
alternativa hipótesis nula si:
μ A ≠ μB U≤ Uα
μ A > μB U B ≤ U 2α
μ A < μB U A ≤ U 2α
varianza cuando U = U A (o U = U B ):
n1 n 2 n1 n2 (n1 + n2 + 1)
E(U A ) = y Var(U A ) =
2 12
pequeño de
U A = R 1 - n 1 (n 1 +1)/2 y U B = R 2 - n 2 (n 2 +1)/2
α rechace H 0 si U ≤ U α , donde
α , rechace H 0 si U A ( U B ) ≤ U 2α , donde
P(U A ( U B ) ≤ U 2α ) = 2 α .
colas); o
U − (n1 n2 / 2)
Estadístico de prueba: Z=
(n1 n2 )(n1 + n2 + 1) / 12
distribución normal.
32
y se ordena de 1, la más pequeña, a n , la más grande. Los empates se manejan igual que
total de los rangos, consideramos el equivalente para los rangos de la suma de los
cuadrados para los tratamientos, que se calcula utilizando los rangos, en lugar de los
k
valores reales de las mediciones: V= ∑n
i =1
i ( Ri - R ) 2 .
esperaríamos que los valores de Ri fueran aproximadamente iguales y que el valor que
espiraríamos que este hecho se reflejara en las diferencias entre los valores de las Ri , lo
cual daría como resultado un valor grande para V. Como R = (suma de los primeros n
n +1 k
n +1 2
enteros) / n = [n(n + 1) / 2] / n = ; de esta manera, V = ∑n ( R i i - ) .
2 i =1 2
k 2
12V 12 Ri
H=
n(n + 1)
, que puede escribirse como H =
n(n + 1)
∑
i =1 ni
-3(n+1).
33
hipótesis alternativa que plantea que las poblaciones difieren en cuanto a su localización
h( α ) satisface la relación.
una distribución continua, requiere, por lo menos, una medida ordinal de la variable.
puede determinar calculando el valor de H para cada una de las n! permutaciones, con la
k-1 grados de libertad. Esta aproximación, por lo general, se considera adecuada si cada
distribuciones de población.
k 2
12 Ri
Estadístico de la prueba…… H =
n(n + 1)
∑
i =1 ni
-3(n+1), donde
de la población i
n = n1 + n 2 + … + n k observaciones formadas
independiente.
elemento de la serie puede dar origen a dos resultados, éxito (S) o fracaso (F). Si
R ≥ k 2 la región de rechazo.
|------|------|------//-----|--------------------------------------------|------//------|------|------|-----|
2 3 4 k1 Número de rachas k2 m
de la serie constituye un evento simple del experimento y que los puntos muestrales son
equiprobables. Así nos queda como siguiente paso, contar el número de puntos
⎛ n + n2 ⎞ 1
por ⎜⎜ 1 ⎟⎟ y, por consiguiente, la probabilidad por punto muestral es de .
⎝ n ⎠ ⎛ n + n ⎞
1
⎜⎜ 1 2
⎟⎟
⎝ n1 ⎠
|S|SSSS|SS…|SS|SSS|S|
las cuales esta vacía, como se indica en la figura # II.6.2. Esta cantidad es igual al
número de formas para distribuir las (y 1 -1) barras internas idénticas en los (n 1 -1)
seleccionar (y 1 -1) espacios para las barras afuera de los (n 1 -1) espacios disponibles; es
⎛ n − 1⎞
decir ⎜⎜ 1 ⎟⎟
⎝ y1 − 1⎠
36
⎛ n − 1⎞ ⎛ n − 1⎞
de elementos F, se obtiene con el producto ⎜⎜ 1 ⎟⎟ ⎜⎜ 2 ⎟⎟
⎝ y1 − 1⎠ ⎝ y 2 − 1⎠
⎛ n1 − 1 ⎞⎛ n 2 − 1 ⎞
⎜⎜ ⎟⎜ ⎟
⎝ y1 − 1⎟⎠⎜⎝ y 2 − 1⎟⎠
p(y 1 , y 2 ) =
⎛ n1 + n 2 ⎞
⎜⎜ ⎟⎟
⎝ n1 ⎠
EJEMPLO # II.6.1
SOLUCIÓN
y 2 = 2. Por consiguiente,
37
⎛ 4 ⎞⎛ 2 ⎞ ⎛ 4 ⎞⎛ 2 ⎞
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
= ⎝ ⎠⎝ ⎠ +
1 0 ⎝ 0 ⎠ ⎝ 1 ⎠ = 4 + 2 = 0 . 107 .
⎛8⎞ ⎛8⎞ 56 56
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎝5⎠ ⎝5⎠
⎛ 4 ⎞⎛ 2 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
P(R = 2) = 2P(Y 1 = 1, Y 2 = 1) = 2 ⎝ ⎠⎝ ⎠ =
0 0 3
= 0.036.
⎛8⎞ 84
⎜⎜ ⎟⎟
⎝ 5⎠
α
R ≥ r α donde r’ α es el valor más grande para el cual P( R ≤ r’ α ) no es mayor que
2 2 2
2
α
y r α es el valor más pequeño para el cual P( R ≥ r α ) no es mayor que .
2 2
2
R ≥ k2 = rα
2
38
n 1 y n 2 crecen. La aproximación es buena cuando n 1 y n 2 son mayores que 10. Así que
podemos utilizar el estadístico Z como estadístico de prueba para una muestra grande.
En consecuencia,
para una prueba de dos colas con α = 0.05 es z ≥ 1.96. Si α es la probabilidad que se
busca de cometer un error tipo I, en el caso de una prueba de cola superior, rechazamos
la hipótesis nula si z > z α (en el caso de una prueba de cola inferior rechazamos H 0
si z < - z α ).
elementos de cada una de dos variables que estamos estudiando, entonces puede
que existe entre los dos conjuntos de rangos, una medida del grado de asociación entre
las variables que no podríamos calcular de otra manera. También este método simplifica
el proceso de cálculo a partir de un conjunto de datos muy grande para cada una de las
dos variables, ya que calcula una medida de asociación basada en los rangos de las
desarrolló a principios del siglo pasado y fue la primera de todas las estadísticas basadas
en rangos.
39
este se obtiene ordenando por rango las x entre si mismas y también las y; cuando hay
Whitney.
∑ (x
i =1
i − x )( y i − y )
S xy
r= = ,
n n
S xx S yy
∑ (x
i =1
i − x) 2
∑(y
i =1
i − y) 2
n
n(n + 1)
∑x
i =1
i =
2
, y la suma de sus cuadrados, 1 2 , 2 2 , . . . , n 2 es
n
n(n + 1)(2n + 1)
∑x
i =1
2
i =
6
. Por consiguiente,
n
(∑ xi ) 2
n n
n(n + 1)(2n + 1) n(n + 1) 2 n 3 − n
S xx = ∑ ( xi − x ) = ∑ x −
2 2
i
i =1
= − = ,
i =1 i =1 n 6 4 12
y similarmente
n3 − n
S yy = .
12
Ahora
d=x–y
d 2 = ( x – y) 2 = x 2 − 2 xy + y 2
n n n n
∑ d i2 = ∑ xi2 + ∑ yi2 − 2∑ xi yi
i =1 i =1 i =1 i =1
∑d
i =1
i
2
= S xx + S yy − 2S xy
S xy
r= = rs
S xx S yy
40
n
S xx + S yy − ∑ d i2
∑d
i =1
i
2
= S xx + S yy -2 r s S xx S yy , y r s =
2 S xx S yy
i =1
,
sustituyendo se tiene
n3 − n n3 − n n 2 2(n 3 − n) n 2 2 n
+ − ∑ di − ∑ di ∑ d i
2
6 ∑ d i2
12 12 12
rs= i =1
= i =1
= 1 − i =31 = 1 − i3=1
n3 − n n3 − n 2(n − n)
3
n −n n −n
2 ( )( )
12 12 12 6
t3 − t
factor T = para ajustar la fórmula. En este caso se tendrá
12
n
S xx + S yy − ∑ d i2
n3 − n n3 − n
rs= i =1
, donde S xx = − ∑ Tx y S yy = − ∑ Ty
2 S xx S yy 12 12
Hipótesis alternativa: H 1 : Hay relación entre los pares de rangos (prueba de dos
colas) o,
Estadístico de la prueba:
n
⎛ n ⎞⎛ n ⎞ n
n∑ xi y i − ⎜ ∑ xi ⎟⎜ ∑ y i ⎟ 6∑ d i2
rs = i =1 ⎝ i =1 ⎠⎝ i =1 ⎠ = 1− i =1
⎡ n 2 ⎛ n ⎞ 2
⎤⎡ n 2 ⎛ n 2
⎤ n3 − n
⎞
⎢ n∑ x i − ⎜ ∑ xi ⎟ ⎥ ⎢n∑ y i − ⎜ ∑ y i ⎟ ⎥
⎢⎣ i =1 ⎝ i =1 ⎠ ⎥⎦ ⎢⎣ i =1 ⎝ i =1 ⎠ ⎥⎦
41
observaciones.
apéndice B.
método no paramétrico sencillo para probar si existe una diferencia significativa entre
una distribución de frecuencia observada y otra de frecuencia teórica. La prueba K-S es,
teórica, como lo es la prueba ji-cuadrada. Sin embargo, la prueba K-S tiene varias
ventajas sobre la prueba χ 2 : es una prueba más poderosa, y es más fácil de utilizar,
La estadística K-S, D n , es particularmente útil para juzgar que tan cerca está
“distribución libre”)
42
teórica.
uso.
de uso
CAPÍTULO III
LAS PRUEBAS Y SUS APLICACIONES
MUESTRA
decir, con variables categóricas que solo toman dos valores: acierto-error, a favor-en
genérica, éxito y fracaso a los niveles de una variable de este tipo. Algunas de sus
EJEMPLO # III.1.1
probetas cilíndricas preparadas con una mezcla de concreto especial, en la que se espera
una resistencia media a la compresión de 160 psi. Pruébese esta hipótesis en el nivel de
163 165 160 189 161 171 158 151 169 162
163 139 172 165 148 166 172 163 187 173
SOLUCIÓN
1.- H 0 : μ = 160
H 1 : μ > 160
1
IMME es el Instituto de Materiales y Modelos Estructurales de la Universidad Central de Venezuela que
cuenta con laboratorios y personal especializado para la prueba de morteros que serán usados en
edificaciones y puentes.
44
n
y k .05 es el entero más pequeño para el cual ∑ B ( s ; n, p
s = kα
0 ) ≤ α y
n! 1
B ( s ; n, p 0 ) = p 0s (1 − p 0 ) n − s , ∀s = 0,1,..., n es la probabilidad de lograr s
s! (n − s )!
3.- Sustituyendo cada valor mayor que 160 por un signo positivo, cada valor menor
que 160 por un signo negativo y desechando el valor que sea igual a 160, se obtiene la
2 165 + 12 139 -
3 160 0 13 172 +
4 189 + 14 165 +
5 161 + 15 148 -
6 171 + 16 166 +
7 158 - 17 172 +
8 151 - 18 163 +
9 169 + 19 187 +
10 162 + 20 173 +
Nº de signos negativos (- )- - - - - - - - - - - - 4
45
binomiales se determina el valor de k .05 para n =19. Siendo que los valores de
B ( s , n ,1/2) son:
B (19,19,1/2) = 0.0000
B (18,19,1/2) = 0.0000
19
B (17,19,1/2) = 0.0003 , ∑ B(s,19,1 / 2) = 0.0003
s =17
19
B (16,19,1/2) = 0.0018 , ∑ B(s,19,1 / 2) = 0.0021
s =16
19
B (15,19,1/2) = 0.0074 , ∑ B(s,19,1 / 2) = 0.0095
s =15
19
B (14,19,1/2) = 0.0222 , ∑ B(s,19,1 / 2) = 0.0317 < 0.05
s =14
19
B (13,19,1/2) = 0.0518 , ∑ B(s,19,1 / 2) = 0.0835 > 0.05
s =13
19
4.- Como s = 15 es mayor que k .05 = 14, se debe rechazar la hipótesis nula y se
EJEMPLO # III.1.2
Yubirí Ortega, Ministra del Poder Popular para el Ambiente, está pensando
que por el tiempo que lleva la descentralización de empresas del área metropolitana de
Caracas, es hora de retirar los filtros instalados hace 6 años con el fin de limpiar el aire
en la ciudad. En tal sentido ha nombrado una comisión técnica para que tome una serie
46
representa riesgo para la salud, o si por el contrario se mantiene por encima de este
valor. Los datos que siguen, expresados en ppm (partes por millón), son las mediciones
17 15 20 29 19 18 22 25 27 9 24 20 17 6 24 14 15 23 24 26
19 23 28 19 16 22 24 17 20 13 19 10 23 18 31 13 20 17 24 14
a la distribución normal por ser n = 40 un número grande. Ver el apéndice A para mayor
información.
SOLUCIÓN
1.- H 0 : μ = 21.5
H 1 : μ > 21.5
2.- La mitad del área debajo de la curva de una función de densidad normal es 0,5, que
según la tabla normal a z = 2.33, esto nos permite fijar el intervalo de rechazo de la
( s ± 1 2) − np 1
hipótesis nula así: z > z.01 = 2.33, donde z = , p= y S es el número de
np (1 − p) 2
mientras que la de una distribución normal es contínua, se hace una corrección por
continuidad (por ejemplo, 3 caras es en realidad un valor entre 2.5 y 3.5 caras).
47
2 15 - 22 23 +
3 20 - 23 28 +
4 29 + 24 19 -
5 19 - 25 16 -
6 18 - 26 22 +
7 22 + 27 24 +
8 25 + 28 17 -
9 27 + 29 20 -
10 9 - 30 13 -
11 24 + 31 19 -
12 20 - 32 10 -
13 17 - 33 23 +
14 6 - 34 18 -
15 24 + 35 31 +
16 14 - 36 13 -
17 15 - 37 20 -
18 23 + 38 17 -
19 24 + 39 24 +
20 26 + 40 14 -
1
Como n = 40 y s = 16, se obtiene np = 40. = 20 ,
2
(16 + 1 2) − 20
np (1 − p ) = 40(0.5)(0.5) = 3.16 y, por lo tanto, z = = −1.11
3.16
3.- Ya que z = −1.11 es menor que z = 2.33 , no se puede rechazar la hipótesis nula.
EJEMPLO # III.1.3
aplicado en todos los estados del país. Del conjunto de datos se tomó una muestra
71 67 55 64 82 66 74 58 79 61 78 46 84 93 72 54 78 86 48 52
67 95 70 43 70 73 57 64 60 83 73 40 78 70 64 86 76 62 95 66 .
SOLUCIÓN
a) Al restar 66 de todas las entradas dadas anteriormente y al mantener solo los signos
asociados, resulta la tabla #III.1.3 donde se ve que hay 23 signos más (+) ,15 signos
menos (-) y dos ceros. Al descartar los 2 ceros, la muestra consiste de 38 signos: 23 + y
0.025 en cada cola y tomando en cuenta las características antes nombradas de esta
función de densidad, tenemos: 0,5 - 0.025 = 0,475, luego buscamos en la tabla normal
2 67 +/- 22 95 +/+
3 55 -/- 23 70 +/-
4 64 -/- 24 43 -/-
5 82 +/+ 25 70 +/-
6 66 0/- 26 73 +/-
7 74 +/- 27 57 -/-
8 58 -/- 28 64 -/-
9 79 +/+ 29 60 -/-
10 61 -/- 30 83 +/+
11 78 +/+ 31 73 +/-
12 46 -/- 32 40 -/-
13 84 +/+ 33 78 +/+
14 93 +/+ 34 70 +/-
15 72 +/- 35 64 -/-
16 54 -/- 36 86 +/+
17 78 +/+ 37 76 +/+
18 86 +/+ 38 62 -/-
19 48 -/- 39 95 +/+
20 52 -/- 40 66 0/-
encontramos que este valor corresponde a z = 1,96 lo que permite adoptar la regla de
rechazar la hipótesis.
b) Para este caso aplicamos el mismo procedimiento que se usó en la parte a) sólo que
es 75 al nivel 0.05 ya que este valor de z queda fuera del intervalo de aceptación.
PARES COMPARADOS
distribución de los valores de Y frente a la hipótesis alternativa que sostiene que las
EJEMPLO # III.2.1
fin de mejorar las ganancias, su gerente general quiere disminuir costos de producción
de química de la compañía, siendo éste una sustancia mucho más económica que la que
actualmente se utiliza. En este sentido realizó una prueba piloto, para saber cual será la
51
tendencia en el consumo de este alimento entre los niños menores de 2 años, una vez
que, en todos sus productos, aplique el nuevo tipo de saborizante. En la tabla # III.2.1 se
1 3 1
2 5 2
3 2 0
4 3 2
5 3 2
6 3 0
7 0 2
8 4 3
9 1 3
10 6 4
11 4 1
12 1 0
Utilice la prueba del signo de muestra en pares para probar la hipótesis nula
SOLUCIÓN
1. H 0 : μ1 = μ 2
H1: μ1 > μ 2
52
∑ B ( s ; n, p
s = kα
0 ) ≤α .
2 5 2 +
3 2 0 +
4 3 2 +
5 3 2 +
6 3 0 +
7 0 2 -
8 4 3 +
9 1 3 -
10 6 4 +
11 4 1 +
12 1 0 +
B (12,12,1/2) = 0.0002
12
B (11,12,1/2) = 0.0029 , ∑ B(s,12,1 / 2) = 0.0031 < 0.05
s =11
12
B (10,12,1/2) = 0.0161 , ∑ B(s,12,1 / 2) = 0.0192 < 0.05
s =10
53
12
B (9,12,1/2) = 0.0537 , ∑ B(s,12,1 / 2) = 0.0729 > 0.05
s =9
EJEMPLO # III.2.2
Día 1 2 3 4 5 6 7 8 9 10 11 12
Máquina I 47 56 54 49 36 48 51 38 61 49 56 52
Máquina II 71 63 45 64 50 55 42 46 53 57 75 60
el número de piezas defectuosas producidas por las máquinas, y se supone que estos
entre los tornos I y II, con la hipótesis alternativa de que sí hay diferencia al nivel 0.05
de significancia.
SOLUCIÓN
Primero hallamos los signos de la tabla III.2.3 y los mostramos como sigue
en la tabla # III.2.4
54
Día 1 2 3 4 5 6 7 8 9 10 11 12
Máquina I 47 56 54 49 36 48 51 38 61 49 56 52
Máquina II 71 63 45 64 50 55 42 46 53 57 75 60
Signo de la diferencia - - + - - - + - + - - -
1. H 0 : μ1 = μ 2
H1: μ1 ≠ μ 2
2. Dado que H 1 es la hipótesis de que hay una diferencia entre las máquinas y no la
contraste bilateral. Luego se suman las probabilidades de cualquiera de las colas, hasta
que la suma exceda 0.025 y se rechazará la hipótesis nula si s ≤ k .'025 o s ≥ k .025 , donde
k.'025
∑ B(s,12,1 / 2) ≤ 0.025
s =0
y k .025 es el entero más pequeño para el cual
12
∑ B(s,12,1 / 2) ≤ 0.025
s =k.025
12
B(12,12,1 / 2) = 0.0002 ∑ B(s,12,1 / 2) = 0.0002 < 0.025
s =12
12
B(11,12,1 / 2) = 0.0029 ∑ B(s,12,1 / 2) = 0.0029 + 0.0002 = .00031 < 0.025
s =11
12
B(10,12,1 / 2) = 0.0161 ∑ B(s,12,1 / 2) = 0.0161 + 0.0031 = .00192 < 0.025
s =10
12
B(9,12,1 / 2) = 0.0537 ∑ B(s,12,1 / 2) = 0.0537 + 0.0031 = 0.0729 > 0.025
s =9
55
Lo que nos permite obtener k .025 = 10 y por simetría k 0' .025 = 2, que al comparar en el
intervalo de rechazo se encuentra que s = 3 > k 0' .025 = 2 lo que nos permite afirmar que
no es posible rechazar H 0 al nivel 0.05 y se debe concluir que no hay diferencia entre
como se ve seguidamente.
EJEMPLO # III.3.1
para equipos electrónicos en películas de carbón con bajo coeficiente térmico. Se toma
97.5, 95.2, 97.3, 96.0, 96.8, 100.3, 97.4, 95.3, 93.2, 99.1, 96.1, 97.6, 98.2, 98.5, 94.9.
Utilice una prueba de rangos con signos en el nivel de significancia 0.05 para
confirmarlo o rechazarlo.
SOLUCIÓN
1. H 0 : μ = 98.5
H 1 : μ ≠ 98.5
3. Restando 98.5 de cada valor y ordenando las diferencias por rango sin tomar en
1 97.5 -1.0 4
2 95.2 -3.3 12
3 97.3 -1.2 6
4 96.0 -2.5 10
5 96.8 -1.7 7
6 100.3 1.8 8
7 97.4 -1.1 5
8 95.3 -3.2 11
9 93.2 -5.3 14
10 99.1 0.6 2
11 96.1 -2.4 9
12 97.6 -0.9 3
13 98.2 -0.3 1
14 98.5 0.0
15 94.9 -3.6 13
n = 14 1.
4. Como T = 10 es menor que T .05 = 21, se debe rechazar la hipótesis nula; el valor
1
En este caso n=14 pues la medición 98.5 no tiene diferencia percibida y por tanto se elimina.
57
EJEMPLO # III.4.1
piloto de reducción de peso para personas obesas por medio del programa Barrio
1 147.0 137.9
2 183.5 176.2
3 232.1 219.0
4 161.6 163.8
5 197.5 193.5
6 206.3 201.4
7 177.0 180.6
8 215.4 203.2
9 147.7 149.0
10 208.1 195.4
11 166.8 158.5
12 131.9 134.4
13 150.3 149.3
14 197.2 189.1
15 159.8 159.1
16 171.7 173.2
examen tiroideo resultando el estudio negativo para todos los casos de la muestra
tomada. La tabla # III.4.1, que más adelante se muestra, consigna los pesos en libras
para todos los casos, antes y después de aplicado el programa, de 16 personas que
siguieron la dieta reductora de peso durante cuatro semanas. En este ensayo se le dio
libertad a los participantes de comer cualquier cosa en el desayuno que fuera rica en
SOLUCIÓN
1. H 0 : μ1 = μ 2
H1: μ1 > μ 2
2. Las diferencias entre las parejas respectiva son 9.1, 7.3, 13.1, -2.2, 4.0, 4.9, -3.6,
12.2,-1.3, 12.7, 8.3, -2.5, 1.0, 8.1, 0.7, -1.5, si se ordenan por rango sus valores
absoluto, se tiene que las diferencias positivas ocupan los rangos 13, 10, 16, 8,9,14, 15,
Por consiguiente,
T + = 13+10+16+8+9+14+15+12+2+11+1 = 111
T − = 5 + 7 + 3 + 6 + 4 = 25
T = min(111, 25) = 25
EJEMPLO # III.4.2.
SOLUCIÓN.
1. H 0 : μ1 = μ 2
60
H1: μ1 > μ 2
T + − E (T + )
3. Rechace la hipótesis nula si z ≥ z .05 = 1.645, donde Z =
Var (T + )
T + = 13+10+16+8+9+14+15+12+2+11+1 = 111
(16)(17) (16)(17)(33)
Puesto que E(T + ) = = 68 y Var.(T + ) = = 374, se obtiene
4 24
111 − 68
Z= = 2.22
347
3. Ya que z = 2.22 es mayor que z .05 = 1.645, se debe rechazar la hipótesis nula;
juicio para aceptar la hipótesis nula. La dieta es, en realidad, efectiva para bajar de peso.
EJEMPLO # III.4.3.
SOLUCIÓN
La tabla # III.4.3 muestra los datos originales y las diferencias en la densidad (en onzas
probar sostiene que las dos distribuciones de frecuencias de población en las densidades
de las tortas son idénticas, mientras que la alternativa, que implica una prueba de dos
que no hay suficiente evidencia para concluir que las dos distribuciones de frecuencia
alternativa más útil ante la prueba paramétrica t cuando el investigador desea evitar las
escala de intervalo.
EJEMPLO # III.5.1
Alineación A Aleación B
11.8 14.7
SOLUCIÓN
10.7 1 16.4 10
11.8 2 17.8 11
12.6 3 18.3 12
12.9 4 18.9 13
14.1 5 19.6 14
14.7 6 20.5 15
15.2 7 22.7 16
15.9 8 24.2 17
16.1 9 25.3 18
Aleación A Aleación B
Resistencia del Resistencia del
cable Rango cable Rango
18.3 12 12.6 3
16.4 10 14.1 5
22.7 16 20.5 15
17.8 11 10.7 1
18.9 13 15.9 8
25.3 18 19.6 14
16.1 9 12.9 4
24.2 17 15.2 7
14.7 6
Suma 65
U = mín(U A , U B ) .
(8)(9)
Luego, U A = R 1 - n 1 (n 1 +1)/2 = 106 - = 70 y
2
U B = R2 − n 2 (n 2 + 1) 2 = 65 − 10(11) 2 = 65 − 55 = 10
Entonces tenemos,
U = mín(70,10) = 10
64
Dado que la hipótesis H 0 que se está probando afirma que no hay diferencia entre las
es menor que U .05 =17 se rechaza la hipótesis nula. Se concluye que estadísticamente si
EJEMPLO # III.5.2
carta, con densidad de 75g/m2, que se usa para fotocopiadoras. Se quiere comparar la
resistencia de los tipos de papel, con y sin el químico, para ver si ésta aumenta y
mejorar así la calidad del mismo. A tal fin se tomaron diez trozos de cada clase de
que no hay diferencia en las distribuciones de las resistencias de las dos clases de papel
frente a la hipótesis alternativa que afirma que el papel tratado con la sustancia química
SOLUCIÓN
Ahora calculamos U A y U B ,
1.35 6 1.67 20
1.51 17 1.50 16
1.39 9 1.31 5
1.48 14 1.52 18
1.40 10 1.53 19
R1 = 85.5 R2 = 124.5
Tabla # III.5.4. Datos del papel tamaño carta con sus rangos y
sus sumas de rango.
EJEMPLO # III.5.3
realizados al mismo tiempo para todos los estudiantes, las clases recibieron las
nocturna: 86 81 84 88 90 85 84 92 83 91 53 84.
66
SOLUCIÓN
1. La tabla III.5.5 muestra el orden de las calificaciones y los rangos. Obsérvese que el
rango para las dos calificaciones de 75 es 0.5(5+6) = 5.5, mientras que el rango para las
U A = R 1 - n 1 (n 1 +1)/2 = 73 – 9(10) 2 = 73 – 45 = 28
(9)(12) (9)(12)(22)
3. μU = n 1 n 2 /2 = = 54; σ U2 = n 1 n 2 ( n 1 +n 2 +1)/12= = 198
2 12
U A − μU 28 − 54
Por lo tanto Z = = = −1.85
σU 14.07
Como se desea contrastar la hipótesis H 1 de que las clases son diferentes, con la
53 1 81 8 86 15
66 2 82 9 87 16
70 3 83 10 88 17
73 4 84 12 90 18
75 5.5 84 12 91 19
75 5.5 84 12 92 20
79 7 85 14 95 21
Aceptar H 0 si z ≤ 1.645.
Dado que el valor real de z = -1.85 < -1.645, se rechaza H 0 y se concluye que la clase
EJEMPLO # III.6.1
Las siguientes cifras son las calificaciones del examen final obtenidas por
muestras de tres grupos de estudiantes a quienes se les enseñó el idioma inglés a través
Primer método 94 88 91 74 87 97
Segundo método 85 82 79 84 61 72 80
Tercer método 89 67 72 76 69
SOLUCIÓN
1. H 0 : μ1 = μ 2 = μ 3
les asigna a cada una el rango 4.5. Mediante la sustitución de los valores de R 1 , R 2 y R 3
12 ⎛ 84 2 55.5 2 31.5 2 ⎞
H= ⎜ + + ⎟⎟ − 3.19 = 6.67
(18)(19) ⎜⎝ 6 7 5 ⎠
hipótesis nula; se concluye que los tres métodos no son igualmente efectivo.
EJEMPLO # III.6.2
A 68 72 77 42 53
B 72 53 63 53 48
C 60 82 64 75 72
D 48 61 57 64 50
E 64 65 70 68 53
hipótesis de que no hay diferencia entre las máquinas a los niveles a) 0.05 y b) 0.01 de
significancia.
SOLUCIÓN
arreglar todos los valores en orden creciente de magnitud y al asignar rangos apropiados
∑R
A 17.5 21 24 1 6.5 70
C 10 25 14 23 21 93
D 2.5 11 9 14 4 40.5
E 14 16 19 17.5 6.5 73
2
12 k Rj
H= ∑
n(n + 1) j =1 n j
− 3(n + 1) =
12 ⎡ 70 2 48.5 2 93 2 40 2 73 2 ⎤
= ⎢ + + + + ⎥ − 3.26 = 6.44
25(26) ⎣ 5 5 5 5 5 ⎦
χ .205, 4 = 9.49. Dado que 6.44 < 9.49, no se puede rechazar la hipótesis de que no
b) al nivel 0.01 de significancia χ .201, 4 = 13.28 y dado que 6.44 < 13.28 no se puede
EJEMPLO # III.6.3
36 27 28 19 35 26
3 2 42 30 19 15
17 13 13 9.5 4 3
11 8 40 29 29 20
30 21 31 22 0 1
15 11 9 7 7 6
16 12 32 23 33 24
25 17 39 28 18 14
5 4 27 18 24 16
¿Proporcionan los datos de la tabla # 6.3 suficiente evidencia para concluir que las
71
difieren en cuanto a localización en dos de las líneas por lo menos? Utilice un nivel de
significancia 0.05.
SOLUCIÓN
Como los valores de las n i son mayores o iguales a 5, podemos utilizar la aproximación
para la distribución nula de H y rechazar la hipótesis nula de que las posiciones son
iguales si H > χ α2 tiene k - 1 = 2 grados de libertad. Para determinar que χ .205, 2 = 5.991
en el nivel de significancia de α = 0.05 y concluimos que, por lo menos, una de las tres
líneas tiende a producir una mayor cantidad de artículos defectuosos que las demás.
MUESTRA
de esta prueba, abarca diferentes campos de la actividad humana y puede servir desde
para probar la aleatoriedad: de las encuestas aplicadas por los entrevistadores, de las
algunos ejemplos:
72
EJEMPLO # III.7.
C X X C X C C C X C C X X C X C X C C X C X X C XC C X C X
SOLUCIÓN
1. H 0 : La disposición es aleatoria
H 1 : La disposición no es aleatoria.
R ±1 2 − μR
nula si z ≤ − 2.575 o z ≥ 2.575, donde z =
σR
2n1 n 2 2(16)(14)
μR = +1 = + 1 = 15.93
n1 + n 2 16 + 14
σ R = 2.679.
Ahora para una prueba bilateral al nivel 0.05 de significancia, se aceptaría la hipótesis
calculado de z es 2 > 1.96, se concluye que los lanzamientos no son aleatorios al nivel
73
0.05. La prueba indica que hay demasiadas corridas, lo que demuestra un patrón cíclico
en los lanzamientos.
EJEMPLO # III.7.2
SOLUCIÓN
⎛ n1 + n 2 ⎞ ⎛ 5 ⎞ 5!
⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟ = = 10
⎝ n1 ⎠ ⎝ 2 ⎠ 2! 3!
b)La distribución muestral de R está dada en la tabla (R,f) mostrada obtenida a partir de
la tabla de secuencia-corridas
aaabb 2 abaab 4
aabab 4 bbaaa 2
aabba 3 babaa 4
ababa 5 baaab 3
abbaa 3 baaba 4
R f
2 2
3 3
4 4
5 1
1
P r {R = 5} = = 0.1
10
EJEMPLO # III.7.3
SOLUCIÓN
2 + 4 + 3 + 5 + 3 + 4 + 2 + 4 + 3 + 4 17
μR = =
10 5
σ R2 =
∑ f (R − μ R )2
=
1 ⎡
2 ( 2 −
17 2
) + 3(3 −
17 2
) + 4 ( 4 −
17 2
) + (5 −
17 2 ⎤ 21
) = .
∑f 10 ⎢⎣ 5 5 5 5 ⎥⎦ 25
EJEMPLO # III.7.4
Una comisión formada por técnicos de la misión árbol, está revisando los
SSSSEEESSSSSSSEESSEEEE
SOLUCIÓN
1. H 0 : La disposición es aleatoria
H 1 : La disposición no es aleatoria.
76
presión sanguínea de un ser humano y del precio de una acción en el mercado de valores
varían con el tiempo. El alejamiento de la aleatoriedad en una serie, causada por las
un ejemplo.
EJEMPLO # III.7.5.
una vez cada hora la medida de la brillantez Y del papel, y los resultados, una vez
Obsérvese las desviaciones respecto a y . ¿Indican estos datos una falta de aleatoriedad
y, por consiguiente, sugieren que hay periodicidad y por tanto falta de control en el
proceso?
SOLUCIÓN
a continuación
S S S S FF F S F F S F S S S S
1. H 0 : La disposición es aleatoria
H 1 : La disposición no es aleatoria
RANGOS DE SPEARMAN.
requiere conocer el grado de relación o asociación lineal entre dos variables y requiere
que ambas variables sean medidas por lo menos en una escala ordinal, de manera que
los objetos o individuos en estudio puedan colocarse en dos series ordenadas. Veamos
algunos ejemplos.
EJEMPLO # III.8.1
La misión Barrio Adentro hace visitas médicas, casa por casa, para la
comenzó con la toma de una muestra de 12 padres y sus hijos mayores, tal como se
indica en la tabla # III.8.1. ¿Existe relación en la estatura de los padres y los hijos?
SOLUCIÓN
62 63 64 65 66 67 67 68 68 69 70 71
Como el sexto y séptimo lugares en este ordenamiento representa la misma estatura (67
1
pulg.), se asigna un rango medio (6 + 7) = 6.5 para estos lugares. De manera similar,
2
1
al octavo y noveno lugares se le coloca el rango (8 + 9) = 8.5 . Por lo tanto, las
2
De manera similar, ordenadas en orden creciente de magnitud, las estaturas de los hijos
son
65 65 66 66 67 68 68 68 68 69 70 71
Y como el sexto, séptimo, octavo y noveno lugares representan la misma estatura (68
1
pulg.), se les asigna el rango medio (6 + 7 + 8 + 9) =7.5 a estos lugares. Por lo tanto,
4
Usando las correspondencias se puede sustituir la tabla III.8.1 con la tabla III.8.2
Rango del hijo 7.5 3.5 7.5 1.5 10 3.5 7.5 1.5 12 5 7.5 11
Tabla III.8.2. Los valores de la tabla III.8.1 sustituidos por sus rangos
donde
6∑ D 2 6(72.50)
r s = 1- = 1- = 0.7465
n(n − 1)
2
12(12 2 − 1)
D -3.5 -1.5 -1.0 1.5 -1.5 -2.5 3.5 3.5 -3.5 1.5 2.5 1.0
D2 12.25 2.25 1.00 2.25 2.25 6.25 12.25 12.25 12.25 2.25 6.25 1.00 ∑D 2
=72.5
Se concluye que existe una relación entre la estatura de los padres y la de los hijos en la
población.
n3 − n 12 3 − 12 23 − 2 23 − 2
S xx = − ∑ Tx = −( + ) = 143 – 0.5 – 0.5 = 142
12 12 12 12
n3 − n 12 3 − 12 23 − 2 23 − 2 43 − 4
S yy = − ∑ Ty = −( + + ) ⇒
12 12 12 12 12
n
S xx + S yy − ∑ d i2
i =1 142 + 137 − 72.5 206.5
rs= = = = 0.7403
2 S xx S yy 2 (142)(137) 278.9552
Obsérvese que la diferencia de los dos valores de r s es muy pequeña y esto es debido a
EJEMPLO # III.8.2
académico que obtuvieron en la universidad con el nivel que han obtenido en cierta
Margarita 3 3 0 0
Odilón 1 1 0 0
Esteban 2 2 0 0
Luisa 5 5 0 0
6(0) 0
años después. Sustituyendo, se tiene r s = 1- i =1
= = 1− =1
n( n − 1
2
5(25 − 1) 120
Este coeficiente de correlación de rango 1 muestra una tendencia perfecta entre las dos
variables. Esto verifica el hecho de que los rangos universitarios y de la compañía para
EJEMPLO # III.8.3
David 1 5 -4 16
José 3 3 0 0
Carlota 2 4 -2 4
Ana 4 2 2 4
Tabla # III.8.5. Compara nivel académico con el nivel profesional 10 años después de
graduados y la diferencia de rangos
Sustituyendo en la ecuación
6∑ d 2 6(40) 240
r s = 1- = 1− = 1− = 1 − 2 = −1 ,
n(n − 1)
2
5(25 − 1) 120
Este valor (-1) representa una correlación inversa perfecta, indicando que la gente que
EJEMPLO # III.8.4
Las siguientes cifras mostradas en la tabla II.8.5 son las horas de estudio de
obtuvieron:
Número de Calificaciones
horas de estudio y
x
8 56
5 44
11 79
13 72
10 70
5 54
18 94
15 85
2 33
8 65
aproximación normal.
SOLUCIÓN
Rango Rango d d2
de x de y
6.5 7 -0.5 0.25
4 3 1.0 1.00
3 4 1.0 1.00
5 5 0.0 0.00
1 1 0.0 0.00
2 2 0.0 0.00
10 10 0.0 0.00
∑d 2
= 3.00
6(3)
r s = 1- = 0.98
10(10 2 − 1)
realidad la prueba de la hipótesis nula de que las x y las y se ajustan al azar, se pueden
basar en tabla # 7 del apéndice B. No obstante la mayoría de las veces nos valemos de
media es
1
E(r s ) = 0 y la varianza Var(r s ) = .
n −1
siguiente manera
84
1. H 0 : no hay correlación
4. Como z = 2.94 es mayor que 2.575, debe rechazarse la hipótesis nula; se concluye
que existe una relación real (positiva) entre el tiempo de estudio y las calificaciones.
saber, como ya se dijo, si existe una diferencia significativa entre una distribución de
EJEMPLO # III.9.1
compañía piensa que el patrón de uso sigue una distribución de Poisson con una media
Hipótesis nula.
Hipótesis alternativa.
λ x .e − λ
Ahora podemos utilizar la fórmula de Poisson, P(x) = , para calcular
x!
D n = sup Fe − F0
Una prueba K-S siempre debe ser una prueba de un extremo. Los valores
1 5 5 0.0013
2 14 19 0.0051
3 24 43 0.0115
4 57 100 0.0266
17 57 3677 0.9795
18 43 3720 0.9909
19 16 3736 0.9952
20 7 3743 0.9971
21 8 3751 0.9992
22 3 3754 1,0000
nula. Obviamente, 0.0266 < 0.2582, así que rechazamos H 0 y llegamos a la conclusión
de que una distribución de Poisson con una media de 8.5 no es una buena descripción
CAPÍTULO IV
ANÁLISIS, CONCLUSIONES Y RECOMENDACIONES
validez de estas suposiciones. Las pruebas paramétricas también requieren que los datos
analizados sean producto de una medición que por lo menos tenga la fuerza de una
escala de intervalo.
son pocas comparadas con las asociadas con las pruebas paramétricas. Además, las no
paramétricas se aplican a datos de una escala ordinal, y algunas a los de una escala
nominal.
ordenar, pero no se pueden medir en una escala numérica, así es el caso de la escala
inferencia que desee usarse en este respecto debe basarse en métodos no paramétricos.
respecto a la forma de las distribuciones de población. ¿Cuán útiles son los métodos no
cabo el trabajo con rapidez y a menudo facilitan la toma inmediata de una decisión en el
forma sustancial de los supuestos fundamentales que sustentan las pruebas paramétricas,
condiciones, pero con frecuencia esto da como resultado que la respuesta transformada
ya no sea útil, desde el punto de vista práctico, y que el análisis de los datos
paramétricos son casi tan eficaces como sus equivalentes paramétricos cuando los
señaló, los métodos no paramétricos podrían ser más eficaces cuando los supuestos no
usual para analizar datos provenientes de dos muestras de este tipo es aplicar una prueba
t a la diferencia de las observaciones. Esta diferencia puede obtenerse de los dos valores
de los miembros de cada pareja igualada o de los dos valores de cada sujeto bajo las dos
encontrar que a) los supuestos y requerimientos de la prueba t son poco realistas para
sus datos; b) prefiere evitar hacer los supuestos o probar los requerimientos para dar
mayor generalidad a sus conclusiones; c) las diferencias entre las parejas igualadas están
representadas de tal forma que se puede decir qué miembro de cualquier pareja es
mayor que el otro, pero no se puede decir en cuánto), o d) sus valores son simplemente
clasificatorios: los miembros de cada pareja igualada pueden responder del mismo
En estos casos, el investigador pude escoger una prueba estadística no paramétrica para
dos muestras comparadas. Además de que son adecuadas para los casos mencionados
antes, estas pruebas tienen la ventaja adicional que no requieren una misma población
que cada una de las muestras es tomada de una población normal y cada una de tales
poblaciones tiene la misma varianza, σ 2 . Sin embargo, si los tamaños de muestras son
normalidad. Esta prueba H requiere por lo menos una medición ordinal de la variable.
pequeñas las categorías adyacentes deben combinarse antes de que χ 2 pueda calcularse
hechos sugieren que la prueba de Kolmogorov-Smirnov puede en todos los casos ser
La correlación de rangos es útil, entre otros casos, cuando los datos están
coeficiente de correlación puede que no sea una buena descripción de la asociación que
existe entre dos variables. Sin embargo, las observaciones extremas en una prueba de
métodos no paramétricos.
métodos paramétricos:
1. A menudo se les llama de “distribución libre” pues uno de sus principales méritos es
que no suponen que los datos que se están analizando se hayan sacado de una población
normalmente.
ejemplo para calcular una desviación estándar. Una prueba no paramétrica nos puede
93
pedir reemplazar valores numéricos con el orden en el que esos valores aparecen en una
esfuerzo que trabajar con 13.33, 76.50, 101.79, 113.45 y 189.42. Muchos creen que la
menudo, lo único que podemos hacer es describir un resultado como “mejor” que otro.
Cuando éste es el caso, o cuando nuestras mediciones no son tan exactas como es
Valor no paramétrico 4 5 2 1 3
pequeñas como por ejemplo n = 6, lo cual es una ventaja para el investigador que recoge
datos de un estudio piloto y para aquel cuyas muestras deben ser pequeñas por su misma
naturaleza (por ejemplo, muestras de personas con una forma rara de enfermedad
mental).
1. Ignoran una cierta cantidad de información. Hemos mostrado como los valores 1, 2,
3, 4 y 5 pueden reemplazar a los números 13.33, 76.5, 101.79, 113.45, y 189.42. Sin
embargo, si representamos “189.42” por “5”, perdemos información que está contenida
en el valor de 189.42. Observe que en nuestro ordenamiento de los valores 13.33, 76.5,
101.79, 113.45 y 189.42, el valor 189.42 puede convertirse en 1.189.42 y seguir siendo
94
el quinto o mayor valor de la lista. Pero si esta lista es un conjunto de datos, podemos
aprender más sabiendo que el valor más alto es 1189.42 ó 189.42 de lo que
paramétrica puede ser el doble de tamaño que la estimación al utilizar una prueba
IV.4 RECOMENDACIONES
Aunque como se ha podido ver, la mayor parte del cálculo que se usa en
estas pruebas es bastante sencillo, y pensando en la gran difusión que tiene hoy día la
computadora, ya que en casi cualquier parte hay una, sería adecuado, como un posterior
estudio del tema tratado, hacer un análisis sobre el tipo de programas disponibles en el
respectiva comparación con los tradicionales programas que usan los métodos
paramétricos. Las pruebas que los tienen disponibles y sus alcances puede motivar a
evaluación de pruebas estadísticas por medio de las funciones de potencia, ya que estas
hipótesis nula para diversos valores del parámetro. Hacer un estudio más profundo
sobre dichas funciones, permitiría evaluar los méritos de un criterio de prueba y hacer
las comparaciones en los diferentes métodos con mayor precisión que como se hizo
aquí.
95
APÉNDICE A
Esbozaremos una demostración del teorema del límite central para el caso
TEOREMA A-1
distribución Y conforme n → ∞.
Y −μ 1 n
Un = n(
σ
) donde Y = ∑ Yi
n i =1
estándar conforme n → ∞.
96
DEMOSTRACIÓN
t2 t3
siguiente manera: mW (t ) = E (e tW ) = 1 + tμ1′ + μ 2′ + μ 3′ + ...
2 3!
Yi − μ
Zi = .
σ
t2 t3
mZi = 1 + + E ( Z i3 ) + ...
2 3!
Además,
n
Y −μ 1
∑Y i − nμ
1 n
Un = n(
σ
)=
n
( i =1
σ
)=
n
∑Z .
i =1
i
Como las variables aleatorias Yi son independientes, se deduce que las variables
n
⎡ t ⎤ t2 t3
mn (t ) = ⎢mZ ( )⎥ = (1 + + 32
k + ...) n
⎣ n ⎦ 2 n 3! n
donde k = E ( Z i3 ).
t2 t3
ln(mn (t )) = n ln(1 + + k + ...)
2n 3!n 3 2
x2 x3 x4
ln( 1 + x) = x − + − + ...
3 3 4
t2 t 3k
Si x = ( + 3 2 + ...)
2n 6n
tenemos
x2 ⎡ t2 t 3k 1 t2 t 3k ⎤
ln(mn ) = n ln(1 + x) = n( x − + ...) = ⎢( + 3 2 + ...) − ( + 3 2 + ...) 2 + ...⎥
2 ⎣ 2n 6n 2 2n 6n ⎦
multiplicamos por n, vemos que el primer término t 2 2 no incluye a n, mientras que los
t2
lím ln(mn (t )) = cuando n → ∞
2
aplicamos el teorema A-1, concluimos que U n posee una función de distribución que
APÉNDICE B
TABLA # 1
Distribución de Probabilidades Binomiales
n s .05 .10 .15 .20 .25 .30 .35 .40 .45 .50
1 0 .9500 .9000 .8500 .8000 .7500 .7000 .6500 .6000 .5500 .5000
1 .0500 .1000 .1500 .2000 .2500 .3000 .3500 .4000 .4500 .5000
2 0 .9025 .8100 .7225 .6400 .5625 .4900 .4225 .3600 .3025 .2500
1 .0950 .1800 .2550 .3200 .3750 .4200 .4550 .4800 .4950 .5000
2 .0025 .0100 .0225 .0400 .0625 .0900 .1225 .1600 .2025 .2500
3 0 .8574 .7290 .6141 .5120 .4219 .3430 .2746 .2160 .1664 .1250
1 .1354 .2430 .3251 .3840 .4219 .4410 .4436 .4320 .4084 .3750
2 .0071 .0270 .0574 .0960 .1406 .1890 .2389 .2880 .3341 .3750
3 .0001 .0010 .0034 .0080 .0156 .0270 .0429 .0640 .0911 .1250
4 0 .8145 .6561 .5220 .4096 .3164 .2401 .1785 .1296 .0915 .0625
1 .1715 .2916 .3685 .4096 .4219 .4116 .3845 .3456 .2995 .2500
2 .0135 .0486 .0975 .1536 .2109 .2646 .3105 .3456 .3675 .3750
3 .0005 .0036 .0115 .0256 .0469 .0756 .1115 .1536 .2005 .2500
4 .0000 .0001 .0005 .0016 .0039 .0081 .0150 .0256 .0410 .0625
5 0 .7738 .5905 .4437 .3277 .2373 .1681 .1160 .0778 .0503 .0312
1 .2036 .3280 .3915 .4096 .3955 .3602 .3124 .2592 .2059 .1562
2 .0214 .0729 .1382 .2048 .2637 .3087 .3364 .3456 .3369 .3125
3 .0011 .0081 .0244 .0512 .0879 .1323 .1811 .2304 .2757 .3125
4 .0000 .0004 .0022 .0064 .0146 .0284 .0488 .0768 .1128 .1562
5 .0000 .0000 .0001 .0003 .0010 .0024 .0053 .0102 .0185 .0312
6 0 .7351 .5314 .3771 .2621 .1780 .1176 .0754 .0467 .0277 .0156
1 .2321 .3543 .3993 .3932 .3560 .3025 .2437 .1866 .1359 .0938
2 .0305 .0984 .1762 .2458 .2966 .3241 .3280 .3110 .2780 .2344
3 .0021 .0146 .0415 .0819 .1318 .1852 .2355 .2765 .3032 .3125
4 .0001 .0012 .0055 .0154 .0330 .0595 .0951 .1382 .1861 .2344
5 .0000 .0001 .0004 .0015 .0044 .0102 .0205 .0369 .0609 .0938
6 .0000 .0000 .0000 .0001 .0002 .0007 .0018 .0041 .0083 .0156
7 0 .6983 .4783 .3206 .2097 .1335 .0824 .0490 .0280 .0152 .0078
1 .2573 .3720 .3960 .3670 .3115 .2471 .1848 .1306 .0872 .0547
2 .0406 .1240 .2097 .2753 .3115 .3177 .2985 .2613 .2140 .1641
3 .0036 .0230 .0617 .1147 .1730 .2269 .2679 .2903 .2918 .2734
4 .0002 .0026 .0109 .0287 .0577 .0972 .1442 .1935 .2388 .2734
5 .0000 .0002 .0012 .0043 .0115 .0250 .0466 .0774 .1172 .1641
6 .0000 .0000 .0001 .0004 .0013 .0036 .0084 .0172 .0320 .0547
7 .0000 .0000 .0000 .0000 .0001 .0002 .0006 .0016 .0037 .0078
8 0 .6634 .4305 .2725 .1678 .1001 .0576 .0319 .0168 .0084 .0039
1 .2793 .3826 .3847 .3355 .2670 .1977 .1373 .0896 .0548 .0312
2 .0515 .1488 .2376 .2936 .3115 .2965 .2587 .2090 .1569 .1094
3 .0054 .0331 .0839 .1468 .2076 .2541 .2786 .2787 .2568 .2188
4 .0004 .0046 .0185 .0459 .0865 .1361 .1875 .2322 .2627 .2734
5 .0000 .0004 .0026 .0092 .0231 .0467 .0808 .1239 .1719 .2188
6 .0000 .0000 .0002 .0011 .0038 .0100 .0217 .0413 .0703 .1094
7 .0000 .0000 .0000 .0001 .0004 .0012 .0033 .0079 .0164 .0312
8 .0000 .0000 .0000 .0000 .0000 .0001 .0002 .0007 .0017 .0039
9 0 .6302 .3874 .2316 .1342 .0751 .0404 .0207 .0101 .0046 .0020
1 .2985 .3874 .3679 .3020 .2253 .1556 .1004 .0605 .0339 .0176
2 .0629 .1722 .2597 .3020 .3003 .2668 .2162 .1612 .1110 .0703
3 .0077 .0446 .1069 .1762 .2336 .2668 .2716 .2508 .2119 .1641
4 .0006 .0074 .0283 .0661 .1168 .1715 .2194 .2508 .2600 .2461
9 5 .0000 .0008 .0050 .0165 .0389 .0735 .1181 .1672 .2128 .2461
99
6 .0000 .0001 .0006 .0028 .0087 .0210 .0424 .0743 .1160 .1641
7 .0000 .0000 .0000 .0003 .0012 .0039 .0098 .0212 .0407 .0703
8 .0000 .0000 .0000 .0000 .0001 .0004 .0013 .0035 .0083 .0176
9 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0008 .0020
10 0 .5987 .3487 .1969 .1074 .0563 .0282 .0135 .0060 .0025 .0010
1 .3151 .3874 .3474 .2684 .1877 .1211 .0725 .0403 .0207 .0098
2 .0746 .1937 .1759 .3020 .2816 .2335 .1757 .1209 .0763 .0439
3 .0105 .0574 .1298 .2013 .2503 .2668 .2522 .2150 .1665 .1172
4 .0010 .0112 .0401 .0881 .1460 .2001 .2377 .2508 .2384 .2051
5 .0001 .0015 .0085 .0264 .0584 .1029 .1536 .2007 .2340 .2461
6 .0000 .0001 .0012 .0055 .0162 .0368 .0689 .1115 .1596 .2051
7 .0000 .0000 .0001 .0008 .0031 .0090 .0212 .0425 .0746 .1172
8 .0000 .0000 .0000 .0001 .0004 .0014 .0043 .0106 .0229 .0439
9 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0016 .0042 .0098
10 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0010
11 0 .5688 .3138 .1673 .0859 .0422 .0198 .0088 .0036 .0014 .0005
1 .3293 .3835 .3248 .2362 .1549 .0932 .0518 .0266 .0125 .0054
2 .0867 .2131 .2866 .2953 .2581 .1998 .1395 .0887 .0513 .0269
3 .0137 .0710 .1517 .2215 .2581 .2568 .2254 .1774 .1259 .0806
4 .0014 .0158 .0536 .1107 .1721 .2201 .2428 .2365 .2060 .1611
5 .0001 .0025 .0132 .0388 .0803 .1321 .1830 .2207 .2360 .2256
6 .0000 .0003 .0023 .0097 .0268 .0566 .0985 .1471 .1931 .2256
7 .0000 .0000 .0003 .0017 .0064 .0173 .0379 .0701 .1128 .1611
8 .0000 .0000 .0000 .0002 .0011 .0037 .0102 .0234 .0462 .0806
9 .0000 .0000 .0000 .0000 .0001 .0005 .0018 .0052 .0126 .0269
10 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0007 .0021 .0054
11 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0005
12 0 .5404 .2824 .1422 .0687 .0317 .0138 .0057 .0022 .0008 .0002
1 .3413 .3766 .3012 .2062 .1267 .0712 .0368 .0174 .0075 .0029
2 .0988 .2301 .2924 .2835 .2323 .1678 .1088 .0639 .0339 .0161
3 .0173 .0852 .1720 .2362 .2581 .2397 .1954 .1419 .0923 .0537
4 .0021 .0213 .0683 .1329 .1936 .2311 .2367 .2128 .1700 .1208
5 .0002 .0038 .0193 .0532 .1032 .1585 .2039 .2270 .2225 .1934
6 .0000 .0005 .0040 .0155 .0401 .0792 .1281 .1766 .2124 .2256
7 .0000 .0000 .0006 .0033 .0115 .0291 .0591 .1009 .1489 .1934
8 .0000 .0000 .0001 .0005 .0024 .0078 .0199 .0420 .0762 .1208
9 .0000 .0000 .0000 .0001 .0004 .0015 .0048 .0125 .0277 .0537
12 10 .0000 .0000 .0000 .0000 .0000 .0002 .0008 .0025 .0068 .0161
11 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0010 .0029
12 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0002
13 0 .5133 .2542 .1209 .0550 .0238 .0097 .0037 .0013 .0004 .0001
1 .3512 .3672 .2774 .1787 .1029 .0540 .0259 .0113 .0045 .0016
2 .1109 .0448 .2937 .2680 .2059 .1388 .0836 .0453 .0220 .0095
3 .0214 .0997 .1900 .2457 .2517 .2181 .1651 .1107 .0660 .0349
4 .0028 .0277 .0838 .1535 .2097 .2337 .2222 .1845 .1350 .0873
5 .0003 .0055 .0266 .0691 .1258 .1803 .2154 .2214 .1989 .1571
6 .0000 .0008 .0063 .0230 .0559 .1030 .1546 .1968 .2169 .2095
7 .0000 .0001 .0011 .0058 .0186 .0442 .0833 .1312 .1775 .2095
8 .0000 .0000 .0001 .0011 .0047 .0142 .0336 .0656 .1089 .1571
9 .0000 .0000 .0000 .0001 .0009 .0034 .0101 .0243 .0495 .0873
13 10 .0000 .0000 .0000 .0000 .0001 .0006 .0022 .0065 .0162 .0349
11 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0012 .0036 .0095
12 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0016
13 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001
14 0 .4877 .2288 .1028 .0440 .0178 .0068 .0024 .0008 .0002 .0001
100
1 .3593 .3559 .2539 .1539 .0832 .0407 .0181 .0073 .0027 .0009
2 .1229 .2570 .2912 .2501 .1802 .1134 .0634 .0317 .0141 .0056
3 .0259 .1142 .2056 .2501 .2402 .1943 .1366 .0845 .0462 .0222
4 .0037 .0349 .0998 .1720 .2202 .2290 .2022 .1549 .1040 .0611
5 .0004 .0078 .0352 .0860 .1468 .1963 .2178 .2066 .1701 .1222
6 .0000 .0013 .0093 .0322 .0734 .1262 .1759 .2066 .2088 .1833
7 .0000 .0002 .0019 .0092 .0280 .0618 .1082 .1574 .1952 .2095
8 .0000 .0000 .0003 .0020 .0082 .0232 .0510 .0918 .1398 .1833
9 .0000 .0000 .0000 .0003 .0018 .0066 .0183 .0408 .0762 .1222
10 .0000 .0000 .0000 .0000 .0003 .0014 .0049 .0136 .0312 .0611
11 .0000 .0000 .0000 .0000 .0000 .0002 .0010 .0033 .0093 .0222
12 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0019 .0056
13 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0002 .0009
14 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001
15 0 .4633 .2059 .0874 .0352 .0134 .0047 .0016 .0005 .0001 .0000
1 .3658 .3432 .2312 .1319 .0668 .0305 .0126 .0047 .0016 .0005
2 .1348 .2669 .2856 .2309 .1559 .0916 .0476 .0219 .0090 .0032
3 .0307 .1285 .2184 .2501 .2252 .1700 .1110 .0634 .0318 .0139
4 .0049 .0428 .1156 .1876 .2252 .2186 .1792 .1268 .0780 .0417
5 .0006 .0105 .0449 .1032 .1651 .2061 .2123 .1859 .1404 .0916
6 .0000 .0019 .0132 .0430 .0917 .1472 .1906 .2066 .1914 .1527
7 .0000 .0003 .0030 .0138 .0393 .0811 .1319 .1771 .2013 .1964
8 .0000 .0000 .0005 .0035 .0131 .0348 .0710 .1181 .1647 .1964
9 .0000 .0000 .0001 .0007 .0034 .0116 .0298 .0612 .1048 .1527
10 .0000 .0000 .0000 .0001 .0007 .0030 .0096 .0245 .0515 .0916
11 .0000 .0000 .0000 .0000 .0001 .0006 .0024 .0074 .0191 .0417
12 .0000 .0000 .0000 .0000 .0000 .0001 .0004 .0016 .0052 .0139
13 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0010 .0032
14 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005
15 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
16 0 .4401 .1853 .0743 .0281 .0100 .0033 .0010 .0003 .0001 .0000
1 .3706 .3294 .2097 .1126 .0535 .0228 .0087 .0030 .0009 .0002
2 .1463 .2745 .2775 .2111 .1336 .0732 .0353 .0150 .0056 .0018
3 .0359 .1423 .2285 .2463 .2079 .1465 .0888 .0468 .0215 .0085
4 .0061 .0514 .1311 .2001 .2252 .2040 .1553 .1014 .0572 .0278
5 .0008 .0137 .0555 .1201 .1802 .2099 .2008 .1623 .1123 .0667
6 .0001 .0028 .0180 .0550 .1101 .1649 .1682 .1983 .1684 .1222
7 .0000 .0004 .0045 .0197 .0524 .1010 .1524 .1889 .1969 .1746
8 .0000 .0001 .0009 .0055 .0197 .0487 .0923 .1417 .1812 .1964
9 .0000 .0000 .0001 .0012 .0058 .0185 .0442 .0840 .1318 .1746
10 .0000 .0000 .0000 .0002 .0014 .0056 .0167 .0392 .0755 .1222
11 .0000 .0000 .0000 .0000 .0002 .0013 .0040 .0142 .0337 .0667
12 .0000 .0000 .0000 .0000 .0000 .0002 .0011 .0040 .0115 .0278
13 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0008 .0029 .0085
14 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0018
15 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0002
16 16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
17 0 .4181 .1668 .0631 .0225 .0075 .0023 .0007 .0002 .0000 .0000
1 .3741 .3150 .1893 .0957 .0426 .0169 .0060 .0019 .0005 .0001
2 .1575 .2800 .2673 .1914 .1136 .0581 .0260 .0102 .0035 .0010
3 .0415 .1556 .2359 .2393 .1893 .1245 .0701 .0341 .0144 .0052
4 .0076 .0605 .1457 .2093 .2209 .1868 .1320 .0796 .0411 .0182
5 .0010 .0175 .0668 .1361 .1914 .2081 .1849 .1379 .0875 .0472
6 .0001 .0039 .0236 .0680 .1276 .1784 .1991 .1839 .1432 .0944
7 .0000 .0007 .0065 .0267 .0668 .1201 .1685 .1927 .1841 .1484
101
8 .0000 .0001 .0014 .0084 .0279 .0644 .1134 .1606 .1883 .1855
9 .0000 .0000 .0003 .0021 .0093 .0276 .0611 .1070 .1540 .1855
10 .0000 .0000 .0000 .0004 .0025 .0095 .0263 .0571 .1008 .1484
11 .0000 .0000 .0000 .0001 .0005 .0026 .0090 .0242 .0525 .0944
12 .0000 .0000 .0000 .0000 .0001 .0006 .0024 .0081 .0215 .0472
13 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0021 .0068 .0182
14 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0004 .0016 .0052
15 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003 .0010
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
18 0 .3972 .1501 .0536 .0180 .0056 .0016 .0004 .0001 .0000 .0000
1 .3763 .3002 .1704 .0811 .0338 .0126 .0042 .0012 .0003 .0001
2 .1683 .2835 .2556 .1723 .0958 .0458 .0190 .0069 .0022 .0006
3 .0473 .1680 .2400 .2297 .1704 .1046 .0547 .0246 .0095 .0031
4 .0093 .0700 .1592 .2153 .2130 .1681 .1104 .0614 .0291 .0117
5 .0014 .0218 .0787 .1507 .1988 .2017 .1664 .1146 .0666 .0327
6 .0002 .0052 .0301 .0816 .1436 .1873 .1941 .1655 .1181 .0708
7 .0000 .0010 .0091 .0350 .0820 .1376 .1792 .1892 .1657 .1214
8 .0000 .0002 .0022 .0120 .0376 .0811 .1327 .1734 .1864 .1669
9 .0000 .0000 .0004 .0033 .0139 .0386 .0794 .1284 .1694 .1855
10 .0000 .0000 .0001 .0008 .0042 .0149 .0385 .0771 .1248 .1669
11 .0000 .0000 .0000 .0001 .0010 .0046 .0151 .0374 .0742 .1214
12 .0000 .0000 .0000 .0000 .0002 .0012 .0047 .0145 .0354 .0708
13 .0000 .0000 .0000 .0000 .0000 .0002 .0012 .0045 .0134 .0327
14 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0011 .0039 .0117
15 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0009 .0031
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0006
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001
18 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
19 0 .3774 .1351 .0456 .0144 .0042 .0011 .0003 .0001 .0000 .0000
1 .3774 .2852 .1529 .0685 .0268 .0093 .0029 .0008 .0002 .0000
2 .1787 .2852 .2428 .1540 .0803 .0358 .0138 .0046 .0013 .0003
3 .0533 .1796 .2428 .2182 .1517 .0869 .0422 .0175 .0062 .0018
4 .0112 .0798 .1714 .2182 .2023 .1491 .0909 .0467 .0203 .0074
5 .0018 .0266 .0907 .1636 .2023 .1916 .1468 .0933 .0497 .0222
6 .0002 .0069 .0374 .0955 .1574 .1916 .1844 .1451 .0949 .0518
7 .0000 .0014 .0122 .0443 .0974 .1525 .1844 .1797 .1443 .0961
8 .0000 .0002 .0032 .0166 .0487 .0981 .1489 .1797 .1771 .1442
9 .0000 .0000 .0007 .0051 .0198 .0514 .0980 .1464 .1771 .1762
10 .0000 .0000 .0001 .0013 .0066 .0220 .0528 .0976 .1449 .1762
11 .0000 .0000 .0000 .0003 .0018 .0077 .0233 .0532 .0970 .1442
12 .0000 .0000 .0000 .0000 .0004 .0022 .0083 .0237 .0529 .0961
19 13 .0000 .0000 .0000 .0000 .0001 .0005 .0024 .0085 .0233 .0518
14 .0000 .0000 .0000 .0000 .0000 .0001 .0006 .0024 .0082 .0222
15 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0022 .0074
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0005 .0018
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0001 .0003
18 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
19 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
20 0 .3585 .1216 .0388 .0115 .0032 .0008 .0002 .0000 .0000 .0000
1 .3774 .2702 .1368 .0576 .0211 .0068 .0020 .0005 .0001 .0000
2 .1887 .2852 .2293 .1369 .0669 .0278 .0100 .0031 .0008 .0002
3 .0596 .1901 .2428 .2054 .1339 .0716 .0323 .0123 .0040 .0011
4 .0133 .0898 .1821 .2182 .1897 .1304 .0738 .0350 .0139 .0046
5 .0022 .0319 .1028 .1746 .2023 .1789 .1272 .0746 .0365 .0148
102
6 .0003 .0089 .0454 .1091 .1686 .1916 .1712 .1244 .0746 .0370
7 .0000 .0020 .0160 .0545 .1124 .1643 .1844 .1659 .1221 .0739
8 .0000 .0004 .0046 .0222 .0609 .1144 .1614 .1797 .1623 .1201
9 .0000 .0001 .0011 .0074 .0271 .0654 .1158 .1597 .1771 .1602
10 .0000 .0000 .0002 .0002 .0099 .0308 .0686 .1171 .1593 .1762
11 .0000 .0000 .0000 .0005 .0030 .0120 .0336 .0710 .1185 .1602
12 .0000 .0000 .0000 .0001 .0008 .0039 .0136 .0355 .0727 .1201
13 .0000 .0000 .0000 .0000 .0002 .0010 .0045 .0146 .0366 .0739
14 .0000 .0000 .0000 .0000 .0000 .0002 .0012 .0049 .0150 .0370
15 .0000 .0000 .0000 .0000 .0000 .0000 .0003 .0013 .0049 .0148
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0003 .0013 .0046
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0011
18 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002
19 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
20 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
Basada en tables of the Binomial Probabilitiy Distribution, National Bureau of
Standards Applied Mathematics Serie nº 6 Washington, D.C.:US. Goberment printing
Office,1950.
103
TABLA # 2
Distribución normal estándar
z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0753
0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879
0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224
0.6 .2257 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2517 .2549
0.7 .2580 .2611 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852
0.8 .2881 .2910 .2939 .2967 .2995 .3023 .3051 .3078 .3106 .3133
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621
1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830
1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015
1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177
1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319
1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441
1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545
1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633
1.8 .4641 .4649 .4656 .4664 .4671 .4678 .4686 .4693 .4699 .4706
1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767
2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817
2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857
2.2 .4861 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890
2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916
2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936
2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952
2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964
2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974
2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981
2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
Asimismo, para z = 4.0, 5.0 y 6.0, las probabilidades son 0.49997, 0.4999997 y
0.499999999.
Tomada de Robert D. Mason, Essentials of Statistics. 1976, pág.307.
104
TABLA # 3
Valores críticos de T
TABLA # 4
Prueba U de Mann-Whitney
Valores críticos de U
Valores de U .10
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15
n1 1
2 0 0 0 1 1 1 1 2 2 3 3
3 0 0 1 2 2 3 4 4 5 5 6 7 7
4 0 1 2 3 4 5 6 7 8 9 10 11 12
5 0 1 2 4 5 6 8 9 11 12 13 15 16 18
6 0 2 3 5 7 8 10 12 14 16 17 19 21 23
7 0 2 4 6 8 11 13 15 17 19 21 24 26 28
8 1 3 5 8 10 13 15 18 20 23 26 28 31 33
9 1 4 6 9 12 15 18 21 24 27 30 33 36 39
10 1 4 7 11 14 17 20 24 27 31 34 37 41 44
11 1 5 8 12 16 19 23 27 31 34 38 42 46 50
12 2 5 9 13 17 21 26 3 34 38 42 47 51 55
13 2 6 10 15 19 24 28 33 37 42 47 51 56 61
14 3 7 11 16 21 26 31 36 41 46 51 56 61 66
15 3 7 12 18 23 28 33 39 44 50 55 61 66 72
Valores de U .05
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15
n1 1
2 0 0 0 0 1 1 1 1
3 0 1 1 2 2 3 3 4 4 5 5
4 0 1 2 3 4 4 5 6 7 8 9 10
5 0 1 2 3 5 6 7 8 9 11 12 13 14
6 1 2 3 5 6 8 10 11 13 14 16 17 19
7 1 3 5 6 8 10 12 14 16 18 20 22 24
8 0 2 4 6 8 10 13 15 17 19 22 24 26 29
9 0 2 4 7 10 12 15 17 20 23 26 28 31 34
10 0 3 5 8 11 14 17 20 23 26 29 30 36 39
11 0 3 6 9 13 16 19 23 26 30 33 37 40 44
12 1 4 7 11 14 18 22 26 29 33 27 41 45 49
13 1 4 8 12 16 20 24 28 30 37 41 45 50 54
14 1 5 9 13 17 22 26 31 36 40 45 50 55 59
15 1 5 10 14 19 24 29 34 39 44 49 54 59 64
Tomada de D.B. Owen, Handbook of Statistical Tables, 1962, U.S. Department of
Energy.
106
Continuación
Valores de U .02
n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15
n1
2 0 0 0
3 0 0 1 1 1 2 2 2 3
4 0 1 1 2 3 3 4 5 5 6 7
5 0 1 2 3 4 5 6 7 8 9 10 11
6 1 2 3 4 6 7 8 9 11 12 13 15
7 0 1 3 4 6 7 9 11 12 14 16 17 18
8 0 2 4 6 7 9 11 13 15 17 20 22 24
9 1 3 5 7 9 11 14 16 18 21 23 26 28
10 1 3 6 8 11 13 16 19 22 24 27 30 33
11 1 4 7 9 12 15 18 22 25 28 31 34 37
12 2 5 8 11 14 17 21 24 28 31 35 38 42
13 0 2 5 9 12 16 20 23 27 31 35 39 43 47
14 0 2 6 10 13 17 22 26 30 34 38 43 47 51
15 0 3 7 11 15 19 24 28 33 37 42 47 51 56
Valores de U .01
n2 3 4 5 6 7 8 9 10 11 12 13 14 15
n1
3 0 0 0 1 1 1 2
4 0 0 1 1 2 2 3 3 4 5
5 0 1 1 2 3 4 5 6 7 7 8
6 0 1 2 3 4 5 6 7 9 10 11 12
7 0 1 3 4 6 7 9 10 12 13 15 16
8 1 2 4 6 7 9 11 13 15 17 18 20
9 0 1 3 5 7 9 11 13 16 18 20 22 24
10 0 2 4 6 9 11 13 16 18 21 24 26 29
11 0 2 5 7 10 13 16 18 21 24 27 30 33
12 1 3 6 9 12 15 18 21 24 27 31 34 37
13 1 3 7 10 13 17 20 24 27 31 34 38 42
14 1 4 7 11 15 18 22 26 30 34 38 42 46
15 2 5 8 12 16 20 24 29 33 37 42 46 51
107
TABLA # 5
Valores de χ α2 ,υ
TABLA # 6
Rachas o corridas
Valores críticos de R
Valores de r’ .025
n1 n2 2 3 4 5 6 7 8 9 10 11 12 13 14 15
2 2 2 2 2
3 2 2 2 2 2 2 2 2 2 3
4 2 2 2 3 3 3 3 3 3 3 3
5 2 2 3 3 3 3 3 4 4 4 4 4
6 2 2 3 3 3 3 4 4 4 4 5 5 5
7 2 2 3 3 3 4 4 5 5 5 5 5 6
8 2 3 3 3 4 4 5 5 5 6 6 6 6
9 2 3 3 4 4 5 5 5 6 6 6 7 7
10 2 3 3 4 5 5 5 6 6 7 7 7 7
11 2 3 4 4 5 5 6 6 7 7 7 8 8
12 2 2 3 4 4 5 6 6 7 7 7 8 8 8
13 2 2 3 4 5 5 6 6 7 7 8 8 9 9
14 2 2 3 4 5 5 6 7 7 8 8 9 9 9
15 2 3 3 4 5 6 6 7 7 8 8 9 9 10
Valores de r .025
n1 n2 4 5 6 7 8 9 10 11 12 13 14 15
4 9 9
5 9 10 10 11 11
6 9 10 11 12 12 13 13 13 13
7 11 12 13 13 14 14 14 14 15 15 15
8 11 12 13 14 14 15 15 16 16 16 16
9 13 14 14 15 16 16 16 17 17 18
10 13 14 15 16 16 17 17 18 18 18
11 13 14 15 16 17 17 18 19 19 19
12 13 14 16 16 17 18 19 19 20 20
13 15 16 17 18 19 19 20 20 21
14 15 16 17 18 19 20 20 21 22
15 15 16 18 18 19 20 21 22 22
Continuación
Valores de r .005
n1 n 2 5 6 7 8 9 10 11 12 13 14 15
5 11
6 11 12 13 13
7 13 13 14 15 15 15
8 13 14 15 15 16 16 17 17 17
9 15 15 16 17 17 18 18 18 19
10 15 16 17 17 18 19 19 19 20
11 15 16 17 18 19 19 20 20 21
12 17 18 19 19 20 21 21 22
13 17 18 19 20 21 21 22 22
14 17 18 19 20 21 22 23 23
15 19 20 21 22 22 23 24
110
TABLA # 7
Valores críticos del coeficiente de correlación de rangos de Spearman
TABLA # 8
Valores críticos de D para la prueba de bondad de ajuste de Kolmogorov-Smirnov.
Nota: Los valores de D dados en la tabla son valores críticos asociados con valores
elegidos de n. Cualquier valor de D mayor o igual al valor de la tabla es significativo en
el nivel de significancia indicado.
Tomada de F. J. Massey, Jr., “The Kolmogorov-Smirnov test for goodness of it”, J. Am.
Stat. Assoc. 46:68-78, 1951.
112
REFERENCIA BIBLIOGRÁFICA.
Conover, W.J.(1999) “Practical Nonparametric Statistic”, 3ra ed, John Wiley, New
York.
Siegel, S.(1988) “Nonparametric Statistics for the Behavioral Sciences”. New York.
McGraw-Hill.
Friedman, M.(1937). “The use of ranks to avoid the assumption of normality implicit in
the analysis of variance”, Journal of the American Statistical Association, num.32,
pp.675-05.
Wald, A. y J. Wolfowitz, “On a Test Whether Two Samples Are from the Same
Population”, Annals of Mathematical Statistics, núm.2, 1940, pp. 147-62.