Professional Documents
Culture Documents
Tesis Memoria:
Inferencia Estadística
TESIS
que presenta:
Que por su valioso y decidido apoyo han logrado que siga avanzando paso a paso
por los senderos de la vida hasta lograr la victoria, siempre la victoria.
2
INSTITUTO NACIONAL DE ESTADÍSTICA,
GEOGRAFÍA E INFORMÁTICA
INFERENCIA ESTADÍSTICA
ESTE MATERIAL FORMA PARTE DEL ACERVO DE LA DIRECCIÓN DE PLANEACIÓN Y CAPACITACION DEL INSTITUTO
NACIONAL DE ESTADISTICA, GEOGRAFIA E INFORMATICA. ES UTILIZADO EN LOS CURSOS DE ESTADISTICA
INFERENCIAL Y BIOESTADISTICA QUE SE IMPARTEN EN ESTE INSTITUTO.
3
INDICE
PAG.
PRESENTACIÓN 3
OBJETIVOS DEL CURSO 3
INTRODUCCIÓN 4
ESTIMACIÓN 7
PROPIEDADES DE LOS ESTIMADORES PUNTUALES 9
ESTIMADORES INSESGADOS
EFICIENCIA RELATIVA DE UN ESTIMADOR 11
CONSISTENCIA DE UN ESTIMADOR 12
ESTIMADORES SUFICIENTES 13
BONDAD DE UN ESTIMADOR PUNTUAL 15
INTERVALOS DE CONFIANZA 20
INTERVALOS DE CONFIANZA CON MUESTRAS GRANDES 24
INTERVALOS DE CONFIANZA CON MUESTRAS PEQUEÑAS PARA:
µ 30
µ1 − µ 2 34
INTERVALOS DE CONFIANZA PARA σ 2 38
PRUEBAS DE HIPÓTESIS 45
CÁLCULO DE LAS PROBABILIDADES DEL ERROR TIPO II 58
PRUEBA PARA µ CON MUESTRAS PEQUEÑAS 65
TABLAS DE CONTINGENCIA 82
REGRESIÓN Y CORRELACIÓN 92
REGRESIÓN LINEAL SIMPLE 92
COEFICIENTE DE CORRELACIÓN 97
APÉNDICE 105
BIBLIOGRAFÍA 131
4
PRESENTACIÓN:
Desde hace muchos años, podríamos decir que desde que se fundó el Instituto
Nacional de Estadística, Geografía e Informática, y más aún, desde su antecesor,
Dirección General de Estadística, se percibió la necesidad de formar cuadros
nuevos que con el correr de los años ocuparían puestos claves dentro del Instituto,
técnicos y directivos.
Estos apuntes pretenden ser una guía para los profesores que imparten esta
asignatura y lectura obligada para todos los trabajadores del Instituto Nacional de
Estadística, Geografía e Informática, que por sus cargas de trabajo no les es
posible asistir a un aula a tomar clases y mucho menos en un horario fijo, pero que
desean profundizar en el estudio de las herramientas estadísticas necesarias para
estimar el comportamiento de fenómenos poblacionales a partir del estudio de una
muestra. Así también, para aquellas personas que estén interesadas en
incursionar en cursos más avanzados y cuyos conocimientos de Inferencia
Estadística no son los más afortunados.
5
INTRODUCCIÓN
Las técnicas estadísticas se utilizan en casi todos los aspectos de la vida, algunas
veces de forma inconciente pero guiados por nuestra experiencia. Así por ejemplo,
los médicos investigadores, realizan experimentos para determinar el efecto de
ciertos medicamentos. Se diseñan encuestas para medir el nivel de drogadicción
de la sociedad, grado de marginación y pobreza, concentración del ingreso en los
habitantes de nuestro país, estados y municipios, etc. Las técnicas estadísticas
desempeñan una función importante en el logro del objetivo de cada uno de estos
problemas prácticos. Estos apuntes consideran la teoría en la cual se fundamenta
esta metodología.
6
de la medicina, se utiliza el término Bioestadística para diferenciar a esta
aplicación particular. En forma similar tenemos la Optometría, Econometría, etc.
Una medida descriptiva calculada a partir de los datos de una muestra se conoce
como estadístico.
Una medida descriptiva calculada a partir de los datos de una población se conoce
como parámetro.
La inferencia estadística toma como base las relaciones que existen entre una
población y sus muestras, para inferir acerca de la población.
7
correspondientes a 400 y 450 o F . El objetivo del experimento sería comparar la
densidad “y” de los pasteles para las tres poblaciones. O podríamos querer
estudiar el efecto de hornear a diferentes temperaturas sobre la densidad de los
pasteles ajustando un modelo lineal o curvilíneo a los datos.
8
ESTIMACIÓN
Los temas que aquí se tratan, permitirán al lector resolver una gran variedad de
problemas de decisión que se presentan en la investigación científica, la
tecnología, los negocios y aún en la vida diaria.
Con objeto de motivar al lector hacia el estudio de estos temas y darle una idea
sobre lo que trata la inferencia estadística, se comenzará con un ejemplo.
Ejemplo:
p = p$ ± un pequeño error
Siendo las preguntas claves: "¿qué tan pequeño es el error? y "¿con qué
seguridad tenemos el resultado?". Lo esencial de la inferencia estadística está
aquí.
9
La estimación tiene muchas aplicaciones prácticas. Por ejemplo, podríamos
desear estimar la cantidad promedio de mercurio µ , que se puede extraer
mediante un proceso particular de una onza de mineral que se extrajo en una
localidad en particular. Podríamos presentar la estimación de dos maneras
diferentes: Se podría dar un solo número, por ejemplo, 0.06 onzas. La intención
es que este número esté cerca de µ , la media desconocida de la población. Este
tipo de estimación se denomina estimación puntual, ya que se da un solo valor, o
punto, como la estimación para µ . Por otra parte, se podría decir que µ se
encuentra entre dos números, por ejemplo entre 0.04 y 0.09 onzas. En este último
tipo de estimación damos dos valores que se pueden utilizar para construir un
intervalo (0.04, 0.09), que se supone incluirá a el parámetro de estudio. Este
segundo tipo de estimación, en donde especificamos un intervalo de valores
posibles de µ , se denomina estimación por intervalo.
1 n
y= ∑y
n i =1 i
10
representa una sola regla humana subjetiva para obtener una sola estimación.
Esto nos lleva a un aspecto sumamente importante: algunos estimadores se
consideran buenos, otros no. ¿Cómo definiría la gerencia de una empresa
constructora "bueno" y "malo" en relación con la estimación del costo de un
trabajo? y ¿cómo establecería un criterio de bondad para comparar un estimador
con otro?
Suponga que una persona dispara un solo tiro al blanco y que el tiro da en el
centro. ¿Podríamos concluir que es un excelente tirador? ¿Querría usted sostener
el blanco mientras se dispara el segundo tiro? Evidentemente, no decidiríamos
que el hombre es un tirador experto basados en tan escasa evidencia.
11
Fig. 1 Una distribución de estimaciones
$
DEF.- Sea θ un estimador puntual del parámetro θ . θ$ es un estimador
()
insesgado si Ε θ$ = θ . De lo contrario, se dice que es sesgado.
$
DEF.- Sea θ un estimador puntual sesgado del parámetro θ , definimos el sesgo
$
B del estimador θ por Β = Ε θ$ − θ ()
Sin embargo, además de lo insesgado que se le “exige” a un estimador, se espera
que la dispersión de la distribución de las estimaciones sea lo más pequeña
12
Por lo tanto, podemos utilizar el sesgo y la varianza para describir la bondad de un
estimador.
(θ$ − θ )
2
DEF.- La media del cuadrado del error de un estimador puntual θ$ se define como
( ) ()
2
el valor esperado de θ$ − θ y se denota por MCE θ$ , es decir:
() ( )
2
MCE θ$ = E θ$ − θ
() ()
MCE θ$ = Var θ$ + B2
( ) ( ) ( )
Var θ$ 2 > Var θ$ 1 . Realmente se utiliza la razón Var θ$ 2 / Var θ$ 1 ( ) para definir la
eficiencia relativa de dos estimadores insesgados.
( ) ( )
varianzas V θ$ 1 y V θ$ 2 , respectivamente, entonces la eficiencia relativa de
θ$ con respecto a θ$ se define como la razón
1 2
Eficiencia =
( )
V θ$ 2
V (θ$ )
1
13
Si
Eficiencia =
( ) >1
V θ$ 2
entonces θ$ 1 es mejor estimador insesgado que θ$ 2 .
V (θ$ )
1
[ ( )]
magnitud de variabilidad asociada con θ$ 2 V θ$ 2 es 1.8 veces la magnitud de
asociada con θ$ 2 es solamente 0.73 veces la variabilidad asociada con θ$1 . En este
caso se optaría por utilizar θ$ .
2
CONSISTENCIA DE UN ESTIMADOR
Como y n es una variable aleatoria, puede expresarse esta “cercanía” con respecto a
p en términos probabilísticos. En particular, considérese la probabilidad de que la
y
distancia entre el estimador y el parámetro-objetivo: − p es menor que un número
n
real positivo ε arbitrario.
Es decir:
y
pr − p ≤ ε
n
14
DEF. El estimador θ$ n es un estimador consistente de θ si para cualquier número
positivo ε .
(
lim pr θˆn − θ ≤ ε = 1
n→∞
)
o equivalentemente
(
lim pr θˆn − θ > ε = 0
n→∞
)
TEOREMA.- Decimos que un estimador insesgado θ$ n de θ es un estimador
consistente para θ si
( )
lim V θ$ n = 0
n →∞
Sea y1 ,..., yn una muestra aleatoria de una distribución con media µ y varianza
σ 2 < ∞ . Entonces y es un estimador consistente de µ . A esta última afirmación se
le conoce como ley de los grandes números.
a) θ$ n + θ$ n ’ converge en probabilidad a θ + θ ’
b) θ$ n θ$ n ’ converge en probabilidad a θ θ ’
θ$
c) n $ converge en probabilidad a θ θ ' siempre que θ ' ≠ 0 .
θ n'
ESTIMADORES SUFICIENTES
15
DEF.- Sea y1 , y2 ,..., yn una muestra aleatoria de una distribución de probabilidad
con un parámetro desconocido θ . Se dice que el estadístico
U = g( y 1 , y 2 ,..., y n ) es suficiente para θ , si la distribución condicional de
y1 ,..., yn dado U no depende de θ .
+
n1 n2
p1 − p2 n1 y n2 p$1 − p$ 2 p1 − p2
p1 q1 p2 q2
+
n1 n2
* σ 12 y σ 22 son las varianzas de las poblaciones 1 y 2, respectivamente.
Sean (
Y1 = ( y 1 , y 2 ,..., y n ) y Y2 = y 11 , y 2 1 ,..., y n 1 ) dos muestras aleatorias
independientes, entonces es fácil ver que:
E( Y1 − Y2 ) = E( Y1 ) − E( Y2 ) = µ 1 − µ 2
σ 12 σ 2 2
V( Y1 − Y2 ) = V( Y1 ) + V( Y2 ) = +
n1 n2
16
aproxime a 30 o más. Sin embargo a veces se requiere seleccionar muestras
mayores de las poblaciones binomiales porque el tamaño de muestra requerido
depende de p. La distribución de probabilidad binomial es perfectamente simétrica
con respecto a su media cuando p=1/2 y se hace cada vez más asimétrica cuando
p tiende a cero o a uno.
Veamos ahora como utilizar los estimadores puntuales para resolver cuestiones
prácticas. Si utilizamos un estimador una vez y obtenemos una sola estimación,
¿qué tan buena será esta estimación? ¿cuánta confianza podremos tener en la
validez de nuestra inferencia?
17
Si se eligen dos puntos, ( θ − b) y ( θ + b) , localizados cerca de las colas de la
distribución de probabilidad, la probabilidad de que el error de estimación ε sea
menor que b es el área sombreada en la figura anterior, es decir,
( )
Pr θˆ − θ < b = Pr[− b < θˆ − θ < b]
= Pr[θ − b < θˆ < θ + b]
Podemos considerar a b como una cota del error de estimación. Así, no hay
certeza absoluta de que un error dado sea menor que b, pero es posible saber que
la probabilidad de tal evento es alta. Si se puede considerar a b muy pequeño,
desde un punto de vista práctico, entonces Pr (ε < b ) proporciona una medida de la
bondad de una sola estimación. Esta probabilidad indica la fracción de las veces
que el estimador θ$ toma un valor que se aleja a lo más en b unidades de θ , en
un muestreo repetitivo. Es fácil encontrar el valor de b para un problema dado de
estimación si se conoce la distribución de probabilidad de θ$ . Supongamos que se
desea que ε sea menor que b con una probabilidad de 0.90. Entonces buscamos
el valor de b tal que
θ +b
∫θ f (θˆ)dθˆ
−b
= 0.90
18
Probabilidad de que ( µ − 2σ ) <Y < ( µ + 2σ ) .
Distribución Probabilidad
normal 0.9544
uniforme 1.0000
exponencial 0.9502
y 560
p$ =
= = 0.56
n 1000
Además, como la muestra es grande, con toda seguridad su distribución
de probabilidad es normal. Por lo tanto, cuando b = 2σ p$ , la probabilidad de
que el error de estimación ε sea menor que b es aproximadamente 0.95.
pq
Var ( p$ ) =
n
entonces
pq
σ p$ =
n
y
pq
b = 2σ p$ = 2
n
por lo tanto
(0.56)(0.44)
b=2 = 0.03
1000
19
EJERCICIOS
1.- Los geólogos están interesados en los cambios y los movimientos de la
superficie de la tierra que se manifiestan por rupturas (fracturas) en la
corteza de la tierra. Una de las rupturas más conocidas es la falla de San
Andrés (una fractura en movimiento) en California. Un geólogo que
pretendía estudiar el movimiento de los cambios relativos en la corteza de
la tierra en un sitio particular encontró muchas fracturas en la estructura
rocosa local. En un intento por determinar el ángulo medio de las
fracturas, eligió n=50 fracturas y encontró que la media muestral y la
desviación estándar eran 39.80º y 17,2º, respectivamente. Estimar la
media de la dirección angular de las fracturas y establecer un límite para el
error de estimación.
Carolinas Rocallosas
Tamaño de la muestra 467 191
Edad promedio 45.1 46.4
Desviación estándar 10.2 9.8
de la edad
Concentración promedio 11.3 40.1
de calcio (ppm)
Desviación estándar 16.6 28.4
para el calcio
Proporción de 0.78 0.61
Fumadores
20
c) Estimar y establecer un límite de dos desviaciones estándar para la
diferencia en las proporciones de los pacientes con cálculos renales en las
Carolinas y en las Rocallosas que eran fumadores al momento del estudio.
21
INTERVALOS DE CONFIANZA
Como vimos anteriormente, un estimador por intervalo es una regla que especifica
el método que utiliza las mediciones de la muestra para calcular dos números que
forman los extremos del intervalo. En el caso ideal sería conveniente que el
intervalo tuviera dos propiedades. Primero, que el intervalo contenga al parámetro-
objetivo θ . Segundo, que el intervalo sea relativamente estrecho. Uno o ambos
extremos del intervalo variarán de manera aleatoria de una muestra a otra, porque
son funciones de las mediciones de la muestra. Así, la longitud y la localización del
intervalo son cantidades aleatorias, y no podemos estar seguros de que el
parámetro objetivo (fijo) θ se localice realmente entre los extremos de cualquier
intervalo calculado a partir de una sola muestra. Dada esta situación, el objetivo es
encontrar un estimador por intervalo que genere intervalos angostos que
contengan a θ con una alta probabilidad.
Pr (θˆi < θ ) = 1 − α .
22
Pr (θ < θˆs ) = 1 − α .
(
En cuyo caso, el intervalo de confianza correspondiente es −∞ , θ$ s . )
Un método muy útil para obtener los intervalos de confianza se denomina método
del pivote. Este método depende de la determinación de una expresión pivote
que posee dos características:
Pr (a ≤ Y ≤ b ) = 0.7
entonces
Pr (ac ≤ Yc ≤ bc ) = 0.7
Pr (a + d ≤ Y + d ≤ b + d ) = 0.7 .
Es decir, la probabilidad del evento ( a < Y < b ) no se altera por ningún cambio de
escala o traslación de Y. Por lo tanto, si conocemos la distribución de probabilidad
de una cantidad pivote, es posible aplicar las operaciones descritas anteriormente
para obtener el estimador por intervalo deseado. Explicaremos este método en los
siguientes ejemplos:
23
Solución.-
( θ1 )e −
y
θ
para y ≥ 0
f ( y) =
0 en cualquier otro punto
Y
Por lo tanto U = tiene la función de densidad exponencial dada por
θ
e − u para u > 0
f u ( u) =
0 en cualquier otro punto
Pr (a ≤ U ≤ b ) = 0.90 .
Por lo tanto:
a
Pr (U ≤ a ) = ∫ e −u du = 0.05
o
∞
Pr (U > b ) = ∫ e −u du = 0.05
b
entonces:
1 − e − a = 0.05 y e − b = 0.05
de donde:
a= 0.051
b= 2.996
24
f(u)
Por lo tanto
y
= Pr 0.051 ≤ ≤ 2.996
θ
0.051 1 2.996
0.90 = Pr ≤ ≤
y θ y
y y
= Pr ≥θ ≥
0.051 2.996
y y
= Pr ≤θ ≤
2.996 0.051
25
por lo tanto
y
θ$ i =
2.996
y
θ$ s =
0.051
Ejemplo 3.- Sea θ$ un estadístico que tiene una distribución normal con valor
esperado θ y varianza σ θ$ 2 . Encuentre un intervalo de confianza para
θ que tenga un coeficiente de confianza de (1 − α ) .
Solución.-
θ$ − θ
La expresión Z=
σ θ$
tiene una distribución normal estándar. Ahora seleccionamos dos valores en los
extremos de esta distribución, Z α y − Z α , tales que
2 2
Pr − Z α < Z < Z α = 1 − α
2 2
26
Sustituyendo Z:
θˆ − θ
Pr − Z α < < Z α = 1 − α
2 σ θˆ 2
Pr − Z α σ θˆ < θˆ − θ < Z α σ θˆ = 1 − α
2 2
Pr − θˆ − Z α σ θˆ < −θ < −θˆ + Z α σ θˆ = 1 − α
2 2
Pr θˆ + Z α σ θˆ > θ > θˆ − Z α σ θˆ = 1 − α
2 2
Pr θˆ − Z α σ θˆ < θ < θˆ + Z α σ θˆ = 1 − α
2 2
Ejemplo 4.- Se registraron los tiempos utilizados por consulta para 64 pacientes
del Hospital General de Nueva Miranda seleccionados al azar. La
media y la varianza de los 64 tiempos por consulta fueron 33 minutos
y 256, respectivamente. Estime el promedio real µ del tiempo
utilizado con cada paciente, con un coeficiente de confianza de
1 − α = 0.90 .
27
Solución.-
θ$ ± Zα σ θ$
2
tendrá la forma
σ S
y ± Zα ≅ y ± Zα
2 n 2 n
Z α = Z 0.05 = 1.645
2
por lo tanto
S 16
y − Zα = 33 − 1645
. = 29.71
2 n 8
S 16
y + Zα = 33 + 1645
. = 36.29
2 n 8
28
Solución.-
El intervalo de confianza
θ$ ± Z α σ θ$
2
tendrá la forma
p1q1 p 2 q 2
( p$ 1 − p$ 2 ) ± Zα 2 +
n1 n2
Por lo tanto
12
p$ 1 = = 0.24 , q$ 1 = 0.76
50
12
p$ 2 = = 0.20 , q$ 2 = 0.80
60
como 1 − α =.98
entonces α = 0.02
por lo tanto ( de la tabla 4, apéndice I):
Z α = Z 0.01 = 2.33
2
(- 0.1452 , 0.2252)
29
EJERCICIOS
30
proporciones de defectuosos para las dos líneas (¿Existe evidencia
suficiente para sugerir que una línea produce una proporción más alta de
defectuosos que la otra?)
31
INTERVALOS DE CONFIANZA PARA µ . CON MUESTRAS
PEQUEÑAS
El intervalo de confianza que se tratará en esta sección se basa en el supuesto de
que la muestra se ha seleccionado aleatoriamente de una población normal. Es
apropiado para muestras de cualquier tamaño y funciona satisfactoriamente aun
cuando la población no es normal, mientras que la desviación de la normalidad no
sea excesiva. Es decir, rara vez conocemos la forma de la distribución de
frecuencias de la población antes del muestreo. Por lo que, si un intervalo de
confianza debe ser útil, tiene que funcionar bien aun cuando la población no sea
normal. Funcionar “bien” quiere decir que el coeficiente de confianza no debe ser
afectado por desviaciones pequeñas de la normalidad. Este intervalo de confianza
mantendrá un coeficiente de confianza cerca del valor especificado por el
investigador para la mayoría de las distribuciones de probabilidad con forma
acampanada.
TEOREMA 1.-
Sea Y1 , Y2 ,..., Yn una muestra aleatoria de tamaño n de una distribución normal con
media µ y varianza σ 2 . Entonces
n
1
Y=
n
∑Y
i =1
i
TEOREMA 2.-
Sea Y1 , Y2 ,..., Yn una muestra aleatoria de una distribución normal con media µ y
varianza σ 2 . Entonces
(Yi − Y )2 = (n − 12)S
n 2
1
2∑
σ i =1 σ
32
tiene una distribución χ 2 con (n-1) grados de libertad . Y y S2 son también
variables aleatorias independientes.
DEF.- Sea Z una variable aleatoria normal estándar y sea χ 2 una variable
ji − cuadrada con ν grados de libertad. Entonces si Z y χ 2 son
independientes,
Z
T= ≈ tν
χ2
ν
Dado que Y1 , Y2 ,..., Yn es una muestra aleatoria de una población normal con
media µ y varianza σ 2 .
Y−µ n (Y − µ)
Z= =
σ σ
n
χ =
2 (n − 1)S 2
≈ χ n2−1
2
σ
n (Y − µ)
Z σ
T= =
χ 2
( n − 1)s 2
υ σ 2 ( n − 1)
Y − µ Y − µ
T = n = s
s
n
tiene una distribución t con (n-1) grados de libertad. Esta variable T servirá de
expresión pivote para construir un intervalo de confianza para µ . De la tabla 5
apéndice I, podemos encontrar los valores de t α y − t α tales que
2 2
33
Pr (−tα ≤ T ≤ tα ) = 1 − α
2 2
S
Y ± tα
2 n
De donde:
S
Limite inferior de confianza: Y − tα
2 n
S
Límite superior de confianza: Y + tα
2 n
34
Solución.-
S
Y ± tα
2 n
Donde:
Y = 96
S = 35
1 − α = 0.95
α = 0.05
35
96 ± (2.145) =
15
96 ± (2.145)(5.9161) =
96 ± 12.68999
entonces:
35
INTERVALOS DE CONFIANZA PARA µ1 − µ2 CON MUESTRAS
PEQUEÑAS
Supongamos que nos interesa comparar las medias de dos poblaciones normales,
una con media µ 1 y varianza σ 12 y la otra con media µ 2 y varianza σ 2 2 . Un
intervalo de confianza para µ 1 − µ 2 basado en una variable aleatoria T se puede
construir si suponemos que σ 12 = σ 22 = σ 2 .
Z=
(Y1 − Y2 ) − ( µ 1 − µ 2 )
σ 12 σ 22
+
n1 n2
Como: σ 12 = σ 2 2 = σ 2
Z=
(Y − Y ) − (µ
1 2 1 − µ2 )
1 1
σ +
n1 n 2
Sea Y11 , Y12 ,..., Y1n1 la muestra aleatoria de tamaño n1 de la primera población, y sea
Y21 , Y22 ,..., Y2 n 2 una muestra aleatoria independiente de la segunda población.
Entonces:
1 n1
Y1 = ∑ Y1i
n 1 i =1
n2
1
Y2 =
n2
∑Y
i =1
2i
36
n1 n2
∑ (Y1i − Y1 ) + ∑ (Y2 i − Y2 )
2 2
S2 = i =1 i =1
n1 + n 2 − 2
S2 =
( n1 − 1)S12 + ( n 2 − 1)S2 2
n1 + n 2 − 2
n1 n2
∑ (Y − Y1 ) ∑ (Y − Y2 )
2 2
( n1 + n 2 − 2)S 2
= i =1
1i
+ i =1
2i
σ2 σ2 σ2
Por lo tanto:
(n1 + n2 − 2)S 2
σ2
Z
T=
χ2
ν
( Y1 − Y2 ) − (µ 1 − µ 2 ) 1
=
2
1 1 ( n 1 + n 2 − 2)S
σ +
n1 n 2 σ 2 ( n 1 + n 2 − 2)
=
(Y − Y ) − (µ
1 2 1 − µ2 )
1 1
S +
n1 n 2
37
El intervalo de confianza para ( µ 1 − µ 2 ) tiene entonces la forma
1 1
(Y − Y ) ± t
1 2 α
2
S +
n1 n 2
Si σ1 2 ≠ σ 2 2
T′ =
( Y − Y ) − (µ
1 2 1 − µ2 )
S12 S2 2
+
n1 n 2
2
s1 2 s 2 2
+
n1 n 2
gl ' = 2 2
... (1)
s1 2 s2 2
n 1 n 2
+
n1 n2
S12 S2 2
Y1 − Y2 ± t α +
2 n1 n2
38
Ejemplo 7.- Se estudió la actividad total del complemento serológico (C H 50 ) en 20
personas aparentemente sanas y 10 personas enfermas. Se
obtuvieron los siguientes resultados:
Personas n x s
Solución.-
. 2 101
338 .2
(62.5 − 47.2) ± (2.201) +
10 20
15.4 ± (2.201)(10.92)
15.4 ± 24.0
(−8.6 , 39.4)
Cuando el tamaño de la muestra n se vuelve grande, el número de grados de
libertad para la distribución t se puede aproximar muy bien por la distribución
normal estándar. Los intervalos son casi equivalentes cuando los grados de
libertad son mayores que 30.
39
INTERVALO DE CONFIANZA PARA σ 2
1
∑ ( Yi − Y )
2
S2 =
n −1
Con el fin de obtener más información con respecto a σ 2 para calcular intervalos
de confianza para µ y µ1 − µ 2 , es de utilidad construir un intervalo de confianza
para σ 2 . Por ejemplo, si se hiciera un cuidadoso análisis químico de las tabletas
de cierto medicamento, estaríamos interesados en la cantidad media de
ingrediente activo por tableta y la cantidad de variabilidad entre las tabletas
cuantificada por σ 2 . Naturalmente, para un medicamento se desearía tener una
variación pequeña entre tableta y tableta y por lo tanto un valor pequeño de σ 2 .
∑ (Y − Y )
2
i =1
i
=
( n − 1) s 2
σ2 σ2
tiene una distribución χ 2 con (n-1) grados de libertad. Entonces podemos proceder,
por el método del pivote, a encontrar dos números χ 2i y χ s2 tales que
Pr χ i2 ≤
(n − 1)S 2 ≤ χ 2 = 1 − α
s
σ2
40
pero esto generalmente es difícil. Escogemos arbitrariamente los puntos que
limitan áreas iguales en las colas, como se indica en la fig. siguiente.
(n − 1)S 2 (n − 1)S 2 = 1 − α
Pr ≤ σ 2
≤
χs χ i2
2
( n − 1)S 2 ( n − 1)S 2
χ2 , ... ( g)
s χ i2
Donde
χ 2i = χ α2
2
χ =χ2
s
2
1− α 2
( n − 1)s2 ( n − 1)s2
<σ <
χ 2s χ i2
41
EJERCICIOS
1. En un experimento diseñado para estimar el número promedio de latidos
por minuto del corazón para cierta población, en las condiciones del
experimento, se encontró que el número promedio de latidos por minuto
para 49 personas era de 90. Si resulta lógico suponer que esos 49
pacientes constituyen una muestra aleatoria y que la población está
distribuida normalmente, con una desviación estándar de 10, encuentre:
42
terapias, se les calificó en relación con sus logros. La calificación media
para los niños fue de x1 = 67.0 y para las niñas x2 = 615 . . Si es lógico
suponer que las calificaciones para niños semejantes bajo circunstancias
similares muestran una distribución normal con desviaciones estándar de
σ 1 = 11 y σ 2 = 10, encuentre:
43
10. En un estudio diseñado para conocer la relación entre cierto medicamento
y cierta anomalía en los embriones de pollo, se inyectaron con el
medicamento 50 huevos fecundados al cuarto día de incubación. En el
vigésimo día de incubación se examinaron los embriones y se observó la
presencia de la anomalía en 12 de ellos. Encuentre los intervalos de
confianza del 90, 95 y 99 por ciento para p.
1 200 20
2 250 38
14. A nueve pacientes que sufren la misma incapacidad física, pero de otra
manera comparable, se les pidió que llevaran a cabo cierta tarea como
parte de un experimento. El tiempo promedio requerido para realizar la
tarea fue de siete minutos con una desviación estándar de dos minutos.
Suponiendo que existe normalidad, construya los intervalos de
confianza del 90,95 y 99 por ciento para el tiempo medio verdadero
requerido para que este tipo de pacientes efectuara la tarea.
44
estándar de $75. Suponiendo que las cantidades de todas las cuentas
vencidas presentan una distribución normal, encuentre los intervalos de
confianza del 90, 95 y 99 por ciento para µ .
18. Con referencia a los ejercicios 16 y 17, supóngase que las variancias de
las poblaciones son iguales. Construya los intervalos de confianza del 90,
95 y 99 por ciento para la diferencia ente las medias de las dos
poblaciones.
45
21. A dos grupos de niños se les hicieron pruebas de agudeza visual. El grupo
1 estaba formado por 11 niños que recibieron cuidados de salud por parte
de médicos privados. La calificación media para este grupo fue de 26 con
una desviación estándar de 5. El segundo grupo, que incluía 14 niños,
recibieron cuidados de salud por parte del departamento de salud pública,
tuvo una calificación promedio de 21 con una desviación estándar de 6.
Suponiendo poblaciones con distribución normal y con variancias iguales,
encuentre los intervalos de confianza del 90, 95 y 99 por ciento para
µ1 − µ 2 .
46
Recordemos que muchas veces el objetivo de la estadística es hacer inferencias
con respecto a parámetros poblacionales desconocidos, basados en la
información obtenida de datos muéstrales. Estas inferencias se expresan como
estimaciones de los parámetros respectivos o como pruebas de hipótesis
referentes a sus valores.
Una hipótesis se define simplemente como una afirmación acerca de una o más
poblaciones. En general, la hipótesis se refiere a los parámetros de las
poblaciones acerca de las cuales se hace la afirmación. Un médico puede suponer
que cierto medicamento será eficaz en el 90% de los casos en los que se utilice.
Por medio de las pruebas de hipótesis, se determina si tales proposiciones son
compatibles o no con los datos de que se dispone.
47
Los investigadores tratan con dos tipos de hipótesis: las hipótesis de investigación
y las hipótesis estadísticas: la hipótesis de investigación es la conjetura o
suposición que motiva la investigación. Puede ser el resultado de años de
observación por parte del investigador. Los proyectos de investigación suelen
resultar del deseo de profesionales de la salud (entre otros) por determinar si sus
teorías o sospechas pueden ser apoyadas o no cuando se someten a los rigores
de la investigación científica.
1.- Debe comprenderse la naturaleza de los datos, esto es, el tipo de variable,
el tipo de medición, que forma la base de los procedimientos de prueba, ya
que esto determinará la prueba particular que debe utilizarse.
3.- En las pruebas de hipótesis se trabaja con dos hipótesis estadísticas que
deben enunciarse explícitamente. La primera es la hipótesis que debe
probarse, conocida como hipótesis nula, y que se denota por H o . Esta
hipótesis a veces se conoce como hipótesis de no diferencia. En el
proceso de prueba, la hipótesis nula se rechaza, o bien, no se rechaza. Si
la hipótesis nula no se rechaza, se dirá que los datos sobre los cuales se
basa la prueba no proporcionan evidencia suficiente que provoque el
rechazo. Si el procedimiento de prueba conduce al rechazo, se concluirá
que los datos disponibles no son compatibles con la hipótesis nula, pero
son apoyo de alguna otra hipótesis. Esta otra hipótesis se conoce como
hipótesis alternativa y se denota por H a .
X − µo
Z=
σ
n
48
Donde. µ o es un valor supuesto de la media poblacional. Este estadístico
de prueba esta relacionado con:
X −µ
Z=
σ
n
6.- Regla de decisión. Todos los valores posibles que el estadístico de prueba
puede tener son puntos sobre el eje horizontal de la gráfica de la
distribución del estadístico y se dividen en dos grupos; uno constituye lo
que se conoce como región de rechazo y el otro forma la región de no
“aceptación”. Los valores del estadístico que comprenden la región de
rechazo son aquellos que tienen la menor probabilidad de suceder si la
hipótesis nula es verdadera, mientras que los valores que forman la región
de “aceptación” son los que tienen mayor probabilidad de ocurrir si la
hipótesis nula es verdadera. La regla de decisión señala que se rechace la
hipótesis nula si el valor del estadístico de prueba que se calcule a partir
de la muestra es uno de los valores de la región de rechazo, y que no se
rechace (o “acepte”) la hipótesis nula si el valor calculado del estadístico
de prueba es uno de los valores de la región de “aceptación”.
49
Siempre que se rechaza una hipótesis nula se tiene el riesgo de cometer
un error del tipo I . Siempre que se “acepta” una hipótesis nula, existe el
riesgo de que esta sea falsa. Se puede hacer pequeño α , pero en
general no se ejerce control sobre β .
50
Debemos notar que para cualquier región de rechazo fija, se pueden
cometer dos tipos de errores al llegar a una decisión. Podemos decidir a
favor de H a siendo H o verdadera (llamado error tipo I), o podemos decidir
a favor de H o siendo verdadera H a (llamado error tipo II).
51
Ejemplo 8. Un investigador ha preparado el nivel de dosificación de un fármaco
que afirma provocará sueño en por lo menos 80% de las personas
que padecen insomnio. Después de examinar la dosificación, se
considera que su afirmación acerca de la efectividad del fármaco es
exagerada. En un intento por refutar su afirmación se administra la
dosificación prescrita a 20 personas que padecen insomnio, y se
observa Y, el número de personas que se adormecen debido al
fármaco. Se desea probar la hipótesis H o : p = 0.8 frente a la
alternativa H a : p < 0.8 . Suponga que se utiliza la región de rechazo
{y ≤ 12}
a) Encuentre α
b) Encuentre β para p = 0.6
c) encuentre β para p = 0.4
Solución.-
H o : p = 0.8
H a : p < 0.8
a) α = Pr (error tipo I)
= Pr { y ≤ 12 p = 0.8 }
52
20
∑ ( ) (.6) (.4)
y 20− y
β= 20
y = 0.416
y =13
∑ ( ) (.4) (.6)
y 20 − y
β= 20
y
y =13
β = 0.021
H o :θ = θ o
H a :θ > θ o
Estadístico de la prueba: θ$
53
Fig. 12.- Región de rechazo para H o :θ = θ o frente a H a :θ > θ o con
muestras grandes.
k = θ o + Z α σ θ$
es la elección adecuada para k [en donde Z α es el valor tal que Pr( Z > Z α ) = α
cuando Z tiene una distribución normal estándar]. Ya que
θ$ − θ 0
RR = {θ$ θ$ > θ 0 + Z α σ θ$ } = θ$ > Zα
σ θ$
θ$ − θ o
si se utiliza Z = como estadístico de la prueba, la región de rechazo puede
σ θ$
escribirse también como RR = {Z > Z α } . Nótese que Z mide el número de
desviaciones estándar entre θ$ y θ o . Por lo tanto una forma equivalente de la
prueba de hipótesis, con α = Pr(error tipo I), es:
H o :θ = θ o
H a :θ > θ o
54
θ$ − θ o
Estadístico de la prueba: Z =
σ θ$
θ$ − θ o
Z=
σ θ$
55
Fig. 13. Regiones de rechazo para las pruebas:
H o :θ = θ o frente a
a) H a :θ < θ o y
b) H a :θ ≠ θ o
basada en
θ$ − θ o
Z=
σ θ$
56
En resumen, hemos visto las siguientes pruebas de hipótesis para muestras
grandes
Ho : θ = θo
Estadístico de la prueba:
θ$ − θ o
Z=
σ θ$
Hombres Mujeres
n1 = 50 n 2 = 50
y1 = 3.6 segundos y 2 = 38
. segundos
57
Solución:
H o : (µ1 − µ 2 ) = 0 frente a
Ha : (µ1 − µ 2 ) ≠ 0
( Y1 − Y2 ) − D o
Z=
σ 12 σ 22
+
n1 n2
( Y1 − Y2 ) − 0 3.6 − 3.8
Z= = = −2.5
σ 2
σ 2 0.18 0.14
+
1
+ 2
n1 n2 50 50
58
EJERCICIOS
2.- En un hospital psiquiátrico para personas que han sido afectadas por las
drogas y el alcohol, se desea realizar un estudio para comprobar si la
concentración media de ácido úrico en el suero, es diferente a la que se
encuentra en personas normales de la misma edad y sexo. Se toma una
muestra de 12 pacientes obteniéndose X 1 = 4.5 mg/100 ml con σ 2 1 = 1 .
Una muestra de 15 personas normales generó los siguientes resultados
X 2 = 3.4 , σ 2 2 = 1 probar al 5%
H o : µ1 − µ 2 = 0 vs H a : µ1 − µ 2 ≠ 0
Utilizar:
Z=
(X 1 − X 2 ) − (µ 1 − µ 2 )
σ 12 σ 22
+
n1 n 2
59
CÁLCULO DE LAS PROBABILIDADES DEL ERROR TIPO II
El cálculo de β puede ser muy difícil en ciertas pruebas estadísticas. En nuestro
caso podemos utilizar la prueba Z para mostrar tanto el cálculo de β como la
lógica empleada para seleccionar el tamaño de la muestra en una prueba.
RR = {θ$ θ$ > k}
β = Pr (θˆ≤ k cuando θ = θ a )
θˆ−θ a k − θ a
= Pr ≤ cuando θ =θ a
σ θˆ σ θˆ
θ$ − θ a
Si θ a es el valor verdadero de θ , entonces tiene aproximadamente la
σ θ$
distribución normal estándar, y la probabilidad β puede determinarse
(aproximadamente) calculando un área bajo la curva normal estándar.
60
probabilidades que involucran n y k, tenemos dos ecuaciones con dos incógnitas,
que se pueden resolver simultáneamente para n. Por lo tanto
α = Pr (Y > k cuando µ = µ o )
Y − µo k − µo
= Pr > cuando µ= µo
σ σ
n n
= Pr ( Z > Z α )
β = Pr (Y ≤ k cuando µ = µ a )
Y − µa k − µa
= Pr ≤ cuando µ= µa
σ σ
n n
= Pr ( Z ≤ − Z β )
k − µo
Zα =
σ
n
⇒ k = Zα σ + µo ... (1)
n
61
de la ecuación para β tenemos
k − µa
−Zβ =
σ
n
⇒ k = − Zβ σ + µa ... (2)
n
µ o + Zα σ = µa − Zβ σ
n n
[Z α + Z β ] σ
=µ −µ
n a o
( Z α + Z β )σ
⇒ n=
(µ a − µ o )
2
( Z α + Z β ) 2σ
⇒ n=
(µ a − µ o ) 2
fórmula para calcular el tamaño de muestra para una hipótesis alternativa de cola
superior.
COLA INFERIOR
62
α = Pr (Y ≤ k cuando µ= µo )
Y − µo k − µo
= Pr ≤ cuando µ= µo
σ σ
n n
= Pr ( Z ≤− Z α )
β = Pr (Y > k cuando µ= µa )
Y − µa k − µa
= Pr > cuando µ= µa
σ σ
n n
= Pr ( Z > Z β )
k − µo
− Zα = ⇒ k = − Z α σ + µ o
σ n
n
de la ecuación para β :
k − µa
Zβ = ⇒ k = Z β σ + µ a
σ n
n
Por lo tanto:
− Z σ + µ = Z σ + µ
α n o
β n a
[ ]
⇒ σ Z α + Z β = µ o − µ a
n
( Z α + Z β )σ
⇒ n=
(µ o − µ a )
63
2
( Z α + Z β ) 2σ
⇒ n=
(µ o − µ a ) 2
2
(Zα + Z β ) 2σ
⇒ n=
(µ a − µ o ) 2
Ejemplo 10. Se cree que la media del coeficiente de inteligencia de los niños de
Nueva Miranda es 104. Para comprobar tal creencia, se tomó una
muestra aleatoria de 36 estudiantes para medir su coeficiente de
inteligencia. Se obtuvo una media muestral de x = 102 con una
desviación típica S = 8. Pruebe la hipótesis de que la media es
diferente de 104, usando un nivel de significación de 5%.
Solución.-
H o : µ = 104
H a : µ ≠ 104
X −µ X −µ
Z= =
σx σ
n
102 − 104 − 2 − 12
⇒ Z= = = = −1.5
8 8 8
36 6
Z α = Z 0.025 = ± 1.96
2
64
Es decir:
Por lo tanto se tendría que utilizar n = 174 observaciones para garantizar que
α = β = 0.05 para esta prueba.
65
DEF .- Si w es un estadístico de una prueba, el valor p o nivel de significación
alcanzado es el mínimo nivel de significación α , para el cual los datos
observados indican que se tendría que rechazar la hipótesis nula.
Solución.-
Ho : µ1 − µ 2 = 0 contra
Ha : µ1 − µ 2 ≠ 0
66
por lo tanto
p = 2(0.0062) = 0.0124
Sea Y1 ,..., Yn una muestra aleatoria de tamaño n de una distribución normal con
media µ y varianza σ 2 desconocidas. Si Y y S son la media y desviación
estándar muestral, respectivamente, y si
Ho : µ = µ o
entonces:
Y − µo
T=
S
n
67
Como la distribución t es simétrica y con forma monticular, la región de rechazo
para una prueba de muestras pequeñas con la hipótesis H o : µ = µ o se localizará
en los extremos de la distribución t y se determinará exactamente de la misma
manera que con el estadístico Z para muestras grandes. Por analogía con la
prueba Z, la región de rechazo indicada en una alternativa de cola
superior H a : µ > µ o está dada por
RR = {t > t α }
En resumen. Sea Y1 ,..., Yn una muestra aleatoria de una distribución normal con
Ε(Yi ) = µ
Ho : µ = µ o
Estadístico de la prueba:
Y − µo
T=
S
n
t > t ( RR de cola superior ).
α
Ejemplo 12. La Casa Bayer, que fabrica pastillas multivitamínicas, asegura que
cada una contiene en promedio 2.48 mg de vitamina B-12. El
departamento de Salud de Nueva Miranda analizó una muestra
aleatoria de 28 pastillas y encontró un contenido medio de 2.45 mg,
con una desviación típica S = 0.15 mg. A la luz de estos resultados,
¿rechazaría la afirmación de la Casa Bayer? Use un nivel de
significación de 0.05.
68
Solución.-
H o : µ = 2.48 mg
H a : µ < 2.48 mg
2.45 − 2.48
T= = − 1.058
0.15
28
por otro lado, t 0.05 = -1.703 para 27 grados de libertad, como T > t 0.05 siendo de
cola inferior, aceptamos la hipótesis nula, es decir, es cierto que cada pastilla
multivitamínica contiene en promedio 2.48 mg de vitamina B-12.
Pr (T >− 1.058)
69
PROBLEMA.-
Solución:
µ = 32 min.
n = 20
X = 30 min.
S = 2.5 min.
α = 0.01
H o : µ = 32
H a : µ < 32
Estadístico
X − µo
T=
S
n
30 − 32 −2
T= = = −3.5777
2.5 0.559
20
t ( 0.01,19 gl ) = −2.539 siendo de cola inferior y dado que T < t (0.01,19 gl ) rechazamos la
hipótesis nula H o , es decir, disminuye el tiempo con el nuevo ingrediente
p( t > −3.5777)
70
Sean y11 , y12 ,..., y1n1 y y 21 , y 22 ,...., y 2n2 dos muestras aleatorias independientes
de dos poblaciones normales, con medias y varianzas µ i y σ 2 para i = 1 , 2
respectivamente. Además Yi y S2i , i = 1 , 2 son las medias y varianzas
muestrales correspondientes. Como vimos en el capítulo anterior, cuando se
satisfacen estas condiciones
( n1 − 1)S12 + ( n 2 − 1)S22
S2 =
n1 + n 2 − 2
( Y1 − Y2 ) − ( µ 1 − µ 2 )
T=
1 1
S +
n1 n 2
Estadístico de la prueba:
Y1 − Y2 − D o
T= , en donde
1 1
S +
n1 n 2
( n1 − 1)S12 + ( n 2 − 1)S22
S=
n1 + n 2 − 2
71
t > t ( RR de cola superior ).
α
En donde Pr (T > tα ) = α
Ejemplo 13. Se efectuó un estudio por parte de la Comisión de Caza y Pesca del
estado de Florida para estimar las cantidades de residuos químicos
encontrados en los tejidos cerebrales de pelícanos cafés. En una
prueba sobre DDT, muestras aleatorias de n1 = 10 pelícanos jóvenes
y n 2 = 13 polluelos dieron los resultados indicados en la tabla
siguiente (las mediciones están dadas en partes por millón). Pruebe
la hipótesis de que no existe diferencia en las cantidades promedio
de DDT encontradas en pelícanos jóvenes y polluelos, contra la
alternativa de que los pelícanos jóvenes presentan un promedio
mayor.Utilice α = 0.05 . (Esta prueba tiene implicaciones importantes
con respecto a la acumulación de DDT a través del tiempo).
Jóvenes Polluelos
n1 = 10 n 2 = 13
y1 = 0.041 y 2 = 0.026
S1 = 0.017 S2 = 0.006
Solución.-
H o : µ1 − µ 2 = 0
Ha : µ1 − µ 2 > 0
Pr (T > tα ) = 0.05
72
( n1 − 1)S12 + ( n 2 − 1)S22
S =
2
n1 + n 2 − 2
9(0.017)2 + 12(0.006)2
S2 = = 0.00014443
10 + 13 − 2
y1 − y 2 0.041 − 0.026
t= =
1 1 1 1
S + (0.00014443) +
n1 n 2 10 13
t = 2.967
Como t > t 0.05 , se rechaza la hipótesis nula, es decir, los pelícanos jóvenes
presentan un promedio mayor de DDT que los polluelos.
73
PROBLEMA.-
Solución:
H o : µ1 − µ 2 = 0.01
H a : µ1 − µ 2 > 0.01
Estadístico de prueba:
T=
( y1 − y 2 ) − 0.01 = 0.041 − 0.026 − 0.01
1 1 1 1
S + (0.00014443) +
n1 n 2 10 13
= 0.98912
⇒ no se rechaza H o
de hecho:
74
PRUEBAS DE BONDAD DE AJUSTE
Muchos experimentos producen datos enumerativos (o de conteo). Por ejemplo al
estudiar la reacción de un ratón a un estímulo particular en un experimento
psicológico. Si un ratón reaccionara de una de tres formas cuando se le aplica el
estímulo y si se sometiera un gran número de ratones al estímulo, el experimento
produciría tres conteos que indicarían el número de ratones que resulta en cada
tipo de reacción. Asimismo, muchas observaciones en las ciencias físicas no se
pueden medir en una escala continua y por lo tanto producen datos enumerativos
o de clasificación. Dichos ejemplos, tienen con cierta aproximación, las siguientes
características, que definen un experimento multinomial:
p1 + p 2 + p 3 +...+ p k = 1
n1 + n 2 +...+ n k = n
75
[ n − E (n )] [ n − np ]
2 2
k k
X2 = ∑ =∑
i i i i
i =1 E (ni ) i =1 npi
en donde:
n1 + n2 +...+ nk = n
76
Solución
La hipótesis nula H o establece que los datos son consistentes con la teoría
mendeliana
clasificación : 1 2 3 4
ni-observados( ni ) : n1 n2 n3 n4 n
56 19 17 8 100
ASI TAMBIEN :
ji-cuadrada( con α =0.05 y 3 grados de libertad ) = 7.8147
77
Las frecuencias observadas son 80 y 10 para los dos fenotipos.
Tabla 1.-
f − f$ (f − f$ )
2
f$
Tipo Salvaje 80 p$ n = 67.5 12.5 156.25 2.315
Mutante 10 q$ n = 22.5 -12.5 156.25 6.944
Suma 90 90 0 X 2 =9.259
¿Cómo podemos desarrollar un estadístico para probar en qué medida difieren las
frecuencias observadas de la columna (1) de las frecuencias esperadas en la
columna (2)? La siguiente prueba estadística es fácil de comprender y su
estructura tiene un sentido lógico. Primero medimos f − f$ , la desviación de las
frecuencias observadas respecto a las esperadas. Observemos que la suma de
estas desviaciones es igual a cero, por razones muy similares a las que hacen que
78
la suma de las desviaciones de una media sumen cero. Siguiendo nuestro
método previo de elevar al cuadrado todas las desviaciones para hacerlas
positivas, elevamos al cuadrado f − f$ en la columna (4) para dar una medida de la
magnitud de la desviación de lo que se espera. Esta cantidad debe expresarse
como una proporción de la frecuencia esperada. El próximo paso es sumar estos
cocientes, dando un valor de 9.259
H o : 31
:
H a : 8:1
p i obs: 80 10 1
= 0.89 = 0.11
90 90
(n − np ) 156.25 156.25
2
i io
np i o
χ 2(0 . 005 ,1 gl )
= 7.87944
79
Por lo tanto, rechazamos la hipótesis nula 3:1 y concluimos que la proporción de
tipo salvaje es mayor que 0.75. En consecuencia, el genetista debe buscar un
mecanismo que explique esta desviación de lo esperado.
La prueba de bondad de ajuste puede aplicarse a una distribución con más de dos
clases.
Solución.-
Debemos calcular
(f )
2
a − f$ i
∑
2 i
X = K (1)
i =1 f$i
o equivalentemente
a 2
fi
X2 = ∑i =1 f$ i
−n K (2)
80
Si por el momento suponemos que X 2 en este caso también se distribuye
aproximadamente como χ 2 , necesitamos saber cuantos grados de libertad existen
en este ejemplo para poder compararlo con la distribución χ 2 apropiada. En
general (para esta prueba), cuando tenemos a clases, existen a - 1 grados de
libertad
G = 8.8240
DE DONDE X2 = 9.53
y dado que X 2 < ji-cuadrada, concluimos que las frecuencias observadas son
compatibles con las proporciones postuladas. Más aun, χ (20.10,7 gl .) = 12.017
entonces, para todo α < 010
. no podemos rechazar la hipótesis nula.
81
puede ser aproximada para la distribución χ 2 cuando los tamaños de muestra son
grandes. Los grados de libertad apropiados para una determinada prueba son los
mismos que para las pruebas ji-cuadrado discutidas anteriormente. En general, G
será numéricamente muy similar a X 2 . A veces se utiliza para G el símbolo 2I.
Algunas fórmulas equivalentes a (3) son las siguientes
a f
G = 2 ∑ fi * ln i K ( 4)
i =1 f$i
a a
G = 2 ∑ fi * ln fi − ∑ fi * ln f$i
i =1 i =1
a a
∑
= 2 f i *ln f i − (2.30259)
i =1
∑f
i =1
i * log f$ i
K (5)
n n
G=2 ∑
i =1
f i * ln f i − ∑f
i =1
i * ln p$ i − n * ln n
K (6)
Ejemplo.
Apliquemos esta prueba de bondad de ajuste a los datos del ejemplo 15.
Solución.-
De la última columna del cuadrado de la solución del ejemplo 15, tenemos que
Por lo tanto, también con esta prueba, concluimos que las frecuencias observadas
son compatibles con las proporciones postuladas.
82
En las pruebas de bondad de ajuste que incluyen solamente dos clases, el valor
de G mostrará un sesgo que puede modificarse aplicando una corrección de
continuidad, aproximando más estrictamente el valor de G a la distribución χ 2 .
Esta corrección consiste en sumar o restar 0.5 de las frecuencias observadas, de
tal manera que se haga mínimo el valor de G. Simplemente se ajustan las fi
transformándolas para reducir la diferencia entre éstas y las frecuencias
esperadas correspondientes en un medio. La corrección de continuidad se aplica
siempre que n < 200. Cuando n < 25 incluso esta corrección es insuficiente para
rectificar el sesgo. En tal caso es conveniente un cálculo exacto de las
probabilidades binomiales.
La prueba G para probar la bondad del ajuste de una serie de datos a una
distribución de frecuencias esperada, puede aplicarse no solamente a la de
Poisson sino también a la normal, binomial y otras distribuciones. Para una
distribución normal, ordinariamente estimamos dos parámetros de los datos
muestreados µ y σ . De aquí que los grados de libertad correspondientes sean
a - 3. En la binomial solamente debe estimarse un parámetro p$ ; los grados de
libertad correspondientes son a - 2.
83
TABLAS DE CONTINGENCIA
Un problema común en el análisis de datos enumerativos se refiere a la
independencia de dos métodos de clasificación de eventos observados. Por
ejemplo, podríamos clasificar una muestra de individuos según el sexo y según su
opinión con respecto a una cuestión política para probar la hipótesis de que las
opiniones con respecto a esta cuestión son independientes del sexo, o podríamos
clasificar a los pacientes que padecen cierta enfermedad según el tipo de
medicamento y según el porcentaje de recuperación para ver si el porcentaje de
recuperación depende del tipo de medicamento.
Ejemplo
Se realizó una encuesta para evaluar la eficacia de una nueva vacuna contra la
gripe que había sido aplicada en una pequeña comunidad. La vacuna se
proporcionó sin costo alguno en una secuencia de dos inyecciones en un periodo
de dos semanas a quienes desearan aprovecharla. Algunas personas recibieron
las dos inyecciones, otras se presentaron solamente para la primera inyección y
otras ninguna inyección recibieron. Una encuesta de 1000 habitantes locales, en
la primavera siguiente, proporcionó la información que se muestra en la tabla
siguiente. ¿Presentan los datos suficiente evidencia para indicar una dependencia
entre la clasificación según la vacunación y la ocurrencia o no de la gripe?
Solución.-
Analizamos los datos como una tabla de contingencia. Las estimaciones de las
frecuencias esperadas de las celdas pueden calcularse al utilizar los totales
apropiados de los renglones y de las columnas.
ri c j
Ε$ ( n ij ) =
n
84
entonces:
r c ( 46) (313)
Ε$ ( n11 ) = 1 1 = = 14.4
n 1000
r c ( 46) (109)
Ε$ ( n12 ) = 1 2 = = 5.0
n 1000
M
r c (954) (578)
Ε$ ( n 23 ) = 2 3 = = 515.4
n 1000
X 2 = 17.35
p = Pr ( χ 2 > 17.35)
comprobando con las tablas del apéndice obtenemos que p < 0.005 . Así para
cualquier valor de α mayor que o igual a 0.005 los datos presentan evidencia
suficiente para indicar una dependencia entre la clasificación según la vacunación
y la ocurrencia o no de la gripe.
85
La que sigue es una simple regla general para el cálculo de la prueba G de
independencia:
[
G = 2 ( ∑ f * ln f para las frecuencias de casillas)
− ( ∑ f * ln f para las sumas de fila y columna)
+ n * ln n]
Los grados de libertad para pruebas de independencia son siempre los mismos y
pueden calcularse utilizando las reglas dadas anteriormente. Hay k casillas en la
tabla pero debemos restar un grado de libertad por cada parámetro independiente
que hayamos estimado de los datos. Naturalmente debemos restar un grado de
libertad para el tamaño de muestreo total observado n. Hemos estimado además
r-1 probabilidades de fila y c-1 probabilidades de columna, donde r y c son el
número de filas y columnas de la tabla, respectivamente. Así, hay
k-(r-1)-(c-1)-1=k-r+1-c+1-1=k-r-c+1
k-r-c+1=rc-r-c+1=r(c-1)-(c-1) = (r-1)(c-1)
Ejemplo.-
Solución.-
∑∑f ij * ln fij =
= 24 ln 24 + 289 ln 289+...+13 ln 13 + 565 ln 565
= 5807.81
86
b) Suma de transformaciones de los totales de fila
46 ln 46 + 954 ln 954 = 6 721.19
Por lo tanto:
G = 2[a − b − c + d ]
G = 2[5807.81 − 672119
. − 5985.75 + 6907.76]
G = 17.2519
Este valor es para compararlo con una distribución χ 2 con (r-1) (c-1) grados de
libertad. En este caso (2-1) (3-1) = 2 g.l
G > χ 2( 0.005) [ 2 ]
Por lo tanto, los datos presentan evidencia suficiente para indicar una dependencia
entre la clasificación según la vacunación y la ocurrencia o no de la gripe.
87
EJERCICIOS
Especialidad
Norte 20 18 12 17 67
Sur 6 22 15 13 56
Este 4 6 14 11 35
Oeste 10 19 23 40 92
Total 40 65 64 81 250
2.- Quinientos empleados de una empresa que fabrica cierto producto, que se
suponía estaba asociado con alteraciones respiratorias, se clasificaron en
forma cruzada en base a su nivel de exposición al producto y si tenían o
no los síntomas de tales alteraciones respiratorias. Los resultados se
presentan en la siguiente tabla.
Nivel de exposición
Si 185 33 17 235
No 120 73 72 265
88
3.- Quinientos niños de escuela primaria se clasificaron en forma cruzada de
acuerdo con el grupo socioeconómico y la presencia o ausencia de cierto
defecto en la pronunciación. Los resultados fueron los siguientes.
Grupo socioeconómico
Presente 8 24 32 27 91
Ausente 42 121 138 108 409
Sexo
A dieta 14 25 39
Sin dieta 159 152 331
89
Conocimiento de las enfermedades
Principal campo
de estudio Bueno Deficiente Total
Orientación
premédica 31 91 122
¿Sugieren estos datos que existe una relación entre el conocimiento del
grupo de enfermedades y el principal campo de estudio de los estudiantes
de bachillerato de los cuales se extrajo la presente muestra?
Cromosoma CD
St/St St/B1 B1/B1
Cromosoma EF Td/Td 22 96 75
St/Td 8 56 64
St/St 0 6 6
90
MODELOS DETERMINÍSTICOS Y PROBABILÍSTICOS
En este capitulo estudiaremos los procedimientos inferenciales que pueden
utilizarse cuando una variable y , denominada variable dependiente, tiene una
media que es una función de una o más variables no aleatorias, x 1 , x 2 ,... , x k
llamadas variables independientes. (En este contexto los términos “independiente”
y “dependiente” se utilizan en su sentido matemático. No existe ninguna relación
con el concepto probabilístico de variables aleatorias independientes).
y = β 0 + β1x
Ε ( y) = β 0 + β 1 ( x)
91
lo que equivale a
Y = β 0 + β1 x + ε
Figura 1
92
Cuando se afirma tener una modelo estadístico lineal para y , se denota que Ε( y)
es una función lineal de los parámetros desconocidos β 0 y β 1 y no
necesariamente una función lineal de x . Por lo tanto y = β 0 + β 1 (ln x) + ε es un
modelo lineal (suponiendo que ln x es una constante conocida).
Ε ( y) = β 0 + β1x1 +...+β k x k
93
REGRESIÓN Y CORRELACIÓN
Al analizar información con frecuencia resulta conveniente saber algo acerca de la
relación que existe entre dos o más variables involucradas. Por ejemplo,
interesará estudiar la relación que existe entre la presión sanguínea y la edad, la
estatura y el peso, la concentración de un medicamento inyectado a la frecuencia
cardiaca, el nivel de consumo de algún nutriente y la ganancia de peso, la
intensidad de un estímulo y el tiempo de reacción. La naturaleza e intensidad de
las relaciones entre variables como éstas pueden estudiarse por medio del análisis
de regresión y correlación, dos técnicas estadísticas que, aunque relacionadas,
tienen finalidades distintas.
Una vez recolectada la información (serie bidimensional), que son pares de datos
bivariados, éstos se llevan a un sistema de ejes coordenados; la variable
independiente X se escribe en el eje de las abscisas, y la variable dependiente Y
en el eje de las ordenadas. Al conjunto de puntos (X , Y) que aparecen en la
gráfica se le llama diagrama de dispersión. De acuerdo con la forma que tome
dicho diagrama, así será la función (ecuación) que se utilizará, de tal forma que
94
describa adecuadamente la relación entre las variables. A continuación
mostramos las formas generales de diversas relaciones, denominadas funciones o
ecuaciones de predicción:
Ε ( y) = β 0 + β1 x
y$ i = β$ 0 + β$ 1x i
y i − y$ i
95
xi x
∂ SCE n
= 2∑ ( y i − β$ 0 − β$ 1x i ) ( −1)
∂ β$ 0 i =1
n n
= −2 ∑ y i − nβ$ 0 − β$ 1 ∑ x i = 0
i =1 i =1
n n
⇒ ∑
i =1
y i − nβ$ 0 − β$ 1 ∑ x i = 0
i =1
⇒ n y − nβ$ 0 − nβ$ 1 x = 0
⇒ β$ 0 = y − β$ 1 x ... (1)
96
∂ SCE n
= 2∑ ( y i − β$ 0 − β$ 1 x i ) ( − x i ) = 0
∂ β$ i =1
1
n n n
⇒ ∑x
i =1
i y i − β$ 0 ∑ x i − β$ 1 ∑ x 2i = 0
i =1 i =1
n n n
⇒ ∑ x i y i − ( y − β$ 1 x ) ∑ x i − β$ 1 ∑ x 2i = 0
i =1 i =1 i =1
n n n n
∑ x i y i − y ∑ x i + β$ 1x ∑ x i − β$ 1 ∑ x 2i = 0
i =1 i =1 i =1 i =1
$ nx 2 − x 2 = 0
n n
∑
i =1
x i y i − nyx + β1
∑
i =1
i
n n
nyx − ∑ x i y i ∑x y − nyx i i
⇒ β$ 1 = i =1
= i =1
nx 2 − ∑ x i 2
n
∑ x − nx 2
i
2
i =1
n n n
n ∑ xi yi − ∑ xi ∑y i
⇒ β$ 1 = i =1 i =1 i =1
... (2)
n ∑ x 2i ( ∑ xi )
2
−
Las ecuaciones (1) y (2) minimizan SCE y son conocidos como coeficientes de
regresión.
97
Ejemplo.-
Año Índice
1982 103.5
1983 127.7
1984 149.9
1985 155.3
1986 121.1
a) Calcule la ecuación de la tendencia que siguieron los índices de
producción de arroz, con origen en 1984 (Ajuste una función lineal).
Solución:
x y Producción xy x2
Estimada
año Índice de arroz
Y = B0 + ( B1 ) X
Por lo tanto:
a) y = 131.5 + 6.28x
b) La producción estimada de arroz para 1987 es de 30.07 toneladas
98
COEFICIENTE DE CORRELACIÓN
99
Existe intima relación entre regresión y correlación, ya que entre mayor sea el
valor del coeficiente de correlación r, mayor será la utilidad de la ecuación de
regresión para hacer estimaciones de la variable dependiente Y en función de la
variable independiente X; y viceversa, entre menor sea el valor de r (en valor
absoluto), menos útil será la ecuación de regresión para efectos de estimaciones
de la variable dependiente. Por lo tanto, podríamos recomendar que antes de
calcular la ecuación de regresión entre dos variables se calcule primero el
coeficiente de correlación entre éstas, y si el valor de r es del orden de 0.70 o más,
recomendamos el cálculo de la ecuación.
∑ (x i − x) (y i − y)
r = n
i =1
n
∑ (x i − x ) ∑ (y
2 2
i − y)
i =1 i =1
o, equivalentemente
n n n
n ∑ xi yi − ∑ xi ∑ yi
r = i =1 i =1 i =1
n 2 n 2
n 2 n 2
n ∑ x i − ∑ x i n ∑ y i − ∑ y i
i =1 i =1 i =1 i =1
1+ r 1 1 + ρo
( 1 2 ) ln − ( 2 ) ln
1− r 1 − ρo
Z=
1
n−3
100
Ha : ρ > ρ o RR : Z > Z α
Ha : ρ < ρ o RR : Z < − Zα
Ha : ρ ≠ ρ o RR : Z > Z α 2
Ejemplo:
1 23.00 39.00
2 22.30 37.50
3 9.40 22.20
4 9.70 17.50
5 0.15 0.64
6 0.28 0.45
7 0.75 2.62
8 0.51 2.36
9 28.00 32.00
10 0.39 0.77
101
Solución:
B0 = -0.7110
B1 = 0.6553
Z = 2.8307
102
EJERCICIOS
Temperatura 87 50 75 90 55 54 68 85 82 80 45 58 66
Dilatación 5.0 2.2 4.1 5.4 2.8 3.0 3.6 4.9 4.1 4.2 2.0 2.7 3.1
X 2 3 4 5 6 7 8 9 10
Y 8 10 12 18 20 22 25 28 30
El valor de r = 0.82 indica que puede haber bastante relación entre las
variables gastos en educación e ingresos.
103
c) Determine si la ecuación de regresión calculada puede ser útil para estimar
los gastos en educación de familias con dos hijos. Justifique su respuesta.
Año 69 70 71 72 73 74 75 76 77
Producción 8 10 12 15 15 18 19 23 30
1976 95 105
1977 105 115
1978 115 120
1979 120 145
1980 130 160
Sugerencias
104
- Para calcular el índice de valores unitarios de las importaciones divida el
índice de las exportaciones V70 entre el índice de capacidad para importar
C70 multiplicado por 100, para dicho año.
1978 90 110
1979 110 120
1980 120 130
1981 130 140
1982 150 160
105
SOLUCION AL PROBLEMA 5 ANTERIOR
106
APÉNDICE
107
Tabla 1 Probabilidades Binomiales
a
Los valores tabulados son P(Y ≤ a ) = ∑ p( y)
y=0
(los cálculos se redondean a tres
cifras decimales.)
(a) n = 5
0 .951 .774 .590 .328 .168 .078 .031 .010 .002 .000 .000 .000 .000 0
1 .999 .977 .919 .737 .528 .337 .188 .087 .031 .007 .000 .000 .000 1
2 1.000 .999 .991 .942 .837 .683 .500 .317 .163 .058 .009 .001 .000 2
3 1.000 1.000 1.000 .993 .969 .913 .812 .663 .472 .263 .081 .023 .001 3
4 1.000 1.000 1.000 1.000 .998 .990 .969 .922 .832 .672 .410 .226 .049 4
α 0.01 0.05 0.10 0.20 0.30 0.40 0.5 0.60 0.70 0.80 0.90 0.95 0.99 α
(b) n=10
α 0.01 0.05 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0.95 0.99 α
0 .904 .599 .349 .107 .028 .006 .001 .000 .000 .000 .000 .000 .000 0
1 .996 .914 .736 .376 .149 .046 .011 .002 .000 .000 .000 .000 .000 1
2 1.000 .988 .930 .678 .383 .167 .055 .012 .002 .000 .000 .000 .000 2
3 1.000 .999 .987 .879 .650 .382 .172 .055 .011 .001 .000 .000 .000 3
4 1.000 1.000 .998 .967 .850 .633 .377 .166 .047 .006 .000 .000 .000 4
5 1.000 1.000 1.000 .994 .953 .834 .623 .367 .150 .033 .002 .000 .000 5
6 1.000 1.000 1.000 .999 .989 .945 .828 .618 .350 .121 .013 .001 .000 6
7 1.000 1.000 1.000 1.000 .998 .988 .945 .833 .617 .322 .070 .012 .000 7
8 1.000 1.000 1.000 1.000 1.000 .998 .989 .954 .851 .624 .264 .086 .004 8
9 1.000 1.000 1.000 1.000 1.000 1.000 .999 .994 .972 .893 .651 .401 .096 9
108
Tabla 1 (continuación)
(c) n = 15
α 0.01 0.05 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0.95 0.99 α
0 .860 .463 .206 .035 .005 .000 .000 .000 .000 .000 .000 .000 .000 0
1 .990 .829 .549 .167 .035 .005 .000 .000 .000 .000 .000 .000 .000 1
2 1.000 .964 .816 .398 .127 .027 .004 .000 .000 .000 .000 .000 .000 2
3 1.000 .995 .944 .648 .297 .091 .018 .002 .000 .000 .000 .000 .000 3
4 1.000 .999 .987 .836 .515 .217 .059 .009 .001 .000 .000 .000 .000 4
5 1.000 1.000 .998 .939 .722 .403 .151 .034 .004 .000 .000 .000 .000 5
6 1.000 1.000 1.000 .982 .869 .610 .304 .095 .015 .001 .000 .000 .000 6
7 1.000 1.000 1.000 .996 .950 .787 .500 .213 .050 .004 .000 .000 .000 7
8 1.000 1.000 1.000 .999 .985 .905 .696 .390 .131 .018 .000 .000 .000 8
9 1.000 1.000 1.000 1.000 .996 .966 .849 .597 .278 .061 .002 .000 .000 9
10 1.000 1.000 1.000 1.000 .999 .991 .941 .783 .485 .164 .013 .001 .000 10
11 1.000 1.000 1.000 1.000 1.000 .998 .982 .909 .703 .352 .056 .005 .000 11
12 1.000 1.000 1.000 1.000 1.000 1.000 .996 .973 .873 .602 .184 .036 .000 12
13 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .995 .965 .833 .451 .171 .010 13
14 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .995 .965 .794 .537 .140 14
109
Tabla 1 (Continuación)
(d) n = 20
α 0.01 0.05 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0.95 0.99 α
0 .818 .358 .122 .012 .001 .000 .000 .000 .000 .000 .000 .000 .000 0
1 .983 .736 .392 .069 .008 .001 .000 .000 .000 .000 .000 .000 .000 1
2 .999 .925 .677 .206 .035 .004 .000 .000 .000 .000 .000 .000 .000 2
3 1.000 .984 .867 .411 .107 .016 .001 .000 .000 .000 .000 .000 .000 3
4 1.000 .997 .957 .630 .238 .051 .006 .000 .000 .000 .000 .000 .000 4
5 1.000 1.000 .989 .804 .416 .126 .021 .002 .000 .000 .000 .000 .000 5
6 1.000 1.000 .998 .913 .608 .250 .058 .006 .000 .000 .000 .000 .000 6
7 1.000 1.000 1.000 .968 .772 .416 .132 .021 .001 .000 .000 .000 .000 7
8 1.000 1.000 1.000 .990 .887 .596 .252 .057 .005 .000 .000 .000 .000 8
9 1.000 1.000 1.000 .997 .952 .755 .412 .128 .017 .001 .000 .000 .000 9
10 1.000 1.000 1.000 .999 .983 .872 .588 .254 .048 .003 .000 .000 .000 10
11 1.000 1.000 1.000 1.000 .995 .943 .748 .404 .113 .010 .000 .000 .000 11
12 1.000 1.000 1.000 1.000 .999 .979 .868 .584 .228 .032 .000 .000 .000 12
13 1.000 1.000 1.000 1.000 1.000 .994 .942 .750 .392 .087 .002 .000 .000 13
14 1.000 1.000 1.000 1.000 1.000 .998 .979 .874 .584 .196 .011 .000 .000 14
15 1.000 1.000 1.000 1.000 1.000 1.000 .994 .949 .762 .370 .043 .003 .000 15
16 1.000 1.000 1.000 1.000 1.000 1.000 .999 .984 .893 .589 .133 .016 .000 16
17 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .996 .965 .794 .323 .075 .001 17
18 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .999 .992 .931 .608 .264 .017 18
19 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .999 .988 .878 .642 .182 19
110
Tabla 1 (Continuación)
(e) n=25
α 0.01 0.05 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 0.95 0.99 α
0 .778 .277 .072 .004 .000 .000 .000 .000 .000 .000 .000 0 0 0
1 .974 .642 .271 .027 .002 .000 .000 .000 .000 .000 .000 0 0 1
2 .998 .873 .537 .098 .009 .000 .000 .000 .000 .000 .000 0 0 2
3 1.000 .966 .764 .234 .033 .002 .000 .000 .000 .000 .000 .000 .000 3
4 1.000 .993 .902 .421 .090 .009 .000 .000 .000 .000 .000 .000 .000 4
5 1.000 .999 .967 .617 .193 .029 .002 .000 .000 .000 .000 .000 .000 5
6 1.000 1.000 .991 .780 .341 .074 .007 .000 .000 .000 .000 .000 .000 6
7 1.000 1.000 .998 .891 .512 .154 .022 .001 .000 .000 .000 .000 .000 7
8 1.000 1.000 1.000 .953 .677 .274 .054 .004 .000 .000 .000 .000 .000 8
9 1.000 1.000 1.000 .983 .811 .425 .115 .013 .000 .000 .000 .000 .000 9
10 1.000 1.000 1.000 .994 .902 .586 .212 .034 .002 .000 .000 .000 .000 10
11 1.000 1.000 1.000 .998 .956 .732 .345 .078 .006 .000 .000 .000 .000 11
12 1.000 1.000 1.000 1.000 .983 .846 .500 .154 .017 .000 .000 .000 .000 12
13 1.000 1.000 1.000 1.000 .994 .922 .655 .268 .044 .002 .000 .000 .000 13
14 1.000 1.000 1.000 1.000 .998 .966 .788 .414 .098 .006 .000 .000 .000 14
15 1.000 1.000 1.000 1.000 1.000 .987 .885 .575 .189 .017 .000 .000 .000 15
16 1.000 1.000 1.000 1.000 1.000 .996 .946 .726 .323 .047 .000 .000 .000 16
17 1.000 1.000 1.000 1.000 1.000 .999 .978 .846 .488 .109 .002 .000 .000 17
18 1.000 1.000 1.000 1.000 1.000 1.000 .993 .926 .659 .220 .009 .000 .000 18
19 1.000 1.000 1.000 1.000 1.000 1.000 .998 .971 .807 .383 .033 .001 .000 19
20 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .991 .910 .579 .098 .007 .000 20
21 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .998 .967 .766 .236 .034 .000 21
22 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .991 .902 .463 .127 .002 22
23 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .998 .973 .729 .358 .026 23
24 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 .996 .928 .723 .222 24
111
TABLA 2 Tabla de e − x
x e− x x e− x x e− x x e− x
112
Tabla 3. Probabilidades de Poisson
a
λy
P(Y ≤ a ) = ∑ e − λ
y=0 y!
a
λ 0 1 2 3 4 5 6 7 8 9
Reimpresión con permiso de E.C. molina, Poisson’s Exponential Binomial Limit, D. Van Nostrand Company, Inc.,
Princetoon, H. J., 1947
113
Tabla 3. (Continuación)
a
λ 0 1 2 3 4 5 6 7 8 9
2.2 0.111 0.355 0623 0.819 0.928 0.975 0.993 0.998 1.000
2.4 0.091 0.308 0.570 0.779 0.904 0.964 0.988 0.997 0.999 1.000
2.6 0.074 0.267 0.518 0.736 0.877 0.951 0.983 0.995 0.999 1.000
2.8 0.061 0.231 0.469 0.692 0.848 0.935 0.976 0.992 0.998 0.999
3.0 0.050 0.199 0.423 0.647 0.815 0.916 0.966 0.988 0.996 0.999
3.2 0.041 1.171 0.380 0.603 0.781 0.895 0.955 0.983 0.994 0.998
3.4 0.033 0.147 0.340 0.558 0.744 0.871 0.942 0.977 0.992 0.997
3.6 0.027 0.126 0.303 0.515 0.706 0.844 0.927 0.969 0.988 0.996
3.8 0.022 0.107 0.269 0.473 0.668 0.816 0.909 0.960 0.984 0.994
4.0 0.018 0.092 0.238 0.433 0.629 0.785 0.889 0.949 0.979 0.992
4.2 0.015 0.078 0.210 0.395 0.590 0.753 0.867 0.936 0.972 0.989
4.4 0.012 0.066 0.185 0.359 0.551 0.720 0.844 0.921 0.964 0.985
4.6 0.0.10 0.056 0.163 0.326 0.513 0.686 0.818 0.905 0.955 0.980
4.8 0.008 0.048 0.143 0.294 0.476 0.651 0.791 0.887 0.944 0.975
5.0 0.007 0.040 0.125 0.265 0.440 0.616 0.762 0.867 0.932 0.968
5.2 0.006 0.034 0.109 0.238 0.406 0.581 0.732 0.845 0.918 0.960
5.4 0.005 0.029 0.095 0.213 0.373 0.546 0.702 0.822 0.903 0.951
5.6 0.004 0.024 0.082 0.191 0.342 0.512 0.670 0.797 0.886 0.941
5.8 0.003 0.021 0.072 0.170 0.313 0.478 0.6338 0.771 0.867 0.929
6.0 0.002 0.017 0.062 0.151 0.285 0.446 0.606 0.744 0.847 0.916
10 11 12 13 14 15 16
2.8 1.000
3.0 1.000
3.2 1.000
3.4 0.999 1.000
3.6 0.999 1.000
3.8 0.998 0.999 1.000
4.0 0.997 0.999 1.000
114
Tabla 3 (Continuación)
a
λ 0 1 2 3 4 5 6 7 8 9
6.2 0.002 0.015 0.054 0.134 0.259 0.414 0.574 0.716 0.826 0.902
6.4 0.002 0.12 0.046 0.119 0.235 0.384 0.542 0.687 0.803 0.886
6.6 0.001 0.010 0.040 0.105 0.213 0.355 0.511 0.658 0.780 0.869
6.8 0.001 0.009 0.034 0.093 0.192 0.327 0.480 0.628 0.755 0.850
7.0 0.001 0.007 0.030 0.082 0.173 0.301 0.450 0.599 0.729 0.830
7.2 0.001 0.006 0.025 0.072 0.156 0.276 0.420 0.569 0.703 0.810
7.4 0.001 0.005 0.022 0.063 0.140 0.253 0.392 0.539 0.676 0.788
7.6 0.001 0.004 0.019 0.055 0.125 0.231 0.365 0.510 0.648 0.765
7.8 0.000 0.004 0.016 0.048 0.112 0.210 0.338 0.481 0.620 0.741
8.0 0.000 0.003 0.014 0.042 0.100 0.191 0.313 0.453 0.593 0.717
8.5 0.000 0.002 0.009 0.030 0.074 0.150 0.256 0.386 0.523 0.653
9.0 0.000 0.001 0.006 0.021 0.055 0.116 0.207 0.324 0.456 0.587
9.5 0.000 0.001 0.004 0.015 0.040 0.089 0.165 0.269 0.392 0.522
10.0 0.000 0.000 0.003 0.010 0.029 0.067 0.130 0.220 0.333 0.458
10 11 12 13 14 15 16 17 18 19
7.2 0.887 0.937 0.967 0.984 0.993 0.997 0.999 0.999 1.000
7.4 0.871 0.626 0.961 0.980 0.991 0.996 0.998 0.999 1.000
7.6 0.854 0.915 0.954 0.976 0.989 0.995 0.998 0.999 1.000
7.8 0.835 0.902 0.945 0.971 0.986 0.993 0.997 0.999 1.000
8.0 0.816 0.888 0.936 0.966 0.983 0.992 0.996 0.998 0.999 1.000
8.5 0.763 0.849 0.909 0.949 0.973 0.986 0.993 0.997 0.999 0.999
9.0 0.706 0.803 0.876 0.926 0.959 0.978 0.989 0.995 0.998 0.999
9.5 0.645 0.752 0.836 0.898 0.94 0.967 0.982 0.991 0.996 0.998
10.0 0.583 0.697 0.792 0.864 0.917 0.951 0.973 0.986 0.993 0.997
20 21 22
8.5 1.000
9.0 1.000
9.5 0.999 1.000
10.0 0.998 0.999 1.000
115
Tabla 3 (continuación)
a
λ 0 1 2 3 4 5 6 7 8 9
10.5 0.000 0.000 0.002 0.007 0.021 0.050 0.102 0.179 0.279 0.397
11.0 0.000 0.000 0.001 0.005 0.015 0.038 0.079 0.143 0.232 0.341
11.5 0.000 0.000 0.001 0.003 0.011 0.028 0.060 0.114 0.191 0.298
12.0 0.000 0.000 0.001 0.002 0.008 0.020 0.046 0.090 0.155 0.242
12.5 0.000 0.000 0.000 0.002 0.005 0.015 0.035 0.070 0.125 0.201
13.0 0.000 0.000 0.000 0.001 0.004 0.011 0.026 0.054 0.100 0.166
13.5 0.000 0.000 0.000 0.001 0.003 0.008 0.019 0.041 0.079 0.135
14.0 0.000 0.000 0.000 0.000 0.002 0.006 0.014 0.032 0.062 0.109
14.5 0.000 0.000 0.000 0.000 0.001 0.004 0.010 0.024 0.048 0.088
15.0 0.000 0.000 0.000 0.000 0.001 0.003 0.008 0.018 0.037 0.070
10 11 12 13 14 15 16 17 18 19
10.5 0.521 0.639 0.742 0.825 0.888 0.932 0.960 0.978 0.988 0.994
11.0 0.460 0.579 0.689 0.781 0.854 0.907 0.944 0.968 0.982 0.991
11.5 0.402 0.520 0.633 0.733 0.815 0.878 0.924 0.954 0.974 0.986
12.0 0.347 0.462 0.576 0.682 0.772 0.844 0.899 0.937 0.963 0.979
12.5 0.297 0.406 0.519 0.628 0.725 0.806 0.869 0.916 0.948 0.969
13.0 0.252 0.353 0.463 0.573 0.675 0.764 0.835 0.890 0.930 0.957
13.5 0.211 0.304 0.409 0.518 0.623 0.718 0.798 0.861 0.908 0.942
14.0 0.176 0.206 0.358 0.464 0.570 0.669 0.756 0.827 0.883 0.923
14.5 0.145 0.220 0.311 0.413 0.518 0.619 0.711 0.790 0.853 0.901
15.0 0.118 0.185 0.268 0.363 0.466 0.568 0.664 0.749 0.819 0.875
20 21 22 23 24 25 26 27 28 29
116
Tabla 3 (continuación)
a
λ 4 5 6 7 8 9 10 11 12 13
16 0.000 0.001 0.004 0.010 0.022 0.043 0.077 0.127 0.193 0.275
17 0.000 0.001 0.002 0.005 0.013 0.026 0.049 0.085 0.135 0.201
18 0.000 0.000 0.001 0.003 0.007 0.015 0.030 0.055 0.092 0.143
19 0.000 0.000 0.001 0.002 0.004 0.009 0.018 0.035 0.061 0.098
20 0.000 0.000 0.000 0.001 0.002 0.005 0.011 0.021 0.039 0.066
21 0.000 0.000 0.000 0.000 0.001 0.003 0.006 0.013 0.025 0.043
22 0.000 0.000 0.000 0.000 0.001 0.002 0.004 0.008 0.015 0.028
23 0.000 0.000 0.000 0.000 0.000 0.001 0.002 0.004 0.009 0.017
24 0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.003 0.005 0.011
25 0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.001 0.003 0.006
14 15 16 17 18 19 20 21 22 23
16 0.368 0.467 0.566 0.659 0.742 0.812 0.868 0.911 0.942 0.963
17 0.281 0.371 0.468 0.564 0.655 0.736 0.805 0.861 0.905 0.937
18 0.208 0.287 0.375 0.469 0.562 0.651 0.731 0.799 0.855 0.899
19 0.150 0.215 0.292 0.378 0.469 0.561 0.647 0.725 0.793 0.849
20 0.105 0.157 0.221 0.297 0.381 0.470 0.559 0.644 0.721 0.787
21 0.072 0.111 0.163 0.227 0.302 0.384 0.471 0.558 0.640 0.716
22 0.048 0.077 0.117 0.169 0.232 0.306 0.387 0.472 0.556 0.637
23 0.031 0.052 0.082 0.123 0.175 0.238 0.310 0.389 0.472 0.555
24 0.020 0.034 0.056 0.087 0.128 0.180 0.243 0.314 0.392 0.473
25 0.012 0.022 0.038 0.060 0.092 0.134 0.185 0.247 0.318 0.394
117
Tabla 3 (Continuación)
a
λ 24 25 26 27 28 29 30 31 32 33
34 35 36 37 38 39 40 41 42 43
19 0.999 1.000
20 0.999 0.999 1.000
21 0.997 0.998 0.999 0.999 1.000
22 0.994 0.996 0.998 0.999 0.999 1.000
23 0.988 0.993 0.996 0.997 0.999 0.999 1.000
24 0.979 0.987 0.992 0.995 0.997 0.998 0.999 0.999 1.000
25 0.966 0.978 0.985 0.991 0.991 0.997 0.998 0.999 0.999 1.000
118
Tabla 4. Áreas bajo la curva normal.
Probabilidad normal estándar de cola superior
(para valores negativos de z. las áreas se obtienen por simetría).
Segundo decimal de z
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0722 0.0708 0.0694 0.0681
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.8 0.0359 0.0352 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183
2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143
2.2 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110
2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084
2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064
2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048
2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036
2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026
2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019
2.9 0.0019 0.0018 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014
3.0 .00135
3.5 .000 233
4.0 .000 031 7
4.5 .000 003 40
5.0 .000 000 287
De: R. E. Walpole, Introduction to Statistics (New York: Macmillan, 1968).
119
Tabla 5 Puntos porcentuales de las distribuciones t.
120
Tabla 6. Puntos porcentuales delas distribuciones χ 2
121
Tabla 6 (Continuación)
De: “Table of Percentage Points of the t-Distribution”. Calculado por Maxine Merrington, Biometrika, Vol. 32 (1941), pp. 188-
189, por Catherine M. Thompson. Reproducido con la autorización del profesor E.S. Pearson.
122
TABLA 7
Puntos porcentuales de las distribuciones F
2 .100 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38
.050 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38
.025 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39
.010 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39
.005 198.5 199.00 199.2 199.2 199.3 199.3 199.4 199.4 199.4
3 .100 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24
.050 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81
.025 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47
.010 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35
.005 55.55 49.80 47.47 46.19 45.39 44.84 44.43 44.13 43.88
4 .100 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94
.050 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00
.025 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90
.010 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66
.005 31.33 26.28 24.26 23.15 22.46 21.97 21.62 21.35 21.14
5 0.100 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32
0.050 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77
0.025 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68
0.010 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16
0.005 22.78 18.31 16.53 15.56 14.94 14.51 14.20 13.96 13.77
6 0.100 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96
0.050 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10
0.025 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52
0.010 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98
0.005 18.63 14.54 12.92 12.03 11.46 11.07 10.79 10.57 10.39
7 0.100 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72
0.050 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68
0.025 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82
0.010 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72
0.005 16.24 12.4 10.88 10.05 9.52 9.16 8.89 8.68 8.51
123
TABLA 7 (Continuación)
Fα
9.39 9.41 9.42 9.44 9.45 9.46 9.47 9.47 9.48 9.49 .100 2
19.40 19.41 19.43 19.45 19.45 19.46 19.47 19.48 19.49 19.50 .050
39.40 39.41 39.43 39.45 39.46 39.46 39.47 39.48 39.49 39.50 .025
99.40 99.42 99.43 99.45 99.46 99.47 99.47 99.48 99.49 99.50 .010
199.4 199.4 199.4 199.4 199.5 199.5 199.5 199.5 199.5 199.5 .005
5.23 5.22 5.20 5.18 5.18 5.17 5.16 5.15 5.14 5.13 .100 3
8.79 8.74 8.70 8.66 8.64 8.62 8.59 8.57 8.55 8.53 .050
14.42 14.34 14.25 14.17 14.12 14.08 14.04 13.99 13.95 13.90 .025
27.23 27.05 26.87 26.69 26.60 26.50 26.41 26.32 26.22 26.13 .010
43.69 43.39 43.08 42.78 42.62 42.47 42.31 42.15 41.99 41.83 .005
3.92 3.90 3.87 3.84 3.83 3.82 3.80 3.79 3.78 3.76 .100 4
5.96 5.91 5.86 5.80 5.77 5.75 5.72 5.69 5.66 5.63 .050
8.84 8.75 8.66 8.56 8.51 8.46 8.41 8.36 8.31 8.26 .025
14.55 14.37 14.20 14.02 13.93 13.84 13.75 13.65 13.56 13.46 .010
20.97 20.70 20.44 20.17 20.02 19.89 19.75 19.61 19.47 19.32 .005
3.30 3.27 3.24 3.21 3.19 3.17 3.16 3.14 3.12 3.10 .100 5
4.74 4.68 4.62 4.56 4.53 4.50 4.46 4.43 4.40 4.36 .050
6.62 6.52 6.43 6.33 6.28 6.23 6.18 6.12 6.07 6.02 .025
10.05 9.89 9.72 9.55 9.47 9.38 9.29 9.20 9.11 9.02 .010
13.62 13.38 13.15 12.90 12.78 12.66 12.53 12.40 12.27 12.14 .005
2.94 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.72 .100 6
4.06 4.00 3.94 3.87 3.84 3.81 3.77 3.74 3.70 3.67 .050
5.46 5.37 5.27 5.17 5.12 5.07 5.01 4.96 4.90 4.85 .025
7.78 7.72 7.56 7.40 7.31 7.23 7.14 7.06 6.97 6.88 .010
10.25 10.03 9.81 9.59 9.47 9.36 9.24 9.12 9.00 8.88 .005
2.70 2.67 2.63 2.59 2.58 2.56 2.54 2.51 2.49 2.47 .100 7
3.64 3.57 3.51 3.44 3.41 3.38 3.34 3.30 3.27 3.23 .050
4.76 4.67 4.57 4.47 4.42 4.36 4.31 4.25 4.20 4.14 .025
6.62 6.47 6.31 6.16 6.07 5.99 5.91 5.82 5.74 5.65 .010
8.38 8.18 7.97 7.75 7.65 7.53 7.42 7.31 7.19 7.08 .005
124
TABLA 7 (Continuación)
Fα
9 0.100 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44
0.050 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18
0.025 8.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10 4.03
0.010 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35
0.005 13.61 10.11 8.72 7.96 7.47 7.13 6.88 6.69 6.54
10 0.100 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35
0.050 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02
0.025 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.85 3.78
0.010 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94
0.005 12.83 9.43 8.08 7.34 6.87 6.54 6.30 6.12 5.97
11 0.100 3.23 2.86 2.66 2.54 2.45 2.39 2.34 2.30 2.27
0.050 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90
0.025 6.72 5.26 4.63 4.28 4.04 3.88 3.76 3.66 3.59
0.010 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63
0.005 12.23 8.91 7.60 6.88 6.42 6.10 5.86 5.68 5.54
12 0.100 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21
0.050 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80
0.025 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44
0.010 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39
0.005 11.75 8.51 7.23 6.52 6.07 5.76 5.52 5.35 5.20
13 0.100 3.14 2.76 2.56 2.43 2.35 2.28 2.23 2.20 2.16
0.050 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71
0.025 6.41 4.97 4.35 4.00 3.77 3.60 3.48 3.39 3.31
0.010 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19
0.005 11.37 8.19 6.93 6.23 5.79 5.48 5.25 5.08 4.94
14 0.100 3.10 2.73 2.52 2.39 2.31 2.24 2.19 2.15 2.12
0.050 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65
0.025 6.30 4.86 4.24 3.89 3.66 3.50 3.38 3.29 3.21
0.010 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03
0.005 11.06 7.92 6.68 6.00 5.56 5.26 5.03 4.86 4.72
125
TABLA 7 (Continuación)
Fα
2.42 2.38 2.34 2.30 2.28 2.25 2.23 2.21 2.18 2.16 .100 9
3.14 3.07 3.01 2.94 2.90 2.86 2.83 2.79 2.75 2.71 .050
3.96 3.87 3.77 3.67 3.61 3.56 3.51 3.45 3.39 3.33 .025
5.26 5.11 4.96 4.81 4.73 4.65 4.57 4.48 4.40 4.31 .010
6.42 6.23 6.03 5.83 5.73 5.62 5.52 5.41 5.30 5.19 .005
2.32 2.28 2.24 2.20 2.18 2.16 2.13 2.11 2.08 2.06 .100 10
2.98 2.91 2.85 2.74 2.77 2.70 2.66 2.62 2.58 2.54 .050
3.72 3.62 3.52 3.42 3.37 3.31 3.26 3.20 3.14 3.08 .025
4.85 4.71 4.56 4.41 4.33 4.25 4.17 4.08 4.00 3.91 .010
5.85 5.66 5.47 5.27 5.17 5.07 4.97 4.86 4.75 4.64 .005
2.25 2.21 2.17 2.12 2.10 2.08 2.05 2.03 2.00 1.97 .100 11
2.85 2.79 2.72 2.65 2.61 2.57 2.53 2.49 2.45 2.40 .050
3.53 3.43 3.33 3.23 3.17 3.12 3.06 3.00 2.94 2.88 .025
4.54 4.40 4.25 4.10 4.02 3.94 3.86 3.78 3.69 3.60 .010
5.42 5.24 5.05 4.86 4.76 4.65 4.55 4.44 4.34 4.23 .005
2.19 2.15 2.10 2.06 2.04 2.01 1.99 1.96 1.93 1.90 .100 12
2.75 2.69 2.62 2.54 2.51 2.47 2.43 2.38 2.34 2.30 .050
3.37 3.28 3.18 3.07 3.02 2.96 2.91 2.85 2.79 2.72 .025
4.30 4.16 4.01 3.86 3.78 3.70 3.62 3.54 3.45 3.36 .010
5.09 4.91 4.72 4.53 4.43 4.33 4.23 4.12 4.01 3.90 .005
2.14 2.10 2.05 2.01 1.98 1.96 1.93 1.90 1.88 1.85 .100 13
2.67 2.60 2.53 2.46 2.42 2.38 2.34 2.30 2.25 2.21 .050
3.25 3.15 3.05 2.95 2.89 2.84 2.78 2.72 2.66 2.60 .025
4.10 3.96 3.82 3.66 3.59 3.51 3.43 3.34 3.25 3.17 .010
4.82 4.64 4.46 4.27 4.17 4.07 3.97 3.87 3.76 3.65 .005
2.10 2.05 2.01 1.96 1.94 1.91 1.89 1.86 1.83 1.80 .100 14
2.60 2.53 2.46 2.39 2.35 2.31 2.27 2.22 2.18 2.13 .050
3.15 3.05 2.95 2.84 2.79 2.73 2.67 2.61 2.55 2.49 .025
3.94 3.80 3.66 3.51 3.43 3.35 3.27 3.18 3.09 3.00 .010
4.60 4.43 4.25 4.06 3.96 3.86 3.76 3.66 3.55 3.44 .005
126
TABLA 7 (Continuación)
Fα
16 .100 3.05 2.67 2.46 2.33 2.24 2.18 2.13 2.09 2.06
.050 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54
.025 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.12 3.05
.010 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78
.005 10.58 7.51 6.30 5.64 5.21 4.91 4.69 4.52 4.38
17 .100 3.03 2.64 2.44 2.31 2.22 2.15 2.10 2.06 2.03
.050 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49
.025 6.04 4.62 4.01 3.66 3.44 3.28 3.16 3.06 2.98
.010 8.40 6.11 5.18 4.67 4.34 4.10 3.93 3.79 3.68
.005 10.38 7.35 6.16 5.50 5.07 4.78 4.56 4.39 4.25
18 .100 3.01 2.62 2.42 2.29 2.20 2.13 2.08 2.04 2.00
.050 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46
.025 5.98 4.56 3.95 3.61 3.38 3.22 3.10 3.01 2.93
.010 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60
.005 10.22 7.21 6.03 5.37 4.96 4.66 4.44 4.28 4.14
19 .100 2.99 2.61 2.40 2.27 2.18 2.11 2.06 2.02 1.98
.050 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42
.025 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96 2.88
.010 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52
.005 10.07 7.09 5.92 5.27 4.85 4.56 4.34 4.18 4.04
20 .100 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96
.050 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39
.025 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84
.010 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46
.005 9.94 6.90 5.82 5.17 4.76 4.47 4.26 4.09 3.96
21 .100 2.96 2.57 2.36 2.23 2.14 2.08 2.02 1.98 1.95
.050 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37
.025 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87 2.80
.010 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40
.005 9.83 6.89 5.73 5.09 4.68 4.39 4.18 4.01 3.88
127
TABLA 7 (Continuación)
Fα
2.03 1.99 1.94 1.89 1.87 1.84 1.81 1.78 1.75 1.72 .100 16
2.49 2.42 2.35 2.28 2.24 2.19 2.15 2.11 2.06 2.01 .050
2.99 2.89 2.79 2.68 2.63 2.57 2.51 2.45 2.38 2.32 .025
3.69 3.55 3.41 3.26 3.18 3.10 3.02 2.93 2.84 2.75 .010
4.27 4.10 3.92 3.73 3.64 3.54 3.44 3.33 3.22 3.11 .005
2.00 1.96 1.91 1.86 1.84 1.81 1.78 1.75 1.72 1.69 .100 17
2.45 2.38 2.31 2.23 2.19 2.15 2.10 2.06 2.01 1.96 .050
2.92 2.82 2.72 2.62 2.56 2.50 2.44 2.38 2.32 2.25 .025
3.59 3.46 3.31 3.16 3.08 3.00 2.92 2.83 2.75 2.65 .010
4.14 3.97 3.79 3.61 3.51 3.41 3.31 3.21 3.10 2.98 .005
1.98 1.93 1.89 1.84 1.81 1.78 1.75 1.72 1.69 1.66 .100 18
2.41 2.34 2.27 2.19 2.15 2.11 2.06 2.02 1.97 1.92 .050
2.87 2.77 2.67 2.56 2.50 2.44 2.38 2.32 2.26 2.19 .025
3.51 3.37 3.23 3.08 3.00 2.92 2.84 2.75 2.66 2.57 .010
4.03 3.86 3.68 3.50 3.40 3.30 3.20 3.10 2.99 2.87 .005
1.96 1.91 1.86 1.81 1.79 1.76 1.73 1.70 1.67 1.63 .100 19
2.38 2.31 2.23 2.16 2.11 2.07 2.03 1.98 1.93 1.88 .050
2.82 3.72 2.62 2.51 2.45 2.39 2.33 2.27 2.20 2.13 .025
3.43 3.30 3.15 3.00 2.92 2.84 2.76 2.67 2.58 2.49 .010
3.93 3.76 3.59 3.40 3.31 3.21 3.11 3.00 2.89 2.78 .005
1.94 1.89 1.84 1.79 1.77 1.74 1.71 1.68 1.64 1.61 .100 20
2.35 2.28 2.20 2.12 2.08 2.04 1.99 1.95 1.90 1.84 .050
2.77 2.68 2.57 2.46 2.41 2.35 2.29 2.22 2.16 2.09 .025
3.37 3.23 3.09 2.94 2.86 2.78 2.69 2.61 2.52 2.42 .010
3.85 3.68 3.50 3.32 3.22 3.12 3.02 2.92 2.81 2.69 .005
1.92 1.87 1.83 1.78 1.75 1.72 1.69 1.66 1.62 1.59 .100 21
2.32 2.25 2.18 2.10 2.05 2.01 1.96 1.92 1.87 1.81 .050
2.73 2.64 2.53 2.42 2.37 2.31 2.25 2.18 2.11 2.04 .025
3.31 3.17 3.03 2.88 2.80 2.72 2.64 2.55 2.46 2.36 .010
3.77 3.60 3.43 3.24 3.15 3.05 2.95 2.84 2.73 2.61 .005
128
TABLA 7 (Continuación)
Fα
23 .100 2.94 2.55 2.34 2.21 2.11 2.05 1.99 1.95 1.92
.050 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32
.025 5.75 4.35 3.75 3.41 3.18 3.02 2.90 2.81 2.73
.010 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30
.005 9.63 6.73 5.58 4.95 4.54 4.26 4.05 3.88 3.75
24 .100 2.93 2.54 2.33 2.19 2.10 2.04 1.98 1.94 1.91
.050 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30
.025 5.72 4.32 3.72 3.38 3.15 2.99 2.87 2.78 2.70
.010 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26
.005 9.55 6.66 5.52 4.89 4.49 4.20 3.99 3.83 3.69
25 .100 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89
.050 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28
.025 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68
.010 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22
.005 9.48 6.60 5.46 4.84 4.43 4.15 3.94 3.78 3.64
26 .100 2.91 2.52 2.31 2.17 2.08 2.01 1.96 1.92 1.88
.050 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27
.025 5.66 4.27 3.67 3.33 3.10 2.94 2.82 2.73 2.65
.010 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18
.005 9.41 6.54 5.41 4.79 4.38 4.10 3.89 3.73 3.60
27 .100 2.90 2.51 2.30 2.17 2.07 2.00 1.95 1.91 1.87
.050 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25
.025 5.63 4.24 3.65 3.31 3.08 2.92 2.80 2.71 2.63
.010 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15
.005 9.34 6.49 5.36 4.74 4.34 4.06 3.85 3.69 3.56
28 .100 2.89 2.50 2.29 2.16 2.06 2.00 1.94 1.90 1.87
.050 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24
.025 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69 2.61
.010 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12
.005 9.28 6.44 5.32 4.70 4.30 4.02 3.81 3.65 3.52
129
TABLA 7 (Continuación)
Fα
1.89 1.84 1.80 1.74 1.72 1.69 1.66 1.62 1.59 1.55 .100 23
2.27 2.20 2.13 2.05 2.01 1.96 1.91 1.86 1.81 1.76 .050
2.67 2.57 2.47 2.36 2.30 2.24 2.18 2.11 2.04 1.97 .025
3.21 3.07 2.93 2.78 2.70 2.62 2.54 2.45 2.35 2.26 .010
3.64 3.47 3.30 3.12 3.02 2.92 2.82 2.71 2.60 2.48 .005
1.88 1.83 1.78 1.73 1.70 1.67 1.64 1.61 1.57 1.53 .100 24
2.25 2.18 2.11 2.03 1.98 1.94 1.89 1.84 1.79 1.73 .050
2.64 2.54 2.44 2.33 2.27 2.21 2.15 2.08 2.01 1.94 .025
3.17 3.03 2.89 2.74 2.66 2.58 2.49 2.40 2.31 2.21 .010
3.59 3.42 3.25 3.06 2.97 2.87 2.77 2.66 2.55 2.43 .005
1.87 1.82 1.77 1.72 1.69 1.66 1.63 1.59 1.56 1.52 .100 25
2.24 2.16 2.09 2.01 1.96 1.92 1.87 1.82 1.77 1.71 .050
2.61 2.51 2.41 2.30 2.24 2.18 2.12 2.05 1.98 1.91 .025
3.13 2.99 2.85 2.70 2.62 2.54 2.45 2.36 2.27 2.17 .010
3.54 3.37 3.20 3.01 2.92 2.82 2.72 2.61 2.50 2.38 .005
1.86 1.81 1.76 1.71 1.68 1.65 1.61 1.58 1.54 1.50 .100 26
2.22 2.15 2.07 1.99 1.95 1.90 1.85 1.80 1.75 1.69 .050
2.59 2.49 2.39 2.28 2.22 2.16 2.09 2.03 1.95 1.88 .025
3.09 2.96 2.81 2.66 2.58 2.50 2.42 2.33 2.23 2.13 .010
3.49 3.33 3.15 2.97 2.87 2.77 2.67 2.56 2.45 2.33 .005
1.85 1.80 1.75 1.70 1.67 1.64 1.60 1.57 1.53 1.49 .100 27
2.20 2.13 2.06 1.97 1.93 1.88 1.84 1.79 1.73 1.67 .050
2.57 2.47 2.36 2.25 2.19 2.13 2.07 2.00 1.93 1.85 .025
3.06 2.93 2.78 2.63 2.55 2.47 2.38 2.29 2.20 2.10 .010
3.45 3.28 3.11 2.93 2.83 2.73 2.63 2.52 2.41 2.29 .005
1.84 1.79 1.74 1.69 1.66 1.63 1.59 1.56 1.52 1.48 .100 28
2.19 2.12 2.04 1.96 1.91 1.87 1.82 1.77 1.71 1.65 .050
2.55 2.45 2.34 2.23 2.17 2.11 2.05 1.98 1.91 1.83 .025
3.03 2.90 2.75 2.60 2.52 2.44 2.35 2.26 2.17 2.06 .010
3.41 3.25 3.07 2.89 2.79 2.69 2.59 2.48 2.37 2.25 .005
130
TABLA 7 (Continuación)
Fα
30 .100 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85
.050 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21
.025 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57
.010 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07
.005 9.18 6.35 5.24 4.62 4.23 3.95 3.74 2.58 3.45
40 .100 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79
.050 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12
.025 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45
.010 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89
.005 8.83 6.07 4.98 4.37 3.99 3.71 3.51 3.35 3.22
60 .100 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74
.050 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04
.025 5.29 3.93 3.34 3.01 2.79 2.63 2.51 2.41 2.33
.010 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72
.005 8.49 5.79 4.73 4.14 3.76 3.49 3.29 3.13 3.01
120 .100 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.68
.050 3.92 3.07 2.68 2.45 2.29 2.17 2.09 2.02 1.96
.025 5.15 3.80 3.23 2.89 2.67 2.52 2.39 2.30 2.22
.010 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56
.005 8.18 5.54 4.50 3.92 3.55 3.28 3.09 2.93 2.81
∞ .100 2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67 1.63
.050 3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88
.025 5.02 3.69 3.12 2.79 2.57 2.41 2.29 2.19 2.11
.010 6.63 4.61 3.78 3.32 3.02 2.80 2.64 2.51 2.41
.005 7.88 5.30 4.28 3.72 3.35 3.09 2.90 2.74 2.62
131
TABLA 7 (Continuación)
Fα
1.85 1.77 1.72 1.67 1.64 1.61 1.57 1.54 1.50 1.46 .100 30
2.16 2.09 2.01 1.93 1.89 1.84 1.79 1.74 1.68 1.62 .050
2.51 2.41 2.31 2.20 2.14 2.07 2.01 1.94 1.87 1.79 .025
2.98 2.84 2.70 2.55 2.47 2.39 2.30 2.21 2.11 2.01 .010
3.34 3.18 3.01 2.82 2.73 2.63 2.52 2.42 2.30 2.18 .005
1.76 1.71 1.66 1.61 1.57 1.54 1.51 1.47 1.42 1.38 .100 40
2.08 2.00 1.92 1.84 1.79 1.74 1.69 1.64 1.58 1.51 .050
2.39 2.29 2.18 2.07 2.01 1.94 1.88 1.80 1.72 1.64 .025
2.80 2.66 2.52 2.37 2.29 2.20 2.11 2.02 1.92 1.80 .010
3.12 2.95 2.78 2.60 2.50 2.40 2.30 2.18 2.06 1.93 .005
1.71 1.66 1.60 1.54 1.51 1.48 1.44 1.40 1.35 1.29 .100 60
1.99 1.92 1.84 1.75 1.70 1.65 1.59 1.53 1.47 1.39 .050
2.27 2.17 2.06 1.94 1.88 1.82 1.74 1.67 1.58 1.48 .025
2.63 2.50 2.35 2.20 2.12 2.03 1.94 1.84 1.73 1.60 .010
2.90 2.74 2.57 2.39 2.29 2.19 2.08 1.96 1.83 1.69 .005
1.65 1.60 1.55 1.48 1.45 1.41 1.37 1.32 1.26 1.19 .100 120
1.91 1.83 1.75 1.66 1.61 1.55 1.50 1.43 1.35 1.25 .050
2.16 2.05 1.94 1.82 1.76 1.69 1.61 1.53 1.43 1.31 .025
2.47 2.34 2.19 2.03 1.95 1.86 1.76 1.66 1.53 1.38 .010
2.71 2.54 2.37 2.19 2.09 1.98 1.87 1.75 1.61 1.43 .005
1.60 1.55 1.49 1.42 1.38 1.34 1.30 1.24 1.17 1.00 .100 ∞
1.83 1.75 1.67 1.57 1.52 1.46 1.39 1.32 1.22 1.00 .050
2.05 1.94 1.83 1.71 1.64 1.57 1.48 1.39 1.27 1.00 .025
2.32 2.18 2.04 1.88 1.79 1.70 1.59 1.47 1.32 1.00 .010
2.52 2.36 2.19 2.00 1.90 1.79 1.67 1.53 1.36 1.00 .005
132
BIBLIOGRAFÍA
133