You are on page 1of 97

Apuntes de Estadsitica

por
Jose Antonio Belinchon

Ultima
actualizacion Diciembre 2007

ii

Indice general
.

Pr
ologo

1. Muestreo aleatorio.

1.1. Muestreo aleatorio simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2. Inferencia parametrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3. Estadsticos suficientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4. Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2. Estimaci
on puntual

15

2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Introduccion a los metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Estimadores puntuales bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Propiedades deseables de los estimadores. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1. Error cuadratico medio. Estimadores insesgados. . . . . . . . . . . . . . . . . 19
2.5.2. Estimadores eficientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3. Estimadores consistentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Intervalos de confinaza

37

3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
i

INDICE GENERAL

ii

3.2. Metodo de la cantidad pivotal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


3.2.1. Cantidades pivotales e intervalos de confianza mas frecuentes. . . . . . . . . . 38
3.2.2. Cantidad pivotal general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3. Intervalos de confianza bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4. Resumen de intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.1.

X N (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.4.2. X Bernoulli(p) (muestras grandes). . . . . . . . . . . . . . . . . . . . . . . 42


3.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 43
3.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 43
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4. Contraste de hip
otesis

55

4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2. Metodo de la razon de verosimilitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1. Asignacion de hipotesis en la practica. . . . . . . . . . . . . . . . . . . . . . . 59
4.2.2. Concepto de p-valor de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4. Resumen de contrastes de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1. X N (, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.2. X Bernoulli(p) (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 63
4.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 65
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Distribuciones.

81

5.1. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81


5.1.1. Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.2. Binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

INDICE GENERAL

iii

5.1.3. Geometrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.4. Binomial negativa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.5. Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.6. Hipergeometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2. Variables continuas (v.a.c.). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.1. Uniforme en [a, b]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.2. Gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.3. Exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.4. Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.5. Normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.6. Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.7. 2n . Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.8. t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.9. F Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

iv

INDICE GENERAL

Pr
ologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es la de tener a
mano un recordatorio de por donde iban los tiros. Solo se demuestran los teoremas fundamentales y
se acompo
na el texto con una serie de ejercios mas o menos trabajados. En modo alguno pretenden
sustituir (porque es implosible) los manuales clasicos o las notas de clase de un profesor. Es decir,
estas notas estan confeccionadas a modo de refrito entre las notas de clase y de distintos libros
clasicos como los siguientes:
1.

Julian de la Horra. Estadstica Apliaca. Diaz de Santos (2003)

2.

M.A. Gomez Villegas Inferencia EstadsticaDiaz de Santos (2005)

3.

Novo, V. Problemas de Calculo de Probabilidades y Estadstica UNED (1993).

4.

Daniel Pe
na. Fundamentos de Estadstica. Alianza Editorial (2001)

5.

R. Velez Ibarrola et al. Principios de Inferencia Estadstica UNED (1993)

todo ello aderezado (como he indicado antes) con una serie de ejemplos (ejercicios donde se aplica
de forma inmediata los conceptos teoricos expuestos) desarrollados (eso espero) al final de cada
capitulillo (todos ellos muy sencillos).
Agradezco al Prof. Julian de la Horra el haberme pasado las secciones 3.4 y 4.4 de estas notas,
estas son enteramente suyas.
ADVERTENCIA: No estan concluidas y es muy posible que hayan sobrevivido numerosas erratas. Toda observacion en este sentido es bien recibida.

vi

INDICE GENERAL

Captulo 1

Muestreo aleatorio.
1.1.

Muestreo aleatorio simple.

Es el objetivo fundamental de la inferencia estadstica. Obtener conclusiones razonadas sobre una


caracterstica X de una poblacion a partir de los resultados de una muestra. Dicha caracterstica X
sera una variable aleatoria (v.a.) (discreta o contnua) y por lo tanto estara descrita por su funcion
de masa o de densidad, escrita de forma generica f.
Observaci
on 1.1.1 f no es completamente conocida.
Definici
on 1.1.1 Una muestra aleatoria (m.a.) de una caracterstica X cuya distribuci
on es f (x)
i.e. X f (x) , es un vector aleatorio (X1 , ...., Xn ) tal que
1.

La distribuci
on marginal de cada Xi viene dada por la misma distribuci
on que la caracterstica
n
i.e. (Xi )i=1 f (x) .

2.

(Xi )ni=1 son independientes.

El significado intuitivo es el siguiente.


a Las observaciones son representaciones de la poblacion que estoy estudiando.
b La muestra es con reemplazamiento.
1.

por simplicidad matematica (el caso no independiente es mucho mas complejo)

2.

la muestra es con reemplazamiento, significa que la muestra (su tama


no) es peque
no en
comparacion con la poblacion.

Fundamentalmente por lo tanto la funcion de masa o de densidad de una muestra aleatoria vendra dada por
Y
f (x1 , ....., xn ) =
f (xi ).
(1.1)
indpen.

i=1

CAPITULO 1. MUESTREO ALEATORIO.

Ejemplo 1.1.1 Supongamos que X es del tipo, estatura, etc... entonces es razonable pensar que
X N (, 2 ),
donde falta por conocer y 2 .

Un problema de inferencia parametrica es aquel en el que queremos estudiar una caracterstica


X f (x) , donde es el parametro a encontrar, (espacio parametrico). Nuestro proposito
sera encontrar conclusiones sobre por lo tanto la eq. (1.1) se reescribe como
Y
f (x1 , ....., xn ) =
f (xi ).
(1.2)
indpen.

i=1

Definici
on 1.1.2 Un estadstico T es una funci
on medible de la muestra T : Rn Rn . Formalmente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.

Ejemplo 1.1.2 Veamos algunos ejemplos de estadsticos:


1.

Media muestral

1X
X=
Xi ,
n

(1.3)

i=1

2.

Varianza muestral
n

2
1 X
1
Xi X =
var(X) =
n
n
i=1

3.

n
X

(1.4)

Cuasi-varianza muestral
n

2
1
1 X
Xi X =
S2 =
n1
n1
i=1

4.

i=1

Xi2 nX

n
X
i=1

Xi2 nX

(1.5)

Estasticos de orden
donde

X(1) , ......, X(n) ,

(1.6)

X(1) = mn (X1 , ...., Xn ) ,


...
X(n) = max (X1 , ...., Xn ) .

(1.7)

1.1. MUESTREO ALEATORIO SIMPLE.

Proposici
on 1.1.1 Propiedades de los estadsticos. Sea (X1 , ...., Xn ) una m.a. tal que E (X) =
y var(X) = 2 , entonces:
1.


E X = ,

se observa que
E

2.


var X =

1X
Xi
n
i=1

1X
indp. 1
nE [Xi ] =
E [Xi ] =
=
n
n
i=1

2
n ,

Vemos que

var X = var
3.

1X
Xi
n
i=1

n
!
X
2
1
indp. 1
Xi
= 2 var
= 2 nvar(Xi ) =
n
n
n
i=1


E S 2 = 2.

P
Pn
on anterior, que
Sea X = n1 ni=1 Xi , o
i=1 Xi . En general tenemos, a partir de la proposici


Pn
2
E X = , var X = n , etc... pero si estamos en la distribucion de X o en la de
i=1 Xi ,
que podemos hacer?. Estudiar su funcion caracterstica. Sea (X1 , ...., Xn ) una m.a. de X con
funcion caracterstica X (t), entonces encontramos que
Y
(1.8)
Xi (t) = nX (t),
P Xi (t) =
i.d.

indpen.

mientras que

t
t
= P ni=1 Xi ( ) = nX ( ),
n
n
basandonos en las propiedades de las funciones caractersticas.
X (t) = 1 P n
n

i=1

Xi (t)

(1.9)

Ejemplo 1.1.3 Sea (X1 , ...., Xn ) una m.a. de X N (, 2 ), con funci


on caracterstica X (t),
que podemos decir sobre la distribuci
on de la media muestral, X?. Vemos que
1 2 2

X (t) = eit 2 t

entonces teniendo en cuenta las f


ormulas anteriores encontramos que:
t
n t 2 2
1 t2 2
t
X (t) = nX ( ) = ein n 2 ( n ) = eit 2 n ,
n


2
donde observamos que E X = , y var X = n .

Volmemos otra vez sobre los estadsticos de orden.

CAPITULO 1. MUESTREO ALEATORIO.

Teorema 1.1.1 Consideramos una muestra aleatoria (X1 , ...., Xn ) , de X continua con una funci
on
de densidad f y una funci
on de distribuci
on F, entonces:
fX(j) =

n!
[F (x)]j1 f (x) [1 F (x)]nj .
(j 1)! (n j)!

(1.10)

Interpretamos esta formula de la siguiente manera;


[F (x)]j1 f (x) [1 F (x)]nj : probabilidad de cada posibilidad
n!
: n
umero de posibilidades.
(j 1)! (n j)!

y la podemos emplear de la siguiente forma.

Teorema 1.1.2 Sea (X1 , ...., Xn ) , de X continua con una funci


on de densidad f y una funci
on
de distribuci
on F, entonces:
n!
[F (u)]i1 f (u) [F (v) F (u)]j1i f (v) [1 F (v)]nj .
f(X(i) ,X(j) ) (u, v) =
(i 1)! (j 1 i)! (n j)!
(1.11)
Teorema 1.1.3 Sea (X1 , ...., Xn ) , de X continua con una funci
on de densidad f y una funci
on
de distribuci
on F, entonces:
n
Y
f(X(1) ,.....,X(n) ) = n!
f (xi ) .
(1.12)
i=1

1.2.

Inferencia param
etrica.

Sea (X1 , ...., Xn ) una m.a. de X f (X). Empezaremos repasando algunas de las propiedades
fundamentales sobre las principales distribuciones que se emplearan mas adelante y que se derivan
de la normal.
Definici
on 1.2.1 2n . Distribuci
on Chi-cuadrado con n-grados de libertad. Consideramos (X1 , ...., Xn )
v.a.i.i.d. que siguen una N (0, 1). Definimos
2n =

n
X

Xi2 .

(1.13)

i=1

Definici
on 1.2.2 t-Student, con n-grados de libertad, tn .
Considermos X N (0, 1) e Y 2n de tal forma que (X, Y ) son independientes, definimos
X
N (0, 1)
tn = q = p
Y
2n /n
n

(1.14)

1.3. ESTADISTICOS SUFICIENTES.

El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces fXY = fX fY


Definici
on 1.2.3 F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X 2m , e Y 2n
v.a.i. entonces definimos
X
2m /m
Xn
Fm,n = m
=
(1.15)
=
Y
Ym
2n /n
n
Teorema 1.2.1 Fisher. Sea (X1 , ...., Xn ) una m.a. de X N (, 2 ), entonces:
1.

n N (, 2 ),
X
n

2.

n y Sn2 son independientes,


X

3.
(n 1) Sn2
=
2

(Xi )2
2n1 ,
2

(1.16)

El segundo apartado del teorema es el resultado realmente importante.

1.3.

Estadsticos suficientes.

Empezaremos con una idea intuitiva. Como siempre consideramos (X1 , ...., Xn ) una m.a. de X
f (X). La muestra aleatoria (X1 , ...., Xn ) quedara reducida a un determinado estadstico T , que
pasaremos a denominar estadstico suficiente. Cuanta informacion perdemos al resumir la m.a. en
T ?. Llegamos a la conclusion de que si T es suficiente entoncesno hay perdida de informacion.
Definici
on 1.3.1 Estadstico suficiente. Sea (X1 , ...., Xn ) una m.a. de X f (X), Un estadstico
T es suficiente para si (X1 , ...., Xn | T = t) no depende de .
Esta definicion no ayuda demasiado a encontrar un estadstico ademas el calculo de las distribuciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema
Teorema 1.3.1 de Factorizaci
on. Consideramos (X1 , ...., Xn ) una m.a. de X f (X), entonces
T ser
a estadstico suficiente para sii f (x1 , ..., xn ) puede factorizarse de la siguiente forma:
f (x1 , ..., xn ) = g (t, ) h (x1 , ..., xn ) ,
donde t = T (x1 , ..., xn ) .

(1.17)

CAPITULO 1. MUESTREO ALEATORIO.

6
Ejemplo 1.3.1 Sea

(log ) x
I
(x) ,
> 1,
1 (0,1)
entonces un estadstico sufiente puede ser

n
n
n
Y
Y
(log ) n P xi Y
(log ) xi
I(0,1) (xi ) =

I(0,1) (xi )
f (xi ) =
1
1
f =

i=1

i=1

i=1

por lo tanto
T =

xi

ser
a un estadstico suficiente en virtud del teorema de factorizaci
on.
Ejemplo 1.3.2 Si

2x
I(0,) (x) ,
> 0,
2
entonces un estadstico sufiente puede ser
!
n
Y
T =
xi , X(n)
f =

i=1

ya que en virtud del teorema de facotrizaci


on tenemos que:
n Y
n
n
n
n
Y
Y
Y
2x
2
f (xi ) =
I(0,) (xi ) =
(x
)
I
(x
)
=
i
i
2 (0,)
2

i=1
i=1
i=1
i=1
n Y
n
2
=
(xi ) I(X(n) ,) () ,
2
i=1
por lo tanto

ser
a un estadstico suficiente y T =

n
Y
i=1

1.4.

T = X(n)
!

xi , X(n)

tambien.

Ejercicios.

Ejercicio 1.4.1

Sea (X1 , ...., Xn ) una muestra sin reemplazamiento de una poblaci


on finita
{x1 , ...., xN } ,

Probar que X1 y X2 no son independientes, pero tienen la misma distribuci


on.
(b) Sea (X1 , ...., X10 ) una muestra sin reemplazamiento de la poblaci
on finita:
{1, 2, ......, 1000}
Calcular la probabilidad de que todas las observaciones sean mayores que 200, primero de
manera exacta y despues de manera aproximada admitiendo independencia.

1.4. EJERCICIOS.

Soluci
on. Con respecto al primer apartado, vemos que las (Xi )ni=1 son v.a.i.d. pero no independientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que
P (X1 = x) =
P (X2 = x)
y por lo tanto

prob.total

1
,
N

P (X1 = y) P (X2 = x | X1 = y)

P (X2 = x) = P (X1 = x) P (X2 = x | X1 = x) +


=

y6=x

P (X1 = y) P (X2 = x | X1 = y) =

X 1
1
1
1
1
1
0+

= (N 1)

=
N
N N 1
N N 1
N

de esta forma vemos que siguen igual distribucion.


Para ver la independencia i.e.

P (X1 = x, X2 = y) = P (X1 = x) P (X2 = y)?


as que
P (X1 = x, X2 = x) = 0,
sin embargo

1 1

N N
por lo que no son independientes. Es grave esta perdida?,es importante?.
P (X1 = x) P2 (X2 = x) =

Sea (X1 , ...., X10 ) una muestra sin reemplazamiento de la poblacion finita:
{1, 2, ......, 1000}
queremos calcular
P (todas las observaciones sean > 200)
para ello definimos la v.a.
Y := n
umero de observaciones mayores que 200 entre las 10.
Calculo exacto: al no ser independientes los sucesos entonces las nBernoullis no forman una
Binomial sino una hipergeometrica

200
800
0
10

P (Y = 10) =
0,10616,
1000
10
mientras que el calculo aproximado lo haremos considerando que los sucesos son independientes y
por lo tanto siguen un Binomial Bin (n, p) , donde la probabilidad de exito vendra dada por

800

p = P Exito
=
= 0,8
1000

CAPITULO 1. MUESTREO ALEATORIO.

de esta forma llegamos al siguiente resultado:

10
P (Y = 10) = Bin (10, 0,8) =
(0,8)n (0,2)0 = (0,8)n 0,107,
10
por lo que la moraleja del ejercio es que no hay mucha perdida de informacion al considerar la
independencia.

Ejercicio 1.4.2 Supongamos que (X1 , ...., Xn+1 ) es una muestra aleatoria de una poblaci
on X con
2
E[X] = , y V (X) = , sea
n
X
n = 1
Xi .
X
n
i=1

Hallar la esperanza y la varianza del estadstico


r

n
n .
Xn+1 X
T =
n+1

Soluci
on. Vemos que
r

n
n
E [T ] = E
Xn+1 X
=0
n+1
r
r


n
n

n = 0,
=
E Xn+1 Xn =
E (Xn+1 ) E X
n+1
n+1

n = , mientras que
ya que E (Xn+1 ) = E X

n
n
n
n
Xn+1 X
=
var Xn+1 X
var [T ] = var
n+1
n+1

n
n
n 2cov Xn+1 , X
=
var (Xn+1 ) + var X
n+1
ya que no se de antemano si se tratade dos v.a. independientes, pero vemos que
n,
(X1 , ...., Xn+1 ) X

Xn+1 Xn+1 ,

n = 0, quedando la anterior expresion reducida a:


son independientes por lo cov Xn+1 , X

n
n ,
var (Xn+1 ) + var X
var [T ] =
n+1
ahora es facil comprobar que

quedando por lo tanto

var (Xn+1 ) = 2 ,
2

n =
var X
n
var [T ] =

tal y como queramos hacer ver.

n
n+1

2
2 +
= 2,
n

1.4. EJERCICIOS.

Ejercicio 1.4.3 Sea (X1 , ...., Xn ) una muestra aleatoria de una N (0, 1). Probar:
1.
2.

X12 Gamma a = 21 ; p = 12 , esta distribuci


on es la 21 .

Pn
n
1
2
2
i=1 Xi Gamma a = 2 ; p = 2 , que es la n .

Soluci
on. Con respecto al primer apartado vemos que:

1
1
2
X1 Gamma a = ; p =
2
2
donde

2
x
1

exp 1
X1 N (0, 1)
=
fX1 =
2
2

definimos la nueva v.a. Y = X12 , viendose as que X1 = Y . Teniendo en cuenta el jacobiano de


esta transformacion la funcion de distribucion de la nueva v.a. sera:
y
y 1
y 1
1
1
1
exp
fY =X12 = exp
+ exp
=
2 2 y
2 2 y
2
2y
2
2
donde

1
|J| =
2 y

por lo que

y
1
fY = exp
y 1/2 ,
2
2

y si tenemos en cuenta que

ap
exp (ax) xp1 ,
(p)

llegamos a la igualdad deseada puesto que a = 21 , p = 21 , (p) = , y ap =


f(a,p) =

1 .
2

Con respecto al segundo apartado vemos que


n
X
i=1

Xi2

1
n
Gamma a = , p =
2
2

operamos de forma parecida. Teniendo en cuenta las funciones caractersticas etc... vemos que al
ser independientes
n
X
Y
Xi2 =
X 2
i

i=1

(entiendase la expresion) de esta forma vemos que

Y
Y
1
it 2
n
it p
P
Gamma a = , p =
= 1
ni=1 X 2 =
X 2 =
1
i
i
a
1/2
2
2
donde la funcion caracterstica de la funcion Gamma es:

it p
(a,p) = 1
a
tal y como queramos hacer ver.

CAPITULO 1. MUESTREO ALEATORIO.

10

Ejercicio 1.4.4 Sea (X1 , ...., Xn ) una muestra aleatoria de una poblaci
on U (0, 1). Hallar la esperanza y la varianza de X(j) .
Soluci
on. En primer lugar recordemos que
fX(j) =

n!
[F (x)]j1 f (x) [1 F (x)]nj .
(j 1)! (n j)!

y que las propiedades de la funcion Beta son: funcion de densidad.


fX (t) =

1
xp1 (1 x)q1 I(0,1) (x),
B (p, q)

y su esperanza y varianza son:


E(X) =

p
,
p+q

var(X) =

pq
(p + q) (p + q + 1)
2

De esta forma vemos que necesitamos conocer la F (x) y la f (x) de la distribucion uniforme siendo
estas:
Z x
1dx = x,
x (0, 1) ,
f = 1,
F =

por lo que
fX(j)

=
=

n!
[F (x)]j1 f (x) [1 F (x)]nj =
(j 1)! (n j)!
n!
[x]j1 1 [1 x]nj Beta (p, q)
(j 1)! (n j)!

obteniendose de forma inmediata la analoga con la funcion beta


1
n!
(p + q)
=
=
B (p, q)
(j 1)! (n j)!
(p) (q)
con j = p, q = n j + 1. De esta forma
Z

xfX(j) =
E X(j) =

var X(j) =

j
p
=
,
p+q
n+1
j (n j + 1)
pq
=
,
2
(p + q) (p + q + 1)
(n + 1)2 (n + 2)

etc.... falta desarrollar todos estos calculos pesadsimos.

es la media de una muestra aleatoria (X1 , ...., Xn ) de una N (, 2 = 100),


Ejercicio 1.4.5 Si X
hallar n para que

< + 5 = 0,0954.
P 5<X

1.4. EJERCICIOS.

11

Soluci
on. Vemos que
N
X

100
10
,
= N ,
,
n
n

por lo que

donde

<+5 =P
P 5<X
Z=

5
10

<


X
10

<

+5
10



X
X
N (0, 1) ,
=

10/ n

as que la anterior expresion se reduce a:




5 n
5 n
P
<Z<
,
10
10
y por simetra se obtiene


1 0,0954
n
=
= 0,0230,
P Z>
2
2

por lo que

2...
mirar tablas
2

n 16,

tal y como queramos calcular.

Ejercicio 1.4.6 Sean (X1 , ...., X25 ) e (Y1 , ...., Y25 ) dos muestras aleatorias de dos distribuciones

> Y .
independientes N ( = 0, 2 = 16) y N ( = 1, 2 = 9) respectivamente. Calcular P X
Soluci
on. Vemos que
N ( = 0, 2 = 16),
(X1 , ...., X25 ) X
(Y1 , ...., Y25 ) Y N ( = 1, 2 = 9),

> Y . Lo que hacemos en este caso es lo siguiente:


y queremos calcular P X

> Y = P X
Y > 0 = P (Z > 1) = 0,1587
P X

Y N ( = 1, 2 = 1) y la normalizamos a Z N (0, 1) , obteniendo


donde la nueva v.a. X
el resultado requerido. Ver las propiedades de la distribucion normal en el u
ltimo captulo.

ESTAD
ISTICOS SUFICIENTES
Ejercicio 1.4.7 Encontrar un estadstico suficiente en cada uno de los siguientes casos basado en
una muestra aleatoria de tama
no n de:

CAPITULO 1. MUESTREO ALEATORIO.

12
1.

X Beta(, ).

2.

X Gamma(p, a).

3.
f (x) =

ex+ x (, ) ,
0
resto,

4.
f, =

x 2

exp

1
2
log (x ) ,
2 2

con x > 0.
Soluci
on. En todos los casos se trata de una aplicacion sistematica del teorema de factorizacion.
1. X Beta(, )
= (, )
1
x1 (1 x)1 ,
f =
B(, )
por lo que
f (x1 , ...., xn ) =

f (xi ) =

1
B(, )

n Y

x1
(1 xi )1 ,
i

de esta forma
f (x1 , ...., xn ) = K

x1
i

T =

(1 xi )1 = g(t, )h (x1 , ...., xn )

donde elejimos h (x1 , ...., xn ) = 1. Definimos por lo tanto el estadstico


x1
,
i

(1 xi )1

es el estadstico suficiente buscado para (, ). No obstante debemos resaltar que no se trata


del u
nico estadstico suficiente, la muestra en s misma es un estadstico suficiente o

X
X
log xi ,
log (1 xi )
T =

tambien es suficiciente ya que

log

xi = e

xi

=e

log xi

luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mismo, la moraleja esta en que dado cualquier estadstico suficiente (e.s.), entonces cualquier
transformacion biyectiva nos da otro e.s..

1.4. EJERCICIOS.

13

2. X Gamma(p, a), donde

f(a,p) =

ap
exp (ax) xp1
(p)

siguiendo el anterior esquema vemos que


f (x1 , ...., xn ) =

f (xi ) =

ap
(p)

n Y

exp (axi )

de esta forma llegamos a la conclusion de que


X Y
T =
xi ,
xi

xp1
i

es un estadstico suficiente para = (p, a).

Observaci
on 1.4.1 En realidad se han omitido los detalles m
as sangrientos, ya que hasta
que se llega al estadstico T , la verdad, hay que hacer unas cuantas cuentas:

Y
X
exp (axi ) = exp na
xi ,
Y
Y p1
=
.... . f (n, p)
xi
xi
manipular

3. X ex+ , con x > . Intentamos la misma argumentacion i.e.


i
h
P
Y
f (x1 , ...., xn ) =
f (xi ) = ex1 + ......exn + = en e xi
llegando a la conclusion de que

f (x1 , ...., xn ) = g(t, )h(xi )


por lo que podramos tomar
g(t, ) = en ,

h(xi ) = e

xi

de esta forma
T = n
sera el estadstico suficiente. NO. Hemos operado mal intencionadamente. Aqu hay que tener
muy en cuenta que x > , por lo que empezamos reescribiendo la f como
f = ex+ I(,) (x)
y volvemos a rehacer el ejercicio con esta nueva consideracion
P
Y
Y
Y
f (x1 , ...., xn ) =
f (xi ) =
exi + I(,) (xi ) = en
I(,) (xi )e xi
donde

g(t, ) = en I(,) (X(1) ),

h(xi ) = e

xi

Y
observar que
I(,) (xi ) = I(,) (X(1) ), donde X(1) = mn (x1 , ...., xn ) por lo que podemos
definir el e.s. T como

T = X(1) ,
sorprendente, no?.

CAPITULO 1. MUESTREO ALEATORIO.

14
4.

En este caso

1
2
log
(x

)
2 2
x 2
i.e. el modelo log-normal. En este caso el estadstico sufiente sera

X
X
log xi ,
log x2i .
T =
f, =

exp

Para llegar a esta conclusion podemos considerar (X1 , ...., Xn ) m.a. de X una N (, 2 ), por
lo que
X X
xi ,
x2i
T =

S 2 es un e.s.
sera un e.s. para este caso, aplicando el teorema de Fisher, entonces T = X,
(falta probarlo).

Ejercicio 1.4.8 Sea (X1 , ...., Xn ) una muestra aleatoria de X U (0, ), ( > 0). Estudiar la
suficiencia de T = X(n)
Soluci
on. Vemos que
1
1
=
f (x1 , ...., xn ) = I(0,) (xi )I(,) (xi )
fU = ,

aqu es donde esta toda la miga del problema, por lo que


n Y
Y
1
I(0,) (xi )
I(,) (xi )
f =

y al igual que antes observamos que


Y
Y

I(0,) (xi ) = I(0,) (X(1) ),

I(,) (xi ) = I(,) (X(n) ),

de esta forma llegamos a la conclusion de que


f (x1 , ...., xn ) = g(t, )h(xi )
por lo que podramos tomar
n
1
g(t, ) =
I(,) (X(n) ),

h(xi ) = I(0,) (X(1) )

obteniendo as T
T = X(n)
sera el estadstico suficiente. Lo principal del problema esta en ver
1
f (x1 , ...., xn ) = I(0,) (xi )I(,) (xi ),

lo cual no siempre es facil.

Captulo 2

Estimaci
on puntual
2.1.

Introducci
on

Sea (Xi )ni=1 una muestra aleatoria (m.a.) donde X f (x), , el parametro es lo que
queremos estimar. El objetivo es por lo tanto intentar decir algo sensato sobre a partir de los
datos que tenemos i.e. de la m.a. (Xi )ni=1 . Para ello podemos seguir tacticas:
1.

Estimacion puntual (el objeto de este captulo).

2.

Los intervalos de confianza.

3.

Contraste de hipotesis.

Los objetivos de la estimacion puntual son los siguientes: Estimar el parametro (o ()) mediante
un u
nico valor (un punto) a apartir de la muestra (Xi )ni=1 .
Definici
on 2.1.1 Sea (Xi )ni=1 m.a. donde X f (x), , un estimador puntual para es
simplemente un estadstico T = T (x1 , ..., xn ) cuyo objetivo es estimar lo mejor posible (
o ()).
Los metodos de construccion son los siguientes:
1.

Metodo de los momentos,

2.

Metodo de maxima verosimilitud,

3.

Metodos bayesianos.

Tal y como veremos el metodo de maxima verosimilitud es el metodo por excelencia.


15

PUNTUAL
CAPITULO 2. ESTIMACION

16

2.2.

M
etodo de los momentos

Definici
on 2.2.1 Sea (Xi )ni=1 m.a. donde X f (x), , un estimador puntual para por el
metodo de los momentos (MM) y denotado por , es el valor que se obtiene al resolver el siguiente
sistema de ecuaciones:
1X
Xi ,
n
..
.
h i
1X k
E X k =
Xi ,
n
E [X] =

(2.1)

Ejemplo 2.2.1 Sea (Xi )ni=1 m.a. donde X f (x), , donde X Bernoulli(p), lo que
queremos estimar es p as que
1X
Ep [X] =
Xi ,
n
por lo tanto
1X
p =
xi .
n
Ver la secci
on de ejercicios para aclarar este metodo con ejemplos m
as complicados.

2.3.

M
etodo de m
axima verosimilitud

Definici
on 2.3.1 Sea (Xi )ni=1 m.a. donde X f (x), . Definimos para cada muestra fija
n
on de verosimilitud L () = probabilidad o densidad que los diferentes valores de
(Xi )i=1 la funci
n
Y
dan a (Xi )ni=1 = f (xi )ni=1 =
f (xi ). Por lo tanto
i=1

L () =

n
Y

f (xi ).

i=1

El estimador de m
axima verosimilitud es el valor del par
ametro que maximiza L () .
Observaci
on 2.3.1 En la mayora de los casos para la obtenci
on de se maximiza la funci
on
log L() en vez de L()


2.4. METODOS
BAYESIANOS.

17

Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (Xi )ni=1 m.a. donde X f (x),
, donde X Bernoulli(p), i.e.
X Bernoulli(p) = px (1 p)1x ,
lo que queremos estimar es p as que
indp.

L(p) = Pp (x1 , .., xn ) =

n
Y

Pp (xi ) = p

i=1

xi

(1 p)n

xi

tomamos logaritmos
log (L(p)) =
y pasamos a calcular el m
aximo i.e.

despejamos p, encontr
andose que

X
xi log (p) + n
xi log (1 p)

p log (L(p)) = 0
1
X
1
xi n
xi
= 0
p
1p

p =

1X
xi .
n

Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa.

2.4.

M
etodos bayesianos.

2.4.1.

Introducci
on a los m
etodos bayesianos.

Sea (Xi )ni=1 m.a. donde X f (x), . En primer lugar advertir que en este caso cambia la
notacion y se emplea
f (x) = f (x | ) ,
(2.2)
considerando a como una v.a.
1.

Disponemos de informacion muestral


f (x1 , ..., xn ) = f (x1 , ..., xn | ) =

n
Y
i=1

f (xi | ).

(2.3)

2.

Nuevo. Disponemos de informacion previa sobre el parametro , que modelizamos mediante


una densidad a priori (no proviene de la muestra) () .

3.

Obtenemos la densidad conjunta


f (xi | ) () .

(2.4)

PUNTUAL
CAPITULO 2. ESTIMACION

18
4.

Obtenemos la densidad o funcion de masa de condicionada por (Xi )ni=1 , densidad a posteriori,
f (x1 , ..., xn | ) ()
( | x1 , ..., xn ) = R
f (xi | ) () .
(2.5)
f (x1 , ..., xn | ) d

esta expresion no es mas que la expresion de Bayes para el caculo de la probabilidad condicionada.

Los metodos bayesianos obtienen todas sus conclusiones sobre a partir de ( | xi ) (densidad
condicionada) que recibe el nombre de densidad a posteriori.
El problema en la practica esta en la eleccion de () . A menudo se utilizan familias conjungadas
de densidades a priori facilitandose as los calculos.
Definici
on 2.4.1 Familia conjungada. Sea (Xi )ni=1 m.a. donde X f (x | ) , . Una
familia P = { ()} de densidades a priori es conjungada para muestras de X f (x | ) cuando
() P, entonces
( | x1 , ..., xn ) f (xi | ) () P.
(2.6)
La idea en la practica es que cualquier tecnica estadsitica basada en metodos bayesianos obtendra conclusiones a partir de ( | xi ) .

2.4.2.

Estimadores puntuales bayesianos.

Un estimador puntual bayesiano sera una medida de centralizacion de la densidad a posteriori. Los
mas habituales son:
1.

Media a posteriori

2.

Mediana a posteriori
Z

( | x1 , ..., xn ) d,

(2.7)

1
( | x1 , ..., xn ) d = .
2

(2.8)

Ejemplo 2.4.1 Estimaci


on de = p = P (E), probabilidad de exito. Disponemos de una m.a.
(Xi )ni=1 donde

1 P (E) =
X=
0 P (F ) = 1
por lo que X Bernoulli(), tal que (0, 1) , as que sabemos que X f (x | ) = x (1 )1x .
Consideramos la siguiente densidad a priori
() Beta (p = a, q = b)

2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES.

19

por lo tanto la densidad a posteriori ser


a
n
Y

f (x1 , ..., xn | ) =

f (xi | ) =

i=1
a1

() =

xi

(1 )n

xi

(1 )b1
B(a, b)

entonces
( | x1 , ..., xn ) f (xi | ) ()
!

P
P a1 (1 )b1
n xi
xi

(1 )
B(a, b)
a+

xi 1

(1 )n+b

xi 1

Beta (p, q)

as llegamos a la conclusi
on de que
p=a+

xi ,

q =n+b

Entonces la media a posteriori ser


a
Z
Z
( | x1 , ..., xn ) d =

xi .

Beta (p, q) d
0

pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo
mejor en estos casos es fijarse en los resultados ya conocidos, por lo que
P
p
a + xi
E [Beta (p, q)] =
=
.
p+q
a+b+n
Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e.
hemos tomado una familia conjugada
P = {Beta (p, q) , p, q > 0}
si p = q = 1 = Beta (1, 1) U ([0, 1]) , la uniforme sera el caso en el que no tenemos ni idea
sobre . Si P (E) = = 12 (o se aproxima mucho a este valor) entonces tomamos p, q tales que 1/2
sea el m
aximo para la funci
on Beta (p, q) .

2.5.

Propiedades deseables de los estimadores.

2.5.1.

Error cuadr
atico medio. Estimadores insesgados.

Definici
on 2.5.1 El error cuadr
atico medio de un estimador T para estimar () es:
h
i Z
ECM = E (T ())2 = f (xi ) (T ())2 dxn .

(2.9)

PUNTUAL
CAPITULO 2. ESTIMACION

20

Si desarrollamos el formulon anterior entonces vemos que


h
i
ECM = E (T ())2 = var (T ) + (E [T ] ())2 ,

(2.10)

donde se define el sesgo como

sesgo := E [T ] () .

(2.11)

Definici
on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci
on del par
ametro
si E [T ] = () , i.e. el sesgo, (E [T ] () = 0) es cero i.e.
h
i
ECM = E (T ())2 = var (T ) + (E [T ] ())2 = var (T ) .
(2.12)

Ejemplo 2.5.1 Sea (Xi )ni=1 m.a. donde X N , 2 , donde = , 2 , entonces:


1.

2.

3.

es insesgado para estimar = () , ya que


T1 = X,

= = ()
E X

T2 = S 2 , es insesgado para estimar 2 = () , ya que



E S 2 = 2 = ()

1 P
2
xi X
recordar que S 2 = n1

T3 = var(X), es sesgado para estimar 2 = () , ya que


E [var(X)] 6= 2 = ()
por lo tanto se tratara de un estimador sesgado.

Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (Xi )ni=1 m.a. donde X f (x), .
para cualquier estimador T insesgado para () se verifica:

2
2

var (T )

d ()
d

Lema 2.5.1
E

"

d
d

d ()
d

h
2 i =
2 i .
d
nE d
log f (x1 , ..., xn )
log f (x)

2
2 #

d
d
log f (x)
= nE
log f (x)
d
d2

por lo tanto
var (T )

nE

d ()
d

d2
d2

i
log f (x)

(2.13)

(2.14)

(2.15)

2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES.

2.5.2.

21

Estimadores eficientes.

Definici
on 2.5.3 Un estimador T es eficiente para estimar un par
ametro () si:
1.

Es insesgado,

2.

Su varianza alcanza la cota de FCR

En consecuencia si es eficiente tiene mnima varianza. Al denominador de la cota de FCR (2.15)


recibe el nombre de informacion de Fisher.
Definici
on 2.5.4 Informaci
on de Fisher.
"
2 #
d
IF = E
log f (xi )
d

(2.16)

Obtenci
on de un estimador eficiente.
Si T es eficiente su varianza alcanza la cota de FCR por lo que

d
2
log f (xi ) = 1,
T,
d
el coeficiente de correlacion vale uno, de este modo casi seguro
y y =

cov(x, y)
(x x
)
var(x)

obtenemos la recta de regresion que traducimos en este caso como

d
log f (xi )) d
cov(T, d
d
log f (xi ) E
log f (xi )
T E [T ] =
d
d
d
log f (xi ))
var( d
d

de donde sabemos que E d


log f (xi ) = 0, desarrollando el formulon obtenemos el siguiente
resultado:
()
i (log f (xi )) ,
h
T = () +
(2.17)
d2
nE d2 log f (x)
i.e.

T =+

(log f ) ,
IF

observandose que
d
d
d
var(
d

cov(T,

E [T ] = () ,
d ()
log f (xi )) =
= () ,
d

d2
log f (x) ,
log f (xi )) = nE
d2

as que si T es eficiente entonces debe tener la pinta de (2.17). Si T no depende de , entonces


ser
a eficiente.

PUNTUAL
CAPITULO 2. ESTIMACION

22

2.5.3.

Estimadores consistentes.

Sea (Xi )ni=1 m.a. donde X f (x), . Queremos estimar (), Buscamos estimadores que se
aproximen todo lo posible a lo que queremos estimar a medida que el n
umero de observaciones n
crece i.e. T (Xi ) () i.e. hay convergencia en distribucion (en Ley). Buscamos estimadores que
L

funcionen bien asintoticamente.

Definici
on 2.5.5 Decimos que un estimador Tn es consistente para estimar () si el estimador
converge en probabilidad a () i.e.
P

Tn () .

(2.18)

Veamos las distintas formas de abordar el estudio de la consistencia.

1.

Supongamos que la funcion de distribucion FTn es sencilla de obtener. Estudiamos entonces


si

0 y < ()
L
(2.19)
FTn F (y) =
1 y ()
P

entonces Tn () y por lo tanto se trata de un estimador consistente para () .


Esta tactica suele ser u
til cuando estamos trabajando con maximos y mnimos
2.

Supongamos que Tn (t) son faciles de obtener y estudiamos la convergencia


lm Tn (t) = eit ()

(2.20)

entonces Tn () y por lo tanto se trata de un estimador consistente para () .


Esta tactica suele ser u
til cuando estamos trabajando con sumas y medias muestrales.

Teorema 2.5.2 Sea Tn un estimador tal que

1.

lmn var (Tn ) = 0,

2.

lmn E [Tn ] = () ,

entonces Tn es consistente para estimar () .

Teorema 2.5.3 Bajo ciertas condiciones de regularidad el estimador de m


axima verosimilitud es
consistente.

2.6. EJERCICIOS

2.6.

23

Ejercicios

Ejercicio 2.6.1 Dada una m.a. de tama


no n de una v.a. X calcular el estimador de m
axima
verosimilitud y el del los momentos en los siguentes casos:
1.

X P oisson(),

2.

X Exponencial(),

3.

X N (, 2 ), conocido,

4.

X N (, 2 ), conocido,

5.

X N (, 2 ).

Soluci
on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teora vemos que:
1. X P oisson(), Veremos los dos metodos
MM Sabemos que X P oisson(), = E [X] =
E [X] = =

1X
xi
n
i=1

por lo que

X
= 1
xi .

n
i=1

MMV Tomamos como funcion de verosimilitud


Pn
Y
en i=1 xi
L() =
P (xi ) =
(x1 !) ... (xn !)
tomando logaritmos entonces:

!
Pn
en i=1 xi
=
log (L()) = log
(x1 !) ... (xn !)
!
n
n
X
X
log ((xi )!)
= n +
xi log

i=1

i=1

y por lo tanto

log (L()) = 0,
!
n
X
1
= 0
n +
xi

i=1

despejando se llega con facilidad a:

X
= 1

xi
n
i=1

como era de esperar.

PUNTUAL
CAPITULO 2. ESTIMACION

24
2. X Exponencial(), por lo que

f (x) = ex ,

MM Sabemos que X exp(), = E [X] = 1


n

E [X] = 1 =

1X
xi
n
i=1

por lo que

= Pnn

i=1 xi

MMV Tomamos como funcion de verosimilitud


Pn
Y
L() =
f (xi ) = n e i=1 xi
tomando logaritmos entonces:

log (L()) = log e

Pn

i=1 xi

y por lo tanto
n
log (L()) = +

despejando se llega con facilidad a:


= Pnn

= n log

n
X
i=1

i=1 xi

como era de esperar.

xi

n
X

xi

i=1

=0

3. X N (, 2 ), conocido,
MM Sabemos que X N (, 2 ), = E [X] =
n

E [X] = =

1X
xi ,
n

i=1

1X
xi
n
i=1

MMV Tomamos como funcion de verosimilitud


L() =

f (xi ) =

tomando logaritmos entonces:

n
1 X
(xi )2
n exp 2
2
2
i=1

!!
n
1 X
2
log (L()) = log
=
(xi )
n exp 2
2
2
n
i=1

!
n

1 X
2
= n log n log
2
(xi )
2 2

i=1

2.6. EJERCICIOS

25

y por lo tanto

n
1 X
log (L()) = 2
xi n = 0

i=1

despejando se llega con facilidad a:


n

1X
xi .

=
n
i=1

como era de esperar.


4. X N (, 2 ), conocido,
MM Sabemos que X N (, 2 ) = E [X] =
n

E [X] = =

1X
xi
n
i=1

no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al
momento de orden 2 i.e.
n
1X
E X2 =
x2i
n
i=1


de donde se obtiene que (recordar la definicion de varianza, var(X) = E X 2 E [X]2 )
n

2 + 2 =

1X 2
xi
n
i=1

despejando

1X 2
xi 2

=
n
2

i=1

pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud
! Por ejemplo tomando = 3, xi = (1, 2, 4).
MMV Tomamos como funcion de verosimilitud
L() =

f (xi ) =

tomando logaritmos entonces:

n
1 X
(xi )2
n exp 2
2
2
i=1

log (L()) = n log n log


y por lo tanto

n
1 X
(xi )2
2 2
i=1

n
n
1 X
log (L()) = + 3
(xi )2 = 0,

i=1

PUNTUAL
CAPITULO 2. ESTIMACION

26
despejando se llega con facilidad a:
n

2 =

1X
(xi )2 .
n
i=1

como era de esperar. Aqu se ve que no siempre


2 =
2 , y que siempre el mejor etimador
2
sera el de MV i.e.
.
5. X N (, 2 ),
MM Sabemos que X N (, 2 )
n

1X
xi ,
E [X] = =
n

1X

=
xi ,
n

i=1

i=1

n

1X 2
E X 2 = 2 + 2 =
xi
n

2 =

i=1

1X
(xi )2 .
n
i=1

MMV Tomamos como funcion de verosimilitud


L(, ) =

f (xi ) =

tomando logaritmos entonces:

n
1 X
(xi )2
n exp 2
2
2
i=1

log (L(, )) = n log n log

n
1 X
(xi )2
2 2
i=1

y por lo tanto
log (L(, )) =

n
1 X
xi n = 0,
2
i=1

n
n
1 X
log (L(, )) = + 3
(xi )2 = 0,

i=1

despejando se llega con facilidad a:


n

1X
xi ,
n
i=1

2 =

1X
(xi )2 .
n
i=1

como era de esperar.

Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y
hallar la distribuci
on a posteriori.

2.6. EJERCICIOS

27

1.

(Xi )ni=1 es una m.a. de X P oisson(),

2.

(Xi )ni=1 es una m.a. de X Gamma (p = 1, a = )

(Xi )ni=1 es una m.a. de X N , var = 1r , donde r es conocido.

3.

Soluci
on. Seguimos el guion expuesto en el ejemplo de la teora
1.

(Xi )ni=1 es una m.a. de X P oisson(),


f (x) = P (x | ) =

e x
, x = 0, 1
x!

familia de muestras para una Pisson


P (x | ) =

P (xi | ) en

xi

P (x | ) es el n
ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)}
recordamos que
f

ap ax p1
e x
(p)

por lo que
()

a a p1
e
()

as que
( | x1 , ..., xn ) P (xi | ) () en

xi

P
a a p1
e
e(n+a) p+ xi 1
()

para > 0, por lo tanto

X
( | x1 , ..., xn ) Gamma p = +
xi , a = + n .

Ademas podemos calcular la media a posteriori


P
Z
+ xi
p
( | x1 , ..., xn ) d = =
a
+n

este sera un estimador puntual bayesiano.


2.

(Xi )ni=1 es una m.a. de X Gamma (p = 1, a = )


f (x) = f (x | ) =

x 11
e x
= ex ,
(1)

x>0

familia de muestras para una Poisson


P (x | ) =

P (xi | ) n e

xi

PUNTUAL
CAPITULO 2. ESTIMACION

28

P (x | ) es el n
ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)} ,
recordamos que
f

ap ax p1
e x ,
(p)

por lo que
()

a a p1
e ,
()

as que
( | x1 , ..., xn ) f (xi | ) () n e
para > 0. por lo tanto

xi

X
( | x1 , ..., xn ) Gamma p = +
xi , a = + n .

Ejercicio 2.6.3 Sea X una observaci


on de la densidad
f (x | ) =

2x
I(0,) (x) ,
2

> 0,

supongamos que tiene una distribuci


on a priori uniforme sobre (0, 1) . Hallar la mediana de la
distribuci
on a posteriori.
Soluci
on. Tenemos la siguiente situacion:
f (x | ) =

2x
I(0,) (x) ,
2

> 0,

y suponemos que
() = U [0, 1] = 1,

(0, 1) ,

entonces:

2x
2x
21= 2,

pero x (0, 1) , x < , por lo que (x, 1) , as que


( | xi ) f (xi | ) ()

(0, 1) ,

2x

f (xi | ) ()
x
2
,
( | xi ) R 1
= R 1 2x
= 2
(1 x)
x f (xi | ) d
x 2 d
Para calcular la media a posteriori vemos que
1
=
2

( | xi ) d =

x
d
(1 x)
2

(x, 1) .

2.6. EJERCICIOS

29

por lo que
M=

2x
,
1+x

tal y como queramos calcular.

Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador eficiente (si existe) en los siguientes
casos:
1.

m.a. de
f (x) =
para estimar

2.

m.a. de

x
1
exp
,

f (x) = (1 )x ,

> 0,

x > 0,

x = 0, 1..,

(0, 1) ,

para estimar
3.

m.a. de

x2
1
f (x) = exp 2 ,
2
2

para estimar , lo mismo para estimar 2 .


Soluci
on. Recordamos que
F CR =
nE

d 2
h d2

d log f (x)
d2

mientras que el estimador eficiente


+

d
d

i,

d log f (xi )
,
I.F isher
d

I.F. = nE

T =+

d2 log f (x)
d2

(log f ) ,
IF

as que:
1.

En este caso

x
1
exp
,
> 0,
x > 0,

por lo que tomando logaritmos tenemos que

x
1
x
log f (x) = log
exp
= log ,

f (x) =

y de forma inmediata se calculan las derivadas etc...

1
x
log f (x) = + 2 ,

1
2x
22 log f (x) =
2 3,

PUNTUAL
CAPITULO 2. ESTIMACION

30

de esta forma vemos que

1
1
2x
2
1
2
1
E 2 3 = 2 3 E [x] = 2 3 = 2

ya que
E [X] =
ademas podemos observar que

x
1
x exp
dx =

E [X] =

p
=
a

ya que p = 1, a = 1 . Por lo tanto:


F CR =
nE

d 2
h d2

d log f (x)
d2

Para calcular el estimador eficiente vemos que


f (xi ) =
tomando logaritmos
log (f (xi )) = log

i=

1
2
= .

n
n 12

P
1
xi
f (xi ) = n exp

P
P
1
xi
xi
exp

=
n
log

y por lo tanto
P
P

xi
xi
n
n
(log (f (xi ))) =
= + 2

de esta forma llegamos a que


T

2.

d
d

d log f (xi )
=
I.F isher
d P
P P

xi
2
1
n
xi
xi
n

=+
=
= +
+ 2
.
+ 2
1

n 2

= +

De forma mecanica vemos que


f (x) = (1 )x ,
es una geometrica
E [X] =

1
,

por lo que
F CR =
sin embargo
T =

2 (1 )
n

x = 0, 1..,

I.F. =

(0, 1) ,

n
(1 )
2

2 (1 )
n

d log f (xi )
d

= 2 2 2

xi

2.6. EJERCICIOS

31

i.e. no es un estimador eficiente. FALTA completar las cuentecillas.

P
log (f (xi )) = log n (1 ) xi .
P
d log f (xi )
xi
n
=

,
d

(1 )
3.

En este caso

1
x2
f (x) = exp 2 N 0, 2 ,
2
2

evitando pasos intermedios vemos que


F CR =
nE

d 2
hd2

d log f (x)
d 2

i=

1
nE

1
2

3x2
4

i=

1
n2

3n
E
4

[X 2 ]


observandose que: var(X) = E X 2 E2 [X]

E X 2 = var(X) + E2 [X] = var(X) = 2

ya que X N 0, 2 , as que
2
F CR =
.
2n
El estimador eficiente:

d
2 d log f (xi )
d log f (xi )
d
=+
T =+
I.F isher
d
2n
d
donde

d log f (xi )
d

d
log
=
d

entonces

P 2
P 2 !
xi
1
n
xi
= +
n exp
2
3
2

2
T =+
2n

P 2

n
xi
+
3

por lo que no hay estimador eiciente para .


Sin embargo si repetimos estas cuentecillas para 2 , vemos que
F CR =
nE

d 2
hd2

d log f (x)
d 2

mientras que el estimador eficiente verifica


T

luego T =

x2i
n

i=

4 2
n2 +

d
d

3n
2

2 4
.
n

d log f (xi )
=
I.F isher
d P
P

2
x2i
x2i
n
=
= 2 + 2n +

3
n
2

= +

es un estimador eficiente en este caso.

PUNTUAL
CAPITULO 2. ESTIMACION

32
Tal y comoqueramos hacer ver.

on tipo Poisson .
Ejercicio 2.6.5 Sea (Xi )ni=1 m.a. de una distribuci
1.
2.

Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de e .


P
Determinar el valor de la constante c tal que el estimador exp (c Xi ) sea un estimador
insesgado de e .

Soluci
on. De forma inmediata vemos que
F CR =
nE

d 2
hd2

d log f (x)
d2

i=

nE

e2
h 2

d log f (x)
d2

i=

e2
n

no olvidar que estamos estimando e .


P
T = exp (c Xi ) insesgado para estimar e .?? Recordamos que insesgado significa:
E [T ] () = 0

E [T ] = e

por lo tanto
h
X i Y
e = E [T ] = E exp c
Xi =
E [exp (cxi )] = (E [exp (cxi )])n
= (exp ( (1 ec )))n = exp (n (1 ec ))

despejando se obtiene

1
.
c = log 1
n
veamos un paso delicado de la anterior cadenas de igualdades:
E [exp (cx)] =

cx

P (X = x) =

X
x=0

x
cx e

x!

=e

x
X
(ec )
x=0

x!

= e ee .

tal y como queramos hacer ver.

Ejercicio 2.6.6 Sea (Xi )ni=1 m.a. de una distribuci


on tipo uniforme U (0, ) , > 0.
1.

Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de .

2.

Estudiar si X(n) es un estimador insesgado para .

3.

Hallar el estimador de m
axima verosimilitud para .

2.6. EJERCICIOS

33

Soluci
on. En este caso vemos que
Z

E [T ] = E X(n) =

tfX(n) (t)dt

para calcular fX(n) (t) puedo mirar la funcion de densidad del maximo:

FX(n) (t) =

t < 0,
t (0, ) ,
t > ,

tn
n

vemos que
FX(n) (t) =

0
1

P (Xi t) = (P (Xi t))n =

as
fX(n) =

n1

n t n
0

1
dx

tn
n

t (0, )
resto

de esta forma

E [T ] = E X(n) =

n Z
f dx
=

tfX(n) (t)dt =

n
tn
dt =

n
n+1

por lo que no es insesgado para estimar . Recordatorio: E [T ] () = 0.


Hallar el estimador de maxima verosimilitud para . En este caso
1
f (x) = ,

x (0, ) ,

por lo que la funcion


L () = f (xi ) =
as que
log L () = n log ,

f (xi ) =

1
,
n

log L () =

de esta forma llegamos a que


log L () =

n
=0

= ,

llegando as a una cagada monumental.


Rehacemos el camino para hacer ver que en esta ocasion f (x) = 1 , x (0, ) , pero L () = 1n , si
X(n) , en este caso el rango de las observaciones depende del parametro por lo que hay que ser
un poco mas cuidadoso a la hora de escribir las cosas. As se llega a la conclusion de que
= X(n)
tal y como queramos hacer ver.

PUNTUAL
CAPITULO 2. ESTIMACION

34
Ejercicio 2.6.7 Sea (Xi )ni=1 m.a. de la densidad
f (x) = exp (x) ,

x 0, > 0.

Encontrar el estimador de m
axima versimilitud de . Es consistente para ?.
Soluci
on. En este caso f (x) es una exponencial (ver primer ejercicio), ademas el rango no
P
depende del parametro. = Pnxi , Es consistente para ? .i.e. .?? Para verlo tendremos
h i
h i
n
n
que comprobar si E , y var 0.
Por lo tanto:

Z
hni Z n
h i
n n y n1
n

f (y) dy =
e y
dy =
=
=E
E = E P
Y
y
y (n)
xi
0
0
Z
n (n 1)
n
n
ey y n2 dy = n

= n
=
(n) 0
(n) n1
n1
por lo tanto

h i
hni
n
E = E
,
=
Y
n1

h i
n
E

P
en estos calculos hemos empleado los siguientes trucos: Y =
xi Gamma(p = n, a = ). las
exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X
Gamma(p, a) entonces:
Z
ap ax p1
(p)
f (x) =
e x ,
eax xp1 dx = p ,
(p) = (p 1) (p 1) .
(p)
a
0
Mientras que


h i

n
1
2

P
= n2 E Y 2 E 2 Y 1 =
var = var
= n var
Y
xi
Z

n
1
2
2
2
2
y n1
= n2
=
n
e
y
dy

y 2 (n)
(n 1) (n 2) (n 1)2
(n 1)2
0
h i
n
de esta forma var 0, as que es consistente.
Ejercicio 2.6.8 Sea (Xi )ni=1 m.a. de una distribuci
on tipo uniforme U (0, ) , (0, ) . Demostrar que X(n) es consistente para . Es Yn = 2X n consistente para ?
Soluci
on. Seguimos los mismos que en ejercicios anteriores viendo que

0 t < 0,
tn
FX(n) (t) =
t (0, ) ,
n

1 t > ,

2.6. EJERCICIOS

35

observamos que
FX(n) (t) =
comprobando que
L

0 t<0
1 t

X(n) D () X(n) X(n) consistente para .


Es Yn = 2X n consistente para ?. Esperamos que 2X n este cerca de .

n
E [Yn ] = E 2X n = 2E X n = 2E [X] = 2 = ,
2
var(X)
4 2
2 n
var(Yn ) = var(2X n ) = 4var(X n ) = 4
=
=
0,
n
n 12
3n
por lo que es consistente para . Sin embargo tiene una peque
na pega pues si tomamos X U (0, 10)
= 6, entonces Yn = 2X n = 12, por lo que a veces sobre-estima.
supongamos que X

Ejercicio 2.6.9 Sea (Xi )ni=1 m.a. de una distribuci


on discreta con funci
on de masa
P (X = x) = (1 )x1 ,
P

x = 1, 2, ..., (0, 1)

1.

Estudiar si T =

Xi , es un estadstico suficiente para .

2.

Hallar el estimador de por el metodo de los momentos,

3.

Obtener el estiamdor de m
axima verosimilitud de .

4.

Calcular la media de la distribuci


on a posteriori cuando la distribuci
on a priori para el
par
ametro (0, 1) .

5.

Calcular la cota de FCR para la varianza de los estiamdores insesgados para () = 1 .

6.

Hay estimador eficiente para estimar () = 1 ?.

Soluci
on. De forma telegrafica vemos que
1.

2.

S, aplicando el teorema de facotrizacion obtenemos


P
Y
(1 )xi 1 = n (1 ) xi n
P
por lo tanto T =
Xi , es un estadstico suficiente para
Sabemos que al tratarse de un geometrica

E [X] =
y por lo tanto

1
1
=
p

= Pn ,
xi

PUNTUAL
CAPITULO 2. ESTIMACION

36
3.

Vemos que
as que tomando logaritmos

P
L () = n (1 ) xi n

log L = n log +
calculamos el maximo, encontrando

xi n log (1 )

P
n ( xi n)

=0

(1 )
de esta forma llegamos a:

4.

= Pn ,
xi

X
( | xi ) Beta p = n + 1, q =
xi n + 1

La media a posteriori es:

E [X] =
5.

p
n+1
=P
p+q
xi + 2
T =

es eficiente para = 1 , donde


E [X] =

xi
n

1
x (1 )x1 = .

Captulo 3

Intervalos de confinaza
3.1.

Introducci
on

Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Como siempre queremos estimar .
Definici
on 3.1.1 Un estimador por intervalos de confienza para estimar i es una funci
on que a
n
cada muestra (Xi )i=1 le asigna un intervalo
(L, U ) = (L (xi )ni=1 , U (xi )ni=1 ) .
Definici
on 3.1.2 El nivel de confianza de un intervalo (L, U ) es 1 cuando
P { (L, U )} = P {(xi )ni=1 : L < < U } = 1 .
Consideramos los siguientes metodos de construccion
1.

Metodo clasico (cantidad pivotal), intervalos de confianza mas frecuentes en las aplicaciones.

2.

Metodos bayasianos.

3.2.

M
etodo de la cantidad pivotal.

Definici
on 3.2.1 Una cantidad pivotal para estimar i es una funci
on
T ((xi )ni=1 : i )
cuya distribuci
on no depende de i .
La idea es la de obtener una cantidad pivotal T para i , que sea una funcion continua y monotona
de i . Queremos hallar ( (1 ) , (2 )) tales que
P {(xi )ni=1 : (1 ) < T < (2 )} = 1 .
37

CAPITULO 3. INTERVALOS DE CONFINAZA

38

donde los ( (1 ) , (2 )) no dependen de i por ser T una cantidad pivotal.


Despejamos i de la anterior ecuacion i.e.
(1 ) < T
T < (2 )
obteniendo as (L, U ) .

3.2.1.
1.

Cantidades pivotales e intervalos de confianza m


as frecuentes.

(Xi )ni=1 m.a. de X f (x) = N , 20 donde 20 es una cantidad conocida. El objetivo es


estimar mediante IC con un nivel de confianza (NC) 1 .

Para ello seguiremos la siguiente tactica:

2
N , 0 y tipificando i.e.
Consideramos X
n


X
N (0, 1)
0/ n

nos preguntamos si
T =

0/ n

es una cantidad pivotal para estimar . Ademas, para una muestra fija es T continua y
monotona?. Ambas respuestas son afirmativas.
P {(xi )ni=1 : (1 ) < T < (2 )} = 1 ,


X
n
< (2 ) = 1 ,
P (xi )i=1 : (1 ) <
0/ n
vemos que T N (0, 1) entonces por simetra la u
ltima ecuacion la podemos reescribir como

P (xi )ni=1 : Z/2 < T < Z/2 = 1 ,


as que despejamos

Z/2 < T,

T < Z/2 ,

de donde obtenemos que


0
+ Z/2
<X
,
n

0
Z/2
>X
,
n

por lo que llegamos a:


IC1

= (L, U ) = X Z/2
.
n

Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimacion es
mas precisa). De igual forma se observa que al aumentar el NC 1 entonces Z/2 aumenta
i.e. la longitud del intervalo aumenta y por lo tanto la estimacion es menos precisa).


3.2. METODO
DE LA CANTIDAD PIVOTAL.
2.

39

(Xi )ni=1 m.a. de X N , 2 . El objetivo es estimar mediante IC con un nivel de confianza

2
N , 0 y
(NC) 1 . Podemos intentar seguir la tactica anterior i.e. consideramos X
n

tipificando i.e.


X
N (0, 1) ,
/ n

y nos preguntamos si
T =

/ n

es una cantidad pivotal para estimar . Ademas, para una muestra fija es T continua y
monotona?. En esta caso no, ya que T depende de un parametro desconocido, , por lo tanto
no puede ser cantidad pivotal.
En este caso deberemos apelar al teorema de Fisher (recordar el primer captulillo) viendo
que

(n 1) S 2
X
N (0, 1) ,
2n1
2
/ n
por lo tanto

/ n


X
q
tn1
=
=q
S/ n
(n1)S 2
2n1 / (n 1)
/
(n

1)
2
N (0, 1)

por lo tanto si definimos

T =

S/ n

ahora s es cantidad pivotal para estimar . Por lo tanto y siguiendo el procedimiento anterior
vemos que

P tn1;/2 < T < tn1;/2 = 1

donde hemos vuelto a tener en cuenta las simetras de la distribucion. As que despejando se
llega a que

IC1 () = X tn1;/2
.
n
Siguiendo los mismos paso, podemos ahora estimar 2 . Para ello consideramos
T =

(n 1) S 2
,
2

como cantidad pivotal y obtenemos por lo tanto

!
2
(n 1) S 2 (n 1) S 2
IC1 =
,
.
2n1;/2 2n1;1/2
3.

(Xi )ni=1 m.a. de X Bernoulli(p). El objetivo es estimar p mediante IC con un nivel de


confianza (NC) 1 . En este caso seguremos las siguientes consideraciones:
n
X
i=1

Xi = # exitos Bin (n, p)

T a De Moivre

N = np, 2 = npq

CAPITULO 3. INTERVALOS DE CONFINAZA

40
por lo tanto

n
X
i=1

tipificando

Xi N = np, 2 = npq
Pn
Xi np
pi=1
N (0, 1)
np (1 p)

arreglando las cuentecillas llegamos a

p
p
p
X
X
X
q
q
=q
N (0, 1)
(1X
)
p(1p)
p(1
p)
X
n

as que

p
X
.
T =q
(1X
)
X
n

observamos que para llegar a este resultado hemos utilizado resultdos previos como p = X.
Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que

Z/2 X 1 X .
IC1 (p) = X
n

3.2.2.

Cantidad pivotal general.

Sea (Xi )ni=1 m.a. de X F distribucion continua. Podemos definir una cantidad pivotal generica
como sigue:
n
X
T =
log F (xi )
i=1

es cantidad pivotal para estimar el parametro , pues depende de (Xi )ni=1 y y se comprueba con
facilidad que la funcion de distribucion de T no depende de .
Definici
on 3.2.2 Definimos el error en la estimaci
on de un intervalo de confienaza como
E=

longitud del intervalo


.
2

En muchos estudios es muy interesante saber el tama


no muestral necesario para obtener un error
en la estimacion inferior a E.

Ejemplo 3.2.1 Sea (Xi )ni=1 m.a. de X N , 20 donde 20 es una cantidad conocida. Cu
al es
el mnimo valor de n para que el error en la estimaci
on de un intervalo con nivel de confianza 1
sea inferior a E?

3.3. INTERVALOS DE CONFIANZA BAYESIANOS.

41

Sabemos que
IC1 =
por lo tanto

0
Z/2
X
n

0
E = Z/2
n

por lo que de aqu despejamos n

Z/2 0 E n

as que

3.3.

Z/2 0
E

Intervalos de confianza bayesianos.

Sea (Xi )ni=1 m.a. de X f (X | ) donde . Tenemos la informacion muestral (verosimilitud)


f (x1 , ...., xn | ) =
y de la informacion a priori

n
Y
f (xi | )
i=1

()
as que aplicando Bayes
()
( | x1 , ...., xn ) =

n
Y
f (xi | )
i=1
n
Y

()

i=1

f (xi | )

() f (x1 , ...., xn | )

y todas las conclusiones las obtendremos a partir de ( | x1 , ...., xn ) la distribucion a posteriori.


Definici
on 3.3.1 Un intervalo de confianza bayesiano al nivel 1 es un intervalo (L, U ) tal que
Z U
( | x1 , ...., xn ) d = 1 .
L

Definici
on 3.3.2 El intervalo de confianza bayesiano con m
axima densidad a posteriori (HPD) al
nivel 1 es el intervalo (L, U ) tal que
Z U
( | x1 , ...., xn ) d = 1 ,
L

y 1 (L, U ) y 2
/ (L, U ) ,
(1 | x1 , ...., xn ) > (2 | x1 , ...., xn ) .
El intervalo HPD es el de mnima longitud para un nivel 1 fijado.

CAPITULO 3. INTERVALOS DE CONFINAZA

42

3.4.

Resumen de intervalos
INTERVALOS DE CONFIANZA

NOTACION:
(X1 , . . . , Xn ) muestra aleatoria (m. a.) de X.
x
=

3.4.1.

1X
xi
n

s2 =

1 X
(xi x
)2 .
n1

X N (, )

Intervalos de confianza 1 para :


1. conocida:

I= x
z/2
.
n
2. desconocida
I=

s
x
tn1;/2
n

Intervalo de confianza 1 para 2 :


I=

3.4.2.

(n 1)s2
(n 1)s2
,
2n1;/2
2n1;1/2

X Bernoulli(p) (muestras grandes).

Intervalo de confianza 1 para p:


I=

3.4.3.

x
z/2

x
(1 x
)
n

X Poisson() (muestras grandes)

Intervalo de confianza 1 para :

p
/n .
I= x
z/2 x

3.4. RESUMEN DE INTERVALOS

3.4.4.

43

Dos poblaciones Normales independientes

X N (1 , 1 ); (X1 , . . . , Xn1 ) m. a. de X; se calcula x


y s21 .
Y N (2 , 2 ); (Y1 , . . . , Yn2 ) m. a. de Y ; se calcula y y s22 .
s2p =

(n1 1)s21 + (n2 1)s22


.
n1 + n2 2

Intervalos de confianza 1 para 1 2 :


1. 1 , 2 conocidas:

2. 1 , 2 desconocidas, 1 = 2 :
I=

y z/2
I = x

21

n1

x
y tn1 +n2 2;/2 sp

22
n2

1
1
+
n1 n2

3. 1 , 2 desconocidas, 1 6= 2 :

I = x
y tf ;/2

s21
n1

donde f = entero mas proximo a

s22
n2

(s21 /n1 + s22 /n2 )2


(s21 /n1 )2
n1 1

(s22 /n2 )2
n2 1

Intervalo de confianza 1 para 21 / 22 :


I=

3.4.5.

s21 /s22
Fn1 1;n2 1;/2

s21 /s22
Fn1 1;n2 1;1/2

Comparaci
on de proporciones (muestras grandes e independientes)

X Bernoulli(p1 ); (X1 , . . . Xn1 ) m. a. de X.


Y Bernoulli(p2 ); (Y1 , . . . Yn2 ) m. a. de Y .
Intervalo de confianza 1 para p1 p2 :

s
y z/2
I = x

x
(1 x
) y(1 y)
+
.
n1
n2

CAPITULO 3. INTERVALOS DE CONFINAZA

44

3.5.

Ejercicios

Ejercicio 3.5.1 Sea (X1 , X2, X3 , X4 ) una m.a. de X N , 2 = 1 . Hallar el nivel de confianza
1, X
+1 .
del estimador por intervalos X
Soluci
on. Queremos calcular el NC que como sabemos
n

1, X
+ 1 = P X
1<<X
+1
N C = P (Xi )4i=1 : X
si tenemos en cuenta que
P
Xi

X=
= ,
n

N
X

2
,
n

entonces

1<<X
+1 =P
P X

1
= N ,
,
4

= 1/2,


X
+1
1
<
<
1/2
1/2
1/2

simplificando queda:

donde como es habitual Z =


expresion queda reducida a:

X
1/2 .

P {2 < Z < 2}
Teniendo en cuenta las simetras de la N (0, 1) la anterior
2P (Z > 2) = 0,9544

donde dicho valor se ha obtenido de las tablas para la nornal tipificada.

Ejercicio 3.5.2 Sea (Xi )ni=1 una m.a. de X U (0, ) , > 0.


1.
2.

Nivel de confianza del estimador por intervalos aX(n) , bX(n) tal que 1 a < b.

Hallar P X(n) + c, X(n) + d tal que 1 c < d.

Soluci
on. Para el primero de los apartados vemos que

[L, U ] = aX(n) , bX(n) ,

1 a < b,

por lo tanto el NC sera

N C = P {(Xi )ni=1 : [L, U ]} = P aX(n) < < bX(n)

o lo que es lo mismo

< X(n) <


b
a

recordar que X(n) = m


ax(Xi ). Ademas si rememoramos las cuentecillas del primer capitulillo vemos
que
fX(n) = n [FX (t)]n1 fX (t)

3.5. EJERCICIOS

45

as que
fX(n) = n

n1
t
1
ntn1
=
,

t (0, )

por lo tanto
P

< X(n) <


b
a

fX(n) dt =

1
1
ntn1
dt = n n
n
a
b

y como vemos en este caso no depende de .


En el segundo de los casos vemos que

[L, U ] = X(n) + c, X(n) + d ,

1 c < d,

as que seguimos el mismo procedimiento por lo que llegamos sin problemas a:

d n
c n
1
P X(n) + c < < X(n) + d = P d < X(n) < c = 1

al depender de no se le llama nivel de confienza.

Ejercicio 3.5.3 Sea (Xi )ni=1 una m.a. de X cuya densidad viene dada por

ex x > 0
f (x | ) =
0
resto
P
probar que T = ni=1 Xi es una cantidad pivotal y obtener los intervalos de confianza correspondintes.
Soluci
on. Observamos que T es funcion solo de la muestra y del parametro y tenemos que ver que
la distribucion es funcion continua y monotona.
X f
definimos la v.a. Y = X as que aplicando el c.v.
T =

n
X

Xi =

n
X
i=1

i=1

Yi Gamma (p = n, a = 1)

vemos que si
Y = X
por lo tanto

X=

dX
y
= e 1 = ey ,
fY = fX

dY

dX
1
=
dY

y (0, )

ademas se observa que fY Gamma (p = 1, a = 1) . De esta forma vemos que al solo depender de
(Xi )ni=1 se trata de una cantidad pivotal para el parametro , igualmente se observa que es continua
y monotona creciente en .

CAPITULO 3. INTERVALOS DE CONFINAZA

46
Buscamos ahora (1 , 2 ) tales que

P {1 < T < 2 } = 1
as que teniendo en cuenta las simetras de la funcion gamma etc... despejamos y vemos que
(
)
n
X
Xi < 2 = 1
P 1 <
i=1

1 <

n
X

Xi ,

()
P1n
<
i=1 Xi

i=1

n
X

Xi < 2 ,

IC1 () =

i=1

por lo tanto el IC sera

Para obetener los (1 , 2 ) calculamos


1 ()

2 ()
< Pn
i=1 Xi

2 ()
()
P1n
, Pn
i=1 Xi
i=1 Xi

fT dt = ,
2

fT dt =
2 ()

,
2

donde
T =

n
X
i=1

fT (t) =

Xi Gamma (p = n, a = 1)

1 t n1
e t
,
(n)

t > 0,

tal y como queramos hacer ver.

Ejercicio 3.5.4 Sea (Xi )ni=1 una m.a. de X cuya densidad viene dada por
(x)
e
x>>0
f (x | ) =
0
resto
Hallar el intervalo bayesiano de m
axima densidad a posteriori con nivel 4/5 si la densidad a priori
viene dada por

e
>0
.
() =
0 resto
Soluci
on. Teniendo en cuenta resultados del captulo anterior vemos que
n
P
P
Y
( | Xi ) () f (xi | ) = e e xi +n = e(n1) xi e(n1) ,
i=1

0, X(1)

3.5. EJERCICIOS
el termino e

xi

47

lo hemos suprimido al tratarse de una constante. Por lo tanto

integrando vemos que

e(n1)
( | xi ) = R X
(1) (n1)
e
d
0
( | xi ) =

0, X(1)

e(n1)

(n1)X(1)
1
e

1
n1

0, X(1)

de esta forma el intervalo bayesiano viene dado por

(L, U ) = 1 , X(1)

tal que
Z

X(1)

( | xi ) d = 1 =

4
5

as que
Z

X(1)
1

por lo tanto integrando obtenemos

e(n1)
1
n1

(n1)X(1)

d =

4
5

e(n1)X(1) e(n1)1
4
=
5
e(n1)X(1) 1
y tomando logaritmos
1 =

1
e(n1)X(1) 1
log e(n1)X(1)
n1
5

tal y como queramos hacer ver.

on a
Ejercicio 3.5.5 Sea (Xi )ni=1 una m.a. de X N , 2 = 1 y supongamos que la distribuci
priori viene dada por N (0, 1) . Hallar el IC bayesiano (L, U ) de m
axima densidad a posteriori con
NC 1 .
Soluci
on. Teniendo en cuenta resultados del captulo anterior vemos que

1
xi
1
+ nrX
,
,
=N
( | xi ) N
+ nr + nr
n+1 n+1
ya que = r = 1 y = 0. Apelando a las simetras de la normal entonces:
P
P

xi
xi
a, 2 =
+a
(L, U ) = 1 =
n+1
n+1

CAPITULO 3. INTERVALOS DE CONFINAZA

48
as que
Z

i.e.
P

( | xi ) d = 1

xi
xi
a<Y <
+a =1
n+1
n+1

donde Y ( | xi ) . As que tipificando vemos que


P
P
P
xi
xi a xi
Y

n+1
n+1
q
< q n+1 <
P

1
1
n+1

simplificamos

o lo que es lo mismo

n+1

xi
n+1

+a
q
1
n+1

xi
n+1

P a n + 1 < Z < a n + 1 = 1

=1

P Z >a n+1 =
2

por lo tanto despejando a

a n + 1 = Z/2

Z/2
a=
n+1

de esta forma vemos que


(L, U ) =

Z/2
Z/2
xi
xi
,

+
n+1
n+1 n+1
n+1

tal y como queramos hacer ver.

Ejercicio 3.5.6 Sea X una observaci


on de la densidad

x1 x (0, 1) , > 0
,
f (x) =
0
resto
1.

Hallar la densidad de la variable aleatoria Y = log X.

2.

Hallar el nivel de confianza del siguiente estimador por IC para

1
1
,
I=
2 ( log X) log X
Estudiar si T = log X es una cantidad pivotal para .

3.

Hallar la densidad a priori para si la distribuci


on a priori es la unifirme en (0, 1) y el valor
observado es x = 1/e. Indicar cu
al sera, en este caso, la forma del intervalo de confianza
bayesiano de m
axima densidad a posteriori (para un NC 1 .

3.5. EJERCICIOS

49

Soluci
on. Vemos que Y = log X, consideramos el c.v.
y = log x,

y = log x,

dx
= ey
dy

x = ey ,

por lo tanto

luego


dx

1 y
e = ey
fY (y) = fX (x) = x1 ey = ey
dy
fY (y) =

ey (0, ) ,
.
0
resto

Para calcular el nivel de confianza seguimos los mismos pasos como en los ejercicios anteriores y
vemos que (se trata simplemente de despejar en y)
NC = P

1
1
Y
2

= e1/2 e1 .

De igual forma vemos que la densidad T = log X (utlizando el c.v. anterior) se llega a
fT =

et t > 0,
.
0 resto

Por ultimo
( | xi ) e1 , si (0, 1)
por lo tanto
( | xi ) =

e1
e2

(0, 1) ,
resto

x = 1/e

e I = (a, 1)

Ejercicio 3.5.7 En una poblaci


on se desea conocer la probabilidad de que un individuo sea alergico
al polen de las acacias. En 100 individuos tomados al azar se observaron 10 alergicos. Hallar el
IC al 95 % para la probabilidad pedida. Cu
antos individuos se deberan observar para que con
probabilidad 0,95 el error m
aximo en la estimaci
on de la proporci
on de alergicos sea del 0,01?
Soluci
on. La estrategia en estos casos es siempre la misma. Consideramos la v.a. X y queremos
estimar la probabilidad de ser alergico i.e. si/no (Bernoulli(p), exito/fracaso). Entonces tenemos
(Xi )ni=1 una m.a. de X Bernoulli(p) (con n = 100 grande) y por lo tanto del resultado de teora
sabemos que
s
!

Z/2 X 1 X
Z/2 p (1 p) = X
IC0,95 = X
n
n

CAPITULO 3. INTERVALOS DE CONFINAZA

50
y lo u
nico que hacemos es calcular

Xi
no alergicos
10
=
=
= 0,10,
n
n
100
= Z0,025 = 1, 96

=
X
Z/2

as que
IC0,95 =

0,10 1,96

(0,10) (0,90)
100

= (0,04, 0,16)

i.e. la proporcion de alergicos esta entre un 4 % y un 16 %.


Queremos ahora estimar el valor de n para obetener un error maximo de 0,01 (1 %) a un NC del
95 %. Sabemos que
s

1X

X
error = Z/2
< 0,01
n
la obetenida en la prueba piloto i.e. X
= 0,10, por lo tanto
y tomamos como estimacion para X
r
(0,10) (0,90)
1,96
< 0,01
n
y despejamos n obteniendo
n > 3458
por lo que concluimos que necesitamos del orden de 3500 pruebas para hacer un buen estudio.

Ejercicio 3.5.8 Se supone que el n


umero de erratas por p
agina en un libro sigue una P oisson ().
Elegidas al azar 95 p
aginas se obtienen los siguientes resultados
No erratas 0 1 2 3 4 5
No p
agina 40 30 15 7 2 1
hallar intervalos de confianza al 90 % para el n
umero medio de erratas por p
agina en todo el libro.
Soluci
on. Como en el ejercicio anterior podramos modelizar la situacion de la siguiente manera:
X Bernoulli(p)
errata/correcto, pero como en este caso tenemos n paginas entonces nBernoullis se convierten en
Binomial (n, p) . Pero de forma operativa si n es grande y p peque
na entonces es mejor aproximar
la binomial por una P oisson ( = np) de la que sabemos que E [X] = .
Por lo tanto queremos estimar
s
r

Z/2 X
Z/2
=X
IC0,90 () = X
n
n

3.5. EJERCICIOS

51

en este caso tenemos que


Z/2 = 1,64,
P
Xi
(40 0) + (30 1) + .... + (1 5)

X=
=
= 0,98,
n
95
por lo que
IC0,90 () = (0,82, 1,16) .
Si queremos afinar mas entonces hacemos lo mismo que en el ejercicio anterior i.e.
r

X
error = Z/2
n
y despejamos n.

Ejercicio 3.5.9 Se mide el tiempo (en segundos) de duraci


on de un proceso qumico realizado 20
veces en condiciones similares obteniendose los siguientes resultados
93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92, 87, 88, 90, 86
suponiendo que la duraci
on sigue una dostribuci
on normal hallar los IC al 90 % para ambos par
ametros.

2
Soluci
on. Tenemos por lo tanto (Xi )20
i=1 m.a. de X N , , para estimar a un NC del 90 %
tenemos

IC90 % () = X tn1;/2
= X tn1;/2
= (90,11, 92,39)
n
n
ya que
P
Xi
=
= 91,25
X
n

1 X
2 = 8,61,
2= 1
S2 =
Xi2 20X
= S = 2,94,
Xi X
n1
19
tn1;/2 = t19;0,005 = 1, 729.
Como en ejercicios anteriores si queremos mas precision para estimar entonces tendremos que
hacer mas ensayos, de esta forma
2,94
2,94

error = tn1;/2 Z/2 = Z0,05


n
n
n
y despejamos n. Vemos que hemos cambiado de la t-student a la normal, esto es as ya que cuando
n entonces tn1;/2 Z/2
Para estimar 2 con un nivel de confianza del 90 %
!

2
19 (8,61) 19 (8,61)
(n 1) S 2 (n 1) S 2
,
=
,
= (5,43, 16,19)
IC90 % =
30,144
10,117
2n1;/2 2n1;1/2

CAPITULO 3. INTERVALOS DE CONFINAZA

52
as

IC90 % () = (2,33, 4,02)


tal y como queramos hacer ver.

Ejercicio 3.5.10 En una poblaci


on la altura de los individuos varones sigue una N (, 7, 5) . Hallar
el tama
no de la muestra para estimar con un error inferior a 2cm con un NC del 0,90.
Soluci
on. Como en los ejercicios ateriores la situacion es la siguiente:
error 2
por lo tanto si
IC0,90
entonces

= X Z/2
n

error = Z/2 2
n

n 38

tal y como queramos hacer ver.

Ejercicio 3.5.11 Se intenta estudiar la influencia de la hipertensi


on en los padres sobre la presi
on
sangunea de los hijos. Para ello se seleccionan dos grupos de ni
nos, uno con padres de presi
on
sangunea normal (G1) y el otro con padres hipertensos (G2) obteniendose las siguientes presiones
sist
olicas:
G1 104 88 100 98 102 92 96 100 96 96
G2 100 102 96 106 110 110 120 112 112 90
hallar el IC para la diferencia de las medias suponiendo que las varianzas en las de los ni
nos son
iguales.
Soluci
on. La situacion es la siguiente. Disponemos de dos m.a.

(Xi )ni=1 m.a. de X N 1 , 21

(Yi )ni=1 m.a. de Y N 2 , 22

donde estamos suponiendo que 21 = 22 . Queremos estimar la diferencia de presiones medias en las
poblaciones con un NC del 95 %.
son las poblciones independientes? podemos tener estas dos situaciones:
1.- Datos estan emparejados, entonces las poblaciones NO son independeintes,
2.- Datos no emparejados, por lo tanto las poblaciones son independientes.

3.5. EJERCICIOS

53

En este caso seobserva que las dos poblaciones son independientes y por lo tanto utilizaremos el
siguiente formulon:

!
r
1
1
Y tm+n2;/2 Sp
IC1 (1 2 ) = X
+
m n
donde

9 (22,4) + 9 (78,6)
(m 1) S12 + (n 1) S22
=
= 50,51
m+n2
18
es la varianza residual. De esta forma

!
r
p
1
1
IC1 (1 2 ) = 97,2 105,8 (2,101) 50,51
+
= (15,28, 1,92) .
10 10
Sp2 =

Si las muestras no son independientes entonces lo que habra que hacer sera lo siguiente. Considerar

(Xi Yi )ni=1 m.a. de D = (X Y ) N 1 2 , 2


y el formulon a aplicar en esta ocasion sera:
IC1 (1 2 ) =

Sdif
(X Y ) tn1;/2
n

donde (X Y ) representa la media de las diferencias.

54

CAPITULO 3. INTERVALOS DE CONFINAZA

Captulo 4

Contraste de hip
otesis
4.1.

Introducci
on

Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Como siempre queremos estimar
.Queremos elegir entre dos posibilidades
Hipotesis nula: H0 : 0 ,

Hipotesis alternativa : H1 : 1 = c0 ,
Definici
on 4.1.1 Un test de hip
otesis para contrastar H0 : 0 , frente a H1 : 1 consiste
en dividir el espacio muestral en dos regiones complementarias:
R : regi
on de rechazo de H0 (Regi
on Crtica), si (x1 , ..., xn ) R, entonces rechazamos H0 .
A : region de aceptaci
on de H0 , si (x1 , ..., xn ) A, entonces acpetamos H0 .
Errores que se pueden cometer:
1. Error de tipo I: Rechazar la hipotesis nula, H0 , cuando 0 ,
2. Error de tipo II: Aceptar H0 , cuando 1 ,
Se suelen elegir H0 , H1 de modo que el error de tipo I sea el mas serio.
Definici
on 4.1.2 La funci
on de potencia de un test con regi
on crtica R es la siguiente funci
on
de :
R () = P (R)

i.e. la probabilidad de rechazar H0 cuando el verdadero valor del par


ametro es .
Situacion ideal.
P (error de tipo I) = 0,
P (error de tipo II) = 0,
55


CAPITULO 4. CONTRASTE DE HIPOTESIS

56

Definici
on 4.1.3 El nivel de significaci
on o tama
no de un test R para contrastar H0 : 0
frente a H1 : 1 es:
= sup P (R)
0

i.e. m
axima probabilidad de rechazar H0 cuando H0 es cierta o lo que es lo mismo, la m
axima
probabilidad de cometer un error de tipo I.
Se suelen utilizar test de hipotesis que tienen un nivel de significacion, 0,01, 0,05, 0,1.
Veremos dos metodos de construccion de un test:
1.

Metodo de la razon de verosimilitud,

2.

Metodo bayesiano.

4.2.

M
etodo de la raz
on de verosimilitud.

El estadstico utilizado en este metodo es:


sup f (x1 , ..., xn )

(x1 , ..., xn ) =

supf (x1 , ..., xn )

sup L ()
=

supL ()

i.e. el cociente entre la maxima verosimilitud que da a la muestra y la maxima verosimilitud de la


muestra. Vemos que (x1 , ..., xn ) [0, 1] y que por lo tanto
(x1 , ..., xn ) esta proximo a cero, entonces rechazamos H0 ,
(x1 , ..., xn ) esta proximo a uno, entonces aceptamos H0 ,
Definici
on 4.2.1 El test de raz
on de verosimilitud para contrastar H0 : 0 frente a H1 : 1
al nivel de significaci
on es:
R = {(x1 , ..., xn ) : (x1 , ..., xn ) c}
donde c se determina a partir de = sup P (R) .
0

Proposici
on 4.2.1 Relaci
on con los estadsticos sufucientes. El test de raz
on de verosimilitudes
es funci
on de cualquier estadstico suficiente T
Consideramos a continuacion un ejemplo que nos permite ver la relacion entre el contraste de
hipotesis y los intervalos de confianza.

Considermos (Xi )ni=1 m.a. de X f (x) tal que . En este caso f (x) := N , 2 donde
estamos interesados en estimar (aqu 2 es un parametro perturbador). Consideramos el siguiente
contraste de hipotesis
H0 : = 0 ,
H1 : 6= 0 ,


DE VEROSIMILITUD.
4.2. METODO
DE LA RAZON

57

y fijamos un nivel de significacion . Formalmente la situacion es la siguiente:

= = , 2 : R, > 0

0 = = , 2 : = 0 , > 0

as que

sup f (x1 , ..., xn )

(x1 , ..., xn ) =

supf (x1 , ..., xn )

sup L ()
=

(4.1)

supL ()

queda en este caso como sigue:

1
1
2
f (x) = exp 2 (x ) ,
2
2

!
n
n
Y
1
1 X
2
f (xi ) =
L () = f (x1 , ..., xn ) =
(xi )
n exp 2
2
n
2
i=1
i=1
el supL () se alcanza en el EMV

1X
(xi x
)2

=
n
2

=x
,

i=1

(aqu estamos suponiendo que conocemos = 0 por lo que queremos estimar


2 , de esta forma
(4.1) queda:

Pn
2
1
Pn n
exp

(x

P
i
2
n
n/2
0
i=1
2 i=1 (xi 0 )
( 1 n (xi 0 )2 ) ( 2)

(x1 , ..., xn ) = n i=1


P
n
2
n
1
P
exp

(x

)
P
i
n
n/2
i=1
2 n
x)2
i=1 (xi
( n1 ni=1 (xi x)2 ) ( 2)
simplificamos

(x1 , ..., xn ) =

P
n

)2
i=1 (xi x

Pn

i=1 (xi

0 )2

Pn

i=1 (xi
2

Pn

!n/2

x
)

Pn
2

1
1+

2
0)
n P n(x
x )2
i=1 (xi

por lo tanto llegamos a que

)2
i=1 (xi x

i=1 (xi

) + n (
x 0 )
i=1 (xi x
n/2

Pn

!n/2

x
+x
0 )2

Pn

= Pn

1
1+

(
x0 )2
n (n1)S
2

!n/2

(xi
x)2
x)2
i=1 (xi

i=1
Pn

x)2 +n(
x0 )2
i=1 (x
Pin
x)2
i=1 (xi

n/2

1+

1
n1

n/2

x
0

S/ n

=
n/2

R = {(x1 , ..., xn ) : (x1 , ..., xn ) c}


i.e.
R=

(x1 , ..., xn ) :

1+

1
n1

x
0

S/ n

n/2

0
c = (x1 , ..., xn ) : > c1

S/ n

(4.2)


CAPITULO 4. CONTRASTE DE HIPOTESIS

58

y = sup P (R) . En esta u


ltima ecuacion (4.2) llegamos a ese resultado ya que
0

y que

x
0

(x1 , ..., xn ) es funcion decreciente de


S/ n

x
0

= sup P (R) = = sup P (x1 , ..., xn ) : > c1 = sup P ((x1 , ..., xn ) : |tn1 | > c1 )
S/ n
=0
0
0

ya que cuando (Xi )ni=1 m.a. de X N 0 , 2 sabemos que una cantidad para estimar
x
0
tn1
S/ n

de esta forma llegamos a la conclusion de que


c1 = tn1;/2
y que por lo tanto

x 0 | > tn1;/2 S/ n
R = (x1 , ..., xn ) : > tn1;/2 = (x1 , ..., xn ) : |
S/ n

sera la region de rechazo del test de razon de verosimilitud. Veamos ahora la relacion con el
IC1 (). La situacion hasta ahora es la siguiente:


X= R A,
A = (x1 , ..., xn ) : |
x 0 | < tn1;/2 S/ n ,
esto significa que aceptamos H0 :

H0 : = 0 |
x 0 | < tn1;/2 S/ n tn1;/2 S/ n < x
0 < tn1;/2 S/ n

+ tn1;/2 S/ n 0 x
tn1;/2 S/ n
x
tn1;/2 S/ n < 0 < x
0 IC1 () .

De forma alternativa vemos que


H0 : = 0 ,
H1 : 6= 0 ,


y fijamos un nivel de significacion . Entonces IC1 () . = x
tn1;/2 S/ n , por lo tanto si
0 IC1 ()

0
/ IC1 ()

aceptamos H0 ,

rechazamos H0

de esta forma hemos visto la relacion existente entre el contraste de hipotesis y los intervalos de
confianza.
Si la distribucion de (x1 , ..., xn ), bajo H0 , es desconocida o muy complicada de calcular entonces
existe una solucion aproximada (asintotica) para contrastar H0 : 0 , frente a H1 : 1 .


DE VEROSIMILITUD.
4.2. METODO
DE LA RAZON

59

Teorema 4.2.1 Sea (Xi )ni=1 m.a. de X f (x) tal que , y dim = k. Queremos contrastar
H0 : 0 , frente a H1 : 1 , donde dim 0 = k < k, entonces bajo certas condiciones de
regularidad
d
2 log (x1 , ..., xn ) 2kk
bajo H0 .

De esta forma tenemos que

R = (x1 , ..., xn ) : 2 log (x1 , ..., xn ) > 2kk ;

n
Con el ejemplo
que
venimos arrastrando, si (Xi )i=1 m.a. de X f2 (x) tal que . En este caso
2
f (x) := N , donde estamos interesados en estimar (aqu es un parametro perturbador).
Consideramos el siguiente contraste de hipotesis

H0 : = 0 ,
H1 : 6= 0 ,
y fijamos un nivel de significacion . Formalmente la situacion es la siguiente:

=
dim = 2
= = , 2 : R, > 0

2
0 = = , : = 0 , > 0
=
dim 0 = 1

as que

2 log (x1 , ..., xn ) 21 .

4.2.1.
1.

Asignaci
on de hip
otesis en la pr
actica.

Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Es razonable aceptar que = 0 ?.
Elegimos entre = 0 y 6= 0
La situacion es por lo tanto la siguiente:

H0 : = 0 ,
H1 : 6= 0 ,
y fijamos un nivel de significacion . Los papeles, en la practica, de hipotesis nula y alternativa
siempre se asignan igual, la igualdad para H0 y la desigualdad para H1 . Por lo tanto
si aceptamos H0 concluimos que es razomable aceptar = 0 ,
si rechazamos H0 concluimos que NO es razomable aceptar = 0 .
2.

Disponemos de (Xi )ni=1 m.a. de X f (x) tal que . Podemos considerar estadsticamente probado que > 0 ?
La situacion es por lo tanto la siguiente:
H0 : 0 ,

H1 : > 0 ,

y fijamos un nivel de significacion . Por lo tanto


si aceptamos H0 concluimos que No es razomable aceptar > 0 ,
si rechazamos H0 concluimos que es razomable aceptar > 0 .


CAPITULO 4. CONTRASTE DE HIPOTESIS

60

4.2.2.

Concepto de p-valor de los datos.

El p-valor o significacion de los datos es la maxima probabilidad bajo H0 de obtener un resultado


mas desfavorable a H0 que el obtenido.
Veamos un ejemplillo.

Ejemplo 4.2.1 (Xi )ni=1 m.a. de X f (x) tal que . En este caso f (x) := N , 2 = 1 .
Consideramos el siguiente contraste de hip
otesis
H0 : 10,

H1 : > 10,

y fijamos un nivel de significaci


on . Hemos obtenido la muestra con n = 9 y resulta que x
= 12
p valor = maxP {m
as desfavorable a H0 que x
= 12} = maxP { x
= 12} = P=10 { x
= 12}
10

10

pero sabemos que


N
X

1
,
9

as que
P

12 10
x
10
>
1/3
1/3

=P

12 10
Z>
0.
1/3

Interpretmos el p-valor como el apoyo de los datos a H0


1.

p-valor proximo a cero, entonces poco apoyo de los datos a H0

2.

p-valor alejado del cero, entonces apoyo suficiente de los datos a H0

La regla practica que se sigue para tomar decisiones a un nivel de significacion previamente fijado
es la siguiente:

1. p valor < , entonces poco apoyo de los datos a H0 , rechazamos H0 ,


2. p valor > , entonces apoyo suficiente de los datos a H0 , aceptamos H0 .


4.3. METODOS
BAYESIANOS.

4.3.

61

M
etodos bayesianos.

Sea (Xi )ni=1 m.a. de X f (X | ) donde . Queremos contrastar H0 : 0 , frente a


H1 : 1 = c0 . Tenemos la informacion muestral (verosimilitud)
n
Y
f (xi | )
f (x1 , ...., xn | ) =
i=1

que recoje la informacion sobre que llevan los datos y tambien disponemos de la informacion a
priori
()
que recoje la informacion sobre antes que los datos, as que aplicando Bayes obtenemos
n
Y
() f (xi | )

( | x1 , ...., xn ) =

i=1
n
Y

()

i=1

f (xi | )

() f (x1 , ...., xn | )

y todas las conclusiones las obtendremos a partir de ( | x1 , ...., xn ) la distribucion a posteriori.


La decision de rechazar o aceptar H0 estara basada en;
P (0 | x1 , ...., xn ) =
P (1 | x1 , ...., xn ) =

( | x1 , ...., xn ) d,
( | x1 , ...., xn ) d = 1 P (0 | x1 , ...., xn ) ,

por ejemplo podemos rechazar H0 : 0 si


1
P (0 | x1 , ...., xn ) < .
2

4.4.

Resumen de contrastes de hip


otesis

CONTRASTES DE HIPOTESIS

NOTACION:
= nivel de significacion del contraste.
n= tama
no de la muestra.
H0 = hipotesis nula.
R= region crtica o de rechazo de H0 .


CAPITULO 4. CONTRASTE DE HIPOTESIS

62

4.4.1.

X N (, )

1. H0 : = 0 ( conocida);
R=

|
x 0 | > z/2
.
n

2. H0 : = 0 ( desconocida);

s
.
R = |
x 0 | > tn1;/2
n
3. H0 : 0 ( conocida);

R= x
0 > z
.
n

4. H0 : 0 ( desconocida);

s
.
R= x
0 > tn1;
n
5. H0 : 0 ( conocida);

R= x
0 < z1
.
n

6. H0 : 0 ( desconocida);

s
R= x
0 < tn1;1
.
n


4.4. RESUMEN DE CONTRASTES DE HIPOTESIS
7. H0 : = 0 ;
R=

n1 2 2
2
s
/ n1;1/2 , n1;/2
.
20

8. H0 : 0 ;
R=
9. H0 : 0 ;

R=

n1 2
2
s
<

n1;1 .
20

|
x p0 | > z/2

2. H0 : p p0 ;
R=
3. H0 : p p0 ;
R=

x
p 0 > z

x
p0 < z1

p0 (1 p0 )
n

p0 (1 p0 )
n

2. H0 : 0 ;
3. H0 : 0 ;

p0 (1 p0 )
n

n
o
p
R= x
0 > z 0 /n .
o
n
p
R= x
0 < z1 0 /n .

X N (1 , 1 ); (X1 , . . . , Xn1 ) m. a. de X; se calcula x


y s21 .
Y N (2 , 2 ); (Y1 , . . . , Yn2 ) m. a. de Y ; se calcula y y s22 .
s2p =

(n1 1)s21 + (n2 1)s22


.
n1 + n2 2

o
n
p
R = |
x 0 | > z/2 0 /n .

Dos poblaciones Normales independientes

X Poisson() (muestras grandes)

1. H0 : = 0 ;

4.4.4.

n1 2
2
s > n1; .
20

X Bernoulli(p) (muestras grandes)

1. H0 : p = p0 ;

4.4.3.

R=

4.4.2.

63


CAPITULO 4. CONTRASTE DE HIPOTESIS

64
1. H0 : 1 = 2 ( 1 , 2 conocidas);

2. H0 : 1 = 2 ( 1 = 2 );

21 22
R = |
x y| > z/2
+
.

n1 n2
r

1
1
.
+
R = |
x y| > tn1 +n2 2;/2 sp
n1 n2

3. H0 : 1 = 2 ( 1 6= 2 );

s21
s22
+
.
x y| > tf ;/2
R = |

n1 n2

4. H0 : 1 2 ( 1 , 2 conocidas);

R=

5. H0 : 1 2 ( 1 = 2 );

x
y > z

21
n1

22
n2

1
1
R= x
y > tn1 +n2 2; sp
.
+
n1 n2
6. H0 : 1 2 ( 1 6= 2 );
R=
7. H0 : 1 2 ( 1 , 2 conocidas);

8. H0 : 1 2 ( 1 = 2 );

x
y > tf ;

s21
s22
+
.
n1 n2

2
2
1 2
+
.
y < z1
R= x

n1 n2
r

1
1
+
.
R= x
y < tn1 +n2 2;1 sp
n1 n2

9. H0 : 1 2 ( 1 6= 2 );

10. H0 : 1 = 2 ;

s22
s21
.
+
y < tf ;1
R= x

n1 n2

R = s21 /s22
/ Fn1 1;n2 1;1/2 , Fn1 1;n2 1;/2 .

4.5. EJERCICIOS

65

11. H0 : 1 2 ;

R = s21 /s22 > Fn1 1;n2 1; .

12. H0 : 1 2 ;

R = s21 /s22 < Fn1 1;n2 1;1 ,


donde f = entero mas proximo a

4.4.5.

(s21 /n1 + s22 /n2 )2


(s21 /n1 )2
n1 1

(s22 /n2 )2
n2 1

Comparaci
on de proporciones (muestras grandes e independientes)

X Bernoulli(p1 ); (X1 , . . . , Xn1 ) m. a. de X.


Y Bernoulli(p2 ); (Y1 , . . . , Yn2 ) m. a. de Y .
1. H0 : p1 = p2 ;
R=

2. H0 : p1 p2 ;
R=
3. H0 : p1 p2 ;
R=

|
x y| > z/2

x
y > z

4.5.

x
y < z1

donde p =

p(1 p)

p(1 p)

p(1 p)

1
1
+
n1 n2

1
1
+
n1 n2

1
1
+
n1 n2

P
n1 x
+ n2 y
xi + yi
=
.
n1 + n2
n1 + n2

Ejercicios

Ejercicio 4.5.1 Sea (X1 , X2 ) una m.a. de

x1 0 < x < 1
f =
0
resto
donde = {1, 2}. Para contrastar H0 : = 1 frente a H1 : = 2, definimos la regi
on de
rechazo
R = {(x1 , x2 ) : 4x1 x2 3} .
Hallar la funci
on de potencia test.


CAPITULO 4. CONTRASTE DE HIPOTESIS

66

Soluci
on. Queremos contrastar H0 : = 1 frente a H1 : = 2, en R = {(x1 , x2 ) : 4x1 x2 3} , por
lo tanto nos preguntamos si
R () = P (R) ,
= 1, 2.
Represetamos la region, 4x1 x2 3, por lo tanto cuando = 1, tenemos:
f=1 (x1 , x2 ) = f=1 (x1 ) f=1 (x2 ) = 1 1 = 1
de esta forma
P=1 (R) =

Z Z

f=1 (x1 , x2 ) dx1 dx2 =

x1 =1

x1 =3/4

y hacemos lo mismo para = 2, obreniendo as:


Z
Z
x1 =1

4x1 x2 dx2

x1 =3/4

x2 =3/4x1

1dx2

x2 =3/4x1

x2 =1

P=1 (R) =

x2 =1

1 3
dx1 = + log
4 4

7
9
dx1 =
+ log
16 8


3
0,03
4


3
0,11.
4

ya que
f=2 (x1 , x2 ) = f=2 (x1 ) f=2 (x2 ) = 2x1 2x2 = 4x1 x2 .
El nivel de significacion es por lo tanto
sup P (R) = P=1 (R) 0,03

tal y como queramos hacer ver.

Ejercicio 4.5.2 Sea (Xi )ni=1 una m.a. de una poblaci


on N (, 1), donde = {0 , 1 } con
(0 < 1 ) . Para contrastar H0 : = 0 frente a H1 : = 1 se considera el test que rechaza H0 si
x
> k. Hallar k para que el test tenga nivel de significaci
on .
Soluci
on. La situacion es la siguiente:
H0 : = 0
H1 : = 1
R = {(xi )ni=1 : x
> k}
queremos calcular k para un nivel de significacion . Recordamos de teora que

x
k 1
k 1
1
q
> q
=P Z> p
= sup P (R) = P1 (R) = P1 (
x > k) = P

1
1
1/n
0
n

recordar que

XN

1 ,

1
n

4.5. EJERCICIOS

67

por lo tanto
k 1
p
= Z
1/n

obteniendo as

Z
k = 1 +
n

tal y como queramos hacer ver.

Ejercicio 4.5.3 Sea (Xi )12


on que sigue una P oisson (), donde =
i=1 una m.a. de una poblaci
(1, 1/2]. Si la regi
on de rechazo, para contrastar H0 : = 1/2 frente a H1 : < 1/2, definimos la
regi
on de rechazo
o
n
X
x1 2 .
R = (xi )12
i=1 :
Hallar la potencia del test en = 1/2, = 1/4, = 1/12.

Soluci
on. La situacion es la siguiente: (Xi )12
i=1 una m.a. X P oisson ()
H0 : = 1/2,
H1 : < 1/2,
(
R=

(xi )12
i=1

12
X
i

x1 2 .

En = 1/2
R () = P (R) = P=1/2 (R) = P=1/2

12
X
i

x1 2

= P {P oisson ( = 6) 2} =

ya que
12
X
i

x1 =

1 12veces 1
+ ..... +
2
2

2 P oisson ( = 6) ,

Xi = e(e

y por lo tanto (mirando las tablas de la Poisson)


= 0,0025 + 0,0149 + 0,0446 = 0,0620 0,06
Si hacemos lo mismo para los otros dos casos obtenemos:
P=1/4 (R) = ...... = 0,4232,
P=1/12 (R) = ...... = 0,9197,
tal y como quermos hacer ver.

it 1


CAPITULO 4. CONTRASTE DE HIPOTESIS

68

Ejercicio 4.5.4 En una piscifactora se desea contrastar la hip


otesis (H0 ) de que el procentaje de
adultos que miden menos de 20cm es como m
aximo el 10 %. Para ello se va a tomar una muestra
de 6 peces y rechazamos H0 si encontramos m
as de un pez con longitud inderior a 20cm.
1.

Cu
al es el nivel de significaci
on de este contraste?.

2.

Calcular la potencia del contraste si en realidad hay un 20 % de peces que miden menos de
20cm.

Soluci
on. Modelizamos mediante una Bernoulli(p) i.e. disponemos de una m.a. (Xi )6i=1 donde
X Bernoulli(p)

1 si el pez mide < 20cm


X=
0 si el pez mide > 20cm
as que
H0 : p 0,10,

H1 : p > 0,10,
R = {Mas de un pez con longitud inferior a 20 cm} = {T > 1} .
el estadstico que estamos usando en este contraste es:
T = no de peces, de entre los 6, que miden de 20cm Bin(n = 6, p = 0,10).
Por lo tanto, el nivel de significacion de este contraste es:
sup Pp (R) = Pp=0,10 (R) = Pp=0,10 (T > 1) = P (Bin(n = 6, p = 0,10) > 1) =

p0,10

= 1 P (Bin(n = 6, p = 0,10) 1) = 1 0,5314 0,3543 = 0,114.


Con respecto a la segunda pregunta, i.e. Calcular la potencia del contraste si en realidad hay un
20 % de peces que miden menos de 20cm. vemos que
Pp=0,20 (T > 1) = P (Bin(n = 6, p = 0,20) > 1) = ... = 0,3447
tal y como queramos hacer ver.

Ejercicio 4.5.5 Para estudiar si una prueba de laboratorio puede resultar demasiado nociva para
la salud, contrastamos la hip
otesis H0 de que la probabilidad de que una persona sometida a esa
prueba resulte afectada sea como m
aximo 0, 001. Para ello sometemos a esa prueba a 1000 personas
elegidas al azar y aceptamos H0 si como m
aximo ha habido un afectado.
1.

Cu
al es el nivel de significaci
on de este contraste?.

2.

Si en realidad la prueba afecta a la salud de una persona con probabilidad 0, 003 cu


al es la
probabilidad deaceptar H0 ?.

4.5. EJERCICIOS

69

Soluci
on. En este ejercicio disponemos de una m.a. (Xi )1000
i=1 donde X Bernoulli(p)

1
si resulta afectada
X=
0 si no resulta afectada
as que
H0 : p 0,001,

H1 : p > 0,001,
R = {Hay como maximo un afectado entre 1000} = {T 1} .
el estadstico que estamos usando en este contraste es:
T = no de afectados entre 1000 Bin(n = 1000, p = 0,001),
al ser n = 1000 y p = 0,001 entonces aproximamos la binomial mediante una Poisson
Bin(n = 1000, p = 0,001) P oisson ( = np) .
De esta forma encontramos que el nivel de significacion de este contraste es:
sup Pp (R) = Pp=0,001 (R) = Pp=0,001 (T > 1) = P (Bin(n = 1000, p = 0,001)) > 1) =

p0,001

= 1 P (P oisson ( = np = 1)) 1) = 0,2642.


Con respecto a la segunda pregunta, i.e. Si en realidad la prueba afecta a la salud de una persona
con probabilidad 0, 003 cual es la probabilidad de aceptar H0 ?. Vemos que
P (P oisson ( = np = 3)) 1) = 0,1992
tal y como queramos hacer ver.

on con una densidad


Ejercicio 4.5.6 Sea (Xi )ni=1 una m.a. de una poblaci
(x)
e
x>R
f =
0
resto
Hallar el test de raz
on de verosimilitud, de nivel , para contrastar H0 : 0 frente a H1 : > 0 .
Soluci
on. Tenemos
H0 : 0 ,

H1 : > 0 ,
nivel de significacion

queremos calcular c

R = {(xi )ni=1 : (x1 , ..., xn ) c}


CAPITULO 4. CONTRASTE DE HIPOTESIS

70
tal que

= sup P (R)
0

de esta forma vemos que


sup f (x1 , ..., xn )

(x1 , ..., xn ) =

supf (x1 , ..., xn )

sup L ()
=

donde

(4.3)

supL ()
R

n
P
Y
f (xi ) = en e xi ,
L () = f (x1 , ..., xn ) =

si

i=1

X(1)

observamos que x , significa (xi )ni=1 y por lo tanto X(1) , de este modo obtenemos la
siguiente funcion
n P x
i
e e
X(1)
L () =
0
> X(1)
y por lo tanto
supL () = enX(1)
R

as que la ecuacion (4.3) queda


(
entonces
donde

en0

xi
nX(1) P x
i
e

xi

enX(1) P xi
en0 xi

X(1) 0
X(1) > 0

1
= en0 nX(1)

X(1) 0
X(1) > 0

sup L () =

R = {(xi )ni=1 : (x1 , ..., xn ) c} = (xi )ni=1 : X(1) > C0 =


C0 : = sup P (R) = sup en(0 C0 )
0

por lo tanto
C0 = 0

log
n

ya que

P (R) = P X(1) > C0


=

C0

f (x) dx

n
Y
P (Xi > C0 ) = (P (X > C0 ))n =
=

i=1

C0

(x)

dx

as que

log
n
R = (xi )i=1 : X(1) > 0
n

tal y como queramos hacer ver.

= en(0 C0 )

(4.4)

4.5. EJERCICIOS

71

Ejercicio 4.5.7 Sea (Xi )ni=1 una m.a. de una poblaci


on con una densidad
f =

(1 x)1 0 x 1, > 0
0
resto

Deseamos
contrastar H0 : = 2 frente a H1 : 6= 2, al nivel de significaci
on 0,1. Si n = 60 y
Y
(1 xi ) = 0,0003. Cu
al sera la decisi
on adoptada utilizando el test de raz
on de verosimilitudes
i

asint
oticamente?

Soluci
on. En este ejercicio queremos ver

R = R = {(xi )ni=1 : (x1 , ..., xn ) c} (x1 , ..., xn ) : 2 log (x1 , ..., xn ) > 2kk ; = 21;0,1

en este caso

2n

sup L ()
(x1 , ..., xn ) =

supL ()

ya que

n
Y
f (xi ) = ()n
L() = f (x1 , ..., xn ) =
i=1

log L() = n log () + ( 1) log

Y
i

(1 xi )

!1

(1 xi )

(1 xi )

!
Y
d log L()
n
= + log
(1 xi ) = 0
d

(1 xi )

!1

n
log

Y
i

(1 xi )

vemos que (en la muestra)


=

n
log

Y
i

!=

(1 xi )

(60)
= 7,3967
ln (0,0003)

por lo tanto
2 log (x1 , ..., xn ) = 2 ln
21;0,1 = 2,706

260 (0,0003)
(7,3967)60 (0,0003)6,3967

as que rechazamos H0 , i.e. el valor = 2 no es aceptable.

= 69,39,


CAPITULO 4. CONTRASTE DE HIPOTESIS

72

Ejercicio 4.5.8 Sea (Xi )ni=1 una m.a. de una poblaci


on X con una funci
on de densidad
x
e
x>0
f =
0
x0
donde > 0. Deseamos contrastar H0 : 1 frente a H1 : < 1.
1.

Si adoptamos como regi


on de rechazo de H0

R = (xi )ni=1 : x(1) c .

determinar el valor de c, para que el test tenga tama


no .
2.

Si tomamos como densidad a priori para


() =

e > 0
0 resto

calcular la probabilidad a posteriori de la regi


on que constituye la hip
otesis nula, cuando la
muestra consta de una sola observaci
on.
Soluci
on. Tenemos
H0 : 1,

H1 : < 1,
nivel de significacion

queremos calcular c

tal que

R = {(xi )ni=1 : (x1 , ..., xn ) c} = (xi )ni=1 : x(1) c


= supP (R)
1

de esta forma vemos que si

entonces


=
P (R) = P x(1) c = P x(1) c

= supP (R) = P=1 (R) = enc ,

dx

c=

= enc

log
.
n

Con respecto al segundo de los apartados vemos que



e
>0
() =
0 resto
por lo tanto
( | x) f (x | ) () = ex e = e(x+1) ,

>0

4.5. EJERCICIOS

73

por lo que
( | x) Gamma(p = 2, a = x + 1) =
=

ap p1 a
e
=
(p)

(x + 1)2 (x+1)
e
= (x + 1)2 e(x+1) ,
(2)

>0

encontramos as que la probabilidad a posteriori de 0 es:


Z
h
i
2
(x+1)
(x+1)
(x + 1) e
d = e
( + x + 1)
= (x + 2) e(x+1) .
1

=1

tal y como queramos hacer ver.

Ejercicio 4.5.9 Se van a probar dos medicamentos A y B contra una enfermedad. Para esto
tratamos 100 ratones enfermos con A y otros 100 con B. El n
umero medio de horas que sobreviven
con A es x
= 1200 y para B y = 1400. Suponiendo normalidad en mabos casos se pide:
1.

Se puede aceptar igualdad de varianzas si sabemos que


X
X
(xi x
)2 = 900000,
(yi y)2 = 950000, ?.
i

(tomar = 0, 10)
2.

Es m
as efectivo el medicamento B?. Plantear el contraste adecuado para estudiar esto con
un nivel de confianza del 95 %.

Soluci
on. Tenemos
X N (1 , 21 ),

Y N (2 , 22 )

donde ademas supondremos independencia.


Se puede aceptar igualdad de varianzas? i.e.
H0 : 1 = 2 ,
H1 : 1 6= 2 ,
= 0, 10

R=
donde

S12

/ Fm1;n1;1/2 , Fm1;n1;/2
S22
S12
=
S22

1
m1
1
n1

i (xi

i (yi

x
)2
2

y)

90
0,95,
95

Fm1;n1;/2 = F99;99;0,05 F120;120;0,05 = 1,3519,


1
Fm1;n1;1/2 = F99;99;0,95
= 0,74
F120;120;0,05


CAPITULO 4. CONTRASTE DE HIPOTESIS

74

donde estamos usando los valores mas cercanos y recordamos que


Fm;n;1 =

1
Fm,n,

de esta forma aceptamos H0 y podemos decir que 1 = 2 .


Con respecto a la segunda cuestion vemos que nos preguntan si 1 < 2 . As que
H0 : 1 2 ,

H1 : 1 < 2 ,
= 0, 05

con
R=

Y < tm+n2;1 Sp
X

1
1
+
m n

donde
Sp =

(m 1) S12 + (n 1) S22
96,66,
m+n1

tm+n2;1 = t198;0,95 t200;0,95 = t200;0,05 = 1,65


as que
R = {200 < 22,60}
por lo rechazamos H0 : 1 2 y aceptamos H1 i.e. podemos afirmar que hay suficiente evidencia
muestral para asegurar que B es mas efectivo.

Ejercicio 4.5.10 La duraci


on media de una m.a. de 10 bombillas es x
= 1250 horas, con una
cuasidesviaci
on tpica muestral de sX = 115. Se cambia el material del filamento por otro nuevo
y entonces de una nueva m.a. de 12 bombillas se obtuvo una duraci
on media de y = 1340 con
sY = 106.
1.

puede aceptarse que las varianzas, antes y despues del cambio de filamento sean iguales?

2.

Ha aumentado la duraci
on media de las bombilla?

Soluci
on. Se puede aceptar igualdad de varianzas? i.e.
H0 : 1 = 2 ,
H1 : 1 6= 2 ,
= 0, 10

R=

S12

/
F
,
F
m1;n1;1/2
m1;n1;/2
S22

4.5. EJERCICIOS

75

donde
S12
=
S22

1
m1
1
n1

i (xi

i (yi

x
)2

y)

13225
= 1,18,
11236

Fm1;n1;/2 = F9;11;0,05 2,89,


1
0,34
Fm1;n1;1/2 = F9;11;0,95
2,89
donde estamos usando los valores mas cercanos y recordamos que
Fm;n;1 =

1
Fm,n,

de esta forma aceptamos H0 y podemos decir que 1 = 2 .


Con respecto a la segunda cuestion vemos que nos preguntan si 1 < 2 . As que
H0 : 1 2 ,

H1 : 1 < 2 ,
= 0, 10

con
R=

Y < tm+n2;1 Sp
X

1
1
+
m n

donde
Sp =

(m 1) S12 + (n 1) S22
110,14,
m+n1

tm+n2;1 = t20;0,10 = 1,325


as que

R = {90 < 62,49}


por lo rechazamos H0 : 1 2 y aceptamos H1 i.e. podemos afirmar que ha aumentado la duracion
media.

Ejercicio 4.5.11 Con objeto de estudiar si las pulsaciones en los hombres (X) pueden considerarse
menores que en las mujeres (Y ) se tomaron muestrasde 16 hombre y mujeres obteniendose los
siguientes resultados (ya resumidos)
P16

i=1 xi

X
Y
Que podemos decir al respecto?

1248
1288

P16

2
i=1 xi

97570
103846


CAPITULO 4. CONTRASTE DE HIPOTESIS

76

Soluci
on. Los datos no estan emparejados y por lo tanto tenemos
X N (1 , 21 ),

Y N (2 , 22 )

donde ademas supondremos independencia. Vemos que


X
1248
= 1
X
78,
xi =
n
16

Y = 80,5

nos preguntamos si esta diferencia a favor de las mujeres es concluyente. podemos afirmar que
1 < 2 ?. As que
H0 : 1 2 ,

H1 : 1 < 2 ,
= 0, 05

pero consideremos una cuestion previa: podemos aceptar 1 = 2 ?, i.e.


H0 : 1 = 2 ,
H1 : 1 6= 2 ,
= 0, 10

Al ser 1 = 3,7 y 2 = 3,2, podemos concluir que son razonablemente identicas (comprobar todas
estas cuentecillas) i.e.
" 16
#
1 X 2
2 , etc..
xi nX
var(X) =
n
i=1

por lo tanto al considerar igualdad de varianzas (si esto no fuese as tendramos que utilizar otro
modelo), tenemos
(
)
r
1
1
Y < tm+n2;1 Sp
R= X
+
= {2,5 < 2,16}
m n
y por lo tanto al verificarse la condicion debemos rechazar H0 y aceptar H1 i.e. podemos concluir
que 1 < 2 .
Si hubiesemos aceptado H0 no podramos concluir que 1 2 (no sera coherente con los datos
obtenidos) y por lo tanto diramos que los datos no son concluyentes.

Ejercicio 4.5.12 Se sospecha que en cierta estaci


on de servicio nos estafan en la gasolina. Para
comprobarlo se hacen 50 llenados
Llamando xi a cada uno de estos llenados,
P de 30 litros cada
P50 uno.
2 = 43550. Se puede considerar estad
los resultados obtenidos son 50
x
=
1475,
x
sticai
i=1
i=1 i
mente probado, al nivel 0,01 que nos sirven menos gasolina?.
Soluci
on. En este caso la situacion es la siguiente:
H0 : 30,

H1 : < 30,
= 0, 01

4.5. EJERCICIOS

77

tenemos
R=

30 < t49;0,99 S
X
= {0,5 < 0,30}
50

donde
1
S2 =
49

50
X
i=1

x2i 49X

= 0,76,

t49;0,99 = 2, 403

por lo que debemos rechazar H0 y aceptar H1 i.e. podemos concluir que 1 < 30 i.e. que NO nos
estafan.

Ejercicio 4.5.13 Un fabricante de lavadoras produce un determinado modelo en dos colores A y B.


De las 1000 primeras lavadoras vendidas 560 fueron de color A. Proporcionan estos datos suficiente
evidencia estadstica (al nivel 0,01) para concluir que los consumidores prefieren mayoritariamente
el color A?.
Soluci
on. Queremos estimar la proporcion de personas que prefieren A frente a B, para ello
modelizamos de la siguiente manera

1 A
X=
0 B
i.e. una Bernoulli (muestras grande n = 1000). podemos concluir que p > 0,5? entonces haremos
las siguientes hipotesis
H0 : p 0,50,

H1 : p > 0,50,
= 0, 01
tenemos
R=

p0 > Z
X

p0 (1 p0 )
n

0,060 > Z

0,5 (1 0,5)
1000

= {0,06 > 0,037}

donde
Z = Z0,01 = 2,33,
X
560
= 1
xi =
= 0,56
X
n
1000
i=1

por lo que rechazamos H0 y aceptar H1 i.e p > 0,50.


Antes de terminar veamos si el p valor es mayor o menor que 0,01. Sabemos por definicion que
el p valor es:
sup PH0 = {obtener un resultado mas desfavorable a H0 que el obtenido}


CAPITULO 4. CONTRASTE DE HIPOTESIS

78
i.e. apoyo de los datos a H0 ?.

si p valor < entonces rechazamos H0 ,


si p valor > entonces aceptamos H0 ,

luego un p valor < rechazar H0 . Como nosotros hemos rechazado H0 entonces el p valor
debe ser menor que = 0,01 (esto nos evita el tener que calcular explcitamente el p valor).

Ejercicio 4.5.14 Una prueba de detecci


on de la hepatitis vrica produce un 2 % de falsos positivos
y un 5 % de falsos negativos. Se aplica esta prueba a 800 personas tomadas al azar.
1.

Hallar la relaci
on entre p =Probabilidad de dar positivo y r =Probabilidad de padecer
hepatitis vrica.

2.

En 45 pruebas, de las 800, el resultado es positivo. Se puede considerar estadsticamente


probado que la enfermedad afecta a menos del 8 % de la poblaci
on? (tomando = 0,01).

Soluci
on. Tenemos la siguiente situacion
P (positivo | sano) = 0,02

P (negativo | enf ermo) = 0,05


n = 800

estamos interesados en calcular la proporcion de personas enfermas, r.


La probabilidad de dar positivo sera por lo tanto
p = P (positivo) = P (sano)P (positivo | sano) + P (enf ermo)P (positivo | enf ermo) =
= (1 r)(0,02) + r(0,95)

luego
p = 0,02 + 0,93r.
Con respecto al segundo apartado modelizaremos de la siguiente manera:

1 positivo
X=
0 negativo
i.e. mediante una Bernoulli(p). Cuando podremos concluir que r < 0,08? i.e. cuando podremos
concluir que p < 0,02 + 0,93r = 0,094?, entonces haremos las siguientes hipotesis
H0 : p 0,094,

H1 : p < 0,094,
= 0, 01

4.5. EJERCICIOS

79

tenemos
R=

p0 < Z1
X

p0 (1 p0 )
n

por lo tanto podremos concluir que p < 0,094 cuando


(
)
r

0,094
(1

0,094)
(0,094) < Z1
(0,094) > Z1 1,031 8 102
X
= X
800
donde
Z1 = Z0,99 = 2,33,
= # de positivos
X
800
y obtenemos que
as que despejamos X
< 55,92
X
por lo que podemos concluir que la proporcion de enfermos es menor que 0,08 cuando el n
umero
de positivos sea menor que 55.

80

CAPITULO 4. CONTRASTE DE HIPOTESIS

Captulo 5

Distribuciones.
5.1.

Distribuciones discretas

5.1.1.
1.

Bernoulli.

Funcion generatriz
GX (s) = q + ps.

2.

Funcion de masa
pk = P (X = k) = pk q 1k = pk (1 p)1k

3.

Funcion caracterstica y generatriz de momentos


X (t) = q + peit ,

4.

MX (t) = q + pet .

Esperanza y varianza
E [X] = p,

5.

con k = 0, 1.

Resumen

5.1.2.

var [X] = pq,

pq

pk
X (t) MX (t) E [X] var [X]
pk q 1k q + peit q + pet
p
pq

Binomial.

Probabilidad de obtener exactamente k exitos.


1.

Funcion generatriz

n
X
n
GX (s) =
pk q nk sk = (q + ps)n .
k
k=0

81

CAPITULO 5. DISTRIBUCIONES.

82
2.

Funcion de masa
Bin(n, p) =

3.

4.

n
k

pk q nk

Funcion caracterstica y generatriz de momentos


n

X (t) = q + peit ,

Esperanza y varianza

E(X) = np,
5.

Resumen

n
k

con

k = 0, 1, ....

MX (t) = q + pet .

var(X) = npq,

npq

X (t)
MX (t)
E [X] var [X]
pk

n
n
np
npq
pk q nk q + peit
q + pet

Teorema 5.1.1 Suma de binomiales independientes es otra binomial.


X

X
Xi Bin
ni , p .

5.1.3.

Geom
etrica.

Tiempo de espera hasta que aparece el suceso X por primera vez.


1.

Funcion generatriz
GX (s) =

pk q k1 sk =

k=1

2.
3.

Funcion de masa

Geo(p) = (1 p)k1 p
peit
,
1 qeit

MX (t) =

pet
.
1 qet

Esperanza y varianza
1
E(X) = ,
p

5.

con k = 1, ....

Funcion caracterstica y generatriz de momentos


X (t) =

4.

ps
.
1 qs

Resumen

var(X) =

q
,
p2

q
.
p2

pk
X (t) MX (t) E [X] var [X]
k1
peit
pet
q
1
(1 p)
p 1qe
it
p
1qet
p2

5.1. DISTRIBUCIONES DISCRETAS

5.1.4.

83

Binomial negativa.

Si en vez de buscar la probabilidad de k exitos en n ensayos (nfijo) consideramos la variable X


igual al n
umero de fallos antes del exito nesimo entonces encotramos la binomial negativa.
Observaci
on 5.1.1 Geometrica es un caso particular de una binomial negativa
Geo BinN (1, p) .
1.

Funcion generatriz
GX (s) =

2.

4.

n+k1
k

pn q k

con k = 0, 1, ....

MX (t) =

p
1 qet

n
,
p

var(X) =

nq
,
p2

nq
p2

Resumen

5.1.5.

pk
X (t)
MX (t) E [X] var [X]
n

n
n+k1
nq
p
p
n
pn q k
p
1qet
p2
1qeit
k

Poisson.

Funcion generatriz
GX (s) = exp((s 1)).

2.

Funcion de masa
P oisson() = exp()

3.

Esperanza y varianza

1.

Funcion caracterstica y generatriz de momentos


n

p
,
X (t) =
1 qeit

E(X) =
5.

p
1 qs

Funcion de masa
BinN (n, p) =

3.

k
k!

con

k = 0, ....

Funcion caracterstica y generatriz de momentos

X (t) = e eit 1 ,

MX (t) = e(e

).

t 1

CAPITULO 5. DISTRIBUCIONES.

84
4.

Esperanza y varianza
E(X) = ,

var(X) = ,

Teorema 5.1.2 La suma de Poissones independientes es otra Poisson de par


ametro =
Observaci
on 5.1.2 Binomial Poisson
Bin(n, p) P oiss() / = np 5 y p 0,1.

5.1.6.
1.

Hipergeom
etrica

Funcion de masa

N n k
var(X) =
n
N 1 N

fX (x) =

2.

5.2.

k
1
N

Variables continuas (v.a.c.).

5.2.1.

Uniforme en [a, b].

1.

Funcion de distribucion.

2.

Funcion de densidad.

t<a
0
t t [a, b]
FX (t) =

1
t>b
fX (t) =

1
ba

t [a, b]
t
/ [a, b]

Funcion caracterstica y generatriz de momentos


X (t) =

4.

N k
nx

N
n

Esperanza y varianza
kn
,
E(X) =
N

3.

k
x

eitb eita
,
it (b a)

MX (t) =

etb eta
.
t (b a)

Esperanza y varianza.
1
E(X) = (a + b),
2

var(X) =

1
(b a)2 .
12

5.2. VARIABLES CONTINUAS (V.A.C.).

5.2.2.
1.

85

Gamma.

Funcion de densidad (p, a).


fX (t) =

ap p1 ax
e
(p) x

donde
(p) =

x>0
resto

xp1 ex dx

2.

3.

Funcion caracterstica y generatriz de momentos

it p
,
X (t) = 1
a
Esperanza y varianza.
E(X) =

5.2.3.
1.

var(X) =

p
.
a2

Exponencial.

Funcion de distribucion.
FX (t) =

donde > 0.
2.

p
,
a

t p
MX (t) = 1
.
a

1 exp(t) t > 0
0
t0

Funcion de densidad.

exp(t) t > 0
fX (t) =
0
t0

fX (t) = exp(t)I(0,) (x)

vemos que
exp () = (p = 1, ) .
3.

4.

Funcion caracterstica y generatriz de momentos

it 1
,
X (t) = 1
a
Esperanza y varianza.
E(X) =

1
,

t 1
MX (t) = 1
.
a

var(X) =

1
2

Teorema 5.2.1 Sea X v.a. exponencial, entonces:


P (X > a + t | X > a) = P (A > t),
i.e. X tiene la propiedad de no memoria.

CAPITULO 5. DISTRIBUCIONES.

86
Teorema 5.2.2 (Xi )ni=1 exp () v.a.i.i.d., entonces
X
Xi (n, ) .

5.2.4.
1.

Beta

Funcion de densidad.

1
xp1 (1 x)q1 I(o,1) (x),
B (p, q)

fX (t) =
2.

Esperanza y varianza.
E(X) =

5.2.5.
1.

p
,
p+q

pq
(p + q) (p + q + 1)
2

Normal.

Funcion de distribucion.
1
FX (t) =
2

2.

var(X) =

"

1
exp
2

2 #

x R

Funcion caracterstica y generatriz de momentos


1

X (t) = eit 2
4.

x R

Funcion de densidad.
"

#
1
1 x 2
fX (t) = exp
2

3.

dx

2 t2

MX (t) = et 2

2 t2

Esperanza y varianza.
E(X) = ,

var(X) = 2

Si X N (, 2 ), tipificando la variable i.e.


Z=

X
= Z N (0, 1)

Observaci
on 5.2.1 Aproximaci
on Normal de una binomial. Versi
on m
as simple del TCL (ver
captulo 7)
Binomial N ormal.

Bin(n, p) N (np, npq)

5.2. VARIABLES CONTINUAS (V.A.C.).

87

Si Bin(n, p) tal que np 5 y nq 5, entonces podemos aproximar dicha binomial mediante una
distribuci
on normal.
La probabilidad binomial P (k) puede aproximarse por la probabilidad normal
P (k) P (k 0,5 X k + 0,5)
Teorema 5.2.3 Si {Xi }ni=1 son v.a. independientes tales que Xi N (i , i ) i = 1, ..., n entonces

sX
X
X
i ,
Xi N
i .
i

Teorema 5.2.4 Si {Xi }ni=1 son v.a. independientes tales que Xi N (, ) i.e. son v.a.i.i.d., entonces
P

2
i Xi
.
N ,
n
n

5.2.6.
1.

Cauchy

Funcion de densidad.

1
1
xp 2 .
1 +

fX (t) =

2.

Funcion caracterstica

X (t) = eitp|t| .
3.

Esperanza y varianza.

5.2.7.

E(X) =,

var(X) = .

2n . Chi-cuadrado

2n . Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X1 , ...., Xn ) v.a.i.i.d. que
siguen una N (0, 1). Definimos
n
X
Xi2 .
(5.1)
2n =
i=1

1.

Funcion de densidad.
fX (t) =
viendose que

1
2n/2

n e 2 x x 2 1 I(o,) (x)
2

2n

n 1
,
2 2

x R

CAPITULO 5. DISTRIBUCIONES.

88
2.

Funcion caracterstica y generatriz de momentos


X (t) = (1 2it)n/2 ,

3.

MX (t) = (1 2t)n/2 .

Esperanza y varianza.
E(X) = n,

5.2.8.

var(X) = 2n.

t-Student

t-Student, con n-grados de libertad, tn .


Definici
on 5.2.1 Considermos X N (0, 1) e Y 2n de tal forma que (X, Y ) son independientes,
definimos
N (0, 1)
X
(5.2)
tn = q = p
Y
2n /n
n

El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces fXY = fX fY .

1.

Funcion de densidad.


n+1
2
x2
1 n+1
2
1 n 1 +
,
fX (t) =
n
n 2 2

2.

Funcion caracterstica y generatriz de momentos


X (t) = (1 2it)n/2 ,

3.

x R

MX (t) = (1 2t)n/2 .

Esperanza y varianza.
E(X) = 0, si n > 1,

var(X) =

4.
tn;1 = tn;

n
, si n > 2.
n2

5.2. VARIABLES CONTINUAS (V.A.C.).

5.2.9.

89

F Fisher-Snedecor

F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X 2m , e Y 2n v.a.i. entonces


definimos
X
Xn
2m /m
Fm,n = m
=
=
.
(5.3)
Y
Ym
2n /n
n
1.

2.

Funcion de densidad.

m
m+n
m 2 m2
m m+n
2
2
x 2 1+ x
,
fX (t) = m n
n
n
2 2

Esperanza y varianza.

m
E(X) =
, m > 2,
m2
3.

x R

var(X) = 2

n
n2

Propiedades
a) Si X Fm,n =

1
X

Fn,m
Fm;n;1 =
Fm;n;1 =

1
Fn;m;1
1
Fm;n;

m+n2
,
m (n 4)

n > 4.

You might also like