Professional Documents
Culture Documents
3.1 Introduccion
14
El problema es encontrar metodos que permitan construir estos estimadores.
A continuacion daremos los metodos usuales de estimacion puntual.
Sean X1 , X2 , ..., Xn una muestra aleatoria simple de una v.a. de densidad f (x/) en
que , el espacio de parametros.
15
3.4 Ejemplos
xi n xi
P P
dLogfn (x/)
= =0
d 1
Luego el estimador de maxima verosimilitud (E.M.V.) de es la proporcion de piezas
P
defectuosas observada xi /n.
Ejemplo 2: El ministerio de la salud quiere conocer la talla promedia de las
mujeres chilenas adultas. Si X1 , X2 , ..., XN son las tallas de todas las chilenas adultas,
P
= Xi /N . Dado el tamano grande de esta poblacion, se obtiene la talla de muestra
aleatoria de tamano pequeno n. Sean X1 , X2 , ..., Xn .
Se supone que Xi N (, 2 ) con 2 , y 2 desconocidos.
16
- Se puede buscar el estimador de la varianza o bien de su raz . El resultado no
cambia.
Ejemplo 3: Xi U nif orme[0, ] >0
fn (x/) = 1/n si 0 xi i
fn (x/) = 1 si xi + 1 i
es decir:
fn (x/) = 1 si max{x1 , ..., xn } 1 min{x1 , ..., xn }
Por lo cual todo elemento del intervalo [max{x1 , ..., xn } 1, min{x1 , ..., xn }] es E.M.V.
Aqu el estimador de los momentos, que es igual a xn 1/2, es bien diferente
tambien.
3.5 Propiedades
Invarianza
Observamos en las notas del ejemplo 2, que el E.M.V. de se puede obtener
directamente o como la raiz del E.M.V. de 2 . Eso se debe de la propiedad de
invarianza del E.M.V. por transformacion funcional:
17
Demostracion: en efecto si = g(), como g es biyectiva, = g 1 ( ); si fn (x/) =
fn (x/g 1 ( )) es maxima para tal que g 1 ( ) = . es necesariamente el E.M.V.
y como g es biyectiva, = g().
Consistencia
Un estimador depende del tamano de la muestra a traves de los valores mues-
trales; los estimadores n asociados a muestras de tamano n (n IN ) constituyen
sucesiones de v.a. Un buen estimador deberia converger en algun sentido hacia
.
Los momentos empricos de una v.a. real son estimadores consistentes de los
momentos teoricos correspondientes. Mas aun la convergencia es casi-segura y la
distribucion asintotica de estos estimadores es normal.
Estimador insesgado
18
En efecto,
E(n )2 = E[(n E(n ) + E(n ) )2 ]
E(n )2 = E[(n E(n ))2 ] + [E(n ) )]2
m.c.
Si [E(n ) )]2 0 entonces n converge en media cuadratica hacia 0. (n
0)
Proposicion 3.2
E(n )2 0 V ar(n ) 0 y E(n )
19
Definicion 3.5 Un estadstico T (x1 , ..., xn ), funcion de los valores muestrales y
a valor en se dice suficiente para si la distribucion conjunta de los valores
muestrales condicionalmente a T (x1 , ..., xn ) no depende de .
f (x, ) = b(x)c()exp{a(x)q()}
n
X
Tn (X) = a(Xi ) es un estadstico suficiente minimal.
i=1
1 1X 2 n2
fn (x1 , ..., xn /) = exp( xi )exp( + nx)
2)n /2 2 2
2
El termino exp( 12 no depende de y el termino exp( n2 + nx) depende
P 2
x) i
de y x.
P
nx = xi es un estadstico suficiente; tambien toda funcion biyectiva de x lo, en
particular x.
20
3.6 Estimadores Bayesianos
Ahora hay que relacionar los valores muestrales con la distribucion a priori ().
La funcion de verosimilitud fn (x/) es ahora una densidad condicional y h(x, ) =
fn (x/)() es la densidad conjunta de (x, ). De la cual se puede deducir la dis-
tribucion condicional de dado los valores muestrales x:
21
(p) = p1 (1 p)1 /B(, ) 0 p 1
en que B(, ) = ()()
(+)
.
La densidad a posteriori de p es entonces:
(p/x) = p+nxn 1 (1 p)+nnxn 1 /B( + nxn , + n nxn )
que es la distribucion eta(+nxn , +nnxn ). La moda de esta distribucion, cuando
esta definida, es ( 1)/ + .
Ejemplo 5: Sean X N (, 1) y N (0, 10).
(/x) fn (x/)() ( se refiere a la proporcionalidad con respecto a ).
P
(xi )2 2
(/x) exp( 2
20
)
2
(/x) exp( 11
20
+ nxn )
(/x) exp( 11
20
( (10nxn /11))2 )
10
La distribucion a posteriori de es entonces N ( 11 nxn , 10
11
). La moda de la distribucion
10
es la media 11
nxn .
No es siempre facil definir esta funcion de perdida, que es especfica de cada problema
y puede tener algun aspecto subjectivo (nocion de utilidad). Sin embargo, se puede
elegir entre diversas funciones de perdida clasicas, cuando no se puede construir una
propia:
22
que penaliza demasiado los errores grandes.
Funcion de perdida absoluta
Una solucion alternativa a la funcion cuadradica es usar el valor absoluto:
L(, ) = | |
23
Demostracion: Se tiene
Z Z +
E[L(, )/x] = k2 ( )(/x)d + k1 ( )(/x)d
Es decir:
k1
IP ( < /x) =
k1 + k2
En particular si k1 = k2 , se obtiene la mediana de la distribucion a posteriori de
.
24
que es una eta(1 + nxn , n + 2 nxn ).
Los estimadores de Bayes para la perdida cuadratica son las respectivas esperanzas de
la distribucion eta:
0 0
= (1 + nxn )/(n + 2) para y = (1 + nxn )/(n + 3) para .
Los estimadores de Bayes para la perdida absoluta son las respectivas medianas de la
distribucion eta, que se obtienen resolviendo la ecuacion:
Z
K 1 (1 )1 d = 1/2
0
0
en que = 1 + nxn y = n + 1 nxn para y = n + 2 nxn para .
0
Si n=100 y nxn = 10 entonces = 11/102 = 0.108 y = 11/103 = 0.107 para la
perdida cuadratica. Se observara como la muestra corrige la distribucion a priori, con
0
las medias a priori E() = 1/2 con y E() = 1/3 con .
Encontramos ambos estimadores de Bayes a posteriori muy cercanos con n=100 y
cercanos de la media muestral xn = 10/100 = 0.100.
En este ejemplo observamos que el estimador de Bayes cuadratico es consistente.
No se puede siempre asegurar que el estimador de Bayes es consistente, pero bajo
condiciones bastante generales es cierto.
25