Professional Documents
Culture Documents
MUESTREO Y ESTIMACIN
MUESTREO
A un valor calculado con los datos de una muestra es el Estadstico. Al valor del
parmetro en la poblacin es el Estimador. Y es Estimador Puntual cuando se
estima el parmetro poblacional a partir de un valor nico).
Ya que es muy probable que el valor del estimador est cerca de su valor esperado,
una propiedad muy deseable es que ese valor esperado del estimador coincida con el
del parmetro que se pretende estimar. Al menos, quisiramos que el valor esperado
no difiera mucho del parmetro estimado. Por esa razn es importante la cantidad
que, tcnicamente llamamos sesgo.
1
El sesgo es la diferencia entre el valor esperado del estimador y el parmetro que
estima. E x , Sesgo E ()
Para aclarar esto, considere dos estimadores T1 y T2, suponga que ambos son
insesgados y suponga que la varianza de T1 es menor que la de T2, lo cual quiere decir
que los valores de T1 son ms probables que los de T2. O sea que vamos a encontrar a
T1 ms cerca del valor del parmetro que a T2. Esto hace que nuestras preferencias
estn con T1.
Cuando un estimador tiene una varianza menor que otro decimos que el estimador es
ms eficiente.
Estimacin del error de una medida directa. La estimacin del error de una medida
tiene siempre una componente subjetiva. En efecto, nadie mejor que un observador
experimentado para saber con buena aproximacin cul es el grado de confianza que
le merece la medida que acaba de tomar. No existe un conjunto de reglas bien
2
fundadas e inalterables que permitan determinar el error de una medida en todos los
casos imaginables.
3
Estimacin Eficiente. Si las distribuciones de muestreo de dos estadsticos tienen la
misma media (o esperanza), el de menor varianza se llama un estimador eficiente de
la media, mientras que el otro se llama un estimador ineficiente, respectivamente. Si
consideramos todos los posibles estadsticos cuyas distribuciones de muestreo tiene la
misma media, aquel de varianza mnima se llama a veces, el estimador de mxima
eficiencia, sea el mejor estimador.
La Inferencia Estadstica comprende los mtodos que son usados para sacar
conclusiones de la poblacin en base a una muestra tomada de ella. Incluye los
mtodos de estimacin de parmetros y las pruebas de hiptesis.
4
representa por Ho. La afirmacin que se espera sea aceptada despus de aplicar una
prueba estadstica es llamada la hiptesis alterna y se representa por Ha.
Una prueba estadstica es una frmula, basada en la distribucin del estimador del
parmetro que aparece en la hiptesis y que va a permitir tomar una decisin acerca
de aceptar o rechazar una hiptesis nula.
Al igual que una prueba de laboratorio para detectar cierta enfermedad, una prueba
estadstica no es ciento por ciento segura y puede llevar a una conclusin errnea.
Hay dos tipos de errores que pueden ocurrir. El error tipo I, que se comete cuando se
rechaza una hiptesis nula que realmente es cierta y el error tipo II que se comete
cuando se acepta una hiptesis nula que realmente es falsa.
Nivel de
confianza 99.70 99.00 98.00 96.00 95.45 95.00 90.00
% 80.00 68.27 50.00
5
Zc
3.00 2.58 2.33 2.05 2.00 1.96 1.645 1.28
1.00 0.6745
Ejemplo. Halar los lmites de confianza de 98% y 90%. Lo anterior tiene la solucin,
sea Z =Z tal que, al rea bajo la curva Normal a la derecha sea 1%, entonces, por
simetra el rea del lado izquierdo de Z=-Z . como el rea total bajo la curva es 1,
Z=0.49 por tanto, Z=2.33, luego el limite de confianza para el 98% es, 2.33
n
Estadstico. Los datos o medidas que se obtienen sobre una muestra y por lo tanto
una estimacin de los parmetros.
6
Nivel de Confianza. Probabilidad de que la estimacin efectuada se ajuste a la
realidad. Cualquier informacin que queremos recoger est distribuida segn una ley
de probabilidad, as llamamos nivel de confianza a la probabilidad de que el intervalo
construido en torno a un estadstico capte el verdadero valor del parmetro.
Ejemplo, Una poblacin a encuestar tiene 10000 personas y una varianza de 9.648.
Trabajando con un nivel de confianza de 0.95 y estando dispuestos a admitir un error
mximo del 10%, cul debe ser el tamao muestral para trabajar?
En las tablas de la curva Normal el valor de Z / 2 que corresponde con el nivel de
confianza elegido, Z / 2 1.96
n 1.96 2 9.648 / 0.12 3.706
Comprobamos que no se cumple, pues en este caso 10.000 < 3.706 (3.706 - 1);
10.000 < 13.730.730, por tanto, usamos
n 3.706 /(1 (3.706 / 10.000)) 2.704
7
N Z 2 / 2 P (1 P)
n
( N 1) e 2 Z 2 / 2 P (1 P)
Esas caractersticas tienen que ver principalmente con el tamao de la muestra y con
la manera de obtenerla. El muestro, implica algo de incertidumbre que debe ser
aceptada para poder realizar el trabajo, pues aparte de que estudiar una poblacin
resulta ser un trabajo en ocasiones demasiado grande, por tanto, se ofrecen las
siguientes razones extras:
- Escasez. Es el caso en que se dispone de una sola muestra. Por ejemplo, para el
estudio paleontolgico de los dinosaurios sera muy bueno contar con, al menos,
muchos restos fsiles y as realizar tales investigaciones; sin embargo, se cuenta
slo con una docena de esqueletos fosilizados (casi todos incompletos) de esas
criaturas en todo el mundo.
8
por otro lado, el estudio sobre una muestra podra ser realizada con menos
personal pero ms capacitado.
Para calcular el tamao de una muestra hay que tomar en cuenta tres factores:
- El porcentaje de confianza con el cual se quiere generalizar los datos desde la
muestra hacia la poblacin total.
- El porcentaje de error que se pretende aceptar al momento de hacer la
generalizacin.
- El nivel de variabilidad que se calcula para comprobar la hiptesis.
Una vez que se han determinado estos tres factores, entonces se puede calcular el
tamao de la muestra como a continuacin se expone. Hablando de una poblacin de
alrededor de 10,000 casos, o mnimamente esa cantidad, podemos pensar en la
manera de calcular el tamao de la muestra a travs de las siguientes frmulas. Hay
que mencionar que estas frmulas se pueden aplicar de manera aceptable pensando en
9
instrumentos que no incluyan preguntas abiertas y que sean un total de alrededor de
30.
Vamos a presentar dos frmulas, siendo la primera la que se aplica en el caso de que
no se conozca con precisin el tamao de la poblacin, y es:
z 2 pq
n 2
e
Ejemplo: Un Colegio desea realizar una investigacin sobre los alumnos inscritos en
primer y segundo aos, para lo cual se aplicar un cuestionario de manera aleatoria a
una muestra, pues los recursos econmicos y el tiempo para procesar la informacin
resultara insuficiente en el caso de aplicrsele a la poblacin estudiantil completa. En
primera instancia, suponiendo que no se conoce el tamao exacto de la poblacin,
pero con la seguridad de que sta se encuentra cerca a los diez millares, se aplicar la
primera frmula.
10
Las tcnicas de muestreo probabilstica son aquellas en las que se determina al azar
los individuos que constituirn la muestra. Estas tcnicas nos sirven cuando se desean
generalizar los resultados que se obtienen a partir de la muestra hacia toda la
poblacin. Lo anterior se dice dado que se supone que el proceso aleatorio permitir
la obtencin de una muestra representativa de la poblacin.
Los muestreos probabilsticas pueden ser con o sin reemplazo. Los muestreos con
reemplazo son aquellos en los que una vez que ha sido seleccionado un individuo (y
estudiado) se le toma en cuenta nuevamente al elegir el siguiente individuo a ser
estudiado. En este caso cada una de las observaciones permanece independiente de
las dems, pero con poblaciones pequeas tal procedimiento debe ser considerado
ante la posibilidad de repetir observaciones. En el caso de poblaciones grandes no
importa tal proceder, pues no afecta sustancialmente una repeticin a las frecuencias
relativas.
Los muestreos sin reemplazo son los que una vez que se ha tomado en cuenta un
individuo para formar parte de la muestra, no se le vuelve a tomar en cuenta
nuevamente. En este caso, y hablando especficamente para el caso de poblaciones
pequeas, las observaciones son dependientes entre s, pues al no tomar en cuenta
nuevamente el individuo se altera la probabilidad para la seleccin de otro individuo
de la poblacin. Para el caso de las poblaciones grandes (por ejemplo la poblacin de
un pas) dicha probabilidad para la seleccin de un individuo se mantiene
prcticamente igual, por lo que se puede decir que existe independencia en las
observaciones.
- Muestreo aleatorio simple. Podemos aqu mencionar que para el caso de que se
estuviese estudiando un propocin dentro de la poblacin (una eleccin de
candidato, la aceptacin o rechazo de una propuesta en una comunidad, la
presencia o ausencia de una caracterstica hereditaria), y el en caso de un muestreo
aleatorio simple, la estimacin que se puede hacer de la proporcin buscada a
partir de la proporcin hallada en la muestra se obtiene mediante la construccin
de un intervalo de confianza:
= P tolerancia de la muestra
11
pq
Pz
n
12
fichas; luego, el cociente entre poblacin y muestra es 488 /25, aproximadamente
19. Notar que si se elige 20 el tamao muestral no llega a 25. Entonces, se cuentan
las fichas y a llegar a la dcimo novena se la extrae, se sigue hasta la nmero 38
que ser la segunda escogida, y as sucesivamente hasta tener las 25 fichas
necesarias. Es tambin el caso de los soldados que se numeran de 1 en adelante y
cada 5 (u otro nmero cualquiera) dan un paso al frente. Es un mtodo sencillo y
rpido de seleccin.
c. Estratificado. A veces nos interesa, cuando las poblaciones son muy grandes,
dividir stas en sub-poblaciones o estratos, sin elementos comunes, y que cubran
toda la poblacin. Una vez hecho esto podemos elegir, por muestreo aleatorio
simple, de cada estrato, un nmero de elementos igual o proporcional al tamao
del estrato. Este procedimiento tiene la gran ventaja de que se puede obtener una
mayor precisin en poblaciones no homogneas (aunque en este curso no
estudiaremos los mtodos necesarios) Si decidiramos hacer una encuesta sobre la
incidencia del tabaco en nuestro centro, podramos razonar de la siguiente forma:
13
reposicin. Las poblaciones son finitas o infinitas. Si por ejemplo, sacamos 10 bolas
sucesivamente, sin reposicin, de una urna que contiene 100 bolas, estamos tomando
muestra de poblacin finita; mientras que si lanzamos 50 veces una moneda contamos
el nmero de caras, estamos ante una muestra poblacin infinita. Una poblacin finita
en la que se efecta muestra con reposicin, puede considerarse infinita tericamente,
ya que puede tomar cualquier nmero de muestras sin agotarla. Para muchos efectos
prcticos, una poblacin muy grande se puede considerar como si fuera infinita.
PEQUEAS MUESTRAS
El propsito de un estudio estadstico suele ser, como hemos venido citando, extraer
conclusiones acerca de la naturaleza de una poblacin. Al ser la poblacin grande y
no poder ser estudiada en su integridad en la mayora de los casos, las conclusiones
obtenidas deben basarse en el examen de solamente una parte de sta, lo que nos
lleva, en primer lugar a la justificacin, necesidad y definicin de las diferentes
tcnicas de muestreo.
Los primeros trminos obligados a los que debemos hacer referencia, definidos en el
primer captulo, sern los de estadstico y estimador.
Dentro de este contexto, ser necesario asumir un estadstico o estimador como una
variable aleatoria con una determinada distribucin, y que ser la pieza clave en las
14
dos amplias categoras de la inferencia estadstica: la estimacin y el contraste de
hiptesis.
El concepto de estimador, como herramienta fundamental, lo caracterizamos
mediante una serie de propiedades que nos servirn para elegir el ``mejor" para un
determinado parmetro de una poblacin, as como algunos mtodos para la
obtencin de ellos, tanto en la estimacin puntual como por intervalos.
Cmo deducir la ley de probabilidad sobre determinado carcter de una poblacin
cuando slo conocemos una muestra?
Este es un problema al que nos enfrentamos cuando por ejemplo tratamos de estudiar
la relacin entre el fumar y el cncer de pulmn e intentamos extender las
conclusiones obtenidas sobre una muestra al resto de individuos de la poblacin. La
tarea fundamental de la estadstica inferencial, es hacer inferencias acerca de la
poblacin a partir de una muestra extrada de la misma.
La teora del muestreo tiene por objetivo, el estudio de las relaciones existentes entre
la distribucin de un carcter en dicha poblacin y las distribuciones de dicho carcter
en todas sus muestras. Las ventajas de estudiar una poblacin a partir de sus muestras
son principalmente:
Coste reducido: Si los datos que buscamos los podemos obtener a partir de una
pequea parte del total de la poblacin, los gastos de recogida y tratamiento de los
datos sern menores. Por ejemplo, cuando se realizan encuestas previas a un
referndum, es ms barato preguntar a 4.000 personas su intencin de voto, que a
30.000.000;
Mayor rapidez: Estamos acostumbrados a ver cmo con los resultados del escrutinio
de las primeras mesas electorales, se obtiene una aproximacin bastante buena del
resultado final de unas elecciones, muchas horas antes de que el recuento final de
votos haya finalizado;
15
El tipo de muestreo ms importante es el muestreo aleatorio, en el que todos los
elementos de la poblacin tienen la misma probabilidad de ser extrados; Aunque
dependiendo del problema y con el objetivo de reducir los costes o aumentar la
precisin, otros tipos de muestreo pueden ser considerados como veremos ms
adelante: muestreo sistemtico, estratificado y por conglomerados.
16
extrado es repuesto al total de la poblacin. De esta forma un elemento puede
ser extrado varias veces. Si el orden en la extraccin de la muestra interviene,
la probabilidad de una cualquiera de ellas, formada por n elementos es:
1 1 1
n
N N N
17
una lista de nmeros aleatorios de k=5 cifras (00000-99.999), una poblacin
de N=600individuos, y deseamos extraer una muestra de n=6 de ellos. En este
caso ordenamos a toda la poblacin (usando cualquier criterio) de modo que a
cada uno de sus elementos le corresponda un nmero del 1 al 600. En segundo
lugar nos dirigimos a la tabla de nmeros aleatorios, y comenzando en
cualquier punto extraemos un nmero t, y tomamos como primer elemento de
la muestra al elemento de la poblacin:
t * 600 t * 600
1 k 1
10 100.000
Este proceso se debe repetir n veces para obtener una muestra de tamao n.
18
33.717 0.34(=1-0'66) -0.41
17.979 0.18(=1-0'82) -0.92
52.125 0.52 0.05
41.330 0.41(=1-0'59) -0.23
95.141 0.95 1.65
19
Si observamos con ms atencin, nos encontramos (salvo sorpresas de probabilidad
reducida) que el comportamiento de los varones con respecto al carcter que se
estudia es muy homogneo y diferenciado del grupo de las mujeres. Por otra parte,
con toda seguridad la precisin sobre el carcter que estudiamos, ser muy alta en el
grupo de los varones aunque en la muestra haya muy pocos (pequea varianza),
mientras que en el grupo de las mujeres habr mayor dispersin. Cuando las
varianzas poblacionales son pequeas, con pocos elementos de una muestra se
obtiene una informacin ms precisa del total de la poblacin que cuando la varianza
es grande. Por tanto, si nuestros medios slo nos permiten tomar una muestra de 10
alumnos, ser ms conveniente dividir la muestra en dos estratos, y tomar mediante
muestreo aleatorio simple cierto nmero de individuos de cada estrato, de modo que
se elegirn ms individuos en los grupos de mayor variabilidad. As probablemente
obtendramos mejores resultados estudiando una muestra de 1 varn y 9 hembras.
Esto es lo que se denomina asignacin ptima.
20
Sea X la variable aleatoria que representa el carcter que intentamos estudiar. Sobre
cada estrato puede definirse entonces la variable aleatoria X i como el valor medio
de X obtenida en una muestra de tamao ni en el estrato Ei. Sea V( X i ) la varianza
de dicha variable aleatoria; Entonces
k
V( X )
i 1
i se minimiza cuando
N i s i
ni n 1 Ni
k
donde s i x ij x i
2
N js j
j i
N 1 j1
21
barrios dentro de la ciudad, para despus elegir calles y edificios. Una vez
elegido el edificio, se entrevista a todos los vecinos.
exprese en funcin de la muestra aleatoria y que tenga por objetivo aproximar el valor
de qi, i ( X 1 ,..., X n )
Ejemplo, Consideremos una variable aleatoria de la que slo conocemos que su ley
de distribucin es gaussiana, X~N(), con 1= y 2=2 desconocidos
22
Para muestras aleatorias de tamao n=3, X1,X2,X3~N() un posible estimador del
parmetro es
(X1 X 2 X 3 )
1 ( X 1 , X 2 , X 3 ) X N ,
3 3
0, lim P 0 o 0, lim P 1
n n
Teorema. Como consecuencia de de la desigualdad de Chebyshev se puede
demostrar el siguiente resultado y condiciones,
lim E ( ) y lim V( ) 0 entonces es consistente.
n n
23
Para calcular el error tipo II o se debe especificar la hiptesis alternativa como una
hiptesis simple. Sin embargo, en la mayora de los casos, esta hiptesis se plantea
como compuesta. Al plantearse la hiptesis alternativa como compuesta, no se puede
calcular el error tipo II asociado con la prueba. Sin embargo, para obviar esta
dificultad lo que se hace es asignarle varios valores a la hiptesis alternativa, calcular
el error tipo II y realizar una curva con estos valores. Esta curva recibe el nombre de
"Curva Caracterstica Operativa o Curva OC", y es muy empleada principalmente en
estudios de control de calidad.
24
de rechazar la hiptesis nula cuando la verdadera es la hiptesis alternativa, es decir,
representa la probabilidad de rechazar hiptesis falsas. Sin embargo, en la mayora de
estudios diferentes a los de control de calidad, en vez de la curva caracterstica
operativa se emplea la grfica denominada "Funcin de Potencia", donde se grafica
vs 1-( ).
ESTIMACIN CONFIDENCIAL
25
La tcnica de la estimacin confidencial consiste en asociar a cada muestra un
intervalo que se sospecha que debe contener al parmetro. A ste se le denomina
intervalo de confianza. Evidentemente esta tcnica no tiene porqu dar siempre un
resultado correcto. A la probabilidad de que hayamos acertado al decir que el
parmetro estaba contenido en dicho intervalo se la denomina nivel de confianza.
Tambin se denomina nivel de significacin a la probabilidad de equivocarnos.
Estimacin Puntual. La inferencia estadstica est relacionada con los mtodos para
obtener conclusiones o generalizaciones acerca de una poblacin. Estas conclusiones
sobre la poblacin pueden estar relacionadas con la forma de la distribucin de una
variable aleatoria, con los valores de uno o varios parmetros de la misma.
26
Intervalos de Confianza
Pruebas de Hiptesis Sobre Parmetros
Sobre Distribuciones
Los estimadores son variables aleatorias, y por lo tanto tienen una funcin de
densidad, correspondiente a las distribuciones mustrales. Por lo tanto, no hay ningn
estimador perfecto, ya que siempre habr algn error en el proceso de estimacin.
Segn lo anterior, deben estudiarse distintas propiedades estadsticas de los
estimadores para decidir cual es el ms apropiado. Algunas de las propiedades a
estudiar corresponden al sesgo, mnima varianza, consistencia, eficiencia relativa y
suficiencia.
27
A: El mtodo usado para pronosticar la demanda de A es el que mejor hace su
trabajo, ya que queda ms cerca del valor real y tiene una menor varianza.
28
Ejemplo. La media muestral es un estimador insesgado de la media poblacional
ya que E( )=.
Ejemplo. Sea X1, X2,..., Xn una muestra aleatoria con E(Xi)=. Demostrar que si
N
i 1
a i 1 entonces T = a1X1 + a2X2 +...+anXn es un estimador insesgado de .
1 n
2
Ejemplo. Si V 2
n i 1
X i X , ser un estimador insesgado de ?. Se puede
n 1 2
demostrar que E (V 2 )
n
1 n 2
Ejemplo. Sea W 2 i 1
X i , ser un estimador insesgado de si es un
n
parmetro conocido?.
1
X i X , un estimador insesgado de la varianza
2
n
Ejemplo. Ser S 2
n 1 i 1
29
Se desea estimar el parmetro con base en una muestra aleatoria X1, X2, ..., Xn de
tiempos de reaccin. Como es el tiempo mximo de reaccin, para toda la
poblacin, se cumple que (X1, X2, ..., Xn), por lo cual podemos considerar como
un primer estimador el siguiente estadstico:
T1 = Mximo(X1, X2, ..., Xn).
Estadsticos de orden. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n. Los
valores se presentan de acuerdo al orden en que son tomados. Suponga que la muestra
se ordena de menor a mayor. Sea X(1) el menor valor de la muestra, sea X(2) es
segundo valor, X(i) el valor que ocupa el puesto i al ordenar la muestra de menor a
mayor, y finalmente sea X(n) el mayor valor de la muestra. Esta muestra ordenada,
X(1), X(2),..., X(i),..., X(n) recibe el nombre de "estadsticos de orden". De acuerdo
con lo anterior, los estadsticos T1 y T2 formulados en el prrafo anterior se pueden
reformular como:
n 1
T1 = X(n) T2
n
Los estadsticos de orden son variables aleatorias, y como tales tienen una funcin de
densidad, y se pueden usar para estimar los parmetros de las distribuciones.
30
Ejemplo. Al calcular la media de una poblacin normal sobre la base de una muestra
de tamao 2n+1, cul es la eficiencia de la mediana con relacin a la media?
Se sabe que la varianza de la media X est dada por /(2n+1). Para una muestra
aleatoria de tamao 2n+1 de una poblacin normal se sabe que el valor esperado y la
varianza de la mediana estn dados por:
~ ~ ~ 2
E(X) V(X)
4n
La media requiere slo el 64% de las observaciones que requiere la mediana para
estimar la media poblacional con la misma confiabilidad. Estimador insesgado de
mnima varianza. Para saber si un estimador insesgado es de mnima varianza o con
sesgo mnimo, se usa la desigualdad de Crmer-Rao, dada en el siguiente teorema.
31
Por lo tanto se tiene que
Teorema. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una poblacin
normal con media y varianza . Entonces el estimador T X es el "estimador
insesgado de mnima varianza" de , tambin denominado Minimum Variance
Unbiased Estimator.
Para saber por qu es tan importante el error cuadrtico medio ECM, veamos cmo se
puede expresar: ECM(T) = E{(T - )} = E(T - 2T + ) = E(T) - 2E(T) +
Sumando y restando [E(T)] a ambos lados de la ecuacin se tiene que:
ECM(T) = {E(T) - [E(T)]}+ {[E(T)] - 2E(T) + }
ECM(T) = V(T) + [ - E(T)]
32
Error estndar. Es un indicador de la precisin de un estimador (reporte de una
estimacin puntual).
Definicin. El error estndar de un estimador T es su desviacin estndar
T V(T ) . Para la media el error estndar sera T n .
en forma equivalente
33
Ejemplo. La media muestral es un estimador consistente de , y la proporcin
muestral P = X/n es a su vez un estimador consistente de la proporcin poblacional .
(Ver Ley de los grandes nmeros).
La consistencia es una propiedad asinttica (propiedad lmite).
Las dos condiciones anteriores son suficientes, pero no son necesarias. Es decir, si un
estimador cumple las dos condiciones, entonces ese estimador es consistente, pero el
hecho de no cumplirlas, no quiere decir que no lo sea. Un estimador sesgado puede
ser consistente solo si es asintticamente insesgado, es decir, que se vuelve insesgado
cuando n .
E(S) =
Se observa que V(S) 0 cuando n .
34
decir, un estimador T es suficiente si todo el conocimiento que se obtiene acerca del
parmetro es mediante la especificacin real de todos los valores de la muestra.
Ejemplo. Se tiene una muestra aleatoria (X1, X2, ..., Xn) de tamao 30 tomada de una
poblacin exponencial f(x, ), donde es un parmetro desconocido. Considere las
dos estadsticos siguientes:
1 1
T1 T2
X1 X 3 X 5 X 29 X1 X 2 X 3 X 30
Definicin. Se dice que un estadstico T = t(X1, X2, ..., Xn) es suficiente para un
parmetro si la distribucin conjunta de X 1, X2, ..., Xn dado T se encuentra libre de
, es decir, si se afirma T, entonces X1, X2, ..., Xn no tienen nada ms que decir acerca
de .
Teorema de factorizacin de Neyman. Sea X1, X2, ..., Xn una muestra aleatoria de
una distribucin con funcin de densidad f(x,). Se dice que el estadstico T = t(X1,
X2, ..., Xn) es un estadstico suficiente para si y solo si la funcin de verosimilitud se
puede factorizar de la siguiente manera:
L(X,) = h(t, ) g(x1, x2, ..., xn)
para cualquier valor t(x1, x2, ..., xn) de T y donde g(x1, x2, ..., xn) no contiene el
parmetro .
Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin
gama, cuya funcin de densidad est dada por,
(t ) k 1
f ( t ) e t , t0
( k )
35
La funcin de verosimilitud est dada por:
n n
nk e t i t i
L( X, ) i 1 i 1
(k )
Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin de
Poisson con parmetro cuya funcin de densidad est dada por,
x e
f (t)
x!
, donde
Sea X una variable aleatoria con funcin de probabilidad f(x,). Las muestras
aleatorias simples de tamao n, X1,..,Xn tienen por distribucin de probabilidad
conjunta
f c ( x 1 ,.., x n ; ) f ( x 1 ,..., x n ; ) f ( x 1 , ) f ( x 2 , ) f ( x n , )
Esta funcin que depende de n+1 cantidades podemos considerarla de dos maneras:
- Fijando es una funcin de las n cantidades xi. Esto es la funcin de probabilidad
o densidad.
- Fijados los xi como consecuencia de los resultados de elegir una muestra mediante
un experimento aleatorio, es nicamente funcin de . A esta funcin de la
denominamos Funcin de Verosimilitud.
En este punto podemos plantearnos el que dado una muestra sobre la que se ha
observado los valores xi, una posible estimacin del parmetro es aquella que
maximiza la funcin de verosimilitud (cuidado no confundir V() con la varianza. En
algunos textos aparece la funcin de verosimilitud como L())
x1,,xn fijados Verosimilitud: V()=f(x1,..,xn;)
36
La funcin de verosimilitud se obtiene a partir de la funcin de densidad,
intercambiando los papeles entre parmetro y estimador. En una funcin de
verosimilitud consideramos que las observaciones x1, ..., xn, estn fijadas, y se
representa la grfica con el valor de los valores que tomara la funcin de densidad
para todos los posibles valores del parmetro . El estimador mximo verosmil del
parmetro buscado,
mv es aquel que maximiza su funcin de verosimilitud, V().
Como es lo mismo maximizar una funcin que su logaritmo (al ser este una funcin
estrictamente creciente), este mximo puede calcularse derivando con respecto a la
funcin de verosimilitud (bien su logaritmo) y tomando como estimador mximo
verosmil al que haga la derivada nula:
log V
( mv ) 0
1. Son consistentes;
2. Son invariantes frente a transformaciones biunvocas, es decir, si es el
mv
37
estimadores de la esperanza matemtica y varianza de una distribucin de
probabilidad.
es X ( X1 X n ) verifica:
n
E(X ) V( X ) 2 n
Proposicin. X i N(, ) X mv N, / n
38
El mximo de la funcin de verosimilitud se alcanza donde lo hace su logaritmo
(monotona), por tanto derivando con respecto a e igualando a cero se llega a:
log V n n 1 n
0 ( mv , 2 ) 2 x i mv 2 x i n mv
i 1 i 1
Es decir, el estimador mximo verosmil de la media poblacional, , coincide con la
media muestral
1 n
mv x i como queramos demostrar
n i 1
39
Estimador de la varianza. A la hora de elegir un estimador de 2=V(X), podemos
comenzar con el estimador ms natural:
s2 xi X
n
1 2
n i 1
2 2 i1
Derivando con respecto a 2 e igualando a cero se obtiene el estimador mximo
verosmil:
2
log V n 1 1 n
(, 2mv ) 2 2 x x
2
0 i
2
2 mv 2 mv i 1
40
1 n 2 1 n 2 2 1 n
E (s 2 ) E
n i 1
( X i X )
E
n i 1
X i X
n i 1
E (X i2 ) E ( X 2 )
V(X i ) E (X i2 ) E (X i ) 2 E (X i2 ) 2 2
2
V( X ) E( X i2 ) E ( X i ) 2 E ( X i2 ) 2
n
Luego
1 n 2 n 1 2
E (s 2 )
n i 1
( 2
2
)
n
2
n
Esa esperanza puede ser calculada de un modo ms directo, ya que la distribucin del
estimador 2 es conocida usando el teorema de Cochran:
2
ns 2 n
Xi X
2n 1
2
i 1
luego
ns 2 n 1 2 ns 2 2( n 1) 4
E n 1 E(s 2 ) V 2( n 1) V (s 2 )
2 2
n n2
41
Teorema: Sean X1, X2 y X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, tambin la tiene un pare de ellas X 1,X3 y una funcin de
densidad de conjunta para estas dos puede escribirse,
f X 1,X 3 ( x 1 , x 3 )
f X 1X 2 X 3 ( x1, x 2 , x 3 )dx 2
Teorema: Sean X1,...,X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, la condicin suficiente y necesaria qpara que sean
independientes es que la densidad conjunta de ellas sea,
n
f X 1,...,X n ( x 1,..., x n ) fXj (x j )
j 1
42
S {( x 1 ,..., x n ) u 1 ( x 1 ,..., x n ) a 1 ,..., u n ( x 1 ,...x n ) a n }
con ai constantes. Las probabilidades
P[(X 1 ,..., X n ) S] ... f X ,..., x ( x 1 ,..., x n )dx 1 ...dx n
1 n
S
Y sea que el determinante del Jacobiano no sea nulo para (u1,..., u n ) , siendo
{(u1,. .u n ) a i x i (u1 ,. ., u n ) bi , 1 i n}
x 1 x 1 x 1
...
u 1 u 2 u n
x 2 x 2 x 2
( x 1 ,.., x n ) ...
u u 2 u n
(u 1 ...u n ) 1
... ... ... ...
x n x n x n
...
u 1 u 2 u n
x x y y
cos , rsen, sen y r cos
r r
y por tanto se tendr
b1 b2
a1 a2
H ( x , y)dxdy H(r cos , rsen)rdrd
R
Teorema: Sean X1,...,Xn variables aleatorias que tienen una distribucin conjunta
absolutamente continua, y sean u1(x1,...,xn),...,un(x1,...,xn) una aplicacin en el espacio
E(n) en s mismo que satisface a las condiciones exigidas en el teorema anterior con
cambio de variables en las integrales mltiples. Sea U i=ui(X1,..,Xn), Entonces,
U1,...,Un tiene distribucin conjunta absolutamente continua y densidad,
43
( x 1 ,..., x n )
f U1 ,..., U n (u 1 ,.., u n ) f X1 ,.., X n x 1 ( u 1 ,.., u n ),..., x n ( u 1 ,.., u n )
( u 1 ,..., u n )
Teorema: Sean X1,...,Xn variables aleatorias independientes, cada una de ellas con
una distribucin absolutamente continua, y sean r 1,...,rk, k enteros positivos, tales que,
r1+...+rk=n. Entonces, la k variables aleatorias
ESTIMACIN PUNTUAL
44
Otro problema importante, es definir la probabilidad P(n) sobre ( n) , y para cada
suceso rectangular en ( n) , A 1 A n lo que se define como
n
P ( n ) (A 1 A n ) P(A i )
i 1
i 1
0,
45
Teorema: Sea una poblacin y X una variable aleatoria observada definida sobre
la misma poblacin, la cual tiene distribucin discreta o absolutamente continua y
donde existe el segundo momento de orden finito. Si X1,..,Xn son n observaciones
independientes de X y s X=(X1+...+Xn)/n, entonces, Xn es una estimacin imparcial y
consistente de E[X]
Teorema: Sea Un una variable aleatoria definida sobre ( n) , y supongamos que ella
es una estimacin imparcial de y adems que E[Un2 ] . Si V1,V2,... es una
sucesin de observaciones independientes de Un, y sea Zn=(V1+...Vn)/n para todo n,
entonces la sucesin {Zn} es una sucesin consistente de
Sea una poblacin y sean ligadas a ella una serie de constantes 1,..., k que estn
por conocerse, y no se pueden medir directamente, entonces, sea X una variable
aleatoria definida sobre la poblacin de tamao n, y {X n} es una sucesin de
observaciones independientes de X, y sobre la cual conocemos la distribucin
FX ( x / i ) . El problema consiste en hallar las estimaciones.
El gran problema reside, y para ello trabajemos con dos variables desconocidas 1, 2
, en que se debe suponer que E[ X ] y que se conocen los dos primeros
4
Teorema: Sea f(x,y) una funcin y sean {X n} y {Yn} unas sucesiones de las variables
aleatorias tales que X n P a yYn P b , siendo a y b constantes, entonces, f es continua
en (a,b) y si f(Xn,Yn) es variable aleatoria para cualquier n, entonces,
46
f X n , Yn P f (a , b)
Sea X una variable aleatoria definida sobre la poblacin y sean X1,...,Xn sus n
observaciones independientes, y supongamos que la funcin de distribucin de X es
absolutamente continua (lo cual es vlido para el caso discreto), entonces la funcin
fX(x) es la densidad de X que es de una variable desconocida , f(x/ ).
Para trabajar con un ejemplo, sea X N(0,1) , entonces la funcin de densidad puede
1 ( x ) 2
ser, f ( x / ) exp 1 , x
2 2
( x ,..., x )
n
1
... n f ( x i dx 1 ...dx n
i 1
47
2
1 n
( X ,..., X ) 1 E Logf ( X )
Var
n A ,
teniendo en cuanta que el signo igual solo es vlido cuando exista una constante k,
que depende de y n, tal que la probabilidad
2
1 Logf ( X )
k 1 Logf (X k ) n E
n
Principio de Mxima Probabilidad. Sea X una variable aleatoria definida sobre una
poblacin con una distribucin discreta o absolutamente continua. Sea f(x/ ) la
densidad dependiente de x y de desconocido. El problema es estimar . Sean
X1,...,Xn observaciones de X con una densidad conjunta f(x1,...,xn/ )
Sea X una variable aleatoria discreta o continua cuya funcin de probabilidad f(x)
depende de un parmetro . Se efecta n veces un experimento y se obtiene x 1,...,xn
resultados independientes
S estn dados y son fijos los x1,x2,... entonces es una funcin de y es la funcin
de verosimilitud
Se trata de escoger la aproximacin para , para que sea tan pequeo como sea
posible (el cual debe ser derivable), 0 para que exista el mximo, lo cual
conduce a la solucin y es la estimacin de mxima verosimilitud para :
0, , 0
1 r
48
Intervalo de Confianza: Es la estimacin por intervalos teniendo en cuenta el error
mximo, intervalo en le cual est el valor exacto. Se escoge una probabilidad
nivel de confianza del 95%, tenemos, con 0,95, c 1,96 y calculamos el valor
c
medio de la muestra x1,...,xn de tamao n, y luego, k , quedando el nivel de
n
confianza Conf {x k x k}
Propiedades
E[ Z] ( x y)p XY ( x , y)
x y
n
Teorema: Si Y g ( X1 ,..., X n ) a i X i , entonces,
i 1
n
n
E[Y] E i i
i 1
a X
i 1
a i E[X i ]
n n n
i 1 i 1 j i 1
49
Teorema: Sea Z=aX+bY, entonces se cumple que,
V[ Z] a 2 V[ X ] b 2 V[ Y ] 2abCov[ X, Y ]
1 y a
que es de la forma Y=a+bX y sabiendo que f y ( y) fx , tenemos entonces,
b b
dg ( x )
1 ya 1 y g(m x ) m x mx
f y ( y) dx
fx fx
b b dg ( x ) dg ( x )
mx mx
dx dx
50
)...f(Xn; ) siendo f(x; ) la funcin de distribucin de probabilidad de X calculada
en x, como para P[X=x] si X es discreta
51