You are on page 1of 6

Muestreo aleatorio

Toma de una muestra de tal manera que cualquier miembro de la poblacin


tiene una oportunidad igual de ser seleccionado.
Ejemplo: un dado tiene la misma oportunidad de caer en cualquiera de sus seis
caras.
Aplicacin del muestreo aleatorio
Se realizan n selecciones independientes de forma que en cada seleccin los
individuos que no han sido elegidos tengan la misma probabilidad de serlo.
El procedimiento habitual consiste en numerar todos los elementos de la
poblacin y se seleccionan muestras del tamao deseado utilizando una tabla
de nmeros aleatorios o un programa de ordenador que proporcione nmeros
aleatorios.
Recurdese que "al azar" no significa "de cualquier manera", para que el
procedimiento de muestreo sea vlido es necesario utilizar correctamente el
proceso de generacin de nmeros aleatorios.
Entre las ventajas de este procedimiento esta la compensacin de valores altos
y bajos con lo que la muestra tiene una composicin similar a la de la
poblacin, es adems un procedimiento sencillo y produce estimadores de los
parmetros desconocidos prximos a los valores reales de los mismos.
El principal inconveniente de este tipo de muestreo es que necesita un marco
adecuado y amplio que no siempre es fcil de conseguir y que no contiene
informacin a priori sobre la poblacin que podra ser til en la descripcin de
la misma.
Estimador
Frmula o estadstico que sirve para estimar un parmetro de una poblacin.
Se expresa corrientemente como una funcin de los valores mustrales y, por
consiguiente, es tambin una variable aleatoria, cuya distribucin conviene
conocer para poder cuantificar la fiabilidad de la correspondiente estimacin.
Tipos de estimadores existentes
Supongamos ahora que disponemos de una poblacin en la que se mide una
variable X con distribucin de forma conocida y parmetros desconocidos, por
ejemplo una normal con media y varianzas desconocidas como en el caso
prctico que plantebamos anteriormente.
De la poblacin se extrae una muestra aleatoria simple de tamao n, X1, X2, ...
, Xn. Se trata de calcular, a partir de los valores muestrales, una funcin de los
mismos que proporcione un valor = u(X2, ... , Xn) que sustituya al parmetro

desconocido de la poblacin q, de forma que ambos sean lo ms parecidos en


algn sentido. A tal valor obtenido de la muestra se le denomina estimador.
Un estimador es tambin una variable aleatoria. Se trata bsicamente de
buscar estimadores centrados alrededor del verdadero valor del parmetro y
con la menor varianza posible.
Por ejemplo, por simple analoga, si la distribucin en la poblacin es normal, la
media muestral puede considerase como un estimador de la media
poblacional.
La distancia entre el estimador y el parmetro a estimar puede medirse
mediante los que se denomina el error cuadrtico medio, que se define como el
valor esperado de la diferencia entre el estimador y el verdadero parmetro.
El ECM es importante ya que puede escribirse como
1. una es la varianza del estimador y otra el cuadrado del sesgo (concepto
que veremos posteriormente).
2. Consideraremos criterios adicionales para seleccionar estimadores. Las
propiedades deseables que ha de tener un estimador para considerarse
adecuado son las siguientes:
-Ausencia de sesgoSe dice que un estimador es insesgado (o centrado) si la esperanza del
estimador coincide con el parmetro a estimar. . En caso contrario se dice que
es sesgado y a la cantidad se la denomina sesgo.
La propiedad es importante ya que los posibles valores del estimador fluctan
alrededor del verdadero parmetro. Por ejemplo, si utilizamos la media
muestral como estimador de la media poblacional en una distribucin normal,
se trata de un estimador insesgado ya que la esperanza de su distribucin
muestral es la media poblacional m. El hecho de que adems, tenga
distribucin normal, es importante en la prctica, ya que aunque la media
muestral y la poblacional no coinciden exactamente, los valores de aquella
fluctan de forma simtrica alrededor de esta, son valores prximos con
probabilidad alta y la dispersin disminuye cuando aumenta el tamao
muestral.
-ConsistenciaSe dice que un estimador es consistente si se aproxima cada vez ms al
verdadero valor del parmetro a medida que se aumenta el tamao muestral.
Ms formalmente, un estimador es consistente si cuando , para . o dicho de

otra forma la distribucin del estimador se concentra ms alrededor del


verdadero parmetro cuando el tamao muestral aumenta.
La media muestral es un estimador consistente de la media poblacional en una
distribucin normal, ya que, la varianza de la misma tiende a cero para , de
forma que la distribucin se concentra alrededor del verdadero valor m cuando
n crece.
-EficienciaEs claro que un estimador ser tanto mejor cuanto menor sea su varianza, ya
que se concentra ms alrededor del verdadero valor del parmetro. Se dice
que un estimador insesgado es eficiente si tiene varianza mnima.
Una cota inferior para la varianza viene dada por la denominada cota de
Cramer-Rao.
Sea X1, X2, ... , Xn. una muestra aleatoria simple de una distribucin con
densidad f(x; q). Sujeto a ciertas condiciones de regularidad en la funcin de
densidad, cualquier estimador insesgado verifica que
A la cantidad se la denomina cantidad de informacin de Fisher asociada a una
muestra aleatoria simple de tamao n.

METODOS DE ESTIMACION
Mtodo de los Momentos
-Consiste en igualar los momentos muestrales
Prcticamente no se usa en la investigacin actual.

los

poblacionales.

Mtodo de los Mnimos Cuadrados


-Consiste en minimizar la suma de cuadrados de los errores (diferencias entre
valores observados y esperados tras suponer que las observaciones se
obtienen como la suma de una parte sistemtica o controlada y una parte
aleatoria no controlada o fuente de error).
El mtodo es ampliamente utilizado cuando se trabaja con modelos de
regresin y tcnicas relacionadas.
Ejemplo: Estimacin de la media de una poblacin normal.
Cada observacin experimental xi puede suponerse como la suma de una
constante (la media m) y un error experimental aleatorio (ei)
xi = m + ei

con ei = xi - m con distribucin N(0, s).


El mtodo de los mnimos cuadrados consiste en minimizar la suma de
cuadrados de los errores (Diferencias entre valores observados y esperados)
Derivando con respecto a m e igualando la derivada a cero, obtenemos la
media muestral como estimador de la poblacional.

Mtodo de la Mxima Verosimilitud


- Consiste en sustituir los parmetros por aquellos valores que maximizan el
logaritmo de la funcin de verosimilitud de la muestra (funcin de densidad
conjunta de todos los valores muestrales en el supuesto de que son
independientes).
Ejemplo: Media y varianza de una poblacin normal
Los valores muestrales X1, ... , Xn se supone que son variables aleatorias
independientes y todas con distribucin N(m, s). La funcin de densidad
conjunta ser el producto de las funciones de densidad de cada una de ellas.
Tomando logaritmos
Derivando con respecto a m y s y resolviendo el sistema se obtienen como
estimadores para la media y la varianza
Propiedades de los estimadores Mximo-verosmiles
Los estimadores mximo-verosmiles juegan un papel importante en Estadstica
debido a que se obtienen mediante un mtodo simple y tienen buenas
propiedades con respecto a sesgo eficiencia y consistencia.
Bajo ciertas condiciones de regularidad se verifica:
-Si existe un estimador insesgado y de varianza mnima, cuya varianza alcance
la cota de Cramer-Rao, este estimador es mximo verosmil y es la nica
solucin de la ecuacin de verosimilitud.
-Si el estimador es sesgado, su sesgo tiende a cero al aumentar el tamao de
la muestra, adems es asintticamente eficiente (Eficiente para n grande).
- Existe una solucin de la ecuacin de verosimilitud que proporciona un
estimador consistente y asintticamente normal. . Donde es la varianza
mnima o cota de Cramer-Rao.

ESTIMADORES PUNTUALES DE LOS PARAMETROS DE UNA POBLACION


NORMAL

Sea una muestra aleatoria simple, X1, X2, ...... , Xn de una poblacin con
distribucin N(m , s).
-Estimador de la media
Se trata de un estimador eficiente (insesgado y de varianza mnima).
La distribucin muestral de la media es :

La cantidad estima a la desviacin tpica de la media y se denomina error


estndar de la media, por esta razn se dice que el error estndar de la media
mide la variabilidad de la media en el muestreo.
-Estimador de la Varianza
1. Varianza muestral (estimador sesgado).

2. Cuasi-varianza muestral (estimador insesgado)

3. Distribuciones muestrales asociadas

ESTIMADORES DE LOS
DISCRETAS MAS USUALES

PARAMETROS

DE

LAS

DISTRIBUCIONES

Se dispone de una muestra de tamao n en la que el resultado de la


observacin es una variable dicotmica (dos posibles resultados). Una variable
cualitativa con ms de dos resultados puede reducirse a una dicotmica sin
ms que agrupar algunas de las categoras.
Se trata de estimar la probabilidad p de xito en la poblacin.
La variable X= nmero de xitos en las n pruebas, puede tener distintas
distribuciones dependiendo de las condiciones en las que se toma la muestra.
-BINOMIAL
Si se toman muestras de poblaciones infinitas o se realiza un muestreo con
reemplazamiento de una poblacin finita. Se realizan n pruebas y se contabiliza
el nmero de xitos en las n pruebas. El estimador de la proporcin de xito es
Aproximando X mediante una distribucin normal, la distribucin muestral del
estimador de la probabilidad de xito para muestras grandes es
-HIPERGEOMETRICA

Si se toman muestras sin reemplazamiento de una poblacin finita de tamao


N conocido.
Aproximando X mediante una distribucin normal, la distribucin muestral del
estimador de la probabilidad de xito para muestras grandes es

You might also like