You are on page 1of 28

Indice

1. Muestras probabilsticas y estimadores 2


1.1. Poblacion nita . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Muestra aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Muestra aleatoria sin reemplazo . . . . . . . . . . . . . . . 3
1.2.2. Muestra aleatoria con reemplazo . . . . . . . . . . . . . . 3
1.2.3. Muestras probabilsticas . . . . . . . . . . . . . . . . . . . 4
1.2.4. Dise no de muestreo . . . . . . . . . . . . . . . . . . . . . . 4
1.2.5. Algoritmo de seleccion . . . . . . . . . . . . . . . . . . . . 5
1.2.6. Probabilidad de inclusion . . . . . . . . . . . . . . . . . . 5
1.2.7. Caracterstica de interes y parametros de interes . . . . . 5
1.2.8. Estadstica y estimador . . . . . . . . . . . . . . . . . . . 6
1.2.9. La estadstica I
k
. . . . . . . . . . . . . . . . . . . . . . . 6
1.2.10. La estadstica n(S) o tama no de muestra . . . . . . . . . 6
2. Estimadores de Muestreo 9
2.1. El estimador de Horvitz-Thompson . . . . . . . . . . . . . . . . . 9
2.2. Intervalo de conanza para el estimador de Horvitz-Thompson . 12
2.3. Estimacion de otros parametros . . . . . . . . . . . . . . . . . . . 12
2.4. El estimador de Hansen-Hurwitz . . . . . . . . . . . . . . . . . . 13
3. Dise nos de muestreo de elementos 16
3.1. Dise no de muestreo Bernoulli . . . . . . . . . . . . . . . . . . . . 16
3.1.1. El estimador de Horvitz-Thompson . . . . . . . . . . . . . 16
3.2. Dise no de muestreo aleatorio simple sin reemplazo . . . . . . . . 17
3.2.1. Estimacion de la media poblacional . . . . . . . . . . . . . 20
3.2.2. Estimacion en dominios . . . . . . . . . . . . . . . . . . . 20
3.2.3. Estimacion del total en un dominio . . . . . . . . . . . . . 21
3.2.4. Estimacion del tama no absoluto de un dominio . . . . . . 21
3.2.5. Estimacion del tama no relativo de un dominio . . . . . . 21
3.2.6. Estimacion de la media de un dominio . . . . . . . . . . . 21
3.3. Muestreo aleatorio simple con reemplazo . . . . . . . . . . . . . . 22
3.4. Dise no de muestreo sistematico . . . . . . . . . . . . . . . . . . . 23
3.5. Dise no de muestreo Poisson . . . . . . . . . . . . . . . . . . . . . 25
3.6. Dise no de muestreo PPT . . . . . . . . . . . . . . . . . . . . . . . 26
3.7. Dise no de muestreo PT . . . . . . . . . . . . . . . . . . . . . . . 28
1. Muestras probabilsticas y estimadores
El proceso de estimacion e inferencia en poblaciones nitas, que nalmente
son las que facilmente encontramos en realidad y en las que se enfoca el muestreo,
es muy diferente al proceso de inferencia de la estadstica clasica. Esta ulti-
ma trata a los valores observados como realizaciones de una variable aleatoria.
En contrava con lo anterior, el muestreo asume que los valores observados son
parametros jos poblaciones. Partiendo de este hecho formalicemos algunos con-
ceptos que son de vital importancia en el estudio y analsis del muestreo.
1.1. Poblacion nita
Denicion 1.1. Una poblacion nita es un conjunto de N elementos {e
1
, e
2
, ..., e
N
}.
Cada unida puede ser identicada sin ambig uedad por un conjunto de rotulos.
Sea U = {1, 2, ..., N} el conjunto de rotulos de la poblacion nita. El tama no de
la poblacion no es necesariamente conocido.
Es el conjunto de N, donde N < , unidades que conforman el universo
de estudio. N es comunmente llamado el tama no poblacional. Cada elemen-
to perteneceinte a la poblacion puede ser identicado por un rotulo. Sea U el
conjunto de rotulos, tal que
U = {1, ..., k, ..., N}
1.2. Muestra aleatoria
Es un subconjunto de la poblacion que ha sido extrado mediante un mecan-
ismo estadstico de seleccion. Notaremos con una letra may uscula S a la muestra
aleatoria
1
y con una letra minuscula s a una realizacion de la misma. De tal
forma que sin ambig uedad una muestra seleccionada (realizada) es el conjunto
de unidades perteneceintes a
s = {1, ..., k, ..., n(S)}.
El n umero de componentes de s es llamado tama no de muestra y no siempre
es jo. Es decir, en algunos casos n(S) es una cantidad aleatoria. El conjunto de
todas las posibles muestras se conoce como soporte. Haciendo una analoga con
la inferencia estadstica clasica, el soporte generado por una muestra aleatoria
corresponde al espacio muestral generado por una variable aleatoria. A contin-
uacion se dan deniciones mas precisas acerca de la muestra aleatoria con o sin
reemplazo.
1
Notese que S es una variable aleatoria
2
1.2.1. Muestra aleatoria sin reemplazo
Denicion 2.1.1. Una muestra sin reemplazo se denota mediante un vector
columna
s = (s
1
, s
2
..., s
N
)

{0, 1}
N
donde da
s
k
=
_
1 si el k-esimo elemento pertenece a la muestra,
0 en otro caso
Una muestra aleatoria se dice sin reemplazo si la inclusion de cada uno de
los elementos se hace entre los elementos que no han sido escogidos a un, de
esta manera el conjunto s nunca tendra elementos repetidos. el tama no de una
muestra corresponde a la cardinalidad de s.
n(S) =

ks
1.
Como n(S) no es una cantidad ja, es posible que ocurra uno de los siguientes
escenarios. A saber si la muestra contiene a ning un elemento, entonces esta
nuestra se dice vaca; si la muestra de contiene a todos los elementos de la
poblacion, esta muestra se conoce con el nombre de censo.
1.2.2. Muestra aleatoria con reemplazo
Denicion 2.1.2. Una muestra con reemplazo se denota mediante un vector
columna
s = (s
1
, s
2
..., s
N
)

N
N
donde s
k
es el n umero de veces que el elemento k esta en la muestra. En algunos
casos, por conveniencia del mecanismo de seleccion, el usuario preere tomar una
muestra aleatoria con reemplazo si la inclusion de cada uno de los elementos
tiene en cuenta a todos los elementos, ya sea que hayan sido escogidos para
pertenecer a la muestra o no. De esta forma, el usuario puede seleccionar una
muestra cuyo proceso de seleccion incluya a un individuo m veces (notese que
m puede ser mayor que N). Sin embargo, en una muestra con reemplazo, dos o
mas componentes pueden ser identicos. Un elemento que este incluido mas de
una vez en s es llamado elemento elemento repetido. En principio el tama no
de muestra esta dado por
n(S) =
m

k=1
1.
El n umero de elementos distintos en una muestra aleatoria S con reemplazo
es llamado tama no de muestra efectivo y con probabilidad uno es menor o
igual a N.
3
1.2.3. Muestras probabilsticas
No todas las muestras aleatorias son probabilsticas. Una muestra (con o sin
reemplazo) es de tipo probabilstico s:
Es posible construir (o al menos denir teoricamente) un soporte Q, tal
que Q = {s
1
, ..., s
q
, ..., s
Q
}, de todas las muestras posibles obtenidas por
un metodo de seleccion. En donde s
q
, q = 1, ..., Q, es una muestra pertene-
ceinte a al soporte Q.
Las probabilidades de seleccion que el proceso aleatorio le otorga a cada
posible muestra perteneciente al soporte son conocidas de antemano al
proceso de seleccion de la muestra nal.
1.2.4. Dise no de muestreo
Denicion 2.1.3. Un dise no de muestreo p( ) sobre un soporte Q es una
distribucion de probabilidad multivariante sobre Q; es decir, p( ) es una funcion
que va desde Q
2
hasta (0, 1] tal que p(s) > 0 para todo s Q y

sQ
p(s) = 1.
Dado el soporte Q, un dise no de muestreo es una funcion p( ), tal que p(s)
arroja la probabilidad de seleccion de la muestra realizada s bajo un esquema
de seleccion particular. En otras palabras, si S es una muestra aleatoria que
toma el valor s con probabilidad p(s), tal que
P
r
(S = s) = p(s), para todo s Q.
Entonces p( ) es llamada dise no de muestreo. El dise no de muestreo, es una fun-
cion que va desde el soporte Q hasta el intervalo ]0, 1]. Por ser una distribucion
de probabilidad se tiene que p( ) cumple que
1. p(s) 0 para todo s Q
2.

sQ
p(s) = 1.
Notese que el dise no de muestreo no se reere a un algoritmo o procedimiento
que permite la seleccion de muestras. Dado un dise no de muestreo, el traba-
jo del estadstico consiste en encontrar un algoritmo que permita la seleccion
de muestras cuya probabilidad de seleccion corresponda a la probabilidad de
seleccion inducida por el dise no de muestreo.
4
1.2.5. Algoritmo de seleccion
Denicion 2.1.4. Un algoritmo de seleccion es un procedimiento usado
para seleccionar una muestra probabilstica.
1.2.6. Probabilidad de inclusion
La inclusion del elemento k-esimo en una muestra s particular es un evento
aleatorio denido por la funcion indicadora I
k
(s), que esta dada por
I
k
(s) =
_
1 si k s
0 si k / s
Notese que la funcion I
k
(s) es una funcion de la variable aleatoria S, enten-
diendose que I
K
es la funcion indicadora para el elemento k-esimo. Bajo un
dise no de muestreo p( ), una probabilidad de inclusion es asignada a ca-
da elemento de la poblacion para indicar la probabilidad de que el elemento
pertenezca a la muestra. Para el elemento k-esimo de la poblacion la proba-
bilidad de inclusion se denota como
k
y se conoce como la probabilidad de
inclusion de primer orden y esta dada por

k
= P
r
(k S) = P
r
(I
k
= 1) =

sk
p(s).
Analogamente,
kl
se conoce como la probabilidad de inclusion de segundo
orden y denota la probabilidad de que los elementos k y l pertenezcan a la
muestra y esta se denota como
kl
y esta dada por

kl
= P
r
(k S y l S) = P
r
(I
k
I
l
= 1) =

sk y l
p(s).
1.2.7. Caracterstica de interes y parametros de interes
El proposito de cualquier estudio por muestreo es estudiar una caractersti-
ca de interes y asociada a cada unidad de la poblacion. Es decir, la caractersti-
ca de interes toma el valor y
k
no se consideran variables sino cantidades jas,
por tanto la notacion de estas se hace con una letra minisc ula y. El objetivo
de la investigacion por muestreo es estimar una funcion de interes T, llamada
parametro, de la caracterstica de interes en la poblacion.
T = f{y
1
, ..., y
k
, ..., y
n
}.
Algunos de los parametros de interes mas comunes son:
1. El total poblacional,
t
y
=

kU
y
k
2. La media poblacional,
y
U
=

kU
y
k
N
=
t
y
N
3. La varianza poblacional,
S
2
y
U
=

kU
(y
k
y
U
)
2
N 1
5
1.2.8. Estadstica y estimador
Una estadstica es una funcion G (que toma valores reales) de la muestra
aleatoria S y solo depende de los elementos pertenecientes a S. Cuando una
estadstica se usa para estimar parametros de una poblacion se dice estimador
y las realizaciones del estimador en una muestra seleccionada s se dicen esti-
maciones.
Siendo G una estadstica, sus propiedades estadsticas estan determinadas por
un dise no de muestreo. Es decir, dada la probabilidad de seleccion de cada mues-
tra s Q, la esperanza, la varianza y otras propiedades estan denidas a partir
de p(s).
La esperanza de una estadstica G es
E(G) =

sQ
p(s)G(s).
La varianza de una estadstica G esta denida como
V ar(G) = E[GE(G)]
2
=

sQ
p(s)[G(s) E(G)]
2
1.2.9. La estadstica I
k
la cantidad I
k
es una estadstica que toma valores aleatoriamente dependi-
endo del dise no de muestreo utilizado.
Resultado 2.1.1. Las propiedades mas importantes de esta estadstica son:
E(I
k
) =
k
V ar(I
k
) =
k
(1
k
)
Cov(I
k
, I
l
) =
kl

k

l
1.2.10. La estadstica n(S) o tama no de muestra
Como ya se dijo, el tama no de muestra es una cantidad aleatoria, dependi-
endo del dise no. Notese que este valor puede ser expresado como funcion de las
estadsticas de inclusion.
n(S) =

U
I
k
.
Resultado 2.1.2 Algunas propiedades de interes son:
E(n(S)) =

U

k
V ar(n(S)) =

U

k
(

U

k
)
2
+

k=l

kl
.
Prueba. Para la primera propiedad, se tiene que
E[n(S)] = E
_

U
I
k
_
=

U
E[I
k
] =

k
6
Recordando las propiedades de la varianza de una suma se tiene
V ar[n(S)] = V ar
_

U
I
k
_
=

U
V ar[I
k
] +

k=l
Cov[I
k
, I
l
]
=

2
k

k=l

l
+

k=l

kl
=

k

_

k
_
2
+

k=l

kl
Ademas cuando la variacion del tama no de muestra es nula porque se ha decidido
utilizar un dise no de tama no muestral jo, se tienen las siguientes propiedades.
Resultado 2.1.3. Si el dise no de muestreo es de tama no jo e igual a n,
E(n(S)) =

U

k
= n

U

kl
= n
l

U

kl
= 0

k
(1
k
) =

k=l
(
k

l

kl
)
Prueba. La primera propiedad se tiene recordando que la esperanza de una
constante es ella misma. Notese que
kl
= E[I
k
(S)I
l
(S)], as

lU

kl
=

lU
E[I
k
(S)I
l
(S)]
=

lU

sQ
p(s)I
k
(s)I
l
(s)
=

sQ
p(s)I
k
(s)

lU
I
l
(s)
= n(S)

sQ
p(s)I
k
(s)
= n
k
La tercera propiedad se tiene pues

kl
=

U
(
kl

k

l
)
=

kl

k

l
= n
k
n
k
= 0
7
Para demostrar la ultima propiedad es necesario redenir el tama no de muestra
de tal manera que n =

l=k
I
l
(S) + I
k
(S). Luego,

k
(1
k
) = V ar(I
k
(S))
= Cov(I
k
(S), I
k
(S))
= Cov
_
_
I
k
(S), n

l=k
I
l
(S)
_
_
=

l=k
Cov(I
k
(S), I
k
(S))
=

l=k
(
k

l

kl
)
Cuando una estadstica se construye con la intencion de estimar un parametro,
recibe el nombre de estimador. As, las propiedades mas com unmente utilizadas
de un estimador

T de un parametro de interes T son el sesgo, denido por
B(

T) = E(

T) T
y el error cuadratico medio, dado por
ECM(

T) = E[

T T]
2
= V ar(

T) + B
2
(

T)
Si el sesgo de un estimador es nulo se dice que el estimador es insesgado y
cuando esto ocurre el error cuadratico medio se convierte en la varianza del
estimador.
Denicion 2.1.5. Siendo

T un estimador de un parametro T y p( ) un dise no de
muestreo denido sobre un soporte Q, se dene una estrategia de muestreo
como la dupla (p( ),

T).
8
2. Estimadores de Muestreo
Cada elemento de la poblacion tiene asociada una caracterstica de interes
y. Para el elemento k-esimo el valor que toma esta caracterstica de interes es
y
k
. El objetivo de la investigacion por muestreo es estimar un parametro T que
resulta de interes. El objetivo del estadstico es poder inferir acerca de T con
base en una muestra s. Un indicador de la precision esta dado por el coeciente
de variacion estimado dado por
cve(

T) =
_

V ar(

T)

T
donde V ar(

T) es el estimador de la varianza basado en la muestra seleccionada


s. El coeciente de variacion es una medida com unmente usada para expresar
el error cometido al seleccionar una muestra y ni utilizar a toda la poblacion
en la medicion de la variable de interes. Si se realiza un censo y el estimador
reprodujera el parametro poblacional, entonces V ar(

T) sera nula y, por lo tanto,


el cve tambien sera nulo.
2.1. El estimador de Horvitz-Thompson
Estimador del total poblacional
Para un universo U, se quiere estimar el total poblacional t
y
de la caracterstica
de interes y. Se dene el estimador de Horvitz-Thompson (HT) para t
y
como:

t
y,
=

S
y
k

k
=

S
d
k
y
k
Donde
k
es la probabilidad de inclusion del k-esimo elemento, y d
k
es conocido
como factor de expansion y corresponde al inverso de la probabilidad de in-
clusion. Notese que el estimador de Horvitz-Thompson es aleatorio porque esta
construido con base en una suma sobre la muestra aleatoria s. La motivacion
detras de este estimador, descansa en el principio de representatividad que
arma que cada elemento incluido en una muestra se representa a si mismo y a
un grupo de unidades que no pertenecen a la muestra seleccionada, cuyas car-
actersticas son cercanas a las del elemento incluido en la muestra. el factor de
expansion no es otra cosa que el n umero de elementos menos uno de la poblacion
(no incluidos en la muestra) representados por el elemento incluido.
Resultado 2.2.1. Si todas las probabilidades de inclusion de primer orden
son mayores a cero (
k
> 0 para todo k), el estimador Horvitz-Thompson es
insesgado para el total poblacional. Por tanto se tiene que
E(

t
y,
) = t
y
Prueba. Reescribiendo el estimador de Horvitz-Thompson como

t
y,
=

s
I
k
(S)
y
k

k
,
se tiene
E(

t
y,
) = E
_

U
I
k
(S)
y
k

k
_
=

U
y
k

k
E(I
k
(S)) =

k
y
k

k
= t
y
9
Varianza del estimador Horvitz-Thompson
Resultado 2.2.2 La varianza del estimador Horvitz-Thompson esta dada por
la siguiente expresion
V ar
1
(

t
y,
) =

kl
y
k

k
y
l

l
.
Prueba. De la denicion de varianza, se obtiene lo siguiente
V ar
1
(

t
y,
) = V ar
_

S
I
k
(S)
y
k

k
_
=

U
y
2
k

2
k
V ar(I
k
(S)) +

k=l
y
k

k
y
l

l
Cov(I
k
(S), I
l
(S))
=

U
y
2
k

2
k
(
k

2
k
) +

k=l
y
k

k
y
l

l
(
kl

k

l
)
=

U
y
k

k
y
k

kk
(1
kk
) +

k=l
y
k

k
y
l

l
(
kl

k

l
)
=

U
y
k

k
y
l

l
(
kl

k

l
)
=

kl
y
k

k
y
l

l
Resultado 2.2.3 Si el dise no p( ) es de tama no de muestra jo, entonces, la
varianza de estimador de Horvitz-Thompson se escribe como
V ar
2
(

t
y,
) =
1
2

kl
_
y
k

y
l

l
_
2
Prueba. Utilizando las propiedades de resultados para n(S) de tama no jo, se
tiene que
V ar
2
(

t
y,
) =
1
2

kl
_
y
k

y
l

l
_
2
=
1
2

kl
_
y
2
k

2
k
+
y
2
l

2
l
2
y
k

k
y
l

l
_
=
1
2
_

kl
y
2
k

2
k
+

kl
y
2
l

2
l
2

kl
y
l

k
y
k

l
_
=
1
2
_
2

kl
y
2
k

2
k
+

kl
y
l

k
y
k

l
_
=

kl
y
2
k

2
k
+

kl
y
l

k
y
k

l
=

kl
y
l

k
y
k

l
= V ar
1
(

t
y,
)
10
Puesto que

U

kl
= 0 para dise nos de tama no jo. Por lo tanto, en los ca-
sos de dise nos de muestreo con tama no jo, la varianza de estimador Horvitz-
Thompson puede calcularse por medio de V ar
2
(

t
y,
).
Estimacion de la varianza
Resultado 2.2.4. Un estimador insesgado para la varianza esta dada por

V ar
1
(

t
y,
) =

kl

kl
y
k

k
y
l

l
Resultado 2.2.5. Si el dise no es de tama no de muestra jo, un estimador
insesgado para la varianza esta dada por

V ar
2
(

t
y,
) =
1
2

kl

kl
_
y
k

y
l

l
_
2
Prueba. Para la primera expansion veamos que E(

V ar
1
(

t
y,
)) = V ar
1
(

t
y,
),
Notese que

V ar
1
(

t
y,
) =

kl

kl
y
k

k
y
l

l
I
k
(S)I
l
(S)
As
E(

V ar
1
(

t
y,
)) = E
_

kl

kl
y
k

k
y
l

l
I
k
(S)I
l
(S)
_
=

kl

kl
y
k

k
y
l

l
E(I
k
(S)I
l
(S))
=

kl

kl
y
k

k
y
l

kl
=

kl
y
k

k
y
l

l
= V ar
1
(

t
y,
)
Ahora para la seguna expresion, cuando tenemos un dise no de muestreo de
tama no jo, veamos que E(

V ar
2
(

t
y,
)) = V ar
2
(

t
y,
), Ademas notese que

V ar
2
(

t
y,
) =
1
2

kl

kl
_
y
k

y
l

l
_
2
I
k
(S)I
l
(S)
11
Por lo tanto
E(

V ar
2
(

t
y,
)) = E
_

1
2

kl

kl
_
y
k

y
l

l
_
2
I
k
(S)I
l
(S)
_
=
1
2

kl

kl
_
y
k

y
l

l
_
2
E(I
k
(S)I
l
(S))
=
1
2

kl

kl
_
y
k

y
l

l
_
2

kl
=
1
2

kl
_
y
k

y
l

l
_
2
= V ar
2
(

t
y,
)
2.2. Intervalo de conanza para el estimador de Horvitz-
Thompson
Se puede construir un intervalo de conanza de nivel (1 ) para el total t
y
de acuerdo con:
IC(1 ) =
_

t
y,
z1
2
_
V ar(

t
y,
),

t
y,
+ z1
2
_
V ar(

t
y,
)
_
En la practica muy pocas veces se conoce la varianza del estimador; por lo tanto,
el intervalo de conanza estimado de nivel (1 ) puede ser obtenido con los
datos de la muestra seleccionada reemplazando en la formula la varianza del
estimador por su correspondiente estimacion y tomara la siguiente expresion
IC(1 ) =
_

t
y,
z1
2
_

V ar(

t
y,
),

t
y,
+ z1
2
_

V ar(

t
y,
)
_
2.3. Estimacion de otros parametros
Resultado 2.2.6. la media poblacional es estimada insesgadamente medi-
ante el uso de la siguiente expresion

=
1
N
(

t
y,
) =
1
N

s
y
k

k
La varianza y la varianza estimada del estimador de la media poblacional estan
dadas por
V ar(

y

) =
1
N
2
V ar(

t
y,
)

V ar(

y

) =
1
N
2

V ar(

t
y,
)
Resultado 2.2.7. El tama no poblacional es estimado insesgadamente mediante
el uso de la siguiente expresion.

s
1

k
12
2.4. El estimador de Hansen-Hurwitz
El estimador para el total poblacional t
y,p
propuesto por Hansen y Hurwitz
basado en una muestra con reemplazo S de tama no m toma la siguiente forma

t
y,p
=
1
m
m

i=1
y
k
i
p
k
i
donde y
k
i
es el valor de k-esimo elemento en la i-esima extraccion. En este caso,
la variable indicadora I
k
determina el n umero de veces que el elemento k es
incluido en la muestra s y es tal que
p(I
k
= 1) = p
k
Resultado 2.2.8. En muestreo con reemplazo, la probabilidad de inclusion de
primer orden del elemento k-esimo esta dada por

k
= 1 (1 p
k
)
m
Prueba.

k
= Pr(k s) = 1 Pr(k / s)
= 1
_
m
m
_
(1 p
k
)
m
(p
k
)
mm
= 1 (1 p
k
)
m
Resultado 2.2.9. En muestreo con reemplazo, las probabilidades de inclusion
de segundo orden
kl
, estan dadas por:

kl
= 1 (1 p
k
)
m
(1 p
l
)
m
+ (1 p
k
p
l
)
m
Prueba.

kl
= Pr(k s y l s)
= 1 Pr(k / s) Pr(l / s) + Pr(k, l / s)
= 1 (1 p
k
)
m
(1 p
l
)
m
+
_
m
m
_
(1 p
k
p
l
)
m
(p
k
+ p
l
)
mm
= 1 (1 p
k
)
m
(1 p
l
)
m
+ (1 p
k
p
l
)
m
Resultado 2.2.10. Si p
k
> 0, para todo k U el estimador

t
y,p
es insesgado
Prueba. Notese que

t
y,p
=
1
m

U
y
k
p
k
I
k
(S), As
E(

t
y,p
) = E
_
1
m

U
y
k
p
k
I
k
(S)
_
=
1
m

U
y
k
p
k
E(I
k
(S))
=
1
m

U
y
k
p
k
mp
k
=

U
y
k
= t
y,p
13
Varianza del estimador Hansen-Hurwitz
Resultado 2.2.11. La varianza del estimador Hansen-Hurwitz esta dada por
la siguiente expresion
V ar(

t
y,p
) =
1
m
N

i=1
p
k
_
y
k
p
k
t
y
_
2
Prueba. Por la indepencia de las selecciones se tiene que
V ar(

t
y,p
) = V ar
_
1
m

U
y
k
p
k
I
k
(S)
_
=
1
m
2
_
_

U
_
y
k
p
k
_
2
V ar(I
k
(S)) +

k=l
y
k
p
k
y
l
p
l
Cov(I
k
(S), I
l
(S))
_
_
=
1
m
2
_
_

U
_
y
k
p
k
_
2
mp
k
(1 p
k
) +

k=l
y
k
p
k
y
l
p
l
(mp
k
p
l
)
_
_
=
1
m
_
_

U
_
y
k
p
k
_
2
p
k
(1 p
k
)

k=l
y
k
y
l
_
_
=
1
m
_
_

U
_
y
k
p
k
_
2
p
k

U
_
y
k
p
k
_
2
p
2
k

k=l
y
k
y
l
_
_
=
1
m
_
_

U
_
y
k
p
k
_
2
p
k

U
y
2
k

k=l
y
k
y
l
_
_
=
1
m
_
_

U
_
y
k
p
k
_
2
p
k

_

U
y
k
_
2
_
_
=
1
m
_

U
_
y
k
p
k
_
2
p
k
t
2
_
=
1
m
_

U
_
y
k
p
k
_
2
p
k
2t
2
+ t
2
_
=
1
m
_

U
_
y
k
p
k
_
2
p
k
2t

U
y
k
p
k
p
k
+ t
2

U
p
k
_
=
1
m
_

U
p
k
_
_
y
k
p
k
_
2
2t
_
y
k
p
k
_
+ t
2
__
=
1
m

U
p
k
_
y
k
p
k
t
y
_
2
14
Resultado 2.2.12. De manera general, la varianza del estimador Hansen-
Hurwitz se puede escribir de la siguiente manera
V ar(

t
y,p
) =
1
m
_

U
y
2
k
p
k
t
y
_
2
Prueba.
V ar(

t
y,p
) =
1
m

U
p
k
_
y
k
p
k
t
y
_
2
=
1
m

U
p
k
_
y
2
k
p
2
k
2t
y
y
k
p
k
+ t
2
y
_
=
1
m

U
_
y
2
k
p
k
2t
y
y
k
+ p
k
t
2
y
_
=
1
m
_

U
y
2
k
p
k
2t
y

U
y
k
+ t
2
y

U
p
k
_
=
1
m
_

U
y
2
k
p
k
2t
2
y
+ t
2
y
_
=
1
m
_

U
y
2
k
p
k
t
y
_
2
Estimacion de la varianza
Resultado 2.2.13 Un estimador insesgado de la varianza del estimador Hansen-
Hurwitz es

V ar(

t
y,p
) =
1
m(m1)
m

i=1
_
y
i
p
i

t
y,p
_
2
Resultado 2.2.14 Una expresion alternativa de la varianza del estimador
Hansen-Hurwitz en muestreo con reemplazo es

V ar(

t
y,p
) =
1
m(m1)
m

i=1
_
y
i
p
i
_
2
m

t
2
y,p
Prueba. Partiendo del resultado anterior, se tiene que
m(m1)

V ar(

t
y,p
) =
m

i=1
_
y
i
p
i

t
y,p
_
2
=
m

i=1
_
y
2
i
p
2
i
2

t
y,p
y
i
p
i
+

t
2
y,p
_
=
m

i=1
_
y
2
i
p
2
i
_
2

t
y,p
m

i=1
y
i
p
i
+ m

t
y,p
=
m

i=1
_
y
2
i
p
2
i
_
2m

t
y,p
+ m

t
y,p
=
m

i=1
_
y
i
p
i
_
2
m

t
2
y,p
15
Para la primera expresion veamos que E(

V ar(

t
y,p
)) = V ar(

t
y,p
) y utilizado el
resultado anterior tenemos que
E(

V ar(

t
y,p
)) =
1
m(m1)
_

U
_
y
k
p
k
_
2
E(I
k
(S)) mE(

t
2
y,p
)
_
=
1
m(m1)
_

U
_
y
k
p
k
_
2
mp
k
m(V ar(

t
y,p
) + t
2
y,p
)
_
=
1
m(m1)
__

U
_
y
k
p
k
_
2
mp
k
mt
2
y,p
_
mV ar(

t
y,p
)
_
=
1
(m1)
_

U
_
y
k
p
k
_
2
p
k
t
2
y,p
_

1
(m1)
V ar(

t
y,p
)
=
1
(m1)
_
mV ar(

t
y,p
)

1
(m1)
V ar(

t
y,p
)
= V ar(

t
y,p
)
3. Dise nos de muestreo de elementos
3.1. Dise no de muestreo Bernoulli
En el dise no de muestreo Bernoulli se ja a priori la probabilidad de inclusion
de todos los elementos de la poblacion, la cual, permanece constante para todo el
universo, es decir,
k
= . Como n(S) es aleatorio, existen 2
N
posibles muestras.
Notese que n(S) tiene distribucion Binomial y, por tanto, la esperanza y la
varianza estaran dadas por
E(n(S)) = N V ar(n(S)) = N(1 )
3.1.1. El estimador de Horvitz-Thompson
Resultado 3.1.1. Para el dise no de muestreo Bernoulli, el estimador de
Horvitz-Thompson, su varianza y su varianza estimada estan dadas por

t
y,
=
1

s
y
k
V
BER
(

t
y,
) =
_
1

1
_

U
y
2
k

V
BER
(

t
y,
) =
1

_
1

1
_

s
y
2
k
16
Prueba. Para el estimador, sabemos que

t
y,
=
1

U
I
k
(S)y
k
, As
E(

t
y,
) = E
_
1

U
y
k
I
k
(S)
_
=
1

U
y
k
E(I
k
(S))
=
1

U
y
k
= t
y
Para la varianza el resultado es inmediato dado que

kl
=
_

kl

k

l
=
2

2
= 0 para k = l

kk

k

k
= (1 ) para k = l
Entonces
V
BER
(

t
y,
) = V ar
_

U
I
k
(S)
y
k

_
=

U
y
2
k

2
V ar(I
k
(S)) +

k=l
y
k

y
l

Cov(I
k
(S), I
l
(S))
=

U
y
2
k

2
(1 )
=

U
y
2
k

U
y
2
k
=
_
1

1
_

U
y
2
k
Para la varianza estimada se verica que E(

V
BER
(

t
y,
)) = V
BER
, As
E(

V
BER
(

t
y,
)) = E
_
1

_
1

1
_

U
y
2
k
I
k
(S)
_
=
1

_
1

1
_

U
y
2
k
E(I
k
(S))
=
1

_
1

1
_

U
y
2
k

=
_
1

1
_

U
y
2
k
3.2. Dise no de muestreo aleatorio simple sin reemplazo
Resultado 3.2.1 Para un dise no de muestreo aleatorio simple sin reemplazo
las probabilidades de inclusion de primer y segundo orden estan dadas por:

k
=
n
N
17

kl
=
n(n 1)
N(N 1)
Respectivamente. La covarianza de las variables indicadoras esta dada por

kl
=
_

kl

k

l
=
n
N
2
(Nn)
(N1)
para k = l

k
(1
k
) =
n(Nn)
N
2
para k = l
Prueba. Recurriendo a la denicion de probabilidad de inclusion de primer
orden, se tiene que

k
= Pr(I
k
(S) = 1)
=
_
1
1
__
N1
n1
_
_
N
n
_ =
n
N
Por otro lado,

kl
= Pr(k S y l l)
= Pr(I
k
(S) = 1 y I
l
(S) = 1)
= Pr(I
k
(S) = 1|I
l
(S) = 1)Pr(I
l
(S) = 1)
=
n 1
N 1
n
N
=
n(n 1)
N(N 1)
Resultado 3.2.2. Para un dise no de muestreo aleatorio simple, el estimador de
Horvitz-Thompson del total poblacional t
y
su varianza y su varianza estimada
estan dadas por:

t
y,
=
N
n

S
y
k
V
MAS
(

t
y,
) =
N
2
n
_
1
n
N
_
S
2
yU

V
MAS
(

t
y,
) =
N
2
n
_
1
n
N
_
S
2
yS
Respectivamente, con
S
2
yU
=
1
N 1

U
(y
k
y
U
)
2
,
la varianza poblacional de la caracterstica de interes en el universo U y con
S
2
yS
=
1
N 1

S
(y
k
y
S
)
2
la varianza muestral de los valores de la caracterstica de interes de la mues-
tra aleatoria S. Notese que

t
y,
es insesgado para el total poblacional t
y
de la
caracterstica de interes y y que

V
MAS
(

t
y,
) es insesgado para V
MAS
(

t
y,
)
Prueba. Por el resultado anterior, tenemos

t
y,
=

S
y
k

k
=
N
n

S
y
k
.
18
La demostracion de la varianza es inmediata al reemplazar las cantidades apropi-
adas en la expresion generica y teniendo en cuenta que

k=l
=

l
y
k
y
l

k=l
y
k
y
l
=
_

U
y
k
_
2

U
y
2
k
De tal forma que,
V
MAS
(

t
y,
) =
N
2
n
2
V
MAS
_

U
I
k
(S)y
k
_
=
N
2
n
2
_
_

U
V ar(I
k
(S))y
2
k
+

k=l
Cov(I
k
(S), I
k
(S))y
k
y
l
_
_
=
N
2
n
2
_
_
n(N n)
N
2

U
y
2
k

n
N
2
(N n)
N 1

k=l
y
k
y
l
_
_
=
(N n)
n

U
y
2
k

(N n)
n(N 1)

k=l
y
k
y
l
=
(N n)
n
_
_

U
y
2
k

1
N 1

k=l
y
k
y
l
_
_
=
(N n)
n
1
N 1
_
_
(N 1)

U
y
2
k

k=l
y
k
y
l
_
_
=
(N n)
n
1
N 1
_
_
_
(N 1)

U
y
2
k

_
_
_

U
y
k
_
2

U
y
2
k
_
_
_
_
_
=
(N n)
n
1
N 1
_
_
_
(N 1)

U
y
2
k

_

U
y
k
_
2
+

U
y
2
k
_
_
_
=
(N n)
n
1
N 1
_
_
_
N

U
y
2
k

_

U
y
k
_
2
_
_
_
=
N(N n)
n
1
N 1
_

U
y
2
k

(

U
y
k
)
2
N
_
=
N(N n)
n
1
N 1
_

U
(y
k
y
U
)
2
_
=
N
2
n
_
1
n
N
_
S
2
yU
Para demostrar el insesgamiento de la varianza estimada es suciente demostrar
que S
2
y
S
es insesgado para S
2
y
U
.
19
E(S
2
yS
) = E
_
1
n 1
_

S
y
2
k
n y
2
S
__
=
1
n 1
_
E
_

S
y
2
k
_
nE
_

t
y,
N
_
2
_
=
1
n 1
_
n
N
_

S
y
2
k
_

n
N
2
E
_

t
y,

2
_
=
1
n 1
_
n
N
_

S
y
2
k
_

n
N
2
_
N
2
n
_
1
n
N
_
S
2
yU
t
2
y
_
_
=
n
n 1
_
1
N
_

S
y
2
k
_

1
n
_
1
n
N
_
S
2
yU

t
2
y
N
2
_
=
n
n 1
_
N 1
N
S
2
yU

N n
nN
S
2
yU
_
= S
2
yU
En donde se utilizo el hecho de que y
S
=

t
y,
N
y ademas E(

t
y,
) = V ar(

t
y,
) t
2
y
3.2.1. Estimacion de la media poblacional
Resultado 3.2.5. Para un dise no de muestreo aleatorio simple, el estimador
de Horvitz-Thompson para la media poblacional y
U
, su varianza y su varianza
estimada estan dados por:

t
y,
N
=

S
y
k
n
= y
S
V
MAS
(

y

) =
1
N
2
V ar(

t
y,
) =
1
n
_
1
n
N
_
S
2
yU
n

V
MAS
(

y

) =
1
N
2
V ar(

t
y,
) =
1
n
_
1
n
N
_
S
2
yS
n
3.2.2. Estimacion en dominios
Resultado 3.2.6. El total de la variable de interes en el dominio U
d
esta da-
do por
t
yd
=

U
y
dk
,
El tama no del dominio U
d
toma la siguiente expresion
N
d
=

U
z
dk
,
de tal forma que la media de la caracterstica de interes en el dominio U
d
se
escribe como
y
U
d
=
t
yd
N
d
=

U
y
dk
N
d
20
3.2.3. Estimacion del total en un dominio
Resultado 3.2.7. Bajo el muestreo aleatorio simple sin reemplazo, el es-
timador de Horvitz-Thompson para el total del dominio t
yd
su varianza y su
varianza estimada estan dados por:

t
yd,
=
N
n

S
y
dk
=
N
n

S
d
y
k
V ar(

t
yd,
) =
N
2
n
_
1
n
N
_
S
y
d
U

V ar(

t
yd,
) =
N
2
n
_
1
n
N
_
S
y
d
s
3.2.4. Estimacion del tama no absoluto de un dominio
Resultado 3.2.8. Bajo el muestreo aleatorio simple sin reemplazo, el es-
timador de Horvitz-Thompson para el tama no absoluto de un dominio N
d
su
varianza y su varianza estimada estan dados por:

N
d,
=
N
n

S
z
dk
=
N
n

S
d
z
k
V ar(

N
d,
) =
N
2
n
_
1
n
N
_
S
2
z
d
U

V ar(

N
d,
) =
N
2
n
_
1
n
N
_
S
2
z
d
S
3.2.5. Estimacion del tama no relativo de un dominio
Resultado 3.2.9. Bajo el muestreo aleatorio simple sin reemplazo, el es-
timador de Horvitz-Thompson para el tama no relativo de un dominio P
d
su
varianza y su varianza estimada estan dados por:

P
d,
=
1
N

S
N
n
z
dk
=
1
n

S
z
dk
=
n
d
n
V ar(

P
d,
) =
1
n
_
1
n
N
_
S
2
z
d
U

V ar(

P
d,
) =
1
n
_
1
n
N
_
S
2
z
d
S
3.2.6. Estimacion de la media de un dominio
Resultado 3.2.10. Bajo el muestreo aleatorio simple sin reemplazo, el es-
timador de Horvitz-Thompson para la media de la caracterstica de interes en
un dominio y
U
d
su varianza y su varianza estimada estan dados por:

y
U
d,
=
N
n

S
y
dk
N
d
21
V ar(

y
U
d,
) =
1
N
2
d
N
2
n
_
1
n
N
_
S
2
y
d
U

V ar(

y
U
d,
) =
1
N
2
d
N
2
n
_
1
n
N
_
S
2
y
d
S
En la practica pocas veces se conoce el valor N
d
por tanto se utiliza el estimador
alternativo

y
S
d,
=

S
d
y
k
n
d
3.3. Muestreo aleatorio simple con reemplazo
Una muestra aleatoria simple con reemplazo, de tama no m de una
poblacion de N es la extraccion de m muestras independientes de tama no 1, en
donde cada elemento se extrae de la poblacion con la misma probabilidad
p
k
=
1
N
k U
Resultado 3.3.3. Para un dise no aleatorio simple con reemplazo, las probabil-
idades de inclusion de primer y segundo orden estan dadas por:

k
= 1
_
1
1
N
_
m

kl
= 1 2
_
1
1
N
_
m
+
_
1
2
N
_
m
Resultado 3.3.4. Para un dise no de muestreo aleatorio simple con reemplazo, el
estimador de Hansen-Hurwitz del total poblacional t
y
, su varianza y su varianza
estimada estan dadas por:

t
y,
=
N
m
m

i=1
y
i
V ar
MRAS
(

t
y,
) = N
(N 1)
m
S
2
yU

V ar
MRAS
(

t
y,
) = N
(N 1)
m
S
2
ysr
Los resultados se obtienen escribiendo el estimador de Hansen-Hurwitz de la
siguiente manera

t
y,
=
1
m

U
n
k
(S)
y
k
p
k
=
N
m

U
n
k
(S)y
k
Por tanto se tiene que
E(

t
y,
) =
N
m

U
E(n
k
(S))y
k
=
N
m

U
m
N
y
k
= t
y
22
Por otro lado se tiene que
V ar
MRAS
(

t
y,
) =
1
m

U
p
k
_
y
k
p
k
t
y
_
2
=
1
m

U
p
k
_
y
k
p
k
t
y
p
k
_
2
=
1
m

U
p
k
p
2
k
(y
k
p
k
t
y
)
2
=
1
m

U
1
p
k
(y
k
p
k
t
y
)
2
=
1
m

U
1
1
N
(y
k

1
N
t
y
)
2
= (N 1)
N
m

U
(y
k
y
U
)
2
(N 1)
= N
(N 1)
m
S
2
yU
Escribiendo el estimador de la varianza como

V ar(

t
y,
) =
1
m
1
m1

U
n
k
(S)(Ny
k

t
y,p
)
2
se tiene el insesgamiento dado por:
E
_

V ar(

t
y,
)
_
=
1
m
1
m1

U
E(n
k
(S)(Ny
k

t
y,p
)
2
)
=
1
m
1
m1

U
E(n
k
(S)(Ny
k

t
y,
)
2
n
k
(S)(

t
y,p
t
y
)
2
)
=
1
m
1
m1
E
_

U
n
k
(S(N
y
k
) t
y
)
2
_

1
m
1
m1
E
_
(

t
y,p
t
y
)
2

U
n
k
(S)
_
=
1
m
1
m1
_
E
_

U
n
k
(S)(N
y
k
t
y
)
2
_
mE
_
(

t
y,p
t
y
)
2
_
_
=
1
m
1
m1
_
m
_

U
m
N
(N
y
k
t
y
)
2
_
mV ar(

t
y,p
)
_
=
1
m
1
m1
[m
2
V ar(

t
y,p
) mV ar(

t
y,p
)]
= V ar(

t
y,p
)
3.4. Dise no de muestreo sistematico
En algunas ocasiones, cuando no se dispone de un marco de muestreo, por lo
menos no de forma explcita, o cuando el marco esta ordenado de forma particu-
lar, con respecto a los rotulos del mismo, es posible utilizar el dise no de muestreo
sistematico como una opcion para la seleccion de muestras. La caracterstica mas
23
particular de este dise no de muestreo es que todas las unidades se suponen enu-
meradas del 1 al N, al menos implcitamente, y se tiene conocimiento de que la
poblacion se encuentra particionada en a grupos poblacionales latentes.
Resultado 3.4.2. Para un dise no de muestreo sistematico, las probabilidades
de inclusion de primer y segundo orden estan dadas por

k
=
1
a

kl
=
_
1
a
si el k y l pertenecen a s
r
,
0 en otro caso
Resultado 3.4.3. Para un dise no p( ) con soporte Q, la varianza del estimador
de Horvitz-Thompson, se puede escribir como
V ar(

t
y,
) =

kl

l
y
k
y
l

_

U
y
k
_
2
Prueba. Partiendo del resultado general, se tiene que
V ar(

t
y,
) =

kl
y
k

k
y
l

l
=

U
(
kl

k

l
)
y
k

k
y
l

l
=

U
_

kl

l
1
_
y
k
y
l
=

kl

l
y
k
y
l

U
y
k
y
l
=

kl

l
y
k
y
l

_

U
y
k
_
2
En donde se utilizo el hecho de que

U
y
k
y
l
=

k=l
y
k
y
l
+

U
y
2
k
=
_

U
y
k
_
2
Resultado 3.4.4. Para el dise no de muestreo sistematico, el estimador de
Horvitz-Thompson y su varianza estan dados por:

t
y,
= at
sr
,
con t
sr
=

kS
r
y
k
, y
V ar
SIS
(

t
y,
) = a
a

r=1
(t
sr
t)
2
Prueba. De la denicion del estimador de Horvitz-Thompson y dado que las
probabilidades de inclusion de primer orden son iguales al valor
1
a
, entonces

t
y,
=

S
r
y
k

k
= at
sr
24
Utilizando los dos resultados anteriores, se sigue que
V ar
SIS
(

t
y,
) =

kl

l
y
k
y
l

_

U
y
k
_
2
= a
a

r=1
_

sr
y
k
y
l
_
t
2
= a
a

r=1
_

ks
r
y
k

ls
r
y
l
_
t
2
= a
a

r=1
t
2
s
r
t
2
= a
a

r=1
(t
s
r

t)
2
donde

t =
a

r=1
t
s
r
a
=
t
a
3.5. Dise no de muestreo Poisson
Resultado 3.5.1. bajo muestreo Poisson, el tama no de muestra n(S) es una
variable aleatoria, tal que
E(n(S)) =

k
V ar(n(S)) =

k
(1
k
)
Resultado 3.5.2. bajo muestreo Poisson, las probabilidades de inclusion de
primer y segundo orden estan dadas por:

k
=
k

kl
=
_

k
para k = l

l
en otro caso
respectivamente.
Resultado 3.5.3. Para el dise no de muestreo Poisson, el estimador de Horvitz-
Thompson, su varianza y su varianza estimada estan dadas por:

t
y,
=

S
y
k

k
V ar
PO
(

t
y,
) =

U
_
1

k
1
_
y
2
k

V ar
PO
(

t
y,
) =

S
(1
k
)
_
y
k

k
_
2
25
Prueba. Por el resultado general para la varianza del estimador Horvitz-Thompson
y puesto que

kl
=
_

kl

k

l
=
k

l

k

l
= 0 parak = l

kk

2
k
=
k
(1
k
) para k = l
Luego
V ar
PO
(

t
y,
) =

U
(
kk

k

k
)
y
k

k
y
k

k
=

U
(
k

2
k
)
_
y
k

k
_
2
=

U
_

k

2
k

2
k
_
y
2
k
=

U
_
1

k
1
_
y
2
k
As,
E(

V ar
PO
(

t
y,
)) = E
_

U
(1
k
)n(S)
_
y
k

k
_
2
_
=

U
(1
k
)E(n(S))
_
y
k

k
_
2
=

U
(1
k
)

k
_
y
k

k
_
2
=

U
[(1
k
)
k
]
_
y
k

k
_
2
=

U
_

k

2
k

2
k
_
y
2
k
=

U
_
1

k
1
_
y
2
k
= V ar
PO
(

t
y,
)
Varianza minma
k
=
ny
k

U
y
k
ver (cm).
3.6. Dise no de muestreo PPT
El dise no PPT, es un muestreo con reemplazo y probabilidades de seleccion
proporcionales al tama no de una variable auxiliar x, donde (p
k
x
k
), es decir,
p
k
=
x
k

U
x
k
Resultado 4.2.3. Para un dise no de muestreo con reemplazo y con probabili-
dades de seleccion proporcionales al tama no de una caracterstica de informacion
auxiliar las probabilidades de inclusion de primer y segundo orden estan dadas
por

k
= 1 (1 p
k
)
m
26

kl
= 1 (1 p
k
)
m
(1 p
l
)
m
+ (1 p
k
p
l
)
m
Respectivamente. En donde p
k
=
x
k

U
x
k
=
x
k
t
x
Resultado 4.2.4. Sea x
k
, el valor de la caracterstica auxiliar continua, para
un dise no de muestreo proporcional al tama no con reemplazo, el estimador de
Hansen-Hurwitz del total poblacional t
y
, su varianza y su varianza estimada
estan dadas por:

t
y,p
=
t
x
m
m

i=1
y
k
i
x
k
i
V ar
PPT
(

t
y,p
) =
1
m
N

k=1
p
k
_
y
k
p
k
t
y
_
2

V ar
PPT
(

t
y,p
) =
1
m(m1)
m

i=1
_
y
i
p
i

t
y,p
_
2
Resultado 4.2.6. La varianza del estimador Hansen-Hurwitz tambien puede
ser escrita como
V ar
PPT
(

t
y,p
) =
1
m

k<l
p
k
p
l
_
y
k
p
k

y
l
p
l
_
2
Prueba. Desarrollando terminos, se tiene que
1
m

k<l
p
k
p
l
_
y
k
p
k

y
l
p
l
_
2
=
1
2m

k,l
p
k
p
l
_
y
k
p
k

y
l
p
l
_
2
=
1
2m

kU
p
k

lU
p
l
_
y
k
p
k

y
l
p
l
_
2
=
1
2m

kU
p
k

lU
_
p
l
y
2
k
p
2
k
2
y
k
y
l
p
k
+
y
2
l
p
l
_
=
1
2m

kU
p
k
_
y
2
k
p
2
k
2
y
k
p
k
t
y
+

l U
y
2
l
p
l
_
=
1
2m
_

kU
y
2
k
p
k
2t
2
y
+

lU
y
2
l
p
l
_
=
1
m
_

kU
y
2
k
p
k
t
2
y
_
=
1
m

kU
_
y
2
k
p
k
p
k
t
2
y
_
=
1
m

kU
p
k
_
y
2
k
p
2
k
2
y
k
p
k
t
y
+ t
2
y
_
=
1
m

kU
p
k
_
y
k
p
k
t
y
_
2
y esta ultima expresion coincide con la varianza del estimador Hansen-Hurwitz
en muestreo PPT.
27
3.7. Dise no de muestreo PT
Este dise no de muestreo induce probabilidades de inclusion proporcionales
al tama no de una caracterstica de informacion auxiliar. De esta manera, se
supone que el marco de muestreo tiene la bondad de poseer informacion auxiliar
de tipo continuo y positiva disponible para todo elemento de la poblacion nita.
Asimismo, el dise no de muestreo PT, de tama no de muestra jo e igual a n,
se basa en la construccion de probabilidades de inclusion que obedezcan a la
siguiente relacion:

k
=
nx
k
t
x
0 <
k
1
En ciertas ocasiones, cuando la poblacion tiene un comportamiento muy vari-
able, irregular y sesgado, algunas de las p
i
k
inducidas las probabilidades de
inclusion pueden ser mayores a uno para ciertos elementos. En tal caso, estos
elementos son incluidos en todas las posibles muestras y toman el nombre de
elementos de inclusion forzosa. Sin embargo, para calcular la probabilidad
de inclusion de los elementos restantes, se debe excluir a estos elementos de la
inclusion forzosa y volver a calcular las probabilidades de inclusion mediante
una reformulacion de la expresion anterior dada por:

k
=
(n n

)x
k

U
x
k
0 <
k
1; k U

Por tanto, el problema se reduce a la seleccion de n unidades con probabilidades


de inclusion tales que

kU

k
= n
Resultado 4.3.1. Para el dise no de muestreo PT, el estimador de Horvitz-
Thompson, su varianza y su varianza estimada estan dados por:

t
y,
=

S
y
k

k
V ar
PT
(

t
y,
) =
1
2

kl
_
y
k

y
l

l
_
2

V ar
PT
(

t
y,
) =
1
2

kl

kl
_
y
k

y
l

l
_
2
28

You might also like