You are on page 1of 35

DISTRIBUCIÓN MUESTRAL

PROF. JULIA MARCANO


UDO
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

DISTRIBUCIONES MUESTRALES

Conceptos Básicos

Parámetro es una medida de resumen numérica que se calcularía usando todas las
unidades de la población.

Es un número fijo. Generalmente no lo conocemos.

Estadística es una medida de resumen numérica que se calcula de las unidades de la


muestra.

Inferencia estadística: es el proceso de sacar conclusiones de la población basados en la


información de una muestra de esa población.

Objetivos de la inferencia:

 Estimación de parámetros
 Intervalos de confianza y
 Docimasia, test de hipótesis o pruebas de significación estadística.

La estimación de parámetros consiste en el cálculo de estadísticas en muestras, con el fin de obtener


información sobre el valor de los parámetros de la población. Esta inducción se basa en la teoría de
probabilidades y sólo es posible cuando se conoce la conducta o "distribución muestral" de las
estadísticas.

La docimasia de hipótesis consiste en conocer la probabilidad de ocurrencia, bajo la hipótesis nula, del
resultado obtenido en la investigación, basándose en la distribución muestral de la estadística utilizada
para medir tal resultado.

Distribuciones muéstrales

Uno de los objetivos de la Estadística es saber acerca del comportamiento de parámetros


poblacionales tales como: la media (𝜇 ), La varianza (𝜎 2 ) o la proporción (𝑝). Se extrae una
muestra aleatoria de la población y se calcula el valor de un estadístico correspondiente,
por ejemplo, la media muestral (𝑋̅), la varianza muestral (𝑆 2 ) o la proporción muestral
(𝑝̂ ).

Una estadística muestral proveniente de una muestra aleatoria simple tiene un patrón de
comportamiento (predecible) en repetidas muestras. Este patrón es llamado la distribución
muestral de la estadística.

Si conocemos la distribución muestral podemos hacer inferencia.

1
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Las distribuciones muéstrales adoptan diferentes formas según las estadísticas investigadas
y las características de la población estudiada.

A partir de las muestras seleccionadas de una población pueden construirse variables


aleatorias alternativas, de cuyo análisis se desprenden interesantes propiedades
estadísticas. Las dos formas más comunes de estas variables corresponden a las
distribuciones muéstrales de las medias y de las proporciones.

Distribución muestral de las medias

Con 𝝈 conocida

La distribución muestra de la media 𝑋̅ es la distribución probabilística de todos los valores


posibles de 𝑋̅ que pueden ocurrir cuando se toma una muestra de tamaño n de alguna
población con media 𝜇 y varianza 𝜎 2 .

Teorema del límite central: Si 𝑋̅ es la media de una muestra aleatoria de tamaño n tomada
de una población con media µ y varianza finita σ2, entonces la forma límite de la distribución
de

𝑋̅ − 𝜇
𝑧= 𝜎
√𝑛

Conforme 𝑛 → ∞ , es la distribución normal estándar 𝑁 (0,1)

Se cumple:

1. Establecida una distribución muestral de las medias de tamaño n, su esperanza


matemática adopta el valor siguiente:

𝐸[𝑋] = 𝜇 = 𝜇𝑋̅𝑖 = 𝐸 (𝑋̅)

siendo 𝜇 la media aritmética de la población, 𝑋̅ la media aritmética de cada muestra, 𝜇𝑋̅𝑖


la media aritmética de todas las medias, 𝐸[𝑋] la esperanza matemática de la variable
aleatoria x (para la población) y 𝐸 (𝑋̅) la esperanza matemática de la variable aleatoria 𝑋̅
(para la distribución muestral de las medias).

2. Por su parte, los valores de la varianza y la desviación típica de esta distribución


muestral de tamaño n son:

𝑉[𝑋] = 𝜎 2 ; 𝑉[𝑋̅] = 𝜎𝑋̅ = 𝜎⁄ = 𝜎 2 /𝑛


√𝑛

Donde:

2
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝜎 : es la desviación típica de la población,

𝜎𝑋̅ : la desviación típica de la distribución muestral,

𝑉[𝑋] la varianza de la variable x (población) y

𝑉[𝑋̅] la varianza de la variable 𝑋̅ (distribución muestral de las medias).

Con el proceso de elección de las unidades muéstrales pueden hacerse a partir de una
población finita o infinita, con o sin reposición. Si n es el tamaño de la muestra y N el de la
𝑛
población > 0.05, entonces es necesario emplear un Factor de Corrección para
𝑁
𝑁−𝑛
población Finita para la desviación estándar √
𝑁−1

Extracción
Población Con reemplazo Sin reemplazo
Infinita 𝜇𝑋̅ = 𝜇 𝜇𝑋̅ = 𝜇

𝜎𝑋̅ = 𝜎⁄ 𝜎𝑋̅ = 𝜎⁄
√𝑛 √𝑛
Finita (N) 𝜇𝑋̅ = 𝜇 𝜇𝑋̅ = 𝜇

𝜎𝑋̅ = 𝜎⁄ (𝑁 − 𝑛 )
√𝑛 𝜎𝑋̅ = (𝜎⁄ ) . √ ⁄(𝑁 − 1)
√𝑛

Para hallar la distribución muestral de la media se procede de la siguiente manera:

1. Se seleccionan desde la población todas las muestras posibles de tamaño n.


2. En cada muestra se calcula la media muestral.
3. A partir de dicha información se construye la distribución de frecuencias relativas de
las medias muéstrales, la cual se define como su distribución muestral.

3
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Con 𝝈 desconocida

Para estimar σ se debe utilizar la desviación estándar muestral corregido, ya que es un


estimador insesgado del parámetro poblacional σ.

∑(𝑋𝑖 − 𝑋̅)2
𝑆=√
𝑛−1

Teorema del límite central: Si 𝑋̅ es la media de una muestra aleatoria de tamaño n tomada
de una población con media µ y varianza finita σ2, entonces la forma límite de la distribución
de

𝑋̅ − 𝜇
𝑡= 𝑠
√𝑛

Es el valor de una variable aleatoria con distribución t y grados de libertad v = n-1.

Distribución muestral de la diferencia entre dos medias

Si se extraen al azar muestras independientes de tamaño n 1 y n2 de dos poblaciones,


discretas o continuas, con medias 𝜇1 y 𝜇2 y varianzas 𝜎12 y 𝜎22 , respectivamente, entonces
la distribución muestral de las diferencias de las medias 𝑋̅1 − 𝑋̅2 , está distribuida
aproximadamente de forma normal con media y varianza dadas por

𝜎 𝜎
𝜇𝑋̅1 −𝑋̅2 = 𝜇1 − 𝜇2 𝑦 𝜎𝑋̅1 −𝑋̅2 = √𝑛1 + 𝑛2
1 2

De aquí

(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 )


𝑧=
𝜎 𝜎
√𝑛1 + 𝑛2
1 2

Es aproximadamente una variable normal estándar.

Si n1 y n2 son mayores que o iguales a 30, la aproximación normal para la distribución de


𝑋̅1 − 𝑋̅2 es muy buena sin importar las formas de las dos poblaciones. Sin embargo, aun
cuando n1 y n2 sean menores que 30, la aproximación normal es razonablemente buena
excepto cuando las poblaciones no son definitivamente normales. Por supuesto, si ambas
poblaciones son normales, entonces 𝑋̅1 − 𝑋̅2 tiene una distribución normal sin importar
cuáles son los tamaños de n1 y n2.

4
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Distribución muestral de las proporciones


𝑥
La proporción de la población se define como 𝜋 = 𝑁, donde x es el número de elementos
que poseen cierta característica y N es el número total de elementos de la población. De
𝑥
igual manera la proporción muestral se define como 𝑝 = 𝑛 , donde x es el número de
elementos de la muestra que poseen cierta característica y N es el tamaño de la muestra.
Así, se puede considerar una proporción como una proporción de éxitos, lo cual se obtiene
dividiendo el número de éxitos entre el tamaño de la muestra

Si p es la proporción de una muestra aleatoria de tamaño n, 𝒏 ≥ 𝟑𝟎 tomada de una


población con proporción P esta aproximadamente distribuida como una normal con:

𝑝−𝜋
𝑧=
𝑝𝑞

𝑛

Conforme 𝑛 → ∞ , es la distribución normal estándar 𝑁 (0,1). 𝑞 = 1 − 𝑝

 Si n es suficientemente grande, entonces

𝑐−𝜋
𝑃 (𝑝 ≤ 𝑐 ) ≅ 𝑃 𝑧 ≤
𝑝𝑞

( 𝑛 )

 Cuando n es pequeña se obtienen aproximaciones satisfactorias si se introduce el


factor de corrección por continuidad 𝟏/𝟐𝒏.

1
𝑐 + 2𝑛 − 𝜋
𝑃 (𝑝 ≤ 𝑐 ) ≅ 𝑃 𝑧 ≤
𝑝𝑞

( 𝑛 )

Parámetros estadísticos de una distribución muestral de las proporciones de tamaño n:

Extracción
Población Con reemplazo Sin reemplazo
Infinita 𝜇𝑝 = 𝜇 𝜇𝑝 = 𝜇
𝑝𝑞 𝑝𝑞
𝜎𝑝 = √ 𝜎𝑝 = √
𝑛 𝑛
Finita (N) 𝜇𝑝 = 𝜇 𝜇𝑝 = 𝜇
𝑝𝑞 𝑝𝑞 (𝑁 − 𝑛 )
𝜎𝑝 = √ 𝜎𝑝 = (√ ) . √ ⁄(𝑁 − 1)
𝑛 𝑛

5
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

El factor de corrección se utiliza si se la población es finita y sin reemplazo o 𝑁⁄𝑛 < 20.

Si 𝑛⁄𝑁 < 0.05 el factor de corrección se obvia.

Distribución de la diferencia de proporciones

De dos poblaciones se toman dos muestras aleatorias independientes de tamaños n 1 30


y n2 30, y en cada una de ellas se observa una característica o cualidad. La proporción
muestral de elementos con una característica se define como:

𝑥1 𝑥2
𝑝1 = 𝑝2 =
𝑛1 𝑛2

𝑝1 𝑞1 𝑝2 𝑞2
𝑝1 − 𝑝2 ~ 𝑁 (𝜋1 − 𝜋2 , + )
𝑛1 𝑛2

De aquí

(𝑝1 − 𝑝2 ) − (𝜋1 − 𝜋2 )
𝑧=
𝑝1 𝑞1 𝑝2 𝑞2
√ 𝑛 + 𝑛
1 2

Es aproximadamente una variable normal estándar N(0,1).

Distribución en el muestreo de la varianza

El supuesto fundamental es que la población tiene distribución normal con media 𝜇 y


varianza σ2. De esta población se obtiene una muestra aleatoria de tamaño n.

La varianza de la muestra se define como:

2
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝑆 =
𝑛

Se multiplica por 𝑛⁄𝜎 2 se obtiene

𝑛𝑆 2 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
= 𝑒𝑐. 1
𝜎2 𝜎2

Esta expresión ec.1 es similar a:

6
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2
𝑒𝑐. 2
𝜎2

Que tiene distribución chi-cuadrado con n grados de libertad. La diferencia es que en uno
interviene la media muestral 𝑋̅ y en el otro la media poblacional 𝜇.

Una variable aleatoria con distribución normal estándar, elevada al cuadrado, tiene
distribución chi-cuadrado y sus grados de libertad dependen del número de observaciones.

Si una variable aleatoria X tiene distribución normal, N(𝜇, 𝜎 2 ), por el teorema central del
límite:

2 (𝑋̅ − 𝜇 )
𝑋̅ ~ 𝑁 (𝜇, 𝜎 ⁄𝑛) → 𝜎 ~ 𝑁(0,1)
⁄ 𝑛

(𝑋̅ − 𝜇 ) 𝑛(𝑋̅ − 𝜇 ) 2
= ~ 𝜒(1)
𝜎 2⁄ 𝜎 2
𝑛

La distribución de la estadística de

(𝑛 − 1)𝑆 2
𝜎2

Se obtiene desarrollando lo siguiente

∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ + 𝑋̅ − 𝜇 )2 ∑𝑛𝑖=1[(𝑋𝑖 − 𝑋̅) + (𝑋̅ − 𝜇 )]2


= =
𝜎2 𝜎2 𝜎2

Desarrollando el binomio

∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2 ∑𝑛𝑖=1[(𝑋𝑖 − 𝑋̅)2 + 2(𝑋𝑖 − 𝑋̅)(𝑋̅ − 𝜇 ) + (𝑋̅ − 𝜇 )2 ]


=
𝜎2 𝜎2

Aplicando propiedades de la suma ∑𝑛𝑖=1[(𝑋̅ − 𝜇 )2 ] = 𝑛[(𝑋̅ − 𝜇 )2 ]

∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2 ∑𝑛𝑖=1[(𝑋𝑖 − 𝑋̅)2 + 2(𝑋̅ − 𝜇 ) ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅ ) + 𝑛(𝑋̅ − 𝜇 )2 ]


=
𝜎2 𝜎2

Por propiedades de la media: ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅) = 0 se tiene

∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 𝑛(𝑋̅ − 𝜇 )2


= +
𝜎2 𝜎2 𝜎2
7
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 ∑𝑛𝑖=1(𝑋𝑖 − 𝜇 )2 𝑛(𝑋̅ − 𝜇 )2


= −
𝜎2 𝜎2 𝜎2
2 2
𝑡𝑖𝑒𝑛𝑒 ~ 𝜒(𝑛) 𝑡𝑖𝑒𝑛𝑒 ~ 𝜒(1)

Por lo tanto

𝑛𝑆 2 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 2
= ~ 𝜒(𝑛−1)
𝜎2 𝜎2

Es decir que la sustitución de la media poblacional por la media muestral reduce en 1 los
grados de libertad de la chi-cuadrado. Lo anterior nos indica que cada vez que se reemplaza
un parámetro por un estimador, se reduce en 1 los grados de libertad de la distribución chi-
cuadrado.

Con la varianza corregida:

Si 𝑆 2 es la varianza de una muestra aleatoria de tamaño n que se toma de una población


normal que tiene desviación estándar σ, entonces la estadística

(𝑛 − 1) 𝑆 2 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝜒2 = =
𝜎2 𝜎2

Distribución del Cociente de Varianzas

De dos poblaciones con distribución normal y varianzas poblacionales 𝜎12 y 𝜎22 se toman
dos muestras aleatorias independientes de tamaños n 1 y n2.

Como se vio, en la distribución de la varianza se llega a una distribución chi-cuadrado y del


cociente de dos chi-cuadrado se obtiene una distribución F de Snedecor.

𝑛1 𝑆12 2 𝑛2 𝑆22 2
~ 𝜒(𝑛 1 −1)
~ 𝜒(𝑛 2 −1)
𝜎12 𝜎22

8
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝑛1 𝑆12
𝜎12
𝑛1 − 1 𝑛1 (𝑛2 − 1)𝑆12 𝜎22
= ~ 𝐹((𝑛1−1, 𝑛2 −1)
𝑛2 𝑆22 𝑛2 (𝑛1 − 1)𝑆22 𝜎12
𝜎22
𝑛2 − 1

9
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

ESTIMACIÓN PUNTUAL. ESTIMACIÓN POR INTERVALOS DE CONFIANZA.

INTRODUCCIÓN

El objetivo básico de la inferencia estadística es hacer inferencias o sacar conclusiones


sobre la población a partir de la información contenida en una muestra aleatoria de la
población. Más específicamente, podemos decir que la inferencia estadística consiste en el
proceso de selección y utilización de un estadístico muestral, mediante el cual, utilizando la
información que nos proporciona una muestra aleatoria, nos permite sacar conclusiones
sobre características poblacionales.

Cualquier inferencia o conclusión obtenida de la población, necesariamente, estará basada


en un estadístico muestral, es decir, en la información proporcionada por la muestra (un
estadístico es una función de las observaciones muéstrales). La elección del estadístico
apropiado dependerá de cuál sea el parámetro poblacional que nos interese. El valor
verdadero del parámetro será desconocido y un objetivo sería estimar su valor, por lo que
tal estadístico se denomina estimador.

Las inferencias sobre el valor de un parámetro poblacional θ se pueden obtener


básicamente de dos maneras: a partir de estimación o bien a partir del contraste de
hipótesis.

En la estimación, basta seleccionar un estadístico muestral cuyo valor se utilizará como


estimador del valor del parámetro poblacional.

En el contraste de hipótesis, se hace una hipótesis sobre el valor del parámetro θ y se utiliza
la información proporcionada por la muestra para decidir si la hipótesis se acepta o no.

Ambos métodos de inferencia estadística utilizan las mismas relaciones teóricas entre
resultados muéstrales y valores poblacionales. Así pues, una muestra es sacada de la
población y un estadístico muestral es utilizado para hacer inferencias sobre el parámetro
poblacional. En estimación, la información muestral es utilizada para estimar el valor del
parámetro θ. En el contraste de hipótesis, primero se formula la hipótesis sobre el valor de
θ y la información muestral se utiliza para decidir si la hipótesis formulada debería ser o no
rechazada.

Pero cuando se utiliza la inferencia para estimar un parámetro poblacional debemos decir
cómo de buena es esa inferencia, o sea debemos dar una medida de su bondad. Para ello
será necesario conocer la diferencia existente entre la estimación del parámetro
poblacional, calculada a partir de una muestra específica de tamaño n, y el valor verdadero
del parámetro poblacional.

Hay dos tipos de inferencia: la deductiva y la inductiva. Una inferencia deductiva es un juicio
o generalización que se basa en un razonamiento o proceso dialéctico a priori. Por ejemplo,

10
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

se supone que dos monedas están perfectamente equilibradas y que entonces la


probabilidad de cada una de caer "cara" es = 0,5 (premisa). La media o número esperado
de "caras" en la jugada de las monedas deber ser 1 (conclusión). Si las premisas son ciertas,
las conclusiones no pueden ser falsas.

Una inferencia inductiva, por otra parte, es un juicio o generalización derivado de


observaciones empíricas o experimentales; la conclusión sobre el número promedio de
"caras" con base en los resultados de una muestra de prueba. Si los resultados de las
pruebas son diferentes, la conclusión también será diferente. No se requiere una suposición
a priori sobre la naturaleza de las monedas. La inferencia estadística es primordialmente de
naturaleza inductiva y llega a generalizaciones respecto de las características de una
población al valerse de observaciones empíricas de la muestra.

Es muy probable que una estadística muestral sea diferente del parámetro de la población
y sólo por coincidencia sería el uno exactamente igual al otro. La diferencia entre el valor
de una estadística muestral y el correspondiente parámetro de la población se suele llamar
error de estimación. Sólo se sabría cuál es el error si se conociera el parámetro poblacional,
pero éste por lo general se desconoce. La única manera de tener alguna certeza al respecto
es hacer todas las observaciones posibles del total de la población en la mayoría de las
aplicaciones prácticas, lo cual, desde luego, es imposible o impracticable.

Las inferencias estadísticas se hacen por posibilidades o probabilidades. De la media de la


muestra se hacen inferencias sobre la media de la población. No se sabe exactamente cuál
es la diferencia entre estas dos medias, ya que la última es desconocida en la mayoría de
los casos. No obstante, si se sabe que es más bien poca la probabilidad de que esta
diferencia sea mayor que, por ejemplo, tres a aún dos errores estándares.

Los problemas que se tratan en la inferencia estadística se dividen generalmente en dos


clases: los problemas de estimación y los de prueba de hipótesis. Como al estimar un
parámetro poblacional desconocido se suele hacer una afirmación o juicio este último
ofrece solamente una estimación. Es un valor particular obtenido de observaciones de la
muestra. No hay que confundir este concepto con el de estimador, que se refiere a la regla
o método de estimar un parámetro poblacional. Por ejemplo, se dice que X es un estimador
de µ porque la media muestral proporciona un método para estimar la media de la
población. Un estimador es por naturaleza una estadística y como tal tiene una
distribución. El procedimiento mediante el cual se llega a la obtención y se analizan los
estimadores se llama estimación estadística, que a su vez se divide en estimación puntual
y estimación por intervalos.

Los métodos de inferencia estadística emplean el razonamiento inductivo, razonamiento de


lo particular a lo general y de lo observado a lo no observado.

Cualquier colección o agregación grande de cosas que deseamos estudiar o de las cuales
deseamos hacer inferencias, se llama población. El término población tiene más significado

11
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

cuando se lo junta con la definición de muestra de una población: una muestra es una parte
o subconjunto de una población.

Una muestra de n elementos de la población de N elementos, debería ser seleccionada de


forma tal que las características de la población puedan ser estimadas con un margen de
error conocido.

ESTIMACION PUNTUAL

Una estimación puntual del valor de un parámetro poblacional desconocido (puede ser la
media µ, o la desviación estándar σ), es un número que se utiliza para aproximar el
verdadero valor de dicho parámetro poblacional. A fin de realizar tal estimación, se toma
una muestra de la población y se calcula el parámetro muestral asociado ( 𝑥̅ para la media,
s para la desviación estándar). El valor de este parámetro muestral será la estimación
puntual del parámetro poblacional.

Por ejemplo, se desea estimar la edad media de los estudiantes de Estadística II de la sección
01. Se selecciona una muestra de 18 estudiantes de un total de 40, y se calcula la media de
esta muestra, este valor será un estimador puntual de la media de la población.

El estimador del parámetro poblacional θ es una función de las variables aleatorias u


observaciones muéstrales y se representa por

𝜃̂ = 𝑔(𝑋1 , 𝑋2 , … , 𝑋𝑛 )

Para una realización particular de la muestra (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) se obtiene un valor específico


del estimador que recibe el nombre de estimación del parámetro poblacional θ y lo
notaremos por

𝜃̂ = 𝑔(𝑥1 , 𝑥2 , … , 𝑥𝑛 )

Un parámetro describe una población de la misma manera que una estadística describe a
una muestra.

Es costumbre simbolizar las estadísticas con letras romanas y los parámetros con letras
griegas.

12
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Estadística Parámetro
Media aritmética ̅
𝑿 µ
Variancia S² σ2
Desviación estándar S σ
Coeficiente de correlación R r

Una estadística calculada a partir de una muestra es un estimador del parámetro en la


población. Una estimación es alguna función de los resultados de una muestra que produce
un valor, llamado estimador.

El estimador da alguna información respecto al parámetro. Por ejemplo, la media de la


muestra, 𝑋̅ , es un estimador de la media µ en la población. En la siguiente tabla se expresa
diferentes parámetros poblacionales.

Parámetro
Estimador Estimación
poblacional
n n

Media 
 Xi x i
̂  X  i 1
x i 1

n n
1 n
 ( X i  X )2
1 n
 xi  x  
2
Varianza 
2
̂ 2  S 2  s2 
n  1 i 1 n  1 i 1
X númeroéxitos 𝑥
Proporción p p  𝑝̂ =
n númeropruebas 𝑛

El método usado para seleccionar la muestra es muy importante al juzgar la validez de la


inferencia que se hace de la muestra a la población.

Para que una muestra sirva adecuadamente como base para obtener estimadores de
parámetros poblacionales, debe ser representativa de la población.

El muestreo al azar de una población producirá muestras que a la larga son representativas
de la población.

Si una muestra se extrae aleatoriamente, es representativa de la población en todos los


aspectos, es decir, la estadística diferirá del parámetro solo por azar. La habilidad para
estimar el grado de error debido al azar (error de muestreo), es un rasgo importante de una
muestra al azar.

13
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Propiedades de un buen estimador

Para poder utilizar la información que se tenga de la mejor manera posible, se necesita
identificar las estadísticas que sean buenos estimadores, cuyas propiedades son:

a) Estimador insesgado

Si tenemos un gran número de muestras de tamaño n y obtenemos el valor del estimador


en cada una de ellas, sería deseable que la media de todas estas estimaciones coincidiera
con el valor de μ. Se dice que un estimador es insesgado si su esperanza matemática
coincide con el valor del parámetro a estimar.

b) Estimador eficiente

Se dice que los estimadores son eficientes cuando generan una distribución muestral con
el mínimo error estándar, es decir, entre dos estimadores insesgado de un parámetro dado
es más eficiente el de menor varianza.

c) Estimador consistente

Un estimador se dice consistente cuando su valor tiende hacia el verdadero valor del
parámetro a medida que aumenta el tamaño de la muestra. Es decir, la probabilidad de que
la estimación sea el verdadero valor del parámetro tiende a 1.

d) Estimador suficiente

Se dice de un estimador que es suficiente cuando es capaz de extraer de los datos toda la
información importante sobre el parámetro.

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

Dentro del primer procedimiento, la estimación de un parámetro puede tener por resultado
un solo punto (estimación puntual), o un intervalo dentro del cual exista cierta probabilidad
de encontrarlo (estimación por intervalos).

Un estimador por intervalo se construye sobre el concepto de un estimador puntual, pero


además, proporciona algún grado de exactitud del estimador. Como el término lo sugiere,
un estimador por intervalo es un rango o banda dentro de la cual el parámetro se supone
va a caer.

Estimar un parámetro a través de un único valor, no es muy conveniente pues con ella no
se puede determinar el error de muestreo, ni la precisión de la estimación, ni la confianza
que merece tal estimación.
14
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Existen otros métodos para estimar parámetros poblacionales que son mucho más precisos.
Por ejemplo:

* Método de los mínimos cuadrados: se verá en Teoría de la Regresión.

* Método de los momentos

* Método de la máxima verosimilitud: que se basa en el principio de que generalmente


ocurre lo más probable

* Método de estimación por intervalos de confianza: que se desarrolla a continuación.

El procedimiento de determinar un intervalo (a, b) que comprenda un parámetro de


población θ con cierta probabilidad 1 - α, se llama estimación por intervalos.

En general, para cualquier parámetro θ y su correspondiente estimador 𝜃̂, el intervalo de


confianza será:

𝑃{𝜃̂𝐼 ≤ 𝜃 ≤ 𝜃̂𝑆 } = 1 − 𝛼

Donde:

𝜃̂𝐼 : es el límite inferior del intervalo de confianza.

𝜃̂𝑆 : es el límite superior del intervalo de confianza.

𝛼: es la probabilidad de que el intervalo no incluya al verdadero valor del parámetro.

1 – α: es el nivel de confianza, es una medida de la fiabilidad de la estimación. Por ejemplo,


si se toma α = 10%, entonces 1 - α = 90% y se dice que se tiene un intervalo de confianza
del 90% y que la probabilidad de que el intervalo contenga al verdadero valor del parámetro
es del 90%. Es decir, que si repetidamente se muestra y se construye tal intervalo una y otra
vez, 90 de cada 100 de estos intervalos, contendrá al parámetro y 10 de ellos no.

Se puede pensar que 1 significa certeza, seguridad y α significa riesgo. La seguridad menos
el riesgo, es decir 1 – α da, por lo tanto, el coeficiente de confianza de nuestras
afirmaciones.

En el caso anterior, se tiene una confianza de que 90 de cada 100 intervalos que se extraigan
como muestra, contendrán el verdadero valor del parámetro. Pero una vez determinado el
intervalo, es decir, una vez calculados numéricamente los extremos, ya no debe hablarse
en términos de confiabilidad ni en términos probabilísticos, pues la situación pasa a ser
completamente determinística. De tal manera, asociado a un intervalo de confianza ya

15
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

calculado, se tiene una probabilidad 0 ó 1 de que contenga al parámetro a estimar y no hay


otra opción, ya que lo contiene o no lo contiene.

Resumiendo, los extremos del intervalo son variables aleatorias, mientras que el parámetro
a determinar es constante.

En general, los pasos a seguir para estimar un parámetro por el método de los intervalos de
confianza, son:

 Fijar el coeficiente de confianza que se desea en la estimación.


 Extraer la muestra y calcular el o los estadísticos necesarios.
 Determinar la distribución en el muestreo que tiene el estadístico empleado.

INTERVALO DE CONFIANZA PARA LA MEDIA POBLACIONAL µ

Teorema del límite central

Si 𝑋̅ es la media de una muestra aleatoria de tamaño n tomada de una población con media
µ y varianza finita σ2, entonces la forma límite de la distribución de

𝑋̅ − 𝜇
𝑧= 𝜎
√𝑛

Conforme 𝑛 → ∞ , es la distribución normal estándar 𝑁 (0,1)

CASO 1: Con σ conocido:

Sea 𝑋̅~𝑁 (𝜇, 𝜎) donde µ es desconocido y σ conocido.

Sea x1, x2, ... , xn una muestra aleatoria de la variable aleatoria X y sea 𝑋̅ la media muestral.
𝜎
Por el Teorema del Limite Central se sabe que 𝑋̅~𝑁 (𝜇, )
√𝑛
independientemente del valor de n.

Se fija el nivel de confianza (1 − 𝛼)

16
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝑃 {−𝑧𝛼⁄2 ≤ 𝑧 ≤ 𝑧𝛼⁄2 } = 1 − 𝛼

El estadístico tipificado es:


𝑋̅ − 𝜇 𝜎
𝑧= 𝜎 𝜎𝑋̅ =
√𝑛
√𝑛

Por lo tanto

𝑋̅ − 𝜇
𝑃 {−𝑧𝛼⁄2 ≤ 𝜎 ≤ 𝑧𝛼⁄2 } = 1 − 𝛼
√𝑛
𝜎
Multiplicando por
√𝑛

𝜎 𝜎
𝑃 {−𝑧𝛼⁄2 ≤ 𝑋̅ − 𝜇 ≤ 𝑧𝛼⁄2 }=1−𝛼
√𝑛 √𝑛

Restar 𝑋̅

𝜎 𝜎
𝑃 {−𝑋̅ − 𝑧𝛼⁄2 ≤ −𝜇 ≤ −𝑋̅ + 𝑧𝛼⁄2 } = 1−𝛼
√𝑛 √𝑛

Multiplicando por -1

𝜎 𝜎
𝑃 {𝑋̅ − 𝑧𝛼⁄2 ≤ 𝜇 ≤ 𝑋̅ + 𝑧𝛼⁄2 }=1−𝛼
√𝑛 √𝑛

donde z / 2 es tal que


P(Z  z / 2 ) 
2
17
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

y la variable aleatoria Z→N(0,1).

El intervalo de confianza de 𝝁 con 𝝈 conocida:

𝝈 𝝈
̅ − 𝒛𝜶⁄
(𝑿 , ̅ + 𝒛𝜶⁄
𝑿 )
𝟐 √𝒏 𝟐 √𝒏

𝜎
𝑋̅ ± 𝑧𝛼⁄2
√𝑛
𝜎
El error estándar de 𝑋̅ es
√𝑛

Observaciones:

- Si las muestras se toman sin reposición de una población finita de tamaño N, debe
emplearse el factor de corrección por finitud y el intervalo será:

𝜎 𝑁−𝑛 𝜎 𝑁−𝑛
(𝑋̅ − 𝑧𝛼⁄2 × ×√ , ̅𝑋 + 𝑧𝛼⁄ × ×√ )
√𝑛 𝑛−1 2
√𝑛 𝑛−1

- Si la población es sólo aproximadamente normal, la igualdad sigue siendo válida en forma


aproximada.

CASO 2: Con σ desconocido

Para estimar σ se debe utilizar la desviación estándar muestral corregido, ya que es un


estimador insesgado del parámetro poblacional σ. 𝑿 ̅ y S son la media y la desviación
estándar de una muestra aleatoria de una población normal.

∑(𝑋𝑖 − 𝑋̅)2
𝑆=√
𝑛−1

El estadístico tipificado es:


𝑋̅ − 𝜇 𝑆
𝑡= 𝜎𝑋̅ =
𝑆 √𝑛
√𝑛

18
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝑃 {−𝑡𝛼⁄2 ≤ 𝑡 ≤ 𝑡𝛼⁄2} = 1 − 𝛼

Por lo tanto

𝑋̅ − 𝜇
𝑃 {−𝑡𝛼⁄2 ≤ ≤ 𝑡𝛼⁄2 } = 1 − 𝛼
𝑆
√𝑛

𝑡𝛼⁄2: es el valor t-student con v = n-1 grados de libertad

𝜎
Multiplicando por
√𝑛

𝑆 𝑆
𝑃 {−𝑡𝛼⁄2 ≤ 𝑋̅ − 𝜇 ≤ 𝑡𝛼⁄2 } = 1−𝛼
√𝑛 √𝑛

Restar 𝑋̅

𝑆 𝑆
𝑃 {−𝑋̅ − 𝑡𝛼⁄2 ≤ −𝜇 ≤ −𝑋̅ + 𝑡𝛼⁄2 }=1−𝛼
√𝑛 √𝑛

Multiplicando por -1

𝑆 𝑆
𝑃 {𝑋̅ − 𝑡𝛼⁄2 ≤ 𝜇 ≤ 𝑋̅ + 𝑡𝛼⁄2 }=1−𝛼
√𝑛 √𝑛

𝛼
Donde 𝑃(𝑡 > 𝑡𝛼⁄2 ) = 2

El intervalo de confianza de 𝝁 con 𝝈 desconocida:

𝑆 𝑆
(𝑋̅ − 𝑡𝛼⁄2 , 𝑋̅ + 𝑡𝛼⁄2 )
√𝑛 √𝑛

𝑆
𝑋̅ ± 𝑡𝛼⁄2
√𝑛
𝑆
El error estándar de 𝑋̅ es
√𝑛

19
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

INTERVALO DE CONFIANZA PARA LA DIFERENCIA DE MEDIAS

CASO 1:

Sea 𝑋̅1 ~𝑁(𝜇1 , 𝜎1 ) y 𝑋̅2 ~𝑁(𝜇2 , 𝜎2 ) donde 𝝁𝟏 y 𝝁𝟐 son desconocidos y 𝝈𝟏 y 𝝈𝟐


conocidos. 𝑋̅1 − 𝑋̅2 es un estimador puntual de la diferencia entre 𝝁𝟏 y 𝝁𝟐 .

Supongamos dos muestras independientes de tamaño n 1 y n2 procedentes de poblaciones


normales. 𝑋̅1 ~𝑁(𝜇1 , 𝜎1 ) y 𝑋̅2 ~𝑁(𝜇2 , 𝜎2 ), respectivamente. Si las medias para las
muestras observadas son 𝑋̅1 y 𝑋̅2 , entonces un intervalo de confianza, al nivel de confianza
del (1-α)%, para las diferencias de medias poblacionales 𝜇1 − 𝜇2 viene dado por:

𝑃 {−𝑧𝛼⁄2 ≤ 𝑧 ≤ 𝑧𝛼⁄2 } = 1 − 𝛼

Donde el estadístico tipificado es:


(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) 𝜎1 𝜎2
𝑧= 𝜎𝑋̅1 −𝑋̅2 = √ +
𝜎 𝜎 𝑛1 𝑛2
√𝑛1 + 𝑛2
1 2

Por lo tanto

(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 )


𝑃 −𝑧𝛼⁄2 ≤ ≤ 𝑧𝛼⁄2 = 1 − 𝛼
𝜎1 𝜎2
√𝑛 + 𝑛
{ 1 2 }

𝜎1 𝜎2
Multiplicando por √ +
𝑛1 𝑛2

𝜎1 𝜎2 𝜎1 𝜎2
𝑃 {−𝑧𝛼⁄2 √ + ≤ (𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) ≤ 𝑧𝛼⁄2 √ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Restar (𝑋̅1 − 𝑋̅2 )

𝜎1 𝜎2 𝜎1 𝜎2
𝑃 {−(𝑋̅1 − 𝑋̅2 ) − 𝑧𝛼⁄2 √ + ≤ −(𝜇1 − 𝜇2 ) ≤ −(𝑋̅1 − 𝑋̅2 ) + 𝑧𝛼⁄2 √ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Multiplicando por -1

20
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝜎1 𝜎2 𝜎1 𝜎2
𝑃 {(𝑋̅1 − 𝑋̅2 ) + 𝑧𝛼⁄2 √ + ≥ (𝜇1 − 𝜇2 ) ≥ (𝑋̅1 − 𝑋̅2 ) − 𝑧𝛼⁄2√ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Se obtiene

𝜎1 𝜎2 𝜎1 𝜎2
𝑃 {(𝑋̅1 − 𝑋̅2 ) − 𝑧𝛼⁄2 √ + ≤ (𝜇1 − 𝜇2 ) ≤ (𝑋̅1 − 𝑋̅2 ) + 𝑧𝛼⁄2√ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

donde z / 2 es tal que


P(Z  z / 2 ) 
2
y la variable aleatoria Z→N(0,1).

El intervalo de confianza para 𝝁𝟏 − 𝝁𝟐 con 𝝈𝟏 y 𝝈𝟐 conocidos.

𝜎1 𝜎2 𝜎1 𝜎2
((𝑋̅1 − 𝑋̅2 ) − 𝑧𝛼⁄2 √ + , (𝑋̅1 − 𝑋̅2 ) − 𝑧𝛼⁄ √ + )
𝑛1 𝑛2 2 𝑛1 𝑛2

𝜎1 𝜎2
(𝑋̅1 − 𝑋̅2 ) ± 𝑧𝛼⁄ √ +
2 𝑛1 𝑛2

𝜎1 𝜎2
El error estándar de (𝑋̅1 − 𝑋̅2 ) es√ +
𝑛1 𝑛2

CASO 2.a:

Sea 𝑋̅1 ~𝑁(𝜇1 , 𝜎1 ) y 𝑋̅2 ~𝑁(𝜇2 , 𝜎2 ) donde 𝝁𝟏 y 𝝁𝟐 son desconocidos y varianzas iguales
pero desconocidas, es decir, 𝜎1 2 = 𝜎2 2 = 𝜎 2

Si 𝑋̅1 y 𝑋̅2 son las medias de muestras aleatorias independientes de tamaño n1 y n2


respectivamente, de poblaciones aproximadamente normales con varianzas iguales pero
desconocidas, es decir, 𝜎1 2 = 𝜎2 2 = 𝜎 2 entonces un intervalo de confianza, al nivel de
confianza del (1-α)%, para las diferencias de medias poblacionales 𝜇1 − 𝜇2 viene dado
por:

𝑃 {−𝑡𝛼⁄2 ≤ 𝑡 ≤ 𝑡𝛼⁄2} = 1 − 𝛼

Donde el estadístico tipificado es:

21
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) 1 1


𝑡= 𝜎𝑋̅1 −𝑋̅2 = 𝑆𝑝 × √ +
1 1 𝑛1 𝑛2
𝑆𝑝 × √𝑛 + 𝑛
1 2

(𝑛1 − 1)𝑆1 2 + (𝑛2 − 1)𝑆2 2


𝑆𝑝 2 =
𝑛1 + 𝑛2 − 2

Por lo tanto

(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 )


𝑃 −𝑧𝛼⁄2 ≤ ≤ 𝑧𝛼⁄2 = 1 − 𝛼
1 1
𝑆𝑝 × √ +
{ 𝑛1 𝑛2 }

1 1
Multiplicando por 𝑆𝑝 × √𝑛 + 𝑛
1 2

1 1 1 1
𝑃 {−𝑡𝛼⁄2 𝑆𝑝 × √ + ≤ (𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) ≤ 𝑡𝛼⁄2𝑆𝑝 × √ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Restar (𝑋̅1 − 𝑋̅2 )

1 1 1 1
𝑃 {−(𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄2 𝑆𝑝 × √ + ≤ −(𝜇1 − 𝜇2 )𝜇 ≤ −(𝑋̅1 − 𝑋̅2 ) + 𝑡𝛼⁄2 𝑆𝑝 × √ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Multiplicando por -1

1 1 1 1
𝑃 {(𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄ 𝑆𝑝 × √ + ≤ (𝜇1 − 𝜇2 ) ≤ (𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄ 𝑆𝑝 × √ + } = 1 − 𝛼
2 𝑛1 𝑛2 2 𝑛1 𝑛2

𝛼
𝑃(𝑡 > 𝑡𝛼⁄2 ) =
2

El intervalo de confianza para 𝝁𝟏 − 𝝁𝟐 con 𝝈𝟐𝟏 = 𝝈𝟐𝟐 desconocidos.

1 1 1 1
((𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄2 𝑆𝑝 × √ + , (𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄ 𝑆𝑝 × √
2
+ )
𝑛1 𝑛2 𝑛1 𝑛2

22
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

1 1
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝛼⁄ 𝑆𝑝 × √ +
2 𝑛1 𝑛2

1 1
El error estándar de (𝑋̅1 − 𝑋̅2 ) es 𝑆𝑝 × √𝑛 + 𝑛
1 2

Donde 𝑆𝑝 es la estimación de unión de la desviación estándar poblacional.

𝑡𝛼⁄2 es el valor t con 𝜗 = 𝑛1 + 𝑛2 − 2 grados de libertad.

Caso 2.b:

Sea 𝑋̅1 ~𝑁(𝜇1 , 𝜎1 ) y 𝑋̅2 ~𝑁(𝜇2 , 𝜎2 ) donde 𝝁𝟏 y 𝝁𝟐 son desconocidos y varianzas


diferentes pero desconocidas, es decir, 𝝈𝟏 𝟐 ≠ 𝝈𝟐 𝟐

Si 𝑋̅1 y 𝑋̅2 son las medias de muestras aleatorias independientes de tamaño n1 y n2


respectivamente, de poblaciones aproximadamente normales con varianzas iguales pero
desconocidas, es decir, 𝜎1 2 ≠ 𝜎2 2 entonces un intervalo de confianza, al nivel de confianza
del (1-α)%, para las diferencias de medias poblacionales 𝜇1 − 𝜇2 viene dado por:

𝑃 {−𝑡𝛼⁄2 ≤ 𝑡 ≤ 𝑡𝛼⁄2} = 1 − 𝛼

Donde el estadístico tipificado es:


(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) 𝑆1 𝑆2
𝑡= 𝜎𝑋̅1 −𝑋̅2 = √ +
𝑆1 𝑆2 𝑛1 𝑛2
√ +
𝑛1 𝑛2

Con
2
𝑆2 𝑆 2
( 1 + 2 )
𝑛1 𝑛2
𝑣= 2 2
𝑆2 𝑆 2
( 1 ) ( 2 )
𝑛1 𝑛2
+
(𝑛1 − 1) (𝑛2 − 1)

Por lo tanto

23
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

(𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 )


𝑃 −𝑧𝛼⁄2 ≤ ≤ 𝑧𝛼⁄2 = 1 − 𝛼
𝑆 𝑆
√ 1+ 2
{ 𝑛1 𝑛2 }

𝑆 𝑆
Multiplicando por √𝑛1 + 𝑛2
1 2

𝑆1 𝑆2 𝑆1 𝑆2
𝑃 {−𝑡𝛼⁄2 √ + ≤ (𝑋̅1 − 𝑋̅2 ) − (𝜇1 − 𝜇2 ) ≤ 𝑡𝛼⁄2√ + } = 1 − 𝛼
𝑛1 𝑛2 𝑛1 𝑛2

Restar (𝑋̅1 − 𝑋̅2 )

𝑆1 𝑆2 𝑆1 𝑆2
𝑃 {−(𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄ √ + ≤ −(𝜇1 − 𝜇2 ) ≤ −(𝑋̅1 − 𝑋̅2 ) + 𝑡𝛼⁄ √ + } = 1 − 𝛼
2 𝑛1 𝑛2 2 𝑛1 𝑛2

Multiplicando por -1

𝑆1 𝑆2 𝑆1 𝑆2
𝑃 {(𝑋̅1 − 𝑋̅2 ) + 𝑡𝛼⁄ √ + ≥ (𝜇1 − 𝜇2 ) ≥ (𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄2 √ + } = 1 − 𝛼
2 𝑛1 𝑛2 𝑛1 𝑛2

Se obtiene

𝑆1 𝑆2 𝑆1 𝑆2
𝑃 {(𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄ √ + ≤ (𝜇1 − 𝜇2 ) ≤ (𝑋̅1 − 𝑋̅2 ) + 𝑡𝛼⁄2 √ + } = 1 − 𝛼
2 𝑛1 𝑛2 𝑛1 𝑛2

𝛼
𝑃(𝑡 > 𝑡𝛼⁄2 ) = 2

El intervalo de confianza para 𝝁𝟏 − 𝝁𝟐 con 𝝈𝟐𝟏 ≠ 𝝈𝟐𝟐 desconocidos.

𝑆1 𝑆2 𝑆1 𝑆2
((𝑋̅1 − 𝑋̅2 ) − 𝑡𝛼⁄2 √ + , (𝑋̅1 − 𝑋̅2 ) + 𝑡𝛼⁄ × √ + )
𝑛1 𝑛2 2 𝑛1 𝑛2

𝑆1 𝑆2
(𝑋̅1 − 𝑋̅2 ) ± 𝑡𝛼⁄ √ +
2 𝑛1 𝑛2

𝑆 𝑆
El error estándar de (𝑋̅1 − 𝑋̅2 ) es √𝑛1 + 𝑛2
1 2

24
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

INTERVALO DE CONFIANZA PARA LA PROPORCIÓN POBLACIONAL.

Si 𝑝̂ representa la proporción de éxitos en una muestra aleatoria de tamaño n


suficientemente grande y 𝑞̂ = 1 − 𝑝̂ , entonces un intervalo de confianza aproximado para
la proporción poblacional p al nivel de confianza del 100(1-α)% viene dado por:

𝑝̂ 𝑞̂ 𝑝̂ 𝑞̂
𝑃 {𝑝̂ − 𝑧𝛼⁄2 √ ≤ 𝑝 ≤ 𝑝̂ − 𝑧𝛼⁄2 √ } = 1 − 𝛼
𝑛 𝑛

Donde

𝛼
𝑃(𝑡 > 𝑧𝛼⁄2 ) =
2

y la variable aleatoria Z sigue una distribución N(0,1).

̂ de una muestra grande:


El intervalo de confianza para 𝒑

𝑝̂ 𝑞̂ 𝑝̂ 𝑞̂
(𝑝̂ − 𝑧𝛼⁄2√ , 𝑝̂ + 𝑧𝛼⁄2 √ )
𝑛 𝑛

𝑝̂ 𝑞̂
𝑝̂ ± 𝑧𝛼⁄2 √
𝑛

𝑝̂𝑞̂
El error estándar de 𝑝̂ es √ 𝑛

INTERVALO DE CONFIANZA PARA LA DIFERENCIA ENTRE DOS PROPORCIONES POBLACIONALES

Se seleccionan muestras aleatorias independientes de tamaño 𝑛1 y 𝑛2 a partir de dos


poblaciones binomiales con medias 𝑛1 𝑝1 y 𝑛2 𝑝2 y varianzas 𝑛1 𝑝1 𝑞1 y 𝑛2 𝑝2 𝑞2 ,
respectivamente. 𝑝̂1 y 𝑝̂ 2 son las proporciones de las muestras de éxitos en una muestra
aleatoria y 𝑞̂ = 1 − 𝑝̂ , entonces un intervalo de confianza aproximado para la proporción
poblacional p al nivel de confianza del 100(1-α)% viene dado por:

𝑝̂ 𝑞̂ 𝑝̂ 𝑞̂
𝑃 {𝑝̂ − 𝑧𝛼⁄2 √ ≤ 𝑝 ≤ 𝑝̂ − 𝑧𝛼⁄2 √ } = 1 − 𝛼
𝑛 𝑛

25
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Donde

𝛼
𝑃(𝑡 > 𝑧𝛼⁄2 ) =
2

y la variable aleatoria Z sigue una distribución N(0,1).

̂ de una muestra grande:


El intervalo de confianza para 𝒑

𝑝̂ 𝑞̂ 𝑝̂ 𝑞̂
(𝑝̂ − 𝑧𝛼⁄2√ , 𝑝̂ + 𝑧𝛼⁄2 √ )
𝑛 𝑛

𝑝̂ 𝑞̂
𝑝̂ ± 𝑧𝛼⁄2 √
𝑛

𝑝̂𝑞̂
El error estándar de 𝑝̂ es √ 𝑛

INTERVALO DE CONFIANZA PARA OBSERVACIONES PAREADAS

Sea 𝑋̅1 ~𝑁(𝜇1 , 𝜎1 ) y 𝑋̅2 ~𝑁(𝜇2 , 𝜎2 ) donde 𝝁𝟏 y 𝝁𝟐 son desconocidos y varianzas


diferentes pero desconocidas, es decir, 𝜎1 2 ≠ 𝜎2 2

Si 𝑋̅1 y 𝑋̅2 son las medias de muestras aleatorias independientes de tamaño n1 y n2


respectivamente, de poblaciones aproximadamente normales. Se considera las diferencias
d1, d2,…, dn de las observaciones pareadas. Estas diferencias son los valores de una variable
aleatoria D1, D2 ,…, Dn, de una población de diferencias que se supone distribuidas
normalmente con 𝜇𝐷 = 𝜇1 − 𝜇2 y varianzas 𝜎𝐷 2 . Se estima 𝜎𝐷 2 mediante 𝑆𝑑 2 la varianza
de las diferencias que constituyen la muestra. El estimador puntual 𝜇𝐷 esta dado por 𝐷 ̅,
entonces un intervalo de confianza, al nivel de confianza del (1-α)%, para las diferencias de
las observaciones pareadas 𝜇𝐷 = 𝜇1 − 𝜇2 viene dado por:

𝑃 {−𝑡𝛼⁄2 ≤ 𝑡 ≤ 𝑡𝛼⁄2} = 1 − 𝛼

Donde el estadístico tipificado es:


̅ − 𝜇𝐷
𝐷 𝑆𝑑
𝑡= 𝜎𝐷 =
𝑆𝑑 √𝑛
√𝑛

Con grados de libertad: 𝑣 = 𝑛 − 1, n es el número de pares

26
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

∑(𝑑𝑖 −𝑑̅)2
𝐷𝑖 = 𝑋1𝑖 − 𝑋2𝑖 𝑆𝑑 = √ 𝑛−1

Por lo tanto

̅ − 𝜇𝐷
𝐷
𝑃 {−𝑧𝛼⁄2 ≤ ≤ 𝑧𝛼⁄2 } = 1 − 𝛼
𝑆𝑑
√𝑛
𝑆𝑑
Multiplicando por
√𝑛

𝑆𝑑 𝑆𝑑
𝑃 {−𝑡𝛼⁄2 ̅ − 𝜇𝐷 ≤ 𝑡𝛼⁄
≤𝐷 } = 1−𝛼
2
√𝑛 √𝑛

̅
Restar 𝐷

𝑆𝑑 𝑆𝑑
̅ − 𝑡𝛼
𝑃 {−𝐷 ̅ + 𝑡𝛼
≤ − 𝜇𝐷 ≤ −𝐷 }=1−𝛼
⁄ 2 ⁄ 2
√𝑛 √𝑛

Multiplicando por -1

𝑆𝑑 𝑆𝑑
̅ − 𝑡𝛼
𝑃 {𝐷 ̅ + 𝑡𝛼
≤ 𝜇𝐷 ≤ 𝐷 }=1−𝛼
⁄2 ⁄ 2
√𝑛 √𝑛
𝛼
𝑃(𝑡 > 𝑡𝛼⁄2 ) = 2

El intervalo de confianza de 𝝁𝑫 = 𝝁𝟏 − 𝝁𝟐 para observaciones pareadas

𝑆𝑑 𝑆𝑑
̅ − 𝑡𝛼⁄
(𝐷 , ̅ + 𝑡𝛼⁄
𝐷 )
2 2
√𝑛 √𝑛
𝑆𝑑
̅ ± 𝑡𝛼
𝐷 ⁄ 2 √𝑛
𝑆𝑑
̅ es
El error estándar de 𝐷
√𝑛

INTERVALO DE CONFIANZA PARA LA VARIANCIA POBLACIONAL

Si se extrae una muestra de tamaño n de una población normal con varianza 𝜎 2 , y se calcula
la varianza muestral 𝑠 2 se obtiene un valor de la estadística 𝑆 2 . La varianza muestral
calculada se usará como estimación puntual de 𝜎 2 , entonces el intervalo de confianza para
la varianza poblacional  2 al nivel de confianza del 100(1-α)% viene dado por:

27
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

2 2 2
𝑃 {𝜒1−𝛼⁄ ≤ 𝜒 ≤ 𝜒𝛼⁄ } = 1 − 𝛼
2 2

Donde el estadístico tipificado es:


(𝑛 − 1)𝑆 2
𝜒2 =
𝜎2

Con grados de libertad: 𝑣 = 𝑛 − 1

Por lo tanto

2
(𝑛 − 1)𝑆 2
𝑃 {𝜒1−𝛼⁄ ≤ ≤ 𝜒𝛼2⁄ } = 1 − 𝛼
2 𝜎2 2

dividiendo por (𝑛 − 1)𝑆 2

2
𝜒1−𝛼⁄ 1 𝜒𝛼2⁄
2 2
𝑃{ ≤ 2 ≤ } =1−𝛼
(𝑛 − 1)𝑆 2 𝜎 (𝑛 − 1)𝑆 2

Invertir cada termino, implica cambiar el sentido de la desigualdad

(𝑛 − 1)𝑆 2 (𝑛 − 1)𝑆 2
𝑃{ 2 ≥ 𝜎2 ≥ }=1−𝛼
𝜒1−𝛼⁄ 𝜒𝛼2⁄
2 2

El intervalo de confianza para 𝝈𝟐 :

(𝑛 − 1)𝑆2 (𝑛 − 1)𝑆2
( , )
𝜒21−𝛼⁄ 𝜒2𝛼⁄
2 2

Invirtiendo la desigualdad se tiene:

28
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

(𝑛 − 1)𝑆 2 (𝑛 − 1)𝑆 2
𝑃{ ≤ 𝜎2 ≤ }=1−𝛼
𝜒𝛼2⁄ 2
𝜒1−𝛼⁄
2 2

𝜒𝛼2⁄ y 𝜒1−
2 2
𝛼⁄ son valores 𝜒 con 𝜗 = 𝑛 − 1 grados de libertad.
2 2

La distribución chi-cuadrado no es simétrica. En la tabla chi-cuadrado se obtiene los valores


2
de 𝜒𝛼,𝜗 tanto para 𝛼 cerca de cero como cerca de 1, como se muestra en la siguiente gráfica.

INTERVALO DE CONFIANZA PARA EL COCIENTE DE VARIANZAS MUESTRALES

De dos poblaciones con distribución normal y varianzas poblacionales 𝜎12 y 𝜎22 se toman
dos muestras aleatorias independientes de tamaños n 1 y n2.

𝜎2
Una estimación para el intervalo de 𝜎22 se obtiene mediante el uso de la estadística F de
1

Snedecor.

𝑆12 𝜎22
𝐹= 2 2
𝑆2 𝜎1

Con grados de libertad 𝜗1 = 𝑛1 − 1 y 𝜗2 = 𝑛2 − 1

𝑆12 𝜎22
𝑃 {𝐹1−𝛼⁄2 ,(𝜗1 ,𝜗2 ) ≤ ≤ 𝐹𝛼⁄2 ,(𝜗1 ,𝜗2 ) } = 1 − 𝛼
𝑆22 𝜎12

Por lo tanto

29
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

𝑆12 𝜎22
𝑃 {𝐹1−𝛼⁄2 ,(𝜗1 , 𝜗2 ) ≤ ≤ 𝐹𝛼⁄2 ,(𝜗1 , 𝜗2 ) } = 1−𝛼
𝑆22 𝜎12

𝑆2
Multiplicado por por 𝑆22
1

𝑆22 𝜎22 𝑆22


𝑃 { 2 𝐹1−𝛼⁄2 ,(𝜗1 , 𝜗2 ) ≤ 2 ≤ 2 𝐹𝛼⁄2 ,(𝜗1 , 𝜗2 ) }=1−𝛼
𝑆1 𝜎1 𝑆1

Invertir cada termino, implica cambiar el sentido de la desigualdad

𝑆21 1 𝜎21 𝑆21 1


𝑃{ ≤ 2≤ 2 } = 1−𝛼
𝑆22 𝐹𝛼⁄2 ,(𝜗1, 𝜗2 ) 𝜎2 𝑆2 𝐹1−𝛼⁄ ,(𝜗1,
2 𝜗2 )

Se reemplaza

𝐹1−𝛼⁄ 𝑝𝑜𝑟 1⁄𝐹𝛼


2 ,(𝜗1 , 𝜗2 ) ⁄2 ,(𝜗2 , 𝜗1 )

Se obtiene

𝑆21 1 𝜎21 𝑆21


𝑃{ ≤ 2 ≤ 2 𝐹𝛼⁄ ,(𝜗2, 𝜗1 ) } = 1−𝛼
𝑆22 𝐹𝛼⁄2 ,(𝑛1−1, 𝑛2 −1) 𝜎2 𝑆2 2

El intervalo de confianza para 𝑭:

𝑆12 1 𝑆12
( , 𝐹𝛼 𝜗1 ) )
𝑆22 𝐹𝛼
⁄2 ,(𝑛1 −1, 𝑛2 −1) 𝑆22 ⁄2 ,(𝜗2,

30
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

TABLA DE DISTRIBUCIÓN NORMAL

31
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

TABLA DE DISTRIBUCIÓN CHI-CUADRADO

32
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

Continuación………TABLA DE DISTRIBUCIÓN CHI-CUADRADO

33
ESTADISTICA II – DISTRIBUCIONES MUESTRALES PROF. JULIA MARCANO – 2014

VALORES CRÍTICOS DE LA DISTRIBUCIÓN t

٧ α
0.1 0.05 0.025 0.01 0.005

1 3.078 6.314 12.706 31.821 63.657


2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032

6 1.440 1.943 2.447 3.143 3.707


7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169

11 1.363 1.796 2.201 2.718 3.106


12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947

16 1.337 1.746 2.120 2.583 2.921


17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845

21 1.323 1.721 2.080 2.518 2.831


22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787

26 1.315 1.706 2.056 2.479 2.779


27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
inf. 1.282 1.645 1.960 2.326 2.576

34

You might also like