You are on page 1of 38

ESTADISTICA CAPITULO 1

Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 1
Universidad de Chile
E c o n o m a & N e g o c i o s


FUNCIONES DE DISTRIBUCION.

1. INTRODUCCIN.

En este captulo se define y exponen varias distribuciones especiales que son muy
utilizadas en aplicaciones de probabilidad estadstica. Las distribuciones que se
presentarn aqu incluyen distribuciones discretas y continuas de tipo univariante,
bivariante y multivariante. Las distribuciones discretas univariantes son la binomial, de
Bernoulli y de Poisson. Las distribuciones continuas univariantes son la normal, gamma,
exponencial y beta. Otras distribuciones continuas univariantes son la lognormal, de
Weibull y de Pareto. Tambin se exponen la distribucin discreta multivariante
denominada distribucin multinomial y la distribucin continua bivariante denominada
distribucin normal bivariante.

Es muy importante, a pesar de que no se a discutido con detalle, tener claro que las
estructuras de las funciones de distribuciones se encuentran definidas por una familia
especifica de funciones, como por ejemplo, exponenciales, cuadrticas (polinomios),
logartmicas, cncavas o convexas, pero la forma definitiva, la que representa el
comportamiento final de una poblacin por medio de sus frecuencias depende de los
parmetros que la constituyen. Un ejemplo claro de este punto, es el hecho que una
lnea recta, es una familia de posibles funciones que pueden ser oblicuas, verticales,
horizonales, etc., sin embargo, el grado de inclinacin y contacto con el o los ejes
depender de los valores que tomen su pendiente o intercepto.

Un ejemplo de lo mencionado en el prrafo anterior, es: Supongamos que una funcin
de distribucin de probabilidad des esta definida por la siguiente estructura.

( )
0
Ax B a x b
f x
+
=


(1.1)

Adems, por efecto de simplificacin, supongamos que esta funcin es efectivamente una
funcin de distribucin de probabilidades, por lo tanto, sabemos que el rea bajo la curva
dentro del dominio de ( ) f x debe ser igual a 1. Ahora, nuestro inters radica en el hecho
de que la funcin de la ecuacin (1.1) es una recta, pero la constitucin final de ella
depender de sus parmetros A (pendiente) y B (intercepto), por lo que para diferentes
combinaciones de estos valores, tendremos diferentes distribuciones de probabilidades
finales. Esto quiere decir, que al ser la funcin de distribucin el reflejo del
comportamiento poblacional, entonces sus caracterstica poblaciones (parmetros)
perimitiran diferencias una poblacin de otra cuando estas pertenezcan a la misma
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 2
familia, ya sea porque una tiene mayor pendiente que la otra o porque una se desfasa ms
que la otra.

Es por esta razn que muchas de las funciones que veremos a continuacin se describirn
bajo la premisa de valores paramtricos conocidos, por ejemplo en nuestro caso de la
lnea recta, la funcin ser denotada como:

( / , ) [ , ] f x A B Ax B x a b = + (1.2)

La cual deberemos interpretar como la funcin de distribucin que se encuentra
restringida a una estructura (familia de rectas) y valores paramtricos determinsticos
(valor conocidos), lo cual nos permitir realizar operaciones numricas para variadas
aplicaciones.

Se describir brevemente como cada una de estas distribuciones aparecen en problemas
aplicados y se demostrar porque cada una podra ser un modelo de probabilidad
apropiado para algunos experimentos. Para cada distribucin se presentar la funcin de
distribucin y se expondr algunas de las propiedades bsicas de la distribucin.

2. FUNCIONES DE DISTRIBUCIN DE VARIABLE DISCRETA

2.1. Distribucin de Bernoulli.

Un experimento de un tipo particularmente sencillo es aquel en el que hay solamente
dos resultados posibles, tales como cara y cruz, xito o fracaso, defectuoso o no
defectuoso. Es conveniente designar los dos resultados posibles de dicho experimento
como 0 y 1. La siguiente definicin se puede aplicar entonces a cualquier experimento de
este tipo.

Se dice que una variable aleatoria X tiene una distribucin de Bernoulli con parmetro
p tal que ) 1 0 ( p si X puede tomar nicamente los valores 0 y 1 y las probabilidades
son

p X p X = = = = 1 ) 0 Pr( ) 1 Pr( (1.3)

Definicin 1. Entonces, la funcin de distribucin de probabilidad de X se escribe
como sigue:

1
( / ) (1 ) 0,1
x x
f x p p p x

= = (1.4)

Para verificar que esta funcin de distribucin ) / ( p x f realmente representa la
distribucin de Bernoulli dada por las probabilidades (1.3), simplemente es necesario
observar que p p x f = = ) / 1 ( y p p x f = = 1 ) / 0 ( .

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 3
Propiedad 1. Si X tiene una distribucin de Bernoulli con parmetro p , entonces se
debe cumplir que:

1.i. p X E = ) (
1.ii. p X E = ) (
2

1.iii. ) 1 ( ) var( p p X =
1.iv. q pe tX E t
t
+ = = )) (exp( ) (


2.2. Distribucin Binomial.

Definicin 2. Una variable aleatoria X tiene una distribucin Binomial con parmetros
T y p si X tiene una distribucin discreta cuya funcin corresponde a:

( / ) (1 ) 0,1,2,...,
x T x
T
f x p p p x T
x

| |
= =
|
\ .
(1.5)

En esta distribucin, T debe ser un entero positivo y p debe pertenecer al intervalo
cerrado 1 0 p , adems el termino que encabeza la funcin de la ecuacin (1.5)
corresponde al nmero de combinaciones que son posible de realizar con los valores
enteros de T y x .

La distribucin Binomial tiene una importancia fundamental en probabilidad y estadstica
debido al siguiente resultado. Supngase que el resultado de un experimento puede ser
xito o fracaso, que el experimento se realiza independientemente T veces y que la
probabilidad de xito en cualquier realizacin es p . Si X denota el nmero total de
xitos en las T realizaciones, entonces X tiene una distribucin Binomial con
parmetros T y p . Este resultado se puede enunciar como sigue:

Si las variables aleatorias
T
X X ,...,
1
constituyen T pruebas de Bernuolli con parmetro
p y si
T
X X X + + =
1
, entonces X tiene una distribucin Binomial con parmetro T
y p .

Cuando X se representa como la suma de T pruebas de Bernoulli de esta forma, se
pueden deducir fcilmente los valores de la media, la varianza y la funcin generatriz de
momentos de X .

Propiedad 2. Si X tiene una distribucin de Binomial con parmetros T y p , tal que
T
X X X + + =
1
, donde
i
X por si solas siguen un experimento de Bernuilli con
parmetro p , entonces se debe cumplir que:

2.i. Tp X E = ) (
2.ii. ) 1 ( ) var( p Tp X =
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 4
2.iii.
T t
q pe tX E t ) ( )) (exp( ) ( + = =


Demostracin
Para efecto de desarrollo se demostraran las propiedades 2.i y 2.ii, mientras que la 2.iii
quedar propuesta para el lector.

En este caso corresponde a que el valor esperado de Binomial se describe como:

( )
0
( ) (1 )
T T x T x
x x
E X xp p

=
=

Donde omitimos el trmino correspondiente a 0 x = , que es cero, y descomponemos la
combinatoria en su factorial, y posteriormente factorizamos algunos trminos

( 1)! 1 !
1 1 !( )! ( 1)!( )!
( ) (1 ) (1 )
T T x T x T x T x T
x x x T x x T x
E X xp p Tp p p

= =
= = (1.6)

Ahora si reemplazamos 1 y x = y 1 N T = , entonces la ecuacin (1.6) se puede reducir
a:

(( 1) 1)! 1 ( 1) 1 ( 1) ( 1) !
1 1 0 (( 1) 1)!(( 1) ( 1))! !( )!
( ) (1 ) (1 )
N N y N y N y N y N
y y y N y y N y
E X Tp p p Tp p p
+ + + + +
= = + + +
= = (1.7)

Sin embargo, la sumatoria del lado derecho de la ecuacin (1.7) es igual a 1, por
definicin de funcin de distribucin de probabilidad, as que la expresin anterior se
reduce a:

( ) E X Tp =

Para encontrar la expresin para la varianza, usaremos el hecho de que
2
( ) ( ( 1)) ( ) E X E X X E X = + , de esta manera tenemos que determinar primero el
trmino ( ( 1)) E X X , ya que el segundo se encuentra en el prrafo anterior. Repetimos
para todo propsito los pasos antes usados y obtenemos as.

( )
0
( ( 1)) ( 1) (1 )
T T x T x
x x
E X X x x p p

=
=

( 1) ( 2)! ( 2)! 2 2
2 1 ( 1) ( 2)!( )! ( 2)!( )!
( ( 1)) (1 ) ( 1) (1 )
T T T T T x T x T x T x
x x x x x T x x T x
E X X xp p T T p p p

= =
= =

( )
2 2 2
2 2
( ( 1)) ( 1) (1 )
T T x T x
x x
E X X T T p p p

=
=

Y, al hacer 2 y x = y 2 T N = , esto se vuelve

( )
2 2
0
( ( 1)) ( 1) (1 ) ( 1)
N N y N y
y y
E X X T T p p p T T p

=
= =
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 5

Entonces, tenemos que

2 2
( ) ( 1) E X T T p Tp = +

Por lo tanto, la varianza corresponde a:

2 2 2 2 2 2
var( ) ( ) ( ) ( 1) (1 ) X E X E X T T p Tp T p Tp Tp Tp p = = + = + =

Con lo cual se demuestra la varianza para una distribucin Binomial.

2.3. Distribucin de Poisson

Definicin 3. Sea X una variable aleatoria con una distribucin discreta y supngase
que el valor de X debe ser un entero no negativo. Se dice que X tiene una distribucin
de Poisson con media ) 0 ( > si la funcin de distribucin de probabilidad de X es la
siguiente:

,..., 2 , 1 , 0
!
) / ( = =

x
x
e
x f
x

(1.8)

Est claro que ) / ( x f es positiva para todos los valores de x . Para verificar que la
funcin ) / ( x f definida por la ecuacin (1.8) satisface los requisitos de toda funcin de
distribucin, se debe demostrar que 1 ) / (
0
=

=
x f
x
. Se sabe de clculo que para todo
nmero real ,


=

=
= =


0 0
!
lim
!
x
x
x
x
x x
e (1.9)

Por tanto,

1
!
) / (
0 0
= = = =

=



e e
x
e x f e
x
x
x
(1.10)

Media y Varianza. Se ha afirmado que la distribucin cuya funcin de distribucin de
probabilidades est dada por la ecuacin (1.8) se denomina distribucin de Poisson con
media . Para justificar esta definicin, se debe demostrar que es, de hecho, la media
de esta distribucin. La media ) (X E est dada por la siguiente serie infinita:



=

=
=

= = = =
1
1
1 0 0
)! 1 ( ! !
) / ( ) (
x
x
x
x
x
x
x
x
e
x
e
x
x
e
x x xf X E


(1.11)

Por lo tanto, de la ecuacin (1.11) se concluye que = ) (X E .
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 6

La varianza de la distribucin de Poisson se puede determinar mediante una tcnica
anloga a la que se acaba de describir. Se empezar por considerar la siguiente esperanza:


2
2 2
0 0 0 ! ( 2)!
[ ( 1)] ( 1) ( / ) ( 1)
x x
e e
x x x x x
E X X x x f x x x





= = =
= = = = (1.12)

Por otro lado sabemos que

2 2 2
) ( ) ( ) ( )] 1 ( [ = = = X E X E X E X X E

Entonces, se puede concluir que:

+ =
2 2
) (X E (1.13)

De esta forma de la ecuacin (1.10) y (1.13) se puede determinar que la varianza de esta
variable corresponde a:

= =
2 2
)] ( [ ) ( ) var( X E X E X (1.14)

Funcin Generatriz de momentos. Para la funcin de distribucin Poisson se tiene
que la funcin generatriz de momentos corresponde a:

)] 1 ( exp[
!
) (
) / ( ) ( ) (
0 0
= = = =


=

=
t
x
x t
x
tx tX
e
x
e
e x f e e E t



(1.15)

A modo de mejorar la compresin del comportamiento poblacional por medio de una
funcin de distribucin de probabilidad, se presentan los siguientes ejemplos.

Ejemplo 1. Encuentre la probabilidad de sacar 5 caras y 7 cruces en 12 lanzamientos de
una moneda equilibrada.


Respuesta
Al sustituir 5 x = , 12 T = y
1
2
p = en la frmula de la distribucin Binomial, obtenemos
que la funcin de distribucin de probabilidades en este caso es:

( ) ( )
12 5 7 1 1 1
5 2 2 2
( / , ) (1 ) (5/ ,12) ( ) (1 )
T x T x
x
f x p T p p f

= =

Pero:

( )
12 12! 89101112 891112 8911
5 5!7! 12345 134 1
8 9 11 792


= = = = = =

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 7
Que reemplazando en la expresin anterior tenemos que:

5 7 12 1 1 1 1
2 2 2 2 12 11 10
792 396 198 99
(5/ ,12) 792( ) ( ) 792( ) 0.1933
512 2 2 2
f = = = = = =

El lector debe tener presente que el resultado puede quedar expresado como 99 sobre
512, ms que 0.1933, de hecho para una decisin practica y bsicamente se pudo
aproximar a 1 de cada 5 casos, con lo cual habra sido posible sacar conclusiones sin
perdida de generalidad.

Ejemplo 2. Encuentre la probabilidad de que siete de 10 personas se recuperarn de una
enfermedad tropical si podemos suponer que la recuperacin son eventos independientes
y la probabilidad de que cualquiera de ellos se recuperar de la enfermedad es 0.80.


Respuesta
Al sustituir 7 x = , 10 n = y 0.8 p = en la frmula para la distribucin Binomial,
obtenemos.

( )
7
10
10 7 3 7 3 10! 8910 4 1 4 1 4
7 5 5 7!3! 5 5 123
5
(7/0.8,10) ( ) ( ) ( ) ( ) 4 3 10 0.20 f


= = = =

Entonces, podemos concluir que si lo eventos son independientes, entonces, la
recuperacin de 7 personas de 10 es slo del 20%.

Ejemplo 3. La distribucin de Poisson ha resultado ser muy til en problemas de lneas
de espera o colas. Los clientes llegan a una maquina fotocopiadora a una tasa media de
dos cada cinco minutos. En la prctica, se pueden representar los procesos de llegada de
esta clase mediante una distribucin de Poisson. Asumiendo que ste es el caso,
representaremos por X el nmero de llegadas de clientes en un perodo de cinco
minutos, con lo cual X tiene distribucin de Pocin con media 2 = , y la funcin de
probabilidad

2
2
Pr( / 2) ( / 2) 0,1,2,...,
!
x
e
X x f x x
x


= = = = = =

Entonces, la probabilidad para el nmero de llegadas en un perodo de cinco minutos
son:

0 2
2
Pr( 0/ 2) 0,1353
0!
e
X

= = = =

1 2
2
Pr( 1/ 2) 0,2707
1!
e
X

= = = =
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 8
2 2
2
Pr( 2/ 2) 0,2707
2!
e
X

= = = =

Y as sucesivamente. Por lo tanto, la probabilidad de que se produzcan ms de dos
llegadas en un perodo de cinco minutos es:

2
0
Pr( 2/ 2) 1 Pr( / 2) 0,3233
i
X X i
=
> = = = = =

Como hemos visto, la distribucin de Poisson aparece de manera natural para
representar el nmero de ocurrencias de un suceso en un perodo de tiempo.


3. FUNCIONES DE DISTRIBUCIN DE VARIABLE CONTINUA

3.1. Distribucin Uniforme.

Cunado la densidad de probabilidad se distribuye en forma constante, es decir, que cada
uno de los elementos contenidos en esta poblacin tiene exactamente la misma
probabilidad de ocurrencia, se dice que la distribucin es uniforme, es decir:

Definicin 4. Una variable aleatoria tiene un distribucin uniforme y se conoce como
una variable aleatoria uniforme continua si y slo si su densidad de probabilidad est dada
por

b x a
a b
b a x f < <

=
1
) , / ( (1.16)

Los parmetros a y b de esta densidad de probabilidad son constantes reales, con b a < .

Propiedad 4. Si X es una variable aleatoria que tiene una distribucin de Uniforme
con parmetros a y b , respectivamente, entonces se debe cumplir que:

4.i. ) ( ) (
2
1
b a X E + =
4.ii.
2
12
1
) ( ) var( a b X =

3.2. Distribucin Exponencial.

Esta distribucin resulta de gran utilidad para atacar problemas de listas de espera y
colas. Cuando el tiempo de servicio a un cliente es aleatorio, esta incertidumbre puede
representarse a menudo mediante una distribucin exponencial. La distribucin
exponencial difiere de la normal en dos caractersticas bsicas: Se restringe a variables
aleatorias que pueden tomar valores positivos nicamente, y su funcin de densidad no
es simtrica alrededor de la media.

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 9
Definicin 5. Si la variable aleatoria X no puede tomar valores negativos y tiene
funcin de densidad igual a

0 ) / ( =

x
e
x f
x


(1.17)

Donde es cualquier nmero positivo, entonces se dice que X sigue una distribucin
exponencial

Propiedad 5. Si X tiene una distribucin de exponencial con parmetro , entonces
se debe cumplir que:

5.i. = ) (X E
5.ii.
2
) var( = X
5.iii.
1
) 1 ( )) (exp( ) (

= = t tX E t

Aunque el lector debe tener presente que la funcin de distribucin de probabilidades
exponencial puede presentarse tambin de la siguiente forma:

( / ) 0, 0
x
f x e x

= >

Esta forma, como podr darse cuenta el leedor es igual a la de la exponencial, para ello
slo deberamos imponer que
1

= y recuperaramos la misma funcin definida en la


ecuacin (1.17). Sin embargo, en una buena parte de la literatura se utiliza esta ultima
expresin de la funcin exponencial y que en este caso la esperanza y varianza seran
1


y
2

, respectivamente.

Ejemplo 4. En una cierta localidad de la autopista 78, el nmero de autos que exceden
el lmite de velocidad en ms de 10 Kilmetros por hora en media hora es una variable
aleatoria que tiene una distribucin de Poisson con 8.4 = . Cul es la probabilidad de
que el tiempo de espera entre autos que exceden el lmite de velocidad en ms de 10
Km/Hr sea menor a 5 minutos?


Respuesta
Al usar media hora como la unidad de tiempo, tenemos que lamba puede ser equivalente
a el inverso de beta. Por consiguiente, el tiempo de espera es una variable aleatoria que
tiene una distribucin exponencial con
1
8.4
= y, puesto que 5 minutos es
1
6
de la unidad
de tiempo, encontraremos que la probabilidad deseada es:

2
1
1/ 6
1/ 6
1 / 8.4 8.4 1.4
0 0
( / ) 8.4 1 0.75
x
x x x
Domf x
f x dx e dx e dx e e



= = = = + =



ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 10
Ejemplo 5. Suponga que posee una muestra { }
T
t t
X
1 =
independiente e idnticamente
distribuidas de una poblacin que posee distribucin exponencial con parmetro .
Determine el valor esperado y la varianza del promedio de esta muestra.


Respuesta
En este caso debemos recordar que la muestra al ser independientes, entonces cada una
de sus componentes son independientes, esto quiere decir que no existe covarianza entre
las observaciones que en este caso son la muestra de variables aleatorias. Por otro lado el
que sean idnticamente distribuidas quiere decir que cada una da la variables aleatorias
que constituyen la muestra tienen los mismos parmetros, que en este caso
correspondera a la esperanza y varianza, que en mucha de la literatura disponible es
interpretado como pertenecientes a la misma poblacin, lo cual puede ser cierto slo si
la poblacin sobre la cual se extrajo la muestra es constante en forma transversal (entre
los individuos) y longitudinalmente (a travs del tiempo).

Para efecto de nuestro problema supondremos que nuestra poblacin es constante para
todos los efectos, es decir, que nuestro clculo queda como:

1 1
1 1
( ) ( ) ( )
T T
T i i i i
E x E T x T E x

= =
= =

Claramente los trminos que no tienen comportamiento aleatoria no sufren cambio con
la funcin esperanza, lo que hace poder sacarlo de esta, sin embargo, no debemos olvidar
que la esperanza es un operador lineal, por lo tanto, el valor esperado de la suma de
variables aleatorias es la suma de los valores esperados por separado, es decir,

1
1
( ) ( )
T
T i i
E x T E x

=
=

Pero, todos los xs tienen el mismo valor esperado, recuerde que son idnticamente
distribuidos, por lo tanto, tenemos que:

1 1
1
( )
T
T i
E x T T T

=
= = =

Ahora con respecto a la varianza tenemos algo un poco ms complicado, ya que esta no
es lineal, sin embargo, puede tener un comportamiento parecido al lineal si las variables
sean independientes, para entender mejor este concepto, vamos a realizar el siguiente
procedimiento, recordemos que la varianza de la suma de dos variables aleatorias
corresponde a:

var( ) var( ) var( ) 2cov( , ) X Y X Y X Y + = + +

Pero si las variables son independientes entonces su covarianza (grado de dependencia
lineal) debe ser igual a cero, por lo que la varianza de la suma se convierte en:

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 11
var( ) var( ) var( ) X Y X Y + = +

De esta forma podemos ver que cuando se suman variables independientes, entonces es
posible afirmar que es igual a la suma de las varianzas por separado. Entonces, para
nuestro problema tenemos

1 2
1 1
var( ) var( ) var( )
T T
T i i i i
x T x T x

= =
= =

2 2 2 1 2
1 1
var( ) var( )
T T
T i i i
x T x T T

= =
= = =


3.3. Distribucin Normal.

La distribucin normal, que estudiaremos en esta seccin, es de muchas maneras, la
piedra angular de la teora estadstica moderna. Se investig por primera vez en el siglo
XIX cuando los cientficos observaron un grado asombroso de regularidad en los errores
de medicin. Encontramos que los patrones (distribuciones) que observaban se podran
aproximar cercanamente por curvas continuas, a los que se referan como curvas
normales de errores y las atribuan a las leyes del azar. Abraham de Moivre (1667-
1745), Pierre Laplace (1749-1827) y Kart Gauss (1777-1855) estudiaron por primera
vez las propiedades matemticas de estas curvas normales.

Ahora introduciremos una distribucin continua que posee caractersticas especiales. De
manera que el lector pueda apreciar en forma intuitiva esta distribucin, veremos un
ejemplo en el cual supondremos que un grupo de estudiantes rinde una examen. Se
espera que una gran parte de las notas obtenidas se concentran alrededor de la media.
Adems se espera que el nmero de notas obtenidas en rangos de longitud fija ir
descendiendo al alejarnos de la media. Si la nota promedio en el examen ha sido de 4.5,
esperamos encontrar, por ejemplo, ms estudiantes en el rango 4.0-5.0 que en el rango
6.0-7.0. Estas condiciones sugieren una distribucin con una cima en la media y que va
descendiendo gradualmente en los extremos. Una distribucin con estas propiedades es
la distribucin normal, cuyo comportamiento se puede apreciar en la figura 1. Como
puede verse, la funcin de densidad tiene forma de campana.


Figura 1. Funcin de densidad de una distribucin normal.

Definicin 6. Una variable aleatoria X tiene una distribucin normal y se conoce
como una variable aleatoria normal si y slo si su densidad de probabilidad est dada por
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 12

( ) 2
2
2 2 1 1
2
2
( / , ) exp ( ) f x x x IR

= (1.18)

Propiedad 6. Si X tiene una distribucin de normal con parmetros y
2
,
respectivamente, entonces se debe cumplir que:

6.i. = ) (X E
6.ii.
2
) var( = X
6.iii. IR t t t tX E t + = = ) ( )) (exp( ) (
2 2
2
1


Queda propuesto para el lector demostrar estas propiedades.

De estas propiedades puede concluirse que dadas la media y la varianza de una variable
aleatoria normal, queda determinada la distribucin especfica dentro de la familia de
distribuciones normales. Esto permite el uso de la siguiente notacin.

Si la variable aleatoria X sigue una distribucin normal con media y
varianza
2
, escribiremos

2
( , ) X N

Ahora, la media proporciona una medida de posicin central, mientras que la varianza da
una medida de dispersin alrededor de la media. Luego los valores que toman los
parmetros y
2
tienen diferentes efectos en la funcin de densidad de una variable
aleatoria normal. La figura 2 muestra la funcin de densidad de dos distribuciones
normales con varianza comn pero diferentes medias. Puede verse, que incrementar la
media, dejando constante la varianza, traslada la funcin de densidad pero no altera su
forma. En la figura 3 las funciones de densidad representadas corresponden a variables
aleatorias normales con media comn pero diferentes varianzas. Ambas son simtricas
alrededor de la media comn, pero la que tiene mayor varianza es ms dispersa.


Figura 2. Funciones de densidad de dos distribuciones normales
con medias
0 1
< .

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 13

Figura 3. Funciones de densidad de dos distribuciones normales
con varianzas
2 2
1 0
< ; ambas distribuciones tienen media .

Un problema importante en la prctica es determinar probabilidades de una distribucin
normal especfica. Como primer paso, introduciremos la funcin de distribucin
acumulada.

Supongamos que X es una variable aleatoria normal con media y varianza
2
, es
decir,
2
( , ) X N . Entonces, la funcin de distribucin acumulada
0
( ) F x es:

( )
0
2
2
2 1 1
0
2
2
( ) exp ( )
x
F x x dx



Esto corresponde al rea bajo la curva de la funcin de distribucin de probabilidad a la
izquierda de
0
x , como se ilustra en la figura 4. Como ocurre para cualquier densidad de
probabilidad, el rea total por debajo de la curva es 1, es decir, ( ) 1 F = .


Figura 4. El rea sombreada es la probabilidad de que X sea
menor o igual que
0
x para una variable aleatoria
2
( , ) X N .

No hay una expresin algebraica simple para calcular la funcin de distribucin
acumulada de una variable aleatoria distribuida normalmente. Cualquier probabilidad
puede obtenerse a partir de la funcin de distribucin acumulada. Sin embargo, sigue
habiendo una dificultad, porque no existe una frmula conveniente para determinar la
funcin de distribucin acumulada. En principio, podran obtenerse las probabilidades de
cualquier distribucin normal mediante mtodos numricos utilizando un computador.
No obstante, sera demasiado tedioso tener que hacer esta operacin para cada
distribucin normal. Afortunadamente, las probabilidades de cualquier distribucin
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 14
normal pueden expresarse en trminos de la probabilidad de una normal determinada,
para la cual ya se han calculado y tabulado las probabilidades. Se introduce a continuacin
esta distribucin normal particular que se utiliza con este fin.

Distribucin Normal Estndar. La distribucin normal con media 0 y varianza igual
a 1 se llama distribucin normal tipificada o tambin distribucin normal estndar. La
funcin de distribucin tipificada usualmente se denota por el smbolo y la funcin
acumulada por el smbolo . Entonces,

2
1 1
( /0,1) exp
2 2
z z z IR

| |
=
|
\ .
(1.19)

( )
0 0
2 1
0 2
1
( ) ( /0,1) exp
2
z z
z z dz z dz


= =

(1.20)

Es habitual en la literatura referirse a una variable aleatoria con distribucin de
probabilidades normal con la letra Z , esto con el simple objetivo de diferenciar ms
fcilmente entre una variable aleatoria normal cualquiera de una estndar.

La funcin de distribucin acumulada de una variable aleatoria normal estndar est
tabulada en el apndice de este documento. En esta tabla se ven valores de

( ) Pr( ) z Z z =
1


Por ejemplo podemos notar que:

( 0,74) Pr( 0.74) 0,2296 Z = =


Figura 5. Funcin de densidad de la variable aleatoria normal
estndar, donde las reas achuradas son iguales.

Sin embargo, los valores positivos de esta misma probabilidad se podra obtener a partir
de la simetra del problema. Esto quiere decir que Pr( 0.74) Pr( 0.74) Z Z = , que en
trminos de la funcin acumulada normal estndar es:

1
Tngase presente que Pr( ) Pr( ) Z z Z z = < , para efecto de variables continuas.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 15

( 0,74) 1 (0,74) =

Este ltimo resultado se puede observar en forma intuitiva en la figura 5.

Ejemplo 6. Supongamos que Z es una variable aleatoria normal estndar, hallar
Pr( 0.5 1.23) Z < < .


Respuesta
La probabilidad que se pide es:

Pr( 0.5 1.23) Pr( 1.23) Pr( 0.5) (1.23) ( 0.5) Z Z Z < < = < < =

Utilizando la tabla del apndice, se obtiene que:

Pr( 0.5 1.23) 0.8907 0.3085 0.5822 Z < < = =

A continuacin mostraremos cmo pueden expresarse probabilidades de cualquier
variable aleatoria normal en trminos de probabilidades de la variable aleatoria normal
estndar.

Supongamos que la variable aleatoria discreta
2
X , tiene una probabilidad p de ser igual
a
0
x , (
0
Pr( ) X x p = = ), por otro lado, tenemos dos escalares que son a y b (constantes
arbitrarias), entonces, analicemos lo siguiente:

Para una variable aleatoria Y X a = + , quisiramos determinar la probabilidad definida
por
0
Pr( ) Y x a = + , la cual se puede ser representada como
0
Pr( ) X a x a + = + , pero esta
ltima probabilidad se puede interpretar equivalentemente como

0 0
Pr( ) Pr( , ) X a x a X x a a + = + = = =

Esto es interpretado como la probabilidad de que
0
X x = y de que a a = , pero las
constantes y la variables aleatoria son independientes entre si, por lo tanto, esta
probabilidad conjunta se puede reescribir de la siguiente forma

0 0
Pr( ) Pr( )Pr( ) X a x a X x a a + = + = = =

Pero Pr( ) a a = es uno, ya que una constante nunca cambia de posicin por lo que se
tiene certeza absoluta de su valor, por esta razn, al reemplazar los valores tenemos que:


2
Esto es simplemente para simplificar el clculo, sin embargo, el lector podr extender este ejercicio a
variables aleatorias continuas, cambiando solamente el signo de desigualdad.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 16
0
Pr( ) 1 X a x a p p + = + = =

Por lo tanto, podemos concluir que:


0 0
Pr( ) Pr( ) X x X a x a = = + = + (1.21)

Sin embargo, esta expresin puede ser fcilmente extensible a una variable aleatoria
continua, como:


0 0
Pr( ) Pr( ) X x X a x a = + + (1.22)

Donde el smbolo , representa cualquiera de las siguientes signos de desigualdad,
, , < , >.

Entonces, el lector podr ahora fcilmente demostrar que

0 0
Pr( ) Pr( ) X x bX bx = (1.23)

Siempre y cuando b sea un nmero constante y positivo estricto.

Ejemplo 7. Sea X una variable aleatoria normal con media y varianza
2
. Entonces,
si definimos la variable
X
Z , como:

X
X
Z

=

La probabilidad Pr( ) X x , puede ser representada como la probabilidad de una variable
aleatoria normal estndar?


Respuesta
En este como ya nos podemos imaginar X y
X
Z , tiene un comportamiento de una
variable aleatoria normal, pero si utilizamos las ecuaciones (1.22) y (1.23), podemos
realizar las siguientes operaciones sin cambiar la probabilidad.

0 0
0
Pr( ) Pr Pr
X
x x X
X x Z


| | | |
= =
| |
\ . \ .


Sabemos que
X
Z tiene comportamiento normal, pero todava no podemos afirmar que
esta normalidad viene de una distribucin estndar. Para determinar ello es necesario
determinar el valor esperado (media) y la varianza de esta variable aleatoria. Es decir,

1 1 1
[ ( )] [ ] [ ( ) ( )] E X E X E X E

= =
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 17

Pero, si X es una variable aleatoria normal con media , entonces, ( ) E X = , y el
valor esperado de una constante es la misma constante, ( ) E = , por lo tanto, podemos
concluir que la media de
X
Z es cero.

Bueno, ahora veamos que pasa con la varianza de
X
Z .

1 2 2
var[ ( )] var[ ] [var( ) var( )] X X X

= =

Sin embargo, la varianza de X es
2
y la varianza de una constante es cero, ya que las
constantes no tienen volatilidad, esto nos lleva a que la varianza de
X
Z es uno.

De esta forma es fcil darse cuenta que la transformacin al pasar de X a
X
Z , es
simplemente modificar el comportamiento normal cualquiera de X a una normal
estndar. Este proceso de conoce como estandarizacin o tipificacin de variables
aleatorias normal, donde la base terica se conoce con el nombre de Teorema Central
del Lmite (este un caso particular de este teorema).

Ejemplo 8. El rendimiento promedio de la PSU
3

2005 fue de 395 ptos. y una desviacin
estndar de 168 ptos. Se le solicita que determine el nmero aproximado de alumnos
que superaron los 670 ptos, si el nmero total de quienes la rindieron fue de 120.000,
adems puede suponer que esta poblacin sigue un comportamiento normal.

Respuesta
El lector debe tener presente que es muy frecuente encontrarse con problemas que
suponen normalidad, que como ejercicio matemtico es una buena forma de simplificar
la resolucin del problema, sin embargo, no es tan simple darse este supuesto en
problemas cotidianos, de hecho hacerlo sin la ms mnima fundamentacin terica, es
una exageracin que resta confiabilidad a los resultados y por ende a las conclusiones.

Bajo el supuesto de comportamiento normal y de que la probabilidad representa una
frecuencia relativa, tenemos que la fracciones de alumnos que supera los 670 ptos. se
representa con la siguiente probabilidad, Pr( 670) X > , donde X corresponden a los
puntos obtenidos por cualquier alumno dentro de los que rindieron la prueba.

Entonces, como calcular esta probabilidad con una integral es prcticamente imposible,
entonces, utilizaremos las ecuaciones (1.22) y (1.23), para determinar el valor de esta
probabilidad, es decir,

395 670 395 670 395
168 168 168
Pr( 670) Pr( ) Pr( ) Pr( 1.64)
X
X X
X Z Z

> = > = > = >

3
PSU, Prueba de Seleccin Universitaria, la cual se aplica en Chile desde el 2003 y rinden todos los
alumnos que hallan cursado su enseanza media.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 18

Pero, si deseamos utilizar la tabla normal estndar que se encuentra en el apndice, es
necesario modificar el signo de desigualdad, es decir,

Pr( 1.64) 1 Pr( 1.64)
X X
Z Z > =

Que de la tabla, obtenemos que:

Pr( 1.64) 1 0.9495 0.0505
X
Z > = =
De esta forma podemos concluir que aproximadamente el 5% de los alumnos que
rindieron la PSU, superaron los 670 ptos., es decir, unos 6.000 alumnos.

Ahora si quisiramos discutir este resultado, podramos hacer nfasis en el hecho de que
no todos los alumnos rindieron la PSU, por lo tanto, existe un porcentaje de individuos
que no participaron en el proceso, quienes posiblemente podran haber modificado este
resultado, no siendo un 5%, sin que una cifra posiblemente menor.

3.4. Distribucin Normal Bivariada.

Supngase que
1
Z y
2
Z son variables aleatorias independientes cada una de las cuales
tiene una distribucin normal tipificada. Entonces la funcin de distribucin de
probabilidad conjunta
1 2
( , ) g z z de
1
Z y
2
Z para cualquiera valores de
1
z y
2
z est dada
por la ecuacin

( ) ) ( exp ) , (
2
2
2
1
2
1
2
1
2 1
z z z z g + =

(1.24)

Para cualesquiera constantes
1
,
2
,
1
,
2
y tales que < <
i
, 0 >
i

2 , 1 = i y 1 1 < < , se define ahora dos nuevas variables aleatorias
1
X y
2
X como
sigue:

2 2
2 1 2
1 1 2
1 1 1 1
] ) 1 ( [

+ + =
+ =

Z Z X
Z X
(1.25)

Se deducir ahora la funcin de distribucin de probabilidad conjunta ) , (
2 1
x x f
1
X y
2
X .

La transformacin de
1
Z y
2
Z a
1
X y
2
X es una transformacin lineal y se verificar
que el determinante de la matriz de coeficientes de
1
Z y
2
Z tiene el valor
2 1
2 1 2
) 1 ( = . Por tanto, el jacobiano J de la transformacin inversa de
1
X y
2
X
a
1
Z y
2
Z es

1
2 1
2 1 2 1
] ) 1 [(

= = J (1.26)
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 19

Puesto que 0 > J , el valor de J es igual al valor de J . Si se resuelven las relaciones
(1.25) para
1
Z y
2
Z , en funcin de
1
X y
2
X , entonces la funcin de distribucin de
probabilidad conjunta ) , (
2 1
x x f se puede obtener reemplazando
1
z y
2
z en la ecuacin
(1.24) por sus expresiones en funcin de
1
x y
2
x y multiplicando luego por J . Se
puede demostrar que el resultado para
1
x y
2
x es:

(
(

(
|
|
.
|

\
|
+
|
|
.
|

\
|
|
|
.
|

\
|

|
|
.
|

\
|

=
2
2
2 2
2
2 2
1
1 1
2
1
1 1
2
2 1
2 1 2
2 1
)
)
2
) 1 ( 2
1
exp
) 1 ( 2
1
) , (



x
x x
x
x x f
(1.27)

Cuando la funcin de distribucin conjunta de dos variables aleatorias
1
X y
2
X es de la
forma de la ecuacin (1.27) se dice que
1
X y
2
X tienen una distribucin normal
bivariante. Las medias y las varianzas de la distribucin normal bivariante especificada
por la ecuacin (1.27) se pueden deducir fcilmente de las definiciones de la ecuacin
(1.25). Puesto que
1
Z y
2
Z son independientes y cada una tiene media 0 y varianza 1,
resulta que

2 1
2 1
2 1 2 1 2 1
2
) , cov(
) , ( ) , cov(
2 , 1 ) var( ) (



X X
X X X X
i X X E
i i i i
= =
= = =


Ha resultado conveniente introducir la distribucin normal bivariante como la
distribucin conjunta de ciertas combinaciones lineales de variables aleatorias
independientes que tienen distribucin normal tipificada. Debe subrayarse, sin embargo,
que la distribucin normal bivariante aparece directa y naturalmente en muchos
problemas prcticos. Por ejemplo, para muchas poblaciones, la distribucin conjunta de
dos caractersticas fsicas como las estaturas y pesos de los individuos de una poblacin
ser aproximadamente una distribucin normal bivariante. Para otras poblaciones, la
distribucin conjunta de las calificaciones de los individuos de la poblacin en dos
pruebas relacionadas ser aproximadamente una distribucin normal bivariante.

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 20
1.3.5. Distribucin Gamma.

Algunas de las variables aleatorias que veremos siguen una distribucin de la forma:

+ +
= IR x e kx x f
x

1
) , / ( (1.28)

Donde 0 > , 0 > y k debe ser tal que el rea total bajo la curva sea igual a 1. Para
evaluar k , primero hacemos la substitucin x y = , lo cual nos da




=
0
1
0
1
dy e y k dx e kx
y x
(1.29)

0 ) (
0
1
> =




dy e y
y
(1.30)

Que se trata en detalle en muchos de los textos de clculo avanzado. Al integrar por
parte y asumiendo que es un parmetro, encontramos que la funcin gamma satisface
la frmula recursiva.

( ) ( 1) ( 1) = (1.31)

Para 1 > , y puesto que

1 ) 1 (
0
= =


dy e
y


Se sigue por la aplicacin repetida de la frmula recursiva que )! 1 ( ) ( = donde
es un entero positivo. Tambin, un valor especial importante es = ) (
2
1
.

Regresamos ahora al problema de evaluar k , igualamos la integral obtenida a 1, y
obtenemos

1 ) (
0
1
= =




k dx e kx
x


Y por tanto

) (
1

= k (1.32)

Esto nos lleva a al siguiente definicin de la distribucin gamma.

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 21
Definicin 7. Una variable aleatoria X tiene una distribucin gamma y se conoce
como una variable aleatoria gamma si y slo si su densidad de probabilidad est dada por

+ +

= IR x e x x f
x



1
) (
1
) , / ( (1.33)

Propiedad 7. Si X tiene una distribucin gamma con parmetros y ,
respectivamente, entonces se debe cumplir que:

7.i. = ) (X E
7.ii.
2
) var( = X
7.iii.
1
) 1 ( )) (exp( ) (

< = =

t t tX E t


3.6. Distribucin Beta.

La densidad uniforme 1 ) ( = x f para 1 0 < < x y 0 ) ( = x f en cualquier otra parte es un
caso especial de la distribucin beta, la cual se define de la siguiente manera.

Definicin 8. Una variable aleatoria X tiene una distribucin beta y se conoce como
una variable aleatoria Beta si y slo si su densidad de probabilidad est dada por

0 , 0 ) 1 (
) ( ) (
) (
) , / (
1 1
> >

+
=






x x x f (1.34)

Donde 0 > y 0 > .

En aos recientes, la distribucin beta ha encontrado aplicaciones importantes en la
inferencia bayesiana, donde los parmetros se consideran como variables aleatorias, y hay
necesidad de una densidad de probabilidad bastante flexible para el parmetro de la
distribucin binomial, el cual slo toma valores distintos a cero en el intervalo desde 0
hasta 1. Con flexible queremos decir que la densidad de probabilidad puede tomar una
gran variedad de formas diferentes.

No demostraremos aqu que el rea total bajo la curva de la distribucin beta, como la de
cualquier densidad de probabilidad, es igual a 1, pero en la demostracin del teorema
que sigue, nos valdremos del hecho que

1 ) 1 (
) ( ) (
) (
1
0
1 1
=

+


dx x x



(1.35)

Y por tanto que

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 22
) , (
) ( ) (
) (
) 1 (
1
0
1 1




B dx x x =

+
=


(1.36)

Esta integral define la funcin beta, cuyos valores se denotan por ) , ( B . En cualquier
libro de texto avanzado se puede encontrar un anlisis detallado de funcin beta.

Propiedad 8. Si X tiene una distribucin Beta con parmetros y ,
respectivamente, entonces se debe cumplir que:

8.i.

+
= ) (X E
8.ii.
) 1 ( ) (
) var(
2
+ + +
=


X
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 23
4. DISTRIBUCIONES CONDICIONADAS (CASO BIVARIANTE)

Considerar y utilizar distribuiciones condicionales juega un papel fundamental en la
modelizacin para un proceso de toma de decisiones. Vamos a considerar algunos
resultados generales para una distribucin bivariante.

En una distribucin bivarainte, hay una distribucin condicional sobre y para cada valor
de x. Las densidades condicionales son

) (
) , (
) , (
) , (
) | (
x f
y x f
dy y x f
y x f
x y f
x
y
= =

y
) (
) , (
) , (
) , (
) | (
y f
y x f
dx y x f
y x f
y x f
y
x
= =

(1.37)

De la ecuacin (1.37) se deduce que, si x e y son independientes, entonces se cumple
que ) ( ) | ( y f x y f
y
= y ) ( ) | ( x f y x f
x
= .

La interpretacin es que si las variables son independientes, las probabilidades de los
sucesos relacionados con una variable no estn relacionadas con la otra. La definicin de
densidades condicionales tiene como implicancia el siguiente resultado importante:

) ( ) | ( ) ( ) | ( ) , ( y f y x f x f x y f y x f
y x
= = (1.38)

4.1. Media Condicional.

Una media condicional es la media de la distribucin condicional y se define por:

=

discreta es si ) | (
continua es si ) | (
) | (
y x y yf
y dy x y yf
x Y E
y
y (1.39)

A la funcin de media condicional ] | [ x Y E se le denomina regresin de Y sobre x . Por
ello una variable aleatoria Y siempre se puede escribir como:

+ = + = ] | [ ]) | [ ( ] | [ x Y E x Y E Y x Y E Y

Donde contiene el efecto estocstico de la variable.

4.2. Varianza Condicional.

La varianza condicional es la varianza de la distribucin condicional:

2 2 2
]) | [ ( ] | [ ] | ]) | [ [( ] | [ x Y E x Y E x x Y E Y E x Y V = = (1.40)

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 24
A la varianza condicional se la denomina funcin cedstica y, como la regresin, es
generalmente, una funcin de x . Sin embargo, a diferencia de la funcin de la media
condicional, lo habitual es que la varianza condicional no vare con x . Esto no implica,
sin embargo, que ] | [ x Y V sea igual a ) (Y V , que, en general, no ser el caso. Implica,
solamente, que la varianza condicional es una constante. El caso en que la varianza
condicional no vara con x se denomina homocedasticidad (varianza igual, o
constante).

4.3. Relacin entre Momentos Condicionales y Marginales.

En los siguientes teoremas se presentan algunos resultados tiles sobre los momentos de
una distribucin condicional:

Teorema 1. Ley de las esperanzas iteradas.

Este concepto consiste en calcular el promedio general como el promedio de los
promedios parciales, es decir,

]] | [ [ ] [ x Y E Ex Y E = (1.41)

Donde la notacin ] [
x
E indica la esperanza sobre los valores de x .

Teorema 2. Los momentos de una combinacin lineal de variables.

Si bX a X Y E + = ] | [ , donde ahora X podra se una variable aleatoria, entonces

] [ ] [ x bE Y E a = y
] [
) , cov(
X V
Y X
b = (1.42)

Cuya demostracin queda propuesta para al lector.

Teorema 3. Descomposicin de la varianza.

En una distribucin conjunta

)] | ( [ ]) | [ ( ] [ x Y V E x Y E V Y V
x x
+ = (1.43)

La notacin ] [
x
V indica la varianza sobre la distribucin de x . Esto indica que en una
distribucin bivariante, la varianza de Y se descompone en la varianza de la funcin
media condicional (intervarianza) ms la varianza esperada alrededor de la media
condicional (intravarianza).


ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 25
Teorema 4. Varianza residual de una regresin.

En cualquier distribucin bivariante,

]) | [ ( ] [ )] | ( [ x Y E V Y V x Y V E
x x
= (1.44)

En promedio, condicionar reduce la varianza de la variable sujeta al condicionamiento.
Por ejemplo, si Y es homocedstica, se cumple siempre que la varianza de la(s)
distribucin(es) condicional(es) es menor o igual a la varianza marginal de Y .

Teorema 5. Regresin lineal y homocedasticidad.

En una distribucin bivariante, si bx a x Y E + = ] | [ y si ] | [ x Y V es una constante, entonces

) 1 ( ]) , [ Corr 1 ]( [ ] | [
2 2 2
xy y
X Y Y V X Y V = =

La prueba se obtiene directamente utilizando los teoremas 2 y 4.

Ejemplo 9. En su estudio 1984, Hausman et al. (1984) sugiere que la distribucin
POISSON es un modelo razonable para la distribucin del nmero de patentes ( P )
concedidas a las empresas en un determinado ao:

,... 2 , 1 , 0 ,
!
) | ( = =

P
P
e
P f
P



Sin embargo, se sabe que cuanto ms se invierte ( R ) en investigacin y desarrollo
(I&D), mayor es, en promedio, el nmero de patentes recibidas. Esta interaccin
debera afectar a la distribucin de P . Cmo se distribuye R entre las empresas es una
cuestin colateral, que puede ser o no de inters. Pero en lo que estamos interesados es
en cmo interactuan R y el nmero medio de patentes. Como el valor medio de las
patentes recibidas es lambda, supongamos que la distribucin previa de P es condicional
en R y especificamos que:

] | [ R P E bR a = + =

Esperariamos que b fuese positiva. Por tanto,

,... 2 , 1 , 0 ,
!
) (
) | (
) (
=
+
=
+
P
P
e bR a
R P f
bR a P


Que capta el efecto que buscbamos. Observar un gran nmero de patentes puede
reflejar un valor alto del proceso POISSON, o bien puede que se derive de un valor
inusualmente alto de R .

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 26
La distribucin POISSON ilustra una trampa que a veces se da en la especificacin de un
modelo economtrico. En una distribucin POISSON, la media es igual a la varianza. No
hemos descartado la posibilidad de que bR a + pueda ser negativo para algunos valores de
a y b . No slo es ste un parmetro en cualquier caso invlido para la distribucin de
POISSON, sino que adems, permite una varianza negativa. Esto es un error comn de
especificacin.

Ahora supongamos que R es una fraccin constante del tamao de la empresa, y que
esta variable sigue una distribucin lognormal. As, R tambin seguir una distribucin
lognormal
4
0 = . Supongamos que y 1 = . Entonces

65 , 1 ] [ = = e R E y 65 , 4 ] [ = R V

Supongamos tambin que 1 = a y 2 = b . Entonces.

R R P E 2 1 ] | [ + =

30 , 4 ] [ 2 1 ] 2 1 [ ]] | [ [ ] [ = + = + = = R E R E R P E E P E
R R R


6 , 18 ] [ 4 ] 2 1 [ ]] | [ [ = = + = R V R V R P E V
R R R


R R P V 2 1 ] | [ + = =

30 , 4 ] [ 2 1 ] 2 1 [ ]] | [ [ = + = + = R E R E R P V E
R R R


De esta manera se puede concluir que

9 , 22 30 , 4 6 , 18 ]] | [ [ ]] | [ [ ] [ = + = + = R P V E R P E V P V
R R


Ntese que ] [P V es apreciablemente mayor que ]] | [ [ R P V E .




4
Cuando se modelan distribuciones de tamao, tales como la distribucin del tamao de las
empresas en una industria o la distribucin de la renta en un pas, la distribucin lognormal
(LN), que representamos por ] , [
2
LN es especialmente til.
( )
2
2
1 2
] / ) [(ln exp
2
1
) , | (

= x
x
x f
Una variable lognormal X tiene
2
2
1
] [
+
= e X E y ) 1 ( ] [
2 2
2
=
+
e e X V la relacin en las
distribuciones normal y lognormal es que si ] , [ ~
2
LN Y , entonces ] , [ ~ ) ln(
2
N Y , por lo
tanto se puede concluir que ] , [ ~
2 2
r r LN Y
r
.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 27

4.4. El Anlisis de la Varianza.

El resultado de descomposicin de la varianza implica que en una distribucin bivariante,
la variacin de Y surge por dos motivos:

1. Variacin porque ] | [ x Y E vara con x :

]) | [ ( regresin de Varianza nza Intervaria x Y E V
x
= =

2. Variacin porque, en cada distribucin condicional, Y vara alrededor de la
media condicional.

]) | [ ( residual Varianza nza Intravaria x Y V E
x
= =

Por tanto,

residual Varianza regresin de Varianza ] [ + = Y V

Cuando analicemos una regresin, habitualmente estaremos interesados en cul de las
dos partes de la varianza total, ] [Y V , es mayor. Por ejemplo, en la relacin patentes-
I&D, cul explica ms la varianza del nmero de patentes recibidas? variaciones en la
cantidad de I&D (varianza de regresin) o la variacin aleatoria en las patentes recibidas
dentro de la distribucin POISSON (varianza residual)? Una medida natural es el
coeficiente

Total Varianza
Regrersin de Varianza
CoD in Determinac de e Coeficient = =

Ejemplo 10. Anlisis de la varianza en un modelo de POISSON. Utilizando el ejemplo
anterior tenemos que.

812 , 0
9 , 22
6 , 18
CoD = =


Esto nos indica que aproximadamente el 81% de la varianza es explicada por la varianza
de la regresin.

En el contexto de una regresin lineal, el coeficiente de determinacin surge de otra
relacin que subraya la interpretacin del coeficiente de correlacin.

Si bx a x Y E + = ] | [ , entonces el coeficiente de determinacin
2
CoD = , donde
2
es la
correlacin al cuadrado entre x e Y . Podemos concluir que el coeficiente de
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 28
correlacin (al cuadrado), es una medida de la proporcin de la varianza de Y que se
explica por la variacin de la media de Y , dado x . En este sentido la correlacin puede
ser interpretada como una medida de asociacin lineal entre dos variables.


5. TEORA DE CONVERGENCIA EN PROBABILIDADES.

5.1. La Ley Dbil de los Grandes Nmeros.

Al discutir convergencia en probabilidad fue demostrado que cuando el tamao de la
muestra llega a ser grande, la media muestral se acerca a la media poblacional. Esto se
conoce como la ley dbil de los grandes nmeros (WLLN, del ingles Weak Law of Large
Numbers) , lo cual se sostiene bajo una variedad de supuestos.

Teorema 6. Kinchin

Sea { } , 1
T
X T una sucesin de variables aleatoria independiente e idnticamente distribuidas
(IID) con media finita , y sea
1
1
T
T i i
X T X

=
= , entonces

limPr[ ] 0
T
T
X

> = (1.45)

O equivalentemente

limPr[ ] 1
T
T
X

= (1.46)

En otras palabras,
T
plimX = .

Teorema 7. Chebyshev

Sea { }
T
X una sucesin de variables aleatoria independientes con media finita
T
, y
varianza
2
T
, y sea
1
1
T
T i i
T

=
= . Si las varianzas son igualmente acotadas, esto es,
2
T
c < < , entonces ( ) 0
p
T T
X .


Demostracin
Se sabe que
2 2 1
1
var( )
T
T i i
X T T c

=
= . Por la desigualdad de Chebyshev
5

,

5
La desigualdad de Chebyshev. Si
T
x es una variable aleatoria y
T
c y son constantes, entonces
] ) [( ) Pr(
2 2
T T T T
c x E c x



ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 29
2 2
var( )
Pr[ ]
T
T T
X c
X
T


(1.47)

En este caso tenemos que cuando T tiende a infinito el lado derecho de la ecuacin
(1.47) converge a cero y como la probabilidad no puede ser negativa, entonces se
demuestra que el trmino descrito converge el cero.

Teorema 8. Markovs

Sea { }
T
X una sucesin de variables aleatoria con media finita
T
, y sea
1
1
T
T i i
X T X

=
= y
1
1
T
T i i
T

=
= . Si las var( ) 0
T
X cuando T , entonces ( ) 0
p
T T
X
6

.

Teorema 9. Kolmogorovs

Sea
1
1
T
T i i
X T X

=
= y
1
1
T
T i i
T

=
= , y adems se define
T T T
Z X = . Una condicin
necesaria y suficiente para que se cumpla WLLN, debe ocurrir que 0
p
T
Z y que
2 2
lim [ /(1 )] 0
T T
T
E Z Z

+ = .


5.2. La Ley Fuerte de los Grandes Nmeros

La WLLN indic que bajo ciertas condiciones la media muestral converge en
probabilidad a la media poblacional. Sin embargo, podemos en efecto hacer una
derivacin ms fuerte, la cual se puede indica como que la media muestral converge
almost surely a la media poblacional. Esto se conoce como la ley fuerte de los grandes
nmeros (SLLN que en ingles quiere decir Strong Law of Large Numbers), las bases de
estos resultados que se presentan a continuacin los cuales se apoyan en la dependencia
de las observaciones, su heterocedasticidad y momentos.

Teorema 10.

Si las
t
X s son IID y ( )
t
E X = , entonces
. .
( ) 0
a s
T
X .


6
Para la demostracin se puede utilizar la desigualdad de Markov. Sea
T
y una variable
aleatoria que toma valores no negativos y una constante positiva, entonces,
) ( ) Pr(
1
T T
y E y



ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 30
Teorema 11.

Si las
t
X s son independientes ( ( )
t t
E X = ) con varianza finita (
2
var( )
t t
X = ), y si
2
1
1
[ var( )]
T T
T
X

=
< , entonces
. .
( ) 0
a s
T T
X .

Teorema 12.

Si las
t
X s son IID, entonces una condicin necesaria y suficiente para
. .
( ) 0
a s
T T
X es
que
i i
E X < para todo i .

5.3. Teorema Central del Lmite.

Quizs el teorema ms importante de la teora de las grandes muestras es el teorema
central del lmite, el cual indica que, bajo condiciones absolutamente generales (e
intuitivamente razonable), la media de sucesiones de variables aleatorias (tales como la
media muestral), converge a una distribucin normal aunque la distribucin original no
lo sea. As aunque no supiramos cual es la distribucin estadstica de la poblacin a la
cual pertenece la muestra, si se cuenta con una muestra lo suficientemente grande
podremos aproximar bastante bien la distribucin muestral por una distribucin normal.
En los casos que se cumple este teorema se simplifica enormemente la inferencia
estadstica.

Teorema 13. Convergencia en Distribucin

Suponga que
T
X ( 1 n ) es una sucesin de variables aleatorias con f.d.a ( )
T
F x , y
d
T
X X con una f.d.a. ( )
X
F x , entonces para cualquier funcin continua ( ) g ,

lim ( ) ( ) ( ) ( )
T
T
g x dF x g x dF x


=

(1.48)

En el caso de una variable aleatoria continua, se tiene que:

lim ( ) ( ) ( ) ( )
T
T
g x f x dx g x f x dx


=

(1.49)

Teorema 14. (TLC)

Sea
1 2
, ,...,
T
X X X una sucesin de variables aleatorias,
T
S corresponde a la suma de la
serie (
1
T
i i
X
=
) y
T
X es la media de la serie /
T
S T . La media estandarizada se define como

( ) ( )
var( )
var( )
T T T T
T
T
T
X E X S E S
Z
S
X

= = (1.50)

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 31
Donde se ha definido que (0,1)
d
T
Z N .

Algunos de los TLC ms conocidos corresponden a:

Teorema de Moivres: La sucesin de observaciones son independientes de variables de
Bernoulli (Este es el primer caso histricamente establecido).

Este caso es utilizado frecuentemente en la literatura aplicada, claro, no siempre
bajo las condiciones que comprenden este tipo de procedimientos. Para que
podamos ver con ms detalle este comentario, supongamos que contamos con una
muestra de variables aleatoria de Bernoulli independientes e idnticamente
distribuidas, es decir, que cada una de las observaciones posee el mismo valor
esperado p y varianza (1 ) p p , donde p representa la probabilidad de que la
variable aleatoria sea igual a 1. Por lo tanto, el promedio de esta muestra tiene
distribucin Binomial
7

, con valor esperado y varianza igual a:
( )
T
E X p =
1
var( ) (1 )
T
X T p p

=

Ahora utilizando el teorema de Chebyshev tenemos que:

2 2
var( ) (1 )
Pr( )
T
T
X p p
X p
T



> =

Por lo tanto, si aplicamos el lmite de T tendiendo a infinito, nos queda que:

2
(1 )
limPr( ) lim 0
T
T T
p p
X p
T

> =

Pero, como la probabilidad no puede ser negativa, entonces se puede concluir
que:

limPr( ) 0
T
T
X p

> =

Entonces, el promedio de la muestra converge en probabilidad a p , as que por la
ley dbil de los grades nmeros converge en distribucin a una normal, es decir,

( )
(0,1)
(1 )
var( )
d
T T
T
X p T X p
N
p p
X

=




7
Se debe notar que en el promedio de variables aleatoria Bernoulli se pierde el orden en que salieron los
ceros y unos, por lo tanto, la distribucin de este promedio es la distribucin conjunta de variables
aleatorias Bernoulli sin orden, que corresponde a la descripcin de la distribucin de una Binomial.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 32
Sin embargo, el lector debe notar que esto se cumplir siempre y cuando el
nmero de observaciones sea sustancialmente grande, es decir que con 30 50
observaciones posiblemente no pudramos concluir lo mismo.

Teorema de Lindberg-Levy: La sucesin utilizada son IID con varianza finita.

Teorema Liapounov: Las X s son independientes con ( )
i i
E X = ,
2
var( )
i i
X = ,
2
[ ]
i i i
E X


+
= < ( 0 > ), y

2
1
2 2
1
( )
lim 0
( )
T
i i
T
T
i i

=
+



Teorema Lindberg-Feller: Las X s son independientes con ( )
i i
E X = ,
2
var( )
i i
X = ,
2 2
1
T
T i i
s
=
= ,
1
T
T i i
S X
=
= , y para 0 >

2
2 1
1
lim ( ) ( ) 0
i T
T
i i
i
x S T
T
x dF x
s


=
>
(
=
(




Teorema 15.

Distribucin lmite normal de una funcin. Si ] , 0 [ ) (
2
N z T
D
T
y si ) (
T
z g es
una funcin continua que no dependen de T , entonces

] )) ( ( , 0 [ )] ( ) ( [
2 2
g N g z g T
D
T
(1.43)

Ntese que la media y la varianza de la distribucin lmite, son la media y la varianza de
la aproximacin lineal:

) )( ( ) ( ) ( +
T T
z g g z g (1.44)

Estos resultados sugieren que los momentos de la distribucin lmite son los lmites
ordinarios de los momentos de la distribucin de la muestra finita. Esto es casi siempre
cierto, pero no necesariamente tiene por que ser as. Es posible construir ejemplos en los
que los momentos para muestras finitas ni siquiera existen, mientras que los momentos
de la distribucin lmite estn bien definidos. Incluso en esos casos, generalmente es
posible encontrar la media y la varianza de la distribucin lmite.

Las distribuciones lmite, as como los lmites en probabilidades, pueden simplificar de
manera importante el anlisis de algn problema concreto. Algunos resultados en los que
se combinan ambos tipos de convergencia se presentan a continuacin.


ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 33
APNDICE: TABLA


I. DISTRIBUCIN NORMAL ESTANDAR.

Forma funcional:
0
2
0 0
1 1
Pr( ) ( ) exp
2 2
z
Z z z s ds

| |
= =
|
\ .


Forma grfica:


Grfico I. Representacin de la probabilidad en una distribucin normal estndar


Tabla 1. Funcin de Distribucin Acumulada de la Distribucin Normal Estndar.

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 34
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998


ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 35
APNDICE: USO


II. USO DE TABLA NORMAL PARA CLCULO DE PROBABILIDAD Y
TEOREMA CENTRAL DEL LMITE

2.1. Simetra de la Normal

Suponga una distribucin normal estndar, la cual representaremos por medio de la
siguiente figura.


Figura a. Representacin del rango que el 90% ms probable.

Adems intentaremos determinar el valor de zo o el rango de valores que tiene un 90%
de probabilidades sobre el total de valores, para ello recordaremos lo siguiente.

Pr( ) ( ) ( )
z
Z z z s ds

= =



Y que

2 2 2
1
1 2 2 1
Pr( ) ( ) ( ) ( ) Pr( ) Pr( )
z z z
z
z Z z s ds s ds s ds Z z Z z

= = =



Por lo tanto, ceidos a nuestro problema debe ocurrir que

1 2
Pr( ) 0.9 z Z z =

Pero como la distribucin normal estndar es simtrica con respecto a cero, tenemos
2 1
z z = , de esta forma las probabilidades antes mencionadas se pueden descomponer de
la siguiente forma:

1 2 2 1
Pr( ) Pr( ) Pr( ) 0.9 z Z z Z z Z z = =

2 1
Pr( ) 0,95 Pr( ) 0.5 Z z Z z = =
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 36

Claramente se puede apreciar que la resta genera el valor 0.9, que interpretaremos como
el conjunto de valores que posee un 90% de representatividad.

Ahora podemos calcular cada probabilidad por separado, y encontrar que son iguales en
modulo, por lo tanto, primero determinaremos el valor de
2
z .

Clculo de
2
z , en base a
2
Pr( ) 0,95 Z z = . Primero debemos tener presente que en la
tabla aparecen una primera columna y una primera fila que se encuentra oscurecidas en
el cuadro a.


Cuadro a. Representacin de la tabla normal estndar, para valores de z positivos.

Esta primera columna representa el valor de z con un decimal (el primero), mientras
que el segundo decimal corresponde al de la primera fila. Por lo tanto, nosotros
buscamos la probabilidad de 0.95, la cual se encuentra marcada por un circulo en el
cuadro a. Pero, al extender una flecha en forma horizontal encontramos el nmero 1,6
que corresponderan al valor de
2
z hasta el primer decimal, sin embargo, al extender
una flecha en forma vertical, nos encontramos con el valor 0,05 que representa el
segundo decimal de
2
z , esto nos dice que el valor completo de
2
z es 1,65.


Cuadro b. Representacin de la tabla normal estndar para valores de z negativo.

En forma anloga a la anterior pero utilizando el cuadro b, es posible determinar el valor
de
1
z . Si consideramos la misma aproximacin que antes,
1
z es igual -1,65.

Este ltimo resultado concuerda con el hecho de que la distribucin normal estndar es
simtrica.
ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 37

Entonces, podemos concluir que el rango que tiene un 90% de representatividad en una
distribucin normal se encuentra dentro [ 1,65;1,65] .

2.2. Otro tipo de clculo por medio de la tabla estndar.

Suponga que cuenta con una muestra aleatoria de tamao N obtenida de una poblacin
que posee una distribucin normal con media y varianza
2
, la cual informa que el
40% de las observaciones son menores a 20 y el 45% son menores a 35. Estime en forma
aproximada el valor de la media y de la varianza.

Para poder realizar este clculo debemos suponer que la muestra es lo suficientemente
grande como para ser representativa de la poblacin, por lo tanto, el enunciado anterior
se puede expresar en trminos estadsticos como:

Pr( 20) 0,40 X < = y que Pr( 35) 0,45 X < =

Tambin sabemos que las probabilidades de variables normales pueden ser llevada a una
normal estndar, es decir,

1 1
Pr[ ( ) (20 )] 0,40 X

< =

Sin embargo, al hacer este cambio hemos igualado la probabilidad de una normal
cualquiera a la probabilidad de una normal estndar. De esta manera para la probabilidad
de 0.4 el valor de eje ( z ) se encuentra aproximadamente en el valor de -0.25, segn se
muestra en el crculo del cuadro c.


Cuadro c. Tabla de distribucin normal estndar.

Esto quiere decir que Pr( 0,25) 0,4 Z < , por lo tanto, al igualar estas dos
probabilidades tenemos que:

1
(20 ) 0,25

=

ESTADISTICA CAPITULO 1
Funcin de Distribucin

Autor: Pablo Tapia G. Pagina 38
De la cual se desprende nuestra primera ecuacin 0,25 20 = , pero se hace necesaria
una segunda ecuacin, ya que tenemos dos incgnitas. Esta segunda ecuacin la podemos
generar de la segunda probabilidad, de manera que:

1 1
Pr[ ( ) (35 )] 0,45 X

< =

Pero, tal como podr percibir el lector, la probabilidad de 0.45, se encuentra
aproximadamente a la misma distancia entre dos valores, por lo tanto, se puede tomar el
punto medio como referencia, lo cual en algunos casos no sera muy preciso, sin
embargo, tambin se podra recurrir a una extrapolacin considerando una recta entre
dos puntos, es decir,

Recuerde que la recta que pasa por dos puntos,
1 1
( , ) x y y
2 2
( , ) x y , es:

2 1
1 1
2 1
( )
y y
y x x y
x x

= +



Por lo tanto, de la tabla sabemos que para un valor de eje igual a -0,12 la probabilidad
acumulada es 0.4522, mientras que para un valor de eje igual -0,13 la probabilidad
acumulada respectiva es igual 0.4483 (ver cifras encerradas en un cuadrado, en el
cuadro c), que al ser utilizado como puntos, hace que la recta quede expresada como

0,13 0,12
( 0,4522) 0,12
0,4483 0,4522
y x
+
= +



Entonces, podemos concluir que para una probabilidad acumulada de 0.45, el valor de
eje corresponde a -0,126.

De esta forma al igual las probabilidades tenemos nuestra segunda ecuacin, es decir,

1
(35 ) 0,126

=

0,126 35 =

Con lo cual podemos construir el siguiente sistema de ecuaciones

0,25 20
0,126 35


=
=


Que una vez resuelto nos entrega que un valor aproximado de la media es 50.24 y para
la desviacin estndar es 120.97, con lo cual podemos sealar que la varianza
corresponde a 14633.74.