You are on page 1of 121

PROBABILIDAD INTERMEDIA BASICA Vectores Aleatorios e Independencia.

Profesor: David Josafat Santana Cobian


2012

Facultad de Ciencias UNAM

1 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

2 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

3 / 125

Introduccion

La Probabilidad y la Estad stica forman una pareja muy produc de las ciencias. tiva en la aplicacion Se puede aprender probabilidad sin aprender estad stica, sin embargo, para aprender estad stica se debe saber probabilidad.

4 / 125

Introduccion.
no estudiamos directamente esEn otras palabras por que tad stica? Porque la probabilidad debe ser entendida para el estad stico, como el serrucho y el martillo para el carpintero.

5 / 125

Introduccion.

es la probabilidad? Que La Probabilidad es una area de las matematicas que estudia las posibilidades de los eventos inciertos. Utiliza como herramientas principales a las variables aleatorias, con las cuales se modelan posibles resultados numericos.

6 / 125

Objetivo:
Al terminar el modulo, se conocera: El uso y manejo de los vectores aleatorios. conocer la distribucion de una funcion que Se podra dependa de vectores aleatorios. un conocimiento practico Habra de los teoremas l mite y sus multiples aplicaciones. una introduccion al estudio de los Y nalmente se hara procesos estocasticos. (Colecciones de variables aleatorias con cierta dependencia entre ellas).

7 / 125

ejemplo! Para comenzar un pequeno

Ejemplo Si estamos observando el precio del dolar diariamente, aparente. este cambia sin ningun patron A este comportamiento azaroso le llamaremos aleatorio.

8 / 125

Aleatorio?

Alea=Dado. Aleatorio=Del juego de dados. En otras palabras... aleatorio = al azar, que no sigue un patron, secuencia u orden determinado.

9 / 125

Variable aleatoria vs proceso estocastico. El precio del dolar en cualquier d a futuro es una variable aleatoria. forman El conjunto de los precios del dolar de algun ano un proceso estocastico discreto.

10 / 125

As , cuando se necesita tener conocimiento del futuro de un evento, la probabilidad y los procesos estocasticos nos ayudan a medir las posibilidades de los distintos escenarios que pueden ocurrir. intentamos conocer el futuro pero En la Estad stica tambien pasada. Ademas se puede medir haciendo uso de informacion el grado de conanza de una aseveracion.

11 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

12 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

13 / 125

Vectores aleatorios.

A partir de un experimento, es posible preguntarnos por varios aspectos de los resultados. Ejemplo

Supongamos que nuestro experimento es lanzar dos dardos a una tabla circular (y siempre damos en la tabla) con un objetivo en el centro. En cuales resultados podr amos estar interesados?

14 / 125

Vectores aleatorios.

15 / 125

de variables aleatorias Denicion


nal de los dardos, 1. X =distancia que hay entre la posicion medida en cent metros. 2. Y =distancia que hay entre el objetivo y el dardo uno, medida en cent metros. 3. Z =distancia que hay entre el objetivo y el dardo dos, medida en cent metros. 4. W =maximo entre Y y Z . 5. T =m nimo entre Y y Z . 6. S = Y + Z , etc.

16 / 125

de variables aleatoria continuas Denicion

importante acerca de las v.a.s que heUna observacion mos denido es que son continuas. Ya que los posible valores que las v.a.s X , Y , Z , W , T y S pueden tomar son los reales positivos.

17 / 125

de variables aleatoria discretas Denicion

es posible denir v.a.s A partir de nuestro ejemplo, tambien discretas. Se les llama asi porque es posible numerar al numero de valores que la v.a puede tomar.

18 / 125

de variables aleatoria discretas Denicion


1. U =numero de dardos que quedan a menos de 10cm del objetivo. de 10cm 2. V =numero de dardos que quedan a mas del objetivo. Notemos que los posibles valores que las v.a.s U y V pueden tomar son 0,1 y 2 en ambos casos.

19 / 125

Nos podemos preguntar por resultados conjuntos entre estas v.a.s??

20 / 125

Resultados conjuntos entre estas v.a.s


Ejemplo Nos puede interesar la probabilidad de que: La distancia entre los dos dardos sea menor a medio metro.

21 / 125

Resultados conjuntos entre estas v.a.s


Ejemplo Y al mismo tiempo: cercano al objetivo El dardo que haya quedado mas a menos de 10cm. este Es decir, X < 50 y al mismo tiempo T < 10

22 / 125

En este caso, la probabilidad conjunta se puede escribir como: P (X < 50, T < 10) Pensando en un plano X , T , geometricamente el evento (X < 50, T < 10) es equivalente al evento ((X , T ) [0, 50) [0, 10)).

23 / 125

Por tanto, es imposible estudiar este tipo de eventos utilizando v.a.s univariadas unicamente. Es necesario hablar de vectores aleatorios, o sea, arreglos de v.a.s.

24 / 125

Y al igual que en el caso univariado, podremos preguntarnos por v.a.s, de distribucion conjunta entre dos o mas la funcion v.a.s, de densidad conjunta entre dos o mas la funcion generadora de momentos conjunta entre dos la funcion v.a.s, o mas de las v.a.s. el valor esperado de una funcion

25 / 125

Independencia Estocastica
Adelanto

Notemos que las v.a.s discretas U y V denidas anteriormente, toman valores complementarios entre si. Es decir, al saber el valor de una ya sabemos el valor de la otra v.a., en este caso U y V son dependientes. En el caso de las v.a.s Y y Z , observamos que los valores que toman son independientes. de independencia estocasti Bajo este contexto, se hablara ca.

26 / 125

Cuando estudiemos a un conjunto de v.a.s independientes en mas faciles tre si, se haran los calculos, ya que al igual que, cuando hablamos de eventos independientes, la probabilidad igual al producto de la probabilidades univaconjunta sera riadas. P (Y > 10, Z < 20) = P (Y > 10)P (Z < 20)

27 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

28 / 125

Funciones de densidad y de distribucion

Si tenemos un conjuntos de v.a.s, por ejemplo {X1 , X2 , ..., Xn }, de distribucion que nos proporpodemos estudiar una funcion de estas v.a.s vistas al mismo tiempo. cione informacion De aqu en adelante vamos a llamar vector aleatorio a un vector formado por v.a.s.

29 / 125

de distribucion conjunta. Funcion

Denicion de distribucion conjunta del vector aleatorio La funcion (X1 , ..., Xn ) se dene y denota como: F (x1 , ..., xn ) = P (X1 x1 , ..., Xn xn ). (1)

de distribucion conjunta de X Y en el caso bivariado, la funcion y Y sera: (2) F (x , y ) = P (X x , Y y )

30 / 125

de distribucion conjunta La funcion


Mide la probabilidad de que el vector aleatorio se encuentre rectangular. Es rectangular ya que dentro de una region tiene base y altura innita!.

de F (2, 1) = P (X 2, Y 1) Figura: Region

31 / 125

Probabilidad de un vector aleatorio

La probabilidad de que un vector aleatorio continuo se encuen A del plano, es igual a calcular la tre en una determinada region A: de densidad sobre la region integral doble de la funcion P ((X , Y ) A) =
A

f (x , y )dxdy

(3)

32 / 125

Probabilidad de un vector aleatorio

De forma analoga, para un vector aleatorio discreto, P ((X , Y ) A) =


(x ,y ) A

f (x , y )

(4)

33 / 125

de densidad conjunta Funcion

Denicion formado de v.a.s continuas y f (x , y ) es una Si (X , Y ) esta positiva que cumple que: funcion
y x

F (x , y ) =

f (u , v )dudv ,

de densidad conjunta de X y Y . se dice que f es la funcion

34 / 125

de densidad conjunta Funcion

Denicion En el caso de que X y Y son discretas, f (x , y ) = P (X = x , Y = y ) y se cumple que


x y

(5)

F (x , y ) =
i = j =

f (i , j ).

35 / 125

de densidad tambien es NOTA 1: En el caso discreto, la funcion de probabilidad. conocida como funcion NOTA 2: Se conoce como soporte del vector aleatorio a la donde f > 0. En el caso discreto, esta region region son puntos conocidos como puntos de masa. NOTA 3: Si el soporte de un vector bivariado (X , Y ) es distinto a todo el plano, entonces F (x , y ) y la P ((X , Y ) A) igual a la integral doble sobre las regiones coseran rrespondientes restringidas a la area del soporte.

36 / 125

de densidad discreta univariada Ejemplo funcion vs bivariada.

Figura: Ejemplos de f a la izquierda una univariada y a la derecha una bivariada.

37 / 125

de densidad continua univariada Ejemplo funcion vs bivariada.

Figura: Ejemplos de f a la izquierda una univariada y a la derecha una bivariada. Ambas normales.

38 / 125

Proposicion 1.Si X y Y son v.a.s continuas, entonces f (x , y ) debe satisfacer


I) II )

f (x , y ) 0
f (x , y )dxdy

=1

2.Si X y Y son v.a.s discretas, entonces f (x , y ) debe satisfacer


I) II )
x y

0 f (x , y ) 1 f (x , y ) = 1

39 / 125

Ejemplo caso discreto


Ejemplo Supongamos que X y Y son v.a.s discretas con funcion de probabilidad conjunta f (x , y ) con valores segun la siguiente tabla: -1 1/18 1/9 1/6 X 0 1/9 0 1/9 1 1/6 1/6 1/9

Y Calcular a) P (X + Y = 1) b) P (X = 0) c) P (X < Y )

1 0 -1

40 / 125

Solucion
Como se lee la tabla?

de probabilidad conjunta. La tabla representa la funcion -1 1/18 1/9 1/6 X 0 1/9 0 1/9 1 1/6 1/6 1/9

1 0 -1

Entonces, cada entrada de la tabla representa: f (x , y ) = P (X = x , Y = y ). As por ejemplo: f (0, 1) = P (X = 0, Y = 1) = 1 9.

41 / 125

Solucion
Como se ven gracados los puntos de masa?

Figura: Dos vistas para las probabilidades de cada punto.

42 / 125

Solucion

Para calcular las 3 probabilidades que nos piden procedemos segun la igualdad (4). Es decir: Identicamos los puntos de masa que cumplan la respectiva y relacion de probabilidad evaluada en Sumamos la funcion estos puntos.

43 / 125

Solucion

1 5 a) P (X + Y = 1) = f (0, 1) + f (1, 0) = 1 9 + 6 = 18 En R con la librer a MASS cargada fractions(1/9+1/6)

b) P (X = 0) = f (0, 1) + f (0, 1) =

1 9

1 9

2 9 1 9

c) P (X < Y ) = f (1, 0) + f (1, 1) + f (0, 1) =

1 18

1 9

5 18

44 / 125

Ejemplo caso continuo.

Ejemplo Supongamos que f (x , y ) = K (x 2 + y 2 ) de densidad para la distribucion conjunta de es la funcion las v.a.s continuas X y Y denidas sobre el cuadrado formado al unir los puntos (0, 0), (1, 0), (1, 1) y (0, 1). a) Encontrar cuanto debe valer K . b) Calcular P (X + Y 1).

45 / 125

Solucion
a)Encontrar el valor de K

Lo primero que debemos notar es que el soporte de f es uni camente el cuadrado unitario, por lo que las integrales dobles deben estar restringidas al area de este cuadrado.

Figura: Soporte de f
46 / 125

Solucion
a) Encontrar el valor de K

1 se debe cumplir que: Por la proposicion


f (x , y )dxdy

=1

Por lo que:
f (x , y )dxdy

1 1 2 0 0 K (x 1 1 2 0 0 (x

+ y 2 )dxdy + y 2 )dxdy

= K = K2 3

3 2 2 Por lo tanto K = 2 , y f (x , y ) = 3 2 (x + y ).

47 / 125

Solucion
b) Calcular P (X + Y 1)

Para calcular la probabilidad debemos procer segun la igualdad (3). P ((X , Y ) A) =


A f (x , y )dxdy

del cuadrado del soLa siguiente gura muestra la interseccion que nos piden (Y 1 X ). porte con la region

de integracion de f Figura: Region

48 / 125

Solucion
b)Calcular P (X + Y 1)

de Ahora procedemos a realizar la doble integral de la funcion densidad en la region que acabamos de denir. P (X + Y 1) = = o bien, P (X + Y 1) = =
1 1 3 2 0 1x 2 (x 3 4 1 1 3 2 0 1y 2 (x 3 4

+ y 2 )dxdy

+ y 2 )dydx

49 / 125

y densidad marginales Funciones de distribucion

formados Como hemos visto los vectores aleatorios estan por v.a.s univariadas. mostraremos que es posible calcular: A continuacion las distribuciones y densidades de cada v.a que conforman al vector aleatorio.

50 / 125

marginales Funciones de distribucion

Denicion de distribucion Si tenemos un vector aleatorio con funcion marginal a la funcion F (x , y ), se conoce como distribucion de X o de Y y de distribucion FX (x ) = P (X x ) = l m F (x , y ),
y

FY (y ) = P (Y y ) = l m F (x , y ).
x

51 / 125

Funciones de densidad marginales


Caso continuo

Denicion Si conocemos la densidad conjunta f (x , y ): Caso Continuo. fX ( x ) = fY ( y ) =


f (x , y )dy , f (x , y )dx

Debemos integrar sobre la v.a. que no queremos. Se conoce a fX (x ) y a fY (y ) como las densidades marginales o simplemente las marginales de X y Y respectivamente.

52 / 125

Funciones de densidad marginales


Caso discreto

Denicion Caso Discreto. fX (x ) = todas las y fY (y ) = todas las x f (x , y ) f (x , y ),

53 / 125

Ejemplo. Densidades marginales.


Caso Discreto

Ejemplo Caso discreto Tomando los datos del ejemplo discreto anterior, calcular las marginales de X y Y .

54 / 125

Solucion
Densidad marginal de X

La densidad conjunta fue dada segun la siguiente tabla: -1 1/18 1/9 1/6 X 0 1/9 0 1/9 1 1/6 1/6 1/9

1 0 -1

Para encontrar la marginal de X toma los valores -1, 0 o 1. Notamos que X solo

55 / 125

Solucion
Densidad marginal de X

Calculamos para cada valor fX (i ): fX (1) = f (1, 1) + f (1, 0) + f (1, 1) = fX (0) = f (0, 1) + f (0, 0) + f (0, 1) = fX (1) = f (1, 1) + f (1, 0) + f (1, 1) =
1 9 1 9 1 6

+
1 9 1 6

1 9

+
2 9 4 9

1 18

1 3

+0+ +
1 6

= =

56 / 125

Solucion
Densidad marginal de X

Por lo tanto:
1 3 2 9 4 9

, x = 1 , x =0 , x =1

fX ( x ) =

57 / 125

Solucion
Densidad marginal de Y

Para encontrar la marginal de Y toma los valores -1, 0 o 1. Notamos que Y solo Calculamos para cada valor fY (i ): fY (1) = f (1, 1) + f (0, 1) + f (1, 1) = fY (0) = f (1, 0) + f (0, 0) + f (1, 0) = fY (1) = f (1, 1) + f (0, 1) + f (1, 1) =
1 6

1 9

1 9

7 18

1 5 1 9 + 0 + 6 = 18 1 1 1 1 18 + 9 + 6 = 3

58 / 125

Solucion
Densidad marginal de Y

Por lo tanto:
7 18 5 18 1 3

, y = 1 , y =0 , y =1

fY (y ) =

59 / 125

entre la funcion de distribucion y la Relacion de densidad. funcion


para las v.a.s continuas

Proposicion de distribucion conjunta (Fdc) F (x , y ), Si X y Y tienen funcion y F es dos veces diferenciable, entonces: 2 F (x , y ) = f (x , y ) x y (6)

60 / 125

de densidad a partir de la Ejemplo. Funcion de distribucion. funcion

Ejemplo Supongamos que la Fdc para X y Y es F (x , y ) = (1/5)(3x 3 y + 2x 2 y 2 ), para 0 x 1, 0 y 1


1 1 Encontrar f ( 2 , 2 ).

61 / 125

Solucion
f(1 , 1) 2 2

f (x , y ) = =

2 x y F (x , y ) 2 3 x y (1/5)(3x y

+ 2x 2 y 2 )

= (1/5)(9x 2 + 8xy ) Por lo tanto:


1 1 2 1 1 f(1 2 , 2 ) = (1/5)(9( 2 ) + 8( 2 )( 2 )) = 17 20

62 / 125

Gracas de F y f.

y la derecha a la Figura: La izquierda corresponde a la distribucion densidad.

63 / 125

Independencia Estocastica.
Entre variables aleatorias.

Denicion Decimos que las v.a.s X , Y son independientes, si para cualesquiera par de conjuntos de numeros AyB P (X A, Y B ) = P (X A)P (Y B ). conjunta, si para todo par de En terminos de la distribucion numeros a, b se cumple F (a, b) = FX (a)FY (b). (7)

64 / 125

Independencia Estocastica para n v.a.s

de la condicion de independencia para n v.a.s es La extension parecida. si X1 , ..., Xn son v.a.s independientes si y solo
n

F (x1 , ..., xn ) =
i =1

FXi (xi ).

65 / 125

de independencia. Condicion
v.a.s continuas

Proposicion I) Sean X y Y v.a.s continuas con funciones de densidad fX (x ) y fY (y ) con soportes a x b y c y d respectivamente, donde los extremos pueden ser innitos. Se dice que X y Y son independientes, si la densidad conjunta es igual al producto de las marginales: f (x , y ) = fX (x )fY (y ) la Para el caso de n v.a.s independientes, tambien igual al producto de las densidad conjunta sera marginales. (8)

66 / 125

de independencia. Condicion
v.a.s discretas

Proposicion II) Sean X y Y v.a.s discretas con funciones de densidad fX (x ) y fY (y ) Se dice que X y Y son independientes si la densidad conjunta es igual al producto de las marginales: f (x , y ) = P (X = x , Y = y ) = P (X = x )P (Y = y ) = fX (x )fY (y ) para todos los puntos de masa x y y . (9)

67 / 125

Ejemplo. Independencia
v.a.s discretas

Ejemplo Supongamos que los cambios diarios del precio de una se modelan como v.a.s independientes e accion de probabilidad identicamente distribuidas con funcion dada por: 0.05 , i = 3 0.1 , i = 2 0.2 , i = 1 0.3 , i = 0 P (Xj = i ) = 0 .2 , i = 1 0 . 1 , i =2 0.05 , i = 3 donde Xj =cambio en el precio del d a j 1 al d a j .
68 / 125

Ejemplo. Independencia
v.a.s discretas

Ejemplo se Calcular la probabilidad de que el precio de la accion incremente sucesivamente por 1,2 y 0 puntos en los siguientes tres d as.

69 / 125

Solucion
P (X1 = 1, X2 = 2, X3 = 0)

Supongamos que X0 denota el precio de hoy, entonces: P (X1 = 1, X2 = 2, X3 = 0) = P (X1 = 1)P (X2 = 2)P (X3 = 0) = (0.2)(0.1)(0.3) = 0.006

70 / 125

condicional de Y dado que X = x Distribucion

Denicion Recordatorio. Si A, B son eventos tales que P (B ) > 0, entonces la probabilidad condicional de A dado B, se dene y denota como P (A B ) (10) P (A | B ) = P (B )

71 / 125

Denicion Si X , Y son v.a.s con densidad conjunta f (x , y ) y Y tiene como densidad a f (y ) > 0, entonces la densidad condicional de X dada Y = y, se dene y denota como fX |Y (x | y ) = f (x , y ) f (y ) (11)

podemos ver que si X , Y OBSERVACION: De esta denicion son v.a.s independientes, entonces fX |Y (x | y ) = f (x ).

72 / 125

Ley de la probabilidad total

Proposicion Ley de la probabilidad total para v.a.s continuas

fX (x ) =

fX |Y (x | y )fY (y )dy

(12)

73 / 125

Ley de la probabilidad total

Proposicion Ley de la probabilidad total para v.a.s discretas fX (x ) = =


y y

fX |Y (x | y )fY (y ) (13) P (X = x | Y = y )P (Y = y )

74 / 125

Proposicion Ley de Bayes para v.a.s Continuas fY |X (y | x ) = fX |Y (x | y )fY (y ) fX |Y =u (x | u )fY (u )du (14)

75 / 125

Proposicion Ley de Bayes para v.a.s discretas f Y |X ( y | x ) = =


fX |Y (x |y )fY (y ) fX |Y (x |y )fY (y )

(15)
P (X =x |Y =y )P (Y =y ) P (X =x |Y =y )P (Y =y )
y

76 / 125

Las proposiciones anteriores son resultados muy importantes, puesto que en ellos se basa mucha teor a de estad stica y de procesos estocasticos. Se pueden resolver gran cantidas de problemas donde tenemos jerarqu as de variables. O sea, donde conocemos la distribucion tiene como de una v.a., y tenemos otra v.a. cuya distribucion parametro a la primera.

77 / 125

Esperanza Condicional

Denicion La esperanza condicional de la v.a. X discreta dado que la v.a. discreta Y = y se dene como: E (X | Y = y ) = los x = los x xP (X = x | Y = y ). xfX |Y (x | y ) (16)

78 / 125

Denicion de densidad Si X , Y son una v.a.s continuas y tiene funcion condicional f , entonces la esperanza condicional de la v.a. X dada por dado que la v.a. Y = y esta

E (X | Y = y ) =

xfX |Y (x | y )dx

(17)

79 / 125

Denicion Finalmente, en ambos casos continuo y discreto: Var (X | Y = y ) = E (X 2 | Y = y ) [E (X | Y = y )]2 (18)

80 / 125

EJEMPLO

de probabilidad conjunta Sean X y Y v.a. discretas con funcion f (x , y ) = Calcular E (Y | X = 1).


(x +1)(y +2) 54

; x , y = 0, 1, 2 ; c .o.c .

81 / 125

Sol: E (Y | X = 1) = 0P (Y = 0 | X = 1) + 1P (Y = 1 | X = 1) + 2P (Y = 2 | X = 1)
=1,Y =1) =1,Y =2) = 1 P (X + 2 P (X P (X =1) P (X =1)

= = =

f (1,1) f (1,0)+f (1,1)+f (1,2)

(1,2) + 2 f (1,0)+f f (1,1)+f (1,2)


(1+1)(2+2) 54 (1+1)(1+2) (1+1)(2+2) + + 54 54

(1+1)(1+2) 54 (1+1)(1+2) (1+1)(2+2) (1+1)(0+2) + + 54 54 54

+ 2 (1+1)(0+2)
54

11 9

82 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

83 / 125

Denicion
g (X , Y ) que dePodemos calcular la esperanza de una funcion pende de X y Y conociendo su densidad conjunta. Esperanza de dos v.a.s. de una funcion Caso I) Continuo

E (g (X , Y )) =

g (x , y )f (x , y )dxdy

(19)

Caso II) Discreto E (g (X , Y )) =


todaslasx todaslasy

g (x , y )f (x , y )

(20)

84 / 125

EJEMPLO

de densidad conjunta Sean X y Y v.a. discretas con funcion f (x , y ) =


X Calcular E ( Y ). 2x +1y 9

si x , y = 1, 2 en c .o.c .

85 / 125

Sol:
X E(Y ) = 2 2 x y f (x , y )

x =1 y =1

1 1 f (1, 1)
1+11

2 2 +1 2 f (1, 2) + 1 f (2, 1) + 2 f (2, 2)


1+12

= (2 =

2 )+ 1 2(

) + 2( 2

2+11

) + (2

2+12

25 18

86 / 125

Proposicion

Si X , Y son v.a.s independientes, entonces E (f (X )g (Y )) = E (f (X ))E (g (Y )). Para cualquier numero de v.a.s se cumple esta propiedad. La esperanza del producto de funciones de v.a.s independientes es igual al producto de las esperanzas de las funciones.

87 / 125

entre dos v.a.s? Como medir la relacion

En el caso bivariado teniendo como vector aleatorio a (X , Y ), podemos calcular una medida de dependencia lineal llamada relacionada con otra medida de el coeciente de correlacion, llamada covarianza. dispersion

88 / 125

Denicion
Para un vector aleatorio (X , Y ), su covarianza se dene y denota como: Cov (X , Y ) = E ((X E (X ))(Y E (Y ))) de manera equivalente: Cov (X , Y ) = E (XY ) E (X )E (Y ) se dene y denota como: y su coeciente de correlacion X ,Y = Cov (X , Y ) Var (X )Var (Y ) (23) (22) (21)

89 / 125

quiere decir la Covarianza? Que

La covarianza positiva indica que hay cierta dependencia entre X y Y en el sentido de que si una crece, la otra igual. La covarianza negativa indica que hay cierta dependencia inversa entre X y Y en el sentido de que si una crece, la otra decrece. Si la entre su comportamiento. covarianza es cero, no hay relacion

90 / 125

quiere decir el Coeciente de correlacion? Que

mide entre -1 y 1 la dependencia El coeciente de correlacion lineal entre X y Y . Por ejemplo: Si X y Y son dos v.a.s tales que Y = 2X + 1, entonces: X ,Y = 1

91 / 125

Propiedades

importantes de la covarianza y el coeciente de Entre las mas se encuentran las siguientes: correlacion Cov (X , X ) = Var (X ). Cov (X , Y ) = Cov (Y , X ). Cov (X , c ) = 0, donde c es una constante. Cov (X + Y , Z ) = Cov (X , Z ) + Cov (Y , Z ) Cov (aX , bY ) = abCov (X , Y )

92 / 125

Propiedades

En general, la covarianza es un operador bilineal:


n m n m

Cov (
i =1

ci Xi ,
j =1

dj Yj ) =
i =1 j =1

ci dj Cov (Xi , Yj ).

Si X , Y son v.a.s independientes, entonces Cov (X , Y ) = 0. Normal, entonces Si X , Y son v.a.s con distribucion si X , Y son independientes. Cov (X , Y ) = 0 si y solo

93 / 125

Propiedades
toma los valores El coeciente de correlacion 1 X ,Y 1 donde
X ,Y = 1 cuando hay total dependencia lineal de las dos variables en el sentido de que Y = mX + b para alguna m > 0 y b cualquier numero real. X ,Y = 1 cuando hay total dependencia lineal inversa de las dos variables en el sentido de que Y = mX + b para alguna m < 0 y b cualquier numero real. X ,Y = 0 cuando hay total independencia lineal de las dos variables. Cuidado: Esto no implica que X y Y tengan independencia estocastica.

94 / 125

utiles Una de las implicaciones mas de las propiedades anterio res tiene que ver con la varianza de una suma de v.a.s: Var (aX + bY ) = a2 Var (X ) + b2 Var (Y ) + 2abCov (X , Y ) (24)

95 / 125

En general:
n n n1 n

Var (
i =1

ai Xi ) =
i =1

ai2 Var (Xi ) + 2


i =1 j >i

ai aj Cov (Xi , Xj ) (25)

96 / 125

EJEMPLO

Calcular Var (3X + 2Y 8Z ), si se conoce que 1. Var (X ) = 2, 2. Var (Y ) = 3, 3. Var (Z ) = 5 y 4. Cov (X , Y ) = Cov (Y , Z ) = Cov (X , Z ) = 1/2.

97 / 125

Sol: Var (3X + 2Y 8Z ) = = 32 Var (X ) + 22 Var (Y ) + (8)2 Var (Z ) +2[(3)(2)Cov (X , Y ) + (3)(8)Cov (X , Z ) +(2)(8)Cov (Y , Z )] = 9Var (X ) + 4Var (Y ) + 64Var (Z ) +2[6Cov (X , Y ) 24Cov (X , Z ) 16Cov (Y , Z )] = 9(2) + 4(3) + 64(5) + 2[6(1/2) 24(1/2) 16(1/2)] = 316

98 / 125

EJEMPLO

2 = Sean X y Y v.a. independientes con X = 1, Y = 1, X 2 y Y = 2. Calcular E [(X + 1)2 (Y 1)2 ].

1 2

99 / 125

Sol: Desarrollamos los binomios de Newton, aplicamos independencia y linealidad de la esperanza, E [(X + 1)2 (Y 1)2 ] = E [(X + 1)2 ]E [(Y 1)2 ] = (E (X 2 ) + 2E (X ) + 1)(E (Y 2 ) 2E (Y ) + 1)
2 + 2 + 2 + 1)( 2 + 2 2 + 1) = (X X Y X Y Y

9 26

= 27

100 / 125

EJEMPLO

0.75, y con Sean X y Y dos v.a. con coeciente de correlacion E (X ) = Var (X ) = 1, y E (Y ) = Var (Y ) = 2. Encontrar Var (X + 2Y ).

101 / 125

Sol: Var (X + 2Y ) = Var (X ) + Var (2Y ) + 2Cov (X , 2Y ) = Var (X ) + 4Var (Y ) + 4Cov (X , Y ) = Var (X ) + 4Var (Y ) + 4X ,Y = 1 + 4(2) + 4(0.75) = 9+3 2 (1)(2) Var (X )Var (Y )

102 / 125

generadora de momentos conjunta Funcion

generadora de momentos conAhora, se presenta la funcion junta (f.g.m.c.). As como en una variable, la f.g.m.c. sirve para calcular momentos, ahora de productos de v.a.s.

103 / 125

Denicion

generadora de momentos conSi X y Y son v.a.s, su funcion junta se dene como MX ,Y (t1 , t2 ) = E (et1 X +t2 Y ) (26)

104 / 125

puede ser extendida a cualquier numero Esta denicion de v.a.s,


n

MX1 ,...Xn (t1 , . . . tn ) = E (ei =1 Observacion:

ti Xi

).

MXj (t ) = MX1 ,...,Xj 1 ,Xj ,Xj +1,...,Xn (0, . . . , 0, t , 0, . . . , 0) = E (etXj ) O sea, coincide la f.g.m. de cualquier Xj con la f.g.m.c. evaluando en cero las otra variables.

105 / 125

Proposicion

E (X n Y m ) =

n +m MX ,Y (t1 , t2 ) |t1 =t2 =0 n t1 m t2

(27)

106 / 125

EJEMPLO

Suponer que X y Y tienen f.g.m.c.


3 t2 3 10 t1 M (t1 , t2 ) = ( 1 4e + 8e + 8)

Encontrar Cov (X , Y ).

107 / 125

Sol: Sabemos que Cov (X , Y ) = E (XY ) E (X )E (Y ), por tanto calculamos cada elemento. E (XY ) = = =
2 t1 t2 MX ,Y (t1 , t2 ) |t1 =t2 =0 2 1 t1 t1 t2 ( 4 e 135 16 3 10 t2 +3 |t1 =t2 =0 8e + 8)

108 / 125

E (X ) = = =

t1 MX ,Y (t1 , t2 ) |t1 =t2 =0 1 t1 t1 ( 4 e 5 2 3 10 t2 +3 |t1 =t2 =0 8e + 8)

109 / 125

E (Y ) = = =

t2 MX ,Y (t1 , t2 ) |t1 =t2 =0 1 t1 t2 ( 4 e 15 4 3 t2 3 10 +8 e +8 ) |t1 =t2 =0

110 / 125

Por lo tanto: Cov (X , Y ) =


135 16 15 15 (5 2 )( 4 ) = 16 .

111 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

112 / 125

Denicion

Muestra aleatoria Diremos que X1 , ..., Xn es una muestra alea toria (m.a.) para referirnos a que X1 , ..., Xn son una sucesion de v.a.s independientes e identicamente distribuidas. La n se el tamano de la muestra. llamara Una muestra aleatoria es una secuencia de v.a.s que cumplen ciertas condiciones. El uso de la m.a. es de gran importancia en la estad stica y en este curso en la simulacion.

113 / 125

Las muestras aleatorias en la vida real, se construyen a partir de datos capturados periodicamente. Con metodos estad sticos se determina con cierta conanza si nuestra m.a. proviene de alguna distribucion. importante, es que en las m.a.s las Una observacion esperanzas y varianzas son iguales. En la LGN, veremos que con probabilidad uno, el tiende a ser la promedio de una m.a. de gran tamano esperanza comun.

114 / 125

Denicion

Sea X1 , ..., Xn una m.a., se dene la media muestral (promedio) como Xn =


1 n n

Xi
i =1

115 / 125

Ya conocemos que la esperanza es lineal:


n n

E(
i =1

Xi ) =
i =1

E (Xi )

As , si X1 , ..., Xn es una m.a. con esperanza comun E (Xi ) = , entonces:


n n n

E(
i =1

Xi ) =
i =1

E (Xi ) =
i =1

= n

116 / 125

anterior, la varianza no es liY como hemos visto en la seccion neal. Sin embargo si X1 , ..., Xn es una m.a. entonces Cov (Xi , Xj ) = 0 cuando i = j , por lo tanto:
n n n

Var (
i =1

Xi ) =
i =1

Var (Xi ) =
i =1

2 = n 2 ,

donde Var (Xi ) = 2 para cualquier i = 1, ..., n.

117 / 125

Proposicion

Suponiendo que E (Xi ) = y Var (Xi ) = 2 para cualquier i , la nueva v.a. X n tiene las siguientes propiedades: E (X n ) = Var (X n ) =
2 n

118 / 125

Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a

119 / 125

Bibliograf a

Mendenhall, William. Estad stica Matematica con Aplicacio 2002. nes, THOMSON PARANINFO, 6a edicion, Mood, Alexander, et al. Introduction to the theory of statistics , McGraw-Hill, 3rd edition, 1974. Luis A. Curso intermedio de Probabilidad ,Facultad Rincon, de Ciencias, UNAM. Las Prensas de Ciencias, 2008. Ross, Sheldon. Introduction to Probability Models, 9th edition, Elsevier, 2007. Ross, Sheldon. A rst course in probability, 5th edition, Prentice Hall, 1997.

120 / 125

Bibliograf a

Norris J.R. Markov Chains , Cambridge University Press, 1998. Rincon, Luis A. Introduccion a los Pro cesos Estocasticos (Notas preliminares) , http://www.matematicas.unam.mx/lars, 2010.

121 / 125

You might also like