Professional Documents
Culture Documents
1 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
2 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
3 / 125
Introduccion
La Probabilidad y la Estad stica forman una pareja muy produc de las ciencias. tiva en la aplicacion Se puede aprender probabilidad sin aprender estad stica, sin embargo, para aprender estad stica se debe saber probabilidad.
4 / 125
Introduccion.
no estudiamos directamente esEn otras palabras por que tad stica? Porque la probabilidad debe ser entendida para el estad stico, como el serrucho y el martillo para el carpintero.
5 / 125
Introduccion.
es la probabilidad? Que La Probabilidad es una area de las matematicas que estudia las posibilidades de los eventos inciertos. Utiliza como herramientas principales a las variables aleatorias, con las cuales se modelan posibles resultados numericos.
6 / 125
Objetivo:
Al terminar el modulo, se conocera: El uso y manejo de los vectores aleatorios. conocer la distribucion de una funcion que Se podra dependa de vectores aleatorios. un conocimiento practico Habra de los teoremas l mite y sus multiples aplicaciones. una introduccion al estudio de los Y nalmente se hara procesos estocasticos. (Colecciones de variables aleatorias con cierta dependencia entre ellas).
7 / 125
Ejemplo Si estamos observando el precio del dolar diariamente, aparente. este cambia sin ningun patron A este comportamiento azaroso le llamaremos aleatorio.
8 / 125
Aleatorio?
Alea=Dado. Aleatorio=Del juego de dados. En otras palabras... aleatorio = al azar, que no sigue un patron, secuencia u orden determinado.
9 / 125
Variable aleatoria vs proceso estocastico. El precio del dolar en cualquier d a futuro es una variable aleatoria. forman El conjunto de los precios del dolar de algun ano un proceso estocastico discreto.
10 / 125
As , cuando se necesita tener conocimiento del futuro de un evento, la probabilidad y los procesos estocasticos nos ayudan a medir las posibilidades de los distintos escenarios que pueden ocurrir. intentamos conocer el futuro pero En la Estad stica tambien pasada. Ademas se puede medir haciendo uso de informacion el grado de conanza de una aseveracion.
11 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
12 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
13 / 125
Vectores aleatorios.
A partir de un experimento, es posible preguntarnos por varios aspectos de los resultados. Ejemplo
Supongamos que nuestro experimento es lanzar dos dardos a una tabla circular (y siempre damos en la tabla) con un objetivo en el centro. En cuales resultados podr amos estar interesados?
14 / 125
Vectores aleatorios.
15 / 125
16 / 125
importante acerca de las v.a.s que heUna observacion mos denido es que son continuas. Ya que los posible valores que las v.a.s X , Y , Z , W , T y S pueden tomar son los reales positivos.
17 / 125
es posible denir v.a.s A partir de nuestro ejemplo, tambien discretas. Se les llama asi porque es posible numerar al numero de valores que la v.a puede tomar.
18 / 125
19 / 125
20 / 125
21 / 125
22 / 125
En este caso, la probabilidad conjunta se puede escribir como: P (X < 50, T < 10) Pensando en un plano X , T , geometricamente el evento (X < 50, T < 10) es equivalente al evento ((X , T ) [0, 50) [0, 10)).
23 / 125
Por tanto, es imposible estudiar este tipo de eventos utilizando v.a.s univariadas unicamente. Es necesario hablar de vectores aleatorios, o sea, arreglos de v.a.s.
24 / 125
Y al igual que en el caso univariado, podremos preguntarnos por v.a.s, de distribucion conjunta entre dos o mas la funcion v.a.s, de densidad conjunta entre dos o mas la funcion generadora de momentos conjunta entre dos la funcion v.a.s, o mas de las v.a.s. el valor esperado de una funcion
25 / 125
Independencia Estocastica
Adelanto
Notemos que las v.a.s discretas U y V denidas anteriormente, toman valores complementarios entre si. Es decir, al saber el valor de una ya sabemos el valor de la otra v.a., en este caso U y V son dependientes. En el caso de las v.a.s Y y Z , observamos que los valores que toman son independientes. de independencia estocasti Bajo este contexto, se hablara ca.
26 / 125
Cuando estudiemos a un conjunto de v.a.s independientes en mas faciles tre si, se haran los calculos, ya que al igual que, cuando hablamos de eventos independientes, la probabilidad igual al producto de la probabilidades univaconjunta sera riadas. P (Y > 10, Z < 20) = P (Y > 10)P (Z < 20)
27 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
28 / 125
Si tenemos un conjuntos de v.a.s, por ejemplo {X1 , X2 , ..., Xn }, de distribucion que nos proporpodemos estudiar una funcion de estas v.a.s vistas al mismo tiempo. cione informacion De aqu en adelante vamos a llamar vector aleatorio a un vector formado por v.a.s.
29 / 125
Denicion de distribucion conjunta del vector aleatorio La funcion (X1 , ..., Xn ) se dene y denota como: F (x1 , ..., xn ) = P (X1 x1 , ..., Xn xn ). (1)
30 / 125
31 / 125
La probabilidad de que un vector aleatorio continuo se encuen A del plano, es igual a calcular la tre en una determinada region A: de densidad sobre la region integral doble de la funcion P ((X , Y ) A) =
A
f (x , y )dxdy
(3)
32 / 125
f (x , y )
(4)
33 / 125
Denicion formado de v.a.s continuas y f (x , y ) es una Si (X , Y ) esta positiva que cumple que: funcion
y x
F (x , y ) =
f (u , v )dudv ,
34 / 125
(5)
F (x , y ) =
i = j =
f (i , j ).
35 / 125
de densidad tambien es NOTA 1: En el caso discreto, la funcion de probabilidad. conocida como funcion NOTA 2: Se conoce como soporte del vector aleatorio a la donde f > 0. En el caso discreto, esta region region son puntos conocidos como puntos de masa. NOTA 3: Si el soporte de un vector bivariado (X , Y ) es distinto a todo el plano, entonces F (x , y ) y la P ((X , Y ) A) igual a la integral doble sobre las regiones coseran rrespondientes restringidas a la area del soporte.
36 / 125
37 / 125
Figura: Ejemplos de f a la izquierda una univariada y a la derecha una bivariada. Ambas normales.
38 / 125
f (x , y ) 0
f (x , y )dxdy
=1
0 f (x , y ) 1 f (x , y ) = 1
39 / 125
Y Calcular a) P (X + Y = 1) b) P (X = 0) c) P (X < Y )
1 0 -1
40 / 125
Solucion
Como se lee la tabla?
de probabilidad conjunta. La tabla representa la funcion -1 1/18 1/9 1/6 X 0 1/9 0 1/9 1 1/6 1/6 1/9
1 0 -1
41 / 125
Solucion
Como se ven gracados los puntos de masa?
42 / 125
Solucion
Para calcular las 3 probabilidades que nos piden procedemos segun la igualdad (4). Es decir: Identicamos los puntos de masa que cumplan la respectiva y relacion de probabilidad evaluada en Sumamos la funcion estos puntos.
43 / 125
Solucion
b) P (X = 0) = f (0, 1) + f (0, 1) =
1 9
1 9
2 9 1 9
1 18
1 9
5 18
44 / 125
Ejemplo Supongamos que f (x , y ) = K (x 2 + y 2 ) de densidad para la distribucion conjunta de es la funcion las v.a.s continuas X y Y denidas sobre el cuadrado formado al unir los puntos (0, 0), (1, 0), (1, 1) y (0, 1). a) Encontrar cuanto debe valer K . b) Calcular P (X + Y 1).
45 / 125
Solucion
a)Encontrar el valor de K
Lo primero que debemos notar es que el soporte de f es uni camente el cuadrado unitario, por lo que las integrales dobles deben estar restringidas al area de este cuadrado.
Figura: Soporte de f
46 / 125
Solucion
a) Encontrar el valor de K
=1
Por lo que:
f (x , y )dxdy
1 1 2 0 0 K (x 1 1 2 0 0 (x
+ y 2 )dxdy + y 2 )dxdy
= K = K2 3
3 2 2 Por lo tanto K = 2 , y f (x , y ) = 3 2 (x + y ).
47 / 125
Solucion
b) Calcular P (X + Y 1)
del cuadrado del soLa siguiente gura muestra la interseccion que nos piden (Y 1 X ). porte con la region
48 / 125
Solucion
b)Calcular P (X + Y 1)
de Ahora procedemos a realizar la doble integral de la funcion densidad en la region que acabamos de denir. P (X + Y 1) = = o bien, P (X + Y 1) = =
1 1 3 2 0 1x 2 (x 3 4 1 1 3 2 0 1y 2 (x 3 4
+ y 2 )dxdy
+ y 2 )dydx
49 / 125
formados Como hemos visto los vectores aleatorios estan por v.a.s univariadas. mostraremos que es posible calcular: A continuacion las distribuciones y densidades de cada v.a que conforman al vector aleatorio.
50 / 125
Denicion de distribucion Si tenemos un vector aleatorio con funcion marginal a la funcion F (x , y ), se conoce como distribucion de X o de Y y de distribucion FX (x ) = P (X x ) = l m F (x , y ),
y
FY (y ) = P (Y y ) = l m F (x , y ).
x
51 / 125
Debemos integrar sobre la v.a. que no queremos. Se conoce a fX (x ) y a fY (y ) como las densidades marginales o simplemente las marginales de X y Y respectivamente.
52 / 125
53 / 125
Ejemplo Caso discreto Tomando los datos del ejemplo discreto anterior, calcular las marginales de X y Y .
54 / 125
Solucion
Densidad marginal de X
La densidad conjunta fue dada segun la siguiente tabla: -1 1/18 1/9 1/6 X 0 1/9 0 1/9 1 1/6 1/6 1/9
1 0 -1
Para encontrar la marginal de X toma los valores -1, 0 o 1. Notamos que X solo
55 / 125
Solucion
Densidad marginal de X
Calculamos para cada valor fX (i ): fX (1) = f (1, 1) + f (1, 0) + f (1, 1) = fX (0) = f (0, 1) + f (0, 0) + f (0, 1) = fX (1) = f (1, 1) + f (1, 0) + f (1, 1) =
1 9 1 9 1 6
+
1 9 1 6
1 9
+
2 9 4 9
1 18
1 3
+0+ +
1 6
= =
56 / 125
Solucion
Densidad marginal de X
Por lo tanto:
1 3 2 9 4 9
, x = 1 , x =0 , x =1
fX ( x ) =
57 / 125
Solucion
Densidad marginal de Y
Para encontrar la marginal de Y toma los valores -1, 0 o 1. Notamos que Y solo Calculamos para cada valor fY (i ): fY (1) = f (1, 1) + f (0, 1) + f (1, 1) = fY (0) = f (1, 0) + f (0, 0) + f (1, 0) = fY (1) = f (1, 1) + f (0, 1) + f (1, 1) =
1 6
1 9
1 9
7 18
1 5 1 9 + 0 + 6 = 18 1 1 1 1 18 + 9 + 6 = 3
58 / 125
Solucion
Densidad marginal de Y
Por lo tanto:
7 18 5 18 1 3
, y = 1 , y =0 , y =1
fY (y ) =
59 / 125
Proposicion de distribucion conjunta (Fdc) F (x , y ), Si X y Y tienen funcion y F es dos veces diferenciable, entonces: 2 F (x , y ) = f (x , y ) x y (6)
60 / 125
61 / 125
Solucion
f(1 , 1) 2 2
f (x , y ) = =
2 x y F (x , y ) 2 3 x y (1/5)(3x y
+ 2x 2 y 2 )
62 / 125
Gracas de F y f.
63 / 125
Independencia Estocastica.
Entre variables aleatorias.
Denicion Decimos que las v.a.s X , Y son independientes, si para cualesquiera par de conjuntos de numeros AyB P (X A, Y B ) = P (X A)P (Y B ). conjunta, si para todo par de En terminos de la distribucion numeros a, b se cumple F (a, b) = FX (a)FY (b). (7)
64 / 125
de la condicion de independencia para n v.a.s es La extension parecida. si X1 , ..., Xn son v.a.s independientes si y solo
n
F (x1 , ..., xn ) =
i =1
FXi (xi ).
65 / 125
de independencia. Condicion
v.a.s continuas
Proposicion I) Sean X y Y v.a.s continuas con funciones de densidad fX (x ) y fY (y ) con soportes a x b y c y d respectivamente, donde los extremos pueden ser innitos. Se dice que X y Y son independientes, si la densidad conjunta es igual al producto de las marginales: f (x , y ) = fX (x )fY (y ) la Para el caso de n v.a.s independientes, tambien igual al producto de las densidad conjunta sera marginales. (8)
66 / 125
de independencia. Condicion
v.a.s discretas
Proposicion II) Sean X y Y v.a.s discretas con funciones de densidad fX (x ) y fY (y ) Se dice que X y Y son independientes si la densidad conjunta es igual al producto de las marginales: f (x , y ) = P (X = x , Y = y ) = P (X = x )P (Y = y ) = fX (x )fY (y ) para todos los puntos de masa x y y . (9)
67 / 125
Ejemplo. Independencia
v.a.s discretas
Ejemplo Supongamos que los cambios diarios del precio de una se modelan como v.a.s independientes e accion de probabilidad identicamente distribuidas con funcion dada por: 0.05 , i = 3 0.1 , i = 2 0.2 , i = 1 0.3 , i = 0 P (Xj = i ) = 0 .2 , i = 1 0 . 1 , i =2 0.05 , i = 3 donde Xj =cambio en el precio del d a j 1 al d a j .
68 / 125
Ejemplo. Independencia
v.a.s discretas
Ejemplo se Calcular la probabilidad de que el precio de la accion incremente sucesivamente por 1,2 y 0 puntos en los siguientes tres d as.
69 / 125
Solucion
P (X1 = 1, X2 = 2, X3 = 0)
Supongamos que X0 denota el precio de hoy, entonces: P (X1 = 1, X2 = 2, X3 = 0) = P (X1 = 1)P (X2 = 2)P (X3 = 0) = (0.2)(0.1)(0.3) = 0.006
70 / 125
Denicion Recordatorio. Si A, B son eventos tales que P (B ) > 0, entonces la probabilidad condicional de A dado B, se dene y denota como P (A B ) (10) P (A | B ) = P (B )
71 / 125
Denicion Si X , Y son v.a.s con densidad conjunta f (x , y ) y Y tiene como densidad a f (y ) > 0, entonces la densidad condicional de X dada Y = y, se dene y denota como fX |Y (x | y ) = f (x , y ) f (y ) (11)
podemos ver que si X , Y OBSERVACION: De esta denicion son v.a.s independientes, entonces fX |Y (x | y ) = f (x ).
72 / 125
fX (x ) =
fX |Y (x | y )fY (y )dy
(12)
73 / 125
fX |Y (x | y )fY (y ) (13) P (X = x | Y = y )P (Y = y )
74 / 125
Proposicion Ley de Bayes para v.a.s Continuas fY |X (y | x ) = fX |Y (x | y )fY (y ) fX |Y =u (x | u )fY (u )du (14)
75 / 125
(15)
P (X =x |Y =y )P (Y =y ) P (X =x |Y =y )P (Y =y )
y
76 / 125
Las proposiciones anteriores son resultados muy importantes, puesto que en ellos se basa mucha teor a de estad stica y de procesos estocasticos. Se pueden resolver gran cantidas de problemas donde tenemos jerarqu as de variables. O sea, donde conocemos la distribucion tiene como de una v.a., y tenemos otra v.a. cuya distribucion parametro a la primera.
77 / 125
Esperanza Condicional
Denicion La esperanza condicional de la v.a. X discreta dado que la v.a. discreta Y = y se dene como: E (X | Y = y ) = los x = los x xP (X = x | Y = y ). xfX |Y (x | y ) (16)
78 / 125
Denicion de densidad Si X , Y son una v.a.s continuas y tiene funcion condicional f , entonces la esperanza condicional de la v.a. X dada por dado que la v.a. Y = y esta
E (X | Y = y ) =
xfX |Y (x | y )dx
(17)
79 / 125
80 / 125
EJEMPLO
; x , y = 0, 1, 2 ; c .o.c .
81 / 125
Sol: E (Y | X = 1) = 0P (Y = 0 | X = 1) + 1P (Y = 1 | X = 1) + 2P (Y = 2 | X = 1)
=1,Y =1) =1,Y =2) = 1 P (X + 2 P (X P (X =1) P (X =1)
= = =
+ 2 (1+1)(0+2)
54
11 9
82 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
83 / 125
Denicion
g (X , Y ) que dePodemos calcular la esperanza de una funcion pende de X y Y conociendo su densidad conjunta. Esperanza de dos v.a.s. de una funcion Caso I) Continuo
E (g (X , Y )) =
g (x , y )f (x , y )dxdy
(19)
g (x , y )f (x , y )
(20)
84 / 125
EJEMPLO
si x , y = 1, 2 en c .o.c .
85 / 125
Sol:
X E(Y ) = 2 2 x y f (x , y )
x =1 y =1
1 1 f (1, 1)
1+11
= (2 =
2 )+ 1 2(
) + 2( 2
2+11
) + (2
2+12
25 18
86 / 125
Proposicion
Si X , Y son v.a.s independientes, entonces E (f (X )g (Y )) = E (f (X ))E (g (Y )). Para cualquier numero de v.a.s se cumple esta propiedad. La esperanza del producto de funciones de v.a.s independientes es igual al producto de las esperanzas de las funciones.
87 / 125
En el caso bivariado teniendo como vector aleatorio a (X , Y ), podemos calcular una medida de dependencia lineal llamada relacionada con otra medida de el coeciente de correlacion, llamada covarianza. dispersion
88 / 125
Denicion
Para un vector aleatorio (X , Y ), su covarianza se dene y denota como: Cov (X , Y ) = E ((X E (X ))(Y E (Y ))) de manera equivalente: Cov (X , Y ) = E (XY ) E (X )E (Y ) se dene y denota como: y su coeciente de correlacion X ,Y = Cov (X , Y ) Var (X )Var (Y ) (23) (22) (21)
89 / 125
La covarianza positiva indica que hay cierta dependencia entre X y Y en el sentido de que si una crece, la otra igual. La covarianza negativa indica que hay cierta dependencia inversa entre X y Y en el sentido de que si una crece, la otra decrece. Si la entre su comportamiento. covarianza es cero, no hay relacion
90 / 125
mide entre -1 y 1 la dependencia El coeciente de correlacion lineal entre X y Y . Por ejemplo: Si X y Y son dos v.a.s tales que Y = 2X + 1, entonces: X ,Y = 1
91 / 125
Propiedades
importantes de la covarianza y el coeciente de Entre las mas se encuentran las siguientes: correlacion Cov (X , X ) = Var (X ). Cov (X , Y ) = Cov (Y , X ). Cov (X , c ) = 0, donde c es una constante. Cov (X + Y , Z ) = Cov (X , Z ) + Cov (Y , Z ) Cov (aX , bY ) = abCov (X , Y )
92 / 125
Propiedades
Cov (
i =1
ci Xi ,
j =1
dj Yj ) =
i =1 j =1
ci dj Cov (Xi , Yj ).
Si X , Y son v.a.s independientes, entonces Cov (X , Y ) = 0. Normal, entonces Si X , Y son v.a.s con distribucion si X , Y son independientes. Cov (X , Y ) = 0 si y solo
93 / 125
Propiedades
toma los valores El coeciente de correlacion 1 X ,Y 1 donde
X ,Y = 1 cuando hay total dependencia lineal de las dos variables en el sentido de que Y = mX + b para alguna m > 0 y b cualquier numero real. X ,Y = 1 cuando hay total dependencia lineal inversa de las dos variables en el sentido de que Y = mX + b para alguna m < 0 y b cualquier numero real. X ,Y = 0 cuando hay total independencia lineal de las dos variables. Cuidado: Esto no implica que X y Y tengan independencia estocastica.
94 / 125
utiles Una de las implicaciones mas de las propiedades anterio res tiene que ver con la varianza de una suma de v.a.s: Var (aX + bY ) = a2 Var (X ) + b2 Var (Y ) + 2abCov (X , Y ) (24)
95 / 125
En general:
n n n1 n
Var (
i =1
ai Xi ) =
i =1
96 / 125
EJEMPLO
Calcular Var (3X + 2Y 8Z ), si se conoce que 1. Var (X ) = 2, 2. Var (Y ) = 3, 3. Var (Z ) = 5 y 4. Cov (X , Y ) = Cov (Y , Z ) = Cov (X , Z ) = 1/2.
97 / 125
Sol: Var (3X + 2Y 8Z ) = = 32 Var (X ) + 22 Var (Y ) + (8)2 Var (Z ) +2[(3)(2)Cov (X , Y ) + (3)(8)Cov (X , Z ) +(2)(8)Cov (Y , Z )] = 9Var (X ) + 4Var (Y ) + 64Var (Z ) +2[6Cov (X , Y ) 24Cov (X , Z ) 16Cov (Y , Z )] = 9(2) + 4(3) + 64(5) + 2[6(1/2) 24(1/2) 16(1/2)] = 316
98 / 125
EJEMPLO
1 2
99 / 125
Sol: Desarrollamos los binomios de Newton, aplicamos independencia y linealidad de la esperanza, E [(X + 1)2 (Y 1)2 ] = E [(X + 1)2 ]E [(Y 1)2 ] = (E (X 2 ) + 2E (X ) + 1)(E (Y 2 ) 2E (Y ) + 1)
2 + 2 + 2 + 1)( 2 + 2 2 + 1) = (X X Y X Y Y
9 26
= 27
100 / 125
EJEMPLO
0.75, y con Sean X y Y dos v.a. con coeciente de correlacion E (X ) = Var (X ) = 1, y E (Y ) = Var (Y ) = 2. Encontrar Var (X + 2Y ).
101 / 125
Sol: Var (X + 2Y ) = Var (X ) + Var (2Y ) + 2Cov (X , 2Y ) = Var (X ) + 4Var (Y ) + 4Cov (X , Y ) = Var (X ) + 4Var (Y ) + 4X ,Y = 1 + 4(2) + 4(0.75) = 9+3 2 (1)(2) Var (X )Var (Y )
102 / 125
generadora de momentos conAhora, se presenta la funcion junta (f.g.m.c.). As como en una variable, la f.g.m.c. sirve para calcular momentos, ahora de productos de v.a.s.
103 / 125
Denicion
generadora de momentos conSi X y Y son v.a.s, su funcion junta se dene como MX ,Y (t1 , t2 ) = E (et1 X +t2 Y ) (26)
104 / 125
ti Xi
).
MXj (t ) = MX1 ,...,Xj 1 ,Xj ,Xj +1,...,Xn (0, . . . , 0, t , 0, . . . , 0) = E (etXj ) O sea, coincide la f.g.m. de cualquier Xj con la f.g.m.c. evaluando en cero las otra variables.
105 / 125
Proposicion
E (X n Y m ) =
(27)
106 / 125
EJEMPLO
Encontrar Cov (X , Y ).
107 / 125
Sol: Sabemos que Cov (X , Y ) = E (XY ) E (X )E (Y ), por tanto calculamos cada elemento. E (XY ) = = =
2 t1 t2 MX ,Y (t1 , t2 ) |t1 =t2 =0 2 1 t1 t1 t2 ( 4 e 135 16 3 10 t2 +3 |t1 =t2 =0 8e + 8)
108 / 125
E (X ) = = =
109 / 125
E (Y ) = = =
110 / 125
111 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
112 / 125
Denicion
Muestra aleatoria Diremos que X1 , ..., Xn es una muestra alea toria (m.a.) para referirnos a que X1 , ..., Xn son una sucesion de v.a.s independientes e identicamente distribuidas. La n se el tamano de la muestra. llamara Una muestra aleatoria es una secuencia de v.a.s que cumplen ciertas condiciones. El uso de la m.a. es de gran importancia en la estad stica y en este curso en la simulacion.
113 / 125
Las muestras aleatorias en la vida real, se construyen a partir de datos capturados periodicamente. Con metodos estad sticos se determina con cierta conanza si nuestra m.a. proviene de alguna distribucion. importante, es que en las m.a.s las Una observacion esperanzas y varianzas son iguales. En la LGN, veremos que con probabilidad uno, el tiende a ser la promedio de una m.a. de gran tamano esperanza comun.
114 / 125
Denicion
Xi
i =1
115 / 125
E(
i =1
Xi ) =
i =1
E (Xi )
E(
i =1
Xi ) =
i =1
E (Xi ) =
i =1
= n
116 / 125
anterior, la varianza no es liY como hemos visto en la seccion neal. Sin embargo si X1 , ..., Xn es una m.a. entonces Cov (Xi , Xj ) = 0 cuando i = j , por lo tanto:
n n n
Var (
i =1
Xi ) =
i =1
Var (Xi ) =
i =1
2 = n 2 ,
117 / 125
Proposicion
Suponiendo que E (Xi ) = y Var (Xi ) = 2 para cualquier i , la nueva v.a. X n tiene las siguientes propiedades: E (X n ) = Var (X n ) =
2 n
118 / 125
Indice
y Objetivo Introduccion Vectores aleatorios e Independencia Vectores aleatorios. conjunta y margiFunciones de densidad y de distribucion; nales. Valores esperados y momentos para distribuciones bivariadas. Sumas de variables aleatorias independientes. Bibliograf a
119 / 125
Bibliograf a
Mendenhall, William. Estad stica Matematica con Aplicacio 2002. nes, THOMSON PARANINFO, 6a edicion, Mood, Alexander, et al. Introduction to the theory of statistics , McGraw-Hill, 3rd edition, 1974. Luis A. Curso intermedio de Probabilidad ,Facultad Rincon, de Ciencias, UNAM. Las Prensas de Ciencias, 2008. Ross, Sheldon. Introduction to Probability Models, 9th edition, Elsevier, 2007. Ross, Sheldon. A rst course in probability, 5th edition, Prentice Hall, 1997.
120 / 125
Bibliograf a
Norris J.R. Markov Chains , Cambridge University Press, 1998. Rincon, Luis A. Introduccion a los Pro cesos Estocasticos (Notas preliminares) , http://www.matematicas.unam.mx/lars, 2010.
121 / 125