You are on page 1of 128

Analisis Multivariante.

Licenciatura en Ciencias y Tecnicas Estadsticas


Curso 2013/2014. Prof. Dr. Francisco de Ass Torres Ruiz

Tema 1: Distribuci
on normal multivariante

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 1 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Analisis Multivariante. Licenciatura en Ciencias y Tecnicas Estadsticas


Curso 2013/2014. Prof. Dr. Francisco de Ass Torres Ruiz

Tema 1: Distribuci
on normal multivariante
Indice
1. Distribuci
on normal multivariante. Aspectos probabilsticos
1.1. Definicion. Media y matriz de covarianzas . . . . . . . . . . .
1.2. Algunas propiedades. Tipificacion. Funcion caracterstica . . .
1.3. Caracterizacion de la ley normal . . . . . . . . . . . . . . . . .
1.4. Distribuciones marginales y condicionadas . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

2
2
4
6
8

P
agina www

P
agina inicial

2. Distribuci
on normal multivariante degenerada. Caracterizaciones
2.1. Funcion caracterstica y distribucion . . . . . . . . . . . . . . . . . . . . . .
2.2. Distribuciones condicionadas . . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Complementos
3.1. El problema de L`evy-Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . .

17
17
21
30
30

Contenido

JJ

II

P
agina 1 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

Hay varias formas de introducir la ley Normal Multivariante. Nosotros lo haremos a partir
de la funcion de densidad. Comenzaremos con el caso definido positivo.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

Hay varias formas de introducir la ley Normal Multivariante. Nosotros lo haremos a partir
de la funcion de densidad. Comenzaremos con el caso definido positivo.
Definici
on 1.1.1. Un vector aleatorio X = (X1 , . . . , Xp )0 que toma valores en Rp se distribuye seg
un una ley normal normal p-variante si su densidad es de la forma


1
1
0 1
f (x) =
(x ) (x ) , x = (x1 , . . . , xp ) Rp
(1)
p
1 exp
2
(2) 2 | | 2
donde pp es una matriz simetrica definida positiva y Rp .
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

Hay varias formas de introducir la ley Normal Multivariante. Nosotros lo haremos a partir
de la funcion de densidad. Comenzaremos con el caso definido positivo.
Definici
on 1.1.1. Un vector aleatorio X = (X1 , . . . , Xp )0 que toma valores en Rp se distribuye seg
un una ley normal normal p-variante si su densidad es de la forma


1
1
0 1
f (x) =
(x ) (x ) , x = (x1 , . . . , xp ) Rp
(1)
p
1 exp
2
(2) 2 | | 2
donde pp es una matriz simetrica definida positiva y Rp .
Ahora verificaremos que la funcion (1) es realmente una densidad. Necesitamos antes un
resultado tecnico.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

Hay varias formas de introducir la ley Normal Multivariante. Nosotros lo haremos a partir
de la funcion de densidad. Comenzaremos con el caso definido positivo.
Definici
on 1.1.1. Un vector aleatorio X = (X1 , . . . , Xp )0 que toma valores en Rp se distribuye seg
un una ley normal normal p-variante si su densidad es de la forma


1
1
0 1
f (x) =
(x ) (x ) , x = (x1 , . . . , xp ) Rp
(1)
p
1 exp
2
(2) 2 | | 2
donde pp es una matriz simetrica definida positiva y Rp .
Ahora verificaremos que la funcion (1) es realmente una densidad. Necesitamos antes un
resultado tecnico.
Lema 1.1.1. Sea X un vector aleatorio p-dimensional con funcion de densidad f definida
en Rp . Si Cpp es una matriz no singular entonces la densidad del vector aleatorio Y = CX
viene dada por h(y) = f (C1 y) | C |1 , y Rp .
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

1.
1.1.

Distribuci
on normal multivariante. Aspectos probabilsticos
Definici
on. Media y matriz de covarianzas

Hay varias formas de introducir la ley Normal Multivariante. Nosotros lo haremos a partir
de la funcion de densidad. Comenzaremos con el caso definido positivo.
Definici
on 1.1.1. Un vector aleatorio X = (X1 , . . . , Xp )0 que toma valores en Rp se distribuye seg
un una ley normal normal p-variante si su densidad es de la forma


1
1
0 1
f (x) =
(x ) (x ) , x = (x1 , . . . , xp ) Rp
(1)
p
1 exp
2
(2) 2 | | 2
donde pp es una matriz simetrica definida positiva y Rp .
Ahora verificaremos que la funcion (1) es realmente una densidad. Necesitamos antes un
resultado tecnico.
Lema 1.1.1. Sea X un vector aleatorio p-dimensional con funcion de densidad f definida
en Rp . Si Cpp es una matriz no singular entonces la densidad del vector aleatorio Y = CX
viene dada por h(y) = f (C1 y) | C |1 , y Rp .
Demostracion
Consideremos g : Rp Rp dada por y = g(x) = Cx. Como C es no singular, entonces
existe C1 y se verifica g 1 (y) = C1 y. Si llamamos c0ij a los elementos de C1 y notamos
p
X

1
1
g 1 (y) = g1 (y1 , . . . , yp ), . . . , gp1 (y1 , . . . , yp ) , entonces gi (y1 , . . . , yp ) =
c0ij yj de donde

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 2 de 32

Regresar

Pantalla completa

j=1

gi1 (y1 , . . . , yp )
= c0il , i, l = 1, . . . , p, por lo que J =| C1 |=| C |1 . Aplicando el teorema de
yl
cambio de variable, y teniendo en cuenta que la funcion g transforma Rp en Rp se concluye
el resultado 

Cerrar

Abandonar

Teorema 1.1.1. La funci


on (1) es una densidad. Ademas E[X] = y Cov[X] = .
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.1.1. La funci


on (1) es una densidad. Ademas E[X] = y Cov[X] = .
Demostracion
En primer lugar, f (x) 0, x Rp pues | |> 0. Por otro lado, como > 0 entonces
Cpp no singular tal que = CC0 . Sea el cambio de variable Y = C1 X. A partir del lema
anterior el jacobiano de la transformacion inversa es J =| C |. Ademas | |=| C |2 , por lo
1
que | C |=| | 2 . Con todo ello

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.1.1. La funci


on (1) es una densidad. Ademas E[X] = y Cov[X] = .
Demostracion
En primer lugar, f (x) 0, x Rp pues | |> 0. Por otro lado, como > 0 entonces
Cpp no singular tal que = CC0 . Sea el cambio de variable Y = C1 X. A partir del lema
anterior el jacobiano de la transformacion inversa es J =| C |. Ademas | |=| C |2 , por lo
1
que | C |=| | 2 . Con todo ello


1
0 1
(x ) (x ) dx
p
1 exp
2
Rp (2) 2 | | 2


Z
1
1
| |2
0
=
exp (Cy )0 C 1 C1 (Cy ) dy
p
p (2) 2 | | 12
2
R


Z
1
1
0
(y C1 )0 C0 C 1 C1 C(y C1 ) dy
=
p exp
p (2) 2
2


ZR
1
1
=
(y )0 (y ) dy
p exp
p (2) 2
2
R


Z
p
Y
1
1
exp (yi i )2 dyi = 1
donde = C1
=
2
2
i=1 R
Z

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.1.1. La funci


on (1) es una densidad. Ademas E[X] = y Cov[X] = .
Demostracion
En primer lugar, f (x) 0, x Rp pues | |> 0. Por otro lado, como > 0 entonces
Cpp no singular tal que = CC0 . Sea el cambio de variable Y = C1 X. A partir del lema
anterior el jacobiano de la transformacion inversa es J =| C |. Ademas | |=| C |2 , por lo
1
que | C |=| | 2 . Con todo ello


1
0 1
(x ) (x ) dx
p
1 exp
2
Rp (2) 2 | | 2


Z
1
1
| |2
0
=
exp (Cy )0 C 1 C1 (Cy ) dy
p
p (2) 2 | | 12
2
R


Z
1
1
0
(y C1 )0 C0 C 1 C1 C(y C1 ) dy
=
p exp
p (2) 2
2


ZR
1
1
=
(y )0 (y ) dy
p exp
p (2) 2
2
R


Z
p
Y
1
1
exp (yi i )2 dyi = 1
donde = C1
=
2
2
i=1 R
Z

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 32

A partir del calculo anterior se deduce que el vector Y tiene por densidad


1
1
(y )0 (y )
p exp
2
(2) 2

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.1.1. La funci


on (1) es una densidad. Ademas E[X] = y Cov[X] = .
Demostracion
En primer lugar, f (x) 0, x Rp pues | |> 0. Por otro lado, como > 0 entonces
Cpp no singular tal que = CC0 . Sea el cambio de variable Y = C1 X. A partir del lema
anterior el jacobiano de la transformacion inversa es J =| C |. Ademas | |=| C |2 , por lo
1
que | C |=| | 2 . Con todo ello


1
0 1
(x ) (x ) dx
p
1 exp
2
Rp (2) 2 | | 2


Z
1
1
| |2
0
=
exp (Cy )0 C 1 C1 (Cy ) dy
p
p (2) 2 | | 12
2
R


Z
1
1
0
(y C1 )0 C0 C 1 C1 C(y C1 ) dy
=
p exp
p (2) 2
2


ZR
1
1
=
(y )0 (y ) dy
p exp
p (2) 2
2
R


Z
p
Y
1
1
exp (yi i )2 dyi = 1
donde = C1
=
2
2
i=1 R
Z

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 3 de 32

A partir del calculo anterior se deduce que el vector Y tiene por densidad


1
1
(y )0 (y )
p exp
2
(2) 2
y de la u
ltima integral se deduce, integrando en Rp1 , que las marginales son normales
unidimensionales N1 [i ; 1] y ademas son independientes.

Regresar

Pantalla completa

Cerrar

Abandonar

Con ello, E[yi ] = i , i = 1, . . . , p, de donde E[Y] = y as


1
E[X] = E[CY] = C = CC = .

Ademas, Cov[yi , yj ] = ij , i, j = 1, . . . , p, por lo que Cov[Y] = Ip . As


Cov[X] = Cov[CY] = C Cov[Y]C0 = CC0 =

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Con ello, E[yi ] = i , i = 1, . . . , p, de donde E[Y] = y as


1
E[X] = E[CY] = C = CC = .

Ademas, Cov[yi , yj ] = ij , i, j = 1, . . . , p, por lo que Cov[Y] = Ip . As


Cov[X] = Cov[CY] = C Cov[Y]C0 = CC0 =

1.2.

Algunas propiedades. Tipificaci


on. Funci
on caracterstica

El primer resultado que mostramos presenta dos partes: en la primera se generaliza la propiedad de independencia de las componentes del vector normal (ya implcita en una version
mas simple en la verificacion de la densidad normal), mientras que en la segunda se observa
como se comporta esta distribucion frente a cambios lineales no singulares.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Con ello, E[yi ] = i , i = 1, . . . , p, de donde E[Y] = y as


1
E[X] = E[CY] = C = CC = .

Ademas, Cov[yi , yj ] = ij , i, j = 1, . . . , p, por lo que Cov[Y] = Ip . As


Cov[X] = Cov[CY] = C Cov[Y]C0 = CC0 =

1.2.

Algunas propiedades. Tipificaci


on. Funci
on caracterstica

El primer resultado que mostramos presenta dos partes: en la primera se generaliza la propiedad de independencia de las componentes del vector normal (ya implcita en una version
mas simple en la verificacion de la densidad normal), mientras que en la segunda se observa
como se comporta esta distribucion frente a cambios lineales no singulares.
Teorema 1.2.1. Sea X
Np [; ] con > 0.
1. Si = diag(12 , . . . , p2 ) entonces Xi
son independientes.

N1 [i ; i2 ], i = 1, . . . , p y ademas dichas variables

2. Sea Bpp no singular y sea Y = BX. Entonces Y

Np [B; BB0 ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 32

Demostracion
Regresar

Pantalla completa

Cerrar

Abandonar

Con ello, E[yi ] = i , i = 1, . . . , p, de donde E[Y] = y as


1
E[X] = E[CY] = C = CC = .

Ademas, Cov[yi , yj ] = ij , i, j = 1, . . . , p, por lo que Cov[Y] = Ip . As


Cov[X] = Cov[CY] = C Cov[Y]C0 = CC0 =

1.2.

Algunas propiedades. Tipificaci


on. Funci
on caracterstica

El primer resultado que mostramos presenta dos partes: en la primera se generaliza la propiedad de independencia de las componentes del vector normal (ya implcita en una version
mas simple en la verificacion de la densidad normal), mientras que en la segunda se observa
como se comporta esta distribucion frente a cambios lineales no singulares.
Teorema 1.2.1. Sea X
Np [; ] con > 0.
1. Si = diag(12 , . . . , p2 ) entonces Xi
son independientes.

N1 [i ; i2 ], i = 1, . . . , p y ademas dichas variables

2. Sea Bpp no singular y sea Y = BX. Entonces Y

Np [B; BB0 ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 4 de 32

Demostracion
Regresar

1. A partir de la expresion generica de la densidad normal tendremos:




1
1
f (x) =
(x )0 1 (x )
p
1 exp
2
(2) 2 | | 2
!


p
p
2
X
Y
1 (xi i )2
1
1
1
(xi i )
p
exp
=
exp
=
p
2
2
Y
2

2
i2
2
p
i
i
i=1
i=1
(2) 2
i
i=1

Pantalla completa

Cerrar

Abandonar

De esta expresion se deduce, integrando en Rp1 , que las marginales se distribuyen seg
un
2
normales unidimensionales N1 [i ; i ] y son independientes.
2. Dado el cambio Y = BX, el jacobiano de la transformacion inversa es | B |1 . Por tanto


| B |1
1 1
0 1
1
h(y) =
(B y ) (B y )
p
1 exp
2
(2) 2 | | 2


1
1
0 0 1 1 1
exp (y B) B B (y B)
=
p
1
2
(2) 2 | | 2 | B |


1
1
0
0 1
=
(y B) (BB ) (y B)

p
1 exp
2
(2) 2 | BB0 | 2
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De esta expresion se deduce, integrando en Rp1 , que las marginales se distribuyen seg
un
2
normales unidimensionales N1 [i ; i ] y son independientes.
2. Dado el cambio Y = BX, el jacobiano de la transformacion inversa es | B |1 . Por tanto


| B |1
1 1
0 1
1
h(y) =
(B y ) (B y )
p
1 exp
2
(2) 2 | | 2


1
1
0 0 1 1 1
exp (y B) B B (y B)
=
p
1
2
(2) 2 | | 2 | B |


1
1
0
0 1
=
(y B) (BB ) (y B)

p
1 exp
2
(2) 2 | BB0 | 2
Nota 1.2.1. Como es definida positiva, entonces = CC0 . Sea el cambio de variable
Y = C1 (X ). Entonces, aplicando el resultado anterior, se tiene que Y
Np [0; Ip ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De esta expresion se deduce, integrando en Rp1 , que las marginales se distribuyen seg
un
2
normales unidimensionales N1 [i ; i ] y son independientes.
2. Dado el cambio Y = BX, el jacobiano de la transformacion inversa es | B |1 . Por tanto


| B |1
1 1
0 1
1
h(y) =
(B y ) (B y )
p
1 exp
2
(2) 2 | | 2


1
1
0 0 1 1 1
exp (y B) B B (y B)
=
p
1
2
(2) 2 | | 2 | B |


1
1
0
0 1
=
(y B) (BB ) (y B)

p
1 exp
2
(2) 2 | BB0 | 2
Nota 1.2.1. Como es definida positiva, entonces = CC0 . Sea el cambio de variable
Y = C1 (X ). Entonces, aplicando el resultado anterior, se tiene que Y
Np [0; Ip ].
Finalmente se calcula la funcion caracterstica de la ley normal.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De esta expresion se deduce, integrando en Rp1 , que las marginales se distribuyen seg
un
2
normales unidimensionales N1 [i ; i ] y son independientes.
2. Dado el cambio Y = BX, el jacobiano de la transformacion inversa es | B |1 . Por tanto


| B |1
1 1
0 1
1
h(y) =
(B y ) (B y )
p
1 exp
2
(2) 2 | | 2


1
1
0 0 1 1 1
exp (y B) B B (y B)
=
p
1
2
(2) 2 | | 2 | B |


1
1
0
0 1
=
(y B) (BB ) (y B)

p
1 exp
2
(2) 2 | BB0 | 2
Nota 1.2.1. Como es definida positiva, entonces = CC0 . Sea el cambio de variable
Y = C1 (X ). Entonces, aplicando el resultado anterior, se tiene que Y
Np [0; Ip ].
Finalmente se calcula la funcion caracterstica de la ley normal.
Teorema 1.2.2. Sea X ; Np [; ] con > 0. Entonces su funcion caracterstica viene
dada por


1 0
0
, Rp
X () = exp i
2
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De esta expresion se deduce, integrando en Rp1 , que las marginales se distribuyen seg
un
2
normales unidimensionales N1 [i ; i ] y son independientes.
2. Dado el cambio Y = BX, el jacobiano de la transformacion inversa es | B |1 . Por tanto


| B |1
1 1
0 1
1
h(y) =
(B y ) (B y )
p
1 exp
2
(2) 2 | | 2


1
1
0 0 1 1 1
exp (y B) B B (y B)
=
p
1
2
(2) 2 | | 2 | B |


1
1
0
0 1
=
(y B) (BB ) (y B)

p
1 exp
2
(2) 2 | BB0 | 2
Nota 1.2.1. Como es definida positiva, entonces = CC0 . Sea el cambio de variable
Y = C1 (X ). Entonces, aplicando el resultado anterior, se tiene que Y
Np [0; Ip ].
Finalmente se calcula la funcion caracterstica de la ley normal.
Teorema 1.2.2. Sea X ; Np [; ] con > 0. Entonces su funcion caracterstica viene
dada por


1 0
0
, Rp
X () = exp i
2
Demostracion
Empezaremos tratando el caso = Ip .




Z
p Z
Y
1
1
1
1
0
exp itj yj yj2 dyj
Y (t) = E[eit Y ] =
it0 y y 0 y dy =
p exp
p (2) 2
2
2
2
R
j=1 R




p
p
Y
Y
1 2
1 0
=
Yj (tj ) =
exp tj = exp t t
2
2
j=1
j=1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 5 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

donde se ha usado la forma de la funcion caracterstica para la normal unidimensional.


A partir de ello se tendra, retomando el cambio de la tipificacion = CC0 :
0

X () = E[ei X ] = E[ei (CY+) ] = ei E[ei CY ] = ei Y (C0 )






1
1
0
= ei exp 0 CC0 = exp i0 0 , Rp
2
2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

donde se ha usado la forma de la funcion caracterstica para la normal unidimensional.


A partir de ello se tendra, retomando el cambio de la tipificacion = CC0 :
0

X () = E[ei X ] = E[ei (CY+) ] = ei E[ei CY ] = ei Y (C0 )






1
1
0
= ei exp 0 CC0 = exp i0 0 , Rp
2
2

1.3.

Caracterizaci
on de la ley normal

El siguiente resultado conduce a una interesante caracterizacion de la ley normal multivariante.


P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

donde se ha usado la forma de la funcion caracterstica para la normal unidimensional.


A partir de ello se tendra, retomando el cambio de la tipificacion = CC0 :
0

X () = E[ei X ] = E[ei (CY+) ] = ei E[ei CY ] = ei Y (C0 )






1
1
0
= ei exp 0 CC0 = exp i0 0 , Rp
2
2

1.3.

Caracterizaci
on de la ley normal

El siguiente resultado conduce a una interesante caracterizacion de la ley normal multivariante.


Teorema 1.3.1. Sea X
Np [; ] con > 0.
1. Sea Aqp una matriz de constantes con rg(A) = q p. Entonces
Y = AX

Nq [A; AA0 ]

2. Toda combinaci
on lineal de las componentes de un vector aleatorio normal es una variable normal unidimensional.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 32

3. La condici
on necesaria y suficiente para que un vector aleatorio X se distribuya de forma
normal multivariante es que cualquier combinacion lineal de sus componentes sea una
variable aleatoria unidimensional que se distribuya de forma normal.
Demostracion

Regresar

Pantalla completa

Cerrar

Abandonar

donde se ha usado la forma de la funcion caracterstica para la normal unidimensional.


A partir de ello se tendra, retomando el cambio de la tipificacion = CC0 :
0

X () = E[ei X ] = E[ei (CY+) ] = ei E[ei CY ] = ei Y (C0 )






1
1
0
= ei exp 0 CC0 = exp i0 0 , Rp
2
2

1.3.

Caracterizaci
on de la ley normal

El siguiente resultado conduce a una interesante caracterizacion de la ley normal multivariante.


Teorema 1.3.1. Sea X
Np [; ] con > 0.
1. Sea Aqp una matriz de constantes con rg(A) = q p. Entonces
Y = AX

Nq [A; AA0 ]

2. Toda combinaci
on lineal de las componentes de un vector aleatorio normal es una variable normal unidimensional.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 32

3. La condici
on necesaria y suficiente para que un vector aleatorio X se distribuya de forma
normal multivariante es que cualquier combinacion lineal de sus componentes sea una
variable aleatoria unidimensional que se distribuya de forma normal.
Demostracion
1. Basandonos en la funcion caracterstica se tiene:


1
0
0
Y (t) = E[eit Y ] = E[eit AX ] = X (A0 t) = exp it0 A t0 AA0 t
2
de donde se obtiene el resultado.

Regresar

Pantalla completa

Cerrar

Abandonar

donde se ha usado la forma de la funcion caracterstica para la normal unidimensional.


A partir de ello se tendra, retomando el cambio de la tipificacion = CC0 :
0

X () = E[ei X ] = E[ei (CY+) ] = ei E[ei CY ] = ei Y (C0 )






1
1
0
= ei exp 0 CC0 = exp i0 0 , Rp
2
2

1.3.

Caracterizaci
on de la ley normal

El siguiente resultado conduce a una interesante caracterizacion de la ley normal multivariante.


Teorema 1.3.1. Sea X
Np [; ] con > 0.
1. Sea Aqp una matriz de constantes con rg(A) = q p. Entonces
Y = AX

Nq [A; AA0 ]

2. Toda combinaci
on lineal de las componentes de un vector aleatorio normal es una variable normal unidimensional.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 6 de 32

3. La condici
on necesaria y suficiente para que un vector aleatorio X se distribuya de forma
normal multivariante es que cualquier combinacion lineal de sus componentes sea una
variable aleatoria unidimensional que se distribuya de forma normal.
Demostracion

Regresar

Pantalla completa

Cerrar

Abandonar

1. Basandonos en la funcion caracterstica se tiene:




1
Y (t) = E[eit Y ] = E[eit AX ] = X (A0 t) = exp it0 A t0 AA0 t
2
0

de donde se obtiene el resultado.

2. Es inmediato, tomando en el apartado anterior A como un vector p 1. Notemos que,


en particular, cada componente es normal unidimensional.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 7 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
1. A partir de su funcion de densidad.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
1. A partir de su funcion de densidad.

P
agina www

2. A partir de su funcion caracterstica.

P
agina inicial

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
1. A partir de su funcion de densidad.

P
agina www

2. A partir de su funcion caracterstica.

P
agina inicial

3. Xp1 se distribuye de forma normal p-dimensional s y solo s toda combinacion lineal


de sus componentes se distribuye como una normal unidimensional.

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
1. A partir de su funcion de densidad.

P
agina www

2. A partir de su funcion caracterstica.

P
agina inicial

3. Xp1 se distribuye de forma normal p-dimensional s y solo s toda combinacion lineal


de sus componentes se distribuye como una normal unidimensional.
4. X
Np [; ], con > 0, s y solo s X se distribuye como + AU, donde = AA0
(A no singular) y donde U
Np [0; Ip ]. Esto es inmediato a partir de los cambios de
variable ya estudiados y precisa, obviamente, introducir previamente la normal esferica.

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Falta por verificar la condicion suficiente. As pues partimos de que l Rp se tiene que
l0 X
N1 [l0 ; l0 l]. Con ello


1
l0 X (t, l) = E[eitl X ] = exp itl0 t2 l0 l
2
En particular
0

t R ; l Rp



1
l0 X (1, l) = E[eil X ] = exp il0 l0 l = X (l) , l Rp 
2
0

Notemos que tenemos ya cuatro formas de definir la densidad normal, con > 0.
1. A partir de su funcion de densidad.

P
agina www

2. A partir de su funcion caracterstica.

P
agina inicial

3. Xp1 se distribuye de forma normal p-dimensional s y solo s toda combinacion lineal


de sus componentes se distribuye como una normal unidimensional.
4. X
Np [; ], con > 0, s y solo s X se distribuye como + AU, donde = AA0
(A no singular) y donde U
Np [0; Ip ]. Esto es inmediato a partir de los cambios de
variable ya estudiados y precisa, obviamente, introducir previamente la normal esferica.

Contenido

JJ

II

P
agina 8 de 32

Regresar

Pantalla completa

1.4.

Distribuciones marginales y condicionadas

Sea X
Np [; ], con > 0 y particionemoslo en la forma X = (X0(1) | X0(2) )0 donde X(1) es
q-dimensional y X(2) es (p q)-dimensional. Supongamos en y las particiones inducidas

Cerrar

Abandonar

a partir de la anterior, o sea



=

(1)
(2)


; =

11 12
21 22

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 9 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.1. En las condiciones anteriores,


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 10 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.1. En las condiciones anteriores,


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. Para calcular la distribucion de X(1) basta tomar la matriz C = [Iq | 0q(pq) ] y el cambio
de variable Y = CX. Con ello tenemos que Y = X(1) y ademas Y
Nq [C; CC0 ].
Realizando las operaciones se concluye que Y = X(1)
Nq [(1) ; 11 ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 10 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.1. En las condiciones anteriores,


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. Para calcular la distribucion de X(1) basta tomar la matriz C = [Iq | 0q(pq) ] y el cambio
de variable Y = CX. Con ello tenemos que Y = X(1) y ademas Y
Nq [C; CC0 ].
Realizando las operaciones se concluye que Y = X(1)
Nq [(1) ; 11 ].
Para calcular la densidad de X(2) basta considerar C = [0(pq)q | Ipq ].
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 10 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.1. En las condiciones anteriores,


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. Para calcular la distribucion de X(1) basta tomar la matriz C = [Iq | 0q(pq) ] y el cambio
de variable Y = CX. Con ello tenemos que Y = X(1) y ademas Y
Nq [C; CC0 ].
Realizando las operaciones se concluye que Y = X(1)
Nq [(1) ; 11 ].
Para calcular la densidad de X(2) basta considerar C = [0(pq)q | Ipq ].
2. La demostracion es inmediata sin mas que tener en cuenta que en este caso la densidad
conjunta factoriza. En efecto:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 10 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.1. En las condiciones anteriores,


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. Para calcular la distribucion de X(1) basta tomar la matriz C = [Iq | 0q(pq) ] y el cambio
de variable Y = CX. Con ello tenemos que Y = X(1) y ademas Y
Nq [C; CC0 ].
Realizando las operaciones se concluye que Y = X(1)
Nq [(1) ; 11 ].
Para calcular la densidad de X(2) basta considerar C = [0(pq)q | Ipq ].
2. La demostracion es inmediata sin mas que tener en cuenta que en este caso la densidad
conjunta factoriza. En efecto:

P
agina www

P
agina inicial



1
0 1
(x ) (x )
f (x) =
p
1 exp
2
(2) 2 | | 2
1
=
p
1
1
(2) 2 | 11 | 2 | 22 | 2

 1


1
x

0
(1)
(1)
11
exp ((x(1) (1) ) | (x(2) (2) ))0
1
0 22
x(2) (2)
2


1
1
=
(x(1) (1) )0 1
q
1 exp
11 (x(1) (1) )
2
(2) 2 | 11 | 2


1
1

(x(2) (2) )0 1

pq
1 exp
22 (x(2) (2) )
2
(2) 2 | 22 | 2
1

Contenido

JJ

II

P
agina 10 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.2. En las condiciones del teorema anterior se tiene


1
1. X(2) 21 11
X(1)

Npq [(2) 21 1
11 (1) ; 22.1 ]

2. X(1) y X(2) 21 1
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

Npq [(2) + 21 1
11 (x(1) (1) ); 22.1 ]

donde 22.1 = 22 21 1
11 12
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 11 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.2. En las condiciones del teorema anterior se tiene


1
1. X(2) 21 11
X(1)

Npq [(2) 21 1
11 (1) ; 22.1 ]

2. X(1) y X(2) 21 1
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

Npq [(2) + 21 1
11 (x(1) (1) ); 22.1 ]

donde 22.1 = 22 21 1
11 12
Demostracion
Consideremos la matriz


C=

Iq
0q(pq)
1
21 11
Ipq

y realicemos el cambio de variable Y = CX. Con ello es inmediato que Y


Pero

Np [C; CC0 ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 11 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.2. En las condiciones del teorema anterior se tiene


1
1. X(2) 21 11
X(1)

Npq [(2) 21 1
11 (1) ; 22.1 ]

2. X(1) y X(2) 21 1
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

Npq [(2) + 21 1
11 (x(1) (1) ); 22.1 ]

donde 22.1 = 22 21 1
11 12
Demostracion
Consideremos la matriz


C=

Iq
0q(pq)
1
21 11
Ipq

y realicemos el cambio de variable Y = CX. Con ello es inmediato que Y


Np [C; CC0 ].
Pero
 




X(1)
(1)
Y(1)
, C =
=
Y=
Y(2)
X(2) 21 1
(2) 21 1
11 X(1)
11 (1)
y

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 11 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.2. En las condiciones del teorema anterior se tiene


1
1. X(2) 21 11
X(1)

Npq [(2) 21 1
11 (1) ; 22.1 ]

2. X(1) y X(2) 21 1
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

Npq [(2) + 21 1
11 (x(1) (1) ); 22.1 ]

donde 22.1 = 22 21 1
11 12
Demostracion
Consideremos la matriz


C=

Iq
0q(pq)
1
21 11
Ipq

y realicemos el cambio de variable Y = CX. Con ello es inmediato que Y


Np [C; CC0 ].
Pero
 




X(1)
(1)
Y(1)
, C =
=
Y=
Y(2)
X(2) 21 1
(2) 21 1
11 X(1)
11 (1)
y



1
I
0

q
11
q
12
12
q(pq)
11
CC0 =
21 1
I

0
I
pq
21
22
pq
(pq)q
11


 

1
11
Iq
11
12
11 12
0q(pq)
=
=
0(pq)q 22.1
0(pq)q
Ipq
0(pq)q 22.1


P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 11 de 32

Regresar

Pantalla completa

Cerrar

de donde se deducen los dos primeros apartados.

Abandonar

Para calcular la distribucion condicionada tengamos en cuenta que la densidad conjunta de


Y, al ser independientes Y(1) e Y(2) , viene dada por

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 12 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada tengamos en cuenta que la densidad conjunta de


Y, al ser independientes Y(1) e Y(2) , viene dada por
f (y(1) , y(2) ) =

1
q
2

pq
2

(2) (2) | 11 | 2 | 22.1 | 2






1
1
0 1
0 1
exp (y(1) (1) ) 11 (y(1) (1) ) exp (y(2) ) 22.1 (y(2) )
2
2

donde = (2) 21 1
11 (1) .

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 12 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada tengamos en cuenta que la densidad conjunta de


Y, al ser independientes Y(1) e Y(2) , viene dada por
f (y(1) , y(2) ) =

1
q
2

pq
2

(2) (2) | 11 | 2 | 22.1 | 2






1
1
0 1
0 1
exp (y(1) (1) ) 11 (y(1) (1) ) exp (y(2) ) 22.1 (y(2) )
2
2

donde = (2) 21 1
11 (1) .
Si realizamos el cambio de variable inverso al anterior

 
 


X(1)
Y(1)
Iq
0q(pq)
Y(1)
X=
=
=
X(2)
Y(2) + 21 1
21 1
Ipq
Y(2)
11 Y(1)
11

P
agina www

la matriz jacobiana de la transformacion es Ip y con ello la densidad de X es

P
agina inicial

Contenido

JJ

II

P
agina 12 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada tengamos en cuenta que la densidad conjunta de


Y, al ser independientes Y(1) e Y(2) , viene dada por
f (y(1) , y(2) ) =

1
q
2

pq
2

(2) (2) | 11 | 2 | 22.1 | 2






1
1
0 1
0 1
exp (y(1) (1) ) 11 (y(1) (1) ) exp (y(2) ) 22.1 (y(2) )
2
2

donde = (2) 21 1
11 (1) .
Si realizamos el cambio de variable inverso al anterior

 
 


X(1)
Y(1)
Iq
0q(pq)
Y(1)
X=
=
=
X(2)
Y(2) + 21 1
21 1
Ipq
Y(2)
11 Y(1)
11

P
agina www

la matriz jacobiana de la transformacion es Ip y con ello la densidad de X es

P
agina inicial

Contenido


1
1
0 1
f (x) =
(x(1) (1) ) 11 (x(1) (1) )
q
pq
1
1 exp
2
(2) 2 (2) 2 | 11 | 2 | 22.1 | 2


1
0 1
1
exp (x(2) 21 1
11 x(1) ) 22.1 (x(2) 21 11 x(1) )
2


1
1
0 1
=
(x(1) (1) ) 11 (x(1) (1) )
q
pq
1
1 exp
2
(2) 2 (2) 2 | 11 | 2 | 22.1 | 2


0 1

1
1
1
exp x(2) (2) 21 11 (x(1) (1) ) 22.1 x(2) (2) 21 11 (x(1) (1) )
2


JJ

II

P
agina 12 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada tengamos en cuenta que la densidad conjunta de


Y, al ser independientes Y(1) e Y(2) , viene dada por
f (y(1) , y(2) ) =

1
q
2

pq
2

(2) (2) | 11 | 2 | 22.1 | 2






1
1
0 1
0 1
exp (y(1) (1) ) 11 (y(1) (1) ) exp (y(2) ) 22.1 (y(2) )
2
2

donde = (2) 21 1
11 (1) .
Si realizamos el cambio de variable inverso al anterior

 
 


X(1)
Y(1)
Iq
0q(pq)
Y(1)
X=
=
=
X(2)
Y(2) + 21 1
21 1
Ipq
Y(2)
11 Y(1)
11

P
agina www

la matriz jacobiana de la transformacion es Ip y con ello la densidad de X es

P
agina inicial

Contenido


1
1
0 1
f (x) =
(x(1) (1) ) 11 (x(1) (1) )
q
pq
1
1 exp
2
(2) 2 (2) 2 | 11 | 2 | 22.1 | 2


1
0 1
1
exp (x(2) 21 1
11 x(1) ) 22.1 (x(2) 21 11 x(1) )
2


1
1
0 1
=
(x(1) (1) ) 11 (x(1) (1) )
q
pq
1
1 exp
2
(2) 2 (2) 2 | 11 | 2 | 22.1 | 2


0 1

1
1
1
exp x(2) (2) 21 11 (x(1) (1) ) 22.1 x(2) (2) 21 11 (x(1) (1) )
2


JJ

II

P
agina 12 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

de donde
1
f (x(2) | X(1) = x(1) ) =
pq
1
(2) 2 | 22.1 | 2


0 1

1
1
1

exp x(2) (2) 21 11 (x(1) (1) ) 22.1 x(2) (2) 21 11 (x(1) (1) )
2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 13 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.3. En las condiciones del teorema anterior se tiene


1
1. X(1) 12 22
X(2)

Nq [(1) 12 1
22 (2) ; 11,2 ]

2. X(2) y X(1) 12 1
22 X(2) son independientes.
3. X(1) | X(2) = x(2)

Nq [(1) + 12 1
22 (x(2) (2) ); 11,2 ]

donde 11.2 = 11 12 1
22 21
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 14 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.3. En las condiciones del teorema anterior se tiene


1
1. X(1) 12 22
X(2)

Nq [(1) 12 1
22 (2) ; 11,2 ]

2. X(2) y X(1) 12 1
22 X(2) son independientes.
3. X(1) | X(2) = x(2)

Nq [(1) + 12 1
22 (x(2) (2) ); 11,2 ]

donde 11.2 = 11 12 1
22 21
Demostracion
La demostracion es similar a la anterior pero considerando la matriz


Iq
12 1
22

C=
0(pq)q
Ipq
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 14 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 1.4.3. En las condiciones del teorema anterior se tiene


1. X(1) 12 1
22 X(2)

Nq [(1) 12 1
22 (2) ; 11,2 ]

2. X(2) y X(1) 12 1
22 X(2) son independientes.
3. X(1) | X(2) = x(2)

Nq [(1) + 12 1
22 (x(2) (2) ); 11,2 ]

donde 11.2 = 11 12 1
22 21
Demostracion
La demostracion es similar a la anterior pero considerando la matriz


Iq
12 1
22

C=
0(pq)q
Ipq
P
agina www

P
agina inicial

Contenido

Nota 1.4.1. Tambien se puede calcular la distribucion condicionada de forma directa sin
necesidad de pasar por el cambio de variable anterior. El precio que hay que pagar por ello
es un considerable aumento en los calculos, que pasan por descomponer la forma cuadratica
de la exponencial de la densidad normal. En efecto, teniendo en cuenta la inversa de una
matriz particionada por cajas se tiene:

JJ

II

P
agina 14 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

(x )0 1 (x )
0

= ((x(1) (1) ) | (x(2) (2) ))

1
1
1
1
1
1
11 + 11 12 22.1 21 11 11 12 22.1
1
1
1
22.1 21 11
22.1



x(1) (1)
x(2) (2)

0 1
1
1
0 1
1
= (x(1) (1) )0 1
11 + (x(1) (1) ) 11 12 22.1 21 11 (x(2) (2) ) 22.1 21 11 |


 x(1) (1)
0 1
1
0 1
(x(1) (1) ) 11 12 22.1 + (x(2) (2) ) 22.1
x(2) (2)

0 1
1
1
= (x(1) (1) )0 1
11 (x(1) (1) ) + (x(1) (1) ) 11 12 22.1 21 11 (x(1) (1) )
1
0 1
1
(x(2) (2) )0 1
22.1 21 11 (x(1) (1) ) (x(1) (1) ) 11 12 22.1 (x(2) (2) )
+ (x(2) (2) )0 1
22.1 (x(2) (2) )

P
agina www

P
agina inicial

Contenido

0 1
= (x(1) (1) ) 1
11 (x(1) (1) ) + (x(2) (2) ) 22.1 (x(2) (2) )
1
0 1
1
1
2(x(2) (2) )0 1
22.1 12 11 (x(1) (1) ) + (x(1) (1) ) 11 12 22.1 21 11 (x(1)

= (x(1) (1) )0 1
11 (x(1) (1) )
 1

1
+ (x(2) (2) )0 (x(1) (1) )0 1

(x

)
12
21
(2)
(2)
(1)
(1)
11
22.1
11

(1) )

JJ

II

P
agina 15 de 32

Regresar

Pantalla completa

= (x(1) (1) )0 1
11 (x(1) (1) )
0 1

1
+ x(2) (2) 21 1
(x

(x

)
21
(1)
(1)
(2)
(2)
(1)
(1)
11
22.1
11
0 1
= (x(1) (1) )0 1
11 (x(1) (1) ) + (x(2) ) 22.1 (x(2) )

Cerrar

Abandonar

y teniendo en cuenta que | |=| 22 || 11.2 |=| 11 || 22.1 | se tiene

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 16 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

y teniendo en cuenta que | |=| 22 || 11.2 |=| 11 || 22.1 | se tiene


f (x(2) | X(1) = x(1) )


1
(2) | | exp (x )0 1 (x )
2


=
1
q
1
0
1
(2) 2 | 11 | 2 exp (x(1) (1) ) 11 (x(1) (1) )
2
p
1
1
(2) 2 | 11 | 2 | 22.1 | 2


=
1
q
1
0
1
(2) 2 | 11 | 2 exp (x(1) (1) ) 11 (x(1) (1) )
2


1
1
0 1
exp (x(1) (1) )0 1
11 (x(1) (1) ) (x(2) ) 22.1 (x(2) )
2
2


(pq)
1
1
= (2) 2 | 22.1 | 2 exp (x(2) )0 1
22.1 (x(2) )
2
p2

21

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 16 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

Sabemos que un vector aleatorio p-dimensional X se distribuye seg


un una normal con media
y matriz de varianzas-covarianzas > 0 s y solo s X se distribuye como lo haga + AU
donde App es una matriz no singular tal que = AA0 y U
Np [0; Ip ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

Sabemos que un vector aleatorio p-dimensional X se distribuye seg


un una normal con media
y matriz de varianzas-covarianzas > 0 s y solo s X se distribuye como lo haga + AU
donde App es una matriz no singular tal que = AA0 y U
Np [0; Ip ].
A partir de la definicion anterior se puede calcular la funcion caracterstica para X puesto
que es conocida la de la ley normal esferica. En efecto, se tendra:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

Sabemos que un vector aleatorio p-dimensional X se distribuye seg


un una normal con media
y matriz de varianzas-covarianzas > 0 s y solo s X se distribuye como lo haga + AU
donde App es una matriz no singular tal que = AA0 y U
Np [0; Ip ].
A partir de la definicion anterior se puede calcular la funcion caracterstica para X puesto
que es conocida la de la ley normal esferica. En efecto, se tendra:


h 0 i
h 0
i
1
0
X (t) = E eit X = E eit (+AU) = eit U (A0 t) = exp it0 t0 t
2
Esta funcion existe, a
un cuando 0, por lo que pasamos a estudiar la distribucion de X
en terminos de una representacion como la dada en el caso definido positivo.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

Sabemos que un vector aleatorio p-dimensional X se distribuye seg


un una normal con media
y matriz de varianzas-covarianzas > 0 s y solo s X se distribuye como lo haga + AU
donde App es una matriz no singular tal que = AA0 y U
Np [0; Ip ].
A partir de la definicion anterior se puede calcular la funcion caracterstica para X puesto
que es conocida la de la ley normal esferica. En efecto, se tendra:


h 0 i
h 0
i
1
0
X (t) = E eit X = E eit (+AU) = eit U (A0 t) = exp it0 t0 t
2
Esta funcion existe, a
un cuando 0, por lo que pasamos a estudiar la distribucion de X
en terminos de una representacion como la dada en el caso definido positivo.
Teorema 2.1.1. Un vector aleatorio p-dimensional X se distribuye seg
un una normal con
media y matriz de varianzas-covarianzas 0 s y solo s X se distribuye como lo haga
+ BU donde Bpr es una matriz de rango r p tal que = BB0 y U
Nr [0; Ir ].
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

2.
2.1.

Distribuci
on normal multivariante degenerada. Caracterizaciones
Funci
on caracterstica y distribuci
on

Sabemos que un vector aleatorio p-dimensional X se distribuye seg


un una normal con media
y matriz de varianzas-covarianzas > 0 s y solo s X se distribuye como lo haga + AU
donde App es una matriz no singular tal que = AA0 y U
Np [0; Ip ].
A partir de la definicion anterior se puede calcular la funcion caracterstica para X puesto
que es conocida la de la ley normal esferica. En efecto, se tendra:


h 0 i
h 0
i
1
0
X (t) = E eit X = E eit (+AU) = eit U (A0 t) = exp it0 t0 t
2
Esta funcion existe, a
un cuando 0, por lo que pasamos a estudiar la distribucion de X
en terminos de una representacion como la dada en el caso definido positivo.
Teorema 2.1.1. Un vector aleatorio p-dimensional X se distribuye seg
un una normal con
media y matriz de varianzas-covarianzas 0 s y solo s X se distribuye como lo haga
+ BU donde Bpr es una matriz de rango r p tal que = BB0 y U
Nr [0; Ir ].
Demostracion
Dada 0 con rango r p, existe Hpp ortogonal tal que


D 0
H0
=H
0 0

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 17 de 32

Regresar

Pantalla completa

Cerrar

donde D es diagonal no singular. Pongamos H en la forma H = (H1 | H2 ) donde H1 es de


dimension p r y H2 lo es p (p r). Con ello se tiene

Abandonar




1
exp it0 t0 t = exp it0
2

= exp it0

= exp it0




1 0
D 0
tH
H0 t
0 0
2

 0  
1 0
D 0
H1
t (H1 | H2 )
t
0 0
H02
2
 0  


1 0
1
H1
t (H1 D | 0)
t = exp it0 t0 H1 D H01 t
0
H2
2
2

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 18 de 32

Regresar

Pantalla completa

Cerrar

Abandonar




1
exp it0 t0 t = exp it0
2

= exp it0

= exp it0




1 0
D 0
tH
H0 t
0 0
2

 0  
1 0
D 0
H1
t (H1 | H2 )
t
0 0
H02
2
 0  


1 0
1
H1
t (H1 D | 0)
t = exp it0 t0 H1 D H01 t
0
H2
2
2

Hacemos el cambio parametrico H0 = p1 ( = H)


 0  

 0 
t

H
H
1
1
1
=
t=
H0 t =
H02
H02 t
2

P
agina www

Con ello

P
agina inicial

Contenido

JJ

II

P
agina 18 de 32

Regresar

Pantalla completa

Cerrar

Abandonar




1
exp it0 t0 t = exp it0
2

= exp it0

= exp it0




1 0
D 0
tH
H0 t
0 0
2

 0  
1 0
D 0
H1
t (H1 | H2 )
t
0 0
H02
2
 0  


1 0
1
H1
t (H1 D | 0)
t = exp it0 t0 H1 D H01 t
0
H2
2
2

Hacemos el cambio parametrico H0 = p1 ( = H)


 0  

 0 
t

H
H
1
1
1
=
t=
H0 t =
H02
H02 t
2

P
agina www

Con ello

P
agina inicial

Contenido

1
exp it0 t0 H1 D H01 t
2





1

1
= exp it0 (H1 | H2 )
t0 H1 D H01 t
2
2


1
= exp it0 H1 1 + it0 H2 2 10 D 1
2


1
= exp i10 1 + i20 2 10 D 1
2


1 0
0
0
= exp (i2 2 ) exp i1 1 1 D 1
2

JJ

II

P
agina 18 de 32

Regresar

Pantalla completa

Cerrar

Abandonar




1
exp it0 t0 t = exp it0
2

= exp it0

= exp it0




1 0
D 0
tH
H0 t
0 0
2

 0  
1 0
D 0
H1
t (H1 | H2 )
t
0 0
H02
2
 0  


1 0
1
H1
t (H1 D | 0)
t = exp it0 t0 H1 D H01 t
0
H2
2
2

Hacemos el cambio parametrico H0 = p1 ( = H)


 0  

 0 
t

H
H
1
1
1
=
t=
H0 t =
H02
H02 t
2

P
agina www

Con ello

P
agina inicial

Contenido





1
1

1
exp it0 t0 H1 D H01 t = exp it0 (H1 | H2 )
t0 H1 D H01 t
2
2
2


1
= exp it0 H1 1 + it0 H2 2 10 D 1
2


1
= exp i10 1 + i20 2 10 D 1
2


1 0
0
0
= exp (i2 2 ) exp i1 1 1 D 1
2
  0 

Y
H1 X
1
=
, con lo cual
Llamemos Y = H0 X
Y2
H02 X

JJ

II

P
agina 18 de 32

Regresar

Pantalla completa

Cerrar

Abandonar




1
exp it0 t0 t = exp it0
2

= exp it0

= exp it0




1 0
D 0
tH
H0 t
0 0
2

 0  
1 0
D 0
H1
t (H1 | H2 )
t
0 0
H02
2
 0  


1 0
1
H1
t (H1 D | 0)
t = exp it0 t0 H1 D H01 t
0
H2
2
2

Hacemos el cambio parametrico H0 = p1 ( = H)


 0  

 0 
t

H
H
1
1
1
=
t=
H0 t =
H02
H02 t
2

P
agina www

Con ello

P
agina inicial

Contenido





1
1

1
exp it0 t0 H1 D H01 t = exp it0 (H1 | H2 )
t0 H1 D H01 t
2
2
2


1
= exp it0 H1 1 + it0 H2 2 10 D 1
2


1
= exp i10 1 + i20 2 10 D 1
2


1 0
0
0
= exp (i2 2 ) exp i1 1 1 D 1
2
  0 

Y
H1 X
1
=
, con lo cual
Llamemos Y = H0 X
Y2
H02 X

JJ

II

P
agina 18 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

h 0 i
h 0 0 i
h 0 i
h 0
i
it X
it HH X
i Y
i1 Y1 i20 Y2
X (t) = E e
=E e
=E e
=E e
e

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 19 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 20 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:
1. Y1 e Y2 son independientes.
2. Y1

Nr [1 ; D ].

3. Y2 es la ley degenerada en 2 , o sea, P[Y2 = 2 ] = 1.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 20 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:
1. Y1 e Y2 son independientes.
2. Y1

Nr [1 ; D ].

3. Y2 es la ley degenerada en 2 , o sea, P[Y2 = 2 ] = 1.


1

Con ello, y puesto que D es no singular se tiene Y1 = 1 + D2 U, (U



Y=
por lo que

Y1
Y2

1
2


=

1 + D U
2 + 0U


=

1
2

1
2


+

D
0

Nr [0; Ir ]) y as

P
agina www

U
P
agina inicial

Contenido

JJ

II

P
agina 20 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:
1. Y1 e Y2 son independientes.
2. Y1

Nr [1 ; D ].

3. Y2 es la ley degenerada en 2 , o sea, P[Y2 = 2 ] = 1.


1

Con ello, y puesto que D es no singular se tiene Y1 = 1 + D2 U, (U



Y=

Y1
Y2

1
2


=

1 + D U
2 + 0U


=

1
2

1
2


+

D
0

Nr [0; Ir ]) y as

P
agina www

U
P
agina inicial

por lo que

Contenido

X = HY = H + H

1
2

D
0

1
2

U = + BU

con B = H

D
0

JJ

II

P
agina 20 de 32

Ademas
Regresar

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:
1. Y1 e Y2 son independientes.
2. Y1

Nr [1 ; D ].

3. Y2 es la ley degenerada en 2 , o sea, P[Y2 = 2 ] = 1.


1

Con ello, y puesto que D es no singular se tiene Y1 = 1 + D2 U, (U



Y=

Y1
Y2

1
2


=

1 + D U
2 + 0U


=

1
2

1
2


+

D
0

Nr [0; Ir ]) y as

P
agina www

U
P
agina inicial

por lo que

Contenido

1
2

X = HY = H + H

D
0

1
2

U = + BU

con B = H

D
0

JJ

II

P
agina 20 de 32

Ademas
Regresar

1. BB0 = H

1
2

D
0

D2 | 0 H0 = H

D 0
0 0

H0 =

Pantalla completa

Cerrar

Abandonar

y as


h 0
i
1 0
i1 Y1 i20 Y2
0
0
e
= exp (i2 2 ) exp i1 1 1 D 1
X (t) = E e
2
de donde se deduce:
1. Y1 e Y2 son independientes.
2. Y1

Nr [1 ; D ].

3. Y2 es la ley degenerada en 2 , o sea, P[Y2 = 2 ] = 1.


1

Con ello, y puesto que D es no singular se tiene Y1 = 1 + D2 U, (U



Y=

Y1
Y2

1
2

1 + D U
2 + 0U


=

1
2

1
2


+

D
0

Nr [0; Ir ]) y as

P
agina www

U
P
agina inicial

por lo que

Contenido

1
2

X = HY = H + H

D
0

1
2

U = + BU

con B = H

D
0

JJ

II

P
agina 20 de 32

Ademas
Regresar

1. BB0 = H

1
2

D
0

D2 | 0 H0 = H

1
2

2. rg(B) = r pues rg(B) = rg H

D
0

D 0
0 0
!!

=r

H0 =

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

El problema que surge a la hora de tratar con esta distribucion es que su densidad no existe
en Rp sino en un hiperplano contenido en el. Por lo tanto necesitamos introducir una serie
de conceptos previos relacionados con la teora de espacios vectoriales.

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

El problema que surge a la hora de tratar con esta distribucion es que su densidad no existe
en Rp sino en un hiperplano contenido en el. Por lo tanto necesitamos introducir una serie
de conceptos previos relacionados con la teora de espacios vectoriales.
Definici
on 2.2.1. Sea Mnr una matriz. Se define
1. R(M) = {v Rn : v = Mu para alg
un u Rr }. Notemos que R(M) es el espacio generado por las columnas de M.

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

El problema que surge a la hora de tratar con esta distribucion es que su densidad no existe
en Rp sino en un hiperplano contenido en el. Por lo tanto necesitamos introducir una serie
de conceptos previos relacionados con la teora de espacios vectoriales.
Definici
on 2.2.1. Sea Mnr una matriz. Se define
1. R(M) = {v Rn : v = Mu para alg
un u Rr }. Notemos que R(M) es el espacio generado por las columnas de M.
2. K(M) = {u Rr : Mu = 0} =n
ucleo de M.

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

El problema que surge a la hora de tratar con esta distribucion es que su densidad no existe
en Rp sino en un hiperplano contenido en el. Por lo tanto necesitamos introducir una serie
de conceptos previos relacionados con la teora de espacios vectoriales.
Definici
on 2.2.1. Sea Mnr una matriz. Se define
1. R(M) = {v Rn : v = Mu para alg
un u Rr }. Notemos que R(M) es el espacio generado por las columnas de M.
2. K(M) = {u Rr : Mu = 0} =n
ucleo de M.

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

A partir de la anterior definicion, considerando la aplicacion traspuesta y la definicion de


anulador de un subespacio vectorial, se verifica

Una vez caracterizada la distribucion podemos deducir las siguientes cuestiones que generalizan las obtenidas en el caso de definida positiva:
0

1 0

1. En primer lugar la funcion caracterstica es X (t) = eit 2 t t , t Rp


2. A partir de la funcion caracterstica, si Y = AX con Aqp entonces Y

Nq [A; AA0 ].

3. La caracterizacion en terminos de las combinaciones lineales del vector sigue siendo


valida puesto que si l0 l > 0 (l Rp ) se tiene que l0 X
N1 [l0 ; l0 l]. A
un en el caso
0
en que l0 l = 0 entonces l0 X (t) = eitl por lo que P[l0 X = l0 ] = 1 y se tiene la ley
degenerada en l0 que puede escribirse en la forma N1 [l0 ; 0]. As pues
X

Np [; ] ( 0) toda c.l. de X es una normal unidimensional.


P
agina www

P
agina inicial

2.2.

Distribuciones condicionadas

El problema que surge a la hora de tratar con esta distribucion es que su densidad no existe
en Rp sino en un hiperplano contenido en el. Por lo tanto necesitamos introducir una serie
de conceptos previos relacionados con la teora de espacios vectoriales.
Definici
on 2.2.1. Sea Mnr una matriz. Se define
1. R(M) = {v Rn : v = Mu para alg
un u Rr }. Notemos que R(M) es el espacio generado por las columnas de M.
2. K(M) = {u Rr : Mu = 0} =n
ucleo de M.

Contenido

JJ

II

P
agina 21 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

A partir de la anterior definicion, considerando la aplicacion traspuesta y la definicion de


anulador de un subespacio vectorial, se verifica

Si K(M) K(M1 ) entonces R(M01 ) R(M0 )

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 22 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion
Hagamos el apartado primero puesto que el segundo es analogo. Sea z K(11 ). Entonces
11 z = 0. Sea, R y y Rpq



11 12
z
0 0
(z , y )
= 2 z 0 11 z + 2y 0 21 z + y 0 22 y = 2y 0 21 z + y 0 22 y 0
21 22
y

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion
Hagamos el apartado primero puesto que el segundo es analogo. Sea z K(11 ). Entonces
11 z = 0. Sea, R y y Rpq



11 12
z
0 0
(z , y )
= 2 z 0 11 z + 2y 0 21 z + y 0 22 y = 2y 0 21 z + y 0 22 y 0
21 22
y

P
agina www

P
agina inicial

En particular, para y = 21 z se tiene

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion
Hagamos el apartado primero puesto que el segundo es analogo. Sea z K(11 ). Entonces
11 z = 0. Sea, R y y Rpq



11 12
z
0 0
(z , y )
= 2 z 0 11 z + 2y 0 21 z + y 0 22 y = 2y 0 21 z + y 0 22 y 0
21 22
y

P
agina www

P
agina inicial

En particular, para y = 21 z se tiene


2(21 z)0 21 z + z 0 12 22 21 z 0 21 z = 0
y con ello z K(21 ).

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion
Hagamos el apartado primero puesto que el segundo es analogo. Sea z K(11 ). Entonces
11 z = 0. Sea, R y y Rpq



11 12
z
0 0
(z , y )
= 2 z 0 11 z + 2y 0 21 z + y 0 22 y = 2y 0 21 z + y 0 22 y 0
21 22
y

P
agina www

P
agina inicial

En particular, para y = 21 z se tiene


2(21 z)0 21 z + z 0 12 22 21 z 0 21 z = 0
y con ello z K(21 ).
En conclusion K(11 ) K(21 ). Ademas, por el comentario anterior se concluye que R(12 )
R(11 ). Al verificarse esto u
ltimo debe existir Kq(pq) tal que 12 = 11 K o, lo que es lo
mismo, debe existir una matriz Q(pq)q tal que 21 = Q11 

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


11 12
Con todo esto sea
0 con 11 de dimension q q, 12 de dimension
21 22
q (p q), 21 = 012 y 22 de dimension (p q) (p q). Se verifica


Proposici
on 2.2.1. Si 0 viene particionada como antes, entonces
1. K(11 ) K(21 ) y R(12 ) R(11 )
2. K(22 ) K(12 ) y R(21 ) R(22 )
Demostracion
Hagamos el apartado primero puesto que el segundo es analogo. Sea z K(11 ). Entonces
11 z = 0. Sea, R y y Rpq



11 12
z
0 0
(z , y )
= 2 z 0 11 z + 2y 0 21 z + y 0 22 y = 2y 0 21 z + y 0 22 y 0
21 22
y

P
agina www

P
agina inicial

En particular, para y = 21 z se tiene


2(21 z)0 21 z + z 0 12 22 21 z 0 21 z = 0
y con ello z K(21 ).
En conclusion K(11 ) K(21 ). Ademas, por el comentario anterior se concluye que R(12 )
R(11 ). Al verificarse esto u
ltimo debe existir Kq(pq) tal que 12 = 11 K o, lo que es lo
mismo, debe existir una matriz Q(pq)q tal que 21 = Q11 
Una vez demostrado este resultado podemos pasar a enunciar y demostrar un teorema,
analogo al caso definido positivo, para las distribuciones condicionadas.

Contenido

JJ

II

P
agina 23 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 2.2.1. Sea X


1. X(1)

Np [; ], con 0. Entonces

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 2.2.1. Sea X


1. X(1)

Np [; ], con 0. Entonces

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. La demostracion es exactamente igual que en el caso definido positivo.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Teorema 2.2.1. Sea X


1. X(1)

Np [; ], con 0. Entonces

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. La demostracion es exactamente igual que en el caso definido positivo.
2. En este caso basta verificar que la funcion caracterstica conjunta factoriza como producto de las funciones caractersticas de las marginales. En efecto:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Np [; ], con 0. Entonces

Teorema 2.2.1. Sea X


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. La demostracion es exactamente igual que en el caso definido positivo.
2. En este caso basta verificar que la funcion caracterstica conjunta factoriza como producto de las funciones caractersticas de las marginales. En efecto:



  
1

0
t1
11
q(pq)
X (t) = exp i(t01 | t02 )
(t01 | t02 )
0(pq)q
22
t2
2




1
1

= exp it01 1 t01 11 t1 exp it02 2 t02 22 t2
2
2
(1)
(2)

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Np [; ], con 0. Entonces

Teorema 2.2.1. Sea X


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. La demostracion es exactamente igual que en el caso definido positivo.
2. En este caso basta verificar que la funcion caracterstica conjunta factoriza como producto de las funciones caractersticas de las marginales. En efecto:



  
1

0
t1
11
q(pq)
X (t) = exp i(t01 | t02 )
(t01 | t02 )
0(pq)q
22
t2
2




1
1

= exp it01 1 t01 11 t1 exp it02 2 t02 22 t2
2
2
Teorema 2.2.2. Sea X
1. X(2) 21
11 X(1)

(1)
(2)

Np [; ], con 0. Entonces
Npq [(2) 21
11 (1) ; 22.1 ]

2. X(1) y X(2) 21
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

Npq [(2) + 21
11 (x(1) (1) ); 22.1 ]

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

Regresar

Pantalla completa

Cerrar

donde 22.1 = 22
Demostracion

21
11 12 ,

siendo

11

una inversa generalizada para 11

Abandonar

Np [; ], con 0. Entonces

Teorema 2.2.1. Sea X


1. X(1)

Nq [(1) ; 11 ] y X(2)

N(pq) [(2) ; 22 ]

2. Si 12 = 21 = 0 entonces X(1) y X(2) son independientes.


Demostracion
1. La demostracion es exactamente igual que en el caso definido positivo.
2. En este caso basta verificar que la funcion caracterstica conjunta factoriza como producto de las funciones caractersticas de las marginales. En efecto:



  
1

0
t1
11
q(pq)
X (t) = exp i(t01 | t02 )
(t01 | t02 )
0(pq)q
22
t2
2




1
1

= exp it01 1 t01 11 t1 exp it02 2 t02 22 t2
2
2
Teorema 2.2.2. Sea X
1. X(2) 21
11 X(1)

(1)
(2)

Np [; ], con 0. Entonces
Npq [(2) 21
11 (1) ; 22.1 ]

P
agina inicial

Contenido

JJ

II

P
agina 24 de 32

2. X(1) y X(2) 21
11 X(1) son independientes.
3. X(2) | X(1) = x(1)

P
agina www

Regresar

Npq [(2) + 21
11 (x(1) (1) ); 22.1 ]

Pantalla completa

Cerrar

21
11 12 ,

donde 22.1 = 22
Demostracion
Consideremos la matriz

siendo


C=

11

una inversa generalizada para 11

Iq
0q(pq)

21 11
Ipq

Abandonar

y realicemos el cambio de variable Y = CX. Con ello, Y

Np [C; CC0 ]. Pero

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 25 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


C =

(1)
(2) 21
11 (1)

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 26 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


C =

(1)
(2) 21
11 (1)

Ademas, como 0 debe existir Q(pq)q tal que 21 = Q11 . As

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 26 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


C =

(1)
(2) 21
11 (1)

Ademas, como 0 debe existir Q(pq)q tal que 21 = Q11 . As


CC0 =




=

=

=

=

=

=

Iq
0q(pq)

21 11
Ipq



11 12
21 22


11
12

21 11 11 + 21 22.1



Iq
0(pq)q

Iq

11 12
Ipq


11 12
Ipq

0(pq)q


11
12
Iq

11 12

Q11 11 11 + 21 22.1
0(pq)q
Ipq


11
Iq
12

11 12
Q11 + 21 22.1
0(pq)q
Ipq


11
12
Iq

11 12
0(pq)q 22.1
0(pq)q
Ipq



0
11
11
11
11
11 12 + 12
11 11 Q + 12
=
0(pq)q
22.1
0(pq)q
22.1



11
11 Q0 + 12
11
0q(pq)
=
0(pq)q
22.1
0(pq)q 22.1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 26 de 32

Regresar

Pantalla completa

Cerrar

Abandonar


C =

(1)
(2) 21
11 (1)

Ademas, como 0 debe existir Q(pq)q tal que 21 = Q11 . As


CC0 =




=

=

=

=

=

=

Iq
0q(pq)

21 11
Ipq



11 12
21 22


11
12

21 11 11 + 21 22.1



Iq
0(pq)q

Iq

11 12
Ipq


11 12
Ipq

0(pq)q


11
12
Iq

11 12

Q11 11 11 + 21 22.1
0(pq)q
Ipq


11
Iq
12

11 12
Q11 + 21 22.1
0(pq)q
Ipq


11
12
Iq

11 12
0(pq)q 22.1
0(pq)q
Ipq



0
11
11
11
11
11 12 + 12
11 11 Q + 12
=
0(pq)q
22.1
0(pq)q
22.1



11
11 Q0 + 12
11
0q(pq)
=
0(pq)q
22.1
0(pq)q 22.1

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 26 de 32

Regresar

Pantalla completa

de donde se deducen los tres primeros apartados.

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 27 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 27 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 27 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado


h

it0 [X(2) 21
11 X(1) ]

E e

| X(1) = x(1) = E e
0

it0 X(2) it0 21


11 X(1)

= eit 21 11 x(1) E eit X(2)


con lo que

| X(1) = x(1)
i
| X(1) = x(1)

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 27 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado


h

it0 [X(2) 21
11 X(1) ]

E e

| X(1) = x(1) = E e
0

it0 X(2) it0 21


11 X(1)

= eit 21 11 x(1) E eit X(2)

| X(1) = x(1)
i
| X(1) = x(1)

P
agina www

P
agina inicial

Contenido

con lo que
Y2 (t) = eit
de donde

21
11 x(1)

X(2) |X(1) =x(1) (t)

JJ

II

P
agina 27 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado


h

it0 [X(2) 21
11 X(1) ]

E e

| X(1) = x(1) = E e
0

it0 X(2) it0 21


11 X(1)

= eit 21 11 x(1) E eit X(2)

| X(1) = x(1)
i
| X(1) = x(1)

P
agina www

P
agina inicial

Contenido

con lo que
Y2 (t) = eit

21
11 x(1)

X(2) |X(1) =x(1) (t)

de donde

JJ

II

P
agina 27 de 32
0

X(2) |X(1) =x(1) (t) = Y2 (t)eit 21 11 x(1)

Regresar

Pantalla completa

Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado


h

it0 [X(2) 21
11 X(1) ]

E e

| X(1) = x(1) = E e
0

it0 X(2) it0 21


11 X(1)

= eit 21 11 x(1) E eit X(2)

| X(1) = x(1)
i
| X(1) = x(1)

P
agina www

P
agina inicial

Contenido

con lo que
Y2 (t) = eit

21
11 x(1)

X(2) |X(1) =x(1) (t)

de donde

JJ

II

P
agina 27 de 32
0

X(2) |X(1) =x(1) (t) = Y2 (t)eit 21 11 x(1)

Regresar

Pantalla completa

y puesto que Y(2)

Npq [(2)

21
11 (1) ; 22.1 ]

se concluye que
Cerrar

Abandonar

Para calcular la distribucion condicionada hay que actuar a partir de la funcion caracterstica.
Llamemos

 

Y(1)
X(1)
Y=
=
Y(2)
X(2) 21
11 X(1)
Por la independencia de Y(1) e Y(2) se tiene
h

it0 Y(2)

E e

| Y(1) = y(1)

h 0
i
h 0
i
it [X(2) 21
it [X(2) 21
11 X(1) ]
11 X(1) ]
=E e
| X(1) = x(1) = E e

Pero, por otro lado


h

it0 [X(2) 21
11 X(1) ]

E e

| X(1) = x(1) = E e
0

it0 X(2) it0 21


11 X(1)

= eit 21 11 x(1) E eit X(2)

| X(1) = x(1)
i
| X(1) = x(1)

P
agina www

P
agina inicial

Contenido

con lo que
Y2 (t) = eit

21
11 x(1)

X(2) |X(1) =x(1) (t)

de donde

JJ

II

P
agina 27 de 32
0

X(2) |X(1) =x(1) (t) = Y2 (t)eit 21 11 x(1)

Regresar

Pantalla completa

y puesto que Y(2)

Npq [(2)

21
11 (1) ; 22.1 ]

se concluye que
Cerrar

Abandonar



1
0
X(2) |X(1) =x(1) (t) = eit
exp it0 (2) it0 21
11 (1) t 22.1 t
2



 1 0
0

= exp it (2) + 21 11 (x(1) (1) ) t 22.1 t


2
0

21
11 x(1)

de donde se obtiene el resultado. 

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 28 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De forma analoga al anterior se tiene el siguiente resultado

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 29 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

De forma analoga al anterior se tiene el siguiente resultado


Teorema 2.2.3. En las condiciones del teorema anterior se tiene
1. X(1) 12
22 X(2)

Nq [(1) 12
22 (2) ; 11.2 ]

2. X(2) y X(1) 12
22 X(2) son independientes.
3. X(1) | X(2) = x(2)

Nq [(1) + 12
22 (x2 (2) ); 11.2 ]

donde 11.2 = 11 12
22 21 , siendo 22 una inversa generalizada para 22

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 29 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3.
3.1.

Complementos
El problema de L`
evy-Cramer

Es conocido que la suma de vectores aleatorios normales e independientes es tambien normal. Sin embargo, nos podemos plantear si el recproco es cierto, o sea, dados dos vectores
aleatorios independientes tales que la suma de ambos se distribuya de forma normal, seran
dichos vectores normales?

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 30 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3.
3.1.

Complementos
El problema de L`
evy-Cramer

Es conocido que la suma de vectores aleatorios normales e independientes es tambien normal. Sin embargo, nos podemos plantear si el recproco es cierto, o sea, dados dos vectores
aleatorios independientes tales que la suma de ambos se distribuya de forma normal, seran
dichos vectores normales?
La respuesta a tal cuestion es afirmativa si bien no es inmediata, y tampoco lo fue durante
mucho tiempo. El resultado fue conjeturado por Paul-L`evy y demostrado en 1936 por Cramer
gracias al empleo de importantes resultados de funciones de variable compleja, concretamente
la teora de funciones analticas de orden finito y, mas precisamente, el teorema de Hadamard.
P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 30 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3.
3.1.

Complementos
El problema de L`
evy-Cramer

Es conocido que la suma de vectores aleatorios normales e independientes es tambien normal. Sin embargo, nos podemos plantear si el recproco es cierto, o sea, dados dos vectores
aleatorios independientes tales que la suma de ambos se distribuya de forma normal, seran
dichos vectores normales?
La respuesta a tal cuestion es afirmativa si bien no es inmediata, y tampoco lo fue durante
mucho tiempo. El resultado fue conjeturado por Paul-L`evy y demostrado en 1936 por Cramer
gracias al empleo de importantes resultados de funciones de variable compleja, concretamente
la teora de funciones analticas de orden finito y, mas precisamente, el teorema de Hadamard.
Por tanto el resultado que planteamos podemos enunciarlo de la siguiente forma:

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 30 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3.
3.1.

Complementos
El problema de L`
evy-Cramer

Es conocido que la suma de vectores aleatorios normales e independientes es tambien normal. Sin embargo, nos podemos plantear si el recproco es cierto, o sea, dados dos vectores
aleatorios independientes tales que la suma de ambos se distribuya de forma normal, seran
dichos vectores normales?
La respuesta a tal cuestion es afirmativa si bien no es inmediata, y tampoco lo fue durante
mucho tiempo. El resultado fue conjeturado por Paul-L`evy y demostrado en 1936 por Cramer
gracias al empleo de importantes resultados de funciones de variable compleja, concretamente
la teora de funciones analticas de orden finito y, mas precisamente, el teorema de Hadamard.
Por tanto el resultado que planteamos podemos enunciarlo de la siguiente forma:

P
agina www

P
agina inicial

Teorema 3.3.1. Sean X1 y X2 dos vectores aleatorios p-dimensionales e independientes.


Entonces
X1 + X2 ; Np [; ] Xi ; Np [i ; i ] , i = 1, 2
verific
andose en tal caso que = 1 + 2 y = 1 + 2 .

Contenido

JJ

II

P
agina 30 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Notas:
1. El resultado es generalizable de forma inmediata a mas de dos variables independientes.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 31 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Notas:
1. El resultado es generalizable de forma inmediata a mas de dos variables independientes.
2. El hecho de que la suma de variables normales e independientes sea normal es inmediata
sin m
as que emplear la funci
on caracterstica. De forma a
un mas general, si Xi , i =
1, . . . , n son variables normales e independientes distribuidas seg
un normales de media
n
X
Ai Xi con Ai matrices
i y matriz de covarianzas i , entonces, si llamamos Y =
i=1

constantes, se verifica

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 31 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Notas:
1. El resultado es generalizable de forma inmediata a mas de dos variables independientes.
2. El hecho de que la suma de variables normales e independientes sea normal es inmediata
sin m
as que emplear la funci
on caracterstica. De forma a
un mas general, si Xi , i =
1, . . . , n son variables normales e independientes distribuidas seg
un normales de media
n
X
Ai Xi con Ai matrices
i y matriz de covarianzas i , entonces, si llamamos Y =
i=1

constantes, se verifica
"
Y (t) = E [exp(it0 Y)] = E exp it0

n
X

!#
Ai Xi

"
=E

i=1
n
Y

n
Y

n
Y

#
exp(it0 Ai Xi )

P
agina www

i=1
n
Y



1
0
=
Xi (A0i t) =
exp it0 Ai i t0 Ai i A0i t
E [exp(it Ai Xi )] =
2
i=1
i=1
i=1
!
n
n
X
1 0X
0
Ai i A0i t
= exp it
A i i t
2 i=1
i=1

P
agina inicial

Contenido

JJ

II

P
agina 31 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

Notas:
1. El resultado es generalizable de forma inmediata a mas de dos variables independientes.
2. El hecho de que la suma de variables normales e independientes sea normal es inmediata
sin m
as que emplear la funci
on caracterstica. De forma a
un mas general, si Xi , i =
1, . . . , n son variables normales e independientes distribuidas seg
un normales de media
n
X
Ai Xi con Ai matrices
i y matriz de covarianzas i , entonces, si llamamos Y =
i=1

constantes, se verifica
"
Y (t) = E [exp(it0 Y)] = E exp it0

n
X

!#
Ai Xi

"
=E

i=1
n
Y

n
Y

n
Y

#
exp(it0 Ai Xi )

P
agina www

i=1
n
Y



1
0
=
Xi (A0i t) =
exp it0 Ai i t0 Ai i A0i t
E [exp(it Ai Xi )] =
2
i=1
i=1
i=1
!
n
n
X
1 0X
0
Ai i A0i t
= exp it
A i i t
2 i=1
i=1

P
agina inicial

Contenido

JJ

II

P
agina 31 de 32

por lo que Y se distribuye como una normal de media


n
X
i=1

n
X
i=1

Ai i A0i .

Ai i y matriz de covarianzas

Regresar

Pantalla completa

Cerrar

Abandonar

3. Para verificar el resultado basta con tratar el caso unidimensional. Para ello basta con
hacer uso de la caracterizaci
on de la ley normal multivariante. Recordemos que dicha
caracterizaci
on dice que un vector se distribuye de forma normal multivariante si y solo
si cualquier combinaci
on lineal finita de sus componentes se distribuye como una normal
unidimensional.

P
agina www

P
agina inicial

Contenido

JJ

II

P
agina 32 de 32

Regresar

Pantalla completa

Cerrar

Abandonar

3. Para verificar el resultado basta con tratar el caso unidimensional. Para ello basta con
hacer uso de la caracterizaci
on de la ley normal multivariante. Recordemos que dicha
caracterizaci
on dice que un vector se distribuye de forma normal multivariante si y solo
si cualquier combinaci
on lineal finita de sus componentes se distribuye como una normal
unidimensional.
Por lo tanto sean X1 y X2 dos variables multidimensionales tales que su suma, X,
se distribuya seg
un una ley normal. Entonces cualquier combinacion lineal finita 0 X
sigue una ley normal univariante. Pero 0 X = 0 X1 + 0 X2 y si damos por demostrado
el resultado en el caso unidimensional se cumplira que tanto 0 X1 como 0 X2 seran
variables normales. Puesto que ambas variables seran normales 0 Rp , aplicando
nuevamente la caracterizaci
on de la ley normal multidimensional, tanto X1 como X2
ser
an vectores normales.
P
agina www
P
agina inicial
Contenido

JJ

II

P
agina 32 de 32
Regresar
Pantalla completa
Cerrar
Abandonar

You might also like