Professional Documents
Culture Documents
Jean-Yves DAUXOIS
Septembre 2011
7
8
8
8
13
18
19
19
20
21
22
22
25
25
26
27
29
31
32
32
35
39
44
47
47
48
50
52
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
conditionnelle .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2.3
2.2.5 Indpendance . . . . . . . . . . . . . . . . . . . .
Extension de la notion de densit . . . . . . . . . . . . .
2.3.1 Intgrale par rapport une mesure . . . . . . . .
2.3.2 Absolue continuit dune mesure par rapport
autre. Densit . . . . . . . . . . . . . . . . . . . .
2.3.3 Mlange de lois . . . . . . . . . . . . . . . . . . .
2.3.4 Densits conjointes, marginales et conditionnelles
. . .
. . .
. . .
une
. . .
. . .
. . .
53
57
57
66
68
69
fonction
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
86
86
89
89
89
90
.
.
.
.
.
93
94
96
98
98
98
6 Convergences
101
6.1 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.1.2 Caractrisation de la convergence en loi . . . . . . . . 102
6.4
6.5
Index
116
6.2
6.3
c
Jean-Yves Dauxois
Septembre
2011
Chapitre 1
1.1
1.1.1
1.1.2
Tribus
c
Jean-Yves Dauxois
Septembre
2011
An A et
An A.
An A .
c
Jean-Yves Dauxois
Septembre
2011
10
An =
An
A.
Exemples de tribus.
* A = {, } est une tribu et est appele tribu grossire. On ne peut
en construire de plus petite.
* A = P() est une tribu. Cest la tribu la plus fine, dans le sens o elle
contient toutes les autres tribus sur .
* Soit A une partie de . Lensemble des parties
}
A = {, A, A,
3
Dfinition 1.1.2 Lorsque A est une tribu sur , le couple (, A) est appel
espace probabilisable (ou mesurable).
Thorme 1.1.3 Limage rciproque dune tribu par une application f est
une tribu.
Preuve.
Notons
c
Jean-Yves Dauxois
Septembre
2011
11
= f 1 (B).
appartient F puisque F est une tribu et A est donc dans E.
Or B
* Soient, pour tout n, An un lment de E. Il existe donc pour tout n,
un lment Bn de A tel que An = f 1 (Bn ). Do :
[
An = {x E tel quil existe n pour lequel x An }
n
!
[
n
[
Cn = (An 0 ) =
n
An
0 C.
0 .
c
Jean-Yves Dauxois
Septembre
2011
12
Thorme 1.1.5 Soit I une partie de N et (Ai )iI une famille de tribus sur
le mme espace fondamental . La famille de parties
\
A=
Ai
iI
Nous attirons lattention du lecteur sur le point suivant. Si (An ) est une
famille quelconque de parties dun ensemble et si un lment A est tel que
A An ,
pour tout n, alors on a :
A
An .
c
Jean-Yves Dauxois
Septembre
2011
13
1.1.3
Mesures et probabilits
R = [0, +]
telle que dune part lon ait () = 0 et que dautre part pour toute suite
(An ) dlments de A, deux deux disjoints, on ait :
!
[
X
An =
(An ).
n
nN
1i1 <i2 n
i=1
+ + (1)k1
P (Ai1 Aik )
1i1 <<ik n
+ + (1)n1 P (A1 An ).
c
Jean-Yves Dauxois
Septembre
2011
14
i=1
Preuve.
puisque A et A sont disjoints.
(i) P () = 1 = P (A) + P (A)
(ii) P () = 1 P () = 0.
(iii) On a
+ P (B).
P (A B) = P (A B)
Or
= P (A B) + P (A B).
P (A) = P (A {B B})
Ainsi
= P (A) P (A B).
P (A B)
Do
P (A B) = P (A) + P (B) P (A B).
(iv) Exercice.
(v) On a vu que
= P (B) P (A B).
P (B A)
Or
A B A B = A.
Do
0.
P (B) P (A) = P (B A)
(vi) Daprs le (iii) la formule est vraie pour n = 2. Supposons la vraie
au rang n 1. On a alors
!
!
n
n1
n1
n
[
[
X
X
P
Ai P
Ai + P (An )
P (Ai ) + P (An ) =
P (Ai )
i=1
i=1
i=1
i=1
Remarque. Les proprits (iii), (v) et (vi) restent vraies pour les mesures.
La proprit (ii) reste vraie pour une mesure si celle-ci nest pas dgnre
(i.e. de valeur tout le temps +).
3
c
Jean-Yves Dauxois
Septembre
2011
15
n+
n+
({n }).
n AD
c
Jean-Yves Dauxois
Septembre
2011
16
pn n
nI
est une probabilit discrte sur (, P()) ou (, A) pour toute tribu A contenant tous les singletons.
On a
n I : P ({n }) = pn
et
\ (n )nI : P ({}) = 0.
On peut ainsi dfinir, par exemple, lquiprobabilit sur {1, 2, . . . , N }. Reprenons en effet le jeu du lanc de d. On a :
= {1, . . . , 6} et A = P().
Si on prend comme probabilit sur , lquiprobabilit, on aura ncessairement pour tout n = 1, . . . , 6 :
pn = P ({n }) = P (le rsultat est n) =
et donc
1X
P =
n .
6
n=1
c
Jean-Yves Dauxois
Septembre
2011
1
1
=
Card
6
17
6
X
n (A) =
n=1
Card A
Card
6
X
n (A) = p2 + p4 + p6 =
n=1
Card A
3
6=
.
4
Card
3) Mesure de comptage
On dfinit sur (N, P(N)) ou (R, P(R)) la mesure :
=
+
X
n .
n=0
On vrifie aisment quil sagit bien dune mesure. Elle est discrte sur
(N, P(N)) et (R, BR ) puisque D = N est dnombrable et (R \ N) = 0
dans le deuxime cas. Cette mesure est appele mesure de comptage. Si on
raisonne sur (N, P(N)) et si A P(N),
(A) =
+
X
n=0
c
Jean-Yves Dauxois
Septembre
2011
18
La mesure de Lebesgue est une mesure continue sur R puisque, pour tout x
dans R, on a :
({x}) = lim ([x
n+
1.1.4
1
1
1
1
, x + ]) = lim (x + x + ) = 0.
n+
n
n
n
n
Variables alatoires
c
Jean-Yves Dauxois
Septembre
2011
1.2. Conditionnement
19
1.1.5
1.2
Conditionnement
Supposons que lon joue au lancer de d avec un d dont les faces paires
sont de couleur blanche et les faces impaires de couleur noire. Si de loin on
c
Jean-Yves Dauxois
Septembre
2011
20
1.2.1
P (B)
P (A B)
.
P (B)
c
Jean-Yves Dauxois
Septembre
2011
1.2. Conditionnement
21
P (A B) = P (B)P (A/B)
= P (A)P (B/A).
Vrifions que P B ainsi dfinie est bien une probabilit sur (, A). Puisque,
pour tout A dans A, lvnement A B est inclus dans B, on a :
0 P (A/B) 1.
Trivialement on a galement :
P (/B) =
P ( B)
= 1.
P (B)
[
n
An / B
S
S
P
P ( n (An B))
P (An B)
P (( n An ) B)
=
= n
=
P (B)
P (B)
P (B)
X
=
P (An /B)
n
1.2.2
Formule de Bayes
Rappelons quune famille finie ou dnombrable densembles (non vides) (Ai )iI
est dite partition de si on a : Ai Aj = pour i 6= j et = iI Ai . Supposons que la famille (Ai )iI soit une telle partition . On suppose que, pour
tout i dans I, on ait P (Ai ) 6= 0. Pour tout vnement B de probabilit non
nulle on peut alors crire :
P (B) = P ( B)
!
!
[
X
X
= P
Ai B =
P (Ai B) =
P (Ai )P (B/Ai ).
iI
iI
iI
P (Aj B)
P (Aj )P (B/Aj )
=P
P (B)
iI P (Ai )P (B/Ai )
c
Jean-Yves Dauxois
Septembre
2011
22
P (T + /M ) P (M )
)P (M
)
P (T + /M )P (M ) + P (T + /M
0, 99 0, 001
1
=
0, 99 0, 001 + 0, 02 0, 999
21
1.3
1.3.1
Indpendance en probabilit
Indpendance dvnements
c
Jean-Yves Dauxois
Septembre
2011
23
Il est important de ne pas confondre les notions dvnements indpendants, incompatibles et disjoints. Notons dabord que les deux premires
notions sont des notions ensemblistes et probabilistes et que la dernire est
purement ensembliste. Rappelons que les vnements A et B sont dits disjoints si A B = et quils sont dits incompatibles si P (A B) = 0. Des
vnements disjoints sont donc forcment incompatibles, mais la rciproque
est fausse.
Par ailleurs, des vnements incompatibles sont rarement indpendants.
Prenons lexemple de deux vnements A et B de A, disjoints et tous les
deux de probabilit strictement positive. Comme on vient de le dire, ils sont
forcment incompatibles mais en revanche ils ne sont pas indpendants car
si A est ralis, B ne lest pas.
Remarquons enfin que deux vnements incompatibles ne peuvent en
fait tre indpendants que si lun ou lautre des deux vnements est de
probabilit nulle, i.e.
P (A B) = 0 = P (A)P (B) P (A) = 0 ou P (B) = 0.
Proposition 1.3.2
A B, A B.
P (A) = P (A B) + P (A B)
Do
= P (A) P (A)P (B) = P (A)(1 P (B))
P (A B)
= P (A)P (B),
Les autres indpendances sobtience qui prouve lindpendance entre A et B.
nent ensuite facilement par symtrie.
2) Si lvnement A est tel que P (A) = 0, il vient
P (A B) P (A) = 0 = P (A)P (B)
c
Jean-Yves Dauxois
Septembre
2011
24
et donc A B.
= 0 et ce qui prcde entrane
Si loppos P (A) = 1, lgalit P (A)
alors
B A
B A,
et donc
B A,
B A.
Dfinition 1.3.3 Soit (Ai )i=1,...,n une famille dvnements de A. Ces vnements sont dits (mutuellement) indpendants en probabilit si :
!
\
Y
Ai =
P (Ai ).
I {1, . . . , n} P
iI
iI
c
Jean-Yves Dauxois
Septembre
2011
1.3.2
25
Indpendance de tribus
Dfinition 1.3.5 On dit que la famille (Ai )i=1,...,n est une famille indpendante de sous tribus si pour toute famille dvnements (Ai )i=1,...,n o Ai
Ai , pour tout i, on a :
!
n
n
\
Y
P
Ai =
P (Ai ).
i=1
i=1
iI
1.3.3
Soit une famille (Xi )i=1,...,n de variables alatoires dfinies sur le mme
espace probabilis (, A, P ) et valeurs respectivement dans lespace probabilisable (Ei , Bi ).
Dfinition 1.3.6 Une famille (Xi )i=1,...,n de variables alatoires est dite indpendante en probabilit si :
(Bi )i=1,...,n o Bi Bi , pour tout i,
on a :
P
n
\
i=1
!
{Xi Bi }
n
Y
P ({Xi Bi }) .
i=1
Thorme 1.3.7 Si, pour tout i, les fonctions i sont des fonctions mesurables de (Ei , Bi ) vers (Ei0 , Bi0 ), alors lindpendance des variables alatoires
(Xi )i=1,...,n entrane celle des (i (Xi ))i=1,...,n .
c
Jean-Yves Dauxois
Septembre
2011
26
Do :
n
\
i Xi Bi0
!
= P
i=1
= P
n
\
!
(i (Xi ))1 (Bi0 )
i=1
n
\
n
Y
!
Xi1 (Bi )
i=1
!
{Xi Bi }
i=1
=P
n
\
n
Y
P (Xi Bi )
i=1
P (i (Xi ) Bi0 )
i=1
Exemples.
* Si X et Y sont des v.a.r. indpendantes, X 2 et log Y le sont encore.
* Si X, Y, Z, T et V sont des variables alatoires indpendantes et si f
est mesurable de R3 vers R, alors X et U = f (Y, Z, T ) sont indpendantes. De mme X, g(Y, Z) et h(T, V ) sont indpendantes pour des
fonctions g et h mesurables.
3
1.3.4
ni=1 Ai
ni=1 Xi , pour toute famille (Xi )i=1,...,n de v.a. o Xi est Ai mesurable
iii)
iv)
c
Jean-Yves Dauxois
Septembre
2011
27
Proposition 1.3.9 Soit (Ai )i=1,...,n une famille dvnements sur un mme
espace probabilis (, A, P ). On a les quivalences suivantes :
ni=1 Ai ni=1 (Ai ) ni=1 l1Ai .
Proposition 1.3.10 Soit (Xi )i=1,...,n une famille de variables alatoires dfinies sur un mme espace probabilis (, A, P ) et valeurs respectivement
dans (Ei , Bi )i=1,...,n . On a les quivalences suivantes :
ni=1 Xi ni=1 (Xi ) ni=1 {Xi Bi } , pour tout Bi Bi .
Remarque. La famille de parties (Xi ) est la tribu engendre par Xi .
Cest la plus petite tribu rendant Xi mesurable. On a :
3
(X ) = X 1 (B).
i
1.4
Jusqu prsent on a essentiellement parl de lobservation dun phnomne unique. On peut pourtant sintresser un phnomne qui est la
juxtaposition de n phnomnes i o chaque phnomne i est modlis
par (i , Ai , Pi ). Pour modliser = (1 , . . . , n ) il nous faut dterminer
lespace probabilis (, A, P ) associ.
De faon naturelle, si i est lobservation du phnomne i , le n-uplet
= (1 , . . . , n ) est une observation du phnomne . On prendra donc
comme espace fondamental :
= 1 n =
n
Y
i .
i=1
c
Jean-Yves Dauxois
Septembre
2011
28
i=1
Notons que
n
\
Bi = A1 An
i=1
n
Y
Pi (Ai ).
i=1
Le thorme suivant montre (bien que sa preuve ne soit pas donne ici !)
quune telle probabilit existe et que, de plus, elle est unique.
Thorme 1.4.2 Il existe une probabilit unique P sur
(ni=1 i , ni=1 Ai )
c
Jean-Yves Dauxois
Septembre
2011
29
n
Y
Pi (Ai ).
i=1
quirpartition sur .
1.5
Soit X1 , . . . , Xn des variables alatoires dfinies sur un mme espace probabilis (, A, P ) et valeurs vers respectivement (i , Ai )i=1,...,n . On admet
que le vecteur (X1 , . . . , Xn ) est encore une variable alatoire de (, A, P )
vers
(ni=1 i , ni=1 Ai ) .
On peut en effet montrer quune fonction h valeurs dans lespace mesurable
(ni=1 i , ni=1 Ai ) est mesurable si, et seulement si, i h est (i , Ai )-mesurable, o i est la projection sur la i-ime coordonne.
c
Jean-Yves Dauxois
Septembre
2011
30
n
\
#
Xi1 (Ai )
i=1
n
Y
P (Xi1 (Ai ))
i=1
n
Y
Ai Ai , pour i = 1, . . . , n : P X 1 (A1 An ) =
PXi (Ai )
i=1
Ai Ai , pour i = 1, . . . , n : PX (A1 An ) =
n
Y
i=1
PX = ni=1 PXi .
c
Jean-Yves Dauxois
Septembre
2011
PXi (Ai )
2
Chapitre 2
31
32
2.1
2.1.1
Fonction de rpartition
lim FX (x) = 1.
x+
33
Pour le iii) considrons une suite (hn ) de rels dcroissante vers 0. Pour
tout x dans R, on a :
PX (]x, x + hn ]) = FX (x + hn ) FX (x).
Or la suite dintervalles (]x, x + hn ])n est dcroissante avec n. Ainsi il vient :
!
\
lim PX (]x, x + hn ]) = PX
]x, x + hn ] = PX () = 0.
n+
On en dduit que
lim FX (x + hn ) = FX (x)
n+
lim FX (n)
n+
+
\
= lim PX (] , n])
n+
!
] , n]
= PX
= PX () = 0.
n=1
Lgalit
lim FX (x) = 1
x+
34
alors on a :
n+
c
Jean-Yves Dauxois
Septembre
2011
35
2.1.2
Lois discrtes
Dfinition 2.1.6 Une v.a.r. X est dite discrte si la loi PX est une mesure
de probabilit discrte.
Daprs la dfinition dune mesure discrte vue au chapitre 1, il existe
donc une famille D (finie ou dnombrable) de rels telle que
PX (R \ D) = 0
et
A BR ,
PX (A) =
PX ({x}).
xAD
x D.
Preuve. Immdiate.
Principales lois de v.a.r. discrtes.
a) Loi de Dirac
Soit x0 R. Une v.a.r. X est dite de loi de Dirac x0 si elle est valeurs
dans R et telle que PX = x0 . On a donc, pour tout borlien A :
1 si x0 A
PX (A) = x0 (A) =
0 sinon
c
Jean-Yves Dauxois
Septembre
2011
36
De plus on a :
PX ({x0 }) = P (X = x0 ) = 1
et PX ({x}) = P (X = x) = 0, pour tout x 6= x0 .
On dit que la v.a.r. X est presque srement (p.s.) gale x0 .
b) Loi uniforme discrte
Une v.a.r. X est dite variable alatoire de loi uniforme discrte sur un
ensemble D fini si on a, pour tout d dans D :
PX ({d}) = P (X = d) =
1
.
Card D
b) Loi de Bernoulli
Une v.a.r. X est dite variable alatoire de Bernoulli de paramtre p,
(pour p [0, 1]) si elle est valeurs dans D = {0, 1} et si
PX ({1}) = P (X = 1) = p ;
PX ({0}) = P (X = 0) = 1 p.
Cest bien une v.a.r. discrte puisque D = {0, 1} et P (R \ D) = 0. On a en
particulier : x
/ {0, 1}, PX ({x}) = 0.
Cette loi est, par exemple, utilise pour modliser le tirage au hasard
dans une urne contenant des boules bleues en proportion p et des boules
rouges en proportion 1 p. Si on note {X = 1} lvnement le rsultat du
tirage a donn une boule bleue et {X = 0} lvnement le rsultat est une
boule rouge, alors la v.a. X suit une loi de Bernoulli de paramtre p.
c) Loi binomiale
Une v.a.r. X est dite de loi Binomiale de paramtres n et p (pour n N
et p [0, 1]) si elle est valeurs dans D = {0, 1, . . . , n} et si
P (X = k) = PX ({k}) = Cnk pk (1 p)nk ,
pour k = 0, 1, . . . , n. On crit X B(n, p).
Remarquons que, par exemple, si n 5 et si A = [1, 5], on a alors
PX (A) =
X
xAD
PX ({x}) =
5
X
k=1
PX ({k}) =
5
X
k=1
c
Jean-Yves Dauxois
Septembre
2011
Cnk pk (1 p)nk .
37
Cette loi apparat, entre autres, lors de tirages avec remise dans une
urne contenant des boules bleues en proportion p et des boules rouges en
proportion q = 1 p. Sur n tirages, si X est le nombre de boules bleues
obtenues, la loi de X est une binomiale B(n, p).
On montre facilement que la loi binomiale B(n, p) est la loi de la somme
de n v.a.r. indpendantes et de mme loi de Bernoulli de paramtre p.
d) Loi gomtrique
Une v.a.r. X est dite de loi gomtrique de paramtre p, pour p compris
entre 0 et 1, si elle est valeurs dans D = N et si
P (X = k) = (1 p)k1 p.
On note X G(p).
Cette loi apparat, par exemple, lors de tirages successifs, indpendants
et avec remise dans une urne contenant des boules bleues en proportion p et
des boules rouges en proportion 1 p.
Si X est le nombre de tirages effectus lors de lapparition de la 1e`re boule
bleue alors la loi de X est une gomtrique G(p). La v.a.r. X est donc le
rang darrive de la 1e`re boule bleue.
On peut aussi trouver dans la littrature la loi gomtrique valeurs dans
N et elle a pour probabilit lmentaire P (X = k) = (1 p)k p. Dans notre
exemple, cette dernire donne la loi du nombre de boules rouges obtenues
avant lapparition de la 1e`re boule bleue.
e) Loi binomiale ngative
Une v.a.r. X est dite de loi binomiale ngative de paramtres n et p si
elle est valeurs dans D = N et si
n1
P (X = k) = Cn+k1
pn q k , o q = 1 p.
c
Jean-Yves Dauxois
Septembre
2011
38
k
.
k!
On note X P().
Pour donner un exemple, anticipons un peu sur les lois continues. Considrons un lot de machines identiques, aux comportements indpendant et
dont le temps dattente avant larrive dune panne est une exponentielle de
paramtre . On met en marche la premire machine et quand survient la
panne sur celle-ci, on la remplace immdiatement par une autre machine et
ainsi de suite sur un intervalle de temps [0, t]. Le nombre de pannes observes
durant cette priode suit alors une loi de Poisson P(t).
g) Loi hypergomtrique
Une v.a.r. X est dite de loi hypergomtrique de paramtre (n, N, M )
o n, N et M sont des entiers tels que M < N et n N, si elle est valeurs
dans D = N [max(0, n (N M )), min(n, M )] et si
P (X = k) =
k C nk
CM
N M
.
n
CN
c
Jean-Yves Dauxois
Septembre
2011
2.1.3
39
Lois continues
PX ({x}) = 0.
Une v.a.r. (ou sa loi) qui admet une densit est dite absolument continue.
On verra la fin de ce chapitre, dans la partie extension de la notion de
densit, que cette dfinition est quivalente lexistence dune fonction fX
positive et telle que
Z
B BR , PX (B) = P (X B) =
fX (x)dx
B
Ainsi, la fonction f est encore une densit pour X. Toutes les densits sont
donc quivalentes pour cette relation et on appelle densit nimporte quel
lment de cette classe dquivalence.
c
Jean-Yves Dauxois
Septembre
2011
40
f (x)dx = 1.
Proposition 2.1.12 Si fX est continue sur un intervalle [a, b], alors FX est
drivable sur [a, b] et on a fX = FX0 .
Preuve. On a, pour tout x dans lintervalle [a, b] :
Z x
Z a
Z x
FX (x) =
f (u)du =
f (u)du +
f (u)du
c
Jean-Yves Dauxois
Septembre
2011
41
1
l1
b a [a,
On note X U[a, b] .
Sa fonction de rpartition est
0
xa
F (x) =
ba
1
b] (x).
pour x a
pour a x b
pour x b.
La loi uniforme la plus clbre est celle dont le support est lintervalle
[0, 1].
b) Loi normale N (, 2 )
Une v.a.r. X valeurs dans R est dite de loi normale de moyenne et
de variance 2 si elle est absolument continue et admet pour densit
1
(x )2
f (x) =
exp
2 2
2 2
pour x R. La loi N (0, 1) est appele loi normale centre rduite.
Notons le rsultat suivant
si
si
X N (, 2 ) alors
X N (0, 1)
alors
N (0, 1)
+ X N (, 2 ).
c
Jean-Yves Dauxois
Septembre
2011
42
Ainsi, si X N (, 2 ), alors
FX (x) =
.
c) Loi exponentielle
Soit un rel strictement positif. Une v.a.r. X valeurs dans R+
est
dite de loi exponentielle de paramtre si elle est absolument continue et
admet pour densit
f (x) = exl1]0,+[ (x).
On note X E().
Sa fonction de rpartition est :
F (x) = 1 ex ,
pour tout x positif.
d) Loi Gamma
Rappelons en premier lieu lexpression de la fonction Gamma (ou seconde
fonction dEuler) pour tout positif
Z +
() =
eu u1 du.
0
= .
2
Une v.a.r. X valeurs dans R+
est dite de loi Gamma (, ), o et
sont des rels strictement positifs, si elle est absolument continue et admet
pour densit
x 1
f (x) =
e
x l1R+
(x).
()
Les paramtres et sont appels respectivement paramtres de forme et
dchelle. On note X (, ).
Notons que si le paramtre de forme vaut 1, on retrouve une loi exponentielle E().
De plus une loi ( n2 , 12 ) pour n dans N est aussi appele loi du 2 n
dgrs de libert. On note X 2 (n).
c
Jean-Yves Dauxois
Septembre
2011
43
(a, b) =
0
(a)(b)
.
(a + b)
Une v.a.r. X valeurs dans [0, 1] est dite de loi Bta de paramtres a et
b si elle est absolument continue et admet pour densit
f (x) =
1
xa1 (1 x)b1l1[0,1] (x).
(a, b)
On note X B
eta(a, b).
f) Loi de Student
Une v.a.r. X valeurs dans R est dite de loi de Student n degrs de
libert si elle est absolument continue de densit :
n+1
2
1
x2
f (x) =
1
+
n
n( 12 , n2 )
On note X T (n).
g) Loi de Fisher
Une v.a.r. X valeurs dans R+ est dite de loi de Fisher n et m degrs
de libert, si elle est absolument continue de densit :
n
n
m
1
x 2 1
2m 2
f (x) =
n
n+m l1R+ (x)
( n2 , m
(m + nx) 2
2)
c
Jean-Yves Dauxois
Septembre
2011
44
2 x
i) Loi de Cauchy
Une v.a.r. valeurs dans R est dite de loi de Cauchy C(0, 1) si elle est
absolument continue et admet pour densit
f (x) =
1
1
,
1 + x2
pour x R.
2.1.4
Changement de variables
Le problme que lon se propose dtudier dans cette partie est la dtermination de la loi de fonctions dune v.a.r. dont on connat la loi.
Soit donc X une v.a.r. de loi PX et de fonction de rpartition FX . Soit
une application mesurable de R vers R. La v.a.r. Y = X est donc
encore une v.a.r. et on cherche dterminer sa loi.
Une premire mthode, convenant autant aux variables discrtes que
continues, consiste dterminer la fonction de rpartition FY de Y .
On a, pour tout y dans R
FY (y) = P (Y ] , y]) = P ( X ] , y])
= P (X 1 (] , y]) = PX (1 (] , y])).
Voyons deux exemples dapplication de cette mthode.
Exemple 1. Supposons que la v.a.r. X suive une loi N (0, 1) et posons
Y = X 2 . On a :
FY (y) = P (Y y) = P (X 2 y).
On constate dj que lon a : FY (y) = 0 si y 0. Par ailleurs,
FY (y) = P ( y X y)
= P (X y) P (X < y)
= FX ( y) FX ( y),
car la v.a.r. X est continue. De plus , comme cette dernire est absolument
continue sur R et de densit fX continue sur R, sa f.d.r. FX est drivable
c
Jean-Yves Dauxois
Septembre
2011
45
1
1
fX ( y) + fX ( y)
2 y
2 y
1 1/2
1
1
1
y/2
2
e
=
.
y 2 1 ey/2 l1R+
(x)
y
Ainsi, la loi de la v.a.r. Y est une ( 21 , 12 ) et le carr dune loi normale centre
rduite suit une loi du 2 (1). Ce rsultat nous permet galement de prouver
c
Jean-Yves Dauxois
Septembre
2011
46
Preuve. On a :
FY (y) = PX (1 (] , y])) =
Z
fX (x) dx.
{x:(x)y}
Donnons une justification de lapparition de la valeur absolue dans lexpression prcdente. La fonction (1 )0 tant continue, on peut sparer son
domaine en intervalles o elle est positive et en intervalle o elle est ngative.
Sur ces intervalles 1 est donc respectivement croissante et dcroissante.
Dans les intervalles correspondant au premier cas (i.e. (1 )0 0) on a
bien la valeur absolue. Dans le second, o (1 )0 0, comme lordre entre
les bornes de lintervalle est interverti dans le changement de variable, on
retrouve bien la valeur absolue quand on intgre sur un intervalle croissant
pour les u.
2
Exemple. Appliquons cette formule pour le calcul de la densit de la
loi log-normale. On a vu quune v.a.r. X est de loi LN (, 2 ) si la v.a.r.
Y = log X est de loi N (, 2 ). La fonction = exp est clairement un
1 = ln et telle que :
C 1 -diffomorphisme de R dans R+
dinverse
(1 )0 (x) =
1
.
x
c
Jean-Yves Dauxois
Septembre
2011
2.2
47
Vecteurs alatoires
2.2.1
Fonction de rpartition
i, xi
FX (x) = 0
et
lim
i, xi +
FX (x) = 1.
Dfinition 2.2.3 Tout sous vecteur alatoire de dimension strictement infrieure n et extrait du vecteur X est appel variable alatoire marginale.
Ainsi les variables alatoires X1 , . . . , Xn1 et Xn sont chacunes des marginales de X mais (X1 , X2 ) et (X1 , Xn1 ) sont aussi des variables alatoires
marginales, etc...
Proposition 2.2.4 La fonction de rpartition conjointe dun vecteur alatoire X = (X1 , . . . , Xn ) permet de dterminer les fonctions de rpartition de
toutes les marges.
Preuve. On a, pour tout i = 1, . . . , n,
FXi (xi ) =
lim
j6=i, xj +
FX (x) = FX (+, . . . , +, xi , +, . . . , +) .
De mme :
FX1 ,X2 (x1 , x2 ) =
lim
i>2, xi +
FX (x) = FX (x1 , x2 , +, . . . , +)
c
Jean-Yves Dauxois
Septembre
2011
48
PX (n1 , . . . , nm ) =
pour (n1 , . . . , nm ) tels que :
m
X
ni = n.
i=1
Cette loi est, par exemple, utilise pour modliser le tirage avec remise
dans une urne contenant des boules de m couleurs diffrentes en proportion
respective p1 , . . . , pm . Si on effectue n tirages dans cette urne, alors la loi
conjointe du vecteur X = (N1 , . . . , Nm ), o les nombres N1 , . . . , Nm sont les
nombres de boules obtenues pour chaque couleur, est de loi multinomiale de
paramtres (n, p1 , . . . , pm ).
3
2.2.2
Densit de probabilit
49
Rciproquement toute fonction fX dans Rn vrifiant i), ii) et iii) est une
densit de probabilit.
On verra la fin de ce chapitre, dans la partie extension de la notion de
densit, que cette dfinition est quivalente lexistence dune fonction fX
dfinie sur Rn , positive, mesurable et telle que, pour tout borlien B de Rn ,
on ait
Z
fX (x1 , . . . , xn )dx1 dxn
PX (B) = P (X B) =
B
Notons par ailleurs que si la densit fX est continue au point (x01 , . . . , x0n ),
on a :
nF
fX (x01 , . . . , x0n ) =
(x0 , . . . , x0n ).
x1 xn 1
En fait, on peut montrer que cette proprit est toujours vraie sauf sur un
ensemble de mesure de Lebesgue sur Rn nul.
De mme que prcdemment nous avons dtermin les fonctions de rpartitions marginales dun vecteur alatoire, nous allons maintenant voir comment exprimer les densits marginales en fonction de la densit conjointe.
On a, pour tout xi dans R,
PXi (] , xi ]) = P (X R R] , xi ] R R)
Z
fX (u1 , . . . , un )du1 dun
=
R],xi ]R
Z
=
gi (ui )dui ,
],xi ]
Z
fX (u1 , . . . , un )du1 dui1 dui+1 dun .
gi (ui ) =
Rn1
c
Jean-Yves Dauxois
Septembre
2011
50
o
Z
fX (u1 , . . . , un )duk+1 dun .
g(u1 , . . . , uk ) =
Rnk
Comme, par permutation, on peut mettre toutes les marges sous cette forme,
on a montr le rsultat suivant :
Proposition 2.2.7 Si X est un vecteur alatoire absolument continu, tout
vecteur alatoire marginal est galement absolument continu et sa densit est
obtenue en intgrant la densit conjointe de X par rapport aux coordonnes
restantes.
2.2.3
x I : PX ({x}) > 0,
y J : PY ({y}) > 0,
o x = (x1 , . . . , xn )
o y = (y1 , . . . , ym ).
P (Y = y X = x)
P (X = x)
51
Ayant trivialement
P (X Rn ) = P (X A) + P (X A).
et
=
P (X A)
on a
puisque la densit fX est identiquement nulle sur A,
P (X A) = P (X Rn ) = 1.
Ainsi, pour tout x dans A, donc pour PX -presque-tout x dans Rn , on
peut considrer lapplication
Rm R+
y
7 ffZX(x,y)
(x) .
Cette fonction est positive, mesurable et intgrale sur Rm telle que :
Z
Z
1
fZ (x, y)
dy =
fZ (x, y)dy = 1.
fX (x) Rm
Rm fX (x)
Cest donc une densit de probabilit sur (Rm , BRm ).
Dfinition 2.2.9 La fonction
fYX=x :
Rm R+
y
7 ffZX(x,y)
(x)
c
Jean-Yves Dauxois
Septembre
2011
52
2.2.4
Changement de variables
La question que lon se pose dans ce paragraphe est la mme que celle
vue prcdemment en unidimensionnel. Soit X un vecteur alatoire dans Rn
et une application mesurable de Rn vers Rn . On veut dterminer la loi
du vecteur alatoire (X). Rappelons en premier lieu que le jacobien dune
fonction
H:
Rn Rn
x = (x1 , . . . , xn ) 7 H(x) = (h1 (x), h2 (x), . . . , hn (x))
xn
c
Jean-Yves Dauxois
Septembre
2011
2.2.5
53
Indpendance
Soit une famille (Xi )i=1,...,n de variables alatoires valeurs respectivement dans (Ei , Bi )i=1,...,n . Rappelons que la famille (Xi )i=1,...,n est indpendante si, pour toute famille dvnements (Bi )i=1,...,n o Bi appartient Bi
pour tout i, on a :
!
n
n
\
Y
P
{Xi Bi } =
P ({Xi Bi }) ,
i=1
i=1
n
Y
FXi .
i=1
n
Y
fXi (xi ).
i=1
c
Jean-Yves Dauxois
Septembre
2011
54
Preuve.
i) ii) : On a
!
n
n
n
\
Y
Y
FX (x) = P
{Xi xi } =
P ({Xi xi }) =
FXi (xi ).
i=1
i=1
i=1
n
Y
PXi (] , xi ])
i=1
n
Y
FXi .
i=1
Z
=
],x1 ]],xn ]
Z
=
],x1 ]
],xn ]
= P (X1 ] , x1 ]) P (Xn ] , xn ])
et, par dfinition, la famille (Xi )i=1,...,n est donc bien indpendante.
c
Jean-Yves Dauxois
Septembre
2011
55
et V = .
2
2
Le couple (U, V ) est alors form de variables alatoires relles indpendantes
et dont chacune suit une loi N (0, 1).
En effet, puisque les v.a.r. X et Y sont indpendantes et de mme loi
N (0, 1), la densit du couple (X, Y ) est
1
1 2
2
fX,Y (x, y) =
exp (x + y )
2
2
U=
u = x+y
x = u+v
2
2
2
2y
.
y = uv
v = xy
=
u
v
2
2
2
Ainsi le Jacobien de 1 est :
J1 (u, v) =
1
2
1
2
1
2
12
1 1
= = 1.
2 2
56
y = v.
v=y
permet de dterminer lexpression de 1 et den dduire son Jacobien :
1 1
= 1.
J1 (u, v) =
0
1
Ainsi, daprs le thorme du changement de variable, la densit du couple
(U, V ) =v arphi(X, Y ) est :
fU,V (u, v) = fX,Y (1 (u, v)) J1 (u, v) l1Im (u, v)
= fX,Y (u v, v)1
lR2 (u, v).
On peut alors dterminer la densit de la loi marginale de U
Z
fX,Y (u v, v)dv,
fU (u) =
R
pour tout u dans R. De plus, si les variables alatoires X et Y sont indpendantes de densit respective fX et fY , on a :
Z
fX (u v)fY (v)dv,
fX+Y (u) =
R
c
Jean-Yves Dauxois
Septembre
2011
2.3
57
2.3.1
Dfinition 2.3.1 On appelle fonction tage une fonction mesurable f, dfinie sur un espace probabilisable (, A) valeurs dans (R, BR ), ne prenant
quun nombre fini de valeurs (yi )i=1,...,n
On note Ai = f 1 ({yi }). Puisque la fonction f est mesurable, les ensembles Ai sont tous dans A et on crit :
f=
n
X
yil1Ai .
i=1
n
X
yil1Ai .
i=1
Le rel
n
X
yi (Ai )
i=1
n
X
i=1
yil1Ai =
m
X
yjl1Bj
j=1
c
Jean-Yves Dauxois
Septembre
2011
58
alors
n
X
yi (Ai ) =
i=1
m
X
yj (Bj )
j=1
i=1
n
X
yi (A Ai ).
i=1
n
X
xil1Ai
et g =
i=1
m
X
yjl1Bj .
j=1
Les familles (Ai )i=1,...,n et (Bj )j=1,...,m forment chacune des familles densembles disjoints. On peut donc, sans perte de gnralits, supposer quelles
forment chacune une partition de , i.e. quelles vrifient de plus
n
[
i=1
Ai = =
m
[
Bj .
j=1
m
[
(Ai Bj ) et Bj =
j=1
n
[
(Bj Ai ).
i=1
c
Jean-Yves Dauxois
Septembre
2011
59
n X
m
X
(xi + yj )1
lAi Bj
i=1 j=1
n X
m
X
(xi + yj )(Ai Bj )
i=1 j=1
n
X
i=1
m
m
X
X
xi
(Ai Bj ) +
yj
j=1
Z
=
j=1
n
X
!
(Bj Ai )
i=1
Z
f d +
g d.
La dmonstration de lgalit
Z
Z
f d = f d
est vidente.
2) On peut crire g = f + g f o f et g f sont des fonctions de E + .
Par linarit de lintgrale, on a :
Z
Z
Z
g d = f d + (g f )d,
do on tire :
Z
Z
g d
f d.
c
Jean-Yves Dauxois
Septembre
2011
60
f d.
Z
f d =
f d
f d
f est -intgrable
Z
f + d < + et
Z
|f | d < +.
f d < +
c
Jean-Yves Dauxois
Septembre
2011
61
Exemples.
a) Intgrale par rapport une mesure de Dirac
Rappelons que la mesure de Dirac dfinie au point 0 est la probabilit
discrte 0 telle que, pour tout A dans A, on ait :
0 (A) = l1A (0 )
Pour tout vnement A dans la tribu A, la fonction l1A tant trivialement
dans E + , on a :
Z
l1A d0 = 0 (A) = l1A (0 ).
Ainsi, pour toute fonction tage f dans E + dexpression
f=
n
X
yil1Ai ,
i=1
on a :
Z
f d0 =
n
X
yi 0 (Ai ) =
i=1
n
X
yil1Ai (0 ) = f(0 ).
i=1
n+
Supposons enfin que f soit une fonction relle mesurable (de signe quelconque) telle que |f (0 )| < +. On a alors
Z
f + d0 = f + (0 ) < +
et
f d0 = f (0 ) < +.
62
nI
k
X
yil1Ai ,
i=1
on a alors
Z
f d =
k
X
yi (Ai ) =
i=1
k
X
X
nI
yi
i=1
yi
i=1
k
X
pn n (Ai )
nI
pnl1Ai (n )
nI
pn
k
X
yil1Ai (n ) =
i=1
pn f(n ).
nI
on a :
Z
f d =
pn f (n ).
nI
c
Jean-Yves Dauxois
Septembre
2011
63
Daprs ce que lon vient de voir, toute fonction relle mesurable f telle que
X
|f (n)| < +,
n
est -intgrable et
Z
f d =
f (n).
nN
Z
l1]a,b] d = (]a, b]) = b a =
dx.
a
f d =
[a,b]
f (x)dx.
a
Z
f d =
]a,b[
f (x)dx.
a
c
Jean-Yves Dauxois
Septembre
2011
64
Proposition 2.3.8 1) Lensemble des fonctions -intgrables forme un Respace vectoriel et lintgrale par rapport est une forme linaire i.e. pour
toutes fonctions f et g -intgrables et pour tout couple (, ) dans R2 , la
fonction f + g est -intgrable et on a lgalit
Z
Z
Z
(f + g)d = f d + gd.
De mme pour tous vnements A et B disjoints dans A, on a :
Z
Z
Z
f d =
f d +
f d.
AB
2) Monotonie
Si f et g sont deux fonctions telles que f g, on a alors lingalit :
Z
Z
f d gd.
R
En particulier si f est positive alors lintgrale f d lest aussi.
3) Si f et g sont deux fonctions telles que |f | g (donc g est positive)
et g est -intgrable alors f est -intgrable.
4) Si la fonction f est -intgrable, on a lingalit :
Z
Z
f d |f | d.
Preuve. La plupart de ces rsultats sobtiennent facilement. Dmontrons la dernire ingalit. On a
Z
Z
Z
Z
Z
Z
f d = f + d f d f + d + f d = |f | d. 2
c
Jean-Yves Dauxois
Septembre
2011
65
n+
n+
Z
fn d =
f d.
c
Jean-Yves Dauxois
Septembre
2011
66
2.3.2
c
Jean-Yves Dauxois
Septembre
2011
67
P
o les pn sont positifs et tels que
nD pn = 1. Si est la mesure de
dnombrement, i.e.
X
=
n
nN
et x R \ D : f (x) = 0.
nN
Z
=
Z
f l1A d =
fd
A
n
X
Cnk pk (1 p)nk k .
k=0
c
Jean-Yves Dauxois
Septembre
2011
68
Ainsi,
continue par rapport la mesure de dnombrement
PPX est absolument
P
= n n ou = nk=0 k et est de densit :
f (k) = Cnk pk (1 p)nk , pour k = 0, , n
et f (x) = 0, x 6= 0, , n.
Notons que lon a alors :
Z
X
X
PX (A) =
f d =
f (k) =
Cnk pk (1 p)nk
A
2.3.3
kA
kA
Mlange de lois
Soient 1 et 2 deux probabilits sur R. Supposons que 1 soit absolument continue par rapport la mesure de Lebesgue (de densit f ), i.e.
absolument continue au sens vu au dbut du chapitre, et supposons que 2
soit discrte sur D partie de N avec, pour tout n dans D
2 ({n}) = pn ,
i.e. absolument continue par rapport la mesure de dnombrement.
Alors, pour tout dans ]0, 1[, la mesure
P = 1 + (1 )2
est encore une probabilit et, pour tout A dans BR :
Z
Z
Z
P (A) =
l1A dP = l1A d1 + (1 ) l1A d2
Z
X
=
f (x)dx + (1 )
pn .
A
nAD
c
Jean-Yves Dauxois
Septembre
2011
69
2.3.4
fX,Y (x, y)
.
fX (x)
c
Jean-Yves Dauxois
Septembre
2011
70
c
Jean-Yves Dauxois
Septembre
2011
Chapitre 3
Moments de variables
alatoires
71
72
3.1
Cours de Probabilits
Z
XdP =
X()dP (w)
73
+
X
xn .
n=1
|xn |P (X = xn ) < +
n=1
+
X
n=1
n=1
xn P (X = xn ).
74
Cours de Probabilits
Exemples.
* Calculons lesprance dune v.a.r. absolument continue de loi exponentielle. On a :
Z
Z
Z +
EX =
X()dP () =
xdPX (x) =
xex dx
R
0
Z +
du
(2)
1
ueu
=
=
=
0
* Calculons lesprance dune v.a.r. X de loi de Bernoulli B(p). On
a vu que, dans ce cas, D = {0, 1} et la loi de Bernoulli est donc domine
par la mesure de comptage ou de dnombrement sur N, mais aussi, plus
simplement, par la mesure 0 + 1 . On a
Z
Z
Z
EX =
X()dP () =
xdPX (x) =
xf (x)d(0 + 1 )(x)
= 0 f (0) + 1 f (1) = 0 P (X = 0) + 1 P (X = 1) = p.
Notons que le thorme du transport nest pas seulement utile pour nous
aider calculer lesprance dune variable alatoire X dont on connat la loi.
Ainsi, si est une fonction mesurable et X une variable alatoire de loi PX ,
on peut alors calculer lesprance de Y = (X), si celle-ci existe, et cela sans
dterminer la loi de Y . En effet, si est PX -intgrable, on a :
Z
E(Y ) = E((X)) = (x)dPX (x).
Proposition 3.1.3 (Ingalit de Jensen)
Soit une fonction convexe de R vers lui mme et X une v.a.r. telles
que X et (X) soient intgrables. On a alors :
(EX) E((X))
Rappel. Une fonction f de R vers lui mme est dite convexe si, pour tout
couple (x, y) de R2 et pour tout de [0, 1], on a :
f (x + (1 )y) f (x) + (1 )f (y).
Notons, en particulier, quune fonction deux fois drivable dont la drive
seconde est positive est une fonction convexe.
75
Exemple. On peut vrifier que la fonction valeur absolue est une fonction
convexe. Do
|EX| E |X|
3
|X| dP.
3.2
3.2.1
Dfinition 3.2.1 Soit p un rel tel que p 1. On dit quune variable alatoire X appartient lespace Lp (, A, P ) si elle est de puissance p-intgrable,
i.e. si
E |X|p < +.
76
Cours de Probabilits
kXkp = (E |X| )
Z
1/p
|X| dP
kXkp kXkq .
77
et
kX + Y kp kXkp + kY kp .
3.2.2
Espace L2
p
hX, Xi = EX 2 .
78
Cours de Probabilits
Remarque. La proprit iv) montre que lesprance est la projection orthogonale au sens de la norme L2 sur les sous-espaces des variables alatoires
constantes.
Preuve. Soit X une v.a.r. quelconque dans L2 .
i) On a :
Var(X) = E(X EX)2 = E(X 2 2XEX + E2 X)
= EX 2 2EXEX + E2 X = EX 2 E2 X.
ii) Supposons que X soit telle que Var(X) = 0. On a alors les quivalences suivantes :
Var(X) = 0 E(X EX)2 = 0 X EX = 0 p.s. X = EX p.s.
iii) Soit (a, b) un couple dans R2 . On a :
Var(aX + b) = E(aX + b E(aX + b))2
= E(aX + b aEX b)2
= E(a2 (X EX)2 ) = a2 E(X EX)2 = a2 Var(X).
79
et
X EX
X
E |X|
,
c
Var(X)
.
c2
Preuve.
i) Pour une v.a.r. X quelconque dans L1 , on a :
Z
Z
Z
E |X| =
|X| dP =
|X| dP +
|X| dP
|X|<c
|X|c
Z
Z
|X| dP c
dP = cP (|X| c) .
|X|c
|X|c
80
Cours de Probabilits
qui est fini par hypothse. Ainsi, on a bien le i). En supprimant les valeurs
absolues on obtient le ii).
2
3.3
Vecteurs alatoires
3.3.1
Esprance mathmatique
81
EX1
EX = ...
EXn
3.3.2
Dfinition 3.3.2 Soient X et Y deux v.a.r. intgrables telles que leur produit XY soit intgrable. On appelle covariance de X et Y le rel
Cov(X, Y ) = E ((X EX)(Y EY )) .
Remarque.
Y existe et
Preuve. Triviale.
n
X
i=1
!
Xi
n
X
i=1
Var(Xi ) + 2
X
i<j
Cov(Xi , Xj ).
82
Cours de Probabilits
Preuve. i) On peut crire :
Nous attirons lattention du lecteur sur le fait que la rciproque est fausse,
comme le montre le contre-exemple suivant.
Contre-exemple. Soit X une v.a.r. discrte telle que :
P (X = 1) = P (X = 1) =
1
4
1
et P (X = 0) = .
2
1
1
1
+0 +1 =0
4
2
4
et XY = X 3 = X. Ainsi, il vient :
Cov(X, Y ) = EXY EXEY = EX EXEY = 0.
Mais X et Y ne sont pas indpendantes, puisque lon a :
P (X = 1 Y = 0) = 0 6= P (X = 1)P (Y = 0) =
1 1
.
4 2
Corollaire 3.3.6 Si (Xi )i=1,...,n est une famille de v.a.r. dans L2 et indpendantes
!
n
n
X
X
Var
Xi =
Var(Xi ).
i=1
i=1
83
Preuve.
Immdiate en utilisant la proposition de la variance dune
somme de variables alatoires quelconques.
2
Dfinition 3.3.7 Si X et Y sont deux v.a.r. non constantes de L2 , on
appelle coefficient de corrlation linaire de X et de Y, le rel :
Cov(X, Y )
.
X,Y = p
Var(X)Var(Y )
Proposition 3.3.8 Pour toutes v.a.r. X et Y dans L2 non constantes, on
a : X,Y [1, 1].
3.3.3
Matrice de covariance
Dfinition 3.3.9 Soit X = (X1 , . . . , Xn ) un vecteur de v.a.r. tel que chacune de ses composantes est dans L2 (i.e. Xi L2 pour tout i = 1, . . . , n).
On appelle matrice de covariance de X, la matrice X carre dordre n et de
terme gnral Cov(Xi , Xj ).
La matrice X est forcment symtrique et ses termes diagonaux sont les
variances des composantes des vecteurs.
Dfinissons maintenant lesprance dune matrice alatoire. Soit M =
(Yij )i,j une matrice n p alatoire intgrable i.e. chaque terme Yij est une
variable alatoire relle intgrable. On note EM , la matrice (E(Yij ))i,j .
Ainsi, si M 1 et M 2 sont des matrices de mme dimension, on a :
E(M 1 + M 2 ) = EM 1 + EM 2 .
Si A = (aij )i,j est une matrice k n de rels, on a :
E(AM ) = AEM,
o le produit est pris au sens des matrices. Si B = (bij )i,j est une matrice
p q de rels, on a :
EM B = EM B.
Notons enfin que la matrice X peut scrire sous la forme :
X = E (X EX)(X EX)T ,
le vecteur X tant not sous forme dun vecteur colonne.
84
Cours de Probabilits
Proposition 3.3.10 Soit X = (X1 , . . . , Xn ) un vecteur constitu de n variables alatoires dans L2 . Si A est une matrice p n de rels, alors les composantes de Y = AX sont des v.a.r. dans L2 et on a :
EY
= AEX
= AX AT .
2
Preuve. Immdiate.
3.3.4
Esprance conditionnelle
ydPYX=x (y)
R
X=x
PY -intgrable),
yj P (Y = yj /X = xi ).
yj J
Chapitre 4
85
86
Cours de Probabilits
4.1
4.1.1
Transforme de Laplace
Variables alatoires relles
sX
)=
s
+ n
X
n!
sn
n=0
(es 1)
= e ee = e
=e
+
X
(es )n
n=0
< +,
n!
87
pour tout s dans R. La transforme de Laplace dune loi de Poisson est donc
dfinie sur (tout) R.
* Supposons que la v.a.r. X suive une loi binomiale B(n, p). On a :
LX (s) = E(e
sX
)=
n
X
k=0
eu
LX (s) = E(esX ) =
1
()
(
s)
s
+
R
1
,
=
() =
()( s)
1 s
88
Cours de Probabilits
Preuve. Par dfinition, on a :
LX+Y (s) = E(es(X+Y ) ) = E(esX esY ) = E(esX )E(esY ),
puisque lindpendance des v.a.r. X et Y entrane celle des v.a.r. esX et esY .
Tout rel s dans I J assurant que les deux termes de la dernire galit
sont finis, on a bien lexistence de LX+Y sur I J et
2
Nous attirons lattention du lecteur sur le fait que la rciproque est fausse.
Avoir LX+Y (s) = LX (s)LY (s) nimplique pas lindpendance entre X et Y .
Exemple. Supposons que les v.a.r. X et Y soient indpendantes et de
loi respectivement de poisson P() et P(). Daprs le thorme on a donc :
LX+Y (s) = LX (s)LY (s) = e(e
s 1)
s 1)
e(e
s 1)
= e(+)(e
= LP(+) (s).
+ n
X
s
n=1
n!
EX n ,
pour tout s dans ] t, t[, ce qui justifie son appellation comme fonction
gnratrice des moments ;
iii) on a, pour tout entier k positif,
k LX (s)
(k)
EX =
= LX (0).
sk s=0
k
4.1.2
89
Vecteurs alatoires
4.2
4.2.1
Fonction caractristique
Intgrale dune variable alatoire complexe
Z
ZdP =
Z
XdP + i
Y dP = EX + iEY.
90
Cours de Probabilits
4.2.2
Fonction caractristique
eit
+
X
eitk
X (eit )k
k
e = e
k!
k!
k=0
(eit 1)
=e
k=0
* On peut montrer que si une v.a.r. X suit une loi normale N (0, 1), alors
sa fonction caractristique est dfinie pour tout t dans R par :
2 /2
X (t) = et
= e
X (t) = e
2 2
2
it t
t2 2
= exp it
2
.
Pour X = (X1 , . . . , Xn ) un vecteur de Rn , notons X et Xi , respectivement les fonctions caractristiques de X et de Xi . On a alors les rsultats
suivants.
91
|X (t)| X (0) = 1 ;
Xj (tj ) = X (0, . . . , 0, tj , 0, . . . , 0) ;
X (t) = X (t) ;
92
Cours de Probabilits
iv) Admis.
v)
Y (u) = E eihu,Y i = E eihu,AXi eihu,bi
0
= eihu,bi E eihA u,Xi = eihu,bi X (A0 u).
2
Thorme 4.2.5 La fonction caractristique caractrise la loi dune variable alatoire. Autrement dit, si deux variables alatoires ont mme fonction caractristique, elles ont mme loi.
Thorme 4.2.6 Soit une fonction complexe de la variable relle. Si
est intgrable, i.e. si
Z
|(t)| dt < +
R
1
2
(u)eiux du
n
Y
j=1
Xj (tj ).
Chapitre 5
Vecteurs gaussiens
93
94
Cours de Probabilits
5.1
Exemple fondamental
2
m1
1
0
..
EX = m = ... et X =
.
.
2
0
n
mn
Notons que la matrice X est diagonale en raison de lindpendance des
v.a.r. (Xi )i=1,...,n . Comme toutes les variances i sont strictement positives,
on obtient aisment la matrice inverse
1/12
0
..
1
.
.
X =
1/n2
m)
,
X
2
2
det(X )
puisque
(x m)0 1
X (x m)
1/12
= (x1 m1 , . . . , xn mn )
0
=
n
X
i=1
(xi mi )2
.
i2
x1 m1
..
..
.
.
2
1/n
xn mn
0
95
n
Y
Xj (j ).
j=1
X1 ,...,
n
n
X
X
1
2 2
j j
j mj
Xn () = exp i
2
j=1
j=1
1 0
0
= exp i m X .
2
96
5.2
Cours de Probabilits
Dfinition
n
X
i Xi
i=1
est une v.a.r. de loi normale. Autrement dit, si toute combinaison linaire
des composantes de (X1 , . . . , Xn ) est de loi normale.
Si son vecteur des esprances est m et sa matrice de covariance est X ,
on note X Nn (m, X ).
Remarquons que lon peut en particulier en dduire que toutes les composantes du vecteur X sont des v.a.r. de loi normale. En revanche, la
rciproque est fausse. Un vecteur dont toutes les composantes sont de loi
normale, nest pas ncessairement un vecteur gaussien.
La dfinition prcdente implique galement que tout sous vecteur dun
vecteur gaussien est encore un vecteur gaussien.
Proposition 5.2.2 Si X est un vecteur gaussien de vecteur des esprances
m = (m1 , . . . , mn ) et de matrice de covariance X , alors, pour tout dans
Rn , la v.a.r. 0 X = h, Xi est de loi N (0 m, 0 X ).
Preuve.
On utilise dabord le fait que, par dfinition dun vecteur
gaussien, la v.a.r. 0 X est de loi normale. Il ne reste plus qu calculer son
esprance et sa variance. On utilise alors les rsultats vus au chapitre IV,
pour obtenir :
E(0 X) = 0 EX = 0 m
et
0 X
= 0 X .
On peut aussi caractriser un vecteur gaussien par sa fonction caractristique, grce la proposition suivante.
Proposition 5.2.3 Pour quun vecteur X de Rn soit un vecteur gaussien,
il faut et il suffit quil existe un vecteur m de Rn et une matrice symtrique
et positive de dimension n n tels que, pour tout vecteur de Rn , on ait :
1 0
0
X (1 , . . . , n ) = exp i m .
2
Dans ce cas, on a : EX = m et X = .
97
98
Cours de Probabilits
5.3
5.3.1
5.3.2
99
.
..
X =
0
n2
Comme X est un vecteur gaussien de loi Nn (m, X ), chacune de ses composantes Xj , pour j = 1, . . . , n, est de loi normale N (mj , j2 ) et de fonction
caractristique :
1 2 2
Xj (j ) = exp ij mj j j ,
2
pour tout j dans R.
Par ailleurs, la fonction caractristique du vecteur X est, pour tout
dans Rn :
1 0
0
X () = exp i m X
2
n
n
X
X
1
= exp i
j mj
2j j2
2
j=1
j=1
n
X
1
= exp
ij mj 2j j2
2
j=1
n
Y
j=1
1
exp ij mj 2j j2
2
=
n
Y
Xj (j ).
j=1
100
Cours de Probabilits
1
2
et p( = 1) =
1
2
Chapitre 6
Convergences
101
102
6.1
6.1.1
Cours de Probabilits
Convergence en loi
Dfinition
n+
L
g(Xn ) g(X).
6.1.2
Chapitre 6 : Convergences
103
Fn (2) = 0 6= F (2) = 1.
alors
Xn X.
Thorme 6.1.5 (Thorme de Paul Lvy)
1) Si (Xn ) est une suite de variables alatoires dans Rp convergeant en
loi vers une variable alatoire X dans Rp , alors la suite (Xn ) des fonctions caractristiques associe la suite (Xn ) converge en tout point vers la
fonction caractristique X de X, i.e.
L
Xn X
x Rp , Xn (x) X (x).
Xn X,
104
Cours de Probabilits
u0 Xn u0 X.
Rciproquement, supposons que pour tout u dans Rp , on ait
L
u0 Xn u0 X.
Le thorme de Paul Lvy, nous donne alors la convergence
u0 Xn (t) u0 X (t),
pour tout t dans R. Celle-ci prise en t = 1, nous donne :
u0 Xn (1) = Xn (u) X (u) = u0 X (1)
dont on tire, en utilisant la rciproque du thorme de Paul Lvy, la converL
gence Xn X
2
6.1.3
Approximation de lois
o est un rel strictement positif. Si, pour tout n, Xn est une v.a.r. de loi
B(n, pn ), alors (Xn ) converge en loi vers une v.a.r. X de loi de Poisson de
paramtre .
Chapitre 6 : Convergences
105
n+
1 Pn
j=1 zj,1
n
..
zn =
.
.
1 Pn
j=1 zj,p
n
Thorme 6.1.8 (Thorme de la limite centrale multidimensionnel)
Soit (Zn ) une suite de vecteurs alatoires dans (Rp , BRp ), indpendants,
de mme loi de moyenne et de matrice de covariance . On a alors :
L
n(Z n ) Np (0, ).
Pour dmontrer ce thorme nous utiliserons son cas particulier, correspondant au cas unidimensionnel.
Thorme 6.1.9 (Thorme de la limite centrale unidimensionnel)
Soit (Xn ) une suite de v.a.r. indpendantes, dans L2 et de mme loi de
moyenne et de variance 2 . On a alors
! Pn
1 Pn
j=1 Xj
j=1 Xj n L
n
n
=
N (0, 1).
106
Cours de Probabilits
Preuve (du thorme unidimensionnel). Notons
1 Pn
n
n n j=1 Xj
X
(Xj )
n
=
Yn =
j=1
n
X
Uj
j=1
Xj
,
=
,
=
Uj
n
n
j=1
o est la fonction caractristique des v.a.r. Uj . Or, en utilisant les proprits de la fonction caractristique vues au chapitre IV, on a :
0 (0) = i EUj = 0
et
1 00
(0)u2 + u2 (u)
2
u2
+ u2 (u),
2
n
2
2
t
t
t
Yn (t) = 1
+
= 1
2n
n
n
t2
2
+ t2
n
t
n
n
,
Chapitre 6 : Convergences
107
Yn (t) et
Yn X,
2
1 P
0
Xj u
n
j=1
L
n
N (0, 1).
0
u u
Cette convergence peut tre rcrite sous la forme :
n
X
1
L
L
n
Xj u0 N (0, u0 u) u0 n(Z n ) u0 Z,
n
j=1
n(Z n ) Z,
6.2
6.2.1
Convergence en probabilit
Dfinition
108
Cours de Probabilits
On note Xn X.
Remarquons quil est quivalent de dire
lim P (|Xn X| > ) = 0
n+
et
lim P (|Xn X| ) = 1.
n+
lim Var Xn = 0
et
n+
alors
n+
Xn a.
Preuve. Grce lingalit de Bienaym-Tchebychev, on peut crire,
pour tout > 0
E(Xn a)2
.
P (|Xn a| > )
2
Or, on a dj vu que
E(Xn a)2 = Var Xn + (EXn a)2 .
Do :
P (|Xn a| > )
> 0,
P
et donc Xn a.
n+
Chapitre 6 : Convergences
109
1X
P
Xj .
n
j=1
k Xn X k 0, quand n +.
Preuve.
Dmontrons ce rsultat pour la norme suprieure dans Rp .
Supposons en premier lieu que Xn converge en probabilit vers X et notons
Y =|| Xn X ||= max | Xn,i Xi | .
i
De lingalit
{Y > }
p
[
{| Xn,i Xi |> } .
i=1
on tire
P (Y > )
p
X
i=1
P {| Xn,i Xi |> } .
110
Cours de Probabilits
Y 0, quand n +.
Rciproquement, supposons que la v.a.r. Y converge en probabilit vers
0. Ayant, pour tout i = 1, . . . , p,
{| Xn,i Xi |> } {Y > }
et donc
P {| Xn,i Xi |> } P (Y > ),
i = 1, . . . , p
Xn X
et
Yn Y
g(Xn , Yn ) g(X, Y ).
Preuve. Par hypothse et par dfinition de la convergence en probabilit
dun vecteur alatoire, on a la convergence jointe
P
(Xn , Yn ) (X, Y ).
Le thorme de Slutsky (galement vrai pour les vecteurs alatoires) entrane
alors le rsultat.
2
Corollaire 6.2.8 Soit toujours (Xn ) et (Yn ) des suites de v.a.r. Si on a les
convergences :
P
Xn X
et
alors
Yn Y
P
Xn + Yn X + Y,
pour tout dans R, et
P
Xn Yn X Y
Preuve. Immdiate.
Chapitre 6 : Convergences
6.2.2
111
Proposition 6.2.10 Si (Xn ) est une suite de v.a.r. convergeant en loi vers
une constante a dans R, alors elle converge galement en probabilit, i.e.
L
Xn a Xn a.
Preuve. Notons Fn la fonction de rpartition de le v.a.r. Xn , pour tout
n, et F celle de la variable alatoire X dterministe gale a. On a
P (X = a) = 1 et FX (x) = l1[a,+[ (x).
Notons que la fonction F est continue sur R\{a} et que, comme Xn converge
en loi vers X, on a :
lim Fn (x) = F (x),
n+
n+
Xn X
et
Yn a,
112
Cours de Probabilits
Xn + Yn X + a
i)
Xn Yn X a
Xn L X
, si a 6= 0.
Yn
a
ii)
iii)
6.3
6.3.1
Dfinition
Dfinition 6.3.1 On dit que la suite (Xn ) de v.a.r. converge presque srement vers X sil existe un lment A de la tribu A tel que P (A) = 1 et
A :
lim Xn () = X().
n+
On note
p.s.
Xn X.
6.3.2
Chapitre 6 : Convergences
6.3.3
113
la convergence
P
Ym 0,
quand m tend vers +. Or, laide de linclusion
{|Xm X| > } sup |Xn X| > = {Ym > } ,
nm
6.3.4
Thorme 6.3.6 Soit (Xn ) une suite de v.a.r. indpendantes, de mme loi
et dans L1 . Notons lesprance de ces v.a.r. On a alors
n
1X
p.s.
Xn =
Xi .
n
i=1
Notons que lon peut obtenir le mme rsultat sans quil soit ncessaire
que les Xn aient mme loi pour tout n.
Thorme 6.3.7 Soit (Xn ) une suite de v.a.r. indpendantes et dans L2 .
Si
lim EXn =
et si
n+
+
X
n=1
Var Xn
< +,
n2
114
Cours de Probabilits
alors
Xn =
1X
p.s.
Xi .
n
i=1
6.4
Convergence dans Lp
Dfinition 6.4.1 Soit (Xn ) une suite de v.a.r. dans Lp . On dit quelle
converge dans Lp vers une v.a.r. X si
k Xn X kp 0.
n+
L2
Xn X
alors
L1
Xn X.
Proposition 6.4.4 La convergence dans L1 entrane celle en probabilit.
Preuve. Remarquons que lon a :
k Xn X kL1
= E |Xn X |
Z
Z
=
| Xn X | dP +
| Xn X | dP
|Xn X|>
|Xn X|
Z
| Xn X | dP P (| Xn X |> ) .
|Xn X|>
Chapitre 6 : Convergences
115
Proposition 6.4.5 Soit (Xn ) une suite de v.a.r. dans L2 . Sous les hypothses :
lim EXn =
n+
et
lim Var Xn = 0,
n+
X n .
Preuve. Dune part on a, pour tout n :
EX n =
et
n
X
2
1
n
Xi = 2 Var X =
VarX n = 2 Var
n
n
n
i=1
6.5
Rsum
Lq
Lp L2
L1
qp2
&
p L
%
p.s.
Index
Absolue continuit
Densit, 39
marginale, 49
dun vecteur alatoire, 48
conditionnelle, 5051, 69
dune mesure par rapport une
autre, 66
conjointe, 48, 69
dune v.a.r., 39
dune mesure p/r une autre, 66
Alatoire
marginale, 69
(variable), 19
Dcile, 35
(vecteur), 19
Ecart-type, 78
Bayes (formule de), 21
Espace
Beppo-Lvi (thorme de), 65
L1 , 75
Bienaym-Tchebychev (ingalit de),
L2 , 77
79
Lp , 75
fondamental, 8
Centile, 35
mesurable, 10
Changement de variables (formule du)
probabilisable, 10
multidimensionnel, 52
probabilis, 13
unidimensionnel, 45
probabilis produit, 29
Coefficient de corrlation, 83
produit, 27
Convergence
Esprance conditionnelle, 84
dans Lp , 114
Esprance mathmatique
domine (thorme de la), 65
dun vecteur alatoire, 80
en loi, 102
dune v.a.r., 72
en probabilit
de v.a.r., 108
Fonction
de vecteurs alatoires, 109
Bta, 43
monotone (thorme de la), 65
caractristique, 90
presque sre, 112
de rpartition, 32
Covariance
de rpartition conjointe, 47
(matrice de), 83
de rpartition marginale, 47
de deux v.a.r., 81
Gamma, 42
gnratrice des moments, 86
Cramer-Wold (thorme de), 104
116
Index
intgrable p/r une mesure, 60
mesurable, 18
tage, 57
Formule
de Bayes, 21
du changement de variables, 45,
52
Gaussien (vecteur), 96
Hlder (ingalit de), 76
Indpendance
de deux vnements, 22
de tribus, 25
de variables alatoires, 25, 53
mutuelle dvnements, 24
Intgrale
complexe, 89
de Lebesgue, 63
p/r la mesure de Dirac, 61
p/r la mesure de Lebesgue, 63
p/r une mesure, 57
p/r une mesure discrte, 62
par rapport une mesure, 65
Ingalit
de Bienaym-Tchebychev, 79
de Hlder, 76
de Markov, 79
de Minkowski, 77
117
Bta, 43
conditionnelle, 5051
conjointe, 30
continue, 39
de Bernoulli, 36
de Cauchy, 44
de Dirac, 35
de Fisher, 43
de la somme de deux v.a.r., 56
de Poisson, 38
de probabilit, 19
de Student, 43
discrte, 35
du 2 , 42
exponentielle, 42
faible des grands nombres, 109
forte des grands nombres, 113,
115
gamma, 42
gomtrique, 37
hypergomtrique, 38
log-normale, 43
marginale, 30
multinomiale, 48
normale, 41
uniforme, 41
uniforme discrte, 36
Lvy (thorme de), 103
118
de Lebesgue, 17
discrte, 15
Minkowski (ingalit de), 77
Moment
absolu dordre p, 76
centr dordre p, 76
dordre p, 76
Mdiane, 34
Norme
L1 , 75
Lp , 76
Ngligeabilit, 64
Presque (proprit vraie)
partout, 64
srement, 72
Probabilit, 13
conditionnelle, 20
discrte, 16
image, 19
produit, 28
Produit de convolution, 56
Produit scalaire dans L2 , 77
Quantile, 34
Quartile, 35
Slutsky (thorme de), 102, 109
Tchebychev (ingalit de), 79
Transforme de Laplace
dun vecteur, 89
dune v.a.r., 86
Transport (thorme du), 72
Tribu, 9
borlienne, 13
engendre, 12
grossire, 10
produit, 27
trace, 11
Cours de Probabilits
Variable alatoire, 19
absolument continue, 39, 66
complexe, 89
continue, 39
discrte, 19
marginale, 47
relle, 19
Variance, 78
Vecteur gaussien, 96