Professional Documents
Culture Documents
-- t-r,r.r,]l
a: 1l
théorie
des probabilités
en vue des applications
statistiques
,dffifl
,:*- ,,
,tri'[e;Ë
i
t" -l
.',:
o)
6
{)
ffi?
o .$ffiffi
o=
Lo
o.
c
o / .. tj.i.'
f
rll:-9.:l:11 .\
o
.c
(D ,#fr.&TfrIr
E
o
.o .ri'*1H1i*'r
o
a *;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*
af
o-
TUTIONS TECHNIP
-l I
ll'i:
,
,t**jt-"\{ i
':, :'r- Q''|r 3
a u I
I
I
I
I
II
I
I
1l
i- 5l-9.21-:3il TAS ilit
fi
I il
l
I
352
, .r - I r' .- "l f
{,1' ù '') '-' i 't
Théorie
des probabilités
en vue des applications statistiques
Philippe Tassi
Directeur scientifique de Médiamétrie
Professeur à I'ENSPM et à I'ENSAE
Sylvia Legait
Attaché de t'INSEE
Éotnorus rEcHNtp
27, rue Giroux
75737 Paris Cedex 15
@ lgg0. Editions Technip, Paris
et Institut Frmtçais du Pétrole, Rueil-Malmaison
tsBN 2-7108-0582-O
rssN 0758-147X
Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soil
est rigouretnement interdite par les lois en vigueur
AVANT-PROPOS
approche unifiée des probabilités. Nous avons adopté cette démarche car elle
apparaît pédagogiquement intéressante, de par l'unification du langage qu'elle
permet et la portée des propriétés qu'elle engendre.
Dans le troisième chapitre sont regroupés les principaux résultats sur les varia-
bles aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des cas
particuliers de ceux obtenus au chapitre 2.
Le chapitre 4 est important pour le praticien: il fournit les définitions et pro-
priétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applica-
tions. ll donne également les principes des papiersfonctionnels adaptés à la déter-
mination d'une loi de probabilité au vu des données, ainsi que des éléments sur la
génération d'échantillons aléatoires souvent utilisés en simulation.
Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoir
donné une représentation géométrique de certains des outils de la statistique des-
criptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et la
régression.
Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsque
l'on veut connaître la loi d'une somme de variables ou étudier les comportements
asymptotiques : il s'agit de la fonction caractéristique.
Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreu-
ses applications statistiques sont fondées sur des propriétés (aux limites,, autori-
sant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'un
des indices les plus utilisés en statistique est le nornbre des observations: lorsqu'il
est impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorise
l'usage de résultats approximés.
Un certain nombre de compléments et d"approfondissements font l'objet du
chapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance,
existant entre deux lois de probabilités. ou entre des observations et un modèle
théorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.
L'observation de données aléatoires fait parfois apparaître un ordre naturel :
AVANT PROPOS
3
TABLE DES MATIERES
5
Chapitre 1 : LES eONCEPTS pROBAB|L|STES
11
1 Espace probabitisable
12
1 .1 Ëxpérience aléatoire
1.2 Evénement 12
12
2 Propriétés des tribus
13
3 Ouelques tribus particulières
16
3.1 Exemples "...
3.2 Tribu engendrée 16
3.3 Tribu borélienne 16
17
4Probabilité sur un espace probabilisable
18
4.1 Définirion d'une probabiliré
4.2 Propriétés d'une probabilité 18
21
5 Fonction de répartition
22
6 Probabilité conditionnelle, indépendance
d,événernents 23
6.1 Probabilité conditionnelle .
6.2 lndépendance . . 23
6.3 Théorème de Bayes 24
27
Exercices
29
Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON
33
1 La théorie de la mesure : histoire et apport aux probabilités
33
2 Notion de mesure
35
2.1 Déf initions
2.2 Propriétér . ::::' ' ".:: 35
2.3 Meiure.iriin, sii :.:. :::::::.' 37
39
3 Mesurabilité
40
3.1 Application mesurable
3.2 Mesure-image 4A
3.3 Tribu-produit . 43
44
4lntégration ...
46
4. 1 lntégration des fonctions mesurables étagées positives
4.2 lntégration 46
des fonctions mesurablei positives
48
PH TASSI . S. TEGAIT
TABLE DFS MATIERES
PH TASSI S. LEGAII
TABLE D.ES MATIERES
2.4
Loi bêta
2.5
Loi de Gumbel 121
2.6 Loi normale unidimensionnelle 124
2.7 Loi normale multidimensionnelle 124
2.8 Loi log-normale 131
2.9 Loi du khi-deux 135
2.10 Loi de Student 136
2.11 Loi de Fisher-Snedecor 138
140
3 Les papiers fonctionnels
142
3 1 Principe
:.: _,,,,v,r/ç uçù
des pcrpters
papiers fonctionnels
toncltonnels
3.2 txemples de construction de papier fonctionnel 143
3.3 Cas de variables discrètes 143
147
4 Divers
148
4.1 Création de lois de probabilité
4.2 Les coefficients de symétrie et d.ailaiissement 148
srrucrure générâre , ra tamiirËïfànentierre 150
11
4.4 Y:"
Génération d'éôhantillons aléatoires 152
154
Exercices
158
Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES
... 165
1 Espaces de variables aléatoires ' 165
1.1 Les espaces 9, elL. . . _.
1.2 Lesespaces7jett'. --._. ' " 165
1 .3 Les espaces 9É et I
z '' rob
169
Un peu de géométrie
2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : 171
: : : : : :. :. : : :. : : : : 171
2.2 Géométrie dans.L,
174
I
3 ltry"'jmarion.daÀ's L, ....... : :... 175
2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent
180
Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE
185
1 Définition et propriétés d,une fonction caractéristique
185
1.1 Définition ...
1 .2 Propriétés 185
1 3 Un j" i"i'jËii"i;;;, ;;i;' 187
"^".ft"
2 Fonctions caractéristiques 190
des lois de probabilité usuelles 191
2.1 Loi de Dirac ....
2.2 Loi de Bernoulli 191
2.3 Loi binomiale 191
2.4 Loi de Poisson 191
2.5 Loi uniforme continue 191
2.6 Loi gamma 192
2.7 Loi normale 192
2.8 Loi du khi-deux 192
2.9 Loi de Cauchy 192
192
PH TASSI . S. LFGAIT
1
TABLE DFS MATIERES
PH TASSI , S. LEGA]T
TABLE DES MATIFBFS
BIBLIOGRAPHIE . 323
TABLES NUMERIOUES 327
INDEX 355
PH TASSI - S. LEGAIT
1 1
LES CONC EPTS PFOBABILISTES
1 ESPACE PROBABILISABLE
Exemples
a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé
régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }'
b) Soit l'expérience consistant à tirer au hasard un individu dans une popu-
lation de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S!
l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé
d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des
Cff échanti llons potentiels.
1.2 Evénement
ll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)
élémentaires : on peut concevoir sanS difficulté un oévénement complexe> compre-
nant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effec-
tuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est
l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement tel
que *le résultat d'un lancer est pair, est un événement aléatoire complexe, com-
josé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant
I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme
tous les échantillons de taille n contenant l'individu L Cet événement E est donc la
réunion O"s Ci-] échantillons vérifiant cette propriété.
oQtr-'.r4
o A€ ,tC., B€.4+ A)B€.&
cA € .4 + Ae u4 Â désigne le complémentaire de A dans e).
Cependant' dans une structure d'algèbre, la stabilité par réunion
section dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à ou inter-
rfi, une suite crois_
sante d'événements de ,4, c'est-à-dire une suite te'ile que "st
C An*r,de rimite
An
o: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, ou
n
e e; de même pour la limite d'une suite décroissante. cette non-stabilité <aux
Ilimites" a conduir natureilemenr à munir ,4 a'""e sii"cilàê,riu", ou a-argèbre.
Définition 1
Une tribu (ou o-argèbre) sur |espace fondamentar e est une crasse .dl de
parties dee vérifiant ;
o Q€,"r/
o,-4 est stable par complémentation, i.e. :A Ç .4+Ae .&
.,(/ eststable par réunion dénombrable : Ane .il,yn€ lN +
Ona,
n !,*
Le couple &, ,',/7 est apperé espace probabirisabre (on
dit aussr espace mesu-
rable) ; un élément de -4 est un événement.
Propriété I
Une tribu est stable par intersection dénombrable.
En effet, (An)ne ru
étant une suite d'éléments de ''&' on a:
ô An= (uA").
nn
Or UÂ e.& d'après b et c. et (U4) €.& d'après b ; le résultat est établi.
n.n
Propriété 2
Q€.&.
Propriété 3
A,B€ ,'4, avecACB: B-AÇ"'('
Cela découle de B - A : B Ct Â.
Propriété 4
Soit (An)n61*,An € ,&,Vn € lN, une suite d'événements de '4: on définit
timinf À"-: AnetlimsupAn:1n9* An;alorsliminf Anet
I
"!*événem ents de "4'
lim sup An sont des
Théorème 1
soit ,-& une algèbre de parties de Q ; -4 est une tribu sur O si et seulement
si- L& est rn" .i"r." stable par limite monotone
(croissante ou décroissante' au
choix).
Démonstration
o CN:,.4estunetribu. par A la
Soit (An)n une suite croissante d'événements de ''&' et notons
lim/An;onsaitqueA : On, or U An e "{puisque .&estunetribu;
Y
.4, est donc stable par limite croissante'
PH TASSI . S. LEGAIT
LES CONC EPTS PROBABILISTES
:
. to::l. Bn
.
:
réunion finie
_ 9^
m(n
A. i Bn € ,,4 puisque ,_& est une algèbre donc stable par
Démonstration
o ViC l, O € &i - Oe ,-& l
o A€ .4 e Vi€1,
l
&, o Ae -4
Ae,-&i <+Vi, € i
vi e t, (Anl €. &i I
Démonstration
o O' : OnO';comme Ae. ,&, e,e Ga,
o soit c e Gn,; en notant, pour distinguer, par * ra comprémentation par
rapport à O' et par - la complémentation par rapport à O, on a
:
..* - lC : A o o'
A appartena ntà ,4,c* est."nI-A!O'
Soit (Cjn61, une suite d.éléments de 6n; on peut écrire:
cn: An o Q' Pour tout n€ lN
et :
t" : ,Y o",ÔQ' ; uAnc ,'4,doncYa"a Ga,
Y
ll en résulte que la classe G
* est une tribu sur e,.
PH TASSI - S. LEGATT
1 b
LES CONC EPTS PBOBABILISTES
Théorème 4
Considérons une partition finie (A'), i : 1 à n, de f), telle que :
n
: A, = O; la classe .4: {I At te g (11,2,. , n])]
i:f i€l
est une tribu sur O'
Dérnonstration
R
oO:.>.Aieil
l: I
3,I ExemPles
o I : \ A, Alest de façon évidente une tribu, appelée tribu grossière' I
est
la tribu la plus fruste sur O.
.9p., ensemble des parties de o, est également une tribu. appelée tribu
discrète, la plus fine existant sur Q.
o soit A e g@l; 9= {Q, A,A, O } est une tribu sur Q, dite tribu
oengendréen
par A.
PH TASSl S, LEGAIT
16
LES CONC EPTS PROBABILISTES
Définition 2
on appelle tribu engendrée par une crasse G rJe parries de
tribu contenant G-, c'est-à-dire I'intersection de toutes les e ra
prus petite
tribus contenant
G. On ta note o (Gl.
Exemples
o G: [Q]:a(G):tA,A1
o G : {A} avec A + e et A * e : o(Gl :{@.A.À,A}
oG:[Ar,...,An] où I A, :e:
i:1
o(4t,...,An) : {.I. A,, I e gU1, ., n})}
i€t
En effet, o (At,....An) étant une tribu contenant chacun des événe_
ments A, :
ona monrré(théorème4)que{
r Ai.rÇ g({1. .,n})} éraitunetribu;
elle contient chacun des A,. oonc eltJFJn,,"nt la prus petite
des tribus contenant
les A, :
Définition 3
soit Q un espace topologique ; on appelle boréliens les éléments de la tribu
engendrée par la famille O des ouverts de Q :
I : o(Ol
ll est évident que fi est également engendrée par la classe ,9 des fermés de
A; I s'appelle la tribu borélienne.
Eans le cas particulier usuel où O est lR, la tribu borélienne, notée 9l est
engendrée par les diverses classes des intervalles :l* co, x1, l- -, xl, lx, + -1,
1x, + -[, [x, y], [x, yt, ]x, y[. x et y étant deux réels tels
que x < y. La classe des
ouverts { l- -, x[ ] iouera par la suite un rôle privilégié.
De même, sur lRp, la tribu borélienne frP est engendrée, entre autres, par la
classe des pavés ouverts ]- -, xt I x .." x ]- -, xp[.
4 PROBABILITE
SUR UN ESPACE PROBABILISABLE
a) P{O) : 1
1B PH TASSI - S. LEGAIT
tES CONC EPTS PROBABILISTES
p( ; A.) : ; p(A-)
n:1 " r"i:l n'
Définition 5
a) P(Q) = 1
c) Ae .&, Be e,llB: e: p(A+B) : p(A)+p(B)
d) soit une suite d'événements (Anldécroissant uér"
@',ii, \ p (An) : o.
Les conditions c et d portent respectivement les noms d'axiomes
d'additivité, de
continuité monotone. Au plan des notations, I'intersection A O
B de deux événe-
ments sera aussi notée AB.
æ
An: _r- (A.n-Ar*1),
m=n
ce qui implique :
P(An) : p(An.,-A',*r).
_I-
m:n
P (An) est alors le reste d'ordre n de ra série u, - p (A, -Ar*1) eui est
une série convergente car :
u.: P(Ar-Ar*1):
m:I. I -:.
m:1
P(A')
b) Supposons vraies (c) et (d), et soit (Aj une suite d'événements disjoints ;
on note :
A- ; An,Ae-o
n:1
Soit Bn : a A.; par construction, la suite Bn converge en croissant vers
m<n
A, A : lim / Bn. La suite {Bn -
A) converge donc en décroissant vers @ ; I'axiome
(d) implique que P (Bn - A) converge vers O quand r * oo.
D'autre part, si let J sont deux événements de .& tels que lC J, on peut
écrire J : I + (J - l), avec I et J - I disjoints. L'axiome(e) implique que :
'|
æoo
limP(Bn) : >_ p(Am) :p(A) :p(
n m:1 m=1
* f 1R1 : cardinal de A
A
N
Montrons que f est une probabilité sur P, g@l).ll est évident que l'on a :
o f (Q) : 1
91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs dans
t0, 1 l, est bien une probabilité.
Propriété 5
P(@) : 0
Propriété 6
A,Be .4: ACB;alors p(B-A) : p(B)-p(A) > O.
AUB:A+(BoÂ),
B:(BoA)+(BnÂ).
D'après l'axiome (c) :
P(AUB):P(A)+p(BnÂ)
P(B):P(AnB)+p(BnÀ).
En éliminanr p (B n Â;, on obtient le résultar.
Généralisation : formule de poincaré
t'?o"' P(An)
=;
Démonstrafron.'soit (Bn) la suite d'événements définie de la façon
suivante :
ll s'ensuit :
Définition 6
Le triplet (A, ,-4, P) porte le nom d'espace probabilisé.
5 FONEflON DE REPARTITION
Soit P une probabilité définie sur l'espace probabilisable (lR, fr'l; on sait que
fr, contienl en particulier tous les intervalles de type l- -' x[.
Définition 7
On appelle fonction de répartition de P l'application F : lR - tO, 1l définie
Par :
vx € lR, F (x) : P (l- -' x[)
Remargue
On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la
définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de
P ({x}), probabilité de l'événement élémentaire {x}.
Propriété 9
La fonction F est croissante.
Propriété 1O
La fonction F est continue à gauche.
Propriété 11
e lim F (x)= 1
X*+oo.
o lim F (x)= O
x--oo.
Ces résultats proviennent de p (lR)
= 1 et p (el : O.
Remargue
De façon analogue on définirait la fonction_de
répartition d'une probabilité
définie sur lRp. muni
' de sa tribu
trrwuuEverrerlrenrs
d,événements æ ,j7''Pconlenantlespavés(J--,
n
x. x1-- , """;;;'; x,|[
^oti
f (xr, . xo) : P (l-oo, xl [x ... x]--, ;o 1;
6 PROBABILITE CONDITIONNELLE,
IN DEPE N DANCE D'EVENT rVr ÈrVrS
(AiB) : P(AnB)
P
P (B)
PH TASSI - S LEGAII ..
L.ES CONC EPTS PBOBABILISTES
Vérifions que la fonction ainsi définie est bien une probabilité sur Q, *41:
Soit (An) une suite d'événements disjoints. Comme les événements (An n B)
sont aussi disjoints, on a :
: nnn
P (U An,/B)
n P (B) P (B) P (B)
P(AnaB)
:
n P(B) n
Remargue
En écrivant P (B/A), et en tenant compte du fait que P (A Ô B) = P (B n A) par
commutativité, on établit :
nnn
P(.n. An) : PlA,/ et A,).P(A"/ n A').......P(An)
r:r i:2 ' 'i:3
6.2 lndépendance
Définition 9
Deux événements A et B sont dits indépendants si :
P(AnB):P(A) .P(B)
Remargues
o L'indépend3lq" esr une propriété des événements er
o si P (A) et p (B) sont tous d'eux strictemeni de ra probabirité.
poriiil., porturer que A er B sont
indépendants revient à imposer :
Définition 1O
i"i[J:":ii!".Ji"'"
e rarmée des n événemenrs A,, ..., Ao ; ,e est dite
k
o,Air ... rl (Aik) : p (Aii)
,!,
pour tout k, pour toute suite (i1. .... ik)
de (1, ..., n).
Remarques
PH TASSI - S LFGATT
25
LES CONC EPTS PROBABILISTES
Dé{inition 11
Démonstration
P(AnB) : PtA-AnBl: P(A)-P(AnB)
= P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B)
P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB)
- 1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B))
: P (Â)P (B)
Propriété 13
Soit (An)neru* une suite d'événements indépendants; on a :
P( n An) : n P(A")
n€lN* neN* rr
Démonstration
kk :
P( n An) n_P(An)
n:1 " n:l
k- vers
Comme n An est une suite d'événements décroissant Ô
n=1"
An' on a :
n=1 "
koo
P( a A^)\P(
" n An)
"
n:1 n:1
d'oùt :
æt<kæ
n' :
P('n=n A.)lim P( n An) =.lim n. P(An) = n. P(An)
1 k-cê n:1 " k-æ n:1 n= 1
Définition 12 : Généralisation
Soit (Q, .4, el un espace probabitisé et soit
parties de ,*/. Les parties ? 14 i ( n,
{G,, 1 ( i (n} une famiile de
sont indépendantes si :
,,
k
o ,Air ... a Aik) : e tR,)
,! .,
wur Lou| k, pour toute suile (i1, ..., ik) de (1, ..., n) et pour
tout événement A,de
-ijJ
Définition 13
Dans le cas particurier où res G,sontdes sous-tribus
sont indépendantes si
de .4, res G,, l <i<n,
:
Théorème 5
1=.i n} une famiile de parties de .dreile que ,g,soitsrabre
Pjl'_!{t s pourtout ( (
tntersection finie, 1 i n
par
:
P(A/B)
P(B/A) P(A)
- P (B/AI. P(A) + P(B/À). P(À)
Démonstration
ll suffit d'écrire l'événement B sous la forme :
B: (BaA) U (BnA)
d'où :
Généralisation
Soit A.,, Ar, ..., An, n événements formant une partition de Q, tels que
V1 <i(n. F(A,))O:
P (B/Ai) P (Ai)
P (4,,/B) =
n
: P (B/Ai) P (Ai)
j:1
Exemple
On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée.
la seconde a 2 côtés npilen, la troisième est truquée de façon que la probabilité
d'obtenir.pileo soit de 1/4. On tire une pièce au hasard. on la lance et elle donne
"pilen. Ouelle
est la probabilité d'avoir lancé la deuxième pièce ?
1x1/3 4
1/2x1/3+ 1 x1/3+ 1/4x1/3 7
2B PH.TASSI -S LEGAIT
EXEREICES
lndication
n
P (U A,) :2 p (A,)- tr p (A. n A.)+ ... +
i:1 ' '' i<j 'r I
(- l;t'*t > . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a An)
ik) '1
(i1'..., rk'
llr (n-2)
:n ' (n -
n -r:n
e1.Û.n,1 I
+ ... + (- l)k+l çk k) !
i:l ' nl n nl
3) 0n note :
a) Montrer que si p,, ..., pk sont élérnents de K alors Oo',, ',, Oo* sont indépendants.
lndications
Card A
llLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et
I ' n
vérifie:Vi€O P({i}):
n
kkl
PiAi:
'p' -:-= -p
n kp
p {Ao' n ... n Apk} : P (Ao' car les p, sont premiers
oJ
: _
1
k
: n PlAl
. P:'
l- I I
30 PH TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES
$: n À
p
P€K
d'où:
P(B) =?(n)
n =
n
p€K
PtÀIp' :n (1--) 1
p€K p
1
LA THEORIE DE LA MESURE :
HISTOIRE ET APPORT AUX PROBABILITES
Les fondements de ra probabirité mathématique présentés
au chapitre précé_
dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement
ni les débuts
de cette science. Les premiers écrits sur le calcul des probabilités
semblent remon-
ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre
cohérent de
concepts probabilistes, reprenant nombre de résultats obtenus par Blaise pascal et
Pierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn"
variabre aréa_
toire prenant ses valeurs sur un nombre fini de points.
Le 18" siècle est marqué par la contribution de la famille Bernoulli
Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, -Jacques,
publié en
1718 énonce la loi des grands nombres. En 1733, de Moivre"oni""tandi,
obiient la loi normale
(ainsi qu'elle sera dénommée bien plus tard par poincaré)
en approfondissant les
calculs de la loi des grands nombres et en utirisant |approximation
asympotique de
n ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra première
forme du théorème central limite. Autre personnalité importaîte pierre
: Simon de
Laplace; commencés en 1778, ses travàux servent de référence jusqu'à
ra fin du
19" siècle et au début du 20' siècle.
2 NOTION DE MESURE
2.', Définitions
Définition 1
tr(;_A^)n' :; p(A-)
n=1 n=1 ' '"n'
Remargues
Définition 2
Le triplet (o, 'i/, !r) est appelé espace mesuré (ou probabilisé si g
probabitité). est une
Une autre définition de la mesure peut
être donnée
Définition 3
soit (Q' '''/y un espace mesurabre. une
apprication lr défini e sur .4à vareurs
dans lR*, non identiqu"r"nreô"i"'à-+ *,
est une mesure si ;
1) g est addirive
De plus, si An 1 A, alors;
et donc :
b) Réciproque :
c'est-à-dire' :
,irn r s r*1,, ont /(uAk)
nn :
1l(U Au) I_P(An)
k:1 ^ k=1
et. en passant à la limite :
: p (u Ak)
n!' '(Ar.)
PH. TASSI - S. LEGAIT
36
PFUUAUTLl' L \ltSuRL TNTFGFAIIO\
Définition 4
g(cD Pestuneprobabilité.
Exemple
ô,,(A)=1siar€A
V A€.4,
ô, (A)-f si u É A
ô, est une mesure (c'est même une probabilité).
dite mesure de Dhac au point ar.
Définition S
@ V A e,,4,
s(A) :Ér(AOl) = : p({ull
al€Aôl
o on dit que 1, est concentrée sur r.
2.2 Propriétés
Propriété 1
Propriété 2
Propriété 3
ACB + ll(A)( s (B).
Propriété 4
s(UAn) (Ig(An).
nn
Propriété 5
soit (An) suite décroissante d'éléments de ,4 de limite A ; on suppose qu',il
existek'telque p(An) . + -.Alors lim\g(An) : l(A)'
En effet, Vn ) 1, (Ar - An)/ (Ak - A).
ll s'ensuit :
rr (Ak - An) / p (An - Al
+ s(A*) - p(An) / 1t(Anl - lt(A)
æ
: Am'
'u('n.'':1 ):I Ànqn (IAr)
n " " m
nm
- t : Ànln (An.')
mn
: I p (A.).
m
En particulier, si (Pn) est une suite de probabilités sur (o,,-41 et si2 n:,1,,
^n^ :.'
alors p: LÀ^ P^ est une probabilité sur @, ,,4\ Cette propriété permettra la
Iàî.tir"ti* o"''tnisuiàs ou oË pronabilités.
PF], .IASSI , S. LEIGAIT
PROBABITITE, MESURE, INTEGRATION
. };t: A,,47 un espace mesurabre ter que -4. estengendrée par une famiile
17 de parries .ç( - mesurabtes de e,
stàote pur. intàrrËiion tini".
o si g et v sont deux mesures a-finies sur (e. ,,4) co:incidant sur G, arors
elles coincident su( ,,4.
En particulier, si deux mesures finies sur (lR, &) co'incident sur les intervalles,
alors elles sont égales.
a) Mesure de Lebesgue
On appelle mesure de Lebesgue sur (lR, fr.y la mesure i définie par :
Propriétés
1) .à est a-finie :
tR: 9_ln,n+11et,tr'n,n+tl) : i
n€Z
2) Y aC lR,,À ({aJ) : O donc,À est une mesurecontinue.
3) Va, b, .à (la, bl) : ,a (ta, bl) = ,i fla, b[) : i (ta, b]y.
Remarque
b) Mesure de comptag"
* *
On définit sur (lN, g lNll l'ètre p" : : . 6x masse de Dirac en x,
ôx'
x:o
xC lN . gc est une mesure d'après la propriété 6. Si A €g
(N ), gc (A) est égal
au nombre d'éléments de A. La mesure p^ s'appelle la mèsure de comptage. C'est
une mesure discrète sur (lR, frl puisque boncentrée sur lN.
3 MESURABILITE
Propnélé 7
Soit A C O : A e ,4'e 1o est mesurable de lA, ,'&) dans (lR, g,L
Démonstration
Soit A e ,,&.Montronsque loestmesurable. SoftBe &:
oSi BcontientOetl 1;1 (B) :Qe .&
o Si B ne contient ni 1O ni l;t (B) : Q e .4
r Si B contient O er pas 1 l;t te) : A e .4
o Si B contient 1 et pas 0 1;1 {B) : A € .4
DoncVB e &,1;1 (B) e ,,4 et 1o estmesurable.Réciproquement:si loest
mesurable, alors 111 ({1}} : A e -4..
o Réciproquemenr : si f-' ( G,) C,4, o g-i ( ç6,)l C,-4, donc f1 1,,4,y c,4
(propriéré 8). f est mesurable.
Exemple
aoolication f : (o, .r/7
!1e(J *, - 1n, â) est mesurable si et seutement si v a € tR,
1 - all est ./-mesurabre. En effet ,4 est engendrée par ra crasse des
intervalles l--,a1.
Théorème 2
Soit Q et Q' deux es^paces topologiques, ,-4 et ,,&, leurs tribus boréliennes.
Touteapplicationf :O - O'contiÀue est mesurable.
Démonstration
On note / l'ensemble des ouverts de O et O' l'ensemble des ouverts de O' :
Démonstration
a(gof) - (gof)-' G&"1 : f-l [g-t (4"11: f-l (e,(S))
Si f et g sont mesurables s" k&"1 C .&' et ï1 G4'l C .4, donc (sofl-1 G.4"1
c f1 G'{') C .4' et gof est mesurable.
Propriété 1O : Critère de mesurabilité
Soit (Ei, ,/),1, i € l, une famille d'espaces mesurables et (f i)i€, des fonctions
de Q'dans E. On munit Q'de la tribu engendrée par les (fi). i € l, c'est-à-dire
de a p us o"n"I?":ïH,lËï.:":,il;:l:l.ul,
I I
i€l
f : (A, .47 - @', "4'l est mesurable <+ Vi€ l, f of est mesurable.
Démonstration
Vi e l, f of est mesurabte <+ Vi € I (f of)-x (fi il C .&
o .9. (f , of)-1 ç4 il C .d
tel
<+ f-' [ !,
[' ç4 ill c -4
i€t
e ol'f-'',!, [' Ftgil]l c '4
<+f-' [a( !. q' çni)l] c,t{
iel l
o 11 ç&'7 c '4'
<+ f est mesurable.
Théorème 4
Notations
o si (o" ,r/r : (rR, &7,X est une variabre aréatoire réeile,
ou unidimensionneile,
ou univariée (v.a.r.)
o Si (O', ."1'l : (R", 9."1, X est une variable aléatoire
n_dimensionnelle, ou
n-variée, ou un vecteur aléatoire de dimension n
o si(Q', ,rl') esttout ou partie de (2, g1zy,X est une v.a.r.
discrète.
3.2 Mesure-image
soient @, f une apprication mesurabre
dans ') un espace mesuré,
(o" ,/'t. oo'4'oerinit J l'", k; i"{,"--''-" " 'vi
de (o, .4r
""àï""ii""
V A' € .&', pf (A') : p{f-, (A,)}
gf est une mesure sur .4;,dite mesure-image depparf. En effet:
c pl a un sens puisque t-1 (A,,) e .4
. pf est à valeurs dans IR* par construction
o Soit (A'n) une suite disjointe d,événem ents de .d,
sr (:A'J : p{f-1 (:A.n)}
: tt{> f-1 (A,n)}
:zp{f_1 (A.n)}
PH TASST - S LFGA|T
43
PROBABILITE, MESURE, INTEGRATION
Définition 1O
,,4' ) un espace probabilisable,
o Soient @, ,,4, P) un espace probabilisé , @', (O',
X une v.a. définie sur (Q' .4'1à valeurs dans ''4'l
par X
o on appelle loi de probabilité de la v.a. X la probabilité image de P
notée Px.
V A, e .4;, px (A') : p (X-1 (A'))
Notations
X-t (R') : {u € A / x(ar) € A'} : {X € A'}
o On écrira souvent :
3.3 Tribu-Produit
Définition 11
o Soient (O, .&i), i € l, (l quelconque inclus dans lN), des espaces mesurables.
o La tribu-produit des ,,4 , notée @ &, est la tribu engendrée par les (pn ),
iel. ' icl
@ il. : o ( l) ,-'
..l 1..0(,ll
i€l ' i€l
Alors :
A ,,4.=o ('l(i(n
n e,l
l(i(n '
' En particulier :
@ ,-4.: o ( n ,,4.1
1(i(n ' l(i(n t'
Démonstration
Soit :
n
A e Gi,,I. A, : p; (Ai) . -,
,*2n ,*T*n
donc :
n
n G,C
" a ,-{.
i:1 1=<i(n I
oou:
n
o( n G) C a ,,4
i:l 1(i(n I
n
p-; G{t) C o ( n 61
"i ' t'
i:1
Vi:1àn.VA.€G..oi,te1
I r :Ai X.l.O, e o( nn G,)
, )rt i:1 |
donc:
n
,.i lG,), C o (.i:n c1
o-l
1
'etn
p-; ç4à) - oâ, @(G)t - s(nrli rc1 c r t,!. c,
t- |
donc: n
8 &i: o (,8, o-l t-d,ll . " ,,!., G,l
PH. TASSI - S, LEGAIT
PROBABILITF, MESURE, INTEGRATION
corallaire
g n.
g.e g,: fr'z el A fi'ni- fi:1
1<i<d
Théorème 6 : Mesurabilité des applications à valeurs dans un espace produit
Une application f : (O,.&) * (fl Qi, .9,il),, - (fi (ar))ie r est mesurable
iet
si et seulement si V i € I f. est mesurable.
ll suff it d'appliquer la propriété 10 aux fonctions pn.
4 INTEGRATION
Définition 12
On appelle fonctiotr étagée une fonction mesurable f définie sur :(O, ,4 a
valeurs dans (lR, fr.1, ne prenant qu'un nombre fini de valeurs x,, i 1 à n.
Notations
Soit : n
Ai : f-l ({x,})' A' e -4 ' f : ,-r. 1o,
I- ^' |
Définition 13
Soit :
On définit :
Remargues
1)Si A €,,4, p(A) : ! 1a dp
2) On fait la convention 0 X (+
-) - O
fl ryl
3) si f =,1', "' to' :,1., uj lri
:
x, l(A,) - :yj l(B,). cequi donne un sens à ta notation
1t-1rs
définition est intrinsèque au s'ens où elle ne dépend pas
I I a a,dont ta
pour f. de la spécification choisie
n
4) Onnote J fdp: ! 1ofd1t:,:r,, x, l(A, O A)
Propriété 11
,r. A, = Q:
l:l j:1 I
A, :
' i:1 J :-r I I
J-r t-t
d'où :
nm
f +g: (x,+Y;) oo, n t,
i:1 j:1
or:
"i(s-ïdtt2O
d'où
J sdtl21ldp
Exempte: On munit (lR, g'l de la mesure de Lebesgue i'
Soit n
:
alors :
Définition 14
Soit f une fonction mesurable positive.
soit (fn), n € IN. une suite croissante de fonctions de teile que rim l tne ,.1(,*
"lt
alorsJlim lfndg = lim I! fnd1t.
En particulier, d'après le théorème 7, si f e
f: lim 1 fn alors :
,,/(,*, I (fn)ne
ru
e g*,croissante,
Propriétés 12
1)Vf e ,/(*, g€ "(/,., l(f+g) dp:ltdp+lgfp
V.À e R. J (nll dp: À I tdp
2)îe "4L*, ge,tr,, f ( g + [ fdp( .1" sd1,r
Propriété 13
r;n:O r^
n dtt: ; lr-art
'n -r
n=O "
cette propriété est une apprication directe du théorème g de Beppo-Levi
à ra
suite de fonctions croissantes :
n
9n: : f-p
p:o
Lemme de Fatou
Si (fn)ne est une suite de fonctions mesurables positives alors
rru :
et:
J (tim inf fn) dp ( tim inf (,ifn ds)
PH TASSI - S LEGAIT
49
PROBABILITE, MESURF, INTEGFATION
Démonstration
Par application du théorème 8 (Beppo-Levi),
4.3 Fonctionsintégrables
Définition 15
soit f une fonction mesurable définie sur (o. ,,41à valeurs dans B, fr.|. on
définit les fonctions :
f* = f .i{rro}
et:
f_ _ _f .l{r*o}
f* et f
- sont mesurables puisque les ensembles {f } 0} et {f < 0} sont
,/-mesurableset f : f* - f-.
f est dite intégrable (ou g-intégrable) si :
11*dg<+oôetJf-dp1+æ
onPosealors:
Itatt: îr* dp- Jr att
Définition 16
f mesurableestintégrablesi J ltl dg < + æ'
En remarquant que lfl : f* + f-, on r;1on[;" que les deux définitions sont
équivalentes.
Propriété 14
On note î (O, ,,&,g) l'ensemble des fonctions intégrables définies sur lQ, ,'41.
@,
1, ,'4,11) est un espace vectoriel sur lR et la fonction de 'C (O, "4, p) dans lR'
f* I Idp est une fonction linéaire'
PH TASSI - S. LEGAIT
PROBABITITE, MESURE, INTEGRATION
Définition 17
SoitX:(A,.,4, p) - !n,8,y unev.a. p_intégrabte(i.e.
on appelle espérance de X la quantité -i lXl dp < +*) .
E(X) : -lXoP
ll suffitderemarquerquef* ( g et f- ( S donc:
et: I f* dp ( -f sd1r ( +oo
J {- dp ( "i gdrr ( +æ
Propriété 16
Sif est intégrabte,ll +apl < "i ltl ap.
En effet :
!(t+lg)'dtt>o
Propriété 18
Soit f une fonction mesurable intégrable ;
Démonstration
J lrl os : Jrl,lrur lfl ds + J1lrl<ar lfl ds >'l rlrl>ut lfl
dtt
d'où
dp: ap({lfl > a})
:
Démonstration
llsuffitd'utiliserlapropriétél8avecf : (X-E(X))', a: €2 et g: P'
intégrables; alors :
É {P(x))> P (E(x))
4"5 Généralisation
Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;
ll .ll désigne une norme sur lRn (toutes les normes sont, rappelons-le, équivalentes)'
llfll ds ( +oo
"l
\
o UnebasedelRnayantétéchoisie.onécrit f
: (f,), i: 1 à n;alors:
I f dtt: (J fidp) (i : 1 à n)
o X: (Q, .il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées (X')'
i:1 àn:
/*'\
l\
X:l
\1
\x I n,/
I
\
52
PH- TASSI S, LEGAIT
PROBABILITF, ]\IESURF, lNTEGRATION
J x., on\
('" \
E(X) :
I
I
\. ,,", I x"ae
1
4.6 Exemples
a) lntégration par rapport à une mesure discrète
Soit un espace /) ret que g est discrète, c.est_à_dire
T":yr.é LO, {
brable, élément de ay', VAe -d,
, f I dénom_
s(A) : : p({a})
ar€Atll
Alors :
F": : ô-n
n:O
Une fonction mesurable réelle f est /c_intégrable si :
I rdp": i- ,,n,
- n:o
b) lntégration pat rapport à ta mesure de Lebesgue sur (lR, fr)
on peut montrer que si une fonction f est intégrabre au sens de Riemann
un intervalle sur
b],
Ia, arors f est intégrabre par rapport à ra ,.nesure de Lebesgue
et :
PH TASSI - S. LEGAIT
53
PROBABILITF. MESUFE, lNTEGRATION
.. IdÀ:
J,lir,'l- J!t1^1 or: lim ,i3tl^t o*
:r|,
5 NEGLIGEABILITE
5.1 Définitions
Soit (Q, .&, pl un espace mesuré.
Définition 18
Un ensembleAest ditg-négligeablesi f Be ,t4, AC B et,t,r(B) : 0.
Définition 19
une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p.p.) si
I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable.
Définition 2O
Une fonction mesurable réelle estp-négligeable si :
{ol Î(ul + o}
est g-négligeable, i.e.
tt{ul Î(al * 0} : 0
Remargue
Dans le cadre d'un espace probabilisé P,,,4, P), on emploie le qualificatif npres-
que sûrement" (p.s.).
Propriété 21
soient f et g deux fonctions mesurabres. on définit la reration * par *
f: g /r-p.p. c'est une relation d'équivaience sur l,ensemble f g si
des fonctions
mesurables.
Propriété 22
5.2 Propriétés
Propriété 23
soit f une fonction mesurabre réeile intégrabre définie sur (o, &, pr.Arors f
est finie g-p.p.
Démonstration
On suppose que f) O.
Soit:M: :1*1.
{c.rlf (ar)
Vn ) 1 ng(M) : .[n1* dp < lldp( +oo
car :
nlt ( f
d'où:
p(M) : o
Pour une fonction intégrabrequerconque, I : f*
les deux ensembles :
- f-, ir suffit de considérer
M* : trl f' (c.r): + -1
et
M- - {arl f- (ar) : + oo1
Propriélé 24
1) Sif €,/(.*, J,tdp : O e> f: O g-p.p.
orsi 0 ( h ( f:
.. f : O g-p.p. + h : O /-p.p. + Jhdp : Q
d'où
Jfdg :
:
o
Réciproquement, si Jfdp: O:
Vn)1o<ttLf>tI:-f r dlt(nJfdP
n tr< rt,
n
donc: Vn ) 1 p lI )-l:
1
o
d'où: f :O P-P.P.
PH TASSI S. LEGA]T
PROBABILITF, N/ESURE, INTEGRAIION
Propriétés 2S
t, f et g deux apptications mesurabtes positirres, teiles
que f : g Ér_p.p.;
:,""'rïl
Jtap: jsdp
2) Soit f intégrabre, g mesurabre. teiles gue f : g p-p.B. Arors g est intégrâbre,
etJgds jfdi. =
3) Sip est o-f inie,
f: g s_p.p. <+ VA € ,* la tdp :
f, sal
Démonstration
1) Soit A: {f + s}, p (A) : O
I tap: lotau + IUtau: lUtau:.! sdr:.f, odr + sdr : gdrt
fi J
2) llsuffitdeposer f = fn f- et g: g* _ g
- erd,appliquerl).
3) f : gp-p.p. è VA e ,t( lo.f : 1A.g
/./_p.p.
- lotau: .f, odl d'après2)
Réciproquemenr : VA
=
, lO ldp : 1O OdU.
t 't : 9l
urn, ti>nJ P-P'P'
PH TASSI S. LEGAIT
57
PROBABILITE, MESURE, INTEGRATION
i
ro ror Lnlr>n]
rdP
L oou
et il s'agit de montrer que F : G lJ-p.p-
Supposonsdoncque f 2 S : g étanta-finie :
où:
tt'n gÎ'n ) o
d'où:
f :g p-p.p.
Définition 21
soit (ô, unespace mesuré etf €
v:.r/ *"{tp
lR'par: "r(,* @,-{,É/).on définit |apprication
: ; Jl^ fdp:rv(A)n'
n:o ^n n
d'après la propriété 13.
Remarques
1) Sif : I' p-p.p., VA C ,lOfdp = lOfaU doncyestdéfinieparune
classe d'équivalence de densités, égales g_p.p.
Notation
dv
fe
dp
2l si f est intégrabre, on peut de cette façon engendrer une probabirité sur
@,.r/l en écrivant:
vA e .4 p(A) = +#
PH. TASSI - S, LEGAIT
59
PROBABILITE, MESURF, INTEGRATION
ExemPle
v:oe-exl,p-(x) .i
est une probabilité sur (lR, fr'1ae densité :
Théorème 1O
Soit g une fonction mesurable;
g esiv-intégrable <+ gf est g-intégrable ; on a alors :
o Sig : g* - g-
sestv-intésrable e o
irn_ o, < * _ lrn- rou < + oo
<+ gf estg-intégrable
Théorème 11
Soit v une mesure de densité f par rapport à trr'
,s(A) :0 + Y(A)
: O
D'après la proPriété 24.31:
g(A) :O-lOldg:v(A) :O
PH' TASSI - S. LEGAIT
60
PFOBABILITF, MÊSURE, INTEGRATION
Définition 22
Une mesure v quelconque sur (O, ,.r4) est dite absolument
continue au sens
faible par rapport à une mesure l.{ sur (A,,,Ol
: "i:
VA € &, p(A) O =+ v(A) : O
On notera v < p Ur domine u).
v:f.!+v'
7 INTEGRATION
PAR RAPPORT A UNE MESURE-IMAGE
Soit un espace mesuré @,.d, p), etlt une application mesurable
:
e,.tll - 1c:,.e)
PH TASSI - S LEGAIT
61
PROBABILITE, IVESURE, INTEGRATION
en outre
@,:.4,) - (lR, fr'1 est intégrable par rapport à lr ;
:
I tapt:3 foTdg
o'o
Démonstration
oSi f e 6* n
f:,Ir*, 1o,A,e.z/'
l:l
n
.l-OfoTOg : J : X'"'l1o. oT dg
O i:1
:; xl 1^oTdP
i:1 r-o Ai
n
: *, ln t1r-'{n;)} d/
,It
n
: ; x, Érlr-t (Ai)l
l'- = r *,i gT(A,)I : -l-
o'
fdgr
,=t
Application
SoitXunev.a.de(Q,.'4,Pldans(1R,8'l,etguneapplicationmesurable:
j ffn,-'&.1. Ani" goX est p-intégrable si et seulement si g est
i,^,' n)
Px-intégrable; on a alors :
En particulier :
o si Px < À (,r mesure de Lebesgue sur rR). pX admet une densité f par
rapportàÀet:
+æ
E(X) : ltfdp":
' x:O x
Exemples
1) Une v.a.r X est dite suivre une loi de poisson si :
*æ
px- : e-.À ^x ô
x:0 x! x
ni À':À
E(X) :-itop*: xe-i
x:O x!
2) Si px : e-" l,r_ (x) .,1 :
PH TASSI - S LEGAIT
63
PROBABILITE, MESURF, INTEGRATION
1
J (T-') -
J {T)
Corollaire
Soit g une mesure admettant une densité I pt' U r^gPport à^1 g" n
: F 19(l ; aloré
(gl ouvert de lRn). et soir T un difféomorphirt" de fr sur ^
trrT admet une densité
par rapport à i n donnée par :
Pr : 1 s/.lJ(T-'\l foT-'' Àn
8
INTEGRATION
PAR RAPPORT A UNE MESURE.PRODUIT
8.1 Mesure-Produit
Théorème 16
l}r &i, lr,) n esPaces mesurés (i : 1 à n) tels gue li
Soient
a-finies'
On note' n
n :o,
,!,, "'
=
n
*
,9,''
ll existe une unique mesure / appelée mesure-produit sur @, ,-o\telle que :
,11nn
VA
-''i :
€,,4,,p : n lr(A,)
,' '- 'i-1 A,)
'' i:1 '
Notation
lJ: A Fi
1(i(n
Théorème 17
: 2, la mesure-produit g est définie par
Si n :
où:
or., : {^z € Qr/ (c't' o,rr) e A}
Remarques
t' on no," F,1 I'application de O, dans ()1 X f)2 : u2 * @,, ur), po,t est
,d. r-mesurable puisque ses 2 composantes le sont (théorème 6).
On lAot : 1A o Fr,, donc tor, uut .rlr-mesurable et par là-même o.r= &r.
"
2) SiA: At X Az A, e &r,A2e .il2
o,' : A, si a'r, € A',
f
d'où :
lO"':@si ,r/e,
s(A) : ,n, u, (A,,,) dt,, : p2 (A2l dttl p2 (A2l p1 (A1)
L.,
Exemple : Mesure de Lebesgue
8.2 lntégration
Théorème 18 (Fubini)
Ona:
tn' : tn., ttn, * @,, url dttrl 61tt
* nr*ou
: tn, ttn1 * 1u| url dtt,tl dP2
Remargue
LorsqueX : 1o avec A e .41 Lt42
to dlt : lt (A) : Jn,, tt' (A'rl dtt'
* nr
'n.,
: tn' t\ 1a,., drzJ dP, : fo' [Jn, ln dPz] dttt
Exemple
Soit (X, Y) un couple de v.a.r. de densité f par rapport à i, : p(x' Y) : f i,
E (XY) : Jn xvoe : J J,*, xydp(x'
Y): J J,*, xv f (x, v) dx dv
2'l Soit
lA' e' g) un espace mesuré, f une fonction réelle définie sur O 1u-négligeable et g une
fonction réelle quelconque. Montrer que fg est g_négligeable.
lndication
{u/f (u) s(al + 0} C {u/r@l + 0}
2'2 0n appelle fonction de répartition sur lR. toute fonction de lR dans lR croissante
au sens large et
continue à gauche.
Montrer qu'il existe une biiection entre l'ensemble des mesures g finies
sur lB et l'ensemble des
fonctions de répartition définies à une c0nstante additive près.
0uelle est la fonction de répartition
conespondant à la mesure de Lebesgue,.À ?
lndication
2.4 Soit @, ,-4, glun espace mesuré, (fn)n>t une suile de fonctions réelles positives intégrables
vérifiant :
f- f p-p.p.
Ir
--->
n-co
!lndtt' lrdp
où f est positive et intégrable.
.. -f(f-f-)'dg-.
r' n**
o
et:
(f -fn)* - o g-p,p.
donc :
-l(r-rJ* dp * o
d'après le théorème L
lim .+ æ n2 , x'
n*oôJa .'_l "-n2 dx (a>o)
lndication
oo n2 * r-n'xz ,
Jf+
a ---- dx: l*- [,e-u'
^ J na ---------- du
1+x2 uz
l+
n-
f+ æ u g-u'
- Jg " -----2 -
1-lna'+æ1. {u} du
1+ +
n
Soit :
2
u e-u
fn (u) : ltnr, * *1(r)
,z
1+ --^
nz
lorsque n * -, 1[nr, *_J (u) - 0,
donc :
fn(u)-0
0r:
donc:
rim Jf, (u) du : o
n-æ
Définition 2
on appelle loi de probabirité de la v.a. X ra probabirité image de p par X, notée
Px, définie sur (O'. &,1,
VA, € ,,4.,, px(A,) : p(X_l (A,)) : p{X€A,}
Langage et notations
Si (O', ,,&'l est (tR, g,) (resp. ( tïp, &pD, X est une v.a. réeile, notée v.a.r.
(resp. vecteur aléatoire de dimension p).
o Ayant muni (rR, &) (resp. ( rïp, g,p}), de ra mesure de Lebesgue i, (resp.
'10), une.,v.a.r. (resp. vecteur aréatoire) sera dite absorument continue si px<<,À
io) ; on dira, de façon usueile er par abus de rangage que x est
fffi"jj "
o Les lettres rondes désigneront I'espace des valeurs prises par la variable ;
Remargue: Dans la pratique statistique. il est parfois difficile d'avoir des obser-
vationS d'une v.a. continue, et on Sera Souvent amené à la
odiscrétiSer' AinSi les
démographes utilisent des classes d'âge, les économistes des tranches de revenus,
etc.
un
Dans la Suite, et sauf mentioh expresse, les v.a. seront toutes définies sur
même espace Q,,4,P\.
1
CARACTERISTIOUES
DES VARIABLES ALEATOIRES REELLES
(u NIDIM ENSION N ELLES)
1 ,1 Fonction de réPartition
partant de la définition, de la fonction de répartition d'une probabilité (cha-
pitre 1) :
Définition 3
soit X une v.a. à valeurs dans tout ou partie de (lR, fr) rce qui inclut les
variables odiscrètes,).
appelle fonction de répartition (f.r.) de X la fonction de répartition de
la
on
probabilité P^
: Px (l--, x[)
:
Vx € lR, F(x)
F(x) :P{t';/X(.,l<xl\
notéefréquemment F(x) : P(X < x)'
Notation
F*'
Par la suite, lorsqu'on aura besoin d'identifier la f.r. cl'une v.a. X, on utilisera
12
PH. IASS] -S LEGAIT
LES VAR]AB LFS ALEATOI RES
Px: f .,À
f étant la densité de probabilité de X.
Remarques
1) Par définition. une densité sera donc à valeurs sur rR+. Toute densité f,
égale à h pourx CA er nullesurÀ, A€ 4.,sera écrite :
f
t,^, :
1 si o ( x -< 1
{r1^1 : 6 sinon,
mais :
f (x) : tto,r1(^)
2) Soit unev.a. discrète:PX <<É/" où !": Z ô", xdécrivant l,ensemble
dénombrabl" u' ^'oo*
e g,r*11*1y : > pxu.rl ,^
xeI
Fc où yx Ç gl:,
on retrouve donc I'anarogie avec re cas continu : ici pX - 1 .
t (x) px ({*}). En calcul del probabilités,
- on n'emploie pas le terme de densité
pour f (x) mais celui de probabilité élémentaire.
Théorème I
fr./ muni de la mesure de Lebesgue i, X une v.a. absolument conti-
soit (lR,
nue, de densité f i-presque partout continue, de f.r. F : alors F est dérivable
À-presque partout, et :
F (x): {n 1,__,
",dp*
: JR 1 x{f (t) d,À (t)
]- -,
: Jr- f (t)dt'
Remargues
1) Retrouver la densité f par dérivation de F ou F par intégration de f n'a donc
de sens que pour les v.a. continues.
2) Ona:
(t)dx: Jrn f 1
:
{n f (^tdx: PX(IR) P(Q) : 1
Z f (x) : 1
x€9[
1 .3 Moments
, D"n: tout ce qui suit, res diverses intégrares et sommes sont écrites sous
réserve d'existence, en utirisant re symbore d;intégration
sans orstinguer v.a. dis_
crète ou continue.
Définition 5
rr. : Jo xk op
En passant dans l'espace-image :
-n: Px (lxl)
^èuxk
Pour k : 1, .t n'est autre que l,espérance E (X).
Définition 6
ttr. : 1e tX - E (X)lk dp
V(X) :E(X-E(X))2
PH TASSI S LEGATT
t5
LES VARIABLES ALEATOI RES
Définition 7
Onappellemomentfactorield'ordrekdelav'a'Xlaquantité:
/[r]: Etx(x-1) '.. (X-k + 1)l
Propriété 1
Soit I I'ensemble des fonctions mesurables déf inies sur (Q, .4 ' Pl à valeurs
dans (lR, fr,1, intégrables. I est un espace vectoriel sur lR ;
pour (X' Yl € 92'
ona:
r E(X+Y) : E(X) + E(Y)
o Va € IR E(aX) : aE(X) et V(aX) : a2 v(x)'
Ces résultats découlent directement de la linéarité de l'intégrale.
Preuve
E(X- a\2: lA (X-a)2 dP
E(x- al2 : I (X-a)21t1*-al < €) dP + -l(X-a)2 ltl*-ul>eldP
En minorant la première intégrale par 0, on a :
d'où:
E(x- a\2 > e2 P{lx- al>El
corollaires.. lls varient selon le choix de a et de la v.a. considérée.
a) Pour a :0, on obtient :
b) Pour a :
E (X), on obtient ra formure *crassique,. déjà vue au chapitre
2,
de Bienaymé-Tchebichev :
E(x) :] : v(X)
1
"t 12
L'inégalité de Bienaymé-Tchebicheu f?urnit. pou, ;
:t,1_111
,
p(lx -11 >T) <E
alors qu'il est trivial que
:
:
P(lx-]t
2', o
"1,2
1.4 Fractiles
Définition 8
On appelle fractile d'ordre a de la loi de X {O < a < 1) le nombre réel xo tel
que :
PH, TASSI . S
LES VARIABLES ALEATOIRES
0,1992
0,0498
X
Exemples
f (x) : e-x 1
,*_ (x)
u:lRi' (ç-'|(v):2v
d'où:
g (y) = 2y e-v, l rn; (V)
b) soit X une v.a. suivant une roi uniforme sur lo, 1 de densité
[ :
f (x) = IIo,,,t(*).
g(y) : 1
1ro,r1(v)
Z6-
c) ll est parfois possibre de déterminer ra roi de y: 9 (X) par re carcur direct
de la fonction de répartit'on de y,
Fy(Y) :
< Y) = O
P(Y si y ( O
f.Y(y) :
,n1 :
" -IVil 6 "-Y
lR. (Y)
+ Y-1/2 e-
' 1,n; (v)
2 VECTEURS ALEATOIRES
À0,il existe une fonction mesurable positive f :(lRp, n'pl'1lR*, fr'*l telle que
PX : f . Àr;f est la densité de probabilité de X.
Ainsi, dans le cas n : 2, la f.r. au point (xl, x2) est l'intégrale de la densité sur
le Pavé D : l- -, x, I X ]- -, xz[ soit :
BO PH TASSI . S. LEGAIT
LES VARIABLES ALEATOIRES
Exemple
Soit (X, y)de densité f (x, y) : + to (x, v)
x"A
où:
A : {(x,Vl;x 2 l,y 2 O,y ( x}
B : {(x,y) ; x ( 1 ou y < O}
c: {(x,Yl; x} l,y ) x}
D: {(x,yl x21,0 < y ( 1}; E: A-D
F est définie par :
F(x,y) : g
o Soit (x, y) € D
o Soit (x, y)
F(x,y)
e E
: 4 # r{ out o, :
ir-I,
F(x,y) :d'jï#our ov+{'{#dur dv
F(x,y) t- t
- I - 2x' - 2v
PH. IASSI - S. LEGAIT
B1
LES VAFIAB LES ALEATOIFES
. Soit (x, Y) € C
F(x,y) :4
'Jï#duldv.{l{#duldv
1
-1 ;
Remargues
a) Jpn f (xr, .... xo) dx, ... dxo : 1
b) si (Xr, ..., Xo) est un p-uple de variables aléatoires discrètes, sa loi est
définie par la donnée des valeur" P,., . . ,0, P,, . ;o € JO, 1
't :
P,,, ... io
: P [Xr = *t,r, *, : ^2i2, Xp : xlp]
avec :
et: : rl "rP
i1€11 io€lo
2.3 Moments
a) Espérance
On appelle espérance de X : (Xt, ..., Xo). le vecteur
/ e rx.r\
E(x) : /'\
[ e. I
\ x'r/
où E (X,) : lO X, dP sous réserve que l'intégrale existe'
b) Covariance
Définition 9
soient X et Y deux v.a.r. ; on appelle covariance entre X et Y, notée Cov (X' Y)
la quantité :
cov(X, y) : lo tx- E (x)lly- E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x,y)
ou
Cov(X, Y) : E {tX - E (X)1. ty- E (y)l}
Remarque.' Dans le cas discret
Cov(X,Y) : \^" yeU
!-. (^-E(X)) (v-E(y))p[N:x ; y:y]
xe#
Propriété : On montre aisément que :
Cov (X, Y)
P(x'Y) :
o(x).o(î
Du corollaire du théorème 4, on déduit :
-1<p(X,Y) (1
PH, TASSI - S. LEGAIT
B3
LES VARIAB LES ALEATOIRES
c) Matrice de variances-covariances
Définition 11
On appelle matrice de variances-covariances du vecteur X la matrice (p, p) de
terme général a,, :
Remarque
La diagonale de I est composée des variances V (X,), ..., V (Xp).
Propriétés
Soient u et v deux vecteurs quelconques de lRp, X un vecteur aléatoiie'.de
dimension p; on a :
Démonstrations
Elles sont fort simples. Ainsi :
V ('iuX) :
'1':,; l::1,, ,,T1îriJ;":',:'lu - e ..xu)r]
Remargue
p p
V(> X,) : : v (xi) +Z I Cov (X,, X,)
i:1 i:1 ii
i+j
Corollaire
Soit T une application linéaire de lRp dans lRq, représentée par une matrice
A (q, p) ; Y : AX désigne le vecteur de dimension q transformé de X par l'application.
Alors :
E(AX) : AE(X)
V(AX) : AV(X)tA : R>tn
B4 PH, TASSI - S. LEGAIT
LFS VAFIABLES ATEATOIRES
Théorème 5
Exemple
1/2 1/2
J (p-') : 1
1/2 -1/2 2
et:
(p (lRi x lR|) : {(u,v)/v } - u er v( u} : D
d'où :
g(u,v): 1
e-^u io(u,v)
2 ^2
PH. TASSI - S. LEGAIT
B5
LES VABIABLES ALEATOI FFS
Théorème 6
Si f est la densité par rappoft à Ào d'un vecteur X:
(Xr, ....Xo), alors (X.,. ..., Xo)
(q < p) est un vecteur aléatoire admettant par rapport à io la densité :
d'où le résultat.
/*'\
l\/\ l*, \
lJ'-{l
\ l- \',-'/
\*o/ \v I
Ayant calculé la loi de p (Xt,....X^),il suffit alors d,intégrer sur - 1 pour
obtenir la loi marginale de y. t t)' lRp
2.6 lndépendance
Définition 12
(),1
..., Xn) n vecteurs aléatoires où X est défini sur un espace probabilisé
lj't
@,.4, P)et à vateurs dans (lRPi, fipi).
(X'),
<,<n est une famiile de vecteurs aréatoires indépendants si :
Remargue
supposons que les v.a. X1, ..., Xn soient toutes des variabres
en prenant A,: {x,}, on obtient sous i,hypothèse d'indépenejance réeiles discrètes;
:
n
P(Xt:"t,...,Xn:xn) :.fl p(Xi :xi)
t-l
.
Théorème 7'
Démonstration :
On considère la classe :
G-I,i,^'nezaef
D'après lethéorème4du chapitre 2 : A gBoi : slGl
' 1(i (n
De plus, G eststable par intersection finie. Soient X1, ..., Xn n vecteurs aléatoires
I indépendants.
" Xn) et â Pxi coÏncide nl sur G '
ll suff it de montrer que Pfit' '
i:1
n
p(xr, ',*") t fi
i-i
A,) : p(Xr € A1,..., xn€An)'
t- I i=l
: ''xn) (,i.,
vAi € glip(Xr € A1,...,xn € An) P(Xt' o,,
'!,
Théorème 8
X,lorsqu'elle existe; F (resp. f)
on note par F, la f.r. de X,et Ral-1, la densité de
est la f.r. (resp. densité)dè X: (X;, ... Xn) n
X,....Xn sontindépendants <+ F(xr,...,^n) :1!., F'(",)
Théorème 9
Remargues
a) Ceci n'est bien sûr réalisé que si les densités f sont
définies sur tout lRpi.
Ainsi, pour des v.a.r. X et Y, la densité f (x, y) : (x+y)
2 e-' 1,.. \^r n,est oas
séparable, c'est-à-dire ne peut être mise sous
les v.a. X et Y ne sont pas indépendantes.
ra forme d'un orotJ;'iii^I ;iri;;
b) La densité d'un n-upre (x., ..., X-) de v.a.r. indépendantes
produit des densités des v.a.r. x.' Le caÊur n'est donc que re
de ra roi oe'ta somme de v.a.r. est arors
simplifié.
Exemple
Montrons que si X et y sont deux v.a.r. indépendantes
y (p,0) eT y @, d)de densités respectives (cf. suivant res rois gamma
chapitre 4) :
(x) : _
1
p-' op 1 (x)
l-(p) e-d* x
f.,.
^ -.
,H;'''
PH TASSI -S TEGAIT
LES VARIABLES ALEATOI RES
Démonstration
f Y;(x' v)
: 1
e -d(x+y) 1n-1 UO-1 ?P+q 1Ri x Ri (x, y)
11' r (p) r (q)
/x\ /tt : x \
Soit T :
f yy(u, v) : 1
uP-l (v - Ll;o-t eP+q 1{v)u)o}
1r,r, r (r) r (q) "-vd
d'où :
e-ve |p+q
r(p).r(q) { uo-t (v - u)a-1 6u
Posons I: u/v'.
dp+q vp+q-1
fu (v) : "-v0 Jl ,o-t (1 - tlc-r 6,
rtp).r(q)
B (p, q)
: e-vavp+q-1 dp+q
r (p) r (q)
où:
B (p, q) : 1[ tn-t (1 - t1o- t6,
: I*f#
Or:
B(p,q)
d'où :
fv (v) : 1
uP+Q-1 ap+qlR* (v)
|- ,, _ d "-dv
Théorème 1O
gl, intégrables'
Soient n v.a.r. (Xr, ..., Xn) indéPendantes, définies sur (O, '4,
Alors: n
E (Xr,...,Xn) : , {*,t
,!,,
PH. TASSI - S. LEGAIT
90
LES VARIABLES ALEATOI BFS
Démonstration (n: 2)
E(X1 X2) : JX'Xrdp
: -f-i xr x, f ,, (x,,) f, (xr) dx., dx,
: J xr f ., (x.,)dx., . I xzf
zgr) dx.-
: E(X1).E(X2)
Corollaire I
Soient X et Y deux v.a.r. indépendantes
: g;.
; alors Cov (X, y) : O (et donc
r (X, Y1
Remargue
La réciproque est fausse en général. Ainsi, soit X une v.a.. discrète
de loi :
Corollaire 2
. Soient n v.a.r (Xr, ...,Xn) indépendanres, définies sur (e, .4, p), intégrables;
alors:
n
V (X., + ... + Xn) : .I. V (X,)
Corollaire 3
si X : (Xr, ..., X/ est composé de p v.a.r. indépendantes, ra matrice de variances-
covariances de X est diagonale.
nous présenterons une formalisation plus théorique d'une loi conditionnelle, qui
pourra être omise en première lecture.
soit un couple de v.a.r. (X, Y). Le principe est de connaître. la loi de Y sachant
: x'
qu'rnl-re"tisation de la v.a. i a fourni ie résuttat x, dite loi conditionnelle YIX
vj Total
X
X. n.. n.
I U
l.
Total n.j N
On note : n,, le nombre d'individus tel que X prend la valeur x,, Y la valeur Y, :
nppn
*: n'i;ni : n'iini n'i
jIr jIt ilt
'],
PH TASS1 S, LEGA1T
LES VARIAB LFS ALFATOIRES
La loi du couple (X, Y) est connue puisque lon sait carcurer res probabirités :
p(y:y,lX:x,): P
')' X :
(Y: v.. x.)(
P (X: x,)
On trouverait de même :
P'j : n'j
P(X:xlY:y,) : (p,+O)
' P.j n.j l
I
I 2 3 4 n.
L
X
1 9 21 35 31 96
2 18 3 8 10 39
3 22 31 9 3 65
n 49 55 52 44 N :200
9 18 22
P(X:1lY:1) : ;;, P(X:2lY:1) : -t-_ ,, (X:3lY:1]l: 49
On remarque aussi :
P (X: 3, Y: 2l :
31 P (X: 3) . P lY :2) : 65 55
2OO+
-2OO -2OO
Les événements {Y: 2} et {X: 3} sont donc dépendants.
Réflexions sur l'indépendance
PH TASS]-S LEGAT
LES VARIABLES ALEATOI RES
n. n.
nll : Pi. F.j : -fi
ou:
pij : pi pj
Si X et Y sont indépendantes, res tabreaux T et o seront identiques. En prati-
que, les deux tableaux ne seront jamais égaux, et
on utilisera un critère d,écart
ô (T, o) entre le tableau théorique ét le tableau observé.
on peut penser. par exem_
ple, à :
np
ô(T.Q) :
ou bien :
i:l j:l
np
ô(T,Q; : :
i :1 j:1 n1.
U
f* (x)
lntuitivement, on écrit :
PH TASSI . S. LFGAIT
LES VABIAB LES ALEATOI RE S
a
Fr*,y(* + dx, y)- # F(x.ï (x, y)
f (ylx) : lim
ôv
dx*O F* (x + dx) - F* (x)
àâ
: lim
u, l^ F(x'Y) dxl fx,l (", y)
Remarque
Si on note 7/l'ensemble des valeurs possibles pour le couple lX,Yl, '//xla section
de T par x, valeur fixée de X :
f (x, v)
f" (x) : lr^1 (x, v\ dy et f (ylx) :
I lr^t (x,vl av
96 PH TASSI - S. LEGAIT
L-
LES VAFIABTES ALEATOIRES
Remargue
ll est clair que les résultats énoncés pour des v.a.r. (pour faciliter l'écriture)
sont généralisables à un vecteur (X, y) de lRpx lRq:dans ie cas continu, on aura
par exemple :
Définition 13
On considère un c_ouple de v.a.r. (X, y) : @,,rd,p)
- (lRr, fr.21. Onnels p(x,y)
la loi de (X, Y) et px la loi de X; supposons qu,il existe une application :
P];Ox,t(-tO,il
telle que :
Application
I Lorsque X et Y sont discrètes, en considérant les événements A,, : {x} et
Ar: {v}, on retrouve ;
Or:
Ptx €A1 ;Y
=or, to1 t"'x-* (Az) oPx(x)
d'où :
et ce quel que soit A1q- ,tq on en déduit (cf. propriéIé 25.3, chapitre 2) :
y) dy - x: : if {xtYl
A,
""1"^
f (x, PYI " (Az)2' f*^'(x)," À presque partout donc
f*(x)
esr ta densité
par'rapport à .À de la loi de YIX: x.
3 Espérance conditionnelle
Soit le couple de v.a.r. (X, Y). de loi P ; on notera Px et PY les lois marginales
de X et Y, pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.
Définition 14
Si l'express'on J,* y dPYlx existe, on l'appelle espérance conditionnelle de Y
sachant X: x. On la note E (YlX: x).
Exemples
a) Lorsque X et Y sont discrètes :
Théorème 11
Si g est une application de lR2 dans lR et sous réserve d'existence des inté-
grales, on a :
1
E(Y) @9 + Zx 55 + 3- x 52 + 4x 44):
:rOO 4g1
à
Utilisons la formule de décomposition :
E(Y) : EX E(YIX)
E(YlX:t; :;t,t 1
x9+2 x21 +3x3s+4x31y : JP
de même, -" 96
231 :
491
200 200
On retrouve, bien sûr, le même résultat
obtenu les moyennes partieiles ; notons cependant que nous avons
tà"-u"reurs de X, ce qui peut fournir une
information intéressante. Par exempre,
"eton si v est te
d'activité socio-professionnete, on sataiie o ïrn" nomencrature
à ié saraire ,"t;;;;r;roi"rrron, qui permer
des analyses et des comparaisons plus approfonOies.
Définition 1S
on appelre courbe de régression de la v.a.r. y
en la v.a.r. X ra courbe :
4 Formule de la variance
X et Y étant deux v.a.r. définies sur (Q, *41, soit à calculer V (Y) ; P désignant
la loi du couPle on a :
v (Y) = "1"(v - E (Y))2 dP (x. v)
(ï)2 lx (y)
+ -[ (E (Y I x) - E dPY
Comme E (YlX) est une fonction de x, cette dernière intégrale est nulle après
factorisation de E (Y I X) - E {Y) qui est indépendant de y. D'où :
.'-0
'v0 :-f cpvlx (y)l dPx (x) + .f (E
t-i (v - E (Y I x))2 (Y I X) - E (Y))2 dex 1x;
soit :
: E(YlX: *i) :
1P n'j Y'j
Vi ' ,t.,
^ J:l
ni.
tP
o'i : V (YlX: x,) : j j:1.
i. n,, (V;1* 1)2
'' n,.
On a, de Plus :
v(Y) : -=lnln
N i:1 I r N i:t '' "i
. o1 : V(YIX: 1)
: ;:1 (1 ..^
X9+ 4x21 +9X35+ 16X31)- (:28A2 8384
Yo 96 )
9 2i2
De même :
\_/lV\
1 I. 8 384 ! 2474 r 2746\r 1 rr_ 78400
-_
200 96 39 65 ' 200 ' 96
7 774 T
15129 _-
491 2
l-t ,
39 --
65 200
Définition 16
,
'tY x
vtE(Ylx)l
\//v\
V (Y)
Remargues:
a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéaire
p (x, Y).
b) Ona:
e< nï*< 1
4ï": o
3'1 Soit X une variable aléatoire réelle absolument continue de densité f et de f.r. F strictement
croissante. Ouelle est la loi de F (X) ?
lndication
P tF (x) < yl : v donc ta densité de F (X) est fr1x1 (v) : rlo, (y) (roi uniforme sur
r1 [0, r ]).
3'2 soit X une v.a.r. absolument continue de densité f* et de f.r. Fr. soit y la v.a. définie par:
Y:X si X)x 0
Y:x-UO siX(x
Donner la loi de Y. Calculer E (y).
lndication
f (x) : lto. r1
(r)
Fzlrx,
vt= 1r. r1 (z)
: (y - x) e- z (v -') 1,*- {z)
1) Calculer la densité du tripler lX,y,Zl.
2) calculer la densité de Z et celle de la loi conditionnelle de (X, y) sachant
Z : z.
3) Calculer :
E(VY-XlZ:zl er rlv{-xt
PH. TASSI S. TEGAIT
LE S VARIAB LES ALEATOI RES
0n donne :
1+æ
:
1
r(7) Jo tJ t e- udu : Vn
lndications
1) f1y,v1{x,v):(Y-x) s-(v-x)10(x,v)
f (z) :
i..1,^*(z)
(v-x) (1*4 1o (x'
f(x,vtlz=, (x, vI : z)t (t, - xl" e-
f, t'+ v)
3)
1- 15 ,["
''
E (/t- xlZ:zl: i I I ot/ r^ tt+ i)3 (v - *)' (y-xl {z*lldxdv' - u
--
16 Vz+1
{" t- J V7r
E1 1Æ-T1 : EztE/T-l 7ll : Ez (*
_-- ,4 \/z+ 1
4) Changement de variables :
3'4 Soit X une v.a. réelle continue représentant la mesure d'un phénomène physique
dans une unité
donnée. 0n donne sa densité g e- À*, (x): x) 0,,À ) 0. 0r ra donnée observée est en
réalité [X], où [.] désigne la parrie enrièrc de X. ^
1) 0n pose Y : Ix]. Donner ra roi de y, son espérance et sa variance.
2) Oue dire lorsque ra donnée observée est, cette fois, r'entier re prus proche
?
lndication
1 ) Y est une v.a. discrète où :
E(Y) : i nP{Y:n}:J-
n:0 e'' - I
v (Y) : ,À
('l _ 1r
2) Pourtxl <X<[X]+0,b, onobserveZ:[X], er pourtXl+O,S<X<[X]+ t, on
observe Z: +[X] t
P(Z:0):1-e 7^
n*0, P(Z: n): P(n-0,5(X<n+ 0,b):r-rn1r7^^- u-a I
E(Z):2sh-.
À e-^
-- 2 (1 -e- ÀY
PH.IASS] S LEGAIT
LES VARIAB LES ALEATOIRES
d'où :
De même :
et:
flr (u) : n un- 1 1lo,,t (r)
De même:
et:
fvn(u) : n (1 - uln-1 1,0,,, {u)
On rappelle qu'une v.a. est dite discrète si elle prend ses valeurs sur un
ensemble fini ou dénombrable de points. par extension, la loi de probabilité
d'une
v.a. discrète sera dite également discrète.
ôu(x) : 1 SI X:A
ôu(x) :0 si x*a
La loi de Dirac est la plus simple probabilité existante, associée à un phéno-
mène déterministe X dont le résuitat de toute expérience est a. C'est, par
exemple,
Application
Soient n réels distincts fixés (a',. ..., an)et n réels (pr, ..., pn)tels que :
n
O<pi<1, i: 1 àn, et.t. O,: t
l:l
n
o' ô',
,f ',
est une probabilité P associée à une v.a. discrète prenant ses valeurs sur {ar, '..,
an], et telle que :
P (X: a,) : p;
Si p, :
1
pour tout i. la loi de X est dite uniforme.
'n -,
Moments
E(X) : a, V(X1 :9
tx1t1: o
Px{o}: q(q:1-P)
(p € t0, 1l)
On note :Â 11,p) la loi de la variableX et on I'appelle loi indicatrice ou loi de
Bernoulli de paramètre p. Par extension, la loi de Bernoulli est la loi du résultat
d'une expérience ne pouvant prendre que deux résultats possibles {a, b} quantita-
tifs ou qualitatifs:une porte est ouverte ou fermée, une lumière allumée ou
éteinte, etc.
Moments
E(X):p V(X):pq
Vx € lN px1x1 - s-a ^x
x!
On nore :X -) .4 (^1.
comme nous re verrons dans re chapitre consacré aux processus, ra roi de
Poisson apparaît, sous certaines hypothèses, dans les phénoÀènes
de comptagà
d'événements pouvant survenir Bendant une unité de temps donnée:
nombre de
voitures passant devant un observateur, nombre d'entrées ou de sorties
d'une salle
d'attente, etc.
Moments
: ; x(x-1)...(x-k*1)e-^ i
x:0 xl
æ :X k
ik ; e-À À ' :
oo
x:k (x-k) ! Àn - yl
U:O
/1L1 : ,1
k
D'où :
PH,TASS] -S LEGAIT
109
LFS LOIS DE PROBABIL]TE USUELLES
n
X_: Yi
i:1
Comme Yi -) gJ (1, p), on peut écrire que la loi binomiale !/J (n. p) est la
somme de n lois de Bernoulli indépendantes. ll s'ensuit :
Définition 4
Une v.a. X suit une loi binomiale de paramètres n et p si :
1 .5 Loi multinomiale
ll s'agit d'une généralisation de la loi binomiale. Considérons une population
composée d'éléments de m types, chaque type j en proportion :
m
pi, 1(j(m, Pi)0, t. o,:1 l
j:1
m
n,pr pr;pj >0, V j=1,...,r,,In pj :1
si: J-l
nl
Px(n.,....
tm, n)= oft... on'
n.!...n
tm !
ou: m m
:n,
j:1 )
j:1 t
n!
n' | ... n.!
est le nombre de (n.,. nr. ..., nr) - partages d'un ensemble de n éléments, avec:
m
îi :D
iIr
Propriété 1 : La loi marginale de N est une loi gB
h, p).
En effet, un érément tiré est soit du type (avec probabirité
i ra p,), soit non
!1 - iype j aans r,échantiron;;l; jdil;;;'i;;
pi) ; te nombre totar d'éréments du
binomiale 4 h, p;). Retrouvon. par re carcur. vvr(rsr
t - soit r,événement A. défini
paf : ""ie*rili I
;r
nl
il*un
n.
jr(1 - Pi)
n
"*t
-n.J>
(n - n,)!
(1 - pj)n-nj
ll s'ensuit :
- nj
P {Nj: n,): cll eli 1t - pj)n
Conséquence
E(Nj) : nFj (Ni) : npi(l -pi)
lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soient
non corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,
(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'un
élément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :
: n!
E (NjNr)
(ni- )!(nr- 1)!(n - n,- nr) 4, oi, t'' - pi- pr)n-nj-nr
(nj, nrl !
nj+nt(n
:n(n-1)pipr
d'où :
r (v)
Le vecteur (Nr. .... N*) suit une loi multinomiale ) pt, ..., F*) avec
'b 1n :
1 .6 Loi hypergéométrique
Définition 6
tNP /'n-x
uNq
Px (x)
'x
-
cft
pour Max(O. n - Nq)(x( Min(n, Np), avecq : 1- F.
Moments
E (X): nP
N-n
V (X): npq
N-1
Démonstration
(eo:
cil-l n
P 1)
Cfi
On peut écrire :
: Yorox-
a:1
où Yo prend la valeur 1 si a est de type (l), Y : O sinon.
N
E(X) = I YoE(eo)
a:'l
Nn
:
a:1 aN
N
puisque : Y- : Np, nombre d'individus de type (l)dans la population.
d:l
De même:
N
V(X) :
G:l aTp
n(n-1)
N(N-1)
n(n-1) n' n(n-N)
Covrc.E-l:
N(N-1) N2
-: N'z(N-1)
D'où :
V(X):
n
(1 * nN ^ n{n-N}
Y'+ (Nt
N
N -)
N a:1 r'r,N - t) Pt - : Y2,
al
a:1
N N
En remarquant que : y?
a
:: Yo : Np, on obtient
q:1 a:1
:
V (X): pz*Nprffi # (l n
*)l
: lll-r*,
N-1
p,_ Ll,l-.N) p
N-l
d'où :
v(x): N-n
noo
N-1
. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hyper-
géométrique (resp. loi binomiale), oria :
V, N-n
<1 dèsque n)l
Ç: N-1
En particulier, si n -- æ, [\ -* *,,N
n V
-O; les
Ë-1;souscesconditions,
tirages avec remise et sans remise sont équivalents en terme de variances de X.
Px(x; : CII_.
nf x- |
pn q* pourx € lN
'
Remargue
L'analogie avec le schéma binomial est intéressante. Dans celui-ci, le nombre
de tirages esi tlxé, et c'est le nombre d'individus de type I qui est aléatoire. Dans la
loi binàmiale négative. ou, plus exactement pour la loi de Y, c'est le nombre d'élé-
ments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire.
De telles approches sont parfois utilisées en statistique, notamment en théorie des
sondages [6], en biométrie. épidémiologie et essais thérapeutiques.
Moments
: n oq
- : n-;
E(X)
pp- V(X)
Cas particuliers : dans le cas n: 1, la loi de la variable Y désignant le nombre
de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte le
nom dà loi de Pascal, ou loi géométrique de paramètre p. Sa définition explicite
estPY(y):pqY-1 poury e N - {0}
Ses moments sont :
Définition I
X suit une loi uniforme sur le segment Ia, b]. a
( b, si sa densité est donnée
par :
f (x) :.- 1
1t., (*)
b-a ul
x-a €
On note * -, *r",u1i la f.r. est F (x) b-a
pour x [a. b].
Remargue
x-4,
En faisant lechangementdevariables x* on est ramené à une loi
b-a
uniforme sur le segment [0, 1 ], de densité g (x): l,o, ,,, (x).
Graphes
Moments
Définition 9
X suit une loi gamma de paramèrres p et 0, p) O, e> O. notée y (p, d), si sa
densité est :
f (x) :
j= xp-i 1n + (x)
"-,,
PH, TASSI - S. LEGAIT
LES LOIS DE PROBABILITF USUELLES
ou:
Remargues
f (x) : 1
e-^ 1,r*
=i-
r (p) "n-1 1x)
o<p<1
1<p<2
Propriétés de I- (p)
)(P-.+-)
e tzp
Moments
SiX suir une loi y (p, 0), on a:
l- (p +
E (X') : r")
o'f (pl
On en déduit :
0 r(p) o r(p) 0
du
E(Xr) : 1 1
r(n+r1
ot ffi
Dans le cas de la loi exponentielle, on a :
: 1 :l
0Ëet vrXl
E(X)
Le paramètre d est donc interprétabre comme |inverse
de ra vareur moyenne de X
ou l'inverse de son écart-type. ceci donne naissance à une forme
différente de ta cjensité, parfois utirisée, où d esr o,r""tÀ*"nii,e1per"n""régèrement
type :
ou r,écart_
ou plus généralement :
I (x, 0, pl : J= -t
t (p) e-x/s 0-p xp I R;_ (x)
'"'
Définition 1O
X suit une loi de weibuil de paramètresûet 0, a) o, e>0, si sa densité
donnée par : est
Fonction de réPartition
. Fr(x) = 1-e-o^o
La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En
effet, si a: 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit
p (X ) x) : e-d*. Pour décrire des phénomènes dont l'ordreplus de grandeur
d'apparition d'événements extrêmes du type {X ) x} est beaucoup faible que
e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.
Remargue
La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi
exponentielle par le changement de variable '1
**1 /a.
Moments
rt1 +1)
r 1x1 :----- o -
/a
Q1
2^1
+-) +-)
a.a-
l-(1 l-'(1
v(x) =
62/a
Démonstration
+oo +oo
E (X) : J' x a0 xa-1 e-e ^a dx = .f e-d ** dx en intégrant par parties'
oo
E(X) :J ^t- e-'^1 (;)
.r.L-"o
du
1 1 1 1 - 1
Oaqaf/aqag1/ad
+æ -- +oo
E (X2y : l' *" a0xa-1 e-d"od* : 2 t x e-d*' dx
oo
: 2 rt?l- 1 ,1',*Zl
a
o g2/ag2/a d
d'où
+-l2^1- r' 1t +-)
:
t-(1
: aa
V(X)
02/a
/x\ s lu:X \
\rl-\r:*,r)
Le jacobien J (S-t)de la transformation g-t est u/22 ; d'où la densité du couple
(U, Z), d'après le théorème 5 du chapitre 3 :
ce qui conduit à :
On pose :
L' ':
f-121
B (P, q) (1 + 210*e rR* ' '
PH TASSI - S. LEGAIT
LFS LOIS DE PROBABILITE USUELLES
Délinition 11
Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de seconde
espèce. On la note É (p; q).
Rappels
+ æ xp-l 1
: 11
(-, :7f
B(p,q) B(q.p) B
;
22 -)
Définition 12
La variable aléatoire f : -!- suit une loi bêta É (p, q)sur [0. 1] dite loi bêta
1+Z
de première espèce de paramètres p et q, p > 0, q ) O.
La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie sur
tout intervalle Ia, b] par le changement de variables Y: a + bT.
Remargue
Dans le cas p: 1 et q :1,f r(t) : lto, 1l (t) : P (1,1) : %rc, tl.
Forme de la densité de T :
Elle varie selon les valeurs des paramètres p et q (voir les graphes page
suivante).
Moments
: q)
B (P + r' B]gj::f: tt
E (Tr) E rzr\:
B (p, q) B (p, q)
En effet :
p>1
q)1
p pq
E(T) : V(T) :
p+q (p+q)'(p+q-1)
E(zl : --o (q> t)
p(p+q- 1)
:--_____-____;_DOUr(q
q- v (z) >2)
| (q - 1)'(q - 2) '
La variable Z n'a donc de moments d,ordre 1 et 2 que pour q ) 2.
Théorème 1
Définition 13
X suit une loi de Gumbel si sa densité est :
Remargue
La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas
confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répar-
tition de Y sont :
fy(y) : exp(-y-e-Y) Yc lR
Fy (y) : exP (- e- Y)
Définition 14
X suit une loi normale de paramètres m et o (o) O) si la densité est donnée
par :
2
(x-m)
t*(xt :;fr"-T (x € rR)
On note X -) N (m. a).
2
(x-m)
1 ^*æ - -------r-
2o
E{X):-----
o t/2t
J xe dx
- oo
E(x):
^ -=-f*-,
VZlr - æ "-u"/2du:m
car la fonction à intégrer est impaire.
De même :
(x-m)
E (Xz)
^1^+æ
:- l' xt e zo2 dx
o \f27r "- *
^ 2o2 ^+æ
: m'+
----=-- J v1l2 e-udv
t/r o
o20'3
= m- + ----/_ l- (= )
t/n 2
Comme:
|_3
(t) :t1 , (t t- 1 ,,F
2
ona:
v(x) : o.2
. v'a' u
X-m
La - suit une roi normare d'espérance nuile et de variance 1,
notée N (0, 1), dite loi normale centrée réduite de densité :
-
2
fr,(u) :p(u) :
1 -u2
,:e (ue lR)
" r/2r
PH. TASSi S. LEGAIT
125
LES LOIS DE PROBABILITE USUELLES
o(u) : ^u1
J__ W "-
t'/2 dt
Les valeurs de <D sont données à la table 1 ; la table 2 fournit les fractiles de
la loi N (0,1).
Forme de la densité
Remarque
La loi normale N (m, o) converge vers la loi de Dirac au point m lorsque a tend
vers O.
Approximations
De nombreuses approximations de la f.r. <D (x) ont été données dans la lit.tera-
ture. L'une des plus précises (erreur de I'ordre de 1O-5) est :
0,5
O1x1 : 1- (x)O)
(1 + ax + b x2 + c x3 + d xo)o
1
Q8l:;+b;-cxndf (x ) o)
Théorème 2
1_
La v.a. ;2 U'suit une loi y (1/2,1).
Démonstration
En appliquant, par exemple, la technique de la fonction muette, on
a :
: ,8.t"*- n (y) e- t #
1
: +æ
,fr lo h (Y) Y- 1t2 u-Y (Y
r+1
E(!u'f/':"
--2 ''
r(1)
,2
(d'après le paragraph e 2.2).
PH TASSI S. LFGAIT
LES LOIS DE PROBABILITE USUELLES
D'où :
r( r+1.
z )
E (lul') - 2r/2
r (tl
1
o Vr e N, impair:
E(Ur) : E(X-m)':0
oVr € lN,pair:
E(U') :Trl2r/2 r+1
Z I
or 2r/2 r+1
E(X-m)':-G-r( Z I
Polynômes de Hermite
9'8):-x9(x)
e., Vl : (x, _ 1) p (x)
g,.,(^) : -(x.-3x) 9(x)
Un simple raisonnement par récurrence permet d'établir que la dérivée d'or-
dre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degré
n, noté Pn (x), et que pour n pair (resp. impair), Pn (x) ne comporte que des puis-
sances paires (resp. impaires) de x :
Définition 15
,tn) 1x)
: (_ 1 )n H n (x) rl (x)
Exemple
Hu(x) :xu - 10x3+ 1S, H6(x) :xt- 1s xa+45 x.- 1s, etc.
Propriélé 2
u'
Hn (x) est le coefficient de Iun dans le développement de
LIX-
e -2
n!
Démonstration
9(x-u) : 1 - {.;d
2 : p(x)
u,.-
e
{
2
-Jrr"
co , irn
:
n:O n!
æun
: : p(x)
n!
n:O -Hn(x) |
2
u^^
: ; un
"'^--, Hn.(x),
n:O n!
2
u
-7
ll s'ensuit que Hn (x) est le coefficient o" 4 dans le développement de .
n! ""
Remargue
u"
ux- --
Dérivons e 2 par rapport à x; on obtient :
u
æ Un-1
(x-u) e 2=
n:1 (n-1)! n"
Propriété 3
E(H^(X)) :0
V(Hn(X)) : n!
Démonstration
uk,
n : l* tn (x) Hn (x) p (x) dx avec k( n. En intégrant par
^^-.,:) on
parttes, l_n._o.n.
a:
uk,
n : (- 1)n
"i Hn {x) e(n) {x) dx
-l +-
: (- 1'" f p(n-tl tx!__ * (- 1;n*r j,, tn (x) 9(n-r)1x;dx
Ltn(x)
: k ,k-r, n-l
ll s'ensuit :
: kl uo, n-n
.uc
"
Si k <n:
uo,n-k:.f Hn_r(x) p(x) dx: O et uk,n: Cov (Hn(X), Hk(X)) : O
Si k: n,
uo,o:1 et un,n:V(H.(X)) :n!
Définition 16
\,0/
X est un vecteur normar (ou gaussien) si, vu, u'X est une v.a.r. normare.
Remarques
a) on en déduit que si A est une application linéaire de lRp dans lRd, et si x
est normaldans (Rn, 9/l9l, alors AX est normal dans(lRd, fr,d1.
Définition 17
Soit m € lRp et I une matrice (p. p) réelle symétrique positive. X est un vec-
teur normal de dimension p si sa densité est donnée par :
1. I
s-2 '{"-m) r '
(x-m)
f" (x) :
(2rP/2 \6At
Propriété 4
E (X) est le vecteur espérance m et > est la matrice de variance-covariance et
on note la loi de X : N (m, I).
Démonstration
I étant une matrice réelle symétrique et positive, il existe une matrice ortho-
gonale S et une matrice diagonale D telle que :
ts>s:D
Si af, .. , af Oesignent les valeurs propres positives de I (non nécessairement
toutes différentes), D : Diag 1oi, , oil
Effectuons le changement de variables défini pat Q i
(x1,..:,xrl4> y: (y1,...,y0) : tSx
":
g-1 (y) : sy car tS : S-t (S est orthogonale);
lJ(p-')l :lDetSl :t
On note :
d'où :
I p 0i-u)2
2 ti'' ,1
g (y1' ..., yn)
u = (2ùe/276- e-
1 Ni- u)2
Ona:
1r et V(Y) : D
E(Y) :
où V (Y) désigne la matrice cJe variance-covariance de y, d'où :
Propriété 5
Soit X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sont
indépendantes <+ Xr et X2 sont non corrélées.
Démonstration
f(xr,xr) : 1
_I (*.,-m.,)'
_1 (*.-Ti)'
^ o1 o2
z7r
expl
,o1r"Z
-
2
(xr -
-t 1
o't
mr)
2 -n
1
(x2 -
2
m2)
:_ô 1 1 C2
Remargue
Exemple
11
Soit X de loi N (0, 1) et une v.a. c définie par P {c = 1l:;;Ple:-1]:-
telle que X et c soient indépendantes. On pose Y: e X. 22
FY(Y) : P{Y<":
;i;.;", ::'1,..i:-:i; ll ,,
: 11
,*(vl+ P{X>-y1:F*(y)
i ,
donc Y -> N (0. 1)
2
ce qui est absurde puisque la loi N (o, \/r) est continue. Donc X et y ne sont pas
indépendantes tout en étant pourtant non corrélées.
Soit Y une variable aléatoire suivant une loi normale N (m, o). La v.a. X définie
Far X: exp Y suit une loi log-normale.
La densité de X esr :
Forrne de la densité
Moments
Ê (X) = /2
"^*o"
V (X) : 1so' - 17
"2^nc2
En effet :
+oo 1 - latr-rrt
Yr )o 1, E (Xr) : E (erY) : .[ srvs 2o' ' dy
^!-
t/2ro
Définition 2O
n
La variable aléatoire U- :
(n). "
liberté, notée X2 i: 1 '
t
paragraphe 2.6). Or la somme de deux v.a.r indépendantes suivant respectivement
f h, 0l et f (q, d) suit une loi f b + q, 0) (la démonstration de ce résultat est
proposée au chapitre 6, paragraphe 3.1).
1n^n
I Xf suit r ( ,,ll
Donc,engénéralisantàunesommedenv.a.r.'-
On en déduit la densité Ùn : 2 i:1
r..
un trt
: "-i **-' lrR. (x)
--f
Z"rrf (t I
Théorème 4
tX:-t X: tXSD-ttSX
On note Z - tS X ; Z est un vecteur gaussien d,espérance nulle et de
matrice de variances-covariances D : Diag
@?, , oft, ot, o? : y (2,1.
tx :-' x : 9_
i:l 1oi
par définirion une toi yz (p).
"uit
D
llOwll' : t X|, carré de ta distance à l'origine du point aléatoire normal M,
i:l I
Forme de la densité
n:2
n:1
Moments
De la relation existant entre les lois;2 (n) et y (n/2l1, on déduit :
E(Uj) :r''(t*'l
r (+)
d'où :
?_
X
/Y
V;
Cette loi est notée Tn
PH TASSI . S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
Densité
n+l
f.'n (x) : 1
(1 +
x2 - -=--
z
Moments
La loi suivie par T1 porte le nom de loi de Cauchy ; c'est aussi la loi du rapport
de deux v.a. normales c'entrées réduites indépendantes (cf. exercice 4.2).
Sa densité est :
fr' (x) :
n(1 +xzl
Tf suit une loi p (+ , ll O" deuxième espèce et les conditions d'existence des
moments de la loi bêta de seconde espèce font que T., ne possède aucun moment,
donc, a fortiori, ni espérance, ni variance. Sa f.r. F est donnée par :
F(x) :t *; Arctgx
Définition 22
Soient X et Y deux v.a. indépendantes suivant respectivement les lois x' (n) et
x2 (m).
X/n
La variable F : suit une loi de Fisher-Snedecor à n et m degrés
,^
de liberté notée Fn, ,.
--nX/2n
m
F- suit une loi É (7 -) de seconde espèce.
2
*n/2 - 1
f, (x) : 1
nn/2 1,** {*)
m ^m/2 n+m
r(+ 7t (m + nx)
Forme de la densité
Remarque
Tl, carré d'une variable de student à n degrés de liberté. suit une loi de
Fisher-Snedecor à 1 et n degrés de liberté.
Moments
E (F-
'n'm' -) : -!(m > 2)
m-z
2m2(n +m-2)
V(F
'n,ml -----im>4,
n(m-4]l (m-212
Propriété 6
On note fo (n, m) le fractile d'ordre a de la loi F (n, m)
Ona:
t"t-a' (m. n) : 1
fo (n, m)
Démonstration
Nous aurions pu définir, à partir des v.a.r. X et y de roisyr
1n; ety, 1m; 1it n,y
a aucune raison de privilégier X comme numérateur) la variablé'V par :
Y/m
' -
l,
-
x/n
Par définition, V suit une loi de Fisher ll est évident que I'on
Fn.'',
n. a UV :
avec U -) Fn,* et V-) F.,n ; U et 1./Vontdonc même loi.
'n,m_<f-(n,m))
P(F_ q' : a
Ona:
P(-
'F
1
<f-(n,
a
m)) : a
d'où :
'm,n <_):1_a
P(F
fo(n,m) '
ft -o(m' n) :
f"(n, n-')
Exemple
Ona:
fo,os (5,8) : 1
fo,e5 (8,5)
On lit sur la table f.,ss (8,5) : 4,82 et donc fo,ob (5,8) : O,2O7 .
s- j:1j c, '
C,de limites de classe (e,-,', e,). La fonction Fn est alors évaluée en e,,l: 1 à k.
L'idée est de faire apparaître une relation détermiste simple entre F (x)
et x,
caractéristique de la loi p; dans la plupart des cas, on cherche ùne relation
de type
linéaire entre des fonctions h (F (x)) et g (x), h et g à déterminer :
h (F (x)) : g (x)
Dans un repère arithmétique usuer, si.ln nole (e,) en abscisses et h (Fn (e,))
s
en ordonnées, le nuage de points (c (e,), h (Fn (ej))) aura à peu près ra forme
d;une
droite.
si, au lieu d'utiliser un repère arithmétique, on emploie des axes cléjà gradués
par g en abscisses et h en ordonnées, re nuage de poinis (e,,
F^ (e,)) aurà rà même
forme tinéaire. Le papier ainsi gradué par reè fonciions
fonctionnel (h, g) adapré à la loi È.
s'di hi;dilJË r; ;;;i;;
. cetlg propriété permet alors, quand on dispose de n réalisations d.une expé-
rience aléatoire, d'indiquer, selon la forme du nuage si ces réalisations
";i;;Cet
chance de provenir du modèle probabiliste représenté par le papier fonctionnel.
indicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la
théorie
des tests d'adéquation non paramétriques de la statistique mathématique ([1
1]).
(x-m)
: 1 - zo
^,
f (x) e
--=:-
o1Fzn
F (x) :J X
f (t)dt
-oô
En notant par Ô la fonction de répartition de la loi N (0,1 ) :
x-m
: O(---)
F(x)
o
qui conduit à :
<D-
-' : x-m
1F 1x;1
o
(F (x)) : Ô-
h
1 (F (x))et
s (t) :.I-Jr_
t
OrF(x) € tO,1l et <D-'(f (*))n'estautrequelefractileur,",d'ordreF(x)delaloi
N (0,1).
Le nuage de points (t, ur (r)) sera donc représenté par une droite dans un
repère arithmétique usuel ; si, pour simplifier, on gradue I'axe des ordonnées par la
fonction O-', le nuage (x, F (x)) aura pour image la même droite. Ce papier à échelle
arithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gausso-
arithmétique : un échantillon donné aura de fortes chances de provenir d'une loi
normale si le graphe du nuage (e,, Fn (e,)) est ajusté sur une droite dans un papier
gausso-arithmétique (voir page suivante). Cette droite porte le nom de droite de
Henry.
b) Loi exponentielle
Xsuit la loi r (1, 01, dedensitéf (x) : 0 e-tu(x)0, d>o) ; F (x) : 1 - e-tu.
1-F(x) :
"-tu
Log(1 : -6t
-F(x))
ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage de
points (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithméti-
que ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère
arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier
fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier
semi-logarithmique.
PH TASSI - S. TEGAIT
1
LES LOIS DE PROBABILITE USUFLLES
o
l
.g
.o
s.ÈE
L
(o
o
ô
-c
uJ
o
b
'o
a
a
q
v,
a
ù)
o
a.
(ù
a_
qræ rr)o
C
O)orJ or)O)
O o)-o)
srq E E FFËHE=F E S=ËÈ=
6.O
=O
C oo- o'o o o
=
o d-dSè'co-
=
o- - ----é=-;-
aa
O(t'
LIJ c')
Remarque
Le papier serni-log sert également à identifier un modèle multiplicatif
X- : m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série
tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à
un modèle additif à saisonnalité stable.
c) Application nurnérique
Les températures relevées à 1O heures, sous abri, en mars 1953, à la station
météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ci-
après. L'unité est le degré Celsius, avec deux décimales'
0.60 9 6.44
0.1 1.74 0'A2 2 34
4.OB O.17 .16 1 1.23 1 '74 0.55
o.25 3.43 1.64 5.32 3.80 1'27
0.68 2.22 2]7 2.85 3.67 0'26
2.48 4.08 1.23 0.35 5.05 3.22
o.00
Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire
l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ?
On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où
les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21'
+ oo['
12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ;
Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont
sont issues lès données est une loi exponentielle de paramètre égal à la pente de la
droite en valeur absolue.
1-F en échelle logai'ithmique
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
a) Loi binomiale
On sait que siX suit une loi fi fi, pl:
P(X:x) : CIP" (1 -P;n-* x:0, 1,...,n
ll s'ensuit :
P(X:x+1) :h(x) P
P(X=x) - 1-P -.il-x
*;
(o(x(n-1)
si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est la
restriction à {0, ... n - 1 } de t'hyperbole :
p(n-x)
(1 -p)(x+ 1)
b) Loi de Poisson
Soit X de loi I e) :
:h(x) : ^ , x€lN
P (X: x) x_1
si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera
la restriction à lN de l'hyperbole
x+ 1
En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et si
f1 Û : t à K) est la fréquence relative d'apparition de a dans l'échantillon observé
(Xr, ...,Xn), on porte en ordonnées :
f.'j
_ 1
t'*'' h (aj)
et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage de
t1
points (a,, .7) est à peu près linéaire; comme
r h (a,)
:
1 - r*1
h (x)
À peut être approximé par l'inverse de la pente de la droite.
^^
4 DIVERS
a) Schéma d'urne
ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type
nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise,
nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non'
Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des
exemples de ce mode de définition.
ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les
v.a. continues. Ces variables sont souvent en liaison avec un problème physique
concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de
mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi
de Weibull en fiabilité, la loi log-normale dans les études économiques sur les
revenus, etc. Dans cette classe prendront place les lois définies par leur fonction
caractéristique (chaPitre 6).
alors :
f (x)
I"IR f E) d-
est une densité de probabilité d'une v.a. continue. De même, sous réserve d'exis-
tence, toute fonction f développable en série entière à termes positifs :
f(?l.: x
x€lN
peut être utilisée pour donner naissance à une loi discrète :
P(X:^1 : -u-" -
r (0)
De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans les
modélisations probabilistes des phénomènes physiques, socio-économiques ou
autres ?
Exemple
Considérons le développement en série des fonctions ch et sh :
oo U2n oo ,2n+1
chu:
n:g (2n) ! n:g (2n + 1) !
On a donc: ôo 1 U2n
1-
n:0 ch u (2n) !
oo1 ,2n+ 1
1- :
n-O shu (2n+1)!
On peut donc définir deux lois de probabilité discrètes associées aux v.a. X et
Y, définies respectivement sur 9, ensemble des entiers pairs, et J. ensemble des
entiers impairs, par :
Àx
P(X:y) : (x€0),.ÀctR*
ch .À x!
P(Y:Y) :
1
(y € J). ,l € lRi
sh,À ^v
yl
En outre :
E(X) : : ^x
xeA ch .l x!
z= ^ ^x
x€J ch,À x!
d'où :
E(X) :
^rhÀ
PH. TASSi - S. LEGAIT 149
LES LO]S DE PROBABILITE USUELLES
Une telle construction n'a de sens statistique que si la loi engendrée peut être
mise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de Poisson
I (l) à l'ensemble des entiers pairs (resp. impairs).
rt**pl
E (X2$ : 2n
r ttt
_.5.
I lZ)
lJa : Âa: 4
_^
_J
r ttt
et donc :
Fr: 3
Y1:Y2:O
c) Valeurs de y., et yzgour quelques lois usuelles
o Loi binomiale
q-P 1-6Pq
t't /2:
\,6pq npq
Y':,r,D Y":
^
On remarque que, si ,À - + co, les coefficients de Fisher de g (,1 )tendent
vers O, c'est-à-dire ceux de N (0, 1).
o Loi log-normale
En notant ar : exp or, on obtient:
\/,r 1
Y, : -r*2- y": eo + 2u3 + 3u2 -6
26
: -7-
Yt
vP Yz:
- -p
o Loi bêta É (p, q)
2(q-p)v[;l-J
\/:
I2
p+q+2
3(p+q +11 t2(p+q)'+ pq(p+q-6)l
Yz: pq(p+q+2) (p+q+3)
PH TASSI -S LEGAIT
151
LES tOIS DE PROBABILITF USUELLES
Loi uniforme
Loi de Student T n
o Loi du x2 (n)
Y'r : IB Yz
12
n
Définition 23
Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite
appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonc-
tions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la
densité f (x, 8) de P, par rapport à g vérifie :
I a; (d) T, (x)
r
Logf(x, 0l : y(d)+P(x) + I a,(d)T,(x)
j:1 ) )
Exemples
r Loi binomiale
T(x) : x
h(x) : Cf
c(p) : (1 -p)n
a(p) : f-og lLr-p
o Loi de Poisson
f (x,'À) : e-i ^x
x!
o Loi normale :
(x-m)
f (x, m, a) : e 2o2
-!o-t
t/2t
mx
^' ^"
o-, e ;7 ;7. 7
1
x/2n "-
T,(x) :x2 T2(x) :x h(x) :1 c(m,a) -o-1 e-m2/2o2
a., (m, o) : - 1m :
ar(m,
2", "l 7
r Loi exponentielle :
0p
Tr(x) :* Tz(x) :Logx h(x) :1,r.(x) c(d,p) :
r(r)
a,(0,o1 --0 ar(0,o1 :P-1
e Loi uniforme :
(x,ol : 1
, (*)
'f
i to, rt
Elle ne se met pas sous la forme exponentielle.
o Loi de Cauchy:
Ladensité:
t(x,01 :- 1 1
T;S_6
ne se met pas sous la forme exponentielle.
Propriété 7
Soit xo (resp. y/ le fractile d'ordre a de X (resp. Y) ; alors :
Yo : F (xo)
Démonstration
P(Y< Yol : a: P(F(x) < YJ : P(X<F-t (YJ)
'I
h4 PH' TASSI - S' LEGAIT
LES LOIS DE PROBABILITE USUETLES
: F-r (y,i
P(x) : 1
10,x:oàg
P (xy) : 1
xy: OOà99
100
I
p (xyz) :- I
xyz : 0OO à 999, etc.
1 000
49943 30139 07932 29267 01 934 19584 13356 35803 90284 97565
71559 30728 83499 65977 37442 72526 53123 99948 59762 19952
75500 16143 79028 81 790 57747 87972 54981 10079 17490 15215
59894 59543 1 3668 27197 51979 38403 23989 38549 82968 53300
29757 26942 08736 '15184 73650 51 130 59160 89866 06030 88929
Pour obtenir une réalisation d'une loi uniforme sur [0, 1], on fait le choix
d'une précision et on normalise les chiffres regroupés selon cette précision ; ainsi,
si l'on souhaite 4 chiffres après la virgule, on regroupe les éléments de la table par
paquets de 4, qui constituent la partie décimale :
Exemple f
Soit X de loi exponentielle :
o,4994 0,6919
0,3301 0,4006
0,3907 o,4954
o,9322 2,6912
Exemple 2
Si X suit une loi normale N (0.1), de f.r. Q, (y., ..., y^)désignant n réalisations
d'une loi uniforme sur [0, 1], (O-t (v.,), ..., O-' (ir")) esi un échantillon de la loi
normale centrée réduite. De telles tables ont été calculées ; celles qui suivent sont
issues d'une publication de la Rand Corporation [ 1B].
.661- .654- .379- .759- .804 .282 .317- .219- .318- .580-
1
1.117- .871- .187- .543- .421 .311 .493 .574 j45- 2.332-
.551 .335 1.746- .235 1.455 .251 1.024 .062 .O09 .676
.743 1.076 .766 .O52- 1j94 .517 .401- 1.292 .280- .540
.329- .277 1.736 .175 .401- .665 .479 1.322 .O72 .867-
1.264- .970 .639- .761- .502- 1.559- .249 .1 19 .065- .812-
2.092- 1.610 1.423- 1.O71- .642 .759- 2.276- .133 .976- 1.506
1.447- .154 1.464 .O32 .1076- .327 .378- .055 .521- 1.404-
.018 .533 .558 .593 .737- .189 1.876- .140- 1.380- .303-
1.445- 1.357 1.657- .837- 1.417- .548 .423- .398 .167 .147
.002 1.537 .113 1.008- 1.080 .772- .368- .290- 2.146 .539-
.576 1.201- .108- .334 .659 .192 .1 9 .861 .856 .O18-
1 1 1
.233 1.043- .852 .746- .046 .395 .735 1.526- 1.065 1.450
1.239- .155 .090 1.130 2.623 .81 1 1.372- .647 .858 .740-
.928- .802 .043- .463- .985 .395- .386 .465 .372- .278-
.670- .821- 1.092- 1.062 .601 2.509 .557- .814- .220- .019-
1
.643 1.339 1.287 .446 .O42- .593 .366 .640 .850- .847
2.503 .162- 1.125 1.241- 2.226 1.063 .085 .016 .786 .766-
.895 2.238- 1.7't1 .640 .067- .o88- .031- .1 84 .550 .417
1 1
.070- 1.367- .659- 1.025- .475 o.59 .792- .468 .284 .185-
.891 .903- .213- 1,847 .223 1.640- .772- .324 .O13- 1.757
1.170 .340- .295- .451 1.081 1.073- .073 .477- .397 1.282-
.130 .205 .665 .306 .790 .851- .935 .502- .650 .254
.591 1.342- 1.194 1.428 1.470_ 1.202- .450- .668- .212 1.161
.487- ' .792- 1.453 1.465- .390 .796 2.186- .461 .848 .236-
1.048- 2.550- .241- .109_ 1.385_ .066- 2.523- 1.270 .914 .157-
.984 .357 .563 .624- .614- .566 1.292 .776
't.217 .976 1.516-1.177_ .371
.737_ .O18 .768- .712 1.O01- .O12 .456-
1.008- .849- 1.272- .903 1.192- 2.081- .157 .708 2.132- .297-
.596- .219- .726- .417_ .214- .625 .699- .276 1.505 .672
.315- .999- 1.788 .592 .640 .677 .965- 1.066 .189- .657
1.441- 1.171 .192-
1
.315_ 1.714 1.131 .OO1- .342- .039 1.486
.413 .269- .602 .O85 .848- .207- .396 2.358- .045- .087-
Si X suit une loi N (m, a), l'échantillon gaussien sera :
Soient X et Y deux v.a. indépendantes suivant chacune une loi de Gumbel (cf. 2.5). Donner la loi de
Z:X- Y, dite loilogistique. En déduire E (Z)et V (Z).
ftu,
ry
(u, z) : exP l2u - z - e' (1 + e-t)l
,(zl
: e-z Jf eu {1 + e-')1 du
'u-eu
En posant t: eu (1 + e z) :
tz?l : e_z
Vz €lR
(1 + s-212
E(Z) : g er v(Z) : 7T
Remarque
La loi de la dilférence de deux v.a. indépendantes suivant la loi de Weibull, au sens où elle a été
définie dans la remarque du paragraphe 2.5, suit également une loi logistique puisque cette dernière
est paire ;
e-z ez
(1 + 9-212 (1 + szl2
'l) Exprimer la densité de la loi de Z, dite loi de Cauchy. Comparer les positions respectives de la loi
de Cauchy et de la loi N (0, 1 ).
- l4
I
l.r 1n-r11
z
et ftr,
,r
(*' Yl : L
2r
,-i [^" + y"l
d'où :
1-tx x
2
f(*, (*' t) :
I -- 2'
+ ,l
z" lxl
z)
2r z
2
.1^0 _l x' I
_1
lr(zl: - 2"r, J__ *t 1l + ^,
+ ---- ^
1+- ,"1t*11
zdx
2 z
dx
2r z'
f
-0 xe 2
t, (zl : --l--
' n (z'+ 1)
P(z> 1) : l:*1 -:
n 1z'+ ^
dz: o,2s
11
0n dit que la loi de Cauchy est <à queue plus épaisse> que (0,
N l).
1/\En
J^*æ n(z'+11
zk
-æ -. ,.
dz (k211
sont indéfinies.
3) fr(u) :
"l,-.æ;A
PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
4.3 Montrer que si X et Y sont deux v.a. indépendantes de loi N (m, a) alorsX+ Y etX- Y sont
indépendantes.
lndication
(;t;):(t;)(i)
donc (X + Y, X - Y) est un couple gaussien.
_ I'l
Soit f (x) : k e 0,0êlantunparamètreréel strictementpositif.
, :
X
2) 0n pose .Déterminer la loi de Y. appelée loi de Laplace normalisée.
7
3) Calculer E (Yr), Vr € lN*. En déduire E (Y) et V (Y).
lndications
^+oo -4e + K-
I
1) J'_Kr dx:l
n
2) La densité de Y s'écrit:
s (y) :7 1
e-lvl
Si r est impair, la fonction à intégrer sur lR est impaire et donc E (Yr) : 0. Si r est pair, la fonction
à intégrer est paire et :
oo
E(Y') : JO
^*
yr e-Y dy: l-(r+1) : r!
loi de Pareto
a0a
f (x) == 114*-1(t) (a)o'd)o)
,r-,
l) Calculer E (Xk) en précisant les conditions d,existence,
lndication
r) E (Xk; : l)* o e, dx
agd 0a
Vx)d:F(X) =$ dr : I _(_)
1a+1 X
F(x) : I
21/a 6 donc la médian e est en 21/a 0
-(è1:
2
soit x : (xJ,:, :
,n, un vecteur aréatoire gaussien de dimension n, de roi N (0, rJ. soit d (d;);:16n
un vecteur de lRn, 0n définit la variable aléatoire
:
Y: llX+0ll'= n
(x. + 0il2
i:l
PH TASSI S LFGAIT
LES LOIS DE PROBABILITE USUELLES
Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou de
décentrage) :
n
t Ê,:ll0ll'
^- i:l I
3) Si (X;);=16n sont n v.a. indépendantes de lois respectives N (m,, a,). 0n dit que U: I X]suir
une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).
lndication
d'où :
Z' et AX + d' ont même loi, donc llZ ll2 et llZ'll 2 ont même loiX'? (n, lle li'?).
I
I
LES LOIS DE PROBABITITE USUELLES
X,-fi,
( --) suit y= 111, on déduit E (Xi- mi)4 - 3 oai
d'où : I
4.7 soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités :
X.
p, : t, {t) dt
{'
lndication
P,
.1, F (X,)donc P, -? Aro.r, (cf. exercice 3.1, chapitre 3). 0n effectue le changement de
varraDle:9lx'l : - 2Logx.'
La densité de - 2 Log P s'écrit :
i:1
. PH TASSI S. LEGAIT
163
I
Chapitre 5
Géométrie des variables aléatoires
Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., si
aucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, inté-
grables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oéga-
lité P - presque sûrement, est une relation d'équivalence sur 9.,.
Définition 1
On appelle L.' (Q, ué, pl l'espace quotient de 9., par la relation d'égalité
P -ps.
Théorème 1
E(X) : E1Y1
Définition 2
Soit (Xn) une suite de v.a. de L.,. On dit que Xn converge vers X au sens de L.,
L-
(noté Xn + X) si :
d'où :
L.
Xn-) x '+ E (Xn) E (x)
Remarque 2
->
Plus généralement. on peut montrer que l'espace L1 (O, e' p) est un espace
de Banach, c'est-à-dire un espace vectoriel normé complet. Ce résultat est connu
sous le nom de théorème de Fisher-Riesz.
. L" est donc l'ensemble des (classes de) v.a. admettant un moment non centré
d'ordre 2 (v.a. de second ordre) :
Théorème 2
Conséguence
La norme au sens de L, est notée llX ll, et définie par :
Définition 4
soit (Xn) une suite de v.a.r. de Le ; Xn converge vers ra v.a.r. X au sens de L,
L^
(noté Xn é) X)si :
Exemple
soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, p).on définit, pour
chaque n, la variable aléatoire ofréquence empirique, :
X
-n
PH TASSI S. LEGAIT
167
GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES
( ri,.n E(X") :a
lnl
I
I lt'.n V(Xn) :o
(n
Théorème 3 (Cauchy-Schwartz)
Soient X et Y deux v.a.r de L, ; on a :
Théorème 4 (Minkowski)
Soient X et Y deux v.a.r. de L, ; on a :
Remarques
a) Dans le théorème 3, si l'on prend Y : 1 (ps)' on obtient :
.3 g
1 Les espa ce ^ppet L_
Définition 5
ge(A, u(, n désignant t'espace des v.a.r teiles que E (lXpl)< * (1 ( p < -),
Lo est l'espace quotient de 9 la relation d'égalité p-ps.
rpar
La norme sur Lp est :
Les trois propriétés suivantes sont classiques et généralisent celles qui ont
été énoncées ci-dessus.
Théorème 5 (croissance)
Montrons que pour f et g mesurables déf inies sur (O, ,rl , pl, on a :
Posons :
lrdp -[sds
fd gP f *B
g
I jrdpY ll sdttlq
.----\u
lrdp l sdp
En intégrant par rapport à p, on obtient :
Cas particulier
Soit p : 2, q : 2: on retrouve llxYllt
I'i négalité de Cauchy-Schwarz.
Démonstration.
i) Pour p = 1, on retrouve E(lX+Yl) < E(lxl) + E(lYl).
ii) Soitl<P(oo:
lX+ylo : lX+YI .lX+YIe
< (lxl +lYl).lX+vln-1
: lxl .lx + vlo-1 + lYl .lx + Y;n-t
En prenant I'espérance :
11
_+__1,soit p
q p Q:_p-l
d'où :
: -f lX+YlPdP
r.e.
ll(X+y)p- t ll o : llX+y1;n-i
Soit :
2 UN PEU DE GEOMETRIE
Le fait que L. ait une structure d'espace de Hilbert, c'est-à-dire qu'il existe un
produit scalaire. l'orthogonalité, etc., peut nous autoriser à y faire de la géométrie.
Avant de travailler sur I'espace des variables aléatoires du second ordre, nôus allons
rappeler l'interprétation géométrique de quelques-uns des concepts de la statisti-
que descriptive.
I la moyenne quadratique
o la moyenne arithmétique :
1n :x.
X:
n i:1 |
. la variance empirique :
s,r- 1
n
I(x -i)2
I (xi i) (yi - V)
r(X,Y) :
1n
P-
n
n i:1 xi
H-t.l
/,\
,i.e. OH:i.Ë
\ "/
1
La moyen quadratique q est, près, la longueur OX:
à
- Vn--
a:.16
1
oX
ou: XH : .16. S,
PH TASSI S. LEGAIT
113
GEOMETBIE DES VARIABLES ALEATOIFES
On sait : E(X-E(X)) :0
E(X-E(X)) : <X-E(X), e):0 + X-E(X) Ie
ll en résulte que E (X) est la projection orthogonale de X sur e.
Remargue
(x)
Ona:
Cov (X. Y)
cosd = o(Xl .o(Yl o(X.Y)
E (XY)
k- E (X')
c) Approximation affine
soit (X. Y) un couple de v.a.r. on cherche à expliquer y de façon affine par
une v.a. appartenant au sous-espace engendré par e et X, L, (e, X). cela revient à
chercher des constantes â et b telles que la distance ent-re y et âe + bX soit
minimale.
L, (e, X)
ll est clair que Î : âe + bX, projection orthogonale de y sur L, (e, X), est le
point de L. (e, X) le plus proche de Y. Les paramètres â et b sont leJcoordonnées
de Y sur e et X (pour que le problème ne se ramène pas au cas précédent, il faut
supposer X non colinéaire à e, c'est-à-dire X non constante).
E(Y-âe-bX1 :9
E((Y-ae-ôXlX) :0
â+b e(X) : E(Y)
âE (X) + br (X') : E (XY)
PH TASSI S LEC:AIT
GEOMETRIE DÊS VARIABLES ALEATOI RES
L'approximation affine sera d'autant meilleure que V (î) est proche de V (y),
c'est-à-dire R2 proche de 1, c'est-à-dire d proche de O.
Généralisation
on peut chercher à approximer une v.a. y par une v.a. située dans le sous-
espace de Hilbert L engendré par (e. x1, ..., xe), où X,, ..., Xo sont des v.a. telles que
L est de dimension p + 1, c'est-à-dire que, quel que soit i : 1 à p, X. n'est pas une
constante et, quels que soient i et j, X. et X, ne sont pas proportionnelles.
î:âo*,Ë., ,, *,
v-?re
Y-îrx Vi : 1àp
' En écrivant Q la matrice (p + 1. p + 1) de terme général :
@k,n:E(XkXn)
où k, n : 0 à p, avec la convention Xo : e, et en notant ;
Oâ: b
â: Q-l b,
d'où : 1:t"Q-tb
Soient X', ..., Xn, n v.a. indépendantes de même loi N (0,1); le point X de
coordonnées "cartésienneso (X.,, ..., X") se déplace dans lRn de façon aléatoire, chaque
coordonnée étant au uhasard gaussiënu.
12
1+ (n-
; - ;
(u(Xi) + 1) Cov(Xi, Xj))
-1- n
Pour la même raison d'orthogonalité :
Lemme préliminaire
Soient X,, ...,
In n variables aléatoires telles que Cov (X,, X,) : O Vi, j, i+ j
et v (xi) : o'vi. on effectue un changement de base orthogonar, et on note
(Y,. , Yj les transformés de (X,, .... Xj ainsi obtenus.
Alors:Cov(Y,,y,) : O Vi, i i +j.
Démonstration
soient fr, ... f^ les vecteurs de la nouvelle base. Dans l'ancienne base, la I
/n' rnr\
t:
F- [ t,, rr,
:\
\:t.," .l I
\ ,
^^,/
Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformation
est orthogonale si le système d'axes orthonormés initial est transformé en un
second système également orthonormé), et donc Y : F'X.
.n
Y-
' k:1
Cov(yyl
'r't' : >>f.f,, Cov(Xk,Xt)
k I'n
: >f f. V(Xk)
k'*JK
: o't f..f..
rKlK
:o k
Théorème de Fisher
n
Les variables 16 Xn et t . (xi - X)t : (n - 1) Si - nS;' sont
l: I
Démonstration
Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée.
n
Le vecteur unité Ë peut s'écrire I ei.
i:1 |
n
X-
j:1 I t
n n
X-VnX-t::
' X.e ol --F-
1
n n
l:l -'-i- '-6 Vn i:1 |
n
: -X n'lte
i:1 |
n _ n-1
D'où : : (X,*X)e:
| n'
i:1 ' j:1 I l
Les variables (Xr, ...,Xn) étant non corrélées, le lemme préliminaire permet
d'affirmer que les variables"(y.,,...,y^) sont non corrélées. comme images de
(Xr,, ,Xn) par une appricatiori linéaire, y,, ...,yn sont des v.a.r. normales
.normales
et donc iôdépendantes.
n-1
j:l l
n-1
. .
I _ YÎ suit, par déf inirion, une loi du ;2 (n - 1).
j:l '
r L'application orthogonale conservant,les distances ;
n-l n
j:l r i:1
n
et donc
i:1 |
Corollaire
Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors :
(Xn - t)
t6 oo, "t rn -rt 5
suivent indépendamment une loi N (0. 1)et une loi X2 (n - 1).
PH TASSI S LEGAIT
GEOMETRIE DES VARIABLES ALEAIOIRES
Démonstration
ll suffit de se ramener au théorème de Fisher en l'appliquant aux variables
centrées et réduites :
X.-m
w-l
t-
to
(X
'n -m)
,6 o
->N(0,1)
S2
n-
o"
-ln-1 x2$-1r
Donc, la v.a.r. :
.,6 (x. - r) :n
S
U t
suit le rappor:! d'une loi.N (0,1) sur une loi . /-[Vt" -tt . numérateur et dénomina-
V n-1
teur étant indépendants (cf. chapitre 4).
OH
cotg a : suit
-
HX
d'où N (0,1)
: T(n-1)
:
\Â-lcotga-)
1 DÉFINITIoN ET PRoPnIÉrÉs
D'UNE FONCTION CARACTÉRISTIOUE
1.1 Définition
Définition 1
pp(u) =J 6P 1*1
"it'*
Remargue
Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1).
-
confusion avec la fonction caractéristique ne saurait exister.
Néanmoins, ra
soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension.
on appeile
transformée de Fourier de f la quantité :
Remarque
Sous réserve d'existence, on montre aisément en intégrant par partie
:
PH.TASSI -S LEGAIT
185
UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE
Définition 2
Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? o) : on appelle fonction caractéris-
tique de X, la transformée de Fourier de Px:
(i Ë ,, x,)
j=1
91 (u1, .'.'uo)= E e
Exemples
a) Soit X une variable aléatoire à valeurs dans (lN, cl (lN)) :
n n
çx(u) x eiux
= x=1 1 x (eiu1x
n n x:1
n-1
: e'u t (e,u)*
l'l x =O
= eiu 1-"iun
n 1-eru
b)Soit X une v.a.r. absolument continue de densité
çx(t)= 1
1-Àit
Un cas particulier : la fonction génératrice
Soit X une v.a.r. discrète à valeurs non négatives ; on appelle fonction généra-
trice de X la fonction :
Exemples
a)Si X suit une loi de Poisson de paramèrre À : p [X = *]:
"-i x!
^i
G"(u) : i u*e-i Àx-"-iuu,i:s.À(u-1)
x=O x !
çxft)=ei(eit-1)
b)six est discrète uniforme à valeurs sur
[1, .... n]. le calcul du a)montre que :
G*(u)=u(1 -un)
n(1 -u)
1.2 Propriétés
Théorème 1
a) <p(o):1
b) lç (u)l < 1
PH TASS S LEGAIT
UN OUIIL LA FONCTION CARACTÉR ST OUE
c) q(-u)= tpGr)
Théorème 2
Soit X une v.a.r. de f.c. g ; g est continue.
Eléments de démonstration
I ç (u +h)-q (u)l = I r ("i"x 1"ir,x - t1)l <r (leinx - t l)
gl. l"ftrx
- 1l= 2lsin hXlO'o,i
2
te résultat, généralisable au cas vectoriel.
Théorème 3
QaX + b (u)
: eiun çx (au)
En effet,
gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1
Théorème 4 (injectivité)
Si P et O sont deux probabilités définies sur (F.0, ,1lol :
9P= 9O <=> P= O
Théorème 5 (inversion)
Si X est un vecteur aléatoire à valeurs dans (lRP,,îel, de f.c. ç (u)intégrable
par rapport à À o. la loi de X possède une densité continue f (x) définie par :
f(x)= 1 I e-i,"p1u;du
2n _*
Dernier point que nous aborderons : comment savoir si une fonction
plexe d'une variable réelle est ou n'est pas une fonction com-
caractéristique ? plusieurs
résultats existent à ce propos.
a)
ç (u) continue
NN
X X p(ui -u.)2,2,
i= 1 j= 1
c) ç(0)= 1
a) ç(0) = 1
b) .p(-u) : ç(u)
c) - g (u) convexe pour u ) O
d) lim ç (u)= 0
En 1925, Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par:
Its+qpourc*1,
w (u, a)= J'
[ +t"nlulpou,o=
On remarque que :
La loi de Paul Lévy se ramène alors à la loi N (0. 1). (cf. 2.7).
Détermination de la densité
Les conditions du théorème 5 étant réunies, en notant f (x, e. B, y' ô) la
densité de la v.a. de f.c. 9 :
--cos
+æ
- 1 1\
Jo t(ô - x) u - By w (u' a) ,'1 s-Yue du
PH TASSI . S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
Particularités de la densité
c f (x + ô, a. B, y, ô) : f (x, a, B, y, 0) ; on peut prendre ô = 0, par simple changement
d'origine.
o f (x. a, B. y)= f (- x, o,- B.y).
c f (x, a, B, y) = \- 1/" f (-j-,
t/o
a, B, 1)
\
o f (x, a, B, y) = (3- 1/o f (di, a, B, y /t3)
o f (x. a. B. y) = (By)- t/c f (x/(By)1/u, a, B, 1/{3)
On peut standardiser la loi de Paul Lévy en prenant ô: 0 et y = 1. La densité est
alors :
*-"o,
f (x, c. B)= I f (xu + B uo tg -qI)e-uo du.
7Io2
2 FONCTIONS CARAETÉRISTIOUES
DES LOIS DE PROBABILITÉ USUELLES
2.1 Loi de Dirac
On établit immédiatement : çd-a (u)
: eiua
9x(u)= s-lul
i
I
i
t
UN OUTIL : LA FONCTION CAFACTERIST|OUE
= 1-u2çx(u)
d'où : ex (u) = 1
1+u2
k
tuX: t uj Nj
j=1
est:
Env= 1: k
9x (u):( X pi ei'i ;n
t=1
Démonstration :
gx *y (u) = E (situ (x*YD = E (eitux situvl
7Bb, pl + ,/J (, p) = J3 (n + 1, p)
b) Si X et Y suivent deux lois de Poisson indépendantes de paramètres
respectifs À et p, alors :
Qx * v (u)
: çx (u) çv (u) = u( À + u) lsiu -11
PH TASS1 .S LEGAIT
UN OUTIL : LA FONCTION CARACTÉRIST|OUE
N (mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1 *"| I.
En effet :
a)V (u.,. u2)€ lRp x lRq, ex, (u1)= ex (u1. 0)et O1, (u2)= Ox (0, u2).
Démonstration
+tu2x2))
a) 9x (u1, u2) = E (si(tutxt
PH TASSI - S. LEGAIT
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Vk<n,E(lXlr)<-
Alors rpx, f.c. de X, est dérivable au moins jusqu'à l'ordre n et, pour tout
k,k=0àn:
,pj[)(o)= ik E Xk)
Démonstration
Pourtoutk,k= 1àn:
_9!eiu* - ;k 1k
"iux
auk
.pjf)(o)= ik E fik)
Remarque
Réciproquement. si ex admet des dérivées en o jusqu'à l'ordre n, alors X
admet des rnoments non centrés au moins jusqu'à I'ordre n.
Exemple
Soit X une v.a.r. suivant une loi normale N (m, a), de densité
f (x) = 1 s- $ -ml2/o 2
t /Zi
On sait que :
D'où :
ç; (o)= im er E x)= m
(ur,..., uo)\=
1a"ç ," r XT' .xfiot,
I aurol .... ,lo /,0, . , o,
p
avec X &::
l
î.
i=1
Remarque 2
Un résultat analogue existe pour les v.a.r. à valeurs entières non négatives en
considérant leur fonction génératrice. En effet :
F1r.1
: E (X (X - 1) (X
- k+ 1))
Exemple 1
^), "
C,[t]1u1:À ke.r(u-1)
F1r.1
: G[)(1)= i k
(résultat établi par le calcul direct au chapitre 4).
Exemple 2
k
SiX -> "//(n; p1, ...., pp)de f.c. çx (u)-(x pr eiui)n
1=1
en utilisant les propriétés liant les moments aux dérivées de çx en O, on peut
retrouver la matrice des variances-covariances de X :
uzui )
"iu;;n
+ n i2 pj (l p, eiuiln - t
",
?' q* (o)= - n (n - 1) p3 - n p,,
a2u)
d'où : E 621 : np, (1 + (n - 1) pi)
et V(X)=nBi (1
-pi).
1 98 PH TASSI - S. LEGA]T
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Enfin ;
a3f n (n - /'
1) iz pj pr ei,j eiur 1I pj eiuj)n
,lyl =
Zuratt= j
= i2EXj Xr)
d'où : E (X; Xr )= n (n - 1)pt p
et Cov (X,. X, )= _ n p; p
Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c..
pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normale
LN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculer
E X) = E (eY). On peut procéder à un calcul direct
lifrapitre 4).- Or .
ue lRp-wx(u):Logçx(u)
on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o :
ex (u): r . ,"
"i, *.ï1
oùmn=E(Xn).
: Log (, *"f,
*la ,"
Auvoisinagedeu:0, +k(r) )esrdéveloppabte,
et on peut écrire :
x ry
wx(u)= k=r k!
KkK
ona: Ë**=vp(o)
Définition 4
La quantité Kn s'appelle le cumulant d'ordre k.
vx (u)= + (
H mn )3+ .
Tlmn -( "?, Hmn)2
.
,'?,
"?,,
On en déduit :
Kr = mr Kz= mz- m? = pz
Ks= ps Kc= Vc-gp|
Exemple.- pour une v.a. X de loi N (m, o ), on a :
Kr=m=E(X) Kz=02=Vfi)
Kr= 0pourk)3
Au même titre que les moments non centrés, les cumulants caractérisent une
distribution de probabilité. lls seront donc des outils précieux.
a) Soit a une constante réelle quelconque : on sait Que gx * u (u) : uiuu qx (r)
et donc :
t#y*"(u)= iua+w"(u)
Kp (X + y) = Kr 1X)+ Kp (y)
c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réel
quelconque ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivée
k ième ".
On définit la fonction g(x) par :
;
j=o
(- t;;n
j !(k l)r 3+
On a donc :
(x) = f'\"/
sv\"' (x) f(k) (x) * a2 f(2k) (x)
- "" k! 2l (k!)2
= Ar (u) ea
(iu)k,/k I
PH TASSI S, LEGA|T
UN OUTIL : LA FONCTJON CARACTÉR]STIOUE
d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, (ar.),
s 8): h [f (x)]
soit: a? +a^
s (x) =f (x)- a' f' (x) . f" (x)
#
t_"? -_3r,
"*_". )
3!
fl3)(x)
:- at, À z=
u? !^u, ,
^1 2 "r".
La correspondance entre les an et lesÀn est biunivoque.
Théorème 11
g (x): ; Às çk)ft)
k =o
Alors :
(- 1)k
,^k:
kl J s (x) Hp (x) dx
Démonstration
PH IASSI -S IEGA]T
203
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
À j= (,1)'l-Lr"r H;k)dx
t.
Remarque:
Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'une
variable de densité g (x), d'approximer les coefficients i u.
;,.,
Ainsi, H1 (x)= x et Ài = - Jx g (x)dx sera estimé par - --1-' ;
s 8)= q (x)-
*â,f,
+(|)- *(s)fi). e(a)(x)+ ...
Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peut
éerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç,
ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie de
termes qui est utile en pratique. Malheureusement, rien n'assure que l'approxima-
tion de g donnée par un nombre fini de termes soit positive en tous points, et que
la qualité de l'approximation augmente avec le nombre d'éléments retenus.
Pour terminer, nous avons supposé a priori que g (x) admettait un dévelop-
pement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, que
si g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate tS"gll, exz/z dx"onu"rge,
I
et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :
g(x)= t ar qk)1x1
k=o k !
PH TASSI S LÊGAIT
UN OJIIL . LA FONCTION CARACTER|STIOUE
EXERCICES
Indication
1
(u) e-^2no2 dx
9v
o S lxliu
l2n lR
2
e-r2/2o2 dx
5x'u
otfZn
lR*
1
@tEP r tl-tt
lzi
6.2: (X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;, 1), j= 1 à n.
n
Déterminer la f.c. de Y =E Xi.
j=1 '
lndication
iumf
n
F (cf. exercice 4.6, chapitre 4)que Y suit une loiduX 2 non centrée.
avec À2 = mf ;on sait
Démonstration
Xn-â:+r(n)
r(n,
(Xn-a).
Ces lois établissent des propriétés de stabilité des sommes ou des moyennes
cumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limite
en convergencg el probabilité (on parle alors de loi faible) ou en convergence
presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands
nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn) , n 21, une suite de v.a.r. indépendantes et de même loi,
appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
n
1 :.x, :xnI m
n l:l
En particulier :
9ot o
n
Remarque
Ces deux théorèmes établissent des lois faibles, puisque les limites sont en
probabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, la
probabilité d'un événement étant la limite (en probabilité) de la fréquence empi-
rique de son nombre d'observations dans une suite d'expériences inôépendantès.
Démonstration
puisqueXnl m o Xn !9i *, rontrons la convergence en loi. Notons par I
la f.c. de Xn , pour tout n.
Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc a'(0) aussi, ç' (0) :
im.
Itt*":1]:p
tt{*"-oJ :1-p.
Sn XXi désigne alors la fréquence empirique, ou probabilité empirique.
nn-
soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on
note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors:
I
Xn?m.
Démonstration
ll X^-mll
2
2: ,(;r-J,
\n /
:e( 1>txi
n -m) )2
-1n2 no2
02 I
n (n-æ1
c,2
sn - 13 (xi
- xn)2
n i:1
Alors :
q.2! oz.
Démonstration
sn2:11xi-Xn)?
n i:1
Xn ! . =t X-n)2! m2 (théorème 6)
et 13 x?I E(xz) - m2 + o2
n i:1
(loi faible appliquée à la suite (Xl)), Oonc :
8,2 ! "z
PH. TASSI - S, LEGAIT 225
LES CONVERGENCES DE VARIABLES ALEATOIRES
Remarques
théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux
remarques importantes :
mr: E(Xk)'
m1 (n) :1i-x1
n l:l
Sous réserve d'existence de E( I X I k ) :
mk 1n;! m*
/r.: E(X
- E(X))k. En effet, 1lr
" (n): ni:1
1 3 fX,
-X)k
s'écrit en fonction des rnoments
k r-i
1lr (n) : >q (-1)k-j mr '(n) m; (n)
J:O
c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe :
13 n1x,1 eE(h(x))'
n i:1
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de
Poisson CI ()'l ;
l3 1 pEr 1 r
n i:11 * X, \l + X,
1_t: i
e/\1+Xt tr e-ÀÀ" int : 1-e-À
x:01 *x x! -9-^
À y:1y! À
soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépen-
dants et de même loi, tels que g : E(Zn) et L matrice de variance-covariance
de Zn existent. Alors :
En particulier :
Alors :
vn loj ru 10, r 1.
a) Théorème 25
On peut écrire :
Yn : rÆ I 3 tl---l) : 1 i f{,--qf
ni:1 ' o JÂi:1' o
PH TASSI - S. LEGAIT 227
LES CONVERGENCES DE VARIABLES ALEATOIFES
: t -r!+ott)
e(t)
b) Théorème 24
Posons Xn^: ty ?n pour u € lRp ; alors Xn est une suite de v'a.r. indépen-
dantes et de même loi, avec :
E(Xn) : tu ,u et V(Xn) :
tu I u,
et : ''/; fr" -'u /,,) l9j ruto,
tu u) I
d'où : tu /Ï (Zn p)19 tu N(0, :) vu € IRP
-
et, d'après le théorème 10 :
JÂ En - /) lg N(0, >).
Remarque
De la même façon que pour le théorème 23, les théorèmes 24 el25 peuvent
se généraliser à toute moyenne empirique l- I f"',tX,l. sous réserve d'existence de
n i:1
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de la
variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la
généralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations
indépendantes de X :
Ç2:li-xrt-x-n)2,
n l:l
v(x1) : E(x1)
- E, (x1) - m4
- ^3: mq - oa
Considérons la quantité :
rn I *, - rrxztt
J-n t! ''
q!gj_4 - i:1 '
J n.4=;-4 Jn@l - {_!-6d
Jn@l
D'après le rhéorème centrat limite, appliqué n
l,ir*1 ,
n
/Â(:ni:1x?-E(x2))
' _LolrutO,fl.
/Tm
En outre :
*
;;r:: ï Ë :i: ï,îï:"ïT:"',
D'où, par le théorème 17
./ n çXnf "E o,
et:
Jl (q2
- o2) loj ru(0, t).
J^æ
Pour E(X) * 0, on obtiendra :
Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :
c'est-à-dire
x_al (o + I R(x)l (e,
:
Ve)O, 3o)0 :I
d'où :
{l Xn aI ( o}C {l R(Xn)l ( e },
-
P{l xn aI <a}( P( I R(xn)l ( e
- ).
(o } : + :
lim P{l Xn
- al 1 lim P{l R(Xn)l <e1
n
1,
c'est-à-dire :
R(Xn)! O.
ll s'ensuit :
Théorème 27
Soit r:lN -lR* telle que,l'g rtnl : -Fæ, a un vecteur delRp.
(Xn). n ) 1, une suite de vecteurs de lRp tels que :
r(n) (Xn
- a) !g N(0, >).
/ôv dsr\
| ôÇ tÇ\
:l::l
qg" d3" I
\ Uu,' a"p
\ /
Alors :
(n) (g(Xn ) s(a))E *,o, G(a) r tG(a)).
-
Exemple
soit X une v.a.r. de loi de Poisson q)i, xnl, n2 1 , une suite d'observations
1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :
:
P(X 0).
e-Xn p e-À .
En outre
/î (sfr-") - s(À)!g N(0, .^-l - e-À |
:
Soit X une v.a. suivant une loi de poisson I (xl. Alors la variable y - X- À
converge en loi vers N(0, 1), lorsque À tend vers l'infini. JT
Démonstration
Soit la v.a. Y -
,(r_ J ),,
J)\ /x
PH. TASSI . S. LEGAIT 231
LFS CONVERGENCES DE VABIABLES ALEATOIRES
tr lsitl - t;
çY(t) :"-it'Æu
it it'l/À -t2/z)'l
çv (t) - '/-r eÀ(+
"-
d'où : py (t) : u-t2/2
1,11_
Or e- t
2/2 est la f.c. de N(0, 1), et donc :
'H::N(0'
X-À loi 1).
. p est fonction de n
olimnP(n) =À(À>0)
n
ona: xn9g\,l.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n): 1 (n p(n)) ;= O.
n
:
P(X: x) CI P'(1 - P)n - x -
.n(n-1)...(n-x*1) Px (1
xI (1 -p)n.
- p)"
P(X:x) (nP)te-nP À'e-À,
n*oo Xt n-*co Xt
nP*À nP-À
d'où le résultat.
232 PH, TASSI. S' LEGAIT
I
I
I
I
I
I
I
!
LES CONVERGENCES DÊ VARIABLES ALEATOIBES
La loi de Poisson est souvent appelée "loi des événements rares", car loi
limite du comptage du nombre de réalisations d'un événement donné, de probabi-
lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de
Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi
limite mais comme loi exacte.
En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,
i:1
on a, d'après le théorème central limite :
n
! Y;-np
-_h_9ru(o,rr
Remarque
En pratique. on pourra approximer laloig(n, p) par la loi N(np, /n ptt - p[,
bien que cette écriture n'ait pas de sens mathématique.
Exemples
,!9,9,
P(X < 18) : P1P,o, 1) < : o(3) : 0,9987.
P(X:0) : 0,6065'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :
P(X<5) :0'4312'
Par l'approximation gaussienne :
"/n
Démonstration
X
La v.a. Y - /p - /p admet pour f.c. :
çy (u) : s- iu /F çx (l-)
PH TASSI . S, LEGAIT
LES CONVERGENCËS DE VARIABLES ALEATOIBES
:s_iu
\c/
ah _iU_\-p
lim çv (u) : e- u
2tz f .c. de N(0,
, 1).
p*èo
Un
- E(un)
: t]_n_= n loi
wrù;i /Â
rrrto, rt.
On a vu au chapitre 4 :
',lr
rrt-L
2'
' - 24/2' f(b - 4.q. 1:
E (X4,) 3,
22
2
d'où :
V(Un) : 2n.
b) Approximations de Fisher
La plus utilisée est la suivante :
fi:L'i^)!g
----E-- ruro, rr
./ gn
On peut établir que la meilleure approximation asymptotique est cette
dernière, suivie par la première approximation de Fisher, qui est pourtant celle
usuellement employée dans les tables numériques de la loi de X'.
Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loi
vers la loi N(0, 'l) lorsque n tend vers l'infini.
Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.
{n
Soit Yn: y'nXn:+.:.Xi . Si cn désigne la f.c. de Yn, on a:
y'n l:l
fn (x) : ! f (u) du
2tr u "-,u**n
rn(x):ç(x) [1.Ks*3;3-Wf
ou.
fn(x) = ç(")[ 1 * Ks ({
ovn=gx)
*
r3*o+(gr. rar*)*, + gr.
-rs r3)*+ + (+sr3
- - rsr31
72n
EXERCIOES
çz $) :(] = ?'lli'i è zt x2 (p - q)
(1
- 2it)Prz
(1 _ Zitlp-A/2
6N.,
f(x) : s- t'' e\ 1rc,a- 1
(x), 0 > 0'
lndication
PH TASSI S LEGAIT
23A
LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS
Démonstration
Xn-a:+r(n)
r(n)
(Xn-a).
Ces lois établissent des propriétés de stabilité des sommes ou des moyennes
cumulées de v.a. dans une succession d'expériences, stabilité au sens de la limite
en convergence el probabilité (on parle alors de loi faible) ou en convergence
presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands
nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn), i )- 1, une suite de v.a.r. indépendantes et de même loi,
appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :
n
I :-x, :xn! m
n l:l
En particulier :
9ot o
n
Remarque
Ces deux théorèmes établissent des lois faibles, puisque les limites sont en
probabilité. Le théorème 20 justifie l'approche fréquentiste des probabilités, la
probabilité d'un événement étant la limite (en probabilité) de la fréquence empi-
rique de son nombre d'observations dans une suite d'expériences indépendantes.
Démonstration
puisqueXn! m o Xn lol r, rontrons la convergence en loi. Notons par I
la f.c. de Xn , pour tout n.
comme les v.a.r. appartiennent à L1 , E(Xn) existe, donc a'(o) aussi, ç'(0)
:
im.
( P{xn: 1} : p
I
ttt*^-o]:1-p'
Sn IXi désigne alors la fréquence empirique, ou probabilité empirique.
nn-
Soit (Xn) , n21, une suite de v.a.r. de L2, de même loi et non corrélées. On
note m : E(Xn) , o2 : V(Xn) , pour tout n' Alors :
x"km.
Démonstration
3*, \
llx. -
2
mll 2:E
+-^)' = e (lx(Xi
n - m) )2
:1 no2
n2
-!2n (n-oo1
-
Théorème 22 (Loi forte des grands nombres)
(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :
c'z:13
Tt-4 (Xi
-Xn)2.
n i:1
Alors :
ç,,2 p
+t- 02.
Démonstration
.n
9.,2:L: x]-x-")?
n i:1
Xn ! t - X-n)2! m2 (théorème 6)
9'2 ! "z
PH. IASS] . S. LEGAIT 1aÈ
LES CONVERGENCES DE VARIABLES ALEATOIFES
Remarques
théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux
remarques importantes :
mr : E(Xk)'
m1 (n) :13.x1
n l:l
Sous réserve d'existence de E( I X I k ) :
mk 1n1! m*
-n
I!
n i:l
ntx't!E(h(x)).
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de
Poisson Q 6l :
!4.
LES CONVERGENCES DE VARIABLES ALEATOIRES
tr r 1 \
Lr_r:Ë_:_: i1 o-ÀÀx e-À i,rt 1-e-À
\1+X, x:01 *x x! À y:1y! À
Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépen-
dants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariance
de Zn existent. Alors :
,rn En
- ll) lg N(0, :).
En particulier :
On définit la v.a.r. :
.n:__m
y-
-
(:Xi)
- nm. : /_n_frn__rl .
Alors :
a) Théorème 25
On peut écrire :
o
vyn(u) =[*(r*) ]"
ç(t) : t-Ï+o(t)
2
b) Théorème 24
Posons Xn : tu Zn pour u € lRp ; alors Xn est une suite de v.a.r. indépen-
dantes et de même loi, avec :
Ç2:13.x1
n l:l -fr-n)2,
v(x1) : E(x1)
- E2 (x2il - m4
- ^7: - 04
^o
228 PH, TASSI - S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIFES
Considérons la quantité :
JÂ t! 3 *,
Gl93-41 - -'ni:l ' -
E(x2)|
'-6-6rE
/ n4 o-4 - dn$ J-v1xzy
ni:1 |
n
,/i t: : x? - E(x2))
ni:1 ' lt.
/Tm -9r.rlo,
En outre :
*
i;r:: ï Ë :: ï,î:::"ïi:.,
D'où, par le théorème 17
!
:
,/î1Xnp o,
et:
{T $"2 - o2t !91 rrrfo, r t.
l^;---7
Pour E(X) * 0, on obtiendra :
/-_ni$3-g1 !9 r'rto, rr
/ u_ _;n
Théorème 26
Soit r : lN * lR- telle que lim r(n) : * *, a une constante réelle, et (Xn),
Démonstration
Considérons le développement de g à l'ordre 1 au voisinage de a :
c'est-à-dire
x-al (a = I R(x)l (e,
:
ve)0, 3a )0 :I
d'où :
{l Xn aI ( o } C {l R(Xn)l ( e },
-
P{l xn a I <a } ( P(l R(xn)l ( e ).
-
Or, d'après le théorème 18, Xn ! a, et donc :
c'est-à-dire :
R(Xn)I O.
ll s'ensuit :
Théorème 27
soit r:lN -lR'telle que,l'A tt"l : *oo, a un vecteur delRp'
(Xn), n ) 1, une suite de vecteurs delRp tels que :
r(n) (Xn
- a)!g N(0, >).
/ ôst dgr \
G- lôÇ 4\
l::l
\ô-s" ful
\ uu' a"p /
Alors :
e-xn ! e-À .
En outre t
,/Â (sx-"t - s(À)!g N(0, /À | e-À | )
-
G (" xn - "-n)!9j ruto, e-r /T).
Soit X une v.a. suivant une loi de Poisson g 15,. Ators la variable y: X
- À
converge en loi vers N(0, 1), lorsque À tend vers I'infini. JT
Démonstration
I lsitl/f - 11
çv (t) : u- lt '/f, u
it itl\^ -tz/zltl
çv (t) - "-
"Â eÀ(+
X-À
'Ë5N(0,
loi 1).
. p est fonction de n
rlimnP(n) :À(À>0)
n
ona: xn9g\\|.
Démonstration
a) Calcul direct
Sous les hypothèses : p(n) : 1 (n p(n))n= O.
n
P(X:x) =CXP'(1 -P)n-":
n(n-1)...(n-x*1) px (1
xt (1 -p)n.
-P)'
P(X:x) (Ue-nP À'e-À,
n*æ Xt n-oo x!
nP-À nP-À
d'où re résurtat.
232 PH' TASSI 'S LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
La loi de Poisson est souvent appelée "loi des événements rares", car loi
limite du comptage du nombre de réalisations d'un événement donné, de probabi-
lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.
Toutefois son utilisation est bien plus large et il est possible de retrouver la loi de
Poisson dans des cas particuliers de processus où elle n'apparaît plus comme loi
limite mais comme loi exacte.
En écrivant , n
Xn : I Yi,Yi->g(1, p) Vi = 1 à n,
i:1
on a, d'après le théorème central lirnite :
n
L Y,-no
' I
i:l l'? tttto' r t'
/ ^pq
Remargue
En pratique, on pourra approximer laloig(n, p) par la loi N(np, /n p(1 - p)),
bien que cette écriture n'ait pas de sens mathématique.
Exemples
P(X<18; :g'gnt,.
Par l'approximation normale :
P(X:O) :0'606S'
c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :
-e-iuAh-i ,\-P
\yo/
: s- iu /F
leiu '5 - u2tZy
On a vu au chapitre 4 :
rÉ + '!t'_
E(X4,) -24/2 2 4.9.1: g,
' f(b 22
2
d'où :
V(Un) : 2n.
b) Approximations de Fisher
La plus utilisée est la suivante :
/4 -
J^to! N(0, 1).
c) Approximation de Wilson-Hilferty
3Æ tt
n - \ -2_l
V
---T--
9n/ to! ru(0, t).
t/ gn
ii-1
t, ,lt(u) : Log ç(u) : .I^ l. (iu)t K1
t', t:, t,
{n
Soit Yn = ./n Xn : ' I Xi . Si .rn désigne la f.c' de Yn, on a :
Jn i:1
ûn(u) : Log qn(u) : n Log çfu/Jnl
oo
: n I- (iu)r.- Kj
i:21 nltz
1 1(i')ar4+"'
--!22 * St,/i(iu)3K"+
- 4!n
t
rn(x) -ç(x) [1-[*3.Wt
ou:
fn(x) : ç(*)[ 1 *
Kg (t:;g^)
*
r3"o+(sr.
-rs r3)r+ + (+sr3
- rar.)r, + gr* - rsr321
72n
PH TASSI - S, LEGAIT
IES CONVFRGFNCES DE VARIABLES ALEATOIRFS
EXERCICES
lndication
çx (t) : çv $) çz(t) en raison de I'indépendance entre Y eTZ'
c7 $l : (t' - ?'llX',l
2i11orz
: => z - x2 (P - q)
(1
- (1 _ Zi11p-a/2
lndication
1) Fyn (Y) - 1- (1
- F(ï)n où F est la f'r. de Xn'
VY>o,F(Y) :1-e-(Y-o)
d'où :
rrn (v) : (1
- s- (v-a) n) 116, + -1 (Y)
2) P{ I Yn
- 0I (e 1 : Fyn (0+.) - Fyn (0-.)
:'l -g-(o+e -o)n:'l -0-'n--1
lorsque n - æ, d'où YnI o .
E(Yn
- ul, : iî (v
- o)2 n e- (v - a)n f,y : !* i; ,, ,-, O,
:1r(r) :? -o
n2 n2
æ, d'où Yn L2 6
lorsque n - mq
.
3) Soit Zn : n(Yn
- o). La densité de Zn est :
g(z) :e-t110,+q(z).
La loi de Z est indépendante de n.
\
r
LES DISTANCES
Définition 1
F(x)
F(x e)
-
x-É x x*e
dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x,
appartenir au "tube" ainsi engendré autour de F.
ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations :
où P Â O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité par
rapport à É{.
b) 2dvP, O) :-[ldP-dOl
Exemple
On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : s- x. 1,^ (x),
+
et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, (x).
du (z(1)!Ùp,
rl : :
t_
e
0,3679.
1
Remarque
Considérons sur lR la restriction de la distance en variation à la elasse'€des
intervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autre
que sup I ptt- -, x[)
XX - o(]--. xt)l : Sup I r(x) G(x)l , rlresp. G) désignant la
-
fonction de répartition de P(resp. O) ; cette distance porte le nom de distance de
Kolmogorov dK (F, G).
Sur I'exemple proposé, on a F(x) : (1 e-x).
1to, rl (r) +11p+ (x) et G(x) :
^ -
1t,, * qfo,
-1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et 11
est égale à !.
e
-i (/æ - faoyz
H2 (p, o) :
Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel,
ona:
H2 (P, o) : -[ (fi - 'u[,12
dp: 2(1 - I lfr apl.
Définition 4
On appelle affinité entre P et Q la quantité :
a(P, O) : I 1tg7t/2 dU
ll est immédiat que 0 ( a(P. O) < 1.
Exemple
H2 (z('t ),%to, ,l : 2(1 _Jô /""- dxl -- 2 tfr- u
Définition 7
Soit A un événement quelconq ue de s{. On définit I'application p : -û * lR+
par :
Exemple I
Soient P:ô,,et O:ôr, x(y; il estévidentque l'on ne peutconsidérer
que des événements A de la forme {u}.
Pouru#x,p(A) :0.
Soit Ao : {x} ; alors la relation P(Ao )< O(,S) * e s'écrit :
1<0*e ou e21
et donc dp (ôx, ôr): 1
Exemple 2
Nous admettrons le résultat suivant : soient P et O deux probabilités, de
densités f et g. On suppose f définie sur [0, a], a ) O, éventuellement + oô, g
décroissante sur lRr, et, sur t0, al, f ) g. Alors :
P:,7/p, 11
et O : ill\
P et O admettent pour densités :
dL<dP<dv
dL<dK<dv
Pour O quelconque, on a :
d3(dr,(2d.
H2<2du(H /4-H'z<2H.
{otx,X) :o
i
lotx,Y) >o
a) Proximité au sens de L, sur I
ô (F, G) = J [F(x) - G1x;12 dx
Dans le cas discret, on aura :
ki
ô(F,G) : > (
i:1j:1 ' '
ll existe une version sur I'espace des densités :
Remarque :
ll est parfois d'usage de considérer des versions de ces indicateurs de
proximité pondérées par une fonction w à valeurs dans lR+ ; par exemple :
ô(f. g)
"l tf(x) -
:
g(x)12 f(x) dx
ô(F, c) : ki
i:l j:1 ' r
k
ô(f. g) : 2 o, (R, c,)2
i:1 -
(pi
ô(f.g) : i -q,)2
i-1 P;
d) Proximité de Wolfowitz
Elle est définie sur t par :
:JlF(x)
ô(F,G)
-G(x) | dx
ll s'agit de la norme au sens de L,, de F G. En discret, elle est donnée par
- :
ki
ô(F,c) : : | : (pi )l
i:1 j:1 ' -q, '
PH. TASSI - S. LEGAIT 247
COIVPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE
ô(f,g) :Jlf-gldx
soit le double de la distance en variation entre les probabilités P et O de densités
respectives f et g (cf. 1.2).
e) Proximité de Kullback-Leibler
ô(F, G) : -l Los
f(x) ar(x)
s(x)
pour I'indicateur centré sur F. Sa version discrète est :
kp,
ô(F,G) : : p, Log''
i:1 Q;
Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F, G) > O VF, VG'
Exemple
on prend pour F la loi uniforme sur [0, 1] et pour G la loi exponentielle
il1, 1l,.
a) Aucun problème n'existe pour les indicateurs de type Lr, sur les f .r. comme sur
les densités f et g :
:q-2-- 1 :o.o3o
6e2e2
c) Proximité de Pearson
L'indicateur de Pearson centré sur(2p,11 n'a pas de sens. puisque f(x) :9
pour x ) 1. Sa restriction à [0, 1] est:
o, (r, s) : Jl tl - e-')2 dx :r-:- #: 1,e6.
: Jl fx-
"' d*:
ô(F, c) 1 + dx + 1"î
"-x1 21
e) Proximité de Kullback-Leibler
Aucune version de cet indicateur n'existe puisque f(x) : 6 pour x ) 1.
Cependant, sa restriction à [0, 1] peut être calculée :
^ Soit (Xn), n ) 1, une suite de v.a.r. de loi'Z/p,1 + 11, et X une v.a.r. de loi
tùro,
,r' n
De même, un calcul simple montre que l'indicateur de Wolfowitz sur les f.r. vaut
1
2n
Remarque
intéressant sur le plan statistique. particulièrement en
ll peut être parfois
théorie des tests, d'introduire la notion contraire à la convergence qu'est la
séparabilité asymptotique;soient (Fn) et (Gn), n ) 1, deux suites de fonctions de
répartition. De façon générale. ayant fait le choix d'une mesure de proximité ô
prenant ses valeurs sur [0. M], M éventuellement infini, nous dirons que les suites
(Fn) et (Gn) se séparent asymptotiquement au sens de ô si :
Exemple
Ona:
o<H2(2du <H/4- t42
2 APPLICATION A LA FONETION
DE RÉPNRTITION EMPIRIOUE
si x., ...., xn est un échantiilon de n réarisations indépendantes d,une v.a.r.
de
loi de probabilité P, on définit ta quanriré :
p":1 ! ô"xi
nt:1
où ô. (x) vaut 1 pour x: a et o aiileurs. pn est apperée loi de probabilité
ernpirique, distribution uniforme sur (X,,,...,Xn) puisque pn ({x,}) : L, i:1 à n.
n
on lui associe la fonction de répartition empirique Fn définie par :
n n
1
Fn(x) Fn(v) :-riit
s 1t-- . r" 1t--,q(x;)
",(x;) l: I
n
_1 [.I.1r_ , Min(x, ylt
(xi )
l: I
nz
n n
+ T 1l- -, 4 (x,) 1p -, q (x;) ).
i:1 j:1
i +j
D'où, en notant par X. la v.a. de loi P associée à la 1ème 166;156tion x,,
i:1àn:
I
PI TASSI S. LEGAIT
COMPTEMENTS ET APPROFONDISSEN/ENTS SUR tES LO]S DE PROBABILITE
Exemple :
On sait que P(- 1,96 < N(0, 1)< 1,961 :6,9U, soit :
lim
/nfin-rn) p.s
n..-oo
,Æ Log Log n
"
La loi du logarithme itéré complète le théorème central limite en précisant la
vitesse de convergence de :
.,/n (Xn m)
-
Appliqué à la fonction de répartition empirique, le théorème du logarithme
itéré devient :
/n (Fn(x) - F(x))
lim 1
p.s.
n-æ vGFj-il-- -1
Hx-D ,Æ Los Los n
æ
Soit la quantité : - P(dK (Fn, F) ) d) :
n:l
oo oo r ^_2d2
: p(dK(Fn,F) >d) <c :_(e-2d2ln: ce-'" 4"o
n:1 n:i 1- e- 2d2
Du chapitre 7 on déduit :
Théorème 4
dK (Fn, F) : SuP I Fn(x) F(x) | P'co' O'
-
Ceci implique ia convergence presque sûre, et en probabilité, de d* (Fn, F)
vers 0.
A.N. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn, F).
Théorème 5
Si F est la f.r. d'une v.a.r., F étant continue, alors la v.a. 6 d* (Fn, F)
converge en loi vers la v.a. O, indépendante de F, définie pour y ) O par :
b) Proximité de pearson
Envisageons tout d'abord le contexte statistique.
-fl espace des valeurs de la
v'a r' continue X dont on possède res réarisations'rnoàfenïantes
(X,,, -..,\t;rl
partitionné en classes Cj. j : 1 à k :
g'- :k c
c'est souvent re,cas en pratique, jÀjr,"'"'nsi de crasses d,âge, de tranches
de revenu, etc. Soir alors le vecteur aléatoire y:
r(Nr, ._,ï_iài, la v.a. N,
compte
le nombre d'observations parmi (xr, ...,xn) appartenânt à tâ
ctà's;;'c;; ;'L-ï ii,:
La loi de N, est une loi binomiale g (n, p,) oit :
ô(È.p) : I $,-p,)2
j:1 pj
i tl{A-S$3
f(x)
w(x) dx
avec w(x) : n, qui conduit ici à :
k
ô*(È, p) : n :
j:1
Théorème 6
' rnq
On a: E(Zjl:O.V(Zj) - 1-pj
Cov(7r,Z1l:-,m U+U
On vérifie aisément que le déterminant de la matrice de variances-cova-
riances de Z est nul, puisque celui de Y I'est aussi, on se restreint au plus grand
vecteur régulier r(Zt, ...,2n_,1 : Z*.
k-1
ç(ut,..., ur.-r): cy(u.,, ...,uk-1, O) : t1 + >. pj(eiui 1)ln
-
J- |
k-1
'- +
p,(ei'izlnF;
j:1 t - 1) .
j:1 Jn 2n
et :
k-1 k-1 . k-l
i/ô
' I u, ./Fl i/i- I u, '/o] 1: ,'2
a7-tr,,...,un-,):e - i:r-j ie j:t' 'e - 2i:t
)
: e-Lort",
2j:t
Remarque
Ce résultat peut être retrouvé par le calcul direct; notant par P la probabilité
élémentaire de Y en (nr, ..., nn), on a :
* ,/2Tr
n! - nn rt
"- "
(formule de Stirling)
nn * rL e- n ,/Ztr n1 nk
P- P1 "' Pp
n.*1
t -n. t,/-Zrl
IJ(n, 'e
)
no. n, 1
P - II1" 'j1 | 2 à une constante multiplicative près
jni
k
Logp-K* : (n,* SLognPi
j:1 ' 2 nj
N|'t,on
A partir deZ, : -no. a N, - n pl lZrJ6,ou
' 'Æq '
:
N.
I _1 ,
Z.
-/"q I
"q-
k.z
LogP-K-
j:E.,
(*, *rlLoo(1 +-1)
+ 1-l
zi
Log (1 -
@i /q -"i2npj
LogP-K-
k.z.z?
j:1 ' 2 @, 2npj
LogP-K-
nzz2. (J
k
+t+2, I
J:1 2 ' '/nL) - 2npj
)
"Æq
nr,
LogP-K- >. (2,t /nnt + tl
j:1 2
Vx € lR F(x) ) G(x)
Remarque
Considérons la v.a.r. Z: R(X).
P(Z1z): P(R(X) ("zl: P(X < F- 1 C(t)) = F(F- 1 C(r)) : G(z).
La loi de R(X) est identique à cetle de Y.
Définition 9
soient a et b deux réels ; X est dite plus concentrée autour de a que y I'est
autour de b si :
Théorème 7
soient X et Y deux v.a.r. indépendantes absolument continues, de f.r.
respectives F et G. de densités f et g, telles que :
Définition 1O
E(h(l Y
- bl ) > E(h( I x - aI ))
E(lx-al)<E(lY-bl)
PH TASSI - S LEGA]T 25g
CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE
Définition 11
Soient a et B, a I B, deux réels appartenant à lO, 1[ ; la loi de X est dite plus
étalée autour de a que Y l'est autour de b si :
- F- ("1>c- ffi)-c-
F- 1 1 1 1 (")
ffi)
Exemples
a) SoitF(x) :1-e-À*,G(y) -1-s-9v, À<8.
r-1(x) :-lLog(1 -x),G-1(v) :-lLog(1 -v)
À0
: 1--g
F- - F-1 (o)
1 19) 1r-os
À 1-B
- F- (d) :g>
F- 1 (B) 1
d.où : I
c-r (B) _c-1(d) À
La loi 7(1. À) est plus étalée que la loi 7(1,0), pour À < 0.
d'où: G-1:ÀF-1
PourO(a(P<1,ona:
r-t(B) -r-t(a):l<r
c_r ffi) _c-1(d) À
et donc Y : À X est plus étalée que X, pour À ) 1.
p (Xrr)
En effet :
p [{Xrrr
t+l t+l
Or la loi de X, - X,, pour i # j, est elle aussi absolument continue par rapport
à la mesure de Lebesgûe et donc :
.I Pt[Xi-Xi:01): o
,"r. .onrr", si X est ,"j11r,"0," oir"rete, it peut y avoir des ex aequo, et tes
formules deviennent rapidement complexes. Sauf exception, nous supposerons X
continue par la suite.
fr(x.,, ..., xn) : n' ,i" t (x,). Î"n (x,. .... xn)
i:l
où : Cn : [(xr, ..., xn) € lRn ./ x., < x2<... < *n]
Démonstration
En notant 9nl'ensemble de toutes les permutations r de n éléments, et B un
événernent quelconque de fr,n,la probabilité pr(g) peut être écrite :
Pr1A1:P1 U E(r)l: : P(E(r))
r€,Vn re9n
où E (r)désigne l'événement :
P (E (r)) : JlRn 1"n (*.,, ..., xn) 1, (^r, ...,xn) dPxt(1)' "'xr(n)
n
Pr1B1 : P {(Xtr, ... , X1n1)€ B} : nt Ju lcn (x,, ..., *"' f (^i)dx, ... dxn
,! 1
lls'ensuit que, sur lRn, (Xfrl ...,Xtn/ : T(Xr, ..., Xn)admet la densité;
n
n l cn (xr, ..., xn) .l-l f (x,)
' ,
Théorème 2
La loi marginale de (Xtr), ...,X(k/, k ( n, admet la densité :
o-r<+o(il:r(i) i:1àk
Alors, en notant A une parTie de,9n contenant un eî un seul élément de
chacune des classes d'équivalence de{?n/-, on a:
P {(X11r, ...,xrx/ c B} : e {E (r)}
.!o
Le nombre d'éléments de A est égal au nombre de permutations divisé par le
nombre d'éléments de chaque classe, ce dernier étant égal au nombre de permuta-
tions de gntellesque (r(1), ..., r (k)) est fixé, soit : ;{.
(n-k)!
2
LOIS PARTIC|.JLIERES
DE L'ECHANTILLON ORDONNE
n
(x) : F'(x) [1 - F (x)]n-'
,Io Ç
Fk
Remarque
Soit alors b (t, p, q) la densité d'une loi bêta définie sur [0, 1 ], de paramètres
p et q (chapitre 4) :
1
B (p, q) - JO tn 1 (1 - t1c-1 6,
Définition 2
On appelle intégrale bêta incomplète la quantité :
La loi bêta incomplète est tabulée, et cette relation permet de calculer numé-
riquement la fonction de répartition, et donc les f ractiles, d" X(n) (voir nTables of the
u ru (23.8)
.0546 337
.0679 478
.0837 364
.1022 621
.1237 678
.1484 637
.1765128
.2080152
.2429 931
.2813 767
Exemple
Soit X une v.a.r.^de loide Gumbel(chapitre 4)de densité f 1x; : exp (x e"),
dont on possède n = 30 réarisations indépendantes. carcurons e ix,rr, <oi' -
il suffit de lire dans la table ci-dessus la valeur d"lo,osz(23,8), soit, après interpola-
tion P (X12s1< o)- o,og74.
Théorème 3
La variable aléaroire Yr: F (X11/ suit une loi bêta É (k, n - k + 1).
Démonstration
Notons g la densité de Yo. Par le changement de variables y : F (x) dans fn (x) :
n!
s(Y): |
vk-l (1 - v)n-k 11s' 11(v)
(n - k) | (k - 1)
L Y 11
ur<-1 \r tt 1,^,,
- y)n-k '[o'1]\](y)
B(k,n-k+1)
Remarques
a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0, 1 ], comme toute image
d'une v.a.r. par sa propre fonction de répartition.
b) Le calcul explicite des caractéristiques de X,u, que sont I'espérance, la
variance, la médiane et le mode dépend de la loi originêlle F.
Exemple
Soit X de loi 'A'ro,r 1. On a :
fo(x):--+"
(n-k)!(k-1)! 11 -x)n-k1ro,r1(*)
- ^t-1
X1n, suit donc une loi É (k. n - k + 1), et les résultats du chapitre 4 permettent
d'écrire :
6(X1r1) :
,i
2.2 Cas particulier des valeurs extrêmes X,n, et Xlnt
a) Lois
On trouve, à partir des résultats généraux précédents :
Fn (x): Fn (x)
De façon évidente, notons que le sup (ou l'lnf) d'un échantillon indépendant
extrait d'une loi F ne suit pas cette loi. ceci n'a rien d'intuitif, et mérite d,être noté.
Remargue
Supposons que le support de la loi p soit lR, c"est-à-dire O < F(x) ( l Pour
tout x réel. Alors :
b) Médianes
i1 et in désignent respectivement les médianes 6e X1r1"t X(n) ; l'équation de défini-
tion de i., est :
-1
Flry(i.,) : :1-(1 -F(;1))n
t
qui conduit à :
Ln2
F(x.,) : 1-e n
De même:
Ln2
F(iJ:e n:t-F(i.,)
: B(k,r-k).8(l,n-j+t)
n!
La loi de (X1r.y X1l1) permet de déterminer la loi de fonctions de (X11y X11,), et,
en particulier celle des espacements ou mailles de la forme X1t1 - X111.
a) Résultats généraux
Théorème 4
Démonstration
On saitquelE(X)l < E (lXl); l'existencede E(X), c'est-à-dire E (X)<+æ, est
assurée dès que E (lXl ) est f inie. On a ici :
fn{x) dx:
= J,*lxl
lE(X(k))l E(lx(k}l)
Or:
: Fk 1(") < n cl ] rt*t
fo(x)
" cl-] (1 -F(x))n-n t(*)
pursque :
ll s'ensuit :
lEtx111)l ç E(lx(kll)<
".x-] E(lxl)
Théorème 5
Soit nfixé;on note, sous réserved'existence. m: E(X) eta2 : V(X).
Alors:
n
E(X(k)) : nE(X)
k:1
n
E(X21*y) : nE{X2)
k:1
n n
E(Xrnt Xtrr) : nE(X') + n(n-1) m2
k:1 lll
n n
T Cov(X*y Xrrr) : na"
k:1 f:l"I-
Démonstration
De façon évidente, on a :
n
t(X1p1) : nm
r.1,,
Avecj :2,onobtient
n
E(xÎk)) : nE(X2)
k:1
En élevant au carré l'égalité :
nn
(xrnr :
nf ,, nI,' "o
et en intégrant :
(n (n
E( *,0) : EI *_)
\ k:1 \t:t
PH. TASSI - S. LEGAIT 269
OBSE RVATION S ORDONNE ES
sort :
nn :
E(x1p1 x1r1) nE(x2)+:+> E(xk Xr)
k:1 i:1
: nE(X')+n(n-1)m2
Enfin, en remarquant que :
n
(x,n, - E(x(k))) : (Xu- m)
n:., nI.,
on a, en élevant au carré et en prenant l'espérance:
nn
k:1 l:1 '
Remargues
a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a.
X, discrète ou continue.
ll s'ensuit :
E (x (x(k)- x)): o
d'où :
soit .
ln \ n
E (nX X(k)) : E(rf ,, x,,,(*),n/:,Il E (X1p1 X111) : 1
Exemple
E (X(k)) :
n+1
De même:
k(n--k+1)
v(x(k)) - (n+1)2(n+2)
et, en remarquant que fn,
t (u. v)
: (v _ u)n-2 (u s< v), on en déduit :
E (Yk) : v (Yk) :
;+1
Remarque
Xdeloi P: (Xrry...,X,n,
(xr, ..., xn)
Statistique d'ordre
I
I
FI lr
F
+
(X)de to, %ro, t
r, F (X,o/ de toi
Ur : :
F(Xr), ..., Un F (Xn)
Yr : FFk,n-k+1)
(Xtrr), ..., Yn : F(X1n/
PH TASSI - S. LEGAIT
'aa
OBSÊ RVATION S OBDON NE ES
F-
1
(y(k/: F-' (E (y(k/)+
ffn - E (yk)), t r-' (u)lu:E(yp)
,j., #
Or, F-1 (Yr) : Xlry ; en notant pr: E (Yn), et t : F-t :
avec :
*t 1
3 COMPORTEMENT ASYMPTOTIOUE
Si les résultats à distance finie rattachés à un échantillon ordonné sont impor-
tants, la théorie des valeurs extrêmes a été considérablement utilisée dans des
domaines d'application tels que la fiabilité, le contrôle de qualité, etc. ce paragraphe
aborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'un
échantillon ordonné.
Remarquons tout d'abord qu'un simple changement de variables permet de
passer de la loi d" X(n)à celle 6e Xlty; en effet :
b) soit k tend vers l'infini, alors que le rapport i ,"nO vers û, O < a < 1.
n
Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3).
on peut synthétiser les deux types de comportements asymptotiques en
écrivant:
lim 0(a(1
l"l-æ -1&,
n
P
Xr*t * xo
Démonstration
k
Le rapport convergeant vers d, on ne restreint pas la généralité de la
-n
démonstration en écrivant k : Ina] + 1. D'après la définition de la fonction de
répartition empirique Fn donnée au chapitre 3 :
: Ina]
Fn(X11noJ*r1)
n
na]
: F (X111)- Fn (X(k)) * I
d
--
On sait (voir chapitre 8)que :
P
dk (Fn, F) : Sup I F (x) - Fn (x)l O
P
d'où: F(X1py) -F(x/* 0
F étant continue et strictement croissante, on conclut en composant par F-1 :
P
Xtnl * xolorsquen*co.
Le théorème qui suit. établi par Pearson, Smirnoff et Mosteller, fournit la
convergence en loi de X,u,. ll est énoncé sans démonstration approfondie, celle-ci
pouvant être trouvée par ëkemple en [17] ou en [2].
Théorème 7
Soient (X(nr), ...,Xtnr.l) k variables ordonnées (k < n) extraites de la statistique
d'ordre (X(1I ..., X(n)).
On suppose :
11;
n.*æ, hi*- etliml : at O a o, 1. i : 1 à k.
o,,:
't
Jl?
l(Xo) f (xo)
(1 < i< j< k)
Eléments de démonstration
L'idée est de remarquer que I'on peut écrire :
F- (x_) -
X(ni) : *oi - -1ffi* a,
*",
(a,, - Fn (xo.,)
-::d, al\
(., _ (ar - (xo,)) Fn
I r/n ,...,J"
\" f (xo.,)
Remargue
k
Pour une nnéeX1py avec lim- : d, on a:
coordo
^ a(l -a)
oâ: t\^^l
Théorème 8
ck y (k, 1)
t;
Ce résultat provient du comportement asymptotique de la loi nÉ (k, n-k+1).
qui converge en loi vers une loi gamma y (k, 1). En effet, par définition d'une loi p
sur [0, 1]. Gr. peut être mis sous la forme :
nA A
uk - A+B A B
;*;
oùAetBsontdesv.a.r.indépendantes,deloisrespectivesyk,lletf(n-k+1,1).
Ona:
/n\ r< /n\ k
El-l:-etvl-l:,
n n'
\n/ \n/
A
donc converge en probabilité vers 0. De même
-n :
B
et - converge en probabilité vers 1. En vertu du théorème 16 du chapitre 7,
n
Gn converge en loi vers la loi de A, c'est-à-dire f (k, 1).
Définition 3
On appelle loi asymptotique des extrêmes, ou plus simplement, loi des ex-
trêmes, la loi de la variable Y telle eue X(n) Y quand n - æ.
l;
a) Les trois formes asymptotiques
Le comportement asymptotique de la loi de X1n; dépend de la distribution
initiale F de X. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limites
possibles.
Loi du type I
/
,l\
|
:exp\-e -t u r
F.,(v,^,r)
)o€R,1l)O
on notera Ft (y) la valeur de F., (v, o, 1)correspondant à la variable stan-
Y -,À
dardisée cette loi est appelée généralement loi de Gumbel ou double-
lJ
exponentielle.
Loi du type ll
y-^ e
lr
I P )-I .ltr,*-1(y)
Fr(y, l,p,Êl:e
.l € lR, p >O, p>O
Cette loi est parfois associée aux noms de Fréchet, plus rarement à Fisher et
Tippett. On notera Fr(V, Êl la fonction de répartition F, (y, O, 1, F) de
Y - 'À
lJ
i-v\P
- /I s )
Fs(y,i,p,Êl:11,r,**1(y)+e .11--,21(y)
(,À € lR. p )O, p>0)
cette troisième forme de comportement asymptotique est du type weibull (on
* - y). sur un support borné.
retrouve cette loi en faisant le changement y
On remarquera que les lois du type ll et lll sont des lois tronquées ; seule la loi
du type I est définie sur lR, de façon non triviale.
En outre, les lois du type ll et du type lll peuvent être ramenées à la loi du type
I respectivement par les transformations :
Z:Log(Y-À) et T: -Log(À-Y)
PH TASSI - S TEGAIT l/ /
OB SE RVATIONS ORDONNEES
Par exemple :
Typel : Fr (y):exp(-"-v1 y€ lR
TYPe ll : Fr(V, Êl : s-(v)-É y € R*
(e-t-vÉ y€rR
Type lll : F3 (y, Bl : (V, Fl : {
( 1 ye lR*
Propriété 1
Soit Y une v.a. de type I ; la v.a. X : e-Ysuit une loi exponentielle f (1.'l).
Propriété 2
Soient deux v.a. X et Y, indépendantes, suivant une loi de type I. La v.a.
U : X - Y suit une loi logistique.
Théorème 9
Soit (Yn), n 2 1, une suite de v.a. indépendantes identiquement distribuées,
de loi exponentielle, et N une v.a. suivant une loi de Poisson tronquée en {O}.
Alors X : Sup (Y,,, ...,Y*)suit une loi du type L
Démonstration
En décomposant :
Fs (.. i, p, p) : .Fât., - À, p, Ft
PH, TASSI S LFGAIT 279
OB SE RVATIONS ORDONNE ES
Fr(., O, tt,
'-
pl Y-1 Fâ t., O, tt'-' , Bl
F. (., O, p, Êl
'-
Y-1
Fâ (., o, rt-', Pl
e-,À ,
F, (., l, ttl
" o,
- FË 1., O, "- t,-')
L\Y
Fâ (. o. r.,, pl F{ (., Ln p, Ê-'l
L\Y
Fl (., o, u, Pl F., (.' Ln P, B-')
Ll (-J
F. (.. o, r, r, - F, (., Ln u, Ê-')
De même, les relations inverses entre F et F* existent. par exemple :
- t ,,(.,
Fâ (.. o, p, Ê) - r.t, Êl
^, ^,
L'ensemble de ces relations peut être résumé par le diagramme suivant :
F1
e-Y
LnY
F2 Fi
F3_Fâ
Y-1
Définition 4
Une fonction de répartition G est dite stable (sous-entendu.pour un maxi-
mum,) s'il existe des suites (an), an ) O, et (bn) telles que :
Gn1xl : G(anx+bn)
pour tout x réel.
Remarque
Plus généralement, si F, et F2 sont deuxfonctions de répartition, F, et F2 sont
dites de même type s'il existe deui constantes a (a ) o) et b telles que :
Théorème 1O
Soit G une fonction de répartition stable. Alors G appartient nécessairement à
l'un des types suivants :
TYPe | : F, (y) : (- e- Y)
exp
Type ll : F (V, Êl: exp (- U- É1 t
" ,r* (V)
Type lll : F. (y, É) : 1 (y) + exp (- (- v)Éy t,*_ (V)
,**
(B paramètre strictement positif.)
Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêt
propre, il est important d'essayer d'identifier. si possible, vers quel type de loi va
converger X1n, selon sa loi initiale F.
PH TASSI -S LEGA]T ?Ê 1
OBSE BVATIONS ORDONNEFS
Définition 5
On appelle domaine d'attraction de F,(i : 1,2,3)l'ensemble g ffil des lois
de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi
F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,.
i:1 àn
Nous allons donner maintenant des conditions suffisantes de stabilité permet-
tant de préciser le domaine d'attraction de chacun de ces types.
Définition 6
Soit G une fonction de répartition sur lR; une fonclion de répartition F sera
dite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an),
an ) 0. et (bn) telles que :
lim Fn(anx+bn):G(x)
n*oo
pour tout x point de continuité de G.
Remarque
Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peut
montrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attrac-
tion d'une et une seule fonction G, représentant d'un type"
Les caractéristiques des domaines d'attraction sont établies dans les théo-
rèmes suivants :
Théorème 11
Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, v),
f étant nulle sur [v, + -1 (v fini ou non) ; si
Théorème 12
Soit F une f.r. de densité positive f sur Iu, + æ[; si :
xf(x) :É>o
rim
x-+oo 1-F(x)
alors F € 9l ffzl, Pl).
282 PH, TASS . S. IEGAIT
OBSE RVATIONS ORDONN EES
Théorème 13
soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv, + -1 .
si :
- x)f (v (x) _,
,.,
xlv 1-F(x)
alorsF€gFs(.,p1).
L'ensemble des démonstrations peut être trouvé en IS], [7] ou t 1 Sl.
Exemples
a) SoitX -) y (1),toiexponenrieltededensité f (x) : e-xi,^*(x).
La fonction de répartition Fn de Xlny u.t ,
Zn:X(n) -Lnn
F(x) :
1+ e-x
La f.r. de Xlny est Fn (x) : (1 + e-")- n. Soit Zn:
X(n) - Ln n ;
1
f (x) =
7r (1 *
"t)
xf(x) X
pourx) 0
x2)Ar"tg a
1-F(x)
+ -Arctgx)
(1 + x2) (1 +
xi(x) x
-= rim 1-F(x) - rim 1+x'= :1
x*+oo x-+co
La loide Cauchy appartient àg F2(.,1)1.
Remarque
On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction.
Ainsi, pour F' (y):
f'(v) (1 - F, (y)) _ e- v_
L ey+e-Y (1 "-Y) (e- 1)
t" (vl
: gY 19* e-Y
- 1) {e-v - l1
Or: e"-Y - 1 - e-Y quand y -* + -, et donc :
4 LA LOI DE L'ETENDUE
Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie au
paragraphe 2, on cherche la loi marginale d"zt,t après avoirfait
le changement de
variables :
Exemple:
Soit X de loi exponentielle ), (1).
:6
eu*t,ut.t *îil+, (1 -g-u;k-t
6u
"-(n-k-1)(z+u) "-u "-(z+u)
PH. TASSI - S, LEGAIT
285
OBSE RVATI ONS O RDONNE ES
n (n-k)z
' "-
(k-1)l(n-k-1)! ,1 (1 _ t)k 1 ,n_k 6,
: n-k z
Q*+1,k(z) (n - k) s-
Zk*1,u-y(1,n-k)
E(Zn*1,1) : 1
n_k
V (Zk.1,k) : 1
(" _ kf
4.2 L'étendue W
a) Loi de W
Pour obtenir la loi de l'étendue W :X(n)- Xf,,f il suffit de faire I : n et k : 1
Fn,
1
(w).^w
: J'o e n,1Ql dz
: d: nlF(u1w)-F(u)ln 1 orluy
b) Espérance de l'étendue
en utilisant :
! cT (1 - F)n-m pm - ',
m:o
Exemple
Soit X de loi uniforme sur tO. 1 I. La densité de W : X(n) - X111 est :
*
pn,,, (w) = n (n - t) "f; - [(u + w)- u]n-2 du
R: 1W(Xtn)_Xt,t) :
il O
-n
où la constante dn est. par définitionl égale à ,
/x,. x.. \
E( ,n, _ rrr !
\o o /
Par construction, on a E (R) : o. Cette propriété est fort utile en statistique,
et les constantes dn ont été calculées pour la loi normale.
c) Contenance de l'étendue
Partons de la densité de la loi de (X,,,,. X,n/ :
1 0
: f (X1n/
_ i (xrr/ f (x(n/
f
7r0r)
: n (n - 1) (1 - r) rn'2 1to,r1 (n)
P(yl:1-nyn-1 +(n-1Jy"
On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre
d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de la
population soit dans l'étendue d'un échantillon observé.
@, .vll x $, Gl - (a',,&,1
qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t er
fixé, X, est une v.a. sur (Q, ,,4,p).
Par extension, on écrira un processus sous la forme d'une suite de v.a.
indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant une
grandeur aléatoire varia'nt dans le temps.
Remarques
,o',
,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou
- g,nl,
(lRn,
U -Si
le processusx est réel ou multidimensionnel dira plutôt
;on univarié ou
multivarié de dimension n ; si A' C Z le processus est à espace d,états discret.
Définition 2
On appelle loi du processus PX. loi image de P par X ; on en déduit que,
Vt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre gue la loi marginale corres-
pondante extraite de P^.
est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et de
parties Br. ..., Bn extraites de ..n('.
Remarque
Un processus stochastique est une représentation mathématique d'un "sys-
tème, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le
"hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un très
grand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la
valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuel
lement avec n grand, pour être dans les conditions d'application des lois des grands
nombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'au
phénomène étudié est associé une classe d'équivalence de processus plutôt qu'un
proeessus. Le probabiliste aura donc la liberté de choisir dans une classe de
processus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarche
est analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur des
classes de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. cha-
pitre 3).
2 PROCESSUS STATIONNAIRES
Définition 4
Remarque
En particulier pour n : 1 :
Théorème 1
Démonstration
(i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e (X'?,) et E tx'?.) { - d'après
l'inégalité de Schwarz :
E(X,) : m Yt € T
Var (Xr) : o2 Vt € T
Cov (X,, X, u 6)
: r (h) V (t. h) € T'z
Définition 6
;r {hr} porte ie norn de fonction d'autocovariance eiu processus.
Propriété 1
E(X,) : at+b
Pour le "stationnarisero, considérons maintenant le processus *différence
premièreo Y, :
PH TASSI . S. LEGAIT
NOTIONS ELEMENTAIRES SUR LES PROCESSUS
( -o"^si h: -1
Cov (Y,, Y, * n) : | -o'si h : 1
{ o si h€ z-(-1,0, 1)
b) Processus stationnaire
ll est fréquent d'assimiler la notion de processus stationnaire à celle de pro-
cessus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemples
suivants sont à retenir :
Exemple I
Soit le processus X, à valeurs sur {- 1, + 1}, tel que :
Ona:
E(X*) : o
:(-1f. 1^1 . -1
V(Xt)
z*lf t
et pour h*O:
y(h) : E(Xr Xt*6) : 1 -2î11 -11+1. - -o
+ 44
Le graphe du processus est, par exemple :
,t ?-+-1
lr
rl
r1
i\
La meilleure prévision de X, par une constante est E (X,) : o (cf. chapitre 5),
qui n'appartient pas à l'espace des valeurs de X,; le processus X, est bien station-
naire, mais oimprévisible> au sens propre du ternie.
Exemple 2
on corrsidère le processus X, eui, à la date t (T € lN - {o}), prend les valeurs :
Plus t augmente. plus X, prenddes valeurs nulies sauf, avec une probabilité
de plus en plus faible, des valeurs t Vt qui tendent vers I'infini. Le processus X,
est stationnaire, et pourtant est susceptible d'engendrer des points oaberrants,.
Exemple 3
Soient les processus X, : €t et Yr : (- 1)t er où e, est un processus
stationnaire, E (€t) : O, V ltr) : o", E (e, e,.) : 0.
I
|2r, sitestpair
^
a5.:(
t i\ o sinon
o E(S,) : O
I
I q o' si r est pair
r V(S,) : {
( O si t est impair
3 CORRELATION ET CORRELOGRAMME
p(h) :p(XrXt-n) :+
I V (Xt)1"' 1V (X1
* 6)1"'
r (0)
b ez)
Propriété du coefficient d'autocorrélation
Si le processus est faiblement stationnaire, alors. puisque y (h) est une fonc-
tion paire :
p(h) : p(-h)
Définition 8
(xt, t € Z) l'application
On appelle fonction d'autocorrélation d'un processus ()
* *
Z l- 1, 1l définie par h p (h). Le graphe de ccette fo nction s'appelle
+
l'a utocorrélogra m me (ou corrélogramme). Compte ten(
tu de la propriété précé-
dente, le corrélogramme est en général tracé pour h e tN.
=
Soient alors (k + 1) valeurs successives du processus, notées X" "', X, * on
t'
appelle matrice de Toeplitz la matrice des autocorrélations; de (X. ..., X, * p) (donc
r
symétrique):
a 1. p(1t. '
t'...
| '...
P (t't
I P(t) """'
l:t: i
I
t: .... p
i I
1
)
Pour les calculs effectifs, p (h) est estimé de la façon suivante ; si l'on dispose
des observations (xr, ..., xr) du processus, on estime p (h) par :
T-h
Z- (xt-xr) (x,*h-xT)
ï:l
p(n) :
T
+-
t 1
(x, - -"2
Xr)
i- I
4t
T
Exemple 1
O)
æ
F
(o
tf)
+
cY)
N a
4a...
a aaaa....
a. aa aaaaaaaaa.
taaa a.a.a
o.
N
cr)
+
r.c)
(o
f-
æ
O)
Exernple 2
Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin que
c'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogramme
de:
Xr: at+b+st
où eo -) N (0,1).
Exemple 3
NOIIONS ELEMENTAIRES SUR LES PROCESSUS
6
-)+e,
s, -) N (O,2)
Exemple 4
o)
æ
F
(o
|r)
st
cf)
(\
o
C\,1
cf)
<t
rf)
(o
F
co
o)
I
Les corrélations p (h) sont toutes nulles, sauf p (12) et p (241; X, est donc
corrélé avec Xr_ 12 et Xt ,o. Ceci laisse présager une saisonnalité de période 12
(saisonnalité annuelle si X, est une observation mensuelle). Pour une série trimes-
trielle, on aurait p (4) - O.
Exemple 5
ar
a
a
"a.
aa
a aaa
a a.a
a
a
l
I
|{
A A A r{, /\
,[,
/\
1963 1964 1965 't966 1967 1968 1969 1970
- Yi. Y, -
m
Cov (Y., Yà)
PY.,Yr/2.,,...,2n:
Par exemple. pour trois v.a. Y,, Y, et Y.. on trouve le classique coefficient de
corrélation partielle de la statistique descriptive :
Théorème 2
Définition 9
Soit la séquence X,, n, X, h + 1. ...,X, extraite du processus (X,, t e 7Z).On
notera, comme précédemment, Xi et Xi _ n les régressions affines de X, et
Xr nsurXr_h+ 1, ..., Xt-t.
r(h) : P*,, x,
-h/xt-1 ....,Xt-h+1
_ Cov(X,-Xi, X,_n-Xi_n)
Ona:an: r(h).
h
Xr: âo a, Xr_, + e,
Vj :1àh: r:r
h
E(xr.xr_j) : a0 E(Xt_,) *,I1 u, E(xt_i.xt_j)
h
E(Xt).E(Xt_i) : [ao *,],, a, E(X,_i)l E(Xr_j)
On en déduit:
h
yU): cov(X,,X,_j) : y(_l
i]t ",
PH TASSI - S. LEGAIT
NOTIONS ELEMENTAIFES SUR LES PFOCESSUS
(3)
p(1)
tlt
| |
\rir't 7 \ot'-tt ptlt 1 ) tt
II i
an s'obtient dorrc. une fois calculé le corrélogramme, à partir d'un système linéaire
de h équations à h inconnues.
4.4 Un exemple
Soit ie processLts déflni par l'équation de régression :
p(1):(1).r(1)
p(1) : r(1)
ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r (1 ), ce
qui peut être fait sans difficulté à partir des observations du processus"
5 LES OPERATEURS B ET F
Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nous
ferons un usage fréquent dans le chapitre 1 1
ces opérateurs B et F peuvent opérer sur autre chose que des séries tempo-
relles: ainsi, si Pn (x) est un polynôme de degré n en la variable réelle x:
BPn(x) : Pn(x- 1) et Fpn(x) : pn(x+ 1)
on peut définir également, à partir des opérateurs de décalage B et F, les
opérateurs "différence premièreo :
V: l-B (nnabla,)
A: F-l ("delta")
(l représentant l'opérateur neutre : lX, : Xr).
VX, : Xt-Xt_t
BkX, : X, n
Fk X, : Xr-P
BF:FB:I
o -F
n*1
-
F-1:B
On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x)
de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbnt
des polynômes en x de degré n - 1 ; Vk et ak transforment un [orynôme'Èn {*) en
un polynôme de degré n - k si n ) k, en 0 si n < k.
1-ÀF =1+^F+^'F"+...
Exemples de processus
1 LE PROCESSUS DE POISSON
Définition 1
Définition 2
Le processus (X,, t € T) est dit à accroissements indépendants stationnaires
si, de plus, la loi-de Xt*h - Xt, h € T, ne dépend pas de t.
Remargue
Pour de tels processus, on peut montrer à partir de la fonction caractéristique
Qx\ *,n
(u,, ..., un) de (X,,, .... Xrn) que la loi du n-uple de v.a.r. est parfaitement
déterminée si I'on connaît les lois de X, et X, - X..
a) Définition et hypothèses
Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (par
exemple,()'C lN), que l'oh supposera être un processus de dénombrement ou de
comptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) de
réalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourra
compter le nombre de voitures passant devant un observateur durant un intervalle
[0, t[, ou bien le nombre de clients entrant dans un magasin, etc.
On fait les hypothèses suivantes :
b) Loi du processus
Soit pn (t) : P (Xt : n) ; à l'ordre 1, on peut écrire :
p;(t):-ipo(t)
po(t) : e-i' car. pn(O) : o Vn € lN.
ll s'ensuit ;
: i ('1t)'
q, (t) qr (t) + Qe (t) :
2
on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépen-
dantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1.
Remargue
Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:
Sk : To*... +Tk-r
lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvant
subir des événements de type "naissance". entrée dans le système, ou "mort,. sortie
du système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre de
ojobs, en attente dans un système informatique, l'évolution démographique d'une
zone géographique peuvent être de bons exemples d'une telle modélisation.
Soit donc un processus (Xfl t € lR) à temps continu et espace d'états discret.
On fait les hypothèses suivantes:
o H1 : (Xr) est à accroissements indépendants.
c H2 : On appelle "événementu soit une naissance. soit une mort. Le système
étant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort)
survienne entre t et t + dt est i n dt (resp. pn dt).
o H3 : La probabilité pour que surviennent deux événements ou plus entre t
et t + dt est un o (dt).
Modélisation
Posons pn(t) : P(Xt: ;pourn21,ona:
n)
A l'origine :
Remarque
Les cas les plus fréquents sont les suivants : ' ' t)
:
" in ,À : naissance au taux i (souvent Ào : 0)
r in : ni : naissance au taux i par individu présent dans re système
. Fn g : mort au taux U Uto : O)
. Un : n/_/ : mort au tauxg par individu présent.
3 LE MOUVEMENT BROWNIEN
p(Xo: O) : l
(ii) le processus est à accroissements indépendants stationnaires
(iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une
roi
normale d'espérance nulle et de variànce br _ s1
lt :
4.1 Définition
soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p,
noté
X, -) AR (p), si :
p
X,- : .r- gi Xt-i+ tr
i:1
Remarques
p
m(1 - I e,l:A
l:l
p
si 1+
i:1
ô {z) (ce que nous supposerons par la suite), m : O.
Soient 2.,,"..,7p1es racines de <D (Z) dans C, et notons Zr, ...,Zr les r racines de
module supérieur à 1, Zr+1, ..., Zo les p-r racines de module inférieur à 1. (Notons
que le produit 2., ...2, : 1.1
On peut écrire :
elzy: ti rr-4i
i:1
fi
Li j:r+1 r-4t Lj
Par analogie, on a :
: ti t', fi lr--1r
<D1a;
i:1
(1 - Zi j:r+1 Zj'
où 1 représente ici l'opérateur identité.
Soit :
:5f (t- 3, : fi
li ",ô,(B) j:r+1 rr-3t
o,qey
i:l Zj'
@, (B) peut se transformer, en factorisant B, en :
p
: n
j:r+1 f-Z;FI
Oo(F)
+oô
Xr: : Qi r,*i
l:-oo
On retrouve :
E(X,) : O Vt
Remarque importante
supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieur
à 1, Xt : .Di' (S) e,. Alors, en décomposant en éléments simples, puis en
développant en série :
pb,
=t
'
^^-L
i:l . B I
zi
pæBk
X,: :
' i:1 b,(: . )e.
'k:O Z*, t
oc
X.- : (>F b'
. )B*s,
' k: O i:l Z\,
x.- l- P b;
, k:O i:1 Z\
t-K
X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que le
processus X, est inversible. En outre, on a :
Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équa-
tion de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert
p
engendré par (X,_.,, ..., X,,J; la relation X, : qi Xr_, + st est alors
iIf
l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre 5).
Exemple î
Soit X, le processus de Markov AR (1) défini par :
On peut écrire :
1-r-
x,
'
- 1-0,48 t
Exemple 2
v1
^t - l--lt rt
Or, le développement de t
' -1
1-,ÀB 1ou 1-,îF)n'adesensquesil',al < 1.
On peut écrire :
1 r _F
1-28 F-2 2(1 _O,sFt
et donc :
Exemple 3
Soit le processus de yule AR (2) défini par
;
0,5 F
(1 - 0,5 B) Xr
1+0,5F ',
K LÎK
K- |
avec :
D'où :
,l
X,: Gk 6t*k
1-0,58 r.I r
æ
:
j:o
: (o.s/ BI :
k:1
d.t,
K r+K
co +ôo
Ona:
V(Xt) : E(X'?r)
p
E(Xt.( Z- 9, Xr_, + er))
l:l
p
.2- ç, E(Xt Xt_i) + E(e,X1
l:l
p
i:1
p
Or: E (e.L X.)
I
: e, E(e, Xr-J + E (s1)
i:l
Premier cas : Le processus est inversible, c'est-à-dire toutes les racines de tD (Z)
sontsupérieuresà 1 en module; alors E(e,Xr-) : O et E(erXr) : o2.
D'où :
r(o) : p
i:"1
Y$!+s2
r(O) : r(o) r
p
Qi Pfiil + q2
l:l
: : ê
r(0) V(Xr)
p
1- > (p,p(il
t- I
V (X,) est indépendante de t : le processus est faiblement stationnaire.
Deuxième cas ; Les racines de <D
{Z) ne sont pas toutes supérieures à 1 en module.
Nous nous contenterons d'énoncer le résultat : on peut toujours supposer que
les racines du polynôme <D (z) sont de rnodule plus grand qu" i, en remplaçant le
processus S (BlXt : €t par le processus o"
{b} xf : a,. où ô* te) s.ôntilnt eÀ
rernpiaçant, cians s (B), les racines inférieures à 1 en nrodule par leur inverse, a,
étant un nouveau bruit blanc.
Vh > p r(h) : 0
d) Fonction d'autocorrélation
PH TASSI , S. LEGAIT
EXEMPLES DE PROCESSUS
On peut écrire les équations (4) sous forme matricielle pour h : 1àp :
p 1 p (1) ........ p (p - 1)
1"
p(11
.
(5)
.
p(1t
:
p ipr p(p-1) ......... plll 1
Exemple
Soit le processus :
c) Fonction d'autocovariance
Soit à calculer E (X, . X,_r,)
- dr tt-h-.,
(€t-6 da t,-q-6)J
e Si h ) q : E(X,.X,_') : 0
c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo'
P(h) : O Vh ) q
-0,+0.0, +...+0 e
p(h) :#si h(q.
1+01+ .*eZ
Le calcul de r (h) ne présente pas de particularité, et est exécuté selon le
système décrit au chapitre 10.
ll résulte des calculs précédents qu'un processus moyenne mobile est toujours
stationnaire (au sens faible), ce qui n'était pas le cas pour un processus auto-
régressif quelconque.
Conclusion
Le problème de l'identification d'un processus MA (q), c'est-à-dire la déter-
mination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).
Xr:p X, ., * r,
E(€r) : O, V(e,) : o', Cov(e., er*n) :0 (h + O)
Alors :
r,-j)" : p'q*' v
- j:o^ ri
e (Xt 9
i
BIBLIOGRAPHIE
Table no 1
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9r03 0,9r06 0,9r l0 0,9r l3 0,gr l6 0,gr lg 0,gr2l 0,9'24 0,9r26 0,gr2g
J.t 0,gr3l 0,9334 0,9336 0,9r39 0,9r40 a,9142 0.9r44 0,9r46 0,9r49 0,9r50
11 0,9'52 0,9'53 0,9r55 0,9r57 0,9r59 0,9r60 0,9161 0 q'6) 0,9r64 0,9r65
3,4 0.9r66 0,9r68 0,9r6g 0,9170 0,9r71 0,91'r'2 0,9r73 0,9\7 4 0.9r7 5 0,9r76
1S 0,9^77 0,9r78 0,gr7g 0,9r79 0,9r90 0,grg I 0,g3g l 0,9r92 0,grg3 0,9383
3,6 0,9'94 0,9r95 0,9r85 0,9r86 0,9r86 0,9397 0,9r97 0,9rgg 0,9rgg 0,9'99
3,7 0.9'89 l 0,93g0 0,9400 0,9'04 0.9008 0,9'12 0,90l5 0.9'l g 0,9022 0,9425
3,8 0,9'2g i 0,9'3 | 0,9"33 0,9'36 0,9039 0,914l 0,9443 0.9146 0,9'49 0,9150
3,9 0,9"52 | 0,9454 0,9056 0,9'59 0,9t59 0.9161 0.9'63 0,9'64 0,9'66 0.9067
Table no 2
FRACTILES DE LA LOI NORMALE REDUITE
Cette table donne les valeurs absolues des fractiles, nr de la loi normale réduite tels que
î,P
-!' ,
F1u,l: I +e--ldu:P
J__lztt
Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs.
Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs.
P 0.000 0.001 0.002 0.003 0.004 0,005 0,006 0,007 0,008 0,009 0,010
0,00 3,0902 2,8782 2,74'18 2,6521 2,57 58 z,5t2l 2,4573 2,4089 2,3656 2,3263 0,99
0,0 r2,3263 2,2904 2,257 | 2,2262 2,1973 2,t701 2,1u4 2,1201 2,0969 2,0749 2,0537 0,98
0,02 2,053'7 2,0335 2,0141 I,9954 1,977 4 1,9600 t,943t 1,9268 I ,91 l0 I,8957 l,8808 0,97
0,03 1,8808 I,8663 1,8522 I,8384 1,8250 l,8ll9 I,7991 l,7866 |,'77 44 t,1624 1,7 507 0,96
0,04 I,7 507 t,'t392 |,72'79 t,7 t69 l,7060 |,6954 I,6849 I,67 47 |,6646 t,6546 |,6449 0,95
0,05 t,6M9 I,6352 r,6258 |,6164 I,6012 l,5982 I,5893 l,5805 l,5718 I,5632 I,5548 0,94
0,06 I,5548 1,5464 l,5382 l,530 r t5220 l,5141 I,5063 l,4985 I,4909 l,4833 l,4758 0,93
0,07 I,4758 I,4684 I ,461 I I,4538 t,4466 I,4395 1,4325 1,4255 I ,41 87 l,4l l8
r,4051 0,92
0,08 I,405 I I,3984 I,39t7 l,3852 t,3787 |,3722 I,3658 l,3595 r,3532 1,3469 l,3408 0,9 r
0,09 l,3408 |,3346 l,3285 1,3225 I ,3165 1,3 106 |,3047 I,2988 t,2930 1,2873 I ,28 l6 0,90
0, l0 l6 I,27 59 t,2702 1,2646 I,259t t,2536 I ,248 r |,2426 t,2372 I,2319 I,2265 0,89
I ,28
0,1 I |,2265 t,2zlz I,2r60 |,2t07 I,2055 1,2004 I,1952 I,l90l l, I 850 I,1 800 I,1 750 0,88
0, l2 1,1750 I,t700 I,1650 I , l60l 1,1 552 I,1 503 1,1 455 t,t407 1,1 359 l,l3 I I t,t264 0,87
0, l3 |,1264 I,t2t7 I ,l 170 I,l 123 |,1077 I,l03 l l,0985 l,0939 r,0893 l,0848 1,0803 0,86
0,14 I,0803 I,0758 l,0714 l,0669 I,0625 I,0581 I,0537 I,0494 I,0450 I,0407 r,0364 0,85
0,15 t,0364 |,4322 |,0279 1,0237 I ,0 194 l,0152 I ,01 l0 l,0069 I,0027 0,9986 0,9945 0,84
0, l6 0,9904
0,9945 0,9863 4,9822 0,9782 0,9141 0,970 I 0,9661 0,962t 0,9581 0,9542 0,83
0,1 7 0,9542 0,9502 0,9463 0,9424 0,9385 0,9346 0,9307 0,9269 09na 0,9192 0,91 54 0,82
0,r8 0,91 54 0,9116 0,9078 0,9040 0,9002 0,8965 0,8927 0,8890 0,8853 0,88 l6 4,8779 0,81
0, l9 0,8179 0,8742 0,8705 0,8669 0,8633 0,8596 0,8560 0,8524 0,8488 0,8452 0,84 I 6 0,80
0,20 0,8416 0,8381 0,83 10 0,8274 0,8239 0,8204 0,8 169
0,8345 0,8 l 34 0,8099 0,8064 0,79
0,21 0,8064 0,8030 0,796 l 0,7926 0,7892 0,7858 0,7824
0,7995 0,7790 0,1'756 0,'7722 0,78
0,22 0,7722 0,7688 0,7655 0,762t 0,7588 0,7 554 0,7 521 0,7488 0,7 454 0,7421 0,7388 0,7'7
0,23 0,7388 0,7356 0,7323 0,7290 0,7257 0,7225 0,7 t92 0,7 I 60 0,7 t28 0,7095 0,7063 0,76
0,24 0,7063 0,7031 0,6999 0,6967 0,6935 0,6903 0,6871 0,6840 0,6808 0,6176 0,67 45 0,75
0,2s 0,6745 0,6713 0,6682 0,6651 0,6620 0,6588 0,6557 0,6526 0,6495 0,6464 0,6433 0,7 4
0,26 0,6433 0,6403 0,6372 0,6341 0,631l 0,6280 0,6250 0,62t9 0,61 89 0,61 58 0,6128 0,'t3
0,27 0,61 28 0,6098 0,6068 0,6038 0,6008 0,5978 0,5948 0.59 l 8 0,5888 0,5858 0,5 828 0,72
0,28 0,s828 0,5799 0,57 69 0,5740 0,5710 0,568 I 0,565 l 0,5622 0,5592 0,5563 0 st14 0,71
0,29 0,5534 0,5505 0,5476 0,5446 0,5417 0,5388 0.5359 0.5330 0.5302 0.5273 0.5244 0,70
0,010 0,009 0.008 0,007 0,006 0,005 0,004 0,003 0.002 0,001 0,000 P
Table no 2 (suite)
FRACTILES DE LA LOI NORMALE REDUITE
P 0,000 0,001 0.002 0.003 0,004 0,005 0.006 0.007 0.008 0,009 0.010
0,30 0,5244 0,52 I 5 l 0,5072 0,5044 0,50 I 5 0,4987 0,4959 0,69
0,5 187 0,5 I 58 0,5129 0,5 l0
0,31 0,4959 0,4930 0,4902 0,48'14 0,4845 0,4817 0,4'789 0,476t 0,4733 0,4705 0,4677 0,68
0,32 0,467',l 0,4649 0,4621 0,4593 0,4565 0,4538 0,45 l0 0,4482 0,4454 4,442'7 0,4399 0,67
0,33 0,4399 0,4372 0,4344 0,43 l6 0,4289 0,4261 a,4234 0,4207 0,4t79 0,4t52 0,4125 0,66
0,34 0,4125 0,409'7 0,4070 0,4043 0,40 l6 0,3989 0,396 l 0,3934 0,3907 0,3880 0,3853 0,65
0,35 0,3853 0,3826 0,3799 0,3772 0,3'745 0,37 t9 0,3692 0,3665 0,3638 0,361l 0,3585 0,64
0,36 0,3585 0,3s58 0,3531 0,3505 0,3478 0,3451 0,3425 0,3398 0,3372 0,3345 0,33 l9 0,63
0,37 0,33 t 9 0,3292 0,3266 0,3239 0,32 l3 0,3 186 0,3 160 0,3 134 0,3 107 0,308 I 0,3055 0,62
0,38 0,3055 0,3029 0,3002 0,2976 0,2950 0,2924 0,2898 0,287 | 0;?845 0,2819 {2793 0,6 r
0,39 0,2793 0,2767 0,2741 0,2715 0,2689 0,2663 0,263't 0,261I 0,2585 0,25s9 0,2533 0,60
0,40 0,2533 0,2508 0,2482 0,2456 0,2430 0,2404 0,2378 0,2353 0,2327 0,230 l 0,2275 0,59
0,41 0,2275 0,22s0 0,2224 0,2 198 0,21'73 0,2147 0,2t21 0,2096 0,20'10 0,2045 0,20 l 9 0,58
0,42 0,2019 0, l 993 0,1968 0,t942 0,t917 0,1891 0, l 866 0, l 840 0,l8l5 0, r 789 0,1764 0,57
0,43 0, I 764 0, I 738 0,1713 0, I 687 0,1662 0, l 637 0, l6l I 0, l 586 0, l 560 0, I 535 0,1 5 10 0,56
0,44 0,1510 0,1484 0,1459 0,t434 0, I 408 0, l 383 0, I 358 0,t332 0, I 307 0,1282 0,1257 0,55
0,45 0,125'1 0,1231 0, l 206 0,1 l8 l 0,1 156 0,1 r30 0,1 105 0, I 080 0,1055 0, I 030 0,1004 0,54
0,46 0, I 004 0,0979 0,0954 0,0929 0,0904 0,0878 0,0853 0,0828 0,0803 0,0778 0,0753 0,53
0,47 0,0753 0,0728 0,0702 0,0677 0,0652 0,0627 0,0602 0,0517 0,0552 0,0527 0,0502 0,52
0,48 0,0502 0,0476 0,0451 0,0426 0,040 l 0,0376 0,0351 0,0326 0,030 I 0,02'16 0,025 l 0,51
0,49 0.0251 0,0226 0,020 l 0,0175 0,01 50 0.0125 0.01 00 0,0075 0,0050 0,0025 0,0000 0.50
0.010 0,009 0,008 0,007 0,006 0.005 0.004 0,003 0,002 0,00 r 0.000 P
Grandes valeurs de u
Table no 3
LOI BINOMIALE - PROBABILITES CUMULEES
t-.
Probabilités cumulées Pr (& < c) : I Cl po (l - p)
t_0
n c
p: l% P:2ol p:3% p:4% P: 5ok P : 60l p:'7% P:8% p :9% p : t09
0,95 l0 0,9039 0,8 5 87 0,8153 0,7738 0 Tttq 0,6951 0,659 I 0,6240 0,5905
I 0,9990 0,9962 0,9915 0,9852 0,97'7 4 0,9681 0 q575 0,9456 4,9326 0,9185
5 2 I I 0,9997 0,9994 0,9988 0,9980 0,9969 0,9955 0,9937 0,99t4
3 I I I I 0,9999 0,9998 0,999'7 0,9995
4 I I I I
0 0,9044 0,8171 0,73'74 0,6648 0,5987 0,5386 0,4840 0,4344 0,3894 0,3486
I 0,9957 0,983 8 0,9655 0,9418 0,9 r 39 0,8824 0,8483 0,8l2l 0,77 46 0,7361
2 0,9999 0,999 I 0,9972 0,9938 0,9885 0,98 12 0,911 ,1 0,9599 0,9460 0,9298
J I I 0,9999 0,9996 0,9990 0,9980 0,9964 o os4, 0,9912 0,9872
4 I I 0,9999 0,9998 0,9997 0,9994 0,9990 0,9984
5 I I I 1 0,9999 0,9999
6 I I
0 0,860 l 0,7386 0,63 33 0,542t 0,4633 0,3953 0,3367 0,2863 0,2430 0,2059
I 0,9904 0,9647 4,9270 0,8809 0,8290 0,'7738 0,7 l 68 0,6597 0,6035 0,5490
2 0,9996 0,9970 0,9906 0,9797 0,9638 0,9429 0,91 7 l 0,8870 0,853 I 0,8 r 59
J I 0,9998 0,9992 0,997 6 0,9945 0,9896 0 sR2t 0,9727 0,960 I 4,94r'.5
l5
4 I 0,9999 0,9998 0,9984 0,9986 0,9972 0,9950 0,9918 o sÂ71
5 I l' I 0,9999 0,9997 0,9993 0,9987 0,9978
6 l I 0,9999 0,9999 0,9997
'1
I I I
0 0,8179 0,6676 0,5438 0,4120 0,35 85 0,290 l 0,2342 0, I 887 0,1516 0,1216
I 0,983 I 0,940 l 0,8802 0,8 103 0,735 8 0,6605 0,5869 0,5 169 0,45 l6 0,3917
2 0,9990 0,9929 0,9790 0,9561 0,924s 0,8850 0,8390 0,7879 0,1334 0,6769
3 1 4,9994 0,9973 0,9926 0,9841 0,9710 0,9529 0,9294 0,9007 0,8670
4 I 0,9997 0,9990 0,997 4 0,9944 0,9893 0,981 7 0,97 l0 0,9568
20
5 I 0,9999 0,9997 0,9991 0,9981 0,9962 0.9932 0,9887
6 I I 0,9999 0,9997 0,9994 0,9987 0,9976
7 I I 0,9999 0,9998 0,9996
8 I I 0,9999
9 I
0 0,7397 0,5455 0,40 l0 0,2939 0,2r46 0, I 563 0,1 1 34 0,0820 0,0591 0,0424
I 0,9639 0,8794 0,7'731 0,66t2 0 5s1s 0,4555 0,3694 0,2958 0,2343 0, l 837
) 0,9967 0,9783 0,9399 0,883 I 0,8122 0.7324 0,6488 0,5654 0,485 5 0,41t4
3 0,9998 0,9971 0,9881 0,9694 0,9392 0,8974 0,8450 0,7842 0,717 5 0,647 4
4 0,9999 0,9996 0,9982 0 qs17 0,9844 0,9685 0,9447 0,9126 0,8723 0,8245
5 I I 0,9997 0,9989 0,9967 0,9921 0,983 8 0,9707 0,95 r 9 0,9268
30
6 I 0,9999 0,9994 0,9983 0,9960 0,9918 0,9848 0,9142
7 I 0,9999 0,9997 0,9992. 0,9980 n ooss 0 ss?)
8 I 0,9999 0,9999 0,9996 0,991 0 0,9980
9 I I 0,9999 0,9998 0,9995
l0 I I 0,9999
n I
Table no 3 (suite)
LOI BINOMIALE - PROBABILITES CUMULEES
0 0,6690 0,4457 0,2957 0. l 954 0, I 285 0,0842 0,0549 0,0356 0,0230 0,0148
I 0,9393 0,8095 0,661 5 0,52 l 0 0,399 I 0,2990 0,2201 0, I 594 0,1 140 0,0805
2 0,992s 0,9543 0,8822 0,7855 0,67 67 0,5665 0,4625 0,3694 0,2894 0,2228
3 0,9993 0,99 r 8 0,9686 0,9252 0,8619 0,7827 0,6937 0,6007 0,5092 0,4231
4 I 0,9988 0,9933 0,9790 0,9520 0,9104 0,8546 0,7868 0,7 103 0,6290
5 0,9999 0,9988 0,9951 0,986 I 0,969 I 0,94t9 0,9033 0,8535 0,7937
6 I 0,9998 0,9990 0,9966 0,9909 0,980 l 0,9624 0,936 l 0,9005
40
7 I 0,9998 0,9993 0,9977 0,9942 0,9873 0,9758 0,958 l
8 I 0,9999 0,9995 0,9985 0,9963 0,9920 0.9845
9 I 0,9999 0,9997 0,9990 0,9976 0,9949
l0 I 0,9999 0,9998 0,9994 0,9985
ll I I 0,9999 0,9996
t2 I 0,9999
l3 1
0 0,6050 0,3642 0,2 I 8l 0,1299 0,0'769 0,0453 4,0266 0,0155 0,0090 0,0052
I 0,9106 0,735 8 o 5ss'l 0,4005 0,2794 0, r 900 0,t265 0,0827 0,0532 0,0338
2 0,9862 0,9216 0,8 l 06 0,6767 0,5405 0,4162 0,3 108 0,2260 0, r 605 0,1 I l7
3 0,9984 0,9822 0,9372 0,8609 0,7604 0,6473 0,5327 0,4253 0,3303 0,2503
4 0,9999 0,9968 0,9832 0,95 l0 0,8964 0,8206 0,7290 0,6290 0,527',| 0,43t2
5 I 0,9995 0,9963 0,9856 0,9622 0,9224 0,8650 0,7919 0,7072 0,6161
6 0,9999 0,9993 0,9964 0,9882 0,971 l 0,94t7 0,898 I 0,8404 0,7702
7 I 0,9999 0,9992 0,9968 0,9906 0,9780 0,9562 0,9232 0,8779
50
8 I 0,9999 0,9992 0,9973 0,9927 0,9834 t,96't2 0,9421
9 I 0,9998 0,9993 0,9978 0,9944 0,9875 0,9755
l0 I 0,9998 0,9994 0,9983 0,9957 0,9906
ll I 0,9999 0,9995 0,9987 0,9968
t2 I 0,9999 0,9996 0,9990
l3 I 0,9999 0,999'7
t4 I 0,9999
l5 I
Table no 4
LOI DE POISSON PROBABILITES CUMULEES
(
m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,9
0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066
I 0,9953 0,9825 0,9631 0,9384 0,9098 0,8781 0,8442 0,8088 0,7725
t 0,9998 0,9988 0,9964 0,9920 0,9856 0,9769 0,9659 0,9526 0,9372
3 I 0,9999 0,9997 o,9992 0,9982 0,9966 0,9942 0;9e0e 0,9866
4 I I 0,9999 0,9998 0,9996 0,9992 0,9986 0,9977
6 I I
l5 I 0,9999
l6 I
Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES
ti"u^
Probabilités cumulées Pr (k < ,, : #
22Â
PH. TASSI - S. LEGAIT
TABTES NUMERIOUES
Table no 4 (suite)
LOI DE POISSON - PROBABILITES CUMULEES
35 I 0,9999
36 I
Table no 5
FRACTILES DE LA LOI DE x'z(u)
xirvt:"(r-z*,,,f!*)'
où t" est le fractile d'ordre P de la loi normale réduite'
aal
PH. TASSi S. LEGAIT
TABLES NUMERIOUES
Table no 6
FRACTILES DE LA LOI DE STUDENT
Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour P> 0,60.
Pour fes valeurs P( 0,40, on a tp(v) : - t,, e(v).
1P
v\ 0,60 0,70 0,80 0,90 0,95 0,975 0,990 0,995 0,999 0,9995
I 0,325 0,727 I,3'16 ,078 5,3t4 t2,71 3 1,82 63,66 3r8,3 636,6
2 0,289 0,617 I ,061 ,886 2,920 4,303 6,965 9,925 22,33 31,60
3 0,277 0,584 0,978 ,638 2,3 53 3,1 82 4,541 5,84 r t0,22 t2,94
4 0,27 t 0,569 0,941 ,533 2,t32 2,776 3,747 4,604 7,t73 8,61 0
5 0,267 0,559 0,920 ,416 2,015 2,571 3,365 4,032 5,893 6,859
6 0,265 0,553 0,906 ,440 1.943 2,447 3,143 3,707 5,208 5,959
7 0,263 0,549 0,896 ,4t5 1,895 2,365 2,998 3,499 4,'t85 5,405
8 0,262 0,546 0,889 ,39'l 1,860 2,306 2,896 1 15S 4,501 5,041
9 0,26t 0,543 0,883 ,383 I,833 2,262 2,821 3,250 4,297 4,781
l0 0,260 0,542 0,879 -3tt 1,812 2,228 2,764 3,t69 4,t44 4,587
ll 0,260 0,540 0,876 ,363 t,796 2,20t 2,7 t8 3,r06 4,025 4,43't
t2 0,259 0,539 0,873 ,356 1,782 2,t79 2,681 10s5 3,930 4,3 l8
I3 0,259 0,538 0,870 ,350 t,77 t 2,160 2,650 3,0t2 3,852 4,221
t4 0,258 0,53 7 0,868 ,J45 I,761 2,t45 2,624 2,977 3,787 4,140
l5 0,258 0,536 0,866 .341 I,753 2,131 2,602 2,947 1 711 4,073
l6 0,258 n 51t 0,865 11? |,746 2,t20 2,5 83 2,921 3,686 4,0r5
l'7 0,2s7 0,534 0,863 ,333 I,740 2,1 l0 2,56't 2,898 3,646 3,965
l8 0,257 0,534 0,862 ,330 t,7 34 2,r01 2,552 2,878 3,61 l 3,922
l9 0,257 0,533 0,861 ,328 t,729 2,093 2,539 2,86 I 3,579 3,883
20 0,257 0,533 0,860 ,325 I,725 2,086 2,s28 2,845 3,55 2 3,850
2t 0,257 0,s32 0,859 ,323 I,72t 2,080 2,5 r8 2,831 3,s27 3,8 l9
22 0,256 0,532 0,858 ,32t t,7 t7 2,074 2,508 2,8 l9 3,505 3,'t92
23 0,256 0,532 0,858 ,3 r9 t,7 14 2,069 2,500 2,80'7 3,485 3,767
24 0,256 0,53 I 0,857 ,3 l8 t,7l I 2,064 2,492 2,797 3,46'7 3,745
25 0,256 0,53 l 0,856 ,3 l6 t,708 2,060 2,485 2,787 3,450 3.725
26 0,256 0,531 0,856 ,315 I,706 2,056 2,4'19 2,779 1 dl{ 3,707
2'7 0,2s6 0,531 0,855 ,3 l4 I,703 2,052 2,473 2,7't t 3,421 3,690
28 0,256 0,530 0,855 ,3 l3 t,701 2,048 2,46'7 2,763 3,408 3,67 4
29 0,256 0,530 0,854 ,31 I t,699 2,045 2,462 2,756 3,396 3,659
30 0,256 0,530 0,854 .3 l0 t,697 2.042 2,457 2;750 3,385 3,646
32 0,256 0,530 0,853 ,309 I,694 2,03'1 2.449 2,738 3,365 3,622
34 0,255 0,529 0,852 ,307 r,691 2,032 2,441 2,728 3,348 3,601
36 0,255 0,529 0,852 ,306 r,688 2,028 2,434 2,7 t9 3,333 3,582
38 0,255 0,529 0,851 ,304 t,686 2,024 2,429 2,7 t2 3,319 3,566
40 0,255 0,s29 0,851 ,303 1,684 2,02t 2,423 2,704 1 1n7 3,551
50 0,255 0,528 0,849 ,298 t,676 2,009 2,403 2,6'78 3,26r 3,496
60 0,254 0,527 0,848 ,296 t,67 I 2,000 2,390 2,660 3,232 3,460
70 0,254 0,527 0,847 ,294 t,667 I,994 2,381 2,648 3,2n 3,435
80 0,2s4 0,s27 0,846 ,292 t,664 i,990 2,374 2,639 3,195 3,4r5
90 0,254 a.526 0.846 ,29t t,662 I,987 2368 2,632 3,1 83 3,402
r00 0,254 0,526 0,845 ,290 t,660 I,984 2,365 2,626 3,174 3,389
200 0,254 0,525 0,843 ,286 t,653 I,972 2,345 2,601 3,13 1 3,339
500 0,253 0,525 0,842 ,283 t,648 I,965 2,334 2,586 3,1 06 3,3 l0
0,253 0.524 0.842 .282 r.645 1.960 2.126 2,576 3,090 3,29t
tp(v)-ue*(u)r+u"\/4v
où ur est le fractile d'ordre Pde Ia loi normale réduite.
Table no 7
FRACTILES DE LA LOI F (uI, uz\ P:0,95
DEGRÉS DE LIBERTÉ DU NUMÉRATEUR
N
Vr
2 3 4 5 6 7 8 9 l0 t2 t4
I l6l 200 2t6 225 230 214 237 239 241 242 244 245
z r 8,5 19,0 t9,2 19,2 19,3 19,3 t9,4 19,4 t9,4 19,4 t9,4 t9,4
3 10, r s 55 9,28 9,t2 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,71
4 7,71 6,94 6,59 6,39 6,26 6, t6 6,09 6,04 6,00 5,96 5,91 5,87
5 6,61 5?0 5,41 5,l9 5,05 4,95 4,88 4,82 4,77 4,7 4 4,68 4,64
6 5,99 5,t 4 4,7 6 4,53 4,39 4,28 4,21 4,l5 4, l0 4,06 4,00 J,96
7 5,59 4,7 4 4,35 4,12 147 3,87 3,79 171 3,68 3,64 3,57 3,53
8 5 1t 4,46 4,0'l 3,84 3,69 3,5 8 3,50 3,M 3,39 3,3 5 3,28 3,24
9 5,t2 4,26 3,86 161 3,48 117 3,29 3,23 3,l8 3, l4 3,07 3,03
l0 4,96 4, l0 3,71 3.48 111 3,22 3, l4 3,07 3,02 2,98 2,9t 2,86
ll 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,74
d, t2 4,7 5 3,89 3,49 3,26 3,il 3,00 2,91 2,8 5 2,80 ) 7( 2,69 2,64
f, l3 4,67 3,81 3,41 3,l8 3,03 2,92 2,83 ) 11 1?r 2,67 2,60 2,55
(r]
F l4 4,60 3,14 3,34 3,l l 2,96 2,85 2,76 2,70 2,65 2,60 2,s3 2,48
l5 4,54 3,68 3,29 3,06 2,90 2.79 2,7 t 2,64 2,59 2,54 2,48 2,42
l6 4,49 3,63 3,24 3,01 2,85 2,7 4 2,66 2,59 2,54 2,49 2,42 2,37
= t7 4,45 3,59 3,20 2,96 2,8 I 2,70 2,61 2,55 2,49 2,45 2,3 8 2,33
l8 4,4t 155 3, l6 2,93 2,77 2,66 2,5 8 2,5t 2,46 2,4t 2,34 2,29
z l9 4,38 3,s2 3, l3 2,90 2,7 4 2,63 2,54 2,48 2,42 2,38 2,3t
.(Jl 2,26
20 4,35 3,49 3, l0 2,87 2,7 t 2,60 2,51 2,45 2,39 2,3s 2,28 ) )',
f, 2t 4,32 141 3,0'l 2,84 2,68 t<? 2,49 2,42 237 )1) I l< 2,20
22 4,30 3,44 3,05 2,82 2,66 , {( 2,46 2,40 2,34 2,30 2,23 2,t7
.IJ.]
F
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 ))1 2,20 2,t5
24 4,26 3,40 3,0 r 2,78 2,62 2,5t 2,42 2,36 2,30 )')< 2,l8 z,t3
{! 25 4,24 3.39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,t6 2,n
: 26
27
4,23
4,2t
117
11s
2,98
2,96
2,14
)11
2,59
2,57
2,4'7
2,46
2,39
2,i7
232
2,3t
))1
))\
1 11
2,20
2,15
2,t3
2,09
q.) 2,08
28 4,20 3,34 2,95 2,7 t 2,56 2,45 2,36 ))o 2,24 2,t9 2,12 2,06
th 29 4,l8 3,33 2,93 2,70 ) {< 2,43 2,35 2,28 f f t 2,r8 2, l0 2,0s
.[] 30 4,t7 3,32 2,69 ))1
d,
2,92 2,53 2,42 2,2t 2,t6 2,09 2,04
() 5Z 4,l5 3,29 2,90 2,67 2,5t 2,40 2,31 2,24 2,19 2,t4 2,07 2,01
g
34 4,t3 3,28 2,88 2,65 2,49 2,38 ))o ))1 2,1"t 2,t2 2,05 I,99
!
36 4,l l 3,26 2,87 2,63 2,48 2,36 2,28 2,2t 2,t5 2,1 2,03 l,98
38 4,l0 3,24 2,85 2,62 2,46 2,35 2,26 2,t9 2,t4 2,09 2,02 I,96
40 4,08 3,23 2,84 2,6t 2,45 2,34 t 1< 2, r8 2,t2 2,08 2,00 I,95
50 4,03 3,l8 2,79 2,56 2,40 2,29 2,20 2,t3 2,0'l 2,03 t,95 1,89
60 4,00 3, t5 2,76 2,53 2,37 2,25 ', l1 2, l0 2,04 r,99 t,92 1,86
70 3,98 3, l3 2,74 2,50 z,3s 2,23 2,14 2,07 2,02 I,91 1,89 1,84
80 'l s6 3,l l 1 11 2,49 ') t!
2,33 2,t3 2,06 2,00 1,95 l,88. r,82
3, l0 11t
90 3.95 2,47 2,32 2,20 2,n 2.04 1,99 t,94 r,86 1.80
100 3,94 3,09 2,70 2,46 2,3t 2,t9 2, l0 2,03 I,97 1,93 I ,85 t,79
3.84 3.00 2.60 2,37 ) )t 2, l0 2,01 1.94 r .88 1.83 t,7 5 1.69
F,-r(v,, vz): I
F, (vr' v'\
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0.95
246 247 248 249 249 249 250 250 251 252 253 ,.s4 I
t9,4 t9,4 t9,4 t9,5 19,5 19,5 19,5 19,5 t9,5 r9,5 19,5 9,5 2
8,69 8,67 8,66 i,65 8,64 8,63 8,62 8,62 1,59 157 3,5 5 ,53 3
5,84 5,82 5,80 t,79 571 5,76 5 ?S 5,7 5 i ?, i,66 ,63 4
4,60 4,58 4,56 J,54 4,51 A\) 4,50 4,50 t,46 ',69
1,43 +,41 ,37 5
3,92 3,90 3,87 ],86 3,84 3,83 3,82 3,8 r \'1'7 t,'74 ,,7 t ,67 6
3,49 3,47 3,44 t,43 3,41 3,40 110 3,38 I lr'. t10 t,27 ,21 '1
3,20 3,t7 3, r5 i,l3 3,12 3, r0 3,09 3,08 1,04 |,0 r )q7 ,93 8
2,99 2,96 2,94 1,92 2,90 2,89 2,87 2,86 )R1 t,79 2,7 6 ,7t 9
2,83 2,80 1 a1 )7{ 2,7 4 ', 1) 2,7 t 2,70 1,66 t,62 ){o ,54 l0
2,70 2,6"1 2,65 t,63 2,61 2,59 2,5 8 )<1 ) s1 t,49 2.,46 ,40 ll rn
2,60 )\1 2,54 | <r 2,51 2,49 2,48 2,47 ,-,43 1,3 8 )'t5 1n t2
2,5t 2,48 2,46 1,44 2,42 2,4t 2,39 2,3 8 t,34 1,30 2,26 ,2t l3 v
arJ.
2,44 2.4t 2,39 t,37 2,35 2,33 2,32 2,3t , 11 t)) z, l9 ,13 t4 (,
2,38 2,35 , 11 t,3 l ,to 2,21 2,26 t')< t,2a l,l9 't,t2 ,07 l5
2,33 2,30 ) r< 2,24 ))) l5 l,ll l6
arJ
2,29 2,26
2,28
z,z) t,2l 2,t9 2,t7
2,2t
2,16
2,19
2,t5
I,
I, l0 t,06
2,07
) (\)
,0i
,96 t7
-
2.25 ))) 2,t9 l,t7 2,15 2,t3 2,t2 2,lt 1,06 1,02 1,98 ,92 l8 t!
fa
2,21 2,l8 2,t6 I,l3 2,1I 2,10 2,08 2,07 )n1 ,98 1,94 ,88 l9
2,l8 2,t5 2,t2 I,l0 2,08 2,07 2,05 2,04 1,99 ,95 l,9l ,84 20 -J
lr)'
2,t6 l rt 2,t0 ,.,07 2,05 2.04 2,02 2,01 ,96 ,92 1,88 ,81 2t Ë
2,t3 2,t0 2,07 t,05 2,03 2,01 2,00 I,98 ,94 ,89 I ,85 ,78 22 c
2,n 2,0'l 2,05 t,02 2,00 l,99 |,97 1,96 ,91 ,86 I ,82 ,76 23
2,09 2,05 2,03 r,00 l,98 1,97 I,95 1,94 ,89 ,84 r,80 ?1 24 tr.
2,07 2,04 2,01 ,98 1,96 1,95 I,93 I,92 ,87 ,82 I ,78 ,'7 I 25
z
2,0s 2,02 t,99 q7 I,95 I,93 RS
I,91 1,90 ,80 I,76 ,69 26
2,04 2,00 |,97 st l,93 1,90 t,74
2,02 I,99 1,96 I,91
I,91
1,90
l ,88 ,84 ,'79 ,67 27
z=
,93 1,88 1,87 ,82 ,'77 l,'71 ,65 28
2,01 |,97 t,94 ,92 1,90 1,88 1,87 1,85 ,81 ,'7 5 t,71. ,64 29 -l
rn
l,99 I,96 I,93 ,91 1,89 I ,87 1,85 1,84 19 .'74 r,70 ,62 30 e
t,97 t,94 l,83 )2
I,95 |,92
I,91
1,89
,88
,86
1,86
l,84
I
1,82
,85
1,80
1,82
l,80
,1',l
,75
,'7 I
,69
t,67
t,65
,59
,57 34
:
l,93 1,90 I ,87 ,85 I,82 I ,81 I,79 1,78 ,73 ,6'7 1,62 55 36
1,92 1,88 I ,85 ,83 I,81 t,'19 I,77 I,76 ,7t ,65 r,6l 51 J6
I,90 I,87 1,84 ,81 I,79 t,77 t,76 t,7 4 ,69 ,64 5q ,5 I 40
l ,85 l,81 1,78 ,76 I,74 I,72 l,70 1,69 ,63 ,58 t,52 ,44 50
l,82 I,78 t,7 5 ,72 1,70 1,68 1,66 1,65 ,59 51 r,48 10 60
|,79 t,7 5 I,72 ,70 t,67 1,65 t,64 I,62 ,5'7 ,50 t,45 15 70
I,'7'l t,73 l,70 ,68 1,65 1,63 t,62 1,60 ,54 ,48 r,43 1',) 80
t,76 I,72 t,69 ,66 t,64 t,62 I,60 I,59 51 ,46 t,4l ,30 90
1,7 5 I ,71 1,68 ,65 I,63 I ,61 I,59 |,57 5) ,45 t,39 ,28 100
I,64 I,60 t,57 .54 |,52 1.50 I,48 t,46 .39 .32 I,24 ,00
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uzl P : 0,975
N I 648
I 2
800
3
864
4
9C0
5
922
6
937 948
7
957
8
963
9 l0
969
t2
977
l4
983
2 38,5 39,0 39,2 39,2 1S1 39,3 39,4 39.4 39,4 )9,4 1S4 39,4
3 t7,4 16,0 15,4 t5,r t4,9 t4,7 14,6 14,5 r4,5 14,4 14,3 14,3
4 t2,2 10,6 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,75 8,69
5 10,0 8,43 7,76 7,39 7,1 5 6,98 6,85 6,7 6 6,68 6,62 6,52 6,46
6 8,8 t 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5 5) 5,46 5,37 5,10
7 8,07 6,54 5,89 5 5' 5,29 5,t2 4,99 4,90 4,82 4"16 4,67 4,60
8 't \1 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,20 4,l3
9 7,2t 5,7 | 5,08 4,12 4,48 4,32 4,20 4, l0 4,03 3,96 3,87 3,80
l0 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 ?.1') 3,62 3,55
ll 6,72 5,26 4,61 4,28 4,04 3,88 3.76 3,66 3,59 1s1 3,43 3,36
;f t2
l3
6,55
6,4t
5,t0
4,97
4,47
4,35
4,12
4,00
1,89
),77
1 71
3,60
3,61
3,48
3,51
3,39
3,44
3,31
117
1 ){
3,28
3,1 5
3,21
3,08
gl
t4 6,30 4,86 4,24 3,89 3,66 3,50 3,3 8 3,29 3,Zl 3,r5 3,05 2,98
F
l5 6,20 4,76 4,15 3,80 3,5 8 3,41 3,29 J,20 3,12 3,06 2,96 2,89
z l6 6,t2 4,69 4,08 17'l 3,50 3,34 1, )) 3,l2 3,05 2,99 ?Rq 2,82
t'l 6,04 4,62 4,01 3,66 3,M 3,28 3,l6 3,06 2,98 2,92 2,82 ) l5
l8 5,98 4,56 105 3,6 r 3,38 7)) 3, l0 3,01 2,93 2,87 2,',77 2,70
z
.t! t9 <o) 4,5 I 3,90 3,56 3,33 3,17 105 2,96 2,88 2,82 1 11 2,65
4,46 l 1?q 3,r3 2,9t 2,84 1 11 2,68 2,60
U 20 5,87 3,86 3,5 3,01
f, 2t 5,83 4,42 3,82 3,48 1ts 3,09 2,97 2,8'l 2,80 2,73 2,64 ?.56
22 5,',l9 4,38 3,78 3,44 3,22 3,05 2,93 ) F,4 2,76 2,'10 2,60 2,s3
.t! 23 575 4,35 3,7 5 3,41 3,l8 3,02 2,90 2,81 2.73 2,67 )<1 2,50
F 24 <1) 432 3,72 3,38 3,l5 2,99 2,87 2,78 2,70 2,64 2,54 2,47
trl
co
25 5,69 4,29 3,69 1 1s 3, ll 2,9'7 2,8s t ?( 2,68 2,61 2,51 2,44
I 26 5,66 4,27 3,67 3,33 3, l0 2.94 2,82 2,73 2,65 2,59 2,49 2,42
2'7 5,61 4,24 3,65 3,3 l 3,08 2,92 2,80 2,7 | 2,61 2,57 2,47 ?10
rrl
! 28 5,61 4,22 3,63 t?s 3,06 )9n 2,78 2,69 2,6t 2,55 2,45 2,37
29 s5s 4,20 3,61 1)1 3,04 2,88 2,76 2,6'l ){o , (1 2,43 2,36
.ql -) f
30 557 4,18 15S 3,25 3,03 2,87 ?( 2,65 <1 2,5t 2,41 2.34
d,
U 32 5 S',l 4,l5 3,56 3,22 3,00 2,84 ) 1) 2,62 2,54 2,48 2,38 2,3t
ql 34 5,50 4,t2 3,53 3, l9 2,97 2,81 2,69 2,59 ) {t 2,45 2,35 2,28
a 36 5,47 4,09 3,5 I 3,t1 2,94 2,19 2,66 ){7 2.49 2,43 2,33 ) ){
J6 5,45 4,07 3,48 3, 15 2,92 2,'16 2,64 7 55 2,47 2,4t 2,3t t tt
4A 5,42 4,05 3.46 3, 13 2,90 2,7 4 2,62 ) {1 2,45 2,39 2,29 2,2t
50 5,34 3,98 1 '1S
3,06 2,83 2,61 2,55 2,46 2,3 8 ))) 2,14
60 5,29 1S1 114 3,01 2,79 2,63 2,51 2,4t ) 11 )11 ) 1'1 2,09
70 { ts 3,89 3,3 I 2,98 ) ?< 2,60 2,48 2,38 2,30 2,24 2,t4 2,06
80 <)) 3,86 3,28 2,95 ,'71 )<1 2,45 2,36 2,88 2,2t '2,n 2,03
90 5,20 3,84 J,27 2,93 2.7 t 7 5t 2,43 2,34 2,26 2.t9 2,09 2,02
100 5,l8 1 R1 3,75 2,92 2,10 2,54 2,42 ) lt 2,24 2, l8 2,08 2,00
5.02 3.69 3,t2 2.79 )\1 2.4t ))a 2.19 2.r I 2.05 1.94 l .87
Table no 7 (suite)
FRACTILES DE LA LOI F (ut, uz) P:0,975
2,4t 2,36 2,33 2,30 ))< 2,23 2,2t 2,t5 2,08 2,02 I,94 24 11.
2,38 2,34 2,30 2,27 2,24 141 2,20 2,t8 2,t2 2,0s 2,00 l,9l 25
z
o
2,36 2,3t 2,28 2,24 J1) 2,t9 2,t7 2,t6 2,09 2,03 1,97 l,88 26
2,34 2,29 iJ< ,1a 2,t9 2,t7
E
2,15 2,t3 2,07 2,00 1,94 l ,85 27 z
2,32 aa1 t t2 2,20 2,t7 î r< 2,t3 2,tl 2,05 r,98 I,92 1,83 28
2,30 2,25 2,21 2,l8 2,t5 2,t3 2,n 2,09 2,03 I,96 I,90 l,81 29 -l
114 rn
2,28 2,20 2,t6 2,14 2,tl 2,09 2,07 2,0t I,94 l,88 I,79 30 C
))< 2,20 2,t6 2,t3 2, l0 2,08 2,06 2,04 I,98 I ,91 I ,85 t,7 5 32 v
)J) 2,t'l 2,t3 2, l0 2,07 2,05 2,03 2,0t 1,95 I,88 l,82 I,72 34
2,20 2,t5 2,n 2,08 2,05 2,03 2,00 I,99 I,92 l,85 I,79 I,69 36
2,t7 2,t3 2,09 2,05 2,03 2,00 I,98 l,96 l,90 I,82 t,76 t,66 38
2,t5 2,tt 2.07 2,03 2,01 l,98 1,96 t,94 r,88 l,80 1,74 t,64 40
2,08 2,03 t,99 t,96 I,93 I,91 l,88 I,87 I,80 t,72 t,66 r ,55 50
2,03 l,98 t,94 I,91 l,88 I,86 l,83 t,82 I,74 t,67 I,60 l,48 60
2,00 1,95 I ,91 r,88 l,85 1,82 r,80 I,78 I,7 t l,63 I,56 t,44 70
t,97 l,93 l,88 l,85 l,82 I,79 I,77 1,7 5 1,68 I,60 l,53 I,40 80
1,95 l,9l I,86 I,83 l,80 I,77 t,7 5 I,73 1,66 1,58 I,50 I,37 90
1,94 I,89 I,85 I,81 l,78 t,76 t,74 t,7l t,64 I,56 I,48 r ,35 100
l,80 |,75 I,71 t,6'7 I,U I,61 1.59 1.57 t.48 I,39 I.30 l,00
Pour yr ct yr > 30, une bonne approximation est donnée par la formule:
Table no I
NOMBRES AU HASARD
t3407 62899 't8937 90525 25033 56358 78902 47008 72488 57949
50230 63237 94083 93634 7t652 02656 57532 60307 91619 48916
84980 62458 09703 78397 66t79 46982 676t9 39254 90763 74056
22lL6 33646 17545 31321 657'72 86s06 0981 l 82848 922n 5t 178
68645 15068 56898 87A2t 401 15 27524 42221 88293 67592 06430
26518 39t22 96561 56004 50260 68648 85596 83979 09041 62350
36493 41666 2787t 7t329 692t2 57932 65281 57233 07732 58439
77402 12994 59892 85581 70823 53338 34405 67080 16568 00854
83679 971s4 4034t 84741 08967 73287 94952 59008 95774 44927
71802 39356 02981 89107 79788 51330 37129 31898 3401 I 43304
57494 72484 22676 443t1 15356 05348 03582 66183 68392 86844
'73364 38416 93128 t0297 I l4l9 82937 84389 88273 96010 09843
tu99 83965 75403 18002 45068 s4257 18085 92626 6091 I 39137
40747 03084 0'1734 88940 88722 857t7 73810 79866 84853 68647
42237 59t22 92855 62097 81276 06318 81607 00565 56626 77422
32934 60227 58707 44858 36081 7998t 01291 68707 45427 82t45
05764 t4284 73069 80830 t723t 42936 484'.12 t8782 st646 37564
32706 94879 93188 66049 25988 46656 35365 13800 83745 40141
22190 2'7559 95668 53261 2t676 98943 43618 42n0 93402 93997
81616 t5641 9492t 959',70 63506 22007 29966 38tM 62556 07864
26099 65801 69870 84446 58248 21282 56938 54729 6775'7 684t2
71874 61692 8000t 21430 02305 59741 34262 15157 27545 14522
087'74 29689 42245 51903 69179 96682 91819 60812 4763t 50609
37294 92028 56850 83380 0s9t2 29830 37612 15593 73198 99287
33912 37996 78967 5720t 66916 73998 54289 07t47 84313 51939
63610 61475 26980 23804 54972 72068 19403 53756 0428t 98022
01570 4t702 30282 54647 06077 29354 95704 75928 2l8l I 88274
24t59 77787 38973 82178 46802 90245 01805 23906 96559 06785
92834 52941 88301 22t27 23459 40229 74678 2t859 98645 72388
16178 60063 59284 t62'79 48003 44634 08623 32752 40472 05470
81808 32980 80660 98391 62243 t9678 39551 18398 36918 43543
28628 82072 04854 52809 86608 68017 l l 120 28638 72850 03650
62249 65757 122'73 9t261 96983 15082 83851 77682 81728 52t47
8454t 99891 01585 96711 297t2 0287'7 70955 59693 26838 9601 I
89052 39061 9981 I 69831 47234 93263 47386 17462 18874 742t0
43645 89232 00384 10858 21789 14093 06268 46460 97660 23490
61618 1927s 40744 22482 12424 98601 19089 53166 41836 28205
68136 06546 04029 4'1946 t9526 2'1t22 425t5 55048 239t2 81 105
74005 34558 93779 96t20 01695 47720 88&6 73520 40050 90553
54437 88825 0'7943 81795 3t709 13358 04626 64838 92133 44221
0r990 94762 89926 84764 t9159 95355 982t3 t7704 47400 30837
02404 42408 6798t 43684 55467 47030 42545 43920 I I 199 36521
59253 7t535 26149 35629 87t2^7 45581 00185 0104t 46662 98897
20471 t3914 99330 37938 69649 57964 97149 4t628 78664 80727
65946 60766 74084 22484 495t4 89820 41310 19722 07045 28808
00939 47818 75949 44707 49105 06777 31998 79942 98351 t0265
499s2 29t23 45950 67578 13524 03023 18046 '15287 74989 58152
17328 70732 46319 269sO t9037 02831 36558 82712 05590 64941
19420 702t5 90476 76400 51553 12158 14668 15656 37895 94559
t9l2l 4l t90 49t45 05373 00755 t78t7 22757 76116 76977 945't0
Table no 9
NOMBRES AU I-IASARD GAUSSIEN N (0,1)
Table no 1O
ESPERANCE DE LA STATISTIOUE D'ORDRE
table fournit E (X,,,), où X,,, est I'observation de rang i lorsque léchantillon
_.Cette
(X,, .. xn) extrait d'une loi normale N (0, l) est classé pu, o.J.. décroissant:
'
X,u ),X,r, )- ...2 X,,t ) ...) X,", ; n varie de 2 à 50. par symétrie, E (Xrrr :
-E(X," -',)
2 3 4s6 7E
I 0.5642 0.E463 1.0296 r.1630 t.2672 r.!522 1.4236
? -0.5642 0.oooo 0.2970 0.4950 0.6418 0.1574 0.e522
3 -0.846t -o.29t0 0.0000 0.2015 0.3527 0,4728
4 -1.o29ô -0.4950 -0.2015 _0"0000 0. L525
9l0ltt2u t4 15
I t.4850 1.5388 t.5864 t.6292 r.66S0 1.70t4 t.7t59
2 0.9323 l.ool4 l.06 l, t. lr57 r. r64t 1.20t9 1,2419
3 0.5720 o.6t6r 0.7286 0"7928 0.8498
4 0.2145 0.J756 0.4620 0.5]68 0.6028 0.901r o,9477
0.66IE 0.tr49
5 0.0000 0.t227 0.22{9 0.3t22 o.3ss3 0.4556 0.5157
6 -0.2''45 -O.t22t o.ooq) 0.1026 o.t9o5 0,26:/3 0.3351
t -0.5720 -0.3758 -O,2249 -o.1026 o.oooo o.os82 0.1653
16 t7 lE r9 20 21 22
I t.7660 r.7939 1.82@ 1.841.5 1.8675 r.E892 1.9097
2 r.284t l.3rE8 r.3to[ t.3799 r.@76 r.4336 1.45S2
3 0.990! 1.0295 l.o65t 1.0995 l. u09 l. r60t t. rE82
4 0.7532 0.E074 0.t481 0.E85t 0.92t0 0.9538 0.9846
5 0.5700 0.6r95 0.664t 0.7066 0.74'É 0.7E15 0.E153
6 0.3962 o.ôJu 0.tot6 0.y77 0.5903 0.629E O.6667
7 0.233E 0.2952 0.350s 0.4016 0.4433 0.4915 0.5316
t 0.07t3 0.1460 0.207t 0.2537 0.3r49 0.3620 0.ré56
9 -0.07tt 0.æ00 0.6S! 0. uot 0. 1870 0.2384 0.2r58
l0 -0.z3tt -0.1460 -0.06s! 0.0000 0.0620 0.1184 0.rt00
ll -0.3t62 -0.2952 -o.20r, -0.Llot -0.0620 0.0000 0.0564
23 24 2' 26 2t 2E Le
I 1.9292 r,%7t 1.9653 1.9E22 1.99E3 2.0U7 2.0285
2 1.4€14 r.5034 l.t2(! t.*2 r.5633 t"5815 l.r9E9
3 t"2144 1.2392 1.2626 t.2t5l r.3064 1.326t r.3462
4 1.0u6 t.o409 I .0'66t I .091ô l. rl47 l. t3t0 1.15E:
5 0.8470 0.!t68 0.9050 0.9tr7 0.9570 0.9812 1.00ôl
6 0.t012 0.733t 0.t64t 0.t929 0.8202 0.8461 0.8708
I 0.t690 0.6@ 0.6369 0.6679 0.6973 0,7251 0.75t5
t 0.4461 0.6839 0.519t 0.5t2t 0.t84t 0.6138 0.6420
I 0.329t 0.3705 0.4096 o.t t l.4 0.4780 0.5098 0.5t98
t0 0.21t5 0.2616 0.t0lt 0.34t0 0.37tr 0.4u0 0.(430
tl 0.108 r 0.1558 0.2001 0.2(13 0.2798 0.3160 0.3t01
l2 o.(xn, 0.0518 0.0995 0.r4!9 0. r852 0.2239 0.2602
lf -0. l08l -0.0t!t 0.0000 0.0478 0.0922 0.tit36 0.t724
l4 .0.2rtt -0. r35C -0.0995 -0.0{t8 0.0000 0.0444 0.0859
TABLES NUMERIOUES
Table no 1O (suite)
ESPERANCE DE LA STATISTIOUE D'ORDRE
t0 31 32 33 34 35 36
Table no 10 (suite)
ESPERAI\CE DE I-A STATISTIOUE D'ORDRE
Table no 11
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
X, , représente l'observation de rang i dans un échantillon (X,, .. X") extrait d'une loi
N (0, l)classé par ordre décroissant : X,,, > ...2 X,",. Cette table iournit, par n allant cie 2 à
20.iesvaleursdeV(X,,,)etCov(X(i),X,;,).OnaCov(X,,,,X,;,) = Cov(X,",*,r,X1" 1*,r).
L ! L !- Â L g- Â l.
z I I 0.53 1' 7 3 ! 0.2197 9 { 5 0. ul70
2 0.3 U3 { 0.1656 6 0.lt2t
2 2 0.6t17 5 0. t:lt6 5 t 0.1661
ll I 0.5595 a 4 0.2104 t0 I I 0.3443
2 0.275t tt i 0.J729 2 0.ltlt
3 0.1649 2 o.1863 3 0. l16l
2 , g.tÆ1 3 0.1260 t 0.0882
4t I 0.ô917 a 0.094? 5 0.070t
2 0.2455 5 0.07lrt 6 0.0584
3 o.ljto 6 0.0602 t 0.04ê9
4 0.10ô7 t 0.0451 e 0.04It
2 1r.3605 t 0.036E I 0.03ré
3 0.2359 2 0.239t l0 0.0267
I O.t{?5 t 0.1632 2 0.2145
2 0.22ô! a 0. t233 ! 0.1466
3 g.lt{ I 5 0.0976 a 0. ut?
4 0. t05r 6 0.0787 5 0.089t
5 0.07{2 t 0.0632 ô 0.0742
2 0.3115 3 0.2008 7 0.0é22
, 0.2084 4 0. u2ô ! 0.0523
4 0.1499 5 0.ut0 9 0.0434
3 ! 0.2868 6 0.0978 t 0. l7r0
6l I 0..u9 4 0.1672 ô 0. l3t8
2 0.1085 5 0.1492 5 0.l0rt
I 0.1194 I 0.3574 6 0.0ô92
4 0.1024 2 0. lTEl t 0.0?ô9
5 0.0714 I 0. uot I 0.0630
6 0.0561 a 0.09L1 a 0.ur9
2 0.2796 t 0.0727 5 0. u7t
3 o.uto 6 0.0595 6 0.105t
4 0.1397 ? 0.q91 t 0.0869
5 0.1059 t 0.0401 5 5 0.1511
3 0.2662 , 0"0311 6 0. u56
I 0.lrtt 2 0.225' ll I I 0.3!32
I 0.!919 t 0. l54l 2 0.1654
2 0.1962 4 0.ltt0 t 0.1u4
3 0.t!2I t 0.09t4 a 0.065t
4 0.09E5 6 0.076t t 0.068E
t 0.0766 t 0.0632 6 0.0572
6 0.0599 E 0.051, t 0.o4t4
7 0.O4/.E ! 0.1E6{ t 0.04 u
2 0.2567 4 0.t421 9 0.03t1
3 0. lt49 5 0.1!!E l0 0.0294
4 0. Ll07 6 0.09t{ ll 0.023t
5 0.1020 r 0.0?72 I 0.2052
5 0.0Ê30 4 0,1706 ! 0. raoS
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L t J o ! J L ! J
PH TASSI . S. LEGAIT
349
TABLES NUMERIOUFS
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L1 L r-Â L a I L
142 u 0.0295 ut lt 0.0ut l5 7 t o. t02t
lJ 0.0253 2 2 0.lt9r ! 0.0900
3 3 0.t45t t 0. u2ô 9 0.0t97
4 0.1u0 { 0.09tt t t 0. t0t7
t 0.0il1 5 0.0764 16 I I 0.2950
t 0.0t6t 6 0.o64t 2 0. 1449
? 0.065, 7 0.0t5{ I 0.09E5
I o.otra t 0.0414 ô 0.0tta
I 0.050t , 0.042t I 0.0613
lo 0.0445 lo 0.03tt 6 0.0517
ll 0.0392 tl 0.03tt t 0.0446
tl 0.0r4t u 0.0299 t 0.0t90
a 0. utt u 0.0263 I 0.014t
t o. tott t4 0.022t lo 0.030t
6 0.0tta t o.laot 11 0.02?t
t 0.0t5t a o.rort u 0.02t6
t 0.06tt 5 0.0æ2 u 0.0220
9 0.05t6 ô 0.074t la 0.0195
lo 0.0t0t t 0.0641 u 0.016t
l! 0.0{4t t 0.0560 tô 0.0Lrt
5 0. u7t 9 0.or94 2 0.174{
6 0.096E l0 0.o6t9 t 0. t19l
t 0.0t51 ll 0.0!90 a 0.0il{
I 0.07ô2 u 0.0]at t 0.074,
t 0.o65t u 0.0æ5 6 0.06æ
lo 0.0516 a 0.1.it12 t 0.0542
ô o.uu t 0.09t7 t 0.0475
t 0.0t61 3 0.oE42 I 0.0421
t 0.0t40 t 0.0716 l0 0.0tr5
t o.0tl9 t 0.061t ll 0.03t6
.,
t 0. to90 t 0.0561 u o.0to0
t 0.095t l0 0.o49E u 0.0t6t
!.t I I O.tOUt u 0.o{4t l4 0.023t
2 o.t.tl u o.0t9a u 0.0206
I 0.100t t 0.1119 t 0. Ll6l
4 0.0t7t é 0.0945 a 0.104t
I 0.0626 t 0.ocr6 5 0.0ttt
6 0.052t I 0.071( 6 0.0722
t 0.o4tt I 0.06t1 , o,o6u
t 0.0t96 l! 0.0561 t 0.054t
9 0.0t4t ll 0.0{99 9 0.011ô4
t0 0.0110 6 0. 1059 l0 0.0{t2
tt 0.0275 r 0.0tu ll o.o3ô,
U 0.014/a t 0.0æl 12 0.0146
lJ 0.02u I 0.0t09 Lt 0.0309
t{ 0.01t5 lo 0.0630 tô 0.02t4
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
D ! L B a
L L ! l-
l6 4 s 0.1179 l7 I l7 0.0127 l7 5 ll o.utE
5 0.0963 2 2 0.170t L2 0.0{31
6 o.08Lt 3 0. lt62 lJ 0.03Eâ
7 0.0703 ô 0.or92 6 0.0969
t 0.0617 5 0.072t 7 0.oô{ô
I 0.05at 6 0.0614 5 0.073'
t0 0.oaga t 0.0531 9 0.o65t
ll 0.0437 t 0.0466 l0 0.05E9
rt 0.0t9t I 0.o4la tl 0.05!{,
ll 0.0!49 lo 0"0170 12 0.047t
5 0. to74 ll 0.0t3! t 0.0929
6 0.0roa u 0.0too E o.oEu
t 0.0tEt u 0.02?0 t 0.072t
I 0.06t9 rÔ 0.02{2 10 0.o65t
9 0.0611 u 0.021t lt 0.05E!
l0 0.05a6 16 0.0ut 6 0.0st
lt 0.ûtr9 I 0. u2{ 9 0.oa0E
u o.o(tr a 0. trl9 l0 0.0725
6 0. !0r0 5 0.ot3l 9 9 0.0900
t 0.0875 6 0.070t Itl 1 0.?84t
E 0.076t 7 0.o60t 2 0. u93
9 0.0682 t 0.05t4 t 0.09a5
lo 0.0609 9 0.0475 4 0.072t
ll 0.0145 10 0.042t 5 0.0590
? o,o974 ll 0.0382 6 0.0499
! 0.0656 u 0.034a t 0.&31
9 0.07æ u 0.0110 t 0.0t79
l0 0.0679 14 0.02tt t 0.033t
3 t 0.0t5t u 0.02ôt l0 0.030!
9 0.0850 a o.ltao ll 0.0273
rt I I 0.2195 5 0.0932 u 0.0247
2 0. tatt 6 0.078t Ll o,at24
! 0,0965 7 0.0562 16 0.020t
a 0.0t39 t 0.0ôoo 15 0.01E2
5 0.0601 t 0.053! t6 0.0t6t
6 0.050t lo 0.o4tt r7 0.0r€
t 0.043t ll 0.0429 lt 0.0rD
t 0.03E5 u 0.036t 2 0. r66t
9 0.0tôt u 0.0t49 I 0. 1135
l0 0.0æt la 0.031;, ô 0.o€t2
ll 0.027a 5 0. t0'4 5 0.0?u
t2 0.0247 6 0.0616 6 0.0601
tt 0.022t 7 0.07J9 t 0.0520
l{ 0.02m t 0.066t r 0.045t
rt 0.017t 9 0.0r9t 9 0.o40t
16 0.0155 lo 0.0531 l0 0.036t
Table no 11 (sufte)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
L ! J s- ! J t- 1 J
Table no 11 (suite)
VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE
n ! J L E J. L! t
l9 6 6 0.0900 20 2 3 0. l08t 204 lt 0.0235
, 0.0782 4 0.083ô 5 5 0.o9lo
E 0.0690 5 0.06t2 6 0.0794
9 0.0616 6 0.057E ? 0.069!
t0 0.0555 7 0.0501 t 0.0611
ll 0.0502 t 0.0442 9 0.054t
12 0.0457 I 0.0395 lo 0.0491
tjt 0.0416 l0 0.0396 ll 0.o44t
14 0.0379 lr o.0t22 t2 0.olo8
7 0.0E56 L2 0.0294 Ll 0.0373
E 0.0756 13 0.0268 l4 0.0341
9 0.067t t{ 0.02{5 rJ 0.03u
t0 0.0608 15 0.0225 t6 0.02E5
ll 0.0551 16 0.0205 6 0.0872
12 0.0501 t7 0.0u6 7 0.075E
l3 0.o45t It 0.0167 t 0.0670
t 0.062t t9 0.0147 9 0.0599
9 0.07/€ 3 0. u2t t0 0.05{0
l0 0.0667 a 0.094t lt 0.04æ
tl 0.0604 5 0.0172 12 0.04{7
12 0.0550 6 0.0655 u 0.olÉ8
9 0.06u 7 0.056t la 0.0374
t0 0.07tt 6 0.0501 15 0.0342
ll 0.066t I 0.044t ? 0.0E26
l0 l0 0.080t t0 0.o{ol E 0.0730
20 I t 0.2t5? tt 0.0366 9 0.065!
2 0. ui45 12 0.0ltt I0 0.0589
! 0.0911 tt 0.0305 tl 0.0535
a 0.0700 l4 0.0279 12 0.046E
5 0.05t1 t5 0.0255 u 0.0446
6 0.04Et t6 0.0233 la 0.0tot
? 0.0418 17 0.0211 8 0.0796
t 0.0369 u 0.0190 9 0.07 13
9 0.0329 4 0.1047 l0 0.0641
l0 0.0297 5 0.0856 tl 0.0564
u 0.0269 6 0.0726 l2 0.0533
t2 0.0245 t 0.0631 lJ 0.O4o,
l! 0.0224 5 0.0557 9 0.0778
l4 0.0205 9 0.049E l0 0.0703
15 0.01E7 l0 0.0]148 ll 0.063E
16 0.0ltl ll 0.0ro7 12 0.05E2
17 0.0155 12 0.0171 l0 0.0?69
It 0.01J I lJ 0 .0319 ll 0.0699
19 0.0t21 l4 0.0310
20 0.0102 u 0.0284
2 0.1J96 t6 0.0259
PH TASSI . S, LEGAIT
I
INDEX
A D
Absolue coniinuité, bg, 7,l. Décile, 78.
Accroissements indépendants, 307. Densité, 59, 73, 80.
Affinité, 243. Dirac (mesure), 37.
Algèhre, 13. Distance de lipschitz, 244.
Approximation, 115, 214, 236. 0istance d'Hellinger, 243.
Attraction, 282. Distance de Paul Léuy,241.
Autocorrélation, 2g6. Distance de Frohorov, 244.
Autccorrélation partielle, 3 02. Distance en uaùation, 242.
Autocovarianc e, 292. Domaine d'attraction, 282.
Autorégressif. 31 l.
E
B
Ecart-type, 76.
Banach. I 66.
Echantillon, 154.
Bayes (théorènel, 27. .l3,
Espace mesurable. 3b.
Beppo-l-evi, 49.
Espace mesuré, 3b.
Bienaymé-Tchebichev, EZ, 76.
Espace probabilisable, I 3.
Bochner. I 89.
Espace probabiiisé, 22.
Borélien" 18.
Espérance, 51, 53, 7b.
Brownien, 31 1 .
Espérance conditionnelle, g8.
Etagée (fonct!on),46.
c
Etendue, 284.
Cauchy-Schwarz. Sl,83, I 69. Evénement, 12.
Centile, 78. Expérience, I 2.
Gentral limite (théorènel, 227. Extrême, 266.
Goefficient de corrélation, gJ, 1iZ.
Coefficient de détermination, I 7g.
Gomptage (mesure), 40. F
PH TASSI - S. LEGAIT
INDEX
T
P
Tableau statistique, 92.
Papier fonctionnel, 1 42. Trajectoire, 290.
Pearson (coefficients), 1 50. Translert (théorème), 62.
Pearson (distance), 247. Tribu, I3.
Poincaré (formule), 21. Tribu borélienne, 1 7.
Polya (théorème), 189. Tribu engendrée, 1 6, 40.
Presque partout, 54. Tribu produit, 44.
Presque sûrement 54. Type,281.
Probabilité, 18.
Probabilité conditionnelle, 23.
V
Processus, 289.
Processus autorégressif, 31 1. Valeur extrêm e, 266, 278.
Processus de Poisson, 307. Variable aléatoire, 43, 71.
Processus de vie et de mort, 310. Variance, 75.
Processus équivalent, 2 g0. Variances-Covariances (matrice), 84.
Processus moyenne mobile, 3l g. Vitesse de convergence, 2b3.
Processus stationnaire, 291.
Prohorov, 244.
W
Proximiré, 246,253.
Woltowitz,247.
0uartile, 78.
Ouasi-étendue, 2 84. Yu|e,315,318.
PH TASSI - S. LEGAIT
lmprimé à
I'INSTITUT FRANCAIS DU PETROLE
B.P. 311
92506 RUEIL-MALMAISON CEDEX
FRANCE
Dépôt légal
: Achevé d'imprimer en janvier 199O
1"'trimestre 1990 No d'ordre éditeur : 8O5
/ r