You are on page 1of 169

Universit de Rennes 2 Licence MASS 2

Anne 2010/2011 Premier Semestre

Introduction aux Probabilits


Arnaud Guyader

Table des matires


1 Espaces probabiliss 1.1 Quest-ce quune probabilit ? 1.1.1 Tribu . . . . . . . . . 1.1.2 Probabilit . . . . . . 1.2 Conditionnement . . . . . . . 1.3 Indpendance . . . . . . . . . 1.4 Exercices . . . . . . . . . . . 1.5 Corrigs . . . . . . . . . . . . 1 1 1 2 7 10 13 23 47 47 49 50 51 56 58 60 63 63 65 65 66 67 69 78 97 97 99 102 106 106 108 109 114 122

. . . . . . .

. . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 Variables alatoires discrtes 2.1 Loi dune variable discrte . . . . 2.2 Fonction de rpartition . . . . . . 2.3 Moments dune variable discrte . 2.3.1 Esprance . . . . . . . . . 2.3.2 Variance . . . . . . . . . . 2.3.3 Autres moments . . . . . 2.4 Corrlation et indpendance . . 2.5 Lois usuelles . . . . . . . . . . . . 2.5.1 Loi uniforme . . . . . . . 2.5.2 Loi de Bernoulli . . . . . 2.5.3 Loi binomiale . . . . . . . 2.5.4 Loi gomtrique . . . . . . 2.5.5 Loi de Poisson . . . . . . 2.6 Exercices . . . . . . . . . . . . . 2.7 Corrigs . . . . . . . . . . . . . . 3 Variables alatoires densit 3.1 Densit dune variable alatoire . 3.2 Fonction de rpartition . . . . . . 3.3 Moments dune variable densit 3.4 Lois usuelles . . . . . . . . . . . . 3.4.1 Loi uniforme . . . . . . . 3.4.2 Loi exponentielle . . . . . 3.4.3 Loi normale . . . . . . . . 3.5 Exercices . . . . . . . . . . . . . 3.6 Corrigs . . . . . . . . . . . . . .

A Annexes 137 A.1 Annales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 A.2 Table de la loi normale X N (0, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . 163 i

Chapitre 1

Espaces probabiliss
Introduction
Dans ce premier chapitre, on commence par dnir axiomatiquement la notion de probabilit sur un ensemble cohrent dvnements (ou tribu). Lide de probabilit conditionnelle en dcoule alors trs simplement. Elle est entre autres lie la notion dindpendance, fondamentale en probabilits comme en statistiques.

1.1

Quest-ce quune probabilit ?

Avant de dnir ce quest une probabilit sur un ensemble dvnements, il faut commencer par prciser les proprits souhaitables pour cet ensemble dvnements.

1.1.1

Tribu

On sintresse une exprience alatoire dont le rsultat est appel vnement lmentaire . Lensemble des rsultats possibles, cest--dire lunion des vnements lmentaires, est not et appel univers ou ensemble fondamental. Exemples : 1. Lancer dun d : on sintresse au rsultat du lancer dun d 6 faces. On a donc = 1 ou = 2, etc. Lespace fondamental est donc = {1, 2, 3, 4, 5, 6}. Cet univers est ni. 2. Innit de lancers dune pice : on lance une innit de fois une pice dont lune des faces est numrote 0 et lautre 1. Un vnement lmentaire est donc cette fois une suite de 0 et de 1 : = {u1 , u2 , . . .} avec un =0 ou 1 pour tout n de . Lespace fondamental est cette fois lensemble de toutes les suites possibles formes de 0 et de 1. Cet univers est clairement inni.

Dans la suite, on va vouloir calculer la probabilit de certaines parties de lespace fondamental . Malheureusement, sauf lorsque sera ni ou dnombrable, on ne pourra pas sintresser lensemble P() de toutes les parties de , celui-ci tant en quelque sorte trop gros. On se restreindra donc un sous-ensemble F de P(), qui constituera lensemble des parties dont on peut calculer la probabilit. An dobtenir un modle aussi cohrent que possible, il importe nanmoins dimposer certaines conditions de stabilit F : par union, intersection, passage au complmentaire, etc. Cest en ce sens quintervient la notion de tribu.

Chapitre 1. Espaces probabiliss Dnition 1.1 (Tribu) Soit un univers et F un sous-ensemble de parties de , i.e. F P(). On dit que F est une tribu, ou une -algbre, si elle vrie les 3 conditions suivantes : (i) F ; (ii) si A appartient F, alors son complmentaire A (encore not Ac ) appartient aussi F ; (iii) si (An )n est une suite de F, alors + An appartient F. n=0 On appelle ds lors vnements les lments de la tribu F. Rappelons que si A est un vnement, alors A = \ A est lvnement contraire de A. Par ailleurs, dire que lvnement + An se n=0 ralise signie que lun au moins des vnements An se ralise :
+

n=0

An n : An .

On vrie sans problme partir des trois axiomes ci-dessus que toute tribu F contient lensemble vide , est stable par union nie, intersection nie ou dnombrable. Ainsi, on retiendra quune tribu est stable par combinaisons au plus dnombrables doprations usuelles sur les ensembles, bref par toutes les manipulations classiques. Exemples. Voici trois exemples classiques de tribus : La tribu triviale : F = {, }. La tribu engendre par une partie A de : F = {, A, A, }. La tribu pleine : F = P(). En pratique, lorsque est ni ou dnombrable, on considre en gnral la tribu pleine P(). Cest le cas par exemple si = {1, 2, 3, 4, 5, 6}, ensemble des rsultats possibles du lancer dun d, ou si = , date dapparition du premier Pile dans une succession de lancers dune pice (lorsquon exclut le cas improbable o Pile napparat jamais). Si nest pas dnombrable, comme cest le cas dans lexemple dune suite innie de lancers ( = {0, 1} ), on ne considrera pas la tribu F = P(), mais une tribu plus petite.

1.1.2

Probabilit

Une fois xs un univers et une tribu F de , on peut dnir proprement ce quest une probabilit sur (, F). Un point de vocabulaire auparavant : on dit que deux vnements A et B sont incompatibles (ou disjoints) si A B = , et on dit que (An )n0 est une suite dvnements deux deux incompatibles si pour tout couple dindices distincts (i, j), on a Ai Aj = . Dnition 1.2 (Probabilit) On appelle probabilit sur la tribu F de toute application : F [0, 1] telle que (i) () = 1 ; (ii) -additivit : si (An )n0 est une suite dvnements deux deux incompatibles de F, alors :

An
n=0

=
n=0

(An ).

On dit alors que (, F, ) est un espace probabilis. Exemple. Reprenons lexemple du lancer de d. On a vu que lunivers est = {1, 2, 3, 4, 5, 6} et quon le munit de la tribu F = P(). On vrie alors que lapplication : F [0, 1] qui A F Arnaud Guyader - Rennes 2 Probabilits

1.1. Quest-ce quune probabilit ? associe (A) = #A/6 est une probabilit sur F, o la notation #A signie cardinal de lensemble A. Gnralisation : quiprobabilit sur un univers ni. Ds quon considre un univers de cardinal ni sur lequel tout vnement lmentaire a la mme chance dapparition, on le munira gnralement de la mme probabilit que pour le lancer de d, appele quiprobabilit. Cest--dire que pour tout vnement A, on aura :

(A) =

#A . #

Nous allons maintenant noncer diverses proprits dune probabilit qui nous seront utiles dans la suite du cours. Rappelons au passage la dnition de la soustraction ensembliste \ (gure 1.1) : B \ A = B A.

B\A

Figure 1.1 Soustraction ensembliste : B \ A = B A.

Proprits 1.1 (Proprits dune probabilit) Soit (, F, ) un espace probabilis. Tous les ensembles considrs sont supposs appartenir F. Monotonie : si A B, alors (A) (B). Plus prcisment :

(B) = (A) + (B \ A).


Additivit forte :

(A) + (B) = (A B) + (A B).


Sousadditivit :

An
n=0

(An ).

n=0

Continuit monotone croissante : si (An )n est une suite dvnements croissante pour linclusion (gure 1.2), alors :

Probabilits

An
n=0

= lim

(An ).
Arnaud Guyader - Rennes 2

Chapitre 1. Espaces probabiliss Continuit monotone dcroissante : si (An )n est une suite dvnements dcroissante pour linclusion (gure 1.3), alors :

An
n=0

= lim

(An ).

et puisque (B \ A) 0, on a bien (A) (B). Additivit forte : on dcompose de faon disjointe

Preuve. Monotonie : il sut dappliquer la additivit avec A0 = A, A1 = B \ A et An = pour tout n 2. Ceci donne : (B) = (A) + (B \ A),

A B = (A \ (A B)) (A B) (B \ (A B)), do il vient par additivit :

(A B) = (A \ (A B)) + (A B) + (B \ (A B)),
et on peut utiliser la proprit prcdente :

(A B) = (A) (A B) + (A B) + (B) (A B) = (A) + (B) (A B),


qui aboutit bien :

(A) + (B) = (A B) + (A B).

+ n=0

An

A2 A1 A0

Figure 1.2 Suite densembles croissante pour linclusion. Sous-additivit dnombrable : on construit la suite densembles (Bn ) comme suit : B0 = A0 et pour tout n 1 :
n1 k=0

Bn = An \

Ak

Il est clair que les Bn sont deux deux disjoints, que Bn An pour tout n, et que :
+ +

An =
n=0 n=0

Bn . Probabilits

Arnaud Guyader - Rennes 2

1.1. Quest-ce quune probabilit ? On peut alors appliquer la additivit :

An
n=0

Bn
n=0

=
n=0

(Bn )

+ n=0

(An ),

la dernire ingalit provenant de la proprit de monotonie vue ci-dessus. Continuit monotone croissante : on reprend la suite densembles (Bn ) comme ci-dessus en remarquant que pour tout n : An = B0 B1 Bn . Il sensuit que :
+ + + N n=0

An
n=0

Bn
n=0

=
n=0

(Bn ) = lim

N +

(Bn ) = lim (AN ).


N +

Continuit monotone dcroissante : on considre cette fois la suite densembles (Cn )n0 dnie par : Cn = A0 \ An . Par la proprit de monotonie on a donc : n 0 La suite (Cn )n0 est croissante et :
+ n=0 +

(Cn ) = (A0 ) (An ).

Cn = A0 \

An
n=0

Puisque lintersection des An est contenue dans A0 , la monotonie ci-dessus assure que :

A0 \

An
n=0

= (A0 )

An
n=0

On peut alors appliquer la continuit monotone croissante :

(A0 )

An
n=0

= lim

n+

(Cn ) = (A0 ) lim (An ),


n+

ce qui donne le rsultat voulu, savoir :

An
n=0

= lim

n+

(An ).

Remarque. La proprit dadditivit forte se gnralise un nombre quelconque n densembles et a dj t rencontre dans des problmes de dnombrement : cest la formule de Poincar (ou dinclusion-exclusion, ou du crible). Rappelons-la pour n = 3 :

(A B C) = (A) + (B) + (C) ((A B) + (A C) + (B C)) + (A B C),


et de faon gnrale :
n k=1

(A1 An ) =
Probabilits

(1)k1

1i1 <<ik n

(Ai1 Aik ) .

Arnaud Guyader - Rennes 2

Chapitre 1. Espaces probabiliss

A0 A1 A2
+ n=0

An

Figure 1.3 Suite densembles dcroissante pour linclusion.

Une application est donne dans lexercice 1.8. On a vu que lorsquon a quiprobabilit sur un univers ni , la mesure de probabilit est celle qui tout vnement A associe le rapport de son cardinal au cardinal de . En dautres termes = {1 , . . . , n } et pour tout i = 1, . . . , n : pi = ({i }) = 1/n. Supposer quon na pas quiprobabilit des vnements lmentaires i revient considrer une squence (p1 , . . . , pn ) de nombres positifs et sommant 1, mais dont tous les coecients pi ne sont pas gaux. On dnit alors encore une mesure de probabilit sur P() en considrant pour tout vnement A P() :

(A) =

pi ,
i:i A

o la notation i : i A signie que la somme est eectue sur lensemble des indices i pour lesquels i A. Exemple : On lance 3 fois de suite une pice quilibre et on compte le nombre de fois o Pile est apparu. On a donc = {0, 1, 2, 3}, mais il ny a pas quiprobabilit puisque les probabilits lmentaires sont (1/8, 3/8, 3/8, 1/8). Si on veut construire une probabilit sur un ensemble inni dnombrable, typiquement sur (, P()), on ne peut plus avoir quiprobabilit des vnements lmentaires {n}. Supposons en eet que pour tout n on ait ({n}) = p > 0, alors la sigma-additivit de imposerait que :

() =

n=0

{n}

=
n=0

({n}) =

p = +,
n=0

ce qui est en contradiction avec la condition () = 1. Une faon de construire une probabilit sur (, P()) est de gnraliser le procd que lon vient de voir pour les ensembles nis : considrer une suite (pn )n0 de nombres positifs telle que la srie n0 pn soit convergente et de somme 1. Comme prcdemment, on dnit alors pour tout vnement A P() sa probabilit par :

(A) =

pi ,
i:i A

la seule dirence avec le cas prcdent tant que cette fois la somme considre peut tre la somme dune srie (ds lors que le sous-ensemble A est inni).

Arnaud Guyader - Rennes 2

Probabilits

1.2. Conditionnement Exemple : On lance une pice quilibre jusqu ce que Pile apparaisse (toujours en excluant le cas improbable o Pile napparat jamais). On a donc = {1, 2, . . .} = . On a clairement p1 = ({1}) = 1/2, p2 = 1/4 et de faon gnrale pn = 1/2n . On reconnat dans les pn les termes dune suite gomtrique dont la somme vaut bien 1.

1.2

Conditionnement

La notion de conditionnement sera dusage constant dans la suite puisquelle permet par exemple de tenir compte de linformation dont on dispose dj pour valuer la probabilit dun nouvel vnement. Mme en labsence de toute chronologie sur les vnments, un dtour par un conditionnement astucieux nous permettra souvent darriver nos ns. Dans tout ce qui suit, (, F, ) est un espace probabilis arbitraire et tous les ensembles considrs sont des vnements de F. Nous commenons par dnir la probabilit conditionnelle sachant un vnement. Dnition 1.3 (Probabilit conditionnelle) Soit A et B deux vnements, avec (A) > 0. La probabilit de B sachant A est dnie par :

(B|A) =

(B A) . (A) (B|A) au cas o A est de probabilit

Remarque. On peut en fait gnraliser la dnition de nulle : il sut de poser (B|A) = 0.

Concrtement, lexpression probabilit de B sachant A signie probabilit que B se ralise sachant que A sest ralis. La probabilit de B sachant A est donc encore une probabilit au sens usuel du terme (i.e. en particulier un nombre compris entre 0 et 1). Par contre, la probabilit de B peut tre faible alors que la probabilit de B sachant A est grande (et rciproquement). Exemple. Une urne contient 90 boules noires, 9 boules blanches et 1 boule rouge. On tire une boule au hasard : quelle est la probabilit quelle soit blanche ? La rponse est bien sr (B) = 9/100, donc une probabilit faible. On tire une boule au hasard : quelle est la probabilit quelle soit blanche, sachant que la boule tire nest pas noire ? Si on note A lvnement La boule tire nest pas noire, on a donc (A) = 1/10 et la rponse la question est (B|A) = (B A)/(A) = (B)/(A) = 9/10, donc une grande probabilit. Puisquon peut calculer la probabilit sachant A de nimporte quel vnement B de la tribu F, une question naturelle est de se demander si (.|A) est une probabilit sur (, F) : la rponse est oui. On vrie en eet facilement les deux conditions sine qua non : (i) (|A) = ( A)/(A) = (A)/(A) = 1 ; (ii) -additivit : si (Bn )n0 est une suite dvnements deux deux incompatibles de F, alors (Bn A)n0 est aussi une suite dvnements deux deux incompatibles de F, donc par additivit de on a :

Bn A
n=0

+ n=0 (Bn

(A)

A)

+ n=0

(Bn A) + (Bn A) + (Bn |A). = = (A) (A) n=0 n=0

Probabilits

Arnaud Guyader - Rennes 2

Chapitre 1. Espaces probabiliss Ainsi (.|A) est une probabilit sur (, F) et vrie de fait toutes les proprits vues prcdemment (monotonie, additivit forte, sous--additivit, continuits monotones croissante et dcroissante). Nous allons maintenant noncer un rsultat aussi simple quutile, mettant en jeu des conditionnements embots. Proposition 1.1 (Formule des probabilits composes) Soit n vnements A1 , . . . , An tels que (A1 An1 ) > 0, alors on a :

(A1 An ) = (A1 )(A2 |A1 )(A3 |A2 A1 ) . . . (An |A1 An1 ).

Preuve. On commence par noter que tous les conditionnements sont justis puisque par monotonie : 0 < (A1 An1 ) (A1 An2 ) (A1 A2 ) (A1 ). Il reste remarquer quen dveloppant les termes du produit via tlescopent sauf le dernier.
(BA) (B|A) = (A) , tous se

Remarque. On peut se servir de ce rsultat comme dune poupe russe : soit calculer (An ), on introduit une squence croissante dvnements An An1 A2 A1 et la formule devient tout simplement : (An ) = (A1 )(A2 |A1 )(A3 |A2 ) . . . (An |An1 ). Nous passons maintenant la deuxime formule importante de cette section, dite des probabilits totales. Elle fait intervenir la notion de partition dun ensemble, encore appele systme complet dvnements.

A2

A1

An

Figure 1.4 Partition (A1 , . . . , An ) de .

Dnition 1.4 (Partition) Soit (, F, ) un espace probabilis et (A1 , . . . , An ) n vnements. On dit que (A1 , . . . , An ) forme une partition de sils sont deux deux disjoints et si on a : A1 An = . Arnaud Guyader - Rennes 2 Probabilits

1.2. Conditionnement Bref il sut de penser aux Ai comme aux pices dun puzzle . On va supposer dans la suite tous les (Ai ) strictement positifs, ce qui lgitimera les conditionnements par les Ai . Disposant dune partition de , lide de la formule des probabilits totales est la suivante : si pour tout i on connat (B|Ai ) et (Ai ), alors on peut en dduire (B). Proposition 1.2 (Formule des probabilits totales) Soit (, F, ) muni dun systme complet dvnements (A1 , . . . , An ), alors pour tout vnement B on a la dcomposition :

(B) =

(B|Ai )(Ai ).

i=1

A2

A1

Figure 1.5 Illustration de B =

n i=1 (B

Ai ).

Preuve. On a tout dabord dun point de vue ensembliste (cf. gure 1.5) : B = B = B (A1 An ) = (B A1 ) (B An ), la dernire galit venant de la distributivit de lintersection par rapport lunion (tout comme la multiplication par rapport laddition pour les nombres). Il sut alors de remarquer que la dernire dcomposition est une union dvnements deux deux disjoints (car les Ai le sont), donc on peut appliquer la -additivit de :

(B) =

n i=1

(B Ai ) =

n i=1

(B|Ai )(Ai ),

le dernier point venant de lcriture :

(B Ai ) = (B|Ai )(Ai ).

En pratique, on utilise trs souvent cette formule des probabilits totales en conditionnant successivement par un vnement et son contraire, cest--dire en prenant tout simplement une partition de type (A, A), ce qui donne :

(B) = (B|A)(A) + (B|A)(A).

Probabilits

Arnaud Guyader - Rennes 2

10

Chapitre 1. Espaces probabiliss Remarque. On peut largir la dnition dune partition une famille dnombrable (An )n0 dvnements deux deux incompatibles et dont lunion fait (cest--dire quil y a toujours exactement lun des An qui se ralise). Dans ce cas la formule des probabilits totales fait intervenir une srie :

(B) =

(B|An )(An ).

n=0

Tout est maintenant prt pour la fameuse formule de Bayes, ou formule de probabilit des causes. Proposition 1.3 (Formule de Bayes) Soit (, F, ) muni dune partition (A1 , . . . , An ), alors pour tout vnement B et pour tout indice j on a : (B|Aj )(Aj ) (Aj |B) = n . i=1 (B|Ai )(Ai ) Preuve. Cest lne qui trotte. Il sut en eet dcrire :

(Aj |B) =

(B Aj ) , (B)

puis dutiliser la dcomposition (B Aj ) = (B|Aj )(Aj ) pour le numrateur et la formule des probabilits totales pour le dnominateur.

En pratique, lorsquon considre une partition de type (A, A), cette formule devient :

(A|B) =

(B|A)(A) . (B|A)(A) + (B|A)(A)

Une application typique au problme de dpistage dune maladie est donne en exercice 1.21.

1.3

Indpendance

La notion dindpendance intervient de faon constante en probabilits. Intuitivement, deux vnements sont indpendants si la ralisation de lun na aucune inuence sur la ralisation ou non de lautre. Le but de cette section est de prciser ceci mathmatiquement et de ltendre plus de deux vnements. Dans toute la suite, (, F, ) est un espace probabilis x. Dnition 1.5 (Indpendance de 2 vnements) On dit que deux vnements A et B sont indpendants si

(A B) = (A)(B).
Si A est tel que (A) > 0, lindpendance de A et B scrit encore (B|A) = (B) et on retrouve la notion intuitive dindpendance : le fait que A se soit ralis ne change rien quant la probabilit que B se ralise. Exemples : Arnaud Guyader - Rennes 2 Probabilits

1.3. Indpendance 1. On lance un d deux fois de suite. Soit A lvnement : Le premier lancer donne un nombre pair et B lvnement : Le second lancer donne un nombre pair. Lunivers naturel est = {(i, j), 1 i, j 6}, ensemble 36 lments muni de lquiprobabilit. Il est clair que (A) = (B) = 18/36 = 1/2 et que :

11

(A B) =
donc A et B sont indpendants.

9 1 = = (A)(B), 36 4

2. On tire une carte au hasard dun jeu de 32 cartes. Soit A lvnement : La carte tire est un 7 et B lvnement : La carte tire est un pique. On a (A) = 1/8 et (B) = 1/4. (A B) correspond la probabilit de tirer le 7 de pique donc (A B) = 1/32. Ainsi on a (A B) = (A)(B), les vnements A et B sont donc indpendants. Achtung ! Ne pas confondre indpendants et incompatibles ! Deux vnements peuvent tre indpendants sans tre incompatibles (cf. le 7 de pique ci-dessus) et incompatibles sans tre indpendants (cf. A et A avec 0 < (A) < 1). Proprits 1.2 (Indpendance et passage au complmentaire) Si A et B sont indpendants, alors il en va de mme pour : les vnements A et B ; les vnements A et B ; les vnements A et B. Preuve. On montre uniquement le premier point, les autres se prouvant mutatis mutandis de la mme faon : (A B) = (A \ (A B)) = (A) (A B), et on applique maintenant lindpendance de A et B :

(A B) = (A) (A)(B) = (A)(1 (B)) = (A)(B),


ce qui prouve bien lindpendance de A et B.

Lorsquon considre plus de deux vnements simultanment, les choses se compliquent... Dnition 1.6 (Indpendance 2 2 & Indpendance mutuelle) Soit (An )n1 une suite dvnements. On dit quils sont : 2 2 indpendants si pour tout couple (i, j) dindices distincts, Ai et Aj sont indpendants ; mutuellement indpendants si pour tout ensemble ni dindices distincts (i1 , . . . , ik ), on a

(Ai1 Aik ) = (Ai1 ) (Aik ).


Exemple. Pour que 3 vnements (A, B, C) soient : 2 2 indpendants, il faut que (A B) = (A)(B), (A C) = (A)(C) et (B C) = (B)(C) ; mutuellement indpendants, il faut que les 3 relations prcdents soient vries et de plus que (A B C) = (A)(B)(C). Probabilits Arnaud Guyader - Rennes 2

12

Chapitre 1. Espaces probabiliss Il est clair que lindpendance mutuelle implique lindpendance 2 2 : il sut de prendre k = 2, i1 = i et i2 = j pour sen assurer. La rciproque est cependant fausse, comme le montre lexemple suivant. Exemple. On reprend lexemple des deux lancers successifs dun d et on note C lvnement : La somme des deux lancers est paire. On a donc (C) = 1/2. On vrie que les vnements (A, B, C) sont 2 2 indpendants, mais que :

(A B C) = (A B) =

1 1 = (A)(B)(C) = . 4 8

En pratique, ce sera lindpendance mutuelle qui nous intressera et cest aussi celle que lon rencontrera le plus souvent. Ainsi, quand on parlera dune famille dvnements indpendants (sans plus de prcisions), il faudra dsormais comprendre mutuellement indpendants. Remarque. Soit une famille (A1 , . . . , An ) de n vnements, dcrits dune faon ou dune autre. Supposons quon nous demande de prouver lindpendance (mutuelle) de cette famille. Quel est le nombre N de relations que nous aurions vrier ? La rponse est vertigineuse :
n n 2 3 n1 N = Cn + Cn + + Cn + Cn = ( k=0 0 1 k Cn ) Cn Cn = 2n n 1.

Rien que pour 10 vnements, il y aurait dj plus de 1000 relations vrier ! Ceci nest bien sr pas raisonnable. En fait, cest le contexte qui dicte si lon a aaire une famille dvnements indpendants : cest typiquement le cas lorsquon a une rptition dpreuves (lancers successifs dune pice, etc.), le rsultat de chacune dentre elles nayant aucune espce dinuence sur le rsultat des autres. Exercice. On peut montrer que si (A, B, C) sont (mutuellement) indpendants, alors A est indpendant de tout vnement form partir de B et de C. Prouvons par exemple que A est indpendant de B C, cest--dire que (A (B C)) = (A)(B C). On a tout dabord par distributivit de lintersection par rapport lunion :

(A (B C)) = ((A B) (A C)),


suite quoi on applique ladditivit forte :

(A(B C)) = (AB)+ (AC) ((AB)(AC)) = (AB)+ (AC) (AB C),


et lindpendance donne :

(A (B C)) = (A)(B) + (A)(C) (A)(B)(C) = (A)((B) + (C) (B)(C)).


Il sut alors de noter que par indpendance de B et C, on a (B)(C) = (B C), et dappliquer la relation dadditivit forte pour obtenir :

(A (B C)) = (A)(B C),


et la messe est dite. Arnaud Guyader - Rennes 2 Probabilits

1.4. Exercices

13

1.4

Exercices

Exercice 1.1 (Welcome in Rennes 2) 1. Donner le nombre danagrammes du mot laus. Mme question avec lisier et charivari. 2. Gnralisation : quel est le nombre de permutations possibles dun ensemble n lments parmi lesquels il y a r paquets (n1 , . . . , nr ) dlments indistinguables entre eux ? 3. Parmi les 10 participants un tournoi dchecs, on compte 4 joueurs russes, 3 joueurs indiens, 2 joueurs israliens et un joueur franco-lusitanien (Jos de Sousa). Dans le classement nal du tournoi apparat la nationalit du joueur, mais pas son nom. Combien de classements sont possibles ? Combien de classements sont possibles sachant que Jos est le vainqueur ? 4. Il y a 20 tudiants en Licence MASS 2. En n de semestre, la moyenne gnrale de chacun est calcule : combien y a-t-il de classements possibles, en supposant que toutes les notes sont distinctes ? 5. On suppose quil y a 10 garons et 10 lles dans cette classe et on dcide de classer les garons entre eux et les lles entre elles. Combien de classements globaux peut-on avoir ? Exercice 1.2 (Autour des sommes gomtriques) 1. Soit x un nombre rel ou complexe. Rappeler ce que vaut la somme
n j j=0 x .

2. On organise un tournoi de tennis, pour lequel 32 joueurs sont inscrits. Le tournoi seectue en seizimes, huitimes, quarts, demis et nale. Combien de matchs sont ncessaires pour dsigner le vainqueur ? 3. Imaginons maintenant quon ait 32 sprinteurs dont on veut trouver le meilleur. On propose la procdure suivante : ils eectuent une premire course et le dernier est limin du reste de la comptition, ils eectuent une deuxime course et nouveau le dernier est limin, etc. Le vainqueur de la dernire course ( 2 coureurs, donc) est dclar meilleur sprinteur. Combien de courses sont ncessaires pour dsigner ce vainqueur ? Comparer au rsultat de la question prcdente. 4. On reprend le tournoi de tennis 32 joueurs de la question initiale. Combien y a-t-il de droulements possibles du tournoi, sachant que la place des joueurs sur la feuille de match est xe ? Exercice 1.3 (Le podium des MASS 2) Dans ce qui suit, pour simplier, on exclut les cas dgalit de notes de deux tudiants en n de semestre. On suppose de plus quil y a 20 tudiants en Licence MASS 2. 1. En n de semestre, on rcompense le major de chacune des 3 matires importantes du premier semestre (respectivement probabilits, analyse, algbre) par un prix spcique chaque matire (respectivement une mdaille dor, un morceau de craie blanche, un morceau de craie jaune). Combien y a-t-il de triplets possibles (Mp , Man , Mal ) ? 2. On sintresse uniquement lpreuve reine du premier semestre (les probabilits) o seront dcernes mdailles dor, dargent et de bronze. Combien y a-t-il de podiums possibles ? 3. Lenseignant ntant pas susamment rtribu, il dcide nalement de rcompenser de la mme faon les 3 premiers par un polycopi ddicac. Combien y a-t-il de ddicaces possibles ? 4. Quelle est la probabilit quau moins deux tudiants aient leur anniversaire le mme jour ? Quel eectif minimal faudrait-il dans la promotion pour que cette probabilit soit suprieure 0.5 ? Que vaut cette probabilit pour n = 50 ? Exercice 1.4 (Las Vegas 21) Un jeu de poker compte 52 cartes et on considre quune main est constitue de 5 cartes (poker ferm). Probabilits Arnaud Guyader - Rennes 2

14 1. Combien y a-t-il de mains possibles ? 2. Quelle est la probabilit davoir une quinte ush ?

Chapitre 1. Espaces probabiliss

3. Quelle est la probabilit davoir une couleur (mais pas une quinte ush !) ? 4. Quelle est la probabilit davoir un carr ? 5. Que deviennent ces probabilits au poker ouvert (ou Texas Holdem), cest--dire lorsquil sagit de former la meilleur main de 5 cartes parmi 7 ? Exercice 1.5 (Dnombrements en vrac) 1. Les initiales de Andr Kolmogorov sont A.K. Combien y a-t-il dinitiales possibles en tout ? Combien au minimum un village doit-il avoir dhabitants pour quon soit sr que deux personnes au moins aient les mmes initiales ? 2. Lors dune course hippique, 12 chevaux prennent le dpart. Donner le nombre de tiercs dans lordre (un tierc dans lordre est la donne du premier, du deuxime et du troisime cheval arrivs, dans cet ordre). 3. Dans un jeu de 32 cartes, on a remplac une carte autre que la dame de cur par une seconde dame de cur. Une personne tire au hasard 3 cartes simultanment. Quelle est la probabilit quelle saperoive de la supercherie ? Exercice 1.6 (Lart de combiner les combinaisons) 1. Rappeler la formule du binme de Newton pour (x + y)n , o n est un entier naturel. 2. Dessiner le triangle de Pascal, qui permet de retrouver les valeurs des coecients binomiaux k k+1 pour les petites valeurs de n. Pour tout 0 k < n, simplier lexpression Cn + Cn .
n n n n k k k k k k=0 Cn , k=0 (1) Cn , k=0 kCn , k=0 Cn /(k + n k 2 k=0 (Cn ) en obtenant de deux faons le coecient

3. Calculer 4. Calculer

1).

de X n dans le polynme :

P (X) = (1 + X)n (1 + X)n . Exercice 1.7 (Formule de Poincar) Dans la suite, tous les ensembles sont nis et on note #A le cardinal dun ensemble A. 1. Exprimer #(A B) en fonction de #A, #B et #(A B). Application : dans une classe de lyce, 20 lves ont pour langues (anglais,espagnol), 15 ont pour langues (anglais,allemand) et 5 tudient les 3 langues. Combien cette classe a-t-elle dlves ? 2. Exprimer #(A B C) en fonction de #A, #B, #C, #(A B), #(A C), #(B C) et #(A B C).

3. Gnralisation : on considre n ensembles A1 , . . . , An , on connat les cardinaux de toutes les intersections possibles de ces ensembles, cest--dire toutes les quantits de la forme k {1, . . . , n}, 1 i1 < < ik n, #(Ai1 Aik ).

Exprimer en fonction de ces quantits le cardinal #(A1 An ). Cette formule est connue sous le nom de formule de Poincar, ou formule dinclusion-exclusion ou encore formule du crible. Exercice 1.8 (Drangements) Les n tudiants de MASS 2 font un repas de classe dans un restaurant et laissent leur manteau au vestiaire en arrivant. Au moment de partir, une panne dlectricit fait que lemploy rend chacun lun des manteaux au hasard. Le but de lexercice est de dterminer la probabilit quaucun des tudiants ne rcupre le sien. Les tudiants sont numrots de 1 n. 1. Combien y a-t-il de rpartitions possibles des manteaux parmi les n tudiants ? Arnaud Guyader - Rennes 2 Probabilits

1.4. Exercices 2. Lvnement Ai signie : ltudiant i a rcupr son manteau. Exprimer grce aux Ai lvnement A : aucun des tudiants ne rcupre son manteau. 3. Soit k {1, . . . , n}. Combien y a-t-il de squences dindices (i1 , . . . , ik ) telles que 1 i1 < < ik n ? 5. Dduire de la formule de Poincar que

15

4. Que vaut le cardinal #(Ai1 Aik ) ?

+ x 6. On peut montrer (cf. cours danalyse) que pour tout n=0 n! . Montrer quil y a environ 37% de chances que ce soit le mardi gras absolu en n de soire.

(A) = 1

(1)k1 n . k=1 k! rel x, ex =

7. On appelle drangement dun ensemble n lments une permutation de cet ensemble qui ne laisse aucun point xe. Exprimer le nombre dn de drangements dun tel ensemble. Exercice 1.9 (Traduction ensembliste dvnements) Soit un univers muni dune tribu F et trois vnements A, B et C de F. On sait quon peut traduire les vnements par des oprations sur les ensembles, par exemple lvnement A et B se ralisent scrit tout simplement A B. Grce aux symboles dunion, dintersection et de passage au complmentaire, dterminer des expressions pour les vnements suivants : A seul se ralise ; A et C se ralisent mais pas B ; au moins lun des trois vnements se ralise ; au moins deux des trois vnements se ralisent ; les trois vnements se ralisent ; aucun ne se ralise ; au plus lun des trois se ralise ; au plus deux des trois se ralisent ; exactement deux des trois se ralisent ; au plus trois se ralisent. Exercice 1.10 (Exemple de tribu engendre) On se place dans lensemble . On considre la tribu F engendre par les ensembles Sn = {n, n + 1, n + 2} avec n {0, 2, 3, . . .}. 2. En dduire que toute partie de 1. Montrer que pour tout n 2, le singleton {n} appartient F. 3. Caractriser alors simplement les lments de F.

= {2, 3, . . .} est dans F, autrement dit que P( ) F.

Exercice 1.11 (Lancer inni dune pice) On lance une pice une innit de fois. Pour tout i , on note : Ai = {Le i-me lancer donne Pile}. 1. Dcrire par une phrase chacun des vnements suivants :
+ 4 + +

E1 =
i=5

Ai , E2 =
i=1

Ai

Ai
i=5

, E3 =
i=5

Ai

2. Ecrire laide des Ai lvnement : On obtient au moins une fois Pile aprs le n-me lancer. 3. Ecrire laide des Ai les vnements (a) Bn : On nobtient plus que des Pile partir du n-me lancer. Probabilits Arnaud Guyader - Rennes 2

16

Chapitre 1. Espaces probabiliss (b) B : On nobtient plus que des Pile partir dun certain lancer. Exercice 1.12 (Ingalit de Bonferroni) Soit (, F, ) un espace probabilis.

2. Soit A et B deux vnements tels que

1. Soit A et B deux vnements. Montrer que la probabilit quun seul des deux vnements se ralise est (A) + (B) 2(A B).

(b) Supposons quon tire un nombre entier au hasard dans lensemble = {1, . . . , 10}. Donner un exemple dvnements A et B tels que (A) = 0, 9, (B) = 0, 8 et (A B) = 0, 7. (c) Que vaut au maximum (AB) ? De faon gnrale, quand a-t-on galit ? En reprenant lexemple de tirage quiprobable entre 1 et 10, donner un exemple o il y a galit. 3. Gnralisation : soit A1 , . . . , An des vnements, utiliser la sous--additivit et le passage au complmentaire pour prouver lingalit suivante :

(A) = 0, 9 et (B) = 0, 8. (a) Grce (par exemple) ladditivit forte, montrer que (A B) 0, 7.

(A1 An )
Que vaut au maximum

n i=1

(Ai ) (n 1).

(A1 An ) ? Dans quel(s) cas ce maximum est-il atteint ?

Exercice 1.13 (Alea jacta est) 1. On jette 2 ds quilibrs simultanment. Donner, pour tout i {2, . . . , 12}, la probabilit que la somme des rsultats fasse i. 2. On rpte maintenant lexprience prcdente jusqu ce quune somme de 5 ou 7 apparaisse. On dsigne par En lvnement : Une somme de 5 apparat au n-me double jet et sur les (n 1) premiers coups ni la somme de 5 ni celle de 7 nest apparue. (a) Calculer

(En ).

(b) Soit E : Une somme de 5 apparat au bout dun certain nombre de lancers et sur les lancers prcdents ni la somme de 5 ni celle de 7 nest apparue. Dcrire E en fonction des En et en dduire (E). Exercice 1.14 (Application de la sous--additivit) Soit (, F, ) un espace probabilis. Soit A1 , . . . , An des vnements de F tels que :
n

Ai = .
i=1

Grce la sous--additivit, montrer que lun des vnements Ai est de probabilit suprieure ou 1 gale n . Exercice 1.15 (Limites suprieures et infrieures densembles) Soit (An )n0 une suite de parties dun ensemble . On appelle limite suprieure des An et on note limAn , ou lim supn An , lensemble des lments de qui appartiennent une innit de An . On appelle limite infrieure des An et on note limAn , ou lim inf n An lensemble des lments de qui appartiennent tous les An sauf un nombre ni dentre eux. 1. Soit A et B deux parties de et la suite (An ) dnie par A0 = A2 = = A et A1 = A3 = = B. Dterminer les limites sup et inf des An . Arnaud Guyader - Rennes 2 Probabilits

1.4. Exercices 2. Ecrire les dnitions de limAn et limAn laide des quanticateurs logiques et . Les traduire en termes ensemblistes laide des symboles et . (a) An =] , n] avec n 0 ;

17

3. Dterminer limAn et limAn dans les situations suivantes : (b) An =] , n] avec n 0 ;

(d) An =] , an ], pour n 1, avec : a2p+1 = 1 1/(2p + 1) p 0 a2p = 1 + 1/(2p) p > 0 Exercice 1.16 (Lemme de Borel-Cantelli) Soit (, F, ) un espace probabilis. Soit (An )n0 une suite dlments de F et A = limAn . 2. Considrons la suite densembles Dn = 3. On suppose que 0.
+ n=0

(c) An =] 1/n, 1/n[ avec n > 0 ;

1. Par la caractrisation ensembliste de la limite sup, dire pourquoi A appartient F.


+ k=n Ak .

Montrer quelle est dcroissante.

(An ) < +. Via la sous--additivit, montrer que limn+ (Dn ) =

4. Grce la continuit monotone dcroissante, en dduire que (A) = 0. Traduire ce rsultat concrtement. Remarque : Rciproquement, on montre que si les An sont des vnements deux deux indpendants et si + (An ) = +, alors (limAn ) = 1. n=0 Exercice 1.17 (Ensembles dnombrables) On dit que E est dnombrable sil est en bijection avec . Concrtement, E est dnombrable si on peut numroter tous ses lments, i.e. crire E = (u0 , u1 , . . . , un , . . . ). Pour montrer quun ensemble est dnombrable, il sut de pouvoir indiquer un procd de numrotage qui noublie aucun lment de E. On parle de au plus dnombrable pour dire ni ou dnombrable. 1. Montrer que lensemble 2. Montrer que lensemble 3. Montrer que des entiers relatifs est dnombrable.

nest pas dnombrable (procd diagonal de Cantor).

des nombres rationnels est dnombrable.

Exercice 1.18 (Loracle dOberhausen) Lors de la Coupe du Monde de football 2010, avant chacune des 7 rencontres de lquipe allemande (3 matchs de poule, huitime, quart, demi et petite nale) ainsi quavant la nale (Espagne contre Pays-Bas), Paul le Poulpe avait le choix entre 2 rcipients contenant sa nourriture prfre, chacun legie de lun des deux adversaires. Le pronostic correspondait au choix du rcipient o lanimal allait se nourrir. Il se trouve que les 8 pronostics se sont avrs exacts. 1. Quelle est la probabilit dun pronostic correct pour un match de poule ? Et pour un match avec limination directe ? 2. En dduire la probabilit quavait Paul le Poulpe de tomber juste sur lensemble des rencontres ? Exercice 1.19 (Le poulpe dmasqu) La probabilit de gagner le gros lot au Loto est note p (environ une chance sur 19 millions). 1. Quelle est la probabilit quaucune des N personnes jouant au Loto pour un tirage donn ne remporte le gros lot ? 2. En dduire le nombre de joueurs ncessaires pour quil y ait au moins une chance sur deux que le gros lot soit remport. Probabilits Arnaud Guyader - Rennes 2

18

Chapitre 1. Espaces probabiliss 3. Combien de poulpes (ou autres pronostiqueurs farfelus) taient ncessaires pour quavec une probabilit suprieure 90%, lun au moins pronostique les 8 bons rsultats ? Exercice 1.20 (Probabilits composes) 1. On considre une urne contenant 4 boules blanches et 3 boules noires. On tire une une et sans remise 3 boules de lurne. Quelle est la probabilit que la premire boule tire soit blanche, la deuxime blanche et la troisime noire ? 2. On vous donne 5 cartes au hasard dun jeu de 52. Quelle est la probabilit que vous ayez une couleur Pique (i.e. 5 cartes de Pique) ? Quelle est la probabilit que vous ayez une couleur ? Exercice 1.21 (Le problme du dpistage) 1. Soit (, F, ) un espace probabilis. Soit (H1 , . . . , Hn ) une partition de en n vnements de probabilits non nulles. Soit A F tel que (A) > 0. Rappeler la formule de Bayes (encore appele formule de probabilit des causes, les Hi tant les causes possibles et A la consquence). 2. Application : Test de dpistage Une maladie est prsente dans la population, dans la proportion dune personne malade sur 1000. Un responsable dun grand laboratoire pharmaceutique vient vous vanter son nouveau test de dpistage : si une personne est malade, le test est positif 99%. Nanmoins, sur une personne non malade, le test est positif 0.2%. Ces chires ont lair excellent, vous ne pouvez quen convenir. Toutefois, ce qui vous intresse, plus que les rsultats prsents par le laboratoire, cest la probabilit quune personne soit rellement malade lorsque son test est positif. Calculer cette probabilit. Exercice 1.22 (Composition de familles) Une population est compose de familles de 0, 1, 2 ou 3 enfants. Il y a une famille sans enfant pour 3 de 1 enfant, 4 de 2 enfants et 2 de 3 enfants. On suppose que les deux sexes sont quiprobables et quils sont indpendants pour deux enfants dirents. 1. Donner les probabilits de nombres denfants par famille p0 , p1 , p2 , p3 . 2. On choisit une famille au hasard : quelle est la probabilit quil ny ait aucun garon ? 3. Toujours pour une famille choisie au hasard, quelle est la probabilit quelle ait 2 enfants sachant quelle na aucun garon ? Exercice 1.23 (Livresse du gardien de nuit) Un gardien de nuit a 10 cls, dont une seule marche, pour ouvrir une porte. Il emploie deux mthodes. Mthode A : jeun, il retire du trousseau les cls dj essayes ; mthode B : ivre, il remet la cl dans le trousseau aprs chaque essai. 1. Mthode A : on appelle pn la probabilit quil faille n essais pour ouvrir la porte. Dterminer pn . 2. Mthode B : on appelle qn la probabilit quil faille n essais pour ouvrir la porte. Dterminer qn . 3. Le gardien est ivre un jour sur trois. Un jour, aprs avoir essay 8 cls, le gardien na toujours pas ouvert la porte. Quelle est la probabilit quil soit ivre ? Exercice 1.24 (Urne de Polya) Une urne contient 4 boules blanches et 6 boules noires. Une boule est tire au hasard puis on la replace dans lurne ainsi que 3 autres boules de la mme couleur que celle-ci (de sorte quil y a alors 13 boules dans lurne). On tire alors une nouvelle boule au hasard dans lurne. 1. Calculer la probabilit que la seconde boule tire soit blanche.

Arnaud Guyader - Rennes 2

Probabilits

1.4. Exercices 2. Etant donn que la seconde boule tire est blanche, quelle est la probabilit que la premire soit noire ? 3. Gnralisation : on considre le mme procd avec initialement B boules blanches, N noires et un ajout de x boules supplmentaires (ainsi prcdemment on avait B = 4, N = 6 et B x = 3). Montrer que la probabilit que la seconde boule tire soit blanche est B+N . Exercice 1.25 (Transmission bruite) Un message doit tre transmis dun point un autre travers N canaux successifs. Ce message peut prendre deux valeurs, 0 ou 1. Durant le passage par un canal, le message a la probabilit p ]0, 1[ dtre bruit, cest--dire dtre transform en son contraire, et (1 p) dtre transmis dlement. Les canaux se comportent indpendamment les uns des autres. 1. Notons In lvnement : en sortie de n-me canal, le message est le mme que celui transmis initialement. Exprimer (In+1 ) en fonction de (In ) et de p. 2. En notant pn = (In ), donner une relation de rcurrence entre pn+1 et pn . Que vaut p1 ? 3. On considre une suite (un )n1 vriant la relation de rcurrence : un+1 = (1 2p)un + p. Une telle suite est dite arithmtico-gomtrique. Vrier que la suite (vn )n1 , dnie par 1 vn = un 2 , est gomtrique. En dduire vn en fonction de p et v1 . 4. En dduire pn en fonction de p pour tout n {1, . . . , N }.

19

5. Que vaut limN + pN ? Quest-ce que ce rsultat a dtonnant premire vue ?

Exercice 1.26 (La roulette de la lose) Deux joueurs A et B jouent une succession de parties de pile ou face. A chaque coup, A a la probabilit p ]0, 1[ de gagner, auquel cas B lui donne 1e, sinon le contraire. Les joueurs A et B disposent en dbut de partie de 50e chacun. La partie sarrte lorsque lun des deux est ruin. On cherche la probabilit que A nisse ruin. Pour tout n {0, . . . , 100}, on note pn la probabilit que A nisse ruin sil commence avec ne et B avec (100 n)e. 1. Que valent p0 et p100 ? 2. Notons Rn lvnement : A nit ruin en commenant avec ne, cest--dire que pn = (Rn ). Dcomposer (Rn ) en conditionnant par le rsultat de la premire partie, de faon obtenir une relation de rcurrence entre pn+1 , pn et pn1 . 3. On admet que la solution de cette quation est de la forme : pn = + Dterminer et . 4. En dduire la probabilit que A nisse ruin. 5. De passage Dinard, vous rentrez au casino et jouez la roulette : il y a 18 numros rouges, 18 numros noirs et 1 numro vert, le zro. Vous jouez rouge pour 1e chaque fois. Vous commencez avec 50e et vous arrtez si vous avez 100e ou si vous tes ruin. Pourquoi valait-il mieux aller baguenauder sur les sentiers ctiers ce jour-l ? 6. Sachant que vous commencez avec 50e et que vous ne partirez que ruin ou avec 100e en poche, quelle tactique vaut-il mieux adapter pour maximiser vos chances de succs ? Exercice 1.27 (Loi de succession de Laplace) On dispose de (N + 1) urnes, numrotes de 0 N . Lurne k contient k boules rouges et (N k) boules blanches. On choisit une urne au hasard. Sans connatre son numro, on en tire n fois de suite une boule, avec remise aprs chaque tirage. Probabilits Arnaud Guyader - Rennes 2 1p p
n

20

Chapitre 1. Espaces probabiliss 1. Quelle est la probabilit que le tirage suivant donne encore une boule rouge sachant que, au cours des n premiers tirages, seules des boules rouges ont t tires ? Indication : on pourra noter En (respectivement En+1 ) le fait de tirer n (respectivement (n + 1)) boules rouges la suite et dcomposer ces deux vnements sur la partition (U0 , . . . , UN ) forme par les urnes. 2. Calculer la limite de cette probabilit lorsque N tend vers linni. (Rappel sur les sommes 1 1 de Riemann : si f est continue sur [0, 1], alors limn n n f (k/n) = 0 f (x)dx.) k=1 Exercice 1.28 (Il Padrino) 1. On considre deux vnements A et B tels que A et B sont-ils indpendants ?

(A) = 0.1, (B) = 0.9 et (A B) = 0.91.

2. La Maa subtilise 10% des colis expdis de New York par avion. Alice veut envoyer deux cadeaux de Nol son ami Bob. Elle peut faire soit deux paquets spars indpendants, soit un paquet group. Calculer dans les deux cas les probabilits des vnements suivants : (a) Un cadeau au moins est bien arriv. (b) Les deux cadeaux sont bien arrivs. 3. On considre trois vnements (mutuellement) indpendants A, B et C tels que (A) = 0.8, (B) = 0.5 et (C) = 0.2. Que vaut (A B C) ?
A1 0.5 B1 0.8 B2 0.1 C1 0.3 A2 0.1 B3 0.4

Figure 1.6 Un circuit lectrique alatoire.

Exercice 1.29 (Circuit lectrique) On considre le circuit lectrique de la gure 1.6. Chaque relais est en position ouverte ou ferme, la probabilit quil soit ouvert tant indique sur la gure et les relais se comportant de faon totalement indpendante. Quelle est la probabilit que le courant passe, cest--dire quil existe au moins une branche sur laquelle tous les relais sont ferms ? Exercice 1.30 (Le bandit manchot) Une machine sous a trois roues indpendantes, chacune ayant 20 symboles apparaissant de faon quiprobable lorsquelle sarrte de tourner. Les roues de droite et de gauche sont identiques, avec seulement une cloche sur les 20 symboles. La roue du centre est dirente et compte 9 cloches. 1. Quelle est la probabilit de remporter le jackpot (3 cloches) ? 2. Calculer la probabilit dobtenir 2 cloches, mais pas le jackpot. 3. Si au lieu dune rpartition 1-9-1 des cloches, il y a une rpartition 3-1-3, que deviennent les rsultats des questions prcdentes ? Expliquer pourquoi le propritaire du casino optera plutt pour la rpartition 1-9-1 que 3-1-3. Exercice 1.31 (Les ares des escales) Vous voyagez en avion de Los Angeles Paris avec deux escales, New York puis Londres. La probabilit p que votre bagage ne soit pas mis en soute est la mme Los Angeles, New York et Londres. Arriv Paris, vous constatez labsence de votre valise. Calculez les probabilits que celle-ci soit reste Los Angeles, New York et Londres respectivement. Arnaud Guyader - Rennes 2 Probabilits

1.4. Exercices Exercice 1.32 (Une histoire de montres) Un lot de montres identiques est reu par un dtaillant parisien. Celui-ci provient de faon quiprobable soit de Hong-Kong, soit de Singapour. Lusine de Hong-Kong produit un article dfectueux sur 1000 en moyenne, celle de Singapour un sur 200. Le dtaillant inspecte une premire montre : elle marche. Sachant ceci, quelle est la probabilit que la deuxime montre inspecte marche elle aussi ? Exercice 1.33 (Un lphant a trompe normment) Trois touristes tirent en mme temps sur un lphant au cours dun safari. On estime la valeur dun chasseur par sa probabilit datteindre la cible en un coup. Ces probabilits sont respectivement 1/4, 1/2 et 3/4. La bte meurt frappe par deux balles. Trouvez pour chacun des chasseurs la probabilit davoir rat llphant. Exercice 1.34 (Octobre 2009) 1. Deux urnes contiennent chacune initialement 2 boules noires et 3 boules blanches. On tire au hasard une boule de la premire urne, on note sa couleur et on la remet dans la seconde urne. On tire alors au hasard une boule de la seconde urne. Quelle est la probabilit dobtenir deux fois une boule noire ? 2. Une population possde une proportion p ]0, 1[ de tricheurs. Lorsquon fait tirer une carte dun jeu de 52 cartes un tricheur, il est sr de retourner un as. Exprimer en fonction de p la probabilit quun individu choisi au hasard dans la population retourne un as. 3. On prend un d au hasard parmi un lot de 100 ds dont 25 sont pips. Pour un d pip, la probabilit dobtenir 6 est 1/2. On lance le d choisi et on obtient 6. (a) Quelle est la probabilit que ce d soit pip ? (b) On relance alors ce d et on obtient nouveau 6. Quelle est la probabilit que ce d soit pip ? (c) Gnralisation : on lance n fois le d et chaque fois on obtient 6. Quelle est la probabilit pn que ce d soit pip ? Que vaut limn pn ? Commenter ce rsultat. Exercice 1.35 (Une urne composition variable) Une urne contient n boules blanches (n 5) et 10 boules noires. On tire au hasard et simultanment 10 boules de lurne. 1. Calculer la probabilit pn que lon ait tir exactement 5 boules noires. 2. Montrer que pour tout n 5, on a : n2 + 2n + 1 pn+1 = 2 . pn n + 7n 44 3. En dduire les variations de la suite (pn )n5 et la valeur de n pour laquelle pn est maximale. Exercice 1.36 (Les paris plus ou moins vaseux du Chevalier de Mr) Le Chevalier de Mr tait, la cour de Louis XIV, un joueur impnitent. Il pensait en particulier avoir trouv deux rgles pour gagner de largent. 1. Premire rgle : Il est avantageux de parier sur lapparition dau moins un 6 en lanant un d quatre fois de suite. Dmontrer que cest vrai. 2. Seconde rgle : Il est avantageux de parier sur lapparition dau moins un double 6 en lanant deux ds vingt-quatre fois de suite. Dmontrer que cest faux. Remarque : cest Blaise Pascal qui lui a prouv son erreur, les probabilits taient nes... Exercice 1.37 (Tirages uniformes sur un segment) On tire un point au hasard sur le segment [0, 1]. Probabilits

21

Arnaud Guyader - Rennes 2

22 1. Quelle est la probabilit quil soit suprieur 3/4 ?

Chapitre 1. Espaces probabiliss

2. Quelle est la probabilit quil soit suprieur 3/4, sachant quil est suprieur 1/3 ? 3. On tire deux points au hasard sur le segment [0, 1], indpendamment lun de lautre. (a) Quelle est la probabilit que le plus petit des deux nombres soit suprieur 1/3 ? (b) Quelle est la probabilit que le plus grand des deux nombres soit suprieur 3/4, sachant que le plus petit des deux est suprieur 1/3 ? Exercice 1.38 (La loi du minimum) On considre une urne contenant n jetons numrots de 1 n. On tire successivement N fois un jeton, avec remise entre les tirages, et on note le numro chaque fois. Soit k un entier naturel x entre 1 et n. 1. Quelle est la probabilit que le plus petit des numros obtenus soit suprieur ou gal k ? 2. En dduire la probabilit pk que le plus petit des numros obtenus soit gal k. 3. Que deviennent ces rsultats si on ne fait pas de remise entre les N tirages ? Exercice 1.39 (Evnements indpendants) On considre deux vnements indpendants A et B de probabilits respectives 1/4 et 1/3. Calculer : 1. la probabilit que les deux vnements aient lieu. 2. la probabilit que lun au moins des deux vnements ait lieu. 3. la probabilit quexactement lun des deux vnements ait lieu. Exercice 1.40 (Un tirage en deux temps) Une bote contient une balle noire et une balle blanche. Une balle est tire au hasard dans la bote : on remet celle-ci ainsi quune nouvelle balle de la mme couleur. On tire alors une des trois balles au hasard dans la bote. 1. Quelle est la probabilit que la seconde balle tire soit blanche ? 2. Quelle est la probabilit que lune au moins des deux balles tires soit blanche ? 3. Quelle est la probabilit que la premire balle tire soit blanche, sachant que lune au moins des deux balles tires est blanche ? Exercice 1.41 (Pices dfectueuses) Une usine produit des objets par botes de deux. Sur le long terme, on a constat que : 92% des botes ne contiennent aucun objet dfectueux ; 5% des botes contiennent exactement 1 objet dfectueux ; 3% des botes contiennent 2 objets dfectueux. Une bote est choisie au hasard sur la chane de production et on tire au hasard un des deux objets de cette bote. 1. Quelle est la probabilit que cet objet soit dfectueux ? 2. Sachant que cet objet est eectivement dfectueux, quelle est la probabilit que lautre objet de la bote le soit aussi ? Exercice 1.42 (Lets make a deal) Vous participez un jeu o lon vous propose trois portes au choix. Lune des portes cache une voiture gagner, et chacune des deux autres une chvre. Vous choisissez une porte, mais sans louvrir ! Lanimateur, qui sait o est la voiture, ouvre une autre porte, derrire laquelle se trouve une chvre. Il vous donne maintenant le choix entre : vous en tenir votre choix initial, ou changer de porte. Quavez-vous intrt faire ? Remarque : Cest un problme auquel taient confronts les invits du jeu tlvis Lets make a deal de Monty Hall (animateur et producteur amricain), sauf que les lots de consolation ntaient pas des chvres. Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs

23

1.5

Corrigs

Exercice 1.1 (Welcome in Rennes 2) 1. Nombre danagrammes du mot laus : 5 !=120. Nombre danagrammes du mot lisier : 6 !/2 !=360. Nombre danagrammes du mot charivari : 9 !/(2 !2 !2 !)=45360. 2. Nombre de permutations possibles dun ensemble n lments parmi lesquels il y a r paquets (n1 , . . . , nr ) dlments indistinguables entre eux : n! . n1 ! . . . nr ! 3. Nombre de classements possibles : 10! = 12600. 4!3!2! Nombre de classements possibles sachant que Jos est le vainqueur : 9! = 1260. 4!3!2! 4. Nombre de classements possibles : 20! 2, 433 1018 . Rappelons la formule de Stirling : n! 2n n e
n

5. Nombre de classements globaux : (10!)2 1, 317 1013 .

Pour n = 20, elle donne 2, 423 1018 , soit une erreur relative de lordre de 0, 4%.

Exercice 1.2 (Autour des sommes gomtriques) 1. Pour lexpression de la somme Sn = n xj , il faut direncier deux cas : j=0 si x = 1, cest une somme de 1 et elle vaut tout simplement : Sn = n + 1. si x = 1, cest la somme des termes dune suite gomtrique de raison x et elle vaut de faon gnrale : Sn = ce qui donne ici : Sn = premier terme crit - premier terme non crit , 1-raison
1xn+1 1x .

2. Il y a 16 seizimes, 8 huitimes, 4 quarts, 2 demis et 1 nale, donc le nombre de matchs ncessaires pour dsigner le vainqueur est leur somme, soit 16 + 8 + 4 + 2 + 1 = 31. 3. On limine 1 sprinteur chaque course et il faut tous les liminer sauf un, donc il est clair quil faut faire 31 courses. Dans la question prcdente, puisque chaque match de tennis liminait exactement un joueur et quon voulait tous les liminer sauf un, ctait exactement la mme chose. 4. On reprend le tournoi de tennis 32 joueurs de la question initiale. Le nombre S de droulements possibles du tournoi est S = 216 28 24 22 21 = 231 . Exercice 1.3 (Le podium des MASS 2) 1. Le nombre de triplets possibles (Mp , Man , Mal ) est 203 = 8000. 2. Le nombre de podiums possibles est le nombre darrangements de 3 lments dans un ensemble 20 lments, soit A3 = 6840. 20 Probabilits Arnaud Guyader - Rennes 2

24

Chapitre 1. Espaces probabiliss 3. Le nombre de ddicaces possibles est le nombre de combinaisons de 3 lments dans un 3 ensemble 20 lments, soit C20 = 1140. 4. Pour simplier, on considre des annes 365 jours. Les lves tant considrs comme distinguables, le nombre de 20-uplets danniversaires est 36520 . Pour calculer la probabilit cherche, on utilise la ruse classique du passage lvnement complmentaire, cest--dire quon cherche le nombre de 20-uplets danniversaires tels que toutes les dates soient distinctes. Il y en a A20 . La probabilit cherche vaut donc 365 p20 = 1 A20 1 365 =1 1 20 365 365 ... 1 19 365 0, 411.

Pour que cette probabilit soit suprieure 0.5, il sut davoir au moins 23 tudiants, puisque p23 0, 507 tandis que p22 0, 476. Contrairement ce quune premire intuition pourrait laisser croire, dans une assemble de 50 personnes il y a de trs fortes chances que deux personnes aient le mme jour danniversaire puisque p50 97%. En fait la probabilit est mme encore plus grande car la rpartition des naissances nest pas uniforme sur lanne.

1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 0 10 20 30 40 50 60 70 80 90 100

pn

1 e

n(n1) 730

Figure 1.7 Probabilits pn 1 e

n(n1) 730

que deux personnes parmi n soient nes le mme jour.

La suite (pn ) est reprsente par les symboles + sur la gure 1.7. Remarquons au passage quon peut obtenir facilement une approximation de pn pour n petit devant 365 puisque : 1 pn = An 365 = 365n 1 1 365 ... 1 n1 365 ,

donc en passant aux logarithmes : ln(1 pn ) = ln 1 1 365 + + ln 1 n1 365 ,

et via lapproximation ln(1 u) u au voisinage de 0, on arrive : n1 1 1 = ln(1 pn ) 365 365 365 Arnaud Guyader - Rennes 2
n1

k,
k=1

Probabilits

1.5. Corrigs o lon reconnat la somme des termes dune suite arithmtique : ln(1 pn ) cest--dire : pn 1 e n(n 1) , 730
n(n1) 730

25

En dautres termes, la suite reprsente gure 1.7 est quasiment la version discrtise de la fonction [0, 100] [0, 1] f: x(x1) x 1 e 730 Exercice 1.4 (Las Vegas 21) 5 1. Nombre de mains possibles : N = C52 . 2. Soit p1 la probabilit davoir une quinte ush. Pour former une quinte ush, il sut de choisir la couleur (4 choix) et la valeur de la carte basse (10 choix), donc au total 40 possibilits, soit p1 = 40/N 0, 00154% de chances.

3. Soit p2 la probabilit davoir une couleur (mais pas une quinte ush). On a 4 choix pour 5 la couleur, puis C13 possibilits pour choisir les 5 cartes lintrieur de cette couleur. Pour calculer p2 il sut alors denlever la probabilit davoir une quinte ush : p2 =
5 4C13 p1 0, 196% N

4. Soit p3 la probabilit davoir un carr. Pour former un carr, on a 13 choix pour la hauteur de la carte et 48 choix pour la carte restante, soit : p3 = 13 48 0, 024% N

5. Si on sintresse au poker ouvert, ces probabilits changent. (a) Nombre de mains possibles : puisquil y a 7 cartes et non 5 pour former une combinaison, 7 le nombre de mains possibles est maintenant N = C52 . (b) Nombre de quintes ush : soit p la probabilit davoir une quinte ush. Pour former 1 une quinte ush, il sut de choisir la couleur (4 choix) et la valeur de la carte basse (10 2 choix). Il reste alors C47 choix possibles pour les 2 cartes restantes, donc a priori on a 2 4 10 C47 , mais ce faisant on compte certaines quintes ush plusieurs fois, savoir toutes les quintes ush non royales pour lesquelles lune des 2 cartes loisibles est celle immdiatement suprieure la plus haute carte de la quinte. Il faut donc enlever toutes ces quintes ush 6 cartes, lesquelles sont au nombre de 4 9 46 : 4 choix pour la couleur, 9 choix pour la carte basse de la quinte ush et 46 choix pour la carte restante. Au total on arrive : p = 1
2 4 10C47 4 9 46 0.031% 7 C52

(c) Soit p la probabilit davoir une couleur (mais pas une quinte ush). Il sagit de bien 2 direncier les cas, puisquil y a 3 faons dobtenir une couleur : 5 2 5 cartes de mme couleur, 2 autres de couleur dirente : 4C13 C39 possibilits ; 6 39 possibilits ; 6 cartes de mme couleur, 1 autre de couleur dirente : 4C13 7 7 cartes de mme couleur : 4C13 possibilits. Probabilits Arnaud Guyader - Rennes 2

26

Chapitre 1. Espaces probabiliss Il sut dajouter tout a, de diviser par N puis denlever la probabilit p davoir une 1 quinte ush pour obtenir la probabilit davoir une couleur : p = 2
7 6 2 5 4C13 C39 + 4C13 39 + 4C13 p 3.025% 1 7 C52

(d) Soit p la probabilit davoir un carr. Cette fois il ny a pas dembrouille, tout se passe 3 3 tranquillement. Pour former un carr, on a 13 choix pour la hauteur de la carte et C48 choix pour les 3 cartes restantes, soit : p = 3
3 13C48 0, 168% N

Exercice 1.5 (Dnombrements en vrac) Cet exercice est corrig en annexe (sujet doctobre 2009). Exercice 1.6 (Lart de combiner les combinaisons) 1. Formule du binme de Newton :
1 n1 (x + y)n = xn + Cn xn1 y + + Cn xy n1 + y n . k+1 k k+1 2. Pour tout 0 k < n, on a Cn + Cn = Cn+1 . n

3. La premire somme sobtient en prenant x = y = 1 : S1 =


k=0 k Cn = (1 + 1)n = 2n .

La deuxime somme sobtient en prenant x = 1 et y = 1 :


n

S2 =
k=0

k (1)k Cn = (1 + 1)n = 0.

La troisime somme se calcule en bidouillant un peu :


n n k kCn = k=0 k=1 k kCn = n k=1 n k1 Cn1 ,

S3 =

et on eectue le changement dindice j = k 1 pour obtenir S1 peu de choses prs :


n1

S3 = n
j=0

j Cn1 = n2n1 .

La quatrime somme sobtient aussi en bidouillant :


n

S4 =
k=0

k Cn 1 = k+1 n+1

n k+1 Cn+1 , k=0

et on eectue le changement dindice j = k + 1 pour obtenir : n+1 n+1 2n+1 1 1 1 j j Cn+1 = Cn+1 = . 1 + S4 = n+1 n+1 n+1
j=1 j=0

Arnaud Guyader - Rennes 2

Probabilits

1.5. Corrigs 4. On a dune part :


2n

27

P (X) = (1 + X)n (1 + X)n = (1 + X)2n =


k=0 n donc le coecient de X n est C2n . Dautre part, on peut crire : n n k Cn X k k=0

k C2n X k ,

P (X) = (1 + X)n (1 + X)n =

k Cn X k k=0

Le coecient de X n dans ce produit de polynmes sobtient en faisant la somme de (n + 1) coecients : le coecient de X 0 dans le premier polynme par le coecient de X n dans le second polynme, le coecient de X 1 dans le premier polynme par le coecient de X n1 k nk dans le second polynme, etc. Finalement, en tenant compte du fait que Cn = Cn , on voit que ce coecient vaut exactement la somme voulue. On en dduit que :
n k n (Cn )2 = C2n . k=0

Exercice 1.7 (Formule de Poincar) 1. On a #(A B) = #A + #B #(A B). Application : si on appelle A lensemble des lves ayant pour langues (anglais,espagnol), B lensemble des lves ayant pour langues (anglais,allemand), leectif de la classe est donc : #(A B) = #A + #B #(A B) = 20 + 15 5 = 30. 2. On a cette fois : #(A B C) = #A + #B + #C (#(A B) + #(A C) + #(B C)) + #(A B C) 3. Gnralisation : la formule de Poincar scrit
n

#(A1 An ) =

k=1

(1)k1

1i1 <<ik n

#(Ai1 Aik ) .

Exercice 1.8 (Drangements) 1. Les tudiants tant numrots de 1 n, il y a n! rpartitions possibles des manteaux parmi les n tudiants. 2. Pour quaucun des tudiants ne rcupre son manteau, il faut que le premier tudiant ne rcupre pas le sien, le deuxime non plus, ..., le n-me non plus. On peut donc dcrire lvnement A comme suit :
n

A = A1 A2 An =

Ai .
i=1

k 3. Soit k {1, . . . , n}. Il y a Cn combinaisons de k indices parmi n. Pour chacune, il y en a k une seule telle que 1 i1 < < ik n. Il y a donc exactement Cn squences dindices (i1 , . . . , ik ) telles que 1 i1 < < ik n.

Probabilits

Arnaud Guyader - Rennes 2

28

Chapitre 1. Espaces probabiliss 4. La squence (i1 , . . . , ik ) tant xe et lvnement (Ai1 Aik ) ralis, il y a k indices parmi n qui ne bougent pas et (n k) qui permutent. Le cardinal de (Ai1 Aik ) vaut donc : #(Ai1 Aik ) = (n k)! 5. Puisque A = A1 A2 An =
n i=1 Ai

et que E1 E2 = E1 E2 , on en dduit :
n

A = A1 A2 An = A1 An =

Ai ,
i=1

et on peut donc utiliser la formule de Poincar pour calculer #A :


n n

#A =

(1)

k=1

k et comme, pour k x, il y a Cn squences dindices (i1 , . . . , ik ) telles que 1 i1 < < ik n, on arrive : n n k (1)k1 Cn (n k)! =

k1

1i1 <<ik n

#(Ai1 Aik ) =

(1)k1
1i1 <<ik n

k=1

(n k)!

#A =
k=1

(1)k1
k=1

n! . k!

Puisquil y a en tout n! rpartitions possibles des manteaux parmi les n tudiants, on en dduit bien que : n (1)k1 . (A) = 1 (A) = 1 k!
k=1

6. On peut rcrire la probabilit prcdente comme suit :

(A) = 1 +
do lapproximation :

n k=1

(1)k = k!

n k=0

(1)k , k!

(A)
Remarque : puisque la srie lapproximation :
(1)k k!

+ k=0

1 (1)k = 0, 37. k! e

est alterne, on peut mme donner une qualit de 1 1 e (n + 1)!

(A)

Lapproximation est donc excellente, par exemple pour un eectif de n = 20 tudiants, le majorant de lerreur est de lordre de 4.1019 . 7. Le nombre dn de drangements dun ensemble n lments est donc :
n

dn = n!
k=0

(1)k . k!

Exercice 1.9 (Traduction ensembliste dvnements) On a les dcompositions suivantes (cf. gure 1.8) : A seul se ralise : E1 = A \ (B C) = A B C ; A et C se ralisent mais pas B : E2 = (A C) \ B = A C B ; Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs

29

Figure 1.8 Labcdaire des sous-ensembles.

au moins lun des trois vnements se ralise : E3 = A B C ; au moins deux des trois vnements se ralisent : E4 = (A B) (A C) (B C) ; les trois vnements se ralisent : E5 = A B C ; aucun ne se ralise E6 = A B C = A B C ; au plus lun des trois se ralise : E7 = E4 ; au plus deux des trois se ralisent : E8 = E5 = A B C ; exactement deux des trois se ralisent : E9 = E4 \ (A B C) ; au plus trois se ralisent : E10 = .

Exercice 1.10 (Exemple de tribu engendre) On se place dans lensemble . On considre la tribu F engendre par les ensembles Sn = {n, n + 1, n + 2}, avec n {0, 2, 3, . . .}. 1. On a S0 = {0, 1, 2}, S2 = {2, 3, 4}, S3 = {3, 4, 5}, S4 = {4, 5, 6}, etc. Par stabilit dune tribu par intersection, on voit donc que pour tout n 4, le singleton {n} = Sn Sn1 Sn2 appartient F. Pour les mmes raisons, le singleton {2} = S0 S2 appartient F. Enn {3} = S2 {2} {4} appartient lui aussi F.

2. Une partie de = {2, 3, . . .} est lunion au plus dnombrable de singletons piochs parmi les entiers suprieurs ou gaux 2. Comme on vient de voir que chacun de ces singletons est dans F et que F est stable par union au plus dnombrable, on en dduit que tout sous-ensemble de est dans F. Autrement dit : P( ) F. 3. On voit que S0 \ {2} = {0, 1} F, mais aucun des singletons {0} et {1} nappartient F, autrement dit on ne peut pas sparer 0 et 1 dans F. De fait A F si et seulement si il existe B P( ) tel que A = B ou A = {0, 1} B.

Exercice 1.11 (Lancer inni dune pice) On lance une pice une innit de fois. Pour tout i , on note : Ai = {Le i-me lancer donne Pile}. 1. On peut dcrire les vnements de la faon suivante : E1 = + Ai : partir du cinquime, tous les lancers donnent Pile ; i=5 E2 = Pile ; E3 = Probabilits
4 i=1 Ai + i=5 Ai

+ i=5 Ai

: les 4 premiers lancers donnent Face et tous les suivants

: au moins lun des lancers partir du cinquime donne Pile. Arnaud Guyader - Rennes 2

30

Chapitre 1. Espaces probabiliss 2. Lvnement E : On obtient au moins une fois Pile aprs le n-me lancer scrit encore : E = + Ai . i=n+1 3. A laide des Ai , on peut crire : (a) Bn = + Ai . i=n (b) B =
+ n=1 + i=n Ai

Exercice 1.12 (Ingalit de Bonferroni) Soit (, F, ) un espace probabilis. 1. Soit E lvnement : un seul des deux vnements se ralise. On peut crire E = (A B) \ (A B), ce qui est souvent not E = AB, dirence symtrique de A et de B. Puisque A B A B, il est clair que (E) = (A B) (A B). Il reste utiliser ladditivit forte :

(E) = ((A) + (B) (A B)) (A B) = (A) + (B) 2(A B).


2. Soit A et B deux vnements tels que (a) On utilise ladditivit forte :

(A) = 0, 9 et (B) = 0, 8.

(c) Puisque A B A et A B B, on a (A B) (A) = 0, 9 et (A B) (B) = 0, 8, donc (A B) vaut au maximum min((A), (B)) = 0, 8, avec galit lorsque A B = B, cest--dire lorsque B est contenu dans A. Sur notre exemple, il sut de prendre A = {1, . . . , 9} et B = {1, . . . , 8}. De faon gnrale, on a (A B) min((A), (B)), avec galit lorsque lun des vnements est contenu dans lautre. 3. Gnralisation : en remarquant que A1 An = A1 An ,

et puisque (A B) 1, on en dduit bien que (A B) 0, 7. (b) Sur lespace = {1, . . . , 10} muni de lquiprobabilit, considrons A = {1, . . . , 9}, B = {3, . . . , 10}, ce qui donne A B = {3, . . . , 9}. Dans ce cas on a bien (A) = 0, 9, (B) = 0, 8 et (A B) = 0, 7.

(A B) = (A) + (B) (A B) = 1, 7 (A B),

et la relation

(A) = 1 (A), il vient

(A1 An ) = 1 (A1 An ),
n i=1

or par sous--additivit :

(A1 An )
Au total on obtient bien :
n i=1

(Ai ) =

n i=1

(1 (Ai )).

(A1 An ) 1

(1 (Ai )) =

n i=1

(Ai ) (n 1).

Par ailleurs, le fait que chaque Ai contienne lintersection des Ai implique que

(A1 An ) min (Ai ),


1in

avec galit si et seulement si lun des Ai est contenu dans tous les autres. Remarque : on peut aussi montrer la minoration de la probabilit dintersection par rcurrence. Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs Elle est vidente pour n = 1 et vraie pour n = 2 par le raisonnement de la question prcdente. Supposons-la vraie lindice n 2 et considrons les vnements A1 , . . . , An+1 . Alors par la formule dadditivit forte et par associativit de lintersection :

31

(A1 An+1 ) = ((A1 An ) An+1 ),


do lon dduit en appliquant lingalit avec n = 2 :

(A1 An+1 ) (A1 An ) + (An+1 ) 1.


Il reste appliquer lhypothse de rcurrence :

(A1 An+1 )

n i=1

(Ai ) (n 1) + (An+1 ) 1,
n+1 i=1

ce qui est exactement la formule de rcurrence lordre (n + 1) :

(A1 An+1 )

(Ai ) n.

Par ailleurs, le mme raisonnement quen question prcdente montre que :

(A1 An ) min((A1 ), . . . , (An )),


avec galit si et seulement si lun des Ai est contenu dans tous les autres. Exercice 1.13 (Alea jacta est) 1. On jette 2 ds quilibrs simultanment. Pour tout i {2, . . . , 12}, on note pi la probabilit que la somme fasse i. Si on regroupe ces i dans le vecteur ligne p = [p2 , . . . , p12 ], on obtient : 1 [1, 2, 3, 4, 5, 6, 5, 4, 3, 2, 1]. 36 2. On rpte maintenant lexprience prcdente jusqu ce quune somme de 5 ou 7 apparaisse. On dsigne par En lvnement : Une somme de 5 apparat au n-me double jet et sur les (n 1) premiers coups ni la somme de 5 ni celle de 7 nest apparue. (a) A chacun des (n 1) premiers coups, la probabilit pour que ni une somme de 5 ni une somme de 7 napparaisse est 1 (p5 + p7 ) = 13/18. Au n-me coup, la probabilit quune somme de 5 apparaisse est p5 = 4/36 = 1/9. On en dduit : p=

(En ) = (1 (p5 + p7 ))n1 p5 =

1 9

13 18

n1

(b) Pour que lvnement E (on sarrte sur une somme de 5) se ralise, il faut et il sut que lun des En se ralise, cest--dire en termes ensemblistes : E = En . Puisque n=1 les En sont deux deux incompatibles, la sigma-additivit de donne :

(E) =

n=1

(En ) =

1 9 n=1

13 18

n1

o on reconnat la somme des termes dune suite gomtrique de raison 13/18 :

(E) =

Ce rsultat pouvait se trouver sans ces calculs : puisquon va ncessairement sarrter sur une somme de 5 ou de 7, la probabilit que lon sarrte sur une somme de 5 est tout simplement (E) = p5 /(p5 + p7 ) = 2/5, et celle quon sarrte sur une somme de 7 est (E) = 1 (E) = 3/5. Probabilits Arnaud Guyader - Rennes 2

1 1 2 13 = 5 . 9 1 18

32

Chapitre 1. Espaces probabiliss Exercice 1.14 (Application de la sous--additivit) Soit (, F, ) un espace probabilis. Soit A1 , . . . , An des vnements de F tels que :
n

Ai = .
i=1

La sous--additivit permet dcrire :


n i=1

(Ai )

Ai
i=1

= () = 1.

Si tous les (Ai ) taient de probabilit strictement infrieure 1/n, ceci serait clairement impossible puisque la somme des probabilits serait alors strictement infrieure 1. On en dduit que 1 lun des vnements Ai est bien de probabilit suprieure ou gale n . Exercice 1.15 (Limites suprieures et infrieures densembles) 1. Soit A et B deux parties de et la suite (An ) dnie par A2n = A et A2n+1 = B pour tout n . Concernant la limite sup, un lment lui appartient sil est dans une innit de An : soit tous les indices n sont pairs, auquel cas A, soit tous les indices n sont impairs, auquel cas B, soit il y en a des pairs et des impairs, auquel cas A B. Quoi quil en soit, il est clair que si est dans la limite sup des An , on a ncessairement A B. La rciproque marche aussi : si A B, le raisonnement prcdent permet dexhiber une innit de An auxquels appartient. Ainsi on a limAn = A B. Concernant la limite inf, un lment lui appartient sil est dans tous les An sauf un nombre ni. Il existe donc un indice n0 tel que : n n0 An .

2. On peut rcrire automatiquement les dnitions de limAn et limAn laide des quanticateurs logiques et . Ceci donne pour la limite sup : limAn = { : n , k n, Ak }, et pour la limite inf : limAn = { : n , k n, Ak }.

En particulier An0 et An0 +1 , ainsi A et B, donc A B. Rciproquement, soit A B, alors il est clair que An pour tout n . Ainsi on a limAn = A B.

On peut aussi les traduire en termes ensemblistes, en remplaant par et par . Ceci donne pour la limite sup : Ak , limAn =
n

kn kn

et pour la limite inf : limAn = 3. On donne ici les rsultats sans les justier. Arnaud Guyader - Rennes 2 Probabilits Ak .
n

1.5. Corrigs (a) Si An =] , n] pour tout n 0, alors limAn = limAn = . Lorsque la suite (An )n0 est croissante pour linclusion, comme cest le cas ici, on a en fait le rsultat gnral : limAn = limAn =
n=0

33

An .

(b) Si An =] , n] pour tout n 0, alors limAn = limAn = . Lorsque la suite (An )n0 est dcroissante pour linclusion, comme cest le cas ici, on a en fait le rsultat gnral : limAn = limAn =
n=0

An .

(c) Si An =] 1/n, 1/n[ pour tout n > 0, alors on est nouveau dans le cas dune suite dcroissante pour linclusion et : limAn = limAn = (d) Dans ce dernier cas, on a : limAn =] , 1[ limAn =] , 1].
n=0

An = {0}.

Exercice 1.16 (Lemme de Borel-Cantelli) Soit (, F, ) un espace probabilis. Soit (An )n0 une suite dlments de F et A = limAn . 1. On a vu dans lexercice 1.15 que : A= Ak = Dn .

kn

2. Si on note Dn =

Or pour tout n , lensemble Dn = kn Ak appartient F puisque la tribu F est stable par union dnombrable. Puisquelle est galement stable par intersection dnombrable, A = n Dn appartient encore F.
+ k=n Ak ,

on a :
+

Dn+1 =
k=n+1

Ak An

Ak
k=n+1

=
k=n

Ak = Dn ,

et la suite (Dn )n0 est bien dcroissante pour linclusion. 3. On suppose que
+ n=0

(An ) < +. La sous--additivit permet dcrire pour tout k : (Dn ) =


+ +

Ak
k=n

(An ),

k=n

et le terme de droite est le reste dune srie convergente, qui tend donc ncessairement vers 0, do a fortiori limn+ (Dn ) = 0. 4. La suite (Dn )n0 tant dcroissante pour linclusion, on peut appliquer la continuit monotone dcroissante :
+

(A) =

Dn
n=0

= lim

n+

(Dn ) = 0.

Ainsi, lorsque la srie n= (An ) est convergente, il est improbable quune innit dvnements An se produisent simultanment. Probabilits Arnaud Guyader - Rennes 2

34

Chapitre 1. Espaces probabiliss Exercice 1.17 (Ensembles dnombrables) Pour montrer quun ensemble est dnombrable, il sut de pouvoir indiquer un procd de numrotage qui noublie aucun lment de E. Cest ce que nous allons utiliser dans la suite. 1. Pour voir que est dnombrable, il sut dcrire : = (0, 1, +1, 2, +2, ...), cest--dire = (un )n0 , avec : n u2n = n u2n+1 = (n + 1)

2. Pour lensemble des rationnels, on exhibe en gure 1.9 un moyen de parcourir lensemble des couples (p, q) avec p et q . Puisquon ne suppose pas p et q premiers entre eux, lapplication (p, q) p nest pas bijective, mais peu importe puisquelle est surjective donc q on noublie aucun rationnel positif et cest bien l lessentiel : dans la suite (un )n0 ainsi obtenue, il sura ensuite dliminer les un redondants. Appelons (vn )n0 cette suite pure, elle est donc en bijection avec + . Pour obtenir tout entier, on peut alors procder comme pour , en alternant un lment de + et son oppos dans . On obtient alors une suite (qn )n0 dcrivant lensemble des rationnels.
q

Figure 1.9 Une faon de parcourir lensemble des couples (p, q) {(0, 0)} . 3. Pour montrer que nest pas dnombrable, il sut de prouver que lensemble [0, 1[ ne lest pas. Pour cela, commenons par rappeler que tout nombre rel x de lintervalle [0, 1[ scrit de faon unique sous la forme :
+

x=
n=1

xn 10n =

x2 xn x1 + + + n + ... 10 100 10

avec xn {0, 1, . . . , 9} pour tout n. Cest le dveloppement dcimal de x et on crit encore x = 0, x1 x2 . . . xn . . .. On convient en gnral que ce dveloppement dcimal ne nit pas par une innit de 9, cest--dire quon crit x = 0.3780000 ou plus succinctement x = 0.378, plutt que x = 0.37799999 . . . . On raisonne alors pas labsurde. Si on suppose [0, 1[ dnombrable, il existe une suite (un )n1 telle que [0, 1[= (un )n1 . Chaque terme un admet un dveloppement dcimal, que lon convient dcrire comme suit : un = 0, u1 u2 . . . un . . .. n n n Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs Vient alors la ruse diabolique de Cantor, connue sous le nom de procd diagonal : en considrant le nombre x = 0, x1 x2 . . . xn . . . pour lequel : n xn = 0 1 si un = 0 n si un = 0 n

35

Le rel x est encore clairement dans [0, 1[, or il est dirent de chaque un puisque par construction il en dire au moins par une dcimale (xn = un pour tout n). On a donc n une contradiction, ce qui signie que lhypothse de dpart tait absurde : [0, 1[ nest pas dnombrable. Exercice 1.18 (Loracle dOberhausen) 1. Que ce soit pour un match de poule ou avec limination directe, le poulpe se pose sur lun des deux rcipients et ne peut donc pronostiquer un match nul. Pour un match de poule, en notant S (comme Succs), A, B et N les vnements correspondant respectivement un pronostic correct, la victoire de lquipe A, la victoire de lquipe B et un match nul, alors la formule des probabilits totales donne :

(S) = (S|A)(A) + (S|B)(B) + (S|N )(N ).


On considre a priori que les 3 issues possibles dune rencontre sont quiprobables : (A) = (B) = (N ) = 1/3. Puisque le pouple ne peut prdire de match nul, il vient par contre : (S|A) = (S|B) = 1/2 et (S|N ) = 0. Ainsi, pour un match de poule, la probabilit dun pronostic juste est (S) = 1/3. Le mme raisonnement montre que pour un match avec limination directe, la probabilit dun pronostic juste est cette fois (S) = 1/2. 2. Pour chacun des 3 matchs de poule, la probabilit de succs tait de 1/3, puis 1/2 pour chacun des 5 autres matchs. La probabilit de 8 bons pronostics tait donc : p= 1 3
3

1 2

1 . 864

Exercice 1.19 (Le poulpe dmasqu) La probabilit de gagner le gros lot au Loto est note p (environ une chance sur 19 millions). 1. La probabilit quaucune des N personnes jouant au Loto pour un tirage donn ne remporte le gros lot scrit donc P = (1 p)N .

2. Le nombre N de joueurs ncessaires pour quil y ait au moins une chance sur deux que le gros lot soit remport doit donc vrier : 1P 1 1 (1 p)N 2 2

En passant aux logarithmes et en utilisant lapproximation ln(1 p) p pour p proche de 0, ceci donne : ln 2 ln 2 N . ln(1 p) p

Si p = 1/n, ceci nous dit quil faut N n ln(2) 0.69n. Pour le Loto, en prenant p gal une chance sur 19 millions, il faut donc plus de 13 millions de joueurs. Ceci parat norme, mais dune part le nombre de joueurs rguliers au Loto se compte eectivement en millions, dautre part la plupart dentre eux jouent plusieurs grilles. De fait il nest pas rare quil y ait un gagnant au Loto : nonobstant une probabilit de gain trs faible pour une personne donne, la probabilit que le gros lot soit remport par quelquun ne lest pas du tout (lunion fait la force, en quelque sorte). Arnaud Guyader - Rennes 2

Probabilits

36

Chapitre 1. Espaces probabiliss 3. Le mme raisonnement peut tre appliqu pour lhistoire du poulpe. Le nombre N de poulpes ncessaires pour quavec une probabilit suprieure 90%, lun au moins pronostique les 8 bons rsultats se calcule comme suit (en notant p = 1/864) : 1 (1 p)N 9 ln 10 ln 10 N 1990 10 ln(1 p) p

Il sut donc que 2 000 personnes travers le monde aient utilis un moyen ou un autre pour faire des pronostics (par exemple via Mani le perroquet Singapour) pour quil se trouve coup sr un oracle de pacotille dans toute la mnagerie... Exercice 1.20 (Probabilits composes) 1. On note B1 (resp. B2 , N3 ) lvnement : La premire (resp. la deuxime, la troisime) boule tire est blanche (resp. blanche, noire). On veut donc calculer (B1 B2 N3 ), ce pour quoi on utilise la formule des probabilits composes :

On a initialement 4 boules blanches et 3 boules noires dans lurne donc (B1 ) = 4/7. Une fois la boule blanche tire, il reste 3 boules blanches et 3 boules noires donc (B2 |B1 ) = 1/2. Aprs ces deux premiers tirages, il reste 2 boules blanches et 3 boules noires, do 6 (N3 |B1 B2 ) = 3/5. Au total, on obtient (B1 B2 N3 ) = 35 . 2. Supposons quon nous donne les 5 cartes les unes aprs les autres et notons Pi lvnement : La i-me carte est un Pique. Dans ce cas, la probabilit p davoir une couleur Pique scrit p = (P1 P5 ), do par la formule des probabilits composes : p = (P1 ) (P2 |P1 ) = (P5 |P1 P4 ). Il reste voir quil y a au premier tirage 13 cartes de Pique sur un total de 52, au second 12 cartes de Pique sur un total de 51, etc., ce qui donne in ne p= 13 12 11 10 9 5 104 . 52 51 50 49 48

(B1 B2 N3 ) = (B1 )(B2 |B1 )(N3 |B1 B2 ).

Puisquil y a 4 couleurs possibles, la probabilit davoir une couleur est alors tout simplement 4p 0.2% On retrouve le rsultat de lexercice Las Vegas 21. Exercice 1.21 (Le problme du dpistage) 1. Si (, F, ) est un espace probabilis, (H1 , . . . , Hn ) une partition de en n vnements de probabilits non nulles et A F tel que (A) > 0, la formule de Bayes (dite de probabilit des causes) dit que pout tout j entre 1 et n :

(Hj |A) =

n i=1

(A|Hj )(Hj ) . (A|Hi )(Hi )

2. Application : Test de dpistage Si on note A lvnement : Le test est positif, et H lvnement : La personne est malade, on cherche donc la probabilit (H|A) et la formule de Bayes donne :

(H|A) =

(A|H)(H) . (A|H)(H) + (A|H)(H)

Daprs lnonc, on a (H) = 1/1000, (A|H) = 0.99, (A|H) = 0.002, les autres probabilits intervenant dans la formule de Bayes sen dduisant facilement. Ceci donne (H|A) 1/3. Le test nest donc pas si able que a ! Il nempche quil peut servir, en pratique, faire une premire slection avant deectuer un second test plus able (mais plus coteux) sur les patients pour lesquels ce premier test est positif. Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs Exercice 1.22 (Composition de familles) 1. On a daprs le texte : p1 = 3p0 , p2 = 4p0 et p3 = 2p0 . Puisque la somme des pi fait 1, on en dduit que : 1 3 4 2 p = [p0 , p1 , p2 , p3 ] = , , , . 10 10 10 10 2. Notons G lvnement : Il y a au moins un garon dans la famille. On cherche donc (G). Nous allons utiliser la formule des probabilits totales via la partition = {E0 , E1 , E2 , E3 } suivant le nombre denfants par famille :

37

(G) =

3 i=0

(G|Ei )(Ei ) =

3 i=0

(G|Ei )pi ,

o il reste voir que pour tout i on a 3. On cherche cette fois la probabilit

(G|Ei ) = (1/2)i . Finalement on obtient (G) = 3/8. (G|E2 )(E2 ) . (G)

(E2 |G), il sut dinverser le conditionnement :

(E2 |G) =

Daprs la question prcdente, on sait que (G) = 3/8, et daprs la premire question (E2 ) = p2 = 4/10. On arrive donc (E2 |G) = 4/15. Exercice 1.23 (Livresse du gardien de nuit) 1. Mthode A : on appelle pn la probabilit quil faille n essais pour ouvrir la porte. Puisquil retire chaque cl aprs un essai infructueux, il est clair que n peut prendre les valeurs de 1 10. On peut calculer les probabilits de proche en proche : la probabilit p1 est clairement p1 = 1/10. Pour quil ouvre la porte au deuxime essai, il faut quil se soit tromp au premier, ce qui arrive avec probabilit 9/10 et quil ait russi au second, ce qui arrive avec probabilit 1/9, donc nouveau p2 = 1/10. En itrant ce raisonnement, on voit sans peine que pour tout n entre 1 et 10, pn = 1/10. Nous parlerons dans ce cas de loi uniforme sur lensemble {1, . . . , 10}. Remarque : on pouvait obtenir ce rsultat par un autre raisonnement : les 10 cls du trousseau arrivent dans un certain ordre et il ny aucune raison que la cl qui ouvre la porte soit une position plutt qu une autre, donc le nombre dessais ncessaires pour ouvrir la porte est quirparti entre 1 et 10. 2. Mthode B : cette fois, le nombre n dessais ncessaire peut prendre toute valeur de . La probabilit q1 est nouveau q1 = 1/10. Pour quil ouvre la porte au deuxime essai, il faut quil se soit tromp au premier, ce qui arrive avec probabilit 9/10, et quil ait russi au second, ce qui arrive avec probabilit 1/10, donc q2 = 1/109/10. En itrant ce raisonnement, on voit que : 9 n1 1 . qn = n 10 10 On dit dans ce cas que le nombre dessais suit une loi gomtrique de paramtre 1/10. 3. Notons {N > 8} lvnement : Aprs 8 essais, la porte nest toujours pas ouverte et, conformment ce qui prcde, A (resp. B) lvnement : Le gardien est jeun (resp. ivre). Notons au passage que A = B. On cherche donc (B|{N > 8}). On utilise la formule de Bayes : ({N > 8}|B)(B) (B|{N > 8}) = . ({N > 8}|A)(A) + ({N > 8}|B)(B) Probabilits Arnaud Guyader - Rennes 2

38 Le texte nous apprend que obtient dune part :

Chapitre 1. Espaces probabiliss

(B) = 1/3, donc (A) = 2/3. Avec des notations naturelles, on


+ n=9

({N > 8}|B) =

1 qn = 10

+ n=9

9 10

n1

9 10

puisquon a reconnu une srie gomtrique de raison 9/10. Plus simple encore :

({N > 8}|A) = p9 + p10 =


Il vient donc

2 . 10

(B|E8 ) 0, 518.

Exercice 1.24 (Urne de Polya) Une urne contient 4 boules blanches et 6 boules noires. Une boule est tire au hasard puis on la replace dans lurne ainsi que 3 autres boules de la mme couleur que celle-ci (de sorte quil y a alors 13 boules dans lurne). On tire alors une nouvelle boule au hasard dans lurne. 1. Notons Bi (respectivement Ni ) lvnement : La boule tire au i-me tirage est blanche (respectivement noire). Le but est donc de calculer la probabilit (B2 ). Or la probabilit de tirer une boule blanche au second tirage est facile si on connat la composition de lurne avant ce tirage, do lide naturelle de conditionner par ce qui sest pass au premier tirage. Cest le principe de la formule des probabilits totales :

(B2 ) = (B2 |B1 )(B1 ) + (B2 |N1 )(N1 ) =


2. On veut cette fois calculer

4 4 6 2 7 + = . 13 10 13 10 5

(B2 |N1 ), ce qui peut se faire comme suit : (B2 N1 ) (B2 |N1 )(N1 ) 6 = = . (B2 ) (B2 ) 13

(N1 |B2 ) =

3. Gnralisation : lquation obtenue la premire question devient dans le cas gnral

(B2 ) =

B+x B B N B + = . B+N +x B+N B+N +x B+N B+N

Exercice 1.25 (Transmission bruite) 1. Pour que lvnement In+1 ait lieu, de deux choses lune : ou bien In tait ralis et le message a t bien transmis dans le (n + 1)-me canal, ou bien In tait ralis et le message a t mal transmis dans le (n + 1)-me canal. Cest en fait la formule des probabilits totales qui sapplique ici : (In+1 ) = (In+1 |In )(In ) + (In+1 |In )(In ), cest--dire :

(In+1 ) = (1 p)(In ) + p(1 (In )).


pn+1 = (1 p)pn + p(1 pn ) = (1 2p)pn + p.

2. On a donc la relation de rcurrence :

La condition initiale est p1 = 1 p, probabilit que le message nait pas t bruit dans le premier canal. Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs 3. On crit : vn+1 = un+1

39

1 1 = (1 2p)un + p , 2 2

1 et en remplaant un par vn + 2 , il vient vn+1 = (1 2p)vn , donc la suite (vn )n1 est gomtrique de raison (1 2p). On en dduit :

n {1, . . . , N }

vn = (1 2p)n1 v1 .

1 4. On a la mme relation pour pn que pour un = vn + 2 et puisque p1 = (1 p), on en dduit que : 1 1 n {1, . . . , N } pn = + p (1 2p)n1 . 2 2

5. Pour dterminer limN + pN , on peut distinguer 3 cas :

(a) p = 0 : la transmission est able et on retrouve bien sr pN = 1 pour tout N .

(b) p = 1 : chaque passage dans un canal change de faon certaine le message, donc pN dpend de la parit du nombre de canaux : p2N = 1 et p2N +1 = 0. (c) 0 < p < 1 : contrairement aux deux situations prcdentes, on est dans le cas dun bruitage alatoire. On remarque que limN + (1 2p)N 1 = 0 et limN + pN = 1 2 . Ceci signie que ds que le nombre de canaux devient grand, on est incapable de retrouver le message initial de faon able : autant tirer pile ou face ! Cest le fameux principe du tlphone arabe. Exercice 1.26 (La roulette de la lose) Pour tout n {0, . . . , 100}, on note pn la probabilit que A nisse ruin sil commence avec ne et B avec (100 n)e. 1. On a bien sr p0 = 1 et p100 = 0. 2. Supposons que A commence avec ne avec 0 < n < 100 : la premire partie, ou bien il gagne (ce qui arrive avec probabilit p) et la probabilit quil se ruine ensuite devient pn+1 , ou bien il perd (ce qui arrive avec probabilit (1 p)) et la probabilit quil se ruine ensuite devient pn1 . La formule des probabilits totales scrit donc : pn = p pn+1 + (1 p) pn1 . 3. Si pour tout n {0, . . . , 100}, on admet que : pn = + 1p p
n

il nous reste simplement dterminer et grce aux conditions aux bords p0 = 1 et p100 = 0. Notons = 1p an dallger les notations. On a donc rsoudre le systme p linaire de deux quations deux inconnues : + =1 + 100 = 0 Ceci donne nalement : n {0, . . . , 100} pn = 100 n . 100 1
100 50 . 100 1

= =

100 100 1 1 100 1

4. La probabilit que A nisse ruin en commenant avec 50e est donc p50 = Probabilits

Arnaud Guyader - Rennes 2

40

Chapitre 1. Espaces probabiliss 5. A la roulette, la probabilit de gain chaque partie est p = 18/37, donc = 19/18, et la probabilit de nir ruin est : p50 94%. Il valait mieux en eet aller se promener ce jour-l...

6. Tant qu tre prt perdre 50e, le mieux (ou plutt : le moins pire) est de les miser en une seule fois. La probabilit de nir ruin est alors simplement p = 18/37. Exercice 1.27 (Loi de succession de Laplace) 1. La probabilit cherche scrit, en suivant lindication de lnonc : pN = (En+1 |En ) =

(En+1 En ) (En+1 ) = , (En ) (En )

la dernire galit venant de ce que En+1 En . Les deux termes se traitent alors de la mme faon, en dcomposant sur la partition {U0 , . . . , UN } :

(En ) =

N k=0

(En |Uk )(Uk ) =

1 N +1

N k=0

(En |Uk ),

le terme N 1 venant de lquiprobabilit pour le choix de lurne dans laquelle on pioche. Il +1 reste voir que si on pioche dans lurne Uk , la probabilit de tirer 1 boule rouge est k/N donc la probabilit de tirer n boules rouges la suite est (k/N )n . On a donc : pN =
1 N +1 1 N +1 N n+1 k=0 (k/N ) . N n k=0 (k/N )

2. Pour trouver la limite de (pN ) lorsque le nombre N durnes tend vers linni, il sut dappliquer le rsultat sur les sommes de Riemann : 1 N +1 On en dduit :
N N

(k/N )n =
k=0

N N +1

1 N

(k/N )n
k=1

xn dx =

1 . n+1

lim pN =

n+1 . n+2

Exercice 1.28 (Il Padrino) 1. A et B sont indpendants si et seulement si (A B) = gnral on sait par la formule dadditivit forte que :

(A)(B) = 0.09. Or dans le cas

(A B) = (A) + (B) (A B) = 0.1 + 0.9 0.91 = 0.09,


donc A et B sont bien indpendants. 2. (a) Dans le cas dun paquet group, dire quun cadeau au moins est bien arriv signie que le colis est bien arriv, donc une probabilit p = 0.9. Dans le cas de deux paquets spars indpendants, on cherche la probabilit complmentaire, cest--dire la probabilit quaucun paquet narrive : p = 0.1 0.1 = 0.01, donc la probabilit quau moins un des deux arrive est p = 0.99. (b) Dans le cas dun paquet group, la probabilit est la mme quen question prcdente, cest--dire p = 0.9. Dans le cas de deux paquets spars indpendants, la probabilit est cette fois p = 0.9 0.9 = 0.81. Arnaud Guyader - Rennes 2 Probabilits

1.5. Corrigs 3. On considre trois vnements (mutuellement) indpendants A, B et C tels que (A) = 0.8, (B) = 0.5 et (C) = 0.2. Pour calculer (A B C), deux solutions : ou bien on passe par la formule dinclusion-exclusion (Poincar) :

41

(A B C) = (A) + (B) + (C) ((A B) + (A C) + (B C)) + (A B C)


et on utilise lindpendance pour valuer les probabilits des intersections. Ou bien on passe par le complmentaire :

(A B C) = 1 (A B C) = 1 (A B C),
en se souvenant que lindpendance de A, B et C quivaut lindpendance de leurs complmentaires, do : (A B C) = 1 (A)(B)(C), cest--dire :

(A B C) = 1 (1 (A))(1 (B))(1 (C)) = 0.92.


Exercice 1.29 (Circuit lectrique) Avec des notations videntes, on cherche en fait (A B C), avec A, B et C indpendants. On applique donc la mthode de lexercice prcdent :

(A B C) = 1 (1 (A))(1 (B))(1 (C)).


Il reste voir que par indpendance sur chaque branche on a (A) = (A1 )(A2 ) = 0.45, (B) = (B1 )(B2 )(B3 ) = 0.108 et (C) = (C1 ) = 0.7, ce qui donne au total (A B C) 0.85. Exercice 1.30 (Le bandit manchot) Une machine sous a trois roues indpendantes, chacune ayant 20 symboles apparaissant de faon quiprobable lorsquelle sarrte de tourner. Les roues de droite et de gauche sont identiques, avec seulement une cloche sur les 20 symboles. La roue du centre est dirente et compte 9 cloches. 1. Notons p3 la probabilit de remporter le jackpot, alors : p3 = 9 1 9 1 = . 20 20 20 8000

2. Notons p2 la probabilit davoir 2 cloches mais pas le jackpot, alors par le mme raisonnement : 353 1 9 19 1 11 1 19 9 1 + + = . p2 = 8000 8000 8000 8000 3. Si au lieu dune rpartition 1-9-1 des cloches, il y a une rpartition 3-1-3, notons p et p les 2 3 nouvelles probabilits. On trouve cette fois : p = 3 et p = 2 1 3 9 3 = , 20 20 20 8000

3 1 17 3 19 3 17 1 3 273 + + = . 8000 8000 8000 8000 Ainsi la probabilit de remporter le jackpot est inchange (en moyenne le propritaire du casino gagne autant de ce point de vue), mais la conguration avec seulement 2 cloches apparat plus souvent avec le premier systme, ce qui peut encourager un client naf continuer de jouer. Le propritaire du casino optera donc plutt pour la rpartition 1-9-1 que 3-1-3. Probabilits Arnaud Guyader - Rennes 2

42

Chapitre 1. Espaces probabiliss Exercice 1.31 (Les ares des escales) Notons tout dabord A lvnement : Absence de la valise Paris. Notons encore LA (resp. N Y et L) lvnement : La valise est reste Los Angeles (resp. New York et Londres.) On cherche donc (LA|A) (resp. (N Y |A) et (L|A)). Pour la probabilit que la valise soit reste Los Angeles, il sut dinverser le conditionnement :

(LA|A) =

(A|LA)(LA) . (A)

On a (A|LA) = 1, (LA) = p et la probabilit que le bagage narrive pas Paris se calcule facilement par passage au complmentaire : (A) = 1 (A) = 1 (1 p)3 . Tout ceci donne au total : p (LA|A) = . 1 (1 p)3 On raisonne de mme pour calculer la probabilit que le bagage soit rest New York :

(N Y |A) =

(A|N Y )(N Y ) , (A)

avec nouveau (A|N Y ) = 1 et (A) = 1 (1 p)3 . Il reste voir que pour que le bagage soit rest New York, il a d quitter Los Angeles, ce qui arrive avec probabilit (1 p) puis tre rest New York, ce qui arrive avec probabilit p. Ainsi (N Y ) = p(1 p) et :

(N Y |A) =

p(1 p) . 1 (1 p)3

De la mme faon, la probabilit quil soit rest Londres est :

(L|A) =
Remarquons quau total on a bien :

p(1 p)2 . 1 (1 p)3

(LA|A) + (N Y |A) + (L|A) = 1.


Exercice 1.32 (Une histoire de montres) Notons simplement 1 (resp. 2) lvnement : La premire (resp. la deuxime) montre marche, ainsi que HK (resp. S) lvnement : Le lot vient de Hong-Kong (resp. de Singapour). On cherche donc (2|1) et on commence par revenir la dnition de la probabilit conditionnelle :

(2|1) =
Pour calculer

(2 1) . (1)

(1) on applique alors la formule des probabilits totales avec la partition (HK, S) : (1) = (1|HK)(HK) + (1|S)(S).

En labsence dinformation, on suppose que le lot de montres a autant de chances de provenir de Hong-Kong que de Singapour, donc (HK) = (S) = 1/2. Ainsi on a :

(1) =

999 1 199 1 997 + = . 1000 2 200 2 1000

On procde de la mme faon pour calculer

(2 1) :
Probabilits

(2 1) = (2 1|HK)(HK) + (2 1|S)(S).
Arnaud Guyader - Rennes 2

1.5. Corrigs Il reste voir quune fois connue la provenance du lot, les vnements 1 et 2 sont indpendants, ce qui donne par exemple :

43

(2 1|HK) = (2|HK)(1|HK) =
Ainsi on arrive :

999 1000
2

(2 1) =
Finalement la probabilit cherche est : P (2|1) =
1 2

1 2

999 1000

199 200

999 2 + 1000 997 1000

199 2 200

994013 = 0.997. 997000

Exercice 1.33 (Un lphant a trompe normment) Notons Ci lvnement : Le chasseur i a atteint llphant, et 2 lvnement : Llphant a reu deux balles. On commence donc par chercher (C1 |2), qui scrit encore :

(C1 |2) =

(C1 2) . (2)

Le numrateur (C1 2) est la probabilit que llphant ait t tu de deux balles et que le premier chasseur lait manqu, cest--dire :

(C1 2) = (C1 C2 C3 ) = (C1 )(C2 )(C3 ) =

9 , 32

le passage de lintersection au produit venant du fait que les tirs sont indpendants. Il reste le dnominateur, pour lequel on dcompose lvnement 2 en disant que pour que llphant ait t atteint exactement deux fois, il faut que deux chasseurs laient atteint et que le troisime lait manqu, ce qui scrit :

(2) = (C1 C2 C3 ) + (C1 C2 C3 ) + (C1 C2 C3 ),


qui se calcule nouveau via lindpendance des trois tirs :

(2) =

13 3 1 3 1 1 3 1 1 1 + + = . 4 2 4 4 2 4 4 2 4 32

Finalement on a (C1 |2) = 9/13. Le mme raisonnement donne 1/13. On constate quon a bien :

(C2 |2) = 3/13 et (C3 |2) =

(C1 |2) + (C2 |2) + (C3 |2) = 1.


Exercice 1.34 (Octobre 2009) Cet exercice est corrig en annexe. Exercice 1.35 (Une urne composition variable) Une urne contient n boules blanches (n 5) et 10 boules noires. On tire au hasard et simultanment 10 boules de lurne. 1. La probabilit pn est la probabilit davoir tir 5 boules noires parmi les 10 et 5 boules 10 blanches parmi les n, et ce parmi Cn+10 tirages possibles, donc : pn = Probabilits
5 5 C10 Cn . 10 Cn+10

Arnaud Guyader - Rennes 2

44

Chapitre 1. Espaces probabiliss 2. Pour tout n 5, on obtient bien via la formule prcdente : pn+1 n2 + 2n + 1 = 2 . pn n + 7n 44 3. Pour connatre les variations de la suite de termes positifs (pn )n5 , il sut de comparer le rapport pn+1 /pn 1. On a : pn+1 1 n2 + 2n + 1 n2 + 7n 44 n 9. pn Remarquons quon a plus prcisment p9 = p10 , ainsi (pn )n5 est strictement croissante jusqu n = 9 et strictement dcroissante aprs n = 10 : p5 < p6 < < p9 = p10 > p11 > p12 > . . . Le maximum est atteint pour n = 9 et n = 10 : p9 = p10 0, 34. Exercice 1.36 (Les paris plus ou moins vaseux du Chevalier de Mr) 1. Premire rgle : Il est avantageux de parier sur lapparition dau moins un 6 en lanant un d quatre fois de suite. Il sut de montrer que la probabilit p dobtenir au moins un 6 sur quatre lancers est suprieure 1/2. Or la probabilit de nen obtenir aucun est : 1 p = (5/6)4 0.482 = p 0.518 Cette rgle est donc bien avantageuse en moyenne. 2. Seconde rgle : Il est avantageux de parier sur lapparition dau moins un double 6 en lanant deux ds vingt-quatre fois de suite. Notons p la probabilit dapparition au moins un double 6 en 24 lancers. Par le mme raisonnement que ci-dessus, on a : 1 p = (35/36)24 0.509 = p 0.491 Cette rgle nest donc pas avantageuse en moyenne. Exercice 1.37 (Tirages uniformes sur un segment) On tire un point au hasard sur le segment [0, 1]. 1. La probabilit que le nombre tir soit suprieur 3/4 est gale la longeur du segment [3/4, 1], cest--dire 1/4. 2. La probabilit quil soit suprieur 3/4 sachant quil est suprieur 1/3 est gale au rapport entre la longueur du segment [3/4, 1] et celle du segment [1/3, 1], cest--dire 3/8. 3. On tire deux points au hasard sur le segment [0, 1], indpendamment lun de lautre. (a) La probabilit que le plus petit des deux nombres soit suprieur 1/3 est gale la probabilit que les deux nombres soient suprieurs 1/3, donc p = 2/3 2/3 = 4/9.

(b) La probabilit p0 que le plus grand des deux nombres soit suprieur 3/4, sachant que le plus petit des deux est suprieur 1/3 scrit p0 = p1 /p, o p1 est la probabilit que le plus petit des deux est suprieur 1/3 et le plus grand des deux est suprieur 3/4. p1 est donc encore la probabilit que les deux nombres soient suprieurs 1/3 moins la probabilit quils soient tous les deux entre 1/3 et 3/4 : p1 = ([1/3, 1], [1/3, 1]) ([1/3, 3/4], [1/3, 3/4]) = do nalement : p0 = Arnaud Guyader - Rennes 2
39 64 .

2 2 5 5 13 = , 3 3 12 12 48

Probabilits

1.5. Corrigs Exercice 1.38 (La loi du minimum) 1. La probabilit Pk que le plus petit des numros obtenus soit suprieur ou gal k est la probabilit que tous les numros obtenus soient suprieurs ou gaux k, cest--dire N Pk = nk+1 . n 2. La probabilit pk que le plus petit des numros obtenus soit gal k est la probabilit Pk que le plus petit des numros obtenus soit suprieur ou gal k moins la probabilit Pk+1 que le plus petit des numros obtenus soit suprieur ou gal (k + 1), soit : k {1, . . . , n} pk = nk+1 n
N

45

nk n

3. Si on ne fait pas de remise entre les N tirages, alors avec les mmes notations que ci-dessus, on obtient tout dabord Pk = Do lon dduit : pk =
N N Cnk+1 Cnk N Cn N Cnk+1 N Cn

si N n k + 1 si N > n k + 1
N1 Cnk N Cn

si N n k + 1 si N > n k + 1

Exercice 1.39 (Evnements indpendants) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 1.40 (Un tirage en deux temps) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 1.41 (Pices dfectueuses) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 1.42 (Lets make a deal) Supposons, sans perte de gnralit, la conguration suivante : (V,C,C), cest--dire que la voiture est derrire la porte 1, les chvres derrire les portes 2 et 3. Le jeu se droule alors comme suit : 1. Sans changement de porte : (a) le spectateur choisit la porte 1, donc lanimateur ouvre indiremment lune des deux autres portes, et le spectateur gagne. (b) le spectateur choisit la porte 2, donc lanimateur ouvre la porte 3, et le spectateur perd. (c) le spectateur choisit la porte 3, donc lanimateur ouvre la porte 2, et le spectateur perd. 2. Avec changement de porte : (a) le spectateur choisit la porte 1, lanimateur ouvre indiremment lune des deux autres portes, le spectateur ouvre lautre et perd. (b) le spectateur choisit la porte 2, donc lanimateur ouvre la porte 3, le spectateur ouvre la porte 1 et gagne. (c) le spectateur choisit la porte 3, donc lanimateur ouvre la porte 2, le spectateur ouvre la porte 1 et gagne. Bilan des courses : sil change de porte, il gagne 2 fois sur 3, sinon seulement 1 fois sur 3. Il vaut donc mieux changer de porte !

Probabilits

Arnaud Guyader - Rennes 2

Chapitre 2

Variables alatoires discrtes


Introduction
Lorsque le rsultat dune exprience o intervient le hasard est valeurs dans un ensemble au plus dnombrable, on parle de variable alatoire discrte. Celles-ci sont compltement caractrises par les valeurs quelles peuvent prendre et les probabilits avec lesquelles elles les prennent. On dnit alors facilement diverses notions utiles en calcul des probabilits : fonction de rpartition, esprance, variance, indpendance, etc.

2.1

Loi dune variable discrte

Dans toute la suite, (, F, ) dsigne un espace probabilis. On rappelle quun ensemble X = (xi )iI est au plus dnombrable sil est ni ou dnombrable, cest--dire si on peut numrer tous ses lments sous la forme dune squence nie ou innie. Dans toute la suite, X sera typiquement un sous-ensemble ni de ou tout entier. La dnition qui suit peut sembler un peu abstruse, mais donne le bon cadre pour manipuler des quantits alatoires. Dnition 2.1 (Variable alatoire discrte) Soit X = (xi )iI un ensemble au plus dnombrable contenu dans X: est une variable alatoire discrte si i I {X = xi } := X 1 ({xi }) = { : X() = xi } F. (, F, ) X = (xi )iI X()

. Une application

Justions brivement le pourquoi de cette aaire : on aura besoin des probabilits du style (X = xi ), ou de probabilits faisant intervenir des unions dvnements {X = xi }. Un prrequis naturel est donc de sassurer que ces probabilits sont bien dnies, autrement dit que ces vnements sont bien dans la tribu F. Remarque. La notion de variable alatoire discrte est stable par toutes les oprations classiques sur les fonctions : la combinaison linaire, le produit, le minimum, le maximum de deux variables alatoires discrtes X et Y sont des variables alatoires discrtes. Ces proprits lmentaires tant plus fastidieuses dmontrer que diciles concevoir, on ninsistera pas plus. Exemples : 47

48

Chapitre 2. Variables alatoires discrtes 1. On lance un d quilibr : on gagne 1e si le numro est pair, on perd 1e sinon. Ceci peut tre modlis par lapplication X : (, F, ) X = {1, +1} avec = {1, 2, 3, 4, 5, 6}, F = P() et lquiprobabilit sur . Il est bien clair que les deux vnements {X = +1} = {2, 4, 6} et {X = 1} = {1, 3, 5} appartiennent F, cest--dire que X est bien une variable alatoire discrte. 2. On lance deux ds quilibrs et on sintresse leur somme. Celle-ci est une variable alatoire discrte X valeurs dans X = {2, . . . , 12}, = {(i, j), 1 i, j 6} tant muni de la tribu F = P() et de lquiprobabilit . On voit que la probabilit qui nous intresse nest pas tant sur lespace (, F) que la probabilit de prendre chacune des valeurs xi . Cest ce qui dnit la loi de X. Dnition 2.2 (Loi dune variable alatoire discrte) Soit X une variable alatoire discrte valeurs dans X = (xi )iI . La loi, ou distribution, de X est la famille des (pi )iI , avec : i I pi = (X = xi ). Exemples : 1. Lancer dun d : la loi de X est donne par p1 = p+1 = 1/2. On dit que X suit une loi uniforme sur lensemble {1, +1}. 2. Lancer de deux ds : la loi de X est donne par le vecteur ligne p = [p2 , . . . , p12 ] suivant : p= 1 2 3 4 5 6 5 4 3 2 1 , , , , , , , , , , . 36 36 36 36 36 36 36 36 36 36 36

Cette loi est illustre gure 2.1.

6 36

p7

1 36

p2 2 7 12

Figure 2.1 Loi de la somme de deux ds. Proprits 2.1 (Proprits de la loi dune variable discrte) Soit X une variable alatoire discrte valeurs dans X = (xi )iI et de loi (pi )iI , alors on a : (i) i I, 0 pi 1 ; (ii) iI pi = 1. Nous allons maintenant nous intresser une fonction de dans qui permet de caractriser aussi bien les valeurs prises par une variable alatoire discrte que sa loi : la fonction de rpartition. Arnaud Guyader - Rennes 2 Probabilits

2.2. Fonction de rpartition

49

2.2

Fonction de rpartition

Dnition 2.3 (Fonction de rpartition) Soit X une variable alatoire discrte. La fonction de rpartition de X est la fonction F dnie par : F :

x F (x) = (X x) =

i:xi x pi

(2.1)

Remarque. On trouve encore dans certains ouvrages la dnition : F (x) = (X < x). Cela ne change pas grand-chose, mais lusage tend plutt imposer la dnition que nous venons de donner. Exemples : 1. Lancer dun d : F ne prend que 3 valeurs, savoir 0 sur ] , 1[, 1/2 sur [1, +1[ et 1 sur [1, +[. 2. Lancer de deux ds : F est nouveau une fonction en escalier (voir gure 2.2). Elle vaut 0 sur ] , 2[, 1/36 sur [2, +3[, 3/36 sur [3, 4[, ..., 35/36 sur [11, 12[ et 1 sur [12, +[.

1
32 36 28 36 24 36 20 36 16 36 12 36 8 36 4 36

12

Figure 2.2 Fonction de rpartition pour la somme de deux ds.

Sur ces exemples, on peut dj constater certaines proprits communes aux deux fonctions de rpartition : monotonie, limites en , continuit droite, prsence de sauts. Le rsultat suivant assure leur gnralit. Proprits 2.2 (Proprits dune fonction de rpartition) Soit X une variable alatoire discrte valeurs dans X = (xi )iI . Sa fonction de rpartition F a les proprits suivantes : 1. F est croissante ; 2. limx F (x) = 0, limx+ F (x) = 1 ; 3. F est continue droite ; 4. x , Preuve. Probabilits Arnaud Guyader - Rennes 2

(X = x) = F (x) F (x ), o F (x ) = lim0+ F (x ).

50

Chapitre 2. Variables alatoires discrtes 1. Cette premire proprit dcoule de la monotonie de dvnements :

. Si x x , alors on a linclusion

{X x} = { : X() x} { : X() x } = {X x }, do : F (x) = (X x) (X x ) = F (x ).

2. Commenons par noter que, F tant croissante sur , elle admet des limites en et +. En particulier on a limx F (x) = limn+ F (n). Il sut alors dappliquer la continuit monotone dcroissante de en considrant la suite dcroissante dvnements (An )n0 dnie par An = {X n} :
n+

lim F (n) = lim

n+

(An ) =

An
n=0

= () = 0.

De mme, puisque limx+ F (x) = limn+ F (n), la limite en + sobtient via la continuit monotone croissante de applique la suite densembles Bn = {X n} :
n+

lim F (n) = lim

(Bn ) = n+

Bn
n=0

= () = 1.

3. F est continue droite signie que F est continue droite en tout point. Soit donc x0 un rel quelconque. Puisque F est croissante, elle admet une limite droite (ainsi qu gauche, dailleurs) en x0 , que lon note F (x+ ) = limn+ F (x0 + 1/n). Pour montrer quelle est 0 continue droite en ce point, il sut de montrer que limn+ F (x0 + 1/n) = F (x0 ). On utilise nouveau la continuit monotone dcroissante de , avec cette fois la suite dcroissante densembles (Cn )n1 dnie par Cn = {X x0 + 1/n}, ce qui donne :
n+

lim F (x0 + 1/n) = lim

n+

(Cn ) =

Cn
n=1

= (X x0 ) = F (x0 ).

4. On se sert nouveau de la continuit monotone dcroissante en remarquant que :


+ +

{X = x} =

n=1

{x 1/n < X x} =

Dn .
n=0

Or, par dnition dune fonction de rpartition, on a F (x) F (x ) = lim (F (x) F (x 1/n)) = lim
n+

(Dn ) = F (x) F (x 1/n), donc : (Dn ) =


+

n+

Dn
n=1

= (X = x).

La dernire proprit montre que les seuls endroits o F prsente des sauts sont ceux o X a des chances de tomber, la hauteur de chaque saut tant gale la probabilit de tomber en ce point. Ceci tait clair sur nos deux exemples prcdents (voir en particulier la gure 2.2).

2.3

Moments dune variable discrte

Dans toute cette section, comme prcdemment, X est une variable alatoire discrte valeurs dans X = (xi )iI et de loi (pi )iI . Arnaud Guyader - Rennes 2 Probabilits

2.3. Moments dune variable discrte

51

2.3.1

Esprance

Commenons par un rappel sur les sries : on dit que la srie numrique un est absolument convergente si la srie |un | est convergente. On sait que labsolue convergence dune srie implique sa convergence. Si la srie un est convergente, mais pas absolument convergente, on dit (1)n (dont la somme quelle est semi-convergente. Cest le cas de la srie harmonique alterne n vaut ln 2). Etant donn leurs problmes de commutativit, on fuira comme la peste les sries semi-convergentes. Dnition 2.4 (Esprance) On dit que la variable X admet une esprance si la srie cest--dire si :
iI

iI

xi pi est absolument convergente,

|xi |pi < +.

Si tel est le cas, on appelle esprance de X et on note E[X] la quantit : E[X] =


iI

xi (X = xi ) =
iI

xi p i .

Cette dnition semble un peu tordue : on commence par vrier une certaine condition et, si elle est vrie, on dnit lobjet qui nous intresse dune autre faon. Nous reviendrons plus loin sur la raison de tout ceci. Remarquons nanmoins ds prsent que si lensemble X des valeurs possibles de X est ni, il ny a rien vrier et lesprance de X est toujours dnie. Si X est inni mais contenu dans + ou dans , labsolue convergence quivaut la convergence, donc la vrication se fait en mme temps que le calcul de lesprance. Le cas critique est celui de X inni avec une innit de valeurs positives et une innit de valeurs ngatives (cf. le second contre-exemple ci-aprs). Terminologie. Le terme esprance est historique et d au fait que les probabilits sont nes des jeux dargent. On peut penser en particulier aux paris du Chevalier de Mr (cf. exercice 1.36) : celui-ci considrait par exemple, raison, que miser sur lapparition dau moins un 6 sur 4 lancers successifs dun d tait avantageux. Il avait donc lespoir dun gain positif en moyenne. Interprtation. Lesprance de X peut tre vue comme la moyenne des valeurs xi pondres par les probabilits pi , cest pourquoi on dit aussi moyenne de X pour parler de son esprance. En particulier, si X prend ses valeurs entre a et b (i.e. X [a, b]), on aura ncessairement a E[X] b. Exemples : 1. Lancer dun d : votre gain moyen est E[X] = (1) (X = 1) + 1 (X = 1) = 0. En moyenne, vous ne perdrez ni ne gagnerez donc rien ce jeu (rien dtonnant). 2. Lancer de deux ds : lesprance de la somme X des deux ds est E[X] = 2(X = 2) + + 12(X = 12) = . . . (petit calcul) = 7. Ce rsultat est bien naturel, la loi de X tant symtrique par rapport 7 (cf. gure 2.1). Lesprance apparat donc comme une mesure de tendance centrale. Probabilits Arnaud Guyader - Rennes 2

52

Chapitre 2. Variables alatoires discrtes 3. Loi de Poisson P(1) : on considre une variable alatoire X valeurs dans et dont la loi 1 est donne par pn = (X = n) = e1 /n! pour tout n 0. Son esprance est bien dnie et vaut : + + + + e1 n n n xn p n = E[X] = = e1 = e1 , n! n! n!
n=0 n=0 n=0 n=1

ce qui scrit encore :


+

E[X] = e1
n=1

1 = e1 (n 1)!

+ n=0

1 = e1 e = 1. n!

Ainsi une loi de Poisson de paramtre 1 a pour esprance 1. Nous verrons plus loin que ce rsultat se gnralise : si X suit une loi de Poisson de paramtre , alors E[X] = . Voyons maintenant deux situations o les choses ne se passent pas bien. Contre-exemples : 1. Considrons la variable alatoire X pouvant prendre les valeurs xn = (n+1) pour tout n 1, cest--dire que X = {2, 3, . . .} et dont la loi est donne par pn = (X = n+1) = 1/(n(n+1)). Commenons par remarquer que (pn )n1 est bien une loi de probabilit puisque :
+

pn =
n=1

1 = n(n + 1) n=1 n=1

1 1 n n+1

= 1,

puisquon reconnat dans la dernire expression une somme tlescopique. Lesprance de X nest pas dnie puisque la srie harmonique est divergente :
+ n=1 + +

|xn |pn =

xn p n =
n=1 n=1

1 = +. n

2. Plus retors : considrons la variable alatoire X pouvant prendre les valeurs xn = (1)n+1 (n+ 1) pour tout n 1, cest--dire que X = {2, 3, 4, 5, 6, 7, . . .} et dont la loi est donne par pn = (X = (1)n+1 (n + 1)) = 1/(n(n + 1)). La srie n1 xn pn , bien que convergente :
+

xn p n =
n=1

(1)n+1 = ln 2, n n=1

1 nest pas absolument convergente puisque n1 |xn |pn = n1 n est la srie harmonique. On ne parlera donc pas ici non plus de lesprance de la variable X.

Problme de commutativit. Supposons une seconde que dans lexemple prcdent on admette que X a une esprance et que celle-ci vaut ln 2, puisquaprs tout la srie est bien convergente :
+ n=1

xn pn = 2p2 3p3 + 4p4 5p5 + 6p6 + = 1

1 1 1 1 1 + + + = ln 2. 2 3 4 5 6

Considrons alors une variable Y valeurs dans Y = {2, 4, 3, 6, 8, 5, . . .} et dont la loi est donne par pn = (Y = (1)n+1 (n + 1)) = 1/(n(n + 1)). Ainsi Y prend les mmes valeurs que X et avec
1. On rappelle que pour tout x

, on a e

+ xn n=0 n! .

Arnaud Guyader - Rennes 2

Probabilits

2.3. Moments dune variable discrte les mmes probabilits : si lesprance de X tait dnie, on sattendrait donc logiquement ce quil en aille de mme pour Y , avec la mme valeur moyenne, cest--dire ln 2. Or on peut montrer que le fait de modier lordre de sommation change tout : 2p2 + 4p4 3p3 + 6p6 + = 1 + 1 1 1 3 + + = ln 2. 3 2 5 2

53

Ce coup de thtre est d au fait quune srie semi-convergente nest pas commutative. Or, comme on vient de le voir, ce phnomne nest pas du tout souhaitable si on veut dnir proprement la valeur moyenne dune variable alatoire, cest pourquoi on lexclut demble dans la dnition de lesprance. Revenons des choses moins pathologiques. Etant donn une variable X dont on connat la loi, il arrive souvent quon veuille calculer non seulement lesprance de X, mais lesprance dune fonction de X. Le rsultat suivant donne une faon trs simple de le faire. Thorme 2.1 (Thorme de transfert) Soit X une variable alatoire discrte et : une fonction, alors Y = (X) est encore une variable alatoire discrte et son esprance vaut : E[Y ] = E[(X)] =
iI

(xi )pi ,

sous rserve dabsolue convergence de cette srie. Preuve. Puisque X prend ses valeurs dans un ensemble au plus dnombrable X = (xi )iI , Y prend elle aussi ses valeurs dans un ensemble au plus dnombrable Y = (yj )jJ = (X ). Pour tout indice j de J, notons : Ej = {i I : (xi ) = yj }

et qj = (Y = yj ) = iEj pi . Puisque les (yj )jJ et les (qj )jJ dnissent la loi de Y , son esprance vaut tout bonnement : E[Y ] = yj qj =
jJ jJ

et puisque les (Ej )jJ forment une partition de I, on obtient en regroupant les deux symboles de sommation : E[Y ] = (xi )pi ,
iI

yj

iEj

pi =

jJ

iEj

(xi )pi ,

Dans ce qui prcde, toutes les manipulations de sommes sont justies par labsolue convergence de la srie iI (xi )pi . Moyen mnmotechnique. Pour calculer E[(X)] et non E[X], on a juste remplacer xi par (xi ) dans la formule de E[X]. Lintrt pratique de ce rsultat est le suivant : on na pas besoin de commencer par dterminer la loi de Y pour calculer son esprance, il sut tout simplement de transfrer la loi de X. Exemple. Soit X une variable alatoire discrte de loi uniforme (i.e. quiprobable) sur lensemble X = {2, 1, 0, 1, 2}. Considrons maintenant la variable Y = X 2 , dont on veut calculer lesprance. Si on ignore le rsultat prcdent, on doit commencer par trouver la loi de Y . Y prend ses Probabilits Arnaud Guyader - Rennes 2

54

Chapitre 2. Variables alatoires discrtes valeurs dans lensemble Y = {0, 1, 4} avec les probabilits respectives 1/5, 2/5 et 2/5. Ainsi son esprance vaut : 1 2 2 E[Y ] = 0 + 1 + 4 = 2. 5 5 5 Si on applique le rsultat prcdent, on calcule directement : E[Y ] = E[X 2 ] = (2)2 et les Athniens satteignirent. Proposition 2.1 (Linarit de lesprance) Soit X et Y deux variables alatoires admettant une esprance, a et b deux rels, alors la variable alatoire aX + bY admet aussi une esprance et celle-ci vaut : E[aX + bY ] = aE[X] + bE[Y ]. En particulier, on a : E[aX + b] = aE[X] + b. Preuve. Pour montrer que E[aX] = aE[X], il sut dappliquer le thorme de transfert : E[aX] =
iI

1 1 1 1 1 + (1)2 + 02 + 12 + 22 = 2, 5 5 5 5 5

axi pi = a
iI

xi pi = aE[X].

Il reste donc uniquement prouver que E[X +Y ] = E[X]+E[Y ]. On adopte les notations suivantes : la variable X prend les valeurs X = (xi )iI avec les probabilits (pi )iI , la variable Y les valeurs Y = (yj )jJ avec les probabilits (qj )jJ , la variable Z = (X + Y ) les valeurs Z = (zk )kK avec les probabilits (rk )kK . Enn, pour tout couple dindices (i, j) I J, on note pij = (X = xi , Y = yj ) la probabilit jointe. On a alors : E[Z] = zk rk =
kK kK

que lon peut casser en deux morceaux puisque zk = xi + yj : E[Z] =


(i,j)IJ

zk

(i,j):xi +yj =zk

pij =

kK

(i,j):xi +yj =zk

zk pij ,

(xi + yj )pij =
(i,j)IJ

xi pij +
(i,j)IJ

yj pij ,

et lide est de regrouper diremment les indices de sommation dans chacune des deux sommes : E[Z] =
iI

or on reconnat les pi dans la premire somme et les qj dans la seconde : E[Z] =


iI

xi

jJ

pij +

yj

pij

jJ

iI

xi p i +
jJ

yj qj = E[X] + E[Y ].

Prcisons que toutes les oprations eectues sur les sommes sont lgitimes en raison de labsolue convergence des deux sries xi pi et yj qj . Pour achever la preuve de la proposition, il reste vrier que, pour tout rel b, on a E[b] = b. Or b est la variable alatoire qui prend la seule valeur b avec probabilit 1, donc E[b] = b 1 = b. Arnaud Guyader - Rennes 2 Probabilits

2.3. Moments dune variable discrte

55

En termes dalgbre linaire, ce rsultat dit la chose suivante : lensemble des variables alatoires discrtes admettant une esprance est un sous-espace de lespace des variables alatoires discrtes et lesprance est une forme linaire sur ce sous-espace. Le rsultat suivant montre que cest mme une forme linaire positive. Proposition 2.2 (Positivit de lesprance) Soit X et Y deux variables alatoires admettant une esprance et telles que X Y , alors : E[X] E[Y ]. En particulier, si X 0, i.e. si X ne prend que des valeurs positives, on a E[X] 0. Dire que X Y signie que pour tout , on a X() Y (), autrement dit : quel que soit ce qui se passe, on aura toujours X plus petit que Y . Preuve. Dire que X 0 est quivalent dire que xi 0 pour tout i I. Ainsi lesprance E[X] = iI xi pi est la somme de termes positifs, elle est donc positive. Par ailleurs, dire que X Y est quivalent dire que la variable Z = (Y X) est positive. Le point prcdent et la linarit de lesprance vue ci-dessus permettent den dduire que E[X] E[Y ]. Exemple : min & max. On jette simultanment deux ds et on appelle X (resp. Y ) le minimum (resp. le maximum) des deux numros obtenus. Il est bien clair que X Y et le rsultat ci-dessus nous assure, sans aucun calcul, que E[X] E[Y ]. Corollaire 2.1 (Esprance de la valeur absolue de X) La variable alatoire X admet une esprance si et seulement si la variable alatoire |X| en admet une, auquel cas : E[X] E[|X|]. Preuve. Par dnition, la variable alatoire X admet une esprance si et seulement si la srie iI |xi |pi est converiI xi pi est absolument convergente, cest--dire si et seulement si la srie gente. Or |X| est la variable alatoire prenant les valeurs (|xi |iI ) avec les probabilits (pi )iI . Donc elle admet une esprance si et seulement si la srie iI |xi |pi est (absolument) convergente. Lquivalence entre lexistence de E[X] et celle de E[|X|] est donc claire. Si cette existence est assure, il sut alors de remarquer que : X() |X()|

et dappliquer la proprit de positivit de lesprance pour en dduire que E[X] E[|X|]. Remarque. Le raisonnement ci-dessus montre de faon plus gnrale que si X Y et si Y admet une esprance, alors X aussi et E[X] E[Y ]. Ce passage par un majorant est aussi dusage constant en analyse, pour justier la convergence de sries numriques et celle dintgrales gnralises. Probabilits Arnaud Guyader - Rennes 2

56

Chapitre 2. Variables alatoires discrtes

2.3.2

Variance

Nous avons dit que lesprance est une mesure de tendance centrale. Nous allons voir maintenant une mesure de dispersion autour de cette valeur centrale : la variance. Dnition 2.5 (Variance & Ecart-type) Soit X une variable alatoire discrte admettant une esprance E[X]. La variance de X est dnie par : Var(X) = E[(X E[X])2 ] = (xi E[X])2 pi ,
iI

sous rserve de convergence de cette srie. On appelle alors cart-type, not (X), la racine de la variance : (X) = Var(X). Puisque la srie iI (xi E[X])2 pi est termes positifs, absolue convergence quivaut convergence. A nouveau, lorsque X ne prend quun nombre ni de valeurs, la variance est toujours dnie. Interprtation. De faon gnrale, la variance dune variable mesure la moyenne des carrs des carts sa moyenne. Si X reprsente une grandeur physique (donc ayant une dimension, par exemple une dure), alors lcart-type a la mme dimension que X, tandis que la variance a cette dimension au carr, ce qui la rend moins parlante en pratique. Le terme cart-type est dailleurs comprendre au sens cart typique dune variable sa moyenne. Nous y reviendrons plus loin. Exemples : 1. Lancer dun d : nous avons vu que E[X] = 0, sa variance vaut : Var(X) = (1 0)2 1 1 + (1 0)2 = 1. 2 2

2. Lancer de deux ds : lesprance de la somme X des deux ds est E[X] = 7 et sa variance est : 35 Var[X] = (2 7)2 (X = 2) + + (12 7)2 (X = 12) = . . . (petit calcul) = , 6 et son cart-type vaut donc (X) =
35 6

2, 4.

Il existe une autre formulation de la variance, qui permet ventuellement dallger les calculs : elle est connue sous le nom de formule de Knig, ou de Huygens-Knig, par analogie avec la formule de lnergie cintique dun systme en mcanique. Cest le premier point des proprits suivantes. Proprits 2.3 (Proprits de la variance) Soit X une variable alatoire discrte, alors sous rserve dexistence de sa variance on a : (i) Var(X) = E[X 2 ] E[X]2 . (ii) Si a et b sont deux rels, Var(aX + b) = a2 Var(X). (iii) Var(X) = 0 si et seulement si X est constante. Preuve. (i) Il sut dutiliser la linarit de lesprance : Var(X) = E[(X E[X])2 ] = E[X 2 2E[X]X + E[X]2 ] = E[X 2 ] 2E[E[X]X] + E[E[X]2 ], or E[X] est une quantit dterministe (i.e. non alatoire) donc il sut dappliquer les proprits vues en Proposition 2.1 : Var(X) = E[X 2 ] 2E[X]E[X] + E[X]2 = E[X 2 ] E[X]2 . Arnaud Guyader - Rennes 2 Probabilits

2.3. Moments dune variable discrte (ii) On applique nouveau la linarit de lesprance : Var(aX + b) = E[(aX + b E[aX + b])2 ] = E[(aX + b (aE[X] + b))2 ] = E[(aX aE[X])2 ], do : Var(aX + b) = E[(a(X E[X]))2 ] = E[a2 (X E[X])2 ] = a2 E[(X E[X])2 ] = a2 Var(X). (iii) On rappelle que la variable discrte X prend les valeurs xi avec les probabilits strictement positives pi . Supposons X de variance nulle :
iI

57

(xi E[X])2 pi = 0,

ainsi on a une srie de termes positifs dont la somme est nulle, ce qui nest possible que si tous les termes sont nuls, cest--dire si : i I (xi E[X])2 pi = 0 xi = E[X],

la dernire quivalence venant de ce que les pi sont tous supposs strictement positifs. Ainsi la seule valeur que prend X est sa moyenne, autrement dit cette variable alatoire est constante (autant dire quelle na pas grand-chose dalatoire...). La rciproque est clairement vraie : si X() = x0 pour tout , alors on vrie aisment que X admet une esprance et que celle-ci vaut bien sr E[X] = x0 , et par suite que la variance est nulle. Si on connat E[X], il sut daprs le point (i) de calculer E[X 2 ] pour obtenir la variance de X. Ceci peut parfois se faire simplement en remarquant que X 2 = X(X 1) + X, do il dcoule que E[X 2 ] = E[X(X 1)] + E[X]. Illustrons-le sur un exemple. Exemple : Loi de Poisson. Revenons sur lexemple o X P(1), loi de Poisson de paramtre 1. Nous avons montr que E[X] = 1, que vaut sa variance ? Puisquon connat E[X], on se contente de calculer E[X(X 1)], ce qui donne grce au thorme de transfert :
+

E[X(X 1)] = qui scrit encore :

n=0

n(n 1)

e1 = e1 n!

+ n=0

n(n 1) = e1 n!

+ n=2

n(n 1) , n!

E[X(X 1)] = e

1 1 = e1 = e1 e = 1, (n 2)! n! n=2 n=0

do lon dduit que E[X 2 ] = E[X(X 1)] + E[X] = 1 + 1 = 2 et Var(X) = E[X 2 ] E[X]2 = 2 1 = 1. Ainsi une variable qui suit une loi de Poisson de paramtre 1 a pour variance 1. On montrera plus gnralement que si X P(), alors E[X] = Var(X) = . Nous avons dit plus haut que lcart-type permet davoir une ide de lcart typique entre une variable alatoire et sa moyenne. Cette ide est prcise par la clbre ingalit de Tchebychev, galement appele ingalit de Bienaym-Tchebychev. Thorme 2.2 (Ingalit de Tchebychev) Soit X une variable alatoire discrte admettant une variance, alors : t > 0 Probabilits

(|X E[X]| t)

Var(X) . t2 Arnaud Guyader - Rennes 2

58

Chapitre 2. Variables alatoires discrtes Preuve. Puisquon peut voir cette ingalit comme un cas particulier de lingalit de Markov, nous donnerons sa preuve en section suivante.

Interprtation. Si on pose t = s(X), lingalit de Tchebychev se rcrit pour tout s > 0 :

(|X E[X]| s(X))

1 . s2

Si on voit lcart-type (X) comme une unit dcart, ceci dit que la probabilit quune variable sloigne de plus de s units dcart de sa moyenne est infrieure s1 . 2 Laspect remarquable de lingalit de Tchebychev est son universalit, puisquelle est vrie quelle que soit la loi de la variable X (si tant est bien sr que celle-ci admette une variance). Le prix payer est quelle ne donne souvent en pratique que de mdiocres majorations de la queue de distribution. Elle prend nanmoins toute sa puissance pour prouver des rsultats gnraux, cest par exemple la mthode typique de dmonstration de la loi faible des grands nombres. Exemple. Une application de lingalit de Tchebychev est donne en exercice 2.21.

2.3.3

Autres moments

On va maintenant gnraliser les notions desprance et de variance. Dnition 2.6 Soit X une variable alatoire discrte et m . Sous rserve dexistence, on appelle : (i) moment dordre m de X la quantit E[X m ] =
iI

xm p i ; i

(ii) moment centr dordre m de X la quantit E[(X E[X])m ] = (xi E[X])m pi .

iI

Ainsi lesprance de X est le moment dordre 1 et sa variance le moment centr dordre 2. Prcisons au passage un point de vocabulaire : on dit que X est une variable centre si E[X] = 0 et quelle est rduite si Var[X] = 1. Si X admet une variance non nulle, on dit quon centre et rduit X en considrant la variable Y = (X E[X])/(X). Le moment dordre 3 de Y est appel coecient dasymtrie (skewness) de X et le moment dordre 4 de Y est appel kurtosis, ou coecient daplatissement, de X. Proposition 2.3 Soit X une variable alatoire discrte, alors si X admet un moment dordre m , X admet des moments de tout ordre n {1, . . . , m}. Preuve. Eectuons une partition de lensemble I dindices en deux sous-ensembles E0 et E1 : E0 = {i I : |xi | 1} E1 = {i I : |xi | > 1} Arnaud Guyader - Rennes 2 Probabilits

2.3. Moments dune variable discrte Soit maintenant n {1, . . . , m}, il nous faut montrer la convergence de la srie i I Do il sort que : |xi |n pi = |xi |n pi + |xi |n pi pi +
iE0 iE1

59 |xi |n pi , or :

iI

|xi |n

1 si i E0 |xi |m si i E1

iI

iE0

iE1

|xi |m pi ,

et il suit :
iI

|xi |n pi

pi +
iI iI

|xi |m pi = 1 + E[|X|m ] < +,

donc laaire est entendue.

Lexistence dun moment dordre lev assure une dcroissance dautant plus rapide de la queue de la distribution de X linni, comme le montre lingalit de Markov. Thorme 2.3 (Ingalit de Markov) Soit X une variable alatoire discrte, alors si X admet un moment dordre m , on a : t > 0

(|X| t)

E[|X|m ] . tm

Preuve. Reprenons lide de la preuve ci-dessus, avec cette fois : E0 = {i I : |xi | < t} E1 = {i I : |xi | t} Remarquons demble que

(|X| t) =
iE0

iE1

pi , do lide de la dcomposition : |xi |m pi |xi |m pi ,

E[|X|m ] =

|xi |m pi +

iE1

iE1

or pour tout i E1 , |xi |m tm , donc : E[|X|m ] tm


iE1

pi = tm (|X| t).

Remarques : 1. Lnonc ci-dessus est en fait un peu plus gnral que ce quon appelle usuellement lingalit de Markov, savoir que pour toute variable X positive admettant une esprance, on a : t > 0

(X t)

E[X] . t

2. Soit Y une variable admettant une variance : lingalit de Tchebychev pour Y se retrouve en considrant X = (Y E[Y ]) et m = 2 dans le thorme ci-dessus. Probabilits Arnaud Guyader - Rennes 2

60

Chapitre 2. Variables alatoires discrtes

2.4

Corrlation et indpendance

Nous avons vu que lesprance est linaire, cest--dire que E[X + Y ] = E[X] + E[Y ]. On peut se demander si cette proprit est encore vraie pour la variance. La rponse est non en gnral et fait intervenir la notion de covariance entre variables alatoires. Dnition 2.7 (Covariance) Soit X et Y variables alatoires discrtes admettant des moments dordre 2. La covariance entre X et Y est dnie par : Cov(X, Y ) = E[(X E[X])(Y E[Y ])] = E[XY ] E[X]E[Y ]. Cette dnition ncessite quelques justications : 1. Il faut commencer par vrier que si E[X 2 ] et E[Y 2 ] existent, alors E[XY ] est bien dnie. Il sut pour a de partir de lidentit remarquable (|x| |y|)2 = x2 2|xy| + y 2 0 pour en dduire que : 2|X()Y ()| X 2 () + Y 2 () |X()Y ()| X 2 () + Y 2 (),

cest--dire succinctement : |XY | X 2 +Y 2 . Ainsi la variable alatoire |XY | est majore par une somme de variables admettant chacune une esprance, donc |XY | admet une esprance et idem pour XY . Le premier point est pli. 2. Le second point concerne lgalit entre les deux formulations de la covariance. Il rside tout simplement sur la linarit de lesprance et le fait que la moyenne dune variable constante est gale cette constante : E[(X E[X])(Y E[Y ])] = E[XY E[X]Y E[Y ]X + E[X]E[Y ]], do : E[(X E[X])(Y E[Y ])] = E[XY ] E[X]E[Y ] E[Y ]E[X] + E[X]E[Y ], ce qui donne bien au nal : E[(X E[X])(Y E[Y ])] = E[XY ] E[X]E[Y ]. Lexpression de droite est parfois appele formule de Knig, conformment la formule de la variance. On peut alors donner plusieurs proprits de la covariance. Proprits 2.4 (Quelques formules sur la covariance) Soit X et Y variables alatoires discrtes admettant des moments dordre 2. Alors : 1. Cov(X, Y ) = Cov(Y, X). 2. Cov(X, X) = Var(X). 3. pour tous rels a, b, c, d : Cov(aX + b, cY + d) = ac Cov(XY ). 4. Var(X + Y ) = Var(X) + 2Cov(X, Y ) + Var(Y ). Arnaud Guyader - Rennes 2 Probabilits

2.4. Corrlation et indpendance Preuve. Les deux premiers points sont vidents. Le troisime sobtient en appliquant la dnition de la covariance et en utilisant la linarit de lesprance. Dtaillons uniquement le dernier : Var(X +Y ) = E[(X +Y )2 ](E[X +Y ])2 = E[X 2 ]+2E[XY ]+E[Y 2 ](E[X]2 +2E[X]E[Y ]+E[Y ]2 ), et il sut de bien regrouper les termes : Var(X + Y ) = (E[X 2 ] E[X]2 ) + 2(E[XY ] E[X]E[Y ]) + (E[Y 2 ] E[Y ]2 ) pour arriver la formule voulue. Cette dmonstration montre que la dernire formule est bien sr lie lidentit remarquable vue dans les petites classes : (x + y)2 = x2 + 2xy + y 2 . Elle souligne en particulier que, dans le cas gnral, la variance nest pas linaire puisquon na pas Var(X + Y ) = Var(X) + Var(Y ). Nous allons maintenant prciser ce point. Dnition 2.8 (Coecient de corrlation) Soit X et Y variables alatoires discrtes admettant des variances non nulles. Le coecient de corrlation entre X et Y est dni par : (X, Y ) = Cov(X, Y ) . (X)(Y )

61

Si (X, Y ) = Cov(X, Y ) = 0, X et Y sont dites dcorrles, ce qui est quivalent dire que : Var(X + Y ) = Var(X) + Var(Y ). Exemple. Soit X qui suit une loi uniforme sur {1, 0, +1} et Y dnie par Y = X 2 . Alors il est clair que la variable alatoire XY = X 3 a la mme loi que X, do : E[XY ] = E[X] = 1 1 1 1 + 0 + 1 = 0, 3 3 3

donc sans mme calculer E[Y ] on a aussi E[X]E[Y ] = 0. Il sensuit que : Cov(X, Y ) = E[XY ] E[X]E[Y ] = 0, cest--dire que X et Y sont dcorrles. Le coecient de corrlation est aussi appel coecient de corrlation linaire, car il mesure en fait la linarit entre les deux variables X et Y . Cest ce quexplique le rsultat suivant. Proposition 2.4 (Ingalit de Cauchy-Schwarz) Soit X et Y variables alatoires discrtes admettant des moments dordre 2, alors : 1 (X, Y ) +1, avec plus prcisment : 2. (X, Y ) = +1 ssi (a, b) tels que Y = aX + b. + Probabilits 1. (X, Y ) = 1 ssi (a, b) tels que Y = aX + b ;

Arnaud Guyader - Rennes 2

62

Chapitre 2. Variables alatoires discrtes Preuve. La dmonstration la plus expditive de ce rsultat est base sur une ruse de sioux. Comme toute variable alatoire, la variable (tX + Y ) est de variance positive, et ce quel que soit le rel t, ce qui scrit encore : 0 Var(tX + Y ) = Var(tX) + 2Cov(tX, Y ) + Var(Y ) = t2 Var(X) + 2Cov(X, Y )t + Var(Y ), que lon peut voir comme un trinme en t. Or un trinme nest de signe constant que si son discriminant est infrieur ou gal 0, cest--dire : Cov(X, Y )2 Var(X)Var(Y ) 0 |(X, Y )| 1. Supposons (X, Y ) = +1, alors en remontant les quations ceci implique quil existe un rel t0 tel que Var(t0 X + Y ) = 0, donc il existe un rel b tel que t0 X + Y = b, cest--dire Y = t0 X + b. Dans ce cas t0 Cov(X, t0 X + b) = , (X, Y ) = (X)(t0 X + b) |t0 |

qui vaut 1 si et seulement si t0 est ngatif. Le mme raisonnement permet de conclure lorsque (X, Y ) = 1.

Remarque. Lingalit |Cov(X, Y )| (X)(Y ) nest rien de plus que lingalit de CauchySchwarz adapte au cadre des variables alatoires. Sa version gomtrique dans n muni du produit scalaire usuel et de la norme euclidienne est : pour tous vecteurs u et v de n , u, v u v . Le coecient de corrlation de deux variables alatoires est donc quivalent au cosinus de langle entre deux vecteurs. Interprtation. De faon gnrale, plus le coecient de corrlation est proche de 1 en valeur absolue, plus les variables X et Y sont linairement lies. Un coecient de corrlation nul signie donc que les deux variables ne sont pas linairement lies. Il nempche quelle peuvent tre lies par un autre type de relation : cest ce qui apparat clairement sur lexemple ci-dessus o Y = X 2 . Face ce constat, on aimerait dnir le fait quil nexiste aucune sorte de relation entre X et Y . La notion pertinente est alors celle dindpendance, dj rencontre dans le premier chapitre et adapte ici au cas des variables alatoires. Dnition 2.9 (Indpendance de deux variables) Soit X et Y variables alatoires discrtes valeurs respectives dans X = (xi )iI et Y = (yj )jJ . On dit que X et Y sont indpendantes si : (i, j) I J

(X = xi , Y = yj ) = (X = xi )(Y = yj ).

Concrtement, deux variables sont indpendantes si la valeur prise par lune na aucune espce dinuence sur la valeur prise par lautre. La notion dindpendance est omniprsente en probabilits. Un exemple parmi tant dautres est celui du lancer simultan de deux ds : il est clair que le rsultat X donn par lun est indpendant du rsultat Y donn par lautre. Voyons maintenant en quoi la notion dindpendance est plus forte que celle de dcorrlation. Proposition 2.5 (Indpendance Dcorrlation) Soit X et Y variables alatoires discrtes admettant des moments dordre 2. Si X et Y sont indpendantes, alors elles sont dcorrles. En particulier, on a alors : Var(X + Y ) = Var(X) + Var(Y ). Arnaud Guyader - Rennes 2 Probabilits

2.5. Lois usuelles Preuve. Lquivalent du thorme de transfert pour les couples de variables alatoires permet dcrire lesprance de XY de la faon suivante : E[XY ] =
(i,j)IJ

63

xi yj pij ,

o pij = (X = xi , Y = yj ) pour tout couple (i, j) I J. En notant pi = qj = (Y = yj ), lindpendance des deux variables donne alors pij = pi qj et : E[XY ] = xi yj pij = xi p i
(i,j)IJ iI

(X = xi ) et

autrement dit E[XY ] = E[X]E[Y ], ou encore Cov(X, Y ) = 0.

jJ

yj qj ,

Remarque. La rciproque est fausse en gnral. Pour sen assurer il sut de reprendre lexemple o X est uniforme sur {1, 0, +1} et Y = X 2 . On a vu que Cov(X, Y ) = 0, cest--dire que X et Y sont dcorrles. Mais elles ne sont pas indpendantes, puisquil sut par exemple de remarquer que : 1 1 (X = 0, Y = 0) = (X = 0) = = = (X = 0)(Y = 0). 3 9 Lindpendance entre variables alatoires se gnralise de faon naturelle plus de deux variables : n variables X1 , . . . , Xn sont (mutuellement) indpendantes si la valeur prise par lune na aucune inuence sur les valeurs prises par les autres : (x1 , . . . , xn ) X1 Xn

(X1 = x1 , . . . , Xn = xn ) = (X1 = x1 ) . . . (Xn = xn ).

La variance de la somme sera alors encore la somme des variances : Var(X1 + + Xn ) = Var(X1 ) + + Var(Xn ), tandis que dans le cas gnral on a :
n

Var(X1 + + Xn ) =

Var(Xi ) + 2
i=1 1j<kn

Cov(Xj , Xk ).

2.5

Lois usuelles

Nous recensons dans cette ultime section quelques lois discrtes classiques. Pour chacune sont prcises esprance, variance ainsi quventuellement certaines proprits particulirement saillantes.

2.5.1

Loi uniforme

On parle de loi uniforme ds lors quil y a quiprobabilit pour les valeurs prises par la variable alatoire. Dnition 2.10 (Loi uniforme) On dit que X suit une loi uniforme sur lensemble {1, . . . , n}, not X U{1,...,n} , si : k {1, . . . , n} Probabilits

(X = k) = .
Arnaud Guyader - Rennes 2

1 n

64

Chapitre 2. Variables alatoires discrtes Exemple. On lance un d quilibr et on note X le rsultat obtenu. On a alors X U{1,...,6} . Esprance et variance se calculent alors sans problme. Proposition 2.6 (Moments dune loi uniforme) Si X suit une loi uniforme sur lensemble {1, . . . , n}, alors : E[X] = n+1 2 & Var(X) = n2 1 . 12

Preuve. Pour lesprance, elle est base sur la formule de la somme des termes dune suite arithmtique :
n

1 + + n =

k=
k=1

n(n + 1) . 2

Pour plus de dtails, se reporter au corrig de lexercice 2.7. Pour la variance, on se sert de la formule de la somme des carrs :
n

12 + + n2 =

k2 =
k=1

n(n + 1)(2n + 1) , 6

laquelle se prouve en dveloppant successivement (1 + 1)3 , . . . , (n + 1)3 , en sommant le tout et en simpliant. Pour ce qui nous concerne, elle sapplique comme suit :
n

E[X 2 ] =
k=1

k2 1 = n n

k2 =
k=1

(n + 1)(2n + 1) , 6

do : Var(X) = E[X 2 ] E[X]2 = (n + 1)(2n + 1) 6 n+1 2


2

n2 1 . 12

1/6 1 2 3 4 5 6

Figure 2.3 Fonction de rpartition dune loi uniforme U{1,...,6} . Exemple. Pour le lancer dun d quilibr o X U{1,...,6} , on a donc E[X] = 3, 5 et Var(X) = donc (X) =
35 12 35 12

1, 7. La fonction de rpartition de X est reprsente gure 2.3.

Arnaud Guyader - Rennes 2

Probabilits

2.5. Lois usuelles

65

2.5.2

Loi de Bernoulli

On parle de loi de Bernoulli quand la variable dintrt est binaire. Dnition 2.11 (Loi de Bernoulli) On dit que X suit une loi de Bernoulli de paramtre p ]0, 1[, not X B(p), si X ne peut prendre que les valeurs 0 et 1, avec (X = 1) = p et (X = 0) = 1 p = q. Exemple. On lance une pice dsquilibre dont la probabilit dapparition de Pile est p. En notant X la variable alatoire valant 0 pour Face et 1 pour Pile, on a X B(p). Proposition 2.7 (Moments dune loi de Bernoulli) Si X suit une loi de Bernoulli de paramtre p, alors : E[X] = p Preuve. Laisse au lecteur. Remarque. Ltude de la fonction p p(1 p) sur ]0, 1[ montre que, parmi les lois de Bernoulli, celle ayant le plus de variance est celle de paramtre p = 1 . 2 Les variables de Bernoulli sont souvent la base de constructions plus sophistiques : lois binomiales, lois gomtriques, marche alatoire sur , etc. Ce sont dailleurs pour des variables de Bernoulli indpendantes et identiquement distribues (en abrg i.i.d.) quont t tablies les premires versions des 2 grands thormes de probabilits : la loi des grands nombres et le thorme central limite. & Var(X) = p(1 p).

2.5.3

Loi binomiale

La loi binomiale doit son nom aux coecients binomiaux intervenant dans sa dnition. Dnition 2.12 (Loi binomiale) On dit que X suit une loi binomiale de paramtres n et p ]0, 1[, not X B(n, p), si X est valeurs dans {0, 1, . . . , n} avec : k {0, 1, . . . , n}
k (X = k) = Cn pk q nk .

o q = (1 p) est introduit an dallger (un peu) les notations. La formule du binme de Newton permet de vrier quon dnit bien ainsi une loi de probabilit :
n k Cn pk q nk = (p + q)n = 1. k=0

Commenons par donner une faon naturelle de construire une loi binomiale B(n, p) partir dune loi de Bernoulli B(p). Proposition 2.8 (Lien Bernoulli-Binomiale) Soit n variables indpendantes X1 , . . . , Xn suivant la mme loi de Bernoulli B(p). Alors la variable X = X1 + + Xn suit une loi binomiale B(n, p). Preuve. Voir le corrig de lexercice 2.9. Probabilits Arnaud Guyader - Rennes 2

66

Chapitre 2. Variables alatoires discrtes

Exemple. On lance n fois de suite une pice dsquilibre dont la probabilit dapparition de Pile chaque lancer est p. En notant X la somme des rsultats Xi obtenus (Face valant 0 et Pile valant 1 comme ci-dessus), X reprsente donc simplement le nombre de Pile sur les n lancers et on a X B(n, p). Le lien Bernoulli-Binomiale rend lmentaires les calculs desprance et de variance dune loi binomiale : lesprance est linaire dans tous les cas et la variance lest ici puisque les variables X1 , . . . , Xn sont indpendantes. Proposition 2.9 (Moments dune loi binomiale) Si X suit une loi binomiale de paramtres (n, p), alors : E[X] = np & Var(X) = np(1 p) = npq.

2.5.4

Loi gomtrique

La loi gomtrique est la loi typique du temps dattente avant apparition dun certain vnement. Dnition 2.13 (Loi gomtrique) On dit que X suit une loi gomtrique de paramtre p ]0, 1[, not X G(p), si X est valeurs dans avec : n (X = n) = p(1 p)n1 = pq n1 . Le nom de cette loi vient bien sr du fait que la suite ((X = n))n1 est gomtrique de raison (1 p). Il ne faut donc pas confondre paramtre p de la loi G(p) et raison (1 p) de la suite ((X = n))n1 . Exemple. On lance un d quilibr et on appelle X lindice de la premire apparition du numro 5. La proprit de continuit monotone dcroissante permet de montrer que la probabilit que 5 napparaisse jamais est nulle, donc on exclut sans vergogne cette ventualit. Ceci fait, la variable alatoire X prend ses valeurs dans , avec : n

(X = n) =

1 6

5 6

n1

cest--dire que X G(1/6). Cet exemple est typique de la loi gomtrique : on rpte une exprience jusqu la ralisation dun vnement dont la probabilit de ralisation chaque coup est xe et gale p. Proposition 2.10 (Moments dune loi gomtrique) Si X suit une loi gomtrique de paramtre p, alors : E[X] = 1 p & Var(X) = 1p q = 2. p2 p

Preuve. Pour lesprance, voir le corrig de lexercice 2.11. Disons simplement quelle est base sur le dveloppement en srie entire suivant :
+

x ] 1, +1[ Arnaud Guyader - Rennes 2

nxn1 =
n=1

1 . (1 x)2 Probabilits

2.5. Lois usuelles Le calcul de la variance est lui-mme bas sur la drivation terme terme de ce dveloppement :
+

67

x ] 1, +1[

n=1

n(n 1)xn2 =

2 , (1 x)3

ainsi que sur lastuce dj vue consistant crire E[X 2 ] = E[X(X 1)] + E[X], ce qui donne ici :
+ +

E[X(X 1)] = do :

n=1

n(n 1)pq n1 = pq

n=1

n(n 1)q n2 ,

E[X(X 1)] =

et par suite : Var(X) = E[X(X 1)] + E[X] E[X]2 =

2pq 2q = 2, (1 q)3 p
q . p2

Exemple. Dans lexprience du lancer de d, le nombre moyen de lancers ncessaires pour voir apparatre le numro 5 est E[X] = 6. Lcart-type est (X) = 30 5, 5. Supposons toujours que vous commenciez lancer votre d jusqu apparition du numro 5 et quaprs 3 lancers le 5 ne soit toujours pas apparu. Question : quelle est la loi du nouveau temps dattente jusqu apparition du 5 ? Rponse : la mme quinitialement, i.e. une loi gomtrique de paramtre 1/6. Cette proprit, dite dabsence de mmoire, est typique de la loi gomtrique (parmi les lois discrtes). Proposition 2.11 (Absence de mmoire) Si X suit une loi gomtrique de paramtre p, alors : (m, n)

(X > m + n|X > m) = (X > n).

Preuve. Voir le corrig de lexercice 2.16. Remarque. Parmi les lois densit que nous verrons au chapitre suivant, la loi exponentielle est la seule possder cette proprit. Rien dtonnant dans cette histoire : la loi gomtrique peut tre vue comme la discrtisation en temps de la loi exponentielle.

2.5.5

Loi de Poisson

Par rapport aux sections prcdentes, on peine donner une modlisation vraiment lmentaire de la loi de Poisson. Nous allons donc la dnir brutalement. Dnition 2.14 (Loi de Poisson) On dit que X suit une loi de Poisson de paramtre > 0, not X P(), si X est valeurs dans avec : n n (X = n) = e . n! Les lois de Poisson de paramtres = 2 et = 20 sont reprsentes gure 2.4.

Probabilits

Arnaud Guyader - Rennes 2

68

Chapitre 2. Variables alatoires discrtes

0.28

0.09

0.08 0.24

P(2)

0.07

P(20)

0.20 0.06 0.16

0.05

0.12

0.04

0.03 0.08 0.02 0.04 0.01

0.00 0 1 2 3 4 5 6 7 8 9 10

0.00 0 4 8 12 16 20 24 28 32 36 40

Figure 2.4 Lois de Poisson P(2) et P(20). Rappel. Les calculs sur la loi exponentielle font intervenir le dveloppement en srie entire de lexponentielle, quil convient donc davoir en tte : x
+

e =
n=0

xn . n!

Ceci est en particulier utile pour le calcul des moments. Proposition 2.12 (Moments dune loi de Poisson) Si X suit une loi de Poisson de paramtre > 0, alors : E[X] = & Var(X) = .

Preuve. Les calculs ont t faits prcdemment dans le cas particulier o X P(1). La gnralisation ne pose aucun problme. Sous certaines conditions, la loi de Poisson peut tre vue comme une approximation de la loi binomiale. Proposition 2.13 (Lien Binomiale-Poisson) Soit (pN )N 0 une suite de rels compris entre 0 et 1 telle que limN N pN = > 0. Pour tout N 0, soit XN une variable alatoire suivant une loi binomiale B(N, pN ), alors : n Preuve. Voir le corrig de lexercice 2.6.

(XN = n) e
N

n . n!

Arnaud Guyader - Rennes 2

Probabilits

2.6. Exercices Ainsi, lorsque N est grand, on a XN P(). On dit que (XN )N 0 converge en loi vers une variable de loi de Poisson de paramtre . Cest parce quon peut la voir comme lapproximation dune loi binomiale lorsque le paramtre p est petit quon parle de loi des vnements rares pour la loi de Poisson. On considre souvent que lapproximation est acceptable pour n > 30 et np < 5. Exemple. Cette ide est illustre dans lexercice 2.22, traitant du surbooking dans les avions : 94 places sont vendues au lieu de 90, car chaque passager ayant rserv a une probabilit (faible, mais relle, estime ici 5%) de ne pas se prsenter pour lembarquement. Le nombre de passagers eectivement absents lenregistrement suit donc une loi binomiale B(94; 0, 05), qui peut tre approche par une loi de Poisson P(4, 7). Remarque. Si n est grand mais p nest pas trs petit (de sorte quon nait pas typiquement np < 5), cette approximation poissonienne nest plus valide. Nanmoins, on verra en n de chapitre 3 que le thorme central limite permet alors dapprocher la loi binomiale par une loi normale.

69

2.6

Exercices

Exercice 2.1 (Loi uniforme) 1. On jette une pice quilibre. On appelle X la variable alatoire qui vaut 0 si on obtient Face et 1 si on obtient Pile. Reprsenter la fonction de rpartition de X. 2. On jette un d quilibr et on appelle X le rsultat du lancer. Donner la loi de X et reprsenter sa fonction de rpartition. 3. De faon gnrale, on dit que U suit une loi uniforme sur lensemble {1, . . . , n} et on note U U{1,...,n} si pour tout i entre 1 et n : (U = i) = 1/n. Reprsenter la fonction de rpartition de U . 4. Lors dune visite mdicale, n patients de tailles direntes se prsentent devant le mdecin, et ce dans un ordre alatoire. On note X le rang de prsentation du plus grand dentre eux. Donner la loi de la variable X. Exercice 2.2 (Loi de Bernoulli) 1. On jette une pice dont la probabilit dapparition de Pile est 2/3. On appelle X la variable alatoire qui vaut 0 si on obtient Face et 1 si on obtient Pile. Reprsenter la fonction de rpartition de X. 2. De faon gnrale, on dit que X suit une loi de Bernoulli de paramtre p et on note X B(p) si X est valeurs dans {0, 1} avec : (X = 1) = p. Reprsenter la fonction de rpartition de X. 3. Dune urne contenant B boules blanches, N boules noires et 1 boule rouge, on tire simultanment n boules (avec bien sr n (B + N + 1)). On appelle X la variable alatoire gale 1 si la boule rouge est tire, 0 sinon : elle suit donc une loi de Bernoulli. Donner son paramtre. 4. Un tudiant avin sort de chez un ami un jeudi soir comme les autres Rennes. A linstant n = 0 il est en O et se dplace chaque instant entier de +1 ou de -1, et ce de faon quiprobable. Soit Yn la variable alatoire gale 1 si linstant 2n ltudiant se retrouve nouveau en son point de dpart, et Yn = 0 sinon. Donner le paramtre de cette loi de Bernoulli. Exercice 2.3 (Loi binomiale) 1. On lance n fois de suite une pice quilibre et on note X la somme des rsultats obtenus, avec la convention 0 pour Face et 1 pour Pile. Donner la loi de X. Probabilits Arnaud Guyader - Rennes 2

70

Chapitre 2. Variables alatoires discrtes 2. On dit que X suit une loi binomiale de paramtres n et p ]0, 1[ et on note X B(n, p) si X est valeurs dans {0, 1, . . . , n} avec pour tout k {0, 1, . . . , n} : pk = (X = k) = k Cn pk (1 p)nk . Vrier que cest bien une loi de probabilit, cest--dire que la somme des pk vaut bien 1. Quel lien peut-on faire entre une loi binomiale B(n, p) et la loi de Bernoulli B(p) ? 3. Dans un magasin il y a n clients et m caisses. Chaque client choisit une caisse au hasard et on appelle X le nombre de clients choisissant la caisse numro 1. Donner la loi de X.

Exercice 2.4 (Loi hypergomtrique) 1. Dans une population de taille N donne, la proportion favorable un candidat donn est p. An destimer p, on interroge un chantillon de n personnes et on appelle X le nombre dlecteurs favorables ce candidat dans cet chantillon. Donner la loi de X. 2. On dit que X suit une loi hypergomtrique de paramtres N , n {1, . . . , N } et p = 1 q ]0, 1[ et on note X H(N, n, p) si X est valeurs dans {0, 1, . . . , n} avec k {0, 1, . . . , n} pk = (X = k) =
nk k CN p CN q n CN

Vrier que cest bien une loi de probabilit, cest--dire que la somme des pk vaut bien 1. 3. Montrer que lorsque n est trs petit devant N , la loi hypergomtrique H(N, n, p) et la loi binomiale B(n, p) se ressemblent comme deux gouttes deau. Exercice 2.5 (Loi gomtrique) 1. On lance une pice quilibre jusqu la premire apparition de Pile. Quelle est la probabilit que Pile napparaisse jamais (on pourra appeler En lvnement : Pile napparat pas durant les n premiers lancers et appliquer la continuit monotone dcroissante) ? On exclut ce cas et on appelle X la variable correspondant la premire apparition de Pile. Donner la loi de X et reprsenter sa fonction de rpartition. 2. On lance un d quilibr et on appelle X la variable correspondant la premire apparition du numro 1 (avec la mme hypothse que dans la question prcdente). Donner la loi de X et reprsenter sa fonction de rpartition. 3. On dit que X suit une loi gomtrique de paramtre p ]0, 1[ et on note X G(p) si X est valeurs dans = {1, 2, . . .} avec pour tout n : pn = (X = n) = p(1 p)n1 . Vrier que cest bien une loi de probabilit, cest--dire que la somme des pn vaut bien 1. Quel lien peut-on faire entre la loi G(p) et la loi de Bernoulli B(p) ? Exercice 2.6 (Loi de Poisson) 1. On dit que X suit une loi de Poisson de paramtre et on note X P() si X est + valeurs dans avec : n n pn = (X = n) = e . n! Vrier que cest bien une loi de probabilit, cest--dire que la somme des pn vaut bien 1. 2. Reprsenter la suite des (pn )n0 pour = 2, puis pour = 20. 3. Soit > 0 x. On lance n fois une pice amenant Pile avec la probabilit pn = /n. Soit Xn le nombre de fois o Pile apparat durant ces n lancers.

(Xn = k). k (b) Pour k x entre 0 et n, montrer que limn (Xn = k) = e . Autrement dit, k!
(a) Quelle est la loi de Xn ? Rappeler en particulier lorsque n devient grand, la loi binomiale ressemble une loi de Poisson. Arnaud Guyader - Rennes 2 Probabilits

2.6. Exercices (c) Montrer que le rsultat prcdent est encore vrai si on suppose juste que :
n+

71

lim npn = .

4. Lors du championnat de France de Ligue 1 de football (saison 2004-2005), on a relev le nombre de buts marqus par quipe et par match lors de lensemble des 38 journes de championnat. En tout, 824 buts ont t marqus lors des 380 matchs disputs (cf. tableau ci-dessous). Soit X la variable correspondant au nombre de buts marqus par une quipe et par match. Dduire la loi de X du tableau. Via (X = 0), trouver un paramtre tel que la loi de X ressemble une loi de Poisson P(). Buts marqus par quipe et par match quipes ayant marqu ce nombre de buts 0 268 1 266 2 152 3 53 4 13 5 7 6 0 7 0 8 1 Total 760

Exercice 2.7 (Esprance dune loi uniforme) 1. On jette une pice quilibre. On appelle X la variable alatoire qui vaut 0 si on obtient Face et 1 si on obtient Pile. Donner lesprance de X. 2. On jette un d quilibr et on appelle X le rsultat du lancer. Que vaut E[X] ? 3. Rappeler ce que vaut la somme 1 + 2 + + n. En dduire lesprance de U lorsque U U{1,...,n} . 4. On reprend lexercice sur le gardien de nuit du chapitre 1, lequel a 10 cls pour ouvrir une porte. Dans le cas o il est jeun et limine chaque cl aprs un essai infructueux, quel est le nombre moyen dessais ncessaires pour ouvrir la porte ?

5. Soit m et n dans . Soit X une variable alatoire valeurs dans {1, 2, . . . , mn} et telle que i {1, 2, . . . , mn}, (X = i) = 1/m 1/n. (a) Dterminer m en fonction de n pour quon ait bien une loi de probabilit. (b) Dterminer E[X] et trouver n tel que E[X] = 7/2. Exercice 2.8 (Esprance dune loi de Bernoulli) 1. On jette une pice dont la probabilit dapparition de Pile est 2/3. On appelle X la variable alatoire qui vaut 0 si on obtient Face et 1 si on obtient Pile. Quelle est lesprance de X ? 3. Une roulette a 37 numros : 18 rouges, 18 noirs et 1 vert (le zro). (a) Si vous misez sur une couleur et que cette couleur sort, vous rcuprez 2 fois votre mise, sinon vous perdez votre mise. Supposons que vous misiez 1e sur rouge, quel est votre bnce moyen ? (b) Si vous misez sur un numro (le zro tant exclu) et que ce numro sort, vous rcuprez 36 fois votre mise, sinon vous la perdez. Supposons que vous misiez 1e sur le 13, quel est votre bnce moyen ? Exercice 2.9 (Esprance dune loi binomiale) 1. Calculer E[X] lorsque X suit une loi binomiale B(n, p) (on pourra sinspirer de lexercice V du TD1). 2. Soit X1 , . . . , Xn n variables alatoires indpendantes et identiquement distribues (en abrg i.i.d.) suivant la loi de Bernoulli B(p). Rappeler la loi de X = X1 + + Xn . Retrouver alors le rsultat de la question prcdente. 3. Soit X1 , . . . , Xn+m variables alatoires i.i.d. suivant la loi de Bernoulli B(p). Loi de X = X1 + + Xn ? Loi de Y = Xn+1 + + Xn+m ? Loi de Z = X + Y ? Probabilits Arnaud Guyader - Rennes 2 2. De faon gnrale, que vaut E[X] lorsque X B(p) ?

72

Chapitre 2. Variables alatoires discrtes 4. Soit X une variable alatoire qui suit une loi binomiale B(n, 1/2). Chaque ralisation de X est ache sur un compteur qui est dtraqu comme suit : si X nest pas nul, le compteur ache la vraie valeur de X ; si X est nul, le compteur ache un nombre au hasard entre 1 et n (i.e. tir suivant une loi U{1,...,n} ). Soit Y la variable alatoire gale au nombre ach. Dterminer la loi de Y et son esprance. Exercice 2.10 (Esprance dune loi hypergomtrique) 1. On considre n et N dans avec n N et p ]0, 1[ tel que N p . Pour xer les ides, notre modle est celui dune population de taille N dans laquelle N p votants sont favorables au candidat A. An destimer p on tire au hasard sans remise n individus dans la population et on appelle X le nombre de votants pour A dans cet chantillon. Rappeler la loi suivie par X. 2. On numrote de 1 N p les N p votants pour le candidat A. Pour tout k {1, . . . , N p}, on appelle Xk la variable alatoire qui vaut 1 si lindividu k fait partie de lchantillon, 0 sinon. (a) Donner la relation entre X et X1 , . . . , XN p . (b) Montrer que E[X1 ] = n/N . En dduire que E[X] = np. Comparer la moyenne dune variable alatoire distribue suivant une loi binomiale B(n, p).

3. On tire au hasard et sans remise 5 cartes dun jeu de 32 cartes. Soit X la variable alatoire gale au nombre de rois obtenus. Donner sans calculs la loi et lesprance de X. Exercice 2.11 (Esprance dune loi gomtrique) On rappelle que pour tout x ]1, +1[, on a + nxn1 = n=1
1 (1x)2

et

+ n2 n=1 n(n1)x

2 . (1x)3

1. On lance un d quilibr et on appelle X la variable correspondant la premire apparition du numro 1. Rappeler la loi de X et calculer E[X].

3. On reprend lexercice sur le gardien de nuit du TD1, lequel a 10 cls pour ouvrir une porte. Dans le cas o il est ivre et remet chaque cl dans le trousseau aprs un essai infructueux, quel est le nombre moyen dessais ncessaires pour ouvrir la porte ? 4. On considre des polygones convexes dont le nombre N de cts est une variable alatoire ayant pour loi (N = n) = 22n pour tout n 3. Quel est lesprance du nombre de cts du polygone ? Quel est lesprance du nombre de diagonales du polygone ? Exercice 2.12 (Esprance dune loi de Poisson) 1. Soit X une variable alatoire qui suit une loi de Poisson de paramtre . Montrer que + E[X] = . 3. Un athlte tente de franchir des hauteurs successives numrotes 1,2,. . . , n, . . . Il a le droit un seul essai par hauteur, sil choue il est limin. On suppose que les sauts sont indpendants les uns des autres et que la probabilit de succs au n-me saut est rn = 1/n pour tout n . On note X la variable alatoire gale au numro du dernier saut russi. (a) Montrer que n : pn = (X = n) = n/(n + 1)!. Via lcriture n = (n + 1) 1, vrier quon a bien + pn = 1. n=1 (b) Montrer que E[X + 1] = e. En dduire E[X]. Exercice 2.13 (Esprance dune loi arithmtique) Soit X une variable alatoire valeurs dans {0, 1, . . . , n} et telle que k {0, 1, . . . , n}, pk = (X = k) = k. 1. Dterminer pour que X soit eectivement une variable alatoire. Arnaud Guyader - Rennes 2 Probabilits 2. Toujours pour X P(), on considre alors la variable alatoire Y = eX . Calculer E[Y ].

2. Gnralisation : soit X G(p), que vaut E[X] ?

2.6. Exercices 2. On rappelle que


n 2 k=0 k

73 =
n(n+1)(2n+1) . 6

En dduire E[X].

Exercice 2.14 (Deux ds : somme et dirence) On lance deux ds quilibrs. On note U1 et U2 les variables alatoires correspondant aux rsultats obtenus. 1. Rappeler la loi de U1 , son esprance et sa variance. 2. On appelle X = (U1 + U2 ) la somme et Y = (U1 U2 ) la dirence des deux rsultats. Que valent E[X] et E[Y ] ? Montrer que E[XY ] = 0. 3. En dduire que X et Y sont dcorrles. Sont-elles indpendantes ? Exercice 2.15 (Deux ds : min et max) On lance deux ds quilibrs. On note U1 et U2 les variables alatoires correspondant aux rsultats obtenus. On appelle X = min(U1 , U2 ) le minimum et Y = max(U1 , U2 ) le maximum des deux ds. 1. Donner la loi de X. En dduire E[X]. 2. Exprimer X + Y en fonction de U1 et U2 . En dduire E[Y ]. 3. Exprimer XY en fonction de U1 et U2 . En dduire E[XY ], puis Cov(X, Y ). Exercice 2.16 (Memento (absence de mmoire)) Soit X G(p) loi gomtrique de paramtre p ]0, 1[.

1. Soit n . Exprimer (X > n) en fonction de p et n. Quel est le lien avec F (n), o F est la fonction de rpartition de X ?

2. En dduire la proprit dite dabsence de mmoire de la loi gomtrique, savoir que : (m, n)

(X > n + m|X > m) = (X > n).

Exercice 2.17 (Minimum de lois gomtriques) Soit X1 G(p1 ) o p1 ]0, 1[, X2 G(p2 ) o p2 ]0, 1[, avec X1 et X2 indpendantes. Notons X = min(X1 , X2 ) le minimum de ces deux variables. 1. Quelles sont les valeurs que peut prendre la variable alatoire X ? 2. Soit n . Exprimer

(X > n) en fonction de p1 , p2 et n. En dduire la loi de X.

3. Application : on a en main deux ds quon lance en mme temps jusqu ce quapparaisse le numro 2 sur au moins lun des deux ds. Quel est le nombre moyen de doubles lancers ncessaires ? 4. Gnralisation : soit n variables indpendantes X1 , . . . , Xn suivant des lois gomtriques de paramtres respectifs p1 , . . . , pn , avec pi ]0, 1[ pour tout i {1, . . . , n}. Donner la loi de la variable alatoire X = min(X1 , . . . , Xn ).

Exercice 2.18 (Un problme de natalit) Supposons qu la naissance, la probabilit quun nouveau-n soit un garon est de 1/2. Supposons encore que tout couple engendre jusqu obtention dun garon. Le but est de trouver la proportion de garons dans ce modle thorique. 1. Notons X le nombre denfants dun couple. Donner la loi de la variable alatoire X. 2. Soit P la proportion de garons parmi les enfants dun couple. Exprimer P en fonction de X. 3. En dduire que E[P ] = ln 2 0.69 (on rappelle que pour tout x [1, 1[, ln(1 x) = n + x ). n=1 n Probabilits Arnaud Guyader - Rennes 2

74

Chapitre 2. Variables alatoires discrtes Exercice 2.19 (Tirages de cartes) On note X la variable alatoire gale au nombre de rois obtenus lorsquon tire successivement 5 cartes avec remise dans un jeu de 32 cartes. Prciser la loi de X, son esprance et sa variance. Exercice 2.20 (Codage redondant) Un canal de transmission ne peut traiter que des 0 et des 1. En raison des perturbations sur ce canal, un 0 peut tre transform en 1 et un 1 en 0 lors dune transmission, et ce avec la mme probabilit p = 0, 2 indpendamment chaque instant. Pour diminuer la probabilit derreur, on dcide de transmettre 00000 la place de 0 et 11111 la place de 1 (codage dit redondant). Si le rcepteur dcode suivant la rgle de la majorit, quelle est la probabilit que le message soit mal interprt ? Exercice 2.21 (Ingalit de Tchebychev) On jette 3600 fois un d et on appelle S le nombre de fois o apparat le numro 1. 1. Quelle est la loi de S ? Donner sa moyenne et sa variance. 2. Exprimer sous forme dune somme la probabilit que ce nombre soit compris strictement entre 480 et 720. Grce lingalit de Tchebychev, minorer cette probabilit. Exercice 2.22 (Surbooking) Des tudes eectues par une compagnie arienne montrent quil y a une probabilit 0,05 quun passager ayant fait une rservation neectue pas le vol. Ds lors, elle vend toujours 94 billets pour ses avions 90 places. Quelle est la probabilit pour quil y ait un problme lembarquement ? Indication : pour lapplication numrique, on pourra eectuer lapproximation dune loi binomiale par une loi de Poisson. Exercice 2.23 (Mode(s) dune loi de Poisson) Soit X une variable alatoire qui suit une loi de Poisson de paramtre . Pour tout n , + on note pn = (X = n). 1. Former et simplier le rapport rn = pn+1 /pn . 2. En dduire le (ou les) mode(s) de la loi de Poisson P(), cest--dire la (ou les) valeur(s) de n telle(s) que la probabilit pn soit maximale. Indication : on distinguera les deux cas et . / Exercice 2.24 (Parit dune loi de Poisson) Soit x, on note : +
+

S1 =
k=0

2k (2k)!

&

S2 =
k=0

2k+1 . (2k + 1)!

1. Calculer (S1 + S2 ) et (S1 S2 ). En dduire S1 et S2 .

2. Application : le nombre N de clients entrant dans un magasin en une journe suit une loi de Poisson de paramtre . Pierre et Paul distribuent des prospectus aux clients, raison de 1 prospectus par client. Pierre parie qu la n de la journe, ils auront distribu un nombre pair de prospectus, tandis que Paul soutient quils en auront distribu un nombre impair. Qui gagne en moyenne ?

3. Soit X P(). On dnit la variable Y de la faon suivante : si X prend une valeur paire, alors Y = X/2 ; si X prend une valeur impaire, alors Y = 0. Dterminer la loi de Y , son esprance et sa variance. Exercice 2.25 (Esprance dune variable valeurs entires) Soit n x et X une variable alatoire valeurs dans {1, . . . , n}. Arnaud Guyader - Rennes 2 Probabilits

2.6. Exercices 1. Rappeler la dnition de E[X]. 2. Justier la formule E[X] = (X 1) + (X 2) + + (X n) =


n i=1

75

(X i).

3. On jette 4 ds quilibrs simultanment et on appelle X le minimum obtenu sur ces 4 lancers. (a) Quelles valeurs peut prendre la variable alatoire X ? (b) Calculer (c) En dduire E[X].

(X i) pour chaque valeur i que peut prendre X.

(d) Soit S la somme des 3 plus gros scores. Dterminer E[S] (on pourra remarquer que T = S + X, o T est le total des quatre ds).

(X i) la loi de X, cest--dire (X = i) pour chaque valeur i. 4. Gnralisation : soit X variable alatoire valeurs dans admettant une esprance.
(e) Dduire des (a) En vous inspirant de ce qui prcde, donner une nouvelle formulation de E[X] (on ne demande pas de justier la convergence de la srie). (b) On a quatre ds quilibrs en main quon lance en mme temps jusqu ce quapparaisse le numro 2 sur au moins lun des quatre ds. Quel est le nombre moyen de quadruples lancers ncessaires ? Exercice 2.26 (Somme de variables poissoniennes) Soit X1 P(1 ) et X2 P(2 ), avec X1 et X2 indpendantes. On note X = (X1 + X2 ) la somme de ces deux variables. 2. En dduire que X P(1 + 2 ). 1. Soit n x. Justier la dcomposition : {X = n} =
n k=0 {X1

= k, X2 = n k}.

3. Gnralisation : soit n variables indpendantes X1 , . . . , Xn suivant des lois de Poisson de paramtres respectifs 1 , . . . , n , avec i > 0 pour tout i {1, . . . , n}. Quelle est la loi de la variable X = X1 + + Xn ?

Exercice 2.27 (Boules blanches et noires) Un sac contient 8 boules blanches et 2 boules noires. On tire les boules les unes aprs les autres, sans remise, jusqu obtenir une boule blanche. On appelle X le nombre de tirages ncessaires pour obtenir cette boule blanche. 1. Quelles valeurs peut prendre la variable alatoire X ? 2. Donner la loi de X. 3. Reprsenter sa fonction de rpartition F . 4. Calculer E[X] et Var(X). Exercice 2.28 (Dfaut de fabrication) On admet que la probabilit de dfaut pour un objet fabriqu la machine est gale 0,1. On considre un lot de 10 objets fabriqus par cette machine. Soit X le nombre dobjets dfectueux parmi ceux-ci. 1. Comment sappelle la loi suivie par X ? 2. Que valent E[X] et Var(X) ? 3. Quelle est la probabilit que le lot comprenne au plus 1 objet dfectueux ? 4. Retrouver ce rsultat grce lapproximation par une loi de Poisson. Probabilits Arnaud Guyader - Rennes 2

76

Chapitre 2. Variables alatoires discrtes Exercice 2.29 (Recrutement) Une entreprise veut recruter un cadre. Il y a en tout 10 candidats se prsenter pour ce poste. Lentreprise fait passer un test au premier candidat, qui est recrut sil le russit. Sinon, elle fait passer le mme test au second candidat et ainsi de suite. On suppose que la probabilit quun candidat russisse le test est gale p, rel x compris entre 0 et 1. On appelle alors X la variable alatoire valeurs dans {1, . . . , 11} qui vaut k si cest le candidat numro k qui est recrut, et 11 si aucun candidat nest recrut. 1. Calculer en fonction de p les probabilits aussi (X = 11).

(X = 1), (X = 2), . . . , P (X = 10). Dterminer

2. Comment doit-on choisir p pour que la probabilit de ne recruter personne soit infrieure 1% ? 3. Pour n x, on considre la fonction P dnie par :
n

P (x) = 1 + x + + x =

xj .
j=0

Exprimer sa drive P (x) sous la forme dune somme de n termes. 4. Pour x = 1, crire plus simplement P (x) (penser la somme des termes dune suite gomtrique). En dduire une autre expression de P (x), savoir : P (x) = nxn+1 (n + 1)xn + 1 . (1 x)2 1 (1 p)11 . p

5. Dduire des questions prcdentes que X a pour moyenne : E[X] =

6. Supposons maintenant quil ny ait pas seulement 10 candidats, mais un nombre inni, et que lon procde de la mme faon. Appelons Y le numro du candidat retenu. Quelle est la loi classique suivie par Y ? Rappeler son esprance. La comparer E[X] lorque p = 1/2. Exercice 2.30 (Lancer de d) Un d quilibr est lanc 10 fois de suite. Dterminer : 1. La probabilit dau moins un 6 sur les 10 lancers. 2. Le nombre moyen de 6 sur les 10 lancers. 3. La moyenne de la somme des rsultats obtenus lors des 10 lancers. 4. La probabilit dobtenir exactement deux 6 lors des 5 premiers lancers sachant quil y en a eu 4 sur les 10 lancers. Exercice 2.31 (Le d dyadique) On appelle d dyadique un d dont les faces sont numrotes respectivement 2, 4, 8, 16, 32, 64 (au lieu de 1, 2, 3, 4, 5, 6). On jette un d dyadique quilibr et on appelle X le rsultat obtenu. 1. Dterminer lesprance de X. 2. Calculer lcart-type de X. 3. Lorsque X1 et X2 sont deux variables indpendantes, que vaut Cov(X1 , X2 ) ? 4. On jette maintenant deux ds dyadiques quilibrs et on appelle Y le produit des rsultats obtenus. Calculer lesprance de Y . 5. (Bonus) Calculer

(Y < 20).
Probabilits

Arnaud Guyader - Rennes 2

2.6. Exercices Exercice 2.32 (Rpartition des tailles) On suppose que dans une population, 1% des gens mesure plus de 1m90. Supposons que vous tiriez au hasard (avec remise) 200 personnes dans cette population. Appelons X le nombre de personnes de plus de 1m90 dans votre chantillon. 1. Quelle est la loi de X ? 2. Par quelle loi peut-on lapprocher ? 3. Quelle est la probabilit que dans votre chantillon, au moins 3 personnes mesurent plus de 1m90 ? Exercice 2.33 (Poisson en vrac) On considre une variable X distribue selon une loi de Poisson de paramtre > 0. Exprimer en fonction de : 1. E[3X + 5]. 2. Var(2X + 1). 3. E
1 X+1

77

Exercice 2.34 (Jeu dargent) Un jeu consiste tirer, indpendamment et avec remise, des tickets dune bote. Il y a en tout 4 tickets, numrots respectivement -2, -1, 0, 3. Votre gain X lors dune partie correspond la somme indique sur le ticket. Par exemple, si vous tirez le ticket numrot -2, alors X = 2 et vous devez donner 2 e, tandis que si vous tirez le ticket 3, alors X = 3 et vous gagnez 3 e. 1. Donner la loi de X. Calculer son esprance et sa variance. 2. Vous jouez 100 fois de suite ce jeu et on note S votre gain aprs 100 parties. En notant X1 le gain la premire partie, X2 le gain la deuxime partie, ..., X100 le gain la centime partie, exprimer S en fonction des Xi . 3. En dduire lesprance de S et sa variance. 4. Par quelle loi normale peut-on approcher S ? En dduire la probabilit que votre gain sur 100 parties dpasse 25 e. Exercice 2.35 (Rubrique brac) 1. Soit T une variable alatoire suivant une loi gomtrique de paramtre p, 0 < p < 1. Rappeler la loi de T , son esprance et sa variance. 2. Vous demandez des personnes choisies au hasard dans la rue leur mois de naissance jusqu en trouver une ne en dcembre. Quel est (approximativement) le nombre moyen de personnes que vous allez devoir interroger ? 3. On jette une pice quilibre et on appelle X le nombre de lancers ncessaires pour que Pile apparaisse. Quelle est la loi de X ? 4. Grce aux moments de X, montrer que
+ n2 n=1 2n

= 6.

5. Alice et Bob jouent au jeu suivant : Alice lance une pice quilibre jusqu ce que Pile apparaisse. Si Pile apparat ds le premier lancer, Bob lui donne 4 e ; si Pile napparat quau deuxime lancer, Bob lui donne 1 e ; si Pile napparat quau troisime lancer, elle donne 4 e Bob ; si Pile napparat quau quatrime lancer, elle donne 11 e Bob, etc. De faon gnrale, le gain dAlice si Pile napparat quau n-me lancer est 5 n2 . Notons G la variable alatoire correspondant ce gain. (a) Calculer la probabilit quAlice perde de largent lors dune partie. (b) Calculer lesprance de G. Probabilits Arnaud Guyader - Rennes 2

78

Chapitre 2. Variables alatoires discrtes (c) Si vous deviez jouer une seule partie, prfreriez-vous tre la place dAlice ou la place de Bob ? Et si vous deviez en jouer 100 ? Exercice 2.36 (Ascenseur pour lchafaud) Un ascenseur dessert les 10 tages dun immeuble, 12 personnes le prennent au rez-de-chausse et chacune choisit un des 10 tages au hasard. 1. Soit X1 la variable alatoire valant 1 si au moins une personne choisit le 1er tage, 0 sinon. Calculer (X1 = 1) et en dduire la moyenne de X1 . 2. De faon gnrale, soit Xi la variable alatoire valant 1 si au moins une personne choisit ltage i, 0 sinon. Exprimer le nombre dtages auxquels lascenseur sarrte en fonction des Xi . En dduire le nombre moyen dtages auxquels lascenseur sarrte. 3. (Bonus) Gnralisation : montrer que pour t tages et n personnes, le nombre moyen dtages desservis est t(1 (1 1 )n ). Que devient cette quantit : t (a) lorsque t tend vers linni avec n x ? Interprter. (b) lorsque n tend vers linni avec t x ? Interprter.

2.7

Corrigs

Exercice 2.1 (Loi uniforme) 1. Notons F la fonction de rpartition de X. On a : 0 si x < 0 1 si 0 x < 1 F (x) = 2 1 si x 1

Cette fonction de rpartition est reprsente sur la gure 2.5 gauche. 2. La fonction de rpartition est reprsente sur la gure 2.5 au centre. 3. La fonction de rpartition est reprsente sur la gure 2.5 droite. 4. La variable X est valeurs dans {1, . . . , n}. Calculons la probabilit (X = 1) : il y a a priori n! ordres darrives possibles pour les n patients. Si le plus grand arrive en premier, il reste (n 1) patients qui arrivent ensuite dans un ordre alatoire, donc (n 1)! possibilits, donc au nal (X = 1) = (n 1)!/n! = 1/n. On voit que le raisonnement que lon vient de faire pour calculer (X = 1) est tout aussi valable pour (X = 2), (X = 3), etc. Ainsi X suit une loi uniforme sur {1, . . . , n}.

1/2 1/6 1 1 2 3 4 5 6 1/n 1 2 n

Figure 2.5 Fonctions de rpartition des lois uniformes U{0,1} , U{1,...,6} et U{1,...,n} .

Arnaud Guyader - Rennes 2

Probabilits

2.7. Corrigs Exercice 2.2 (Loi de Bernoulli) 1. Notons F la fonction de rpartition de X. On a : 0 si x < 0 1 si 0 x < 1 F (x) = 3 1 si x 1

79

Cette fonction de rpartition est reprsente sur la gure 2.6 gauche.

2. La fonction de rpartition est reprsente sur la gure 2.6 droite. 3. Si on ne tirait quune boule de lurne, on aurait 1 chance sur (N + B + 1) dobtenir la boule rouge. Si on en tirait 2, on multiplie nos chances par 2, etc. Si on en tire n, on multiplie nos chances par n, il y a donc n/(N + B + 1) chances que la boule rouge soit parmi les boules pioches. Ainsi X B(n/(N + B + 1)).

4. Il faut calculer la probabilit qu linstant 2n, ltudiant soit nouveau en son point de dpart. Pour a, il faut quil ait fait autant de dplacements vers la droite que vers la gauche. Il y a en tout 22n suites possibles de +1 et -1 de longueur 2n. Parmi celles-ci, seules nous n intressent celles o il y a exactement n fois +1. Or il y a C2n faons de placer ces +1 dans la suite de longueur 2n correspondant aux dplacements successifs de ltudiant. La probabilit n qu linstant 2n ltudiant soit nouveau son point de dpart est donc C2n /22n , donc n /22n ). X B(C2n

1 1p

1/3 1 1

Figure 2.6 Fonctions de rpartition des lois de Bernoulli B(2/3) et B(p). Exercice 2.3 (Loi binomiale) 1. La variable X est valeurs dans {0, 1, . . . , n}. Fixons donc k entre 0 et n et cherchons (X = k). Chaque n-uplet ayant la mme probabilit 2n dapparatre, il sut de compter combien de ces n-uplets comptent exactement k 1 et (n k) 0 : ceci revient choisir une k combinaison de k indices parmi n, il y en a donc Cn . On en dduit la loi de X : k {0, 1, . . . , n}

(X = k) =

k Cn . 2n

2. Pour vrier que cest bien une loi de probabilit, il sut dutiliser la formule du binme (do le nom de cette loi) :
n n

pk =
k=0 k=0

k Cn pk (1 p)nk = (p + (1 p))n = 1.

Considrons n variables X1 , . . . , Xn qui suivent toutes la mme loi de Bernoulli B(p) et indpendantes cest--dire que : (i1 , . . . , in ) {0, 1}n Probabilits

(X1 = i1 , . . . , Xn = in ) = (X1 = i1 ) . . . (Xn = in ).


Arnaud Guyader - Rennes 2

80

Chapitre 2. Variables alatoires discrtes Considrons alors la variable alatoire X = X1 + +Xn . Elle est valeurs dans {0, 1, . . . , n}. Fixons k entre 0 et n et cherchons (X = k). Pour que X = k, il faut que exactement k des variables Xi prennent la valeur 1 et (n k) la valeur 0, ce qui scrit :

(X = k) =
(i1 ,...,in ):i1 ++in =k

P (X1 = i1 , . . . , Xn = in ),

donc par lindpendance des Xi :

(X = k) =
(i1 ,...,in ):i1 ++in =k

(X1 = i1 ) . . . (Xn = in ). (X1 = i1 ) . . . (Xn = in ) est

Il sut alors de voir que lorsque i1 + + in = k, la quantit toujours la mme, gale pk (1 p)nk , donc :

(X = k) =
(i1 ,...,in ):i1 ++in =k

pk (1 p)nk = pk (1 p)nk #{(i1 , . . . , in ) : i1 + + in = k}.

Et comme on la vu plus haut, le nombre de n-uplets comptant exactement k 1 et (n k) k 0 est Cn , donc : k (X = k) = Cn pk (1 p)nk X B(n, p). Dit brivement, une loi binomiale B(n, p) peut tre vue comme la somme de n lois de Bernoulli B(p) indpendantes.

3. Associons chacun des n clients une variable Xi valant 1 sil choisit la caisse numro 1 et 0 sinon. Pour tout i entre 1 et n, Xi suit donc une loi de Bernoulli. Son paramtre est la probabilit que le client i choisisse la caisse numro 1, cest--dire 1/m, donc Xi B(1/m). Puisque les clients prennent leur dcision indpendamment les uns des autres, les variables Xi sont indpendantes. La variable X qui nous intresse, nombre total de clients opter pour la caisse numro 1, est alors tout simplement la somme des Xi . Par la question prcdente on en conclut que X B(n, 1/m). Exercice 2.4 (Loi hypergomtrique) 1. Supposons dentre que n N p et n N q, ce qui est le cas courant lorsque N est bien plus grand que n, et p pas trop petit. La variable X est alors valeurs dans {0, . . . , n}. Fixons maintenant k entre 0 et n. Puisquun chantillon de taille n < N est un tirage sans remise, n il y a en tout CN chantillons possibles. Parmi ceux-ci, seuls ceux ayant k votants pour le candidat donn et (n k) pour lautre nous intressent. Or dans la population totale il y a k N p votants pour le candidat donn et N (1 p) = N q votants pour lautre. Il y a donc CN p nk choix possibles dun ct et CN q de lautre. Tout ceci mis ensemble donne : k {0, . . . , n}

(X = k) =

nk k CN p CN q n CN

2. Supposons nouveau n N p et n N q. Pour vrier que cest bien une loi de probabilit, il sut de montrer que :
n k=0 nk k CN p CN q n CN

Remarque : Dans le cas gnral o on ne suppose plus n N p et n N q, X est valeurs dans {max(0, n N q), min(n, N p)} et la loi ci-dessus est encore valable.

1 = n CN

n nk k CN p CN q = 1. k=0

Arnaud Guyader - Rennes 2

Probabilits

2.7. Corrigs
n Or CN est le coecient de X n dans le polynme P (X) = (1 + X)N , polynme que lon peut encore crire : Np Nq

81

P (X) = (1 + X)N p (1 + X)N q =

i CN p X i

i=0

Le coecient de X n issu de ce produit sobtient en sommant les coecients binomiaux sur tous les couples dindices (i, j) tels que i + j = n, ce qui donne lgalit :
n nk n k CN p CN q = CN . k=0

j=0

j CN q X j .

3. On suppose n trs petit devant N , avec p ni tout proche de 0 ni tout proche de 1, ce qui est typiquement le cas des sondages politiques o N vaut plusieurs dizaines de millions, n environ un millier et p oscille entre 40% et 60%. Supposons que X H(N, n, p). On a alors pour tout k {0, . . . , n} :

(X = k) =
ce qui scrit encore :
k (X = k) = Cn

nk k CN p CN q n CN

(N p)! k!(N pk)!

(N q)! (nk)!(N q(nk))! N! n!(N n)!

Puisque n N , on a aussi k N p et (n k) N q, do les approximations suivantes :


k (X = k) = Cn pk q nk

(N p)(N p 1) . . . (N p k + 1) (N q)(N q 1) . . . (N q (n k) + 1) . N (N 1) . . . (N n + 1) (1
1 N p ) . . . (1

(1

et on arrive bien lapproximation dune loi hypergomtrique par une loi binomiale. Ceci est bien moral : on aurait exactement une loi binomiale si on faisait des tirages avec remise dans la population, or un sondage correspond un tirage sans remise (on ne sonde pas deux fois la mme personne). Cependant, lorsque lchantillon est de taille ngligeable par rapport la population totale, un tirage avec remise se comporte comme un tirage sans remise puisquil y a trs peu de chances quon pioche deux fois la mme personne. En pratique, on eectue lapproximation H(N, n, p) B(n, p) ds que n < N/10. Exercice 2.5 (Loi gomtrique) 1. Pour tout n , notons En lvnement : Pile apparat aprs le n-me lancer et A lvnement : Pile napparat jamais. On a clairement :
+

k1 1 N p ) (1 N q ) . . . (1 1 N ) . . . (1 n1 ) N

nk1 Nq )

k Cn pk q nk ,

A=
n=0

En

(A) =

En
n=0

et puisque (En )n0 est une suite dcroissante pour linclusion, on peut utiliser la continuit monotone dcroissante : (A) = limn+ (En ). Or pour que Pile apparaisse aprs le n-me lancer, il faut nobtenir que des Face lors des n premiers jets ce qui arrive avec probabilit 2n . Ainsi 1 (A) = lim n = 0, n+ 2 et on dit que A est un vnement ngligeable, cest pourquoi on lexclut dans la suite. La variable alatoire X est donc valeurs dans . Pour tout n , la probabilit que X soit gale n est la probabilit quon obtienne Face durant les (n 1) premiers lancers et Pile au n-me, ce qui arrive avec probabilit (X = n) = 2n . Probabilits Arnaud Guyader - Rennes 2

82

Chapitre 2. Variables alatoires discrtes 2. Par le mme raisonnement que ci-dessus, la variable X est valeurs dans , avec cette fois : n

(X = n) =

1 6

5 6

n1

3. Pour vrier que cest bien une loi de probabilit, on remarque que (pn ) forme une suite gomtrique de raison (1 p) donc on utilise la formule couteau suisse des sommes gomtriques, savoir : Somme = (1er terme crit - 1er terme non crit)/(1-la raison), ce qui donne dans notre cas : + p p1 0 = = 1. pn = 1 (1 p) p n=1 Soit (Xn )n1 une suite de variables alatoires indpendantes et identiquement distribues suivant la loi de Bernoulli B(p). Dnissons partir de celles-ci une nouvelle variable X comme le plus petit indice pour lequel Xn vaut 1 : X = min{n 1 : Xn = 1}. Comme on la vu ci-dessus, la probabilit quaucun des Xn ne soit gal 1 est nulle donc on exclut ce cas et X est alors une variable alatoire valeurs dans . Il nous reste trouver sa loi, or pour tout n :

(X = n) = (X1 = 0, . . . , Xn1 = 0, Xn = 1),


probabilit quon value facilement via lindpendance des Xi :

(X = n) = (X1 = 0) . . . (Xn1 = 0)(Xn = 1) = (1 p)n1 p,


et X suit donc une loi gomtrique de paramtre p. La loi gomtrique se rencontre typiquement dans les phnomnes dattente jusqu lapparition dun vnement. Exercice 2.6 (Loi de Poisson) 1. Rappelons que pour tout rel x on a
+

+ xn n=0 n!

= ex . Cest exactement ce qui sapplique ici :

e
n=0

n n = e = e e = 1. n! n! n=0

2. Les lois de Poisson pour = 2 et = 20 sont reprsentes gure 2.7. 3. Soit > 0 x. On lance n fois une pice amenant Pile avec la probabilit pn = /n. Soit Xn le nombre de fois o Pile apparat durant ces n lancers. (a) La loi de Xn est la loi binomiale B(n, pn ) = B(n, /n). En particulier : k {0, . . . , n}
k k (Xn = k) = Cn pk (1 pn)nk = Cn n k nk

(b) Pour k x entre 0 et n, on a :


k Cn

n! k!(n k)! 1 n

k k!

1 n
k

... 1

k1 n

k . k!

Dautre part :

nk

1 n

en ln(1/n) . Probabilits

Arnaud Guyader - Rennes 2

2.7. Corrigs

83

0.28

0.09

0.08 0.24

P(2)

0.07

P(20)

0.20 0.06 0.16

0.05

0.12

0.04

0.03 0.08 0.02 0.04 0.01

0.00 0 1 2 3 4 5 6 7 8 9 10

0.00 0 4 8 12 16 20 24 28 32 36 40

Figure 2.7 Lois de Poisson P(2) et P(20). Puisque ln(1 x) = x + o(x), on en dduit que le second terme tend vers e , tandis que le premier tend clairement vers 1, donc : 1 Le tout mis bout bout donne :
k Cn pk (1 pn )nk e n n

nk

e .
n

k . k!

Lorsque n devient grand, la loi binomiale ressemble une loi de Poisson. (c) Le rsultat prcdent est encore vrai si on suppose juste que limn+ npn = , puisque dune part : 1 k1 k (npn )k k , 1 ... 1 Cn p k = n n k! k! n n et dautre part : (1 pn )nk = (1 pn )k en ln(1pn ) e .
n

4. On considre donc une variable discrte X valeurs dans {0, 1, . . . , 8} et dont la loi p = [p0 , p1 , . . . , p8 ] sobtient en divisant les donnes du tableau par 760 : p= 268 266 152 53 13 7 1 , , , , , , 0, 0, , [0.353, 0.35, 0.2, 0.07, 0.017, 0.009, 0, 0, 0.001]. 760 760 760 760 760 760 760

Bien sr, supposer que X suit une loi de Poisson semble a priori un peu farfelu puisquune loi de Poisson prend ses valeurs dans tout entier, tandis que X les prend dans {0, 1, . . . , 8}. Nanmoins on voit en gure 2.7 que les probabilits pn dune loi de Poisson dcroissent Probabilits Arnaud Guyader - Rennes 2

84

Chapitre 2. Variables alatoires discrtes extrmement vite vers 0, donc lapproximation de X par une variable Y suivant une loi de Poisson P(), pour peu quelle colle bien sur les premiers termes, nest pas draisonnable. Il nous faut trouver une valeur pour le paramtre , or on sait que (Y = 0) = e , donc on peut proposer par exemple : = ln((Y = 0)) ln p0 = ln 268 760 1.04.

Voyons ce que donnent les 8 premiers termes dune loi de Poisson P(1.04) :

[(Y = 0), . . . , (Y = 8)] [0.353, 0.368, 0.191, 0.066, 0.017, 0.004, 0.001, 0.000, 0.000].

On constate donc que lapproximation par une loi de Poisson est excellente, alors mme que nous avons pris pour un estimateur on ne peut plus rudimentaire ! Un estimateur plus sophistiqu est celui du maximum de vraisemblance. Pour une quipe et un match donns, considrons le nombre de buts marqus comme la ralisation y dune variable alatoire Y distribue suivant une loi de Poisson de paramtre . Puisquil y a 380 matchs, nous disposons de 760 ralisations (y1 , . . . , y760 ) de 760 variables alatoires (Y1 , . . . , Y760 ) suivant la mme loi de Poisson de paramtre . Le principe de lestimation au maximum de vraisemblance (likelihood en anglais) est de chercher le paramtre max qui rend cet ensemble dobservations le plus vraisemblable, cest--dire tel que la fonction du paramtre dnie par L() = (Y1 = y1 , . . . , Y760 = y760 ) soit maximale pour = max . Ce calcul se fait facilement si on suppose que les Yi sont des variables indpendantes. En eet, cette vraisemblance devient alors L() = (Y1 = y1 ) . . . (Y760 = y760 ) =
760 i=1

yi

yi !

=e

760

760 i=1

yi

760 i=1 yi !

Puisque la fonction logarithmique est croissante, il est quivalent de chercher la valeur de pour laquelle le logarithme de L() est maximal. Nous passons donc la log-vraisemblance
760 760

ln L() = 760 + ln()

i=1

yi

ln(yi !)
i=1

Pour trouver en quel point cette log-vraisemblance atteint son maximum, il sut de la driver do lon dduit que lestimateur au maximum de vraisemblance de est 824 1.08. 760 760 Lestimateur au maximum de vraisemblance est donc tout simplement la moyenne empirique des yi , souvent note y . Ceci na rien de choquant intuitivement : le paramtre corres pondant la moyenne dune loi de Poisson P(), il est naturel de lestimer par la moyenne empirique de lchantillon. Cette fois, les 8 premiers termes dune loi de Poisson P(1.08) sont : max = = [(Y = 0), . . . , (Y = 8)] [0.340, 0.367, 0.198, 0.071, 0.019, 0.004, 0.001, 0.000, 0.000], qui constitue galement une trs bonne approximation des donnes relles. Remarque. La principale critique vis--vis de lestimation au maximum de vraisemblance est quelle suppose lindpendance des variables Yi , laquelle semble peu raliste dans une comptition sportive. Arnaud Guyader - Rennes 2 Probabilits
760 i=1 yi

(ln L()) = 760 +

760 i=1 yi

2.7. Corrigs Exercice 2.7 (Esprance dune loi uniforme) 1. On a X {0, 1} avec (X = 0) = (X = 1) = 1/2, donc 1 E[X] = 0 (X = 0) + 1 (X = 1) = . 2 2. Pour un d quilibr, on obtient cette fois : 7 1 E[X] = (1 + 2 + 3 + 4 + 5 + 6) = = 3, 5. 6 2 3. La somme des termes dune suite arithmtique vaut de faon gnrale ((1er terme + dernier terme) nb de termes)/2, ce qui donne ici : 1 + 2 + + n = n(n + 1) . 2

85

On en dduit que lorsque U U{1,...,n} , son esprance vaut : E[U ] = 1 n+1 (1 + 2 + + n) = . n 2

4. Pour lexercice sur le gardien de nuit jeun, on a vu que le nombre N dessais ncessaires pour ouvrir la porte suit une loi uniforme sur {1, . . . , 10}, donc le nombre moyen dessais ncessaires pour ouvrir la porte est E[N ] = 11/2 = 5, 5. 5. Soit m et n dans . Soit X une variable alatoire valeurs dans {1, 2, . . . , mn} et telle que i {1, 2, . . . , mn}, (X = i) = 1/m 1/n.

(a) Pour quon ait bien une loi de probabilit, il faut dj que 1/m 1/n > 0, donc m < n. Par ailleurs la somme des probabilits doit valoir 1 :
mn i=1

(X = i) = 1 mn

1 1 m n

= 1 m = n 1.

(b) On a donc E[X] =

Ainsi X suit une loi uniforme sur {1, 2, . . . , n(n 1)}.


n(n1)+1 2

et

E[X] =

7 n(n 1) + 1 7 = n = 3. 2 2 2

Exercice 2.8 (Esprance dune loi de Bernoulli) 1. La moyenne de X est E[X] = 2/3. 2. De faon gnrale, lorsque X B(p), on a : E[X] = 0 (1 p) + 1 p = p. 3. Une roulette a 37 numros : 18 rouges, 18 noirs et 1 vert (le zro). (a) Si on mise 1e sur rouge, on gagne 1e avec probabilit 18/37 et on perd 1e avec probabilit 19/37 donc notre bnce B a pour moyenne : E[B] = 1 Probabilits 18 1 19 +1 = . 37 37 37 Arnaud Guyader - Rennes 2

86

Chapitre 2. Variables alatoires discrtes (b) Si on mise 1e sur le 13, notre gain moyen vaut : E[B] = 1 36 1 1 + 35 = , 37 37 37

donc en moyenne cela revient au mme que de miser sur une couleur (en moyenne, mais pas en variance...). Exercice 2.9 (Esprance dune loi binomiale) 1. Lorsque X suit une loi binomiale B(n, p), on peut calculer directement sa moyenne comme suit (en notant q = (1 p) pour allger les notations) :
n n k kCn pk q nk k=0

E[X] =

=
k=1

n! pk q nk = np k k!(n k)!

n k1 Cn1 pk1 q (n1)(k1) , k=1

et le changement dindice j = (k 1) donne :


n1

E[X] = np
j=0

j Cn1 pj q (n1)j = np(p + q)n1 = np.

2. Soit X1 , . . . , Xn n variables alatoires i.i.d. suivant la loi de Bernoulli B(p). Rappelons rapidement la loi de X. La variable alatoire X = X1 + + Xn peut prendre les valeurs {0, . . . , n}. Soit donc k {0, . . . , n}, on cherche la probabilit que X soit gale k. Pour ce faire, il faut que k des n variables Xi prennent la valeur 1 et les (n k) autres la valeur k 0 : il y a Cn combinaisons de cette forme. Par indpendance des Xi , chaque vnement de cette forme a alors la mme probabilit dapparition, savoir pk q nk . On en dduit que k (X = k) = Cn pk q nk , cest--dire que X suit une loi binomiale B(n, p). Par linarit de lesprance et sachant que E[X1 ] = = E[Xn ] = p, il vient donc : E[X] = E[X1 + + Xn ] = E[X1 ] + + E[Xn ] = np, ce qui est une faon lmentaire de retrouver lesprance dune loi binomiale. 3. Soit X1 , . . . , Xn+m variables alatoires i.i.d. suivant la loi de Bernoulli B(p), alors X = X1 + + Xn , suit une loi binomiale B(n, p), Y = Xn+1 + + Xn+m suit une loi binomiale B(m, p) et Z = X1 + + Xn+m suit une loi binomiale B(n + m, p). On en dduit que la somme de deux binomiales indpendantes de mme paramtre p est encore une binomiale de paramtre p. 4. Y est valeurs dans {1, . . . , n}. Soit donc k {1, . . . , n}, on cherche la probabilit que Y soit gale k. De deux choses lune : ou bien on a dentre X = k, ou bien on a X = 0 puis U = k, ce qui traduit par :

Ainsi lorsque X B(n, p), son esprance vaut E[X] = np.

(Y = k) = ({X = k} ({X = 0} {U = k})) = (X = k) + ({X = 0} {U = k}),


et on utilise maintenant lindpendance des variables X et U :

(Y = k) = (X = k) + (X = 0)(U = k) =
On en dduit lesprance de Y :
n

k Cn 1 1 1 + n = n n 2 2 n 2

k Cn +

1 n

E[Y ] =
k=1

k(Y = k) =

n k=1

k kCn 1 + n 2n 2

n k=1

k . n Probabilits

Arnaud Guyader - Rennes 2

2.7. Corrigs A peu de choses prs, on reconnat dans le premier terme lesprance dune binomiale et dans le second lesprance dune uniforme, do : E[Y ] = n 1 n+1 n n+1 + n = + n+1 . 2 2 2 2 2

87

Exercice 2.10 (Esprance dune loi hypergomtrique) 1. Daprs lexercice 2.4, X suit une loi hypergomtrique H(N, n, p). 2. On numrote de 1 N p les N p votants pour le candidat A. Pour tout k {1, . . . , N p}, on appelle Xk la variable alatoire qui vaut 1 si lindividu k fait partie de lchantillon, 0 sinon. (a) On a donc X = X1 + + XN p . (b) La variable X1 , ne pouvant prendre que les valeurs 0 et 1, est une variable de Bernoulli. La probabilit quelle vaille 1 est la probabilit que le votant 1 fasse partie de lchantillon form par un tirage sans remise de taille n parmi N , cest donc n/N . Ainsi E[X1 ] = n/N et idem pour les autres Xi puisquils ont tous la mme loi, do par linarit de lesprance : E[X] = E[X1 + + XN p ] = N pE[X1 ] = np. On retrouve exactement la moyenne dune variable alatoire distribue suivant une loi binomiale B(n, p). 3. Daprs ce qui prcde, X H(32, 5, 1/8) puisque la proportion de rois est gale 4/32 = 1/8. Le nombre moyen de rois obtenus est donc E[X] = 5/8. Exercice 2.11 (Esprance dune loi gomtrique) On rappelle que pour tout x ]1, +1[, on a + nxn1 = n=1
+ 1 (1x)2

et

+ n2 n=1 n(n1)x

2 . (1x)3

1. Daprs lexercice 2.5, X suit une loi gomtrique G(1/6). Son esprance vaut : E[X] =
n=1

1 n 6

5 6

n1

1 = 6

n
n=1

5 6

n1

1 1 = 6. 6 (1 5/6)2 dans lexercice 2.5 que est valeurs dans 1 2


n1

2. Gnralisation : si X G(p), le mme calcul donne E[X] = 1/p. 3. Soit X le nombre dessais ncessaires pour ouvrir la porte. On a vu X G(1/10), donc le nombre moyen dessais est E[X] = 10. 4. En notant X la variable alatoire gale N 2, il apparat que X avec : 1 n (X = n) = (N = n + 2) = 2n = 2

ce qui est exactement dire que X G(1/2). Ainsi dune part E[X] = 2, et dautre part E[X] = E[N 2] = E[N ] 2, do E[N ] = 4. Un polygone N cts compte D = N (N 3)/2 diagonales : N choix pour une extrmit, (N 3) pour lautre, et on divise par 2 an de ne pas compter chaque diagonale deux fois. Ainsi : 1 1 1 E[D] = E[N (N 3)] = E[(X + 2)(X 1)] = (E[X(X 1)] + 2E[X] 2). 2 2 2 Un petit calcul simpose :
+

E[X(X 1)] =

n=1

n(n 1) 2

1 2

n1

1 = 4

+ n=1

n(n 1)

1 2

n2

et le rappel en dbut dexercice permet daboutir E[X(X 1)] = 4. Au total, le nombre moyen de diagonales est donc E[D] = 3. Probabilits Arnaud Guyader - Rennes 2

88

Chapitre 2. Variables alatoires discrtes Exercice 2.12 (Esprance dune loi de Poisson) 1. Le calcul dtaill vu en cours pour montrer que E[X] = 1 lorsque X P(1) se gnralise au cas o X P(). 2. La moyenne de Y = eX peut se calculer par le thorme de transfert :
+

E[Y ] =
n=0

en e

n = e n!

+ n=0

(e1 )n , n!

o lon retrouve le dveloppement en srie de lexponentielle : E[Y ] = e ee


1

= e(e

1 1)

3. (a) La variable X est valeurs dans . Pour que X = 1, il faut que le premier soit russi, ce qui est certain, et que le second soit rat, ce qui arrive avec probabilit 1/2, donc p1 = (X = 1) = 1/2 = 1/(1 + 1)!. De faon gnrale, pour que X = n, il faut que les n premiers sauts soient russis, ce qui arrive avec probabilit 1 1/2 1/n, et que le (n + 1)-me soit un chec, ce qui arrive avec probabilit 1 rn+1 = n/(n + 1). Ainsi : pn = (X = n) = 1 1 n n 1 = . 2 n n+1 (n + 1)!

On vrie (pour la forme) que cest bien une loi de probabilit grce lastuce n = (n + 1) 1 : + + 1 1 pn = = 1, n! (n + 1)! n=1 n=1 puisque les termes se tlescopent. (b) Le thorme de transfert donne :
+

E[X + 1] =

n=1

n = (n + 1) (n + 1)!

+ n=1

1 = e. (n 1)!

Par suite E[X] + 1 = e, donc E[X] = e 1. Exercice 2.13 (Esprance dune loi arithmtique) Soit X une variable alatoire valeurs dans {0, 1, . . . , n} et telle que k {0, 1, . . . , n}, pk = (X = k) = k. 1. Pour que X soit eectivement une variable alatoire, il faut que les pk somment 1, or :
n n

1=
k=0

pk =
k=0 n 2 k=0 k

k=

n(n + 1) 2 = = . 2 n(n + 1) on peut y aller fond de cinquime :


n

2. Avec en tte la relation

=
n

n(n+1)(2n+1) , 6

E[X] =
k=0

2 kpk = n(n + 1)

k2 =
k=0

2n + 1 . 3

Exercice 2.14 (Deux ds : somme et dirence) On lance deux ds quilibrs. On note U1 et U2 les variables alatoires correspondant aux rsultats obtenus. 1. U1 suit une loi uniforme sur {1, . . . , 6}, son esprance vaut 7/2 et sa variance 35/12. Arnaud Guyader - Rennes 2 Probabilits

2.7. Corrigs 2. On appelle X = (U1 + U2 ) la somme et Y = (U1 U2 ) la dirence des deux rsultats. U2 a la mme loi que U1 donc : E[X] = E[U1 ] + E[U2 ] = 7 et E[Y ] = E[U1 ] E[U2 ] = 0. Pour le produit, il sut dcrire :
2 2 E[XY ] = E[(U1 + U2 )(U1 U2 )] = E[U1 ] E[U2 ] = 0,

89

toujours en raison du fait que U1 et U2 ont mme loi. 3. On a ainsi Cov(X, Y ) = E[XY ] E[X]E[Y ] = 0, donc X et Y sont dcorrles. Par contre on vrie aisment que :

(X = 2, Y = 5) = 0 = (X = 2)(Y = 5) =
ce qui prouve que X et Y ne sont pas indpendantes.

1 1 , 36 36

Exercice 2.15 (Deux ds : min et max) On lance deux ds quilibrs. On note U1 et U2 les variables alatoires correspondant aux rsultats obtenus. On appelle X = min(U1 , U2 ) le minimum et Y = max(U1 , U2 ) le maximum des deux ds. 1. La variable X est valeurs dans {1, . . . , 6} et en notant pi = (X = i), quelques calculs donnent 1 [p1 , p2 , p3 , p4 , p5 , p6 ] = [11, 9, 7, 5, 3, 1]. 36 2. Puisque X + Y = U1 + U2 , il vient : Il sensuit pour lesprance : E[X] = 91/36 2, 5. 161 4, 5. 36

E[Y ] = E[U1 ] + E[U2 ] E[X] =

3. De mme XY = U1 U2 , avec U1 et U2 indpendantes, donc : E[XY ] = E[U1 U2 ] = E[U1 ]E[U2 ] = 49 . 4


1225 1296

Ceci donne pour la covariance : Cov(X, Y ) = E[XY ] E[X]E[Y ] = Exercice 2.16 (Memento (absence de mmoire)) Soit X G(p) loi gomtrique de paramtre p ]0, 1[. 1. On a :
+ k=n+1 + k=n+1

0.94.

(X > n) =

(X = k) =

p(1 p)k1 = p

k=n+1

(1 p)k1 ,

o lon reconnat une somme gomtrique, donc :

(X > n) = p

(1 p)n = (1 p)n . 1 (1 p)

On en dduit la fonction de rpartition au point n : F (n) = (X n) = 1 (X > n) = 1 (1 p)n . Probabilits Arnaud Guyader - Rennes 2

90

Chapitre 2. Variables alatoires discrtes 2. Par dnition de lesprance conditionnelle, on a alors (m, n) :

(X > n + m|X > m) =

({X > n + m} {X > m}) (X > n + m) = , (X > m) (X > m)

puisque lvnement {X > n + m} implique lvenement {X > m}. Grce la question prcdente, on a donc :

(X > n + m|X > m) =

(1 p)n+m = (1 p)n = (X > n). (1 p)m

Exercice 2.17 (Minimum de lois gomtriques) Soit X1 G(p1 ) o p1 ]0, 1[, X2 G(p2 ) o p2 ]0, 1[, avec X1 et X2 indpendantes. Notons X = min(X1 , X2 ) le minimum de ces deux variables. 1. Tout comme les variables X1 et X2 , la variable alatoire X est valeurs dans 2. Soit n x, on peut crire grce lindpendance de X1 et X2 :

(X > n) = (X1 > n, X2 > n) = (X1 > n)(X2 > n),


or ces quantits ont t vues dans lexercice prcdent :

(X > n) = (1 p1 )n (1 p2 )n = ((1 p1 )(1 p2 ))n = (1 (1 (1 p1 )(1 p2 )))n .


Puisquil est clair que 0 < 1 (1 p1 )(1 p2 ) < 1, on en dduit que X = min(X1 , X2 ) suit elle-mme une loi gomtrique, et plus prcisment X G(1 (1 p1 )(1 p2 )).

3. Application : On sintresse donc la variable X = min(X1 , X2 ), o X1 G(1/6), X2 G(1/6), avec X1 et X2 indpendantes. On vient de voir que X G(11/36), donc le nombre moyen de doubles lancers ncessaires est E[X] = 36/11. 4. Gnralisation : soit n variables indpendantes X1 , . . . , Xn suivant des lois gomtriques de paramtres respectifs p1 , . . . , pn , avec pi ]0, 1[ pour tout i {1, . . . , n}. Le mme calcul que ci-dessus permet de montrer que : X = min(X1 , . . . , Xn ) G(1 (1 p1 ) . . . (1 pn )). Exercice 2.18 (Un problme de natalit) 1. X est valeurs dans et on vrie facilement que X suit une loi gomtrique G(1/2). 2. Puisquil y a exactement un garon parmi les X enfants, P = 1/X. 3. Le calcul desprance scrit par le thorme de transfert :
+

E[P ] = E[1/X] =
n=1

1 1 n. n 2

Rappelons le dveloppement en srie entire :


+

x [1, +1[

ln(1 x) =

n=1

xn , n

quil sut dappliquer ici en x = 1/2 pour obtenir E[P ] = ln 2 0.69. Ainsi, la gnration suivante, il y a bien plus de garons que de lles, ce qui nest pas tonnant mais risque de poser trs vite des problmes de renouvellement de population. Arnaud Guyader - Rennes 2 Probabilits

2.7. Corrigs Exercice 2.19 (Tirages de cartes) Nous avons aaire un cas dcole : X B(5, 1/8), desprance 5/8 et de variance 35/64. Exercice 2.20 (Codage redondant) Le nombre N derreurs lors dune transmission suit une loi binomiale B(5; 0, 2). Pour que le message soit mal interprt aprs un dcodage la majorit, il faut et il sut quil y ait eu au moins 3 erreurs lors de la transmission. La probabilit p de mauvaise interprtation vaut donc : p = (N = 3) + (N = 4) + (N = 5) =
5 k=3 k C5 (0, 2)k (0, 8)5k 0, 058.

91

Le codage redondant permet donc de passer de 20% derreurs de transmission seulement 5,8%. Exercice 2.21 (Ingalit de Tchebychev) On jette 3600 fois un d et on appelle S le nombre de fois o apparat le numro 1. 1. La variable S est la somme de 3600 variables indpendantes de Bernoulli de paramtre 1/6. On en dduit que S suit une loi binomiale B(3600, 1/6), de moyenne E[S] = 36001/6 = 600 et de variance Var(S) = 3600 1/6 5/6 = 500.
719 n=481 719 n C3600 n=481

2. La probabilit que S soit compris strictement entre 480 et 720 est donc :

(480 < S < 720) =

(S = n) =

1 6

5 6

3600n

Lingalit de Tchebychev permet de minorer cette probabilit comme suit :

(480 < S < 720) = (120 < S 600 < 120) = (120 < S E[S] < 120),
ce qui scrit encore :

(480 < S < 720) = 1 (|S E[S]| 120) 1


ce qui donne :

Var(S) , 1202

Il y a donc au moins 96,5% de chances que le nombre de 1 obtenus sur les 3600 lancers soit entre 480 et 720. Exercice 2.22 (Surbooking) Puisquil y a 94 places vendues et que pour chacune dentre elles, il y a 5% de chances que le passager ne soit pas l pour lembarquement, le nombre S de personnes absentes lembarquement suit une loi binomiale B(94, 0.05). La probabilit quil y ait trop de monde lembarquement est donc :
0 p = (S 3) = (S = 0)+ + (S = 3) = C94

(480 < S < 720) 0.965.

5 100

95 100

94 3 + + C94

5 100

95 100

91

Via lapproximation dune loi binomiale B(94, 0.05) par une loi de Poisson P(94 0.05) = P(4, 7), ceci est peu prs gal : p e4,7 4, 70 4, 73 + + e4,7 0, 310. 0! 3!

Il y a donc 31,0% de risques de problme avec cette technique de surbooking. Remarque : si on neectue pas lapproximation poissonienne, on obtient en fait p = 30, 3%. Probabilits Arnaud Guyader - Rennes 2

92

Chapitre 2. Variables alatoires discrtes Exercice 2.23 (Mode(s) dune loi de Poisson) Soit X une variable alatoire qui suit une loi de Poisson de paramtre . Pour tout n , + on note pn = (X = n). 1. Pour tout n , on obtient : rn = pn+1 . = pn n+1

2. Pour connatre les variations de la suite (pn ), il sut donc de comparer rn 1 (on rappelle que tous les pn sont strictement positifs). On distingue donc deux cas : (a) : pour n = 1, on a rn = 1, donc il y a deux modes : max pn = p1 = p = e
n

. !

(b) : on a cette fois un seul mode, atteint pour n gal la partie entire de : / max pn = p = e
n

. !

Exercice 2.24 (Parit dune loi de Poisson) Soit x, on note : +


+

S1 =
k=0

2k (2k)!

&

S2 =
k=0

2k+1 . (2k + 1)!

1. On a dune part :
+

S1 + S2 =
k=0

2k + (2k)!

+ k=0

2k+1 = (2k + 1)!

+ n=0

n = e , n!

et dautre part :
+

S1 S2 = On en dduit que

k=0

2k (2k)!

+ k=0

2k+1 ()n = = e . (2k + 1)! n=0 n! e e . 2

S1 =

e + e 2

&

S2 =

2. Application : Notons S le nombre de prospectus distribus dans la journe. Par hypothse S P(). La probabilit que ce nombre soit pair vaut :
+

p=
k=0

(S = 2k) =

e
k=0

2k 1 + e2 = e S1 = . (2k)! 2

Par consquent la probabilit que ce nombre soit impair vaut : q =1p= 1 e2 . 2

Puisque e2 > 0, on a p > q. En moyenne, cest donc Pierre qui gagne. Arnaud Guyader - Rennes 2 Probabilits

2.7. Corrigs 3. Lorsque X dcrit lensemble des entiers naturels pairs, X/2 dcrit lensemble de tous les entiers naturels, donc Y est valeurs dans . Soit n , la probabilit que Y soit gale n correspond la probabilit que X soit gale 2n : n , On en dduit que :
+

93

(Y = n) = (X = 2n) = e

2n . (2n)!

(Y = 0) = 1
Lesprance de Y vaut :
+

e
n=1

(1 + e )2 2n = 1 e (S1 1) = 1 . (2n)! 2

E[Y ] =
n=0

n(Y = n) =

+ n=1

n(Y = n) =

e 2

(2n)
n=1

2n , (2n)!

qui scrit aussi : E[Y ] = e 2 e 1 e2 2n1 = S2 = . (2n 1)! 2 4 n=1 E[Y ] E[Y ]2 , 2
+

Pour calculer Var(Y ), on utilise la dcomposition : Var(Y ) = E[Y 2 ] E[Y ]2 = E[Y (Y 1/2)] + o le seul terme calculer est le premier :
+

E[Y (Y 1/2)] =

n=0

n(n 1/2)(Y = n) =

1 4

+ n=1

2n(2n 1)(Y = n),

ce qui donne aprs simplications : 2 e E[Y (Y 1/2)] = 4 Au nal on obtient donc : Var(Y ) = 2 1 e2 (1 e2 )2 1 + e2 + 2 . 8 8 16
+ n=1

1 + e2 2 e 2n2 = S 1 = 2 . (2n 2)! 4 8

Exercice 2.25 (Esprance dune variable valeurs entires) 1. En notant pi la probabilit que X prenne la valeur i, lesprance de X vaut
n

E[X] = 1 p1 + 2 p2 + + n pn = 2. La formule prcdente peut se rcrire sous la forme

i=1

i pi

E[X] = (p1 + p2 + + pn ) + (p2 + + pn ) + (p3 + + pn ) + + (pn1 + pn ) + pn Et en remarquant que de faon gnrale, pour tout i entre 1 et n : pi + + pn = (X = i) + + (X = n) = (X i) on arrive bien la formule dite de sommation des queues (tail sum formula) : E[X] = (X 1) + (X 2) + + (X n) = Probabilits
n i=1

(X i).

Arnaud Guyader - Rennes 2

94

Chapitre 2. Variables alatoires discrtes 3. On jette 4 ds quilibrs simultanment et on appelle X le minimum obtenu sur ces 4 lancers. (a) La variable alatoire X peut prendre les valeurs 1, 2, 3, 4, 5, 6. (b) Pour que X soit suprieure ou gale i, il faut que les 4 ds prennent une valeur suprieure ou gale i. Notons U1 , . . . , U4 les 4 variables correspondant aux valeurs prises par ces ds. Ce sont des variables indpendantes donc

(X i) = (U1 i, U2 i, U3 i, U4 i) = (U1 i)(U2 i)(U3 i)(U4 i)


et puisquelles sont uniformes sur {1, . . . , 6}, on a

(U1 i) = (U1 = i) + + (U1 = 6) =


do lon dduit

1 1 + + = (7 i)/6, 6 6 .

(X i) =
6

7i 6
4

(c) De la formule de sommation des queues, on dduit alors E[X] =


i=1

7i 6

6 6

5 6

+ +

1 6

1.755

(d) Soit S la somme des 3 plus gros scores. En notant T = (U1 + U2 + U3 + U4 ) le total des quatre ds, il vient T = X + S, do S = T X, et puisque E[U1 ] = 7/2 on en dduit E[S] = E[T ] E[X] = 4E[U1 ] E[X] = 4 (e) Pour chaque valeur i entre 1 et 5, on peut crire 7i 6
4

7 E[X] 12.24 2
4

(X = i) = (X i)(X i+1) =

7 (i + 1) 6

7i 6

6i 6

4. Gnralisation : soit X variable alatoire valeurs dans admettant une esprance. (a) Pour une variable valeurs dans , la formule de sommation des queues scrit
+

E[X] =
n=1

(X n).

(b) Soit T1 , T2 , T3 , T4 les temps alatoires ncessaires pour faire apparatre le 2 sur les 4 ds respectivement. Ces variables sont indpendantes et de mme loi gomtrique de paramtre 1/6. Notons T la variable alatoire correspondant au minimum de ces temps, T = min(T1 , T2 , T3 , T4 ). Pour tout n de , on a par le mme raisonnement que ci-dessus (T n) = (T1 n)4 , or

(T1 n) =
On en dduit que

+ k=n

1 (T1 = k) = 6

+ k=n

5 6

k1

(T n) = (5/6)4(n1) et de la formule de sommation des queues :


+

1 (5/6)n1 = 6 1 5/6

5 6

n1

E[T ] =
n=1

5 6

4(n1)

1 . 1 (5/6)4

Remarque : ce rsultat peut bien sr se retrouver en disant que le minimum de 4 variables gomtriques indpendantes de paramtre 1/6 est gomtrique de paramtre 1 (5/6)4 . Arnaud Guyader - Rennes 2 Probabilits

2.7. Corrigs Exercice 2.26 (Somme de variables poissoniennes) Soit X1 P(1 ) et X2 P(2 ), avec X1 et X2 indpendantes. On note X = (X1 + X2 ) la somme de ces deux variables. 1. Soit n x. Puisque X1 et X2 sont valeurs dans , leur somme est gale n si et seulement si il existe k {0, . . . , n} tel que X1 = k et X2 = (n k). Cest exactement ce que traduit lgalit : {X = n} = n {X1 = k, X2 = n k}. k=0 2. X est valeurs dans , donc pour connatre sa loi il sut de calculer (X = n) pour tout n , ce qui donne :

95

(X = n) =

k=0

{X1 = k, X2 = n k}

=
k=0

(X1 = k, X2 = n k),
nk k 2 2 1 e , k! (n k)!

et on applique lindpendance de X1 et X2 pur poursuivre le calcul :

(X = n) =

n k=0

(X1 = k)(X2 = n k) =
n

e1
k=0

et la n du calcul glisse comme un pet sur une toile cire grce la formule du binme : e(1 +2 ) (X = n) = n!
nk k Cn k 2 = e(1 +2 ) 1 k=0

(1 + 2 )n . n!

On en dduit que X P(1 + 2 ). 3. Gnralisation : soit n variables indpendantes X1 , . . . , Xn suivant des lois de Poisson de paramtres respectifs 1 , . . . , n , avec i > 0 pour tout i {1, . . . , n}, alors la variable X = X1 + + Xn suit elle aussi une loi de Poisson, de paramtre = 1 + + n . Exercice 2.27 (Boules blanches et noires) Cet exercice est corrig en annexe (sujet de dcembre 2009). Exercice 2.28 (Dfaut de fabrication) Cet exercice est corrig en annexe (sujet de dcembre 2009). Exercice 2.29 (Recrutement) Cet exercice est corrig en annexe (sujet de dcembre 2009). Exercice 2.30 (Lancer de d) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 2.31 (Le d dyadique) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 2.32 (Rpartition des tailles) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 2.33 (Poisson en vrac) Cet exercice est corrig en annexe (sujet de novembre 2010). Exercice 2.34 (Jeu dargent) Cet exercice est corrig en annexe (sujet de dcembre 2010). Exercice 2.35 (Rubrique brac) Cet exercice est corrig en annexe (sujet de dcembre 2010). Exercice 2.36 (Ascenseur pour lchafaud) Cet exercice est corrig en annexe (sujet de dcembre 2010). Arnaud Guyader - Rennes 2

Probabilits

Chapitre 3

Variables alatoires densit


Introduction
Contrairement au chapitre prcdent, on considre ici des variables alatoires valeurs dans ou un intervalle de . Parmi celles-ci, seules celles dont la loi admet une rprsentation intgrale nous intresseront : on parle alors de variables densit, ou absolument continues. On pourra ainsi retrouver lensemble des notions vues pour les variables discrtes.

3.1

Densit dune variable alatoire

Dans toute la suite, (, F, ) dsigne un espace probabilis. On commence par dnir la notion de variable alatoire de faon trs gnrale, valable en particulier pour les variables discrtes. Rappelons quun intervalle I de est un ensemble dun seul tenant, cest--dire de la forme I = [a, b] ou I =]a, b] ou I = [a, b[ ou I =]a, b[, avec a et b deux rels, pouvant valoir respectivement et/ou + condition douvrir les crochets. Dnition 3.1 (Variable alatoire) Une application X:

est une variable alatoire si pour tout intervalle I de

(, F, ) X()

{X I} := X 1 (I) = { : X() I} F. Commenons par remarquer que si X prend ses valeurs dans un sous-ensemble au plus dnombrable X de , on retrouve la dnition 2.1 dune variable discrte puisqualors : {X I} =
i : xi I

{X = xi } F,

car la tribu F est stable par union au plus dnombrable. Rciproquement, si I = {xi } = [xi , xi ], alors suivant la dnition ci-dessus : {X I} = {X = xi } F, et la boucle est boucle. Expliquons en deux mots la dnition gnrale ci-dessus. Lintrt de supposer quun vnement appartient F est bien sr dtre assur quon pourra en calculer la probabilit. Mais dans le 97

98

Chapitre 3. Variables alatoires densit cas o X prend ses valeurs dans tout entier (ou dans un intervalle de ), on ne veut plus se restreindre des vnements de la forme X prend la valeur x comme dans le cas discret, car ceux-ci seront gnralement de probabilit nulle, donc sans grand intrt. Le fait de supposer quon va pouvoir calculer la probabilit de nimporte quel intervalle est bien plus pertinent, car eux seuls les intervalles engendrent une famille trs riche de sous-ensembles de , connue sous le nom de tribu borlienne. Comme dans le cas discret, la notion de variable alatoire est stable par toutes les oprations classiques sur les fonctions : la combinaison linaire, le produit, le minimum, le maximum de deux variables alatoires X et Y sont encore des variables alatoires. Outre le cas discret, un cas confortable de variable alatoire valeurs dans est celui de variable admettant une densit. Dans toute la suite, on restera volontairement vasif quant aux hypothses prcises sur cette densit, le bon cadre pour toutes ces notions tant celui de lintgrale de Lebesgue, qui ne sera vu quen troisime anne. Pour xer les ides, on pourra par exemple se dire que f est continue par morceaux sur , ce qui sera le cas dans la plupart des exemples. Dnition 3.2 (Variable densit) Soit X une variable alatoire valeurs dans . On dit que X est densit, ou absolument continue, sil existe une fonction f : vriant : 1. f 0, + 2. f (x)dx = 1, et telle que pour tout intervalle I de :

(X I) =
Dans ce cas, f est appele densit de X.

f (x)dx.
I

Remarque. Notons demble que si X admet une densit, alors la probabilit quelle prenne une valeur donne x0 est nulle puisque :

(X = x0 ) = (X [x0 , x0 ]) =

x0

f (x)dx = 0.
x0

Interprtation. Bien que f (x0 ) soit positif pour tout x0 , f (x0 ) nest pas une probabilit : on peut en particulier avoir f (x0 ) > 1 ! Il nempche que si [x0 /2, x0 + /2] est un petit intervalle centr en x0 , la probabilit de tomber dans cet intervalle est :

(X [x0 /2, x0 + /2]) =

x0 +/2 x0 /2

f (x)dx f (x0 ).

Autrement dit, largeur dintervalle xe, X a dautant plus de chances de tomber dans un intervalle centr en x0 que f (x0 ) est grand. Pratiquement, imaginons quon reprsente un trs grand nombre de ralisations X1 = x1 , . . . , Xn = xn tires indpendamment suivant la mme loi que X : la densit des Xi sera alors la plus leve l o f prend ses plus grandes valeurs. Exemples : 1. Loi uniforme : conformment ce qui vient dtre dit, une variable X se rpartissant de faon uniforme dans le segment [0, 1] est dnie par la densit f = [0,1] , cest--dire f (x) = 1 si x [0, 1] et f (x) = 0 sinon. On a bien dune part f 0 et dautre part :
+ 1

f (x)dx =
0

1dx = 1. Probabilits

Arnaud Guyader - Rennes 2

3.2. Fonction de rpartition Par ailleurs, pour tous points a b de [0, 1], la probabilit de tomber entre a et b est :

99

(a X b) =

b a

f (x)dx = (b a),

2. Loi exponentielle : prenons maintenant f (x) = ex si x 0 et f (x) = 0 si x < 0. Alors nouveau f 0 et :


+ +

donc ne dpend que de la longueur de lintervalle, ce qui est bien conforme lintuition dune variable uniforme : X a autant de chances de tomber dans [0, 1/3] que dans [2/3, 1]. On dit que X suit une loi uniforme sur le segment [0, 1] et on note X U[0,1] .

f (x)dx =
0

ex dx = ex

+ 0

= 1,

donc f dnit bien une densit. Puisque f dcrot vitesse exponentielle vers 0 lorsque x tend vers linni, on voit cette fois que X a plutt tendance prendre des valeurs petites. On dit quelle suit une loi exponentielle de paramtre 1 et on note X E(1).

3.2

Fonction de rpartition

Comme dans le chapitre prcdent, on peut dnir trs facilement la fonction de rpartition dune variable alatoire absolument continue. Le lien entre intgrale et primitive en fait dailleurs un outil bien plus puissant que dans le cas discret. Dnition 3.3 (Fonction de rpartition) Soit X une variable alatoire absolument continue, de densit f . La fonction de rpartition de X est la fonction F dnie par : F :

x F (x) = (X x) =

x f (t)dt.

La fonction de rpartition permet de calculer la probabilit de tomber dans nimporte quel intervalle, par exemple :

(0 < X 1) = (0 < X < 1) = (0 X 1) = (0 X < 1) =


Exemples : 1. Loi uniforme : dans le cas o f = [0,1] , un petit calcul donne 0 si x 0 F (x) = x si 0 x 1 1 si x 1 2. Loi exponentielle : si f (x) = ex {x0} , on a F (x) = 0 si x 0 x si x 0 1e

1 0

f (t)dt = F (1) F (0).

On retrouve sur ces exemples les proprits vues dans le cas discret, et mme mieux : monotonie, limites en , continuit (et non plus simplement continuit droite). Elles sont en fait toujours vraies.

Probabilits

Arnaud Guyader - Rennes 2

100

Chapitre 3. Variables alatoires densit Proprits 3.1 (Proprits dune fonction de rpartition) Soit X une variable alatoire absolument continue, de densit f . Sa fonction de rpartition F a les proprits suivantes : 1. F est croissante ; 2. limx F (x) = 0, limx+ F (x) = 1 ; 3. F est continue sur

Preuve. Les deux premiers points se prouvent comme dans le cas discret. La continuit droite se montre aussi comme dans le cas discret, il reste donc simplement montrer la continuit gauche en tout point. Soit donc x0 rel x. Puisque F est croissante sur , elle admet une limite gauche en x0 , note F (x ) et qui vrie donc F (x ) = limn+ F (x0 1/n). Nous voulons 0 0 maintenant prouver que F (x ) = F (x0 ), ou de faon quivalente que limn+ F (x0 1/n) = 0 F (x0 ). Supposons pour simplier que f est continue par morceaux, alors f est borne au voisinage de x0 , disons par M , do :
x0 x0

|F (x0 ) F (x0 1/n)| = ce qui donne :

x0 1/n x0

f (x)dx

x0 1/n

|f (x)|dx,

|F (x0 ) F (x0 1/n)|

M dx =
x0 1/n

M 0, n n+

et la continuit gauche est prouve. Ainsi F est bien continue sur Quid des sauts de F ? Nous avions vu dans le cas discret que : x

(X = x) = F (x) F (x ).

Cette relation est encore vraie, mais devient une tautologie, puisquelle ne dit rien de plus que 0=0. Lintrt tait pourtant de voir le lien entre la loi de X et sa fonction de rpartition. Le rsultat suivant rtablit ce lien. Proposition 3.1 (Lien entre fonction de rpartition et densit) Soit X une variable alatoire absolument continue, de densit f et de fonction de rpartition F . Alors en tout point o f est continue, F est drivable et on a F (x) = f (x). Preuve. Soit x0 un point de continuit de f . Il sagit ici de montrer que la limite du taux de variation de F en x0 existe et vaut f (x0 ), cest--dire : F (x0 + ) F (x0 ) f (x0 ), 0 ce qui scrit encore : > 0, > 0, |x x0 | = F (x0 + ) F (x0 ) f (x0 ) .

Soit donc > 0 x. Puisque f est continue en x0 , il existe > 0 tel que |x x0 | implique |f (x) f (x0 )| . Il sensuit donc de faon gnrale : 1 F (x0 + ) F (x0 ) f (x0 ) = Arnaud Guyader - Rennes 2
x0 + x0

(f (x) f (x0 ))dx

x0 + x0

|f (x) f (x0 )|dx, Probabilits

3.2. Fonction de rpartition et pour |x x0 | , il vient : F (x0 + ) F (x0 ) f (x0 ) , ce qui achve la preuve. Exemples : 1. Loi uniforme : hormis en 0 et en 1, F est drivable partout, avec F (x) = f (x). 2. Loi exponentielle : hormis en 0, F est drivable partout, avec F (x) = f (x). Remarque. Rciproquement, on peut montrer que si une variable alatoire X admet une fonction de rpartition F , dnie par F (x) = (X x), qui est C 1 par morceaux et de drive note f aux points de drivabilit, alors X est absolument continue et de densit f . Exemple. Supposons que X suive une loi uniforme sur [0, 1] et dnissons la variable alatoire Y par Y = X 2 . On se demande si Y admet une densit et, si oui, quelle est-elle ? Pour rpondre cette question, on passe par la fonction de rpartition F de Y , qui est donc dnie pour tout rel y par F (y) = (Y y). Puisque X ne prend ses valeurs quentre 0 et 1, il est clair quil en va de mme pour Y , do lon dduit que F (y) = 0 pour y 0 et F (y) = 1 pour y 1. Considrant maintenant y ]0, 1[, on peut crire : F (y) = (X 2 y) = ( y X y) = (X y) = y,

101

La technique vue sur cet exemple pour trouver la densit de Y se gnralise en fait tout bon changement de variable Y = (X).

la dernire galit tant issue du calcul de la fonction de rpartition de X vu prcdemment. 1 Puisque y y est drivable sur ]0, 1[, il en va de mme pour F , avec F (y) = 2y . On en dduit que Y est absolument continue, de densit f dnie par : 0 si y 0 1 si 0 < y < 1 f (y) = 2 y 0 si y 1

Proposition 3.2 (Changement de variable) Soit X une variable alatoire valeurs dans lintervalle I et admettant une densit fX . Soit alors Y = (X), avec drivable et bijective, variable alatoire valeurs dans lintervalle J. Alors Y admet pour densit fY dnie par : fY (y) = en tout point y de J tel que (1 (y)) = 0. Preuve. Il sut de gnraliser le raisonnement de lexemple prcdent. Notons FY la fonction de rpartition de Y , dnie pour tout rel y par FY (y) = (Y y), alors la relation entre X et Y permet dcrire, en supposant par exemple croissante : FY (y) = ((X) y) = (X 1 (y)) = FX (1 (y)), Probabilits Arnaud Guyader - Rennes 2 fX (1 (y)) , | (1 (y))|

102

Chapitre 3. Variables alatoires densit en notant FX la fonction de rpartition de X. Ainsi, en tout point y o la fonction y FX (1 (y)) est drivable, FY lest aussi et :
FY (y) = FX (1 (y))(1 (y)) =

fX (1 (y)) , (1 (y))

avec (1 (y)) > 0 puisque est croissante. Si est dcroissante, les calculs prcdents deviennent : FY (y) = ((X) y) = (X 1 (y)) = 1 FX (1 (y)), do :
FY (y) = FX (1 (y))(1 (y)) =

puisque cette fois (1 (y)) < 0.

fX (1 (y)) fX (1 (y)) = 1 , (1 (y)) | ( (y))|

Remarque. Cette formule est bien sr lie la formule de changement de variable connue pour les intgrales. Il nest pas utile de la retenir, condition de savoir la retrouver via le passage par la fonction de rpartition vu sur lexemple ci-dessus.

3.3

Moments dune variable densit

Cette section est calque sur celle du chapitre 2, en remplaant les sommes par des intgrales, les xi par x et les pi par f (x). On considre dans toute la suite une variable alatoire X de densit f sur . Dnition 3.4 (Esprance) On appelle esprance de la variable X la quantit : E[X] = sous rserve de convergence de cette intgrale. Remarque. Par analogie avec le cas discret, on aurait pu sattendre requrir labsolue convergence de lintgrale dans la dnition de lesprance. Cest en fait inutile : si X est valeurs dans lintervalle I, alors lintgrale dnissant lesprance peut tre gnralise pour 2 grandes raisons : borne(s) de lintervalle innie(s) et/ou fonction innie en lune ou les deux bornes. Quoi quil en soit, ltude de la convergence quivaut celle de labsolue convergence puisque xf (x) est de signe constant au voisinage de la borne tudie. Interprtation. Comme dans le cas discret, lesprance de X peut tre vue comme la moyenne des valeurs x pondres par les probabilits innitsimales f (x)dx, cest pourquoi on dit aussi moyenne de X pour parler de son esprance. En particulier, si X prend ses valeurs entre a et b (i.e. X [a, b]), on aura ncessairement a E[X] b. Exemples : 1. Loi uniforme : si X U[0,1] , alors son esprance vaut
1

xf (x)dx,

E[X] =
0

xdx =

x2 2

1 0

1 = , 2

ce qui est bien la moyenne attendue, par symtrie de la loi de X autour de 1/2. Arnaud Guyader - Rennes 2 Probabilits

3.3. Moments dune variable densit 2. Loi exponentielle : si X E(1), alors une intgration par parties donne
+

103

E[X] =
0

xex dx = xex

+ 0

+
0

ex dx = ex

+ 0

= 1.

Voyons maintenant une loi classique nayant pas desprance. Contre-exemple : la loi de Cauchy. On considre une variable alatoire X de densit f (x) = 1 . La fonction f est bien une densit puisquelle est positive et intgre 1. On dit que X suit (1+x2 ) une loi de Cauchy de paramtre 1. Nanmoins, si on veut calculer son esprance, soit formellement + 1 xf (x)dx, il faut la convergence de lintgrale en + et en . Or en +, on a f (x) x , donc lintgrale est divergente et X nadmet pas desprance. Revenons des choses moins pathologiques. Etant donn une variable X dont on connat la loi, il arrive souvent quon veuille calculer non pas lesprance de X mais lesprance dune fonction de X. Le rsultat suivant donne une faon trs simple de le faire. Sa preuve est admise. Thorme 3.1 (Thorme de Transfert) Soit X une variable alatoire discrte et : une fonction, alors lesprance de (X) vaut : E[(X)] =

(x)f (x)dx,

sous rserve dabsolue convergence de cette intgrale. Remarques : 1. Etant donn que (x) peut osciller entre des valeurs positives et ngatives aux bords de lintervalle dintgration, on est cette fois oblig dimposer labsolue convergence. 2. Si est drivable et bijective, on peut appliquer le rsultat de changement de variable vu plus haut : Y = (X) admet une densit fY , donc son esprance vaut : E[Y ] =
J

yfY (y)dy,

et le changement de variable y = (x) dans lintgrale donne : E[Y ] =


I

(x)fY ((x))| (x)|dx.

La valeur absolue vient de ce quon a mis lintervalle I dans le bon sens, ce qui nest automatique que lorsque est croissante. Il reste alors faire le lien avec la Proposition 3.2 pour retrouver : E[Y ] =
I

(x)f (x)dx.

Moyen mnmotechnique. Pour calculer E[(X)] et non E[X], on a juste remplacer x par (x) dans la formule de E[X]. Lintrt pratique de ce rsultat est le mme que dans le cas discret : si on appelle Y = (X) la variable alatoire qui nous intresse, on na pas besoin de commencer par dterminer sa loi pour calculer son esprance, il sut tout simplement de se servir de celle de X.

Probabilits

Arnaud Guyader - Rennes 2

104

Chapitre 3. Variables alatoires densit Exemple. On reprend lexemple o X U[0,1] et Y = X 2 . Puisquon a vu que Y admet pour 1 densit fY (y) = 2y {0<y<1} , on a :
1

E[Y ] =

yf (y)dy =
0

y y y dy = 2 3

1 0

1 = . 3

On peut tout aussi bien appliquer directement le thorme de transfert : E[Y ] = E[X ] =
2

x f (x)dx =
0

x3 x dx = 3
2

1 0

1 = . 3

On numre maintenant un ensemble de proprits concernant lesprance. Proprits 3.2 (Proprits de lesprance) 1. Pour tous rels a et b : E[aX + b] = aE[X] + b. 3. Si X Y , alors E[X] E[Y ]. 2. Si X 0, i.e. si X ne prend que des valeurs positives, on a E[X] 0.

Preuve. Ce sont les mmes que dans le cas discret. Remarque. Contrairement au cas discret, la notion de variable absolument continue nest pas stable par combinaison linaire. Autrement dit, deux variables alatoires X et Y peuvent avoir chacune une densit sans que la variable Z = (X + Y ) en ait une. Il sut pour sen convaincre de prendre X U[0,1] et Y = 1 X. Nous avons dit que lesprance est une mesure de tendance centrale, nous allons voir maintenant une mesure de dispersion autour de cette valeur centrale : la variance. Dnition 3.5 (Variance & Ecart-type) Soit X une variable alatoire de densit f et admettant une esprance E[X]. La variance de X est dnie par : Var(X) = E[(X E[X])2 ] =

(x E[X])2 f (x)dx,

sous rserve de convergence de cette intgrale. On appelle alors cart-type, not (X), la racine de la variance : (X) = Var(X). Interprtation. Cest la mme que dans le cas discret : de faon gnrale, la variance dune variable mesure la moyenne des carrs des carts sa moyenne. Si X reprsente une grandeur physique (donc ayant une dimension, par exemple une longueur), alors lcart-type a la mme dimension que X, tandis que la variance a cette dimension au carr, ce qui la rend moins parlante en pratique. Le terme cart-type est dailleurs comprendre au sens cart typique dune variable sa moyenne. Exemples : 1. Loi uniforme : si X U[0,1] , nous avons vu que E[X] = 1/2, sa variance vaut donc :
1

Var(X) =
0

1 x 2

dx =

x 1 2 3

=
0

1 . 12 Probabilits

Arnaud Guyader - Rennes 2

3.3. Moments dune variable densit 2. Loi exponentielle : si X E(1), nous avons vu que E[X] = 1, sa variance vaut donc :
+

105

Var(X) =
0

(x 1)2 ex dx,

et aprs deux intgrations par parties successives, on trouve Var(X) = 1. Il existe une autre formulation de la variance, qui permet ventuellement dallger les calculs. Proprits 3.3 Soit X une variable alatoire densit, alors sous rserve dexistence de sa variance : (i) Var(X) = E[X 2 ] E[X]2 . (ii) Si a et b sont deux rels, Var(aX + b) = a2 Var(X). Preuve. Ce sont les mmes que dans le cas discret. Nous avons dit plus haut que lcart-type permet davoir une ide de lcart typique entre une variable alatoire et sa moyenne. Cette ide est nouveau prcise par la clbre ingalit de Tchebychev, galement appele ingalit de Bienaym-Tchebychev. Thorme 3.2 (Ingalit de Tchebychev) Soit X une variable alatoire admettant une variance, alors : t > 0

(|X E[X]| t)

Var(X) . t2 1 . s2

Interprtation. Si on pose t = s(X), lingalit de Tchebychev se rcrit pour tout s > 0 :

(|X E[X]| s(X))

Si on voit lcart-type (X) comme une unit dcart, ceci dit que la probabilit quune variable sloigne de plus de s units dcart de sa moyenne est infrieure s1 . 2 On va maintenant gnraliser les notions desprance et de variance. Dnition 3.6 Soit X une variable alatoire discrte et m appelle : (i) moment dordre m de X la quantit

. Sous rserve de convergence de lintgrale, on

E[X m ] = (ii) moment centr dordre m de X la quantit E[(X E[X])m ] =

xm f (x)dx.

(x E[X])m f (x)dx.

Ainsi lesprance de X est le moment dordre 1 et sa variance le moment centr dordre 2. Prcisons au passage un point de vocabulaire : on dit que X est une variable centre si E[X] = 0 et quelle est rduite si Var[X] = 1. On dit quon centre et rduit X en considrant la variable Y = XE[X] . (X) Le moment dordre 3 de Y est appel coecient dasymtrie (skewness) de X et le moment dordre 4 de Y est appel kurtosis, ou coecient daplatissement, de X.

Probabilits

Arnaud Guyader - Rennes 2

106

Chapitre 3. Variables alatoires densit Proposition 3.3 Soit X une variable alatoire densit, alors si X admet un moment dordre m des moments de tout ordre j {1, . . . , m}.

, X admet

Lexistence dun moment dordre lev assure une dcroissance dautant plus rapide de la queue de la distribution de X linni, comme le montre lingalite de Markov. Tout comme le rsultat prcdent, ce thorme est admis. Thorme 3.3 (Ingalit de Markov) Soit X une variable alatoire densit, alors si X admet un moment dordre m , on a : t > 0

(|X| t)

E[|X|m ] . tm

Remarque. Dans le cas discret, tout a t dmontr facilement grce la seule thorie des sries numriques. Ds quon passe au cas absolument continu, a se corse. En particulier, la plupart des rsultats noncs dans ce chapitre ont t prouvs sous des hypothses inutilement restrictives sur la densit f . Ceci vient du fait que le bon cadre thorique pour traiter des probabilits en toute gnralit est celui de lintgrale de Lebesgue, laquelle permet dunier et denglober les deux situations, mais dpasse largement le cadre de ce cours introductif.

3.4

Lois usuelles

Comme dans le cas discret, il existe un certain nombre de lois classiques pour les variables densit. Nous en dtaillons ici quelques-unes.

3.4.1

Loi uniforme

La loi uniforme sert prciser ce quon entend par un nonc du type : On tire un point au hasard entre 0 et 1. Cest lquivalent continu de la loi uniforme vue dans le cas discret. Dnition 3.7 (Loi uniforme) Soit a et b deux rels, avec a < b. On dit que X suit une loi uniforme sur lintervalle [a, b], not 1 X U[a,b] , si X admet pour densit f (x) = ba [a,b] . Remarque. On peut tout aussi bien ouvrir ou fermer les crochets au bord de lintervalle. Esprance et variance se calculent alors sans problme, le calcul a dailleurs dj t fait dans le cas dune loi uniforme sur [0, 1]. Proposition 3.4 (Moments dune loi uniforme) Si X suit une loi uniforme sur [a, b], alors : E[X] = a+b 2 & Var(X) = (b a)2 . 12

La fonction de rpartition ne pose pas non plus de dicults.

Arnaud Guyader - Rennes 2

Probabilits

3.4. Lois usuelles Proposition 3.5 (Fonction de rpartition dune loi uniforme) Si X suit une loi uniforme sur [a, b], alors sa fonction de rpartition F est : 0 1
xa ba

107

F (x) =

si x a si a x b si x b

Remarque. Densit et fonction de rpartition de la loi uniforme sur [0, 1] sont reprsentes gure 3.1. 1
1 ba

Figure 3.1 Densit et fonction de rpartition de la loi uniforme sur [a, b].

Luniversalit de la loi uniforme vient de la remarque suivante : soit X une variable alatoire de fonction de rpartition F : ]0, 1[ bijective (donc strictement croissante) et notons F 1 :]0, 1[ son inverse (strictement croissante elle aussi). Tirons maintenant une variable uniforme U sur ]0, 1[ laide dune calculatrice ou dun logiciel (fonction usuellement appele rand), et calculons X = F 1 (U ). Question : quelle est la loi de X ? Pour y rpondre, il sut de calculer sa fonction de rpartition FX . Or pour tout rel x, on a : FX (x) = (X x) = (F (X) F (x)) = (U F (x)) = FU (F (x)) = F (x), puisque la fonction de rpartition dune loi uniforme est lidentit entre 0 et 1. Bilan des courses : X a pour fonction de rpartition F . Ainsi, partant de la simulation dune loi uniforme, on peut simuler une variable alatoire ayant une loi arbitraire, si tant est que sa fonction de rpartition soit facilement inversible. Cette astuce est abondamment utilise dans les logiciels mathmatiques. Exemple : Simulation dune variable de Cauchy. On veut simuler une variable X distribue 1 selon une loi de Cauchy, cest--dire de densit f (x) = (1+x2 ) . Sa fonction de rpartition vaut donc pour tout rel x :
x

F (x) =

1 1 1 1 dt = [arctan t]x = + arctan x. 2) (1 + t 2

Donc pour tout u ]0, 1[, on a : u = F (x) u = 1 1 + arctan x x = tan((u 1/2)), 2

ce qui est exactement dire que pour tout u ]0, 1[, F 1 (u) = tan((u 1/2)). Il sut donc de simuler U U]0,1[ et de calculer X = tan((U 1/2)) pour obtenir une variable X ayant une loi de Cauchy. Probabilits Arnaud Guyader - Rennes 2

108

Chapitre 3. Variables alatoires densit

3.4.2

Loi exponentielle

La loi exponentielle est la version en temps continu de la loi gomtrique. De fait, elle intervient souvent dans la modlisation des phnomnes dattente. Dnition 3.8 (Loi exponentielle) Soit un rel strictement positif. On dit que X suit une loi exponentielle de paramtre , not X E(), si X admet pour densit : f (x) = ex {x0} . Une variable exponentielle est donc valeurs dans [0, +[. Plus est grand et plus la variable a des chances de prendre des valeurs proches de 0. Ceci se rete dans lexpression de son esprance. Proposition 3.6 (Moments dune loi exponentielle) Si X suit une loi exponentielle de paramtre , alors : E[X] = 1 & Var(X) = 1 . 2

Preuve. Elle est laisse au lecteur. Disons simplement que lesprance sobtient en eectuant une intgration par parties et la variance en eectuant deux intgrations par parties successives. Gnralisation. Grce une rcurrence elle aussi base sur une intgration par parties, il est facile dexprimer le moment dordre n dune loi exponentielle : n E[X n ] =
0 +

xn ex dx =

n! . n

Proposition 3.7 (Fonction de rpartition dune loi exponentielle) Si X suit une loi exponentielle de paramtre , alors sa fonction de rpartition F est : F (x) = 0 si x 0 1 ex si x 0

Densit et fonction de rpartition de la loi exponentielle de paramtre = 4 sont reprsentes gure 3.2.
4 1

3.5

0.9

0.8 3 0.7 2.5

0.6

0.5

1.5

0.4

0.3 1 0.2 0.5

0.1

0.5

1.5

0.5

1.5

Figure 3.2 Densit et fonction de rpartition de la loi exponentielle de paramtre = 4.

Arnaud Guyader - Rennes 2

Probabilits

3.4. Lois usuelles Remarque. Cette expression permet de voir que la mdiane dune loi exponentielle nest pas gale sa moyenne, puisque : 1 0, 37 = 0, 5. e Ainsi une variable exponentielle a plus de chances de tomber en dessous de sa moyenne quaudessus.

109

(X > E[X]) = (X > 1/) = 1 (X 1/) = 1 F (1/) =

3.4.3

Loi normale

La loi normale est sans conteste la loi la plus importante des probabilits et des statistiques. Ce rle prpondrant est d au thorme central limite, dont nous dirons un mot en n de section, mais dont lexpos dtaill dpasse le cadre de ce cours. Dnition 3.9 (Loi normale) Soit m et deux rels, avec > 0. On dit que X suit une loi normale, ou gaussienne, de paramtres (m, 2 ), not X N (m, 2 ), si X admet pour densit :
(xm)2 1 e 22 . f (x) = 2 2 En particulier, si m = 0 et = 1, on dit que X suit une loi normale centre rduite.

0.40

0.14

0.12

3 2 1

0 1 4

Figure 3.3 Densits des lois normales N (0, 1) ( gauche) et N (2, 9) ( droite). Des exemples de densits de lois normales, appeles aussi courbes en cloches, sont donns gure 3.3. Remarque. Il nexiste pas dexpression analytique simple pour une primitive de la fonction ex . Nous admettrons donc le rsultat suivant : + x2 (3.1) e 2 = 2, ce qui assure au moins que la densit de la loi normale centre rduite est bien une densit ! Les lois normales sont stables par transformation ane, comme nous allons maintenant le montrer.

Probabilits

Arnaud Guyader - Rennes 2

110

Chapitre 3. Variables alatoires densit Proprits 3.4 (Loi normale & transformation ane) 1. Soit X N (m, 2 ) une variable gaussienne, a et b deux rels, a tant non nul, alors la variable Y = aX + b suit elle aussi une loi normale. Plus prcisment Y N (am + b, a2 2 ). 3. Rciproquement, si X N (0, 1), alors Y = X + m N (m, 2 ). Preuve. Il sut dappliquer la formule de changement de variable vue en Proposition 3.2 la fonction (x) = ax + b. Sa drive est constante gale a et son inverse est 1 (y) = (y b)/a, donc la formule : fX (1 (y)) fY (y) = 1 | ( (y))|
yb a

2. En particulier, si X N (m, 2 ), la variable Y =

Xm

suit une loi normale centre rduite.

donne dans notre cas de gure :

fY (y) = qui scrit encore :

1 exp |a| 2 2 1 2(a)2 e

2 2

fY (y) =

(y(am+b))2 2(a)2

o lon reconnat la densit dune loi normale N (am+b, a2 2 ). Les deux derniers points en dcoulent directement. Lintrt de ce rsultat est de ramener tous les calculs sur les lois normales des calculs sur la loi normale centre rduite. Proposition 3.8 (Moments dune loi normale) Si X suit une loi normale de paramtre (m, 2 ), alors : E[X] = m & Var(X) = 2 .

Preuve. Soit X N (0, 1), alors par dnition de lesprance :


+

E[X] =

x2 x e 2 dx. 2

Cette intgrale est doublement gnralise mais converge en et +, puisquen ces deux bornes il sut par exemple de constater que : xe
x2 2

= o(x2 ).

Ainsi E[X] est lintgrale dune fonction impaire sur un domaine dintgration symtrique par rapport 0, donc E[X] = 0. Voyons maintenant sa variance. Par dnition : Var(X) = E[X 2 ] (E[X])2 = E[X 2 ] =
+
x2 x2 e 2 dx. 2

Cette fois encore, il ny a aucun problme de convergence de lintgrale. Une intgration par parties donne : + + x2 x2 1 x e 2 dx, + Var(X) = e 2 2 2 Arnaud Guyader - Rennes 2 Probabilits

3.4. Lois usuelles qui, grce la formule (3.1), donne bien Var(X) = 1. Passons maintenant au cas gnral : si X N (0, 1) et si Y = X + m, alors daprs ce qui vient dtre vu Y N (m, 2 ), et daprs les proprits classiques sur esprance et variance, on a dune part : E[Y ] = E[X + m] = E[X] + m = m, et dautre part : Var[Y ] = Var(X + m) = 2 Var[X] = 2 . Gnralisation. Il est assez facile dobtenir tous les moments dune loi normale N (0, 1). Les moments impairs ne ncessitent aucun calcul puisque par intgration dune fonction impaire sur ] , +[, il est clair que n , E[X 2n+1 ] = 0. Pour les moments dordre pair, la formule est la suivante : (2n)! n E[X 2n ] = n . 2 n! En raison de labsence de primitive simple de ex , il nexiste pas dexpression plus simple pour la fonction de rpartition que sa formulation intgrale. Si Y N (m, 2 ), alors sa fonction de rpartition est : y (tm)2 1 e 22 dt. F (y) = (Y y) = 2 2 On peut toujours par contre se ramener une loi normale centre rduite puisque : F (y) = (Y y) = Y m ym = ym ,
2

111

Puisquelle nadmet pas dexpression analytique lmentaire, la fonction est tabule : dans le tableau en annexe sont rassembles les valeurs de (x) pour 0 x 3, 29. Notons que par symtrie de la densit de la loi normale centre rduite par rapport 0, les valeurs de (x) sen dduisent : (x) = (X x) = (X x) = 1 (X < x) = 1 (x), autrement dit la courbe de admet le point (0, 1/2) comme centre de symtrie. Ceci est illustr gure 3.4.

si lon convient de noter la fonction de rpartition de la loi normale N (0, 1), cest--dire que si X N (0, 1) : x (tm)2 1 e 22 dt. (x) = (X x) = 2

Concentration. Supposons quon tire des nombres selon une loi normale N (m, 2 ), par exemple avec un ordinateur. Alors plus lcart-type est faible et plus on a des chances dobtenir des rsultats autour de la moyenne m : 68% de tomber distance infrieure ou gale , 95% de tomber distance infrieure ou gale 1 2, 99, 7% de tomber distance infrieure ou gale 3. Ceci est illustr gure 3.5. Exemple : le test du Q.I. La distribution des rsultats au test de la WAIS (Weschler Adult Intelligence Scale), ou test du Q.I. pour adultes, est gaussienne et celui-ci a t calibr pour que sa moyenne soit gale 100 et son cart-type gal 15. Il y a donc 68% de la population adulte dont le quotient intellectuel est compris entre 85 et 115.
1. Un encadrement plus prcis pour lintervalle de conance 95% est [m 1, 96; m + 1, 96].

Probabilits

Arnaud Guyader - Rennes 2

112

Chapitre 3. Variables alatoires densit

(x)

0.5

(x)
3 2

0.0 0

Figure 3.4 Fonction de rpartition dune loi normale N (0, 1) et relation : (x) = 1 (x).

0.40

68%

95%

99, 7% Figure 3.5 Concentration autour de la moyenne dune loi N (0, 1).

Arnaud Guyader - Rennes 2

Probabilits

3.4. Lois usuelles Terminologie et Thorme Central Limite. La loi normale tire son nom de ce quelle apparat de faon naturelle ou normale dans de trs nombreux phnomnes physiques. Ceci est d au thorme central limite. En voici la version la plus simple : si (Xn )n1 est une suite de variables alatoires indpendantes et identiquement distribues (en abrg i.i.d.) admettant une variance, alors en notant Sn = X1 + + Xn , on a la convergence en loi vers la loi normale centre rduite : Sn nE[X1 ] L N (0, 1), n VarX1 n+ cest--dire que pour tout intervalle (a, b) de
n a

113

, on a :
b

S nE[X1 ] b n VarX1


n+

x2 1 e 2 dx. 2

Autrement dit, la somme dun grand nombre de variables alatoires i.i.d. se comporte comme une loi normale. Laspect remarquable de ce rsultat tient bien sr au fait que la loi commune des Xn peut tre nimporte quoi ! Celle-ci peut aussi bien tre discrte quabsolument continue, mixte ou singulire. La seule chose requise est lexistence de la variance. Avec la loi des grands nombres, ce rsultat peut tre considr comme le plus important en probabilits et statistiques. Exemple. Revenons lexercice 2.21. Rappel des pisodes prcdents : aprs 3600 jets dun d quilibr, la question tait dvaluer la probabilit p que le nombre S de 6 apparus soit compris entre 480 et 720. Lexpression exacte tait donne par la somme de termes binomiaux et une minoration avait t fournie par lingalit de Tchebychev : p 0, 965. Or nous sommes dans le cadre typique dapplication du thorme central limite, avec n = 3600 et les Xi ayant pour loi commune la distribution de Bernoulli B(1/6). Ainsi : S 600 Sn nE[X1 ] = N (0, 1). n VarX1 500 Et on cherche : p = (480 < S < 720) = 120 S 600 120 < < 500 500 500 = 2(5.36) 1,

ce qui donne p 1 8.108 . Le calcul sur machine de la probabilit p via son expression exacte donne en fait :

(480 < S < 720) =

719 n=481

(S = n) =

719 n C3600 n=481

1 6

5 6

3600n

1 2.108 .

Ceci montre que lapproximation gaussienne donne par le thorme central limite est excellente. La minoration par lingalit de Tchebychev tait par contre trs pessimiste : il ny a concrtement peu prs aucune chance que le nombre de 6 ne soit pas compris entre 480 et 720. Remarque. Nous avons ainsi une approximation de la loi binomiale B(n, p) par une loi normale N (np, np(1 p)) lorsque n est grand. Celle-ci ne fonctionne cependant que si p nest pas trop petit, plus prcisment il ne faut pas que p soit de lordre de 1/n. Dans cette situation, comme expliqu au chapitre 2, cest lapproximation par une loi de Poisson P(np) qui est pertinente (cf. exercice 3.31). Probabilits Arnaud Guyader - Rennes 2

114

Chapitre 3. Variables alatoires densit

3.5

Exercices

Exercice 3.1 (Esprance et variance dune loi uniforme) Soit X une variable alatoire qui suit une loi uniforme sur le segment [0, 1]. 1. Calculer sa moyenne E[X] et sa variance Var(X). 2. De faon gnrale, calculer E[X n ], moment dordre n de X. 3. Soit a et b deux rels tels que a < b. Comment dniriez-vous la densit dune variable alatoire X uniforme sur le segment [a, b] ? Donner alors E[X] et Var(X). Exercice 3.2 (Loi de Cauchy) On dit que X suit une loi de Cauchy de paramtre 1 si X admet pour densit f avec : x f (x) = c . 1 + x2

1. Dterminer c pour que f soit bien une densit. 2. Calculer et reprsenter la fonction de rpartition F de X. 3. Montrer que X na pas desprance. 4. Soit Y une variable alatoire uniforme sur , . Dterminer la loi de X = tanY (on 2 2 pourra passer par sa fonction de rpartition). Exercice 3.3 (Densits parabolique et circulaire) Soit X une variable alatoire de densit f (x) = c(1 x2 ){1<x<1} . 1. Dterminer c pour que f soit bien une densit de probabilit. 2. Quelle est la fonction de rpartition de X ? 3. Calculer E[X] et Var(X). 4. Mmes questions avec la densit f (x) = c 1 x2 {1<x<1} . Indication : on pourra penser au changement de variable x = cos t.

Exercice 3.4 (Loi exponentielle) Soit > 0 x. On dit que X suit une loi exponentielle de paramtre si X admet pour densit f (x) = ex {x0} . On note alors X E(). 1. Reprsenter f . Vrier que f est bien une densit. 3. Calculer esprance et variance de X. 4. La dure de vie T en annes dune tlvision suit une loi de densit f (t) = 1 e 8 {t0} . 8
t

2. Calculer et reprsenter la fonction de rpartition F .

(a) Quelle est la dure de vie moyenne dune telle tlvision ? Et lcart-type de cette dure de vie ?

(b) Calculer la probabilit que votre tlvision ait une dure de vie suprieure 8 ans. Exercice 3.5 (Absence de mmoire) Soit X une variable qui suit une loi exponentielle de paramtre . 1. Calculer 2. En dduire que la loi exponentielle a la proprit dabsence de mmoire, cest--dire que : (x, t) + +

(X > t) pour tout t 0.

(X > x + t|X > x) = (X > t).

3. Application : la dure de vie T en annes dune tlvision suit une loi exponentielle de moyenne 8 ans. Vous possdez une telle tlvision depuis 2 ans, quelle est la probabilit que sa dure de vie soit encore dau moins 8 ans partir de maintenant ? Arnaud Guyader - Rennes 2 Probabilits

3.5. Exercices Exercice 3.6 (Dure de vie) Un appareil comporte six composants de mme modle, tous ncessaires son fonctionnement. La t t densit de la dure de vie T dun composant est donne par f (t) = 16 e 4 {t0} , lunit de temps tant lanne. 1. Vrier que f est bien une densit de probabilit. 2. Calculer E[T ] et Var(T ). 3. Quelle est la probabilit que lappareil fonctionne durant au moins six ans partir de sa mise en marche ? Exercice 3.7 (Loi de Pareto) La variable alatoire T , reprsentant la dure de vie en heures dun composant lectronique, a pour densit f (t) = 10 {t>10} . t2 1. Calculer

115

(T > 20).

2. Quelle est la fonction de rpartition de T ? La reprsenter. 3. Quelle est la probabilit que parmi 6 composants indpendants, au moins 3 dentre eux fonctionnent durant au moins 15 heures. Exercice 3.8 (Tirages uniformes sur un segment) Soit X un point au hasard sur le segment [0, 1], cest--dire que X U[0,1] . 1. Quelle est la probabilit que X soit suprieur 3/4 ? 2. Quelle est la probabilit que X soit suprieur 3/4, sachant quil est suprieur 1/3 ? 3. Le point X dnit les deux segments [0, X] et [X, 1]. Quelle est la probabilit pour que le rapport entre le plus grand et le plus petit des deux segments soit suprieur 4 ? 4. On tire deux points X et Y au hasard sur le segment [0, 1], indpendamment lun de lautre. (a) Quelle est la probabilit que le plus petit des deux nombres soit suprieur 1/3 ? (b) Quelle est la probabilit que le plus grand des deux nombres soit suprieur 3/4, sachant que le plus petit des deux est suprieur 1/3 ? Exercice 3.9 (Problmes de densit) 1. Soit X une variable alatoire qui suit une loi uniforme sur le segment [0, 1] et soit Y = 1 X. Donner la fonction de rpartition de Y . En dduire la densit de Y . Est-ce que la variable alatoire Z = (X + Y ) admet une densit ? 2. On construit une variable alatoire X en commenant par lancer une pice quilibre : si on obtient Pile, alors X = 1 ; si on obtient Face, X est le rsultat dun tirage uniforme dans le segment [0, 1]. Donner la fonction de rpartition de X. Exercice 3.10 (Minimum dexponentielles) 1. On considre deux variables alatoires indpendantes X1 et X2 exponentielles de paramtres respectifs 1 et 2 . Soit Y = min(X1 , X2 ) le minimum de ces deux variables. (a) Pour tout rel y, calculer (b) En dduire

(X1 > y).

(Y > y), puis la fonction de rpartition F de la variable Y .

(c) En dduire que Y suit une loi exponentielle (de paramtre prciser). 2. Deux guichets sont ouverts une banque : le temps de service au premier (respectivement second) guichet suit une loi exponentielle de moyenne 20 (respectivement 30) minutes. Alice et Bob arrivent ensemble la banque : Alice choisit le guichet 1, Bob le 2. En moyenne, au bout de combien de temps sort le premier ? Probabilits Arnaud Guyader - Rennes 2

116

Chapitre 3. Variables alatoires densit 3. En moyenne, combien de temps faut-il pour que les deux soient sortis ? (Indication : le max de deux nombres, cest la somme moins le min.) Exercice 3.11 (Loi de Laplace) On considre une variable alatoire X dont la densit f est donne par : x , 1. Vrier que f est bien une densit sur 1 f (x) = e|x| , 2

o |x| reprsente la valeur absolue de x, cest--dire |x| = x si x 0 et |x| = x si x 0.

. Reprsenter f .

2. On note F la fonction de rpartition de X. Calculer F (x) (on distinguera les cas x 0 et x 0). Reprsenter F . 3. Montrer que E[X] = 0. 4. Pour tout n , on appelle In lintgrale dnie par :
+

In =
0

xn ex dx.

(a) Combien vaut I0 ? 5. Pour tout n , calculer E[X 2n ]. Que vaut Var(X) ? (b) Montrer que pour tout n , In = nIn1 . En dduire que In = n! pour tout n .

6. Pour tout n , que vaut E[X 2n+1 ] ?

Exercice 3.12 (Think Tank) Une station-service est approvisionne en essence une fois par semaine. Son volume de vente hebdomadaire, en milliers de litres, est une variable alatoire X de densit f (x) = c(1 x)4 {0<x<1} . 1. Dterminer c pour que f soit une densit. Reprsenter f . 2. Calculer la fonction de rpartition F . 3. Quelle capacit doit avoir le rservoir pour que la probabilit dpuiser lapprovisionnement soit infrieure 105 ? Exercice 3.13 (Loi polynomiale) Soit X une variable alatoire de densit f (x) = c(x + x2 ) sur lintervalle [0, 1]. 1. Dterminer c pour que f soit eectivement une densit. 2. Calculer la fonction de rpartition F de X. Donner lallure de F . 3. Calculer lesprance et lcart-type de X. Exercice 3.14 (Ambulance et accidents) Une station dambulances se situe au kilomtre 30 dune route de 100 kms de long. Les accidents sont supposs arriver uniformment sur cette route. Lambulance roule 100 km/h pour intervenir sur le lieu dun accident. Notons T le temps coul (en minutes) entre lappel la station et larrive de lambulance sur le lieu de laccident. 1. Quelles valeurs peut prendre la variable alatoire T ? 2. Que vaut

(T > 30) ? (T > t) en fonction de t.

3. Plus gnralement, calculer

4. Dterminer la densit de T , sa moyenne et sa variance. Arnaud Guyader - Rennes 2 Probabilits

3.5. Exercices Exercice 3.15 (Minimum duniformes) Soit n variables alatoires U1 , . . . , Un indpendantes et de mme loi uniforme sur [0, 1]. On considre la variable X = min(U1 , . . . , Un ). 1. Que vaut 2. Calculer la fonction de rpartition F de la variable X. 3. En dduire la densit et lesprance de X. Exercice 3.16 (Racines dun trinme alatoire) La variable U suit une loi uniforme sur [0, 5]. On considre le trinme alatoire P (x) = 4x2 + 4U x + U + 2. 1. Donner lexpression de son discriminant en fonction de U . 3. En dduire la probabilit pour que P ait deux racines relles distinctes. Exercice 3.17 (Lien entre lois exponentielle et gomtrique) Soit X une variable alatoire suivant une loi exponentielle E(1), et Y = X la variable gale sa partie entire suprieure (cest--dire que 2.8 = 3 et 4 = 4). 1. Quelles valeurs peut prendre Y ? Avec quelles probabilits ? Quelle loi reconnaissez-vous ? En dduire E[Y ] et Var(Y ). 2. Soit alors Z = Y X. Dans quel intervalle Z prend-elle ses valeurs ? Dterminer sa fonction de rpartition F (elle fait intervenir une srie). 3. En dduire que sa densit vaut f (z) = 4. Prciser E[Z]. Exercice 3.18 (Moments dune loi normale) Pour tout n , on note :
+

117

(U > t) lorsque U U[0,1] et t [0, 1] ?

2. Etudier le signe de la fonction D(u) = u2 u 2 sur

ez (z). e 1 [0,1]

In = 1. Dterminer I0 et I1 .

xn e

x2 2

dx.

2. Montrer que, pour tout n , on a : In+2 = (n + 1)In . 4. Dterminer I2n pour tout n .

3. Donner alors I2n+1 pour tout n . Pouvait-on prvoir ce rsultat sans calculs ?

5. Soit X une variable alatoire gaussienne de moyenne 1 et de variance unit. Dterminer E[X 4 ]. Exercice 3.19 (Autour de la loi normale) On considre une variable alatoire X de loi normale N (0, 1).

2. Que vaut E[X 2 ] ? Dduire de ce rsultat et de la question prcdente la valeur de E[X 4 ]. 3. Que vaut E[X 3 ] ? 4. Soit Y la variable alatoire dnie par Y = 2X + 1. (a) Quelle est la loi de Y ? Probabilits Arnaud Guyader - Rennes 2

1. Montrer que, pour tout n , on a : E[X n+2 ] = (n + 1)E[X n ] (intgrer par parties).

118

Chapitre 3. Variables alatoires densit (b) Dterminer E[Y 4 ] (on pourra utiliser la formule du binme et les moments de X trouvs prcdemment). 5. A laide de la table de la loi normale, dterminer (|X| 2). Que donne lingalit de Tchebychev dans ce cas ? Comparer et commenter. 6. On considre maintenant que X suit une loi normale de moyenne 7 et dcart-type 4.

(X 8) et (5 X 9). (b) Dterminer q tel que (X > q) = 0, 9.


(a) Dterminer 7. La taille des enfants dun collge est distribue selon une loi normale de moyenne m et dcart-type . On sait quun cinquime des lves mesurent moins de 1m50 et que 10% des lves mesurent plus de 1m80. Dterminer m et . Exercice 3.20 (Variable densit) Soit X une variable alatoire de densit f (x) =
c x4

1. Dterminer c pour que f soit bien une densit. Reprsenter f . 2. Calculer la fonction de rpartition F et la reprsenter. 3. Dterminer la mdiane de X, cest--dire la valeur m telle que 4. Calculer lesprance de X et sa variance. 5. Dterminer le moment dordre 3 de X. Exercice 3.21 (Diamtre dune bille) Le diamtre dune bille est distribu suivant une loi normale de moyenne 1 cm. On sait de plus quune bille a une chance sur trois davoir un diamtre suprieur 1.1 cm. 1. Dterminer lcart-type de cette distribution. 2. Quelle est la probabilit quune bille ait un diamtre compris entre 0.2 et 1 cm ? 3. Quelle est la valeur telle que 3/4 des billes aient un diamtre suprieur cette valeur ? Exercice 3.22 (Tchernobyl for ever) Soit T une variable alatoire distribue suivant une loi exponentielle de paramtre > 0. 1. Rappeler ce que valent densit, fonction de rpartition, esprance et variance de T (on ne demande pas les calculs). 2. Pour tout t > 0, que vaut

{x1} .

(X > m) = 1/2.

(T > t) ?

3. On appelle demi-vie la dure h telle que

(T > h) = 1/2. Dterminer h en fonction de .

4. Le strontium 90 est un compos radioactif trs dangereux que lon retrouve aprs une explosion nuclaire. Un atome de strontium 90 reste radioactif pendant une dure alatoire T qui suit une loi exponentielle, dure au bout de laquelle il se dsintgre. Sa demi-vie est denviron 28 ans. (a) Dterminer le paramtre de la loi de T . (b) Calculer la probabilit quun atome reste radioactif durant au moins 50 ans. (c) Calculer le nombre dannes ncessaires pour que 99% du strontium 90 produit par une raction nuclaire se soit dsintgr. Exercice 3.23 (Vitesse dune molcule) La vitesse dune molcule au sein dun gaz homogne en tat dquilibre est une variable alatoire de densit : mx2 f (x) = ax2 e 2kT {x0} , o k est la constante de Boltzmann, T la temprature absolue et m la masse de la molcule. Dterminer a en fonction de ces paramtres.

Arnaud Guyader - Rennes 2

Probabilits

3.5. Exercices Exercice 3.24 (Loi log-normale) Soit m et deux rels, avec > 0. On dit que X suit une loi log-normale, ou de Galton, de paramtres (m, 2 ), not X LN (m, 2 ), si Y = ln X suit une loi normale N (m, 2 ). Cette loi intervient lors de la multiplication dun grand nombre de variables indpendantes et positives. En linguistique, elle sert modliser le nombre de mots dans une phrase. 1. Supposons que X LN (0, 1). Exprimer sa fonction de rpartition F laide de la fonction de rpartition de la loi normale centre rduite. 2. En dduire que sa densit est :
ln2 x 1 f (x) = e 2 {x>0} . x 2

119

Reprsenter f . 3. Montrer que son esprance vaut E[X] =

4. Un tas de sable est compos de grains homognes sphriques. La diamtre X dun grain suit la loi LN (0, 5; 0, 09), lunit tant le millimtre. On passe le tas au crible dun tamis dont les trous sont circulaires, de diamtre 0,5 mm. Quelle est la proportion de grains de sable passant travers le tamis ? Exercice 3.25 (La Belle de Fontenay) On suppose que la masse X dune pomme de terre Belle de Fontenay suit une loi normale de moyenne m = 200 g et dcart-type = 70 g. Quelle est la probabilit quune pomme de terre : 1. pse plus de 250 grammes ? 2. pse moins de 180 grammes ? 3. ait une masse comprise entre 190 et 210 grammes ? Exercice 3.26 (Quantile et variance) 1. Supposons que X suive une loi normale de moyenne 12 et de variance 4. Trouver la valeur q telle que (X > q) = 0, 1. 2. Soit X N (5, 2 ). Dterminer la variance 2 telle que

e et sa variance Var(X) = e(e 1).

(X > 9) = 0, 2.

Exercice 3.27 (Rpartition des tailles) La taille dun homme g de 25 ans suit une loi normale de moyenne 175 et dcart-type 6. 1. Quel est le pourcentage dhommes ayant une taille suprieure 1m85 ? 2. Parmi les hommes mesurant plus de 1m80, quelle proportion mesure plus de 1m92 ? Exercice 3.28 (Choix de machine) La longueur des pices (en mm) produites par une machine A (resp. B) suit une loi normale N (8; 4) (resp. N (7, 5; 1)). Si vous voulez produire des pices de longueurs 8 1 mm, quelle machine vaut-il mieux choisir ? Exercice 3.29 (Approximation gaussienne) Soit X le nombre de Pile obtenus en 400 lancers dune pice quilibre. 1. Grce lapproximation normale, estimer 2. Idem pour

3. Reprendre les questions prcdentes pour une pice biaise o

(210 X 220).

(190 X 210). (Pile) = 0.51.

Exercice 3.30 (Sondage) Deux candidats, Alice et Bob, sont en lice lors dune lection. On note p la proportion dlecteurs pour Alice dans la population totale. An destimer p, on eectue un sondage (avec remise) auprs de n personnes. Notons X le nombre dlecteurs favorables Alice dans cet chantillon. Probabilits Arnaud Guyader - Rennes 2

120 1. Quelle est la loi suivie par X ?

Chapitre 3. Variables alatoires densit

2. Grce lapproximation normale, donner en fonction de n et p un intervalle o X a 95% de chances de se situer. 3. Donner un estimateur naturel p de p. Quelle est sa moyenne ? 4. Donner en fonction de n et p un intervalle o p a 95% de chances de se situer. 5. Donner un majorant de x(1 x) lorsque x [0, 1]. En dduire un intervalle de conance 95% pour p. 6. Quelle est la taille de cet intervalle lorsquon interroge 1000 personnes ? 7. Combien de personnes faut-il interroger pour obtenir une estimation 2% ? Exercice 3.31 (Surbooking (bis)) Reprenons le contexte de lexercice 2.22 : des tudes eectues par une compagnie arienne montrent quil y a une probabilit 0,05 quun passager ayant fait une rservation neectue pas le vol. Ds lors, elle vend toujours 94 billets pour ses avions 90 places. On veut valuer la probabilit quil y ait un problme lembarquement, cest--dire quil y ait au plus 3 absents. 1. Estimer cette probabilit en utilisant lapproximation dune loi binomiale par une loi normale. 2. Comparer la vraie valeur dune part et la valeur obtenue par lapproximation de Poisson dautre part. Comment expliquez-vous que lapproximation gaussienne ne marche pas ici ? Exercice 3.32 (Queue de la gaussienne) On appelle fonction de Marcum, ou queue de la gaussienne, la fonction dnie pour tout rel x par : + t2 1 e 2 dt. Q(x) = 2 x 1. Soit X une variable alatoire qui suit une loi normale centre rduite N (0, 1). Reprsenter la densit de X, puis Q(x) sur ce mme dessin. Soit F la fonction de rpartition de X : donner la relation entre F (x) et Q(x). 2. Soit x > 0 x. Dans lintgrale dnissant Q(x), eectuer le changement de variable t = x+u et, tenant compte de eux 1, montrer quon a : 1 x2 Q(x) e 2 . 2 3. Pour t x > 0, montrer que : 1+ 1+ 4. En dduire que : 1 (1 + x2 ) 2 1
+ 1 t2 1 x2

t . x

1+
x
t2

1 t2

t2 1 e 2 dt Q(x) x 2

+ x

te 2 dt.

t2

5. Calculer la drive de 1 e 2 . En dduire que, pour tout x > 0, on a : t


x2 x2 1 1 e 2 Q(x) e 2 . 1 (1 + x2 )x 2 x 2

6. En dduire un quivalent de Q(x) en +. Arnaud Guyader - Rennes 2 Probabilits

3.5. Exercices 7. Application : en communications numriques, pour une modulation binaire, les symboles transmis valent Eb , o Eb est appele nergie moyenne par bit. Quand il transite par un canal bruit gaussien, le signal reu en sortie Y est gal la somme du symbole dentre et dune variable alatoire indpendante B N (0, N0 ), o N0 est appel puissance moyenne 2 du bruit. (a) Supposons que le symbole dentre soit Eb . Donner la loi de Y en fonction de Eb et N0 . (b) On reoit y en sortie de canal, mais on ignore ce qutait le symbole dentre : quelle rgle simple proposez-vous pour dcider si en entre le symbole mis tait +Eb ou Eb ? (c) Montrer que la probabilit derreur Pe faite avec cette rgle de dcision est : Pe = Q 2Eb N0 .

121

Eb La quantit N0 est appele rapport signal bruit et intervient trs souvent en communications numriques (on lexprime usuellement en dcibels).

Exercice 3.33 (Entropie dune variable alatoire) Si X est une variable alatoire relle admettant une densit f , on appelle entropie de X la quantit (si elle est dnie) :
+

h(X) = E[ log f (X)] =

f (x) log f (x) dx.

Grosso modo, lentropie dune variable alatoire mesure le degr dincertitude quon a sur lissue dun tirage de cette variable alatoire. 1. Supposons que X N (0, 1), loi normale centre rduite. Montrer quelle a pour entropie : 1 h(X) = (1 + log(2)). 2
1 2. Supposons que X N (m, 2 ). Montrer quelle a pour entropie : h(X) = 2 (1 + log(2 2 )). Ainsi, au moins pour les lois normales, lentropie est dautant plus grande que la variance est grande. On va montrer dans la suite que, parmi les variables alatoires de variance donne, celles qui ont la plus grande entropie sont celles qui suivent une loi normale. 3. Soit donc X1 N (0, 2 ), dont la densit est note , et X2 une variable alatoire centre de densit f et de variance 2 , cest--dire que : +

x2 f (x) dx = 2 .

On suppose pour simplier que f est strictement positive sur (a) Vrier que (sous rserve dexistence des intgrales) :
+

h(X2 ) =

f (x) log

(x) dx f (x)

f (x) log (x) dx.

(b) Montrer que pour tout x > 0, log x x 1. En dduire que :


+

f (x) log (c) Montrer que :


+

(x) dx 0. f (x)

f (x) log (x) dx =

1 (1 + log(2 2 )). 2

(d) En dduire que h(X2 ) h(X1 ). Probabilits Arnaud Guyader - Rennes 2

122

Chapitre 3. Variables alatoires densit

3.6

Corrigs

Exercice 3.1 (Esprance et variance dune loi uniforme) Soit X une variable alatoire qui suit une loi uniforme sur le segment [0, 1], cest--dire f (x) = [0,1] (x). 1. Par dnition de lesprance, on a
1

E[X] =

xf (x)dx =
0

x2 xdx = 2

1 0

1 = . 2

Ceci pouvait se voir sans calculs : la moyenne dune variable uniforme est le milieu des extrmits du segment o elle tombe. Pour la variance, on obtient : Var(X) = E[X 2 ] (E[X])2 =
1 0

x2 dx

1 x3 = 4 3

1 0

1 1 = . 4 12

2. De faon gnrale, le moment dordre n de X vaut E[X n ] =


0 1

xn dx =

xn+1 n+1

=
0

1 . n+1

3. Soit a et b deux rels tels que a < b. Comme son nom lindique, la densit uniforme sur le segment [a, b] doit tre constante sur ce segment, donc de la forme f (x) = c [a,b] (x). Il reste dterminer c pour que f soit eectivement une densit, or
b

xf (x)dx =
a

cdx = [cx]b = c(b a), a

quantit qui doit valoir 1 par dnition dune densit, do c = (b a), et f (x) = 1 (x). b a [a,b]

Le mme type de calculs quen premire question donne alors E[X] = (a + b)/2 (linterprtation tant la mme que ci-dessus : en moyenne, on tombe au milieu de lintervalle) et Var(X) = (b a)2 /12, formule mettre en parallle avec Var(X) = (n2 1)/12 dune loi uniforme discrte sur {1, . . . , n}. Exercice 3.2 (Loi de Cauchy) On dit que X suit une loi de Cauchy de paramtre 1 si X admet pour densit f avec : x f (x) = c . 1 + x2

1. Rappelons quune primitive de 1/(1 + x2 ) est la fonction arctan, fonction croissante de dans ] , [ avec limx arctan x = et limx+ arctan x = . Ainsi 2 2 2 2
+

f (x)dx =

c dx = c [arctan x]+ = c, 1 + x2

donc c = 1/ et la densit dune variable de Cauchy de paramtre 1 (cf. gure 3.6 gauche) est 1 . f (x) = x (1 + x2 ) Remarque : De faon plus gnrale, une loi de Cauchy de paramtre a > 0 a pour densit f (x) = (a2a 2 ) . +x Arnaud Guyader - Rennes 2 Probabilits

3.6. Corrigs

123

0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 20

1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 15 10 5 0 5 10 15 20 0 20 15 10 5 0 5 10 15 20

Figure 3.6 Densit et fonction de rpartition dune loi de Cauchy. 2. La fonction de rpartition F de X est dnie pour tout rel x par : F (x) = (X x) =
x

dt 1 1 1 = [arctan t]x = + arctan x. 2) (1 + t 2

Cette fonction de rpartition est reprsente gure 3.6 droite. 3. Par dnition, la variable X de densit f admet une esprance si lintgrale convergente. Or dans notre cas
+

xf (x)dx est

xf (x)dx =

x dx = (1 + x2 )

x dx + (1 + x2 )

+ 0

x dx, (1 + x2 )

intgrale doublement gnralise, qui converge si et seulement si les deux intgrales sont convergentes. Or + x 1 + dx = ln(1 + x2 ) 0 = +, (1 + x2 ) 2 0 donc lintgrale dnissant lesprance est divergente. Par consquent la variable X nadmet pas desprance. Ceci est d au fait que les queues de la densit de X ne dcroissent pas assez vite vers zro lorsque x tend vers . La loi de Cauchy est un exemple typique de loi queue lourde (heavy-tailed distribution). 4. Si Y est une variable alatoire uniforme sur , , sa densit est 2 2 f (y) = 1 (x). ] 2 , 2 [

La fonction tangente tablit une bijection de , vers ] , +[, donc X est valeurs 2 2 dans tout entier. Calculons sa fonction de rpartition en utilisant le fait que la fonction arctan est la rciproque de la fonction tan et quelle est croissante : pour tout rel x, on a F (x) = (X x) = (tan Y x) = (Y arctan x). Le nombre arctan x est entre /2 et +/2 : la variable Y tant uniforme sur cet intervalle, sa probabilit de tomber gauche de arctan x est le rapport entre la longueur du segment ] /2, arctan x[ et celle de lintervalle ] /2, +/2[, cest--dire F (x) =

arctan x (/2) 1 1 = + arctan x, 2 que lon reconnat tre la fonction de rpartition dune loi de Cauchy. Autrement dit, X suit une loi de Cauchy de paramtre 1. Remarque : ceci donne un moyen trs simple de simuler une variable de Cauchy partir dune variable uniforme. Arnaud Guyader - Rennes 2

Probabilits

124

Chapitre 3. Variables alatoires densit Exercice 3.3 (Densits parabolique et circulaire) Soit X une variable alatoire de densit f (x) = c(1 x2 ){1<x<1} . 1. Pour que f soit bien une densit de probabilit, il faut que son intgrale soit gale 1 : x3 1= (1 x )dx = c x f (x)dx = c 3 1
2 1 1

=
1

4c , 3

3 donc c = 3/4 et f (x) = 4 (1 x2 ){1<x<1} . Cette densit est reprsente sur le graphique de gauche de la gure 3.7.
0.8 1

0.7

0.9

0.8 0.6 0.7 0.5

0.6

0.4

0.5

0.3

0.4

0.3 0.2 0.2 0.1

0.1

0 1

0.5

0.5

0 1

0.5

0.5

Figure 3.7 Densit et fonction de rpartition de la loi parabolique. 2. La variable X est valeurs dans ] 1, +1[ donc F est nulle gauche de -1 et vaut 1 droite de 1. Pour x ] 1, 1[, on a
x

F (x) =
1

3 1 3 x3 (1 t2 )dt = = + x . 4 2 4 4

Cette fonction de rpartition est symtrique par rapport au point (0, 1/2), ce qui est d au fait que la variable X est symtrique par rapport 0 (cf. graphique de droite de la gure 3.7). 3. La densit de X tant symtrique par rapport 0, son esprance vaut 0. Quant sa variance, on obtient : Var(X) = E[X 2 ] (E[X])2 = E[X 2 ] = ce qui sintgre sans problme : Var(X) = 3 x3 x5 4 3 5
1

3 4

1 1

x2 (1 x2 )dx =

3 4

1 1

(x2 x4 )dx,

=
1

1 . 5

4. (a) Pour la densit f (x) = c 1 x2 {1<x<1} , nous allons utiliser le changement de variable x = cos t. Pour cela, rappelons que la fonction cosinus tablit une bijection de [0, /2] vers [0, 1], do :
1 1

1=c
1

x2 dx

= 2c
0

x2 dx

= 2c
0

cos2 t sin tdt

= 2c
0

sin2 tdt,

et on applique la formule de linarisation sin2 t = (1 cos 2t)/2 pour nir : 1=c


0
2

sin 2t (1 cos 2t)dt = c t 2

=c , 2 Probabilits

Arnaud Guyader - Rennes 2

3.6. Corrigs do c = . Ce rsultat pouvait se voir sans aucun calcul : laire sous la courbe dnie 2/ par y = 1 x2 est tout simplement la surface dun demi-cercle de rayon 1, donc elle vaut /2. (b) Le raisonnement de la question prcdente va nanmoins nous servir pour dterminer la fonction de rpartition F de X. Comme dans lexemple prcdent, commenons par noter que F est nulle gauche de -1 et vaut 1 droite de 1. De mme, puisque la densit de X est paire, sa fonction de rpartition est symtrique par rapport au point (0, 1/2), cest--dire que F (x) = 1 F (x). En particulier on a F (0) = 1/2. On peut donc se contenter de calculer F (x) pour x ]0, 1[, ce qui donne
x

125

F (x) =
1

t2 dt

1 2 = + 2

arccos x

1 cos2 u sin udu,

et il sut alors de bidouiller tout a comme prcdemment pour arriver : 1 1 arccos x + sin(2 arccos x), 2 et via la relation sin 2t = 2 cos t sin t = 2 cos t 1 cos2 t, il vient nalement pour tout x [0, 1] : x 1 x2 arccos x F (x) = 1 + , et cette formule est encore valide pour x [1, 0]. La densit et la fonction de rpartition de X sont reprsentes gure 3.8. F (x) = 1
0.35 1

0.9 0.3 0.8 0.25

0.7

0.6 0.2 0.5 0.15 0.4

0.1

0.3

0.2 0.05 0.1

0 1

0.5

0.5

0 1

0.5

0.5

Figure 3.8 Densit et fonction de rpartition de la loi circulaire. (c) Par symtrie de X, il est clair que E[X] = 0. Ainsi sa variance est gale son moment dordre 2 : 2 Var(X) = E[X ] =
2 1

x
1

x2 dx

4 =

x
0

x2 dx

4 =

cos2 t sin2 tdt

et via les relations sin 2t = 2 sin t cos t et sin2 (2t) = (1 cos 4t)/2, ceci donne 1 sin 4t Var(X) = t 2 4
2

1 . 4

Exercice 3.4 (Loi exponentielle) Soit > 0 x. On dit que X suit une loi exponentielle de paramtre si X admet pour densit f (x) = ex {x0} . On note alors X E(). Probabilits Arnaud Guyader - Rennes 2

126

Chapitre 3. Variables alatoires densit 1. Puisque est positif, vrier que f est une densit revient vrier que son intgrale vaut 1:
+

f (x)dx =
0

ex dx = ex

+ 0

= 1,

donc f est bien une densit, reprsente (pour = 4) sur le graphique de gauche gure 3.9. 2. Puisque X est valeurs dans [0, +[, il est clair que F (x) = 0 pour x 0. Pour x 0, il vient : x x x et dt = et = 1 ex . f (t)dt = F (x) =
0 0 0

Cette fonction de rpartition est reprsente (pour = 4) sur le graphique de droite gure 3.9.
4 1

3.5

0.9

0.8 3 0.7 2.5

0.6

0.5

1.5

0.4

0.3 1 0.2 0.5

0.1

0.5

1.5

0.5

1.5

Figure 3.9 Densit et fonction de rpartition de la loi exponentielle de paramtre = 4. 3. Le calcul de lesprance de X se fait par une intgration par parties :
+

E[X] =
0

x ex dx = xex

+ 0

+
0

ex dx.

Or > 0 donc limx+ xex = 0, lexponentielle imposant sa limite x. Ainsi : 1 E[X] = ex


+

=
0

1 .

Ce rsultat est intuitivement cohrent : plus est grand, plus X prend souvent des valeurs proches de 0, donc plus sa moyenne est faible. Pour la variance, on commence par calculer E[X 2 ], ce qui se fait derechef via une intgration par parties : E[X 2 ] =
0 +

x2 ex dx = x2 ex

+ 0

+
0

2xex dx = 2
0

xex dx.

Or cette intgrale a quasiment t calcule ci-dessus :


+

2
0

xex dx =

+ 0

x ex dx =

2 2 E[X] = 2 .
t

4. La dure de vie T en annes dune tlvision suit une loi de densit f (t) = 1 e 8 {t0} . 8

Ainsi Var(X) = E[X 2 ] (E[X])2 = 1/2 .

(a) On reconnat une loi exponentielle : T E(1/8). La dure de vie moyenne de cette tlvision est donc E[T ] = 8 ans. Lcart-type de cette dure de vie est (T ) = 8 ans. Probabilits

Arnaud Guyader - Rennes 2

3.6. Corrigs (b) La probabilit que cette tlvision ait une dure de vie suprieure 8 ans est :

127

(T 8) = 1 (T 8) = 1 F (8) = 1 1 e8/8 = e1 0.37.


Il y a donc environ 37% de chances que cette tlvision dure plus de 8 ans. Exercice 3.5 (Absence de mmoire) Soit X une variable qui suit une loi exponentielle de paramtre 1. 1. Daprs lexercice prcdent, on a pour tout t 0 :

(X > t) = 1 (X t) = 1 F (t) = 1 1 et = et .
2. Pour tout couple (x, t) + + , nous avons donc :

(X > x + t|X > x) =

({X > x + t} {X > x}) (X > x + t) e(x+t) = = = et (X > x) (X > x) ex (X > x + t|X > x) = (X > t). La loi exponentielle

donc daprs la question prcdente na pas de mmoire.

3. Application : la probabilit cherche scrit

(X > 2 + 8|X > 2) = (X > 8) = e1 0.37.


Exercice 3.6 (Dure de vie) Un appareil comporte six composants de mme modle, tous ncessaires son fonctionnement. La t t densit de la dure de vie T dun composant est donne par f (t) = 16 e 4 {t0} , lunit de temps tant lanne. 1. La fonction f est positive donc pour tre une densit de probabilit, il sut quelle somme 1, ce qui se vrie par une intgration par parties :
+ 0

t t t t e 4 dt = e 4 16 4

+
0 0

t 1 t e 4 dt = e 4 4

+ 0

= 1.

2. Considrons une variable alatoire X E(), alors on montre facilement par rcurrence que son moment dordre n est n!/n , cest--dire : E[X n ] =
0 +

xn ex dx =

n! . n

Cette relation gnrale permet de calculer esprance et variance de T en considrant le cas particulier o X E(1/4) :
+

E[T ] =
0

t2 t 1 e 4 dt = 16 4

+ 2 t 0

e 4 dt =

E[X 2 ] = 8. 4

Pour le calcul de la variance, on commence par le moment dordre 2 : E[T 2 ] =


0 +

t3 t 1 e 4 dt = 16 4

+ 3 t 0

e 4 dt =

E[X 3 ] = 96. 4

Il sensuit que : Var(T ) = E[T 2 ] (E[T ])2 = 32. Probabilits Arnaud Guyader - Rennes 2

128

Chapitre 3. Variables alatoires densit Remarque : Lois Gamma. Soit n et > 0. On dit que T suit une loi Gamma de paramtres n et , not T (n, ), si T admet pour densit : f (t) = (t)n1 et {t0} . (n 1)!

On voit ainsi que la variable tudie dans cet exercice suit une loi (2, 1/4). Lintrt des lois Gamma vient de la remarque suivante : si T1 , . . . , Tn sont des variables indpendantes et de mme loi E(), alors leur somme T suit une loi Gamma : T = T1 + + Tn (n, ). De la connaissance des lois exponentielles, on dduit alors sans calculs lourdingues que E[T ] = nE[T1 ] = n/ et Var(T ) = nVar(T1 ) = n/2 . 3. La probabilit que lappareil fonctionne durant au moins six ans partir de sa mise en marche est : + + t t t t + 1 t (T 6) = e 4 dt = e 4 e 4 dt, + 16 4 4 6 6 6 cest--dire :

(T 6) = e 2 + e 4
3 t

3 2

+ 6

5 3 = e 2 0.56. 2

Exercice 3.7 (Loi de Pareto) La variable alatoire T , reprsentant la dure de vie en heures dun composant lectronique, a pour densit f (t) = 10 {t>10} . t2
0.1 0.09 0.08 0.07 0.06 0.05 0.04 0.03 0.02 0.01 0 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0

50

100

150

200

50

100

150

200

Figure 3.10 Densit et fonction de rpartition de la loi de Pareto. 1. Le calcul se fait sans problme partir de la densit :

(T > 20) =

+ 20

10 10 dt = 2 t t

+ 20

1 = . 2

Remarque : la loi de Pareto est un autre exemple de distribution queue lourde. En particulier, on voit ici quelle nadmet pas desprance puisque
+

tf (t)dt =
10

10 dt = [10 ln t]+ = +. 10 t

2. Notons F la fonction de rpartition de T . Puisque T est valeurs dans lintervalle [10, +[, F est nulle sur ] , 10[. Pour t 10, on a :
t

F (t) =
10

10 10 du = 2 u u

10

=1

10 . t

La densit et la fonction de rpartition sont reprsente sur la gure 3.10. Arnaud Guyader - Rennes 2 Probabilits

3.6. Corrigs 3. Commenons par calculer la probabilit p quun composant fonctionne durant au moins 15 heures. Celle-ci scrit : p = (T > 15) =
+ 15

129

10 10 dt = 2 t t

+ 15

2 = . 3

Puisque les composants sont indpendants, le nombre de composants parmi les 6 tre encore en fonctionnement aprs 15 heures est une variable X distribue suivant une loi binomiale B(6, 2/3). Ainsi la probabilit P que parmi 6 composants indpendants, au moins 3 dentre eux fonctionnent durant au moins 15 heures scrit : P = (X 3) = 1 (X < 3) = 1 ((X = 0) + (X = 1) + (X = 2)), qui se dveloppe en : P =1
0 C6

2 3

1 3

6 1 + C6

2 3

1 3

5 2 + C6

2 3

1 3

656 0.9 729

Il y a donc environ 90% de chances quau moins 3 des composants fonctionnent durant au moins 15 heures. Exercice 3.8 (Tirages uniformes sur un segment) Cet exercice a t trait dans le chapitre 1 (exercice 1.37). La seule dirence ici se trouve dans la formulation en termes de variables alatoires. Exercice 3.9 (Problmes de densit) 1. Puisque X prend ses valeurs dans [0, 1], Y = 1 X aussi, donc si on note F la fonction de rpartition de Y , il en dcoule que F est nulle gauche de 0 et vaut 1 droite de 1. Pour y [0, 1], il sut de se ramener X : F (y) = (Y y) = (1 X y) = (X 1 y) = 1 (1 y) = y, o lon retrouve la fonction de rpartition de la loi uniforme sur [0, 1], ainsi Y U[0,1] . ce rsultat tait intuitivement clair : puisque X se distribue de faon uniforme sur [0, 1], il en va de mme pour 1X. Concernant la variable alatoire Z = (X +Y ), on a Z = X +(1X) = 1, cest--dire que Z ne prend que la valeur 1 et na rien dalatoire. On peut aussi voir Z comme une variable discrte prenant la valeur 1 avec probabilit 1. Ce petit exemple montre que la somme de deux variables densit na pas forcment de densit (tandis que la somme de deux variables discrtes reste toujours une variable discrte). 2. La variable X est valeurs dans [0, 1], donc sa fonction de rpartition est nulle sur et vaut 1 sur [1, +[. Notons P (respectivement F ) lvnement la pice donne Pile (respectivement Face) et U le rsultat du tirage uniforme. Considrons x [0, 1[, alors par indpendance du lancer de d et du tirage uniforme il vient : F (x) = (X x) = ({U x} {F }) = (U x)(F ) = x . 2

Ainsi F est une fonction continue par morceaux, avec un saut damplitude 1/2 en 1 (cf. gure 3.11). Autrement dit, la variable X nest ni discrte ni absolument continue, cest une sorte de cocktail. Exercice 3.10 (Minimum de variables exponentielles) 1. On considre deux variables alatoires indpendantes X1 et X2 exponentielles de paramtres respectifs 1 et 2 . Soit Y = min(X1 , X2 ) le minimum de ces deux variables. Probabilits Arnaud Guyader - Rennes 2

130

Chapitre 3. Variables alatoires densit

1 1/2

1 Figure 3.11 Fonction de rpartition de la variable cocktail. (a) Pour tout rel y : o F1 est la fonction de rpartition de la loi exponentielle E(1 ). Ainsi, P (X1 > y) = 1 si y 0, et si y 0 nous avons P (X1 > y) = 1 1 e1 y = e1 y . (b) La variable Y , en tant que minimum de deux variables positives, est elle-mme positive donc P (Y > y) = 1 pour tout y 0. Pour y > 0, utilisons lindpendance des deux variables pour transformer une probabilit dintersection en produit de probabilits : P (Y > y) = (min(X1 , X2 ) > y) = (X1 > y, X2 > y) = (X1 > y)(X2 > y) cest--dire : P (Y > y) = e1 y e2 y = e(1 +2 )y . En notant F la fonction de rpartition de la variable Y , il en dcoule que pour tout y>0: F (y) = 1 P (Y > y) = 1 e(1 +2 )y , (c) La fonction de rpartition caractrisant compltement la loi dune variable alatoire, on en dduit que Y suit une loi exponentielle de paramtre (1 + 2 ). 2. Pour rpondre cette question, il sut dappliquer le rsultat prcdent en considrant X1 (respectivement X2 ) comme le temps mis par Alice (respectivement Bob) pour pouvoir sortir. Lnonc implique que X1 E(1/20) et X2 E(1/30). Le temps mis par le premier pour sortir est la variable alatoire Y = min(X1 , X2 ), laquelle suit donc une loi exponentielle de paramtre 1/20 + 1/30 : Y E(5/60). En moyenne, le premier sort donc au bout de E[Y ] = 60/5 = 12 minutes. 3. Le temps ncessaire pour que les deux soient sortis correspond la variable X = max(X1 , X2 ). La loi de X nest plus une bte exponentielle : on pourrait facilement la dterminer via sa fonction de rpartition, mais nul besoin ici puisquon ne sintresse qu sa moyenne. Il sut en eet de remarquer que X + Y = X1 + X2 pour en dduire que E[X] = E[X1 ] + E[X2 ] E[Y ] = 20 + 30 12 = 38 minutes. Remarque : Notons que par dnition du minimum, nous avons la fois Y X1 et Y X2 , donc il nest pas tonnant de voir que E[Y ] E[X1 ] et E[Y ] E[X2 ] (proprit de positivit de lesprance). Idem pour le maximum. Arnaud Guyader - Rennes 2 Probabilits et bien sr F (y) = 0 si Y 0. P (X1 > y) = 1 P (X1 y) = 1 F1 (y),

3.6. Corrigs Exercice 3.11 (Loi de Laplace) Cet exercice est corrig en annexe (sujet de dcembre 2009). Exercice 3.12 (Think Tank) Une station-service est approvisionne en essence une fois par semaine. Son volume de vente hebdomadaire, en milliers de litres, est une variable alatoire X de densit f (x) = c(1 x)4 {0<x<1} .
0.2 1

131

0.18

0.9

0.16

0.8

0.14

0.7

0.12

0.6

0.1

0.5

0.08

0.4

0.06

0.3

0.04

0.2

0.02

0.1

0.2

0.4

0.6

0.8

0.2

0.4

0.6

0.8

Figure 3.12 Densit et fonction de rpartition de la variable X (volume de vente hebdomadaire).

1. Comme dhabitude, il faut que c vrie :


1

1=

f (x)dx = c
0

(1 x)4 dx = c

(1 x)5 5

1 0

c = , 5

donc il faut c = 1/5, ce qui donne 1 f (x) = (1 x)4 {0<x<1} . 5 2. La fonction de rpartition F est nulle gauche de 0 et vaut 1 droite de 1. Pour 0 x 1, on a : x x f (t)dt = (1 t)5 0 = 1 (1 x)5 . F (x) =
0

Densit et fonction de rpartition sont reprsentes gure 3.12. 3. Puisque X reprsente le volume de vente hebdomadaire, nous cherchons la valeur x telle que (X > x) 105 , cest--dire tel que 1 F (x) 105 , or : 1 F (x) 105 (1 x)5 105 1 x 101 x 0.9. Il faut donc que la capacit du rservoir soit dau moins 900 litres. Exercice 3.13 (Loi polynomiale) Soit X une variable alatoire de densit f (x) = c(x + x2 ) sur lintervalle [0, 1]. 1. Pour que f soit eectivement une densit, il faut que
1

1=

f (x)dx = c
0

(x + x2 )dx = c

x2 x3 + 2 3

=
0

5c , 6

donc il faut c = 6/5, ce qui donne f (x) = 6 (x + x2 ){0<x<1} . 5 Probabilits Arnaud Guyader - Rennes 2

132
2.5 1

Chapitre 3. Variables alatoires densit

0.9

0.8

0.7

1.5

0.6

0.5

0.4

0.3

0.5

0.2

0.1

0.2

0.4

0.6

0.8

0.2

0.4

0.6

0.8

Figure 3.13 Densit et fonction de rpartition de la variable X (volume de vente hebdomadaire).

2. La fonction de rpartition F est nulle gauche de 0 et vaut 1 droite de 1. Pour 0 x 1, on a : x x 6 t2 t3 6 x2 x3 f (t)dt = F (x) = + + = . 5 2 3 0 5 2 3 0 Densit et fonction de rpartition sont reprsentes gure 3.13. 3. Lesprance de X vaut : E[X] = 6 5
1 0

x(x + x2 )dx = c

x3 x4 + 3 4

=
0

7 . 10

Pour lcart-type, on commence par calculer le moment dordre 2 de X : E[X 2 ] = 6 5


1 0

x2 (x + x2 )dx =

6 x4 x5 + 5 4 5

=
0

27 . 50

Lcart-type de X sen dduit : (X) = E[X 2 ] (E[X])2 = 5 0.224. 10

Exercice 3.14 (Ambulance et accidents) Une station dambulances se situe au kilomtre 30 dune route de 100 kms de long. Les accidents sont supposs arriver uniformment sur cette route. Lambulance roule 100 km/h pour intervenir sur le lieu dun accident. Notons T le temps coul (en minutes) entre lappel la station et larrive de lambulance sur le lieu de laccident. 1. Au mieux laccident a lieu devant la station, auquel cas T = 0. Au pire, laccident se produit 70 kms de la station et il faut alors 70 60/100 = 42 minutes lambulance pour arriver. La variable T prend donc ses valeurs dans lintervalle [0, 42]. 2. Puisque lambulance roule 100 km/h pour intervenir sur le lieu dun accident, la quantit (T > 30) est la probabilit quun accident ait lieu une distance suprieure 50 kms de la station, cest--dire entre le kilomtre 80 et le kilomtre 100 de la route. Puisque les accidents sont supposs arriver uniformment sur les 100 kms, on en dduit que la quantit cherche vaut : 100 80 1 (T > 30) = = . 100 5 Il y a donc une chance sur 5 que lambulance mette plus dune demi-heure intervenir. Arnaud Guyader - Rennes 2 Probabilits

3.6. Corrigs 3. Pour le calcul plus gnral, commenons par voir quun accident situ plus de trente kilomtres de la station ne peut se situer quen un endroit (disons louest de la station), tandis quun accident situ moins de trente kilomtres de la station peut se situer en deux endroits ( lest ou louest). Il faut 30 60/100 = 18 minutes pour faire 30 kms. Ainsi, pour t [18, 42], le raisonnement de la question prcdente sapplique :

133

(T > t) =

100 (30 + t 100/60) 7 t = . 100 10 60

Pour t [0, 18], on passe lvnement complmentaire :

(T > t) = 1 (T t) = 1
Par ailleurs, il est clair que

(30 + t 100/60) (30 t 100/60) t =1 . 100 30

4. La fonction de rpartition F de la variable T est nulle gauche de 0 et vaut 1 droite de 42, donc la densit f est nulle gauche de 0 et droite de 1. Pour t [0, 18], nous pouvons crire : t 1 f (t) = , F (t) = 1 (T > t) = 30 30 tandis que pour t [18, 42] : F (t) = 1 (T > t) = t 1 3 + f (t) = . 10 60 60

(T > t) = 1 pour tout t 0 et (T > t) = 0 pour tout t 42.

La densit de T est donc une fonction constante par morceaux. Dans ces conditions, la moyenne de T vaut : E[T ] =

tf (t)dt =

1 30

18

tdt +
0

1 60

42

tdt =
18

1 t2 30 2

18

+
0

1 t2 60 2

42

= 17.4
18

Le temps dintervention moyen est donc de 17 minutes et 24 secondes. Pour la variance, commenons par calculer le moment dordre 2 de T : E[T 2 ] =

t2 f (t)dt =

1 30

18 0

t2 dt +

1 60

42 18

t2 dt =

1 t3 30 3

18

+
0

1 t3 60 3

42

= 444.
18

On en dduit Var(X) = 444 17.42 = 141.24, donc (X) 11.88. Lcart-type du temps dintervention est donc un peu infrieur 12 minutes. Exercice 3.15 (Minimum duniformes) Soit n variables alatoires U1 , . . . , Un indpendantes et de mme loi uniforme sur [0, 1]. On considre la variable X = min(U1 , . . . , Un ). 1. On connat la fonction de rpartition dune loi uniforme donc pour t [0, 1] :

(U > t) = 1 (U t) = 1 t.
2. La variable X est valeurs dans lintervalle [0, 1] donc sa fonction de rpartition vaut 0 sur et 1 sur [1, +[. Pour t [0, 1], passons lvnement complmentaire : F (x) = (X x) = 1 (X > x) = 1 (U1 > x, . . . , Un > x), et appliquons lindpendance des variables Ui : F (x) = 1 (U1 > x) . . . (Un > x) = 1 (1 x)n . Probabilits Arnaud Guyader - Rennes 2

134

Chapitre 3. Variables alatoires densit 3. Notons f la densit de X. Il est clair que f = 0 sur et sur [1, +[. Pour x [0, 1], il sut de driver la fonction de rpartition F , ce qui donne au nal : f (x) = n(1 x)n1 {0x1} . Le calcul de lesprance de X est alors automatique :
1

E[X] =

xf (x)dx =
0

xn(1 x)n1 dt,

o lon applique naturellement une intgration par parties : E[X] = [x(1 x)n ]1 0
1

+
0

(1 x)n+1 (1 x) dx = n+1
n

=
0

1 . n+1

Dans le cas particulier o n = 1, on a X = U1 et on retrouve E[X] = 1/2, moyenne dune loi uniforme sur [0, 1]. Exercice 3.16 (Racines dun trinme alatoire) La variable U suit une loi uniforme sur [0, 5]. On considre le trinme alatoire P (x) = 4x2 + 4U x + U + 2. 1. Le discriminant de P vaut : = 16(U 2 U 2) = 16(U + 1)(U 2). 2. On peut crire D(u) = (u + 1)(u 2), do lon dduit que D admet les 2 racines 1 et 2, est strictement ngative sur ] 1, +2[ et strictement positive sur ] , 1[ et sur ] + 2, +[.

3. Pour que P ait deux racines relles distinctes, il faut et il sut que son discriminant soit strictement positif. Au vu des deux questions prcdentes et puisque U prend ses valeurs sur [0, 5], on en dduit que la probabilit p que P ait deux racines relles distinctes vaut : 3 p = (U ] , 1[] + 2, +[) = (2 < U 5) = . 5

Exercice 3.17 (Lien entre lois exponentielle et gomtrique) Soit X une variable alatoire suivant une loi exponentielle E(1), et Y = X la variable gale sa partie entire suprieure (cest--dire que 2.8 = 3 et 4 = 4). 1. Puisque X est valeurs dans ]0, +[, Y est valeurs dans

. Pour tout n , on a :

(Y = n) = (n1 < X n) = F (n)F (n1) = 1 en 1 e(n1) = e(n1) en


qui scrit encore :

(Y = n) = 1 e1 e(n1) .

Sa variance vaut quant elle :

On voit que Y suit donc une loi gomtrique de paramtre 1 1/e, not Y G(1 1/e). Sa moyenne vaut donc 1 e E[Y ] = = 1.58. 1 1/e e1 e 1 (1 1/e) = 0.92. 2 (1 1/e) (e 1)2 Probabilits

Var(Y ) = Arnaud Guyader - Rennes 2

3.6. Corrigs 2. Soit alors Z = Y X. la variable Z est valeurs dans [0, 1[ puisque pour tout rel x, x x < x + 1. Soit donc z [0, 1[ : dire que Z = Y X = X X est infrieure z, cest dire que X est distance infrieure z de lentier suprieur le plus proche, cest--dire quil existe n tel que n z X n. Formalisons ceci :

135

(Z z) =

n=1

{n z X n} .

Puisquon a aaire une union dvnements deux deux disjoints, la sigma-additivit sapplique :

(Z z) =

+ n=1

(n z X n) =

+ n=1

(F (n) F (n z)),

o F est comme prcdemment la fonction de rpartition dune loi exponentielle de paramtre 1:

(Z z) =

n=1

1 en 1 e(nz)
+ n=1

=
n=1

(ez 1) en ,

et on reconnat une srie gomtrique de raison 1/e :

(Z z) = (e 1)
z

en = (ez 1)

ez 1 e1 . = 1 e1 e1

On a ainsi dtermin la fonction de rpartition de la variable alatoire Z. 3. Sa densit sen dduit par drivation : f (z) = ez (z). e 1 [0,1]

4. Pour trouver E[Z], inutile de passer par la densit, il sut dutiliser les moyennes des lois gomtrique et exponentielle : E[Z] = E[Y X] = E[Y ] E[X] = Exercice 3.18 (Moments dune loi normale) Pour tout n , on note :
+

e 1 1= 0.58. e1 e1

In = 1. I0 =

xn e

x2 2

dx.

2 puisquon reconnat la densit dune loi normale centre rduite. Pour I1 , on a :


+

I1 = 2. Pour tout n , on peut crire :


+

xe

x2 2

dx = e
+

x2 2

= 0.

In+2 =

xn+2 e

x2 2

dx =
+

(xn+1 )(xe

x2 2

) dx,

et on eectue une intgration par parties : In+2 = xn+1 e


x2 2

(n + 1)xn e

x2 2

dx = (n + 1)In ,

la dernire galit venant du fait que lexponentielle lemporte sur la puissance :


x+

lim xn+1 e

x2 2

= lim xn+1 e
x

x2 2

= 0. Arnaud Guyader - Rennes 2

Probabilits

136

Chapitre 3. Variables alatoires densit 3. Puisque I1 = 0, on en dduit que I3 = 0, puis que I5 = 0, et de proche en proche il est clair que I2n+1 = 0 pour tout n . Ce rsultat tait dailleurs clair sans calculs puisquon intgre une fonction impaire sur un domaine symtrique par rapport 0. 4. Pour les indices pairs, on a I2 = 1 I0 = 2, puis I4 = 3 I2 = 3 1 I0 = 3 2, et de proche en proche : I2n = (2n 1) (2n 3) 3 1 I0 = (2n)! 2. 2n n!

5. Pour dterminer E[X 4 ], il y a deux mthodes quivalentes. Mthode analytique : on crit lesprance sous forme dintgrale : E[X 4 ] =
+
(x1)2 x4 e 2 dx, 2

et on eectue le changement de variable u = x 1, ce qui donne : E[X 4 ] = On utilise la formule du binme : (u + 1)4 = u4 + 4u3 + 6u2 + 4u + 1, et on peut alors tout exprimer en fonction des In : 1 E[X 4 ] = (I4 + 4I3 + 6I2 + 4I1 + I0 ) = 10. 2 Mthode probabiliste : lide est la mme, puisquon sait que si X N (1, 1), alors Y = X 1 N (0, 1). Donc, par les calculs faits avant, on sait que E[Y ] = E[Y 3 ] = 0, E[Y 2 ] = 1 et E[Y 4 ] = 3. Or on a : E[X 4 ] = E[(Y + 1)4 ] = E[Y 4 ] + 4E[Y 3 ] + 6E[Y 2 ] + 4E[Y ] + 1 = 3 + 6 + 1 = 10. Exercice 3.19 (Autour de la loi normale) Cet exercice est corrig en annexe (sujet de dcembre 2009). Exercice 3.20 (Variable densit) Cet exercice est corrig en annexe (sujet de dcembre 2010). Exercice 3.21 (Diamtre dune bille) Cet exercice est corrig en annexe (sujet de dcembre 2010). Exercice 3.22 (Tchernobyl for ever) Cet exercice est corrig en annexe (sujet de dcembre 2010).
+

(u + 1)4 u2 e 2 du. 2

Arnaud Guyader - Rennes 2

Probabilits

Annexe A

Annexes
A.1 Annales
Mercredi 21 Octobre 2009 Dure : 1 heure

Universit de Rennes 2 Licence MASS 2 Arnaud Guyader

Contrle de Probabilits

I. QCM Chaque rponse correcte rapporte 0.5 point, chaque rponse incorrecte enlve 0.25 point. 1. Soit un ensemble muni dune tribu F. Est-ce que F ? 2 Oui. 2 Non. 2. Soit un ensemble. Est-ce que P(), ensemble des parties de , est une tribu ? 2 Oui. 2 Non. 3. Soit un ensemble et A un sous-ensemble de . Est-ce que {, A, } est une tribu ? 2 Oui. 2 Non. 4. Soit (, F, ) un espace probabilis et A1 , . . . , An lments de F. Cochez la (ou les) armation(s) vraie(s) parmi les suivantes : 2 (A1 An ) n (Ai ). i=1 137 2 (A1 An ) = n (Ai ). i=1 2 (A1 An ) min1in (Ai ). 2 (A1 An ) max1in (Ai ). 5. Soit (, F, ) un espace probabilis et (An )n0 une suite dlments de F croissante pour linclusion. A-t-on ( + An ) = limn+ (An ) ? n=0 2 Oui. 2 Non. 6. Soit (, F, ) un espace probabilis, (An )1in lments de F. A-t-on (An ) = (An |An1 )(An1 |An2 ) . . . (A2 |A1 )(A1 ) ? 2 Oui. 2 Non. 7. Soit (, F, ) un espace probabilis, (An )1in une partition de F et A un lment quelconque de F. A-t-on (A) =

138
n i=1

Annexe A. Annexes

2 Oui. 2 Non. 8. Que vaut la somme SN = 3 2 SN = 3(1 ( 4 )N +1 ). 3 N +1 ). 2 SN = 4(1 ( 4 ) 3 N 2 SN = 3(1 ( 4 ) ). II. Dnombrements

(A|Ai ) ?

3 2 SN = 4(1 ( 4 )N ).

N 3 n n=1 ( 4 ) ?

9. Que vaut la somme 2 2n . 2 2n . 2 (3/2)n . 2 (1/2)n .

k Cn n k=0 2k

1. Les initiales de Andr Kolmogorov sont A.K. Combien y a-t-il dinitiales possibles en tout ? Combien au minimum un village doit-il avoir dhabitants pour quon soit sr que deux personnes au moins aient les mmes initiales ? 2. Lors dune course hippique, 12 chevaux prennent le dpart. Donner le nombre de tiercs dans lordre (un tierc dans lordre est la donne du premier, du deuxime et du troisime cheval arrivs, dans cet ordre). 3. Dans un jeu de 32 cartes, on a remplac une carte autre que la dame de cur par une seconde dame de cur. Une personne tire au hasard 3 cartes simultanment. Quelle est la probabilit quelle saperoive de la supercherie ? III. Probabilits 1. Deux urnes contiennent chacune initialement 2 boules noires et 3 boules blanches. On tire au hasard une boule de la premire urne, on note sa couleur et on la remet dans la seconde urne. On tire alors au hasard une boule de la seconde urne. Quelle est la probabilit dobtenir deux fois une boule noire ? 2. Une population possde une proportion p ]0, 1[ de tricheurs. Lorsquon fait tirer une carte dun jeu de 52 cartes un tricheur, il est sr de retourner un as. Exprimer en fonction de p la probabilit quun individu choisi au hasard dans la population retourne un as. 3. On prend un d au hasard parmi un lot de 100 ds dont 25 sont pips. Pour un d pip, la probabilit dobtenir 6 est 1/2. On lance le d choisi et on obtient 6. (a) Quelle est la probabilit que ce d soit pip ? (b) On relance alors ce d et on obtient nouveau 6. Quelle est la probabilit que ce d soit pip ? (c) (Bonus) Gnralisation : on lance n fois le d et chaque fois on obtient 6. Quelle est la probabilit pn que ce d soit pip ? Que vaut limn pn ? Commenter ce rsultat.

Arnaud Guyader - Rennes 2

Probabilits

A.1. Annales Universit de Rennes 2 Licence MASS 2 Arnaud Guyader

139

Mercredi 21 Octobre 2009 Dure : 1 heure

Corrig du Contrle

I. QCM 1. Soit un ensemble muni dune tribu F. Est-ce que F ? Oui. 2 Non. 2. Soit un ensemble. Est-ce que P(), ensemble des parties de , est une tribu ? Oui. 2 Non. 3. Soit un ensemble et A un sous-ensemble de . Est-ce que {, A, } est une tribu ? 2 Oui. Non. 4. Soit (, F, ) un espace probabilis et A1 , . . . , An lments de F. Cochez la (ou les) armation(s) vraie(s) parmi les suivantes : (A1 An ) n (Ai ). i=1 2 (A1 An ) = n (Ai ). i=1 (A1 An ) min1in (Ai ). 2 (A1 An ) max1in (Ai ). 5. Soit (, F, ) un espace probabilis et (An )n0 une suite dlments de F croissante pour linclusion. A-t-on ( + An ) = limn+ (An ) ? n=0 II. Dnombrements 1. Puisquil y a 26 lettres dans lalphabet, il y a en tout 262 = 676 initiales possibles (on exclut ici les prnoms composs). Pour que deux personnes au moins aient les mmes initiales, un village doit donc compter au moins 677 habitants. 2. Il y a 12 possibilits pour le premier cheval arriv, 11 pour le deuxime et 10 pour le troisime, donc N = 12 11 10 = A3 = 1320 tiercs possibles. 12 Probabilits Arnaud Guyader - Rennes 2 2 Oui. 6. Soit (, F, ) un espace probabilis, (An )1in lments de F. A-t-on (An ) = (An |An1 )(An1 |An2 ) . . . (A2 |A1 )(A1 ) ? 2 Oui. Non. 7. Soit (, F, ) un espace probabilis, (An )1in une partition de F et A un lment quelconque de F. A-t-on (A) = n i=1 (A|Ai ) ? 2 Oui. Non. 8. Que vaut la somme SN = 2 SN = 3(1 ( 3 )N +1 ). 4 2 SN = 4(1 ( 3 )N +1 ). 4 SN = 3(1 ( 3 )N ). 4 3 2 SN = 4(1 ( 4 )N ). 9. Que vaut la somme 2 2n . 2 2n . (3/2)n . 2 (1/2)n .
N 3 n n=1 ( 4 )

Non.

k Cn n k=0 2k

140

Annexe A. Annexes 3. Pour que la personne se rende compte de la supercherie, il faut que parmi les 3 cartes tires il y ait les 2 dames de cur. Le nombre de tirages possibles de 3 cartes est le nombre de 3 combinaisons de 3 lments parmi 32, cest--dire C32 = 4960. Le nombre de tirages contenant les 2 dames de cur est 30 puisque seule la dernire carte est au choix. La probabilit 30 quon saperoive du problme est donc p = 4960 0, 006. III. Probabilits 1. Notons N1 (resp. N2 ) lvnement : Tirage dune boule noire au premier (resp. second) tirage. La probabilit cherche est donc : Dans lurne initiale il y a 2 noires et 3 blanches donc (N1 ) = 2/5. Sachant quon a pioch une noire au premier tirage, on connat la composition de la seconde urne avant le second tirage : il y a 3 noires et 3 blanches, donc (N2 |N1 ) = 1/2. Ainsi p = 1/5. 2. Notons A lvnement : Lindividu tire un as et T lvnement : Lindividu est un tricheur. On cherche donc (A) que lon dcompose sur la partition (T, T ) via la formule des probabilits totales : (A) = (A|T )(T ) + (A|T )(T ). On connat (T ) = p et (A|T ) = 1. Il reste voir que pour 52 cartes. On arrive nalement : p = (N1 N2 ) = (N2 |N1 )(N1 ).

(A|T ) = 1/13 puisquil y a 4 as

(A) =

1 + 12p . 13

3. On note simplement 6 lvnement : Le lancer donne un 6, et P lvnement : Le d est pip. (a) On cherche ici (P|6) et on utilise la formule de Bayes :

(P|6) =

(6|P)(P) . (6|P)(P) + (6|P)(P) (6|P) = 1/2, par ailleurs on sait que (6|P) =
1 2 1 4

Le texte nous dit que (P) = 1/4 et 1/6, ce qui donne au total :

(P|6) =

1 2

1 4 1 6

3 4

1 . 2

(b) On note 66 lvnement : Les 2 lancers donnent 6, donc on cherche cette fois et on utilise nouveau la formule de Bayes :

(P|66)

(66|P)(P) . (66|P)(P) + (66|P)(P) Il sut alors de voir que par indpendance des lancers on a (66|P) = (6|P)(6|P) = 1/4 et (66|P ) = (6|P)(6|P ) = 1/36. Ceci donne (P|66) = 3/4. (P|66) =
(c) On note n lvnement : Les n lancers donnent 6, et on raisonne comme ci-dessus :

(n|P)(P) pn = (P|n) = = (n|P)(P) + (n|P)(P)

1 n 1 2 4 n n 1 1+ 1 2 4 6

3 4

1 1+

. 1 n1 3

On a donc limn pn = 1. Que le d soit pip ou non, la probabilit dobtenir n fois de suite un 6 tend vers zro. Nanmoins, on a bien plus de chances que ce phnomne arrive avec un d pip quavec un d non pip : cest ce que dit limn pn = 1.

Arnaud Guyader - Rennes 2

Probabilits

A.1. Annales Universit de Rennes 2 Licence MASS 2 Dure : 2 heures

141

Lundi 14 Dcembre 2009 Calculatrice autorise Aucun document

Contrle de Probabilits

I. Boules blanches et noires Un sac contient 8 boules blanches et 2 boules noires. On tire les boules les unes aprs les autres, sans remise, jusqu obtenir une boule blanche. On appelle X le nombre de tirages ncessaires pour obtenir cette boule blanche. 1. Quelles valeurs peut prendre la variable alatoire X ? 2. Donner la loi de X. 3. Reprsenter sa fonction de rpartition F . 4. Calculer E[X] et Var(X). II. Dfaut de fabrication On admet que la probabilit de dfaut pour un objet fabriqu la machine est gale 0,1. On considre un lot de 10 objets fabriqus par cette machine. Soit X le nombre dobjets dfectueux parmi ceux-ci. 1. Comment sappelle la loi suivie par X ? 2. Que valent E[X] et Var(X) ? 3. Quelle est la probabilit que le lot comprenne au plus 1 objet dfectueux ? 4. Retrouver ce rsultat grce lapproximation par une loi de Poisson. III. Recrutement Une entreprise veut recruter un cadre. Il y a en tout 10 candidats se prsenter pour ce poste. Lentreprise fait passer un test au premier candidat, qui est recrut sil le russit. Sinon, elle fait passer le mme test au second candidat et ainsi de suite. On suppose que la probabilit quun candidat russisse le test est gale p, rel x compris entre 0 et 1. On appelle alors X la variable alatoire valeurs dans {1, . . . , 11} qui vaut k si cest le candidat numro k qui est recrut, et 11 si aucun candidat nest recrut. 1. Calculer en fonction de p les probabilits aussi (X = 11).

(X = 1), (X = 2), . . . , P (X = 10). Dterminer

2. Comment doit-on choisir p pour que la probabilit de ne recruter personne soit infrieure 1% ? Probabilits Arnaud Guyader - Rennes 2

142 3. Pour n x, on considre la fonction P dnie par :


n

Annexe A. Annexes

P (x) = 1 + x + + xn =

xj .
j=0

Exprimer sa drive P (x) sous la forme dune somme de n termes. 4. Pour x = 1, crire plus simplement P (x) (penser la somme des termes dune suite gomtrique). En dduire une autre expression de P (x), savoir : P (x) = nxn+1 (n + 1)xn + 1 . (1 x)2 1 (1 p)11 . p

5. Dduire des questions prcdentes que X a pour moyenne : E[X] =

6. Supposons maintenant quil ny ait pas seulement 10 candidats, mais un nombre inni, et que lon procde de la mme faon. Appelons Y le numro du candidat retenu. Quelle est la loi classique suivie par Y ? Rappeler son esprance. La comparer E[X] lorque p = 1/2. IV. Autour de la loi normale On considre une variable alatoire X de loi normale N (0, 1).

2. Que vaut E[X 2 ] ? Dduire de ce rsultat et de la question prcdente la valeur de E[X 4 ]. 3. Que vaut E[X 3 ] ? 4. Soit Y la variable alatoire dnie par Y = 2X + 1. (a) Quelle est la loi de Y ? (b) Dterminer E[Y 4 ] (on pourra utiliser la formule du binme et les moments de X trouvs prcdemment). 5. A laide de la table de la loi normale, dterminer Tchebychev dans ce cas ? Comparer et commenter.

1. Montrer que, pour tout n , on a : E[X n+2 ] = (n + 1)E[X n ] (intgrer par parties).

(|X| 2). Que donne lingalit de

6. On considre maintenant que X suit une loi normale de moyenne 7 et dcart-type 4.

(X 8) et (5 X 9). (b) Dterminer q tel que (X > q) = 0, 9.


(a) Dterminer 7. (Bonus) La taille des enfants dun collge est distribue selon une loi normale de moyenne m et dcart-type . On sait quun cinquime des lves mesurent moins de 1m50 et que 10% des lves mesurent plus de 1m80. Dterminer m et . V. Loi de Laplace On considre une variable alatoire X dont la densit f est donne par : x , 1. Vrier que f est bien une densit sur 1 f (x) = e|x| , 2

o |x| reprsente la valeur absolue de x, cest--dire |x| = x si x 0 et |x| = x si x 0.

. Reprsenter f .

2. On note F la fonction de rpartition de X. Calculer F (x) (on distinguera les cas x 0 et x 0). Reprsenter F . Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales 3. Montrer que E[X] = 0. 4. Pour tout n , on appelle In lintgrale dnie par :
+

143

In =
0

xn ex dx.

(a) Combien vaut I0 ? 5. Pour tout n , calculer E[X 2n ]. Que vaut Var(X) ? (b) Montrer que pour tout n , In = nIn1 . En dduire que In = n! pour tout n .

6. Pour tout n , que vaut E[X 2n+1 ] ?

Probabilits

Arnaud Guyader - Rennes 2

144 Universit de Rennes 2 Licence MASS 2 Dure : 2 heures

Annexe A. Annexes

Lundi 14 Dcembre 2009 Calculatrice autorise Aucun document

Corrig du Contrle

I. Boules blanches et noires Un sac contient 8 boules blanches et 2 boules noires. On tire les boules les unes aprs les autres, sans remise, jusqu obtenir une boule blanche. On appelle X le nombre de tirages ncessaires pour obtenir cette boule blanche. 1. Puisquil ny a que deux boules noires, la variable alatoire X ne peut prendre que les valeurs 1, 2 ou 3. 2. Notons Bi (resp. Ni ) le fait de tirer une boule blanche (resp. noire) au i-me tirage. On peut alors crire : 4 8 (X = 1) = (B1 ) = = . 10 5 Pour le calcul suivant, on procde par conditionnement :

(X = 2) = (N1 B2 ) = (N1 )(B2 |N1 ) =


Enn, de la mme faon :

2 8 8 = . 10 9 45

(X = 3) = (N1 N2 B3 ) = (N1 )(N2 |N1 )(B3 |N1 N2 ) =

2 1 8 1 = , 10 9 8 45

et la loi de X est ainsi compltement dtermine. Remarque : au passage, on vrie bien que 4/5 + 8/45 + 1/45 = 1.

Figure A.1 Fonction de rpartition de la variable X. 3. Sa fonction de rpartition F sen dduit facilement et est reprsente gure A.1. Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales 4. Par dnition de lesprance dune variable discrte, la moyenne de X vaut donc : E[X] = 1 4 8 1 11 +2 +3 = 1, 22. 5 45 45 9

145

Quant sa variance, on commence par calculer E[X 2 ] : E[X 2 ] = 12 8 1 77 4 + 22 + 32 = 1, 71. 5 45 45 45


88 405

Do lon dduit : Var(X) = E[X 2 ] (E[X])2 =

0, 22.

II. Dfaut de fabrication On admet que la probabilit de dfaut pour un objet fabriqu la machine est gale 0,1. On considre un lot de 10 objets fabriqus par cette machine. Soit X le nombre dobjets dfectueux parmi ceux-ci. 1. La variable alatoire X suit une loi binomiale B(10; 0, 1). 2. Il sensuit que E[X] = 10 0, 1 = 1 et Var(X) = 10 0, 1 0, 9 = 0, 9.

3. La probabilit p que le lot comprenne au plus 1 objet dfectueux scrit :


0 1 p = (X = 0) + (X = 1) = C10 (0, 1)0 (0, 9)10 + C10 (0, 1)1 (0, 9)9 0, 7361.

4. Puisque le paramtre 0,1 de la binomiale est petit, lapproximation poissonienne consiste dire que X suit peu prs une loi de Poisson de paramtre le produit des deux paramtres de la binomiale, soit X P(1). Ainsi la probabilit p que le lot comprenne au plus 1 objet dfectueux vaut approximativement : p = (X = 0) + (X = 1) e1 11 2 10 + e1 = 0, 7358. 0! 1! e

Lapproximation par une loi de Poisson est donc trs bonne dans ce cas. III. Recrutement 1. Pour allger les notations, nous noterons q = (1 p). Jusque k = 10, tout se passe comme pour une loi gomtrique de paramtre p. En eet, pour que X = k, il faut que les (k 1) premiers candidats aient chou au test, ce qui arrive avec probabilit q k1 , et que le k-me candidat ait russi, ce qui arrive avec probabilit p. Puisque les rsultats des candidats au test sont indpendants, il vient : k {1, . . . , 10}

(X = k) = pq k1 . (X = 11) = q 10 .

Enn, dans lventualit o aucun candidat ne russit le test, on obtient

2. Pour que la probabilit de ne recruter personne soit infrieure 1%, il faut et il sut que :

(X = 11) 0, 01 (1 p)10 0, 01 p 1 0, 011/10 0, 369.


3. La drive de P scrit :
n

P (x) = 1 + 2x + + nxn1 = Probabilits

jxj1 .
j=1

Arnaud Guyader - Rennes 2

146

Annexe A. Annexes 4. Pour x = 1, la somme des termes dune suite gomtrique de raison x donne : P (x) = Par drivation de cette formule, on obtient : P (x) = 5. La moyenne de X scrit : E[X] = 1 p + 2 pq + + 10 pq 9 + 11 q 10 = p 1 + 2q + + 10q 9 + 11q 10 , o lon reconnat la fonction P lorsque n = 10 : E[X] = p P (q) + 11q 10 . Il reste appliquer la formule obtenue prcdemment pour P (x), tout mettre au mme dnominateur et simplier pour obtenir : E[X] = 1 (1 p)11 . p 1 xn+1 . 1x

nxn+1 (n + 1)xn + 1 . (1 x)2

6. Sil y a une innit de candidats, alors Y suit une loi gomtrique G(p). Son esprance vaut dans ce cas : E[Y ] = 1/p. On voit quelle est suprieure E[X], mais de trs peu, puisque pour p = 1/2 on a E[Y ] = 2 et : E[X] = 1 1
1 2 1 11 2

1, 999.

IV. Autour de la loi normale On considre une variable alatoire X de loi normale N (0, 1). 1 E[X n+2 ] = 2
+

1. Soit n x, alors par le thorme de transfert le moment dordre (n + 2) de X scrit : xn+2 e


x2 2

1 dx = 2

xn+1 xe

x2 2

dx,

que lon peut intgrer par parties :


x2 1 xn+1 e 2 E[X n+2 ] = 2

1 + 2

(n + 1)xn e

x2 2

dx,

et puisque la quantit entre crochets est nulle, ceci donne bien : E[X n+2 ] = (n + 1)E[X n ]. 2. Il en dcoule par exemple que : E[X 2 ] = 1 E[X 0 ] = E[1] = 1. Il vient alors : E[X 4 ] = 3E[X 2 ] = 3. 3. On obtient de mme : E[X 3 ] = 2E[X] = 0, puisque par hypothse la variable X est centre. De faon gnrale, il est clair que tous les moments dordres impairs dune loi normale centre sont nuls. Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales 4. Soit Y la variable alatoire dnie par Y = 2X + 1. (a) Par stabilit de la loi normale par transformation ane, Y suit elle aussi une loi normale et plus prcisment : Y N (1, 4). Y 4 = (2X + 1)4 = 1 + 8X + 24X 2 + 32X 3 + 16X 4 , do par linarit de lesprance : E[Y 4 ] = 1 + 8E[X] + 24E[X 2 ] + 32E[X 3 ] + 16E[X 4 ] = 73. 5. A laide de la table et en notant comme dhabitude la fonction de rpartition de la loi normale centre rduite, on a :

147

(b) Pour dterminer le moment dordre 4 de Y , on utilise la formule du binme :

(|X| 2) = (X 2) + (X 2) = (2) + (1 (2)) = 2(1 (2)) 0, 0456.


Lingalit de Tchebychev donne dans ce cas : Var(X) 1 = . 2 2 4

(|X| 2) = (|X E[X]| 2)

On voit donc que cette majoration dune quantit denviron 5% par 25% est trs grossire. Mais noublions pas que lingalit de Tchebychev est universelle, en ce sens quelle sapplique toute variable alatoire admettant une variance. Elle ne peut donc tre prcise dans toutes les situations. 6. On considre maintenant que X suit une loi normale de moyenne 7 et dcart-type 4. (a) Pour pouvoir utiliser la table, lide est de centrer et rduire X :

(X 8) =
Sur le mme principe :

X 7 87 4 4

= (0, 25) 0, 5987.

(5 X 9) =

1 2

X 7 1 4 2

= (0, 5) (0, 5) = 2(0, 5) 1 0, 383.

(b) Pour dterminer q, il sut dcrire :

(X > q) = 0, 9
qui vaut encore :

X 7 q7 > 4 4

= 0, 9

X 7 7q 4 4

= 0, 9

7q 4

= 0, 9.

La lecture de la table permet den dduire que : 7q 1, 29 q 1, 88. 4 Probabilits Arnaud Guyader - Rennes 2

148

Annexe A. Annexes 7. Daprs lnonc, il est clair que la moyenne de taille m des lves se situe entre 1m50 et 1m80. Traduisons plus prcisment les informations de lnonc :

(X 1, 5) = 0, 2
cest--dire : m 1, 5

X m 1, 5 m

= 0, 2

1, 5 m

= 0, 2

= 0, 8

m 1, 5 = 0, 84 m 0, 84 = 1, 5.

Le mme raisonnement fournit lquation :

(X 1, 8) = 0, 1

1, 8 m = 1, 28 m + 1, 28 = 1, 8.

Il sut alors de rsoudre le systme linaire de deux quations deux inconnues : m 0, 84 = 1, 5 m + 1, 28 = 1, 8 m 1, 62 0, 14

Ainsi la taille des lves de ce collge est distribue selon une loi normale de moyenne 1m62 et dcart-type 14cm. V. Loi de Laplace On considre une variable alatoire X dont la densit f est donne par : x , 1 f (x) = e|x| . 2

On dit dans ce cas que X suit une loi de Laplace de paramtre 1. 1. La fonction f est positive donc il sut de vrier quelle intgre 1. Puisquelle est paire, le calcul de lintgrale se ramne lintervalle [0, +[ :
+ +

f (x)dx = 2
0

1 |x| e dx = 2

+ 0

ex dx = ex

+ 0

= 1,

et qui fait bien de f une densit sur


x

. Sa reprsentation est donne gure A.2, gauche.


1 2
x

2. Pour x 0, la fonction de rpartition scrit : F (x) =

f (u)du =

eu du =

ex 1 ux [e ] = . 2 2

En particulier, on a F (0) = 1/2 (ce qui est logique puisque f est paire). Maintenant, pour x0:
x 0 x

F (x) =

f (u)du =

f (u)du +
0

f (u)du = F (0) +

1 2

x 0

eu du,

cest--dire :

1 F (x) = (1 + ex ). 2 La reprsentation de F est donne gure A.2, droite.

3. La densit f est impaire sur le domaine ] , +[ symtrique par rapport 0 et lintgrale gnralise dnissant E[X] est convergente, donc E[X] = 0. Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales
0.50 0.45 0.40 0.35 0.30 0.25 0.20 0.15 0.10 0.05 0.00 1 0 1.0 0.9

149

F (x)
0.8 0.7 0.6

f (x)

0.5 0.4 0.3 0.2 0.1 0.0 1 0

Figure A.2 Densit ( gauche) et fonction de rpartition ( droite) pour une loi de Laplace. 4. Pour tout n , on appelle In lintgrale dnie par :
+

In =
0

xn ex dx.

(a) Le calcul de I0 a dj t fait pour vrier que f est une densit. On a obtenu I0 = 1. (b) Pour tout n , une intgration par parties donne : In = xn ex On a donc pour tout n : In = nIn1 = n(n 1)In2 = = n!I0 = n!
1 5. Puisque la fonction x 2 x2n e|x| est paire et intgrable sur + 0 +

+
0

nxn1 ex dx = nIn1 .

, on a :

E[X 2n ] =

x2n

e|x| dx = 2

+ 0

x2n ex dx = I2n = (2n)!

6. De limparit de la fonction x 1 x2n+1 e|x| , on dduit que n : E[X 2n+1 ] = 0. 2

En particulier : Var(X) = E[X 2 ] (E[X])2 = E[X 2 ] = 2! = 2.

Probabilits

Arnaud Guyader - Rennes 2

150 Universit de Rennes 2 Licence MASS 2 Dure : 1 heure 45

Annexe A. Annexes

Lundi 22 Novembre 2010 Calculatrice autorise Aucun document

Contrle de Probabilits

I. Evnements indpendants On considre deux vnements indpendants A et B de probabilits respectives 1/4 et 1/3. Calculer : 1. la probabilit que les deux vnements aient lieu. 2. la probabilit que lun au moins des deux vnements ait lieu. 3. la probabilit quexactement lun des deux vnements ait lieu. II. Un tirage en deux temps Une bote contient une balle noire et une balle blanche. Une balle est tire au hasard dans la bote : on remet celle-ci ainsi quune nouvelle balle de la mme couleur. On tire alors une des trois balles au hasard dans la bote. 1. Quelle est la probabilit que la seconde balle tire soit blanche ? 2. Quelle est la probabilit que lune au moins des deux balles tires soit blanche ? 3. Quelle est la probabilit que la premire balle tire soit blanche, sachant que lune au moins des deux balles tires est blanche ? III. Pices dfectueuses Une usine produit des objets par botes de deux. Sur le long terme, on a constat que : 92% des botes ne contiennent aucun objet dfectueux ; 5% des botes contiennent exactement 1 objet dfectueux ; 3% des botes contiennent 2 objets dfectueux. Une bote est choisie au hasard sur la chane de production et on tire au hasard un des deux objets de cette bote. 1. Quelle est la probabilit que cet objet soit dfectueux ? 2. Sachant que cet objet est eectivement dfectueux, quelle est la probabilit que lautre objet de la bote le soit aussi ? IV. Lancer de d Un d quilibr est lanc 10 fois de suite. Dterminer : 1. La probabilit dau moins un 6 sur les 10 lancers. 2. Le nombre moyen de 6 sur les 10 lancers. 3. La moyenne de la somme des rsultats obtenus lors des 10 lancers. Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales 4. (Bonus) La probabilit dobtenir exactement deux 6 lors des 5 premiers lancers sachant quil y en a eu 4 sur les 10 lancers. V. Le d dyadique On appelle d dyadique un d dont les faces sont numrotes respectivement 2, 4, 8, 16, 32, 64 (au lieu de 1, 2, 3, 4, 5, 6). On jette un d dyadique quilibr et on appelle X le rsultat obtenu. 1. Dterminer lesprance de X. 2. Calculer lcart-type de X. 3. Lorsque X1 et X2 sont deux variables indpendantes, que vaut Cov(X1 , X2 ) ? 4. On jette maintenant deux ds dyadiques quilibrs et on appelle Y le produit des rsultats obtenus. Calculer lesprance de Y . 5. (Bonus) Calculer

151

(Y < 20).

VI. Rpartition des tailles On suppose que dans une population, 1% des gens mesure plus de 1m88. Supposons que vous tiriez au hasard (avec remise) 200 personnes dans cette population. Appelons X le nombre de personnes de plus de 1m88 dans votre chantillon. 1. Quelle est la loi de X ? 2. Par quelle loi peut-on lapprocher ? 3. Quelle est la probabilit que dans votre chantillon, au moins 3 personnes mesurent plus de 1m88 ? VII. Poisson en vrac On considre une variable X distribue selon une loi de Poisson de paramtre > 0. Exprimer en fonction de : 1. E[3X + 5]. 2. Var(2X + 1). 3. E
1 X+1

Probabilits

Arnaud Guyader - Rennes 2

152 Universit de Rennes 2 Licence MASS 2 Dure : 2 heures

Annexe A. Annexes

Lundi 22 Novembre 2010 Calculatrice autorise Aucun document

Corrig du Contrle

I. Evnements indpendants On considre deux vnements indpendants A et B de probabilits respectives 1/4 et 1/3. 1. La probabilit que les deux vnements aient lieu vaut lindpendance il vient

(A B), et en tenant compte de


1 . 12

(A B) = (A)(B) = (A B) = (A) + (B) (A B) =

2. La probabilit que lun au moins des deux vnements ait lieu est

(A B), ce qui donne

1 1 1 1 + = . 3 4 12 2

3. La probabilit quexactement lun des deux vnements ait lieu scrit par exemple

((A B) \ (A B)) = (A B) (A B) =

1 5 1 = . 2 12 12

II. Un tirage en deux temps Une bote contient une balle noire et une balle blanche. Une balle est tire au hasard dans la bote : on remet celle-ci ainsi quune nouvelle balle de la mme couleur. On tire alors une des trois balles au hasard dans la bote. 1. Notons B2 lvnement la seconde balle tire est blanche. Avec des notations naturelles, la probabilit de cet vnement scrit :

(B2 ) = (B2 |B1 )(B1 ) + (B2 |N1 )(N1 ) =

1 2 1 1 1 + = . 3 2 3 2 2

Ce rsultat est logique puisque les 2 couleurs jouent des rles compltement symtriques. 2. La probabilit que lune au moins des deux balles tire soit blanche vaut : 2 3 1 2 = . 2 3

(B2 B1 ) = 1 (N2 N1 ) = 1 (N2 |N1 )(N1 ) = 1

3. La probabilit que la premire balle tire soit blanche, sachant que lune au moins des deux balles tire est blanche est

(B1 |B2 B1 ) =
Arnaud Guyader - Rennes 2

(B1 (B2 B1 )) (B1 ) = = (B2 B1 ) (B2 B1 )

1 2 2 3

3 = . 4 Probabilits

A.1. Annales III. Pices dfectueuses Une usine produit des objets par botes de deux. Sur le long terme, on a constat que : 92% des botes ne contiennent aucun objet dfectueux ; 5% des botes contiennent exactement 1 objet dfectueux ; 3% des botes contiennent 2 objets dfectueux. Une bote est choisie au hasard sur la chane de production et on tire au hasard un des deux objets de cette bote. 1. Notons D lvnement lobjet est dfectueux, B0 (respectivement B1 , B2 ) lvnement lobjet vient dune bote contenant 0 (respectivement 1, 2) objet dfectueux. La probabilit que lobjet tir soit dfectueux se dcompose alors via la formule des probabilits totales :

153

(D) = (D|B0 )(B0 ) + (D|B1 )(B1 ) + (D|B2 )(B2 ).


Or il est clair que

(D|B0 ) = 0, (D|B1 ) = 0.5 et (D|B2 ) = 1, donc (D) = 0 0.92 + 0.5 0.05 + 1 0.03 = 0.055.

Il y a donc 5.5% de chances que cet objet soit dfectueux. 2. Notons D lvnement lautre objet est galement dfectueux. La probabilit cherche scrit donc (D |D) et peut se calculer comme suit :

(D |D) =

6 (D D) (B2 ) 0.03 = = = . (D) (D) 0.055 11

IV. Lancer de d Un d quilibr est lanc 10 fois de suite. 1. Notons p la probabilit dau moins un 6 sur les 10 lancers. 1 p est donc la probabilit de navoir aucun 6 sur les 10 lancers, do 1p= 5 6
10

p=1

5 6

10

0.84.

2. Le nombre de 6 sur les 10 lancers est une variable alatoire X qui suit une loi binomiale B(10, 1/6). On en dduit que le nombre moyen de 6 sur les 10 lancers vaut E[X] = 10 5 1 = . 6 3

3. Soit U1 , . . . , U10 les nombres obtenus aux lancers successifs. Les variables Ui suivent toutes une loi uniforme sur {1, . . . , 6}, de moyenne 3.5. La somme des nombres obtenus est alors la variable S = U1 + + U10 , dont la moyenne vaut : E[S] = E[U1 + + U10 ] = E[U1 ] + + + E[U10 ] = 10 E[U1 ] = 35.
4. Notons X5 (respectivement X5 ) le nombre de 6 obtenus sur les 5 premiers (respectivement derniers) lancers et X10 = X5 + X5 le nombre de 6 obtenus sur les 10 lancers. La probabilit dobtenir exactement deux 6 lors des 5 premiers lancers sachant quil y en a eu 4 sur les 10 lancers scrit alors

(X5 = 2|X10 = 4) =

({X5 = 2} {X10 = 4}) ({X5 = 2} {X5 = 2}) = . (X10 = 4) (X10 = 4)

Les 5 premiers lancers sont bien entendu indpendants des 5 derniers, donc ceci scrit encore

(X5 = 2|X10 = 4) =
Probabilits

(X5 = 2)(X5 = 2) . (X10 = 4)

Arnaud Guyader - Rennes 2

154

Annexe A. Annexes
Pour pouvoir plier laaire, il reste noter que les variables alatoires X5 , X5 et X10 suivent B(5, 1/6), et X toutes des lois binomiales, et plus prcisment X5 B(5, 1/6), X5 10 B(10, 1/6). Ceci donne :

(X5 = 2|X10

2 C5 (1/6)2 (5/6)3 10 = 4) = 4 (1/6)4 (5/6)6 = 21 . C10

V. Le d dyadique On appelle d dyadique un d dont les faces sont numrotes respectivement 2, 4, 8, 16, 32 et 64. On jette un d dyadique quilibr et on appelle X le rsultat obtenu. 1. Puisque le d est quilibr, la probabilit de chaque occurence est gale 1/6, do : E[X] = 1 (2 + 4 + 8 + 16 + 32 + 64) = 21. 6

2. Lcart-type de X vaut quant lui (X) = Il sut donc de calculer 1 E[X 2 ] = (22 + 42 + 82 + 162 + 322 + 642 ) = 910 6 pour en dduire (X) = 910 212 21.66 3. Lorsque X1 et X2 sont deux variables indpendantes, elle sont a fortiori dcorrles et leur covariance est nulle. On en dduit en particulier que E[X1 X2 ] = E[X1 ]E[X2 ]. 4. On jette maintenant deux ds dyadiques quilibrs, appelons X1 le rsultat du premier, X2 celui du second et Y = X1 X2 le produit des deux. Lesprance de Y vaut donc E[Y ] = E[X1 X2 ] = E[X1 ]E[X2 ] = (E[X])2 = 441. 5. Pour que le produit des deux ds fasse moins de 20, il faut avoir lune des six combinaisons suivantes : (2,2), (2,4), (2,8), (4,2), (4,4), (8,2). Sur un total de 36 combinaisons quiprobables, ceci fait donc (Y < 20) = 6/36 = 1/6. VI. Rpartition des tailles On suppose que dans une population, 1% des gens mesure plus de 1m90. Supposons que vous tiriez au hasard (avec remise) 200 personnes dans cette population. Appelons X le nombre de personnes de plus de 1m90 dans votre chantillon. 2. On peut lapprocher par une loi de Poisson P(200 0.01) = P(2). 1. La loi de X est binomiale B(200, 0.01). Var(X) = E[X 2 ] (E[X])2 .

3. La probabilit que lchantillon compte au moins 3 personnes de plus de 1m90 vaut donc p = (X 3) = 1 (X < 3) = 1 ((X = 0) + (X = 1) + (X = 2)). On peut calculer cette quantit directement avec la loi binomiale ou via lapproximation poissonienne. Dans le premier cas, ceci donne
0 1 2 p = 1 C200 0.010 0.99200 + C200 0.011 0.99199 + C200 0.012 0.99198 0.323321

Arnaud Guyader - Rennes 2

Probabilits

A.1. Annales Tandis que dans le second, il vient p = 1 e2 20 21 22 + e2 + e2 0! 1! 2! 0.323324

155

Lapproximation est donc excellente. VII. Poisson en vrac On considre une variable X distribue selon une loi de Poisson de paramtre > 0. 1. E[3X + 5] = 3E[X] + 5 = 3 + 5. 2. Var(2X + 1) = 4Var(X) = 4. 3. Ce dernier calcul mrite quelques dtails. Le thorme de transfert donne E 1 = X +1
+ n=0

1 n e , n+1 n!

o lon voit apparatre (n + 1)! au dnominateur, do lide de forcer un peu les choses au numrateur : E 1 e n = = e X +1 (n + 1)! n=0
+

e n+1 = (n + 1)! n=0

n n! n=1

pour faire apparatre la srie de lexponentielle : 1 e E = X +1


+

1 +

n=0

n n!

e e 1 .

Probabilits

Arnaud Guyader - Rennes 2

156 Universit de Rennes 2 Licence MASS 2 Dure : 1 heure 45

Annexe A. Annexes

Mercredi 15 Dcembre 2010 Calculatrice autorise Aucun document

Contrle de Probabilits

I. Variable densit Soit X une variable alatoire de densit f (x) =

c x4

1. Dterminer c pour que f soit bien une densit. Reprsenter f . 2. Calculer la fonction de rpartition F et la reprsenter. 3. Dterminer la mdiane de X, cest--dire la valeur m telle que 4. Calculer lesprance de X et sa variance. 5. Dterminer le moment dordre 3 de X. II. Diamtre dune bille Le diamtre dune bille est distribu suivant une loi normale de moyenne 1 cm. On sait de plus quune bille a une chance sur trois davoir un diamtre suprieur 1.1 cm. 1. Dterminer lcart-type de cette distribution. 2. Quelle est la probabilit quune bille ait un diamtre compris entre 0.2 et 1 cm ? 3. Quelle est la valeur telle que 3/4 des billes aient un diamtre suprieur cette valeur ? III. Tchernobyl for ever Soit T une variable alatoire distribue suivant une loi exponentielle de paramtre > 0. 1. Rappeler ce que valent densit, fonction de rpartition, esprance et variance de T (on ne demande pas les calculs). 2. Pour tout t > 0, que vaut

{x1} .

(X > m) = 1/2.

(T > t) ? (T > h) = 1/2. Dterminer h en fonction de .

3. On appelle demi-vie la dure h telle que

4. Le strontium 90 est un compos radioactif trs dangereux que lon retrouve aprs une explosion nuclaire. Un atome de strontium 90 reste radioactif pendant une dure alatoire T qui suit une loi exponentielle, dure au bout de laquelle il se dsintgre. Sa demi-vie est denviron 28 ans. (a) Dterminer le paramtre de la loi de T . (b) Calculer la probabilit quun atome reste radioactif durant au moins 50 ans. (c) Calculer le nombre dannes ncessaires pour que 99% du strontium 90 produit par une raction nuclaire se soit dsintgr.

Arnaud Guyader - Rennes 2

Probabilits

A.1. Annales IV. Jeu dargent Un jeu consiste tirer, indpendamment et avec remise, des tickets dune bote. Il y a en tout 4 tickets, numrots respectivement -2, -1, 0, 3. Votre gain X lors dune partie correspond la somme indique sur le ticket. Par exemple, si vous tirez le ticket numrot -2, alors X = 2 et vous devez donner 2 e, tandis que si vous tirez le ticket 3, alors X = 3 et vous gagnez 3 e. 1. Donner la loi de X. Calculer son esprance et sa variance. 2. Vous jouez 100 fois de suite ce jeu et on note S votre gain aprs 100 parties. En notant X1 le gain la premire partie, X2 le gain la deuxime partie, ..., X100 le gain la centime partie, exprimer S en fonction des Xi . 3. En dduire lesprance de S et sa variance. 4. Par quelle loi normale peut-on approcher S ? En dduire la probabilit que votre gain sur 100 parties dpasse 25 e. V. Rubrique brac 1. Soit T une variable alatoire suivant une loi gomtrique de paramtre p, 0 < p < 1. Rappeler la loi de T , son esprance et sa variance. 2. Vous demandez des personnes choisies au hasard dans la rue leur mois de naissance jusqu en trouver une ne en dcembre. Quel est (approximativement) le nombre moyen de personnes que vous allez devoir interroger ? 3. On jette une pice quilibre et on appelle X le nombre de lancers ncessaires pour que Pile apparaisse. Quelle est la loi de X ? 4. Grce aux moments de X, montrer que
+ n2 n=1 2n

157

= 6.

5. Alice et Bob jouent au jeu suivant : Alice lance une pice quilibre jusqu ce que Pile apparaisse. Si Pile apparat ds le premier lancer, Bob lui donne 4 e ; si Pile napparat quau deuxime lancer, Bob lui donne 1 e ; si Pile napparat quau troisime lancer, elle donne 4 e Bob ; si Pile napparat quau quatrime lancer, elle donne 11 e Bob, etc. De faon gnrale, le gain dAlice si Pile napparat quau n-me lancer est 5 n2 . Notons G la variable alatoire correspondant ce gain. (a) Calculer la probabilit quAlice perde de largent lors dune partie. (b) Calculer lesprance de G. (c) Si vous deviez jouer une seule partie, prfreriez-vous tre la place dAlice ou la place de Bob ? Et si vous deviez en jouer 100 ? VI. Ascenseur pour lchafaud Un ascenseur dessert les 10 tages dun immeuble, 12 personnes le prennent au rez-de-chausse et chacune choisit un des 10 tages au hasard. 1. Soit X1 la variable alatoire valant 1 si au moins une personne choisit le 1er tage, 0 sinon. Calculer (X1 = 1) et en dduire la moyenne de X1 . 2. De faon gnrale, soit Xi la variable alatoire valant 1 si au moins une personne choisit ltage i, 0 sinon. Exprimer le nombre dtages auxquels lascenseur sarrte en fonction des Xi . En dduire le nombre moyen dtages auxquels lascenseur sarrte. 3. (Bonus) Gnralisation : montrer que pour t tages et n personnes, le nombre moyen dtages desservis est t(1 (1 1 )n ). Que devient cette quantit : t (a) lorsque t tend vers linni avec n x ? Interprter. (b) lorsque n tend vers linni avec t x ? Interprter.

Probabilits

Arnaud Guyader - Rennes 2

158 Universit de Rennes 2 Licence MASS 2 Dure : 2 heures

Annexe A. Annexes

Mercredi 15 Dcembre 2010 Calculatrice autorise Aucun document

Corrig du Contrle

I. Variable densit Soit X une variable alatoire de densit f (x) =

c x4

1. Pour que f soit bien une densit, il faut que la constante c soit positive et telle que lintgrale de f soit gale 1, cest--dire :
+

{x1} .

1=
1

1 c dx = c 4 x 3x3

+ 1

c = , 3

donc c = 3 et f (x) =

3 x4

2. La fonction de rpartition F est nulle gauche de 1, et pour x 1 on a :


x

{x1} . Cette densit est reprsente gure A.3 gauche.


F (x) =
1

3 1 dt = 1 3 . t4 x

Cette fonction de rpartition est reprsente gure A.3 droite.


3 1

0.9 2.5 0.8

0.7 2 0.6

1.5

0.5

0.4 1 0.3

0.2 0.5 0.1

Figure A.3 Densit f et fonction de rpartition F . 3. Puisque

(X > m) = 1 (X m) = 1 F (m), il nous sut de rsoudre :


1 F (m) = 1 1 1 = m = 21/3 1.26. 3 2 m 2 Probabilits

Arnaud Guyader - Rennes 2

A.1. Annales 4. Lesprance de X se calcule comme suit :


+

159

E[X] =
1

3x 3 dx = 4 x 2x2

=
1

3 . 2

Pour la variance, on commence par calculer le moment dordre 2 : E[X ] =


1 2 +

3x2 3 dx = x4 x

= 3,
1

do lon dduit :

3 Var(X) = E[X 2 ] (E[X])2 = . 4

5. Le moment dordre 3 de X se calcule a priori de la mme faon : E[X 3 ] =


1 +

3x3 dx = [3 ln x]+ = +... 1 4 x

... Blood on the wall ! En fait X nadmet pas de moment dordre 3. II. Diamtre dune bille Le diamtre dune bille est distribu suivant une loi normale de moyenne 1 cm. On sait de plus quune bille a une chance sur trois davoir un diamtre suprieur 1.1 cm. 1. Notons lcart-type de cette distribution et X la variable correspondant au diamtre dune bille, alors Y = (X 1)/ suit une loi normale centre rduite, de fonction de rpartition note comme dhabitude . Le texte nous indique que (X > 1.1) = 1/3. Procdons par centrage et rduction de X :

(X > 1.1) =

1 3

X 1 1.1 1 >

1 3

Y >

0.1

1 1 1(0.1/) = . 3 3

2. Avec la mme technique et les mmes notations, la probabilit quune bille ait un diamtre compris entre 0.2 et 1 cm vaut :

Il nous reste donc trouver dans la table la valeur q = 0.1/ telle que (q) = 2/3, ce qui donne 0.1/ 0.43, donc 0.23 cm.

(0.2 < X < 1) =

0.2 1 X 1 11 < < 0.23 0.23 0.23

= (3.48 < Y < 0) = (0)(3.48),

3. Soit q la valeur telle que 3/4 des billes aient un diamtre suprieur q. Il nous faut donc rsoudre :

1 do : (0.2 < X < 1) = (0)+(3.48)1 2 , puisque daprs la table 0.995 (3.48) < 1, donc (3.48) 1.

(X > q) =

3 4

Y >

q1 0.23

3 3 ((1 q)/0.23) = , 4 4

ce qui donne via la table (1 q)/0.23 0.67 donc q 0.85. III. Tchernobyl for ever Soit T une variable alatoire distribue suivant une loi exponentielle de paramtre > 0. Probabilits Arnaud Guyader - Rennes 2

160 1. Si on note f la densit, F la fonction de rpartition, alors f (t) = et {t0} On montre que E[T ] =
1

Annexe A. Annexes

et
1 . 2

F (t) = (1 et ){t0} .

et Var(T ) =

2. Pour tout t > 0, on a donc 3. La demi-vie vrie donc :

(T > t) = 1 F (t) = et .
ln 2 1 h = ln(1/2) h = . 2

eh =

4. Le strontium 90 est un compos radioactif trs dangereux que lon retrouve aprs une explosion nuclaire. Un atome de strontium 90 reste radioactif pendant une dure alatoire T qui suit une loi exponentielle, dure au bout de laquelle il se dsintgre. Sa demi-vie est denviron 28 ans. (b) La probabilit quun atome reste radioactif durant au moins 50 ans est : (a) Daprs la question prcdente, le taux de dsintgration vaut donc = ln 2/h 0.0248.

(T > 50) = e50 e500.0248 0.29


(c) Calculer le nombre dannes ncessaires pour que 99% du strontium 90 produit par une raction nuclaire se soit dsintgr revient trouver la dure t telle que (T > t) = 0.01, cest--dire : e0.0248t = 0.01 0.0248t = ln(0.01) t = ln(0.01) 185.7 0.0248

Il faut donc prs de 186 ans pour quil ne reste plus que 1% de strontium 90. IV. Jeu dargent Un jeu consiste tirer, indpendamment et avec remise, des tickets dune bote. Il y a en tout 4 tickets, numrots respectivement -2, -1, 0, 3. Votre gain X lors dune partie correspond la somme indique sur le ticket. Par exemple, si vous tirez le ticket numrot -2, alors X = 2 et vous devez donner 2 e, tandis que si vous tirez le ticket 3, alors X = 3 et vous gagnez 3 e. 1. X prend les quatres valeurs -2, -1, 0, 3 avec la mme probabilit, cest--dire 1/4. On vrie sans dicults que sa moyenne est nulle (cest donc un jeu quitable) et que sa variance vaut 7/2. 3. Par linarit de lesprance et du fait que les Xi ont la mme loi, on a donc E[S] = 100E[X1 ] = 0. Du fait que les Xi ont la mme loi et sont indpendantes, on dduit Var(S) = 100Var(X1 ) = 350. 4. Puisque S est la somme dun grand nombre de variables indpendantes et de mme loi, le thorme central limite permet dapprocher la loi de S par une loi normale centre et de variance 350. La probabilit que notre gain sur 100 parties dpasse 25 e est donc : 2. On a clairement S = X1 + + X100 .

(S > 25) =

S 25 > 350 350

= 1 (25/ 350) 0.09.

Sur 100 parties, on a donc environ 9% de chances de gagner plus de 25 e. V. Rubrique brac Arnaud Guyader - Rennes 2 Probabilits

A.1. Annales 1. Dire que T est une variable alatoire suivant une loi gomtrique de paramtre p signie que T est valeurs dans , avec Son esprance vaut E[T ] = 1/p et sa variance Var(T ) = q/p2 . 2. Si on suppose que le nombre de naissance est quirparti sur les 12 mois de lanne (ceci signie en particulier quon ne tient pas compte du fait que certains mois ont plus de jours que dautres et que les naissances ne sont en fait pas quirparties sur lanne) et que les individus interrogs sont indpendants du point de vue du mois de naissance, alors le nombre de personnes que lon doit interroger suit une loi gomtrique de paramtre 1/12. Ainsi le nombre moyen de personnes interroger est E[T ] = 12. 3. La loi de X est gmtrique de paramtre 1/2. 4. On reconnat dans la srie concerne le moment dordre 2 dune variable X distribue suivant une loi gomtrique de paramtre 1/2 :
+

161

(T = n) = p(1 p)n1

X G(1/2) E[X ] = E[X 2 ] (E[X])2

n=1

n2 . 2n

Or = Var(X) + = 2 + 4 = 6. 5. (a) Pour calculer la probabilit p quAlice perde de largent lors dune partie, on passe par lvnement complmentaire, savoir le fait quAlice gagne de largent, ce qui arrive si et seulement si Pile apparat au premier ou au deuxime lancer. En notant toujours X la variable gomtrique introduite prcdemment, on a donc : p = 1 ((G = 4) + (G = 1)) = 1 ((X = 1) + (X = 2)) = 1 1 1 + 2 4 = 1 . 4

(b) La variable G prend les valeurs 5 n2 avec les probabilits 1/2n pour tout n donc son esprance vaut : E[G] = 5 n2 1 n2 =5 = 5 6 = 1. 2n 2n n=1 2n n=1 n=1
+ + +

On pouvait aussi trouver ce rsultat en appliquant le thorme de transfert puisque la variable G est tout simplement gale 5 X 2 , do : E[G] = E[5 X 2 ] = 5 E[X 2 ] = 5 6 = 1. (c) Sur une partie, Alice a 3 chances sur 4 de gagner de largent, donc sur ce principe on pourrait prfrer tre du ct dAlice. Nanmoins, on a vu aussi quen moyenne, par partie, elle perd 1 e. Ceci signie en gros que lorsquelle gagne (ce qui arrive 3 fois sur 4) elle gagne peu, tandis que lorsquelle perd (ce qui arrive 1 fois sur 4), elle peut perdre beaucoup. Si on se met la place de Bob, tout se passe un peu comme sil achetait un ticket de Loto prix variable (1 ou 4 e) : il ne va probablement rien rcuprer, mais sil gagne il peut ventuellement gagner beaucoup. Tout dpend donc si on est joueur ou non... Il ny a par contre plus aucune ambigut lorsquAlice et Bob jouent un grand nombre de parties. Notons lcart-type de G et S = G1 + + G100 le gain dAlice sur 100 parties, alors le thorme central limite dit que S est approximativement distribue selon une loi normale de moyenne 100 E[G] = 100 et dcart-type 10. Puisque la moyenne de cette loi normale est ngative, S a plus de chances dtre ngatif que positif, donc on prfrera tre la place de Bob.

Probabilits

Arnaud Guyader - Rennes 2

162

Annexe A. Annexes VI. Ascenseur pour lchafaud Un ascenseur dessert les 10 tages dun immeuble, 12 personnes le prennent au rez-de-chausse et chacune choisit un des 10 tages au hasard. 1. X1 est nulle si aucune des 12 personnes ne choisit ltage 1, ce qui arrive avec probabilit :

(X1 = 0) =

9 10

12

(X1 = 1) = 1

9 10

12

E[X1 ] = 1

9 10

12

2. Soit N le nombre (alatoire) dtages auxquels lascenseur sarrte. Par dnition, N = X1 + + X10 . Les Xi ont toutes la mme loi, donc le nombre moyen dtages desservis est : E[N ] = E[X1 + + X10 ] = 10 E[X1 ] = 10 1 9 10
12

Remarque : Les variables Xi sont de mme loi mais pas indpendantes puisquil est par exemple clair quelles ne peuvent pas tre toutes nulles simultanment :

(X1 = 0, . . . , X10 = 0) = 0 =

9 10

120

= (X1 = 0) . . . (X10 = 0).

En particulier le calcul de la variance de N nest pas aussi simple que celui de lesprance. 3. La gnralisation du raisonnement prcdent pour t tages et n personnes est immdiate : E[N ] = t 1 (a) Lorsque t tend vers linni avec n x, on a t1 t donc E[N ] = t 1
n n

t1 t

1 1 t
n

n t n t

t1 t

t 1 1

= n,

autrement dit limt E[N ] = n. Ceci est logique : lorsquil y a un trs grand nombre dtages, il y a trs peu de chances que plusieurs personnes choisissent le mme, donc le nombre dtages desservis correspond approximativement au nombre de personnes. (b) A contrario, lorsque n tend vers linni avec t x, on a t1 <1 t donc E[N ] = t 1 t1 t t1 t
n n

0
n

t.
n

Ceci est logique aussi : lorsque le nombre de personnes est beaucoup plus grand que le nombre dtages, lascenseur sarrte en gnral tous les tages.

Arnaud Guyader - Rennes 2

Probabilits

A.2. Table de la loi normale X N (0, 1)

163

A.2

Table de la loi normale X N (0, 1)

Valeurs de Pr(X u) en fonction de u.


u 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 0 .5000 .5398 .5793 .6179 .6554 .6915 .7257 .7580 .7881 .8159 .8413 .8643 .8849 .9032 .9192 .9332 .9452 .9554 .9641 .9713 .9772 .9821 .9861 .9893 .9918 .9938 .9953 .9965 .9974 .9981 .9987 .9990 .9993 0.01 .5040 .5438 .5832 .6217 .6591 .6950 .7291 .7611 .7910 .8186 .8438 .8665 .8869 .9049 .9207 .9345 .9463 .9564 .9649 .9719 .9778 .9826 .9864 .9896 .9920 .9940 .9955 .9966 .9975 .9982 .9987 .9991 .9993 0.02 .5080 .5478 .5871 .6255 .6628 .6985 .7324 .7642 .7939 .8212 .8461 .8686 .8888 .9066 .9222 .9357 .9474 .9573 .9656 .9726 .9783 .9830 .9868 .9898 .9922 .9941 .9956 .9967 .9976 .9982 .9987 .9991 .9994 0.03 .5120 .5517 .5910 .6293 .6664 .7019 .7357 .7673 .7967 .8238 .8485 .8708 .8907 .9082 .9236 .9370 .9484 .9582 .9664 .9732 .9788 .9834 .9871 .9901 .9925 .9943 .9957 .9968 .9977 .9983 .9988 .9991 .9994 0.04 .5160 .5557 .5948 .6331 .6700 .7054 .7389 .7704 .7995 .8264 .8508 .8729 .8925 .9099 .9251 .9382 .9495 .9591 .9671 .9738 .9793 .9838 .9875 .9904 .9927 .9945 .9959 .9969 .9977 .9984 .9988 .9992 .9994 0.05 .5199 .5596 .5987 .6368 .6736 .7088 .7422 .7734 .8023 .8289 .8531 .8749 .8944 .9115 .9265 .9394 .9505 .9599 .9678 .9744 .9798 .9842 .9878 .9906 .9929 .9946 .9960 .9970 .9978 .9984 .9989 .9992 .9994 0.06 .5239 .5636 .6026 .6406 .6772 .7123 .7454 .7764 .8051 .8315 .8554 .8770 .8962 .9131 .9279 .9406 .9515 .9608 .9686 .9750 .9803 .9846 .9881 .9909 .9931 .9948 .9961 .9971 .9979 .9985 .9989 .9992 .9994 0.07 .5279 .5675 .6064 .6443 .6808 .7157 .7486 .7794 .8078 .8340 .8577 .8790 .8980 .9147 .9292 .9418 .9525 .9616 .9693 .9756 .9808 .9850 .9884 .9911 .9932 .9949 .9962 .9972 .9979 .9985 .9989 .9992 .9995 0.08 .5319 .5714 .6103 .6480 .6844 .7190 .7517 .7823 .8106 .8365 .8599 .8810 .8997 .9162 .9306 .9429 .9535 .9625 .9699 .9761 .9812 .9854 .9887 .9913 .9934 .9951 .9963 .9973 .9980 .9986 .9990 .9993 .9995 0.09 .5359 .5753 .6141 .6517 .6879 .7224 .7549 .7852 .8133 .8389 .8621 .8830 .9015 .9177 .9319 .9441 .9545 .9633 .9706 .9767 .9817 .9857 .9890 .9916 .9936 .9952 .9964 .9974 .9981 .9986 .9990 .9993 .9995

Probabilits

Arnaud Guyader - Rennes 2

Bibliographie
[1] Nicolas Bouleau. Probabilits de lingnieur. Hermann, 2002. [2] Pierre Brmaud. Introduction aux probabilits : modlisation des phnomnes alatoires. Springer, 1984. [3] Dominique Foata et Aim Fuchs. Calcul des probabilits. Dunod, 1998. [4] Alain Combrouze et Alexandre Dd. Probabilits et Statistiques / 1. PUF, 1996. [5] Alain Combrouze et Alexandre Dd. Probabilits et Statistiques / 2. PUF, 1998. [6] Jean Gugand, Jean-Louis Roque et Christian Lebuf. Cours de probabilits et de statistiques. Ellipses, 1998. [7] Gilles Pags et Claude Bouzitat. En passant par hasard... Les probabilits de tous les jours. Vuibert, 2000. [8] Philippe Barbe et Michel Ledoux. Probabilits. Belin, 1998. [9] Guy Auliac, Christiane Cocozza-Thivent, Sophie Mercier et Michel Roussignol. Exercices de probabilits. Cassini, 1999. [10] Valrie Girardin et Nikolaos Limnios. Probabilits. Vuibert, 2001. [11] Jean Jacod et Philip Protter. Lessentiel en thorie des probabilits. Cassini, 2003. [12] Marie Cottrell, Valentine Genon-Catalot, Christian Duhamel et Thierry Meyre. Exercices de probabilits. Cassini, 1999. [13] Grard Frugier. Exercices ordinaires de probabilits. Ellipses, 1992. [14] Georey R. Grimmett and David R. Stirzaker. One Thousand Exercises in Probability. Oxford University Press, New York, 2001. [15] Georey R. Grimmett and David R. Stirzaker. Probability and random processes. Oxford University Press, New York, 2001. [16] Jacques Harthong. Calcul des probabilits. Format lectronique, http ://moire4.ustrasbg.fr/apache2-default/bouquins/proba/tabmat1.htm, 2001. [17] Michel Mtivier. Probabilits : dix leons dintroduction. Ellipses, 1987. [18] Jean-Yves Ouvrard. Probabilits 1. Cassini, 1998. [19] Jim Pitman. Probability. Springer, 1999. [20] Eva Cantoni, Philippe Huber, Elvezio Ronchetti. Matriser lalatoire (Exercices rsolus de probabilits et statistique). Springer, 2006. [21] Sheldon M. Ross. Initiation aux probabilits. Presses polytechniques et universitaires romandes, 1987. [22] Charles Suquet. Introduction au Calcul des Probabilits. Format lectronique, http ://wwwgat.univ-lille1.fr/ suquet/, 2005.

165