You are on page 1of 104

Abdel k a der BENHARI

Mouvement Brownien, calcul d'It


Rappels de thorie de probabilits, processus stochastiques en temps continu, martingales
PROCESSUS STOCHASTIQUES
1. Lemme de Borel-Cantelli 2
2. Quelques inegalites 2
3. Convergence dune suite de variables aleatoires 2
4. Esperances conditionnelles 4
5. Lois inniment divisibles et theor`eme de Levy-Khinchin 4
1. Quelques elements de theorie de la mesure dans les espaces de fonctions 7
2. Processus stochastiques 8
3. Le theor`eme dextension de Daniell-Kolmogorov 10
4. Quelques applications du theor`eme de Daniell-Kolmogorov 13
4.1. Processus de Markov 13
4.2. Processus gaussiens 16
5. Le crit`ere de continuite de Kolmogorov 17
6. Convergence en loi de processus continus 19
7. Un invite de marque: A. Kolmogorov 21
1. Filtrations et temps darrets 25
2. Martingales 26
3. Inegalites martingales 34
4. Quelques applications des theor`emes de Doob 36
4.1. Regularisation des processus de Feller-Dynkin 36
4.2. Martingales et densites 36
5. Un invite de marque: J. Doob 37
1. Preliminaires: La marche aleatoire symetrique 42
2. Processus de Levy 49
3. Denition, existence et premi`eres proprietes du mouvement brownien 53
4. Le principe dinvariance de Donsker
60
5. Loi du logarithme itere 64
6. Propriete de Markov forte 66
7. Diusions 69
8. Un invite de marque: Paul Levy
74
1. Integrale dIto 76
1.1. Variation des trajectoires browniennes 76
1.2. Integration contre le mouvement brownien 78
1.3. Martingales de carre integrable et variations quadratiques 82
1.4. Probl`eme :Integration contre les martingales de carre integrable 86
1.5. Martingales locales, Semi-martingales et integrateurs 87
2. Formule dIto 91
3. Le theor`eme de representation dIto 94
4. Probl`eme: Theor`eme de Girsanov 96
5. Equations dierentielles stochastiques et diusions 98
6. Un invite de marque: K. Ito 98
Calcul d'It
Mouvement Brownien
Martingales
Processus stochastiques en temps continu
Quelques rappels de thorie de probabilits
Table de matires

EORIE DES PROBABILIT

ES
Sans etre exhaustif, nous rappelons ici quelques elements de la theorie des probabilites qui
reviendront tout au long de ce cours. Des notions telles que:
La notion despace de probabilite (,F,P);
La notion de variable aleatoire;
La notion de loi dune variable aleatoire;
La notion de fonction caracteristique;
Le theor`eme central limite et la loi des grands nombres;
La notion dindependance de tribus ou de variables aleatoires;
La notion de loi gaussienne et de vecteurs gaussiens;
sont supposees acquises. Dans le cas contraire, nous renvoyons `a tout ouvrage elementaire dont
notamment:
Probability par A.N. Shiryaev, Springer, Graduate Texts in Mathematics, 95.
1
CHAPITRE 1: QUELQUES RAPPELS DE TH
1. Lemme de Borel-Cantelli
Soit (,F,P) un espace de probabilite. Soit (A
n
)
nN
, une suite devenements de F. On note
limsup A
n
=

nm
A
n
= { ,m,n() m, A
n()
}.
Proposition 1. (Lemme de Borel-Cantelli) Soit (A
n
)
nN
une suite devenements de F telle que

n
P(A
n
) < +.
Alors
P(limsup A
n
) = 0.
2. Quelques in egalit es
Soit (,F,P) un espace de probabilite.
Proposition 2. (Inegalite de Markov) Soient X une variable aleatoire mesurable et g : R
(0, +) une fonction borelienne, alors pour tout x R,
P(X x)
E(g(X))
g(x)
.
Proposition 3. (Inegalite de Jensen) Soient : R R une fonction convexe et X une variable
aleatoire mesurables. Supposons que,
E(| X |) < +, E(| (X) |) < +.
Alors,
E((X)) (E(X)).
Proposition 4. (Inegalite de Tchebychev) Soit X une variable aleatoire mesurable dans L
2
,
alors pour tout c > 0,
P(| X E(X) | c)
Var(X)
c
2
.
Proposition 5. (Inegalites de Holder et Minkowski) Soient p > 1 et q tels que
1
p
+
1
q
= 1. On
a pour toutes variables aleatoires mesurables X et Y ,
| E(XY ) | E(| X |
p
)
1
p
E(| Y |
q
)
1
q
,
et
E(| X +Y |
p
)
1
p
E(| X |
p
)
1
p
+E(| Y |
p
)
1
p
.
3. Convergence dune suite de variables al eatoires
Soit (X
n
)
nN
une suite de variables aleatoires reelles mesurables.
Denition 6. On dit que X
n

n+
X presque s urement si
P(X
n

n+
X) = 1.
On dit que X
n

n+
X en probabilite si pour tout > 0,
P(| X
n
X |> )
n+
0.
On dit X
n

n+
X dans L
p
, p 1, si
E(| X
n
X |
p
)
1
p

n+
0.
2
Entre ces dierents modes de convergence, on a les relations suivantes:
La convergence presque s ure implique la convergence en probabilite;
La convergence dans L
p
implique la convergence en probabilite.
Dautre part,
Proposition 7. (Theor`eme de convergence dominee) Soit (X
n
)
nN
une suite de variables aleatoires
reelles mesurables telle que X
n

n+
X en probabilite. Si il existe une constante K > 0 telle
que
sup
n
| X
n
| K,
alors X
n

n+
X presque s urement.
Denition 8. Soit (X
i
)
iI
une famille de variables aleatoires. On dit que (X
i
)
iI
est uni-
formement integrable si pour tout > 0, on peut trouver un K 0 tel que
i I, E(| X
i
| 1
|X
i
|>K
) < .
On a alors quelques proprietes:
Une famille nie de L
1
est toujours uniformement integrable;
Une famille uniformement integrable est bornee dans L
1
;
Une famille bornee dans L
p
, p > 1, est uniformement integrable.
Proposition 9. Soit (X
n
)
nN
une suite de variables aleatoires appartenant `a L
1
. Soit X L
1
.
Alors X
n

n+
X dans L
1
, si et seulement si:
(1) X
n

n+
X en probabilite;
(2) La suite (X
n
)
nN
est uniformement integrable.
La notion de convergence en loi est la plus faible mais aussi la plus interessante dun point de
vue probabiliste.
Soit (X
n
)
nN
une suite de variables aleatoires mesurables `a valeurs dans un espace polonais
1
.
Denition 10. On dit que (X
n
)
nN
converge en loi vers une variable aleatoire X si pour toute
fonction f : E R, continue, bornee, on a:
E(f(X
n
))
n+
E(f(X
n
)).
Cela revient `a dire que la suite des lois de X
n
converge etroitement vers la loi de X.
On remarquera que pour la convergence en loi, les variables aleatoires X
n
nont donc pas
necessairement besoin detre denies sur le meme espace de probabilite.
Theor`eme 11. (Theor`eme de Prokhorov) Soit P une famille de probabilites denies sur (E,E).
Alors P est un ensemble relativement compact pour la topologie de la convergence etroite, si
et seulement si la famille P est tendue, i.e. pour tout (0,1), on peut trouver un ensemble
compact K

E tel que pour tout P P,


P(K

) 1 .
La raison detre de ce theor`eme est quelle permet la strategie suivante pour demontrer la
convergence en loi dune suite (X
n
)
nN
:
(1) On demontre que la famille (X
n
)
nN
est tendue;
(2) On demontre que la suite (X
n
)
nN
ne peut avoir quune unique valeur dadherence.
Si (X
n
)
nN
est une suite de variables aleatoires reelles, alors tous les autres modes de convergence
cites plus haut, impliquent la convergence en loi.
1. Un espace topologique est dit polonais si cest un espace metrique complet separable.
3
4. Esp erances conditionnelles
Soit (,F,P) un espace de probabilite. Soient maintenant G une sous-tribu de F et X une
variable aleatoire reelle F mesurable telle que
E(| X |) < +.
Alors il existe une variable aleatoire Y , G mesurable telle que:
(1) E(| Y |) < +;
(2) Pour tout A G,
E(1
A
X) = E(1
A
Y ).
De plus, si Z est une autre variable aleatoire G mesurable qui verie les 2 proprietes precedentes,
alors
P(Y = Z) = 1.
La variable Y sappelle une version de lesperance conditionnelle de X sachant G et on note
Y = E(X | G).
Si on consid`ere des variables aleatoires X
1
et X
2
denies sur (,F,P) telles que
E(| X
1
|) < +, E(| X
2
|) < +,
ainsi que deux sous-tribus H et G de F veriant:
= H G,
alors on a les proprietes suivantes:
Si X
1
est G mesurable, E(X
1
| G) = X
1
;
Si Y est une variable aleatoire G mesurable positive et bornee alors
E(Y X
1
) = E(Y E(X
1
| G)) ;
Si Y
1
et Y
2
sont deux variables aleatoires positives bornees et G mesurables, alors
E(Y
1
X
1
+Y
2
X
2
| G) = Y
1
E(X
1
| G) +Y
2
E(X
2
| G) ;
E(E(X
1
| G) | H) = E(X
1
| H);
Si X
n
est une suite de variables integrables qui converge dans L
1
vers X
1
, alors
lim
n+
E(X
n
| G) = E(X
1
| G) .
Si X
1
X
2
, E(X
1
| G) E(X
2
| G);
Si : R R est une fonction convexe telle que (X
1
) est integrable alors on a linegalite
de Jensen:
E((X
1
) | G) (E(X
1
| G)) .
5. Lois infiniment divisibles et th eor` eme de L evy-Khinchin
Soient (,F,P) un espace de probabilite et X une variable aleatoire reelle.
Denition 12. On dit que X est une variable aleatoire inniment divisible si pour tout n 1,
on peut trouver des variables aleatoires independantes X
1
,...,X
n
telles que
X
1
+... +X
n
=
loi
X.
4
On a alors le theor`eme important suivant qui caracterise enti`erement les variables aleatoires
inniment divisibles:
Theor`eme 13. (Levy-Khinchin) Soit X une variable aleatoire inniment divisible. On peut
trouver R, > 0 et une mesure sur R\{0} tels que

R
(1 x
2
)(dx) < +,
R, E(e
iX
) = e
i
1
2

2
+

R
(e
ix
1ix1
|x|1
)(dx)
.
Reciproquement, soient R, > 0 et une mesure sur R\{0} telle que

R
(1 x
2
)(dx) < +.
La fonction:
e
i
1
2

2
+

R
(e
ix
1ix1
|x|1
)(dx)
est alors la fonction caracteristique dune loi inniment divisible.
5
Dans ce chapitre nous jetons les bases de la theorie des processus stochastiques en temps continu.
Nous denissons un processus stochastique comme une variable aleatoire `a valeurs dans un espace
de fonctions reels. Les outils importants introduits sont:
La theorie de la mesure dans les espaces de fonctions;
Le theor`eme de Daniell-Kolmogorov ;
La notion de processus de Markov et de processus gaussien;
Le crit`ere de continuite de Kolmogorov qui donne une condition simple pour lexistence
dune version continue dun processus;
La notion de convergence en loi dune suite de processus continus.
1
6
CHAPITRE 2: PROCESSUS STOCHASTIQUES EN TEMPS CONTINU
1. Quelques el ements de th eorie de la mesure dans les espaces de fonctions
Avant dattaquer la theorie des processus stochastiques qui peuvent etre vus comme des variables
aleatoires `a valeurs dans un espace de fonctions, il est important de bien comprendre quelles
sont les tribus canoniques sur ces espaces fonctionnels.
Notons A(R
+
,R) lensemble de toutes les applications R
+
R.
On consid`ere la famille densemble dits cylindriques:
{f A(R
+
,R),f(t
1
) I
1
,...,f(t
n
) I
n
}
o` u
t
1
,...,t
n
R
+
et o` u I
1
,...,I
n
sont des intervalles de la forme (a
i
,b
i
].
On note alors T (R
+
,R) la -alg`ebre de A(R
+
,R) engendree par cette famille. Cette -alg`ebre
admet dautres familles generatrices.
Proposition 1. En tant que -alg`ebre, T (R
+
,R) est egalement engendree par les familles sui-
vantes:
(1)
{f A(R
+
,R),f(t
1
) B
1
,...,f(t
n
) B
n
}
o` u
t
1
,...,t
n
R
+
et o` u B
1
,...,B
n
sont des ensembles boreliens de R.
(2)
{f A(R
+
,R),(f(t
1
),...,f(t
n
)) B}
o` u
t
1
,...,t
n
R
+
et o` u B est un ensemble borelien de R
n
.
Preuve.
Exercice
Exercice 2. Montrer que les ensembles suivants ne sont pas dans T ([0,1],R):
(1)
{f A([0,1],R), sup
t[0,1]
f(t) < 1}
(2)
{f A([0,1],R),t [0,1]f(t) = 0}
Lexercice precedent montre bien que la tribu T (R
+
,R) nest pas assez riche pour rendre mesu-
rable des evenements dont, pourtant, on aimerait pouvoir calculer la probabilite (sic !). Cela est
d u au fait que lespace dont on est parti, A(R
+
,R) est bien trop gros.
Dans ce cours nous nous interesserons beaucoup `a des processus qui ont des trajectoires conti-
nues. Dans ce cas on part de lespace des fonctions continues C(R
+
,R) et on consid`ere la tribu
B(R
+
,R) engendree par les cylindres:
{f C(R
+
,R),f(t
1
) I
1
,...,f(t
n
) I
n
}
o` u
t
1
,...,t
n
R
+
et o` u I
1
,...,I
n
sont des intervalles de la forme (a
i
,b
i
].
7
Il est interessant de noter que B(R
+
,R) est borelienne:
Proposition 3. B(R
+
,R) est engendree par les ouverts de la topologie de la convergence uni-
forme sur tout compact.
Preuve.
On rappelle tout dabord que sur C(R
+
,R) la topologie de la convergence uniforme sur tout
compact est metrisable, par exemple grace `a la distance
d(f,g) =
+

n=1
1
2
n
min( sup
0tn
| f(t) g(t) | ,1).
Cette distance fait de C(R
+
,R) un espace metrique complet separable.
Notons O la tribu engendree par les ouverts.
Il est clair que les cylindres de la forme
{f C(R
+
,R),f(t
1
) < a
1
,...,f(t
n
) < a
n
}
sont des ouverts qui engendrent B(R
+
,R). Par consequent
B(R
+
,R) O.
Pour demontrer linclusion inverse, il sut de demontrer que pour tout n N, n 1 tout > 0
et tout g C(R
+
,R),
{f C(R
+
,R), sup
0tn
| f(t) g(t) |< } B(R
+
,R),
ce qui decoule de legalite
{f C(R
+
,R), sup
0tn
| f(t) g(t) |< } =
tQ,0tn
{f C(R
+
,R), | f(t) g(t) |< }.

Exercice 4. Montrer que les ensembles suivants sont dans B([0,1],R):


(1)
{f C([0,1],R), sup
t[0,1]
f(t) < 1}
(2)
{f C([0,1],R),t [0,1]f(t) = 0}
2. Processus stochastiques
Soit (,F,P) un espace de probabilite.
Denition 5. Un processus stochastique sur (,F,P) est une suite (X
t
)
tR
+
de variables aleatoires
reelles F-mesurables.
Un processus (X
t
)
tR
+
peut etre vu comme une application
X() A(R
+
,R),t X
t
().
Lensemble de ces applications est lensemble des trajectoires de (X
t
)
tR
+
. Il est facile de
voir (exercice !) quun processus (X
t
)
tR
+
est mesurable en tant quapplication X : (,F)
(A(R
+
,R),T (R
+
,R)). La loi image de P par cette application, denie par
(A) = P(X
1
(A)),A T (R
+
,R))
sappelle la loi du processus (X
t
)
tR
+
.
8
Si, pour t 0, on note
t
lapplication qui `a f A(R
+
,R) associe f(t). Le processus stochastique
(
t
)
tR
+
deni sur lespace de probabilite (A(R
+
,R),T (R
+
,R),) sappelle le processus canonique
associe `a X. Cest un processus de loi .
`
A ce degre de generalite, il ny a priori aucune regularite des trajectoires du processus. Le
minimum `a exiger est la mesurabilite jointe en temps et en :
Denition 6. Un processus (X
t
)
tR
+
est dit mesurable si lapplication
(t,) X
t
()
est mesurable par rapport `a B(R
+
) F, cest-`a-dire si
A B(R),{(t,),X
t
() A} B(R
+
) F.
Un processus mesurable a evidemment des trajectoires qui sont des fonctions mesurables.
Denition 7. Si X est `a valeurs dans C(R
+
,R), cest-`a-dire si les trajectoires de X sont conti-
nues, on dit que (X
t
)
tR
+
est un processus continu.
Dans ce cas, lapplication X : (,F) (C(R
+
,R),B(R
+
,R)) est mesurable et la loi de X vit sur
lespace (C(R
+
,R),B(R
+
,R)). De plus,
Proposition 8. Un processus continu est mesurable.
Preuve. Soit (X
t
)
tR
+
un processus continu. Montrons tout dabord que si A est un borelien
de R,
{(t,) [0,1] ,X
t
() A} B(R
+
) F.
Pour n N, soit
X
n
t
= X[2
n
t]
2
n
,t [0,1],
o` u [.] designe la partie enti`ere. Comme les trajectoires de X
n
sont constantes par morceaux, il
est clair que
{(t,) [0,1] ,X
n
t
() A} B(R
+
) F.
Dautre part, t [0,1],
lim
n+
X
n
t
() = X
t
().
Donc
{(t,) [0,1] ,X
t
() A} B(R
+
) F.
De meme on montre que k N,
{(t,) [k,k + 1] ,X
t
() A} B(R
+
) F.
Comme
{(t,) R ,X
t
() A} =
kN
{(t,) R ,X
t
() A},
on en deduit le resultat souhaite.

9
3. Le th eor` eme dextension de Daniell-Kolmogorov
Dans le paragraphe precedent, nous avons vu quun processus stochastique denissait une mesure
de probabilite sur lespace (A(R
+
,R),T (R
+
,R)). Nous allons tout dabord voir que cette mesure
est enti`erement determinee par ce que lon appelle les lois ni-dimensionnelles du processus.
Denition 9. Soit t
1
,...,t
n
R
n
+
. On note
t
1
,...,t
n
la loi de la variable aleatoire
(X
t
1
,...,X
t
n
).
Cest donc une mesure de probabilite portee par R
n
. Cette probabilite sappelle une loi ni-
dimensionnelle du processus X.
Proposition 10. Soient (X
t
)
tR
+
et (X

t
)
tR
+
2 processus stochastiques eventuellement denis
sur des espaces de probabilite dierents. Si ces 2 processus ont les memes lois ni-dimensionnelles,
alors ils ont les memes lois.
Preuve.
Dire que (X
t
)
tR
+
et (X

t
)
tR
+
ont les memes lois ni-dimensionnelles revient `a dire que les lois
de X et X

coincident sur les cylindres


{f A(R
+
,R),f(t
1
) I
1
,...,f(t
n
) I
n
}.
Comme ces cylindres engendrent la -alg`ebre T (R
+
,R), nous en deduisons que X et X

ont la
meme loi.
Lensemble des lois ni-dimensionnelles dun processus verient les 2 conditions dite de compa-
tibilite: Soient t
1
,...,t
n
R
+
et une permutation de lensemble {1,...,n}, on a
(1)

t
1
,...,t
n
(A
1
... A
n
) =
t
(1)
,...,t
(n)
(A
(1)
... A
(n)
), A
i
B(R).
(2)

t
1
,...,t
n
(A
1
... A
n1
R) =
t
1
,...,t
n1
(A
1
... A
n1
), A
i
B(R).
Le theor`eme de Daniell-Kolmogorov arme que reciproquement, etant donnee une famille com-
patible de probabilites denis sur les cylindres de T (R
+
,R), il est toujours possible de construire
un processus dont les lois ni-dimensionnelles sont donnees par ces probabilites.
Theor`eme 11. (Daniell 1918, Kolmogorov 1933)
Supposons donnee pour chaque t
1
,...,t
n
R
+
une probabilite
t
1
,...,t
n
sur R
n
. Supposons que cette
famille de probabilites verie les 2 conditions:
(1)

t
1
,...,t
n
(A
1
... A
n
) =
t
(1)
,...,t
(n)
(A
(1)
... A
(n)
), A
i
B(R).
(2)

t
1
,...,t
n
(A
1
... A
n1
R) =
t
1
,...,t
n1
(A
1
... A
n1
), A
i
B(R).
Alors il existe une unique probabilite sur (A(R
+
,R),T (R
+
,R)) telle que pour t
1
,...,t
n
R
+
,
A
1
,...,A
n
B(R):
(
t
1
A
1
,...,
t
n
A
n
) =
t
1
,...,t
n
(A
1
... A
n
).
10
Pour demontrer ce theor`eme, nous nous appuyons sur le theor`eme classique de Caratheodory
dextension de la mesure que nous rappelons ici:
Theor`eme 12. (Carathedory) Soit un ensemble non vide et A une famille de sous-ensembles
de telle que:
(1) A;
(2) Si A,B A, A B A;
(3) Si A A, \A A.
Notons (A) la -alg`ebre engendree par A. Si
0
est une mesure -additive sur (,A), alors il
existe une unique mesure sur (,(A)) telle que pour A A,

0
(A) = (A).
Nous utiliserons egalement le lemme suivant:
Lemme 13. Soit B
n
R
n
, n N, une suite de boreliens tels que
B
n+1
B
n
R.
On suppose donnee pour chaque n N une probabilite
n
sur (R
n
,B(R
n
)) telle que,

n
(B
n
) > ,
o` u est un reel strictement positif strictement inferieur `a 1. Alors, on peut trouver une suite
de compacts K
n
R
n
, n N, tels que:
K
n
B
n
K
n+1
K
n
R.

n
(K
n
)

2
.
Preuve du lemme. Cest un resultat classique de theorie de la mesure que pour chaque B
n
on
peut trouver un compact K

n
R
n
tel que
K

n
B
n
et

n
(B
n
\K

n
)

2
n+1
.
On pose alors
K
n
= (K

1
R
n1
) ... (K

n1
R) K

n
.
Il est facile de verier que:
K
n
B
n
K
n+1
K
n
R.
Dautre part,

n
(K
n
) =
n
(B
n
)
n
(B
n
\K
n
)
=
n
(B
n
)
n

B
n
\

(K

1
R
n1
) ... (K

n1
R) K


n
(B
n
)
n

B
n
\

(K

1
R
n1
)

...
n

B
n
\

n1
R

n
(B
n
\K

n
)

n
(B
n
)
n
(B
1
\K

1
) ...
n
(B
n
\K

n
)


4
...

2
n+1


2
.

11
Preuve du theor`eme de Daniell-Kolmogorov. Pour le cylindre
C
t
1
,...,t
n
(B) = {f A(R
+
,R),(f(t
1
),...,f(t
n
)) B}
o` u
t
1
,...,t
n
R
+
et o` u B est un borelien de R
n
, on pose
(C
t
1
,...,t
n
((B))) =
t
1
,...,t
n
(B).
Grace aux proprietes de compatibilite, il est facile de voir que est bien denie et que
(A(R
+
,R)) = 1.
Maintenant, lensemble A de tous les cylindres C
t
1
,...,t
n
(B) verie les hypotheses du theor`eme
de Caratheodory. Pour conclure la demonstration du theor`eme de Daniell-Kolmogorov, il reste
donc `a demontrer que est -additive, cest-`a-dire que si (C
n
)
nN
est une suite de cylindres 2
`a 2 disjoints telle que C =
nN
C
n
est un cylindre alors
(C) =
+

n=0
(C
n
).
Cest la partie dicile du theor`eme.
Comme pour tout N N, on a
(C) =

C\
N
n=0
C
n

N
n=0
C
n

,
il sut de montrer que
lim
N+
(D
N
) = 0.
o` u D
N
= C\
N
n=0
C
n
.
La suite ((D
N
))
NN
est decroissante et positive et donc convergente. Supposons par labsurde
quelle converge vers > 0. Nous allons demontrer que cela implique

NN
D
N
= ,
ce qui est clairement absurde.
Comme chaque D
N
est un cylindre, levenement
NN
D
N
ne fait intervenir quun nombre
denombrable dinstants t
1
< ... < t
n
< ... et on peut supposer, quitte `a rajouter des ensembles
dans la suite des D
N
, que chaque ensemble D
N
peut etre ecrit
D
N
= {f A(R
+
,R),(f(t
1
),...,f(t
N
)) B
N
}
o` u B
n
R
n
, n N, est une suite de boreliens tels que
B
n+1
B
n
R.
Comme, par hypoth`ese, (D
N
) , on peut utiliser le lemme precedent pour construire une
suite de compacts K
n
R
n
, n N, tels que:
K
n
B
n
K
n+1
K
n
R.

t
1
,...,t
n
(K
n
)

2
.
Chaque K
n
etant non vide, on peut trouver
(x
n
1
,...,x
n
n
) K
n
.
La suite (x
n
1
)
nN
admet une suite extraite (x
j
1
(n)
1
)
nN
qui converge vers x
1
K
1
. De meme
la suite ((x
j
1
(n)
1
,x
j
1
(n)
2
)
nN
va admettre une suite extraite qui converge vers (x
1
,x
2
) K
2
. En
12
raisonnant ainsi, de proche en proche, on construit ainsi une suite (x
n
)
nN
telle que pour tout
n,
(x
1
,...,x
n
) K
n
.
Levenement
{f A(R
+
,R),(f(t
1
),...,f(t
N
)) = (x
1
,...,x
N
)}
se trouve alors dans chaque D
N
, ce qui conduit `a notre contradiction.
Linteret essentiel du theor`eme de Daniell-Kolmogorov est de pouvoir construire un processus `a
laide de ses lois ni-dimensionnelles:
Corollary 14. Supposons donnee pour chaque t
1
,...,t
n
R
+
une probabilite
t
1
,...,t
n
sur R
n
.
Supposons que cette famille de probabilites verie les conditions de compatibilite du theor`eme de
Daniell-Kolmogorov.
Alors on peut trouver un espace de probabilite (,F,P) ainsi quun processus (X
t
)
t0
deni sur
cet espace dont les lois ni-dimensionnelles sont les
t
1
,...,t
n
.
Preuve du corollaire. Comme espace de probabilite, on prend
(,F,P) = (A(R
+
,R),T (R
+
,R),)
o` u est la probabilite donnee par le theor`eme de Daniell-Kolmogorov. On consid`ere alors le
processus (
t
)
t0
deni sur A(R
+
,R) par
t
(f) = f(t). Par construction meme, ce processus est
de loi .

4. Quelques applications du th eor` eme de Daniell-Kolmogorov


4.1. Processus de Markov. Intuitivement, un processus de Markov (X
t
)
t0
deni sur un
espace de probabilite (,F,P) est un processus sans memoire. Un tel processus est caracterise
par sa fonction de transition. La fonction de transition dun processus de Markov est lanalogue
en temps continu de la matrice de transition associee `a une chaine de Markov. Tout au long de
ce cours, nous rencontrerons de nombreux exemples de processus de Markov dont notamment,
le mouvement brownien.
Denition 15. Une fonction de transition {P
t
,t 0} sur R est une famille de noyaux
P
t
: R B(R) [0,1]
telle que:
(1) Pour t 0 et x R, P
t
(x,) est une mesure de probabilite sur B(R);
(2) Pour t 0 et A B(R), la fonction x P
t
(x,A) est mesurable par rapport `a B(R);
(3) Pour s,t 0, x R et A B(R),
(1) P
t+s
(x,A) =

R
P
t
(y,A)P
s
(x,dy);
Lequation (1) est appelee lequation de Chapman-Kolmogorov.
Une fonction de transition peut egalement etre vu comme une famille doperateurs (P
t
)
t0
continus et de norme inferieure `a 1 denis sur lespace des fonctions f : R R boreliennes
bornees:
(P
t
f)(x) =

R
f(y)P
t
(x,dy).
13
Exercice 16.
(1) Montrer que lequation de Chapman-Kolmogorov equation est equivalente `a la propriete
de semigroupe:
P
t+s
= P
t
P
s
,s,t 0.
(2) Soit f : R
+
R une fonction continue en 0 telle que
f(t + s) = f(t)f(s),s,t 0.
Montrer quil existe R tel que pour t 0,
f(t) = e
t
.
(3) Soit f : R
+
M
n
(R) (espace des matrices n n) une fonction continue en 0 telle que
f(t + s) = f(t)f(s),s,t 0.
Montrer quil existe M
n
(R) tel que pour t 0,
f(t) = e
t
.
Cet exercice suggere que sous une hypoth`ese de continuite en 0, on doit pouvoir ecrire
P
t
= e
tL
,
o` u L sera un operateur deni sur un certain espace fonctionnel.
Denition 17. Un processus (X
t
)
t0
deni sur lespace de probabilite (,F,P) est appele un
processus de Markov sil existe une fonction de transition {P
t
,t 0} telle que pour toute fonction
borelienne bornee f : R R, et 0 < s,t,
E(f(X
s+t
) | (X
u
,u s)) = (P
t
f)(X
s
),
o` u (X
u
,u s) est la plus petite sous-tribu de T (R
+
,R) qui rend mesurable toutes les variables
aleatoires
(X
u
1
,...,X
u
n
),u
1
,...,u
n
[0,s].
La fonction de transition {P
t
,t 0} est appelee la fonction de transition du processus (X
t
)
t0
.
Ainsi, pour un processus de Markov, toute linformation contenue dans X
s+t
conditionnellement
`a (X
u
,u s) se resume `a X
s
. Le theor`eme de Daniell-Kolomogorov assure lexistence dun
processus de Markov de fonction de transition donnee.
Proposition 18. Soient {P
t
,t 0} une fonction de transition et une mesure de probabilite
sur R. Alors, il existe un espace de probabilite (,F,P) ainsi quun processus de Markov (X
t
)
t0
de fonction de transition {P
t
,t 0} deni sur cet espace tel que
X
0
=
loi
.
Preuve. Nous allons montrer comment la fonction de transition caracterise les lois ni-dimensionnelles
et ensuite utiliser le corollaire 14.
Si (X
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} tel que:
X
0
=
loi
.
14
Alors on doit avoir, pour toute fonction borelienne bornee f:
E(f(X
t
)) = E((P
t
f)(X
0
))
=

R
(P
t
f)(x)(dx)
=

R
f(y)P
t
(x,dy)(dx).
Ainsi necessairement, si B est un borelien de R,

t
(B) =

B
P
t
(x,dy)(dx).
De meme on peut calculer les lois bi-dimensionnelles. Si f est une fonction borelienne bornee
R
2
R, pour 0 < t
1
< t
2
,
E(f(X
t
1
,X
t
2
)) = E(E(f(X
t
1
,X
t
2
) | (X
u
,u t
1
)))
= E

R
f(X
t
1
,y)P
t
2
t
1
(X
t
1
,dy)

R
f(x,y)P
t
1
(z,dx)P
t
2
t
1
(x,dy)(dz).
Ainsi, necessairement, si B est un borelien de R
2
,

t
1
,t
2
(B) =

B
P
t
2
t
1
(x,dy)P
t
1
(z,dx)(dz).
De meme, on montre que necessairement, si 0 < t
1
< ... < t
n
et si B est un borelien de R
n
alors

t
1
,...,t
n
(B) =

B
P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz).
Lidee est donc maintenant de denir pour 0 = t
0
< t
1
< ... < t
n
, A borelien de R et B borelien
de R
n
,

t
0
,t
1
,...,t
n
(AB) =

B
P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz).
Voir que cette famille de probabilites est compatible au sens du theor`eme de Daniell-Kolmogorov
est une consequence de lequation de Chapman-Kolmogorov (Exercice !).
Donc dapr`es le corollaire 14 on peut trouver un processus (X
t
)
t0
deni sur un certain espace
de probabilite dont les lois ni-dimensionnelles sont donnees par les
t
0
,t
1
,...,t
n
. Montrons que ce
processus est un processus de Markov de fonction de transition {P
t
,t 0} et que:
X
0
=
loi
.
Comme

0
(A) =

A
(dz) = (A),A B(R),
on a bien
X
0
=
loi
.
Il sagit maintenant de demontrer que pour toute fonction borelienne bornee f : R R, et
0 < s,t,
E(f(X
s+t
) | (X
u
,u s)) = (P
t
f)(X
s
).
15
Pour cela, il sut de demontrer que pour toutes fonctions boreliennes bornees f : R R,
F : R
n
R, et 0 = t
0
< t
1
< ... < t
n
,
E

f(X
t
n
)F(X
t
0
,...,X
t
n1
)

= E

(P
t
n
t
n1
f)(X
t
n1
)F(X
t
0
,...,X
t
n1
)

.
Mais dapr`es le theor`eme de Fubini:
E

f(X
t
n
)F(X
t
0
,...,X
t
n1
)

R
n+1
f(x
n
)F(z,x
1
,...,x
n1
)P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n
t
n1
(x
n1
,dx
n
)(dz)
=

R
n1
(P
t
n
t
n1
f)(x
n1
)F(z,x
1
,...,x
n1
)P
t
1
(z,dx
1
)P
t
2
t
1
(x
1
,dx
2
)...P
t
n1
t
n2
(x
n2
,dx
n1
)(dz)
=E

(P
t
n
t
n1
f)(X
t
n1
)F(X
t
0
,...,X
t
n1
)

.
Ce qui conclut la demonstration.
4.2. Processus gaussiens.
Denition 19. Un processus (X
t
)
t0
deni sur un espace de probabilite (,F,P) est dit gaussien
si toutes ses lois ni-dimensionnelles sont des lois gaussiennes.
La loi dun tel processus est caracterisee par sa fonction moyenne
m(t) = E(X
t
)
et sa fonction de covariance
R(s,t) = E((X
t
m(t))(X
s
m(s))) .
En eet la loi ni-dimensionnelle
t
1
,...,t
n
a la densite suivante par rapport `a la mesure de
Lebesgue:
1
(2)
n/2
1

det
exp

1
2

1i,jn
(x
i
m(t
i
))(
1
)
i,j
(x
j
m(t
j
))

,
o` u
i,j
= R(t
i
,t
j
).
On remarquera que la fonction de covariance R(s,t) est symetrique (R(s,t) = R(t,s)) et telle que
pour tout a
1
,...,a
n
R et t
1
,...,t
n
R
+
,

1i,jn
a
i
a
j
R(t
i
,t
j
) =

1i,jn
a
i
a
j
E

(X
t
i
m(t
i
))(X
t
j
m(t
j
))

= E

i=1
(X
t
i
m(t
i
))

0.
Reciproquement,
Proposition 20. Soient m : R
+
R et R : R
+
R
+
R une fonction symetrique qui verie
pour tout a
1
,...,a
n
R et t
1
,...,t
n
R
+
,

1i,jn
a
i
a
j
R(t
i
,t
j
) 0.
Alors, il existe un espace de probabilite (,F,P) ainsi quun processus gaussien (X
t
)
t0
deni
sur cet espace de fonction moyenne m et de fonction de covariance R.
16
Preuve. Denissons une famille de probabilites par

t
1
,...,t
n
=
1
(2)
n/2
1

det
exp

1
2

1i,jn
(x
i
m(t
i
))(
1
)
i,j
(x
j
m(t
j
))

dx
1
...dx
n
,
o` u
i,j
= R(t
i
,t
j
) et o` u dx
1
...dx
n
est la mesure de Lebesgue sur R
n
. Par hypoth`ese sur R, notez
que est bien une matrice symetrique positive, de sorte que
t
1
,...,t
n
est bien une loi gaussienne. Il
est facile de verier que cette famille est compatible au sens du theor`eme de Daniell-Kolmogorov,
on peut donc appliquer le corollaire 14 pour obtenir la conclusion souhaitee.
Exercice 21. Soit (X
t
)
t0
un processus gaussien de fonction moyenne nulle et de fonction de
covariance R(s,t) = min(s,t). Montrer que (X
t
)
t0
est egalement un processus de Markov et
calculer sa fonction de transition.
5. Le crit` ere de continuit e de Kolmogorov
Comme nous lavons dej`a precise, les processus stochastiques que nous avons etudies jusqu`a
present sont encore extremement generaux dans le sens o` u leurs trajectoires sont quelconques.
Neanmoins, de nombreux processus continus qui sont interessants dans la pratique ont des
trajectoires relativement reguli`eres.
Denition 22. Une fonction f : R
+
R est dite Holderienne dexposant > 0 si il existe une
constante C > 0 telle que pour tout s,t R
+
,
| f(t) f(s) | C | t s |

.
Exercice 23.
(1) Montrer que si f est une fonction Holderienne dexposant > 1, alors f est constante.
(2) Montrer quune fonction Holderienne est uniformement continue.
(3) Donner un exemple de fonction Holderienne dordre
1
2
.
Denition 24. Un processus stochastique (

X
t
)
t0
est appele une modication du processus
(X
t
)
t0
si pour t 0,
P

X
t
=

X
t

= 1.
Remarque 25. Si (

X
t
)
t0
est une modication du processus (X
t
)
t0
alors (

X
t
)
t0
a les memes
loi-ni-dimensionnelles que (X
t
)
t0
.
Le theor`eme important suivant, d u `a A. Kolmogorov, donne une condition susante pour quun
processus X admette une modication continue avec des trajectoires Holderiennes.
Theor`eme 26. (Kolmogorov 1956) Soit ,,c > 0. Si un processus (X
t
)
t[0,1]
deni sur (,F,P)
verie pour tout s,t [0,1],
E(| X
t
X
s
|

) c | t s |
1+
,
alors il existe une modication de (X
t
)
t[0,1]
qui est un processus continu dont les trajectoires
sont Holderiennes pour tout [0,

).
Preuve. Pour n N, notons
D
n
=

k
2
n
,k = 0,...,2
n

17
et
D =
nN
D
n
.
On remarque que D est dense dans [0,1]. Soit [0,

).
On a, dapr`es linegalite de Tchebychev:
P

max
1k2
n
| X k
2
n
Xk1
2
n
| 2
n

= P

1k2
n | X k
2
n
Xk1
2
n
| 2
n

2
n

k=1
P

| X k
2
n
Xk1
2
n
| 2
n

2
n

k=1
E

| X k
2
n
Xk1
2
n
|

2
n
c2
n()
Ainsi, comme > , on a
+

n=1
P

max
1k2
n
| X k
2
n
Xk1
2
n
| 2
n

< +,
donc dapr`es le lemme de Borel-Cantelli on peut trouver un ensemble

F tel que P(

) = 1
et tel que pour

, il existe N() tel que pour tout n N(),


max
1k2
n
| X k
2
n
() Xk1
2
n
() |< 2
n
.
De l`a, on peut en deduire que les trajectoires de X
/
sont Holderiennes sur D. En eet, soient

et s,t D tels que


| s t |
1
2
n
o` u n N().
On peut trouver une suite (s
n
)
nN
croissante et stationnaire qui converge vers s, telle que s
n
D
n
et
| s
n+1
s
n
|= 2
(n+1)
ou 0.
De meme on peut trouver une suite (t
n
)
nN
qui converge vers t et qui verie des proprietes
identiques. On a alors:
X
t
X
s
=
+

i=n
(X
s
i+1
X
s
i
) + (X
s
n
X
t
n
) +
+

i=n
(X
t
i
X
t
i+1
)
Remarquez que les sommes ci-dessus sont en realite nies.
Par consequent,
| X
t
X
s
| 2
+

i=n
max
1k2
i
| X k
2
i
() Xk1
2
i
() |
2
+

i=n
2
i

2
1 2

2
n
.
Ainsi, les trajectoires de X
/
sont bien Holderiennes sur D.
18
Pour

, soit t

X
t
() lunique fonction continue qui coincide avec t X
t
() sur D. Pour
/

, on pose

X
t
() = 0. On obtient alors un processus (

X
t
)
t[0,1]
qui est la modication de
(X
t
)
t[0,1]
desiree (veriez le !).

6. Convergence en loi de processus continus


Dans ce paragraphe, nous allons donner des crit`eres qui assurent la convergence en loi dune
suite de processus continus.
On se place sur lespace des fonctions continues C(R
+
,R) sur lequel on consid`ere la tribu
borelienne B(R
+
,R) engendree par les ouverts de la topologie de la convergence uniforme sur
tout compact. On notera, comme dhabitude, (
t
)
t0
, le processus des coordonnees.
On rappelle que le theor`eme dAscoli caracterise les ensembles relativement compacts
1
de cette
topologie:
Theor`eme 27. (Ascoli)
Pour N N, f C(R
+
,R) et > 0, on note:
V
N
(f,) = sup{| f(t) f(s) | , | t s | , s,t N}.
Un sous-ensemble K C(R
+
,R) est relativement compact si et seulement si:
(1) Lensemble {f(0),f K} est borne;
(2) Pour tout N N,
lim
0
sup
fK
V
N
(f,) = 0.
Comme un processus stochastique continu nest rien dautre quune variable aleatoire `a valeurs
dans C(R
+
,R), on a une notion de convergence en loi pour une suite de processus:
Denition 28. Une suite (X
n
)
nN
de processus continus (eventuellement denis sur des espaces
de probabilite dierents) est dite convergente en loi vers un processus X, si la suite des lois de
X
n
converge etroitement dans lespace polonais C(R
+
,R) vers la loi de X.
On a alors un crit`ere, tr`es utile en pratique, qui assure la convergence en loi dune suite de
processus continus:
Proposition 29. Soient (X
n
)
nN
une suite de processus continus et X un processus continu.
Supposons les deux conditions suivantes satisfaites:
(1) La suite des lois de X
n
est relativement compacte dans la topologie de la convergence
etroite;
(2) Pour tout t
1
,...,t
k
R
k
,
(X
n
t
1
,...,X
n
t
k
)
loi
n+
(X
t
1
,...,X
t
k
).
Alors la suite (X
n
)
nN
converge en loi vers X.
Preuve.
Pour demontrer quune suite relativement compacte est convergente, il sut de demontrer quelle
a une et une seule valeur dadherence, ce qui est ici immediat etant donne que la loi dun processus
est caracterisee par ses loi ni-dimensionnelles.

1. Un ensemble est dit relativement compact si son adherence est compacte


19
Pour pouvoir mettre en oeuvre le crit`ere precedent, il faut pouvoir caracteriser les suites re-
lativement compactes dans la topologie de la convergence etroite, et cest l`a que le theor`eme
dAscoli intervient:
Proposition 30. Sur lespace C(R
+
,R), une suite (P
n
)
nN
de probabilite est relativement com-
pacte dans la topologie de la convergence etroite si et seulement si:
(1) Pour tout > 0, on peut trouver A > 0 et n
0
N tels que pour tout n n
0
,
P
n
(|
0
|> A) ;
(2) Pour tout , > 0 et N N, on peut trouver > 0 et n
0
N tels que pour tout n n
0
,
P
n
(V
n
0
(,) > ) .
Preuve.
Supposons que la suite (P
n
)
nN
est relativement compacte dans la topologie de la convergence
etroite, alors dapr`es le theor`eme de Prokhorov, cette suite est tendue, i.e. pour tout (0,1),
on peut trouver un ensemble relativement compact K

C(R
+
,R), tel que pour tout n N:
P
n
(K

) 1 .
En ecrivant K

sous la forme donnee par le theor`eme dAscoli, on verie alors facilement que
les proprietes (1) et (2) sont satisfaites avec n
0
= 0.
Supposons maintenant que les proprietes (1) et (2) sont satisfaites. Tout dabord, comme une
suite nie est toujours relativement compacte, on peut supposer que les proprietes (1) et (2) sont
satisfaites avec n
0
= 0. Toujours dapr`es le theor`eme de Prokhorov, pour demontrer la relative
compacite, il sut de demontrer la tension.
Soient > 0 et N N. Pour tout k 1, on peut alors trouver A
N
> 0 et
N,k
tels que:
sup
nN
P
n
(|
0
|> A
N
)

2
N+1
sup
nN
P
n

V
N
(,
k
) >
1
k


2
N+k+1
On pose alors,
K

NN

f C(R
+
,R), | f(0) | A
N
,V
N
(,
N,k
)
1
k
,k 1

.
Le theor`eme dAscoli implique la relative compacite de K

, et il est facile de voir que pour tout


n 0,
P
n
(K

) 1 .

Enn, le crit`ere suivant de compacite relative sav`ere souvent applicable en pratique:


Proposition 31. (Crit`ere de compacite de Kolmogorov) Soit (X
n
)
nN
une suite de processus
continus telle que:
(1) La famille des lois de (X
n
0
)
nN
est tendue;
(2) On peut trouver des constantes ,, > 0 telles que pour s,t 0 et n 0,
E(| X
n
t
X
n
s
|

) | t s |
1+
.
Alors la famille des lois de (X
n
)
nN
est relativement compacte dans la topologie de la convergence
etroite.
20
Preuve.
Exercice.
.
7. Un invit e de marque: A. Kolmogorov
Born: 25 April 1903 in Tambov, Tambov province, Russia
Died: 20 Oct 1987 in Moscow, Russia
Andrei Nikolaevich Kolmogorovs parents were not married and his father took no part in his
upbringing. His father Nikolai Kataev, the son of a priest, was an agriculturist who was exi-
led. He returned after the Revolution to head a Department in the Agricultural Ministry but
died in ghting in 1919. Kolmogorovs mother also, tragically, took no part in his upbringing
since she died in childbirth at Kolmogorovs birth. His mothers sister, Vera Yakovlena, brought
Kolmogorov up and he always had the deepest aection for her.
In fact it was chance that had Kolmogorov born in Tambov since the family had no connections
with that place. Kolmogorovs mother had been on a journey from the Crimea back to her home
in Tunoshna near Yaroslavl and it was in the home of his maternal grandfather in Tunoshna that
Kolmogorov spent his youth. Kolmogorovs name came from his grandfather, Yakov Stepanovich
Kolmogorov, and not from his own father. Yakov Stepanovich was from the nobility, a dicult
status to have in Russia at this time, and there is certainly stories told that an illegal printing
press was operated from his house.
After Kolmogorov left school he worked for a while as a conductor on the railway. In his spare
time he wrote a treatise on Newtons laws of mechanics. Then, in 1920, Kolmogorov entered
Moscow State University but at this stage he was far from committed to mathematics. He
studied a number of subjects, for example in addition to mathematics he studied metallurgy
and Russian history. Nor should it be thought that Russian history was merely a topic to ll
out his course, indeed he wrote a serious scientic thesis on the owning of property in Novgorod
in the 15th and 16th centuries. There is an anecdote regarding this thesis, his teacher saying:
You have supplied one proof of your thesis, and in the mathematics that you study this would
perhaps suce, but we historians prefer to have at least ten proofs.
Kolmogorov may have told this story as a joke but nevertheless jokes are only funny if there is
some truth in them and undoubtedly this is the case here.
In mathematics Kolmogorov was inuenced at an early stage by a number of outstanding mathe-
maticians. P S Aleksandrov was beginning his research (for the second time) at Moscow around
the time Kolmogorov began his undergraduate career. Luzin and Egorov were running their
impressive research group at this time which the students called Luzitania. It included M Ya
Suslin and P S Urysohn, in addition to Aleksandrov. However the person who made the deepest
impression on Kolmogorov at this time was Stepanov who lectured to him on trigonometric
series.
It is remarkable that Kolmogorov, although only an undergraduate, began research and produced
results of international importance at this stage. He had nished writing a paper on operations
on sets by the spring of 1922 which was a major generalisation of results obtained by Suslin. By
June of 1922 he had constructed a summable function which diverged almost everywhere. This
was wholly unexpected by the experts and Kolmogorovs name began to be known around the
world.
Kolmogorov graduated from Moscow State University in 1925 and began research under Lusins
supervision in that year. It is remarkable that Kolmogorov published eight papers in 1925,
all written while he was still an undergraduate. Another milestone occurred in 1925, namely
Kolmogorovs rst paper on probability appeared. This was published jointly with Khinchin
21
and contains the three series theorem as well as results on inequalities of partial sums of
random variables which would become the basis for martingale inequalities and the stochastic
calculus.
In 1929 Kolmogorov completed his doctorate. By this time he had 18 publications and Kendall
writes:
These included his versions of the strong law of large numbers and the law of the iterated loga-
rithm, some generalisations of the operations of dierentiation and integration, and a contribu-
tion to intuitional logic. His papers ... on this last topic are regarded with awe by specialists in
the eld. The Russian language edition of Kolmogorovs collected works contains a retrospective
commentary on these papers which [Kolmogorov] evidently regarded as marking an important
development in his philosophical outlook.
An important event for Kolmogorov was his friendship with Aleksandrov which began in the
summer of 1929 when they spent three weeks together. On a trip starting from Yaroslavl, they
went by boat down the Volga then across the Caucasus mountains to Lake Sevan in Arme-
nia. There Aleksandrov worked on the topology book which he co-authored with Hopf, while
Kolmogorov worked on Markov processes with continuous states and continuous time. Kolmo-
gorovs results from his work by the Lake were published in 1931 and mark the beginning of
diusion theory. In the summer of 1931 Kolmogorov and Aleksandrov made another long trip.
They visited Berlin, Gttingen, Munich, and Paris where Kolmogorov spent many hours in deep
discussions with Paul Levy. After this they spent a month at the seaside with Frechet
Kolmogorov was appointed a professor at Moscow University in 1931. His monograph on probabi-
lity theory Grundbegrie der Wahrscheinlichkeitsrechnung published in 1933 built up probability
theory in a rigorous way from fundamental axioms in a way comparable with Euclids treatment
of geometry. One success of this approach is that it provides a rigorous denition of conditional
expectation.
Around this time Malcev and Gelfand and others were graduate students of Kolmogorov along
with Gnedenko who describes what it was like being supervised by Kolmogorov:
The time of their graduate studies remains for all of Kolmogorovs students an unforgettable
period in their lives, full of high scientic and cultural strivings, outbursts of scientic progress
and a dedication of all ones powers to the solutions of the problems of science. It is impossible to
forget the wonderful walks on Sundays to which [Kolmogorov] invited all his own students (gra-
duates and undergraduates), as well as the students of other supervisors. These outings in the
environs of Bolshevo, Klyazma, and other places about 30-35 kilometres away, were full of dis-
cussions about the current problems of mathematics (and its applications), as well as discussions
about the questions of the progress of culture, especially painting, architecture and literature.
In 1938-1939 a number of leading mathematicians from the Moscow University joined the Steklov
Mathematical Institute of the USSR Academy of Sciences while retaining their positions at the
University. Among them were Aleksandrov, Gelfand, Kolmogorov, Petrovsky, and Khinchin.
The Department of Probability and Statistics was set up at the Institute and Kolmogorov was
appointed as Head of Department.
Kolmogorov later extended his work to study the motion of the planets and the turbulent ow of
air from a jet engine. In 1941 he published two papers on turbulence which are of fundamental
importance. In 1954 he developed his work on dynamical systems in relation to planetary motion.
He thus demonstrated the vital role of probability theory in physics.
We must mention just a few of the numerous other major contributions which Kolmogorov
made in a whole range of dierent areas of mathematics. In topology Kolmogorov introduced
the notion of cohomology groups at much the same time, and independently of, Alexander.
In 1934 Kolmogorov investigated chains, cochains, homology and cohomology of a nite cell
22
complex. In further papers, published in 1936, Kolmogorov dened cohomology groups for an
arbitrary locally compact topological space. Another contribution of the highest signicance in
this area was his denition of the cohomology ring which he announced at the International
Topology Conference in Moscow in 1935. At this conference both Kolmogorov and Alexander
lectured on their independent work on cohomology.
In 1953 and 1954 two papers by Kolmogorov, each of four pages in length, appeared. These are
on the theory of dynamical systems with applications to Hamiltonian dynamics. These papers
mark the beginning of KAM-theory, which is named after Kolmogorov, Arnold and Moser.
Kolmogorov addressed the International Congress of Mathematicians in Amsterdam in 1954 on
this topic with his important talk General theory of dynamical systems and classical mechanics.
N H Bingham notes Kolmogorovs major part in setting up the theory to answer the probability
part of Hilberts Sixth Problem to treat ... by means of axioms those physical sciences in
which mathematics plays an important part; in the rst rank are the theory of probability and
mechanics in his 1933 monograph Grundbegrie der Wahrscheinlichkeitsrechnung. Bingham
also notes:
Paul Levy writes poignantly of his realisation, immediately on seeing the Grundbegrie, of the
opportunity which he himself had neglected to take. A rather dierent perspective is supplied by
the eloquent writings of Mark Kac on the struggles that Polish mathematicians of the calibre
Steinhaus and himself had in the 1930s, even armed with the Grundbegrie, to understand the
(apparently perspicuous) notion of stochastic independence.
If Kolmogorov made a major contribution to Hilberts sixth problem, he completely solved
Hilberts Thirteenth Problem in 1957 when he showed that Hilbert was wrong in asking for a
proof that there exist continuous functions of three variables which could not be represented by
continuous functions of two variables.
Kolmogorov had many interests outside mathematics, in particular he was interested in the form
and structure of the poetry of the Russian author Pushkin.
Article by: J J OConnor and E F Robertson,
23
Dans ce chapitre, nous considerons un processus stochastique comme un syst`eme aleatoire trans-
portant de linformation et evoluant dans le temps.
Les outils importants introduits sont:
La notion de ltration et de temps darret;
La notion de martingale;
Le theor`eme darret de Doob;
Le theor`eme de convergence de Doob;
Le theor`eme de regularisation de Doob;
Les inegalites maximales de Doob;
La notion de processus de Feller-Dynkin;
Letude de labsolue continuite de probabilites sur un espace de probabilite ltre.
1
24
CHAPITRE 3: MARTINGALES
1. Filtrations et temps darr ets
Un processus stochastique (X
t
)
t0
est un syst`eme aleatoire qui evolue dans le temps. Ce pro-
cessus transporte avec lui de linformation; plus precisement, par observation des trajectoires
de X, `a un instant t > 0, on sait si un evenement
A (X
s
,s t)
sest produit ou non. Ce ux temporel dinformations correspond `a la notion mathematique de
ltration.
Denition 1. Soit (,F,P) un espace de probabilite. Une ltration (F
t
)
t0
est une suite crois-
sante de sous-tribus de F.
Par exemple si (X
t
)
t0
est un processus stochastique deni sur (,F,P), alors
F
t
= (X
s
,s t)
est une ltration. Cette ltration est appelee la ltration naturelle du processus X.
Denition 2. On dit quun processus (X
t
)
t0
est adapte `a une ltration (F
t
)
t0
si pour tout
t 0, X
t
est F
t
-mesurable.
Un processus est evidemment toujours adapte `a sa ltration naturelle. On remarquera que si un
processus (X
t
)
t0
est adapte `a une ltration (F
t
)
t0
et que si F
0
contient tous les sous-ensembles
de F qui sont de mesure nulle, alors toute modication du processus X est encore adaptee `a la
ltration (F
t
)
t0
.
Dans le chapitre precedent (denition 6), on a deni la notion de mesurabilite pour un processus.
Pour tenir compte de laspect dynamique associe `a une ltration, on introduit maintenant la
notion de mesurabilite progressive:
Denition 3. On dit quun processus (X
t
)
t0
, adapte `a une ltration (F
t
)
t0
, est progressive-
ment mesurable si pour tout t 0,
A B(R),{(s,) [0,t] ,X
s
() A} B([0,t]) F
t
.
Et on peut montrer, de la meme mani`ere que la proposition 8,
Proposition 4. Un processus continu (X
t
)
t0
, adapte `a une ltration (F
t
)
t0
, est progressive-
ment mesurable.
Il est souvent interessant dassocier `a une ltration une certaine famille de temps aleatoires.
Denition 5. Soit (F
t
)
t0
une ltration sur un espace de probabilite (,F,P). Soit maintenant
T une variable aleatoire F mesurable `a valeurs dans R
+
{+}. On dit que T est un temps
darret de la ltration (F
t
)
t0
si pour tout t 0,
{T t} F
t
.
Lexercice suivant donne un exemple tr`es important de temps darret.
Exercice 6. (Temps datteinte) Soit (X
t
)
t0
un processus continu adapte `a une ltration (F
t
)
t0
.
Soit
T = inf{t 0,X
t
F},
o` u F est un sous-ensemble ferme de R. Montrer que T est un temps darret pour la ltration
(F
t
)
t0
.
25
Etant donne un temps darret T, on peut denir la tribu des evenements qui se produisent avant
T:
Proposition 7. Soit T un temps darret dune ltration (F
t
)
t0
. On note
F
T
= {A F,t 0,A {T t} F
t
}.
Alors F
T
est une tribu, appelee tribu des evenements anterieurs `a T.
Preuve.
Il est tout dabord facile de verier que F
T
puisque pour tout t 0, F
t
. Soit maintenant
A F
T
. On a
c
A {T t} = {T t}\ (A {T t}) F
t
,
et donc
c
A F
T
. Enn si (A
n
)
nN
est une suite devenements de F
T
,
(
nN
A
n
) {T t} =
nN
(A
n
{T t}) F
t
.

Si T est un temps darret dune ltration pour laquelle un certain processus est adapte, alors il
est possible darreter ce processus au temps T:
Proposition 8. Soient (F
t
)
t0
une ltration sur un espace de probabilite (,F,P) et T un
temps darret de la ltration (F
t
)
t0
ni presque s urement. Soit (X
t
)
t0
un processus adapte `a la
ltration (F
t
)
t0
et progressivement mesurable. Alors le processus (X
tT
)
t0
est progressivement
mesurable par rapport `a la ltration (F
tT
)
t0
.
Preuve.
Exercice.
.
2. Martingales
Nous allons maintenant introduire `a la notion de martingale en temps continu. Les martingales
sont un des objets centraux du calcul stochastique et reviendront tout au long de ce cours.
Denition 9. Soit (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P). Un pro-
cessus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
est appele une sous-martingale si:
(1) Pour tout t 0, E(| M
t
|) < +;
(2) Pour tout t s 0
E(M
t
| F
s
) M
s
.
Un processus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
tel que (M
t
)
t0
est une sous-martingale est
appele une sur-martingale. Enn, un processus (M
t
)
t0
adapte `a la ltration (F
t
)
t0
qui est `a
la fois une sous et une sur-martingale est appele une martingale.
Exercice 10. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et X
une variable aleatoire integrable F-mesurable. Montrer que le processus (E(X | F
t
))
t0
est une
martingale relativement `a la ltration (F
t
)
t0
.
Exercice 11. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une sous-martingale par rapport `a la ltration (F
t
)
t0
. Montrer que lapplication t
E(M
t
) est croissante.
Exercice 12. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
. Soit maintenant : R R une
fonction convexe telle que pour tout t 0, E(| (M
t
) |) < +. Montrer que le processus
((M
t
))
t0
est une sous-martingale.
26
Exercice 13. Sur un espace de probabilite (,F,P), on considere un processus gaussien de
moyenne nulle et de fonction de covariance R(s,t) = min(s,t). Montrer que ce processus est une
martingale par rapport `a sa ltration naturelle.
Le theor`eme suivant, d u a Doob, sav`ere tr`es utile dans la pratique:
Proposition 14. (Theor`eme darret de Doob)
Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et (M
t
)
t0
un processus
integrable, `a trajectoires localement bornees, et adapte `a la ltration (F
t
)
t0
. Les deux conditions
suivantes sont equivalentes:
(1) (M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
;
(2) Pour tout temps darret T borne presque s urement de la ltration (F
t
)
t0
, E(| M
T
|) <
+ et
E(M
T
) = E(M
0
).
Preuve.
Supposons que (M
t
)
t0
une martingale par rapport `a la ltration (F
t
)
t0
. Soit maintenant T
un temps darret borne presque s urement par K 0. Supposons tout dabord que T prend un
nombre ni de valeurs
0 t
1
< ... < t
n
K.
On a, par propriete de martingale,
E(M
T
) = E(
n

i=1
M
T
1
T=t
i
)
=
n

i=1
E(M
t
i
1
T=t
i
)
=
n

i=1
E(M
t
n
1
T=t
i
)
= E(M
t
n
)
= E(M
0
).
Ainsi, le resultat est prouve dans le cas dun temps darret qui ne prend quun un nombre ni de
valeurs. Quand T ne prend pas un nombre ni de valeurs, on lapproxime par la suite de temps
darrets

n
=
2
n

k=1
kK
2
n
1

(k1)K
2
n
T<
kK
2
n

.
Chaque
n
ne prend quun nombre ni de valeurs et quand n +,
n
T. Pour conclure, il
nous faut donc demontrer
lim
n+
E(M

n
) = E(M
T
).
Pour cela on demontre que la famille (M

n
)
nN
est uniformement integrable. Soit donc A 0.
Tout dabord, comme
n
ne prend quun nombre ni de valeurs, il est facile de voir en utilisant
la propriete de martingale que
E(M
K
1
M

n
A
) = E(M

n
1
M

n
A
).
Ainsi,
E(M

n
1
M

n
A
) E(M
K
1
sup
0sK
M
s
A
)
A+
0.
27
Donc, par integrabilite uniforme
lim
n+
E(M

n
) = E(M
T
).
do` u
E(M
T
) = E(M
0
).
Reciproquement, supposons maintenant que pour tout temps darret T borne presque s urement
de la ltration (F
t
)
t0
,
E(M
T
) = E(M
0
).
Soit 0 s t et A F
s
. En utilisant
T = s1
A
+t1c
A
,
on obtient alors facilement
E((M
t
M
s
)1
A
) = 0
qui conduit `a la propriete de martingale.

Exercice 15. Soient (F


t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une martingale continue par rapport `a la ltration (F
t
)
t0
. En sinspirant de la demonstration
du theor`eme darret de Doob, montrer que si T
1
et T
2
sont deux temps darret presque s urement
bornes de la ltration (F
t
)
t0
tels que T
1
T
2
et E(| M
T
1
|) < +, E(| M
T
2
|) < +, alors,
E(M
T
2
| F
T
1
) = M
T
1
.
En deduire que le processus (M
tT
2
)
t0
est une martingale relativement `a la ltration (F
tT
2
)
t0
.
Indiquer o` u est apparue lhypoth`ese de continuite des trajectoires dans votre demonstration.
Exercice 16. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une sous-martingale par rapport ` a la ltration (F
t
)
t0
dont les trajectoires sont conti-
nues `a droite et limitees `a gauche. En sinspirant toujours de la demonstration du theor`eme
darret de Doob, montrer que si T
1
et T
2
sont deux temps darret presque s urement bornes de la
ltration (F
t
)
t0
tels que T
1
T
2
, et E(| M
T
1
|) < +, E(| M
T
2
|) < +, alors
E(M
T
1
) E(M
T
2
).
On a vu que si X est une variable aleatoire F-mesurable et integrable, alors le processus
(E(X | F
t
))
t0
est une martingale relativement `a la ltration (F
t
)
t0
. Le theor`eme suivant donne
des conditions susantes pour quune martingale puisse secrire (E(X | F
t
))
t0
.
Theor`eme 17. (Theor`eme de convergence de Doob)
Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et (M
t
)
t0
une martin-
gale par rapport `a la ltration (F
t
)
t0
continue `a droite avec des limites `a gauche. Les conditions
suivantes sont equivalentes:
(1) (M
t
)
t0
converge dans L
1
;
(2) (M
t
)
t0
converge presque s urement vers une variable aleatoire X integrable et F-mesurable
telle que
M
t
= E(X | F
t
),t 0;
(3) La famille (M
t
)
t0
est uniformement integrable.
28
Preuve.
Nous allons tout dabord montrer que si (M
t
)
t0
est bornee dans L
1
, i.e.
sup
t0
E(| M
t
|) < +
alors (M
t
)
t0
converge presque s urement vers une variable aleatoire integrable X.
On remarque tout dabord que
{ ,M
t
() converge} =

, lim sup
t+
M
t
() = lim inf
t+
M
t
()

Demontrer que (M
t
)
t0
converge presque s urement revient donc `a demontrer
P

, lim sup
t+
M
t
() > lim inf
t+
M
t
()

= 0.
Raisonnons par labsurde en supposant que
P

, lim sup
t+
M
t
() > lim inf
t+
M
t
()

> 0.
Dans ce cas, on peut trouver a < b tels que:
P

, lim sup
t+
M
t
() > a > b > lim inf
t+
M
t
()

> 0.
Lidee est maintenant detudier les oscillations de (M
t
)
t0
entre a et b. Nous allons etudier ces
oscillations en des temps dyadiques. Pour N N

et n N, on note
D
n,N
=

kN
2
n
,0 k 2
n

,
et
D =
n,N
D
n,N
.
Soit maintenant N(a,b,n,N) le plus grand entier k pour lequel on peut trouver des elements de
D
n,N
,
0 q
1
< r
1
< q
2
< r
2
< ... < q
k
< r
k
N
veriant
M
q
i
< a,M
r
i
> b.
On consid`ere alors
Y
n,N
=
2
n

k=1
CkN
2
n
(MkN
2
n
M(k1)N
2
n
),
o` u C
k
{0,1} est recursivement deni par:
C
1
= 1
M
0
<a
et
C
k
= 1
C
k1
=1
1
M
(k1)N
2
n
b
+ 1
C
k1
=0
1
M
(k1)N
2
n
<a
.
Comme (M
t
)
t0
est une martingale, il est facile de voir que
E(Y
n,N
) = 0.
Dautre part, par denition meme de N(a,b,n,N),
Y
n,N
(b a)N(a,b,n,N) max(a M
N
,0).
29
Par consequent,
(b a)E(N(a,b,n,N)) E(max(a M
N
,0)) | a | +E(| M
N
|) | a | +sup
t>0
E(| M
t
|).
et donc
(b a)E

sup
n,N
N(a,b,n,N)

| a | +sup
t>0
E(| M
t
|),
et ainsi, presque s urement sup
n,N
N(a,b,n,N) < +. Cela implique evidemment
P

, lim sup
t+,tD
M
t
() > a > b > lim inf
t+,tD
M
t
()

= 0.
Cependant, comme (M
t
)
t0
est continue `a droite, on a,
P

, lim sup
t+,tD
M
t
() > a > b > lim inf
t+,tD
M
t
()

=P

, lim sup
t+
M
t
() > a > b > lim inf
t+
M
t
()

.
Ce qui est absurde. Ainsi (M
t
)
t0
converge presque s urement vers une variable aleatoire X qui
est F mesurable. Voir que X est integrable est une consequence du lemme de Fatou.
Ainsi, une martingale continue `a droite et limitee `a gauche et bornee dans L
1
converge presque
s urement vers une variable aleatoire integrable.
A laide de ce resultat preliminaire, demontrons maintenant notre theor`eme.
Supposons que (M
t
)
t0
converge dans L
1
. Dans ce cas (M
t
)
t0
est bornee dans L
1
, do` u la
convergence presque s ure vers une variable aleatoire X qui est F mesurable et integrable. Soient
t 0 et A F
t
, on a pour tout s t,
E(M
s
1
A
) = E(M
t
1
A
)
Quand s +, le theor`eme de convergence dominee donne
E(X1
A
) = E(M
t
1
A
).
Ainsi
E(X | F
t
) = M
t
.
Supposons maintenant que (M
t
)
t0
converge presque s urement vers une variable aleatoire X
integrable et F-mesurable telle que
M
t
= E(X | F
t
),t 0.
On a alors sup
t0
| M
t
|< + p.s. et donc pour A 0,
E(| M
t
| 1
|M
t
|A
) = E(| E(X | F
t
) | 1
|M
t
|A
)
E(| X | 1
|M
t
|A
)
E(| X | 1
sup
t0
|M
t
|A
).
Ce qui nous donne lintegrabilite uniforme.
Enn, supposons que la famille (M
t
)
t0
est uniformement integrable. Dans ce cas elle est bornee
dans L
1
, et donc converge presque s urement. La convergence presque s ure entraine la convergence
en probabilite et on sait que la convergence en probabilite plus luniforme integrabilite entraine
la convergence L
1
.

30
Tant que faire se peut, nous essayons de travailler avec des versions reguli`eres des processus.
Le crit`ere de continuite de Kolmogorov allait dej`a dans cette direction. Concernant lexistence
de bonnes versions pour les sur-martingales (et du meme coup pour les sous-martingales et les
martingales), on a un theor`eme important.
Denition 18. Soit (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P). Si les
hypoth`eses suivantes sont satisfaites:
(1) Si A F est tel que P(A) = 0, alors tous les sous-ensembles de A sont dans F
0
;
(2) La ltration (F
t
)
t0
est continue `a droite, i.e. pour tout t 0
F
t
=
>0
F
t+
alors on dira que lespace de probabilite ltre
(,(F
t
)
t0
,F,P)
satisfait les conditions usuelles.
Remarque 19. Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et
(M
t
)
t0
une (sous, sur) martingale continue `a droite et limitee `a gauche par rapport `a la ltration
(F
t
)
t0
. Alors lespace de probabilite ltre
(,(F
t
)
t0
,F,P)
peut etre plonge canoniquement dans un espace de probabilite ltre
(,(G
t
)
t0
,G,P)
qui satisfait les conditions usuelles. En eet, pour G, on prend la P-completion de F et
G
t
=
u>t
(F
u
,N)
o` u N est lensemble des ensembles de mesure nulle pour P. De plus (M
t
)
t0
est alors une (sous,
sur) martingale par rapport `a la ltration (G
t
)
t0
(ce dernier point nest pas trivial, nous le
laissons cependant en exercice !). Lespace
(,(G
t
)
t0
,G,P)
sappelle la completion usuelle de
(,(F
t
)
t0
,F,P).
Exercice 20. * Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre qui satisfait les conditions
usuelles et (X
t
)
t0
un processus adapte `a la ltration (F
t
)
t0
dont les trajectoires sont continues
`a droite et ont des limites `a gauche. Soit K un ensemble compact de R. Montrez que le temps
T = inf{t 0,X
t
K}
est un temps darret de la ltration (F
t
)
t0
.
Nous en venons maintenant `a notre theor`eme de regularisation sous des hypoth`eses usuelles.
Theor`eme 21. (Theor`eme de regularisation de Doob)
Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre qui satisfait les conditions usuelles et
(M
t
)
t0
une sur-martingale par rapport `a la ltration (F
t
)
t0
. Supposons que la fonction t
E(M
t
) est continue `a droite. Alors il existe un processus (

M
t
)
t0
qui est une modication de
(M
t
)
t0
et tel que:
(1) (

M
t
)
t0
est adapte `a la ltration (F
t
)
t0
;
(2) Les trajectoires de (

M
t
)
t0
sont des fonctions localement bornees qui en tout point sont
continues `a droite et ont des limites `a gauche;
31
(3) (

M
t
)
t0
une sur-martingale par rapport `a la ltration (F
t
)
t0
.
Preuve.
Lidee est encore detudier les oscillations de (M
t
)
t0
. Nous reprenons donc certaines notations
de la demonstration du theor`eme de convergence de Doob.
Pour N N

et n N, on note
D
n,N
=

kN
2
n
,0 k 2
n

,
D
N
=
n
D
n,N
et
D =
n,N
D
n,N
.
Pour a < b, on note N(a,b,n,N) le plus grand entier k pour lequel on peut trouver des elements
de D
n,N
,
0 q
1
< r
1
< q
2
< r
2
< ... < q
k
< r
k
N
veriant
M
q
i
< a,M
r
i
> b.
On note maintenant

lensemble des tels que:


(1) t 0, lim
st,s>t,sD
M
s
() existe et est nie;
(2) t > 0, lim
st,s<t,sD
M
s
() existe et est nie.
Il est alors facile de voir que

=
a,bQ

NN

, sup
tD
N
| M
t
() |< + et sup
nN
N(a,b,n,N) < +

.
Par consequent,

F. Par le meme type de raisonnement que dans la demonstration du


theor`eme de convergence de Doob, on montre que P(

) = 1 (essayez de le demontrer propre-


ment !).
Pour t 0, on denit alors notre processus (

M
t
)
t0
de la mani`ere suivante:
Si

M
t
() = lim
st,s>t,sD
M
s
()
Si /

M
t
() = 0.
Il est clair que les trajectoires de (

M
t
)
t0
sont des fonctions localement bornees qui en tout point
sont continues `a droite et ont des limites `a gauche. Montrons que (

M
t
)
t0
est la modication de
(M
t
)
t0
souhaitee.
Tout dabord, on remarque que pour t 0,
lim
st,s>t,sD
M
s
est mesurable par rapport `a
s>t
F
s
= F
t
. Dautre part, \

est de mesure nulle et donc


appartient `a F
0
. Ainsi (

M
t
)
t0
est bien adapte `a la ltration (F
t
)
t0
.
Montrons maintenant que (

M
t
)
t0
est une modication de (M
t
)
t0
.
Soit t 0. Par construction, on sait que presque s urement:
lim
st,s>t,sD
M
s
=

M
t
.
32
Montrons que cette convergence a aussi lieu dans L
1
. Pour cela, il sut de montrer que pour
toute suite (s
n
)
nN
delements de D qui converge en decroissant vers t, la famille (M
s
n
)
nN
est
uniformement integrable.
Soit > 0. Comme u E(M
u
) est, par hypoth`ese, continue `a droite, on peut trouver un s R
tel que t < s et tel que pour tout s > u > t,
0 E(M
u
) E(M
s
)

2
.
Pour s > u > t et > 0, on a alors:
E(| M
u
| 1
|M
u
|>
) = E(M
u
1
M
u
<
) +E(M
u
) E(M
u
1
M
u

)
E(M
s
1
M
u
<
) +E(M
u
) E(M
s
1
M
u

)
E(| M
s
| 1
|M
u
|>
) +

2
.
Maintenant, comme M
s
L
1
, on peut trouver un > 0 tel que pour tout F F,
P(F) < implique E(| M
s
| 1
F
) <

2
.
Mais pour t < u < s,
P(| M
u
|> )
E(| M
u
|)

=
E(M
u
) + 2E(max(M
u
,0))

.
Par linegalite de Jensen, on voit que le processus (max(M
u
,0))
t<u<s
est une sous-martingale
do` u
E(max(M
u
,0)) E(max(M
s
,0)).
Par consequent pour t < u < s,
P(| M
u
|> )
E(M
t
) + 2E(max(M
s
,0))

.
On peut donc trouver A > 0 tel que pour tout t < u < s,
P(| M
u
|> A) < ,
Et on alors pour tout t < u < s,
E(| M
u
| 1
|M
u
|>
) < .
Cela montre bien que pour toute suite (s
n
)
nN
delements de D qui converge en decroissant vers
t, la famille (M
s
n
)
nN
est uniformement integrable. Ainsi la convergence
lim
st,s>t,sD
M
s
=

M
t
.
a aussi lieu dans L
1
.
Comme (M
t
)
t0
est une sur-martingale, pour s t on a
E(M
s
| F
t
) M
t
.
Par consequent,
lim
st,s>t,sD
E(M
s
| F
t
) M
t
.
Par continuite L
1
de lesperance conditionnelle, on obtient donc
E


M
t
| F
t

M
t
.
Do` u

M
t
M
t
33
car

M
t
est adapte `a F
t
. Dun autre cote, comme u E(M
u
) est continue `a droite,
lim
st,s>t,sD
E(M
s
) = E(M
t
).
Mais on a aussi par convergence L
1
,
lim
st,s>t,sD
E(M
s
) = E( lim
st,s>t,sD
M
s
) = E(

M
t
),
Do` u
E(

M
t
) = E(M
t
).
M
t


M
t
est donc une variable aleatoire positive desperance nulle. On en conclut que presque
s urement M
t
=

M
t
, i.e. (

M
t
)
t0
est une modication de (M
t
)
t0
. Une modication dune sur-
martingale restant une sur-martingale, (

M
t
)
t0
est egalement une sur-martingale par rapport `a
la ltration (F
t
)
t0
. Cela conclut la demonstration du theor`eme de regularisation (ouf!).

3. In egalit es martingales
Dans ce paragraphe nous presentons deux inegalites fondamentales, une nouvelle fois dues `a
Doob.
Theor`eme 22. (Inegalites maximales de Doob)
Soient (F
t
)
t0
une ltration denie sur un espace de probabilite (,F,P) et (M
t
)
t0
une mar-
tingale continue par rapport `a la ltration (F
t
)
t0
.
(1) Soient p 1 et T > 0. Si E(| M
T
|
p
) < +, alors pour tout > 0,
P

sup
0tT
| M
t
|

E(| M
T
|
p
)

p
.
(2) Soient p > 1 et T > 0. Si E(| M
T
|
p
) < + alors,
E

sup
0tT
| M
t
|

p
p 1

p
E(| M
T
|
p
).
Preuve.
(1) Soient p 1 et T > 0. Si E(| M
T
|
p
) < +), alors le processus (| M
t
|
p
)
0tT
est
une sous-martingale (veriez le !). Soit > 0. On consid`ere le temps darret presque
s urement borne
= inf{s 0 tel que | M
s
| } T,
avec la convention que inf = +. On a alors
E(| M

|
p
) E(| M
T
|
p
).
Mais par denition de ,
| M

|
p
1
sup
0tT
|M
t
|

p
+ 1
sup
0tT
|M
t
|<
| M
T
|
p
.
Par consequent,
P

sup
0tT
| M
t
|

| M
T
|
p
1
sup
0tT
|M
t
|

p

E(| M
T
|
p
)

p
.
34
(2) Soient p 1 et T > 0. Supposons dans un premier temps que
E

sup
0tT
| M
t
|

< +.
La demonstration precedente nous a montre que pour > 0,
P

sup
0tT
| M
t
|

| M
T
| 1
sup
0tT
|M
t
|

.
Par consequent,

+
0

p1
P

sup
0tT
| M
t
|

+
0

p2
E

| M
T
| 1
sup
0tT
|M
t
|

d.
Mais par le theor`eme de Fubini,

+
0

p1
P

sup
0tT
| M
t
|

d =

sup
0tT
|M
t
|()
0

p1
d

dP()
=
1
p
E

sup
0tT
| M
t
|

.
De la meme mani`ere,

+
0

p2
E

| M
T
| 1
sup
0tT
|M
t
|

d =
1
p 1
E

sup
0tT
| M
t
|

p1
| M
T
|

.
Ainsi,
E

sup
0tT
| M
t
|

p
p 1
E

sup
0tT
| M
t
|

p1
| M
T
|

.
Mais par linegalite de Holder,
E

sup
0tT
| M
t
|

p1
| M
T
|

E(| M
T
|
p
)
1
p
E

sup
0tT
| M
t
|

p1
p
,
do` u
E

sup
0tT
| M
t
|

p
p 1
E(| M
T
|
p
)
1
p
E

sup
0tT
| M
t
|

p1
p
.
Ainsi, si E

sup
0tT
| M
t
|

< +, on obtient bien le resultat souhaite:


E

sup
0tT
| M
t
|

p
p 1

p
E(| M
T
|
p
).
Autrement, pour N N, soit
N
= inf{t 0, | M
t
| N} T. En appliquant ce qui
precede `a la martingale (M
t
N
)
t0
, on obtient
E

sup
0tT
| M
t
N
|

p
p 1

p
E(| M
T
|
p
),
35
et le theor`eme sen suit par convergence dominee.
Remarque 23. Les deux inegalites precedentes restent vraies dans le cas o` u la martingale est
seulement supposee continue `a droite avec des limites `a gauche. (A votre avis, la demonstration
precedente est elle susante pour couvrir ce cas?)
4. Quelques applications des th eor` emes de Doob
4.1. Regularisation des processus de Feller-Dynkin. Grace au theor`eme de regularisation
de Doob, il est possible de preciser considerablement la proposition 18 du chapitre 1 sur lexis-
tence de processus de Markov (voir section 4.1). Tout dabord nous elargissons la denition de
processus de Markov.
Denition 24. Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre et (X
t
)
t0
un processus
adapte `a la ltration (F
t
)
t0
. On dit que (X
t
)
t0
est un processus de Markov de fonction de
transition {P
t
,t 0} relativement `a la ltration (F
t
)
t0
si pour toute fonction borelienne bornee
f : R R,
E(f(X
s+t
) | F
s
) = (P
t
f)(X
s
),s,t > 0.
Remarque 25. Un processus de Markov relativement `a une ltration (F
t
)
t0
est un processus
de Markov relativement `a sa ltration naturelle.
Notre but est maintenant de sinteresser `a lexistence de bonnes versions pour un processus
de Markov de fonction de transition donnee. Pour cela, on introduit la notion de fonction de
transition de Feller-Dynkin. On note C
0
(R
+
,R) lensemble des applications continues f : R R
telles que lim

f = lim
+
f = 0.
Denition 26. Soit {P
t
,t 0} une fonction de transition. On dit que {P
t
,t 0} est de Feller-
Dynkin si les hypoth`eses suivantes sont satisfaites:
(1) P
t
: C
0
(R
+
,R) C
0
(R
+
,R);
(2) P
0
= Id;
(3) f C
0
(R
+
,R),x R, lim
t0
(P
t
f)(x) = f(x).
On a alors le theor`eme suivant que lon admettra mais qui est une consequence du theor`eme 18
du chapitre 1 ainsi que du theor`eme de regularisation de Doob:
Theor`eme 27. Soit {P
t
,t 0} une fonction de transition de Feller-Dynkin. Alors on peut
trouver un espace de probabilite ltre (,(F
t
)
t0
,F,P) ainsi quun processus (X
t
)
t0
deni sur
cet espace tels que:
(1) Les trajectoires de (X
t
)
t0
sont continues `a droite avec des limites `a gauche;
(2) (X
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} relativement `a
la ltration (F
t
)
t0
.
4.2. Martingales et densites. Commencons tout dabord par quelques rappels sur la notion
de probabilites absolument continues lune par rapport `a lautre. Soit (,F) un espace muni
dune tribu F.
Denition 28. Soient P et Q deux mesures de probabilite sur (,F). On dit que P est absolument
continue par rapport `a P, si pour tout A F, Q(A) = 0 implique Q(A) = 0. On notera alors
P Q. Si P Q et Q P, on dit que les probabilites P et Q sont equivalentes, ce que nous
noterons P Q.
36
Le theor`eme suivant d u `a Radon et Nikodym caracterise labsolue continuite des mesures.
Theor`eme 29. (Radon-Nikodym) Soient P et Q deux mesures de probabilite sur (,F). Alors
P Q si et seulement il existe une variable aleatoire D, F-mesurable telle que pour tout A F,
P(A) =

A
DdQ.
D sappelle alors la densite de P par rapport `a Q et on notera
D =
dP
dQ
.
Dautre part sous les memes hypoth`eses P Q si et seulement si D est strictement positive P
presque s urement et dans ce cas:
dQ
dP
=
1
D
.
Soit maintenant (,(F
t
)
t0
,F,P) un espace de probabilite ltre. On suppose que la ltration
(F
t
)
t0
est continue `a droite et on note:
F

= (F
t
,t 0) .
Pour t 0, on note P
/F
t
la restriction de P `a F
t
.
Soit maintenant Q une probabilite sur F

telle que pour tout t 0,


Q
/F
t
P
/F
t
.
Proposition 30. Sur lespace de probabilite ltre (,(F
t
)
t0
,F,P), il existe une martingale
(D
t
)
t0
qui est continue `a droite avec des limites `a gauche telle que pour tout t 0,
D
t
=
dQ
/F
t
dP
/F
t
, P p.s.
Preuve.
Exercice.

Proposition 31. Les proprietes suivantes sont equivalentes:


(1) Q
/F

P
/F

;
(2) La martingale (D
t
)
t0
est uniformement integrable;
(3) (D
t
)
t0
converge dans L
1
;
(4) (D
t
)
t0
converge presque s urement vers une variable aleatoire D integrable et F

-
mesurable telle que
D
t
= E(D | F
t
),t 0.
Preuve.
Exercice.

5. Un invit e de marque: J. Doob


Born: 27 Feb 1910 in Cincinnati, Ohio, USA
Died: 7 June 2004 in Clark-Lindsey Village, Urbana, Illinois, USA
Joseph Doobs parents were Mollie Doerer and Leo Doob. Josephs interest in science started
when he was at grammar school. There he became interested in radio and constructed his own
crystal radio set. When he was at high school his interest in radio increased. He learnt Morse
37
code, obtained a licence to transmit radio signals, and started to use a radio transmitter which
he had built himself. At this stage in his education, given his hobby, he felt that physics was
the right subject for him to study at university, and having sought advice from the principal of
his high school, he applied to study at Harvard. When he entered Harvard in September 1926
he registered for courses in physics but, by the end of his rst year of study, Doob had decided
that he did not want to proceed to a physics degree. His favourite course during his rst year
had been calculus and its applications so, since he had always enjoyed mathematics, there was
an obvious direction in which to take his studies.
In his second year of study Doob registered for courses in mathematics. He was taught calculus
by Osgood and this led to his taking the third year calculus course at the same time. He said in
an interview:
[Osgood] taught my sophomore calculus course, using his own textbook. I did not suspect that
he was an internationally famous mathematician and of course I had no idea of mathematical
research, publication in research journals, or what it took to be a university professor. Osgood
was a large, bearded portly gentleman who took life and mathematics very seriously and walked
up and down in front of the blackboard making ponderous statements. After a few weeks of his
class I appealed to my adviser Marshall Stone to get me into a calculus section with a more lively
teacher. Of course Stone did not waste sympathy on a student who complained that a teacher got
on his nerves, and he advised me that if I found sophomore calculus too slow I should take junior
calculus at the same time! ... Through the fortunate accident of having a tedious instructor I had
gained a year! The analytic function course, taken in my junior year with Osgood as teacher,
was my rst course in rigorous analysis and I took to it right away in spite of his mannerisms.
Doob was awarded a AB by Harvard in 1930 and asked his advisor Marshall Stone if he would
supervise his doctorate. Stone suggested that he would be better with J L Walsh as his supervisor.
Doob wrote:
Walsh accepted me and we had a ne relationship: he never bothered me, and conversely. Harvard
suited my character in that there was so little supervision that I could neglect classes for a
considerable time while cultivating a side interest, sometimes mathematical sometimes not.
He obtained a Masters Degree in 1931, the same year he married Elsie Haviland Field (on
26 June 1931). Joe and Elsie had three children; Stephen, Peter and Deborah. He continued
research and was awarded his doctorate in 1932 for a thesis entitled Boundary Values of Analytic
Functions. The ideas which led him to study the relation between analytic functions and their
limit values at the boundaries of their domains came through questions that he was asked by
Wladimir Seidel who was a postdoctoral assistant at Harvard at the time. However, the level
of undergraduate mathematics at Harvard at this time was not particularly high, so with only
two years of highly specialised research after his undergraduate degree, Doob had not obtained
a broad mathematical education:
Getting a Ph.D. in two years left me woefully ignorant of almost everything in mathematics not
connected with my thesis work. I had missed fertile contact with Birkho, Kellogg, and Morse,
all three at Harvard and leaders in their elds.
After completing his doctorate, Doob was supported by Birkho in an application for a two year
National Research Council Fellowship. Since in 1932 Elsie, Doobs wife, was a medical student
in New York, he had applied to work at Columbia University with J F Ritt. However, these were
dicult times and Doob could not look forward to the future with any condence. The Great
Depression had begun in 1929 and by 1932, the year Doob went to New York, one quarter of the
workers in the United States were unemployed. Despite his eorts to look for academic positions
he could see little chance of success. He was advised to speak to Harold Hotelling, the professor
of statistics at Columbia University, since statistics was one subject that was expanding despite
38
the Depression. Hotelling managed to obtain a Carnegie fellowship to enable Doob to remain at
Columbia University and work with him on probability during the year 1934-35.
He was appointed as Associate Professor at the University of Illinois in 1935. He said:
I was charmed by the small town atmosphere of Urbana as soon as I arrived and never wanted
to leave, even though the atmosphere changed through the years.
His rst student was Paul Halmos who completed his doctorate with the thesis Invariants of
certain stochastic transformation: The mathematical theory of gambling systems in 1938. At the
same time Doob was supervising Warren Ambrose whose thesis Some properties of measurable
stochastic processes was submitted a year later. Doobs next outstanding doctoral student was
David Blackwell who entered the University of Illinois in the year Doob was appointed there and
completed his doctorate on Properties of Markov chains in 1941. Doob became a full professor at
the University of Illinois in 1945. However before this he had a period away from Urbana under-
taking war work during World War II. In 1942 Veblen approached him to work in Washington
for the navy on mine warfare. He worked there until 1945 when he returned to the University
of Illinois.
Doobs work was in probability and measure theory, in particular he studied the relations bet-
ween probability and potential theory. His papers look at many of the areas of probability to
which Doob made major contributions such as separability, stochastic processes, martingales,
optimal stopping, potential theory, and classical potential theory and its probabilistic counter-
part. Doob built on work by Paul Levy and, during the 1940s and 1950s, he developed basic
martingale theory and many of its applications. Doobs work has become one of the most po-
werful tools available to study stochastic processes. In 1953 he published a book which gives
a comprehensive treatment of stochastic processes, including much of his own development of
martingale theory. This book Stochastic Processes has become a classic and was reissued in 1990.
In fact he undertook the work of writing the book because he had become intellectually bored
while undertaking war work in Washington and so was enthusiastic when, in 1945, Shewhart
invited him to publish a volume in the Wiley series in statistics. In the introduction to Stochastic
Processes Doob states that:
... [a stochastic process is] any process running along in time and controlled by probabilistic laws
... [more precisely] any family of random variables X
t
[where] a random variable is ... simply a
measurable function.
The spirit of the book is clear by his statement:
... probability theory is simply a branch of measure theory, with its own special emphasis and
eld of application ...
David Kendall reviewing Stochastic Processes writes:
Very few readers will work steadily through the whole of this dicult book, but it cannot fail to
exercise a decisive inuence on the development of its subject.
Another classic text by Doob is Classical potential theory and its probabilistic counterpart rst
published in 1984 and reprinted in 2001. His interest in potential theory went back to 1955 when
he was invited to speak at the Berkeley Symposium on Probability and Statistics. He decided to
speak on Axiomatic Potential Theory and from then on he undertook research on the subject.
He corresponded with Brelot, a leading expert on the topic, and many years later Brelot said
that he wanted to write a text on modern potential theory. He asked Doob to cooperate with
him in writing the sections on probability theory but in the end Doob wrote the whole book.
Sharpe, reviewing the book writes:
This is the long-awaited book by the author, developing in parallel potential theory and part of
the theory of stochastic processes. It is divided into two quite distinct parts, each occupying about
half the volume. The rst half concerns the potential theory of the Laplace operator (i.e. classical
39
potential theory) and of the heat operator and its adjoint (i.e. parabolic potential theory), while
the second half treats the probabilistic counterparts (interpreted liberally) to the objects in the
rst half. ...
Graduate students and researchers in probability or classical analysis will nd much to learn
from this ne book by a master of both areas.
Doob is also the author of a well known book on measure theory published in 1994 when he was
84 years old. It presents:
... what measure theory every would-be analyst should learn.
Chatterji, reviewing the text writes:
... this text, written by one of the most illustrious probabilists alive, is an interesting addition
to the textbook literature in measure theory; every serious mathematical library should acquire it
and teachers of measure theory - especially those who are analysts by profession - should not fail
to consult it for their future courses.
As we indicated above, Doob was a member of the faculty of the University of Illinois from the
time of his appointment in 1935. He retired in 1978 but remained extremely active continuing to
write books and research papers. One fact which we should mention is that he was Commissar
of the Champaign-Urbana Saturday Hike for about 25 years. The tradition of the Saturday Hike
started in 1909 and Doob joined the hikers in 1939 and went regularly every Saturday.
Article by: J J OConnor and E F Robertson,
40
Le mouvement brownien est une description du mouvement aleatoire de particules qui ne sont
soumises `a aucune autre interaction que les chocs. Ce comportement a ete decrit physiquement
pour la premi`ere fois par le biologiste Robert Brown en 1827. Il fut etudie mathematiquement au
20`eme si`ecle notamment par Bachelier, Einstein, Wiener, Levy, Yor. Denormement de points de
vue, il constitue le processus canonique de la theorie des probabilites et reste `a lheure actuelle
lobjet dintenses recherches. Les outils introduits sont:
La notion de marche aleatoire symetrique;
La notion de processus de Levy;
La notion de mouvement brownien;
La notion de propriete de Markov forte;
La notion de processus de diusion.
1
41
CHAPITRE 4: MOUVEMENT BROWNIEN
1. Preliminaires: La marche aleatoire symetrique
Le but de ce paragraphe est dessayer de mettre en avant sur un objet simple quelques techniques
essentielles qui reviendront dans letude du mouvement brownien :
(1) Lutilisation de martingales et de temps darret.
(2) La notion de propriete de Markov forte.
Denition 1. On appelle marche aleatoire sur Z une suite de variables aleatoires (S
n
)
0
denies
sur un espace de probabilite (,B,P) ` a valeurs dans Z et veriant les deux proprietes suivantes:
(1) (S
n
)
0
est ` a accroissements stationnaires, cest-` a-dire que pour m,n N, S
m+n
S
m
a
meme loi que S
n
(2) (S
n
)
0
est ` a accroissements independants, cest-` a-dire que pour m,n N, S
m+n
S
m
est independant de (S
0
,...,S
m
) .
Intuitivement, la marche aleatoire est un objet tr`es simple `a comprendre (mais pour lequel une
etude ne et approfondie est fort delicate !). Si on consid`ere une partie de pile ou face non
biaisee pour laquelle on gagne 1 euro si pile tombe et perd 1 euro si cest face, alors la fortune
(alg`ebrique) dun joueur qui joue `a ce jeu est une marche aleatoire symetrique sur Z. De mani`ere
rigoureuse:
Considerons une suite de variables aleatoires independantes (X
i
)
i1
denies sur un espace de
probabilite (,B,P) et veriant
P(X
i
= 1) = P(X
i
= 1) =
1
2
A une telle suite on associe la suite (S
n
)
n0
denie par S
0
= 0 et pour n 1 par
S
n
=
n

i=1
X
i
S
n
sinterprete egalement comme la position dun marcheur (fou !) ayant eectue n pas sur un
axe soit en avant, soit en arri`ere avec la probabilite
1
2
.
Nous noterons pour n 0, B
n
la tribu engendree par les variables S
0
,...,S
n
.
Proposition 2. (S
n
)
n0
et (S
n
)
n0
sont des marches aleatoires au sens de la denition 1.
Preuve. Montrons tout dabord que
(X
1
,...,X
n
) =
loi
(X
m+1
,...,X
m+n
)
Pour cela, il sut de verier que pour tout n-uplet (f
i
)
1in
de fonctions {1,1} R nous
avons
E(f
1
(X
1
) ...f
n
(X
n
)) = E(f
1
(X
m+1
) ...f
n
(X
m+n
))
Comme par independance des X
i
nous avons
E(f
1
(X
1
) ...f
n
(X
n
)) = E(f
1
(X
1
)) ...E(f
n
(X
n
))
et
E(f
1
(X
m+1
) ...f
n
(X
m+n
)) = E(f
1
(X
m+1
)) ...E(f
n
(X
m+n
))
nous concluons du fait que
E(f
i
(X
i
)) = E(f
i
(X
m+i
))
puisque
X
i
=
loi
X
m+i
42
Nous avons ainsi
S
n+m
S
m
=
n+m

k=m+1
X
k
=
loi
n

k=1
X
k
= S
n
et lindependance se montre de meme, etant donne que pour tout m+n-uplet (f
i
)
1im+n
de
fonctions {1,1} R nous avons
E(f
1
(X
1
) ...f
m+n
(X
m+n
)) = E(f
1
(X
1
) ...f
m
(X
m
)) E(f
m+1
(X
m+1
) ...f
m+n
(X
m+n
))
ce qui implique que la tribu (X
m+1
,...,X
m+n
) est independante de la tribu B
m
.
La demonstration est identique pour (S
n
)
n0
.
(S
n
)
n0
est appelee la marche aleatoire symetrique standard sur Z.
Proposition 3. Pour n N, k Z:
(1) Si n et k ont la meme parite:
P(S
n
= k) =
1
2
n

n
n+k
2

,
o` u

n
p

=
n!
p!(np)!
.
(2) Si n et k ont des parites dierentes
P(S
n
= k) = 0.
.
Preuve. On remarque que
n+Sn
2
est une somme de n variables aleatoires de Bernoulli independantes.
Ainsi
n+Sn
2
suit une loi binomiale de param`etres (0,n).

Exercice 4. En deduire ` a laide de la formule de Stirling (n! e


n
n
n

2n) un equivalent pour


x R de P(S
2n
= 2[x]) , [x] etant la partie enti`ere de x.
Proposition 5. Les suites suivantes de v.a. sont des (B
n
)
n0
martingales:
(1) (S
n
)
n0
(2)

S
2
n
n

n0
(3) exp (S
n
nln(cosh())) ,n 1, > 0.
Preuve.
(1) Pour n m
E(S
n
| B
m
) = E(S
n
S
m
| B
m
) +E(S
m
| B
m
)
= E(S
n
S
m
) +S
m
= S
m
(2) Tout dabord remarquons que
E

S
2
n

= E

i
X
i
)
2

= E

i,j
X
i
X
j

n
i=1
E

X
2
i

i=j
E(X
i
) E(X
j
)
= n
43
Maintenant, pour n m, nous avons
E

(S
n
S
m
)
2
| B
m

= E

(S
n
S
m
)
2

= E

S
2
nm

= n m
Mais, dun autre cote
E

(S
n
S
m
)
2
| B
m

= E

S
2
n
| B
m

2E(S
n
S
m
| B
m
) +E

S
2
m
| B
m

= E

S
2
n
| B
m

2S
2
m
+S
2
m
= E

S
2
n
| B
m

S
2
m
Ce qui nous permet de conclure
E

S
2
n
n | B
m

= S
2
m
m
(3) Pour n m
E

e
(SnSm)
| B
m

= E

e
(SnSm)

= E

e
S
nm

= E

e
X
1

nm
= (cosh )
nm
ce qui am`ene `a la conclusion souhaitee.
Proposition 6. (Propriete de Markov simple) Pour m n, k Z,
P(S
n
= k | B
m
) = P(S
n
= k | S
m
) .
Preuve. On a pour > 0,
E

e
Sn
| B
m

= (cosh )
nm
e
Sm
.
Ainsi
E

e
Sn
| B
m

= E

e
Sn
| S
m

Ainsi (S
n
)
n0
a la propriete de Markov.
Nous rappelons quune variable aleatoire T `a valeurs dans N est appelee un temps darret pour
(S
n
)
n0
si pour tout m lev`enement {T m} est dans B
m
. Lensemble
B
T
= {A B, m N

, A {T m} B
m
}
est alors une sous tribu de B (demontrez le !).
Proposition 7. Si T est un temps darret pour (S
n
)
n0
tel que P(T < +) = 1 alors la suite
(S
n+T
S
T
)
n0
est une marche aleatoire symetrique sur Z independante de B
T
.
Preuve. Notons

S
n
= S
n+T
S
T
et considerons alors le temps darret
T
m
= T +m
En appliquant le theor`eme darret de Doob `a la martingale

(cos )
n
e
iSn

n0
associee au temps darret T
m
N avec N N

, nous obtenons, n N
E

(cos )
n
e
i(S
n+TmN
S
TmN
)
| B
TmN

= 1
44
A la limite N +, nous obtenons donc par le theor`eme de convergence dominee, n N
(1) E

(cos )
n
e
i(
e
S
n+m

e
Sn)
| B
T+m

= 1
ce qui implique donc lindependance et la stationnarite des accroissements.
Ainsi

S
n

n0
est une marche aleatoire sur Z independante de B
T
.
Pour conclure, montrons que cette marche est symetrique. La variable

S
n+1


S
n
est `a valeurs
dans {1,1} et verie dautre part,
E

e
i(
e
S
n+1

e
Sn)

= cos
ce qui donne evidemment
P

S
n+1


S
n
= 1

= P

S
n+1


S
n
= 1

=
1
2
.

Corollaire 8. (Propriete de Markov forte) Soit T un temps darret pour (S


n
)
n0
tel que
P(T < +) = 1. Pour tout k Z
P(S
T+1
= k | B
T
) = P(S
T+1
= k | S
T
)
Preuve. Comme la suite (S
n+T
S
T
)
n0
est une marche aleatoire symetrique sur Z independante
de B
T
, on a pour > 0,
E

e
S
T+1
| B
T

= (cosh ) e
S
T
.
Ainsi
E

e
S
T+1
| B
T

= E

e
S
T+1
| S
T

Ainsi (S
n
)
n0
a la propriete de Markov forte.
Dans la proposition suivante, nous montrons que la marche aleatoire symetrique est recurrente,
cest-` a-dire visite chaque point de Z avec une probabilite egale `a 1.
Proposition 9. (Recurrence de la marche)
k Z, m N, P( n m, S
n
= k) = 1
Preuve.
Montrons tout dabord
P( k [1,2n] , S
k
= 0) = P(S
2n
= 0) .
On a
P( k [1,2n] , S
k
= 0)
= 2P( k [1,2n] , S
k
> 0)
= 2

n
j=1
P( k [1,2n] , S
k
> 0 | S
2n
= 2j) P(S
2n
= 2j)
= 2

n
j=1
j
n
P(S
2n
= 2j)
= 2

n
j=1
j
n
1
2
2n

2n
n +j

Maintenant, il est facile de demontrer par recurrence lidentite suivante


n

j=1
j

2n
n +j

=
n
2

2n
n

45
qui assure bien
P( k [1,2n] , S
k
= 0) = P(S
2n
= 0) .
Comme
P(S
2n
= 0) =
(2n)!
(n!)
2
1
2
2n

n+
0
nous deduisons que
P( n > 1, S
n
= 0) = 1
Notons Z
1
le premier zero non nul de (S
n
)
nN
. Soit maintenant
T
1
= inf{n 0, S
n
= 1}
et
T
1
= inf{n 0, S
n
= 1}
Il est clair que T
1
et T
1
sont des temps darret.
Mmontrons que
P(T
1
< +) = 1
Dapr`es la propriete de Markov, pour n 1
P(Z
1
n)
= P(Z
1
n | S
1
= 1) P(S
1
= 1) +P(Z
1
n | S
1
= 1) P(S
1
= 1)
=
1
2
P(Z
1
n | S
1
= 1) +
1
2
P(Z
1
n | S
1
= 1)
=
1
2
P(T
1
n 1) +
1
2
P(T
1
n 1)
Comme
(S
n
)
n0
= (S
n
)
n0
il est clair que P(T
1
< +) = 1 si et seulement si P(T
1
< +) = 1 et dans ce cas
T
1
=
loi
T
1
Ainsi, puisque
P(Z
1
< +) = 1
nous avons bien
P(T
1
< +) = 1
En appliquant le resultat precedent `a la marche aleatoire (S
n+T
1
1)
n0
, on en deduit que
P( n > 1, S
n
= 2) = 1.
Par recurrence nous deduisons donc que
k N,P( n > 1, S
n
= k) = 1.
Puis, par symetrie
k N,P( n > 1, S
n
= k) = 1.
En appliquant cela `a la marche aleatoire (S
n+m
S
m
)
n0
, on en deduit que
k Z, m N, P( n m, S
n
= k) = 1.

Comme consequence immediate de la proposition precedente, pour k Z, le temps darret


T
k
= inf{n 1, S
n
= k}
est tel que
P(T
k
< +) = 1.
46
Tout dabord, on remarque
Proposition 10. La suite (T
k
)
k0
est une marche aleatoire sur Z.
Preuve. Pour 0 a < b, on a
T
b
= T
a
+ inf{n 1,S
n+Ta
= b}.
Comme (S
n+Ta
a)
n0
est une marche aleatoire sur Z independante de T
a
, on en deduit que:
(1) inf{n 1,S
n+Ta
= b} est independant de B
Ta
.
(2)
inf{n 1,S
n+Ta
= b} =
loi
T
ba
.

Calculons maintenant la loi de T


k
.
Proposition 11. Pour 0 < x < 1, k Z,

n=0
x
n
P(T
k
= n) =

1 x
2
x

k
.
Preuve. Soit > 0. En appliquant le theor`eme darret `a la martingale

(cosh )
n
e
Sn

n0
avec le temps darret T
k
N , N N

, nous obtenons
E

e
S
NT
k
(T
k
N) ln cosh

= 1.
On utilise maintenant le theor`eme de convergence dominee pour en deduire:
E

e
kT
k
ln cosh

= 1.
Do` u,
E

e
(ln cosh )T
k

= e
k
.
En posant
x = e
ln cosh
on obtient
E

x
T
k

1 x
2
x

k
.

On en deduit:
Corollaire 12. Pour k N, n N,
P(T
k
= n) =
1
2
n

I
1
2i
1
1
...
1
2i
k
1

2i
1
1
i
1

...

2i
k
1
i
k

,
avec
I =

(i
1
,...,i
k
) N
k
,i
1
+... +i
k
=
n k
2

.
En particulier, pour n N,
P(T
1
= 2n) = 0
P(T
1
= 2n + 1) =
1
2n 1

2n 1
n

1
2
2n+1
.
47
Preuve. Il sut de developper en serie enti`ere la fonction
x

1 x
2
x

Exercice 13. On souhaite maintenant etudier la suite des zeros de S :


Z
0
= 0,Z
k+1
= inf{n > Z
k
, S
n
= 0}
Montrer que:
(1) La suite (Z
k
)
k0
est une marche aleatoire sur Z.
(2) Pour k 1,
Z
k
=
loi
k +T
k
.
Proposition 14. (Principe de reexion) Pour n 0, soit
M
n
= max
0kn
S
k
.
On a alors pour k,n N,
P(M
n
k, S
n
< k) =
1
2
(P(T
k
n) P(S
n
= k)) .
Preuve. Fixons k,n N et avant toute chose nous remarquons legalite ensembliste suivante
{T
k
n} = {M
n
k}
Ensuite, introduisons la suite de variables aleatoires

S
m

m0
denie par

S
m
= S
m+T
k
k
Cette suite est une marche aleatoire symetrique pour laquelle n T
k
n est un temps darret.
Maintenant,

S
nT
k
n
=
loi

S
nT
k
n
Nous pouvons donc ecrire
P

T
k
n,

S
nT
k
< 0

= P

T
k
n,

S
nT
k
> 0

Autrement dit
P(T
k
n,S
n
< k) = P(T
k
n,S
n
> k)
Cela nous permet de conclure
2P(T
k
n,S
n
< k) +P(S
n
= k) = P(T
k
n)

Comme corollaire immediat du principe de reexion, nous en deduisons la loi de M


n
.
Corollaire 15. Pour k,n N
P(M
n
k) = 2P(S
n
k) P(S
n
= k) .
Exercice 16. (Temps local de la marche en 0)
Pour n N on note
l
0
n
= Card {0 i n, S
i
= 0}
(1) Montrer que pour n N et k N

l
0
2n
= k

= P

l
0
2n+1
= k

= P(S
2n+1k
= k 1)
48
(2) En deduire que quand n +
l
0
n

n

loi
|N (0,1)|
Exercice 17. Maintenant, au lieu de supposer que le marcheur eectue un pas de longueur
unite pendant lunite de temps, on supposera quil eectue pendant chaque intervalle de temps
, un pas de longueur . En designant par p(t,x) la densite de probabilite de la variable aleatoire
X
t
representant la position du marcheur ` a linstant t, etablir une relation de recurrence entre
p(t + ,x),p(t,x ) et p(t,x + ). Montrer que si et tendent vers 0 dune mani`ere que lon
precisera alors p devient solution dune equation aux derivees partielles. Reconnaissez-vous cette
equation et pouvez-vous la resoudre?
2. Processus de Levy
Dans ce qui suit, nous nous pla cons sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). La bonne
generalisation de la notion de marche aleatoire en temps continu est celle de processus de Levy.
Denition 18. Soit (X
t
)
t0
un processus stochastique. On dit que (X
t
)
t0
est un processus de
Levy deni sur lespace (,(F
t
)
t0
,F,P) si les conditions suivantes sont satisfaites:
(1) Presque s urement X
0
= 0;
(2) Presque s urement, les trajectoires de (X
t
)
t0
sont continues ` a droite avec des limites ` a
gauche;
(3) (X
t
)
t0
est adapte ` a la ltration (F
t
)
t0
;
(4) Pour tout T 0, le processus (X
t+T
X
T
)
t0
est independant de la tribu F
T
;
(5) Pour tout t,T 0, X
t+T
X
T
=
loi
X
t
.
Exercice 19. Montrer que si (X
t
)
t0
est un processus de Levy deni sur lespace (,(F
t
)
t0
,F,P),
alors cest aussi un processus de Levy sur lespace (,(F
X
t
)
t0
,F,P), o` u (F
X
t
)
t0
est la ltration
naturelle de (X
t
)
t0
.
Exercice 20. Montrer que si (X
t
)
t0
est un processus de Levy deni sur lespace (,(F
t
)
t0
,F,P),
alors cest aussi un processus de Levy sur lespace (,(G
t
)
t0
,G,P), o` u
(,(G
t
)
t0
,G,P)
est la completion usuelle de
(,(F
t
)
t0
,F,P).
Exercice 21. (Processus de Poisson) Soit (T
n
)
nN
une suite de variables aleatoires exponen-
tielles independantes,
P(T
n
dt) = e
t
dt,t 0,n N,
denies sur un espace de probabilite (,F,P). On note
S
n
=
n

i=1
T
i
,n 1,
et S
0
= 0. Pour t 0, soit
N
t
= max{n 0,S
n
t}.
(1) Montrer que le processus (N
t
)
t0
est un processus de Levy sur lespace de probabilite
(,(F
N
t
)
t0
,F,P), o` u (F
N
t
)
t0
est la ltration naturelle de (N
t
)
t0
.
49
(2) Montrer que pour t 0, N
t
est une variable aleatoire de Poisson de param`etre t, i.e.:
P(N
t
= n) = e
t
(t)
n
n!
,n N.
Le processus (N
t
)
t0
sappelle le processus de Poisson dintensite > 0.
(3) Soit maintenant (Y
n
)
n0
une suite de variables aleatoires independantes de meme loi .
On note alors pour t 0,
X
t
= 1
Nt1

Nt

i=1
Y
i

.
Montrer que le processus (X
t
)
t0
est un processus de Levy sur lespace de probabilite
(,(F
X
t
)
t0
,F,P), o` u (F
X
t
)
t0
est la ltration naturelle de (X
t
)
t0
. Montrer, de plus,
que pour R et t 0:
E(e
iXt
) = e
t
R
R
(e
ix
1)(dx)
.
Le processus (X
t
)
t0
sappelle un processus de Poisson compose.
On a un theor`eme tr`es important concernant la structure des processus de Levy continus:
Theor`eme 22. (Levy)
Soit (X
t
)
t0
un processus de Levy continu deni sur lespace de probabilite ltre (,(F
t
)
t0
,F,P).
Alors on peut trouver R
+
et R tels que (X
t
)
t0
est un processus gaussien de fonction
moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
Reciproquement, soit (X
t
)
t0
un processus gaussien continu et adapte ` a la ltration (F
t
)
t0
de
fonction moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
Alors (X
t
)
t0
est un processus de Levy sur lespace de probabilite ltre (,(F
t
)
t0
,F,P)
Preuve.
Soit (X
t
)
t0
est un processus de Levy continu deni sur lespace de probabilite ltre (,(F
t
)
t0
,F,P).
Tout dabord remarquons que la loi de X
1
est inniment divisible (voir le chapitre 0 pour la
denition dune loi inniment divisible). En eet, pour tout n N, on a
X
1
=
n

k=1
(Xk
n
Xk1
n
),
et les accroissements Xk
n
Xk1
n
sont independants et identiquement distribues. Par consequent,
dapr`es le theor`eme de Levy-Khinchin (voir le chapitre 0), on peut trouver R
+
, R et
une mesure borelienne sur R\{0} tels que:

R
(| x |
2
1)(dx) < +
et
E(e
iX
1
) = e
()
, R,
50
avec
() = i
1
2

2
+

R
(e
ix
1 ix1
|x|1
)(dx).
Soit maintenant R xe. On consid`ere lapplication
f(t) = E(e
iXt
),t 0.
Comme (X
t
)
t0
est un processus de Levy, on a, pour s,t 0,
f(t +s) = E(e
iX
t+s
)
= E(e
i(X
t+s
Xt)+Xt
)
= E(e
i(X
t+s
Xt)
)E(e
iXt
)
= E(e
iXs
)E(e
iXt
)
= f(t)f(s).
Dautre part, comme (X
t
)
t0
est `a trajectoires continues, il est aussi continu en loi, ce qui veut
dire que lapplication f est continue. Comme f(1) = e
()
, on en deduit donc que pour tout
t 0,
f(t) = e
t()
,t 0.
Ainsi pour R et t 0,
E(e
iXt
) = e
t()
.
Nous allons maintenant montrer que la mesure qui apparait dans lexpression de est en fait
egale `a 0.
Soit (0,1). On a
=

,
o` u

() = i
1
2

2
+

|x|
(e
ix
1 ix)(dx),
et

() =

|x|>
(e
ix
1 ix1
|x|1
)(dx).
Cette decomposition de va en fait correspondre `a une decomposition trajectorielle de X.
Pour t 0, soit
t
la loi de probabilite sur R de fonction caracteristique:

R
e
ix

t
(dx) = e
t()
, R.
(une telle loi existe dapr`es le theor`eme de Levy-Khinchin). On a alors pour s,t 0

t

s
=
t+s
.
Par consequent si on denit pour f fonction borelienne bornee
(P
t
f)(x) =

R
f(x +y)
t
(dy),
alors la famille {P
t
,t 0} est une fonction de transition. Dautre part, il est facile de voir
(veriez le !) que cette fonction de transition est de Feller-Dynkin. Ainsi, dapr`es le theor`eme
27 du chapitre 2, on peut trouver un espace de probabilite ltre (

,(

F
t
)
t0
,

F,

P) ainsi quun
processus (Y
t
)
t0
deni sur cet espace tels que:
(1) Les trajectoires de (Y
t
)
t0
sont continues `a droite avec des limites `a gauche;
51
(2) (Y
t
)
t0
est un processus de Markov de fonction de transition {P
t
,t 0} relativement `a
la ltration (

F
t
)
t0
.
Le processus (Y
t
)
t0
est alors un processus de Levy puisque
E(e
iY
t+s
| F
s
) =

R
e
i(Ys+y)

t
(dy),
ce qui implique
E(e
i(Y
t+s
Ys)
| F
s
) = e
t()
,
et donc lindependance et la stationnarite des accroissements.
De meme, on va pouvoir, quitte `a grossir lespace (

,(

F
t
)
t0
,

F,

P) , construire un processus de
Levy (Z
t
)
t0
qui est independant du processus (Y
t
)
t0
et tel que:
E(e
iZt
) = e
t()
.
On a

() =

|x|>
(e
ix
1 ix1
|x|1
)(dx)
=

|x|>
(e
ix
1)(dx) i

|x|>
x1
|x|1
(dx),
et
({x, | x |> }) < +.
Ainsi, dapr`es lexercice 4, on a en fait
Z
t
= L
t
t

|x|>
x1
|x|1
(dx),
o` u (L
t
)
t0
est un processus de Poisson compose. En particulier, les trajectoires du processus
(Z
t
)
t0
ne peuvent donc quavoir un nombre ni de sauts sur tout intervalle de temps borne,
chaque saut eventuel etant de taille superieure `a .
Comme les deux processus (Y
t
)
t0
et (Z
t
)
t0
sont independants, il est alors facile de voir que le
processus

X
t
= Y
t
+Z
t
est un processus de Levy qui a meme loi que le processus (X
t
)
t0
.

Egalement par independance,
presque s urement les sauts de (Y
t
)
t0
et les sauts de (Z
t
)
t0
ne sintersectent pas. Donc chaque
saut eventuel de (Y
t
)
t0
induit un saut sur (

X
t
)
t0
. Comme (X
t
)
t0
est continu, (Y
t
)
t0
ne peut
donc pas avoir de saut, ce qui implique
({x, | x |> }) = 0.
Mais etait arbitraire, donc en fait = 0. On en conclut que
E(e
iXt
) = e
t(i
1
2

2
)
.
Ainsi pour t > 0, X
t
=
loi
N(t,
2
t). Enn, pour verier que le processus est bien gaussien, on
utilise lindependance et la stationnarite des accroissements qui impliquent pour
1
,...,
n
R,
52
0 < t
1
< ... < t
n
:
E

e
i
P
n
k=1

k
(Xt
k+1
Xt
k
)

=
n

k=1
E

e
i
k
(Xt
k+1
Xt
k
)

=
n

k=1
E

e
i
k
X
t
k+1
t
k

= e
P
n
k=1
(t
k+1
t
k
)(i
k

1
2

2
k
)
.
Cela conclut la demonstration de la premi`ere partie du theor`eme de structure de Levy.
Reciproquement, soit maintenant (X
t
)
t0
un processus gaussien continu et adapte `a la ltration
(F
t
)
t0
de fonction moyenne:
E(X
t
) = t;
et de fonction de covariance:
E((X
t
t)(X
s
s)) =
2
(s t).
On veut dabord demontrer que tout T 0, le processus (X
t+T
X
T
)
t0
est independant de la
tribu F
T
.
Soient t
1
,...,t
n
T, s
1
,...,s
m
T,
1
,...,
n
R,
1
,...,
m
R.
On a
E

i=1

i
(X
t
i
+T
X
T
)

i=1

i
X
s
i

i,j
E

j
(X
t
i
+T
X
T
)X
s
j

= 0.
Ainsi, le processus (X
t+T
X
T
)
t0
est bien independant de la tribu F
T
. De meme, il est facile
de montrer que pour tout t,T 0, X
t+T
X
T
=
loi
X
t
.

3. Definition, existence et premi`eres proprietes du mouvement brownien


Dans ce paragraphe, nous nous pla cons encore sur un espace de probabilite ltre (,(F
t
)
t0
,F,P)
donne.
Denition 23. Soit (B
t
)
t0
un processus stochastique continu adapte ` a la ltration (F
t
)
t0
. On
dit que (B
t
)
t0
est un mouvement brownien si cest un processus gaussien de fonction moyenne
nulle et de fonction de covariance
E(B
s
B
t
) = s t.
Remarque 24. On dira simplement quun processus (B
t
)
t0
deni sur (,F,P) est un mouve-
ment brownien si cest un mouvement brownien sur lespace (,(F
B
t
)
t0
,F,P), o` u (F
B
t
)
t0
est
la ltration naturelle de (B
t
)
t0
.
Exercice 25. Soit (B
t
)
t0
un mouvement brownien. On note (F
B
t
)
t0
sa ltration naturelle,
F
B

= (B
u
,u 0) et N les sous-ensembles de F
B

de mesure nulle. Montrer que la ltration


((F
B
t
,N))
t0
satisfait les conditions usuelles.
On a egalement une denition markovienne du mouvement brownien.
Proposition 26. Soit (B
t
)
t0
un processus stochastique continu adapte ` a la ltration (F
t
)
t0
tel
que B
0
= 0 p.s.. Alors (B
t
)
t0
est un mouvement brownien si et seulement si cest un processus
de Markov relativement ` a la ltration (F
t
)
t0
de fonction de transition donnee par:
P
0
= Id, (P
t
f)(x) =

R
f(y)
e

(xy)
2
2t

2t
dy,t > 0,x R,
53
f : R R etant une fonction borelienne bornee. De plus la fonction de transition {P
t
,t 0} est
de Feller-Dynkin.
Preuve.
Soit (B
t
)
t0
un processus de Markov relativement `a la ltration (F
t
)
t0
de fonction de transition
donnee par:
P
0
= Id, (P
t
f)(x) =

R
f(y)
e

(xy)
2
2t

2t
dy,t > 0,x R.
On a pour s,t 0, R,
E(e
iB
t+s
| F
s
) =

R
e
i(Bs+y)
e

y
2
2t

2t
dy,
ce qui implique
E(e
i(B
t+s
Bs)
| F
s
) =

R
e
iy
e

y
2
2t

2t
dy = e

1
2

2
t
et donc lindependance et la stationnarite des accroissements. Pour verier que le processus est
bien gaussien, avec la bonne structure de moyenne et de covariance, on utilise lindependance et
la stationnarite des accroissements qui impliquent pour
1
,...,
n
R, 0 < t
1
< ... < t
n
:
E

e
i
P
n
k=1

k
(Bt
k+1
Bt
k
)

=
n

k=1
E

e
i
k
(Bt
k+1
Bt
k
)

=
n

k=1
E

e
i
k
B
t
k+1
t
k

= e

1
2
P
n
k=1
(t
k+1
t
k
)
2
k
.
Ce qui permet de conclure que (B
t
)
t0
est bien un mouvement brownien.
Reciproquement, soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soient maintenant
f : R R une fonction borelienne bornee et s,t 0. On a:
E(f(B
t+s
) | F
s
) = E(f(B
t+s
B
s
+B
s
) | F
s
).
Comme B
t+s
B
s
est independant de F
s
, on en deduit tout dabord que
E(f(B
t+s
) | F
s
) = E(f(B
t+s
) | B
s
).
Pour x R,
E(f(B
t+s
) | B
s
= x) = E(f(B
t+s
B
s
+B
s
) | B
s
= x) = E(f(X
t
+x)),
o` u X
t
est une variable aleatoire independante de B
s
telle que X
t
=
loi
N(0,t). Par consequent,
E(f(B
t+s
) | B
s
= x) =

R
f(x +y)
e

y
2
2t

2t
dy
et
E(f(B
t+s
) | F
s
) =

R
f(B
s
+y)
e

y
2
2t

2t
dy.
Pour montrer que la fonction de transition {P
t
,t 0} est de Feller-Dynkin, il faut verier:
(1) P
t
: C
0
(R
+
,R) C
0
(R
+
,R);
(2) P
0
= Id;
(3) f C
0
(R
+
,R),x R, lim
t0
(P
t
f)(x) = f(x).
54
Ce que nous laissons en exercice. (On rappelle que C
0
(R
+
,R) est lensemble des applications
continues f : R R telles que lim

f = lim
+
f = 0).
Bien entendu, le mouvement brownien nest interessant `a etudier que sil existe !
Theor`eme 27. On peut trouver un espace de probabilite ltre (

,(

F
t
)
t0
,

F,

P) ainsi quun
mouvement brownien (B
t
)
t0
deni sur cet espace. Dautre part deux mouvements browniens
eventuellement denis sur des espaces de probabilite ltres dierents ont necessairement la meme
loi: Cette loi sappelle la mesure de Wiener.
Preuve.
Dapr`es la proposition 20 du chapitre 1, on peut trouver un espace de probabilite (

,

F,

P) ainsi
quun processus gaussien (X
t
)
t0
deni sur cet espace de fonction moyenne nulle et de fonction
de covariance
E(X
s
X
t
) = s t.
On a pour tout n 0 et 0 s t:
E

(X
t
X
s
)
2n

=
(2n)!
2
n
n!
(t s)
n
.
Par consequent, en utilisant le theor`eme 26 du chapitre 1 (crit`ere de continuite de Kolmogo-
rov), on va pouvoir trouver une modication continue (B
t
)
t0
du processus (X
t
)
t0
dont les
trajectoires sont localement -Holderiennes pour tout [0,
n1
2n
).
Comme modication de (X
t
)
t0
, le processus (B
t
)
t0
a la meme loi que (X
t
)
t0
cest donc un
processus gaussien de fonction moyenne nulle et de fonction de covariance s t.
On en deduit que (B
t
)
t0
est un mouvement brownien sur lespace de probabilite ltre (

,(

F
t
)
t0
,

F,

P)
o` u (

F
t
)
t0
est la ltration naturelle de (B
t
)
t0
.
Quant `a lunicite de la loi du mouvement brownien, elle vient du fait que la loi dun processus
gaussien est enti`erement caracterisee par sa fonction moyenne et sa fonction de covariance.

Maintenant quon sait que le mouvement brownien existe, on va en exhiber quelques premi`eres
proprietes.
Proposition 28. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors, presque
toutes les trajectoires de (B
t
)
t0
sont localement -H olderiennes pour tout [0,
1
2
).
Preuve.
Soit T > 0. On a pour tout n 0 et 0 s t:
E

(B
t
B
s
)
2n

=
(2n)!
2
n
n!
(t s)
n
.
Par consequent, en utilisant le theor`eme 26 du chapitre 1 (crit`ere de continuite de Kolmogorov),
on va pouvoir trouver une modication continue (

B
t
)
0tT
du processus (B
t
)
0tT
dont les tra-
jectoires sont localement -Holderiennes pour tout [0,
n1
2n
). Comme (B
t
)
0tT
et (

B
t
)
0tT
sont tous les deux continus, on a en fait
P

t [0,T],B
t
=

B
t

= 1,
ce qui implique que presque toutes les trajectoires de (B
t
)
0tT
sont -Holderiennes pour tout
[0,
n1
2n
). Lentier n pouvant etre pris aussi grand quon veut, on en deduit le resultat souhaite.

Exercice 29. Soit (B


t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Montrer que la variable
aleatoire

1
0
B
s
ds est gaussienne et calculer sa loi.
55
Proposition 30. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors, pour tout
> 0, presque s urement,
lim
t+
B
t
t
1
2
+
= 0.
Preuve.
La convergence L
2
est claire, et comme B
t
est une variable aleatoire gaussienne, on a egalement
la convergence presque s ure.

Proposition 31. Soit (B


t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors les processus
suivants sont des mouvements browniens:
(1) (B
t
)
t0
. Cest la propriete de symetrie du mouvement brownien.
(2)

c
B
ct

t0
, c > 0. Cest la propriete dautosimilarite du mouvement brownien.
(3) (B
T+t
B
T
)
t0
, T 0. Cest la propriete dinvariance par translation du mouvement
brownien.
(4) (tB
1/t
)
t0
. Cest la propriete dinvariance par inversion du temps du mouvement brow-
nien.
Preuve.
Exercice !

Exercice 32. Soit (B


t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P).
(1) Montrer que pour t > 0, lintegrale de Riemann

t
0
Bs
s
ds existe presque s urement.
(2) Montrer que le processus

B
t

t
0
Bs
s
ds

t0
est un mouvement brownien.
Proposition 33. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors
P

inf
t0
B
t
= , sup
t0
B
t
= +

= 1.
Preuve.
Comme le processus (B
t
)
t0
est egalement un mouvement brownien, pour demontrer que
P

inf
t0
B
t
= , sup
t0
B
t
= +

= 1,
il sut en fait de verier que
P

sup
t0
B
t
= +

= 1.
Soit N N. On a par la propriete dautosimilarite,
P

c sup
t0
B
t
N

= P

sup
t0
B
t
N

,c > 0.
Par consequent,
P

sup
t0
B
t
N

= P

sup
t0
B
t
= 0

.
Mais
P

sup
t0
B
t
= 0

P(B
1
0, sup
t1
B
t
= 0) = P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
).
56
Comme le processus (B
t+1
B
1
)
t0
est un mouvement brownien independant de B
1
, on a pour
tout c > 0,
P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
) = P(B
1
0,c sup
t0
(B
t+1
B
1
) = B
1
).
Do` u,
P(B
1
0, sup
t0
(B
t+1
B
1
) = B
1
) = P(B
1
0, sup
t0
(B
t+1
B
1
) = 0)
= P(B
1
0)P(sup
t0
(B
t+1
B
1
) = 0)
=
1
2
P

sup
t0
B
t
= 0

.
Ainsi,
P

sup
t0
B
t
= 0

1
2
P

sup
t0
B
t
= 0

.
On en conclut
P

sup
t0
B
t
= 0

= 0,
et
P

sup
t0
B
t
N

= 0.
Comme cela est vrai pour tout N, cela implique
P

sup
t0
B
t
= +

= 1.

De cette derni`ere proposition , on en deduit immediatement que le mouvement brownien est


recurrent, c.a.d. que presque s urement, il visite tous les points de R. Plus precisement:
Proposition 34. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors pour tout
t 0 et x R,
P(s t,B
s
= x) = 1.
Preuve.
Exercice !

Proposition 35. Soit (B


t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors les processus
suivants sont des martingales:
(1) (B
t
)
t0
;
(2) (B
2
t
t)
t0
;
(3)

e
Bt

2
2
t

t0
, C.
Preuve.
(1) Tout dabord pour t 0, E(| B
t
|) < + car B
t
est une variable gaussienne. Ensuite,
pour t s, E(B
t
B
s
| F
s
) = E(B
t
B
s
) = 0, do` u E(B
t
| F
s
) = B
s
.
(2) Pour t 0, E(B
2
t
) = t < + et pour t s, E((B
t
B
s
)
2
| F
s
) = E((B
t
B
s
)
2
) = t s,
do` u E(B
2
t
t | F
s
) = B
2
s
s.
57
(3) Pour t 0, E

e
Bt

2
2
t

< +car B
t
est une variable gaussienne. Ensuite, pour t s,
E(e
(BtBs)
| F
s
) = E(e
(BtBs)
) = e

2
2
(ts)
, do` u E

e
Bt

2
2
t
| F
s

= e
Bs

2
2
s
.

Exercice 36. Soit (B


t
)
t0
un mouvement brownien. On note P la mesure de Wiener, (
t
)
t0
le processus des coordonnees et (F
t
)
t0
sa ltration naturelle. Soient maintenant R et P

la
loi du processus (B
t
+t)
t0
. Montrer que pour tout t 0,
P

/Ft
P
/Ft
,
et que
dP

/Ft
dP
/Ft
= e
t

2
2
t
.
A ton
P

/F
P
/F
?
Les martingales precedentes sont souvent utiles pour calculer des lois en utilisant le theor`eme
darret de Doob.
Proposition 37. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Pour a > 0, on
note
T
a
= inf{t 0, B
t
= a}.
On a alors pour tout > 0,
E

e
Ta

= e
a

2
,
et
P(T
a
dt) =
a
(2t)
3/2
e

a
2
2t
dt, t > 0.
Preuve.
Soit > 0. Pour N 1, on note T
N
le temps darret presque s urement borne:
T
N
= T
a
N.
En appliquant le theor`eme darret de Doob `a la martingale,

e
Bt

2
2
t

t0
,
on obtient:
E

e
B
TaN

2
2
(TaN)

= 1.
Mais pour tout N 1,
e
B
TaN

2
2
(TaN)
e
a
.
Par consequent, dapr`es le theor`eme de convergence domine, on obtient quand n +,
E

e
B
Ta

2
2
Ta

= 1.
Par continuite des trajectoires on a presque s urement,
B
Ta
= a,
58
do` u,
E

2
2
Ta

= e
a
.
Ainsi, pour tout > 0,
E

e
Ta

= e
a

2
.
La densite de T
a
sobtient alors en inversant la transformee de Laplace precedente.
La proposition 36 peut en fait etre considerablement generalisee.
Theor`eme 38. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit maintenant
f : R
+
R C une application telle que:
(1) f est continument dierentiable en sa premi`ere variable et deux fois continument dierentiable
en sa seconde variable (On ecrira f C
1,2
(R
+
R,C)).
(2) Pour tout t 0, on peut trouver des constantes K > 0 et > 0 telles que
sup
0st
| f(s,x) | Ke
x
.
Alors le processus (f(t,B
t
))
t0
est une martingale si et seulement si f verie lequation aux
derivees partielles:
f
t
+
1
2

2
f
x
2
= 0.
Preuve.
Soit t > 0. Dapr`es la propriete de Markov, on a pour s < t,
E(f(t,B
t
) | F
s
) =

R
f(t,y)
e

(yBs)
2
2(ts)

2(t s)
dy
Par consequent, le processus (f(t,B
t
))
t0
est une martingale si et seulement si pour tout 0 < s < t
et x R,

R
f(t,y)
e

(yx)
2
2(ts)

2(t s)
dy = f(s,x).
Supposons dabord que pour tout 0 < s < t et x R,

R
f(t,y)
e

(yx)
2
2(ts)

2(t s)
dy = f(s,x).
On xe alors t > 0 et on observe alors que la fonction
g : (s,x)

R
f(t,y)
e

(yx)
2
2(ts)

2(t s)
dy
denie sur [0,t) R verie lequation
g
s
+
1
2

2
g
x
2
= 0.
Ce qui implique que f verie cette meme equation.
Reciproquement, supposons que f verie lequation aux derivees partielles:
f
t
+
1
2

2
f
x
2
= 0.
59
Soit t > 0. Alors, en considerant toujours
g : (s,x)

R
f(t,y)
e

(yx)
2
2(ts)

2(t s)
dy,
on saper coit que h = f g verie lequation
h
s
+
1
2

2
h
x
2
= 0
sur [0,t) R avec de plus la condition `a la limite:
x R, lim
st
h(s,x) = 0.
La theorie des equations aux derivees partielles paraboliques implique alors h = 0.

Remarque 39. Lequation


f
t
+
1
2

2
f
x
2
= 0,
est connue sous le nom dequation de la chaleur retrograde.
Exercice 40. Soit {P
t
,t 0} la fonction de transition du mouvement brownien. Soit f : R R
une fonction borelienne telle quil existe , > 0 veriant:
x R, | f(x) | e
|x|
.
Montrer que la fonction:
g : (0, +) R R, (t,x) (P
t
f)(x),
est solution du probl`eme parabolique suivant:
g
t
=
1
2

2
g
x
2
, x R, lim
t0
g(t,x) = f(x).
Lequation precedente est appelee lequation de la chaleur. Il est possible de montrer que g est
en fait lunique solution du probl`eme precedent.
4. Le principe dinvariance de Donsker
`
A la fois dun point de vue intuitif et theorique, il est interessant de bien comprendre que le
mouvement brownien est une limite de marches aleatoires.
Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On denit alors une suite de processus
continus ((S
n
t
)
t[0,1]
)
nN
de la fa con suivante:
S
n
t
=

t
k
n

S
k+1
+

k + 1
n
t

S
k

,
k
n
t
k + 1
n
.
Theor`eme 41. (Principe dinvariance de Donsker) La suite de processus ((S
n
t
)
t[0,1]
)
nN
converge
en loi vers (B
t
)
t[0,1]
o` u (B
t
)
t[0,1]
est un mouvement brownien
Preuve.
Il nous sut de verier deux choses:
(1) Pour tout t
1
,...,t
k
[0,1],

S
n
t
1
,...,S
n
t
k

loi
n+
(B
t
1
,...,B
t
k
).
(2) La famille ((S
n
t
)
t[0,1]
)
nN
est relativement compacte dans la topologie de la convergence
etroite.
60
Nous laissons le premier point (1) en exercice. Notons neanmoins que pour faciliter les calculs,
il sera plus aise de demontrer que pour tout t
1
,...,t
k
[0,1],

S
n
t
1
,S
n
t
2
S
n
t
1
,...,S
n
t
k
S
n
t
k1

loi
n+
(B
t
1
,B
t
2
B
t
1
...,B
t
k
B
t
k1
).
Demontrons que la famille ((S
n
t
)
t[0,1]
)
nN
est relativement compacte dans la topologie de la
convergence etroite.
Soit > 0. Le processus (S
4
n
)
nN
est une sous-martingale, par consequent dapr`es linegalite
maximale de Doob, pour tout n 1,
P

max
kn
| S
k
|>

E(S
4
n
)

4
n
2
=
3n
2
2n

4
n
2

3

4
.
Par stationnarite des accroissements de (S
n
)
nN
, on en deduit nalement que pour tout k,n 1,
> 0,
P

max
in
| S
i+k
S
k
|>

4
.
Soient maintenant , (0,1). De linegalite qui precede, il est facile de voir quon peut trouver
> 0 tel que pour tout k,n 1
P

max
i[n]
| S
i+k
S
k
|

.
Soient N,, > 0. Par denition de S
n
on en deduit quon peut trouver (0,1) tel que pour
tout n 1 et t N,
P

sup
tst+
| S
n
s
S
n
t
|

.
Pour 0 i <
N

et n 1, soit
A
n
i
=

, sup
is(i+1)N
| S
n
i
S
n
s
|

.
Il est facile de voir que

c
i
A
n
i
{sup{| S
n
t
S
n
s
| , | t s | , s,t N} < 3} .
Par consequent, pour tout n 1,
P(sup{| S
n
t
S
n
s
| , | t s | , s,t N} 3) P

i
A
n
i

1 + [N
1
]

< (N + 1).
Ce qui implique, par la proposition 30 du chapitre 1 que ((S
n
t
)
t[0,1]
)
nN
est relativement com-
pacte dans la topologie de la convergence etroite.

Le principe dinvariance de Donsker peut saverer utile pour calculer des lois de fonctionnelles
browniennes. Comme illustration nous allons montrer comment deriver la loi du temps passe
dans R
+
par un mouvement brownien.
Theor`eme 42. (Loi de larcsinus de Levy) Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P).
Pour t 0, on note
A
t
=

t
0
1
R
+
(B
s
)ds.
61
On a alors pour x t:
P(A
t
x) =
2

arcsin

x
t
Preuve.
Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On note T
1
son temps datteinte de 1 et
Z
1
son premier zero non nul. Rappelons, comme nous lavons vu dans un exercice de la section
1 que
Z
1
=
loi
T
1
+ 1.
On note
A
n
= Card{1 i n, max (S
i1
,S
i
) > 0},
qui correspond au temps passe dans R
+
avant linstant n par (S
n
)
nN
.
On va montrer par recurrence sur n que pour 0 k n,
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
Tout dabord,
P(A
2n
= 0) = P(T
1
2n + 1) = P(Z
1
2n + 2) = P(S
1
= 0,...,S
2n
= 0) .
Mais comme nous lavons vu dans la demonstration de la Proposition 9:
P(S
1
= 0,...,S
2n
= 0) = P(S
2n
= 0) .
Par consequent,
P(A
2n
= 0) = P(S
2n
= 0) .
On montre de meme que
P(A
2n
= 2n) = P(S
2n
= 0) .
Ce qui initialise la recurrence.
Pour 1 k n 1,
{A
2n
= 2k} {Z
1
2k}
ainsi:
P(A
2n
= 2k) =
k

i=1
P(A
2n
= 2k | Z
1
= 2i) P(Z
1
= 2i)
=
1
2
k

i=1
P(Z
1
= 2i) (P(A
2n2i
= 2k) +P(A
2n2i
= 2k 2i)) ,
cela nous donne, gr ace `a lhypoth`ese de recurrence,
P(A
2n
= 2k)
=
1
2

k
i=1
P(Z
1
= 2i) (P(S
2k
= 0) P(S
2n2k2i
= 0) +P(S
2k2i
= 0) P(S
2n2k
= 0))
mais maintenant, gr ace `a la propriete de Markov
k

i=1
P(Z
1
= 2i) P(S
2k2i
= 0) =
k

i=1
P(Z
1
= 2i) P(S
2k
= 0 | Z
1
= 2i)
= P(S
2k
= 0)
De meme,
k

i=1
P(Z
1
= 2i) P(S
2n2k2i
= 0) = P(S
2n2k
= 0) .
62
Ainsi
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
ce qui ach`eve la recurrence.
Par consequent pour 0 k n,
P(A
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0) =
1
2
n
(2n 2k)!
(n k)!
2
(2k)!
(k)!
2
Avec laide de la formule de Stirling on peut alors en deduire (faites la justication !) que pour
x [0,1]:
P

A
2n
2n
x

n+
1

[nx]

k=0
1

k (n k)
Etant donne que

x
0
du

u(1 u)
=
2

arcsin

x
nous avons donc pour tout x [0,1]:
lim
n+
P

A
2n
2n
x

=
2

arcsin

x.
Considerons maintenant la suite de Donsker:
S
n
t
=

t
k
n

S
k+1
+

k + 1
n
t

S
k

,
k
n
t
k + 1
n
.
Il est facile de voir que

1
0
1
R
+
(S
n
t
)dt =
A
2n
2n
.
Le theor`eme de Donsker implique la convergence en loi de

1
0
1
R
+
(S
n
t
)dt vers

1
0
1
R
+
(B
s
)ds. Par
consequent
P(A
1
x) =
2

arcsin

x.
Et la loi de A
t
est deduite de celle de A
1
par la propriete dautosimilarite du mouvement
brownien.

Exercice 43.
(1) Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. On note toujours
A
n
= Card{1 i n, max (S
i1
,S
i
) > 0}
(a) Montrer que pour 0 < x,y < 1
+

n=0
n

k=0
P(A
2n
= 2k,S
2n
= 0) x
2k
y
2n
=
2

1 y
2
+

1 x
2
y
2
(b) En deduire que, conditionnellement ` a S
2n
= 0, A
2n
est uniformement distribuee sur
lensemble 0,2,4,...,2n.
63
(2) Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). En utilisant le theor`eme de
Donsker, montrer que conditionnellement ` a B
1
= 0, la variable aleatoire

1
0
1
R
+
(B
s
)ds,
est uniformement distribuee sur lintervalle [0,1].
Exercice 44. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Le but de lexercice
est de calculer la loi de
g
1
= sup{t [0,1],B
t
= 0}.
(1) Soit (S
n
)
nN
une marche aleatoire symetrique sur Z. Pour n N, on note
d
n
= max{1 k n,S
k
= 0}.
Montrer que pour 0 k n
P(d
2n
= 2k) = P(S
2k
= 0) P(S
2n2k
= 0)
(2) En deduire que pour x [0,1]
lim
n+
P

d
n
n
x

=
2

arcsin

x.
(3) Gr ace au principe de Donsker, en deduire la loi de g
1
.
5. Loi du logarithme itere
Nous avons vu que les trajectoires dun mouvement brownien sont presque s urement localement
-Holder pour tout

0,
1
2

. La proposition suivante connue sous le nom de loi du logarithme


itere aide `a visualiser un peu les trajectoires browniennes et montre en particulier que les tra-
jectoires ne sont pas
1
2
-Holder.
Theor`eme 45. (Loi du logarithme itere)
Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Pour tout s 0,
P

lim inf
t0
B
t+s
B
s

2t ln ln
1
t
= 1 , limsup
t0
B
t+s
B
s

2t ln ln
1
t
= 1

= 1.
Preuve.
Gr ace aux proprietes de symetrie et dinvariance par translation du mouvement brownien, il
sut en fait de demontrer que:
P

limsup
t0
B
t

2t ln ln
1
t
= 1

= 1.
Dans un premier temps, montrons que
P

limsup
t0
B
t

2t ln ln
1
t
1

= 1.
Pour simplier les notations, on note
h(t) =

2t ln ln
1
t
.
64
Soit , > 0, dapr`es linegalite maximale de Doob appliquee `a la martingale

e
Bt

2
2
t

t0
,
on a pour tout t 0:
P

sup
0st

B
s

2
s

>

= P

sup
0st
e
Bs

2
2
s
> e

.
Soit maintenant , (0,1). En appliquant linegalite precedente pour tout n N avec
t =
n
, =
(1 +)h(
n
)

n
, =
1
2
h(
n
),
on obtient, quand n +,
P

sup
0s
n

B
s

(1 +)h(
n
)
2
n
s

>
1
2
h(
n
)

= O

1
n
1+

.
Par consequent, dapr`es le lemme de Borel-Cantelli, pour presque tout , on peut trouver
N() N tel que pour tout n N(),
sup
0s
n

B
s
()
(1 +)h(
n
)
2
n
s

1
2
h(
n
).
Mais
sup
0s
n

B
s
()
(1 +)h(
n
)
2
n
s

1
2
h(
n
)
implique que pour
n+1
< t
n
,
B
t
() sup
0s
n
B
s
()
1
2
(2 +)h(
n
)
(2 +)h(t)
2

.
On en deduit ainsi
P

limsup
t0
B
t

2t ln ln
1
t

2 +
2

= 1.
En faisant 1 et 0, on obtient bien
P

limsup
t0
B
t

2t ln ln
1
t
1

= 1.
Montrons maintenant que
P

limsup
t0
B
t

2t ln ln
1
t
1

= 1.
Soit (0,1). Pour n N, on note
A
n
=

,B

n() B

n+1() (1

)h(
n
)

.
On va montrer que

P(A
n
) = +.
Pour cela, on utilise linegalite elementaire (justiez la !):

+
a
e

u
2
2
du
a
1 +a
2
e

a
2
2
, a > 0.
65
On a ainsi:
P(A
n
) =
1

+
an
e

u
2
2
du
a
n
1 +a
2
n
e

a
2
n
2
,
avec
a
n
=
(1

)h(
n
)

n/2

1
.
Au voisinage de +,
a
n
1 +a
2
n
e

a
2
n
2
= O

1
n
1+2

.
Par consequent,

P(A
n
) = +.
Dapr`es le lemme de Borel-Cantelli, avec probabilite 1,
B

n B

n+1 (1

)h(
n
)
se produit pour une innite de n. Mais dapr`es la premi`ere partie de la demonstration, pour
presque tout , on peut trouver N() tel que pour n N()
B

n+1 > 2h(


n+1
) 2

h(
n
).
Par consequent, avec probabilite 1,
B

n > h(
n
)(1 5

)
se produit pour une innite de n. Cela implique
P

limsup
t0
B
t

2t ln ln
1
t
1 5

= 1.
On obtient alors
P

limsup
t0
B
t

2t ln ln
1
t
1

= 1.
en faisant 0.
Par la propriete dinvariance par inversion du temps du mouvement brownien, on a:
Corollaire 46. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P).
P

lim inf
t+
B
t

2t ln ln t
= 1 , lim sup
t+
B
t

2t ln ln t
= 1

= 1.
6. Propriete de Markov forte
Dans ce paragraphe, nous allons donner quelques applications de la propriete de Markov dite
forte du mouvement brownien. Un processus est dit Markov fort, sil verie la propriete de
Markov egalement par rapport `a des temps darret, plus precisement:
Denition 47. Soient (,(F
t
)
t0
,F,P) un espace de probabilite ltre et (X
t
)
t0
un processus
adapte ` a la ltration (F
t
)
t0
. On dit que (X
t
)
t0
est un processus de Markov fort de fonction de
transition {P
t
,t 0} relativement ` a la ltration (F
t
)
t0
si pour toute fonction borelienne bornee
f : R R, et pour tout temps darret ni S de la ltration (F
t
)
t0
:
E(f(X
S+t
) | F
S
) = (P
t
f)(X
S
), t > 0.
66
Un processus de Markov fort est evidemment un processus de Markov. Comme nous allons le
montrer, un exemple de processus de Markov fort est le mouvement brownien.
Proposition 48. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit maintenant
T un temps darret ni de la ltration (F
t
)
t0
. Alors le processus,
(B
T+t
B
T
)
t0
est un mouvement brownien independant de la tribu F
T
.
Preuve.
Soit T un temps darret ni de la ltration (F
t
)
t0
. Pour t 0, on note

B
t
= B
T+t
B
T
Soient R, 0 s t et N 1. En appliquant le theor`eme darret de Doob `a la martingale

e
iBt+

2
2
t

t0
,
avec les temps sarret t +T N et s +T N, on obtient:
E

e
iB
TN+t
+

2
2
(TN+t)
| F
TN+s

= e
iB
TN+s
+

2
2
(TN+s)
,
do` u
E

e
i(B
TN+t
B
TN+s
)
| F
TN+s

= e

2
2
(ts)
.
Par le theor`eme de convergence dominee, quand N +, on obtient:
E

e
i(

Bt

Bs)
| F
T+s

= e

2
2
(ts)
.
Le processus (

B
t
)
t0
est par consequent `a accroissements independants et stationnaires. Il est
dautre part evidemment continu. Donc (

B
t
)
t0
est un processus de Levy continu. La relation
E

e
i(

Bt

Bs)

= e

2
2
(ts)
,
implique que cest un mouvement brownien.

Comme corollaire, nous en deduisons:


Corollaire 49. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Alors (B
t
)
t0
verie
la propriete de Markov forte relativement ` a la ltration (F
t
)
t0
.
Preuve.
Soient f : R R une fonction borelienne bornee, t 0 et S un temps darret ni. On a:
E(f(B
t+S
) | F
S
) = E(f(B
t+S
B
S
+B
S
) | F
S
).
Comme B
t+S
B
S
est independant de F
S
, on en deduit tout dabord que
E(f(B
t+S
) | F
S
) = E(f(B
t+S
) | B
S
).
Pour x R,
E(f(B
t+S
) | B
S
= x) = E(f(B
t+S
B
S
+B
S
) | B
S
= x) = E(f(X
t
+x)),
67
o` u X
t
est une variable aleatoire independante de B
S
telle que X
t
=
loi
N(0,t). Par consequent,
E(f(B
t+S
) | B
S
= x) =

R
f(x +y)
e

y
2
2t

2t
dy
et
E(f(B
t+S
) | F
S
) =

R
f(B
S
+y)
e

y
2
2t

2t
dy.

La propriete de Markov forte permet de deduire plusieurs resultats interessants.


Dans ce qui suit, pour a R, on note
T
a
= inf{t > 0,B
t
= a},
o` u (B
t
)
t0
est un mouvement brownien sur (,(F
t
)
t0
,F,P).
Dans un premier temps, on a un principe de reexion analogue `a celui des marches aleatoires.
Proposition 50. (Principe de reexion)
Soit a R. Le processus

B
t
= B
t
, t < T
a
= 2a B
t
, t T
a
,
est un mouvement brownien.
Preuve.
Exercice.

Proposition 51. Pour t 0, on note


S
t
= sup{B
s
,s t}.
Alors, pour t 0, a 0, x a,
P(S
t
da,B
t
dx) =
2(2a x)

2t
3
e

(2ax)
2
2t
dadx.
Preuve.
Exercice.

Proposition 52. On a
(S
t
B
t
)
t0
=
loi
(| B
t
|)
t0
.
Dautre part, (| B
t
|)
t0
est un processus de Markov fort de fonction de transition:
(P
t
f)(x) =
2

2t

+
0
e

x
2
+y
2
2t
cosh

xy
t

f(y)dy, t > 0.
Preuve.
Exercice.

68
7. Diffusions
Letude des martingales browniennes nous a montre que le mouvement brownien etait, dans un
certain sens, relie `a lequation de la chaleur:
f
t
=
1
2

2
f
x
2
.
Dans ce paragraphe, nous allons preciser un plus ce lien, en introduisant la notion de diusion.
Exercice 53. Soit {P
t
,t 0} une fonction de transition de Feller-Dynkin. Montrer que si
f : R R est une fonction C

` a support compact, alors


lim
t0
P
t
f f

= 0.
Exercice 54. Soit {P
t
,t 0} la fonction de transition du mouvement brownien.
(1) Soit f : R R une fonction C

` a support compact. Montrer que pour tout x R,


lim
t0
(P
t
f)(x) f(x)
t
=
1
2
f

(x).
(2) Soit f : R R une fonction C

` a support compact. Montrer, en fait que,


lim
t0

P
t
f f
t

1
2
f

= 0.
(3) Montrer que si f : R R est une fonction polynomiale alors pour tout x R
(P
t
f)(x) =
+

k=0
1
2
k
k!
t
k
f
(2k)
(x).
Dans la suite on notera C

c
(R,R), lespace des fonctions R R, C

`a support compact et
on rappelle que C
0
(R,R) denote lensemble des applications continues f : R R telles que
lim

f = lim
+
f = 0.
On rappelle egalement que C(R
+
,R) est lespace des fonctions continues R
+
R. Le processus
des coordonnees sur cet espace est note comme dhabitude (
t
)
t0
et on note enn:
G
t
= (
s
,0 s t), t 0,
G

= (
s
,s 0).
Denition 55. Soit {P
t
,t 0} une fonction de transition. On dit que {P
t
,t 0} est une
fonction de transition de diusion si:
(1) La fonction de transition {P
t
,t 0} est de Feller-Dynkin;
(2) Pour tout f C

c
(R,R), il existe g C
0
(R,R) telle que:
lim
t0

P
t
f f
t
g

.
(3) Pour toute mesure de probabilite sur R, on peut trouver une probabilite P

sur G

telle
que :
(a) Sous P

,
0
=
loi
;
(b) Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G

,P

), (
t
)
t0
est un processus
de Markov de fonction de transition {P
t
,t 0} relativement ` a la ltration (G
t
)
t0
.
Dans (2) le g qui est associe au f est unique et on notera g = Lf. Loperateur L : C

c
(R,R)
C
0
(R,R) sappelle le generateur innitesimal de la fonction de transition {P
t
,t 0}.
69
Denition 56. Soit (X
t
)
t0
un processus continu deni sur un espace de probabilite ltre
(,(F
t
)
t0
,F,P). On dit que (X
t
)
t0
est un processus de diusion par rapport ` a la ltration
(F
t
)
t0
si cest un processus de Markov dont la fonction de transition est une fonction de tran-
sition de diusion. Le generateur innitesimal de cette fonction de transition est encore appele
le generateur innitesimal de la diusion.
Exercice 57. Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Pour R, montrer
que le processus (B
t
+t)
t0
est un processus de diusion de generateur innitesimal:
L =
d
dx
+
1
2
d
2
dx
2
.
Exercice 58. (Processus dOrnstein-Uhlenbeck)
Soit (B
t
)
t0
un mouvement brownien sur (,(F
t
)
t0
,F,P). Soit R\{0}. On consid`ere le
processus
X
t
= e
t
B
1e
2t
2
.
(1) Montrer que (X
t
)
t0
est un processus gaussien dont on calculera la fonction moyenne et
la fonction de covariance.
(2) Montrer que (X
t
)
t0
est un processus de Markov de fonction de transition donnee par:
(P
t
f)(x) =

R
f

e
t
x +

e
2t
1
2
y

y
2
2

2
dy.
(3) Montrer que (X
t
)
t0
est une diusion de generateur innitesimal
L = x
d
dx
+
1
2
d
2
dx
2
.
Exercice 59. Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et de
generateur innitesimal L. Montrer que si f C

c
(R,R) est une fonction telle que
Lf = f, R,
alors pour tout x R
(P
t
f)(x) =
+

k=0
1
2
k
k!
t
k
(L
k
f)(x) = e
1
2
t
f(x).
On peut construire toute une famille de martingales associees `a un processus de diusion:
Proposition 60. Soit (X
t
)
t0
un processus de diusion deni sur un espace de probabilite
ltre (,(F
t
)
t0
,F,P) de fonction de transition {P
t
,t 0} et de generateur innitesimal L. Soit
f C

c
(R,R). Alors, le processus

f(X
t
)

t
0
(Lf)(X
s
)ds

t0
est une martingale relativement ` a la ltration (F
t
)
t0
.
Preuve.
Remarquons tout dabord, dapr`es lexercice 53, que pour f C

c
(R,R) et t 0,
lim
0
P
t+
f P
t
f

= P
t

lim
0
P

f f

= P
t
Lf.
70
Il sen suit que pour f C

c
(R,R) et t 0,
P
t
f = f +

t
0
P
u
Lfdu.
Soient maintenant f C

c
(R,R) et t s 0, on a:
E(f(X
t
) | F
s
) = (P
ts
f)(X
s
)
= f(X
s
) +

ts
0
(P
u
Lf)(X
s
)du
= f(X
s
) +

t
s
(P
us
Lf)(X
s
)du
= f(X
s
) +

t
s
E((Lf)(X
u
) | F
s
)
= f(X
s
) +E

t
s
(Lf)(X
u
)du | F
s

.
Ce qui conclut la demonstration.

Le joli theor`eme suivant d u `a Dynkin nous dit quun generateur innitesimal de diusion est
necessairement un operateur dierentiel elliptique du second ordre:
Theor`eme 61. (Dynkin) Soit (X
t
)
t0
un processus de diusion de generateur innitesimal L
deni sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). On peut trouver des fonctions continues
b : R R et : R [0, +) telles que:
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Preuve.
Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et de generateur
innitesimal L deni sur un espace de probabilite ltre (,(F
t
)
t0
,F,P). Montrons tout dabord
que L verie les proprietes suivantes:
(1) L : C

c
(R,R) C
0
(R
+
,R) est un operateur lineaire;
(2) L est un operateur local, i.e. si f,g C

c
(R,R) coincident sur un voisinage de x R,
alors (Lf)(x) = (Lg)(x);
(3) L verie le principe du maximum: Si f C

c
(R,R) atteint son maximum en x R avec
f(x) 0, alors (Lf)(x) 0.
La propriete (1) est claire et decoule de la linearite de P
t
.
Soient maintenant f,g C

c
(R,R) qui coincident sur un voisinage de x R. On a
(P
t
f)(x) = E
x
(f(
t
)),
o` u E
x
designe lesperance sous la probabilite P
x
telle que:
Sous P
x
,
0
=
loi

x
(distribution de Dirac en x);
Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G

,P

), (
t
)
t0
est un processus de
Markov de fonction de transition {P
t
,t 0} relativement `a la ltration (G
t
)
t0
.
De meme,
(P
t
g)(x) = E
x
(g(
t
)).
Comme (
t
)
t0
est continu, on en deduit lexistence dun temps darret T tel que T > 0, P
x
p.s.
et
f(
t
) = g(
t
), t < T.
71
Ce qui implique
lim
t0
E
x
(f(
t
)) E
x
(g(
t
))
t
= lim
t0
E
x
(f(1
t<T

t
)) E
x
(g(1
t<T

t
))
t
= 0.
Comme dun autre cote, on a
lim
t0
E
x
(f(
t
)) E
x
(g(
t
))
t
= (Lf)(x) (Lg)(x),
on en deduit que
(Lf)(x) = (Lg)(x).
La propriete (2) est donc bien satisfaite.
Montrons que la propriete (3) lest egalement. Soit f C

c
(R,R) qui atteint son maximum en
x R avec f(x) 0.
Soit encore P
x
la probabilite sur G

telle que:
Sous P
x
,
0
=
loi

x
(distribution de Dirac en x);
Sur lespace de probabilite ltre (C(R
+
,R),(G
t
)
t0
,G

,P

), (
t
)
t0
est un processus de
Markov de fonction de transition {P
t
,t 0} relativement `a la ltration (G
t
)
t0
.
Dapr`es la proposition precedente, sous cette probabilite P
x
, le processus

f(
t
)

t
0
(Lf)(
s
)ds

t0
est une martingale relativement `a la ltration (G
t
)
t0
. Par consequent, pour tout t 0,
E
x
(f(
t
)) = f(x) +

t
0
E
x
((Lf)(
u
))du.
Comme pour tout t 0,
E
x
(f(
t
)) f(x),
on en deduit que pour t 0
1
t

t
0
E
x
((Lf)(
u
))du 0.
A la limite t 0, on recup`ere:
(Lf)(x) 0.
En conclusion, les proprietes (1), (2) et (3) sont bien satisfaites.
On veut maintenant demontrer que L est un operateur dierentiel elliptique du second ordre.
Soit x R.
Soit
0
une fonction C

`a support compact telle que dans un voisinage de x,


(y) = 1.
De P
t
1 = 1, il est facile de voir, en utilisant la propriete doperateur local de L que:
(L
0
)(x) = 0.
Soit maintenant
1
une fonction C

`a support compact telle que dans un voisinage de x,

1
(y) = y x.
On pose alors
b(x) = (L
1
)(x).
La fonction
2
1
atteint un minimum local en x, par consequent
(L
2
1
)(x) 0,
72
et on pose alors

2
(x) = (L
2
1
)(x).
Les fonctions b et sont bien denies et continues (justiez le !).
Montrons maintenant que pour tout f C

c
(R,R),
(Lf)(x) = b(x)f

(x) +
1
2
(x)
2
f

(x).
Soit donc f C

c
(R,R). Dapr`es la formule de Taylor, au voisinage de x, on peut ecrire
f(y) = f(x)
0
(y) +f

(x)
1
(y) +
1
2
f

(x)
2
1
(y) +R(y)
3
1
(y)
o` u R est continue.
On en deduit donc
(Lf)(x) = f(x)(L
0
)(x) +f

(x)(L
1
)(x) +
1
2
f

(x)(L
2
1
)(x) + (LR
3
1
)(x).
Pour conclure notre demonstration, il reste donc `a verier que
(LR
3
1
)(x) = 0.
Pour > 0 assez petit,
y R(y)
3
1
(y) (y x)
2
a un maximum local en x, do` u
(LR
3
1
)(x)
2
(x).
On en deduit
(LR
3
1
)(x) 0.
De meme, en considerant
y R(y)
3
1
(y) +(y x)
2
,
on montre que
(LR
3
1
)(x) 0.
Ce qui montre bien
(LR
3
1
)(x) = 0.

Les processus de diusion permettent de resoudre des equations aux derivees partielles:
Proposition 62. Soit (X
t
)
t0
un processus de diusion de fonction de transition {P
t
,t 0} et
de generateur innitesimal
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Soit f C

c
(R,R). Alors, la fonction:
g : (0, +) R R, (t,x) (P
t
f)(x),
est solution du probl`eme parabolique suivant:
g
t
= b(x)
g
x
+
1
2

2
(x)

2
g
x
2
, x R, lim
t0
g(t,x) = f(x).
73
Preuve.
Exercice.
.
Ainsi, si on a en tete des applications en theorie des equations aux derivees partielles, il est
important de savoir comment construire des processus de diusion. Le calcul dIto presente au
chapitre suivant sav`erera un outil tr`es puissant facile `a etendre en dimension plus grande que 1.
En attendant, on a le theor`eme remarquable suivant, que demontrerons plus tard et qui r`egle le
probl`eme de lexistence des diusions en dimension 1, sous des hypoth`eses relativement faibles:
Theor`eme 63. Soient b : R R et : R (0, +) deux fonctions continues.
Soit
s(x) =

x
0
exp

y
0
| b(z) |
(z)
2
dz

dy, x R.
Soit maintenant (B
t
)
t0
un mouvement brownien.
Pour u 0, on note
A
u
=

u
0
ds
s

(B
s
)
2
(B
s
)
=

u
0
exp

Bs
0
|b(z)|
(z)
2
dz

2
(B
s
)
ds,
Alors le processus

s
1

B
inf{u,Au>t}

t0
est une diusion de generateur innitesimal
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
Ce quil y a de remarquable dans ce theor`eme, cest quainsi toutes les diusions unidimension-
nelles peuvent etre construite `a partir du seul mouvement brownien.
8. Un invite de marque: Paul Levy
Born: 15 Sept 1886 in Paris, France
Died: 15 Dec 1971 in Paris, France
Paul Levy was born into a family containing several mathematicians. His grandfather was a
professor of mathematics while Pauls father, Lucien Levy, was an examiner with the

Ecole
Polytechnique and wrote papers on geometry. Paul attended the Lycee Saint Louis in Paris
and he achieved outstanding success winning prizes not only in mathematics but also in Greek,
chemistry and physics. He was placed rst for entry to the

Ecole Normale Superieur and second
for entry to the

Ecole Polytechnique in the Concours dentree for the two institutions.
He chose to attend the

Ecole Polytechnique and he while still an undergraduate there published
his rst paper on semiconvergent series in 1905. After graduating in rst place, L vy took a year
doing military service before entering the

Ecole des Mines in 1907. While he studied at the

Ecole des Mines he also attended courses at the Sorbonne given by Darboux and Emile Picard.
In addition he attended lectures at the Coll`ege de France by Georges Humbert and Hadamard.
It was Hadamard who was the major inuence in determining the topics on which Levy would
undertake research. Finishing his studies at the

Ecole des Mines in 1910 he began research
in functional analysis. His thesis on this topic was examined by Emile Picard, Poincare and
Hadamard in 1911 and he received his Docteur `es Sciences in 1912.
Levy became professor

Ecole des Mines in Paris in 1913, then professor of analysis at the

Ecole Polytechnique in Paris in 1920 where he remained until he retired in 1959. During World
War I Levy served in the artillery and was involved in using his mathematical skills in solving
74
problems concerning defence against attacks from the air. A young mathematician R Gateaux
was killed near the beginning of the war and Hadamard asked Levy to prepare Gateauxs work
for publication. He did this but he did not stop at writing up Gateauxs results, rather he took
Gateauxs ideas and developed them further publishing the material after the war had ended in
1919.
As we indicated above Levy rst worked on functional analysis:
... done in the spirit of Volterra. This involved extending the calculus of functions of a real
variable to spaces where the points are curves, surfaces, sequences or functions.
In 1919 Levy was asked to give three lectures at the

Ecole Polytechnique on:
... notions of calculus of probabilities and the role of Gaussian law in the theory of errors.
Taylor writes:
At that time there was no mathematical theory of probability - only a collection of small com-
putational problems. Now it is a fully-edged branch of mathematics using techniques from all
branches of modern analysis and making its own contribution of ideas, problems, results and use-
ful machinery to be applied elsewhere. If there is one person who has inuenced the establishment
and growth of probability theory more than any other, that person must be Paul Levy.
Lo`eve, one of his students, gives a very colorful description of Levys contributions:
Paul Levy was a painter in the probabilistic world. Like the very great painting geniuses, his
palette was his own and his paintings transmuted forever our vision of reality. ... His three main,
somewhat overlapping, periods were: the limit laws period, the great period of additive processes
and of martingales painted in pathtime colors, and the Brownian pathnder period.
Not only did Levy contribute to probability and functional analysis but he also worked on partial
dierential equations and series. In 1926 he extended Laplace transforms to broader function
classes. He undertook a large-scale work on generalized dierential equations in functional deri-
vatives. He also studied geometry.
His main books are Le cons danalyse fonctionnelle (1922), Calcul des probabilites (1925), Theorie
de laddition des variables aleatoires (1937-54), and Processus stochastiques et mouvement brow-
nien (1948).
Lo`eve sums up in these words:
He was a very modest man while believing fully in the power of rational thought. ... whenever
I pass by the Luxembourg gardens, I still see us there strolling, sitting in the sun on a bench; I
still hear him speaking carefully his thoughts. I have known a great man.
Article by: J J OConnor and E F Robertson,
75

O
1. Int egrale dIt o
1.1. Variation des trajectoires browniennes. Pour developper une theorie de lintegration
par rapport au mouvement brownien, la premi`ere idee est dessayer une approche trajectorielle,
cest-`a-dire dessayer de denir une integrale

u
s
dB
s
comme une limite presque s ure de sommes
de Riemann. La theorie classique de lintegration de Riemann-Stieljes nous dit quune telle
approche nest possible que si les trajectoires sont localement `a variation bornee
1
. On va tout
de suite montrer que cette approche trajectorielle nest pas possible.
Si

n
[0,t] = 0 = t
n
0
t
n
1
... t
n
n
= t
est une subdivision de lintervalle de temps [0,t], on note
[
n
[0,t] [= max[ t
n
k+1
t
n
k
[ ,k = 0,...,n 1,
le pas de cette subdivision.
Proposition 1. Soit (B
t
)
t0
un mouvement brownien deni sur un espace de probabilite ltre
(,(T
t
)
t0
,T,P). Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a au sens L
2
(et donc en probabilite):
lim
n+
n

k=1

B
t
n
k
B
t
n
k1

2
= t.
1. En fait il existe une theorie de lintegration due `a Young qui permet dintegrer contre des fonctions de
p-variation nie avec p < 2.
1
76
CHAPITRE 5: CALCUL DIT
En particulier les trajectoires browniennes sont presque s urement de variation innie sur tout
intervalle [0,t].
Preuve.
On note
V
n
=
n

k=1

B
t
n
k
B
t
n
k1

2
.
On a alors, par independance et stationnarite des accroissements browniens:
E

(V
n
t)
2

= E

V
2
n

2tE(V
n
) +t
2
=
n

j,k=1
E

B
t
n
j
B
t
n
j1

B
t
n
k
B
t
n
k1

t
2
=
n

k=1
E

B
t
n
j
B
t
n
j1

+ 2
n

1j<kn
E

B
t
n
j
B
t
n
j1

B
t
n
k
B
t
n
k1

t
2
=
n

k=1
(t
n
k
t
n
k1
)
2
E

B
4
1

+ 2
n

1j<kn
(t
n
j
t
n
j1
)(t
n
k
t
n
k1
) t
2
= 3
n

k=1
(t
n
j
t
n
j1
)
2
+ 2
n

1j<kn
(t
n
j
t
n
j1
)(t
n
k
t
n
k1
) t
2
= 2
n

k=1
(t
n
k
t
n
k1
)
2
2t [
n
[0,t] [
n+
0.
Montrons maintenant que cette convergence implique que les trajectoires de (B
t
)
t0
sont presque
s urement de variation innie sur lintervalle [0,t], cest-`a-dire, quon peut trouver une suite de
subdivisions
n
[0,t] telle que presque s urement
lim
n+
n

k=1
[ B
t
n
k
B
t
n
k1
[= +.
Raisonnons par labsurde en supposant que le sup sur toutes les subdivisions de [0,t] des sommes
lim
n+
n

k=1
[ B
t
n
k
B
t
n
k1
[
peut etre majore par un certain M > 0. Dapr`es ce qui prec`ede, on peut trouver une suite de
subdivisions
n
[0,t] dont le pas tend vers 0 et telle que, presque s urement,
lim
n+
n

k=1

B
t
n
k
B
t
n
k1

2
= t,
car de toute suite qui converge en probabilite, on peut extraire une sous-suite convergente. Mais
on a alors
n

k=1

B
t
n
k
B
t
n
k1

2
M sup
1kn
[ B
t
n
k
B
t
n
k1
[
n+
0,
ce qui est absurde.
77

Exercice 2. Soit (B
t
)
t0
un mouvement brownien deni sur un espace de probabilite ltre
(,(T
t
)
t0
,T,P).
(1) Montrer que pour tout t 0, presque s urement
lim
n+
2
n

k=1

Bkt
2
n
B(k1)t
2
n

2
= t.
(2)

Soit une suite de subdivisions
n
[0,t] dont le pas tend vers 0 et telle que
n+1
[0,t]

n
[0,t], montrer que presque s urement
lim
n+
n

k=1

B
t
n
k
B
t
n
k1

2
= t.
(3)

Montrer quil existe une suite de subdivisions
n
[0,t] telle que presque s urement
lim
n+
n

k=1

B
t
n
k
B
t
n
k1

2
= +.
Ainsi, dapr`es ce qui prec`ede on ne peut pas denir trajectoriellement une integrale contre le
mouvement brownien. Neanmoins, lexistence dune variation quadratique, encourage `a tenter
une approche L
2
qui va sav`erer fructueuse.
1.2. Integration contre le mouvement brownien. Dans ce qui suit nous considerons un
mouvement brownien (B
t
)
t0
deni sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui sa-
tisfait les conditions usuelles. Cette hypoth`ese de condition usuelle sur la ltration implique
notamment:
(1) Toute limite (presque s ure, au sens L
1
, etc...) de processus adaptes reste adaptee;
(2) Toute modication dun processus progressivement mesurable reste progressivement me-
surable;
(3) Toute sur-martingale est regularisable au sens de Doob.
On note L
2
(,(T
t
)
t0
,P) lensemble des processus (u
t
)
t0
progressivement mesurables par rap-
port `a la ltration (T
t
)
t0
et tels que
E

+
0
u
2
s
ds

< +.
Exercice 3. Montrer que L
2
(,(T
t
)
t0
,P) muni de la norme
|u|
2
= E

+
0
u
2
s
ds

est un espace de Hilbert.


On note maintenant c lensemble des processus (u
t
)
t0
qui peuvent etre ecrits sous la forme:
u
t
=
n1

i=0
F
i
1
(t
i
,t
i+1
]
(t),
avec 0 t
0
... t
n
et F
i
est une variable aleatoire T
t
i
mesurable telle que E(F
2
i
) < +.
Lensemble c sappelle lensemble des processus simples previsibles. Il est clair que
c L
2
(,(T
t
)
t0
,P).
78
Theor`eme 4. (Integrale dIto)
Il existe une unique application lineaire
1 : L
2
(,(T
t
)
t0
,P) L
2
(,T,P)
telle que:
(1) Pour u =

n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
1(u) =
n1

i=0
F
i
(B
t
i+1
B
t
i
);
(2) Pour u L
2
(,(T
t
)
t0
,P),
E

1(u)
2

= E

+
0
u
2
s
ds

.
Lapplication 1 sappelle lintegrale dIto contre le mouvement brownien et on note pour u
L
2
(,(T
t
)
t0
,P),
1(u) =

+
0
u
s
dB
s
.
Preuve.
Par le theor`eme de prolongement des isometries dans les espaces de Hilbert, il nous sut de
demontrer deux choses:
(1) Pour u =

n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
E

n1

i=0
F
i
(B
t
i+1
B
t
i
)

= E

+
0
u
2
s
ds

;
(2) c est dense dans L
2
(,(T
t
)
t0
,P) pour la norme:
|u|
2
= E

+
0
u
2
s
ds

.
Soit u =

n1
i=0
F
i
1
(t
i
,t
i+1
]
c. On a, par independance des accroissements du mouvement
brownien:
E

n1

i=0
F
i
(B
t
i+1
B
t
i
)

=E

n1

i,j=0
F
i
F
j
(B
t
i+1
B
t
i
)(B
t
j+1
B
t
j
)

=E

n1

i=0
F
2
i
(B
t
i+1
B
t
i
)
2

+ 2E


0i<jn1
F
i
F
j
(B
t
i+1
B
t
i
)(B
t
j+1
B
t
j
)

=E

n1

i=0
F
2
i
(t
i+1
t
i
)

=E

+
0
u
2
s
ds

.
79
Montrons maintenant que c est dense dans L
2
(,(T
t
)
t0
,P).
Nous procedons en plusieurs etapes.
Dans un premier temps, on remarque que le sous-ensemble des processus progressivement me-
surables et bornes est dense dans L
2
(,(T
t
)
t0
,P). En eet, si u L
2
(,(T
t
)
t0
,P), alors u peut
etre approxime par la suite de processus (u
t
1
[0,n]
([ u
t
[))
t0
.
Dans un deuxi`eme temps, on remarque que si u L
2
(,(T
t
)
t0
,P) est un processus borne, alors
u peut etre approxime par un processus de L
2
(,(T
t
)
t0
,P) borne et dont presque toutes les
trajectoires sont `a support inclus dans un meme compact (il sut maintenant de considerer la
suite de processus (u
t
1
[0,n]
(t)
t0
et de conclure par convergence dominee).
Dans un troisi`eme temps, on remarque que si u L
2
(,(T
t
)
t0
,P) est un processus borne dont
presque toutes les trajectoires sont `a support inclus dans un meme compact, alors u peut etre
approxime par un processus de L
2
(,(T
t
)
t0
,P) continu, borne et dont presque toutes les trajec-
toires sont aussi `a support inclus dans un meme compact. En eet la suite

1
n

t
t
1
n
u
s
ds1
[
1
n
,+)
(t)

t0
fait tout `a fait laaire (veriez-le !) .
Il sut donc nalement de demontrer que si u L
2
(,(T
t
)
t0
,P) est un processus borne, continu,
dont presque toutes les trajectoires sont `a support inclus dans un meme compact alors u peut
etre approche par un element de c. Pour demontrer cela, il sut de considerer la suite delements
de c:
u
n
t
=
+

i=0
u i
n
1
(
i
n
,
i+1
n
]
(t).

Exercice 5. Soit u,v L


2
(,(T
t
)
t0
,P), montrer que
E

+
0
u
s
dB
s

= 0
et
E

+
0
u
s
dB
s

+
0
v
s
dB
s

= E

+
0
u
s
v
s
ds

.
Le theor`eme precedent permet de construire un processus integrale dIto:
Proposition 6. Soit u L
2
(,(T
t
)
t0
,P) . Le processus

t
0
u
s
dB
s

t0
=

+
0
u
s
1
[0,t]
(s)dB
s

t0
est une martingale relativement `a la ltration (T
t
)
t0
qui admet une modication continue.
Preuve.
Demontrons tout dabord la propriete de martingale. Si
u
t
=
n1

i=0
F
i
1
(t
i
,t
i+1
]
(t)
80
est un element de c alors pour t s,
E

t
0
u
v
dB
v
[ T
s

= E

n1

i=0
F
i
(B
t
i+1
t
B
t
i
t
) [ T
s

=
n1

i=0
F
i
(B
t
i+1
s
B
t
i
s
)
=

s
0
u
v
dB
v
.
Ainsi si u c, le processus

t
0
u
s
dB
s

t0
=

+
0
u
s
1
[0,t]
(s)dB
s

t0
est une martingale relativement `a la ltration (T
t
)
t0
. Comme c est dense dans L
2
(,(T
t
)
t0
,P)
pour la norme:
|u|
2
= E

+
0
u
2
s
ds

,
et que lesperance conditionnelle est continue dans L
2
, nous en deduisons le resultat souhaite.
Demontrons maintenant lexistence dune version continue pour lintegrale stochastique. Si u
c, le resultat decoule facilement de la continuite des trajectoires browniennes. Soit maintenant
u L
2
(,(T
t
)
t0
,P). Considerons une suite u
n
de c qui converge vers u pour notre norme
habituelle. Dapr`es linegalite de Doob, pour m,n 0 et > 0,
P

sup
t0
[

t
0
(u
n
s
u
m
s
)dB
s
[

+
0
(u
n
s
u
m
s
)dB
s
[
2

2
=
E

+
0
(u
n
s
u
m
s
)
2
ds

2
.
Par consequent, il est possible de trouver une suite n
k
telle que
P

sup
t0
[

t
0
(u
n
k+1
s
u
n
k
s
)dB
s
[
1
2
k

1
2
k
.
Dapr`es le lemme de Borel-Cantelli, la suite de processus continu

t
0
u
n
k
s
dB
s

t0
converge alors
presque s urement uniformement vers le processus

t
0
u
s
dB
s

t0
. Do` u le resultat souhaite.

Comme corollaire immediat de ce theor`eme et des inegalites martingales de Doob, nous en


deduisons immediatement:
Proposition 7. Soit u L
2
(,(T
t
)
t0
,P). Alors:
(1) Pour tout > 0,
P

sup
t0
[

t
0
u
s
dB
s
[

+
0
u
2
s
ds

2
;
(2)
E

sup
t0
[

t
0
u
s
dB
s
[

4E

+
0
u
2
s
ds

.
81
Nous insistons sur le fait que lintegrale dIto nest pas trajectorielle, i.e. pour u L
2
(,(T
t
)
t0
,P),
les sommes de Riemann
n1

k=0
ukt
n

(B(k+1)t
n
Bkt
n

,
ne convergent en general pas presque s urement vers

t
0
u
s
dB
s
. Sous des hypoth`eses faibles, on a
neanmoins une convergence en probabilite:
Proposition 8. Soit u L
2
(,(T
t
)
t0
,P) un processus continu `a gauche. Soit t 0. Pour toute
suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1

k=0
u
t
n
k

B
t
n
k+1
B
t
n
k

t
0
u
s
dB
s
.
Preuve.
Exercice. On demontrera tout dabord, `a laide des inegalites de Doob precedentes que si u
n
est une suite de processus de L
2
(,(T
t
)
t0
,P) qui converge presque s urement vers 0 et telle que
u
n
u o` u u est un processus localement borne, alors

t
0
u
n
s
dB
s
converge vers 0 en probabilite.

Exercice 9.
(1) Montrer que pour t 0,

t
0
B
s
dB
s
=
1
2

B
2
t
t

.
Quest-ce qui vous surprend dans cette formule?
(2) Calculer la limite en probabilite quand n + de
n1

k=0
B(k+1)t
n

B(k+1)t
n
Bkt
n

.
1.3. Martingales de carre integrable et variations quadratiques. Soit un espace de pro-
babilite ltre (,(T
t
)
t0
,T,P) qui satisfait les conditions usuelles. Sur cet espace, une martingale
est dite de carre integrable si pour tout t 0, E

M
2
t

< +. Par exemple, si (B


t
)
t0
est un
mouvement brownien sur (,(T
t
)
t0
,T,P) et si (u
t
)
t0
est un processus progressivement mesu-
rable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0, E

t
0
u
2
s
ds

< + alors
M
t
=

t
0
u
s
dB
s
, t 0,
est une martingale de carre integrable.
Concernant les martingales de carre integrable, le theor`eme suivant est fondamental.
Theor`eme 10. Soit (M
t
)
t0
une martingale continue de carre integrable sur lespace de pro-
babilite (,(T
t
)
t0
,T,P) telle que M
0
= 0. Il existe un unique processus continu et croissant (et
donc `a variation bornee) note ('M`
t
)
t0
qui verie:
(1) 'M`
0
= 0;
(2) Le processus (M
2
t
'M`
t
)
t0
est une martingale.
82
Dautre part pour t 0 et pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n

k=1

M
t
n
k
M
t
n
k1

2
= 'M`
t
.
Le processus ('M`
t
)
t0
est appele le processus variation quadratique de (M
t
)
t0
.
Preuve.
Quitte `a considerer la suite de martingales (M
tT
n
)
t0
avec T
n
= inft 0, [ M
t
[> n, nous
supposerons que la martingale (M
t
)
t0
est bornee.
Nous allons tout dabord demontrer que si
n
[0,t] est une suite de subdivisions de [0,t] telle que
lim
n+
[
n
[0,t] [= 0,
alors la limite
lim
n+
n

k=1

M
t
n
k
M
t
n
k1

2
existe au sens L
2
et donc en probabilite.
Pour cela, introduisons quelques notations. Si [0,T] est une subdivision de lintervalle de temps
[0,T] et si (X
t
)
t0
est un processus, alors on note
S
[0,T]
t
(X) =
k1

i=0

X
t
i+1
X
t
i

+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Par un calcul elementaire desperances conditionnelles, il est facile
de voir que si (X
t
)
t0
est une martingale, alors le processus
X
2
t
S
[0,T]
t
(X), t T
est egalement une martingale. Enn, si [0,T] et

[0,T] sont deux subdivisions de lintervalle


de temps [0,T], on notera

[0,T] la subdivision obtenue en reunissant tous les points de


[0,T] et

[0,T].
Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
Montrons que la suite S

n
[0,T]
T
(M) est de Cauchy dans L
2
. Comme le processus S

n
[0,T]
(M)
S

p
[0,T]
(M) est une martingale (en tant que dierence de deux martingales), nous en deduisons
E

n
[0,T]
T
(M) S

p
[0,T]
T
(M)

=E

p
[0,T]
T
(S

n
[0,T]
(M) S

p
[0,T]
(M))

p
[0,T]
T
(S

n
[0,T]
(M))

+E

p
[0,T]
T
(S

p
[0,T]
(M))

.
Maintenant notons s
k
les points de la subdivision
n

p
[0,T] et pour s
k
xe, t
l
le point de

n
[0,T] le plus proche de s
k
tel que t
l
s
k
t
l+1
. On a
S

n
[0,T]
s
k+1
(M) S

n
[0,T]
s
k
(M) = (M
s
k+1
M
t
l
)
2
(M
s
k
M
t
l
)
2
= (M
s
k+1
M
s
k
)(M
s
k+1
+M
s
k
2M
t
l
).
83
Par consequent, en vertu de linegalite de Cauchy-Schwarz
E

p
[0,T]
T
(S

n
[0,T]
(M))

sup
k
(M
s
k+1
+M
s
k
2M
t
l
)
4

1/2
E

p
[0,T]
T
(M)

1/2
.
Comme M est continue, quand n,p +,
E

sup
k
(M
s
k+1
+M
s
k
2M
t
l
)
4

0.
Pour conclure il sut donc de demontrer que le terme E

p
[0,T]
T
(M)

est borne, ce
qui se verie sans trop de dicultes en utilisant le fait que M est supposee bornee.
Ainsi, la limite
'M`
t
= lim
n+
n

k=1

M
t
n
k
M
t
n
k1

2
existe au sens L
2
et donc en probabilite.
Voir que le processus (M
2
t
'M`
t
)
t0
est une martingale est aise puisque pour chaque n et
T 0, le processus
M
2
t
S

n
[0,T]
t
(M), t T
lest.
Montrons maintenant que 'M` est continu. Pour cela, remarquons que dapr`es linegalite de
Doob, pour n,p 0 et > 0,
P

sup
0tT

n
[0,T]
t
(M) S

p
[0,T]
t
(M)

>

n
[0,T]
T
(M) S

p
[0,T]
T
(M)

2
.
En utilisant le lemme de Borel-Cantelli il est donc possible de trouver une suite n
k
telle que la
suite de processus continus

n
k
[0,T]
t
(M)

0tT
converge presque s urement uniformement vers
le processus ('M`
t
)
0tT
, ce qui donne lexistence dune version continue.
Enn, pour montrer que 'M` est croissant, il sut de considerer une suite croissante de subdi-
visions dont le pas tend vers 0.
Verions maintenant lunicite de 'M`. Soient donc A et A

deux processus continus, croissants,


nuls en 0 et et tels que (M
2
t
A
t
)
t0
et (M
2
t
A

t
)
t0
sont des martingales. Le processus
(N
t
)
t0
= (A
t
A

t
)
t0
est alors une martingale `a variation bornee nulle en 0. Cela implique que
(N
t
)
t0
est identiquement nulle (Exercice !).

Exercice 11. Soit (M


t
)
t0
une martingale continue de carre integrable sur lespace de probabilite
(,(T
t
)
t0
,T,P) telle que M
0
= 0. Si [0,T] est une subdivision de lintervalle de temps [0,T] et
si (X
t
)
t0
est un processus, alors on note toujours
S
[0,T]
t
(X) =
k1

i=0

X
t
i+1
X
t
i

+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
84
Montrer quen probabilite,
lim
n+
sup
0tT
[ S
[0,T]
t
(M) 'M`
t
[= 0.
Ainsi, dans le theor`eme precedent, la convergence a en fait lieu uniformement sur tout intervalle
de temps compact.
Proposition 12. Si (B
t
)
t0
est un mouvement brownien sur (,(T
t
)
t0
,T,P) et si (u
t
)
t0
est
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0,
E

t
0
u
2
s
ds

< + alors pour t 0:


0
u
s
dB
s

t
=

t
0
u
2
s
ds.
Preuve.
Comme le processus

t
0
u
2
s
ds

t0
est continu, croissant et nul en 0, il sut donc de verier que

t
0
u
s
dB
s

t
0
u
2
s
ds
est une martingale. Pour u c, processus simple, et t s, il est facile de voir que:
E

t
0
u
v
dB
v

2
[ T
s

= E

s
0
u
v
dB
v
+

t
s
u
v
dB
v

2
[ T
s

= E

s
0
u
v
dB
v

2
[ T
s

+E

t
s
u
v
dB
v

2
[ T
s

= E

s
0
u
v
dB
v

2
[ T
s

+E

t
s
u
2
v
dv

,
et on conclut par densite.
Par polarisation, on obtient tout de suite:
Corollaire 13. Soient (M
t
)
t0
et (N
t
)
t0
deux martingales continues nulles en 0 de carre
integrable sur lespace de probabilite (,(T
t
)
t0
,T,P). Il existe un unique processus continu `a
variation bornee, note ('M,N`
t
)
t0
qui verie:
(1) 'M,N`
0
= 0;
(2) Le processus (M
t
N
t
'M,N`
t
)
t0
est une martingale.
Dautre part pour t 0 et pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n

k=1

M
t
n
k
M
t
n
k1

N
t
n
k
N
t
n
k1

= 'M,N`
t
.
Le processus ('M,N`
t
)
t0
est appele le processus de covariation quadratique de (M
t
)
t0
et (N
t
)
t0
.
85
1.4. Probl`eme :Integration contre les martingales de carre integrable. De la meme
facon quon a construit une integrale contre le mouvement brownien, nous pouvons construire
une integrale contre des martingales de carre integrable:
Probl`eme 14. (
`
A faire absolument !)
Soit (M
t
)
t0
une martingale continue de carre integrable sur lespace de probabilite (,(T
t
)
t0
,T,P)
telle que sup
t0
E

M
2
t

< + et M
0
= 0. On note L
2
M
(,(T
t
)
t0
,P) lensemble des processus
(u
t
)
t0
progressivement mesurables par rapport `a la ltration (T
t
)
t0
et tels que
E

+
0
u
2
s
d'M`
s

< +.
On note toujours c lensemble des processus simples previsibles.
(1) On denit la relation { sur L
2
M
(,(T
t
)
t0
,P) de la facon suivante:
u{v E

+
0
(u
s
v
s
)
2
d'M`
s

= 0.
Montrer que { est une relation dequivalence.
(2) On note
L
2
M
(,(T
t
)
t0
,P) = L
2
M
(,(T
t
)
t0
,P)/{.
Montrer que L
2
M
(,(T
t
)
t0
,P) muni de la norme
|u|
2
= E

+
0
u
2
s
d'M`
s

,
est un espace de Hilbert.
(3) Montrer quil existe une unique application lineaire
1
M
: L
2
M
(,(T
t
)
t0
,P) L
2
(,T,P)
telle que:
Pour u =

n1
i=0
F
i
1
(t
i
,t
i+1
]
c,
1(u) =
n1

i=0
F
i
(M
t
i+1
M
t
i
);
Pour u L
2
M
(,(T
t
)
t0
,P),
E

1
M
(u)
2

= E

+
0
u
2
s
d'M`
s

.
Lapplication 1
M
sappelle lintegrale dIto contre la martingale (M
t
)
t0
et on note pour
u L
2
M
(,(T
t
)
t0
,P),
1
M
(u) =

+
0
u
s
dM
s
.
(4) Soit (u
t
)
t0
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0, E

t
0
u
2
s
d'M`
s

< + . Montrer que le processus

t
0
u
s
dM
s

t0
=

+
0
u
s
1
[0,t]
(s)dM
s

t0
est une martingale de care integrable relativement `a la ltration (T
t
)
t0
qui admet une
modication continue.
86
(5) Soit (u
t
)
t0
un processus progressivement mesurable par rapport `a la ltration (T
t
)
t0
tel que pour tout t 0, E

t
0
u
2
s
d'M`
s

< + . Montrer que


0
u
s
dM
s

t
=

t
0
u
2
s
d'M`
s
.
(6) Soit u L
2
M
(,(T
t
)
t0
,P) un processus continu `a gauche. Soit t 0. Montrer que pour
toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1

k=0
u
t
n
k

M
t
n
k+1
M
t
n
k

t
0
u
s
dM
s
.
(7) On suppose maintenant que M
t
=

t
0

s
dB
s
o` u (B
t
)
t0
est un mouvement brownien sur
(,(T
t
)
t0
,T,P) et L
2
(,(T
t
)
t0
,P). Montrer alors que pour u L
2
M
(,(T
t
)
t0
,P),

t
0
u
s
dM
s
=

t
0
u
s

s
dB
s
.
(8) Soient (M
t
)
t0
et (N
t
)
t0
deux martingales de carre integrable telles que pour tout t 0,
E

t
0
M
2
s
d'N`
s

< +, E

t
0
N
2
s
d'M`
s

< +.
Montrer que pour t 0,
M
t
N
t
= M
0
N
0
+

t
0
M
s
dN
s
+

t
0
N
s
dM
s
+'M,N`
t
.
1.5. Martingales locales, Semi-martingales et integrateurs. Dans ce paragraphe, nous
allons tout dabord etendre la classe des processus qui peuvent etre integres par rapport `a un
mouvement brownien. Lidee est dutiliser le procede fertile de localisation. Nous essayerons
ensuite de voir quelle est la classe la plus generale de processus continus par rapport auxquels
il est possible de denir une integrale stochastique naturelle. Cela nous conduira `a la notion de
semi-martingale.
Soit un mouvement brownien (B
t
)
t0
deni sur un espace de probabilite ltre (,(T
t
)
t0
,T,P)
qui satisfait les conditions usuelles.
Denition 15. On note L
2
loc
(,(T
t
)
t0
,P), lensemble des processus progressivement mesurables
par rapport `a la ltration (T
t
)
t0
et tels que pour tout t 0
P

t
0
u
2
s
ds < +

= 1.
On a le lemme suivant:
Lemme 16. Soit u L
2
loc
(,(T
t
)
t0
,P). Il existe une suite croissante de temps darret (T
n
)
n0
de la ltration (T
t
)
t0
telle que:
(1) Presque s urement,
lim
n+
T
n
= +;
(2)
E

T
n
0
u
2
s
ds

< +.
87
Preuve.
Exercice.

Grace `a ce lemme, on denit facilement



t
0
u
s
dB
s
pour u L
2
loc
(,(T
t
)
t0
,P). En eet soient
u L
2
loc
(,(T
t
)
t0
,P) et t 0. Soit maintenant une suite croissante de temps darret (T
n
)
n0
de la ltration (T
t
)
t0
telle que:
(1) Presque s urement,
lim
n+
T
n
= +;
(2)
E

T
n
0
u
2
s
ds

< +.
Comme
E

T
n
0
u
2
s
ds

< +,
lintegrale stochastique

T
n
0
u
s
dB
s
=

+
0
u
s
1
[0,T
n
]
(s)dB
s
existe. Cela permet donc de denir (de facon unique), un processus

t
0
u
s
dB
s

t0
tel que:
(1)

t
0
u
s
dB
s

t0
est un processus continu adapte `a la ltration (T
t
)
t0
;
(2) Le processus

tT
n
0
u
s
dB
s

t0
est une martingale uniformement integrable (car bornee dans L
2
) par rapport `a la l-
tration (T
t
)
t0
.
Cela nous conduit `a la denition suivante
Denition 17. Un processus (M
t
)
t0
est appele une martingale locale (par rapport `a la ltration
(T
t
)
t0
) sil existe une suite de temps darret (T
n
)
n0
telle que:
(1) La suite (T
n
)
n0
est croissante et lim
n+
T
n
= + p.s.;
(2) Pour tout n 1, the process (M
tT
n
)
t0
est une martingale uniformement integrable
relativement `a la ltration (T
t
)
t0
.
Ainsi, si u L
2
loc
(,(T
t
)
t0
,P) alors le processus

t
0
u
s
dB
s

t0
est une martingale locale conti-
nue nulle en 0.
88
Evidemment une martingale est toujours une martingale locale, mais attention la reciproque
est loin detre vraie, neamoins:
Exercice 18. Soit (M
t
)
t0
une martingale locale telle que pour tout t 0,
E

sup
st
[ M
s
[

< +.
Montrer que (M
t
)
t0
est une martingale. En particulier, les martingales locales bornees sont des
martingales.
Le lemme suivant permet detendre facilement les resultats que nous avons vus pour les martin-
gales de carre integrables.
Lemme 19. Soit (M
t
)
t0
une martingale locale continue sur lespace de probabilite (,(T
t
)
t0
,T,P)
telle que M
0
= 0. Alors pour tout n N, le processus (M
tT
n
)
t0
est une martingale bornee (et
donc de carre integrable !).
Preuve.
Soit (S
n
)
n0
une suite de temps darret telle que:
(1) La suite (S
n
)
n0
est croissante et lim
n+
S
n
= + p.s.;
(2) Pour tout n 1, the process (M
ts
n
)
t0
est une martingale uniformement integrable
relativement `a la ltration (T
t
)
t0
.
Pour t s et k,n 0, on a:
E(M
tS
k
T
n
[ T
s
) = M
sS
k
T
n
.
En passant `a la limite quand k +, on en deduit le resultat souhaite par continuite L
1
de
lesperance conditionnelle.

De ce petit lemme nous deduisons


Theor`eme 20. Soit (M
t
)
t0
une martingale locale continue sur lespace de probabilite (,(T
t
)
t0
,T,P)
telle que M
0
= 0. Alors, il existe un unique processus continu et croissant note ('M`
t
)
t0
qui
verie:
(1) 'M`
0
= 0;
(2) Le processus (M
2
t
'M`
t
)
t0
est une martingale locale.
Dautre part pour t 0 et pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n

k=1

M
t
n
k
M
t
n
k1

2
= 'M`
t
.
De plus si u est un processus progressivement mesurable tel que pour tout t 0,
P

t
0
u
2
s
d'M`
s
< +

= 1,
alors on peut denir un processus integrale dIto

t
0
u
s
dM
s

t0
qui est tel que

t
0
u
s
dM
s

t0
est une martingale locale continue.
Remarque 21. Par polarisation, on denit de facon immediate le processus de covariation
quadratique de deux martingales locales continues.
89
Nous en sommes maintenant presquau bout de la route de la theorie de lintegration stochas-
tique ! On remarque tout dabord que cela ne co ute rien dajouter un processus `a variation bornee
`a une martingale locale, cest `a dire que si un processus (X
t
)
t0
peut etre ecrit:
X
t
= X
0
+A
t
+M
t
o` u (A
t
)
t0
est un processus `a variation bornee et (M
t
)
t0
est une martingale locale continue sur
lespace de probabilite (,(T
t
)
t0
,T,P) telle que M
0
= 0, alors si u est un processus progressi-
vement mesurable tel que pour tout t 0,
P

t
0
u
2
s
d'M`
s
< +

= 1,
on peut denir un processus integrale dIto

t
0
u
s
dX
s

t0
=

t
0
u
s
dA
s
+

t
0
u
s
dM
s

t0
o` u

t
0
u
s
dA
s
est tout simplement une integrale de Riemann-Stieltjes.
Cela nous conduit `a la denition suivante:
Denition 22. Soit (X
t
)
t0
un processus adapte et continu sur lespace de probabilite ltre
(,(T
t
)
t0
,T,P). On dit que (X
t
)
t0
est une semi-martingale relativement `a la ltration (T
t
)
t0
si (X
t
)
t0
peut etre ecrit:
X
t
= X
0
+A
t
+M
t
o` u (A
t
)
t0
est un processus `a variation bornee et (M
t
)
t0
est une martingale locale continue nulle
en 0. Dans ce cas, la decomposition precedente est alors unique (Demandez-vous pourquoi !) et
on note ('X`
t
)
t0
la variation quadratique de la martingale locale (M
t
)
t0
.
Comme un processus `a variation bornee est de variation quadratique nulle, il est facile de
demontrer le theor`eme suivant:
Proposition 23. Soit
X
t
= X
0
+A
t
+M
t
une semi-martingale continue et adaptee. Pour t 0 et pour toute suite de subdivisions
n
[0,t]
telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n

k=1

X
t
n
k
X
t
n
k1

2
= 'M`
t
.
On note alors 'X` = 'M`.
Exercice 24. Soit (X
t
)
t0
une semi-martingale continue sur lespace de probabilite (,(T
t
)
t0
,T,P).
Si [0,T] est une subdivision de lintervalle de temps [0,T] alors on note
S
[0,T]
t
(X) =
k1

i=0

X
t
i+1
X
t
i

+ (X
t
X
t
k
)
2
,
o` u k est tel que t
k
t < t
k+1
. Soit
n
[0,T] une suite de subdivisions de [0,T] telle que
lim
n+
[
n
[0,T] [= 0.
Montrer quen probabilite,
lim
n+
sup
0tT
[ S
[0,T]
t
(X) 'X`
t
[= 0.
90
Exercice 25. Soit (X
t
)
t0
une semi-martingale continue sur lespace de probabilite (,(T
t
)
t0
,T,P).
Soit maintenant u
n
une suite de processus localement bornes adaptes convergeant simplement
vers 0 et telle que u
n
u o` u est un processus localement borne Montrer quen probabilite, pour
T 0,
lim
n+
sup
0tT
[

t
0
u
n
s
dX
s
[= 0.
Lintegrale stochastique par rapport `a une semi-martingale continue est egalement une limite en
probabilite de sommes de Riemann.
Proposition 26. Soit u un processus continu et adapte et (X
t
)
t0
une semi-martingale continue
adaptee. Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a en probabilite:
lim
n+
n1

k=0
u
t
n
k

X
t
n
k+1
X
t
n
k

t
0
u
s
dX
s
.
Comme le montre le puissant theor`eme structurel suivant, la classe des semi-martingales `a la-
quelle nous sommes nalement arrive apparat comme la classe la plus generale des processus
contre lesquels on a une integrale stochastique naturelle dun point de vue probabiliste.
Notons c
b
lensemble des processus (u
t
)
t0
qui peuvent etre ecrits sous la forme:
u
t
=
N

i=1
F
i
1
(S
i
,T
i
]
(t),
avec 0 S
1
T
1
... S
N
T
N
temps darret bornes et F
i
, variable aleatoire T
S
i
mesurable
et bornee. Si (X
t
)
t0
est un processus adapte et continu, alors on denit naturellement

t
0
u
s
dX
s
=
N

i=1
F
i
(X
T
i
t
X
S
i
t
).
Theor`eme 27. Soit (X
t
)
t0
un processus adapte et continu. Alors (X
t
)
t0
est une semi-
martingale si et seulement si pour toute suite u
n
de c
b
qui converge presque s urement uni-
formement vers 0, on a pour tout t 0 et > 0,
lim
n+
P

t
0
u
n
s
dX
s
[>

= 0.
2. Formule dIt o
La formule dIto est tr`es certainement la formule la plus importante et la plus utile du calcul
stochastique. Cest une formule tr`es simple dont la specicite par rapport au calcul dierentiel
ordinaire est lapparition dun terme de variation quadratique. Essayons tout dabord de com-
prendre dun point de vue intuitif quelle est la nature exacte de ce terme correctif et do` u il
provient. Pour cela, prenons une fonction f : R R susamment reguli`ere disons C

et
x : R R une fonction de classe C
1
. On a alors le petit calcul `a la physicienne suivant:
f(x
t+dt
) = f(x
t
+ (x
t+dt
x
t
))
= f(x
t
) +f

(x
t
)(x
t+dt
x
t
)
= f(x
t
) +f

(x
t
)dx
t
,
91
qui conduit `a une formule mathematique correcte:
f(x
t
) = f(x
0
) +

t
0
f

(x
s
)dx
s
.
Supposons maintenant quon veuille prendre pour x un mouvement brownien (B
t
)
t0
. Alors, la
premi`ere diculte `a laquelle on se heurte est la non-derivabilite des trajectoires browniennes:
Quel sens donner `a dB
t
? Eh bien en fait, il faut se rendre compte que tout le travail fait
precedemment pour la construction dune integrale par rapport au mouvement brownien revient
`a cela !! Du coup, reprenons le calcul `a la physicienne precedent `a partir de
f(B
t+dt
) = f(B
t
+ (B
t+dt
B
t
))
Mais maintenant dans le developpement limite de f il va falloir tenir compte du terme dordre
deux qui fait intervenir (dB
t
)
2
: ce terme ne plus etre neglige. En eet, puisque le mouvement
brownien a une variation quadratique egale `a t, on a envie decrire (dB
t
)
2
= dt ce qui donne le
calcul suivant:
f(B
t+dt
) = f(B
t
+ (B
t+dt
B
t
))
= f(B
t
) +f

(B
t
)(B
t+dt
B
t
) +
1
2
f

(B
t
)((B
t+dt
B
t
))
2
= f(B
t
) +f

(B
t
)dB
t
+
1
2
f

(B
t
)dt.
En notation integrale, on obtient par consequent
f(B
t
) = f(0) +

t
0
f

(B
s
)dB
s
+
1
2

t
0
f

(B
s
)ds,
formule qui nous le verrons est mathematiquement tout `a fait correcte.
Dans ce qui suit, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles. Notre point de depart pour etablir la formule dIto est la formule
dintegration par parties suivante:
Theor`eme 28. (Formule dintegration par parties) Soient (X
t
)
t0
et (Y
t
)
t0
deux semi-martingales
continues et adaptees, alors le processus (X
t
Y
t
)
t0
est une semi-martingale continue et on a:
X
t
Y
t
= X
0
Y
0
+

t
0
X
s
dY
s
+

t
0
Y
s
dX
s
+'X,Y `
t
.
Preuve.
Par polarisation, on peut se restreindre au cas o` u X = Y . Quitte `a considerer X X
0
, on
supposera egalement X
0
= 0.
Soit t 0. Pour toute suite de subdivisions
n
[0,t] telle que
lim
n+
[
n
[0,t] [= 0,
on a
n

k=1

X
t
n
k
X
t
n
k1

2
= X
2
t
2
n

k=1
X
t
n
k1

X
t
n
k
X
t
n
k1

.
En passant `a la limite en probabilite, on obtient donc
X
2
t
= 2

t
0
X
s
dX
s
+'X`
t
.
Ce qui est le resultat souhaite.

92
Nous en arrivons `a la formule dIto.
Theor`eme 29. (Formule dIto I) Soit (X
t
)
t0
une semi-martingale continue et adaptee et
f : R R une application de classe C
2
. On a:
(1) f(X
t
) = f(X
0
) +

t
0
f

(X
s
)dX
s
+
1
2

t
0
f

(X
s
)d'X`
s
.
Preuve.
Quitte `a localiser par les temps darret T
n
= inft 0,X
t
> n nous supposerons que X est
bornee.
Notons / lensemble des applications f de classe C
2
pour lesquelles la formule (1) est satisfaite.
Par linearite de la formule, il est clair que / est un espace vectoriel reel.
Montrons que cest egalement une alg`ebre, i.e. que / est stable par multiplication. Soient donc
f,g /. En utilisant la formule dintegration par parties pour f(X) et g(X), on obtient:
f(X
t
)g(X
t
) = f(X
0
)g(X
0
) +

t
0
f(X
s
)dg(X
s
) +

t
0
g(X
s
)df(X
s
) +'f(X),g(X)`
t
.
Calculons maintenant les dierents termes de la somme precedente. Comme f,g /, on a
facilement (veriez le proprement !):

t
0
f(X
s
)dg(X
s
) =

t
0
f(X
s
)g

(X
s
)dX
s
+
1
2

t
0
f(X
s
)g

(X
s
)d'X`
s

t
0
g(X
s
)df(X
s
) =

t
0
g(X
s
)f

(X
s
)dX
s
+
1
2

t
0
g(X
s
)f

(X
s
)d'X`
s
'f(X),g(X)`
t
=

t
0
f

(X
s
)g

(X
s
)d'X`
s
.
Par consequent,
f(X
t
)g(X
t
) =f(X
0
)g(X
0
) +

t
0
f(X
s
)g

(X
s
)dX
s
+

t
0
g(X
s
)f

(X
s
)dX
s
+
1
2

t
0
f(X
s
)g

(X
s
)d'X`
s
+

t
0
f

(X
s
)g

(X
s
)d'X`
s
+
1
2

t
0
g(X
s
)f

(X
s
)d'X`
s
=f(X
0
)g(X
0
) +

t
0
(fg)

(X
s
)dX
s
+
1
2

t
0
(fg)

(X
s
)d'X`
s
.
On en deduit que fg /. Par consequent / est bien une alg`ebre. Comme / contient la fonction
x x, on en deduit que / contient egalement toutes les fonctions polynomiales. Comme X
est supposee bornee, elle prend ses valeurs dans un compact. Mais maintenant, on sait tr`es
bien, quetant donnee une fonction de classe C
2
sur un compact, il est possible de trouver une
suite de fonctions polynomiales P
n
telle que P
n
converge uniformement vers f, P

n
converge
uniformement vers f

et P

n
converge uniformement vers f

. On peut alors conclure `a laide du


resultat demontre dans lexercice 25.

Ainsi en appliquant cette premi`ere formule dIto avec X un mouvement brownien B, on en arrive
`a la formule annoncee en preambule: Si f : R R est une application de classe C
2
,
f(B
t
) = f(0) +

t
0
f

(B
s
)dB
s
+
1
2

t
0
f

(B
s
)ds.
93
De la meme fa con, il est facile de deriver quelques generalisations de la formule precedente:
Theor`eme 30. (Formule dIto II) Soit (X
t
)
t0
une semi-martingale continue et adaptee, (A
t
)
t0
un processus adapte `a variation bornee et f : RR R une application de classe C
1,2
, i.e. une
fois continument dierentiable en la premi`ere variable t et deux fois continument dierentiable
en la seconde variable x. On a:
f(A
t
,X
t
) = f(A
0
,X
0
) +

t
0
f
t
(A
s
,X
s
)dA
s
+

t
0
f
x
(A
s
,X
s
)dX
s
+
1
2

t
0

2
f
x
2
(A
s
,X
s
)d'X`
s
.
Theor`eme 31. (Formule dIto II) Soient (X
1
t
)
t0
,...,(X
n
t
)
t0
n semi-martingales continues et
adaptees et f : R
n
R une application de classe C
2
. On a:
f(X
1
t
,...,X
n
t
) = f(X
1
0
,...,X
n
0
)+
n

i=1

t
0
f
x
i
(X
1
s
,...,X
n
s
)dX
i
s
+
1
2
n

i,j=1

t
0

2
f
x
i
x
j
(X
1
s
,...,X
n
s
)d'X
i
,X
j
`
s
.
Exercice 32. Soit f : R
+
R C une fonction de classe C
1,2
telle que
1
2

2
f
x
2
+
f
t
= 0.
Montrer que si (M
t
)
t0
est une martingale locale continue, alors (f('M`
t
,M
t
))
t0
en est egalement
une. En deduire que pour C, le processus exp(M
t

1
2

2
'M`
t
) est une martingale locale.
Exercice 33. Soit f : R
n
R
+
R une fonction de classe C
2
et (B
t
)
t0
= (B
1
t
,...,B
n
t
)
t0
un
mouvement brownien n-dimensionnel, i.e. B
1
t
,...,B
n
t
sont des mouvements browniens independants.
Montrer que
X
t
= f(t,B
t
)

t
0
1
2
f(s,B
s
) +
f
t
(s,B
s
)ds

est une martingale locale.


Exercice 34. On denit le polynome de Hermite dordre n par
H
n
(x) = (1)
n
e
x
2
2
d
n
dx
n
e

x
2
2
.
(1) Calculer H
0
,H
1
,H
2
,H
3
.
(2) Montrer que si (B
t
)
t0
est un mouvement brownien alors

t
n/2
H
n
(
B
t

t
)

t0
est une mar-
tingale.
(3) Montrer que
t
n/2
H
n
(
B
t

t
) = n!

t
0

t
1
0
...

t
n1
0
dB
s
1
...dB
s
n
.
Exercice 35. (Un theor`eme de P. Levy) Soit (M
t
)
t0
une martingale locale continue nulle en
0 et telle que pour tout t 0, 'M`
t
= t. Montrer que (M
t
)
t0
est un mouvement brownien.
3. Le th eor` eme de repr esentation dIt o
Dans ce qui suit, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) et on
suppose que (T
t
)
t0
est la ltration naturelle usuellement completee dun mouvement brownien
(B
t
)
t0
(une telle ltration est appelee une ltration brownienne).
94
On a alors le theor`eme suivant:
Theor`eme 36. (Theor`eme de representation dIto). Soit F L
2
(T

,P). Il existe un unique


processus (u
t
)
t0
progressivement mesurable tel que E

0
u
2
s
ds

< + et
F = E(F) +

+
0
u
s
dB
s
.
Preuve.
Soit T lensemble des fonctions etagees `a support compact R
+
R, i.e.
f =
n

i=1
a
i
1
[t
i1
,t
i
]
.
Pour f T, on note
c
t
(f) = exp

t
0
f(s)dB
s

1
2

t
0
f(s)
2
ds

.
`
A laide de la formule dIto, il est facile de verier que (c
t
(f))
t0
est une martingale.
Nous pretendons maintenant que la famille
c

(f),f T
est totale dans L
2
(T

,P), cest-`a-dire quune variable de L


2
(T

,P) orthogonale `a tous les


elements de la famille precedente est necessairement nulle. En eet soit X L
2
(T

,P) telle
que pour tout f T,
E(Xc

(f)) = 0.
Il est alors facile de voir que pour tout
1
,...,
n
R, t
1
,...,t
n
R
+
,
E

Xe

n
i=1

i
B
t
i

= 0.
Par prolongement analytique, on a alors en fait plus generalement,
E

Xe

n
i=1

i
B
t
i

= 0,
pour tout
1
,...,
n
C, t
1
,...,t
n
R, et donc en particulier,
E

Xe
i

n
j=1

j
B
t
j

= 0,
pour tout
1
,...,
n
R, t
1
,...,t
n
R. Nos connaissances en analyse de Fourier sont alors su-
santes pour conclure que pour toute fonction borelienne bornee f : R
n
R,
E(Xf(B
t
1
,...,B
t
n
)) = 0,
cest-`a-dire que
E(X [ (B
t
1
,...,B
t
n
)) = 0.
Comme T

est engendree par les cylindres precedents (`a completion pr`es), nous en deduisons
alors que X = 0.
Ainsi la famille
c

(f),f T
est dense dans L
2
(T

,P).
Notons maintenant B le sous-ensemble de L
2
(T

,P) constitue des variables aleatoires F pour


lesquelles on peut trouver un processus (u
t
)
t0
progressivement mesurable tel que E

0
u
2
s
ds

<
+ et
F = E(F) +

+
0
u
s
dB
s
.
95
Par continuite de lintegrale dIto (cest une isometrie !), B est ferme.

Etant donne que pour
f T,
c

(f) = 1 +

+
0
f(s)c
s
(f)dB
s
,
nous avons
c

(f),f T B.
Par densite nous concluons
B = L
2
(T

,P).
Lunicite de u est une consequence immediate de la propriete disometrie de lintegrale dIto.

Remarque 37. Le theor`eme precedent implique facilement que pour T 0 et F L


2
(T
T
,P),
il existe un unique processus (u
t
)
0tT
progressivement mesurable tel que E

T
0
u
2
s
ds

< + et
F = E(F) +

T
0
u
s
dB
s
.
Le theor`eme precedent admet le remarquable corollaire suivant:
Corollaire 38. Soit (M
t
)
t0
une martingale par rapport `a la ltration (T
t
)
t0
de carre integrable,
alors il existe un unique processus (u
t
)
t0
progressivement mesurable tel que E

t
0
u
2
s
ds

< +,
t 0 et
M
t
= E(M
0
) +

t
0
u
s
dB
s
, t 0.
Ce quil y a de remarquable dans ce resultat cest quainsi toutes les martingales de carre
integrable dans une ltration brownienne sont necessairement continues ! Nous en protons ici
pour insister sur lhypoth`ese de ltration brownienne dans tout ce qui prec`ede.
Le corollaire prec

dent setend sans dicultes `a des martingales locales:


Exercice 39. Soit (M
t
)
t0
une martingale locale par rapport `a la ltration (T
t
)
t0
montrer quil
existe un unique processus (u
t
)
t0
progressivement mesurable tel que P

t
0
u
2
s
ds < +

= 1,
t 0 et
M
t
= E(M
0
) +

t
0
u
s
dB
s
, t 0.
4. Probl` eme: Th eor` eme de Girsanov
Le but de ce probl`eme est detudier limpact dun changement de probabilite equivalent sur le
calcul stochastique. Nous encourageons vivement le lecteur `a relire la section 4.2. du Chapitre
2.
Probl`eme 40.
Partie I
Soit (B
t
)
t0
un mouvement brownien. On note P la mesure de Wiener, (
t
)
t0
le processus des
coordonnees et (T
t
)
t0
sa ltration naturelle.
(1) Soit R et P

la loi du processus (B
t
+t)
t0
. Montrer que pour tout t 0,
P

/F
t
<P
/F
t
,
96
et que
dP

/F
t
dP
/F
t
= e

2
2
t
.
(2) A ton
P

/F

<P
/F

?
(3) Pour a R
+
, on note
T
a
= inft 0,B
t
+t = a.
Calculer la loi de T
a
`a laide de la question (1).
(4) Plus generalement, soit f : R
+
R une fonction telle que pour tout t 0,

t
0
f
2
(s)ds <
+. On note P
f
la loi du processus (B
t
+

t
0
f(s)ds)
t0
. Montrer que pour tout t 0,
P
f
/F
t
<P
/F
t
,
et que
dP
f
/F
t
dP
/F
t
= e

t
0
f(s)d
s

1
2

t
0
f
2
(s)ds
.
(5) Pour quelles fonctions f, a-ton
P
f
/F

<P
/F

?
Partie II
Dans cette partie, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) et on
suppose que (T
t
)
t0
est la ltration naturelle usuellement completee dun mouvement brownien
(B
t
)
t0
. Soit Q une probabilite sur T

equivalente `a P. On note D la densite de Q par rapport


`a P.
(1) Montrer quil existe un processus (
t
)
t0
tel que pour tout t 0, P

t
0

2
s
ds < +

= 1
et
E(D [ T
t
) = exp

t
0

s
dB
s

1
2

t
0

2
s
ds

.
(2) Montrer que sous la probabilite Q, le processus
B
t

t
0

s
ds
est un mouvement brownien.
(3) En deduire que toute semimartingale sur lespace (,(T
t
)
t0
,T,P) est egalement une
semi-martingale sur lespace (,(T
t
)
t0
,T,Q).
Partie III
Dans cette partie, nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles. Soit (B
t
)
t0
un mouvement brownien sur cet espace de probabilite
ltre. Soit maintenant (
t
)
t0
un processus progressivement mesurable tel que pour tout t 0,
P

t
0

2
s
ds < +

= 1. On note
Z
t
= exp

t
0

s
dX
s

1
2

t
0
|
s
|
2
ds

, t 0.
(1) Montrer que (Z
t
)
t0
est une martingale locale.
97
(2) Montrer que si pour tout t 0,
E(Z
t
) = 1,
alors (Z
t
)
t0
est une martingale uniformement integrable.
(3) On suppose desormais lhypoth`ese de la question precedente satisfaite. Montrer que sur
lespace de probabilite ltre T

, il existe une unique mesure de probabilite Q equivalente


`a P telle que pour tout t 0,
dQ
/F
t
dP
/F
t
= Z
t
, P p.s.
(4) Montrer que sous la probabilite Q, le processus
B
t

t
0

s
ds
est un mouvement brownien.
5. Equations diff erentielles stochastiques et diffusions
Dans ce paragraphe, nous revenons au probl`eme de la construction de diusions evoque `a la
section 7 du chapitre 3 et nous allons voir comment le calcul dIto sav`ere un outil extremement
puissant.
Comme dhabitude nous nous placons sur un espace de probabilite ltre (,(T
t
)
t0
,T,P) qui
satisfait les conditions usuelles et sur lequel est deni un mouvement brownien (B
t
)
t0
.
Lidee va etre de construire `a partir de (B
t
)
t0
et du calcul dIto un processus de generateur
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
o` u b et sont deux fonctions donnees.
Theor`eme 41. Soient b : R R et : R [0, +) deux fonctions continues telles que pour
un certain K > 0,
(1) [ b(x) b(y) [ + [ (x) (y) [ K [ x y [, x,y R;
(2) [ b(x) [ + [ (x) [ K(1+ [ x [), x R.
Alors pour tout x
0
R, il existe un unique processus continu (X
x
0
t
)
t0
tel que pour t 0
(2) X
x
0
t
= x
0
+

t
0
b(X
x
0
s
)ds +

t
0
(X
x
0
s
)dB
s
.
De plus (X
x
0
t
)
t0
est un processus de diusion de generateur
L = b(x)
d
dx
+
1
2
(x)
2
d
2
dx
2
.
6. Un invit e de marque: K. It o
Born: 7 Sept 1915 in Hokusei-cho, Mie Prefecture, Japan
Dead: Still alive !
Kiyosi Ito studied mathematics in the Faculty of Science of the Imperial University of Tokyo. It
was during his student years that he became attracted to probability theory. In [3] he explains
how this came about:
Ever since I was a student, I have been attracted to the fact that statistical laws reside in see-
mingly random phenomena. Although I knew that probability theory was a means of describing
such phenomena, I was not satised with contemporary papers or works on probability theory,
98
since they did not clearly dene the random variable, the basic element of probability theory.
At that time, few mathematicians regarded probability theory as an authentic mathematical
eld, in the same strict sense that they regarded dierential and integral calculus. With clear
denition of real numbers formulated at the end of the19th century, dierential and integral
calculus had developed into an authentic mathematical system. When I was a student, there
were few researchers in probability; among the few were Kolmogorov of Russia, and Paul Levy
of France.
In 1938 Ito graduated from the University of Tokyo and in the following year he was appointed
to the Cabinet Statistics Bureau. He worked there until 1943 and it was during this period that
he made his most outstanding contributions:-
During those ve years I had much free time, thanks to the special consideration given me
by the then Director Kawashima ... Accordingly, I was able to continue studying probability
theory, by reading Kolmogorovs Basic Concept of Probability Theory and Levys Theory of
Sum of Independent Random Variables. At that time, it was commonly believed that Levys
works were extremely dicult, since Levy, a pioneer in the new mathematical eld, explained
probability theory based on his intuition. I attempted to describe Levys ideas, using precise
logic that Kolmogorov might use. Introducing the concept of regularisation, developed by Doob
of the United States, I nally devised stochastic dierential equations, after painstaking solitary
endeavours. My rst paper was thus developed; today, it is common practice for mathematicians
to use my method to describe Levys theory.
In 1940 he published On the probability distribution on a compact group on which he col-
laborated with Yukiyosi Kawada. The background to Itos famous 1942 paper On stochastic
processes (Innitely divisible laws of probability) which he published in the Japanese Journal of
Mathematics is given in [2]:-
Brown, a botanist, discovered the motion of pollen particles in water. At the beginning of the
twentieth century, Brownian motion was studied by Einstein, Perrin and other physicists. In
1923, against this scientic background, Wiener dened probability measures in path spaces,
and used the concept of Lebesgue integrals to lay the mathematical foundations of stochastic
analysis. In 1942, Dr. Ito began to reconstruct from scratch the concept of stochastic integrals,
and its associated theory of analysis. He created the theory of stochastic dierential equations,
which describe motion due to random events.
Although today we see this paper as a fundamental one, it was not seen as such by mathema-
ticians at the time it was published. Ito, who still did not have a doctorate at this time, would
have to wait several years before the importance of his ideas would be fully appreciated and
mathematicians would begin to contribute to developing the theory. In 1943 Ito was appointed
as Assistant Professor in the Faculty of Science of Nagoya Imperial University. This was a period
of high activity for Ito, and when one considers that this occurred during the years of extreme
diculty in Japan caused by World War II, one has to nd this all the more remarkable. Volume
20 of the Proceedings of the Imperial Academy of Tokyo contains six papers by Ito: (1) On the
ergodicity of a certain stationary process; (2) A kinematic theory of turbulence; (3) On the nor-
mal stationary process with no hysteresis; (4) A screw line in Hilbert space and its application
to the probability theory; (5) Stochastic integral; and (6) On Students test.
In 1945 Ito was awarded his doctorate. He continued to develop his ideas on stochastic analysis
with many important papers on the topic. Among them were On a stochastic integral equation
(1946), On the stochastic integral (1948), Stochastic dierential equations in a dierentiable ma-
nifold (1950), Brownian motions in a Lie group (1950), and On stochastic dierential equations
(1951).
99
In 1952 Ito was appointed to a Professorship at Kyoto University. In the following year he
published his famous text Probability theory. In this book, Ito develops the theory on a pro-
bability space using terms and tools from measure theory. The years 1954-56 Ito spent at the
Institute for Advanced Study at Princeton University. An important publication by Ito in 1957
was Stochastic processes. This book contained ve chapters, the rst providing an introduction,
then the remaining ones studying processes with independent increments, stationary processes,
Markov processes, and the theory of diusion processes. In 1960 Ito visited the Tata Institute
in Bombay, India, where he gave a series of lectures surveying his own work and that of other
on Markov processes, Levy processes, Brownian motion and linear diusion.
Although Ito remained as a professor at Kyoto University until he retired in 1979, he also held
positions as professor at Aarhus University from 1966 to 1969 and professor at Cornell University
from 1969 to 1975. During his last three years at Kyoto before he retired, Ito was Director of
the Research Institute for Mathematical Sciences there. After retiring from Kyoto University in
1979 he did not retire from mathematics but continued to write research papers. He was also
appointed at Professor at Gakushuin University.
Ito gives a wonderful description mathematical beauty in [3] which he then relates to the way
in which he and other mathematicians have developed his fundamental ideas:-
In precisely built mathematical structures, mathematicians nd the same sort of beauty others
nd in enchanting pieces of music, or in magnicent architecture. There is, however, one great
dierence between the beauty of mathematical structures and that of great art. Music by Mozart,
for instance, impresses greatly even those who do not know musical theory; the cathedral in
Cologne overwhelms spectators even if they know nothing about Christianity. The beauty in
mathematical structures, however, cannot be appreciated without understanding of a group of
numerical formulae that express laws of logic. Only mathematicians can read musical scores
containing many numerical formulae, and play that music in their hearts. Accordingly, I
once believed that without numerical formulae, I could never communicate the sweet melody
played in my heart. Stochastic dierential equations, called Ito Formula, are currently in
wide use for describing phenomena of random uctuations over time. When I rst set forth
stochastic dierential equations, however, my paper did not attract attention. It was over ten
years after my paper that other mathematicians began reading my musical scores and playing
my music with their instruments. By developing my original musical scores into more
elaborate music, these researchers have contributed greatly to developing Ito Formula.
Ito received many honours for his outstanding mathematical contributions. He was awarded the
Asahi Prize in 1978, and in the same year he received the Imperial Prize and also the Japan
Academy Prize. In 1985 he received the Fujiwara Prize and in 1998 the Kyoto Prize in Basic
Sciences from the Inamori Foundation. These prizes were all from Japan, and a further Japanese
honour was his election to the Japan Academy. However, he also received many honours from
other countries. He was elected to the National Academy of Science of the United States and
to the Acadmie des Sciences of France. He received the Wolf Prize from Israel and honorary
doctorates from the universities of Warwick, England and ETH, Zurich, Switzerland.
In [2] this tribute is paid to Ito:
Nowadays, Dr. Itos theory is used in various elds, in addition to mathematics, for analysing
phenomena due to random events. Calculation using the Ito calculus is common not only to
scientists in physics, population genetics, stochastic control theory, and other natural sciences,
but also to mathematical nance in economics. In fact, experts in nancial aairs refer to Ito
calculus as Itos formula. Dr. Ito is the father of the modern stochastic analysis that has been
systematically developing during the twentieth century. This ceaseless development has been
led by many, including Dr. Ito, whose work in this regard is remarkable for its mathematical
100
depth and strong interaction with a wide range of areas. His work deserves special mention as
involving one of the basic theories prominent in mathematical sciences during this century.
A recent monograph entitled Itos Stochastic Calculus and Probability Theory (1996), dedi-
cated to Ito on the occasion of his eightieth birthday, contains papers which deal with recent
developments of Itos ideas:-
Professor Kiyosi Ito is well known as the creator of the modern theory of stochastic analysis.
Although Ito rst proposed his theory, now known as Itos stochastic analysis or Itos stochastic
calculus, about fty years ago, its value in both pure and applied mathematics is becoming
greater and greater. For almost all modern theories at the forefront of probability and related
elds, Itos analysis is indispensable as an essential instrument, and it will remain so in the
future. For example, a basic formula, called the Ito formula, is well known and widely used in
elds as diverse as physics and economics.
Article by: J J OConnor and E F Robertson
101
Bi bl i ogr a phi e
102
[1] J. Bertoin. Levy processes. Cambridge University Press, Cambridge, 1996.
[2] T. Bj ork. Arbitrage theory in continuous time. Oxford University Press, Oxford, 1998.
[3] R.A. Dana et M. Jeanblanc. Marches nanciers en temps continu Economica, Paris, 1998. Traduction Springer
2002.
[4] C. Dellacherie et P.-A. Meyer. Probabilites et Potentiel. Volumes 1 `a 5. Hermann, Paris, 1975-1992.
[5] R. J. Elliott. Stochastic Calculus and Applications. Springer, Berlin, 1982.
[6] H. F ollmer et A. Schied Stochastic Finance : an introduction in discrete time. Walter de Gruyter, Berlin, 2003.
[7] G. Grimmett et D. Stirzaker. Probability and Random Processes. Oxford University Press, New-York, 1982.
[8] G. Grimmett et D. Stirzaker. One Thousand Exercises in Probability. Oxford University Press, New-York, 2001.
[9] J. Jacod et P. Protter. Probability Essentials. Springer, Berlin, 1997.
[10] J. Jacod et A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, 1987.
[11] I. Karatzas et S. E. Shreve. Brownian Motion and Stochastic Calculus. Springer, Berlin, 1991.
[12] D. Lamberton et B. Lapeyre. Introduction au calcul stochastique applique `a la nance. Ellipses, Paris, 1991.
[13] P. Malliavin. Stochastic Analysis. Springer, Berlin, 1997.
[14] J. Neveu. Bases mathematiques du calcul des probabilites. Masson, Paris, 1964.
[15] B. Oksendal. Stochastic Dierential Equations. Springer, Berlin, 6th edition, 2002.
[16] P. Protter. Stochastic Integration and Dierential Equations. Springer, Berlin, 2nd edition, version 2.1. 2005.
[17] D. Revuz et M. Yor. Continuous Martingales and Brownian Motion. Springer, Berlin, 3th edition 1999.
[18] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 1 : Foundations. Wiley,
Chichester, 1994.
[19] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 2 : Ito Calculus. Wiley,
Chichester, 1987.
[20] G. Samorodnitsky et M. S. Taqqu. Stable Non-Gaussian Random Processes. Chapman & Hall, New York, 1994.
[21] K.-I. Sato. Levy Processes and Their Innitely Divisible Distributions. Cambridge University Press, Cambridge,
1999.
[22] D. Stirzaker. Elementary Probability. Cambridge University Press, Cambridge, 1994.
[23] A.N. Shiryaev . Essentials of stochastic Finance.
D. Williams. Probability with Martingales. Cambridge University Press, Cambridge, 1991.
[24] A.N.Shiryaev. probability. Springer, Graduate texts in mathematics, 95.
[25]

You might also like