You are on page 1of 118

Processus stochastique

M2 Mathematiques
Jean-Christophe Breton
Universite de Rennes 1
Septembre-Decembre 2013
Version du 4/12/13
2
Table des mati`eres
I Processus stochastique 1
1 Processus gaussiens 3
1.1 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Mouvement brownien 27
2.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Denition, premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Proprietes en loi du mouvement brownien . . . . . . . . . . . . . . . . . . 31
2.4 Proprietes trajectorielles du mouvement brownien . . . . . . . . . . . . . . 33
2.4.1 Loi du 0/1 de Blumenthal . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Consequences trajectorielles de la loi du 0/1 de Blumenthal . . . . . 36
2.4.3 Regularite trajectorielle . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6 Propriete de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.1 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.6.2 Propriete de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.6.3 Principe de reexion . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.7

Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.7.2 Origine mathematique . . . . . . . . . . . . . . . . . . . . . . . . . 47
II Integration stochastique 53
3 Martingales en temps continu 55
3.1 Filtration et processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2 Filtrations et temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Martingales en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.3.1 Denition, exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 62
i
ii Table des mati`eres
3.3.2 Inegalites pour martingales . . . . . . . . . . . . . . . . . . . . . . . 62
3.3.3 Regularisation de trajectoires . . . . . . . . . . . . . . . . . . . . . 64
3.3.4 Theor`emes de convergence . . . . . . . . . . . . . . . . . . . . . . . 67
3.3.5 Theor`eme darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4 Semimartingales continues 75
4.1 Processus ` a variation bornee . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.1 Fonctions ` a variation nie . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.2 Integrale de Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1.3 Extension de lintegration de Stieltjes `a R
+
. . . . . . . . . . . . . . 79
4.1.4 Processus `a variation nie . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3 Variation quadratique dune martingale locale . . . . . . . . . . . . . . . . 85
4.4 Semimartingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5 Integration stochastique 97
5.1 Par rapport `a une martingale bornee dans L
2
. . . . . . . . . . . . . . . . 97
5.2 Par rapport `a une martingale locale . . . . . . . . . . . . . . . . . . . . . . 104
5.3 Par rapport `a une semimartingale . . . . . . . . . . . . . . . . . . . . . . . 107
5.4 Cas non continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Introduction
Ces notes de cours ont pour but de presenter le mouvement brownien et lintegration
stochastique. dintroduire au calcul stochastique et `a ses outils fondamentaux Elles sont
principalement destinees aux etudiants du Master 2 Mathematiques et applications
de lUniversite de Rennes 1. Ces notes ont plusieurs sources dinspiration, principalement
[LG1] mais aussi les notes de cours [Gue], [EGK], [CM], [Mal]. Par ailleurs, des references
standard conseillees sur le sujet sont les livres [KS], [RY].
Le contenu de ces notes est le suivant :
On commence au Chapitre 1 par introduire les processus gaussiens. Pour cela, on donne
quelques rappels sur les vecteurs gaussiens et on presente la notion generale de processus
stochastiques dont quelques aspects essentiels sont decrits. Ce Chapitre sinspire de [Dav]
et des references sont [Bil2], [Kal].
Au Chapitre 2, on presente le mouvement brownien, processus stochastique central, dont
on discute de nombreuses proprietes.
Au Chapitre 3, on introduit la notion de martingale en temps continu. On revisite les prin-
cipales proprietes connues dans le cas discret.
La notion de semimartingale, essentielle dans la theorie de lintegration stochastique, est
presentee au Chapitre 4.
Le Chapitre 5 est consacre ` a la construction des integrales stochastiques et `a ses principales
proprietes. Des references valables pour tous les chapitres sont [LG1], [Gue], [EGK], [KS],
[RY], [CM] et [Mal].
Les prerequis de ce cours sont des probabilites de base (des fondements des probabilites
aux consequences de la LGN et du TCL niveau L3) , les martingales en temps discret
(niveau M1), , le mouvement brownien et lintegration stochastique.
iii
iv c _JCB M2 Math. Universite de Rennes 1
Premi`ere partie
Processus stochastique
1
Chapitre 1
Processus gaussiens
Dans ce chapitre, on commence par des rappels elementaires sur les variables aleatoires
normales en Section 1.1 puis sur les vecteurs gaussiens en Section 1.2. On introduit la
notion generale de processus stochastique dans la Section 1.3 o` u on en decrit les principales
proprietes. On specialise letude au cas des processus gaussiens dans la Section 1.4 et on
en donne plusieurs exemples en Section 1.5.
1.1 Variables gaussiennes
Denition 1.1 Une variable aleatoire X suit la loi normale standard A(0, 1) si elle admet
pour densite
t
1

2
exp(t
2
/2).
De facon generale, une variable aleatoire X suit la loi normale A(m,
2
) si elle admet pour
densite
t
1

2
2
exp
_

(t m)
2
2
2
_
.
Si
2
= 0, la loi est degeneree, la variable aleatoire X est constante egale `a m. Sa loi est
une mesure de Dirac en m : P
X
=
m
.
Proposition 1.1 Une variable aleatoire X A(m,
2
) peut se voir comme la translatee
et la dilatee de X
0
A(0, 1) par X = m + X
0
.
Autrement dit si X A(m,
2
),
2
> 0, on denit la variable centree reduite

X =
Xm

.
Elle suit la loi A(0, 1). Cette action sappelle centrer, reduire .
Proposition 1.2 Une variable aleatoire X de loi A(m,
2
) a pour
esperance : E[X] = m;
variance : Var(X) =
2
;
fonction caracteristique :
X
(t) = exp(imt
2
t
2
/2).
3
4 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
Si X A(0,
2
) alors les moments de X sont donnes pas
E[X
2n
] =
(2n)!
2
n
n!

2n
et E[X
2n+1
] = 0. (1.1)
Demonstration :[Esquisse] Centrer, reduire pour se ramener ` a X A(0, 1). Calculs
simples pour E[X], Var(X). Pour la fonction caracteristique, identier les fonctions holo-
morphes E[e
zX
] et e
z
2
/2
pour z R et considerer z = ix. Pour les moments de tous ordres
faire des ipp successives.
Lestimation de la queue normale suivante sav`ere utile : pour X A(0, 1) et x 1, on a
P(X x) =
1

2
_
+
x
e
t
2
/2
dt
1

2
_
+
x
te
t
2
/2
dt
1

2
e
x
2
/2
. (1.2)
En fait, on a une estimation valable pour tout x > 0 et meilleure si x 1 :
Proposition 1.3 Soit X A(0, 1) et x > 0 alors
P(X x)
1

2x
2
exp(x
2
/2)
Demonstration : En notant f(x) =
1
x

2
exp(x
2
/2), on a
f
t
(x) =
exp(x
2
/2)

1
x
2
exp(x
2
/2)

2

exp(x
2
/2)

2
.
Do` u
P(X x) =
_
+
x
1

2
exp(u
2
/2)du
_
+
x
f
t
(u)du = [f(u)]
+
x
= f(x).

Proposition 1.4 Soient X


1
A(m
1
,
2
1
) et X
2
A(m
2
,
2
2
) independantes. Alors X
1
+
X
2
A(m
1
+ m
2
,
2
1
+
2
2
).
Demonstration : Par les fonctions caracteristiques, avec lindependance, on a :

X
1
+X
2
(t) =
X
1
(t)
X
2
(t) = exp(im
1
t
2
1
t
2
/2) exp(im
2
t
2
2
t
2
/2)
= exp(i(m
1
+ m
2
)t (
2
1
+
2
2
)t
2
/2) =
A(m
1
+m
2
,
2
1
+
2
2
)
(t)
ce qui prouve le resultat.
Proposition 1.5 Soit (X
n
)
n
une suite de variables normales de loi A(m
n
,
2
n
).
1.1. Variables gaussiennes 5
1. La suite (X
n
)
n
converge en loi ssi m
n
m R et
2
n

2
R
+
. La loi limite est
alors A(m,
2
).
2. Si la suite (X
n
)
n
converge en probabilite vers X, la convergence a lieu dans tous les
espaces L
p
, p < +.
Demonstration : 1) Dapr`es le theor`eme de Paul Levy, la convergence en loi X
n
= X
est equivalente ` a avoir pour tout t R :

Xn
(t) = exp
_
im
n
t

2
n
2
t
2
_

X
(t), n +. (1.3)
Comme
X
est continue et
X
(0) = 1, il existe t ,= 0 tel que [
X
(t)[ , = 0. Pour ce
t, en prenant le module dans (1.3), on a exp(

2
n
2
t
2
) [
X
(t)[. On deduit alors que
lim
n+

2
n
=
2
t
2
ln [
X
(t)[ :=
2
. Par suite, on a aussi
exp(im
n
t) exp(
2
t
2
/2)
X
(t).
Supposons que (m
n
)
n
est non bornee. On construit alors une sous-suite m
n
k
+,
k + (ou ce qui m`ene ` a un raisonnement analogue). Alors pour tout > 0,
P(X ) limsup
k+
P(X
n
k
)
1
2
puisque P(X
n
k
) P(X
n
k
m
k
) = 1/2 pour k assez grand (la moyenne m
k
etant
aussi la mediane). En faisant +, on a P(X = +) 1/2, ce qui est absurde car
P(X R) = lim
n+
P(X
n
R) = 1.
On a donc (m
n
) bornee. Si m et m
t
sont deux valeurs dadherence de (m
n
)
n
, en passant ` a
la limite sur les bonnes sous-suites, on doit avoir e
imt
= e
im

t
pour tout t R, ce qui exige
m = m
t
, donc lunicite de la valeur dadherence et lexistence de la limite m de m
n
.
Finalement, m
n
m et
n
et en passant `a la limite dans (1.3), on a :

X
(t) = exp
_
imt

2
2
t
2
_
ce qui assure X A(m,
2
).
2) On ecrit X
n
=
n
N + m
n
avec N A(0, 1). Comme X
n
converge en loi, les suites
(m
n
)
n
et (
n
)
n
sont bornees dapr`es 1). Dapr`es lexpression des moments de N, cf. (1.1),
et comme par convexite pou q 1
[
n
N + m
n
[
q
2
q1
([
n
[
q
[[N[
q
+[m
n
[
q
)
on voit facilement que
sup
n
E[[X
n
[
q
] < + q 1.
6 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
Comme la convergence en probabilite donne la convergence ps dune sous-suite X
n
k
, par le
lemme de Fatou, on a :
E[[X[
q
] = E[lim
k
[X
n
k
[
q
] liminf
k
E[X
n
k
[
q
] sup
k
E[[X
n
k
[
q
] sup
n
E[[X
n
[
q
] < +.
Soit p 1, la suite [X
n
X[
p
converge vers 0 en probabilite et est uniformement integrable
car (dapr`es ce qui prec`ede) bornee dans L
2
. Elle converge donc dans L
1
vers 0 ce qui
prouve 2).
Le caract`ere universel de la loi normale est illustre par le resultat suivant. Il montre que la
loi normale standard controle les uctuations par rapport ` a leur moyenne des eets cumules
dun phenom`ene aleatoire repete avec des repetitions independantes.
Dans la suite, iid signiera independant(e)s et identiquement distribue(e)s, cest `a dire
de meme loi. Souvent, on notera aussi vaiid pour variables aleatoires independantes et
identiquement distribuees.
Theor`eme 1.1 (TCL) Soit (X
n
)
n
une suite de vaiid, desperance m et de variance nie

2
> 0. Soit S
n
= X
1
+ + X
n
la somme partielle. Alors quand n +
S
n
nm

2
n
=A(0, 1).
Remarque 1.1 Le TCL compl`ete la loi des grands nombres : en eet, la LGN donne
S
n
/n m, cest ` a dire S
n
nm 0. Le TCL donne la vitesse de cette convergence
(en loi) : elle est en

n. Noter que la convergence est presque s ure dans la LGN et
en loi (donc beaucoup plus faible) dans le TCL.
La loi A(0, 1) apparait ` a la limite dans le TCL alors que les variables aleatoires X
i
sont de lois arbitraires (de carre integrable) : ce resultat justie le r ole universel de
la loi normale. Elle modelise les petites variations de nimporte quelle loi (avec un
moment dordre 2) par rapport `a sa moyenne.
Demonstration : Dapr`es le theor`eme de Paul Levy, il sut de montrer la convergence
des fonctions caracteristiques. Posons Y
i
= X
i
m, si bien que les variables aleatoires
Y
i
sont independantes de meme loi avec E[Y
i
] = 0, Var(Y
i
) = Var(X
i
) =
2
. Notons
S
t
n
= Y
1
+ + Y
n
et Z
n
=
Snnm

n
=
S

n
. On a

Zn
(t) = E
_
exp
_
it
S
t
n

n
__
= E
_
exp
_
i
t

n
S
t
n
__
=
S

n
_
t

n
_
1.1. Variables gaussiennes 7
=
Y
1
_
t

n
_
. . .
Yn
_
t

n
_
=
_

Y
1
_
t

n
__
n
en utilisant
Y
1
++Yn
=
Y
1
. . .
Yn
=
n
Y
1
par independance et identique distribution des
variables Y
i
.
Comme Y
1
a un moment dordre 2,
Y
1
est derivable 2 fois avec
Y
1
(0) = 1,
t
Y
1
(0) =
iE[Y
1
] = 0 et
tt
Y
1
(0) = i
2
E[Y
2
1
] =
2
. La formule de Taylor ` a lordre 2 en 0 donne alors

Y
1
(x) =
Y
1
(0) + x
t
Y
1
(0) +
x
2
2

tt
Y
1
(0) + x
2
(x)
= 1

2
x
2
2
+ x
2
(x)
o` u la fonction verie lim
x0
(x) = 0. On a donc

Zn
(t) =
_

Y
1
_
t

n
__
n
=
_
1

2
t
2
2
2

n
2
+
t

n
2
(t/(

n))
_
n
=
_
1
t
2
2n
+
1
n
(1/

n)
_
n
= exp
_
nln(1
t
2
2n
+
1
n
(1/

n)
_
= exp
_
n(
t
2
2n
+
1
n
(1/

n))
_
= exp
_

t
2
2
+ (1/

n)
_
.
(Noter que la fonction reste () dans
Y
1
est ` a valeurs complexes si bien quil est un peu
rapide de prendre directement le logarithme comme precedemment. Cependant largument
peut etre precise sans passer par la forme exponentielle avec les logarithmes ; on renvoie ` a
un (bon) cours de L3 ou de M1.) On a donc pour chaque t R,
lim
n+

Zn
(t) = exp(t
2
/2) =
A(0,1)
(t).
Le theor`eme de Paul Levy donne alors la convergence en loi de Z
n
vers A(0, 1), ce qui
prouve le TCL.
Remarque 1.2 En general, lorsque n est grand, on approxime la loi dune somme de vaiid
de L
2
() par une loi normale gr ace au TCL de la facon suivante. Soit S
n
= X
1
+ +X
n
la somme de vaiid X
i
avec
2
X
< +, on a dapr`es le TCL
X
1
+ + X
n
nE[X
1
]

n
=A(0, 1).
8 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
Quand n est grand on approxime alors la loi de
X
1
++XnnE[X
1
]

n
par celle de Y = A(0, 1).
Si bien que la loi de la somme S
n
= X
1
+ + X
n
est approximee par celle de
nE[X
1
] +

nY A(nE[X
1
],
2
n).
R`egle dapproximation : La somme S
n
dune suite de vaiid L
2
de moyenne m et de
variance
2
sapproxime par S
n
A(nm, n
2
).
Application (Moivre-Laplace). Comme une variable aleatoire X
n
de loi binomiale
B(n, p) peut se voir comme la somme de n variables aleatoires
i
independantes de loi
de Bernoulli b(p), X
n
=
1
+ +
n
, la remarque precedente montre quon peut approcher
la loi B(n, p) par la loi normale A(np, np(1 p)).
1.2 Vecteurs gaussiens
On consid`ere des vecteurs aleatoires dans R
n
. Muni de son produit scalaire canonique,
R
n
est un espace euclidien. Pour deux vecteurs a = (a
1
, . . . , a
n
), b = (b
1
, . . . , b
n
) R
n
, on
note a, b =

n
i=1
a
i
b
i
leur produit scalaire. On peut generaliser cette section `a un espace
E euclidien (si dim(E) = n alors E R
n
).
Denition 1.2 (Vecteur gaussien) Un vecteur aleatoire X = (X
1
, . . . , X
n
) est gaussien
ssi toutes les combinaisons lineaires de ses coordonnees a, X = a
1
X
1
+ +a
n
X
n
suivent
une loi gaussienne dans R (pour tout a = (a
1
, . . . , a
n
) R
n
).
Dans un cadre euclidien E, X vecteur `a valeurs dans E est gaussien ssi pour tout a E,
a, X suit une loi gaussienne.
En particulier, chaque marginale X
i
suit une loi normale et a donc un moment dordre
2 ni. Les moments joints E[X
i
X
j
] sont donc bien denie et on peut denir licitement la
matrice de covariance :
Denition 1.3 La matrice de covariance dun vecteur gaussien X = (X
1
, . . . , X
n
) est
la matrice carree symetrique, positive
K = (Cov(X
i
, X
j
))
1i,jn
.
Lesperance de X = (X
1
, . . . , X
n
) est le vecteur des esperances de ses marginales
E[X] = (E[X
1
], . . . , E[X
n
]).
Si E[X] = 0, le vecteur X est dit centre.
1.2. Vecteurs gaussiens 9
Fonction caracteristique gaussienne en dimension n
Si X = (X
1
, . . . , X
n
) est un vecteur gaussien alors a, X =

n
i=1
a
i
X
i
suit une loi
normale de param`etres
E[a, X] = E[a
1
X
1
+ + a
n
X
n
] = a
1
E[X
1
] + + a
n
E[X
n
] = a, E[X]
Var(a, X) = Var(a
1
X
1
+ + a
n
X
n
) =
n

i,j=1
a
i
a
j
Cov(X
i
, X
j
) = a
t
Cov(X)a.
La variable aleatoire a, X suit donc la loi A(a, E[X], a
t
Cov(X)a), sa fonction caracte-
ristique est donnee par

a,X)
(x) = exp
_
ixa, E[X]
1
2
(a
t
Cov(X)a)x
2
_
.
Dapr`es la denition des fonctions caracteristiques dune variable aleatoire et dun vecteur
aleatoire

X
(x) = E[e
ix,X)
] =
x,X)
(1).
On en deduit :
Proposition 1.6 La fonction caracteristique dun vecteur gaussien X = (X
1
, . . . , X
n
) est
donnee par

X
(x) = exp
_
ix, E[X]
1
2
(x
t
Cov(X)x)
_
= exp
_
ix, E[X]
1
2
x, Cov(X)x
_
. (1.4)
Remarque 1.3 La loi dun vecteur gaussien est connue d`es quon a le vecteur
moyenne E[X] et la matrice de covariance Cov(X).
On parle du vecteur gaussien standard en dimension n lorsque E[X] = 0 et Cov(X) =
I
n
. Sa fonction caracteristique est alors

X
(x) = exp(x, x/2) = exp(|x|
2
/2).
Pour un vecteur gaussien centre, on a E[X] = 0 et on montre que
x, Cov(X)x = E[x, X
2
],
si bien que dans le cas centre la fonction caracteristique se reecrit :

X
(x) = exp
_

1
2
x, Cov(X)x
_
= exp
_

1
2
E[x, X
2
]
_
.
10 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
En prenant x = (x
1
, 0, . . . , 0), on a

X
1
(x
1
) =
X
(x) = exp(iE[X
1
]x
1
Var(X
1
)x
2
1
/2).
On retrouve que X
1
A(E[X
1
], Var(X
1
)). Plus generalement, pour tout 1 i n,
on a X
i
A(E[X
i
], Var(X
i
)).
Comme pour les variables aleatoires gaussiennes, on peut se ramener ` a un vecteur gaussien
standard en centrant et en reduisant un vecteur gaussien quelconque non degenere. On a
en eet :
Proposition 1.7 Soit X A(m, K) un vecteur gaussien non degenere (ie. det K ,= 0)
avec m R
n
et K sa matrice de covariance. Alors

K
1
(X m) A(0, I
n
). (1.5)
Si X A(m, K) est degenere, cest que le vecteur X vit dans un sous-espace vectoriel
strict de R
n
. Il faut letudier dans ce sous-espace vectoriel.
Demonstration : Comme le vecteur X est non degenere, sa matrice de covariance K est
denie (cest ` a dire inversible). Il existe donc une matrice A =

K inversible telle que


K = AA
t
. (Par la methode de Cholesky, A peut etre choisie triangulaire inferieure.) Il est
donc legitime dutiliser

K
1
dans (1.5).
On montre maintenant que

X =

K
1
(X m) est gaussien, standard :

X
(x) = E
_
exp(ix,

X)
_
= E
_
exp(ix,

K
1
(X m))
_
= E
_
exp(i(

K
1
)
t
x, X m)
_
= E
_
exp(i(

K
1
)
t
x, X)
_
exp
_
i(

K
1
)
t
x, m
_
=
X
_
(

K
1
)
t
x
_
exp
_
i(

K
1
)
t
x, m
_
= exp
_
im, (

K
1
)
t
x
1
2
(

K
1
)
t
x, K(

K
1
)
t
x
_
exp
_
i(

K
1
)
t
x, m
_
= exp
_

1
2
(

K
1
)
t
x, K(

K
1
)
t
x
_
= exp
_

1
2
x,

K
1
K(

K
1
)
t
x
_
= exp
_

1
2
x,

K
1

K(

K)
t
(

K
1
)
t
x
_
= exp
_

1
2
x, x
_
= exp
_

1
2
|x|
2
_
.
On a donc bien

X A(0, I
n
).
1.2. Vecteurs gaussiens 11
Remarque 1.4 Comme pour les variables aleatoires normales, un vecteur aleatoire X
A(m, K) avec K inversible peut se voir comme la translatee et dilatee du vecteur gaussien
standard X
0
A(0, I
n
) :
X

KX
0
+ m.
Independance de variables gaussiennes
Proposition 1.8 Soient (X, Y ) un couple gaussien. Alors X et Y sont independantes ssi
Cov(X, Y ) = 0.
Demonstration : Le sens direct est vrai quelque soit la loi de X et de Y et suit de E[XY ] =
E[X]E[Y ]. Pour la reciproque, on sait que X et Y sont independantes ssi
(X,Y )
(t
1
, t
2
) =

X
(t
1
)
Y
(t
2
). Supposons le couple centre pour simplier. Le vecteur gaussien (X, Y ) a une
matrice de covariance diagonale :
_

2
X
0
0
2
Y
_
car les termes diagonaux sont Cov(X, Y ) = Cov(Y, X) = 0. On deduit de lexpression (1.4)
de la fonction caracteristique de (X, Y ) que

(X,Y )
(t
1
, t
2
) = exp
_

1
2
_
t
2
1

2
X
+ t
2

2
Y
_
_
= exp
_

1
2
t
2
1

2
X
_
exp
_

1
2
t
2
2

2
Y
_
=
X
(t
1
)
Y
(t
2
),
ce qui justie lindependance de X et de Y .
Il est aise de generaliser de la meme facon le resultat pour des vecteurs. Attention, il faut
bien veiller ` a ce que considerer ensemble les vecteurs forment encore un vecteur gaussien,
sinon lexemple ci-dessous montre que le resultat est faux (cf. aussi un autre exemple ci-
dessous).
Exemple : Considerons par exemple une variable X A(0, 1) et une seconde variable
independante de X et telle que P( = 1) = P( = 1) = 1/2. Alors X
1
= X, X
2
= X sont
deux variables A(0, 1). De plus, E[X
1
X
2
] = E[]E[X
2
] = 0. Cependant X
1
et X
2
ne sont
evidemment pas independantes (par exemple parce que [X
1
[ = [X
2
[). Dans cet exemple, le
couple (X
1
, X
2
) nest pas un vecteur gaussien dans R
2
bien que ses coordonnees soient des
variables gaussiennes.
Proposition 1.9 Soit (X
1
, . . . , X
n
, Y
1
, . . . , Y
p
) un vecteur gaussien de dimension n + p.
Les deux vecteurs aleatoires X = (X
1
, . . . , X
n
) et Y = (Y
1
, . . . , Y
p
) sont independants ssi
les covariances Cov(X
i
, Y
j
), 1 i n, 1 j p sont toutes nulles.
12 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
Densite gaussienne en dimension n
Soit X A(0, I
n
) un vecteur gaussien standard en dimension n. Comme Cov(X) = I
n
,
les marginales X
1
, . . . , X
n
sont toutes independantes. La loi du vecteur X = (X
1
, . . . , X
n
)
est donc la loi produit de ses marginales P
X
= P
X
1
P
Xn
. En terme de densite, la
densite de X est donnee par le produit tensoriel
f
X
(x
1
, . . . , x
n
) = f
X
1
(x
1
) f
Xn
(x
n
)
=
_
1

2
exp(x
2
1
/2)
_

_
1

2
exp(x
2
n
/2)
_
=
1
(2)
n/2
exp((x
2
1
+ + x
2
n
)/2).
On a justie :
Proposition 1.10 La densite dun vecteur gaussien standard en dimension n est
f
X
(x) =
1
(2)
n/2
exp((x
2
1
+ + x
2
n
)/2).
Pour passer au cas general dun vecteur gaussien X A(m, K) non degenere (ie. K =
Cov(X) inversible), on va utiliser la representation donnee en (1.5) avec le vecteur gaussien
reduit X
0
A(0, I
n
) : X

KX
0
+ m. Cela permet dutiliser la densite dej`a justiee
dans la proposition precedente : Soit A B(R
n
)
P(X A) = P(

KX
0
+ m A)
= P(X
0

K
1
(A m))
=
_

K
1
(Am)
exp(|x|
2
/2)
(2)
n/2
dx
=
_
A
exp(|

K
1
(y m)|
2
/2)
(2)
n/2
dy
det

K
avec y =

Kx + m
=
_
A
exp((x m), K
1
(x m)/2
((2)
n
det K)
1/2
dx
o` u on a fait `a la 4`eme ligne le changement de variable y =

Kx+m. On a obtenu la forme


generale de la densite dun vecteur gaussien non degenere :
Proposition 1.11 La densite dun vecteur gaussien X A(m, K) non degenere est
f
X
(x) =
exp((x m), K
1
(x m)/2)
((2)
n
det K)
1/2
.
1.2. Vecteurs gaussiens 13
Variables gaussiennes et vecteurs non gaussiens
On a dej` a vu que si un vecteur X = (X
1
, . . . , X
n
) est gaussien alors ses marginales X
i
le
sont aussi, de meme les combinaisons lineaires de ses marginales le sont. La reciproque
est fausse : si des variables aleatoires sont gaussiennes alors le vecteur forme par ces
variables nest pas necessairement gaussien. En eet, prenons X une variable aleatoire de
loi A(0, 1) et Y de loi donnee, pour a > 0 xe, par
Y =
_
X si [X[ a,
X si [X[ > a.
Alors Y est de loi A(0, 1) en eet

Y
(t) = E[e
itY
] = E[e
itX
1
[X[a
] +E[e
itX
1
[X[>a
]
= E[e
itX
1
[X[a
] +E[e
itX
1
[X[>a
] = E[e
itX
1
[X[a
] +E[e
itX
1
[X[>a
]
= E[e
itX
(1
[X[a
+1
[X[>a
)]
= E[e
itX
] = e
t
2
/2
car la loi de X est symetrique : /(X) = /(X). Puis, la variable X + Y est donnee par
X + Y =
_
X + X = 2X si [X[ a
X X = 0 si [X[ > a
= 2X1
[X[a
.
La combinaison lineaire X + Y a un atome en 0 car P(X + Y = 0) P([X[ > a) > 0.
Elle ne suit donc pas une loi gaussienne. Le couple aleatoire (X, Y ) nest donc pas gaussien
(sinon on devrait avoir X + Y de loi gaussienne).
De plus, cet exemple montre aussi que dans la Proposition 1.8, lhypoth`ese (X, Y ) gaussien
est necessaire et il ne sut pas de supposer que X et Y sont des variables gaussiennes. En
eet,
Cov(X, Y ) = E[XY ] = E[X
2
1
[X[a
] E[X
2
1
[X[>a
]
= E[X
2
] E[X
2
1
[X[>a
] E[X
2
1
[X[>a
]
= 1 2E[X
2
1
[X[>a
].
La fonction u(a) = E[X
2
1
[X[>a
] tend vers 0 en +par convergence dominee, est continue
et vaut E[X
2
] = 1 en 0. Par le theor`eme des varleurs intermediaires, il existe donc a tel
que u(a) = 1/2 et Cov(X, Y ) = 0. Pourtant, X et Y sont non independantes sinon la loi
du couple (X, Y ) serait
P
(X,Y )
= P
X
P
Y
= A(0, 1) A(0, 1) = A
__
0
0
_
,
_
1 0
0 1
__
qui est gaussienne, ce qui est faux. On a donc des variables gaussiennes X et Y non correlees
mais non independantes.
14 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
1.3 Processus stochastiques
Denition 1.4 (Processus stochastique) Un processus stochastique X = (X
t
)
tT
est
une famille de variables aleatoires X
t
indexee par un ensemble T.
En general T = R ou R
+
et on consid`ere que le processus est indexe par le temps t.
Si T est un ensemble ni, le processus est un vecteur aleatoire. Si T = N alors le processus
est une suite de variables aleatoires. Plus generalement quand T Z, le processus est dit
discret. Pour T R
d
, on parle de champ aleatoire (drap quand d = 2).
Un processus depend de deux param`etres : X
t
() depend de t (en general le temps) et de
laleatoire .
Pout t T xe, X
t
() est une variable aleatoire sur lespace de probabilite
(, T, P).
Pour xe, t T X
t
() est une fonction ` a valeurs reelles, appelee trajectoire
du processus. Cest un enjeu que de savoir si un processus admet des trajectoires
mesurables, continues, derivables ou encore plus reguli`eres.
Dans la suite, sauf mention contraire, on prendra T = R ou R
+
. Il y a plusieurs facons
pour des processus stochastiques X et Y detre egaux :
Denition 1.5 (

Egalites de processus)
Deux processus X et Y ont meme lois ni-dimensionnelles si pour tout t
1
, . . . , t
n
T
et n N :
(X
t
1
, . . . , X
tn
)
/
= (Y
t
1
, . . . , Y
tn
).
On ecrira X
/
= Y . Lensemble des lois /(X
t
1
, . . . , X
tn
), t
1
, . . . , t
n
T, n N, sap-
pelle les lois ni-dimensionnelles de X.
On dira que Y est une version (ou une modication) du processus X si pour tout
t T, P(X
t
= Y
t
) = 1.
Deux processus X et Y sont dit indistinguables si P(X
t
= Y
t
, t T) = 1.
Un processus X = (X
t
)
tT
est ` a valeurs dans R
T
. On munit R
T
de la tribu cylindrique
(Cyl) engendree par la famille des cylindres :
Cyl =
_
x : T R : x(t
1
) A
1
, . . . , x(t
p
) A
p
, A
1
, . . . , A
p
B(R), p N
_
.
Il sagit de la tribu sur R
T
rendant mesurables les applications coordonnees
t
: x R
T

x(t) R. Il est legitime de regarder un processus X comme une fonction aleatoire ` a valeurs
dans (R
T
, (Cyl)) puisque comme pour chaque t T, X
t
est mesurable, on a aussi, pour
tout cylindre C = x R
T
: x(t
1
) A
1
, . . . , x(t
p
) A
p
, X
1
(C) =

p
i=1
X
1
t
i
(A
i
) T.
On peut alors considerer la loi P
X
du processus sur (R
T
, (Cyl)). Elle se construit par
extension de la famille de ses lois ni-dimensionnelles :
Theor`eme 1.2 (Extension de Kolmogorov) Soit Q
t
1
,...,tn
: t
1
, . . . , t
n
T, n N

une famille de lois ni-dimensionnelles veriant les conditions de compatibilite :


1.3. Processus stochastiques 15
si s = (t
i
1
, . . . , t
in
) est une permutation de t = (t
1
, . . . , t
n
) alors pour tout A
i
B(R),
i = 1, . . . , n, on a
Q
t
(A
1
A
n
) = Q
s
(A
i
1
A
in
);
si t = (t
1
, . . . , t
n
) avec n 1, s = (t
1
, . . . , t
n1
) et A B(R
n1
) alors
Q
t
(A R) = Q
s
(A).
Alors il existe une mesure de probabilite P sur (R
T
, (Cyl)) qui admet Q
t
1
,...,tn
: t
1
, . . . , t
n

T, n N

pour famille de lois ni-dimensionnelles.


Demonstration : Admis, cf. [KS].
Comme les lois ni-dimensionnelles de X satisfont les relations de compatibilite, le theor`eme
permet eectivement de considerer la loi P
X
dun processus sur (R
T
, (Cyl)). De plus :
Proposition 1.12 La loi dun processus stochastique est enti`erement determinee par ses
lois ni-dimensionnelles /(X
t
1
, . . . , X
tn
) : t
1
, . . . , t
n
T, n N

.
Preuve. Considerons deux processus X
1
et X
2
partageant les memes lois ni-dimensionnelles.
Nous montrons que leur loi P
1
et P
2
sur (R
T
, (Cyl)) sont egales.
Remarquons que lensemble Cyl des cylindres est un -syst`eme (stable par ). Notons
/ = A (Cyl) : P
1
(A) = P
2
(A). Il sagit dune classe monotone (R
T
/, stable
par dierence ensembliste, stable par reunion croissante) qui contient Cyl (X
1
et X
2
ont
memes lois ni-dimensionnelles) : pour un cylindre C,
P
1
(C) = P(X
1
t
1
A
1
, . . . , X
1
tn
A
n
) = P(X
2
t
1
A
1
, . . . , X
2
tn
A
n
) = P
2
(C).
Le theor`eme de classe monotone assure que (Cyl) /, ce qui donne le resultat.
Il est facile de voir que pour deux processus stochastiques X et Y , les notions degalite des
lois de processus sordonnent logiquement de la facon suivante :
Proposition 1.13 indistinguable modication meme lois ni-dimensionnelles.
Les implications sont strictes, comme indiques dans les exemples ci-dessous :
Exemple : 1) Soit N A(0, 1) et pour tout t : X
t
= N, Y
t
= N. Alors (X
t
)
t0
et (Y
t
)
t0
ont meme lois ni-dimensionnelles tandis que P(X
t
= Y
t
) = P(2N = 0) = 0.
2) Soit lespace de probabilite ([0, 1], B([0, 1]), ) et T = [0, 1]. Considerons D la diagonale
de [0, 1] [0, 1] et denissons
X(t, ) = 0 (t, ), Y (t, ) = 1
D
(t, ).
Pour t xe, on a X(t, ) = 0 et Y (t, ) = 0 pour ,= t, 1 pour = t. On a donc
X(t, ) = Y (t, ) pour tout ,= t, cest `a dire ps. Les processus X, Y sont des versions du
16 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
meme processus. Pourtant, P( : X(t, ) = Y (t, ), t) = 0 : les processus X et Y ne sont
pas indistinguables.
Dans lexemple 2) ci-dessus, observons que les trajectoires de X sont continues tandis
que celles de Y ne le sont pas. En fait, cest ce quil manque pour la reciproque puisque
limplication indistinguable modication admet la reciproque suivante :
Proposition 1.14 Soient T separable (ie. T contient une partie dense denombrable) et
X, Y modications ont des trajectoires continues ps alors ils sont indistinguables.
Si T R alors on peut supposer seulement la continuite `a droite ou ` a gauche des trajec-
toires.
Demonstration : On choisit D une partie denombrable dense dans T. Pour tout t D,
P(X
t
= Y
t
) = 1 et par denombrabilite de D, on a A = X
t
= Y
t
, t D est de probabilite
1. Soit A tel que X

(), Y

() sont continues. Alors


si t D, on a X
t
= Y
t
.
si t , D, il existe t
n
D avec t
n
t. On a X
tn
= Y
tn
(t
n
D) et X
tn
X
t
,
Y
tn
Y
t
(continuite des trajectoires). On a donc X
t
= Y
t
.
Finalement X
t
= Y
t
t T pour A.
Regularite des trajectoires
Dapr`es la remarque precedente, les versions dun processus stochastiques nont pas
toujours la meme regularite de leurs trajectoires. Aussi, il est interessant de chercher si
un processus X admet des versions

X dont les trajectoires ont de bonnes proprietes de
regularite et davoir des conditions le garantissant.
Theor`eme 1.3 (Kolmogorov-Centsov) Soit (X
t
)
tT
un processus indexe par un inter-
valle T borne de R et `a valeurs dans (E, d) espace metrique complet. On suppose quil
existe a, b, C > 0 veriant pour tout s, t :
E[d(X
t
, X
s
)
a
] C[t s[
1+b
. (1.6)
Alors il existe une version

X de X dont les trajectoires sont holderiennes dexposant pour
tout ]0, b/a[, ie. pour tout s, t T : d(

X
s
(),

X
s
()) C

()[t s[

. En particulier,

X est une version continue de X.


Remarque 1.5 La condition du theor`eme porte sur les lois de dimension 2 :
E[d(X
t
, X
s
)
a
] =
_
R
2
[x y[
a
dP
(Xt,Xs)
(dx, dy),
ce qui en pratique nest pas trop dicile ` a calculer.
1.3. Processus stochastiques 17
Quand (E, d) = (R, [ [), a priori, dans le theor`eme, a et b sont non lies. En realite,
on peut toujours prendre a 1 + b. En eet, si a < 1 + b, alors (1.6) se reecrit
E
_

d(X
t
, X
s
)
t s

a
_
c[t s[
1+ba
avec 1 + b a > 0. En faisant s t, la derivee dans le sens L
a
de (X
t
)
t
est nulle
et (X
t
)
t
est donc constant. Ce nest donc pas tr`es interessant dutiliser le theor`eme
dans un tel cas : puisque le processus initial est en fait constant, il est evident quil
est aussi continu.
La condition b > 0 est essentielle : le processus de Poisson compense (
t
t)
t0
fournit un contre-exemple quand b = 0. Soit X
t
=
t
t o` u (
t
)
t
est un processus de
Poisson (processus ` a accoissements independants, stationnaires avec des marginales
de loi de Poisson, cf. Section 3.4).
t
T(t), E[
t
] = t et E[(
t
t)] = t = Var(
t
).
On a
E[[X
t
X
s
[
2
] = Var(
t

s
) = Var(
ts
) = t s.
On a donc (1.6) avec a = 2, b = 0 et C = 1. Or les trajectoires du processus de
Poisson sont constantes par morceaux avec des sauts.
Demonstration : Nous supposons T intervalle borne. Si lintervalle T est non borne
(par exemple si T = R
+
), on peut appliquer le cas borne `a T = [0, 1], [1, 2], [2, 3] etc
et on trouve encore que X a une modication continue denie sur T, qui est localement
holderienne dexposant pour tout ]0, b/a[. Pour simplier lecriture, on prend dans la
suite T = [0, 1].
Il sut de montrer que pour ]0, b/a[ xe, X a une modication dont les trajectoires
sont holderiennes dexposant . En eet, on applique ce resultat ` a une suite
n
b/a en
observant que les processus obtenus sont des versions continues du meme processus X donc
indistinguables par la Prop. 1.14.
On note D lensemble (denombrable) des nombres dyadiques t [0, 1[ qui secrivent sous
la forme
t =
p

k=1

k
2
k
avec
k
= 0 ou 1.
Le point clef est le resultat suivant d u au lemme de Borel-Cantelli :
Lemme 1.1 Pour tout ]0, b/a[ il existe ps une constante C

() < + telle que, pour


tous s, t D,
d(X
s
, X
t
) C

()[t s[

.
Preuve du lemme. Avec linegalite de Markov, lhypoth`ese du Theor`eme 1.3 entrane
que, pour a > 0 et s, t T
P(d(X
s
, X
t
) u) u
a
E[d(X
s
, X
t
)
a
] Cu
a
[t s[
1+b
.
18 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
En appliquant cette inegalite `a s = (i 1)2
n
, t = i2
n
(pour i = 1, . . . , 2
n
) et u = 2
n
,
on a :
P(d(X
(i1)2
n, X
i2
n) 2
n
) C2
na
2
(1+b)n
.
En sommant sur i on trouve
P
_
2
n
_
i=1
d(X
(i1)2
n, X
i2
n) 2
n

_
2
n
C2
na(1+b)n
= C2
n(ba)
.
Comme b a > 0, on a

+
n=1
P
_

2
n
i=1
d(X
(i1)2
n, X
i2
n) 2
n

_
< + et le lemme
de Borel-Cantelli assure que ps il existe n
0
() tel que d`es que n n
0
() pour tout i
1, . . . , 2
n
on a
d(X
(i1)2
n, X
i2
n) 2
n
.
A fortiori ps
K

() := sup
n1
_
sup
1i2
n
d(X
(i1)2
n, X
i2
n)
2
n
_
< +
(pour n n
0
(), le terme entre parenth`eses est majore par 1, et il y a un nombre ni de
terme n n
0
()).
On obtient alors le resultat du lemme avec C

() = 2
+1
(1 2

)K

(). En eet, conside-


rons s, t D avec s < t. Soit p 1 tel que 2
p1
< t s 2
p
. Il existe m 1 tel quon
puisse ecrire
s = k2
p
+
0
2
p
+
1
2
p1
+ +
m
2
pm
t = k2
p
+
t
0
2
p
+
t
1
2
p1
+ +
t
m
2
pm
o` u
j
,
t
j
= 0 ou 1. On note pour i = 0, . . . , m
s
j
= k2
p
+
0
2
p
+
1
2
p1
+ +
j
2
pj
t
j
= k2
p
+
t
0
2
p
+
t
1
2
p1
+ +
t
j
2
pj
Comme s = s
m
et t = t
m
, on a
d(X
s
, X
t
) = d(X
sm
, X
tm
)
d(X
s
0
, X
t
0
) +
m

j=1
d(X
s
j1
, X
s
j
) +
m

j=1
d(X
t
j1
, X
t
j
)
K

()2
p
+
m

j=1
K

()2
(p+j)
+
m

j=1
K

()2
(p+j)
K

()2(1 2

)
1
2
p
C

()(t s)

car 2
p
2(t s), ce qui prouve le lemme.
1.3. Processus stochastiques 19
On termine la preuve du Theor`eme 1.3 de la facon suivante : dapr`es le lemme, la fonction
t X
t
() est ps -holderienne sur D, donc uniformement continue sur D. Comme (E, d)
est complet, il existe ps un unique prolongement continu de cette fonction ` a T = [0, 1]. Le
prolongement reste -holderien. Plus precisement, on pose pour tout t [0, 1] :

X
t
() = lim
st,sD
X
s
()
sur lensemble presque s ur : K

() < + o` u s X
s
() est -holderienne sur D et
on pose

X
t
() = x
0
sur lensemble : K() = + negligeable o` u x
0
est un point xe
quelconque de E. Le processus

X a alors des trajectoires holderiennes dexposant sur
[0, 1].
Il reste ` a voir que

X est une modication de X. Or lhypoth`ese (1.6) assure (par linegalite
de Markov) que pour tout t T,
X
s
P
X
t
, s t.
Comme par construction X
s


X
t
ps quand s t, s D, on conclut que X
t
=

X
t
ps.
Exemples de proprietes en loi des processus
Il existe de nombreuses classes de processus particuliers : les processus de Markov (en
particulier les chanes de Markov quand T = N), les martingales, les processus gaussiens, les
processus de Poisson, les processus stables ou encore les processus de Levy (qui contiennent
les trois exemples precedents).
Exemples de proprietes en loi des processus. Les lois ni-dimensionnelles des proces-
sus verient parfois des proprietes qui peuvent etre utiles pour modeliser des phenom`enes
reels.
Denition 1.6 Un processus est dit (strict) stationnaire si pour tout h, (X
t+h
)
t
/
= (X
t
)
t
ne depend pas de h > 0, cest `a dire pour tout h et tout t
1
, . . . , t
n
, on a (X
t
1
+h
, . . . , X
tn+h
)
/
=
(X
t
1
, . . . , X
tn
).
Un processus est dit `a accroissements stationnaires si la loi des accroissements X
t+h

X
t
ne depend pas de t > 0, ie. X
t+h
X
t
/
= X
h
.
Un processus X est dit `a accroissements independants si pour tout 0 < t
1
< t
2
< t
n
,
les variables aleatoires X
t
1
, X
t
2
X
t
1
, . . . , X
tn
X
t
n1
sont independantes.
Exemple. T = N. Soit (X
i
)
i1
une suite de variables aleatoires independantes. On consi-
d`ere S
n
=

n
i=0
X
i
le processus discret de sommes partielles. On parle de marche aleatoire.
Alors (S
n
)
nN
est un processus ` a accroissements independants. Si en plus les variables alea-
toires X
i
sont de meme loi (des vaiid), le processus est ` a accroissements independants et
stationnaires.
20 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
1.4 Processus gaussiens
Denition 1.7 (Processus gaussien) Soit (X
t
)
tT
un processus stochastique. Il est dit
gaussien si toutes ses lois ni-dimensionnelles /(X
t
1
, . . . , X
tn
) sont gaussiennes (n N,
t
1
, . . . , t
n
T).
Autrement dit X = (X
t
)
tT
est gaussien ssi toute combinaison lineaire de ses marginales
a
1
X
t
1
+ +a
n
X
tn
suit une loi gaussienne (pour tout n N, t
1
, . . . , t
n
T et a
1
, . . . , a
n

R).
Remarque 1.6 Les consequences suivantes sont immediates :
Toutes les marginales dun processus gaussien sont bien s ur gaussiennes.
Toute combinaison lineaire de marginales dun processus gaussien est encore gaus-
sienne.
Il est connu que la loi dun vecteur gaussien (X
t
1
, . . . , X
tn
) est determinee (par exemple
via sa fonction caracteristique) par le vecteur moyenne m
X
= (E[X
t
1
], . . . , E[X
tn
]) et la
matrice de covariance Cov
X
= (Cov(X
t
i
, X
t
j
)
1i,jn
). On comprend des lors que toutes les
lois ni-dimensionnelles dun processus gaussien (donc toute la loi du processus) est connue
des quon se donne la fonction moyenne m(t) = E[X
t
] et loperateur de covariance K(s, t) =
Cov(X
s
, X
t
). En eet, la loi ni-dimensionnelle de (X
t
1
, . . . , X
tn
) est alors la loi gaussienne
de dimension n A(m
n
, K
n
) avec m
n
= (m(t
1
), . . . , m(t
n
)) et K
n
= (K(t
i
, t
j
))
1i,jn
. Les
fonctions m et K denissent donc toutes les lois ni-dimensionnelles de X et donc aussi sa
loi, cf. Prop. 1.12. Observons que
K est symetrique : K(s, t) = K(t, s) ;
K est de type positif, ie. si c : T R est une fonction `a support ni alors :

s,tT
c(s)c(t)K(s, t) = E
_
_
_

sT
c(s)X
s
_
2
_
_
0.
Reciproquement, etant donnees une fonction m sur T et un operateur K sur T T, existe-
t-il un processus gaussien X admettant m pour fonction moyenne et K pour operateur de
covariance ? La reponse est donnee par le resultat suivant :
Theor`eme 1.4 Soit K une fonction symetrique de type positif sur T T. Il existe alors
un processus gaussien dont la fonction de covariance est K.
Demonstration : Quitte ` a considerer ensuite le processus X(t) +m(t) on consid`ere pour
simplier le cas dun processus centre (m = 0). Cest une application simple du theor`eme
dextension de Kolmogorov (th. 1.2). On construit une probabilite P sur lespace mesu-
rable (R
T
, (Cyl)) de telle sorte que sous P le processus des coordonnees X
t
() = (t)
est un processus gaussien de fonction de covariance K. Si t
1
, . . . , t
n
est une partie nie
de T, on construit dabord une probabilite P
t
1
,...,tn
sur R
t
1
,...,tn
R
n
comme la loi du
vecteur gaussien de matrice de covariance (K(t
i
, t
j
))
1i,jn
(qui existe dapr`es la Section
1.4. Processus gaussiens 21
1.2 puisque la matrice est symetrique positive). On verie aisement que les lois P
t
1
,...,tn
satisfont les proprietes de compatilite du Theor`eme 1.2 (Kolmogorov) qui sapplique donc.
La loi P
K
ainsi construite sur (R
T
, (Cyl)) est bien celle dun processus gaussien puisque
par construction toutes ses lois ni-dimensionnelles sont gaussiennes.
Exemple. On consid`ere le cas T = R et on se donne une mesure nie symetrique (ie.
(A) = (A)) sur R. On pose alors
K(s, t) =
_
R
e
iu(ts)
(du). (1.7)
On verie aisement que K est symetrique K(t, s) = K(s, t) (car est symetrique) et de
type positif :

s,tT
c(s)c(t)K(s, t) =
_

sT
c(s)e
ius

2
(du) 0.
La fonction K poss`ede la propriete supplementaire de dependre seulement de la dierence
t s. On parle de stationnarite faible (ou de deuxi`eme ordre) et on ecrit alors K(t, s) =
K([t s[). On en deduit aussitot que le processus X associe ` a K par le theor`eme precedent
est stationnaire (au sens strict), cest ` a dire
(X
t
1
+h
, . . . , X
tn+h
)
/
= (X
t
1
, . . . , X
tn
)
pour tout choix de t
1
, . . . , t
n
, h R, n N

. Reciproquement, il est vrai aussi que si (X


t
)
tR
est un processus gaussien stationnaire, continu dans L
2
(ie. E[(X
t
X
s
)
2
] 0, s t) la
fonction de covariance de X est de la forme (1.7) (theor`eme de Bochner).
La mesure sappelle la mesure spectrale du processus. Elle vehicule beaucoup dinfor-
mations decrivant le processus. Par exemple, on a K(0) = Var(X
t
) = (R).
Remarque 1.7 K continue en 0 X est L
2
-continu K est continu partout.
Au passage, on a utilise que la stricte stationnarite dun processus gaussien est equivalente
` a la stationnarite faible :
Proposition 1.15 Un processus gaussien X est stationnaire ssi E[X
t
] est constante et
K(s, t) = K(s t) (on parle de stationnarite faible).
Demonstration : Il est clair que ces conditions sont necessaires, que le processus soit gaus-
sien ou pas : comme par stationnarite, on a /(X
t
) = /(X
s
) pour tout t, s, on a E[X
t
] =
E[X
s
] et donc la fonction moyenne est constante ; de meme /(X
t
, X
s
) = /(X
t+h
, X
s+h
)
pour tout t, s, h, on a Cov(X
t
, X
s
) = Cov(X
t+h
, X
s+h
) et donc la covariance ne depend que
de la dierence t s.
Elles sont susantes seulement dans le cas gaussien puisque dans ce cas, la loi est caracte-
risee par t E[X
t
] et par K(s, t). Il est facile alors de voir dans ce cas quune translation
22 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
dans les param`etres de temps ne modie pas ces fonctions sous les hypoth`eses de la pro-
position.
Des bonnes conditions pour avoir une version assez reguli`ere dun processus gaussien
sont donnees dans le resultat suivant, consequence facile du Theor`eme 1.3 (Kolmogorov-
Centsov).
Theor`eme 1.5 (Regularite dun processus gaussien) Soit X un processus gaussien
centre (E[X
t
] = 0), de fonction de covariance K(s, t). On suppose quil existe > 0 et
C < + tels que pour tout s, t :
K(t, t) + K(s, s) 2K(s, t) C[t s[

.
Alors il existe une version continue

X de X. De plus, pour tout < /2, les trajectoires
de

X sont ps holderiennes de coecient .
Demonstration :
`
A partir de E[[X
t
X
s
[
2
] = E[X
2
t
] + E[X
2
s
] 2E[X
t
X
s
] C[t s[

,
on ne peut pas appliquer directement le Theor`eme 1.3 car > 1 nest pas garanti. On
sinteresse plutot ` a E[[X
t
X
s
[
2m
]. On rappelle que dapr`es la Prop. 1.2, pour X variable
normale centree, on a : E[X
2m
] =
(2m)!
2
m
m!
Var(X)
m
. Il vient :
E[[X
t
X
s
[
2m
] C
m
(2m)!
2
m
m!
[t s[
m
.
On choisit alors m tel que m > 1. Dapr`es le Theor`eme 1.3 (Kolmogorov-Centsov) avec
b = m 1, a = 2m, et
b
a
=
m 1
2m
on a une version
m1
2m
-holderienne de X. Comme lim
m+
m1
2m
=

2
il existe une version
-holder de X pour tout < /2.
1.5 Exemples de processus gaussiens
Avant detudier en detail le mouvement brownien au chapitre 2, on decrit bri`evement ce
processus ainsi que quelques autres processus associes.
Mouvement brownien
Soit T = R
+
, le mouvement brownien (standard) (B
t
)
t0
est le processus gaussien deni
par E[B
t
] = 0 et K(s, t) = min(s, t). On lappelle aussi processus de Wiener.
1.5. Exemples de processus gaussiens 23
Proprietes immediates
1) B
0
= 0 car la loi de B
0
est A(0, 0) =
0
, la loi degeneree en 0.
2) (B
t
)
t
est un processus ` a accroissements independants. En eet soit 0 t
1
< t
2
< t
3
< t
4
,
on a
Cov(B
t
2
B
t
1
, B
t
4
B
t
3
) = E[(B
t
2
B
t
1
)(B
t
4
B
t
3
)]
= E[B
t
2
B
t
4
] E[B
t
2
B
t
3
] E[B
t
1
B
t
4
] +E[B
t
1
B
t
3
]
= t
2
t
2
t
1
+ t
1
= 0.
Les variables B
t
2
B
t
1
et B
t
4
B
t
3
sont donc non correlees. Comme elles sont gaussiennes,
elles sont independantes. On justie de meme lindependance de n accroissements.
3) B
t
A(0, t) car E[B
t
] = 0 et Var(B
t
) = K(t, t) = t.
4) Si s t, on a B
t
B
s
B
ts
. En eet E[B
t
B
s
] = E[B
t
] E[B
s
] = 0 et
Var(B
t
B
s
) = Cov(B
t
B
s
, B
t
B
s
)
= Cov(B
t
, B
t
) 2 Cov(B
t
, B
s
) + Cov(B
s
, B
s
)
= t 2s + s = t s.
Donc B
t
B
s
A(0, t s) B
ts
.
5) Autosimilarite :

B
t
=
1

c
B
ct
est encore un mouvement brownien (standard).
6) Comportement analogue en 0 et en +:

B
t
= tB
1/t
est encore un mouvement brownien
standard.
Le processus B
t
a donc le meme comportement au voisinnage de 0 et en +
7) Localisation : pour tout t
0
,

B
t
= B
t+t
0
B
t
0
est encore un mouvement brownien standard.
Le processus B
t
a donc le meme comportement en 0 et en t
0
.
8) (B
t
)
t
a des trajectoires ps holderiennes dordre < 1/2 mais non ps derivables.
En eet, E[[B
t
B
s
[
2
] = [t s[, donc la continuite holderienne suit du theor`eme 1.5.
On admet la non-derivabilite des trajectoires, cf. Chapitre 2 et Th. 2.1.
[Graphe typique des trajectoires.]
Pont Brownien
Soit T = [0, 1], le pont brownien (B

t
)
t[0,1]
est le processus gaussien centre deni par la
fonction de covariance K(s, t) = min(s, t) st.
[Graphe typique des trajectoires.]
Proposition 1.16 On peut denir directement un pont brownien B

`a partir dun mou-


vement brownien B par
B

t
= B
t
tB
1
, t 0.
24 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
Demonstration : En eet, dabord (B
t
tB
1
)
t[0,1]
est gaussien, centre puis pour s, t
[0, 1], on a
Cov(B
t
tB
1
, B
s
sB
1
)
= Cov(B
t
, B
s
) t Cov(B
1
, B
s
) t Cov(B
s
, B
1
) + ts Cov(B
1
, B
1
)
= min(t, s) ts st + ts
= min(t, s) ts.
Comme le processus (B
t
tB
1
)
t[0,1]
est gaussien, centre avec la bonne covariance, il sagit
dun pont brownien.
Reciproquement, on peut construire le mouvement brownien B sur T = [0, 1] `a partir du
pont brownien B

et dune loi normale X A(0, 1) independante de B

par
B
t
= B

t
+ tX.
Exercice. Verier par un calcul de covariance quon denit ainsi un mouvement brownien.
Proprietes.
1.

B

t
= B

1t
est encore un pont brownien. Le pont brownien est donc symetrique en 0
et en 1 par retournement du temps.
2. (B

t
)
t
a des trajectoires ps holderiennes dordre < 1/2 mais non ps derivables.
Largument est le meme que pour le mouvement brownien avec E[(B

t
)
2
] = t t
2
.
3. B

est un mouvement brownien B conditionne ` a valoir 0 ` a la date t = 1.


Processus dOrnstein-Uhlenbeck
Soit T = R, le processus dOrnstein-Uhlenbeck est le processus gaussien centre deni par
U
t
= e
t/2
B(e
t
)
o` u B est un mouvement brownien. On montre facilement que U
t
A(0, 1) car Var(U
t
) = 1,
ce processus est donc stationnaire. Sa fonction de covariance est donnee par
K(s, t) = e
[ts[/2
.
Elle ne depend que de la dierence (t s), il sagit bien dun processus stationnaire de
fonction de covariance plus simplement donnee par K(t) = e
[t[/2
(exo). Elle est donnee
sous forme integrale avec la mesure spectrale (du) =
1

du
1 + u
2
.
1.5. Exemples de processus gaussiens 25
Brownien geometrique
Ce nest pas un processus gaussien mais lexponentiel dun processus gaussien. Il sagit de
S
t
= x exp(t + B
t

2
t/2). (1.8)
Un tel processus modelise le cours dun actif S
t
soumis `a un taux dinteret et `a une
volatilite et qui vaut x au temps 0.
On le trouve en supposant comme Samuelson que les rendements entre deux periodes sont
mesures par les logarithmes des cours S
t
.
On suppose de plus que les rendements entre 0 et t suivent un mouvement brownien de
tendance (drift)
2
/2 et de coecient de diusion (volatilite) . Cela se traduit par les
proprietes suivantes sur les prix (S
t
)
t
:
S
0
= x.
Les rendements log S
t
log S
s
suivent une loi gaussienne de moyenne (
2
/2)(ts)
et de variance
2
(t s).
Pour tout t
0
= 0 t
1
t
n
, les accroissements relatifs S
t
i+1
/S
t
i
, 0 i n 1,
sont independants.
On en deduit quil existe un mouvement brownien (B
t
)
t0
tel que en t, S
t
= x exp(t +
B
t

2
t/2).
Bruit blanc gaussien
Soit (/, ) un espace mesure et | = A / : (A) < +.
Le buit blanc est un processus gaussien (X
A
)
A,
indexe par lensemble des mesurables /
deni par E[X
A
] = 0 et Cov(X
A
, X
B
) = (A B).
Il faut apprehender le buit blanc comme une mesure aleatoire A X
A
(). Elle est aleatoire
car X
A
depend de . On connait quand meme la loi de X(A) A(0, (A)).
Attention cependant, un bruit blanc nest pas une vraie mesure car A X
A
nest pas
-additif.
Mouvement brownien fractionnaire
Soit T = R
+
.
Le mouvement brownien fractionnaire (mBf) (B
H
(t))
t0
est le processus gaussien centre
deni par la fonction de covariance
K(s, t) =
1
2
([s[
2H
+[t[
2H
[s t[
2H
).
Proprietes immediates.
1. Pour H = 1/2, le mBf devient le mouvement brownien standard.
26 Chapitre 1. c _JCB M2 Math. Universite de Rennes 1
2. On a E[[B
H
(t) B
H
(s)[
2
] = [t s[
2H
.
3. Autosimilarite : B
H
(t) = c
H
B
H
(ct) est encore un mBf dindice H.
4. Les accroissements du mBf ne sont independants que lorsque H = 1/2 (cest `a dire
dans le cas du mouvement brownien).
Cas H = 1. On a E[B
H
(t)B
H
(s)] = st. On montre alors quil sagit dun processus degenere
de la forme B
H
(t) = tB
H
(1). Il sagit en fait dune droite aleatoire (la dependance est donc
tr`es forte dans la trajectoire).
Cas H = 0. On a
E[B
H
(t)B
H
(s)] =
1
2
([s[
0
+[t[
0
[s t[
0
) =
_
1/2 si s ,= t
1 si s = t.
Dans le cas H = 0, on peut construire le mBf de la facon suivante : soit (Y
t
)
t
une suite de
vai et Z une variable aleatoire independante de (Y
t
)
t
. On les prend de loi Y
t
Z A(0, 1).
Considerons alors X
t
=
Yt+Z

2
. On montre facilement que X
t
a bien la covariance cherchee.
On constate alors que les trajectoires de (X
t
)
t
sont compl`etement discontinues.
[Graphe typique des trajectoires.]
De facon generale, pour 0 < H < 1, les trajectoires du mBf (B
H
(t))
t
sont -holderiennes
pour tout ordre < H. Cest d u au theor`eme 1.5 de regularite des processus gaussiens.
Chapitre 2
Mouvement brownien
Dans ce chapitre, on presente le mouvement brownien (MB). Nous renvoyons ` a [LG0]
pour une introduction generale de ce processus, `a [KS], [RY] pour une description detaillee
des principales proprietes du mouvement brownien.
On commence par quelques dates marquantes de lhistoire du mouvement brownien en
Section 2.1 avant de denir le mouvement brownien en Section 2.2. On en etudie les
proprietes en loi en Section 2.3, proprietes des trajectoires en Section 2.4, la variation
quadratique en Section 2.5. On etudie enn la propriete de Markov forte en Section 2.6
avec notamment le principe de reexion. On revient ` a lequation de la chaleur en Section
2.7.
Historiquement, le mouvement brownien a ete exhibe pour representer des mouvements qui
evoluent au cours du temps de facon particuli`erement desordonnee, par exemple en nance
pour representer des cours de bourses tr`es volatiles ou en physique pour representer des
particules microscopiques soumises aux multiples chocs de leur environnement. Le mouve-
ment brownien joue un role central dans la theorie des processus stochastiques (comme la
loi A(0, 1) pour les lois de probabilites sur R). Il apparat dans de nombreuses situations
aussi bien theoriques quappliquees et il ore un cadre assez simple o` u de nombreux calculs
peuvent etre menes.
2.1 Historique
En 1827, la premi`ere description (heuristique) du mouvement brownien est due au bota-
niste ecossais Robert Brown (qui lui a donc donne son nom). Il observe de nes particules
organiques en suspension dans un gaz ou un uide et en decrit les mouvement particuli`ere-
ment erratique, au point que plusieurs physiciens estiment ensuite pendant le 19`eme si`ecle
que ce mouvement ne semble pas admettre de tangente. On ne pourrait donc pas parler de
vitesse, ni appliquer les lois de la mecanique !
En 1900, la premi`ere approche mathematique du mouvement brownien est due au francais
Louis Bachelier (dans sa Theorie de la speculation). Il lintroduit pour modeliser la dyna-
mique des prix des actions `a la bourse. Sa demarche sera cependant oubliee jusque vers les
27
28 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
annees 1960.
En 1905, lallemand Albert Einstein (dans sa Theorie de la relativite restreinte) construit
un mod`ele probabiliste pour decrire le mouvement dune particule qui diuse : il montre
notamment que la loi de la position ` a linstant t de la particule, sachant que letat initial
est x admet une densite qui verie lequation de la chaleur et de ce fait est gaussienne.
Davantage dexplications sur les relations entre mouvement brownien et equation de la
chaleur sont donnees en Section 2.7.
La meme annee quEinstein, le physicien polonais Marian von Smoluchowki utilise des pro-
menades aleatoires pour decrire le mouvement brownien : il en est les limites.
En 1923, lamericain Norbert Wiener donne une premi`ere construction mathematique rigou-
reuse du mouvement brownien en tant que processus stochastique. Il etablit en particulier
la continuite des trajectoires.
Dans la periode 1930-1960, de nombreuses proprietes du mouvement brownien sont ensuite
etablies notamment par le francais Paul Levy. La notion dequation dierentielle stochas-
tique est introduite. Le japonais Kiyoshi Ito les generalisera et les analysera avec son traite
de 1948. Cette demarche tr`es feconde etablit des liens importants entre analyse et proba-
bilite et fonde lanalyse et le calcul stochastiques.
Les relations entre probabilites et physique sont, elles, explorees via le mouvement brow-
nien et ses generalisations d`es 1930 par les neerlandais Leonard Ornstein et George Eugene
Uhlenbeck en suivant une idee du francais Paul Langevin. Ils montrent que le processus
dOrnstein-Uhlenbeck decrit la situation dequilibre dun mod`ele dirige par le mouvement
brownien.
Depuis, de nombreux tavaux sont consacres au mouvement brownien, `a ses generalisations
et au calcul stochastique. Citons pour terminer Wolfgang Doblin, mathematicien franco-
allemand dont les travaux precurseurs en analyse stochastique (n des annees 30) sont
restes meconnus jusqu`a louverture de son cel`ebre pli cachete en 2000 `a lacademie des
sciences de Paris (Doblin, mobilise pendant la deuxi`eme guerre mondiale avait envoye ses
travaux depuis le front, par crainte de ne pas revenir de la guerre. Il nest pas revenu. Son
courrier est reste oublie jusquen 2000).
Dans le cadre deterministe, de nombreux phenom`enes sont regis par des equations
dierentielles (ou equations aux derivees partielles). Pour les phenom`enes modelises par
un mouvement brownien, on sattend `a avoir des equations dierentielles faisant interve-
nir le mouvement brownien. Malheureusement, ce processus a des trajectoires nulle part
derivables (cf. Prop. 2.6 et Th. 2.1) et il nest pas possible de considerer des equations die-
rentielles le faisant vraiment intervenir. Plut ot que de le deriver, on cherchera dans la suite,
` a integrer contre ce processus, ce qui permettra de contourner le probl`eme en considerant
des equations integrales (il est dusage de se ramener ` a lecriture symbolique de derivees
et on parlera alors dequation dierentielle stochastique). Dans les prochains chapitres (cf.
Chapitre 5), on denit lintegrale stochastique pour une large classe de processus (les se-
mimartingales, cf. Chapitre 4). Si on se contente du cadre brownien (integrale et equation
dierentielle stochastique pour le mouvement brownien), on parle de calcul dIto. Dans ce
cadre simplie, la contruction est plus directe. On consulera les notes cours [Tud] ou le
2.2. Denition, premi`eres proprietes 29
livre [Gal] pour cette approche reservee au brownien
Dans ce chapitre, nous en donnons les principales proprietes (en loi en Section 2.3, tra-
jectorielles en Section 2.4, variation quadratique en Section 2.5) notamment les proprietes
de Markov faible et forte (Section 2.6).
`
A la n du chapitre en Section 2.7, nous explorons
les liens entre le mouvement brownien et lequation de la chaleur, ce qui correspond ` a la
demarche dEinstein pour apprehender le mouvement brownien.
2.2 Denition, premi`eres proprietes
Le caract`ere tr`es erratique des trajectoires qui caracterise le mouvement brownien est en
general associe `a lobservation que le phenom`ene, bien que tr`es desordonne, presente une
certaine homogeneite dans le temps, au sens o` u la date dorigine des observations na pas
dimportance. Ces proprietes sont reprises dans la denition qui suit.
Denition 2.1 Un mouvement brownien (standard) reel est un processus gaussien centre
(B
t
)
tR
+
`a trajectoires continues de fonction de covariance
K(s, t) = min(s, t) := s t.
On lappelle aussi processus de Wiener.
Loperateur K(s, t) = min(s, t) est symetrique et de type positif. En eet si c : R R est
` a support borne alors

s,tR
c(s)c(t)K(s, t) =

s,tR
c(s)c(t)(s t)
=

s,tR
c(s)c(t)
_
1
[0,s]
(x)1
[0,t]
(x)dx
=
_

s,tR
c(s)c(t)1
[0,s]
(x)1
[0,t]
(x)dx
=
_
_

tR
c(t)1
[0,t]
(x)
_
2
dx 0.
Par le Theor`eme 1.4, il existe donc un processus gaussien centre de covariance K. Par
contre, il nest pas evident quil admette une version ` a trajectoires continues ps. Cela sera
justie en debut de Section ?? avec le theor`eme de regularite de Kolmogorov-Centsov (Th.
1.3).
Proprietes immediates
1) B
0
= 0 car la loi de B
0
est A(0, 0) =
0
, la loi degeneree en 0.
2) B
t
A(0, t) car E[B
t
] = 0 et Var(B
t
) = K(t, t) = t.
30 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
3) (B
t
)
t
est un processus ` a accroissements independants. En eet soit 0 t
1
< t
2
<
t
3
< t
4
, on a
Cov(B
t
2
B
t
1
, B
t
4
B
t
3
) = E[(B
t
2
B
t
1
)(B
t
4
B
t
3
)]
= E[B
t
2
B
t
4
] E[B
t
2
B
t
3
] E[B
t
1
B
t
4
] +E[B
t
1
B
t
3
]
= t
2
t
2
t
1
+ t
1
= 0.
Les variables B
t
2
B
t
1
et B
t
4
B
t
3
sont donc non correlees. Comme le vecteur (B
t
2

B
t
1
, B
t
4
B
t
3
) est gaussien, B
t
2
B
t
1
et B
t
4
B
t
3
sont independantes. On justie de meme
lindependance de n accroissements, n 1.
4) Si s t, on a B
t
B
s
B
ts
. En eet E[B
t
B
s
] = E[B
t
] E[B
s
] = 0 et
Var(B
t
B
s
) = Cov(B
t
B
s
, B
t
B
s
)
= Cov(B
t
, B
t
) 2 Cov(B
t
, B
s
) + Cov(B
s
, B
s
)
= t 2s + s = t s.
Donc B
t
B
s
A(0, t s) B
ts
.
Remarque 2.1 Les proprietes 3) et 4) senoncent comme suit : le mouvement brownien
a des accroissements independants et stationnaires.
Denition 2.2 (Denition equivalente du MB) Soit B = (B
t
)
t0
une famille de va-
riables aleatoires indexees par le temps. On dit que B est un mouvement brownien si cest
un processus `a trajectoires continues tel que
i) pour tout t 0 : B
t
A(0, t).
ii) pour tout 0 t
1
t
2
t
n
, les variables aleatoires B
t
1
, B
t
2
B
t
1
, . . . B
tn
B
t
n1
sont independantes.
Preuve de lequivalence. On sait dej` a quun MB verie i) et ii). Il reste ` a voir la reci-
proque. En ecrivant B
t
= B
s
+B
t
B
s
pour s t, on a par independance des accroissements

Bt
=
Bs

BtBs
. Do` u

BtBs
(x) =
Bt
(x)
Bs
(x)
1
= exp(tx
2
/2) exp(sx
2
/2) = exp((t s)x
2
/2) =
B
ts
(x).
Les accroissements sont donc stationnaires, en particulier ils sont gaussiens. Comme les
accroissements sont independants, un vecteur daccroissements (B
t
1
, B
t
2
B
t
1
, . . . B
tn

B
t
n1
) a pour loi la loi produit de ses lois marginales qui sont gaussiennes. Un vecteur
daccroissements est donc gaussien. Mais comme (B
t
1
, B
t
2
, . . . B
tn
) est une transformation
2.3. Proprietes en loi du mouvement brownien 31
lineaire de (B
t
1
, B
t
2
B
t
1
, . . . B
tn
B
t
n1
) cela reste gaussien. Les lois ni-dimensionnelles
etant gaussiennes, le processus est gaussien. Puis pour s t, on a
Cov(B
t
, B
s
) = E[B
t
B
s
] = E[(B
t
B
s
+ B
s
)B
s
] = E[B
t
B
s
]E[B
s
] +E[B
2
s
] = 0 + s = s,
ce qui conrme que le processus denit par la denition alternative est le mouvement
brownien.
[Graphe des trajectoires typiques du MB]
La probabilite que B
t
appartienne `a un petit intervalle [x, x + dx] est donc donnee par la
densite gaussienne centree de variance t
P(B
t
[x, x + dx]) =
1

2t
exp(x
2
/2t)dx.
En particulier, la variable aleatoire B
t
qui est une variable aleatoire gaussienne de variance
t est comprise entre les nombres f
1
(t) = 2

t et f
2
(t) = 2

t avec une probabilite (d` a


peu pr`es) 95% (cf. table de la loi A(0, 1)).
On peut montrer que cette propriete est vraie pour toute la trajectoire brownienne qui est
donc comprise entre les deux courbes de f
1
et de f
2
avec une probabilite comparable (cest
vrai globalement et pas seulement t par t ). Mais en general, les phenom`enes observes
ne sont pas aussi bien normalises.
Denition 2.3 (Mouvement brownien avec derive) On appelle encore mouvement brow-
nien issu de x et de derive (ou drift) b et de coecient de diusion , le processus
X
t
= x + B
t
+ t.
Proposition 2.1 Le mouvement brownien (general) X est encore un processus `a accrois-
sements independants stationnaires et gaussiens. Il est non centre et tel que X
0
= x. De
plus X
t
A(x + t,
2
t).
Sauf mention contraire, par defaut, quand on parlera du mouvement brownien, il sagira
du mouvement brownien standard B.
2.3 Proprietes en loi du mouvement brownien
On se xe dans cette section un mouvement brownien B. Systematiquement, pour verier
quon a un mouvement brownien, il sagit de verier quon a un processus gaussien, cen-
tre, `a trajectoires continues et avec la bonne fonction de covariance. Dans les proprietes
qui suivent, il est facile (et omis) de constater que le processus est gaussien, centre et ` a
trajectoires continues ; on se contente de calculer loperateur de covariance.
1) Symetrie. B est un mouvement brownien.
2) Autosimilarite (propriete dechelle). Pour tout c > 0, B
c
t
=
1

c
B
ct
est un mouve-
ment brownien (standard).
32 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
En eet : B
c
t
est un processus gaussien car ses lois ni dimensionnelles en sont de B; le
processus est centre, ` a trajectoires continues (car B lest) et de fonction de covariance
E[B
c
t
B
c
s
] = E
_
1

c
B
ct
1

c
B
cs
_
=
1
c
min(ct, cs) = min(t, s).
Consequence : Cette propriete montre que c fois B
t
se comporte comme un mouvement
brownien lu en c
2
t : le changement de temps se lit en espace (et reciproquement).
3) Inversion du temps. Le processus

B deni par

B
t
= tB
1/t
si t ,= 0 et

B
0
= 0 est un
mouvement brownien standard.
En eet,

B est gaussien car ` a nouveau ses lois ni-dimensionnelles sont des transformations
lineaires de celles de B; le processus est centre de covariance,
Cov(

B
t
,

B
s
) = ts Cov(B
1/t
, B
1/s
) = ts min(1/t, 1/s) = ts/ max(t, s) = min(t, s).
De plus, ses trajectoires sont continues sur ]0, +[ car celles de B le sont sur R
+
. Il reste
` a voir la continuite des trajectoires de

B en 0 et cela vient de
P
_
lim
t0

B
t
= 0
_
= P
_
_

n1
_
p1

t]0,1/p]Q
[

B
t
[ 1/n
_
_
= P
_
_

n1
_
p1

t]0,1/p]Q
[B
t
[ 1/n
_
_
car (

B
t
)
t>0
fdd
= (B
t
)
t>0
= P
_
lim
t0
B
t
= 0
_
= 1.
Consequence : le processus B a donc le meme type de comportement en 0 et en +
4) Retournement du temps. Le processus retourne ` a linstant T,

B
T
t
= B
T
B
Tt
est
encore un mouvement brownien sur [0, T].
Il est clair que
w
idehatBT est un gaussien, centre et sa covariance est donnee par
Cov(

B
T
t
,

B
T
, s) = Cov(B
T
B
ts
, B
T
B
Ts
)
= Cov(B
T
, B
T
) Cov(B
T
, B
Ts
) Cov(B
Tt
, B
T
) + Cov(B
Tt
, B
Ts
)
= T (T s) (T t) + T max(t, s) = min(t, s).
5) Propriete de Markov simple (ou invariance par translation). Le mouvement brow-
nien translate de t
0
> 0

B
t
0
t
= B
t+t
0
B
t
0
est encore un mouvement brownien stan-
dard ; de plus il est independant du mouvement brownien arrete en t
0
(B
t
)
0tt
0
, ie.

B
t
0
T
B
t
0
:= (B
s
: s t
0
).
En eet pour t
0
s t :
Cov(

B
t
0
t
,

B
t
0
s
) = Cov(B
t+t
0
B
t
0
, B
s+t
0
B
t
0
)
2.4. Proprietes trajectorielles du mouvement brownien 33
= K(t + t
0
, s + t
0
) K(t + t
0
, t
0
) K(t
0
, s + t
0
) + K(t
0
, t
0
)
= s + t
0
t
0
t
0
+ t
0
= s = min(s, t).
La deuxi`eme partie est due ` a lindependance des accroissements de B : Soit 0 s
1
< <
s
n
t
0
, par independance des accroissements de B,

B
t
0
= B
t+t
0
B
t
0
est independant
de (B
s
1
, B
s
2
B
s
1
, . . . , B
sn
B
s
n1
), donc par transformation lineaire de (B
s
1
, . . . , B
sn
).
Cela est vrai pour tout vecteur de marginales de

B
t
0
. On a donc

B
t
0
independant de
B
s
1
A
1
, . . . , B
sn
A
n
, 0 s
1
< < s
n
t
0
et A
1
, . . . , A
n
B(R). Comme il sagit
dun mesurable typique de T
B
t
0
, on a

B
t
0
T
B
t
0
.
Consequence : le processus B
t
a donc le meme comportement localement en 0 et en t
0
,
donc en tout point.
Cette propriete se reecrit dans le cadre classique de la theorie de Markov : independance
du futur et du passe conditionnellement au present : en notant W
x
, pour x R la loi du
mouvement brownien issu de x, ie. de x+B o` u B est un mouvement brownien habituel on
reecrit :
Proposition 2.2 (Propriete de Markov simple) Soit t 0 xe. Posons B
t
s
= B
t+s
,
x R. Alors conditionnellement `a B
t
= x, le processus B
t
est independant de (B
u
: u t)
et a pour loi W
x
.
Demonstration : Pour cela, il sut de remarquer que B
t
s
=

B
t
s
+ B
t
o` u

B
t
s
= B
t+s
B
t
est un mouvement brownien independant de T
B
t
et B
t
est une variable T
B
t
-mesurable.
2.4 Proprietes trajectorielles du mouvement brownien
2.4.1 Loi du 0/1 de Blumenthal
On denit dabord la notion de ltration en temps continu qui sera essentielle pour consi-
derer les martingales au chapitre 3.
Denition 2.4 (Filtration) Une ltration sur un espace de probabilite (, T) est une
famille (T
t
)
t0
de sous-tribus telle que pour s t, on a T
s
T
t
.
Si on consid`ere un processus (X
t
)
t
, on consid`ere souvent la ltration quil engendre : T
X
t
=
(X
s
: s t). Dans ce cas, il est utile dinterpreter une ltration comme une quantite
dinformation disponible jusqu`a une date donnee : T
X
t
represente linformation vehiculee
par le processus X jusqu` a la date t.
Une ltration est P-compl`ete pour une mesure de probabilite P si T
0
contient tous les
ev`enements de mesure nulle, ie. A = N T tel que P(N) = 0 T
0
.
`
A une ltration, on associe T
t
+ =

>0
T
t+
et T
t
=
_
>0
T
t
. (On rappelle que /B =
(/ B).) La ltration (T
t
)
t
est dite continue `a droite (resp. continue `a gauche) si
34 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
pour tout t, on a T
t
= T
t
+ (resp. T
t
= T
t
).
Dans la suite, on dira quune ltration satisfait les conditions habituelles si elle est
compl`ete et continue ` a droite.
Proposition 2.3 La ltration brownienne (T
B
t
)
t
est continue `a droite.
Corollaire 2.1 (Loi du 0/1 de Blumenthal) La tribu T
B
0
+
est triviale, ie. pour tout
A T
B
0
+
, on a P(A) = 0 ou 1.
Remarque 2.2 En fait, la ltration brownienne est aussi continue `a gauche : T
B
t
=
_
s<t
T
B
s
.
Cest le cas de toute ltration (T
X
t
)
t
engendree par un processus continu `a gauche.
En eet, T
X
t
est engendree par les ensembles A = (X
t
1
, . . . , X
tp
) avec 0 = t
1
<
< t
p
= t et B(R
p
). Comme X
t
= lim
m+
X
sm
pour toute suite s
m
[0, t)
avec s
m
t, on a A T
X
t

. Finalement, T
X
t

= T
X
t
.
Une ltration (T
t
+)
t
est toujours continue ` a droite.
Attention : si X est ` a trajectoires continues, (T
X
t
)
t
peut ne pas etre continue ` a droite,
ni T
X
t
+
` a gauche, cf. contre-exemples p. 89 et 122 dans [KS].
Preuve de la continuite `a droite de la ltration brownienne.
i) La tribu T
B
0
+
est triviale (ie. Blumenthal).
On consid`ere le processus X
n
deni sur [0, 2
n
] par X
n
= (B
2
n
+t
B
2
n, 0 t 2
n
).
La suite (X
n
)
n
est une suite de processus independants (independance des accroissements
du mouvement brownien). On remarque que lon peut retrouver la trajectoire brownienne
` a partir des X
k
, k n, par
B
2
n
+t
= X
n
(t) +
+

k=1
X
n+k
(2
nk
)
car B
2
n 0. Par consequent, on a
T
B
2
n = (X
n+1
, . . . , X
n+k
, . . . )
et comme T
B
0
+
=

n0
T
B
2
n
, T
B
0
+
est la tribu asymptotique engendree par les processus
independants X
n
. Dapr`es la loi du 0/1 (classique) de Kolmogorov, T
B
0
+
est alors triviale.
i
t
) Autre preuve. Soient 0 < t
1
< t
2
< < t
k
, g : R
k
R une fonction continue bornee
et aussi A T
B
0
+
. Par continuite et convergence dominee, on a
E[1
A
g(B
t
1
, . . . , B
t
k
)] = lim
0
E[1
A
g(B
t
1
B

, . . . , B
t
k
B

)].
Mais d`es que < t
1
, les variables aleatoires B
t
1
B

, . . . , B
t
k
B

sont independantes de
T
B

(par la propriete de Markov simple) et donc aussi de la tribu T


B
0
+
(=

>0
T
B

). Il vient
E[1
A
g(B
t
1
, . . . , B
t
k
)] = lim
0
P(A)E[g(B
t
1
B

, . . . , B
t
k
B

)]
2.4. Proprietes trajectorielles du mouvement brownien 35
= P(A)E[g(B
t
1
, . . . , B
t
k
)].
On a donc T
B
0
+
(B
t
1
, . . . , B
t
k
). Comme cest vrai pour tout 0 < t
1
< < t
k
, on a
aussi T
B
0
+
(B
t
, t > 0). Puis B
0
etant la limite simple de B
t
(continuite de t B
t
), on
a (B
t
, t 0) = (B
t
, t > 0) et T
B
0
+
(B
t
, t 0), si bien que T
B
0
+
T
B
0
+
, ce qui assure
que T
B
0
+
est grossi`ere.
ii) Continuite ` a droite de la ltration brownienne (Prop. 2.3).
Nous utilisons le theor`eme de classe monotone (version fonctionnelle) soient C un ensemble
de fonctions stable par multiplication, E un espace vectoriel fonctionnel monotone (ie.
f E est bornee, les constantes sont dans E, si f
n
E et f
n
f bornee alors f E) tel
que C E alors E contient toutes les fonctions (C)-mesurables.
Soit t 0 et > 0. On consid`ere la tribu
(
t
= (B
t+s
B
t
: s 0).
Montrons que (
t
est independante de T
B
t
+
. Par construction, (
t+
est independante de T
B
t+
et donc independante de T
B
t
+
=

>0
T
B
t+
. Si t
1
t
2
alors (
t
2
(
t
1
car
B
t
2
+s
B
t
2
= B
t
1
+(t
2
+st
1
)
B
t
1
(B
t
1
+(t
2
t
1
)
B
t
1
)
sexprime en fonction de deux variables (
t
1
-mesurables. La famille ((
t+
)

est croissante
quand decroit, de limite
_
>0
(
t+
.
Par ailleurs, par continuite des trajectoires de B, pour tout s 0, B
t+s
B
t
= lim
0
B
t+s+

B
t+
, donc B
t+s
B
t
est mesurable par rapport `a
_
>0
(
t+
. Do` u (
t
=
_
>0
(
t+
et donc
(
t
est independante de T
B
t
+
.
Soit maintenant des variables bornees telles que X soit T
B
t
-mesurable, Y T
B
t
+
-mesurable
et Z (
t
-mesurable. Alors
E[XZY ] = E[XY ]E[Z] car T
B
t
+ (
t
= E[XE[Y [T
B
t
]]E[Z]
= E[XZE[Y [T
B
t
]] car T
B
t
(
t
.
Considerons lespace vectoriel E des variables bornees W telles que E[WY ] = E[WE[Y [T
B
t
]].
Il sagit dun espace vectoriel monotone (theor`eme de convergence monotone). Cet espace
contient la classe multiplicative / des variables de la forme XZ avec X L

(T
B
t
) et
Z L

((
t
). Dapr`es le theor`eme fonctionnel de classe monotone, lespace vectoriel E
contient toutes les variables bornees et mesurables par rapport `a (
t
_
T
B
t
= T
B
o` u T
B
est
la tribu engendree par tout le mouvement brownien.
Conclusion : E[WY ] = E[WE[Y [T
B
t
]] pour tout W L

(T
B
). En particulier, Y =
E[Y [T
B
t
] ps. Comme la tribu est compl`ete, Y concide avec une variable T
B
t
-mesurable, ce
qui exige T
B
t
= T
B
t
+
.
36 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
2.4.2 Consequences trajectorielles de la loi du 0/1 de Blumenthal
Proposition 2.4
1. On a ps pour tout > 0
sup
0s
B
s
> 0, inf
0s
B
s
< 0.
2. Pour tout > 0, on a ps
sup
t0
B
t
, inf
t0
B
t
.
3. Pour tout a R, soit T
a
= inft 0 : B
t
= a (avec inf = +). Alors ps
T
a
< +.
4. Par consequent, presque s urement
limsup
t+
B
t
= +, liminf
t+
B
t
= , (2.1)
Remarque 2.3 La mesurabilite de sup/inf est assuree par la continuite du mouve-
ment brownien (si bien que le sup est un max, linf un min, donc sont mesurables).
Comme les trajectoires du mouvement brownien sont continues et inf
0<t
B
t
< 0 <
sup
0<t
B
t
, par le theor`eme des valeurs intermediaires, il existe un zero t

]0, [ de
B. On en deduit que ps t 0 : B
t
= 0 admet 0 comme point daccumulation.
Par translation (Markov simple), toute valeur du mouvement brownien est un point
daccumulation de sa trajectoire ps.
En utilisant la propriete de Markov simple, on constate aussi facilement que ps la
fonction t B
t
nest monotone sur aucun intervalle non-trivial.
Demonstration : 1) Soit (
p
)
p
une suite de reels strictement positifs decroissants vers 0
et soit
A =

p
_
sup
0sp
B
s
> 0
_
.
Comme sup
0sp
B
s
est T
B
p
-mesurable, on a A

p1
T
B
p
= T
B
0
+
Puis, comme lintersec-
tion denissant A est decroissante, on a
P(A) = lim
p+
P
_
sup
0sp
B
s
> 0
_
mais comme
P
_
sup
0sp
B
s
> 0
_
P(B
p
> 0) =
1
2
,
2.4. Proprietes trajectorielles du mouvement brownien 37
on a P(A) 1/2 et la loi de Blumenthal exige alors P(A) = 1. Comme A sup
0t
B
t
>
0, on a le resultat pour le sup. Lassertion concernant inf
0s
B
s
est obtenue par symetrie
en loi en remplacant B par B.
2) On a
1 = P
_
sup
0s1
B
s
> 0
_
= lim
0
P
_
sup
0s1
B
s
>
_
.
Avec le changement s = t
2
, puis comme par autosimilarite B

2
t
/ est encore un mouvement
brownien,
P
_
sup
0s1
B
s
>
_
= P
_
sup
0t1/
2
(B

2
t
/) > 1
_
= P
_
sup
0s1/
2
B
s
> 1
_
.
En faisant tendre 0, par convergence monotone des probabilites, on obtient ainsi
P(sup
s0
B
s
> 1) = 1. Puis, ` a nouveau, avec lautosimilarite, on a, pour tout > 0,
P(sup
s0
B
s
> ) = 1 :
P
_
sup
s0
B
s
>
_
= P
_
sup
u0
(B

2
u
/) > 1
_
= P
_
sup
u0
B
u
> 1
_
= 1
car B

2
u
/ est un mouvement brownien standard et avec le changement B B, on a
aussi P(inf
s0
B
s
< ) = 1.
3) Comme T
a
> t = sup
st
B
s
< a, avec t
p
+, on a
P(T
a
= +) = P
_

p
T
a
> t
p

_
= lim
p+
P(T
a
> t
p
) = lim
p+
P
_
sup
stp
B
s
< a
_
= P
_

p
sup
stp
B
s
< a
_
= P
_
sup
s0
B
s
< a
_
= 0
si bien que T
a
< + ps.
4) Puis la derni`ere assertion est une consequence du fait quune fonction continue f : R
+

R ne peut visiter tous les reels que si limsup
t+
f(t) = +et liminf
t+
f(t) = .
Remarque 2.4 Le mouvement brownien oscille ps entre + et lorsque t +
mais avec une vitesse doscillation sous-lineaire : [B
t
/t[ 0, quand t +.
En eet, il sut de se rappeler par inversion du temps que

B
t
= tB
1/t
est encore un
mouvement brownien. Si bien que B
t
/t =

B
1/t


B
0
= 0 quand t + (on peut aussi
jusier ce fait par la LGN).
2.4.3 Regularite trajectorielle
Proposition 2.5 Le mouvement brownien (B
t
)
t0
a des trajectoires ps localement holde-
riennes dordre < 1/2.
38 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
En particulier, on montre quun processus gaussien centre de covariance ts admet donc une
modication `a trajectoires continues, cest ` a dire une version est un mouvement brownien.
Demonstration : En eet, on a
K(t, t) + K(s, s) 2K(s, t) = t + s 2 min(t, s) = [t s[.
Donc le Theor`eme 1.5 (Kolmogorov-Centsov dans le cas gaussien) sapplique avec = C =
1 pour B sur [0, 1]. Il donne lexistence de version avec la continuite holderienne pour tout
< /2 = 1/2. Comme le mouvement brownien et ces versions sont continues, elles sont
toutes indistinguables. Cest bien le mouvement brownien qui a ces proprietes de regularite.
Le resultat reste vrai pour B sur tout intervalle [0, T] borne et on a donc la locale Holder
regularite sur R.
Proposition 2.6 En chaque t 0, les trajectoires du mouvement brownien sont ps non
derivables.
Demonstration : Par la propriete de translation (Markov simple), il sut de montrer la
non derivabilite en 0, cest ` a dire montrer que
lim
t0
B
t
B
0
t 0
= lim
t0
B
t
t
nexiste pas. Or par inversion du temps B
t
/t =

B
1/t
o` u

B est encore un mouvement
brownien. Mais dapr`es la Prop. 2.4 (cf. (2.1)), pour le mouvement brownien

B on a
limsup
s+

B
s
= +, liminf
s+

B
s
=
avec s = 1/t, ce qui montre que la limite cherchee nexiste pas.
En fait, on a bien mieux : le resultat suivant montre que : ps, les trajectoires browniennes
sont nulle part derivables.
Theor`eme 2.1 (Dvoretsky, 1963) Il existe une constante C > 0 telle que
P
_
t > 0 : limsup
st
+
[B
s
B
t
[

s t
< C
_
= 0.
Avant la preuve, etudions la consequence sur la (non) derivabilite des trajectoires brow-
niennes : dapr`es Dvoretsky, on a ps t [0, 1], limsup
st
+
[BsBt[

st
C > 0 et si B etait
derivable en t de derivee , on aurait quand s t
[B
s
B
t
[

s t
=
[B
s
B
t
[
s t

s t

s t 0,
ce qui nie le resultat de Dvoretsky. Ainis, ps : en tout t [0, 1], B est donc non derivable.
Le resultat setend aisement `a tout t 0 pour un mouvement brownien deni sur R
+
.
2.5. Variation quadratique 39
2.5 Variation quadratique
Denition 2.5 (Variation) Soit f : [0, 1] R. On denit la -variation de f par
V ar(f, ) = lim
0
sup
t
k
:(t
k
)

k
[f(t
k+1
) f(t
k
)[

o` u (t
k
) = max
k
[t
k
t
k1
[ est le pas de la subdivision de [0, 1] et le sup est pris sur
lensemble de ces subdivisions.
Pour = 1, on parle de la variation. On dit que f est `a variations bornees si V ar(f, 1) <
+. Pour = 2, on parle de la variation quadratique.
Remarque 2.5 Pour une fonction f de classe C
1
, la variation quadratique tend vers 0 sur
tout intervalle [0, t], en eet, avec une partition 0 = t
0
< t
1
< < t
n
= t, on a avec le
theor`eme des accroissements nis :
V
f
(t
0
, t
1
, . . . , t
n
) :=
n

j=1
(f(t
i
) f(t
i1
))
2
=
n

j=1
(f
t
(t

i
)(t
i
t
i1
))
2
|f
t
|
2

j=1
[t
i
t
i1
[ = |f
t
|
2

t
o` u t

i
]t
i
, t
i+1
[ est donne par le theor`eme des accroissements nis applique ` a la fonction
derivable f.
Proposition 2.7 (Variation quadratique brownienne) Soit t > 0 et 0 = t
0
< t
1
<
< t
n
= t une subdivision de [0, t], notons V
B
(t
0
, t
1
, . . . , t
n
) =

n
j=1
(B
t
i
B
t
i1
)
2
. Alors
1. V
B
(t
0
, t
1
, . . . , t
n
) converge dans L
2
vers t lorsque le pas de la subdivision := max(t
j

t
j1
) tend vers 0.
2. De plus, si la subdivision est uniforme, la convergence est presque s ure.
Heuristiquement : la variation quadratique du mouvement brownien sur [0, t] est donc t.
Demonstration : Notons dabord que le carre dune variable gaussienne X centree de
variance
2
est une variable aleatoire desperance
2
et de variance Var(X
2
) = 3
4

4
=
2
4
(calculs par ipp).
1) On a pour la convergence dans L
2
:
E[(V
B
(t
0
, t
1
, . . . , t
n
)t)
2
] = E
_
_
_
n

j=1
(B
t
j
B
t
j1
)
2
(t
j
t
j1
)
_
2
_
_
=
n

j=1
Var((B
t
j
B
t
j1
)
2
)
car les variables (B
t
j
B
t
j1
)
2
(t
j
t
j1
) sont centrees et independantes. On a donc
E[(V
B
(t
0
, t
1
, . . . , t
n
) t)
2
] = 2
n

j=1
(t
j
t
j1
)
2
2t 0, 0.
40 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
2) Notons v
n
= V
B
_
0,
t
n
, . . . ,
nt
n
_
. On a v
n
=

n1
k=0

k
(B)
2
avec
k
(B) = B(
(k+1)t
n
)B(
kt
n
).
On a v
n
t =

n
k=0

n,k
avec
n,k
=
k
(B)
2

t
n
.
Notons = B
2
1
1. On a E[] = 0 et

0
(B)
2

t
n
= B(
t
n
)
2

t
n
/
=
t
n
(B
1
)
2

t
n
=
t
n
.
On a
Pour k = 0, . . . , n, les
n,k
sont iid (independance et stationarite des accroissements
de B) ;
E[
n,k
] = E[
n,0
] = E[t/n] = 0 ;
E[
2
n,k
] = E[
2
n,0
] = E[t
2

2
/n
2
] = (t
2
/n
2
) E[
2
] ;
E[
4
n,k
] = E[
4
n,0
] = E[
4
/n
4
] = (t
4
/n
4
) E[
4
].
On utilise maintenant
E
_
_
_
n1

k=0

n,k
_
4
_
_
Cn
2
E[
4
n,0
].
borne due `a
Lemme 2.1 Soit (
i
)
i
des variables aleatoires iid telles que E[
i
] = 0 et E[
4
i
] < +.
Pour un constante C (0, +), on a :
E
_
_
_
n

k=1

k
_
4
_
_
Cn
2
E[
4
1
].
Par linegalite de Markov, on a alors
P([v
n
t[
n
)
E[(

n1
k=0

n,k
)
4
]

4
n

Cn
2
E[
4
]
n
4

4
n
=
C
t
n
2

4
n
.
Avec le choix
n
= 1/ ln n, on a

+
n=2
P([v
n
t[
n
) < +.
Le lemme de Borel-Cantelli sapplique et donne : ps, pour n assez grand on a [v
n
t[

n
0. Do` u ps v
n
t.
Proposition 2.8 Presque s urement, les trajectoires du mouvement brownien sont `a tra-
jectoires `a variations non bornees.
Ce resultat justie que, si les trajectoires browniennes sont continues, elles oscillent quand
meme beaucoup. . . tellement que les trajectoires sont ps ` a variations non bornees. Ce
phenom`ene explique les dicultes quil y aura ` a construire une integrale (de type Stieltjes)
par rapport au mouvement brownien.
2.6. Propriete de Markov forte 41
Demonstration : Il sut de justier la remarque generale suivante : si f est continue et
lim
n+
n

k=0

f
_
k + 1
n
_
f
_
k
n
_

2
= a ]0, +[
alors V ar(f, 1) = +. Pour cela, supposons que V ar(f, 1) < + et notons
f
(u) =
sup
[xy[<u
[f(x) f(y)[ le module de continuite de f. Alors
n

k=0

f
_
k + 1
n
_
f
_
k
n
_

2

f
_
1
n
_
n

k=0

f
_
k + 1
n
_
f
_
k
n
_


f
_
1
n
_
V ar(f, 1) 0
quand n + puisque par continuite de f :
f
(1/n) 0. Il est donc necessaire davoir
V ar(f, 1) = +.
2.6 Propriete de Markov forte
Le but dans cette section est detendre la propriete de Markov simple (invariance par
translation, cf. Prop. 2.2) au cas o` u linstant deterministe s est remplace par un temps
aleatoire T. On commence par preciser la classe des temps aleatoires pour lesquels cela est
possible.
2.6.1 Temps darret
Denition 2.6 (Temps darret)

Etant donnee une ltration (T
t
)
t0
, une variable alea-
toire T `a valeurs dans [0, +] est un temps darret si pour tout t 0 on a T t T
t
.
Les proprietes suivantes sont simples :
Proposition 2.9 Soient T et S deux temps darret alors T S et T S sont des
(T
t
)
t0
temps darret.
Si (T
n
)
nN
est une suite monotone de temps darret alors T = lim
n+
T
n
est un
(T
t
)
t0
temps darret.
Demonstration : 1) On a pour tout t 0 :
T S t = T t S t T
t
et
T S t = T t S t T
t
2) Si T
n
T alors pour tout t 0 :
T t =

n
T
n
t T
t
42 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
Puis si T
n
T alors pour tout t 0 :
T t =
_
n
T
n
t T
t
.

Remarque 2.6 Si (T
t
)
t
est une ltration continue `a droite alors T est un (T
t
)
t
-temps
darret ssi pour tout t 0, T < t T
t
. En eet, cest susant car
T t =

>0
T < t +

>0
T
t+
= T
t
+ = T
t
.
Et cest necessaire car
T < t =
_
>0
T t T
t
car T t T
t
T
t
. Cest le cas pour la ltration brownienne T
B
(Prop. 2.3,
generalisation de la loi de Blumenthal).
Exemple :
Un temps T = t (constant) est un temps darret.
Un temps datteinte T
a
:= inft 0 : B
t
= a est un temps darret pour la ltration
T
B
.
En eet, T
a
t = sup
0st
B
s
a =

s[0,t]Q
B
s
a T
t
pour a 0.
En revanche, T = sups 1 : B
s
= 0 nest pas un temps darret.
Soit O un ouvert alors T
O
= inft 0 : B
t
O est un (T
t
)
t0
temps darret si la
ltration est continue `a droite.
En eet :
T
O
< t = s < t : B
s
O = s [0, t] Q : B
s
O (trajectoires continues)
=
_
s[0,t]Q
B
s
O

s[0,t]Q
T
s
T
t
.
Comme la ltration est continue ` a droite, T
0
< t T
t
sut.
Soit F un ferme alors T
F
= inft 0 : B
t
F est un (T
t
)
t0
temps darret.
En eet :
T
F
t = : inf
0st
d(B
s
(), F) = 0
= : inf
s[0,t],Q
d(B
s
(), F) = 0
car B est continu et donc la distance aussi. Par ailleurs, un inf denombrable de
fonctions mesurables reste mesurable. Par consequent, T
F
t T
t
et T
F
est bien
un temps darret.
2.6. Propriete de Markov forte 43
Denition 2.7 (Temps darret simple) Soit T un (T
t
)
t0
temps darret. On dit que T
est un temps darret simple si lensemble des valeurs prises par T est au plus denombrable,
ie. il existe une suite (t
n
)
nN
de temps positifs dans

R telle que

n0
P(T = t
n
) = 1.
Proposition 2.10 (Approximation de temps darret) Soit T un (T
t
)
t
temps darret.
Alors il existe une suite decroissante (T
n
)
nN
de (T
t
)
t
-temps darret simples tels que ps
lim
n+
T
n
= T.
Demonstration : On pose T
n
= ([T2
n
] + 1)2
n
sur T < +, ie. T
n
= (j + 1)2
n
sur
lev`enement T [j2
n
, (j + 1)2
n
[ et T
n
= + sur T = +. On verie que T
n
est
un (T
t
)
t
temps darret :
T
n
t =
p1
_
j=0
T
n
= (j + 1)2
n
avec p2
n
t < (p + 1)2
n
=
p1
_
j=0
T [j2
n
, (j + 1)2
n
[
= T [0, p2
n
[ T
p2
n T
t
o` u on a utilise T < p2
n
=

>0
T p2
n
T
p2
n. Puis, par construction, on a
facilement T
n
T ps et T
n
T.
Denition 2.8 Soit T un temps darret. La tribu des ev`enements anterieurs `a T est
T
T
=
_
A T

: t 0, A T t T
t
_
.
Si T = t est deterministe, alors T
T
= T
t
.
Proposition 2.11 Les variables aleatoires T et B
T
sont T
T
-mesurables.
Demonstration : Il sagit de voir que pour tout s 0, T
1
(] , s]) = T s T
T
.
Pour cela, soit t 0, on a
T s T t = T t s T
ts
T
t
en utilisant le fait que T est un temps darret. Pour B
T
, il sut de remarquer que par
continuite ps
B
T
= lim
n+

i=0
1
i2
n
<T(i+1)2
n

B
i2
n
puis que B
s
1
s<T
est T
T
-mesurable. En eet pour tout u R, on montre que B
s
1
s<T

u T
T
. Pour cela, on etablit que, pour tout t 0, B
s
1
s<T
u T t T
t
.
44 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
si t < s alors B
s
1
s<T
u T t = 0 u T t = ( ou ) T
t
T
t
;
si t s alors B
s
1
s<T
u T t = (B
s
u s < T t) (0
u T s) mais B
s
u T
s
et s < T t = T s
c
T t T
t
et
T s T
s
.

Cette notion est developpee en Section 3.2, en particulier les relations entres les diverses
ltrations T
T
.
2.6.2 Propriete de Markov
Le resultat suivant generalise la Prop. 2.2 `a un changement de temps donne par un
temps darret.
Theor`eme 2.2 (Propriete de Markov forte) Soit T un temps darret. Alors condi-
tionnellement `a T < +, le processus B
(T)
deni par
B
(T)
t
= B
T+t
B
T
est un mouvement brownien independant de T
T
.
Demonstration : On suppose dabord que T < + ps. On prouve alors la propriete de
Markov en montrant que pour A T
T
, 0 t
1
t
p
et F une fonction continue
bornee sur R
p
, on a
E[1
A
F(B
(T)
t
1
, . . . , B
(T)
tp
)] = P(A)E[F(B
t
1
, . . . , B
tp
)]. (2.2)
En eet, avec A = , on obtient que B
(T)
a les memes lois ni-dimensionnelles que B et il est
facile de voir que B
(T)
a des trajectoires ps continues. Autrement dit B
(T)
est un mouvement
brownien. Puis pour A quelconque, (2.2) assure que pour tout choix 0 t
1
t
p
, le
vecteur (B
(T)
t
1
, . . . , B
(T)
tp
) est independant de T
T
, do` u par un argument de classe monotone
B
(T)
T
T
.
Pour montrer (2.2), on ecrit, par continuite des trajectoires, ps
F(B
(T)
t
1
, . . . , B
(T)
tp
)
= lim
n+
+

k=0
1
(k1)2
n
<Tk2
n

F(B
k2
n
+t
1
B
k2
n, . . . , B
k2
n
+tp
B
k2
n).
Comme F est bornee, par convergence dominee, il vient :
E[1
A
F(B
(T)
t
1
, . . . , B
(T)
tp
)]
= lim
n+
+

k=0
E[1
A
1
(k1)2
n
<Tk2
n

F(B
k2
n
+t
1
B
k2
n, . . . , B
k2
n
+tp
B
k2
n)].
2.6. Propriete de Markov forte 45
Pour A T
T
, lev`enement A (k 1)2
n
< T k2
n
= A T k2
n
T
(k1)2
n

c
est T
(k2
n
)
-mesurable donc concide ps avec un ev`enement de (B
r
: r k2
n
).
Par la propriete de Markov simple (Prop. 2.2), on a donc
E[1
A
1
(k1)2
n
<Tk2
n

F(B
k2
n
+t
1
B
k2
n, . . . , B
k2
n
+tp
B
k2
n)]
= P(A (k 1)2
n
< T k2
n
)E[F(B
k2
n
+t
1
B
k2
n, . . . , B
k2
n
+tp
B
k2
n)]
= P(A (k 1)2
n
< T k2
n
)E[F(B
t
1
, . . . , B
tp
)].
On recup`ere (2.2) en sommant sur k.
Lorsque P(T = +) > 0, on obtient de la meme facon
E[1
AT<+
F(B
(T)
t
1
, . . . , B
(T)
tp
)] = P(A T < +)E[F(B
t
1
, . . . , B
tp
)]
et le resultat cherche suit.
2.6.3 Principe de reexion
Une application importante de la propriete de Markov forte est le principe de reexion.
Theor`eme 2.3 (Principe de reexion) Pour tout t > 0, notons S
t
= sup
st
B
s
. Alors
si a 0 et b a on a
P(S
t
a, B
t
b) = P(B
t
2a b). (2.3)
En particulier, pour chaque t 0, S
t
a meme loi que [B
t
[.
Remarque 2.7
`
A chaque trajectoire brownienne depassant le seuil a et terminant
en deca de b a, on peut associer la trajectoire brownienne obtenue par symetrie
autour de la droite y = a ` a partir de la date inf(t 0 : B
t
= a). Cette trajectoire
termine alors au del` a de 2a b. Il y a ainsi une bijection entre les trajectoires
browniennes veriant S
t
a, B
t
< b et celles veriant B
t
2a b. Le principe
de reexion (2.3) est une formalisation de cette bijection.
[Dessin typique illustant le principe de reexion].
Le principe (2.3) implique que pour t 0, S
t
/
= [B
t
[. Toutefois, attention : legalite
tient pour les marginales mais ne setend pas aux processus : lun est croissant, lautre
pas.
Demonstration : Il sagit dappliquer la propriete de Markov forte au temps darret
T
a
= inft 0 : B
t
= a. On a dej` a vu que T
a
< + ps. On a aussi
P(S
t
a, B
t
b) = P(T
a
t, B
t
b) = P(T
a
t, B
(Ta)
tTa
b a)
46 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
puisque B
(Ta)
tTa
= B
tTa+Ta
B
Ta
= B
t
a. Pour simplier, notons B
t
= B
(Ta)
. Le Theo-
r`eme 2.2 (Prop. Markov forte) assure que B
t
est un mouvement brownien independant de
T
Ta
, donc de T
a
. Comme B
t
a meme loi que B
t
, on a
P
_
T
a
t, B
(Ta)
tTa
b a
_
=
_
t
0
P(B
t
tu
b a)P
Ta
(du) =
_
t
0
P(B
t
tu
b a)P
Ta
(du)
=
_
t
0
P(B
t
tu
a b)P
Ta
(du) = P
_
T
a
t, B
(Ta)
tTa
a b
_
= P(T
a
t, B
t
a a b)
= P(B
t
2a b)
car lev`enement B
t
2a b est contenu dans T
a
t (b a).
Pour la deuxi`eme partie, on utilise le principe de reexion et la symetrie (en loi) du mou-
vement brownien
P(S
t
a) = P(S
t
a, B
t
a) +P(S
t
a, B
t
< a)
= 2P(B
t
a) = P(B
t
a) +P(B
t
a)
= P(B
t
a) +P(B
t
a) = P([B
t
[ a).

On deduit facilement du principe de reexion que le temps datteinte T


a
= inf(t 0 :
B
t
= a) dun mouvement brownien du niveau a nest pas deterministiquement borne :
P(T
a
C) = P( sup
t[0,C]
B
t
a) = P
_
[B
C
[ a
_
= 2P(N a/C
2
) < 1
o` u N A(0, 1).
Soit Z une variable aleatoire reelle. Un processus (X
t
, t 0) est appele mouvement brow-
nien reel issu de Z si on peut ecrire X
t
= Z + B
t
o` u B est un mouvement brownien issu
de 0 independant de Z.
2.7

Equation de la chaleur
Cette section reprend la presentation de cette equation par [EGK].
2.7.1 Origine physique
Lequation de la chaleur est lEDP qui decrit la propagation de la chaleur en donnant la
temperature T(t, x) dans un milieu en fonction du temps t et du lieu x.
Le ux denergie thermique J qui traverse une surface unitaire par unite de temps est
donne par la loi de Fourier :
J = k
T
x
2.7.

Equation de la chaleur 47
o` u k est le coecient de conductivite thermique du milieu (en mkgs
3
K
1
). Cette loi
stipule quune dierence de temperature engendre un ux denergie dans la direction des
temperatures decroissantes.
Si on calcule le gain denergie par unite de temps dun volume depaisseur dx et de section
S, on remarque que cette puissance est egale ` a la dierence entre le ux entrant et le ux
sortant :
P = J(x)S J(x + dx)S cest ` a dire P =
J
x
Sdx.
Cette puissance assimilee ` a cet element de volume Sdx est supposee elever sa temperature
T. On pose une relation lineaire simple
P = cm
T
t
o` u c est la chaleur specique de la mati`ere consideree. Comme m = Sdx (o` u est la masse
volumique du milieu), on a alors
c
T
t
=
J
x
qui est lequation de continuite dun ux thermique denergie. En la combinant avec la loi
de Fourier, on obtient lequation de la chaleur
T
t
=
k
c

2
T
x
2
.
Cette EDP se generalise facilement en dimension superieure.
2.7.2 Origine mathematique
Les premi`eres proprietes du mouvement brownien mises en evidence par Bachelier et Ein-
stein concernent le lien entre la distribution du mouvement brownien issu de x et lequation
de la chaleur. On note p
t
(x, ) la densite de la variable aleatoire qui modelise le phenom`ene
x + B
t
` a la date t qui part de x ` a la date 0. Par stationarite du phenom`ene, p
t
(x, y) ne
depend de x, y que par y x. Puis, ces auteurs deduisent de la propriete daccroissements
independants que la densite p
t
(x, ) de la loi de x + B
t
(qui nest pas supposee gaussienne
a priori) verie lequation de convolution
_
R
p
t
(x, y)p
h
(y, z)dy = p
t+h
(x, z) (2.4)
En eet, on ecrit x + B
t+h
= x + B
t
+ B
t+h
B
t
et on note que
B
t
= B
t
B
0
est independant de B
t
h
= B
t+h
B
t
,
si x +B
t
= y, la loi de x +B
t
+B
t+h
B
t
est la meme que celle de y +

B
h
de densite
p
h
(y, ),
on recup`ere la densite du tout, en integrant par rapport `a la loi de x +B
t
de densite
p
t
(x, ).
48 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
Bachelier conclut en montrant que lequation (2.4) est veriee par les fonctions de la forme
A
t
e
A
2
t
x
2
pour lesquelles A
2
t
est proportionelle au temps t. Il nenvisage pas a priori dautre
type de fonctions. Ce resultat montre la grande generalite des situations qui peuvent etre
modelisees par un mouvement brownien.
Revenons `a la densite gaussienne
g(t, x, y) := g(t, y x) =
1

2t
exp((y x)
2
/(2t))
qui traduit que x + B
t+h
est la somme des variables gaussiennes independantes x + B
t
et
B
t+h
B
h
. Un calcul direct montre que le noyau gaussien est solution de lequation de la
chaleur, cest ` a dire de lEDP
_
g
t
t
(t, x, y) =
1
2
g
tt
yy
(t, x, y)
g
t
t
(t, x, y) =
1
2
g
tt
xx
(t, x, y).
(2.5)
La densite gaussienne standard satisfait donc lequation de la chaleur par rapport aux
variables x et y. Cette propriete est etendue ` a une vaste classe de fonctions construites ` a
partir du mouvement brownien.
Theor`eme 2.4 a) Considerons la fonction
u(t, x, f) = E[f(x + B
t
)] =
_
R
g(t, x, y)f(y)dy
o` u f est une fonction borelienne bornee. La fonction u est C

en espace et en temps pour


t > 0 et verie lequation de la chaleur
u
t
t
(t, x, f) =
1
2
u
tt
xx
(t, x, f), u(0, x) = f(x). (2.6)
b) Lorsque le point de depart du mouvement X
0
est aleatoire avec une loi de densite
(x), independante du mouvement brownien, la densite de la loi de X
0
+ B
t
est egale `a
q(t, y) =
_
R
g(t, y x)(x)dx et verie lequation de la chaleur
q
t
t
(t, y) =
1
2
q
tt
yy
(t, y), q(0, y) = (y).
Demonstration : a) La fonction u(t, x, f) = E[f(x + B
t
)] =
_
R
g(t, x, y)f(y)dy est tr`es
reguli`ere pour t > 0, car la densite gaussienne (le noyau de la chaleur) est C

, `a derivees
bornees pour t > a. Par derivation sous le signe integral, on a aisement :
u
t
t
(t, x, f) =
_
R
g
t
t
(t, x, y)f(y)dy, u
tt
xx
(t, x) =
_
R
g
tt
xx
(t, x, y)f(y)dy.
Lequation de la chaleur (2.6) pour u(t, , f) suit alors facilement de celle pour g(t, x, y).
2.7.

Equation de la chaleur 49
b) Supposons que la condition initiale soit aleatoire et independante du mouvement brow-
nien et donc de B
t
. La loi de X
0
+ B
t
admet une densite qui est la convolee de (x) et de
g(t, x).
La formule precedente peut etre etendue sous certaines conditions ` a dautres fonctions
que les fonctions bornees, par exemple pour les fonctions f(x) = e
x
, > 0. La fonc-
tion u(t, x, e

) est la transformee de Laplace de x + B


t
. Des calculs gaussiens (classiques)
montrent que
u(t, x, e

) = E[e
(x+Bt)
] = e
x+
1
2

2
t
.
Lorsque la fonction consideree est reguli`ere, une autre formulation peut etre donnee ` a cette
relation qui jouera un r ole important dans la suite :
Proposition 2.12 Si f est une fonction C
1
b
en temps et C
2
b
en espace (cest `a dire `a
derivees bornees en temps et en espace), on a
u
t
t
(t, x, f) = u(t, x, f
t
t
+
1
2
f
tt
xx
)
soit, en integrant, sous une forme probabiliste :
E[f(t, x + B
t
)] = f(0, x) +
_
t
0
E[
1
2
f
tt
xx
(s, x + B
s
) + f
t
t
(s, x + B
t
)]ds. (2.7)
Demonstration : On represente la fonction u(t, x, f) de la facon suivante
u(t, x, f) = E[f(t, x + B
t
)] =
_
R
g(t, y)f(t, x + y)dy =
_
R
g(t, x, z)f(t, z)dz
o` u g(t, y) est la densite de B
t
A(0, t) et g(t, x, z) = g(t, z x) est la densite de x+B
t

A(x, t). Par convergence dominee, on derive sous le signe integral, pour une fonction f
deux fois derivable, ` a derivees bornees.
u
tt
xx
(t, x, f) =
_
R
g(t, y)f
tt
xx
(t, x + y)dy = u(t, x, f
tt
xx
)
=
_
R
g
tt
xx
(t, x, z)f(t, z)dz avec deux ipp.
u
t
t
(t, x, f) =
_
R
g(t, x, z)f
t
t
(t, z)dz +
_
R
g
t
t
(t, x, z)f(t, z)dz
= u(t, x, f
t
t
) +
1
2
_
R
g
tt
xx
(t, x, z)f(t, z)dz = u(t, x, f
t
t
) +
1
2
u(t, x, f
tt
xx
)
en utilisant que g satisfait lequation de la chaleur. Pour avoir lequation integrale (2.7), il
sut dintegrer par rapport ` a t et dexpliciter les fonctions u(t, x, f
t
t
) et u(t, x, f
tt
xx
) comme
des esperances.
50 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
Le mouvement brownien decentre X
x
t
= x+bt +B
t
joue un r ole important dans les appli-
cations. Les equations aux derivees partielles (EDP) precedentes setendent sans diculte
` a partir de lEDP satisfaite par la densite de X
x
t
g
b,
2(t, x, y) =
1

2
2
t
exp
_

(y x bt)
2
2
2
t
_
= g(
2
t, x + bt, y) = g(
2
t, x, y bt).
Nous introduisons le generateur associe ` a ce processus, cest ` a dire loperateur du 2d ordre
deni par
L
b,
2(x) =
1
2

tt
xx
(x) + b
t
x
(x).
Puisque g(t, x, y) satisfait lequation de la chaleur, la fonction x g
b,
2(t, x, y) verie

t
g
b,
2(t, x, y) =
1
2

2
g
tt
xx
(
2
t, x + bt, y) + bg
t
x
(
2
t, x + bt, y)
= L
b,
2g
b,
2(t, x, y). (2.8)
Dans ce contexte, lequation (2.8) remplace lequation de la chaleur (2.5).
Proposition 2.13 1. Soit f : R R. Les fonctions u(t, x, f) = E[f(x + bt + B
t
)] =
_
R
g
b,
2(t, x, y)f(y)dy satisfont lEDP
_
u
t
t
(t, x, f) = L
b,
2u(t, x, f) =
1
2

2
u
tt
xx
(t, x, f) + bu
t
x
(t, x, f)
u(0, x, f) = f(x).
(2.9)
2. De plus, si f : R
+
R R est une fonction de classe C
1
b
en temps sur R
+
0 et
C
2
b
en espace, alors
E[f(t, X
x
t
)] = f(0, x) +
_
t
0
E[L
b,
2f(s, X
x
s
) + f
t
t
(s, X
x
s
)]ds. (2.10)
Demonstration : Lequation (2.9) sobtient en integrant par rapport ` a f(y)dy lEDP sa-
tisfaite par la densite g
b,
2(t, x, y) consideree comme fonction de x. Puis (2.10) suit avec
des integrations par parties comme precedemment.
Remarque 2.8 La representation de la solution de lequation de la chaleur comme E[f(x+
B
t
)] montre que la trajectoire brownienne joue pour cette equation le meme role que les
caracteristiques, solutions dequations dierentielles du premier ordre, pour la resolution
des EDP du premier ordre. Lequation (2.9) montre que ce resultat peut etre etendu aux
EDP elliptiques ` a coecients constants `a condition de se referer ` a un MB decentre.
Un objectif important est de passer de cette formule, vraie en moyenne (en esperance), ` a
une formule trajectorielle. Cette etape a ete amorcee par Paul Levy dans les annees 30 et
completee par Kiyoshi Ito dans les annees 50. Plus precisement, It o interpr`ete la quantite
T
t
(f) = f(t, x + B
t
) f(0, x)
_
t
0
1
2
f
tt
xx
(s, x + B
s
) + f
t
(s, x + B
s
)ds
2.7.

Equation de la chaleur 51
qui mesure la dierence trajectorielle entre les deux termes de lequation (2.7) sans prendre
lesperance E comme une integrale stochastique. Ce faisant, il introduit un calcul dierentiel
stochastique, le calcul dIt o, vrai sur les trajectoires et non plus seulement en moyenne.
Cest lobjet des chapitres suivants.
52 Chapitre 2. c _JCB M2 Math. Universite de Rennes 1
Deuxi`eme partie
Integration stochastique
53
Chapitre 3
Martingales en temps continu
Dans ce chapitre, on presente les rudiments sur la theorie des martingales en temps
continu. Ce sont des processus denis sur des espaces (, T, (T
t
)
t0
, P) ltres, cest ` a dire
muni dune ltration (T
t
)
t0
. On rappelle quune ltration sur un espace de probabilite
(, T) est une famille (T
t
)
t0
de sous-tribus telles que pour s t, on a T
s
T
t
.
On rappelle quon associe `a chaque T
t
les tribus T
t
+ et T
t
et la ltration est dite continue
` a droite (resp. `a gauche) si pour tout t 0, on a T
t
= T
t
+ (resp., pour tout t > 0,
T
t
= T
t
). Elle est dite satisfaire les conditions habituelles si elle est continue ` a droite et
compl`ete (ie. contient tous les negligeables de T).
Dans tout ce chapitre, on consid`ere (, T, (T
t
)
t0
, P) un espace ltre. On commence par
des generalites sur les ltrations en Section 3.1 et sur les temps darrets en Section 3.2
puis on presente la notion de martingale en temps continu en Section 3.3. On generalise
les principaux resultats rencontres dans le cadre discret (inegalites de Doob, theor`emes de
convergence, theor`eme darret, martingales arretees) et on regularise les trajectoires des
martingales. On termine avec un mot sur le processus de Poisson en Section 3.4.
3.1 Filtration et processus
Denition 3.1 (Filtration) Une ltration sur un espace de probabilite (, T) est une
famille (T
t
)
t0
de sous-tribus telle que pour s t, on a T
s
T
t
.
Si on consid`ere un processus (X
t
)
t0
, on consid`ere souvent la ltration canonique quil
engendre : T
X
t
= (X
s
: s t), t 0. Dans ce cas, il est utile dinterpreter une ltration
comme une quantite dinformation disponible ` a une date donnee : T
X
t
represente linfor-
mation vehiculee par le processus X jusqu` a la date t.
Une ltration est P-compl`ete pour une mesure de probabilite P si T
0
contient tous les
ev`enements de mesure nulle, ie. A = N T tel que P(N) = 0 T
0
.
Remarque 3.1 Linteret dune tribu compl`ete vient du fait suivant : soit X = Y ps o` u Y
est une variable aleatoire (-mesurable, avec ( compl`ete. Alors X est (-mesurable.
55
56 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
Preuve : En eet notons N = X ,= Y , negligeable, donc dans (. Soit A B(R), on a :
X
1
(A) =
_
Y A N
c
_

_
X A N
_
.
On a
_
X A N
_
( car
_
X A N
_
N et ( est une tribu compl`ete. Puis
_
Y A N
c
_
( car Y A ( et N
c
(.
`
A une ltration, on associe T
t
+ =

>0
T
t+
et T
t
=
_
>0
T
t
.
La ltration (T
t
)
t0
est dite continue `a droite si pour tout t 0, on a T
t
= T
t
+,
continue `a gauche si pour tout t > 0, on a T
t
= T
t
.
Dans la suite, on dira quune ltration satisfait les conditions habituelles si elle est
compl`ete et continue `a droite. Cest le cas de la ltration brownienne (T
B
t
)
t0
donnee par
T
B
t
= (B
s
: s t), cf. Prop. 2.3.

Etant donnee une ltration quelconque (T
t
)
t0
, on peut
toujours en considerer une satisfaisant les conditions habituelles en ajoutant ` a T
t
+ la classe
des P-negligeables de T. Il sagit de laugmentation habituelle de (T
t
)
t0
.
Denition 3.2 Un processus (X
t
)
t0
est dit mesurable si lapplication denie sur (R
+

, B(R
+
) T) par (t, ) X
t
() est mesurable.
Cette propriete est plus forte que de demander ` a X
t
detre T
t
-mesurable pour tout t
0. Cependant, si les trajectoires de X sont ps continues, les deux proprietes deviennent
equivalentes.
Denition 3.3 (Adapte) Un processus (X
t
)
t0
est dit adapte si pour tout t 0, X
t
est
T
t
-mesurable.
(Progressif ) Un processus (X
t
)
t0
est dit progressif (ou progressivement mesurable) si pour
tout t 0, (s, ) X
s
() est mesurable sur [0, t] muni de B([0, t]) T
t
.
(Tribu progressive) La famille des A B(R
+
) T telle que le processus X
t
() = 1
A
(t, )
est progressif est appelee la tribu progressive. On la note Prog.
Remarque 3.2 Un processus X est adapte par rapport `a sa ltration naturelle T
X
.
Un processus progressif est adapte et mesurable.
Il est adapte car X
t
= X i
t
o` u i
t
: (, T
t
) (t, ) ([0, t] , B([0, t]) T
t
)
est mesurable.
Il est mesurable car un processus est mesurable ssi pour tout t 0, (s, ) X
s
()
est mesurable sur [0, t] muni de B([0, t]) T.
Un processus mesurable et adapte admet une version progressive (Chung et Doob,
cf. [DM]).
Exemples
3.2. Filtrations et temps darret 57
Soit 0 < t
1
< < t
n
et h
1
, . . . , h
n
des variables aleatoires telles que h
i
est T
t
i
-
mesurable. On pose t
0
= 0 et t
n+1
= +. Les processus X =

n
i=0
h
i
1
[t
i
,t
i+1
[
et
Y =

n
i=0
h
i
1
]t
i
,t
i+1
]
sont progressifs.
En eet, montrons le pour X : soit B B(R), on a
(s, ) [0, t] : X
s
() B =
n
_
i=0
([t
i
, t
i+1
[[0, t]) : h
i
() B
B([0, t]) T
t
.
Si la ltration est compl`ete, un processus adapte ` a trajectoires continues ` a gauche
est progressif.
En eet, on approche le processus X par X
n
t
= X
k2
n pour t [k2
n
, (k + 1)2
n
[ et
k 0, . . . , 2
n
1. Le processus X
n
est progressif (exemple precedent) et comme X
est continu `a gauche, X
n
t
X
t
pour tout t 0. Cela garantit que X est progressif.
Proposition 3.1 Soit X un processus adapte et `a trajectoires continues `a droite. Alors X
est progressif.
Demonstration : On consid`ere X
n
donne par X
n
t
= X
(k+1)2
n pour t [k2
n
, (k+1)2
n
[.
Dapr`es lexemple ci-dessus, le processus X
n
est progressif avec la ltration (T
t+2
n)
t0
et
comme X est continu `a droite, pour tout t 0, X
n
t
X
t
.
Fixons t 0 et considerons

X
n
s
= X
n
s
1
s<t2
n + X
t
1
s=t
. Ce processus est mesurable par
rapport ` a B([0, t]) T
t
. En eet, X
n
s
1
s<t2
n est B([0, t]) T
t
-mesurable dapr`es ce qui
prec`ede. Puis, si on note Y
s
= X
t
1
s=t
, alors
Y
1
(A) = (s, ) [0, t] : X
t
()1
s=t
A.
Si s = t alors il faut X
1
t
(A) et si s ,= t, il faut 0 A, ie. on a ou . On a donc
Y
1
(A) =
_
[0, t) ( ou )
_

_
t X
1
t
(A) B([0, t]) T
t
_
.
Par ailleurs, quand n +,

X
n
s
X
s
pour s t. La restriction de X ` a [0, t] est donc
mesurable par rapport ` a B([0, t]) T
t
, ie. X est progressif.
Un processus est progressif sil est mesurable par rapport `a la tribu progressive Prog.
Linteret dun processus progressif vient de ce que, estime en un temps darret, il est
mesurable pour la tribu associe au temps darret, cf. Prop. 3.4. Avant de voir cela, on
revient sur les principales proprietes des temps darret.
3.2 Filtrations et temps darret
Dans cette section, on rappelle et developpe la notion de temps darret.
58 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
Denition 3.4 (Temps darret) Une variable aleatoire T `a valeurs dans [0, +] est un
temps darret si pour tout t 0 on a T t T
t
.
On associe `a un temps darret T les tribus suivantes
T
T
= A T

: t 0, A T t T
t

T
T
+ = A T

: t 0, A T < t T
t

T
T
= A T > t : t 0, A T
t
.
Les proprietes suivantes sont satisfaites :
Proposition 3.2 1. On a toujours T
T
T
T
T
T
+. Si la ltration est continue `a
droite T
T
= T
T
+.
2. Une variable aleatoire T :

R
+
est un (T
t
+)
t
temps darret ssi pour tout t 0,
T < t T
t
. Cela equivaut encore `a dire que T t est T
t
-mesurable pour tout t 0.
3. Si T = t alors T
T
= T
t
, T
T
+ = T
t
+ et T
T
= T
t
.
4. Pour A T

, posons T
A
() = T() si A, + sinon. Alors A T
T
ssi T
A
est
un temps darret.
5. Le temps darret T est T
T
-mesurable.
6. Si S T sont deux temps darret alors T
S
T
T
. Pour S, T des temps darret,
S T et S T sont des temps darret et T
ST
= T
S
T
T
. De plus S T T
ST
,
S = T T
ST
.
7. Si S
n
est une suite croissante de temps darret alors S = lim
n
S
n
est aussi un temps
darret et T
S
=
_
n
T
S

n
.
8. Si S
n
est une suite decroissante de temps darret alors S = lim
n
S
n
est aussi un
temps darret de (T
t
+)
t
et T
S
+ =

n
T
S
+
n
.
9. Si S
n
est une suite decroissante stationnaire de temps darret (ie. , N(), n
N(), S
n
() = S()) alors S = lim
n
S
n
est aussi un temps darret pour (T
t
)
t0
et
T
S
=

n
T
Sn
(comparer avec 8)).
Demonstration :
1) Soit A T > t T
T
avec A T
t
. Alors A T > t T

et pour s 0
(A T > t) T s = A (t < T s) T
t
car si s t alors t < T s = tandis que si s > t alors t < T s = T t
c
T
s T
s
et A T
t
T
s
. Ainsi A T > t T
T
. Soit maintenant A T
T
alors
A T < t =
_
n
(A T t 1/n)

n
T
t1/n
T
t
Puis si la ltration est continue ` a droite et A T
T
+ alors
A T t =

n
A T < t + 1/n

n
T
t+1/n
= T
t
+ = T
t
.
3.2. Filtrations et temps darret 59
2) Soit T est un (T
t
+)
t
-temps darret alors
T < t =
_
n
T t 1/n

n
T
(t1/n)
+ T
t
car pour chaque on a n : T
(t1/n)
+ T
t
. Reciproquement, si T < t T
t
alors
T t =

n
T < t + 1/n

n
T
t+1/n
= T
t
+.
Puis si T t est T
t
-mesurable alors pour tout s, T t s = T st s T
t
. Mais
pour s < t, cela garantit donc T s T
t
pour tout s < t, ie. T s T
s
+, cest ` a
dire T est un temps darret pour (T
t
+)
t0
. Reciproquement, si T est un temps darret pour
(T
t
+)
t0
, alors pour tout s 0, on a Tt s = T st s = T s T
s
+ T
t
si s < t et = T
t
+ si t s et donc T t est T
t
-mesurable.
3) Soit T = t alors A T
T
ssi pour tout s 0 on a A t s T
s
. Pour s < t on a
bien T
s
et pour t s, il faut A T
s
. En particulier, il faut A T
t
. La reciproque est
claire.
Si A T
T
+ ssi pour tout s 0 on a A t < s T
s
. Pour s t on a bien T
s
et
pour t < s, il faut A T
s
. En particulier, il faut A
s>t
T
s
= T
t
+. Pour la reciproque,
observer que quand t < s, on a A t < s = A T
t
+ T
s
.
La tribu T
T
est constituee des A T > s pour A T
s
. Comme T = t : si s t, cet
ensemble est vide ; si s < t, cet ensemble est A T
s
. On a donc T
T
= (
s<t
T
s
) = T
t
.
4) A T
T
ssi pour tout t 0 : A T t T
t
. Mais A T t = T
A
t ce qui
permet de conclure.
5) On a T s T
T
pour tout s car
T s T t = T t s T
ts
T
t
.
6) Si S T et A T
S
alors
A T t = (A S t) T t T
t
.
Do` u A T
T
. Pour S, T quelconques, on a
S T t = S t T t T
t
S T t = S t T t T
t
.
Comme S T T, S, on a facilement T
ST
T
S
T
T
. De plus, si A T
S
T
T
, alors
A S T t = (A S t (A T t) T
t
,
do` u A T
ST
. Puis pour t 0, on a
S T T t = (S t T t) S t T t T
t
60 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
S T S t = S t T t S t T
t
car S t et T t sont T
t
-mesurables dapr`es 5) et 6) dej`a vus (S t t donc S t qui est
T
S
-mesurable est aussi T
t
-mesurable) donc S t T t T
t
. Finalement, cela garantit
S T T
S
T
T
= T
ST
. Largument est analogue pour S = T.
7) On a S t =

n1
S
n
t T
t
. De plus, on a T
S

n
T
S
(car pour A T
S

n
,
on a A S
n
> t = (A S
n
> t) S > t T
S
). Donc
_
n
T
S

n
T
S
. Puis pour
A T
S
, on a
A S > t =
_
n
(A S
n
> t),
ce qui montre que A S > t
_
n
T
S

n
et T
S

_
n
T
S

n
.
8) On ecrit S < t =

n
S
n
< t T
t
. De plus, on voit aisement que T
S
+ T
S
+
n
pour
tout n car pour A T
S
+
A S
n
< t = A (S
n
< t S < t) = (A (S < t) S
n
< t T
t
.
Reciproquement si A

n
T
S
+
n
alors
A S < t =
_
n
(A S
n
< t) T
t
,
do` u A T
S
+ et T
S
+ =

n
T
S
+
n
.
9) Dans ce cas, on a en plus S t =
n
S
n
t T
t
et pour A
n
T
Sn
, AS t =

n
(AS
n
t) T
t
. Do` u A T
S
. Puis si A T
S
alors comme S = S
n
pour tout n N
et on a A
nN
T
Sn
. mais comme T
Sn
T
Sp
pour n p, on a
nN
T
Sn
=
n0
T
Sn
.

Proposition 3.3 Soient T un temps darret et S une variable aleatoire T


T
-mesurable telle
que S T. Alors S est aussi un temps darret.
En particulier, si T est un temps darret,
T
n
=
+

k=0
k + 1
2
n
1
k2
n
<T(k+1)2
n

+ (+)1
T=+
(3.1)
est une suite de temps darret qui decrot vers T.
Demonstration : On ecrit S t = S t T t T
t
car S t T
T
(S
est T
T
-mesurable). La deuxi`eme partie en decoule facilement puisque T
n
T et T
n
est
T
T
-mesurable. En eet, T
n
est T
T
-mesurable si pour tout u 0, on a T
n
u T
T
.
Pour cela, il faut voir que pour tout t 0, on a T
n
u T t T
t
. Mais
T
n
u =
_
T
n

[2
n
u]
2
n
_
=
[2
n
u]1
_
k=0
_
T
n
=
k + 1
2
n
_
3.2. Filtrations et temps darret 61
=
[2
n
u]1
_
k=0
_
T
_
k
2
n
,
k + 1
2
n
__
=
_
T
[2
n
u]
2
n
_
.
On a
T
n
u T t =
_
T t
[2
n
u]
2
n
_
T
t[2
n
u]/2
n T
t
.

Le resultat suivant sera utile :


Proposition 3.4 Soit X progressif et T un temps darret. Alors X
T
1
T<+
est T
T
-
mesurable.
Demonstration : Notons que Y : R est T
T
-mesurable ssi, pour tout t 0, Y 1
Tt
est T
t
-mesurable. En eet si la condition est veriee alors pour A B(R), on a Y
A T t = Y 1
Tt
A T t T
t
donc Y A T
T
. Puis si Y est
T
T
-mesurable, alors Y 1
Tt
A = (Y A T t) (0 A T > t) T
t
.
On verie la T
T
-mesurabilite de Y = X
T
1
T<+
en montrant que pour tout t
Y 1
Tt
= X
T
1
Tt
= X
Tt
1
Tt
est T
t
-mesurable. Mais X
Tt
est la composition des deux applications mesurables
_
(, T
t
) ([0, t] , B([0, t]) T
t
)
(T() t, )
et
_
([0, t] , B([0, t]) T
t
) B(R)
(s, ) X
s
()
(respectivement car T est un temps darret et X est progressif). On conclut que X
Tt
donc
aussi X
Tt
1
Tt
est T
t
-mesurable.
Remarque 3.3 Il est necessaire de considerer X
T
1
T<+
plutot que X
T
tant que X

nest pas deni. Par contre si X

est deni et est T

-mesurable alors X
T
est T
T
-mesurable.
En eet, comme X
T
= X
T
1
T<+
+ X
T
1
T=+
avec X
T
1
T<+
T
T
-mesurable par la
Prop. 3.4, il reste ` a voir que X
T
1
T=+
est aussi T
T
-mesurable, ie. pour tout A B(R) :
X
T
1
T=+
A = (X

A T = +) (0 A T < +) T
T
.
Pour cela, on a X
T
1
T=+
A T t = 0 A T t T
t
quand t < +
tandis que pour t = +,
X
T
1
T=+
A T + = X

A T = + T

.
62 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
3.3 Martingales en temps continu
3.3.1 Denition, exemples
Denition 3.5 (Martingale) Un processus (X
t
)
t0
adapte par rapport une ltration (T
t
)
t0
et tel que pour tout t 0, X
t
L
1
est appele
une martingale si pour s t : E[X
t
[T
s
] = X
s
;
une surmartingale si pour s t : E[X
t
[T
s
] X
s
;
une sous-martingale si pour s t : E[X
t
[T
s
] X
s
.
Une martingale est, en moyenne, constante, tandis quune surmartingale est, en moyenne,
decroissante et une sous-martingale, en moyenne, croissante. Ainsi, on peut considerer
quune surmartingale est une generalisation aleatoire dune fonction decroissante tandis
quune sous-martingale est une generalisation dune fonction croissante. Dans la suite, on
consid`ere souvent des martingales ` a trajectoires continues `a droite, dapr`es la Prop. 3.1
elles seront progressivement mesurables.
Proposition 3.5 Soit (X
t
)
t0
une martingale (resp. une sous-martingale) et soit : R
R une fonction convexe (resp. convexe croissante). On suppose que (X
t
) L
1
pour tout
t 0. Alors ((X
t
))
t0
est une sous-martingale.
Demonstration : En eet, dapr`es linegalite de Jensen (pour lesperance conditionnelle),
on a, pour s < t,
E[(X
t
)[T
s
] (E[X
t
[T
s
]) (X
s
).

En appliquant cette remarque `a la fonction convexe croissante x x


+
, on montre que si
(X
t
)
t0
est une sous-martingale alors (X
+
t
)
t0
aussi. En particulier, on a pour s [0, t] :
E[X
+
s
] E[X
+
t
]. Dautre part, puisque X est une sous-martingale, on a pour s [0, t],
E[X
s
] E[X
0
]. En combinant ces deux inegalites et en utilisant [x[ = 2x
+
x, on trouve
la borne
sup
s[0,t]
E[[X
s
[] 2E[X
+
t
] E[X
0
].
On peut alors enoncer un resultat utile :
Proposition 3.6 Si (X
t
)
t0
est une sous-martingale (ou en fait surmartingale, ou mar-
tingale en changeant X en X), on a pour tout t 0 : sup
s[0,t]
E[[X
s
[] < +.
3.3.2 Inegalites pour martingales
Dans cette section, on generalise au cadre continu plusieurs inegalites dej`a connues dans le
cadre discret quand les (sur/sous)-martingales sont `a trajectoires continues ` a droite. Pour
cela, lidee est de considerer un ensemble denombrable dense D quon voit comme limite
de parties nies croissantes t
1
, . . . , t
n
. On applique les resultats discrets aux restrictions
3.3. Martingales en temps continu 63
` a t
1
, . . . , t
n
. En passant ` a la limite (convergence monotone avec t
1
, . . . , t
n
D), le
resultat sobtient pour les restrictions ` a D. Comme D est dense dans R
+
, la continuite (` a
droite) permet de lever la restriction t D et dobtenir le resultat pour tout t R
+
.
Systematiquement, on commence par rappeler les resultats principaux pour des martingales
discr`etes.
Inegalite maximale. Soit (Y
n
)
nN
une surmartingale discr`ete. Alors pour tout > 0 et
n 0, on a
P
_
sup
kn
[Y
k
[
_

E[[Y
0
[] + 2E[[Y
n
[]

.
Si on consid`ere maintenant une surmartingale (X
t
)
t0
en temps continu, on peut appliquer
cette inegalite ` a la surmartingale en temps discret Y
k
= X
t
kn
, k 0, pour toute partie
nie 0 = t
0
< t
1
< t
2
< < t
n
= t de [0, t]. Elle donne
P
_
sup
kn
[X
t
k
[
_

E[[X
0
[] + 2E[[X
t
[]

.
Si D est un sous-ensemble denombrable de R
+
(contenant t), en ecrivant D comme une
limite croissante de parties nies 0 t
1
< t
2
< t
n
= t, on obtient (avec la monotonie
sequentielle des probabilites)
P
_
sup
s[0,t]D
[X
s
[
_

E[[X
0
[] + 2E[[X
t
[]

. (3.2)
Si on suppose en plus que les trajectoires de X sont continues ` a droite alors en prenant D
dense contenant t, on a sup
s[0,t]D
[X
s
[ = sup
s[0,t]
[X
s
[ ce qui montre quon peut prendre
sup
s[0,t]
dans (3.2) et on a alors montre :
Proposition 3.7 (Inegalite maximale de Doob) Soit (X
t
)
t0
une surmartingale dont
les trajectoires sont continues `a droite. Alors
P
_
sup
s[0,t]
[X
s
[
_

E[[X
0
[] + 2E[[X
t
[]

3 sup
st
E[[X
s
[]

_
. (3.3)
Linegalite de Doob arme que si (Y
n
)
nN
est une martingale en temps discret telle que
Y
n
L
p
pour p > 1 alors pour tout n 0 on a, pour q conjugue de p (ie.
1
p
+
1
q
= 1) :
_
_
_ sup
kn
[Y
k
[
_
_
_
p
q|Y
n
|
p
.
On en deduit comme precedemment, avec le theor`eme de convergence monotone, que si
(X
t
)
t0
est une martingale en temps continu bornee dans L
p
_
_
_ sup
s[0,t]D
[X
s
[
_
_
_
p
q|X
t
|
p
. (3.4)
`
A nouveau, si X a des trajectoires continues `a droite, on peut remplacer sup
s[0,t]D
par
sup
s[0,t]
dans (3.4) et obtenir :
64 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
Proposition 3.8 (Inegalite de Doob) Soit (X
t
)
t0
une martingale dont les trajectoires
sont continues `a droite avec X
t
L
p
pour tout t 0 alors, avec
1
p
+
1
q
= 1,
_
_
_ sup
s[0,t]
[X
s
[
_
_
_
p
q|X
t
|
p
. (3.5)
Si f est une fonction denie sur une partie T de R
+
et si a < b, le nombre de montees de
f le long de [a, b], note M
f
a,b
(T), est le supremum des entiers k tels que lon puisse trouver
une suite croissante de T, s
1
< t
1
< s
2
< t
2
< s
k
< t
k
, avec f(s
i
) < a, f(t
i
) > b.
[Dessin typique des montees]
Pour une surmartingale discr`ete (Y
n
)
n0
, on a :
E
_
M
Y
a,b
([0, n])


1
b a
E[(Y
n
a)

]. (3.6)
On en deduit comme precedemment le resultat suivant dans le cas continu :
Proposition 3.9 (Nombre de montees) Soit (X
t
)
t0
une surmartingale. Si D est un
sous-ensemble denombrable de R
+
, on a :
E[M
X
a,b
([0, t] D)]
1
b a
E[(X
t
a)

]. (3.7)
Demonstration : Considerer dabord D ni puis passer ` a la limite par convergence mo-
notone. Attention : le resultat ne se prolonge pas par continuite puisque M
X
a,b
([0, t]) est ` a
valeurs enti`eres et donc non continue.
3.3.3 Regularisation de trajectoires
Avant de donner des theor`emes de convergence pour les martingales en temps continu dans
la section 3.3.4, on rappelle les resultats du cas en temps discret. Ils permettent dabord
de donner dans cette section des conditions de regularisation des martingales (existence de
modications ` a trajectoires continues ou c`adl`ag).
Proposition 3.10 (Convergence des martingales discr`etes)
1. Si (Y
n
)
nN
est une surmartingale bornee dans L
1
(en particulier si elle est positive)
alors Y
n
Y

ps et Y

L
1
.
2. Si (Y
n
)
nN
est une surmartingale indexee par N (ie. T
n
T
n+1
et Y
n
E[Y
n+1
[T
n
]
pour n 0) et telle que sup
n0
E[Y
n
] < + alors la suite (Y
n
)
n0
est uniformement
integrable et converge ps et dans L
1
quand n vers une variable Z telle que
Z E[Y
n
[T

] (o` u par denition T

n0
T
n
).
3.3. Martingales en temps continu 65
En appliquant ces resultats en temps discret `a des (sur)martingales en temps continu, on a :
Theor`eme 3.1 (Limites `a droite et `a gauche) Soit (X
t
)
t0
une surmartingale et D
un sous-ensemble denombrable dense dans R
+
.
1. Pour presque tout , lapplication s D X
s
() R admet en tout t R
+
une limite `a droite X
t
+() nie et en tout point t R

+
, une limite `a gauche X
t
().
2. De plus, pour tout t R
+
, on a X
t
+ L
1
et X
t
E[X
t
+[T
t
] avec egalite si la fonction
t E[X
t
] est continue `a droite (par exemple, si (X
t
)
t0
est une martingale).
3. De plus, le processus (X
t
+)
t0
est alors une surmartingale par rapport `a la ltration
(T
t
+)
t0
et une martingale si X en est une.
Demonstration : 1) Cest une consequence de linegalite sur le nombre de montee et de
celle de Doob. En eet, pour T > 0 xe, on a dabord, sup
s[0,T]D
[X
s
[ < + ps car
linegalite maximale de Doob :
lim
+
P
_
sup
s[0,T]D
[X
s
[
_
= 0.
Ensuite, linegalite sur le nombre de montees montre que pour tous a < b rationnels, on a
ps M
X
a,b
([0, T] D) < +. On a donc aussi ps pour tous a < b rationnels, M
X
a,b
([0, T] D) <
+. Finalement, s X
s
() est bornee sur [0, T] D et pour tous a < b rationnels, ne
fait quun nombre ni de montees le long de [a, b]. La partie 1) sen deduit puisque si, par
exemple une fonction f : [0, T] D R na pas de limite ` a gauche nie en t ]0, T], on
peut choisir a < b rationnels de sorte que
liminf
sDt
f(s) < a < b < limsup
sDt
f(s)
2) Pour que X
t
+() soit deni pour tout et pas seulement sur lensemble de probabilite
1 o` u la limite existe, on prend X
t
+() = 0 sur lensemble T
t
+-mesurable et de probabilite
nulle o` u la limite en t le long de D nexiste pas. De cette facon, X
t
+() est bien deni pour
tout et reste (T
t
+)
t0
-mesurable (car la ltration est compl`ete).
On xe t 0 et on choisit une suite t
n
D qui decroit vers t. Par construction, on a
X
t
+
= lim
n+
X
tn
ps. En posant Y
k
= X
t
k
pour k 0, comme la suite (t
n
)
n0
decroit,
on a
E[Y
k+1
[(
k
] = E[X
t
k+1
[T
t
k
] X
t
k
= Y
k
.
La suite (Y
k
)
kN
est donc une surmartingale indexee par N par rapport ` a la ltration
(
k
= T
t
k
, k 0. Comme on a
sup
k0
E[[Y
k
[] sup
s[0,t
1
]D
E[[X
s
[] < +,
le resultat discret (cf. 2) de la Prop. 3.10) assure que la suite X
tn
converge dans L
1
neces-
sairement vers X
t
+. En particulier, X
t
+ L
1
.
66 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
Gr ace `a la convergence L
1
, on peut passer `a la limite dans linegalite X
t
E[X
tn
[T
t
] pour
obtenir X
t
E[X
t
+[T
t
].
Toujours gr ace ` a la convergence dans L
1
, on a E[X
t
+] = lim
n+
E[X
tn
] et donc si la fonc-
tion s E[X
s
] est continue ` a droite, on doit avoir E[X
t
+] = E[X
t
]. Linegalite precedente
nest alors possible que si X
t
= E[X
t
+[T
t
].
3) Ensuite, on remarque dabord que X
t
+ est T
t
+-mesurable : en eet, X
t
+ = lim
st
X
s
et
X
s
est T
u
-mesurable pour tout u s mais alors on a aussi X
t
+ T
u
-mesurable pour tout
u > t ; nalement, X
t
+ est

u>t
T
u
= T
t
+-mesurable.
Soit maintenant s < t et (s
n
)
n0
une suite de D qui decroit vers s. On peut supposer
s
n
t
n
. Alors X
sn
converge vers X
s
+ dans L
1
, et donc, si A T
s
+,
E[X
s
+1
A
] = lim
n+
E[X
sn
1
A
] lim
n+
E[X
tn
1
A
] = E[X
t
+1
A
] = E[E[X
t
+[T
s
+]1
A
]
ce qui entrane X
s
+
E[X
t
+[T
s
+]. Enn, si X est une martingale, on peut remplacer dans
le calcul precedent linegalite par une egalite =.
Theor`eme 3.2 (Regularisation) On suppose que la ltration (T
t
)
t0
satisfait les condi-
tions habituelles. Si X = (X
t
)
t0
est une surmartingale et si la fonction t E[X
t
] est
continue `a droite alors X admet une modication qui est aussi une (T
t
)
t0
-surmartingale
et dont les trajectoires sont continues `a droite avec des limites `a gauche en tout point
(c`adl`ag).
Demonstration : On xe D un ensemble denombrable dense dans R
+
. Soit, dapr`es le
Theor`eme 3.1, N lensemble negligeable tel que si , N, lapplication s X
s
() admet
des limites le long de D ` a droite en tout t 0 et ` a gauche en tout t > 0. On pose
Y
t
=
_
X
t
+() si , N
0 si N.
Les trajectoires de Y sont continues `a droite : en eet si , N alors pour t 0 et > 0,
on a
Y
t
+ = lim
h0
Y
t+h
= lim
h0
X
(t+h)
+ = lim
h0
lim
0
X
t+h+
= lim
h0
X
t+h
= X
t
+ = Y
t
.
et
Y
t
= lim
h0
Y
th
= lim
h0
X
(th)
+ = lim
h0
lim
0
X
th+
= lim
u0
X
tu
existe
car la limite iteree lim
h0
lim
0
revient `a prendre lim
u0
avec u = h 0 car 0
avant h. Ou alors
sup
s[t,t+[
Y
s
() sup
s]t,t+[D
X
s
()
inf
s[t,t+[
Y
s
() inf
s]t,t+[D
X
s
()
3.3. Martingales en temps continu 67
et avec des limites ` a gauche
lim
0
_
sup
s]t,t+[D
X
s
()
_
= lim
0
_
inf
s]t,t+[D
X
s
()
_
= X
t
+() = Y
t
().
De la meme fa con, on montre que les trajectoires de Y ont des limites ` a gauche.
Enn, comme T
t
+ = T
t
(conditions habituelles veriees par (T
t
)
t0
), on a dapr`es le 2) du
theor`eme precedent
X
t
= E[X
t
+[T
t
] = E[X
t
+[T
t
+] = X
t
+ = Y
t
ps
puisque X
t
+ est T
t
+-mesurable. On voit ainsi que Y est une modication de X. Puisque la
ltration (T
t
)
t0
est compl`ete, il est clair que Y
t
est T
t
-mesurable et il est immediat aussi
que Y est une (T
t
)
t0
-surmartingale (cf. 3) dans le Th. 3.1).
3.3.4 Theor`emes de convergence
Dans cette section, la notion duniforme integrabilite est importante. On renvoie `a un cours
de probabilite de base pour la denition de cette notion.
Theor`eme 3.3 (Convergence ps) Soit X = (X
t
)
t0
une surmartingale continue `a droite
et bornee dans L
1
. Alors il existe une variable aleatoire X

L
1
telle que
lim
t+
X
t
= X

ps.
Remarque 3.4 Un enonce adapte donne la convergence des sous-martingales conti-
nues ` a droite.
Une surmartingale (X
t
)
t0
est bornee dans L
1
ssi sup
t0
E[X

t
] < +. En eet,
comme E[X
t
] E[X
0
], on a E[X
+
t
] E[X

t
] +E[X
0
]. Il vient
E[X

t
] E[[X
t
[] = E[X
+
t
] +E[X

t
] 2E[X

t
] +E[X
0
]
et donc
sup
t0
E[[X
t
[] E[X
0
] + 2 sup
t0
E[X

t
].
Lautre sens est evident puisque X

t
[X
t
[.
En particulier, une surmartingale positive est bornee dans L
1
et dapr`es le Theor`eme
3.3 ci-dessus elle converge ps.
Demonstration : Soit D un sous-ensemble denombrable dense de R
+
. On deduit de la
Proposition 3.9 (inegalite du nombre de montees) que pour tous a < b, on a
E[M
X
a,b
(D)] = lim
t+
E[M
X
a,b
([[0, t]D)] lim
t+
E[(X
t
a)

]
b a

sup
t0
E[(X
t
a)

]
b a
< +.
68 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
On a donc M
X
a,b
(D) < + ps, pour tout rationnels a < b et aussi pour tout ration-
nels a < b ps. En raisonnant comme dans le Theor`eme 3.1, on en deduit que X

:=
lim
tD+
X
t
existe ps (sinon, il existe a < b rationnels tels que liminf
tD+
X
t
< a <
b < limsup
tD+
X
t
, ce qui exige un nombre inni de montees de a vers b le long de D).
De plus, le lemme de Fatou permet de voir que cette limite est dans L
1
: dabord, on a
E[[X

[] = E[ lim
s+
[X
s
[] = E[liminf
s+
[X
s
[] liminf
s+
E[[X
s
[] sup
s0
E[[X
s
[] < +.
Pour nir, la continuite `a droite des trajectoires de X permet de lever la restriction t D
dans la limite precedente.
Denition 3.6 (Martingale fermee) Une surmartingale (X
t
)
t0
est dite fermee par une
variable aleatoire X

L
1
si pour tout t 0, on a X
t
E[X

[T
t
].
Une martingale (X
t
)
t0
est dite fermee (comme martingale) par une variable aleatoire
X

L
1
si pour tout t 0, on a X
t
= E[X

[T
t
].
Attention : une martingale peut etre fermee en tant que surmartingale mais pas en tant
que martingale : considerer par exemple une martingale positive (non nulle), elle est fermee
par 0 en tant que surmartingale pourtant elle nest pas nulle.
Dans le cas discret une martingale (Y
n
)
n0
est fermee (ie. il existe Y

tel que Y
n
=
E[Y

[T
n
]) ssi elle est uniformement integrable ou ssi Y
n
converge ps et dans L
1
. On a
lanalogue dans le cas continu :
Proposition 3.11 Soit X = (X
t
)
t0
une martingale continue `a droite. Alors il y a equi-
valence entre les assertions suivantes :
1. X est fermee (par X

) ;
2. la famille (X
t
)
t0
est uniformement integrable.
3. X
t
converge ps et dans L
1
vers X

;
De plus X

= X

si T

=
_
t0
T
t
.
Demonstration : Limplication 1) 2) est facile puisque si Z L
1
alors la famille de
variables aleatoires E[Z[(] : ( sous-tribu de T est uniformement integrable.
Si 2) est vrai, le Theor`eme 3.3 entrane que X
t
converge ps vers X

L
1
donc aussi dans
L
1
par uniforme integrabilite, ce qui donne 3).
Enn, si 3) est verie, on peut passer ` a la limite t + dans L
1
dans legalite X
s
=
E[X
t
[T
s
] et on trouve X
s
= E[X

[T
s
], ie. X est fermee, cest `a dire 1).
Pour la derni`ere partie, en notant Z = X

, on deduit de X
t
= E[X

[T
t
] =
E[X

[T
t
] que
E[Z1
A
] = 0 pour tout A
_
t0
T
t
.
Mais / = A T

: E[Z1
A
] = 0 est une classe monotone et

t0
T
t
est stable par in-
tersection nie (-syst`eme). Dapr`es le theor`eme des classes monotones, T

=
_
t0
T
t
_
3.3. Martingales en temps continu 69
est inclus dans /. On a donc E[Z1
A
] = 0 pour tout A T

. Mais, comme Z est T

-
mesurable, on a donc Z = 0 ps, ie. X

= X

Pour une surmartingale fermee, on a la convergence ps :


Proposition 3.12 Une surmartingale continue `a droite X = (X
t
)
t0
est fermee (par X

)
ssi X
t
converge ps vers X

.
Demonstration : Soit (X
t
)
t0
une surmartingale continue `a droite fermee par X

. Par un
argument de convexite (Jensen applique `a la sous-martingale X et `a x
+
) donne E[(X
t
)

]
E[(X

]. Le Theor`eme 3.3 assure alors que X


t
converge ps vers une limite X

(la
reciproque va garantir que X

= X

quand T

=
_
t0
T
t
).
Reciproquement si X
t
converge ps vers X

. On a pour s t
X
s
E[X

[T
s
] E[X
t
[T
s
] E[E[X

[T
t
]T
s
]
E[X
t
E[X

[T
t
][T
s
].
En passant `a la limite t + par le lemme de Fatou, on a
X
s
E[X

[T
s
] E
_
liminf
t+
(X
t
E[X

[T
t
])[T
s
_
. (3.8)
Mais liminf
t+
X
t
= lim
t+
X
t
= X

ps et comme (E[X

[T
t
])
t0
est une martingale
fermee donc convergente, on a aussi, dapr`es la Prop 3.11, limsup
t+
E[X

[T
t
] = X

(ici il est immediat que T

= (
t0
T
t
)). Finalement, la minoration dans (3.8) est nulle
et elle donne X
s
E[X

[T
s
] : la surmartingale (X
t
)
t0
est fermee.
3.3.5 Theor`eme darret
Le theor`eme darret pour une surmartingale discr`ete (Y
k
)
kN
par rapport ` a une ltration
((
k
)
k0
, fermee par Y

, enonce que si S et T sont deux temps darret tels que S T on


a Y
S
, Y
T
L
1
et Y
S
E[Y
T
[(
S
] (avec la convention Y
T
= Y

sur T = +). Le resultat


sapplique encore ` a une surmartingale quelconque si S, T sont (deterministiquement) bor-
nes. Lanalogue continu de ce theor`eme est un resultat essentiel pour la suite.
Rappelons quune martingale X ` a trajectoires continues ` a droite est progressivement me-
surable, cf. Prop. 3.1. En particulier, la Prop. 3.4 sappliquera ` a X
T
1
T<+
et la remarque
3.3 ` a X
T
si elle est fermee (qui sont T
T
-mesurables).
Theor`eme 3.4 (Arret)
1. Soit X = (X
t
)
t0
une surmartingale continue `a droite et fermee par X

, variable
aleatoire T

-mesurable. Soient S et T deux temps darret avec S T. Alors X


S
et
X
T
sont dans L
1
et
X
S
E[X
T
[T
S
]
avec la convention X
T
= X

sur T = +.
70 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
2. Soit X une martingale continue `a droite fermee par X

, variable aleatoire T

-
mesurable. Alors, si S et T sont deux temps darret avec S T on a
X
S
= E[X
T
[T
S
]
avec la meme convention que ci-dessus. En particulier, X
S
= E[X

[T
S
].
Demonstration : 1) Pour tout n 1, posons D
n
=
k
2
n
: k N + et comme en
(3.1)
T
n
= inft D
n
: t > T
=
+

k=0
k + 1
2
n
1
k2
n
<T(k+1)2
n

+ (+)1
T=+
Dapr`es la Prop. 3.3, les T
n
forment une suite de temps darret qui decrot vers T.
Considerons pour n xe les deux variables T
n
et T
n+1
. Ce sont deux temps darret pour la
ltration discr`ete (T
t
)
tD
n+1
car
k2
n1
< T (k + 1)2
n1
= T k2
n1

c
T (k + 1)2
n1
T
k2
n1.
Puisque T
n+1
T
n
, le theor`eme darret (discret) applique ` a la surmartingale discr`ete
(X
t
)
tD
n+1
(qui est fermee par X

) pour la ltration discr`ete (T


t
)
tD
n+1
entrane que
X
T
n+1
E[X
Tn
[T
T
n+1
].
Notons, pour k 0, Y
k
= X
T
k
. On a alors
Y
k1
= X
T
k+1
E[X
T
k
[T
T
k+1
] = E[Y
k
[T
T
k
],
La suite (Y
k
)
kN
est donc une surmartingale indexee par N pour la ltration (T
T
k
)
kN
.
De plus, on a aussi sup
k0
E[Y
k
] = sup
n0
E[X
Tn
] E[X
0
] (on utilise ici encore le theor`eme
darret discret). Dapr`es le resultat discret de convergence (Prop. 3.10), on conclut que
X
Tn
converge ps et dans L
1
. Comme T
n
T, par continuite ` a droite, la limite ps est
necessairement X
T
, ce qui donne en particulier X
T
L
1
car il y a aussi convegence L
1
.
Au temps darret S, on associe de meme la suite S
n
S veriant aussi (quitte `a reindexer
S
n
) S
n
T
n
, et X
Sn
converge vers X
S
ps et dans L
1
. Puisque S
n
T
n
le theor`eme darret
discret donne X
Sn
E[X
Tn
[T
Sn
] ainsi, pour A T
S
T
Sn
,
E[X
Sn
1
A
] E[X
Tn
1
A
].
En passant `a la limite L
1
quand n +, il vient
E[X
S
1
A
] E[X
T
1
A
]
pour tout A T
S
. Comme dapr`es la Prop. 3.4 et la Rem. 3.3, X
S
est T
S
-mesurable, cette
inegalite assure alors que X
S
E[X
T
[T
S
], ce qui conclue le 1).
2) Il sut dappliquer la partie 1) `a X et ` a X.
3.3. Martingales en temps continu 71
Corollaire 3.1 Soit X une surmartingale (resp. une martingale) continue `a droite et
soient S T deux temps darret (deterministiquement) bornes. Alors
X
S
E[X
T
[T
S
] (resp. X
S
= E[X
T
[T
S
]).
Demonstration : Soit a 0 tel que T a. On applique le theor`eme precedent `a la
martingale (X
ta
)
t0
qui est fermee par X
a
. Puis on remarque que X
a
T
= X
T
et X
a
S
= X
S
.

Remarque 3.5 Le theor`eme darret ne sapplique que pour des (sur)martingales unifor-
mement integrables (fermees) ou pour des temps darret bornes. Par exemple si B est un
mouvement brownien, cest bien une martingale (mais non uniformement integrable sinon
le theor`eme 3.3 (de convergence ps) exigerait la convergence ps B
t
B

ce qui est faux).


Si pour a > 0, on pose T
a
= inf(t 0 : B
t
= a) alors on a bien un temps darret mais il
est non (deterministiquement) borne. Le theor`eme darret ne sapplique eectivement pas
dans ce cas puisque E[B
0
] = 0 ,= E[B
Ta
] = a malgre 0 T
a
.

Etant donne un temps darret T, on denit le processus arrete X


T
= (X
T
t
)
t0
par X
T
t
=
X
tT
, cest le processus qui vaut X
t
tant que t T puis quon arrete ` a sa valeur en T, X
T
,
pour les dates ulterieures `a T.
Corollaire 3.2 Soit X une martingale continue `a droite uniformement integrable et soit
T un temps darret. Alors le processus (X
T
t
)
t0
est aussi une martingale uniformement
integrable, et
X
T
t
= E[X
T
[T
t
] (3.9)
avec la convention X
T
= X

sur T = +.
Demonstration : Il sut detablir (3.9) : on aura alors une martingale fermee donc
uniforement integrable Rappelons que X
T
L
1
dapr`es le Theor`eme 3.4 (arret). Dapr`es
ce theor`eme avec S = t T T, on a aussi
X
T
t
= X
S
= E[X
T
[T
S
] = E[X
T
[T
tT
].
Il reste ` a voir que E[X
T
[T
tT
] = E[X
T
[T
t
].
Puisque X
T
1
T<+
est T
T
-mesurable (cf. Prop. 3.4), on sait que X
T
1
Tt
est T
t
-mesurable
et aussi T
T
-mesurable, donc T
tT
-mesurable. Il en decoule que
E[X
T
1
Tt
[T
tT
] = X
T
1
Tt
= E[X
T
1
Tt
[T
t
].
Pour completer la preuve, il reste ` a voir que
E[X
T
1
T>t
[T
tT
] = E[X
T
1
T>t
[T
t
]. (3.10)
Or si A T
t
, on a
72 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
A T > t T
t
car A, T > t = T t
c
T
t
;
puis A T > t T
T
car A T > t T s = T
s
si s t et A T >
t T s T
s
si t s car A, T > t = T t
c
T
t
T
s
et T s T
s
.
Finalement, A T > t T
T
T
t
= T
tT
et donc pour tout A T
t
:
E[1
A
1
T>t
X
T
] = E[E[1
A
1
T>t
X
T
[T
tT
]] = E[1
A
1
T>t
E[X
T
[T
tT
]] = E[1
A
E[X
T
1
T>t
[T
tT
]]
car T > t T
T
(T > t = T t
c
et T t T s = T t s T
ts
T
s
).
Rappelons que Y = E[Z[(] est caracterisee par E[1
A
Z] = E[1
A
Y ] pour tout A (.
Par ailleurs
E[1
A
1
T>t
X
T
] = E[E[1
A
1
T>t
X
T
[T
t
]] = E[1
A
E[1
T>t
X
T
[T
t
]]
On a donc
E[1
A
E[1
T>t
X
T
[T
t
]] = E[1
A
E[X
T
1
T>t
[T
tT
]]
avec E[X
T
1
T>t
[T
tT
] qui est T
t
-mesurable.
Mais rappelons que Y = E[Z[(] ssi Y est (-mesurable et E[1
A
Z] = E[1
A
Y ] pour tout
A (.
Finalement
E[X
T
1
T>t
[T
tT
] = E[1
T>t
X
T
[T
t
],
ie. (3.10) est obtenue, ce qui termine la preuve du Corollaire 3.2.
Remarque 3.6 Si on suppose seulement que X est une martingale continue `a droite, alors
on peut appliquer le corollaire ci-dessus `a la martingale uniformement integrable (X
ta
)
t0
.
On trouve que pour tout temps darret T, (X
tTa
)
t0
est une martingale. Comme on peut
prendre a aussi grand quon le desire, cela signie que (X
tT
)
t0
est une martingale : avec
a t s, la propriete de martingale pour (X
tTa
)
t0
, E[X
tTa
[T
s
] = X
sTa
, secrit
E[X
tT
[T
s
] = X
sT
ie. (X
tT
)
t0
est bien une martingale.
Conclusion. Si X est une martingale et T un temps darret, X
T
denie bien une martingale
appelee martingale arretee. Elle est uniformement integrable si X lest ou si T est
(deterministiquement) borne.
3.4 Processus de Poisson
Si le mouvement brownien est le processus ` a trajectoires continues typique, le processus
` a saut typique est le processus de Poisson quon decrit (tr`es) sommairement dans cette
section. Ce type de processus est utilise par exemple pour modeliser les les dattente
comme les arrivees des appels telephoniques ` a un central.
3.4. Processus de Poisson 73
Denition 3.7 (Processus de Poisson) Soit > 0 et (S
n
)
n1
une suite de variables
aleatoires indepdendantes de meme loi exponentielle c(). On pose T
n
= S
1
+ +S
n
. On
denit alors le processus de comptage N = (N
t
)
t0
`a valeurs dans N + par
N
t
=

n1
1
Tnt
.
Ce processus sappelle le processus de Poisson dintensite .
Denition 3.8 On denit (T
N
t
)
t0
la ltration naturelle completee du processus de Pois-
son.
Remarque 3.7 Le processus se reecrit aussi sous la forme N
t
= sup(n 0 : T
n
t).
Reciproquement, on remarque que T
n
= inf(t 0 : N
t
= n) est un (T
N
t
)
t0
temps darret.
Comme pour t > s, on a N
t
N
s
=

n1
1
s<Tnt
, N est un processus ` a accroisssements
independants et stationnaires (PAIS) et ` a trajectoires c` adl` ag. On montre quil verie alors
la propriete de Markov forte : soit T un (T
N
t
)
t0
-temps darret ni ps. On note N
t
le
processus deni pour s 0 par N
t
s
= N
T+s
N
T
. Alors le processus N
t
est independant
de T
N
T
et a meme loi que N.
Denition 3.9 (equivalente du processus de Poisson) Un processus de Poisson N =
(N
t
)
t0
dintensite est un processus de comptage `a trajectoires continues `a droite tel que
N(0) = 0 ;
N est un processus `a accroissements independants et stationnaires ;
pour tout t 0, N
t
suit la loi de Poisson T(t).
Demonstration : Fastidieux. . . , cf. [BC].
Theor`eme 3.5 Soit N un processus de Poisson dintensite . Alors les processus suivants
sont des martingales :
1. le processus de Poisson compense :

N = (N
t
t, t 0) ;
2. ((N
t
t)
2
t, t 0).
Remarque 3.8 On peut voir le processus de Poisson comme une mesure aleatoire
sur (R, B(R)) : la mesure de lintervalle ]s, t] est N(]s, t]) = N
t
N
s
.
Le mouvement brownien et le processus de Poisson sont deux representant dune
classe plus vaste de processus dit de Levy (processus c`adl`ag `a accroissements in-
dependants et stationnaires).
74 Chapitre 3. c _JCB M2 Math. Universite de Rennes 1
Chapitre 4
Semimartingales continues
Les semimartingales continues forment la classe generale de processus ` a trajectoires
continues pour laquelle on peut developper une theorie de lintegration stochastique qui
sera lobjet du chapitre suivant. Par denition, une semimartingale est la somme dune
martingale (locale) et dun processus ` a variation nie. Dans ce chapitre nous etudions
separement ces deux classes de processus. En particulier, nous introduisons la notion de
variation quadratique dune martingale qui jouera un role fondamental pour lintegration
stochastique.
Dans ce chapitre, on consid`ere un espace de probabilite ltre (, T, (T
t
)
t0
, P) satisfaisant
les conditions habituelles. On consid`ere dabord des processus `a variation nie en Section
4.1 puis des martingales locales en Section 4.2 dont on etudie la variation quadratique en
Section 4.3. On resume les resultats obtenus pour les semimartingales en Section 4.4.
4.1 Processus `a variation bornee
4.1.1 Fonctions `a variation nie
Soit T > 0 xe. On rappelle quil y a une bijection entre les fonctions croissantes continues
` a droite g : [0, T] R
+
et les mesures positives nies sur [0, T]. Elle est donnee par
g(t) = ([0, t]) o` u (]s, t]) = g(t) g(s). La donnee de sur les intervalles ]s, t] determinent
uniquement la mesure sur B([0, T]) (par un argument de classe monotone). Si g est en
plus supposee continue alors est sans atome (ie. (t) = 0 pour tout t [0, T]).
Exemples : si g(x) = x alors est la mesure de Lebesgue ; si g(x) = 1
[a,+[
(x) alors
est la mesure de Dirac
a
.
Denition 4.1 (Mesure signee) Une mesure nie est dite signee si elle est dierence
de deux mesures positives nies.
Lecriture dune mesure signee sous la forme dune dierence de deux mesures positives
nies nest pas unique, cependant il existe une seule decompisition canonique :
75
76 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Proposition 4.1 (Decomposition canonique dune mesure signee) Il existe une seu-
le decomposition =
+

minimale dans le sens o` u


+
et

sont deux mesures


positives nies portees par des boreliens disjoints. Il sagit de la decomposition canonique
de .
Dans la suite, pour une fonction h ` a valeurs reelles, on note h
+
= h 0 et h

= h 0.
Demonstration : Pour obtenir lexistence dune telle decomposition, on consid`ere une
decomposition quelconque =
1

2
de , on pose =
1
+
2
. Comme
1
et

2
, on ecrit par le theor`eme de Radon-Nikodym :

1
(dt) = h
1
(t)(dt),
2
(dt) = h
2
(t)(dt).
Avec h(t) = h
1
(t) h
2
(t) on a
(dt) = h(t)(dt) = h(t)
+
(dt) h(t)

(dt)
ce qui donne la decomposition =
+

avec
+
(dt) = h(t)
+
(dt),

(dt) = h(t)

(dt).
Notons que les mesures
+
et

sont bien ` a supports disjoints puisquelles sont portees


respectivement par D
+
= t [0, T] : h(t) > 0 et D

= t [0, T] : h(t) < 0. Lunicite


de la decomposition =
+

vient du fait que lon a necessairement

+
(A) = sup(C) : C A, C borelien.
En eet (C)
+
(C)
+
(A) quand C A et

+
(A) =
+
(A D
+
) = (A D
+
) sup(C) : C A, C borelien.

On note [[ la mesure positive [[ =


+
+

. Il sagit de la variation totale de .


Remarquons que la derivee de Radon-Nikodym de par rapport ` a [[ est
d
d[[
= 1
D
+
1
D

o` u D
+
D

est une partition de lespace.


Denition 4.2 Soit T > 0. Une fonction continue F : [0, T] R telle que F(0) = 0 est
dite `a variation nie sil existe une mesure signee (ie. dierence de deux mesures positives
nies) telle que F(t) = ([0, t]) pour tout t [0, T].
La mesure est alors determinee de facon unique : lexpression (]s, t]) = F(t) F(s) la
determine uniquement sur la famille des intervalles ]s, t] puis, par un argument de classe
monotone, sur B([0, T]). De plus, F etant continue, est sans atome.
4.1. Processus `a variation bornee 77
Proposition 4.2 Une fonction F est `a variation nie ssi F est dierence de deux fonc-
tions croissantes continues nulles en 0.
Demonstration : Si F est `a variation nie, F(t) = ([0, t]) et avec la decomposition ca-
nonique de de la Proposition 4.1, F est dierence de deux fonctions croissantes continues
et nulles en 0 : F(t) =
+
([0, t])

([0, t]) (si


+
et

ont des atomes, ils doivent neces-


sairement concider pour sannuler ( nen ayant pas). Mais comme
+
et

sont censes
avoir des supports disjoints, cest que de tels atomes nexistent pas :
+
et

sont bien
sans atome. Reciproquement, si F = F
1
F
2
avec F
1
, F
2
fonctions croissantes continues et
nulles en 0 alors on associe
1
et
2
des mesures positives nies `a F
1
, F
2
et F secrit alors
F(t) = ([0, t]) pour la mesure signee =
1

2
.
Dans la suite, on note la mesure associee `a F et
+

la decomposition canonique
de . La fonction denie par
+
([0, t]) +

([0, t]) sappelle la variation totale de F.


Dhabitude, les fonctions ` a variation nie sont plutot denies par la propriete suivante :
Proposition 4.3 (Variation nie ou bornee) Pour tout t [0, T], on a
[[([0, t]) = sup
t
i

i=1,...,p
_
p

i=1
[F(t
i
) F(t
i1
)[
_
o` u le supremum porte sur toutes les subdivisions 0 = t
0
< t
1
< < t
p
= t de [0, t].
Demonstration : Il sut clairement de traiter le cas t = T. Linegalite sobtient
facilement puisque
[F(t
i
) F(t
i1
)[ = [(]t
i1
, t
i
])[ [[(]t
i1
, t
i
])
et donc

p
i=1
[F(t
i
)F(t
i1
)[

p
i=1
[[(]t
i1
, t
i
]) = [[(]0, T]) = [[([0, T]) par additivite.
Pour lautre inegalite, on montre le resultat plus fort suivant : pour toute suite 0 = t
n
0
<
t
n
1
< < t
n
pn
de subdivisions emboitees de [0, T] de pas tendant vers 0, on a
lim
n+
pn

i=1
[F(t
n
i
) F(t
n
i1
)[ = [[([0, T]).
Pour simplier, on consid`ere les subdivisions dyadiques t
n
i
= i2
n
T, 0 i 2
n
, de [0, T].
On utilise un argument de martingales en introduisant lespace de probabilite = [0, T]
muni de la tribu borelienne B([0, T]) et de la probabilite P(ds) = ([[([0, T])
1
)[[(ds). Sur
cet espace, on consid`ere la ltration discr`ete (B
n
)
nn
o` u B
n
est la tribu engendree par les
intervalles ](i 1)2
n
T, i2
n
T], avec 1 i 2
n
. On pose alors
X(s) =
d
d[[
(s) = 1
D
+
(s) 1
D

(s)
78 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
o` u D
+
D

est une partition de lespace et on consid`ere pour chaque n 0


X
n
= E[X[B
n
].
Il sagit dune (B
n
)
n0
-martingale. Comme X
n
est B
n
-mesurable, X
n
est constante sur
chaque intervalle ](i 1)2
n
T, i2
n
T]. Dapr`es les proprietes de lesperance conditionnelle,
sa valeur
i
sur ](i 1)2
n
T, i2
n
T] verie

i
[[(](i 1)2
n
T, i2
n
T])
[[([0, T])
= E
_
E[X[B
n
]1
](i1)2
n
T,i2
n
T]

= E
_
d
d[[
1
](i1)2
n
T,i2
n
T]
_
=
_
](i1)2
n
T,i2
n
T]
d
d[[
d[[
[[([0, T])
=
(](i 1)2
n
T, i2
n
T])
[[([0, T)]
.
On a donc

i
=
(](i 1)2
n
T, i2
n
T])
[[(](i 1)2
n
T, i2
n
T])
=
F(i2
n
T) F((i 1)2
n
T)
[[(](i 1)2
n
T, i2
n
T])
.
Puis comme, par denition, la martingale discr`ete (X
n
)
n0
est fermee et comme X est
mesurable par rapport ` a B([0, T]) =
_
n0
B
n
cette martingale converge ps et dans L
1
vers
X. En particulier,
lim
n+
E[[X
n
[] = E[[X[] = 1,
o` u on utilise [X(s)[ = 1, -pp. Le resultat suit facilement puisque
E[[X
n
[] = ([[([0, T])
1
)
2
n

i=1
[F(i2
n
T) F((i 1)2
n
T)[.

4.1.2 Integrale de Stieltjes


Soit f : [0, T] R une fonction mesurable telle que
_
[0,T]
[f(s)[[[(ds) < +. On note
_
t
0
f(s) dF(s) =
_
[0,t]
f(s) (ds),
_
t
0
f(s) [dF(s)[ =
_
[0,t]
f(s) [[(ds).
On verie facilement linegalite

_
t
0
f(s) dF(s)


_
t
0
[f(s)[ [dF(s)[.
Remarquons de plus que la fonction t
_
t
0
f(s) dF(s) est aussi ` a variation nie. La mesure
associee est alors simplement
t
(ds) = f(s)(ds) et sa decomposition canonique est
__
t
0
f
+
(s) dF
+
(s) +
_
t
0
f

(s) dF

(s)
_

__
t
0
f

(s) dF
+
(s) +
_
t
0
f
+
(s) dF

(s)
_
.
4.1. Processus `a variation bornee 79
On a aussi une ecriture en terme dintegrales par rapport ` a des mesures positives
_
t
0
f(s) dF(s) =
_
t
0
f(s) dF
+
(s)
_
t
0
f(s) dF

(s).
On a encore lassociativite de lintegrale : si F est une fonction ` a variation bornee et si h, g
sont des fonctions mesurables bornees alors en notant

F(t) =
_
t
0
h(s) dF(s), on a
_
t
0
g(s)d

F(s) =
_
t
0
g(s)h(s) dF(s).
Le resultat suivant generalise les sommes de Riemann ` a lintegrale de Stieltjes et donne
donc un moyen dapprocher les integrales de Stieltjes par des sommes.
Proposition 4.4 Si f : [0, T] R est une fonction continue et si 0 = t
n
0
< t
n
1
< <
t
n
pn
= T est une suite de subdivisions (emboitees) de [0, T] de pas tendant vers 0 on a
_
T
0
f(s)dF(s) = lim
n+
pn

i=1
f(t
n
i1
)(F(t
n
i
) F(t
n
i1
)).
Demonstration : Soit f
n
la fonction constante par morceaux denie par f
n
(s) = f(t
n
i1
)
si s ]t
n
i1
, t
n
i
]. Alors,
pn

i=1
f(t
n
i1
)(F(t
n
i
) F(t
n
i1
)) =
_
[0,T]
f
n
(s)(ds)
et le resultat suit par convergence dominee (f continue sur [0, T] est bornee).
4.1.3 Extension de lintegration de Stieltjes `a R
+
Denition 4.3 (Variation nie sur R
+
) Une fonction continue F : R
+
R est dite `a
variation nie sur R
+
si, pour tout T > 0, la restriction de F `a [0, T] est `a variation nie.
Il est alors facile detendre les denitions precedentes des integrales ` a R
+
en supposant f
dF-integrable. En particulier, on peut denir
_
+
0
f(s) dF(s) pour toute fonction f telle
que
_
+
0
[f(s)[ [dF(s)[ = sup
T>0
_
T
0
[f(s)[ [dF(s)[ < +.
4.1.4 Processus `a variation nie
On rappelle quon consid`ere un espace de probabilite ltre (, T, (T
t
)
t0
, P) satisfaisant
les conditions habituelles.
Denition 4.4 (Processus `a variation nie et processus croissant)
80 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Un processus `a variation nie A = (A
t
)
0
est un processus adapte dont toutes les
trajectoires sont `a variation nie au sens de la denition 4.2.
Le processus A est appele processus croissant si de plus les trajectoires de A sont
croissantes.
Remarque 4.1 En particulier, dapr`es la denition 4.2 dune fonction ` a variation
nie, on a A
0
= 0 et les trajectoires de A sont continues.
Le mouvement brownien nest pas `a variation bornee, cf. Prop. 2.8 : on ne pourra donc
pas utiliser cette section pour construire lintegrale contre un mouvement brownien.
Proposition 4.5 Soient A un processus `a variation nie et H un processus progressif tel
que
t 0, ,
_
t
0
[H
s
()[ [dA
s
()[ < +.
Alors le processus H A deni par
(H A)
t
=
_
t
0
H
s
() dA
s
()
est aussi un processus `a variation nie.
Quand on int`egre contre un processus ` a variation nie, on denit une integrale trajecto-
rielle : lintegrale se denit par (ie. trajectoire par trajectoire).
Demonstration : Dapr`es les observations de la section precedente, les trajectoires de
H A sont `a variation nie. Il ne reste donc qu` a justier que H A est adapte. Pour cela, il
sut de voir que, si h : [0, t] R est mesurable pour la tribu produit B([0, t])T
t
et si
_
t
0
[h(s, )[[dA
s
()[ est ni pour tout , alors la variable
_
t
0
h(s, )dA
s
() est T
t
-mesurable.
Dabord, pour h(s, ) = 1
]u,v]
(s)1

() avec ]u, v] [0, t] et T


t
, on a
_
t
0
h(s, )dA
s
() = (A
v
() A
u
())1

()
qui est clairement T
t
-mesurable puisque (A
t
)
t0
est adapte et T
t
.
Par un argument de classe monotone, comme ]u, v] , ]u, v] [0, t], T
t
engendre
B([0, t]) T
t
, on justie alors que pour h = 1
G
, G B([0, t]) T
t
,
_
t
0
h(s, )dA
s
() est
encore T
t
-mesurable.
Enn, on passe au cas general en ecrivant h fonction B([0, t]) T
t
-mesurable, dA
s
()-
integrable, comme limite simple dune suite de fonctions etagees h
n
telles que pour tout
n on ait [h
n
[ [h[. Par convergence dominee, on a
_
t
0
h
n
(s, )dA
s
()
_
t
0
h(s, )dA
s
().
Comme
_
t
0
h
n
(s, )dA
s
() est T
t
-mesurable et que la T
t
-mesurabilite se conserve en passant
` a la limite, on obtient le resultat.
4.2. Martingales locales 81
Remarque 4.2 Souvent, on sera dans la situation o` u lhypoth`ese plus faible est
satisfaite
ps t 0,
_
t
0
[H
s
[[dA
s
[ < +.
Dans ce cas, on peut encore denir H A en convenant que, sur lensemble de pro-
babilite nulle o` u
_
t
0
[H
s
[[dA
s
[ devient inni, on prend (H A)
t
() = 0 pour tout t. Le
processus (H A) ainsi deni reste adapte lorsque la ltration est supposee compl`ete.
Sous des hypoth`eses convenables dintegrabilite de H et de K, on a la propriete
dassociativite :
K (H A) = (KH) A.
Un cas particulier important est celui o` u A
t
= t : si H = (H
t
)
t0
est un processus progressif
tel que
ps t 0
_
t
0
[H
s
[ ds < +,
le processus
_
t
0
H
s
ds est un processus `a variation nie.
4.2 Martingales locales
Si T est un temps darret et X = (X
t
)
t0
un processus on rappelle que X
T
designe le
processus arrete : pour tout t 0, X
T
t
= X
tT
. On a vu que si X est une martingale alors
X
T
lest aussi (il sagit de la martingale arretee), cf. Remarque 3.6.
Denition 4.5 (Martingale locale) Un processus M = (M
t
)
t0
est appele une mar-
tingale locale (continue) sil secrit M
t
= M
0
+ N
t
o` u M
0
est une variable aleatoire T
0
-
mesurable et o` u (N
t
)
t0
est un processus adapte `a trajectoires continues tel quil existe une
suite croissante (T
n
)
n0
de temps darret avec T
n
+ et pour tout n le processus arrete
N
Tn
est une martingale uniformement integrable.
On dit que la suite de temps darret T
n
+ reduit M si pour tout n le processus arrete
N
Tn
est une martingale uniformement integrable.
Lorsque M
0
= 0, on parle de martingale locale issue de 0.
Remarque 4.3 On nimpose pas dans la denition dune martingale locale que les va-
riables M
t
soient dans L
1
(cest une dierence essentielle avec les martingales). En par-
ticulier, dapr`es la denition precedente, M
0
peut etre nimporte quelle variable aleatoire
T
0
-mesurable.
Dans les proprietes qui suivent, la plupart des justications viennent des proprietes des
martingales arretees enoncees dans le corollaire 3.2.
Exemple : Une martingale ` a trajectoires continues est une martingale locale (et la suite
T
n
= n reduit M).
82 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
En eet, cela suit par exemple du corollaire 3.2 et de ses consequences avec les temps
darret T
n
= n +, plus simplement, il est immediat que pour s < t :
M
sn
= E[M
tn
[T
s
]
et (M
tn
)
t0
est fermee par M
n
donc uniformement integrable.
Proposition 4.6 Dans la denition dune martingale locale (issue de 0) on peut remplacer
martingale uniformement integrable par martingale (en eet, on peut ensuite remplacer
T
n
par T
n
n pour recuperer luniforme integrabilite).
Demonstration : Si M
Tn
est une martingale alors (M
Tn
)
n
= M
Tnn
lest aussi et elle est
fermee par M
n
donc uniformement integrable. De plus, il est evident que (T
n
n) +
si T
n
+.
Proposition 4.7 Si M est une martingale locale, pour tout temps darret T, M
T
est une
martingale locale.
Demonstration : Si T
n
reduit M alors M
Tn
est une martingale et (M
T
)
Tn
= M
TTn
=
(M
Tn
)
T
lest aussi dapr`es le corollaire 3.2.
Proposition 4.8 Si (T
n
)
n0
reduit M et si (S
n
)
n0
est une suite de temps darret telle
que S
n
+, alors la suite (T
n
S
n
)
n0
reduit aussi M.
Demonstration : On a (T
n
S
n
) +et M
TnSn
= (M
Tn
)
Sn
est une martingale unifor-
mement integrable en tant que martingale uniformement integrable M
Tn
arretee (corollaire
3.2).
Proposition 4.9 Lespace des martingales locales est un espace vectoriel.
Demonstration : Si M, N sont des martingales locales reduites respectivement par (T
n
)
n0
et (S
n
)
n0
alors dapr`es la Prop. 4.8, elles le sont encore toutes les deux par (T
n
S
n
)
n0
.
Mais alors N
TnSn
+ N
TnSn
= (M + N)
TnSn
est une martingale.
Proposition 4.10 Une martingale locale positive M telle que M
0
L
1
est une surmar-
tingale.
Dapr`es le Theor`eme 3.3 (convergence ps des surmartingales) et la remarque qui le suit,
une martingale locale positive converge ps.
Demonstration :

Ecrivons M
t
= M
0
+ N
t
et soit (T
n
)
n0
une suite de temps darret qui
reduit N. Alors, si s t, on a pour tout n,
N
sTn
= E[N
tTn
[T
s
].
4.2. Martingales locales 83
En ajoutant des deux c otes la variable M
0
(qui est T
0
-mesurable et dans L
1
), on trouve
M
sTn
= E[M
tTn
[T
s
]. (4.1)
Puisque M est positive, on peut appliquer le lemme de Fatou pour les esperances condi-
tionnelles en faisant n +. Comme T
n
+, on a alors
M
s
= lim
n+
M
sTn
= liminf
n+
M
sTn
= liminf
n+
E[M
tTn
[T
s
]
E[liminf
n+
M
tTn
[T
s
] = E[M
t
[T
s
].
En particulier, en prenant s = 0 et lesperance, on a E[M
t
] E[M
0
] < +, donc M
t
L
1
pour tout t 0. Linegalite precedente assure alors que M est bien une surmartingale.
Proposition 4.11 Soit M une martingale locale. Sil existe une variable Z L
1
telle que,
pour tout t 0, [M
t
[ Z, alors M est une martingale. En particulier, une martingale
locale bornee est une martingale.
Demonstration : Si M est dominee par une variable aleatoire Z integrable, on obtient
comme au 1) pour s t :
M
sTn
= E[M
tTn
[T
s
].
Puis, par convergence dominee la suite M
tTn
converge dans L
1
vers M
t
. On peut donc
passer ` a la limite n + pour trouver
M
s
= lim
n+
M
sTn
= lim
n+
E[M
tTn
[T
s
] = E[ lim
n+
M
tTn
[T
s
] = E[M
t
[T
s
].

Remarque 4.4 Attention, il nest donc pas facile daaiblir les conditions de le Prop.
4.11 : si M est une martingale locale uniformement integrable, en general M nest pas
une martingale (cf. le contre-exemple 2.13 p. 182 [RY], cf. aussi le contre-exemple page ??
pour le processul de Bessel R
t
en dimension 3 : la martingale locale 1/R
t
est uniformement
integrable car bornee dans L
2
mais nest pas une martingale). Par contre si on a une
condition duniforme integrabilite pour tous les temps darret, on a un resultat positif :
Proposition 4.12 Si M est une martingale locale avec M
0
= 0, alors M est reduite par
la suite de temps darret
T
n
= inf
_
t 0 : [M
t
[ = n
_
.
Demonstration : Comme M
Tn
est une martingale locale bornee, cest aussi une martin-
gale par la Prop. 4.11. De plus M est ` a trajectoires continues, on a bien T
n
+. En
eet, soit A > 0, comme M est ` a trajectoires continues, M
t
: t [0, A] est compact donc
84 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
borne par R(A) < +. On a alors pour tout n R(A), T
n
A, ie. T
n
+.
Le resultat suivant montre quune martingale locale continue qui nest pas triviale est `a
variations non bornees. Lensemble des martingales locales est donc un ensemble vraiment
dierent de celui des processus ` a variation nie.
Theor`eme 4.1 Soit M une martingale locale (continue) issue de 0. Alors si M est un
processus `a variation nie, M est indistinguable de 0.
Demonstration : Supposons que M est un processus `a variation nie et posons pour tout
n N :

n
= inf
_
t 0 :
_
t
0
[dM
s
[ n
_
.
Les temps
n
sont des temps darret dapr`es lexemple 2.6.1 (pour cela, il faut remarquer
que le processus
_
t
0
[dM
s
[ est continu et adapte, ce qui se voit par lapproximation donnee
par la Prop. 4.4). Fixons n 1 et posons N = M
n
. Alors N est une martingale locale
telle que
_
+
0
[dN
s
[ n, en particulier [N
t
[ = [
_
tn
0
dM
s
[
_
tn
0
[dM
s
[ n. Dapr`es la
Proposition 4.11, N est alors une vraie martingale bornee.
Ensuite, soit t > 0 et soit 0 = t
0
< t
1
< < t
p
= t une subdivision de [0, t]. Alors,
E[N
2
t
] =
p

i=1
E[N
2
t
i
N
2
t
i1
] =
p

i=1
E[N
2
t
i
] +E[N
2
t
i1
] 2E[N
2
t
i1
]
=
p

i=1
E[N
2
t
i
] +E[N
2
t
i1
] 2E[N
t
i1
E[N
t
i
[T
t
i1
]] (propriete de martingale)
=
p

i=1
E[N
2
t
i
] +E[N
2
t
i1
] 2E[N
t
i1
N
t
i
] =
p

i=1
E[(N
t
i
N
t
i1
)
2
]
E
_
_
sup
1ip
[N
t
i
N
t
i1
[
_
p

i=1
[N
t
i
N
t
i1
[
_
nE
__
sup
1ip
[N
t
i
N
t
i1
[
__
en utilisant la Proposition 4.3. On applique linegalite precedente ` a une suite 0 = t
k
0
< t
k
1
<
< t
k
p
k
= t de subdivisions de [0, t] de pas tendant vers 0. En utilisant la continuite des
trajectoires, et le fait que N est bornee par n (xe dans cette partie de largument), on a
par convergence dominee :
lim
k+
E
_
sup
1ip
k
[N
t
k
i
N
t
k
i1
[
_
= 0.
On conclut alors que E[N
2
t
] = 0 cest ` a dire E[M
2
tn
] = 0. En faisant ensuite tendre
n +, comme
n
+, on obtient par le lemme de Fatou :
E[M
2
t
] = E
_
lim
n+
M
2
tn
_
= E
_
liminf
n+
M
2
tn
_
liminf
n+
E[M
2
tn
] = 0.
4.3. Variation quadratique dune martingale locale 85
Finalement pour tout t 0, M
t
= 0 ps. La martingale locale M admet 0 comme version.
Pour conclure, comme 0 et M sont `a trajectoires continues, le processus M est en fait
indistinguable de 0.
4.3 Variation quadratique dune martingale locale
Le theor`eme ci-dessous denit le crochet (ou variation quadratique) dune martingale locale.
Cette notion est clef dans le calcul stochastique qui va etre developpe dans la suite.
Theor`eme 4.2 (Crochet dune martingale locale) Soit M = (M
t
)
t0
une martingale
locale (continue). Il existe un processus croissant, note (M, M
t
)
t0
unique `a indistingua-
bilite pr`es, tel que
M
2
t
M, M
t
(4.2)
est une martingale locale continue. De plus, pour tout t > 0, si 0 = t
n
0
< t
n
1
< < t
n
pn
= t
est une suite de subdivisions emboitees de [0, t] de pas tendant vers 0, on a, au sens de la
convergence en probabilite,
M, M
t
= P- lim
n+
pn

i=1
(M
t
n
i
M
t
n
i1
)
2
. (4.3)
Le processus M, M est appele la variation quadratique ou crochet de M.
Remarque 4.5
Pour les martingales, on a mieux : si M est une martingale de carre integrable alors
M
2
t
M, M
t
est une martingale aussi, cf. plus bas Theor`eme 4.3.
Si M = B est un mouvement brownien, on a vu que B, B
t
= t, cf. Prop. 2.7.
Pour la derni`ere assertion, il nest pas necessaire de supposer que les subdivisions
sont emboitees.
Demonstration : Lunicite decoule du Theor`eme 4.1. En eet, si A et A
t
sont deux
processus croissants satisfaisant la condition (4.2), le processus A
t
A
t
t
= (M
2
t
A
t
t
)
(M
2
t
A
t
) doit etre ` a la fois une martingale locale (car dierence de martingales locales)
et un processus ` a variation nie (car dierence de tels processus), ce qui exige sa nullite
(cf. Th. 4.1).
Pour lexistence, on consid`ere dabord le cas o` u M
0
= 0 et M est bornee. Dapr`es la Prop.
4.11, M est alors une vraie martingale. On se xe t > 0 et 0 = t
n
0
< t
n
1
< < t
n
pn
= t une
suite de subdivisions emboitees de [0, t] de pas tendant vers 0. Pour chaque n, on consid`ere
le processus X
n
deni par
X
n
s
=
pn

i=1
M
t
n
i1
(M
t
n
i
s
M
t
n
i1
s
).
86 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Lemme 4.1 Le processus X
n
est une martingale continue.
Demonstration : La continuite est claire car M lest. Puis si s r, on a
E[X
n
r
[T
s
]
=
pn

i=1
E[M
t
n
i1
(M
t
n
i
r
M
t
n
i1
r
)[T
s
]
=

i:t
n
i1
r
E[M
t
n
i1
(M
t
n
i
r
M
t
n
i1
r
)[T
s
]
=

i:st
n
i1
r
E[M
t
n
i1
(M
t
n
i
r
M
t
n
i1
r
)[T
s
] +

i:t
n
i1
sr
E[M
t
n
i1
(M
t
n
i
r
M
t
n
i1
r
)[T
s
]
=

i:st
n
i1
r
E[M
t
n
i1
E[(M
t
n
i
r
M
t
n
i1
r
)[T
t
i1
][T
s
] +

i:t
n
i1
sr
M
t
n
i1
E[(M
t
n
i
r
M
t
n
i1
r
)[T
s
]
=

i:st
n
i1
r
E[M
t
n
i1
(M
t
i1
M
t
i1
)
. .
=0
[T
s
] +

i:t
n
i1
sr
M
t
n
i1
(M
t
n
i
s
M
t
n
i1
s
)
=

i:t
n
i1
s
M
t
n
i1
(M
t
n
i
s
M
t
n
i1
s
) = X
n
s
.

On a ensuite
Lemme 4.2 Le processus X
n
verie une propriete de Cauchy dans L
2
:
lim
n,m+
E[(X
n
t
X
m
t
)
2
] = 0.
Demonstration : Avec des calculs (fastidieux. . . ) qui utilisent la propriete de martingales
pour n m :
E[(X
n
t
X
m
t
)
2
]
= E
_
_
_
pn

i=1
M
t
n
i1
(M
t
n
i
M
t
n
i1
)
pm

j=1
M
t
m
j1
(M
t
m
j
M
t
m
j1
)
_
2
_
_
= E
_
_
_
_
pn

i=1

t
m
j
]t
n
i1
,t
n
i
]
(M
t
n
i1
M
t
m
j1
)(M
t
m
j
M
t
m
j1
)
_
_
2
_
_
(les partitions sont emboitees)
=
pn

i=1
E
_
_
_
_

t
m
j
]t
n
i1
,t
n
i
]
(M
t
n
i1
M
t
m
j1
)(M
t
m
j
M
t
m
j1
)
_
_
2
_
_
(prop. de martingale)
(la propriete de martingale annule les termes croises du carre de la somme)
4.3. Variation quadratique dune martingale locale 87
=
pn

i=1

t
m
j
]t
n
i1
,t
n
i
]
E
_
(M
t
n
i1
M
t
m
j1
)
2
(M
t
m
j
M
t
m
j1
)
2
_
(prop. de martingale)
(`a nouveau, la propriete de martingale annule les termes croises du carre de la somme)
=
pn

i=1

t
m
j
]t
n
i1
,t
n
i
]
E
_
(M
t
n
i1
M
t
m
j1
)
2
E[(M
t
m
j
M
t
m
j1
)
2
[T
t
m
j1
]
_
(car M
t
n
i1
, M
t
m
j1
sont T
t
m
j1
-mesurables)
=
pn

i=1

t
m
j
]t
n
i1
,t
n
i
]
E
_
(M
t
n
i1
M
t
m
j1
)
2
(M
2
t
m
j
M
2
t
m
j1
)
_
(prop. de martingale)

pn

i=1

t
m
j
]t
n
i1
,t
n
i
]
E
_
sup
i,j
(M
t
n
i1
M
t
m
j1
)
2
(M
2
t
m
j
M
2
t
m
j1
)
_
= E
_
sup
i,j
(M
t
n
i1
M
t
m
j1
)
2

pm

j=1
(M
2
t
m
j
M
2
t
m
j1
)
_
= E
_
sup
i,j
(M
t
n
i1
M
t
m
j1
)
2
M
2
t
_

n,m+
0
o` u la derni`ere convergence vient par convergence dominee en utilisant que M est bornee (par
hypoth`ese) et lim
n,m+
sup
1ip,1jpm
(M
t
n
i1
M
t
m
j1
) = 0 par continuite des trajectoires
de M. On a donc etabli
lim
n,m+
E[(X
n
t
X
m
t
)
2
] = 0.

Linegalite de Doob (Proposition 3.8) donne alors


lim
n,m+
E
_
sup
st
(X
n
s
X
m
s
)
2
_
= 0. (4.4)
On peut alors extraire une sous-suite (n
k
)
k0
telle que
E
_
sup
st
(X
n
k
s
X
n
k+1
s
)
2
_
1/2

1
2
k
.
Avec linegalite de Cauchy-Schwarz, on a alors
E
_
+

k=1
sup
st
[X
n
k
s
X
n
k+1
s
[
_

+

k=1
E
_
sup
st
(X
n
k
s
X
n
k+1
s
)
2
_
1/2

k=0
1
2
k
< +.
On en deduit que ps
+

k=1
sup
st
[X
n
k
s
X
n
k+1
s
[ < +.
88 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Presque s urement, la suite (X
n
k
s
)
s[0,t]
converge donc uniformement sur [0, t] vers une limite
quon note (Y
s
)
s[0,t]
. Sur lensemble negligeable o` u il ny a pas convergence, on impose
Y
s
0. Le processus limite (Y
s
)
s[0,t]
a alors des trajectoires continues.
Comme dapr`es (4.4) (X
n
s
)
s[0,t]
est une suite de Cauchy dans L
2
, on a aussi la convergence
X
n
s
Y
s
dans L
2
quand n +. En passant `a la limite L
2
dans legalite de martingale
pour X
n
aux dates s et r,
X
n
s
= E[X
n
r
[T
s
], s r
on voit alors que Y est une martingale sur [0, t] :
Y
s
= E[Y
r
[T
s
], s r.
Finalement, X
n
k
converge ps uniformement sur [0, t] vers un Y = (Y
s
)
0st
qui est ` a
trajectoires continues. Le processus Y est donc une martingale continue.
Puis par un calcul simple, pour tout n 1 et j 1, . . . , p
n
,
M
2
t
n
j
2X
n
t
n
j
=
j

i=1
(M
t
n
i
M
t
n
i1
)
2
. (4.5)
En eet X
n
t
n
j
=

j
i=1
M
t
n
i1
(M
t
n
i
M
t
n
i1
) =

j
i=1
M
t
n
i1
M
t
n
i
M
2
t
n
i1
et donc
M
2
t
n
j
2X
n
t
n
j
= M
2
t
n
j
+ 2
j

i=1
M
2
t
n
i1
2
j

i=1
M
t
n
i1
M
t
n
i
=
j

i=1
M
2
t
n
i
+
j

i=1
M
2
t
n
i1
2
j

i=1
M
t
n
i1
M
t
n
i
=
j

i=1
_
M
2
t
n
i
+ M
2
t
n
i1
2M
t
n
i1
M
t
n
i
_
=
j

i=1
_
M
t
n
i
M
t
n
i1
_
2
.
Donc le processus M
2
2X
n
est croissant le long de la subdivision t
n
i
: 0 i p
n
. En
passant ` a la limite avec la sous-suite n
k
+ trouvee precedemment, par continuite, la
fonction s [0, t] M
2
s
2Y
s
est ps croissante sur [0, t].
On pose alors, pour s [0, t], M, M
s
= M
2
s
2Y
s
(avec, par convention, M, M
s
0
sur lensemble de probabilite nulle o` u la fonction t M
2
t
2Y
t
nest pas croissante).
Ainsi, M, M est un processus croissant et M
2
s
M, M
s
= 2Y
s
est une martingale, sur
lintervalle de temps [0, t].
Rappelons que t est xe depuis le debut de largument. Pour etendre la denition de
M, M
s
` a tout s R
+
, on applique ce qui prec`ede avec t = k pour tout entier k 1, en
4.3. Variation quadratique dune martingale locale 89
remarquant que, par unicite, le processus obtenu avec t = k doit etre la restriction `a [0, k]
de celui obtenu avec t = k +1. On a ainsi construit un processus M, M
t
, t 0, croissant
veriant (4.2) (cest meme une martingale L
2
sur R
+
).
La partie unicite montre aussi que le processus M, M
t
ne depend pas de la suite de
subdivisions choisies pour le construire. On deduit alors de (4.5) (avec j = p
n
) que pour
tout t > 0, pour nimporte quelle suite de subdivisions emboitees de [0, t] de pas tendant
vers 0, on a
L
2
- lim
n+
pn

j=1
(M
t
n
j
M
t
n
j1
)
2
= M, M
t
dans L
2
. Cela ach`eve la preuve du theor`eme dans le cas borne.
Considerons maintenant une martingale locale generale quon ecrit sous la forme M
t
=
M
0
+ N
t
. On a donc M
2
t
= M
2
0
+ 2M
0
N
t
+ N
2
t
et en remarquant que M
0
N
t
est une
martingale locale (car N en est une et M
0
est T
0
-mesurable), on ne perd pas en generalite
en supposant (ce quon fait) M
0
= 0. On pose alors
T
n
= inf(t 0 : [M
t
[ n).
et on applique le resultat vu dans le cas borne aux martingales bornees M
Tn
. Notons
A
n
= M
Tn
, M
Tn
le processus associe `a M
Tn
. Dapr`es lunicite, les processus A
n+1
tTn
et
A
n
t
sont indistinguables. On en deduit quil existe un processus croissant A tel que, pour
tout n, A
tTn
et A
n
t
sont indistinguables. Par construction du cas borne, M
2
tTn
A
tTn
=
(M
2
t
A
t
)
Tn
est une martingale, cest ` a dire M
2
t
A
t
est une martingale locale.
On prend alors M, M
t
= A
t
et cela termine la preuve de la partie existence.
Enn, la deuxi`eme partie du theor`eme reste vraie dans le cas dune martingale locale : en
eet, si on remplace M et M, M
t
par M
Tn
et M
Tn
, M
Tn

t
= M, M
Tn
t
(en anticipant la
proposition suivante), alors le cas borne assure :
M, M
tTn
= P- lim
n+
pn

i=1
(M
Tn
t
n
i
M
Tn
t
n
i1
)
2
(meme avec convergence dans L
2
). On conclut en observant que, pour tout t > 0, on a
P(t T
n
) 1, quand n +, ce qui aaiblit la convergence L
2
en une convergence en
probabilite : soit > 0, posons
A
n
() =
_

M, M
t

pn

i=1
(M
t
n
i
M
t
n
i1
)
2


_
alors P(A
n
()) = P(A
n
(), t T
n
) +P(A
n
(), T
n
< t) avec P(A
n
(), T
n
< t) P(T
n
< t)
0 et
A
n
() t T
n
=
_

M, M
tTn

pn

i=1
(M
Tn
t
n
i
M
Tn
t
n
i1
)
2


_
t T
n
.
90 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Il vient
lim
n+
P(A
n
()) lim
n+
P(T
n
< t)+ lim
n+
P
_

M, M
tTn

pn

i=1
(M
Tn
t
n
i
M
Tn
t
n
i1
)
2


_
= 0
ie. P- lim
n+

pn
i=1
(M
t
n
i
M
t
n
i1
)
2
= M, M
t
.
Proposition 4.13 (Crochet et arret) Si T est un temps darret, alors on a
M
T
, M
T

t
= M, M
T
t
.
Demonstration : Cela vient de ce que
(M
T
t
)
2
M, M
T
t
= M
2
tT
M, M
tT
= (M
2
M, M)
T
t
est une martingale locale comme martingale locale arretee. Par consequent le crochet arrete
M, M
T
verie la propriete/denition de M
T
, M
T
. Par unicite du crochet, on doit avoir
M
T
, M
T
= M, M
T
.
Le theor`eme suivant montre comment les proprietes dune martingale locale M sont liees `a
celles de sa variation quadratique M, M. Ainsi, les intervalles sur lesquels M est constante
sont exactement ceux sur lesquels M, M est constant. Si A est un processus croissant, on
note A

la limite croissante de A
t
quand t +.
Theor`eme 4.3 Soit M une martingale locale avec M
0
= 0.
1. Si M est une (vraie) martingale bornee dans L
2
, alors E[M, M

] < +, et M
2
t

M, M
t
est une martingale uniformement integrable.
2. Reciproquement, si E[M, M

] < +, alors M est une (vraie) martingale bornee


dans L
2
(donc uniformement integrable).
3. Il y a equivalence entre :
(a) M est une (vraie) martingale de carre integrable (ie. E[M
2
t
] < +).
(b) E[M, M
t
] < + pour tout t 0.
De plus si ces conditions sont satisfaites, M
2
t
M, M
t
est une martingale.
Remarque 4.6 Dans la partie 1) de lenonce, il est essentiel de supposer que M est une
martingale, et pas seulement une martingale locale car on utilise linegalite de Doob et elle
nest pas valable pour une martingale locale.
Demonstration : 1) Si M est une martingale (continue) bornee dans L
2
, linegalite de
Doob avec p = q = 2 donne
E
_
sup
t0
M
2
t
_
4 sup
t0
E[M
2
t
] < +.
4.3. Variation quadratique dune martingale locale 91
En particulier, M est une martingale uniformement integrable dans L
2
qui converge (ps et
L
2
) vers une limite M

L
2
quand t +. Pour tout entier n 1, on pose
S
n
= inf(t 0 : M, M
t
n).
Alors S
n
est un temps darret et M, M
tSn
n. On en deduit que la martingale locale
M
2
tSn
M, M
tSn
est dominee par la variable integrable n +sup
t0
M
2
t
. Dapr`es la Pro-
position 4.11, cette martingale locale est donc une vraie martingale. Par la propriete de
martingale, comme elle est nulle en 0, on a
E[M
2
tSn
M, M
tSn
] = E[M
2
0Sn
M, M
0Sn
] = 0,
soit
E[M, M
tSn
] = E[M
2
tSn
].
En faisant tendre t + (avec le theor`eme de convergence monotone pour le terme de
gauche, le theor`eme de convergence dominee pour celui de droite), on trouve
E[M, M
Sn
] = E[M
2
Sn
].
Puis comme S
n
+, en faisant tendre n +, on trouve de la meme fa con (conver-
gences monotone et dominee)
E[M, M

] = E[M
2

] < +.
De plus comme la martingale locale M
2
t
M, M
t
est dominee par la variable integrable
sup
t0
M
2
t
+M, M

, cest donc une (vraie) martingale uniformement integrable (toujours


par Prop. 4.11)).
2) On suppose maintenant E[M, M

] < +. Avec T
n
= inf(t 0 : [M
t
[ n), M
Tn
est bornee donc cest une vraie martingale bornee. De plus, la martingale locale M
2
tTn

M, M
Tn
t
est aussi une vraie martingale uniformement integrable, car elle est dominee par
la variable aleatoire integrable n
2
+M, M

(cf. encore Prop. 4.11)).


Soit S un temps darret ni ps. Dapr`es le Theor`eme 3.4 (theor`eme darret), applique `a la
martingale uniformement integrable M
2
tTn
M, M
Tn
t
avec S 0, on a
E[M
2
STn
] = E[M, M
STn
].
Par le lemme de Fatou, on a alors (en utilisant S ni ps) :
E[M
2
S
] = E[liminf
n
M
2
STn
] liminf
n
E[M
2
STn
] = liminf
n
E[M, M
STn
] E[M, M

].
La famille M
S
: S temps darret ni est donc bornee dans L
2
et par consequent unifor-
mement integrable. En particulier avec la suite des temps darret bornes T
n
, en passant ` a
la limite L
1
quand n + dans legalite E[M
tTn
[T
s
] = M
Tn
s
(pour s t) on en deduit
que M est une vraie martingale. De plus, M est bornee dans L
2
car M
s
, s 0 est une
sous-famille de M
S
: S temps darret ni est donc bornee dans L
2
.
92 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
3) Soit a > 0. Dapr`es 1) et 2), on a E[M, M
a
] < + si et seulement si M
a
t
est une vraie
martingale de carre integrable. Lequivalence de (a) et (b) suit alors facilement. Enn, si
ces conditions sont remplies, 1) montre que M
2
ta
M, M
ta
est une vraie martingale, ce
qui prouve le 3) car a est quelconque et peut etre choisi arbitrairement grand.
Corollaire 4.1 Soit M une martingale locale continue telle que M
0
= 0. Alors on a
M, M
t
= 0 ps pour tout t 0 si et seulement si M est indistinguable de 0.
Demonstration : Supposons M, M
t
= 0 ps pour tout t 0. Dapr`es les parties
1) et 2) du theor`eme ci-dessus, M
2
t
est une martingale uniformement integrable, do` u
E[M
2
t
] = E[M
2
0
] = 0. Le processus nul est une modication de M. Commes les deux
sont `a trajectoires continues, ils sont indistingables.
Crochet de deux martingales locales
Si M et N sont deux martingales locales, on denit leur crochet par polarisation en posant :
M, N
t
=
1
2
_
M + N, M + N
t
M, M
t
N, N
t
_
.
Proposition 4.14
1. M, N est lunique (`a indistinguabilite pr`es) processus `a variation nie tel que M
t
N
t

M, N
t
soit une martingale locale.
2. Si 0 = t
n
0
< t
n
1
< < t
n
pn
= t est une suite de subdivisions emboitees de [0, t] de pas
tendant vers 0, on a, au sens de la convergence en probabilite,
P- lim
n+
pn

i=1
(M
t
n
i
M
t
n
i1
)(N
t
n
i
N
t
n
i1
) = M, N
t
.
3. Lapplication (M, N) M, N est bilineaire symetrique.
4. (Arret) Pour tout temps darret T,
M
T
, N
T

t
= M
T
, N
t
= M, N
tT
.
Demonstration : 1) decoule de la caracterisation analogue dans le Theor`eme 4.2 avec la
polarisation du produit reel (et lunicite decoule du Theor`eme 4.1).
2) est de meme une consequence de larmation analogue dans le Theor`eme 4.2 par pola-
risation.
3) decoule, par exemple, de lexpression 2).
Enn, on peut voir 4) comme une consequence de la propriete 2), en observant que cette
propriete entrane ps
M
T
, N
T

t
= M
T
, N
t
= M, N
t
sur T t,
4.3. Variation quadratique dune martingale locale 93
M
T
, N
T

t
M
T
, N
T

s
= M
T
, N
t
M
T
, N
s
= 0 sur T s < t.

Proposition 4.15 Soient M


1
, M
2
deux martingales locales issues de 0. On a M
1
= M
2
ssi pour toute martingale locale N, on a M
1
, N = M
2
, N.
Demonstration : Il sut de choisir N = M
1
M
2
pour avoir M
1
M
2
, M
1
M
2
= 0,
cest ` a dire M
1
M
2
est constante donc nulle.
Le resultat suivant est une sorte de generalisation de linegalite de Cauchy-Schwarz aux
integrales par rapport ` a un crochet de martingales locales.
Proposition 4.16 (Inegalite de Kunita-Watanabe) Soient M et N deux martingales
locales et H et K deux processus progressivement mesurables. Alors pour tout t 0 :
_
t
0
[H
s
[ [K
s
[ [dM, N
s
[
__
t
0
H
2
s
dM, M
s
_
1/2
__
t
0
K
2
s
dN, N
s
_
1/2
. (4.6)
Consequence : Avec H = K = 1, on a [M, N[
2
M, MN, N.
Demonstration : Par le theor`eme de convergence monotone, il sut de voir le resultat
pour H, K mesurables bornes. Quitte ` a remplacer K par gKsgn(HK), o` u g = d(M, N)/d[M, N[
est la densite de Radon-Nikodym `a valeurs dans 1, +1, on peut remplacer
_
+
0
[H
s
[ [K
s
[ [dM, N
s
[
` a gauche dans (4.6) par

_
+
0
H
s
K
s
dM, N
s

.
Notons M, N
s,t
= M, N
t
M, N
s
. On commence par remarquer que ps pour tous
s < t rationnels (donc aussi par continuite pour tous s < t) on a
[M, N
s,t
[
_
M, M
s,t
_
N, N
s,t
. (4.7)
En eet, cela decoule des approximations en probabilite de M, M et M, N donnees
respectivement dans le Theor`eme 4.2 et la Proposition 4.14, ainsi que de linegalite de
Cauchy-Schwarz (classique pour les sommes) :
_
pn

i=1
(M
t
n
i
M
t
n
i1
)(N
t
n
i
N
t
n
i1
)
_
2

pn

i=1
(M
t
n
i
M
t
n
i1
)
2
pn

i=1
(N
t
n
i
N
t
n
i1
)
2
o` u (t
n
i
)
i=1,...,n
est une partition de [t, s].
`
A la limite, n +, on obtient bien (4.7).
Dans la suite, on xe un pour lequel (4.7) est vraie pour tout s < t et on raisonne
pour ce presque s ur. Linterpretation de
_
t
s
[dM, N
u
[ comme variation nie par la
Proposition 4.3 donne aussi
_
t
s
[dM, N
u
[
_
M, M
s,t
_
N, N
s,t
. (4.8)
94 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
En eet, pour une subdivision s = t
0
< t
1
< < t
p
= t, on a
p

i=1
[M, N
t
i1
,t
i
[
p

i=1
_
M, M
t
i1
,t
i
_
N, N
t
i1
,t
i

_
p

i=1
M, M
t
i1
,t
i
_
1/2
_
p

i=1
N, N
t
i1
,t
i
_
1/2

_
M, M
s,t
_
N, N
s,t
.
Soient maintenant H, K des processus progressifs simples. Quitte ` a raner les partitions
denissant H et K, on peut trouver 0 = t
0
< t
1
< < t
n
< + et h
0
, . . . , h
n
, k
0
, . . . , k
n
telles que h
i
, k
i
L

(T
t
i
), et pour lesquels
H = h
0
1
0
+

i
h
i
1
]t
i
,t
i+1
]
, K = k
0
1
0
+

i
k
i
1
]t
i
,t
i+1
]
.
On a alors

_
t
0
H
s
K
s
dM, N
s

n1

i=0
h
i
k
i
_
t
i+1
t
i
dM, N
s


n1

i=0
[h
i
[ [k
i
[

_
t
i+1
t
i
dM, N
s

n1

i=0
[h
i
[ [k
i
[
__
t
i+1
t
i
dM, M
s
_
1/2
__
t
i+1
t
i
dN, N
s
_
1/2
=
n1

i=0
__
t
i+1
t
i
h
2
i
dM, M
s
_
1/2
__
t
i+1
t
i
k
2
i
dN, N
s
_
1/2

_
n1

i=0
_
t
i+1
t
i
h
2
i
dM, M
s
_
1/2
_
n1

i=0
_
t
i+1
t
i
k
2
i
dN, N
s
_
1/2
=
__
t
0
H
s
dM, M
s
_
1/2
__
t
0
K
s
dN, N
s
_
1/2
.
Quand H et K sont des processus progressifs bornes, on peut les approximer par deux
suites de processus simples (H
n
)
n0
et (K
n
)
n0
qui convergent vers H et K en restant
bornees. On conclut alors par le theor`eme de convergence dominee.
4.4 Semimartingales continues
Les semimartinagles sont la forme la plus generale de processus consideres pour contruire
une integrale stochastique.
4.4. Semimartingales continues 95
Denition 4.6 (Semimartingale) Un processus X = (X
t
)
t0
est une semimartingale
continue sil secrit sous la forme X
t
= X
0
+M
t
+A
t
o` u M est une martingale locale (issue
de 0) et A est un processus `a variation nie.
Toujours grace au Theor`eme 4.1, la decomposition ci-dessus est unique `a indistinguabilite
pr`es. Si Y
t
= Y
0
+ M
t
t
+ A
t
t
est une autre semimartingale continue, on pose par denition
X, Y
t
:= M, M
t

t
.
En particulier, X, X
t
= M, M
t
.
Proposition 4.17 Soient X, Y deux semimartingales et 0 = t
n
0
< t
n
1
< < t
n
pn
= t
une suite de subdivisions emboitees de [0, t] de pas tendant vers 0. Alors, au sens de la
convergence en probabilite :
P- lim
n+
pn

i=1
(X
t
n
i
X
t
n
i1
)(Y
t
n
i
Y
t
n
i1
) = X, Y
t
.
Remarque 4.7 En particulier, si X ou Y est ` a variation bornee, alors X, Y 0. En
eet, si par exemple X est ` a variation bornee, on a

pn

i=1
(X
t
n
i
X
t
n
i1
)(Y
t
n
i
Y
t
n
i1
)


pn

i=1
[X
t
n
i
X
t
n
i1
[ sup
i=1...,pn
[Y
t
n
i
Y
t
n
i1
[

_
sup
i=1...,pn
[Y
t
n
i
Y
t
n
i1
[
__
t
0
[dX
s
[ 0
car
_
t
0
[dX
s
[ est bornee (processus ` a variation bornee) et sup
i=1...,pn
[Y
t
n
i
Y
t
n
i1
[ 0 par
continuite des trajectoires de Y .
Demonstration : Pour simplier, on suppose X = Y . Le cas general sobtient ensuite
facilement par polarisation. Alors,
pn

i=1
(X
t
n
i
X
t
n
i1
)
2
=
pn

i=1
(M
t
n
i
M
t
n
i1
)
2
+
pn

i=1
(A
t
n
i
A
t
n
i1
)
2
+2
pn

i=1
(M
t
n
i
M
t
n
i1
)(A
t
n
i
A
t
n
i1
).
Le Theor`eme 4.2 donne dej` a pour la martingale locale M :
lim
n+
pn

i=1
(M
t
n
i
M
t
n
i1
)
2
= M, M
t
= X, X
t
.
96 Chapitre 4. c _JCB M2 Math. Universite de Rennes 1
Puis comme A est ` a variation nie :
pn

i=1
(A
t
n
i
A
t
n
i1
)
2

_
sup
1ipn
[A
t
n
i
A
t
n
i1
[
_
pn

i=1
[A
t
n
i
A
t
n
i1
[

__
t
0
[dA
s
[
_
sup
1ipn
[A
t
n
i
A
t
n
i1
[
qui tend vers 0 ps quand n + par continuite de la fonction s A
s
et parce que
_
t
0
[dA
s
[ < +. De la meme fa con, on a :
pn

i=1
(M
t
n
i
M
t
n
i1
)(A
t
n
i
A
t
n
i1
)
__
t
0
[dA
s
[
_
sup
1ipn
[M
t
n
i
M
t
n
i1
[ 0 ps
par continuite de M
t
et parce que A est ` a variation nie.
Les principaux resultats dintegration contre un crochet de martingales locales restent vrais
contre un crochet de semimartingales, en particulier :
Proposition 4.18 (Inegalite de Kunita-Watanabe) Soient X, Y deux semimartingales
et H, K deux processus localement bornes (pour tout t, sup
st
[H
s
[ < +, idem pour K).
Alors ps pour t 0 :
_
+
0
[H
s
[ [K
s
[ [dX, Y
s
[
__
+
0
H
2
s
dX, X
s
_
1/2
__
+
0
K
2
s
dY, Y
s
_
1/2
.
Chapitre 5
Integration stochastique
On consid`ere ` a nouveau dans ce chapitre un espace de probabilite ltre (, T, (T
t
)
t0
, P)
muni dune ltration (T
t
)
t0
satisfaisant les conditions habituelles. Le but est de construire
une theorie de lintegration contre les processus stochastiques. La bonne classe de processus
` a considerer est celle des semimartingales introduites dans le chapitre 4.
On commence par integrer par rapport ` a des martingales bornees dans L
2
en Section 5.1,
cette contruction est fondee sur une theorie L
2
. On sinteresse ensuite en Section 5.2 ` a
lintegration contre des martingales locales puis en Section 5.3 contre des semimartingales.
On conclut le chapitre par quelques commentaires sur le cas des semimartingales non
continues en Section 5.4.
5.1 Par rapport `a une martingale bornee dans L
2
Denition 5.1 (Espace H
2
c
) On note H
2
c
lespace des martingales M continues bornees
dans L
2
et telles que M
0
= 0.
Le Theor`eme 4.3 montre quon a E[M, M

] < +pour M H
2
c
. Dapr`es la Proposition
4.16 (inegalite de Kunita-Watanabe), on a aussi E[[M, N

[] < + si M, N H
2
c
. En
eet :
E[[M, N

[] E
__
+
0
[dM, N
s
[
_
E[M, M

]
1/2
E[N, N

]
1/2
< +.
On denit alors un produit scalaire sur H
2
c
par (M, N)
H
2
c
:= E[M, N

] et on note | |
H
2
c
la norme sur H
2
c
associee au produit scalaire :
|M|
H
2
c
= (M, M)
1/2
H
2
c
= E[M, M

]
1/2
.
Dapr`es le Corollaire 4.1, en identiant les processus indistinguables, on a bien une norme
car (M, M)
H
2
c
= 0 si et seulement si M = 0 (ie. le produit scalaire considere est bien deni
positif).
97
98 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
Proposition 5.1 Lespace H
2
c
muni du produit scalaire (M, N)
H
2
c
est un espace de Hilbert.
Demonstration : Il sagit de voir que H
2
c
est complet pour la norme | |
H
2
c
. Pour cela,
on consid`ere une suite de Cauchy (M
n
)
n0
pour cette norme : dapr`es le Theor`eme 4.3,
(M
n
M
m
)
2
M
n
M
m
, M
n
M
m
est une martingale uniformement integrable. Legalite
de martingale assure
E[(M
n
M
m
)
2
t
M
n
M
m
, M
n
M
m

t
] = E[(M
n
M
m
)
2
0
M
n
M
m
, M
n
M
m

0
] = 0
cest ` a dire
E[(M
n
M
m
)
2
t
] = E[M
n
M
m
, M
n
M
m

t
] E[M
n
M
m
, M
n
M
m

].
Par la propriete de Cauchy de la suite (M
n
)
n0
, on a donc
lim
m,n+
sup
t0
E[(M
n
t
M
m
t
)
2
] = lim
m,n+
E[M
n
M
m
, M
n
M
m

] = 0.
Linegalite de Doob donne alors
lim
m,n+
E
_
sup
t0
(M
n
t
M
m
t
)
2
_
lim
m,n+
sup
t0
E[(M
n
t
M
m
t
)
2
] = 0.
On peut alors extraire une sous-suite (n
k
)
k0
telle que pour tout k 0
E
_
sup
t0
(M
n
k
t
M
n
k+1
t
)
2
_
1/2

1
2
k
.
Avec linegalite de Cauchy-Schwarz, on a alors
E
_
+

k=0
sup
t0
[M
n
k
t
M
n
k+1
t
[
_

+

k=0
E
_
sup
t0
(M
n
k
t
M
n
k+1
t
)
2
_
1/2

k=0
1
2
k
< +.
On en deduit que ps
+

k=0
sup
t0
[M
n
k
t
M
n
k+1
t
[ < +.
Presque s urement, la suite (M
n
k
t
)
t0
est de Cauchy dans C
0
(R
+
, R) muni de | |

et donc
elle converge uniformement sur R
+
vers une limite quon note (M
t
)
t0
. Sur lensemble ne-
gligeable o` u il ny a pas convergence, on impose M
t
0. Le processus limite (M
t
)
t0
a alors
des trajectoires continues. Comme, pour chaque t 0, la suite (M
n
k
t
)
k0
est evidemment
de Cauchy dans L
2
, (M
n
k
t
)
k0
converge aussi dans L
2
vers M
t
pour tout t 0. On peut
donc passer `a la limite (dans L
1
) dans la propriete de martingale de (M
n
k
t
)
t0
et on obtient
celle de (M
t
)
t0
qui est donc aussi une martingale. La suite M
n
etant de Cauchy dans H
2
c
,
elle est bornee dans H
2
c
pour | |
H
2
c
, on a alors pour tout n 1, t 0
E[(M
n
t
)
2
] = E[M
n
, M
n

t
] E[M
n
, M
n

] = |M
n
|
H
2
c
sup
n0
|M
n
|
H
2
c
5.1. Par rapport ` a une martingale bornee dans L
2
99
soit sup
n
sup
t0
E[(M
n
t
)
2
] < +. Les variables M
n
t
, n 1, t 0, sont donc uniformement
bornees dans L
2
. Par consequent, la martingale M est aussi bornee dans L
2
, ce qui assure
M H
2
c
. Enn, comme (MM
n
k
)
2
MM
n
k
, MM
n
k
est une martingale convergente
(lorsque t +), on a
lim
k+
E[M
n
k
M, M
n
k
M

= lim
k+
E[(M
n
k

)
2
] = 0,
ce qui montre que la sous-suite (M
n
k
)
k0
converge vers M dans H
2
c
. Finalement, comme la
suite de Cauchy (M
n
)
n0
a une sous-suite convergeant vers M, elle converge enti`erement
vers M dans H
2
c
.
Rappelons que Prog designe la tribu progressive sur R
+
et que les processus, vu comme
fonctions sur (R
+
, Prog) sont appeles progressifs.
Denition 5.2 (Espace L
2
(M)) Pour M H
2
c
, on note
L
2
(M) = L
2
(R
+
, Prog, dP dM, M)
lespace des processus progressifs H = (H
s
)
s0
tels que
E
__
+
0
H
2
s
dM, M
s
_
< +.
Lespace L
2
(M) est un espace de Hilbert pour le produit scalaire
(H, K)
L
2
(M)
= E
__
+
0
H
s
K
s
dM, M
s
_
.
Denition 5.3 (Processus elementaire) Un processus H est dit elementaire sil secrit
sous la forme
H
s
() =
p1

i=0
H
(i)
()1
]t
i
,t
i+1
]
(s) (5.1)
o` u 0 < t
0
< t
1
< t
2
< < t
p
et pour chaque 0 i p, H
(i)
est une variable aleatoire
T
t
i
-mesurable et bornee.
On note c le sous-espace vectoriel de L
2
(M) forme de ces processus elementaires.
Proposition 5.2 Pour tout M H
2
c
, lespace c est dense dans L
2
(M).
Demonstration : Il sut de montrer que si K L
2
(M) est orthogonal `a c alors K = 0.
Supposons donc K orthogonal ` a c. Soient 0 s < t et soit F une variable aleatoire
T
s
-mesurable bornee. Avec H = F1
]s,t]
E, on a
E
_
F
_
t
s
K
u
dM, M
u
_
= (H, K)
L
2
(M)
= 0. (5.2)
100 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
En posant
X
t
=
_
t
0
K
u
dM, M
u
, t 0.
legalite (5.2) se reecrit E[F(X
t
X
s
)] = 0 pour tous s < t et toute variable aleatoire T
s
-
mesurable F bornee, ie. X = (X
t
)
t0
est en fait une martingale car en plus X
t
L
1
pour
tout t 0, lintegrale denissant X
t
etant ps absolument convergente lorsque M H
2
c
et
K L
2
(M) (appliquer par exemple linegalite de Cauchy-Schwarz).
Dautre part, par la Proposition 4.5, X etant une integrale contre un processus croissant
est aussi un processus ` a variation nie avec X
0
= 0. Le Theor`eme 4.1 exige alors davoir
X = 0, ie.
_
t
0
K
u
dM, M
u
= 0 t 0 ps.
Comme 0 =
_
t
0
K
u
dM, M
u
=
_
R
K
u
1
[0,t]
(u) dM, M
u
, K est ps orthogonal ` a vect (1
[0,t]
:
t R) dans L
2
(M, M), cest ` a dire K est ps orthogonal `a L
2
(M, M) ou encore K = 0
dans L
2
(M). Cela etablit la densite de c dans L
2
(M).
Denition 5.4 Soit M H
2
c
. Pour tout H c, de la forme (5.1), on denit H M par
(H M)
t
=
p1

i=0
H
(i)
(M
t
i+1
t
M
t
i
t
).
Proposition 5.3 Soient M H
2
c
et H c. On a H M H
2
c
et pour tout N H
2
c
:
H M, N
t
=
_
t
0
H
s
dM, N
s
= H M, N
t
. (5.3)
Remarque 5.1 En general, on utilise la notation integrale :
(H M)
t
=
_
t
0
H
s
dM
s
.
Lintegrale H M, N qui gure dans le terme de droite de (5.3) est une integrale de
Stieltjes par rapport `a un processus `a variation nie (M, N), comme deni dans la
Section 4.1.4.
Demonstration : On ecrit HM =

p
i=0
M
i
t
o` u M
i
t
:= H
(i)
(M
t
i+1
t
M
t
i
t
). On commence
par observer que, pour chaque 1 i p (M
i
t
)
t0
est martingale, en eet :
si s t
i
E[H
(i)
(M
t
i+1
t
M
t
i
t
)[T
s
] = H
(i)
E[(M
t
i+1
t
M
t
i
t
)[T
s
]
= H
(i)
(M
t
i+1
s
M
t
i
s
) = M
i
s
;
5.1. Par rapport ` a une martingale bornee dans L
2
101
puis si s < t
i
E[H
(i)
(M
t
i+1
t
M
t
i
t
)[T
s
] = E[E[H
(i)
(M
t
i+1
t
M
t
i
t
)[T
t
i
][T
s
]
= E[E[H
(i)
(M
t
i
t
M
t
i
t
)[T
t
i
][T
s
] = 0 = M
i
s
.
On a donc E[M
i
t
[T
s
] = M
i
s
pour tout t s et H M =

p1
i=0
M
i
est bien une martingale.
De plus, comme H est bornee et M H
2
c
, on a aussi H M H
2
c
.
Pour la deuxi`eme partie, dabord, si H = H
(i)
1
]t
i
,t
i+1
]
, comme MN M, N est une
martingale (car martingale locale bornee dans L
2
dapr`es la Prop. 4.14), alors
M
t
i+1
N M, N
t
i+1
et M
t
i
N M, N
t
i
sont des martingales. Par consequent la dierence,
(M
t
i+1
M
t
i
)N (M, N
t
i+1
M, N
t
i
)
est aussi une martingale. Comme cette martingale est nulle en t t
i
et comme H
(i)
T
t
i
H
(i)
_
M
t
i+1
M
t
i
_
N H
(i)
_
M, N
t
i+1
M, N
t
i
_
est encore une martingale puis en sommant sur 1 i p, (H M)N
_

0
H
s
dM, N
s
reste aussi une martingale. Dapr`es la Prop. 4.14, on identie le crochet de (H M) et de
N :
(H M), N = H M, N.
Noter en particulier que H M, H M = H
2
M, M.
Theor`eme 5.1 (Existence de lintegrale stochastique L
2
) Soit M H
2
c
. Lapplica-
tion H c H M setend en une isometrie de L
2
(M) dans H
2
c
. De plus,
1. la martingale H M est caracterisee par la relation
H M, N = H M, N, N H
2
c
; (5.4)
2. puis, si T est un temps darret, on a une propriete darret :
(1
[0,T]
H) M = (H M)
T
= H M
T
. (5.5)
Avec des notations integrales, cette derni`ere propriete secrit
_
t
0
1
[0,T]
HdM =
_
tT
0
HdM =
_
t
0
HdM
T
et devient tr`es naturelle.
102 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
Demonstration : Lapplication H H M est evidemment lineaire. Puis pour H c,
avec les notations precedentes H M est la somme des martingales M
i
t
:= H
(i)
(M
t
i+1
t

M
t
i
t
), t 0. On a
|H M|
2
H
2
c
= E[H M, H M

]
= E[H
2
M, M

] (par (5.3))
= E
__
+
0
H
2
s
dM, M
s
_
= |H|
L
2
(M)
.
Lapplication H H M est donc une isometrie de c dans H
2
c
.
Comme H
2
c
est un espace de Hilbert (Proposition 5.1) et comme c est dense dans L
2
(M)
(Proposition 5.2), on peut alors prolonger, de mani`ere unique, cette application en une
isometrie de L
2
(M) dans H
2
c
.
1) On verie maintenant la propriete caracteristique (5.4). On sait dej` a par (5.3) quelle
est vraie si H est un processus elementaire. Pour la generaliser, notons que pour N H
2
c
,
lapplication X X, N

est continue de H
2
c
dans L
1
: en eet, par les inegalites de
Kunita-Watanabe et Cauchy-Schwarz,
E[[X, N

[] E
_
X, X
1/2

N, N
1/2

(Kunita-Watanabe)
= E[X, X

]
1/2
E[N, N

]
1/2
(Cauchy-Schwarz)
= E[N, N

]
1/2
|X|
H
2
c
.
Soit H L
2
(M), comme c est dense dans L
2
(M), il existe (H
n
)
n0
suite de c telle que
H
n
H dans L
2
(M). Par lisometrie, on a alors H
n
M H M dans H
2
c
. Puis par la
continuite de X X, N

:
H M, N

= lim
n+
H
n
M, N

= lim
n+
(H
n
M, N)

= (H M, N)

,
o` u les convergences ont lieu dans L
1
avec pour la derni`ere egalite lutilisation, encore, de
linegalite de Kunita-Watanabe :
E
_

_
+
0
(H
n
s
H
s
) dM, N
s

_
E[N, N

]
1/2
|H
n
H|
L
2
(M)
.
(On justie de la meme facon que (H M, N)

est bien deni.) On a donc etabli (5.4)


pour t = +. Pour conclure, il faut lobtenir pour tout t 0. Pour cela, on remplace N
par N
t
, la martingale arretee en t 0, dans legalite H M, N

= (H M, N)

et on
trouve H M, N
t
= (H M, N)
t
, ce qui ach`eve de prouver (5.4).
Il faut encore justier que (5.4) caracterise eectivement H M. Pour cela, soit X une autre
martingale de H
2
c
qui satisfait la meme propriete (5.4), on a pour tout N H
2
c
,
H M X, N = 0.
5.1. Par rapport ` a une martingale bornee dans L
2
103
Le choix particulier N = HMX donne HMX, HMX = 0 donc |HMX|
H
2
c
=
0, ie. X = H M. Cela termine la preuve de 1).
2) Pour terminer, on utilise les proprietes du crochet de deux martingales (Prop. 4.14) pour
pouver la derni`ere propriete. Si N H
2
c
, on a
(H M)
T
, N
t
= H M, N
tT
= (H M, N)
tT
= (H1
[0,T]
M, N)
t
o` u la derni`ere egalite est evidente puisquil sagit de lintegrale de Stieltjes. La martingale
arretee (H M)
T
verie donc la propriete caracteristique de lintegrale (1
[0,T]
H) M. Cela
justie la premi`ere partie de (5.5). On obtient la seconde partie en procedant de meme
H M
T
, N = H M
T
, N = H M, N
T
= (H1
[0,T]
) M, N
o` u ` a nouveau la derni`ere egalite est due au fait quil sagit de lintegrale de Stieltjes.
Le resultat suivant est une propriete dassociativite de lintegrale stochastique sous
reserve de conditions convenables dintegrabilite des processus ` a integrer.
Proposition 5.4 (Associativite de lintegrale stochastique L
2
) Soit M H
2
c
. Si K
L
2
(M) et H L
2
(K M) alors HK L
2
(M) et
(HK) M = H (K M). (5.6)
Demonstration : Dapr`es le Theor`eme 5.1, on a
K M, K M = K M, K M = K
2
M, M,
et donc
E
__
+
0
H
2
s
K
2
s
dM, M
s
_
= E
__
+
0
H
2
s
dK M, K M
s
_
< +
ce qui garantit HK L
2
(M). Pour (5.6), on montre la propriete caracteristique (5.4) : si
N H
2
c
, on a :
(HK) M, N = HK M, N = H (K M, N) = H K M, N = H (K M), N
o` u la deuxi`eme egalite utilise lassociativite de lintegrale de Stieltjes. Comme legalite est
vraie pour toute N H
2
c
, elle exige (HK) M = H (K M).
Remarque 5.2 La proposition precedente legitime les ecritures informelles suivantes
_
t
0
H
s
(K
s
dM
s
) =
_
t
0
H
s
K
s
dM
s
.
104 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
De meme (5.4) secrit
__

0
H
s
dM
s
, N
_
t
=
_
t
0
H
s
dM, N
s
.
En appliquant deux fois cette relation, on obtient
__

0
H
s
dM
s
,
_

0
K
s
dN
s
_
t
=
_
t
0
H
s
K
s
dM, N
s
. (5.7)
En particulier, on a
__

0
H
s
dM
s
,
_

0
H
s
dM
s
_
t
=
_
t
0
H
2
s
dM, M
s
.
Soient M H
2
c
, N H
2
c
et H L
2
(M), K L
2
(N), comme H M et (H M)(K N)
(H M), (K N) sont des martingales (en utilisant (5.7)), on a pour tout t R
+
les
moments suivants :
E
__
t
0
H
s
dM
s
_
= 0 (5.8)
E
___
t
0
H
s
dM
s
___
t
0
K
s
dN
s
__
= E
__
t
0
H
s
K
s
dM, N
s
_
. (5.9)
Attention : ces relations (5.8), (5.9) ne seront plus forcement vraies pour les extensions
de lintegrale stochastique quon decrit ci-dessous pour les martingales locales.
Le mouvement brownien est bien une martingale continue mais nest pas borne dans L
2
(par exemple avec le Theor`eme 4.3 parce que son crochet B, B
t
= t +). Cette section
ne permet donc toujours pas de construire une integrale contre le mouvement brownien.
Les derniers obstacles sont leves dans la section suivante.
5.2 Par rapport `a une martingale locale
En utilisant la propriete darret (5.5), on etend maintenant dans cette section la denition
de H M au cas o` u M est une martingale locale continue. Dans cette section, on consid`ere
M une martingale locale issue de 0.
Denition 5.5 (Espaces L
2
loc
(M)) On note L
2
loc
(M) lespace des processus progressifs H
tels que pour tout t 0,
_
t
0
H
2
s
dM, M
s
< + ps.
On rappelle que, pour M une martingale locale, on note toujours L
2
(M) lespace des
processus progressifs H tels que
E
__
+
0
H
2
s
dM, M
s
_
< +.
5.2. Par rapport ` a une martingale locale 105
Theor`eme 5.2 (Existence de lintegrale stochastique generale) Soit M une mar-
tingale locale issue de 0. Pour tout H L
2
loc
(M), il existe une unique martingale locale
issue de 0, notee H M, telle que pour toute martingale locale N,
H M, N = H M, N. (5.10)
De plus, la propriete darret (5.5) reste vraie : si T est un temps darret, on a
(1
[0,T]
H) M = (H M)
T
= H M
T
. (5.11)
Remarque 5.3 On note habituellement (H M)
t
=
_
t
0
H
s
dM
s
.
Cette denition etend celle du Theor`eme 5.1 : si M H
2
c
et H L
2
(M), alors les
denitions de ce theor`eme et du Theor`eme 5.1 concident.
En eet, si M H
2
c
et H L
2
(M), legalite H M, H M = H
2
M, M entrane
dabord que H M H
2
c
, et ensuite les proprietes caracteristiques (5.4) et (5.10)
montrent que les denitions des Theor`emes 5.1 et 5.2 concident.
La propriete dassociativite de la Proposition 5.4 reste vraie aussi sous des hypoth`eses
convenables dintegrabilite.
Le mouvement brownien B est une martingale locale pour laquelle le Theor`eme 5.2
denit donc lintegrale (H B)
t
=
_
t
0
H
s
dB
s
pour H L
2
loc
(B). Les integrales sto-
chastiques par rapport au mouvement brownien B sappellent les integrales dIt o.
Le calcul stochastique lie ` a ces integrales est le calcul dIto.
Demonstration : On denit
T
n
= inf
_
t 0 :
_
t
0
(1 + H
2
s
) dM, M
s
n
_
.
Comme pour la Prop. 4.12, il sagit dune suite de temps darret croissante vers +.
Comme on a
M
Tn
, M
Tn

t
= M, M
tTn
n
le Theor`eme 4.3 sapplique et donne que la martingale arretee M
Tn
est dans H
2
c
. De plus,
H L
2
(M
Tn
), car par denition de T
n
, on a aussi
_
+
0
H
2
s
dM
Tn
, M
Tn

s
n.
Pour chaque n, on peut donc denir lintegrale stochastique H M
Tn
par le Theor`eme 5.1
(cas L
2
borne). Par la propriete caracteristique (5.4), on verie facilement que necessaire-
ment si m > n alors T
m
T
n
et on a
H M
Tn
= (H M
Tm
)
Tn
106 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
en eet
(H M
Tm
)
Tn
=
_
(H M)
Tm
_
Tn
= (H M)
TmTn
= (H M)
Tn
(H M
Tm
)
Tn
, N
t
= (H M
Tm
), N
tTn
=
_
tTn
0
H
s
dM
Tm
, N
s
=
_
tTn
0
H
s
dM, N
Tm
s
=
_
tTnTm
0
H
s
dM, N
s
=
_
tTn
0
H
s
dM, N
s
= (H M, N
Tn
t
= (H M)
Tn
, N
t
.
Il existe donc un (unique) processus note H M qui etend tous les H M
Tn
, ie. pour tout n,
(H M)
Tn
= H M
Tn
.
Dapr`es le Theor`eme 5.1, les processus (H M)
Tn
sont des martingales de H
2
c
, si bien que
H M est une martingale locale.
Il reste ` a voir la propriete caracteristique (5.10). Pour cela, soit N une martingale locale,
quon peut supposer issue de 0 et soient T
t
n
= inf(t 0 : [N
t
[ n) qui reduit N. Conside-
rons S
n
= T
n
T
t
n
. Alors,
H M, N
Sn
= (H M)
Sn
, N
Sn

= (H M
Tn
)
Sn
, N
Sn
car S
n
T
n
= H M
Tn
, N
Sn
prop. du crochet
= H M
Tn
, N
Sn
dapr`es le cas L
2
borne
= H M
Tn
, N
Sn
= H M, N
SnTn
= H M, N
Sn
(S
n
T
n
)
= (H M, N)
Sn
prop. de lintegrale de Stieltjes.
Comme S
n
+, en faisant n +, on deduit H M, N
t
= H M, N
t
. Finalement,
on a H M, N = H M, N. La caracterisation de H M par cette egalite pour toute
martingale locale N se justie exactement comme dans le Theor`eme 5.1.
La propriete darret (5.11) est obtenue pour les martingales locales par les memes argu-
ments que dans la preuve du Theor`eme 5.1 (noter que ces arguments utilisent seulement
la propriete caracteristique (5.4) quon vient detendre).
Remarque 5.4 Discutons maintenant lextension des formules de moments (5.8), (5.9)
enoncees avant le Theor`eme 5.2. Soient M une martingale locale, H L
2
loc
(M) et t
[0, +]. Alors, sous la condition
E[H M, H M
t
] = E
__
t
0
H
2
s
dM, M
s
_
< +
5.3. Par rapport ` a une semimartingale 107
on a H L
2
(M
t
) et on peut appliquer le Theor`eme 4.3 ` a (H M)
t
pour obtenir
E
__
t
0
H
s
dM
s
_
= 0, E
_
__
t
0
H
s
dM
s
_
2
_
= E
__
t
0
H
2
s
dM, M
s
_
.
De facon generale, la propriete disometrie de lintegrale stochastique du cas borne dans
L
2
est remplacee par
E
_
__
t
0
H
s
dM
s
_
2
_
E
__
t
0
H
2
s
dM, M
s
_
. (5.12)
En eet soit le majorant est + et linegalite est vraie, soit il est ni et lestimation de la
variance est valable et donne legalite.
5.3 Par rapport `a une semimartingale
On ach`eve dans cette section la construction de lintegrale stochastique en integrant -
nalement par rapport aux semimartingales continues. Pour cela, on dit quun processus
progressif H est localement borne si
ps t 0, sup
st
[H
s
[ < +.
En particulier, tout processus continu adapte est localement borne (cf. Prop. 3.1). De plus,
si H est localement borne, pour tout processus V ` a variation nie on a :
ps t 0,
_
t
0
[H
s
[ [dV
s
[ < +.
De meme, pour toute martingale locale M, on a
_
t
0
H
2
s
dM, M
s
< +, ie. H L
2
loc
(M).
Denition 5.6 (Integrale par rapport `a une semimartingale) Soit X = X
0
+M +
V une semimartingale continue, et soit H un processus progressif localement borne. Lin-
tegrale stochastique H X est alors denie par
H X = H M + H V
o` u H M est denie dans la Section 5.2 et H V est denie en Section 4.1.4. On note
traditionnellement
(H X)
t
=
_
t
0
H
s
dX
s
.
Des proprietes dej`a vues pour lintegrale contre une martingale locale ou contre un processus
` a variation nie, on deduit facilement :
108 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
Proposition 5.5
1. Lapplication (H, X) H X est bilineaire.
2. H (K X) = (HK) X, si H et K sont localement bornes.
3. Pour tout temps darret T, (H X)
T
= (H1
[0,T]
) X = H X
T
.
4. Si X est une martingale locale (resp. si X est un processus `a variation nie) alors il
en est de meme pour H X.
5. Si H est un processus progressif de la forme H
s
() =

p1
i=0
H
(i)
()1
]t
i
,t
i+1
]
(s) o` u,
pour chaque i, H
(i)
est T
t
i
-mesurable, alors
(H X)
t
=
p1

i=0
H
(i)
(X
t
i+1
t
X
t
i
t
).
6. Soit X une semimartingale continue et soit H un processus continu adapte. Alors,
pour tout t > 0, pour toute suite 0 = t
n
0
< < t
n
pn
= t de subdivisions de [0, t] de
pas tendant vers 0, on a, au sens de la convergence en probabilite :
P- lim
n+
n1

i=0
H
t
n
i
(X
t
n
i+1
X
t
n
i
) =
_
t
0
H
s
dX
s
.
Remarque 5.5
Remarquer que dans la propriete 5), on ne suppose pas que les variables H
(i)
sont
bornees.
Le resultat dapproximation dans 6) generalise dans le cas de lintegration stochas-
tique lapproximation des integrales de Riemann. Ce resultat sera utile dans la suite,
notamment pour prouver la formule dIt o.
Dans ce resultat, il est essentiel de considerer H
t
n
i
dans lapproximation de Riemann.
Un autre choix conduit `a un autre type dintegrale stochastique : par exemple H
t
n
i+1
m`ene ` a une integrale dite anticipante, et H
(t
n
i+1
+t
n
i
)/2
m`ene ` a lintegrale de Stratono-
vich.
Demonstration : On prouve le 6). Le cas de X processus `a variation nie est donne par
le Lemme 4.4. On peut donc supposer que X = M est une martingale locale issue de 0.
Pour chaque n, on denit un processus H
n
par
H
n
s
=
_
H
t
n
i
si t
n
i
< s t
n
i+1
0 si s > t.
Dans ce cas, le 5) justie le 6). Posons enn pour tout p 1
T
p
= inf
_
s 0 : [H
s
[ +M, M
s
p
_
(5.13)
5.3. Par rapport ` a une semimartingale 109
et remarquons que H, H
n
et M, M sont bornes sur lintervalle ]0, T
p
]. Dapr`es la theorie
L
2
de lintegrale stochastique (cf. (5.9) pour une expression du moment dordre 2), pour
tout p xe,
E
_
_
(H
n
M
Tp
)
t
(H M
Tp
)
t
_
2
_
= E
_
_
(H
n
1
[0,Tp]
M)
t
(H1
[0,Tp]
M)
t
_
2
_
= E
_
_
((H
n
H)1
[0,Tp]
) M
_
2
t
_
= E
__
t
0
(H
n
s
H
s
)
2
1
[0,Tp]
(s)dM, M
s
_
= E
__
tTp
0
(H
n
s
H
s
)
2
dM, M
s
_
converge vers 0 quand n + par convergence dominee car (H
n
s
H
s
)
2
est borne sur
[0, T
p
] par (2p)
2
, et
E
__
tTp
0
4p
2
dM, M
s
_
= 4p
2
E
_
M, M
tTp

4p
2
E
_
M, M
Tp

4p
2
p = 4p
3
et par continuite lim
n+
H
n
s
= H
s
pour tout s 0. En utilisant la propriete darret
(5.11), on en deduit la convergence dans L
2
lim
n+
(H
n
M)
tTp
= (H M)
tTp
.
Pour conclure, on remarque que P(T
p
> t) 1 quand p +, ce qui aaiblit la conver-
gence L
2
obtenue en une convergence en probabilite.
Le resultat suivant est une version du theor`eme de convergence dominee pour les integrales
stochastiques :
Theor`eme 5.3 Soit X une semimartingale continue. Si H
n
est une suite de processus
localement bornes telle que lim
n+
H
n
t
= 0 pour tout t 0 et telle quil existe un pro-
cessus K borne satisfaisant [H
n
[ K pour tout n 1, alors (H
n
X)
t
P
0, n +,
uniformement sur tout compact.
Demonstration : Il sagit de voir
P- lim
n+
sup
st
[(H
n
X)
s
[ = 0
ce qui est clair dapr`es les proprietes de lintegrale de Stieltjes si X est un processus ` a
variations nies. Il sut de considerer le cas o` u X est une martingale locale. On suppose
X reduite par la suite de temps darret (T
p
)
p1
donnee en (??) alors (H
n
)
Tp
converge vers
0 dans L
2
(X
T
p
). Dapr`es lisometrie du Theor`eme 5.1, (H
n
X)
Tp
converge vers 0 dans H
2
c
.
Comme P(T
p
t) 1, p +, on obtient la convergence en probabilite cherchee.
110 Chapitre 5. c _JCB M2 Math. Universite de Rennes 1
5.4 Cas non continu
La theorie dintegration stochastique presentee dans ces notes sapplique pour des semimar-
tingales `a trajectoires continues. On pourrait sinteresser ` a des semimartingales `a trajec-
toires c`adl`ag (continue `a droite et avec des limites `a gauche) ou c`agl`ad (continue `a gauche
avec des limites ` a droite). On int`egre alors des processus dits previsibles ((T
t
)
t0
-adaptes
et continus `a gauche) ou optionnels ((T
t
)
t0
- adaptes et continus `a droite). Dans le cadre
c` adl` ag, la decomposition dune semimartingale en martingale locale + processus ` a variation
bornee nest plus unique (heuristiquement : on peut jouer sur les sauts) `a moins dimposer
par exemple que le processus `a variation nie soit previsible (dans ce cas, on xe les
sauts).
Il faut cependant introduire deux crochets [M, M]
t
et M, M
t
(qui est la projection previ-
sible de [M, M]
t
). Chacun de ces deux crochets herite dune des proprietes fondamentales
(4.2), (4.3) de lunique crochet deni dans le cadre continu (cf. Theor`eme 4.2), on retrouve
ainsi que
[M, M]
t
= lim
[[0

t
i

(M
t
i+1
M
t
i
)
2
est la variation quadratique de M o` u est
une subdivision de [0, t] et [[ designe son pas.
M, M est lunique processus previsible tel que M
2
M, M soit une martingale
locale.
Dans ce contexte, il faut alors porter une attention particuli`ere aux sauts X
t
= X
t
X
t

du processus. On consultera [KT] ou [App] pour le cas specique des processus de Levy.
Bibliographie
[App] David Applebaum. Levy Processes and Stochastic Calculus. Cambridge series in
advanced mathematics, vol. 93, 2004.
[BC] Bernard Bercu, Djalil Chafa. Modelisation stochastique et simulation. Dunod, 2007.
[JCB-L3] Jean-Christophe Breton. Fondement des Probabilites. Notes de cours, L3 Mathe-
matiques, Universite de Rennes 1, 2013.
[Bil2] Patrick Billingsley. Convergence of Probability measures. 2nd Edition, Wiley series
in probabilities and mathematical statistics, 1999.
[CM] Francis Comets, Thierry Meyre. Calcul stochastique et mod`eles de diusions. Dunod,
2006.
[Chung] Kai Lai Chung. A course in probability theory. 3rd Edition, Academic Press, 2001.
[Dav] Youri Davydov. Cours de DEA Processus stochastiques. Universite Lille 1, 1999
2000.
[DM] Claude Dellacherie, Pierre-Andre Meyer. Probabilites et potentiels. Hermann, 1975.
[EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto-
chastique.

Ecole Polytechnique, 2001.
[Fel] William Feller. An introduction to probability theory and its applications. Vol. 1. 3rd
Edition, Wiley series in probabilities and mathematical statistics, 1968.
[Gal] Leonard Gallardo. Mouvement brownien et calcul dIto. Coll. Methodes mathema-
tiques. Ed. Hermann. 2008.
[Gue] Hel`ene Guerin. Processus `a temps continu. Notes de cours, M2 Mathematiques, Uni-
versite de Rennes 1, 2009.
[Kal] Olav Kallenberg. Foundations of modern probability. 2nd Edition, Springer Series in
Statistics. Probability and its Applications, 2002.
[KS] Ioannis Karatzas, Steven E. Shreve. Brownian motion and stochastic calculus. Sprin-
ger, 1987.
[Kin] John Kingman. Poisson processes. Oxford University Press, 1993.
[KT] Rama Kont, Peter Tankov. Financial modelling with Jump Processes. Chapman &
Hall, 2003.
[LG0] Jean-Francois Le Gall. Introduction au mouvement brownien. Gazette des Mathe-
maticiens, vol. 40, 1989.
111
112 Bibliographie
[LG1] Jean-Francois Le Gall. Mouvement brownien, martingales et calcul stochastique.
Spinger, Coll. Mathematiques et applications, vol. 71, 2013. Voir les notes de cours
M2 Mathematiques de lUniversite Paris sud-Orasy.
[Lif] Michel Lisfhits. Gaussian random functions, Kluwer, 1995.
[Mal] Florent Malrieu. Processus de Markov et inegalites fonctionnelles. Notes de cours de
Master 2, 20052006.
[Pro] Philipp Protter. Stochastic integration and dierential equations. Springer, 1995.
[RY] Daniel Revuz, Marc Yor. Continuous martingales and Brownian motion. Springer,
1991.
[Tud] Ciprian Tudor. Cours de calcul stochastique. Notes de cours M2 Mathematiques,
Universite Lille 1, 2011.

You might also like