Professional Documents
Culture Documents
ET CALCUL STOCHASTIQUE
Olivier Leveque, EPFL
Semestre dhiver 2004-2005
Avertissement
Ce polycopie a ete etabli sur la base des notes du cours de probabilite et calcul stochastique
donne dans le cadre du cycle detudes postgrades en ingenierie mathematique a` lEPFL. Il
ne constitue en aucun cas une reference de calcul stochastique, etant donne les nombreuses
lacunes et imprecisions qui le pars`ement. Pour une exposition plus compl`ete, le lecteur est
renvoye a` la bibliographie.
Le but du cours est de donner une premi`ere idee du sujet a` des etudiants provenant dhorizons differents (sur un court laps de temps de 30 periodes concentrees sur deux mois).
Le niveau requis pour suivre le cours est celui dun etudiant ayant accompli une formation
dingenieur et dej`a suivi un cours de base de probabilites.
Pour beneficier pleinement de la lecture de ce polycopie, il est necessaire deffectuer en
parall`ele les exercices qui laccompagnent. Ceux-ci sont disponibles sur la page web :
http ://lthiwwww.epfl.ch/leveque/Proba/
Remerciements
Deux personnes ont fortement contribue a` la redaction de ce polycopie. Je desirerais remercier tout dabord Raffi Aghayekian, etudiant de la volee 2002-2003, pour sa prise de notes
appliquee qui a constitue la premi`ere version manuscrite de ces notes de cours. Mes remerciements vont ensuite a` Erika Gindraux qui a patiemment dactylographie la premi`ere version
de ces notes.
Un grand merci va egalement a` tous les etudiants pour leur motivation a` apprendre les
probabilites et leurs nombreuses questions et commentaires qui ont contribue a` lelaboration
de ces notes. Et finalement, merci a` Benjamin Berge pour avoir pour avoir pris le temps de
relire le manuscrit.
ii
11
11
11
13
16
21
2 Calcul stochastique
2.1 Processus aleatoire a` temps continu . . . . . . . . . . . . . . . . .
2.1.1 Processus a` accroissements independants et stationnnaires
2.1.2 Mouvement brownien standard . . . . . . . . . . . . . . .
2.1.3 Processus gaussien . . . . . . . . . . . . . . . . . . . . . .
2.1.4 Processus de Markov . . . . . . . . . . . . . . . . . . . . .
2.1.5 Martingale a` temps continu . . . . . . . . . . . . . . . . .
2.2 Integrale de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . . .
2.3 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Integrale stochastique (ou integrale dIto) . . . . . . . . . . . . . .
2.5 Formules dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Formules de base . . . . . . . . . . . . . . . . . . . . . . .
2.5.2 Processus dIto (ou semi-martingale continue) . . . . . .
2.5.3 Retour a` lintegrale de Stratonovich . . . . . . . . . . . . .
2.5.4 Formules dIto generalisees . . . . . . . . . . . . . . . . . .
2.5.5 Formule dintegration par parties (IPP) . . . . . . . . . . .
2.6 Equations differentielles stochastiques (EDS) . . . . . . . . . . . .
2.6.1 Equations homog`enes en temps . . . . . . . . . . . . . . .
2.6.2 Equations inhomog`enes en temps . . . . . . . . . . . . . .
24
24
24
25
27
28
29
32
34
38
47
47
50
51
53
54
55
55
59
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
6
9
9
9
10
10
10
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
61
62
63
69
69
71
76
84
89
94
iv
1
1.1
Rappels de probabilit
e
Espace de probabilit
e
Cours 1
i)
F,
ii) A F Ac F,
iii) (An )
n=1 F n=1 An F.
En particulier : A, B F A B F.
De meme, A, B F A B F (cf. exercices pour dautres proprietes).
Exemple 1.1.2. - Soit = {1, . . . , 6}. On peut definir plusieurs tribus sur :
F = P() = {, {1}, {2}, . . . , {1, 2}, . . . , }= tribu compl`ete (la plus grande),
F0 = {, } = tribu triviale (la plus petite) ( = even. impossible, = even. arbitraire),
F1 = {, {1}, {2, . . . , 6}, }, F2 = {, {1, 3, 5}, {2, 4, 6}, }, etc.
- Soit = [0, 1] et I1 , . . . , In une famille dintervalles formant une partition de . La famille
de sous-ensembles definie par
G = {, I1 , I2 , . . . , I1 I2 , . . . , I1 I2 I3 , . . . , }
est une tribu sur .
D
efinition 1.1.3. Soit A = {Ai , i I} une famille de sous-ensembles de . Alors la
tribu engendree par A est la plus petite tribu sur qui contient tous les sous-ensembles
Ai , i I. Elle est notee (A). (NB : lensemble I nest pas forcement denombrable.)
Exemple 1.1.4. Reprenons lexemple 1.1.2.
- Soit = {1, . . . , 6}. Si A1 = {{1}}, alors (A1 ) = F1 . Si A2 = {{1, 3, 5}}, alors (A2 ) = F2 .
Et si A = {{1, 3, 5}, {1, 2, 3}}, alors (A) =? (cf. exercices).
- Soit = [0, 1]. Si A = {I1 , . . . , In }, alors (A) = G.
1
D
efinition 1.1.5. Soit = [0, 1]. La tribu borelienne sur [0, 1] est la tribu engendree par la
famille de sous-ensembles A = { ]a, b[ : 0 a < b 1} = {intervalles ouverts dans [0, 1]}.
Elle est notee B([0, 1]). Elle contient un tr`es grand nombre de sous-ensembles de [0, 1], mais
pas tous.
Remarque 1.1.6. - Pour ensemble fini, on choisit souvent F = P().
- Pour R ou Rn , on choisit souvent F = B().
D
efinition 1.1.7. Une sous-tribu de F est une tribu G telle que si A G alors A F.
On note G F.
Exemple 1.1.8. Reprenons lexemple 1.1.2. On a F0 F1 F, F0 F2 F, mais pas
F1 F2 , ni F2 F1 .
Remarque importante :
Il est toujours vrai que A G et G F A F.
Mais il est faux de dire que A B et B F A F. Contre-exemple :
{1} {1, 3, 5}, {1, 3, 5} F2 ,
mais {1} 6 F2 .
D
efinition 1.1.9. Soit F une tribu sur . Une (mesure de) probabilite sur (, F) est une
application P : F [0, 1] telle que
(
i) P() = 0 et P() = 1,
P
ii) (An )
n=1 P(An ).
n=1 F disjoints (i.e. An Am = , n 6= m) P(n=1 An ) =
i) Si (An )
n=1 F, An An+1 et n=1 An = A, alors limn P(An ) = P(A),
ii) Si (An )
n=1 F, An An+1 et n=1 An = A, alors limn P(An ) = P(A).
0 a < b 1.
P nest definie a priori que sur les intervalles, mais est uniquement extensible `a tout ensemble
borelien B B([0, 1]). Elle est notee P(B) = |B|, B B([0, 1]).
2
1
2
1
, x + [ | = n
lim = 0.
n
n
n
1.2
Variable al
eatoire
D
efinition 1.2.1. Soit (, F, P) un espace de probabilite. Une variable aleatoire (souvent
abrege v.a. par la suite) est une application X : R telle que
{ : X() B} = {X B} F,
B B(R).
1 si A,
0 sinon.
et { : X2 () = 0} = {2, 4, 6} F2 ,
D
efinition 1.2.6. La tribu engendree par une famille de v.a. {Xi , i I} sur (, F, P) est
definie par
(Xi , i I) = ({Xi B}, i I, B B(R)) = ({Xi t}, i I, t R).
Exemple 1.2.7. Reprenons lexemple precedent : (X1 ) = F = P(), (X2 ) = F2 6= P().
Proposition 1.2.8. Si g : R R est borelienne et X : R est une v.a., alors g(X) est
une v.a.
Demonstration. Soit B B(R). On a
{ : g(X()) B} = { : X() g 1 (B)}.
Or g 1 (B) = {x R : g(x) B} B(R), car g est borelienne. Comme X est une v.a., on
en deduit que { : X() g 1 (B)} F, et donc finalement que g(X) est une v.a.
Proposition 1.2.9. Toute fonction continue est borelienne (et pratiquement toute fonction
discontinue lest aussi !).
1.3
D
efinition 1.3.1. La loi dune v.a. X est lapplication X : B(R) [0, 1] definie par
X (B) = P({X B}),
B B(R).
Fonction de r
epartition dune variable al
eatoire
D
efinition 1.3.3. La fonction de repartition dune v.a. X est lapplication F X : R [0, 1]
definie par
FX (t) = P({X t}) = X ( ] , t]), t R.
Proposition 1.3.4. La donnee de FX equivaut `a celle de X .
4
P({X B}) = 0 si |B| = 0 (en part. P({X = x}) = 0 x). Sous cette condition, le theor`eme
de Radon-Nikodym assure lexistence dune fonction borelienne fX : R R (appelee densite)
telle que
fX (x) 0, x R,
De plus, FX (t) =
Rt
fX (x) dx.
Exemple 1.3.5.
A) Loi binomiale B(n, p), n 1, p [0, 1] :
p(k) = P({X = k}) =
o`
u
n
p
n
p
pk (1 p)nk ,
pour 0 k n,
n!
.
k!(n k)!
1
(x )2
,
fX (x) =
exp
2 2
2 2
x R.
1.4
Esp
erance dune variable al
eatoire
Cours 2
Construction de lesp
erance (= int
egrale de Lebesgue !)
On proc`ede en trois etapes :
1. Soit X() =
efinit lesperance de telles v.a. (dites
i=0 xi 1Ai (), xi 0, Ai F. On d
simples) comme suit :
P
E(X) =
X
i=0
X
i
i=0
2n
1{
i
X< i+1
}
2n
2n
().
Alors (Xn ) est une suite croissante de v.a. qui tend vers X. On definit
E(X) = n
lim E(Xn ) = n
lim
X
i
i=0
2n
i
i+1
X< n
n
2
2
[0, +].
X + () = max(0, X()) 0,
X () = max(0, X()) 0.
On a alors |X()| = X + () + X () 0.
- Si E(|X|) < , alors on definit E(X) = E(X + ) E(X ).
- Si E(|X|) = , alors on dit que E(X) nest pas definie.
Terminologie : - Si E(X) = 0, alors on dit que X est une v.a. centree.
- Si E(|X|) < , alors on dit que X est une v.a. integrable.
- Si E(X 2 ) < alors on dit que X est une v.a. de carre integrable.
- On dit que X est une v.a. bornee sil existe une cte K > 0 telle que |X()| K, .
Remarque 1.4.1. X bornee E(X 2 ) < E(|X|) < .
6
Proposition 1.4.2. Soient X une v.a. et g : R R une fonction borelienne telle que
E(|g(X)|) < . Alors
A) Si X est une v.a. discr`ete (`a valeurs dans D denombrable), alors
E(g(X)) =
xD
n=1
P(An ) = 0.
Exemple 1.4.6. Lensemble A = [0, 1] Q est negligeable pour la mesure le Lebesgue, car
Q est denombrable et |{x}| = 0 pour tout x [0, 1].
Propri
et
es de lesp
erance
Soient X, Y deux v.a. integrables.
- Linearite : E(cX + Y ) = c E(X) + E(Y ), c R et X, Y v.a. integrables.
- Positivite : si X 0 p.s., alors E(X) 0.
- Positivite stricte : si X 0 p.s. et E(X) = 0, alors X = 0 p.s.
7
i) XY est integrable,
ii) (E(|XY |))2 E(X 2 ) E(Y 2 ).
En posant Y 1, on trouve que (E(|X|))2 E(X 2 ) (donc E(|X|) < si E(X 2 ) < ; cf.
remarque 1.4.1).
In
egalit
e triangulaire
Soient X, Y deux v.a. integrables. Alors
E(|X + Y |) E(|X|) + E(|Y |)
In
egalit
e de Jensen
Soient X une v.a. et : R R une fonction borelienne et convexe telle que E(|(X)|) < .
Alors
(E(X)) E((X)).
En particulier, |E(X)| E(|X|).
sup
(ax + b) et donc :
a,b: ay+b(y),yR
a,b:...
a,b:...
1
2
1
2
In
egalit
e de Chebychev (ou Markov)
Soient X une v.a. et : R R+ telle que est borelienne et croissante sur R+ , (a) > 0
pour tout a > 0 et E((X)) < . Alors
P({X a})
E((X))
,
(a)
a > 0.
1.5
1.5.1
Ind
ependance
Ind
ependance d
ev
enements
D
efinition 1.5.1. Deux evenements A et B( F) sont independants si P(AB) = P(A) P(B).
Attention ! Ne pas confondre : A et B sont disjoints si AB = ( P(AB) = P(A)+P(B)).
Notation : Si A est independant de B, on note AB (de meme pour les tribus et les v.a. ;
voir plus bas).
Consequence :
P(Ac B) = P(B\(A B)) = P(B) P(A B)
= P(B) P(A) P(B) = (1 P(A)) P(B) = P(Ac ) P(B).
De meme, on a P(A B c ) = P(A) P(B c ) et P(Ac B c ) = P(Ac ) P(B c ).
D
efinition 1.5.2. n evenements A1 , . . . , An F sont independants si
P(A1 An ) =
n
Y
P(Ai ),
o`
u Ai = soit Ai , soit Aci .
i=1
P(Ai ),
iI
I {1, . . . , n}.
Remarque 1.5.4. - Pour n > 2, la condition P(A1 An ) = P(A1 ) P(An ) ne suffit pas !
- Lindependance de n evenements telle que definie ci-dessus est plus forte que lindependance
deux a` deux (Ai Aj , i 6= j).
1.5.2
Ind
ependance de tribus
D
efinition 1.5.5. Une famille (F1 . . . Fn ) de sous-tribus de F est independante si
P(A1 An ) = P(A1 ) P(An ),
A1 F1 , . . . , An Fn .
Proposition 1.5.6. ((A1 ), . . . , (An )) est une famille de sous-tribus independantes ssi les
evenements (A1 , . . . , An ) sont independants.
1.5.3
Ind
ependance de variables al
eatoires
D
efinition 1.5.7. Une famille (X1 , . . . , Xn ) de v.a. (F-mesurables) est independante si
((X1 ), . . . , (Xn )) est independante.
Proposition 1.5.8. (X1 , . . . , Xn ) est une famille de v.a. independantes
ssi les evenements {X1 t1 }, . . . , {Xn tn } sont independants t1 , . . . , tn R.
En particulier : XY ssi P({X t, Y s}) = P({X t}) P({Y s}), t, s R.
Exemple 1.5.9. Soit = {1 . . . 6} {1 . . . 6}, F = P(), P({(i, j)}) =
X() = X(1 , 2 ) = 1 ,
1
.
36
On pose
Y () = Y (1 , 2 ) = 2 .
Calculons P({X = i}) = P({ : 1 = i}) = P({i, 1), . . . , (i, 6)}) = 16 = P({Y = j}).
1
Dautre part, P({X = i, Y = j}) = P({(i, j)}) = 36
= 16 16 = P({X = i}) P({Y = j}),
donc X et Y sont independantes.
Exemple 1.5.10. Si X() = c, , alors XY , Y (une v.a. constante est independante
de toute autre v.a.).
Exemple 1.5.11. Si XY et g, h sont des fonctions boreliennes, alors g(X)h(Y ) ; cest
vrai en particulier si g = h (mais pas X = Y , bien s
ur !). Cette propriete decoule du
fait que g(X) est (X)-mesurable (resp. que h(Y ) est (Y )-mesurable) et de la definition
dindependance pour les tribus.
Proposition 1.5.12. Soient c R et X, Y deux v.a. de carre integrable. Si XY , alors
E(XY ) = E(X) E(Y ) et Var(cX + Y ) = c2 Var(X) + Var(Y ),
La premi`ere egalite dit que si deux v.a. sont independantes, alors elles sont decorrelees ; la
reciproque nest pas vraie.
Proposition 1.5.13. Si XY et X,RRY sont deux v.a. continues possedant une densite
conjointe fX,Y (i.e. P((X, Y ) B) = B fX,Y (x, y) dx dy, B B(R2 )), alors fX,Y (x, y) =
fX (x) fY (y), x, y R.
1.6
1.6.1
Cours 3
Esp
erance conditionnelle
Conditionnement par rapport `
a un
ev
enement B F
Soit A F : P(A|B) =
P(A B)
, si P(B) 6= 0.
P(B)
E(X 1B )
, si P(B) 6= 0.
P(B)
1.6.2
Soit A F : P(A|Y ) = (Y ), o`
u (y) = P(A|Y = y), y D.
Soit X une v.a. integrable : E(X|Y ) = (Y ), o`
u (y) = E(X|Y = y), y D.
Remarque 1.6.1. Il est important de voir que soit P(A|Y ), soit E(X|Y ) sont des v.a. !
Exemple 1.6.2. Soient (X1 , X2 ) deux jets de des independants : E(X1 + X2 |X2 ) = (X2 ),
o`
u
E((X1 + X2 ) 1{X2 =y} )
P({X2 = y})
E((X1 + y) 1{X2 =y} )
E(X1 + y) P({X2 = y})
=
= E(X1 ) + y,
=
P({X2 = y})
P({X2 = y})
P(A|Y ) = (Y ) o`
u (y) = P(A|Y = y) = ? ? ? Probl`eme : P({Y = y}) = 0.
Il vaut mieux generaliser la definition pour une tribu.
1.6.4
Soient (, F, P) un espace de probabilite ; X une v.a. F-mesurable telle que E(|X|) < et
G une sous-tribu de F.
Th
eor`
eme - D
efinition. Il existe une v.a. Z telle que E(|Z|) < et
(
11
Remarque 1.6.5. Du fait que toute v.a. U (Y )-mesurable et bornee secrit U = g(Y ) avec
g borelienne et bornee, on peut definir de mani`ere equivalente E(X|Y ) comme la v.a. Z qui
verifie E(|Z|) < et
(
Exemple 1.6.6. Soient X, Y deux v.a. aleatoires continues possedant une densite conjointe
fX,Y . Alors
E(X|Y ) = (Y ) p.s.,
et fy (y) =
o`
u (y) = E(X|Y = y) =
1 Z
x fX,Y (x, y) dx
fY (y) R
1 Z
x fX,Y (x, y) dx g(y) fY (y) dy
fY (y) R
Z Z
R2
Propri
et
es de lesp
erance conditionnelle (demonstration : cf. exercices)
Soient X, Y deux v.a. integrables.
- Linearite : E(cX + Y |G) = c E(X|G) + E(Y |G) p.s.
- Positivite-monotonie : X Y p.s. E(X|G) E(Y |G) p.s.
- E(E(X|G)) = E(X).
- Si XG alors E(X|G) = E(X) p.s.
- Si X est G-mesurable, alors E(X|G) = X p.s.
- Si Y est G-mesurable et bornee, alors E(XY |G) = E(X|G) Y p.s.
- Si H G F alors E(E(X|H)|G) = E(X|H) = E(E(X|G)|H) p.s.
Proposition 1.6.7. (cf. exercices pour une demonstration simplifiee)
Si XG, Y est G-mesurable et : R R R est borelienne et telle que E(|(X, Y )|) < ,
alors
E((X, Y )|G) = (Y ), o`
u (y) = E((X, y)).
12
In
egalit
e de Jensen (demonstration : cf. meme propriete pour lesperance)
Soient X une v.a., G une sous-tribu de F et : R R convexe telle que E(|(X)|) < .
Alors
(E(X|G)) E((X)|G) p.s.
En particulier : |E(X|G)| E(|X||G) p.s.
Remarque 1.6.8. Cest tr`es souvent en utilisant les proprietes mentionnees ci-dessus quon
peut veritablement calculer une esperance conditionnelle. Le recours a` la definition theorique
nest utile que dans certains cas delicats.
1.7
si > 0, n
lim P({ : |Xn () X()| > }) = 0.
Xn n
X
Convergence presque s
ure
Xn X p.s. si P({ : lim Xn () = X()}) = 1.
n
n
P
Remarque 1.7.1. Si Xn n
Xp.s., alors Xn n
X.
Le contraire est faux. Donnons un contre-exemple : soit une suite de pile ou face independants
et equilibres (p. ex. PFPPPFFP...). On definit
1 si 1er resultat=pile,
X2 = 1 F , X 3 = 1 P P , X 4 = 1 P F ,
0 sinon,
= 1F P , X6 = 1F F , X7 = 1P P P , X8 = 1P P F . . .
X1 = 1 P =
X5
13
E(|Xn X|2 )
0.
n
2
(b) Si (An )
ependants et
n=1 sont ind
n=1
P(An ) = , alors
Application : Si
n=1
Demonstration.
n=1
P({|Xn X| > })
1 X
E(|Xn X|2 ) < ,
2 n=1
> 0 fixe.
Remarque 1.7.2. Si on supprime lhypoth`ese que E(|X1 |) < , alors les choses changent :
Sn
P
(a) Si lima a P(|X1 | > a) = 0, alors
E(X1 1|X1 |n ) n
0.
n
Sn
diverge p.s. lorsque n .
(b) Si E(|X1 |) = , alors
n
Exemple 1.7.3. Soit (Xn ) une suite de pile (1) ou face (0) independants et equilibres. Du
fait que E(X1 ) = 12 < , on a par la loi forte des grands nombres :
1
Sn
p.s.,
n
2
i.e. Sn '
n
2
n
.
2
Convergence en loi
Soient (Xn ) une suite de v.a. (definies sur (, F, P)) et (FXn ) la suite des fonctions de
repartition correspondantes (FXn (t) = P({Xn t}), t R). Xn converge en loi vers X
(Xn n
X) si limn FXn (t) = FX (t), t R point de continuite de FX .
Th
eor`
eme central limite (TCL)
2
Soit (Xn )
n=1 une suite de v.a. i.i.d. telle que E(X1 ) = R et Var(X1 ) = > 0. Soit
Sn = X1 + . . . + Xn . Alors
Sn n
Z N (0, 1),
n n
Sn n
i.e. P
t
n
x2
1
e 2 dx = (t),
2
t R.
(NB : la fonction de repartition de la loi N (0, 1) est continue sur tout R.)
Exemple 1.7.4. Soit (Xn )
ependants et equilibres consideree
n=1 la suite de pile ou face ind
ci-dessus : E(X1 ) = 21 et Var(X1 ) = 41 , donc
Sn n2
n
n
1 Z N (0, 1), i.e. Sn ' +
Z
2
2
n2
La reponse a` la question posee ci-dessus est donc que la deviation est dordre n.
15
1.8
Processus al
eatoire `
a temps discret
Cours 4
Marche al
eatoire sym
etrique sur Z
Soit (Xn )n=1 une suite de v.a. i.i.d. telle que P({X1 = +1}) = P({X1 = 1}) = 12 .
Soient S0 = 0, Sn = X1 + . . . + Xn . Le processus (Sn , n N) est appele la marche aleatoire
symetrique sur Z.
` valeurs dans Z,
{suites (z , n N) a
` valeurs dans Z},
n
S :
7 S() = (Sn (), n N) = suite aleatoire.
Sn
0 p.s.
n
Sn
Theor`eme central limite : Z N (0, 1) (i.e. Sn ' n Z).
n
Loi des grands nombres :
Generalisations :
- Marche aleatoire asymetrique sur Z : Sn = X1 + . . . + Xn , Xi i.i.d., P({X1 = +1}) =
1 P({X1 = 1}) = p 6= 1/2.
- Marche aleatoire a` valeurs dans R : Sn = X1 + . . . + Xn , Xi i.i.d., X1 N (0, 1) (p.ex.).
- Temps continu : mouvement brownien (voir section 2).
Chane de Markov
Processus aleatoire a` temps discret (Mn , n N) a` valeurs dans un ensemble D denombrable
(appele espace des etats) tel que
P(Mn+1 = xn+1 |Mn = xn , Mn1 = xn1 . . . M0 = x0 ) = P(Mn+1 = xn+1 |Mn = xn ),
n 1, x0 . . . xn+1 D (cest un processus qui oublie son histoire au fur et a` mesure).
Chane de Markov stationnaire
Chane de Markov telle que P(Mn+1 = y|Mn = x) = Q(x, y) pour tout n N, x, y D.
Q(x, y) est appelee la probabilite de transition de x a` y.
La probabilite definie par ({x}) = P(M0 = x), x D, est appelee la loi initiale.
et Q caracterisent enti`erement la chane de Markov (dans le cas stationnaire).
En effet, on verifie que :
P(Mn = xn , . . . , M0 = x0 ) = (x0 ) Q(x0 , x1 ) Q(xn1 , xn ).
16
Exemple 1.8.2. La marche aleatoire symetrique ou asymetrique sur Z est une chane de
Markov stationnaire. Soit effectivement S0 = 0, Sn = X1 + . . . + Xn , avec Xi i.i.d. et
P({X1 = 1}) = p = 1 P({X1 = 1}) :
P(Sn+1 = y, Sn = x, . . . S0 = x0 )
= ()
P(Sn = x, Sn1 = xn1 . . . S0 = x0 )
P(Xn+1 = y x, Sn = x . . . S0 = x0 )
.
P(Sn = x . . . S0 = x0 )
Or Xn+1 Sn , Sn1 . . . S0 (du fait que les (Xi ) sont i.i.d.), donc
() =
o`
u
P(Xn+1 = y x) P(Sn = x . . . S0 = x0 )
= P(Xn+1 = y x) = Q(x, y),
P(Sn = x . . . S0 = x0 )
Q(x, y) = 1 p
si y x = +1,
si y x = 1,
sinon.
On montre de la meme mani`ere que P(Sn+1 = y|Sn = x) = Q(x, y). Dautre part, on a (mais
ceci nest pas necessaire a` la demonstration) :
({x}) = P(S0 = x) =
1 si x = 0,
0 si x 6= 0.
Martingale
D
efinition 1.8.3. Soit (, F, P) un espace de probabilite.
- Une filtration est une famille (Fn , n N) de sous-tribus de F tq Fn Fn+1 , n N.
- Un processus aleatoire `a temps discret (Xn , n N) est adapte `a la filtration (Fn , n N)
si Xn est Fn -mesurable n N.
- La filtration naturelle dun processus (Xn , n N) est donnee par (FnX , n N), o`
u FnX =
(Xi , 0 i n).
D
efinition 1.8.4. - Une sous-martingale (resp. sur-martingale) est un processus (M n , n
N) adapte `a une filtration (Fn , n N) tel que
(
i) E(|Mn |) < , n N,
ii) E(Mn+1 |Fn ) Mn p.s. (resp. E(Mn+1 |Fn ) Mn p.s.),
n N.
- Une martingale est un processus qui est `a la fois une sous-martingale et une sur-martingale
(i.e. un processus qui verifie (i) et legalite au point (ii)).
17
Remarque 1.8.5. - La notion de martingale equivaut a` celle de jeu honnete (sil est
toutefois possible de parler de jeu honnete losquon parle de jeu dargent...) : a` linstant n
(o`
u lon dispose de linformation Fn ), lesperance de la somme possedee linstant dapr`es est
egale a` la somme dont on dispose a` linstant present.
- Les appellations sous-martingale et sur-martingale sont contre-intuitives : une sousmartingale est un processus qui a tendance a` monter (jeu favorable), une sur-martingale est
un processus qui tendance a` descendre (jeu defavorable).
Proposition 1.8.6. (demonstration : cf. exercices)
Soit (Mn , n N) une martingale. Alors m, n N,
E(Mn+m |Fn ) = Mn p.s.
E(Mn+1 Mn |Fn ) = 0 p.s.,
E(Mn+1 ) = E(E(Mn+1 |Fn )) = E(Mn ) = . . . = E(M0 ).
Exemple 1.8.7. Soit (Sn , n N) une marche aleatoire symetrique a` valeurs dans Z ou R,
i.e. S0 = 0, Sn = X1 + . . . + Xn , avec Xi i.i.d. et E(X1 ) = 0. On pose
F0 = {, } (la tribu triviale) et Fn = (Xi , 1 i n) n 1.
Alors (Sn , n N) est une martingale par rapport a` (Fn , n N). En effet :
(0) Sn est Fn -mesurable, n N.
P
(i) E(|Sn |) ni=1 E(|Xi |)) < .
(ii) E(Sn+1 |Fn ) = E(Sn |Fn ) + E(Xn+1 |Fn ) = Sn + E(Xn+1 ) = Sn p.s.
(Dans cette serie degalites, on a utilise successivement : le fait que Sn+1 = Sn + Xn+1 et
la linearite de lesperance conditionnelle, le fait que Sn est Fn -mesurable et que Xn+1 est
independante de Fn , et finalement lhypoth`ese que les v.a. Xn sont toutes centrees.)
Exemple 1.8.8. Si on reprend lexemple ci-dessus en supposant cette fois que E(X1 ) > 0
(marche asymetrique), alors (Sn ) devient une sous-martingale.
Proposition 1.8.9. Soit (Mn ) une martingale par rapport `a (Fn ) et : R R convexe
telle que E(|(Mn )|) < , n N. Alors ((Mn )) est une sous-martingale (par rapport `a
(Fn )). En particulier, (Mn2 ) est une sous-martingale.
Demonstration. Par linegalite de Jensen (pour lesperance conditionnnelle), on a
E((Mn+1 )|Fn ) (E(Mn+1 |Fn )) = (Mn ) p.s.,
ce qui prouve la proriete (ii). Les autres verifications sont triviales.
18
D
efinition 1.8.10. Un temps darret par rapport `a (Fn ) est une v.a. T `a valeurs dans
N {+} telle que {T n} Fn , n N.
Exemple 1.8.11. Si (Xn ) est un processus adapte a` (Fn ), alors pour tout a R, la v.a. Ta
definie par
Ta = inf{n N : Xn a},
est un temps darret, car
{Ta n} = {i {0, . . . , n} tel que Xi a} = ni=0 {Xi a} Fn ,
car chaque evenement {Xi a} Fi Fn , du fait que le processus (Xn ) est adapte et que
i n.
D
efinition 1.8.12. Soit (Xn ) un processus adapte `a une filtration (Fn ) et T un temps darret
(p.r. `a (Fn )). On pose
XT () = XT () () =
nN
FT = {A F : A {T n} Fn , n N}.
Remarque 1.8.13. Bien que sa definition soit peu explicite, la tribu FT represente simplement linformation dont on dispose au temps aleatoire T .
Th
eor`
eme darr
et
Soient (Mn ) une martingale par rapport a` (Fn ) et T1 , T2 deux temps darret tels que 0
T1 () T2 () N < , . Alors
E(MT2 |FT1 ) = MT1 p.s.,
N
X
n=0
Mn 1{T =n} = MT
19
p.s.
(1)
Appelons Z le terme du milieu de lequation ci-dessus. Pour verifier que E(MN |FT ) = Z, il
faut verifier les deux points de la definition de lesperance conditionnelle :
(i) Z est FT -mesurable : effectivement, Z 1{T =n} = Mn 1{T =n} est Fn -mesurable n, donc par
le lemme, Z est FT -mesurable.
(ii) E(Z U ) = E(MN U ), v.a. U FT -mesurable et bornee :
E(Z U ) =
N
X
n=0
(a)
= E(MN U ),
N
X
n=0
(b)
N
X
n=0
car (a) : (Mn ) est une martingale et (b) : 1{T =n} U est Fn -mesurable par le lemme.
- En utilisant (1) avec T = T1 et T = T2 succesivement, on trouve donc que
(c)
Int
egrale stochastique discr`
ete
D
efinition 1.8.16. Un processus (Hn , n N) est dit previsible (par rapport `a une filtration
(Fn , n N)) si H0 = 0 et Hn est Fn1 -mesurable n 1.
Soit (Hn ) un processus previsible et (Mn ) une martingale. On pose I0 = 0 et
In = (H M )n =
n
X
i=1
Hi (Mi Mi1 ),
n 1.
In represente le gain effectue au temps n en appliquant la strategie (Hn ) sur le jeu (Mn ) ;
Hn represente la mise au temps n, qui ne doit logiquement dependre que des observations
passees (la tribu Fn1 ), sinon il y a delit dinitie (i.e. on a une information sur le futur du
processus).
Proposition 1.8.17. Si Hn est une v.a. bornee (i.e. |Hn ()| Kn , ) n 1, alors
le processus (In ) est une martingale par rapport `a (Fn ).
Demonstration. Il est clair que In est Fn -mesurable n N. Dautre part, on a
E(|In |)
n
X
n=1
n
X
i=1
E(In+1 |Fn ) = E(In |Fn ) + E(Hn+1 (Mn+1 Mn )|Fn ) = In + Hn+1 E(Mn+1 Mn |Fn ) = In p.s.
ce qui prouve les points (i) et (ii) de la definition dune martingale.
20
2Hn si X1 = . . . = Xn = 1,
0
d`es que Xn = +1.
Alors In = ni=1 Hi (Mi Mi1 ) = ni=1 Hi Xi est une martingale par la proposition ci-dessus
(chacune des v.a. Hi est clairement bornee). En particulier E(In ) = E(I0 ) = 0. On definit le
temps darret
T = inf{n 1 : Xn = +1}.
P
1.9
Cours 5
Vecteur al
eatoire
D
efinition
1.9.1. Un vecteur aleatoire (de dimension n 1) est une application
(
Rn
telle que
X:
7 X() = (X1 (), . . . , Xn ())
{ : X() B} F,
B B(Rn ).
{ : X1 () t1 , . . . , Xn () tn } F,
Remarque 1.9.3. Si X est un vecteur aleatoire, alors chaque Xi est une v.a. aleatoire, mais
la reciproque nest pas vraie.
Deux types particuliers de vecteurs al
eatoires
A) Vecteur aleatoire discret : X prend ses valeurs dans un ensemble denombrable D.
B) Vecteur aleatoire continu : P({X B}) = 0 si |B| = 0. Sous cette condition, le theor`eme
de Radon-Nikodym assure lexistence dune fonction borelienne fX : Rn R (appelee
densite conjointe) telle que fX (x1 , . . . , xn ) 0,
Z
Rn
Remarque 1.9.4. A) X est un vecteur aleatoire discret ssi chaque Xi est une v.a. discr`ete.
B) Si X est un vecteur aleatoire continu, alors chaque Xi est une v.a. aleatoire continue,
mais la reciproque nest pas vraie : soit U est une v.a. continue ; alors le vecteur aleatoire
X = (U, U ) nest pas un vecteur aleatoire continu, car pour B = {(x, y) R 2 : x = y}, on a
P({X B}) = 1 alors que |B| = 0.
Esp
erance et matrice de covariance dun vecteur al
eatoire
Soit X un vecteur aleatoire (tel que Xi est une v.a. de carre integrable, i {1, . . . , n}).
Alors
(
i,j=1
ci cj Qij =
n
X
i,j=1
ci cj Cov(Xi , Xj ) = Cov
n
X
i=1
c i Xi ,
n
X
j=1
cj Xj = Var
n
X
i=1
ci Xi 0.
Rappel : Une matrice symetrique Q est definie positive ssi toutes ses valeurs propres sont
positives (i.e. 0).
Proposition 1.9.6. Si (X1 . . . Xn ) sont des v.a. independantes et de carre integrable,
alors X = (X1 , . . . , Xn ) est un vecteur aleatoire et Cov(X) est une matrice diagonale
(i.e. Cov(Xi , Xj ) = 0, i 6= j).
Vecteur al
eatoire gaussien
Convention : si Y () c, alors on dit par abus de langage que Y est une v.a. gaussienne
(de moyenne c et de variance nulle) et on note Y N (c, 0).
D
efinition 1.9.7. Un vecteur aleatoire X = (X1 , . . . , Xn ) est dit gaussien si c1 , . . . , cn R,
la v.a. c1 X1 + . . . + cn Xn est une v.a. gaussienne.
Exemple 1.9.8. Si X1 , . . . , Xn sont independantes et gaussiennes, alors X = (X1 , . . . , Xn )
est un vecteur gaussien.
Proposition 1.9.9. Soit X un vecteur aleatoire gaussien. Alors les v.a. X1 , . . . , Xn sont
independantes ssi la matrice Cov(X) est diagonale.
22
Remarque 1.9.10. - Il nest pas obligatoire quun vecteur forme de deux v.a. gaussiennes
X1 et X2 soit un vecteur gaussien.
- De la meme mani`ere, il nest pas vrai que deux v.a. gaussiennes decorrelees sont toujours
independantes (cf. exercices).
Notation : Si X est un vecteur gaussien de moyenne m et de (matrice de) covariance Q, on
note X N (m, Q).
D
efinition 1.9.11. Soit X un vecteur aleatoire gaussien de dimension n, moyenne m et
covariance Q. X est dit degenere si rang(Q) < n.
Rappel : Une matrice symetrique Q verifie :
rang(Q) < n ssi Q est non-inversible ssi det(Q) = 0
ssi Q admet au moins une valeur propre nulle.
NB : rang(Q) = nombre de valeurs propres non-nulles.
Proposition 1.9.12. Soit X un vecteur aleatoire gaussien non-degenere de dimension n,
moyenne m et covariance Q. Alors X un vecteur aleatoire continu dont la densite conjointe
fX est donnee par
n
1 X
fX (x1 , . . . , xn ) = q
(xi mi )(Q1 )ij (xj mj ) .
exp
2 i,j=1
(2)n det Q
k
X
j=1
ij Uj ,
j {1, . . . , n}.
En mots, cette proposition dit quun vecteur gaussien dont la matrice de covariance est de
rang k peut toujours sexprimer en termes de k variables gaussiennes independantes. Cette
decomposition correspond a` la decomposition de la matrice Q dans la base de ses vecteurs
propres (associes aux valeurs propres non-nulles).
23
2
2.1
Calcul stochastique
Processus al
eatoire `
a temps continu
D
efinition 2.1.1. Un processus aleatoire `a temps continu est une famille de v.a. (X t , t
R+ ) definie sur (, F, P). On peut egalement le voir comme une fonction aleatoire :
X:
{fonctions de R+ dans R}
7 {t 7 Xt ()}
Remarque 2.1.2. Pour caracteriser une v.a. X, il suffit de donner sa loi P(X x), x R.
Que faut-il pour caracteriser un processus (Xt , t R+ ) ?
- 1`ere idee : donner P(Xt x), t R+ , x R.
(1)
C
a nest pas suffisant : si on demande p.ex. que Xt N (0, t), t R+ , alors Xt = t Y , o`
u
(2)
Y N (0, 1) et Xt = mouvement brownien (voir plus loin) satisfont tous deux la condition
ci-dessus, mais ces deux processus ne se ressemblent pas du tout !
- 2`eme idee : donner P(Xt x, Xs y), t, s R+ , x, y R.
C
a nest pas suffisant non plus...
- n-`eme idee : donner P (Xt x1 , . . . , Xtn xn ), n 1, t1 . . . tn R+ , x1 . . . xn R.
Cest suffisant, mais a-t-on toujours besoin de toutes ces informations pour caracteriser un
processus ?
D
efinition 2.1.3. Les v.a. Xt Xs , t > s 0, sont appelees des accroissements du processus
(Xt ).
2.1.1
Processus `
a accroissements ind
ependants et stationnnaires
2.1.2
D
efinition 2.1.5. (1`ere caracterisation du mouvement brownien standard)
Un mouvement brownien standard (abrege m.b.s.) est un processus aleatoire `a temps continu
(Bt , t R+ ) tel que
i)
B0 = 0 p.s.,
ii) (Bt ) est `a accroissements independants et stationnaires,
iii) Bt N (0, t), t > 0,
En appliquant la loi des grands nombres, on trouve encore que Btt 0 p.s. lorsque t .
Bt
De plus, on a
N (0, 1), pour tout t > 0 (pas besoin par contre du TCL pour le prouver !).
t
On voit donc que le m.b.s. est bien une generalisation a` temps continu de la marche aleatoire
symetrique sur Z.
Il existe plusieurs mani`eres de construire un mouvement brownien standard. Citons trois
dentre elles.
I. Construction de Kolmogorov
Un theor`eme dexistence general (le theor`eme de Kolmogorov) implique quil existe un
processus (Bt ) qui verifie (i) - (iii). A priori, il nest pas clair que ce processus poss`ede des
trajectoires continues, mais un second theor`eme (baptise crit`ere de continuite de Kolmogorov) permet de montrer que
E(|Bt Bs |2p ) Cp |t s|p ,
Sn
n n
Z N (0, 1).
25
(n)
Bt
Snt
Snt
t Z N (0, t),
= = t n
n
nt
(n)
P(Bt
Y
nt .
n
x) n
P(Bt x).
(n)
P(Bt1 x1 , . . . , Btm xm ),
P(Bt1 x1 , . . . , Btm xm ) n
(n)
i.e. que la suite de processus (Bt ) converge en loi vers le m.b.s. (Bt ).
III. Construction par s
erie de Fourier
Soit t [0, ]. On pose
8 X sin(nt)
Bt =
n ,
n=1 n
o`
u (n ) est une suite de v.a. i.i.d. N (0, 1). Alors Bt est une v.a. gaussienne (car cest une
somme de v.a. gaussiennes independantes), E(Bt ) = 0 et
E(Bt2 )
8 X
8 X
sin(nt) sin(mt)
(sin(nt))2
E(n m ) = 2
= t.
= 2
n,m=1 n
n
n=1
n2
On peut egalement verifier que le processus (Bt ) ainsi defini a toutes les proprietes dun
m.b.s. A laide de cette troisi`eme construction, effectuons un petit calcul (formel) :
!
8 X sin(nt)
8X
Bt
=
n =
cos(nt) n .
t
n=1 t
n
n=1
La v.a.
mais
Bt
t
est donc une v.a. gaussienne (car cest une somme de v.a. gaussiennes independantes),
!2
B
8 X
t
=
E
(cos(nt))2 = .
2
n=1
Il y a donc une contradiction, car une v.a. gaussienne ne peut pas avoir une variance infinie.
t
En conclusion, la v.a. B
nest pas bien definie, i.e. la fonction t 7 Bt est continue mais pas
t
derivable. On reverra ceci de mani`ere plus rigoureuse ci-apr`es.
Remarque 2.1.7. Il est toutefois possible de definir la derivee du mouvement brownien au
sens des distributions ; lobjet representant la derivee est appele bruit blanc.
26
1) Bt
= Bt+T BT , t R+ ( stationnarite) ;
(3)
2) soit T R+ fixe : Bt
3) soit T R+ fixe : Bt
(4)
5) Bt
1 Bat ,
a
t R+ ( loi dechelle) ;
(5)
Processus gaussien
D
efinition 2.1.8. Un processus gaussien est un processus (Xt , t R+ ) tel que (Xt1 , . . . , Xtn )
est un vecteur aleatoire gaussien n 1 et t1 , . . . , tn R+ . Ceci revient `a dire que c1 Xt1 +
. . . + cn Xtn est une v.a. gaussienne n 1, t1 , . . . , tn R+ et c1 , . . . , cn R.
Pour un vecteur aleatoire (pas forcement gaussien), on definit encore :
- La fonction m : R+ R donnee par m(t) = E(Xt ) et appelee la moyenne du processus.
- La fonction K : R+ R+ R donnee par K(t, s) = Cov(Xt , Xs ) et appelee la covariance
du processus.
Proposition 2.1.9. (valide pour tout processus aleatoire)
K est symetrique : K(t, s) = K(s, t), s, t R+ .
P
K est definie positive : ni,j=1 ci cj K(ti , tj ) 0, n 1, c1 , . . . , cn R, t1 , . . . , tn R+ .
La demonstration de cette proposition est identique a` celle donnee pour un vecteur aleatoire.
Demonstration. Il faudrait verifier que c1 Bt1 + . . . + cn Btn est une v.a. gaussienne.
Verifions seulement que Bt + Bs est gaussienne : Bt + Bs = (Bt Bs ) + 2 Bs , cest donc une
v.a. gaussienne, car la somme de deux v.a. gaussiennes independantes est encore gaussienne.
Soit maintenant t s 0 :
m(t) = E(Bt ) = 0,
K(t, s) = Cov(Bt , Bs ) = E(Bt Bs ) = E((Bt Bs + Bs ) Bs )
= E((Bt Bs ) Bs ) + E(Bs2 ) = 0 + s,
car (Bt Bs )Bs . On a donc K(t, s) = min(t, s).
2.1.4
Cours 6
Processus de Markov
o`
u (y) = E(f (X + y)),
avec X N (0, t s). Ceci montre quune expression a priori compliquee faisant intervenir
une esperance conditionnelle dune fonction du mouvement brownien peut se reduire a` une
simple esperance dune fonction dune loi gaussienne.
28
2.1.5
Martingale `
a temps continu
D
efinition 2.1.14. Soit (, F, P) un espace de probabilite.
- Une filtration est une famille (Ft , t R+ ) de sous-tribus de F tq Fs Ft , t s 0.
- Un processus (Xt ) est adapte `a (Ft ) si Xt est Ft -mesurable t 0.
u FtX =
- La filtration naturelle dun processus (Xt , t R+ ) est donnee par (FtX , t R+ ), o`
(Xs , 0 s t).
D
efinition 2.1.15. Un processus (Mt ) adapte `a (Ft ) tel que
(
i) E(|Mt |) < ,
ii) E(Mt |Fs ) = Ms
t 0,
p.s., t > s 0,
est appele une martingale (`a temps continu). On definit de mani`ere similaire une sousmartingale et une sur-martingale (`a temps continu), avec les inegalites correspondantes.
Proposition 2.1.16. Le mouvement brownien standard (Bt , t R+ ) est une martingale par
rapport `a sa filtration naturelle (FtB , t R+ ).
q
i) Mt = Bt2 t,
ii) Nt = exp(Bt 2t ).
Th
eor`
eme de L
evy (3`eme caracterisation du mouvement brownien standard)
Soit (Xt ) un processus a` trajectoires continues, adapte a` une filtration (Ft ) et tel que
(
D
efinition 2.1.19. Soit (Ft , t R+ ) une filtration.
- Un temps darret T par rapport `a (Ft ) est une v.a. T `a valeurs dans R+ {+} telle que
{T t} Ft , t R+ .
- On definit
FT = {A F : A {T t} Ft , t R+ }.
- Si (Xt ) est un processus adapte `a la filtration (Ft ), on pose XT () = XT () ().
29
Th
eor`
eme darr
et
Soient (Mt ) une martingale continue (par rapport a` (Ft )) et T1 , T2 deux temps darret tels
que 0 T1 () T2 () K < , . Alors
E(MT2 |FT1 ) = MT1
a)
b)
P(sup0st |Ms | )
E(|Mt |)
,
t > 0, > 0,
t > 0.
Remarque 2.1.21. Ces inegalites sont precieuses, car elles permettent de borner (en esperance)
le supremum dune martingale sur un intervalle par quelque chose qui ne depend que de la
valeur de la martingale a` la fin de lintervalle.
Demonstration. (inegalites de Doob)
a) Par linegalite de Jensen, le processus (|Mt |, t R+ ) est une sous-martingale. On definit
T1 = inf{s 0 : |Ms | } t,
T2 = t.
On voit alors que 0 T1 T2 = t. En appliquant le theor`eme darret ci-dessus a` la sousmartingale (|Mt |), on trouve donc que
|MT1 | E(|Mt ||FT1 ).
En multipliant par 1{|MT1 |} , on trouve encore
|MT1 | 1{|MT1 |} E(|Mt | 1{|MT1 |} |FT1 ),
30
(2)
2x P({M x}) dx
E((M )2 ) 2 E(|Mt |2 )
E(M )2 ),
autrement dit,
q
E((M )2 )
31
2.2
Int
egrale de Riemann-Stieltjes
Int
egrale de Riemann
Soit t > 0 et f : R+ R continue. On definit
Z
(n)
t
0
f (s) ds = n
lim
(n)
(n)
f (si ) (ti
i=1
(n)
(n)
(n)
(n)
n
X
(n)
ti1 ),
(n)
n
X
i=1
o`
u le supremum est pris sur toutes les partitions (t0 , . . . , tn ) de [0, t], avec n arbitraire.
Remarque 2.2.1. - Si g est croissante, alors g est a` variation bornee, car
n
X
i=1
|g(ti ) g(ti1 )| =
n
X
i=1
n
X
i=1
|g(ti ) g(ti1 )| =
n
n Z t i
X
X
0
sup |g 0 (s)| (ti ti1 )
g
(s)
ds
ti1
s[t
,t ]
i=1
i=1
sup |g 0 (s)|
s[0,t]
n
X
i=1
i1 i
n
X
i=1
32
Int
egrale de Riemann-Stieltjes
Soit t > 0, f : R+ R continue et g : R+ R a` variation bornee. On definit
Z
(n)
t0
f (s) dg(s) = n
lim
(n)
t1
(n)
si
n
X
i=1
(n)
(n)
(n)
(n)
(n)
(n)
o`
u0=
<
< . . . < t(n)
[ti1 , ti ] et (t0 , . . . , t(n)
n = t,
n ) est une suite de parti(n)
(n)
tions de [0, t] telle que limn max1in |ti ti1 | = 0.
Proposition 2.2.2. - Si f est continue et g est contin
ument derivable, alors
Z
t
0
f (s) dg(s) =
t
0
t
0
t
f (s) df (s) =
f (t)2 f (0)2
,
2
2
t
0
g(s) df (s).
Z t
Z t
Hs () dVs ()
Hs dVs () =
0
t
0
Hs dBs = Ht Bt H0 B0
t
0
Bs dHs .
Le terme de droite est Rbien defini, car (Ht ) est a` variation bornee et (Bt ) est continu. Mais
comment definir alors 0t Bs dBs ? ? ?
33
2.3
Variation quadratique
Cours 7
(n)
hBit
2
X
i=1
it
2n
(i1) t
2n
Proposition - D
efinition. Pour t > 0,
(n)
lim hBit
n
= t p.s.
Demonstration. Soient Xi = B
it
2n
n
(i1)t
2n
(n)
hBit =
(n)
Var(hBit ) =
=
2
X
i=1
2n
X
E(Xi2 )
P 2n
i=1
Xi2 . De plus, on a
2
X
t
n
i=1 2
2n
X
Var(Xi2 ) =
i=1
2n
X
i=1
, 1 i 2n (t et n fixes).
n
(n)
E(hBit )
i=1
t
t
4n 4n
= t,
(E(Xi4 ) E(Xi2 )2 )
t2
2n1
En consequence,
n=1
(n)
P(|hBit t| > )
t2
1 X
1 X
(n)
Var(hBi
)
=
< .
t
2 n=1
2 n=1 2n1
Corollaire 2.3.1.
(i1) t
B 2itn B
=
lim
2n
i=1
p.s.
Demonstration. Supposons par labsurde que P(limn ni=1 |B( 2itn ) B( (i1)t
)| < ) > 0.
2n
Alors en reprenant la notation de la demonstration precedente, on a
P
hBit =
(n)
lim hBit
n
= n
lim
2
X
Xi2
i=1
n 1i2n
lim
2
X
i=1
|Xi | .
Vu que le processus (Bt ) est continu, il est uniformement continu sur [0, t], et donc
lim max |Xi | = 0 p.s.
n 1i2n
lim
2
X
i=1
35
Remarque 2.3.5. - Noter quon a toujours par definition : E(hM it ) = E(Mt2 ) E(M02 ).
- Du fait que le processus (hM it ) est croissant, cest un processus a` variation bornee (i.e. la
variation quadratique dune martingale est un processus a` variation bornee).
- Si (Mt ) est une martingale continue a` variation bornee, alors Mt = M0 pour tout t > 0
(i.e. Mt est constante).
Proposition 2.3.6. Si (Mt ) est une martingale continue de carre integrable, alors on a :
n
(n)
hM it
2
X
i=1
it
2n
(i1) t
2n
hM it ,
t 0.
Remarque 2.3.7. - A priori, la convergence na lieu quen probabilite (alors quelle a lieu
presque s
urement dans le cas o`
u (Mt ) est un mouvement brownien standard).
- Bien que la variation quadratique soit une quantite aleatoire, la proposition ci-dessus illustre
le fait quelle est une generalisation de la notion de variance pour des processus aleatoires.
D
efinition 2.3.8. Soient (Mt ), (Nt ) deux martingales continues de carre integrable. On
definit la covariation quadratique de (Mt ) et (Nt ) par
hM, N it =
1
(hM + N it hM N it ).
4
(n)
hM, N it
2
X
i=1
it
2n
(i1) t
2n
it
2n
(i1) t
2n
hM, N it ,
t 0.
Remarque 2.3.11. De la meme mani`ere que ci-dessus, on voit que la covariation quadratique est en quelque sorte une generalisation de la covariance pour des processus aleatoires.
En particulier, elle est bilineaire et on a egalement la proposition suivante.
Proposition 2.3.12. (cf. proposition 1.5.12)
Soient (Mt ), (Nt ) deux martingales continues de carre integrable independantes et soit c R.
Alors
hM, N it = 0 et hcM + N it = c2 hM it + hN it .
La premi`ere egalite vient du fait que si (Mt ) et (Nt ) sont deux martingales independantes
de carre integrable, alors (Mt Nt ) est une martingale (mais la demonstration de ce fait est
plus longue quon pourrait imaginer).
36
Changement de temps
D
efinition 2.3.13. On appelle mouvement brownien standard par rapport `a une filtration (F t )
un mouvement brownien standard (Bt ) adapte `a (Ft ) et tel que
(Bt Bs ) Fs ,
t > s 0.
Proposition 2.3.14. Soit (Mt ) une martingale continue de carre integrable (par rapport `a
une filtration (Ft )) et telle que
lim hM it = p.s.
t
et
Bs = MT (s) ,
s R+ .
Alors le processus (Bs ) est un mouvement brownien standard par rapport `a (Gs ).
Demonstration. On utilise la version du theor`eme de Levy mentionnee ci-dessus. Par continuite de lapplication s 7 T (s) (qui provient de la continuite de t 7 hM it ), le processus
(Bs ) est continu. Dautre part, pour s2 > s1 0, on a, par le theor`eme darret :
E(Bs2 Bs1 |Gs1 ) = E(MT (s2 ) MT (s1 ) |FT (s1 ) ) = 0.
(NB : ici, T (s2 ) nest pas forcement borne (i.e. on nest pas s
ur que T (s2 )() K, ),
mais le theor`eme darret sapplique malgre tout). Le processus (Bs ) est donc une martingale
p.r. a` (Fs ). Elle est egalement de carre integrable et
E(Bs22 Bs21 |Gs1 ) = E(MT2 (s2 ) MT2 (s1 ) |FT (s1 ) ).
Par definition de la variation quadratique (et en utilisant a` nouveau le theor`eme darret), on
a
E(MT2 (s2 ) hM iT (s2 ) |FT (s1 ) ) = MT2 (s1 ) hM iT (s1 ) ,
i.e.
E(Bs22 Bs21 |Gs1 ) = E(hM iT (s2 ) hM iT (s1 ) |FT (s1 ) ) = E(s2 s1 |FT (s1 ) ) = s2 s1 .
Donc le processus (Bs2 s) est une martingale par rapport a` (Gs ), i.e. hBis = s p.s., et par
le th`eor`eme de Levy, (Bs ) est un mouvement brownien standard par rapport a` (Gs ).
37
Corollaire 2.3.15. Toute martingale continue de carre integrable telle que limt hM it =
p.s. secrit Mt = B(hM it ), o`
u (Bt ) est un mouvement brownien standard.
On voit donc quune martingale se comporte generalement comme un mouvement brownien
(en ce qui concerne lallure des trajectoires). En ce sens, le mouvement brownien est la
martingale typique.
Attention ! Du corollaire ci-dessus, on pourrait avoir envie de conclure que toute martingale
est un processus gaussien. C
a nest evidemment pas vrai, car le changement de temps t 7
hM it est lui-meme aleatoire (en general), et donc la variable aleatoire B(hM i t ) nest pas
necessairement gaussienne. Il est par contre vrai que si (hM it ) est un processus deterministe,
alors (Mt ) est un processus gaussien.
2.4
Int
egrale stochastique (ou int
egrale dIt
o)
t
0
Hs dBs , t [0, T ]
pour un processus (Ht ) verifiant certaines proprietes. Pour cela, on proc`ede en plusieurs
etapes (cf. construction de lesperance).
Remarque 2.4.1. En mathematiques financi`eres, T represente lhorizon du marche (desormais,
on travaillera toujours a` horizon fini, ce qui simplifie les choses), (BRt ) represente levolution
du prix dun actif, (Ht ) la strategie dinvestissement sur cet actif et 0t Hs dBs la gain realise
au temps t avec la strategie H. De la meme mani`ere qu`a temps discret, (Ht ) doit etre
previsible pour quil ny ait pas delit dinitie. Nous allons voir une mani`ere simple de
traduire cette propriete de previsibilite a` temps continu.
Premi`
ere
etape
D
efinition 2.4.2. Un processus simple previsible (par rapport `a une filtration (F t )) est un
processus (Ht , t [0, T ]) tel que
Ht =
n
X
i=1
t [0, T ],
o`
u 0 = t0 < t1 < . . . < tn = T forme une partition de [0, T ] et Xi est une v.a. Fti1 -mesurable
et bornee i {1, . . . , n}.
38
On voit donc que sur lintervalle ]ti1 , ti ], la valeur du procesus (Ht ) est determinee par
linformation Fti1 , do`
u le nom de previsible (lappellation simple vient quant a` elle du
fait que le processus ne prend quun nombre fini de valeurs (aleatoires !)). On pose
(H B)T
T
0
Hs dBs =
n
X
i=1
Xi (Bti Bti1 ).
Cette definition de lintegrale stochastique pour des processus simples previsibles est univoque (mais ca demande un petit travail de verification) et lintegrale est lineaire en H,
i.e.
((c H + K) B)T = c (H B)T + (K B)T .
Remarque 2.4.3. Cette integrale represente en quelque sorte laire sous la courbe t H t ,
lorsquon mesure les intervalles ]ti1 , ti ] a` laide du brownien (Bt ). Ici, il faut faire attention
quand on parle de mesure car 1) la mesure de lintervalle Bti Bti1 peut etre negative ;
2) cette mesure ne verifie pas non plus laxiome (ii) de la definition 1.1.9.
Proposition 2.4.4. On a les egalites suivantes :
E((H B)T ) = 0
et E((H B)2T ) = E
T
0
Hs2 ds .
n
X
i=1
n
X
i=1
n
X
i=1
n
X
i=1
E Xi E(Bti Bti1 ) = 0,
o`
u on a utilise le fait que Xi est Fti1 -mesurable et (Bti Bti1 )Fti1 . Pour lisometrie, on
calcule
E((H B)2T ) =
=
n
X
i,j=1
n
X
i=1
n
X
i,j=i
i<j
B)2T )
n
X
i=1
+2
i,j=1
i<j
=
=
n
X
n
X
i=1
i=1
n
X
i,j=1
i<j
t
0
Hs2
ds = E
n Z
X
ti
i=1 ti1
Hs2
ds = E
n
X
Xi2
i=1
(ti ti1 ) ,
Remarque 2.4.5. Pour etre tout a` fait exact, lisometrie dIto dit encore que si H et K
sont deux processus simples previsibles, alors
E((H B)T (K B)T ) = E
T
0
Hs Ks ds .
La verification est similiaire a` celle effectuee ci-dessus, quoiquun peu plus technique.
Deuxi`
eme
etape
Soit (Ht , t [0, T ]) un processus simple previsible comme defini ci-dessus et t [0, T ]. On
pose
(H B)t
t
0
n
X
i=1
Xi (Bti t Bti1 t ).
E((HB)2t )
= E(((H
1[0,t] )B)2T )
=E
T
0
Hs2
1[0,t] (s) ds = E
ts
0
Hr Kr dr .
t
0
Hs2 ds .
Cours 8
k1
X
i=1
Proposition 2.4.7. Le processus ((H B)t , t [0, T ]) est une martingale continue de carre
integrable.
Demonstration. Par la remarque ci-dessus et la continuite de (Bt ), le processus ((H B)t )
est clairement continu a` linterieur des intervalles ]tk1 , tk [. Aux points limites, il est aise de
verifier que le processus reste continu egalement. Dautre part, lisometrie montree plus haut
dit que ((HB)t ) est un processus de carre integrable, donc par linegalite de Cauchy-Schwarz,
E(|(H B)t |)
k1
X
i=1
i=k+1
k1
X
i=1
i=k+1
k1
X
i=1
par la remarque ci-dessus. Le processus ((H B)t ) est donc une martingale car pour t s,
on a
E((H B)t |Fs ) = E(E((H B)T |Ft )|Fs ) = E((H B)T |Fs ) = (H B)s .
sup (H
t[0,T ]
B)2t
4 E (H
41
B)2T
= 4E
T
0
Hs2
ds .
Troisi`
eme
etape
On etend maintenant lintegrale (H B) par continuite a` lensemble
HT =
T
0
Hs2
ds < .
Cet ensemble est un espace vectoriel norme et complet (ou espace de Banach), muni de la
norme k kT,1 definie par
Z t
2
2
kHkT,1 = E
Hs ds .
0
Remarque 2.4.8. Un processus adapte et continu a` gauche est lequivalent a` temps continu
dun processus previsible a` temps discret : la valeur dun tel processus a` linstant t ne peut
pas differer trop de sa valeur a` linstant t , instant o`
u il est Ft -mesurable car adapte. Il
existe toutefois une notion plus generale de processus previsible a` temps continu, mais nous
nentrerons pas dans ces details dans ce cours.
Dautre part, on entend par limite a` droite que le processus peut etre discontinu a` droite,
mais doit tout de meme avoir une limite depuis la droite (i.e. le futur). Cette restriction
est essentiellement technique ; elle assure que le processus soit suffisamment regulier.
On a maintenant besoin du lemme suivant.
Lemme 2.4.9. H HT , il existe une suite (H (n) ) de processus simples previsibles tels que
E
T
0
(Hs(n)
Hs ) ds
0.
Consequence : Du fait que la suite (H (n) ) converge, cest egalement une suite de Cauchy :
E
T
0
(Hs(n)
B)t )
Hs(m) )2
ds
n,m
0.
Et donc, on a
E
sup ((H
t[0,T ]
(n)
B)t (H
(m)
= E
4E
42
sup ((H
t[0,T ]
T
0
(n)
(m)
) B)t )
(Hs(n) Hs(m) )2 ds
n,m
0.
La suite de processus ((H (n) B)) est donc une suite de Cauchy dans lespace de Banach MT
defini par
MT = {(Mt , t [0, T ]) martingale continue de carre integrable telle que M0 = 0}
et muni de la norme k kT,2 definie par
kM k2T,2 = E
sup Mt2 .
t[0,T ]
Le fait que MT soit complet (i.e. que toute suite de Cauchy dans MT converge dans MT )
implique que la suite ((H (n) B)) converge dans MT . Il existe donc un element (H B) MT
tel que
!
t[0,T ]
0.
(3)
HT M T ,
H 7 (H B).
donc la suite ((H (n) B)) converge uniformement sur [0, T ] en probabilite vers (H B).
- Attention : la construction de lintegrale stochastique ci-dessus implique quelle nest definie
qu`a un ensemble negligeable pr`es (cf. definition de lesperance conditionnelle). Plus important : lintegrale stochastique nest pas definie trajectoire par trajectoire, i.e. par :
pour un donne, il est impossible de dire ce que vaut (H B)T () si on ne connat
que les trajectoires t 7 Ht () et t 7 Bt () ; aussi etrange que cela puisse paratre, il faut
connatre les processus (Ht ) et (Bt ) en entier !
Propri
et
es de lint
egrale stochastique
- Linearite : ((c H + K) B)t = c (H B)t + (K B)t p.s.
R
- Esperance nulle et isometrie : E((H B)t ) = 0 et Cov((H B)t , (K B)s ) = E( 0ts Hr Kr dr ).
- (H B) est une martingale continue de carre integrable telle que
E
sup (H
t[0,T ]
B)2t
4E
43
T
0
Hs2
ds .
Les proprietes ci-dessus ont dej`a ete verifiees lors de la seconde etape pour des processus
H simples previsibles (on verifie le cas general en utilisant la continuite). Citons encore une
propriete qui na pas ete mentionnee precedemment et qui est plus delicate a` demontrer,
mais tr`es utile en pratique :
Z
t
h(H B)it =
Hs2 ds,
ou plus generalement,
Hs Ks ds.
(n)
i1
i1 i
(n)
(n)
o`
u 0 = t0 < t1 < . . . < t(n)
n = t et limn max1in |ti
(H (n) B)T =
n
X
i=1
(n)
ti1 | = 0. Alors on a
i1
T
0
Hs dBs .
Mais : 1) La convergence a lieu seulement en probabilite (on peut en fait montrer que si on
exige que la convergence ait lieu presque s
urement pour tout processus continu H, alors le
processus B doit etre a` variation bornee).
(n)
(n)
(n)
T
0
Hs dBs = n
lim
n
X
1
i=1
i1
o`
u la limite est une limite en probabilite. On peut montrer que (cf. exercices) :
(H B)T = (H B)T +
44
1
hH, BiT
2
o`
u (H B)T est lintegrale definie au sens dIto et
hH, BiT = n
lim
n
X
i=1
i1
i1
o`
u la limite est a` nouveau une limite en probabilite (NB : si H et B sont des martingales
continues de carre integrable, alors la definition de hH, BiT ci-dessus concide avec celle de
covariation quadratique donnee plus haut).
Ainsi, si au lieu de considerer le point a` gauche de lintervalle, on choisit la moyenne entre le
point a` gauche et le point a` droite, alors la valeur de lintegrale change. De plus, le processus
((H B)t ) nest pas une martingale. Par contre, on verra que lintegrale de Stratonovich
presente des avantages du point de vue du calcul differentiel.
Int
egrale stochastique
par rapport `
a une martingale
R
R
On peut definir 0t Hs dMs de la meme mani`ere que 0t Hs dBs si on suppose que M est une
martingale continue de carre integrable.
1. Pour (Ht ) un processus simple donne par Ht =
(H M )t
t
0
Hs dMs =
n
X
i=1
Pn
i=1
Xi (Mti t Mti1 t )
et on verifie que
E((H M )t ) = 0,
E((H
M )2t )
=E
t
0
Hs2
dhM is .
Remarquer que le terme ds apparaissant dans lisometrie pour (H B)t a logiquement ete
remplace par dhM is pour tenir compte de la variation quadratique hM is de la martingale
qui nest pas forcement egale a` s.
Dautre part, on verifie que le processus ((H M )t , t [0, T ]) est egalement une martingale
continue de carre integrable.
2. Lextension de lintegrale a` un processus (Ht ) adapte, continu a` gauche, limite a` droite et
tel que
!
Rt
0
Hs dBs .
45
Rt
0
Hs dMs :
Rt
0
Hs2 dhM is .
h(H M ), (K N )it =
Rt
0
Rt
0
Rt
0
Hs2 dhM is ).
Hs Ks dhM, N is ).
Hs Ks dhM, N is .
Rt
Rt
0
Ks dBs , alors
Xt =
t
0
Hs Ks dBs
et hXit =
t
0
T MT MT ,
H
(H, M ) 7 (H M ),
T est lensemble des processus (Ht ) adaptes, continus a` gauche, limites a` droite et tels
o`
uH
R
que E( 0T Hs2 dhM is ) < .
46
2.5
Formules dIt
o
Cours 9
2.5.1
Formules de base
Jusqu`a present, on a defini lintegrale stochastique, mais il nous manque encore des r`egles
de calcul. La premi`ere r`egle de calcul est la suivante.
Th
eor`
eme 2.5.1. Soit (Bt , t R+ ) un mouvement brownien stantard par rapport `a (Ft , t
+
R ) et f C 2 (R) (i.e. f, f 0 et f 00 sont des fonctions continues). On suppose de plus que
E
(f (Bs )) ds < ,
t > 0.
(4)
t
0
f 0 (Bs ) dBs +
1 Z t 00
f (Bs ) ds p.s.
2 0
(5)
n
X
i=1
i1
(n)
o`
u 0 = t0 < t1 < . . . < t(n)
n = t est une suite de partitions de [0, t] telle que
(n)
n 1in
(n)
ti1 | = 0.
r(h)
h2
f (Bt ) f (B0 )
=
P
n
X
i=1
Z t
0
f (Bt(n) ) (Bt(n)
i1
f 0 (Bs ) dBs +
1
(n)
Bt(n) ) + f 00 (Bt(n) ) (Bt(n) Bt(n) )2 + ri
i1
i
i1
i1
2
1 Z t 00
f (Bs ) dhBis + 0,
2 0
47
Remarque 2.5.3. Cette demonstration evite un tr`es grand nombre de details techniques
concernant la convergence des divers termes. Notamment, il faut choisir les points B t(n) (et
i1
non Bt(n) ou autre chose) pour le developpement de Taylor, ce qui napparat pas clairement
i
ci-dessus. Remarquer dautre part que dans le cas o`
u f 00 (x) = 1, on a dej`a vu que
n
X
i=1
1 (Bt(n) Bt(n) )
i
i1
hBit =
t
0
1 dhBis .
t
0
1 dBs + 0,
t
0
2Bs dBs +
Z t
1Z t
2 ds = 2 Bs dBs + t,
2 0
0
Rt
autrement dit : Bt2 t = 2 0 Bs dBs est une martingale, Rce quon avait d
ej`a montre dune autre
Rt
t
2
mani`ere (noter que la condition (4) est verifiee car E( 0 (2Bs ) ds) = 0 4s ds = 2t2 < ).
Exemple 2.5.6. Soit f (x) = ex : f 0 (x) = f 00 (x) = ex , et donc
e
Bt
1=
t
0
Bs
1 Z t Bs
e ds.
dBs +
2 0
t
0
(eBs )2 ds =
t
0
E(e2Bs ) ds =
t
0
e2s ds =
e2t 1
< .
2
t
0
Xs dBs +
1Z t
Xs ds.
2 0
Autrement dit, on a trouve une equation (integrale) pour le processus (Xt ). Sous forme
diffentielle, celle-ci secrit
1
dXt = Xt dBt + Xt dt et X0 = 1.
2
t
Vu que dB
nexiste pas, on ne divise pas par dt. Noter que la forme differentielle ci-dessus
dt
na aucun sens en tant que telle et ne constitue quune notation pour la forme integrale donnee
48
plus haut. Lesprit humain cependant a plus de facilite a` raisonner avec des differentielles,
cest pourquoi celle-ci est largement repandue.
Sous une forme ou lautre, lequation ci-dessus est notre premier exemple dequation differentielle stochastique. Il se trouve que cest aussi un cas particulier de lequation de Black &
Scholes, largement utilisee en mathematiques financi`eres pour decrire levolution du prix
dun actif (noter que la solution Xt = eBt suit une loi log-normale et est toujours a` valeurs
positives).
Voyons maintenant une version leg`erement plus elaboree de la formule (5).
Th
eor`
eme 2.5.7. Soient (Bt ) un mouvement brownien standard et f C 1,2 (R+ R) (i.e
2
, f , f sont continues) telle que
f, f
t x x2
E
Z
t
0
t
0
f
(s, Bs )
x
!2
ds < ,
t > 0.
Z t
f
f
1 Z t 2f
(s, Bs ) ds +
(s, Bs ) dBs +
(s, Bs ) ds p.s.
t
2 0 x2
0 x
f
2f
f
(t, x) (u t) +
(t, x) (y x) + 2 (t, x)(y x)2 + r(u t, y x),
t
x
x
Remarque 2.5.8. Vu que la fonction t 7 t est une fonction a` variation bornee, il ny a pas
besoin deffectuer un developpement de la fonction f a` lordre 2 en t.
Exemple 2.5.9. Soit f (t, x) = x2 t :
f
t
= 1,
Z
Bt2 t =
t
0
f
x
= 2x,
2f
x2
= 2, donc
f
t
1 2f
2 x2
= 0 et
2Bs dBs .
f
t
Bt 2t
1=
= 12 f ,
t
49
f
x
eBs 2 dBs .
2f
x2
= f , donc a` nouveau
Le processus (Zt = eBt 2 ) est donc une martingale (appelee la martingale exponentielle
associee au mouvement brownien standard). De plus, il satisfait lequation differentielle stochastique :
Z
Zt 1 =
Zs dBs ,
et Z0 = 1.
Remarque 2.5.11. On sait que le processus Xt = eBt est une sous-martingale. En utilisant
lune ou lautre des formules dIto ci-dessus, on a vu quil y a deux mani`eres de lecrire :
Xt = 1 +
eBs dBs +
ou
Xt = e
t/2
t
0
ts
2
1 Z t Bs
e ds
2 0
eBs dBs .
Processus dIt
o (ou semi-martingale continue)
D
efinition 2.5.12. Un processus dIto est un processus (Xt ) pouvant se decomposer comme
(Xt = Mt + Vt ), o`
u:
(
(Mt ) est une martingale continue de carre integrable (p.r. `a une filtration (Ft )),
(Vt ) est un processus continu `a variation bornee, adapte `a (Ft ) et tel que V0 = 0.
Xt = X 0 +
o`
u (Ht ) est continu adapte et tel que E(
et adapte. (Xt ) un processus dIto.
Rt
Hs dBs +
t
0
Ks ds,
50
Exemple 2.5.16. Soit f C 2 (R) verifiant la condition (4). Alors (f (Bt )) est un processus
dIto, car par la formule (5),
f (Bt ) = f (B0 ) +
t
0
f 0 (Bs ) dBs +
1 Z t 00
f (Bs ) ds,
2 0
D
efinition 2.5.17. Pour t 0, la variation quadratique du processus dIto (X t = Mt + Vt )
est definie par
hXit = hM it ,
t
0
Hs2
dhXis E
On pose
(H X)t
t
0
Hs dXs =
Z
Z
t
0
t
0
Hs2
dhM is < .
Hs dMs +
t
0
Hs dVs .
Remarquer quune integrale stochastique par rapport a` un processus dIto (Xt ) est la somme
dune integrale stochastique pure et dune integrale de Riemann-Stieltjes.
2.5.3
Retour `
a lint
egrale de Stratonovich
t
0
Hs2
dhXis < ,
51
on pose
Z
t
0
1
hH, Bit .
2
On a la proposition suivante.
Proposition 2.5.20. Soient (Bt ) un mouvement brownien standard et f C 3 (R) telle que
E
t
0
Alors
f (Bt ) f (B0 ) =
t
0
t
0
f 0 (Bs ) dBs
p.s.
Ceci montre bien le cote agreable du calcul de Stratonovich par rapport au calcul dIto ;
labsence de terme supplementaire dans la formule ci-dessus permet en effet dutiliser des
r`egles de calcul classiques sans se poser de questions (faire attention toutefois quon a besoin
dhypoth`eses a priori plus fortes sur f ). On a p.ex.
Z
t
0
Bs dBs =
Bt2 B02
.
2
t
0
g(Bs ) dBs =
t
0
g(Bs ) dBs +
1
hg(B), Bit .
2
Or par hypoth`ese g C 2 (R) et E( 0t (g 0 (Bs ))2 ds) < , donc par la formule dIto,
g(Bt ) = g(B0 ) +
1 Z t 00
g (Bs ) dBs +
g (Bs ) ds = Mt + Vt ,
2 0
0
donc
hg(B), Bit = hM, Bit =
Autrement dit,
Z
t
0
t
0
t
0
g 0 (Bs ) ds.
1Z t 0
g (Bs ) ds
2 0
0
Z t
1 Z t 00
f 0 (Bs ) dBs +
=
f (Bs ) ds = f (Bt ) f (B0 ),
2 0
0
g(Bs ) dBs =
g(Bs ) dBs +
52
2.5.4
Formules dIt
o g
en
eralis
ees
Les deux formules qui suivent sont des generalisations des theor`emes 2.5.1 et 2.5.7, respectivement.
Th
eor`
eme 2.5.21. Soit (Mt ) une martingale continue de carre integrable et f C 2 (R)
telle que
Z t
0
2
E
(f (Ms )) dhM is < , t > 0.
0
Alors
f (Mt ) f (M0 ) =
t
0
f 0 (Ms ) dMs +
1 Z t 00
f (Ms ) dhM is
2 0
p.s.
Remarquer que seul le terme ds de la formule (5) a ete remplace par le terme dhM is pour
tenir compte de la variation quadratique de la martingale M .
Th
eor`
eme 2.5.22. Soient (Mt ) martingale continue de carre integrable, (Vt ) un processus
continu `a variation bornee et f C 1,2 (R R) telle que
t
0
f
(Vs , Ms )
x
!2
dhM is < ,
t > 0.
Z t
f
f
(Vs , Ms ) dVs +
(Vs , Ms ) dMs
0 x
0 t
1 Z t 2f
+
(Vs , Ms ) dhM is p.s.
2 0 x2
t
0
g 0 (Vs + Ms ) dVs +
t
0
g 0 (Vs + Ms ) dMs
1 Z t 00
g (Vs + Ms ) dhM is
2 0
p.s.
ou encore, en posant Xt = Mt + Vt :
g(Xt ) g(X0 ) =
t
0
g 0 (Xs ) dXs +
1 Z t 00
g (Xs ) dhXis
2 0
p.s.
Il ne faut cependant pas oublier ici que la premi`ere integrale est la somme de deux integrales
de natures differentes !
53
2.5.5
Formule dint
egration par parties (IPP)
Xt Y t X 0 Y 0 =
t
0
Xs dYs +
t
0
Ys dXs + hX, Y it
p.s.,
t
0
t
0
(Xs + Ys ) d(Xs + Ys ) + hX + Y it ,
(Xs Ys ) d(Xs Ys ) + hX Y it ,
Xs dYs +
t
0
Ys dXs + hX + Y it hX Y it .
t
0
Xs dYs +
t
0
Ys dXs + 0,
t
0
Z t
Z t
Z t
1
1
Ys ( Xs ) ds +
Ys Xs dBs =
Zs dBs ,
Xs ( Ys ) ds +
2
2
0
0
0
i.e. dZt = Zt dBt et Z0 = 1, qui est lequation quon avait trouvee plus haut.
Exemple 2.5.25. Soient Xt =
Xt Y t =
Rt
0
Hs dBs et Yt =
Rt
0
Ks dBs . On a
(Hs Ys + Ks Xs ) dBs +
54
t
0
Hs Ks ds.
2.6
2.6.1
Equations diff
erentielles stochastiques (EDS)
Cours 10
Equations homog`
enes en temps
et X0 = 1.
et X0 = x0 ?
(dans lexemple precedent, f (x) = x et g(x) = x). Pour repondre a` cette question, on a
besoin de la definition suivante.
D
efinition 2.6.1. Une fonction f : R R est dite (globalement) lipschitzienne sil existe
K 0 tel que
|f (y) f (x)| K|y x|,
x, y R.
Remarque 2.6.2. - Si f est lipschitzienne, alors f est uniformement continue (et donc
continue) sur R.
- Si f est contin
ument derivable et f 0 est bornee, alors f est lipschitzienne. En effet :
Z
|f (y) f (x)| =
y
x
zR
55
Th
eor`
eme 2.6.3. Soient (Bt , t R+ ) un mouvement brownien standard (p.r. `a une filtration (Ft , t R+ )), x0 R et f, g lipschitziennes. Alors il existe un unique processus
(Xt , t R+ ) continu et adapte `a (Ft , t R+ ) tel que
Xt = x 0 +
t
0
f (Xs ) ds +
t
0
g(Xs ) dBs
p.s.,
t R+ .
(7)
XT = (Xt , t [0, T ]) continu et adapte a` (Ft ) tel que E( sup Xt2 ) < .
0tT
Noter que lespace vectoriel XT muni de la norme kXk2T,2 = E(sup0tT Xt2 ) est complet. Pour
trouver le processus X XT solution de (7), on utilise la methode classique dite methode
diteration de Picard, i.e. on definit une suite de processus (X (n) ) de mani`ere recursive :
(0)
Xt
= x0 ,
(n+1)
Xt
= x0 +
t
0
f (Xs(n) ) ds
t
0
g(Xs(n) ) dBs .
Il se trouve que la suite (X (n) ) est une suite de Cauchy dans XT , donc elle converge car XT
est complet, et on montre que la limite de la suite est solution de (7). De plus, on montre
que si (Xt ) et (Yt ) sont des solutions de (7), alors Xt = Yt p.s. pour tout t R+ .
Pour chaque etape, on a recours a` lestimation centrale suivante (qui se demontre en utilisant
notamment linegalite de Doob (b) et lisometrie dIto) ; si on pose
(Y )t = x0 +
alors
E
t
0
f (Ys ) ds +
!
0tT
t
0
g(Ys ) dBs ,
T
(Ys Zs )2 ds .
56
Remarque 2.6.5. Il est important de voir que le schema diteration de Picard ci-dessus,
meme sil est explicite, se rapproche tr`es lentement de la solution (Xt ). Il est donc fortement
deconseille de lappliquer pour trouver une approximation numerique de la solution (pour
un schema numerique efficace, se referer a` la section 2.10).
Proposition 2.6.6. Le processus (Xt ) solution de lequation (7) est un processus dIto.
Demonstration. On peut decomposer la solution comme Xt = Mt + Vt , o`
u
Mt = x 0 +
t
0
g(Xs ) dBs
et Vt =
t
0
f (Xs ) ds.
Du fait que X XT et que g est lipscihtzienne, lintegrale stochastique 0t g(Xs ) dBs est bien
definie et (Mt ) est une martingale continue de carre integrable. Dautre part, du fait que
t 7 (Xt ) et f sont des fonctions continues, le processus (Vt ) est contin
ument derivable, donc
continu et a` variation bornee. Le processus (Xt ) est donc un processus dIto .
et X0 = x0 ,
avec R et , x0 > 0 fixes, est un exemple dequation admettant une unique solution
(Xt ), car f (x) = x et g(x) = x sont lineaires, donc lipschitziennes (pour la methode de
resolution, voir exercices).
Exemple 2.6.8. Soit a, x0 R et > 0 fixes. On consid`ere lEDS
dXt = aXt dt + dBt
et X0 = x0 .
(8)
Les fonctions f (x) = ax et g(x) sont lipschitziennes, donc il existe un unique processus
(Xt ) solution de lequation ci-dessus. Ce processus est appele le processus dOrnstein-Uhlenbeck.
Proposition 2.6.9. La solution de lEDS (8) est donnee par
Xt = eat x0 +
t
0
ea(ts) dBs .
Demonstration. Plutot que de verifier que le processus ci-dessus est magiquement solution
de (8) (noter que ceci a dej`a ete fait aux exercices !), on presente ici la methode de resolution
de lequation, qui est une adaptation de la methode dite de variation de la constante au
cas stochastique. Soit (t ) le processus (deterministe) solution de lequation differentielle
ordinaire (et homog`ene) :
dt = at dt et 0 = 1.
57
i.e. dYt =
Z
t
0
dBt
t
(et Y0 = x0 ),
Z t
dBs = x0 +
eas dBs .
s
0
at
x0 +
t
0
ea(ts) dBs .
2
1 e2at
,
t 2a
2a
i.e. le processus dOrnstein-Uhlenbeck (avec a > 0) est un processus qui ne grandit pas
indefiniment (comme cest le cas pour le mouvement brownien), mais se stabilise autour de
2
la valeur 0 avec une variance donnee ( 2a ).
Exemple 2.6.10. Considerons lEDS
dXt = sin(Xt ) dt + cos(Xt ) dBt
et X0 = 0.
Ici, f (x) = sin(x) et g(x) = cos(x) sont lipschitziennes (car f 0 et g 0 sont bornees), donc il
existe une unique solution a` lequation, mais quelle est-elle ? Il se trouve que meme si la formulation de lequation est assez simple, il nexiste pas de methode de resolution analytique !
On voit donc linteret de simuler numeriquement la solution dune telle equation. Noter que
dautre part, il existe des methodes analytiques pour estimer le comportement asymptotique
de la solution.
58
Xt dBt
et X0 = 0.
et X0 = 0.
+1
si x > 0,
g(x) = sgn(x) = 0 si x = 0,
1 si x < 0,
est discontinue en 0 et donc nest pas lipschitzienne. Lequation nadmet pas de solution
forte, mais seulement une solution faible (`a nouveau, voir paragraphe 2.6.4).
2.6.2
Equations inhomog`
enes en temps
et X0 = x0 ?
t R+ , x, y R.
Th
eor`
eme 2.6.15. Si f, g : R+ R R sont continues (conjointement en t et en x) et
lipschitziennes en x, alors il existe un unique processsus (Xt ) solution de lequation
Xt = x 0 +
t
0
f (s, Xs ) ds +
t
0
g(s, Xs ) dBs
p.s.,
t R+ .
A nouveau, le processus (Xt ) est appele une solution forte de lequation (et cest un processus
dIto).
59
2.6.3
Equations lin
eaires
a(s) ds .
Proposition 2.6.18. Lequation (9) admet une unique solution forte (Xt ) donnee par
Xt = t x0 +
t
0
t
(s) dBs
s
t R+ .
Demonstration. Il est clair que f (t, x) = a(t) x et g(t, x) = (t) sont continues en (t, x) et
lipschitziennes en x, donc lequation (9) admet une uniqe solution. La methode de resolution
est du meme type que celle utilisee pour lequation (8). On ecrit tout dabord X t = t Yt ,
do`
u on deduit que
dXt = t dYt + a(t) t Yt dt + 0 = a(t) Xt dt + (t) dBt .
De l`a, on tire que
t dYt = (t) dBt ,
i.e. Yt = x0 +
et donc
Xt = t x0 +
t
0
t
0
(s)
dBs ,
s
t
(s) dBs .
s
60
Xt
dt + dBt ,
1t
0 < t < 1,
et X0 = 0.
1
Ici, la fonction a(t) = 1t
nest pas continue en t = 1, mais lequation ci-dessus admet
tout de meme une unique solution forte jusquen t = 1. Noter que X1 = 0 p.s. et que
E(Xt2 ) = t(1 t).
2.6.4
Solution faible
et X0 = x0 .
(10)
t
0
f (Xs ) ds et Nt = Mt2
t
0
g(Xs )2 ds
t
0
f (Xs ) ds =
t
0
g(Bs ) dBs
Mt2
g(Xs )2 ds
(11)
61
Remarque 2.6.23. - Une EDS peut admettre une solution faible, mais pas de solution
forte ; il existe donc plus souvent une solution faible quune solution forte.
- La question de lunicite de la solution faible est par contre plus delicate ; il faut preciser ce
quon entend par unique.
Exemple 2.6.24. La solution faible de lEDS
dXt = aXt dt +
Xt dBt
et X0 = 0
est un processus continu (Xt ) tel que les processus (Mt ) et (Nt ) definis par
Mt = X t a
t
0
Xs ds et Nt = Mt2
t
0
Xs ds
et X0 = 0.
(Xt 0 = Xt ) et
t
0
Par le theor`eme de Levy, la solution faible de lequation ci-dessus est donc un mouvement
brownien standard ! (mais qui nest pas le mouvement brownien standard (Bt ) ; on ne peut
pas remplacer Xt par Bt dans lequation ci-dessus...)
2.6.5
Cours 11
Martingale exponentielle
D
efinition 2.6.26. Soit M une martingale continue de carre integrable telle que M0 = 0 et
hM it Kt pour tout t R+ . On definit la martingale exponentielle Y associee `a M par
hM it
Yt = exp Mt
,
2
t R+ .
t
0
Ys dMs
(i.e.
dYt = Yt dMt
et Y0 = 1),
t
o`
u f (t, x) = exp(x )
2
et f
= 21 f , f
= xf2 = f . En appliquant le theor`eme 2.5.22 (et en passant a` dessein sous
t
x
silence la condition dintegrablite enoncee dans le theor`eme en question !), on trouve donc :
Yt Y 0 =
t
0
Z t
Z t
1
1Z t
Ys dhM is =
( Ys ) dhM is +
Ys dMs +
Ys dMs .
2
2 0
0
0
Remarque 2.6.29. La condition hM it Kt, meme si elle nest pas utilisee explicitement
ci-dessus, a toute son importance (elle permet de justifier lutilisation de la formule dIto).
Noter quil est possible de montrer que le processus (Yt ) est une martingale sous une condition
plus faible encore.
2.7
Th
eor`
eme de Girsanov
et X0 = x0 ,
nest en general pas une martingale (sous la probabilite P). La question que lon se pose ici
sous laquelle le processus (Xt ) soit
est de savoir sil existe une autre mesure de probabilite P
une martingale.
Lapplication en mathematiques financi`eres est la suivante : pour evaluer le prix dune option
sur un actif, on a besoin de la propriete de martingale. Pourtant, le prix dun actif donne
nest en general pas une martingale, mais affiche une tendance a` la hausse ou a` la baisse.
Cest pourquoi on desire definir une nouvelle probabilite sous laquelle celui-ci soit une martingale, de mani`ere a` pouvoir effectuer des calculs.
Premi`
ere
etape : d
efinition du changement de probabilit
e
Soit (Mt ) une martingale par rapport a` (Ft ), continue, de carre integrable telle que M0 = 0
et hM it Kt pour tout t R+ . On pose (Yt ) la martingale exponentielle associee a` (Mt )
(voir paragraphe 2.6.5). On rappelle ici que Yt > 0 pour tout t R+ .
On se place a` horizon fini T > 0 (ce qui simplifie considerablement les choses) et on definit
T (A) = E(1A YT ),
P
63
A F.
PT (A) 0,
A F, car YT > 0,
T ( An ) = E(P 1An YT ) = P P
et P
n=1
n=1
n=1 T (An ),
si (An )
evenements dans F.
n=1 est une famille disjointe d
On montre dautre part que si X est une v.a. telle que E(|X YT |) < , alors
T (X) = E(X YT ).
E
Xt Y t
Yt
64
Th
eor`
eme 2.7.3. (Girsanov)
Soit (Zt ) est une martingale continue de carre integrable sous P. Alors (Zt hM, Zit ) est
T .
une martingale sous P
Demonstration. (idee principale)
T , il suffit de
Posons At = hM, Zit . Pour montrer que (Zt At ) est une martingale sous P
montrer par le lemme 2.7.2 que ((Zt At ) Yt ) est une martingale sous P. Par la formule
dintegration par parties, on a :
(Zt At ) Yt (Z0 0) Y0 =
t
0
(Zs As ) dYs +
t
0
Ys dZs
t
0
Ys dAs + hZ A, Y it
DuR fait que Y et Z sont des martingales sous P, les deux premiers termes 0t (Zs As ) dYs
et 0t Ys dZs sont egalement des martingales sous P. On aura donc montre le resultat si on
montre que les deux derniers termes sannulent, i.e.
R
1
Yt
Ys dAs + hZ A, Y it = 0.
t
0
Ys dAs =
t
0
(12)
1
dhY, Zit .
Yt
De lautre cote, on sait que hZ A, Y it = hZ, Y it , car A est a` variation bornee. Lequation
(12) est donc bien verifiee et le theor`eme est demontre.
Troisi`
eme
etape : application aux EDS
A) Soient (Bt ) un mouvement brownien standard, x0 R et f : R+ R R une fonction
continue, lipschitzienne en x et bornee (i.e. |f (t, x)| K1 pour tous t, x). On consid`ere (Xt )
la solution de lequation
dXt = f (t, Xt ) dt + dBt
et X0 = x0 .
65
t
0
f (s, Xs ) ds = Xt X0 ,
Levy, X est un mouvement brownien standard sous PT (remarquer que X est a` trajcetoires
continues).
et X0 = x0 .
Remarque 2.7.5. Lhypoth`ese |g(t, x)| K2 ci-dessus assure que le processus X est nondegenere, autrement dit quil a lallure dun mouvement brownien et pas celle dune fonction
a` variation bornee (ce qui serait le cas si g(t, x) = 0 p.ex.). Sans cette hypoth`ese, il nest
plus possible de transformer le processus X en martingale en changeant la probabilite de
reference.
K2
f (s,Xs )
0 g(s,Xs )
Rt
Rt
0
Ct hM, Cit =
t
0
g(s, Xs ) dBs +
66
t
0
f (s, Xs ) ds = Xt X0
T .
est une martingale sous P
(ii) A nouveau, legalite decoule de la definition de variation quadratique.
T . Mais
En general, le processus (Xt ) nest donc pas un mouvement brownien standard sous P
T ? Cest le
peut-on exhiber un proceessus
qui soit un mouvement brownien standard sous P
R t f (s,Xs )
t
0
f (s, Xs )
t
ds = B
g(s, Xs )
t.
est une martingale sous P
(ii) clair (on utilise a` nouveau le theor`eme de Levy).
t ), il decoule que
Remarque importante : de la definition de (B
t .
dXt = g(t, Xt ) dB
T .
Ceci montre dune autre mani`ere que le processus (Xt ) est une martingale sous P
Exemple 2.7.8. (mod`ele de Black & Scholes)
Soient R, , x0 > 0 fixes. On consid`ere lEDS
dXt = Xt dt + Xt dBt
et X0 = x0 .
t
0
Xs
dBs = Bt ,
Xs
2
2
T . Dautre part, le
Par le theor`eme de Girsanov, le processus (Xt ) est une martingale sous P
t ) defini par
processus (B
t = Bt + t
B
t .
est un mouvement brownien standard sous PT et dXt = Xt dB
67
Supposons maintenant que lactif (Xt ) soit decrit par le mod`ele de Black & Scholes de
lexemple 2.7.8 (avec R, > 0 fixes) :
dXt = Xt dt + Xt dBt
et X0 = x0 > 0
et soit (Ft ) la filtration a` laquelle X est adapte. Sous cette hypoth`ese, on peut montrer quil
existe z0 R+ et une strategie dinvestissement H sur le processus X (continue et adaptee
a` (Ft )) tels que
ZT = z 0 +
Hs dXs .
t
0
t [0, T ],
Hs dXs
T , do`
est egalement une martingale sous P
u on tire que
T (ZT ) = E
T ((XT K)+ )
z0 = E
i.e. XT = x0 eBT 2 T ,
o`
u fT est la densite de la loi N (0, T ). Remarquer que de mani`ere surprenante, le coefficient
de derive nentre pas en compte dans le calcul du prix z0 !
68
2.8
Cours 12
Le but de cette section est de montrer quon peut representer les solutions dequations aux
derivees partielles (EDP) classiques a` laide de processus aleatoires.
Attention ! Les theor`emes danalyse cites ci-dessous sont leg`erement inexacts et donc parsemes de guillemets : voir la remarque 2.8.1, qui sapplique egalement aux resultats cites
apr`es.
2.8.1
A) Soit (Bt , t R+ ) un mouvement brownien standard. On definit (Btx , t R+ ), le mouvement brownien partant au temps t = 0 du point x R par
Btx = Bt + x,
t R+ .
R
esultat danalyse (equation de la chaleur progressive)
Soient T > 0 et u0 C(R). Il existe alors une unique fonction u C 1,2 (R+ R) qui verifie
u
1 2u
(t, x),
(t, x) =
2 x
u(0, x) = u0 (x)00 ,
(t, x) R+ R,
(13)
x R.
Remarque 2.8.1. - La solution de lequation de la chaleur (13) nest en realite pas unique.
Toutefois, si on impose une (tr`es) faible condition supplementaire sur la solution u, alors u
est unique.
- Si u0 nest pas C 2 , alors la solution en t = 0 ne peut etre C 2 en x. Pour etre tout a` fait
exact, on devrait remplacer la condition u(0, x) = u0 (x) par
lim u(t, x) = u0 (x).
t0
Lemme 2.8.2. Soit u la solution de lequation (13). Pour tout (T, x) R + R fixe, le
processus (u(T t, Btx ), t [0, T ]) est une martingale.
Demonstration. Par la formule dIto (et le fait que dBsx = dBs , dhB x is = ds), on a
car u satisfait lequation (13) (on oublie ici de verifier la condition technique permettant dappliquer la formule dIto !). Le processus (u(T t, Btx ), t [0, T ]) est donc une martingale.
(14)
Demonstration. Par le lemme precedent et la condition initiale dans (13), on trouve que
u(T, x) = E(u(T, B0x )) = E(u(0, BTx )) = E(u0 (BTx )).
Remarque 2.8.4. - Le resultat ci-dessus nous donne donc une representation probabiliste
de la solution de lequation de la chaleur (13). Noter quon peut le reformuler de mani`ere
plus classique :
Z
u(T, x) = u0 (y) fT (y x) dy,
R
o`
u fT est la densite de la loi N (0, T ). La fonction KT (x, y) = fT (y x) est egalement appelee
noyau de Green de lequation de la chaleur en analyse.
- Remarquer quil est possible de montrer dans lautre sens (mais cest beaucoup plus long)
que la fonction u definie par (14) est solution de lequation (13).
B) Soit (Bt , t R+ ) un mouvement brownien standard. On definit (Btt0 ,x0 , t [t0 , [ ) le
mouvement brownien partant au temps t0 0 du point x0 R par
Btt0 ,x0 = Bt Bt0 + x0 ,
t t0 .
R
esultat danalyse (equation de la chaleur retrograde)
Soient T > 0 et h C(R). Il existe alors une unique fonction u C 1,2 ([0, T ] R) qui
verifie
1 2u
u
(t, x) +
(t, x) = 0, (t, x) [0, T ] R,
t
2 x2
(15)
x R.
u(T, x) = h(x)00 ,
Lemme 2.8.5. Soit u la solution de lequation (15). Pour tout (t0 , x0 ) [0, T ] R fixe, le
processus (u(t, Btt0 ,x0 ), t [t0 , T ]) est une martingale.
Demonstration. Par la formule dIto (utilisee sur lintervalle de temps [t 0 , t]), on a
u(t, Btt0 ,x0 )
Z t
1 Z t 2u
u
u
t0 ,x0
t0 ,x0
t0 ,x0
u(t0 , x0 ) =
(s, Bs ) ds +
(s, Bs ) dBs
+
(s, Bst0 ,x0 ) ds
2 t0 x2
t0 x
t0 t
Z t
u
=
(s, Bst0 ,x0 ) dBs ,
t0 x
Z
70
car u satisfait lequation (15). Le processus (u(t, Btt0 ,x0 ), t [t0 , T ]) est donc une martingale.
2.8.2
et Xt0 = x0 .
(16)
(t, x) R+ R.
u
u
1
2u
(t, x) + f (t, x)
(t, x) + g 2 (t, x) 2 (t, x) = 0,
u(T, x) = h(x)00 ,
(t, x) [0, T ] R,
(17)
x R.
Lemme 2.8.7. Soit u la solution de lequation (17). Pour tout (t0 , x0 ) [0, T ] R fixe, le
processus (u(t, Xtt0 ,x0 ), t [t0 , T ]) est une martingale.
Demonstration. Par la formule dIto (utilisee sur lintervalle de temps [t 0 , t]), on a
u(t, Xtt0 ,x0 ) u(t0 , x0 )
Z t
Z t
u
u
1 Z t 2u
t0 ,x0
t0 ,x0
t0 ,x0
(s, Xs ) ds +
(s, Xs ) dXs
+
(s, Xst0 ,x0 )dhX t0 ,x0 i.
=
2 0 x2
0 t
0 t
71
u
=
(s, Xst0 ,x0 ) +
(s, Xst0 ,x0 ) f (s, Xst0 ,x0 ) +
(s, Xst0 ,x0 ) g(s, Xst0 ,x0 )2 ds
t
x
2 x2
0
Z t
u
(s, Xst0 x0 ) g(s, Xst0 ,x0 ) dBs
+
0 x
Z t
u
(s, Xst0 ,x0 ) g(s, Xst0 ,x0 ) dBs ,
=
0 x
car u satisfait lequation (17). Le processus (u(t, Xtt0 ,x0 ), t [t0 , T ]) est donc une martingale.
Remarque 2.8.9. La formule donnee ci-dessus est lune des nombreuses versions de la
formule dite de Feynman-Kac (prononcer Kats). Une autre version de cette formule est
donnee en exercice, qui correspond plus a` la formule de Feynman-Kac connue des physiciens.
Propri
et
e de Markov et processus de diffusion
On donne ici une nouvelle version de la propriete de Markov enoncee au paragraphe 2.1.4.
A) Soit tout dabord (Btt0 ,x0 ) un mouvement brownien partant du point x0 R au temps
t0 R+ . On verifie que si t s 0, alors
0,x
Bts,Bs = Bt0,x ,
(18)
h Cb (R).
Noter que la propriete (18) traduit bien la meme idee que la propriete de Markov ci-dessus :
le mouvement brownien parti du point x au temps 0 est le meme que celui quon sait etre
passe au point Bs0,x au temps s. Ainsi, levolution du mouvement brownien apr`es le temps
s ne depend pas de lhistoire du processus avant s (donc en particulier, pas de la valeur x),
mais seulement de la valeur du processus au temps s.
B) Soit maintenant (Xtt0 ,x0 ) la solution de lEDS (16). On peut verifier que pour tout t
s 0, on a egalement
0,x
Xts,Xs = Xt0,x ,
ce qui implique que
0,x
h Cb (R).
La solution dune EDS est donc un processus de Markov. On lappelle egalement un processus de diffusion ou plus simplement une diffusion.
G
en
erateur dune diffusion
A) Diffusion homog`ene en temps
Soient x R, (Bt , t R) un mouvement brownien standard et f, g : R R lipschitziennes.
On pose X la solution de lEDS
dXt = f (Xt ) dt + g(Xt ) dBt
et X0 = x.
1
g(x)2 v 00 (x),
2
v C 2 (R).
1
(ii) lim E (v(Xt ) v(x)) = Av(x),
t0
t
1
1
(iii) lim E (Xt x) = f (x) et lim E (Xt x)2 = g(x)2 .
t0
t0
t
t
(i)
et X0 = x.
Pour t R+ fixe, on pose At loperateur lineaire differentiel de C 2 (R) dans C(R) defini par
At v(x) = f (t, x) v 0 (x) +
1
g(t, x)2 v 00 (x),
2
v C 2 (R).
1
2u
u
(t, x) + g(t, x)2 2 (t, x).
x
2
x
u
t
t
0
u
x
u
(s, Xs ) + As u(s, Xs )) ds est une martingale.
s
Application :
evaluation doptions europ
eennes
Soient x0 0, (Bt , t R) un mouvement brownien standard et f, g : R+ R R conjointement continues en (t, x) et lipschitziennes en x. Supposons de plus qu il existe K1 , K2 > 0
telles que
|f (t, x)| K1 et |g(t, x)| K2 , (t, x) R+ R.
et X0 = x0 .
Une option europeenne decheance T > 0 sur lactif (Xt ) est une v.a. donnee par ZT = h(XT )
pour une certaine fonction h C(R) (ZT represente la valeur de loption au temps T ).
T la probabilite sous laquelle
Soient (Ft ) la filtration a` laquelle le processus X est adapte et P
le processus X est une martingale. Par ce quon a vu precedemment, il existe egalement un
T tel que
t ) sous P
m.b.s. (B
t .
dXt = g(t, Xt ) dB
On suppose ici (pour simplifier) que ZT peut secrire comme ZT = Zt + tT Hs dXs , o`
uH
est une strategie dinvestissement continue et adaptee a` (Ft ) et Zt est une v.a. positive
Ft -mesurable. De l`a, on deduit que
R
T (ZT |Ft ) = Zt + E
T
E
T
0
Hs dXs
t
0
Hs dXs Ft = Zt ,
o`
u
T (h(XT )|Xt = x) = E
T (h(X t,x )).
z(t, x) = E
T
(19)
Par ce quon vient de voir plus haut sur le lien entre EDS et EDP, ceci signifie que la fonction
z(t, x) est solution de lequation :
z
1
2z
(t, x) + g(t, x)2 2 (t, x) = 0. et z(T, x) = h(x)
t
2
x
(20)
o`
u fT t est la densite de la loi N (0, T t).
On peut finalement determiner quelle est la strategie (Ht ) de couverture de loption, en
utilisant la formule dIto pour ZT = z(T, XT ) :
ZT Zt = z(T, XT ) z(t, Xt )
Z T
Z T
1 Z T 2z
z
z
=
(s, Xs ) ds +
(s, Xs ) dXs +
(s, Xs ) dhXis
t
2 t x2
t
t x
Z T
z
=
(s, Xs ) dXs ,
t x
car dhXis = g(s, Xs )2 ds et z satisfait lequation (20). Dautre part, on sait que
ZT Z t =
T
t
Hs dXs .
z
(s, Xs ).
x
75
2.9
Processus multidimensionnels
Cours 13
(1)
(n)
(1)
(1)
(n)
t
0
(Hs(i,j) )2 ds < ,
On definit
(i)
Mt =
(1)
m Z
X
j=1 0
Hs(i,j) dBs(j) ,
i = 1, . . . , n.
(n)
de carre integrable
et Mt = (Mt , . . . , Mt ). Le processus (Mt ) est une martingale continue
Rt
a` n dimensions. On note encore de mani`ere plus concise : Mt = 0 Hs dBs .
Le processus M modelise (par exemple) les fluctuations de n actifs M (1) , . . . , M (n) dues
a` m sources aleatoires independantes B (1) , . . . , B (m) . Ceci permet de rendre compte des
correlations des actifs :
hM (i) , M (k) it =
=
(j)
(l)
car hB , B is =
m
X
j,l=1
m Z
X
j,l=1 0
s, si i = k,
(B (i) B (k) si i 6= k).
0, si i 6= k,
76
m Z
X
j=1 0
Formule dIt
o multidimensionnelle
(1)
Soit X = (X , . . . , X (n) ) un processus dIto a` n dimensions et f C 2 (Rn ) telle que
Alors
t
0
f
(X )
xi s
f (Xt ) f (X0 ) =
n Z
X
i=1 0
!2
t R+ , i {1, . . . , n}.
n Z t
f
2f
1 X
(Xs ) dXs(i) +
(X ) dhX (i) , X (k) is .
xi
2 i,k=1 0 xi xk s
(1)
n
X
2f
i=1
x2i
n Z
X
i=1 0
(k)
it =
= t,
t, si i = k,
donc
0, si i 6= k,
f
1Z t
(i)
(B ) dBs +
f (Bs ) ds,
xi s
2 0
1Z t
f (Bs ) ds
2 0
t
0
f
(B )
xi s
!2
Donc en particulier, si f est harmonique (i.e. f (x) = 0), alors f (Bt ) est une martingale.
Dautre part, si f est sous-harmonique (i.e. f (x) 0), alors f (Bt ) est une sous-martingale
(do`
u lorigine de lexpression contre-intuitive sous-martingale pour un processus qui a
tendance a` monter).
EDS multidimensionnelles
Soient x0 Rn , B un mouvement brownien standard a` m dimensions, f : R+ Rn Rn une
fonction continue en (t, x) et lipschitzienne en x, i.e.
kf(t, x) f(t, y)k K kx yk,
t R+ , x, y Rn ,
m
X
(j)
j=1
77
X0 = x0 .
(21)
Rappelons quune solution forte est par definition un processus continu et adapte a` la meme
filtration que le mouvement brownien B, qui verifie de plus lequation integrale correspondant
a` lequation ci-dessus.
Exemple 2.9.4. Dans le cas o`
u n = 2 et m = 1, nous avons dej`a vu un exemple dEDS
multidimensionnelle (ex. 3, serie 10) :
1
dXt = Xt dt Yt dBt ,
2
1
dYt = Yt dt + Xt dBt ,
2
X0 = 1,
Y0 = 0.
Ici f(t, x, y) = ( 12 x, 12 y) et g (1) (t, x, y) = (y, x) sont des fonctions lineaires, donc lipschitziennes ; il existe donc une unique solution forte (Xt , Yt ) a` lequation ci-dessus (analysee dans
lexercice 3 de la serie 10).
Exemple 2.9.5. Considerons encore le cas n = 2 et m = 1 :
dXt = Yt dt,
X0 = 1,
dYt = Xt dt + Xt dBt , Y0 = 0.
Cette equation, qui parat simple a` resoudre au premier abord, ne lest pas tant que ca en
realite !
Exemple 2.9.6. Le mod`ele de Black & Scholes a` plusieurs dimensions est le suivant :
(i)
(i)
dXt = i Xt dt +
m
X
(i)
(j)
ij Xt dBt ,
(i)
(i)
X0 = x0 ,
i=1
i {1, . . . , n}.
Remarquer que les n equations ci-dessus sont decouplees (contrairement aux deux exemples
precedents), ce qui rend nettement plus facile la recherche de la solution.
EDS multidimensionnelles lin
eaires
Soient x0 Rn , B un mouvement brownien standard a` m dimensions, A = (aik ) une matrice
n n et = (ij ) une matrice n m. On consi`ere lequation
dXt = AXt dt + dBt ,
Ici, f (i) (t, x) =
Pn
k=1
X0 = x0 .
Pour expliciter la solution de cette equation, on a besoin de la solution de lequation homog`ene. Soit donc (t ) le processus (deterministe) a` valeurs dans lespace des matrices
n n, solution de
dt = At dt, 0 = Id,
78
o`
u Id est la matrice identite. Suivant la matrice A consideree, le processus peut etre difficile
a` determiner. Il secrit toutefois sous la forme synthetique
t = exp(tA) =
X (tA)l
l0
l!
t
0
ts dBs
Xt = t x0 +
t
0
1
s dBs
Y 0 = x0 ,
= t x0 +
t
0
ts dBs .
X0 = 1,
Y0 = 0.
0 1
0
Ici, A =
et =
. Formellement, ce syst`eme des deux equations du premier
1 0
Vecteur de d
erive, matrice de diffusion et solution faible
Revenons au cas general. Le processus X solution forte de lEDS (21) est appele une diffusion
(cest aussi un processus de Markov). On verifie que :
(i)
(i)
(i) Le processus Mt = Xt
t
0
hX , X
(k)
(i)
it = hM , M
=
m
tX
0 j=1
(k)
it =
m Z
X
j,l=1 0
(i)
Mt
(k)
Mt
m
tX
0 j=1
est une martingale pour tout i, k {1, . . . , n}. La matrice G(t, x) definie par
G(i,k) (t, x) =
m
X
j=1
est appele la matrice de diffusion du processus X (noter que G(t, x) = g(t, x) g(t, x) T ).
Finalement, un processus X tel que les processus M (i) et N (i,k) definis ci-dessus sont des
martingales pour tout i, k {1, . . . , n} est appele une solution faible de lEDS (21).
Existence dune messure martingale
Ci-dessous, on recherche ici des conditions suffisantes sur f et G garantissant lexistence dune
T sous laquelle les processus X (1) , . . . , X (n) soient simultanement des
mesure de probabilite P
martingales sur lintervalle [0, T ].
Remarque 2.9.10. Comme on la vu plus haut, lexistence dune mesure martingale permet
de fixer un prix et une strategie de couverture a` des options en mathematiques financi`eres.
Cette derni`ere affirmation nest toutefois pas tout a` fait exacte. Pour que cela soit possible, il
faut encore que la mesure martingale soit unique (sinon, on voit bien que le prix et la strategie
de couverture dependront de la mesure martingale choisie). Nous nentrerons cependant pas
plus loin dans les details dans ce cours.
80
Voici donc les hypoth`eses supplementaires a` effectuer sur f et G ; il existe K1 , K2 > 0 telles que
(i)
(ii)
t R+ , x Rn ,
kf(t, x)k K1 ,
n
X
i,k=1
t R+ , x, Rn .
i,k=1
G(i,k) (t, x) i k 0,
t, x, .
(22)
Lhypoth`ese (ii) assure que pour un point (t, x) donne, on a de plus linegalite stricte :
n
X
i,k=1
6= 0.
(23)
Etant donne que (22) est verifie, la condition (23) peut se reformuler de plusieurs mani`eres
equivalentes :
(a) toutes les valeurs propres de G(t, x) sont positives,
(b) det G(t, x) > 0,
(c) G(t, x) est inversible,
(d) rang G(t, x) = n.
Ceci nous am`ene a` la remarque suivante : du fait que G(t, x) = g(t, x) g(t, x) T et que g(t, x)
est une matrice n m, on sait que rang G(t, x) m n, donc que
si m < n, alors rang G(t, x) < n,
(t, x),
(24)
Zt
h(i) (t, x) =
m Z
X
j=1 0
n
X
(k)
k=1
Mt =
n Z
X
i=1 0
i {1, . . . , n},
i {1, . . . , n},
Remarquer que Z (i) est une martingale sous P pour tout i {1, . . . , n}, de meme que M . On
T comme a` la section 2.7. Par le theor`eme
peut verifier que hM it Kt, et on definit Y et P
(l)
de Girsanov, on sait donc que pour tout l {1, . . . , n}, Zt hM, Z (l) it est une martingale
T . Calculons ce processus :
sous P
Mt =
(l)
hM, Z it =
=
=
n X
m Z
X
m Z
n X
X
i,k=1 j=1 0
i,k=1 j=1 0
n Z
X
i,k=1 0
n Z
X
k=1 0
(k)
(s, Xs ) kl ds =
t
0
f (l) (s, Xs ) ds
Donc
(l)
Zt hM, Z (l) it =
m Z
X
j=1 0
t
0
(l)
(l)
f (l) (s, Xs ) ds = Xt X0
Exemple 2.9.13. Appliquons le resultat ci-dessus au mod`ele de Black & Scholes multimensionnel (cf. exemple 2.9.6). Dans ce cas, la matrice de diffusion G ne depend que de x et est
donnee par
G(i,k) (x) =
m
X
ij kj xi xk ,
j=1
(i,k)
Etant donne la remarque (24), on voit que rang G0 = n nest possible que si m n. On
peut en fait montrer que la condition m n est necessaire pour lexistence dune mesure
martingale (et que rang G0 = n est une condition necessaire et suffisante).
82
Cours 14
Il est possible de generaliser tous les resultats de la section 2.8 au cas multidimensionnel.
Toutefois, notre but ici est de considerer un autre type dequation aux derivees partielles,
dite elliptique (pour le cas unidimensionnel, se referer a` lexercice 3, serie 9).
R
esultat danalyse (EDP elliptique)
Soient D un domaine ouvert borne dans Rn , D sa fronti`ere, D = D D et h C(D).
Alors il existe une unique fonction u C 2 (D) C(D) telle que
(
u(x) = 0, x D,
u(x) = h(x), x D.
(25)
Noter que la solution u est une fonction a` valeurs dans R (et non dans Rn ).
x
x D.
x
Demonstration. On montre tout dabord que le processus (u(Bt ), t 0) est une martingale
(unidimensionnelle). En utilisant la formule dIto multidimensionnelle, on a pour tout t <
(condition qui assure que Bxs D pour tout s t) :
x
u(Bt )
x
u(B0 )
=
=
n Z
X
i=1 0
n Z t
X
i=1 0
u x
1Z t
x,(i)
u(Bxs ) ds
(B ) dBs +
xi s
2 0
u x
(Bs ) dBx,(i)
,
s
xi
x
etant donne que u satisfait (25). Le processus (u(Bt )) est bien une martingale, donc en
appliquant le theor`eme darret (et en laissant passer quelques details), on obtient :
x
83
2.10
X0 = x0 .
Sous des hypoth`eses generales (p. ex. f, g continues en (t, x) et lipschitziennes en x), on sait
quil existe une unique solution forte (Xt ) a` une telle equation. Pourtant, d`es que f et g sont
un peu compliquees, on ne connat pas dexpression analytique pour la solution. On comprend donc linteret de developper des methodes pour simuler numeriquement la solution de
telles equations.
Sch
ema dEuler
Le schema presente ici est ladaptation au cas aleatoire du schema dEuler classique pour les
equations differentielles ordinaires (EDO). Son analyse diff`ere toutefois en plusieurs aspects
(voir plus loin).
Supposons donc quil existe une unique solution forte a` lequation ci-dessus (sans quoi la
methode numerique decrite ci-dessous est vouee a` lechec). Pour t > r, on a donc legalite
Xt = X r +
t
r
f (s, Xs ) ds +
t
r
g(s, Xs ) dBs .
En supposant que t est proche de r, on peut utiliser la continuite des fonctions s 7 f (s, X s )
et g 7 g(s, Xs ) pour approximer la relation ci-dessus par
Xt ' Xr + f (r, Xr ) (t r) + g(r, Xr ) (Bt Br ).
(Noter quon a choisi a` dessein le point a` gauche de lintervalle de facon a` approximer
T
lintegrale dIto). Soient maintenant T R+ et N N fixes ; en posant t = N
, t = (n+1) t
et r = n t, on trouve donc
X(n+1)t ' Xnt + f (nt, Xnt ) t + g(nt, Xnt ) (B(n+1)t Bnt ),
(26)
o`
u B(n+1)t Bnt est une v.a. N (0, t) independante de Fnt (rappel : (Ft ) est la filtration
a` laquelle sont adaptes les processus (Bt ) et (Xt )). De l`a, on deduit le schema numerique
suivant :
(N )
(N )
(N )
(N )
(N )
X0 = x0 , X(n+1)t = Xnt + f (nt, Xnt ) t + g(nt, Xnt ) n+1 t, 0 n < N,
o`
u (n )N
` ce que les v.a. n+1 t et
n=1 est une suite de v.a. i.i.d. N (0, 1) (de telle sorte a
(B(n+1)t Bnt ) soient identiquement distribuees). Ceci definit le schema numerique X (N )
84
aux instants nt. Pour definir le schema sur lintevalle [0, T ] tout entier, on relie les points
entre eux, i.e. on definit pour t ]nt, (n + 1)t[ :
(N )
Xt
(N )
Ainsi, (Xt
(N )
(N )
(N )
Noter que la demarche ci-dessus est equivalente a` celle decrite au paragraphe 2.1.2 concernant
lapproximation du mouvement brownien par une marche aleatoire (qui correspond au cas
particulier f 0 et g 1).
Remarque 2.10.1. Attention : une erreur courante en analyse numerique consiste a` confondre
lapproximation (26) avec le schema numerique defini une ligne plus bas.
Convergences
Une fois defini le schema numerique X (N ) , on peut se demander combien celui-ci est proche
de la solution X. Du fait quon a affaire a` des processus aleatoires, on a le choix entre plusieurs notions de convergence.
A) Convergence en loi
De la meme mani`ere que dans le cas f 0 et g 1 etudie au paragraphe 2.1.2, on peut
montrer que sous les hypoth`eses effectuees,
(N )
P(Xt1
(N )
85
Proposition 2.10.4. Sous les hypoth`eses effectuees (et quelques hypoth`eses techniques additionnelles), il existe une constante CT > 0 telle que
(N )
E( sup |Xt
0tT
CT
Xt |) .
N
Cette proposition est donnee sans demonstration. La technique de demonstration est similaire
a` celle utilisee pour montrer lexistence et lunicite de la solution de lequation originale (noter
toutefois que les processus approximant la solution sont compl`etement differents dans les
deux cas ; le schema diteration de Picard ne permet en aucun cas dobtenir une estimation
aussi precise que celle donnee ci-dessus).
Remarque 2.10.5. - A cause du facteur 1N , on dit que le schema dEuler est dordre 21
pour les EDS. Remarquer que pour les EDO, le schema dEuler est par contre dordre 1, i.e.
(N )
sup |Xt
0tT
Xt |
CT
.
N
(N )
E( sup |Xt
0tT
Xt |p )
CT
.
N p/2
(NB : Ceci ne veut pas dire que lordre de convergence est meilleur !)
- Pour des diffusions multidimensionnelles, lordre de convergence reste le meme (i.e. est
independant de la dimension de la diffusion).
Linteret pratique de la simulation des EDS est le suivant : on a vu quil est possible de
representer la solution dune EDP classique a` laide de la solution dune EDS, au moyen
dune formule du type :
u(t, x) = E(h(XTt,x )).
Pour simuler numeriquement la solution dune EDP dont on ne connat pas lexpression
analytique, on a donc deux possibilites : soit utiliser des methodes classiques sans passer
par la formule de representation ci-dessus ; soit simuler numeriquement le processus X t,x
jusquau temps T , puis approximer lesperance ci-dessus. Pour ce faire, une solution simple
est dutiliser la loi des grands nombres, i.e. dapproximer lesperance par la moyenne de M
86
f (s, Xs ) ds +
t
r
g(s, Xs ) dBs
Si on suppose maintenant que g C 1,2 (R+ R), alors on peut developper g(s, Xs ) en utilisant
la formule dIto :
Z s
g
g
1 Z s 2g
(u, Xu ) du +
(u, Xu ) dXu +
(u, Xu ) dhXiu
2 r x2
r x
r r
Z s
Z s
g
g
(u, Xu ) du +
(u, Xu ) f (u, Xu ) du
= g(r, Xr ) +
r x
r t
Z s
g
1 Z s 2g
+
(u, Xu ) g(u, Xu ) dBu +
(u, Xu ) g(u, Xu )2 du.
2 r x2
r x
g(s, Xs ) = g(r, Xr ) +
87
s
r
Z s
g
Hu du,
(u, Xu ) g(u, Xu ) dBu +
x
r
o`
u H est un certain processus continu. On peut donc approximer g(s, Xs ) par
g
(r, Xr ) g(r, Xr ) (Bs Br ) + Hr (s r).
x
En introduisant cette approximation dans lequation pour X, on trouve :
g(s, Xs ) ' g(r, Xr ) +
Xt
Z t
g
(r, Xr ) g(r, Xr ) (Bs Br ) dBs
' Xr + f (r, Xr ) (t r) + g(r, Xr ) (Bt Br ) +
x
r
+Hr
(s r) dBr .
t
r
(Bt Br )2 (t r)
(Bs Br ) dBs =
.
2
et que
Z
t
r
(s r) dBs N 0,
t
r
(t r)3
(s r) ds =
.
3
!
Ainsi, le premier terme est dordre t r tandis que le second est dordre (t r) 3/2 . Si donc
t = (n + 1)t et r = nt, le second terme sera negligeable par rapport au premier. Cest
pourquoi on ne garde que le premier terme dans lapproximation, qui devient :
g
(Bt Br )2 (t r)
(r, Xr ) g(r, Xr )
.
x
2
Ceci nous am`ene a` definir le schema numerique suivant :
(N )
(N )
(N )
(N )
(N )
X0 = x 0 ,
X(n+1)t = Xnt + f (nt, Xnt ) t + g(nt, Xnt ) n+1 t
Xt ' Xr + f (r, Xr ) (t r) + g(r, Xr ) (Bt Br ) +
2
n+1
1
g
(N )
(N )
(nt, Xnt ) g(nt, Xnt ) (
) t,
+
x
2
o`
u (n )N
n=1 est une suite de v.a. i.i.d. N (0, 1).
Proposition 2.10.6. Sous beaucoup dhypoth`eses (principalement f , g et les derivees de g
continues en (t, x) et lipschitziennes en x), on a
(N )
E( sup |Xt
0tT
Xt |)
CT
.
N
Le schema de Milstein est donc un schema dordre 1 (mais qui necessite un developpement
de second ordre faisant intervenir la formule dIto !).
88
2.11
Pour conclure
Cours 15
Dans cette section, nous passons en revue un certain nombre de points laisses de cote dans
le cours.
Convergence des martingales
Soit M une martingale continue. On peut se poser la question de savoir sous quelles conditions
Mt converge losque t tend vers linfini. Il y a plusieurs reponses possibles a` cette question.
Voici un exemple de reponse.
Proposition 2.11.1. Si
E(sup |Mt |2 ) < ,
(27)
t0
et Mt = E(M |Ft ).
(28)
Seconde version du th
eor`
eme darr
et
Soient M une martingale continue verifiant (27) et 0 1 2 deux temps darret.
Alors
E(M2 |F1 ) = M1 .
(29)
(Pour la demonstration, on utilise le fait que M = E(M |F ) pour tout temps darret , ce
quil faut bien s
ur demontrer !)
Remarque 2.11.3. Pour que legalite (29) soit verifiee, on voit donc quil est necessaire
deffectuer une hypoth`ese soit sur les temps darret 1 et 2 , soit sur la martingale elle-meme
(sans quoi on arrive a` une contradiction avec des martingales du type quitte ou double
evoquees au chapitre 1).
Martingale arr
et
ee
Proposition 2.11.4. Soient M une martingale continue et un temps darret. Alors le
processus N defini par Nt = Mt est egalement une martingale continue.
Ceci se demontre aisement (remarquer quapr`es le temps darret , le processus N est
constant). En particulier, posons a = inf{t > 0 : |Mt | a}, avec a > 0 fixe. On voit
que
E(sup |Mta |2 ) a2 < .
t0
89
90
Int
egrale stochastique
Soient M une martingale locale continue et H un processus continu adapteR. Moyennant
quelques precautions, il est possible de definir lintegrale stochastique N t = 0t Hs dMs . Le
processus N ainsi defini est egalement une martingale locale continue. Ceci se demontre en
considerant la suite de temps darret
n = inf{t > 0 : |Mt | n ou
t
0
t
0
f 0 (Ms ) dMs +
1 Z t 00
f (Ms ) dhM is .
2 0
Remarquer que f (M ) est une semi-martingale continue, etant la somme dune martingale
locale continue et dun processus continu adapte a` variation bornee.
b) Soient B un m.b.s. a` n dimensions et f C 2 (Rn ). Alors
f (Bt ) f (B0 ) =
n Z
X
i=1 0
1Z t
f
(i)
(B ) dBs +
f (Bs ) ds.
xi s
2 0
Remarquer que les deux formules ci-dessus sont valides sans aucune condition dintegrabilite
supplementaire !
91
Martingale exponentielle
Proposition 2.11.10. Soit M une martingale locale continue telle que M0 = 0. Alors le
processus Y defini par Yt = exp(Mt hM2 it ) est une martingale locale continue. Si de plus
hM it Kt pour tout t > 0, alors Y est une martingale.
Demonstration. La premi`ere affirmation decoule de la formule dIto (a) ci-dessus. Pour
demontrer la seconde, posons
Zt = e2(Mt hM it ) .
Par la formule dIto, on voit que Z est une martingale locale continue. De plus,
Yt2 = e2Mt hM it = Zt ehM it
Soit maintenant (n ) une suite de temps darret telle que (Ytn ) est une martingale pour
tout n 1 (cette suite existe car Y est une martingale locale). Alors par linegalite de Doob,
on a
2
E( sup |Ysn |2 ) 4 E(Yt
) 4 E(Ztn eKt ) 4 eKt ,
n
0st
par lhypoth`ese et le fait que E(Ztn ) = 1 pour tout n 1. Donc par linegalite de CauchySchwarz,
E( sup |Ys |)2 E( sup |Ys |2 ) = n
lim E( sup |Ysn |2 ) 4eKt ,
0st
0st
0st
do`
u Y est une martingale par la remarque 2.11.6.
Remarque 2.11.11. On peut montrer que Y est une martingale sous une condition plus
faible, dite de Novikov :
hM it
2
< , t > 0.
E e
Martingales associ
ee au mouvement brownien standard en dimension n
- Pour n 2, on a
kBt k kB0 k =
n Z
X
i=1 0
Bs(i)
1Z t n1
ds,
dBs(i) +
kBs k
2 0 kBs k
o`
u lintegrale stochastique du membre de droite est une martingale (on peut meme montrer
que cest un mouvement brownien standard en utilisant la troisi`eme version du theor`eme de
Levy citee plus haut).
- Pour n = 3, on a
n Z t
X
1
1
Bs(i)
dBs(i) + 0,
=
3
kBt k kB0 k i=1 0 kBs k
92
1
(car ( kxk
) = 0 pour x 6= 0). Dans ce cas cependant, lintegrale stochastique a` droite nest
pas une martingale ; cest seulement une martingale locale.
Noter quon a de mani`ere plus generale : Mt = log(kBt k) est une martingale locale lorsque
n = 2 et Mt = kB 1kn2 est une martingale locale lorsque n 3 (malgre le fait que E(|Mt |) <
t
Remarque 2.11.12. Dans les deux derniers exemples, f nest pas derivable en 0, mais ca
nest pas grave car P(t > 0 : Bt = 0) = 0 lorsque n 2. Pour la dimension n = 1, les choses
changent, comme le montre le paragraphe suivant.
Formule de Tanaka
Soit B un m.b.s. de dimension 1. Par une application nave de la formule dIto, on devrait
alors avoir, au vu de ce qui prec`ede :
|Bt | |B0 | =
t
0
sgn(Bs ) dBs + 0?
C
a nest cependant pas possible, car le theor`eme de Levy implique que lintegrale stochastique dans le membre de droite est un m.b.s., tandis que |Bt | nest clairement pas un m.b.s.
(en particulier parce que ce processus est toujours positif). Le probl`eme ici est que f (x) = |x|
nest pas derivable en 0 et que le m.b.s. Bt repasse reguli`erement en 0 (alors que ca nest pas
le cas en dimension superieure).
Posons donc
Lt = lim
0
1
|{s [0, t] : |Bs | < }|,
4
o`
u |A| est la mesure (de Lesbesgue) de lensemble de A. Lt represente en quelque sorte le
temps passe par le m.b.s. B au point x = 0 pendant lintervalle de temps [0, t] (meme si on
pourrait penser a priori que ce temps est nul, ca nest pas le cas !). On peut demontrer alors
la formule etrange suivante :
|Bt | |B0 | =
t
0
sgn(Bs ) dBs +
1
Lt .
2
Une justification `a la main de cette formule estR que si f (x) = |x|, alors f 0 (x) = sgn(x) et
f 00 (x) = 0 (x), ainsi le terme dIto devient 21 0t 0 (Bs ) ds, qui represente bien la moitie
du temps passe par B en x = 0 sur lintervalle [0, t].
93
Bibliographie
1) Rappels de probabilit
es
*
*
*
*
2) Th
eorie des probabilit
es
* P. Billingsley, Probability and measure, Wiley, 1995.
* R. Durrett, Probability : theory and examples, The Duxbury Press, 1996.
3) Introduction au calcul stochastique et aux math
ematiques financi`
eres
* D. Lamberton, B. Lapeyre, Introduction au calcul stochastique applique a` la finance,
Ellipses, 1997. (existe aussi en anglais)
* Th. Mikosch, Elementary stochastic calculus with finance in view, World Scientific, 1998.
* B. ksendal, Stochastic differential equations. An introduction with applications (corrected 5th ed.), Springer Verlag, 2000.
Ces trois ouvrages sont recommandes pour leur cote clair et introductif !
4) Calcul stochastique avanc
e
* R. Durrett, Stochastic calculus. A practical introduction, CRC Press 1996.
* I. Karatzas, S. E. Shreve, Brownian motion and stochastic calculus, Springer Verlag,
1991.
* Ph. Protter, Stochastic integration and differential equations. A new approach, Springer
Verlag, 1990.
* D. Revuz, M. Yor, Continuous martingales and Brownian motion, Springer Verlag, 1999.
5) Simulation num
erique des EDS
* P. Kloeden, E. Platen, Numerical solution of stochastic differential equations, Springer
Verlag, 1992. (un second tome existe aussi avec exercices corriges)
Remarque. La presente liste nest bien s
ur de loin pas exhaustive !
94