Professional Documents
Culture Documents
Mohamed ADDAM
www.lmpa.univ-littoral.fr/ addam/
addam.mohamed@gmail.com
29 novembre 2011
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
5
5
6
8
8
10
11
12
12
15
16
16
17
17
19
.
.
.
.
.
.
.
.
.
.
.
24
24
25
25
26
26
27
28
29
29
30
30
2.4
2.5
2.6
2.7
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
33
34
34
35
35
37
40
41
42
43
46
47
Notations
Chapitre 1
Rappel de calcul matriciel
1.1 Introduction
Ce chapitre a pour but de rappeler, et dterminer, un certain nombre de rsultats relatifs
aux matrices et aux espaces vectoriels de dimension finie, et dont un usage constant sera
fait dans toute la suite de ce cours de mthodes numriques.
Nous faisons rfrences au cours dAlgbre, chapitre 5 situ ladresse suivante :
www.lmpa.univ-littoral.fr/ addam/enseignement/
pour des notions de base sur les espaces vectoriels et une introduction sur les matrices qui
est suffisante pour aborder ce chapitre. Nous aborderons dans ce cours tous les rsultats
concernant les matrices. Les rsultats importants pour la suite seront dmontrs.
}|
z11 z12 . . . z1n
.
..
..
. . . . ..
.
Echantillons(lignes) z1 z2 . . . zn
.
.
..
..
. . . . ..
zm1 zm2 . . . zmn
z
= Z = (zij ) 1im
1jn
Llment zij dnote la valeur numrique place au croisement de la ligne numro i (indice
de lchantillon) et de la colonne numro j (indice de la variable). On dit que la matrice Z
est de m lignes et de n colonnes
1
La
A est inversible car dt(A) = 6 6= 0. Trouvons maintenant la matrice A =
matrice
a b
, telle que AA1 = A1 A = I.
c d
1 0
2a
2b
a b
2 0
=
=
0 1
a 3c b 3d
c d
1 3
a = 12 ,
2a = 1,
2b = 0,
b = 0,
3c
=
0,
c
= 61 ,
b 3d = 1,
d = 31 ,
do
1 3 0
0
.
=
A =
13
6 1 2
Ceci reste valable pour toutes les matrices carres inversibles dordre n 2.
1
1
2
1
6
w1
w2
3. Le vecteur transpos
dun
vecteur ligne v = (v1 , v2 , . . . , vn ) est un vecteur colonne
v1
v2
not par : t v = ..
.
vn
W1
W2
W1
W2
wi,1
wi,2
(t W1 ,t W2 , . . . ,t Wn ) ou t Wi = .. pour tout 1 i n.
.
wi,n
W1
W2
wi,1
wi,2
(t W1 ,t W2 , . . . ,t Wn ) ou t Wi = .. pour tout 1 i n.
.
wi,n
5. Une matrice A Mn (R) (resp. A Mn (C)) est dite symtrique si et seulement si
t
A = A (resp. t A = A).
A=
1
2
3
i
2+ i
3
A= 1+i
3
5 .
2
3+i 1+i
i 2 i
2
t
A= 2i
3 3 i .
3
5
1i
Z = z1 z2 . . . zn
.
..
.
..
. . . . ..
zm1 zm2 . . . zmn
0
...
0
11
..
..
0
1
.
.
22
D1 =
..
..
..
.
.
.
0
0
...
0 1nn
2 4 0
M = 1 3 2 .
0 1 3
2
4
0
3
2 ,
P () = dt 1
0
1
3
3
2
2
1
+4
,
P () = (2 )
3 0
1
3
Dmonstration. En exercice.
Exemple 1.3.3 Soit A une matrice de M2 (R) donne par
2 4
.
A=
1 3
10
1 + 5
1 5
et 2 =
.
de A sont 1 =
2
2
!
1+ 5
H1 = Ker A +
I
2
H2
1 +
= Ker A
2
3. La runion dune base de H1 , dune base de H2 ,. . ., dune base de Hk est une base
de H.
Dmonstration. Laisser en exercice.
11
dt(P )
= dt(B I).
dt(P )
Corollaire 1.3.1 Deux matrices semblables A et B de Mn (K) ont les mmes valeurs
propres.
1.3.4
12
Matrice nilpotente
Dfinition 1.3.6 On dit quune matrice carre A est nilpotente sil existe un entier naturel
p tel que Ap soit la matrice nulle. Lindice de nilpotence est alors le plus petit p tel que
Ap = 0.
0 1
Exemple 1.3.7
1. On prend la matrice A =
. On a
0 0
2
A =
0 1
0 0
2
0 0
0 0
3 9 9
B = 2 0 0
3 3 3
0 0
0
B 2 = 6 18 18
6 18 18
0 0 0
et B 3 = 0 0 0
0 0 0
Puisque B 3 est la matrice nulle alors B est bien nilpotente dindice 3. Son indice est
plus petit que la dimension de lespace.
Nilpotence et base rduite : Considrons alors le vecteur e1 . Il est dindice 2 et la famille (e1 , Ae1 , A2 e1 ) est libre. Elle est libre et de cardinal gal la dimension de lespace
vectoriel. Cette famille est donc une base.
e =1+
+ n
X
t
n=1
n!
= 1 + lim
p+
p
X
tn
n=1
n!
13
+
X
An
n=1
n!
3 9 9
0 0
0
B = 2 0 0 , on a B 2 = 6 18 18
3 3 3
6 18 18
alors on a
et
0 0 0
B 3 = 0 0 0
0 0 0
1 0 0
3 9 9
0 0 0
1
exp(B) = I + B + B 2 = 0 1 0 + 2 0 0 + 3 9 9
2
0 0 1
3 3 3
3 9 9
4 9 9
exp(B) = 5 10 9 .
3 12 11
Dfinition 1.3.8 Une matrice A de Mn (K) est dite diagonalisable si il existe une matrice
inversible P de Mn (K) telle que
1 0 . . . 0
.
.
0 2 . . ..
1
P AP = D = . .
.. ... 0
..
0 . . . 0 n
14
1 1 0
A = 1 2 1
1 0 1
sont 1 = 2, 2 = 1 + i et 3 = 1 i.
Les veteurs propres associs 1 , 2 et 3 sont respectivement
1
i
i
V1 = 1 , V2 = 1 et V3 = 1 .
1
1
1
0
2
2
1 i i
1
2i
1 + i .
P = 1 1 1 P 1 = 1
4
2i (1 + i) 1 i
1 1
1
0
2
2
1 1 0
1 i i
2
0
0
1
2i
1 + i 1 2 1 1 1 1 = 0 1 + i
0 .
P 1 AP = 1
4
2i (1 + i) 1 i
1 0 1
1 1
1
0
0
1i
Proposition 1.3.3 Soit A une matrice de Mn (K). Alors
1. Si A est nilpotente dindice de nilpotence p, alors
exp(A) = I +
p
X
An
n=1
n!
2. Si la seule valeur propre de A est 0, alors les puissance de A sont nulles partir
dun certain rang n0 :
An = 0, ds que n n0 .
Dans ce cas, on a
exp(A) = I +
n0
X
An
n=1
n!
15
1 0 . . . 0
e
0 ... 0
.
.
..
.
. ..
0
0 e2 . . ..
A= . .2 .
,
alors
exp(A)
=
. .
.
.. .. 0
.. ... 0
..
..
0 . . . 0 n
0 . . . 0 en
5. Si P 1 AP = D o D = diag(i , 1 i n), alors pour tout k N on a
P 1 Ak P = D k .
Dmonstration. Exercice.
2. Les valeurs propres de A sont les n racines relles ou complexes (i )1in du polynme caractristique P de A. Le spectre de A, not Sp(A) est lensemble de tous
les valeurs propres de A :
Sp(A) = {i : 1 i n}
3. La matrice A est diagonale si ai,j = 0 pour i 6= j, on la note
A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
On rappelle les proprits suivantes :
n
Y
Pn
1. tr(A) = i=1 i , dt(A) =
i .
i=1
16
x E {0}
x E {0}
Thorme 1.4.1 Une matrice hermitienne A est dfinie positive (resp. positive), si et seulement si toutes ses valeurs propres sont > 0 (resp. 0).
Dmonstration. soit A une matrice hermitienne et x 6= 0 un vecteur dans E.
(Ax, x) = (x, x) = kxkE
17
p = min(m, n)
(1.1)
et 1 2 . . . p 0.
La relation (1.1) est appele dcomposition en valeurs singulires (SVD) de A et les
scalaire (i ) sont appels valeurs singulires de A.
Si A est une matrice relle, U et V sont aussi des matrices relles et on peut remplacer
U par U T .
Les valeurs singulires sont caractrises par
p
i = i , o i Sp(A A),
i = 1, . . . , p.
(1.2)
2
propres de A. En effet, puisque AA = A , on a i = 2i = |i | pour i = 1, . . . , n.
Si
1 2 . . . r r+1 = . . . = p = 0,
alors le rang de A est r (rang(A) = r), le noyau de A est le sous-espace vectoriel
engendr par les vecteurs colonnes de V (Ker(A) = {vr+1 , . . . , vn }), et limage de
A est le sous-espacevectoriel engendr par les vecteurs colonnes de U (Im(A) =
{u1 , . . . , ur }).
, , . . . , , 0, . . . , 0 Cmn , p = min(m, n)
(1.3)
= diag
1 2
r
18
A =
A1 , si rang(A) = n = m.
LAnalyse des Donnes tant lart de dcomposer des tableaux, une dcomposition sappliquant une matrice rectangulaire (dans le mme esprit que la dcomposition dune matrice
symtrique en valeurs et vecteurs propres) va videmment jouer un rle central. La dcomposition en valeurs singulires p dune matrice A rectangulaire de taille n m de rang r
scrit :
. QT2
A = Q1 . |{z}
|{z}
|{z}
|{z}
(nm)
1 0 . . . 0
.
.
0 2 . . ..
. .
..
.. ... 0
=
0
.
.
.
0
r
0 ... ... 0
.
.
.
..
..
..
..
0 ... ... 0
Une telle dcomposition existe toujours et peut tre obtenue en calculant les valeurs propres
p de AAT et de AT A, qui sont identiques et positives ou nulles. Les valeurs singulires
sont les racines carres des valeurs propres non nulles,
p
p = p .
Dans cette dcomposition, Q1 est la matrice des vecteurs propres de AAT , tandis que Q2
est la matrice des vecteurs propres de AT A.
Linverse de Moore-Penrose sobtient partir de la dcomposition en valeurs singulires en intervertissant les deux matrices orthogonales, en transposant et en inversant
chacune des valeurs singulires :
A = Q2 QT1
La matrice est de taille m n et a, dans le cas o n > m et r
1
1/2
1
0 ... 0 0 ... 0
1
0
.
.
1/2
..
.. 0 . . . 0 0
2
0 1
2
= .
=
.
.
.
.
.
.
..
..
..
. . 0 .. .. .. ..
.
0
. . . 0 1
0
.
.
.
0
0
...
r
= m, la structure
...
..
.
..
.
0
..
.
0
1/2
r
0 ... 0
0 ...
.. ..
. .
0 ...
0
..
.
0
19
2 = 0;
tr(C) = 2c
1 = 2c,
1
2
1
2
12
1
2
2a
z (x0 ) =
a
2
Cette solution satisfait lesprit, puisque lestimateur prend la moyenne des deux valeurs z1
et z2 mesures au point x1 et la multiplie par le pondrateur que livre le krigeage simple
lorsquil ny a quune seule information disponible.
20
Dfinition 1.5.1 Une norme matricielle est une application k . k : K(mn) [0, +[
telle que :
i) kAk 0,
Dfinition 1.5.2 On dit que la norme matricielle k . k est compatible ou consistante avec
la norme vectorielle k.k si
kAxk kAkkxk,
A K(mn)
x Kn .
Plus gnralement, on dit que trois normes, toutes notes k . k et respectivement dfinies
sur Km , Kn , et K(mn) , sont consistantes si x Kn , y Km et A K(mn) tels que
Ax = y, on a kyk kAkkxk.
Pour quune norme matricielle soit intressante dans la pratique, on demande gnralement
quelle possde la proprit suivante :
Dfinition 1.5.3 On dit quune norme matricielle k . k est sous-multiplicative si A
K(nm) , B K(mq)
kABk kAkkBk.
(1.4)
21
Norme de Frobenius
La norme
kAkF =
m X
n
X
j=1 i=1
|aij |2
!1/2
p
tr(A A)
est une norme matricielle appele norme de Frobenius (ou norme euclidienne dans C(nn)
et elle est compatible avec la norme vectorielle euclidienne k . k2 . En effet,
2
!
m X
n
m
n
n
X
X
X
X
kAxk22 =
aij xj
|aij |2
|xj |2 = kAk2F kxk22 .
i=1
j=1
i=1
j=1
j=1
n.
kAxk
kxk
(1.5)
(1.6)
kxk=1
x
,
kxk
kwk = 1.
cela tant, vrifions que (1.5) est effectivement une norme, en utilisant les conditions dune
norme matricielle de la dfinition (1.5.1).
kAxkp
kxkp
(1.7)
22
1jn
kAk = max
m
X
i=1
1im
|aij |,
n
X
j=1
(1.8)
|aij |,
(1.9)
La 2-norme ou norme spectrale mrite une discussion particulire vu son intrt pour des
applications pratiques.
Thorme 1.5.2 Soit 1 la plus grande valeur singulire de A. Alors
p
p
kAk2 = %(A A) = %(AA ) = 1 .
Dmonstration. Puisque A A est hermitienne, alors il existe une matrice unitaire U telle
que
U A AU = diag(1 , 2 , . . . , n )
o i sont les valeurs propres positive de A A. Soit y = U x, alors
s
s
(A Ax, x)
(U A AUy, y)
kAk2 = sup
= sup
(x, x)
(y, y)
x6=0
x6=0
v
u n
n
X
q
uX
2
t
i |yi | /
|yi |2 = max |i | = 1 .
= sup
x6=0
i=1
i=1
1in
23
Exercice 1.5.1
1. Soit B une matrice carre. Montrer que les conditions suivantes sont
quivalentes :
(a) limk+ B k = 0 ;
(b) limk+ B k x = 0 pour tout vecteur x ;
(c) %(B) < 1 ;
(d) kBk < 1 pour au moins une norme matricielle subordonne k . k.
2. Soit B une matrice carre, et k . k une norme matricielle quelconque. Montrer que
lim kB k k1/k = %(B).
k+
Chapitre 2
Variogrammes et covariances : Krigeage
La gostatistique est une dicipline la frontire entre les mathmatiques et les
sciences de la terre. Son principale domaine dutilisation a historiquement t lesptimation des gisements miniers, mais son domaine dapplication actuel est beaucoup
plus large et tout phnomne spatialis peut tre tudi en utilisant la gostatistique.
Le krigeage est une mthode destimation issue de la gostatistique. Le terme krigeage, provient du nom de famille de lingnieur minier sud-african Daniel Gerhardus Krige. Il a t formalis pour la prospection minire par Georges Matheron
(1930-2000) lcole des Mines de Paris. depuis, le domaine de ses applications
a largement t tendu, touchant notamment la mtorologie, les sciences de lenvironnement et llectromagntisme.
Le krigeage est donc une mthode dinterpolation spatiale, parfois considre comme
la plus juste dun point de vue statistique, qui permet une estimation linaire base
sur lesprance mathmatique et aussi sur la variance de la donne spatialise.
ce titre, le krigeage se base sur le calcul, linterprtation et la modlisation du
viogramme, qui est une apprciation de la variance en fonction de la distance entre
donnes.
Cette mthode dinterpolation se distingue dautres mthodes (distance inverse, estimation par noyau, etc) car elle prsente des avantages que nous verrons par la suite.
Le krigeage sest dclin sous plusieurs formes (simple, ordinaire,...) qui toutes utilisent les mmes principes.
25
Fonction de rpartition
Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire. On
appelle fonction de rpartition de X la fonction relle de variable relle
x 7 F (x) = P (X < x).
26
et donc on a E(X) =
n
X
i=1
r
X
yi P (X = yi ).
i=1
Dfinition 2.2.2 Une variable alatoire relle X est dite centre si son esprance mathmatique E(X) est nulle.
Exercice 2.2.1 Montrer que la variable alatoire X E(X) est centre.
Exemple 2.2.1 (Esprance dune variable binomiale)
Une variable binomiale de paramtres n et p (n N et 0 < p < 1) est une variable
alatoire telle que
X() = {0, 1, 2, . . . , n}
et P (X = i) = Cin pi (1 p)ni .
27
n
X
i=1
n
X
i=1
iCin pi (1 p)ni
i
n!
pi (1 p)ni
i!(n i)!
n
X
(n 1)! i1
= np
p (1 p)ni
i!(n i)!
i=1
= np
n1
X
j=1
(n 1)!
pj (1 p)n1j
j!(n 1 j)!
= np(p + (1 p))n1
= np
E(XY ) =
p
n X
X
i=1 j=1
28
et P (X = i) = Cin pi (1 p)ni .
Calculons dabord E(X 2 ), ou mieux encore, pour un calcul plus facile calqu sur celui de
lesprance, E(X(X 1)) :
E(X(X 1)) =
n
X
i=0
= np
i(i 1)
n
X
i=0
n!
pi (1 p)ni
i!(n i)!
n!
pi (1 p)ni
(i 2)!(n i)!
= n(n 1)p
= n(n 1)p2
n
X
i=2
(n 2)!
pi2 (1 p)ni
(i 2)!(n i)!
et donc on a
E(X 2 ) = E(X(X 1)) + E(X) = n(n 1)p2 + np.
En fin
Var(X) = E(X 2 ) [E(X)]2 = n(n 1)p2 + np (np)2 = np(1 p).
29
1
X
i=0
2
iP (X = i) = 0P (X = 0) + 1P (X = 1) = 0(1 p) + 1p = p.
E(X 2 ) = 0 .p + 12 .q = q = 1 p.
E(cos(X)) = cos(0).p + cos().q = p q = p (1 p) = 2p 1.
Var(X) = E(X 2 ) [E(X)]2 = p p2 = p(1 p).
fX (x) = lim
En gnral, on a
P (a X b) =
b
a
t dt +
t (2 t)dt = +
4
3
4
6
0
0
1
Z +
1
7
Var(X) =
t2 fX (t)dt (E(X))2 = 12 = = 0.1667.
6
6
fX(t)
0.6
0.5
0.4
0.3
0.2
0.1
0
0.5
1
t
p
(X) = Var(X) =
1.5
1
= 0.4082.
6
30
31
200
400
600
800
1000
Dfinition 2.3.2 Une variable alatoire X a une loi normale rduite si elle a une densit
dfinie par :
1
2
(t) = et /2 .
2
32
On dit que cest la loi normale N (0, 1). La fonction de rpartition associe la variable
X est dfinie par
Z x
1
2
et /2 dt.
(x) =
2
0
0.5
1.0
0.841
2.0
0.977
0.1
0.54
1.1
0.864
2.2
0.986
0.2
0.579
1.2
0.885
2.4
0.992
0.3
0.618
1.3
0.903
2.6
0.995
0.4
0.655
1.4
0.919
2.8
0.997
0.5
0.692
1.5
0.933
3.0
0.9986
0.6
0.726
1.6
0.945
3.3
0.9995
0.7
0.758
1.7
0.955
3.6
0.9998
0.8
0.788
1.8
0.964
4.0
0.99996
0.9
0.816
1.9
0.971
4.5
0.999997
(x)
0.8
0.75
0.7
0.65
0.6
0.55
0.5
0.5
1.5
2.5
3.5
4.5
Exercice 2.3.1
(Y )
1
2
e(y) /2 ,
2
33
14
0.16
12
0.14
10
0.12
8
0.1
6
4
0.08
0.06
0
0.04
2
0.02
4
6
1000
2000
3000
4000
5000
0
4
10
12
cov(X, Y )
p
.
var(X) var(Y )
Par lingalit de Schwarz on a 1 (X, Y ) 1. Soit (X1 , . . . , Xn ) n variables alatoires de moyennes respectives E(Xi ).
1. On appelle vecteur-moyenne le vecteur de dimension n dont les composantes sont
les moyennes E(Xi ).
2. On appelle matrice de covariance la matrice C de dimension (nn) dont llment
gnrateur est Cij = cov(Xi , Xj ) pour 1 i n et 1 j n.
34
X1
X = ...
Xn
le vecteur alatoire dont les n composantes sont les variables alatoires Xk , le vecteurmoyenne scrit :
E(X1 )
E(X) = ...
E(Xn )
et la matrice de covariance :
2
a` (X` E(X` ))
ak (Xk E(Xk ))
E(|Y | ) = E
=
=
k=1
N
N
XX
k=1 m=1
N X
N
X
`=1
k=1 m=1
35
i) var(Xi ) = 2 = constante,
ii) et cov(Xi , Xj ) = 0 pour i 6= j.
2.5 Introduction
Lorsquon mesure une caractristique en un point, on peut considrer la valeur obtenue
comme la ralisation dune variable alatoire en ce point. Il en est de mme pour tous les
points dun site donn. On a donc un grand nombre (ou une infinit) de v.a. reprsentant
conjointement un site. La gostatistique adopte ce point de vue et considre la distribution
conjointe de toutes ces v.a.
Il y a deux tapes principales dans une tude gostatistique :
identification des caractristiques des v.a.. Loutil principal utilis est le variogramme
(section 9.2),
utilisation de ces caractristiques et des valeurs connues pour lestimation optimale
aux points (ou sur des volumes) non mesurs. La mthode utilise est le krigeage
(section 9.3).
2.6 Le vraiogramme
Ide : La nature nest pas entirement imprvisible. Deux observations situes lune prs
de lautre devraient, en moyenne, se ressembler davantage (i.e. tre plus corrles) que
deux observations loignes.
Exemple 2.6.1 Soit trois localisations x0 , x1 et x2 , que lon dplace par translation sur le
site. On mesure la valeur en chacun de ces points.
x0
x1
x2
36
La teneur en x est une variable alatoire Z(x), la teneur en x+h est aussi une v.a. Z(x+h).
La diffrence entre les valeurs prises par ces deux v.a. est Z(x)Z(x+h). Cest galement
une v.a. dont on peut calculer la variance. Cette variance devrait tre plus petite lorsque les
points sont rapprochs (les valeurs se ressemblent plus en moyenne) et plus grande lorsque
les points sont loigns.
On appelle variogramme la demi-variance de cette diffrence, i.e.
1
(h) := (x, x + h) = var (Z(x) Z(x + h)) .
2
Si lon considre n localisations diffrentes x1 , x2 , . . . , xn , la meilleure description que
lon puisse faire des n variables alatoires Z(x1 ), Z(x2 ), ..., Z(xn ) est dtablir la fonction
de distribution conjointe (multivariable) ou la fonction de rpartition. Clairement, ceci nest
pas possible puisquon ne peut disposer gnralement que dune seule observation chacun
de ces n points. On pourrait formuler une hypothse trs forte du genre : le vecteur des
v.a. suit une loi multinormale de moyennes et variances-covariances spcifies. Ceci
serait beaucoup trop restrictif.
La gostatistique a des vises plus modestes. On veut estimer des paramtres statistiques partir des donnes et ne pas imposer un modle priori qui aurait toutes les
chances de savrer inadquat. Les paramtres que lon cherchera estimer ne sont pas
la fonction de distribution conjointe, ni mme la fonction de distribution bivariable (i.e.
les v.a. considres deux deux) mais simplement les deux premiers moments (moyenne,
variance, covariance) des v.a. prises deux deux. Mme rduit cela, on ne dispose toujours que dune seule paire dobservations situes prcisment aux points x et x + h. On
ne peut donc estimer les paramtres statistiques sans formuler certaines hypothses. Ces
hypothses ont uniquement pour but de permettre lestimation des paramtres statistiques
de notre modle partir des donnes. On les appelle hypothses de stationnarit du second
ordre ; elles visent essentiellement dtacher les deux premiers moments de localisations prcises en permettant des translations des emplacements x et x + h. La covariance
(et le variogramme) deviennent donc des fonctions dpendant uniquement de la distance
sparant les points dobservation et non plus de leur localisation exacte.
37
38
0+
39
Dmonstration.
1
Var (Z(x) Z(x + h))
2
1
[Var (Z(x)) + Var (Z(x + h)) 2Cov (Z(x), Z(x + h))]
=
2
= 2 C(h).
(h) =
On voit que lorsque la porte a est atteinte, il ny a plus de covariance entre les v.a., i.e.
C(h) = 0 si h a. Lorsquil y a un palier, les deux fonctions sont quivalentes en ce sens
quelles fournissent la mme information sur le processus.
Le variogramme possde toutefois deux avantages sur le covariogramme.
i) Le variogramme est dfini mme sil ny a pas de palier.
ii) Dans lexpression du variogramme, la constante E(Z(x)) = m napparat pas et
lon na donc pas besoin de lestimer comme cest le cas lorsquon veut calculer
directement le covariogramme.
Variogramme exprimental et thorique
3.5
Palier (C0+C)
3
2.5
(h)
2
1.5
1
0.5
C0
Port (a)
0.5
0.5
1.5
h
2.5
F IGURE 2.2 Reprsentation dun variogramme thorique avec des valeurs numrique
40
(h)
|h|2
41
N = 1831
points concentriques
42
43
n
X
a` B` (x),
`=1
o {B` = B(., Z` ), 1 ` n} est une famille qui forme une base despace vectoriel de
dimension n dans lequel on estime et les a` sont des coefficients inconnus.
Si lon note ij le variogramme (d(i, j)) pour la distance entre deux points xi et xj , si
n est le nombre de points connus et le sous-indice v dsigne le point inconnu, le systme
dquations du krigeage ponctuel universel variogramme connu scrit :
n
X
n
X
` .B(Zi , Z` ) = iv ,
1 i n,
j .B(Zj , Z` ) = B(Zv , Z` ),
1 ` n,
j .ij +
j=1
`=1
n
X
j=1
o les ` sont les n0 paramtres de Lagrange associs aux conditions doptimalit de lestimation, et les j sont les poids associs aux mesures Zj pour lestimation de Z :
Zv
n
X
i Z i .
i=1
n
X
i (xv , xi ) +
i=1
n
X
i B(Zv , Zi ),
i=1
n
X
i=1
i Z i
44
= Var(Zv ) +
n X
n
X
i=1 j=1
i j Cov(Zi , Zj ) 2
n
X
i Cov(Zv , Zi ).
i=1
i = 1.
i=1
Dans le cas dun estimateur sans biais, les v.a. Zi associes des positions xi pour 1 i
n, ont une esprance mathmatique (ou moyenne) constante, en effet :
E(Zv )
n
X
i=1
i E(Zi ) =
n
X
i m = m.
i=1
i=1
n
n X
X
i=1 j=1
i j Cov(Zi , Zj ) 2
n
X
i=1
i Cov(Zv , Zi ) + 2
n
X
i=1
i 1
Ou est le multiplicateur de Lagrange. Le minimum est atteint lorsque toutes les derivees partielles par rapport a chacun des i et par rapport a sannulent. Ceci conduit au
systeme de krigeage ordinaire :
n
X
L()
=
2
j Cov(Zi , Zj ) + 2 2Cov(Zv , Zi ) = 0,
i
j=1
!
n
X
L()
i 1 = 0.
= 2
i=1
45
j Cov(Zi , Zj ) + = Cov(Zv , Zi ),
j=1
n
X
i = 1.
i=1
La variance destimation minimale, appele variance de krigeage, est obtenue en substituant les quations de krigeage dans lexpression gnrale pour la variance destimation :
2
ko
= Var(Zv )
n
X
i=1
i Cov(Zv , Zj ) .
Cette variance de krigeage ne dpend pas des valeurs observes, elle ne dpend que du
variogramme et de la configuration des points servant lestimation par rapport au point
(ou bloc) estimer.
n
X
j (xi , xj ) + = (v, xi ), 1 i n
j=1
et, alors
n
X
i = 1.
i=1
2
ko
n
X
i=1
i (v, xi ) (v, v) .
et
k20 = v2 T0 k0 ,
K0 =
2
Cov(Z1 , Z2 )
...
...
Cov(Z1 , Zn )
2
Cov(Z2 , Z1 )
Cov(Z2 , Z3 )
...
Cov(Z2 , Zn )
..
..
..
.
...
.
Cov(Z3 , Z2 )
.
..
..
..
.
.
...
Cov(Zn1 , Zn )
.
Cov(Zn , Z1 ) Cov(Zn , Z2)
...
Cov(Zn , Zn1 )
2
1
1
...
1
1
1
Cov(Z1 , Zv )
2
Cov(Z2 , Zv )
..
0 = ... , k0 =
et v2 = C(v, v).
.
n
Cov(Zn , Zv )
46
1
1
..
.
..
.
1
0
i=1
= Var(Zv ) +
n
n X
X
i=1 j=1
i j Cov(Zi , Zj ) 2
n
X
i Cov(Zv , Zi ).
i=1
On derive cette expression par rapport a chacun des i . On trouve alors le systeme de
krigeage simple :
j Cov(Zi , Zj ) = Cov(Zv , Zi ),
j=1
1 i n
n
X
i=1
i Cov(Zv , Zj ).
47
La variance de krigeage simple est toujours inferieure a la variance de krigeage ordinaire car on na pas besoin dimposer de contrainte sur les poids i . Toutefois, elle
requiert la connaissance de la moyenne m. De plus, lhypothese de stationnarite
requise est plus forte que dans le cas du krigeage ordinaire. Dans le cas du krigeage
ordinaire, seule lhypothese intrinseque est requise. Dans le cas du krigeage simple,
la stationnarite est necessaire. Ainsi, il nest pas possible deffectuer un krigeage
simple si le variogramme ne presente pas de palier.
Le systeme de krigeage simple (KS) ne peut secrire directement en termes de varion
X
grammes puisquon na pas
i = 1.
i=1
En termes pratiques, les estims obtenus par krigeage ordinaire (KO) et simple (KS)
sont trs similaires lorsquon effectue le krigeage courte distance par rapport aux
points connus et par rapport la porte du variogramme et que le variogramme
montre une structure importante. Lorsquon effectue lestimation grande distance
ou si le variogramme montre un effet de ppite plus important, alors lestimation KO
consistera essentiellement en une moyenne des points du voisinage et lestime KS
sera simplement la moyenne suppose connue, i.e. m.
Rgle gnrale, le KO est prfrable au KS. Dans certaines applications telles le
krigeage dindicatrices et les simulations il est prfrable de recourir au KS.
C(h)
,
2
k2s =
C(h)
2
= 2(h), 0 h a
2
2 , h > a.
k2o = 2 + v2 2C(v, x1 )
48
k2s
C(v, x1 )
= v2
2
2
1 =
(b) Krigeage simple :
=
2
1 =
=
2
Dans les deux cas, les poids peuvent tre ngatifs dpendant de la position respective
des trois points. Dans le cas du krigeage simple, les poids sont nuls si les 2 points
sont une distance de x0 suprieure la porte.
iv) Estimation dun point par n points en prsence dun variogramme effet de ppite
pur.
(a) Krigeage ordinaire :
1
i =
n
et
k2o
1
1+
n
et k2s = 2 .
2.