You are on page 1of 4

- Correction - Séries Temporelles Univariées -

Master 1 ESA - 2014-2015 - Semestre 1, session 1


.....

5 février 2015

Exercice 1
1. Les racines de (1 − 2.0z + 0.96z 2 ) sont ω1 = 5/4 et ω2 = 5/6. Avec ||ω1 || > 1 mais ||ω2 || < 1 ce processus
n’est pas stationnaire.
2. Il vient (1 − 2.0L + 0.96L2 )xt = (1 − 4/5L)(1 − 6/5L)xt = (1 − 4/5L)yt où yt = (1 − 6/5L)xt = xt − 1.2xt−1
et yt obéit alors à l’AR(1) stationnaire : (1 − 0.80L)yt = ut . On obtient les valeurs suivantes :

t xt yt
1 12 .
2 24 9.6
3 30 1.2
4 27 -9.0
5 42 9.6

Table 1 – 5 premières réalisations du processus xt et valeurs de yt associées

Exercice 2
1. xt = (1 − θ)(u0 + u1 + u2 + . . . + ut ). En conséquence, avec ut bruit blanc on montre aisément que

E[xt ] = 0,
V [xt ] = (1 − θ)2 (t + 1)σu2

La variance de xt étant dépendante du temps, ce processus n’est pas stationnaire. Par ailleurs, comme
xt−1 = (1 − θ)(u0 + u1 + u2 + . . . + ut−1 ), on a xt = xt−1 + (1 − θ)ut : xt est une marche au hazard soit
encore un ARIMA(0,1,0).
2. yt est un bruit blanc et donc zt est la somme d’un processus non stationnaire (xt ) et d’un processus
stationnaire (yt ), il est donc non stationnaire. Plus précisément :

zt = xt + yt = (1 − θ)(u0 + u1 + . . . + ut ) + θut = (1 − θ)(u0 + u1 + . . . ut−1 ) + ut , et donc


E[zt ] = 0,
 
V [zt ] = (1 − θ)2 t + 1 σu2

Tout comme avec xt , la variance de zt dépend du temps.

1
Par ailleurs la première ligne des égalités ci-dessus fait apparaître que : zt = xt−1 + ut . Comme par
définition, zt−1 = xt−1 + yt−1 , on a : zt = zt−1 − yt−1 + ut . soit finalement, avec yt−1 = θut−1 :

zt = zt−1 + ut − θut−1
et zt est un IMA(1,1).

Exercice 3
On considère l’équation suivante :
xt = φxt−1 + ut − θut−4 (1)
avec θ = φ4 et ut un processus en bruit blanc de variance σu2 .
1. On est en présence des deux polynômes (1 − φL) et (1 − φ4 L4 ) . Il est immédiat de voir que le premier n’a
qu’une seule racine égale à φ−1 . Si on injecte cette racine dans le second, il vient : (1 − φ4 φ−4 ) = 1 − 1 = 0.
Ils ont donc bien une racine commune, φ−1 . On est donc pas en présence de l’écriture ARMA minimale du
processus. Partant de (1 − φL)xt = (1 − φ4 L4 )ut et en divisant à gauche et à droite par (1 − φL), on a :
(1 − φ4 L4 )
xt = ut = (1 + φL + φ2 L2 + φ3 L3 )ut
(1 − φL)
Seul subsiste un polynôme du troisième degré pour la composante MA. L’écriture minimale de xt est donc
celle d’un MA(3) : xt = ut + φut−1 + φ2 ut−2 + φ3 ut−3
2. Un processus MA étant toujours stationnaire, il n’y a aucune condition particulière à mettre sur φ.
3. Des calculs simples montrent que les 4 premiers termes de la fonction d’autocovariance sont :
γ0 = (1 + φ2 + φ4 + φ6 )σu2
γ1 = (φ + φ3 + φ5 )σu2
γ2 = (φ2 + φ4 )σu2
γ3 = +φ3 σu2
γk
Pour terminer, on utilise la définition de la corrélation d’ordre k, ρk = corrélation(xt , xt−k ) = γ0 .

Exercice 4
Un ensemble d’observations journalières obéit au processus suivant :

yt = 100 + (1 − θ1 L)(1 − θ2 L7 )ut (2)


1. On a respectivement :

yt = 100 + ut − θ1 ut−1 − θ2 ut−7 + θ1 θ2 ut−8


yt−j = 100 + ut−j − θ1 ut−j−1 − θ2 ut−j−7 + θ1 θ2 ut−j−8
ut étant un bruit blan, les seuls covariances non nulles entre yt et yt−j correspondent à des j faisant
apparaître des innovations communes aux deux expressions, soit pour j ∈ {1, 6, 7, 8}, avec :
yt−1 = 100 + ut−1 − θ1 ut−2 − θ2 ut−8 + θ1 θ2 ut−9
yt−6 = 100 + ut−6 − θ1 ut−7 − θ2 ut−13 + θ1 θ2 ut−14
yt−7 = 100 + ut−7 − θ1 ut−8 − θ2 ut−14 + θ1 θ2 ut−15
yt−8 = 100 + ut−8 − θ1 ut−9 − θ2 ut−15 + θ1 θ2 ut−16

2
D’où :
γ0 = (1 + θ12 + θ22 + θ12 θ22 )σu2
γ1 = (−θ1 − θ1 θ22 )σu2
γ6 = θ1 θ2 σu2
γ7 = (−θ2 − θ12 θ2 )σu2
γ8 = θ1 θ2 σu2
On utilise finalement la définition ρk = γk /γ0 pour fournir les réponses demandées en précisant que ρk = 0
/ {0, 1, 6, 7, 8}.
si k ∈
(θ +θ θ 2 )
2. — Évidemment, à l’ordre 1, φ11 = ρ1 = − (1+θ21+θ21+θ2 2 θ2 )
1 2 1 2

— A l’ordre 2, on utilise les équations de Yule-Walker :


        −1     
ρ1 1 ρ1 φ21 φ21 1 ρ1 ρ1 1 1 −ρ1 ρ1
= ⇒ = =
ρ2 ρ1 1 φ22 φ22 ρ1 1 ρ2 1 − ρ1 −ρ1
2 1 ρ2
d’où :

−ρ21 + ρ2
φ22 =
1 − ρ21
3. Prévisions du lundi 12 janvier pour le
— Pour le 13 janvier, horizon = 1 jour,
yt+1 = 100 + ut+1 − θ1 ut − θ2 ut−6 + θ1 θ2 ut−7
⇒ Et [yt+1 ] = 100 − θ1 ut − θ2 ut−6 + θ1 θ2 ut−7 = 100 + 0.8 × 18 + 0.6 × 16 + 0.48 × 20 = 133.60

— Pour le 14 janvier, horizon = 2 jours,


yt+2 = 100 + ut+2 − θ1 ut+1 − θ2 ut−5 + θ1 θ2 ut−6
⇒ Et [yt+2 ] = 100 − θ2 ut−5 + θ1 θ2 ut−6 = 100 + 0.6 × 8 + 0.48 × 16 = 112.48

— Pour le 31 janvier, horizon = 19 jours. Le processus est un MA(7) troué et donc ici l’horizon de prévi-
sion est supérieur à la mémoire du processus qui est de 7 jours : Et [yt+h ] = E[yt+h ] = 100 .

— Pour le 1 février, horizon = 20 jours. On est encore dans le cas précédent et donc Et [yt+h ] = E[yt+h ] =
100.
Pour les intervalles de confiance :
— Erreur de prévision pour le 13 janvier,
yt+1 − Et [yt+1 ] = ut+1 ⇒ Variance de l’erreur = 100 ⇒ IC95% = 133.60 ± 2 × 10 = [113.60, 153.60]
— Erreur de prévision pour le 14 janvier,
yt+2 −Et [yt+2 ] = ut+2 −θ1 ut+1 ⇒ Variance = (1+0.82 )100 = 164 ⇒ IC95% = 112.48±2×12.8 = [86.88, 138.08]
— Erreur de prévision pour le 31 janvier,
yt+19 − Et [yt+19 ] = ut+19 − θ1 ut+18 − θ2 ut+12 + θ1 θ2 ut+11
⇒ Variance = (1 + 0.82 + 0.62 + 0.482 )100 = 223.04
⇒ IC95% = 100 ± 2 × 14.93 = [70.14, 129.86]

3
— Erreur de prévision pour le 1 février,

yt+20 − Et [yt+20 ] = ut+20 − θ1 ut+19 − θ2 ut+13 + θ1 θ2 ut+12


⇒ Variance = (1 + 0.82 + 0.62 + 0.482 )100 = 223.04
⇒ IC95% = 100 ± 2 × 14.93 = [70.14, 129.86]

Dans les deux derniers cas, la variance de l’erreur de prévision est naturellement égale à la variance non
conditionnelle de y.

Exercice 5
1. Mis à part la remontée des valeurs aux environ du span, égal ici à 12 puisqu’on est sur données mensuelles,
on observe plutôt une décroissance assez rapide vers zéro des coefficients des fonctions d’autocorrélation
et d’autocorrélation partielle, ce qui joue plutôt en faveur de la stationarité de la série.
2. Ici, vous pouvez avoir plusieurs idées raisonnables. Un exemple est√la suivante : avec 263 observations, la
significativité des coefficients de corrélation va se comparer à ±2/ 263 = ±0.12. Du côté des corrélations
seraient alors significativement non nuls ρ1 , ρ11 , ρ12 et ρ13 . Par ailleurs, ρ11 (=0.27) est pratiquement égal
à ρ13 (=0.21). En conséquence, un processus saisonnier (0, 0, 1) × (0, 0, 1) peut être envisagé : on a une
corrélation significative à l’ordre 1 et la corrélation au niveau du span est encadrée par deux corrélations
égales et significatives.

Exercice 6
On considère un processus ARMA(1,1) que l’on sait être stationnaire et inversible

(1 − φL)(xt − μ) = (1 − θL)ut (3)

où ut est un bruit blanc de variance σu2 .


1. On a immédiatement xt = φxt−1 + μ − φμ + ut − θut−1 . On sait que x est stationnaire, soit μX l’espérance
cherchée. en prenant l’espérance à gauche et à droite, il vient : μX = φμX +μ−φμ, soit encore μX (1−φ) =
μ(1 − φ) et donc μX = μ.
2. t x̂t+1 = Et [xt+1 ] = Et [φxt + μ(1 − φ) + ut+1 − θut ] = φxt + μ(1 − φ) − θut .
3. Pour simplifier les écritures on pose c = μ(1 − φ). L’expression de la prévision à une période a été donnée
à la question précédente. Pour un horizon de préviszion de deux périodes on a :

t x̂t+2 = Et [xt+2 ] = Et [φxt+1 + c + ut+2 − θut+1 ] = φ t xt+1 + c

On a donc une récurrence, d’où :

t x̂t+3 = φ t xt+2 + c = φ2 t xt+1 + φc + c


t x̂t+4 = φ t xt+3 + c = φ3 t xt+1 + φ2 c + φc + c et plus généralement,
h−2
X
t x̂t+h = φ t xt+1 + φi c, h ≥ 2, soit encore en prenant l’expression définissant t xt+1 ,
h−1

i=0
h−1
X
t x̂t+h = φ h xt + φi c − φh−1 θut , h ≥ 2.
i=0

You might also like