You are on page 1of 26

Analyse des sries temporelles

Didier Delignires Septembre 2007

1. Dfinitions
Les statistiques classiques oprent le plus souvent par comparaison de moyennes (notamment par Analyse de variance) ou par ltude des relations entre variables (par lanalyse des corrlations). Le concept dchantillon est central dans cette approche. Un chantillon est un ensemble de donnes collectes sur des sujets diffrents, mais supposs issus dune mme population parente. Ceci signifie quau regard de la variable mesure, les sujets ne diffrent pas au-del derreurs alatoires (lies par exemple lhistoire des sujets, divers facteurs non matriss dans la standardisation exprimentales, de lerreur de mesure, ect.). En dautres termes, chaque valeur xi de lchantillon considr peut tre exprim ainsi : xi = + i (1) reprsentant le valeur vraie de la variable mesure, et i une variable alatoire centre distribue normalement. Dans la mesure o la moyenne de i est nulle, on conoit que la moyenne thorique de lchantillon est (cest dire que la moyenne empirique tend se rapprocher asymptotiquement de lorsque leffectif de lchantillon augmente). On le voit, les statistiques classiques reposent sur des hypothses fortes, et la vrification de la normalit de la distribution des chantillons nest pas superflue. A noter que dans un chantillon, lordre dans lequel se prsentent les donnes na aucun effet sur les rsums statistiques (moyenne ou cart-type notamment). Les statistiques classiques visent donc approcher une valeur vraie, suppose stable et partage par un ensemble de sujets , en multipliant les mesures supposes indpendantes. Les statistiques en sries temporelles vont plutt tenter danalyser lvolution dans le temps dune variable donne. Il sagira donc de mesurer de manire rpte un phnomne. Si les mesures sont ralises de manire rgulire, on parlera de sries temporelles. Chaque valeur est alors distante de la prcdente dun intervalle de temps constant. Frquemment cependant les mesures sont ralises non lchance dun intervalle temporel fix lavance, mais loccurrence dun vnement donn. Cest le cas par exemple dans les exprience de tapping, o lon collecte des sries dintervalles inter-tappes : les valeurs ainsi collectes demeurent ordonnes, mais les valeurs successive ne correspondent plus des dates absolues dfinies par une frquence dacquisition. Sries temporelles et sries vnementielles sont le plus souvent traites indiffremment dans la littrature. Ce qui ne va pas sans poser problme, par exemple dans lapplication des analyses spectrales (que signifie la frquence dans une srie vnementielle ?). Certains travaux ont montr cependant que la construction de sries vnementielles apportait des informations plus riches sur le systme considr que lutilisation de sries temporelles (voir Delignires, Torre & Lemoine, 2005 ; Torre, Delignires & Lemoine, 2007).

Il existe deux catgories de modles pour rendre compte d'une srie temporelle. Les premiers considrent que les donnes sont une fonction du temps yt = f(t) (2) On suppose alors un dterminisme temporel strict. On retrouve ce type de modle dans les quations diffrentielles ordinaires, par exemple : yt = y0 + vt (3) Une seconde catgorie de modles cherche dterminer chaque valeur de la srie en fonction des valeurs qui la prcde : yt = f(yt-1, yt-2, ) (4) Ce type de modle exploite une fonction itrative. C'est notamment le cas des modles ARIMA qui seront dtaills dans ce cours. A noter que ces deux types de modles sont invertibles. Lquation diffrentielle (3) peut tre exprime sous forme itrative : yt = yt-1 + vdt soit : yt = f(t) + t ou yt = f(yt-1) + t (6) t reprsentant un bruit gaussien de moyenne nulle. Lobjectif premier des statistiques en sries temporelles est danalyser la nature des dpendances temporelles dans les sries, cest--dire la manire dont une valeur est lie aux valeurs prcdemment observes. Un des postulats de base de ces approches est donc lexistence de telles dpendances, quil conviendra de caractriser. Une srie temporelle compose de valeurs successives non corrles (cest--dire un bruit blanc) est considr comme un cas limite. On peut noter cependant que souvent, on a recours l'analyse de variance pour traiter les sries de mesures rptes. Or une des assomptions majeures de l'ANOVA est que les rsidus des diffrentes mesures ne sont pas auto-corrls. Ce n'est videmment pas le cas si la performance l'essai t est lie la performance ralise l'essai t-1. (5) A noter que dans les deux cas ces modles peuvent inclure des termes stochastiques,

2. Rappels statistiques
Les statistiques en sries temporelles empruntent aux statistiques classiques un certains nombre de procdures dont on peut rappeler les principes essentiels.

2.1.Covariance et corrlation
Si X1 et X2 sont fortement lies par un lien positif, on pourrait penser dfinir la covariance en dveloppant l'ide suivante : Quand X1 prend une valeur positive, alors X2 prend vraisemblablement aussi une valeur positive, et vice-versa. Cette ide ne convient pas, car la Covariance doit rester inchange quand les distributions de probabilit des variables sont translates par des quantits arbitraires. Au lieu de mesurer X1 et X2 partir de 0, nous allons donc les mesurer partir de rfrences qui se translatent en mme temps que les distributions, par exemple leurs moyennes 1 et 2, soit : Quand (X1 - 1) prend une valeur positive, alors (X2 - 2 ) prend vraisemblablement aussi une valeur positive, et vice-versa. Ainsi, si X1 et X2 sont fortement (positivement)

lies, les quantits (X1 - 1) et (X2 - 2 ) seront le plus souvent simultanment positives, ou simultanment ngatives. Le produit (X1 - 1)x(X2 - 2 ) sera donc alors le plus souvent positif, soit parce que les deux quantits sont positives, soit parce que les deux quantits sont ngatives. La Covariance de X1 et X2. est dfinie comme l'esprance du produit (X1 - 1)x(X2 - 2) Cov(X1, X2) = E[(X1 - 1).(X2 - 2)] (7)

Une faiblesse de la Covariance est qu'elle n'est pas invariante dans un changement d'units utilises pour exprimer les valeurs des deux variables X1 et X2. Par exemple, la valeur de la Covariance de "Taille" et "Poids" d'une population change si les tailles sont exprimes en pouces au lieu de centimtres, ou les poids sont exprims en "pounds" au lieu de kilogrammes, alors que la force du lien entre ces deux grandeurs ne dpend videmment pas des units utilises pour les exprimer. Cest pourquoi on utilise plus frquemment, et fin de comparaison entre situations, le coefficient de corrlation. Supposons que l'unit utilise pour mesurer X1 soit divise par 2 (et donc que les valeurs de X1 soient multiplies par 2). Alors la covariance Cov(X1, X2) est galement multiplie par 2. Mais l'cart-type (racine carre de la variance) de X1 est galement multipli par 2, et donc le rapport : Cov(X1, X2) /(Var(X1))1/2 (8)

reste inchang. Le mme argument s'applique X2, et plus gnralement, tout changement d'units pour la mesure de X1 et de X2. Donc, en toute gnralit, le nombre :

(9) ne dpend pas des units dans lesquelles X1 et X2 sont exprimes. (corrlation maximale positive) -1 (corrlation maximale ngative). varie de +1

On utilise couramment une formule plus pratique, drive de la prcdente:

r=

N xy x y ( N x ( x ))( N y ( y ))

(10)

2.2. Corrlation partielle


La corrlation partielle permet parfois d'viter de se laisser abuser par certaines corrlations artefactuelles. Par exemple, si l'on calcule les corrlations entre (1) l'intelligence, (2) le poids, et (3) l'ge. On trouve une corrlation r12=.60 entre intelligence et poids. Cette corrlation doit tre rapporte aux deux autres, soit r13=.69, et r23=.88. La corrlation partielle exprime la liaison entre deux variables, en contrlant l'influence d'une troisime variable: dans ce cas on calcule la liaison entre intelligence et poids, ge constant. La procdure de corrlation partielle consiste calculer l'quation de rgression de (1) vers (3). Puis on calcule la corrlation entre les rsidus de cette rgression et (2).

On dispose d'un moyen plus rapide, condition de pouvoir calculer les corrlations entre les trois variables:

r123 =

r12 (r13 r23 ) (1 r13 )(1 r23 )

(11)

Dans ce cas la corrlation partielle est de -.02.

2.3. Rgression
Soit la reprsentation graphique, en deux dimensions, de la relation entre deux variables x et y. Chaque point M est associ un couple (x,y). On cherche dterminer une droite qui reprsenterait au mieux la relation, qui s'ajusterait au nuage de points. La droite retenue est celle pour laquelle la somme des carrs des distances verticales de chaque point M la droite est minimale. On dmontre que cette droite passe par un point de coordonnes (mx,my), et que son quation est de la forme y=ax + b avec
et a=

(12)
x y

( x m )( y m ) ( x m )
x

(13) (14)

b = my - amx N ( xy ) x y N x ( x )

On peut dvelopper ces quations pour obtenir des formules de calcul plus pratiques: a= (15)

b=

x y x xy N x ( x )

(16)

a et b sont les paramtres de la droite des moindres carrs. La formule y=ax + b permet de calculer pour chaque x une valeur thorique de y. L'chantillon des yth-y constitue les rsidus de la rgression. La droite des moindres carrs est donc la droite qui minimise la somme des carrs des rsidus. Par une transformation logarithmique de X, de Y ou des deux simultanment, on peut reconstituer les ajustements logarithmiques, exponentiel et puissance. Ajustement logarithmique log(X) et Y y = Alogx + B y = B*eAx A et B sont ici donns directement. Ajustement exponentiel log(y)= ax + b donc X et log(Y) y = eax + b y = eb*eax y = B*eax A = a et B = eb Ajustement puissance log(X) et log(Y) y = BxA

log(y) = a(log(x)) + b donc

y = ea(log(x)) + b y = ea(log(x))*eb y = eb*xa

A = a et B = eb D'autres fonctions plus complexes peuvent tre obtenues par la mme mthode. Le choix du meilleur ajustement se fait ensuite par comparaison des coefficients de corrlation de chaque quation.

2.4. Rgression multiple


La rgression permet de rsumer la relation entre deux variables, et donc de prdire une variables Y en fonction d'une variable X. Mais la prdiction d'une variable donne peut tre plus fine si l'on prend en compte plus de variables prdictives. La rgression multiple permet de calculer une quation additive de forme: Vp = A1V1 + A2V2 + A3 (17) prdisant une variable Vp partir de deux (ou plus) variables mesures. L'quation de rgression multiple est caractrise par un coefficient de rgression multiple, exprimant la prcision de la prdiction. A noter que les valeurs des coefficients A1 et A2 dpendent videmment des units de mesure utilises pour mesurer V1 et V2. On utilise plus usuellement lquation de rgression normalise : ZVp = 1ZV1 + 2ZV2 Dans cette quation ZVp, ZV1 et ZV2 sont les valeurs centres rduites. Le calcul des quations de rgression multiple est rapidement ralis par les logiciels de statistique. Il peut tre utile cependant de matriser les algorithmes de calcul, pour construire ses propres routines. Soit une rgression multiple comprenant trois prdicteurs : ZVp = 1ZV1 + 2ZV2 + 3ZV3 On suppose connues les coefficients de corrlation entre les quatre variables. Il sagit de rsoudre par substitution le systme dquations suivant : r(1,p) = 1+ r(1,2)2 + r(1,3)3 r(2,p) = r(2,1)1+ 2 + r(2,3)*3 r(3,p) = r(3,1)1+ r(3,2)2 + 3 On obtient les solutions suivantes : (18)

1=r(1,p)-r(1,2)* 2-r(1,3)* 3 2=(-r(2,p)+(r(2,1)*r(1,p))+ 3*(r(2,3)-(r(2,1)*r(1,3))))/ ((r(2,1)*r(1,2))-1) 3=((-r(3,1)*r(1,p))-(((-r(3,1)*r(1,2))+r(3,2))*(-r(2,p)+(r(2,1)*r(1,p)))/((r(2,1)*r(1,2))1))+r(3,p))/((((r(2,3)-(r(2,1)*r(1,3)))*((-r(3,1)*r(1,2))+r(3,2)))/((r(2,1)*r(1,2))-1))+((r(3,1)*r(1,3))+1))


Les coefficients pour variables brutes sont calcules ainsi : A1 = 1(Vp/V1) A2 = 2(Vp/V2)

A3 = 3(Vp/V3) Et lordonne lorigine : A4 = mVp A1mV1 A2mV2 A3mV3 Pour quatre prdicteurs, on obtient mes solutions suivantes : ZVp = 1ZV1 + 2ZV2 + 3ZV3 + 4ZV4

1 := r(1,p)-r(1,2)* 2-r(1,3)* 3-r(1,4)* 4 2 =((r(2,p)-r(2,1)*r(1,p))+(r(2,1)*r(1,3)-r(2,3))* 3+(r(2,1)*r(1,4)-r(2,4))* 4)/(1r(2,1)*r(1,2)) 3 =((r(3,p)-r(3,1)*r(1,p))+(r(3,1)*r(1,2)-r(3,2))*(r(2,p)-r(2,1)*r(1,p))/(1r(2,1)*r(1,2))+(((r(3,1)*r(1,2)-r(3,2))*(r(2,1)*r(1,4)-r(2,4))/(1-r(2,1)*r(1,2)))+(r(3,1)*r(1,4)r(3,4)))* 4)/((1-r(3,1)*r(1,3))-(r(3,1)*r(1,2)-r(3,2))*(r(2,1)*r(1,3)-r(2,3))/(1-r(2,1)*r(1,2))) 4 = ((r(4,p)-r(4,1)*r(1,p))+((r(4,1)*r(1,2)-r(4,2))*(r(2,p)-r(2,1)*r(1,p))/(1r(2,1)*r(1,2)))+(((r(4,1)*r(1,2)-r(4,2))*(r(2,1)*r(1,3)-r(2,3))/(1-r(2,1)*r(1,2)))+(r(4,1)*r(1,3)r(4,3)))*((r(3,p)-r(3,1)*r(1,p))+((r(3,1)*r(1,2)-r(3,2))*(r(2,p)-r(2,1)*r(1,p))/(1r(2,1)*r(1,2))))/((1-r(3,1)*r(1,3))-((r(3,1)*r(1,2)-r(3,2))*(r(2,1)*r(1,3)-r(2,3))/(1r(2,1)*r(1,2)))))/(1-((r(4,1)*r(1,2)-r(4,2))*(r(2,1)*r(1,4)-r(2,4))/(1-r(2,1)*r(1,2)))((((r(2,1)*r(1,3)-r(2,3))*(r(4,1)*r(1,2)-r(4,2))/(1-r(2,1)*r(1,2)))+(r(4,1)*r(1,3)r(4,3)))*(((r(3,1)*r(1,2)-r(3,2))*(r(2,1)*r(1,4)-r(2,4))/(1-r(2,1)*r(1,2)))+(r(3,1)*r(1,4)r(3,4)))/((1-r(3,1)*r(1,3))-((r(3,1)*r(1,2)-r(3,2))*(r(2,1)*r(1,3)-r(2,3))/(1-r(2,1)*r(1,2))))))


Ces quations ne sont fournies ici que pour ceux qui voudraient les utiliser pour intgration dans des routines de programmation.

3. Fonction dauto-corrlation et fonction dauto-corrlation partielle


Lauto-corrlation consiste corrler la srie avec elle-mme, en introduisant un dcalage entre les deux chantillons. Lautocorrlation de dcalage 0 est gale 1, puisque la srie est corrle avec elle-mme. Puis la corrlation diminue au fur et mesure que le dcalage saccrot. On appelle fonction d'auto-corrlation C() la fonction faisant correspondre au dcalage l'auto-corrlation correspondante. Si le signal prsente une priodicit, on retrouve un maximum dauto-corrlation pour chaque priode significative du signal. Vereijken (1991) utilise ainsi lauto-corrlation pour dterminer la frquence doscillation du simulateur de ski. Une srie temporelle de bruit blanc prsente la particularit de ne prsenter que des auto-corrlations nulles, quel que soit le dcalage (C()=0). On peut galement calculer une fonction dauto-corrlation partielle. Dans ce cas on calcule pour chaque dcalage la corrlation entre la srie et la srie dcale, en contrlant linfluence de tous les dcalages intermdiaires. Les logiciels de statistiques fournissent gnralement les fonctions dauto-corrlation et dauto-corrlation partielle ; Il peut tre utile cependant de connatre les algorithme de calcul. Soit r(k) lauto-corrlation de dcalage k Soit rp(k) lauto-corrlation partielle de dcalage k (donc contrlant tous les dcalages intermdiaires)

rp(1) = r(1) rp(2) = (r(2) - (r(1)) / (1 - r(1)) phi(1, 1) = rp(1) phi(2, 2) = rp(2) Pour les dcalages k suprieurs 2, et pour des valeurs de j variant de 1 k-2: phi(k - 1, j) = phi(k - 2, j) - (phi(k - 1, k - 1) * phi(k - 2, k - 1 - j)) Pour les valeurs de k suprieures 3 rp(k) = (r(k) j=1 k-1(phi(k - 1, j) * r(k - j))) / (1 j=1 k-1(phi(k - 1, j) * r(j)))

4. Corrlations court terme


Le modles ARIMA, dvelopps par Box et Jenkins (1976) permettent de modliser les dpendances court terme dans les sries. On entend par dpendance court terme le fait que la valeur actuelle ne soit dtermine que par un ensemble limit de valeurs prcdentes.

4.1. Processus dintgration


Une diffrenciation d'ordre 1 suppose que la diffrence entre deux valeurs successives de y est constante.

yt yt-1 = + t

(19)

est la constante du modle, et reprsente la diffrence moyenne en y. Un tel modle peut tre reprsent comme un accroissement linaire en fonction du temps. Si est gal 0, la srie est stationnaire.
Les modles d'ordre 2 travaillent non plus sur les diffrences brutes, mais sur les diffrences de diffrence. La seconde diffrence de y au moment t est gale (yt -yt-1 ) - (yt-1 yt-2), c'est--dire yt 2yt-1 + yt-2. Un tel modle obira lquation de prdiction suivante :

yt 2yt-1 + yt-2 = + t
ou encore:

(20)

yt = + 2yt-1 - yt-2 + t 4.2. Processus auto-rgressifs

(21)

Les modles auto-rgressifs supposent que yt est une fonction linaire des valeurs prcdentes.

y t = + 1y(t-1) + 2y(t-2) + 3y(t-3).+ t

(22)

Littrairement, chaque observation est constitue d'une composante alatoire (choc alatoire, ) et d'une combinaison linaire des observations prcdentes. 1, 2 et 3 dans cette quation sont les coefficients d'auto-rgression A noter que cette quation porte soit sur les donnes brutes, soit sur les donnes diffrencies. Lassociation dun processus auto-rgressif et dune diffrenciation donne:

yt yt-1 = + (yt-1 yt-2) + t


Ce qui peut galement tre crit:

(23)

yt = + yt-1 + (yt-1 yt-2) + t

(24)

Notez qu'un processus auto-rgressif ne sera stable que si les paramtres sont compris dans un certain intervalle ; par exemple, s'il n'y a qu'un paramtre auto-rgressif, il doit se trouver dans l'intervalle -1<1<+1. Dans les autres cas, les effets passs s'accumuleraient et les valeurs successives des yt se dplaceraient infiniment vers l'avant, ce qui signifie que la srie ne serait pas stationnaire.

4.3. Processus de moyenne mobile


Les modles moyenne mobile suggrent que la srie prsente des fluctuations autour d'une valeur moyenne. On considre alors que la meilleure estimation est reprsente par la moyenne pondre d'un certain nombre de valeurs antrieures (ce qui est le principe des procdures de moyennes mobiles utilises pour le lissage des donnes). Ceci revient en fait considrer que lestimation est gale la moyenne vraie, auquel on ajoute une somme pondre des erreurs ayant entach les valeurs prcdentes :

y t = -1(t-1) -2(t-2) -3(t-3). + t.

(25)

Littrairement, chaque observation est compose d'une composante d'erreur alatoire (choc alatoire, ) et d'une combinaison linaire des erreurs alatoires passes. 1, 2 et 3 sont les coefficients de moyenne mobile du modle. Comme prcdemment cette quation porte soit sur les donnes brutes, soit sur les donnes diffrencies si une diffrenciation a t ncessaire. Pour lassociation dune diffrenciation et dun terme de moyenne mobile on aura :

yt yt-1 = - t-1 + t
Ce qui peut galement tre crit:

(26)

yt = + yt-1 - t-1 + t

(27)

Un modle de moyenne mobile correspond des sries exhibant des fluctuations alatoires autour d'une moyenne variant lentement. Plutt que de prendre comme prcdemment la valeur prcdente comme prdicteur, on utilise une moyenne de quelques observations prcdentes, de manire liminer le bruit, et estimer plus prcisment la moyenne locale.

4.4. Les modles ARIMA


L'objectif essentiel des modles ARIMA est de permettre une prdiction de l'volution future d'un phnomne. Son dveloppement dans le domaine de l'conomtrie est bas sur ce principe. Un autre intrt, peut-tre plus essentiel en ce qui concerne la recherche scientifique, est de comprendre la signification thorique de ces diffrents processus. Il est clair cependant que cette interprtation dpend de la nature du phnomne tudi, et des modles dont le chercheur dispose pour en rendre compte. Un modle ARIMA est not (p,d,q), p correspondant au nombre de termes autorgressifs, d au nombre de diffrenciations, et q au nombre de termes de moyenne mobile. De nombreuses combinaisons sont envisageables. On peut ici dcrire trois modles particulirement courants : - le modle ARIMA(0,0,0) dcrit un processus non diffrenci bruit blanc, suggrant des fluctuations alatoires autour d'une valeur de rfrence stable. Cette valeur de rfrence peut

tre considre comme une caractristique stable du systme tudi (trait de personnalit, mmoire, capacit stabilise, etc..) - le modle ARIMA (0,1,1), sans constante significative, obit lquation suivante :

yt = yt-1 - t-1 + t

(29)

Ce modle suggre que la valeur de rfrence volue d'une mesure l'autre. Plus prcisment, la valeur de rfrence est fonction de la valeur de rfrence prcdente et de l'erreur ayant entach la mesure prcdente. Le processus tend simultanment prserver la valeur de rfrence et garder la mmoire des perturbations successives les erreurs successives. La valeur du coefficient de moyenne mobile dtermine lquilibre entre ces deux tendances opposes. Ce modle a t notamment utilis pour dcrire la dynamique de lestime de soi (Fortes, Delignires & Ninot, 2004). - le modle ARIMA (1,0,0) : un tel processus auto-rgressif suggre que le phnomne tudi possde une dynamique de relaxation par rapport une valeur attractive. Lorsque le processus scarte de cette valeur, il tend la rejoindre au bout dun certain temps. La valeur du coefficient dauto-rgression dtermine la force de lattracteur. Cette dynamique a t retrouve dans la dynamique de mmorisation dune squence morphocintique (Delcor, Cadopi, Delignires & Mesure, 2003).

4.5. Identification des modles ARIMA


4.5.1. Diffrenciation
L'estimation des modles ARIMA suppose que l'on travaille sur une srie stationnaire. Ceci signifie que la moyenne de la srie est constante dans le temps, ainsi que la variance. La meilleure mthode pour liminer toute tendance est de diffrencier, c'est--dire de remplacer la srie originale par la srie des diffrences adjacentes. Une srie temporelle qui a besoin d'tre diffrencie pour atteindre la stationnarit est considre comme une version intgre d'une srie stationnaire (d'o le terme Integrated). La correction d'une non-stationnarit en termes de variance peut tre ralise par des transformation de type logarithmique (si la variance crot avec le temps) ou l'inverse exponentielle. Ces transformations doivent tre ralises avant la diffrenciation. Une srie stationnaire fluctue autour d'une valeur moyenne et sa fonction d'autocorrlation dcline rapidement vers zro. Si une srie prsente des auto-corrlations positives pour un grand nombre de dcalages (par exemple 10 ou plus), alors elle ncessite d'tre diffrencie. L'ordre optimal de diffrenciation est souvent celui pour lequel l'cart-type est minimal. Un accroissement de l'cart-type doit donc tre considr comme un symptme de sur-diffrenciation. Un troisime symptme de sur-diffrenciation est un changement systmatique de signe d'une observation l'autre. Un modle sans diffrenciation suppose que la srie originale est stationnaire. Un modle avec une diffrenciation d'ordre 1 suppose que la srie originale prsente une tendance constante. Un modle avec une diffrenciation d'ordre 2 suppose que la srie originale prsente une tendance variant dans le temps.

4.5.2. Termes auto-rgressifs et de moyenne mobile.


Aprs que la srie ait t stationnarise, l'tape suivante consiste identifier les termes AR et MA ncessaires pour corriger les auto- corrlations rsiduelles. Cette analyse est base sur l'examen des fonctions d'auto-corrlation et d'auto-corrlation partielle. Rappelons que

l'auto-corrlation est la corrlation d'une srie avec elle-mme, selon un dcalage (lag) dfini. L'auto-corrlation de dcalage 0 est par dfinition gale 1. La fonction d'auto-corrlation fait correspondre chaque dcalage l'auto-corrlation correspondante. D'une manire gnrale, une corrlation partielle entre deux variables est la quantit de corrlations qui n'est pas explique par les relations de ces variables avec un ensemble spcifi d'autres variables. Dans le cas des sries temporelles, la corrlation partielle de dcalage k est la corrlation entre yt et yt-k, contrlant l'influence des k-1 valeurs interposes. L'autocorrlation de dcalage 1 est la corrlation entre yt et yt-1 . On suppose que c'est galement la corrlation entre yt-1 et yt-2 Si yt et yt-1 sont corrls, et que yt-1 et yt-2 le sont galement, on peut supposer qu'une corrlation sera prsente entre y et yt-2. C'est--dire que la corrlation de dcalage 1 se propage au dcalage 2 et sans doute aux dcalages d'ordre suprieurs. Plus prcisment, la corrlation attendue au dcalage 2 est la carr de la corrlation observe au dcalage 1. L'auto-corrlation partielle de dcalage 2 est donc la diffrence entre l'auto-corrlation de dcalage 2 et la corrlation attendue due la propagation de la corrlation de dcalage 1. Les outils principaux utiliss lors de la phase d'identification sont donc les tracs de la srie, les corrlogrammes d'autocorrlation (FAC), et d'autocorrlation partielle (FACP). La dcision n'est pas simple et les cas les plus atypiques requirent, outre l'exprience, de nombreuses exprimentations avec des modles diffrents (avec divers paramtres ARIMA). Toutefois, les composantes des sries chronologiques empiriques peuvent souvent tre assez bien approches en utilisant l'un des 5 modles de base suivants, identifiables par la forme de l'autocorrlogramme (FAC) et de l'autocorrlogramme partiel (FACP). Puisque le nombre de paramtres ( estimer) de chaque type dpasse rarement 2, il est souvent judicieux d'essayer des modles alternatifs sur les mmes donnes.

(1) Un paramtre autorgressif (p) : FAC - dcomposition exponentielle ; FACP - pic la priode 1, pas de corrlation pour les autres priodes. (2) Deux paramtres autorgressifs (p) : FAC - une composante de forme sinusodale ou un ensemble de dcompositions exponentielles ; FACP - pics aux priodes 1 et 2, aucune corrlation pour les autres priodes. (3) Un paramtre de moyenne mobile (q) : FAC - pic la priode 1, aucune corrlation pour les autres priodes ; FACP - exponentielle amortie. (4) Deux paramtres de moyenne mobile (q) : FAC - pics aux priodes 1 et 2, aucune corrlation pour les autres priodes ; FACP - une composante de forme sinusodale ou un ensemble de dcompositions exponentielles. (5) Un paramtre autorgressif (p) et un de moyenne mobile (q) : FAC - dcomposition exponentielle commenant la priode 1 ; FACP - dcomposition exponentielle commenant la priode 1.

5. Corrlations croises
5.1. Cross-corrlation et cross-corrlation partielle
Le calcul du coefficient de cross-corrlation permet de rendre compte du degr dassociation entre deux sries temporelles X et Y : il sagit simplement dune corrlation de Bravais-Pearson, prenant en considration les couples successifs de valeurs synchrones (xt et yt) dans les deux sries. Le coefficient de cross-corrlation peut galement tre calcul en introduisant un dcalage temporel entre les deux sries : le calcul est alors ralis en prenant

en compte des couples de valeurs spares par un dcalage constant (xt et yt+k). Ce calcul peut tre ralis pour un ensemble de dcalages, positifs et ngatifs, dbouchant sur une fonction de cross-corrlation, mettant en relation le dcalage et le coefficient de cross-corrlation correspondant. Ces fonctions de cross-corrlation permettent en particulier la dtermination du dcalage correspondant lassociation maximale entre les deux variables, suggrant que linfluence dune srie sur lautre sexerce selon un certain dlai temporel. Le signe de ce dcalage permet galement didentifier le sens de cette influence : si les volutions de la srie X prcdent des volutions similaires de la srie Y, on peut en conclure une influence de la premire variable sur la seconde. La figure 1 donne un exemple dutilisation de la crosscorrlation. Les donnes sont tires dune exprience doscillation de lavant-bras en synchronisation avec un mtronome. Les carrs blancs reprsentent la fonction de cross-corrlation entre lerreur au mtronome et la priode doscillation. On voit que les priodes futures sont ngativement corrles lerreur prsente (justifiant lhypothse dune correction). Inversement, lerreur est positivement corrle aux priodes prcdentes. Les deux autres courbes reprsentent les fonctions de cross-corrlation entre lerreur au mtronome et les demi-priodes aller et retour des oscillations. On remarque que les corrlations ngatives prcdemment releves entre lerreur et les priodes futures sont principalement expliques par un effet sur la seconde demi-priode du cycle. A linverse, leffet de la priode sur lerreur venir est principalement explique par la premire partie du cycle.
0.4 Asynchronies/full periods 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 Lag 2 3 4 5 6 7 8 9 10 Asynchronies/forw ard periods Asynchronies/backw ard periods

On peut galement calculer des fonctions de cross-corrlation partielle, contrlant linfluence des dcalages intermdiaires. Notez que dans ce cas on a le choix de contrller soit la premire variable, soit la seconde. La figure 2 illustre sur les donnes prsentes prcdemment, lintrt de cette analyse. Les ronds blancs reprennent la fonction de crosscorrlation entre erreur et priode (seuls les dcalages positifs sont reprsents). Les deux autres courbes reprsentent les fonctions de cross-corrlation partielles, contrlant lerreur (ronds blancs) ou la priode (carrs noirs). On voit que lorsque lon contrle lerreur, la persistence de la crosscorrlation disparat : il ny a pas de corrlation significative au-del de

Correlation

Figure 1 : Fonctions de cross-corrlation (voir dtails dans le texte)

la premire valeur, suggrant que lerreur affecte simplement la priode suivante. La persistance des corrlations dans la fonction de cross-corrlation ntait donc lie qu des effets indirects. Lorsque lon contrle la priode, la cross-corlation conserve sa persitence, et prsente mme des valeurs plus fortes (en valeurs absolues). Cet effet semble li la prsence de corrlations fractales dans les erreurs, un rsultats difficile expliquer dans le cadre de ce cours.
0.1 0.05 0 -0.05 correlation -0.1 -0.15 -0.2 -0.25 -0.3 -0.35

* * *
0 1 2 3 4 lag 5 6

CCF PCCF(period)

PCCF(asynchrony)

Figure 2 : Fonctions de cross-corrlation partielles (voir dtails dans le texte)

5.2. Cross-corrlation fentre


Supposons deux sries, reprsentant lvolution de deux variables couples de manire non-linaire. En dautres termes, la direction du processus dinfluence entre ces deux sries varie au cours du temps, ainsi que la force de cette influence. Si lon applique une approche cross-corrlationnelle ces sries, prises dans leur ensemble, le dcalage correspondant au maximum de la fonction de cross-corrlation reprsentera en quelque sorte la moyenne des dcalages qui auraient pu tre successivement mesurs au cours de lobservation. Une solution pour analyser ce type de phnomne est de calculer la cross-corrlation sur une fentre limite, et de faire glisse ensuite cette fentre tout au long des sries analyses. La figure 3 montre deux sries correspondant langulation de la hanche (en haut) et celle de la cheville (en bas), lors du maintien de la station de bout chez un patient paraplgique sous stimulation lectrique fonctionnelle (Simon, 2006). La fonction de cross-corrlation fntre indique comment le couplage entre les deux articulations peut varier de la phase (cross-corrlation positive) lantiphase (crosscorrlation ngative) au cours du mme essai.

95 93 91 89 87 85 83 81 79 77 75 1 134 267 400 533 666 799 932 1065 1198 1331 1464 1597

1 0.5 0 -0.5 -1 0 200 400 600 800 1000 1200 1400 1600 1800 2000

Figure 3. Mise en vidence des processus de couplage par cross-corrlation. Daprs Simon (2006). La figure 4 reproduit les fonctions de cross-corrlation fentres obtenues entre la valeur physique perue, et ses quatre dimensions constitutives (endurance, comptence sportive, apparence, et force). On voit qu certains moments les quatres variables contribuent simultanment la variable suprieure. Puis les diffrentes variables prennent successivement lascendant, dans un processus dalternance.
0.8 0.7 0.6

Cross-corrlation.

0.5 0.4 0.3 Endurance 0.2 0.1 0 280 290 300 310 320 330 340 350 360 370 380 Comptence sportive Apparence Force

Figure 4: Analyse, par cross-corrlation fentre, de la contribution de lendurance, la comptence sportive, lapparence et la force la valeur physique perue (Fortes, 2003).

5.3. Fonction de cross-corrlation fntre


Une mthode de cross-corrlation fentre mobile (windowed cross-corrlation) a t rcemment propose par Boker, Xu, Rotondo et King (2002). Cette mthode consiste

calculer la fonction de cross-corrlation au niveau dun segment temporel limit, o lon fait lhypothse dune stationnarit relative de lassociation entre les deux sries. On rpte ensuite ce traitement en dcalant dune valeur la fentre de calcul, et ainsi de suite jusqu ce que lensemble de la srie ait t traite. Lensemble de ces calculs permet dobtenir une srie de fonctions locales de cross-corrlation. Un algorithme de recherche de pic permet ensuite de dterminer les maxima de ces fonctions, et dtablir la srie des dcalages successifs correspondant ces maxima. Soient deux sries X et Y, de longueur totale N, X = {x1, x2, , xN} et Y = {y1, y2, , yN} Soient n la longueur de la fentre mobile, et d (>0) le dcalage maximum soumis lanalyse. On verra plus loin les contraintes pesant sur la dtermination de ces deux paramtres. Lanalyse commence avec un premier segment longueur n de la srie X, X(a,n) = {xa, xa+1, xa+2,, xa+n-1}. Pour lensemble des dcalages k compris entre d et +d, on calcule le coefficient de cross-corrlation locale entre les deux sries, dfini par :
a+n (xi X (a,n))(yi +k Y (a +k,n)) r(X(a,n),Y(a +k,n))= 1 n i =a SD(X(a,n))SD(Y(a +k,n))

(30)

o X (a,n) et Y (a + k,n) reprsentent les moyennes des deux segments des sries X et Y de longueur n commenant respectivement par xa et ya+k, et SD(X(a,n)) et SD(Y(a+k,n)) leurs carttype. On obtient donc une srie de 2d+1 coefficients, dfinissant la fonction locale de crosscorrlation, indexe sur la valeur centrale du segment X(a,n). On peut noter que classiquement, le calcul dun coefficient de cross-corrlation de dcalage k entrane la perte de |k| donnes dans chacune des sries, ce qui gnre une diminution progressive des degrs de liberts au fur et mesure que le dcalage crot, en valeur absolue. Dans le cas prsent, le dcalage de la srie Y sopre sans perte de donnes, puisque la dfinition de chaque segment Y(a+k,n) sopre par glissement dune fentre de longueur n sur la srie Y. Afin de permettre ce glissement sans perte de donnes pour les dcalages ngatifs au dbut de lanalyse, on commence les calculs pour a = d. Les calculs sont ensuite rpts pour des valeurs incrmentes de a (a = d+1, d+2, , N-d). La valeur maximale permet le glissement du segment Y(a+k,n) jusquau dcalage d, sans perte de donnes. Lensemble de ces calculs produit une srie de N-2d fonctions locales de crosscorrlation. Un algorithme de recherche de pic permet ensuite de dterminer les maxima de ces fonctions, et dtablir la srie des dcalages successifs correspondant ces maxima. Les rsultats, reprsents sous forme de diagrammes de densit (Figure 5), font clairement apparatre la rcurrence de dynamiques locales, dune srie lautre, selon des dlais temporels qui peuvent tre importants. Ce traitement a utilis une fentre de 15 donnes et un dcalage maximum de 50 (soit en tout 101 dcalages explors, de 50 50). On peut remarquer que de nombreux lots de corrlation situent des dcalages de +/- 28 ou +/- 42, suggrant la rcurrence occasionnelle de dynamiques hebdomadaires dans les sries. On retrouve cependant surtout une zone de cross-corrlations leves autour du dcalage zro, qui laisse supposer que cest ce niveau proximal que les influences directes de srie srie se situent.

50 45 40 35 30 25 20 15 10 5 0 -5 -10 -15 -20 -25 -30 -35 -40 -45 -50 500 510 520 530 540 550 560 570 # Fentre 580 590 600 610 620 0.8-0.9 0.7-0.8 0.6-0.7 0.5-0.6 0.4-0.5 Dcalage

Figure 5 : Reprsentation des rsultats de lanalyse de cross-corrlation fentre. En abscisse, on reporte les indices temporels de la valeur centrale des fentres, et en ordonne les dcalages soumis analyse. Les couleurs indiquent la grandeur du coefficient de crosscorrlation. Seules les corrlations suprieures 0.5 ont t indiques. Ce graphique correspond aux rapports entre Estime Globale de soi et Valeur Physique Perue). Cette figure rend compte denviron deux mois dvaluation, raison de deux valuations par jour. Ltendue des dcalages permet de mettre en vidence des dlais de plus ou moins trois semaines (daprs Fortes, 2003).

6. Corrlations long terme


Les processus ARIMA sont caractriss par une mmoire court terme : La valeur actuelle est dtermine la valeur qui prcde, et limportance des valeurs prcdentes dcrot de manire exponentielle. De nombreux phnomnes naturels semblent possder des dpendances temporelles plus long terme : les corrlations dans la srie persistent de manire durable. Ces caractristiques signent la prsence dune structure fractale.

6.1. Auto-similarit et dpendance long terme


On appelle bruit toute variation imprvisible dune quantit dans le temps. Le bruit blanc est le plus alatoire des bruits. Dans ce cas, il nexiste aucune corrlation entre les accroissements successifs de la quantit. La fonction dauto-corrlation est donc nulle (C()=0), et la densit spectrale est quivalente quelle que soit la frquence (ce qui est une caractristique de la lumire blanche, do le nom attribu ce type de distribution). Le bruit blanc a une distribution gaussienne, et une moyenne nulle. Le mouvement brownien est lintgration dun bruit blanc. On parle galement de marche au hasard biaise (biased random walk). En une dimension, il reprsente par exemple le mouvement d'une particule le long d'une ligne sous l'effet de chocs de direction et d'intensit alatoires. Soit x(t) la position de la particule au temps t
x(t)=x(t-1) + x(t),

les accroissements x(t) suivant une distribution bruit blanc. Einstein (1905) a montr que dans le cas d'un mouvement brownien, la variance des accroissements est proportionnelle l'intervalle de temps considr. Les accroissements tant de moyenne nulle, cette variance correspond lesprance mathmatique du carr des accroissements : Var(x) = E((x E(x))) = E(x) - E(x) = E(x) Cette esprance mathmatique peut tre estime par la moyenne calcule sur un intervalle considr, <x>. La relation dEinstein prend la forme suivante :

Var(x)= <x> = 2Dt

(31)

o le paramtre D est le coefficient de diffusion. Le coefficient de diffusion est une mesure moyenne de l'activit stochastique, c'est--dire qu'il est li l'amplitude et la frquence des chocs. La relation ci-dessus est aisment extensible aux mouvements brownien bi- ou tridimensionnels. Le terme de mouvement brownien fractionnaire a t introduit par Mandelbrot et van Ness (1968), et constitue une gnralisation du mouvement brownien. Pour cette famille de processus, la relation d'Einstein est gnralise sous la loi d'chelle suivante:

Var(x)= <x> t2H


Ou encore

(32) (33)

x= tH

dans laquelle H peut tre n'importe quel rel compris entre 0 et 1. Pour un mouvement classique brownien, H=0.5, et lon retrouve la relation linaire dEinstein. Le mouvement brownien fractionnaire (fBm) est caractris par la prsence de corrlations long terme, lorsque H est diffrent de 0.5. Un exposant suprieur 0.5 rvle des phnomnes de persistance, cest--dire que lvolution de la srie tend suivre des tendances. Si la srie a augment prcdemment, la probabilit est forte quil continue le faire. Les sries persistantes ont une mmoire long terme, cest--dire quil existe une corrlation long terme entre les vnements actuels et les vnements futurs. Chaque observation porte la mmoire des vnements qui lont prcd. A linverse, un exposant infrieur 0.5 rvle un phnomne danti-persistance. Dans ce cas les accroissements successifs tendent tre ngativement corrls. Une augmentation de la variable tend tre suivi dune diminution, et vice-versa.

Il existe une autre famille de processus, lie la prcdente : les bruits gaussiens fractionaires (fGn). Un fGn est la diffrentiation dun fBm, et les deux sries sont caractrises par le mme exposant H. H = 0.5 correspond donc au mouvement brownien dans la famille des fBm, et au bruit blanc dans la famille des fGn. Ce modle fBm/fGn est fondamental. Sa mconnaissance dans de nombreux articles publis avant 2000 a donn lieu de nombreuses interprtations errones des rsultats (voir Eke et al., 2000, Delignires et al., 2006). La figure 6 illustre ce modles dichotomique.
Mouvements Browniens fractionnaires

H = 0.25

H = 0.50
Bruits gaussiens fractionnaires

H = 0.75

H = 0.25

H = 0.50

H = 0.75

Figure 6: Exemples graphiques de sries fractales. Les graphes du haut reprsentent des mouvements browniens fractionnaires (fBm) et les graphes du bas les bruits gaussiens fractionnaires (fGn) correspondants, pour trois vaeurs typiques de lexposant dchelle. Les graphes du centre reprsentent le mouvement brownien ordinaire en haut (H=0.5) , et sa srie diffrencie (bruit blanc) endessous. Les colonnes de gauche et de droite reprsentent respectivement les fBm anti-persistants et persistants, et leurs fGn correspondant.

Le mouvement brownien fractionnaire est galement caractris par des proprits dauto-similarit ou dinvariance d'chelle. Lauto-similarit dun objet fractal renvoie au fait que lobjet peut tre dcompos en sous-units, puis en sous-sous units, qui possdent les mmes proprits statistiques que lobjet global. Quelle que soit lchelle dobservation, on observe donc des caractristiques identiques. Pour mettre en vidence lauto-similarit dune courbe reprsente en deux dimensions, on slectionne un segment de la courbe, et on applique aux deux chelles un facteur identique damplification. Les proprits statistiques de la courbe r-talonne doivent tre similaires celles de la courbe dorigine. Ce concept de structure fractale peut tre tendu aux sries temporelles. Lautosimilarit signifie alors quen moyenne, les fluctuations sur une chelle de temps sont similaires aux fluctuations sur d'autres chelles de temps. Cette extension pose cependant problme. Si une srie temporelle est classiquement reprsente sur un plan en deux dimensions, ces deux dimensions renvoient des grandeurs physiques diffrentes (le temps en

abscisse, la variable voluant dans le temps en ordonne). On aura donc besoin de deux facteurs damplification distincts (un pour le temps, et lautre pour la variable). En termes mathmatiques, une srie temporelle sera auto-similaire si :
d t y (t ) a y ( ) a
d

(34)

signifie que les proprits statistiques des deux cts de lquation sont identiques. En dautres termes, un processus auto-similaire y(t), avec un paramtre a une probabilit de distribution identique un processus r-talonn de manire adquate, ay(t/a), cest--dire une srie temporelle qui a t r-talonne sur laxe des x par un facteur a (tt/a), et sur laxe des y par un facteur a (y ay). Lexposant est appel paramtre dauto-similarit.
En pratique, il est impossible de dterminer si deux processus sont statistiquement identiques, car ce critre ncessite quils aient des fonctions de distribution identiques (comprenant la moyenne, la variance, mais galement tous les moments dordres plus levs). On approche gnralement cette quivalence par un critre plus souple en nexaminant que les deux premiers moments (moyenne et variance). La figure 7 illustre cette dmarche, dans le cadre d'une srie temporelle.

Soit Mx le facteur damplification appliqu au temps et My le facteur appliqu la variable. Le paramtre dauto-similarit peut tre calcul par la simple relation :

Figure 7 : Phnomne dauto-similarit dans une srie temporelle.

ln M y ln M x
(35)

Mx peut tre calcul en faisant le rapport des tailles de la srie initiale et de la srie extraite (Mx=n2/n1). Une estimation de My peut tre ralise par le rapport des carts types des deux distributions (My=s2/s1). On obtient donc :

ln M y ln M x

ln s2 ln s1 ln n2 ln n1

(36)

Cette relation est simplement la pente de la droite joignant les deux points (n1,s1) et (n2,s2) sur un graphe log-log.

6.2. La fonction dauto-corrlation


Une srie prsentant des corrlations long terme est dfinie comme une srie prsentant une fonction d'auto-corrlation possdant une proprit trs prcise: C() -, avec 0 < <1. En d'autres termes la fonction d'auto-corrlation suit une loi puissance. Ceci implique que dans le domaine frquentiel, on a galement une loi puissance 1/f ( = 1 - ). La figure 8 contraste titre dexemple les fonctions dauto-corrlation dun processus auto-rgressif et celle dun bruit gaussien fractionnaire. La premire prsente une extinction exponentielle de lauto-corrlation, alors que la seconde prsente une diminution plus lente, de type puissance. On considre cependant que la fonction dauto-corrlation ne contient pas suffisamment dinformation pour une estimation valide de lexposant fractal.

AR(1)
4 3 2 1 0 -1 -2 -3 -4

fGn
0.6 0.4 0.2 0 - 0.2 - 0.4 - 0.6

0.6 0.5

0.6 0.5

autocorrelation

autocorrelation

0.4 0.3 0.2 0.1 0 -0.1 0 5 10 15 20 25 30

0.4 0.3 0.2 0.1 0 -0.1 0 5 10 15 20 25 30

lag

lag

Figure 8 : Fonctions dauto-corrlation de processus auto-rgressifs et de processus fractals.

6.3. Mthodes spectrales


Une mthode classique pour analyser ces processus stochastiques consiste s'intresser au spectre de puissance de la srie. Ce spectre, ou priodogramme, est obtenu par une analyse de Fourier. Le priodogramme prsente les frquences f en abscisse, et le carr des amplitudes correspondantes, notes S(f), en ordonnes. La relation de Mandelbrot et van Ness (1968) peut tre exprime sous la forme:

S(f)1/f

(37)

On dtermine l'exposant de la pente de la droite ajustant la relation entre Log10f et Log10S(f) (figure 9).

Log10S(f) Log10f

(38)

Pour un processus de bruit blanc, est gal 0. Un mouvement brownien est caractris par un exposant gal 2. Enfin, l'exposant =1 correspond au cas particulier o S(f) est proportionnel 1/f. Il s'agit du bruit rose, ou bruit 1/f. Lexposant est li la fonction dautocorrlation, car le spectre de puissance est simplement la transforme de Fourier de la fonction dautocorrlation. Si [C() -] (cas des mouvements fractionnaires browniens), alors = 1 - . On peut en driver une relation directe entre et : = 2 - 1. La DFA est cependant plus adapte aux sries non stationnaires, car lanalyse de Fourier requiert un minimum de stationnarit.

Figure 9 Estimation de l'exposant (d'aprs Hausdorff et al., 1996)

6.4. Mthodes temporelles


6.4.1. La Rescaled range Analysis
Hurst (1965) a propos une mthode appele analyse des tendues normalises, ou Rescaled Range Analysis (R/S Analysis). La mthode consiste estimer, pour un intervalle d'effectif donn, le rapport entre l'tendue R de la srie centre et intgre, et l'cart-type S de la srie originale. En d'autres termes, la srie est considre comme la "cause" gnrant le dplacement d'une particule (dont rend compte la srie centre et intgre). On s'intresse la diffrence entre les limites minimale et maximale du dplacement, dans un certain intervalle temporel, normalis par l'cart-type de la cause ayant gnr le dplacement. Dans la logique de l'quation propose par Einstein, l'exposant de Hurst rend compte de la relation liant R/S la taille de l'chantillon. Soit une srie temporelle de N nombres, nots y(t). La mthode prconise par Hurst consiste prendre en considration une srie de subdivisions indpendantes, deffectif . Pratiquement, on part de sries deffectif 10, puis 11, 12, 13, jusqu leffectif le plus lev permettant de distinguer deux subdivisions (N/2 ou (N/2)-1). Pour chaque subdivision considre, la moyenne des donnes est

y(t )
t =1

(39)

Pour chaque subdivision, on centralise les donnes, en leur soustrayant la moyenne locale. Puis on tablit une srie de valeurs cumules lintrieur de chaque priode : on ajoute chaque donne la somme des valeurs centres qui la prcdent:
t u =1

Y (t , ) = y (u ) y

(40)

Donc pour chaque valeur de t (1 t ), on a une valeur de Y(t, ). Y(t, ) est une distribution intgre. On peut noter que si le signal original est un bruit blanc, Y(t, ) est un mouvement brownien. Ltendue R (range) est la diffrence entre le minimum et le maximum de Y(t, )

R= max Y(t, ) min Y(t, )


1t 1t

(41)

1.6 1.4 1.2 Log R/S 1 0.8 0.6 0.4 0.8 1.3 Log tau 1.8 2.3

Cette tendue est ensuite normalise au moyen dune division par lcart-type local (S(t,)). Enfin on procde au moyennage, par niveau deffectif, des tendues normalises R/S. Hurst montre que ltendue normalise R/S, o S reprsente lcart type de la srie des y(t) est lie la grandeur de l'intervalle considr par la relation suivante:

R/S = (a)H

(42)

Figure 10: Estimation graphique de l'exposant de Hurst.

O a est une constante et H est lexposant de Hurst. H peut tre estim par la mthode des moindres carrs, ou par l'estimation de la pente de la rgression log/log de R/S sur . Exprimentalement, R/S doit tre calcul pour un ensemble de valeurs de . Pour une variable alatoire (bruit blanc), H=0.5,

cest--dire:

a = (R/S)

(43)

Lexposant de Hurst est compris entre 0 et 1. Un exposant suprieur 0.5 rvle des phnomnes de persistance: le bruit nest pas alatoire, et la variable est sensible son histoire. La force du phnomne de persistance crot lorsque H approche de 1. A l'inverse un exposant infrieur 0.5 rvle un phnomne danti-persistance. Lanalyse de Hurst est dlicate pour les sries brves. Des fluctuations importantes peuvent tre obtenues avec des sries de moins de 500 donnes. Ceci explique pourquoi les subdivision les plus faibles utilises ne sont par infrieures 10. Enfin l'exposant de Hurst est sensible la taille de l'chantillon. Ainsi, De la Fuente et al. (1998) montrent que l'exposant obtenu pour la composante x de l'attracteur de Lorenz est gale 0.82 pour 5000 donnes, et 0.62 pour 40000. Par contre, pour un intervalle de temps donn, l'exposant de Hurst ne dpend pas de la frquence d'chantillonnage (De la Fuente et al., 1998).

6.4.2. La Detrended Fluctuation Analysis


Lanalyse des fluctuations redresses (DFA) cherche mettre en vidence les processus dauto-similarit dans les sries temporelles. Elle utilise la dmarche illustre dans la figure 7, qui est rpte un grand nombre de fois, sur un ensemble de fentres indpendantes et de tailles diverses. Les carts-types obtenus pour des fentres de tailles identiques sont moyenns, et lexposant est estim partir du graphe log-log de s sur n, en prenant en compte toutes les tailles dchantillon analyses. Le traitement de donnes exprimentales, et notamment physiologiques, pose cependant deux types de problmes, que la mthode DFA tente de contourner. Le premier est celui du bornage de sries physiologiques dans des limites "normales", le second est celui de la non-stationarit. Pour un processus auto-similaire avec un >0, lcart-type crot avec la taille de la fentre selon une loi puissance. De ce fait la srie nest pas borne. Cependant, la plupart des sries temporelles physiologiques ne possdent pas cette particularit : ltendue de la

variable est borne dans des limites, qui ne changent pas en fonction de la taille de la fentre dobservation (Hausdorff, Purdon, Peng, Ladin, Wei & Glodberger, 1996). De ce fait, on na pas besoin dutiliser de facteur damplification (My =1) pour mettre en vidence lautosimilarit. Dans ce cas on obtient donc un gal 0, ce qui correspond au paramtre caractristique des processus bruit blanc. On contourne ce problme en appliquant lanalyse non pas sur la srie originale, mais sur la srie intgre. Un autre problme est que les sries physiologiques sont en gnral non stationnaires. Une srie est stationnaire si la moyenne, lcart-type et les moments dordre suprieur, ainsi que les fonctions de corrlation demeurent invariants malgr les translations temporelles. Les signaux ne remplissant pas ces conditions sont non-stationnaires, et la procdure dintgration tend exagrer cette non-stationnarit. La DFA tente de contourner ce problme, en redressant les donnes lintrieur de chaque fentre analyse. Dans une premire tape, la srie originale y(i) est intgre. Pour cela on remplace chaque donne par la somme cumule des carts la moyenne :

y ( k ) = [ x (i ) x ]
i =1

(44)

On peut noter que si la srie originale constitue un bruit blanc, la srie intgre sera un mouvement brownien. La srie intgre est ensuite divise en fentres indpendantes de longueur quivalente n. Dans chaque fentre de longueur n, une droite des moindres carrs est estime, reprsentant la tendance de cette fentre. On note yn(k) les coordonnes y sur ces droites. La srie intgre est ensuite redresse en retranchant la tendance locale, dans chaque fentre (y(k)- yn(k)). Lanalyse porte donc sur les rsidus de la rgression. Pour une longueur de fentre donne, la grandeur caractristique des fluctuations pour cette srie intgre et redresse est :

F ( n) =

1 N

[ y(k ) y
k =1

( k )]

(45)

F(n) peut tre considr comme un cart-type, calcul par rapport la moyenne redresse. Ce calcul est rpt pour toutes les tailles de fentre pour produire une relation entre n et F(n). De manire typique, F(n) crot avec n. Une relation linaire, sur un graphe loglog rvle la prsence dauto-similarit (figure 11. La pente de la droite correspond au paramtre , qui peut tre considr comme une estimation de l'exposant H de l'quation de Mandelbrot et van Ness (1968).
2 1.5

=
1

log F(n)

0.5

-0.5

-1 1 1.5 2 2.5 3

log n

Figure 11 : Graphe de diffusion de la DFA.

Le paramtre dune srie temporelle intgre est li la fonction dauto-corrlation C() de la srie originale. Pour un processus bruit blanc, la valeur linstant t est noncorrle avec les valeurs prcdentes. La srie intgre correspond une marche alatoire (random walk), et donc =0.5. La fonction dauto-corrlation est gale 0 pour chaque dcalage diffrent de 0. On peut noter que de nombreux phnomnes naturels sont caractriss par de fortes auto-corrlations sur une chelle de temps caractristique 0, et une fonction dautocorrlation qui dcrot ensuite de manire exponentielle [C()exp(-/0)]. La pente initiale de la droite logF(n) vs logn peut tre diffrente de 0.5, mais approche 0.5 pour les tailles leves de fentre. Ces processus sont caractristiques des processus auto-rgressifs et de moyenne mobile mis en vidence dans les procdures ARIMA. Un suprieur 0.5 et infrieur ou gal 1 rvle des auto-corrlations plus persistantes, dcroissant selon une loi puissance [C() -]. La relation entre et est = 2 2. Le cas =1 est spcial et correspond un bruit 1/f , ou bruit rose (pink noise). Lorsque >1, les corrlations existent mais ne suivent plus une loi puissance. =1.5 indique que la srie originale est un mouvement brownien (une intgration de bruit blanc), appel encore bruit brun (brown noise). . Enfin lorsque 0<<0.5, des anti-corrlations, dcroissant selon une loi puissance sont prsentes, indiquant que des valeurs leves sont suivies de valeurs faibles, et vice-versa. Lexposant peut galement tre vu comme un indicateur de la rugosit de la srie originale. Plus est grand, plus la srie originale est lisse. Dans ce contexte, le bruit 1/f peut tre interprt comme un compromis entre limprdictibilit du bruit blanc et le paysage plus liss du bruit brownien.

6.4.3. La dispersional analysis


Certe mthode a t introduite par Bassingthwaighte (1988). La srie des x(t) est divise en inervalles contigus de longueur n. La moyenne de chaque intervalle est calcule, puis lcart-type (SD) de ces moyennes locales, pour une longueur n donne. Ces calculs sont rpts pour toutes les longueurs n possibles. SD est lie n par une relation puissance :
SD nH-1

La quantit (H-1) est exprime au travers de la pente de la droite reliant n SD, en coordonnes logarithmiques (figure 12). Evidemment, comme le nombre de moyennes inclues dans le calcul dpend du nombre dintervalles disponibles, le SD calcul pour les plus fortes valeurs de n tend tomber sous la droite de rgression et fausser lestimation. Caccia et al. (1997) suggrent dignorer les mesures obtenues pour les intervalles les plus longs. Delignires et al. (2006) limitent lanalyse aux cart-types obtenus avec au moins 6 intervalles contigus. Comme la R/S analysis, la Dispersional Analysis ne fonctionne que sur le fGn, et donne des rsultats errons avec les sries de fBm.

-0.9 -1.1 -1.3 -1.5

H = 0.259

log(SD )

-1.7 -1.9 -2.1 -2.3 -2.5 0.5 1 1.5 2

log(n )

Figure 12 : Dispersional Analysis (sries temporelles destime de soi, daprs Delignires, Fortes et Ninot, 2004).

6.5. Modlisation ARMA/ARFIMA


Les mthodes prsentes prcdemment permettent de mesurer lintensit des corrlations fractales dans les sries, mais ne peuvent en attester la prsence. Ces dernires annes, un enjeu a t de mettre au point des tests statistiques permettant de prouver la prsence de dpendances long terme dans les sries. Cest le but de la modlisation ARFIMA/ARMA, propose par Wagenmakers, Farrell et Ratcliff (2005) et Torre, Delignires et Lemoine (2007). On a prcdemment propos des formulations additives des modles ARIMA. On peut galement formaliser les modles ARIMA laide dun backshift operator , not B et dfini comme suit: Byt = yt-1 Soit par exemple un processus ARIMA (1, 0, 0) yt = + yt-1 + t yt - yt-1 = + t (1 - B)yt = + t Soit un processus (1, 1, 0) yt - yt-1 = + ( yt - yt-1) + t (1 - )(yt - yt-1) = + t (1 - )(1 - B) yt = + t Un modle ARIMA (p,d,q) peut tre gnralement formalis selon lquation: (46)

(B)(1 - B)d = (B)t

(47)

Avec et

(B) = 1 B1 B22 - ... - Bpp (B) = 1 - B1 B22 - - Bqq

Les modles ARIMA sont nots (p, d, q), d tant un entier. Granger (1980) montre que lon peut rendre compte de corrlations long terme en permettant d de prendre des valeurs fractionnaires. Il propose une nouvelle catgorie de modles, les ARFIMA (auto-regressive fractionally integrated moving average). La procdure propose par Wagenmakers, Farrell et Ratcliff (2005) et Torre, Delignires et Lemoine (2007) consiste comparer 9 modles ARMA(p,q) et 9 modles ARFIMA(p,d q), p et q variant systmatiquement de 0 2. Lvaluation de ces modles permet de calculer des scores de vraisemblance, et lon peut slectionner le meilleur modle sur la base de critres combinant vraisemblance et parcimonie. Torre et al. (2007) montrent que les meilleures performances sont obtenues avec le Bayes Information Criterion (BIC). A noter galement que lvaluation des modles ARFIMA teste lhypothse nulle d = 0, permettant donc dapporter une preuve statistique de la prsence de corrlations long terme dans les donnes. Torre et al. (2007) proposent daccepter lhypothse de corrlation long terme si (1) pour au moins 90% des sries analyses le meilleur modle est un ARFIMA, d tant significativement diffrent de 0. Rfrences Box, G.E.P., & Jenkins, G.M. (1970). Time Series Analysis, Forecasting and Control., San Francisco, CA : Holden-Day. Delcor, L., Cadopi, M., Delignires, D., & Mesure, S. (2003). Dynamics of the memorization of a morphokinetic movement sequence. Neuroscience Letters, 336, 25-28. Delignires, D., Fortes, M., & Ninot, G. (2004). The fractal dynamics of self-esteem and physical self. Nonlinear Dynamics in Psychology and Life Science, 8, 479-510. Delignires, D., Ramdani, S., Lemoine, L., Torre, K., Fortes, M. & Ninot, G. (2006). Fractal analysis for short time series : A reassessement of classical methods. Journal of Mathematical Psychology, 50, 525-544. Eke, A., Herman, P., Bassingthwaighte, J.B., Raymond, G.M., Percival, D.B., Cannon, M., Balla, I., & Ikrnyi, C. (2000). Physiological time series: distinguishing fractal noises from motions. Pflgers Archives, 439, 403-415. Fortes, M. (2003). La dynamique de lestime de soi et du soi physique. Un regard nouveau sur la variabilit et le fonctionnement des modles hirarchiques. Thse de doctorat STAPS, Universit Montpellier I. Fortes, M., Delignires, D., & Ninot, G. (2004). The dynamics of self-esteem and physical self: Between preservation and adaptation. Quality and Quantity, 38, 735-751. Fortes, M., Ninot, G., & Delignires, D. (2004). The hierarchical structure of physical self: Cross-correlational analysis of individual time series. International Journal of Sport and Exercise Psychology, 2, 119-132.

Mouve Bruits gaussi ments H = ens browni 0.25


Granger, C.W.J., & Joyeux, R. (1980). An introduction to long-memory models and fractional differencing. Journal of time Series Analysis, 1, 15-29. Mandelbrot, B.B., & van Ness, J.W. (1968). Fractional Brownian motions, fractional noises and applications. SIAM Review, 10, 422-437. Simon, C. (2006). La dynamique des stratgies posturales de patients paraplgiques verticaliss sous stimulation lectrique fonctionnelle. Mmoire de Master 2 Recherche, Universit Montpellier I Torre, K, Delignires, D., & Lemoine, L. (2007). Detection of long-range dependence and estimation of fractal exponents through ARFIMA modeling. British Journal of Mathematical and Statistical Psychology, 60, 85-106. Wagenmakers, E.-J., Farrell, S., & Ratcliff, R. (2004). Estimation and interpretation of 1/f noise in human cognition. Psychonomic Bulletin & Review, 11, 579615.

You might also like