You are on page 1of 96

ANALISI DELLE SERIE STORICHE:

Strumenti econometrici utilizzati in finanza

Capitolo I

di Stefano Caprioli
stefano.caprioli@tesiinborsa.it

TUTTI I DIRITTI RISERVATI

3
CAPITOLO I...........................................................................................................................5

Analisi delle serie storiche..................................................................................................................5


- Introduzione................................................................................................................................... 5
1.1 - Identificazione e Previsione.....................................................................................................6
1.2 - Strumenti di analisi per l’identificazione e la previsione: le medie mobili e lo smorzamento
esponenziale..................................................................................................................................... 9
1.2.1 - Smussamento singolo..........................................................................................................10
1.2.2 - Smorzamento doppio (ad un parametro).............................................................................14
1.2.3 - Smorzamento moltiplicativo...............................................................................................14
1.2.4 - Smorzamento additivo (tre parametri)................................................................................ 15
1.2.5 - Smorzamento non stagionale a due parametri.....................................................................15
1.3 - Momenti di un processo stocastico ....................................................................................... 16
1.3.1 - Valore medio atteso.............................................................................................................16
1.3.2 - Varianza ............................................................................................................................. 17
1.3.3 - Autocovarianza................................................................................................................... 17
1.4 – Una breve analisi delle funzioni di autocorrelazione............................................................ 17
1.5 - Ergodicità............................................................................................................................... 18
1.6 - Stazionarietà dei processi stocastici.......................................................................................19
1.7 - Invertibilità dei processi stocastici.........................................................................................21
1.8 - I modelli stocastici di Box e Jenkins.....................................................................................21
1.8.1 - Modello autoregressivo di ordine p (AR(p)).......................................................................22
1.8.2 -Processo AR(1).................................................................................................................... 22
1.8.3 - Modello a media mobile......................................................................................................23
1.8.4 - Processo MA(1)................................................................................................................. 24
1.8.5 - Stazionarietà ed invertibilità per processi AR(p) ed MA(q)............................................... 25
1.8.6 - Il modello ARMA(p,q)........................................................................................................26
1.9 - Significatività statistica del coefficiente di autocorrelazione.................................................27
1.10 - Differenze successive e Modelli ARIMA............................................................................28

4
Capitolo I

Analisi delle serie storiche

- Introduzione

Si definisce una serie storica una successione ordinata di numeri reali che misura un certo
fenomeno seguendo un preciso ordine temporale. Lo studio di tale successione trova la propria
ragion d'essere nel fatto che la conoscenza di quanto è avvenuto determina ciò che avverrà secondo
un principio generale di inerzia e di stabilità delle leggi che conosciamo. Nel caso in cui la serie
storica oggetto di studio non è di tipo deterministico ma si basa su una certa distribuzione di
probabilità, sarà chiamata processo stocastico.
Si definisce processo stocastico una famiglia di variabili casuali caratterizzate da un parametro "t"
(nel caso delle serie storiche tale parametro consiste nell'unità di tempo considerata). Tali variabili
casuali sono definite tutte nel medesimo spazio fondamentale "S"1.
In altre parole si può affermare che una data serie temporale è una particolare realizzazione di un
processo stocastico.

Figura 1.1 Esempio di una serie storica: serie osservata dei prezzi di riferimento giornalieri del titolo B.di Roma dal
4/02/’99 all’1/12/’99.

1
Lo spazio fondamentale è l’insieme degli eventi possibili. Quando si parla di variabili casuali esso coincide con il
campo di esistenza di una funzione, la variabile casuale appunto, la quale va da SàR con R insieme dei numeri reali.

5
Figura 1.2: Serie osservata dei prezzi di riferimento settimanali 2 del titolo B.Roma nel periodo Febbraio /Dicembre
’99.

1.1 - Identificazione e Previsione

Prima di approfondire l’analisi dell’investigazione di una serie storica, vanno sottolineate le due
principali finalità da perseguire allorquando si studia una sequenza di dati osservati nel corso del
tempo: innanzitutto va identificata la natura del fenomeno rappresentato dalla sequenza di
osservazioni a disposizione3; il secondo aspetto da valutare è la possibilità di operare previsioni
attendibili di sequenze di dati futuri sulla base delle informazioni disponibili dalla sequenza
osservata. Tali fattori vengono riportati in letteratura rispettivamente con i termini di identificazione
e previsione. Per perseguire entrambi molto spesso si assume che i dati siano la realizzazione di una
combinazione nota di un set di componenti predefinite più un termine di errore di natura stocastica
che normalmente crea delle difficoltà di identificazione del modello che si presta meglio a spiegare
il fenomeno osservato. In generale va detto che la maggior parte delle serie storiche possono essere
descritte in termini di due componenti fondamentali: il trend e la stagionalità. Il primo rappresenta
una componente della serie che cambia nel corso del tempo senza tuttavia presentare dei cicli
prevedibili a priori; la componente stagionale, al contrario, esprime delle variazioni riscontrabili ad
intervalli regolari e sistematici. Per quanto riguarda l’analisi del trend va sottolineato che non
esistono tecniche sempre valide ed “immediate” per evidenziare un trend, tuttavia laddove il trend è
monotono crescente o decrescente l’analisi risulta piuttosto facilitata. Molto spesso una semplice
osservazione visiva della serie permette di diagnosticare la presenza di un trend, tuttavia, laddove

2
I grafici delle figure 1.1 ed 1.2 riportano l’andamento dei prezzi del medesimo titolo e nel medesimo arco temporale,
tuttavia l’unità temporale di riferimento che caratterizza il parametro t è giornaliera nel primo grafico, settimanale nel
secondo. Risulta in tal modo chiaro quanto possa essere determinante la scelta del parametro temporale per descrivere
un fenomeno oggetto di studio.
3
Il processo di identificazione comporta un’attenta analisi della serie osservata volta a delineare la giusta relazione
funzionale da associare alla serie:l’impatto che le variabili esaminate hanno sulla serie nel corso del tempo.

6
non si è certi di poter fare affidamento su semplici impressioni, può essere utile analizzare le
funzioni di autocorrelazione in seguito specificate4. Spesso è necessario, al di là della mera
evidenziazione, rimuovere la componente di trend. A riguardo esistono varie metodologie, tra tutte
la più usata, nonché la più facile da utilizzare, risulta essere quella delle differenze successive 5. Tale
approccio si rivela molto conveniente allorquando si rimane nell’ambito della modellistica ARIMA
in seguito analizzata. In generale risulta utile “ridurre” la presenza di fattori di “disturbo” che
possono “nascondere” la componente di trend: tale obiettivo può essere raggiunto attraverso
l’utilizzo di opportune medie mobili. La componente stagionale è invece facilmente riscontrabile
osservando l’eventuale correlazione tra un elemento della serie e gli elementi successivi. Da un
punto di vista formale ciò è possibile attraverso l’analisi della funzione di autocorrelazione: un utile
strumento sia per l’analisi del trend che per l’analisi di fattori stagionali. Va sottolineato inoltre che,
anche per “smussare” le componenti stagionali, le medie mobili rappresentano un metodo efficace
in quanto, per costruzione, tendono a ridimensionare eventuali “outperformance”.

180
160
140
120
100
80
60
40
20
0
1
3
5
7
9
11

15

25

29
13

17
19
21
23

27

Figura 1.3: Esempio di serie storica con una chiara presenza di una componente di trend definita e crescente.

4
In particolare, se la funzione di Autocorrelazione globale tende a zero molto lentamente e con un andamento rettilineo,
si può essere certi della presenza di una componente di trend che caratterizza la serie di dati esaminata.Ulteriori
importanti indicazioni si possono dedurre dall’analisi della funzione di autocorrelazione parziale che, in presenza di
trend, fornirà valori prossimi a uno e molto più vicini a zero per K>1.
5
Una definizione completa delle differenze successive è presente nel paragrafo 1.10.

7
100

80

60

40

20

0
1
3
5
7
9

19

23

27
11
13
15
17

21

25

29
Figura 1.4: Evidenziazione del trend nella serie della figura 1.3 attraverso una media mobile esponenziale con peso
pari a 2/(n+1) dove n è la numerosità della serie osservata.

Figura 1.5: Esempio di come detrendizzare (o eliminare la componente di trend) la serie della figura 1.3. Per ottenere
la serie detrendizzata è stata applicata una differenza prima alla serie della figura 1.3. In altre parole il valore assunto
dalla serie detrendizzata al tempo t è dato dalla differenza tra il valore della serie della figura 1.3 al tempo t, meno il
valore della serie in figura 1.3 al tempo t-1. In tal modo si ottiene una serie priva della componente di trend lineare.

8
1.2 - Strumenti di analisi per l’identificazione e la previsione: le medie mobili e lo
smorzamento esponenziale

La figura 1.4 rappresenta in concreto come evidenziare la componente di trend di una serie
osservata utilizzando le medie mobili. In generale le tecniche di smussamento rappresentano il
primo passo per individuare un opportuno modello di previsione da applicare alla serie oggetto di
studio. La serie smussata attraverso l’utilizzo di una media mobile evidenzia un andamento
chiaramente lineare crescente, lasciando presupporre che un buon modello di previsione capace di
prevedere al meglio i valori futuri della serie potrebbe essere un modello lineare in funzione del
tempo: l’unità temporale diventa regressore del modello adottato. Le medie mobili vengono
calcolate su un insieme di osservazioni di numerosità costante e predeterminata, da aggiornarsi nel
tempo mediante l’eliminazione dei dati più vecchi e l’introduzione di quelli più recenti: in tal modo
si ottiene, così come si vede nella figura 1.4, una serie storica appiattita, caratterizzata da un ritardo
temporale rispetto a quella originaria, alla quale di solito viene affiancata. Un’ulteriore decisione
riguarda la metodologia di computo della media; di solito si utilizzano la media semplice, quella
ponderata o quella esponenziale. La media mobile semplice è quella più utilizzata:

n− 1

∑ P(n − i )
MMS (n) = i= 0

In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale indicatore è
caratterizzato dal fatto di presentare una scarsa sensibilità ai dati più recenti. La media mobile
ponderata viene invece utilizzata allorquando si vuole conservare il più possibile l’informazione
derivante dai dati più recenti. Essa può essere sintetizzata nella formula seguente:

n− 1

∑ P (n − i )W (n − i )
MMP(n) = i= 0


n− 1
i= 0
W (n − i)

in cui W è un opportuno fattore di ponderazione. Tali sistemi non riducono il rischio di perdita
istantanea delle informazioni meno recenti; per tale scopo vengono utilizzate le medie mobili
esponenziali, le quali assegnano pesi più alti ai dati più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle curve vicine alle
serie storiche originarie da cui scaturiscono le sequenze di medie mobili. La formula per calcolare la
media mobile esponenziale con numerosità n è la seguente:

9
n− 1

∑ P (n − i )W ( n − i )
MME (n) = i= 0
n− 1

∑W
i= 0
(n− i)

Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per il calcolo di
tale media risulta molto utile la seguente relazione ricorsiva:

MME(t)=MME(t-1)(1-W)+Pt(W) .

- Lo smorzamento esponenziale

L’Exponential Smoothing rappresenta un utile strumento di previsione puntuale, soprattutto quando


si hanno a disposizione pochi dati. Esso si rivela un utile metodo per la previsione sotto ipotesi di
aspettative adattive. Tale procedura si basa sull’idea che una ragionevole previsione del valore di
una serie X al tempo t possa essere costituita da una combinazione lineare della previsione fatta
sulla stessa serie nell’istante precedente. Tale combinazione lineare deve però tener conto della
variazione registrata nell’unità temporale precedente tra l’effettivo valore della serie e la previsione
realizzata. Di solito si sceglie tra cinque metodi di smussamento:

• Parametro singolo
• Doppio smussamento
• Moltiplicativo
• Additivo
• Non stagionale.

1.2.1 - Smussamento singolo

Tale metodo si rivela particolarmente appropriato per serie che si muovono casualmente attorno ad
un valore medio costante senza trend o componenti stagionali.

10
.
Figura 1.6: La serie in rosso è un tipico esempio di serie da “smorzare” attraverso lo smussamento singolo

Lo smorzamento esponenziale rappresenta il primo strumento da utilizzare per poter eventualmente


“decomporre”6 la serie originaria in un set di componenti predefinito e conseguentemente per
spiegare la serie osservata attraverso un opportuno modello sufficientemente esplicativo ed
efficiente da un punto di vista previsionale. Nell’esempio relativo alla serie ottenuta dal modello
moltiplicativo della figura 1.7 si può riscontrare la capacità dello smorzamento esponenziale di
evidenziare eventuali componenti stagionali da riportare allorquando si vuole costruire un modello
sufficientemente esplicativo per la serie osservata. Se, infatti, si applica a tale serie uno
smussamento esponenziale con costante di smussamento a=0,3, si ottiene il grafico della figura 1.9
dove risulta evidente un aumento repentino dei valori osservati dalla ventisettesima osservazione in
poi, a testimonianza della presenza di una componente di segno positivo che caratterizza l’intervallo
temporale che va dalla ventisettesima osservazione alla sessantesima.

6
Il termine non è stato usato a caso in quanto in questi casi si parla di metodi di decomposizione della serie osservata: si
cerca cioè di individuare ed isolare le componenti di trend, stagionalità ed eventuali componenti cicliche e si analizza il
tipo di relazione che intercorre tra queste stesse componenti (additiva, moltiplicativa, etc.).

11
8

0
10

19
22

31
34

43
46

55
58
1
4
7

13
16

25
28

37
40

49
52
-2

-4

Figura 1.7: Esempio di serie storica con una componente di trend moltiplicata per una componente stagionale più una
componente casuale di tipo normale.

La serie della figura 1.7 è stata ottenuta moltiplicando una componente di trend per una componente
stagionale più un termine di errore di natura stocastica. In pratica tale serie è la risultante di tre
componenti: trend, stagionalità e fattore casuale. La relazione è di tipo moltiplicativo, sintetizzabile
con il seguente modello:

X t = St * Bt * t + ε t

con St componente stagionale pari ad 1 per t che va da 1 a 27, uguale a 2 per le restanti
osservazioni. La componente di trend è stata posta pari a 0,3 mentre il termine di errore è stato
ottenuto attraverso l’uso di un generatore di numeri casuali provenienti da una distribuzione
normale standard. Applicando una media mobile di tipo esponenziale a otto termini con peso W=2/
(n+1), così come si può osservare nella figura 1.8, vengono maggiormente messi in risalto sia il
trend crescente che la componente stagionale che fa “lievitare” la serie dalla ventisettesima
osservazione in poi. Da notare che in questo caso basta applicare una trasformazione logaritmica
alla serie originaria per avere le tre componenti (trend, stagionalità e componente casuale) legate da
una reazione puramente additiva di facile approccio. In questo caso si è usato il metodo dello
smussamento singolo poiché la componente di trend non era particolarmente rilevante. In generale,
se il campione di osservazioni va da 1 a T, la previsione per il valore futuro della serie al tempo

(T+k), con K>0, risulta essere: FT + k = FT . Da sottolineare infine che molto spesso risulta

particolarmente conveniente attuare delle trasformazioni di tipo logaritmico o di tipo esponenziale


per “facilitare” il compito di un’esatta identificazione.

12
4
3,5
3
2,5
2
1,5
1
0,5
0
1
4
7

13
16

25
28

37
40
43

52
55
10

19
22

31
34

46
49
-0,5
-1

Figura 1.8: Sequenza di medie mobili esponenziali di otto termini applicata alla serie della figura 1.6.

7
6
5
4
3
2
1
0
10

22
25

34

49
52
1
4
7

13
16
19

28
31

37
40
43
46

55
58

-1
-2

Figura 1.9: Smussamento esponenziale della serie della figura 1.3 con costante di smorzamento a=0,3. Lo
smussamento evidenzia il fattore stagionale dalla ventisettesima osservazione in poi.

13
Figura 1.10: La serie in blu rappresenta la serie originaria costituita da un trend lineare più un termine di errore
proveniente da una popolazione con distribuzione normale con media zero e varianza uno. La serie verde rappresenta
la serie blu smussata attraverso il metodo dello smussamento singolo, quella in rosso rappresenta la serie smussata
attraverso il metodo dello smussamento doppio.

1.2.2 - Smorzamento doppio (ad un parametro)


Tale approccio risulta molto efficace allorquando si analizza una serie con trend chiaramente
lineare. In questo caso si effettua uno smorzamento preventivo. Per ulteriori dettagli su tale metodo
vedi il paragrafo 1 dell’Appendice.

1.2.3 - Smorzamento moltiplicativo


Tale metodo è appropriato per serie con trend lineare e variazione stagionale moltiplicativa. La serie
smussata F sarà data dalla seguente relazione:

FT + k = (a + bk )ct + k

con a intercetta o componente permanente, b trend della serie, ct fattore moltiplicativo stagionale.
Questi tre coefficienti sono definiti in maniera formale nell’appendice, paragrafo A1.

14
Figura 1.10: L’efficacia dello smussamento doppio per serie con trend lineare evidente è riscontrabile in tale figura.

1.2.4 - Smorzamento additivo (tre parametri)


Tale metodo è appropriato per serie con un trend lineare nel corso del tempo ed una variazione
stagionale additiva. La serie smussata è data dalla seguente relazione:

Ft + k = a + bk + ct + k

con a intercetta o componente permanente, b componente di trend, ct fattore stagionale additivo di


trend. Le formule relative a tali coefficienti sono riportate in appendice.
In questo caso una previsione al tempo (T+k) è data da:
FT + k = a (T ) + b(T )k + ct + k − s

1.2.5 - Smorzamento non stagionale a due parametri7


Tale metodo risulta appropriato per serie con trend lineare e senza variazioni stagionali. Esso è
simile al metodo dello smorzamento doppio ma rispetto a questo utilizza si differenzia poiché
utilizza due parametri invece che uno. La serie smussata è data da:
FT + k = a + bk

7
Oltre ai suddetti metodi ne esistono molti altri (tra gli altri va ricordato il filtro di Hodrick-Prescott), la conoscenza dei
quali porta ad un approfondimento dell’argomento al di sopra del livello necessario di conoscenze per lavorare con
serie storiche di tipo finanziario.

15
con a intercetta e b componente di trend. Le relazioni analitiche relative ai parametri della serie
smussata vengono, come al solito, riportate in Appendice.

1.3 - Momenti di un processo stocastico


Finora si è implicitamente assunto che, nello studio di una serie storica osservata, si lavora in realtà
con due serie: quella empirica e quella desunta dal modello scelto da associare alla sequenza
osservata. Se per esempio guardiamo ai vari metodi di smussamento esponenziale esposti in
precedenza, si può vedere come alla fine le serie siano sempre due: X ed F, dove F è la serie X
"smorzata" o serie delle previsioni (Forecast). La differenza tra le due serie risulta essenziale se si
vuole avere un'idea sulla bontà della scelta effettuata per quanto riguarda il modello da associare
alla serie empirica. In quest'ottica risulta fondamentale studiare i momenti della serie scaturita dal
modello scelto, i cosiddetti momenti teorici, attraverso i quali si possono accettare determinate
ipotesi, come ad esempio la stazionarietà, che facilitano enormemente lo studio di una serie. Lo
studio dei momenti, ed in particolare di alcuni momenti della serie, deriva dal fatto che tutti i
modelli stocastici sono in grado di generare una serie temporale di lunghezza infinita, di
conseguenza è necessario riassumere le informazioni a disposizione attraverso poche grandezze
caratteristiche. Tale compito può essere svolto in due modi: o attraverso la specificazione della
distribuzione di probabilità congiunta della serie nel corso del tempo, o attraverso il calcolo dei
momenti del processo teorico. La prima opzione risulta piuttosto complicata, di conseguenza si
analizzano i momenti teorici, in particolare i momenti di primo e second'ordine. Di seguito verranno
esposte le relazioni formali che esprimono i momenti teorici di primo e second'ordine sottolineando
come essi siano tutti in funzione dell'unità temporale.

1.3.1 - Valore medio atteso


Una volta assunto il modello da "associare" alla sequenza di valori osservati, si assume che i valori

generati da tale modello appartengano ad un processo stocastico che chiameremo Z t . Il valore

medio atteso del processo stocastico suddetto sarà espresso dalla relazione:
µ (t ) = E ( Z t )
dove E sta per Expected value. Tale terminologia sta a sottolineare che il valore espresso è il valore
che si attende dovrebbe realizzarsi nel lungo periodo. In realtà la relazione suddetta è un vero e
proprio "artificio teorico" poiché, essendo la serie di lunghezza infinita, probabilmente non si
arriverà mai al valore suddetto. Il valore medio costituisce il momento di prim'ordine della serie
teorica studiata e si differenzia notevolmente dal momento di prim'ordine della serie osservata: in

16
quest'ultimo caso infatti il valore non è nient'altro che la media dei valori osservati. Da notare che,
così come evidenziato dalla formula, il valore atteso è espresso in funzione del parametro
temporale.

1.3.2 - Varianza
In formulae si ha:
σ 2 (t ) = E [ Z t − µ (t )] = var(Z t )
2

Anche in questo caso la relazione evidenzia la dipendenza della varianza dal tempo. La varianza è
un momento di second'ordine che esprime una misura della dispersione media della variabile Z
rispetto al suo valore atteso nel corso del tempo. La radice quadrata della varianza si definisce come
scarto quadratico medio.

1.3.3 - Autocovarianza
L’autocovarianza è la covarianza tra valori della serie Z in istanti temporali diversi. Normalmente la
covarianza misura la tendenza di due grandezze a variare nello stesso senso, in questo caso si
utilizza un’unica variabile misurata in due istanti temporali diversi. In formulae si ottiene:
γ (t , t + k ) = E[ ( Z t − µ (t ))(Z t + k − µ (t ))] = cov(Z t Z t + k )
Da notare che l’autocovarianza è funzione di due istanti temporali, t e (t+k). In quest’ottica la
varianza risulta essere un caso particolare dell’autocovarianza, ponendo k=0.

1.4 – Una breve analisi delle funzioni di autocorrelazione


Sempre nell’ottica del perseguimento di un’esatta identificazione del modello più appropriato da
associare alla serie osservata, risulta molto importante l’analisi delle funzioni di autocorrelazione e
di autocorrelazione parziale. L’autocorrelazione supera, rispetto all’autocovarianza, il limite di
quest’ultima di non essere compresa fra limiti fissi in quanto compresa tra i valori estremi di –1 e
+1. L’autocorrelazione si ottiene semplicemente dividendo l’autocovarianza per il prodotto degli

scarti quadratici medi di Z t e Z t − k .

La “funzione di autocorrelazione globale” ρ (k ) del processo stocastico X t è il coefficiente di

correlazione lineare tra le variabili casuali Z t ed Zt − k calcolato al variare di k=0,1,2,….

17
Cov( Z t , Z t − k )
ρ (k ) = Corr ( Z t Z t − k ) = ;
Var ( Z t )Var ( Z t − k )

Lo strumento utilizzato per visualizzare le eventuali correlazioni seriali tra i termini della serie è il
correlogramma. Esso rappresenta l’insieme dei coefficienti di autocorrelazione per k=0,1, 2,3,…..
riportati su di un sistema di assi cartesiani che vede sull’asse delle ascisse il lag K 8 e sull’asse delle
ordinate ρ (k ) . I valori ottenuti saranno tutti compresi tra –1 e +1. Molto spesso la morfologia
assunta dal correlogramma aiuta nel processo di identificazione del giusto modello da associare alla
sequenza osservata. Va sottolineato inoltre che l’eventuale presenza di una forte correlazione
seriale rende impossibile assumere l’ipotesi di indipendenza dei valori osservati, ponendo non pochi
problemi per quanto riguarda l’identificazione di un modello significativo. Un altro utile metodo per
esaminare la dipendenza seriale tra i termini della serie in esame è la funzione di Autocorrelazione
parziale. Essa rappresenta un’estensione della funzione di Autocorrelazione globale. La funzione di

autocorrelazione parziale φ kk viene definita come la correlazione lineare tra Z t e Z t − k al netto delle
correlazioni lineari intermedie. Un’analisi più dettagliata di tale funzione verrà fatta allorquando si
tratteranno i modelli di Box & Jenkins.

1.5 - Ergodicità
La stima della funzione di autocorrelazione globale a partire da una serie storica richiede il
concetto di ergodicità9. Formalmente un P.S. temporale si dice ergodico se la media di insieme
tende alla media temporale al divergere delle osservazioni dove per media d’insieme si deve

intendere ∑
j= 1
z j (ti )
, la media cioè nella medesima unità temporale ti di n manifestazioni del
z (ti ) =
n
processo stocastico z; la media temporale risulta invece essere la media dei valori riscontrati su z
per più unità temporali:
n

∑ zk (ti )
.
z (t ) = i= 1

n
8
Per lag k si intende il ritardo di ordine k. Se k=1, allora si ha k=t-(t-1), se k=2, k=t-(t-2).
9
Il fatto che si possa ottenere una stima consistente delle proprietà statistiche di un P.S. stazionario dallo studio di un
solo campione temporale di lunghezza finita non è per nulla ovvio; quello che si ricerca è un P.S. nel quale la
rilevazione effettuata su una singola manifestazione temporale in un gran numero di punti successivi porta alle stesse
distribuzioni statistiche che si otterrebbero considerando un gran numero di valori riferiti allo stesso istante t. Se viene
riscontrato ciò allora risulta molto conveniente considerare una singola manifestazione in tempi successivi piuttosto che
ricorrere a più manifestazioni dello stesso processo.

18
1.6 - Stazionarietà dei processi stocastici
Tutte le relazioni analizzate finora risultano funzioni del tempo comportando notevoli problemi di

analisi. Se ad esempio si afferma che il valore medio atteso E ( Z t ) = µ (t ) , implicitamente si assume


che al variare del tempo il valore atteso di Z sarà quasi sempre diverso rispetto al periodo
precedente. Tale relazione “perennemente mutabile” potrebbe continuare all’infinito visto che la
relazione è in funzione del tempo ed inoltre anche le grandezze descritte precedentemente,
autocovarianza, autovarianza e funzioni di autocorrelazione, avrebbero lo stesso problema. Tale
inconveniente viene in qualche modo aggirato introducendo l’ipotesi di stazionarietà di opportune
trasformazioni del processo stocastico analizzato.
Da un punto di vista formale si considerano due definizioni di stazionarietà: in senso debole ed in
senso forte.
Un processo stocastico X t si dice stazionario in senso debole di ordine10 due se sono rispettate le
seguenti condizioni:
E( X t ) = µ

V ( X t ) = E[( X t − µ ) 2 ] = σ 2
< +∞

Cov ( X t , X t − k ) = E[( X t − µ )( X t − k − µ )] = γ (k ) per ogni K≠0;

Con μ, σ 2 e γ (k ) indipendenti dal tempo; σ 2


con un valore finito; γ (k ) dipendente solo da K.
La stazionarietà in senso forte di un P.S. è invece una condizione molto più restrittiva, difficilmente
riscontrabile e, di conseguenza, poco utile da un punto di vista operativo: essa poggia sull'assunto

che X t abbia associata una forma di distribuzione che non varia nel tempo.
Un semplice esempio di P.S. stazionario è il White Noise (WN), o Rumor Bianco, nel quale le
variabili casuali hanno una distribuzione indipendente ed egualmente distribuita (i.i.d.):
E (ε t ) = 0 ;
2
V (ε t ) = E (ε t ) = σ 2
< +∞;

Cov(ε t , ε t − k ) = E (ε tε t − k ) = 0 = γ (k ) per ogni K≠0.

10
Si è specificata la stazionarietà in senso debole di ordine due poiché è la più usata, in generale l’ordine coincide con il
numero di momenti che si richiede debbano essere indipendenti dal tempo.

19
Figura 1.11: Visualizzazione di una sequenza di dati generati da un processo stocastico stazionario.Si
può osservare come vi sia un continuo ritorno al valore medio, continue oscillazioni attorno ad esso.

Figura 1.12: Correlogramma di un processo AR(1) stazionario con parametro positivo.

20
Figura 1.13: Correlogramma di un processo AR(1) non stazionario.
Da notare come il correlogramma decresca molto lentamente nel tempo.

1.7 - Invertibilità dei processi stocastici


Una seconda proprietà molto importante non sempre riscontrabile nei processi stocastici è
l’invertibilità. Nello studio dei modelli econometrici molto spesso si trova, tra le ipotesi di base dei
modelli, oltre alla stazionarietà, anche l’invertibilità. Tale ipotesi viene richiesta per evitare la
molteplicità dei modelli applicabili al fenomeno oggetto di studio: può accadere infatti che ad
uguali strutture statistiche possano corrispondere due o più modelli diversi. Per quanto riguarda i
modelli comunemente utilizzati nel campo finanziario, tale problema si incontra per i processi a
media mobile11 mentre per quanto riguarda quelli autoregressivi tale condizione è sempre verificata.
Vedremo come tale proprietà sia facilmente riscontrabile allorquando si lavora con i modelli di Box
& Jenkins.

1.8 - I modelli stocastici di Box e Jenkins


I modelli di Box e Jenkins sono numerosi ma tutti derivano da due fondamentali:
il modello autoregressivo ed il modello a media mobile. Vi è poi il modello misto che comprende i
due precedenti. Nella descrizione dei modelli di Box & Jenkins, senza perdita di generalità, verrà
posta µ=0 (assenza di intercetta).

11
I modelli Autoregressivi, a media mobile ed i modelli misti vengono analizzati nei paragrafi successivi.

21
1.8.1 - Modello autoregressivo di ordine p (AR(p))
zt = φ 1 zt − 1 + φ 2 zt − 2 + ..... + φ p zt − p + at

I parametri φ 1 , φ 2 ,......, φ p costituiscono i coefficienti della regressione lineare della variabile casuale

zt rispetto ai suoi stessi valori passati, at , processo WN, è il termine di errore. In modo sintetico il

modello autoregressivo viene indicato con AR(p). Da rilevare che la presenza come regressori di
valori passati della variabile dipendente fa si che la teoria classica della regressione non si possa
applicare completamente al modello esaminato12.
Si può sottolineare come un AR(1) possa essere derivato dalla decomposizione di Wold (Vedi

Appendice: Il teorema di Wold) scegliendo opportunamente i pesi 13; se infatti si pone ψ j = φ j , il

processo { X t } potrà essere scritto come:

X t = at + φ at − 1 + φ 2 at − 2 + .... = at + φ (at − 1 + φ at − 2 + ...) = φ X t − 1 + at

In generale, lavorando con processi AR(p), risulta conveniente utilizzare l’operatore backshift B,
denominato anche lag operator, che semplifica notevolmente determinate relazioni. Tale operatore
si definisce come segue:
BX t = X t − 1

ed in generale si ha:
Bm X t = X t− m

mentre se si ha a che fare con una costante µ si ha:


Bmµ = µ .

1.8.2 -Processo AR(1)


Utilizzando il lag operator, il processo autoregressivo di ordine uno potrà essere espresso nel
seguente modo:
(1 − φ B) X t = at

in modo tale da avere:


X t = (1 − φ B ) − 1 at = (1 + φ B + φ 2 B 2 + ...)at = at + φ at − 1 + φ 2 at − 2 + ...

Quest’ultima relazione convergerà solo se φ < 1 (condizione di stazionarietà per il processo X).

12
La presenza di variabili ritardate comporta una distorsione (Bias) delle stime dai parametri φ per piccoli campioni.
13
Tale assunzione vale per processi stocastici AR(p) di tipo stazionario.

22
Un processo AR(1) ha, così come si è dimostrato in Appendice, una funzione di autocorrelazione

globale data da ρ k = φ . In tal modo si può affermare che per φ>0 la funzione di autocorrelazione
k

globale tende a zero in modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.
In definitiva, osservando anche i correlogrammi riportati nelle figure 1.12, 1.13, 1.14, un andamento
monotono decrescente chiaro e rilevabile già dopo pochi lag indica che il processo analizzato
potrebbe essere un AR(1) stazionario con parametro positivo, un correlogramma che presenta un
andamento altalenante del tipo della figura 1.12 suggerisce che il processo in esame può essere un
AR(1) stazionario con parametro negativo; infine un correlogramma che presenta un andamento
decrescente “slowly” come quello in figura 1.11 suggerisce di considerare il processo in esame
come un AR(1) non stazionario.

Figura 1.14: Correlogramma di un AR(1) stazionario con parametro φ<0.

1.8.3 - Modello a media mobile


zt = at − ϑ 1at − 1 − .... − θ q at − q

I parametri θ 1 ,.......,θ q sono costanti, a è il termine di errore, questa volta presente come regressore
nelle q unità temporali considerate. In questo caso, da un punto di vista formale, il modello viene
denominato MA(q): Moving Average di ordine q.
Essendo q un numero reale, il processo è costituito da un numero finito di termini q. Quest’ultima
considerazione permette di assicurare la stazionarietà di un MA(q) senza nessuna restrizione per
quanto riguarda i parametri del processo.
23
La media di un MA(q) è zero poiché tale processo, senza intercetta, non è altro che una
combinazione lineare di variabili casuali di tipo WN con media zero.
Le autocovarianze di un MA(q) sono espresse dalla seguente relazione:
γ k = (− θ k + θ 1θ k − 1 + θ 2θ k − 2 + ... + θ qθ q − k )σ 2
a (k=1,2,3,…,q)

γk= 0 (k>q)
Come al solito la varianza si ottiene dall’autocovarianza ponendo k=0:
2
γ 0 = (1 + θ 1 + θ 22 + ... + θ q2 )σ 2
a

Tali relazioni confermano la stazionarietà di un processo MA(q) poiché nessuna delle grandezze
descritte dipende da t.

1.8.4 - Processo MA(1)


Un processo del tipo:
zt = at − ϑ 1at − 1

si definisce MA(1). Anche in questo caso si può esprimere il processo suddetto in funzione del lag
operator, ottenendo la seguente relazione:
Z t = (1 − θ B) at .

Figura 1.15: Correlogramma di un processo MA(1) con parametro –0,4.

24
Come si può osservare dalla figura 1.15, il processo MA(1) presenta una spiccata correlazione tra le
osservazioni immediatamente successive (o precedenti) (K=1) mentre per le altre osservazioni il
processo non ha memoria, determinando un correlogramma sostanzialmente diverso da quelli
analizzati per i processi autoregressivi. Tali difformità morfologiche aiutano nel processo di
identificazione di una serie storica. Un’altra caratteristica rilevante per un processo MA(1) si ottiene
osservando la funzione di autocorrelazione globale per k=1: da essa si ricava infatti la seguente
equazione:
θ 2ρ 1 + θ + ρ 1 = 0
1 1
Dalla quale si ricava, per valori del parametro θ reali, − < ρ 1 < . L’equazione suddetta lascia
2 2
spazio ad un’ulteriore considerazione che richiama il concetto di invertibilità precedentemente
espresso: essa infatti ha come soluzioni reali sia θ che 1/θ, il che equivale a dire che per ogni
correlogramma come quello espresso nella figura 1.15, corrispondono due processi MA(1), uno con
parametro θ e l’altro con parametro 1/θ. In questi casi si privilegia il processo MA(1) con parametro
–1<θ<1 poiché in tal modo si lavora con un processo MA(1) che può essere trasformato in un
processo autoregressivo stazionario di ordine infinito (AR(∞)):
Z t = π 1Z t − 1 + π 2 Z t − 2 + ... + at

con ∑ π j < ∞ (pesi convergenti).

1.8.5 - Stazionarietà ed invertibilità per processi AR(p) ed MA(q)


Le due condizioni di stazionarietà e di invertibilità per i processi stocastici sopra descritti vengono
presentate congiuntamente poiché si può dimostrare che la condizione di stazionarietà per un AR(p)
coincide con la condizione di invertibilità di un MA(p). Si è già visto come un processo MA(q) è
sempre stazionario, analogamente un processo AR(p) è sempre invertibile. L’invertibilità, è bene
ribadirlo, consente di far corrispondere ad una certa funzione di autocorrelazione uno ed un solo
modello esplicativo. Un processo MA(q) non è invece sempre invertibile. Nell’Appendice viene
riportata la condizione di Box & Jenkins per l’invertibilità di un MA(q) (o per la stazionarietà di un
AR(q)).

25
1.8.6 - Il modello ARMA(p,q)
Il terzo modello fondamentale di B&J è una combinazione tra il processo autoregressivo e quello a
media mobile. Si può considerare, ad esempio, la combinazione tra un AR(1) ed un MA(1), noto
come ARMA(1,1):
Z t − φ 1Z t − 1 = at − θ at − 1 ,

Il modello ARMA(1,1) porta quindi sia ad una rappresentazione infinita di un processo


autoregressivo che di un processo a media mobile sempre con infiniti pesi.
In generale, generalizzando ad un processo ARMA(p,q), le condizioni viste nei paragrafi precedenti
e nell’Appendice riguardanti la stazionarietà dei processi AR e l’invertibilità dei processi MA
valgono anche per i processi ARMA.
Per le determinazioni delle funzioni di Autovarianza, Autocovarianza ed Autocorrelazione vedi
l’Appendice. In generale un processo ARMA(p,q) può essere ottenuto dalla combinazione tra un
AR(p) ed un MA(q):
Z t − φ 1 Z t − 1 − ... − φ p Z t − p = at − θ 1 at − 1 − ... − θ q at − q

o, alternativamente, espresso dalla relazione:


(1 − φ 1 B − ... − φ p B p ) Z t = (1 − θ 1 B − ... − θ q B q )at

sinteticamente esprimibile come:


φ ( B) Z t = θ ( B)at .
Le condizioni di stazionarietà e di invertibilità associate rispettivamente ai processi AR(p) e MA(q)
permangono per il processo ARMA(p,q). Il correlogramma di un processo ARMA(p,q) conserva le
stesse caratteristiche di un correlogramma di un AR(p) tranne che per i primi q-p valori iniziali. La
funzione di autocorrelazione parziale, per k>p-q, si comporta come un processo MA(q).
I tre correlogrammi di seguito evidenziati rappresentano, rispettivamente, partendo da sinistra ed
andando in senso orario, i correlogrammi di un AR(1) stazionario, di un MA(1) e di un ARMA(1,1)
stazionario. I parametri dei tre processi non sono uguali tuttavia risulta lo stesso visibile quanto
esposto in precedenza: il processo ARMA(1,1) ha una funzione di correlazione globale simile a
quella di un processo AR(1) e le funzioni di autocorrelazioni parziali simili a quelle di un processo
MA(1).

26
1.9 - Significatività statistica del coefficiente di autocorrelazione
L’importanza dei correlogrammi è stata ampiamente evidenziata nei paragrafi precedenti. La forma
assunta da questi permette di associare un modello ad una serie empirica di osservazioni da
esaminare. I grafici riportati presentano tuttavia, oltre alla rappresentazione delle determinazioni
assunte dalle funzioni di autocorrelazione all’aumentare del lag k, anche delle “bande di
oscillazione” tratteggiate volte a determinare l’intervallo di confidenza entro cui non si rifiuta
l’ipotesi di assenza di autocorrelazione. Il correlogramma di un processo WN, ad esempio, presenta
una serie di valori giacenti tutti all’interno degli intervalli tratteggiati, in linea con una caratteristica
fondamentale del WN, l’assenza di autocorrelazione per ogni k. La costruzione dei suddetti
intervalli di confidenza si basa su una intuizione di Bartlett, il quale ha dimostrato che un WN ha un
coefficiente di autocorrelazione la cui distribuzione è riconducibile ad una normale con media zero
e varianza 1/n, con n numerosità campionaria. Sotto tale ipotesi è possibile costruire gli intervalli
di confidenza come quelli tratteggiati delle figure presentate precedentemente. In particolare gli

27
intervalli evidenziati graficamente corrispondono ad un livello di significatività del 95% con i due

1
estremi14 pari a ± 1,96 ⋅ .
n

1.10 - Differenze successive e Modelli ARIMA


L’operatore differenza è simile al lag operator, presentando proprietà simili a quest’ultimo. Si

definisce l’operatore differenza D( Yt )= Yt − Yt − 1 . Analogamente, come per il lag operator, si ha:

D 2 (Yt ) = D(Yt − Yt − 1 ) = D ⋅ D(Yt ) ; in generale: D m (Yt ) = D ⋅ D ⋅ ...D(Yt − Yt − 1 ) = D m − 1 ⋅ D(Yt ) .

Tale operatore risulta molto spesso fondamentale allorquando si ha a che fare con serie non
stazionarie che, una volta applicato il D-operator, diventano stazionarie. In quest’ottica un modello

ARMA applicato ad una serie Wt ottenuta come differenza d-esima di una serie X t viene definito
processo ARIMA(d,p,q) dove d è il numero di differenze per rendere la serie stazionaria, p sono i
termini della parte autoregressiva del processo e q sono i termini della parte a media mobile del
modello. Da sottolineare che l’operatore di differenziazione tende a rendere la serie fortemente
regolare. In sintesi si ha un processo stazionario se d=0, se d=1 il processo è tale che i suoi
incrementi sono stazionari, se d=2 il processo ha livello e pendenza che si modificano nel tempo.

14
Un’analisi dei principali test statistici volti ad individuare l’eventuale presenza di stazionarietà è riportata nel capitolo
successivo.

28
29
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza

Capitolo II

di Stefano Caprioli
stefano.caprioli@tesiinborsa.it

TUTTI I DIRITTI RISERVATI

3
CAPITOLO II..........................................................................................................................5

Serie non stazionarie.......................................................................................................................... 5


- Introduzione................................................................................................................................... 5
2.1 - Test per la correlazione seriale.................................................................................................5
2.1.1 - Test di Durbin-Watson (DB).................................................................................................6
2.1.2 - Test Q di Ljung-Box............................................................................................................. 6
2.1.3 - Il test di Dickey e Fuller......................................................................................................10
2.1.4 - Il test di Phillips-Perron...................................................................................................... 11
2.2 - Identificazione e verifiche di stazionarietà: un caso pratico..................................................12

2.3 - L’Analisi di Cointegrazione ................................................................................................... 17


2.4 - Ulteriori considerazioni sulla Cointegrazione.......................................................................18
2.5 - Test per la verifica della presenza di cointegrazione tra variabili..........................................19
2.6 - Caratteristiche ed interpretazione del test di Johansen...........................................................20
2.7 - Un caso pratico: Mibtel e Mib30........................................................................................... 23

4
Capitolo II

Serie non stazionarie


- Introduzione

Vi sono importanti differenze tra serie stazionarie e non stazionarie. Uno shock ad una serie
stazionaria è necessariamente di natura temporanea poiché nel corso del tempo esso si annullerà e la
serie tornerà al suo livello medio di lungo periodo. Viceversa, una serie di tipo non stazionario,
avendo media e varianza in funzione del tempo, non ritorna necessariamente a livelli già raggiunti.
Volendo riassumere le principali caratteristiche tipiche di una serie non stazionaria, si può affermare
che:
- essa non presenta un valore medio atteso verso cui la serie tende nel lungo periodo;
- la varianza risulterà dipendente dal tempo ed andrà all’infinito al tendere dell’arco temporale
all’infinito;
- il correlogramma non presenterà un andamento decrescente, al più, per campioni finiti, esso
decrescerà molto lentamente.
In generale l’analisi della funzione di autocorrelazione serve per vedere se la serie presenta una
componente di trend: se così fosse la serie non potrebbe considerarsi stazionaria poiché i suoi
momenti sarebbero in funzione dell’unità temporale t. Un andamento decrescente “slowly” della
funzione di autocorrelazione è un ottimo indicatore della presenza di un trend. Esistono test formali
che possono aiutare a determinare se una serie contiene o no un trend e se il trend è di tipo
deterministico (in funzione di t) o stocastico (in funzione di una variabile casuale). Va tuttavia
sottolineato come i test disponibili presentano una scarsa capacità nel distinguere tra processi non
stazionari e processi che somigliano a processi non stazionari. Tale difetto è dovuto al fatto che
alcuni “falsi” processi non stazionari presentano un correlogramma molto simile a quello di un
processo realmente non stazionario.

2.1 - Test per la correlazione seriale

Esistono numerosi test finalizzati a verificare l’eventuale stazionarietà dei dati osservati. Per quanto,
così come si è visto nel capitolo precedente, la prima verifica da fare è quella di un’attenta
osservazione del correlogramma della serie, risulta sempre opportuno applicare un test che accerti

5
formalmente l’eventuale stazionarietà della serie in esame. Si è già parlato (vedi par. 1.9)
dell’intuizione di Bartlett, tuttavia risulta più conveniente verificare congiuntamente l’assenza di
autocorrelazione seriale per più lag. In quest’ottica vanno considerati i test successivamente
riportati: essi sono solo alcuni dei tanti a disposizione, tuttavia tutti conservano la logica sottostante
i test riportati.

2.1.1 - Test di Durbin-Watson (DB)


Il test di Durbin-Watson parte da un processo autoregressivo di ordine uno del tipo:

Yt = φ Yt − 1 + at .

Il sistema di ipotesi è il seguente:


 Ho : φ 1 = 0

 H1 : φ 1 ≠ 1
Il test viene utilizzato di solito per verificare l’eventuale natura autoregressiva del termine di errore
di un modello di regressione lineare: ipotesi quest’ultima che comporta seri problemi di stima e di
inferenza nell’implementazione di un modello significativo. In questo caso il test può, se viene
accettata l’ipotesi di base φ 1 =0, evidenziare la natura di un processo WN per la serie osservata. In
pratica i due autori hanno dimostrato che, se la statistica da essi realizzata assume valori prossimi,
se pur inferiori, a due, allora il parametro φ 1 è significativamente maggiore di zero, viceversa, per

valori del test compresi tra due e quattro il test evidenzia la negatività del parametro φ 1 , mentre al di
fuori di tali intervalli non si può formulare nessuna ipotesi sulla natura dl processo in esame. Tale
test risulta estremamente restrittivo, non molto utile quindi nella ricerca della stazionarietà di un
processo stocastico. I test riportati in seguito cercano di superare tale limite utilizzando un sistema
di ipotesi diverso.

2.1.2 - Test Q di Ljung-Box

Una caratteristica fondamentale di un processo stocastico stazionario è che tutti i coefficienti di

autocorrelazione seriale ρ k risultano essere significativamente non diversi da zero. Tale


assunzione comporta che la determinazione assunta dalla serie al tempo t non influenza il valore
assunto dalla serie al tempo (t+s)>t per qualsiasi s. In quest’ottica tutti i test che verificano l’assenza
di autocorrelazione seriale al variare del lag k verificano, conseguentemente, l’eventuale
stazionarietà della serie. In sintesi il sistema di ipotesi risulta essere:

6
ρ k = 0 per ogni k

ρ k ≠ 0 per almeno un k

La statistica Q di Ljung-Box permette di verificare il suddetto sistema di ipotesi attraverso la


seguente relazione:
k ρ 2

Q = n(n + 2)∑
j
con n numerosità campionaria.
j:1 n− j
Al di là della verifica formale, risulta chiaro che valori bassi della statistica Q inducono a non
rifiutare l’ipotesi di base di assenza di autocorrelazione seriale, al contrario valori elevati di Q
inducono a non rifiutare l’ipotesi alternativa che porta a considerare la serie non stazionaria. Da un

punto di vista statistico la statistica Q, sotto ipotesi di base, ha una distribuzione χ 2 . I gradi di

libertà della χ 2 a cui fare riferimento sono pari al numero delle autocorrelazioni meno il numero di
termini autoregressivi meno i termini a media mobile. In altre parole, se la serie osservata è

riconducibile ad un modello ARMA(d,q), allora i gradi di libertà per la χ 2


saranno pari a s-d-q se
si vuole verificare l’assenza di autocorrelazione seriale per k=1,2,…,s.
Riportiamo di seguito l’output relativo alla verifica di ipotesi di non stazionarietà di in processo
ARMA(1,1):

Figura 2.1:Correlogramma relativo alla funzione di autocorrelazione totale (prima colonna), parziale (seconda
colonna), output della statistica Q (terza colonna), probabilità di rifiuto dell’ipotesi di assenza di autocorrelazione
seriale.La prima colonna rappresenta i lag osservati.

7
Il correlogramma relativo alla funzione di autocorrelazione globale presenta una forma simile a
quello di un processo AR(1), quello della funzione di autocorrelazione parziale è simile a quello di
un processo MA(1), di conseguenza risulta ragionevole associare alla serie osservata un processo
ARMA(1,1). Le linee tratteggiate verticali rappresentano i livelli di significatività del test di Bartlett
al 95%: anch’esse confermano che le correlazioni seriali significativamente diverse da zero sono le
prime due (osservando congiuntamente le due funzioni di autocorrelazione). La statistica Q è
significativamente elevata, a conferma che le autocorrelazioni seriali osservate non possono essere
trascurate. Da rilevare che l’ultima colonna, costituita da tutti valori nulli, esprime in realtà il fatto
che la probabilità di avere a che fare con una serie stazionaria è così bassa da essere riportata dal

semplice valore nullo. Tale probabilità si ricava dalla distribuzione di una χ 2 con i gradi di libertà
pari a (k-2) (k, il lag, meno 1, il termine autoregressivo, meno 1, il termine a media mobile). Di
seguito viene riportato l’output relativo ad una serie stazionaria, in particolare un processo WN per
verificare analogie e differenze con quanto esposto finora.

Figura 2.2: I due correlogrammi testimoniano l’assenza di “memoria” del processo, così come la statistica Q:
La probabilità di avere a che fare con una serie stazionaria cresce sempre di più all’aumentare del lag k.

La figura 2.2 evidenzia la differenza di output tra un processo ARMA(1,1) ed un processo WN.
Le principali differenze si notano nella terza e nella quarta colonna. I due processi, della medesima
numerosità campionaria, presentano valori della statistica Q sostanzialmente diversi. I bassi valori
della Q nel WN confermano l’assenza di autocorrelazione seriale del processo osservato. La quarta
8
colonna evidenzia che la probabilità di avere coefficienti di autocorrelazione seriale
significativamente non diversi da zero cresce al crescere di k.

Figura 2.3: Grafico di un processo Random Walk.

Figura 2.4: Correlogramma del processo RW della figura 2.1.

9
2.1.3 - Il test di Dickey e Fuller

Dickey e Fuller hanno realizzato una procedura per verificare la non stazionarietà di un processo
oggetto di studio molto usata e presente sui principali software di econometria. Si supponga di voler

verificare l’eventuale stazionarietà della serie Yt = α + β Yt − 1 + at con, come al solito, at WN. Il


sistema di ipotesi potrebbe essere implementato nel modo seguente:
 H o : β = 1 La serie non è stazionaria

 H 1 : β < 1 La serie è stazionaria
Tale sistema di ipotesi non può essere verificato utilizzando un test t (ipotizzando quindi che sotto
ipotesi nulla la serie abbia una distribuzione riconducibile ad una t di Student), poiché per
costruzione il modello presenta tra i regressori la variabile dipendente calcolata nell’unità temporale
immediatamente precedente (t-1). Per superare tale inconveniente Dick & Fuller hanno pensato di
ricorrere a procedure di calcolo numerico (il cosiddetto metodo di Monte Carlo), ricavando una
propria distribuzione di probabilità volta a verificare il sistema di ipotesi suddetto. I due hanno
generato per mezzo di un computer migliaia di sequenze di valori provenienti da pseudo 1
passeggiate aleatorie2 (Random Walk) con intercetta α:
Yt = α + β Yt − 1 + at con β=1.

Sebbene la maggior parte delle stime ottenute risulteranno prossime ad uno, alcune lo saranno
maggiormente di altre: dai dati ottenuti è possibile ricavare una distribuzione empirica delle stime di
β sotto ipotesi che il β reale sia, per costruzione, pari ad uno. Il lavoro di D&F può essere riassunto
nei seguenti passi:
1) Per ogni pseudo RW generato, si è stimato il β.
2) Si è calcolata la differenza tra la stima ottenuta del β ed il valore reale, cioè 1.
3) La differenza ottenuta al punto (2) viene divisa per l’errore standard.
Se, per esempio, per un processo pseudo RW, è stato stimato un β pari a 0,9247 con standard error
pari a 0,037, allora si ha:
|(0,9247-1)/0,037|=2,035. Ripetendo i passi suddetti per migliaia di sequenze di pseudo RW, D&F
hanno osservato che:
- Il 90% dei valori stimati di β risultano avere uno standard error inferiore a 2,58;
- Il 95% presenta uno standard error inferiore a 2,89

1
Si parla di pseudo passeggiate aleatorie poiché il computer può generare valori pseudo casuali e non puramente
casuali. In altre parole vengono utilizzati algoritmi che generano sequenze di valori simili a valori puramente casuali.
2
In questo caso si può notare l’importanza del calcolo numerico e delle tecniche di generazione di valori casuali
determinante in molti casi. Nel campo finanziario tali tecniche di simulazione che utilizzano generatori di valori casuali
sono ultimamente molto utilizzate soprattutto per il pricing delle opzioni.

10
- Il 99% delle stime ottenute ha uno standard error inferiore a 3,51.
In tal modo D&F ottengono dei valori critici per verificare la non stazionarietà di un qualsiasi
processo stocastico. In altre parole, dinanzi ad un processo di cui non si conosce la genesi, non si
potrà rifiutare l’ipotesi di non stazionarietà del processo se il valore stimato di β ha una deviazione
standard, come nel nostro esempio, pari a 2,035. I due autori, nella realizzazione del test, hanno

modificato l’equazione originale sottraendo ad entrambi i membri il termine Yt − 1 in modo tale da


ottenere la seguente relazione:
∆ Yt = α + φ Yt − 1 + at , con sistema di ipotesi riparametrizzato:

 H o : φ = 0 La serie non è stazionaria


 .
 H 1 : φ < 0 La serie è stazionaria
Il parametro φ è uguale a (β-1) in modo da avere –2<φ<0 come parametro da analizzare. Da rilevare
che il test descritto è valido solo se la serie osservata è un processo AR(1) con disturbo di tipo WN.
Se la serie è correlata con ritardi di ordine più elevato o gli errori sono autocorrelati l’equazione
∆ Yt = α + φ Yt − 1 + at va generalizzata, utilizzando una delle tre riportate di seguito3:
p
∆ yt = α 0 + γ yt − 1 + ∑
i= 2
β i ∆ yt − i + 1 + at

p
∆ yt = γ yt − 1 + ∑
i= 2
β i ∆ yt − i + 1 + at

p
∆ yt = α 0 + γ yt − 1 + α 2t + ∑
i= 2
β i ∆ yt − i + 1 + at

Le differenze tra le tre regressioni riguarda la presenza di due elementi di natura deterministica

come α 0 e α 2 t . La prima regressione rappresenta una semplice passeggiata aleatoria, la seconda


aggiunge un’intercetta o drift, la terza include entrambe. In tutti e tre i casi il parametro di interesse

nella regressione è γ: se γ=0, la sequenza { yt } potrà essere considerata non stazionaria. Il test
comporta la stima di una o più equazioni usando il metodo dei minimi quadrati (OLS) per ottenere
il valore stimato di γ e l’errore standard ad esso associato.

2.1.4 - Il test di Phillips-Perron

Tale test ha le medesime finalità del test di D&F pur partendo da considerazioni diverse. In pratica i
due autori cercano di correggere il test t mentre D&F cercarono di generalizzare la regressione
iniziale
3
La generalizzazione porta all’implementazione del cosiddetto test ADF (D&F aggiustato).

11
∆ Yt = α + φ Yt − 1 + at .

Va ricordato che il test t si ottiene dal rapporto tra la stima di β e la sua deviazione standard
campionaria.
La distribuzione asintotica del test PP è la stessa del test di D&F aggiustato: anche in questo caso va
specificato se inserire nel test una componente deterministica di trend e l’intercetta. Per un ulteriore
approfondimento degli aspetti formali e delle relazioni funzionali del test vedi l’Appendice al
capitolo II.

2.2 - Identificazione e verifiche di stazionarietà: un caso pratico

Sia data da analizzare la serie del grafico 2.5:

Figura 2.5: Grafico di una serie con trend definito.

La serie presenta un trend definito, tuttavia va visto se tale trend è di natura deterministica o
stocastica e se la serie è stazionaria o non stazionaria. La figura 2.6 evidenzia la non stazionarietà
della serie in figura 2.5 (che chiameremo serie 2.5) poiché la componente di trend è fortemente
significativa:

12
Figura 2.6: Correlogramma della serie 2.5. Risulta evidente la non stazionarietà della serie.

Tabella 2.1: Il valore ottenuto dal test di D&F, ipotizzando l’assenza di trend, conferma che tale ipotesi è inverosimile:
il valore ottenuto è ben lontano dai valori critici.

Il test di D&F implementato nel caso di assenza di trend e di intercetta risulta non praticabile. La
tabella 2.1 è stata riportata per sottolineare l’importanza della scelta dell’equazione di riferimento
del test D&F: omettere una componente di trend chiaramente visibile e riscontrabile anche
attraverso il correlogramma rende privo di senso il test.
Ipotizzando la presenza di trend e di intercetta si verifica, o attraverso il test di D&F, o attraverso il
test di Phillips-Perron, la stazionarietà della serie. La tabella 2.2 riporta l’output del PP test con i
relativi valori critici:

Tabella 2.2: Il valore –14,78040 cade a sinistra dei valori critici, testimoniando la stazionarietà della serie
detrendizzata.

13
Per una corretta identificazione del modello da associare alla serie empirica va stimato il trend. A
riguardo conviene analizzare la serie delle differenze prime della serie originaria poiché l’intercetta
della serie delle differenze prime rappresenta il trend della serie originaria. Tale intercetta è
stimabile dalla media della serie stessa: essa rappresenta così il coefficiente di trend della serie 2.5.

Figura 2.7: Serie delle differenze prime della serie 2.5. Si nota un’intercetta positiva che rappresenta il trend della
serie 2.5.

Siamo ora in grado di “detrendizzare” la serie originaria sottraendole il fattore β*t , dove β è il
coefficiente di trend e t è l’unità temporale. La serie ottenuta è la serie della figura 2.8 (che
chiameremo serie 2.8). Tale serie risulta chiaramente stazionaria, così come si può verificare
osservando l’output del test di D&F riportato nella tabella 2.3:

Tabella 2.3: Output del test di D&F per la serie detrendizzata in figura 2.8.

14
Figura 2.8: Serie 2.5 detrendizzata.

Per stimare i parametri della serie 2.8 va analizzato il correlogramma della stessa (figura 2.9). La
morfologia del correlogramma in figura 2.9 evidenzia la possibilità di avere un processo
ARMA(1,1) o addirittura un processo ARMA(1,2) viste le rispettive somiglianze del
correlogramma della funzione di autocorrelazione globale con quello di un processo AR(1)
stazionario e del correlogramma delle funzioni di autocorrelazioni parziali con quello di un
processo a media mobile di primo o second’ordine.

Figura 2.9: Correlogramma della serie detrendizzata 2.8.

15
Accettando l’ipotesi di avere a che fare con un processo ARMA(1,1), la stima dei parametri avviene
attraverso complesse procedure iterative, utilizzando le stime campionarie delle autocorrelazioni. In
tal modo si stima prima il coefficiente autoregressivo φ, poi si determina la serie data dalla

differenza tra la serie 2.8 e φ*serie2.8(-1). Se si definisce la serie 2.8 come X t , la serie 2.8(-1) sarà

uguale a X t − 1 . La serie ottenuta dovrebbe essere il termine di errore del tipo: at + θ at − 1 il cui
correlogramma è osservabile in figura 2.10.

Figura 2.10: Correlogramma della variabile di disturbo nel processo ARMA(1,1). Si nota la correlazione seriale di
prim’ordine e forse anche di ordine due.

Accettando che la serie della figura 2.10 abbia una componente autoregressiva di ordine uno,
implicitamente si assume che la serie 2.8 sia ARMA(1,1) e la componente a media mobile
dell’ARMA(1,1) si ottiene stimando la componente autoregressiva della serie 2.10. In tal modo si
ottiene una serie stimata della serie ARMA(1,1) non molto lontana dalla serie originaria
detrendizzata.

16
Figura 2.11: In rosso la serie originaria detrendizzata, in blu quella stimata.

2.3 - L’Analisi di Cointegrazione

Attraverso l’analisi di cointegrazione si cerca di individuare un legame lineare tra processi stocastici
non stazionari in modo tale che la suddetta relazione lineare sia stazionaria. In tal modo si individua
un legame stabile nel corso del tempo tra variabili che, in quanto non stazionarie, stabili non sono.
Prima di definire da un punto di vista formale la cointegrazione, occorre specificare il concetto di
serie integrata di un certo ordine. Quest’ultimo concetto è strettamente legato all’operatore
differenza . Una serie si dice integrata di ordine p se:
D p (Xt ) = ε t

se cioè la serie ottenuta da p differenze risulta essere una serie stazionaria.


L’analisi formale della cointegrazione, affrontata per la prima volta da Engle e Granger nel 1987,
comincia considerando un set di variabili tali che:
β 1 x1t + β 2 x2t + ... + β n xn t = 0

Sia β = ( β 1 , β 2 ,..., β n ) e X t = ( x1t , x2t ,..., xnt )' , allora la medesima relazione potrà essere espressa

come: β X t = 0 . Se vale tale relazione, allora il set di variabili X t = ( x1t , x2t ,..., xnt )' viene
considerato in equilibrio (Long run equilibrium). Viceversa la variazione dall’equilibrio viene
chiamata equilibrium error ed è definita come:
et = β X t .

Se l’equilibrium error è stazionario, allora le variabili X t = ( x1t , x2t ,..., xnt )' sono in equilibrio.

17
Per una definizione formale di Cointegrazione vedi l’Appendice al Capitolo II, paragrafo A2.2.

Figura 2.12: Esempio di serie I(1) cointegrate.

Figura 2.13: Differenza tra le serie della figura 2.12 La serie ottenuta è chiaramente
Stazionaria.

2.4 - Ulteriori considerazioni sulla Cointegrazione

La cointegrazione si riferisce ad una combinazione lineare di variabili non stazionarie.


Teoricamente potrebbe essere possibile che una relazione di tipo non lineare esista tra le variabili

18
esaminate, tuttavia la procedura descritta non permette di verificare questa possibilità. Va poi

sottolineato come il vettore cointegrante non è necessariamente unico. Se β = ( β 1 , β 2 ,..., β n ) è un

vettore cointegrante, allora per ogni valore non nullo di λ, (λ β 1 , λ β 2 ,..., λ β n ) è ancora un vettore
cointegrante. Di solito una delle variabili viene utilizzata per normalizzare il vettore cointegrante

1
fissando il suo coefficiente pari ad uno. In altre parole si pone λ = .
β1
Da rilevare inoltre che tra le condizioni richieste vi è l’integrazione di uno stesso ordine d per tutte
le variabili in gioco. Naturalmente ciò non implica che tutte le variabili di tipo I(d) siano
cointegrate.
Se il vettore X t = ( x1t , x2t ,..., xnt )' ha n componenti, ci potrebbero essere al massimo n-1 vettori

cointegranti linearmente indipendenti. Ad esempio, un vettore X t = ( x1t , x2t )' può contenere al
massimo un vettore cointegrante indipendente. Il numero di vettori cointegranti è chiamato rango di

cointegrazione di X t .
Va sottolineato che la maggior parte della letteratura sulla cointegrazione si concentra sul caso in
cui ciascuna variabile è integrata di ordine 1 (I(1)): tale cioè che la differenza prima della variabile è
di tipo I(0) e quindi stazionaria. La ragione di ciò sta nel fatto che poche variabili economiche sono
integrate di ordine superiore ad uno.

2.5 - Test per la verifica della presenza di cointegrazione tra variabili

Dato un gruppo di variabili non stazionarie, si può verificare se esse risultano essere cointegrate. Di
seguito viene riportata la metodologia utilizzata da Johansen.
Si considera un vettore autoregressivo di ordine p del tipo:
Yt = A1Yt − 1 + ... + A p Yt − p + BX t + ε t , dove Yt è un vettore k-dimensionale di variabili non stazionarie

di tipo I(1), X t è un vettore di variabili deterministiche, ε t è un vettore delle innovazioni o di


disturbo. Il vettore autoregressivo può essere riscritto come:
p− 1
∆ Yt = π Yt − 1 + ∑
i :1
Γ i ∆ Yt − i + β X t + ε t ; dove:

p p
π = ∑ Ai − I , Γ i = − ∑
j:i + 1
A j , I è la matrice identità. Il teorema della rappresentazione di Granger
i= 1

(Vd. Appendice al Capitolo II) assicura che, se la matrice dei coefficienti π ha rango r<k, allora

19
esistono due matrici (k x r) α e β, ciascuna di rango r, tali che π = α β ' , con β ' Yt stazionaria. In tal
modo r rappresenta il numero delle relazioni cointegranti (il rango cointegrante) e ciascuna colonna
di β è un vettore cointegrante. Gli elementi di α sono noti come parametri di aggiustamento. Il
metodo di Johansen stima la matrice π per poi verificare se si possono rifiutare le restrizioni
implicite nel rango ridotto di π.

2.6 - Caratteristiche ed interpretazione del test di Johansen

Per verificare il rango della matrice π si utilizza un test χ , tuttavia Johansen sottolinea la necessità
2

di specificare alcuni elementi caratterizzanti del test prima di applicarlo, poiché un’errata
specificazione degli input può portare a risultati errati. In base agli input scelti il test assumerà una

forma diversa e la distribuzione χ 2 di riferimento cambierà poiché cambieranno i gradi di libertà


della statistica. L’autore si sofferma sull’eventualità che le serie esaminate e/o le equazioni
cointegranti presentino intercetta e trend considerando in particolare cinque possibilità:
1. Le serie Yt su cui va verificata l’eventuale presenza di cointegrazione non presentano un
trend di natura deteministica e non hanno intercetta. In questo caso si ha:
H 2 (r ) : π Yt − 1 + BX t = α β ' Yt − 1 ;

2. Le serie esaminate non presentano una componente di trend ma le equazioni cointegranti

hanno intercetta: H 1 (r ) : π Yt − 1 + BX t = α ( β ' Yt − 1 + ρ o ) ;


*

3. Le serie presentano una componente di trend lineare ma le equazioni cointegranti hanno

solo l’intercetta: H 1 (r ) : π Yt − 1 + BX t = α ( β ' Yt − 1 ) + ρ o + α ⊥ γ 0 ;


4. Sia le serie che le equazioni cointegranti presentano una componente di trend lineare:
H * (r ) : π Yt − 1 + BX t = α ( β 'Yt − 1 + ρ o + ρ 1t ) + α ⊥ γ 0 ;
5. Le serie hanno trend quadratico e le equazioni cointegranti hanno trend lineare:
H (r ) : π Yt − 1 + BX t = α ( β ' Yt − 1 + ρ o + ρ 1t ) + α ⊥ (γ 0 + γ 1t ) ;

dove α ⊥ è una matrice non unica k x (k – r) tale che α 'α ⊥ =0 ed il rango di α | α ⊥ è uguale a k.
Questi cinque casi sono legati dalle seguenti relazioni di inclusione:
⊂ ⊂ ⊂ ⊂
H 2 (r ) H 1* (r ) 2 H 1 (r ) 2 H * (r ) 2 H (r ) .
χr2
χ k− r χr χ k− r
Quest’ultima relazione assume un’importanza pratica fondamentale poiché essa evidenzia il tipo

di distribuzione χ 2 da utilizzare in relazione alla scelta effettuata su elementi caratterizzanti

20
quali l’intercetta e la componente di trend. Tali scelte vanno ovviamente fatte in relazione alla
conoscenza del fenomeno e delle serie a disposizione. Una volta scelta la serie di riferimento
(uno dei cinque casi sopra esposti), va costruita la statistica test che servirà per verificare
l’eventuale presenza di cointegrazione. Tale statistica può essere riassunta con il seguente

 k
 n ∑ log((1 − λ i ) /(1 − λ i )) ≈ χ k − r
* 2

sistema:  i:r +r1 ;


 n∑ log((1 − λ i ) /(1 − λ *i )) ≈ χ r2
 i = 1

Si utilizzerà la prima se si è nei casi 5 e 3, la seconda negli altri tre casi. λ i e λ i rappresentano i
*

più grandi autovalori rispettivamente per i modelli H(r) e H * (r ) .


L’output del test di Johansen, così come di solito si presenta sui principali software
econometrici, viene riportato nelle tabelle 2.4 e 2.5:

Tabella 2.4: Output tratto dall’Help on line di E-views. In questo caso si rifiuta l’ipotesi di CI(1) per le
Serie LRM, LRY, IBO, IDE.

Tabella 2.5: output tratto dall’Help on line di E-views: caso di CI(1) tra le serie LOG(CS) e LOG(INC)

Nella tabella 2.4 viene riportato un caso in cui non vi è cointegrazione: va verificata la presenza di
cointegrazione tra quattro serie, LRM, LRY, IBO, IDE, avendo nel sistema anche tre variabili
esogene: D1, D2, D3.
21
La prima colonna a partire da sinistra presenta gli autovalori necessari per l’implementazione della
statistica di Johansen, la seconda la determinazione che la statistica di Johansen assume in
corrispondenza di quell’autovalore. Le due colonne successive presentano i valori critici per
rifiutare le ipotesi riportate nell’ultima colonna. Il test differisce dai soliti test, quantomeno
nell’interpretazione dell’output, poiché il primo autovalore serve per verificare l’ipotesi di base di
assenza di cointegrazione; il secondo autovalore serve per verificare l’ipotesi di base della presenza
di una sola equazione cointegrante, il k-esimo autovalore serve per verificare l’ipotesi della
presenza di k-1 equazioni cointegranti. In questo caso il primo autovalore, 0,433165, determina una
statistica (LR Ratio) pari a 49,14436, inferiore al valore critico 53,12 al 95% di significatività. Ciò
implica che si può ragionevolmente accettare l’ipotesi di assenza di equazioni cointegranti.
Viceversa, nella tabella 2.5, il primo autovalore è pari a 0,145518, da cui scaturisce una statistica
LR pari a 25,20440, maggiore del valore critico 15,41. In tal modo si rifiuta l’ipotesi di assenza di
cointegrazione. Il secondo autovalore, 0,014098, determina una statistica LR pari a 2,087119,
inferiore al valore critico 3,76, facendo si che si possa accettare l’ipotesi della presenza di
un’equazione cointegrante ad un livello di significatività del 95%.

Figura 2.14

22
2.7 - Un caso pratico: Mibtel e Mib30

A scopo esemplificativo viene riportata una verifica empirica sulla relazione cointegrante che lega
l’indice Mibtel con l’indice Mib30. I dati analizzati vanno dal 5/01/’93 al 6/12/’99 e si riferiscono
ai valori di chiusura dei due indici. Come al solito il primo passo effettuato nell’analisi è stato
l’esame dei correlogrammi (Figure 2.15 e 2.16) delle due serie relative ai due indici. Entrambi i
correlogrammi suggeriscono di considerare l’ipotesi di processi non stazionari di natura
autoregressiva. In particolare l’osservazione delle due funzioni di autocorrelazione globale consiglia
di ritenere i due processi non stazionari.
La fase successiva dell’analisi si è spostata sulla verifica della non stazionarietà delle serie. In
merito si è pensato di utilizzare l’ADF test (il test aggiustato di D&F) con risultati (presenti nelle
tabelle 2.6 e 2.7) che confermano le impressioni tratte dai correlogrammi: ad un livello di
significatività del 99% si può rifiutare l’ipotesi di stazionarietà delle due serie. In realtà, per
verificare che le serie siano effettivamente integrate di ordine uno, è consigliabile attuare l’ADF test
anche sulle differenze prime delle due serie per accertarsi che le due serie differenziate siano
stazionarie (I(0)). In questo caso, così come si può verificare, le due serie delle differenze prime dei
due indici risultano tali da non poter rifiutare l’ipotesi di stazionarietà. Essendo entrambe le serie di
tipo I(1), si è poi verificata l’ipotesi di cointegrazione tra le due attraverso il test di Johansen
(tabella 2.8). Si è pensato di optare per una stima dell’equazione cointegrante scaturita dalle ipotesi
di presenza di trend lineare nei dati ed intercetta nell’equazione cointegrante. Da rilevare che la
maggior parte dei software econometrici fornisce, in questi casi, anche il rapporto di
logverosimiglianza che permette di scegliere la giusta opzione tra le cinque possibili nel test di
Johansen (si sceglie la combinazione di ipotesi su equazione cointegrante e dati che fornisce il
valore più elevato del rapporto di logverosimiglianza). Dall’output del test, presente nella tabella
2.8, si può osservare che si può accettare l’ipotesi di una ed una sola equazione cointegrante con
equazione cointegrante normalizzata rispetto al Mibtel pari a: Mibtel=0,689374Mib30+72,07138.
Il grafico finale dimostra la validità dell’equazione cointegrante rispetto alla serie originaria del
Mib30.

23
Figura 2.15

Figura 2.16

24
Tabella 2.6

Tabella 2.7

Tabella 2.8: Test di Johansen.

25
Figura 2.17

26
27
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza

Capitolo III

di Stefano Caprioli
stefano.caprioli@tesiinborsa.it

TUTTI I DIRITTI RISERVATI

3
CAPITOLO III.........................................................................................................................5

Modelli ARCH e GARCH..................................................................................................................5


3-1 - La modellistica ARCH.............................................................................................................5
3.2 - L’ARCH LM Test....................................................................................................................7
3.3 - Modello ARMA con disturbi ARCH....................................................................................... 7
3.4 - Esempio di modello ARCH: l’ARCH(1)................................................................................. 8
3.5 - Distribuzione di un processo ARCH(p)...................................................................................9
3.6 - Il modello lineare GARCH(p,q)...............................................................................................9
3.7 - Il modello ARCH-M............................................................................................................. 10
3.8 - L’Asimmetria della Volatilità............................................................................................... 11
3.9 - Il Modello E-Garch............................................................................................................... 13
3.10 - Un caso pratico: il Mibtel.....................................................................................................14

4
Capitolo III
Modelli ARCH e GARCH

3-1 - La modellistica ARCH

Nel primo capitolo sono stati analizzati i processi AR, MA, ARMA ed ARIMA. Una delle
caratteristiche fondamentali di tali processi è la presenza di una distribuzione della varianza
condizionata del termine di errore omoschedastica. In realtà è piuttosto frequente osservare come
numerose serie finanziarie presentino un andamento eteroschedastico della varianza condizionata.
Si parla di varianza condizionata poiché si fa riferimento a quella porzione della variabilità della

serie spiegata dal modello utilizzato. In generale, data una generica variabile casuale Yt , il valore
atteso e la varianza non condizionata sono espressi dalle seguenti relazioni:

E (Yt ) = µ ;

V (Yt ) = E[(Yt − µ ) 2 ] = σ 2 .

Se la medesima variabile Yt può essere “spiegata” da un set informativo I t − 1 , il valore atteso e la


varianza condizionata sono dati da:

mt = E (Yt / I t − 1 );

V (Yt / I t − 1 ) = E[(Yt − mt ) 2 / I t − 1 ] = E (et2 / I t − 1 ) ,

2
da cui si ricava che la varianza condizionata coincide con lo scarto al quadrato et . Se si assume

che il set informativo I t − 1 è rappresentato dalla combinazione lineare dei p valori passati della stessa

variabile Yt , i due momenti condizionati diventano:

mt = α + α 1Yt − 1 + ... + α p Yt − p ;

V (Yt / I t − 1 ) = E[(Yt − α − α 1Yt − 1 − ... − α p Yt − p ) 2 ] = E[et2 / I t − 1 ]

5
L’eteroschedasticità si evidenzia osservando il secondo momento condizionato, spesso
caratterizzato da periodi di forti oscillazioni alternati a periodi di “calma”. Conseguentemente a ciò
è sembrato inopportuno l’utilizzo di processi con varianza condizionata omoschedastica. In
quest’ottica si è cercato di individuare delle variabili significative che spiegassero l’andamento della
varianza condizionata. Il primo a fornire una risposta a tale problema è stato Engle, proponendo il
processo ARCH(p).
La sigla ARCH sta per Autoregressive Conditional Heteroschedasticity with Estimates of the
Variance. L’idea alla base del lavoro di Engle consisteva nell’assunzione di una varianza
condizionata che dipendesse dal passato.
Engle parte da un P.S. autoregressivo di ordine uno poiché la modellistica ARIMA si era rivelata un
ottimo strumento previsivo proprio per l’uso che in essa veniva fatto della media condizionata della
variabile in esame nell’insieme delle informazioni disponibili. L’idea era quella di introdurre le
informazioni passate anche nella varianza condizionata oltre che nella media condizionata. In tal
modo utilizza una nuova classe di processi stocastici caratterizzati da incorrelazione seriale e media
nulla, con varianza non condizionata costante e varianza condizionata non costante ma dipendente
dal set di informazioni disponibile al tempo t-1. Il modello, da un punto di vista formale, risulta
essere:
1/ 2
ε t = zt ht ;
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,......., ε t2− p , α );

con :
ε t /ψ t− 1 − > N (0, ht );
zt i.i.d .;
E ( zt ) = 0;
Var ( zt ) = 1;
dove p è l’ordine del processo ARCH ed α è un vettore di parametri incogniti, h varianza
condizionata.
In termini operativi ε t rappresenta solitamente le innovazioni di altri processi stocastici. L’esempio
più comune a riguardo è costituito dal modello ARCH di regressione lineare del tipo:
X t = At β + ε t ;
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,......, ε t2− p , α )

con:
X t /ψ t− 1 − > N ( At β , ht );
ε t /ψ t− 1 − > N (0, ht );

con A vettore di variabili predeterminate e β vettore dei parametri.

6
3.2 - L’ARCH LM Test

Per verificare l’ipotesi nulla che non vi siano componenti ARCH fino all’ordine q nei residui di un
modello si costruisce la regressione:
et2 = β 0 + β 1et2− 1 + ... + β q et2− q (1)

con et residui del modello stimato. Verificando l’ipotesi nulla di assenza di significatività dei
coefficienti della regressione (1), si verifica congiuntamente l’ipotesi di assenza di componenti
ARCH fino all’ordine q per la varianza del modello. I test di solito utilizzati a riguardo sono il test F
ed il test di Breusch-Godfrey. In particolare il test B-D è determinato dal prodotto tra la dimensione
della serie osservata ed il coefficiente di determinazione della regressione. Tale statistica è

asintoticamente distribuita come una χ q .


2

Tabella 3.1: Il test F ed il test B-D applicati alla serie storica relativa ai valori di chiusura del Mib30 dal 5/01/’93 al
6/12/’99. L’ipotesi nulla di non significatività di una componente ARCH non è accettabile ad un livello di
significatività per entrambi i test del 95%..

3.3 - Modello ARMA con disturbi ARCH

Accettando l’ipotesi di una varianza condizionata non costante nel corso del tempo, si può pensare
di inserire il modello ARCH in un modello ARMA:
a ( L) X t = b( L)ε t ;

con
ε t /ψ t− 1 − > N (0, ht );
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,........, ε t2− p , α ).

da notare che in tal modo si riesce a trasferire l’informazione passata sia sulla variabile oggetto di
studio che sul termine di errore.
In generale il processo ARCH presenta una pluralità di caratteristiche che lo rendono molto
attraente per un molteplice uso. In primis va sottolineato che la costruzione della varianza

condizionata ht linearmente dipendente dal quadrato dei residui passati permette di catturare
l’andamento tipico delle serie finanziarie con l’alternarsi di periodi di forti fluttuazioni alternati a
periodi di stasi con oscillazioni irrilevanti. Un secondo aspetto molto importante è legato al modello

7
di regressione ARCH, capace di approssimare una regressione più complessa con disturbi non
ARCH: in altre parole la varianza ARCH comprende l’eteroschedasticità presente in modo da
sopperire anche ad eventuali errate specificazioni del modello o a cambi strutturali particolarmente
rilevanti.

3.4 - Esempio di modello ARCH: l’ARCH(1)

Il più semplice modello ARCH può essere espresso nella forma:


ε t = zt ht1/ 2 ;
con:
ε t /ψ t− 1 − > N (0, ht );
ht = α 0 + α ε t2− 1

dove:
α 0 > 0;
α ≥ 0;
zt i.i.d .;
E ( zt ) = 0;
Var ( zt ) = 1.

α 0 > 0 e α ≥ 0 vengono dette condizioni di regolarità: esse garantiscono la condizione di non


negatività della varianza. Da notare che i momenti dispari del processo risultano sempre nulli
mentre per quelli pari vale il Teorema 3.1 in Appendice di cui si omette la dimostrazione.
Applicando il suddetto Teorema 3.1 ai primi due momenti della distribuzione non condizionata di
ε t si ottiene:
α0
E (ε t2 ) = < ∞ ⇔ α <1
(1 − α )

3α 02 (1 − α 2 )
E (ε ) =
t
4
< ∞ ⇔ 3α 2 < 1 .
(1 − α ) (1 − 3α )
2

Dalle relazioni precedenti si evince che α < 1 è condizione necessaria e sufficiente per la

stazionarietà in covarianza del processo non condizionato di ε t . Analogamente 3α 2


< 1 è condizione
necessaria e sufficiente per l’esistenza del momento quarto non condizionato.
Qualora risultino soddisfatte le condizioni appena citate è possibile calcolare l’indice di Curtosi (K)
nel modo seguente:

8
E (ε 4 )
K= .
[ E (ε 2 )]2
L’indice di curtosi di una distribuzione normale è K=3. laddove K assume un valore maggiore di
tre, siamo di fronte ad una distribuzione leptocurtica, cioè caratterizzata da code più alte di una
normale; distribuzione peraltro tipica dei processi ARCH.

3.5 - Distribuzione di un processo ARCH(p)

Il modello ARCH di ordine p deriva dalla semplice generalizzazione di un processo ARCH di


prim’ordine e può essere così rappresentato:
ε t = z t ht1 / 2 ,

con ε t | ψ t−1 ≈ N (0, ht ) . La varianza ht assumerà la seguente espressione:

ht = α 0 + α 1ε t2− 1 + ... + α p ε t2− p , con α 0 > 0; α 1 ,α 2 ,...,α p ≥ 0.

Queste ultime due condizioni, dette di regolarità, garantiscono la positività della varianza.
Per quanto riguarda i vincoli necessari a garantire la stazionarietà in covarianza del processo vale il
Teorema 3.2 riportato in Appendice. In base a tale Teorema un processo ARCH(p) è stazionario in

covarianza se: ∑j= 1


α j < 1.

3.6 - Il modello lineare GARCH(p,q)

Uno dei problemi generalmente riscontrabili nella stima dei modelli ARCH è costituito dalla
necessità di introdurre una quantità considerevole di ritardi temporali nell’equazione della varianza
condizionata. Al fine di disporre di una parametrizzazione più parsimoniosa del modello si pensò
(T.Bollerslev, “Generalized Autoregressive Conditional Heteroskedasticity”, Journal of
Econometrics 1986) di utilizzare la stessa logica che permette di passare dai processi AR(p) ai
processi ARMA(p,q). La varianza dell’errore è stata perciò definita sulla base di un processo
eteroschedasico generalizzato autoregressivo di ordine “p”, “q”:
ht = α 0 + α 1ε t2− 1 + ... + α p ε t2− p + β 1 ht − 1 + ... + β q ht − q = α 0 + α ( L)ε t2 + β ( L)ht ;

con α 0 > 0; α 1 , α 2 ,..., α p ≥ 0 β 1 , β 2 ,..., β q ≥ 0;

9
Il comportamento della varianza condizionata dipende dunque, oltre che dagli errori passati al
quadrato, anche dai valori antecedenti della varianza stessa. Risulta inoltre immediato che per q=0
si ricade nella modellistica ARCH(p).
L’analisi del processo è condotta in modo analogo a quella già vista per il modello ARCH(p),
portando alla conclusione che la stazionarietà in covarianza di un processo GARCH(p,q) lineare è
possibile, se e solo se, è soddisfatto il seguente vincolo:
p q


i= 1
αi+ ∑
j= 1
β j < 1.

Oltre a ciò il calcolo della Curtosi mostra che anche in questo caso la distribuzione degli ε t è
leptocurtica.
Va sottolineato infine che è stato dimostrato che le proprietà statistiche degli ε t al quadrato sono
simili a quelli di un processo ARMA perciò la procedura di identificazione degli ordini “p” e “q”
comunemente usata può essere analoga a quella indicata da Box e Jenkins per l’identificazione dei
modelli classici ARMA(p,q).

3.7 - Il modello ARCH-M

Tutti i modelli ARCH/GARCH sono caratterizzati dalla presenza di due equazioni fondamentali:
l’equazione relativa al modello (Mean Equation) e l’equazione relativa alla varianza (Variance
Equation). Nei modelli esaminati finora la Mean Equation era caratterizzata dal non presentare tra
le variabili indipendenti o regressori nessun elemento che spiegasse la volatilità. In realtà, nel
cercare di spiegare fenomeni di natura finanziaria, molto spesso i rendimenti attesi di un’attività o di
un portafoglio risultano correlati con una misura del rischio atteso. In tale ottica si è pensato di
introdurre direttamente nella Mean Equation una componente di rischio, a scelta tra la varianza
condizionata e la deviazione standard condizionata, per meglio spiegare l’andamento dei
rendimenti. In pratica, se si ritiene che i rendimenti di un’attività siano correlati con la volatilità del
periodo in esame, il modello di base si “arricchisce” di un ulteriore regressore costituito dalla
varianza condizionata o dalla deviazione standard condizionata. Da rilevare che i software che
forniscono delle stime ARCH/GARCH presentano l’opzione di inserimento di elementi che
rendono il modello ARCH/GARCH-M.

10
3.8 - L’Asimmetria della Volatilità

In ambito finanziario è stato riscontrato molto spesso un fattore di asimmetria nella relazione
Rischio/Rendimento. Tale fattore fa si che la volatilità sia molto più sensibile ad informazioni
negative piuttosto che ad informazioni positive. In pratica si è osservato che la volatilità è molto
più sensibile a forti ribassi piuttosto che a forti rialzi. Di seguito viene presentato un esempio
grafico relativo all’indice Mibtel (Figure 3.1, 3.2, 3.3).

Figura 3.1: Rialzo dell’indice Mibtel rilevato con frequenza giornaliera. In 60 giorni l’indice ha subito una variazione
positiva del 30,539%.

Per ovviare a tale particolarità della volatilità sono stati introdotti dei modelli “asimmetrici” quali,
ad esempio, il TARCH e l’E-Garch. Senza soffermarci troppo sugli aspetti analitici e formali dei
due modelli, va sottolineato come i due modelli affrontino il problema dell’asimmetria con approcci
sostanzialmente diversi. Il TARCH è un modello ARCH con una variabile dummy applicata alla
componente ARCH in modo tale da avere:

σ t
2
= ω + α ε t2− 1 + γ ε t2− 1 d t − 1 + β σ 2
t− 1

11
dove d t − 1 = 1 se ε t < 0 , d t − 1 = 0 se ε t > 0 . In tal modo il modello prevede impatti diversi sulla
volatilità per buone e cattive notizie. In termini tecnici si è soliti affermare che per periodi in cui
d=1, il fattore ARCH è α+γ e si è in presenza di un effetto leva (Leverage Effect) significativo.

Figura 3.2: Andamento della deviazione standard a 252 giorni dell’Indice Mibtel nel medesimo periodo della Figura
3.1. La volatilità ha subito una variazione del 5,156% in questo periodo di forti rialzi.

12
Figura 3.3: Grafico giornaliero Mibtel in un periodo di ribassi che fanno variare l’indice: -34,3986%..

Figura 3.4: andamento della Deviazione standard a 252 giorni del Mibtel nel medesimo periodo della figura 3.3.
In questa fase di forti ribassi la volatilità ha registrato una variazione pari a –28,0977%.

3.9 - Il Modello E-Garch

Sicuramente più famoso del TARCH, l’E-Garch si propone come risposta alternativa al TARCH per
il problema dell’asimmetria della volatilità. Tale modello, definito anche Exponential Garch, è stato
proposto per la prima volta da Nelson (1991). Esso si basa su una specificazione del logaritmo della
varianza condizionata che tenga conto del Leverage effect. In formulae si ha:

ε t−1 2 ε
log(σ t2 ) = ω + β log(σ 2
t− 1 )+ α ( − ) + γ t− 1 ;
σ t− 1 π σ t− 1

Nelson costruisce il modello in maniera tale da non dover presupporre necessariamente la normalità
dei termini di errore. La relazione appena descritta si riferisce ad un E-Garch(1,1), generalizzando
ad un E-Garch(p,q) si ha:

p q
ε t− i 2 q
ε t− i
log(σ t2 ) = ω + ∑
j= 1
β j log(σ 2
t− j )+ ∑
i= 1
(α i
σ t− i

π
)+ ∑
i= 1
γ i
σ t− i
.

13
Da sottolineare l’importanza del parametro γ che esprime il cosiddetto leverage Effect, poiché se si
riscontra la significatività di questo, implicitamente si accetta l’idea che la serie osservata presenti
una componente di asimmetria in linea con la teoria di un modello EGARCH.

3.10 - Un caso pratico: il Mibtel

E’ stato preso in considerazione l’indice MIBTEL dal 5/01/’93 al 6/12/’99. La serie dei logaritmi
dei rendimenti giornalieri (Figura 3.5) presenta una variabilità accentuata in prossimità di una fase
di ribasso. Tale asimmetria è riscontrabile anche visivamente come si può osservare (parte destra
del grafico della figura 3.5). L’idea di base quindi è che i rendimenti non presentino una volatilità
omoschedastica ma, al contrario, una chiara relazione rischio/rendimento.

Figura 3.5: Rendimenti giornalieri (calcolati come log(It/It-1) dell’indice Mibtel.

Dall’osservazione della figura 3.7, e delle statistiche riassuntive presenti in essa, emerge una curtosi
elevata, mentre il test J-B sconsiglia di accettare l’ipotesi di normalità della serie. L’analisi dei
correlogrammi e delle relative statistiche (Figura 3.6) suggeriscono di scegliere come modello
identificativo un AR(1). In tal modo si può applicare l’ARCH–test (Tabella 3.2) che conferma la
presenza di componenti ARCH da non trascurare nell’identificazione del modello. A questo punto
si può implementare un modello AR(1) che tenga conto dell’asimmetria della volatilità riscontrata
nei paragrafi precedenti; si è pensato, dopo svariati tentativi, di verificare la significatività di un
modello E-Garch(4,4) in Mean per spiegare eventuali fattori di asimmetria o Leverage Effect. La
14
Tabella 3.3 evidenzia la significatività dei parametri del modello AR(1) e della varianza E-
Garch(1,1) in Mean. In particolare, facendo riferimento all’output della Tabella 3.3, il
RES/SQR[GARCH(1)] rappresenta il Leverage Effect di lag1, in questo caso ampiamente
significativo.

Figura 3.6: Correlogramma della serie osservata dei logrendimenti giornalieri del mibtel.

15
Figura 3.7: Istogramma e statistiche riassuntive della distribuzione della serie dei rendimenti del Mibtel della figura
3.5. Da sottolineare la curtosi elevata e la statistica Jarque-Bera che sconsigliano di accettare l’ipotesi di normalità
della serie.

Figura 3.8: Correlogramma della serie in Figura 3.5. La statistica Q suggerisce la presenza di elementi
autoregressivi.

Tabella 3.2: Ipotizzando un modello autoegressivo di ordine uno per i log-rendimenti dell’indice Mibtel, si è verificata
la presenza di eventuali componenti ARCH nei residui. I due test (F e Bg) suggeriscono di rifiutare l’ipotesi di asenza
di componenti ARCH.

Tabella 3.3: Output relativo ad un modello EGARCH(4,4) in Mean.

16
Nel modello EGARCH specificato nel paragrafo precedente il Leverage Effect è il parametro γ. In
questo caso γ 1 è pari a –0.026948, valore piccolo che “sottopesa” l’effetto della volatilità sul
rendimento. Per verificare la bontà del modello adottato si isola la varianza non spiegata dalla
modellistica ARCH/GARCH per verificarne l’omoschedasticità e l’assenza di ulteriori componenti
ARCH/GARCH. Da rilevare che l’accettazione della modellistica GARCH nega l’ipotesi di
omoschedasticità della varianza condizionata, rendendo inapplicabile il modello tradizionale del
CAPM. Le stime GARCH risultano inoltre estremamente efficaci per stimare una volatilità
adeguata da inserire nei più comuni modelli di pricing delle opzioni.
Per verificare la bontà del modello è sufficiente analizzarne i residui standardizzati: se questi
risultano essere privi di autocorrelazione seriale, con media zero e deviazione standard 1 e si può
accettare l’ipotesi di normalità della distribuzione, allora si può accettare il modello adottato,
ritenendolo sufficientemente esplicativo per la serie osservata.

17
18
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza

APPENDICE

di Stefano Caprioli
stefano.caprioli@tesiinborsa.it

TUTTI I DIRITTI RISERVATI

3
APPENDICE.......................................................................................................................... 5

A1.1 - Exponential Smoothing..........................................................................................................5


Metodo dello smussamento singolo................................................................................................. 5
Smorzamento doppio ad un parametro.............................................................................................5
- Smorzamento moltiplicativo..........................................................................................................6
- Smorzamento additivo (tre parametri)........................................................................................... 6
- Smorzamento non stagionale a due parametri................................................................................7

A1.2 - Momenti teorici di un processo stazionario in senso debole ..............................................7

A1.3 - Funzione di Autocorrelazione parziale per un processo stocastico stazionario in senso


debole...................................................................................................................................................8

A1.4 - Decomposizione di Wold........................................................................................................9

A1.5 - Momenti di un processo AR(p)............................................................................................. 9

A1.6 - Processo Autoregressivo di Ordine 1 (AR(1))....................................................................10

A1.7 - Funzioni di Autovarianza, Autocovarianza e Autocorrelazione di un MA(1)................10

A1.8 - Condizione di Box & Jenkins di Invertibilità di un MA(q) o di Stazionarietà di un


AR(p) ................................................................................................................................................ 11

A1.9 - Processi ARMA(p,q)............................................................................................................ 12

A2.1 - Il test di Phillips-Perron.......................................................................................................13

A2.2 - L’Analisi di Cointegrazione.................................................................................................13

A2.3 - Cointegrazione ed Error correction................................................................................... 13

A2.4 - Metodo di Johansen ............................................................................................................ 14

A2.5 - L’approccio di ENGLE-GRANGER..................................................................................15

A3.1 - TEOREMA 3.1 ................................................................................................................... 16

A3.2 - TEOREMA 3.2...................................................................................................................... 16

A3.3 - L’Approccio di ENGLE.......................................................................................................16

4
APPENDICE
A1.1 - Exponential Smoothing
Metodo dello smussamento singolo

In formulae si ha:

Ft + 1 = a( X t − Ft ) + Ft = aX t + (1 − a ) Ft − 1 (1)

con a costante di smussamento ed F serie “smorzata” di X o serie delle previsioni su X. Da rilevare


che la costante “a”, in valore assoluto, determina in quale misura le previsioni rispondono agli errori
della previsione precedente.

Si può osservare che la relazione (1) può essere riscritta nel seguente modo:

t− 1
Ft = a ∑ (1 − a) s X t − s
s= 0

Quest’ultima relazione mostra chiaramente la natura “esponenziale” di tale metodo: la serie


“Forecast” F è una media ponderata dei valori passati di X, con i pesi che “declinano”
esponenzialmente nel corso del tempo.

Smorzamento doppio ad un parametro

In formulae si ha:

St = aX t + (1 − a ) St − 1
Ft = aSt + (1 − a ) Ft − 1

Le previsioni con tale metodo al tempo (T+k) risultano essere:

ak ak a
FT + k = (2 + ) ST − (1 + ) FT = 2 ST − FT + ( ST − FT )k
1− a 1− a 1− a

ciò implica che le previsioni giacciono su una retta con intercetta 2 ST − FT e coefficiente angolare

a ( ST − FT ) /(1 − a ) .

5
- Smorzamento moltiplicativo

La serie smussata F è data dalla seguente relazione:

FT + k = (a + bk )ct + k

Xt
a (t ) = α + (1 − α )(a(t − 1) + b(t − 1)) ;
ct (t − s)

b(t ) = β (a (t ) − a (t − 1)) + (1 − β )b(t − 1) ;

Xt
ct (t ) = γ + (1 − γ )ct (t − s ) ;
a (t )

con i parametri α,β strettamente positivi, γ<1. Il parametro s rappresenta il cosiddetto “Cycle for
Seasonal”, vale a dire che i precedenti parametri vengono calcolati partendo dalle ultime s
osservazioni.

- Smorzamento additivo (tre parametri)

La serie smussata è data dalla seguente relazione:

Ft + k = a + bk + ct + k

con a intercetta o componente permanente, b componente di trend, ct fattore stagionale additivo di


trend. Questi tre coefficienti sono definiti dalle seguenti relazioni di tipo ricorsivo:

a (t ) = α ( Ft − ct (t − s )) + (1 − α )(a (t − 1) + b(t − 1))


b(t ) = β (a (t ) − a (t − 1)) + (1 − β )b(t − 1)
ct (t ) = γ ( Ft − a (t )) + (1 − γ )ct (t − s)
α , β > 0γ < 1;

In questo caso una previsione al tempo (T+k) è data da:

FT + k = a (T ) + b(T )k + ct + k − s

6
- Smorzamento non stagionale a due parametri

La serie smussata è data da:

FT + k = a + bk

con a intercetta e b componente di trend. Tali parametri vengono ottenuti dalle seguenti relazioni
ricorsive:

a (t ) = α Ft + (1 − α )(a (t − 1) + b(t − 1))

b(t ) = β (a (t ) − a (t − 1)) + (1 − β )b(t − 1)

con α>0, β<1.

A1.2 - Momenti teorici di un processo stazionario in senso debole


La stazionarietà in senso debole di second’ordine comporta l’indipendenza del valore medio e della
varianza dal tempo t: tali valori risulteranno costanti al variare del tempo. La funzione di
autocovarianza dipende solo da K: in altre parole la distribuzione congiunta di X (t1 ) e di X (t 2 )

dipende solo dalla distanza fra t1 e t 2 e non dai valori effettivi di t1 e t 2 . Sotto questa ipotesi è
sufficiente considerare la differenza (lag)
K= t 2 - t1 .
In sintesi la stazionarietà in senso debole di second’ordine richiede media e varianza costanti ed
autocovarianza funzione solo di K. Da notare che, in presenza di stazionarietà, sia la funzione di
autocovarianza che quella di autocorrelazione risultano simmetriche rispetto al lag k:
γ (k ) = γ ( − k )
ρ (k ) = ρ (− k )
Tale proprietà permette di evitare di calcolare i valori delle due funzioni per lag negativi. Da
rilevare inoltre che la funzione di autocorrelazione, sempre in presenza di stazionarietà, può essere
espressa dalla seguente relazione:
γk
ρk = .
γ0
La matrice delle autocorrelazioni di un processo stazionario è definita positiva, dando luogo a
conseguenze limitatrici sui valori che possono assumere i coefficienti di autocorrelazione:

7
1 ρ1
> 0
ρ1 1

ossia 1 − ρ 12 > 0 e quindi − 1 < ρ 1 < 1 . Per K=2 si ha:

1 ρ1 ρ2
ρ1 1 ρ2 > 0
ρ1 ρ2 1

da cui si ottiene:
2
ρ 2− ρ1
− 1 < ρ 1 < 1 ; − 1 < ρ 2 < 1; − 1 < < 1.
1 − ρ 12

A1.3 - Funzione di Autocorrelazione parziale per un processo


stocastico stazionario in senso debole
Nel caso in cui un P.S. è stazionario, i coefficienti di autocorrelazione parziale assumono

espressioni piuttosto semplici. Tali coefficienti vengono generalmente indicati con φ kk .


Si può dimostrare (vd. Box-Jenkins (1970), pag. 64) che nel caso di un P.S. stazionario, questi
coefficienti sono espressi dal rapporto:
Rk*
φ kk =
Rk
dove sia il numeratore che il denominatore sono rappresentati da due determinanti quadrati e
precisamente:
- quello del denominatore Rk è il determinante della matrice dei coefficienti di autocorrelazione

totale ρ k , ossia:

ρ0 ρ 1 ... ρ k − 1
ρ 1 ρ 0 ... ρ k − 2
Rk = det
.............................
ρ k − 1 ρ k − 2 ... ρ 0
*
- quello del numeratore Rk è uguale a Rk con la sola differenza dell’ultima colonna che viene

sostituita dai coefficienti ρ 1 , ρ 2 ,..., ρ k ed ha quindi come espressione:

ρ0 ρ 1 ... ρ 1
ρ 1 ρ 0 ... ρ 2
Rk = det .
..............................
ρ k − 1 ρ k − 2 ... ρ k

8
A1.4 - Decomposizione di Wold
Alla base dell’analisi delle serie storiche vi è un teorema, conosciuto come il teorema della
decomposizione di Wold. In tale teorema si dimostra che ogni processo stocastico stazionario in

senso debole del tipo ( X t − µ ) può essere scritto come una combinazione lineare di una sequenza di
variabili casuali incorrelate tra loro. Risulta fondamentale, prima di applicare tale risultato, depurare
il processo oggetto di studio da eventuali componenti deterministiche che renderebbero il teorema

inapplicabile. Se il teorema è applicabile, allora il processo ( X t − µ ) potrà essere espresso come:



( X t − µ ) = at + ψ 1at − 1 + ψ 2 at − 2 + .. = ∑ψ j= 0
a
j t− j

con ψ 0 = 1;

La sequenza { at : t = 0,± 1,± 2,...} è costituita da elementi di variabili casuali incorrelate, talvolta
denominate innovazioni, provenienti da una distribuzione data con:
E ( at ) = 0;
2
V (at ) = E ( at ) = σ 2
< ∞

e Cov(at , at − k ) = E (at , at − k ) = 0, per ogni k ≠ 0 .

Come si può facilmente osservare, il processo { at } è un rumor bianco (WN).


Di notevole importanza i pesi ψ, poiché è assolutamente equivalente affermare che essi convergono

assolutamente (∑ ψ i < ∞ ) o che il processo { X t } è stazionario.

A1.5 - Momenti di un processo AR(p)


Il valore medio atteso di un processo stocastico autoregressivo di ordine p con intercetta µ è dato
da:
µ
E( X t ) =
1 − φ 1 − φ 2 − ... − φ p

Da rilevare che nel paragrafo 1.7 il modello AR(p) è stato presentato senza intercetta, in questo caso
il valore medio atteso risulta pari a zero. L’inserimento di un’intercetta non cambia la natura del
processo, sempre che questa non abbia una natura stocastica.
La varianza γ 0 e le autocovarianze γ 1 , γ 2 ,....., γ p ,... si calcolano con le seguenti relazioni:
2
γ 0 = φ 1γ 1 + φ 2γ 2 + ... + φ pγ p + σ a =σ 2
X

γ k = φ 1γ k− 1 + φ 2γ k− 2 + ... + φ pγ k− p (k=1,2,…,p)
Le autocovarianze sono in numero infinito e per j>p si ricorre alla seguente relazione:

9
γ j = φ 1γ j− 1 + φ 2γ j− 2 + ... + φ pγ j− p

che prende il nome di equazione di Yule-Walker.


Quest’ultima relazione è piuttosto utile per la risoluzione di due problemi:
- Se si è stabilito che il modello da associare alla serie osservata è proprio l’AR(p) e sono

quindi noti i parametri φ 1 , φ 2 ,...., φ p , allora si potranno calcolare le autocovarianze teoriche


corrispondenti al modello scelto.
- Se, viceversa, di un dato modello sono ignoti i parametri φ 1 , φ 2 ,...., φ p , questi potranno essere

stimati sostituendo ai valori teorici delle autocovarianze γ k i corrispondenti valori


campionari che si ricavano dalla serie osservata.

Se si divide la funzione dell’autocovarianza per l’autovarianza γ 0 si ottiene la funzione di

autocorrelazione:
ρ k = φ 1 ρ k − 1 + φ 2 ρ k − 2 + ... + φ p ρ k − p (k=1,2,…3,…)
Si può osservare come tutte le relazioni viste finora siano di natura ricorsiva, e quindi di facile
derivazione.
Quest’ultima relazione, come la precedente, permette, partendo da ρ 0 =1, di ottenere tutti gli altri
coefficienti di autocorrelazione teorica.

A1.6 - Processo Autoregressivo di Ordine 1 (AR(1))


Si può ricavare la funzione di autocorrelazione globale di un processo AR(1) moltiplicando

entrambi i membri della relazione (1 − φ B ) X t = at per X t − k , con K ≥ 0 , e calcolando il valore atteso

del risultato ottenuto. In tal modo si ottiene: γ k = φ γ k−1 , per ogni k>0, e, conseguentemente,

γ k = φ k γ 0 . Un processo AR(1) ha perciò una funzione di autocorrelazione globale data da ρ k = φ k .

In tal modo si può affermare che per φ>0 la funzione di autocorrelazione globale tende a zero in
modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.

A1.7 - Funzioni di Autovarianza, Autocovarianza e Autocorrelazione di


un MA(1)
La funzione di autovarianza di un processo MA(1) assume la forma seguente:
γ 0 = σ 2 (1 + θ 2 )
mentre la funzione di autocovarianza sarà:

10
γ 1 = − σ 2θ per k=1, γ k = 0 per k>1.
Dalle precedenti relazioni si ricava la funzione di autocorrelazione globale:
 −θ
 ρ1=
 1+ θ 2
 ρ k = 0, k > 1

A1.8 - Condizione di Box & Jenkins di Invertibilità di un MA(q) o di


Stazionarietà di un AR(p)
Un processo MA(q) può essere scritto utilizzando l’operatore B come:
Z t = (1 − θ 1 B − θ 2 B 2 − ... − θ q B q )at ;

Box & Jenkins hanno dimostrato che un processo MA(q) è invertibile se l’equazione caratteristica
θ ( B) = (1 − θ 1 B − θ 2 B 2 − ... − θ q B q ) = 0

presenta soluzioni esterne al cerchio di raggio unitario. Per rendere più chiaro quest’ultimo
importantissimo concetto, alla base dello studio delle serie storiche, viene trattato di seguito il caso
di un processo MA(2):
Z t = − θ 1at − 1 − θ 2 at − 2 + at ;

L’equazione caratteristica assumerà la seguente espressione: 1 − θ 1 B − θ 2 B 2 = 0 . Le radici di tale


equazione possono essere reali e distinte, reali ed uguali, complesse e complesse coniugate. Se il
determinante è maggiore o uguale a zero, allora le radici sono reali ed in modulo inferiori ad uno,
per cui dovrà aversi:

2
 − θ 1 ± θ 1 + 4θ 2 < − 2θ 2
θ 1 + 4θ 2 ≥ 0 ⇒  2
 − θ 1 ± θ 1 + 4θ 2 > 2θ 2

da cui si ricava:
θ 2 + θ 1 < 1 e θ 2 − θ 1 < 1.
Se il determinante è minore di zero, le radici sono complesse e si ha:
2 2 2
θ1 − θ 1 − 4θ 2 1
B > 1⇒ B = + = − > 1⇒ θ 2 < 1 .
4θ 2 4θ 2
2
θ2

Le suddette relazioni rappresentano le condizioni di invertibilità di un MA(2) (o di stazionarietà di


un AR(2)) che sinteticamente vengono riassunte sotto la condizione di radici esterne al cerchio di
raggio unitario.
Analogamente, sempre utilizzando il lag operator, un processo AR(p) può essere espresso dalla
seguente relazione:

11
Z t = (1 − φ B ) − 1 at = (1 + φ B + φ 2 B 2 + ...)at = at + φ at − 1 + φ 2 at − 2 + ...

in questo caso la condizione espressa per l’invertibilità di un Ma(q), se valida per l’AR(p), permette
di accertare la stazionarietà del processo AR esaminato.

A1.9 - Processi ARMA(p,q)


Si può dimostrare che i pesi di un processo MA(∞) sono dati da:
1− θ B
ψ ( B) = ,
1− φ 1
di conseguenza si ha:
∞ ∞
Z t = ψ ( B) at = (∑ φ i B i )(1 − θ B )at = at + (φ 1 − θ )∑ φ 1i − 1at − i ;
i= 0 i= 0

da un punto di vista speculare i pesi di un processo AR(∞) si presentano nella forma:


1 − φ 1B
π ( B) = .
1− θ B
Da tale relazione si ricava la seguente espressione:
 ∞   ∞ 
π ( B) Z t =  ∑ θ i B i  (1 − φ B ) Z t = at , o Z t = ( φ 1 − θ )  ∑ θ i− 1
Z t − i  + at .
 i= 0   i= 0 
Il modello ARMA(1,1) porta quindi sia ad una rappresentazione infinita di un processo
autoregressivo che di un processo a media mobile sempre con infiniti pesi.
La funzione di autocovarianza di un processo ARMA(1,1) assume la seguente espressione:
γ k = φ 1γ k− 1 ;
tale relazione si riferisce a lag maggiori di uno (k>1) mentre per k=0 e k=1 si ha:
γ 0 − φ 1γ 1 = σ 2 − θ (φ 1 − θ )σ 2 , e γ 1 − φ 1γ 0 = − θ σ 2 .

Da tali equazioni si ricava la funzione di autocorrelazione globale per un processo ARMA(1,1):


(1 − φ 1θ )(φ 1 − θ )
ρ1 =
1 + θ 2 − 2φ 1θ

ρ k = φ 1ρ k− 1 per k>1.
In generale un processo ARMA(p,q) può essere ottenuto dalla combinazione tra un AR(p) ed un
MA(q):
Z t − φ 1 Z t − 1 − ... − φ p Z t − p = at − θ 1 at − 1 − ... − θ q at − q , o, alternativamente, espresso dalla relazione:

(1 − φ 1 B − ... − φ p B p ) Z t = (1 − θ 1 B − ... − θ q B q )at , sinteticamente esprimibile come:

φ ( B) Z t = θ ( B)at .

12
A2.1 - Il test di Phillips-Perron
La correzione al test t è di tipo non parametrico poiché si usa una stima dello spettro del termine di
errore a frequenza zero. In tal modo si ottiene un test più robusto rispetto al problema
dell’eteroschedasticità della serie e per forme di autocorrelazione non perfettamente identificabili.
Il test di Phillips-Perron assume la seguente relazione formale:
γ 1/ 2
⋅t (ω 2
− γ 0 )n ⋅ S ( β )
t pp = 0
− ,
ω 2ω σˆ
con S(β) deviazione standard di β, t rapporto tra la stima di β e la sua deviazione standard

1/ 2
 q
 j  
campionaria, ω =  γ 0 + 2∑  1 − γ  .
q + 1 
j 
 j= 1  
1 n ~~
Le funzioni γ j = ∑ at at − j sono stime campionarie delle funzioni di autocovarianza, q è l’ultimo
n t= j+ 1
lag ritenuto significativo o, analogamente, il numero di periodi da includere nella correlazione
seriale.

A2.2 - L’Analisi di Cointegrazione


Engle e Granger fornirono la seguente definizione di cointegrazione:
Le componenti del vettore X t = ( x1t , x2t ,..., xnt )' sono dette cointegrate di ordine (d,b), denotando

tale definizione con X t ≈ CI (d , b) , se:

- Tutti i componenti di X t = ( x1t , x2t ,..., xnt )' sono integrati di ordine d.

- Esiste un vettore β = ( β 1 , β 2 ,..., β n ) tale che la combinazione lineare

β 1 x1t + β 2 x2t + ... + β n xn t = β X t è integrata di ordine (d-b), con b>0.

Se tali condizioni sono verificate il vettore β viene definito vettore cointegrante.

A2.3 - Cointegrazione ed Error correction


Un vettore di variabili (n x 1) X t = ( x1t , x2t ,..., xnt )' ha una “error correction representation” se può

essere espresso nella forma: ∆ X t = π 0 − π X t − 1 + π 1 ∆ X t − 1 + π 2 ∆ X t − 2 + ... + π p ∆ X t − p + ε t ; dove π 0 è

un vettore (n x 1) con i termini di intercetta, π i sono matrici di dimensione (n x n) con termini π jk ;

π è una matrice con almeno un termine non nullo ed infine ε t è un vettore (n x 1) i cui termini non

13
sono necessariamente incorrelati tra loro. Sia ciascuna singola variabile X t integrata di ordine uno

(I(1)): se tali variabili X t = ( x1t , x2t ,..., xnt )' sono rappresentabili attraverso la relazione

∆ X t = π 0 − π X t − 1 + π 1 ∆ X t − 1 + π 2 ∆ X t − 2 + ... + π p ∆ X t − p + ε t (1), allora esisterà necessariamente una

combinazione lineare di esse stazionaria. Formalmente, risolvendo la relazione precedente per

π X t − 1 , si ottiene: π X t − 1 = ∆ X t − π 0 − ∑ π i ∆ X t − i − ε t . Dato che tutti gli elementi della parte destra

della precedente relazione risultano essere stazionari, π X t − 1 , elemento di sinistra della relazione, è

anch’esso stazionario. Da rilevare che, poiché la matrice π contiene solo costanti, ciascuna riga

rappresenta un vettore cointegrante per X t . Ad esempio, la prima riga può essere scritta come

(π 11 X 1,t − 1 + π 12 X 2,t − 1 + ... + π 1n X n ,t − 1 ) . Poiché ciascuna serie X i ,t − 1 è I(1), (π 11 , π 12 ,..., π 1n ) deve essere

un vettore cointegrante per X t . In definitiva, una “error correction representation” per variabili di
tipo I(1) implica necessariamente la presenza di cointegrazione tra le variabili. Analogamente può
essere dimostrato che la presenza di cointegrazione implica l’error correction representation
(teorema della rappresentazione di Granger).

A2.4 - Metodo di Johansen


A scopo esemplificativo si consideri il caso di un vettore colonna X t di dimensione (n x 1) del tipo:
X t = A1 X t − 1 + ε t ; dove ε t = (ε 1t , ε 2t ,..., ε nt )' , A1 è una matrice di parametri di dimensione (n x n).

Sottraendo ad entrambi i membri X t − 1 , si ha: ∆ X t = − ( I − A1 ) X t − 1 + ε t = π X t − 1 + ε t . π è una matrice


(n x n). Da notare che stiamo trattando un caso particolare del caso più generale

∆ X t = π 0 − π X t − 1 + π 1 ∆ X t − 1 + π 2 ∆ X t − 2 + ... + π p ∆ X t − p + ε t . Se il rango della matrice π è zero, allora

ciascun elemento di π deve essere nullo, il che è equivale ad affermare che ∆ X t = ε t . In questo caso

ciascuna variabile { xit } è di tipo I(1) e non c’è nessuna combinazione lineare delle variabili che sia

stazionaria. All’altro estremo, si supponga che π sia a rango pieno. In questo caso la soluzione al

sistema ∆ X t = − ( I − A1 ) X t − 1 + ε t = π X t − 1 + ε t è dato da n equazioni indipendenti:


π 11 x1t + π 12x 2t + ... + π 1n x nt = 0
π 21 x1t + π 22 x 2 t + ... + π 2 n x nt = 0

.
.
π n1 x1t + π n 2 x 2t + ... + π nn x nt = 0

14
Ciascuna di queste n equazioni è una restrizione della soluzione di equilibrio di lungo periodo. In
questo caso ciascuna delle n variabili è stazionaria. Ciascuna riga della matrice π è un vettore
cointegrante così che ci sono n vettori cointegranti su n variabili presenti nel sistema. Nei casi
intermedi, nei quali il rango di π è uguale ad r, ci sono r vettori cointegranti.

A2.5 - L’approccio di ENGLE-GRANGER


Per spiegare l’approccio al problema della verifica dell’assenza/presenza di cointegrazione da parte

di Engle e Granger, si suppone che due variabili, Yt e Z t , siano di tipo I(1) e si vuole determinare se
esiste una relazione di equilibrio tra le due. Dalla definizione di Cointegrazione risulta necessario
che le due variabili siano integrate dello stesso ordine. Da ciò si deduce che il primo passo da
compiere nell’analisi è di verificare che ciascuna variabile sia effettivamente I(1), altrimenti si può
già affermare che le due variabili non sono cointegrate. Tale verifica va fatta con il test di D&F o
con quello di Phillips-Perron precedentemente esposti. Se entrambe le variabili risultano

effettivamente di tipo I(1), allora si stima la relazione di equilibrio: Yt = β 0 + β 1 Z t + et .


Se le variabili sono cointegrate, una regressione OLS comporta una stima dei parametri di

regressione β 0 e β 1 ”super consistente”. Stock (1988) dimostrò che le stime OLS di β 0 e β 1 per
variabili cointegrate convergono più rapidamente delle stime OLS per variabili stazionarie. Per

verificare se le variabili sono cointegrate occorrerebbe verificare la stazionarietà degli et , in realtà

non si può fare altro che lavorare con gli scarti Yt − Yˆt = eˆt .

Se Yt − Yˆt = eˆt è una serie stazionaria (I(0)), le due variabili esaminate, Y e Z, risultano essere

cointegrate. In pratica, se il test di D&F verifica la stazionarietà dei residui, si ha a1 = 0 nella

relazione ∆ eˆt = a1eˆt − 1 + ε t .


Il limite di tale approccio consiste nel fatto che non sempre i test di D&F o di PP possono essere

applicati ai residui poiché il ricercatore non conosce la serie et ma solo Yt − Yˆt = eˆt . Fortunatamente

Engle e Granger fornirono un test statistico che può essere usato per verificare l’ipotesi a1 = 0 ,
tuttavia in questi casi è consigliabile utilizzare entrambi i test (Engle-Granger e Johansen) per
verificare al meglio l’eventuale relazione cointegrante tra le variabili.

15
A3.1 - TEOREMA 3.1

Per “r” intero, il momento di ordine “2r” di un processo ARCH lineare di ordine uno con α 0 > 0 e
α ≥ 0 esiste se e solo se1:
r
α r

j= 1
(2 j − 1) < 1

A3.2 - TEOREMA 3.2

Il processo ARCH(p) con α 0 > 0, α 1 , α 2 ,...,α p ≥ 0 , è stazionario in covarianza se, e solo se,

l’equazione caratteristica associata ha tutte le radici al di fuori del cerchio unitario. Il momento
secondo è dato da:

α
E (ε t2 ) = p
0

(1 − ∑ α j) .
j= 1

A3.3 - L’Approccio di ENGLE

Engle partì da un processo AR(1) stazionario:


X t = µ + ρ X t− 1 + ε t

con ρ < 1

ε t = WN (o, σ 2 ) .
Tale processo ha come momenti primo e secondo condizionati i seguenti:
E ( X t /ψ t− 1 ) = ρ X t − 1;
Var ( X t / ψ t− 1 ) = σ 2;

mentre i momenti primo e secondo non condizionati risultano essere rispettivamente pari a:
E( X t ) = 0 ;

1
Var ( X t ) = σ 2.
(1 − ρ )
2

1
Per la dimostrazione di tale teorema vd. Engle(1982).

16
INEFFICIENZA DEL MERCATO E ANALISI TECNICA

Il crescente interesse da parte di grandi e piccoli investitori nei confronti dell’analisi


tecnica e di quella fondamentale depongono a favore di una visione del mercato non
efficiente:il rifiuto dell’ipotesi di efficienza debole incoraggia l’uso di indicatori di
natura tecnica per poter “battere” il mercato; il rifiuto dell’ipotesi di efficienza semi-
forte induce gli investitori ad adottare strumenti di analisi fondamentale per
individuare titoli sopra o sotto quotati. Il “trade union” tra i due approcci consiste nel
rifiuto dell’ipotesi di un mercato in cui l’informazione (analisi di settore, notizie di
carattere aziendale o di tipo macroeconomico) non si trasferisce nella quotazione in
modo corretto e con la rapidità necessaria a rendere inutile qualsiasi tentativo di
previsione. A tale proposito occorre operare una sintesi tra le tre ipotesi di efficienza
del mercato: efficienza debole, semi-forte e forte.

Si parla di un mercato efficiente in forma debole se la conoscenza della storia passata


dei prezzi non aiuta l’investitore a migliorare la “performance”: le informazioni
disponibili e gratuite sono utilizzate dagli investitori per realizzare acquisti e vendite
in un mercato che non ha costi transattivi. Tali condizioni non vengono nemmeno
ritenute strettamente necessarie affinché un mercato possa essere ritenuto ancora
efficiente: ciò accade nel caso in cui le informazioni sono disponibili ad un numero
adeguato di investitori, non esistono gruppi che sistematicamente interpretano meglio
di altri l’informazione e i costi di negoziazione non impediscono le contrattazioni. La
verifica di tale ipotesi porterebbe ad un mercato in cui non esisterebbero titoli
sovra/sotto stimati e la correzione istantanea dei prezzi impedirebbe la realizzazione
di un qualsiasi strumento o indicatore volto a migliorare le capacità previsionali di un
analista.
Si parla invece di efficienza semi-forte allorquando le informazioni aziendali
pubbliche sono trasferite nel prezzo con rapidità ed in modo corretto in modo tale che
la loro conoscenza non consente di realizzare profitti particolari. L’insieme
informativo dell’ipotesi semi-forte è più ampio di quello della forma debole ed è
composto da dati e notizie tratti dallo studio dei bilanci, dall’insieme delle
comunicazioni societarie sui risultati, i programmi e le prospettive dell’impresa.

L’ipotesi di efficienza forte consiste nella completa accessibilità da parte degli


investitori a tutte le informazioni rilevanti, comprese quelle di natura privata.

Rifiutando l’ipotesi di un mercato efficiente, appaiono molto interessanti gli


strumenti di analisi tecnica poiché essi si basano sull’idea che i prezzi rispecchiano
non solo le informazioni rilevanti riscontrabili dall’analisi dei fondamentali dei titoli,
ma anche l’insieme degli elementi psicologici ed umorali che influenzano, a volte
pesantemente, l’esito delle contrattazioni. Di seguito saranno esposti i contenuti
principali della teoria di Dow, il padre fondatore dell’analisi tecnica; successivamente
verranno illustrate le nozioni fondamentali per l’utilizzo degli strumenti base della
materia, con particolare interesse per le medie mobili e gli oscillatori, infine verranno
analizzate le teorie dei pivot e delle japanese candlestick.

GLI INIZI DELL’ANALISI TECNICA

É opinione diffusa che il primo e più importante apporto alla nascita ed allo sviluppo
delle metodologie che possono essere comprese nell’analisi tecnica è identificabile
nel complesso di regole e metodi contenuti negli editoriali pubblicati all’inizio del
secolo da Charles Henry Dow sul Wall Street Journal, di cui lo stesso Dow fu
fondatore ed editore.
La teoria di Dow prevede il confronto di due indici, l’Industrial Average ed il Rail
Average; il presupposto fondamentale della teoria di Dow è rappresentato dal
concetto per il quale la maggioranza delle azioni segue per buona parte del tempo
preso in esame la sottostante tendenza del mercato. Ciò premesso, Dow pensò bene di
misurare il mercato costruendo i due indici suddetti, il Dow Jones Industrial Average
(una combinazione di dodici titoli guida) ed il Dow Jones rail average (comprendente
dodici titoli delle principali compagnie ferroviarie), destinati successivamente, nel
1928, a dar luogo all’attuale indice Dow Jones.

I principi fondamentali della teoria di Dow sono sei e sono riassumibili come segue:

Il prezzo è l’elemento catalizzatore delle decisioni aggregate e delle relative


emozioni degli operatori che alimentano il rapporto tra domanda e offerta. La
rilevazione del prezzo (chiusura giornaliera) e della sua media si presenta quindi di
importanza basilare per l’interpretazione degli altri principi.

I mercati riempiono lo spazio, nel tempo, alternando ciclicamente la stessa


dinamica. Tale dinamica si caratterizza per una tendenza primaria (rialzista o
ribassista) destinata a durare mediamente almeno due anni e oltre. Una tendenza
secondaria, che evidenzia una direzionalità opposta alla tendenza primaria, della
durata variabile da un minimo di tre settimane a circa sei/dieci mesi, che solitamente
rintraccia circa il 33, 50 0 66% del percorso evidenziato dalla tendenza primaria. E
infine una tendenza minore che temporalmente si inserisce da un minimo di alcune
ore a un massimo di tre settimane e che, direzionalmente, fa parte della tendenza
primaria.
Le linee indicano il movimento. Pertanto variazioni di prezzo che non fanno
registrare uno scostamento superiore del 5% rispetto alla propria media identificano
una fase. Le fasi sono classificabili con una sequenza destinata a ripetersi nel tempo
con accumulazione, convinzione, speculazione, distribuzione, convinzione, panico,
rassegnazione, accumulazione e così via, il tutto a disegnare una configurazione
geometrica assimilabile a un trapezio destinato a ribaltarsi e a riprendere posizione
ciclicamente nel tempo.

Le relazioni tra prezzo e volume confermano il movimento. Un trend rialzista si


definisce normale quando la tendenza è confermata da volumi in crescita e le
correzioni si caratterizzano da volumi in diminuzione. Le discordanze tra le due
relazioni devono essere interpretate quale primo campanello d’allarme e non come
segnale di inversione di tendenza.

La dinamica registrata dal prezzo determina la tendenza.

Un trend rialzista si contraddistingue da una sequenza di massimi che superano i


precedenti e da una sequenza di minimi che rintracciano livelli di prezzo superiori ai
minimi precedenti. Viceversa, un trend ribassista si identifica per una progressiva
discesa dei massimi e dei minimi relativi.

Gli indici devono confermarsi a vicenda. I due indici creati da Dow dovevano
confermarsi a vicenda per avvalorare il segnale di acquisto, poiché Dow riteneva che
i cambiamenti dei cicli economici dovevano essere avvalorati sia dalla qualità di
un’economia in espansione (DJ industrial average) sia dai suoi riflessi commerciali
legati al trasporto e alla circolazione delle merci (DJ rail average).
In sintesi l’andamento dei mercati ricalca generalmente uno schema evolutivo, il
trend, basato sullo sviluppo sequenziale di movimenti attivi e di correzioni. Per
movimento attivo si deve intendere l’andamento dei corsi con direzione conforme al
trend di fondo (crescente in un trend rialzista, decrescente in uno ribassista); si parla
di correzione se si fa riferimento alla dinamica dei corsi con direzione contraria alla
tendenza principale. La sequenza e l’intersezione dei diversi trend segue un
andamento ciclico distinto in tre fasi: accumulazione, rialzo e distribuzione. Nella
fase di accumulazione inizia un lento ma continuo rastrellamento di titoli da parte dei
grandi investitori: i prezzi si mantengono stabili o leggermente crescenti, i volumi
tendono lentamente ad intensificarsi. La fine di questa fase ed il contemporaneo
inizio della fase rialzista è riscontrabile nella crescita simultanea di prezzi e volumi
dovuti al fatto che le informazioni rilevanti incominciano ad arrivare ad un numero
meno ristretto di investitori. La fase di distribuzione prevede prezzi e volumi stabili
su livelli elevati ma i grandi investitori incominciano gradualmente a vendere per poi
generare un segnale comune di vendita che da luogo ad un periodo di generali ribassi.

Un limite notevole alla teoria di Dow consiste nei ritardi operativi dovuti a mancate
convergenze tra i vari indici oggetto d’esame: il timing operativo è, per lo più,
lasciato al buon senso dell’investitore.

PRINCIPALI STRUMENTI DELL’ANALISI TECNICA: LE MEDIE MOBILI


L’interpretazione dei corsi relativi a medie mobili di range diverso rappresenta
l’indicatore più facile ed efficace nell’analisi tecnica per identificare il trend di fondo
espresso dai movimenti dei prezzi. Notevolmente influenzate nella loro reattività dal
dominio temporale, le medie mobili ben si prestano a indicare livelli di supporto e
resistenza dinamici il cui incrocio con la linea dei prezzi dà luogo a segnali operativi.
La situazione tipica è rappresentata dalla generazione di un segnale di acquisto in
occasione della violazione al rialzo della media da parte della linea dei prezzi e di
vendita in caso contrario. Tale sistema, eccellente nei casi di trend ben definiti, è in
grado di indicare da quale parte del mercato stare, ma sempre in funzione del trend.
Nei casi, peraltro estremamente frequenti, di movimenti laterali e in assenza di trend
direzionali, qualsiasi sistema basato esclusivamente sull’incrocio tra prezzi e relative
medie mobili è inevitabilmente destinato a produrre perdite. Proprio per questo
motivo, nel tempo, sono state introdotte nuove formule per il calcolo delle medie e
nuovi indicatori che, se associati alle medie stesse, aiutano a filtrare i falsi segnali.

In generale la media mobile viene calcolata su un insieme di osservazioni di


numerosità costante e predeterminata, da aggiornarsi nel tempo mediante
l’eliminazione dei dati più vecchi e l’introduzione di quelli più recenti. Le medie con
un range breve sono più adatte per le cosiddette fasi orizzontali del mercato,
risultando maggiormente sensibili anche ai segnali minori, quelle “lunghe” sono
ottimali per periodi di trend definito. Si ottiene in tal modo una serie storica
appiattita, caratterizzata da un ritardo temporale rispetto a quella originaria, alla quale
di solito viene affiancata, in modo da poterne comparare l’andamento evidenziano i
punti di intersezione.

Un’ulteriore decisione riguarda la metodologia di computo della media; di solito si


utilizzano la media semplice, quella ponderata o quella esponenziale. La media
mobile semplice è quella più utilizzata:
n− 1

∑ P(n − i )
MMS (n) = i= 0

n
In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale
indicatore ravvisa una scarsa sensibilità ai dati più recenti, risulta, di conseguenza,
più opportuno un diverso sistema di pesi da attribuire ai prezzi. A riguardo può
risultare utile la media mobile ponderata:
n− 1

∑ P (n − i )W (n − i )
MMP(n) = i= 0


n− 1
i= 0
W (n − i)

in cui W è un opportuno fattore di ponderazione. La ponderazione riduce


notevolmente il ritardo tipico della media semplice.

Tali sistemi non riducono il rischio di perdita istantanea delle informazioni meno
recenti; per tale scopo vengono utilizzate le medie mobili esponenziali, le quali
assegnano pesi più alti ai prezzi più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle
curve vicine alle linee dei prezzi ma che riescono ad anticipare i segnali tecnici
necessari per il trading. La formula per calcolare la media mobile esponenziale a n
giorni è la seguente:
n− 1

∑ P (n − i )W ( n − i )
MME (n) = i= 0
n− 1

∑W
i= 0
(n− i)

Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per
il calcolo di tale media risulta molto utile la seguente relazione ricorsiva:

MME(t)=MME(t-1)(1-W)+Pt(W) .
Un considerevole passo avanti è stato compiuto con l’introduzione di un nuovo tipo
di media mobile in grado di adattare la propria reattività in funzione della volatilità
della serie di prezzi a cui è applicata. Fra i primi a introdurre un sistema
sostanzialmente trend-following in grado di modificarsi in funzione della volatilità
dei prezzi Tushar Chande ha sviluppato una serie di strumenti tecnici di notevole
valore che hanno contribuito a cambiare il modo di fare trading negli ultimi anni. Il
concetto di fondo alla base dei risultati ottenuti da Chande consiste nel vedere il
fattore di ponderazione come specchio della variabilità dei dati sottostanti: maggiore
è la variabilità dei dati, tanto maggiore sarà il fattore di ponderazione.

Un altro sistema che ha come obiettivo il miglioramento delle indicazioni fornite


dalle medie mobili è lo spostamento in avanti delle medie stesse in un contesto che
preveda la rappresentazione multipla di una media mobile di un determinato dominio
temporale. Tale sistema illustra, graficamente, come nei momenti di trend le medie si
distanzino per poi riavvicinarsi e aggrovigliarsi nei momenti di congestione.

Un interessante sistema è stato proposto da Bill Williams: vengono prese in


considerazione tre medie mobili a cinque, otto e tredici periodi, rispettivamente
spostate in avanti di tre, cinque e otto periodi. Tale sistema, che prende il nome di
Alligator, aiuta molto a identificare i momenti di congestione nei quali è
sconsigliabile operare.

SUPPORTI RESISTENZE-

Osservando attentamente il grafico di un titolo si notano spesso dei valori che


costituiscono una “barriera”, di cui occorre imparare a tener conto. Per esemplificare
meglio il concetto si è scelto un vero titolo del mercato azionario, del quale viene
riportato il grafico dei valori da Agosto 1994 a Maggio 1996.

Le lettere in basso sono le iniziali dei mesi.


Sono state inoltre tracciate sul grafico due linee orizzontali, in corrispondenza dei
valori 4.000 e 3.000 lire.

I numeri racchiusi in quadrati corrispondono a dei punti richiamati dal testo di


spiegazione che segue.

Il titolo, intorno alla metà di Ottobre 1994, è sceso sotto le 4.000 lire (punto 1). Nei
tre mesi successivi il suo valore ha oscillato al di sotto di tale cifra, senza riuscire a
risalirvi con decisione, per poi continuare in discesa. Nei primi di Aprile il titolo
strappa verso l'alto, ma si “scontra” a quota 3.000 (punto 2), dalla quale viene
respinto verso il basso.

Verso i primi di Luglio '95 il titolo riprende a salire, raggiunge quota 3.000 (punto 3),
questa volta riesce a superarla, vi indugia intorno quasi a prendere fiato, vi rimbalza
sopra e finalmente riparte verso nuove vette.

Arrivato ad Ottobre ancora sulla fatidica quota 4.000 (punto 4), si scontra
nuovamente con un muro invisibile e viene respinto brutalmente verso il basso. Nel
ripiegare, il titolo incontra a metà Novembre di nuovo quota 3.000 (punto 5). Da
questa è respinto verso l'alto: riprende la salita, raggiunge in Febbraio livello 4.000
(punto 6) e, questa volta, sfonda la barriera usandola poi come trampolino per
ripartire al rialzo.

Le ipotetiche linee tracciate a quota 3.000 e 4.000 sono di resistenza/supporto:


- Una linea che sta per essere perforata al ribasso, è chiamata supporto, sostenendo in
qualche modo il titolo.

- Una linea che sta per essere perforata al rialzo, è chiamata resistenza, opponendosi
in qualche modo all'ulteriore salita del titolo. Nell'esempio riportato, mentre il titolo
scendeva, ha incontrato il suo supporto a quota 4.000 e, mentre risaliva, ha incontrato
la sua resistenza nello stesso punto.Esaminando un titolo occorre notare con quanta
forza certe linee vengono perforate, ricavando importanti informazioni sull'incertezza
o decisione dei movimenti del titolo. In modo analogo, occorrerà valutare il
momento opportuno d'acquisto, o vendita, di un titolo che interessa, tenendo presente
che l'incontro con resistenze o supporti più volte verificati in passato rappresentano
spesso momenti di verifica.

Uno sviluppo delle linee di resistenza e supporto è dato dal concetto di Trend. Oltre a
linee orizzontali, infatti, è possibile racchiudere il movimento di un titolo, all'interno
di linee inclinate che ne limitano le oscillazioni.

Come nel caso di supporti e resistenze, per semplicità di esposizione viene riportato il
grafico di un titolo preso dalla realtà.
IL TRADING SYSTEM

Si parla di trading system allorquando ci si riferisce ad un insieme di regole


precostituite alla base dei processi decisionali dei traders. Gli operatori di borsa
adottano un sistema di trading per realizzare decisioni il più possibile aderenti agli
effettivi sviluppi del mercato, limitando il più possibile il costo relativo alla pressione
psicologica gravante su di essi. I trading system offrono infatti un supporto utilissimo
eliminando la soggettività nella valutazione dell’andamento dello strumento
finanziario e portando all’attenzione del trader quelle situazioni che hanno dimostrato
una certa profittabilità. Molto spesso per un trader lo stress può riflettersi in un
rallentamento dei processi decisionali, a volte determinante in un’operazione di
compravendita. Le caratteristiche di robustezza, significatività ed efficienza di un
trading system rappresentano i requisiti necessari per poter “legittimare” un sistema e
renderlo meritevole di considerazione per un eventuale utilizzo nelle transazioni
future.

Un sistema viene considerato robusto se genera risultati positivi senza dipendere da


un insieme limitato di parametri. Al contrario, un sistema che funziona bene solo con
un insieme ristretto di parametri è detto overfitted, sovraottimizzato. Molto spesso
capita che un sistema sia eccezionalmente profittevole se testato sul passato ma,
applicato al mercato nel presente, dia risultati deludenti. Questo succede perché il
processo di ottimizzazione è stato essenzialmente volto ad individuare le variabili che
massimizzano il rendimento del sistema nel passato.

Il modo migliore per verificare la robustezza di un trading system consiste nella


realizzazione dello stesso nei diversi periodi e per diversi titoli: minore è la sensibilità
del sistema a variazioni dell’orizzonte temporale ed alla composizione del
portafoglio, maggiore sarà il livello di robustezza del sistema.
Un secondo fattore determinante nella valutazione di un sistema operativo di trading
è la significatività del sistema stesso. La misura della significatività di un sistema
adottata sui principali software operativi, consiste nell’errore di rilevazione, uguale, a
sua volta, all’inverso della radice quadrata del numero di operazioni necessarie per
realizzare il trading. Indicando con n il numero di tali operazioni, la presente misura
potrà essere sintetizzata con la seguente formula:

1
Error =
n

Se ad esempio vi sono venticinque operazioni, l’errore di calcolo sarà più o meno del
20%. Per mantenere il livello di errore entro il 5% servirebbero circa 400 operazioni.
Sfortunatamente sono pochissimi i sistemi che generano tanti segnali.
Per misurare invece l’efficienza di un sistema, si prende in considerazione la
proporzione tra il profitto possibile ed il profitto potenziale, teorico quest’ultimo, di
un dato mercato:

prof .tot.
eff .totale =
prof . potenz.tot.

In altre parole si considera il guadagno del sistema in esame rispetto a un sistema


ideale che compra sempre sui minimi e vende sui massimi. Oltre all’efficienza totale
del sistema occorre calcolare anche l’efficienza rispetto alle singole operazioni.
L’efficienza dei segnali (calcolata in rapporto alla differenza tra massimi e minimi
relativi del dato intervallo di riferimento), è bassa se inferiore al 60%. Viceversa tale
limite si ridimensiona al 20% per l’efficienza totale. In questa misurazione occorre
scartare i valori estremi. Un sistema che può dare dieci operazioni, delle quali nove
hanno un’efficienza del 15% ed una sola del 100% avrebbe come media un
fuorviante 23,5%. Tre altri fattori che influenzano pesantemente sulla valutazione
dell’efficacia di un sistema di trading sono il drowdown (la cosiddetta perdita
massima realizzata dal sistema), la percentuale di operazioni vincenti realizzate ed il
numero di operazioni negative che si verificano all’atto della completa attuazione del
sistema operativo.

Una volta definiti i cardini per una corretta valutazione di un sistema operativo, non
resta che decidere quanto rischiare.

La scelta è legata alla propensione al rischio dell’investitore, tuttavia i traders


restringono il campo al cosiddetto rischio di rovina: la possibilità cioè di perdere
tanto (in termini finanziari e psicologici) da essere impossibilitati ad operare. Tale
rischio viene visto in funzione di tre fattori: la probabilità di successo, il payoff ratio
(dato dal rapporto vincita media/perdita media) e la parte di capitale esposta al
trading. Da sottolineare che il rischio di rovina aumenta con l’incrementarsi della
percentuale di capitale esposta ed è invece inversamente proporzionale alla
probabilità di successo.
In genere i grandi trader tendono a non rischiare mai più del 4% del capitale per
operazione e molti di loro addirittura si limitano al due.
Alla base di quasi tutti i trading system adottati vi è l’analisi tecnica per la facilità di
comprensione dei segnali e per l’efficacia riscontrata.