Professional Documents
Culture Documents
Capitolo I
di Stefano Caprioli
stefano.caprioli@tesiinborsa.it
3
CAPITOLO I...........................................................................................................................5
4
Capitolo I
- Introduzione
Si definisce una serie storica una successione ordinata di numeri reali che misura un certo
fenomeno seguendo un preciso ordine temporale. Lo studio di tale successione trova la propria
ragion d'essere nel fatto che la conoscenza di quanto è avvenuto determina ciò che avverrà secondo
un principio generale di inerzia e di stabilità delle leggi che conosciamo. Nel caso in cui la serie
storica oggetto di studio non è di tipo deterministico ma si basa su una certa distribuzione di
probabilità, sarà chiamata processo stocastico.
Si definisce processo stocastico una famiglia di variabili casuali caratterizzate da un parametro "t"
(nel caso delle serie storiche tale parametro consiste nell'unità di tempo considerata). Tali variabili
casuali sono definite tutte nel medesimo spazio fondamentale "S"1.
In altre parole si può affermare che una data serie temporale è una particolare realizzazione di un
processo stocastico.
Figura 1.1 Esempio di una serie storica: serie osservata dei prezzi di riferimento giornalieri del titolo B.di Roma dal
4/02/’99 all’1/12/’99.
1
Lo spazio fondamentale è l’insieme degli eventi possibili. Quando si parla di variabili casuali esso coincide con il
campo di esistenza di una funzione, la variabile casuale appunto, la quale va da SàR con R insieme dei numeri reali.
5
Figura 1.2: Serie osservata dei prezzi di riferimento settimanali 2 del titolo B.Roma nel periodo Febbraio /Dicembre
’99.
Prima di approfondire l’analisi dell’investigazione di una serie storica, vanno sottolineate le due
principali finalità da perseguire allorquando si studia una sequenza di dati osservati nel corso del
tempo: innanzitutto va identificata la natura del fenomeno rappresentato dalla sequenza di
osservazioni a disposizione3; il secondo aspetto da valutare è la possibilità di operare previsioni
attendibili di sequenze di dati futuri sulla base delle informazioni disponibili dalla sequenza
osservata. Tali fattori vengono riportati in letteratura rispettivamente con i termini di identificazione
e previsione. Per perseguire entrambi molto spesso si assume che i dati siano la realizzazione di una
combinazione nota di un set di componenti predefinite più un termine di errore di natura stocastica
che normalmente crea delle difficoltà di identificazione del modello che si presta meglio a spiegare
il fenomeno osservato. In generale va detto che la maggior parte delle serie storiche possono essere
descritte in termini di due componenti fondamentali: il trend e la stagionalità. Il primo rappresenta
una componente della serie che cambia nel corso del tempo senza tuttavia presentare dei cicli
prevedibili a priori; la componente stagionale, al contrario, esprime delle variazioni riscontrabili ad
intervalli regolari e sistematici. Per quanto riguarda l’analisi del trend va sottolineato che non
esistono tecniche sempre valide ed “immediate” per evidenziare un trend, tuttavia laddove il trend è
monotono crescente o decrescente l’analisi risulta piuttosto facilitata. Molto spesso una semplice
osservazione visiva della serie permette di diagnosticare la presenza di un trend, tuttavia, laddove
2
I grafici delle figure 1.1 ed 1.2 riportano l’andamento dei prezzi del medesimo titolo e nel medesimo arco temporale,
tuttavia l’unità temporale di riferimento che caratterizza il parametro t è giornaliera nel primo grafico, settimanale nel
secondo. Risulta in tal modo chiaro quanto possa essere determinante la scelta del parametro temporale per descrivere
un fenomeno oggetto di studio.
3
Il processo di identificazione comporta un’attenta analisi della serie osservata volta a delineare la giusta relazione
funzionale da associare alla serie:l’impatto che le variabili esaminate hanno sulla serie nel corso del tempo.
6
non si è certi di poter fare affidamento su semplici impressioni, può essere utile analizzare le
funzioni di autocorrelazione in seguito specificate4. Spesso è necessario, al di là della mera
evidenziazione, rimuovere la componente di trend. A riguardo esistono varie metodologie, tra tutte
la più usata, nonché la più facile da utilizzare, risulta essere quella delle differenze successive 5. Tale
approccio si rivela molto conveniente allorquando si rimane nell’ambito della modellistica ARIMA
in seguito analizzata. In generale risulta utile “ridurre” la presenza di fattori di “disturbo” che
possono “nascondere” la componente di trend: tale obiettivo può essere raggiunto attraverso
l’utilizzo di opportune medie mobili. La componente stagionale è invece facilmente riscontrabile
osservando l’eventuale correlazione tra un elemento della serie e gli elementi successivi. Da un
punto di vista formale ciò è possibile attraverso l’analisi della funzione di autocorrelazione: un utile
strumento sia per l’analisi del trend che per l’analisi di fattori stagionali. Va sottolineato inoltre che,
anche per “smussare” le componenti stagionali, le medie mobili rappresentano un metodo efficace
in quanto, per costruzione, tendono a ridimensionare eventuali “outperformance”.
180
160
140
120
100
80
60
40
20
0
1
3
5
7
9
11
15
25
29
13
17
19
21
23
27
Figura 1.3: Esempio di serie storica con una chiara presenza di una componente di trend definita e crescente.
4
In particolare, se la funzione di Autocorrelazione globale tende a zero molto lentamente e con un andamento rettilineo,
si può essere certi della presenza di una componente di trend che caratterizza la serie di dati esaminata.Ulteriori
importanti indicazioni si possono dedurre dall’analisi della funzione di autocorrelazione parziale che, in presenza di
trend, fornirà valori prossimi a uno e molto più vicini a zero per K>1.
5
Una definizione completa delle differenze successive è presente nel paragrafo 1.10.
7
100
80
60
40
20
0
1
3
5
7
9
19
23
27
11
13
15
17
21
25
29
Figura 1.4: Evidenziazione del trend nella serie della figura 1.3 attraverso una media mobile esponenziale con peso
pari a 2/(n+1) dove n è la numerosità della serie osservata.
Figura 1.5: Esempio di come detrendizzare (o eliminare la componente di trend) la serie della figura 1.3. Per ottenere
la serie detrendizzata è stata applicata una differenza prima alla serie della figura 1.3. In altre parole il valore assunto
dalla serie detrendizzata al tempo t è dato dalla differenza tra il valore della serie della figura 1.3 al tempo t, meno il
valore della serie in figura 1.3 al tempo t-1. In tal modo si ottiene una serie priva della componente di trend lineare.
8
1.2 - Strumenti di analisi per l’identificazione e la previsione: le medie mobili e lo
smorzamento esponenziale
La figura 1.4 rappresenta in concreto come evidenziare la componente di trend di una serie
osservata utilizzando le medie mobili. In generale le tecniche di smussamento rappresentano il
primo passo per individuare un opportuno modello di previsione da applicare alla serie oggetto di
studio. La serie smussata attraverso l’utilizzo di una media mobile evidenzia un andamento
chiaramente lineare crescente, lasciando presupporre che un buon modello di previsione capace di
prevedere al meglio i valori futuri della serie potrebbe essere un modello lineare in funzione del
tempo: l’unità temporale diventa regressore del modello adottato. Le medie mobili vengono
calcolate su un insieme di osservazioni di numerosità costante e predeterminata, da aggiornarsi nel
tempo mediante l’eliminazione dei dati più vecchi e l’introduzione di quelli più recenti: in tal modo
si ottiene, così come si vede nella figura 1.4, una serie storica appiattita, caratterizzata da un ritardo
temporale rispetto a quella originaria, alla quale di solito viene affiancata. Un’ulteriore decisione
riguarda la metodologia di computo della media; di solito si utilizzano la media semplice, quella
ponderata o quella esponenziale. La media mobile semplice è quella più utilizzata:
n− 1
∑ P(n − i )
MMS (n) = i= 0
In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale indicatore è
caratterizzato dal fatto di presentare una scarsa sensibilità ai dati più recenti. La media mobile
ponderata viene invece utilizzata allorquando si vuole conservare il più possibile l’informazione
derivante dai dati più recenti. Essa può essere sintetizzata nella formula seguente:
n− 1
∑ P (n − i )W (n − i )
MMP(n) = i= 0
∑
n− 1
i= 0
W (n − i)
in cui W è un opportuno fattore di ponderazione. Tali sistemi non riducono il rischio di perdita
istantanea delle informazioni meno recenti; per tale scopo vengono utilizzate le medie mobili
esponenziali, le quali assegnano pesi più alti ai dati più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle curve vicine alle
serie storiche originarie da cui scaturiscono le sequenze di medie mobili. La formula per calcolare la
media mobile esponenziale con numerosità n è la seguente:
9
n− 1
∑ P (n − i )W ( n − i )
MME (n) = i= 0
n− 1
∑W
i= 0
(n− i)
Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per il calcolo di
tale media risulta molto utile la seguente relazione ricorsiva:
MME(t)=MME(t-1)(1-W)+Pt(W) .
- Lo smorzamento esponenziale
• Parametro singolo
• Doppio smussamento
• Moltiplicativo
• Additivo
• Non stagionale.
Tale metodo si rivela particolarmente appropriato per serie che si muovono casualmente attorno ad
un valore medio costante senza trend o componenti stagionali.
10
.
Figura 1.6: La serie in rosso è un tipico esempio di serie da “smorzare” attraverso lo smussamento singolo
6
Il termine non è stato usato a caso in quanto in questi casi si parla di metodi di decomposizione della serie osservata: si
cerca cioè di individuare ed isolare le componenti di trend, stagionalità ed eventuali componenti cicliche e si analizza il
tipo di relazione che intercorre tra queste stesse componenti (additiva, moltiplicativa, etc.).
11
8
0
10
19
22
31
34
43
46
55
58
1
4
7
13
16
25
28
37
40
49
52
-2
-4
Figura 1.7: Esempio di serie storica con una componente di trend moltiplicata per una componente stagionale più una
componente casuale di tipo normale.
La serie della figura 1.7 è stata ottenuta moltiplicando una componente di trend per una componente
stagionale più un termine di errore di natura stocastica. In pratica tale serie è la risultante di tre
componenti: trend, stagionalità e fattore casuale. La relazione è di tipo moltiplicativo, sintetizzabile
con il seguente modello:
X t = St * Bt * t + ε t
con St componente stagionale pari ad 1 per t che va da 1 a 27, uguale a 2 per le restanti
osservazioni. La componente di trend è stata posta pari a 0,3 mentre il termine di errore è stato
ottenuto attraverso l’uso di un generatore di numeri casuali provenienti da una distribuzione
normale standard. Applicando una media mobile di tipo esponenziale a otto termini con peso W=2/
(n+1), così come si può osservare nella figura 1.8, vengono maggiormente messi in risalto sia il
trend crescente che la componente stagionale che fa “lievitare” la serie dalla ventisettesima
osservazione in poi. Da notare che in questo caso basta applicare una trasformazione logaritmica
alla serie originaria per avere le tre componenti (trend, stagionalità e componente casuale) legate da
una reazione puramente additiva di facile approccio. In questo caso si è usato il metodo dello
smussamento singolo poiché la componente di trend non era particolarmente rilevante. In generale,
se il campione di osservazioni va da 1 a T, la previsione per il valore futuro della serie al tempo
(T+k), con K>0, risulta essere: FT + k = FT . Da sottolineare infine che molto spesso risulta
12
4
3,5
3
2,5
2
1,5
1
0,5
0
1
4
7
13
16
25
28
37
40
43
52
55
10
19
22
31
34
46
49
-0,5
-1
Figura 1.8: Sequenza di medie mobili esponenziali di otto termini applicata alla serie della figura 1.6.
7
6
5
4
3
2
1
0
10
22
25
34
49
52
1
4
7
13
16
19
28
31
37
40
43
46
55
58
-1
-2
Figura 1.9: Smussamento esponenziale della serie della figura 1.3 con costante di smorzamento a=0,3. Lo
smussamento evidenzia il fattore stagionale dalla ventisettesima osservazione in poi.
13
Figura 1.10: La serie in blu rappresenta la serie originaria costituita da un trend lineare più un termine di errore
proveniente da una popolazione con distribuzione normale con media zero e varianza uno. La serie verde rappresenta
la serie blu smussata attraverso il metodo dello smussamento singolo, quella in rosso rappresenta la serie smussata
attraverso il metodo dello smussamento doppio.
FT + k = (a + bk )ct + k
con a intercetta o componente permanente, b trend della serie, ct fattore moltiplicativo stagionale.
Questi tre coefficienti sono definiti in maniera formale nell’appendice, paragrafo A1.
14
Figura 1.10: L’efficacia dello smussamento doppio per serie con trend lineare evidente è riscontrabile in tale figura.
Ft + k = a + bk + ct + k
7
Oltre ai suddetti metodi ne esistono molti altri (tra gli altri va ricordato il filtro di Hodrick-Prescott), la conoscenza dei
quali porta ad un approfondimento dell’argomento al di sopra del livello necessario di conoscenze per lavorare con
serie storiche di tipo finanziario.
15
con a intercetta e b componente di trend. Le relazioni analitiche relative ai parametri della serie
smussata vengono, come al solito, riportate in Appendice.
medio atteso del processo stocastico suddetto sarà espresso dalla relazione:
µ (t ) = E ( Z t )
dove E sta per Expected value. Tale terminologia sta a sottolineare che il valore espresso è il valore
che si attende dovrebbe realizzarsi nel lungo periodo. In realtà la relazione suddetta è un vero e
proprio "artificio teorico" poiché, essendo la serie di lunghezza infinita, probabilmente non si
arriverà mai al valore suddetto. Il valore medio costituisce il momento di prim'ordine della serie
teorica studiata e si differenzia notevolmente dal momento di prim'ordine della serie osservata: in
16
quest'ultimo caso infatti il valore non è nient'altro che la media dei valori osservati. Da notare che,
così come evidenziato dalla formula, il valore atteso è espresso in funzione del parametro
temporale.
1.3.2 - Varianza
In formulae si ha:
σ 2 (t ) = E [ Z t − µ (t )] = var(Z t )
2
Anche in questo caso la relazione evidenzia la dipendenza della varianza dal tempo. La varianza è
un momento di second'ordine che esprime una misura della dispersione media della variabile Z
rispetto al suo valore atteso nel corso del tempo. La radice quadrata della varianza si definisce come
scarto quadratico medio.
1.3.3 - Autocovarianza
L’autocovarianza è la covarianza tra valori della serie Z in istanti temporali diversi. Normalmente la
covarianza misura la tendenza di due grandezze a variare nello stesso senso, in questo caso si
utilizza un’unica variabile misurata in due istanti temporali diversi. In formulae si ottiene:
γ (t , t + k ) = E[ ( Z t − µ (t ))(Z t + k − µ (t ))] = cov(Z t Z t + k )
Da notare che l’autocovarianza è funzione di due istanti temporali, t e (t+k). In quest’ottica la
varianza risulta essere un caso particolare dell’autocovarianza, ponendo k=0.
17
Cov( Z t , Z t − k )
ρ (k ) = Corr ( Z t Z t − k ) = ;
Var ( Z t )Var ( Z t − k )
Lo strumento utilizzato per visualizzare le eventuali correlazioni seriali tra i termini della serie è il
correlogramma. Esso rappresenta l’insieme dei coefficienti di autocorrelazione per k=0,1, 2,3,…..
riportati su di un sistema di assi cartesiani che vede sull’asse delle ascisse il lag K 8 e sull’asse delle
ordinate ρ (k ) . I valori ottenuti saranno tutti compresi tra –1 e +1. Molto spesso la morfologia
assunta dal correlogramma aiuta nel processo di identificazione del giusto modello da associare alla
sequenza osservata. Va sottolineato inoltre che l’eventuale presenza di una forte correlazione
seriale rende impossibile assumere l’ipotesi di indipendenza dei valori osservati, ponendo non pochi
problemi per quanto riguarda l’identificazione di un modello significativo. Un altro utile metodo per
esaminare la dipendenza seriale tra i termini della serie in esame è la funzione di Autocorrelazione
parziale. Essa rappresenta un’estensione della funzione di Autocorrelazione globale. La funzione di
autocorrelazione parziale φ kk viene definita come la correlazione lineare tra Z t e Z t − k al netto delle
correlazioni lineari intermedie. Un’analisi più dettagliata di tale funzione verrà fatta allorquando si
tratteranno i modelli di Box & Jenkins.
1.5 - Ergodicità
La stima della funzione di autocorrelazione globale a partire da una serie storica richiede il
concetto di ergodicità9. Formalmente un P.S. temporale si dice ergodico se la media di insieme
tende alla media temporale al divergere delle osservazioni dove per media d’insieme si deve
intendere ∑
j= 1
z j (ti )
, la media cioè nella medesima unità temporale ti di n manifestazioni del
z (ti ) =
n
processo stocastico z; la media temporale risulta invece essere la media dei valori riscontrati su z
per più unità temporali:
n
∑ zk (ti )
.
z (t ) = i= 1
n
8
Per lag k si intende il ritardo di ordine k. Se k=1, allora si ha k=t-(t-1), se k=2, k=t-(t-2).
9
Il fatto che si possa ottenere una stima consistente delle proprietà statistiche di un P.S. stazionario dallo studio di un
solo campione temporale di lunghezza finita non è per nulla ovvio; quello che si ricerca è un P.S. nel quale la
rilevazione effettuata su una singola manifestazione temporale in un gran numero di punti successivi porta alle stesse
distribuzioni statistiche che si otterrebbero considerando un gran numero di valori riferiti allo stesso istante t. Se viene
riscontrato ciò allora risulta molto conveniente considerare una singola manifestazione in tempi successivi piuttosto che
ricorrere a più manifestazioni dello stesso processo.
18
1.6 - Stazionarietà dei processi stocastici
Tutte le relazioni analizzate finora risultano funzioni del tempo comportando notevoli problemi di
V ( X t ) = E[( X t − µ ) 2 ] = σ 2
< +∞
che X t abbia associata una forma di distribuzione che non varia nel tempo.
Un semplice esempio di P.S. stazionario è il White Noise (WN), o Rumor Bianco, nel quale le
variabili casuali hanno una distribuzione indipendente ed egualmente distribuita (i.i.d.):
E (ε t ) = 0 ;
2
V (ε t ) = E (ε t ) = σ 2
< +∞;
10
Si è specificata la stazionarietà in senso debole di ordine due poiché è la più usata, in generale l’ordine coincide con il
numero di momenti che si richiede debbano essere indipendenti dal tempo.
19
Figura 1.11: Visualizzazione di una sequenza di dati generati da un processo stocastico stazionario.Si
può osservare come vi sia un continuo ritorno al valore medio, continue oscillazioni attorno ad esso.
20
Figura 1.13: Correlogramma di un processo AR(1) non stazionario.
Da notare come il correlogramma decresca molto lentamente nel tempo.
11
I modelli Autoregressivi, a media mobile ed i modelli misti vengono analizzati nei paragrafi successivi.
21
1.8.1 - Modello autoregressivo di ordine p (AR(p))
zt = φ 1 zt − 1 + φ 2 zt − 2 + ..... + φ p zt − p + at
I parametri φ 1 , φ 2 ,......, φ p costituiscono i coefficienti della regressione lineare della variabile casuale
zt rispetto ai suoi stessi valori passati, at , processo WN, è il termine di errore. In modo sintetico il
modello autoregressivo viene indicato con AR(p). Da rilevare che la presenza come regressori di
valori passati della variabile dipendente fa si che la teoria classica della regressione non si possa
applicare completamente al modello esaminato12.
Si può sottolineare come un AR(1) possa essere derivato dalla decomposizione di Wold (Vedi
In generale, lavorando con processi AR(p), risulta conveniente utilizzare l’operatore backshift B,
denominato anche lag operator, che semplifica notevolmente determinate relazioni. Tale operatore
si definisce come segue:
BX t = X t − 1
ed in generale si ha:
Bm X t = X t− m
Quest’ultima relazione convergerà solo se φ < 1 (condizione di stazionarietà per il processo X).
12
La presenza di variabili ritardate comporta una distorsione (Bias) delle stime dai parametri φ per piccoli campioni.
13
Tale assunzione vale per processi stocastici AR(p) di tipo stazionario.
22
Un processo AR(1) ha, così come si è dimostrato in Appendice, una funzione di autocorrelazione
globale data da ρ k = φ . In tal modo si può affermare che per φ>0 la funzione di autocorrelazione
k
globale tende a zero in modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.
In definitiva, osservando anche i correlogrammi riportati nelle figure 1.12, 1.13, 1.14, un andamento
monotono decrescente chiaro e rilevabile già dopo pochi lag indica che il processo analizzato
potrebbe essere un AR(1) stazionario con parametro positivo, un correlogramma che presenta un
andamento altalenante del tipo della figura 1.12 suggerisce che il processo in esame può essere un
AR(1) stazionario con parametro negativo; infine un correlogramma che presenta un andamento
decrescente “slowly” come quello in figura 1.11 suggerisce di considerare il processo in esame
come un AR(1) non stazionario.
I parametri θ 1 ,.......,θ q sono costanti, a è il termine di errore, questa volta presente come regressore
nelle q unità temporali considerate. In questo caso, da un punto di vista formale, il modello viene
denominato MA(q): Moving Average di ordine q.
Essendo q un numero reale, il processo è costituito da un numero finito di termini q. Quest’ultima
considerazione permette di assicurare la stazionarietà di un MA(q) senza nessuna restrizione per
quanto riguarda i parametri del processo.
23
La media di un MA(q) è zero poiché tale processo, senza intercetta, non è altro che una
combinazione lineare di variabili casuali di tipo WN con media zero.
Le autocovarianze di un MA(q) sono espresse dalla seguente relazione:
γ k = (− θ k + θ 1θ k − 1 + θ 2θ k − 2 + ... + θ qθ q − k )σ 2
a (k=1,2,3,…,q)
γk= 0 (k>q)
Come al solito la varianza si ottiene dall’autocovarianza ponendo k=0:
2
γ 0 = (1 + θ 1 + θ 22 + ... + θ q2 )σ 2
a
Tali relazioni confermano la stazionarietà di un processo MA(q) poiché nessuna delle grandezze
descritte dipende da t.
si definisce MA(1). Anche in questo caso si può esprimere il processo suddetto in funzione del lag
operator, ottenendo la seguente relazione:
Z t = (1 − θ B) at .
24
Come si può osservare dalla figura 1.15, il processo MA(1) presenta una spiccata correlazione tra le
osservazioni immediatamente successive (o precedenti) (K=1) mentre per le altre osservazioni il
processo non ha memoria, determinando un correlogramma sostanzialmente diverso da quelli
analizzati per i processi autoregressivi. Tali difformità morfologiche aiutano nel processo di
identificazione di una serie storica. Un’altra caratteristica rilevante per un processo MA(1) si ottiene
osservando la funzione di autocorrelazione globale per k=1: da essa si ricava infatti la seguente
equazione:
θ 2ρ 1 + θ + ρ 1 = 0
1 1
Dalla quale si ricava, per valori del parametro θ reali, − < ρ 1 < . L’equazione suddetta lascia
2 2
spazio ad un’ulteriore considerazione che richiama il concetto di invertibilità precedentemente
espresso: essa infatti ha come soluzioni reali sia θ che 1/θ, il che equivale a dire che per ogni
correlogramma come quello espresso nella figura 1.15, corrispondono due processi MA(1), uno con
parametro θ e l’altro con parametro 1/θ. In questi casi si privilegia il processo MA(1) con parametro
–1<θ<1 poiché in tal modo si lavora con un processo MA(1) che può essere trasformato in un
processo autoregressivo stazionario di ordine infinito (AR(∞)):
Z t = π 1Z t − 1 + π 2 Z t − 2 + ... + at
25
1.8.6 - Il modello ARMA(p,q)
Il terzo modello fondamentale di B&J è una combinazione tra il processo autoregressivo e quello a
media mobile. Si può considerare, ad esempio, la combinazione tra un AR(1) ed un MA(1), noto
come ARMA(1,1):
Z t − φ 1Z t − 1 = at − θ at − 1 ,
26
1.9 - Significatività statistica del coefficiente di autocorrelazione
L’importanza dei correlogrammi è stata ampiamente evidenziata nei paragrafi precedenti. La forma
assunta da questi permette di associare un modello ad una serie empirica di osservazioni da
esaminare. I grafici riportati presentano tuttavia, oltre alla rappresentazione delle determinazioni
assunte dalle funzioni di autocorrelazione all’aumentare del lag k, anche delle “bande di
oscillazione” tratteggiate volte a determinare l’intervallo di confidenza entro cui non si rifiuta
l’ipotesi di assenza di autocorrelazione. Il correlogramma di un processo WN, ad esempio, presenta
una serie di valori giacenti tutti all’interno degli intervalli tratteggiati, in linea con una caratteristica
fondamentale del WN, l’assenza di autocorrelazione per ogni k. La costruzione dei suddetti
intervalli di confidenza si basa su una intuizione di Bartlett, il quale ha dimostrato che un WN ha un
coefficiente di autocorrelazione la cui distribuzione è riconducibile ad una normale con media zero
e varianza 1/n, con n numerosità campionaria. Sotto tale ipotesi è possibile costruire gli intervalli
di confidenza come quelli tratteggiati delle figure presentate precedentemente. In particolare gli
27
intervalli evidenziati graficamente corrispondono ad un livello di significatività del 95% con i due
1
estremi14 pari a ± 1,96 ⋅ .
n
Tale operatore risulta molto spesso fondamentale allorquando si ha a che fare con serie non
stazionarie che, una volta applicato il D-operator, diventano stazionarie. In quest’ottica un modello
ARMA applicato ad una serie Wt ottenuta come differenza d-esima di una serie X t viene definito
processo ARIMA(d,p,q) dove d è il numero di differenze per rendere la serie stazionaria, p sono i
termini della parte autoregressiva del processo e q sono i termini della parte a media mobile del
modello. Da sottolineare che l’operatore di differenziazione tende a rendere la serie fortemente
regolare. In sintesi si ha un processo stazionario se d=0, se d=1 il processo è tale che i suoi
incrementi sono stazionari, se d=2 il processo ha livello e pendenza che si modificano nel tempo.
14
Un’analisi dei principali test statistici volti ad individuare l’eventuale presenza di stazionarietà è riportata nel capitolo
successivo.
28
29
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza
Capitolo II
di Stefano Caprioli
stefano.caprioli@tesiinborsa.it
3
CAPITOLO II..........................................................................................................................5
4
Capitolo II
Vi sono importanti differenze tra serie stazionarie e non stazionarie. Uno shock ad una serie
stazionaria è necessariamente di natura temporanea poiché nel corso del tempo esso si annullerà e la
serie tornerà al suo livello medio di lungo periodo. Viceversa, una serie di tipo non stazionario,
avendo media e varianza in funzione del tempo, non ritorna necessariamente a livelli già raggiunti.
Volendo riassumere le principali caratteristiche tipiche di una serie non stazionaria, si può affermare
che:
- essa non presenta un valore medio atteso verso cui la serie tende nel lungo periodo;
- la varianza risulterà dipendente dal tempo ed andrà all’infinito al tendere dell’arco temporale
all’infinito;
- il correlogramma non presenterà un andamento decrescente, al più, per campioni finiti, esso
decrescerà molto lentamente.
In generale l’analisi della funzione di autocorrelazione serve per vedere se la serie presenta una
componente di trend: se così fosse la serie non potrebbe considerarsi stazionaria poiché i suoi
momenti sarebbero in funzione dell’unità temporale t. Un andamento decrescente “slowly” della
funzione di autocorrelazione è un ottimo indicatore della presenza di un trend. Esistono test formali
che possono aiutare a determinare se una serie contiene o no un trend e se il trend è di tipo
deterministico (in funzione di t) o stocastico (in funzione di una variabile casuale). Va tuttavia
sottolineato come i test disponibili presentano una scarsa capacità nel distinguere tra processi non
stazionari e processi che somigliano a processi non stazionari. Tale difetto è dovuto al fatto che
alcuni “falsi” processi non stazionari presentano un correlogramma molto simile a quello di un
processo realmente non stazionario.
Esistono numerosi test finalizzati a verificare l’eventuale stazionarietà dei dati osservati. Per quanto,
così come si è visto nel capitolo precedente, la prima verifica da fare è quella di un’attenta
osservazione del correlogramma della serie, risulta sempre opportuno applicare un test che accerti
5
formalmente l’eventuale stazionarietà della serie in esame. Si è già parlato (vedi par. 1.9)
dell’intuizione di Bartlett, tuttavia risulta più conveniente verificare congiuntamente l’assenza di
autocorrelazione seriale per più lag. In quest’ottica vanno considerati i test successivamente
riportati: essi sono solo alcuni dei tanti a disposizione, tuttavia tutti conservano la logica sottostante
i test riportati.
Yt = φ Yt − 1 + at .
valori del test compresi tra due e quattro il test evidenzia la negatività del parametro φ 1 , mentre al di
fuori di tali intervalli non si può formulare nessuna ipotesi sulla natura dl processo in esame. Tale
test risulta estremamente restrittivo, non molto utile quindi nella ricerca della stazionarietà di un
processo stocastico. I test riportati in seguito cercano di superare tale limite utilizzando un sistema
di ipotesi diverso.
6
ρ k = 0 per ogni k
ρ k ≠ 0 per almeno un k
Q = n(n + 2)∑
j
con n numerosità campionaria.
j:1 n− j
Al di là della verifica formale, risulta chiaro che valori bassi della statistica Q inducono a non
rifiutare l’ipotesi di base di assenza di autocorrelazione seriale, al contrario valori elevati di Q
inducono a non rifiutare l’ipotesi alternativa che porta a considerare la serie non stazionaria. Da un
punto di vista statistico la statistica Q, sotto ipotesi di base, ha una distribuzione χ 2 . I gradi di
libertà della χ 2 a cui fare riferimento sono pari al numero delle autocorrelazioni meno il numero di
termini autoregressivi meno i termini a media mobile. In altre parole, se la serie osservata è
Figura 2.1:Correlogramma relativo alla funzione di autocorrelazione totale (prima colonna), parziale (seconda
colonna), output della statistica Q (terza colonna), probabilità di rifiuto dell’ipotesi di assenza di autocorrelazione
seriale.La prima colonna rappresenta i lag osservati.
7
Il correlogramma relativo alla funzione di autocorrelazione globale presenta una forma simile a
quello di un processo AR(1), quello della funzione di autocorrelazione parziale è simile a quello di
un processo MA(1), di conseguenza risulta ragionevole associare alla serie osservata un processo
ARMA(1,1). Le linee tratteggiate verticali rappresentano i livelli di significatività del test di Bartlett
al 95%: anch’esse confermano che le correlazioni seriali significativamente diverse da zero sono le
prime due (osservando congiuntamente le due funzioni di autocorrelazione). La statistica Q è
significativamente elevata, a conferma che le autocorrelazioni seriali osservate non possono essere
trascurate. Da rilevare che l’ultima colonna, costituita da tutti valori nulli, esprime in realtà il fatto
che la probabilità di avere a che fare con una serie stazionaria è così bassa da essere riportata dal
semplice valore nullo. Tale probabilità si ricava dalla distribuzione di una χ 2 con i gradi di libertà
pari a (k-2) (k, il lag, meno 1, il termine autoregressivo, meno 1, il termine a media mobile). Di
seguito viene riportato l’output relativo ad una serie stazionaria, in particolare un processo WN per
verificare analogie e differenze con quanto esposto finora.
Figura 2.2: I due correlogrammi testimoniano l’assenza di “memoria” del processo, così come la statistica Q:
La probabilità di avere a che fare con una serie stazionaria cresce sempre di più all’aumentare del lag k.
La figura 2.2 evidenzia la differenza di output tra un processo ARMA(1,1) ed un processo WN.
Le principali differenze si notano nella terza e nella quarta colonna. I due processi, della medesima
numerosità campionaria, presentano valori della statistica Q sostanzialmente diversi. I bassi valori
della Q nel WN confermano l’assenza di autocorrelazione seriale del processo osservato. La quarta
8
colonna evidenzia che la probabilità di avere coefficienti di autocorrelazione seriale
significativamente non diversi da zero cresce al crescere di k.
9
2.1.3 - Il test di Dickey e Fuller
Dickey e Fuller hanno realizzato una procedura per verificare la non stazionarietà di un processo
oggetto di studio molto usata e presente sui principali software di econometria. Si supponga di voler
Sebbene la maggior parte delle stime ottenute risulteranno prossime ad uno, alcune lo saranno
maggiormente di altre: dai dati ottenuti è possibile ricavare una distribuzione empirica delle stime di
β sotto ipotesi che il β reale sia, per costruzione, pari ad uno. Il lavoro di D&F può essere riassunto
nei seguenti passi:
1) Per ogni pseudo RW generato, si è stimato il β.
2) Si è calcolata la differenza tra la stima ottenuta del β ed il valore reale, cioè 1.
3) La differenza ottenuta al punto (2) viene divisa per l’errore standard.
Se, per esempio, per un processo pseudo RW, è stato stimato un β pari a 0,9247 con standard error
pari a 0,037, allora si ha:
|(0,9247-1)/0,037|=2,035. Ripetendo i passi suddetti per migliaia di sequenze di pseudo RW, D&F
hanno osservato che:
- Il 90% dei valori stimati di β risultano avere uno standard error inferiore a 2,58;
- Il 95% presenta uno standard error inferiore a 2,89
1
Si parla di pseudo passeggiate aleatorie poiché il computer può generare valori pseudo casuali e non puramente
casuali. In altre parole vengono utilizzati algoritmi che generano sequenze di valori simili a valori puramente casuali.
2
In questo caso si può notare l’importanza del calcolo numerico e delle tecniche di generazione di valori casuali
determinante in molti casi. Nel campo finanziario tali tecniche di simulazione che utilizzano generatori di valori casuali
sono ultimamente molto utilizzate soprattutto per il pricing delle opzioni.
10
- Il 99% delle stime ottenute ha uno standard error inferiore a 3,51.
In tal modo D&F ottengono dei valori critici per verificare la non stazionarietà di un qualsiasi
processo stocastico. In altre parole, dinanzi ad un processo di cui non si conosce la genesi, non si
potrà rifiutare l’ipotesi di non stazionarietà del processo se il valore stimato di β ha una deviazione
standard, come nel nostro esempio, pari a 2,035. I due autori, nella realizzazione del test, hanno
p
∆ yt = γ yt − 1 + ∑
i= 2
β i ∆ yt − i + 1 + at
p
∆ yt = α 0 + γ yt − 1 + α 2t + ∑
i= 2
β i ∆ yt − i + 1 + at
Le differenze tra le tre regressioni riguarda la presenza di due elementi di natura deterministica
nella regressione è γ: se γ=0, la sequenza { yt } potrà essere considerata non stazionaria. Il test
comporta la stima di una o più equazioni usando il metodo dei minimi quadrati (OLS) per ottenere
il valore stimato di γ e l’errore standard ad esso associato.
Tale test ha le medesime finalità del test di D&F pur partendo da considerazioni diverse. In pratica i
due autori cercano di correggere il test t mentre D&F cercarono di generalizzare la regressione
iniziale
3
La generalizzazione porta all’implementazione del cosiddetto test ADF (D&F aggiustato).
11
∆ Yt = α + φ Yt − 1 + at .
Va ricordato che il test t si ottiene dal rapporto tra la stima di β e la sua deviazione standard
campionaria.
La distribuzione asintotica del test PP è la stessa del test di D&F aggiustato: anche in questo caso va
specificato se inserire nel test una componente deterministica di trend e l’intercetta. Per un ulteriore
approfondimento degli aspetti formali e delle relazioni funzionali del test vedi l’Appendice al
capitolo II.
La serie presenta un trend definito, tuttavia va visto se tale trend è di natura deterministica o
stocastica e se la serie è stazionaria o non stazionaria. La figura 2.6 evidenzia la non stazionarietà
della serie in figura 2.5 (che chiameremo serie 2.5) poiché la componente di trend è fortemente
significativa:
12
Figura 2.6: Correlogramma della serie 2.5. Risulta evidente la non stazionarietà della serie.
Tabella 2.1: Il valore ottenuto dal test di D&F, ipotizzando l’assenza di trend, conferma che tale ipotesi è inverosimile:
il valore ottenuto è ben lontano dai valori critici.
Il test di D&F implementato nel caso di assenza di trend e di intercetta risulta non praticabile. La
tabella 2.1 è stata riportata per sottolineare l’importanza della scelta dell’equazione di riferimento
del test D&F: omettere una componente di trend chiaramente visibile e riscontrabile anche
attraverso il correlogramma rende privo di senso il test.
Ipotizzando la presenza di trend e di intercetta si verifica, o attraverso il test di D&F, o attraverso il
test di Phillips-Perron, la stazionarietà della serie. La tabella 2.2 riporta l’output del PP test con i
relativi valori critici:
Tabella 2.2: Il valore –14,78040 cade a sinistra dei valori critici, testimoniando la stazionarietà della serie
detrendizzata.
13
Per una corretta identificazione del modello da associare alla serie empirica va stimato il trend. A
riguardo conviene analizzare la serie delle differenze prime della serie originaria poiché l’intercetta
della serie delle differenze prime rappresenta il trend della serie originaria. Tale intercetta è
stimabile dalla media della serie stessa: essa rappresenta così il coefficiente di trend della serie 2.5.
Figura 2.7: Serie delle differenze prime della serie 2.5. Si nota un’intercetta positiva che rappresenta il trend della
serie 2.5.
Siamo ora in grado di “detrendizzare” la serie originaria sottraendole il fattore β*t , dove β è il
coefficiente di trend e t è l’unità temporale. La serie ottenuta è la serie della figura 2.8 (che
chiameremo serie 2.8). Tale serie risulta chiaramente stazionaria, così come si può verificare
osservando l’output del test di D&F riportato nella tabella 2.3:
Tabella 2.3: Output del test di D&F per la serie detrendizzata in figura 2.8.
14
Figura 2.8: Serie 2.5 detrendizzata.
Per stimare i parametri della serie 2.8 va analizzato il correlogramma della stessa (figura 2.9). La
morfologia del correlogramma in figura 2.9 evidenzia la possibilità di avere un processo
ARMA(1,1) o addirittura un processo ARMA(1,2) viste le rispettive somiglianze del
correlogramma della funzione di autocorrelazione globale con quello di un processo AR(1)
stazionario e del correlogramma delle funzioni di autocorrelazioni parziali con quello di un
processo a media mobile di primo o second’ordine.
15
Accettando l’ipotesi di avere a che fare con un processo ARMA(1,1), la stima dei parametri avviene
attraverso complesse procedure iterative, utilizzando le stime campionarie delle autocorrelazioni. In
tal modo si stima prima il coefficiente autoregressivo φ, poi si determina la serie data dalla
differenza tra la serie 2.8 e φ*serie2.8(-1). Se si definisce la serie 2.8 come X t , la serie 2.8(-1) sarà
uguale a X t − 1 . La serie ottenuta dovrebbe essere il termine di errore del tipo: at + θ at − 1 il cui
correlogramma è osservabile in figura 2.10.
Figura 2.10: Correlogramma della variabile di disturbo nel processo ARMA(1,1). Si nota la correlazione seriale di
prim’ordine e forse anche di ordine due.
Accettando che la serie della figura 2.10 abbia una componente autoregressiva di ordine uno,
implicitamente si assume che la serie 2.8 sia ARMA(1,1) e la componente a media mobile
dell’ARMA(1,1) si ottiene stimando la componente autoregressiva della serie 2.10. In tal modo si
ottiene una serie stimata della serie ARMA(1,1) non molto lontana dalla serie originaria
detrendizzata.
16
Figura 2.11: In rosso la serie originaria detrendizzata, in blu quella stimata.
Attraverso l’analisi di cointegrazione si cerca di individuare un legame lineare tra processi stocastici
non stazionari in modo tale che la suddetta relazione lineare sia stazionaria. In tal modo si individua
un legame stabile nel corso del tempo tra variabili che, in quanto non stazionarie, stabili non sono.
Prima di definire da un punto di vista formale la cointegrazione, occorre specificare il concetto di
serie integrata di un certo ordine. Quest’ultimo concetto è strettamente legato all’operatore
differenza . Una serie si dice integrata di ordine p se:
D p (Xt ) = ε t
Sia β = ( β 1 , β 2 ,..., β n ) e X t = ( x1t , x2t ,..., xnt )' , allora la medesima relazione potrà essere espressa
come: β X t = 0 . Se vale tale relazione, allora il set di variabili X t = ( x1t , x2t ,..., xnt )' viene
considerato in equilibrio (Long run equilibrium). Viceversa la variazione dall’equilibrio viene
chiamata equilibrium error ed è definita come:
et = β X t .
Se l’equilibrium error è stazionario, allora le variabili X t = ( x1t , x2t ,..., xnt )' sono in equilibrio.
17
Per una definizione formale di Cointegrazione vedi l’Appendice al Capitolo II, paragrafo A2.2.
Figura 2.13: Differenza tra le serie della figura 2.12 La serie ottenuta è chiaramente
Stazionaria.
18
esaminate, tuttavia la procedura descritta non permette di verificare questa possibilità. Va poi
vettore cointegrante, allora per ogni valore non nullo di λ, (λ β 1 , λ β 2 ,..., λ β n ) è ancora un vettore
cointegrante. Di solito una delle variabili viene utilizzata per normalizzare il vettore cointegrante
1
fissando il suo coefficiente pari ad uno. In altre parole si pone λ = .
β1
Da rilevare inoltre che tra le condizioni richieste vi è l’integrazione di uno stesso ordine d per tutte
le variabili in gioco. Naturalmente ciò non implica che tutte le variabili di tipo I(d) siano
cointegrate.
Se il vettore X t = ( x1t , x2t ,..., xnt )' ha n componenti, ci potrebbero essere al massimo n-1 vettori
cointegranti linearmente indipendenti. Ad esempio, un vettore X t = ( x1t , x2t )' può contenere al
massimo un vettore cointegrante indipendente. Il numero di vettori cointegranti è chiamato rango di
cointegrazione di X t .
Va sottolineato che la maggior parte della letteratura sulla cointegrazione si concentra sul caso in
cui ciascuna variabile è integrata di ordine 1 (I(1)): tale cioè che la differenza prima della variabile è
di tipo I(0) e quindi stazionaria. La ragione di ciò sta nel fatto che poche variabili economiche sono
integrate di ordine superiore ad uno.
Dato un gruppo di variabili non stazionarie, si può verificare se esse risultano essere cointegrate. Di
seguito viene riportata la metodologia utilizzata da Johansen.
Si considera un vettore autoregressivo di ordine p del tipo:
Yt = A1Yt − 1 + ... + A p Yt − p + BX t + ε t , dove Yt è un vettore k-dimensionale di variabili non stazionarie
p p
π = ∑ Ai − I , Γ i = − ∑
j:i + 1
A j , I è la matrice identità. Il teorema della rappresentazione di Granger
i= 1
(Vd. Appendice al Capitolo II) assicura che, se la matrice dei coefficienti π ha rango r<k, allora
19
esistono due matrici (k x r) α e β, ciascuna di rango r, tali che π = α β ' , con β ' Yt stazionaria. In tal
modo r rappresenta il numero delle relazioni cointegranti (il rango cointegrante) e ciascuna colonna
di β è un vettore cointegrante. Gli elementi di α sono noti come parametri di aggiustamento. Il
metodo di Johansen stima la matrice π per poi verificare se si possono rifiutare le restrizioni
implicite nel rango ridotto di π.
Per verificare il rango della matrice π si utilizza un test χ , tuttavia Johansen sottolinea la necessità
2
di specificare alcuni elementi caratterizzanti del test prima di applicarlo, poiché un’errata
specificazione degli input può portare a risultati errati. In base agli input scelti il test assumerà una
dove α ⊥ è una matrice non unica k x (k – r) tale che α 'α ⊥ =0 ed il rango di α | α ⊥ è uguale a k.
Questi cinque casi sono legati dalle seguenti relazioni di inclusione:
⊂ ⊂ ⊂ ⊂
H 2 (r ) H 1* (r ) 2 H 1 (r ) 2 H * (r ) 2 H (r ) .
χr2
χ k− r χr χ k− r
Quest’ultima relazione assume un’importanza pratica fondamentale poiché essa evidenzia il tipo
20
quali l’intercetta e la componente di trend. Tali scelte vanno ovviamente fatte in relazione alla
conoscenza del fenomeno e delle serie a disposizione. Una volta scelta la serie di riferimento
(uno dei cinque casi sopra esposti), va costruita la statistica test che servirà per verificare
l’eventuale presenza di cointegrazione. Tale statistica può essere riassunta con il seguente
k
n ∑ log((1 − λ i ) /(1 − λ i )) ≈ χ k − r
* 2
Si utilizzerà la prima se si è nei casi 5 e 3, la seconda negli altri tre casi. λ i e λ i rappresentano i
*
Tabella 2.4: Output tratto dall’Help on line di E-views. In questo caso si rifiuta l’ipotesi di CI(1) per le
Serie LRM, LRY, IBO, IDE.
Tabella 2.5: output tratto dall’Help on line di E-views: caso di CI(1) tra le serie LOG(CS) e LOG(INC)
Nella tabella 2.4 viene riportato un caso in cui non vi è cointegrazione: va verificata la presenza di
cointegrazione tra quattro serie, LRM, LRY, IBO, IDE, avendo nel sistema anche tre variabili
esogene: D1, D2, D3.
21
La prima colonna a partire da sinistra presenta gli autovalori necessari per l’implementazione della
statistica di Johansen, la seconda la determinazione che la statistica di Johansen assume in
corrispondenza di quell’autovalore. Le due colonne successive presentano i valori critici per
rifiutare le ipotesi riportate nell’ultima colonna. Il test differisce dai soliti test, quantomeno
nell’interpretazione dell’output, poiché il primo autovalore serve per verificare l’ipotesi di base di
assenza di cointegrazione; il secondo autovalore serve per verificare l’ipotesi di base della presenza
di una sola equazione cointegrante, il k-esimo autovalore serve per verificare l’ipotesi della
presenza di k-1 equazioni cointegranti. In questo caso il primo autovalore, 0,433165, determina una
statistica (LR Ratio) pari a 49,14436, inferiore al valore critico 53,12 al 95% di significatività. Ciò
implica che si può ragionevolmente accettare l’ipotesi di assenza di equazioni cointegranti.
Viceversa, nella tabella 2.5, il primo autovalore è pari a 0,145518, da cui scaturisce una statistica
LR pari a 25,20440, maggiore del valore critico 15,41. In tal modo si rifiuta l’ipotesi di assenza di
cointegrazione. Il secondo autovalore, 0,014098, determina una statistica LR pari a 2,087119,
inferiore al valore critico 3,76, facendo si che si possa accettare l’ipotesi della presenza di
un’equazione cointegrante ad un livello di significatività del 95%.
Figura 2.14
22
2.7 - Un caso pratico: Mibtel e Mib30
A scopo esemplificativo viene riportata una verifica empirica sulla relazione cointegrante che lega
l’indice Mibtel con l’indice Mib30. I dati analizzati vanno dal 5/01/’93 al 6/12/’99 e si riferiscono
ai valori di chiusura dei due indici. Come al solito il primo passo effettuato nell’analisi è stato
l’esame dei correlogrammi (Figure 2.15 e 2.16) delle due serie relative ai due indici. Entrambi i
correlogrammi suggeriscono di considerare l’ipotesi di processi non stazionari di natura
autoregressiva. In particolare l’osservazione delle due funzioni di autocorrelazione globale consiglia
di ritenere i due processi non stazionari.
La fase successiva dell’analisi si è spostata sulla verifica della non stazionarietà delle serie. In
merito si è pensato di utilizzare l’ADF test (il test aggiustato di D&F) con risultati (presenti nelle
tabelle 2.6 e 2.7) che confermano le impressioni tratte dai correlogrammi: ad un livello di
significatività del 99% si può rifiutare l’ipotesi di stazionarietà delle due serie. In realtà, per
verificare che le serie siano effettivamente integrate di ordine uno, è consigliabile attuare l’ADF test
anche sulle differenze prime delle due serie per accertarsi che le due serie differenziate siano
stazionarie (I(0)). In questo caso, così come si può verificare, le due serie delle differenze prime dei
due indici risultano tali da non poter rifiutare l’ipotesi di stazionarietà. Essendo entrambe le serie di
tipo I(1), si è poi verificata l’ipotesi di cointegrazione tra le due attraverso il test di Johansen
(tabella 2.8). Si è pensato di optare per una stima dell’equazione cointegrante scaturita dalle ipotesi
di presenza di trend lineare nei dati ed intercetta nell’equazione cointegrante. Da rilevare che la
maggior parte dei software econometrici fornisce, in questi casi, anche il rapporto di
logverosimiglianza che permette di scegliere la giusta opzione tra le cinque possibili nel test di
Johansen (si sceglie la combinazione di ipotesi su equazione cointegrante e dati che fornisce il
valore più elevato del rapporto di logverosimiglianza). Dall’output del test, presente nella tabella
2.8, si può osservare che si può accettare l’ipotesi di una ed una sola equazione cointegrante con
equazione cointegrante normalizzata rispetto al Mibtel pari a: Mibtel=0,689374Mib30+72,07138.
Il grafico finale dimostra la validità dell’equazione cointegrante rispetto alla serie originaria del
Mib30.
23
Figura 2.15
Figura 2.16
24
Tabella 2.6
Tabella 2.7
25
Figura 2.17
26
27
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza
Capitolo III
di Stefano Caprioli
stefano.caprioli@tesiinborsa.it
3
CAPITOLO III.........................................................................................................................5
4
Capitolo III
Modelli ARCH e GARCH
Nel primo capitolo sono stati analizzati i processi AR, MA, ARMA ed ARIMA. Una delle
caratteristiche fondamentali di tali processi è la presenza di una distribuzione della varianza
condizionata del termine di errore omoschedastica. In realtà è piuttosto frequente osservare come
numerose serie finanziarie presentino un andamento eteroschedastico della varianza condizionata.
Si parla di varianza condizionata poiché si fa riferimento a quella porzione della variabilità della
serie spiegata dal modello utilizzato. In generale, data una generica variabile casuale Yt , il valore
atteso e la varianza non condizionata sono espressi dalle seguenti relazioni:
E (Yt ) = µ ;
V (Yt ) = E[(Yt − µ ) 2 ] = σ 2 .
mt = E (Yt / I t − 1 );
2
da cui si ricava che la varianza condizionata coincide con lo scarto al quadrato et . Se si assume
che il set informativo I t − 1 è rappresentato dalla combinazione lineare dei p valori passati della stessa
mt = α + α 1Yt − 1 + ... + α p Yt − p ;
5
L’eteroschedasticità si evidenzia osservando il secondo momento condizionato, spesso
caratterizzato da periodi di forti oscillazioni alternati a periodi di “calma”. Conseguentemente a ciò
è sembrato inopportuno l’utilizzo di processi con varianza condizionata omoschedastica. In
quest’ottica si è cercato di individuare delle variabili significative che spiegassero l’andamento della
varianza condizionata. Il primo a fornire una risposta a tale problema è stato Engle, proponendo il
processo ARCH(p).
La sigla ARCH sta per Autoregressive Conditional Heteroschedasticity with Estimates of the
Variance. L’idea alla base del lavoro di Engle consisteva nell’assunzione di una varianza
condizionata che dipendesse dal passato.
Engle parte da un P.S. autoregressivo di ordine uno poiché la modellistica ARIMA si era rivelata un
ottimo strumento previsivo proprio per l’uso che in essa veniva fatto della media condizionata della
variabile in esame nell’insieme delle informazioni disponibili. L’idea era quella di introdurre le
informazioni passate anche nella varianza condizionata oltre che nella media condizionata. In tal
modo utilizza una nuova classe di processi stocastici caratterizzati da incorrelazione seriale e media
nulla, con varianza non condizionata costante e varianza condizionata non costante ma dipendente
dal set di informazioni disponibile al tempo t-1. Il modello, da un punto di vista formale, risulta
essere:
1/ 2
ε t = zt ht ;
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,......., ε t2− p , α );
con :
ε t /ψ t− 1 − > N (0, ht );
zt i.i.d .;
E ( zt ) = 0;
Var ( zt ) = 1;
dove p è l’ordine del processo ARCH ed α è un vettore di parametri incogniti, h varianza
condizionata.
In termini operativi ε t rappresenta solitamente le innovazioni di altri processi stocastici. L’esempio
più comune a riguardo è costituito dal modello ARCH di regressione lineare del tipo:
X t = At β + ε t ;
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,......, ε t2− p , α )
con:
X t /ψ t− 1 − > N ( At β , ht );
ε t /ψ t− 1 − > N (0, ht );
6
3.2 - L’ARCH LM Test
Per verificare l’ipotesi nulla che non vi siano componenti ARCH fino all’ordine q nei residui di un
modello si costruisce la regressione:
et2 = β 0 + β 1et2− 1 + ... + β q et2− q (1)
con et residui del modello stimato. Verificando l’ipotesi nulla di assenza di significatività dei
coefficienti della regressione (1), si verifica congiuntamente l’ipotesi di assenza di componenti
ARCH fino all’ordine q per la varianza del modello. I test di solito utilizzati a riguardo sono il test F
ed il test di Breusch-Godfrey. In particolare il test B-D è determinato dal prodotto tra la dimensione
della serie osservata ed il coefficiente di determinazione della regressione. Tale statistica è
Tabella 3.1: Il test F ed il test B-D applicati alla serie storica relativa ai valori di chiusura del Mib30 dal 5/01/’93 al
6/12/’99. L’ipotesi nulla di non significatività di una componente ARCH non è accettabile ad un livello di
significatività per entrambi i test del 95%..
Accettando l’ipotesi di una varianza condizionata non costante nel corso del tempo, si può pensare
di inserire il modello ARCH in un modello ARMA:
a ( L) X t = b( L)ε t ;
con
ε t /ψ t− 1 − > N (0, ht );
ht = h(ε t2− 1 , ε t2− 2 , ε t2− 3 ,........, ε t2− p , α ).
da notare che in tal modo si riesce a trasferire l’informazione passata sia sulla variabile oggetto di
studio che sul termine di errore.
In generale il processo ARCH presenta una pluralità di caratteristiche che lo rendono molto
attraente per un molteplice uso. In primis va sottolineato che la costruzione della varianza
condizionata ht linearmente dipendente dal quadrato dei residui passati permette di catturare
l’andamento tipico delle serie finanziarie con l’alternarsi di periodi di forti fluttuazioni alternati a
periodi di stasi con oscillazioni irrilevanti. Un secondo aspetto molto importante è legato al modello
7
di regressione ARCH, capace di approssimare una regressione più complessa con disturbi non
ARCH: in altre parole la varianza ARCH comprende l’eteroschedasticità presente in modo da
sopperire anche ad eventuali errate specificazioni del modello o a cambi strutturali particolarmente
rilevanti.
dove:
α 0 > 0;
α ≥ 0;
zt i.i.d .;
E ( zt ) = 0;
Var ( zt ) = 1.
3α 02 (1 − α 2 )
E (ε ) =
t
4
< ∞ ⇔ 3α 2 < 1 .
(1 − α ) (1 − 3α )
2
Dalle relazioni precedenti si evince che α < 1 è condizione necessaria e sufficiente per la
8
E (ε 4 )
K= .
[ E (ε 2 )]2
L’indice di curtosi di una distribuzione normale è K=3. laddove K assume un valore maggiore di
tre, siamo di fronte ad una distribuzione leptocurtica, cioè caratterizzata da code più alte di una
normale; distribuzione peraltro tipica dei processi ARCH.
Queste ultime due condizioni, dette di regolarità, garantiscono la positività della varianza.
Per quanto riguarda i vincoli necessari a garantire la stazionarietà in covarianza del processo vale il
Teorema 3.2 riportato in Appendice. In base a tale Teorema un processo ARCH(p) è stazionario in
Uno dei problemi generalmente riscontrabili nella stima dei modelli ARCH è costituito dalla
necessità di introdurre una quantità considerevole di ritardi temporali nell’equazione della varianza
condizionata. Al fine di disporre di una parametrizzazione più parsimoniosa del modello si pensò
(T.Bollerslev, “Generalized Autoregressive Conditional Heteroskedasticity”, Journal of
Econometrics 1986) di utilizzare la stessa logica che permette di passare dai processi AR(p) ai
processi ARMA(p,q). La varianza dell’errore è stata perciò definita sulla base di un processo
eteroschedasico generalizzato autoregressivo di ordine “p”, “q”:
ht = α 0 + α 1ε t2− 1 + ... + α p ε t2− p + β 1 ht − 1 + ... + β q ht − q = α 0 + α ( L)ε t2 + β ( L)ht ;
9
Il comportamento della varianza condizionata dipende dunque, oltre che dagli errori passati al
quadrato, anche dai valori antecedenti della varianza stessa. Risulta inoltre immediato che per q=0
si ricade nella modellistica ARCH(p).
L’analisi del processo è condotta in modo analogo a quella già vista per il modello ARCH(p),
portando alla conclusione che la stazionarietà in covarianza di un processo GARCH(p,q) lineare è
possibile, se e solo se, è soddisfatto il seguente vincolo:
p q
∑
i= 1
αi+ ∑
j= 1
β j < 1.
Oltre a ciò il calcolo della Curtosi mostra che anche in questo caso la distribuzione degli ε t è
leptocurtica.
Va sottolineato infine che è stato dimostrato che le proprietà statistiche degli ε t al quadrato sono
simili a quelli di un processo ARMA perciò la procedura di identificazione degli ordini “p” e “q”
comunemente usata può essere analoga a quella indicata da Box e Jenkins per l’identificazione dei
modelli classici ARMA(p,q).
Tutti i modelli ARCH/GARCH sono caratterizzati dalla presenza di due equazioni fondamentali:
l’equazione relativa al modello (Mean Equation) e l’equazione relativa alla varianza (Variance
Equation). Nei modelli esaminati finora la Mean Equation era caratterizzata dal non presentare tra
le variabili indipendenti o regressori nessun elemento che spiegasse la volatilità. In realtà, nel
cercare di spiegare fenomeni di natura finanziaria, molto spesso i rendimenti attesi di un’attività o di
un portafoglio risultano correlati con una misura del rischio atteso. In tale ottica si è pensato di
introdurre direttamente nella Mean Equation una componente di rischio, a scelta tra la varianza
condizionata e la deviazione standard condizionata, per meglio spiegare l’andamento dei
rendimenti. In pratica, se si ritiene che i rendimenti di un’attività siano correlati con la volatilità del
periodo in esame, il modello di base si “arricchisce” di un ulteriore regressore costituito dalla
varianza condizionata o dalla deviazione standard condizionata. Da rilevare che i software che
forniscono delle stime ARCH/GARCH presentano l’opzione di inserimento di elementi che
rendono il modello ARCH/GARCH-M.
10
3.8 - L’Asimmetria della Volatilità
In ambito finanziario è stato riscontrato molto spesso un fattore di asimmetria nella relazione
Rischio/Rendimento. Tale fattore fa si che la volatilità sia molto più sensibile ad informazioni
negative piuttosto che ad informazioni positive. In pratica si è osservato che la volatilità è molto
più sensibile a forti ribassi piuttosto che a forti rialzi. Di seguito viene presentato un esempio
grafico relativo all’indice Mibtel (Figure 3.1, 3.2, 3.3).
Figura 3.1: Rialzo dell’indice Mibtel rilevato con frequenza giornaliera. In 60 giorni l’indice ha subito una variazione
positiva del 30,539%.
Per ovviare a tale particolarità della volatilità sono stati introdotti dei modelli “asimmetrici” quali,
ad esempio, il TARCH e l’E-Garch. Senza soffermarci troppo sugli aspetti analitici e formali dei
due modelli, va sottolineato come i due modelli affrontino il problema dell’asimmetria con approcci
sostanzialmente diversi. Il TARCH è un modello ARCH con una variabile dummy applicata alla
componente ARCH in modo tale da avere:
σ t
2
= ω + α ε t2− 1 + γ ε t2− 1 d t − 1 + β σ 2
t− 1
11
dove d t − 1 = 1 se ε t < 0 , d t − 1 = 0 se ε t > 0 . In tal modo il modello prevede impatti diversi sulla
volatilità per buone e cattive notizie. In termini tecnici si è soliti affermare che per periodi in cui
d=1, il fattore ARCH è α+γ e si è in presenza di un effetto leva (Leverage Effect) significativo.
Figura 3.2: Andamento della deviazione standard a 252 giorni dell’Indice Mibtel nel medesimo periodo della Figura
3.1. La volatilità ha subito una variazione del 5,156% in questo periodo di forti rialzi.
12
Figura 3.3: Grafico giornaliero Mibtel in un periodo di ribassi che fanno variare l’indice: -34,3986%..
Figura 3.4: andamento della Deviazione standard a 252 giorni del Mibtel nel medesimo periodo della figura 3.3.
In questa fase di forti ribassi la volatilità ha registrato una variazione pari a –28,0977%.
Sicuramente più famoso del TARCH, l’E-Garch si propone come risposta alternativa al TARCH per
il problema dell’asimmetria della volatilità. Tale modello, definito anche Exponential Garch, è stato
proposto per la prima volta da Nelson (1991). Esso si basa su una specificazione del logaritmo della
varianza condizionata che tenga conto del Leverage effect. In formulae si ha:
ε t−1 2 ε
log(σ t2 ) = ω + β log(σ 2
t− 1 )+ α ( − ) + γ t− 1 ;
σ t− 1 π σ t− 1
Nelson costruisce il modello in maniera tale da non dover presupporre necessariamente la normalità
dei termini di errore. La relazione appena descritta si riferisce ad un E-Garch(1,1), generalizzando
ad un E-Garch(p,q) si ha:
p q
ε t− i 2 q
ε t− i
log(σ t2 ) = ω + ∑
j= 1
β j log(σ 2
t− j )+ ∑
i= 1
(α i
σ t− i
−
π
)+ ∑
i= 1
γ i
σ t− i
.
13
Da sottolineare l’importanza del parametro γ che esprime il cosiddetto leverage Effect, poiché se si
riscontra la significatività di questo, implicitamente si accetta l’idea che la serie osservata presenti
una componente di asimmetria in linea con la teoria di un modello EGARCH.
E’ stato preso in considerazione l’indice MIBTEL dal 5/01/’93 al 6/12/’99. La serie dei logaritmi
dei rendimenti giornalieri (Figura 3.5) presenta una variabilità accentuata in prossimità di una fase
di ribasso. Tale asimmetria è riscontrabile anche visivamente come si può osservare (parte destra
del grafico della figura 3.5). L’idea di base quindi è che i rendimenti non presentino una volatilità
omoschedastica ma, al contrario, una chiara relazione rischio/rendimento.
Dall’osservazione della figura 3.7, e delle statistiche riassuntive presenti in essa, emerge una curtosi
elevata, mentre il test J-B sconsiglia di accettare l’ipotesi di normalità della serie. L’analisi dei
correlogrammi e delle relative statistiche (Figura 3.6) suggeriscono di scegliere come modello
identificativo un AR(1). In tal modo si può applicare l’ARCH–test (Tabella 3.2) che conferma la
presenza di componenti ARCH da non trascurare nell’identificazione del modello. A questo punto
si può implementare un modello AR(1) che tenga conto dell’asimmetria della volatilità riscontrata
nei paragrafi precedenti; si è pensato, dopo svariati tentativi, di verificare la significatività di un
modello E-Garch(4,4) in Mean per spiegare eventuali fattori di asimmetria o Leverage Effect. La
14
Tabella 3.3 evidenzia la significatività dei parametri del modello AR(1) e della varianza E-
Garch(1,1) in Mean. In particolare, facendo riferimento all’output della Tabella 3.3, il
RES/SQR[GARCH(1)] rappresenta il Leverage Effect di lag1, in questo caso ampiamente
significativo.
Figura 3.6: Correlogramma della serie osservata dei logrendimenti giornalieri del mibtel.
15
Figura 3.7: Istogramma e statistiche riassuntive della distribuzione della serie dei rendimenti del Mibtel della figura
3.5. Da sottolineare la curtosi elevata e la statistica Jarque-Bera che sconsigliano di accettare l’ipotesi di normalità
della serie.
Figura 3.8: Correlogramma della serie in Figura 3.5. La statistica Q suggerisce la presenza di elementi
autoregressivi.
Tabella 3.2: Ipotizzando un modello autoegressivo di ordine uno per i log-rendimenti dell’indice Mibtel, si è verificata
la presenza di eventuali componenti ARCH nei residui. I due test (F e Bg) suggeriscono di rifiutare l’ipotesi di asenza
di componenti ARCH.
16
Nel modello EGARCH specificato nel paragrafo precedente il Leverage Effect è il parametro γ. In
questo caso γ 1 è pari a –0.026948, valore piccolo che “sottopesa” l’effetto della volatilità sul
rendimento. Per verificare la bontà del modello adottato si isola la varianza non spiegata dalla
modellistica ARCH/GARCH per verificarne l’omoschedasticità e l’assenza di ulteriori componenti
ARCH/GARCH. Da rilevare che l’accettazione della modellistica GARCH nega l’ipotesi di
omoschedasticità della varianza condizionata, rendendo inapplicabile il modello tradizionale del
CAPM. Le stime GARCH risultano inoltre estremamente efficaci per stimare una volatilità
adeguata da inserire nei più comuni modelli di pricing delle opzioni.
Per verificare la bontà del modello è sufficiente analizzarne i residui standardizzati: se questi
risultano essere privi di autocorrelazione seriale, con media zero e deviazione standard 1 e si può
accettare l’ipotesi di normalità della distribuzione, allora si può accettare il modello adottato,
ritenendolo sufficientemente esplicativo per la serie osservata.
17
18
ANALISI DELLE SERIE STORICHE:
Strumenti econometrici utilizzati in finanza
APPENDICE
di Stefano Caprioli
stefano.caprioli@tesiinborsa.it
3
APPENDICE.......................................................................................................................... 5
4
APPENDICE
A1.1 - Exponential Smoothing
Metodo dello smussamento singolo
In formulae si ha:
Ft + 1 = a( X t − Ft ) + Ft = aX t + (1 − a ) Ft − 1 (1)
Si può osservare che la relazione (1) può essere riscritta nel seguente modo:
t− 1
Ft = a ∑ (1 − a) s X t − s
s= 0
In formulae si ha:
St = aX t + (1 − a ) St − 1
Ft = aSt + (1 − a ) Ft − 1
ak ak a
FT + k = (2 + ) ST − (1 + ) FT = 2 ST − FT + ( ST − FT )k
1− a 1− a 1− a
ciò implica che le previsioni giacciono su una retta con intercetta 2 ST − FT e coefficiente angolare
a ( ST − FT ) /(1 − a ) .
5
- Smorzamento moltiplicativo
FT + k = (a + bk )ct + k
Xt
a (t ) = α + (1 − α )(a(t − 1) + b(t − 1)) ;
ct (t − s)
Xt
ct (t ) = γ + (1 − γ )ct (t − s ) ;
a (t )
con i parametri α,β strettamente positivi, γ<1. Il parametro s rappresenta il cosiddetto “Cycle for
Seasonal”, vale a dire che i precedenti parametri vengono calcolati partendo dalle ultime s
osservazioni.
Ft + k = a + bk + ct + k
FT + k = a (T ) + b(T )k + ct + k − s
6
- Smorzamento non stagionale a due parametri
FT + k = a + bk
con a intercetta e b componente di trend. Tali parametri vengono ottenuti dalle seguenti relazioni
ricorsive:
dipende solo dalla distanza fra t1 e t 2 e non dai valori effettivi di t1 e t 2 . Sotto questa ipotesi è
sufficiente considerare la differenza (lag)
K= t 2 - t1 .
In sintesi la stazionarietà in senso debole di second’ordine richiede media e varianza costanti ed
autocovarianza funzione solo di K. Da notare che, in presenza di stazionarietà, sia la funzione di
autocovarianza che quella di autocorrelazione risultano simmetriche rispetto al lag k:
γ (k ) = γ ( − k )
ρ (k ) = ρ (− k )
Tale proprietà permette di evitare di calcolare i valori delle due funzioni per lag negativi. Da
rilevare inoltre che la funzione di autocorrelazione, sempre in presenza di stazionarietà, può essere
espressa dalla seguente relazione:
γk
ρk = .
γ0
La matrice delle autocorrelazioni di un processo stazionario è definita positiva, dando luogo a
conseguenze limitatrici sui valori che possono assumere i coefficienti di autocorrelazione:
7
1 ρ1
> 0
ρ1 1
1 ρ1 ρ2
ρ1 1 ρ2 > 0
ρ1 ρ2 1
da cui si ottiene:
2
ρ 2− ρ1
− 1 < ρ 1 < 1 ; − 1 < ρ 2 < 1; − 1 < < 1.
1 − ρ 12
totale ρ k , ossia:
ρ0 ρ 1 ... ρ k − 1
ρ 1 ρ 0 ... ρ k − 2
Rk = det
.............................
ρ k − 1 ρ k − 2 ... ρ 0
*
- quello del numeratore Rk è uguale a Rk con la sola differenza dell’ultima colonna che viene
ρ0 ρ 1 ... ρ 1
ρ 1 ρ 0 ... ρ 2
Rk = det .
..............................
ρ k − 1 ρ k − 2 ... ρ k
8
A1.4 - Decomposizione di Wold
Alla base dell’analisi delle serie storiche vi è un teorema, conosciuto come il teorema della
decomposizione di Wold. In tale teorema si dimostra che ogni processo stocastico stazionario in
senso debole del tipo ( X t − µ ) può essere scritto come una combinazione lineare di una sequenza di
variabili casuali incorrelate tra loro. Risulta fondamentale, prima di applicare tale risultato, depurare
il processo oggetto di studio da eventuali componenti deterministiche che renderebbero il teorema
con ψ 0 = 1;
La sequenza { at : t = 0,± 1,± 2,...} è costituita da elementi di variabili casuali incorrelate, talvolta
denominate innovazioni, provenienti da una distribuzione data con:
E ( at ) = 0;
2
V (at ) = E ( at ) = σ 2
< ∞
Da rilevare che nel paragrafo 1.7 il modello AR(p) è stato presentato senza intercetta, in questo caso
il valore medio atteso risulta pari a zero. L’inserimento di un’intercetta non cambia la natura del
processo, sempre che questa non abbia una natura stocastica.
La varianza γ 0 e le autocovarianze γ 1 , γ 2 ,....., γ p ,... si calcolano con le seguenti relazioni:
2
γ 0 = φ 1γ 1 + φ 2γ 2 + ... + φ pγ p + σ a =σ 2
X
γ k = φ 1γ k− 1 + φ 2γ k− 2 + ... + φ pγ k− p (k=1,2,…,p)
Le autocovarianze sono in numero infinito e per j>p si ricorre alla seguente relazione:
9
γ j = φ 1γ j− 1 + φ 2γ j− 2 + ... + φ pγ j− p
autocorrelazione:
ρ k = φ 1 ρ k − 1 + φ 2 ρ k − 2 + ... + φ p ρ k − p (k=1,2,…3,…)
Si può osservare come tutte le relazioni viste finora siano di natura ricorsiva, e quindi di facile
derivazione.
Quest’ultima relazione, come la precedente, permette, partendo da ρ 0 =1, di ottenere tutti gli altri
coefficienti di autocorrelazione teorica.
del risultato ottenuto. In tal modo si ottiene: γ k = φ γ k−1 , per ogni k>0, e, conseguentemente,
In tal modo si può affermare che per φ>0 la funzione di autocorrelazione globale tende a zero in
modo monotono, mentre per φ<0 essa varierà tra –1 ed 1 a segni alterni.
10
γ 1 = − σ 2θ per k=1, γ k = 0 per k>1.
Dalle precedenti relazioni si ricava la funzione di autocorrelazione globale:
−θ
ρ1=
1+ θ 2
ρ k = 0, k > 1
Box & Jenkins hanno dimostrato che un processo MA(q) è invertibile se l’equazione caratteristica
θ ( B) = (1 − θ 1 B − θ 2 B 2 − ... − θ q B q ) = 0
presenta soluzioni esterne al cerchio di raggio unitario. Per rendere più chiaro quest’ultimo
importantissimo concetto, alla base dello studio delle serie storiche, viene trattato di seguito il caso
di un processo MA(2):
Z t = − θ 1at − 1 − θ 2 at − 2 + at ;
2
− θ 1 ± θ 1 + 4θ 2 < − 2θ 2
θ 1 + 4θ 2 ≥ 0 ⇒ 2
− θ 1 ± θ 1 + 4θ 2 > 2θ 2
da cui si ricava:
θ 2 + θ 1 < 1 e θ 2 − θ 1 < 1.
Se il determinante è minore di zero, le radici sono complesse e si ha:
2 2 2
θ1 − θ 1 − 4θ 2 1
B > 1⇒ B = + = − > 1⇒ θ 2 < 1 .
4θ 2 4θ 2
2
θ2
11
Z t = (1 − φ B ) − 1 at = (1 + φ B + φ 2 B 2 + ...)at = at + φ at − 1 + φ 2 at − 2 + ...
in questo caso la condizione espressa per l’invertibilità di un Ma(q), se valida per l’AR(p), permette
di accertare la stazionarietà del processo AR esaminato.
ρ k = φ 1ρ k− 1 per k>1.
In generale un processo ARMA(p,q) può essere ottenuto dalla combinazione tra un AR(p) ed un
MA(q):
Z t − φ 1 Z t − 1 − ... − φ p Z t − p = at − θ 1 at − 1 − ... − θ q at − q , o, alternativamente, espresso dalla relazione:
φ ( B) Z t = θ ( B)at .
12
A2.1 - Il test di Phillips-Perron
La correzione al test t è di tipo non parametrico poiché si usa una stima dello spettro del termine di
errore a frequenza zero. In tal modo si ottiene un test più robusto rispetto al problema
dell’eteroschedasticità della serie e per forme di autocorrelazione non perfettamente identificabili.
Il test di Phillips-Perron assume la seguente relazione formale:
γ 1/ 2
⋅t (ω 2
− γ 0 )n ⋅ S ( β )
t pp = 0
− ,
ω 2ω σˆ
con S(β) deviazione standard di β, t rapporto tra la stima di β e la sua deviazione standard
1/ 2
q
j
campionaria, ω = γ 0 + 2∑ 1 − γ .
q + 1
j
j= 1
1 n ~~
Le funzioni γ j = ∑ at at − j sono stime campionarie delle funzioni di autocovarianza, q è l’ultimo
n t= j+ 1
lag ritenuto significativo o, analogamente, il numero di periodi da includere nella correlazione
seriale.
- Tutti i componenti di X t = ( x1t , x2t ,..., xnt )' sono integrati di ordine d.
π è una matrice con almeno un termine non nullo ed infine ε t è un vettore (n x 1) i cui termini non
13
sono necessariamente incorrelati tra loro. Sia ciascuna singola variabile X t integrata di ordine uno
(I(1)): se tali variabili X t = ( x1t , x2t ,..., xnt )' sono rappresentabili attraverso la relazione
della precedente relazione risultano essere stazionari, π X t − 1 , elemento di sinistra della relazione, è
anch’esso stazionario. Da rilevare che, poiché la matrice π contiene solo costanti, ciascuna riga
rappresenta un vettore cointegrante per X t . Ad esempio, la prima riga può essere scritta come
(π 11 X 1,t − 1 + π 12 X 2,t − 1 + ... + π 1n X n ,t − 1 ) . Poiché ciascuna serie X i ,t − 1 è I(1), (π 11 , π 12 ,..., π 1n ) deve essere
un vettore cointegrante per X t . In definitiva, una “error correction representation” per variabili di
tipo I(1) implica necessariamente la presenza di cointegrazione tra le variabili. Analogamente può
essere dimostrato che la presenza di cointegrazione implica l’error correction representation
(teorema della rappresentazione di Granger).
ciascun elemento di π deve essere nullo, il che è equivale ad affermare che ∆ X t = ε t . In questo caso
ciascuna variabile { xit } è di tipo I(1) e non c’è nessuna combinazione lineare delle variabili che sia
stazionaria. All’altro estremo, si supponga che π sia a rango pieno. In questo caso la soluzione al
.
.
π n1 x1t + π n 2 x 2t + ... + π nn x nt = 0
14
Ciascuna di queste n equazioni è una restrizione della soluzione di equilibrio di lungo periodo. In
questo caso ciascuna delle n variabili è stazionaria. Ciascuna riga della matrice π è un vettore
cointegrante così che ci sono n vettori cointegranti su n variabili presenti nel sistema. Nei casi
intermedi, nei quali il rango di π è uguale ad r, ci sono r vettori cointegranti.
di Engle e Granger, si suppone che due variabili, Yt e Z t , siano di tipo I(1) e si vuole determinare se
esiste una relazione di equilibrio tra le due. Dalla definizione di Cointegrazione risulta necessario
che le due variabili siano integrate dello stesso ordine. Da ciò si deduce che il primo passo da
compiere nell’analisi è di verificare che ciascuna variabile sia effettivamente I(1), altrimenti si può
già affermare che le due variabili non sono cointegrate. Tale verifica va fatta con il test di D&F o
con quello di Phillips-Perron precedentemente esposti. Se entrambe le variabili risultano
regressione β 0 e β 1 ”super consistente”. Stock (1988) dimostrò che le stime OLS di β 0 e β 1 per
variabili cointegrate convergono più rapidamente delle stime OLS per variabili stazionarie. Per
non si può fare altro che lavorare con gli scarti Yt − Yˆt = eˆt .
Se Yt − Yˆt = eˆt è una serie stazionaria (I(0)), le due variabili esaminate, Y e Z, risultano essere
applicati ai residui poiché il ricercatore non conosce la serie et ma solo Yt − Yˆt = eˆt . Fortunatamente
Engle e Granger fornirono un test statistico che può essere usato per verificare l’ipotesi a1 = 0 ,
tuttavia in questi casi è consigliabile utilizzare entrambi i test (Engle-Granger e Johansen) per
verificare al meglio l’eventuale relazione cointegrante tra le variabili.
15
A3.1 - TEOREMA 3.1
Per “r” intero, il momento di ordine “2r” di un processo ARCH lineare di ordine uno con α 0 > 0 e
α ≥ 0 esiste se e solo se1:
r
α r
∏
j= 1
(2 j − 1) < 1
Il processo ARCH(p) con α 0 > 0, α 1 , α 2 ,...,α p ≥ 0 , è stazionario in covarianza se, e solo se,
l’equazione caratteristica associata ha tutte le radici al di fuori del cerchio unitario. Il momento
secondo è dato da:
α
E (ε t2 ) = p
0
(1 − ∑ α j) .
j= 1
con ρ < 1
ε t = WN (o, σ 2 ) .
Tale processo ha come momenti primo e secondo condizionati i seguenti:
E ( X t /ψ t− 1 ) = ρ X t − 1;
Var ( X t / ψ t− 1 ) = σ 2;
mentre i momenti primo e secondo non condizionati risultano essere rispettivamente pari a:
E( X t ) = 0 ;
1
Var ( X t ) = σ 2.
(1 − ρ )
2
1
Per la dimostrazione di tale teorema vd. Engle(1982).
16
INEFFICIENZA DEL MERCATO E ANALISI TECNICA
É opinione diffusa che il primo e più importante apporto alla nascita ed allo sviluppo
delle metodologie che possono essere comprese nell’analisi tecnica è identificabile
nel complesso di regole e metodi contenuti negli editoriali pubblicati all’inizio del
secolo da Charles Henry Dow sul Wall Street Journal, di cui lo stesso Dow fu
fondatore ed editore.
La teoria di Dow prevede il confronto di due indici, l’Industrial Average ed il Rail
Average; il presupposto fondamentale della teoria di Dow è rappresentato dal
concetto per il quale la maggioranza delle azioni segue per buona parte del tempo
preso in esame la sottostante tendenza del mercato. Ciò premesso, Dow pensò bene di
misurare il mercato costruendo i due indici suddetti, il Dow Jones Industrial Average
(una combinazione di dodici titoli guida) ed il Dow Jones rail average (comprendente
dodici titoli delle principali compagnie ferroviarie), destinati successivamente, nel
1928, a dar luogo all’attuale indice Dow Jones.
I principi fondamentali della teoria di Dow sono sei e sono riassumibili come segue:
Gli indici devono confermarsi a vicenda. I due indici creati da Dow dovevano
confermarsi a vicenda per avvalorare il segnale di acquisto, poiché Dow riteneva che
i cambiamenti dei cicli economici dovevano essere avvalorati sia dalla qualità di
un’economia in espansione (DJ industrial average) sia dai suoi riflessi commerciali
legati al trasporto e alla circolazione delle merci (DJ rail average).
In sintesi l’andamento dei mercati ricalca generalmente uno schema evolutivo, il
trend, basato sullo sviluppo sequenziale di movimenti attivi e di correzioni. Per
movimento attivo si deve intendere l’andamento dei corsi con direzione conforme al
trend di fondo (crescente in un trend rialzista, decrescente in uno ribassista); si parla
di correzione se si fa riferimento alla dinamica dei corsi con direzione contraria alla
tendenza principale. La sequenza e l’intersezione dei diversi trend segue un
andamento ciclico distinto in tre fasi: accumulazione, rialzo e distribuzione. Nella
fase di accumulazione inizia un lento ma continuo rastrellamento di titoli da parte dei
grandi investitori: i prezzi si mantengono stabili o leggermente crescenti, i volumi
tendono lentamente ad intensificarsi. La fine di questa fase ed il contemporaneo
inizio della fase rialzista è riscontrabile nella crescita simultanea di prezzi e volumi
dovuti al fatto che le informazioni rilevanti incominciano ad arrivare ad un numero
meno ristretto di investitori. La fase di distribuzione prevede prezzi e volumi stabili
su livelli elevati ma i grandi investitori incominciano gradualmente a vendere per poi
generare un segnale comune di vendita che da luogo ad un periodo di generali ribassi.
Un limite notevole alla teoria di Dow consiste nei ritardi operativi dovuti a mancate
convergenze tra i vari indici oggetto d’esame: il timing operativo è, per lo più,
lasciato al buon senso dell’investitore.
∑ P(n − i )
MMS (n) = i= 0
n
In questo caso ai dati della serie viene attribuito un identico peso, 1/n, che si annulla
istantaneamente nel momento in cui gli stessi vengono gradualmente eliminati. Tale
indicatore ravvisa una scarsa sensibilità ai dati più recenti, risulta, di conseguenza,
più opportuno un diverso sistema di pesi da attribuire ai prezzi. A riguardo può
risultare utile la media mobile ponderata:
n− 1
∑ P (n − i )W (n − i )
MMP(n) = i= 0
∑
n− 1
i= 0
W (n − i)
Tali sistemi non riducono il rischio di perdita istantanea delle informazioni meno
recenti; per tale scopo vengono utilizzate le medie mobili esponenziali, le quali
assegnano pesi più alti ai prezzi più recenti mantenendo comunque un peso
consistente per i dati passati. Dalle medie mobili esponenziali si ottengono delle
curve vicine alle linee dei prezzi ma che riescono ad anticipare i segnali tecnici
necessari per il trading. La formula per calcolare la media mobile esponenziale a n
giorni è la seguente:
n− 1
∑ P (n − i )W ( n − i )
MME (n) = i= 0
n− 1
∑W
i= 0
(n− i)
Con 0<W<1 in modo da attenuarne gradualmente l’effetto senza mai annullarlo. Per
il calcolo di tale media risulta molto utile la seguente relazione ricorsiva:
MME(t)=MME(t-1)(1-W)+Pt(W) .
Un considerevole passo avanti è stato compiuto con l’introduzione di un nuovo tipo
di media mobile in grado di adattare la propria reattività in funzione della volatilità
della serie di prezzi a cui è applicata. Fra i primi a introdurre un sistema
sostanzialmente trend-following in grado di modificarsi in funzione della volatilità
dei prezzi Tushar Chande ha sviluppato una serie di strumenti tecnici di notevole
valore che hanno contribuito a cambiare il modo di fare trading negli ultimi anni. Il
concetto di fondo alla base dei risultati ottenuti da Chande consiste nel vedere il
fattore di ponderazione come specchio della variabilità dei dati sottostanti: maggiore
è la variabilità dei dati, tanto maggiore sarà il fattore di ponderazione.
SUPPORTI RESISTENZE-
Il titolo, intorno alla metà di Ottobre 1994, è sceso sotto le 4.000 lire (punto 1). Nei
tre mesi successivi il suo valore ha oscillato al di sotto di tale cifra, senza riuscire a
risalirvi con decisione, per poi continuare in discesa. Nei primi di Aprile il titolo
strappa verso l'alto, ma si “scontra” a quota 3.000 (punto 2), dalla quale viene
respinto verso il basso.
Verso i primi di Luglio '95 il titolo riprende a salire, raggiunge quota 3.000 (punto 3),
questa volta riesce a superarla, vi indugia intorno quasi a prendere fiato, vi rimbalza
sopra e finalmente riparte verso nuove vette.
Arrivato ad Ottobre ancora sulla fatidica quota 4.000 (punto 4), si scontra
nuovamente con un muro invisibile e viene respinto brutalmente verso il basso. Nel
ripiegare, il titolo incontra a metà Novembre di nuovo quota 3.000 (punto 5). Da
questa è respinto verso l'alto: riprende la salita, raggiunge in Febbraio livello 4.000
(punto 6) e, questa volta, sfonda la barriera usandola poi come trampolino per
ripartire al rialzo.
- Una linea che sta per essere perforata al rialzo, è chiamata resistenza, opponendosi
in qualche modo all'ulteriore salita del titolo. Nell'esempio riportato, mentre il titolo
scendeva, ha incontrato il suo supporto a quota 4.000 e, mentre risaliva, ha incontrato
la sua resistenza nello stesso punto.Esaminando un titolo occorre notare con quanta
forza certe linee vengono perforate, ricavando importanti informazioni sull'incertezza
o decisione dei movimenti del titolo. In modo analogo, occorrerà valutare il
momento opportuno d'acquisto, o vendita, di un titolo che interessa, tenendo presente
che l'incontro con resistenze o supporti più volte verificati in passato rappresentano
spesso momenti di verifica.
Uno sviluppo delle linee di resistenza e supporto è dato dal concetto di Trend. Oltre a
linee orizzontali, infatti, è possibile racchiudere il movimento di un titolo, all'interno
di linee inclinate che ne limitano le oscillazioni.
Come nel caso di supporti e resistenze, per semplicità di esposizione viene riportato il
grafico di un titolo preso dalla realtà.
IL TRADING SYSTEM
1
Error =
n
Se ad esempio vi sono venticinque operazioni, l’errore di calcolo sarà più o meno del
20%. Per mantenere il livello di errore entro il 5% servirebbero circa 400 operazioni.
Sfortunatamente sono pochissimi i sistemi che generano tanti segnali.
Per misurare invece l’efficienza di un sistema, si prende in considerazione la
proporzione tra il profitto possibile ed il profitto potenziale, teorico quest’ultimo, di
un dato mercato:
prof .tot.
eff .totale =
prof . potenz.tot.
Una volta definiti i cardini per una corretta valutazione di un sistema operativo, non
resta che decidere quanto rischiare.