Professional Documents
Culture Documents
A1.1 Introduzione
La previsione del futuro da sempre costituisce materia di grande fascino e interesse. Nel momento
in cui deve prendere decisioni che condizioneranno la propria organizzazione nel futuro, ogni
operatore economico fonda le proprie scelte su una serie di previsioni, spesso fatte intuitivamente e,
a volte, anche inconsciamente.
Soprattutto in periodi o in contesti di grande incertezza, causata anche da una sempre maggiore
apertura e competitività nei mercati, dall’adeguatezza delle previsioni fatte dipende in buona misura
la prosperità, e talvolta la stessa sopravvivenza, dell’organizzazione o dell’azienda. Si pensi, ad
esempio, alla previsione per i mesi o gli anni futuri di variabili come il volume delle vendite di
un’azienda o la domanda aggregata di un prodotto o servizio, che sono variabili determinanti ai fini
della programmazione della produzione. Oppure alla previsione del prezzo di una materia prima che
entra come input nei prodotti dell’azienda, necessaria per definire una adeguata politica degli
approvvigionamenti e degli stoccaggi.
In questa appendice viene presentata una rassegna delle principali tecniche statistiche di previsione
utilizzate per fare previsioni per il futuro attraverso la conoscenza degli andamenti passati. Esse, va
subito chiarito, sono da considerare come integrative, e non certo alternative o peggio in
contrapposizione, rispetto alle previsioni che gli operatori economici generalmente fanno in modo
intuitivo, non formalizzato tecnicamente, sulla base della conoscenza profonda del contesto di
riferimento e in definitiva del loro “fiuto”. Entrambi gli approcci alla previsione – quello fondato
sulle tecniche statistiche e quello basato sulle capacità intuitive e la conoscenza del contesto da
parte dell’operatore – presentano vantaggi e limiti. Il secondo ha l’evidente limite di non riuscire né
a tener conto congiuntamente dell’enorme mole di dati disponibili, né a realizzare le previsioni con
la necessaria imparzialità. Il primo sconta invece il limite di non riuscire ad inglobare nei modelli di
previsione grandezze difficilmente quantificabili o di cui non sono disponibili misurazioni con la
necessaria continuità.
Il capitolo si articola nel modo seguente. Vengono inizialmente descritte le componenti di una serie
temporale (paragrafo A1.2) e i principali indicatori per la quantificazione degli errori di previsione
(paragrafo A1.3); vengono successivamente presentate le tecniche di previsione basate sulle medie
mobili (paragrafo A1.4) e sul livellamento esponenziale (paragrafo A1.5); infine viene richiamata la
previsione mediante modelli di regressione, sviluppata nel Capitolo 4 del volume.
media. Al contrario, quando le osservazioni tendono a crescere o a decrescere nel lungo periodo
siamo in presenza di un trend positivo o negativo.
Quando le osservazioni tendono a crescere o a decrescere rispetto al trend con periodicità variabili
siamo invece in presenza anche di una componente ciclica, che si aggiunge al trend. La componente
ciclica in una serie è data dalle oscillazioni intorno al trend ed è spesso determinata dai cicli di
espansione e di contrazione economica.
Nel caso di dati infra-annuali, quando le osservazioni presentano oscillazioni caratterizzate da una
certa regolarità, anno dopo anno – ad esempio picchi e avvallamenti in corrispondenza dei
medesimi mesi o trimestri – siamo in presenza di una componente stagionale. La componente
stagionale è quindi determinata da un percorso di cambiamento nella serie che tende a ripetersi, più
o meno costantemente, anno dopo anno.
Un primo strumento statistico per esplorare l’andamento di una serie temporale è
l’autocorrelazione, definita come la correlazione tra una variabile e se stessa ritardata di uno o più
periodi di tempo.
L’autocorrelazione viene misurata mediante il coefficiente di correlazione lineare di Bravais-
Pearson (si veda il Capitolo 3, paragrafo 3.3.3), che assume la seguente espressione:
n
∑ (x t − x )( xt − k − x )
rk = t = k +1
n
∑ (x
t =1
t − x)2
dove
rk è il coefficiente di autocorrelazione relativo ad un ritardo di k periodi
xt è l’osservazione della serie al periodo t
xt −k è l’osservazione della serie al periodo t-k
x è la media aritmetica dei valori della serie.
All’aumentare del numero di periodi di ritardo il calcolo del numeratore avviene su un numero
sempre più ridotto di osservazioni. E’ inoltre facile verificare che si ha r0 = 1 .
L’autocorrelazione può quindi essere definita come una funzione discontinua r(k), chiamata
funzione di autocorrelazione, che assume valori diversi al variare del numero di periodi di ritardo.
Tale funzione può essere rappresentata graficamente mediante il correlogramma.
Attraverso l’analisi della funzione di autocorrelazione, ovvero del correlogramma, è possibile dare
risposta ad alcune domande che ci si deve porre quando si effettua l’analisi di una serie temporale.
In particolare, se la serie può essere considerata stazionaria in media o se, al contrario, la serie
presenta un trend, oppure se esiste una significativa componente stagionale.
Se la serie presenta un trend, si osserva un valore molto elevato sia del coefficiente di
autocorrelazione r(1), sia di quelli relativi a un certo numero di ritardi successivi, sebbene
decrescenti, prima di tendere gradualmente a zero. In una serie stazionaria, al contrario, i
coefficienti di autocorrelazione tendono a zero piuttosto rapidamente, generalmente dopo il secondo
o terzo ritardo.
Se una serie presenta una componente stagionale i coefficienti di autocorrelazione risulteranno
significativi per i ritardi pari alla frequenza di periodi nell’anno e a multipli di essa. Ad esempio,
per dati quadrimestrali risulteranno significativi i coefficienti ai ritardi 3, 6, 9 e cosi via; per dati
trimestrali risulteranno significativi i coefficienti di autocorrelazione ai ritardi 4, 8, 12 e cosi via;
per dati mensili risulteranno elevati r(12), r(24), r(36) e cosi via.
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
Metterei qui qualche esempio di serie storica e di relativo correlogramma (con e senza trend, con e
senza stagionalità)
A1.3 Gli errori di previsione
La precisione di una previsione è misurabile a partire dai confronti tra i valori previsti e i valori che
si sono effettivamente realizzati per diversi periodi di tempo. Indicando con xt il valore di una serie
temporale al tempo t e con x̂t il corrispondente valore della serie al tempo t previsto in precedenza
(ad esempio, uno o più periodi precedenti), l’errore di previsione per il tempo t è dato da
et = xt − xˆ t
Un primo modo di sintetizzare tali errori di previsione, per definire una misura sintetica della bontà
di un metodo di previsione, consiste nel calcolare la media aritmetica dei loro valori assoluti
(MAD), nel modo seguente:
n
∑x t − xˆ t
MAD = t =1
Il MAD ha il vantaggio di essere facilmente interpretabile, essendo espresso nella stessa unità di
misura dei termini della serie.
Un altro metodo frequentemente utilizzato è quello basato sull’errore quadratico medio (MSE) cioè
sulla media aritmetica dei quadrati dei singoli errori di previsione:
n
∑ (x − xˆ t )
2
t
MSE = t =1
L’errore quadratico medio, enfatizzando il peso degli errori molto elevati, è preferibile, come
misura della bontà di una tecnica di previsione, quando ad essa è richiesta una certa costanza nel
tempo degli errori di previsione, piuttosto che, a parità di deviazione assoluta media, errori di entità
troppo variabile (ad esempio, generalmente prossimi a zero, ma occasionalmente molto elevati).
A volte, in particolare quando si tratta di confrontare una o più tecniche di previsione su diverse
serie temporali, è opportuno ricorrere a misure di errore espresse in termini relativi o percentuali
anziché assoluti. Una di queste misure è l’errore medio assoluto percentuale (MAPE), ottenuto
come media degli errori relativi, dati dal rapporto tra gli errori in valore assoluto e i corrispondenti
valori osservati, moltiplicata per cento:
n xt − xˆ t
∑
t =1 xt
MAPE = 100
n
Per valutare se una determinata tecnica di previsione fornisce previsioni sistematicamente distorte o
se, al contrario, “funziona” in media, si può ricorrere all’errore percentuale medio (MPE), definito
analogamente al MAPE, ma con gli scarti tra valori osservati e previsti non in valore assoluto:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
n
(xt − xˆ t )
∑t =1 xt
MPE = 100
n
Se l’MPE risulterà prossimo a zero si potrà concludere che la tecnica fornisce previsioni non
distorte. Al contrario, qualora la tecnica conduca a sovrastime o sottostime sistematiche del valore
vero l’MPE risulterà, rispettivamente, largamente negativo o positivo.
1 t
xˆ t +1 = ∑ xt .
t i =1
Una volta che una nuova osservazione diviene disponibile si potrà fare una nuova previsione sul
periodo futuro utilizzando una osservazione in più.
Una obiezione all’utilizzo di tale tecnica consiste nel fatto che le osservazioni molto lontane nel
tempo potrebbero non avere più importanza per la nostra previsione. Si può allora decidere di
utilizzare sempre un numero costante di osservazioni passate: ogni volta che una nuova
osservazione diviene disponibile, la previsione viene fatta aggiungendo la nuova osservazione ma
eliminando dalla media la più datata. Questo approccio prende il nome di medie mobili. La
previsione per il periodo futuro con una media mobile di ordine k è data dalla seguente espressione:
xt + xt −1 + xt − 2 + ... + xt − k +1
xˆ t +1 =
k
Le previsioni basate sulle medie mobili non sono tuttavia appropriate nei casi di serie temporali che
presentano una significativa componente di trend o di stagionalità. Nel primo caso, infatti,
mediando le osservazioni passate si introduce una sottostima sistematica in presenza di trend
positivo e una sovrastima in presenza di trend negativo. Nel secondo caso, specialmente se si fa
coincidere k con il numero di periodi (e di osservazioni) presenti in un anno, la previsione viene
fatta eliminando o mediando gli effetti stagionali.
Un modo per poter effettuare previsioni su serie temporali che presentano un trend lineare è quello
di utilizzare il metodo delle doppie medie mobili. Tale metodo consiste nel calcolare prima le medie
mobili sui dati originari:
xt + xt −1 + xt − 2 + ... + xt − k +1
Mt =
k
M t + M t −1 + M t − 2 + ... + M t − k +1
M t′ =
k
at = M t + ( M t − M t′ ) = 2M t − M t′
2
bt = ( M t − M t′ )
k −1
La previsione effettuata al tempo t valida per il p-esimo periodo futuro è infine data da:
xˆ t + p = at + bt p
Utilizzando la tecnica delle doppie medie mobili risulta anche possibile spingere la previsione oltre
il primo periodo e prevedere il valore della serie anche per diversi periodi in avanti.
xˆ t +1 = αxt + α (1 − α ) xt −1 + α (1 − α ) 2 xt − 2 + α (1 − α ) 3 xt −3 + ...
xˆ t = αxt −1 + α (1 − α ) xt − 2 + α (1 − α ) 2 xt −3 + ..
la previsione per il periodo t+1 può anche essere scritta nel modo seguente (formulazione
ricorsiva):
xˆ t +1 = αxt + (1 − α ) xˆ t (A1)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
xˆ t +1 = αxt + xˆ t − αxˆ t
xˆ t +1 = xˆ t + α ( xt − xˆ t ) .
La nuova previsione può dunque essere vista anche come la vecchia previsione ( x̂t ) più alfa volte
l’errore che si è verificato nella vecchia previsione.
Come detto, α è un coefficiente compreso tra zero e uno e determina il ritmo di decremento dei
pesi. Più precisamente se si fissa un valore di α prossimo a zero si assegna un peso modesto alle
osservazioni recenti ma si adotta un ritmo di decremento degli stessi molto basso, il che in sostanza
significa correggere di poco le previsioni basate sulle medie semplici. Al contrario, se si adottano
valori di α più elevati si assegna un peso più elevato all’ultima osservazione e a quelle
immediatamente precedenti, ma si adotta un ritmo di decremento anch’esso elevato, con la
conseguenza che le osservazioni lontane anche solo di pochi periodi avranno assegnato un peso
prossimo a zero.
Nella tabella che segue vengono riportati alcuni esempi di calcolo dei pesi per diversi valori di α :
La scelta del valore di α è dunque il problema principale che si pone quando si adottano questi
metodi di previsione. Un modo per determinare il miglior valore del parametro α consiste
nell’adottare una procedura iterativa che minimizza l’errore quadratico medio (MSE) delle
previsioni fatte per i periodi precedenti, per i quali si conoscono anche i valori veri. Si tratta cioè di
calcolare le previsioni per i periodi passati adottando diversi valori di α (0,1 0,2 0,3 … 0,9) e poi
l’errore quadratico medio tra valori predetti e valori reali per ciascun valore di α. Il valore di α che
determina il minor errore quadratico medio sulle previsioni fatte per i periodi precedenti viene
scelto per effettuare le previsioni per i periodi futuri. Per utilizzare questo metodo resta il problema
di determinare il primo valore predetto, che in genere viene posto uguale al primo valore reale o alla
media tra i primi tre o quattro valori reali della serie.
Lt = αxt + (1 − α )( Lt −1 + Tt −1 ) ; A2
Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 ; A3
xˆ t + p = Lt + pTt . A4
Il secondo parametro introdotto, β, determina il ritmo di appiattimento per stimare il valore del
trend da applicare alla previsione, inteso come differenza tra un livello e quello al periodo
precedente. Anche il trend, infatti, risulta calcolato come una media ponderata del diversi valori di
trend evidenziati nei periodi passati.
L’equazione A3 è simile alla A2 con la differenza che il livellamento esponenziale viene effettuato
sul trend piuttosto che sul livello della serie. Adottare valori di β prossimi allo zero significa
assegnare un peso basso al trend dell’ultimo periodo noto ma un peso che decresce molto
lentamente man mano che si considerano i trend più lontani nel tempo. Adottare valori di β più
elevati significa assegnare pesi più elevati ai valori del trend dell’ultimo periodo ma molto
decrescenti per valori del trend più lontani.
In modo analogo al metodo del livellamento esponenziale semplice il vero problema sta nella scelta
dei valori da adottare per i parametri α e β. Se si vuole evitare una scelta soggettiva, un criterio
analitico di scelta di α e β può essere quello di individuare, per mezzo di una procedura iterativa, i
valori dei due parametri che consentono di minimizzare l’errore quadratico medio delle previsioni
fatte per i periodi passati.
Per avviare queste procedure di ottimizzazione è tuttavia necessario impostare un valore iniziale sia
per il livello che per il trend. Si può porre la stima iniziale del livello pari al valore della prima
osservazione della serie e la stima iniziale del trend pari a zero. Alternativamente si può considerare
la media delle prime tre o quattro osservazioni come stima iniziale del livello e la pendenza della
retta interpolante queste prime osservazioni come stima iniziale del trend.
Nel caso di una serie che presenta una evidente componente stagionale il modello di Holt non
appare particolarmente indicato per effettuare delle buone previsioni. Infatti, incorporando nella
previsione solo una componente di trend lineare, tende a fornire previsioni con delle sottostime o
sovrastime sistematiche per i periodi futuri, rispettivamente, ad alta o bassa stagionalità.
In presenza di componente stagionale può essere utilizzato un modello di previsione proposto da
Winters (1960). Questo consiste in una estensione del modello di Holt mediante l’introduzione di
una equazione utilizzata per stimare la stagionalità, sempre come media ponderata con pesi
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
decrescenti nel tempo delle stagionalità osservate nei periodi passati. Nel modello di Winters viene
dunque introdotto un terzo parametro, γ , che determina il ritmo di decremento dei pesi nella stima
della componente stagionale.
Le quattro equazioni del modello di Winters sono le seguenti:
xt
Lt = α + (1 − α )( Lt −1 + Tt −1 ) A5
S t −s
Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 A6
xt
St = γ + (1 − γ ) S t − s A7
Lt
xˆ t + p = ( Lt + pTt ) S t − s + p A8
Come si vede, nella A5, che aggiorna i livelli appiattiti della serie, il valore osservato xt viene diviso
per St-s, che è il fattore correttivo per la stagionalità, rimuovendo in tal modo tale componente dalla
serie. La stagionalità viene reintrodotta nella equazione A8 relativa alla previsione, dove al livello
attuale (del tempo t) viene applicato il trend lineare e il tutto viene poi corretto in modo
moltiplicativo per la componente stagionale stimata per il p-esimo periodo futuro. St sarà dunque un
fattore moltiplicativo maggiore di uno nei periodi identificati come ad alta stagionalità, mentre
risulterà minore di uno nei periodi a bassa stagionalità.
Analogamente a quanto detto per il modello di Holt, i parametri α , β e γ possono essere scelti in
modo soggettivo, magari desunti da altre serie ad andamento simile, o in modo analitico scegliendo
i tre parametri in modo che minimizzino l’errore quadratico medio per le previsioni fatte per i
periodi passati.
Anche per il modello di Winter, per avviare il calcolo dei valori livellati Lt secondo la A5,
disponendo del primo valore osservato x1, devono essere impostati i valori di L1, T1 e S1. Una prima
possibilità consiste nell’ipotizzare L1 = x1, T1 = 0 e S1 = 1. Una seconda possibilità consiste nel porre
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
L1 uguale alla media delle prime s osservazioni, T1 uguale alla pendenza della retta interpolante le
medesime prime s osservazioni e S1 pari al rapporto tra x1 e Ls.
L’utilizzo di modelli di regressione rappresenta un'altra tecnica molto utilizzata per fini previstivi.
Rimandando al capitolo 4 del volume per tutti gli aspetti teorici relativi alla regressione, in questa
sede si intende solo richiamare i principali problemi che possono insorgere utilizzando il metodo dei
minimi quadrati per stimare modelli di regressione con dati temporali a fini previsionali.
Il problema principale è senza dubbio quello della autocorrelazione esistente normalmente nelle
serie temporali, ovvero la correlazione tra successive osservazioni nel tempo dello stesso fenomeno.
A questo riguardo si deve osservare che se l’autocorrelazione rappresenta un problema quando si
deve stimare un modello di regressione, poiché tende a falsare i test di significatività dei parametri
del modello, la sua presenza non è così dannosa ai fini della precisione della previsione. Si pensi, ad
esempio, di dover prevedere il prezzo di un bene in un periodo futuro; la presenza di
autocorrelazione suggerisce la possibilità di utilizzare i valori osservati nel passato per prevedere il
futuro.
Quando invece ci si accinge a stimare un modello di regressione la presenza di autocorrelazione,
violando una delle ipotesi del metodo dei minimi quadrati, crea i seguenti problemi:
• l’errore standard delle stime in genere sottostima la variabilità del termine di errore;
• l’inferenza basata sui test T e F non risulta formalmente applicabile;
• gli errori standard dei coefficienti di regressione sottostimano la variabilità dei parametri del
modello e può essere rilevata una regressione spuria.
La presenza di questi problemi può facilmente essere rilevata mediante il test Durbin-Watson sui
residui del modello.
Una volta rilevati problemi nella distribuzione dei residui, la prima cosa da fare è cercare di capire
la causa che può averli generati. Molto frequentemente le cause stanno in una errata specificazione
del modello come aver omesso una variabile o aver ipotizzato una errata forma funzionale.
Un primo approccio consiste dunque nel provare ad inserire nel modello una o più nuove variabili.
Un approccio alternativo per rimuovere questi problemi consiste nel differenziare le variabili, cioè
nel provare a modellare i cambiamenti piuttosto che i livelli. Un ulteriore approccio metodologico
consiste non nel rimuovere il problema dell’autocorrelazione, bensì nel cercare di modellarlo cioè di
includerlo nel modello. I modelli autoregressivi consistono appunto nell’inserire tra le variabili
indipendenti la variabile dipendente ritardata di uno o più periodi.
Un altro problema che spesso si deve affrontare quando ci si accinge a stimare un modello di
regressione su dati temporali è quello della variabilità che tende a crescere con il passare del tempo,
specie quando si è in presenza di un trend crescente. La presenza di questo problema, cioè di una
variabilità non costante nel tempo, viene definito con il termine eteroschedasticità. Quando si
effettua la stima di un modello di regressione la presenza di questo problema si scarica sui residui
del modello. Se la variabilità dei residui del modello nei periodi più recenti risulta superiore rispetto
a quella osservata per i periodi più lontani e la deviazione standard delle stime viene utilizzata per
definire le bande di confidenza delle previsioni per i periodi futuri, queste bande risulteranno troppo
strette rispetto al livello di confidenza prefissato. A volte il problema della eteroschedasticità può
essere eliminato effettuando delle semplici trasformazioni di variabili come la trasformazione
doppio logaritmica ricorrendo ai cosiddetti modelli log-lineari. In altri casi cercando di eliminare il
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl
trend dalle serie si riesce anche ad ottenere serie temporali con varianza costante; ad esempio nel
caso di serie espresse in valori monetari a prezzi correnti, deflazionando la serie, cioè esprimendo i
termini della serie a prezzi costanti si riesce spesso a ridurre o eliminare il problema della varianza
crescente.
Quando si è in presenza di serie temporali che presentano anche una componente stagionale una
possibile soluzione per tener conto anche della stagionalità consiste nell’inserire tra le variabili
indipendenti del modello anche delle dummy stagionali, pari al numero delle periodi stagionali
meno uno (quindi due dummy per dati quadrimestrali, tre per dati trimestrali, undici per dati mensili
e cosi via). Le stime dei parametri corrispondenti saranno appunto le stime dell’effetto della
stagione corrispondente rispetto al periodo stagionale non inserito nel modello. Evidentemente, per
non perdere troppi gradi di libertà, occorre disporre di un numero sufficiente di osservazioni per
modellare anche la stagionalità.