You are on page 1of 420

DIPARTIMENTO

DI
ENERGIA
INGEGNERIA DELLINFORMAZIONE
E
MODELLI MATEMATICI
(DEIM)

Lezioni
Di
Teoria
Dei
Segnali
Giovanni Garbo,
Giovanni Mamola,
Stefano Mangione

29/12/2014

SOMMARIO
Introduzione
CAPITOLO - 1
Richiami di Matematica
1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 -

1
7
7

Premessa. ........................................................................... 7
Lintegrazione alla Lebesgue. .......................................... 7
Misura associata a una classe di insiemi....................... 10
-Algebra di Borel........................................................... 11
La misura di Lebesgue su .......................................... 11
La misura di Lebesgue su ....................................... 12
Funzioni integrabili alla Lebesgue e relative propriet.13
Funzioni a quadrato sommabile .................................... 16

II Teorema di Lebesgue: ............................................................... 18

1.9 - Spazi metrici. ................................................................... 18


1.10 - Spazi vettoriali. .............................................................. 20
1.11 - Spazi normati. ................................................................ 21
1.12 - Forme bilineari, quadratiche, hermitiane. ................... 21
1.13 - Riduzione di una forma hermitiana a forma canonica.23
1.14 - Forme hermitiane semidefinite positive. ..................... 26
1.15 - Prodotto scalare. ............................................................ 27
1.16 - Vettori linearmente indipendenti. ................................ 30

CAPITOLO - 2
Rappresentazione Vettoriale dei Segnali

33
33

2.1 - Premessa. ......................................................................... 33


2.2 - Lo spazio dei segnali a energia finita. ........................... 34
Prodotto scalare ....................................................................... 35
Distanza.................................................................................... 35
Norma....................................................................................... 36
2.3 - Segnali linearmente indipendenti.................................. 37
Teorema 2.1 (di Gram) ................................................................. 37

2.4 - Rappresentazione geometrica di un segnale. ............... 40


2.5 - Angolo tra due segnali. ................................................... 44

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

2.6 - Approssimazione dei segnali nel sottospazio S. Teorema


della proiezione. ....................................................................... 46
2.7 - Procedimento di ortonormalizzazione di Gram-Schmidt.
................................................................................................... 50
2.8 - Sviluppo di un segnale in serie di funzioni ortogonali. 52

CAPITOLO - 3
Segnali Periodici
3.1 3.2 3.3 3.4 3.5 -

55
55

Generalit. ....................................................................... 55
Serie di Fourier in forma esponenziale. ........................ 56
Forma trigonometrica della serie di Fourier. ................ 59
Segnali reali. .................................................................... 60
Propriet della serie di Fourier. ..................................... 65

Linearit ....................................................................................... 65
Inversione nel dominio del tempo ................................................ 66
Segnale coniugato ......................................................................... 66
Coefficienti coniugati .................................................................... 66
Traslazione nel dominio del tempo ............................................... 67
Traslazione nel dominio della frequenza ....................................... 67
Convoluzione nel dominio del tempo ........................................... 67
Convoluzione nel dominio della frequenza ................................... 68

3.6 - Segnali bidimensionali. .................................................. 70

CAPITOLO - 4
Segnali a Energia Finita

73
73

4.1 - Deduzione elementare della trasformata di Fourier. .... 73


4.2 - La trasformata di Fourier di segnali ad energia finita. 74
La trasformata in (). ........................................................... 75
La trasformata in () (). ........................................... 75
La trasformata in (). ........................................................ 78
Conclusioni .............................................................................. 81
4.3 - Principali propriet della trasformata di Fourier di un
segnale ...................................................................................... 82
Trasformata di Fourier di segnali reali.................................. 83
4.4 - Propriet della trasformata di Fourier. .......................... 86
Linearit ................................................................................... 86
Simmetria ................................................................................. 87
Segnale coniugato .................................................................... 87
Trasformata coniugata ............................................................ 88

Introduzione

Traslazione nel dominio del tempo ........................................ 88


Traslazione nel dominio della frequenza ............................... 88
Cambiamento di scala ............................................................. 89
Derivazione nel dominio del tempo ....................................... 90
Derivazione nel dominio della frequenza .............................. 90
Convoluzione nel dominio del tempo .................................... 91
Convoluzione nel dominio della frequenza ........................... 94
4.5 - Limitazioni dello spettro di ampiezza di un segnale. .. 98
4.6 - Segnali bidimensionali. ................................................ 100
Linearit ................................................................................. 101
Traslazione nel dominio dello spazio e della frequenza ..... 101
Cambiamento di scala. .......................................................... 101
Convoluzione nel dominio dello spazio e della frequenza.. 102
Trasformazioni di variabili .................................................... 103

CAPITOLO - 5
Segnali a Potenza Finita

107
107

5.1 - Cenni di teoria delle distribuzioni. .............................. 107


5.2 - Esempi di distribuzioni. ............................................... 109
Distribuzioni regolari ............................................................ 109
Gradino unitario ..................................................................... 109
Delta di Dirac ......................................................................... 109
Pseudo funzione t-1 ................................................................ 110
5.3 - Calcolo delle distribuzioni. .......................................... 111
Uguaglianza ........................................................................... 111
Somma .................................................................................... 111
Traslazione ............................................................................. 111
Derivata di una distribuzione ............................................... 112
Prodotto di una funzione per una distribuzione.................. 115
Distribuzioni a supporto limitato ......................................... 115
5.4 - Convoluzione tra distribuzioni. ................................... 116
5.5 - Formula di Poisson....................................................... 120
5.6 - Trasformata di Fourier di una distribuzione. ............. 122
Teorema 5.1 ............................................................................... 123

5.7 - Trasformata di Fourier di distribuzioni a supporto


limitato.................................................................................... 124
5.8 - Trasformate di Fourier di distribuzioni notevoli. ....... 125
Trasformata di una costante ................................................. 125
Trasformata della delta di Dirac ........................................... 125

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Trasformata della delta di Dirac traslata .............................. 125


Antitrasformata della delta di Dirac traslata ........................ 125
Trasformate delle funzioni seno e coseno............................ 125
Trasformata di un segnale periodico.................................... 125
Trasformata della funzione segno ........................................ 126
Trasformata del gradino unitario.......................................... 127
5.9 - Propriet delle trasformate delle distribuzioni. .......... 127
Linearit ................................................................................. 127
Trasformata della convoluzione ........................................... 127
Derivazione nel dominio del tempo e della frequenza ........ 128
Traslazione nel dominio del tempo e della frequenza ........ 129

CAPITOLO - 6
Trasformazioni Lineari dei Segnali

133
133

6.1 - Definizioni. Propriet generali. .................................... 133


6.2 - Studio nel dominio del tempo...................................... 135
6.3 - Stabilit di un sistema lineare ...................................... 137
6.4 - Risposta impulsiva di trasformazioni lineari prive di
memoria.................................................................................. 138
6.5 - Studio nel dominio della frequenza. ............................ 138
6.6 - Determinazione della risposta in frequenza di una
trasformazione LTI................................................................ 139
6.7 - Trasmissione senza distorsione. Filtri ideali. ............. 143

CAPITOLO - 7
Caratterizzazione Energetica dei Segnali

145
145

Segnali a energia finita................................................................. 145

7.1 7.2 7.3 7.4 -

Densit spettrale di energia.......................................... 145


Funzione di autocorrelazione. ..................................... 149
Teorema di Wiener-Khinchine. ................................... 152
Funzioni di mutua correlazione. ................................. 153

Segnali a potenza finita ............................................................... 155

7.5 - Densit spettrale di potenza. ....................................... 155


7.6 - Funzioni di correlazione. ............................................. 158

CAPITOLO - 8
Caratteristiche e Propriet dei Segnali

163
163

8.1 - Segnale analitico. Trasformata di Hilbert. .................. 163

Introduzione

8.2 - Componenti del segnale a frequenze positive e negative.


................................................................................................. 167
8.3 - Segnali a banda e durata rigorosamente limitata. ...... 168
8.4 - Propriet dei segnali a banda rigorosamente limitata.169
Segnali passabasso................................................................. 169
Segnali passabanda................................................................ 170
8.5 - Banda e durata convenzionali...................................... 173
Banda e durata quadratica o efficace ........................................... 173
Banda e durata sulla base dellenergia .......................................... 174

CAPITOLO - 9
Il Campionamento dei Segnali
9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 -

177
177

Il teorema del campionamento. ................................... 177


Il sottospazio dei segnali passabasso. ......................... 179
Campionamento naturale............................................. 182
Campionamento istantaneo. ........................................ 185
Errori di ricoprimento spettrale (aliasing). ................. 187
Campionamento ideale dei segnali passabanda. ....... 189
Ricostruzione del segnale passabanda........................ 195
Campionamento del secondo ordine. ......................... 196

Segnali passabasso. ..................................................................... 196


Segnali passabanda. ..................................................................... 198

CAPITOLO - 10
Segnali a tempo discreto

201
201

10.1 - Segnali a tempo discreto. Energia e potenza specifica.


................................................................................................. 201
10.2 - Segnali periodici. ......................................................... 202
10.3 - La trasformata discreta di Fourier ............................. 204
10.4 - Segnali a potenza finita............................................... 209
10.5 - Propriet della trasformata di Fourier di un segnale a
tempo discreto. ...................................................................... 211
10.6 - Funzioni di correlazione e densit spettrali. ............. 213
- Segnali periodici. ................................................................. 213
- Segnali ad energia finita...................................................... 215
- Segnali a potenza finita. ...................................................... 217

CAPITOLO - 11
Trasformazioni lineari discrete

219
219

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

11.1 - Studio nel dominio del tempo..................................... 219


11.2 - Studio nel dominio della frequenza ........................... 223

CAPITOLO - 12
Valutazione Numerica della Trasformata di Fourier

227
227

12.1 - Valutazione Numerica della Trasformata di Fourier di un


Segnale a tempo continuo ..................................................... 227
12.2 - Troncamento del segnale. Finestre temporali. ......... 232
12.3 - La trasformata discreta di Fourier. ............................ 235

CAPITOLO - 13
Richiami di Teoria della Probabilit

241
241

13.1 - Lo spazio dei risultati. Gli eventi................................ 241


13.2 - Lo spazio di probabilit. ............................................. 244
13.3 - Probabilit condizionate - Formula di Bayes - Teorema
delle probabilit composte. ................................................... 247

CAPITOLO - 14
Variabili Aleatorie

253
253

14.1 - Variabili aleatorie monodimensionali. ....................... 253


14.2 - Funzione di distribuzione di probabilit. .................. 254
- intervallo semiaperto a sinistra ........................................... 254
- semiretta dorigine destra aperta ........................................ 255
- intervallo chiuso................................................................... 255
- punto isolato ........................................................................ 255
- intervallo aperto ................................................................... 256
- intervallo semiaperto a destra ............................................. 256
14.3 - Propriet della distribuzione di probabilit. ............. 256
- valori limite .......................................................................... 256
- monotonia e limitatezza ...................................................... 257
- continuit a destra ............................................................... 257
- limiti da sinistra ................................................................... 258
- numero di discontinuit ...................................................... 258
14.4 - Densit di probabilit di una variabile aleatoria continua.
................................................................................................. 260
14.5 - Densit di probabilit di una variabile aleatoria discreta.
................................................................................................. 261
14.6 - Variabili aleatorie bidimensionali. Funzioni di
probabilit congiunte. ........................................................... 262

Introduzione

14.7 - Funzioni di probabilit condizionate. ....................... 266


14.8 - Funzioni di probabilit dordine superiore. .............. 267

CAPITOLO - 15
Funzioni di variabili aleatorie

269
269

15.1 - Funzioni di una variabile aleatoria............................. 269

CAPITOLO - 16
Medie Statistiche
16.1 16.2 16.3 16.4 -

Valore medio di funzioni di variabili aleatorie. ......... 275


Momenti. ..................................................................... 276
Teorema della media. ................................................. 282
Funzione caratteristica. .............................................. 283

CAPITOLO - 17
Variabili Aleatorie Notevoli
17.1 17.2 17.3 17.4 17.5 17.6 17.7 17.8 17.9 -

275
275

288
288

Premessa. ..................................................................... 288


Distribuzione uniforme. ............................................. 288
Distribuzione esponenziale. ....................................... 289
Distribuzione di Laplace. ........................................... 290
Distribuzione normale o gaussiana. .......................... 290
Distribuzione di Rayleigh........................................... 295
Distribuzione di Bernoulli. ......................................... 296
Distribuzione binomiale. ............................................ 296
Distribuzione di Poisson. ........................................... 298

CAPITOLO - 18
Caratterizzazione Statistica dei Segnali

302
302

18.1 - Segnale aleatorio. Funzioni di probabilit del primo


ordine. ..................................................................................... 302
18.2 - Funzioni di probabilit del secondo ordine e funzioni di
probabilit condizionate........................................................ 306
18.3 - Funzioni di probabilit dordine superiore. .............. 310
18.4 - Segnali aleatori deterministici. ................................... 312
18.5 - Segnali dipendenti da una variabile aleatoria
monodimensionale ................................................................ 312
funzioni di probabilit del primo ordine. ............................. 312
funzioni di probabilit dordine superiore al primo. ........... 316
18.6 - Segnali dipendenti da un vettore aleatorio. ............... 318

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

18.7 - Segnali distinti. Funzioni di probabilit congiunte. . 321

CAPITOLO - 19
Valori Medi, Stazionariet ed Ergodicit

325
325

19.1 - Medie statistiche. ........................................................ 325


19.2 - Stazionariet. ............................................................... 329
19.3 - Medie temporali ed ergodicit. .................................. 332
19.4 - Ergodicit delle funzioni di probabilit del primo ordine.
................................................................................................. 336

CAPITOLO - 20
Segnali Gaussiani

341
341

20.1 - Variabili aleatorie congiuntamente gaussiane. ......... 341


20.2 - Funzione caratteristica di variabili aleatorie
congiuntamente gaussiane. .................................................. 341
20.3 - Densit di probabilit di ordine inferiore.................. 344
20.4 - Caratterizzazione degli elementi del vettore e della
matrice . ............................................................................... 345
20.5 - Segnali gaussiani. ....................................................... 346
20.6 - Distribuzioni singolari................................................ 347
20.7 - Densit di probabilit del secondo ordine e condizionali.
................................................................................................. 351
20.8 - Trasformazioni lineari di segnali gaussiani. ............. 353
20.9 - Statistica della somma di variabili aleatorie indipendenti.
................................................................................................. 356

CAPITOLO - 21
359
Caratterizzazione Energetica di Segnali a Tempo Continuo ....................
21.1 - Funzione di autocorrelazione. .................................... 359
la funzione di autocorrelazione normalizzata ...................... 362
la funzione di autocovarianza ............................................... 362
la funzione di autocovarianza normalizzata, o coefficiente di
autocorrelazione..................................................................... 362
21.2 - Densit spettrale di potenza. ...................................... 363
21.3 - Caratterizzazione dei segnali nel dominio della
frequenza. ............................................................................... 366
21.4 - Segnali ciclostazionari. ............................................... 371
21.5 - Segnali distinti. Funzioni di correlazione e densit
spettrale incrociate................................................................. 376

Introduzione

CAPITOLO - 22
381
Caratterizzazione Energetica di Segnali Aleatori a Tempo
Discreto
381
22.1 - Funzione di autocorrelazione..................................... 381
22.2 - Densit spettrale di potenza....................................... 383
22.3 - Caratterizzazione nel dominio della frequenza ........ 385

CAPITOLO - 23
Segnali Passabanda

389
389

23.1 - Il rumore bianco. ......................................................... 389


23.2 - -Rumore bianco passabasso. ..................................... 389
23.3 - -Rumore bianco passabanda...................................... 390
23.4 - Segnali aleatori passabasso. ....................................... 391
23.5 - Segnali aleatori passabanda. ...................................... 393
23.6 - Segnali gaussiani. ....................................................... 402
23.7 - Segnale gaussiano a banda stretta sovrapposto a un
segnale deterministico di tipo sinusoidale........................... 404

INTRODUZIONE
Una grandezza fisica, alla cui variazione in funzione di determinate variabili, quali, ad esempio, il tempo, le coordinate di un punto nel
piano o entrambe, associata una certa quantit di informazione, costituisce un segnale.
La tensione o la corrente all'ingresso di un biporta, la pressione
acustica incidente sulla membrana di un microfono, l'intensit di un'immagine in un punto di uno schermo o la successione temporale di immagini quali quelle che si ottengono in una ripresa televisiva, sono
esempi di segnali.
A seconda degli aspetti che interessa mettere in evidenza possibile classificare i segnali secondo criteri diversi.
Una prima classificazione di natura fenomenologica. Essa basata sul tipo d'evoluzione subita dal segnale in funzione delle variabili
indipendenti. Su questa base i segnali si distinguono in segnali determinati e segnali aleatori.
Limitandosi per il momento a considerare segnali che dipendono
esclusivamente dal tempo, un segnale si dice determinato quando i valori che esso assume in corrispondenza ad un qualsiasi istante sono conosciuti esattamente.
Per contro i segnali aleatori sono quelli il cui andamento temporale imprevedibile, anche se possibile determinarne alcune caratteristiche medie. Di conseguenza, mentre un segnale determinato perfettamente ripetibile, altrettanto non si pu dire per un segnale aleatorio
giacch, per la sua natura casuale, esso pu assumere forme diverse anche se viene osservato in esperimenti effettuati nelle medesime condizioni.
Da quanto detto discende che, mentre possibile rappresentare
un segnale determinato mediante una funzione (reale o complessa) di un
certo numero di variabili indipendenti, ci non pu essere fatto nel caso
di segnali aleatori, a meno che, una tale funzione, non venga costruita
sulla base di una manifestazione del segnale ottenuta a posteriori. Di
conseguenza mentre possibile affrontare lo studio dei segnali determinati utilizzando algoritmi matematici che presuppongono una rappresentazione analitica del segnale, nel caso di segnali aleatori si deve ricor-

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

rere a metodologie di analisi di tipo statistico quali quelle basate sulla


Teoria della Probabilit.
Una seconda classificazione dei segnali di natura morfologica.
Essa si basa sul carattere continuo o discreto dell'ampiezza del segnale o
dalle variabili da cui dipende la sua evoluzione.

Figura 1 - a) Segnale a tempo-continuo b) segnale a tempo discreto, c) segnale quantizzato, d) segnale numerico.

Facendo riferimento a segnali dipendenti soltanto dal tempo, si


possono distinguere i segnali continui nel tempo (segnali a tempo continuo) e i segnali discreti nel tempo (segnali a tempo discreto).
Nel primo caso la variabile pu assumere un qualsiasi valore
appartenente ad un assegnato intervallo di ampiezza finita o infinita (vedi Figura 1,a). Nel secondo caso la variabile indipendente definita in
un insieme al pi numerabile di valori { } con 1 < < +1 (vedi
Figura 1,b). Di norma gli istanti si succedono con regolarit cio si ha:
=
(i.1)
cosicch l'insieme { } completamente specificato individuando il periodo ed il campo di variabilit dell'indice .
Se infine l'ampiezza del segnale pu assumere un insieme finito o
al pi numerabile di valori { } con 1 +1 , il segnale si dice

Introduzione

discreto in ampiezza. Un segnale discreto in ampiezza pu essere ulteriormente classificato in segnale quantizzato (vedi Figura 1,c) e in segnale numerico (vedi Figura 1,d) se esso a tempo continuo o discreto.
Una terza classificazione di natura energetica.
A tale scopo si definisce energia specifica associata ad un segnale
rappresentato da una funzione definita su tutto l'asse dei tempi a valori
generalmente complessi, la quantit:

(i.2)

= |()|2

La precedente detta energia specifica in quanto essa rappresenterebbe l'energia effettivamente dissipata su una resistenza di valore unitario che venisse attraversata da una corrente ().
La potenza (media) specifica, in armonia con la (i.2), definita dal
limite:

(i.3)

1 2
= lim |()|2

2

Le definizioni di energia specifica e di potenza specifica appena


fornite per i segnali a tempo continuo possono essere facilmente estese
ai segnali a tempo discreto. In tal caso l'energia e la potenza specifica del
segnale sono rispettivamente definite dalle:

(i.4)

= |()|2
=

(i.5)

1
|()|2
2 + 1

= lim

Si noti che un segnale ad energia finita presenta una potenza specifica nulla; inoltre se la potenza specifica definita dalla (i.3) o dalla (i.5)
maggiore di zero, le quantit a secondo membro delle (i.2) e (i.4) non
sono finite.
Ci premesso, si definiscono segnali ad energia finita quei segnali
per cui lenergia specifica finita. Si dicono a potenza finita i segnali per
i quali finita e non nulla la potenza specifica.
Un'ulteriore classificazione di natura dimensionale. Essa basata sul numero di variabili indipendenti da cui il segnale dipende. Ad

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

esempio i segnali che dipendendo soltanto dal tempo sono monodimensionali, mentre una immagine fissa e una sequenza di immagini in bianco
e nero sono esempi di un segnale rispettivamente bi e tridimensionale.
Esempio 1
Si consideri il segnale
() = 20

la sua energia specifica vale:

= =

Viceversa la sua potenza specifica vale:


1 2 2
1
0 | = lim
|
= 1
2
2

= lim

() pertanto un segnale a potenza finita.


Esempio 2
Si consideri il segnale
() = ||

con costante.
A secondo del valore di , () pu essere classificato come segnale a energia o a potenza finita.
a) s(t) un segnale a energia finita se l'integrale:

= 2||

finito. Poich si ha:

= lim 2|| = lim { 2|| + 2|| }


1 2
= lim { 2 + 2 } = lim

0
0

il segnale a energia finita se > 0. In tal caso vale:


=

1
( > 0)

b) () un segnale a potenza finita se la quantit

1 2
1
= lim 2|| = lim
= lim

converge a un valore non nullo.

Introduzione

Il segnale a potenza finita se = 0. In tal caso


= 1;

( = 0)

b) Per < 0 il segnale non n a potenza n a energia finita.

CAPITOLO - 1
RICHIAMI DI MATEMATICA
1.1 - Premessa.
In questo capitolo si accenna brevemente, senza alcuna pretesa di
rigore, ai fondamenti dellintegrazione alla Lebesgue, alla teoria della misura degli insiemi, agli spazi vettoriali e alle forme quadratiche, con il solo scopo di porre laccento su alcuni aspetti che si ritengono importanti
per la comprensione di quanto esposto in questo testo, sia con riferimento alla parte concernente allanalisi dei segnali determinati, sia a
quella riguardante i segnali aleatori.
1.2 - Lintegrazione alla Lebesgue.
In quel che segue, richiamata lintegrazione alla Lebesgue. Essa
verr applicata inizialmente a delle funzioni elementari, per poi estenderla alla pi ampia classe delle cosiddette funzioni misurabili.
Si prenda in considerazione linsieme delle funzioni limitate definite su un intervallo chiuso e limitato A = [, ]. Per una qualsiasi funzione appartenente a detto insieme si ha in pratica:
() [, ]

(1.2.1)

essendo rispettivamente ed lestremo inferiore e lestremo superiore della funzione considerata.


Si consideri inoltre, nellinsieme anzidetto, il sottoinsieme costituito dalle funzioni a valori non negativi, tali che, comunque scelto
I = [, ] [, ], limmagine inversa di detto insieme secondo la funzione , cio linsieme 1 (I) dei punti A per cui risulta ()
, costituito dallunione di un numero finito di intervalli chiusi a due a
due disgiunti.
noto che per calcolare lintegrale di una funzione alla Riemann
sul suo dominio, si procede alla scomposizione di questultimo in un
certo numero dintervalli chiusi in esso contenuti, privi a due a due di
punti interni in comune e tali che la loro unione coincida con [, ]. Si
costruisce cos una partizione puntuale dellintervallo [, ]. A partire da

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

detta partizione, si generano le seguenti somme inferiori e superiori di


Darboux:

= ( 1 ) ;
=1

( = 0 < 1 <. . . . < = )

(1.2.2)

= ( 1 ) ;
=1

dove ed rappresentano rispettivamente lestremo inferiore e


lestremo superiore della funzione integranda nellintervallo [1 , ].
Com noto lintegrale cercato , se esiste, (per la particolare
classe di funzioni prese in esame esiste certamente) lelemento di separazione delle due classi { } e { }
ottenute in corrispondenza a tutte le
possibili partizioni puntuali.
Fig. 1.1
Volendo integrare la medesima funzione alla Lebesgue si scompone non gi lintervallo [, ], ma
lintervallo [, ] in intervalli del tipo, I =]1 , ]. Poich il generico 1 (I ) costituito da un numero finito dintervalli disgiunti contenuti in [, ], indicando con , la lunghezza del -esimo di tali intervalli, (vedi Fig. 1.1) si possono definire le quantit:

= 1 , ;
=1

=1

(m=y0 <y1 <<yN =M)

(1.2.3)

= , ;
=1

=1

E conseguentemente al variare delle possibili scelte degli I due classi { }


e { }
evidente che, comunque scelto un > 0, sempre possibile far
s che la misura del pi ampio degli I sia minore di cio che risulti:
max{ 1 , } < ,

Per le funzioni prese in esame, si avr:

(1.2.4)

CAPITOLO - 1 - Richiami di Matematica

= ( 1 ) , < ,
=1

=1

=1 =1

(1.2.5)

= ( )

Poich si pu facilmente verificare che le famiglie { }, { } sono


separate, cio che comunque scelto elemento di { } esso maggiore o
uguale di ogni elemento della classe { }, dalla (1.2.5) consegue che le
due classi sono sono contigue.
Si definisce integrale alla Lebesgue della funzione, lelemento di
separazione di dette classi.
facile convincersi che, per linsieme di funzioni considerate,
lintegrazione alla Lebesgue condurrebbe al medesimo risultato cui si sarebbe pervenuti integrando secondo Riemann.
La tecnica di integrazione alla Lebesgue appena introdotta, tuttavia pi generale di quella alla Riemann, nel senso che la classe delle
funzioni integrabili alla Lebesgue contiene quella delle funzioni integrabili in senso proprio alla Riemann.
La possibilit di ampliare linsieme delle funzioni integrabili se
condo Lebesgue discende dal fatto che la quantit =1
, , nella (1.2.3),
1
pu essere interpretata come misura dellinsieme (I ). Infatti essa
una somma di lunghezze di intervalli. Quindi indicando con ( 1 (I ))
la misura dellimmagine inversa di I le (1.2.3) si riscrivono in forma pi
compatta:

= 1 ( 1 (I )) ;
=1

= (

(1.2.6)
1

(I )) ;

=1

Da queste ultime si evince che, se si introducesse una misura per


una classe di insiemi numerici pi vasta di quella fino a ora implicitamente considerata, sarebbe conseguentemente possibile estendere a una
classe pi ampia di funzioni la tecnica di integrazione appena introdotta.
Il concetto di misura di un insieme interviene anche nello studio
della teoria della probabilit, su cui si fonda lanalisi dei segnali aleatori.
In tale contesto si considerano insiemi la cui natura non necessaria-

10

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

mente numerica. pertanto utile per i nostri scopi accennare al problema della misura dinsiemi in termini pi generali.
1.3 - Misura associata a una classe di insiemi.
Dato un generico insieme U, finito o infinito, sindividui in esso
una classe di suoi sottoinsiemi tale che:

(1.3.1)

Inoltre, se {A } una qualunque famiglia al pi numerabile di sottoinsiemi appartenenti ad deve risultare:


{AI } A
I

(1.3.2)

Dove con I indichiamo linsieme (al pi numerabile) cui appartengono gli indici utilizzati per gli insiemi della famiglia.
Innanzi tutto si osservi che le (1.3.1), (1.3.2) implicano che U ,
e ad deve appartenere anche linsieme vuoto. Inoltre si verifica facilmente che anche lintersezione di una famiglia al pi numerabile di sottoinsiemi appartenenti ad , deve appartenere ad .
Data una generica famiglia di sottoinsiemi di U, da essa si pu
sempre ottenere, aggiungendovi degli ulteriori sottoinsiemi di U, opportunamente scelti, una classe del tipo definito dalle (1.3.1), (1.3.2), che
contiene , e viene chiamata classe minima generata dalla famiglia .
Ad esempio dato un insieme A e la famiglia contenente soltanto
linsieme B A la classe minima verificante le (1.3.1), (1.3.2), generata da
la seguente:
= {,B,A B,A}

(1.3.3)

Si dice che una classe non vuota che gode delle propriet anzidette una -algebra.
In altri termini, una famiglia non vuota di sottoinsiemi di U una
-algebra se chiusa rispetto a qualsiasi operazione elementare (unione,
intersezione complementazione) tra insiemi in essa contenuti, cio se il
risultato di una tale operazione da luogo ad un insieme che appartiene
alla famiglia anche se gli insiemi su cui si opera sono uninfinit numerabile.
Dato un insieme U ed una -algebra di suoi sottoinsiemi, si dice
che al generico insieme A di detta classe si associata una misura
(A), ovvero che A misurabile, se si individuata unapplicazione, de-

CAPITOLO - 1 - Richiami di Matematica -

11

finita su , a valori in + {+}, che per ogni famiglia {AI } al


pi numerabile, tale che I A A = , soddisfa la propriet:
( A ) = ( )
I

(1.3.4)

Dalle (1.3.1), (1.3.2) e dalla precedente derivano le seguenti considerazioni di carattere generale:
- qualunque sia la misura introdotta, linsieme U misurabile in quanto appartiene alla classe ; la sua misura pu eventualmente essere
infinita;
- linsieme vuoto appartiene a ; esso quindi misurabile ed ha misura nulla, se in esiste almeno un insieme non vuoto di misura diversa da zero;
- se A, B e A B si ha certamente (A) (B).
1.4 - -Algebra di Borel
Si prenda in considerazione linsieme dei numeri reali e quello
contenente tutte le semirette di origine destra chiuse ], ] in esso
contenute, la classe minima che contiene detto insieme prende il nome
di -algebra di Borel o classe di Borel e gli insiemi in essa contenuti vengono
detti Borelliani. A detta classe appartengono anche tutti i sottoinsiemi di
generabili mediante operazioni di intersezione, unione e complementazione su un numero finito o al pi su uninfinit numerabile
dintervalli chiusi o aperti, limitati e non.
Si indotti a pensare che tale classe coincida con quella costituita
da tutti i possibili sottoinsiemi di . Ci non vero in quanto si possono
costruire insiemi, particolarmente astrusi, non ottenibili nel modo anzidetto. Tali insiemi, non appartenendo alla classe appena individuata,
non sono misurabili, ma non rivestono alcun interesse nelle applicazioni
pratiche.
1.5 - La misura di Lebesgue su
Sulla classe di Borel appena introdotta si possono definire misure
diverse. La pi importante la cosiddetta misura di Lebesgue, che costituisce una generalizzazione di quella normalmente associata ai segmenti.
Secondo Lebesgue, si assume come misura di un generico intervallo aperto e limitato I =], [ il suo diametro, cio si pone (I) =
.

12

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

facile dedurre che, coerentemente con la (1.3.4), la misura da


associare a un insieme costituito da un punto isolato deve essere nulla.
Basta infatti osservare che dalla:
< < ], [=], [], [ {}

(1.5.1)

(], [) (], [) (], [) = ({}) = 0

(1.5.2)

discende:
Dalle precedenti discende che un intervallo chiuso e limitato ha misura
uguale al suo corrispondente aperto.
Inoltre si pu verificare facilmente che:
- la misura di un insieme finito o numerabile di punti nulla;1
-

un insieme aperto misurabile, in quanto costituito da ununione al


pi numerabile di intervalli aperti a due a due disgiunti; la sua misura
pu ovviamente non essere finita;
un insieme chiuso misurabile, in quanto tale il suo complementare che un aperto.

1.6 - La misura di Lebesgue su


La misura di Lebesgue appena introdotta per la classe di Borel
pu essere facilmente estesa allanaloga classe di sottoinsiemi di . Indicando con = (1 , 2 , , ) il generico punto di e intendendo
come misura di un generico intervallo aperto e limitato:
I, = { | 1 < 1 < 1 , 2 < 2 < 2 , , < < }

(1.6.1)

la quantit:

(I, ) = ( )

(1.6.2)

=1

convenendo che se almeno uno dei fattori della produttoria (1.6.2)


nullo, indipendentemente dal fatto che un qualsiasi altro fattore di essa
possa risultare infinito, si deve assumere (I, ) = 0.

opportuno osservare che anche possibile costruire insiemi di misura nulla che hanno la potenza del continuo.

CAPITOLO - 1 - Richiami di Matematica -

13

1.7 - Funzioni integrabili alla Lebesgue e relative propriet.


Allo scopo di estendere la classe delle funzioni integrabili alla Lebesgue utile fornire la seguente definizione:
Definizione 1.1 (funzioni misurabili)
Una funzione definita su un insieme a valori in si dice misurabile se per ogni , detto I =] , ], il sottoinsieme 1 (I ) di , eventualmente vuoto, misurabile essendo la sua misura non necessariamente finita.
************
Prendendo momentaneamente in esame soltanto funzioni misurabili non negative, appare evidente che, se una tale funzione misurabile in un certo insieme A , allora per essa si possono scrivere le
somme inferiori e superiori di Lebesgue definite dalla (1.2.6), essendo
misurabili gli insiemi, 1 (] , +1 ]), che compaiono in dette somme.
Lintegrale alla Lebesgue di una funzione misurabile non negativa
:A esteso a un generico sottoinsieme misurabile di A , se
esiste finito, lelemento di separazione delle classi { }, { }.
Nel caso in cui la funzione :A assuma anche valori
negativi, detto A1 il sottoinsieme di A in cui la funzione non negativa e
A2 il suo complementare rispetto ad A, lintegrale alla Lebesgue della
funzione definito come segue:
() = () |()|
A

A1

A2

(1.7.1)

Si noti che nella (1.7.1), la variabile indipendente eventualmente intesa


come multidimensionale.
La necessit della definizione (1.7.1) legata al fatto che in generale, non detto n che la funzione () si mantenga limitata in A, n
che la misura di A sia finita. In sostanza, quindi, non detto che
lintegrale sia proprio nel senso di Riemann, ovviamente, affinch la
funzione sia integrabile con integrale finito, entrambi gli addendi a secondo membro della (1.7.1) devono essere finiti.
A chiarimento della (1.7.1) si consideri il seguente esempio.

14

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Esempio 1.1
Sia data la funzione:
0;
<0
() = {(1)
; 0
+ 1

rappresentata in Fig.E 1.1. ( indica il pi


grande intero ). Essa si pu pensare come
somma di una infinit numerabile di funzioni
del tipo:

Fig.E 1.1

(1)
() = { + 1 ; < + 1
0 ;
altrove

ciascuna delle quali integrabile con integrale =

(1)
+1

. Lintegrale della

funzione sul suo dominio , se esiste, in virt della linearit


dellintegrazione, dato dalla somma degli integrali .
In sostanza quindi si indotti a scrivere:

= () =

=0

a patto che la sommatoria che compare nella precedente conduca allo stesso
risultato indipendentemente dallordine seguito per calcolarla.
Si osservi che:

=
=0

=0

(1)
+1

intesa come serie, converge a log2. Tuttavia altrettanto legittimo procedere


al calcolo della stessa somma come segue:

= (2+1 + 4 + 2+2 )
=0

=0

in quanto al variare dellindice , vengono comunque considerati tutti gli


addendi che compaiono nel calcolo di .
Esplicitando il generico addendo di tale somma, si ottiene:
1

1
1
1
1
1
2+1 + 4 + 2+2 = 4+3
+

> 4+4+4+4

=0
4+1 2+2
2+2

pertanto la =0(2+1 + 4 + 4+2 ), intesa come serie, a termini positivi.


Essa anche convergente, come si deduce facilmente osservando che la successione cui essa associata tende a 0 come 12 . La sua somma quindi

CAPITOLO - 1 - Richiami di Matematica -

15

superiore a una qualunque sua ridotta ed in particolare anche a quella di or5

dine 0 che vale > log2.


6

Si conclude pertanto che lintegrale alla Lebesgue della funzione considerata non esiste.
Daltro canto ci si rende facilmente conto che la funzione in questione
non soddisfa la condizione (1.7.1). Il problema non si sarebbe posto se la serie
=0 fosse stata assolutamente convergente. Condizione questa che,
come noto, occorre e basta per assicurare la convergenza alla stesso limite
della serie indipendentemente dallordine seguito per sommarla.
La condizione di assoluta convergenza equivale a quella che entrambe le
serie dei termini positivi e negativi, estratte dalla serie originaria, siano convergenti.
altrettanto interessante osservare che lintegrale della stessa funzione
alla Riemann esiste e vale log2, in quanto lintegrale improprio alla Riemann, come noto, definito come segue:

() = lim ()
0

e quindi lordine da seguire nel calcolo della somma di cui sopra chiaramente definito.
Un altro esempio di funzione integrabile secondo Riemann, ma non integrabile secondo Lebesgue la funzione

sin

che ricorrer molto spesso in

questo testo.

In generale si pu affermare che ogni funzione integrabile secondo Riemann, in senso proprio, certamente integrabile secondo Lebesgue, e che seguendo le due procedure si perviene al medesimo risultato, come pure si perviene allo stesso risultato in tutti i casi in cui si ha
a che fare con funzioni che siano assolutamente integrabili secondo
Riemann anche non in senso proprio.
A titolo di esempio si consideri la funzione di Dirichlet:
0;
[0,1];
() = {
1; ( ) [0,1];

(1.7.2)

questa funzione non integrabile alla Riemann. Essa risulta invece integrabile alla Lebesgue e lintegrale esteso al suo dominio vale 1, come si
verifica facilmente visto che linsieme dei numeri razionali, in quanto
numerabile, ha misura nulla, e quindi anche i suoi sottoinsiemi hanno
misura nulla.

16

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Una funzione a valori complessi si dir integrabile alla Lebesgue


se tali risultano la sua parte reale e la sua parte immaginaria.
Due funzioni misurabili, definite sullo stesso insieme misurabile
E, si dicono uguali quasi ovunque (q.o.), se il sottoinsieme di E in cui esse assumono valori diversi ha misura nulla.
Due funzioni definite su uno stesso insieme che risultino quasi
ovunque uguali hanno lo stesso integrale alla Lebesgue.
Una funzione si dice sommabile su un insieme E, o anche che appartiene a (E) se risulta:
|()| <
E

(1.7.3)

Si pu mostrare che la sommabilit su un insieme condizione


necessaria e sufficiente affinch sullo stesso insieme la funzione sia integrabile con integrale finito.
Se la funzione () sommabile su E, e se su E q.o. |()|
|()| anche () sommabile su E.
Per una funzione integrabile reale o complessa vale la disuguaglianza:
| () | |()|

(1.7.4)

1.8 - Funzioni a quadrato sommabile


In generale si dice che una funzione () (E) con se
risulta:
|()| <
E

(1.8.1)

Se la precedente vale per = 2, si dice che la funzione a quadrato sommabile su E.


Siano 1 (), 2 () due funzioni generalmente complesse appartenenti a 2 (E). In ogni punto di detto insieme risulta |1 () 2 ()|2
0 che implica 1 ()2 () + 2 ()1 () |1 ()|2 + |2 ()|2 . Si ha quindi:

CAPITOLO - 1 - Richiami di Matematica -

17

|1 () + 2 ()|2
= |1 ()|2 + |2 ()|2 + 1 ()2 () + 2 ()1 ()

(1.8.2)

2(|1 ()|2 + |2 ()|2 )

Lultimo membro della (1.8.2) sommabile su E, tale deve quindi essere


anche il primo membro. Integrando termine a termine si ottiene:
|1 () + 2 ()|2 2 (|1 ()|2 + |2 ()|2 ) <
E

(1.8.3)

Questultimo risultato consente di affermare che la somma di due funzioni a quadrato sommabile ancora una funzione a quadrato sommabile.
Pi in generale la combinazione lineare di funzioni a quadrato
sommabile ancora una funzione a quadrato sommabile.
Se (), () sono due funzioni a quadrato sommabile su uno
stesso insieme, la funzione prodotto sommabile e vale la disuguaglianza
di Schwarz.
2

1
2

|()()| ( |()| ) (|()| )

1
2

(1.8.4)

La precedente banalmente verificata se almeno una delle due funzioni


quasi ovunque nulla.
Premesso che, se , sono due reali non negativi, da ( )2
0 segue

2
2

2
2

. Se nessuna delle due funzioni nulla q.o., si pu

porre:
=

|()|
( |()|2 )

1
2

|()|
1

( |()|2 )2

(1.8.5)

quindi vale la disuguaglianza:


|()()|
1

( |()|2 )2 ( |()|2 )2
|()|2
|()|2

+
2 E |()|2 2 E |()|2

che integrata membro a membro su E conduce alla (1.8.4).

(1.8.6)

18

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Nel caso in cui quasi ovunque risulti () = (), ( ) si verifica facilmente che la (1.8.4) vale come uguaglianza.
Per le funzioni sommabili vale inoltre il seguente teorema
II Teorema di Lebesgue2:
Sia { ()}
=1 una successione di funzioni sommabili su di un insieme misurabile che converge q.o. ad una funzione ().
Se esiste una () sommabile su , tale che risulti | ()| (),
allora:
- () sommabile su ;
- si ha:
lim () = lim () = ()

(1.8.7)

***********
Il teorema appena enunciato di particolare importanza perch
fornisce delle condizioni sotto le quali certamente consentito invertire
il passaggio al limite con l'integrazione.

1.9 - Spazi metrici.


Si dice che su un generico insieme A si indotta una metrica, se
su di esso si definita unapplicazione che a ogni elemento (, ) di
A A associa un numero reale non negativo, indicato con (, ), che
soddisfa le propriet:
) (, ) = (, );
{ ) (, ) = 0 = ;
) (, ) (, ) + (, );

, , A

(1.9.1)

Si osservi che il concetto di metrica, in sostanza, costituisce una


generalizzazione di quello geometrico di distanza tra punti di uno spazio
euclideo. La (1.9.1)c detta disuguaglianza triangolare per la sua ovvia
interpretazione geometrica.
Se all'insieme A si associa una metrica, sindividua uno spazio metrico. Si osservi che metriche diverse definite su uno stesso insieme individuano spazi metrici diversi.

Per la dimostrazione vedi F.G. Tricomi: Istituzioni di analisi superiore, pag. 94 e sgg, Edizio
ni CEDAM Padova 1964.

CAPITOLO - 1 - Richiami di Matematica -

19

importante osservare che l'avere associato a un insieme una


metrica comporta la possibilit di generalizzare concetti quale quello di
limite e di continuit.
Ad esempio se si considera una successione di elementi di un
insieme X dotato di metrica, si dice che detta successione converge, rispetto alla metrica , a un elemento X se, comunque scelto un reale
positivo , esiste in corrispondenza ad esso un indice dal quale in poi
si ha:
( , ) < ;

(1.9.2)

noto che, per le successioni di numeri reali, una condizione necessaria e sufficiente alla convergenza data dal teorema di Cauchy.
Detto teorema non in generale esportabile al caso di uno spazio
metrico. Non , infatti, detto che una successione di Cauchy di elementi
dello spazio metrico sia convergente, non fosse altro in quanto a priori
non detto che il limite della successione appartenga allo spazio in cui la
successione stata definita.
Esempio 1.2
Si consideri l'insieme delle funzioni appartenenti a () a cui si associa la metrica

(1 , 2 ) = |1 () 2 ()|

In detto insieme si consideri il sottoinsieme


A delle funzioni continue. In [1,1] si consideri la successione il cui generico elemento (vedi Fig.E 1.2) vale:
Fig.E 1.2

|| < 1

1;
() =

(1 ||); 1
{ 0;

1
;
|| 1

|| > 1
1

Detta successione di Cauchy. Infatti > 0, > > risulta:

( , ) = | () ()| = () () =

1 1
<

Tale successione non tuttavia convergente in A. Infatti essa in () con

verge alla funzione ( ) dove:


2

20

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

() = {

1;
0;

1
2;
1
|| >
2
||

Infatti per > 0, > implica:

1
( (), ( )) = ( ) () = <
2
2

La funzione

(2) non continua quindi non appartiene all'insieme A

che quindi non completo rispetto alla metrica considerata.

1.10 - Spazi vettoriali.


Sia dato un insieme X, i cui elementi vengono denominati vettori.
Si dice che X ha la struttura di spazio vettoriale se:
un gruppo commutativo rispetto a una legge di composizione interna,
che verr indicata con il simbolo +;
esiste un campo , i cui elementi sono detti scalari, e una legge di composizione detta prodotto per scalari che soddisfa le propriet:
) , X X;
) 1 , 2 , X 1 (2 ) = (1 2 );
) 1 , 2 , X (1 + 2 ) = 1 + 2 ;
) 1 , 2 X, (1 + 2 ) = 1 + 2 ;
{) X 1 = ; 0 = ;

(1.10.1)

Dove , detto vettore nullo o origine, indica l'elemento neutro rispetto


alla legge di composizione interna definita su X; 1 e 0 indicano rispettivamente l'elemento neutro rispetto al prodotto e rispetto alla somma nel
campo .
Si ricorda che un insieme X ha la struttura di gruppo commutativo rispetto a una data legge di composizione interna se, comunque scelti
due suoi elementi, si ha:
) 1 + 2 = 2 + 1 X;
) 1 + (2 + 3 ) = (1 + 2 ) + 3 ;
{
) X | X + = ;
) ()| + () = ;

(1.10.2)

In quel che segue il campo si identificher, salvo avviso contrario, con il campo dei numeri complessi.

CAPITOLO - 1 - Richiami di Matematica -

21

1.11 - Spazi normati.


Sia dato uno spazio vettoriale X si dice che esso normato, se si
individuata una applicazione, denotata con , definita su X a valori
nell'insieme + dei reali non negativi che , X soddisfa le propriet:
) 0, = 0 = ;
{ ) = ||;
) + + ;

(1.11.1)

Si osservi che uno spazio normato implicitamente anche uno


spazio metrico in quanto si pu assumere come distanza tra due elementi di esso la norma dell'elemento differenza cio:
(, ) = ;

(1.11.2)

Uno spazio normato si dice completo, o anche spazio di Banach,


se comunque scelta una successione di Cauchy di suoi elementi, essa
converge a un elemento dello spazio, o, che lo stesso, se in detto spazio la condizione di Cauchy necessaria e sufficiente alla convergenza di
una successione di suoi elementi.
1.12 - Forme bilineari, quadratiche, hermitiane.
Una polinomio a valori complessi nelle 2 variabili generalmente
complesse 1 , 2 , , , 1 , 2 , , del tipo:

(1 , 2 , , , 1 , 2 , , ) =

(1.12.1)

=1 =1

viene chiamata forma bilineare.


Introducendo i vettori:
1
=[]

1
= [ ];

(1.12.2)

e la matrice a coefficienti generalmente complessi


11
21
=[
1

12
22

1
2
]

la (1.12.1) si pu riscrivere nella seguente forma matriciale:

(1.12.3)

22

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

(, ) =

(1.12.4)

Per forma quadratica nelle variabili complesse 1 , 2 si intende un polinomio omogeneo del tipo:

1
() = = = ( + )
2

=1 =1

(1.12.5)

=1 =1

Dall'ultimo membro della precedente si evince che ad una forma


quadratica si pu sempre associare una e una sola matrice simmetrica. Se
detta matrice reale e se la () una forma quadratica reale.
Data una matrice hermitiana, cio tale che risulti:
= , = 1,2, ,

(1.12.6)

e definito secondo la (1.12.2) il polinomio:

() =

(1.12.7)

=1 =1

nelle variabili complesse 1 , 2 una forma hermitiana.


Indicato con il trasposto coniugato del vettore , la () si
pu porre nella forma matriciale: () = A.
Per una forma hermitiana () si ha:

() =

= = ()

=1 =1

(1.12.8)

=1 =1

essa assume quindi valori reali per ogni appartenente a .


ponendo:
= +

(1.12.9)

con e matrici reali e analogamente:


= + , = 1,2

(1.12.10)

la forma hermitiana () diventa:


() = ( )( + )( + )
= ( + + ) +
( + + )

(1.12.11)

CAPITOLO - 1 - Richiami di Matematica -

23

Poich, tenendo conto della (1.12.8), e valendo la condizione


(1.12.6) sussistono le uguaglianze:
= ; =

(1.12.12)

da cui discendono le ulteriori identit:


+ = ( ) +
= ( ) + = + = 2 ;
= ( )
=

(1.12.13)

) = = 0;

{ = ( ) = = 0;

la () si pu anche riscrivere:
() = + + 2


= [ ] [
][ ]

(1.12.14)

Una forma hermitiana pu quindi essere rappresentata anche da


una forma quadratica nelle 2 variabili reali 1 , 2 ; 1 , 2 .
1.13 - Riduzione di una forma hermitiana a forma canonica.
Si consideri una forma hermitiana () nelle variabili 1 , 2 , , .
Data una matrice di ordine non singolare, esiste una unica upla 1 , 2 , , che soddisfa il sistema:
=

(1.13.1)

La forma () riferita a si muta nella:


() = () () = = = ()

(1.13.2)

in cui si posto:
=

(1.13.3)

() una forma hermitiana in poich risulta:

= ( ) = = =

(1.13.4)

hermitiana.

Per autovettore associato ad una matrice quadrata di ordine si


intende una soluzione non banale del sistema di equazioni dipendente
dal parametro :

24

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

( ) = 0

(1.13.5)

Poich il sistema omogeneo, esso ammette soluzioni non banali solo


se nullo il determinante della matrice dei coefficienti. L'imposizione di
tale condizione conduce a una equazione polinomiale di grado nell'incognita . Detta equazione ammette al pi soluzioni distinte, dette autovalori della matrice.
Ogni vettore non banale che soddisfa l'equazione:
=

(1.13.6)

cio alla (1.13.5) scritta per l'autovalore , chiamato autovettore associato all'autovalore considerato.
Ci si convince facilmente del fatto che se un autovettore di
, tale anche un qualunque vettore = dove un complesso
1

qualsiasi. In particolare ponendo =

( )

si ottiene un autovet-

tore che soddisfa la condizione di normalizzazione


= 1

(1.13.7)

e viene quindi chiamato autoversore della matrice.


Si osservi che gli autovalori di una matrice hermitiana sono reali. Infatti premoltimplicando ambo i membri della (1.13.6) per si ha:
= = .

(1.13.8)

Ricordando che in virt della (1.12.8) una forma hermitiana assume solo
valori reali e poich , come si verifica facilmente, reale, deve essere necessariamente reale.
Si pu anche mostrare che autovettori , , associati a una matrice hermitiana , relativi a due autovalori distinti , , sono mutuamente ortogonali, cio soddisfano luguaglianza:
= 0

(1.13.9)

Infatti, in virt della (1.13.6) e della appartenenza ad degli autovalori, si pu scrivere:


= = = ( ) =
= ( ) = ( ) = =

(1.13.10)

CAPITOLO - 1 - Richiami di Matematica -

25

Essendo per ipotesi dalla precedente discende la (1.13.9).


In quel che segue si ipotizza per semplicit che tutti gli autovalori
della matrice hermitiana abbiano molteplicit 1, o che lo stesso, che
il suo polinomio caratteristico ammette radici distinte.
Si vuole provare che, mediante una trasformazione del tipo
(1.13.3), possibile individuare un riferimento rispetto al quale la forma
hermitiana si presenta in forma diagonale3.
A tal fine si consideri la matrice degli autovettori normalizzati
di :
= [1

1
= [ ] [1

] =

(1.13.11)

Risulta:
(1.13.12)

da cui immediatamente si evince che = 1 e che ha determinante


unitario.
Sostituendo la matrice appena introdotta nella (1.13.3) si ottiene:
1

= 2 [1 , 2 , , ]

[ ]

1 1

= 2 1

[ 1

1 2

2 2

(1.13.13)

che, ricordando le (1.13.6), (1.13.7) e la (1.13.9) diventa:


1 1 1
=
[

2 2 2

(1.13.14)

= diag(1 , 2 , , )
3

Si noti che la diagonalizzazione di una forma hermitiana possibile anche nel caso in cui gli
autovalori non abbiano tutti molteplicit 1

26

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Per effetto di tale trasformazione quindi la forma hermitiana si riscrive:

() =

(1.13.15)

=1

Si osservi che, il determinante di uguale al determinante di ,


che a sua volta dato da =1 . Se ne conclude che una matrice hermitiana ha determinante reale.

1.14 - Forme hermitiane semidefinite positive.


Una forma hermitiana si dice semidefinita positiva se per ogni risulta:
() 0

(1.14.1)

Se risulta () = 0 solo per = la forma si dice definita positiva.


Se una forma hermitiana semidefinita positiva ovviamente tale
anche la sua forma equivalente (). In particolare ci comporta:
1 0,2 0, , 0

(1.14.2)

quindi deve anche essere:


det() 0

(1.14.3)

Ci si convince facilmente che attribuendo valore zero a variabili di una forma hermitiana semidefinita positiva si ottiene ancora
una forma hermitiana semidefinita positiva nelle variabili non nulle.
Assumendo, senza per questo ledere la generalit, che le variabili non
necessariamente nulle siano le prime , si deduce che la condizione di
semidefinitezza positiva comporta anche:
11

11
0; |
21

11
21
12
22 | 0; |
1

12
22

1
2
| 0;

(1.14.4)

Cio i determinanti dei minori principali della matrice di una forma


hermitiana semidefinita positiva non possono essere negativi.
Si pu dimostrare che tale condizione anche sufficiente affinch
la forma sia semidefinita positiva.
Esempio 1.3
La forma

CAPITOLO - 1 - Richiami di Matematica -

27

() = (4 + 5)1 1 + 1 2 + 1 2 + ( + 2)2 2

una forma hermitiana nelle variabili = [1 2 ] dipendente dal parametro , in quanto la matrice ad essa associata, essendo reale simmetrica
soddisfa la (1.12.6).
Per studiarne la natura, occorre prendere in considerazione la matrice ad
essa associata
4 + 5
1
=[
]
1
+2

il cui determinate vale:


() = (4 + 5)( + 2) 1 = 4 2 + 13 + 9

Esso si annulla in corrispondenza dei valori di dati dalle:


13 132 16 9 13 5
=
= 1
8
8
2
13 + 13 16 9 13 + 5
9
2 =
=
=
8
8
4
{
1 =

Poich risulta:
det() 0 per

9
1
4

e anche
4 + 5 0 per

5
4

la forma hermitiana semidefinita positiva solo se:


1

1.15 - Prodotto scalare.


Lo spazio vettoriale X sul campo dei numeri complessi si pu
dotare di prodotto scalare, se possibile definire una applicazione, qui
indicata con la notazione , , di X X su che soddisfa le seguenti
propriet:
) , = , ;
) , 0; , = 0 = ;
) , = , = , ;
{) ( + ), = , + , ;

(1.15.1)

Si noti che la propriet (1.15.1)a, implica che la quantit a primo


membro della (1.15.1)b deve essere reale. Tale osservazione consente di
dedurre dai primi due l'ultimo membro della (1.15.1)c.

28

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La propriet (1.15.1)c si riassume dicendo che il prodotto scalare


lineare a sinistra ed antilineare a destra.
Detti 1 , 2 due elementi di X e 1 , 2 due complessi, si ha:
0 1 1 + 2 2 , 1 1 + 2 2
= 1 1 , 1 1 + 2 2 + 2 2 , 1 1 + 2 2

(1.15.2)

e per la propriet (1.15.1)a:


0 1 1 1 + 2 2 , 1 + 2 1 1 + 2 2 , 2
= 1 , 1 1 1 + 2 , 1 1 2 + 1 , 2 1 2
+ 2 , 2 2 2
=

1 , 1 1 1

(1.15.3)

1 , 2 1 2

+ 1 , 2

1 2

+ 2 , 2 2 2

Ci significa che la forma hermitiana


(1 , 2 ) = 11 1 1 + 12 1 2 + 21 1 2 + 22 2 2

(1.15.4)

dove:
11 = 1 , 1
21 = 1 , 2

12 = 1 , 2
22 = 2 , 2

(1.15.5)

semidefinita positiva. Pertanto deve essere 11 22 12 21 0.


Tenendo conto delle (1.15.5), si deduce che vale la disuguaglianza
di Schwarz:
1

|1 , 2 | 1 , 1 2 2 , 2 2

(1.15.6)

Che verificata come uguaglianza quando, in accordo con la


propriet (1.15.1)b, si ha 1 = e/o 2 = , ovvero se risulta:
1 = 2

(1.15.7)

dove .
Se uno spazio dotato di prodotto scalare esso implicitamente
anche uno spazio normato nel senso che la quantit , una possibile norma per X. Essa infatti una quantit reale e non negativa; inoltre
risulta:
, = , = , = ||2 ,

e quindi

(1.15.8)

CAPITOLO - 1 - Richiami di Matematica 1


2

, = ||,

29

1
2

(1.15.9)

il che significa che la propriet (1.11.1)b della norma verificata.


In base alla propriet (1.15.1)c si ottiene facilmente:
(1 + 2 ), (1 + 2 ) = 1 , 1 + 2Re[1 , 2 ] + 2 , 2

(1.15.10)

dalla quale applicando la disuguaglianza di Schwarz si deduce:


1

1 + 2 , 1 + 2 2 (1 , 1 + 2|1 , 2 | + 2 , 2 )2
1

(1 , 1 + 21 , 1 2 2 , 2 2 + 2 , 2 )
1

1
2

(1.15.11)

= 1 , 1 2 + 2 , 2 2

che corrisponde alla propriet (1.11.1)c della norma.


In definitiva se X dotato di prodotto scalare a esso si pu anche
associare la norma cos definita:
1

= , 2

(1.15.12)

Se due vettori 1 e 2 sono tali che il loro prodotto scalare si annulla si dicono ortogonali. Se essi hanno anche norma unitaria cio se:
1 , 2 = 0 1 = 2 = 1

(1.15.13)

si dicono ortonormali.
Uno spazio vettoriale dotato di prodotto scalare, anche uno
spazio metrico. Infatti possibile assumere come distanza tra due elementi qualsiasi dello spazio la quantit:
( , ) = = ,

(1.15.14)

Con ci non si intende dire che non possibile definire su uno


spazio dotato di prodotto scalare altre metriche o altre norme, ma semplicemente che, se si definisce su uno spazio un prodotto scalare, a esso
naturalmente si associano la metrica e la norma da esso indotte e con esso coerenti.
Uno spazio vettoriale dotato di prodotto scalare che sia anche
completo detto spazio di Hilbert.

30

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

1.16 - Vettori linearmente indipendenti.


Sia dato uno spazio vettoriale X sul campo , si considerino
suoi vettori (1 , 2 , , ) e una -upla di complessi (1 , 2 , , ) e sia
il vettore di X ottenuto combinando linearmente i vettori anzidetti a
mezzo della -upla di costanti. In simboli:

(1.16.1)

=1

se risulta:

= = | | = 0
=1

(1.16.2)

=1

cio se l'unica -upla di scalari (1 , 2 , , ) che porta nell'origine dello


spazio quella i cui elementi sono tutti nulli, si dice che i vettori
(1 , 2 , , ) sono linearmente indipendenti.
Si verifica facilmente che il sottoinsieme di X generato da tutte le
possibili combinazioni lineari di vettori a sua volta uno spazio vettoriale, generalmente un sottospazio, non necessariamente proprio, di X.
Se gli vettori sono linearmente indipendenti, e se lo spazio da
essi generato coincide con X, si dice che gli vettori sono una base per
X.
Inoltre facile convincersi del fatto che se vettori sono una base per lo spazio vettoriale X e ad essi si aggiunge un ulteriore vettore gli
+ 1 vettori cos ottenuti sono linearmente dipendenti. Inoltre se vettori linearmente indipendenti generano X comunque presa un'altra upla di vettori linearmente indipendenti di X anche essa gener X. Ci significa che il parametro caratteristico dello spazio vettoriale considerato e ne individua la dimensione.
opportuno osservare che uno spazio vettoriale non deve necessariamente avere dimensione finita; in questo caso si dice che lo spazio
ha dimensione infinita.
Dato uno spazio vettoriale X di dimensione , finita o infinita,
< vettori linearmente indipendenti di detto spazio generano uno
spazio vettoriale di dimensione contenuto propriamente in X.
Si osservi che scegliere una base per uno spazio vettoriale X di
dimensione equivale a definire una corrispondenza biunivoca tra i vet-

CAPITOLO - 1 - Richiami di Matematica -

31

tori dello spazio e tutte le possibili -uple ordinate (1 , 2 , , ) di


numeri complessi cio tra il generico vettore di X e il generico punto di
che a sua volta uno spazio vettoriale. Il generico elemento di tale
-upla la componente -esima del vettore rispetto alla base prescelta. Il
vettore il componente -esimo rispetto alla predetta base.

CAPITOLO - 2
RAPPRESENTAZIONE VETTORIALE DEI SEGNALI
2.1 - Premessa.
Un segnale a tempo continuo pu essere identificato mediante
una funzione generalmente complessa di variabili reali definita in
D .
In quel che segue, si considerano prevalentemente segnali dipendenti da una sola variabile che generalmente il tempo. Essi sono quindi
rappresentati da funzioni del tipo:
: T

(2.1.1)

Il primo passo nell'analisi di un segnale consiste nella sua classificazione, che si effettua sulla base delle propriet di cui gode. Ci equivale a considerare il segnale come appartenente a una data classe o insieme. Se S denota un tale insieme e () un suo elemento, si scrive:
() S

(2.1.2)

Esempi di tali insiemi sono:


l'insieme S dei segnali sinusoidali, definito dalla seguente regola di
appartenenza:
() S () = 0 Re[ (2+) ];

(0 ,0, , )

l'insieme S dei segnali periodici che obbedisce alla:


() S > 0 | () = ( + )

(2.1.4)

l'insieme dei segnali a durata limitata cosi definiti:


() S 1 2 | () = 0 [1 , 2 ]

(2.1.3)

(2.1.5)

L'insieme dei segnali a banda limitata cio quelli per cui si ha:

() S 1 2 | () 2 = 0,

| || [1 , 2 ]

(2.1.6)

34

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

evidente che se si riesce ad associare a un dato insieme di segnali una struttura algebrica, si possono meglio evidenziare particolari
caratteristiche degli elementi che lo compongono. Ad esempio se su un
dato insieme si definisce una metrica diventa possibile associare una distanza a ogni coppia di suoi elementi.
L'individuazione di una struttura algebrica pi complessa, su un
dato insieme di segnali, come ad esempio quella di spazio vettoriale,
permette di utilizzare gli strumenti propri dell'Algebra lineare. Ad esempio, lo sviluppo di un segnale in termini di unopportuna base dello spazio, permetterebbe di rappresentare il segnale mediante una sequenza al
pi numerabile di coefficienti. Tale tipo di rappresentazione ha come
immediata conseguenza una notevole semplificazione nell'applicazione
di tecniche numeriche all'analisi dei segnali. Inoltre, la struttura di spazio
vettoriale rende alcune propriet evidenti e intuitivamente accettabili, in
quanto si presta a semplici analogie di tipo geometrico. Dette analogie
risultano inoltre particolarmente efficaci nell'approccio a molti problemi,
la cui soluzione, affrontata per via puramente analitica, risulterebbe oltremodo complessa.
Una classe di segnali di particolare interesse costituita dai segnali
ad energia finita. Se si vuole associare a tale classe la desiderata struttura
di spazio vettoriale, necessario tuttavia raffinare la definizione di segnale come verr chiarito nel prossimo paragrafo.
2.2 - Lo spazio dei segnali a energia finita.
Si consideri l'insieme delle funzioni reali o complesse appartenenti a 2 (). In detto insieme sintroduce la relazione di equivalenza: due
funzioni sono equivalenti se assumono valori diversi solo in un sottoinsieme di di misura nulla cio se le funzioni sono uguali quasi ovunque.
La relazione di equivalenza appena introdotta definisce una partizione S di 2 (). S cio una famiglia di sottoinsiemi disgiunti di
2 (), detti classi di equivalenza, la cui unione ricopre 2 ().
Ciascun elemento di S un segnale. In altri termini due funzioni
in 2 () uguali quasi ovunque rappresentano lo stesso segnale in quanto appartengono alla medesima classe di equivalenza.
Siano 1 (), 2 () due funzioni scelte arbitrariamente nelle rispettive classi di equivalenza 1 , 2 . La funzione () = 1 () + 2 (), appartenendo, in virt della (1.8.3), a 2 (), individua un solo segnale S

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-35-

che costituisce la somma dei segnali 1 , 2 . In modo analogo si pu definire in S l'elemento con costante complessa.
facile verificare che S un gruppo commutativo rispetto all'operazione di somma sopra definita. L'elemento neutro di detto gruppo
la classe delle funzioni quasi ovunque nulle.
Dalle ultime considerazioni svolte, discende che S ha la struttura
di spazio vettoriale. Esso denominato spazio dei segnali a energia finita. Tale nome giustificato dal fatto che a ogni elemento S si pu
associare la quantit:

= |()|2 <

(2.2.1)

che, essendo invariante rispetto alla scelta di () nella classe , esprime


l'energia specifica associata al segnale .
In quel che segue, per brevit, spesso un segnale verr denotato
mediante una qualunque funzione () appartenente alla classe di equivalenza associata al segnale in esame.
Prodotto scalare

Dati due generici elementi 1 ed 2 dello spazio S ad essi si pu


associare la quantit generalmente complessa definita dalla:

1 , 2 = 1 ()2 ()

(2.2.2)

Detta quantit esiste ed limitata in modulo. Infatti tenendo conto della


(1.8.4), risulta:

| 1 ()2 ()| |1 ()2 ()|

1
2

1
2

(2.2.3)

( |1 ()| ) ( |2 ()| ) <

La (2.2.2) definisce un prodotto scalare in quanto facile verificare che essa soddisfa le propriet (1.15.1) che lo caratterizzano.
Distanza

Da quanto esposto nel Capitolo precedente, discende che lo spazio S, essendo dotato di prodotto scalare, uno spazio metrico. La di-

36

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

stanza (1 , 2 ) tra due qualsiasi suoi elementi, coerente con la (2.2.2),


definita dalla:

1
2

(1 , 2 ) = 1 2 , 1 2 = ( |1 () 2 ()|2 )

1
2

(2.2.4)

Norma

Lo spazio S normato. Infatti ad esso pu associarsi la seguente


norma:

= , = ( |()| )

1
2

(2.2.5)

opportuno sottolineare che possibile definire in S diversi


prodotti scalari, tuttavia quello definito dalla (2.2.2), come si nota facilmente, induce una norma che legata all'energia specifica del segnale.
Le (2.2.4), (2.2.5) si chiamano rispettivamente distanza e norma
euclidea per la loro evidente analogia alle corrispondenti grandezze definite nello spazio euclideo.
Ad ogni segnale non nullo corrisponde un segnale normalizzato:

(2.2.6)

che ha evidentemente norma unitaria.


Esempio 2.1
Si valuti la distanza fra i segnali rappresentati dalle seguenti funzioni:
2

2( + )

1 () = cos (
) ( ) , 2 () = cos (
)( )

Essendo:
|1 () 2 ()| = 2 |sin (

(2 + )

) sin (
)| ( )

risulta:

2 (

, )

4sin2 (

2
(2 + )

) sin2 (
) = 2sin2 ( )

da cui:
( , ) = 2 |sin (

)|

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-37-

2.3 - Segnali linearmente indipendenti.


Un insieme di segnali appartenenti allo spazio dei segnali genera
un sottospazio di dimensione finita. A priori, non detto che la dimensione di detto sottospazio sia uguale al numero dei segnali presi in considerazione, in quanto si pu verificare il caso in cui almeno uno dei segnali considerati esprimibile mediante una opportuna combinazione
lineare dei restanti. quindi evidente l'opportunit di individuare dei
metodi per stabilire se segnali sono linearmente indipendenti al fine di
determinare leffettiva dimensione del sottospazio da essi generato.
Un metodo generale per stabilire la lineare indipendenza di segnali si ottiene osservando il determinante della seguente matrice di
Gram:
1 , 1
2 , 1
[

, 1

1 , 2
2 , 2

, 2

1 ,
2 ,
]

(2.3.1)

Vale il seguente teorema:


Teorema 2.1 (di Gram)
segnali sono linearmente dipendenti se e solo se il determinante di Gram
(1 , 2 , , ) ad essi relativo nullo.
Necessariet:
se con { }=1 si denota un insieme di segnali linearmente dipendenti,
devono esistere costanti { }, non tutte nulle, tali che:

(2.3.2)

=1

Effettuando il prodotto scalare tra il primo membro della precedente e il


generico segnale si ottengono le equazioni:

, = 0;

j=1,2,,n

(2.3.3)

=1

che, riguardate come un sistema lineare omogeneo di equazioni nelle


incognite { }, devono ammettere una soluzione non banale. Pertanto
la matrice dei coefficienti di detto sistema deve essere singolare.
Sufficienza:

38

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

se (1 , 2 , , ) = 0 il sistema omogeneo (2.3.3) ammette anche soluzioni diverse dall'identica. Detta { } una tale soluzione, si consideri il
segnale:

(2.3.4)

=1

Si ha:

2 = , = ,
=1

=1

,=1

(2.3.5)

( , )
=1

=0

=1

essendo per ipotesi le { } una soluzione del sistema (2.3.3).


Il segnale definito dalla (2.3.4), avendo norma nulla, il segnale
nullo. Pertanto i segnali { }=1 sono linearmente dipendenti.
***********
Si osservi che, se il determinante di Gram nullo, la matrice di
Gram ha rango < . Data la simmetria hermitiana della matrice si pu
dimostrare che essa ammette almeno un minore non nullo contenente
elementi della sua diagonale principale. Detto minore si pu interpretare
quindi come la matrice di Gram associata agli segnali con cui costituito. Ci significa che il rango della matrice di Gram uguale al numero
massimo di segnali indipendenti contenuti nella -upla.
interessante osservare che la matrice di Gram semidefinita
positiva. Infatti la norma del generico segnale appartenente al sottospazio generato da un insieme di segnali { }=1 non negativa. Si pu
quindi scrivere:

0 2 = , = ,
=1

=1

(2.3.6)

,=1

Si noti che l'ultimo membro della disuguaglianza precedente la forma


hermitiana nelle variabili 1 , 2 , , associata alla matrice di Gram che
quindi semidefinita positiva.
Esempio 2.2
Verificare che i segnali rappresentati dalle seguenti funzioni:

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-39-

() =
1

n{1,2,3}

( 2) ;
sono linearmente indipendenti.
Il generico prodotto scalare vale:
1

, = + =
0

1
1++

da cui si ottiene il determinante di Gram associato ai segnali considerati:


(1 , 2 , 3 ) =

1
3
||1
4
1
5

1
4
1
5
1
6

1
5
1
|
6|
1
7

1
378.000

Poich (1 , 2 , 3 ) 0 i tre segnali sono linearmente indipendenti.


Esempio 2.3
Dati i segnali rappresentati in Fig.E 2.1: determinare la dimensione del
sottospazio da essi generato.
Si ha:
1 , 1 = 5
2 , 1 = 6
3 , 1 = 1

1 , 2 = 6
2 , 2 = 8
3 , 2 = 2

1 , 3 = 1
2 , 3 = 2
3 , 3 = 1

pertanto il determinante di Gram vale:


5
= |6
1

6
8
2

1
2 |=0
1

quindi i segnali sono linearmente dipendenti.


Poich, come facile
verificare, il rango della
matrice di Gram vale 2,
solo due segnali risultano linearmente indipendenti; conseguentemente
Fig.E 2.1
il sottospazio da essi generato ha dimensione 2.
La lineare dipendenza dei segnali poteva essere verificata semplicemente
osservando che:
1 () 2 () + 3 () =

40

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

2.4 - Rappresentazione geometrica di un segnale.


Siano { }=1 segnali linearmente indipendenti. L'insieme S dei segnali esprimibili nella forma

(2.4.1)

=1

al variare dei coefficienti { } in , , come noto, un sottospazio vettoriale di dimensione generato dai segnali { }. Ogni segnale ivi contenuto individua univocamente, in virt della lineare indipendenza degli
{ }=1 , una -upla di coefficienti.
Reciprocamente, comunque scelto un punto in , ad esso, tramite la (2.4.1), corrisponde un unico segnale in S .
I coefficienti { }=1 si possono
interpretare come le coordinate del
segnale nel sistema di riferimento individuato dai vettori { }=1 . Queste
considerazioni, nel caso in cui i segnali
{ }=1 siano rappresentabili mediante
funzioni reali e i coefficienti { }=1
siano anchessi reali, suggeriscono la
Fig. 2.1 - Rappresentazione vettorappresentazione geometrica mostrata riale del segnale .
in Fig. 2.1 per il caso tridimensionale.
L'insieme dei vettori { }=1 costituisce quindi una base del sottospazio vettoriale S di S.
opportuno ricordare che un qualsiasi altro insieme { }=1 di
vettori linearmente indipendenti appartenenti a S costituisce a sua volta
una base per il sottospazio; la base pertanto non unica.
I coefficienti { }=1 , di un dato segnale appartenente a S , possono essere calcolati effettuando in ambo i membri della (2.4.1) il prodotto scalare per il generico vettore di base . Si ottengono cos le
equazioni:

, = i , ;
=1

j=1,2,,n

(2.4.2)

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-41-

che costituiscono un sistema lineare nelle incognite { }. In forma matriciale il sistema (2.4.2) si scrive:
1 , 1
1 , 2
[

1 ,

2 , 1
2 , 2

, 1 1
,1
, 2 2
,2
][] = [
]

,
,

(2.4.3)

Detto sistema ammette un'unica soluzione, poich la matrice dei coefficienti ad esso associata la trasposta della matrice di Gram associata a
un insieme di segnali linearmente indipendenti.
Un altro metodo per calcolare i coefficienti { }=1 consiste nel
determinare vettori { }=1 che godano della propriet:
, = ;

= 1,2, ,

(2.4.4)

Tenendo conto della (2.4.1) si ottiene:

= , = ,
=1

= , ;

(2.4.5)
= 1,2, ,

=1

che ammette la soluzione:


1;
, = {
0;

=
=

(2.4.6)

Il generico risulta pertanto ortogonale a ciascun vettore della base


{ }=1 fatta eccezione per il -esimo. L'insieme di vettori { }=1 costituisce a sua volta una base del sottospazio che detta base reciproca associata alla base { }=1.
Si osservi che dalla (2.4.6) discende che la reciproca di una base
reciproca la base di partenza.
Esempio 2.4
Dati i segnali individuati dalle seguenti funzioni:
1 () = ( 2)
1

2 () = ( 1)

{3 () = ( 2)
3

42

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

verificare che essi costituiscono una base per il sottospazio da essi generato
e quindi determinare la base reciproca associata.
I tre segnali sono linearmente indipendenti, in quanto comunque scelti
due di essi, da una loro combinazione lineare non si pu ottenere il terzo. Infatti esiste un insieme di misura non nulla in cui il terzo segnale diverso da
zero mentre gli altri due segnali sono entrambi identicamente nulli.
Il generico elemento della base reciproca si pu esprimere nella forma:
3

= ,
=1

Imponendo per ciascun vettore la condizione (2.4.6), si ottengono i tre sistemi lineari:
3

, = 1, , = ,1
=1
3

, = 2, , = ,2 ;

= 1,2,3

=1
3

, = 3, , = ,3
=1

le cui soluzioni forniscono:

= +
= +
= +

Si perviene a una notevole semplificazione scegliendo una base


{ }=1 composta da vettori di norma unitaria a due a due ortogonali

detta base ortonormale. In simboli:


, = ,

(2.4.7)

In questo caso la matrice di Gram diventa unitaria e la (2.4.2) si riduce


alla:
= , ; = 1,2, ,

(2.4.8)

Un segnale appartenente al sottospazio riferito a una base ortonormale si esprime pertanto nella forma:

= ,
=1

(2.4.9)

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-43-

Dal confronto tra la (2.4.6) e la (2.4.7) discende che la base reciproca associata ad una base ortonormale la base stessa. Le basi ortonormali sono quindi anche basi autoreciproche.
Se si fa riferimento a una base ortonormale si ottiene la seguente
espressione per il prodotto scalare tra segnali appartenenti al sottospazio
S :

1 , 2 = 1 2
, = 1 2
=1 =1

(2.4.10)

=1

analogamente per la norma e per la distanza euclidea si ha:


12

= ,

12

= ( | | )

(2.4.11)

=1
12

(1 , 2 ) = 1 2 = ( |1 2 | )

(2.4.12)

=1

Queste ultime evidenziano un ulteriore motivo per cercare, quando possibile, di adottare una base ortonormale. Infatti se si riguardano
le componenti {1 }=1 , {2 }=1 dei due segnali, riferiti ad una stessa base ortonormale, come vettori riga dello spazio , le (2.4.10), (2.4.11) e
la (2.4.12) possono essere riscritte sotto forma matriciale:
1 , 2 = 1 2

(2.4.13)

1
2

= ( )

(2.4.14)
1
2

(1 , 2 ) = [(1 2 )(1 2 ) ]

(2.4.15)

In altri termini, se in un sottospazio si individua una base ortonormale, il prodotto scalare, la norma e la distanza euclidee possono essere calcolati in modo semplice effettuando le medesime operazioni sui
vettori delle componenti dei segnali in .
Esempio 2.5
Sia () = una forma hermitiana.
Se gli autovalori della matrice ad essa associata hanno tutti molteplicit
1, gli autoversori associati a ciascun autovalore di , sono mutuamente ortogonali e quindi costituiscono una base ortonormale per lo spazio a cui
appartiene.

44

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Nel caso in cui tutti gli autovalori di hanno molteplicit 1 ad eccezione


di uno che ha molteplicit 2 tra gli autovettori associati a quest'ultimo, se ne
possono certamente scegliere 2 linearmente indipendenti. Essi individuano
un sottospazio di dimensione due (autospazio) che contiene tutti e soli gli
autovettori relativi all'autovalore in questione. Ciascun vettore di questo autospazio ortogonale ad ogni autovettore relativo ad un altro autovalore.
Inoltre sempre possibile riferire l'autospazio ad una base ortonormale, gli
autoversori che la costituiscono, uniti ai restanti autoversori, generano una
base (autobase) per lo spazio associata alla () .
La generalizzazione di quanto esposto al caso di matrici hermitiane con
autovalori di molteplicit qualsiasi immediata.
Per quanto riguarda la riduzione a forma canonica di una forma hermitiana, si osservi che, individuata una autobase { }=1 , il generico vettore
di si pu scrivere:

=
=1

Pertanto:

() = = = =
=1

=1

=1 =1

=1 =1

= = | |2 = diag(1 , 2 , , )
=1 =1

=1

nell'ultimo membro della precedente, ogni autovalore viene ripetuto un numero di volte pari alla sua molteplicit.

2.5 - Angolo tra due segnali.


Siano dati due segnali reali ad energia finita 1 ,2 . Per essi vale la
disuguaglianza di Schwarz (1.15.6) che, in virt della natura reale dei due
segnali, pu essere riscritta nella forma:

1 () 2 ()

|1 ()|2

|2 ()|2

(2.5.1)

dalla quale si deduce che sempre possibile individuare un unico angolo


appartenente all'intervallo [0, ] che verifica l'uguaglianza:
1 , 2 = 1 2 cos

(2.5.2)

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-45-

I due segnali in questione sono


certamente contenuti in un sottospazio
di dimensione due che unico se i segnali sono linearmente indipendenti.
Fissata che sia una base ortonormale
{ }2=1 in detto sottospazio, possibile
esprimere i due segnali nella forma:
Fig. 2.2 - Angolo tra due segnali

1 = 11 1 + 12 2 ; 2 = 21 1 + 22 2 ;

(2.5.3)

D'altro canto, tenendo conto delle (2.4.10) e (2.4.11) la (2.5.2) pu essere anche scritta come segue:
< 1 , 2 >= 11 21 + 12 22
2
2
2
2
= 11
+ 12
21
+ 22
cos

(2.5.4)

il cui ultimo membro si pu immediatamente interpretare come il prodotto scalare in 2 tra due vettori aventi rispettivamente modulo
2
2
2
2
11
+ 12
e 21
+ 22
, formanti un angolo . Si verifica facilmente

che detto angolo indipendente dalla base ortonormale scelta nel sottospazio in cui i segnali sono contenuti.
quindi possibile fornire una rappresentazione grafica dei due
segnali reali come mostrato in Fig. 2.2, questo il motivo per cui in generale due segnali si dicono ortogonali se il loro prodotto scalare nullo.
Esempio 2.6
Dati i segnali mostrati in Fig.E 2.2,a). se ne costruisca una rappresentazione vettoriale.
Come si riconosce facilmente i due segnali hanno entrambi norma unitaria.
Se si associa al primo segnale un vettore di modulo unitario, il secondo
segnale sar rappresentato da un vettore anch'esso di modulo unitario la
cui componente ortogonale su si ottiene effettuando il seguente prodotto
scalare:
1 ; 0 1

, = () () = { 1 + ; 1 < 0 = (1 ||) ( )
2

|| > 1
0;

46

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La rappresentazione geometrica dei due segnali si presenta come in Fig.E

Fig.E 2.2

2.2,b). Si noti che se || 1 i due segnali risultano ortonormali.

2.6 - Approssimazione dei segnali nel sottospazio S . Teorema della proiezione.


Sia S un sottospazio vettoriale ad dimensioni e un segnale
non necessariamente appartenente ad S .
In alcune applicazioni pu essere utile costruire un segnale
S che, in base a un assegnato criterio, ne costituisca la migliore
approssimazione. Il criterio pi naturale per determinare la migliore approssimazione di in S consiste nello scegliere quell'elemento di S
che si trova alla minima distanza euclidea dal segnale considerato .
Poich un generico segnale S si pu sempre riferire ad una
base ortonormale { }=1 di detto sottospazio:

(2.6.1)

=1

l'approssimazione cercata individuata dalla -upla di coefficienti


{ } che minimizzano la quantit:

= 2

(2.6.2)

=1

Esplicitando la precedente si ha:

= ,
=1

,
=1

+ | |2

(2.6.3)

=1

Se nella (2.6.3) si somma e si sottrae la quantit =1 |, |2 si ottiene:

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-47-

2 = 2 |, |2 + | , |2
=1

(2.6.4)

=1

Poich l'ultimo addendo a secondo membro della precedente certamente non negativo il minimo cercato si ottiene quando esso si annulla
cio quando risulta:
= , ;

= 1,2,

(2.6.5)

Pertanto si ha:

= ,

(2.6.6)

=1

I coefficienti { }=1 definiti dalle (2.6.5) sono chiamati coefficienti di Fourier generalizzati del
segnale rispetto alla base ortonormale . { }=1
Un interessante conseguenza
del risultato appena ottenuto il cosiddetto Teorema della proiezione
Fig. 2.3 Proiezione ortogonale
che stabilisce che, detta la migliore approssimazione di in S , secondo il criterio della minima distanza euclidea, il vettore ortogonale a ogni vettore appartenente ad S e quindi al sottospazio S (vedi Fig. 2.3 ).
Per dimostrarlo sufficiente verificare che il vettore ortogonale a ciascun vettore di una qualsiasi base { }=1 ortonormale di
S . Tenendo conto delle (2.6.5) e (2.6.6) risulta:
, = , , = 0

(2.6.7)

Per questo motivo si dice proiezione ortogonale di nel sottospazio S .


Nel caso in cui si scelga in S una base { }=1 non ortonormale,
tenendo presente che, in base alla (2.6.7), risulta per ogni S :
, = ,
{ }=1

(2.6.8)

si deduce che le componenti


del segnale rispetto alla base

{ }=1 si ottengono risolvendo il sistema:

48

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

, = , = , ;

= 1, ,

(2.6.9)

=1

interessante osservare che un sottospazio lineare a dimensioni determina nello spazio dei segnali S una partizione in classi di equivalenza: due segnali appartengono alla stessa classe di equivalenza se ammettono la stessa approssimazione in S o, che lo stesso, se la loro differenza ortogonale a S .
La quantit
=

(2.6.10)

l'errore di approssimazione; la sua norma ne misura l'entit. Si ha:


2 = 2 = ,
= , , = , = , ,
2

= , =

(2.6.11)

poich, essendo ortogonale a , risulta , = 2 .


La (2.6.11) costituisce l'estensione della relazione pitagorica agli
spazi normati.
Se il vettore si riferisce ad una base ortonormale { }=1 si ha:

= |, |2

(2.6.12)

=1

in questo caso la (2.6.11) assume la forma:

2 = 2 |, |2

(2.6.13)

=1

Essendo, d'altra parte, 0 si deduce:

|, |2 2

(2.6.14)

=1

nota come disuguaglianza di Bessel.


Esempio 2.7
Determinare la proiezione dell'impulso (

1
2

) nel sottospazio lineare

S3 individuato dai segnali rappresentabili me diante le funzioni:

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-49-

() = { 0 ; n=1,2,3
0 < 0

Indicando con limpulso rettangolare, risulta:


1

, = =
0

Fig.E 2.3

il sistema (2.6.9) diventa


1
2
1
3
1
[4

1
3
1
4
1
5

1
4
1
5
1
6]

1 1
1 2
1
[2 ] =
2
3
1 3
[ 3 ]

da cui:
1
12 72 1 + 120 2 60 3
[2 ] = [30 + 240 1 450 2 + 240 3 ]
3
20 180 1 + 360 2 200 3

per cui l'approssimazione dell'impulso rettangolare nel


sottospazio in questione vale:
3

3 () = ()
=1

= (12 72 1 + 120 2 60 3 ) + (30 + 240 1


450 2 + 240 3 ) 2 + (20 180 1 + 360 2
200 3 ) 3

In Fig.E 2.3 rappresentata la migliore approssimazione dell'impulso rettangolare nel sottospazio S3 .


Esempio 2.8
Le funzioni rappresentate in Fig.E 2.4 sono i primi
quattro elementi dell'insieme (ortonormale) delle funzioni di Walsh. Esse definiscono un sottospazio S4 a
quattro dimensioni. I coefficienti, rispetto alla citata base, della proiezione ortogonale su S4 del segnale individuato dalla:
1
() = ( )
2

valgono:

Fig.E 2.4

50

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati 1


1
1
1 = 0 () = [ 2 ]10 = ;
2
2
0
1
1
1
1
2 = 1 () = ([ 2 ]20 [ 2 ]11 ) ;
2
4
2
0
1
3
1
1
3 = 2 () = ([ 2 ]40 [ 2 ]41 + [ 2 ]13 ) = 0;
2
4
0
4
1
3
1
1
1
1
4 = 3 () = ([ 2 ]80 [ 2 ]41 + [ 2 ]81 [ 2 ]13 ) = ;
2
8
{
8
0
8
4

In Fig.E 2.5 sono mostrate le funzioni rappresentative dei segnali


1 ,2 ,3 ,4 che costituiscono le approssimazioni di , rispettivamente nei
sottospazi generati da 0 , da 0 , 1 , da 0 , 1 , 2 , e da 0 , 1 , 2 , 3 .
In particolare 4 (), cio la funzione rappresentativa del segnale 4 apparte-

Fig.E 2.5 Proiezioni di un segnale in sottospazi annidati di dimensione crescente.

nente al sottospazio S4 a minima distanza Euclidea da , data da:


1
1
1
() = () () ()
2
4
8

2.7 - Procedimento di ortonormalizzazione di GramSchmidt.


Da quanto detto risulta evidente l'opportunit di disporre di un
algoritmo che permetta di costruire una base ortonormale per il sottospazio generato da un assegnato insieme { }=1 di segnali. Un tale algoritmo, noto come procedimento di ortonormalizzazione di GramSchmidt, basato sul teorema della proiezione. Esso consiste nel generare ricorsivamente sottospazi di dimensione crescente annidati l'uno
dentro l'altro.
Si procede come segue:
Si considera il segnale 1 . Il primo elemento della base :
1 =

1
1

che genera un sottospazio S1 di dimensione 1.


Si considera quindi 2 e si costruisce il segnale:

(2.7.1)

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

2 = 2 2 , 1 1

-51-

(2.7.2)

Se 2 il segnale nullo, 2 appartiene ad S1 e si salta al passo successivo. In caso contrario, in virt del teorema della proiezione, 2 ortogonale al sottospazio S1 . Pertanto si pu assumere come secondo
elemento della base il segnale:
2 =

2
2

(2.7.3)

I due segnali 1 e 2 generano quindi un sottospazio S2 in cui


annidato S1 .
Si ripete il passo precedente fino ad esaurire i segnali dell'insieme { }.
Al passo -esimo supposto che tutti i segnali precedentemente
considerati siano tra loro linearmente indipendenti l'-esimo vettore di
base dato da:
=

(2.7.4)

dove:
1

= ,

(2.7.5)

=1

L'algoritmo appena descritto consente, in genere, per un dato insieme { }=1, di costruire pi basi ortonormali, dipendentemente dall'ordinamento scelto all'interno dell'insieme { }=1 . Evidentemente una
qualunque base ottenuta con il procedimento descritto genera lo stesso
sottospazio di S. Detto sottospazio ha la minima dimensione necessaria
per contenere i segnali dell'insieme { }=1 . Tale dimensione ovviamente
non pu superare la cardinalit di { }=1 .
Si osservi inoltre che la procedura descritta in virt della sua natura ricorsiva si pu applicare anche al caso in cui l'insieme dei segnali sia
di cardinalit infinita, purch numerabile.
Esempio 2.9
Determinare una base ortonormale per il sottospazio lineare individuato
dai segnali rappresentati dalle funzioni:
;
() = {
0;

0
; n=1,2,3
<0

52

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

mediante il procedimento di Gram-Schmidt.


Si sceglie come primo elemento della base ortonormale il segnale:
=

= 2

Si scompone quindi il secondo segnale nei suoi componenti parallelo ed ortogonale al sottospazio individuato da 1 . Si ha:
= , + =

Pertanto risulta:
=

+ =

= 6

Si procede quindi al calcolo di 3 :


= , , =

Quindi:
=

1
22

= 106

2.8 - Sviluppo di un segnale in serie di funzioni ortogonali.


Sia S un sottospazio lineare a dimensioni generato da un base
B { }=1 di vettori ortonormali e sia la proiezione ortogonale di
un segnale nel sottospazio S . L'errore quadratico medio di tale approssimazione espresso dalla (2.6.13).
Se alla base B si aggiunge un vettore normale +1 ortogonale ai
precedenti, si ottiene un nuovo insieme di vettori { }+1
=1 che costituisce
una nuova base B+1 che genera un sottospazio lineare S+1 . Denotando
con s+1 la proiezione di su S+1 l'errore quadratico medio, ottenuto
con questa nuova approssimazione, sar:
+1

+1 2 = 2 |, |2
=1

(2.8.1)

= |, | |, +1 |
=1

che, ricordando la (2.6.13), si scrive:


+1 2 = 2 |, +1 |2

(2.8.2)

CAPITOLO - 2 Rappresentazione Vettoriale dei Segnali

-53-

Cio +1 2 2 . Se ne conclude che, aumentando la dimensione


del sottospazio su cui si proietta il vettore , la norma dell'errore non
aumenta. La successione { } degli errori quadratici medi quindi una
successione non crescente a termini non negativi. Essa pertanto una
successione convergente.
Si portati quindi a concludere che, disponendo di un sistema di
vettori 1 , 2 , , , ortonormale, che individua un sottospazio lineare ad infinite dimensioni, si pu anche ottenere un'approssimazione del
segnale con un errore quadratico medio nullo. In altri termini, si indotti a ritenere che la disuguaglianza di Bessel (2.6.14) diventi:

= |, |2

(2.8.3)

=1

nota come relazione di Parseval.


Ammettendo che la (2.8.3) sia soddisfatta, il segnale pu essere
espresso mediante la:

= ,

(2.8.4)

=1

Ricordando il significato energetico che si attribuito alla norma,


la (2.8.3) esprime l'energia specifica di un segnale in termini dei coefficienti = , , cosicch la quantit = , rappresenta l'aliquota
con cui il generico componente contribuisce all'energia di .
Si noti che non tutti gli insiemi composti da un'infinit numerabile di segnali mutuamente ortonormali garantiscono l'annullarsi dell'errore quadratico medio. Se si riesce a determinare un insieme per il quale la
(2.8.3) verificata per ogni elemento di un certo spazio a dimensione infinita, l'insieme in questione si dice completo rispetto allo spazio considerato.

CAPITOLO - 3
SEGNALI PERIODICI
3.1 - Generalit.
Una funzione reale o complessa () si dice periodica se esistono
valori di , che soddisfano la seguente equazione:
() = ( + )

(3.1.1)

per ogni , salvo al pi su un sottoinsieme di valori di di misura nulla.


immediato constatare che () deve necessariamente essere definita
quasi ovunque in . Inoltre se 0 una soluzione della (3.1.1), anche i
suoi multipli interi lo sono.
Si pu assumere come periodo di () una qualunque soluzione
non negativa della (3.1.1), la minima delle quali costituisce il periodo
principale della funzione o del segnale periodico ad essa associato e in
quel che segue verr denominata semplicemente periodo.
Se un segnale periodico a potenza specifica finita si ha:

0 +

1 2
1
2
= lim |()|2 = lim

|()|2

0 + 0 +

(3.1.2)

dove = e 0 = 0 < 0 .
0

Poich risulta:
0 < |()|2 <

(3.1.3)

T0

dove 0 indica un qualsiasi intervallo temporale di durata pari al periodo


0 , la (3.1.2) si riscrive:

0
2
1
lim
( |()|2
0
0 +

0
2

0+
2

|()|2

0+
2

0
2

|()|2 ) (3.1.4)

56

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati 0

lim
|()|2
0 + 0
2

0
2
1
|()|2
lim + (
+
0
0
2

0+
2

0
2

|()|2 )

Gli ultimi due integrali della precedente, in virt della (3.1.3), si mantengono limitati; quindi il secondo limite vale zero e la potenza specifica di
un segnale periodico si pu pertanto esprimere anche nella forma pi
semplice
0

1 2
= |()|2
0 0

(3.1.5)

che coincide con la potenza specifica media in un periodo.


3.2 - Serie di Fourier in forma esponenziale.
Per poter applicare ad un segnale periodico a potenza finita () i
metodi di analisi sviluppati nel CAPITOLO - 2 validi per segnali ad
energia finita opportuno considerare il segnale troncato 0 () cos definito:

0 () = () ( )
0

(3.2.1)

manifestamente si ha (vedi Fig. 3.1):

() = 0 ( 0 )

(3.2.2)

Si noti che, in effetti, l'uguaglianza nella precedente, vale q.o., a meno di


non ridefinire opportunamente la funzione (). La (3.2.2)ci dice che
un segnale periodico a potenza finita pu essere considerato come la ripetizione periodica, con periodo 0 , di una funzione elementare 0 () a
quadrato sommabile, definita in un intervallo T0 di durata pari al suo periodo.

CAPITOLO - 3 - Segnali Periodici -

57

Risulta:

Fig. 3.1- Ripetizione periodica di un segnale

0
2

|0 ()|2 =

|()|2 = 0 <

(3.2.3)

0 () pertanto rappresenta un segnale a energia finita 0 .

quindi chiaro che se sindividua un insieme di segnali { }


=
appartenenti ad S, completo rispetto alla classe dei segnali S 0 , possibile esprimere un qualsiasi suo elemento 0 come combinazione lineare
degli { }
= .
A tal fine si prenda in considerazione l'insieme di segnali ortonormali { }
= . Rappresentabili mediante le seguenti funzioni:
() =

1
0

2
0

( ),

(3.2.4)

Detto insieme, come possibile dimostrare4, completo rispetto all'insieme dei segnali appartenenti a S 0 , cio di quei segnali che sono rappresentabili mediante funzioni a quadrato sommabile, nulle all'esterno

dell'intervallo ( 20 , 20).
Il generico elemento di S 0 , pu quindi essere rappresentato mediante una serie bilatera del tipo:

Cfr.: F. G. Tricomi: Istituzioni di analisi superiore. Edizioni Cedam. Padova. 1964. pag. 186 e
seg.

58

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

0 =

(3.2.5)

dove, in base a quanto esposto nel 2.4 - , i coefficienti valgono:

= 0 , = 0 () ()

1
0

0
2

()

(3.2.6)

Se si sostituisce la (3.2.5) nella (3.2.2) si ottiene:

() = 0 ( 0 )
=

= =

0
0

0
)
0

(3.2.7)

0
2
2
0 =
0
= (
)

0
0
=
=
=

dove si tenuto conto della periodicit di


ovunque, risulta
= (

0
0

2
0

e del fatto che, quasi

) = 1. Ponendo infine:

0 =

1
0

(3.2.8)

e
0

1 2
= () 20
0 0

(3.2.9)

la (3.2.7) assume la forma:

() = 20

(3.2.10)

che costituisce la ben nota espansione di un segnale periodico in serie di


Fourier espressa in forma esponenziale o euleriana.
Si osservi che nel calcolo del generico coefficiente , l'integrale
pu estendersi ad un qualsiasi intervallo di durata 0 .

CAPITOLO - 3 - Segnali Periodici -

59

opportuno precisare che la serie (3.2.10) converge al segnale


() secondo la metrica di 2 (). Ci significa che l'errore quadratico
medio fra () e la ridotta -esima di detta serie tende a zero al crescere
di , cio:
lim

0
2

|()

20

| = 0

(3.2.11)

Per quanto riguarda la convergenza puntuale, facile dimostrare


che la serie di Fourier converge ad () in tutti i punti in cui la funzione
continua; negli eventuali punti di discontinuit la serie converge al va1
lore 2 (( + ) + ( )) avendo denotato con ( + ) e ( ) rispettivamente i limiti destro e sinistro in corrispondenza della discontinuit.5
Dalla (3.2.10) si deduce che la conoscenza dell'insieme numerabile dei coefficienti, generalmente complessi, e del periodo, consente la
ricostruzione di un segnale periodico (). Ci suggerisce una rappresentazione grafica del segnale che si ottiene mediante dei diagrammi a
righe in cui sono riportati i moduli | | e gli argomenti di detti rispettivamente spettri di ampiezza e di fase del segnale .
3.3 - Forma trigonometrica della serie di Fourier.
La serie (3.2.10) si pu riscrivere come segue:
1

() = 0 +
=

20

+ 20

(3.3.1)

=1

effettuando nella prima sommatoria la sostituzione si ha:

() = 0 + ( 20 + 20 )

(3.3.2)

=1

d'altra parte, sviluppando la (3.2.9), si ottiene:


=

1
1
()cos(20 ) ()sin(20 )
0 T0
0 T0

Ponendo:

5
Un'ampia discussione del teorema di convergenza della serie di Fourier si trova in
R.V.Churchill: Fourier series and boundary value problems. McGraw Hill, N.Y., 1963.

(3.3.3)

60

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

2
()cos(20 );
0 T0
2
= ()sin(20 ) ;
0 T0
{
=

(3.3.4)

si pu quindi scrivere:
=

(3.3.5)

Sostituendo la (3.3.5) nella (3.3.2) si ottiene ancora:

2 2
0 +
0 )
() = 0 + (

2
2

(3.3.6)

=1

Poich dalle (3.3.4) discende:


= ;

= ;

0 =

0
0
2

(3.3.7)

la (3.3.6) diventa:

() = 0 + [ 2 ( 20 + 20 ) + 2 ( 20 20 )]

(3.3.8)

=1

dalla quale, ricordando le formule di Eulero, si ottiene:

() = 0 + cos(20 ) + sin(20 )

(3.3.9)

=1

dove 0 vale:
0 =

1
()
0 T0

(3.3.10)

La (3.3.9) costituisce la forma trigonometrica della serie di Fourier. Il termine cos(20 ) + sin(20 ) si chiama armonica di
ordine della funzione (). L'armonica di ordine 1 detta armonica
fondamentale.
3.4 - Segnali reali.
Se il segnale () reale, anche le quantit e lo sono. In
questo caso la (3.3.9) pu porsi nella forma equivalente:

CAPITOLO - 3 - Segnali Periodici -

61

() = 0 + cos(20 )

(3.4.1)

=1

Fig.cui
3.2le
- Spettri
di ampiezza
e di fase b) di un segnale reale.
in
quantit
e a)valgono:

= 2 + 2 ;

= arctg

(3.4.2)

e individuano rispettivamente l'ampiezza e la fase propria della componente armonica di ordine del segnale. Inoltre, tenendo presente le
(3.3.7)si deduce:
| | = | |; = ;

(3.4.3)

Pertanto lo spettro di ampiezza ha simmetria pari, quello di fase simmetria


dispari rispetto all'indice come mostrato qualitativamente in Fig. 3.2.
Esempio 3.1
Si consideri la sequenza periodica di impulsi rettangolari di durata e periodo 0
mostrata in Fig.E 3.1. Nellintervallo
(
Fig.E 3.1

0 0
2

, ) il segnale descritto dalla:


2

() = ( ). Pertanto il segnale () pu

62

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

scriversi come ripetizione periodica con passo 0 di () otenendo:

() =
= ( 0 ) = = (

Fig.E 3.2 Sviluppo in serie di Fourier del segnale


= (

0.25

Per la (3.2.9) il coefficiente dello sviluppo in forma Euleriana vale:

2
1

0 =

0
2

sin ( )
0

;
{ 0

che, tramite la funzione sinc() cos definita:

0
=0

CAPITOLO - 3 - Segnali Periodici sin()

sinc() = {

63

1;

=0

pu essere scritto come segue:


=

sinc ( )
0
0

L'andamento degli per

1
4

riportato in Fig.E 3.2.


La funzione sinc(), ricorre
molto spesso nella teoria dei segnali. Essa, come mostrato in
Fig.E 3.3, vale 0 se il suo argomento intero e non nullo, in 0
vale 1. che il suo massimo assoluto. una funzione continua,
derivabile infinite volte su tutto

Fig.E 3.3

l'asse reale e per , infinitesima dello stesso ordine di .

I coefficienti dello sviluppo di () in foram trigonometrica si possono calcolare facilmente tenuto conto che dalle (3.3.5) e (3.3.7) si deduce
= + =

sinc ( ) + sinc (
)=
sinc ( )
0
0
0
0
0
0

= ( ) = (

sinc ( ) sinc (
)) = 0
0
0
0
0

Pertanto lo sviluppo in forma trigonometrica dato da:

() = 0 + cos (2
=1

) + sin (2 )
0
0

+
sinc ( ) cos (2 )
0 0
0
0
=1

Come caso particolare si osservi che per

= si ottiene:
2

() = + sinc ( ) cos (2 )
2
2
0
=1

64

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In questo caso le armoniche di indice pari dello sviluppo hanno coefficiente


nullo poich in corrispondenza ad esse la sinc ha argomento intero. In Fig.E
3.4sono riportate alcune somme parziali per 0 = 1 e = 0.5. Si osservino
le sovraelongazioni in corrispondenza alle discontinuit (fenomeno di
Gibbs).

Fig.E 3.4

Esempio 3.2
Il segnale () di Fig.E 3.5, definito dalla:

() =
=

2( 0 )

( 0)
0
0

Il generico coefficiente vale:


0

1 2 2 2
2
2

0 =
=
[( 1) ]
2

0 0 0
(2)
(2)2
2

Si ha dunque:
=

cos()
;

Fig.E 3.5

0 =

2 2
= 0;
0 0
2

Gli spettri di ampiezza e fase per 0 = 1 sono riportati in Fig.E 3.6.

CAPITOLO - 3 - Segnali Periodici -

65

3.5 - Propriet della serie di Fourier.


Linearit
Se il segnale () ottenuto da una combinazione lineare di segnali componenti () aventi tutti lo stesso periodo 0 :

() = ()

(3.5.1)

=1

con coefficienti reali o complessi, il coefficiente del suo sviluppo


in serie vale:

Fig.E 3.6 sviluppo del segnale () =


=

2(0 )
0

0
(
)
0

1
= () 20
0
T0

(3.5.2)

=1

che, ponendo:
=

si scrive:

1
() 20
0 T0

(3.5.3)

66

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

(3.5.4)

=1

cio: il coefficiente di un segnale combinazione lineare di segnali,


aventi tutti lo stesso periodo 0 , risulta espresso dalla stessa combinazione lineare tra i coefficienti dei segnali componenti.
Inversione nel dominio del tempo
Se denota il generico coefficiente del segnale (), il generico
coefficiente del segnale () = () risulta:
=

1
1
() 20 = () 20 =
0 T0
0 T0

(3.5.5)

Segnale coniugato
Sia il generico coefficiente del segnale (). Il generico coefficiente del segnale () = () sar allora:

1
1

() 20 = ( () 20 ) =
0 T0
0 0

(3.5.6)

In particolare, se il segnale reale, dal fatto che in questo caso


() = ()

(3.5.7)

(3.5.8)

discende:o
precedentemente ottenuta (vedi (3.4.3)).
Coefficienti coniugati
Sia () un segnale il cui sviluppo in serie di Fourier ha per coefficienti . Il segnale () corrispondente allo sviluppo che ha per generico coefficiente :

() =

20

= (

20

) = ()

(3.5.9)

che coincide con il segnale () coniugato ed invertito nel tempo.


Se la quantit reale, risulta:
=

(3.5.10)

CAPITOLO - 3 - Segnali Periodici -

67

la (3.5.9) diventa:
() = ()

(3.5.11)

cio un segnale che invertito nel tempo coincide con il proprio coniugato ammette uno sviluppo i cui coefficienti sono reali.
Traslazione nel dominio del tempo
Sia il generico coefficiente dello sviluppo di un segnale (). Il
segnale () = ( 0 ), ottenuto ritardando () di una quantit 0 ,
ammette uno sviluppo il cui generico coefficiente vale:
=

1
( 0 ) 20
0 T0

20 0
=
() 20 = 200
0
T0

(3.5.12)

Pertanto la traslazione nel dominio del tempo comporta nel generico coefficiente la presenza di un fattore esponenziale del tipo
200 di modulo unitario ed argomento 20 0 . In altri termini, la
traslazione lascia inalterati i moduli dei coefficienti , ma aggiunge ai
loro argomenti un termine proporzionale al ritardo 0 .
Traslazione nel dominio della frequenza
Sia il generico coefficiente del segnale (). Il segnale () il
cui generico coefficiente con vale:

() =

20

20

20

20

(3.5.13)

()

La traslazione di di una quantit equivale alla moltiplicazione


di () per un fattore esponenziale del tipo 20 0 .
Convoluzione nel dominio del tempo
Siano 1 () e 2 () due segnali periodici a potenza finita e aventi
lo stesso periodo 0 . Si definisce convoluzione nel dominio del tempo
fra 1 () e 2 () il segnale () dato dalla:

68

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

() =

1
1
1 ()2 ( ) = 1 ( )2 ()
0 T0
0 T0

(3.5.14)

Si verifica che () anch'esso periodico di periodo 0 .


Detti 1 e 2 i generici coefficienti dello sviluppo di 1 () e
2 () rispettivamente, il coefficiente dello sviluppo del segnale ()
vale:
=

1
1
( 1 ( )2 ()) 20
0 T0 0 T0

(3.5.15)

che, invertendo l'ordine di integrazione, diventa:


=

1
1
2 () ( 1 ( ) 20 )
0 T0
0 T0

(3.5.16)

Applicando il teorema della traslazione nel dominio del tempo si ha:


= 1

1
() 20 = 1 2
0 T0 2

(3.5.17)

cio il generico coefficiente dello sviluppo in serie di Fourier del segnale () si ottiene dal prodotto dei corrispondenti coefficienti degli
sviluppi in serie dei segnali convolvendi.
Convoluzione nel dominio della frequenza
Siano 1 () e 2 () due segnali periodici di periodo 0 , sviluppabili in serie di Fourier con generici coefficienti espressi da 1 e 2 rispettivamente. Si costruiscano i coefficienti definiti, al variare di , dalla:

= 1 2() = 1() 2
=

(3.5.18)

La sequenza detta convoluzione nel dominio della frequenza. A quest'ultima si pu associare il segnale:

() = 20
=

= ( 1() 2 )
=

(3.5.19)

20

che, invertendo lordine delle sommatorie, diventa:

CAPITOLO - 3 - Segnali Periodici

69

() = 2 ( 1() 20 )
=

(3.5.20)

Applicando alla precedente il teorema della traslazione in frequenza si


ha:

() = 1 () 2 20 = 1 () 2 ()

(3.5.21)

Ci significa che alla convoluzione nel dominio della frequenza


corrisponde il prodotto dei due segnali 1 () 2 () nel dominio del
tempo.
Nella Tabella 3.1 sono riassunte le propriet della serie di Fourier precedentemente dedotte.
Tabella 3.1
Propriet della serie di Fourier
Propriet

Segnale

Trasformata

Linearit

()

=1

=1

Inversione nel dominio


del tempo

()

Segnale coniugato

()

()

Traslazione nel dominio


del tempo

( 0 )

20

Traslazione nel dominio


della frequenza

20 ()

Convoluzione nel dominio del tempo

1 2
( )2 ()
1

Coefficienti coniugati

Convoluzione nel dominio della frequenza

1 2

1 () 2 ()

1 2()
=

70

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

3.6 - Segnali bidimensionali.


Un segnale (, ), funzione di due variabili indipendenti, si dir
periodico in e se l'equazione
( + , + ) = (, )

ammette
soluzioni
diverse da zero nelle
incognite , indipendenti dalla coppia
di variabili , . Analogamente al caso
monodimensionale si
possono definire i
periodi principali 0
e 0 .
La
potenza
specifica del segnale
vale:

Fig.E 3.7

(3.6.1)

1
1
= lim
|(, )|2 =
|(, )|2
,
0 0

(3.6.2)

0 0

dove l'integrale che compare all'ultimo membro della precedente esteso ad un dominio rettangolare qualsiasi di dimensioni 0 e 0 rispettivamente. Se detto integrale ha valore finito e non nullo allora il segnale
periodico a potenza finita.
Un segnale periodico bidimensionale a potenza finita pu essere
sviluppato mediante la seguente serie doppia di Fourier:

(, ) =

, 2( + )

(3.6.3)

= =

dove:
=

1
1
; =
0 0

sono generalmente denominate frequenze spaziali.

(3.6.4)

CAPITOLO - 3 - Segnali Periodici -

71

Il generico coefficiente della serie (3.6.3) espresso dalla:


=

1
(, ) 2(+ )
0 0 X0 Y0

(3.6.5)

Esempio 3.3
Si consideri il segnale periodico (, ) cos definito:
(, ) = (

1 0
2 0
0
0
)(
) ; 1 , 2 , <
, <
2
2
2
2

che risulta essere uguale ad 1 nei domini tratteggiati in Fig.E 3.7 e nullo altrove.
Si ha:
=

2
2
2( + )
0 0 = 4

sinc (
) sinc (
)
0 0 ,
0 0
0
0

Esempio 3.4
Si consideri il segnale (, ) cos definito:

( 1 0 )2 + ( 2 0 )2
2
(, ) = (
);

1 , 2

Esso periodico ed, in particolare, diverso da 0 e pari ad 1 solo nei domini


tratteggiati in Fig.E 3.8.
Volendo valutare i coefficienti del suo sviluppo opportuno esprimere la (3.6.5) in coordinate polari effettuando la nota trasformazione di variabili:
= cos;
{
= sin;

come noto:
= ||

dove denota lo Jacobiano della trasformazione che vale:


/
=|
/

/
cos
|=|
sin
/

sin
| = (cos2 + sin2 ) =
os

si ha:
=

Ponendo adesso:

1
2( cos+ sin)
0 0 0

72

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

sin =

( )2 + ( )

cos =

( )2 + ( )2

risulta:
cos + sin = ( )2 + ( )2 [sincos + cossin]
= sin( + ) ( )2 + ( )2

Ponendo inoltre:
= 2( )2 + ( )2

si scrive:
=

+
1

sin
0 0 0

Per valutare si ricordi che:


() =

1 (sin)

dove Jn () rappresenta la funzione di Bessel di prima specie di ordine che


si pu anche esprimere mediante la
serie:


1
2
() = ( )
( )
2
! ( + )!
4
=0

Si ha pertanto:
=

2
( )
0 0 0 0

Poich, d'altra parte :


1

0 () =
0

Fig.E 3.8

ponendo =

2 1 ( )
=
0 0

1 ()

si ottiene infine:

CAPITOLO - 4
SEGNALI A ENERGIA FINITA
4.1 - Deduzione elementare della trasformata di Fourier.
Sia () una funzione sommabile rappresentativa di un segnale
ad energia finita, e sia

() = () ( )

la corrispondente funzione
troncata (vedi Fig. 4.1).
Il segnale , individuato dalla (4.1.1), appartiene
allo spazio S definito nel
3.2 - . Pertanto una sua rappresentazione pu essere
espressa mediante il seguente
insieme di funzioni ortonormali:

Fig. 4.1 Segnale , segnale troncato .

() =

(4.1.1)

( );

= 0, 1, 2,

(4.1.2)

nella forma:

() =
( )

(4.1.3)

dove:
=

() 2

(4.1.4)

Sostituendo la (4.1.4) nella (4.1.3) si ottiene:

1
2
() = ( ) ( () 2 ) 2

(4.1.5)

74

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

che ponendo:

2
( ) = () 2

(4.1.6)

diventa:

1
() = ( ) ( ) 2

(4.1.7)

Poich:
() = lim ()

(4.1.8)

la funzione () pu essere espressa effettuando nella (4.1.7) il limite su


indicato. A tal proposito si osservi che, al crescere di , le quantit

= , aventi le dimensioni di una frequenza, tendono ad addensarsi nel

senso che la differenza fra due termini consecutivi tende a zero. Di


conseguenza al divergere di , tende ad identificarsi con una variabile
1
continua e con il corrispondente incremento infinitesimo . Da tali
considerazioni discende che le (4.1.6) e (4.1.7) tendono ad assumere rispettivamente le forme:

a)

() = () 2 ;

b)

() = ()

(4.1.9)
2

che, se esistono, costituiscono rispettivamente le espressioni della trasformata e dellantitrasformata di Fourier.


4.2 - La trasformata di Fourier di segnali ad energia finita.
L'applicazione delle (4.1.9) a segnali ad energia finita, in realt,
non sempre possibile, perch gli integrali che in esse compaiono perdono di significato quando le rispettive funzioni integrande non sono
sommabili. Poich un segnale ad energia finita rappresentabile mediante una funzione a quadrato sommabile, che non necessariamente anche sommabile, nasce la necessit di modificare opportunamente le definizioni (4.1.9), al fine di pervenire alla definizione di una trasformazione di Fourier sulle funzioni appartenenti ad 2 ().

CAPITOLO - 4 - Segnali a Energia Finita -

75

Quanto sopra, in altri termini, equivale ad individuare due operatori ed , che costituiscano una naturale estensione delle (4.1.9), entrambi definiti in 2 (), che, qualunque sia 2 (), godano della
propriet
= [[]] = [[]]

(4.2.1)

La trasformata in ().
Se una funzione () appartiene a (), cio se:

|()| <

(4.2.2)

la definizione (4.1.9) a della trasformata di Fourier ha certamente senso


dato che risulta:

|()| = | () 2 | |()| <

(4.2.3)

La trasformata di una funzione sommabile quindi certamente esiste ed


limitata; inoltre essa anche continua. Infatti, essendo |() 2 | =
|()|, l'applicazione del II Teorema di Lebesgue consente di scrivere:

lim () = lim () 2 =

lim () 2

(4.2.4)

= () 20 = (0 )

Si noti che la trasformata di una funzione in () non appartiene


necessariamente a (). Per convincersene basta prendere in considera

zione limpulso rettangolare la cui trasformata di Fourier [ ()] =


sinc() non sommabile in .
La trasformata in () ().

Si consideri adesso una funzione () appartenente ad 2 () che


sia anche sommabile, cio:
() () 2 ()

(4.2.5)

Al fine di identificare lo spazio funzionale cui appartiene la trasformata () di una tale funzione, si consideri una funzione ausiliaria
() (), limitata, la cui trasformata di Fourier () appartenga an-

76

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ch'essa a () e per la quale si possa verificare che 1 [[()]] =


()6 e si consideri la seguente espressione:

() = ()|()|2

(4.2.6)

che, se ha senso, definisce una funzione del parametro che si assume


reale positivo.
Tenendo conto della definizione (4.1.9),a possiamo scrivere:
|()|2 = () ()

= (1 ) 21 1 (2 ) 22 2

(4.2.7)

= (1 ) (2 ) 2(21) 1 2

Sostituendo nella (4.2.6) e invertendo lordine di integrazione otteniamo:

() = () (1 ) (2 ) 2(21) 1 2

(4.2.8)

= (1 ) (2 ) [ ()

2(2 1 )

] 1 2

ma () (), sar quindi sommabile anche () > 0. Potremo


pertanto scrivere:

() 2(21) =

2 1
1
() 2 ()

1
2 1
(
)

(4.2.9)

che sostituita nella (4.2.8) fornisce:


() =

1
2 1
(1 ) (2 ) (
) 1 2

(4.2.10)

Operando la trasformazione di variabili:


{

= 1 ;
2 1
=
;

6 Tale ad esempio () = la cui trasformata vale () =

(4.2.11)

2 2

(vedi Esempio 4.6).

CAPITOLO - 4 - Segnali a Energia Finita -

77

il cui Jacobiano vale


1
= |
2

1
| = |1
2
1

0
|=

(4.2.12)

la (4.2.10) diventa:

() = () ( + )()

(4.2.13)

= () ( () ( + ) )

applicando all'integrale pi interno che compare allultimo membro della


precedente la disuguaglianza di Schwarz si ottiene:

| () ( + )|

1
2

(4.2.14)

( |()|2 |( + )|2 ) = |()|2

da cui discende:

|()| |() ( () ( + ) )|

(4.2.15)
2

|()| |()|

ne segue che l'integrale (4.2.6) esiste.


Eguagliando i secondi membri delle (4.2.6) e (4.2.13) si ottiene:

()|()|2 = () ( () ( + ))

(4.2.16)

poich si ha:

|()||()|2 |()|2 |() 2 |

= |()|2 |()|

e, ricordando la (4.2.14):

(4.2.17)

78

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

|() ( () ( + ))| |()| |()|2

(4.2.18)

pu applicarsi ad entrambi i membri della (4.2.16) il II Teorema di Lebesgue, il quale ci assicura che si pu scrivere:

lim ()|()|2 = (0) |()|2

= lim () ( () ( + ))

(4.2.19)

= () |()|2

Osservando che (0) = () , dalla precedente si ottiene:

|()|2 = |()|2

(4.2.20)

Concludendo si pervenuti al fatto che, se () () 2 (),


la sua trasformata () una funzione a quadrato sommabile in .
Con procedimento analogo si pu mostrare che se 1 () e 2 ()
appartengono entrambe ad () 2 (), dette rispettivamente 1 () e
2 () le loro trasformate, si ha:

1 ()2 () = 1 ()2 ()

(4.2.21)

La trasformata in ().

Per definire la trasformata di Fourier di una funzione a quadrato


sommabile opportuno riferirsi nuovamente alla funzione troncata
().
La funzione (), nella metrica di 2 (), tende a (). Ci significa che la distanza euclidea tra () e () tende a zero quando :

lim |() ()|2 = 0

(4.2.22)

bene osservare che la funzione () essendo identicamente


nulla all'esterno di un intervallo limitato, oltre ad essere a quadrato
sommabile, anche sommabile in . Di conseguenza essa ammette trasformata di Fourier ():

CAPITOLO - 4 - Segnali a Energia Finita -

79

() = () 2

(4.2.23)

che soddisfa la condizione (4.2.20), cio:


() = ()

(4.2.24)

() () = () ()

(4.2.25)

inoltre evidente che:


2

D'altro canto, poich () (), comunque scelta una successione


, esiste un tale che, , > implicano () () < .
Per la (4.2.25) si ha anche:
() () <

(4.2.26)

{ ()}
=1 pertanto una successione di Cauchy, quindi, in virt della
completezza di 2 (), { ()}
=1 convergente,. Inoltre l'arbitrariet

nella scelta della { }


=1 assicura che la famiglia di funzioni (), al divergere di , tende, secondo la metrica di 2 (), ad una () 2 (),
che si assume come trasformata di Fourier della funzione () 2 ().
Esplicitando la funzione (), quanto detto, equivale a scrivere
2

lim |() () 2 | = 0

(4.2.27)

Per definire la trasformata inversa di una funzione () 2 ()


si pu procedere analogamente. In particolare, la trasformata troncata

() = () ( )

(4.2.28)

anche sommabile, essendo identicamente nulla al di fuori di un intervallo finito. Essa quindi antitrasformabile, e la sua antitrasformata :

() = () 2

(4.2.29)

che, evidentemente gode della propriet:

| ()|2 = | ()|2

(4.2.30)

80

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Al crescere di la funzione () ammette, nella metrica di


2 (), il limite (), cio:
2

lim |() ()

| = 0

(4.2.31)

Tale valore limite appartiene a 2 () e soddisfa la relazione:

|()|2 = |()|2

(4.2.32)

Resta quindi soltanto da dimostrare che, detta () la trasformata


di (), la sua antitrasformata () uguale, almeno quasi ovunque, a
().
A tal proposito, essendo (), () 2 (), si pu scrivere:

() ()2 = |() ()|2

= |()|2 () () ()()

(4.2.33)

+ |()|2

Per le (4.2.20) e (4.2.32) risulta:

|()|2 = |()|2 = |()|2

(4.2.34)

Inoltre in virt delle (4.2.23) e (4.2.29) si ha:

() ()

lim () [ lim

() 2

= lim () [ ()2 ]

(4.2.35)

CAPITOLO - 4 - Segnali a Energia Finita

81

= lim () [ () 2 ]

= lim () () = |()|2

Con procedimento analogo si mostra anche che:

() () = |()|2

(4.2.36)

Finalmente, sostituendo le (4.2.35) e, (4.2.36) nella (4.2.33) si ottiene


() ()2 = 0

(4.2.37)

che necessariamente comporta:


..

() =
()

(4.2.38)

Conclusioni

La trasformata di Fourier di una generica rappresentazione di un


segnale s ad energia finita impicitamente definita dalla (4.2.27) che qui
ripetiamo per comodit:

lim |() () 2 | = 0

(4.2.39)

Ci equivale a dire che per trasformata di () si deve intendere


quella () che soddisfa la (4.2.27) cio la cui distanza euclidea da

2 () 2 tende a zero al divergere di .

Si osservi che se una () soddisfa la precedente per una rappresentazione () di un segnale , essa la soddisfer anche per tutte le altre
rappresentazioni dello stesso segnale, cio per tutte le funzioni del tempo che differiscono da () solo su un insieme di misura nulla di punti.
Reciprocamente, l'antitrasformata di Fourier di una generica rappresentazione definita dalla:

lim |() ()

2
2

| = 0

(4.2.40)

82

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci equivale a dire che per antitrasformata di () si deve intendere quella () che soddisfa la (4.2.31) cio la cui distanza euclidea da

2 () 2 tende a zero al divergere di . Daltro canto se funzio

ne () soddisfa la (4.2.40) per una data () essa la soddisfa anche per


tutte le funzioni che ad () sono uguali quasi ovunque. () pertanto
pu essere intesa come antitrasformata di ciascuna di esse.
In definitiva un segnale ad energia finita pu essere quindi rappresentato indifferentemente sia mediante funzioni nel dominio del
tempo sia attraverso funzioni nel dominio della frequenza
opportuno ricordare che se rappresentabile mediante una
funzione che anche sommabile, il limite (4.2.39) pu essere calcolato
anche secondo la metrica di (), cio:

lim |() () 2 | = 0

(4.2.41)

La convergenza dell'integrale 2 () 2 quindi uniforme.

Conclusioni analoghe valgono per l'antitrasformata.


4.3 - Principali propriet della trasformata di Fourier di un
segnale
In quel che segue per semplicit di esposizione la trasformata e
l'antitrasformata di Fourie verranno rispettivamente denotate in una delle forme equivalenti:

a)

() = [()] = () 2 ;

b)

(4.3.1)

() = 1 [()] = () 2 ;

Negli ultimi membri delle quali si sottintendono cio gli eventuali passaggi al limite nel senso di 2 ().
La trasformata di una funzione risulta in generale complessa, essa
si pu quindi scrivere in una delle forme:
() = () + () = |()| ()

(4.3.2)

CAPITOLO - 4 - Segnali a Energia Finita -

83

dove () e () sono funzioni reali.


Dalla precedente si deduce che
per rappresentare un segnale nel dominio della frequenza sono necessari due
diagrammi che mostrano gli andamenti
della parte reale () e del coefficiente
della parte immaginaria (), o equivalentemente, quelli del modulo |()| e
dell'argomento () di () al variare di
. Questi ultimi due diagrammi prendono rispettivamente il nome di spettro di
ampiezza e spettro di fase del segnale.
Trasformata di Fourier
reali.

Fig. 4.2 - Rappresentazione della trasformata di Fourier di un segnale reale.

di segnali

La trasformata di un segnale reale


adottando la notazione (4.3.1) si pu

anche porre nella forma:

() = ()cos(2) ()sin(2)

(4.3.3)

Pertanto, se () reale, le quantit () e () assumono la forma:

a)

() = ()cos(2) ;

b)

(4.3.4)

() = ()sin(2);

Dalle (4.3.4) si deduce che la parte reale (coefficiente della parte


immaginaria) di () una funzione pari (dispari) di ; di conseguenza il
modulo |()| ancora una funzione pari e l'argomento () una
funzione dispari di ; quindi:
() = ()

(4.3.5)

che equivale a dire che la trasformata di Fourier di un segnale reale deve


presentare una simmetria di tipo hermitiano.
In Fig. 4.2 sono mostrati gli andamenti tipici di () e () e
quelli di |()| e () per un segnale reale.
Casi particolari:

84

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

() a simmetria pari cio:


()=()

(4.3.6)

Si osservi che gli integrandi nelle (4.3.4) risultano essere rispettivamente


funzioni pari e dispari del tempo. Quindi:

) () = 2 ()cos(2) ;
0

) () = 0;

(4.3.7)

Pertanto:

() = 2 ()cos(2)
0

(4.3.8)

() a simmetria dispari cio:


() = ()

(4.3.9)

Risulta:
) () = 0;

) () = 2 ()sin(2);

(4.3.10)

quindi:

() = 2 ()sin(2)
0

(4.3.11)

In altri termini, la trasformata di Fourier di una funzione pari


pari, mentre la trasformata di una funzione dispari una funzione immaginaria dispari.
Dalla (4.3.1),b si deduce:
0

() = ( + ( ) 2 )

(4.3.12)

che, cambiando in nel primo integrale, diventa:

() = [() 2 + () 2 ]
0

(4.3.13)

Tenendo presente la condizione (4.3.5), si riconosce facilmente


che le due quantit () 2 e () 2 rappresentano due grandezze complesse coniugate la cui somma uguale al doppio della loro

CAPITOLO - 4 - Segnali a Energia Finita -

85

parte reale. Ci permette, interpretando l'integrale come limite di una


somma di contributi elementari, di scrivere la (4.3.13) nella forma:

() = 2 Re[() 2 ]
0

= 2 |()|cos[2 + ()]

(4.3.14)

= lim 2|()|cos[2 + ()]


0

=0

Osservandone l'ultimo membro,


si deduce che al modulo della trasformata di Fourier si pu attribuire il significato di densit spettrale di ampiezza, in
quanto esso proporzionale al limite del
rapporto tra l'ampiezza dell'armonica di
frequenza e al tendere a zero di
quest'ultimo.
Esempio 4.1
La trasformata di Fourier dell'impulso
rettangolare di durata T :

()= ( )

reale e vale:

2
[ ( )] = 2

={

sin()
; 0
= sinc()

;
=0

Fig.E 4.1

Esempio 4.2
Sia () la funzione gradino unitario definita come segue:
u() = {

1;
0;

0
<0

La trasformata di Fourier dell'impulso esponenziale riportato in Fig.E 4.1a,


definito dalla
() = u()

86

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vale:

() = 2 =
0

1
+ 2

Fig.E 4.2

che si pu anche scrivere(vedi Fig.E 4.1c):


2

arctg(

() = 2
2
=
2
+ 4 2 2
+ 4 2 2
+ 4 2 2

Gli spettri di ampiezza e fase dell'impulso esponenziale sono riportati


nella Fig.E 4.1b
Esempio 4.3
La trasformata di Fourier dell'impulso cosinusoidale:

() = cos ( ) ( )

di Fig.E 4.2a, reale e vale:

2 cos()
() = cos ( ) 2 =

1 (2)2

il cui andamento riportato in Fig.E 4.2 b.

4.4 - Propriet della trasformata di Fourier.


Linearit

Se il segnale ottenuto combinando linearmente segnali ,


cio se esso si pu esprimere nella forma:

=
=1

con costanti reali o complesse, la sua trasformata vale:

(4.4.1)

CAPITOLO - 4 - Segnali a Energia Finita

() = () 2 = () 2
=1

=1

87

(4.4.2)

Ponendo = [ ], la precedente diviene:

(4.4.3)

=1

La trasformata di Fourier della combinazione lineare di segnali quindi la combinazione lineare delle loro trasformate. L'operatore definito
dalla (4.3.1) pertanto lineare.
Simmetria

Dalla (4.3.1)b, si ottiene:

() = () 2

(4.4.4)

che, operando le sostituzioni , si trasforma nella:

() = () 2

(4.4.5)

Dal confronto della precedente con la (4.3.1)a, si deduce che la


(4.4.5) pu essere interpretata come la trasformata di Fourier del segnale
(). In altri termini se () ammette come trasformata (), allora la
trasformata di () uguale a (). In formule:
[()] = () 1 [()] = ()
Esempio 4.4
Applicando alla coppia di trasformate:

() sinc()
ricavata nell'Esempio 4.1 la propriet di simmetria si ottiene:

sinc() ( )

dove si posto = . Si ha dunque:

[sinc()] =

Segnale coniugato
Se [()] = () risulta:

()

(4.4.6)

88

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

[ ()] = ()

= [ ()

(4.4.7)

= ()

Se () reale, essendo:
() = ()

(4.4.8)

dalla (4.4.7) discende la nota condizione di simmetria hermitiana:


() = ()

(4.4.9)

Trasformata coniugata
Se [()] = () risulta:

1 [ ()] = () 2 = [ () 2 ]
(4.4.10)

= ()

Se () reale, dalla precedente discende facilmente:


() = ()

(4.4.11)

Traslazione nel dominio del tempo

La trasformata di Fourier del segnale ( 0 ), che si ottiene da


() traslando l'origine dei tempi di una quantit pari a 0 , (v.Fig. 4.3),
vale:

[( 0 )] = ( 0 ) 2 = 20 [()]

Fig. 4.3 Segnale traslato

(4.4.12)

cio la trasformata del segnale ( 0 )


ritardato di 0 rispetto a () si ottiene
moltiplicando quella di () per
20 . La traslazione di un segnale lascia quindi inalterato lo spettro di ampiezza e aggiunge a quello di fase il
termine 20 proporzionale alla frequenza.

Traslazione nel dominio della frequenza


Detta () la trasformata del segnale (), l'antitrasformata della
funzione ( 0 ), ottenuta da () traslando l'origine dell'asse delle
frequenze della quantit 0 , vale:

CAPITOLO - 4 - Segnali a Energia Finita -

89

1 [( 0 )] = ( 0 ) 2

20

(4.4.13)

[()]

cio: l'antitrasformata di ( 0 ) il prodotto tra il segnale () e il


fattore esponenziale 20 .
Cambiamento di scala

La trasformata di Fourier del segnale () dove una costante


reale positiva vale:

[()] = () 2 =

1
() 2

(4.4.14)

1
= ( ); > 0

Dove [()] = ().


In maniera analoga, si dimostra che, per < 0, si ha:
1
[()] = ( ) ;

<0

(4.4.15)

(4.4.16)

cosicch in generale pu scriversi:


[()] =

( );
||

In particolare per = 1, dalla (4.4.16) discende:


[()] = ()

(4.4.17)

L'inversione dell'asse dei tempi implica quella dell'asse delle frequenze.


Esempio 4.5
Se si pone = nell'impulso esponenziale
dell'Esempio 4.2, si ottiene il segnale () rappresentato in Fig.E 4.3 la cui trasformata di Fourier , in base alla (4.4.17):
() =

1
2

In base a questo risultato e all'Esempio 4.2, si


pu ottenere facilmente la trasformata del segnale () riportato in Fig.E 4.4a:
() = ||

Fig.E 4.3

90

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In effetti, essendo:
() = u() + u()

risulta:
() =
=

1
1
+
+ 2 2

2
+ (2)2

il cui andamento mostrato


in Fig.E 4.4b.

Fig.E 4.4

Derivazione nel dominio del tempo


Derivando rispetto a ambo i membri della (4.3.1),b si ottiene:

()
= (2)() 2

(4.4.18)

ammesso che () sia continua e derivabile quasi dappertutto e che la


sua derivata appartenga ad 2 ().
Pertanto la derivazione nel dominio del tempo si traduce nel dominio della frequenza nel prodotto di () per il fattore 2 cio:
[

()
] = (2)[()]

(4.4.19)

La propriet sopra enunciata pu facilmente estendersi alle derivate di qualunque ordine. Se il segnale () derivabile fino allordine
1 con derivata continua, se la sua derivata 1-esima continua e
derivabile quasi ovunque e se inoltre

()

2 (), derivando successi-

vamente la (4.3.1),b si ottiene:

()
= (2) () 2

(4.4.20)

che equivale a scrivere:


[

()
] = (2) [()]

(4.4.21)

Derivazione nel dominio della frequenza


Supposta () derivabile fino allordine 1 con derivata continua, se la derivata 1-esima continua e derivabile quasi ovunque e

CAPITOLO - 4 - Segnali a Energia Finita -

se inoltre

()

91

2 (), derivando successivamente la (4.3.1)a rispetto

a si ottiene:

()
=

(2) () 2

(4.4.22)

cio:
()

[(2) ()] =

(4.4.23)

ossia: la trasformata del segnale (2) () data dalla derivata esima, rispetto a , della trasformata del segnale ().
Esempio 4.6
2

Sia () = un impulso gaussiano. La cui derivata :


2

() = 2 = 2()

dalla quale, tenendo presenti le (4.4.21) e (4.4.23), si deduce:


()
2 2
=
()

La trasformata () obbedisce quindi ad unequazione differenziale dello


stesso tipo di quella soddisfatta dal segnale, solo che in tal caso, la costante
che compare nell'esponenziale vale

. Si avr pertanto:

() =

2 2

in cui la quantit pu determinarsi dalla condizione:

(0) = ()

ottenuta ponendo = 0 nella (4.3.1),b.


Poich :

= =

risulta:
22
() =

Convoluzione nel dominio del tempo


Siano 1 () e 2 () due segnali e 1 () e 2 () le loro trasformate.

92

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Il segnale () definito dalla7:

() = 1 2 = 1 ()2 ( )

(4.4.24)

prende il nome di convoluzione fra 1 () e 2 (). Effettuando nella precedente la sostituzione di variabili = , si ottiene:

() = 1 ( )2 () = 2 1

(4.4.25)

pertanto la convoluzione gode della propriet commutativa. Inoltre facile verificare che per essa vale anche la propriet distributiva.
Per meglio comprendere il significato della convoluzione in Fig.
4.4 sono indicate le varie fasi che conducono alla (4.4.24).
Una funzione si dice di durata limitata, o a supporto limitato, se esiste
un intervallo limitato tale che al di fuori di esso la funzione quasi
ovunque nulla.
Dalla Fig. 4.4 si deduce anche che se i segnali convolvendi sono
rappresentabili mediante funzioni a durata limitata, anche la loro convoluzione lo .
Infatti detti (1 , 1 ) e (2 , 2 ) gli intervalli di minima ampiezza che individuano le durate dei segnali 1 () e 2 () rispettivamente, la durata del
segnale 2 () anch'essa limitata dallintervallo (2 , 2 ) e quindi la
durata di 2 ( ) definita dallintervallo ( 2 , 2 ). evidente
che l'integrale che compare nella (4.2.24) nullo quando gli intervalli
(1 , 1 ) e ( 2 , 2 ) sono disgiunti. Questo accade quando verificata una delle due condizioni:
1 > 2 ;

1 < 2

(4.4.26)

Ci significa che la durata della convoluzione individuata dalla


seguente catena di disuguaglianze:
1 + 2 < < 1 + 2

(4.4.27)

(1 1 ) + (2 )

(4.4.28)

e quindi vale:

Si precisa che la convoluzione () = 1 ()2 ( ) va intesa come la funzione cui

tende nella metrica di 2 () l'integrale 1 ()2 ( ) quando diverge.

CAPITOLO - 4 - Segnali a Energia Finita -

93

Essa cio pari alla somma delle durate 1 e 2 dei due segnali.
immediato verificare che se anche uno soltanto di due segnali
non a durata limitata la convoluzione non ha durata limitata.
La trasformata di Fourier di () si ottiene dalla:

Fig. 4.4 - Convoluzione fra due segnali nel dominio del tempo

() = 2 [ 1 ()2 ( )]

(4.4.29)

che, invertendo l'ordine di integrazione e tenendo conto della (4.4.12), si


trasforma nella:

94

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

() = 1 () [ 2 ( ) 2 ]
(4.4.30)

= 2 () 1 () 2

Si conclude quindi che:


() = (1 2 ) = 1 () 2 ()

(4.4.31)

In altri termini: la trasformata della convoluzione di due segnali 1 e 2


il prodotto delle loro trasformate.
Convoluzione nel dominio della frequenza
Siano 1 () e 2 () le trasformate di Fourier dei segnali 1 e 2
rispettivamente. L'antitrasformata della convoluzione fra 1 () e 2 ()

definita dalla8:

() = 1 2 = 1 ()2 ( )

(4.4.32)

= 1 ( )2 ()

vale:

() = 2 [ 1 ()2 ( )]

(4.4.33)

che, invertendo l'ordine di integrazione e ricordando la (4.4.13), ci da:

() = 1 ()[ 2 ( ) 2 ]

= 2 () 1 ()

(4.4.34)
2

= 1 ()2 ()

Pertanto la trasformata del prodotto di due segnali data dalla convoluzione in frequenza delle loro trasformate.
Esempio 4.7

Per la convoluzione in frequenza valgono le considerazioni della nota relativa alla convoluzione nel dominio del tempo.

CAPITOLO - 4 - Segnali a Energia Finita -

95

La convoluzione di un rettangolo unitario di durata con se stesso


espressa dalla:

() =

( ) (

Quest'ultima, riferendosi alla Fig.E


4.5, si pu riscrivere per 0:

Fig.E 4.5

= ;
() = {
2

0;

0<<
>

e analogamente per < 0:


() = {

= + ;

< <0

0;

<

In definitiva introducendo limpulso triangolare () = (1 |2|) () risulta:

() = ( ||) ( ) = ( )
2
2

pertanto la convoluzione () un impulso triangolare di durata 2ed altezza .


Applicando la propriet (4.4.31) si ha infine:
() = sinc() sinc() = 2 sinc 2 ()

Esempio 4.8

Fig.E 4.6

Sia () un segnale la cui trasformata di


Fourier () si annulla al di fuori dell'intervallo [, ] come mostrato in Fig.E 4.6. La
trasformata del quadrato 2 () del segnale, si
pu ottenere dalla convoluzione di () con
se stessa. Si pu cio scrivere:

[ 2 ()] = ()( )

Risulta:
[ 2 ()] = 0;

|| > 2

Pertanto la trasformata di Fourier del segnale 2 () nulla al di fuori dell'intervallo [2, 2].

96

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In generale la trasformata di
Fourier di () vale zero al di
fuori dell'intervallo [, ].
Esempio 4.9
Si consideri la seguente funzione:

() = ( ) sinc()
2

(vedi Fig.E 4.8). ottenuta annullando lo spettro dell'impulso


rettangolare al di fuori dell'in-

Fig.E 4.7

tervallo

B, B .

Risulta:

1 [()] = ( )

Fig.E 4.8

Pertanto in virt della (4.4.6) si


ottiene:

1 [ ( )] = 2sinc(2)
2

L'antitrasformata vale quindi:

() = 2 sinc[2( )]

che, si pu esprimere in termini


della funzione "seno integrale":

() =
Fig.E 4.9

sin

rappresentata in Fig.E 4.9. Si


noti che Si() una funzione dispari.
Effettuando il cambiamento di variabile = 2( ), () diviene:
() =

[Si (2 ( + )) Si (2 ( ))]

2
2

In Fig.E 4.7 riportato l'andamento di () in funzione del tempo. Dalla


stessa figura si evince che un troncamento in frequenza del segnale comporta
l'eliminazione delle discontinuit presenti nell'impulso rettangolare origina-

CAPITOLO - 4 - Segnali a Energia Finita -

97

rio nei punti = 2. Per contro la durata nel tempo di un segnale il cui
spettro null o al di fuori di un certo intervallo di frequenze infinita.

Nella Tabella 4.1 sono riassunte tutte le propriet della trasformata di Fourier precedentemente discusse.
Tabella 4.1

Propriet della trasformata di Fourier


Segnale

Propriet

Trasformata

Linearit

()

()

=1

=1

()

()

()

()

()

()

( 0 )

20 ()

20 ()

( 0 )

Cambiamento di
scala

()

( )
||

Derivazione nel
dominio del
tempo
Derivazione nel
dominio della
frequenza
Convoluzione
nel dominio del
tempo
Convoluzione
nel dominio della frequenza

()

(2) ()

(2) ()

()

Simmetria
Segnale coniugato
Trasformata coniugata
Traslazione nel
dominio del
tempo
Traslazione nel
dominio della
frequenza

1 ()2 ( )

1 () 2 ()

1 () 2 ()

1 ()2 ( )

Note
costanti

98

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

4.5 - Limitazioni dello spettro di ampiezza di un segnale.


Sia un segnale rappresentabile mediante una funzione ()
sommabile che sia derivabile a tratti. La sua trasformata di Fourier si
pu allora scrivere:

() = () 2 = () 2

= {[
=

= 1

() 2
1
]
+
() 2 }
2 +
2 1

(4.5.1)

1
=
[((+ ) ( )) 2 + () 2 ]
2
1
=

essendo { } l'insieme degli estremi degli intervalli all'interno dei quali


() risulta derivabile. Dalla precedente si deduce la limitazione:
|()|

1
| [((+ ) ( )) 2 + () 2 ]|
|2|
1
=

(4.5.2)

1
(|(+ ) ( )| + | ()| )
|2|
1
=

che, se la sommatoria che vi compare si mantiene finita, comporta:


|()|

1
|2|

(4.5.3)

dove si posto:

1 = (|(+ ) ( )| +

| ()| )

(4.5.4)

se () continua, la (4.5.4) si semplifica nella:

1 = | ()|

(4.5.5)

In queste ipotesi, se () a sua volta derivabile a tratti, la (4.5.1) pu


ulteriormente scriversi:

CAPITOLO - 4 - Segnali a Energia Finita -

99

() = () 2

1
= {
() 2 } =
2 1

(4.5.6)

[( (+ ) ( )) 2 + () 2 ]
2
(2)
1
=

nella quale si fatto riferimento all'insieme { } { } degli estremi degli intervalli all'interno dei quali la () derivabile. La (4.5.6) comporta
evidentemente la ulteriore limitazione:
|()|

2
|2|2

(4.5.7)

con

2 = (| (+ ) ( )| +

| ()| )

(4.5.8)

ovvero se anche () continua:

2 = | ()|

(4.5.9)

immediato constatare che il procedimento seguito pu iterarsi


fino all'ordine di derivazione se la derivata di ordine 2 continua
e derivabile a tratti e se la derivata 1 pur essendo derivabile a tratti
presenta discontinuit non eliminabili.
Si ottengono cos le seguenti limitazioni per lo spettro di ampiezza del segnale:
|()|

;
|2|

= 0, ,

(4.5.10)

in cui si anche tenuto conto che |()| |()| = 0 .


Dalle (4.5.10) si deduce che la trasformata del segnale infinite1
sima almeno di ordine rispetto ad . Inoltre l'insieme delle (4.5.10) pu
essere utilizzato per delimitare nel piano , |()| la regione che contiene lo spettro di ampiezza del segnale.
Si osservi che un ragionamento analogo pu essere sviluppato per dedurre delle limitazioni sul segnale nota che sia la sua trasformata.

100

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Esempio 4.10
Sia dato il segnale s rappresentato in Fig.E 4.10. La sua trasformata data da:
() = 3sinc()sinc(3)
Fig.E 4.10

Poich il segnale rappresentabile mediante una funzione continua e derivabile a tratti per essa valgono, per = 0,1,2, le limitazioni
(4.5.10) con:

0 = |()| = 3

1 = | ()| = 2

2 = (| (+ ) ( )| + | ()| ) = (| (+ ) ( )|) = 4
=

da cui:
|()| 3;
|()|

1
||
1

{ |()| 22 ;

In Fig.E 4.11 sono rappresentate graficamente la


trasformata di Fourier e le
limitazioni ricavate per lo
spettro di ampiezza, tenendo conto del fatto che la trasformata del segnale consiFig.E 4.11
derato reale, in quanto il
segnale in oggetto rappresentato da una funzione reale pari.

4.6 - Segnali bidimensionali.


Lo studio di un segnale nel dominio della frequenza, affrontato
nel caso di segnali monodimensionali, pu essere esteso al caso di segnali bidimensionali o, multidimensionali in generale.
Sia (, ) un segnale bidimensionale a energia finita tale cio che
risulti:

CAPITOLO - 4 - Segnali a Energia Finita

101

= |(, )|2 <


(4.6.1)

la trasformata di Fourier ( , ) di (, ) definita come segue:

( , ) = [(, )] = (, ) 2( + )

(4.6.2)

e la corrispondente antitrasformata:
(, ) = 1 [( , )]

= ( , ) 2( + )

(4.6.3)

Nella (4.6.1) e (4.6.2), le variabili ed rappresentano le frequenze


spaziali che corrispondono alla variabile utilizzata per i segnali monodimensionali.
La trasformata bidimensionale gode di propriet analoghe a quelle gi viste nello studio della trasformata monodimensionale.
Le predette propriet vengono qui di seguito elencate, omettendone le dimostrazioni,
Linearit
Se (, ) = 1 1 (, ) + 2 2 (, ) con 1 e 2 costanti comples-

se, :
( , ) = 1 1 ( , ) + 2 2 ( , )

(4.6.4)

essendo ( , ), 1 ( , ) e 2 ( , ) le trasformate di (, ), 1 (, )
e 2 (, ) rispettivamente.
Traslazione nel dominio dello spazio e della frequenza

Se (, ) un segnale che ammette trasformata di Fourier data da


risulta:

( , )

[( , )] = 2( + ) ( , )

(4.6.5)

come pure:
1 [( , )] = 2(+ ) (, )
Cambiamento di scala.
Se ( , ) la trasformata di Fourier di (, ) si ha:

(4.6.6)

102

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

[(, )] =

1

( , );
||

, 0

(4.6.7)

Convoluzione nel dominio dello spazio e della frequenza


Se 1 (, ) e 2 (, ) sono due segnali le cui trasformate sono rispettivamente 1 ( , ) e 2 ( , ), il segnale (, ) definito dalla:
(, ) = 1 2

= 1 (0 , 0 )2 ( 0 , 0 )0 0

(4.6.8)

detto convoluzione di 1 (, ) con 2 (, ); esso trasformabile secondo Fourier e la sua trasformata vale:
( , ) = 1 ( , ) 2 ( , )

(4.6.9)

In maniera analoga, alla convoluzione nel dominio della frequenza:


( , ) = 1 2

= 1 (0 , 0 )2 ( 0 , 0 )0 0

(4.6.10)

corrisponde il segnale (, ):
(, ) = 1 (, ) 2 (, )

(4.6.11)

dove 1 (, ) ed 2 (, ) sono rispettivamente le trasformate inverse di


1 ( , ) e 2 ( , ).
Esempio 4.11
Si consideri il segnale (, ) che vale 1 nella regione tratteggiata di Fig.E 4.12 ed identicamente
nullo altrove. La sua trasformata bidimensionale vale:
( , ) =

= sinc( )sinc( )

Fig.E 4.12

CAPITOLO - 4 - Segnali a Energia Finita -

103

Vedi Fig.E 4.13

Fig.E 4.13

Trasformazioni di variabili
Se il segnale (, ) presenta una simmetria di tipo circolare opportuno rappresentare sia il segnale sia la sua trasformata ( , ) in

coordinate polari ponendo:


= cos
= cos
{
; {
;
= sin
= sin

(4.6.12)

(, ) = ( cos , sin , ) = ()

(4.6.13)

Si pu scrivere:
Tenendo presente che i determinanti Jacobiani delle trasformazioni
(4.6.13) valgono e rispettivamente e che risulta:
+ = (cos cos + sin sin ) = cos( )

(4.6.14)

La (4.6.2) nei nuovi riferimenti si riscrive come segue:

(, ) = () 2 cos())
0

(4.6.15)

104

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ricordando che l'espressione della funzione di Bessel di prima


specie di ordine zero vale:
1 cos

0 () =

(4.6.16)

la (4.6.16) si pu riscrivere:

( cos , sin ) = 2 ()0 (2) = ()


0

(4.6.17)

immediato constatare che la precedente indipendente dalla variabile


pertanto si conclude che la simmetria circolare del segnale comporta
quella della sua trasformata e viceversa.
La (4.6.17) detta trasformata di Hankel:

[()] = 2 ()0 (2)


0

(4.6.18)

Si pu facilmente verificare che, in virt della simmetria pari di


J 0 (z ) , si ha:

-1 [()] = 2 ()0 (2) = ()


0

(4.6.19)

Pertanto la trasformata di Hankel inversa ha la stessa struttura di quella


diretta.
Esempio 4.12
Nel caso in cui il segnale (, ) valga 1 nel
cerchio tratteggiato in Fig.E 4.14 e 0 altrove, si
ha:

() = 0 2 cos() =

0 2 cos() =

Fig.E 4.14

2 0 0 (2)

Poich risulta:

0 () = 1 ()
0

si ha:

CAPITOLO - 4 - Segnali a Energia Finita

2 0 (2) =
0

Fig.E 4.15

Vedi Fig.E 4.15

(2)
1

105

CAPITOLO - 5
SEGNALI A POTENZA FINITA
5.1 - Cenni di teoria delle distribuzioni.
Una classe di segnali particolarmente importante quella dei segnali a potenza finita; i quali, non essendo rappresentabili mediante funzioni a quadrato sommabile, non ammettono trasformata di Fourier. Al
fine di estendere a tali segnali la rappresentazione nel dominio della frequenza necessario introdurre il concetto di distribuzione.
A tal fine si premettono alcune definizioni:
unapplicazione () si dice lineare se per ogni coppia di elementi ,
del suo dominio risulta:
( + ) = () + ();

(5.1.1)

Si noti che il dominio e l'insieme immagine di () devono necessariamente essere spazi vettoriali.
Unapplicazione () si dice continua se ad ogni successione di
elementi del suo dominio che sia convergente, secondo il criterio di
convergenza in esso individuato, corrisponde una successione di immagini convergente in base al criterio di convergenza individuato nel codominio dipendentemente dalla sua struttura topologica.
Ci premesso si definisce insieme delle funzioni di prova lo spazio (lineare) D delle funzioni () a valori reali o complessi, definite in
, ivi a supporto limitato e dotate di derivate di qualunque ordine.
Per supporto sintende la chiusura dell'insieme che contiene punti
del dominio in cui la funzione assume valori diversi da zero.
Si noti che lo spazio D non vuoto, poich la funzione:
() =

( 2 2)

( )

(5.1.2)

108

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Fig. 5.1 - e

2
)
22

vi appartiene (vedi Fig. 5.1).


In D sintroduce il seguente
criterio di convergenza: una successione { }
=0 converge alla funzione di D se:
- esiste un aperto limitato che
contiene i supporti delle funzioni
;
- per ogni e qualunque sia
l'ordine di derivazione si ha:

(2 )

()
lim () = () ();

(5.1.3)

Ci premesso si dice distribuzione ogni applicazione lineare e


continua, a valori generalmente complessi, definita sullo spazio D delle
funzioni di prova. Il valore assunto dalla distribuzione in corrispondenza ad una data funzione di prova sar nel seguito indifferentemente indicato mediante una delle seguenti forme:
() o ,

(5.1.4)

Si consideri l'insieme D , detto spazio duale, contenente tutte le


distribuzioni in D. In detto insieme si definisce somma di due distribuzioni 1 , 2 la distribuzione che associa alla generica funzione di prova
la somma dei valori che le associano le due distribuzioni 1 , 2 , cio:
= 1 + 2 , se, D, () = 1 () + 2 ()

(5.1.5)

ci si rende conto che, comunque si scelgano in D 1 e 2 , la loro somma


ancora una distribuzione in D, e che D un gruppo commutativo rispetto a tale operazione, il cui elemento neutro la distribuzione che associa il valore 0 ad ogni elemento di D.
Inoltre possibile definire in D la legge di composizione esterna
tra D e il campo dei complessi come segue:
= , se, D,

() = ()

(5.1.6)

facile verificare che le (5.1.5) e (5.1.6) soddisfano le (5.1.1) pertanto D


uno spazio vettoriale.

CAPITOLO - 5 - Segnali a Potenza Finita -

109

5.2 - Esempi di distribuzioni.


Distribuzioni regolari
Una funzione () localmente sommabile in , cio sommabile
in ogni suo sottoinsieme limitato, individua la distribuzione :

() = ()()

(5.2.1)

dove () rappresenta un generico elemento di D.


Una distribuzione che si pu esprimere nella forma (5.2.1) si dice
regolare in caso contrario la distribuzione si dice singolare.
Funzioni che assumono valori diversi solo su un insieme di misura nulla definiscono la stessa distribuzione.
Gradino unitario

La distribuzione gradino unitario cos definita:

u() = (t)dt
0

(5.2.2)

una distribuzione regolare associata alla


funzione:
u() = {

1;
0;

0
<0

(5.2.3)

Fig. 5.2 - Gradino unitario

rappresentata in Fig. 5.2.


Delta di Dirac

La distribuzione delta di Dirac, ,


definita dalla:
() = (0)

(5.2.4)

La delta di Dirac associa cio ad ogni funzione () in D il valore che essa assume

Fig. 5.3 - Delta di Dirac

all'origine.
La delta di Dirac una distribuzione singolare, tuttavia pu essere
utile introdurre una notazione impropria analoga alla (5.2.1):

()() = (0)

(5.2.5)

110

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

dove () denota il cosiddetto impulso di Dirac, che viene rappresentato mediante una freccia rivolta verso l'alto spiccata nel punto = 0 (vedi. Fig. 5.3).
La (5.2.5) si pu pensare come limite della successione di distribuzioni regolari associata ad impulsi rettangolari aventi supporto tendente a zero ed area costante e pari a uno (vedi Fig. 5.4):

() = ()() =

1
2
1
2

() = ()

(5.2.6)

essendo un opportuno punto che giace all'interno dell'intervallo di integrazione. Al tendere di ad infinito, poich l'intervallo di integrazione
tende all'insieme {0}, tende a zero, di conseguenza la { } tende ad assumere il valore della funzione di prova in zero. Pertanto si indotti a
scrivere:
lim () = ()

(5.2.7)

Tuttavia la (5.2.7) non ha senso se si


considera la () una funzione ordinaria, in quanto il supporto della () sarebbe solo il punto 0. Pertanto l'integrale (5.2.5) dovrebbe essere nullo indipendentemente dalla scelta della .
Daltro canto, possiamo anche osservare che la successione () riguardata come una successione in 2
non di Cauchy quindi non convergente.
Tuttavia la (5.2.7) utile in
quanto d ragione della rappresenta- Fig. 5.4 - Approssimazione della dizione grafica della , e mostra che, stribuzione delta.
comunque, la distribuzione in parola si
pu approssimare, bene quanto si vuole, mediante distribuzioni regolari.
Pseudo funzione t-1
La funzione 1 non localmente sommabile su un qualsiasi intervallo contenente l'origine e tanto meno lo 1 () se () non ri-

CAPITOLO - 5 - Segnali a Potenza Finita -

111

sulta infinitesima nell'origine. Ciononostante, D, il valore principale di Cauchy dell'integrale 1 (), definito come segue:

VP 1 () = lim ( 1 () + 1 ())
0

(5.2.8)

esiste finito, ed una forma lineare e continua su D. Ci significa che alla funzione 1 si pu associare la distribuzione Pf( 1 ) detta pseudo
funzione 1 , definita dalla:

Pf( 1 ), = VP 1 ()

(5.2.9)

Risulta:

VP 1 () = lim 1 () +lim 1 ()
0

(5.2.10)

= lim 1 (() ()) = 1 (() ())


0

in quanto la funzione () () infinitesima nell'origine.


In definitiva quindi si pu scrivere:

( 1 ), = 1 ()

(5.2.11)

= 1 (() ())
0

5.3 - Calcolo delle distribuzioni.


Uguaglianza

Due distribuzioni e si dicono uguali quando sono uguali i va


lori da esse assunti in corrispondenza ad ogni elemento di D, cio:
=

se, D, () = ()

(5.3.1)

Somma

La somma + di due distribuzioni la distribuzione che associa, ad ogni D, la somma dei valori che le distribuzioni e prese
singolarmente associano alla generica funzione di prova :
= + se, D, () = () + ()
Traslazione

Per ogni distribuzione regolare, si ha ovviamente:

(5.3.2)

112

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

( 0 ), () = ( 0 )()

(5.3.3)

= ()( + 0 ) = (), ( + 0 )

Estendendo le conclusioni della precedente anche alle distribuzioni singolari si pu definire traslata 0 di una distribuzione la distribuzione:
0 , () = , ( + 0 )

(5.3.4)

cio, la traslata 0 della distribuzione la distribuzione che associa alla


generica funzione di prova il valore che la distribuzione originaria assocerebbe alla medesima funzione di prova anticipata di 0 .
Ad esempio applicando la (5.3.4) alla si ottiene:
0 , () = , ( + 0 ) = (0 )

(5.3.5)

che, adottando la formulazione (5.2.5), equivale a scrivere:

( 0 )() = (0 )

(5.3.6)

La rappresentazione della ( 0 ) riportata in Fig. 5.3.


Derivata di una distribuzione

Si consideri una funzione derivabile in con derivata continua;


alla sua derivata si pu associare la seguente distribuzione regolare:

() ()

(5.3.7)

Applicando alla precedente la regola dintegrazione per parti si ottiene:

, = ()()

(5.3.8)

= () () + [()()]
= ,

dove si tenuto conto del fatto che la , appartenendo allo spazio del le
funzioni di prova, a supporto limitato.
La (5.3.8) si generalizza sia al caso delle distribuzioni regolari associate a funzioni localmente sommabili, sia al caso delle distribuzioni
singolari. La (5.3.8) definisce quindi la derivata di una distribuzione.

CAPITOLO - 5 - Segnali a Potenza Finita -

113

Applicando ricorsivamente (5.3.8) si deduce l'espressione della


derivata generalizzata di ordine di una distribuzione:
, = , (1)

(5.3.9)

Ricordando che lo spazio D costituito da funzioni infinitamente


derivabili, dalla precedente si deduce che la distribuzione un ente matematico infinitamente derivabile.
Ad esempio:
- La derivata della distribuzione associata al gradino unitario vale:

u , = , = () = [()]
0 = (0)
0

(5.3.10)

pertanto:
u , = ,

(5.3.11)

La precedente, adottando la notazione utilizzata nella (5.2.5), suggerisce


di scrivere:
u()
= ()

(5.3.12)

- La derivata della delta di Dirac vale:


, = , = (0)

(5.3.13)

Essa definisce quindi una distribuzione , detta doppietta unitaria, che


viene talvolta espressa, impropriamente, nella forma:

() () = (0)

(5.3.14)

Per la derivata -esima della delta di Dirac, si deduce facilmente:


, = , (1) = (1) (0)

(5.3.15)

che si esprime anche mediante la scrittura:

() () = (1) (0)

(5.3.16)

Sia () una funzione continua e derivabile ovunque fatta eccezione per


il punto 0 in corrispondenza del quale esistono finite le seguenti quantit: (0 ), (0+ ), (0 ) e (0+ ).

114

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Sia 1 () una funzione ottenuta da () eliminando il salto che si presenta nel punto di ascissa 0 (vedi Fig. 5.5). La () si pu quindi esprimere come segue:
() = 1 () + 0 ( 0 )

(5.3.17)

0 = (0+ ) (0 )

(5.3.18)

dove:
Si consideri adesso la distribuzione regolare associata alla ():
, = 1 , + 0 u0 , = 1 , + 0 u, ( + 0 )

(5.3.19)

In virt della linearit, la sua derivata vale ovviamente:


, = 1 , + 0 0 , ()

(5.3.20)

Si pu quindi scrivere
() = 1 () + 0 ( 0 )

(5.3.21)

La funzione 1 () non definita per = 0 , e potrebbe ivi presentare una discontinuit non eliminabile. opportuno osservare che
laddove esiste () risulta ovviamente 1 () = ().
Osserviamo inoltre che ()
individua una distribuzione regolare
Fig. 5.5 - Segnale continuo a tratti
in quanto {0 } ha misura nulla.
La (5.3.20) si pu generalizzare al caso di funzioni che presentino
un insieme al pi numerabile di punti del tipo sopra considerato scrivendo:
, = 1 , + , ()
I

(5.3.22)

che equivale a:
() = 1 () + ( )
I

(5.3.23)

avendo denotato con:


= (+ ) ( ); I

(5.3.24)

CAPITOLO - 5 - Segnali a Potenza Finita -

115

i salti che subisce la funzione () nei punti di discontinuit .


Prodotto di una funzione per una distribuzione

Sia () una funzione appartenente allo spazio E delle funzioni


continue e derivabili infinite volte in . Se () una distribuzione regolare si ha:

, = [()()]() = ()[()()]
(5.3.25)

= ,

la quale, generalizzata ad una distribuzione singolare, diventa:


< , >=< , >

(5.3.26)

Ad esempio per la distribuzione si ha:


0 , = 0 , = (0 )(0 ) = (0 )0 ,

(5.3.27)

che si suole scrivere anche nella forma impropria:


()( 0 ) = (0 )( 0 )

(5.3.28)

Nel caso della pseudo funzione , si osservi che se la () infinitesima nell'origine si pu scrivere:

()
()
() =
()

()( 1 ), =

(5.3.29)

= () 1 ,

cio:
()( 1 ) =

()

(5.3.30)

Distribuzioni a supporto limitato

Per supporto di una distribuzione si intende il complementare


dell'unione dei sottoinsiemi di tali che si abbia , = 0 per ogni
funzione di prova il cui supporto in essi contenuto.
Ad esempio:
- il supporto della delta di Dirac l'insieme che contiene esclusivamente l'origine, giacche la () vale 0, per ogni il cui supporto non contiene l'origine;
- il supporto del gradino unitario il semiasse reale positivo poich
u() = 0 per ogni il cui supporto sia contenuto in (, 0).

116

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si rende conto facilmente che per ogni funzione () E e


qualunque sia () D la funzione ()() D
Si consideri una distribuzione a supporto limitato e si scelga la
funzione di prova nel sottoinsieme di D costituito da tutte le funzioni
che valgono 1 in un qualsiasi insieme che contiene il supporto di . In
corrispondenza a dette funzioni, e qualunque sia () E, si pu scrivere:
, = ,

(5.3.31)

Ci significa che le distribuzioni a supporto limitato possono essere definite anche sullo spazio E. In altri termini una distribuzione a
supporto limitato in D anche una distribuzione su E. Si pu dimostrare che vale il viceversa, cio che ogni distribuzione appartenente allo
spazio E, duale di E, una distribuzione a supporto limitato in D, e
quindi che E D.
5.4 - Convoluzione tra distribuzioni.
Siano () e () due funzioni localmente sommabili, la loro
convoluzione , se esiste per ogni la funzione () definita dalla:

() = ()( ) = ( )()

(5.4.1)

Se () localmente sommabile essa individua una distribuzione regolare. Si ha cio per ogni D:

, = ()()

= () ( ()( ))

(5.4.2)

= ()()( )

che, introducendo la trasformazione di variabili


=

(5.4.3)

diviene:

, = () ( ()( + ))

(5.4.4)

CAPITOLO - 5 - Segnali a Potenza Finita -

117

Analogamente, procedendo sulla base del secondo integrale che


compare nella (5.4.1), si ha:

, = () ( ()( + ))

(5.4.5)

Si quindi portati a riscrivere le (5.4.4) e (5.4.5) nella forma:


, = (), (), ( + ) = (), (), ( + )

(5.4.6)

Si osservi tuttavia che gli integrali interni delle (5.4.4) e (5.4.5), in quanto
distribuzioni regolari, definiscono due funzioni nelle variabili e , che,
pur essendo infinitamente derivabili, in genere non presentano supporto
limitato. Conseguentemente, l'interpretazione degli integrali esterni delle
(5.4.4) e (5.4.5) come distribuzioni non sempre legittima
Le (5.4.6) consentono tuttavia di generalizzare il concetto di convoluzione alle distribuzioni.
Siano e due distribuzioni; la loro convoluzione , se esiste,
una distribuzione = , definita dalla:
, = , = , , ( + )
= , , ( + )

(5.4.7)

dove i pedici indicano la variabile da cui dipende la funzione di prova a


cui la distribuzione applicata.
A proposito dell'esistenza della convoluzione tra distribuzioni vale la seguente condizione sufficiente: detti rispettivamente e i
supporti delle distribuzioni e , si pu dimostrare che la convoluzione
tra distribuzioni ha senso tutte le volte che l'intersezione fra il prodotto
cartesiano ed il supporto della funzione ( + ) pensata come
funzione delle variabili , limitato in 2 .
Si osservi che la () D, quindi a supporto limitato; pertanto,
certamente, esiste un intervallo (, ) limitato che contiene il supporto
di . Altrettanto non pu dirsi del supporto della ( + ) in 2 . In effetti il supporto della ( + ) contenuto nella striscia limitata dalle
rette:
+ =
+=

(5.4.8)

118

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

rappresentata in Fig. 5.6. Con riferimento alla stessa figura, si deduce


che, se la () D, la convoluzione tra due distribuzioni ha certamente senso quando:
a) almeno una delle due distribuzioni o ha supporto limitato (vedi
Fig. 5.6a e Fig. 5.6b);
b) entrambe le distribuzioni e hanno supporti limitati inferiormente (vedi Fig. 5.6c);
c) entrambe le distribuzioni e hanno supporti limitati superiormente (vedi Fig. 5.6d).
Ad esempio, essendo la delta di Dirac una distribuzione a supporto limitato, si ha, qualunque sia la distribuzione :
, = , , ( + ) = , () = ,

(5.4.9)

(5.4.10)

cio:
La delta di Dirac quindi elemento neutro nell'operazione di
convoluzione.
In maniera analoga si verifica che:
=

(5.4.11)

() = ()

(5.4.12)

e pi in generale:
Infatti :
() , = , () , ( + )
= , () () = () ,

(5.4.13)

Ponendo nella (5.4.11) = si ottiene:


( ) = ( ) = = ( )
=

o anche, per la commutativit della convoluzione:

(5.4.14)

CAPITOLO - 5 - Segnali a Potenza Finita -

119

Fig. 5.6

( ) = ( ) = = ( ) =

(5.4.15)

dalle quali si deduce che per derivare un prodotto di convoluzione basta


derivare uno qualsiasi dei fattori.
Esempio 5.1
La propriet di derivazione (5.4.14) pu essere
utilmente impiegata per il calcolo della convoluzione dei segnali. Cos ad esempio per valutare la

convoluzione fra l'impulso rettangolare ( ) e

l'impulso triangolare ( ) (vedi Fig. E 5.1):

() = ( ) ( )

Applicando la (5.4.15) si ha:


Fig.E 5.1

da cui essendo:

() =

( ( )) ( )

120

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

( ( )) = ( + ) ( )

2
2

risulta:

() = ( ( + ) ( )) ( )
2
2

che equivale a scrivere:


1
1
() = ( + ) ( )
2
2
Fig.E 5.2

L'andamento di () in funzione di ri-

portato in Fig.E 5.2.


Si ha allora integrando:

() = () + () =
2

( + 1) ;

( 1) ;
{0;

( ( ) + ) ;

||

Essendo () = 0. () rappresentato
in Fig.E 5.3.

Fig.E 5.3

5.5 - Formula di Poisson.


Si consideri adesso la distribuzione generata dalla funzione:

1
() = 2

(5.5.1)

Detta distribuzione associa alla generica funzione di prova il valore:

1
, = () 2

1
2 ()

=
= =

1 (k+1) 2
(t)

kT

(5.5.2)

CAPITOLO - 5 - Segnali a Potenza Finita

=
= =

=
= =

121

1 2 +
( + )

0
1 2
( + )

0

1
= 2 ( )
0

dove si utilizzata la trasformazione di variabili = + . Si noti che,


la sommatoria che compare all'interno dell'integrale dell'ultimo membro
della precedente, costituisce la cosiddetta ripetizione periodica () di
().
Si osservi che, in virt della limitatezza del supporto della funzione di prova, per ogni istante, soltanto un numero finito di repliche traslate di () sar diverso da zero; pertanto la , oltre ad essere periodica limitata in . Inoltre l'appartenenza della allo spazio D assicura la
infinita derivabilit di in . La pu essere sviluppata in serie di
Fourier; serie che converger al valore assunto dalla per ogni . Si ha
quindi:

() = ( ) = 2
=

(5.5.3)

che sostituita nella (5.5.2) fornisce:

1
, = () 2 =
0

(5.5.4)

Se nella (5.5.4) si fa tendere ad infinito si ottiene:

lim , = lim = (0) = ()

(5.5.5)

= () <
=

che pu quindi essere interpretato come una distribuzione che si


indica con:

122

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

1
1
2 , () = lim
2 , ()

(5.5.6)

D'altra parte poich per la (5.3.5) risulta anche:

( ) , () = ()
=

(5.5.7)

si deduce immediatamente la seguente fondamentale uguaglianza:

1
2 = ( )

(5.5.8)

che va sotto il nome di formula di Poisson.


5.6 - Trasformata di Fourier di una distribuzione.
Sia () localmente sommabile e dotata di trasformata di Fourier:

() = () 2

(5.6.1)

Alla () si pu associare la distribuzione:

(), = ()()

(5.6.2)

che si pu scrivere come:

[()], = () ( () 2 )

(5.6.3)

= () ( () 2 ) = ()()

avendo denotato con () la trasformata della funzione (). da osservare che l'ultimo termine della precedente non costituisce una distribuzione in D, poich, come sar dimostrato nel Cap. VII, la trasformata
di Fourier di una funzione a supporto limitato non pu avere supporto
limitato, quindi, se () D, la sua trasformata () D.
Per estendere la trasformata di Fourier alle distribuzioni quindi
necessario definire uno spazio di funzioni di prova pi ampio, che sia
cio tale da contenere la trasformata di Fourier di ogni suo elemento.
A tal proposito vale il seguente

CAPITOLO - 5 - Segnali a Potenza Finita -

123

Teorema 5.1
Sia () una funzione dotata di derivate di qualsiasi ordine continue, tali che comunque presi , risulti:
lim | () ()| = 0

||

(5.6.4)

Allora () trasformabile secondo Fourier, e la sua trasformata () continua,


dotata di derivate di qualsiasi ordine continue e tali che:
lim | () ()| = 0

||

(5.6.5)

************
Le funzioni che soddisfano la (5.6.5) prendono il nome di funzioni temperate e lo spazio da esse definito viene denotato con S. Tale
2
spazio non banale giacch la funzione la cui trasformata di Fou2 2
rier vale vi appartiene. Si noti inoltre che lo spazio delle funzioni di prova D, precedentemente definito, contenuto nello spazio
delle funzioni temperate.
Le distribuzioni su S si chiamano distribuzioni temperate, per esse valgono tutte le propriet gi dimostrate per le distribuzioni in .
Lunica sostanziale differenza risiede nel fatto che ad una funzione che
sia solo localmente sommabile non si pu pi associare una distribuzione regolare.
Ci posto, se si assume come spazio delle funzioni di prova lo
spazio S, l'ultimo termine della (5.6.3) pu interpretarsi come una distribuzione regolare su tale spazio. Estendendo la (5.6.3) anche al caso delle
distribuzioni singolari su S si ottiene la seguente definizione per la trasformata [] di una distribuzione temperata:
[], = , ;

, S

(5.6.6)

La trasformata di Fourier [] di una distribuzione dunque


quella distribuzione che opera sulla funzione come la distribuzione
opererebbe sulla trasformata della .
In maniera analoga si definisce antitrasformata di Fourier di una
distribuzione la distribuzione, denotata con 1 [], tale che si abbia:
1 [], = , ;

, S

(5.6.7)

124

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

5.7 - Trasformata di Fourier di distribuzioni a supporto


limitato.
Se () una funzione sommabile a supporto limitato, la (5.6.3)
si pu porre nella forma:

[], = ( () 2 ) ()

(5.7.1)

L'integrale interno, poich () a supporto limitato e poich 2 per


ogni un elemento dello spazio E, definisce una distribuzione regolare
in E dipendente dal parametro . Pertanto la (5.7.1) si pu riscrivere
come segue:

[], = ( () 2 ) ()

(5.7.2)

[] = (), 2

(5.7.3)

da cui:
La precedente pu essere generalizzata anche alle distribuzioni
singolari a supporto limitato, scrivendo:
[] = , 2 ;

E '

(5.7.4)

E '

(5.7.5)

Analogamente si ha:
1 [] = , 2 ;

Le (5.7.4) e (5.7.5) definiscono funzioni di variabile e rispettivamente.


Il limite del rapporto incrementale della (5.7.4) vale:
, 2(+) , 2
0

2(+) 2
= , 2 2
= , lim
0

lim

(5.7.6)

Esso esiste finito dal momento che 2 2 E.


La (5.7.6) comporta che la trasformata di Fourier di una distribuzione a supporto limitato essendo derivabile continua. inoltre immediato constatare che anche derivabile infinite volte.
Considerazioni analoghe valgono per l'antitrasformata di Fourier
delle distribuzioni a supporto limitato.

CAPITOLO - 5 - Segnali a Potenza Finita -

125

5.8 - Trasformate di Fourier di distribuzioni notevoli.


Trasformata di una costante
() = 1 non ammette trasformata di Fourier. Tuttavia nell'ambi-

to delle distribuzioni si ha, ricordando la (5.6.7):

[1], = 1, = () = (0) = ,

(5.8.1)

che equivale a scrivere:


[1] = ()

(5.8.2)

Trasformata della delta di Dirac

Essendo la delta di Dirac a supporto limitato la sua trasformata di


Fourier vale:
[] = , 2 = 1

(5.8.3)

Trasformata della delta di Dirac traslata

La trasformata di Fourier della traslata della distribuzione delta di


Dirac :
[( 0 )] = ( 0 ), 2 = 20

(5.8.4)

Applicando quest'ultimo risultato alla (5.5.8) si ottiene:

[ ( )] = 2 =
=

( )

(5.8.5)

Antitrasformata della delta di Dirac traslata


L'antitrasformata della distribuzione ( 0 ) vale:
1 [( 0 )] = ( 0 ), 2 = 20

(5.8.6)

Trasformate delle funzioni seno e coseno

In base alla (5.8.6) utilizzando le formule di Eulero, si ottiene:


1
[cos(20 )] = [( 0 ) + ( + 0 )]
2
1
[sin(20 )] = [( 0 ) ( + 0 )]
2

(5.8.7)
(5.8.8)

Trasformata di un segnale periodico

La trasformata di un segnale periodico di periodo 0

() =
=

(5.8.9)

126

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vale:

[()] = (
=

)
0

(5.8.10)

Trasformata della funzione segno

Si consideri la funzione "segno", vedi Fig. 5.7,


definita dalla:
1; 0
sgm() = {
1; < 0
Fig. 5.7 - sgm()

(5.8.11)

Applicando la (5.6.6) si pu scrivere:

[sgm()], = sgm(), = sgm()()

= sgm() ( () 2 )

(5.8.12)

= ( ()( 2 2 ))
0

= 2 ( () sin(2) )
0

Invertendo l'ordine di integrazione ed esplicitando l'integrale improprio


si ottiene ancora:

[sgm()], = 2 lim () ( sin(2) )


1 cos(2)
= lim ()

= lim (() ())


0

=
0

1 cos(2)

(5.8.13)

() ()

lim

() ()
cos(2)

Poich la funzione

()()

sommabile in (0, ) ci si convince del

fatto che il limite che compare nell'ultimo membro della precedente vale
0.

CAPITOLO - 5 - Segnali a Potenza Finita -

127

In definitiva ricordando la (5.2.10) si ha:


[sgm()], =

1
()
1
VP
= Pf( 1 ),

(5.8.14)

In conclusione quindi:
[sgm()] =

1
Pf( 1 )

(5.8.15)

Trasformata del gradino unitario

Poich si ha, com' facile riconoscere:


u() =

1 1
+ sgm()
2 2

(5.8.16)

, tenendo conto del risultato precedente:


1
1
[u()] = () + Pf (
)
2
2

(5.8.17)
1

Si noti la presenza della delta di Dirac dovuta al termine 2 cio alla componente continua della u().
5.9 - Propriet delle trasformate delle distribuzioni.
La trasformata di Fourier di una distribuzione possiede tutte le
propriet della trasformata di Fourier di una funzione ordinaria gi discusse nel CAPITOLO - 4; in particolare:
Linearit

Dalla propriet di linearit per le distribuzioni discende:


[ + ] = [] + []

(5.9.1)

quali che siano le distribuzioni e .


Trasformata della convoluzione
Siano e due distribuzionila prima temperata e la seconda a

supporto limitato.
Per le (5.6.6) e (5.4.7) si ha:

128

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

[ ], = , = , , ( + )

= , , () 2(+)

(5.9.2)

= , () , 2 2

Poich, essendo per ipotesi a supporto limitato, , 2 la trasformata di che una funzione continua ed infinitamente derivabile di
(vedi .5.7 - ). Pertanto dalla precedente discende:

[ ], = , ()[] 2

(5.9.3)

= , [[] ] = [], [] = [][],

Quindi nel caso in esame risulta:


[ ] = [] []

(5.9.4)

Si perviene allo stesso risultato anche nel caso in cui una distribuzione regolare individuata da una funzione temperata () e
una distribuzione temperata. Si ha infatti:

[ ], = , () () 2(+)

= , () 2 ( () 2 )
(5.9.5)

= , []() 2 = , [[]()]

= [], []() = [] [], ()


Derivazione nel dominio del tempo e della frequenza
Se una distribuzione temperata si pu scrivere:
[ () ], = () , = , (1) ()
= , [(2) ()] = [], (2) ()
=

(2)

(5.9.6)

[],

dalla quale discende:


[ () ] = (2) []

(5.9.7)

CAPITOLO - 5 - Segnali a Potenza Finita -

129

In maniera analoga si pu dimostrare:


1 [ () ] = (2) 1 []

(5.9.8)

La (5.9.8) pu essere usata per valutare la trasformata di Fourier


di un segnale quando la sua derivata prima o le sue derivate successive
sono facilmente trasformabili. Occorre tuttavia procedere con cautela
nell'invertire le operazioni in essa indicate.
Se () ammette limite finito per || e se derivabile in senso
generalizzato, si pu scrivere:

() = () + ()

(5.9.9)

= ()( ) + () = + ()

La trasformata di Fourier della distribuzione in S associata a ()


si pu calcolare quindi, applicando la (5.9.4).
Tenendo conto della (5.8.17) si ha;
1
1
() = () ( () + Pf (
)) + ()()
2
2

(5.9.10)

avendo denotato con () la trasformata di Fourier di ().


Si osservi che la (5.9.10) quindi ha senso quando () individua o
una distribuzione a supporto limitato o una funzione temperata.
Poich nei casi citati () una funzione continua si pu ulteriormente scrivere:
1
1
(0)() + ()Pf (
) + ()()
2
2

() =

(5.9.11)

dalla quale, se () trasformabile in senso ordinario, si deduce:


() =

1
1
(() + ())() + () (
)
2
2

(5.9.12)

essendo:

(0) = () = () ()

Traslazione nel dominio del tempo e della frequenza

Se una distribuzione temperata, si ha:

(5.9.13)

130

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

[0 ], = 0 , = , +0 = , 20
(5.9.14)

= 20 [],

e cio:
[0 ] = 20 []

(5.9.15)

Analogamente risulta:
1 [0 ] = 20 1 []

(5.9.16)

Esempio 5.2
Derivando due volte, nel senso delle distribuzioni, l'impulso triangolare

( ) di durata , si ha:

() = ( (

+ /2
/2
)(
))

() = ( ( + 2 ) 2() + ( 2 ))

La trasformata di Fourier di ( ) vale allora:

2
4

[ ( )] = ( 2 + ) = (cos() 1)

Applicando la (5.9.8) si deduce:


[ ()] =

4 cos() 1

Unulteriore applicazione della (5.9.8) conduce alla:

4 1 cos()

[ ( )] =
= sinc 2 ( )

(2)2
2
2

essendo () = () = 0.
Esempio 5.3
Derivando successivamente l'impulso cosinusoidale definito dalla:

() = cos ( ) ( )

Si ha

() = sin ( ) ( )

CAPITOLO - 5 - Segnali a Potenza Finita -

131

() = ( ) cos ( ) ( ) + ( + ) ( )

cio:
2

() = ( ) () + ( + ) ( )

da cui trasformando:
2

[ ()] = ( ) [()] + ( )

In definitiva si ha:
1 cos()
;
2 1 2
2
(
)

[()] =
2

{2;

||

1
2

|| =

1
2

Esempio 5.4
La derivata del segnale () riportato in
Fig.E 5.4 vale:
() =
Fig.E 5.4

( )

Quindi
() = [ ()] = 2sinc()

Essendo (0) = 2 e () = 1, risulta:

1
() = 2sinc()Pf (
)

Tabella 5.1
Trasformate di Fourier di alcune distribuzioni notevoli
[()] = 1
[( 0 )] = 20
[1] = ()
[ 20 ]

= ( 0 )

[sgm()] =

1
1
Pf ( )

1
1
1
[u()] = () +
Pf ( )
2
2

[cos(20 )] =

1
[( 0 ) + ( + 0 )]
2

132

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

[sin(20 )] =

[ ()
=

1
[( 0 ) ( + 0 )]
2

2
0

] = () (

)
0

CAPITOLO - 6
TRASFORMAZIONI LINEARI DEI SEGNALI
6.1 - Definizioni. Propriet generali.
Un sistema di elaborazione dei segnali un dispositivo che effettua
su uno o pi segnali in ingresso un insieme di trasformazioni, come ad
esempio amplificazione, filtraggio, modulazione o rivelazione, trasmissione, etc. Un tale dispositivo normalmente rappresentato mediante un
blocco funzionale caratterizzato
da un segnale in ingresso () e
Fig. 6.1 - Trasformazione di segnali

da un segnale in uscita () (vedi Fig. 6.1). La trasformazione

operata dal blocco identificata da un operatore ed simbolicamente


rappresentata dalla relazione:

() = {()}; ,

(6.1.1)

Se un insieme continuo (limitato o illimitato) la trasformazione si dice analogica; se un insieme discreto (finito o numerabile) la trasformazione detta numerica anche possibile che il segnale in ingresso sia
a tempo continuo e quello di uscita a tempo discreto (ad es. convertitori analogico-digitali) o viceversa.

Il segnale in uscita al generico istante , in generale, dipende dalla


forma dell'ingresso () per < (passato), = (presente) e > (futuro). Quando () dipende solo dal valore assunto dallingresso nello
stesso istante , la trasformazione si dice priva di memoria.
La trasformazione detta inoltre non anticipativa se () dipende
solo dal segnale in ingresso () per . In caso contrario essa si dir
anticipativa. Naturalmente se la trasformazione rappresentasse un sistema fisico la risposta non potrebbe esistere prima che la sollecitazione
fosse applicata all'ingresso (Principio di causalit); di conseguenza ogni

134

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

sistema fisicamente realizzabile necessariamente non anticipativo. Tuttavia se l'elaborazione del segnale avvenisse in tempo virtuale a mezzo
ad esempio di un calcolatore nella cui memoria siano stati gi stati inseriti i dati (), la condizione di causalit potrebbe essere rimossa.
Un'importante classificazione delle trasformazioni di segnali basata sul concetto di linearit.
Una trasformazione si dice lineare se ad ogni ingresso del tipo:

() = ();

(6.1.2)

=1

costituito cio dalla combinazione lineare di segnali componenti, con


le costanti reali o complesse non tutte nulle, fa corrispondere un'uscita data dalla:

() = { ()}; ,

(6.1.3)

=1

Detto in altre parole, la trasformazione lineare quando soddisfa


il principio di omogeneit:
{()} = {()};

(6.1.4)

e di additivit:
{1 () + 2 ()} = {1 ()} + {2 ()}

(6.1.5)

Una trasformazione infine si dice tempo invariante se detta () la


risposta all'ingresso (), all'ingresso ( ) corrisponde l'uscita:
( ) = {( )};

, ,

(6.1.6)

Ci equivale a dire che ad un ritardo nel segnale in ingresso corrisponde


un identico ritardo nel segnale in uscita.
Esempio 6.1
La trasformazione
() = 2 ()

discreta, non lineare e priva di memoria.


Esempio 6.2
La trasformazione:
() = ()

CAPITOLO - 6- Trasformazioni Lineari dei Segnali -

135

analogica, lineare, priva di memoria e tempo variante giacche :


( ) ( )( )

Esempio 6.3
La trasformazione definita dalla seguente equazione differenziale:
() + () = ()

lineare e tempo invariante.


Linearit. Per gli ingressi 1 () e 2 () si ha:

1 () + 1 () = 1 ()
2 () + 2 () = 2 ()

da cui, sommando la prima della precedente moltiplicata per 1 con la seconda moltiplicata per 2 , :
[1 1 () + 2 2 ()] + [1 1 () + 2 2 ()] = 1 1 () + 2 2 ()

che mostra che la risposta del sistema allingresso 1 1 () + 2 2 ()


1 1 () + 2 2 ().
Tempo invarianza. Effettuando, nellequazione differenziale, la trasformazione si ha:
( ) + ( ) = ( )

che mostra che la risposta del sistema allingresso ( ) ( ).


Il sistema anche dotato di memoria in quanto luscita dipende dalla storia dellingresso.

6.2 - Studio nel dominio del tempo.


In quel che segue ci occuperemo delle trasformazioni lineari a
tempo continuo.
Per definire la forma della trasformazione , basta partire dall'identit:

() = ()( )

(6.2.1)

Se la trasformazione lineare, si ottiene:

() = {()} = { ()( ) }

= (){( )}

la quale, ponendo:

(6.2.2)

136

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

(, ) = {( )}

(6.2.3)

diventa:

() = ()(, )

(6.2.4)

La (, ), definita dalla (6.2.3), corrisponde alla risposta del sistema osservata all'istante ad un impulso di Dirac applicato all'istante .
Nel linguaggio proprio delle trasformazioni lineari la funzione
(, ) costituisce il cosiddetto nucleo della trasformazione (6.2.4).
Esempio 6.4
Il sistema lineare:
() = ()

caratterizzato dalla seguente risposta impulsiva


(, ) = ( )

Si osservi che il sistema in parola tempovariante.

Nel caso in cui la trasformazione lineare tempo invariante, la


(6.2.2) diviene:
(, ) = {( )} = ( )

(6.2.5)

la precedente sta a significare che, nel caso di trasformazioni Lineari e Tempo Invarianti (LTI), la risposta impulsiva non dipende in
realt dalle due variabili e , ma dalla loro differenza essa sar cio riconducibile ad una funzione () di una sola variabile. In sostanza abbiamo indicato con:
() = {()}

(6.2.6)

La funzione () rappresenta cio la risposta della trasformazione LTI


ad una delta di Dirac centrata nellorigine dei tempi, essa pertando
chiamata risposta impulsiva della trasformazione LTI. Sostituendo nella
(6.2.2) si ottiene:

() = ()( ) = ( )() =

(6.2.7)

cio: il segnale in uscita da un sistema LTI si ottiene convolvendo il segnale in ingresso con la risposta impulsiva del sistema.

CAPITOLO - 6- Trasformazioni Lineari dei Segnali -

137

6.3 - Stabilit di un sistema lineare


Una trasformazione lineare detta stabile se ad ogni ingresso limitato corrisponde unuscita limitata (Stabilit BIBO: Bounded Input Bounded Output). Cio, con

si deve avere

|()| <

(6.3.1)

|()| <

(6.3.2)

Utilizzando la (6.2.4) si ha:

|()| = | ()(, )| |(, )|

(6.3.3)

che equivale a scrivere:

|(, )| <

(6.3.4)

La precedente dunque una condizione sufficiente alla stabilit BIBO di


una trasformazione lineare.
Se la trasformazione anche tempo invariante la precedente diventa:

|( )| = |()| <

(6.3.5)

da osservare che, nel caso di trasformazioni LTI, la condizione


(6.3.5) anche necessaria.

Infatti, si supponga che sia |()| = , cio che la risposta


impulsiva non sia sommabile. Si scelga un ingresso del tipo
() = sgm[()]

(6.3.6)

Esso manifestamente limitato, ma in corrispondenza ad esso luscita,


calcolata in = 0, sarebbe:

(0) = ()( ) |

=0

= sgm[()]()

= |()| =

Quindi il sistema non sarebbe stabile in senso BIBO.

(6.3.7)

138

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

6.4 - Risposta impulsiva di trasformazioni lineari prive di


memoria
Se la risposta impulsiva della trasformazione del tipo
(, ) = ()( )

(6.4.1)

la risposta ad un ingresso () data dalla:

() = ()()( ) = ()()

(6.4.2)

Ci equivale a dire che il sistema privo di memoria perch la risposta


dipende solo dallingresso valutato allistante presente . Se la trasformazione anche tempoinvariante, la condizione (6.4.1) si muta nella
() = ().
6.5 - Studio nel dominio della frequenza.
Lo studio delle trasformazioni lineari pu essere condotto nel
dominio della frequenza in termini cio delle trasformate di Fourier
() e (),rispettivamente dei segnali dingresso e di uscita. Nel dominio della frequenza, la (6.2.4) assume la forma:

() = [()] = [ ()(, ) ]

[ ( () 2 ) (, ) ] 2

() [ (, ) 2() ]

(6.5.1)

(, )
()

(, ) la trasformata di Fourier bidimensionale della (, ). La


Dove
(6.5.1) rappresenta la trasformazione duale.
Se la trasformazione LTI, la relazione ingresso uscita espressa
dallintegrale di convoluzione (6.2.7), e la precedente diventa:
() = () ()

(6.5.2)

() definita dalla:

() = [()] = () 2

(6.5.3)

CAPITOLO - 6- Trasformazioni Lineari dei Segnali -

139

prende il nome di risposta in frequenza del sistema. La trasformazione duale di un sistema LTI si riduce quindi al prodotto della () per la risposta in frequenza del sistema.
La deduzione della (6.5.2) dalla (6.2.7) immediata, tuttavia interessante, come utile esercizio, ottenerla anche introducendo lipotesi di
tempo invarianza nella (6.5.1):

() = [ ()( ) ]

() [ 2 ( ( ) 2 ) ]
() [ 2 (() 2 ) ]

(6.5.4)

() [() 2() ]

[ ( () 2 ) ( ) ] 2

()[()( )] = ()()

(, ) di un
In pratica dalla precedente si evince che il modulo della
sistema LTI si presenta come una lamadi delta di Dirac adagiate sulla bisettrice del piano (, ) inviluppata da |()|.
6.6 - Determinazione della risposta in frequenza di una
trasformazione LTI.
Nel caso generale pu risultare complicata la determinazione della
risposta in frequenza di un sistema lineare. Tuttavia nel caso di trasformazioni lineari e tempo invarianti il calcolo della () risulta molto pi
semplice. Infatti la risposta ad un ingresso del tipo:
0 () = 20

(6.6.1)

vale:

0 () = 20 () () = 20 () 20
che, ricordando la (6.5.3), si scrive:
0 () = (0 ) 20

(6.6.2)

(6.6.3)

140

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Cio, un sistema LTI sollecitato da un segnale del tipo 20 risponde con un segnale che differisce da esso per unfattore moltipicativo
complesso coincidente con il valore, (0 ), della risposta in frequenza
alla frequenza 0
Esempio 6.5
Si determini la risposta in frequenza del sistema definito dalla seguente
equazione differenziale:
() + () = ()
Ponendo:
0 () = 2
0 () = () 2
Fig.E 6.1

si ottiene:
2() 2 + () 2 = 2
dalla quale si deduce:
() =

1
+ 2

Esempio 6.6
Si determini la risposta in frequenza del
filtro RC passa basso rappresentato in Fig.E
6.1dove () e () denotato le tensioni applicate ai morsetti di ingresso e di
uscita rispettivamente.
Fig.E 6.2

L'equazione differenziale della rete


() + () = ()
Ponendo:
() 0 () = 2 () 0 () = () 2
si ha:
() =

1
1 + 2

E' da osservare che quanto detto equivale a determinare la risposta del sistema nel regime sinusoidale permanente; ci pu essere fatto direttamente
sulla base dello schema di Fig.E 6.2 dove al condensatore si sostituita
limpedenza

1
2

. Dalla Fig.E 6.2 si deduce infatti:


() = ()

1
1
2 +

CAPITOLO - 6- Trasformazioni Lineari dei Segnali -

141

Il modulo della () vale:


|()| =

1
1 + (2)2

ed il suo argomento:
() = arctang(2)

Come si evince dallaFig.E 6.3, che riporta gli andamenti di |()| e di


() in funzione della frequenza, il sistema presenta un comportamento del
tipo "passa-basso".
Esempio 6.7
Si determini la risposta impulsiva
del sistema lineare e tempo invariante
caratterizzato dalla seguente equazione
differenziale:
() + () + () = ()

Metodo diretto
La risposta impulsiva si ottiene dalla soluzione dellequazione
(a)
() + () + () = ()
Poich limpulso di Dirac identicamente nullo per 0, la risposta impulsiva
Fig.E 6.3
pu essere considerata come una risposta
con ingresso zero partendo dallistante = 0+ .
Questo comporta che, dette e le soluzioni dellequazione caratteristica:
2 + + 1 = 0

cio
1
3
=
2
2
1
3
= +
2
2
{

la soluzione con ingresso zero del tipo:


1

(b)
() = 1 + 2 = 1 (2+ 2 ) + 2 (2 2 )
dove le costanti 1 e 2 dipendono dalle condizioni iniziali a = 0+ dovute
allimpulso di Dirac. A tale proposito si integri lequazione (a) da = 0 a
= 0+ . Si ha:
(c)

0+

(0+ ) + (0+ ) + 0 () = 1
0+

essendo manifestamente (0 ) = 0; (0 ) = 0; 0 () = 1.

142

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La risposta impulsiva non pu avere discontinuit in = 0, perch se cos fosse sostituendo nella (a) a primo membro comparirebbe la derivata della
distribuzione delta di Dirac che non compare nel secondo membro quindi
la (a) non potrebbe essere soddisfatta. Pertano:
0+

() = 0
0

che comporta
(d)
(0+ ) = 0
e quindi dalla (c) si ottiene:
(e)
h (0+ ) = 1
Le (d) e (e) costituiscono le condizioni iniziali da imporre alla (b). Si perviene cos alla seguente espressione:
1
3

1+ 3
2 1
3
() = ( 2 2
2 2 ) u() =
2 sin ( ) u()
2
3
3
3

Allo stesso risultato si pu pervenire ricavando la risposta in frequenza,


la risposta impulsiva pu essere cio determinata come trasformata inversa di Fourier della risposta in frequenza. A tal proposito ponendo:
0 () = 2

si ottiene:
(2)2 () 2 + (2)() 2 + () 2 = 2

da cui:
() =

(2)2

1
+ (2) + 1

che, ponendo adesso = 2, diventa:


() =

1
1
=
1
3
+ + 1 ( + )( + 1 + 3)
2

Espandendo la funzione (), cos ottenuta, in fratti semplici, si ottiene:


() =

+
2

+ +
2

3
2

dove i coefficienti e valgono:


=[

1
1

+ +
2

Si ottiene allora:

2 =1+ 3
2
2

1
3

=[

1
1

+
2

2 =1 3
2
2

1
3

CAPITOLO - 6- Trasformazioni Lineari dei Segnali -

() =

1
1

3 2 + +
2

143

3 2 + 1 3
2

la cui antitrasformata coincide con la risposta impulsiva precedentemente


determinata.

6.7 - Trasmissione senza distorsione. Filtri ideali.


Un sistema di trasmissione si definisce senza distorsione quando il segnale
in uscita proporzionale a quello in ingresso seppur ritardato di una quantit .
(Fig. 6.2). Per un sistema senza distorsione
si ha quindi:
Fig. 6.2 Risposta di un sistema
di trasmissione senza distorsione

() = 0 ( )

(6.7.1)

dove la costante 0 rappresenta il guadagno (0 > 1) o lattenuazione (0 < 0 < 1) del sistema.
Trasformando secondo Fourier ambo i
membri della (6.7.1) si ottiene:
() = 0 2 ()

(6.7.2)

dalla quale si deduce:


() = 0 2

(6.7.3)

Fig. 6.3 - Risposta in frequenza di un sistema senza


distorsione

In un sistema di trasmissione senza distorsione lampiezza della () costante


mentre il suo argomento risulta proporzionale alla frequenza come
mostrato in Fig. 6.3.
Un sistema di trasmissione che non introduce distorsioni entro
una certa banda (finita) di frequenza ma non permette, al di fuori di essa, la trasmissione del segnale, costituisce un filtro ideale. A seconda della dislocazione della banda i filtri ideali si distinguono in filtri passa-basso e
filtri passa-banda.
La risposta in frequenza per un filtro passa-basso ideale di banda
, che introduce un ritardo ed unattenuazione 0 :

() = 0 (
) 2
2

(6.7.4)

144

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vedi Fig. 6.4 a), la risposta in frequenza di un filtro passabanda ideale


centrato alla frequenza 0 con banda ritardo ed attenuazione 0 vale
0
+ 0
() = 0 ( (
) + (
)) 2

(6.7.5)

vedi Fig. 6.4 b)


Le corrispondenti risposte impulsive valgono:
a) filtro passa-basso:
() = 20 sinc[2 ( )]

(6.7.6)

b) filtro passa-banda:
() = 20 cos[20 ( )] sinc[( )]

(6.7.7)

rappresentano lampiezza di banda e la frequenza centrale del filtro.


Come si deduce dalle (6.7.6) e (6.7.7),
risulta () 0 per < 0 quindi il principio
di causalit violato, pertanto tali filtri non
sono fisicamente realizzabili, la loro risposta
impulsiva pu comunque essere approssiamata introducendo un ritardo temporale,
ovvero se si accetta di avere una risposta in
frequenza che rientri in una prefissata maschera di tolleranza ad esempio rispetto alle
piattezza in banda o alla ripidit dei fronti di Fig. 6.4 - Risposte in frequenza
di un filtro ideale: a) passa-basso,
discesa al di fuori di essa.
b) passa-banda

CAPITOLO - 7
CARATTERIZZAZIONE ENERGETICA DEI SEGNALI
Segnali a energia finita

7.1 - Densit spettrale di energia.


Lenergia specifica associata al segnale vale:

= |()|2 = () ()

(7.1.1)

dove () una qualsiasi rappresentazione del segnale .


Esprimendo () in termini della sua trasformata di Fourier, si ha:

= () ( () 2 )

= () ( () 2 ) = () ()

(7.1.2)

= |()|2

Lenergia specifica di un segnale si pu quindi calcolare integrando il


quadrato del modulo della sua trasformata di Fourier (Teorema di Parseval
9).
Se il segnale reale il modulo della sua trasformata di Fourier
pari per cui la (7.1.2) si pu scrivere:

= 2 |()|2
0

(7.1.3)

Da quest'ultima si evince che la porzione di energia specifica


associata al pacchetto di componenti armoniche del segnale le cui frequenze cadono nellintervallo (, + ) data da 2|()|2 ; ci si-

Il Teorema di Parseval stato gi provato in modo formalmente pi corretto nel CAPITOLO 4. In tutto questo capitolo si preferito sacrificare il rigore formale a vantaggio di una pi immediata interpretazione dei risultati.

146

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

gnifica che la funzione |()|2 proporzionale al rapporto , e pertanto assume il significato di densit di energia.
Pi in generale, si definisce densit spettrale di energia di un segnale la
quantit:
() = |()|2

(7.1.4)

Essa una funzione reale e non negativa di :


() 0

(7.1.5)

e tale che il suo integrale risulta pari a :

= ()

(7.1.6)

Nel caso di segnali reali, dalla condizione di simmetria hermitiana


() = (), discende:
() = ()

(7.1.7)

La densit spettrale di energia di un segnale reale quindi una


funzione reale e pari di .
Le considerazioni svolte possono essere estese al caso di due segnali distinti 1 e 2 . In tal caso, si introducono le energie specifiche incrociate, o mutue, 12 e 21 definite dalle:

12 = 1 ()2 ();

21 = 2 ()1 ()();

(7.1.8)

Si osservi che le precedenti esprimono anche i prodotti scalari


1 , 2 e 2 , 1 tra i segnali; cosicch la condizione di ortogonalit di

detti segnali si traduce nella:


12 = 21 = 0

(7.1.9)

Le energie incrociate sono quantit, in generale, complesse e risulta:

12 = 21

(7.1.10)

Facendo uso della disuguaglianza di Schwarz, si ottiene:


|12 | 1 2 ,

|21 | 1 2

(7.1.11)

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

147

o anche:
12 21 1 2

(7.1.12)

essendo 1 ed 2 le energie specifiche associate a 1 e 2 rispettivamente.


Se i segnali sono reali le quantit 12 e 21 sono anch'esse reali; in
tal caso si ha:

12 = 21 = 1 ()2 ()

(7.1.13)

Denotando con 1 () e 2 () le trasformate di Fourier di 1 () e


2 () rispettivamente, dalle (7.1.8) discende:

12 = 1 () ( 2 () 2 )

= 2 () ( 1 () 2 )

(7.1.14)

= 1 ()2 ()

che con un cambiamento di variabile pu ancora scriversi:

12 = 1 ()2 () = 1 , 2

(7.1.15)

Analogamente si ha:

21 = 2 ()1 () = 2 , 1

(7.1.16)

Queste ultime costituiscono la forma pi generale del Teorema di Parseval.


Introducendo le densit spettrali di energia incrociate, o mutue:
12 () = 1 () 2 ();

21 () = 2 () 1 ();

(7.1.17)

le (7.1.15) e (7.1.16) divengono rispettivamente:

12 = 12 () ;

21 = 21 () ;

(7.1.18)

Le densit spettrali incrociate sono, in generale, complesse e risulta:

148

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati


12 () = 21
();

(7.1.19)

Tuttavia, se i segnali sono reali, la precedente, in virt della simmetria hermitiana, si semplifica nella:
12 () = 21 ()

(7.1.20)

Esempio 7.1
Si considerino i due segnali:

1 () = ( )

2 () = u()

Essi sono segnali a energia finita poich risulta:


1 = ; 2 =

Fig.E 7.1

0
;
2

La loro energia incrociata vale:

12 = 21 = /0 = 0 (1

20

Lenergia normalizzata vale:


=

12
1 2

20

(1 20 )

e risulta manifestamente || 1 in accordo con la condizione (7.1.12). In


Fig.E 7.1 riportato landamento di al variare di 20 . Il suo valore massimo si ottiene quando verificata la condizione:

20

1
1+

Il massimo di si raggiunge per 20 1,256 e vale 0,638.


Esempio 7.2
Per il segnale:
() = u() ;

>0

si calcoli il contributo all'energia specifica dovuto alla parte del suo spettro
compresa nell'intervallo di frequenze [

2 2

].

Tenendo conto dei risultati dellEsempio 7.1, la densit spettrale di ()


vale:

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

() =

149

1
2 + (2)2

Pertanto si ha:
=

1
=

=
2
+ (2)
2 1 1 + 2 4

Esempio 7.3
Sia un segnale ottenuto sommando sue segnali 1 e 2 a energia finita:
= 1 + 2

Dette 1 () e 1 () le trasformate di Fourier di 1 e 2 rispettivamente, la


densit spettrale di potenza di vale:
() = () () = [1 () + 2 ()] [1 () + 2 ()]
= 1 () 1 () + 1 () 2 () + 2 () 1 () + 2 () 2 ()

la quale, denotando con 1 () e 2 () le densit spettrali di energia associate a 1 e 2 e con 12 () e 21 () le corrispondenti densit spettrali di
energia incrociate, si pu riscrivere:
() = 1 () + 12 () + 21 () + 2 ()

Per caratterizzare completamente dal punto di vista energetico la somma


di due segnali occorre definire pertanto quattro densit spettrali che possono
essere disposte nella seguente matrice:
() 12 ()
() = [ 1
]
21 () 2 ()

che costituisce la matrice delle densit spettrali. Essa una matrice hermitiana giacch gli elementi della diagonale secondaria risultano complessi coniugati.

7.2 - Funzione di autocorrelazione.


Dato un segnale a energia finita, la funzione a valori generalmente complessi

() = ( + ) ()

(7.2.1)

costituisce la funzione di autocorrelazione ad esso associata. Se il segnale


reale la sua autocorrelazione anch'essa reale.
Ponendo nella (7.2.1) = 0 si ottiene:

150

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

(0) = |()|2

(7.2.2)

Pertanto la funzione di autocorrelazione valutata nellorigine eguaglia


lenergia specifica del segnale.
Effettuando la trasformazione , nella (7.2.1) si ottiene:

() = ( ) ()

(7.2.3)

che, con la ulteriore sostituzione = , diviene:

() = () ( + ) = [ ( + ) ()]

(7.2.4)

Dal confronto con la (7.2.1), discende:


() = ()

(7.2.5)

Quindi lautocorrelazione di un segnale una funzione a simmetria


hermitiana.
Applicando la disuguaglianza di Schwarz alla (7.2.1) si ottiene:

| ( + ) ()| |( + )|2 |()|2

(7.2.6)

= (0)

da cui si evince:
|()| (0)

(7.2.7)

Se il segnale reale, la (7.2.5) diventa:


() = ()

(7.2.8)

cio, la funzione di autocorrelazione di un segnale reale ha simmetria pari. La (7.2.7) inoltre assicura che la () raggiunge il suo valore massimo
(0) nell'origine.
La conoscenza della funzione di autocorrelazione fornisce interessanti informazioni riguardo l'andamento del segnale nel dominio del
tempo.
A tal fine si consideri, per semplicit, un segnale reale e si prenda
in esame il seguente integrale:

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

151

2 () = [() ( + )]2

(7.2.9)

che rappresenta il quadrato della distanza euclidea fra il segnale () e la sua versione anticipata di . ovvio che, se ()
varia molto lentamente nel
tempo, l'integrando si manterr
piccolo, almeno per valori di
non troppo elevati. Viceversa,
Fig. 7.1 autocorrelazioni dei segnali:
ci si dovrebbero attendere valo) cos(2t)(2t3); ) cos(10)(23).
ri elevati di [() ( + )]2 ,
quando il segnale varia rapidamente nel tempo. Sviluppando la (7.2.9) si ha:
2 ()

= 2 () 2 ()( + ) + 2 ( + )

(7.2.10)

che, utilizzando la funzione di autocorrelazione si pu riscrivere:


2 () = 2[(0) ()]

(7.2.11)

Si pu quindi concludere che, tanto pi rapide sono le variazioni


del segnale nel tempo, tanto pi rapidamente decresce la funzione di autocorrelazione e viceversa.
Osservando la Fig. 7.1, ad esempio, si nota che la curva a) rappresenta l'autocorrelazione di un segnale che varia nel tempo pi lentamente del segnale cui associata l'autocorrelazione rappresentata dalla curva
b).
Esempio 7.4
La funzione di autocorrelazione della derivata di un segnale data dalla:

() = ( + ) ()

Essa pu essere messa in relazione con la funzione di autocorrelazione di


():

() = ( + ) ()

152

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Derivando una prima volta () rispetto a si ottiene:

()
= ( + ) ()

che, con un opportuno cambiamento di variabili, pu essere scritta nella


forma:

()
= () ( )

Derivando una seconda volta rispetto a si ha:

2 ()

= ( ) () = () ( + )
2

che fornisce:
() =

2 ()
2

7.3 - Teorema di Wiener-Khinchine.


Si consideri la trasformata della funzione di autocorrelazione:

[()] = () 2

(7.3.1)

che, tenendo conto della (7.2.1), diventa:

[()] = 2 ( ()( + ))

(7.3.2)

Invertendo lordine dintegrazione si ottiene:

[()] = () ( ( + ) 2 )

(7.3.3)

la quale, denotando con () la trasformata di Fourier del segnale pu


essere scritta nella forma:

[()] = () () 2 = () ()

(7.3.4)

Tenendo infine conto della (7.1.4), si ha:


[()] = ()

che lespressione formale del Teorema di Wiener-Khinchine.

(7.3.5)

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

153

7.4 - Funzioni di mutua correlazione.


Siano 1 e 2 due segnali ad energia finita. A essi si possono associare le seguenti funzioni generalmente complesse:

12 () = 1 ( + )2 () ;

(7.4.1)

21 () = 2 ( + )1 () ;

che sono dette correlazioni mutue o incrociate.


Si noti che 12 () e 21 () soddisfano la seguente relazione:

12 () = 21
()

(7.4.2)

come si dimostra facilmente effettuando nella (7.4.1) la trasformazione


+ = . Si ha infatti:

12 () = 1 ()2 ( ) = ( 2 ( )1 () )

(7.4.3)

che d luogo alla (7.4.2) ove si tenga presente la definizione (7.4.1).


Se i segnali sono reali le funzioni 12 () e 21 () sono anch'esse
reali e la condizione (7.4.2) si semplifica nella:
12 () = 21 ()

(7.4.4)

Ponendo nella (7.4.1) = 0 si ottiene:

12 (0) = 1 ()2 () = 12 ;

21 (0) = 2 ()1 () = 21 ;

(7.4.5)

cio i valori assunti nel punto = 0 dalle due funzioni di mutua correlazione coincidono con le corrispondenti energie incrociate.
Applicando la disuguaglianza di Schwarz alle (7.4.1) si deduce:
|12 ()|2 1 (0) 2 (0) = 1 2 ;
|21 ()|2 1 (0) 2 (0) = 1 2 ;

(7.4.6)

dove 1 e 2 denotano le energie specifiche associate rispettivamente ai


segnali 1 e 2 .
Se risulta:

154

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

12 () = 21 () = 0

(7.4.7)

i due segnali si dicono incorrelati. Ponendo nella (7.4.3), = 0 si ottiene:

1 ()2 () = 0

(7.4.8)

che corrisponde alla condizione di ortogonalit tra i due segnali. Ci significa che se due segnali sono incorrelati sono anche ortogonali; il viceversa in genere non vale. La condizione dincorrelazione pertanto pi
forte di quella di ortogonalit.
facile infine riconoscere che con procedimento analogo a quello seguito per dedurre la (7.3.5) si ottengono le:
[12 ()] = 12 (); [21 ()] = 21 ();

(7.4.9)

che costituiscono una naturale estensione del teorema di WienerKhinchine al caso delle funzioni
di mutua correlazione.
Esempio 7.5
La funzione di correlazione incrociata 12 () per i segnali

1 () = u() 0

2 () = ( ) ;
0

Fig.E 7.2

vale:
12 () =

0
2

( ) u( + ) 0 = 0 u( + ) 0
0

0
2


0 2

= ( ) 0 0 + u ( ) 0 0

0
2

0
2

= 0

[(

1
1

1
) ( ) + ( 2 2 ) u ( )]
0
0 2
1

il cui andamento in funzione di 0 riportato in Fig.E 7.2


In maniera analoga si ha (vedi Fig.E 7.2):

1
1
1

1
21 () = 12 () = 0 0 [( 0 2 ) ( ) + ( 2 2 ) u ( + )]
0
0 2

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

155

Segnali a potenza finita


7.5 - Densit spettrale di potenza.
noto che se un segnale a potenza finita, la quantit:

1 2
= lim |()|2

(7.5.1)

positiva e limitata.
Introducendo il segnale troncato () la (7.5.1) diventa:
1
| ()|2

= lim

(7.5.2)

Per un fissato valore di il segnale () ad energia finita; pertanto, detta () la sua trasformata di Fourier, utilizzando il teorema di
Parseval, si pu scrivere:

|()|2 = | ()|2 = | ()|2

(7.5.3)

Di conseguenza la potenza specifica pu essere posta nella


forma:

1
| ()|2
| ()|2 = lim

= lim

(7.5.4)

Risulta quindi immediato associare al segnale () la seguente espressione per la densit spettrale di potenza10
| ()|2

() = lim

(7.5.5)

La potenza specifica del segnale cos diventa:

= ()

10

(7.5.6)

Si osservi che il simbolo adottato per la densit spettrale di potenza lo stesso di quello
adoperato per la densit spettrale di energia. Al fine di non incorrere in spiacevoli equivoci
necessario pertanto precisare la classe di segnali (ad energia finita o a potenza finita) che via
via si prendono in considerazione. Le stesse precauzioni si dovranno prendere a proposito delle funzioni di correlazione pi avanti definite.

156

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Analogamente alla densit spettrale di energia introdotta nel


7.1 - , la densit spettrale di potenza una funzione reale e non negativa
della variabile . Nel caso in cui () sia reale manifestamente:
() = ()

(7.5.7)

La densit spettrale di potenza associata ad un segnale reale quindi una


funzione reale, non negativa e pari della frequenza.
Se 1 () e 2 () denotano due segnali a potenza finita le loro potenze specifiche mutue o potenze specifiche incrociate sono:

12
21

1 2
= lim 1 ()2 () ;

2

(7.5.8)

1
= lim 2 ()1 ().

2

Le quantit 12 e 21 sono, in generale, complesse. Esse inoltre obbediscono alla condizione:

12 = 21

(7.5.9)

Applicando la disuguaglianza di Schwarz si ottiene:

| 1 ()2 | |1 ()|2 |2 ()|2 ;

| 1 ()2 |

(7.5.10)
2

|1 ()| |2 ()| ;

dalla quale, tenendo conto delle (7.5.8), discende:


|12 | 1 2 ; |21 | 1 2

(7.5.11)

dove 1 e 2 sono le potenze specifiche associate a 1 () e 2 ().


Due segnali a potenza finita si dicono ortogonali se risulta:
12 = 21 = 0

(7.5.12)

Indicando con 1 () e 2 () i segnali troncati associati a 1 () e


2 () rispettivamente facile riconoscere che le potenze mutue si possono porre nella forma seguente:

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

157

() ()
1
2
;

12 =

lim

1 ()2
()
;

21 =

(7.5.13)

lim

avendo denotato con 1 () e 2 () le trasformate di Fourier di 1 ()


e 2 () rispettivamente.
Dalle espressioni di 12 e 21 si deducono le seguenti definizioni
per le densit spettrali di potenza mutue (o incrociate):
()
1 ()2
;

2 ()1
()
21 () = lim
;

12 () = lim

(7.5.14)

Si ha:

12 = 12 ();

21 = 21 () ;

(7.5.15)

Per 12 () e 21 (), si ha:

12 () = 21
()

(7.5.16)

Esempio 7.6
Il segnale:

() = cos(2 )
=1

un segnale a potenza finita. Infatti essendo:


2 ()

= cos(2 ) cos(2 )
,=1

= 2 cos2 (2 ) +
=1

risulta:

1
[cos(2( )) + cos(2( + ))]
2
,=1

158

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

1
[cos(2( )) + cos(2( + ))]
2

,=1
[

= lim

+ 2 (cos(4 ) + 1)

=1

sin(( )) sin(( + ))
1
sin(2 )
lim [
+
+ 2
] + 2
2
2
(

(
+

)
)

,=1
=1
=1
{
}

= 2
=1

7.6 - Funzioni di correlazione.


La funzione di autocorrelazione di un segnale () a potenza finita definita dalla:

1 2
( + ) ()

() = lim

(7.6.1)

Essa una funzione, in generale complessa, della quantit ; reale nel


caso di segnali reali. Nel punto = 0 la () vale:

1 2
(0) = lim () ()

(7.6.2)

ed quindi uguale alla potenza specifica del segnale.


Ponendo nella (7.6.1) e successivamente = si ottiene:

() =

1 2
lim (

) ()

1 2
lim
() (

+ )

1 2
lim () ( + )

2
1

(7.6.3)

+ lim ( () ( + ) +

()

() ( + ))

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

159

dove si tenuto conto del fatto che, per ogni valore di , gli integrali che
compaiono nel secondo limite al penultimo membro sono certamente
finiti. In conclusione si pu affermare che la funzione di autocorrelazione di un segnale a potenza finita a simmetria hermitiana.
Per segnali reali la (7.6.3) si riduce alla:
() = ()

(7.6.4)

In virt della disuguaglianza di Schwarz, si pu infine scrivere:


|()| (0) =

(7.6.5)

Per segnali reali, quindi, la funzione ()raggiunge in = 0 un massimo


assoluto. Detta () la funzione di autocorrelazione del segnale troncato, si ha (vedi Fig. 7.2):

() = () ( + )

= u()

()(

+ ) + u()

(7.6.6)
()( + )

Considerazioni analoghe a
quelle che hanno condotto alla (7.6.3) consentono di scrivere:
() = lim

()

(7.6.7)

Si osservi adesso che


poich () ad energia fiFig. 7.2 - Segnale troncato e sue traslazioni.
nita, per esso vale il teorema
di WienerKhinchine per cui, detta () la sua trasformata di Fourier, si
ha:
[ ()] = | ()|2

(7.6.8)

Trasformando ambo i membri della (7.6.7) risulta:


| ()|2

[()] = lim

(7.6.9)

Dal confronto con la (7.5.5), si deduce quindi:


[()] = ()

(7.6.10)

160

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

che estende il teorema di Wiener-Khinchine anche al caso dei segnali a


potenza finita.
Nel caso di due segnali 1 () e 2 () a potenza finita si possono
definire le correlazioni incrociate, o mutue mediante le:

1 2
1 ( + )2 ()
2

12 () = lim

1 2
21 () = lim
2 ( + )1 ()
2

(7.6.11)

Si verifica facilmente che:

12 () = 21
()

(7.6.12)

e che, dette 1 () e 2 (), 1 e 2 le autocorrelazioni e le potenze specifiche associate a 1 () e a 2 () rispettivamente, si ha:


|21 ()|2 = |12 ()|2 1 (0) 2 (0) = 1 2

(7.6.13)

Quando risulta 12 () = 21 () = 0 i segnali si dicono incorrelati.


Si noti che ponendo = 0 nella condizione di incorrelazione si ottiene
12 = 21 = 0; ci significa che, l'ortogonalit soltanto una condizione
necessaria per la incorrelazione.
Procedendo come per il caso della funzione di autocorrelazione,
si pu mostrare che valgono le relazioni:
[12 ()] = 12 ()
[21 ()] = 21 ()

(7.6.14)

cio le funzioni di mutua correlazione e le rispettive densit spettrali costituiscono coppie di trasformate di Fourier.
Esempio 7.7
La funzione di autocorrelazione del segnale di cui allEsempio 7.6 vale:

1 2
cos(2 ) cos (2 ( + ))

() = lim
,=1

=
,=1


1
lim {cos [2 (( + ) + )] + cos[2( ) ]}
2
2

=1

2
1 2
+
lim {cos(2 (2 + )) + cos(2 )}
2

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali -

161

sin [2 (( + ) + )]

lim [
]
2
2( + )
,=1

{
2

sin [2 (( ) )]
+[
]
2( )

sin(2 (2 + )) 2
2
1
+
lim {[
] + cos(2 )} = 2 cos(2 )
2
4
2

=1

=1

La corrispondente densit spettrale vale quindi:

() = [()] =
=1

2
[( ) + ( + )]
4

Esempio 7.8
Sia () un segnale, periodico di periodo 0 , che pu essere quindi sviluppato in serie di Fourier:

() =

2
0

Esso un segnale a potenza finita e la sua funzione di autocorrelazione pu


essere scritta nella forma:

2
2(+)
1 2

( 0 0 )

() = lim

,=

,=

= | |2

2()
1

lim

lim

sin [( ) ]

( )

2
0

La funzione di autocorrelazione dunque una funzione periodica di periodo 0 ed il generico coefficiente del suo sviluppo in serie di Fourier vale:
= | |2

162

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si osservi che l'integrale che compare nel calcolo dell'autocorrelazione,


pu essere espresso anche utilizzando la funzione sinc(). Si pu infatti scrivere:

1 2 2()

0 = sinc (( ) )

0
2

evidente che la precedente valida anche se l'argomento dell'esponenziale identicamente nullo, non si rende quindi necessaria la distinzione tra i casi = , .

CAPITOLO - 8
CARATTERISTICHE E PROPRIET DEI SEGNALI
8.1 - Segnale analitico. Trasformata di Hilbert.
In alcune applicazioni della teoria della modulazione, come pure
nello studio della risposta dei filtri
passabanda, opportuno caratterizzare i segnali reali fornendo una
rappresentazione che generalizza
quella che usualmente si adotta per
lo studio dei circuiti in regime sinusoidale. Tale generalizzazione si basa sul concetto di segnale analitico.
Si consideri un segnale reale
Fig. 8.1 - a) Modulo della trasformata di
(); b) modulo dellatrasformata del se() la cui trasformata di Fourier
gnale analitico () ad esso associato.
() rappresentata in Fig. 8.1. Alla () si pu associare una funzione ():
() = ()[1 + sgm()]

(8.1.1)

come mostrato nella stessa Fig. 8.1. Tale funzione manifestamente


unilatera giacch essa identicamente nulla per < 0; pertanto la sua
antitrasformata () una funzione complessa poich la () non a
simmetria hermitiana. L'antitrasformata di () si pu effettuare facilmente applicando il teorema della convoluzione nel dominio del tempo
e osservando che lespressione dellantitrasformata della funzione
sgm() risulta, per la propriet di simmetria:
-1 [sgm()] = Pf (

1
1
) = Pf ( )

(8.1.2)

Si ottiene cos:
1
() = () (() + Pf ( ))

che, ponendo:

(8.1.3)

164

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

s() =

1
()
VP

(8.1.4)

si pu riscrivere:
() = () + ()

(8.1.5)

Dalla (8.1.4) si deduce che s() ottenuta dalla convoluzione tra


1

() e la pseudofunzione Pf () cio:
1
() = () Pf ( )

(8.1.6)

che trasformata secondo Fourier d luogo alla:


() = [ ()] = ()sgm()

(8.1.7)

quindi:
() =

()
= ()sgm()
sgm()

(8.1.8)

da cui antitrasformando:

1
()
() = VP

(8.1.9)

Le trasformazioni (8.1.4) (8.1.9) vengono dette rispettivamente


trasformata e antitrasformata di Hilbert. Esse si denotano con i simboli:
[],

1 []

(8.1.10)

Il segnale complesso (), definito dalla (8.1.5), prende il nome di


segnale analitico associato a (); la ragione di questa denominazione sta
nel fatto che se una funzione complessa (), di variabile complessa
= + , analitica su tutto il semipiano superiore ( > 0), la parte
reale ed il coefficiente della parte immaginaria di () costituiscono una
coppia di trasformate di Hilbert e viceversa.
Osserviamo inoltre che se () rappresenta un segnale ad energia finita, tale anche la sua trasformata di Hilbert e risulta:

, =,
= () () =

() ()sgm() = 0

(8.1.11)

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

165

Il risultato zero in
quanto essendo il segnale reale la funzione integranda dispari. Possiamo quindi affermare
che un segnale e quello associato alla trasformata di Hilbert di
una funzione che lo
rappresenta sono ortogonali.

Fig.E 8.1

Esempio 8.1
Applicando la definizione (8.1.4) al rettangolo unitario di durata

( )

T
2

T si ha:

1
1

2
[ ( )] = VP
= VP
= lim (
+
)
T

0

+
1

1
2
lim (log | + | log| + | + log | | log | |) = log |
|
0

2
2

Il segnale ( ) e la sua trasformata di Hil

bert sono mostrati in Fig.E 8.1.

Il segnale analitico associato a ( ) vale

quindi:

1
2
() = ( ) + log |
|

la cui rappresentazione nel piano complesso riportata in Fig.E 8.2.


Esempio 8.2
Determinare la trasformata di Hilbert del segnale 20 .
Poich si ha:
[ 20 ] = ( 0 )

per la (8.1.7)
[[ 20 ]] = ( 0 )sgm()

Fig.E 8.2

166

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

da cui antitrasformando:

[ 20 ] = ( 0 )sgm() 2 = sgm(0 ) 20

cio:
[ 20 ] = 20

In particolare si deduce, eguagliando le parti reali e i coefficienti delle


parti immaginarie:
[cos(20 )] = sin(20 )
[sin(20 )] = cos(20 )

Esempio 8.3
Determinare il segnale analitico associato al segnale rappresentabile
mediante la funzione:
() =

1
2 + 2

Potendosi scrivere:
1

1
1
= [

]
2 + 2 2 +

la trasformata di Fourier del segnale vale:


() =

1
1
{ [
] [
]}
2
+

Ricordando l' Esempio 4.2, applicando la propriet di simmetria si ottiene:


[

1
] = u()
+ 2

quindi:
1
1
[
] = 2 [
]

2 + 2
= 2u() 2

Applicando ora la propriet della coniugazione nel dominio del tempo si ha


poi:

Fig.E 8.3

1
[
] = 2 u() 2
+

Di conseguenza () diviene:
() =

(2u() 2 2u() 2 ) = 2||


2

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

167

Il segnale analitico () associato a () vale dunque:

() = 2
0

2|| 2
2 2()
1

=
[
] =

2() 0
( )

o anche:
() =

+
2 + 2
( 2 + 2 )

Il suo modulo vale:


() =

ed il suo argomento:

1
1
2 + 2

() = arctg ( )

Nel piano complesso (Re[], Im[]) lestremo del vettore () descrive il


luogo individuato dallequazione:
2 ( 2 + 2 ) =

che una circonferenza di centro (

1
22

, 0) e raggio =

1
2

come indi-

cato nella Fig. E.VII.3.

8.2 - Componenti del segnale a frequenze positive e negative.


Nellanalisi dei segnali reali risulta talvolta utile introdurre le quantit + () e () definite dalle:
+ () = ()u()

(8.2.1)

() = ()u()

(8.2.2)

e
che individuano il contenuto di frequenze positive e negative di un segnale () il cui spettro stato denotato con ().
Alle quantit + () e (), sopra definite, si possono associare
due segnali complessi + () e () ottenuti per mezzo delle seguenti
antitrasformate:
+ () = 1 [+ ()];

() = [ ()]

(8.2.3)

denominati componenti a frequenze positive e negative del segnale.


Poich risulta manifestamente:

168

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

() = + () + ()

(8.2.4)

() = + () + ()

(8.2.5)

si ha:
Tenendo conto della (8.2.4), la trasformata di Fourier di () vale:
() = sgm() [+ () + ()] = + () + ()

(8.2.6)

da cui antitrasformando:
() = [+ () ()]

(8.2.7)

che permette di esprimere la trasformata di Hilbert di un segnale in termini delle sue componenti a frequenze positive e negative.
Invertendo le (8.2.5) e (8.2.7) si ottiene infine:
+ () =

1
[() + ()],
2

1
() = [() ()]
2

(8.2.8)

8.3 - Segnali a banda e durata rigorosamente limitata.


Un segnale () si dice a banda rigorosamente limitata quando la
sua trasformata di Fourier soddisfa la condizione:
, (0 < < ) | () = 0 | || [ , ]

(8.3.1)

Detti 1 l'estremo superiore dell'insieme { } ed 2 l'estremo inferiore dell'insieme { }, la quantit:


= 2 1

(8.3.2)

esprime lampiezza di banda del segnale


e le frequenze 1 e 2 vengono rispettivamente dette frequenza di taglio inferiore e superiore (vedi Fig. 8.2).
Se per un segnale () a banda
rigorosamente limitata risulta 1 = 0 il
Fig. 8.2 Segnale a banda rigorosegnale si dice passabasso, altrimenti si
samente limitata
parla di segnale passabanda.
Un segnale () si dice a durata rigorosamente limitata quando
soddisfatta la condizione:
| () = 0 [ , ]

(8.3.3)

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

169

La misura dell'intersezione tra tutti gli intervalli [ , ] che verificano la


(8.3.3) definisce la durata del segnale.
Con riferimento alla Fig. 8.2 si pu osservare che, se () denota
la trasformata di Fourier di un segnale a banda rigorosamente limitata, si
pu scrivere:
0
+ 0
() = () (
) + () (
)

(8.3.4)

avendo denotato con 0 il valore della frequenza di centro banda:


0 =

1 + 2
2

(8.3.5)

Antitrasformando la (8.3.4), essendo:


0
1 [ (
)] = sinc() 20

(8.3.6)

si ottiene facilmente l'identit:


() = () (sinc() 20 + sinc() 20 )

(8.3.7)

dalla quale si deduce che il segnale () non pu avere durata limitata


giacch esso si pu esprimere mediante una convoluzione in cui uno dei
due operandi ha supporto non limitato.
Di converso, se () a durata rigorosamente limitata, la sua trasformata si estender su tutto lasse delle frequenze. In altre parole non
esistono segnali che siano simultaneamente a banda e a durata rigorosamente limitate.
8.4 - Propriet dei segnali a banda rigorosamente limitata.
Segnali passabasso
Se () un segnale passabasso, anche rappresentabile mediante

una funzione continua e derivabile infinite volte (vedi . 5.7 - ). Si ha:


() =

() 2

(8.4.1)

dove denota la frequenza di taglio.


Dalla precedente discende:
|()|

|()| <

(8.4.2)

170

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Derivando la (8.4.1)rispetto a t si ottiene:

()
= 2 () 2

(8.4.3)

da cui:
|

()
| |2| |()| 2 |()|

(8.4.4)

Procedendo analogamente per la derivata -esima si ottiene la seguente limitazione:


|

()

(2
)

|()|

(8.4.5)

cio: il modulo di un segnale passabasso limitato, come pure i moduli


di tutte le sue derivate. Tali limiti dipendono dallampiezza della banda del segnale. Un segnale passabasso, pertanto, ha un andamento regolare nel tempo con variazioni tanto pi lente quanto pi piccola la sua
frequenza di taglio.
Segnali passabanda

Con riferimento alla Fig. 8.2 se () reale, si pu scrivere:


() =

() 2 + () 2

(8.4.6)

= 2Re [ ()

che con la posizione = 0 + diventa:


() = 2Re [

20

(0 + ) 2 ]

(8.4.7)

Definendo il segnale:

() = 2 (0 + ) 2

(8.4.8)

la (8.4.7) si pu riscrivere nella forma:


() = Re[() 20 ]

(8.4.9)

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

171

Il segnale (), definito dalla (8.4.8), in generale complesso a


meno che la () non soddisfi la condizione di simmetria:
(0 ) = (0 + )

(8.4.10)

Indicando con () e con () il modulo e largomento di ():


() = () ()

(8.4.11)

dalla (8.4.9) discende:


() = () cos(20 + ())
= () cos(20 ) () sin(20 )

(8.4.12)

laddove le quantit () e () definite dalle:

) () = () cos () = 2Re [ (0 + ) 2 ]

(8.4.13)

) () = () sin () = 2Im [ (0 + ) 2 ]

prendono il nome rispettivamente di componenti in fase e in quadratura


del segnale.
Le (8.4.9) e
(8.4.13) suggeriscono una particolare
rappresentazione
grafica di (). In
fatti se il vettore
individua nel piano
complesso di Fig.
8.3 la quantit () a
Fig. 8.3 - Rappresentazione vettoriale di un segnale passa- un istante generico
banda
, il valore () del
segnale si potr ottenere dalla proiezione sullasse reale del vettore

ottenuto ruotando di un angolo pari a 20 . Il segnale () noto se


al variare di . Ci significa che
si conosce la posizione del vettore
() pu essere rappresentato dal luogo dell'estremo di tale vettore. Si
perviene cos alla naturale estensione dellusuale rappresentazione di una
grandezza sinusoidale mediante un vettore rotante. In questultimo caso,

172

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il vettore rappresentativo del segnale non varia nel tempo cosicch la


curva si riduce a un punto.
Le quantit () e () prendono rispettivamente il nome di inviluppo e fase istantanei del segnale; si definisce frequenza istantanea la
quantit ():
() = 0 +

1 ()
2

(8.4.14)

Dalla (8.4.12) si deduce che un segnale passabanda assume la


forma di unoscillazione modulata in ampiezza e fase; le quantit () e
() rappresentano due segnali i cui spettri, in virt delle (8.4.13), sono

contenuti nellintervallo ( 2 , 2 ). Tali funzioni pertanto corrispondono


a segnali di tipo passabasso, e le loro variazioni nel tempo risultano tanto pi lente quanto pi stretta la banda del segnale.
Prendendo le trasformate di Fourier della (8.4.9), si ottiene:

() = Re[() 20 ] 2

1
= [() 20 + () 20 ] 2
2

1
1
= () 2(0 ) + ( () 2(+0 ) )
2
2

(8.4.15)

che, detta () la trasformata di (), si pu scrivere nella forma:


1
1
() = ( 0 ) + ( 0 )
2
2

(8.4.16)

Esempio 8.4

Fig.E 8.4

Detto 0 il valore della frequenza di centro banda, il segnale (),


il cui spettro () rappresentato
in Fig. E.VII.4, pu ottenersi sulla
base della (8.4.13) determinando le
quantit () e (). A tal fine si
osservi che lo spettro (0 + )

limitatamente all'intervallo ( , ) si presenta come mostrato in Fig.


2 2

E.VII.5, la cui antitrasformata risulta:

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

173

1 cos() sin()
sin() cos()
1 [(0 + )] = (
+
)+(

)
2 2 2
2
2 2 2
2

Le componenti in fase e in quadratura allora sono:


1 cos() sin()
+
;
2 2 2
2
{
sin() cos()
() =

;
2 2 2
2
() =

Il segnale () vale allora:


()
1 cos() sin()
=(
+
) cos(20 )
2 2 2
2
sin() cos()
(

) sin(20 )
2 2 2
2

Fig.E 8.5

8.5 - Banda e durata convenzionali.


Se () non a banda o durata rigorosamente limitata, pur essendo a energia finita, pu essere in certi casi conveniente attribuire al segnale una banda o durata convenzionali.
In quel che segue () si suppone reale passabasso; tuttavia le
considerazioni svolte si possono facilmente estendere ai segnali reali
passabanda.
Banda e durata quadratica o efficace
Si definisce banda quadratica la quantit:
1

2
1
= ( 2 |()|2 )

(8.5.1)

dove l'energia specifica del segnale.


Si noti che la banda quadratica di un segnale d una misura
della dispersione dei valori di |()|2 attorno all'asse delle frequenze.
In maniera simile si pu definire una durata quadratica . Detta
lascissa baricentrica di |()|:
=

la quantit vale:

1
|()|2

(8.5.2)

174

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati 1

2
1
= ( ( )2 |()|2 )

(8.5.3)

che, riferendo l'origine dei tempi a , assumerebbe la forma pi semplice:


1

2
1
= ( 2 |()|2 )

(8.5.4)

analoga alla (8.5.1).


Banda e durata sulla base dellenergia
La durata convenzionale di un segnale definita dall'ampiezza
dell'intervallo centrato sull'ascissa baricentrica nel quale contenuta una
prefissata aliquota 2 1 dell'energia totale del segnale. Detta durata
pu essere calcolata risolvendo l'equazione nell'incognita :

1 2
= |( )|2

(8.5.5)

ovvio che la quantit una funzione non decrescente di 2 .


Analogamente si introduce una banda equivalente che si ottiene
risolvendo l'equazione nell'incognita :
2 =

1
|()|2

(8.5.6)

dove 2 una prefissata quantit non superiore a 1.


Esempio 8.5
Si determino la durata e banda convenzionali del segnale:
() = u() ( > 0)

Lenergia specifica del segnale vale:

= 2 =
0

1
2

a) Durata quadratica:
Lascissa baricentrica vale:

= 2 2 =
0

quindi la durata quadratica ottenuta dalla:

CAPITOLO - 8 - Caratteristiche e Propriet dei Segnali -

175

2 2
5
2 = 2 ( ) 2 = 2

2
0

Risulta quindi:
=

1 5

b) Durata sulla base dellenergia:


Riferendo il segnale alla sua ascissa baricentrica si ottiene:
2
2
() = ( ) = u( ) ()

e quindi la durata si deduce dallequazione:

2
2
2
2
1 4
= u ( ) 2() =

da cui:
=

1
[4 log(1 2 )]

Poich la trasformata del segnale vale: S(f ) a j2f risulta:


a) Banda quadratica:
Si ha:

1
2
2
=
=
2
+ (2)2

b) Banda sulla base dellenergia:


La banda si determina dalla condizione:

arctg()
= 2
=
2
2

+ (2)

dalla quale si deduce:

= tan ( 2 )
2

CAPITOLO - 9
IL CAMPIONAMENTO DEI SEGNALI
9.1 - Il teorema del campionamento.
Un'importante caratteristica di un segnale a banda limitata quella di potere essere ricostruito a partire dalla conoscenza dei valori, campioni, assunti da esso in corrispondenza di un'opportuna sequenza di
istanti.
Quanto detto, in altri termini, significa che possibile stabilire
una corrispondenza biunivoca tra funzioni del tempo rappresentative di
segnali a banda limitata e sequenze numeriche.
In linea di principio
per poter ricostruire il segnale non necessario che
i campioni vengano prelevati con cadenza regolare.
Tuttavia, poich in genere
si adottano campionatori
uniformi, in quel che segue
si considerer soltanto il
campionamento uniforme;
cio si assumer che l'intervallo di tempo =
Fig. 9.1 - a) Spettro di un segnale passabasso;
b) sua ripetizione periodica.
+1 che intercorre tra
due campioni consecutivi,
detto periodo di campionamento, sia costante.
Dato un segnale () reale rigorosamente passa basso, cio tale
che detta () la sua trasformata di Fourier (vedi Fig. 9.1a)), risulti:

() = () (
),
2

(9.1.1)

si consideri la funzione (), ottenuta ripetendo periodicamente lo


spettro () con periodicit (v. Fig. 9.1,b):

178

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

() = ( )

(9.1.2)

evidente che se si sceglie


2

(9.1.3)

() = () ( )

(9.1.4)

si ha:

In questo caso cio la trasformata di Fourier del segnale e la funzione

() coincidono nell'intervallo ( , ).

Poich () periodica, pu essere sviluppata in serie di Fourier:

() =

(9.1.5)

dove:

1 2
1

2
=
= ()
( )

(9.1.6)

Sostituendo la (9.1.5) e la (9.1.6) nella (9.1.4) si ottiene la seguente


espressione per ():

() = ( ) ( )

(9.1.7)

= ( ) ( )

dove nell'ultima sommatoria si mutato in .

Tenendo infine presente che 1 [ ( )] = sinc( ) si ha:

() = ( ) sinc [ ( )]

(9.1.8)

La precedente costituisce l'espressione formale del teorema del


campionamento. Da essa risulta infatti evidente che possibile ricostrui-

CAPITOLO - 9 - Il Campionamento dei Segnali -

179

re un segnale passabasso a partire dalla sequenza { ( )}

dei suoi

campioni.
Si osservi che, in base alla (9.1.8), la ricostruzione del segnale viene effettuata sommando una serie di funzioni del tipo sinc( ) opportunamente ritardate e pesate per mezzo dei campioni di () come indicato in Fig. 9.2.
Si sottolinea che la (9.1.8) vale soltanto se la (9.1.3) verificata. La

Fig. 9.2 - Ricostruzione di un segnale a partire dai suoi campioni

minima frequenza di campionamento che soddisfa tale limitazione detta frequenza di Nyquist, e il corrispondente massimo periodo di campionamento periodo di Nyquist. Essi valgono rispettivamente:
= 2 ;

1
2

(9.1.9)

9.2 - Il sottospazio dei segnali passabasso.


Dalla (9.1.8) si deduce che l'insieme di funzioni normalizzate:

() = sinc [ ( )]

(9.2.1)

completo rispetto all'insieme dei segnali passabasso ad energia finita

con frequenza di taglio non superiore ad 2 . Inoltre le (9.2.1) sono ortogonali. Infatti detta () la trasformata di Fourier di () si ha:

180

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

() =

[sinc( )] =

( )

(9.2.2)

Applicando il teorema di Parseval si ottiene:

() () = ()
()

(9.2.3)

2()
1


= sinc(-)

2

In termini delle funzioni (), la (9.1.8) si traduce nella:

() = ()

(9.2.4)

dove:
=

( )

(9.2.5)

Si noti che l'ortogonalit delle () implica che la


famiglia di dette funzioni costituisce un set completo per
lo spazio dei segnali passabasso di banda non superiore

Fig. 9.3 Campionamento con < 2

a 2 , e conseguentemente implica anche che la sequenza di


coefficienti definiti dalla
(9.2.5) l'unica che consente
la ricostruzione del generico
elemento di detto spazio per
mezzo della base in questio-

ne.
evidente che se < 2 , () non coincide con () nell'intervallo ( , ) del segnale () (vedi Fig. 9.3). La sua ricostruzione
non effettuabile mediante la (9.1.8).

CAPITOLO - 9 - Il Campionamento dei Segnali -

181

D'altra parte, se la frequenza di campionamento superiore a


quella di Nyquist, cio se risulta > 2 , ci si convince che, in alternativa alla (9.1.7), () pu anche essere ricostruito a partire dalla:

() = (
) () = (
) ( )
2

(9.2.6)

dalla quale si perviene alla seguente formula di ricostruzione:

() =

( ) sinc [2 ( )]

(9.2.7)

che analogamente alla (9.2.4) pu essere scritta nella forma:


con

() = 2 sinc [2 ( )]

(9.2.8)

e
=

2
( )

(9.2.9)

Tuttavia in questo caso, la (9.2.8) individua una famiglia di funzioni normalizzate che non sono mutuamente ortogonali. Si ha infatti:

() () =

1
2()


2

(9.2.10)

2
= sinc [
( )]

Si consideri una generica combinazione lineare delle { ()}:

() = ()

(9.2.11)

la cui trasformata vale:

() = () =
( ) 2
2
2
=
=

(9.2.12)

individua una funzione


Si osservi che la sommatoria
=
periodica di periodo . Scegliendo opportunamente la sequenza di coef-

182

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ficienti possibile generare una funzione nulla nell'intervallo


( , ) e diversa da zero nel suo complementare rispetto all'intervallo

( , ). Sostituendo una tale sequenza nella (9.2.12) si ottiene, in virt

della presenza della funzione (2 ), una () e quindi una () nulla

in corrispondenza di una sequenza di coefficienti non identicamente


nulla. Pertanto le funzioni (), pur generando lo spazio dei segnali
passabasso di banda , non sono tra loro linearmente indipendenti,
quindi non ne costituiscono una base.
9.3 - Campionamento naturale.
La ripetizione periodica del segnale () con periodicit , definita dalla (9.1.2) corrisponde nel dominio del tempo al segnale:

() = [( )] = () 2
=

(9.3.1)

Il segnale campionato pu quindi essere ottenuto com schematizzato


in Fig. 9.4, cio dal prodotto di () per la funzione:

0 () = 2

(9.3.2)

detta funzione campionatrice.


La (9.3.2), utilizzando la formula di Pois- Fig. 9.4 - Campionatore
son (5.5.8), pu essere espressa nella

0 () = ( )

(9.3.3)

Il campionatore del tipo mostrato in Fig. 9.4 non quindi fisicamente realizzabile a causa della presenza della delta di Dirac.
Si pu pensare di approssimare la funzione campionatrice (9.3.3)
con un treno dimpulsi che sia la ripetizione periodica con passo di un
impulso () di durata < e trasformata di Fourier (). cio assumendo che 0 () valga:


0 () = (
)

(9.3.4)

CAPITOLO - 9 - Il Campionamento dei Segnali -

183

con < . Il segnale campionato, in questo caso, si presenta (vedi Fig.


9.5) nella forma:


() = () 0 () = () (
)

(9.3.5)

e si parla di campionamento naturale.

Fig. 9.5 - Campionamento naturale.

La trasformata di () si pu calcolare tramite il teorema della


convoluzione nel dominio della frequenza ottenendo:
() = () 0 ()

(9.3.6)

dove:

0 () = [0 ()] = [ 0

(9.3.7)

= 0 ( )
=

in cui

1 2
( )
= () 2 =

(9.3.8)

184

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si ha quindi:

() = 0 ()( )
=

1
= 0 ( ) =
( )( )

(9.3.9)

La (9.3.9) mostra che nel campionamento naturale lennesima ripetizione dello spettro risulta moltiplicata per il fattore
( )

Pertanto
nell'intervallo

( , ), la forma
2

Fig. 9.6 - Spettro del segnale campionato: campionamento


ideale, campionamento naturale.

dello spettro rimane


immutata, quindi
evidente che il segnale pu essere ancora
ricostruito. Nel caso

in cui () = () si ha () = sinc() da cui sostituendo nella (9.3.9) si


ottiene:

() =
sinc( )( )

(9.3.10)

In questo caso lo spettro di ampiezza | ()| del segnale () si presenta come mostrato in Fig. 9.6. Tornando alla Fig. 9.5 possiamo osservare che nel campionamento naturale il generico impulso ( ) viene
in realt distorto dal segnale quindi non possiamo parlare di vero e proprio campionamento nel senso che non potremmo ricostruire il segnale
a partire dalla sola conoscenza dei valori che esso assume in una sequenza di istanti, tale campionamento potrebbe al pi essere utilizzato
per una multiplazione di pi segnali su uno stesso mezzo fisico (multiplazione a divisione di tempo), in quanto sarebbe possibile inserire tra
gli impulsi associati ad un segnale quelli relativi ad altri.

CAPITOLO - 9 - Il Campionamento dei Segnali -

185

9.4 - Campionamento istantaneo.


Un'altra modalit di campionamento consiste nel cosiddetto campionamento istantaneo (vedi Fig. 9.7). In questo caso il segnale campionato
vale:


() = ( ) (
)

(9.4.1)

Nel campionamento istantaneo gli


impulsi che costituiscono () mantengono cio la loro forma
mentre le loro ampiezze sono proporzionali
ai campioni ( ) del
segnale.
Per valutare lo
spettro del segnale
espresso dalla (9.4.1)

Fig. 9.7 Campionamento Istantaneo

conveniente scrivere (

) mediante la seguente convoluzione:

(
) = ( ) ( )

(9.4.2)

Di conseguenza:

() = ( ) ( ( )( ))

= ( ) (() ( ))

(9.4.3)

Nella precedente abbiamo ricordato che:


( )( ) = ()( )

e utilizzando la (5.8.5) per la trasformata di (), si ottiene:

(9.4.4)

186

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

() = () [() ( )]
=

= () (()

1
( ))

(9.4.5)

()
( )

Nel caso in cui () = ( ) avremmo:

() = sinc() [() ( )]
=

= sinc() (()

1
( ))

(9.4.6)

= sinc() ( )

In questo caso lo spettro del segnale campionato mostrato in blu in

Fig. 9.8, da cui si rileva che, a causa del fattore sinc() tale spettro ha

una forma diversa da quello del segnale nella porzione contenuta nell'in-

Fig. 9.8 - Campionamento naturale, campionamento istantaneo.

CAPITOLO - 9 - Il Campionamento dei Segnali

187

tervallo ( 2 , 2 ).
Di conseguenza un filtro passabasso non in grado di ricostruire
il segnale. Tuttavia, poich il legame tra lo spettro del segnale campionato e quello di () noto, possibile eliminare la distorsione introdotta
dal campionatore.
Si osservi inoltre che, se << , la distorsione introdotta diventa trascurabile in quanto il fattore sinc() varia poco nella banda di interesse. Tale riduzione tuttavia, comporta anche una notevole attenua
zione del segnale a causa del fattore << 1.

9.5 - Errori di ricoprimento spettrale (aliasing).


Se si suppone che il segnale (), se pur non rigorosamente passabasso, abbia la maggior parte della sua energia concentrata in una
banda ( , ), si pu pensare di effettuare un campionamento, che
per semplicit si suppone ideale, utilizzando una = 2 . In questo caso il segnale ricostruito () non pu riprodurre fedelmente () (vedi
fig. Fig. 9.9). Si rende quindi necessario stimare l'entit dell'errore commesso. A tal fine si calcoli la distanza euclidea tra il segnale e la sua versione ricostruita:

= |() ()|2

(9.5.1)

Applicando il teorema di Parseval la precedente si pu anche scrivere:

= |() ()|2

Fig. 9.9 - Campionamento di un segnale a banda non limitata.

(9.5.2)

188

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ricordando che la ricostruzione del segnale avviene mediante un filtro


passabasso, e che quindi () nullo all'esterno di ( , ), lecito riformulare la (9.5.2) come segue:
|()|2 +

=
||>

|() ()|2

(9.5.3)

La presenza del primo addendo della (9.5.3) inevitabile, in quanto esso dovuto alle componenti spettrali di () che cadono al di fuori
della banda di interesse. Il secondo addendo nasce a causa del ricopri-

Fig. 9.10 Campionamento con prefiltraggio

mento spettrale (aliasing).


Se si provvede a prefiltrare il segnale mediante un filtro passa
basso, che per semplicit supponiamo ideale, di banda prima di campionarlo (vedi Fig. 9.10), la distanza euclidea (9.5.1) diventa:
|()|2

=
||>

(9.5.4)

in quanto in questo caso viene a mancare il contributo allerrore dovuto


allaliasing.
Poich evidentemente risulta > si conclude che l'introduzione
di un prefiltro sempre auspicabile in quanto comunque comporta una
riduzione dell'errore di ricostruzione.
Esempio 9.1
Il segnale
() =

||

un segnale a banda non limitata. Supponendo di campionarlo con frequenza , lo spettro del segnale campionato vale:

CAPITOLO - 9 - Il Campionamento dei Segnali

() =

| |

( +

189

)+

||

Di conseguenza lo spettro del segnale ricostruito vale:

() = () ( )

e risulta:

= 2

(1

( +

L'errore risulta allora:


2

= 2 [ ( 1)

+ ( 1) ]

In presenza di prefiltro l'errore vale:


=

||>
2

2||

9.6 - Campionamento ideale dei segnali passabanda.


Le considerazioni svolte precedentemente possono essere estese
al caso di un segnale passabanda, effettuando il campionamento con
frequenza non inferiore al doppio della massima frequenza contenuta
nel suo spettro.
Per i segnali di tipo passabanda, tuttavia, talvolta possibile effettuare un campionamento ad una frequenza inferiore a quella di Nyquist.
Infatti chiaro che, almeno in linea di principio, la ricostruzione di un
segnale a partire dalla sequenza dei suoi campioni possibile a patto che
il suo spettro coincida, dove non nullo, con la sua ripetizione periodica. In altre parole possibile ricostruire il segnale, purch si scelga una
frequenza di campionamento che non dia luogo al fenomeno dell'aliasing.
Una condizione che deve necessariamente essere soddisfatta da
una possibile frequenza di campionamento la seguente:

(9.6.1)

(9.6.2)

ovvero:
dove indica la banda del segnale.

190

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si convince che, data la generica ripetizione dello spettro:


( ) = ( ) + + ( )

(9.6.3)

l'eventuale interferenza si pu verificare, o a causa di un termine


( ) che, in corrispondenza di un dato valore dell'indice positivo, va a sovrapporsi a + (), o, dualmente, a causa di un termine
+ ( ) che, per un qualche < 0, interferisce con ().
Ci si rende conto che una possibile frequenza di campionamento se, in corrispondenza al massimo valore dell'indice per cui la
componente ( ) si mantiene alla sinistra di + (), risulta che il

Fig. 9.11 - frequenze di campionamento per un segnale passabanda

termine ( ( + 1) ), relativo alla successiva ripetizione dello spettro del segnale, rimane alla destra di + ().
Quanto detto (vedi Fig. 9.11) si traduce nelle disuguaglianze:

(0 ) 0
2
2

( + 1) (0 + ) 0 +
2
2

(9.6.4)
(9.6.5)

Combinando le precedenti si ottiene:


20 +
20

+1
k

(9.6.6)

La quale definisce un intervallo di frequenze di campionamento


20 +
2
solo per quei valori di per cui risulta +1
0 ; ci implica il fatto

che deve soddisfare la seguente limitazione:

CAPITOLO - 9 - Il Campionamento dei Segnali -

0 1

2

191

(9.6.7)

dove la notazione indica la parte intera di .


In conclusione, ad ogni valore di che soddisfa la (9.6.7) corri-

Fig. 9.12 - Intervalli di frequenze di campionamento per un segnale passabanda.

sponde un intervallo di frequenze di campionamento. Il numero di tali

intervalli cresce all'aumentare del rapporto 0 .


Il diagramma di Fig. 9.12 consente di dedurre tutti i possibili valori
delle frequenze di campionamento (regioni non ombreggiate). Si osservi

inoltre che, tanto pi grande 0 tanto pi piccola pu essere la frequenza di campionamento rispetto alla frequenza di centro banda del segnale,
compatibilmente con l'estremo inferiore definito dalla (9.6.2).

192

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Tuttavia, si osservi che, l'ampiezza degli intervalli di campiona

mento a frequenza bassa al crescere di 0 diventa piccola imponendo


conseguentemente condizioni stringenti sulle specifiche di stabilit in
frequenza del generatore della funzione campionatrice.
Esempio 9.2
Si determinino le possibili frequenze di campionamento per un segnale
passa banda avente le seguenti caratteristiche
0 = 10 ,

= 1,0

Gli intervalli di possibili frequenze di campionamento (espresse in )


sono date dalla
21
19

+1

essendo
1
1 10 = 9
2

Esistono allora 9 intervalli di frequenze di campionamento possibili oltre


ovviamente a quello che contiene le frequenze non inferiori alla frequenza di
Nyquist. Detti intervalli, espressi in , valgono:
0 (21, )
1 (10.5, 19)
2 (7, 9.5)
3 (5.25, 6.333)
4 (4.2, 4.75)
5 (3.5, 3.8)
6 (3, 3.16)
7 (2.625, 2.714)
8 (2.333, 2.375)
9 (2.1, 2.111)

=0
=1
=2
=3
=4
=5
=6
=7
=8
=9

Per realizzare il campionamento alla minima frequenza si richiede quindi


una tolleranza nella frequenza del generatore della funzione campionatrice
inferiore allo:
2,111 2,1
2,111+2,1

100 = 0,53%

Esempio 9.3
Un'interessante applicazione del campionamento si riscontra nel funzionamento degli oscilloscopi campionatori tramite i quali possibile rappre-

CAPITOLO - 9 - Il Campionamento dei Segnali -

193

sentare segnali periodici anche quando il loro contenuto armonico supera


l'ampiezza di banda propria dello strumento.
Per chiarire il principio di funzionamento di dette apparecchiature si consideri un segnale () periodico di periodo 0 = 10 come mostra la Fig.E
9.1 dove si rappresentato anche lo spettro che nel caso in questione costituito dalle righe in blu centrate a 0 , 20 , 30 .
Supponendo di campionare il segnale () con una frequenza di campionamento inferiore a 0 , cio pari a = 0 , con 0 < < 1 (nella figura
si scelto = 0,9) si ottiene un segnale campionato il cui spettro ()
costituito dalla ripetizione periodica, con periodo , di quello () di ().
Precisamente

() = ( )
=

Lo spettro di () a righe in quanto periodico. La prima armonica di ()


genera in () una sequenza di delta di Dirac della sua stessa ampiezza
centrate alle frequenze 0 = (1 )0 , .
Le altre componenti armoniche genereranno a loro volta delle ulteriori
sequenze di righe spettrali. Di conseguenza lo spettro del segnale campionato si presenta come indicato nella stessa Fig.E 9.1 in cui ogni ripetizione
dello spettro stata riportata con un colore diverso.
Filtrando il segnale campionato mediante un filtro passabasso di banda

, che si suppone inferiore alla banda propria dello strumento, si ottiene un

segnale () il cui spettro costituito soltanto dalle righe di () apparte

nenti all'intervallo ( , ) cio quelle per cui verificata la disuguaglianza:

0
0
0 0
2
2

dalla quale si ricava che i valori di devono appartenere allintervallo di mis


ura 1:
1 1
[ , + ]
2 2

194

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Fig.E 9.1

Purch gli estremi di tale intervallo non siano interi, cosa che non accade
se si sceglie un valore di che soddisfi la condizione:

2
2 + 1

ad ogni valore di corrisponde un unico valore di = + . Cio una sola ripetizione di una data armonica del segnale viene a cadere nell'intervallo

( , ). L'armonica dindice del segnale, di frequenza 0 , viene quindi


riportata in una riga di pari ampiezza centrata alla frequenza:
1
= ( + ) 0
2

Affinch il segnale all'uscita del filtro riproduca la forma di () le righe

che cadono all'interno della banda ( , ) devono rispettare la sequenza


delle armoniche del segnale originario e devono essere tra loro spaziate di un
intervallo pari alla frequenza in cui viene riportata la prima armonica del segnale.
Posto:
1
= +
2

Si deve cio avere;


= 0 ( )0 = (1 0 )0 = 0

CAPITOLO - 9 - Il Campionamento dei Segnali -

che comporta per la seguente limitazione.


| 0 | <

o equivalentemente:
<

195

2|1 0 |

ammesso che si sia scelto un valore che consenta di soddisfare la precedente disuguaglianza per tutte le armoniche contenute nel segnale, ovvero
che le armoniche che non la soddisfano abbiano ampiezza trascurabile. Il segnale () ottenuto all'uscita del filtro assume la forma:

() = = 2(10)0

dove rappresenta il generico coefficiente dello sviluppo in serie di Fourier


di ().

9.7 - Ricostruzione del segnale passabanda.


Anche per i segnali passabanda si pu dedurre una formula di ricostruzione del tipo della (9.1.8). Basta osservare che indicando con
un possibile valore della frequenza di campionamento, la ripetizione periodica del segnale pu essere sviluppata in serie di Fourier:

() = ( ) =
=

(9.7.1)

osservando che in ogni periodo di () cadono una sola ripetizione


di () e una di + (), pu essere calcolato come segue:
0 +

0 +

()

+ ()
0

= ( )

(9.7.2)

La trasformata del segnale vale:

1
0
+ 0
2

() = [ (2
) + (2
)] ( )

(9.7.3)

quindi:
()
=

0 +
0 +

4
4
2( )
2( )
+
]
( ) [

0
0
=

(9.7.4)

196

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Operando rispettivamente nel primo e nel secondo integrale le sostituzioni:


= 0 ;

= + 0

(9.7.5)

la precedente pu essere riscritta:

() =

4
20 ( )
2( )

+
( ) [

20 ( )

2( )

] =

(9.7.6)

4
2( )

( ) cos [20 ( )]

In definitiva quindi si ottiene:

() = ( ) cos [20 ( )] sinc [ ( )]

(9.7.7)

che rappresenta la formula di ricostruzione per i segnali passabanda.


9.8 - Campionamento del secondo ordine.
Dalle (9.1.8) e (9.7.7) si deduce che la ricostruzione di un segnale
a banda limitata possibile a partire da una sequenza di valori campio

nati ( ); tale tipo di campionamento prende il nome di campionamen

to del primo ordine. anche possibile dedurre formule di ricostruzione


utilizzando due sequenze distinte di campioni, una ottenuta da (), l'altra da una sua opportuna trasformazione.
Segnali passabasso.
Sia () un segnale passabasso di banda . Il segnale analitico
() ad esso associato :
() = () + ()

(9.8.1)

dove () la trasformata di Hilbert di (). Poich, com noto, lo


spettro di () contenuto nell'intervallo (0, ), si ha (vedi Fig. 9.13):

1
() = ( ) ( )
2
=

purch risulti:

(9.8.2)

CAPITOLO - 9 - Il Campionamento dei Segnali -

197

(9.8.3)

la (9.8.2) si pu anche scrivere nella forma:

1
1
2
() = ( ) ( )

(9.8.4)

Antitrasformando si ottiene quindi:

() =

1 2( )
=
( ) ( )


2
=

(9.8.5)

2( )
( )
= ( ) sinc [ (
=
( )
)]

ma () = Re[()], pertanto:

() = ( ) sinc [ ( )] cos [ ( )] +

( ) sinc [ ( )] sin [ ( )]

(9.8.6)

Fig. 9.13 - - Ripetizione periodica dello spettro del segnale analitico.

che la formula di ricostruzione del segnale a partire da due diverse sequenze di campioni ottenuti da () e da () rispettivamente.
La minima possibile frequenza di campionamento, in questo caso, pari alla banda del segnale () quindi la met di quella minima
per il campionamento del primo ordine. Tuttavia va sottolineato il fatto
che il numero minimo di campioni al secondo per poter effettuare la ri-

198

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

costruzione ancora una volta pari a 2 ; ne occorrono infatti almeno


al secondo per la sequenza ottenuta da () ed altrettanti per quella
ottenuta da (). L'unico vantaggio nell'impiego di questo tipo di campionamento quello di poter utilizzare dei campionatori a frequenza inferiore a condizione per di disporre di un sistema in grado di generare
la trasformata di Hilbert del segnale.
Segnali passabanda.
Le considerazioni sopra svolte possono essere estese al caso di
segnali passabanda. In questo caso () contenuto nell'intervallo
(1 , 2 ). Pertanto pur di scegliere:
2 1

(9.8.7)

si pu scrivere:

() =

1
0
2

(
) ( )

(9.8.8)

che antitrasformata fornisce:

() =

0 +

2
2( )

( )

0
=

(9.8.9)

Effettuando la sostituzione di variabile = 0 + si ottiene:

1
20 ( ) 2 2( )

=
() =
( )

20 ( )

= ( ) sinc [ ( )]

(9.8.10)

Prendendo infine la parte reale della precedente si ha:

() = ( ) sinc [ ( )] cos [20 ( )] +

( ) sinc [ ( )] sin [20 ( )]

(9.8.11)

che permette di ricostruire un segnale passabanda dai campioni di () e


di (). Si noti che la frequenza di campionamento dell'ordine della

CAPITOLO - 9 - Il Campionamento dei Segnali -

199

banda del segnale e quindi risulta molto inferiore a quella necessaria per
il campionamento del primo ordine.
In questo caso, inoltre, l'unica limitazione sulla scelta della frequenza di campionamento fornita dalla (9.8.7), a differenza del campionamento del primo ordine dei segnali passabanda, in cui invece necessario scegliere frequenze di campionamento appartenenti ad opportuni intervalli.

CAPITOLO - 10
SEGNALI A TEMPO DISCRETO
10.1 - Segnali a tempo discreto. Energia e potenza specifica.
Un segnale a tempo discreto rappresentato da una funzione reale o complessa ( ) definita su un insieme, al pi numerabile, di istanti
di tempo. In quel che segue la successione degli istanti si suppone regolare, cio si suppone che:
= ;

(10.1.1)

dove detto quanto temporale.


Assumendo che ( ) valga zero in corrispondenza di tutti i valori dell'indice in cui non altrimenti definito, si dice che il segnale ad
energia specifica finita se la quantit:

= |()|2

(10.1.2)

finita. Nel caso in cui sia finita la quantit:

1
= lim
|()|2
2 + 1

(10.1.3)

si dice che il segnale a potenza specifica finita.


Risulta evidente che, come per il caso dei segnali a tempo continuo, un segnale a tempo discreto a potenza specifica finita, ha energia
specifica infinita; un segnale ad energia finita ha potenza specifica nulla.
Esempio 10.1
Il segnale Fig.E 10.1:
() = {

Fig.E 10.1

verifica facilmente che:

1;
0;

0
<0

costituisce il cosiddetto gradino unitario a tempo discreto. E un segnale a potenza


finita, dal momento che si

202

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

1
+1
1
2 () =
=
2 + 1
2 + 1
2

=0

Esempio 10.2
Il segnale (vedi Fig.E
10.2):
1;
() = {
0;
Fig.E 10.2

=0
0

detto impulso unitario a


tempo discreto ed un

segnale ad energia finita. Infatti:

= 2 () =
=

Esempio 10.3
Si consideri il segnale:
() = (),

La sua energia specifica

= ||2
=0

finita, solo se la serie geometrica di ragione ||2 converge, cio se risulta || > 1.
In tal caso si ha:
=

1 ||2

10.2 - Segnali periodici.

Un segnale () si dice periodico se esistono interi positivi


tali che risulti:
);
() = ( +

(10.2.1)

}, la quantit 0 = si dice periodo principale del seDetto = min{


gnale o semplicemente periodo.
Esempio 10.4
Il segnale
() = cos(20 )

tali che risulti:


periodico se esistono

CAPITOLO - 10 - Segnali a Tempo Discreto -

)0 ] ;
cos(20 ) = cos[2( +

203

Detta condizione soddisfatta solo se


| 0 =

La quantit 0 deve quindi essere un numero razionale. Il periodo principale 0 = del segnale si determina riducendo 0 ai minimi termini: cio
scrivendolo nella forma:
0 =

Fig.E 10.3

con e primi tra loro.


Si osservi che per qualsiasi intero , :
cos [2 (0 +

) ] = cos(20 )

Ci significa che il campionamento dei due segnali a tempo continuo:


1 () = cos(20 ) ;

2 () = cos [2 (0 +

) ]

effettuato con passo produce la stessa sequenza di campioni (ambiguit


della frequenza) come mostrato in Fig.E 10.3.

L'energia specifica di un segnale periodico non identicamente nullo infinita.

204

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si rende inoltre facilmente conto del fatto che la potenza specifica di un segnale periodico si pu anche esprimere nella forma:

1
|()|2

(10.2.2)

=1

dalla quale si deduce che un segnale periodico a potenza finita a meno


che non sia illimitato.
10.3 - La trasformata discreta di Fourier
In quel che segue si mostrer che il generico elemento di un segnale periodico pu essere espresso nella forma:

() =

(10.3.1)

=1

Quest'ultima, tenuto conto della definizione di T 0 si pu riscrivere:

() = 2

(10.3.2)

=1

Infatti si osservi che un segnale periodico univocamente determinato da una -upla ordinata di numeri complessi corrispondenti ai
valori assunti dal segnale in un periodo prefissato. In altri termini un segnale periodico univocamente individuato da un vettore in .
Si considerino i seguenti vettori in riferiti alla sua base canonica:
= [

2 ] ;
(10.3.3)
m = 1,2, ,

Essi costituiscono una base ortonormale per , si ha infatti:

()
1
1
, = 2 2 = 2

=1

=1

()
1
1
= 2

=0

1;
= {1

2()(+1)

2()

(10.3.4)
=

1
= 0;

CAPITOLO - 10 - Segnali a Tempo Discreto -

205

Pertanto ogni elemento si pu univocamente esprimere


nella seguente forma:

= ,

(10.3.5)

=1

La generica componente di rispetto alla base canonica vale


quindi:

= ,
=1

2 ;

= 1,2, ,

(10.3.6)

La (10.3.6)dal momento che per 1 risulta = () si


identifica con la (10.3.2) qualora si ponga:

1
() 2 ;

= 1,2, ,

(10.3.7)

=1

Si osservi che pu essere interpretato come il generico elemento di una sequenza { } periodica di periodo essendo:
+

=1

=1

1
1
= () 2(+) = () 2

(10.3.8)

La (10.3.2) ricorda l'espansione in serie di Fourier di un segnale


periodico a tempo continuo. da osservare tuttavia che, mentre l'espansione in serie di Fourier dei segnali periodici a tempo continuo contiene una infinit numerabile di funzioni del tipo 20 , nella (10.3.2)
compaiono soltanto gli esponenziali 2/ .
Si osservi inoltre che, in virt della periodicit del segnale (),
della sequenza { } e dei fattori 2/ rispetto agli indici e , le
somme che compaiono nelle (10.3.1), (10.3.2) e (10.3.7) possono partire
da un indice qualsiasi purch siano estese a termini consecutivi.
Normalizzando il quanto temporale, cio ponendo = 1, la
(10.3.1) e la (10.3.7) si riscrivono:

206

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

= 1,2, ,

=1

(10.3.9)

2
1
= ;

{
=1

= 1,2, ,

che mettono in corrispondenza due sequenze periodiche definite in domini distinti.


Esempio 10.5
Si consideri il segnale a tempo discreto, periodico di periodo NT , che,
nel suo periodo fondamentale, definito dalla:
() = ;

|| < 1,

= 0,1,2, , 1

I coefficienti del suo sviluppo valgono:


1

=
=

2
2
1
1
1 1
= ( ) =

2
1
=0
=0

1
1
=
1 [cos (2) sin (2)]

1
=

1
1 2 cos (

(jarctg

2
)
sin(

2 )
)
1 cos(

) + 2

Segnali ad energia finita.

Sia () un segnale a tempo discreto ad energia finita. Ad esso,


per un assegnato valore , che senza ledere la generalit supporremo
pari, si pu associare il segnale troncato definito dalla:
() = {();
0;

,, 1
2
2

(10.3.10)

ed il segnale () ottenuto ripetendo periodicamente, con periodicit


, il segnale ():

() = ( + )
=

(10.3.11)

CAPITOLO - 10 - Segnali a Tempo Discreto -

207

Poich il segnale () periodico, pu per la (10.3.2), essere


scritto:

1
2

() = 2 ;

,, 1
2
2

(10.3.12)

dove

1
2

1
=
() 2 ;

,, 1
2
2

(10.3.13)

Sostituendo la (10.3.13) nella (10.3.12) si perviene alla:

1
2

1
2

() = (

1
() 2 ) 2

(10.3.14)

Si osservi che al crescere di il segnale () tende a () e i


coefficienti assumono valori sempre pi piccoli a causa del fattore
1

. Inoltre, gli esponenziali 2 , rappresentando le radici -esime


dell'unit, giacciono sulla circonferenza di centro l'origine e raggio unitario del piano complesso, indipendentemente dal valore di .
Al crescere di , detti punti tendono a ricoprire completamente

detta circonferenza. Di conseguenza, al limite, la quantit tende a


confondersi con una variabile continua. Ponendo allora al limite:

(10.3.15)

la (10.3.14), per , si pu scrivere:


() =

1
2
1
2

( () 2 ) 2

(10.3.16)

che, ponendo

() = () 2
=

(10.3.17)

208

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

assume la forma:
() =

1
2
1
2

() 2

(10.3.18)

Le (10.3.17) e (10.3.18) costituiscono rispettivamente la trasformata e l'antitrasformata di Fourier di un segnale a tempo discreto a
energia finita.
Un segnale a tempo discreto definisce una sequenza numerica
{ }, il cui generico elemento si ottiene ponendo = (). Le

(10.3.17) e (10.3.18), ponendo = 1 e = , si possono facilmente


reinterpretare come trasformazioni che associano ad una sequenza numerica una funzione di una variabile continua.
Si ottiene:

() = 2

(10.3.19)

e
1
2

= () 2
1
2

(10.3.20)

Si noti che, a differenza dei segnali a tempo continuo, la funzione


() periodica in di periodo 1. Infatti, per ogni intero , si pu scrivere:

( + ) =

2(+)

= 2 = ()

(10.3.21)

Ci comporta che l'integrale nella (10.3.20) pu essere esteso ad un


qualsiasi intervallo purch di ampiezza unitaria.
Esempio 10.6
La sequenza , definita nellEsempio 10.2 ammette trasformata di Fourier
data dalla:

() = 2 = 1
=

CAPITOLO - 10 - Segnali a Tempo Discreto -

209

Esempio 10.7
La trasformata di Fourier normalizzata del segnale:
= u , 0<a<1

dove u il gradino unitario, vale:

() = =0 2 =

( 2 ) =

=0

1
12 arccos(2)+2

1
1 2

[arctg(

arcsin(2)
)]
1arccos(2)

il cui modulo ad argomento sono riportati in


Fig.E 10.4.
Esempio 10.8
La trasformata di Fourier della sequenza:
1;
= {
0;

Fig.E 10.4

||
= +
|| >

data dalla:

() = 2 = 2 + 2 1
=

={

sin[(2 + 1)]
;
sin()
2 + 1;

=0

=0

ed riportata in Fig.E 10.5

10.4 - Segnali a potenza finita.


Sia { } una sequenza a potenza finita. Ad essa si pu formalmente associare la trasformata di Fourier (10.3.19) e la corrispondente
antitrasformata (10.3.20). Tuttavia
la serie bilatera che compare nella
(10.3.19) non converge in senso
ordinario. Essa pu tuttavia essere
reinterpretata come una distribuzione.
Fig.E 10.5
Esempio 10.9
Sia data la sequenza costante:
= 1

210

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

la sua trasformata di Fourier vale:

() = 2 = ( )
=

per ottenere la quale si applicata la formula di Poisson.


Esempio 10.10
Sia data la sequenza:
= 20

la sua trasformata di Fourier vale:

() = 2(0) = ( 0 )
=

Esempio 10.11
Siano date le sequenze:
= cos(20 )
= sin(20 )

poich risulta rispettivamente:


1
1
= 20 + 20
2
2
1 2
1
0
=
20
2
2

tenendo conto del risultato dell'esempio precedente si ottiene per le rispettive


trasformate di Fourier:

1
() = ( ( 0 ) + ( + 0 ))
2
1
() = ( ( 0 ) ( + 0 ))
2

Esempio 10.12
Sia data la sequenza:
() = ;

>0

la sua trasformata di Fourier vale:


0

(, ) =

=0

1
1 (+2)

1
1 (2)

CAPITOLO - 10 - Segnali a Tempo Discreto -

211

Esempio 10.13
Sia data la sequenza cosi definita:
sgm =

poich risulta (vedi Esempio 10.12):


sgm = lim ()
0

la sua trasformata di Fourier si pu scrivere:


[sgm ] = lim (, ) = lim (
0

1
(+2)

1
1

1 2 1 2

1
(2)

1
sin(2)
=
1 cos(2)

)=

Esempio 10.14
Sia data la sequenza gradino unitario un . Poich risulta:
=

1 1
1
+ sgm +
2 2
2

in base agli esempi precedenti la sua trasformata di Fourier vale:

() =

1
1 1 2
( ) +
2
2 1 cos(2)
=

10.5 - Propriet della trasformata di Fourier di un segnale a


tempo discreto.
Le propriet della trasformata di Fourier di un segnale a tempo
discreto sono riassunte nella Tabella 10.1. Per esse vengono omesse le
dimostrazioni, essendo del tutto analoghe a quelle relative alla trasformata di Fourier dei segnali a tempo continuo.
Si noti che nel campo dei segnali a tempo discreto l'operazione di
derivazione sostituita con l'operazione differenza, la quale si distingue
in differenza in avanti (forward difference) e differenza all'indietro (backward
difference)
a)

() = (( + 1)) ()

b)

() = () (( 1))

(10.5.1)

Applicando la propriet di traslazione in , le trasformate di Fourier dei segnali () e () valgono rispettivamente:


a)

[()] = ( 2 1)()

b)

[()] = (1 2 )()

(10.5.2)

212

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Tabella 10.1
Propriet della trasformata di Fourier di un segnale a tempo discreto
Trasformata

Segnale

Propriet

Linearit

()

()

=1

=1

()

()

()

()

Traslazione in n

(( 0 ))

20 ()

Traslazione in f

20 ()

( 0 )

Differenza in avanti

()

[ 2 1]()

Differenza
dietro

()

[1 2 ]()

(2) ()

()

Segnale coniugato
Trasformata
niugata

co-

all'in-

Derivazione
nel
dominio della frequenza

1 ()2 (( ))
Convoluzione in

1 () 2 ()

1 (( ))2 ()
=
1
2

1 ()2 ( )
Convoluzione in

1 () 2 ()

1
2
1
2

1 ( )2 ()

1
2

essendo () la trasformata di ().


In maniera analoga possono definirsi le differenze seconde:
a)

2 () = (( + 1)) ()
= (( + 2)) 2(( + 1)) + ()

(10.5.3)

CAPITOLO - 10 - Segnali a Tempo Discreto -

b)

213

2 () = () (( 1))
= () 2(( 1)) + (( 2))

alle quali corrispondono le rispettive trasformate:


a)

[2 ()] = ( 4 2 2 + 1)()
= ( 2 1)2 ()

b)

[ 2 ()] = (1 2 2 + 4 )()
= (1 2 )2 ()

(10.5.4)

Pi in generale, per le differenze di ordine pu scriversi:


a)

[ ()] = ( 2 1)[1 ()]


= ( 2 1) ()

b)

[ ()] = (1 2 )[1 ()] (10.5.6)


= (1 2 ) ()

(10.5.5)

10.6 - Funzioni di correlazione e densit spettrali.


Procedendo in maniera analoga al caso dei segnali a tempo continuo, possono essere definite le funzioni di correlazione e le corrispondenti densit spettrali per i segnali a tempo discreto.
- Segnali periodici.
Siano 1 () e 2 () due segnali a tempo discreto, generalmente
complessi, periodici, aventi lo stesso periodo . Le quantit

a)

12 () =

1
1 (( + ))2 ()

=1

b)

1
21 () = 2 (( + ))1 ()

(10.6.1)

=1

sono le correlazioni incrociate a tempo discreto fra i segnali 1 () e


2 (). Si ha:

1
21 () = 2 (( ))1 () =

=1

(10.6.2)

214

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

1
= ( 1 ()2 (( )))

=1

1
( 1 (( ))2 ( ))

=1

= ( 1 (( ))2 ( )) = 12
()

=1

dove si posto = e si tenuto conto della periodicit.


Le correlazioni 12 () e 21 () sono entrambe periodiche di
periodo ; esse pertanto risultano sviluppabili in serie di Fourier. Il generico coefficiente dello sviluppo di 12 () vale:

12 =

2
1
12 ()

=1

=1

=1

2
1
( 1 (( + ))2 ())
2

=1

=1

2
1
2 () ( 1 (( + )) )
2

=1

=1

(10.6.3)

2
2(+)
1
2 () 1 (( + ))
2

=1

=1+

2
2
1
1

2 ()
1 ( ) = 1 2

avendo denotato con 1 e 2 i generici coefficienti degli sviluppi dei


segnali 1 () e 2 () rispettivamente.
In modo analogo si mostra che il generico coefficiente dello sviluppo di 21 () vale:

21 = 1
2

(10.6.4)

L'autocorrelazione tempo discreta si definisce come segue:

1
() = (( + )) ()

=1

il cui generico coefficiente del suo sviluppo in serie di Fourier :

(10.6.5)

CAPITOLO - 10 - Segnali a Tempo Discreto


=
= | |2

215

(10.6.6)

come discende immediatamente osservando che l'autocorrelazione si


pu intendere come mutua correlazione tra un segnale e se stesso.
Dalla (10.6.5)si deduce facilmente l'espressione dell'elemento
(0)
(0) =

=1

=1

1
1
() () = |()|2

(10.6.7)

che uguale alla potenza specifica associata al segnale a tempo discreto


periodico.
Si ha pertanto:

=1

=1

=1

1
|()|2 = (0) = = | |2

(10.6.8)

che la formulazione del teorema di Parseval per i segnali periodici a


tempo discreto.
- Segnali ad energia finita.
Se 1 () e 2 () sono due segnali a tempo discreto ad energia

finita, le loro correlazioni incrociate sono definite dalle:

12 () = 1 (( + ))2 ()

(10.6.9)

21 () = 2 (( + ))1 ()

(10.6.10)

Risulta, come facile verificare:

21 () = 12
()

La trasformata di Fourier di 12 () vale:

(10.6.11)

216

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

12 () = 12 () 2
=

1 (( + ))2 ()

(10.6.12)

= 2 () 2 1 (( + )) 2(+)
=

la quale, denotando con 1 () e 2 () rispettivamente le trasformate di


Fourier dei segnali 1 () e 2 (), fornisce:
12 () = 1 () 2 ()

(10.6.13)

Analogamente si ha:
21 () = 1 () 2 ()

(10.6.14)

L'autocorrelazione a tempo discreto definita dalla:

() = (( + )) ()

(10.6.15)

la cui trasformata di Fourier vale:


() = () () = |()|2

(10.6.16)

che costituisce l'estensione del teorema di Wiener al caso di segnali a


tempo discreto.
Ponendo = 0 nella (10.6.15) si ha:

(0) = |()|2

(10.6.17)

e di conseguenza:

|()| =
=

1
2
1
2

() =

1
2

1
2

|()|2

(10.6.18)

che costituisce l'espressione del Teorema di Parseval per i segnali a tempo discreto ad energia finita.

CAPITOLO - 10 - Segnali a Tempo Discreto -

217

- Segnali a potenza finita.


Dati due segnali, 1 () e 2 (), a tempo discreto a potenza fi-

nita, ad essi si possono associare le seguenti correlazioni incrociate:

1
12 () = lim
1 (( + ))2 ()
2 + 1
=

1
21 () = lim
2 (( + ))1 ()
2 + 1

(10.6.19)

Le (10.6.19), con considerazioni analoghe a quelle viste per il caso


della mutua correlazione tra segnali a tempo continuo a potenza finita, si
possono riformulare, ottenendo:
12 ()
2 + 1
21 ()
21 () = lim
2 + 1

12 () = lim

(10.6.20)

in cui 21 () e 12 () sono le mutue correlazioni associate ai corrispondenti segnali troncati definiti dalla:
();
() = {
0;

||
|| >

(10.6.21)

Seguendo una procedura analoga a quella adottata per i segnali a


tempo continuo si ottiene anche:

21 () = 12
()

(10.6.22)

Le trasformate di Fourier delle funzioni di mutua correlazione rispettivamente valgono:

12 () = 12 () 2
a)

=
=

12 ()
lim
=
2 + 1

(10.6.23)

218

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

1
= lim
1 ((
2 + 1
2

= =

() 2
+ ))2

1
() 2
= lim
2
1 ((
2 + 1
2

b)

()
1 ()2
+ )) 2(+) = lim
;

2 + 1
()
2 ()1
21 () = lim

2 + 1

Per l'autocorrelazione a tempo discreto si ha ovviamente:


()
2 + 1

() = lim

(10.6.24)

e la sua trasformata di Fourier vale:


| ()|2
() ()
= lim

2 + 1
2 + 1

() = lim

(10.6.25)

Ponendo = 0 nella (10.6.24)si ha:

(0)
1
(0) = lim
= lim
| ()|2
2 + 1
2 + 1

(10.6.26)

di conseguenza:

1
2
lim
| ()|2 = ()
1
2 + 1

1
2
1
2

| ()|2
lim

2 + 1

(10.6.27)

che la formulazione del teorema di Parseval per i segnali a tempo discreto a potenza finita.

CAPITOLO - 11
TRASFORMAZIONI LINEARI DISCRETE
11.1 - Studio nel dominio del tempo
Nei sistemi numerici i segnali che intervengono in ingresso e in
uscita sono dei segnali tempo discreti denotati con () e () rispettivamente. In quel che segue conveniente normalizzare il quanto temporale ponendo = 1. Questo comporta che ci si riferisce a sequenze
numeriche e in uscita. e il sistema numerico caratterizzato dalla
seguente trasformazione lineare:
= { }

(11.1.1)

Come nel caso dei sistemi lineari analogici, per caratterizzare la


trasformazione basta esprimere il segnale in ingresso nella forma:

(11.1.2)

essendo la sequenza impulsiva definita dalla:


= {

1;
0;

=0
0

(11.1.3)

Se la trasformazione lineare, risulta:

= { }

(11.1.4)

la quale, ponendo:
, = { }

(11.1.5)

assume la forma:

= ,

(11.1.6)

La sequenza , , definita dalla (11.1.5), corrisponde alla risposta


del sistema quando al suo ingresso applicata la sequenza impulsiva
(11.1.3) ritardata di passi e pertanto costituisce la cosiddetta risposta im-

220

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

pulsiva del sistema.


Se la trasformazione oltre che lineare anche tempo invariante,
la (11.1.6) diviene:

= =
=

(11.1.7)

essendo:
= { }

(11.1.8)

In sostanza, come per i sistemi a tempo continuo, il segnale in uscita da


un sistema discreto lineare e tempo invariante si ottiene dalla convoluzione della sequenza dingresso con la risposta impulsiva .
Nel caso di sistemi discreti la condizione di causalit comporta:
, = 0 <

(11.1.9)

che, nel caso di trasformazioni tempo invarianti, si semplifica nella:


= 0 < 0

(11.1.10)

Per sistemi causali tempo varianti la (11.1.6) diventa:

= ,

(11.1.11)

e per sistemi tempo invarianti la (I.43) si semplifica nella:

= =
=

(11.1.12)

=0

Nell'ambito dei sistemi discreti la risposta impulsiva , pu presentare una durata finita o infinita. Si ottengono cos i cosiddetti sistemi
a risposta impulsiva a durata finita (sistemi FIR Finite Impulse Response) o i
sistemi a risposta impulsiva a durata infinita (sistemi IIR Infinite Impulsive
Response). Nel caso di sistemi lineari FIR causali, tempo invarianti si pu
porre, senza ledere le generalit:
= 0 < 0 >

e questo comporta:

(11.1.13)

CAPITOLO - 11 - Trasformazioni Lineari Discrete.

221

=+1

(11.1.14)

=0

Si osservi che il sistema presenta una memoria finita giacch solo valori del segnale in ingresso contribuiscono alla determinazione delluscita
. Per contro i sistemi IIR sono caratterizzati da una memoria infinita.
Un sistema discreto lineare e tempo invariante pu essere caratterizzato da unequazione alle differenze del tipo:

+ =
=1

(11.1.15)

=0

Il valore delluscita dipende cos dagli valori 1 , 2 ,


precedenti. Un sistema di questo tipo viene denominato sistema ricorsivo.
Se :

(11.1.16)

=0

il sistema detto non ricorsivo;.


E interessante osservare che la risposta impulsiva di un sistema
non ricorsivo vale:

= = {
=0

;
0;

(11.1.17)

il che significa che un sistema non ricorsivo un sistema FIR.


Un caso interessante costituito dal sistema retto dalla seguente
equazione alle differenze:

+ =

(11.1.18)

=1

La sua risposta impulsiva definita dalla:

+ =
=1

Per ottenere la soluzione basta porre:

(11.1.19)

222

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

(11.1.20)

dove e sono due costanti. Sostituendo lespressione della nella


(11.1.19)si ottiene:

+ = ( + ) = 0;
=1

(11.1.21)

=1

>0

che, dovendo essere verificata per tutti i valori di , comporta


lannullamento del polinomio:
+ 1 1 + 2 2 +

(11.1.22)

detto polinomio caratteristico del sistema. Un parametro , che individua


una soluzione della(11.1.21), deve pertanto essere uno zero del polinomio caratteristico. Esistono zeri di detto polinomio, non necessariamente distinti, che possono essere reali o complessi. Nel secondo caso,
se i coefficienti , gli zeri complessi si presentano in coppie coniugate. Se gli zeri sono distinti la risposta impulsiva assume la forma:

(11.1.23)

=1

dove z denota il generico zero del polinomio caratteristico. Se il polinomio caratteristico contiene zeri multipli, la forma della (11.1.23) deve
essere modificata. Ad esempio se z1 uno zero di molteplicit e gli
altri sono semplici, si ha:

= 1 1
=1

(11.1.24)

=1

Le costanti che compaiono nella (11.1.23) o (11.1.24) si determinano imponendo che siano nulle le condizioni iniziali e cio:
1 = 2 = = = 0

(11.1.25)

Esempio 11.1
Per determinare la risposta impulsiva del sistema del secondo ordine seguente:
= 31 + 42 +

CAPITOLO - 11 - Trasformazioni Lineari Discrete.

223

basta porre = . Si ha:


(*)
= 31 + 42 +
le radici del polinomio caratteristico:
3 4 = 0

valgono 1 = 1 e 2 = 4 , la risposta impulsiva della forma:


= 1 (1) + 2 4 ; 0

Per determinare le costanti 1 e 2 basta porre nella (*) = 0 e = 1.


Tenendo presente che deve essere 1 = 2 = 0, si deduce:
0 = 31 + 42 + 0 = 1
1 = 30 + 41 + 1 = 3

che, tenendo conto dellespressione della , forniscono il seguente sistema


di equazioni:
+ 2 = 1;
{ 1
1 + 42 = 3;

la cui soluzione :
1 =

1
4
; =
5 2 5

Si ha di conseguenza:
1
4
= (1) + 4 ; 0
5
5

11.2 - Studio nel dominio della frequenza


Prendendo la trasformata di Fourier della sequenza definita
dalla (11.1.6) si ottiene:

() =

(11.2.1)

che, esprimendo la sequenza dingresso mediante la sua trasformata


di Fourier () diventa:

() =

=
1
2

, () 2
=

1
2

1
2

= () , 2()
1
2

Denotando con:

= =

(11.2.2)

224

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

(, ) = , 2()

(11.2.3)

= =

la trasformata bidimensionale di Fourier della risposta impulsiva (, ),


valutata in ed in , si ha:
1
2

(, )()
() =

1
2

(11.2.4)

Nel caso di trasformazioni tempo invarianti, la (11.2.3) diventa:

(, ) = 2()

= =

= 2(())

(11.2.5)

= =

2()
=

Si osservi adesso che:

2 = ()

(11.2.6)

la trasformata di Fourier della risposta impulsiva del sistema, inoltre,


luguaglianza di Poisson (5.5.8) ci permette di scrivere:

2()

= ( )

(11.2.7)

Quindi, se il sistema tempo invariante possiamo ulteriormente scrivere:

(, ) = 2 2()

= () ( )
=

Che, sostituita nella (11.2.4) fornisce:

(11.2.8)

CAPITOLO - 11 - Trasformazioni Lineari Discrete.

225

1
2

() = () ( ) ()
1

=
2

1
2

= () ( ) ( ( ))
1
2

(11.2.9)

= () ( )( ) = ()()
=

(, ) e () denotano la risposta in frequenza


Le funzioni
di un sistema lineare tempo variante e tempo invariante rispettivamente.
Nel caso di sistemi tempo invarianti la risposta in frequenza pu
essere facilmente calcolata sulla base della risposta del sistema ad un ingresso cisoidale del tipo:
= 2

Si ha infatti, per la (11.1.7):

2()

(11.2.10)

2
=

(11.2.11)

()

La risposta del sistema presenta la stessa forma della sollecitazione in ingresso, l'ampiezza per dipende dalla risposta in frequenza del sistema

CAPITOLO - 12
VALUTAZIONE NUMERICA DELLA TRASFORMATA DI
FOURIER
12.1 - Valutazione Numerica della Trasformata di Fourier di
un Segnale a tempo continuo
Uno dei fondamentali problemi della Teoria dei segnali consiste
nella valutazione numerica della trasformata di Fourier () di un segnale () a tempo continuo e a energia finita.
A tal fine si consideri un segnale che, seppur non rigorosamente
passabasso, permetta comunque di definire un opportuno intervallo di
1

frequenze [ 2 , 2] al di fuori del quale resta una frazione trascurabile


della sua energia specifica. Sotto questa ipotesi la trasformata di Fourier
del segnale si pu approssimare, trascurando cio gli effetti del ricoprimento spettrale, in base alla (9.1.7) utilizzando la sequenza dei suoi
campioni:

() () () 2

(12.1.1)

Osseviamo che, per lipotesi fatta nel paragrafo precedente, se si


campionasse () nel dominio della frequenza, si otterebbe solo un
numero finito, diciamo , di campioni significativamente diversi da ze1

ro, precisamente quelli ricadenti all'interno dell'intervallo [ 2 , 2].


Il generico campione della trasformata si pu esprimere mediante
la (12.1.1) nella forma:

) ( ) ()

(12.1.2)

dove si implicitamente scelto un passo di campionamento pari a .


Supponendo, per semplicit, di scegliere un valore dispari per ,
la precedente pu essere riscritta come segue:

228

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati

( ) ( )

1
2

()

(12.1.3)

= =1
2

la quale, effettuando la sostituzione di indice = , scambiando


l'ordine delle sommatorie, e tenendo conto della periodicit del fattore
esponenziale, diventa:

( ) ( )

1
2

[ (( + ))]

(12.1.4)

1 =
2

Si nota che la sommatoria interna la ripetizione periodica della


sequenza () dei campioni del segnale effettuata con periodicit .
ovvio che detta ripetizione periodica in genere, diversa da (),
anche nell'intervallo [

1
2

1
2

], a causa del ricoprimento temporale

che insorge in quanto il segnale pu non essere a durata rigorosamente


limitata.
Se tuttavia il segnale in esame consente di determinare un valore
della quantit che renda trascurabile l'effetto del ricoprimento temporale, si pu scrivere:

( ) (( + )) ( ) ()

(12.1.5)

quindi la (12.1.4) diviene:


1
2

( ) ( ) ()

(12.1.6)

la quale, sfruttando l'ortogonalit delle sequenze ( ) 2 , pu


essere facilmente invertita:
()

( )

1
2

1
2

(12.1.7)

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

229

La (12.1.6) e la (12.1.7) definiscono una coppia di trasformate discrete di Fourier di ordine . Esse costituiscono il punto di partenza per
valutare numericamente la trasformata e l'antitrasformata di Fourier di
un segnale a tempo continuo.
Esempio 12.1
Si consideri il segnale a tempo continuo dato dalla:
1
() = ( )
0 2

noto che la sua trasformata di Fourier vale:


() = 0 sinc(0 ) 0

Tenendo presente la (12.1.5), si scelgono un passo di campionamento T ed


un valore di N tali che risulti NT T0 , Quindi la (12.1.5) vale, in questo
caso, come uguaglianza.
Si avr:
1;
() = {
0;

0
=

D'altra parte la scelta del passo di campionamento incide sull'entit


dell'errore dovuto al ricoprimento spettrale.
Volendo limitare tale errore, occorre rendere sufficientemente elevata la
quantit 1 , in accordo con la (12.1.6). Scegliere un valore equivale ad
ipotizzare che il segnale abbia una banda = 12 .
Nel caso specifico, si pu procedere assumendo che il segnale abbia una
banda equivalente = k ( > 1) e quindi assumere:
0

0
2

il che comporta:

0 2

In tali condizioni si ottiene:


(

=0

=0

2
2

) = () =

={

, , 1,1, , 1
2
2
=0

230

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il cui modulo vale:

(
)

|
|;

| ( )| =
( )

{ ;

, , 1,1, , 1
2
2
=0

In Fig.E 12.1sono riportati gli andamenti di | ( )| per diversi valori di

e di unitamente al modulo di (). Si noti che al crescere del parametro


le righe dello spettro si infittiscono e l'errore tra il valore vero dello spettro
e quello stimato si riduce, in quanto la banda aumenta e si riduce di conseguenza laliasing.
Esempio 12.2
Si consideri il seguente segnale tempo continuo:
() = ()

Fig.E 12.1

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

231

la cui trasformata di Fourier vale:


() =

1
1 + 2

Il segnale considerato non presenta n durata n banda rigorosamente limitata per cui necessaria un'adeguata scelta di e per limitare sia l'errore di ricoprimento temporale sia quello di ricoprimento spettrale.
In tal caso si pu scrivere:


) (
+ );

0 1

e quindi in base alla (12.1.6)si ha:

Fig.E 12.2
1

1
) () =
;
2

=0

= 0,1, , 1

232

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il cui modulo dato dalla:


| (

)| =

1
1

+ 2

2
2 (
)

= 0,1, , 1

In Fig. E.IX.8 sono paragonati i valori delle quantit | ( )| al variare

dei parametri e con il modulo dello spettro del segnale ():


|()| =

1
1 + (2)2

allo scopo di illustrare l'influenza del numero dei punti e della periodicit
nella valutazione numerica dello spettro di un segnale che non presenta n
durata n banda rigorosamente limitata.

12.2 - Troncamento del segnale. Finestre temporali.


Un modo per eliminare gli errori di ricoprimento temporale
quello di considerare una versione troncata del segnale ()
() = () ()

(12.2.1)

ottenuta moltiplicando () per una funzione finestra temporale () tale che risulti:
{

() = 0;
(0) = 1;

|| >

0
;
2

(12.2.2)

La (12.2.1) comporta un errore nella valutazione della (); tuttavia se 0 si sceglie in


modo tale che i valori
del segnale () al di
fuori
dell'intervallo
[0 /2, 0 /2]
siano
piccoli rispetto a quelli
assunti dal segnale al
suo interno, tale errore pu ritenersi trascurabile.
Per
rendersi
Fig. 12.1 Spettro della finestra di Hanning
conto dell'entit di tale

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

233

errore basta trasformare la (12.2.1). Indicando con (), () e ()


le trasformate di (), () e () rispettivamente si ha:

() = () () = ()( )

(12.2.3)

Si osservi che la forma tipica dello spettro di


ampiezza |()| di una
funzione finestra si presenta
come indicato in Fig. 12.1,
cio ha un lobo fondamentale simmetrico rispetto
all'asse delle ordinate che inFig. 12.2 Effetto della funzione finestra sullo spet- siste su un intervallo di amtro di un segnale
piezza e un insieme di
lobi laterali con ampiezze
massime via via decrescenti . Se lo spettro () del segnale () non
continuo nel punto 0, lo spettro del segnale troncato si presenta qualitativamente come indicato in Fig. 12.2. Esso cio continuo e ha andamento oscillatorio in prossimit di 0 . Si pu verificare che lampiezza
( )

delle oscillazioni dipende dal rapporto | (0) |, cio dal livello di picco relativo dei lobi secondari dello spettro di (), mentre la transizione da
(0 ) a (0+ ) si verifica in una banda la cui ampiezza proporzionale a
. Le quantit |

( )
(0)

| e pertanto caratterizzano una funzione finestra

dato che i loro valori influenzano la precisione con cui viene approssimato lo spettro.
Le caratteristiche di alcune funzioni finestra comunemente usate
sono riportate nella Tabella 12.1

234

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Tabella 12.1
Caratteristiche di alcune funzioni finestra

Hamming

Hanning

Bartlett

Rettangolare

()

( )

()

0 sinc(0 )

(1

()

2
0

|2|

)( )
0
0

4
0

()

0
0 2
sinc [
]
2
2

()

cos2 ( ) ( )
0
0

()

0 sinc[0 ]
2(1 2 02 )

()

(0,54 + 0,46cos (
)) ( )
0
0

()

Tukey

()

( )
|
|
(0)

4
0

4
0

(0.54 + 0.08 2 02 )
sinc[0 ]
(1 + 2 02 )
(2|| )

4|| (1+)

(1)

2 (1)

(1 + cos [

(
)+
0

]) (

sinc[0 ] + sinc[0 ]
2[1 (0 ( 1))2 ]

()

()

0 (1 ( ) )

0.22
-13.2 dB

0.047
-26.5 dB

0.027
-31.5db

0.0062
-44 dB

)
4
(1 + )0

Taylor-Kaiser

2 2
0

0 ()

()

( )
0

sinh[ 2 2 02 ]

2
0

0,22
sinh()

0 () 2 2 02

N. B. 0 () la funzione di Bessel modificata di prima specie di ordine zero.

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

235

12.3 - La trasformata discreta di Fourier.


Come visto al - . 12.1 - , le trasformate di Fourier diretta e inversa di un segnale a tempo continuo, possono effettuarsi mediante le
(12.1.6) e (12.1.7), purch la scelta del quanto temporale e del numero
dei campioni sia tale che gli errori di ricoprimento temporale e spettrale risultino trascurabili.
Usualmente le (10.3.9), vengono presentate nella forma:
1

a)

= 0,1, , 1

=0

(12.3.1)

b)

2
1
= ;

= 0,1, , 1

=0

Queste ultime si ottengono normalizzando il quanto temporale ( = 1).


In esse si sono denotati con e i campioni del segnale e della sua
trasformata di Fourier rispettivamente.
Le (12.3.1) sono delle sequenze periodiche di periodo , cosicch
esse possono essere prolungate al di fuori degli intervalli (0 ,
1). Ci significa che e sono uguali ai campioni di () e ()
nell'insieme {0, 1} ma non al di fuori di esso. Per sottolineare tale
differenza allora opportuno denotare con e le sequenze periodicizzate, di conseguenza le (12.3.1) possono essere riscritte nella forma:
1

a)

=0
1

b)

2
1
=

(12.3.2)

=0

essendo:
a)

= ;

0 1

b)

= ;

0 1

(12.3.3)

Le (12.3.2), costituiscono una coppia di trasformazioni denominate trasformate (diretta e inversa) discrete di Fourier (DFT).
Denotando con e i vettori:

236

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

1 1 ]
1 1 ]

= [0
= [0

(12.3.4)

e con la matrice:
=

[1

2(1)

2(1)

2(1)2

[0

(1)

(1)2

]
(12.3.5)

(1)

in cui = denota la radice -esima dell'unit, le (12.3.2) si possono riscrivere come segue:
=

a)

b)

(12.3.6)

Confrontando le (12.3.6)si ottiene facilmente:


1

(12.3.7)

(12.3.8)

1
=

che equivale a scrivere:


dove la matrice unitaria di ordine . La matrice pertanto una
matrice ortogonale.
Come nel caso delle altre trasformate di Fourier, la DFT gode di
propriet che vengono riassunte nella Tabella 12.2.
Esempio 12.3
Siano:
1;
2;
1 = {
4;
2;

=0
=1
;
=2
=3

1;
1;
2 = {
2;
3;

=0
=1
=2
=3

due distinte sequenze periodiche di periodo = 4. La loro convoluzione

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

237

= 1, 2,()
=0

si valuta facilmente tenendo conto delle propriet di periodicit delle sequenze.


Si ha infatti, per = 0:
3

0 = 1, 2,()
=0

dove :
2,0 = 1;
2,(1) = 2,(41) = 2,3 = 3;
2,(2) = 2,(42) = 2,2 = 2;

{ 2,(3) = 2,(43) = 2,1 = 1;

per cui risulta:


1 = 1 6 + 8 + 2 = 3

In modo analogo, per = 1, :


4

1 = 1, 2,(1)
=0

con:
2,(10) = 2,(1) = 1;
2,(11) = 2,(0) = 1;
2,(12) = 2,(1) = 2,(41)= 2,(3) = 3;
{ 2,(13) = 2,(2) = 2,(42)= 2,(2) = 2;

Si ha:
1 = 1 + 2 12 4 = 13

Per = 2 :
3

2 = 1, 2,(2)
=0

con
2,(20) = 2,2 = 2;
2,(21) = 2,1 = 1;
2,(22) = 2,0 = 1;

{ 2,(23) = 2(1) = 2(41) = 2,3 = 3;

quindi:
2 = 2 2 + 4 + 6 = 6

238

Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si ha infine, per = 3:
4

3 = 1 2,(3)
=0

Si ha:
2,(30) = 2,3 = 3;
2,(30) = 2,2 = 2;
2,(32) = 2,1 = 1;
{ 2,(33) = 2,0 = 1;

e quindi:
3 = 3 + 4 4 2 = 1

In definitiva risulta:
3;
13;
= {
6;
1;

=0
=1
=2
=3

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier -

239

Tabella 12.2
Propriet della DFT
Propriet

Coefficiente

Segnale

Linearit

=1

=1

()

()

Segnale coniugato
Trasformata coniugata

Traslazione in

20

20

Traslazione in

Differenza in avanti
in

+1

Differenza all'indietro in

[1

Differenza in avanti
in

Differenza all'indietro
in

(1

1]
2

1)

+1

1 2()

Convoluzione in

=0

1 2

= 1() 2
=0
1

1
1 2()

Convoluzione in

=0

1 2

1
1() 2

=0

CAPITOLO - 13
RICHIAMI DI TEORIA DELLA PROBABILIT
13.1 - Lo spazio dei risultati. Gli eventi.
Spesso nella realt ci simbatte in fenomeni i cui esiti non possono essere esattamente previsti, basti pensare all'estrazione del biglietto
vincente di una lotteria, o al numero di chiamate in arrivo in una centrale telefonica nel corso di un'ora della giornata. Tuttavia se, osservando
ripetutamente il fenomeno, si prende nota dei risultati, ci si accorge che,
nella quasi totalit dei casi, essi obbediscono ad una certa regolarit statistica , nel senso che il rapporto tra le volte in cui si verifica un determinato risultato e il numero totale dosservazioni tende a stabilizzarsi attorno ad un dato valore al crescere di queste ultime. Cos, ad esempio, se
da un'urna contenente palline nere e bianche si estratta nel 90% dei casi una pallina bianca, e nel restante 10%, una nera, si indotti a ritenere
che l'evento: estrazione di una pallina bianca abbia una maggiore
probabilit di verificarsi dell'evento: estrazione di una pallina nera , o
che lo stesso che nellurna vi siano molte pi palline bianche che nere.
Si cos portati ad associare ad ogni evento casuale una certa
probabilit che esso si manifesti. Tuttavia, per definire correttamente il
concetto di probabilit associato ad un evento casuale, occorre richiamare alcune nozioni fondamentali concernenti il cosiddetto spazio di probabilit.
Per schematizzare il comportamento di un fenomeno aleatorio
opportuno introdurre il concetto di esperimento casuale che consiste in
un procedimento di osservazione di risultati, ottenuti ripetendo la medesima prova tutte le volte che si voglia. Ad esempio nell'esperimento casuale lancio di una moneta, i possibili risultati osservabili sono testa ( T )
e croce ( C ). Qualcuno potrebbe osservare che la casualit del risultato
nel lancio della moneta in realt dovuto allimperizia del lanciatore.
Si consideri un esperimento casuale e sia un suo possibile risultato. L'insieme costituito da tutti i risultati che si possono manifestare
prende il nome di spazio dei risultati.
Nell'esempio precedente del lancio di una moneta si ha:

242

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

= {, }

(13.1.1)

Nel lancio di un dado, lo spazio dei risultati costituito dall'insieme delle sei facce e si ha:
= {1 , 2 , 3 , 4 , 5 , 6 }

(13.1.2)

Per studiare un esperimento casuale opportuno identificare una


classe di sottoinsiemi dello spazio dei risultati, (cio un insieme di sottoinsiemi dello spazio dei risultati) il generico elemento di tale classe
viene chiamato evento. Un evento si dice verificato tutte le volte che
l'esperimento casuale da luogo ad un risultato che appartiene ad . La
scelta della classe, seppure nel rispetto di alcune propriet che vedremo
pi avanti, non obbligata e dipende da quali aspetti dellesperimento si
intendono evidenziare.
Ad esempio, nel caso del lancio del dado, se si ha interesse al
punteggio della faccia superiore, si devono necessariamente assumere
come eventi gli insiemi contenenti i singoli risultati; mentre se si interessati solo al fatto che il risultato sia pari o dispari ci si pu limitare a
prendere in considerazione gli eventi:
E = {2 , 4 , 6 };

E = {1 , 3 , 5 };

(13.1.3)

L'intero spazio dei risultati un evento, come pure lo l'insieme vuoto . Nel primo caso si parla di evento certo, poich l'evento
E = si manifesta ogniqualvolta si compie l'esperimento; nel secondo si

Fig. 13.1 Da sinistra: unione, intersezione complementazione.

parla di evento impossibile, dato che l'evento E = non si pu manifestare.


Agli eventi si pu applicare l'algebra degli insiemi ed in particolare
le note operazioni di unione, intersezione, e complementazione (Fig.
13.1)

CAPITOLO - 13 - Richiami di Teoria della Probabilit -

243

Due eventi si dicono disgiunti o incompatibili quando il manifestarsi


dell'uno implica il non manifestarsi dell'altro e viceversa, in altre parole
se la loro intersezione l'evento impossibile:
1 2 =

(13.1.4)

Si supponga adesso di ripetere volte un certo esperimento casuale e sia il numero di volte in cui un dato evento E si verificato.

La quantit lim detta probabilit associata all'evento E:

Pr{} = lim

(13.1.5)

In altre parole per probabilit di un evento sintende il limite della fre


quenza relativa al tendere all'infinito del numero di ripetizioni
dellesperimento.
Essendo necessariamente 0 risulta:
0 Pr{E} 1

(13.1.6)

Nel caso dell'evento certo, essendo = , si ha


Pr{} = 1

(13.1.7)

Infine, se gli eventi E1 ed E2 sono disgiunti, dallovvia condizione:


E1 E2 = E1 + E2

(13.1.8)

Pr{E1 E2 } = Pr{E1 } + Pr{E2 }

(13.1.9)

segue:
Si osservi che, purtroppo, poich in ogni esperimento fisico il
numero delle prove, per quanto grande, non pu mai essere infinito, il
limite Pr{E} non pu pertanto essere calcolato, n si pu affermare che
esso esista. Per questo motivo tale definizione, per quanto intuitiva, non
pu essere presa in considerazione come base per lo sviluppo di una
teoria matematica della probabilit. quindi necessario definire il concetto di probabilit per via assiomatica, prescindendo da quello di frequenza relativa.
Lapproccio in termini di frequenza relativa, va tuttavia tenuto in
considerazione, in quanto, in molti casi, esso si rivela utile nella giu-

244

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

stificazione intuitiva, di alcuni sviluppi teorici la cui dimostrazione sarebbe inutilmente onerosa.
13.2 - Lo spazio di probabilit.
Si consideri lo spazio dei risultati di un esperimento casuale, ad
esso si associ una classe di suoi sottoinsiemi i cui elementi vengono
chiamati eventi. Al generico evento E si associ un numero Pr{E}, detto
probabilit dell'evento, che soddisfi le seguenti propriet:
a)

0 Pr{E} 1

b)

Pr{} = 1

c)

E1 E2 = Pr{E1 E2 } = Pr{E1 } + Pr{E2 }

c)

(13.2.1)

E E = Pr{ E } = Pr{E }
=1

=1

In altre parole la probabilit associata all'evento deve assumere


valore non negativo e non maggiore di 1; inoltre essa deve godere della
propriet additiva rispetto all'unione di eventi disgiunti. La probabilit
dell'evento certo si pone uguale ad 1.
La (13.2.1)c deve valere in alternativa alla (13.2.1)c, nel caso in
cui la classe contenga un numero infinito di elementi.
Quanto sopra esposto, equivale ad affermare che la probabilit
Pr

Pr{} un'applicazione [0,1].

Va precisato che la classe degli eventi non pu essere scelta in


modo totalmente arbitrario; essa deve, infatti, soddisfare le seguenti
propriet:
a)

E E

b)

1 , 2 1 2

b)

(13.2.2)


=1

Dove la propriet (13.2.2)b vale in alternativa la (13.2.2)b


se la classe contiene infiniti elementi.
Dalle (13.2.2) discende facilmente:
;

(13.2.3)

CAPITOLO - 13 - Richiami di Teoria della Probabilit -

245

La propriet (13.2.2)a intuitivamente giustificata dal fatto che se


ad un certo evento associata una probabilit, resta implicitamente definita la probabilit che l'evento non si sia verificato, cio che l'esperimento casuale dia luogo ad un qualche risultato che non appartiene
all'evento considerato. Pertanto l'insieme di detti risultati deve a sua volta costituire un evento.
In conclusione si dice che si definito uno spazio di probabilit
se si assegnato:
- un insieme di risultati (spazio dei risultati):
- una classe di sottoinsiemi di (eventi) che soddisfi le (13.2.2));
Pr

- un'applicazione [0,1] definita su (probabilit) che soddisfi le


(13.2.1).
Ci viene di norma sintetizzato dalla notazione:
=(,,)

(13.2.4)

Si osservi che definire uno spazio di probabilit significa semplicemente associare una particolare misura ad una classe di sottoinsiemi
dell'insieme di risultati. Le propriet (13.2.2) cui deve soddisfare la classe
sono infatti le stesse gi viste nel CAPITOLO - 1 con riferimento alla
misura degli insiemi. Inoltre l'applicazione Pr{} soddisfa tutte le propriet richieste ad una misura su una classe di insiemi.
opportuno ribadire che non tutti i sottoinsiemi di sono necessariamente eventi. Gli eventi sono soltanto i sottoinsiemi di appartenenti alla classe , quindi misurabili secondo la misura Pr{}.
Dagli assiomi (13.2.1) discendono facilmente le seguenti propriet:
- Gli eventi e sono manifestamente disgiunti, pertanto in base alla
(13.2.1)c si pu scrivere:
Pr{ } = Pr{} + Pr{}

(13.2.5)

dalla quale, notando che :


=

(13.2.6)

Pr{} = 0

(13.2.7)

consegue:
Ci significa che la probabilit associata all'evento impossibile nulla.

246

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

- Pi in generale essendo E ed E, disgiunti e poich E E = risulta:


Pr{E E} = Pr{E } + Pr{E} = Pr{} = 1

(13.2.8)

Pr{E } = 1 Pr{E}

(13.2.9)

Discende:
Pertanto la probabilit associata al complementare di un evento E il
complemento ad 1 della probabilit associata ad E.
- Dati E1 e E2 , l'evento E1 pu essere scomposto nei due eventi disgiunti (v. Fig.13.2) E1 E2 e E1 E2 . Risulta quindi:
a)

Pr{E1 } = Pr{E1 E2 } + Pr{E1 E2 }

b)

Pr{E2 } = Pr{E1 E2 } + Pr{E1 E2 }

(13.2.10)

sommate termine a termine le (13.2.10)forniscono:


Pr{E1 } + Pr{E2 }
= 2Pr{E1 E2 } + Pr{E1 E2 } + Pr{E1 E2 }

(13.2.11)

Poich gli eventi E1 E2 , E1 E2 e E1 E2


sono disgiunti e la loro unione vale E1 E2 , si
ha:
Pr{E1 E2 }
= Pr{E1 E2 } + Pr{E1 E2 }
+
Fig.13.2 Partizione dellunione in eventi disgiunti.

Pr{E1

(13.2.12)

E2 }

cosicch dalle precedenti si deduce facilmente:

Pr{E1 E2 } = Pr{E1 } + Pr{E2 } Pr{E1 E2 }

(13.2.13)

che costituisce una generalizzazione della propriet (13.2.1)c al caso di


eventi non disgiunti (vedi Fig.13.2).
Esempio 13.1
Un calcolatore cercher di collegarsi per dieci minuti, a partire da un
istante a caso di una data ora, ad un server. Il quale, in un istante a caso di
quella stessa ora, verr spento per subire un intervento di manutenzione.
Quanto dovr durare al pi lintervento di manutenzione affinch vi sia una
probabilit maggiore o uguale al 50% che il collegamento vada a buon fine?

CAPITOLO - 13 - Richiami di Teoria della Probabilit -

247

*****
Come risultato dellesperimento casuale, si pu assumere la coppia degli istanti t1
in cui inizia la trasmissione e t2 dinizio
dellintervento di manutenzione. Linsieme
dei risultati si pu quindi rappresentare
mediante un quadrato di lato 60 minuti
(vedi Fig.E 13.1). Gli eventi sono rappresentabili mediante sottoinsiemi di punti del
quadrato. La probabilit di un generico
Fig.E 13.1
evento, data la pura casualit di t1 e t2, data dal rapporto tra larea del sottoinsieme e larea del quadrato.
Osserviamo che il collegamento andr a buon fine se la manutenzione si
gi conclusa quando il calcolatore si connette al server ovvero se la manutenzione inizia dopo che il calcolatore ha finito di trasmettere. Detta T la durata dellintervento di manutenzione le eventualit appena descritte si traducono nelle disuguaglianze:
2 + 1
1 + 10 2
le quali individuano i due eventi incompatibili E1 e E2 evidenziati in figura
Fig.E 13.1.
Levento dinteresse quindi costituito dallunione dei due eventi in questione e, per quanto detto sopra, la sua probabilit vale:
{E1 E2 } =

(60)2
2

1250+

3600

Il valore di si ottiene quindi risolvendo la disequazione PrE1E2 .


Si ha:
2 120 + 2500 0

Che

soddisfatta

allesterno

dellintervallo

(10(6 11), 10(6 +

11)) considerato che lestremo superiore di detto intervallo maggiore di


60 la soluzione :
10(6 11) 26,83 26 50

13.3 - Probabilit condizionate - Formula di Bayes - Teorema delle probabilit composte.


Siano E1 ed E2 due eventi associati ad un esperimento casuale, e
si denotino rispettivamente con E1 e E1 E2 il numero di volte che,

248

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

su un totale di ripetizioni dell'esperimento casuale, si manifestano gli


eventi E1 e E1 E2 . Dalluguaglianza:
E1 E2 E1 E2 E1
=

E1

(13.3.1)

si ottiene, passando al limite per


Pr{E1 E2 } = Pr{E2 |E1 }Pr{E1 }

(13.3.2)

dove:
Pr{E2 |E1 } = lim

Osservando che

E1 E2
E1

E1 E2
E1

(13.3.3)

rappresenta il rapporto fra il numero di

volte in cui, in un totale di ripetizioni dell'esperimento casuale, si verifica l'evento E1 E2 e il numero di volte con cui si verifica l'evento E1 ,
la Pr{E2 |E1 } pu essere interpretata come la probabilit che si verifichi
l'evento E2 sotto l'ipotesi che E1 sia soddisfatto. Per questo motivo
Pr{E2 |E1 } detta probabilit dell'evento E2 condizionata allevento E1 .
In modo analogo pu scriversi:
Pr{E1 E2 } = Pr{E1 |E2 }{E2 }

(13.3.4)

dove Pr{E1 |E2 } denota la probabilit che si manifesti E1 atteso che E2


sia verificato.
Eguagliando i secondi membri delle (13.3.2) e (13.3.4) si ottiene:
Pr{E1 |E2 } = Pr{E2 |E1 }

Pr{E1 }
Pr{E2 }

(13.3.5)

nota come formula di Bayes. Essa stabilisce la relazione tra le probabilit


condizionate e quelle non condizionate degli eventi E1 e E2 .
Se risulta:
Pr{E1 |E2 } = Pr{E1 }, o Pr{E2 |E1 } = Pr{E2 }

(13.3.6)

cio se la probabilit con cui si manifesta E1 (E2 ) indipendente dalla


circostanza che E2 (E1 ) sia verificato, i due eventi si dicono statisticamente
indipendenti. Pertanto, in base alle (13.3.2) e (13.3.4) si ha:
Pr{E1 E2 } = Pr{E1 }Pr{E2 }

(13.3.7)

CAPITOLO - 13 - Richiami di Teoria della Probabilit -

249

La probabilit dell'intersezione di due eventi indipendenti si riduce cio semplicemente al prodotto delle probabilit associate ai singoli
eventi. Ci si convince facilmente che due eventi disgiunti aventi entrambi probabilit non nulla di verificarsi non possono essere statisticamente
indipendenti.
Esempio 13.2

Fig. 13.3 - Teorema delle probabilit composte.

Nellesperimento consistente nel lancio


di due dadi si consideri levento E1 :il risultato del lancio del primo dado la faccia
tre e levento E2 : il risultato del lancio
del secondo dado la faccia quattro. Si verifichi che i due eventi sono statisticamente
indipendenti.
Lo spazio dei risultati dellesperimento
considerato costituito da 36 elementi (tutte
le possibili coppie ordinate di risultati).
Levento E1 dato da:

E1 = {(3 , 1 ), (3 , 2 ), (3 , 3 ), (3 , 4 ), (3 , 5 ), (3 , 6 )}

la sua probabilit vale 1/6. Levento E2 dato da:


E2 = {(1 , 4 ), (2 , 4 ), (3 , 4 ), (4 , 4 ), (5 , 4 ), (6 , 4 )}

anche la sua probabilit vale 1/6.


Levento E1 E2 {(1 , 2 )} ha probabilit 1/36 di verificarsi. Poich
risulta anche Pr(E1)Pr(E2)36 i due eventi in questione sono statisticamente indipendenti.

Si consideri una famiglia al pi numerabile {E } di sottoinsiemi di


a due a due disgiunti, tale che E = . Un qualunque evento si pu

scrivere (v. Fig. 13.3):

E = ( )

(13.3.8)

(E E ) (E E ) =

(13.3.9)

=1

Essendo:
si ha:

{E} = Pr{E E }
=1

(13.3.10)

250

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che, utilizzando la (13.3.2), fornisce:

Pr{E} = Pr{E|E }Pr{E }

(13.3.11)

=1

nota come teorema delle probabilit composte.


Esempio 13.3
Un ricevitore si connette casualmente con una di tre sorgenti di segnali
1 , 2 e 3 che emettono due messaggi e secondo lo schema sotto riportato:
1 {

; {} =
; {} =

7
10
3 ;

2 {

10

; {} =
; {} =

1
2
1

3 {

; {} =
; {} =

3
5
2;
5

Supposto che il ricevitore riceva il messaggio qual la probabilit che


esso provenga dalla sorgente 3 ?
- Se al ricevitore perviene il messaggio B qual la probabilit che esso
provenga dalla sorgente S3?
*****
Lo spazio dei risultati costituito dal prodotto cartesiano tra linsieme
delle sorgenti e linsieme dei messaggi ricevuti:
-

Z = {(1 , ), (1 , ), (2 , ), (2 , ), (3 , ), (3 , )}

Levento stato ricevuto il messaggio il sottoinsieme:


E = {(1 , ), (2 , ), (3 , )}

Levento connessa 3 il sottoinsieme:


E3 = {(3 , ), (3 , )}

La prima probabilit richiesta data dalla probabilit condizionata


Pr{3 | } la quale, in base alla formula di Bayes, vale:
Pr{E3 |E } =

Pr{E |E3 }Pr{E3 }


Pr{E }

Supponendo che le connessioni del ricevitore con le tre sorgenti avvengano con eguale probabilit, facile riconoscere che si ha:
Pr{E |E3 } =

3
;
5

Pr{E3 } =

1
3

D'altra parte la probabilit che al ricevitore si presenti il messaggio ,


dato che gli eventi 1 , 2 ed 3 sono disgiunti, vale:

CAPITOLO - 13 - Richiami di Teoria della Probabilit -

251

Pr{E } = Pr{E |E1 }Pr{E1 } + Pr{E |E2 }Pr{E2 } + Pr{E |E3 }Pr{E3 }
=

7 1 11 31 3
+
+
=
10 3 2 3 5 3 5

Risulta allora:
21

Pr{E3 |E } =

53
2

1
3

Procedendo in modo analogo si ha per il secondo quesito posto:


Pr{E3 |E } =

Pr{E |E3 }Pr{E3 }


Pr{E }

Essendo
Pr{E |E3 } =

2
5

e
Pr{E } = Pr{E |E1 }Pr{E1 } + Pr{E |E2 }{E2 } + Pr{E |E3 }{E3 } =

2
5

= 1 Pr{E }

risulta:
Pr{E3 |E } =

1
3

Inoltre essendo Pr{3 | } = Pr{3 | }, si conclude che la decisione a favore della terza sorgente non dipende dal messaggio ricevuto.

CAPITOLO - 14
VARIABILI ALEATORIE
14.1 - Variabili aleatorie monodimensionali.
Si consideri un esperimento casuale caratterizzato da uno spazio
di probabilit:
=(,,)

(14.1.1)

e sia () un'applicazione che fa corrispondere ad ogni risultato


un numero reale. Il dominio di tale applicazione quindi l'intero spazio
dei risultati, il suo codominio il campo reale .
Se il sottoinsieme E = 1 (], ]), composto cio da
tutti i risultati a cui, tramite l'applicazione (), corrisponde un valore
non superiore a , costituisce un evento, cio se:
E = { / () }

(14.1.2)

si dice che 11 una variabile aleatoria associata all'esperimento casuale.


Ad esempio se nell'esperimento casuale lancio di una moneta, assumendo ={, {testa}, {croce}, }, si definisce l'applicazione () che associa al risultato testa il valore 0 e al risultato croce il valore 1, si definita una variabile aleatoria. Infatti:
- ogni semiretta ], ]con < 0 ha come controimmagine nell'insieme
dei risultati l'insieme vuoto che un evento;
- ogni semiretta ], ] con 0 < 1 ha come controimmagine l'insieme E = {testa} ;
- ogni semiretta ], ] con 1 ha come controimmagine l'insieme
che anch'esso un evento.
In sostanza definire una variabile aleatoria equivale a costruire un
nuovo esperimento casuale che ha come spazio dei risultati l'insieme ,
e come classe di eventi la classe minima che contiene tutte le semirette
del tipo ], ] e che soddisfa le (13.2.2). Detta classe coincide con
11

Il fatto che la variabile aleatoria venga abitualmente indicata con una lettera maiuscola ad es.
e non con () unulteriore motivo di confusione per lo studente che dimentica facilmente
che malgrado venga chiamata variabile, si tratta di unapplicazione.

254

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

quella costituita da tutti i possibili sottoinsiemi di che siano misurabili


secondo Lebesgue (la classe di Borel). Gli insiemi in essa contenuti sono
detti insiemi di Borel. Detto B il generico elemento di tale classe, la probabilit ad esso associata uguale a quella della sua controimmagine
1 (B), che, in virt della definizione di variabile aleatoria, certamente
un evento nello spazio di probabilit . In altri termini, la probabilit
dell'evento B vale Pr{ 1 (B)}.
In conclusione definire una variabile aleatoria su un esperimento
casuale equivale a definire una misura sulla classe di Borel di . Detta
misura dipende sia dall'esperimento casuale considerato, sia dalla particolare variabile aleatoria che in esso si definita. Quindi variabili aleatorie distinte definiscono misure distinte in .
14.2 - Funzione di distribuzione di probabilit.
Si consideri un esperimento casuale caratterizzato da uno spazio
di probabilit =(,,Pr ). Come gi detto, definire una variabile aleatoria equivale a costruire un nuovo esperimento casuale = (,, Pr ).
Ci si rende facilmente conto che possibile calcolare la probabilit
Pr {B} da attribuire al generico evento B se si definisce la seguente
applicazione avente come dominio:
() = Pr( )

(14.2.1)

Essa detta funzione di distribuzione di probabilit, (Probability Distribution


Function), associata alla variabile aleatoria . Poich, in base alla sua stessa definizione la () associa ad ogni la probabilit dell'evento
E = 1 (], ]), essa pu assumere soltanto valori appartenenti
all'intervallo [0,1].
Nel seguito sar dedotta la probabilit da associare ad alcuni sottoinsiemi di , nota che sia la funzione di distribuzione di probabilit
della variabile aleatoria :
- intervallo semiaperto a sinistra

Sia:
B = ], ]

(14.2.2)

], ] = ], ] B

(14.2.3)

poich:
e

CAPITOLO - 14 - Variabili Aleatorie -

255

], ] B =

(14.2.4)

Pr(B) = () ()

(14.2.5)

si pu scrivere:
- semiretta dorigine destra aperta

Sia
B = (, )

(14.2.6)

Sia { } una qualunque successione convergente ad , non decrescente,


e tale che risulti , detto B = (, ] si pu scrivere:

B = B
=1

(14.2.7)

=1 B un evento in quanto unione numerabile di eventi; inoltre, poich > B B risulta Pr{=1 B } = Pr{B } = ( ).

Si ha quindi:
Pr(B) = ( )

(14.2.8)

Pr{
=1 B }.

dove ( ) =
Ci si convince facilmente che la quantit

( ) indipendente dalla successione { } considerata, e coincide con


il limite della funzione di distribuzione () per che tende ad dalla
sinistra.
- intervallo chiuso

Sia
B = [, ]

(14.2.9)

Poich risulta:
], ] = ( , ) B

(14.2.10)

essendo ( , ) B = , utilizzando la (14.2.8) si ottiene:


Pr(B) = () ( )

(14.2.11)

B = {0 }

(14.2.12)

- punto isolato

Sia:
Ponendo nella (14.2.9) = = 0 la (14.2.11) fornisce:
Pr(B) = (0 ) (0 )

(14.2.13)

256

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

- intervallo aperto

Posto:
B = (, )

(14.2.14)

(, ) = ], ] B

(14.2.15)

Pr(B) = ( ) ()

(14.2.16)

dato che:
si ottiene:
- intervallo semiaperto a destra

Sia
B = [, )

(14.2.17)

Pr{B} = ( ) ( )

(14.2.18)

Risulta facilmente:
Quanto sopra esposto, evidenzia chiaramente che la distribuzione
di probabilit fornisce una descrizione statistica completa della variabile
aleatoria X . Cosicch, normalmente, si fa riferimento allo spazio di probabilit indotto in dalla variabile aleatoria, piuttosto che allo spazio di
probabilit originario .
Ad esempio nel caso della variabile aleatoria , che nel lancio di
una moneta associa 0 al risultato testa e 1 al risultato croce, si ottiene,
assumendo gli eventi {testa} e {croce} equiprobabili:
0;
1
() = { ;
2
1;

<0
0 < 1;

(14.2.19)

14.3 - Propriet della distribuzione di probabilit.


La distribuzione di probabilit caratterizza completamente una
variabile aleatoria. quindi importante studiarne le propriet. In quel
che segue se nelencano alcune.
- valori limite
Sia () la distribuzione di probabilit di una variabile aleatoria
. Se si fa tendere il suo argomento a l'insieme ], ] si identifica
con l'insieme vuoto, che ha se stesso come controimmagine in .

CAPITOLO - 14 - Variabili Aleatorie -

257

Deve quindi essere:


lim () = Pr{} = 0

(14.3.1)

Se viceversa si fa tendere a + l'insieme ], ] si identifica


con la cui controimmagine, secondo , cosicch risulta:
lim () = Pr() = 1

(14.3.2)

indipendentemente dalla variabile aleatoria considerata.


- monotonia e limitatezza
Si considerino 1 ed 2 con 1 < 2 . La probabilit dell'evento
controimmagine di ]1 , 2 ] secondo la variabile aleatoria , non pu es-

sere negativa. Utilizzando la (14.2.5) si ottiene:


0 Pr{ 1 (]1 , 2 ])} = (2 ) (1 )

(14.3.3)

Ne segue, data l'arbitrariet nella scelta di 1 ed 2 , che la distribuzione di probabilit una funzione non decrescente del suo argomento. Inoltre, tenendo presente la (14.3.2), :
() (+) = 1

(14.3.4)

Pertanto, la distribuzione di probabilit una funzione limitata.


- continuit a destra

Sia data una qualunque successione { } tendente a zero, non


crescente e tale che N risulti > 0. Si consideri la famiglia di
eventi {]0 , 0 + ]}. La probabilit dell'evento ]0 , 0 + ] vale per la
(14.2.5):
Pr{ 1 (]0 , 0 + ])} = (0 + ) (0 )

(14.3.5)

Poich evidentemente:

]0 , 0 + ] = ]0 , 0 + ]

=1

(14.3.6)

e visto che, indipendentemente dalla scelta della successione,

=1(0 , 0 + ] = si ha:

0 = Pr{ 1 ( lim ]0 , 0 + ])}


=1

= Pr{ 1 ( lim ]0 , 0 + ])} = lim (0 + ) (0 )

= (0+ ) (0 )

(14.3.7)

258

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che equivale ad affermare che la distribuzione di probabilit una funzione continua a destra. Risulta cio:
lim () (0+ ) = (0 )

0+

(14.3.8)

- limiti da sinistra

Sia data la famiglia deventi {(0 , 0 ]} dove { } una successione del tipo appena introdotto. La probabilit del generico evento
della famiglia, espressa in termini della distribuzione di probabilit della
variabile aleatoria, vale:
Pr{ 1 ]0 , 0 ]} = (0 ) (0 )

(14.3.9)

Poich, indipendentemente dalla { },


=1(0 , 0 ] = {0 },
si ha:
lim () (0 ) = (0 ) Pr{ 1 ({0 })}

(14.3.10)

Ci significa che, solo se la probabilit dell'evento controimmagine di


{0 } nulla, la () continua a sinistra in 0 e quindi una funzione
continua in 0 . Ci pu verificarsi o perch la variabile aleatoria non attribuisce il valore 0 a nessun risultato dell'esperimento casuale, il che in
altri termini significa che 1 ({0 }) = , ovvero se, pur essendo
1 ({0 }) , la probabilit di questevento nulla.
- numero di discontinuit

Sia D l'insieme dei punti di discontinuit della (). L'insieme D


pu essere ottenuto come unione di una famiglia dinsiemi disgiunti, il
cui generico elemento B contiene tutti i punti di discontinuit in corrispondenza dei quali il salto della () ha unampiezza contenuta nell'in1

tervallo I = ]2 , 21 ]. Risulta evidentemente:

I = (0,1]

=1

(14.3.11)

Dal fatto che per qualunque evento B deve necessariamente essere


Pr{ 1 (B)} 1 discende che ciascun B deve essere finito, in particolare esso pu contenere al pi 2 elementi.
In virt delle considerazioni appena fatte, si pu affermare che
l'insieme dei punti di discontinuit di una funzione di distribuzione di
probabilit al pi numerabile, in quanto unione numerabile di insiemi
finiti.

CAPITOLO - 14 - Variabili Aleatorie -

259

L'andamento della funzione di distribuzione di probabilit associata ad una data variabile aleatoria, suggerisce una possibile classificazione delle variabili aleatorie. Precisamente, se la () continua in ,
la variabile aleatoria cui essa associata si dice di tipo continuo, se la ()

Fig. 14.1 PX ( x) tipica di una variabile aleatoria di tipo continuo, discreto, misto

una funzione costante a tratti la variabile si dice di tipo discreto, nei restanti casi si parla di variabile aleatoria di tipo misto.
Per maggior chiarezza, gli andamenti tipici della funzione di distribuzione di probabilit per i diversi tipi di variabili aleatorie sono mostrati in Fig. 14.1
Si noti che una variabile aleatoria discreta completamente definita una volta che siano noti l'insieme D = {1 , 2 , } dei punti di discontinuit e l'ampiezza dei salti Pr{ 1 ({ })} che la distribuzione
di probabilit presenta in corrispondenza ad essi.
L'applicazione ( ) che associa ad ogni elemento di D la rispettiva prende il nome di distribuzione di massa. evidente che la conoscenza della distribuzione di massa, per una variabile aleatoria discreta,
in tutto equivalente alla conoscenza della sua distribuzione di probabilit, in quanto, nota la prima, si pu ricavare facilmente la seconda e viceversa.
Quale che sia la variabile aleatoria discreta, risulta ovviamente:
= 1

(14.3.12)

dove la sommatoria sintende estesa a tutti gli elementi di D che , come


sopra mostrato, al pi numerabile.
In particolare la probabilit che la variabile aleatoria assuma valori appartenenti ad un generico insieme I vale:

260

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Pr{ 1 (I)} = Pr{ 1 (I D)} =


|

(14.3.13)

14.4 - Densit di probabilit di una variabile aleatoria continua.


Una variabile aleatoria di tipo continuo che ammetta una distribuzione di probabilit derivabile in tutto pu essere caratterizzata anche mediante la cosiddetta densit di probabilit () (probability density
function):
() =

()

(14.4.1)

Dalle propriet viste nel paragrafo precedente, relative alla distribuzione di probabilit, si deducono facilmente le corrispondenti propriet che caratterizzano la funzione densit di probabilit di una variabile aleatoria.
Poich la distribuzione di probabilit una primitiva della rispettiva densit deve risultare:

() = () () Pr{ 1 ((, ])}

(14.4.2)

Se l'integrale si estende all'intero asse reale si ottiene:

() = () () = 1

(14.4.3)

che la cosiddetta condizione di normalizzazione. Essa in sostanza significa


che l'area sottesa dalla densit di probabilit di una variabile aleatoria
sempre unitaria.
Inoltre poich la () una funzione non decrescente del suo
argomento, la densit di probabilit di una variabile aleatoria non pu
assumere valori negativi.
() 0

(14.4.4)

Volendo attribuire un significato non puramente formale alla


densit di probabilit, si osservi che essa, espressa sotto forma di limite
del rapporto incrementale della corrispondente distribuzione, pu porsi
nella forma:

CAPITOLO - 14 - Variabili Aleatorie -

261

(0 + ) (0 )
0

(0 ) = lim
= lim+

Pr{ 1 ((0 , 0 + ])}


||

= lim

Pr{ 1 ((0 + , 0 ])}


||

(14.4.5)

da cui si deduce facilmente che, a meno di infinitesimi di ordine superiore a ||, risulta:
Pr{ 1 ((0 , 0 + ])} = Pr{ 1 ((0 + , 0 ])}
(14.4.6)

= (0 )||

che sinterpreta affermando che, il prodotto (0 )|| esprime indifferentemente la probabilit di uno dei due eventi che compaiono nella
precedente.
14.5 - Densit di probabilit di una variabile aleatoria discreta.
Il concetto di densit di probabilit pu essere esteso facilmente
anche al caso di variabili aleatorie di tipo discreto, pur di intendere la derivata che compare nella (14.4.1) in senso distribuzionale.
Una variabile di tipo discreto ha quindi una densit di probabilit
costituita da un insieme di delta di Dirac localizzate nei punti di discontinuit e di ampiezza pari ai rispettivi salti della corrispondente distribuzione di probabilit.
facile rendersi conto che la condizione di normalizzazione vale
anche per le variabili aleatorie di tipo discreto. Risulta infatti:

() =

( ( ) (_ ))( )

(14.5.1)

= = 1

Inoltre, poich il peso di ciascuna delta esprime la probabilit dell'evento


1 ({ }), esso non pu essere negativo.
La generalizzazione del concetto di densit di probabilit al caso
delle variabili aleatorie di tipo misto immediata.

262

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

opportuno precisare che, nel caso di variabili aleatorie discrete


o miste, occorre procedere con cautela nel calcolo dintegrali della ().
Si considerino ad esempio i due integrali:
+

a)

() = { 1 ((, ])}
+

(14.5.2)

b)

() = {
+

((, ))}

Se una variabile aleatoria continua, essi evidentemente conducono


allo stesso risultato, se invece la variabile aleatoria di tipo misto, effettuare il calcolo secondo la (14.5.2)a, o la (14.5.2)b equivale a considerare
o neno il contributo all'integrale di una delta di Dirac, dovuta
alleventuale presenza in corrispondenza del punto di una discontinuit della (). I risultati ottenuti potrebbero quindi essere sostanzialmente diversi.
14.6 - Variabili aleatorie bidimensionali. Funzioni di probabilit congiunte.
Sia =(,,Pr) uno spazio di probabilit e siano ed due variabili aleatorie definite sull'insieme dei risultati. Ad ogni coppia (, ) di
numeri reali, si pu associare il sottoinsieme di cos definito:
E = E E = { | () () }

(14.6.1)

Detto insieme costituisce un evento, in quanto intersezione di


due eventi. Si dice allora che la coppia di variabili aleatorie , definisce
una variabile aleatoria bidimensionale associata ad .
Come nel caso monodimensionale, una variabile aleatoria bidimensionale statisticamente caratterizzata dalla funzione (, ) cos
definita:
(, ) = Pr{E }

(14.6.2)

che prende il nome di distribuzione di probabilit congiunta.


Dal momento che evidentemente {|() < } = {|() < } =
e poich E = E valgono le:
a)
(, ) = ()
b)

(, ) = ()

(14.6.3)

CAPITOLO - 14 - Variabili Aleatorie -

263

cio le distribuzioni di probabilit (monodimensionali) associate alle variabili aleatorie ed possono essere dedotte dalla distribuzione di
probabilit congiunta associata alla variabile aleatoria bidimensionale
(, ). In omaggio a questa circostanza, talvolta le funzioni () e
() sono denominate distribuzioni marginali.
La funzione distribuzione di probabilit congiunta gode delle
propriet qui sotto elencate:
- Se si fa tendere o a , l'insieme E tende all'insieme vuoto. Si
ha pertanto:
a)

(, ) = 0

b)

(, ) = 0

Se si fanno tendere entrambe le quantit e a + l'insieme Exy


tende a , ci comporta
(, ) = 1

(14.6.4)

(14.6.5)

Poich 1 2 e 1 2 implica E11 E2 2 la PXY (,) deve


soddisfare la propriet:
(1 , 1 ) (2 , 2 )

(14.6.6)

La caratterizzazione statistica di una variabile bidimensionale


(, ) pu essere ottenuta per mezzo della cosiddetta densit di probabilit
congiunta:
(, ) =

2 (, )

(14.6.7)

possibile mostrare che, analogamente al caso delle variabili continue monodimensionali, nel caso di variabili aleatorie continue bidimensionali, (, )|| esprime, a meno di infinitesimi di ordine
superiore, la probabilit dell'evento {| < () < + < () <
+ }.

Se la derivata che compare nella (14.6.7) intesa in senso generalizzato, il concetto di densit di probabilit pu essere esteso al caso di
variabili aleatorie bidimensionali discrete o miste per le quali la funzione
(, ) pu presentare dei salti di ampiezza finita.

264

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Le propriet della funzione (, ) sopra riportate, si traducono


facilmente in termini della funzione (, ). Si ha cos:
(, ) 0

(14.6.8)

e
2

(, ) = Pr{|1 < () 2 1 < ()


1

(14.6.9)

2 }

In particolare dalla (14.6.9) si ha:

(, ) = (, )

(14.6.10)

La condizione (14.4.3) si traduce nella seguente condizione di


normalizzazione:
(, ) = 1
R2

(14.6.11)

Per quanto riguarda le densit di probabilit marginali dalle


(14.6.3), tenendo conto della (14.6.10), si ottengono le:

a)

() = (, )

b)

(14.6.12)

() = (, )

le quali derivate rispettivamente rispetto a e a forniscono:

a)

() = (, )

b)

(14.6.13)

() = (, )

Le variabili aleatorie e si dicono statisticamente indipendenti se la


loro distribuzione di probabilit congiunta si pu esprimere come prodotto delle due distribuzioni marginali:
(, ) = () ()

o, in modo equivalente, la densit congiunta si pu scrivere:

(14.6.14)

CAPITOLO - 14 - Variabili Aleatorie -

265

(, ) = () ()

(14.6.15)

cio due variabili aleatorie associate ad uno stesso esperimento casuale si


dicono statisticamente indipendenti se le funzioni di probabilit congiunte si fattorizzano in termini delle rispettive funzioni di probabilit
marginali.
Tutte le considerazioni fin qui esposte nel caso di due variabili
aleatorie possono essere facilmente generalizzate al caso di variabili
aleatorie definite su uno stesso esperimento casuale o, che lo stesso, al
caso di un vettore aleatorio -dimensionale.
Esempio 14.1
Siano e due variabili aleatorie caratterizzate da una densit di probabilit congiunta data dalla:
1
1
||
(, ) = {2;
2
2
0;
altrove
cio la p X Y ( x, y ) costante e uguale a 2 nella
regione indicata nella Fig. Fig.E 14.1e vale 0
altrove.
Le densit di probabilit marginali sono date
da (vedi Fig.E 14.1):

() = (, )

||

2 = 2 + 1;

1
2

1
|| >
2

0;
{

Fig.E 14.1

1
2

e
1
2

() = (, ) =

1
2;
1
|| >
2

||

2 = 1 2;

0;
{

Si pu facilmente verificare la corretteza dei risultati mostrando che soddisfatta la proprit di normalizzazione per entrambe le densit di probabilit
marginali:

1
2

() = (2 + 1) = [ 2 + ]2 1 = 1;

266

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori 1


2

() = (1 2) = [ 2 ]2 1 = 1;

1
2

14.7 - Funzioni di probabilit condizionate.


Date due varaibili aleatorie ed definite sullo stesso esperimento casuale aventi densit di probabilit congiunta (), si prendano in considerazione i due eventi:
1 = { },

2 = {

||
||
<<+
};
2
2

(14.7.1)

La probabilit dell'evento 1 condizionata dal manifestarsi dell'evento


2 , nellipotesi che quest'ultimo abbia probabilit diversa da zero, per la
formula di Bayes vale:
Pr{1 |2 } =

Pr{1 2 }
=
Pr{1 }

||

2
||

2
||
+ 2
||

(, )
(14.7.2)

()

Se si fa tendere a zero, ammesso che la (), sia continua in


, 2 si riduce all'evento singolare 2 = { = } e si ha:
||

2
||

2
||
0
+ 2
||

(, )

lim Pr{1 |2 } = lim

()

(14.7.3)

(, )|| (, )
= lim
=
0
()||
()

Si noti il limite (14.7.3) esiste finito se risulta () 0 e, per


ogni valore di definisce una funzione della variabile che soddisfa tutte le propriet di una distribuzione di probabilit. Denoteremo tale funzione, | (, ) e la chiameremo distribuzione di probabilit condizionata.
Alla | (, ) corrisponde una densit di probabilit condizionata data dalla:
| (, ) =

| (, ) (, )
=

()

Dalla precedente si ottiene facilmente:

(14.7.4)

CAPITOLO - 14 - Variabili Aleatorie -

(, ) = ()| (, )

267

(14.7.5)

In modo analogo, introducendo la densit di probabilit condizionata | (, ) si deduce:


(, ) = ()| (, )

(14.7.6)

Inoltre tenuto conto delle condizioni di normalizzazione:

| (, ) = | (, ) = 1

(14.7.7)

14.8 - Funzioni di probabilit dordine superiore.


In maniera analoga a quanto fatto nei paragrafi precedenti, dato
una variabile aleatoria multi dimensionale, cio una n-upla di variabili
aleatorie = [1 , 2 , , ] definite sullo stesso esperimento casuale, si
denota con
1,2,, (1 , 2 , , ) = ()

(14.8.1)

la distribuzione di probabilit congiunta associata a detta variabile, essa


in ogni esprimer la probabilit dell'evento:
= {: 1 1 2 2 }

(14.8.2)

Si pu anche definire una densit di probabilit congiunta della variabile


= [1 , 2 , , ]:
() =

1,2,, (1 , 2 , , )
1 2

(14.8.3)

in cui la derivata, anche in questo caso, va eventualmente intesa in senso


generalizzato.
Dalla () si possono dedurre tutte le densit congiunte relative
ad un qualunque sottoinsieme delle componenti di per successiva
marginalizzazione, cio integerando su tutto lasse reale () rispetto a
tutte le componenti di . Si ha infatti, generalizzando le (14.6.13):
1,2,,1 (1 , 2 , , 1 ) =

1,2,, (1 , 2 , , ) ;
1,2,,1 (1 , 2 , , 2 ) =

1,2,, (1 , 2 , , ) 1 ;

(14.8.4)

268

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

1, (1 ) = 1,, (1 , , ) 1 2 ;

Vale anche la condizione di normalizzazione:

() = 1

ovviamente risulta:

() = ()

(14.8.5)

(14.8.6)

e sono soddisfatte le uguaglianze:


1,2,, (, , , ) = 0;
1,2,, (, , , ) = 1

(14.8.7)

CAPITOLO - 15
FUNZIONI DI VARIABILI ALEATORIE
15.1 - Funzioni di una variabile aleatoria.
Data una funzione reale () definita in misurabile e una variabile aleatoria () definita su un esperimento casuale . Si consideri
lapplicazione definita su a valori in :
= (())

(15.1.1)

Ci si convince facilmente che a sua volta una variabile aleatoria definita sullesperimento casuale =(,,Pr).
Infatti, la misurabilit della funzione () garantisce che la controimmagine secondo () di ogni semiretta di origine destra chiusa sia
un insieme misurabile secondo Lebesgue. A sua volta la controimmagine secondo la variabile aleatoria di un sottoinsieme di misurabile
certamente un evento, cio appartiene alla classe , quindi ad esso si
pu attribuire una probabilit.
Ci si propone di calcolare la distribuzione di probabilit ()
della variabile aleatoria nota che sia quella della variabile aleatoria .
A tal fine si ricorda che la () eguaglia la probabilit che la variabile assuma un valore non superiore ad . Tale eventualit si verifica tutte e sole le volte che la variabile aleatoria assume valori appartenenti
allinsieme
= 1 (], ]).
In
altri
termini
1
() = Pr{ }= Pr{ ( )}.
Se nota la densit di probabilit di , potremo scrivere:
() = Pr{ } = ()

(15.1.2)

opportuno sottolineare che lintegrale che compare nella precedente va inteso in senso delle distribuzioni qualora la () contenga
delle delta di Dirac.
Esiste anche un metodo alternativo per calcolare la densit di
probabilit della variabile aleatoria .

270

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

A tale scopo si consideri una funzione () derivabile quasi ovunque priva di tratti costanti e la variabile aleatoria sia di tipo continuo.
Data
la
funzione
= () nel piano (, , ), si
consideri sullasse lintervallo
I = ]

, +

]; ad esso

corrisponde un'immagine inversa 1 (I ), costituita, per il


tipo di funzione considerata,
Fig. 15.1
da ununione finita o al pi
numerabile di intervalli a due a
due disgiunti I , centrati nelle soluzioni dellequazione = ()
nellincognita (v. Fig. 15.1). Si ha cio:
1 (I ) = I

(15.1.3)

Si osservi adesso che la probabilit che la variabile aleatoria assuma un valore appartenente all'intervallo I , uguale alla probabilit
che la variabile aleatoria assuma un valore appartenente all'evento
= I . Si pu quindi scrivere:
Pr{I } = Pr{E} = Pr{I }

(15.1.4)

dal momento che, come gia scritto, gli eventi che costituiscono E sono a
due a due disgiunti.
Si osservi inoltre che date le ipotesi fatte sul segnale, al tendere a
zero della misura || di I anche la misura | | del generico I tende
a zero. Quindi, ricordando il significato della densit di probabilit di
una variabile aleatoria, la (15.1.4) si pu riscrivere, a meno dinfinitesimi
di ordine superiore al primo, nella forma:
()|| ( )| |

(15.1.5)

Osserviamo che tutti gli addendi della sommatoria a secondo membro


sono non negativi pertanto la () sar nulla soltanto per quei valori di

CAPITOLO - 15 - Funzioni di Variabili Aleatorie -

271

per i quali risulti ( ) = 0 per ogni valore dellindice , cio in corrispondenza ad ogni soluzione dellequazione = ()
Per tutti i valori di in corrispondenza ai quali risulti
|

()

0 dividendo ambo i membri della (15.1.5) per || e pas-

sando al limite per 0, si ottiene:


() = lim
0

( )
||

| |

( )
()

(15.1.6)

In corrispondenza agli eventuali valori di per i quali risulta che


|

()

= 0, ovvero per i quali la () non risulti derivabile la ()

non definita; tuttavia la () risulta definita quasi ovunque dalla


(15.1.6), in quanto tali punti costituiscono, per le ipotesi fatte sulla funzione () un insieme al pi numerabile.
Consideriamo adesso il caso in cui la () sia costante a tratti cio
la funzione, pu assumere soltanto valori appartenenti ad un sottoinsieme di A al pi numerabile, com indicato in Fig. 15.2.
Ci si convince facilmente che la () in questo
caso di tipo discreto. Infatti,
facendo riferimento alla Fig.
15.2, la probabilit che il la
variabile il valore data
da:
Fig. 15.2

= Pr{ = } = ()

(15.1.7)

dove lintegrale esteso a I = 1 ({ }), cio alla controimmagine


dellinsieme { }.
La funzione distribuzione di probabilit () presenter, in corrispondenza al generico , un salto di valore . Il valore da essa assunto sar ( ) = e tale rester a +1 . La () si presenter
quindi come una funzione a scala, pertanto la variabile aleatoria sar in
questo caso di tipo discreto.

272

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La densit di probabilit () conseguentemente espressa dalla:


() = ( )

(15.1.8)

Esempio 15.1
Si consideri la funzione
= cos()

dove denota una variabile casuale caratterizzata da una densit di


probabilit ()
Se || 1 l'equazione
= cos()

Fig.E 15.1

presenta le soluzioni generate dalle


(v. Fig.E 15.1)
= arccos() + 2;
= arccos() + 2

Poich :

= sin()

risulta:

| | = |sin( )| = (1 cos2 ( ))

= 1 2

2
| |
= |sin( )| = (1 cos ( ))

}

Ne consegue:
() =

, ( ( ) + ( ))
1 2

Se ad esempio, uniformemente distribuita in [0, 2, qualunque sia


l'istante t, la sommatoria che compare nella precedente, contiene due soli
termini non nulli ottenuti in corrispondenza al valore 0 dellindice e 1 di j,
precisamente:
0 = arccos();

Quindi risulta:

= 2 arccos()

CAPITOLO - 15 - Funzioni di Variabili Aleatorie -

273

Fig.E 15.2
() =

(2)
21

+
2

(2)
21 2

(2)
1 2

il cui andamento in funzione di riportato in Fig. E.IV.4. a).


La distribuzione di probabilit si ottiene per integrazione della precedente. Si ha:
1 arcsin()

() = ( +
) ( ) + u( 1)
2

ed rappresentata nella Fig. E.IV.4 b).

CAPITOLO - 16
MEDIE STATISTICHE
16.1 - Valore medio di funzioni di variabili aleatorie.
Sia () una variabile aleatoria continua definita sull'insieme dei
risultati di un esperimento casuale =(,,Pr), caratterizzata da una
densit di probabilit (). Si consideri unapplicazione (), dove
() una funzione misurabile definita quasi ovunque in .
La quantit:

= () ()
{()} = ()

(16.1.1)

ammesso che esista e che sia anche limitata, viene chiamata valore medio
statistico della funzione () associata alla variabile aleatoria .
Per chiarire il significato della (16.1.1) opportuno ragionare in
termini di frequenza relativa. A tale scopo, si suddivida l'intervallo
dintegrazione in un insieme dintervalli contigui del tipo (, ( +
1)) e si scelga arbitrariamente all'interno di ciascuno di essi un punto
. Se l'integrale (16.1.1) esiste, si pu scrivere:

= lim ( ) ( )
()
0

(16.1.2)

Si osservi adesso che la quantit ( ) approssima la probabilit che occorra l'evento


E = (, ( + 1)]

(16.1.3)

la quale in termini di frequenza relativa pu essere espressa come segue:

( ) = lim

(16.1.4)

Dove rappresenta il numero desperimenti effettuati, e quello degli esperimenti che hanno dato esito favorevole, cio quelli al cui risultato la variabile aleatoria associa un valore appartenente ad E , Si osservi
che tale numero dipende anche dall'ampiezza di E . Sostituendo la
(16.1.4) nella (16.1.2) si ottiene:

276

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

1
= lim
()
( )
0

(16.1.5)

E facile convincersi che la sommatoria a secondo membro, rappresenta la somma di tutti i valori assunti dalla funzione () in corri si pu anche
spondenza alle prove effettuate. Di conseguenza ()
scrivere nella forma:

1
(( ))

= lim
()

(16.1.6)

=1

dove rappresenta il risultato ottenuto nell' -esima ripetizione dell'esperimento casuale.


opportuno ricordare (vedi CAPITOLO - 15) che poich ()
misurabile, = () anchessa una variabile aleatoria definita sull'insieme , caratterizzabile mediante la sua densit di probabilit ().
Il concetto di valore medio di una funzione di variabile aleatoria
si pu estendere al caso di una funzione misurabile su di variabili
aleatorie definite sull'insieme dei risultati di uno stesso esperimento casuale. In questo caso si ha:
{(1 , 2 , , )} =
(1 , 2 , , ) =
= (1 , 2 , , )12 (1 , 2 , , )1 2

(16.1.7)

dove 12 (1 , 2 , , ) rappresenta la densit di probabilit congiunta delle variabili aleatorie.


16.2 - Momenti.
Se () = ( ) (con intero ed ) dalla (16.1.1) si ottiene il momento -esimo, , , riferito ad , si pone cio:

, = ( ) ()

(16.2.1)

a patto, ovviamente, che lintegrale che compare nella precedente assuma un valore finito. Si pu dimostrare che lesistenza del momento di
ordine comporta quella di tutti i momenti di ordine inferiore.

CAPITOLO - 16 - Medie Statistiche -

277

Se nella (16.1.2) si pone = 0, essa restituisce il cosiddetto valore


medio della potenza -esima, o momento -esimo della variabile aleatoria :

0, = ()

(16.2.2)

In particolare la (14.4.3) comporta che:

0 = () = 1

(16.2.3)

Per = 1 la (16.2.2) assume la forma:

1 = ()

(16.2.4)

che prende il nome di valore medio della variabile aleatoria.


Per = 2 la (16.2.2) restituisce il cosiddetto valore quadratico medio:

2 = 2 ()

(16.2.5)

Se nella (16.2.1) si pone = si ottengono al variare di i momenti centrali -esimi della variabile aleatoria:


( 1 ) = ( 1 ) ()

(16.2.6)

Risulta: 0 = 1, 1 = 0 indipendentemente dalla variabile aleatoria in


considerazione.
La (16.2.6), scritta per = 2, fornisce il momento centrale del secondo ordine:

2 2 = ( 1 )2 ()

(16.2.7)

che prende il nome di varianza della variabile aleatoria.


La (16.2.1) pu essere ulteriormente elaborata fornendo:

, = (1) ( ) () =

=0

= (1) ( ) () = (1) ( )

=0

=0

(16.2.8)

278

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La precedente mostra che la conoscenza dei momenti fino allordine


consente di conoscere anche tutti i momenti riferiti ad un reale qualsiasi.
La (16.2.8) in particolare implica:
2

2
2 = (1) ( ) = 2 2

(16.2.9)

=0

Derivando la (16.2.8) valutata per = 2 rispetto ad si ottiene:


2

,2
2
= (1) ( ) 1 2 = 2 + 2

(16.2.10)

=0

La derivata appena scritta si annulla per = , se ne conclude che la


varianza il minimo momento del secondo ordine.
La radice quadrata della varianza
= 2 12

(16.2.11)

prende il nome di scarto quadratico medio o deviazione standard della variabile


aleatoria.
Esempio 16.1
Sia data una variabile aleatoria la cui varianza sia finita. Si mostri che, se
un reale positivo qualsiasi, vale la seguente disuguaglianza
{| | }

2
2

Esplicitando il primo membro della precedente si ottiene:

() +

()

1
2 () +
(
(

)
( )2 () )

2
+

1
2
( ( )2 () ) = 2
2

per ottenere la quale si sfruttata la circostanza che ( )2/21 allinterno del dominio di integrazione.
La disuguaglianza appena provata nota come disuguaglianza di Chebyshev. Unimmediata conseguenza di essa che se una variabile aleatoria

CAPITOLO - 16 - Medie Statistiche -

279

ha varianza nulla, allora essa uguale al suo valor medio con probabilit
uno.

Si possono anche definire dei momenti assoluti dordine riferiti


ad un qualsiasi reale come:

| | = | | ()

(16.2.12)

anche in questo caso, ponendo = 0, si ottengono i momenti assoluti:


|| = || ()

(16.2.13)

e, ponendo = , si hanno i momenti assoluti centrali.


Esempio 16.2
Siano , due reali qualsiasi e un numero naturale; risulta:

0 (||2 + ||

+2
2

)2 ()

Questultima fornisce:

0 ( 2 || + 2||+1 + 2 ||+2 ) () = 2 + 2+1 + 2 +2

la quale comporta che la forma quadratica


2 + 2+1 + 2 +2

sia semidefinita positiva. Pertanto il determinante ad essa associato non


negativo. Deve quindi essere:
2
+1
+2

Elevando a ambo i membri si ottiene:


2(+1)

+1

+1
+1 +2

questultima al variare di fornisce le disuguaglianze:


12 0 2 ;
24 12 32 ;
36 23 43 ;

2(+1)
+1
;
{+1 +1 +2

che moltiplicate termine a termine forniscono:

2(+1)
+1
=0

+1
+1 +2
=0

280

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Eliminando dallultima disuguaglianza i fattori comuni, e tenendo presente


che 0 1 si ottiene:

+1

+1
+1
+2

+1
+1
0 +1
+1
;
=0
=0
=0
=1
1
+1
2(+1)

+1 +1 +1
;
=0
=1
1
1
2(+1)

+1
+1 +1 +1 +2 +1
;
=1
=1
+2
+1
+1
+2
;

lultima disuguaglianza ottenuta comporta:


+2

+1

(+2)(+1)
(+2)(+1)
+1
+2
;
1

+1
+2
+1
+2

Dalla quale si conclude che, indipendentemente dalla variabile aleatoria considerata, se i momenti assoluti esistono, soddisfano la catena di disuguaglianze:
1

+2
1 22 33 +2

Nel caso di una funzione di due variabili aleatorie definite su di


uno stesso esperimento casuale, se si pone: (, ) =
si ottiene un momento congiunto ( + )-esimo

=
= { } = (, )

(16.2.14)

Ovviamente per = = 0 si ha:

00 = (, ) = 1

(16.2.15)

In maniera analoga alla (16.2.6) possono definirsi i momenti centrali ( + )-esimi del secondo ordine mediante le:
= {( ) ( ) }

= ( ) ( ) (, )

(16.2.16)

dove e sono i valori medi delle variabili e rispettivamente.

CAPITOLO - 16 - Medie Statistiche -

281

In particolare il momento centrale 11 prende il nome di covarianza e risulta:



( )( ) =
+
(16.2.17)

Se le due variabili sono statisticamente indipendenti risulta:


{ } = { }{ }

(16.2.18)

Cio il valore medio del binomio dato dal prodotto dei valori
medi di e .
Esempio 16.3
Sia una variabile aleatoria ottenuta dalla combinazione lineare di variabili aleatorie, 1 , 2 ,, definite sull'insieme dei risultati di uno stesso
esperimento casuale. Sia cio:

=
=1

con costanti reali.


Il valore medio statistico di dato da:

=
=1

cio dalla combinazione lineare effettuata con le stesse costanti degli


valori medi delle variabili aleatorie componenti, indipendentemente dal fatto
che queste siano o meno statisticamente indipendenti.
Per quanto riguarda il valore quadratico medio si ha:
2

2 = ( )
=1

( ) =
=1

2 2
=1

+
,=1
()

pertanto:

2
2 = 2

+
=1

,=1
()

282

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

In maniera analoga si pu verificare che la varianza vale:

2 = 2 2 +
,=1
()

=1

In particolare, se le variabili sono statisticamente indipendenti, risulta:

2
2 = 2

+
,=1
()

=1

e:

2 = 2 2
=1

16.3 - Teorema della media.


Sia = () una funzione di una variabile aleatoria , dove ()
una funzione misurabile definita q.o. in . La a sua volta una variabile aleatoria il cui valore medio dato per la (16.2.4) da:

= ()

(16.3.1)

Si scomponga adesso l'asse reale in intervalli elementari E = ( , +


] a due a due disgiunti, la probabilit che la variabile aleatoria
= () assuma un valore appartenente al generico intervallo E , ovviamente uguale alla probabilit che la variabile assuma un valore appartenente all'insieme 1 (E ) controimmagine di E
Supponendo per semplicit che la controimmagine in questione
sia costituita da un'unione al pi numerabile dintervalli elementari a due
a due disgiunti di misura , si deduce che:

{E } ( ) ( ) = { 1 (E )}

(16.3.2)

=1

Moltiplicando ambo i membri della precedente per = ( ) si perviene alla:

( ) ( ) ( )
=1

(16.3.3)

CAPITOLO - 16 - Medie Statistiche -

283

dalla quale si deduce che il contributo di ogni intervallo elementare


all'integrale (16.3.1) esprimibile come somma di quelli di opportuni intervalli disgiunti nel dominio di . Poich al variare dell'indice viene ricoperto l'intero asse reale la cui controimmagine secondo la ()
stesso, ci si convince facilmente che l'integrale (16.3.1) pu essere calcolato anche come segue:

() = () ()

(16.3.4)

che costituisce lespressione formale del teorema della media.


Il risultato appena ottenuto si pu facilmente generalizzare al caso di una variabile aleatoria definita tramite una funzione misurabile su
di variabili aleatorie definite sull'insieme dei risultati di uno stesso
esperimento casuale. Cio se = (1 , 2 , ), il valor medio di
pu essere calcolato come segue:

= ()

= (1 , 2 , , )12 (1 , 2 , , )1 2

(16.3.5)

16.4 - Funzione caratteristica.


Una media di notevole importanza associata ad una variabile aleatoria la cosiddetta funzione caratteristica () definita come valore
medio statistico della quantit . Si ha cio:

() =
= ()

(16.4.1)

Poich () una quantit non negativa e ha modulo unitario, dalla precedente risulta:

| () | () = 1

(16.4.2)

| ()| (0) = 1

(16.4.3)

() = ()

(16.4.4)

cio
Si ha inoltre

284

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Confrontando la (16.4.1) con l'espressione della trasformata di


Fourier si riconosce che vale la seguente relazione:

(2) = 2 () = [ ()]

(16.4.5)

Che pu essere facilmente invertita ottenendo:


() =

1
1
() =
()
2
2

(16.4.6)

Le derivate della () rispetto valgono:

= () ;

2
= 2 2 () ;
2

= () ;

(16.4.7)

che confrontate con l'espressione (16.2.1) del momento - esimo


di una variabile aleatoria, danno luogo alle:

1 = [
]
;
=0
2
2 = [ 2 ]
;
=0


= () [ ]
;
{
=0

(16.4.8)

Si osservi che, se una variabile aleatoria ammette tutti i momenti, la sua funzione caratteristica () infinitamente derivabile in =
0. Sviluppando la () in serie di Mac Laurin si ottiene:
()
= (0) + [

2 2

] +[ 2]
+ + [ ]
+
0
0 2
0 !
2

= 1 + 1 +

()
()
2 + +
+
2
!

(16.4.9)

CAPITOLO - 16 - Medie Statistiche -

285

Se ne conclude che la conoscenza di tutti i momenti della variabile aleatoria , individua univocamente la sua funzione caratteristica, e
quindi, tramite la (16.4.6), la sua densit di probabilit.
Generalizzando quanto detto in precedenza, possibile definire la
funzione caratteristica, associata a variabili aleatorie 1 , 2 , , definite sull'insieme dei risultati di uno stesso esperimento casuale, come
media statistica della quantit (11+22++ ) cio:
1 ,2,, (1 , 2 , , )
= (11 +22 ++ )

(16.4.10)

1,2,, (1 , 2 , , )1 2

Anche in questo caso la precedente pu essere interpretata utilizzando la


trasformata multipla di Fourier della densit di probabilit congiunta
delle variabili aleatorie
1,2,, (21 , 22 , ,2 )
= * [1,2,, (1 , 2 , , )]

(16.4.11)

Conseguentemente, la densit di probabilit congiunta, nota la corrispondente funzione caratteristica, pu essere ottenuta dalla:
1,, (1 , , )
=

1

( , , )
(2) 1,, 1

(16.4.12)

(11+22++ ) 1

D'altra parte si ha:

=1

=
=1

= (
1 =0

(16.4.13)

2 =0

=0

(1 1 )1
(2 2 )2
( )
) (
)(
)
1 !
2 !
!

per cui la (16.4.11) diviene:

286

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

1,2,, (1 , 2 , , )

1 ,2 ,, =0

(1 +2 + ) 1 2


1 ! 2 ! ! 1 2

(16.4.14)

11 , 22 1,2,, (1 , 2 , , )1 2

che utilizzando i momenti congiunti si pu riscrivere:


1,2,, (1 , 2 , , )

1 ,2 ,, =0

(1 +2 + ) 1 2

1 ,2,,
1 ! 2 ! ! 1 2

(16.4.15)

Anche in questo caso quindi la conoscenza di tutti i momenti


congiunti 1 ,2,, consente tramite la precedente di determinare la
funzione caratteristica e quindi, la corrispondente densit di probabilit
congiunta.
Esempio 16.4
Si consideri la variabile aleatoria

=
=1

gi presa in considerazione nell'Esempio 16.1


La sua funzione caratteristica vale:

() = { } = { =1 } = { }
=1

Se le variabili aleatorie 1 , 2 , , sono statisticamente indipendenti,


si possono invertire le operazioni di prodotto e di media statistica, ottenendo:

() =

{ }
=1

({ })
=1

= [ ()]
=1

avendo denotato con () la funzione caratteristica associata alla variabile


aleatoria .
In particolare se ottenuta dalla somma di variabili aleatorie statisticamente indipendenti, la funzione caratteristica () si ottiene ponendo
nella precedente 1, ( = 1,2, , ). Si ha quindi:

CAPITOLO - 16 - Medie Statistiche -

287

() = ()
=1

che nel caso di due sole variabili si riduce alla:


() = 1 ()2 ()

quindi per la (16.4.6) la densit di probabilit di vale:


() =

1
()2 ()
2 1

la quale, osservando che = 1 + 2 e ricordando l'espressione della ()


pu scriversi:
() =

1
1 () ( 2 2 (2 ) 2 )
2

Invertendo l'ordine dintegrazione si ha:

1
() = 2 (2 ) ( 1 () (2) ) 2
2

Ma poich:
1
() (2) = 1 ( 2 )
2 1

la () si riduce alla:

() = 2 (2 )1 ( 2 )2

In altri termini, la densit di probabilit della somma di due variabili


aleatorie statisticamente indipendenti si ottiene dalla convoluzione delle
densit di probabilit delle variabili componenti.
Pi in generale si pu verificare che una variabile somma di variabili a
due a due statisticamente indipendenti, presenta una densit di probabilit
data dalla successiva convoluzione di tutte le densit di probabilit delle singole variabili che la compongono. Cio:
= 1 2

CAPITOLO - 17
VARIABILI ALEATORIE NOTEVOLI
17.1 - Premessa.
In quel che segue sono riportate le funzioni di probabilit,
densit e distribuzione, di alcune variabili aleatorie, sia continue sia
discrete, in cui di frequente ci simbatte nelle applicazioni.
17.2 - Distribuzione uniforme.
Una variabile aleatoria si dice uniformemente distribuita
nell'intervallo (, ) se la sua densit di probabilit si mantiene co-

Fig. 17.1 - Densit e distribuzione uniforme

stante in detto intervallo ed nulla in tutti i punti esterni ad esso.


Ovviamente, la condizione di normalizzazione (14.4.3) impone che la
densit di probabilit di una variabile uniformemente distribuita, dove non nulla abbia un'ampiezza pari all'inverso del diametro dell'intervallo (, ): (v. Fig. 17.1, a):
1
() =

( 2 )

(17.2.1)

Essa descrive il comportamento di una quantit aleatoria che assume


con eguale probabilit un qualsiasi valore appartenente ad (, ).
La funzione di distribuzione associata ad una variabile aleatoria uniformemente distribuita in (, ) vale (v. Fig. 17.1, b):
() =

( 2 ) + ( )

(17.2.2)

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

289

Il valore medio di una variabile distribuita secondo la (17.2.1)


vale:

= () =

+
=

(17.2.3)

il suo valore quadratico medio:

2 = 2 () =

2
2 + + 2
=

(17.2.4)

la sua varianza:
2 =
2 2 =

( )2
12

(17.2.5)

17.3 - Distribuzione esponenziale.


Una variabile aleatoria si
dice a distribuzione
esponenziale se la sua
densit di probabilit del tipo
(Fig. 17.2 a):

Fig. 17.2 - Densit e distribuzione esponenziale

() = ()

(17.3.1)

dove una costante positiva.


La corrispondente distribuzione di probabilit vale:
() = (1 )()

(17.3.2)

il cui andamento riportato nella (Fig. 17.2 b).


Il valore medio di una variabile aleatoria di tipo esponenziale
vale:

1 0
1
= = [ ( + )] =

0

(17.3.3)

il suo valore quadratico medio:

2 = 2 = [ ( 2 +
0

e la sua varianza:

2
2 0
2
+ 2 )] = 2

(17.3.4)

290

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

2 =
2 2 =

1
2

(17.3.5)

17.4 - Distribuzione di Laplace.


La densit di probabilit in questo caso vale (v. Fig. 17.3 a):
() =

||

(17.4.1)

dove una costante positiva.

Fig. 17.3 - Densit e distribuzione di Laplace

La distribuzione di probabilit risulta quindi: (v. Fig. 17.3 b):


() =

1 1
+ sgm()(1 || )
2 2

(17.4.2)

La variabile aleatoria in questione ha per evidenti motivi di


simmetria valore medio nullo. Il suo valore quadratico medio uguale alla sua varianza che come si deduce facilmente vale:
2 =

4
2

(17.4.3)

17.5 - Distribuzione normale o gaussiana.


Una variabile aleatoria si
dice gaussiana o normale se la sua
densit di probabilit del tipo:
()
=
Fig. 17.4 ddp gaussiane per diversi valori di media e varianza.

1
2 2

()2
22

(17.5.1)

qualunque sia e 2 + .
L'andamento della densit di

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

291

probabilit di una variabile gaussiana per alcuni valori dei parametri


e 2 mostrato in Fig. 17.4.
La funzione di distribuzione di probabilit di una variabile
aleatoria gaussiana vale:
() =

2 2

()2
22

L'integrale che compare nella precedente non pu essere


calcolato in forma
chiusa. Tuttavia esso
si pu esprimere in
termini della cosiddetta funzione derrore,
che definita come
segue(vedi Fig. 17.5):

Fig. 17.5 - Funzioni derrore e complementare derrore.

erf() =

(17.5.2)

(17.5.3)

Infatti, effettuando nell'integrale che compare nella (17.5.2) la seguente trasformazione di variabili:
=

(17.5.4)

2 2

Si ottiene:
P ()
=

( +

(17.5.5)

Tenuto conto che, com noto (vedi Esempio 17.1):


0

= =

si pu ancora scrivere:

(17.5.6)

1
2 2 2
P () = {1 +

}
2
0

(17.5.7)

292

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Da quest'ultima innanzi tutto discende che la (17.5.1) verifica


la condizione di normalizzazione, indipendentemente dal valore della
costante e dalla scelta di 2 , in quanto () = 1.
Inoltre ricordando la (17.5.3) si constata facilmente che la precedente pu essere riscritta nella forma:
1

P () = [1 + erf (
)]
2
2 2

(17.5.8)

Utilizzando la funzione complementare derrore:


erfc() = 1 erf() =

(17.5.9)

il cui andamento riportato nella stessa Fig. 17.5, la (17.5.8) pu scriversi anche come segue:
1

P () = 1 erfc (
)
2
2 2

(17.5.10)

Dalle (17.5.3) e (17.5.9) si deduce facilmente che la erf() e la


erfc() soddisfano rispettivamente le seguenti condizioni di simmetria:
erf() = erf()
erfc() = 2 erfc()

(17.5.11)

Il valore medio di una variabile aleatoria gaussiana vale:

1
2 2

()2
22

1
2 2

2
22

= ( + )

1
2 2

1
2 2

2
22

2
22

=
(17.5.12)

per dedurre il quale, si effettuato il cambiamento di variabili


= e si considerato che la funzione che compare nel primo
integrale del penultimo membro ha simmetria dispari, mentre il secondo integrale vale uno, in quanto la funzione integranda si pu intendere come la densit di probabilit di una variabile aleatoria gaussiana con parametro = 0.
Al fine di dedurre la varianza di una variabile gaussiana si osservi che la condizione di normalizzazione consente di scrivere:

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali

I() =

()2

22

= 1

293

(17.5.13)

Derivando due volte ambo i membri della precedente rispetto ad


si ottiene:
2

I
1 ( ) ()
22 = 0
=

2
2
2

()2
I
1

22 +
=

2
2
2
2
2

1 ( )2 ()
22 = 0
+

2
4
2

(17.5.14)

Da quest'ultima discende:
2
( )2 ()
1
1
22 =

() = 2
4
2
2

(17.5.15)

da cui si ottiene:
( )2

2 2

()2
22

= ( )2 () = 2

(17.5.16)

Il parametro 2 che compare nella (17.5.1)rappresenta quindi


la varianza della variabile aleatoria.
Il valore quadratico medio vale ovviamente:

2 = 2 + 2

(17.5.17)

Esempio 17.1
Si consideri lintegrale improprio:

= = 2

Esso esiste finito in quanto la funzione integranda infinitesima di ordine infinito.


Al fine del calcolo di detto integrale si osservi che vale la catena di
uguaglianze:
2

2
2
2
2
= = ( ) = ( + )
2
0
0
0
0

Lintegrale che compare allultimo membro della precedente come si nota facilmente esteso al primo quadrante del piano (, , ) passando al
sistema di coordinate polari si ottiene infine:

294

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

2

2
2
2
= 2 = 2 = [ ]
0 =
2
0 0
0

Esempio 17.2
Sia X una variabile aleatoria caratterizzata dalla seguente densit di
probabilit gaussiana:
() =

Si vuole calcolare la densit di probabilit condizionata | (), dove


denota l'evento:
E = { 0}

Al fine di calcolare la densit di probabilit cercata si procede al calcolo della corrispondente funzione di distribuzione di probabilit
| (),.
Sulla base della (13.3.4), si
pu scrivere:
|E () = Pr{ |E}
=

Pr{{ } E}
Pr{E}

D'altra parte facile verificare


che:
> 0 { } E = {0 }
< 0 { } E =

Fig.E 17.1

Di conseguenza si ha:
|E () =

Pr{0 }
u()
Pr{E}

Osservando adesso che per la (14.4.2):

Pr{ [0, ]} =

1
2

Pr{E} =
0

2 =

1
2

si deduce:

| () = 2u()

1
2

Infine derivando la precedente rispetto a x si ottiene:

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

295

2 2
|E () = u() 2

il cui andamento riportato in Fig.E 17.1 insieme con quello della densit di probabilit p X ( x) .

17.6 - Distribuzione di Rayleigh.


Una variabile aleatoria distribuita secondo Rayleigh se la sua
densit di probabilit del tipo:

Fig. 17.6 Densit e distribuzione di Rayleigh.

() =

22
2 u()
2

(17.6.1)

Si deduce facilmente che la sua funzione di distribuzione di probabilit vale:


() = (1

2
22

) u()

(17.6.2)

Nella Fig. 17.6 sono riportati gli andamenti di () e di ()


rispettivamente per diversi valori del parametro 2 .
Il valore medio di si pu calcolare facilmente se si tiene conto della (17.5.16)in cui si pone = 0. Risulta infatti:
=

2 22
1 2 22
2 =

2
2
2 2

= 2
22 = 2 2 =
2 2 2
2
2

Il valore quadratico medio vale:

(17.6.3)

296

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

2 =

2
3 22

2 = [( 2 + 2 2 ) 22 ]

= 2 2
2

(17.6.4)

17.7 - Distribuzione di Bernoulli.


Una variabile aleatoria discreta di Bernoulli se essa pu assumere solo due valori 0 e 1 con probabilit e = 1 rispettivamente.
La distribuzione e la densit di probabilit valgono rispettivamente:
() = u( 0 ) + u( 1 )

(17.7.1)

() = ( 0 ) + ( 1 )

(17.7.2)

e
Il valore medio e il valore quadratico medio di una variabile di
Bernoulli valgono rispettivamente:
= 0 + 1

2 =

02

12

(17.7.3)
(17.7.4)

che nel caso particolare in cui i due valori che la variabile aleatoria
pu assumere siano equiprobabili si scrivono:
=

0 + 1
2

(17.7.5)

2 =

02 + 12
2

(17.7.6)

Si osservi che ad eccezione del caso banale in cui o siano


nulli il valore medio non coincide con un valore che pu essere assunto dalla variabile aleatoria.
17.8 - Distribuzione binomiale.
Sia dato un esperimento casuale il cui insieme dei risultati
abbia come generico elemento una -upla di risultati ottenuti da ripetizioni di uno stesso esperimento casuale. A titolo esemplificativo
si pensi all'esperimento casuale consistente in lanci di una moneta.
Ad si associ quindi la variabile aleatoria ottenuta dalla
somma di variabili aleatorie identiche, ciascuna definita su uno
degli esperimenti elementari di cui composto.

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

297

Le variabili si assume siano di Bernoulli. Si pu quindi porre:


Pr{ = 1} = ; Pr{ = 0} = = 1

(17.8.1)

La variabile aleatoria = =1 pertanto di tipo discreto e


pu assumere soltanto valori appartenenti all'insieme {0,1, , }.
Ammettendo inoltre che il risultato ottenuto nella -esima ripetizione dellesperimento ementare, sia statisticamente indipendente
da quelli ottenuti nelle restanti 1 ripetizioni, la probabilit che
assuma il valore , (0 ) dipende dalla circostanza che variabili assumano il valore 1 e le rimanenti il valore 0. evidente
che la probabilit di un tale evento vale = (1 ) .

D'altra parte ci sono ( ) = !()! modi distinti per ottenere tale risultato; di conseguenza si ha:

Pr{ = } = ( ) (1 )

(17.8.2)

che costituisce la cosiddetta distribuzione (di massa) binomiale.


Si verifica facilmente che la condizione di normalizzazione
soddisfatta. Infatti risulta:

=0

=0

Pr{ = } = ( ) = ( + ) = 1

(17.8.3)

Il valor medio di si pu calcolare facilmente esso infatti


dato dalla somma dei valori medi delle variabili aleatorie di cui la
somma:

= = = (1 + 0) =
=1

=1

(17.8.4)

=1

Anche la varianza si pu calcolare facilmente in virt del fatto


che le sono mutuamente statisticamente indipendenti. Si ha:

2
=1

= ( 2 ) =

(17.8.5)

=1

Il valor quadratico medio vale:

2 = 2 + 2 = + 2 2

(17.8.6)

298

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

17.9 - Distribuzione di Poisson.


Una variabile aleatoria discreta, che pu assumere un qualsiasi
valore intero non negativo, che sia caratterizzata da una distribuzione
di massa del tipo

;
!

Pr{ = } =

= 0,1,2,

(17.9.1)

prende il nome di variabile di Poisson con parametro > 0.


La corrispondente densit di probabilit data dalla seguente
sequenza di delta di Dirac:

() =

=0

( )
!

(17.9.2)

La sua funzione di distribuzione vale:

() =

=0

Ricordando che =
=0

,
!

( )
!

(17.9.3)

si deduce facilmente che il valor me-

dio di una variabile di Poisson vale:

=
=0

1
=
=
!
( 1)!

(17.9.4)

=1

il suo valore quadratico medio:

2 = 2
=0

1
=
!
( 1)!
=1

1
( 1)
+
( 1)!
( 1)!

=1
2

(17.9.5)

=1

=2

=1

2
1

+
= 2 +
( 2)!
( 1)!

infine la sua varianza risulta:


2 =

(17.9.6)

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

299

Esempio 17.3
Si vuole caratterizzare il traffico telefonico in arrivo ad una centrale.
A tal fine si denoti con n il numero di telefonate in arrivo nell'intervallo
di tempo (0, ).
Per determinare la statistica di questo processo opportuno introdurre
le seguenti ipotesi:
a) il numero di telefonate in arrivo in intervalli di tempo disgiunti sono
statisticamente indipendenti;
b) il numero di telefonate in arrivo nell'intervallo (, + ) dipende solo
dalla durata e non dall'istante iniziale .
c) Se sufficientemente piccolo, la probabilit che in (0, ) arrivi
una sola telefonata pari a ; mentre la probabilit che nello stesso intervallo di tempo pervenga pi di una chiamata un infinitesimo di ordine superiore a ci significa anche che la probabilit che in un intervallo di durata . non giunga nessuna chiamata vale, a meno di infinitesimi di ordine superiore, 1
Detta () la probabilit che, nell'intervallo (0, ), arrivino chiamate si consideri l'evento: Nellintervallo (0, + ) pervengono
chiamate. Tale evento, per le ipotesi fatte, si pu verificare solo in uno
dei seguenti modi:
1) in (0, ) sono pervenute n chiamate e in (, + ) non ne pervenuta
alcuna;
2) in (0, ) vi sono state 1 chiamate e in (, + ) una sola.
Poich gli eventi 1) e 2) si escludono a vicenda, per la legge delle
probabilit composte, e per le ipotesi a), b) e c) si pu scrivere:
)

( + ) = ()[1 ] + 1 ()[];

>0

Nel caso di = 0 la precedente deve essere modificata come segue:


)

0 ( + ) = 0 ()[1 ];

=0

Dalle (a) e (b) discende:


( + ) ()
= () + 1 ();

{
0 ( + ) 0 ()
= 0 ();

1
=0

dalle quali, passando al limite per 0, si ottiene il seguente sistema


di equazioni differenziali alle differenze:
)

()
= () + 1 ();
{
0 ()
= 0 ();

1
=0

300

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

cui si associa la seguente condizione iniziale:


)

(0) = {

1;
0;

=0
1

che corrisponde alla condizione che all'istante iniziale ( = 0) non vi


siano chiamate in arrivo.
Per risolvere il sistema in oggetto basta trasformare secondo Laplace
la prima delle (c). Denotando con
() = { ()}

la trasformata di Laplace di () si ha:

() (0) = () + 1 ();

>0

che, tenendo conto della condizione iniziale, pu essere riscritta nella


forma:
() + () = 1 ();

>0

Fig.E 17.2

Si ottiene allora successivamente:


() =

1 () 2 2 ()
0 ()
=
==
2
+
( + )
( + )

D'altra parte, trasformando la seconda delle (c), si ha:


0 () 0 (0) = 0 ()

che, in virt della (d), fornisce:


0 () =

pertanto:

0 (0)
1
=
+ +

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali -

() =

301

( + )+1

da cui, antitrasformando, si deduce:


() =

()
u();
!

Si ottiene cos una distribuzione di Poisson con parametro t. Gli andamenti di P n ( t ) per alcuni valori di n sono riportati in Fig.E 17.2

CAPITOLO - 18
CARATTERIZZAZIONE STATISTICA DEI SEGNALI
18.1 - Segnale aleatorio. Funzioni di probabilit del primo ordine.
Sia dato un esperimento casuale individuato da uno spazio di
probabilit S = (, , Pr). Per segnale aleatorio reale sintende un'applicazione che fa corrispondere a ciascun possibile risultato
dell'esperimento casuale una funzione reale del tempo:
(, ) | T

(18.1.1)

tale da identificare una variabile aleatoria (, ) per ogni fissato


T.
Il sottoinsieme
T pu coincidere
con lasse reale, o
essere in esso contenuto.
Da quanto detto discende che se
Fig. 18.1 - Generazione di un segnale aleatorio.
si fissa un valore di
il segnale aleatorio individua una variabile aleatoria su ; mentre se si fissa un risultato si ottiene una funzione della sola variabile , (, ), che costituisce una manifestazione del segnale come schematicamente indicato nella Fig. 18.1.
In quel che segue un segnale aleatorio verr denotato talvolta
con (), sottintendendo la dipendenza dal risultato dellesperimento
casuale . Dal contesto sar chiaro quando ci si sta riferendo ad una
variabile casuale, assegnato, o a ad una particolare manifestazione,
fissato.
Ad esempio si consideri il segnale aleatorio la cui generica
manifestazione data dalla:
(, ) = cos(20 + )

(18.1.2)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

303

dove una variabile aleatoria che assume valori nell'intervallo


[0,2]. In questo caso le manifestazioni del segnale sono costituite da
tutte le possibili cosinusoidi di frequenza 0 ottenute in corrispondenza ai possibili valori di .
In Fig. 18.2, a titolo esemplificativo, si sono riportate tre possibili manifestazioni di un segnale (, ).
Con riferimento alla figura, si
consideri l'evento E =
{(, )|(, ) } costituito
Fig. 18.2 - Manifestazioni di un segnale
da tutte le manifestazioni del
aleatorio
segnale che allistante assumono un valore non maggiore di . Per il segnale di Fig. 18.2, la
manifestazione (, 2 ) e la (, 3 ) appartengono a E mentre la
(, 1 ) non vi appartiene.
La probabilit che si verifichi levento E dipende dal valore
e dallistante , essa si pu quindi esprimere nella forma:
Pr{E } = () ()

(18.1.3)

La funzione () (), definita nella (18.1.3), costituisce la distribuzione di probabilit del primo ordine associata al segnale (). Ci si rende facilmente conto che la () () coincide con la funzione di distribuzione di probabilit della variabile aleatoria individuata dal segnale
in corrispondenza allistante .
Alla () () si pu associare una densit di probabilit del
primo ordine () () cos definita:
() () =

() ()

(18.1.4)

in quanto sia () () sia () () sono in genere funzioni anche dell'istante in cui si osserva il segnale. opportuno inoltre sottolineare
che la derivazione nella (18.1.4) va intesa in senso generalizzato, la
presenza deventuali discontinuit non eliminabili nella () () si traduce infatti nella presenza di delta di Dirac di peso e posizione opportuni nella corrispondente densit () ().

304

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Si osservi che la () () una funzione non decrescente di ,


pertanto, qualunque sia l'istante , per tutti i valori di in cui la
() () derivabile in senso ordinario, risulta:
() () 0

(18.1.5)

Inoltre i pesi delle eventuali delta di Dirac presenti nella () () non


possono essere negativi.
Vale la condizione:
() (+) = 1

(18.1.6)

che d conto del fatto che i valori assunti da una qualsiasi manifestazione del segnale appartengono certamente ad per ogni T.
Deve inoltre necessariamente essere:
() () = 0

(18.1.7)

in quanto la probabilit che in un qualunque istante risulti () =


nulla (evento impossibile).
La (18.1.4) e la (18.1.7) consentono di scrivere:

() () = () ()

(18.1.8)

Inoltre, indipendentemente dal valore di la (18.1.6) si traduce


per la ps(t ) (x) nella condizione di normalizzazione:

() () = 1

(18.1.9)

La probabilit che il segnale, in un assegnato istante , assuma


un valore appartenente allintervallo (, ] vale:

Pr{() (, ]} = () () () () = () ()

(18.1.10)

Esempio 18.1
Si consideri il segnale:

(, ) = (
)

dove rappresenta una variabile aleatoria caratterizzata da una densit di


probabilit del primo ordine data da ().

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

305

La generica manifestazione del segnale riportata in Fig.E 18.1. Da


tale figura si deduce che,
in corrispondenza ad un
certo istante , (, )
pu assumere solo due

Fig.E 18.1

valori e precisamente:
(, ) = 1;
{
(, ) = 0;

+
2
2
altrove

Ci significa che la probabilit che (, ) assuma in un certo istante il


valore 1 data dalla:
1 () {(, ) = 1} = Pr {

+ }
2
2

mentre la probabilit che (, ) assuma il valore 0 vale:


0 () Pr{(, ) = 0} = 1 Pr{(, ) = 1}

dal momento che gli eventi (, )=0 e (, )=1 sono mutuamente esclusivi.
Si ha:

1 () =

()

Ci premesso si consideri la funzione di distribuzione () () associata al


segnale (, ). Per ogni < 0 la
() () nulla poich il segnale non
pu assumere valori negativi, mentre
per valori di 1 la () () vale 1
poich i valori che il segnale pu assumere non possono essere superiori ad 1.
Per 0 < 1 si ha:
() () = 0 ()u()
Fig.E 18.2

In definitiva quindi risulta:


() () = 0 ()u() + 1 ()u( 1)

Pertanto la corrispondente densit di probabilit vale:


() () =

() ()
= 0 ()() + 1 ()( 1)

306

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Le funzioni () () e () () sono rappresentate nella Fig.E 18.2.


Se in particolare la variabile uniformemente distribuita in
(- /2, /2), cio caratterizzata da una densit di probabilit del primo
ordine data dalla:
() =

( )

si ha:
+

1 () =

||
1

( ) = { 1 ;

0;

|| = (1 ||) ( )

2
|| >

di conseguenza:
0 () = 1 (1

||

)( )

18.2 - Funzioni di probabilit del secondo ordine e funzioni di probabilit condizionate.


Dati due reali qualsiasi 1 , 2 si prenda in considerazione
levento:
E12 = {()|1 1 2 2 }

(18.2.1)

Dove, per comodit di notazione, 1 ed 2 indicano i


valori assunti dalla generica manifestazione del segnale agli istanti 1 e 2 rispettivamente. E1 2 rappresenta cio levento costituito da tutte le manifeFig. 18.3 - Manifestazioni di un segnale aleatostazioni del segnale ()
rio.
che assumono all'istante 1
un valore non maggiore di 1 , e all'istante 2 un valore non maggiore
di 2 .
Nellesempio di Fig. 18.3soltanto la manifestazione (, 1 )
contenuta in E12 .
La probabilit che si verifichi levento 1 2 dipende evidentemente sia dagli istanti di tempo considerati sia dalla coppia 1 , 2 ; essa si pu pertanto esprimere nella forma:
Pr{E1 2 } = 12 (1 , 2 )

(18.2.2)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

307

La funzione 1 2 (1 , 2 ), appena introdotta, costituisce la distribuzione di probabilit del secondo ordine associata al segnale aleatorio
() relativa ai due istanti 1 , 2 in cui il segnale aleatorio viene osservato.
Anche in questo caso possibile individuare una densit di probabilit del secondo ordine associata al segnale:
12 (1 , 2 ) =

2 12 (1 , 2 )
1 2

(18.2.3)

nella quale la derivazione da intendersi in senso generalizzato.


La 1 2 (1 , 2 ) deve necessariamente soddisfare le uguaglianze:
12 (, ) = 1;
1 2 (, ) = 0;
12 (0, ) = 0;
{12 (, 0) = 0;

(18.2.4)

la prima delle quali esprime la probabilit associata allevento certo;


le restanti quelle deventi impossibili, indipendentemente dagli istanti
dosservazione considerati.
Dalla (18.2.3)si deduce inoltre che la probabilit che all'istante
1 il valore (1 ) = 1 , assunto dalla generica manifestazione del segnale, sia compreso nell'intervallo (1 , 1 ] e che a 2 il valore
(2 ) = 2 , assunto dalla stessa manifestazione, appartenga all'intervallo (2 , 2 ] si pu calcolare in uno dei seguenti modi:
Pr{{()|(1 , 2 ) (1 , 1 ] (2 , 2 ]}}
= 12 (2 , 2 ) 1 2 (1 , 2 ) 1 2 (2 , 1 )
1

+ 1 2 (1 , 1 ) = 12 (, )
1

(18.2.5)

inoltre evidente che si ha:


1

1 2 (1 , 2 ) = 12 (, )

Dato

(18.2.6)

che

l'evento E1 2 contenuto nell'evento


E1+|1|,2+|2| deve necessariamente essere 12 (1 , 2 )
1 2 (1 + |1 |, 2 + |2 |), il che comporta:
12 (1 , 2 ) 0

(18.2.7)

308

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

in tutti i punti in cui la derivazione (18.2.3) si pu effettuare in senso


ordinario, inoltre, i pesi delle delta di Dirac, eventualmente presenti
nella 1 2 (1 , 2 ), non possono essere negativi.
Si osservi che tutti I risultati ottenuti si potevano dedurre osservando che (1 ) ed (2 ) sono due variabili aleatorie definite su di
uno stesso esperimento casuale, di cui la 12 (1 , 2 ) e la 1 2 (1 , 2 )
costituiscono le funzioni di probabilit congiunte.
Si considerino gli eventi:
E2 = {()|2 2 }; E1 = {()|1
1 +

|1 |
}
2

|1 |
< 1
2

(18.2.8)

La probabilit dell'evento E2 condizionata dal manifestarsi dell'evento E1 , nellipotesi che quest'ultimo abbia probabilit diversa da zero,
per la formula di Bayes vale:
| |

Pr{E2 |E1 } =

Pr{E2 E1 }
=
Pr{E1 }

1 + 2 1

2
(, )
1 2

| |
1 1
2

|1 |
2
|1 |
1
2

1 +

(18.2.9)

1 ()

Se si fa tendere 1 a zero, ammesso che la 1 (1 ), sia continua in 1 , E1 si riduce all'evento singolare E1 = {()|1 = 1 } e si ha:
| |

lim Pr{E2 |E1 } = lim

1 0

1 0

2
( , )
1 2 1

1 + 2 1

| |
1 1
2

2
(, )
1 2

|1 |
2
|1 |
1
2

1 +

1 ()

(18.2.10)

1 (1 )

Si noti il limite (18.2.10) esiste finito se risulta 1 (1 ) 0 e


definisce una funzione della variabile 1 che soddisfa tutte le propriet di una distribuzione di probabilit. Tale funzione, che si denota
con 2 |1 (2 , 1 ) e prende il nome di distribuzione di probabilit condizionata. Alla 2|1 (2 , 1 ) corrisponde la densit di probabilit condizionata data dalla:

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

2 |1 (2 , 1 ) =

2 |1 (2 , 1 )
2

309

(18.2.11)

facile rendersi conto che tale densit di probabilit pu


esprimersi in termini delle densit del primo e del secondo ordine associate al segnale () come segue:
12 (1 , 2 ) = 1 (1 ) 2|1 (2 , 1 )

(18.2.12)

In modo analogo, introducendo la densit di probabilit condizionata 1 |2 (1 , 2 ) si deduce:


1 2 (1 2 ) = 2 (2 ) 1 |2 (1 , 2 )

(18.2.13)

Si noti infine che risulta:


lim 2 |1 (2 , 1 ) = lim 1|2 (1 , 2 ) = (1 2 )

2 1

1 2

(18.2.14)

che discende immediatamente dal fatto che una stessa manifestazione del segnale non pu assumere due valori distinti nello stesso istante .
Inoltre tenuto conto delle condizioni di normalizzazione:

1|2 (1 , 2 )1 = 2 |1 (2 , 1 )2 = 1

(18.2.15)

dalle (18.2.12) e (18.2.13) si deduce che le densit del primo ordine


del segnale valgono rispettivamente:

a)

1 (1 ) = 12 (1 , 2 )2

b)

(18.2.16)

2 (2 ) = 12 (1 , 2 )1

dalle quali si evince che la densit di probabilit del primo ordine di


un segnale aleatorio direttamente deducibile da quella del secondo
ordine per marginalizzazione.
inoltre evidente che:
a)

1 (1 ) = lim 12 (1 , 2 )

b)

2 (2 ) = lim 12 (1 , 2 )

(18.2.17)

310

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

18.3 - Funzioni di probabilit dordine superiore.


In maniera analoga a quanto fatto nei paragrafi precedenti, si
pu denotare con
12 (1 , 2 , )

(18.3.1)

la probabilit dellevento
E12 = {()|1 1 , 2 2 , , }

(18.3.2)

costituito cio da tutte le manifestazioni del segnale () che, in corrispondenza agli istanti di tempo 1 , 2 , , , assumono valori rispettivamente non superiori a 1 , 2 , .
La 1 2 (1 , 2 , ) costituisce la distribuzione di probabilit
di ordine associata al segnale. Ad essa corrisponde la relativa densit
di probabilit di ordine : 1 2 (1 , 2 , , ):
1 2 (1 , 2 , , ) =

12 (1 , 2 , )
1 2

(18.3.3)

in cui la derivata, anche in questo caso, intesa in senso generalizzato.


Dalla 12 (1 , 2 , , ) si possono dedurre tutte le densit
dordine inferiore per successiva marginalizzazione. Si ha infatti, generalizzando le (18.2.16):

1 21 (1 , , 1 ) = 12 (1 , , )

122 (1 , , 2 ) = 12 (1 , , ) 1
. . . .
. . . . .
.........

(18.3.4)

1 (1 ) = 12 (1 , , ) 1 2

La densit di probabilit dordine deve inoltre soddisfare la


seguente condizione di normalizzazione:

12 (1 , , ) 1 2 1 = 1

(18.3.5)

che esprime la circostanza che i valori assunti dal segnale negli istanti
1 , 2 , , sono certamente limitati.
Si ha:

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

311

12 (1 , , )
1

= 12 (1 , , )1

(18.3.6)

e sono soddisfatte le uguaglianze:


12 (, , ) = 0, 12 (, , ) = 1

(18.3.7)

Da considerazioni analoghe a quelle fatte per dedurre la


(18.2.7) discende:
12 (1 , 2 , , ) 0

(18.3.8)

in tutti i punti in cui 12 (1 , , ) derivabile in senso ordinario; inoltre i pesi delle eventuali delta di Dirac nella
1 2 (1 , 2 , ) non possono essere negativi.
Quando sono note le funzioni di probabilit fino a allordine
di un segnale aleatorio, si dice che esso statisticamente noto fino
all'ordine . evidente che quanto pi elevato tanto maggiori
sono le informazioni che si hanno sulla natura del segnale.
Se i valori assunti dalla generica manifestazione del segnale negli istanti 1 , 2 , , sono statisticamente indipendenti cio se risulta,
qualunque sia l'ordine e comunque scelti gli istanti 1 , 2 , , :
12 (1 , 2 , , ) = 1 (1 )2 (2 ) ( )

(18.3.9)

il segnale si dice puramente casuale. In tal caso la densit di probabilit


del primo ordine contiene gi tutte le informazioni necessarie alla descrizione statistica del segnale.
La funzione di distribuzione di probabilit dordine per un
tale segnale risulta:
1 (1 , , )
1

= 1 () 2 () ()
(18.3.10)

= ( )
=1

essa, cio, come la corrispondente densit di probabilit, si pu esprimere come prodotto di distribuzioni di probabilit del primo ordine rispettivamente valutate in corrispondenza degli istanti di osservazione.

312

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

18.4 - Segnali aleatori deterministici.


Una classe particolare di segnali aleatori costituita dai cosiddetti segnali deterministici. Per essi l'evoluzione della generica manifestazione per valori di pu essere dedotta dalla conoscenza del segnale per < .
Il segnale (, ) = cos(20 + ) ne un esempio, dal momento che nota la frequenza 0 l'osservazione del segnale in almeno
due istanti distinti consente di determinare il valore della fase e
quindi la manifestazione.
In generale un segnale aleatorio deterministico rappresentabile mediante una funzione (, ) in cui = [1 , 2 , , ] un vettore di variabili aleatorie definite su uno stesso esperimento casuale caratterizzato da una distribuzione di probabilit congiunta
(1 , 2 , , ).
18.5 - Segnali dipendenti da una variabile aleatoria monodimensionale
funzioni di probabilit del primo ordine.
Sia = (, ) un segnale dipendente da una variabile aleatoria
monodimensionale . Si vuole determinare la distribuzione di pro-

babilit del primo ordine ad esso associata, nota che sia la densit di
probabilit di .
A tal fine si ricorda che la () () eguaglia la probabilit che il
segnale allistante assuma un valore non superiore ad . Tale eventualit si verifica tutte e sole le volte che la variabile aleatoria assume valori appartenenti allinsieme I, = 1 (, (, ]) In altri
termini () () = Pr{I, }, nellipotesi in cui I, costituisca un evento per .
Questultima ipotesi certamente soddisfatta, in quanto il segnale, in virt della sua definizione, individua in ogni istante una variabile aleatoria sullo spazio dei risultati dellesperimento casuale. Nel
caso in esame linsieme dei risultati , quindi (, ) una funzione
misurabile di . Ci significa che linsieme I, di Borel, (misurabile
nel senso di Lebesgue) ad esso quindi possibile attribuire una probabilit nota che sia la densit di probabilit () della variabile
aleatoria . In definitiva si pu quindi scrivere:

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

313

( ) () = Pr{ 1 (, (, ])} = ()

(18.5.1)

opportuno sottolineare che lintegrale che compare nella


precedente va inteso come una distribuzione qualora la () contenga delle delta di Dirac.
Si consideri adesso il caso particolare in cui la variabile aleatoria = (, ) sia di tipo continuo, la variabile aleatoria sia anche
essa di tipo continuo caratterizzata da una distribuzione di probabilit () derivabile dappertutto. Si supponga inoltre che il segnale in
ogni istante sia rappresentabile mediante una funzione derivabile di
che sia priva di tratti costanti.
Si osservi che lequazione = (, ) nel piano (, , ) rappresentabile mediante una famiglia di curve parametrizzate dal tempo.
Assegnato un istante si consideri la funzione di , =
(, ), (v. Fig. 18.4.
Si consideri quindi
sullasse lintervallo
I = (

, +

];

ad esso corrisponde
un'immagine inversa
1 (, I ), che si supFig. 18.4 - rappresentazione sul piano (O, Z, s) .
pone costituita da
ununione finita o al
pi numerabile di intervalli a due a due disgiunti I , cui appartengono rispettivamente le soluzioni dellequazione = (, ) (v. Fig.
18.4 sia cio:

1 (, I ) = I
=1

(18.5.2)

La probabilit che nell'istante il segnale assuma un valore


appartenente all'intervallo I , uguale alla probabilit che la variabile
aleatoria Z assuma un valore appartenente all'evento E =
=1 I . Si
pu quindi scrivere:

Pr{ } = Pr{E} = Pr{I }


=1

(18.5.3)

314

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

dal momento che gli eventi che costituiscono E sono a due a due disgiunti. Si osservi inoltre che per le ipotesi fatte sul segnale, al tendere a zero della misura || di anche la misura | | del generico
tende a zero; la (18.5.3) quindi, a meno dinfinitesimi di ordine superiore al primo, si pu riscrivere nella forma:

() ()|| =

=1

( )| |

(18.5.4)

dalla quale si pu concludere che:


() () = 0 se: | = (, ) ( ) = 0

(18.5.5)

Inoltre, per tutti i valori di in corrispondenza ai quali risulta


|

(,)

|, 0 , dividendo ambo i membri della (18.5.4) per ||

e passando al limite per 0, si ottiene:

() () = lim
0

=1

( )
||
||

=1 |

( )
(,)

(18.5.6)

In corrispondenza agli eventuali valori di per i quali risulta che


|

(,)

= 0 la () () non definita; tuttavia la () () risulta de-

finita quasi ovunque dalle (18.5.5) e (18.5.6), in quanto tali punti costituiscono, per le ipotesi fatte, un insieme al pi numerabile.
Si faccia ora riferimento al caso in cui il segnale = (, ) sia
rappresentato da una funzione costante a tratti della variabile aleatoria continua ; cio il segnale, fatta
eccezione al pi per un insieme di
manifestazioni che si presentano
con probabilit nulla, pu assumere soltanto valori appartenenti ad
Fig. 18.5 - rappresentazione sul piano
un sottoinsieme di A al pi
(O, Z, s) , costante a tratti.
numerabile, com indicato in Fig.
18.5.
Ci si convince facilmente che la () () in questo caso di tipo discreto. Infatti, facendo riferimento alla Fig. 18.5, la probabilit
che il segnale assuma il valore data da:

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

= Pr{(, ) = } = ()

315

(18.5.7)

dove lintegrale esteso a I = 1 (, { }), cio alla controimmagine


dellinsieme { }, che il segnale individua nel generico istante di tempo nellinsieme dei valori assunti dalla variabile aleatoria cui esso
associato.
La funzione distribuzione di probabilit del primo ordine
() () associata al segnale presenta, in corrispondenza al generico
, un salto di valore (). Il valore da essa assunto dato da

= () e () () mantiene tale valore fino ad +1 . La () ()

si presenta quindi in ogni istante fissato come una funzione a scala.


La densit di probabilit () () conseguentemente espressa
dalla:

() () = ()( )
=

(18.5.8)

Esempio 18.2
Si consideri il segnale
(, ) = cos(20 + )

Fig.E 18.3

dove denota una variabile


casuale caratterizzata da una
densit di probabilit del primo
ordine data da ().
Se || < 1 l'equazione
= cos(20 + )

presenta soluzioni
generate dalle (v. Fig.E 18.3)
Fig. E.IV.3

20 + = arccos + 2
20 + = arccos + 2

Poich :

= sin(20 + )

risulta:
|

| = |sin(20 + )| = 1 cos2 (20 + )


| |
= |sin(20 + )| = 1 cos2 (20 + )

}

= 1 2

316

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Quindi:
() () =

1
1 2

[ ( ) + ( )]

Se uniformemente distribuita in [0, 2], qualunque sia l'istante ,


la sommatoria che compare nella precedente, contiene due soli termini
non nulli ottenuti in corrispondenza ai valori di dati dalla:
= 0

arccos

In definitiva risulta:
() () =

1
1

(2 )

il cui andamento in funzione di riportato in Fig.E 18.4a).


La distribuzione di
probabilit si ottiene per
integrazione della precedente. Si ha:
() ()
1 arcsin

=( +
)( )
2

2
Fig.E 18.4

+ u( 1)

ed rappresentata nella Fig.E 18.4 b).


funzioni di probabilit dordine superiore al primo.
Sia (, ) un segnale aleatorio rappresentato da una funzione
che, rispetto alla variabile aleatoria continua , sia derivabile e non

presenti tratti costanti.

Posto I1 = (1 21 , 1 + 21), I2 = (2 22 , 2 + 22) la


probabilit che si verifichi l'evento:
E = {(, )|2 = (2 , ) I2 1 = (1 , ) I1 }

(18.5.9)

a meno di infinitesimi dordine superiore , vale:


Pr{E} = 2 1 (2 , 1 )2 1

(18.5.10)

Questultima pu essere espressa in termini della variabile aleatoria


osservando che all'istante 1 esiste un numero finito, o al pi uninfinit numerabile, di intervalli elementari a due a due disgiunti tali che
risulti:

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit 1

=1 J1 = (1 , I1 )

317

(18.5.11)

Ciascuno di questi intervalli, a meno dinfinitesimi dordine superiore, se risulta |

(1 ,)

J1 = (

2|

0 dato da:

1
(1 ,)

, +

2|

1
(1 ,)

(18.5.12)

dove rappresenta la generica soluzione dellequazione 1 =


(1 , ).
La probabilit che la variabile aleatoria appartenga ad uno di
questi intervalli vale a sua volta:
Pr{{ J1 }} = ( )

1
(1 ,)

(18.5.13)

dove la () indica la densit di probabilit di .


Si constata che:
Pr{E} = 1 2 (2 , 1 )1 2

= 2 ( , 2 )
=1

1
(1 ,)

(18.5.14)

Ma se = il segnale allistante 2 assumer con certezza il valore


(2 , ). Pertanto si pu scrivere:
2 ( , 2 ) = (2 (2 , )) ( )

(18.5.15)

che, sostituita nella (18.5.14), consente di scrivere la densit di probabilit del secondo ordine di un segnale deterministico associato ad
una variabile aleatoria monodimensionale:

1 2 (1 , 2 ) =
=1

(2 (2 , )) ( )
|

(1 ,)

(18.5.16)

Le densit di probabilit di ordine pi elevato possono ricavarsi con procedimento analogo.

318

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Esempio 18.3
La densit di probabilit del secondo ordine per il segnale dellesempio precedente per |x 1 |< 1 ed |x 2 |< 1 pu essere scritta nella forma:
12 (1 , 2 )

= [
=

( )
(1 ,)

(2 (2 , )) +

( )
(1 ,)

(2 (2 , ))]

dove
(2 , ) = cos(20 2 + ) = cos(20 (2 1 ) + arccos(1 ))
(2 , ) = cos(20 2 + ) = cos(20 (2 1 ) arccos(1 ))

e
= arccos(1 ) 20 1 + 2
= arccos(1 ) 20 1 + 2

i valori della fase che soddisfano la condizione:


1 = cos(20 1 + )

conseguentemente, per |1 | 1 ed |2 | 1, si ha:


1

{[2 cos(20 (2 1 ) arccos(1 ))] +


21 12
+[2 cos(20 (2 1 ) + arccos(1 ))]}

1,2 (1 , 2 ) =

mentre evidentemente per |1 | > 1 o per |2 | > 1 risulta:


1,2 (1 , 2 ) = 0

18.6 - Segnali dipendenti da un vettore aleatorio.


Si consideri per semplicit il caso di un segnale deterministico
(, ) in cui un vettore aleatorio continuo bidimensionale; inoltre
il segnale sia una funzione continua e priva di tratti costanti delle
componenti di , parzialmente derivabile ovunque.
Posto 1 = (1

1
2

, 1 +

1
2

), 2 = (2

2
2

, 2 +

2
2

), la

probabilit che si verifichi l'evento:


= {(, )|2 2 1 1 }

(18.6.1)

a meno di infinitesimi di ordine superiore data da:


Pr{E} = 12 (1 , 2 )1 2
= Pr{ A= 1 (1 , I1 ) 1 (2 , I2 )}

(18.6.2)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

319

L'insieme A evidentemente costituito, per le ipotesi fatte sul segnale, da una unione al piu numerabile di sottoinsiemi A in 2 a due a
due disgiunti. La (18.6.2) si pu quindi scrivere:

1 2 (1 , 2 )1 2 = (1 , 2 )
=1

1 2
||=

(18.6.3)

dove la coppia1 , 2 rappresenta l-esima soluzione del sistema:


= (1 , 1 , 2 );
{ 1
2 = (2 , 1 , 2 );

(18.6.4)

e || il modulo del determinante Jacobiano


(1 , 1 , 2 )
(1 , 2 )
1
=
= ||
(2 , 1 , 2 )
(1 , 2 )
1

(1 , 1 , 2 )
2
|
(2 , 1 , 2 )|
2

(18.6.5)

Si osservi che per valutare le densit di probabilit del primo


ordine basta marginalizzare le (18.6.3)rispetto ad una delle due variabili 1 , 2 .
In modo analogo si determinano le densit di probabilit nel
caso in cui il segnale dipenda da un vettore aleatorio -dimensionale.
In tal caso si procede alla determinazione della densit di probabilit
dordine e per successive marginalizzazioni si possono via via ottenere le densit di probabilit dordine inferiore.
Esempio 18.4
Sia
(, , ) = cos(20 + )

un segnale aleatorio dipendente da due variabili aleatorie V, che si suppongono statisticamente indipendenti e caratterizzate da densit di probabilit del primo ordine che valgono:
() =

22
1

2 u(); () =

(
)
2

2
2

Il sistema (IV.2.20) in tal caso diventa:


= cos(20 1 + );
{ 1
2 = cos(20 2 + );

La prima delle (a) fornisce


1 = arccos

1
1
20 1 1 = arccos 20 1

320

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

pertanto risulta:
cos1 = cos (arccos
= cos (arccos
=

1
20 1 )

1
1
) cos20 1 + sin (arccos ) sin2f0 t1

1
12
cos20 1 + 1 2 sin2f0 t1

sin1 = sin (arccos


= sin (arccos
= 1

1
20 1 )

1
1
) cos20 1 cos (arccos ) sin(20 1 )

12
1
cos20 1 sin20 1
2

ed analogamente:
1 =

1
12
cos(20 1 ) 1 2 sin(2f0 t1 );

1
12
sin1 = cos(20 1 ) 1 2 sin(2f0 t1 );

D'altra parte la seconda delle (a) pu anche scriversi:


2 = (cos(20 2 )cos sin(20 2 )sin)

sostituendo si ottiene:
2
= (

1
12
cos(20 1 )cos(20 2 ) + 1 2 cos(20 1 )sin(20 2 )

12
1
sin(2f0 t1 )cos(20 2 ) + sin(2f0 t1 )sin(20 2 ))
2

= 1 cos20 (2 1 ) 2 12 sin(20 (2 1 ))

che risolta rispetto a fornisce


=

12 + 22 21 2 cos(20 (2 1 ))
|sin(20 (2 1 ))|

supposto 2 (2 1 ) .
0
Per la soluzione 1 analogamente si ottiene

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

321

2 = 1 cos(20 (2 1 )) + 2 12 sin(20 (2 1 ))

che risolta rispetto a fornisce


=

12 + 22 21 2 cos(20 (2 1 ))
=
|sin(20 (2 1 ))|

Lo Jacobiano della trasformazione vale


cos(20 1 + ) sin(20 1 + )
=|
| = sin(20 (2 1 ))
cos(20 2 + ) sin(20 2 + )

quindi la densit di probabilit del secondo ordine cercata data da:


12 (1 , 2 ) =
=

()
( )
+
2|sin(20 (2 1 ))| 2 |sin(20 (2 1 ))|

()
|sin(20 (2 1 ))|

che sostituendo alla variabile la sua espressione in termini di x1 ed x2


diventa:
2

12 (1 , 2 ) =

12cos(20(2 1 ))
12 + 22 21 2 cos(20 (2 1 )) 1+22
22 sin2 (20 (21 ))

2
2
sin (20 (2 1 ))

18.7 - Segnali distinti. Funzioni di probabilit congiunte.


Siano () e () due segnali aleatori a tempo continuo, definiti sullo stesso spazio di probabilit. Si prenda in considerazione l'evento il cui generico elemento una coppia di manifestazioni
((), ()) tale che () all'istante 1 , assuma un valore appartenente
alla semiretta = (, ] e che, all'istante 2 , () assuma un valore
appartente a = (, ].
Si osservi che la probabilit dellevento , oltre che da e da
, dipende evidentemente anche dagli istanti 1 e 2 dosservazione,
risulta:
Pr{ } = 1 2 (, )

(18.7.1)

dove la funzione 1 2 (, ) rappresenta la distribuzione di probabilit


congiunta associata ai due segnali.
Naturalmente tale distribuzione di probabilit, indipendentemente dagli istanti di tempo considerati, soddisfa le condizioni:
a)

1 2 (, ) = 1

b)

1 2 (, ) = 0

(18.7.2)

322

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La corrispondente funzione di densit di probabilit congiunta


1 2 (, ) la derivata mista, eventualmente intesa in senso generalizzato, della 1 2 (, ) e soddisfa le condizioni:
1 2 (, ) = 1
2

(18.7.3)

1 2 (, ) = 1 2 (, )

(18.7.4)

Introducendo le densit di probabilit condizionate la funzione 1 2 (, ) pu essere scritta come segue:


a)

1 2 (, ) = 1 () 2|1 (, )

b)

1 2 (, ) = 2 () 1 |2 (, )

(18.7.5)

dove 1 () e 2 () denotano le densit di probabilit del primo


ordine associate ai segnali () e (), valutate negli istanti 1 e 2 rispettivamente.
Essendo peraltro:

1 |2 (, ) = 2|1 (, ) = 1

(18.7.6)

si ottiene per integrazione delle (18.7.5)

a)

1 () = 1 2 (, )

b)

2 () = 1 2 (, )

(18.7.7)

che consentono di determinare le densit di probabilit del primo


ordine associate ai segnali () e () nota che sia la loro densit di
probabilit congiunta.
Se risulta:
1 2 (, ) = 1 () 2 ()

(18.7.8)

i segnali si dicono congiuntamente statisticamente indipendenti. Dal confronto tra le (18.7.5) e la 0(18.7.8) discende che in questo caso:
a)

1 |2 (, ) = 1 ()

b)

2|1 (, ) = 2 ()

(18.7.9)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

323

cio: la probabilit che una manifestazione del segnale () (()) as


suma all'istante 1 (2 ) un valore compreso nell'intervallo ] 2 , +

] (]

, +

]) indipendente dal valore assunto dal sgnale

() (()) all'istante 2 (1 ).
Esempio 18.5
Sia z(t) un segnale aleatorio
dato da:
() = ((), ())

funzione cio di due segnali ()


e () dei quali sia assegnata la
densit di probabilit congiunta.
Per determinare la densit di
Fig.E 18.5
probabilit del primo ordine di
() basta osservare che la corrispondente funzione di distribuzione di probabilit si ottiene dalla:
() () = Pr{() }

Detta allora la regione del piano (, , ) (v. Fig.E 18.5) costituita da


tutte le coppie (, ) per le quali risulti (, ) . evidente che il
valore assunto dalla () () quando il suo argomento dato da:
() () = Pr{(, ) } = ()() (, )

E' da notare che la regione potrebbe non essere semplicemente connessa come mostra la Fig. E.IV.5
Dalla () () si deduce immediatamente:
() () =
Fig.E 18.6

() ()

Nel caso in cui il segnale () la


somma dei segnali () e (), la regione costituita da tutte le coppie (, ) che soddisfano la disugualianza:
+

tale regione il semipiano evidenziato in Fig. E.IV.6.


Si ha pertanto:

324

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

() () =

()() (, )

quindi:

() () = ()() (, )

Nellulteriore eventualit in cui i segnali () e (), siano statisticamente indipendenti la precedente assume la forma:

() () = () ()() ( )

la densit di probabilit cercata quindi in questo caso data dalla convoluzione tra le densit di probabilit dei due segnali.

CAPITOLO - 19
VALORI MEDI, STAZIONARIET ED ERGODICIT
19.1 - Medie statistiche.
Sia (, ) un segnale aleatorio associato ad un esperimento
casuale di cui rappresenta il generico risultato, al quale corrisponde
una densit di probabilit del primo ordine data da () (). Per un
assegnato valore di individuata una variabile aleatoria = (, )
della quale si pu calcolare il valore medio, il valore quadratico medio, la varianza, o pi in generale, la media di una qualunque funzione misurabile = ():

= ()() ()
{()} = ()

(19.1.1)

opportuno qui sottolineare che la media espressa dalla


(19.1.1) dipende in genere dall'istante di osservazione .
Se () = (con intero) dalla (19.1.1) si ottiene il valore
medio statistico della potenza -esima del segnale:

() = () ()

(19.1.2)

che costituisce il momento -esimo del primo ordine del segnale


().
In particolare risulta:

0 () = () () = 1

(19.1.3)

Per = 1 si ha:

() = {(, )} = = () ()

(19.1.4)

che prende il nome di valore medio statistico del segnale.


Per = 2 si deduce:

2 () = { 2 (, )} =
2 = 2 () ()

(19.1.5)

326

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che rappresenta il valore quadratico medio statistico del segnale.


La varianza del segnale vale evidentemente:
2 () = {((, ) ())2 } =
( ())2

= ( ())2 () ()

(19.1.6)

Pi in generale il suo momento centrale -esimo del primo ordine


vale:

() () = ( ()) () ()

(19.1.7)

2 () = 2 () 2 ()

(19.1.8)

risulta:
Nel caso in cui la generica manifestazione del segnale (, )
dipenda dal valore assunto da un vettore aleatorio a dimensioni,
il valore medio di una qualunque funzione ((, )) misurabile pu
essere calcolato anche utilizzando il teorema della:

= ()() () = ((, ) ()
()

(19.1.9)

dove () denota la densit di probabilit congiunta associata al


vettore aleatorio da cui dipende il segnale.
In generale dato un segnale = (, ) fissata upla 1 , ,
viene individuato un vettore di variabili aleatorie definite su di uno
stesso esperimento casuale le cui componenti sono rispettivamente:
1 = (1 , ), , = ( , ). Data una generica funzione misurabile
() definita in uno spazio -dimensionale possibile definire la
media statitistica di tale funzione ponendo:
= {()} = () ()
()
1 2

(19.1.10)

dove 12 () indica la densit di probabilit di ordine del segnale.


In particolare, considerando solo due istanti di tempo 1 , 2 la
precedente si riduce alla:

(1 , 2 ) = (1 , 2 )1 2 (1 , 2 )1 2
2

(19.1.11)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

327

Se in particolare (1 , 2 ) = 1 2 dalla (19.1.11) si ottiene il


momento ( + )-esimo del secondo ordine del segnale:


(1 , 2 ) =
1 2 = {1 2 }

= 1 2 1 2 (1 , 2 )1 2

(19.1.12)

che in particolare per = = 0 si riduce alla:


00 (1 , 2 ) = 1 2 (1 , 2 )1 2 = 1
2

(19.1.13)

e per = = 1 fornisce la cosiddetta funzione di autocorrelazione


(1 , 2 ) del segnale:
(1 , 2 ) 11 (1 , 2 ) = 1 2 1 2 (1 , 2 )1 2
2

(19.1.14)

Si possono anche definire dei momenti centrali ( + )-esimi


del secondo ordine:
(1 , 2 ) =
(1 (1 )) (2 (2 ))

= (1 (1 )) (2

R2
(2 )) 12 (1 , 2 )1 2

(19.1.15)

in particolare il momento centrale 11 prende il nome di autocovarianza e risulta:


(1 , 2 )
(1 (1 ))(2 (2 ))
=
1 2 1 (2 ) (1 ) 2 + (1 )(2 )
=
1 2 (1 )(2 ) = (1 , 2 ) 1 2

(19.1.16)

I momenti centrali 20 e 02 individuano la varianza del segnale valutata negli istanti 1 e 2 rispettivamente:
a)

20 (1 ) = 2 (1 ) =
(1 (1 ))2

b)

02 (2 ) = 2 (2 ) =
(2 (2 ))2

(19.1.17)

Anche nel caso di due segnali aleatori distinti () e (), si


pu definire il valore medio statistico della funzione (1 , 2 ) mediante la:

(1 , 2 ) = {(1 , 2 )} = (, )1 2 (, )
2

(19.1.18)

328

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo rispettivamente 1 e 1 le variabili aleatorie (1 ) e (2 ) e


dove 1 2 (, ) denota la densit di probabilit congiunta dei due
segnali.
Il momento incrociato ( + )-esimo allora definito dalla:

1 2 = {1 2 } = 1 2 (, )
2

(19.1.19)

Qualora i segnali siano statisticamente indipendenti risulta evidentemente:


1 2 =
1
2

(19.1.20)

cio il valore medio del binomio 1 2 si ottiene dal prodotto dei va

lori medi delle quantit 1 e 2


Se si pone nella (19.1.19) = = 1 si ha:
(1 , 2 ) =
1 2 = {1 2 } = 1 2 (, )
2

(19.1.21)

che costituisce la funzione di correlazione incrociata o di mutua correlazione


associata ai due segnali.
I momenti centrali ( + )-esimi incrociati, sono definiti come
segue:

(1 1 ) (2 2 ) = {(1 1 ) (2 2 ) }
= ( 1 ) ( 2 ) 1 2 (, )

(19.1.22)

Ponendo = = 1 si ha:

(1 , 2 ) (
2 )
1 1 )(2
= {(1 1 )(2 2 )}
= ( 1 )( 2 )12 (, )

(19.1.23)

che la covarianza mutua. Si ottiene facilmente:

(1 , 2 ) = (
2 )
1 1 )(2

=
1 2 1 2 1 2 +
1 2
= (1 , 2 ) 1 2

(19.1.24)

Nel caso in cui i segnali siano statisticamente indipendenti risulta (1 , 2 ) = 1 2 , quindi:


(1 , 2 ) = 0

(19.1.25)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

329

Esempio 19.1
Si prenda in considerazione il segnale (, ) = (20 + )
analizzato nell'Esempio 18.2. Il suo valore medio risulta:

= () () =

1 1

1 1 2

che ponendo = si scrive


=

1
cos = 0
0

Il suo valore quadratico medio vale:


1

1
2 2 1 2
1

2 = 2 () () =
= cos =
2

2
1

0
1

Agli stessi risultati possibile pervenire utilizzando la (19.1.9). Si ha


infatti:

= (, ) () =

1 2
cos(20 + ) = 0
2 0

1 2 2
1

2 = 2 (, ) () =
cos (20 + ) =
2 0
2

19.2 - Stazionariet.
Un segnale aleatorio () si dice stazionario in senso stretto se le
sue funzioni di probabilit, di qualsiasi ordine dipendono esclusivamente dalla posizione relativa degli istanti in cui il segnale viene osservato. Cio se risulta:
(1)() (1 , 2 , , )
= (1+)( +) (1 , 2 , , );

(19.2.1)

Se la precedente vale solo , il segnale si dice stazionario


all'ordine .
La condizione (19.2.1)comporta che la densit di probabilit
di ordine dipenda dalle differenze = fra gli istanti di osservazione.
In particolare per = 2 si ha:
(1)(2) (1 , 2 ) = (1)(2) (1 , 2 )

(19.2.2)

330

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

ogniqualvolta risulti 2 1 = 2 1 , mentre la densit di probabilit del primo ordine deve risultare indipendente dal tempo:
() = (1) () = (2) ();

1 , 2

(19.2.3)

Si noti che dal momento che la densit di probabilit di ordine


1 pu essere dedotta da quella di ordine la stazionariet all'ordine comporta quella agli ordini inferiori, ma non il viceversa.
Una classe importante di segnali costituita dai segnali stazionari in senso lato. Un segnale si dice stazionario in senso lato se risulta:
a)

(, ) = cost

b)

(1 , )(2 , ) = (2 1 )

(19.2.4)

cio se il suo valore medio indipendente dal tempo e se la sua l'autocorrelazione dipende solo dalla differenza fra gli istanti 2 e 1 .
E' evidente che, essendo (0) =
2 () la stazionariet in senso lato implica che anche il valore quadratico medio non dipende da
.
E' opportuno osservare che un segnale stazionario in senso
stretto lo anche in senso lato, ma non viceversa giacch, ad esempio, l'invarianza temporale del momento del secondo ordine non implica necessariamente quella della corrispondente densit di probabilit.
Esempio 19.2
Si prenda in esame il segnale () definito dalla:
() = cos + sin

essendo e due quantit aleatorie tali che risulti:


2 =
2 = 2
= 0

Il valor medio di () vale:


= cos +
()

Per quanto riguarda la funzione di autocorrelazione, si ha:

(1 )(2 )
[cos1 sin2 + sin1 cos2 ]
= 2cos1 cos2 +
2sin1 sin2 +

che per le ipotesi fatte, diventa:


2
2

(
1 )(2 ) = [cos1 cos2 + sin1 sin2 ] = cos((2 1 ))

Un tale segnale quindi stazionario in senso lato solo se risulta

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

331

= = 0

Esempio 19.3
Si consideri il segnale
() = cos(20 + )

in cui una variabile aleatoria definita in (0,2) e caratterizzata dalla


densit di probabilit del primo ordine ().
Per determinare le condizioni sotto le quali () un segnale stazionario in senso stretto, si prenda in considerazione la sua funzione caratteristica di ordine , che individua univocamente la sua densit di probabilit di ordine
Detto = {1 , 2 , , } un insieme di istanti di tempo, si ha:

(, ) = exp[ cos(20 + )]
=1
2

exp[ cos(20 + )] ()
=1

per = {1 + , 2 + , , + } la funzione caratteristica vale:


(, ) =

2(1+0 )

e =1 cos(20 ++20 ) ()

=1 cos(20 +)

20

( + 20 )

Affinch il segnale risulti stazionario in senso stretto (, ) =


(, ) in corrispondenza ad ogni indice , per ogni possibile scelta di
e per ogni valore di .
dato che la quantit

e =1 cos(20 +)

indipendentemente da periodica di periodo 2 in si intuisce facilmente che lunica densit di probabilit (). che rende il segnale in
questione stazionario in senso stretto quella uniforme deve cio essere:
() =

( 2 )
2

Esempio 19.4
Si consideri il seguente segnale aleatorio

332

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

cos20 + sin20 Pr =
() =

1
3
1
{cos20 Pr = 3

1
3

sin20 Pr =

Ci significa lo spazio dei risultati partizionato in tre eventi E1 , E2 , E3 ,


equiprobabili, ai quali sono associate le tre possibili manifestazioni.
Il segnale qui considerato stazionario in senso lato. Infatti, il suo valor medio:
1
1
1
= (cos20 + sin20 ) sin20 cos20 = 0
()
3
3
3

nullo (quindi indipendente da ) e la sua funzione di autocorrelazione:

(1 )(2 )
1
1
= (cos20 1 + sin20 1 )(cos20 2 + sin20 2 ) sin20 1 sin20 2
3
3
1
1
cos20 1 cos20 2 = (cos20 1 sin20 2 + sin20 1 cos20 2 )
3
3
1
= cos(20 (1 2 ))
3

dipende soltanto dalla differenza 2 1 .


Il segnale per non stazionario in senso stretto. Per rendersene conto, basta osservare che la densit di probabilit del primo ordine all'istante = 0 vale:
1
1
1
(0) () = ( 1) + () + ( + 1)
3
3
3

e
(

1
)
80

2
1
2
() = ( + ) + ( 2)
3
2
3

quindi:
(0) () (

1
)
80

()

19.3 - Medie temporali ed ergodicit.


Le considerazioni sin qui svolte mostrano come possibile ottenere delle informazioni su un segnale aleatorio a partire dall'insieme delle sue manifestazioni note che siano le sue funzioni di probabilit.
In molti casi si hanno a disposizione alcune manifestazioni del
segnale (se non una sola) dalle quale possono dedursi solo quelle in-

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

333

formazioni che si ottengono utilizzando le cosiddette medie temporali.


Se () denota la generica manifestazione di un segnale aleatorio, la quantit
1
[()]
2

< [()] >= lim

(19.3.1)

se esiste, costituisce la media temporale della funzione f (s) associata alla manifestazione () del segnale.
Dalla (19.3.1) si possono in particolare dedurre il valore medio
temporale:
1
()
2

< () >= lim

(19.3.2)

e il valore quadratico medio temporale:


1 2
()
2

< 2 () >= lim

(19.3.3)

che esprime la potenza media specifica associata alla manifestazione


().
Pi in generale si pu definire una media temporale associata
alla funzione [(1 + ), (2 + ), , ( + )]
< [(1 + ), (2 + ), , ( + )] >
1
= lim
[(1 + ), (2 + ), , ( + )]
2

(19.3.4)

Dalla precedente in particolare discende l'espressione della


funzione di autocorrelazione in media temporale (7.6.1), per segnali reali.
infatti:
1
()( + )
2

() =< ()( + ) >= lim

(19.3.5)

E' da notare che, in ogni caso, le medie temporali, fornite dalla


(19.3.2)o dalla (19.3.4), definiscono altrettante variabili aleatorie, dato
che esse dipendono dalla manifestazione del segnale che si prende in
considerazione. quindi possibile definire un loro valore medio statistico a mezzo della:

334

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

< [()] >= lim


[()]
2
1
= lim

[()] =<
[()] >
2

(19.3.6)

In maniera analoga, partendo dalla (19.3.4) si perviene alla:

< [(1 + ), (2 + ), , ( + )] >=


<
[(1 + ), (2 + ), , ( + )] >

(19.3.7)

Le (19.3.6) e (19.3.7) stanno a significare che le operazioni di


media temporale e media statistica possono essere tra loro permutate.
Le medie temporali, di per s, non permettono dunque di ottenere delle informazioni di natura statistica del segnale. Tuttavia esiste una particolare classe di segnali per i quali ogni propriet statistica
pu essere determinata a partire da una qualsiasi manifestazione. In
altri termini, qualsiasi operazione di media effettuata nel tempo su
una generica manifestazione conduce agli stessi risultati se si effettua
l'operazione analoga sulla base dell'insieme delle manifestazioni.
Un segnale di tale tipo si dice ergodico. In genere si interessati
ad un particolare caratteristica del segnale (valore medio, potenza
specifica o autocorrelazione). Di conseguenza l'ergodicit viene formulata limitatamente alla caratteristica dinteresse in quanto se un segnale aleatorio ergodico rispetto a certi parametri pu non esserlo
per altri.
In particolare un segnale si dice ergodico in media quando risulta:

1
() = () ()
2

lim

(19.3.8)

si dice ergodico in media quadratica se:

1 2
() = 2 () ()
2

lim

(19.3.9)

La condizione di ergodicit limitata alla funzione di autocorrelazione conduce alla:


() = ()

cio:

(19.3.10)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

335

1
()( + ) = 1 2 (, )
2
R2

(19.3.11)

lim

In questo caso si pu affermare che un segnale ergodico in autocorrelazione deve presentare una media temporale () indipendente dalla manifestazione e una media statistica () dipendente
solo dalla differenza tra gli istanti di osservazione 2 e 1 .
Pi in generale, affinch la condizione di ergodicit sia soddisfatta, e necessario che le medie temporali non dipendano dalla particolare manifestazione sulla quale vengono calcolate, e che le medie
statistiche non dipendano dallorigine dei tempi, ma soltanto dalla
posizione relativa tra gli istanti in cui la media statistica valutata.
Ci significa che una condizione necessaria per lergodicit la stazionariet in senso stretto.
Per meglio comprendere il significato della condizione di ergodicit si prenda in considerazione la (19.3.1), l'integrale che vi
compare, pu essere valutato dividendo l'intervallo [, ] in subintervalli contigui di uguale ampiezza e quindi passando al limite
per :

1
2

< (()) >= lim

( ( + 2))
2

=1

= lim ( ( + 2))

(19.3.12)

=1

D'altra parte la media statistica pu essere espressa in una


forma analoga alla (19.3.12) mediante la:

1
((, ))

= lim
[]

(19.3.13)

=1

cio come limite della somma dei valori assunti all'istante da un insieme di manifestazioni del segnale divisa per al tendere di all'infinito.
La condizione di ergodicit in media comporta l'uguaglianza
dei limiti (19.3.12) e (19.3.13) quindi il poter assumere per sufficientemente elevato

336

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

=1

=1

1
2
1
( ( + )) ((, ))

(19.3.14)

Ci significa che la somma dei valori assunti dalla funzione () in


corrispondenza all'insieme dei valori assunti all'istante dalle possibili manifestazioni del segnale, eguaglia la somma dei valori assunti dalla funzione valutata in corrispondenza di una qualsiasi manifestazione al variare del tempo.
In altri termini i valori che assume al variare del tempo una
manifestazione, si ritrovano in una qualsiasi altra, con la stessa frequenza, seppur disposti in un diverso ordine temporale. Ogni manifestazione pu quindi pensarsi ottenuta rimescolando i valori che
tutte le manifestazioni assumono in un istante qualsiasi.
19.4 - Ergodicit delle funzioni di probabilit del primo
ordine.
L'ipotesi di ergodicit,
discussa nel precedente paragrafo, pu consentire di valutare le funzioni di probabilit del
primo ordine di un segnale
aleatorio pur disponendo soltanto di una manifestazione di
Fig. 19.1 - Ergodicit delle funzioni di
esso.
probabilit
A tale scopo si consideri
un segnale aleatorio (, ) e sia un reale qualsiasi. A (, ) si associ un nuovo segnale ((, )) cos definito:
((, )) = u( (, ))

(19.4.1)

Il segnale ((, )) in ogni istante individua una variabile


aleatoria di tipo discreto, che pu assumere solo valori appartenenti
all'insieme {0,1} com indicato nella Fig. 19.1.
Risulta:
Pr{ ((, )) = 0} = Pr{(, ) > }
Pr{ ((, )) = 1} = Pr{(, ) }

Il valore medio statistico di ((, )) vale:

(19.4.2)

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

((, )) = 1 Pr{(, ) } + 0 Pr{(, ) > }


= Pr{(, ) } = () ()

337

(19.4.3)

dove () () denota la funzione distribuzione di probabilit del primo ordine associata al segnale ().
D'altra parte la media temporale di una data manifestazione
((, )) del segnale vale:

1 2
((, ))

< ((, )) >= lim

= lim


[ 1 ((, ], ) [ , ]]

(19.4.4)

2 2

Dove ( 1 ((, ], ) [ 2 , 2]) la misura dell'insieme degli


istanti di tempo appartenenti a [ 2 , 2] in corrispondenza ai quali la


manifestazione del segnale non supera (v. Fig. 19.1).
Se la condizione di ergodicit soddisfatta deve aversi indipendentemente dalla manifestazione considerata:

() () = lim

(1 ((, ], ) [ 2 , 2])

(19.4.5)

Esempio 19.5
Si consideri ancora il segnale
(, ) = cos(20 + )

dove la fase una variabile uniformemente distribuita in [0,2].


Sulla base della Fig.E 19.1 facile riconoscere che un generico istante di tempo per il quale (, ) deve soddisfare la disuguaglianza:
2 + arccos 20 + (2 + 1) arccos

la quale, al variare dellintero e per [1,1], identifica la famiglia di


intervalli:
= [

2 + arccos (2 + 1) arccos
,
]
20
20

338

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

nei quali la ((, )) assume il valore 1. La misura di ogni intervallo non dipende n dalla manifestazione n dallindice e vale
2arccos
20

La ((, )) periodica pertanto la sua media temporale coincide


con quella in un periodo si ha quindi:
0;

1 arccos
< ((, )) >= {0 =
;
2

1;

1
1 < < 1
1

Si pu constatare che la media appena ottenuta coincide con la distribuzione di probabilit


del
segnale
(vedi
Esempio 18.2).
In effetti il segnale
in questione risulta ergodico seppur limitatamente alle medie del
primo ordine. Infatti,
data una funzione ()
Fig.E 19.1
integrabile alla Lebesgue in [1,1], risulta:
1
(cos(20 + ))
2

< (cos(20 + )) >= lim


1
0

1
0

= 0 (cos(20 + )) = 0 (cos(20 ))
0

1
(cos())
2 0

La corrispondente media statistica vale:

(cos(20 + )) = (cos(20 + )) ()

1
1 2
(cos(20 + )) =
(cos())
2 0
2 0

Pertanto per le medie del primo ordine la condizione di ergodicit


soddisfatta poich risulta:
< (cos(20 + )) >=
(cos(20 + )) =

1 2
(cos())
2 0

CAPITOLO - 19 Valori Medi, Stazionariet ed Ergodicit -

339

Il segnale in questione non tuttavia ergodico come si pu verificare


calcolando medie di ordine superiore al primo.

CAPITOLO - 20
SEGNALI GAUSSIANI
20.1 - Variabili aleatorie congiuntamente gaussiane.
Sia dato un vettore = [1 , 2 , , ] di variabili aleatorie
definite su di uno stesso esperimento casuale. Le variabili
1 , 2 , , si dicono congiuntamente gaussiane se la loro densit di
probabilit congiunta del tipo:
1

(1 , 2 , ) = 2(1 1 ,2 2 ,, )

(20.1.1)

dove una forma quadratica definita positiva:

= ( )( );

(20.1.2)

=1 =1

unopportuna costante di normalizzazione ed 1 , 2 , co-

stanti reali.
Ponendo:
= [1

] ; = [1

(20.1.3)

e introducendo la matrice12:

11
21
=[
1

12
22

1
2
]

(20.1.4)

la densit di probabilit (20.1.1) pu ulteriormente scriversi:


1

1 ()

() = 2()

(20.1.5)

20.2 - Funzione caratteristica di variabili aleatorie congiuntamente gaussiane.


La funzione caratteristica associata al vettore aleatorio
= . Detta funzione per definizione vale:

() =
=
()

12

(20.2.1)

Si noti che la forma quadratica definita positiva quindi la matrice dei coefficienti ad essa associata certamente non singolare.

342

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

dove:
1
2
= [];

1 1
2 2
=[ ]

(20.2.2)

Tenuto conto dell'espressione della densit di probabilit (20.1.5), la


(20.2.1) si pu ancora scrivere:
()

()1() 1 ()
2

1
2

(20.2.3)

Sia una matrice ortonormale che diagonalizza la matrice ,


cio tale che si abbia:
= diag[1 , 2 , , ]

(20.2.4)

essendo:
1
0
diag[1 , 2 , , ] = [

0
2

0
0
]

(20.2.5)

i cui elementi, come noto, sono gli autovalori della matrice .


Dalla (20.2.4) discende facilmente:
1 = diag [

1 1
1
, ,, ]
1 2

(20.2.6)

Se nell'integrale all'ultimo membro della (20.2.3) si effettua la seguente trasformazione di variabili:


= 1 =

(20.2.7)

cui, in virt della ortonormalit della matrice , corrisponde un determinante Jacobiano di modulo unitario. Si ottiene:
1 1
2

() =

(20.2.8)

Ponendo inoltre:
=

Tramite la (20.2.4), si ottiene ancora:

(20.2.9)

CAPITOLO - 20 Segnali Gaussiani -

() =

1
2

diag(

=1(

2
)
2

343

1 1
1
, ,, )
1 2

=
=1

(20.2.10)

Lintegrale ad argomento della produttoria riconducibile allintegrale noto:

2
2
= 4

(20.2.11)

Con anche complesso purch con parte reale strettamente positiva.


1
ponendo = e 2 = in ogni fattore della produttoria nella (20.2.10),

otteniamo:

() =
=1

1 2

= 2

(20.2.12)

=1

Calcolando la produttoria all'ultimo membro della precedente


si ottiene per la funzione caratteristica associata alle variabili aleatorie = l'espressione:

1
2

() = () = ((2) ||)

=1

(2) || 2 =1

1
[
]
= (2) || 2 diag 1,2,,

(20.2.13)

1
[
]
= (2) || 2 diag 1,2,,
1

= (2) || 2

dalla quale imponendo la condizione di normalizzazione () = 1, si


ottiene per la costante il valore
=

1
(2) ||

(20.2.14)

che sostituito nella (20.2.13) consente finalmente di scrivere:


1

() = 2

(20.2.15)

Sostituendo il valore appena ottenuto per la costante nellespressione della densit di probabilit (20.1.5) di un vettore di variabili aleatorie congiuntamente gaussiane si ottiene:

344

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

() =

1
(2) ||

1 ()

2()

(20.2.16)

che univocamente determinata noti che siano la matrice e il vettore .


20.3 - Densit di probabilit di ordine inferiore.
Nota la funzione caratteristica associata ad variabili aleatorie
in generale possibile dedurre le funzioni caratteristiche relative ad
un qualunque sottoinsieme di esse. A tal fine si consideri un vettore
= [1 , 1 , 0, +1 , , ], cio caratterizzato
in del tipo
dall'avere la -esima componente pari a zero. Un vettore del tipo anzidetto pu essere ottenuto da un generico vettore appartenente a
1 premoltiplicando quest'ultimo per una matrice dordine
( 1) ottenuta inserendo nella matrice unitaria di ordine 1
una riga nulla nella -esima posizione. Se si valuta la funzione caratte si ottiene:
ristica in corrispondenza di


) = ( ) =
(
() =

(20.3.1)

Si osservi che in virt della definizione data per la matrice ,


= = [1 = 1 , , 1 = 1 , = +1 , 1 = ] un vettore a 1 dimensioni, ottenuto eliminando la componente -esima
di . In modo analogo sindividua il vettore di variabili aleatorie
= . In termini dei vettori appena definiti si ottiene:

) = =
(
= ()

=
1

= ()

( () ) = ()

(20.3.2)

che rappresenta la funzione caratteristica delle 1 variabili aleatorie 1 , , 1 , +1 , , .


La (20.3.2) consente di affermare che, nota la funzione caratteristica associata a variabili aleatorie definite su di uno stesso esperimento casuale, possibile ottenere quella associata ad un qualunque sottoinsieme di esse. Essa si ottiene ponendo, nella funzione originaria, uguali a zero le componenti del vettore corrispondenti alle
variabili che non appartengono al sottoinsieme di interesse.

CAPITOLO - 20 Segnali Gaussiani -

345

Ponendo = nella (20.2.15), tenuto conto della (20.3.2)si


ottiene:
1

) = 2 = 2
() = (

= 2

(20.3.3)

dove la matrice che si ottiene da cancellando la riga e


la colonna -esima. pertanto una matrice definita positiva.
Ponendo nella (20.3.3) = , = e = , si ottiene la densit di probabilit:
( ) =

(2)1 | |

(2)1 | |

1
()

2( ())

2()

= ()

(20.3.4)

che assicura che se la densit di probabilit congiunta di varaibili


aleatorie di tipo gaussiano, tale anche la densit di probabilit di
un qualunque sottoinsieme proprio di dette variabili.
Inoltre la matrice e il vettore che caratterizzano la densit
di probabilit congiunta associata a detto sottoinsieme si ottengono
da quelli originari rispettivamente cancellando dalla prima le righe e
le colonne, e dal secondo le componenti, dindice corrispondente alle
variabili che non sono contenute nel sottoinsieme di interesse.
20.4 - Caratterizzazione degli elementi del vettore e
della matrice .
La conoscenza della funzione caratteristica del vettore definito nel - 20.2 - consente di calcolare i momenti di qualsiasi ordine
(vedi CAPITOLO - 19) ed in particolare anche il valore medio di
una qualunque componente di detto vettore. Risulta infatti:

() (1 , 2 , , )
=

= (1 , 2 , , )

(20.4.1)

che valutata in = fornisce:


()
|
= (1 , 2 , , ) =
=

(20.4.2)

Nel caso di variabili aleatorie congiuntamente gaussiane si ottiene:

346

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori

1
()
=

|
= ( 2 )|
=

=1

=0

(20.4.3)

dove indica il generico elemento della matrice .


Ricordando che = dalla precedente si deduce facilmente che le componenti del vettore sono i valori medi delle corrispondenti componenti di .
Al fine di caratterizzare gli elementi della matrice si osservi
che in generale risulta:

2 ()
|
=

=

(20.4.4)

quindi:

=
( )( ) =
=

1
2

2 ()
|
=
1

2
=1

=1

(20.4.5)

La precedente mostra che il generico elemento della matrice la covarianza delle variabili aleatorie ed . La matrice
viene pertanto detta matrice di covarianza. Gli elementi che giacciono
sulla diagonale della matrice di covarianza rappresentano le varianze
delle variabili aleatorie cui associata.
20.5 - Segnali gaussiani.
Un segnale aleatorio (, ) si dice normale o gaussiano se la sua
densit di probabilit di qualunque ordine , indipendentemente dalla scelta della -upla distanti = [1 , 2 , , ], di tipo gaussiano,
cio se risulta:
(1),,( ) () =

1
(2) ||

)) 1 (())

2((

(20.5.1)

un vettore la cui -esima


dove () = [(
1 ), (2 ), , ( )]
componente il valore medio del segnale valutato nell'istante , e il
generico elemento della matrice
= ( , ) =
(( )
( ))(( )
( ))

(20.5.2)

CAPITOLO - 20 Segnali Gaussiani -

347

esprime la covarianza delle variabili aleatorie individuate dal segnale


agli istanti e .
Ci si rende facilmente conto del fatto che un segnale gaussiano stazionario in senso lato lo anche in senso stretto. Infatti, se il
segnale stazionario in senso lato, gli elementi della sua matrice di
covarianza, a qualunque ordine, dipendono soltanto dalle differenze
tra gli istanti di tempo e . Inoltre il valore medio del segnale indipendente dal tempo, quindi tale anche il vettore che compare
nella sua densit di probabilit.
Esempio 20.1
Si determini la densit di probabilit del terzo ordine di un segnale
gaussiano a media nulla valutata negli istanti 1 = 0, 2 = e 3 = 2.
sapendo la sua funzione di autocovarianza vale:
() = exp (

||
)

Lelemento generico della matrice di autocovarianza vale:


= exp(

| |
)

pertanto la matrice di covarianza valutata negli istanti di interesse risulta:


1
= [ 1
2

1
1
1

2
1 ]
1

la cui inversa vale:


1 =

1
1
[ 1
2
1
0

1
1 + 2
1

0
1 ]
1

La forma quadratica che definisce la (0)()(2) (1, 2, 3) :


(1 , 2 , 3 ) =

1
[ 2 + (1 + 2 )22 + 32 2 1 1 2 2 1 2 3 ]
1 2 1

Essendo inoltre:
|| = (1 2 )2

la densit di probabilit cercata si scrive quindi:


(0)()(2) (1 , 2 , 3 ) =

1
3

(2)2 (1 2 )

20.6 - Distribuzioni singolari.


Sia data la funzione definita in :

2 2 2
1
1
2
1 +(1+ )2 +3 2 122 2 3
2(12 )

348

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori 1

() = 2

(20.6.1)

dove una matrice semidefinita positiva. La (20.6.1), se la matrice


definita positiva, si pu interpretare come la funzione caratteristica associata ad un opportuno vettore costituito da variabili aleatorie congiuntamente gaussiane a media nulla.
Si vuole indagare su come interpretare la (20.6.1) qualora la
matrice sia semidefinita positiva senza essere definita positiva. Cio
quando si verifichi il caso che la suddetta matrice presenti degli autovalori nulli. In particolare si vuole stabilire se alla (20.6.1) possa ancora attribuirsi il significato di funzione caratteristica associata ad un
opportuno vettore di variabili aleatorie e, in caso affermativo, quale sia la densit di probabilit congiunta di dette variabili.
A tal fine si proceda ad antitrasformare la (20.6.1) sulla base
della (16.4.12):
() =

1
1

(2)

(20.6.2)

Sia una opportuna matrice ortonormale (certamente esistente) che diagonalizza la matrice e che, inoltre, faccia si che gli autovalori non nulli della cadano nelle prime righe della matrice diagonalizzata, cio sia tale che risulti
1 0 0
0 2 0

= = 0 0 0
0 . . .0. . . . .0

[0 . . . . . . . . . . . . . . .0]

(20.6.3)

dove il generico autovalore non nullo della .


Operando al secondo membro della (20.6.2) la trasformazione
di variabili = si ottiene:
() =

1
1

2

(2)

(20.6.4)

Si osservi che , in virt della particolare composizione


della matrice , dipende solo dalle prime componenti del vettore .
Mediante le posizioni:

CAPITOLO - 20 Segnali Gaussiani -

1
[]

= [ ] = ; = [
+1

0
[ ]
[ ]

0
] ; = [
0

349

(20.6.5)

l'integrale (20.6.4) pu essere espresso come prodotto di due integrali. Pi precisamente si pu scrivere:
1
1

2

(2)
1
1

=(
2 )

(2)
1

(
)

(2)

(20.6.6)

da cui facilmente si ottiene:


() =

1
(2) | |

1
2

((
) )

(20.6.7)

=1

dove (
) indica la -esima componente del vettore
.
() non negativa e rispetta la condizione di normalizzazione, in quanto la (20.6.1) vale uno per = , quindi la precedente
implica che leggitimo porre:

() = ()

(20.6.8)

cio che possibile interpretare () come la funzione di densit di


probabilit congiunta () associata a un opportuno -vettore di
variabili aleatorie.
E interessante rilevare che la presenza delle delta nella (20.6.7)
porta a concludere che la () nulla ovunque, fatta eccezione che
in corrispondenza alle soluzioni del sistema lineare di equazioni:

(20.6.9)

In altri termini, quanto detto significa che il vettore appartiene con


probabilit 1 al sottospazio di implicitamente definito dalle
(20.6.9). Detto sottospazio, in virt dell'ortogonalit della matrice ,
ha certamente dimensione . Inoltre ci si rende facilmente conto del
fatto che se il vettore viene riferito a una qualsiasi base di detto

350

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

sottospazio le variabili aleatorie componenti di rispetto a detta base sarebbero congiuntamente gaussiane.
Esempio 20.2
Si determini la densit di probabilit del terzo ordine di un segnale
gaussiano a media nulla e la cui funzione di autocovarianza :

() = cos (2 )

valutata negli istanti 1 = 0, 2 = /4 e 3 = /2.


La matrice di covarianza vale:
1 0
=[ 0 1
1 0

1
0]
1

Essa singolare ed ha rango 2.


Per determinare la variet lineare sulla quale la ps

1s2s3

( x 1 , x 2 ,x 3 ) ri-

sulta diversa da zero occorre individuare una matrice che diagonalizza


la . Detta matrice ha per righe gli autoversori di .
Lequazione che fornisce gli autovalori come noto :
| | ( 1)( 2) = 0

le cui soluzioni sono:


1 = 0,

2 = 1,

3 = 2;

I corrispondenti autovettori normalizzati sono:


1 =

1 1
[0 ] ,
2 1

0
2 = [1] ,
0

3 =

1
[0]
2 1
1

scegliendo come matrice T:

2
0
1

2
1 0
1
0
2]

[ 2

Risulta:
2
= [0
0

La variet lineare su cui la ps


allora definita dalla:

1s2s3

0 0
1 0]
0 0

( x 1 , x 2 ,x 3 ) risulta diversa da zero

CAPITOLO - 20 Segnali Gaussiani -

= ;

351

2
0 = ; 1 + 3 =
1
[2]

nel caso in esame la matrice Tr data dalle prime due colonne di T,


1
1
= [2
0

0]
1

si ha:
1
0
4
=
1

0
1

1
[ 4 0
=

la ps

1s2s3

1
4
12
1 3 32
+ 22
+
0 =
4
2
4
1
]
4

(1 + 3 )2
+ 22
4

quindi in base alla (20.6.7) data da:

123 () =

1 [(13)2+22]
1 (2 +2 )
4
(1 + 3 ) =
1 2 (1 + 3 )
4
4

20.7 - Densit di probabilit del secondo ordine e condizionali.


Nel caso di un vettore aleatorio gaussiano bidimensionale
denotando con

12

11 =
(1 1 )2 = 12 ;
22 =
(2 2 )2 = 22 ;
= 21 =
(1 1 )(2 2 )

(20.7.1)

gli elementi della matrice di covarianza, si puo scrivere:


1 =

12 22

1
2
[ 2
12 21 21

12
]
12

(20.7.2)

Di conseguenza la densit di probabilit vale:


() =

2
2 ( 1 )2 (12+21 )(11 )(2 2 )+2
1 (2 2 )
2 1
2 2
2(1 2 12 21 )

212 22 12 21

(20.7.3)

Di norma la precedente si esprime in termini del coefficiente


di correlazione:

352

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

12
21
=
1 2 1 2

(20.7.4)

che, in virt della definitezza positiva della , soddisfa la limitazione


|| 1.
Risulta allora:
1 2 (1 , 2 )
=

1
( )2
2
( )2
[ 1 21
( 1 )(2 2 )+ 2 2 2 ]
1 2 1
2(12 )
1
2

21 2 1

(20.7.5)

Nel piano (1 , 2 ) i luoghi a 12 = cost sono rappresentati da


una famiglia dellissi (|| 1) concentriche di centro (1 , 2 ) di
equazioni:
(1 1 )2
2
(2 2 )2

(1 1 )(2 2 ) +
2
1 2
1
22
= cost

(20.7.6)

Le densit di probabilit marginali 1 (1 ) e 2 (2 ) valgono


rispettivamente:
1 (1 ) =
2 (2 ) =

1
212
1
222

( )2
1 21

21

( )
2 22
22

(20.7.7)

come si deduce facilmente applicando le regole di marginalizzazione


dedotte precedentemente in questo Capitolo
interessante notare che se = 0, la matrice di covarianza
diagonale, in questo caso evidentemente risulta:
12 (1 , 2 ) = 1 (1 )2 (2 )

(20.7.8)

Ci significa che se risulta (1 , 2 ) = 0, le variabili aleatorie 1 =


(1 ) e 2 = (2 ), estratte da un segnale gaussiano, sono statisticamente indipendenti.
Dalle relazioni:
1 2 (1 , 2 ) = 1 (1 )2|2 (2 , 1 )
= 2 (2 )1 |2 (1 , 2 )

si possono dedurre le densit di probabilit condizionate:

(20.7.9)

CAPITOLO - 20 Segnali Gaussiani -

353

1 |2 (1 , 2 ) =

2
[1 1 1 (2 2 )]2
2
21 (12 )

1 2(1 2 )

(20.7.10)

e
2 |1 (2 , 1 ) =

1
2
2
2 [2 2 1 (1 1 )]
22
2 (1 )

2 2(1 2 )

(20.7.11)

che come si riconosce facilmente, sono due gaussiane rispettivamen

te caratterizzate dai valori medi 1 + 1 (2 2 ), 2 + 2 (1


2

1 ) e dalle varianze 12 (1 2 ), 22 (1 2 ).

20.8 - Trasformazioni lineari di segnali gaussiani.


Sia
= [1

(20.8.1)

un vettore le cui componenti siano variabili aleatorie gaussiane, tali


cio che la loro densit di probabilit congiunta sia espressa da una
relazione del tipo della (20.2.16). Se si applica al vettore una trasformazione lineare del tipo:
=

(20.8.2)

essendo una matrice facile riconoscere che anche il vettore


aleatorio cos ottenuto ha componenti congiuntamente gaussiane.
Infatti detta () la funzione caratteristica del vettore


() =
=
=
( ) = ( )

(20.8.3)

Ricordando la (20.2.15) si verifica facilmente che la funzione


caratteristica associata ad un vettore di variabili gaussiane vale:
1

() =
=
() = 2

(20.8.4)

avendo denotato con il vettore dei valori medi:


1
= [

(20.8.5)

e con la matrice di covarianza. Tenendo conto delle (20.8.2) e


(20.8.4) la (20.8.3) diviene:
1 ( )
2

() = ( ) =

(20.8.6)

354

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che confrontata con la (20.8.4) consente di concludere che il vettore


ha componenti congiuntamente gaussiane caratterizzate da un vettore di valori medi e da una matrice di autocovarianza dati rispettivamente dalle:
a)

b)

(20.8.7)

Le considerazioni sin qui svolte possono essere estese al caso


di segnali aleatori legati da trasformazioni lineari del tipo:

(, ) = (, )(, )

(20.8.8)

dove (, ) denota la risposta della trasformazione ad una delta di


Dirac centrata allistante .
La (20.8.8) si potrebbe anche interpretare come una distribuzione definita su un opportuno spazio di funzioni di prova cui devono appartenere le manifestazioni del segnale (, ).
Anche in questo caso si pu dimostrare che, se (, ) un
processo gaussiano, tale anche (, ). Limitandosi a fornirne una
giustificazione intuitiva , si consideri il caso in cui (, ) rappresenta
una funzione regolare.
Suddividendo il dominio dintegrazione nella (20.8.8) in intervalli disgiunti di ampiezza , l'integrale pu essere calcolato mediante
la:

(, ) = lim (, )(, )

(20.8.9)

Valutando la precedente in = si ottiene:

(, ) = lim (, )(, )

(20.8.10)

L'argomento del limite pu essere interpretato, per fissati e

, come la componente -esima = = (, )(, ) di un

vettore aleatorio ottenuto dal prodotto tra una matrice il cui generico elemento (, ) e un 2 + 1 vettore aleatorio gaussiano la
cui -esima componente vale (, ). pertanto, indipendente-

CAPITOLO - 20 Segnali Gaussiani -

355

mente dai valori di e , una variabile aleatoria gaussiana e tale resta


passando al limite per e 0.
Essendo (, ) gaussiano, la sua densit di probabilit a qualunque ordine dipende soltanto dal valor medio e dalla funzione di
autocovarianza.
Dalla (20.8.8), prendendo il valore medio statistico di ambo i
membri, si ha:

() = (,
) = (, )(,
) = (, ) ()

(20.8.11)

dove con () si indicato il valore medio del segnale (, ).


La funzione di covarianza vale:

(1 , 2 ) = ((
1 , ) (1 ))((2 , ) (2 ))

= { (1 , 1 )((1 , ) (1 ))1 (2 , 2 )((2 , )

(2 ))2 }

= {[(1 , ) (1 )][(2 , )

(20.8.12)

(2 )]}(1 , 1 )(2 , 2 )1 2

= (1 , 2 )(1 , 1 )(2 , 2 )1 2

avendo denotato con (1 , 2 ) la funzione di autocovarianza di


(, ).
Esempio 20.3
Si determini la densit di probabilit del secondo ordine del segnale
(, ) =

1 +
(, )

valutata negli istanti t 1 =0 e t 2 = T essendo x( t , ) un segnale gaussiano,


stazionario, a valor medio nullo e funzione dautocorrelazione t 1 =0
R X ( ) =( )
Se la media di x( t, ) nulla lo anche quella di y( t, ) .
La funzione dautocorrelazione di y( t, ) vale
1
(1 , 2 ) = 2

1 +

2 +

(2 1 )1 2

1 1+
1 2 1
= 2

(
) 1
1

356

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo, come facile verificare:

1
1; [, ]
( 0 ) = {
= (
)
0;

[,
]

Si ha pertanto, ponendo t 2 t 1 :

1 2 +

1
||

() = () = 2 ( ) = (1 ) ( )

La matrice di covarianza negli istanti dinteresse vale:


1

=[
0

0
1

la densit di probabilit richiesta vale quindi:


(0),() (, ) =

(2+2)
2

20.9 - Statistica della somma di variabili aleatorie indipendenti.


Sia { } una sequenza di variabili aleatorie statisticamente indipendenti. Si assuma per semplicit che la generica variabile della
sequenza abbia valor medio nullo e si indichi la sua varianza con 2 .
Ci si propone di determinare la densit di probabilit della variabile aleatoria definita come segue:

=1

= lim
= lim

=1

= lim

(20.9.1)

dove:

=1

(20.9.2)

sotto l'ipotesi che risulti:

=0

lim

(20.9.3)

dove
3

=
|3 |
=1

(20.9.4)

CAPITOLO - 20 Segnali Gaussiani -

357

Sia () la funzione caratteristica della variabile aleatoria la


funzione caratteristica () della variabile aleatoria , definita
dalla (20.9.1), in virt della supposta statistica indipendenza delle ,
vale:

=1

=1

() = ( ) log[ ()] = log ( ( ))

(20.9.5)

Daltra parte pu scriversi:


( ) =

3 3

2 2

= 1 +
( )
( )

2
6


2 2 3 3
=1
+
22
63

(20.9.6)

dove un opportuno reale che dipende da e da .

Si consideri adesso il logaritmo naturale della ( ):

2 2
3 3
log ( ( )) = log (1
+
)

22
63

(20.9.7)

= log[1 + ]

avendo posto:


2 2 3 3
=
+
22
63

(20.9.8)

In virt della (20.9.3) si pu affermare che esiste tale che:


>

<1

(20.9.9)

inoltre si pu dimostrare (vedi Esempio 16.2) che se una variabile


aleatoria ammette momento assoluto del terzo ordine vale la disuguaglianza:
3

| 2 |
| 3 |

Ci premesso vale la catena di disuguaglianze:

(20.9.10)

358

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori



2 2 3 3
2 2
3 3
|| = |
+
|
+|
|
22
63
22
63
2

2 2
|3 ||3 |
|3 |3 2 2
|3 |3 |3 |

+
=
(
+
)
2
22
63
2 2|
6
3

|3

(20.9.11)

2 2 2
|3 |3 |3 |
2 2 |3 |
2(
) 2( +
)
2 +
2|
6
2
6
3 |3

Si osservi che al tendere di ad infinito, indipendentemente


dal valore di , l'ultimo membro della precedente tende a zero; per
sufficientemente grande quindi legittimo scrivere:

2 2 3 3
log ( ( )) = log (1
+
)

22
63

2 2

22


3 3
+
63

(20.9.12)

quindi per la (20.9.5):


2 2 3 3
lim log( ()) lim (
+
)

22
63

=1

3 3
2
= + lim
=

2
63
2

(20.9.13)

=1

che corrisponde alla funzione caratteristica di una variabile gaussiana


a media nulla e varianza unitaria.

CAPITOLO - 21
CARATTERIZZAZIONE ENERGETICA DI SEGNALI A
TEMPO CONTINUO
21.1 - Funzione di autocorrelazione.
Sia (, ), un segnale aleatorio, reale o complesso a tempo
continuo. La sua funzione di autocorrelazione (1 , 2 ) definita
dalla seguente media statistica del secondo ordine:
(1 , 2 ) =
(1 )(2 )

(21.1.1)

Si osservi che, in un fissato istante di tempo, la parte reale e la


parte immaginaria di un segnale aleatorio complesso costituiscono
due variabili aleatorie definite su uno stesso esperimento casuale. Il
loro comportamento quindi descritto dalla densit di probabilit
congiunta ad esse associata.
Analogo ragionamento conduce alla definizione delle densit
di probabilit dordine superiore di un segnale aleatorio complesso.
In particolare se (, ) = (, ) + (, ), con (, ) e (, ) segnali reali, la (21.1.1) si scrive:
(1 , 2 )
= (1 1 )(2 + 2 )1122 (1 , 1 , 2 , 2 )1 1 2 2

(21.1.2)

La funzione di autocorrelazione come si evince dalla (21.1.1)


, in generale funzione delle due variabili 1 e 2 . Se il segnale stazionario, almeno in senso lato, essa dipende in effetti dalla differenza
= 2 1 .
Per chiarire il significato da attribuire alla funzione di autocorrelazione si prenda in considerazione, per semplicit, un segnale stazionario reale. Sia la variazione che subisce la generica manifestazione di (, ) in un intervallo di ampiezza :
= ( + ) ()

Il suo valore quadratico medio vale:

(21.1.3)

360

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori 2 () 2()(

2 =
[( + ) ()]2 = 2
+ )
= 2( (0) ())

(21.1.4)

La quantit
2 quindi tanto pi piccola quanto meno () differisce da (0). Ci, in altri termini, significa che tanto pi lentamente
varia la funzione (), tanto pi elevata la probabilit che scegliendo a caso una manifestazione del processo questa presenti variazioni lente al variare del tempo.
Inoltre interessante notare che se per un certo valore di 0
avviene che (0 ) = (0) se ne deduce che
[() ( + 0 )]2 = 0
il che significa che la generica manifestazione del segnale assume,
con probabilit uno, valori uguali in istanti di tempo che distano 0 o
suoi multipli interi.
Ponendo nella (21.1.1) 1 = 2 = si ottiene:
(, ) =
|()|2 0

(21.1.5)

Nel punto (, ) la (1 , 2 ) sidentifica cio con il secondo momento assoluto del primo ordine del segnale (, ), che reale e non negativo. In particolare, per segnali reali lautocorrelazione calcolata in
(, ) si riduce al valore quadratico medio del segnale in .
Nel caso di segnali stazionari si ha:
(0) =
() () =
|()|2 0

(21.1.6)

( )( )) = ( , )
(2 , 1 ) =
(2 )(1 ) = (
1
2
1 2

(21.1.7)

inoltre:

che, nel caso di segnali stazionari almeno in senso lato, si semplifica


nella:
() = ()

(21.1.8)

Se il segnale, oltre che stazionario, anche reale risulta:


() = ()

(21.1.9)

la () in questo caso quindi una funzione reale pari del suo argomento.
Lautocorrelazione una funzione semidefinita positiva. Ci
significa che per ogni () a quadrato sommabile deve aversi:
() (, ) () 0
2

(21.1.10)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 361

Per dimostrarlo sufficiente prendere in considerazione la variabile aleatoria cos definita:

() = () (, )

(21.1.11)

Il cui primo momento assoluto del secondo ordine vale:

| |2 = | () () |2

= ( () () ) ( () () )

()() ()
= ()

(21.1.12)

= () (, ) () 0
2

Inoltre, interpretando la (21.1.11) come una distribuzione, ponendo:


() = ( 1 ) + ( 2 )

(21.1.13)

con e complessi arbitrari, dalla (21.1.12), si ottiene:


0
(( 1 ) + ( 2 )) (, )( ( 1 )
2

+ ( 2 ))
= ||2 (1 , 1 ) + (2 , 1 ) + (1 , 2 )
+ ||2 (2 , 2 )

(21.1.14)

Lultimo membro della precedente pertanto una forma quadratica


semidefinita positiva nelle variabili e , il determinante ad essa associato quindi non negativo. Vale pertanto la disuguaglianza:
0 (1 , 1 ) (2 , 2 ) (1 , 2 ) (2 , 1 )

(21.1.15)

dalla quale, tenendo conto della (21.1.7) si deduce:


| (1 , 2 )| (1 , 1 ) (2 , 2 )

(21.1.16)

che, se il segnale stazionario assume la forma:


| ()| (0)

(21.1.17)

Dalla (21.1.8) e (21.1.6) si evince che la funzione di autocorrelazione di un segnale stazionario almeno in senso lato gode di sim-

362

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

metria hermitiana e che il suo modulo presenta all'origine un massimo assoluto.


Le propriet della funzione di autocorrelazione sono riassunte
nella Tabella 21.1
Tabella 21.1
Propriet della funzione di autocorrelazione per segnali a tempo continuo

Segnali non stazionari

Segnali stazionari in senso lato


() =
()( + )
2
(0) = |()|
() = ()
| ()| (0)

(1 , 2 ) =
(1 )(2 )
(, ) =
|()|2
(1 , 2 ) = (2 , 1 )
| (1 , 2 )| (1 , 1 ) (2 , 2 )

() ( ) () 0

() (, ) () 0

Al posto dellautocorrelazione utile, in certi casi, introdurre


altre funzioni che ad essa sono sostanzialmente equivalenti, e che si
ottengono per normalizzazione o centratura. Si possono a tale scopo
definire:
la funzione di autocorrelazione normalizzata
(1 , 2 )
(1 , 2 ) =
(1 , 1 ) (2 , 2 )
la funzione di autocovarianza

(1 , 2 ) = [(
1 ) (1 )] [(2 ) (2 )]

= (1 , 2 ) (1 ) (2 )

(21.1.18)

(21.1.19)

dove () denota il valore medio del segnale valutato allistante .


la funzione di autocovarianza normalizzata, o coefficiente di autocorrelazione
(1 , 2 )
(1 , 2 ) =
(21.1.20)
(1 , 1 ) (2 , 2 )

E' da notare che la condizione (21.1.16) comporta:


| (1 , 2 )| 1; | (1 , 2 )|
(1 , 1 ) (2 , 2 ); | (1 , 2 )| 1

(21.1.21)

Nel caso di segnali stazionari, le (21.1.18), (21.1.19), (21.1.20)


assumono rispettivamente la forma:
() =

()
(0)

(21.1.22)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 363

() =
[() ] [( + ) ] = () | |2
() =

()
(0)

(21.1.23)
(21.1.24)

e le (21.1.21) si semplificano come segue:


| ()| 1; | ()| (0); | ()| 1

(21.1.25)

21.2 - Densit spettrale di potenza.


Analogamente al caso dei segnali determinati, utile caratterizzare un segnale aleatorio nel dominio della frequenza. A tal fine
opportuno associare, quando possibile, al segnale aleatorio la sua
densit spettrale di potenza.
Sia dato un processo aleatorio tale che quasi tutte le sue manifestazioni abbiano potenza specifica finita, cio tale che l'insieme delle manifestazioni di potenza non limitata costituisca un evento di
probabilit nulla. naturale associare ad un tale processo una densit
spettrale di potenza che sia la media statistica di quelle delle sue manifestazioni.
Pi precisamente, sia (, ) una generica manifestazione di un
segnale aleatorio, com noto dall'Analisi dei Segnali Determinati, la
densit spettrale di potenza (, ) della manifestazione (, ) data da:
| (, )|2
(, ) (, )
= lim

(, ) = lim

(21.2.1)

dove (, ) la trasformata di Fourier del segnale troncato

(, ) = (, ) ( )

(21.2.2)

cio:

(, ) = (, )

= (, ) 2

(21.2.3)

La densit spettrale di potenza () di un segnale aleatorio si


ottiene effettuando la media statistica della quantit (, ) cio si
pone:
() =
(, )

(21.2.4)

364

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Introducendo la (21.2.1) e la (21.2.3) nella (21.2.4) si ottiene:


()

1 2 2
= lim (1 , )(2 , ) 2(21) 1 2

= lim

(21.2.5)


(1 , )(2 , ) 2(21) 1 2

che, ricordando la definizione della funzione di autocorrelazione, si


pu ancora scrivere:

1 2 2
() = lim (1 , 2 ) 2(21) 1 2

(21.2.6)

L'antitrasformata della Ws ( f ) allora vale:

() 2

1 2 2
= lim (1 , 2 ) ( 2(21) ) 1 2

(21.2.7)

poich risulta:

2(21) = (2 1 )

(21.2.8)

la (21.2.7) fornisce ancora:

()

1 2
= lim (, + )

(21.2.9)

Se il segnale stazionario, essendo

1 2
lim (, + ) = ()

(21.2.10)

() = [ ()]

(21.2.11)

si evince:
interessante notare che se la densit spettrale di potenza di
un segnale aleatorio stazionario nulla le sue manifestazioni hanno,
con probabilit 1, energia finita. Unulteriore conseguenza dell'annullarsi della densit spettrale di potenza , in virt della (21.2.11) l'an-

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 365

nullarsi della funzione di autocorrelazione. Se ne conclude che un segnale aleatorio ad energia finita, fatta eccezione per il caso banale di
segnale nullo con probabilit 1 , non pu essere stazionario.
Si osservi che se il segnale (, ) ergodico in autocorrelazione, si ha:
() = ()

(21.2.12)

() = [ ()] = [ ()]

(21.2.13)

quindi risulta:
la () pu cio calcolarsi sulla base della funzione di autocorrelazione in media temporale di una qualsiasi manifestazione del segnale.
Se il segnale non stazionario, se si pone:

1 2
() = lim (, + )

(21.2.14)

la (21.2.9) fornisce:
() = [ ()]

(21.2.15)

La densit spettrale di potenza di un segnale aleatorio si pu, in altre


parole, calcolare eseguendo la trasformata di Fourier della media
temporale definita dalla (21.2.14).
interessante notare che la simmetria hermitiana (21.1.7) di
cui gode lautocorrelazione di un segnale, condizione che, come gi
visto, indipendente dalla natura reale o complessa del segnale, si
traduce per la () nella condizione () = () che a sua volta
comporta che la () una funzione reale del suo argomento. Se,
in particolare il segnale aleatorio reale la () anche una funzione pari.
Esempio 21.1
Lautocorrelazione della derivata s'( t , ) di un segnale data dalla:
() =
() ( + )

Se il segnale stazionario si ha:

( + ) ()
( + + ) ( + )
() = lim
lim
0
0

()( + + ) ( + )( + ) ()( + + ) + ()( + )


= lim
0
2
1 () ( ) ( + ) ()
2 ()
= lim (

)=
0

366

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo R s ( ) la funzione di autocorrelazione del segnale s( t, ) .


La densit spettrale di potenza di s'( t, ) pu essere espressa in termini della densit spettrale del segnale di potenza di s( t, ) ; si ha:
() = [

2 ()
] = 4 2 2 ()
2

21.3 - Caratterizzazione dei segnali nel dominio della


frequenza.
Per fini che saranno chiari in seguito sintroduce una funzione
(1 , 2 ) che esprime ammesso che esista, eventualmente anche nel
senso delle distribuzioni, la trasformata di Fourier bidimensionale
della funzione di autocorrelazione del segnale (, ), e se ne elencano le principali propriet. Si pone:
(1 , 2 ) = (1 , 2 ) 2(1 1+2 2) 1 2
2

(21.3.1)

Evidentemente risulta:
(1 , 2 ) = (1 , 2 ) 2(11+22) 1 2
2

(21.3.2)

La condizione di simmetria (21.1.7) comporta:


(1 , 2 ) 2(11+22) 1 2
2

= ( (1 , 2 ) 2(2 1+1 2) 1 2 )
2

= (1 , 2 ) 2(2 1+1 2) 1 2

(21.3.3)

= (2 , 1 ) 2(1 1+2 2) 1 2
2

da cui necessariamente discende:


(1 , 2 ) = (2 , 1 )

(21.3.4)

Ponendo nella (21.3.2) 1 = 2 = si ottiene:


(, ) = (1 , 2 ) 2(1 +2 ) 1 2
2

(21.3.5)

Introducendo la trasformazione di variabili:


{

1 + 2 = ;
2 = ;

(21.3.6)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 367

si pu riscrivere:

(, ) = ( ( , )) 2

(21.3.7)

Dunque nota (1 , 2 ), il momento assoluto del secondo ordine


(, ) si pu ottenere effettuando l'antitrasformata monodimensionale di Fourier della funzione:

() = ( , )

(21.3.8)

Se in particolare il segnale stazionario almeno in senso lato,


operando nella (21.3.1) la trasformazione di variabili = 1, = 2
1 , si ha:
(1 , 2 ) = (2 1 ) 2(11+22) 1 2
2

= ()

2[1 +2 (+)]

(21.3.9)

= () 22 2(1+2)

= (2 )(1 + 2 )

Nella quale si tenuto conto della (21.2.11) per dedurre lultimo


membro.
Pertanto la (1 , 2 ) di un segnale stazionario nulla nel piano (, 1 , 2 ), eccezion fatta che sulla sua seconda bisettrice dove
presenta una singolarit di tipo delta di Dirac il cui peso dato dalla
sua densit spettrale di potenza. Per un segnale stazionario quindi la
conoscenza della () comporta tramite la (21.3.9) quella della
(1 , 2 ).
La (21.3.7) particolarizzata al caso di segnali stazionari almeno
in senso lato diventa:
(0) =
|(, )|2 = ()() 2

= ()

(21.3.10)

la quale sta a significare che il momento assoluto del secondo ordine


di un segnale stazionario in senso lato, che per segnali reali coincide
con il valore quadratico medio, pu essere calcolato integrando su
tutto l'asse reale la densit spettrale di potenza.

368

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Se nella (21.1.10) che esprime la semidefinitezza positiva della


funzione di autocorrelazione si sostituisce la (21.3.2) si ottiene:
0 () () ( (1 , 2 ) 2(1 +2) 1 2 )
2

= (1 , 2 ) ( () 21 () 22 ) 1 2
2

(21.3.11)

(1 ) (2 ) (1 , 2 )1 2

= (1 ) (2 ) (1 , 2 )1 2
2

dove () indica la trasformata della funzione di prova ().


La (21.3.11) comporta il fatto che la (1 , 2 ) una funzione semidefinita positiva.
Per segnali stazionari la (1 , 2 ) assume la forma (21.3.9) In
questo caso la (21.3.11) pu essere ulteriormente elaborata e fornisce:
0 (1 ) (2 ) (2 )(1 + 2 )1 2
2

= (1 ) (2 ) (2 )(2 1 )1 2

(21.3.12)

= |(2 )|2 (2 )2

la quale, vista l'arbitrariet della (), e quindi anche della (), implica che la densit spettrale di potenza di un segnale stazionario
una funzione non negativa del suo argomento.
Le propriet principali della (1 , 2 ) e della () sono riassunte nella Tabella VII.2
Tabella 21.2
Propriet della Gs ( f1 , f2 ) e della Ws ( f )
Segnali stazionari

Segnali non stazionari


(1 , 2 )

(1 , 2 ) 2(1 1+2 2) 1 2

(1 , 2 ) = (2 , 1 )
(1 , 2 ) semidefinita positiva
(, )

= ( ( , )) 2

() = () 2

() = ()
() 0

(0) = ()

Tenendo conto della (21.3.2) la (21.2.14) si pu scrivere:

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 369

()

1 2
( (1 , 2 ) 22 2(1 +2 ) 1 2 )

2

= lim

(21.3.13)

1 2
= (1 , 2 ) 22 ( lim 2(1 +2 ) ) 1 2


2
2

risulta:

1 2
lim 2(1 +2 )

2

1;
1 + 2 = 0;
sin[(
+

)]
={
1
2
lim
= 0; 1 + 2 0;

(1 + 2 )

(21.3.14)

Si conclude che l'integrale (21.3.13) vale zero a meno che la (1 , 2 )


non presenti una singolarit di tipo delta di Dirac lungo la retta di
equazione 1 + 2 = 0. Alla luce di questa considerazione utile riscrivere la (1 , 2 ) nella forma:
(1 , 2 ) = (1 , 2 ) + (2 )(1 + 2 )

(21.3.15)

dove la (1 , 2 ) non presenta singolarit lungo la seconda bisettrice.


Si osservi che sempre possibile scrivere la (1 , 2 ) nella forma
(21.3.15) Infatti, qualora essa non presenti singolarit lungo la seconda bisettrice sarebbe sufficiente porre (2 ) = 0 nel qual caso
ovviamente si avrebbe (1 , 2 ) = (1 , 2 ). Sostituendo la (21.3.15)
nella (21.3.13), tenendo conto della (21.3.14) si ottiene:
()
= ((1 , 2 ) + (2 )(1
2

+ 2 ))

22

1 2
( lim 2(1 +2 ) ) 1 2

2

(21.3.16)

= (2 )(1 + 2 ) 22 1 2
2

= (2 ) 22 2

Confrontando la (21.3.13)con la (21.3.16) si conclude che:


() = ()

(21.3.17)

370

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

cio la densita spettrale di potenza di un segnale aleatorio data anche dalla funzione peso della eventuale singolarit di tipo delta di Dirac che la (1 , 2 ) presenta lungo la seconda bisettrice del piano
(, 1 , 2 ). Qualora detta singolarit non dovesse presentarsi il processo in questione sarebbe ad energia finita.
In Conclusione la densit spettrale di potenza di un processo
aleatorio pu alternativamente essere calcolata per mezzo della
(21.2.4), ovvero tramite la (21.2.15), o ancora effettuando la trasformata di Fourier bidimensionale della funzione di autocorrelazione,
ed isolando in quest'ultima il peso della delta di Dirac che essa presenta lungo la seconda bisettrice del piano (, 1 , 2 ).
Esempio 21.2
Sia

(, ) = (, ) ( )
=

un segnale aleatorio in cui a ( t, ) rappresenta un segnale stazionario caratterizzato dalla funzione di autocorrelazione data da R a ( ) .
La funzione di autocorrelazione di s( t , ) vale:
(1 , 2 ) =
(1 , )(2 , )

=
(1 , )(2 , )

(1 )(2 )

= =

= (2 1 )

(1 )(2 )

= =

Il segnale s ( t, ) non pertanto stazionario, poich la sua funzione di


autocorrelazione dipende da entrambe le variabili t1 e t2. Risulta:
(1 , 2 )

= (2 1 )
2

(1 )(2 ) 2(11+22) 1 2

,=

,=

(2 1 )(1 )(2 ) 2(1 1+2 2) 1 2


2

,=

[( )] 2(1 +2)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 371

21.4 - Segnali ciclostazionari.


Una classe particolarmente importante di segnali aleatori costituita dai cosiddetti segnali ciclostazionari.
Al fine di definire tale classe si osservi che nella funzione di
autocorrelazione (1 , 2 ) si pu sempre porre:
= ;
{ 1 = ;
2

(21.4.1)

La sostituzione appena definita comporta (1 , 2 ) = (, + ).


L'autocorrelazione pu cio essere pensata come funzione (, ) di
uno solo dei due istanti di osservazione e dalla differenza tra essi.
Un segnale si dice ciclostazionario se la sua autocorrelazione
espressa nella forma (, ) periodica di periodo rispetto a .
L'autocorrelazione di un segnale ciclostazionario pu quindi
essere espansa in serie di Fourier, fermo restando che i coefficienti
che compariranno nella serie dipenderanno da . Si potr cio scrivere:

(, ) = () 2

(21.4.2)

ta:

Espressa in termini delle variabili 1 e 2 la precedente diven

(1 , 2 ) = (2 1 ) 2

(21.4.3)

risulta quindi:
(1 , 2 )

= (2 1 ) 2[(1)1+2 2] 1 2

(21.4.4)

R2

che, operando nuovamente la trasformazione (21.4.1), diventa:

(1 , 2 ) = () 2[(1 +2 )+2 ]

= () 22 2(1+2)
=

= () 22 (1 + 2 )

(21.4.5)

372

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La quale, detta () la trasformata di () si pu ancora scrivere:

(1 , 2 ) = (2 ) (1 + 2 )

(21.4.6)

La
precedente
consente di concludere
che la (1 , 2 ) di un
segnale ciclostazionario
nulla nel piano
(, 1 , 2 ) eccetto che

sulle rette 1 + 2 =
che appartengono al fascio improprio definito
dalla seconda bisettrice
(vedi Fig. 21.1) sulle
quali sono localizzate
delle singolarit di tipo
delta di Dirac ciascuna
Fig. 21.1 - Localizzazione delle singolarit per segnali ciclostazionari.
pesata dalla corrispondente ().
interessante notare che un segnale stazionario pu essere pensato come un particolare segnale ciclostazionario per il quale l'unico
coefficiente () non nullo quello di indice zero. Ci si rende facilmente conto che in questo caso la (21.4.6) e la (21.1.9) si identificano.
Esempio 21.3
Si consideri il seguente segnale aleatorio

0
(, , ) = (
)
0
=

dove = {} una sequenza di variabili casuali che assumono valori


appartenenti allinsieme {1,1} e un ritardo uniformemente distribuito
in [- 0/2, 0/2] indipendente dalla sequenza .
Si supponga inoltre che le probabilit con cui assume il valore 1 o
1 siano uguali e a loro volta indipendenti dal valore assunto da ogni altro simbolo con .

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 373

Fig.E 21.1

Una possibile manifestazione del segnale si


presenta allora com
indicato in Fig.E 21.1.
Al fine di calcolare
la densit spettrale di
potenza del segnale
(, , ) si procede alla

valutazione della funzione di autocorrelazione


(, + ) =
(, , )(, , +

0
+ 0
=

)(
)
(
0
0

Risulta:
{ | } = = 0;

= {
2 = 1;

poich:
1
1
= (1) + (1) = 0
2
2

e
1
1

2 = (1) + (1) = 1
2
2

Di conseguenza si ha:

0
+ 0
(, + ) = (
)(
)
0
0

Per calcolare la media sopra indicata, basta osservare che il prodotto


tra i due impulsi rettangolari che costituisce il generico addendo della
sommatoria da luogo ad un risultato non nullo solo quando soddisfatta
una delle due disequazioni:
0
0
0 + + 0 ;
2
2
{
0
0
0 + 0 + ;
2
2

cio quando | .
Inoltre ci si rende conto che, ferma restante questultima limitazione,
fissato un istante esiste in corrispondenza ad esso un unico valore dell'
indice cui corrisponde un addendo diverso da zero. Detto tale valore
si pu cio scrivere:

374

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

0
+ 0
(, + ) = (
)(
)
0
0

0
+ 0
)(
) ()
0
0

+
( )(
)
0
0
0

Da cui facilmente si ottiene:


(, + ) = (1

||

)(
) = ()
0
20

La funzione di autocorrelazione dipende quindi esclusivamente da , osservando inoltre che il segnale ha valore medio nullo si conclude che il
segnale in questione stazionario in senso lato, quindi la sua densit
spettrale di potenza data dalla trasformata di Fourier della sua funzione
di autocorrelazione.
In definitiva quindi risulta:
() = [ ()] = 0 sinc 2 (0 )

In alternativa la densit spettrale di potenza del segnale s( t , a , ) pu


essere calcolata direttamente sulla base della sua definizione (21.2.4).
Ponendo T= ( + 1)T 0 il segnale troncato assume la forma:

0
(, , ) = (
)
0
=

Ad esso corrisponde la seguente trasformata di Fourier:

(, , ) = 0 sinc(0 ) 2(0 +)
=

Si ha quindi:

| (, , )|2 = 02 sinc 2 (0 ) 2()0


= =

= 02 sinc 2 (0 )

2()0 = 2 sinc 2 ( )(2 + 1)



0
0

= =

Pertanto:
() = lim

| (,)|2

= lim

2+1

20 +0

02 sinc 2 (0 ) = 0 sinc 2 (0 )

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 375

Esempio 21.4
Si determini la densit spettrale del segnale:
(, ) = (, ) cos(20 )

dove s( t, ) un segnale stazionario in senso lato caratterizzato da una


funzione di autocorrelazione e da una densit spettrale di potenza date da
R a ( ) e W a ( f) rispettivamente.
La funzione di autocorrelazione di ( t, ) vale:
(1 , 2 ) =
(1 )(2 ) =
(1 )(2 )cos(20 1 )cos(20 2 )
1
= (2 1 ) {cos[20 (1 2 )] + cos[20 (1 + 2 )]}
2

Il segnale ( t, ) pertanto non stazionario dato che la sua funzione


di autocorrelazione non dipende soltanto dalla differenza tra t e t .
La trasformata bidimensionale di Fourier di R ( t t ) vale:
(1 , 2 ) = (1 , 2 ) 2(1 1+2 2) 1 2
2

1
= (2
2 2
1 ){cos[20 (1 2 )] + cos[20 (1 + 2 )]} 2(1 1+2 2) 1 2

Introducendo la trasformazione di variabili:


1
1 = ( + );
2
{
1
2 = ( );
2
la G ( f f ) diventa:
1

(1 , 2 ) = 2 ()(cos20 + cos20 ) [(1 +2)+(1 2)]


4

dove si anche tenuto conto che risulta R(y)=R(-y) e che


1

1 2 = |

(1 ,2 )
(,)

| =

|
2

|
2

|21
2

1
2

1|

=
2

Si ottiene allora:
1

(1 , 2 ) = (1+2 ) ()cos(20 ) (12 ) +


4

cos(20 ) (1 +2) () (1 2 ) = 8 [ (
2

( 1

+2

+ 0 )] ( 1

) + + ( 1

Tenendo conto che risulta:

+2

) [( 1

1 2

+2

0 ) + ( 1

0 ) +

0 )]

376

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

( ) = ()

la precedente si pu ancora riscrivere:


1

(1 , 2 ) = [ ( 1

0 ) + ( 1

1 2

+ 0 )] (1 2 ) + (

[(1 + 2 20 ) + (1 + 2 + 20 )]

dalla quale si deduce che (1 , 2 ) una distribuzione localizzata nei


punti del piano (, 1 , 2 ) appartenenti alle rette di equazione:
1 + 2 = 0 {2,0,2}

La densit spettrale di potenza del segnale vale:


1

() = [ ( 0 ) + ( + 0 )]
4

che ovviamente poteva anche calcolarsi direttamente come trasformata di


Fourier del valor medio temporale della funzione (, + ):
1
1
(, + ) = ()cos(20 )
2
2

() = lim

21.5 - Segnali distinti. Funzioni di correlazione e densit


spettrale incrociate.
Le considerazioni svolte nei precedenti paragrafi possono essere facilmente estese al caso di n segnali aleatori tempo continui
(, ). In quel che segue conveniente introdurre il vettore
1 (, )
2 (, )
(, ) = [
]

(, )

(21.5.1)

si definisce matrice di correlazione la matrice:


(1 , 2 ) =
(1 , ) (2 , )

1 (1 , )1 (2 , )
1 (1 , )2 (2 , )

= 2 (1 , )1 (2 , ) 2 (1 , )2 (2 , )

[
(1 , )1 (2 , ) (1 , )2 (2 , )


1 (1 , ) (2 , )

2 (1 , ) (2 , )


(1 , ) (2 , )]

(21.5.2)

Essa dipende dalle variabili 1 e 2 a meno che i segnali non siano


congiuntamente stazionari. In questo caso la matrice di correlazione
dipende in effetti dalla differenza tra gli istanti di tempo e si ha:
() =
(, ) ( + , )

(21.5.3)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 377

Con riferimento alla (21.5.2) gli elementi della diagonale principale della matrice di correlazione sono le autocorrelazioni dei segnali (, ), mentre gli altri elementi rappresentano le mutue correlazioni o correlazioni incrociate:
Risulta ovviamente:

(2 , 1 ) =
(2 ) (1 ) = [
(1 ) (2 )] = (1 , 2 )

(21.5.4)

Se i segnali (, ) sono stazionari la precedente diventa:


() = ()

(21.5.5)

Si consideri adesso il seguente segnale

(, ) = (, ) = (, )

(21.5.6)

=1

in cui rappresenta un arbitrario vettore di costanti complesse. La


funzione di autocorrelazione di (, ) vale:

(1 , 2 ) = (
1 , )(2 , ) = (1 , )(2 , )

= (1 , 2 )

(21.5.7)

dove denota il trasposto coniugato del vettore .


In 1 = 2 = risulta
0
|(, )|2 = (, ) = (, )

(21.5.8)

dalla quale si evince che la matrice di correlazione semidefinita positiva in ogni punto della prima bisettrice del piano (, 1 , 2 ).
Le considerazioni sin qui svolte si possono applicare al seguente vettore aleatorio:
(, ) = [

1 (, )
]
2 ( + , )

(21.5.9)

il quale per un assegnato valore di dipende solo dall'istante . La


matrice di correlazione calcolata in = 0 vale:
(, ) =
(, ) (, )
(, )
12 (, + )
= [ 11
]
21 ( + , ) 22 ( + , + )

(21.5.10)

Il fatto che (, ) semidefinta positiva consente di scrivere la disuguaglianza:

378

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

11 (, )22 ( + , + ) 12 (, + )21 ( + , )
0

(21.5.11)

dalla quale, ricordando la (21.5.4) e ponendo 1 = ; 2 = + si deduce:


|12 (1 , 2 )| 11 (1 , 1 ) 22 (2 , 2 )

(21.5.12)

Se 1 (, ) ed 2 ( + , ) sono congiuntamente stazionari, la


precedente si riduce alla:
|12 ()| 11 (0) 22 (0)

(21.5.13)

In certi casi, preferibile caratterizzare segnali aleatori mediante la matrice di covarianza cos definita:
(1 , 2 ) =
[(1 , ) (1 )] [(2 , ) (2 )]
= (1 , 2 ) (1 ) (2 )

(21.5.14)

dove () il vettore dei valori medi dei segnali valutato nell'istante


:
Due segnali aleatori 1 (, ) e 2 (, ) si dicono ortogonali se la
loro funzione di mutua correlazione nulla, incorrelati se nulla la loro funzione di mutua covarianza.
da notare che se i segnali sono statisticamente indipendenti
sono anche incorrelati dal momento che risulta:
12 (1 , 2 ) = 1 (1 )2 (2 )

(21.5.15)

Non vero il contrario cio se due segnali sono incorrelati non


detto che essi siano anche statisticamente indipendenti.
Trasformando secondo Fourier ciascun elemento della matrice di correlazione associata ad un vettore (, ) di segnali aleatori si
ottiene la matrice:
11 (1 , 2 )
( , )
(1 , 2 ) = [ 21 1 2

1 (1 , 2 )

12 (1 , 2 )
22 (1 , 2 )

2 (1 , 2 )

1 (1 , 2 )
2 (1 , 2 )
]

(1 , 2 )

(21.5.16)

il cui generico elemento vale:

(1 , 2 ) = (1 , 2 ) 2(1 1+2 2) 1 2

(21.5.17)

CAPITOLO - 21 Caratterizzazione Energetica dei Segnali a Tempo Continuo - 379

Se i segnali (, ), (, ) sono congiuntamente stazionari la


(21.5.16) pu porsi nella forma:

(1 , 2 ) = () 2[(1 +2)+2 ]

= (2 )(1 + 2 )

(21.5.18)

dove () rappresenta la trasformata di Fourier di ().


Se i segnali che compongono il vettore (, ) sono congiuntamente stazionari la matrice (1 , 2 ) pu essere quindi immediatamente dedotta dalla seguente matrice delle densit spettrali:
11 ()
21 ()
() = [

1 ()

12 ()
22 ()

2 ()

1 ()
2 ()
]

()

(21.5.19)

La condizione ((21.5.4)) comporta:


(1 , 2 ) = (2 , 1 )

(21.5.20)

che nel caso di segnali congiuntamente stazionari si traduce nella


() = ()

Dalla quale si evince che () una matrice hermitiana.

(21.5.21)

CAPITOLO - 22
CARATTERIZZAZIONE ENERGETICA DI SEGNALI
ALEATORI A TEMPO DISCRETO
22.1 - Funzione di autocorrelazione.
La caratterizzazione energetica dei segnali a tempo discreto non presenta sostanziali differenze rispetto a quanto visto a proposito dei segnali a tempo continuo, le uniche variazioni sono ovviamente quelle
connesse alla sostituzione della variabile continua con la variabile
discreta .
Sia (, ) ( < < ) un segnale aleatorio, in generale complesso, a tempo discreto. La sua funzione di autocorrelazione definita dalla:
(, ) =
()()

(22.1.1)

la quale, in generale, dipende dagli indici e .


Se il segnale stazionario (almeno in senso lato) lautocorrelazione
dipende in effetti dalla differenza = ( ) tra gli istanti di osservazione ed quindi funzione di una sola variabile, o meglio da un
solo indice, data la natura discreta del segnale.
Ponendo nella (22.1.1) = si ottiene:
(, ) =
|()|2 0

(22.1.2)

che, nel caso di segnali stazionari, si riduce alla:


(0) =
|()|2 0

(22.1.3)

Dalla (22.1.1) si deduce facilmente:


(, ) =
()() =
()()

= (, )

(22.1.4)

Che per segnali reali comporta:


(, ) = (, )

Nel caso di segnali stazionari la (22.1.3) diviene:

(22.1.5)

382

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

() = ()

(22.1.6)

che se il segnale anche reale, diventa:


() = ()

(22.1.7)

Pertanto lautocorrelazione di un segnale reale e stazionario almeno


in senso lato, una funzione pari rispetto allindice .
Si consideri adesso una sequenza {()}
= generalmente complessa a quadrato sommabile:

|()|2 <

(22.1.8)

e si calcoli il secondo momento assoluto della variabile aleatoria:

= ()()

(22.1.9)

Si ha:

()() ()
0
| |2 = ()

(22.1.10)

= =

Ci significa che, qualunque sia la sequenza (), soddisfatta la


condizione:

() (, ) () 0

(22.1.11)

= =

che si sintetizza affermando che lautocorrelazione una funzione


semidefinta positiva.
Denotando con () la sequenza definita dalla:
1;
() = {
0;

=0
0

(22.1.12)

si ponga:
() = ( ) + ( )

(22.1.13)

dove e sono delle costanti complesse arbitrarie. Con questa scelta della (), la (22.1.11) fornisce:

CAPITOLO - 22 Caratterizzazione Energetica dei Segnali a Tempo Discreto - 383

||2 (, ) + (, ) + (, )
+ ||2 (, ) 0

(22.1.14)

che una forma quadratica semidefinita positiva nelle variabili e ,


il che comporta:
| (, )| (, ) (, )

(22.1.15)

nel caso di segnale stazionario la precedente si scrive:


| ()| (0)

(22.1.16)

Analogamente a quanto visto per i segnali a tempo continuo, il modulo dellautocorrelazione di un segnale a tempo discreto stazionario
almeno in senso lato raggiunge il suo massimo assoluto nellorigine.
Le propriet dellautocorrelazione sono riassunte nella Tabella 22.1.
Tabella 22.1
Propriet della autocorrelazione per segnali a tempo discreto
Segnali stazionari

() =
()( +
(0) =
|()|2

() = ()
| ()| (0)

Segnali non stazionari

(, ) =
()()
(, ) =
|()|2

(, ) = (, )

() (( )) ()

= =

| (, )|
(, ) (, )

() (, ) () 0

= =

22.2 - Densit spettrale di potenza.


La densit spettrale di potenza () per i segnali a tempo discreto
viene definita, analogamente a quanto visto per i segnali a tempo
continuo, come la media statistica delle densit spettrali di potenza
delle manifestazioni del processo.
Detto (, ) il segnale troncato:
(, ) = {

si ha:

(, ); ||
0;
|| >

(22.2.1)

384

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

| (, )|2
(2 + 1)
1

= lim
(, ) (, )
(2 + 1)
() = lim

(22.2.2)

dove (, ) denota la trasformata di Fourier discreta di (, )


cio:

(, ) = (, ) 2
=

(22.2.3)

= (, ) 2
=

Poich risulta:
(, ) (, )

(, )(, ) 2()

(22.2.4)

= =

si ottiene:
()

1
= lim

(, ) (, ) 2() (22.2.5)
2 + 1
= =

che, tenendo conto della (22.1.1), diventa:


()

1
= lim
(, ) 2()
(2 + 1)

(22.2.6)

= =

Lantitrasformata della () vale:


() =

1
2
1
2

() 2

,=

1
2
= lim
(, ) 2()
1
2 + 1

1
= lim
(, )sinc( )
2 + 1
,=

1
= lim
(, ( + ))
2 + 1
=

(22.2.7)

CAPITOLO - 22 Caratterizzazione Energetica dei Segnali a Tempo Discreto - 385

In conclusione:

1
() = lim
(, ( + ))
2 + 1

(22.2.8)

Dalla precedente si desume che, analogamente a quanto visto per i


segnali a tempo continuo, la densit spettrale di potenza di un segnale a tempo discreto si pu ottenere effettuando la trasformata di
Fourier della media temporale espressa dalla (22.2.8).
Inoltre, se il segnale stazionario almeno in senso lato si ha:
() = ()

(22.2.9)

Dalla quale si desume che, analogamente ai segnali a tempo


continuo, la densit spettrale di potenza di un segnale a tempo discreto stazionario, almeno in senso lato, data dalla trasformata di
Fourier della sua autocorrelazione riferita alla differenza tra i due
istanti di osservazione.
La simmetria hermitiana (22.1.4) di cui gode lautocorrelazione, fa s che risulti () = (), la quale comporta che la
densit spettrale di potenza una funzione reale del suo argomento.
Se il segnale aleatorio reale la () anche una funzione pari del
suo argomento.
22.3 - Caratterizzazione nel dominio della frequenza
Come nel caso dei segnali a tempo continuo utile introdurre
la trasformata discreta di Fourier bidimensionale (1 , 2 ) della autocorrelazione di un segnale tempo discreto

(1 , 2 ) =

(, ) 2(1 +2 )

(22.3.1)

= =

A differenza del caso dei segnali a tempo continuo, la (1 , 2 ) una


1
funzione periodica nelle variabili 1 e 2 di periodo ; cio:
(1 +

1
2
, 2 + ) = (1 , 2 )

quali che siano gli interi 1 e 2 .


Per inversione della (22.3.1) si ottiene

(22.3.2)

386

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

(, ) =

1
2

1
2

1
1

2
2

(1 , 2 ) 2(1 +2 ) 1 2

(22.3.3)

La condizione (22.1.4) si pu scrivere:

1
2

1
2

1
1

2
2
1
2

= (

1
2

(1 , 2 ) 2(1+2) 1 2

1
2

(22.3.4)

(2 , 1 ) 2(1 +2 ) 1 2 )
1

pertanto:
(1 , 2 ) = (2 , 1 )

(22.3.5)

Nel caso di segnale stazionario operando nella (22.3.1) la trasformazione di indici: = , = ed applicando la formula di Poisson
si ottiene:

(1 , 2 ) = 2

(, ) 2(1 +2 )

= =

= 2 2(1 +2 ) () 21
=

=
=

=
2(1 +2 )

(22.3.6)

(1 )

= (1 ) (1 + 2 )

dove ()rappresenta la densit spettrale di potenza del segnale.


Sostituendo la (22.3.3) nella (22.1.11) si ha:

() ()

1
2

1
2

1
2

1
2
1

2
2

,=

1
2

1
2

(1 , 2 ) 2(1+2 ) 1 2

(1 , 2 ) () 21 () 22 1 2
1

(22.3.7)

1 2 2
( , )(1 ) (2 )1 2
2 1 1 1 2
2

dove con () si denotata la trasformata di Fourier della sequenza


(). Se (), e quindi (), arbitraria la (22.3.7) comporta, analogamente a quanto visto per i segnali a tempo continuo, che

CAPITOLO - 22 Caratterizzazione Energetica dei Segnali a Tempo Discreto - 387

(1 , 2 ) una funzione semidefinita positiva. Si pu anche verifi-

care che per un segnale stazionario la (22.3.7) comporta che deve essere:
() 0

(22.3.8)

la () dunque anche una funzione non negativa della frequenza.


Dalla (22.3.3) si ottiene infine:
(, ) =

1
2

1
2

1
1

2
2

(1 , 2 ) 2(1 +2 ) 1 2

(22.3.9)

Se il segnale stazionario in senso lato si ha:


(0) =

1
2

1
2

()

(22.3.10)

Si osservi che esprimendo nella (22.2.8) la funzione di autocorrelazione in termini della (1 , 2 ) si ottiene:
()

1
2
2
(1 , 2 ) 2[1 +(+)2 ] 1 2
1
1
2 + 1

= lim
=

1
2
1
2

1
2
1
2

(1 , 2

) 22

(22.3.11)

1
lim
2(1 +2 ) 1 2
2 + 1
=

Poich risulta:

1
2(1 +2)
2 + 1
=
1;
lim

={

1
lim
2 + 1

2+1

2(1+2) [(2(1+2) )
2(1 +2) 1

(1 + 2 )
1]

(22.3.12)

= 0; (1 + 2 )

largomento dellintegrale ad ultimo membro della (22.3.11) vale zero, salvo che sullinsieme di misura nulla costituito dalla famiglia di
1
rette parallele alla seconda bisettrice spaziate di .
Il risultato di tale integrale pertanto nullo a meno che la
(1 , 2 ) non presenti delle singolarit di tipo delta di Dirac disposte
lungo dette rette.
Si osservi che la (1 , 2 ) pu sempre esprimersi come somma di
due contributi:

388

Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

(1 , 2 ) = (1 , 2 ) + (2 )(1 + 2 )

(22.3.13)

in modo tale che (1 , 2 ) non presenti contributi distribuzionali lungo le rette in questione sostituendo la (22.3.13) nella (22.3.11) tenuto
conto della (22.3.12) si ottiene:
() =
=

1
2
1
2

1
2

1
2

1
1

2
2

(2 )(1 + 2 ) 22 1 2

(22.3.14)

(1 ) 21 1

dalla quale si evince che la densit spettrale di potenza del segnale


data anche dal peso delle singolarit eventualmente presentate dalla
(1 , 2 ) lungo la citata famiglia di rette parallele alla seconda bisettrice del piano (, 1 , 2 ).
Si osservi che lassenza del contributo distribuzionale alla
(1 , 2 ), analogamente a quanto visto nel caso dei segnali a tempo
continuo, starebbe a significare che il processo in esame ad energia
finita.
Le propriet della (1 , 2 ) e della densit spettrale di potenza
sono riassunte nella Tabella 22.2.
Tabella 22.2
Propriet della Gs ( f1 , f2 ) e della Ws ( f ) per segnali a tempo-discreto
Segnali non stazionari
Segnali stazionari
(1 , 2 )
()

= 2

(, ) 2(1 +2)

= =

(1 , 2 ) = (2 , 1 )
(1 , 2 ) semidefinita positiva
(, )
=

1
2

1
2

1
2

1
2

(1 , 2 ) 2(1 +2 ) 1 2

= () 2
=

() = ()
() 0

(0) =

1
2

1
2

()

CAPITOLO - 23
SEGNALI PASSABANDA
23.1 - Il rumore bianco.
Un segnale aleatorio (, ) stazionario la cui densit spettrale
di potenza costante comunemente detto rumore bianco. Posto:
() =

(23.1.1)

() =

(23.1.2)

Risulta:

Un tale segnale non pertanto a potenza finita, esso tuttavia si


rivela molto utile come modello, poich parecchi disturbi, quali ad esempio il rumore termico che si manifesta ai capi di un conduttore e
il rumore atmosferico, presentano una densit spettrale di potenza
pressoch costante almeno entro la banda di frequenze comunemente utilizzata per trasmettere delle informazioni Nel caso del rumore
termico ad esempio la frequenza alla quale la densit spettrale di potenza si riduce del 10% rispetto al suo valore massimo, che viene
raggiunto per = 0 dellordine di 2000.
La funzione di autocorrelazione del rumore bianco risulta:
() = ()

(23.1.3)

Ci significa che i valori (, ) e ( + , ) assunti dal rumore in e


in + sono fra loro non correlati per ogni valore di 0.
in taluni casi utile considerare dei processi caratterizzati da
una densit spettrale di potenza che si mantiene costante in una banda finita di frequenza, e che vale zero al di fuori di essa.
In funzione della dislocazione della banda sopra citata, si parla
di rumore bianco di tipo passa-basso o passa-banda.
23.2 - -Rumore bianco passabasso.
Si ha in tal caso (v. Fig. 23.1):

- 390 -

Analisi dei segnali aleatori

fm

() = (

Ws( f )

fm

(23.2.1)

Lautocorrelazione del processo si ottiene facilmente antitrasformando la precedente:

Fig. 23.1 - Densit spettrale di potenza di un rumore bianco passabasso.

()
=

(23.2.2)

= 2 sinc(2 )

(vedi Fig. 23.2).


Il segnale in questo caso ha potenza finita che vale:
= 2

(23.2.3)

Inoltre la () nulla per = 2 , = 1, 2.

Di conseguenza i
Rs()
valori assunti dal rumo2f m
re (, ) in corrispondenza a coppie distanti,
che appartengono allinsieme { }, risultano
1
2f
incorrelati. Tanto pi
ampia la banda del

segnale, tanto pi vicini


sono fra loro tali istanti.
Fig. 23.2 - Funzione di autocorrelazione di un rumoAl
limite,
per re bianco passabasso.
, la correlazione
fra i valori che il segnale assume in corrispondenza di due istanti distinti qualsiasi nulla.
m

23.3 - -Rumore bianco passabanda.


Un rumore si dice bianco passabanda se la sua densit spettrale di potenza si presenta come mostrato in Fig. 23.3, quindi del tipo:
() = [ (
+

+ 0
0
) + (
)]

(23.3.1)

dove 0 = 1 2 2 e sono rispettivamente la frequenza di centro banda e la banda del rumore.

Segnali passa-banda

- 391 -

Lautocorrelazione in questo caso vale:


() = (

0 +

0 +

2 )

(23.3.2)

= 2sinc()cos(20 )

il suo andamento riportato in Fig.


23.4, nella quale stato scelto un va-

Ws ( f )

lore del rapporto


f

dellordine

dellunit, per chiarirne meglio landamento qualitativo. Nella realt tale vaFig. 23.3 - Densit spettrale di un
lore risulta essere quasi sempre molto
rumore bianco passabanda
maggiore di 1.
f2

f1

f1

f0

f2

23.4 - Segnali aleatori passabasso.


Per segnale aleatorio passabasso sintende un processo (, )
per il quale esiste una frequenza tale che per ogni valore di risulti:
() = ()

(2

(23.4.1)

Il minimo valore di | |che soddisfa la precedente prende il nome di


banda del segnale.
Si vuole verificare se possibile
Rs ()
estendere ad un se2B
gnale del tipo anzidetto il teorema
del campionamento (vedi CAPITO
LO - 9), nellipotesi in cui il segnale
sia almeno in senso lato stazionario.
A tal fine si scelga
Fig. 23.4 - Funzione di autocorrelazione di un rumore una
frequenza
bianco passa-banda.
2 e si costruisca il segnale aleatorio:

(, ) = ( , ) sinc [ ( )]

(23.4.2)

- 392 -

Analisi dei segnali aleatori

Occorre in sostanza mostrare che il processo (, ) si identifica con il segnale. A tal fine sufficiente verificare che:

{(, ) (, )}2 = 0

(23.4.3)

Risulta:

{(, ) (, )}2 =
[(, )]2 +
[ (, )]2 2(,
) (, )

= [(,
)]2

( , ) ( , ) sinc [ ( )] sinc [ (

= =

(23.4.4)

)] 2 (, ) ( , ) sinc [ ( )]

La precedente in virt dellipotizzata stazionariet pu essere ulteriormente elaborata:

{(, ) (, )}2

= (0) + (
) sinc [ ( )] sinc [ ( )]

,=

2 (
=

) sinc [ ( )]

= (0)

(23.4.5)

+ sinc [ (
=

)] ( ) sinc [ (
)]

2 ( ) sinc [ ( )]

Ricordando che, per ipotesi, la trasformata di Fourier della ()


nulla per || > risulta ancora:

[{(, ) (, )}]2

= (0) + (

2 (
=

) sinc [ (

= (0) (
=

) sinc [ ( )]

)]

(23.4.6)

) sinc [ ( )]

Si prenda ora in considerazione la funzione ( ) della variabile . Essa per le ipotesi fatte sul processo ammette trasformata di
Fourier in corrispondenza ad ogni valore di , inoltre come si evince

Segnali passa-banda

- 393 -

facilmente la sua trasformata nulla per || pertanto si pu


scrivere:

( ) = ( ) sinc [ ( )]

(23.4.7)

Si constata che il secondo membro della precedente, valutato in , si


identifica con la sommatoria che compare allultimo membro della
(23.4.6), si pu quindi concludere che:

[(, ) (, )]2

= (0) (
=

) sinc [ ( )]

(23.4.8)

= (0) ( ) = 0

Pertanto i processi (, ) ed (, ) individuano in ogni istante, con probabilit 1 , la stessa variabile aleatoria. Essi quindi sono di
fatto due rappresentazioni dello stesso processo.
Quanto appena
dedotto consente di afWs ( f )
fermare, dal momento
che ogni manifestazione
di (, ) passabasso,
che un segnale aleatorio
f1
f2 f
- f2
- f1
passabasso costituito,
Be
eccetto al pi per un
Fig. 23.5 Densit spettrale di un segnale di tipo
sottoinsieme di manifepassabanda.
stazioni che hanno probabilit nulla di presentarsi, da manifestazioni di tipo passabasso.
23.5 - Segnali aleatori passabanda.
Un segnale aleatorio (, ), detto di tipo passabanda se esistono 1 , 2tali che per ogni valore della frequenza risulti:
() = () [

(2 ) (2 )]
2

(23.5.1)

Si noti che, escludendo il caso banale di una densit spettrale di potenza identicamente nulla, deve essere 0 < |1 | |2 | < . In altri
termini la (23.5.1) significa che un processo passabanda se esiste un
intervallo [1 , 2 ] + tale che la densit spettrale di potenza del se-

- 394 -

Analisi dei segnali aleatori

gnale sia nulla per || [1 , 2 ] (Errore. L'origine riferimento


non stata trovata.).
Il diametro dellintervallo [1 , 2 ] di ampiezza minima prende il
nome di banda del segnale.
Ad un tale segnale passabanda si pu associare anche una frequenza 0 che generalmente appartiene allintervallo [1 , 2 ]. I criteri
in base ai quali tale frequenza viene scelta dipendono dal tipo di segnale, in particolare dal modo in cui ad esso associato il contenuto
informativo. Ad esempio si potrebbe assumere la frequenza di centro
+

banda 0 = 1 2 2 , ovvero la frequenza in corrispondenza alla quale risulta massima la densit spettrale di potenza del segnale, o ancora
quella frequenza che, pensando alla densit spettrale di potenza come alla densit di una massa distribuita lungo lasse delle frequenze,
minimizza il momento dinerzia della parte a frequenza positiva cio
che rende minima la quantit:

( 0 )2 ()
0

(23.5.2)

Questultimo criterio si rivela utile, ad esempio, qualora le frequenze


1 , 2 che delimitano la banda del segnale non siano chiaramente definibili, ovvero quando il segnale non rigorosamente passabanda
nel senso che non esistono 1 , 2 , ma la potenza risulta comunque, a
meno di una frazione che si pu ritenere trascurabile, concentrata in
due intervalli che non contengono lorigine e che, supponendo il segnale reale, sono disposti simmetricamente rispetto ad essa.
In taluni casi anche utile definire una banda equivalente:

()
=
2 (0 )

(23.5.3)

che corrisponde alla larghezza di banda che dovrebbe avere un rumore bianco, con frequenza di centro banda 0 , per esibire la stessa
potenza media del segnale, nellipotesi in cui allinterno di tale banda
la densit spettrale del rumore valga (0 ). Per questo motivo la ,
appena definita, detta banda equivalente di rumore (vedi Errore. L'origine riferimento non stata trovata.).
Se la banda equivalente molto piccola rispetto ad 0 ,
<< 0 , il segnale si dir a banda stretta o quasi monocromatico.

Segnali passa-banda

- 395 -

Prendendo le mosse dalla caratterizzazione dei segnali reali determinati di tipo passa-banda (vedi CAPITOLO - 7), si osservi che,
fatta eccezione al pi per un insieme di manifestazioni che costituiscono un evento che si presenta con probabilit nulla, la generica
manifestazione (, ) di un segnale aleatorio passabanda, cio, con
probabilit 1, un segnale determinato passabanda. Ad esso corrisponde pertanto un segnale analitico (, ) = (, ) + (, ).
Si cos individuato un segnale aleatorio complesso (, ).
Tale processo caratterizzato da unautocorrelazione:
(1 , 2 ) =
(1 , )(2 , )

= ((1 , ) (1 , ))((2 , ) + (2 , ))

=
(1 , )(2 , ) +
(1 , ) (2 , ) + (
1 , ) (2 , )

(1 , )(2 , )
= (1 , 2 ) + (1 , 2 ) + ( (1 , 2 ) (1 , 2 ))

(23.5.4)

dove (1 , 2 )rappresenta lautocorrelazione del segnale, (1 , 2 )


quella del processo (, ) anchesso reale, le cui manifestazioni sono
le trasformate di Hilbert delle corrispondenti manifestazioni di
(, ), ed (1 , 2 ), (1 , 2 ) rappresentano le correlazioni mutue
tra i due segnali che, come si pu constatare facilmente, sono legate
dalla eguaglianza (1 , 2 ) = (2 , 1 ).
Si osservi che, sottintendendo che gli integrali sono effettuati
nel senso del loro valore principale, risulta:
(1 , 2 ) =
(1 ) (2 )

1 (1 )
1 (2 )
=
1

1 1
2 2 2

1
(1 )(2 )
= 2

(1 1 )(2 2 ) 1 2
1
(1 , 2 )
= 2

(1 1 )(2 2 ) 1 2

(23.5.5)

analogamente per (1 , 2 ) si pu scrivere:

1 ()
(1 , 2 ) =
(1 ) (2 ) = (1 )

2
1
(1 )()
1 (1 , )
=
=

(2 )
(2 )

(23.5.6)

Se lautocorrelazione del segnale (, )dipende soltanto dalla


differenza tra 2 e 1 le due equazioni precedenti possono essere ulte-

- 396 -

Analisi dei segnali aleatori

riormente elaborate. In particolare, se nellultimo membro della


(23.5.5) si effettua la sostituzione di variabili = 2 1 , = 1 , alla
quale corrispondente un determinante Jacobiano pari a 1, si ottiene:
1
(2 1 )

R2 (1 1 )(2 2 )
1
1
1
()
=
[
]
(1 ) (2 )
1 (2 )
1 ()
=
=

(1 )
(1 2 )

1
()
=
= (1 2 ) = (2 1 )
(1 2 )
(1 , 2 ) =

(23.5.7)

per dedurre la quale si tenuto conto del fatto che, come si deduce
facilmente, la trasformata di Hilbert di una funzione pari una funzione dispari del suo argomento.
La (23.5.7) mostra che sotto lipotesi sopra introdotta il processo (, ) ha la stessa autocorrelazione di (, ) risulta cio:
() = ()

(23.5.8)

Nella stessa ipotesi in virt della (23.5.6) per (1 , 2 ) si ottiene:


1 ( 1 )

(2 )

1
()
=
= (2 1 )
(2 1 )
(1 , 2 ) =

(23.5.9)

in conclusione quindi tenendo anche conto delle condizioni di simmetria risulta:


() = () = ()

(23.5.10)

Se il segnale ha valor medio =


(, ) indipendente dal
tempo si ha:

z(t, ) =
s(t, ) + js
(t, ) = ms +

j
ms
VP
d = ms

(23.5.11)

dalla quale si evince che risultano indipendenti dal tempo sia il valor
medio di (, ) sia quello di (, ).

Segnali passa-banda

- 397 -

Se si prendono in considerazione segnali passabanda stazionari almeno in senso lato, tenendo conto delle (23.5.8) e (23.5.10), dalla
(23.5.4) si ottiene:
(1 , 2 )
= (1 , 2 ) + (1 , 2 ) + ( (1 , 2 ) (1 , 2 ))
= (2 1 ) + (2 1 ) + ( (2 1 ) (1
2 )) = 2 (2 1 ) + 2 (2 1 )

(23.5.12)

Dalle precedenti si conclude che se il segnale stazionario in senso


lato tali risultano essere sia (, ) sia (, ).
Ci posto, se al segnale passabanda, che in quel che segue si
suppone stazionario almeno in senso lato, si associa una frequenza
0 , resta definito il segnale aleatorio:
(, ) = (, ) 20

(23.5.13)

le cui manifestazioni sono cio gli inviluppi complessi delle corrispondenti manifestazioni del segnale (, ).
Tenuto conto del legame tra (, ) e (, ) e della precedente
si pu scrivere:
(, ) = Re[(, ) 20 ]

(23.5.14)

La precedente, dette (, ) = Re[(, )] ed (, ) = Im[(, )]


rispettivamente le componenti in fase ed in quadratura della generica
manifestazione del segnale, soggetta ad essere ulteriormente elaborata fornendo:
(, ) = (, )cos20 (, )20

(23.5.15)

Volendo caratterizzare i due processi s f (t, ) ed sq (t, ) , utile


esprimerli in termini del segnale e della sua trasformata di Hilbert,
una tale rappresentazione si ottiene facilmente dalla (23.5.14):
(, ) = Re[(, )] = Re[(, ) 20 ]
= (, )cos20 + (, )20

(23.5.16)

Analogamente per (, )si ha:


(, ) = Im[(, ) 20 ]
= (, )cos20 (, )20

(23.5.17)

Lautocorrelazione (1 , 2 ) di (, ), se (, ) stazionario in senso lato, vale:

- 398 -

Analisi dei segnali aleatori

(, + )
= {((, )cos20 + (, )sin20 ( + , )cos20 ( + )
+ ( + , )sin20 ( + ))}
= ()cos20 cos20 ( + ) + ()sin20 cos20 ( + )
+ + ()cos20 sin20 ( + ) + ()sin20 sin20 ( + ) (23.5.18)
= ()(cos20 cos20 ( + ) + sin20 sin20 ( + ))
+ ()(sin20 cos20 ( + ) cos20 sin20 ( + )) =
= ()cos20 ()sin20
= ()cos20 + ()sin20

dove le varie funzioni di correlazione sono state per comodit


espresse in termini delle variabili = 1e = 2 1 , analogamente
per (1 , 2 )si ha:
(, + )
= {( (, )cos20 (, )sin20 )( ( + , )cos20 ( + )
( + , )sin20 ( + ))}
= ()sin20 sin20 ( + ) ()cos20 sin20 ( + )
()sin20 cos20 ( + ) + ()cos20 cos20 ( + ) (23.5.19)
= ()(20 sin20 ( + ) + cos20 cos20 ( + ))
()(sin20 cos20 ( + ) cos20 sin20 ( + ))
= ()cos20 ()sin20
= ()cos20 + ()sin20

Si quindi giunti allimportante conclusione che le funzioni


di autocorrelazione di (, ) ed (, ) sono uguali e dipendono
esclusivamente dalla differenza tra gli istanti di osservazione, risulta
cio:
() = () = ()cos20 + ()20

(23.5.20)

Quanto appena detto, non tuttavia sufficiente per affermare


che i due processi in questione sono stazionari in senso lato. Occorrerebbe infatti verificare che i loro valori medi siano indipendenti dal
tempo.
Osservando le (23.5.16) e (23.5.17) ci si convince che la stazionariet in senso lato di (, ) non comporta il fatto che il valor
medio di (, ) ed (, ) sia indipendente dal tempo, a meno che
il valor medio di (, )non sia nullo.
Per quanto riguarda le funzioni di mutua correlazione
(1 , 2 )ed (1 , 2 )si ha:

Segnali passa-banda

- 399 -

(, + ) =
(, ) ( + , )
= {( (, )cos20 (, )sin20 )(( + , )cos20 ( + )
+ ( + , )sin20 ( + ))}
(23.5.21)
= ()(cos20 1 cos20 ( + ) + sin20 sin20 ( + ))
+ ()(cos20 sin20 ( + ) sin20 cos20 ( + ))
= ()cos20 () + ()sin20

In virt delle condizioni di simmetria si ottiene facilmente:


() =
(, ) ( + , )

= ()cos20 () ()sin20 () =

()

(23.5.22)

dalla quale si deduce, tra laltro, che () una funzione dispari.


adesso possibile ricavare lautocorrelazione (1 , 2 ) dellinviluppo complesso del segnale in termini delle funzioni di correlazione delle componenti in fase ed in quadratura:
(, + )
=
( (, ) (, ))( ( + , ) + ( + , ))
= () + () + ( () ())
= 2 () + 2 ()

(23.5.23)

che, come era prevedibile, dipende ancora una volta soltanto da .


Dalla precedente utilizzando le (23.5.20) e (23.5.21) si ottiene:
()
= 2( ()cos20 + ()sin20 )
+ 2( ()cos20 () ()sin20 ())
= 2[( () + ())cos20 ( ()
+ ())sin20 ] = () 20

(23.5.24)

Inoltre eliminando () tra la (23.5.18) e la (23.5.23) si ottiene lespressione dellautocorrelazione del segnale () in termini di
() ed ():
() = ()cos20 () ()sin20

(23.5.25)

Se il segnale oltre ad essere stazionario in senso lato ha anche


valor medio nullo dalla precedente si deduce:
(0) = (0) = (0) 2

(23.5.26)

cio le componenti in fase e in quadratura presentano la stessa varianza di (, ).

- 400 -

Analisi dei segnali aleatori

Dalla (23.5.21) si deduce facilmente che (), e quindi anche (), una funzione dispari pertanto essa deve essere nulla
per = 0 risulta cio:
(0) = (0) = 0

(23.5.27)

le componenti in fase ed in quadratura osservate in uno stesso istante


individuano due variabili aleatorie incorrelate.
In Conclusione si pervenuti ai seguenti risultati: se un segnale aleatorio passabanda stazionario almeno in senso lato tale risulta
il segnale analitico ad esso associato; se inoltre il segnale ha anche valor medio nullo, allora sono stazionarie in senso lato ed a media nulla
anche le sue componenti in fase ed in quadratura, e, come si evince
facilmente, il suo inviluppo complesso, indipendentemente dal valore
scelto per la0 alla quale detti segnali sono riferiti. Le componenti in
fase ed in quadratura sono anche congiuntamente stazionarie e hanno uguale funzione di autocorrelazione, inoltre la loro varianza coincide con quella del segnale.
Si vuole a questo punto indagare su come si riflettano le relazioni appena dedotte tra le varie funzioni di auto e mutua correlazione dei processi legati ad un segnale passabanda (a media nulla, stazionario in senso lato) sulle corrispondenti densit spettrali di potenza.
A tal fine innanzi tutto si osservi che la funzione di autocorrelazione di (, ) assume forma analoga a quella di un segnale analitico associato ad un segnale passabasso reale. La trasformata di Fourier di detta autocorrelazione assume pertanto valori non nulli solo
per valori di frequenza maggiori di zero, e per tali valori coincide con
il doppio della trasformata di Fourier della sua parte reale. Nel caso
in esame questultima il doppio della funzione di autocorrelazione
di (, ), la cui trasformata di Fourier la densit spettrale di potenza () del segnale. La densit spettrale di potenza di (, ) vale
pertanto:
() = 4 ()u()

(23.5.28)

essa pari, cio, a quattro volte la densit spettrale di potenza del segnale per frequenze positive ed nulla per frequenze negative.

Segnali passa-banda

- 401 -

Tenuto conto della precedente si deduce facilmente la


densit spettrale dellinviluppo complesso:
() = () ( 0 ) = 4 ( + 0 )u( + 0 )

(23.5.29)

che, ci si convince facilmente, pu essere non nulla solo per valori di


frequenza appartenenti allintervallo [1 0 , 2 0 ], questa considerazione si traduce nel fatto che linviluppo complesso un segnale
passabasso tutte le volte che si sceglie una 0 appartenente allintervallo[1 , 2 ].
Daltro canto si pu anche esprimere la () trasformando
la (23.5.23) in questo caso si ottiene:
() = [2 () + 2 ()]
= 2 () + 2 ()

(23.5.30)

dove () e (), rappresentano rispettivamente la densit


spettrale di potenza della componente in fase e la densit spettrale
incrociata tra le componenti in fase ed in quadratura associate al segnale. Risulta evidentemente:
() = (), () = ()

(23.5.31)

inoltre () una funzione reale pari, mentre, in quanto trasformata di una funzione reale dispari, () una funzione puramente immaginaria dispari.
La (23.5.30) costituisce cio la decomposizione della funzione
reale () nella sua parte pari, 2 (), e nella sua parte dispari
2 ().
Questultima osservazione consente innanzitutto di affermare
che anche () e () possono assumere valore non nullo soltanto in corrispondenza a frequenze appartenenti allintervallo
[1 0 , 2 0 ].
Inoltre nel caso particolare in cui () una funzione pari
deve necessariamente essere () = 0. Ci implica () = 0,
cio che le componenti in fase ed in quadratura del segnale risultano
incorrelate. Ci si convince facilmente che, in virt delle (23.5.28) e
(23.5.29), affinch () sia pari, ()u()deve essere simmetrica
rispetto a 0 .

- 402 -

Analisi dei segnali aleatori

In questo caso il processo (, ) sarebbe reale di tipo passabasso, e la sua funzione di autocorrelazione coinciderebbe con il
doppio di quella della componente in fase o, che lo stesso, della
componente in quadratura del segnale, che sarebbero anchessi dei
processi passabasso.
23.6 - Segnali gaussiani.
Sia (, ) un segnale reale, gaussiano, stazionario passabanda
caratterizzato da un valor medio nullo e da una densit spettrale pari
a (). Esso, per, quanto visto al paragrafo precedente, pu essere
posto nella forma:
(, ) = (, )cos20 (, )sin20

(23.6.1)

o alternativamente:
(, ) = (, )cos[20 (, )]

(23.6.2)

dove:
(, ) = 2 (, ) + 2 (, )
{

(, ) = arctang

(, )
(, )

(23.6.3)

rappresentano l'ampiezza (o inviluppo) e la fase istantanei di (, ).


Richiamando le conclusioni tratte al paragrafo precedente, le
componenti in fase e in quadratura di (, ) (vedi (23.5.16)
(23.5.17)) possono essere espresse in termini del segnale stesso e della sua trasformata di Hilbert (, ). Dal momento che (, ) ottenuto da (, ) mediante una trasformazione lineare, anche (, ) e
(, ) dipendono linearmente da (, ). Ci comporta che se
(, ) un segnale gaussiano, lo sono pure le sue componenti in fase e in quadratura. Per caratterizzare statisticamente (, ) e
(, ) sufficiente quindi valutarne il valor medio e la varianza.
Dal momento che si ipotizzato nullo il valor medio del segnale risulta:

(, ) =
(, ) =
(, ) = 0

ed in virt della stazionariet si ha anche:

(23.6.4)

Segnali passa-banda

- 403

2 (, ) =
2 (, ) =
2 (, ) = 2 = ()

(23.6.5)

Inoltre:

(, ) (, ) = (0) = 0

(23.6.6)

Ci significa che i processi (, ) e (, ), essendo gaussiani, valutati in uno stesso istante individuano una coppia di variabili aleatorie statisticamente indipendenti.
Si pu scrivere allora:
(),() (, ) = () () () () =

2 +2
1

22

2 2

(23.6.7)

la quale pu essere espressa in termini delle variabili aleatorie e ,


definite dalla (IX.4.3). A tal fine, operando la trasformazione:
= cos
{ = sin

(23.6.8)

ed eguagliare le probabilit con cui si verifica un evento elementare


sia che venga riferito al sistema di coordinate (, , ) sia al sistema
di coordinate polari appena introdotto. Si pu scrivere:
(), () (, ) = (), () (cos, sin)||

(23.6.9)

dove || lo Jacobiano della trasformazione (23.6.8) che vale come


noto .
La (),() (, ) assume come si deduce facilmente la forma:
(),() (, ) = (),() (cos, sin)||
1
2
=
( ) 2 22 ()
2
2

(23.6.10)

che, come si constata facilmente, si pu esprimere come prodotto di


una funzione della sola variabile e di una della sola . Le due variabili individuate in uno stesso istante dai segnali definiti nella (23.6.3)
sono anchesse statisticamente indipendenti, in particolare si constata
che la densit di probabilit della fase istantanea (, ) uniforme in
[, ], mentre la densit di probabilit di (, ) che vale:
() () =

di Rayleigh.

22
2 u()
2

(23.6.11)

- 404 -

Analisi dei segnali aleatori

23.7 - Segnale gaussiano a banda stretta sovrapposto a


un segnale deterministico di tipo sinusoidale.
Sia (, ) un segnale aleatorio della forma:
(, ) = cos(20 + ) + (, )

(23.7.1)

in cui (, ) un rumore gaussiano a banda stretta, stazionario a valor medio nullo e varianza 2 , una variabile casuale uniformemente distribuita in [, ] e indipendente dal segnale (, ).
Adottando per (, ) la rappresentazione fornita dalla (23.5.1) si
pu scrivere:
(, )
= cos(20 + ) + cos20 (, )cos20
(, )20
= (cos + (, ))cos20 (
+ (, ))20

(23.7.2)

questultima si lascia facilmente scrivere secondo la forma (23.5.14):


(, ) = Re[(, ) 20 ]

(23.7.3)

nella quale l'inviluppo dampiezza |(, )| dato da:


|(, )| = [ (, )]2 + [ (, )]2

(23.7.4)

nella quale si posto:


{

(, ) = cos + (, )
(, ) = + (, )

(23.7.5)

Detta (, ) la fase istantanea di (, ) risulta:


(, ) = arctang

(, )
cos + (, )
= arctang
(, )
+ (, )

(23.7.6)

Le (23.7.5), possono anche essere facilmente scritte in termini


di |(, )| e di (, ):
{

(, ) = |(, )|cos(, ) = Re[(, )]


(, ) = |(, )|sin(, ) = Im[(, )]

(23.7.7)

Tenendo conto delle (23.6.4), si ottiene:


(, ) = (, ) cos = |(, )|cos(, ) cos
{
(, ) = (, ) sin = |(, )|sin(, ) sin (23.7.8)

Segnali passa-banda

- 405 -

Dal momento che i segnali (, ) e (, ) sono gaussiani,


stazionari, a valor medio nullo e varianza 2 , la densit di probabilit
congiunta (), (), (, , ) si pu scrivere nella forma:
(),(), (, , ) = () () () () ()
2 +2
1

= 2 2 22
( )
4
2

(23.7.9)

data la ipotizzata statistica indipendenza della fase sia da che da


.
Tenendo conto della (23.6.8), si pu finalmente determinare la
densit di probabilit incrociata |()|,(), (, , ). Risulta:
|()|,(), (, , )
2 +2 2cos()

22
= 2 2
u()
4

(2
)( )
2

(23.7.10)

Per ottenere la densit di probabilit del primo ordine dell'inviluppo |(, )| occorre marginalizzare la precedente rispetto alle
variabili e . Si ha:
|()| () = |()|,(), (, , )
R2

2 2 cos()
2 +2

= 2 2 22 u() 2
4
0
0

(23.7.11)

Lintegrale pi interno dellultimo membro della precedente vale:


2

cos()

= 20 ( 2 )

(23.7.12)

dove 0 () denota la funzione di Bessel modificata di prima specie


di ordine zero. Si ottiene cos
2
2 +2

22 ()

20 ( 2 )
2
2
4

0
2+2 2
= 2 2 0 ( 2 )()

|()| () =

nota come distribuzione di Rice o di Rayleigh generalizzata.

(23.7.13)

- 406 -

Analisi dei segnali aleatori

Definendo la variabile aleatoria normalizzata =


ducendo il parametro =

e intro-

la densit di probabilit della variabile

0.6

p (l )

0.4

0.3
0.2
0.1
2

Fig. 23.6 - Densit di probabilit dell'inviluppo.

aleatoria in funzione del parametro pu ancora essere riscritta:


1

() = 2(

2 +2 )

0 ()()

(23.7.14)

il cui andamento in corrispondenza a diversi valori del parametro


riportato in Fig. 23.6
Se si marginalizza la (IX.4.10) rispetto a |()|, si ottiene la
densit di probabilit incrociata tra la fase istantanea del rumore ()
e :
(), (, )

=
0

2 +2 2cos()

22

( ) ( )
2
2
4
2
2

(2 ) (2 )
4 2 2

(2 ) (2 )
4 2 2

2 +2 2cos()
22

2 sin2 ()
22

(23.7.15)

(cos())2
22

Questultima suscettibile dellulteriore elaborazione:

Segnali passa-banda

(), (, )
=

(2 ) (2 )
4 2 2

(2 ) (2 )
4 2 2

2 sin2 ()
22

(cos())2
22

- 407 -

(23.7.16)

2
2 22

2 sin2 ()

cos( )

22
+ cos( )
[1 + erf (
)]}
2
2

che, introducendo il parametro , diventa:


(), (, )

(2 ) (2 )

2
22

+ cos(
2
2 sin2 ()
cos(
)

22
)
[1 + erf (
)]}
2
=

4 2

(23.7.17)

L'andamento della funzione , (, ) in funzione di

Fig. 23.7

riportato in Fig. 23.7per diversi valori del parametro .

Bibliografia
[1] - B. Lvine; Fondements thoriques de la radiotechnique statistique. Tome I. Editions MIR. Moscou. 1973.
[2] - M. Schwartz, L. Shaw: Signal Processing: Discrete Spectral
Analysis, Detection, and Estimation. McGraw-Hill. New York.
1975.
[3] B.Gnedenko: The theory of probability. MIR Puplishers Moscow. 1976
[4] - A. Papoulis: Signal Analysis: McGraw-Hill. New York. 1977
[5] - F. de Coulon: Thorie et traitment des signaux: Editions
Georgi. Lausanne. 1984.
[6] - J. Proakis, D.G. Manolakis: Introduction to Digital Signal Pocessing. Maxwell, Macmillan. Int. New York. 1988
[7] - A.V. Oppenheim, A.V. Schafer: Discrete-time Signal Processing. Prentice-Hall, Englewood Cliffs, N.J. 1989
[8] - J.G. Proakis, C.M. Rader, F. Ling, C.L. Nikias: Advanced Digital
Signal Processing. Maxwell, Macmillan. Int.Ed. New York.
1992.
[9] - B.Pincibono: Random Signals and Systems. Prentice-Hall Int.
Englewoogd Cliffs, New Jersey, 1993.

You might also like