Professional Documents
Culture Documents
DI
ENERGIA
INGEGNERIA DELLINFORMAZIONE
E
MODELLI MATEMATICI
(DEIM)
Lezioni
Di
Teoria
Dei
Segnali
Giovanni Garbo,
Giovanni Mamola,
Stefano Mangione
29/12/2014
SOMMARIO
Introduzione
CAPITOLO - 1
Richiami di Matematica
1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 -
1
7
7
Premessa. ........................................................................... 7
Lintegrazione alla Lebesgue. .......................................... 7
Misura associata a una classe di insiemi....................... 10
-Algebra di Borel........................................................... 11
La misura di Lebesgue su .......................................... 11
La misura di Lebesgue su ....................................... 12
Funzioni integrabili alla Lebesgue e relative propriet.13
Funzioni a quadrato sommabile .................................... 16
CAPITOLO - 2
Rappresentazione Vettoriale dei Segnali
33
33
CAPITOLO - 3
Segnali Periodici
3.1 3.2 3.3 3.4 3.5 -
55
55
Generalit. ....................................................................... 55
Serie di Fourier in forma esponenziale. ........................ 56
Forma trigonometrica della serie di Fourier. ................ 59
Segnali reali. .................................................................... 60
Propriet della serie di Fourier. ..................................... 65
Linearit ....................................................................................... 65
Inversione nel dominio del tempo ................................................ 66
Segnale coniugato ......................................................................... 66
Coefficienti coniugati .................................................................... 66
Traslazione nel dominio del tempo ............................................... 67
Traslazione nel dominio della frequenza ....................................... 67
Convoluzione nel dominio del tempo ........................................... 67
Convoluzione nel dominio della frequenza ................................... 68
CAPITOLO - 4
Segnali a Energia Finita
73
73
Introduzione
CAPITOLO - 5
Segnali a Potenza Finita
107
107
CAPITOLO - 6
Trasformazioni Lineari dei Segnali
133
133
CAPITOLO - 7
Caratterizzazione Energetica dei Segnali
145
145
CAPITOLO - 8
Caratteristiche e Propriet dei Segnali
163
163
Introduzione
CAPITOLO - 9
Il Campionamento dei Segnali
9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 -
177
177
CAPITOLO - 10
Segnali a tempo discreto
201
201
CAPITOLO - 11
Trasformazioni lineari discrete
219
219
CAPITOLO - 12
Valutazione Numerica della Trasformata di Fourier
227
227
CAPITOLO - 13
Richiami di Teoria della Probabilit
241
241
CAPITOLO - 14
Variabili Aleatorie
253
253
Introduzione
CAPITOLO - 15
Funzioni di variabili aleatorie
269
269
CAPITOLO - 16
Medie Statistiche
16.1 16.2 16.3 16.4 -
CAPITOLO - 17
Variabili Aleatorie Notevoli
17.1 17.2 17.3 17.4 17.5 17.6 17.7 17.8 17.9 -
275
275
288
288
CAPITOLO - 18
Caratterizzazione Statistica dei Segnali
302
302
CAPITOLO - 19
Valori Medi, Stazionariet ed Ergodicit
325
325
CAPITOLO - 20
Segnali Gaussiani
341
341
CAPITOLO - 21
359
Caratterizzazione Energetica di Segnali a Tempo Continuo ....................
21.1 - Funzione di autocorrelazione. .................................... 359
la funzione di autocorrelazione normalizzata ...................... 362
la funzione di autocovarianza ............................................... 362
la funzione di autocovarianza normalizzata, o coefficiente di
autocorrelazione..................................................................... 362
21.2 - Densit spettrale di potenza. ...................................... 363
21.3 - Caratterizzazione dei segnali nel dominio della
frequenza. ............................................................................... 366
21.4 - Segnali ciclostazionari. ............................................... 371
21.5 - Segnali distinti. Funzioni di correlazione e densit
spettrale incrociate................................................................. 376
Introduzione
CAPITOLO - 22
381
Caratterizzazione Energetica di Segnali Aleatori a Tempo
Discreto
381
22.1 - Funzione di autocorrelazione..................................... 381
22.2 - Densit spettrale di potenza....................................... 383
22.3 - Caratterizzazione nel dominio della frequenza ........ 385
CAPITOLO - 23
Segnali Passabanda
389
389
INTRODUZIONE
Una grandezza fisica, alla cui variazione in funzione di determinate variabili, quali, ad esempio, il tempo, le coordinate di un punto nel
piano o entrambe, associata una certa quantit di informazione, costituisce un segnale.
La tensione o la corrente all'ingresso di un biporta, la pressione
acustica incidente sulla membrana di un microfono, l'intensit di un'immagine in un punto di uno schermo o la successione temporale di immagini quali quelle che si ottengono in una ripresa televisiva, sono
esempi di segnali.
A seconda degli aspetti che interessa mettere in evidenza possibile classificare i segnali secondo criteri diversi.
Una prima classificazione di natura fenomenologica. Essa basata sul tipo d'evoluzione subita dal segnale in funzione delle variabili
indipendenti. Su questa base i segnali si distinguono in segnali determinati e segnali aleatori.
Limitandosi per il momento a considerare segnali che dipendono
esclusivamente dal tempo, un segnale si dice determinato quando i valori che esso assume in corrispondenza ad un qualsiasi istante sono conosciuti esattamente.
Per contro i segnali aleatori sono quelli il cui andamento temporale imprevedibile, anche se possibile determinarne alcune caratteristiche medie. Di conseguenza, mentre un segnale determinato perfettamente ripetibile, altrettanto non si pu dire per un segnale aleatorio
giacch, per la sua natura casuale, esso pu assumere forme diverse anche se viene osservato in esperimenti effettuati nelle medesime condizioni.
Da quanto detto discende che, mentre possibile rappresentare
un segnale determinato mediante una funzione (reale o complessa) di un
certo numero di variabili indipendenti, ci non pu essere fatto nel caso
di segnali aleatori, a meno che, una tale funzione, non venga costruita
sulla base di una manifestazione del segnale ottenuta a posteriori. Di
conseguenza mentre possibile affrontare lo studio dei segnali determinati utilizzando algoritmi matematici che presuppongono una rappresentazione analitica del segnale, nel caso di segnali aleatori si deve ricor-
Figura 1 - a) Segnale a tempo-continuo b) segnale a tempo discreto, c) segnale quantizzato, d) segnale numerico.
Introduzione
discreto in ampiezza. Un segnale discreto in ampiezza pu essere ulteriormente classificato in segnale quantizzato (vedi Figura 1,c) e in segnale numerico (vedi Figura 1,d) se esso a tempo continuo o discreto.
Una terza classificazione di natura energetica.
A tale scopo si definisce energia specifica associata ad un segnale
rappresentato da una funzione definita su tutto l'asse dei tempi a valori
generalmente complessi, la quantit:
(i.2)
= |()|2
La precedente detta energia specifica in quanto essa rappresenterebbe l'energia effettivamente dissipata su una resistenza di valore unitario che venisse attraversata da una corrente ().
La potenza (media) specifica, in armonia con la (i.2), definita dal
limite:
(i.3)
1 2
= lim |()|2
2
(i.4)
= |()|2
=
(i.5)
1
|()|2
2 + 1
= lim
Si noti che un segnale ad energia finita presenta una potenza specifica nulla; inoltre se la potenza specifica definita dalla (i.3) o dalla (i.5)
maggiore di zero, le quantit a secondo membro delle (i.2) e (i.4) non
sono finite.
Ci premesso, si definiscono segnali ad energia finita quei segnali
per cui lenergia specifica finita. Si dicono a potenza finita i segnali per
i quali finita e non nulla la potenza specifica.
Un'ulteriore classificazione di natura dimensionale. Essa basata sul numero di variabili indipendenti da cui il segnale dipende. Ad
esempio i segnali che dipendendo soltanto dal tempo sono monodimensionali, mentre una immagine fissa e una sequenza di immagini in bianco
e nero sono esempi di un segnale rispettivamente bi e tridimensionale.
Esempio 1
Si consideri il segnale
() = 20
= =
= lim
con costante.
A secondo del valore di , () pu essere classificato come segnale a energia o a potenza finita.
a) s(t) un segnale a energia finita se l'integrale:
= 2||
1 2
= lim { 2 + 2 } = lim
0
0
1
( > 0)
1 2
1
= lim 2|| = lim
= lim
Introduzione
( = 0)
CAPITOLO - 1
RICHIAMI DI MATEMATICA
1.1 - Premessa.
In questo capitolo si accenna brevemente, senza alcuna pretesa di
rigore, ai fondamenti dellintegrazione alla Lebesgue, alla teoria della misura degli insiemi, agli spazi vettoriali e alle forme quadratiche, con il solo scopo di porre laccento su alcuni aspetti che si ritengono importanti
per la comprensione di quanto esposto in questo testo, sia con riferimento alla parte concernente allanalisi dei segnali determinati, sia a
quella riguardante i segnali aleatori.
1.2 - Lintegrazione alla Lebesgue.
In quel che segue, richiamata lintegrazione alla Lebesgue. Essa
verr applicata inizialmente a delle funzioni elementari, per poi estenderla alla pi ampia classe delle cosiddette funzioni misurabili.
Si prenda in considerazione linsieme delle funzioni limitate definite su un intervallo chiuso e limitato A = [, ]. Per una qualsiasi funzione appartenente a detto insieme si ha in pratica:
() [, ]
(1.2.1)
= ( 1 ) ;
=1
(1.2.2)
= ( 1 ) ;
=1
= 1 , ;
=1
=1
(1.2.3)
= , ;
=1
=1
(1.2.4)
= ( 1 ) , < ,
=1
=1
=1 =1
(1.2.5)
= ( )
= 1 ( 1 (I )) ;
=1
= (
(1.2.6)
1
(I )) ;
=1
10
mente numerica. pertanto utile per i nostri scopi accennare al problema della misura dinsiemi in termini pi generali.
1.3 - Misura associata a una classe di insiemi.
Dato un generico insieme U, finito o infinito, sindividui in esso
una classe di suoi sottoinsiemi tale che:
(1.3.1)
(1.3.2)
Dove con I indichiamo linsieme (al pi numerabile) cui appartengono gli indici utilizzati per gli insiemi della famiglia.
Innanzi tutto si osservi che le (1.3.1), (1.3.2) implicano che U ,
e ad deve appartenere anche linsieme vuoto. Inoltre si verifica facilmente che anche lintersezione di una famiglia al pi numerabile di sottoinsiemi appartenenti ad , deve appartenere ad .
Data una generica famiglia di sottoinsiemi di U, da essa si pu
sempre ottenere, aggiungendovi degli ulteriori sottoinsiemi di U, opportunamente scelti, una classe del tipo definito dalle (1.3.1), (1.3.2), che
contiene , e viene chiamata classe minima generata dalla famiglia .
Ad esempio dato un insieme A e la famiglia contenente soltanto
linsieme B A la classe minima verificante le (1.3.1), (1.3.2), generata da
la seguente:
= {,B,A B,A}
(1.3.3)
Si dice che una classe non vuota che gode delle propriet anzidette una -algebra.
In altri termini, una famiglia non vuota di sottoinsiemi di U una
-algebra se chiusa rispetto a qualsiasi operazione elementare (unione,
intersezione complementazione) tra insiemi in essa contenuti, cio se il
risultato di una tale operazione da luogo ad un insieme che appartiene
alla famiglia anche se gli insiemi su cui si opera sono uninfinit numerabile.
Dato un insieme U ed una -algebra di suoi sottoinsiemi, si dice
che al generico insieme A di detta classe si associata una misura
(A), ovvero che A misurabile, se si individuata unapplicazione, de-
11
(1.3.4)
Dalle (1.3.1), (1.3.2) e dalla precedente derivano le seguenti considerazioni di carattere generale:
- qualunque sia la misura introdotta, linsieme U misurabile in quanto appartiene alla classe ; la sua misura pu eventualmente essere
infinita;
- linsieme vuoto appartiene a ; esso quindi misurabile ed ha misura nulla, se in esiste almeno un insieme non vuoto di misura diversa da zero;
- se A, B e A B si ha certamente (A) (B).
1.4 - -Algebra di Borel
Si prenda in considerazione linsieme dei numeri reali e quello
contenente tutte le semirette di origine destra chiuse ], ] in esso
contenute, la classe minima che contiene detto insieme prende il nome
di -algebra di Borel o classe di Borel e gli insiemi in essa contenuti vengono
detti Borelliani. A detta classe appartengono anche tutti i sottoinsiemi di
generabili mediante operazioni di intersezione, unione e complementazione su un numero finito o al pi su uninfinit numerabile
dintervalli chiusi o aperti, limitati e non.
Si indotti a pensare che tale classe coincida con quella costituita
da tutti i possibili sottoinsiemi di . Ci non vero in quanto si possono
costruire insiemi, particolarmente astrusi, non ottenibili nel modo anzidetto. Tali insiemi, non appartenendo alla classe appena individuata,
non sono misurabili, ma non rivestono alcun interesse nelle applicazioni
pratiche.
1.5 - La misura di Lebesgue su
Sulla classe di Borel appena introdotta si possono definire misure
diverse. La pi importante la cosiddetta misura di Lebesgue, che costituisce una generalizzazione di quella normalmente associata ai segmenti.
Secondo Lebesgue, si assume come misura di un generico intervallo aperto e limitato I =], [ il suo diametro, cio si pone (I) =
.
12
(1.5.1)
(1.5.2)
discende:
Dalle precedenti discende che un intervallo chiuso e limitato ha misura
uguale al suo corrispondente aperto.
Inoltre si pu verificare facilmente che:
- la misura di un insieme finito o numerabile di punti nulla;1
-
(1.6.1)
la quantit:
(I, ) = ( )
(1.6.2)
=1
opportuno osservare che anche possibile costruire insiemi di misura nulla che hanno la potenza del continuo.
13
A1
A2
(1.7.1)
14
Esempio 1.1
Sia data la funzione:
0;
<0
() = {(1)
; 0
+ 1
Fig.E 1.1
(1)
() = { + 1 ; < + 1
0 ;
altrove
(1)
+1
. Lintegrale della
= () =
=0
a patto che la sommatoria che compare nella precedente conduca allo stesso
risultato indipendentemente dallordine seguito per calcolarla.
Si osservi che:
=
=0
=0
(1)
+1
= (2+1 + 4 + 2+2 )
=0
=0
1
1
1
1
1
2+1 + 4 + 2+2 = 4+3
+
> 4+4+4+4
=0
4+1 2+2
2+2
15
Si conclude pertanto che lintegrale alla Lebesgue della funzione considerata non esiste.
Daltro canto ci si rende facilmente conto che la funzione in questione
non soddisfa la condizione (1.7.1). Il problema non si sarebbe posto se la serie
=0 fosse stata assolutamente convergente. Condizione questa che,
come noto, occorre e basta per assicurare la convergenza alla stesso limite
della serie indipendentemente dallordine seguito per sommarla.
La condizione di assoluta convergenza equivale a quella che entrambe le
serie dei termini positivi e negativi, estratte dalla serie originaria, siano convergenti.
altrettanto interessante osservare che lintegrale della stessa funzione
alla Riemann esiste e vale log2, in quanto lintegrale improprio alla Riemann, come noto, definito come segue:
() = lim ()
0
e quindi lordine da seguire nel calcolo della somma di cui sopra chiaramente definito.
Un altro esempio di funzione integrabile secondo Riemann, ma non integrabile secondo Lebesgue la funzione
sin
questo testo.
In generale si pu affermare che ogni funzione integrabile secondo Riemann, in senso proprio, certamente integrabile secondo Lebesgue, e che seguendo le due procedure si perviene al medesimo risultato, come pure si perviene allo stesso risultato in tutti i casi in cui si ha
a che fare con funzioni che siano assolutamente integrabili secondo
Riemann anche non in senso proprio.
A titolo di esempio si consideri la funzione di Dirichlet:
0;
[0,1];
() = {
1; ( ) [0,1];
(1.7.2)
questa funzione non integrabile alla Riemann. Essa risulta invece integrabile alla Lebesgue e lintegrale esteso al suo dominio vale 1, come si
verifica facilmente visto che linsieme dei numeri razionali, in quanto
numerabile, ha misura nulla, e quindi anche i suoi sottoinsiemi hanno
misura nulla.
16
(1.7.3)
(1.7.4)
(1.8.1)
17
|1 () + 2 ()|2
= |1 ()|2 + |2 ()|2 + 1 ()2 () + 2 ()1 ()
(1.8.2)
(1.8.3)
Questultimo risultato consente di affermare che la somma di due funzioni a quadrato sommabile ancora una funzione a quadrato sommabile.
Pi in generale la combinazione lineare di funzioni a quadrato
sommabile ancora una funzione a quadrato sommabile.
Se (), () sono due funzioni a quadrato sommabile su uno
stesso insieme, la funzione prodotto sommabile e vale la disuguaglianza
di Schwarz.
2
1
2
1
2
(1.8.4)
2
2
2
2
porre:
=
|()|
( |()|2 )
1
2
|()|
1
( |()|2 )2
(1.8.5)
( |()|2 )2 ( |()|2 )2
|()|2
|()|2
+
2 E |()|2 2 E |()|2
(1.8.6)
18
Nel caso in cui quasi ovunque risulti () = (), ( ) si verifica facilmente che la (1.8.4) vale come uguaglianza.
Per le funzioni sommabili vale inoltre il seguente teorema
II Teorema di Lebesgue2:
Sia { ()}
=1 una successione di funzioni sommabili su di un insieme misurabile che converge q.o. ad una funzione ().
Se esiste una () sommabile su , tale che risulti | ()| (),
allora:
- () sommabile su ;
- si ha:
lim () = lim () = ()
(1.8.7)
***********
Il teorema appena enunciato di particolare importanza perch
fornisce delle condizioni sotto le quali certamente consentito invertire
il passaggio al limite con l'integrazione.
, , A
(1.9.1)
Per la dimostrazione vedi F.G. Tricomi: Istituzioni di analisi superiore, pag. 94 e sgg, Edizio
ni CEDAM Padova 1964.
19
(1.9.2)
noto che, per le successioni di numeri reali, una condizione necessaria e sufficiente alla convergenza data dal teorema di Cauchy.
Detto teorema non in generale esportabile al caso di uno spazio
metrico. Non , infatti, detto che una successione di Cauchy di elementi
dello spazio metrico sia convergente, non fosse altro in quanto a priori
non detto che il limite della successione appartenga allo spazio in cui la
successione stata definita.
Esempio 1.2
Si consideri l'insieme delle funzioni appartenenti a () a cui si associa la metrica
(1 , 2 ) = |1 () 2 ()|
|| < 1
1;
() =
(1 ||); 1
{ 0;
1
;
|| 1
|| > 1
1
( , ) = | () ()| = () () =
1 1
<
20
() = {
1;
0;
1
2;
1
|| >
2
||
1
( (), ( )) = ( ) () = <
2
2
La funzione
(1.10.1)
(1.10.2)
In quel che segue il campo si identificher, salvo avviso contrario, con il campo dei numeri complessi.
21
(1.11.1)
(1.11.2)
(1 , 2 , , , 1 , 2 , , ) =
(1.12.1)
=1 =1
1
= [ ];
(1.12.2)
12
22
1
2
]
(1.12.3)
22
(, ) =
(1.12.4)
Per forma quadratica nelle variabili complesse 1 , 2 si intende un polinomio omogeneo del tipo:
1
() = = = ( + )
2
=1 =1
(1.12.5)
=1 =1
(1.12.6)
() =
(1.12.7)
=1 =1
() =
= = ()
=1 =1
(1.12.8)
=1 =1
(1.12.9)
(1.12.10)
(1.12.11)
23
(1.12.12)
(1.12.13)
) = = 0;
{ = ( ) = = 0;
la () si pu anche riscrivere:
() = + + 2
= [ ] [
][ ]
(1.12.14)
(1.13.1)
(1.13.2)
in cui si posto:
=
(1.13.3)
= ( ) = = =
(1.13.4)
hermitiana.
24
( ) = 0
(1.13.5)
(1.13.6)
cio alla (1.13.5) scritta per l'autovalore , chiamato autovettore associato all'autovalore considerato.
Ci si convince facilmente del fatto che se un autovettore di
, tale anche un qualunque vettore = dove un complesso
1
( )
si ottiene un autovet-
(1.13.7)
(1.13.8)
Ricordando che in virt della (1.12.8) una forma hermitiana assume solo
valori reali e poich , come si verifica facilmente, reale, deve essere necessariamente reale.
Si pu anche mostrare che autovettori , , associati a una matrice hermitiana , relativi a due autovalori distinti , , sono mutuamente ortogonali, cio soddisfano luguaglianza:
= 0
(1.13.9)
(1.13.10)
25
1
= [ ] [1
] =
(1.13.11)
Risulta:
(1.13.12)
= 2 [1 , 2 , , ]
[ ]
1 1
= 2 1
[ 1
1 2
2 2
(1.13.13)
2 2 2
(1.13.14)
= diag(1 , 2 , , )
3
Si noti che la diagonalizzazione di una forma hermitiana possibile anche nel caso in cui gli
autovalori non abbiano tutti molteplicit 1
26
() =
(1.13.15)
=1
(1.14.1)
(1.14.2)
(1.14.3)
Ci si convince facilmente che attribuendo valore zero a variabili di una forma hermitiana semidefinita positiva si ottiene ancora
una forma hermitiana semidefinita positiva nelle variabili non nulle.
Assumendo, senza per questo ledere la generalit, che le variabili non
necessariamente nulle siano le prime , si deduce che la condizione di
semidefinitezza positiva comporta anche:
11
11
0; |
21
11
21
12
22 | 0; |
1
12
22
1
2
| 0;
(1.14.4)
27
() = (4 + 5)1 1 + 1 2 + 1 2 + ( + 2)2 2
una forma hermitiana nelle variabili = [1 2 ] dipendente dal parametro , in quanto la matrice ad essa associata, essendo reale simmetrica
soddisfa la (1.12.6).
Per studiarne la natura, occorre prendere in considerazione la matrice ad
essa associata
4 + 5
1
=[
]
1
+2
Poich risulta:
det() 0 per
9
1
4
e anche
4 + 5 0 per
5
4
(1.15.1)
28
(1.15.2)
1 , 1 1 1
(1.15.3)
1 , 2 1 2
+ 1 , 2
1 2
+ 2 , 2 2 2
(1.15.4)
dove:
11 = 1 , 1
21 = 1 , 2
12 = 1 , 2
22 = 2 , 2
(1.15.5)
|1 , 2 | 1 , 1 2 2 , 2 2
(1.15.6)
(1.15.7)
dove .
Se uno spazio dotato di prodotto scalare esso implicitamente
anche uno spazio normato nel senso che la quantit , una possibile norma per X. Essa infatti una quantit reale e non negativa; inoltre
risulta:
, = , = , = ||2 ,
e quindi
(1.15.8)
, = ||,
29
1
2
(1.15.9)
(1.15.10)
1 + 2 , 1 + 2 2 (1 , 1 + 2|1 , 2 | + 2 , 2 )2
1
(1 , 1 + 21 , 1 2 2 , 2 2 + 2 , 2 )
1
1
2
(1.15.11)
= 1 , 1 2 + 2 , 2 2
= , 2
(1.15.12)
Se due vettori 1 e 2 sono tali che il loro prodotto scalare si annulla si dicono ortogonali. Se essi hanno anche norma unitaria cio se:
1 , 2 = 0 1 = 2 = 1
(1.15.13)
si dicono ortonormali.
Uno spazio vettoriale dotato di prodotto scalare, anche uno
spazio metrico. Infatti possibile assumere come distanza tra due elementi qualsiasi dello spazio la quantit:
( , ) = = ,
(1.15.14)
30
(1.16.1)
=1
se risulta:
= = | | = 0
=1
(1.16.2)
=1
31
CAPITOLO - 2
RAPPRESENTAZIONE VETTORIALE DEI SEGNALI
2.1 - Premessa.
Un segnale a tempo continuo pu essere identificato mediante
una funzione generalmente complessa di variabili reali definita in
D .
In quel che segue, si considerano prevalentemente segnali dipendenti da una sola variabile che generalmente il tempo. Essi sono quindi
rappresentati da funzioni del tipo:
: T
(2.1.1)
Il primo passo nell'analisi di un segnale consiste nella sua classificazione, che si effettua sulla base delle propriet di cui gode. Ci equivale a considerare il segnale come appartenente a una data classe o insieme. Se S denota un tale insieme e () un suo elemento, si scrive:
() S
(2.1.2)
(0 ,0, , )
(2.1.4)
(2.1.3)
(2.1.5)
L'insieme dei segnali a banda limitata cio quelli per cui si ha:
() S 1 2 | () 2 = 0,
| || [1 , 2 ]
(2.1.6)
34
evidente che se si riesce ad associare a un dato insieme di segnali una struttura algebrica, si possono meglio evidenziare particolari
caratteristiche degli elementi che lo compongono. Ad esempio se su un
dato insieme si definisce una metrica diventa possibile associare una distanza a ogni coppia di suoi elementi.
L'individuazione di una struttura algebrica pi complessa, su un
dato insieme di segnali, come ad esempio quella di spazio vettoriale,
permette di utilizzare gli strumenti propri dell'Algebra lineare. Ad esempio, lo sviluppo di un segnale in termini di unopportuna base dello spazio, permetterebbe di rappresentare il segnale mediante una sequenza al
pi numerabile di coefficienti. Tale tipo di rappresentazione ha come
immediata conseguenza una notevole semplificazione nell'applicazione
di tecniche numeriche all'analisi dei segnali. Inoltre, la struttura di spazio
vettoriale rende alcune propriet evidenti e intuitivamente accettabili, in
quanto si presta a semplici analogie di tipo geometrico. Dette analogie
risultano inoltre particolarmente efficaci nell'approccio a molti problemi,
la cui soluzione, affrontata per via puramente analitica, risulterebbe oltremodo complessa.
Una classe di segnali di particolare interesse costituita dai segnali
ad energia finita. Se si vuole associare a tale classe la desiderata struttura
di spazio vettoriale, necessario tuttavia raffinare la definizione di segnale come verr chiarito nel prossimo paragrafo.
2.2 - Lo spazio dei segnali a energia finita.
Si consideri l'insieme delle funzioni reali o complesse appartenenti a 2 (). In detto insieme sintroduce la relazione di equivalenza: due
funzioni sono equivalenti se assumono valori diversi solo in un sottoinsieme di di misura nulla cio se le funzioni sono uguali quasi ovunque.
La relazione di equivalenza appena introdotta definisce una partizione S di 2 (). S cio una famiglia di sottoinsiemi disgiunti di
2 (), detti classi di equivalenza, la cui unione ricopre 2 ().
Ciascun elemento di S un segnale. In altri termini due funzioni
in 2 () uguali quasi ovunque rappresentano lo stesso segnale in quanto appartengono alla medesima classe di equivalenza.
Siano 1 (), 2 () due funzioni scelte arbitrariamente nelle rispettive classi di equivalenza 1 , 2 . La funzione () = 1 () + 2 (), appartenendo, in virt della (1.8.3), a 2 (), individua un solo segnale S
-35-
che costituisce la somma dei segnali 1 , 2 . In modo analogo si pu definire in S l'elemento con costante complessa.
facile verificare che S un gruppo commutativo rispetto all'operazione di somma sopra definita. L'elemento neutro di detto gruppo
la classe delle funzioni quasi ovunque nulle.
Dalle ultime considerazioni svolte, discende che S ha la struttura
di spazio vettoriale. Esso denominato spazio dei segnali a energia finita. Tale nome giustificato dal fatto che a ogni elemento S si pu
associare la quantit:
= |()|2 <
(2.2.1)
1 , 2 = 1 ()2 ()
(2.2.2)
1
2
1
2
(2.2.3)
La (2.2.2) definisce un prodotto scalare in quanto facile verificare che essa soddisfa le propriet (1.15.1) che lo caratterizzano.
Distanza
Da quanto esposto nel Capitolo precedente, discende che lo spazio S, essendo dotato di prodotto scalare, uno spazio metrico. La di-
36
1
2
(1 , 2 ) = 1 2 , 1 2 = ( |1 () 2 ()|2 )
1
2
(2.2.4)
Norma
= , = ( |()| )
1
2
(2.2.5)
(2.2.6)
2( + )
1 () = cos (
) ( ) , 2 () = cos (
)( )
Essendo:
|1 () 2 ()| = 2 |sin (
(2 + )
) sin (
)| ( )
risulta:
2 (
, )
4sin2 (
2
(2 + )
) sin2 (
) = 2sin2 ( )
da cui:
( , ) = 2 |sin (
)|
-37-
, 1
1 , 2
2 , 2
, 2
1 ,
2 ,
]
(2.3.1)
(2.3.2)
=1
, = 0;
j=1,2,,n
(2.3.3)
=1
38
se (1 , 2 , , ) = 0 il sistema omogeneo (2.3.3) ammette anche soluzioni diverse dall'identica. Detta { } una tale soluzione, si consideri il
segnale:
(2.3.4)
=1
Si ha:
2 = , = ,
=1
=1
,=1
(2.3.5)
( , )
=1
=0
=1
0 2 = , = ,
=1
=1
(2.3.6)
,=1
-39-
() =
1
n{1,2,3}
( 2) ;
sono linearmente indipendenti.
Il generico prodotto scalare vale:
1
, = + =
0
1
1++
1
3
||1
4
1
5
1
4
1
5
1
6
1
5
1
|
6|
1
7
1
378.000
1 , 2 = 6
2 , 2 = 8
3 , 2 = 2
1 , 3 = 1
2 , 3 = 2
3 , 3 = 1
6
8
2
1
2 |=0
1
40
(2.4.1)
=1
al variare dei coefficienti { } in , , come noto, un sottospazio vettoriale di dimensione generato dai segnali { }. Ogni segnale ivi contenuto individua univocamente, in virt della lineare indipendenza degli
{ }=1 , una -upla di coefficienti.
Reciprocamente, comunque scelto un punto in , ad esso, tramite la (2.4.1), corrisponde un unico segnale in S .
I coefficienti { }=1 si possono
interpretare come le coordinate del
segnale nel sistema di riferimento individuato dai vettori { }=1 . Queste
considerazioni, nel caso in cui i segnali
{ }=1 siano rappresentabili mediante
funzioni reali e i coefficienti { }=1
siano anchessi reali, suggeriscono la
Fig. 2.1 - Rappresentazione vettorappresentazione geometrica mostrata riale del segnale .
in Fig. 2.1 per il caso tridimensionale.
L'insieme dei vettori { }=1 costituisce quindi una base del sottospazio vettoriale S di S.
opportuno ricordare che un qualsiasi altro insieme { }=1 di
vettori linearmente indipendenti appartenenti a S costituisce a sua volta
una base per il sottospazio; la base pertanto non unica.
I coefficienti { }=1 , di un dato segnale appartenente a S , possono essere calcolati effettuando in ambo i membri della (2.4.1) il prodotto scalare per il generico vettore di base . Si ottengono cos le
equazioni:
, = i , ;
=1
j=1,2,,n
(2.4.2)
-41-
che costituiscono un sistema lineare nelle incognite { }. In forma matriciale il sistema (2.4.2) si scrive:
1 , 1
1 , 2
[
1 ,
2 , 1
2 , 2
, 1 1
,1
, 2 2
,2
][] = [
]
,
,
(2.4.3)
Detto sistema ammette un'unica soluzione, poich la matrice dei coefficienti ad esso associata la trasposta della matrice di Gram associata a
un insieme di segnali linearmente indipendenti.
Un altro metodo per calcolare i coefficienti { }=1 consiste nel
determinare vettori { }=1 che godano della propriet:
, = ;
= 1,2, ,
(2.4.4)
= , = ,
=1
= , ;
(2.4.5)
= 1,2, ,
=1
=
=
(2.4.6)
2 () = ( 1)
{3 () = ( 2)
3
42
verificare che essi costituiscono una base per il sottospazio da essi generato
e quindi determinare la base reciproca associata.
I tre segnali sono linearmente indipendenti, in quanto comunque scelti
due di essi, da una loro combinazione lineare non si pu ottenere il terzo. Infatti esiste un insieme di misura non nulla in cui il terzo segnale diverso da
zero mentre gli altri due segnali sono entrambi identicamente nulli.
Il generico elemento della base reciproca si pu esprimere nella forma:
3
= ,
=1
Imponendo per ciascun vettore la condizione (2.4.6), si ottengono i tre sistemi lineari:
3
, = 1, , = ,1
=1
3
, = 2, , = ,2 ;
= 1,2,3
=1
3
, = 3, , = ,3
=1
= +
= +
= +
(2.4.7)
(2.4.8)
Un segnale appartenente al sottospazio riferito a una base ortonormale si esprime pertanto nella forma:
= ,
=1
(2.4.9)
-43-
Dal confronto tra la (2.4.6) e la (2.4.7) discende che la base reciproca associata ad una base ortonormale la base stessa. Le basi ortonormali sono quindi anche basi autoreciproche.
Se si fa riferimento a una base ortonormale si ottiene la seguente
espressione per il prodotto scalare tra segnali appartenenti al sottospazio
S :
1 , 2 = 1 2
, = 1 2
=1 =1
(2.4.10)
=1
= ,
12
= ( | | )
(2.4.11)
=1
12
(1 , 2 ) = 1 2 = ( |1 2 | )
(2.4.12)
=1
Queste ultime evidenziano un ulteriore motivo per cercare, quando possibile, di adottare una base ortonormale. Infatti se si riguardano
le componenti {1 }=1 , {2 }=1 dei due segnali, riferiti ad una stessa base ortonormale, come vettori riga dello spazio , le (2.4.10), (2.4.11) e
la (2.4.12) possono essere riscritte sotto forma matriciale:
1 , 2 = 1 2
(2.4.13)
1
2
= ( )
(2.4.14)
1
2
(1 , 2 ) = [(1 2 )(1 2 ) ]
(2.4.15)
In altri termini, se in un sottospazio si individua una base ortonormale, il prodotto scalare, la norma e la distanza euclidee possono essere calcolati in modo semplice effettuando le medesime operazioni sui
vettori delle componenti dei segnali in .
Esempio 2.5
Sia () = una forma hermitiana.
Se gli autovalori della matrice ad essa associata hanno tutti molteplicit
1, gli autoversori associati a ciascun autovalore di , sono mutuamente ortogonali e quindi costituiscono una base ortonormale per lo spazio a cui
appartiene.
44
=
=1
Pertanto:
() = = = =
=1
=1
=1 =1
=1 =1
= = | |2 = diag(1 , 2 , , )
=1 =1
=1
nell'ultimo membro della precedente, ogni autovalore viene ripetuto un numero di volte pari alla sua molteplicit.
1 () 2 ()
|1 ()|2
|2 ()|2
(2.5.1)
(2.5.2)
-45-
1 = 11 1 + 12 2 ; 2 = 21 1 + 22 2 ;
(2.5.3)
D'altro canto, tenendo conto delle (2.4.10) e (2.4.11) la (2.5.2) pu essere anche scritta come segue:
< 1 , 2 >= 11 21 + 12 22
2
2
2
2
= 11
+ 12
21
+ 22
cos
(2.5.4)
il cui ultimo membro si pu immediatamente interpretare come il prodotto scalare in 2 tra due vettori aventi rispettivamente modulo
2
2
2
2
11
+ 12
e 21
+ 22
, formanti un angolo . Si verifica facilmente
che detto angolo indipendente dalla base ortonormale scelta nel sottospazio in cui i segnali sono contenuti.
quindi possibile fornire una rappresentazione grafica dei due
segnali reali come mostrato in Fig. 2.2, questo il motivo per cui in generale due segnali si dicono ortogonali se il loro prodotto scalare nullo.
Esempio 2.6
Dati i segnali mostrati in Fig.E 2.2,a). se ne costruisca una rappresentazione vettoriale.
Come si riconosce facilmente i due segnali hanno entrambi norma unitaria.
Se si associa al primo segnale un vettore di modulo unitario, il secondo
segnale sar rappresentato da un vettore anch'esso di modulo unitario la
cui componente ortogonale su si ottiene effettuando il seguente prodotto
scalare:
1 ; 0 1
, = () () = { 1 + ; 1 < 0 = (1 ||) ( )
2
|| > 1
0;
46
Fig.E 2.2
(2.6.1)
=1
= 2
(2.6.2)
=1
= ,
=1
,
=1
+ | |2
(2.6.3)
=1
-47-
2 = 2 |, |2 + | , |2
=1
(2.6.4)
=1
Poich l'ultimo addendo a secondo membro della precedente certamente non negativo il minimo cercato si ottiene quando esso si annulla
cio quando risulta:
= , ;
= 1,2,
(2.6.5)
Pertanto si ha:
= ,
(2.6.6)
=1
I coefficienti { }=1 definiti dalle (2.6.5) sono chiamati coefficienti di Fourier generalizzati del
segnale rispetto alla base ortonormale . { }=1
Un interessante conseguenza
del risultato appena ottenuto il cosiddetto Teorema della proiezione
Fig. 2.3 Proiezione ortogonale
che stabilisce che, detta la migliore approssimazione di in S , secondo il criterio della minima distanza euclidea, il vettore ortogonale a ogni vettore appartenente ad S e quindi al sottospazio S (vedi Fig. 2.3 ).
Per dimostrarlo sufficiente verificare che il vettore ortogonale a ciascun vettore di una qualsiasi base { }=1 ortonormale di
S . Tenendo conto delle (2.6.5) e (2.6.6) risulta:
, = , , = 0
(2.6.7)
(2.6.8)
48
, = , = , ;
= 1, ,
(2.6.9)
=1
interessante osservare che un sottospazio lineare a dimensioni determina nello spazio dei segnali S una partizione in classi di equivalenza: due segnali appartengono alla stessa classe di equivalenza se ammettono la stessa approssimazione in S o, che lo stesso, se la loro differenza ortogonale a S .
La quantit
=
(2.6.10)
= , =
(2.6.11)
= |, |2
(2.6.12)
=1
2 = 2 |, |2
(2.6.13)
=1
|, |2 2
(2.6.14)
=1
1
2
-49-
() = { 0 ; n=1,2,3
0 < 0
, = =
0
Fig.E 2.3
1
3
1
4
1
5
1
4
1
5
1
6]
1 1
1 2
1
[2 ] =
2
3
1 3
[ 3 ]
da cui:
1
12 72 1 + 120 2 60 3
[2 ] = [30 + 240 1 450 2 + 240 3 ]
3
20 180 1 + 360 2 200 3
3 () = ()
=1
valgono:
Fig.E 2.4
50
1
1
(2.7.1)
2 = 2 2 , 1 1
-51-
(2.7.2)
Se 2 il segnale nullo, 2 appartiene ad S1 e si salta al passo successivo. In caso contrario, in virt del teorema della proiezione, 2 ortogonale al sottospazio S1 . Pertanto si pu assumere come secondo
elemento della base il segnale:
2 =
2
2
(2.7.3)
(2.7.4)
dove:
1
= ,
(2.7.5)
=1
L'algoritmo appena descritto consente, in genere, per un dato insieme { }=1, di costruire pi basi ortonormali, dipendentemente dall'ordinamento scelto all'interno dell'insieme { }=1 . Evidentemente una
qualunque base ottenuta con il procedimento descritto genera lo stesso
sottospazio di S. Detto sottospazio ha la minima dimensione necessaria
per contenere i segnali dell'insieme { }=1 . Tale dimensione ovviamente
non pu superare la cardinalit di { }=1 .
Si osservi inoltre che la procedura descritta in virt della sua natura ricorsiva si pu applicare anche al caso in cui l'insieme dei segnali sia
di cardinalit infinita, purch numerabile.
Esempio 2.9
Determinare una base ortonormale per il sottospazio lineare individuato
dai segnali rappresentati dalle funzioni:
;
() = {
0;
0
; n=1,2,3
<0
52
= 2
Si scompone quindi il secondo segnale nei suoi componenti parallelo ed ortogonale al sottospazio individuato da 1 . Si ha:
= , + =
Pertanto risulta:
=
+ =
= 6
Quindi:
=
1
22
= 106
+1 2 = 2 |, |2
=1
(2.8.1)
= |, | |, +1 |
=1
(2.8.2)
-53-
= |, |2
(2.8.3)
=1
= ,
(2.8.4)
=1
CAPITOLO - 3
SEGNALI PERIODICI
3.1 - Generalit.
Una funzione reale o complessa () si dice periodica se esistono
valori di , che soddisfano la seguente equazione:
() = ( + )
(3.1.1)
0 +
1 2
1
2
= lim |()|2 = lim
|()|2
0 + 0 +
(3.1.2)
dove = e 0 = 0 < 0 .
0
Poich risulta:
0 < |()|2 <
(3.1.3)
T0
0
2
1
lim
( |()|2
0
0 +
0
2
0+
2
|()|2
0+
2
0
2
|()|2 ) (3.1.4)
56
lim
|()|2
0 + 0
2
0
2
1
|()|2
lim + (
+
0
0
2
0+
2
0
2
|()|2 )
Gli ultimi due integrali della precedente, in virt della (3.1.3), si mantengono limitati; quindi il secondo limite vale zero e la potenza specifica di
un segnale periodico si pu pertanto esprimere anche nella forma pi
semplice
0
1 2
= |()|2
0 0
(3.1.5)
0 () = () ( )
0
(3.2.1)
() = 0 ( 0 )
(3.2.2)
57
Risulta:
0
2
|0 ()|2 =
|()|2 = 0 <
(3.2.3)
1
0
2
0
( ),
(3.2.4)
Detto insieme, come possibile dimostrare4, completo rispetto all'insieme dei segnali appartenenti a S 0 , cio di quei segnali che sono rappresentabili mediante funzioni a quadrato sommabile, nulle all'esterno
dell'intervallo ( 20 , 20).
Il generico elemento di S 0 , pu quindi essere rappresentato mediante una serie bilatera del tipo:
Cfr.: F. G. Tricomi: Istituzioni di analisi superiore. Edizioni Cedam. Padova. 1964. pag. 186 e
seg.
58
0 =
(3.2.5)
= 0 , = 0 () ()
1
0
0
2
()
(3.2.6)
() = 0 ( 0 )
=
= =
0
0
0
)
0
(3.2.7)
0
2
2
0 =
0
= (
)
0
0
=
=
=
0
0
2
0
) = 1. Ponendo infine:
0 =
1
0
(3.2.8)
e
0
1 2
= () 20
0 0
(3.2.9)
() = 20
(3.2.10)
59
0
2
|()
20
| = 0
(3.2.11)
() = 0 +
=
20
+ 20
(3.3.1)
=1
() = 0 + ( 20 + 20 )
(3.3.2)
=1
1
1
()cos(20 ) ()sin(20 )
0 T0
0 T0
Ponendo:
5
Un'ampia discussione del teorema di convergenza della serie di Fourier si trova in
R.V.Churchill: Fourier series and boundary value problems. McGraw Hill, N.Y., 1963.
(3.3.3)
60
2
()cos(20 );
0 T0
2
= ()sin(20 ) ;
0 T0
{
=
(3.3.4)
si pu quindi scrivere:
=
(3.3.5)
2 2
0 +
0 )
() = 0 + (
2
2
(3.3.6)
=1
= ;
0 =
0
0
2
(3.3.7)
la (3.3.6) diventa:
() = 0 + [ 2 ( 20 + 20 ) + 2 ( 20 20 )]
(3.3.8)
=1
() = 0 + cos(20 ) + sin(20 )
(3.3.9)
=1
dove 0 vale:
0 =
1
()
0 T0
(3.3.10)
La (3.3.9) costituisce la forma trigonometrica della serie di Fourier. Il termine cos(20 ) + sin(20 ) si chiama armonica di
ordine della funzione (). L'armonica di ordine 1 detta armonica
fondamentale.
3.4 - Segnali reali.
Se il segnale () reale, anche le quantit e lo sono. In
questo caso la (3.3.9) pu porsi nella forma equivalente:
61
() = 0 + cos(20 )
(3.4.1)
=1
Fig.cui
3.2le
- Spettri
di ampiezza
e di fase b) di un segnale reale.
in
quantit
e a)valgono:
= 2 + 2 ;
= arctg
(3.4.2)
e individuano rispettivamente l'ampiezza e la fase propria della componente armonica di ordine del segnale. Inoltre, tenendo presente le
(3.3.7)si deduce:
| | = | |; = ;
(3.4.3)
0 0
2
() = ( ). Pertanto il segnale () pu
62
() =
= ( 0 ) = = (
0.25
2
1
0 =
0
2
sin ( )
0
;
{ 0
0
=0
sinc() = {
63
1;
=0
sinc ( )
0
0
1
4
Fig.E 3.3
I coefficienti dello sviluppo di () in foram trigonometrica si possono calcolare facilmente tenuto conto che dalle (3.3.5) e (3.3.7) si deduce
= + =
sinc ( ) + sinc (
)=
sinc ( )
0
0
0
0
0
0
= ( ) = (
sinc ( ) sinc (
)) = 0
0
0
0
0
() = 0 + cos (2
=1
) + sin (2 )
0
0
+
sinc ( ) cos (2 )
0 0
0
0
=1
= si ottiene:
2
() = + sinc ( ) cos (2 )
2
2
0
=1
64
Fig.E 3.4
Esempio 3.2
Il segnale () di Fig.E 3.5, definito dalla:
() =
=
2( 0 )
( 0)
0
0
1 2 2 2
2
2
0 =
=
[( 1) ]
2
0 0 0
(2)
(2)2
2
Si ha dunque:
=
cos()
;
Fig.E 3.5
0 =
2 2
= 0;
0 0
2
65
() = ()
(3.5.1)
=1
2(0 )
0
0
(
)
0
1
= () 20
0
T0
(3.5.2)
=1
che, ponendo:
=
si scrive:
1
() 20
0 T0
(3.5.3)
66
(3.5.4)
=1
1
1
() 20 = () 20 =
0 T0
0 T0
(3.5.5)
Segnale coniugato
Sia il generico coefficiente del segnale (). Il generico coefficiente del segnale () = () sar allora:
1
1
() 20 = ( () 20 ) =
0 T0
0 0
(3.5.6)
(3.5.7)
(3.5.8)
discende:o
precedentemente ottenuta (vedi (3.4.3)).
Coefficienti coniugati
Sia () un segnale il cui sviluppo in serie di Fourier ha per coefficienti . Il segnale () corrispondente allo sviluppo che ha per generico coefficiente :
() =
20
= (
20
) = ()
(3.5.9)
(3.5.10)
67
la (3.5.9) diventa:
() = ()
(3.5.11)
cio un segnale che invertito nel tempo coincide con il proprio coniugato ammette uno sviluppo i cui coefficienti sono reali.
Traslazione nel dominio del tempo
Sia il generico coefficiente dello sviluppo di un segnale (). Il
segnale () = ( 0 ), ottenuto ritardando () di una quantit 0 ,
ammette uno sviluppo il cui generico coefficiente vale:
=
1
( 0 ) 20
0 T0
20 0
=
() 20 = 200
0
T0
(3.5.12)
Pertanto la traslazione nel dominio del tempo comporta nel generico coefficiente la presenza di un fattore esponenziale del tipo
200 di modulo unitario ed argomento 20 0 . In altri termini, la
traslazione lascia inalterati i moduli dei coefficienti , ma aggiunge ai
loro argomenti un termine proporzionale al ritardo 0 .
Traslazione nel dominio della frequenza
Sia il generico coefficiente del segnale (). Il segnale () il
cui generico coefficiente con vale:
() =
20
20
20
20
(3.5.13)
()
68
() =
1
1
1 ()2 ( ) = 1 ( )2 ()
0 T0
0 T0
(3.5.14)
1
1
( 1 ( )2 ()) 20
0 T0 0 T0
(3.5.15)
1
1
2 () ( 1 ( ) 20 )
0 T0
0 T0
(3.5.16)
1
() 20 = 1 2
0 T0 2
(3.5.17)
cio il generico coefficiente dello sviluppo in serie di Fourier del segnale () si ottiene dal prodotto dei corrispondenti coefficienti degli
sviluppi in serie dei segnali convolvendi.
Convoluzione nel dominio della frequenza
Siano 1 () e 2 () due segnali periodici di periodo 0 , sviluppabili in serie di Fourier con generici coefficienti espressi da 1 e 2 rispettivamente. Si costruiscano i coefficienti definiti, al variare di , dalla:
= 1 2() = 1() 2
=
(3.5.18)
La sequenza detta convoluzione nel dominio della frequenza. A quest'ultima si pu associare il segnale:
() = 20
=
= ( 1() 2 )
=
(3.5.19)
20
69
() = 2 ( 1() 20 )
=
(3.5.20)
() = 1 () 2 20 = 1 () 2 ()
(3.5.21)
Segnale
Trasformata
Linearit
()
=1
=1
()
Segnale coniugato
()
()
( 0 )
20
20 ()
1 2
( )2 ()
1
Coefficienti coniugati
1 2
1 () 2 ()
1 2()
=
70
ammette
soluzioni
diverse da zero nelle
incognite , indipendenti dalla coppia
di variabili , . Analogamente al caso
monodimensionale si
possono definire i
periodi principali 0
e 0 .
La
potenza
specifica del segnale
vale:
Fig.E 3.7
(3.6.1)
1
1
= lim
|(, )|2 =
|(, )|2
,
0 0
(3.6.2)
0 0
dove l'integrale che compare all'ultimo membro della precedente esteso ad un dominio rettangolare qualsiasi di dimensioni 0 e 0 rispettivamente. Se detto integrale ha valore finito e non nullo allora il segnale
periodico a potenza finita.
Un segnale periodico bidimensionale a potenza finita pu essere
sviluppato mediante la seguente serie doppia di Fourier:
(, ) =
, 2( + )
(3.6.3)
= =
dove:
=
1
1
; =
0 0
(3.6.4)
71
1
(, ) 2(+ )
0 0 X0 Y0
(3.6.5)
Esempio 3.3
Si consideri il segnale periodico (, ) cos definito:
(, ) = (
1 0
2 0
0
0
)(
) ; 1 , 2 , <
, <
2
2
2
2
che risulta essere uguale ad 1 nei domini tratteggiati in Fig.E 3.7 e nullo altrove.
Si ha:
=
2
2
2( + )
0 0 = 4
sinc (
) sinc (
)
0 0 ,
0 0
0
0
Esempio 3.4
Si consideri il segnale (, ) cos definito:
( 1 0 )2 + ( 2 0 )2
2
(, ) = (
);
1 , 2
come noto:
= ||
/
cos
|=|
sin
/
sin
| = (cos2 + sin2 ) =
os
si ha:
=
Ponendo adesso:
1
2( cos+ sin)
0 0 0
72
sin =
( )2 + ( )
cos =
( )2 + ( )2
risulta:
cos + sin = ( )2 + ( )2 [sincos + cossin]
= sin( + ) ( )2 + ( )2
Ponendo inoltre:
= 2( )2 + ( )2
si scrive:
=
+
1
sin
0 0 0
1 (sin)
1
2
() = ( )
( )
2
! ( + )!
4
=0
Si ha pertanto:
=
2
( )
0 0 0 0
0 () =
0
Fig.E 3.8
ponendo =
2 1 ( )
=
0 0
1 ()
si ottiene infine:
CAPITOLO - 4
SEGNALI A ENERGIA FINITA
4.1 - Deduzione elementare della trasformata di Fourier.
Sia () una funzione sommabile rappresentativa di un segnale
ad energia finita, e sia
() = () ( )
la corrispondente funzione
troncata (vedi Fig. 4.1).
Il segnale , individuato dalla (4.1.1), appartiene
allo spazio S definito nel
3.2 - . Pertanto una sua rappresentazione pu essere
espressa mediante il seguente
insieme di funzioni ortonormali:
() =
(4.1.1)
( );
= 0, 1, 2,
(4.1.2)
nella forma:
() =
( )
(4.1.3)
dove:
=
() 2
(4.1.4)
1
2
() = ( ) ( () 2 ) 2
(4.1.5)
74
che ponendo:
2
( ) = () 2
(4.1.6)
diventa:
1
() = ( ) ( ) 2
(4.1.7)
Poich:
() = lim ()
(4.1.8)
a)
() = () 2 ;
b)
() = ()
(4.1.9)
2
75
Quanto sopra, in altri termini, equivale ad individuare due operatori ed , che costituiscano una naturale estensione delle (4.1.9), entrambi definiti in 2 (), che, qualunque sia 2 (), godano della
propriet
= [[]] = [[]]
(4.2.1)
La trasformata in ().
Se una funzione () appartiene a (), cio se:
|()| <
(4.2.2)
(4.2.3)
lim () = lim () 2 =
lim () 2
(4.2.4)
= () 20 = (0 )
(4.2.5)
Al fine di identificare lo spazio funzionale cui appartiene la trasformata () di una tale funzione, si consideri una funzione ausiliaria
() (), limitata, la cui trasformata di Fourier () appartenga an-
76
() = ()|()|2
(4.2.6)
= (1 ) 21 1 (2 ) 22 2
(4.2.7)
= (1 ) (2 ) 2(21) 1 2
() = () (1 ) (2 ) 2(21) 1 2
(4.2.8)
= (1 ) (2 ) [ ()
2(2 1 )
] 1 2
() 2(21) =
2 1
1
() 2 ()
1
2 1
(
)
(4.2.9)
1
2 1
(1 ) (2 ) (
) 1 2
(4.2.10)
= 1 ;
2 1
=
;
(4.2.11)
2 2
77
1
| = |1
2
1
0
|=
(4.2.12)
la (4.2.10) diventa:
() = () ( + )()
(4.2.13)
= () ( () ( + ) )
| () ( + )|
1
2
(4.2.14)
da cui discende:
|()| |() ( () ( + ) )|
(4.2.15)
2
|()| |()|
()|()|2 = () ( () ( + ))
(4.2.16)
poich si ha:
= |()|2 |()|
e, ricordando la (4.2.14):
(4.2.17)
78
(4.2.18)
pu applicarsi ad entrambi i membri della (4.2.16) il II Teorema di Lebesgue, il quale ci assicura che si pu scrivere:
= lim () ( () ( + ))
(4.2.19)
= () |()|2
|()|2 = |()|2
(4.2.20)
1 ()2 () = 1 ()2 ()
(4.2.21)
La trasformata in ().
(4.2.22)
79
() = () 2
(4.2.23)
(4.2.24)
() () = () ()
(4.2.25)
(4.2.26)
{ ()}
=1 pertanto una successione di Cauchy, quindi, in virt della
completezza di 2 (), { ()}
=1 convergente,. Inoltre l'arbitrariet
lim |() () 2 | = 0
(4.2.27)
() = () ( )
(4.2.28)
anche sommabile, essendo identicamente nulla al di fuori di un intervallo finito. Essa quindi antitrasformabile, e la sua antitrasformata :
() = () 2
(4.2.29)
| ()|2 = | ()|2
(4.2.30)
80
lim |() ()
| = 0
(4.2.31)
|()|2 = |()|2
(4.2.32)
= |()|2 () () ()()
(4.2.33)
+ |()|2
(4.2.34)
() ()
lim () [ lim
() 2
= lim () [ ()2 ]
(4.2.35)
81
= lim () [ () 2 ]
= lim () () = |()|2
() () = |()|2
(4.2.36)
(4.2.37)
() =
()
(4.2.38)
Conclusioni
lim |() () 2 | = 0
(4.2.39)
Si osservi che se una () soddisfa la precedente per una rappresentazione () di un segnale , essa la soddisfer anche per tutte le altre
rappresentazioni dello stesso segnale, cio per tutte le funzioni del tempo che differiscono da () solo su un insieme di misura nulla di punti.
Reciprocamente, l'antitrasformata di Fourier di una generica rappresentazione definita dalla:
lim |() ()
2
2
| = 0
(4.2.40)
82
Ci equivale a dire che per antitrasformata di () si deve intendere quella () che soddisfa la (4.2.31) cio la cui distanza euclidea da
lim |() () 2 | = 0
(4.2.41)
a)
() = [()] = () 2 ;
b)
(4.3.1)
() = 1 [()] = () 2 ;
Negli ultimi membri delle quali si sottintendono cio gli eventuali passaggi al limite nel senso di 2 ().
La trasformata di una funzione risulta in generale complessa, essa
si pu quindi scrivere in una delle forme:
() = () + () = |()| ()
(4.3.2)
83
di segnali
() = ()cos(2) ()sin(2)
(4.3.3)
a)
() = ()cos(2) ;
b)
(4.3.4)
() = ()sin(2);
(4.3.5)
84
(4.3.6)
) () = 2 ()cos(2) ;
0
) () = 0;
(4.3.7)
Pertanto:
() = 2 ()cos(2)
0
(4.3.8)
(4.3.9)
Risulta:
) () = 0;
) () = 2 ()sin(2);
(4.3.10)
quindi:
() = 2 ()sin(2)
0
(4.3.11)
() = ( + ( ) 2 )
(4.3.12)
() = [() 2 + () 2 ]
0
(4.3.13)
85
() = 2 Re[() 2 ]
0
= 2 |()|cos[2 + ()]
(4.3.14)
=0
()= ( )
reale e vale:
2
[ ( )] = 2
={
sin()
; 0
= sinc()
;
=0
Fig.E 4.1
Esempio 4.2
Sia () la funzione gradino unitario definita come segue:
u() = {
1;
0;
0
<0
86
vale:
() = 2 =
0
1
+ 2
Fig.E 4.2
arctg(
() = 2
2
=
2
+ 4 2 2
+ 4 2 2
+ 4 2 2
() = cos ( ) ( )
2 cos()
() = cos ( ) 2 =
1 (2)2
=
=1
(4.4.1)
() = () 2 = () 2
=1
=1
87
(4.4.2)
(4.4.3)
=1
La trasformata di Fourier della combinazione lineare di segnali quindi la combinazione lineare delle loro trasformate. L'operatore definito
dalla (4.3.1) pertanto lineare.
Simmetria
() = () 2
(4.4.4)
() = () 2
(4.4.5)
() sinc()
ricavata nell'Esempio 4.1 la propriet di simmetria si ottiene:
sinc() ( )
[sinc()] =
Segnale coniugato
Se [()] = () risulta:
()
(4.4.6)
88
[ ()] = ()
= [ ()
(4.4.7)
= ()
Se () reale, essendo:
() = ()
(4.4.8)
(4.4.9)
Trasformata coniugata
Se [()] = () risulta:
1 [ ()] = () 2 = [ () 2 ]
(4.4.10)
= ()
(4.4.11)
[( 0 )] = ( 0 ) 2 = 20 [()]
(4.4.12)
89
1 [( 0 )] = ( 0 ) 2
20
(4.4.13)
[()]
[()] = () 2 =
1
() 2
(4.4.14)
1
= ( ); > 0
<0
(4.4.15)
(4.4.16)
( );
||
(4.4.17)
1
2
Fig.E 4.3
90
In effetti, essendo:
() = u() + u()
risulta:
() =
=
1
1
+
+ 2 2
2
+ (2)2
Fig.E 4.4
()
= (2)() 2
(4.4.18)
()
] = (2)[()]
(4.4.19)
La propriet sopra enunciata pu facilmente estendersi alle derivate di qualunque ordine. Se il segnale () derivabile fino allordine
1 con derivata continua, se la sua derivata 1-esima continua e
derivabile quasi ovunque e se inoltre
()
()
= (2) () 2
(4.4.20)
()
] = (2) [()]
(4.4.21)
se inoltre
()
91
a si ottiene:
()
=
(2) () 2
(4.4.22)
cio:
()
[(2) ()] =
(4.4.23)
ossia: la trasformata del segnale (2) () data dalla derivata esima, rispetto a , della trasformata del segnale ().
Esempio 4.6
2
() = 2 = 2()
. Si avr pertanto:
() =
2 2
(0) = ()
= =
risulta:
22
() =
92
() = 1 2 = 1 ()2 ( )
(4.4.24)
prende il nome di convoluzione fra 1 () e 2 (). Effettuando nella precedente la sostituzione di variabili = , si ottiene:
() = 1 ( )2 () = 2 1
(4.4.25)
pertanto la convoluzione gode della propriet commutativa. Inoltre facile verificare che per essa vale anche la propriet distributiva.
Per meglio comprendere il significato della convoluzione in Fig.
4.4 sono indicate le varie fasi che conducono alla (4.4.24).
Una funzione si dice di durata limitata, o a supporto limitato, se esiste
un intervallo limitato tale che al di fuori di esso la funzione quasi
ovunque nulla.
Dalla Fig. 4.4 si deduce anche che se i segnali convolvendi sono
rappresentabili mediante funzioni a durata limitata, anche la loro convoluzione lo .
Infatti detti (1 , 1 ) e (2 , 2 ) gli intervalli di minima ampiezza che individuano le durate dei segnali 1 () e 2 () rispettivamente, la durata del
segnale 2 () anch'essa limitata dallintervallo (2 , 2 ) e quindi la
durata di 2 ( ) definita dallintervallo ( 2 , 2 ). evidente
che l'integrale che compare nella (4.2.24) nullo quando gli intervalli
(1 , 1 ) e ( 2 , 2 ) sono disgiunti. Questo accade quando verificata una delle due condizioni:
1 > 2 ;
1 < 2
(4.4.26)
(4.4.27)
(1 1 ) + (2 )
(4.4.28)
e quindi vale:
93
Essa cio pari alla somma delle durate 1 e 2 dei due segnali.
immediato verificare che se anche uno soltanto di due segnali
non a durata limitata la convoluzione non ha durata limitata.
La trasformata di Fourier di () si ottiene dalla:
Fig. 4.4 - Convoluzione fra due segnali nel dominio del tempo
() = 2 [ 1 ()2 ( )]
(4.4.29)
94
() = 1 () [ 2 ( ) 2 ]
(4.4.30)
= 2 () 1 () 2
(4.4.31)
definita dalla8:
() = 1 2 = 1 ()2 ( )
(4.4.32)
= 1 ( )2 ()
vale:
() = 2 [ 1 ()2 ( )]
(4.4.33)
() = 1 ()[ 2 ( ) 2 ]
= 2 () 1 ()
(4.4.34)
2
= 1 ()2 ()
Pertanto la trasformata del prodotto di due segnali data dalla convoluzione in frequenza delle loro trasformate.
Esempio 4.7
Per la convoluzione in frequenza valgono le considerazioni della nota relativa alla convoluzione nel dominio del tempo.
95
() =
( ) (
Fig.E 4.5
= ;
() = {
2
0;
0<<
>
= + ;
< <0
0;
<
() = ( ||) ( ) = ( )
2
2
Esempio 4.8
Fig.E 4.6
[ 2 ()] = ()( )
Risulta:
[ 2 ()] = 0;
|| > 2
Pertanto la trasformata di Fourier del segnale 2 () nulla al di fuori dell'intervallo [2, 2].
96
In generale la trasformata di
Fourier di () vale zero al di
fuori dell'intervallo [, ].
Esempio 4.9
Si consideri la seguente funzione:
() = ( ) sinc()
2
Fig.E 4.7
tervallo
B, B .
Risulta:
1 [()] = ( )
Fig.E 4.8
1 [ ( )] = 2sinc(2)
2
() = 2 sinc[2( )]
() =
Fig.E 4.9
sin
[Si (2 ( + )) Si (2 ( ))]
2
2
97
rio nei punti = 2. Per contro la durata nel tempo di un segnale il cui
spettro null o al di fuori di un certo intervallo di frequenze infinita.
Nella Tabella 4.1 sono riassunte tutte le propriet della trasformata di Fourier precedentemente discusse.
Tabella 4.1
Propriet
Trasformata
Linearit
()
()
=1
=1
()
()
()
()
()
()
( 0 )
20 ()
20 ()
( 0 )
Cambiamento di
scala
()
( )
||
Derivazione nel
dominio del
tempo
Derivazione nel
dominio della
frequenza
Convoluzione
nel dominio del
tempo
Convoluzione
nel dominio della frequenza
()
(2) ()
(2) ()
()
Simmetria
Segnale coniugato
Trasformata coniugata
Traslazione nel
dominio del
tempo
Traslazione nel
dominio della
frequenza
1 ()2 ( )
1 () 2 ()
1 () 2 ()
1 ()2 ( )
Note
costanti
98
() = () 2 = () 2
= {[
=
= 1
() 2
1
]
+
() 2 }
2 +
2 1
(4.5.1)
1
=
[((+ ) ( )) 2 + () 2 ]
2
1
=
1
| [((+ ) ( )) 2 + () 2 ]|
|2|
1
=
(4.5.2)
1
(|(+ ) ( )| + | ()| )
|2|
1
=
1
|2|
(4.5.3)
dove si posto:
1 = (|(+ ) ( )| +
| ()| )
(4.5.4)
1 = | ()|
(4.5.5)
99
() = () 2
1
= {
() 2 } =
2 1
(4.5.6)
[( (+ ) ( )) 2 + () 2 ]
2
(2)
1
=
nella quale si fatto riferimento all'insieme { } { } degli estremi degli intervalli all'interno dei quali la () derivabile. La (4.5.6) comporta
evidentemente la ulteriore limitazione:
|()|
2
|2|2
(4.5.7)
con
2 = (| (+ ) ( )| +
| ()| )
(4.5.8)
2 = | ()|
(4.5.9)
;
|2|
= 0, ,
(4.5.10)
100
Esempio 4.10
Sia dato il segnale s rappresentato in Fig.E 4.10. La sua trasformata data da:
() = 3sinc()sinc(3)
Fig.E 4.10
Poich il segnale rappresentabile mediante una funzione continua e derivabile a tratti per essa valgono, per = 0,1,2, le limitazioni
(4.5.10) con:
0 = |()| = 3
1 = | ()| = 2
2 = (| (+ ) ( )| + | ()| ) = (| (+ ) ( )|) = 4
=
da cui:
|()| 3;
|()|
1
||
1
{ |()| 22 ;
101
(4.6.1)
( , ) = [(, )] = (, ) 2( + )
(4.6.2)
e la corrispondente antitrasformata:
(, ) = 1 [( , )]
= ( , ) 2( + )
(4.6.3)
se, :
( , ) = 1 1 ( , ) + 2 2 ( , )
(4.6.4)
essendo ( , ), 1 ( , ) e 2 ( , ) le trasformate di (, ), 1 (, )
e 2 (, ) rispettivamente.
Traslazione nel dominio dello spazio e della frequenza
( , )
[( , )] = 2( + ) ( , )
(4.6.5)
come pure:
1 [( , )] = 2(+ ) (, )
Cambiamento di scala.
Se ( , ) la trasformata di Fourier di (, ) si ha:
(4.6.6)
102
[(, )] =
1
( , );
||
, 0
(4.6.7)
= 1 (0 , 0 )2 ( 0 , 0 )0 0
(4.6.8)
detto convoluzione di 1 (, ) con 2 (, ); esso trasformabile secondo Fourier e la sua trasformata vale:
( , ) = 1 ( , ) 2 ( , )
(4.6.9)
= 1 (0 , 0 )2 ( 0 , 0 )0 0
(4.6.10)
corrisponde il segnale (, ):
(, ) = 1 (, ) 2 (, )
(4.6.11)
= sinc( )sinc( )
Fig.E 4.12
103
Fig.E 4.13
Trasformazioni di variabili
Se il segnale (, ) presenta una simmetria di tipo circolare opportuno rappresentare sia il segnale sia la sua trasformata ( , ) in
(4.6.12)
(, ) = ( cos , sin , ) = ()
(4.6.13)
Si pu scrivere:
Tenendo presente che i determinanti Jacobiani delle trasformazioni
(4.6.13) valgono e rispettivamente e che risulta:
+ = (cos cos + sin sin ) = cos( )
(4.6.14)
(, ) = () 2 cos())
0
(4.6.15)
104
0 () =
(4.6.16)
la (4.6.16) si pu riscrivere:
(4.6.17)
(4.6.18)
(4.6.19)
() = 0 2 cos() =
0 2 cos() =
Fig.E 4.14
2 0 0 (2)
Poich risulta:
0 () = 1 ()
0
si ha:
2 0 (2) =
0
Fig.E 4.15
(2)
1
105
CAPITOLO - 5
SEGNALI A POTENZA FINITA
5.1 - Cenni di teoria delle distribuzioni.
Una classe di segnali particolarmente importante quella dei segnali a potenza finita; i quali, non essendo rappresentabili mediante funzioni a quadrato sommabile, non ammettono trasformata di Fourier. Al
fine di estendere a tali segnali la rappresentazione nel dominio della frequenza necessario introdurre il concetto di distribuzione.
A tal fine si premettono alcune definizioni:
unapplicazione () si dice lineare se per ogni coppia di elementi ,
del suo dominio risulta:
( + ) = () + ();
(5.1.1)
Si noti che il dominio e l'insieme immagine di () devono necessariamente essere spazi vettoriali.
Unapplicazione () si dice continua se ad ogni successione di
elementi del suo dominio che sia convergente, secondo il criterio di
convergenza in esso individuato, corrisponde una successione di immagini convergente in base al criterio di convergenza individuato nel codominio dipendentemente dalla sua struttura topologica.
Ci premesso si definisce insieme delle funzioni di prova lo spazio (lineare) D delle funzioni () a valori reali o complessi, definite in
, ivi a supporto limitato e dotate di derivate di qualunque ordine.
Per supporto sintende la chiusura dell'insieme che contiene punti
del dominio in cui la funzione assume valori diversi da zero.
Si noti che lo spazio D non vuoto, poich la funzione:
() =
( 2 2)
( )
(5.1.2)
108
Fig. 5.1 - e
2
)
22
(2 )
()
lim () = () ();
(5.1.3)
(5.1.4)
(5.1.5)
() = ()
(5.1.6)
109
() = ()()
(5.2.1)
u() = (t)dt
0
(5.2.2)
1;
0;
0
<0
(5.2.3)
(5.2.4)
La delta di Dirac associa cio ad ogni funzione () in D il valore che essa assume
all'origine.
La delta di Dirac una distribuzione singolare, tuttavia pu essere
utile introdurre una notazione impropria analoga alla (5.2.1):
()() = (0)
(5.2.5)
110
dove () denota il cosiddetto impulso di Dirac, che viene rappresentato mediante una freccia rivolta verso l'alto spiccata nel punto = 0 (vedi. Fig. 5.3).
La (5.2.5) si pu pensare come limite della successione di distribuzioni regolari associata ad impulsi rettangolari aventi supporto tendente a zero ed area costante e pari a uno (vedi Fig. 5.4):
() = ()() =
1
2
1
2
() = ()
(5.2.6)
essendo un opportuno punto che giace all'interno dell'intervallo di integrazione. Al tendere di ad infinito, poich l'intervallo di integrazione
tende all'insieme {0}, tende a zero, di conseguenza la { } tende ad assumere il valore della funzione di prova in zero. Pertanto si indotti a
scrivere:
lim () = ()
(5.2.7)
111
sulta infinitesima nell'origine. Ciononostante, D, il valore principale di Cauchy dell'integrale 1 (), definito come segue:
VP 1 () = lim ( 1 () + 1 ())
0
(5.2.8)
esiste finito, ed una forma lineare e continua su D. Ci significa che alla funzione 1 si pu associare la distribuzione Pf( 1 ) detta pseudo
funzione 1 , definita dalla:
Pf( 1 ), = VP 1 ()
(5.2.9)
Risulta:
VP 1 () = lim 1 () +lim 1 ()
0
(5.2.10)
( 1 ), = 1 ()
(5.2.11)
= 1 (() ())
0
se, D, () = ()
(5.3.1)
Somma
La somma + di due distribuzioni la distribuzione che associa, ad ogni D, la somma dei valori che le distribuzioni e prese
singolarmente associano alla generica funzione di prova :
= + se, D, () = () + ()
Traslazione
(5.3.2)
112
( 0 ), () = ( 0 )()
(5.3.3)
= ()( + 0 ) = (), ( + 0 )
Estendendo le conclusioni della precedente anche alle distribuzioni singolari si pu definire traslata 0 di una distribuzione la distribuzione:
0 , () = , ( + 0 )
(5.3.4)
(5.3.5)
( 0 )() = (0 )
(5.3.6)
() ()
(5.3.7)
, = ()()
(5.3.8)
= () () + [()()]
= ,
dove si tenuto conto del fatto che la , appartenendo allo spazio del le
funzioni di prova, a supporto limitato.
La (5.3.8) si generalizza sia al caso delle distribuzioni regolari associate a funzioni localmente sommabili, sia al caso delle distribuzioni
singolari. La (5.3.8) definisce quindi la derivata di una distribuzione.
113
(5.3.9)
u , = , = () = [()]
0 = (0)
0
(5.3.10)
pertanto:
u , = ,
(5.3.11)
(5.3.12)
(5.3.13)
() () = (0)
(5.3.14)
(5.3.15)
() () = (1) (0)
(5.3.16)
114
Sia 1 () una funzione ottenuta da () eliminando il salto che si presenta nel punto di ascissa 0 (vedi Fig. 5.5). La () si pu quindi esprimere come segue:
() = 1 () + 0 ( 0 )
(5.3.17)
0 = (0+ ) (0 )
(5.3.18)
dove:
Si consideri adesso la distribuzione regolare associata alla ():
, = 1 , + 0 u0 , = 1 , + 0 u, ( + 0 )
(5.3.19)
(5.3.20)
Si pu quindi scrivere
() = 1 () + 0 ( 0 )
(5.3.21)
La funzione 1 () non definita per = 0 , e potrebbe ivi presentare una discontinuit non eliminabile. opportuno osservare che
laddove esiste () risulta ovviamente 1 () = ().
Osserviamo inoltre che ()
individua una distribuzione regolare
Fig. 5.5 - Segnale continuo a tratti
in quanto {0 } ha misura nulla.
La (5.3.20) si pu generalizzare al caso di funzioni che presentino
un insieme al pi numerabile di punti del tipo sopra considerato scrivendo:
, = 1 , + , ()
I
(5.3.22)
che equivale a:
() = 1 () + ( )
I
(5.3.23)
(5.3.24)
115
, = [()()]() = ()[()()]
(5.3.25)
= ,
(5.3.26)
(5.3.27)
(5.3.28)
Nel caso della pseudo funzione , si osservi che se la () infinitesima nell'origine si pu scrivere:
()
()
() =
()
()( 1 ), =
(5.3.29)
= () 1 ,
cio:
()( 1 ) =
()
(5.3.30)
116
(5.3.31)
Ci significa che le distribuzioni a supporto limitato possono essere definite anche sullo spazio E. In altri termini una distribuzione a
supporto limitato in D anche una distribuzione su E. Si pu dimostrare che vale il viceversa, cio che ogni distribuzione appartenente allo
spazio E, duale di E, una distribuzione a supporto limitato in D, e
quindi che E D.
5.4 - Convoluzione tra distribuzioni.
Siano () e () due funzioni localmente sommabili, la loro
convoluzione , se esiste per ogni la funzione () definita dalla:
() = ()( ) = ( )()
(5.4.1)
Se () localmente sommabile essa individua una distribuzione regolare. Si ha cio per ogni D:
, = ()()
= () ( ()( ))
(5.4.2)
= ()()( )
(5.4.3)
diviene:
, = () ( ()( + ))
(5.4.4)
117
, = () ( ()( + ))
(5.4.5)
(5.4.6)
Si osservi tuttavia che gli integrali interni delle (5.4.4) e (5.4.5), in quanto
distribuzioni regolari, definiscono due funzioni nelle variabili e , che,
pur essendo infinitamente derivabili, in genere non presentano supporto
limitato. Conseguentemente, l'interpretazione degli integrali esterni delle
(5.4.4) e (5.4.5) come distribuzioni non sempre legittima
Le (5.4.6) consentono tuttavia di generalizzare il concetto di convoluzione alle distribuzioni.
Siano e due distribuzioni; la loro convoluzione , se esiste,
una distribuzione = , definita dalla:
, = , = , , ( + )
= , , ( + )
(5.4.7)
(5.4.8)
118
(5.4.9)
(5.4.10)
cio:
La delta di Dirac quindi elemento neutro nell'operazione di
convoluzione.
In maniera analoga si verifica che:
=
(5.4.11)
() = ()
(5.4.12)
e pi in generale:
Infatti :
() , = , () , ( + )
= , () () = () ,
(5.4.13)
(5.4.14)
119
Fig. 5.6
( ) = ( ) = = ( ) =
(5.4.15)
() = ( ) ( )
da cui essendo:
() =
( ( )) ( )
120
( ( )) = ( + ) ( )
2
2
risulta:
() = ( ( + ) ( )) ( )
2
2
() = () + () =
2
( + 1) ;
( 1) ;
{0;
( ( ) + ) ;
||
Essendo () = 0. () rappresentato
in Fig.E 5.3.
Fig.E 5.3
1
() = 2
(5.5.1)
1
, = () 2
1
2 ()
=
= =
1 (k+1) 2
(t)
kT
(5.5.2)
=
= =
=
= =
121
1 2 +
( + )
0
1 2
( + )
0
1
= 2 ( )
0
() = ( ) = 2
=
(5.5.3)
1
, = () 2 =
0
(5.5.4)
(5.5.5)
= () <
=
122
1
1
2 , () = lim
2 , ()
(5.5.6)
( ) , () = ()
=
(5.5.7)
1
2 = ( )
(5.5.8)
() = () 2
(5.6.1)
(), = ()()
(5.6.2)
[()], = () ( () 2 )
(5.6.3)
= () ( () 2 ) = ()()
avendo denotato con () la trasformata della funzione (). da osservare che l'ultimo termine della precedente non costituisce una distribuzione in D, poich, come sar dimostrato nel Cap. VII, la trasformata
di Fourier di una funzione a supporto limitato non pu avere supporto
limitato, quindi, se () D, la sua trasformata () D.
Per estendere la trasformata di Fourier alle distribuzioni quindi
necessario definire uno spazio di funzioni di prova pi ampio, che sia
cio tale da contenere la trasformata di Fourier di ogni suo elemento.
A tal proposito vale il seguente
123
Teorema 5.1
Sia () una funzione dotata di derivate di qualsiasi ordine continue, tali che comunque presi , risulti:
lim | () ()| = 0
||
(5.6.4)
||
(5.6.5)
************
Le funzioni che soddisfano la (5.6.5) prendono il nome di funzioni temperate e lo spazio da esse definito viene denotato con S. Tale
2
spazio non banale giacch la funzione la cui trasformata di Fou2 2
rier vale vi appartiene. Si noti inoltre che lo spazio delle funzioni di prova D, precedentemente definito, contenuto nello spazio
delle funzioni temperate.
Le distribuzioni su S si chiamano distribuzioni temperate, per esse valgono tutte le propriet gi dimostrate per le distribuzioni in .
Lunica sostanziale differenza risiede nel fatto che ad una funzione che
sia solo localmente sommabile non si pu pi associare una distribuzione regolare.
Ci posto, se si assume come spazio delle funzioni di prova lo
spazio S, l'ultimo termine della (5.6.3) pu interpretarsi come una distribuzione regolare su tale spazio. Estendendo la (5.6.3) anche al caso delle
distribuzioni singolari su S si ottiene la seguente definizione per la trasformata [] di una distribuzione temperata:
[], = , ;
, S
(5.6.6)
, S
(5.6.7)
124
[], = ( () 2 ) ()
(5.7.1)
[], = ( () 2 ) ()
(5.7.2)
[] = (), 2
(5.7.3)
da cui:
La precedente pu essere generalizzata anche alle distribuzioni
singolari a supporto limitato, scrivendo:
[] = , 2 ;
E '
(5.7.4)
E '
(5.7.5)
Analogamente si ha:
1 [] = , 2 ;
2(+) 2
= , 2 2
= , lim
0
lim
(5.7.6)
125
[1], = 1, = () = (0) = ,
(5.8.1)
(5.8.2)
(5.8.3)
(5.8.4)
[ ( )] = 2 =
=
( )
(5.8.5)
(5.8.6)
(5.8.7)
(5.8.8)
() =
=
(5.8.9)
126
vale:
[()] = (
=
)
0
(5.8.10)
(5.8.11)
= sgm() ( () 2 )
(5.8.12)
= ( ()( 2 2 ))
0
= 2 ( () sin(2) )
0
1 cos(2)
= lim ()
=
0
1 cos(2)
(5.8.13)
() ()
lim
() ()
cos(2)
Poich la funzione
()()
fatto che il limite che compare nell'ultimo membro della precedente vale
0.
127
1
()
1
VP
= Pf( 1 ),
(5.8.14)
In conclusione quindi:
[sgm()] =
1
Pf( 1 )
(5.8.15)
1 1
+ sgm()
2 2
(5.8.16)
(5.8.17)
1
Si noti la presenza della delta di Dirac dovuta al termine 2 cio alla componente continua della u().
5.9 - Propriet delle trasformate delle distribuzioni.
La trasformata di Fourier di una distribuzione possiede tutte le
propriet della trasformata di Fourier di una funzione ordinaria gi discusse nel CAPITOLO - 4; in particolare:
Linearit
(5.9.1)
supporto limitato.
Per le (5.6.6) e (5.4.7) si ha:
128
[ ], = , = , , ( + )
= , , () 2(+)
(5.9.2)
= , () , 2 2
Poich, essendo per ipotesi a supporto limitato, , 2 la trasformata di che una funzione continua ed infinitamente derivabile di
(vedi .5.7 - ). Pertanto dalla precedente discende:
[ ], = , ()[] 2
(5.9.3)
(5.9.4)
Si perviene allo stesso risultato anche nel caso in cui una distribuzione regolare individuata da una funzione temperata () e
una distribuzione temperata. Si ha infatti:
[ ], = , () () 2(+)
= , () 2 ( () 2 )
(5.9.5)
= , []() 2 = , [[]()]
(2)
(5.9.6)
[],
(5.9.7)
129
(5.9.8)
() = () + ()
(5.9.9)
= ()( ) + () = + ()
(5.9.10)
() =
(5.9.11)
1
1
(() + ())() + () (
)
2
2
(5.9.12)
essendo:
(0) = () = () ()
(5.9.13)
130
[0 ], = 0 , = , +0 = , 20
(5.9.14)
= 20 [],
e cio:
[0 ] = 20 []
(5.9.15)
Analogamente risulta:
1 [0 ] = 20 1 []
(5.9.16)
Esempio 5.2
Derivando due volte, nel senso delle distribuzioni, l'impulso triangolare
( ) di durata , si ha:
() = ( (
+ /2
/2
)(
))
() = ( ( + 2 ) 2() + ( 2 ))
2
4
[ ( )] = ( 2 + ) = (cos() 1)
4 cos() 1
4 1 cos()
[ ( )] =
= sinc 2 ( )
(2)2
2
2
essendo () = () = 0.
Esempio 5.3
Derivando successivamente l'impulso cosinusoidale definito dalla:
() = cos ( ) ( )
Si ha
() = sin ( ) ( )
131
() = ( ) cos ( ) ( ) + ( + ) ( )
cio:
2
() = ( ) () + ( + ) ( )
da cui trasformando:
2
[ ()] = ( ) [()] + ( )
In definitiva si ha:
1 cos()
;
2 1 2
2
(
)
[()] =
2
{2;
||
1
2
|| =
1
2
Esempio 5.4
La derivata del segnale () riportato in
Fig.E 5.4 vale:
() =
Fig.E 5.4
( )
Quindi
() = [ ()] = 2sinc()
1
() = 2sinc()Pf (
)
Tabella 5.1
Trasformate di Fourier di alcune distribuzioni notevoli
[()] = 1
[( 0 )] = 20
[1] = ()
[ 20 ]
= ( 0 )
[sgm()] =
1
1
Pf ( )
1
1
1
[u()] = () +
Pf ( )
2
2
[cos(20 )] =
1
[( 0 ) + ( + 0 )]
2
132
[sin(20 )] =
[ ()
=
1
[( 0 ) ( + 0 )]
2
2
0
] = () (
)
0
CAPITOLO - 6
TRASFORMAZIONI LINEARI DEI SEGNALI
6.1 - Definizioni. Propriet generali.
Un sistema di elaborazione dei segnali un dispositivo che effettua
su uno o pi segnali in ingresso un insieme di trasformazioni, come ad
esempio amplificazione, filtraggio, modulazione o rivelazione, trasmissione, etc. Un tale dispositivo normalmente rappresentato mediante un
blocco funzionale caratterizzato
da un segnale in ingresso () e
Fig. 6.1 - Trasformazione di segnali
() = {()}; ,
(6.1.1)
Se un insieme continuo (limitato o illimitato) la trasformazione si dice analogica; se un insieme discreto (finito o numerabile) la trasformazione detta numerica anche possibile che il segnale in ingresso sia
a tempo continuo e quello di uscita a tempo discreto (ad es. convertitori analogico-digitali) o viceversa.
134
sistema fisicamente realizzabile necessariamente non anticipativo. Tuttavia se l'elaborazione del segnale avvenisse in tempo virtuale a mezzo
ad esempio di un calcolatore nella cui memoria siano stati gi stati inseriti i dati (), la condizione di causalit potrebbe essere rimossa.
Un'importante classificazione delle trasformazioni di segnali basata sul concetto di linearit.
Una trasformazione si dice lineare se ad ogni ingresso del tipo:
() = ();
(6.1.2)
=1
() = { ()}; ,
(6.1.3)
=1
(6.1.4)
e di additivit:
{1 () + 2 ()} = {1 ()} + {2 ()}
(6.1.5)
, ,
(6.1.6)
135
Esempio 6.3
La trasformazione definita dalla seguente equazione differenziale:
() + () = ()
1 () + 1 () = 1 ()
2 () + 2 () = 2 ()
da cui, sommando la prima della precedente moltiplicata per 1 con la seconda moltiplicata per 2 , :
[1 1 () + 2 2 ()] + [1 1 () + 2 2 ()] = 1 1 () + 2 2 ()
() = ()( )
(6.2.1)
() = {()} = { ()( ) }
= (){( )}
la quale, ponendo:
(6.2.2)
136
(, ) = {( )}
(6.2.3)
diventa:
() = ()(, )
(6.2.4)
La (, ), definita dalla (6.2.3), corrisponde alla risposta del sistema osservata all'istante ad un impulso di Dirac applicato all'istante .
Nel linguaggio proprio delle trasformazioni lineari la funzione
(, ) costituisce il cosiddetto nucleo della trasformazione (6.2.4).
Esempio 6.4
Il sistema lineare:
() = ()
(6.2.5)
la precedente sta a significare che, nel caso di trasformazioni Lineari e Tempo Invarianti (LTI), la risposta impulsiva non dipende in
realt dalle due variabili e , ma dalla loro differenza essa sar cio riconducibile ad una funzione () di una sola variabile. In sostanza abbiamo indicato con:
() = {()}
(6.2.6)
() = ()( ) = ( )() =
(6.2.7)
cio: il segnale in uscita da un sistema LTI si ottiene convolvendo il segnale in ingresso con la risposta impulsiva del sistema.
137
si deve avere
|()| <
(6.3.1)
|()| <
(6.3.2)
(6.3.3)
|(, )| <
(6.3.4)
|( )| = |()| <
(6.3.5)
(6.3.6)
(0) = ()( ) |
=0
= sgm[()]()
= |()| =
(6.3.7)
138
(6.4.1)
() = ()()( ) = ()()
(6.4.2)
() = [()] = [ ()(, ) ]
[ ( () 2 ) (, ) ] 2
() [ (, ) 2() ]
(6.5.1)
(, )
()
(6.5.2)
() definita dalla:
() = [()] = () 2
(6.5.3)
139
prende il nome di risposta in frequenza del sistema. La trasformazione duale di un sistema LTI si riduce quindi al prodotto della () per la risposta in frequenza del sistema.
La deduzione della (6.5.2) dalla (6.2.7) immediata, tuttavia interessante, come utile esercizio, ottenerla anche introducendo lipotesi di
tempo invarianza nella (6.5.1):
() = [ ()( ) ]
() [ 2 ( ( ) 2 ) ]
() [ 2 (() 2 ) ]
(6.5.4)
() [() 2() ]
[ ( () 2 ) ( ) ] 2
()[()( )] = ()()
(, ) di un
In pratica dalla precedente si evince che il modulo della
sistema LTI si presenta come una lamadi delta di Dirac adagiate sulla bisettrice del piano (, ) inviluppata da |()|.
6.6 - Determinazione della risposta in frequenza di una
trasformazione LTI.
Nel caso generale pu risultare complicata la determinazione della
risposta in frequenza di un sistema lineare. Tuttavia nel caso di trasformazioni lineari e tempo invarianti il calcolo della () risulta molto pi
semplice. Infatti la risposta ad un ingresso del tipo:
0 () = 20
(6.6.1)
vale:
0 () = 20 () () = 20 () 20
che, ricordando la (6.5.3), si scrive:
0 () = (0 ) 20
(6.6.2)
(6.6.3)
140
Cio, un sistema LTI sollecitato da un segnale del tipo 20 risponde con un segnale che differisce da esso per unfattore moltipicativo
complesso coincidente con il valore, (0 ), della risposta in frequenza
alla frequenza 0
Esempio 6.5
Si determini la risposta in frequenza del sistema definito dalla seguente
equazione differenziale:
() + () = ()
Ponendo:
0 () = 2
0 () = () 2
Fig.E 6.1
si ottiene:
2() 2 + () 2 = 2
dalla quale si deduce:
() =
1
+ 2
Esempio 6.6
Si determini la risposta in frequenza del
filtro RC passa basso rappresentato in Fig.E
6.1dove () e () denotato le tensioni applicate ai morsetti di ingresso e di
uscita rispettivamente.
Fig.E 6.2
1
1 + 2
E' da osservare che quanto detto equivale a determinare la risposta del sistema nel regime sinusoidale permanente; ci pu essere fatto direttamente
sulla base dello schema di Fig.E 6.2 dove al condensatore si sostituita
limpedenza
1
2
1
1
2 +
141
1
1 + (2)2
ed il suo argomento:
() = arctang(2)
Metodo diretto
La risposta impulsiva si ottiene dalla soluzione dellequazione
(a)
() + () + () = ()
Poich limpulso di Dirac identicamente nullo per 0, la risposta impulsiva
Fig.E 6.3
pu essere considerata come una risposta
con ingresso zero partendo dallistante = 0+ .
Questo comporta che, dette e le soluzioni dellequazione caratteristica:
2 + + 1 = 0
cio
1
3
=
2
2
1
3
= +
2
2
{
(b)
() = 1 + 2 = 1 (2+ 2 ) + 2 (2 2 )
dove le costanti 1 e 2 dipendono dalle condizioni iniziali a = 0+ dovute
allimpulso di Dirac. A tale proposito si integri lequazione (a) da = 0 a
= 0+ . Si ha:
(c)
0+
(0+ ) + (0+ ) + 0 () = 1
0+
essendo manifestamente (0 ) = 0; (0 ) = 0; 0 () = 1.
142
La risposta impulsiva non pu avere discontinuit in = 0, perch se cos fosse sostituendo nella (a) a primo membro comparirebbe la derivata della
distribuzione delta di Dirac che non compare nel secondo membro quindi
la (a) non potrebbe essere soddisfatta. Pertano:
0+
() = 0
0
che comporta
(d)
(0+ ) = 0
e quindi dalla (c) si ottiene:
(e)
h (0+ ) = 1
Le (d) e (e) costituiscono le condizioni iniziali da imporre alla (b). Si perviene cos alla seguente espressione:
1
3
1+ 3
2 1
3
() = ( 2 2
2 2 ) u() =
2 sin ( ) u()
2
3
3
3
si ottiene:
(2)2 () 2 + (2)() 2 + () 2 = 2
da cui:
() =
(2)2
1
+ (2) + 1
1
1
=
1
3
+ + 1 ( + )( + 1 + 3)
2
+
2
+ +
2
3
2
1
1
+ +
2
Si ottiene allora:
2 =1+ 3
2
2
1
3
=[
1
1
+
2
2 =1 3
2
2
1
3
() =
1
1
3 2 + +
2
143
3 2 + 1 3
2
() = 0 ( )
(6.7.1)
dove la costante 0 rappresenta il guadagno (0 > 1) o lattenuazione (0 < 0 < 1) del sistema.
Trasformando secondo Fourier ambo i
membri della (6.7.1) si ottiene:
() = 0 2 ()
(6.7.2)
(6.7.3)
() = 0 (
) 2
2
(6.7.4)
144
(6.7.5)
(6.7.6)
b) filtro passa-banda:
() = 20 cos[20 ( )] sinc[( )]
(6.7.7)
CAPITOLO - 7
CARATTERIZZAZIONE ENERGETICA DEI SEGNALI
Segnali a energia finita
= |()|2 = () ()
(7.1.1)
= () ( () 2 )
= () ( () 2 ) = () ()
(7.1.2)
= |()|2
= 2 |()|2
0
(7.1.3)
Il Teorema di Parseval stato gi provato in modo formalmente pi corretto nel CAPITOLO 4. In tutto questo capitolo si preferito sacrificare il rigore formale a vantaggio di una pi immediata interpretazione dei risultati.
146
gnifica che la funzione |()|2 proporzionale al rapporto , e pertanto assume il significato di densit di energia.
Pi in generale, si definisce densit spettrale di energia di un segnale la
quantit:
() = |()|2
(7.1.4)
(7.1.5)
= ()
(7.1.6)
(7.1.7)
12 = 1 ()2 ();
21 = 2 ()1 ()();
(7.1.8)
(7.1.9)
12 = 21
(7.1.10)
|21 | 1 2
(7.1.11)
147
o anche:
12 21 1 2
(7.1.12)
12 = 21 = 1 ()2 ()
(7.1.13)
12 = 1 () ( 2 () 2 )
= 2 () ( 1 () 2 )
(7.1.14)
= 1 ()2 ()
12 = 1 ()2 () = 1 , 2
(7.1.15)
Analogamente si ha:
21 = 2 ()1 () = 2 , 1
(7.1.16)
21 () = 2 () 1 ();
(7.1.17)
12 = 12 () ;
21 = 21 () ;
(7.1.18)
148
(7.1.19)
Tuttavia, se i segnali sono reali, la precedente, in virt della simmetria hermitiana, si semplifica nella:
12 () = 21 ()
(7.1.20)
Esempio 7.1
Si considerino i due segnali:
1 () = ( )
2 () = u()
Fig.E 7.1
0
;
2
12 = 21 = /0 = 0 (1
20
12
1 2
20
(1 20 )
20
1
1+
>0
si calcoli il contributo all'energia specifica dovuto alla parte del suo spettro
compresa nell'intervallo di frequenze [
2 2
].
() =
149
1
2 + (2)2
Pertanto si ha:
=
1
=
=
2
+ (2)
2 1 1 + 2 4
Esempio 7.3
Sia un segnale ottenuto sommando sue segnali 1 e 2 a energia finita:
= 1 + 2
la quale, denotando con 1 () e 2 () le densit spettrali di energia associate a 1 e 2 e con 12 () e 21 () le corrispondenti densit spettrali di
energia incrociate, si pu riscrivere:
() = 1 () + 12 () + 21 () + 2 ()
che costituisce la matrice delle densit spettrali. Essa una matrice hermitiana giacch gli elementi della diagonale secondaria risultano complessi coniugati.
() = ( + ) ()
(7.2.1)
150
(0) = |()|2
(7.2.2)
() = ( ) ()
(7.2.3)
() = () ( + ) = [ ( + ) ()]
(7.2.4)
(7.2.5)
(7.2.6)
= (0)
da cui si evince:
|()| (0)
(7.2.7)
(7.2.8)
cio, la funzione di autocorrelazione di un segnale reale ha simmetria pari. La (7.2.7) inoltre assicura che la () raggiunge il suo valore massimo
(0) nell'origine.
La conoscenza della funzione di autocorrelazione fornisce interessanti informazioni riguardo l'andamento del segnale nel dominio del
tempo.
A tal fine si consideri, per semplicit, un segnale reale e si prenda
in esame il seguente integrale:
151
2 () = [() ( + )]2
(7.2.9)
che rappresenta il quadrato della distanza euclidea fra il segnale () e la sua versione anticipata di . ovvio che, se ()
varia molto lentamente nel
tempo, l'integrando si manterr
piccolo, almeno per valori di
non troppo elevati. Viceversa,
Fig. 7.1 autocorrelazioni dei segnali:
ci si dovrebbero attendere valo) cos(2t)(2t3); ) cos(10)(23).
ri elevati di [() ( + )]2 ,
quando il segnale varia rapidamente nel tempo. Sviluppando la (7.2.9) si ha:
2 ()
= 2 () 2 ()( + ) + 2 ( + )
(7.2.10)
(7.2.11)
() = ( + ) ()
() = ( + ) ()
152
()
= ( + ) ()
()
= () ( )
2 ()
= ( ) () = () ( + )
2
che fornisce:
() =
2 ()
2
[()] = () 2
(7.3.1)
[()] = 2 ( ()( + ))
(7.3.2)
[()] = () ( ( + ) 2 )
(7.3.3)
[()] = () () 2 = () ()
(7.3.4)
(7.3.5)
153
12 () = 1 ( + )2 () ;
(7.4.1)
21 () = 2 ( + )1 () ;
12 () = 21
()
(7.4.2)
12 () = 1 ()2 ( ) = ( 2 ( )1 () )
(7.4.3)
(7.4.4)
12 (0) = 1 ()2 () = 12 ;
21 (0) = 2 ()1 () = 21 ;
(7.4.5)
cio i valori assunti nel punto = 0 dalle due funzioni di mutua correlazione coincidono con le corrispondenti energie incrociate.
Applicando la disuguaglianza di Schwarz alle (7.4.1) si deduce:
|12 ()|2 1 (0) 2 (0) = 1 2 ;
|21 ()|2 1 (0) 2 (0) = 1 2 ;
(7.4.6)
154
12 () = 21 () = 0
(7.4.7)
1 ()2 () = 0
(7.4.8)
che corrisponde alla condizione di ortogonalit tra i due segnali. Ci significa che se due segnali sono incorrelati sono anche ortogonali; il viceversa in genere non vale. La condizione dincorrelazione pertanto pi
forte di quella di ortogonalit.
facile infine riconoscere che con procedimento analogo a quello seguito per dedurre la (7.3.5) si ottengono le:
[12 ()] = 12 (); [21 ()] = 21 ();
(7.4.9)
che costituiscono una naturale estensione del teorema di WienerKhinchine al caso delle funzioni
di mutua correlazione.
Esempio 7.5
La funzione di correlazione incrociata 12 () per i segnali
1 () = u() 0
2 () = ( ) ;
0
Fig.E 7.2
vale:
12 () =
0
2
( ) u( + ) 0 = 0 u( + ) 0
0
0
2
0 2
= ( ) 0 0 + u ( ) 0 0
0
2
0
2
= 0
[(
1
1
1
) ( ) + ( 2 2 ) u ( )]
0
0 2
1
1
1
1
1
21 () = 12 () = 0 0 [( 0 2 ) ( ) + ( 2 2 ) u ( + )]
0
0 2
155
1 2
= lim |()|2
(7.5.1)
positiva e limitata.
Introducendo il segnale troncato () la (7.5.1) diventa:
1
| ()|2
= lim
(7.5.2)
Per un fissato valore di il segnale () ad energia finita; pertanto, detta () la sua trasformata di Fourier, utilizzando il teorema di
Parseval, si pu scrivere:
(7.5.3)
1
| ()|2
| ()|2 = lim
= lim
(7.5.4)
Risulta quindi immediato associare al segnale () la seguente espressione per la densit spettrale di potenza10
| ()|2
() = lim
(7.5.5)
= ()
10
(7.5.6)
Si osservi che il simbolo adottato per la densit spettrale di potenza lo stesso di quello
adoperato per la densit spettrale di energia. Al fine di non incorrere in spiacevoli equivoci
necessario pertanto precisare la classe di segnali (ad energia finita o a potenza finita) che via
via si prendono in considerazione. Le stesse precauzioni si dovranno prendere a proposito delle funzioni di correlazione pi avanti definite.
156
(7.5.7)
12
21
1 2
= lim 1 ()2 () ;
2
(7.5.8)
1
= lim 2 ()1 ().
2
12 = 21
(7.5.9)
| 1 ()2 |
(7.5.10)
2
|1 ()| |2 ()| ;
(7.5.11)
(7.5.12)
157
() ()
1
2
;
12 =
lim
1 ()2
()
;
21 =
(7.5.13)
lim
2 ()1
()
21 () = lim
;
12 () = lim
(7.5.14)
Si ha:
12 = 12 ();
21 = 21 () ;
(7.5.15)
12 () = 21
()
(7.5.16)
Esempio 7.6
Il segnale:
() = cos(2 )
=1
= cos(2 ) cos(2 )
,=1
= 2 cos2 (2 ) +
=1
risulta:
1
[cos(2( )) + cos(2( + ))]
2
,=1
158
1
[cos(2( )) + cos(2( + ))]
2
,=1
[
= lim
+ 2 (cos(4 ) + 1)
=1
sin(( )) sin(( + ))
1
sin(2 )
lim [
+
+ 2
] + 2
2
2
(
(
+
)
)
,=1
=1
=1
{
}
= 2
=1
1 2
( + ) ()
() = lim
(7.6.1)
1 2
(0) = lim () ()
(7.6.2)
() =
1 2
lim (
) ()
1 2
lim
() (
+ )
1 2
lim () ( + )
2
1
(7.6.3)
+ lim ( () ( + ) +
()
() ( + ))
159
dove si tenuto conto del fatto che, per ogni valore di , gli integrali che
compaiono nel secondo limite al penultimo membro sono certamente
finiti. In conclusione si pu affermare che la funzione di autocorrelazione di un segnale a potenza finita a simmetria hermitiana.
Per segnali reali la (7.6.3) si riduce alla:
() = ()
(7.6.4)
(7.6.5)
() = () ( + )
= u()
()(
+ ) + u()
(7.6.6)
()( + )
Considerazioni analoghe a
quelle che hanno condotto alla (7.6.3) consentono di scrivere:
() = lim
()
(7.6.7)
(7.6.8)
[()] = lim
(7.6.9)
(7.6.10)
160
1 2
1 ( + )2 ()
2
12 () = lim
1 2
21 () = lim
2 ( + )1 ()
2
(7.6.11)
12 () = 21
()
(7.6.12)
(7.6.13)
(7.6.14)
cio le funzioni di mutua correlazione e le rispettive densit spettrali costituiscono coppie di trasformate di Fourier.
Esempio 7.7
La funzione di autocorrelazione del segnale di cui allEsempio 7.6 vale:
1 2
cos(2 ) cos (2 ( + ))
() = lim
,=1
=
,=1
1
lim {cos [2 (( + ) + )] + cos[2( ) ]}
2
2
=1
2
1 2
+
lim {cos(2 (2 + )) + cos(2 )}
2
161
sin [2 (( + ) + )]
lim [
]
2
2( + )
,=1
{
2
sin [2 (( ) )]
+[
]
2( )
sin(2 (2 + )) 2
2
1
+
lim {[
] + cos(2 )} = 2 cos(2 )
2
4
2
=1
=1
() = [()] =
=1
2
[( ) + ( + )]
4
Esempio 7.8
Sia () un segnale, periodico di periodo 0 , che pu essere quindi sviluppato in serie di Fourier:
() =
2
0
2
2(+)
1 2
( 0 0 )
() = lim
,=
,=
= | |2
2()
1
lim
lim
sin [( ) ]
( )
2
0
La funzione di autocorrelazione dunque una funzione periodica di periodo 0 ed il generico coefficiente del suo sviluppo in serie di Fourier vale:
= | |2
162
1 2 2()
0 = sinc (( ) )
0
2
evidente che la precedente valida anche se l'argomento dell'esponenziale identicamente nullo, non si rende quindi necessaria la distinzione tra i casi = , .
CAPITOLO - 8
CARATTERISTICHE E PROPRIET DEI SEGNALI
8.1 - Segnale analitico. Trasformata di Hilbert.
In alcune applicazioni della teoria della modulazione, come pure
nello studio della risposta dei filtri
passabanda, opportuno caratterizzare i segnali reali fornendo una
rappresentazione che generalizza
quella che usualmente si adotta per
lo studio dei circuiti in regime sinusoidale. Tale generalizzazione si basa sul concetto di segnale analitico.
Si consideri un segnale reale
Fig. 8.1 - a) Modulo della trasformata di
(); b) modulo dellatrasformata del se() la cui trasformata di Fourier
gnale analitico () ad esso associato.
() rappresentata in Fig. 8.1. Alla () si pu associare una funzione ():
() = ()[1 + sgm()]
(8.1.1)
1
1
) = Pf ( )
(8.1.2)
Si ottiene cos:
1
() = () (() + Pf ( ))
che, ponendo:
(8.1.3)
164
s() =
1
()
VP
(8.1.4)
si pu riscrivere:
() = () + ()
(8.1.5)
() e la pseudofunzione Pf () cio:
1
() = () Pf ( )
(8.1.6)
(8.1.7)
quindi:
() =
()
= ()sgm()
sgm()
(8.1.8)
da cui antitrasformando:
1
()
() = VP
(8.1.9)
1 []
(8.1.10)
, =,
= () () =
() ()sgm() = 0
(8.1.11)
165
Il risultato zero in
quanto essendo il segnale reale la funzione integranda dispari. Possiamo quindi affermare
che un segnale e quello associato alla trasformata di Hilbert di
una funzione che lo
rappresenta sono ortogonali.
Fig.E 8.1
Esempio 8.1
Applicando la definizione (8.1.4) al rettangolo unitario di durata
( )
T
2
T si ha:
1
1
2
[ ( )] = VP
= VP
= lim (
+
)
T
0
+
1
1
2
lim (log | + | log| + | + log | | log | |) = log |
|
0
2
2
quindi:
1
2
() = ( ) + log |
|
per la (8.1.7)
[[ 20 ]] = ( 0 )sgm()
Fig.E 8.2
166
da cui antitrasformando:
[ 20 ] = ( 0 )sgm() 2 = sgm(0 ) 20
cio:
[ 20 ] = 20
Esempio 8.3
Determinare il segnale analitico associato al segnale rappresentabile
mediante la funzione:
() =
1
2 + 2
Potendosi scrivere:
1
1
1
= [
]
2 + 2 2 +
1
1
{ [
] [
]}
2
+
1
] = u()
+ 2
quindi:
1
1
[
] = 2 [
]
2 + 2
= 2u() 2
Fig.E 8.3
1
[
] = 2 u() 2
+
Di conseguenza () diviene:
() =
167
() = 2
0
2|| 2
2 2()
1
=
[
] =
2() 0
( )
o anche:
() =
+
2 + 2
( 2 + 2 )
ed il suo argomento:
1
1
2 + 2
() = arctg ( )
1
22
, 0) e raggio =
1
2
come indi-
(8.2.1)
() = ()u()
(8.2.2)
e
che individuano il contenuto di frequenze positive e negative di un segnale () il cui spettro stato denotato con ().
Alle quantit + () e (), sopra definite, si possono associare
due segnali complessi + () e () ottenuti per mezzo delle seguenti
antitrasformate:
+ () = 1 [+ ()];
() = [ ()]
(8.2.3)
168
() = + () + ()
(8.2.4)
() = + () + ()
(8.2.5)
si ha:
Tenendo conto della (8.2.4), la trasformata di Fourier di () vale:
() = sgm() [+ () + ()] = + () + ()
(8.2.6)
da cui antitrasformando:
() = [+ () ()]
(8.2.7)
che permette di esprimere la trasformata di Hilbert di un segnale in termini delle sue componenti a frequenze positive e negative.
Invertendo le (8.2.5) e (8.2.7) si ottiene infine:
+ () =
1
[() + ()],
2
1
() = [() ()]
2
(8.2.8)
(8.3.1)
(8.3.2)
(8.3.3)
169
(8.3.4)
1 + 2
2
(8.3.5)
(8.3.6)
(8.3.7)
() 2
(8.4.1)
|()| <
(8.4.2)
170
()
= 2 () 2
(8.4.3)
da cui:
|
()
| |2| |()| 2 |()|
(8.4.4)
()
(2
)
|()|
(8.4.5)
() 2 + () 2
(8.4.6)
= 2Re [ ()
20
(0 + ) 2 ]
(8.4.7)
Definendo il segnale:
() = 2 (0 + ) 2
(8.4.8)
(8.4.9)
171
(8.4.10)
(8.4.11)
(8.4.12)
) () = () cos () = 2Re [ (0 + ) 2 ]
(8.4.13)
) () = () sin () = 2Im [ (0 + ) 2 ]
172
1 ()
2
(8.4.14)
() = Re[() 20 ] 2
1
= [() 20 + () 20 ] 2
2
1
1
= () 2(0 ) + ( () 2(+0 ) )
2
2
(8.4.15)
(8.4.16)
Esempio 8.4
Fig.E 8.4
173
1 cos() sin()
sin() cos()
1 [(0 + )] = (
+
)+(
)
2 2 2
2
2 2 2
2
;
2 2 2
2
() =
) sin(20 )
2 2 2
2
Fig.E 8.5
2
1
= ( 2 |()|2 )
(8.5.1)
la quantit vale:
1
|()|2
(8.5.2)
174
2
1
= ( ( )2 |()|2 )
(8.5.3)
2
1
= ( 2 |()|2 )
(8.5.4)
1 2
= |( )|2
(8.5.5)
1
|()|2
(8.5.6)
= 2 =
0
1
2
a) Durata quadratica:
Lascissa baricentrica vale:
= 2 2 =
0
175
2 2
5
2 = 2 ( ) 2 = 2
2
0
Risulta quindi:
=
1 5
2
2
2
2
1 4
= u ( ) 2() =
da cui:
=
1
[4 log(1 2 )]
1
2
2
=
=
2
+ (2)2
arctg()
= 2
=
2
2
+ (2)
= tan ( 2 )
2
CAPITOLO - 9
IL CAMPIONAMENTO DEI SEGNALI
9.1 - Il teorema del campionamento.
Un'importante caratteristica di un segnale a banda limitata quella di potere essere ricostruito a partire dalla conoscenza dei valori, campioni, assunti da esso in corrispondenza di un'opportuna sequenza di
istanti.
Quanto detto, in altri termini, significa che possibile stabilire
una corrispondenza biunivoca tra funzioni del tempo rappresentative di
segnali a banda limitata e sequenze numeriche.
In linea di principio
per poter ricostruire il segnale non necessario che
i campioni vengano prelevati con cadenza regolare.
Tuttavia, poich in genere
si adottano campionatori
uniformi, in quel che segue
si considerer soltanto il
campionamento uniforme;
cio si assumer che l'intervallo di tempo =
Fig. 9.1 - a) Spettro di un segnale passabasso;
b) sua ripetizione periodica.
+1 che intercorre tra
due campioni consecutivi,
detto periodo di campionamento, sia costante.
Dato un segnale () reale rigorosamente passa basso, cio tale
che detta () la sua trasformata di Fourier (vedi Fig. 9.1a)), risulti:
() = () (
),
2
(9.1.1)
178
() = ( )
(9.1.2)
(9.1.3)
() = () ( )
(9.1.4)
si ha:
() coincidono nell'intervallo ( , ).
() =
(9.1.5)
dove:
1 2
1
2
=
= ()
( )
(9.1.6)
() = ( ) ( )
(9.1.7)
= ( ) ( )
() = ( ) sinc [ ( )]
(9.1.8)
179
dei suoi
campioni.
Si osservi che, in base alla (9.1.8), la ricostruzione del segnale viene effettuata sommando una serie di funzioni del tipo sinc( ) opportunamente ritardate e pesate per mezzo dei campioni di () come indicato in Fig. 9.2.
Si sottolinea che la (9.1.8) vale soltanto se la (9.1.3) verificata. La
minima frequenza di campionamento che soddisfa tale limitazione detta frequenza di Nyquist, e il corrispondente massimo periodo di campionamento periodo di Nyquist. Essi valgono rispettivamente:
= 2 ;
1
2
(9.1.9)
() = sinc [ ( )]
(9.2.1)
con frequenza di taglio non superiore ad 2 . Inoltre le (9.2.1) sono ortogonali. Infatti detta () la trasformata di Fourier di () si ha:
180
() =
[sinc( )] =
( )
(9.2.2)
() () = ()
()
(9.2.3)
2()
1
= sinc(-)
2
() = ()
(9.2.4)
dove:
=
( )
(9.2.5)
ne.
evidente che se < 2 , () non coincide con () nell'intervallo ( , ) del segnale () (vedi Fig. 9.3). La sua ricostruzione
non effettuabile mediante la (9.1.8).
181
() = (
) () = (
) ( )
2
(9.2.6)
() =
( ) sinc [2 ( )]
(9.2.7)
() = 2 sinc [2 ( )]
(9.2.8)
e
=
2
( )
(9.2.9)
Tuttavia in questo caso, la (9.2.8) individua una famiglia di funzioni normalizzate che non sono mutuamente ortogonali. Si ha infatti:
() () =
1
2()
2
(9.2.10)
2
= sinc [
( )]
() = ()
(9.2.11)
() = () =
( ) 2
2
2
=
=
(9.2.12)
182
() = [( )] = () 2
=
(9.3.1)
0 () = 2
(9.3.2)
0 () = ( )
(9.3.3)
Il campionatore del tipo mostrato in Fig. 9.4 non quindi fisicamente realizzabile a causa della presenza della delta di Dirac.
Si pu pensare di approssimare la funzione campionatrice (9.3.3)
con un treno dimpulsi che sia la ripetizione periodica con passo di un
impulso () di durata < e trasformata di Fourier (). cio assumendo che 0 () valga:
0 () = (
)
(9.3.4)
183
() = () 0 () = () (
)
(9.3.5)
(9.3.6)
dove:
0 () = [0 ()] = [ 0
(9.3.7)
= 0 ( )
=
in cui
1 2
( )
= () 2 =
(9.3.8)
184
Si ha quindi:
() = 0 ()( )
=
1
= 0 ( ) =
( )( )
(9.3.9)
La (9.3.9) mostra che nel campionamento naturale lennesima ripetizione dello spettro risulta moltiplicata per il fattore
( )
Pertanto
nell'intervallo
( , ), la forma
2
() =
sinc( )( )
(9.3.10)
In questo caso lo spettro di ampiezza | ()| del segnale () si presenta come mostrato in Fig. 9.6. Tornando alla Fig. 9.5 possiamo osservare che nel campionamento naturale il generico impulso ( ) viene
in realt distorto dal segnale quindi non possiamo parlare di vero e proprio campionamento nel senso che non potremmo ricostruire il segnale
a partire dalla sola conoscenza dei valori che esso assume in una sequenza di istanti, tale campionamento potrebbe al pi essere utilizzato
per una multiplazione di pi segnali su uno stesso mezzo fisico (multiplazione a divisione di tempo), in quanto sarebbe possibile inserire tra
gli impulsi associati ad un segnale quelli relativi ad altri.
185
() = ( ) (
)
(9.4.1)
conveniente scrivere (
(
) = ( ) ( )
(9.4.2)
Di conseguenza:
() = ( ) ( ( )( ))
= ( ) (() ( ))
(9.4.3)
(9.4.4)
186
() = () [() ( )]
=
= () (()
1
( ))
(9.4.5)
()
( )
() = sinc() [() ( )]
=
= sinc() (()
1
( ))
(9.4.6)
= sinc() ( )
Fig. 9.8, da cui si rileva che, a causa del fattore sinc() tale spettro ha
una forma diversa da quello del segnale nella porzione contenuta nell'in-
187
tervallo ( 2 , 2 ).
Di conseguenza un filtro passabasso non in grado di ricostruire
il segnale. Tuttavia, poich il legame tra lo spettro del segnale campionato e quello di () noto, possibile eliminare la distorsione introdotta
dal campionatore.
Si osservi inoltre che, se << , la distorsione introdotta diventa trascurabile in quanto il fattore sinc() varia poco nella banda di interesse. Tale riduzione tuttavia, comporta anche una notevole attenua
zione del segnale a causa del fattore << 1.
= |() ()|2
(9.5.1)
= |() ()|2
(9.5.2)
188
=
||>
|() ()|2
(9.5.3)
La presenza del primo addendo della (9.5.3) inevitabile, in quanto esso dovuto alle componenti spettrali di () che cadono al di fuori
della banda di interesse. Il secondo addendo nasce a causa del ricopri-
=
||>
(9.5.4)
||
un segnale a banda non limitata. Supponendo di campionarlo con frequenza , lo spettro del segnale campionato vale:
() =
| |
( +
189
)+
||
() = () ( )
e risulta:
= 2
(1
( +
= 2 [ ( 1)
+ ( 1) ]
||>
2
2||
(9.6.1)
(9.6.2)
ovvero:
dove indica la banda del segnale.
190
(9.6.3)
termine ( ( + 1) ), relativo alla successiva ripetizione dello spettro del segnale, rimane alla destra di + ().
Quanto detto (vedi Fig. 9.11) si traduce nelle disuguaglianze:
(0 ) 0
2
2
( + 1) (0 + ) 0 +
2
2
(9.6.4)
(9.6.5)
(9.6.6)
0 1
2
191
(9.6.7)
inoltre che, tanto pi grande 0 tanto pi piccola pu essere la frequenza di campionamento rispetto alla frequenza di centro banda del segnale,
compatibilmente con l'estremo inferiore definito dalla (9.6.2).
192
= 1,0
essendo
1
1 10 = 9
2
=0
=1
=2
=3
=4
=5
=6
=7
=8
=9
100 = 0,53%
Esempio 9.3
Un'interessante applicazione del campionamento si riscontra nel funzionamento degli oscilloscopi campionatori tramite i quali possibile rappre-
193
() = ( )
=
0
0
0 0
2
2
194
Fig.E 9.1
Purch gli estremi di tale intervallo non siano interi, cosa che non accade
se si sceglie un valore di che soddisfi la condizione:
2
2 + 1
ad ogni valore di corrisponde un unico valore di = + . Cio una sola ripetizione di una data armonica del segnale viene a cadere nell'intervallo
o equivalentemente:
<
195
2|1 0 |
ammesso che si sia scelto un valore che consenta di soddisfare la precedente disuguaglianza per tutte le armoniche contenute nel segnale, ovvero
che le armoniche che non la soddisfano abbiano ampiezza trascurabile. Il segnale () ottenuto all'uscita del filtro assume la forma:
() = = 2(10)0
() = ( ) =
=
(9.7.1)
0 +
()
+ ()
0
= ( )
(9.7.2)
1
0
+ 0
2
() = [ (2
) + (2
)] ( )
(9.7.3)
quindi:
()
=
0 +
0 +
4
4
2( )
2( )
+
]
( ) [
0
0
=
(9.7.4)
196
= + 0
(9.7.5)
() =
4
20 ( )
2( )
+
( ) [
20 ( )
2( )
] =
(9.7.6)
4
2( )
( ) cos [20 ( )]
(9.7.7)
(9.8.1)
1
() = ( ) ( )
2
=
purch risulti:
(9.8.2)
197
(9.8.3)
1
1
2
() = ( ) ( )
(9.8.4)
() =
1 2( )
=
( ) ( )
2
=
(9.8.5)
2( )
( )
= ( ) sinc [ (
=
( )
)]
ma () = Re[()], pertanto:
() = ( ) sinc [ ( )] cos [ ( )] +
( ) sinc [ ( )] sin [ ( )]
(9.8.6)
che la formula di ricostruzione del segnale a partire da due diverse sequenze di campioni ottenuti da () e da () rispettivamente.
La minima possibile frequenza di campionamento, in questo caso, pari alla banda del segnale () quindi la met di quella minima
per il campionamento del primo ordine. Tuttavia va sottolineato il fatto
che il numero minimo di campioni al secondo per poter effettuare la ri-
198
(9.8.7)
si pu scrivere:
() =
1
0
2
(
) ( )
(9.8.8)
() =
0 +
2
2( )
( )
0
=
(9.8.9)
1
20 ( ) 2 2( )
=
() =
( )
20 ( )
= ( ) sinc [ ( )]
(9.8.10)
(9.8.11)
199
banda del segnale e quindi risulta molto inferiore a quella necessaria per
il campionamento del primo ordine.
In questo caso, inoltre, l'unica limitazione sulla scelta della frequenza di campionamento fornita dalla (9.8.7), a differenza del campionamento del primo ordine dei segnali passabanda, in cui invece necessario scegliere frequenze di campionamento appartenenti ad opportuni intervalli.
CAPITOLO - 10
SEGNALI A TEMPO DISCRETO
10.1 - Segnali a tempo discreto. Energia e potenza specifica.
Un segnale a tempo discreto rappresentato da una funzione reale o complessa ( ) definita su un insieme, al pi numerabile, di istanti
di tempo. In quel che segue la successione degli istanti si suppone regolare, cio si suppone che:
= ;
(10.1.1)
= |()|2
(10.1.2)
1
= lim
|()|2
2 + 1
(10.1.3)
Fig.E 10.1
1;
0;
0
<0
202
1
+1
1
2 () =
=
2 + 1
2 + 1
2
=0
Esempio 10.2
Il segnale (vedi Fig.E
10.2):
1;
() = {
0;
Fig.E 10.2
=0
0
= 2 () =
=
Esempio 10.3
Si consideri il segnale:
() = (),
= ||2
=0
finita, solo se la serie geometrica di ragione ||2 converge, cio se risulta || > 1.
In tal caso si ha:
=
1 ||2
(10.2.1)
)0 ] ;
cos(20 ) = cos[2( +
203
La quantit 0 deve quindi essere un numero razionale. Il periodo principale 0 = del segnale si determina riducendo 0 ai minimi termini: cio
scrivendolo nella forma:
0 =
Fig.E 10.3
) ] = cos(20 )
2 () = cos [2 (0 +
) ]
204
Ci si rende inoltre facilmente conto del fatto che la potenza specifica di un segnale periodico si pu anche esprimere nella forma:
1
|()|2
(10.2.2)
=1
() =
(10.3.1)
=1
() = 2
(10.3.2)
=1
Infatti si osservi che un segnale periodico univocamente determinato da una -upla ordinata di numeri complessi corrispondenti ai
valori assunti dal segnale in un periodo prefissato. In altri termini un segnale periodico univocamente individuato da un vettore in .
Si considerino i seguenti vettori in riferiti alla sua base canonica:
= [
2 ] ;
(10.3.3)
m = 1,2, ,
()
1
1
, = 2 2 = 2
=1
=1
()
1
1
= 2
=0
1;
= {1
2()(+1)
2()
(10.3.4)
=
1
= 0;
205
= ,
(10.3.5)
=1
= ,
=1
2 ;
= 1,2, ,
(10.3.6)
1
() 2 ;
= 1,2, ,
(10.3.7)
=1
Si osservi che pu essere interpretato come il generico elemento di una sequenza { } periodica di periodo essendo:
+
=1
=1
1
1
= () 2(+) = () 2
(10.3.8)
206
= 1,2, ,
=1
(10.3.9)
2
1
= ;
{
=1
= 1,2, ,
|| < 1,
= 0,1,2, , 1
=
=
2
2
1
1
1 1
= ( ) =
2
1
=0
=0
1
1
=
1 [cos (2) sin (2)]
1
=
1
1 2 cos (
(jarctg
2
)
sin(
2 )
)
1 cos(
) + 2
,, 1
2
2
(10.3.10)
() = ( + )
=
(10.3.11)
207
1
2
() = 2 ;
,, 1
2
2
(10.3.12)
dove
1
2
1
=
() 2 ;
,, 1
2
2
(10.3.13)
1
2
1
2
() = (
1
() 2 ) 2
(10.3.14)
(10.3.15)
1
2
1
2
( () 2 ) 2
(10.3.16)
che, ponendo
() = () 2
=
(10.3.17)
208
assume la forma:
() =
1
2
1
2
() 2
(10.3.18)
Le (10.3.17) e (10.3.18) costituiscono rispettivamente la trasformata e l'antitrasformata di Fourier di un segnale a tempo discreto a
energia finita.
Un segnale a tempo discreto definisce una sequenza numerica
{ }, il cui generico elemento si ottiene ponendo = (). Le
() = 2
(10.3.19)
e
1
2
= () 2
1
2
(10.3.20)
( + ) =
2(+)
= 2 = ()
(10.3.21)
() = 2 = 1
=
209
Esempio 10.7
La trasformata di Fourier normalizzata del segnale:
= u , 0<a<1
() = =0 2 =
( 2 ) =
=0
1
12 arccos(2)+2
1
1 2
[arctg(
arcsin(2)
)]
1arccos(2)
Fig.E 10.4
||
= +
|| >
data dalla:
() = 2 = 2 + 2 1
=
={
sin[(2 + 1)]
;
sin()
2 + 1;
=0
=0
210
() = 2 = ( )
=
() = 2(0) = ( 0 )
=
Esempio 10.11
Siano date le sequenze:
= cos(20 )
= sin(20 )
1
() = ( ( 0 ) + ( + 0 ))
2
1
() = ( ( 0 ) ( + 0 ))
2
Esempio 10.12
Sia data la sequenza:
() = ;
>0
(, ) =
=0
1
1 (+2)
1
1 (2)
211
Esempio 10.13
Sia data la sequenza cosi definita:
sgm =
1
(+2)
1
1
1 2 1 2
1
(2)
1
sin(2)
=
1 cos(2)
)=
Esempio 10.14
Sia data la sequenza gradino unitario un . Poich risulta:
=
1 1
1
+ sgm +
2 2
2
() =
1
1 1 2
( ) +
2
2 1 cos(2)
=
() = (( + 1)) ()
b)
() = () (( 1))
(10.5.1)
[()] = ( 2 1)()
b)
[()] = (1 2 )()
(10.5.2)
212
Tabella 10.1
Propriet della trasformata di Fourier di un segnale a tempo discreto
Trasformata
Segnale
Propriet
Linearit
()
()
=1
=1
()
()
()
()
Traslazione in n
(( 0 ))
20 ()
Traslazione in f
20 ()
( 0 )
Differenza in avanti
()
[ 2 1]()
Differenza
dietro
()
[1 2 ]()
(2) ()
()
Segnale coniugato
Trasformata
niugata
co-
all'in-
Derivazione
nel
dominio della frequenza
1 ()2 (( ))
Convoluzione in
1 () 2 ()
1 (( ))2 ()
=
1
2
1 ()2 ( )
Convoluzione in
1 () 2 ()
1
2
1
2
1 ( )2 ()
1
2
2 () = (( + 1)) ()
= (( + 2)) 2(( + 1)) + ()
(10.5.3)
b)
213
2 () = () (( 1))
= () 2(( 1)) + (( 2))
[2 ()] = ( 4 2 2 + 1)()
= ( 2 1)2 ()
b)
[ 2 ()] = (1 2 2 + 4 )()
= (1 2 )2 ()
(10.5.4)
b)
(10.5.5)
a)
12 () =
1
1 (( + ))2 ()
=1
b)
1
21 () = 2 (( + ))1 ()
(10.6.1)
=1
1
21 () = 2 (( ))1 () =
=1
(10.6.2)
214
1
= ( 1 ()2 (( )))
=1
1
( 1 (( ))2 ( ))
=1
= ( 1 (( ))2 ( )) = 12
()
=1
12 =
2
1
12 ()
=1
=1
=1
2
1
( 1 (( + ))2 ())
2
=1
=1
2
1
2 () ( 1 (( + )) )
2
=1
=1
(10.6.3)
2
2(+)
1
2 () 1 (( + ))
2
=1
=1+
2
2
1
1
2 ()
1 ( ) = 1 2
21 = 1
2
(10.6.4)
1
() = (( + )) ()
=1
(10.6.5)
215
(10.6.6)
=1
=1
1
1
() () = |()|2
(10.6.7)
=1
=1
=1
1
|()|2 = (0) = = | |2
(10.6.8)
12 () = 1 (( + ))2 ()
(10.6.9)
21 () = 2 (( + ))1 ()
(10.6.10)
21 () = 12
()
(10.6.11)
216
12 () = 12 () 2
=
1 (( + ))2 ()
(10.6.12)
= 2 () 2 1 (( + )) 2(+)
=
(10.6.13)
Analogamente si ha:
21 () = 1 () 2 ()
(10.6.14)
() = (( + )) ()
(10.6.15)
(10.6.16)
(0) = |()|2
(10.6.17)
e di conseguenza:
|()| =
=
1
2
1
2
() =
1
2
1
2
|()|2
(10.6.18)
che costituisce l'espressione del Teorema di Parseval per i segnali a tempo discreto ad energia finita.
217
1
12 () = lim
1 (( + ))2 ()
2 + 1
=
1
21 () = lim
2 (( + ))1 ()
2 + 1
(10.6.19)
12 () = lim
(10.6.20)
in cui 21 () e 12 () sono le mutue correlazioni associate ai corrispondenti segnali troncati definiti dalla:
();
() = {
0;
||
|| >
(10.6.21)
21 () = 12
()
(10.6.22)
12 () = 12 () 2
a)
=
=
12 ()
lim
=
2 + 1
(10.6.23)
218
1
= lim
1 ((
2 + 1
2
= =
() 2
+ ))2
1
() 2
= lim
2
1 ((
2 + 1
2
b)
()
1 ()2
+ )) 2(+) = lim
;
2 + 1
()
2 ()1
21 () = lim
2 + 1
() = lim
(10.6.24)
2 + 1
2 + 1
() = lim
(10.6.25)
(0)
1
(0) = lim
= lim
| ()|2
2 + 1
2 + 1
(10.6.26)
di conseguenza:
1
2
lim
| ()|2 = ()
1
2 + 1
1
2
1
2
| ()|2
lim
2 + 1
(10.6.27)
che la formulazione del teorema di Parseval per i segnali a tempo discreto a potenza finita.
CAPITOLO - 11
TRASFORMAZIONI LINEARI DISCRETE
11.1 - Studio nel dominio del tempo
Nei sistemi numerici i segnali che intervengono in ingresso e in
uscita sono dei segnali tempo discreti denotati con () e () rispettivamente. In quel che segue conveniente normalizzare il quanto temporale ponendo = 1. Questo comporta che ci si riferisce a sequenze
numeriche e in uscita. e il sistema numerico caratterizzato dalla
seguente trasformazione lineare:
= { }
(11.1.1)
(11.1.2)
1;
0;
=0
0
(11.1.3)
= { }
(11.1.4)
la quale, ponendo:
, = { }
(11.1.5)
assume la forma:
= ,
(11.1.6)
220
= =
=
(11.1.7)
essendo:
= { }
(11.1.8)
(11.1.9)
(11.1.10)
= ,
(11.1.11)
= =
=
(11.1.12)
=0
Nell'ambito dei sistemi discreti la risposta impulsiva , pu presentare una durata finita o infinita. Si ottengono cos i cosiddetti sistemi
a risposta impulsiva a durata finita (sistemi FIR Finite Impulse Response) o i
sistemi a risposta impulsiva a durata infinita (sistemi IIR Infinite Impulsive
Response). Nel caso di sistemi lineari FIR causali, tempo invarianti si pu
porre, senza ledere le generalit:
= 0 < 0 >
e questo comporta:
(11.1.13)
221
=+1
(11.1.14)
=0
Si osservi che il sistema presenta una memoria finita giacch solo valori del segnale in ingresso contribuiscono alla determinazione delluscita
. Per contro i sistemi IIR sono caratterizzati da una memoria infinita.
Un sistema discreto lineare e tempo invariante pu essere caratterizzato da unequazione alle differenze del tipo:
+ =
=1
(11.1.15)
=0
(11.1.16)
=0
= = {
=0
;
0;
(11.1.17)
+ =
(11.1.18)
=1
+ =
=1
(11.1.19)
222
(11.1.20)
+ = ( + ) = 0;
=1
(11.1.21)
=1
>0
(11.1.22)
(11.1.23)
=1
dove z denota il generico zero del polinomio caratteristico. Se il polinomio caratteristico contiene zeri multipli, la forma della (11.1.23) deve
essere modificata. Ad esempio se z1 uno zero di molteplicit e gli
altri sono semplici, si ha:
= 1 1
=1
(11.1.24)
=1
Le costanti che compaiono nella (11.1.23) o (11.1.24) si determinano imponendo che siano nulle le condizioni iniziali e cio:
1 = 2 = = = 0
(11.1.25)
Esempio 11.1
Per determinare la risposta impulsiva del sistema del secondo ordine seguente:
= 31 + 42 +
223
la cui soluzione :
1 =
1
4
; =
5 2 5
Si ha di conseguenza:
1
4
= (1) + 4 ; 0
5
5
() =
(11.2.1)
() =
=
1
2
, () 2
=
1
2
1
2
= () , 2()
1
2
Denotando con:
= =
(11.2.2)
224
(, ) = , 2()
(11.2.3)
= =
(, )()
() =
1
2
(11.2.4)
(, ) = 2()
= =
= 2(())
(11.2.5)
= =
2()
=
2 = ()
(11.2.6)
2()
= ( )
(11.2.7)
(, ) = 2 2()
= () ( )
=
(11.2.8)
225
1
2
() = () ( ) ()
1
=
2
1
2
= () ( ) ( ( ))
1
2
(11.2.9)
= () ( )( ) = ()()
=
2()
(11.2.10)
2
=
(11.2.11)
()
La risposta del sistema presenta la stessa forma della sollecitazione in ingresso, l'ampiezza per dipende dalla risposta in frequenza del sistema
CAPITOLO - 12
VALUTAZIONE NUMERICA DELLA TRASFORMATA DI
FOURIER
12.1 - Valutazione Numerica della Trasformata di Fourier di
un Segnale a tempo continuo
Uno dei fondamentali problemi della Teoria dei segnali consiste
nella valutazione numerica della trasformata di Fourier () di un segnale () a tempo continuo e a energia finita.
A tal fine si consideri un segnale che, seppur non rigorosamente
passabasso, permetta comunque di definire un opportuno intervallo di
1
() () () 2
(12.1.1)
) ( ) ()
(12.1.2)
228
( ) ( )
1
2
()
(12.1.3)
= =1
2
( ) ( )
1
2
[ (( + ))]
(12.1.4)
1 =
2
1
2
1
2
( ) (( + )) ( ) ()
(12.1.5)
( ) ( ) ()
(12.1.6)
( )
1
2
1
2
(12.1.7)
229
La (12.1.6) e la (12.1.7) definiscono una coppia di trasformate discrete di Fourier di ordine . Esse costituiscono il punto di partenza per
valutare numericamente la trasformata e l'antitrasformata di Fourier di
un segnale a tempo continuo.
Esempio 12.1
Si consideri il segnale a tempo continuo dato dalla:
1
() = ( )
0 2
0
=
0
2
il che comporta:
0 2
=0
=0
2
2
) = () =
={
, , 1,1, , 1
2
2
=0
230
(
)
|
|;
| ( )| =
( )
{ ;
, , 1,1, , 1
2
2
=0
Fig.E 12.1
231
1
1 + 2
Il segnale considerato non presenta n durata n banda rigorosamente limitata per cui necessaria un'adeguata scelta di e per limitare sia l'errore di ricoprimento temporale sia quello di ricoprimento spettrale.
In tal caso si pu scrivere:
) (
+ );
0 1
Fig.E 12.2
1
1
) () =
;
2
=0
= 0,1, , 1
232
)| =
1
1
+ 2
2
2 (
)
= 0,1, , 1
1
1 + (2)2
allo scopo di illustrare l'influenza del numero dei punti e della periodicit
nella valutazione numerica dello spettro di un segnale che non presenta n
durata n banda rigorosamente limitata.
(12.2.1)
ottenuta moltiplicando () per una funzione finestra temporale () tale che risulti:
{
() = 0;
(0) = 1;
|| >
0
;
2
(12.2.2)
233
() = () () = ()( )
(12.2.3)
delle oscillazioni dipende dal rapporto | (0) |, cio dal livello di picco relativo dei lobi secondari dello spettro di (), mentre la transizione da
(0 ) a (0+ ) si verifica in una banda la cui ampiezza proporzionale a
. Le quantit |
( )
(0)
dato che i loro valori influenzano la precisione con cui viene approssimato lo spettro.
Le caratteristiche di alcune funzioni finestra comunemente usate
sono riportate nella Tabella 12.1
234
Tabella 12.1
Caratteristiche di alcune funzioni finestra
Hamming
Hanning
Bartlett
Rettangolare
()
( )
()
0 sinc(0 )
(1
()
2
0
|2|
)( )
0
0
4
0
()
0
0 2
sinc [
]
2
2
()
cos2 ( ) ( )
0
0
()
0 sinc[0 ]
2(1 2 02 )
()
(0,54 + 0,46cos (
)) ( )
0
0
()
Tukey
()
( )
|
|
(0)
4
0
4
0
(0.54 + 0.08 2 02 )
sinc[0 ]
(1 + 2 02 )
(2|| )
4|| (1+)
(1)
2 (1)
(1 + cos [
(
)+
0
]) (
sinc[0 ] + sinc[0 ]
2[1 (0 ( 1))2 ]
()
()
0 (1 ( ) )
0.22
-13.2 dB
0.047
-26.5 dB
0.027
-31.5db
0.0062
-44 dB
)
4
(1 + )0
Taylor-Kaiser
2 2
0
0 ()
()
( )
0
sinh[ 2 2 02 ]
2
0
0,22
sinh()
0 () 2 2 02
235
a)
= 0,1, , 1
=0
(12.3.1)
b)
2
1
= ;
= 0,1, , 1
=0
a)
=0
1
b)
2
1
=
(12.3.2)
=0
essendo:
a)
= ;
0 1
b)
= ;
0 1
(12.3.3)
Le (12.3.2), costituiscono una coppia di trasformazioni denominate trasformate (diretta e inversa) discrete di Fourier (DFT).
Denotando con e i vettori:
236
1 1 ]
1 1 ]
= [0
= [0
(12.3.4)
e con la matrice:
=
[1
2(1)
2(1)
2(1)2
[0
(1)
(1)2
]
(12.3.5)
(1)
in cui = denota la radice -esima dell'unit, le (12.3.2) si possono riscrivere come segue:
=
a)
b)
(12.3.6)
(12.3.7)
(12.3.8)
1
=
=0
=1
;
=2
=3
1;
1;
2 = {
2;
3;
=0
=1
=2
=3
237
= 1, 2,()
=0
0 = 1, 2,()
=0
dove :
2,0 = 1;
2,(1) = 2,(41) = 2,3 = 3;
2,(2) = 2,(42) = 2,2 = 2;
1 = 1, 2,(1)
=0
con:
2,(10) = 2,(1) = 1;
2,(11) = 2,(0) = 1;
2,(12) = 2,(1) = 2,(41)= 2,(3) = 3;
{ 2,(13) = 2,(2) = 2,(42)= 2,(2) = 2;
Si ha:
1 = 1 + 2 12 4 = 13
Per = 2 :
3
2 = 1, 2,(2)
=0
con
2,(20) = 2,2 = 2;
2,(21) = 2,1 = 1;
2,(22) = 2,0 = 1;
quindi:
2 = 2 2 + 4 + 6 = 6
238
Si ha infine, per = 3:
4
3 = 1 2,(3)
=0
Si ha:
2,(30) = 2,3 = 3;
2,(30) = 2,2 = 2;
2,(32) = 2,1 = 1;
{ 2,(33) = 2,0 = 1;
e quindi:
3 = 3 + 4 4 2 = 1
In definitiva risulta:
3;
13;
= {
6;
1;
=0
=1
=2
=3
239
Tabella 12.2
Propriet della DFT
Propriet
Coefficiente
Segnale
Linearit
=1
=1
()
()
Segnale coniugato
Trasformata coniugata
Traslazione in
20
20
Traslazione in
Differenza in avanti
in
+1
Differenza all'indietro in
[1
Differenza in avanti
in
Differenza all'indietro
in
(1
1]
2
1)
+1
1 2()
Convoluzione in
=0
1 2
= 1() 2
=0
1
1
1 2()
Convoluzione in
=0
1 2
1
1() 2
=0
CAPITOLO - 13
RICHIAMI DI TEORIA DELLA PROBABILIT
13.1 - Lo spazio dei risultati. Gli eventi.
Spesso nella realt ci simbatte in fenomeni i cui esiti non possono essere esattamente previsti, basti pensare all'estrazione del biglietto
vincente di una lotteria, o al numero di chiamate in arrivo in una centrale telefonica nel corso di un'ora della giornata. Tuttavia se, osservando
ripetutamente il fenomeno, si prende nota dei risultati, ci si accorge che,
nella quasi totalit dei casi, essi obbediscono ad una certa regolarit statistica , nel senso che il rapporto tra le volte in cui si verifica un determinato risultato e il numero totale dosservazioni tende a stabilizzarsi attorno ad un dato valore al crescere di queste ultime. Cos, ad esempio, se
da un'urna contenente palline nere e bianche si estratta nel 90% dei casi una pallina bianca, e nel restante 10%, una nera, si indotti a ritenere
che l'evento: estrazione di una pallina bianca abbia una maggiore
probabilit di verificarsi dell'evento: estrazione di una pallina nera , o
che lo stesso che nellurna vi siano molte pi palline bianche che nere.
Si cos portati ad associare ad ogni evento casuale una certa
probabilit che esso si manifesti. Tuttavia, per definire correttamente il
concetto di probabilit associato ad un evento casuale, occorre richiamare alcune nozioni fondamentali concernenti il cosiddetto spazio di probabilit.
Per schematizzare il comportamento di un fenomeno aleatorio
opportuno introdurre il concetto di esperimento casuale che consiste in
un procedimento di osservazione di risultati, ottenuti ripetendo la medesima prova tutte le volte che si voglia. Ad esempio nell'esperimento casuale lancio di una moneta, i possibili risultati osservabili sono testa ( T )
e croce ( C ). Qualcuno potrebbe osservare che la casualit del risultato
nel lancio della moneta in realt dovuto allimperizia del lanciatore.
Si consideri un esperimento casuale e sia un suo possibile risultato. L'insieme costituito da tutti i risultati che si possono manifestare
prende il nome di spazio dei risultati.
Nell'esempio precedente del lancio di una moneta si ha:
242
= {, }
(13.1.1)
Nel lancio di un dado, lo spazio dei risultati costituito dall'insieme delle sei facce e si ha:
= {1 , 2 , 3 , 4 , 5 , 6 }
(13.1.2)
E = {1 , 3 , 5 };
(13.1.3)
L'intero spazio dei risultati un evento, come pure lo l'insieme vuoto . Nel primo caso si parla di evento certo, poich l'evento
E = si manifesta ogniqualvolta si compie l'esperimento; nel secondo si
243
(13.1.4)
Si supponga adesso di ripetere volte un certo esperimento casuale e sia il numero di volte in cui un dato evento E si verificato.
Pr{} = lim
(13.1.5)
(13.1.6)
(13.1.7)
(13.1.8)
(13.1.9)
segue:
Si osservi che, purtroppo, poich in ogni esperimento fisico il
numero delle prove, per quanto grande, non pu mai essere infinito, il
limite Pr{E} non pu pertanto essere calcolato, n si pu affermare che
esso esista. Per questo motivo tale definizione, per quanto intuitiva, non
pu essere presa in considerazione come base per lo sviluppo di una
teoria matematica della probabilit. quindi necessario definire il concetto di probabilit per via assiomatica, prescindendo da quello di frequenza relativa.
Lapproccio in termini di frequenza relativa, va tuttavia tenuto in
considerazione, in quanto, in molti casi, esso si rivela utile nella giu-
244
stificazione intuitiva, di alcuni sviluppi teorici la cui dimostrazione sarebbe inutilmente onerosa.
13.2 - Lo spazio di probabilit.
Si consideri lo spazio dei risultati di un esperimento casuale, ad
esso si associ una classe di suoi sottoinsiemi i cui elementi vengono
chiamati eventi. Al generico evento E si associ un numero Pr{E}, detto
probabilit dell'evento, che soddisfi le seguenti propriet:
a)
0 Pr{E} 1
b)
Pr{} = 1
c)
c)
(13.2.1)
E E = Pr{ E } = Pr{E }
=1
=1
E E
b)
1 , 2 1 2
b)
(13.2.2)
=1
(13.2.3)
245
(13.2.4)
Si osservi che definire uno spazio di probabilit significa semplicemente associare una particolare misura ad una classe di sottoinsiemi
dell'insieme di risultati. Le propriet (13.2.2) cui deve soddisfare la classe
sono infatti le stesse gi viste nel CAPITOLO - 1 con riferimento alla
misura degli insiemi. Inoltre l'applicazione Pr{} soddisfa tutte le propriet richieste ad una misura su una classe di insiemi.
opportuno ribadire che non tutti i sottoinsiemi di sono necessariamente eventi. Gli eventi sono soltanto i sottoinsiemi di appartenenti alla classe , quindi misurabili secondo la misura Pr{}.
Dagli assiomi (13.2.1) discendono facilmente le seguenti propriet:
- Gli eventi e sono manifestamente disgiunti, pertanto in base alla
(13.2.1)c si pu scrivere:
Pr{ } = Pr{} + Pr{}
(13.2.5)
(13.2.6)
Pr{} = 0
(13.2.7)
consegue:
Ci significa che la probabilit associata all'evento impossibile nulla.
246
(13.2.8)
Pr{E } = 1 Pr{E}
(13.2.9)
Discende:
Pertanto la probabilit associata al complementare di un evento E il
complemento ad 1 della probabilit associata ad E.
- Dati E1 e E2 , l'evento E1 pu essere scomposto nei due eventi disgiunti (v. Fig.13.2) E1 E2 e E1 E2 . Risulta quindi:
a)
b)
(13.2.10)
(13.2.11)
Pr{E1
(13.2.12)
E2 }
(13.2.13)
247
*****
Come risultato dellesperimento casuale, si pu assumere la coppia degli istanti t1
in cui inizia la trasmissione e t2 dinizio
dellintervento di manutenzione. Linsieme
dei risultati si pu quindi rappresentare
mediante un quadrato di lato 60 minuti
(vedi Fig.E 13.1). Gli eventi sono rappresentabili mediante sottoinsiemi di punti del
quadrato. La probabilit di un generico
Fig.E 13.1
evento, data la pura casualit di t1 e t2, data dal rapporto tra larea del sottoinsieme e larea del quadrato.
Osserviamo che il collegamento andr a buon fine se la manutenzione si
gi conclusa quando il calcolatore si connette al server ovvero se la manutenzione inizia dopo che il calcolatore ha finito di trasmettere. Detta T la durata dellintervento di manutenzione le eventualit appena descritte si traducono nelle disuguaglianze:
2 + 1
1 + 10 2
le quali individuano i due eventi incompatibili E1 e E2 evidenziati in figura
Fig.E 13.1.
Levento dinteresse quindi costituito dallunione dei due eventi in questione e, per quanto detto sopra, la sua probabilit vale:
{E1 E2 } =
(60)2
2
1250+
3600
Che
soddisfatta
allesterno
dellintervallo
248
E1
(13.3.1)
(13.3.2)
dove:
Pr{E2 |E1 } = lim
Osservando che
E1 E2
E1
E1 E2
E1
(13.3.3)
volte in cui, in un totale di ripetizioni dell'esperimento casuale, si verifica l'evento E1 E2 e il numero di volte con cui si verifica l'evento E1 ,
la Pr{E2 |E1 } pu essere interpretata come la probabilit che si verifichi
l'evento E2 sotto l'ipotesi che E1 sia soddisfatto. Per questo motivo
Pr{E2 |E1 } detta probabilit dell'evento E2 condizionata allevento E1 .
In modo analogo pu scriversi:
Pr{E1 E2 } = Pr{E1 |E2 }{E2 }
(13.3.4)
Pr{E1 }
Pr{E2 }
(13.3.5)
(13.3.6)
(13.3.7)
249
La probabilit dell'intersezione di due eventi indipendenti si riduce cio semplicemente al prodotto delle probabilit associate ai singoli
eventi. Ci si convince facilmente che due eventi disgiunti aventi entrambi probabilit non nulla di verificarsi non possono essere statisticamente
indipendenti.
Esempio 13.2
E1 = {(3 , 1 ), (3 , 2 ), (3 , 3 ), (3 , 4 ), (3 , 5 ), (3 , 6 )}
E = ( )
(13.3.8)
(E E ) (E E ) =
(13.3.9)
=1
Essendo:
si ha:
{E} = Pr{E E }
=1
(13.3.10)
250
(13.3.11)
=1
; {} =
; {} =
7
10
3 ;
2 {
10
; {} =
; {} =
1
2
1
3 {
; {} =
; {} =
3
5
2;
5
Z = {(1 , ), (1 , ), (2 , ), (2 , ), (3 , ), (3 , )}
Supponendo che le connessioni del ricevitore con le tre sorgenti avvengano con eguale probabilit, facile riconoscere che si ha:
Pr{E |E3 } =
3
;
5
Pr{E3 } =
1
3
251
Pr{E } = Pr{E |E1 }Pr{E1 } + Pr{E |E2 }Pr{E2 } + Pr{E |E3 }Pr{E3 }
=
7 1 11 31 3
+
+
=
10 3 2 3 5 3 5
Risulta allora:
21
Pr{E3 |E } =
53
2
1
3
Essendo
Pr{E |E3 } =
2
5
e
Pr{E } = Pr{E |E1 }Pr{E1 } + Pr{E |E2 }{E2 } + Pr{E |E3 }{E3 } =
2
5
= 1 Pr{E }
risulta:
Pr{E3 |E } =
1
3
Inoltre essendo Pr{3 | } = Pr{3 | }, si conclude che la decisione a favore della terza sorgente non dipende dal messaggio ricevuto.
CAPITOLO - 14
VARIABILI ALEATORIE
14.1 - Variabili aleatorie monodimensionali.
Si consideri un esperimento casuale caratterizzato da uno spazio
di probabilit:
=(,,)
(14.1.1)
(14.1.2)
Il fatto che la variabile aleatoria venga abitualmente indicata con una lettera maiuscola ad es.
e non con () unulteriore motivo di confusione per lo studente che dimentica facilmente
che malgrado venga chiamata variabile, si tratta di unapplicazione.
254
(14.2.1)
Sia:
B = ], ]
(14.2.2)
], ] = ], ] B
(14.2.3)
poich:
e
255
], ] B =
(14.2.4)
Pr(B) = () ()
(14.2.5)
si pu scrivere:
- semiretta dorigine destra aperta
Sia
B = (, )
(14.2.6)
B = B
=1
(14.2.7)
=1 B un evento in quanto unione numerabile di eventi; inoltre, poich > B B risulta Pr{=1 B } = Pr{B } = ( ).
Si ha quindi:
Pr(B) = ( )
(14.2.8)
Pr{
=1 B }.
dove ( ) =
Ci si convince facilmente che la quantit
Sia
B = [, ]
(14.2.9)
Poich risulta:
], ] = ( , ) B
(14.2.10)
(14.2.11)
B = {0 }
(14.2.12)
- punto isolato
Sia:
Ponendo nella (14.2.9) = = 0 la (14.2.11) fornisce:
Pr(B) = (0 ) (0 )
(14.2.13)
256
- intervallo aperto
Posto:
B = (, )
(14.2.14)
(, ) = ], ] B
(14.2.15)
Pr(B) = ( ) ()
(14.2.16)
dato che:
si ottiene:
- intervallo semiaperto a destra
Sia
B = [, )
(14.2.17)
Pr{B} = ( ) ( )
(14.2.18)
Risulta facilmente:
Quanto sopra esposto, evidenzia chiaramente che la distribuzione
di probabilit fornisce una descrizione statistica completa della variabile
aleatoria X . Cosicch, normalmente, si fa riferimento allo spazio di probabilit indotto in dalla variabile aleatoria, piuttosto che allo spazio di
probabilit originario .
Ad esempio nel caso della variabile aleatoria , che nel lancio di
una moneta associa 0 al risultato testa e 1 al risultato croce, si ottiene,
assumendo gli eventi {testa} e {croce} equiprobabili:
0;
1
() = { ;
2
1;
<0
0 < 1;
(14.2.19)
257
(14.3.1)
(14.3.2)
(14.3.3)
Ne segue, data l'arbitrariet nella scelta di 1 ed 2 , che la distribuzione di probabilit una funzione non decrescente del suo argomento. Inoltre, tenendo presente la (14.3.2), :
() (+) = 1
(14.3.4)
(14.3.5)
Poich evidentemente:
]0 , 0 + ] = ]0 , 0 + ]
=1
(14.3.6)
=1(0 , 0 + ] = si ha:
= (0+ ) (0 )
(14.3.7)
258
che equivale ad affermare che la distribuzione di probabilit una funzione continua a destra. Risulta cio:
lim () (0+ ) = (0 )
0+
(14.3.8)
- limiti da sinistra
Sia data la famiglia deventi {(0 , 0 ]} dove { } una successione del tipo appena introdotto. La probabilit del generico evento
della famiglia, espressa in termini della distribuzione di probabilit della
variabile aleatoria, vale:
Pr{ 1 ]0 , 0 ]} = (0 ) (0 )
(14.3.9)
(14.3.10)
I = (0,1]
=1
(14.3.11)
259
L'andamento della funzione di distribuzione di probabilit associata ad una data variabile aleatoria, suggerisce una possibile classificazione delle variabili aleatorie. Precisamente, se la () continua in ,
la variabile aleatoria cui essa associata si dice di tipo continuo, se la ()
Fig. 14.1 PX ( x) tipica di una variabile aleatoria di tipo continuo, discreto, misto
una funzione costante a tratti la variabile si dice di tipo discreto, nei restanti casi si parla di variabile aleatoria di tipo misto.
Per maggior chiarezza, gli andamenti tipici della funzione di distribuzione di probabilit per i diversi tipi di variabili aleatorie sono mostrati in Fig. 14.1
Si noti che una variabile aleatoria discreta completamente definita una volta che siano noti l'insieme D = {1 , 2 , } dei punti di discontinuit e l'ampiezza dei salti Pr{ 1 ({ })} che la distribuzione
di probabilit presenta in corrispondenza ad essi.
L'applicazione ( ) che associa ad ogni elemento di D la rispettiva prende il nome di distribuzione di massa. evidente che la conoscenza della distribuzione di massa, per una variabile aleatoria discreta,
in tutto equivalente alla conoscenza della sua distribuzione di probabilit, in quanto, nota la prima, si pu ricavare facilmente la seconda e viceversa.
Quale che sia la variabile aleatoria discreta, risulta ovviamente:
= 1
(14.3.12)
260
(14.3.13)
()
(14.4.1)
Dalle propriet viste nel paragrafo precedente, relative alla distribuzione di probabilit, si deducono facilmente le corrispondenti propriet che caratterizzano la funzione densit di probabilit di una variabile aleatoria.
Poich la distribuzione di probabilit una primitiva della rispettiva densit deve risultare:
(14.4.2)
() = () () = 1
(14.4.3)
(14.4.4)
261
(0 + ) (0 )
0
(0 ) = lim
= lim+
= lim
(14.4.5)
da cui si deduce facilmente che, a meno di infinitesimi di ordine superiore a ||, risulta:
Pr{ 1 ((0 , 0 + ])} = Pr{ 1 ((0 + , 0 ])}
(14.4.6)
= (0 )||
che sinterpreta affermando che, il prodotto (0 )|| esprime indifferentemente la probabilit di uno dei due eventi che compaiono nella
precedente.
14.5 - Densit di probabilit di una variabile aleatoria discreta.
Il concetto di densit di probabilit pu essere esteso facilmente
anche al caso di variabili aleatorie di tipo discreto, pur di intendere la derivata che compare nella (14.4.1) in senso distribuzionale.
Una variabile di tipo discreto ha quindi una densit di probabilit
costituita da un insieme di delta di Dirac localizzate nei punti di discontinuit e di ampiezza pari ai rispettivi salti della corrispondente distribuzione di probabilit.
facile rendersi conto che la condizione di normalizzazione vale
anche per le variabili aleatorie di tipo discreto. Risulta infatti:
() =
( ( ) (_ ))( )
(14.5.1)
= = 1
262
a)
() = { 1 ((, ])}
+
(14.5.2)
b)
() = {
+
((, ))}
(14.6.1)
(14.6.2)
(, ) = ()
(14.6.3)
263
cio le distribuzioni di probabilit (monodimensionali) associate alle variabili aleatorie ed possono essere dedotte dalla distribuzione di
probabilit congiunta associata alla variabile aleatoria bidimensionale
(, ). In omaggio a questa circostanza, talvolta le funzioni () e
() sono denominate distribuzioni marginali.
La funzione distribuzione di probabilit congiunta gode delle
propriet qui sotto elencate:
- Se si fa tendere o a , l'insieme E tende all'insieme vuoto. Si
ha pertanto:
a)
(, ) = 0
b)
(, ) = 0
(14.6.4)
(14.6.5)
(14.6.6)
2 (, )
(14.6.7)
possibile mostrare che, analogamente al caso delle variabili continue monodimensionali, nel caso di variabili aleatorie continue bidimensionali, (, )|| esprime, a meno di infinitesimi di ordine
superiore, la probabilit dell'evento {| < () < + < () <
+ }.
Se la derivata che compare nella (14.6.7) intesa in senso generalizzato, il concetto di densit di probabilit pu essere esteso al caso di
variabili aleatorie bidimensionali discrete o miste per le quali la funzione
(, ) pu presentare dei salti di ampiezza finita.
264
(14.6.8)
e
2
(14.6.9)
2 }
(, ) = (, )
(14.6.10)
(14.6.11)
a)
() = (, )
b)
(14.6.12)
() = (, )
a)
() = (, )
b)
(14.6.13)
() = (, )
(14.6.14)
265
(, ) = () ()
(14.6.15)
() = (, )
||
2 = 2 + 1;
1
2
1
|| >
2
0;
{
Fig.E 14.1
1
2
e
1
2
() = (, ) =
1
2;
1
|| >
2
||
2 = 1 2;
0;
{
Si pu facilmente verificare la corretteza dei risultati mostrando che soddisfatta la proprit di normalizzazione per entrambe le densit di probabilit
marginali:
1
2
() = (2 + 1) = [ 2 + ]2 1 = 1;
266
() = (1 2) = [ 2 ]2 1 = 1;
1
2
2 = {
||
||
<<+
};
2
2
(14.7.1)
Pr{1 2 }
=
Pr{1 }
||
2
||
2
||
+ 2
||
(, )
(14.7.2)
()
2
||
2
||
0
+ 2
||
(, )
()
(14.7.3)
(, )|| (, )
= lim
=
0
()||
()
| (, ) (, )
=
()
(14.7.4)
(, ) = ()| (, )
267
(14.7.5)
(14.7.6)
| (, ) = | (, ) = 1
(14.7.7)
(14.8.1)
(14.8.2)
1,2,, (1 , 2 , , )
1 2
(14.8.3)
1,2,, (1 , 2 , , ) ;
1,2,,1 (1 , 2 , , 2 ) =
1,2,, (1 , 2 , , ) 1 ;
(14.8.4)
268
1, (1 ) = 1,, (1 , , ) 1 2 ;
() = 1
ovviamente risulta:
() = ()
(14.8.5)
(14.8.6)
(14.8.7)
CAPITOLO - 15
FUNZIONI DI VARIABILI ALEATORIE
15.1 - Funzioni di una variabile aleatoria.
Data una funzione reale () definita in misurabile e una variabile aleatoria () definita su un esperimento casuale . Si consideri
lapplicazione definita su a valori in :
= (())
(15.1.1)
Ci si convince facilmente che a sua volta una variabile aleatoria definita sullesperimento casuale =(,,Pr).
Infatti, la misurabilit della funzione () garantisce che la controimmagine secondo () di ogni semiretta di origine destra chiusa sia
un insieme misurabile secondo Lebesgue. A sua volta la controimmagine secondo la variabile aleatoria di un sottoinsieme di misurabile
certamente un evento, cio appartiene alla classe , quindi ad esso si
pu attribuire una probabilit.
Ci si propone di calcolare la distribuzione di probabilit ()
della variabile aleatoria nota che sia quella della variabile aleatoria .
A tal fine si ricorda che la () eguaglia la probabilit che la variabile assuma un valore non superiore ad . Tale eventualit si verifica tutte e sole le volte che la variabile aleatoria assume valori appartenenti
allinsieme
= 1 (], ]).
In
altri
termini
1
() = Pr{ }= Pr{ ( )}.
Se nota la densit di probabilit di , potremo scrivere:
() = Pr{ } = ()
(15.1.2)
opportuno sottolineare che lintegrale che compare nella precedente va inteso in senso delle distribuzioni qualora la () contenga
delle delta di Dirac.
Esiste anche un metodo alternativo per calcolare la densit di
probabilit della variabile aleatoria .
270
A tale scopo si consideri una funzione () derivabile quasi ovunque priva di tratti costanti e la variabile aleatoria sia di tipo continuo.
Data
la
funzione
= () nel piano (, , ), si
consideri sullasse lintervallo
I = ]
, +
]; ad esso
(15.1.3)
Si osservi adesso che la probabilit che la variabile aleatoria assuma un valore appartenente all'intervallo I , uguale alla probabilit
che la variabile aleatoria assuma un valore appartenente all'evento
= I . Si pu quindi scrivere:
Pr{I } = Pr{E} = Pr{I }
(15.1.4)
dal momento che, come gia scritto, gli eventi che costituiscono E sono a
due a due disgiunti.
Si osservi inoltre che date le ipotesi fatte sul segnale, al tendere a
zero della misura || di I anche la misura | | del generico I tende
a zero. Quindi, ricordando il significato della densit di probabilit di
una variabile aleatoria, la (15.1.4) si pu riscrivere, a meno dinfinitesimi
di ordine superiore al primo, nella forma:
()|| ( )| |
(15.1.5)
271
per i quali risulti ( ) = 0 per ogni valore dellindice , cio in corrispondenza ad ogni soluzione dellequazione = ()
Per tutti i valori di in corrispondenza ai quali risulti
|
()
( )
||
| |
( )
()
(15.1.6)
()
= Pr{ = } = ()
(15.1.7)
272
(15.1.8)
Esempio 15.1
Si consideri la funzione
= cos()
Fig.E 15.1
Poich :
= sin()
risulta:
| | = |sin( )| = (1 cos2 ( ))
= 1 2
2
| |
= |sin( )| = (1 cos ( ))
}
Ne consegue:
() =
, ( ( ) + ( ))
1 2
Quindi risulta:
= 2 arccos()
273
Fig.E 15.2
() =
(2)
21
+
2
(2)
21 2
(2)
1 2
() = ( +
) ( ) + u( 1)
2
CAPITOLO - 16
MEDIE STATISTICHE
16.1 - Valore medio di funzioni di variabili aleatorie.
Sia () una variabile aleatoria continua definita sull'insieme dei
risultati di un esperimento casuale =(,,Pr), caratterizzata da una
densit di probabilit (). Si consideri unapplicazione (), dove
() una funzione misurabile definita quasi ovunque in .
La quantit:
= () ()
{()} = ()
(16.1.1)
ammesso che esista e che sia anche limitata, viene chiamata valore medio
statistico della funzione () associata alla variabile aleatoria .
Per chiarire il significato della (16.1.1) opportuno ragionare in
termini di frequenza relativa. A tale scopo, si suddivida l'intervallo
dintegrazione in un insieme dintervalli contigui del tipo (, ( +
1)) e si scelga arbitrariamente all'interno di ciascuno di essi un punto
. Se l'integrale (16.1.1) esiste, si pu scrivere:
= lim ( ) ( )
()
0
(16.1.2)
(16.1.3)
( ) = lim
(16.1.4)
Dove rappresenta il numero desperimenti effettuati, e quello degli esperimenti che hanno dato esito favorevole, cio quelli al cui risultato la variabile aleatoria associa un valore appartenente ad E , Si osservi
che tale numero dipende anche dall'ampiezza di E . Sostituendo la
(16.1.4) nella (16.1.2) si ottiene:
276
1
= lim
()
( )
0
(16.1.5)
E facile convincersi che la sommatoria a secondo membro, rappresenta la somma di tutti i valori assunti dalla funzione () in corri si pu anche
spondenza alle prove effettuate. Di conseguenza ()
scrivere nella forma:
1
(( ))
= lim
()
(16.1.6)
=1
(16.1.7)
, = ( ) ()
(16.2.1)
a patto, ovviamente, che lintegrale che compare nella precedente assuma un valore finito. Si pu dimostrare che lesistenza del momento di
ordine comporta quella di tutti i momenti di ordine inferiore.
277
0, = ()
(16.2.2)
0 = () = 1
(16.2.3)
1 = ()
(16.2.4)
2 = 2 ()
(16.2.5)
Se nella (16.2.1) si pone = si ottengono al variare di i momenti centrali -esimi della variabile aleatoria:
( 1 ) = ( 1 ) ()
(16.2.6)
2 2 = ( 1 )2 ()
(16.2.7)
, = (1) ( ) () =
=0
= (1) ( ) () = (1) ( )
=0
=0
(16.2.8)
278
2
2 = (1) ( ) = 2 2
(16.2.9)
=0
,2
2
= (1) ( ) 1 2 = 2 + 2
(16.2.10)
=0
(16.2.11)
2
2
() +
()
1
2 () +
(
(
)
( )2 () )
2
+
1
2
( ( )2 () ) = 2
2
per ottenere la quale si sfruttata la circostanza che ( )2/21 allinterno del dominio di integrazione.
La disuguaglianza appena provata nota come disuguaglianza di Chebyshev. Unimmediata conseguenza di essa che se una variabile aleatoria
279
ha varianza nulla, allora essa uguale al suo valor medio con probabilit
uno.
| | = | | ()
(16.2.12)
|| = || ()
(16.2.13)
0 (||2 + ||
+2
2
)2 ()
Questultima fornisce:
+1
+1
+1 +2
2(+1)
+1
;
{+1 +1 +2
2(+1)
+1
=0
+1
+1 +2
=0
280
+1
+1
+1
+2
+1
+1
0 +1
+1
;
=0
=0
=0
=1
1
+1
2(+1)
+1 +1 +1
;
=0
=1
1
1
2(+1)
+1
+1 +1 +1 +2 +1
;
=1
=1
+2
+1
+1
+2
;
+1
(+2)(+1)
(+2)(+1)
+1
+2
;
1
+1
+2
+1
+2
Dalla quale si conclude che, indipendentemente dalla variabile aleatoria considerata, se i momenti assoluti esistono, soddisfano la catena di disuguaglianze:
1
+2
1 22 33 +2
=
= { } = (, )
(16.2.14)
00 = (, ) = 1
(16.2.15)
In maniera analoga alla (16.2.6) possono definirsi i momenti centrali ( + )-esimi del secondo ordine mediante le:
= {( ) ( ) }
= ( ) ( ) (, )
(16.2.16)
281
(16.2.18)
Cio il valore medio del binomio dato dal prodotto dei valori
medi di e .
Esempio 16.3
Sia una variabile aleatoria ottenuta dalla combinazione lineare di variabili aleatorie, 1 , 2 ,, definite sull'insieme dei risultati di uno stesso
esperimento casuale. Sia cio:
=
=1
=
=1
2 = ( )
=1
( ) =
=1
2 2
=1
+
,=1
()
pertanto:
2
2 = 2
+
=1
,=1
()
282
2 = 2 2 +
,=1
()
=1
2
2 = 2
+
,=1
()
=1
e:
2 = 2 2
=1
= ()
(16.3.1)
{E } ( ) ( ) = { 1 (E )}
(16.3.2)
=1
( ) ( ) ( )
=1
(16.3.3)
283
() = () ()
(16.3.4)
= ()
= (1 , 2 , , )12 (1 , 2 , , )1 2
(16.3.5)
() =
= ()
(16.4.1)
Poich () una quantit non negativa e ha modulo unitario, dalla precedente risulta:
| () | () = 1
(16.4.2)
| ()| (0) = 1
(16.4.3)
() = ()
(16.4.4)
cio
Si ha inoltre
284
(2) = 2 () = [ ()]
(16.4.5)
1
1
() =
()
2
2
(16.4.6)
= () ;
2
= 2 2 () ;
2
= () ;
(16.4.7)
1 = [
]
;
=0
2
2 = [ 2 ]
;
=0
= () [ ]
;
{
=0
(16.4.8)
Si osservi che, se una variabile aleatoria ammette tutti i momenti, la sua funzione caratteristica () infinitamente derivabile in =
0. Sviluppando la () in serie di Mac Laurin si ottiene:
()
= (0) + [
2 2
] +[ 2]
+ + [ ]
+
0
0 2
0 !
2
= 1 + 1 +
()
()
2 + +
+
2
!
(16.4.9)
285
Se ne conclude che la conoscenza di tutti i momenti della variabile aleatoria , individua univocamente la sua funzione caratteristica, e
quindi, tramite la (16.4.6), la sua densit di probabilit.
Generalizzando quanto detto in precedenza, possibile definire la
funzione caratteristica, associata a variabili aleatorie 1 , 2 , , definite sull'insieme dei risultati di uno stesso esperimento casuale, come
media statistica della quantit (11+22++ ) cio:
1 ,2,, (1 , 2 , , )
= (11 +22 ++ )
(16.4.10)
1,2,, (1 , 2 , , )1 2
(16.4.11)
Conseguentemente, la densit di probabilit congiunta, nota la corrispondente funzione caratteristica, pu essere ottenuta dalla:
1,, (1 , , )
=
1
( , , )
(2) 1,, 1
(16.4.12)
(11+22++ ) 1
=1
=
=1
= (
1 =0
(16.4.13)
2 =0
=0
(1 1 )1
(2 2 )2
( )
) (
)(
)
1 !
2 !
!
286
1,2,, (1 , 2 , , )
1 ,2 ,, =0
(1 +2 + ) 1 2
1 ! 2 ! ! 1 2
(16.4.14)
11 , 22 1,2,, (1 , 2 , , )1 2
1 ,2 ,, =0
(1 +2 + ) 1 2
1 ,2,,
1 ! 2 ! ! 1 2
(16.4.15)
=
=1
() = { } = { =1 } = { }
=1
() =
{ }
=1
({ })
=1
= [ ()]
=1
287
() = ()
=1
1
()2 ()
2 1
1
1 () ( 2 2 (2 ) 2 )
2
1
() = 2 (2 ) ( 1 () (2) ) 2
2
Ma poich:
1
() (2) = 1 ( 2 )
2 1
la () si riduce alla:
() = 2 (2 )1 ( 2 )2
CAPITOLO - 17
VARIABILI ALEATORIE NOTEVOLI
17.1 - Premessa.
In quel che segue sono riportate le funzioni di probabilit,
densit e distribuzione, di alcune variabili aleatorie, sia continue sia
discrete, in cui di frequente ci simbatte nelle applicazioni.
17.2 - Distribuzione uniforme.
Una variabile aleatoria si dice uniformemente distribuita
nell'intervallo (, ) se la sua densit di probabilit si mantiene co-
( 2 )
(17.2.1)
( 2 ) + ( )
(17.2.2)
289
= () =
+
=
(17.2.3)
2 = 2 () =
2
2 + + 2
=
(17.2.4)
la sua varianza:
2 =
2 2 =
( )2
12
(17.2.5)
() = ()
(17.3.1)
(17.3.2)
1 0
1
= = [ ( + )] =
0
(17.3.3)
2 = 2 = [ ( 2 +
0
e la sua varianza:
2
2 0
2
+ 2 )] = 2
(17.3.4)
290
2 =
2 2 =
1
2
(17.3.5)
||
(17.4.1)
1 1
+ sgm()(1 || )
2 2
(17.4.2)
4
2
(17.4.3)
1
2 2
()2
22
(17.5.1)
qualunque sia e 2 + .
L'andamento della densit di
291
2 2
()2
22
erf() =
(17.5.2)
(17.5.3)
Infatti, effettuando nell'integrale che compare nella (17.5.2) la seguente trasformazione di variabili:
=
(17.5.4)
2 2
Si ottiene:
P ()
=
( +
(17.5.5)
= =
si pu ancora scrivere:
(17.5.6)
1
2 2 2
P () = {1 +
}
2
0
(17.5.7)
292
P () = [1 + erf (
)]
2
2 2
(17.5.8)
(17.5.9)
il cui andamento riportato nella stessa Fig. 17.5, la (17.5.8) pu scriversi anche come segue:
1
P () = 1 erfc (
)
2
2 2
(17.5.10)
(17.5.11)
1
2 2
()2
22
1
2 2
2
22
= ( + )
1
2 2
1
2 2
2
22
2
22
=
(17.5.12)
I() =
()2
22
= 1
293
(17.5.13)
I
1 ( ) ()
22 = 0
=
2
2
2
()2
I
1
22 +
=
2
2
2
2
2
1 ( )2 ()
22 = 0
+
2
4
2
(17.5.14)
Da quest'ultima discende:
2
( )2 ()
1
1
22 =
() = 2
4
2
2
(17.5.15)
da cui si ottiene:
( )2
2 2
()2
22
= ( )2 () = 2
(17.5.16)
2 = 2 + 2
(17.5.17)
Esempio 17.1
Si consideri lintegrale improprio:
= = 2
2
2
2
2
= = ( ) = ( + )
2
0
0
0
0
Lintegrale che compare allultimo membro della precedente come si nota facilmente esteso al primo quadrante del piano (, , ) passando al
sistema di coordinate polari si ottiene infine:
294
2
2
2
2
= 2 = 2 = [ ]
0 =
2
0 0
0
Esempio 17.2
Sia X una variabile aleatoria caratterizzata dalla seguente densit di
probabilit gaussiana:
() =
Al fine di calcolare la densit di probabilit cercata si procede al calcolo della corrispondente funzione di distribuzione di probabilit
| (),.
Sulla base della (13.3.4), si
pu scrivere:
|E () = Pr{ |E}
=
Pr{{ } E}
Pr{E}
Fig.E 17.1
Di conseguenza si ha:
|E () =
Pr{0 }
u()
Pr{E}
Pr{ [0, ]} =
1
2
Pr{E} =
0
2 =
1
2
si deduce:
| () = 2u()
1
2
295
2 2
|E () = u() 2
il cui andamento riportato in Fig.E 17.1 insieme con quello della densit di probabilit p X ( x) .
() =
22
2 u()
2
(17.6.1)
2
22
) u()
(17.6.2)
2 22
1 2 22
2 =
2
2
2 2
= 2
22 = 2 2 =
2 2 2
2
2
(17.6.3)
296
2 =
2
3 22
2 = [( 2 + 2 2 ) 22 ]
= 2 2
2
(17.6.4)
(17.7.1)
() = ( 0 ) + ( 1 )
(17.7.2)
e
Il valore medio e il valore quadratico medio di una variabile di
Bernoulli valgono rispettivamente:
= 0 + 1
2 =
02
12
(17.7.3)
(17.7.4)
che nel caso particolare in cui i due valori che la variabile aleatoria
pu assumere siano equiprobabili si scrivono:
=
0 + 1
2
(17.7.5)
2 =
02 + 12
2
(17.7.6)
297
(17.8.1)
D'altra parte ci sono ( ) = !()! modi distinti per ottenere tale risultato; di conseguenza si ha:
Pr{ = } = ( ) (1 )
(17.8.2)
=0
=0
Pr{ = } = ( ) = ( + ) = 1
(17.8.3)
= = = (1 + 0) =
=1
=1
(17.8.4)
=1
2
=1
= ( 2 ) =
(17.8.5)
=1
2 = 2 + 2 = + 2 2
(17.8.6)
298
;
!
Pr{ = } =
= 0,1,2,
(17.9.1)
() =
=0
( )
!
(17.9.2)
() =
=0
Ricordando che =
=0
,
!
( )
!
(17.9.3)
=
=0
1
=
=
!
( 1)!
(17.9.4)
=1
2 = 2
=0
1
=
!
( 1)!
=1
1
( 1)
+
( 1)!
( 1)!
=1
2
(17.9.5)
=1
=2
=1
2
1
+
= 2 +
( 2)!
( 1)!
(17.9.6)
299
Esempio 17.3
Si vuole caratterizzare il traffico telefonico in arrivo ad una centrale.
A tal fine si denoti con n il numero di telefonate in arrivo nell'intervallo
di tempo (0, ).
Per determinare la statistica di questo processo opportuno introdurre
le seguenti ipotesi:
a) il numero di telefonate in arrivo in intervalli di tempo disgiunti sono
statisticamente indipendenti;
b) il numero di telefonate in arrivo nell'intervallo (, + ) dipende solo
dalla durata e non dall'istante iniziale .
c) Se sufficientemente piccolo, la probabilit che in (0, ) arrivi
una sola telefonata pari a ; mentre la probabilit che nello stesso intervallo di tempo pervenga pi di una chiamata un infinitesimo di ordine superiore a ci significa anche che la probabilit che in un intervallo di durata . non giunga nessuna chiamata vale, a meno di infinitesimi di ordine superiore, 1
Detta () la probabilit che, nell'intervallo (0, ), arrivino chiamate si consideri l'evento: Nellintervallo (0, + ) pervengono
chiamate. Tale evento, per le ipotesi fatte, si pu verificare solo in uno
dei seguenti modi:
1) in (0, ) sono pervenute n chiamate e in (, + ) non ne pervenuta
alcuna;
2) in (0, ) vi sono state 1 chiamate e in (, + ) una sola.
Poich gli eventi 1) e 2) si escludono a vicenda, per la legge delle
probabilit composte, e per le ipotesi a), b) e c) si pu scrivere:
)
( + ) = ()[1 ] + 1 ()[];
>0
0 ( + ) = 0 ()[1 ];
=0
{
0 ( + ) 0 ()
= 0 ();
1
=0
()
= () + 1 ();
{
0 ()
= 0 ();
1
=0
300
(0) = {
1;
0;
=0
1
() (0) = () + 1 ();
>0
>0
Fig.E 17.2
1 () 2 2 ()
0 ()
=
==
2
+
( + )
( + )
pertanto:
0 (0)
1
=
+ +
() =
301
( + )+1
()
u();
!
Si ottiene cos una distribuzione di Poisson con parametro t. Gli andamenti di P n ( t ) per alcuni valori di n sono riportati in Fig.E 17.2
CAPITOLO - 18
CARATTERIZZAZIONE STATISTICA DEI SEGNALI
18.1 - Segnale aleatorio. Funzioni di probabilit del primo ordine.
Sia dato un esperimento casuale individuato da uno spazio di
probabilit S = (, , Pr). Per segnale aleatorio reale sintende un'applicazione che fa corrispondere a ciascun possibile risultato
dell'esperimento casuale una funzione reale del tempo:
(, ) | T
(18.1.1)
(18.1.2)
303
(18.1.3)
La funzione () (), definita nella (18.1.3), costituisce la distribuzione di probabilit del primo ordine associata al segnale (). Ci si rende facilmente conto che la () () coincide con la funzione di distribuzione di probabilit della variabile aleatoria individuata dal segnale
in corrispondenza allistante .
Alla () () si pu associare una densit di probabilit del
primo ordine () () cos definita:
() () =
() ()
(18.1.4)
in quanto sia () () sia () () sono in genere funzioni anche dell'istante in cui si osserva il segnale. opportuno inoltre sottolineare
che la derivazione nella (18.1.4) va intesa in senso generalizzato, la
presenza deventuali discontinuit non eliminabili nella () () si traduce infatti nella presenza di delta di Dirac di peso e posizione opportuni nella corrispondente densit () ().
304
(18.1.5)
(18.1.6)
che d conto del fatto che i valori assunti da una qualsiasi manifestazione del segnale appartengono certamente ad per ogni T.
Deve inoltre necessariamente essere:
() () = 0
(18.1.7)
() () = () ()
(18.1.8)
() () = 1
(18.1.9)
Pr{() (, ]} = () () () () = () ()
(18.1.10)
Esempio 18.1
Si consideri il segnale:
(, ) = (
)
305
Fig.E 18.1
valori e precisamente:
(, ) = 1;
{
(, ) = 0;
+
2
2
altrove
+ }
2
2
dal momento che gli eventi (, )=0 e (, )=1 sono mutuamente esclusivi.
Si ha:
1 () =
()
() ()
= 0 ()() + 1 ()( 1)
306
( )
si ha:
+
1 () =
||
1
( ) = { 1 ;
0;
|| = (1 ||) ( )
2
|| >
di conseguenza:
0 () = 1 (1
||
)( )
(18.2.1)
(18.2.2)
307
La funzione 1 2 (1 , 2 ), appena introdotta, costituisce la distribuzione di probabilit del secondo ordine associata al segnale aleatorio
() relativa ai due istanti 1 , 2 in cui il segnale aleatorio viene osservato.
Anche in questo caso possibile individuare una densit di probabilit del secondo ordine associata al segnale:
12 (1 , 2 ) =
2 12 (1 , 2 )
1 2
(18.2.3)
(18.2.4)
+ 1 2 (1 , 1 ) = 12 (, )
1
(18.2.5)
1 2 (1 , 2 ) = 12 (, )
Dato
(18.2.6)
che
(18.2.7)
308
|1 |
}
2
|1 |
< 1
2
(18.2.8)
La probabilit dell'evento E2 condizionata dal manifestarsi dell'evento E1 , nellipotesi che quest'ultimo abbia probabilit diversa da zero,
per la formula di Bayes vale:
| |
Pr{E2 |E1 } =
Pr{E2 E1 }
=
Pr{E1 }
1 + 2 1
2
(, )
1 2
| |
1 1
2
|1 |
2
|1 |
1
2
1 +
(18.2.9)
1 ()
Se si fa tendere 1 a zero, ammesso che la 1 (1 ), sia continua in 1 , E1 si riduce all'evento singolare E1 = {()|1 = 1 } e si ha:
| |
1 0
1 0
2
( , )
1 2 1
1 + 2 1
| |
1 1
2
2
(, )
1 2
|1 |
2
|1 |
1
2
1 +
1 ()
(18.2.10)
1 (1 )
2 |1 (2 , 1 ) =
2 |1 (2 , 1 )
2
309
(18.2.11)
(18.2.12)
(18.2.13)
2 1
1 2
(18.2.14)
che discende immediatamente dal fatto che una stessa manifestazione del segnale non pu assumere due valori distinti nello stesso istante .
Inoltre tenuto conto delle condizioni di normalizzazione:
1|2 (1 , 2 )1 = 2 |1 (2 , 1 )2 = 1
(18.2.15)
a)
1 (1 ) = 12 (1 , 2 )2
b)
(18.2.16)
2 (2 ) = 12 (1 , 2 )1
1 (1 ) = lim 12 (1 , 2 )
b)
2 (2 ) = lim 12 (1 , 2 )
(18.2.17)
310
(18.3.1)
la probabilit dellevento
E12 = {()|1 1 , 2 2 , , }
(18.3.2)
costituito cio da tutte le manifestazioni del segnale () che, in corrispondenza agli istanti di tempo 1 , 2 , , , assumono valori rispettivamente non superiori a 1 , 2 , .
La 1 2 (1 , 2 , ) costituisce la distribuzione di probabilit
di ordine associata al segnale. Ad essa corrisponde la relativa densit
di probabilit di ordine : 1 2 (1 , 2 , , ):
1 2 (1 , 2 , , ) =
12 (1 , 2 , )
1 2
(18.3.3)
1 21 (1 , , 1 ) = 12 (1 , , )
122 (1 , , 2 ) = 12 (1 , , ) 1
. . . .
. . . . .
.........
(18.3.4)
1 (1 ) = 12 (1 , , ) 1 2
12 (1 , , ) 1 2 1 = 1
(18.3.5)
che esprime la circostanza che i valori assunti dal segnale negli istanti
1 , 2 , , sono certamente limitati.
Si ha:
311
12 (1 , , )
1
= 12 (1 , , )1
(18.3.6)
(18.3.7)
(18.3.8)
in tutti i punti in cui 12 (1 , , ) derivabile in senso ordinario; inoltre i pesi delle eventuali delta di Dirac nella
1 2 (1 , 2 , ) non possono essere negativi.
Quando sono note le funzioni di probabilit fino a allordine
di un segnale aleatorio, si dice che esso statisticamente noto fino
all'ordine . evidente che quanto pi elevato tanto maggiori
sono le informazioni che si hanno sulla natura del segnale.
Se i valori assunti dalla generica manifestazione del segnale negli istanti 1 , 2 , , sono statisticamente indipendenti cio se risulta,
qualunque sia l'ordine e comunque scelti gli istanti 1 , 2 , , :
12 (1 , 2 , , ) = 1 (1 )2 (2 ) ( )
(18.3.9)
= 1 () 2 () ()
(18.3.10)
= ( )
=1
essa, cio, come la corrispondente densit di probabilit, si pu esprimere come prodotto di distribuzioni di probabilit del primo ordine rispettivamente valutate in corrispondenza degli istanti di osservazione.
312
babilit del primo ordine ad esso associata, nota che sia la densit di
probabilit di .
A tal fine si ricorda che la () () eguaglia la probabilit che il
segnale allistante assuma un valore non superiore ad . Tale eventualit si verifica tutte e sole le volte che la variabile aleatoria assume valori appartenenti allinsieme I, = 1 (, (, ]) In altri
termini () () = Pr{I, }, nellipotesi in cui I, costituisca un evento per .
Questultima ipotesi certamente soddisfatta, in quanto il segnale, in virt della sua definizione, individua in ogni istante una variabile aleatoria sullo spazio dei risultati dellesperimento casuale. Nel
caso in esame linsieme dei risultati , quindi (, ) una funzione
misurabile di . Ci significa che linsieme I, di Borel, (misurabile
nel senso di Lebesgue) ad esso quindi possibile attribuire una probabilit nota che sia la densit di probabilit () della variabile
aleatoria . In definitiva si pu quindi scrivere:
313
( ) () = Pr{ 1 (, (, ])} = ()
(18.5.1)
, +
];
ad esso corrisponde
un'immagine inversa
1 (, I ), che si supFig. 18.4 - rappresentazione sul piano (O, Z, s) .
pone costituita da
ununione finita o al
pi numerabile di intervalli a due a due disgiunti I , cui appartengono rispettivamente le soluzioni dellequazione = (, ) (v. Fig.
18.4 sia cio:
1 (, I ) = I
=1
(18.5.2)
(18.5.3)
314
dal momento che gli eventi che costituiscono E sono a due a due disgiunti. Si osservi inoltre che per le ipotesi fatte sul segnale, al tendere a zero della misura || di anche la misura | | del generico
tende a zero; la (18.5.3) quindi, a meno dinfinitesimi di ordine superiore al primo, si pu riscrivere nella forma:
() ()|| =
=1
( )| |
(18.5.4)
(18.5.5)
(,)
() () = lim
0
=1
( )
||
||
=1 |
( )
(,)
(18.5.6)
(,)
finita quasi ovunque dalle (18.5.5) e (18.5.6), in quanto tali punti costituiscono, per le ipotesi fatte, un insieme al pi numerabile.
Si faccia ora riferimento al caso in cui il segnale = (, ) sia
rappresentato da una funzione costante a tratti della variabile aleatoria continua ; cio il segnale, fatta
eccezione al pi per un insieme di
manifestazioni che si presentano
con probabilit nulla, pu assumere soltanto valori appartenenti ad
Fig. 18.5 - rappresentazione sul piano
un sottoinsieme di A al pi
(O, Z, s) , costante a tratti.
numerabile, com indicato in Fig.
18.5.
Ci si convince facilmente che la () () in questo caso di tipo discreto. Infatti, facendo riferimento alla Fig. 18.5, la probabilit
che il segnale assuma il valore data da:
= Pr{(, ) = } = ()
315
(18.5.7)
() () = ()( )
=
(18.5.8)
Esempio 18.2
Si consideri il segnale
(, ) = cos(20 + )
Fig.E 18.3
presenta soluzioni
generate dalle (v. Fig.E 18.3)
Fig. E.IV.3
20 + = arccos + 2
20 + = arccos + 2
Poich :
= sin(20 + )
risulta:
|
| |
= |sin(20 + )| = 1 cos2 (20 + )
}
= 1 2
316
Quindi:
() () =
1
1 2
[ ( ) + ( )]
arccos
In definitiva risulta:
() () =
1
1
(2 )
=( +
)( )
2
2
Fig.E 18.4
+ u( 1)
(18.5.9)
(18.5.10)
=1 J1 = (1 , I1 )
317
(18.5.11)
(1 ,)
J1 = (
2|
0 dato da:
1
(1 ,)
, +
2|
1
(1 ,)
(18.5.12)
1
(1 ,)
(18.5.13)
= 2 ( , 2 )
=1
1
(1 ,)
(18.5.14)
(18.5.15)
che, sostituita nella (18.5.14), consente di scrivere la densit di probabilit del secondo ordine di un segnale deterministico associato ad
una variabile aleatoria monodimensionale:
1 2 (1 , 2 ) =
=1
(2 (2 , )) ( )
|
(1 ,)
(18.5.16)
318
Esempio 18.3
La densit di probabilit del secondo ordine per il segnale dellesempio precedente per |x 1 |< 1 ed |x 2 |< 1 pu essere scritta nella forma:
12 (1 , 2 )
= [
=
( )
(1 ,)
(2 (2 , )) +
( )
(1 ,)
(2 (2 , ))]
dove
(2 , ) = cos(20 2 + ) = cos(20 (2 1 ) + arccos(1 ))
(2 , ) = cos(20 2 + ) = cos(20 (2 1 ) arccos(1 ))
e
= arccos(1 ) 20 1 + 2
= arccos(1 ) 20 1 + 2
1,2 (1 , 2 ) =
1
2
, 1 +
1
2
), 2 = (2
2
2
, 2 +
2
2
), la
(18.6.1)
(18.6.2)
319
L'insieme A evidentemente costituito, per le ipotesi fatte sul segnale, da una unione al piu numerabile di sottoinsiemi A in 2 a due a
due disgiunti. La (18.6.2) si pu quindi scrivere:
1 2 (1 , 2 )1 2 = (1 , 2 )
=1
1 2
||=
(18.6.3)
(18.6.4)
(1 , 1 , 2 )
2
|
(2 , 1 , 2 )|
2
(18.6.5)
un segnale aleatorio dipendente da due variabili aleatorie V, che si suppongono statisticamente indipendenti e caratterizzate da densit di probabilit del primo ordine che valgono:
() =
22
1
2 u(); () =
(
)
2
2
2
1
1
20 1 1 = arccos 20 1
320
pertanto risulta:
cos1 = cos (arccos
= cos (arccos
=
1
20 1 )
1
1
) cos20 1 + sin (arccos ) sin2f0 t1
1
12
cos20 1 + 1 2 sin2f0 t1
1
20 1 )
1
1
) cos20 1 cos (arccos ) sin(20 1 )
12
1
cos20 1 sin20 1
2
ed analogamente:
1 =
1
12
cos(20 1 ) 1 2 sin(2f0 t1 );
1
12
sin1 = cos(20 1 ) 1 2 sin(2f0 t1 );
sostituendo si ottiene:
2
= (
1
12
cos(20 1 )cos(20 2 ) + 1 2 cos(20 1 )sin(20 2 )
12
1
sin(2f0 t1 )cos(20 2 ) + sin(2f0 t1 )sin(20 2 ))
2
= 1 cos20 (2 1 ) 2 12 sin(20 (2 1 ))
12 + 22 21 2 cos(20 (2 1 ))
|sin(20 (2 1 ))|
supposto 2 (2 1 ) .
0
Per la soluzione 1 analogamente si ottiene
321
2 = 1 cos(20 (2 1 )) + 2 12 sin(20 (2 1 ))
12 + 22 21 2 cos(20 (2 1 ))
=
|sin(20 (2 1 ))|
()
( )
+
2|sin(20 (2 1 ))| 2 |sin(20 (2 1 ))|
()
|sin(20 (2 1 ))|
12 (1 , 2 ) =
12cos(20(2 1 ))
12 + 22 21 2 cos(20 (2 1 )) 1+22
22 sin2 (20 (21 ))
2
2
sin (20 (2 1 ))
(18.7.1)
1 2 (, ) = 1
b)
1 2 (, ) = 0
(18.7.2)
322
(18.7.3)
1 2 (, ) = 1 2 (, )
(18.7.4)
1 2 (, ) = 1 () 2|1 (, )
b)
1 2 (, ) = 2 () 1 |2 (, )
(18.7.5)
1 |2 (, ) = 2|1 (, ) = 1
(18.7.6)
a)
1 () = 1 2 (, )
b)
2 () = 1 2 (, )
(18.7.7)
(18.7.8)
i segnali si dicono congiuntamente statisticamente indipendenti. Dal confronto tra le (18.7.5) e la 0(18.7.8) discende che in questo caso:
a)
1 |2 (, ) = 1 ()
b)
2|1 (, ) = 2 ()
(18.7.9)
323
] (]
, +
() (()) all'istante 2 (1 ).
Esempio 18.5
Sia z(t) un segnale aleatorio
dato da:
() = ((), ())
E' da notare che la regione potrebbe non essere semplicemente connessa come mostra la Fig. E.IV.5
Dalla () () si deduce immediatamente:
() () =
Fig.E 18.6
() ()
324
() () =
()() (, )
quindi:
() () = ()() (, )
Nellulteriore eventualit in cui i segnali () e (), siano statisticamente indipendenti la precedente assume la forma:
() () = () ()() ( )
la densit di probabilit cercata quindi in questo caso data dalla convoluzione tra le densit di probabilit dei due segnali.
CAPITOLO - 19
VALORI MEDI, STAZIONARIET ED ERGODICIT
19.1 - Medie statistiche.
Sia (, ) un segnale aleatorio associato ad un esperimento
casuale di cui rappresenta il generico risultato, al quale corrisponde
una densit di probabilit del primo ordine data da () (). Per un
assegnato valore di individuata una variabile aleatoria = (, )
della quale si pu calcolare il valore medio, il valore quadratico medio, la varianza, o pi in generale, la media di una qualunque funzione misurabile = ():
= ()() ()
{()} = ()
(19.1.1)
() = () ()
(19.1.2)
0 () = () () = 1
(19.1.3)
Per = 1 si ha:
() = {(, )} = = () ()
(19.1.4)
2 () = { 2 (, )} =
2 = 2 () ()
(19.1.5)
326
= ( ())2 () ()
(19.1.6)
() () = ( ()) () ()
(19.1.7)
2 () = 2 () 2 ()
(19.1.8)
risulta:
Nel caso in cui la generica manifestazione del segnale (, )
dipenda dal valore assunto da un vettore aleatorio a dimensioni,
il valore medio di una qualunque funzione ((, )) misurabile pu
essere calcolato anche utilizzando il teorema della:
= ()() () = ((, ) ()
()
(19.1.9)
(19.1.10)
(1 , 2 ) = (1 , 2 )1 2 (1 , 2 )1 2
2
(19.1.11)
327
= 1 2 1 2 (1 , 2 )1 2
(19.1.12)
(19.1.13)
(19.1.14)
= (1 (1 )) (2
R2
(2 )) 12 (1 , 2 )1 2
(19.1.15)
(19.1.16)
I momenti centrali 20 e 02 individuano la varianza del segnale valutata negli istanti 1 e 2 rispettivamente:
a)
20 (1 ) = 2 (1 ) =
(1 (1 ))2
b)
02 (2 ) = 2 (2 ) =
(2 (2 ))2
(19.1.17)
(1 , 2 ) = {(1 , 2 )} = (, )1 2 (, )
2
(19.1.18)
328
1 2 = {1 2 } = 1 2 (, )
2
(19.1.19)
1 2 =
1
2
(19.1.20)
(19.1.21)
(1 1 ) (2 2 ) = {(1 1 ) (2 2 ) }
= ( 1 ) ( 2 ) 1 2 (, )
(19.1.22)
Ponendo = = 1 si ha:
(1 , 2 ) (
2 )
1 1 )(2
= {(1 1 )(2 2 )}
= ( 1 )( 2 )12 (, )
(19.1.23)
(1 , 2 ) = (
2 )
1 1 )(2
=
1 2 1 2 1 2 +
1 2
= (1 , 2 ) 1 2
(19.1.24)
(19.1.25)
329
Esempio 19.1
Si prenda in considerazione il segnale (, ) = (20 + )
analizzato nell'Esempio 18.2. Il suo valore medio risulta:
= () () =
1 1
1 1 2
1
cos = 0
0
1
2 2 1 2
1
2 = 2 () () =
= cos =
2
2
1
0
1
= (, ) () =
1 2
cos(20 + ) = 0
2 0
1 2 2
1
2 = 2 (, ) () =
cos (20 + ) =
2 0
2
19.2 - Stazionariet.
Un segnale aleatorio () si dice stazionario in senso stretto se le
sue funzioni di probabilit, di qualsiasi ordine dipendono esclusivamente dalla posizione relativa degli istanti in cui il segnale viene osservato. Cio se risulta:
(1)() (1 , 2 , , )
= (1+)( +) (1 , 2 , , );
(19.2.1)
(19.2.2)
330
ogniqualvolta risulti 2 1 = 2 1 , mentre la densit di probabilit del primo ordine deve risultare indipendente dal tempo:
() = (1) () = (2) ();
1 , 2
(19.2.3)
(, ) = cost
b)
(1 , )(2 , ) = (2 1 )
(19.2.4)
cio se il suo valore medio indipendente dal tempo e se la sua l'autocorrelazione dipende solo dalla differenza fra gli istanti 2 e 1 .
E' evidente che, essendo (0) =
2 () la stazionariet in senso lato implica che anche il valore quadratico medio non dipende da
.
E' opportuno osservare che un segnale stazionario in senso
stretto lo anche in senso lato, ma non viceversa giacch, ad esempio, l'invarianza temporale del momento del secondo ordine non implica necessariamente quella della corrispondente densit di probabilit.
Esempio 19.2
Si prenda in esame il segnale () definito dalla:
() = cos + sin
(1 )(2 )
[cos1 sin2 + sin1 cos2 ]
= 2cos1 cos2 +
2sin1 sin2 +
(
1 )(2 ) = [cos1 cos2 + sin1 sin2 ] = cos((2 1 ))
331
= = 0
Esempio 19.3
Si consideri il segnale
() = cos(20 + )
(, ) = exp[ cos(20 + )]
=1
2
exp[ cos(20 + )] ()
=1
2(1+0 )
e =1 cos(20 ++20 ) ()
=1 cos(20 +)
20
( + 20 )
e =1 cos(20 +)
indipendentemente da periodica di periodo 2 in si intuisce facilmente che lunica densit di probabilit (). che rende il segnale in
questione stazionario in senso stretto quella uniforme deve cio essere:
() =
( 2 )
2
Esempio 19.4
Si consideri il seguente segnale aleatorio
332
cos20 + sin20 Pr =
() =
1
3
1
{cos20 Pr = 3
1
3
sin20 Pr =
(1 )(2 )
1
1
= (cos20 1 + sin20 1 )(cos20 2 + sin20 2 ) sin20 1 sin20 2
3
3
1
1
cos20 1 cos20 2 = (cos20 1 sin20 2 + sin20 1 cos20 2 )
3
3
1
= cos(20 (1 2 ))
3
e
(
1
)
80
2
1
2
() = ( + ) + ( 2)
3
2
3
quindi:
(0) () (
1
)
80
()
333
(19.3.1)
se esiste, costituisce la media temporale della funzione f (s) associata alla manifestazione () del segnale.
Dalla (19.3.1) si possono in particolare dedurre il valore medio
temporale:
1
()
2
(19.3.2)
(19.3.3)
(19.3.4)
(19.3.5)
334
(19.3.6)
(19.3.7)
1
() = () ()
2
lim
(19.3.8)
1 2
() = 2 () ()
2
lim
(19.3.9)
cio:
(19.3.10)
335
1
()( + ) = 1 2 (, )
2
R2
(19.3.11)
lim
In questo caso si pu affermare che un segnale ergodico in autocorrelazione deve presentare una media temporale () indipendente dalla manifestazione e una media statistica () dipendente
solo dalla differenza tra gli istanti di osservazione 2 e 1 .
Pi in generale, affinch la condizione di ergodicit sia soddisfatta, e necessario che le medie temporali non dipendano dalla particolare manifestazione sulla quale vengono calcolate, e che le medie
statistiche non dipendano dallorigine dei tempi, ma soltanto dalla
posizione relativa tra gli istanti in cui la media statistica valutata.
Ci significa che una condizione necessaria per lergodicit la stazionariet in senso stretto.
Per meglio comprendere il significato della condizione di ergodicit si prenda in considerazione la (19.3.1), l'integrale che vi
compare, pu essere valutato dividendo l'intervallo [, ] in subintervalli contigui di uguale ampiezza e quindi passando al limite
per :
1
2
( ( + 2))
2
=1
= lim ( ( + 2))
(19.3.12)
=1
1
((, ))
= lim
[]
(19.3.13)
=1
cio come limite della somma dei valori assunti all'istante da un insieme di manifestazioni del segnale divisa per al tendere di all'infinito.
La condizione di ergodicit in media comporta l'uguaglianza
dei limiti (19.3.12) e (19.3.13) quindi il poter assumere per sufficientemente elevato
336
=1
=1
1
2
1
( ( + )) ((, ))
(19.3.14)
(19.4.1)
(19.4.2)
337
(19.4.3)
dove () () denota la funzione distribuzione di probabilit del primo ordine associata al segnale ().
D'altra parte la media temporale di una data manifestazione
((, )) del segnale vale:
1 2
((, ))
= lim
[ 1 ((, ], ) [ , ]]
(19.4.4)
2 2
() () = lim
(1 ((, ], ) [ 2 , 2])
(19.4.5)
Esempio 19.5
Si consideri ancora il segnale
(, ) = cos(20 + )
2 + arccos (2 + 1) arccos
,
]
20
20
338
nei quali la ((, )) assume il valore 1. La misura di ogni intervallo non dipende n dalla manifestazione n dallindice e vale
2arccos
20
1 arccos
< ((, )) >= {0 =
;
2
1;
1
1 < < 1
1
1
0
= 0 (cos(20 + )) = 0 (cos(20 ))
0
1
(cos())
2 0
(cos(20 + )) = (cos(20 + )) ()
1
1 2
(cos(20 + )) =
(cos())
2 0
2 0
1 2
(cos())
2 0
339
CAPITOLO - 20
SEGNALI GAUSSIANI
20.1 - Variabili aleatorie congiuntamente gaussiane.
Sia dato un vettore = [1 , 2 , , ] di variabili aleatorie
definite su di uno stesso esperimento casuale. Le variabili
1 , 2 , , si dicono congiuntamente gaussiane se la loro densit di
probabilit congiunta del tipo:
1
(1 , 2 , ) = 2(1 1 ,2 2 ,, )
(20.1.1)
= ( )( );
(20.1.2)
=1 =1
stanti reali.
Ponendo:
= [1
] ; = [1
(20.1.3)
e introducendo la matrice12:
11
21
=[
1
12
22
1
2
]
(20.1.4)
1 ()
() = 2()
(20.1.5)
() =
=
()
12
(20.2.1)
Si noti che la forma quadratica definita positiva quindi la matrice dei coefficienti ad essa associata certamente non singolare.
342
dove:
1
2
= [];
1 1
2 2
=[ ]
(20.2.2)
()1() 1 ()
2
1
2
(20.2.3)
(20.2.4)
essendo:
1
0
diag[1 , 2 , , ] = [
0
2
0
0
]
(20.2.5)
1 1
1
, ,, ]
1 2
(20.2.6)
(20.2.7)
cui, in virt della ortonormalit della matrice , corrisponde un determinante Jacobiano di modulo unitario. Si ottiene:
1 1
2
() =
(20.2.8)
Ponendo inoltre:
=
(20.2.9)
() =
1
2
diag(
=1(
2
)
2
343
1 1
1
, ,, )
1 2
=
=1
(20.2.10)
2
2
= 4
(20.2.11)
otteniamo:
() =
=1
1 2
= 2
(20.2.12)
=1
1
2
() = () = ((2) ||)
=1
(2) || 2 =1
1
[
]
= (2) || 2 diag 1,2,,
(20.2.13)
1
[
]
= (2) || 2 diag 1,2,,
1
= (2) || 2
1
(2) ||
(20.2.14)
() = 2
(20.2.15)
Sostituendo il valore appena ottenuto per la costante nellespressione della densit di probabilit (20.1.5) di un vettore di variabili aleatorie congiuntamente gaussiane si ottiene:
344
() =
1
(2) ||
1 ()
2()
(20.2.16)
) = ( ) =
(
() =
(20.3.1)
) = =
(
= ()
=
1
= ()
( () ) = ()
(20.3.2)
345
) = 2 = 2
() = (
= 2
(20.3.3)
(2)1 | |
(2)1 | |
1
()
2( ())
2()
= ()
(20.3.4)
() (1 , 2 , , )
=
= (1 , 2 , , )
(20.4.1)
(20.4.2)
346
1
()
=
|
= ( 2 )|
=
=1
=0
(20.4.3)
2 ()
|
=
=
(20.4.4)
quindi:
=
( )( ) =
=
1
2
2 ()
|
=
1
2
=1
=1
(20.4.5)
La precedente mostra che il generico elemento della matrice la covarianza delle variabili aleatorie ed . La matrice
viene pertanto detta matrice di covarianza. Gli elementi che giacciono
sulla diagonale della matrice di covarianza rappresentano le varianze
delle variabili aleatorie cui associata.
20.5 - Segnali gaussiani.
Un segnale aleatorio (, ) si dice normale o gaussiano se la sua
densit di probabilit di qualunque ordine , indipendentemente dalla scelta della -upla distanti = [1 , 2 , , ], di tipo gaussiano,
cio se risulta:
(1),,( ) () =
1
(2) ||
)) 1 (())
2((
(20.5.1)
(20.5.2)
347
||
)
| |
)
1
1
1
2
1 ]
1
1
1
[ 1
2
1
0
1
1 + 2
1
0
1 ]
1
1
[ 2 + (1 + 2 )22 + 32 2 1 1 2 2 1 2 3 ]
1 2 1
Essendo inoltre:
|| = (1 2 )2
1
3
(2)2 (1 2 )
2 2 2
1
1
2
1 +(1+ )2 +3 2 122 2 3
2(12 )
348
() = 2
(20.6.1)
1
1
(2)
(20.6.2)
Sia una opportuna matrice ortonormale (certamente esistente) che diagonalizza la matrice e che, inoltre, faccia si che gli autovalori non nulli della cadano nelle prime righe della matrice diagonalizzata, cio sia tale che risulti
1 0 0
0 2 0
= = 0 0 0
0 . . .0. . . . .0
[0 . . . . . . . . . . . . . . .0]
(20.6.3)
1
1
2
(2)
(20.6.4)
1
[]
= [ ] = ; = [
+1
0
[ ]
[ ]
0
] ; = [
0
349
(20.6.5)
l'integrale (20.6.4) pu essere espresso come prodotto di due integrali. Pi precisamente si pu scrivere:
1
1
2
(2)
1
1
=(
2 )
(2)
1
(
)
(2)
(20.6.6)
1
(2) | |
1
2
((
) )
(20.6.7)
=1
dove (
) indica la -esima componente del vettore
.
() non negativa e rispetta la condizione di normalizzazione, in quanto la (20.6.1) vale uno per = , quindi la precedente
implica che leggitimo porre:
() = ()
(20.6.8)
(20.6.9)
350
sottospazio le variabili aleatorie componenti di rispetto a detta base sarebbero congiuntamente gaussiane.
Esempio 20.2
Si determini la densit di probabilit del terzo ordine di un segnale
gaussiano a media nulla e la cui funzione di autocovarianza :
() = cos (2 )
1
0]
1
1s2s3
( x 1 , x 2 ,x 3 ) ri-
2 = 1,
3 = 2;
1 1
[0 ] ,
2 1
0
2 = [1] ,
0
3 =
1
[0]
2 1
1
2
0
1
2
1 0
1
0
2]
[ 2
Risulta:
2
= [0
0
1s2s3
0 0
1 0]
0 0
= ;
351
2
0 = ; 1 + 3 =
1
[2]
0]
1
si ha:
1
0
4
=
1
0
1
1
[ 4 0
=
la ps
1s2s3
1
4
12
1 3 32
+ 22
+
0 =
4
2
4
1
]
4
(1 + 3 )2
+ 22
4
123 () =
1 [(13)2+22]
1 (2 +2 )
4
(1 + 3 ) =
1 2 (1 + 3 )
4
4
12
11 =
(1 1 )2 = 12 ;
22 =
(2 2 )2 = 22 ;
= 21 =
(1 1 )(2 2 )
(20.7.1)
12 22
1
2
[ 2
12 21 21
12
]
12
(20.7.2)
2
2 ( 1 )2 (12+21 )(11 )(2 2 )+2
1 (2 2 )
2 1
2 2
2(1 2 12 21 )
212 22 12 21
(20.7.3)
352
12
21
=
1 2 1 2
(20.7.4)
1
( )2
2
( )2
[ 1 21
( 1 )(2 2 )+ 2 2 2 ]
1 2 1
2(12 )
1
2
21 2 1
(20.7.5)
(1 1 )(2 2 ) +
2
1 2
1
22
= cost
(20.7.6)
1
212
1
222
( )2
1 21
21
( )
2 22
22
(20.7.7)
(20.7.8)
(20.7.9)
353
1 |2 (1 , 2 ) =
2
[1 1 1 (2 2 )]2
2
21 (12 )
1 2(1 2 )
(20.7.10)
e
2 |1 (2 , 1 ) =
1
2
2
2 [2 2 1 (1 1 )]
22
2 (1 )
2 2(1 2 )
(20.7.11)
1 ) e dalle varianze 12 (1 2 ), 22 (1 2 ).
(20.8.1)
(20.8.2)
() =
=
=
( ) = ( )
(20.8.3)
() =
=
() = 2
(20.8.4)
(20.8.5)
() = ( ) =
(20.8.6)
354
b)
(20.8.7)
(, ) = (, )(, )
(20.8.8)
(, ) = lim (, )(, )
(20.8.9)
(, ) = lim (, )(, )
(20.8.10)
vettore aleatorio ottenuto dal prodotto tra una matrice il cui generico elemento (, ) e un 2 + 1 vettore aleatorio gaussiano la
cui -esima componente vale (, ). pertanto, indipendente-
355
() = (,
) = (, )(,
) = (, ) ()
(20.8.11)
(1 , 2 ) = ((
1 , ) (1 ))((2 , ) (2 ))
(2 ))2 }
= {[(1 , ) (1 )][(2 , )
(20.8.12)
(2 )]}(1 , 1 )(2 , 2 )1 2
= (1 , 2 )(1 , 1 )(2 , 2 )1 2
1 +
(, )
1 +
2 +
(2 1 )1 2
1 1+
1 2 1
= 2
(
) 1
1
356
1
1; [, ]
( 0 ) = {
= (
)
0;
[,
]
Si ha pertanto, ponendo t 2 t 1 :
1 2 +
1
||
() = () = 2 ( ) = (1 ) ( )
=[
0
0
1
(2+2)
2
= lim
= lim
=1
= lim
(20.9.1)
dove:
=1
(20.9.2)
=0
lim
(20.9.3)
dove
3
=
|3 |
=1
(20.9.4)
357
=1
=1
(20.9.5)
( ) =
3 3
2 2
= 1 +
( )
( )
2
6
2 2 3 3
=1
+
22
63
(20.9.6)
2 2
3 3
log ( ( )) = log (1
+
)
22
63
(20.9.7)
= log[1 + ]
avendo posto:
2 2 3 3
=
+
22
63
(20.9.8)
<1
(20.9.9)
| 2 |
| 3 |
(20.9.10)
358
2 2 3 3
2 2
3 3
|| = |
+
|
+|
|
22
63
22
63
2
2 2
|3 ||3 |
|3 |3 2 2
|3 |3 |3 |
+
=
(
+
)
2
22
63
2 2|
6
3
|3
(20.9.11)
2 2 2
|3 |3 |3 |
2 2 |3 |
2(
) 2( +
)
2 +
2|
6
2
6
3 |3
2 2 3 3
log ( ( )) = log (1
+
)
22
63
2 2
22
3 3
+
63
(20.9.12)
2 2 3 3
lim log( ()) lim (
+
)
22
63
=1
3 3
2
= + lim
=
2
63
2
(20.9.13)
=1
CAPITOLO - 21
CARATTERIZZAZIONE ENERGETICA DI SEGNALI A
TEMPO CONTINUO
21.1 - Funzione di autocorrelazione.
Sia (, ), un segnale aleatorio, reale o complesso a tempo
continuo. La sua funzione di autocorrelazione (1 , 2 ) definita
dalla seguente media statistica del secondo ordine:
(1 , 2 ) =
(1 )(2 )
(21.1.1)
(21.1.2)
(21.1.3)
360
2 =
[( + ) ()]2 = 2
+ )
= 2( (0) ())
(21.1.4)
La quantit
2 quindi tanto pi piccola quanto meno () differisce da (0). Ci, in altri termini, significa che tanto pi lentamente
varia la funzione (), tanto pi elevata la probabilit che scegliendo a caso una manifestazione del processo questa presenti variazioni lente al variare del tempo.
Inoltre interessante notare che se per un certo valore di 0
avviene che (0 ) = (0) se ne deduce che
[() ( + 0 )]2 = 0
il che significa che la generica manifestazione del segnale assume,
con probabilit uno, valori uguali in istanti di tempo che distano 0 o
suoi multipli interi.
Ponendo nella (21.1.1) 1 = 2 = si ottiene:
(, ) =
|()|2 0
(21.1.5)
Nel punto (, ) la (1 , 2 ) sidentifica cio con il secondo momento assoluto del primo ordine del segnale (, ), che reale e non negativo. In particolare, per segnali reali lautocorrelazione calcolata in
(, ) si riduce al valore quadratico medio del segnale in .
Nel caso di segnali stazionari si ha:
(0) =
() () =
|()|2 0
(21.1.6)
( )( )) = ( , )
(2 , 1 ) =
(2 )(1 ) = (
1
2
1 2
(21.1.7)
inoltre:
(21.1.8)
(21.1.9)
la () in questo caso quindi una funzione reale pari del suo argomento.
Lautocorrelazione una funzione semidefinita positiva. Ci
significa che per ogni () a quadrato sommabile deve aversi:
() (, ) () 0
2
(21.1.10)
() = () (, )
(21.1.11)
| |2 = | () () |2
= ( () () ) ( () () )
()() ()
= ()
(21.1.12)
= () (, ) () 0
2
(21.1.13)
+ ( 2 ))
= ||2 (1 , 1 ) + (2 , 1 ) + (1 , 2 )
+ ||2 (2 , 2 )
(21.1.14)
(21.1.15)
(21.1.16)
(21.1.17)
Dalla (21.1.8) e (21.1.6) si evince che la funzione di autocorrelazione di un segnale stazionario almeno in senso lato gode di sim-
362
(1 , 2 ) =
(1 )(2 )
(, ) =
|()|2
(1 , 2 ) = (2 , 1 )
| (1 , 2 )| (1 , 1 ) (2 , 2 )
() ( ) () 0
() (, ) () 0
(1 , 2 ) = [(
1 ) (1 )] [(2 ) (2 )]
= (1 , 2 ) (1 ) (2 )
(21.1.18)
(21.1.19)
(21.1.21)
()
(0)
(21.1.22)
() =
[() ] [( + ) ] = () | |2
() =
()
(0)
(21.1.23)
(21.1.24)
(21.1.25)
(, ) = lim
(21.2.1)
(, ) = (, ) ( )
(21.2.2)
cio:
(, ) = (, )
= (, ) 2
(21.2.3)
(21.2.4)
364
1 2 2
= lim (1 , )(2 , ) 2(21) 1 2
= lim
(21.2.5)
(1 , )(2 , ) 2(21) 1 2
1 2 2
() = lim (1 , 2 ) 2(21) 1 2
(21.2.6)
() 2
1 2 2
= lim (1 , 2 ) ( 2(21) ) 1 2
(21.2.7)
poich risulta:
2(21) = (2 1 )
(21.2.8)
()
1 2
= lim (, + )
(21.2.9)
1 2
lim (, + ) = ()
(21.2.10)
() = [ ()]
(21.2.11)
si evince:
interessante notare che se la densit spettrale di potenza di
un segnale aleatorio stazionario nulla le sue manifestazioni hanno,
con probabilit 1, energia finita. Unulteriore conseguenza dell'annullarsi della densit spettrale di potenza , in virt della (21.2.11) l'an-
nullarsi della funzione di autocorrelazione. Se ne conclude che un segnale aleatorio ad energia finita, fatta eccezione per il caso banale di
segnale nullo con probabilit 1 , non pu essere stazionario.
Si osservi che se il segnale (, ) ergodico in autocorrelazione, si ha:
() = ()
(21.2.12)
() = [ ()] = [ ()]
(21.2.13)
quindi risulta:
la () pu cio calcolarsi sulla base della funzione di autocorrelazione in media temporale di una qualsiasi manifestazione del segnale.
Se il segnale non stazionario, se si pone:
1 2
() = lim (, + )
(21.2.14)
la (21.2.9) fornisce:
() = [ ()]
(21.2.15)
( + ) ()
( + + ) ( + )
() = lim
lim
0
0
)=
0
366
2 ()
] = 4 2 2 ()
2
(21.3.1)
Evidentemente risulta:
(1 , 2 ) = (1 , 2 ) 2(11+22) 1 2
2
(21.3.2)
= ( (1 , 2 ) 2(2 1+1 2) 1 2 )
2
= (1 , 2 ) 2(2 1+1 2) 1 2
(21.3.3)
= (2 , 1 ) 2(1 1+2 2) 1 2
2
(21.3.4)
(21.3.5)
1 + 2 = ;
2 = ;
(21.3.6)
si pu riscrivere:
(, ) = ( ( , )) 2
(21.3.7)
() = ( , )
(21.3.8)
= ()
2[1 +2 (+)]
(21.3.9)
= () 22 2(1+2)
= (2 )(1 + 2 )
= ()
(21.3.10)
368
= (1 , 2 ) ( () 21 () 22 ) 1 2
2
(21.3.11)
(1 ) (2 ) (1 , 2 )1 2
= (1 ) (2 ) (1 , 2 )1 2
2
= (1 ) (2 ) (2 )(2 1 )1 2
(21.3.12)
= |(2 )|2 (2 )2
la quale, vista l'arbitrariet della (), e quindi anche della (), implica che la densit spettrale di potenza di un segnale stazionario
una funzione non negativa del suo argomento.
Le propriet principali della (1 , 2 ) e della () sono riassunte nella Tabella VII.2
Tabella 21.2
Propriet della Gs ( f1 , f2 ) e della Ws ( f )
Segnali stazionari
(1 , 2 ) 2(1 1+2 2) 1 2
(1 , 2 ) = (2 , 1 )
(1 , 2 ) semidefinita positiva
(, )
= ( ( , )) 2
() = () 2
() = ()
() 0
(0) = ()
()
1 2
( (1 , 2 ) 22 2(1 +2 ) 1 2 )
2
= lim
(21.3.13)
1 2
= (1 , 2 ) 22 ( lim 2(1 +2 ) ) 1 2
2
2
risulta:
1 2
lim 2(1 +2 )
2
1;
1 + 2 = 0;
sin[(
+
)]
={
1
2
lim
= 0; 1 + 2 0;
(1 + 2 )
(21.3.14)
(21.3.15)
+ 2 ))
22
1 2
( lim 2(1 +2 ) ) 1 2
2
(21.3.16)
= (2 )(1 + 2 ) 22 1 2
2
= (2 ) 22 2
(21.3.17)
370
cio la densita spettrale di potenza di un segnale aleatorio data anche dalla funzione peso della eventuale singolarit di tipo delta di Dirac che la (1 , 2 ) presenta lungo la seconda bisettrice del piano
(, 1 , 2 ). Qualora detta singolarit non dovesse presentarsi il processo in questione sarebbe ad energia finita.
In Conclusione la densit spettrale di potenza di un processo
aleatorio pu alternativamente essere calcolata per mezzo della
(21.2.4), ovvero tramite la (21.2.15), o ancora effettuando la trasformata di Fourier bidimensionale della funzione di autocorrelazione,
ed isolando in quest'ultima il peso della delta di Dirac che essa presenta lungo la seconda bisettrice del piano (, 1 , 2 ).
Esempio 21.2
Sia
(, ) = (, ) ( )
=
un segnale aleatorio in cui a ( t, ) rappresenta un segnale stazionario caratterizzato dalla funzione di autocorrelazione data da R a ( ) .
La funzione di autocorrelazione di s( t , ) vale:
(1 , 2 ) =
(1 , )(2 , )
=
(1 , )(2 , )
(1 )(2 )
= =
= (2 1 )
(1 )(2 )
= =
= (2 1 )
2
(1 )(2 ) 2(11+22) 1 2
,=
,=
,=
[( )] 2(1 +2)
(21.4.1)
(, ) = () 2
(21.4.2)
ta:
(1 , 2 ) = (2 1 ) 2
(21.4.3)
risulta quindi:
(1 , 2 )
= (2 1 ) 2[(1)1+2 2] 1 2
(21.4.4)
R2
(1 , 2 ) = () 2[(1 +2 )+2 ]
= () 22 2(1+2)
=
= () 22 (1 + 2 )
(21.4.5)
372
(1 , 2 ) = (2 ) (1 + 2 )
(21.4.6)
La
precedente
consente di concludere
che la (1 , 2 ) di un
segnale ciclostazionario
nulla nel piano
(, 1 , 2 ) eccetto che
sulle rette 1 + 2 =
che appartengono al fascio improprio definito
dalla seconda bisettrice
(vedi Fig. 21.1) sulle
quali sono localizzate
delle singolarit di tipo
delta di Dirac ciascuna
Fig. 21.1 - Localizzazione delle singolarit per segnali ciclostazionari.
pesata dalla corrispondente ().
interessante notare che un segnale stazionario pu essere pensato come un particolare segnale ciclostazionario per il quale l'unico
coefficiente () non nullo quello di indice zero. Ci si rende facilmente conto che in questo caso la (21.4.6) e la (21.1.9) si identificano.
Esempio 21.3
Si consideri il seguente segnale aleatorio
0
(, , ) = (
)
0
=
Fig.E 21.1
0
+ 0
=
)(
)
(
0
0
Risulta:
{ | } = = 0;
= {
2 = 1;
poich:
1
1
= (1) + (1) = 0
2
2
e
1
1
2 = (1) + (1) = 1
2
2
Di conseguenza si ha:
0
+ 0
(, + ) = (
)(
)
0
0
cio quando | .
Inoltre ci si rende conto che, ferma restante questultima limitazione,
fissato un istante esiste in corrispondenza ad esso un unico valore dell'
indice cui corrisponde un addendo diverso da zero. Detto tale valore
si pu cio scrivere:
374
0
+ 0
(, + ) = (
)(
)
0
0
0
+ 0
)(
) ()
0
0
+
( )(
)
0
0
0
||
)(
) = ()
0
20
La funzione di autocorrelazione dipende quindi esclusivamente da , osservando inoltre che il segnale ha valore medio nullo si conclude che il
segnale in questione stazionario in senso lato, quindi la sua densit
spettrale di potenza data dalla trasformata di Fourier della sua funzione
di autocorrelazione.
In definitiva quindi risulta:
() = [ ()] = 0 sinc 2 (0 )
0
(, , ) = (
)
0
=
(, , ) = 0 sinc(0 ) 2(0 +)
=
Si ha quindi:
= 02 sinc 2 (0 )
0
0
= =
Pertanto:
() = lim
| (,)|2
= lim
2+1
20 +0
02 sinc 2 (0 ) = 0 sinc 2 (0 )
Esempio 21.4
Si determini la densit spettrale del segnale:
(, ) = (, ) cos(20 )
1
= (2
2 2
1 ){cos[20 (1 2 )] + cos[20 (1 + 2 )]} 2(1 1+2 2) 1 2
1 2 = |
(1 ,2 )
(,)
| =
|
2
|
2
|21
2
1
2
1|
=
2
Si ottiene allora:
1
cos(20 ) (1 +2) () (1 2 ) = 8 [ (
2
( 1
+2
+ 0 )] ( 1
) + + ( 1
+2
) [( 1
1 2
+2
0 ) + ( 1
0 ) +
0 )]
376
( ) = ()
(1 , 2 ) = [ ( 1
0 ) + ( 1
1 2
+ 0 )] (1 2 ) + (
[(1 + 2 20 ) + (1 + 2 + 20 )]
() = [ ( 0 ) + ( + 0 )]
4
() = lim
(, )
(21.5.1)
1 (1 , )1 (2 , )
1 (1 , )2 (2 , )
= 2 (1 , )1 (2 , ) 2 (1 , )2 (2 , )
[
(1 , )1 (2 , ) (1 , )2 (2 , )
1 (1 , ) (2 , )
2 (1 , ) (2 , )
(1 , ) (2 , )]
(21.5.2)
(21.5.3)
Con riferimento alla (21.5.2) gli elementi della diagonale principale della matrice di correlazione sono le autocorrelazioni dei segnali (, ), mentre gli altri elementi rappresentano le mutue correlazioni o correlazioni incrociate:
Risulta ovviamente:
(2 , 1 ) =
(2 ) (1 ) = [
(1 ) (2 )] = (1 , 2 )
(21.5.4)
(21.5.5)
(, ) = (, ) = (, )
(21.5.6)
=1
(1 , 2 ) = (
1 , )(2 , ) = (1 , )(2 , )
= (1 , 2 )
(21.5.7)
(21.5.8)
dalla quale si evince che la matrice di correlazione semidefinita positiva in ogni punto della prima bisettrice del piano (, 1 , 2 ).
Le considerazioni sin qui svolte si possono applicare al seguente vettore aleatorio:
(, ) = [
1 (, )
]
2 ( + , )
(21.5.9)
(21.5.10)
378
11 (, )22 ( + , + ) 12 (, + )21 ( + , )
0
(21.5.11)
(21.5.12)
(21.5.13)
In certi casi, preferibile caratterizzare segnali aleatori mediante la matrice di covarianza cos definita:
(1 , 2 ) =
[(1 , ) (1 )] [(2 , ) (2 )]
= (1 , 2 ) (1 ) (2 )
(21.5.14)
(21.5.15)
1 (1 , 2 )
12 (1 , 2 )
22 (1 , 2 )
2 (1 , 2 )
1 (1 , 2 )
2 (1 , 2 )
]
(1 , 2 )
(21.5.16)
(1 , 2 ) = (1 , 2 ) 2(1 1+2 2) 1 2
(21.5.17)
(1 , 2 ) = () 2[(1 +2)+2 ]
= (2 )(1 + 2 )
(21.5.18)
1 ()
12 ()
22 ()
2 ()
1 ()
2 ()
]
()
(21.5.19)
(21.5.20)
(21.5.21)
CAPITOLO - 22
CARATTERIZZAZIONE ENERGETICA DI SEGNALI
ALEATORI A TEMPO DISCRETO
22.1 - Funzione di autocorrelazione.
La caratterizzazione energetica dei segnali a tempo discreto non presenta sostanziali differenze rispetto a quanto visto a proposito dei segnali a tempo continuo, le uniche variazioni sono ovviamente quelle
connesse alla sostituzione della variabile continua con la variabile
discreta .
Sia (, ) ( < < ) un segnale aleatorio, in generale complesso, a tempo discreto. La sua funzione di autocorrelazione definita dalla:
(, ) =
()()
(22.1.1)
(22.1.2)
(22.1.3)
= (, )
(22.1.4)
(22.1.5)
382
() = ()
(22.1.6)
(22.1.7)
|()|2 <
(22.1.8)
= ()()
(22.1.9)
Si ha:
()() ()
0
| |2 = ()
(22.1.10)
= =
() (, ) () 0
(22.1.11)
= =
=0
0
(22.1.12)
si ponga:
() = ( ) + ( )
(22.1.13)
dove e sono delle costanti complesse arbitrarie. Con questa scelta della (), la (22.1.11) fornisce:
||2 (, ) + (, ) + (, )
+ ||2 (, ) 0
(22.1.14)
(22.1.15)
(22.1.16)
Analogamente a quanto visto per i segnali a tempo continuo, il modulo dellautocorrelazione di un segnale a tempo discreto stazionario
almeno in senso lato raggiunge il suo massimo assoluto nellorigine.
Le propriet dellautocorrelazione sono riassunte nella Tabella 22.1.
Tabella 22.1
Propriet della autocorrelazione per segnali a tempo discreto
Segnali stazionari
() =
()( +
(0) =
|()|2
() = ()
| ()| (0)
(, ) =
()()
(, ) =
|()|2
(, ) = (, )
() (( )) ()
= =
| (, )|
(, ) (, )
() (, ) () 0
= =
si ha:
(, ); ||
0;
|| >
(22.2.1)
384
| (, )|2
(2 + 1)
1
= lim
(, ) (, )
(2 + 1)
() = lim
(22.2.2)
(, ) = (, ) 2
=
(22.2.3)
= (, ) 2
=
Poich risulta:
(, ) (, )
(, )(, ) 2()
(22.2.4)
= =
si ottiene:
()
1
= lim
(, ) (, ) 2() (22.2.5)
2 + 1
= =
1
= lim
(, ) 2()
(2 + 1)
(22.2.6)
= =
1
2
1
2
() 2
,=
1
2
= lim
(, ) 2()
1
2 + 1
1
= lim
(, )sinc( )
2 + 1
,=
1
= lim
(, ( + ))
2 + 1
=
(22.2.7)
In conclusione:
1
() = lim
(, ( + ))
2 + 1
(22.2.8)
(22.2.9)
(1 , 2 ) =
(, ) 2(1 +2 )
(22.3.1)
= =
1
2
, 2 + ) = (1 , 2 )
(22.3.2)
386
(, ) =
1
2
1
2
1
1
2
2
(1 , 2 ) 2(1 +2 ) 1 2
(22.3.3)
1
2
1
2
1
1
2
2
1
2
= (
1
2
(1 , 2 ) 2(1+2) 1 2
1
2
(22.3.4)
(2 , 1 ) 2(1 +2 ) 1 2 )
1
pertanto:
(1 , 2 ) = (2 , 1 )
(22.3.5)
Nel caso di segnale stazionario operando nella (22.3.1) la trasformazione di indici: = , = ed applicando la formula di Poisson
si ottiene:
(1 , 2 ) = 2
(, ) 2(1 +2 )
= =
= 2 2(1 +2 ) () 21
=
=
=
=
2(1 +2 )
(22.3.6)
(1 )
= (1 ) (1 + 2 )
() ()
1
2
1
2
1
2
1
2
1
2
2
,=
1
2
1
2
(1 , 2 ) 2(1+2 ) 1 2
(1 , 2 ) () 21 () 22 1 2
1
(22.3.7)
1 2 2
( , )(1 ) (2 )1 2
2 1 1 1 2
2
care che per un segnale stazionario la (22.3.7) comporta che deve essere:
() 0
(22.3.8)
1
2
1
2
1
1
2
2
(1 , 2 ) 2(1 +2 ) 1 2
(22.3.9)
1
2
1
2
()
(22.3.10)
Si osservi che esprimendo nella (22.2.8) la funzione di autocorrelazione in termini della (1 , 2 ) si ottiene:
()
1
2
2
(1 , 2 ) 2[1 +(+)2 ] 1 2
1
1
2 + 1
= lim
=
1
2
1
2
1
2
1
2
(1 , 2
) 22
(22.3.11)
1
lim
2(1 +2 ) 1 2
2 + 1
=
Poich risulta:
1
2(1 +2)
2 + 1
=
1;
lim
={
1
lim
2 + 1
2+1
2(1+2) [(2(1+2) )
2(1 +2) 1
(1 + 2 )
1]
(22.3.12)
= 0; (1 + 2 )
largomento dellintegrale ad ultimo membro della (22.3.11) vale zero, salvo che sullinsieme di misura nulla costituito dalla famiglia di
1
rette parallele alla seconda bisettrice spaziate di .
Il risultato di tale integrale pertanto nullo a meno che la
(1 , 2 ) non presenti delle singolarit di tipo delta di Dirac disposte
lungo dette rette.
Si osservi che la (1 , 2 ) pu sempre esprimersi come somma di
due contributi:
388
(1 , 2 ) = (1 , 2 ) + (2 )(1 + 2 )
(22.3.13)
in modo tale che (1 , 2 ) non presenti contributi distribuzionali lungo le rette in questione sostituendo la (22.3.13) nella (22.3.11) tenuto
conto della (22.3.12) si ottiene:
() =
=
1
2
1
2
1
2
1
2
1
1
2
2
(2 )(1 + 2 ) 22 1 2
(22.3.14)
(1 ) 21 1
= 2
(, ) 2(1 +2)
= =
(1 , 2 ) = (2 , 1 )
(1 , 2 ) semidefinita positiva
(, )
=
1
2
1
2
1
2
1
2
(1 , 2 ) 2(1 +2 ) 1 2
= () 2
=
() = ()
() 0
(0) =
1
2
1
2
()
CAPITOLO - 23
SEGNALI PASSABANDA
23.1 - Il rumore bianco.
Un segnale aleatorio (, ) stazionario la cui densit spettrale
di potenza costante comunemente detto rumore bianco. Posto:
() =
(23.1.1)
() =
(23.1.2)
Risulta:
(23.1.3)
- 390 -
fm
() = (
Ws( f )
fm
(23.2.1)
()
=
(23.2.2)
= 2 sinc(2 )
(23.2.3)
Di conseguenza i
Rs()
valori assunti dal rumo2f m
re (, ) in corrispondenza a coppie distanti,
che appartengono allinsieme { }, risultano
1
2f
incorrelati. Tanto pi
ampia la banda del
+ 0
0
) + (
)]
(23.3.1)
Segnali passa-banda
- 391 -
0 +
0 +
2 )
(23.3.2)
= 2sinc()cos(20 )
Ws ( f )
dellordine
dellunit, per chiarirne meglio landamento qualitativo. Nella realt tale vaFig. 23.3 - Densit spettrale di un
lore risulta essere quasi sempre molto
rumore bianco passabanda
maggiore di 1.
f2
f1
f1
f0
f2
(2
(23.4.1)
(, ) = ( , ) sinc [ ( )]
(23.4.2)
- 392 -
Occorre in sostanza mostrare che il processo (, ) si identifica con il segnale. A tal fine sufficiente verificare che:
{(, ) (, )}2 = 0
(23.4.3)
Risulta:
{(, ) (, )}2 =
[(, )]2 +
[ (, )]2 2(,
) (, )
= [(,
)]2
( , ) ( , ) sinc [ ( )] sinc [ (
= =
(23.4.4)
)] 2 (, ) ( , ) sinc [ ( )]
{(, ) (, )}2
= (0) + (
) sinc [ ( )] sinc [ ( )]
,=
2 (
=
) sinc [ ( )]
= (0)
(23.4.5)
+ sinc [ (
=
)] ( ) sinc [ (
)]
2 ( ) sinc [ ( )]
[{(, ) (, )}]2
= (0) + (
2 (
=
) sinc [ (
= (0) (
=
) sinc [ ( )]
)]
(23.4.6)
) sinc [ ( )]
Si prenda ora in considerazione la funzione ( ) della variabile . Essa per le ipotesi fatte sul processo ammette trasformata di
Fourier in corrispondenza ad ogni valore di , inoltre come si evince
Segnali passa-banda
- 393 -
( ) = ( ) sinc [ ( )]
(23.4.7)
[(, ) (, )]2
= (0) (
=
) sinc [ ( )]
(23.4.8)
= (0) ( ) = 0
Pertanto i processi (, ) ed (, ) individuano in ogni istante, con probabilit 1 , la stessa variabile aleatoria. Essi quindi sono di
fatto due rappresentazioni dello stesso processo.
Quanto appena
dedotto consente di afWs ( f )
fermare, dal momento
che ogni manifestazione
di (, ) passabasso,
che un segnale aleatorio
f1
f2 f
- f2
- f1
passabasso costituito,
Be
eccetto al pi per un
Fig. 23.5 Densit spettrale di un segnale di tipo
sottoinsieme di manifepassabanda.
stazioni che hanno probabilit nulla di presentarsi, da manifestazioni di tipo passabasso.
23.5 - Segnali aleatori passabanda.
Un segnale aleatorio (, ), detto di tipo passabanda se esistono 1 , 2tali che per ogni valore della frequenza risulti:
() = () [
(2 ) (2 )]
2
(23.5.1)
Si noti che, escludendo il caso banale di una densit spettrale di potenza identicamente nulla, deve essere 0 < |1 | |2 | < . In altri
termini la (23.5.1) significa che un processo passabanda se esiste un
intervallo [1 , 2 ] + tale che la densit spettrale di potenza del se-
- 394 -
banda 0 = 1 2 2 , ovvero la frequenza in corrispondenza alla quale risulta massima la densit spettrale di potenza del segnale, o ancora
quella frequenza che, pensando alla densit spettrale di potenza come alla densit di una massa distribuita lungo lasse delle frequenze,
minimizza il momento dinerzia della parte a frequenza positiva cio
che rende minima la quantit:
( 0 )2 ()
0
(23.5.2)
()
=
2 (0 )
(23.5.3)
che corrisponde alla larghezza di banda che dovrebbe avere un rumore bianco, con frequenza di centro banda 0 , per esibire la stessa
potenza media del segnale, nellipotesi in cui allinterno di tale banda
la densit spettrale del rumore valga (0 ). Per questo motivo la ,
appena definita, detta banda equivalente di rumore (vedi Errore. L'origine riferimento non stata trovata.).
Se la banda equivalente molto piccola rispetto ad 0 ,
<< 0 , il segnale si dir a banda stretta o quasi monocromatico.
Segnali passa-banda
- 395 -
Prendendo le mosse dalla caratterizzazione dei segnali reali determinati di tipo passa-banda (vedi CAPITOLO - 7), si osservi che,
fatta eccezione al pi per un insieme di manifestazioni che costituiscono un evento che si presenta con probabilit nulla, la generica
manifestazione (, ) di un segnale aleatorio passabanda, cio, con
probabilit 1, un segnale determinato passabanda. Ad esso corrisponde pertanto un segnale analitico (, ) = (, ) + (, ).
Si cos individuato un segnale aleatorio complesso (, ).
Tale processo caratterizzato da unautocorrelazione:
(1 , 2 ) =
(1 , )(2 , )
= ((1 , ) (1 , ))((2 , ) + (2 , ))
=
(1 , )(2 , ) +
(1 , ) (2 , ) + (
1 , ) (2 , )
(1 , )(2 , )
= (1 , 2 ) + (1 , 2 ) + ( (1 , 2 ) (1 , 2 ))
(23.5.4)
1 (1 )
1 (2 )
=
1
1 1
2 2 2
1
(1 )(2 )
= 2
(1 1 )(2 2 ) 1 2
1
(1 , 2 )
= 2
(1 1 )(2 2 ) 1 2
(23.5.5)
1 ()
(1 , 2 ) =
(1 ) (2 ) = (1 )
2
1
(1 )()
1 (1 , )
=
=
(2 )
(2 )
(23.5.6)
- 396 -
R2 (1 1 )(2 2 )
1
1
1
()
=
[
]
(1 ) (2 )
1 (2 )
1 ()
=
=
(1 )
(1 2 )
1
()
=
= (1 2 ) = (2 1 )
(1 2 )
(1 , 2 ) =
(23.5.7)
per dedurre la quale si tenuto conto del fatto che, come si deduce
facilmente, la trasformata di Hilbert di una funzione pari una funzione dispari del suo argomento.
La (23.5.7) mostra che sotto lipotesi sopra introdotta il processo (, ) ha la stessa autocorrelazione di (, ) risulta cio:
() = ()
(23.5.8)
(2 )
1
()
=
= (2 1 )
(2 1 )
(1 , 2 ) =
(23.5.9)
(23.5.10)
z(t, ) =
s(t, ) + js
(t, ) = ms +
j
ms
VP
d = ms
(23.5.11)
dalla quale si evince che risultano indipendenti dal tempo sia il valor
medio di (, ) sia quello di (, ).
Segnali passa-banda
- 397 -
Se si prendono in considerazione segnali passabanda stazionari almeno in senso lato, tenendo conto delle (23.5.8) e (23.5.10), dalla
(23.5.4) si ottiene:
(1 , 2 )
= (1 , 2 ) + (1 , 2 ) + ( (1 , 2 ) (1 , 2 ))
= (2 1 ) + (2 1 ) + ( (2 1 ) (1
2 )) = 2 (2 1 ) + 2 (2 1 )
(23.5.12)
(23.5.13)
le cui manifestazioni sono cio gli inviluppi complessi delle corrispondenti manifestazioni del segnale (, ).
Tenuto conto del legame tra (, ) e (, ) e della precedente
si pu scrivere:
(, ) = Re[(, ) 20 ]
(23.5.14)
(23.5.15)
(23.5.16)
(23.5.17)
- 398 -
(, + )
= {((, )cos20 + (, )sin20 ( + , )cos20 ( + )
+ ( + , )sin20 ( + ))}
= ()cos20 cos20 ( + ) + ()sin20 cos20 ( + )
+ + ()cos20 sin20 ( + ) + ()sin20 sin20 ( + ) (23.5.18)
= ()(cos20 cos20 ( + ) + sin20 sin20 ( + ))
+ ()(sin20 cos20 ( + ) cos20 sin20 ( + )) =
= ()cos20 ()sin20
= ()cos20 + ()sin20
(23.5.20)
Segnali passa-banda
- 399 -
(, + ) =
(, ) ( + , )
= {( (, )cos20 (, )sin20 )(( + , )cos20 ( + )
+ ( + , )sin20 ( + ))}
(23.5.21)
= ()(cos20 1 cos20 ( + ) + sin20 sin20 ( + ))
+ ()(cos20 sin20 ( + ) sin20 cos20 ( + ))
= ()cos20 () + ()sin20
= ()cos20 () ()sin20 () =
()
(23.5.22)
(23.5.23)
(23.5.24)
Inoltre eliminando () tra la (23.5.18) e la (23.5.23) si ottiene lespressione dellautocorrelazione del segnale () in termini di
() ed ():
() = ()cos20 () ()sin20
(23.5.25)
(23.5.26)
- 400 -
Dalla (23.5.21) si deduce facilmente che (), e quindi anche (), una funzione dispari pertanto essa deve essere nulla
per = 0 risulta cio:
(0) = (0) = 0
(23.5.27)
(23.5.28)
essa pari, cio, a quattro volte la densit spettrale di potenza del segnale per frequenze positive ed nulla per frequenze negative.
Segnali passa-banda
- 401 -
(23.5.29)
(23.5.30)
(23.5.31)
inoltre () una funzione reale pari, mentre, in quanto trasformata di una funzione reale dispari, () una funzione puramente immaginaria dispari.
La (23.5.30) costituisce cio la decomposizione della funzione
reale () nella sua parte pari, 2 (), e nella sua parte dispari
2 ().
Questultima osservazione consente innanzitutto di affermare
che anche () e () possono assumere valore non nullo soltanto in corrispondenza a frequenze appartenenti allintervallo
[1 0 , 2 0 ].
Inoltre nel caso particolare in cui () una funzione pari
deve necessariamente essere () = 0. Ci implica () = 0,
cio che le componenti in fase ed in quadratura del segnale risultano
incorrelate. Ci si convince facilmente che, in virt delle (23.5.28) e
(23.5.29), affinch () sia pari, ()u()deve essere simmetrica
rispetto a 0 .
- 402 -
In questo caso il processo (, ) sarebbe reale di tipo passabasso, e la sua funzione di autocorrelazione coinciderebbe con il
doppio di quella della componente in fase o, che lo stesso, della
componente in quadratura del segnale, che sarebbero anchessi dei
processi passabasso.
23.6 - Segnali gaussiani.
Sia (, ) un segnale reale, gaussiano, stazionario passabanda
caratterizzato da un valor medio nullo e da una densit spettrale pari
a (). Esso, per, quanto visto al paragrafo precedente, pu essere
posto nella forma:
(, ) = (, )cos20 (, )sin20
(23.6.1)
o alternativamente:
(, ) = (, )cos[20 (, )]
(23.6.2)
dove:
(, ) = 2 (, ) + 2 (, )
{
(, ) = arctang
(, )
(, )
(23.6.3)
(, ) =
(, ) =
(, ) = 0
(23.6.4)
Segnali passa-banda
- 403
2 (, ) =
2 (, ) =
2 (, ) = 2 = ()
(23.6.5)
Inoltre:
(, ) (, ) = (0) = 0
(23.6.6)
Ci significa che i processi (, ) e (, ), essendo gaussiani, valutati in uno stesso istante individuano una coppia di variabili aleatorie statisticamente indipendenti.
Si pu scrivere allora:
(),() (, ) = () () () () =
2 +2
1
22
2 2
(23.6.7)
(23.6.8)
(23.6.9)
(23.6.10)
di Rayleigh.
22
2 u()
2
(23.6.11)
- 404 -
(23.7.1)
in cui (, ) un rumore gaussiano a banda stretta, stazionario a valor medio nullo e varianza 2 , una variabile casuale uniformemente distribuita in [, ] e indipendente dal segnale (, ).
Adottando per (, ) la rappresentazione fornita dalla (23.5.1) si
pu scrivere:
(, )
= cos(20 + ) + cos20 (, )cos20
(, )20
= (cos + (, ))cos20 (
+ (, ))20
(23.7.2)
(23.7.3)
(23.7.4)
(, ) = cos + (, )
(, ) = + (, )
(23.7.5)
(, )
cos + (, )
= arctang
(, )
+ (, )
(23.7.6)
(23.7.7)
Segnali passa-banda
- 405 -
= 2 2 22
( )
4
2
(23.7.9)
22
= 2 2
u()
4
(2
)( )
2
(23.7.10)
Per ottenere la densit di probabilit del primo ordine dell'inviluppo |(, )| occorre marginalizzare la precedente rispetto alle
variabili e . Si ha:
|()| () = |()|,(), (, , )
R2
2 2 cos()
2 +2
= 2 2 22 u() 2
4
0
0
(23.7.11)
cos()
= 20 ( 2 )
(23.7.12)
22 ()
20 ( 2 )
2
2
4
0
2+2 2
= 2 2 0 ( 2 )()
|()| () =
(23.7.13)
- 406 -
e intro-
0.6
p (l )
0.4
0.3
0.2
0.1
2
() = 2(
2 +2 )
0 ()()
(23.7.14)
=
0
2 +2 2cos()
22
( ) ( )
2
2
4
2
2
(2 ) (2 )
4 2 2
(2 ) (2 )
4 2 2
2 +2 2cos()
22
2 sin2 ()
22
(23.7.15)
(cos())2
22
Segnali passa-banda
(), (, )
=
(2 ) (2 )
4 2 2
(2 ) (2 )
4 2 2
2 sin2 ()
22
(cos())2
22
- 407 -
(23.7.16)
2
2 22
2 sin2 ()
cos( )
22
+ cos( )
[1 + erf (
)]}
2
2
(2 ) (2 )
2
22
+ cos(
2
2 sin2 ()
cos(
)
22
)
[1 + erf (
)]}
2
=
4 2
(23.7.17)
Fig. 23.7
Bibliografia
[1] - B. Lvine; Fondements thoriques de la radiotechnique statistique. Tome I. Editions MIR. Moscou. 1973.
[2] - M. Schwartz, L. Shaw: Signal Processing: Discrete Spectral
Analysis, Detection, and Estimation. McGraw-Hill. New York.
1975.
[3] B.Gnedenko: The theory of probability. MIR Puplishers Moscow. 1976
[4] - A. Papoulis: Signal Analysis: McGraw-Hill. New York. 1977
[5] - F. de Coulon: Thorie et traitment des signaux: Editions
Georgi. Lausanne. 1984.
[6] - J. Proakis, D.G. Manolakis: Introduction to Digital Signal Pocessing. Maxwell, Macmillan. Int. New York. 1988
[7] - A.V. Oppenheim, A.V. Schafer: Discrete-time Signal Processing. Prentice-Hall, Englewood Cliffs, N.J. 1989
[8] - J.G. Proakis, C.M. Rader, F. Ling, C.L. Nikias: Advanced Digital
Signal Processing. Maxwell, Macmillan. Int.Ed. New York.
1992.
[9] - B.Pincibono: Random Signals and Systems. Prentice-Hall Int.
Englewoogd Cliffs, New Jersey, 1993.