Professional Documents
Culture Documents
Cap. 4
APPLICAZIONI LINEARI TRA SPAZI VETTORIALI
DI DIMENSIONE FINITA
4.1
Generalit`
a sulle applicazioni lineari.
Definizione 1. Siano V e W due Kspazi vettoriali e sia T : V W unapplicazione. T `e detta applicazione lineare (o omomorfismo tra spazi vettoriali ) se verifica le due seguenti condizioni:
T (u + v) = T (u) + T (v), u, v V ;
T (cv) = cT (v), v V, c K.
i=1
n
!
i=1
ai v i V .
:W V
Cap. IV
(4) Se V = VK ed
n
i=1
[cio`e lapplicazione che associa ad un vettore le sue coordinate in base ] `e un isomorfismo di Kspazi vettoriali. Ne segue che tutti gli spazi vettoriali di dimensione n sono isomorfi tra loro.
(5) Se S, T : V W sono applicazioni lineari, sono definite le applicazioni somma
e moltiplicazione per uno scalare c K:
S + T : V W tale che (S + T )(v) = S(v) + T (v), v V ;
(cT ) : V W tale che (cT )(v) = c T (v), v V .
: HomK(V, W ) (W )
tale che:
"
#
(T ) = T (e1 ), ... , T (en) ,
T HomK(V, W ),
( i, j = 1, ..., n)
4.2
Vogliamo riscrivere tale uguaglianza in forma matriciale. Consideriamo la seguente matrice-riga di vettori:
$
%
T ( ) = T (e1) T (e2) . . . T (en) 1,n(V ).
Utilizzando
le notazioni introdotte in III. 1, per ogni vettore v = x V , con
x1
x = : n,1(K), la precedente uguaglianza si riscrive nella forma:
xn
()
T ( x) = T ( )x.
a11
a12
a1n
a
a
a
a 1 = 21 , a 2 = 22 , . . . , a n = 2n
:
:
:
am1
am2
amn
Denotiamo con A la matrice
"
#
a 1 a 2 . . . a n m,n(K)
"
#
= f f ... f .
1
(K).
m,1
[A `e la matrice le cui colonne sono le coordinate (in base ) delle immagini (tramite T ) dei vettori della base ]. Si ha:
"
# "
#
"
#
T ( ) = T (e1) . . . T (en) = a 1 . . . a n = a 1 . . . a n = A.
Dunque risulta:
()
T ( ) = A,
10
Cap. IV
1
2
m
ed
ed
.
.
"
#
Osservazione 1. Siano u1 , . . . , ut V e sia U = u1 . . . ut
niamo:
"
#
T (U) = T (u1) . . . T (ut) 1,t(W ).
(V ). Po-
1,t
(K):
n,t
()
T ( D) = T ( )D.
B.
(S T )( ) =
(BA),
e
ed
due basi di
11
= C,
4.3
y = w = T (v) = T ( x) = T ( )x = Ax.
Ne segue:
()
y = Ax
e pertanto:
y = Ax.
ed
). Ovviamente
Osservazione 4. Si noti che la matrice dei coefficienti che compare in (! ) `e trasposta rispetto alla matrice dei coefficienti che compare in (! ). Nelle corrispondenti espressioni () e () ci`o corrisponde al fatto che in () A `e un fattore a destra mentre in () A `e un fattore a sinistra.
3
12
Cap. IV
T : V W cos` definita:
T (e1) = f ,
2
T (e2) = f f ,
1
T (e3) = f 2f .
2
* * * #
"
Soluzione. Si ha: T ( ) = T (e1) T (e2) T (e3) = A, con
0 1
0
1
1 0
A=
.
0 0 2
0 1 0
y1
x1
y
y1 = x2
y1
0 1
0
x1
y =x +x
1
y2 1 0
2
1
3
=
x2 , cio`e
y3
0 0 2
y
=
2x
3
3
x3
y4
0 1 0
y4 = x2 .
4.4
ed
):
Siano
ed ! due basi di V = VK , tali che ! = C (con C GLn(K)).
m
Siano poi
ed ! due basi di W = WK e sia ! = D (con D GLm(K)).
Sia ora T : V W unapplicazione lineare tale che:
n
T ( ) = A e T ( !) =
A! .
Vogliamo determinare le relazioni che sussistono tra le matrici A ed A! di T (in funzione di C e D).
Ricordiamo preliminarmente che (in base a ()): T ( C) = T ( )C. Si ha:
!
A! = T ( ! ) = T ( C) = T ( )C = ( A)C = AC = ( ! D )AC =
Dunque
A! =
D AC.
D AC e pertanto risulta:
1
()
A! = D AC.
13
[Si verifica subito che tali condizioni stabiliscono una relazione dequivalenza (detta
relazione di similitudine) nellinsieme
(K)].
m,n
` gi`
Dim. (i ) = (ii ). E
a stato dimostrato nelle considerazioni precedenti.
1
(ii ) = (i ). Sia A! = D AC. Fissate una base
di V ed una base
di
W , anche ! = C ed ! = D sono basi rispettivamente di V e W .
Sia T : V W lapplicazione lineare definita dalla formula di definizione
T ( ) = A. Risulta:
1
T ( ! ) = T ( C) = T ( )C = AC = ( ! D )AC =
(D AC) =
A! .
(i ) Sia ! =
[cio`e C = In ]. In tal caso: A! = D A.
!
(ii ) Sia
=
[cio`e D = Im ]. In tal caso: A! = AC.
(iii ) Sia V = W ,
=
ed ! = ! . In tal caso C = D e dunque ri1
sulta: A! = C AC.
"
#
3
Esercizio 2. In V = VK `e fissata una base
= e1 e2 e3 . Siano f , f , f
1
2
3
tre vettori linearmente indipendenti in V e sia C GL3(K) la matrice delle coordinate di tali vettori rispetto alla base .
Sia T : V V loperatore lineare di V cos` definito:
T (f 1) = e1 + e2
T (f f ) = e1 2e2
()
1
2
T (f f f ) = e1 + 2e2 + 2e3 .
1
Risulta:
`e una base
14
Cap. IV
1
= D, con D = 0
0
1
1
0
1
T ( ! ) = B, con B = 1
0
1
1
1 .
1
(i ) Si ha: T ( ) = T ( C ) = T ( )C = T ( ! D )C = T ( ! )D C =
1
1
1
= T ( ! )(CD) = ( B)(CD) = (B(CD) ). La matrice richiesta `e dunque:
1
A = B(CD) .
1
A! = C BD
1
(iii ) Si ha: T ( ) = T ( C ) = T ( )C = T ( ! D )C = T ( ! )D C =
1 1
1
1 1
1
1 1
= ( B)D C = ( C )BD C = (C BD C ). La matrice richiesta `e dunque:
1
A!! = C BD C .
4.5
T `e suriettiva Im(T ) = W .
[Le applicazione lineari iniettive sono anche chiamate monomorfismi e quelle suriettive epimorfismi ]. La dimensione di nucleo ed immagine sono legate alla dimensione (finita) di V dalla seguente importante formula.
Teorema 1. Siano V, W due K-spazi vettoriali. Supponiamo che V abbia dimen-
15
[= dimK V ].
Se dimostriamo che
1
T (v 1), ... , T (v ns)
v = a1 u1 + . . . + as us + b1 v 1 + . . . + bns v ns
1
u1 , ... , us , v 1 , ... , v ns `e una base di V ]. Ne segue:
ns
!
i=1
Verifichiamo ora che T (v 1), ... , T (v ns) sono linearmente indipendenti. Posto
ns
"ns
#
!
!
bi T (v i) = 0, segue che 0 = T
bi v i e dunque
bi v i Ker(T ). Allora:
i=1
ns
!
i=1
bi v i =
s
!
j=1
i=1
aj uj , cio`e b1 v 1 + . . . + bns v ns a1 u1 . . . as us = 0.
0
1
Poiche u1 , ... , us , v 1 , ... , v ns `e una base di V , allora b1 = . . . = bns = 0, come
richiesto
Osservazione 5. Sia T : V W unapplicazione
lineare,
0
1 con formula di definizione T ( ) = A. Si osserva subito che T (e1), ... , T (en) `e un sistema di generan
n
!
!
tori di Im(T ) [infatti, T (v) Im(T ), si ha: T (v) = T ( xi ei) =
xi T (ei)].
i=1
"
#
dimK Im(T ) = rg T (e1), ... , T (en) .
i=1
m,1
(K)
m,1
tale che
y y
( y
(K))],
m,1
"
#
"
#
"
#
rg T (e1), ... , T (en) = rg A(1) , ... , A(n)) = rg A(1) , ... , A(n) = rg(A),
dimK Im(T ) = rg(A).
16
Cap. IV
Poiche ovviamente dimK Im(T ) non dipende dalla scelta delle basi
ed ,
possiamo affermare che il rango di ogni matrice A di T `e un invariante di T . Tale
invariante `e detto rango di T [denotato rg(T )]. Dunque:
rg(T ) = dimK Im(T ) = rg(A), per ogni matrice A di T .
Segnaliamo infine che dimK Ker(T ) `e detto anche nullit`
a di T . Il precedente
Teor. 1 `e quindi noto come teorema della nullit`
a + rango .
Segnaliamo due semplici conseguenze del Teor. 1.
Corollario 1. Se dimK V = dimK W = n e se T : V W `e unapplicazione lineare, le tre seguenti condizioni sono equivalenti:
(i ) T `e iniettiva (cio`e un monomorfismo);
(ii ) T `e suriettiva (cio`e un epimorfismo);
(iii ) T `e biiettiva (cio`e un isomorfismo).
Dim. Basta soltanto verificare che (i ) = (iii ) e (ii ) = (iii ). Dal Teor. 1:
n = dimK Ker(T ) + dimK Im(T ).
Se T `e iniettiva, dimK Ker(T ) = 0 e dunque dimK Im(T ) = n, cio`e T `e anche suriettiva. Se invece T `e suriettiva, dimK Im(T ) = n e dunque dimK Ker(T ) = 0,
cio`e T `e anche iniettiva.
Corollario 2. Se V, W sono due K-spazi vettoriali isomorfi ed entrambi di dimensione finita, allora dimK V = dimK W . [Il viceversa `e vero ed `e gi`a stato osservato (cfr. 1.(4))].
Dim. Sia T : V W un isomorfismo. Allora dimK Ker(T ) = 0 e dimK Im(T ) =
dimK W . Dal Teor. 1, dimK V = dimK Ker(T ) + dimK Im(T ) = 0 + dimK W =
dimK W .
Sia, al solito, V = VK e W = WK . Sia T : V W unapplicazione lineare.
Fissata una base
di V ed una base
di W , sia T ( ) = A. Vogliamo determinare equazioni cartesiane dei sottospazi vettoriali Ker(T ) ed Im(T ) rispetto a
tali basi.
n
ed
Ax = 0 Ax = 0.
17
(b) Equazioni cartesiane di Im(T ). Procediamo come illustrato nella dimostrazione di Prop. III.4.
0Osserviamo preliminarmente che se Im(T ) = W , Im(T ) ha equazioni cartesiane 0 = 0 (cfr. Oss. III.3).
Posto rg(A) = r, si fissi in A una sottomatrice quadrata invertibile A! di ordine r. Risulta (in base al teorema di Kronecker):
"
#
"
#
rg A y = r sono nulli tutti i minori di A y di ordine r + 1 ottenuti
orlando A! con la colonna y.
Tali minori sono m r polinomi omogenei di primo grado in y1 , . . . , ym e dunque definiscono un SLO(m r, m, K), che denotiamo BY = 0. Si `e cos` provato:
w = y Im(T ) By = 0
e pertanto il SLO(m r, m, K)
BY = 0
).
[Si noti che m rg(B) = dimK Im(T ) = rg(A), cio`e rg(B) = m rg(A)].
3
Esercizio 3. Sia
T : V# W "lapplicazione#lineare definita rispetto ad asse"
gnate basi
= e1 e2 e3 ed
= f f f f , dalla matrice
1
2
3
4
1 0 2
0 1 3
A=
.
1 0 2
2 1 1
Determinare equazioni cartesiane ed una base di Ker(T ) e di Im(T ).
* * *
Soluzione. Ker(T ) ha equazioni cartesiane date dal SLO(4, 3, ) AX = 0.
Risulta: rg(A) = 2 [infatti: A(3) = 2A(1) 3A(2) ] ed il SLO AX = 0 `e equivalente al SLO(2, 3, ):
18
Cap. IV
2 3
4
x1
x1 + 2x3 = 0
1 0 2
0
, cio`e
x2 =
0 1 3
0
x2 3x3 = 0.
x3
0
1
Una base di Ker(T ) `e ad esempio v = 2e1 + 3e2 + e3 .
2
0
1
1
5
4
y1 55
y1 + y 3 = 0
y2 55 = 0
2y1 + y2 y4 = 0.
y4 5
19
v = x T (Z) T (v) ,z 1 , . . . , z s-
T (v), z 1 , . . . , z s sono linearmente dipendenti
Ax , D(1) , . . . , D(s) sono linearmente dipendenti
"
#
"
#
rg Ax D(1) . . . D(s) = s rg Ax D = s.
"
#
La matrice Ax D `e di tipo (m, s + 1) [con s + 1 m]. Risulta:
"
#
rg Ax D = s sono nulli gli m s minori di ordine s + 1 che orlano un
minore non nullo di D di ordine s.
Lannullamento di tali minori definisce un SLO(m s, n, K), che denotiamo
BX = 0. Si `e dunque provato:
1
v = x T (Z) Bx = 0
"
#
Osservazione 6. Se Z = ,0-, la condizione rg Ax D = s diventa rg(Ax) = 0,
1
cio`e Ax = 0. Dunque T (,0-) ha equazioni cartesiane AX = 0 [cio`e le equa1
zioni di Ker(T ): in effetti, come gi`a osservato, T (,0-) = Ker(T )].
(b) Equazioni cartesiane
di 1T (U ). Sia U un sottospazio vettoriale sdimensionale
0
di V , con base u1 , . . . , us [e dunque 0 s n]. Supponiamo che
"
#
u1 . . . us = C, con C n,s(K) [e rg(C) = s].
s,1
20
Cap. IV
0
1 0
1
Osservazione 7. Se U = V , si pu`
o assumere u1 , . . . , us = "e1 , . . . #, en e si ha
quindi C ="In (matrice
unit`
a di ordine n). La condizione rg AC y = rg(AC)
#
diventa: rg A y = rg(A), che fornisce le equazioni cartesiane di Im(T ) [come gi`a
abbiamo osservato nel precedente paragrafo].
Se infine U = ,0V -, allora T (U ) = ,0W-, che ha equazioni cartesiane:
0
y1 = y2 = . . . = ym = 0.
5
Esercizio
4. Sia T : V W" lapplicazione lineare definita [rispetto alle basi
"
= e1 e2 e3 e4) di V ed
= f f f f f ) di W ] dalla matrice
1
2
3
4
5
1 0 1 1
1 1 0 1
A = 0 1 1 2 .
2 0 0 4
0 0 1 1
(i ) Sia U il sottospazio vettoriale di V
Risulta:
1
"
#
0
u1 u2 u3 = C, con C =
0
1
2 0
3 0
.
1 1
1 0
2 0 1
0 0 0
AC = 2 0 1 e rg(AC) = 2.
6 0 0
1 0 1
Allora
" T (U# ) ha equazioni ottenute orlando ad esempio la sottomatrice AC(1,5|1,3)
di AC y . Si ottiene:
5
5 5
5 5
5
5 2 1 y 5 5 2 1 y 5 5 2 1 y 5
y2 = 0
1 5
1 5
1 5
5
5
5
5 0 0 y 5 = 5 2 1 y 5 = 5 6 0 y 5 = 0, cio`e
y 1 y3 = 0
2 5
3 5
4 5
5
5
5
5 1 1 y 5 5 1 1 y 5 5 1 1 y 5
5
5
5
2y1 + y4 2y5 = 0.
Una base di T (U ) `e ottenuta risolvendo tale SLO(3, 5, ). Si ottiene ad esempio:
T (U ) = ,z 1 , z 2-, con z 1 = (1, 0, 1, 2, 0), z 2 = (1, 0, 1, 0, 1).
0
1
(ii ) Z = T (U ) ha base z 1 , z 2 . Risulta:
21
"
z1
1
0
z 2 = D, con D = 1
2
0
Il sottospazio T (U ) `e ottenuto
"
#imponendo
[orlando la sottomatrice AX D (4,5|2,3)]:
5 (1)
5 5
5 A X 1 1 5 5 A(2)X 0
5 (4)
5 5
5 A X 2 0 5 = 5 A(4)X 2
5 (5)
5 5
5 A X 0 1 5 5 A(5)X 0
Calcolando tali determinanti si ottiene:
(1)
(4)
(5)
(2A A + 2A )X = 0
(2)
2A X = 0
(3)
(4)
(5)
(2A A + 2A )X = 0,
1
0
1 .
0
1
"
la condizione rg AX
5 5 (3)
0 55 55 A X
(4)
0 55 = 55 A X
(5)
15 5A X
5
1 1 55
2 0 55 = 0.
0 15
= 2, cio`e
(0 = 0)
cio`e
x1 + x2 + x4 = 0
x1 x2 x4 = 0.
4.7
Definizione 4. Sia V un Kspazio vettoriale e sia T : V V un operatore lineare. Sia K. Diciamo che `e un autovalore di T se esiste un vettore non nullo v V tale che T (v) = v. Tale vettore v `e detto autovettore associato a . Linsieme degli autovalori di T si chiama spettro di T ed `e usualmente denotato (T ) [oppure T ].
[Si noti che abbiamo supposto v )= 0. Infatti, se accettassimo 0 come autovettore,
ogni scalare K sarebbe un autovalore di T [in quanto T (0) = 0 = 0, K]].
Per ogni K si consideri loperatore lineare T 1V : V V [cos` definito:
(T 1V )(v) = T (v) v, v V ]. Ovviamente:
`e autovalore di T Ker(T 1V ) )= ,0-.
22
Cap. IV
Definizione 5. Sia un autovalore di T . Si chiama autospazio di il sottospazio vettoriale Ker(T 1V ) di V . Tale sottospazio `e denotato con E [oppure
E(T )]. Ovviamente:
0
1
E = v V : T (v) = v .
La dimensione di E `e chiamata molteplicit`
a geometrica di ed `e denotata d
[oppure d()].
0 = s
0=T
e pertanto:
s
"!
"
i=1
s
!
i=1
ci v i =
#
ci v i =
s
!
i=1
s
!
i=1
s
!
i=1
s ci v i ,
ci T (v i) =
s ci v i =
s
!
i=1
s
!
i=1
i ci v i
i ci v i .
s ci v i =
s1
!
i=1
s1
!
i ci v i , da cui
i=1
(s i)ci v i = 0.
Poiche s )= i e poiche (per ipotesi induttiva) v 1 , . . . , v s1 sono linearmente indipendenti, allora c1 = . . . = cs1 = 0. Ne segue che anche cs v s = 0, cio`e anche cs = 0. Si conclude quindi che v 1 , . . . , v s sono linearmente indipendenti.
Proposizione 2. Siano 1 , . . . , s s autovalori distinti delloperatore lineare
T : V V . Per ogni i = 1, . . . , s, si scelgano nellautospazio E ni vettori lineari
mente indipendenti v i1 ,. . . ,v in [ovviamente ni d ]. Tutti i vettori scelti:
i
v 11 , . . . , v 1n , . . . , v i1 , . . . , v in , . . . , v s1 , . . . , v sn
1
23
i=1 j=1
aij v ij = 0.
ni
!
j=1
aij v ij.
la tesi `e ovvia. Per assurdo assumiamo che almeno due vettori wi non siano nulli.
s
!
Eliminati tutti gli eventuali vettori wi nulli, la condizione
wi = 0 fornisce una rei=1
0 1
Definizione 6. Sia T : V V un operatore lineare e sia ei
una base di V .
iI
0 1
Se ogni vettore ei `e un autovettore di T , diremo che ei
`e una base di autoiI
vettori di T . Diremo inoltre che T `e un operatore diagonalizzabile se esiste una base di autovettori di T .
"
#
n
Osservazione 8. (i ) Sia V = VK e sia
= e1 e2 . . . en una base di V . Sia
` del
T : V V un operatore lineare con matrice A in base
[cio`e T ( ) = A]. E
tutto evidente che:
`e una base di autovettori di T A `e una matrice diagonale.
In tal caso gli autovalori di T sono gli elementi (non necessariamente distinti) della
diagonale di A. Tale fatto spiega perche `e stato chiamato diagonalizzabile ogni operatore che ammette una base di autovettori.
(i ) Un operatore lineare pu`
o non ammettere basi di autovettori.
Ad
# esempio lo"
2
2
peratore lineare T :
24
Cap. IV
(ii )
s
!
i=1
i=1
d = dimK
i
s
!
i=1
E .
i
s
!
(iii ) T `e diagonalizzabile
i=1
d = n.
i
(ii ) Il risultato `e ovvio se s = 1. Sia s > 1 e supponiamo dimostrata luguaglianza per i primi s 1 autovalori, cio`e:
s1
s1
!
!
d = dimK
E .
i
i=1
i=1
Es = ,0-
s1
!
i=1
s1
!
Dunque s v = T (v) =
s1
!
i=1
i=1
ui ,
ui E
T (ui) =
s1
!
i=1
(1 i s 1).
i ui . Allora
s1
!
i=1
$s1
!
i=1
s u i
s1
!
i=1
Es , con
i ui = 0, cio`e
(iii ) (=). Basta scegliere una base di ogni autospazio E . Riunendo tali
i
basi si ottiene una base di autovettori.
s
!
(=). Per ipotesi, T `e diagonalizzabile. Dunque V =
E e quindi risulta: n = dimK
s
!
i=1
i=1
Per assurdo, siano , due autovalori distinti di T e siano u, v due corrispondenti autovettori. Ovviamente u e v sono linearmente indipendenti. Risulta:
25
4.8
5
a12
5 a11 x
5
a22 x
"
# 5 a21
P = det A xIn = 55 .
..
.
5 ..
5
an1
an2
Si osserva subito che P ha grado n e che tra gli n!
...
...
..
.
a1n
a2n
..
.
5
5
5
5
5.
5
5
5
. . . ann x
addendi di tale determinante
n"
#
6
[cfr. Def. II.10], soltanto uno ha grado n [ed `e laddendo
aii x ], mentre gli ali=1
= (1) x + (1)
n
(a11 + . . . + ann)x
n1
n1
+ ...... .
La somma degli elementi a11, a22 , . . . , ann [formanti la diagonale di A] viene chiamata traccia di A [ed `e denotata T r(A)]. Inoltre il termine noto di P `e
"
#
P (0) = det A 0In = det(A).
Risulta quindi dalle considerazioni precedenti:
P = (1) x + (1)
n
n1
n1
T r(A)x
+ . . . . . . + det(A).
Dim. Sia
Osserviamo preliminarmente che le matrici scalari commutano con ogni matrice quadrata (dello stesso ordine) [infatti risulta, c K e A n(K): (cIn)A = cA =
26
Cap. IV
A(cIn)].
Supponiamo che sia ! = C (con C GLn(K)). Allora, come gi`
a osservato
1
in . 4, risulta: A! = C AC. Ne segue:
" 1 #
#
#
1
1
1"
1"
A! xIn = C AC C C xIn = C AC C xIn C = C A xIn C.
Dal teorema di Binet (cfr. Prop. II.7(vii )):
"
#
"
#
"
#
1
det A! xIn = det(C ) det A xIn det(C) = det A xIn .
27
0
1
Dim. Sia v 1 , . . . , v d
una base dellautospazio E . Possiamo aggiungere a tale
0
.
.
.
B=
0
di T rispetto ad
0 . . . 0 b11
. . . 0 b21
.. . .
.
..
. ..
.
.
0 ... ...
0 ... 0 ...
`e
. . . b1t
. . . b2t
..
... ... .
... ...
0 0 . . . 0 bn1 . . . bnt
Calcolando il polinomio caratteristico P di T tramite B, si ottiene:
"
#
d
P = det B xIn = ( x) Q (con Q K[x]).
Pertanto d h .
h2
P = (1 x) 1 (2 x)
. . . (s x) s Q,
i=1
s
!
i=1
lora:
h = n], ali
i=1
(=). Poiche n =
s
!
i=1
i=1
hi
s
!
i=1
di = n, allora
s
!
i=1
d =
i
s
!
i=1
h e quindi (essendo
i
28
Cap. IV
portante risultato.
Teorema Fondamentale dellAlgebra. Ogni polinomio non costante in
no una radice in .
[x] ha alme-
i=1
Invece in [x] esistono anche polinomi irriducibili di grado 2 [ad esempio i po2
linomi x + a, a , a > 0], ma non esistono polinomi irriducibili di grado 3.
Infine in Q[x] esistono polinomi irriducibili di ogni grado 1.
[Per la dimostrazione di tali affermazioni rinviamo ad un qualsiasi testo di Algebra].
4
Esercizio 5. Sia T :
4
nica
di
, dalla matrice
1 1 2 a
0 0 2 b
A=
, con a, b, c .
0 0 1 c
0 0 0 0
(i ) Determinare i valori a, b, c per cui T `e diagonalizzabile.
(ii ) Per siffatti valori determinare una base
di autovettori di T e scrivere la matrice di T rispetto ad .
* * *
Soluzione. (i ) T ha polinomio caratteristico:
5
5
2
a 5
5 1 x 1
5
5
x
2
b 5
5 0
P =5
5 = x2(1 x)2
0 1x c 5
5 0
5
5
0
0
0
x
e dunque ha spettro (T ) = {0, 1}. Inoltre h0 = h1 = 2. Poiche P si fattorizza
linearmente e 1 d0 h0 = 2, 1 d1 h1 = 2, si ha:
T `e diagonalizzabile d0 = 2 e d1 = 2.
29
0 1 2 a
0 1 2 b
A I4 =
0 0 0 c
0 0 0 1
"
#
e si verifica subito che rg A I4 = 2, a, b, c, . Pertanto d1 = 2, a, b, c .
Concludiamo quindi che T `e diagonalizzabile b = 2c.
da cui si ottiene:
da cui si ottiene:
Una base
E1 . Pertanto:
x4 = 0,
1
0
1 0
1 a 2c 0 2
= C, con C =
.
0
c
0 1
0
1
0 0
Ovviamente, rispetto alla base , T ha matrice diagonale
0 0 0 0
0 0 0 0
D=
.
0 0 1 0
0 0 0 1
1