You are on page 1of 23

c 88-7999-005-5

Cap. 4
APPLICAZIONI LINEARI TRA SPAZI VETTORIALI
DI DIMENSIONE FINITA

4.1

Generalit`
a sulle applicazioni lineari.

Definizione 1. Siano V e W due Kspazi vettoriali e sia T : V W unapplicazione. T `e detta applicazione lineare (o omomorfismo tra spazi vettoriali ) se verifica le due seguenti condizioni:
T (u + v) = T (u) + T (v), u, v V ;

T (cv) = cT (v), v V, c K.

[Tali condizioni sono equivalenti allunica condizione:

T (au + bv) = aT (u) + bT (v), u, v V, a, b K].

Unapplicazione lineare biiettiva `e detta isomorfismo. Se, in particolare, W = V,


unapplicazione lineare T : V V `e detta operatore lineare (o endomorfismo).
Infine, un operatore lineare biiettivo `e detto automorfismo.
Presentiamo ora in forma sintetica alcune definizioni, osservazioni e risultati relativi alle applicazioni lineari.
(1) Sia T : V W unapplicazione lineare. Denotati con 0V e 0W i vettori nulli
di V e W , risulta: (cfr. Oss. I.11):
T (0V ) = 0W , T (v) = T (v), T (u v) = T (u) T (v), u, v V

Inoltre dalla Def. 1 segue subito che:


n
n
!
!
T ( ai v i) =
ai T (v i),
i=1

i=1

n
!

i=1

ai v i V .

(2) Se T : V W ed S : W U sono applicazioni lineari tra Kspazi vettoriali,


anche la loro composizione
S T : V U

`e unapplicazione lineare. Se inoltre T : V W `e un isomorfismo di Kspazi vettoriali, anche lapplicazione inversa


T

:W V

`e un isomorfismo di Kspazi vettoriali [cfr. Eserc. I.1].


7

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

(3) Se esiste un isomorfismo T : V W , i due K-spazi vettoriali V e W sono


detti isomorfi [e si scrive V
a di essere isomorfi `e una rela= W ]. La propriet`
zione di equivalenza nellinsieme dei Kspazi vettoriali.
"
#
= e1 ... en `e una base di V , lapplicazione:
n
"!
# "
#
n
: V K tale che
ei xi = x1 , ... , xn

(4) Se V = VK ed
n

i=1

[cio`e lapplicazione che associa ad un vettore le sue coordinate in base ] `e un isomorfismo di Kspazi vettoriali. Ne segue che tutti gli spazi vettoriali di dimensione n sono isomorfi tra loro.
(5) Se S, T : V W sono applicazioni lineari, sono definite le applicazioni somma
e moltiplicazione per uno scalare c K:
S + T : V W tale che (S + T )(v) = S(v) + T (v), v V ;
(cT ) : V W tale che (cT )(v) = c T (v), v V .

Si verifica subito che le due applicazioni S + T, cT sono applicazioni lineari.


Linsieme di tutte le applicazioni lineari da V a W [denotato HomK(V, W )] `e
dotato di struttura di Kspazio vettoriale (rispetto alle operazioni di somma e moltiplicazione per uno scalare sopra definite).
(6) Se W = V , il Kspazio vettoriale HomK(V, V ) degli endomorfismi di V [denotato anche End(V )] ha anche struttura di anello unitario (rispetto alla somma
ed alla composizione di endomorfismi). Tale anello non `e in generale n`e commutativo n`e integro.
(7) Se dimK(V ) = n, HomK(V, W ) `e isomorfo allo spazio vettoriale
(W )# [pro"
dotto cartesiano di n copie di W ]. Infatti, fissata una base
= e1 ... en di V ,
lapplicazione:
n

: HomK(V, W ) (W )

tale che:

"
#
(T ) = T (e1 ), ... , T (en) ,

T HomK(V, W ),

`e un isomorfismo di Kspazi vettoriali [cfr. Eserc. 9(i )].


Se poi dimK(W ) = m, allora [cfr. Eserc. 9(ii )]:
dimK(HomK(V, W )) = mn.

(8) Lo spazio vettoriale HomK(V, K) `e detto Kspazio vettoriale duale di V ed


`e denotato V . I suoi vettori sono detti funzionali lineari di V . Se dimK(V ) = n,
n
da (7) e (4) segue che V
=K
= V , tramite lisomorfismo:
n
"
#
!
1
: V V tale che: T T (e1 ), ... , T (en)
T (ei)ei , T V ,
i=1
"
#
[con
= e1 ... en base di V ].

4.2 Matrici di applicazioni lineari


c 88-7999-005-5
!
Si noti che dimK(V ) = dimK(V ) = n e che gli n funzionali lineari
i : V K tali che i(ej) = ij

( i, j = 1, ..., n)

costituiscono una base di V , detta base duale di


[cfr. Eserc. 10(i )].
Infine V = HomK(V , K) `e detto Kspazio vettoriale biduale di V ed `e canonicamente isomorfo a V [cfr. Eserc. 10(ii )].

4.2

Matrici di applicazioni lineari.

Sia T : V W unapplicazione tra Kspazi vettoriali. Sia dimK(V ) = n e


n
"
#
!
sia
= e1 e2 . . . en una base di V . Risulta, per ogni v =
ei xi V :
i=1

T (v) = T (e1)x1 + T (e2)x2 + . . . + T (en)xn.

Vogliamo riscrivere tale uguaglianza in forma matriciale. Consideriamo la seguente matrice-riga di vettori:
$
%
T ( ) = T (e1) T (e2) . . . T (en) 1,n(V ).

Utilizzando
le notazioni introdotte in III. 1, per ogni vettore v = x V , con
x1
x = : n,1(K), la precedente uguaglianza si riscrive nella forma:
xn

()

T ( x) = T ( )x.

Supponiamo ora dimK(W ) = m e scegliamo in W una base


Possiamo esprimere i vettori T (e1), ... , T (en) in base . Si ha:
T (e1) = a 1 , T (e2) = a 2 , . . . , T (en) = a n ,
con

a11
a12
a1n
a
a
a
a 1 = 21 , a 2 = 22 , . . . , a n = 2n
:
:
:
am1
am2
amn
Denotiamo con A la matrice
"
#
a 1 a 2 . . . a n m,n(K)

"
#
= f f ... f .
1

(K).

m,1

[A `e la matrice le cui colonne sono le coordinate (in base ) delle immagini (tramite T ) dei vettori della base ]. Si ha:
"
# "
#
"
#
T ( ) = T (e1) . . . T (en) = a 1 . . . a n = a 1 . . . a n = A.
Dunque risulta:
()

T ( ) = A,

10

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

detta formula di definizione dellapplicazione lineare T rispetto alle basi


La matrice A `e detta matrice dellapplicazione lineare T rispetto alle basi
In forma non compatta la () si scrive:

T (e1) = f a11 + f a21 + + f am1

1
2
m

T (e2) = f 1 a12 + f 2 a22 + + f m am2


(! )
..

T (en) = f a1n + f a2n + + f amn .


1

ed
ed

.
.

"
#
Osservazione 1. Siano u1 , . . . , ut V e sia U = u1 . . . ut
niamo:
"
#
T (U) = T (u1) . . . T (ut) 1,t(W ).

(V ). Po-

1,t

Sia U = D, con D n,t((K) matrice delle coordinate dei vettori u1 , . . . , ut in


base . Risulta (utilizzando ()):
"
# "
#
T ( D) = T (U) = T (u1) . . . T (ut) = T ( D(1)) . . . T ( D(t)) =
"
#
"
#
= T ( )D(1) . . . T ( )D(t) = T ( ) D(1) . . . D(t) = T ( )D.
Pertanto si ha, D

(K):

n,t

()

T ( D) = T ( )D.

Tale uguaglianza [che generalizza ()] verr`


a utilizzata spesso nel seguito (a cominciare dalla prossima osservazione) e vale anche se
non `e una base di V .
Osservazione 2. Siano V, W, U tre Kspazi vettoriali di dimensione finita. Se
T : V W ed S : W U sono applicazioni lineari, anche lapplicazione composta S T : V U `e lineare [cfr. 1.(2)].
Scelte in V, W, U rispettivamente le basi , , , supponiamo che le formule
di definizione di T ed S siano:
T ( ) = A e S( ) =

B.

Vogliamo determinare la matrice di S T rispetto a


e . Si ha, tenuto conto di
() e di Oss. III.1:
$
% $ "
#
#%
(S T )( ) = (S T )(e1) . . . (S T )(en) = S T (e1) . . . S(T (en) =
"
#
= S T ( ) = S( A) = S( )A = ( B)A = (BA).
Dunque:

(S T )( ) =

cio`e S T ha matrice BA rispetto alle basi

(BA),
e

Osservazione 3. Sia V = VK un Kspazio vettoriale. Siano


n

ed

due basi di

11

4.3 Equazioni di applicazioni lineari


c 88-7999-005-5
!

V e sia ! = C la formula del cambiamento di base da


a ! [con C GLn(K),
cfr. Oss. III.3].
Se 1V : V V `e loperatore identit`
a [cio`e 1V (v) = v, v V ], si ha:
1V ( ! ) =

= C,

e dunque la matrice C del cambiamento di base da


loperatore identit`
a 1V rispetto alle basi ! ed .

4.3

`e anche la matrice del-

Equazioni di applicazioni lineari.

Siano V = VK e W = WK due Kspazi vettoriali. Sia T : V W


unapplicazione lineare. Siano
ed
basi rispettivamente di V e W e sia
T ( ) = A la formula di definizione di T rispetto a tali basi.
Consideriamo
in tali

spazi
due generici vettori v = x V e w = y W [con
x1
y1
x = : ed y = : ] e supponiamo che risulti: T (v) = w. Vogliamo traxn
ym
durre questa uguaglianza vettoriale in forma matriciale. Si ha:
n

y = w = T (v) = T ( x) = T ( )x = Ax.
Ne segue:
()

y = Ax

e pertanto:
y = Ax.

Le () sono dette equazioni di T (rispetto alle basi


le () si scrivono, in forma non compatta:

y1 = a11 x1 + a12 x2 + + a1n xn

y2 = a21 x1 + a22 x2 + + a2n xn


(! )
..

ym = am1 x1 + am2 x2 + + amn xn.

ed

). Ovviamente

Osservazione 4. Si noti che la matrice dei coefficienti che compare in (! ) `e trasposta rispetto alla matrice dei coefficienti che compare in (! ). Nelle corrispondenti espressioni () e () ci`o corrisponde al fatto che in () A `e un fattore a destra mentre in () A `e un fattore a sinistra.
3

Esercizio 1. Sono "assegnati#due spazi "vettoriali V =#VK e W = WK , con basi rispettivamente


= e1 e2 e3 ed
= f f f f .
1
2
3
4
Scrivere le equazioni (rispetto alle basi
ed ) dellapplicazione lineare

12

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

T : V W cos` definita:

T (e1) = f ,
2

T (e2) = f f ,
1

T (e3) = f 2f .
2

* * * #
"
Soluzione. Si ha: T ( ) = T (e1) T (e2) T (e3) = A, con

0 1
0
1
1 0
A=
.
0 0 2
0 1 0


y1
x1
y

Pertanto, posto x = x2 ed y = 2 , T ha equazioni (rispetto a


y3
x3
y4



y1 = x2

y1
0 1
0

x1
y =x +x
1
y2 1 0
2
1
3
=
x2 , cio`e
y3
0 0 2

y
=
2x

3
3
x3

y4
0 1 0
y4 = x2 .

4.4

ed

):

Cambiamenti di base e matrici di applicazioni lineari.

Siano
ed ! due basi di V = VK , tali che ! = C (con C GLn(K)).
m
Siano poi
ed ! due basi di W = WK e sia ! = D (con D GLm(K)).
Sia ora T : V W unapplicazione lineare tale che:
n

T ( ) = A e T ( !) =

A! .

Vogliamo determinare le relazioni che sussistono tra le matrici A ed A! di T (in funzione di C e D).
Ricordiamo preliminarmente che (in base a ()): T ( C) = T ( )C. Si ha:
!

A! = T ( ! ) = T ( C) = T ( )C = ( A)C = AC = ( ! D )AC =

Dunque

A! =

D AC.

D AC e pertanto risulta:
1

()

A! = D AC.

Proposizione 1. Siano V = VK e W = WK due Kspazi vettoriali. Siano


A, A! m,n(K) . Le seguenti condizioni sono equivalenti:
(i ) Le matrici A, A! sono matrici di una stessa applicazione lineare T : V W
[rispetto ad opportune basi di V e di W ];
1
(ii ) Esistono C GLn(K) e D GLm(K) tali che A! = D AC.
n

13

4.4 Cambiamenti di base e matrici di applicazioni lineari


c 88-7999-005-5
!

[Si verifica subito che tali condizioni stabiliscono una relazione dequivalenza (detta
relazione di similitudine) nellinsieme
(K)].
m,n
` gi`
Dim. (i ) = (ii ). E
a stato dimostrato nelle considerazioni precedenti.
1
(ii ) = (i ). Sia A! = D AC. Fissate una base
di V ed una base
di
W , anche ! = C ed ! = D sono basi rispettivamente di V e W .
Sia T : V W lapplicazione lineare definita dalla formula di definizione
T ( ) = A. Risulta:
1

T ( ! ) = T ( C) = T ( )C = AC = ( ! D )AC =

(D AC) =

A! .

Dunque A ed A! sono matrici della stessa applicazione lineare T .


La formula () fornisce il cambiamento di matrice di unapplicazione lineare
T : V W , nel caso di cambiamenti di base simultanei nei due spazi vettoriali V e W . Esaminiamo alcuni casi particolari, tutti deducibili da ().
1

(i ) Sia ! =
[cio`e C = In ]. In tal caso: A! = D A.
!
(ii ) Sia
=
[cio`e D = Im ]. In tal caso: A! = AC.
(iii ) Sia V = W ,
=
ed ! = ! . In tal caso C = D e dunque ri1
sulta: A! = C AC.
"
#
3
Esercizio 2. In V = VK `e fissata una base
= e1 e2 e3 . Siano f , f , f
1
2
3
tre vettori linearmente indipendenti in V e sia C GL3(K) la matrice delle coordinate di tali vettori rispetto alla base .
Sia T : V V loperatore lineare di V cos` definito:

T (f 1) = e1 + e2

T (f f ) = e1 2e2
()
1
2

T (f f f ) = e1 + 2e2 + 2e3 .
1

(i ) Determinare la matrice A di T rispetto alla base


[cio`e la matrice A tale che
T ( ) = A].
(ii ) Determinare la matrice A! di T rispetto alla base
[cio`e la matrice A! tale
!
che T ( ) = A ].
(iii ) Determinare la matrice A!! di T rispetto alle basi
ed
[cio`e la matrice A!! tale che T ( ) = A!! ].
"
#* * *
Soluzione. Posto
= f f f , si ha:
= C [si osservi che
1
2
3
di V , in quanto C GL3(K)]. Si ponga:
"
#
!
= f
f f
f f f 1,3(V ).
1

Risulta:

`e una base

14

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

1
= D, con D = 0
0

1
1
0

Poiche det(D) )= 0, anche ! `e una base di V [e


nito dalle condizioni (*)]. Da tali condizioni segue:

1
T ( ! ) = B, con B = 1
0
1

1
1 .
1

dunque T `e univocamente defi


1 1
2 2 .
0 2
1

(i ) Si ha: T ( ) = T ( C ) = T ( )C = T ( ! D )C = T ( ! )D C =
1
1
1
= T ( ! )(CD) = ( B)(CD) = (B(CD) ). La matrice richiesta `e dunque:
1

A = B(CD) .
1

(ii ) Si ha: T ( ) = T ( ! D ) = T ( ! )D = ( B)D = (BD ) =


1
1
1
1
= ( C )(BD ) = (C BD ). La matrice richiesta `e dunque:
1

A! = C BD
1

(iii ) Si ha: T ( ) = T ( C ) = T ( )C = T ( ! D )C = T ( ! )D C =
1 1
1
1 1
1
1 1
= ( B)D C = ( C )BD C = (C BD C ). La matrice richiesta `e dunque:
1

A!! = C BD C .

4.5

Nucleo ed immagine di unapplicazione lineare.

Definizione 2. Sia T : V W unapplicazione lineare tra Kspazi vettoriali. Si


chiama nucleo (o kernel ) di T linsieme
0
1
Ker(T ) = v V : T (v) = 0 .
Si chiama immagine di T linsieme
0
1
Im(T ) = w W : w = T (v), v V .

In analogia a quanto gi`


a osservato per gli omomorfismi tra gruppi (cfr. Oss. I.4),
si verifica subito che Ker(T ) `e un sottospazio vettoriale di V e che Im(T ) `e un sottospazio vettoriale di W . Inoltre:
T `e iniettiva Ker(T ) = ,0-;

T `e suriettiva Im(T ) = W .

[Le applicazione lineari iniettive sono anche chiamate monomorfismi e quelle suriettive epimorfismi ]. La dimensione di nucleo ed immagine sono legate alla dimensione (finita) di V dalla seguente importante formula.
Teorema 1. Siano V, W due K-spazi vettoriali. Supponiamo che V abbia dimen-

15

4.5 Nucleo ed immagine di unapplicazione lineare


c 88-7999-005-5
!
sione finita n. Sia T : V W unapplicazione lineare. Risulta:
dimK Ker(T ) + dimK Im(T ) = n

[= dimK V ].

Dim. Sia dimK Ker(T


0 ) = s [e
1 dunque 0 s n]. Se s > 0, possiamo scegliere in
Ker(T ) una base u1 , ... , us . [Se invece s = 0, non scegliamo alcun vettore]. In
base al teorema di completamento (cfr. Teor. I.2), possiamo ottenere una base di V
aggiungendo ad u1 , ... , us altri n s vettori di V , cio`e:
v 1 , ... , v ns.

Se dimostriamo che

1
T (v 1), ... , T (v ns)

`e una base di Im(T ), allora dimK Im(T ) = n s ed il teorema `e dimostrato.


0
1
Verifichiamo che T (v 1), ... , T (v ns) `e un sistema di generatori di Im(T ). Sia
T (v) Im(T ). Risulta:
[infatti

v = a1 u1 + . . . + as us + b1 v 1 + . . . + bns v ns
1
u1 , ... , us , v 1 , ... , v ns `e una base di V ]. Ne segue:

T (v) = a1 T (u1) + . . . + as T (us) + b1 T (v 1) + . . . + bns T (v ns ) =


= a1 0 + . . . + as 0 + b1 T (v 1) + . . . + bns T (v ns ) ,T (v 1), ... , T (v ns)-.

ns
!
i=1

Verifichiamo ora che T (v 1), ... , T (v ns) sono linearmente indipendenti. Posto
ns
"ns
#
!
!
bi T (v i) = 0, segue che 0 = T
bi v i e dunque
bi v i Ker(T ). Allora:
i=1

ns
!
i=1

bi v i =

s
!

j=1

i=1

aj uj , cio`e b1 v 1 + . . . + bns v ns a1 u1 . . . as us = 0.

0
1
Poiche u1 , ... , us , v 1 , ... , v ns `e una base di V , allora b1 = . . . = bns = 0, come
richiesto
Osservazione 5. Sia T : V W unapplicazione
lineare,
0
1 con formula di definizione T ( ) = A. Si osserva subito che T (e1), ... , T (en) `e un sistema di generan
n
!
!
tori di Im(T ) [infatti, T (v) Im(T ), si ha: T (v) = T ( xi ei) =
xi T (ei)].
i=1

Pertanto (ricordando Def. I.16):


Inoltre, poiche W e
allora:
cio`e:

"
#
dimK Im(T ) = rg T (e1), ... , T (en) .

i=1

(K) sono spazi vettoriali isomorfi [tramite lisomorfismo

m,1

(K)

m,1

tale che

y y

( y

(K))],

m,1

"
#
"
#
"
#
rg T (e1), ... , T (en) = rg A(1) , ... , A(n)) = rg A(1) , ... , A(n) = rg(A),
dimK Im(T ) = rg(A).

16

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

Poiche ovviamente dimK Im(T ) non dipende dalla scelta delle basi
ed ,
possiamo affermare che il rango di ogni matrice A di T `e un invariante di T . Tale
invariante `e detto rango di T [denotato rg(T )]. Dunque:
rg(T ) = dimK Im(T ) = rg(A), per ogni matrice A di T .
Segnaliamo infine che dimK Ker(T ) `e detto anche nullit`
a di T . Il precedente
Teor. 1 `e quindi noto come teorema della nullit`
a + rango .
Segnaliamo due semplici conseguenze del Teor. 1.
Corollario 1. Se dimK V = dimK W = n e se T : V W `e unapplicazione lineare, le tre seguenti condizioni sono equivalenti:
(i ) T `e iniettiva (cio`e un monomorfismo);
(ii ) T `e suriettiva (cio`e un epimorfismo);
(iii ) T `e biiettiva (cio`e un isomorfismo).
Dim. Basta soltanto verificare che (i ) = (iii ) e (ii ) = (iii ). Dal Teor. 1:
n = dimK Ker(T ) + dimK Im(T ).
Se T `e iniettiva, dimK Ker(T ) = 0 e dunque dimK Im(T ) = n, cio`e T `e anche suriettiva. Se invece T `e suriettiva, dimK Im(T ) = n e dunque dimK Ker(T ) = 0,
cio`e T `e anche iniettiva.
Corollario 2. Se V, W sono due K-spazi vettoriali isomorfi ed entrambi di dimensione finita, allora dimK V = dimK W . [Il viceversa `e vero ed `e gi`a stato osservato (cfr. 1.(4))].
Dim. Sia T : V W un isomorfismo. Allora dimK Ker(T ) = 0 e dimK Im(T ) =
dimK W . Dal Teor. 1, dimK V = dimK Ker(T ) + dimK Im(T ) = 0 + dimK W =
dimK W .
Sia, al solito, V = VK e W = WK . Sia T : V W unapplicazione lineare.
Fissata una base
di V ed una base
di W , sia T ( ) = A. Vogliamo determinare equazioni cartesiane dei sottospazi vettoriali Ker(T ) ed Im(T ) rispetto a
tali basi.
n

(a) Equazioni cartesiane di Ker(T ). Per ogni v = x V si ha:


v Ker(T ) T (v) = 0 T ( x) = 0

Dunque Ker(T ) ha equazioni cartesiane (rispetto a

ed

Ax = 0 Ax = 0.

) date dal SLO(m, n, K)

17

4.5 Nucleo ed immagine di unapplicazione lineare


c 88-7999-005-5
!
AX = 0.
In base alla Prop. III.3, dimK Ker(T ) = n rg(A).

(b) Equazioni cartesiane di Im(T ). Procediamo come illustrato nella dimostrazione di Prop. III.4.
0Osserviamo preliminarmente che se Im(T ) = W , Im(T ) ha equazioni cartesiane 0 = 0 (cfr. Oss. III.3).

Sia quindi Im(T ) W [cio`e rg(A) < m]. Posto


y1
w = y W , con y = : m,1(K), si ha:
ym
w Im(T ) w = T (v), v V y = T ( x), x n,1(K)
y = Ax , x n,1(K) y = Ax , x n,1(K)
il SL(m, n, K) AX = y `e compatibile
"
#
rg A y = rg(A) [in base al teorema di Rouche-Capelli].

Posto rg(A) = r, si fissi in A una sottomatrice quadrata invertibile A! di ordine r. Risulta (in base al teorema di Kronecker):
"
#
"
#
rg A y = r sono nulli tutti i minori di A y di ordine r + 1 ottenuti
orlando A! con la colonna y.
Tali minori sono m r polinomi omogenei di primo grado in y1 , . . . , ym e dunque definiscono un SLO(m r, m, K), che denotiamo BY = 0. Si `e cos` provato:
w = y Im(T ) By = 0

e pertanto il SLO(m r, m, K)

BY = 0

fornisce equazioni cartesiane per Im(T ) (in base

).

[Si noti che m rg(B) = dimK Im(T ) = rg(A), cio`e rg(B) = m rg(A)].
3

Esercizio 3. Sia
T : V# W "lapplicazione#lineare definita rispetto ad asse"
gnate basi
= e1 e2 e3 ed
= f f f f , dalla matrice
1
2
3
4

1 0 2
0 1 3
A=
.
1 0 2
2 1 1
Determinare equazioni cartesiane ed una base di Ker(T ) e di Im(T ).

* * *
Soluzione. Ker(T ) ha equazioni cartesiane date dal SLO(4, 3, ) AX = 0.
Risulta: rg(A) = 2 [infatti: A(3) = 2A(1) 3A(2) ] ed il SLO AX = 0 `e equivalente al SLO(2, 3, ):

18

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

2 3
4
x1
x1 + 2x3 = 0
1 0 2
0
, cio`e
x2 =
0 1 3
0
x2 3x3 = 0.
x3
0
1
Una base di Ker(T ) `e ad esempio v = 2e1 + 3e2 + e3 .
2

Im(T ) `e un sottospazio 2dimensionale di W ed `e quindi rappresentabile con


il SLO(2, 4, ) ottenuto imponendo la condizione:
"
#
rg A y = 2.
Risulta [orlando A(1,2|1,2)]:
5
5 5
5 1 0 y1 5 5 1
5
5 5
"
#
rg A y = 2 55 0 1 y2 55 = 55 0
5 1 0 y3 5 5 2

0
1
1

5
4
y1 55
y1 + y 3 = 0
y2 55 = 0
2y1 + y2 y4 = 0.
y4 5

Un base di Im(T ) `e ad esempio {T (e1), T (e2)}.

4.6 Equazioni cartesiane dellimmagine e della controimmagine di


sottospazi vettoriali.
Definizione 3. Sia T : V W unapplicazione lineare tra Kspazi vettoriali. Sia
Z un sottospazio vettoriale di W . Si chiama controimmagine di Z linsieme
0
1
1
T (Z) = v V : T (v) Z .
Sia invece U un sottospazio vettoriale di V . Si chiama immagine di U linsieme
0
1
T (U ) = w W : w = T (u), u U .
1

Lasciamo al lettore le verifiche del fatto che T (Z) `e un sottospazio vettoriale


di V e che T (U ) `e un sottospazio vettoriale di W . In particolare si ha:
1

T (,0-) = Ker(T ) e T (V ) = Im(T ).


Supponiamo, come al solito, V = VK e W = WK . Fissate le basi
di V
ed
di W , sia T ( ) = A la formula di definizione di T . Vogliamo determi1
nare equazioni cartesiane di T (Z) e di T (U ) rispetto alle basi
ed .
n

(a) Equazioni cartesiane di T (Z). Se Z = W , risulta T (Z) = T (W ) = V e


1
dunque V = T (W ) ha equazioni cartesiane del tipo {0 = 0.
Assumiamo 0
quindi Z )=
1 W e poniamo dimK Z = s [e dunque 0 s < m].
Scelta una base z 1 , . . . , z s di Z, sia
"
#
z 1 . . . z s = D, con D m,s(K) [e rg(D) = s].
Si ha:

4.6 Equazioni cartesiane dellimmagine e della controimmagine di sottospazi vettoriali


c 88-7999-005-5
!

19

v = x T (Z) T (v) ,z 1 , . . . , z s-
T (v), z 1 , . . . , z s sono linearmente dipendenti
Ax , D(1) , . . . , D(s) sono linearmente dipendenti
"
#
"
#
rg Ax D(1) . . . D(s) = s rg Ax D = s.
"
#
La matrice Ax D `e di tipo (m, s + 1) [con s + 1 m]. Risulta:
"
#
rg Ax D = s sono nulli gli m s minori di ordine s + 1 che orlano un
minore non nullo di D di ordine s.
Lannullamento di tali minori definisce un SLO(m s, n, K), che denotiamo
BX = 0. Si `e dunque provato:
1

v = x T (Z) Bx = 0

e quindi T (Z) ha equazioni cartesiane BX = 0.

"
#
Osservazione 6. Se Z = ,0-, la condizione rg Ax D = s diventa rg(Ax) = 0,
1
cio`e Ax = 0. Dunque T (,0-) ha equazioni cartesiane AX = 0 [cio`e le equa1
zioni di Ker(T ): in effetti, come gi`a osservato, T (,0-) = Ker(T )].
(b) Equazioni cartesiane
di 1T (U ). Sia U un sottospazio vettoriale sdimensionale
0
di V , con base u1 , . . . , us [e dunque 0 s n]. Supponiamo che
"
#
u1 . . . us = C, con C n,s(K) [e rg(C) = s].

` noto (cfr. Oss. III.5) che il sottospazio U ha equazioni parametriche:


E

t1
X = CT , T = : s,1(K).
ts
Ne segue quindi che u = x U x = CT, T
comunque w = y W , risulta:

(K). Pertanto, preso

s,1

w = y T (U ) u U tale che w = T (u)


x U tale che y = T ( x) = Ax
x U tale che y = Ax
T s,1(K) tale che y = ACT
il SL(m, s, K) ACX = y `e compatibile
"
#
rg AC y = rg(AC).
Posto rg(AC) = q, il" sottospazio
T (U ) `e quindi definito annullando tutti i mi#
nori di ordine q + 1 di AC y che orlano un minore non nullo di AC (di ordine q) e coinvolgono la colonna y. Si ottengono in tal modo m q equazioni lineari, formanti un SLO(m q, m, K), che denotiamo BY = 0. Tale SLO fornisce
le equazioni cartesiane di T (U ).

20

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

0
1 0
1
Osservazione 7. Se U = V , si pu`
o assumere u1 , . . . , us = "e1 , . . . #, en e si ha
quindi C ="In (matrice
unit`
a di ordine n). La condizione rg AC y = rg(AC)
#
diventa: rg A y = rg(A), che fornisce le equazioni cartesiane di Im(T ) [come gi`a
abbiamo osservato nel precedente paragrafo].
Se infine U = ,0V -, allora T (U ) = ,0W-, che ha equazioni cartesiane:
0
y1 = y2 = . . . = ym = 0.
5

Esercizio
4. Sia T : V W" lapplicazione lineare definita [rispetto alle basi
"
= e1 e2 e3 e4) di V ed
= f f f f f ) di W ] dalla matrice
1
2
3
4
5

1 0 1 1
1 1 0 1

A = 0 1 1 2 .

2 0 0 4
0 0 1 1
(i ) Sia U il sottospazio vettoriale di V

avente base formata dai tre vettori

u1 = (1, 0, 0, 1), u2 = (2, 3, 1, 1), u3 = (0, 0, 1, 0).

Determinare equazioni cartesiane ed una base di T (U ).


1
(ii ) Posto Z = T (U ), calcolare equazioni cartesiane di T (Z).
*
Soluzione. (i ) Si ponga:

Risulta:

1
"
#
0
u1 u2 u3 = C, con C =
0
1

2 0
3 0
.
1 1
1 0

2 0 1
0 0 0

AC = 2 0 1 e rg(AC) = 2.

6 0 0
1 0 1
Allora
" T (U# ) ha equazioni ottenute orlando ad esempio la sottomatrice AC(1,5|1,3)
di AC y . Si ottiene:

5
5 5
5 5
5
5 2 1 y 5 5 2 1 y 5 5 2 1 y 5

y2 = 0
1 5
1 5
1 5
5
5
5
5 0 0 y 5 = 5 2 1 y 5 = 5 6 0 y 5 = 0, cio`e
y 1 y3 = 0
2 5
3 5
4 5
5
5
5

5 1 1 y 5 5 1 1 y 5 5 1 1 y 5

5
5
5
2y1 + y4 2y5 = 0.
Una base di T (U ) `e ottenuta risolvendo tale SLO(3, 5, ). Si ottiene ad esempio:
T (U ) = ,z 1 , z 2-, con z 1 = (1, 0, 1, 2, 0), z 2 = (1, 0, 1, 0, 1).
0
1
(ii ) Z = T (U ) ha base z 1 , z 2 . Risulta:

21

4.7 Autovalori e autovettori di operatori lineari


c 88-7999-005-5
!

"

z1

1
0

z 2 = D, con D = 1

2
0

Il sottospazio T (U ) `e ottenuto
"
#imponendo
[orlando la sottomatrice AX D (4,5|2,3)]:
5 (1)
5 5
5 A X 1 1 5 5 A(2)X 0
5 (4)
5 5
5 A X 2 0 5 = 5 A(4)X 2
5 (5)
5 5
5 A X 0 1 5 5 A(5)X 0
Calcolando tali determinanti si ottiene:

(1)
(4)
(5)

(2A A + 2A )X = 0
(2)

2A X = 0

(3)
(4)
(5)
(2A A + 2A )X = 0,

1
0

1 .

0
1

"
la condizione rg AX

5 5 (3)
0 55 55 A X
(4)
0 55 = 55 A X
(5)
15 5A X

5
1 1 55
2 0 55 = 0.
0 15

= 2, cio`e

(0 = 0)
cio`e
x1 + x2 + x4 = 0

x1 x2 x4 = 0.

Tale SLO si riduce al SLO(1, 4, ):


0
x1 x2 x4 = 0
1

(equazione cartesiana di T (Z)). Pertanto T (Z) ha dimensione 3.


1

Nota. Si osservi che T (Z) = U [cio`e T (T (U )) = U ]. Questultima uguaglianza


dipende dal fatto che Ker(T ) U . Infatti si verifica (cfr. Eserc. 19(ii )) che, per
1
ogni sottospazio vettoriale U di V , risulta: T (T (U )) = U Ker(T ) U .

4.7

Autovalori e autovettori di operatori lineari.

Definizione 4. Sia V un Kspazio vettoriale e sia T : V V un operatore lineare. Sia K. Diciamo che `e un autovalore di T se esiste un vettore non nullo v V tale che T (v) = v. Tale vettore v `e detto autovettore associato a . Linsieme degli autovalori di T si chiama spettro di T ed `e usualmente denotato (T ) [oppure T ].
[Si noti che abbiamo supposto v )= 0. Infatti, se accettassimo 0 come autovettore,
ogni scalare K sarebbe un autovalore di T [in quanto T (0) = 0 = 0, K]].
Per ogni K si consideri loperatore lineare T 1V : V V [cos` definito:
(T 1V )(v) = T (v) v, v V ]. Ovviamente:
`e autovalore di T Ker(T 1V ) )= ,0-.

22

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

Definizione 5. Sia un autovalore di T . Si chiama autospazio di il sottospazio vettoriale Ker(T 1V ) di V . Tale sottospazio `e denotato con E [oppure
E(T )]. Ovviamente:
0
1
E = v V : T (v) = v .
La dimensione di E `e chiamata molteplicit`
a geometrica di ed `e denotata d
[oppure d()].

Lemma 1. Siano 1 , . . . , s autovalori distinti delloperatore lineare T : V V


e siano v 1 , . . . , v s rispettivi autovettori. I vettori v 1 , . . . , v s sono linearmente indipendenti.
Dim. Dimostriamo tale risultato procedendo per induzione su s. Il risultato `e evidente se s = 1. Sia quindi s > 1 e supponiamo che gli autovettori v 1 , . . . , v s1
s
!
siano linearmente indipendenti. Posto
ci v i = 0, risulta:
i=1

0 = s
0=T

e pertanto:

s
"!

"

i=1
s
!

i=1

ci v i =

#
ci v i =
s
!

i=1

s
!

i=1
s
!

i=1

s ci v i ,

ci T (v i) =

s ci v i =

s
!

i=1

s
!

i=1

i ci v i

i ci v i .

Cancellando lultimo addendo delle due sommatorie [cio`e s cs v s ] si ottiene:


s1
!
i=1

s ci v i =

s1
!
i=1

s1
!

i ci v i , da cui

i=1

(s i)ci v i = 0.

Poiche s )= i e poiche (per ipotesi induttiva) v 1 , . . . , v s1 sono linearmente indipendenti, allora c1 = . . . = cs1 = 0. Ne segue che anche cs v s = 0, cio`e anche cs = 0. Si conclude quindi che v 1 , . . . , v s sono linearmente indipendenti.
Proposizione 2. Siano 1 , . . . , s s autovalori distinti delloperatore lineare
T : V V . Per ogni i = 1, . . . , s, si scelgano nellautospazio E ni vettori lineari
mente indipendenti v i1 ,. . . ,v in [ovviamente ni d ]. Tutti i vettori scelti:
i

v 11 , . . . , v 1n , . . . , v i1 , . . . , v in , . . . , v s1 , . . . , v sn
1

sono linearmente indipendenti.


Dim. Per provare che gli autovettori assegnati sono linearmente indipendenti, poniamo:

23

4.7 Autovalori e autovettori di operatori lineari


c 88-7999-005-5
!
ni
s !
!

i=1 j=1

aij v ij = 0.

Dobbiamo verificare che i coefficienti aij sono nulli. Per i = 1, . . . , s, definiamo:


wi =

ni
!

j=1

aij v ij.

[Si osservi che, se wi )= 0, wi `e un autovettore associato a i ]. Tenuto conto


del fatto che i vettori vi1 , . . . , v in sono linearmente indipendenti, per provare lasi
serto baster`a verificare che ogni wi = 0 (per i = 1, . . . , s).
s
!
Per ipotesi,
wi = 0. Se s = 1 oppure se s 1 dei vettori wi sono nulli,
i=1

la tesi `e ovvia. Per assurdo assumiamo che almeno due vettori wi non siano nulli.
s
!
Eliminati tutti gli eventuali vettori wi nulli, la condizione
wi = 0 fornisce una rei=1

lazione di dipendenza lineare tra autovettori associati ad autovalori distinti. Ci`


o `e assurdo in base al lemma precedente.

0 1
Definizione 6. Sia T : V V un operatore lineare e sia ei
una base di V .
iI
0 1
Se ogni vettore ei `e un autovettore di T , diremo che ei
`e una base di autoiI
vettori di T . Diremo inoltre che T `e un operatore diagonalizzabile se esiste una base di autovettori di T .
"
#
n
Osservazione 8. (i ) Sia V = VK e sia
= e1 e2 . . . en una base di V . Sia
` del
T : V V un operatore lineare con matrice A in base
[cio`e T ( ) = A]. E
tutto evidente che:
`e una base di autovettori di T A `e una matrice diagonale.

In tal caso gli autovalori di T sono gli elementi (non necessariamente distinti) della
diagonale di A. Tale fatto spiega perche `e stato chiamato diagonalizzabile ogni operatore che ammette una base di autovettori.
(i ) Un operatore lineare pu`
o non ammettere basi di autovettori.
Ad
# esempio lo"
2
2
peratore lineare T :

avente, rispetto ad una base


= e1 e2 , matrice
2
3
1 1
A=
,
0 1

ha soltanto autovalore = 1, con autospazio E1 = ,e1- [verificare] e quindi non `e


diagonalizzabile.
Come conseguenza della Prop. 2, abbiamo il seguente risultato.

24

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

Corollario 3. Sia V = VK e sia T : V V un operatore lineare. T ha al pi`


u
n autovalori distinti. Indicati con 1 , . . . , s tali autovalori [dunque s n], siano
E , , . . . , Es i relativi autospazi e d , . . . , ds le relative molteplicit`
a geometri1
1
che. Risulta:
s
!
(i ) s
d n.
n

(ii )

s
!

i=1

i=1

d = dimK
i

s
!

i=1

E .
i

s
!

(iii ) T `e diagonalizzabile

i=1

d = n.
i

Dim. La prima affermazione segue dal Lemma 1.


(i ) Segue direttamente dalla Prop. 2 e dal fatto che ogni d 1.
i

(ii ) Il risultato `e ovvio se s = 1. Sia s > 1 e supponiamo dimostrata luguaglianza per i primi s 1 autovalori, cio`e:
s1
s1
!
!
d = dimK
E .
i

i=1

Per concludere basta verificare che


$s1
!
i=1

i=1

Es = ,0-

[e applicare quindi la formula di Grassmann]. Sia infatti v


v=

s1
!
i=1

s1
!

Dunque s v = T (v) =
s1
!
i=1

i=1

ui ,

ui E

T (ui) =

s1
!
i=1

(1 i s 1).

i ui . Allora

s1
!
i=1

$s1
!
i=1

s u i

(s i)ui = 0, da cui u1 = . . . = us1 = 0, cio`e v = 0.

s1
!
i=1

Es , con

i ui = 0, cio`e

(iii ) (=). Basta scegliere una base di ogni autospazio E . Riunendo tali
i
basi si ottiene una base di autovettori.
s
!
(=). Per ipotesi, T `e diagonalizzabile. Dunque V =
E e quindi risulta: n = dimK

s
!

i=1

i=1

E . Da (ii ) segue lasserto.


i

Osservazione 9. Sia T : V V un operatore lineare tale che ogni vettore non


nullo di V sia un autovettore di T . Vogliamo dimostrare che T ammette un solo autovalore. [Tale risultato sar`
a utilizzato nel seguito (cfr. Cap. IX. 6)].

Per assurdo, siano , due autovalori distinti di T e siano u, v due corrispondenti autovettori. Ovviamente u e v sono linearmente indipendenti. Risulta:

25

4.8 Polinomio caratteristico di un operatore lineare di VK


c 88-7999-005-5
!

T (u + v) = T (u) + T (v) = u + v. Ma, per ipotesi, T (u + v) = c(u + v), con


c K. Pertanto u + v = c(u + v) e dunque (c)u + (c)v = 0. Ne segue: c = c = 0, cio`e = : assurdo.

4.8

Polinomio caratteristico di un operatore lineare di VKn .

Definizione 7. Sia V = VK e T : V V un operatore lineare. Scelta


" una base
#
di V , sia T ( ) = A. Denotata con x unindeterminata su K, det A xIn `e
un polinomio in x a coefficienti in K, detto polinomio caratteristico di A e denotato P o P (x) o PA(x).
n

Osservazione 10. Si noti che

5
a12
5 a11 x
5
a22 x
"
# 5 a21
P = det A xIn = 55 .
..
.
5 ..
5
an1
an2
Si osserva subito che P ha grado n e che tra gli n!

...
...
..
.

a1n
a2n
..
.

5
5
5
5
5.
5
5
5

. . . ann x
addendi di tale determinante
n"
#
6
[cfr. Def. II.10], soltanto uno ha grado n [ed `e laddendo
aii x ], mentre gli ali=1

tri hanno grado n 2. Dunque risulta (eseguendo semplici calcoli algebrici):


n"
#
6
P =
aii x + [ addendi di grado n 2 ] =
i=1

= (1) x + (1)
n

(a11 + . . . + ann)x

n1

n1

+ ...... .

La somma degli elementi a11, a22 , . . . , ann [formanti la diagonale di A] viene chiamata traccia di A [ed `e denotata T r(A)]. Inoltre il termine noto di P `e
"
#
P (0) = det A 0In = det(A).
Risulta quindi dalle considerazioni precedenti:
P = (1) x + (1)
n

n1

n1

T r(A)x

+ . . . . . . + det(A).

Proposizione 3. Sia T un operatore lineare di V = VK . Sia


una base di V e
sia T ( ) = A. Risulta: il polinomio caratteristico P `e un invariante di T [cio`e
non dipende dalla scelta della matrice A di T ].
n

Dim. Sia

unaltra base di V e sia T ( ! ) = ! A! . Bisogna verificare che


"
#
"
#
det A xIn = det A! xIn .

Osserviamo preliminarmente che le matrici scalari commutano con ogni matrice quadrata (dello stesso ordine) [infatti risulta, c K e A n(K): (cIn)A = cA =

26

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

A(cIn)].
Supponiamo che sia ! = C (con C GLn(K)). Allora, come gi`
a osservato
1
in . 4, risulta: A! = C AC. Ne segue:
" 1 #
#
#
1
1
1"
1"
A! xIn = C AC C C xIn = C AC C xIn C = C A xIn C.
Dal teorema di Binet (cfr. Prop. II.7(vii )):
"
#
"
#
"
#
1
det A! xIn = det(C ) det A xIn det(C) = det A xIn .

Abbiamo dimostrato che il polinomio caratteristico di un operatore lineare T


non dipende dalla matrice A usata per calcolarlo. Potremo quindi scrivere PT in
luogo di P o PA.
Anche i coefficienti del polinomio catteristico sono invarianti di T . Ci`
o significa ad esempio che la traccia ed il determinante di una matrice A di T non dipendono da A ma soltanto da T . Scriveremo quindi T r(T ) e det(T ) in luogo di
T r(A) e det(A).
Proposizione 4. Sia T un operatore lineare di V = VK . Risulta:
n

`e un autovalore di T `e una radice del polinomio caratteristico P di T .


Dim. Sia K. Fissata una base
di V , sappiamo che il sottospazio
"
# vettoriale Ker(T 1V ) ha equazioni cartesiane date dal SLO(n, n, K) A In X = 0.
Pertanto:
`e un autovalore di T Ker(T 1V ) )= ,0-
"
#
il SLO(n, n, K) A In X = 0 ammette autosoluzioni
"
#
"
#
rg A In < n 0 = det A In = P ().

Definizione 8. Sia P un polinomio in K[x]. Diciamo che K `e una radice


h
h+1
di P di molteplicit`
a h se (x ) `e un fattore di P mentre (x )
non `e
un fattore di P . Dunque h `e il massimo intero 0 per cui risulta:
h

P = (x ) Q, con Q K[x] e Q() )= 0.

[Ovviamente h = 0 non `e una radice di P ].


n
Sia ora un autovalore di un operatore lineare T di V = VK . La molteplicit`a di come radice del polinomio caratteristico P di T `e detta molteplicit`
a algebrica di ed `e denotata h (oppure h()).
Proposizione 5. Per ogni autovalore di un operatore lineare T di V = VK
risulta: d h .
n

27

4.8 Polinomio caratteristico di un operatore lineare di VK


c 88-7999-005-5
!

0
1
Dim. Sia v 1 , . . . , v d
una base dellautospazio E . Possiamo aggiungere a tale

base altri t = n d vettori w1 , . . . , wt V in modo che


"
#
= v 1 . . . v d w1 . . . wt

sia una base di V . La matrice

0
.
.
.
B=
0

di T rispetto ad
0 . . . 0 b11
. . . 0 b21
.. . .
.
..
. ..
.
.
0 ... ...
0 ... 0 ...

`e
. . . b1t
. . . b2t
..

... ... .

... ...

0 0 . . . 0 bn1 . . . bnt
Calcolando il polinomio caratteristico P di T tramite B, si ottiene:
"
#
d
P = det B xIn = ( x) Q (con Q K[x]).

Pertanto d h .

[Si noti che: d < h Q ha x come fattore Q() = 0.]


Osservazione 11. Supponiamo che in K[x] il polinomio caratteristico P di T si
fattorizzi nella forma:
h

h2

P = (1 x) 1 (2 x)

. . . (s x) s Q,

dove Q `e un polinomio costante oppure `e prodotto di un numero finito di polinomi


irriducibili in K[x], ciascuno di grado 2. Risulta:

(i ) Se Q non `e costante [cio`e se P ha almeno un fattore irriducibile di grado 2],


s
s
!
!
T non `e diagonalizzabile [infatti
d
h < n].
i=1

i=1

(ii ) Se Q `e costante [cio`e se P ha soltanto fattori lineari e dunque

s
!

i=1

lora:

h = n], ali

T `e diagonalizzabile d = h ( i = 1, .., s).


i

Dimostriamo tale affermazione.


s
s
!
!
(=). Risulta:
d =
h = n e quindi T `e diagonalizzabile (in base a
Cor. 3).

i=1

(=). Poiche n =

s
!

i=1

i=1

hi

s
!

i=1

di = n, allora

di hi ), allora d = h ( i = 1, .., s).


i

s
!

i=1

d =
i

s
!

i=1

h e quindi (essendo
i

Osservazione 12. Completiamo losservazione precedente citando il seguente im-

28

Cap. IV

APPLICAZIONI LINEARI TRA SPAZI VETTORIALI DI DIMENSIONE FINITA


c 88-7999-005-5
!

portante risultato.
Teorema Fondamentale dellAlgebra. Ogni polinomio non costante in
no una radice in .

[x] ha alme-

Ne segue subito che in


[x] i soli polinomi irriducibili sono quelli di grado 1.
n
Pertanto, se P `e il polinomio caratteristico di un operatore lineare T di V , P si
fattorizza linearmente, cio`e nella forma:
s "
s
#hi
6
!
P =
x i
(con
hi = n).
i=1

i=1

Invece in [x] esistono anche polinomi irriducibili di grado 2 [ad esempio i po2
linomi x + a, a , a > 0], ma non esistono polinomi irriducibili di grado 3.
Infine in Q[x] esistono polinomi irriducibili di ogni grado 1.
[Per la dimostrazione di tali affermazioni rinviamo ad un qualsiasi testo di Algebra].
4

Esercizio 5. Sia T :

4
nica
di
, dalla matrice

loperatore lineare definito, rispetto alla base cano-

1 1 2 a
0 0 2 b
A=
, con a, b, c .
0 0 1 c
0 0 0 0
(i ) Determinare i valori a, b, c per cui T `e diagonalizzabile.
(ii ) Per siffatti valori determinare una base
di autovettori di T e scrivere la matrice di T rispetto ad .
* * *
Soluzione. (i ) T ha polinomio caratteristico:
5
5
2
a 5
5 1 x 1
5
5
x
2
b 5
5 0
P =5
5 = x2(1 x)2
0 1x c 5
5 0
5
5
0
0
0
x
e dunque ha spettro (T ) = {0, 1}. Inoltre h0 = h1 = 2. Poiche P si fattorizza
linearmente e 1 d0 h0 = 2, 1 d1 h1 = 2, si ha:
T `e diagonalizzabile d0 = 2 e d1 = 2.

Calcoliamo d0 . Lautospazio E0 = Ker(T ) ha equazioni cartesiane date dal


SLO(4, 4, ) AX = 0. Dunque d0 = dimK E0 = 4 rg(A). Si osserva subito che 2 rg(A) 3. Scelta ad esempio la sottomatrice A(1, 2|2, 3), si ha:
5
5 5
5
5 1 1 2 5 5 1 2 a 5
4
5
5 5
5
(0 = 0)
5
5
5
5
rg(A) = 2 5 0 0 2 5 = 5 0 2 b 5 = 0
b 2c = 0
50 0 15 5 0 1 c5
e pertanto:
d0 = 2 b = 2c.

4.8 Polinomio caratteristico di un operatore lineare di VK


c 88-7999-005-5
!

29

Calcoliamo ora d1 . Lautospazio E1 = Ker(T 1 4 ) ha equazioni carte"


#
siane date dal SLO(4, 4, ) A I4 X = 0. Si ha:

0 1 2 a
0 1 2 b
A I4 =

0 0 0 c
0 0 0 1
"
#
e si verifica subito che rg A I4 = 2, a, b, c, . Pertanto d1 = 2, a, b, c .
Concludiamo quindi che T `e diagonalizzabile b = 2c.

(ii ) In A poniamo b = 2c e calcoliamo una base per gli autospazi E0 ed E1 .


Le equazioni cartesiane di E0 sono date dal SLO(2, 4, ):
4
x1 x2 + 2x3 + ax4 = 0
x3 + cx4 = 0,

da cui si ottiene:

E0 = ,(1, 1, 0, 0), (0, a 2c, c, 1)-.

Le equazioni cartesiane di E1 sono date dal SLO(2, 4, ):


4
x2 + 2x3 + ax4 = 0

da cui si ottiene:
Una base
E1 . Pertanto:

x4 = 0,

E1 = ,(1, 0, 0, 0), (0, 2, 1, 0)-.

di autovettori di T `e quindi formata riunendo le basi di E0 ed

1
0
1 0
1 a 2c 0 2
= C, con C =
.
0
c
0 1
0
1
0 0
Ovviamente, rispetto alla base , T ha matrice diagonale

0 0 0 0
0 0 0 0
D=
.
0 0 1 0
0 0 0 1
1

[Si verifichi infatti che risulta: C AC = D (ovvero CD = AC)].

You might also like