You are on page 1of 26

c 88-7999-003-9

Cap. 2
MATRICI E SISTEMI DI EQUAZIONI LINEARI

2.1

Matrici.

Definizione 1. Sia K un campo e siano m, n due interi positivi. Una matrice


A a valori in K, ad m righe ed n colonne [cio`e di tipo (m, n)] `e un insieme ordinato di mn elementi di K, disposti su m righe ed n colonne:

a11 a12 . . . a1n


a22 . . . a2n
a
A = 21
.
... ... ... ...
am1 am2 . . . amn
Linsieme delle matrici (a valori in K) ad m righe ed n colonne verr`
a indicato con
(K).
Ovviamente
(K)
`
e
identificabile
con
K.
m,n
1,1
Sia A m,n(K). Per abbreviare le notazioni, scriveremo talvolta A = (aij ).
Lelemento aij [situato sulla i-esima riga e sulla j-esima colonna di A (per
i = 1, . . . , m, j = 1, . . . , n)] sar`
a talvolta denotato anche (A)ij . Inoltre indiche'
(
(i)
remo con A
la iesima riga ai1 ai2 . . . ain di A e con A(j) la j-esima colon

(1)
a1j
A
(2)
a2j
'
( A

na . di A. Pertanto: A = A(1) A(2) . . . A(n) = ..


.
..
.
(m)
A
amj
n

Osservazione 1. Per ogni intero n 1, consideriamo il prodotto cartesiano K


di n copie di K. Ovviamente esiste una corrispondenza biunivoca tra gli insien
mi K ,
1,n(K) e
n,1(K).
Si vedr`
a presto [cfr. Oss. 3] che `e conveniente identificare K n con
(K),
n,1
'
(
n
cio`e identificare
la
n-pla
a
=
a
,
...
,
a

K
con
la
corrispondente
matrice
co1
n

a1

lonna a = ... n,1(K). Denoteremo le matrici colonna con lettere in gras-

an
setto e le n-ple con lettere sottolineate; tuttavia alcune volte (soprattutto negli ultimi capitoli) per non appesantire le notazioni indicheremo matrici colonna ed nple nello stesso modo.
7

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Definizione 2. Sia A m,n(K). Si chiama matrice trasposta di A la matrice B n,m(K) cos` definita:
bij = aji ,

i = 1, . . . , n, j = 1, . . . , m.

La matrice B verr`
a denotata con tA. Ovviamente t(tA) = A. Inoltre:
(i)

(tA)

(j)

= t(A(i)) e (tA)(j) = t (A ).

Infatti:

a
1i
a2i
a2i . . . ami ) =
..
.
t

(i)

(tA)

'
( '
= bi1 bi2 . . . bim = a1i

ami

in modo analogo si verifica laltra uguaglianza.

t
= (A );
(i)

Definizione 3. In
(K) sono definite le due operazioni di somma di matrim,n
ci e di moltiplicazione di una matrice per uno scalare:
+:

(K)

m,n

:K

(K)

m,n

(K) tale che:

m,n

(A, B) A + B, con (A + B)ij = (A)ij + (B)ij ;


(K)

(K) tale che:

m,n

m,n

(c, A) cA, con (cA)ij = c(A)ij .

Proposizione 1. Linsieme m,n(K), dotato delle operazioni di somma e moltiplicazione per uno scalare, `e un K-spazio vettoriale di dimensione mn.
Dim. Si osservi che lelemento neutro della somma `e la matrice nulla 0 [tale che
0ij = 0, i, j]; lopposto della matrice A `e la matrice A [tale che (A)ij =
(Aij ), i, j]. Le verifiche degli assiomi di K-spazio vettoriale sono lasciate al lettore.
Infine, per verificare che
m,n(K) ha dimensione mn, basta determinarne una
hk
base. Per h = 1, . . . , m e k = 1, . . . , n, consideriamo le mn matrici E m,n(K)
cos` definite:
)
0 se (i, j) (= (h, k),
hk
(E )ij =
1 se (i, j) = (h, k)
hk

hk

[in altri termini, E


ha un unico elemento non nullo, cio`e (E )hk = 1]. Si osserva subito che, A = (aij ) m,n(K), risulta:
m *
n
*
ij
A=
aij E
i=1 j=1

[e dunque le mn matrici E

hk

formano un sistema di generatori di

(K)]. Inoltre:

m,n

2.1 Matrici
c 88-7999-003-9
!
m *
n
*

i=1 j=1

aij E

ij

= 0 = aij = 0 ( i = 1, . . . , m; j = 1, . . . , n)
hk

[e dunque le nm matrici E
sono linearmente indipendenti]. Pertanto tali matrici formano una base di
(K).
Tale base `e detta base canonica di
(K).
m,n
m,n
Definizione 4. Una matrice' A m,n(K) (`e detta matrice quadrata (di ordine n) se m = n. La npla a11 , a22 , . . . , ann `e detta diagonale di A. Linsieme
a indicato, pi`
u semplicemente, con
n,n(K) verr`
n(K).
Una matrice quadrata A = (aij )
e detta triangolare superiore
n(K) `
[rispett. triangolare inferiore] se aij = 0, i > j [rispett. aij = 0, i < j].
Una matrice quadrata A n(K) `e detta matrice diagonale se `e triangolare superiore ed inferiore [cio`e se aij = 0, i (= j] ed una matrice diagonale A `e detta matrice scalare se risulta: a11 = a22 = = ann . Una particolare matrice scalare `e la matrice unit`
a In , tale che a11 = = ann = 1.
Infine, una matrice quadrata A n(K) `e detta simmetrica se A = tA [cio`e
se aij = aji ] ed `e detta antisimmetrica se A = (tA) [cio`e se aij = aji ].
b
1

b2

Definizione 5. Se A = a1 a2 . . . an 1,n(K) e B =
..
.
bn
finisce prodotto (righe per colonne) di A per B lelemento
b
'

(K), si de-

n,1

( b2

AB = a1 a2 . . . an
.. = a1 b1 + a2 b2 + . . . + an bn K.
.
'

bn

Pi`
u generalmente, se A m,n(K) e B n,p(K), si chiama matrice prodotto
(righe per colonne) di A per B la matrice:
(1)

(1)
(1)
A B(1) A B(2) . . . A B(p)
(2)

(2)
(2)
A B(1) A B(2) . . . A B(p)
m,p(K),
AB =

..
..
..
..

.
.
.
.
(m)
(m)
(m)
A B(1) A B(2) . . . A B(p)
(i)

dove A B(j) =

n
*

k=1

aik bkj [per i = 1, . . . , m, j = 1, . . . , p].

[Si noti che il prodotto AB `e definito soltanto se le colonne di A sono quante le righe di B. Ovviamente AB `e sempre definito se A e B sono matrici quadrate dello stesso ordine].

10

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Proposizione 2. (i ) Il prodotto righe per colonne `e associativo, cio`e:


(AB)C = A(BC),

(K), B

m,n

(ii ) Valgono le seguenti propriet`


a:

(K), C

n,p

(A + B)C = AC + BC, A, B m,n(K), C n,p(K);


A(B + C) = AB + AC, A m,n(K), B, C n,p(K);
AIn = A = Im A, A m,n(K);
(cA)B = c(AB) = A(cB), c K, A m,n(K), B
t
(A + B) = tA + tB, A, B m,n(K);
t
(AB) = tB tA, A m,n(K), B n,p(K).

(K).

p,q

(K);

n,p

(iii ) Per ogni intero n 1,


e un anello unitario [non commutativo, se
n(K) `
n 2], rispetto alla somma ed al prodotto righe per colonne.
Dim. Per (i ) e (ii ) cfr. Eserc. 4, 6.
(iii ) Dalla Prop. 1, ( n(K), +) `e un gruppo commutativo. Da (i ), il prodotto
righe per colonne `e associativo; da (ii ), valgono le propriet`
a distributive (destra e sinistra) ed esiste un elemento neutro (la matrice unit`
a In ). Pertanto
e un an(K) `
nello unitario. Per n = 1, tale anello si identifica al campo K. Resta da verificare che, per ogni n 2, tale anello non `e commutativo. Infatti, considerate ad esem12
21
pio le due matrici E e E , risulta:
12

E E

21

11

21

= E , mentre E E

12

22

=E .

Osservazione 2 Consideriamo in
n(K) il sottoinsieme GLn(K) delle matrici invertibili, cio`e:
+
,
GLn(K) = A n(K) : B n(K) tale che AB = In = BA .

Si verifica facilmente che GLn(K) `e un gruppo rispetto al prodotto righe


per colonne. Tale gruppo `e detto gruppo generale lineare di ordine n su
K. Se A GLn(K) e se AB = In = BA, la matrice B `e la matrice inver1
sa di A (rispetto al prodotto righe per colonne) ed `e denotata A .
Lasciamo al lettore la verifica delle seguenti propriet`
a:
1

(i ) A1 , A2 GLn(K) risulta: (A1 A2 )

= A2 A1 .
1

(ii ) A GLn(K), se AB = In , allora BA = In e dunque B = A .


1
1
(iii ) A GLn(K) risulta: tA GLn(K) e (tA) = t(A ).
1
1
(iv ) A GLn(K) e c K, c (= 0, risulta: (cA) = 1c A . In particola1
1
re (A) = (A ).
Definizione 6. Una matrice A

(K) `e detta ortogonale se risulta:

A A = In = A tA [cio`e A1 = tA].

11

2.1 Matrici
c 88-7999-003-9
!

Linsieme delle matrici ortogonali `e denotato On(K). Si verifica facilmente che tale
insieme `e un sottogruppo di GLn(K), detto gruppo ortogonale di ordine n su
K.
Nel Cap. VI sar`a necessario conoscere gli elementi del gruppo O2( ). Anticipiamo il seguente risultato.
Proposizione 3. Il gruppo O2( ) `e costituito da tutte e sole le matrici:
.
.
cos sen
cos sen
R =
, S =
, .
sen cos
sen cos
Dim. Si verifica (con un semplice calcolo diretto) che, :
R tR = In = tR R

S tS = In = tS S
.
a b
Viceversa, si consideri unarbitraria matrice A =
O2( ). Vogliamo
c d
verificare che A = R oppure A = S , . Per definizione:
2
2
2
2

a +c =1=a +b
A O2( ) tA A = In = A tA
ab + cd = 0 = ac + bd

2
2
2
2
b +d =1=c +d .
2

Dalle prime due equazioni segue: b = c . Si hanno quindi due casi:


(i ) b = c;

(ii ) b = c.

Nel caso (i ), dalle seconde due precedenti equazioni segue che (a+d)c = 0 e dunque si hanno due possibilit`
a:
(i ) c = 0;
Nel caso (i ) si ha:

(i) a + d = 0.

.
a 0
2
2
, con a = d = 1
0 d
e pertanto A `e una delle seguenti quattro matrici:
.
.
.
1 0
1 0
1 0
1
()
,
,
,
0 1
0 1
0 1
0
A=

Nel caso (i) si ha:

A=

.
a b
2
2
, con a + b = 1.
b a

.
0
.
1

Veniamo al caso (ii ). Procedendo come sopra, si ottiene: (a d)c = 0 e dunque si hanno ancora due possibilit`
a:
(ii ) c = 0;
Nel caso (ii ) si riottiene:

(ii) a d = 0.

12

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

A=

.
a 0
2
2
, con a = d = 1
0 d

e pertanto A `e ancora una delle quattro matrici (). Nel caso (ii) si ha:
.
a c
2
2
A=
, con a + c = 1.
c a

Si osservi che le quattro matrici () si riottengono come casi particolari tra le


2
matrici ottenute nei casi (i) e (ii) [ponendo b = c = 0 e a = 1]. Pertanto
[indicando c con b nel caso (ii)] possiamo concludere che, A O2( ):
.
.
a b
a b
2
2
A=
oppure A =
, con a + b = 1.
b a
b a
2

Poiche a + b = 1,

2.2

tale che (a, b) = (cos , sen ): ne segue lasserto.

Sistemi di equazioni lineari. Lalgoritmo di GaussJordan

Definizione 7. Un sistema di m equazioni lineari in n indeterminate


x1 , x2 , . . . , xn , a valori in un campo K [abbreviato SL oppure SL(m, n, K)] `e
un insieme di m equazioni del tipo:

a11 x1 + a12 x2 + . . . + a1n xn = b1

a x + a x + ... + a x = b
21

22

2n

...

am1 x1 + am2 x2 + . . . + amn xn = bm ,


o (in forma abbreviata):
) n
*
aij xj = bi [i = 1, . . . , m],
j=1

dove gli elementi aij , bi K sono detti rispettivamente coefficienti e termini noti delle equazioni del SL. Si chiama soluzione di tale SL ogni n
n
pla z = (z1 , z2 , . . . , zn ) K tale che:
) n
*
aij zj = bi [i = 1, . . . , m]
j=1

Un SL privo di soluzioni `e detto incompatibile; altrimenti `e detto compatibile o


risolubile.
Un SL(m, n, K) `e detto omogeneo [abbreviato SLO(m, n, K)] se i suoi termini noti sono tutti nulli. Ovviamente un SLO `e sempre compatibile: infatti ammette come soluzione la npla nulla 0 = (0, 0, . . . , 0), detta soluzione banale. Le altre sue (eventuali) soluzioni sono dette autosoluzioni .
Infine, assegnato un SL(m, n, K), sostituendo i termini noti con 0, si ottiene un SLO(m, n, K), detto sistema lineare omogeneo associato al SL dato.

13

2.2 Lalgoritmo di GaussJordan


c 88-7999-003-9
!

Osservazione 3. Con il prodotto righe per colonne `e possibile ottenere una scrittura compatta dei sistemi di equazioni lineari. Assegnato infatti il SL(m, n, K):
) n
*
aij xj = bi [i = 1, . . . , m],
j=1

x1

indichiamo con X la colonna ... delle indeterminate, con A = (aij ) m,n(K)
xn

b1

la matrice dei coefficienti del SL e con b = ... m,1(K) la colonna dei terbm
mini noti. Eseguendo il prodotto righe per colonne delle matrici A ed X, si ha:
a x + + a x b
1n n
11 1
1
a21 x1 + + a2n xn b2
= . = b.
AX =
..

.
.
.
am1 x1 + + amn xn
bm
Pertanto il SL assegnato si pu`o scrivere nella forma:
'

AX = b .

La matrice A b m,n+1(K) `e detta matrice completa (o matrice orlata) del SL AX = b e lo individua completamente. Esiste un ovvia corrispondenza biunivoca tra m,n+1(K) e linsieme dei SL(m, n, K).
'
(
` evidente che le soluzioni z = z , ... , z K n del SL(m, n, K) AX = b
E
1
n

z1
..
corrispondono biunivocamente alle matrici colonna z = . n,1(K) tali che
zn
n
Az = b. [Per tale motivo `e opportuno identificare K con
(K), cfr. Osn,1
s. 1].
'
(
Si osservi infine che ogni soluzione z = z1 , ... , zn del SL AX = b esprime b come combinazione lineare delle colonne
diA. Infatti risulta:
z
n
'
( .1 *
b = Az = A(1) ... A(n) .. =
zi A(i) .
zn

i=1

Proposizione 4. Sia AX = 0 un SLO(m, n, K). Linsieme 0 delle sue soluzion


ni `e un sottospazio vettoriale di K .
Dim. Basta verificare che, y, z 0 e a, b K, si ha: ay + bz 0 .
Infatti [indicate con y e z le colonne corrispondenti a y, z] risulta:
A(ay + bz) = A(ay) + A(bz) = a(Ay) + b(Az) = a0 + b0 = 0.

14

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Dunque ay + bz 0 .
Proposizione 5. Sia AX = b un SL(m, n, K) e sia linsieme delle sue soluzioni. Si indichi con 0 linsieme delle soluzioni del SLO associato AX = 0. Se
`e non vuoto [cio`e se il SL `e compatibile], risulta, z 0 :
3
4
= z 0 + 0
= {z 0 + y, y 0} .
Ne segue che gli insiemi e 0 sono in corrispondenza biunivoca.

Dim. (). Sia z [e quindi Az = b]. Poiche Az 0 = b, allora:


'
(
A z z 0 = Az Az 0 = b b = 0
e dunque z z 0 0. Pertanto z = z 0 + (z z 0) z 0 + 0 .
(). Verifichiamo che, y 0 , z 0 + y . Infatti:
'
(
A z 0 + y = Az 0 + Ay = b + 0 = b.

Lultima affermazione `e ovvia.


stabilisce una biiezione da 0 a .

Infatti lapplicazione y z 0 + y ( y 0)

Osservazione 4. Sia AX = b un SL compatibile non omogeneo. In tal can


so linsieme delle sue soluzioni non `e mai un sottospazio vettoriale di K [infatn
ti 0 ( ] ma `e in corrispondenza biunivoca con un sottospazio vettoriale di K [infatti `e in corrispondenza biunivoca con 0 ].
Poiche non `e uno spazio vettoriale, non ha diritto ad una dimensione;
tuttavia possiamo attribuirgli in un certo senso la dimensione di 0 . Precisamente, se
t
dim(0 ) = t, diremo che il SL AX = b (se compatibile) ha soluzioni . In par0
ticolare, se 0 = {0}, ha ununica soluzione [e pertanto: = 1].
Vogliamo infine rilevare che, in base alla Prop. 5, per individuare tutte le soluzioni di un SL compatibile `e sufficiente calcolarne una e sommare ad essa tutte le soluzioni del SLO associato.
Definizione 8. Siano AX = b e A" X = b " due SL aventi lo stesso numero n di indeterminate. Tali SL sono detti equivalenti se hanno le stesse soluzioni (cio`e = " ).
` evidente che essere equivalenti `e una relazione di equivalenza nellinsieE
me dei SL ad n indeterminate (e a valori in K).
Vogliamo ora descrivere un procedimento per la risoluzione dei SL, detto algoritmo di GaussJordan. Cominciamo con una definizione.

15

2.2 Lalgoritmo di GaussJordan


c 88-7999-003-9
!

Definizione 9. Un SL(m, n, K) AX = b `e detto a gradini se verifica le seguenti tre condizioni:


m n; aij = 0, se i > j; aii (= 0, i = 1, . . . , m.

La matrice A di ogni SL a gradini `e dunque della forma:


a
... ... ... ...
11
0 a22 . . . . . . . . .
A=
..
..
..
..
.
.
.
.
.
0
0
0 amm . . .

Proposizione 6. Ogni SL(m, n, K) a gradini AX = b `e compatibile ed ha


soluzioni.

nm

'
(
Dim. Se m = n, il SL assegnato ha ununica soluzione x = x1 , ... , xn , che `e ottenuta in questo modo: dallultima equazione del sistema [cio`e ann xn = bn ] si ottiene la componente xn ; sostituendo nella penultima equazione tale valore di xn si ottiene la componente xn1 e, procedendo in maniera analoga, si calcolano successivamente le restanti componenti xn2 , . . . , x2 , x1 .
Sia ora m < n. Se alle ultime n m indeterminate xm+1 , . . . , xn si assegnano valori arbitrari in K, ad esempio t1 , . . . , tnm , si ottiene un SL(m,
m, K)
'
(
[ancora a gradini] che, per quanto sopra osservato, ha ununica soluzione x1 , ... , xm .
Dunque:
'
(
x = x1 , ... , xm , t1 , . . . , tnm

`e una soluzione del SL(m, n, K) assegnato (che `e quindi compatibile). Abbiamo inm
noltre costruito unapplicazione : K
tale che:
'
(
'
(
: t1 , . . . , tnm x = x1 , ... , xm , t1 , . . . , tnm .
nm

Tale applicazione `e biunivoca. Infatti lapplicazione z (zm+1 , ... , zn) K


`e inversa di [in quanto ogni SL(m, m, K) a gradini ha ununica soluzione].
In base alla definizione introdotta nellOss. 4, per dimostrare che il SL assegnato
nm
ha
soluzioni, occorre ancora verificare che [indicato con 0 lo spazio vettoriale delle soluzioni del SLO AX = 0 associato al SL dato] risulta:
nm

dim(0) = n m.

Indichiamo con 0 : K
0 la corrispondenza biunivoca definita [in modo analogo a ] a partire dal SLO AX = 0. Indichiamo inoltre con e1 , ... , enm i vettori della base canonica di K
vettori:

nm

. Per concludere, baster`


a verificare che gli n m

0 (e1), ... , 0 (enm)


formano una base di 0 . Lasciamo tale verifica al lettore [cfr. Eserc. 11].

16

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Il procedimento di risoluzione di GaussJordan consiste nel trasformare (se possibile) un assegnato SL(m, n, K) AX = b in un SL a gradini ad esso equivalente [che verr`
a poi risolto come gi`a visto nella Prop. 6]. Per trasformare il SL si fa ricorso a tre tipi di operazioni sulle equazioni del SL, dette operazioni elementari (sulle equazioni), e cio`e:
I operazione elementare: scambio di posizione tra due equazioni del SL;
II operazione elementare: sostituzione di unequazione con un multiplo non nullo della stessa equazione;
III operazione elementare: sostituzione di unequazione con la stessa equazione sommata ad un multiplo di unaltra.
` evidente che tali operazioni trasformano il SL in un altro ad esso equivaE
lente. Se' poi al( sistema assegnato AX = b si sostituisce la sua matrice completa M = A b , le tre operazioni elementari (sulle equazioni) si trasformano nelle corrispondenti operazioni elementari di riga, che indicheremo schematicamente come segue:
(i)

(j)

I[M M ];
(i)
(i)
II[M cM ], con c (= 0;
(i)
(i)
(j)
III[M M + cM ], con i (= j e c K.

(i)

Ad esempio, loperazione III sopra considerata sostituisce alla riga M


la ri(i)
(j)
ga M + cM
[ovvero sostituisce alla iesima equazione la somma della i
esima con la jesima moltiplicata per c]. Per semplificare le notazioni, negli esercizi denoteremo tale operazione con III[(ia) (ia) + c(j a)] [ed useremo analoghe notazioni per le altre due operazioni].
Descriviamo ora lalgoritmo di GaussJordan, suddividendolo in quattro passi successivi.
1 passo. Si elimina ogni eventuale riga nulla di M [corrispondente allequazione banale 0 = 0].
2 passo. Si fa in modo [procedendo eventualmente ad uno scambio tra le colonne di A] che risulti M(1) (= 0 (cio`e A(1) (= 0). Ci`
o pu`
o essere ottenuto scambiando ad esempio la colonna nulla A(1) con la prima colonna A(i) (= 0. Si osservi che tale scambio di colonne corrisponde ad uno scambio di variabili.
3 passo. Si fa in modo che risulti a11 = 1. A tale scopo, se a11 = 0 e ad e(1)
(i)
sempio a1i (= 0, si esegue loperazione I[M M ] e si ottiene quindi a11 (= 0;
(1)
(1)
successivamente, se a11 (= 1, si esegue loperazione II[M a1 M ] e si ottie11
ne a11 = 1.
4 passo. Si fa in modo che risulti: a21 = a31 = = am1 = 0. A tale scopo,

17

2.3 Determinante di una matrice quadrata.


c 88-7999-003-9
!
basta eseguire (per i = 2, . . . , m) le operazioni III[M

(i)

(i)

ai1 M

(1)

].

A questo punto la matrice completa M del SL assegnato si `e trasformata in una matrice del tipo:

1 a12 . . . . . .
0 a22 . . . . . .

0 ... ... ... .

0 am" 2 . . . . . .
(con m" m).
Si ripete ora lalgoritmo sopra descritto a partire dalla seconda riga e seconda colonna di tale matrice. Si eliminano eventuali righe nulle e si fa in modo (operando sulla seconda colonna) che la matrice completa del SL diventi del tipo:

1 a12 . . .
...
1
...
...
0

0
0
a
.
..

.
33

... ...
...
...
0
0 am"" 3 . . . . . .
""
"
(con m m ). Si ripete quindi il procedimento a partire dalla terza riga e terza colonna, dalla quarta ... e cos` via.
'
(
Se nel corso del procedimento si ottiene una riga della forma 0 0 . . . 0 b ,
con b (= 0, il SL `e incompatibile [ed il procedimento di GaussJordan ovviamente termina]. In caso contrario il SL si riduce ad un SL a gradini, come richiesto. Si osservi infine che, se nel procedimento sono stati necessari scambi di variabili, sar`
a necessario ripristinare le variabili iniziali, procedendo agli scambi inversi.

2.3

Determinante di una matrice quadrata

Definizione 10. Sia A n(K). Si chiama determinante di A lelemento di


K, denotato det(A) (o det A o |A|), cos` definito:
*
det(A) =
(f ) a1f a2f . . . anfn ,
f Sn

dove Sn `e il gruppo delle permutazioni su n elementi ed (f ) `e il segno della permutazione f Sn [ed `e cos` definito (cfr. Eserc. I.5):
(f ) = +1, se f `e di classe pari;

(f ) = 1, se f `e di classe dispari.]

In altri termini, det(A) `e una somma di n! addendi; ciascun addendo `e prodotto di n fattori, appartenenti a righe ed a colonne tutte distinte; infine a ciascun ad-

18

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

dendo viene attribuito un segno (secondo la definizione ricordata sopra).


Calcoliamo il determinante di tre generiche matrici di ordine 1, 2, 3. Risulta:

.
a11 a12 a13
' (
a11 a12
det( a11 ) = a11 ; det
= a11 a22 a12 a21 ; det a21 a22 a23 =
a21 a22
a31 a32 a33
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a13 a22 a31 a12 a21 a33 a11 a23 a32.
Raccogliamo nella proposizione che segue alcune propriet`
a dei determinanti.

Proposizione 7. Sia A = (aij )

(K). Risulta:

(i ) Se A `e una matrice diagonale, det(A) =

n
5

i=1

aii . In particolare det(In) = 1.

(ii ) Se A ha una riga o una colonna nulla, risulta: det(A) = 0.


(iii ) det(A) = det(tA).
(i)

(iv ) Sia A = bU +cV , con b, c K e U, V 1,n(K). Siano B, C


(i)
le matrici ottenute da A sostituendo A rispettivamente con U e con V
(i)
(i)
(j)
(j)
(j)
B = U, C = V , B = C = A , j (= i]. Risulta:

(K)
[cio`e:
n

det(A) = b det(B) + c det(C).

[Analogo risultato vale per le colonne di A].


(v ) Sia B n(K) la matrice ottenuta da A scambiando tra loro due righe oppure due colonne. Risulta: det(B) = det(A).
(vi ) Se A ha due righe o due colonne proporzionali, risulta: det(A) = 0.
(vii ) (Teorema di Binet). Risulta:
det(AB) = det(A) det(B),

(K).
1
1
(viii ) Per ogni A GLn(K), risulta: det(A ) =
. Ne segue in partidet(A)
colare che det(A) (= 0.
A, B

Dim. Le propriet`
a (i ), (ii ) e (iv ) discendono direttamente dalla definizione di determinante (e pertanto le lasciamo al lettore). Le propriet`
a (iii ), (v ), (vi ) e (vii ) sono dimostrate negli esercizi (cfr. Eserc. 17, 18, 19). Infine, la propriet`
a (viii ) `e u1
na conseguenza immediata di (vii ) e (i ). Infatti, se AA = In , allora 1 = det(In) =
1
det(A) det(A ).
Per illustrare unaltra importante propriet`
a dei determinanti (il teorema di Laplace) `e necessario premettere due definizioni.

19

2.3 Determinante di una matrice quadrata.


c 88-7999-003-9
!

Definizione 11. Sia M m,n(K). Siano p, q interi positivi tali che 1 p m


e 1 q n. Si scelgano p interi {i1 , i2 , . . . , ip } tali che
1 i1 < i2 < . . . < ip m;

si scelgano inoltre q interi {j1 , j2 , . . . , jq } tali che

1 j1 < j2 < . . . < jq n.

Si chiama sottomatrice di M relativa alle righe i1 , . . . , ip ed alle colonne j1 , . . . , jq la matrice formata dagli elementi di M ottenuti intersecando le ri(i )

(ip )

ghe M 1 , . . . , M
con le colonne M(j ) , . . . , M(jq ) . Tale sottomatrice verr`a indi1
cata M (i1 , . . . ,ip |j1 , . . . ,jq).
[Si pu`
o verificare che il numero delle sottomatrici di M di tipo (p, q) `e dato da:
- .- .
m n
m(m 1) . . . (m p + 1) n(n 1) . . . (n q + 1)
=
].
p
q
p!
q!
Definizione 12. Sia A = (aij)
Si chiama complemenn(K), con n 2.
(A)
to algebrico (o cofattore) di aij lelemento ij = ij K cos` definito:
'
(
(A)
i+j
ij = ij = (1) det A(1, ..,/,
i ..,n|1, ..,/
j , ..,n) .

La matrice formata dai complementi algebrici degli elementi di A, cio`e:

11 12 . . . 1n
21 22 . . . 2n

,
... ... ... ...
n1 n2 . . . nn
`e detta matrice aggiunta (o matrice cofattore) di A ed `e denotata CA .

Teorema 1 (Teorema di Laplace). Sia A n(K), con n 2. Risulta, per ogni


i, j = 1, . . . , n:
n
n
*
*
det(A) =
ait it e det(A) =
atj tj
t=1

t=1

[Tali sommatorie sono dette rispettivamente sviluppo del determinante rispetto al(i)
la riga A e sviluppo del determinante rispetto alla colonna A(j) ].

Il teorema di Laplace [per la cui dimostrazione rinviamo ad esempio a [S],


Prop. 6.9] fornisce uno strumento molto utile per il calcolo del determinante di una matrice. Infatti, assegnata una matrice A di ordine n e fissatane una riga o una colonna, il determinante di A `e ottenuto da n determinanti di matrici di ordine n 1 [cio`e dai complementi algebrici degli elementi della riga (o colonna) scelta]; a sua volta, ciascuno di essi `e ottenuto da n1 determinanti di ordine n2 e cos` via. Ovviamente se si sceglie una riga o una colonna con qualche elemento nul-

20

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

lo, il calcolo del corrispondente complemento algebrico pu`


o essere evitato [in quanto va poi in ogni caso moltiplicato per 0].
Corollario 1. Sia A

(K). Risulta:

CA A = det(A) In = A tCA .

Ne segue: se A GLn(K), A

1
t
det(A) CA .

La dimostrazione `e lasciata per esercizio [cfr. Eserc. 21]. Invitiamo il lettore a


verificare ad esempio che:
.
- d
b .
1
a b
adbc
se A =
GL2(K), risulta: A = adbc
.
c
a
c d
adbc
adbc
Il Teor. 1 sopra enunciato `e in realt`
a soltanto un caso particolare del teorema di Laplace. Per enunciare tale teorema nella sua forma pi`
u generale premettiamo la seguente definizione.
Definizione
13. (Sia A
Si scelga k
tale che 1 k < n, e sia
n(K).
'
A i1 , . . . ,ik |j1 , . . . ,jk una sottomatrice quadrata di A di ordine k. Sia {r1 , . . . , rnk}
linsieme complementare di {i1 , . . . , ik} [nellinsieme {1, 2, . . . , n}] e sia {s1 , . . . , snk}
linsieme complementare di {j1 , . . . , jk}. Supponiamo infine che {r1 , . . . , rnk} e
{s1 , . . . , snk'} siano ordinati (in senso crescente. Si chiama complemento algebrico di A i1 , . . . ,ik |j1 , . . . ,jk lelemento i ,...,i |j ,...,j K cos` definito:
1
k 1
k
'
(
i ++i +j1++j
k
k
i ,...,i |j ,...,j = (1) 1
det A r1 , . . . ,rnk |s1 , . . . ,snk .
1

1 0 2
3
1
1 0 0
[Ad esempio, se A =
4( ), posto k = 2 e scelta ad esem0 1 1 0
2 1 -1 1 .
1 1
pio la sottomatrice A(2,3|1,4) =
, il suo complemento algebrico `e
0 0
.
2+3+1+4
0 2
2,3|1,4 = (1)
det(A(1,4|2,3)) = +det
= 2.]
1 1
Teorema 2. (Teorema di Laplace). Sia A n(K) e sia t
tale che 1 t < n.
Si scelgano t righe (o colonne) di A e sia B la sottomatrice di A formata da tali righe (o colonne).
Si considerino tutte le sottomatrici quadrate di B di ordi' (
ne t [sono nt ]. Risulta: det(A) `e la somma dei determinanti di tali matrici, moltiplicati per i rispettivi complementi algebrici.

21

2.4 Rango di una matrice.


c 88-7999-003-9
!

[Si noti che la precedente formulazione del teorema di Laplace `e ottenuta da questa
ponendo t = 1].
Per la dimostrazione di tale teorema rinviamo ad esempio a [S], Prop. 6.13].
Nellesempio che segue applichiamo questo teorema nel calcolo di un determinante.
Esempio 1. Assegnate le matrici B, C, D, 0
trice:
.
B C
A=

0 D

(K), si consideri ad esempio la ma-

(K).

2t

Verifichiamo che risulta: det(A) = det(B) det(D).


Infatti, applicando il teorema di Laplace rispetto alle ultime t righe di A, si osserva subito che lunico minore di ordine t non nullo `e det(D) e che il suo complemento algebrico `e:
2[(t+1)++2t]

(1)

det(B) = det(B).

Pertanto: det(A) = det(B) det(D).

2.4

Rango di una matrice

` noto [cfr. Def. I.16] che il rango di t vettori v , ... , v V `e la dimensione


E
1
t
del sottospazio vettoriale da essi generato, cio`e:
6
7
rg(v 1 , ... , v t ) = dimK v 1 , ... , v t .

Si tratta del massimo numero di vettori linearmente indipendenti tra v 1 , ... , v t;


risulta inoltre: rg(v 1 , ... , v t) min{t, dim(V )}. Introduciamo ora la seguente definizione.
Definizione 14. Sia A
(K). Osserviamo che la matrice A `e costituita
m,n
(1)
(m)
da m righe A , . . . , A

(K) e da n colonne A(1) , . . . , A(n)


(K);
1,n
m,1
inoltre
(K)
e
(K)
sono
K-spazi
vettoriali
di
dimensione
rispettivamen1,n
m,1
te n ed m. Ci`
o premesso, chiameremo rango per righe di A il numero intero
' (1)
(m)(
(1)
(m)
rA = rg A , . . . , A
= dimK1A , . . . , A 2.
Ovviamente: rA min{m, n}. Analogamente, chiameremo rango per colonne di
A il numero intero

22

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

'
(
cA = rg A(1) , . . . , A(n) = dimK1A(1) , . . . , A(n)2.

Ovviamente: cA min{n, m}.

Teorema 3. Per ogni matrice A

(K) risulta: rA = cA .

m,n

Per dimostrare tale risultato, premettiamo il seguente lemma.


Lemma 1. Siano A m,n(K) e B p,n(K) due matrici (con lo stesso numero di colonne) tali che i due SLO AX = 0 e BX = 0 siano equivalenti. Risulta:
cA = cB .
'
n
Dim. (Lemma 1). Per ipotesi, a = a1 , ... , an ) K , si ha [indicata con a la corrispondente colonna]:
Aa = 0 Ba = 0,

cio`e:
n
*

i=1

ai A(i) = 0

n
*

i=1

ai B(i) = 0.

Possiamo quindi applicare la Prop. I.7 agli n vettori A(1) , . . . , A(n)


agli n vettori B(1) , . . . , B(n) p,1(K). Si ha:

(K) ed

m,1

rg(A(1) , . . . , A(n)) = rg(B(1) , . . . , B(n)),

cio`e: cA = cB .
Dim. (Teor. 3). Ovviamente risulta: rA = 0 A = 0 cA = 0.
Si assuma quindi rA 1 e si scelgano in A rA righe linearmente indipendenti. Sia B la matrice ottenuta da A scambiando di posto le righe di A, in modo che le prime rA righe di B siano le rA righe scelte in A. Ovviamente rA = rB
ed i due SLO AX = 0 e BX = 0 sono equivalenti. Dal Lemma 1 segue allora che cA = cB .

Indichiamo con B la sottomatrice di B formata dalle prime rA righe di B

[dunque B r ,n(K)]. Verifichiamo che i due SLO BX = 0 e B X = 0 sono eA


quivalenti. [Infatti `e ovvio che ogni soluzione del primo `e anche soluzione del secon(r )

(i)
(1)
do. Viceversa, sia x una soluzione di B X = 0 . Poiche B 1B , ... , B A 2 [per
rA
*
(i)
(t)
i = rA+1, .., m], allora (per opportuni ait K) risulta: B X =
ait B X e dunt=1
que
rA
rA
*
*
(i)
(t)
B x =
ait B x =
ait 0 = 0.
t=1

t=1

23

2.4 Rango di una matrice.


c 88-7999-003-9
!
Pertanto x `e anche soluzione di BX = 0]. In base al Lemma 1, cB = cB .

Poiche B

(K), allora cB min{rA , n} rA . Ne segue:

r ,n
A

cA = cB = cB rA ,

cio`e cA rA .

Vogliamo ora ottenere la disuguaglianza opposta (cio`e cA rA ). Consideriamo


la matrice tA n,m(K). Risulta:
(1)

(n)

rtA = dimK 1(tA) , ... , (tA) 2 = dimK 1t(A(1)), ... , t(A(n))2 =


= dimK 1A(1) , ... , A(n)2 = cA .

Pertanto rtA = cA e, procedendo analogamente, ctA = rA . Applicando alla matrice


t
A la disuguaglianza gi`
a dimostrata, si ottiene: ctA rtA , cio`e rA cA .
Il comune valore del rango per righe e del rango per colonne di una matrice `e detto semplicemente rango. Riformuliamo tale definizione.
Definizione 15. Sia A m,n(K). Si chiama rango di A, denotato rg(A), il
rango per righe (o, equivalentemente, per colonne) di A. Si tratta del massimo numero di righe (o di colonne) linearmente indipendenti di A.
Osservazione 5. (i ) Per ogni matrice A

(K), si ha:

m,n

rg( A) = rg(A)
t

[infatti rg(A) = rA = ctA = rg( A)].


t

(ii ) Con operazioni elementari di riga o con scambi di colonne il rango di una matrice A m,n(K) non cambia. Ad esempio, se B `e ottenuta da A con lo(i)
(i)
(j)
perazione elementare III[A A + cA ], allora:
(1)

(i)

(j)

(j)

(m)

rg(B) = dimK 1A , . . . , A + cA , . . . , A , . . . , A
(1)

(i)

(j)

(m)

= dimK 1A , . . . , A , . . . , A , . . . , A

Proposizione 8. Sia A

2 = rg(A).

2=

(K). Sono condizioni equivalenti:

(i ) A GLn(K);
(ii ) det(A) (= 0;
(iii ) rg(A) = n.

Dim. (i ) = (ii ). Cfr. Prop. 7(viii ).


(ii ) = (iii ). Se, per assurdo, rg(A) < n, una riga `e combinazione lineare delle
*
(i)
(j)
altre. Dunque A =
cj A . Se indichiamo con Bj la matrice ottenuta da A
j%=i

24

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

(i)

sostituendo A con A
base a Prop. 7(iv ),

(j)

[per j = 1, .., n, j (= i], allora det(Bj) = 0. Inoltre, in

det(A) =

cj det(Bj) =

j%=i

il che `e assurdo.

cj 0 = 0,

j%=i

+ 1
n,
(iii ) = (i ). Indichiamo con E , ... , E
la base canonica di
+ (1)
i
(n),
que (E )1j = ij ]. Poiche per ipotesi A , ... , A
`e una base di
n
*
i
(t)
E =
bit A
[i = 1, ..., n],

(K) [dun(K), si ha:


1,n

1,n

t=1

per opportuni bit K. [Si noti che (E )1j =


trice B = (bit )

(K), si ha:

(i)

(BA)ij = B A(j) =
e dunque BA = In .

n
*

t=1

n
*

t=1

bit atj ]. Se ora consideriamo la ma-

bit atj = (E )1j = ij

Per concludere la dimostrazione basta determinare una matrice C


(K)
n
tale che AC = In . [Infatti da BA = In = AC segue subito che B = C;
dunque A GLn(K)]. Per ottenere C si procede in modo analogo a come gi`
a visto:+ basta esprimere
le
matrici
della
base
canonica
di
(K)
rispetto
alla
ban,1
,
se A(1) , ... , A(n) . Lasciamo i dettagli al lettore.
Vogliamo ora caratterizzare il rango di una matrice come lordine massimo dei
suoi minori non nulli. Premettiamo una definizione.
Definizione 16. Sia A m,n(K). Si chiama minore (di ordine t) di A il determinante di una sottomatrice quadrata di A di ordine t.
Si denota inoltre con = (A) lordine massimo dei minori non nulli di A. In
altri termini, `e definito dalle due seguenti condizioni:
esiste in A (almeno) una sottomatrice quadrata invertibile di ordine ;
ogni (eventuale) sottomatrice quadrata di A di ordine > ha determinante nullo.
Teorema 4. Sia A

(K). Risulta: rg(A) = (A).

m,n

Premettiamo alla dimostrazione di tale risultato il seguente lemma.


Lemma 2. Se B `e una sottomatrice di A, risulta: rg(B) rg(A).

2.4 Rango di una matrice.


c 88-7999-003-9
!

25

Dim. (Lemma 2). Sia B = A(i1 , . . . ,ip |j1 , . . . ,js). Si consideri la matrice M =
A(i1 , . . . ,ip |1, . . . ,n), di cui B `e sottomatrice. Risulta: B = M (1, . . . ,p|j1 , . . . ,js).

26

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Ovviamente:
Inoltre:

rg(M ) = dimK 1A

(i )
1

(ip )

, ... ,A

2 rA = rg(A).

rg(B) = dimK 1M(j ) , . . . , M(js )2 cM = rg(M ).


1

Ne segue che rg(B) rg(M ) rg(A).

Dim. (Teor. 4). Cominciamo col verificare che (A) rg(A). Si ponga = (A)
e si scelga in A una sottomatrice invertibile M GL(K). In base alla Prop. 8,
rg(M ) = ; in base al Lemma 2, rg(M ) rg(A). Dunque rg(A).

Viceversa, proviamo che rg(A) (A). Si ponga r = rg(A) e si scelgano in


(i )
(i )
A r righe linearmente indipendenti: A 1 , . . . , A r [con i1 < < ir ]. Sia B la
sottomatrice di A formata da tali righe. Ovviamente rg(B) = r e dunque
B ha (r
'
colonne linearmente indipendenti: B(j ) , . . . , B(jr ) . Posto M = B(j ) ... B(jr) ,
1
1
allora rg(M ) = r. Poiche M = A(i1 , . . . ,ir |j1 , . . . ,jr) e det(M ) (= 0, allora
(A) r.

2.5

Il teorema di Rouch
eCapelli

Il seguente importante teorema ci fornisce un criterio per stabilire se un sistema


di equazioni lineari `e compatibile.
Teorema 5. (Teorema di RoucheCapelli).
Sia AX = b un SL(m, n, K). Tale
'
(
SL `e compatibile rg(A) = rg A b .
Se tale SL `e compatibile, ammette

nrg(A)

soluzioni.

Dim. Risulta: AX = b `e compatibile a n,1(K) tale che Aa = b



a1
n
*

... n,1(K) tale che
ai A(i) = b b 1A(1) , ... , A(n)2
i=1

an
'
(
1A(1) , ... , A(n)2 = 1A(1) , ... , A(n) , b2 rg(A) = rg A b .

Supponiamo' ora (che il SL(m, n, K) AX = b sia compatibile e poniamo:


'
(
r = rg(A) = rg A b . Con un eventuale scambio di righe della matrice A b ,
possiamo fare in modo che le prime r' righe
( di A siano linearmente indipendenti. Dunque anche le prime r righe di A b sono linearmente indipendenti [e le rimanenti m r righe sono combinazioni lineari di esse]. Si ponga:

27

2.5 Il teorema di RoucheCapelli.


c 88-7999-003-9
!

(1)
b1
A

..
..

A =
, b = .
.
(r)
A
br

` evidente che tale SL `e equivalente al SL


e si consideri il SL(r, n, K) A X = b . E

assegnato [cfr. la dimostrazione del Teor. 3]. Dunque risolveremo A X = b in luogo di AX = b.

Si applica ad A X = b lalgoritmo di GaussJordan. Essendo tale SL

compatibile, si perverr`
a ad un SL a gradini. Inoltre, poiche A ha rango r
e poiche il rango si conserva con operazioni elementari di riga e scambi di colonne [cfr. Oss. 5(ii )], nessuna riga della matrice completa del SL si potr`
a annullare nel corso del procedimento. Si otterr`
a quindi un SL a gradini avente esattamennr
te r equazioni. Tale SL ha, come noto [cfr. Prop. 6],
soluzioni.

(K) e B n,p(K). Risulta:


+
,
rg(AB) min rg(A), rg(B) .

Proposizione 9. Siano A

m,n

Dim. Basta verificare soltanto che rg(AB) rg(B). Infatti, se tale disuguaglianza
`e verificata, risulta anche:
rg(AB) = rg(t(AB)) = rg(tB tA) rg(tA) = rg(A),

cio`e rg(AB) rg(A).


Consideriamo la iesima riga di AB. Risulta:
- n
.
n
' (i)
(
*
*
(i)
(i)
AB = A B(1) . . . A B(p) =
ait bt1 . . .
ait btp =
t=1

n
*

t=1

Pertanto AB

(i)

'

ait bt1 . . . btp =

1B

(1)

(n)

n
*

t=1

t=1

(t)

ait B .

, . . . , B 2 [per i = 1, . . . , m]. Ne segue che:


1AB

(1)

(n)

, . . . , AB 2 1B

e perci`o rg(AB) rg(B), come richiesto.


Corollario 2. Sia A
risulta:

(1)

(n)

, ... ,B 2

(K). Per ogni B GLn(K) ed ogni C GLm(K),

m,n

rg(A) = rg(AB) = rg(CA).


1

Dim. Si ha: rg(AB) rg(A) = rg(ABB ) rg(AB). Pertanto rg(AB) = rg(A).


1
Analogamente: rg(CA) rg(A) = rg(C CA) rg(CA) e quindi anche rg(CA) =
rg(A).

28

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Teorema 6. (Teorema di Cramer). Sia AX = b un SL(n, n, K), con A GLn(K).


Risulta:
(i ) Tale SL ha ununica soluzione.
(ii ) Per i = 1, . . . , n, si denoti con Bi la matrice ottenuta da A sostituendo la
colonna A(i) con la colonna b. Lunica soluzione x del SL assegnato `e data dalla
seguente formula:
.
det(B1 )
det(Bn )
x=
,... ,
,
det(A)
det(A)
detta formula di Cramer .
1

Dim. (i ) La colonna x = A b `e una soluzione di AX = b . Infatti:


' 1 ( '
1(
A A b = AA b = In b = b.
Se poi y `e unaltra soluzione di AX = b, si ha:
'
1(
1
1
y = In y = AA y = A (Ay) = A b
1

e dunque y = A b.

(ii ) Calcoliamo il determinante di Bi utilizzando lo sviluppo di Laplace rispetto alla iesima colonna. Risulta:
n
n
*
*
(Bi )
(A)
det(Bi) =
bt ti =
bt ti
t=1

t=1

[infatti i complementi algebrici degli elementi della iesima colonna delle due matri1
1
t
ci A e Bi coincidono]. Poiche A = det(A)
CA , allora:
1

x =A b =

1
t
det(A) CA b

e pertanto [per i = 1, .., n]:


't ((i)
't ((i)
'
(
1
1
1
t
xi = det(A)
(CA )(i) b =
CA b
= det(A)
CA b = det(A)

b
n
'
( .1
*
1
1
1
= det(A) 1i . . . ni .. = det(A)
bt ti = det(A)
det(Bi ).
bn

t=1

In base al teorema di RoucheCapelli,


'
( per decidere se il SL AX = b `e compatibile occorre calcolare rg(A) e rg A b (e poi confrontarli).
Per calcolare il rango di una matrice `e utile il seguente risultato, noto come teorema dei minori orlati (o teorema di Kronecker ), che, come vedremo, permette un consistente risparmio di calcoli. Premettiamo una definizione.
Definizione 17. Sia B una sottomatrice quadrata di ordine r di una matrice A
Chiameremo orlato di B il determinante di ogni sottomatrim,n(K).

29

2.5 Il teorema di RoucheCapelli.


c 88-7999-003-9
!

ce C di A, quadrata, di ordine r + 1 ed avente B come sottomatrice. [Diremo


` evidenche C `e ottenuta orlando B con unulteriore riga e colonna di A]. E
te che se r = min{n, m}, B non ha orlati (e viceversa).
Teorema 7. (Teorema di Kronecker). Sia A m,n(K). Risulta:
rg(A) = r valgono le due seguenti condizioni:

(a) esiste in A una sottomatrice quadrata B invertibile di ordine r;


(b) gli orlati di B (se esistono) sono tutti nulli.

Dim. (=). Se rg(A) = r, allora (A) = r e dunque B GLr(K) (sottomatrice


di A). Inoltre sono nulli tutti i minori di ordine r + 1 di A [e in particolare quindi gli orlati di B]. Perci`
o le condizioni (a) e (b) sono verificate.
(=). Per semplificare le notazioni, supponiamo che sia B = A(1, . . . ,r|1, . . . ,r).
Per ipotesi, det(B) (= 0, ovvero rg(B) = r.
'
(
Sia C = A(1) . . . A(r) la sottomatrice di A formata dalle prime r colonne
di A. Ovviamente rg(C) r; ma, poiche B `e sottomatrice di C, allora
r = rg(B) rg(C) r e dunque rg(C) = r. Pertanto le colonne A(1) , . . . , A(r)
sono linearmente indipendenti.
Per dimostrare la tesi (cio`e rg(A) = r), basta quindi provare che:
A(r+1) , . . . , A(n) 1A(1) , . . . , A(r)2,
'
(
ovvero che, per t = r + 1, .., n, la matrice A(1) . . . A(r) A(t) ha rango r.
'
(
Denotiamo ora con D tale matrice [cio`e D = A(1) . . . A(r) A(t) m,r+1(K)]
e consideriamone la sottomatrice formata dalle prime r righe, cio`e
(1)
D
.. r,r+1(K).
.
(r)
D
Tale sottomatrice ha evidentemente rango r; daltra parte ammette B come sottomatrice e dunque ha necessariamente rango r.
Per dimostrare la tesi (cio`e rg(D) = r), basta verificare che:
(r+1)

, ... ,D

(m)

(1)

(r)

, . . . , D 2.
(1)
D
..
.
Infatti, per s = r + 1, . . . , m, si consideri det
(r) . Si tratta di un orlaD
(s)
D
to di B e dunque, per ipotesi, `e nullo. Pertanto le sue r + 1 righe sono linear(1)
(r)
mente dipendenti, e, poich`e D , . . . , D sono linearmente indipendenti, allora ne(s)
(1)
(r)
cessariamente D 1D , . . . , D 2, come richiesto.
D

1D

30

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

Osservazione 6. Sia A
Per calcolarne il rango si pu`
o procedem,n(K).
re come segue. Si individua in A una sottomatrice quadrata invertibile B di ordine t. Se t = min{m, n}, ovviamente rg(A) = t. Se invece t < min{m, n}, si orla B in tutti i modi possibili. Se tutti gli orlati ottenuti sono nulli, il teorema di Kronecker ci garantisce che rg(A) = t. In caso contrario resta individuata una sottomatrice quadrata C invertibile, di ordine t + 1. Dunque rg(A) t + 1. Se
t + 1 = min{m, n}, necessariamente rg(A) = t + 1; altrimenti si orla C in tutti i modi possibili e si ripete il procedimento gi`
a descritto per B.
Senza il teorema di Kronecker, una volta individuata in A una sottomatrice B GLt(K), per verificare se rg(A) = t, dovremmo
' mverificare
(' n ( se tutti i minori di ordine t + 1 di A sono nulli. Tali minori sono t+1
t+1 . Invece gli orlati di B sono soltanto (m t)(n t) [ottenuti orlando B con una delle restanti m t righe ed una delle restanti n t colonne di A].
Ad esempio, se A 4,6(K) e B GL2(K), i minori di A di ordine 3 sono
'4('6(
3 3 = 80, mentre gli orlati di B sono soltanto (4 2)(6 2) = 8.
Dunque il teorema di Kronecker consente un notevole risparmio di calcoli nella
determinazione del rango.
'
(
Osservazione 7. Sia AX = b un assegnato SL(m, n, K). Sia M = A b la
sua matrice completa e sia r = rg(A). In base al teorema di RoucheCapelli, il SL
nr
assegnato `e compatibile rg(M ) = r. In tal caso il SL ha
soluzioni.
Vogliamo descrivere un procedimento per calcolare tali soluzioni (senza far ricorso allalgoritmo di GaussJordan).
Si scelga in A una sottomatrice quadrata invertibile B di ordine r [che
viene chiamata
sottomatrice
fondamentale del SL assegnato]. Sia ad esempio
'
(
B = A i1 , . . . ,ir |j1 , . . . ,jr . Si ponga:
(i )

bi1
A 1

A" = ... , b " = ...


(i )
A r
bi
r

e si consideri il SL(r, n, K) A" X = b " . Tale SL `e stato ottenuto eliminando m r equazioni del SL assegnato. Le equazioni eliminate sono in effetti superflue
[infatti
le corrispondenti righe di M sono combinazioni lineari delle ri'
(
ghe di A" b " ; ne segue (come gi`a osservato nella dimostrazione del Teor. 3) che ogni soluzione di A" X = b " `e anche soluzione di AX = b]. I due SL AX = b e
A" X = b " sono pertanto equivalenti e dunque, invece di risolvere il primo, possiamo risolvere il secondo.
Portiamo a secondo membro le nr indeterminate diverse da xj1 , . . . , xjr ed attribuiamo ad esse i valori t1 , . . . , tnr K (scelti arbitrariamente). Si ottiene in tal modo un SL(r, r, K), che ammette ununica soluzione [infatti la sua matrice dei coefficienti `e B (matrice invertibile)], ottenibile con la formula di Cramer. Al variare degli n r scalari t1 , . . . , tnr K, si ottiene linsieme delle

31

2.5 Il teorema di RoucheCapelli.


c 88-7999-003-9
!

soluzioni del SL.


Una soluzione (particolarmente semplice) del SL `e ottenuta ponendo t1 = =
tnr = 0. Denotiamo con z 0 tale soluzione. In base alla Prop. 5, = z 0 + 0
[con 0 sottospazio vettoriale delle soluzioni del SLO associato A" X = 0] e, invece di calcolare la generica soluzione di , pu`
o essere pi`
u conveniente
' calcolare la( generica soluzione di tale SLO e poi sommarla a z 0. Attribuendo a t1 , . . . , tnr i valori: (1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 0, 1), si ottengono, a partire dal sistema A" X = 0, n r sistemi SL(r, r, K), ciascuno dei quali ammette ununica soluzione. Le n r soluzioni ottenute y , ... , y
sono linearmente indipenden1
nr
ti e quindi formano una base di 0 . Pertanto
nr
+
,
*
= z0 +
ti y , t1 , . . . , tnr K .
nr

i=1

` gi`
Osservazione 8. E
a stato osservato che ogni SLO AX = 0 `e sempre compatibile [infatti ha almeno la soluzione banale]. Tale
' fatto
( `e ovviamente confermato dal teorema di RoucheCapelli [infatti rg(A) = rg A 0 ]. Ancora dallo stesso teorema, onrg(A)
gni SLO(m, n, K) AX = 0 ha
soluzioni.
Si verifica inoltre che tale SLO `e privo di autosoluzioni n = rg(A).
0
Infatti (ricordato che = 1) si ha:
AX = 0 ha soltanto la soluzione banale
0
= n rg(A) = 0].

nrg(A)

ha ununica soluzione

Concludiamo con un risultato relativo ad un tipo importante di SLO, che ritroveremo spesso nelle applicazioni geometriche.
Proposizione 10. Sia AX = 0 un SLO(n 1, n, K),
' con rg(A)
( = n 1. Tale
1
SLO ha soluzioni, proporzionali allautosoluzione A1 , . . . , An , cos` definita:
(
'
t+1
At = (1) det A(1) .. A
/(t) .. A(n) , (per t = 1, .., n)
'
(
[dove A(1) .. A
/(t) .. A(n) denota la matrice quadrata di ordine n 1 ottenuta da
A sopprimendo la tesima colonna A(t) ].
1

Dim. In base al teorema di RoucheCapelli, tale SLO ha


= soluzioni.
Per i = 1, . . . , n1, si consideri la matrice Bi ottenuta aggiungendo ad A, come pri(i)
ma riga, la riga A . Dunque:
- (i) .
A
Bi =
n(K).
A
Poiche Bi ha due righe uguali, det(Bi) = 0. Calcoliamo ora det(Bi) usando lo sviluppo di Laplace rispetto alla prima riga. Risulta:
n(n1)

32

Cap. II

MATRICI E SISTEMI DI EQUAZIONI LINEARI


c 88-7999-003-9
!

0 = det(Bi) =

n
*

t=1

ait 1t ,

'
(
det A(1) .. A
/(t) .. A(n) = At . Pertanto:
n
*
0=
ait At [i = 1, . . . , n 1]
t=1
'
(
e dunque la npla A1 , . . . , An `e una soluzione del SLO AX = 0.
Tale soluzione `e non nulla, in quanto rg(A) = n 1 [e quindi almeno un minore di ordine n 1 di A `e non nullo; tale minore coincide, a meno del segno, con u1
na delle componenti
At]. ( Poiche il SLO ha soluzioni, ogni sua soluzione `e pro'
porzionale a A1 , . . . , An .
1+t

con 1t = (1)

You might also like