Professional Documents
Culture Documents
Índice
Lógica e Demonstração 3
1 Demonstração Directa 3
2 Recíproco e Contrapositivo 3
Matrizes e Determinantes 7
5 Nota Histórica 7
2
2 Recíproco e Contrapositivo
Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática ex-
istentes, e cuja aplicação será assídua ao longo de todo o texto.
1 Demonstração Directa
O modo directo de demonstrar a proposição A ⇒ B consiste em determnar
uma sequência de teoremas e/ou axiomas aceites na forma Ai ⇒ Ai+1 , para
i = 1, · · · , n de modo a que A1 ⇒ A e An ⇒ B. A dificuladade está, obviamente,
em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre
A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a
afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito
denomina-se raciocínio dedutivo.
Consideremos o seguinte Teorema ilustrativo:
Demonstração.
1. m é um inteiro par (Dado, por hipótese).
2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro
par).
3. m × p = (2q) p (Utilizando o axioma a = b ⇒ ac = bc).
4. m × p = 2 (qp) (Pela propriedade associativa da multiplicação).
5. m × p é um inteiro (Pela definição de um número inteiro par).
2 Recíproco e Contrapositivo
Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A
se verifica então a tese, B, também se verifica. O recíproco da proposição Π é
a proposição B ⇒ A.
3
3 Demonstração Indirecta ou por Redução ao Absurdo
A B A =⇒ B ∼B ∼A ∼ B =⇒∼ A
V V V V V V
F V V F V V
V F F V F F
F F V F F V
4
4 Demonstração por Indução Matemática
¡ ¢
Demonstração. Pretende-se mostrar p2 é par ⇒ (p é par), para qual-
quer p ∈ N.
Suponhamos então que existe um natural p tal que p é ímpar. Então ∃q∈N :
2
p = 2q +1. Assim, 2
¡ 2 p ¢= (2q + 1) . Desenvolvendo, virá (2q + 1)2 = 4q 2 +4q +1,
2 2
isto é, p = 4 q + q + 1. Mas então p é um número ímpar, o que é absurdo,
pois a hipótese original era a de que p2 era par. O absurdo vem de se assumir
que p é par, logo p terá de ser ímpar.
5
4 Demonstração por Indução Matemática
1
Π (n) = 1 + 2 + · · · + n = n (n + 1)
2
(i) Consideremos n = 1. Neste caso, a soma dos primeiros naturais será 1,
que é precisamente igual a 12 × 1 × (1 + 1).
(ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Mostemos
que então deverá ser válida para k + 1. Assumindo que Π (k) é verdadeira,
sabemos que:
1
Π (k) = 1 + 2 + · · · + k = k (k + 1)
2
1
Π (k + 1) = 1 + 2 + · · · + (k + 1) = (k + 1) (k + 2)
2
Mas,
Π (k + 1) = (1 + 2 + · · · + k) + (k + 1) =
| {z }
Π(k)
1
= k (k + 1) + (k + 1) =
2
µ ¶
1
= k + 1 (k + 1) =
2
µ ¶
k+2
= (k + 1) =
2
1
= (k + 2) (k + 1)
2
Logo, Π (n) é válida para qualquer n ∈ N.
6
5 Nota Histórica
Matrizes e Determinantes
5 Nota Histórica
Historicamente, os primeiros esboços de matrizes e determinantes remontam ao
segundo século a. C. embora existam traços da sua existência em épocas tão
distantes quanto o séc. IV a. C. No entanto, não foi senão nos finais do séc.
XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu.
Não é surpreendente que os primórdios das matrizes e determinantes ten-
ham surgido através do estudo de sistemas de equações lineares. Os Babilónios
estudaram problemas que levaram à resolução simultânea de equações lineares.
Alguns destes problemas sobreviveram até hoje preservados em placas de argila.
Por exemplo, uma placa datada de cerca de 300 a. C. contém o seguinte prob-
lema:
½
x + y = 1800
2 (1)
3x + 12 y = 1100
7
5 Nota Histórica
3x + 2y + z = 39
2x + 3y + z = 34 (2)
x + 2y + 3z = 26
1 2 3
2 3 2
3 1 1
26 34 39
0 0 3
4 5 2
8 1 1
39 24 39
0 0 3
0 5 2
36 1 1
99 24 39
8
5 Nota Histórica
da regra. Assim, Cardan não chega até á definição de determinante, mas, numa
perpectiva actual é possível concluir que o seu método leva efectivamente à
definição de determinante.
Muitos dos resultados associados à Teoria Elementar das Matrizes aparece-
ram antes das Matrizes serem objecto de investigação matemática. Por exemplo,
de Witt, na sua obra ”Elementos das Curvas”, publicado como parte dos co-
mentários à edição latina de 1660 da ”Geometria” de Descartes, mostra como
uma transformação dos eixos ordenados reduz a equação de uma cónica à forma
canónica. O processo consiste, modernamente, na diagonalização de uma matriz
simétrica, mas de Witt nunca raciocinou nestes termos.
A ideia de um conceito de determinante surge mais ou menos simultanea-
mente na Europa e no Japão no último quartel do séc. XVII, embora Seki, no
Japão, tenha publicado em primeiro lugar. Em 1683, Seki escreve o ”Método
para Resolver Problemas Dissimulados”, que contém métodos matriciais de-
scritos em tabelas, de forma em tudo idêntica à descrita nos métodos chineses,
acima abordados. Embora sem conter nenhuma palavra que corresponda ao
conceito ”determinante”, Seki mesmo assim introduz a noção e fornece méto-
dos gerais que permitem o seu cálculo, basados em exemplos. Utilizando os seus
”determinantes”, Seki conseguiu calcular determinantes de ordem 2, 3, 4 e 5
e aplicou-os à resolução, não de sistemas de equações lineares, mas de equaçõe
lineares.
De modo extraordinário, o primeiro aparecimento de um determinante na
Europa, ocorreu no exacto ano de 1683. Nesse ano, Leibniz escreveu a de
l’Hôpital explicando-lhe que o sistema de equações dado por:
10 + 11x + 12y = 0
20 + 21x + 22y = 0
30 + 31x + 32y = 0
10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30
9
5 Nota Histórica
anos, com início em 1678. Apenas duas publicações, em 1700 e 1710, contêm
resultados sobre sistemas de coeficientes, cuja notação é a mesma da utilizada
na carta a de l’Hôpital acima mencionada.
Leibniz utilizou o termo ”resultante” para certas somas combinatórias de
termos de um determinante. Demonstrou vários resultados sobre ”resultantes”,
incluindo o que é actualmente conhecido como a Regra de Cramer. Leibniz tam-
bém sabia que um determinante podia ser desenvolvido utilizando uma qualquer
coluna do sistema de coeficientes, no que é conhecido actualmente como o De-
senvolvimento de Laplace. Assim como o estudo de sistemas de coeficientes
de equações lineares levaram Leibniz na rota dos determinantes, o estudo de
sistemas de coeficientes de formas quadráticas resultou naturalmente num de-
senvolvimento no sentido de uma Teoria das Matrizes.
Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”, embora
não tenha sido publicado até 1748, dois anos após a sua morte. A obre contém
os primeiros resultados sobre determinantes, demonstrando a Regra de Cramer
para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes
de ordem 4.
Cramer forneceu a regra geral, que hoje aporta o seu nome, para a resolução
de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de
Curvas Algébricas”, publicado em 1750. O artigo foi motivado pelo desejo de
determinar a equação de uma curva plana que passasse por um certo número de
pontos. A regra propriamente dita surge como apêndice ao artigo, mas não é
fornecida qualquer demonstração. O seu enunciado, segundo o próprio Cramer,
é como se segue:
10
5 Nota Histórica
1
[z (x0 y 00 − y 0 x00 ) + z 0 (yx00 − xy 00 ) + z 00 (xy 0 − yx0 )]
6
1
que é precisamente igual a 6 do determinante da matriz
x x0 x00
y y0 y 00
z z0 z 00
11
5 Nota Histórica
12
5 Nota Histórica
13
5 Nota Histórica
14
6 Teoria das Matrizes
a11 a12 ··· a1,n−1 a1n
a21 a22 ··· a2,n−1 a2n aij ∈ K
A= .. .. .. .. = [aij ] , i = 1, ..., m (3)
. . . .
j = 1, ..., n
am1 am2 ··· am,n−1 amn
15
6 Teoria das Matrizes
Matrizes Rectangulares (m 6= n)
Designação Forma Geral
Matriz Linha
ou £ ¤
a11 a12 · · · a1n
Vector Linha
(m = 1)
a11
a21
Matriz Coluna
..
ou .
Vector Coluna am1
(n = 1) ou
{a11 , a21 , · · · , am1 }
Matrizes Quadradas (m = n)
Designação Forma Geral
a11 a12 · · · a1n
0 a22 · · · a2n
Matriz Triangular Superior
.. .. ..
(i > j =⇒ aij = 0) . . .
0 0 ··· ann
a11 0 ··· 0
a21 a22 · · · 0
Matriz Triangular Inferior
.. .. ..
(i < j =⇒ aij = 0) . . .
an1 an2 · · · ann
a11 0 ··· 0
0 a22 · · · 0
.. .. ..
Matriz Diagonal . . .
(aij = 0; i 6= j) 0 0 · · · ann
ou
diag {a11 , a22 , · · · , ann }
É uma matriz diagonal em que
Matriz Escalar aij = 0, i 6= j; aij = a ∈ K, i = j
diag {a, a, · · · , a}
É a matriz escalar em que
aij = 0, i 6= j; aij = 1 ∈ K, i = j
Matriz Identidade
diag {1, 1, · · · , 1}
Representa-se por In (ou apenas I)
Neste caso identifica-se a matriz
m=n=1
[a] com o próprio escalar a ∈ R
16
6 Teoria das Matrizes
Uma matriz diagonal pode tanbém ser entendida como uma matriz simul-
taneamente triangular superior e triangular inferior.
© ª
a11 , a22 , · · · , amin(m,n),min(m,n)
17
6 Teoria das Matrizes
Definição 10 (Matriz nula) Designa-se por matriz nula do tipo Mm×n (K)
à matriz A = [aij ] tal que aij = 0, ∀(i,j)∈{1,...,m}×{1,...,n} . Neste caso, denota-se
A por 0m×n ou simplesmente por 0 se a ordem estiver subentendida e não hou-
ver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo
K).
18
6 Teoria das Matrizes
Demonstração.
1. Como A, B ∈ Mm×n (K), A + B ∈ Mm×n (K). Adicionalmente
(A + B)ij = [aij ] + [bij ]
= [aij + bij ]
Como aij , bij ∈ K então K é fechado para a adição, isto é aij + bij ∈ K e
portanto [aij + bij ] ∈ Mm×n (K).
2. Como A, B, C ∈ Mm×n (K) então A + (B + C) e (A + B) + C estão
definidas. Adicionalmente
19
6 Teoria das Matrizes
5. Seja A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mm×n (K) tal que bij =
−aij , i = 1, ..., m; j = 1, ..., n. Então:
1. λ (A + B) = λA + λB
2. (λ + µ) A = λA + µA
3. λ (µA) = (λµ) A
4. 1 · A = A. O escalar 1 designa-se por unidade ou elemento neutro do
corpo K.
Demonstração.
20
6 Teoria das Matrizes
1.
2.
(λ + µ) (A)ij = (λ + µ) [aij ]
= [(λ + µ) aij ]
= [λaij + µaij ]
= [λaij ] + [µaij ]
= λ [aij ] + µ [aij ]
= (λA)ij + (µA)ij
3.
(λ (µA))ij = λ (µ [aij ])
= λ [µaij ]
= [(λµ) aij ]
= (λµ) [aij ]
= ((λµ) A)ij
4.
(1 (A))ij = 1· [aij ]
= [1·aij ]
= [aij ]
= (A)ij
21
6 Teoria das Matrizes
· · √ ¸ ¸ · √ ¸
√ 1
• 2× √2 × 1 =
= √2
2 2×2 2 2
£ ¤ £ ¤ £ ¤
• 1
2 × 3 4 = 12 × 3 12 × 4 = 32 2
Note-se que a matriz A, que multiplica à esquerda, tem tantas colunas quan-
tas as linhas de B. O elemento crs obtém-se multiplicando os elementos da linha
r de A pelos elementos da coluna s de B, pela mesma ordem, e somando os pro-
dutos obtidos. Em nenhuma outra circunstância é possível multiplicar duas
matrizes. De um modo geral, dadas duas matrizes A e B de dimensões, respec-
tivamente m × n e p × q, os produtos C = AB e D = BA são possíveis nas
seguintes circunstâncias:
−2 3 −3 2 0
A= 3 5 3 B = −2 1
· 3 5 −5 ¸ −1 −3
3 −5 5 £ ¤
C= D = −3 5 −3
−5 −4 −1
Os produtos possíveis são AB, BC, CA, CB, DA e DB. A título exempli-
ficativo, ter-se-á:
22
6 Teoria das Matrizes
−2 3 −3 2 0
AB = 3 5 3 −2 1
3 5 −5 −1 −3
(−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)
= 3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3)
3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)
−7 12
= −7 −4
1 20
•
· ¸· ¸ · ¸
1 −1 1 −1 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
=
1 −1 1 −1 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
· ¸
0 0
=
0 0
23
6 Teoria das Matrizes
24
6 Teoria das Matrizes
Demonstração.
1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão
p × q pelo que (A + B) D e AD + AB têm dimensão m × q.
p
X
((A + B) D)ik = (A + B)ij djk
j=1
Xp
= (aij + bij ) djk
j=1
Xp p
X
= aij djk + bij djk
j=1 j=1
= (AD)ik + (BD)ik
p
X
(λ (AD))ik = λ aij djk
j=1
p
X
= (λaij ) djk
j=1
Xp
= (λA)ij djk
j=1
= ((λA) D)ik .
Mas também,
p
X p
X
λ aij djk = λaij (λdjk )
j=1 j=1
p
X
= aij (λD)jk
j=1
= (A (λD))ik .
25
6 Teoria das Matrizes
q
X
((AD) F )il = (AD)ik fkl
k=1
q
X Xp
= aij djk fkl
k=1 j=1
q X
X p
= aij djk fkl
k=1 j=1
p
à q !
X X
= aij djk fkl
j=1 k=1
Xp
= aij (DF )jl
j=1
= (A (DF ))il .
26
6 Teoria das Matrizes
m
X
(Im A)ik = δ ij ajk = aik = (A)ik
j=1
Xn
(AIn )ik = aij δ jk = aik = (A)ik
j=1
Por outras palavras, para que uma matriz esteja particionada em blocos é
necessário que as submatrizes que constituem cada bloco sejam formadas por
linhas e colunas consecutivas da matriz A.
A multiplicação por blocos realiza-se da seguinte forma:
27
6 Teoria das Matrizes
p1
X p2
X p
X
(c) Escreva-se cij = air brj + air brj + · · · + air brj . O
r=1 r=p1 +1 r=ph +1
| {z } | {z } | {z }
(1) (2) (h+1)
cij cij cij
(1)
elemento cij resulta de somar os produtos dos primeiros p1 elementos
(2)
da linha i de A pelos primeiros p1 elementos da coluna j de B; cij
é a soma dos produtos dos p2 − p1 elementos seguintes da linha i de
A pelos p2 − p1 elementos seguintes da coluna j de B e assim por
diante.
(a) A ∈ Mm×p (K) e B ∈ Mp×n (K). Esta é a condição que requer que
o número de colunas da matriz que multiplica à esquerda seja igual
ao número de linhas da matriz que multiplica à direita.
(b) O número de colunas de blocos de A tem de ser igual ao número de
linhas de blocos de B.
(c) O número de colunas de cada bloco Aij tem de ser igual ao número
de linhas de cada bloco Bjt , a fim de se poder efectuar o produto
Aij Bjt .
−2 3 −3 3 5
1 0 0 0 −1 −4 3 3 5 −5 2
0 1 0 0 −3
−3 0 1 1 1 −3
A=
0 e B =
0 1 0 1 5 3 −5 5 −5 −4
−2 3 −5 −5 1 5 −1 −3 0 0 0
3 5 0 0 0
28
6 Teoria das Matrizes
29
6 Teoria das Matrizes
−8 −14 −3 3 5
−3 −3 5 −5 2
C=
14
23 1 1 −3
42 −5 −9 9 31
30
6 Teoria das Matrizes
· ¸T 3 −5
3 −5 5
• = −5 −4
−5 −4 −1
5 −1
Exemplo 9 A matriz
· ¸
a b
A=
b c
· ¸
0 b
A=
−b 0
2. (A ± B)T = AT ± B T .
3. (AC)T = C T AT .
³Q ´T Q
M M
4. k=1 Dk = k=1 DkT .
Demonstração.
1.
³¡ ¢T ´ ¡ ¢
AT = AT ji
ij
= (A)ij .
31
6 Teoria das Matrizes
2.
³ ´
T
(A ± B) = (A ± B)ji
ij
= aji ± bji
¡ ¢ ¡ ¢
= AT ij ± B T ij .
3.
³ ´
T
(AC) = (AC)ik
ki
p
X
= aij cjk
j=1
p
X ¡ ¢ ¡ ¢
= AT ji
CT kj
j=1
Xp
¡ ¢ ¡ T¢
= CT kj
A ji
j=1
¡ ¢
= C T AT ki .
à M
!T ÃÃM−1 ! !T
Y Y
Dk = Dk DM
k=1 k=1
ÃM−1 !T
T
Y
= (DM ) Dk (pela Propriedade 3)
k=1
M−1
Y
= (DM )T DkT (por hipótese)
k=1
M
Y
= DkT
k=1
32
6 Teoria das Matrizes
Demonstração.
(=⇒)
T
AB = (AB) (porque ABé simétrica)
= B T AT (pela Propriedade 3 da transposição de matrizes)
= BA (porque A e B são comutáveis)
(⇐=)
T T
(AB) = (BA) (porque A e B comutam)
= AT B T (pela Propriedade 3 da transposição de matrizes.
= AB (porque A e B são simétricas)
33
6 Teoria das Matrizes
1. tr (A + B) = tr (A) + tr (B).
2. tr (A + B) = tr (B + A).
3. tr (AC) = tr (CA).
Demonstração.
1. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se
definida. Prosseguindo com a argumentação, segue que:
³ ´
tr (A + B) = tr (A + B)ij
min(m,n)
X
= (all + bll )
l=1
min(m,n) min(m,n)
X X
= all + bll
l=1 l=1
= tr (A) + tr (B)
³ ´
tr (A + B) = tr (A + B)ij
min(m,n)
X
= (all + bll )
l=1
min(m,n)
X
= (bll + all )
l=1
³ ´
= tr (B + A)ij
= tr (B + A)
34
6 Teoria das Matrizes
³ ´
tr (AC) = tr (AC)iq
n
X
= tr aij cjq
j=1
m
X Xn
= aij cji
i=1 j=1
m X
X n
= aij cji
i=1 j=1
³ ´
tr (CA) = tr (CA)pj
Ãm !
X
= tr cpi aij
i=1
n
Ãm !
X X
= cji aij
j=1 i=1
X m
n X
= cji aij
j=1 i=1
Xm X n
= aij cji
i=1 j=1
= tr (AC)
35
6 Teoria das Matrizes
Pn
2. À expressão µj Cj designa-se combinação linear das colunas de A, onde
j=1
© ª
µj j=1,··· ,n são quaisquer escalares do corpo K.
P
m
λi Li = 0 =⇒λi = 0, i = 1, · · · , m (linhas)
i=1
P
n (4)
µj Cj = 0 =⇒µj = 0, j = 1, · · · , n (colunas)
j=1
36
6 Teoria das Matrizes
X
∃k∈{1,··· ,m} : λk 6= 0 ∧ λi Li + λk Lk = 0
i6=k
37
6 Teoria das Matrizes
X X
λi Li + λk Lk + 0Li + λk Lk = λk Lk = 0
i6=k i6=k
X
λi Li + λk Lk = 0,
i6=k
X λk X λk 0
λi Li + (α · Lk ) = λi Li + L = 0.
α α k
i6=k i6=k
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k ou teremos λαk 6= 0. Neste caso, como α 6= 0 teremos
λk 6= 0. Em qualquer caso, é possível obter uma combinação linear
nula das linhas {Li }i=1,··· ,m com pelo menos um escalar não nulo.
4.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0
Substituamos a linha Lk pela linha Lk = Lk + Ll , k 6= l. A combi-
0
nação linear nula das linhas de A onde a linha Lk é substituída por Lk
P 0 P
é dada por i6=k λi Li +λk Lk = Pi6=k λi Li +λk (Lk + Ll )=0. Esta ex-
pressão pode ser reescrita como i6=k,l λi Li +λk Lk +(λk + λl ) Ll =0.
Mas as linhas de A são linearmente dependentes pelo que a respec-
tiva combinação linear nula se obtém com pelo menos um escalar
não nulo. Ou bem que esse escalar é λi , i 6= k, l, ou bem que será
λk , ou então será (λk + λl ). Neste caso, ter-se-á obrigatoriamente
38
6 Teoria das Matrizes
λk 6= 0 ∨ λl =
6 0. Em qualquer caso, é possível obter uma combinação
0
linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não
nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
λi Li + λk Lk = 0,
i6=k
X X 0
λi Li + (λk Lk + λk Ll ) − λk Ll = λi Li + (λl −λk ) Ll + λk Lk =0
| {z }
i6=k 0 i6=k,l
λk Lk
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k, l ou teremos λk 6= 0 ou ainda (λl − λk ) 6= 0. Neste
caso, ter-se-á obrigatoriamente λk 6= 0 ∨ λl 6= 0. Em qualquer caso,
é possível obter uma combinação linear nula das linhas {Li }i=1,··· ,m
com pelo menos um escalar não nulo.
5.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0 P
Substituamos a linha Lk pela linha Lk = Lk + i6=k αi Li . A combi-
0
nação linear nula das linhas de A onde a linha L³k é substituída por
´ Lk
P 0 P P
é dada por i6=k λi Li +λk Lk = i6=k λi Li +λk Lk + i6=k αi Li =0.
P
Esta expressão pode ser reescrita como i6=k(λi +λk αi )Li+λk Lk =0.
Mas as linhas de A são linearmente dependentes pelo que a re-
spectiva combinação linear nula se obtém com pelo menos um es-
calar não nulo. Ou bem que esse escalar é λk ou bem que será
(λi + λk αi ) , i 6= k. Neste caso, ter-se-á obrigatoriamente λk αi 6= 0
(o que implica λk 6= 0)∨λi 6= 0, i 6= k. Em qualquer caso, é possível
0
obter uma combinação linear nula das linhas {Li }i6=k ∪ Lk com pelo
menos um escalar não nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
λi Li + λk Lk = 0,
i6=k
39
6 Teoria das Matrizes
X X X X 0
λi Li +λk Lk +λk αi Li −λk αi Li = (λi − λk ) Li +λk Lk =0
i6=k i6=k i6=k i6=k
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λk 6= 0 ou bem que teremos (λi − λk ) 6= 0, i 6= k. Neste caso, ter-se-á
obrigatoriamente (λk 6= 0 ∨ λi 6= 0)i6=k . Em qualquer caso, é possível
obter uma combinação linear nula das linhas {Li }i=1,··· ,m com pelo
menos um escalar não nulo.
6.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Seja λk
um dos escalares não nulos para os quais se obtém umaP combinação
linear nula das linhas de A. A combinação
P linear nula i λi Li = 0
pode ser reescrita como Lk = − λ1k i6=k λi Li , uma vez que λk 6= 0.
A expressão mostra que a linha Lk pode ser escrita como combinação
linear das restantes linhas da matriz.
(⇐=) Suponhamos que é possível escrever a linha P Lk como combinação
linear P
das restantes linhas, isto é, Lk = i6=k λi Li . Resulta que
Lk − i6=k λi Li = 0, isto é, obteve-se uma combinação linear nula
das linhas da matriz A, em que pelo menos um escalar é não nulo (o
escalar 1 associado à linha Lk ). Tal mostra que as linhas de A são
linearmente dependentes.
Demonstração.
Pn
1. ci0 k = (AB)i0 k = j=1 ai0 j bjk . Logo,
£ ¤
LC
i0 = ci0 1 ci0 2 · · · ci0 p
£ Pn Pn Pn ¤
= j=1 ai0 j bj1 j=1 ai0 j bj2 · · · j=1 ai0 j bjp
Xn
£ ¤
= ai0 j bj1 bj2 · · · bjp
j=1
Xn
= ai0 j LB
j
j=1
40
6 Teoria das Matrizes
n
X
LC
i = aij LB
j , ∀i=1,··· ,m ,
j=1
41
6 Teoria das Matrizes
rl (B)+1
X
0 = µi LC
i
i=1
rl (B)+1 rl (B)
X X
= µi λik LB
k
i=1 k=1
rl (B)+1 rl (B)+1 rl (B)+1
X X X
= µi λi1 LB
1 +
µi λi2 LB
2 + ··· +
µi λirl (B) LB
rl (B)
i=1 i=1 i=1
Prl (B)+1
µi λi1 = 0
Pri=1
l (B)+1
i=1 µi λi2 = 0
···
Prl (B)+1 µ λi
i=1 i rl (B) = 0
42
6 Teoria das Matrizes
iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe
outra, multiplicada por um qualquer escalar (Operação de Jacobi).
43
6 Teoria das Matrizes
−34 −68 −85 −38
A = 90 52 43 91
30 90 −24 −52
Vejamos como cada uma das seguintes operações elementares sobre a ma-
triz A resulta da multiplicação desta matriz pela que resulta da identidade por
aplicação das mesmas operações elementares:
1 0 0 0 0 1
0 1 0 L1 ←→ L3 0 1 0
−−−−−−−→
0 0 1 1 0 0
44
6 Teoria das Matrizes
0
A = E13 · A
0 0 1 −34 −68 −85 −38
= 0 1 0 90 52 43 91
1 0 0 30 90 −24 −52
30 90 −24 −52
= 90 52 43 91
−34 −68 −85 −38
0
A matriz A resultou da matriz A por troca das linhas 1 e 3 como se
pretendia.
2. Troca das colunas 2 e 3.
Deveremos considerar uma multiplicação à direita. Tomamos a matriz
identidade I4 e trocamos as colunas 2 e 3 para obter a matriz F :
1 0 0 0 1 0 0 0
0 1 0 0 0 0 1 0
C2 ←→ C3
0 0 1 0 −−−−−−−→ 0 1 0 0
0 0 0 1 0 0 0 1
0
A = A · E23
1 0 0 0
−34 −68 −85 −38
0 0 1 0
= 90 52 43 91
0 1 0 0
30 90 −24 −52
0 0 0 1
−34 −85 −68 −38
= 90 43 52 91
30 −24 90 −52
0
A matriz A resultou da matriz A por troca das colunas 2 e 3 como se
pretendia.
3. Multiplicação de uma linha por um escalar.
Suponhamos
√ que se pretende multiplicar a linha 2 da matriz A pelo escalar
2. Para tal, tomamos a matriz identidade I3 e multiplicamos a segunda
linha pelo escalar pretendido para obter a matriz E. Seguidamente faz-se
o produto EA para obter a matriz pretendida.
45
6 Teoria das Matrizes
1 0 0 √ 1 √0 0
0
0 1 0 L2 ←− 2L2 0 2 0
−−−−−−−−−→
0 0 1 0 0 1
0
³√ ´
A = E2 2 ·A
1 √0 0 −34 −68 −85 −38
= 0 2 0 90 52 43 91
0 0 1 30 90 −24 −52
−34
√ −68
√ −85
√ −38
√
= 90 2 52 2 43 2 91 2
30 90 −24 −52
0 √
A matriz A resultou da matriz A por multiplicação da 2a linha por 2.
4. Multiplicação de uma coluna por um escalar.
Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo es-
calar 25 . Para tal, tomamos a matriz identidade I4 e multiplicamos a ter-
ceira coluna pelo escalar pretendido para obter a matriz F . Seguidamente
faz-se o produto AF para obter a matriz pretendida.
1 0 0 0 1 0 0 0
0 0 0
1 0 C30 ←− 2 C3 0 1 0
0 0 1
0 −−−−−−− 5−→ 0 0 2
0
5
0 0 0 1 0 0 0 1
µ ¶
0 2
A = A · F3
5
1 0 0 0
−34 −68 −85 −38
0 1 0 0
= 90 52 43 91
0 0 2
5 0
30 90 −24 −52
0 0 0 1
−34 −68 −34 −38
= 90 52 86
5 91
30 90 − 48
5 −52
0
A matriz A resultou da matriz A por multiplicação da linha 3a coluna por
2
5.
46
6 Teoria das Matrizes
1 0 0 √ 1 0 0
0 1 0 L3 ←− L3 + 2L1 0 1 0
−−−−−−−−−−−−−→ √
0 0 1 2 0 1
0
³√ ´
A = E31 2 ·A
1 0 0 −34 −68 −85 −38
= √0 1 0 90 52 43 91
2 0 1 30 90 −24 −52
−34 −68 −85 −38
= √90 √52 √43 √91
−34 2 + 30 −68 2 + 90 −85 2 − 24 −38 2 − 52
0
A matriz A resultou da matriz A por substituição
√ da linha 3 pela que se
obteve somando-lhe a linha 1 multiplicada por 2.
6. Operação de Jacobi sobre as colunas da matriz A.
Consideremos as colunas 2 e 3 da matriz A. Suponhamos que se pretende
substituir a coluna C3 pela que se obtém somando-lhe a coluna C2 multi-
plicada pelo escalar 25 . Tomamos a matriz identidade I4 e substituímos a
coluna C3 pela que se obtém somando-lhe 25 C2 . A matriz F assim obtida
é multiplicada por A, à direita.
1 0 0 0 1 0 0 0
0 0 2
0
1 0 C3 ←− C3 + 2 C2 0 1 5
0 0 1 0 −− 0 0 1 0
−−−−−−−−−5−→
0 0 0 1 0 0 0 1
47
6 Teoria das Matrizes
µ ¶
0 2
A = A · F32
5
1 0 0 0
−34 −68 −85 −38
0 1 2
0
= 90 52 43 91 0 0
5
1 0
30 90 −24 −52
0 0 0 1
561
−34 −68 − 5 −38
= 90 52 319
5 91
30 90 12 −52
0
A matriz A resultou da matriz A por substituição da coluna 3 pela que se
obteve somando-lhe a coluna 2 multiplicada por 25 .
−34 −68 −85 −38
A = 90 52 43 91
30 90 −24 −52
48
6 Teoria das Matrizes
−34 −68 −85 −38
90 52 43 91 L ←→
−−1−−−−−L→3
30 90 −24 −52
30 90 −24 −52
90 52 43 91 C ←→
−−2−−−−−C→3
−34 −68 −85 −38
30 −24 90 −52 √
90 43 52 91 L ←−
−−2−−−−−−2L
−→2
−34 −85 −68 −38
30
√ −24
√ 90
√ −52
√
90 2 43 2 52 2 91 2 L3 ←− L3 + 2L1
−−−−−−−−−−−−→
−34 −85 −68 −38
30
√ −24
√ 90√ −52
√
90 2 43 2 52 2 91 2 C3 ←− 2 C3
5
26 −133 112 −142 −−−−−−−−→
30
√ −24
√ 36√ −52
√
90 2 43 2 104 2 91 2 C3 ←− C3 − C4
5
224
−−−−−−−−−−−→
26 −133 5 −142
30
√ −24
√ 88√ −52
√
90 2 43 2 − 351 2 91 2
5
934
26 −133 5 −142
0
Vejamos agora que se obterá a mesma matriz A se a matriz A for devi-
damente multiplicada pelas matrizes elementares associadas às operações
elementares descritas.
O produto desejado é, simbolicamente, o seguinte:
³ ³√ ´ ´ µ µ ¶ ¶
2
E31 (2) × E2 2 × E13 × A × F23 × F3 × F34 (−1)
5
O resultado será:
49
6 Teoria das Matrizes
√
(L3 ←−L3 +2L1 ) (L2 ←− 2L2 ) (L1 ←→L3 )
z
}| {z }| {
z }| {
1 0 0 1 √0 0 0 0 1
0 1 0 0 2 0 0 1 0 ×
2 0 1 0 0 1 1 0 0
−34 −68 −85 −38
× 90 52 43 91 ×
30 90 −24 −52
1 0 0 0 1 0 0 0 1 0 0 0
0 0 1 0 0 1 0 0 0 1 0 0
×
=
0 1 0 0 0 0 25 0 0 0 1 0
0 0 0 1 0 0 0 1 0 0 −1 1
| {z }| {z }| {z }
(C2 ←→C3 ) (C3 ←− 25 C3 ) (C3 ←−C3 −C4 )
30
√ −24
√ 88√ −52
√
90 2 43 2 − 351 2 91 2
5
934
26 −133 5 −142
50
6 Teoria das Matrizes
51
6 Teoria das Matrizes
£ ¤
0 ··· aiji ··· ain
p
X £ ¤
λi 0 ··· aiji ··· ain =0
i=1
Pp
a1j1 λ1 + Pi=2 λi · 0 = 0
p
a1j2 λ1 + a2j2 λ2 + Pi=3 λi · 0 = 0
a1j3 λ1 + a2j3 λ2 + a3j3 λ3 + pi=4 λi · 0 = 0
··· P
p
i=1 aijp λi · 0 = 0
52
6 Teoria das Matrizes
0 1 1 −1 0
• A = 0 0 0 4 9 . O número de linhas não nulas é 2 pelo que
0 0 0 0 0
a característica de linha da matriz é rl (A) = 2. Alternativamente, pode-
mos verificar que as duas primeiras linhas são linearmente independentes
e, sendo a terceira linha nula, o número máximo de linhas linearmente
independentes é precisamente 2 (sejam λ1 e λ2 os escalares associados,
respectivamente, à primeira e segunda linhas da matriz A):
1.
0 · λ1 + 0 · λ2 =0
0=0
½
1 · λ1 + 0 · λ2 =0 λ1 = 0
λ1 = 0
1 · λ1 + 0 · λ2 = 0 ⇐⇒ 0 = 0 ⇐⇒
λ2 =0
(−1) · λ1 + 4 · λ2 =0
λ2 = 0
0 · λ1 + 9 · λ2 =0 0=0
1 0 0 0 0
• A = 0 1 2 −1 0 . O número de linhas não nulas é 3 pelo que a
0 0 0 0 1
característica de linha da matriz é rl (A) = 3. Alternativamente, podemos
verificar que as linhas são linearmente independentes, sendo portanto o
número máximo de linhas linearmente independentes que é precisamente
3 (sejam λ1 , λ2 e λ3 os escalares associados, respectivamente, à primeira,
segunda e terceira linhas da matriz A):
1.
1 · λ1 + 0 · λ2 + 0 · λ3 =0
λ1 = 0
0 · λ1 + 1 · λ2 + 0 · λ3 =0 λ2 = 0 λ1 = 0
0 · λ1 + 2 · λ2 + 0 · λ3 = 0 ⇐⇒ 0 = 0 ⇐⇒ λ2 = 0
0 · λ1 + (−1) · λ2 + 0 · λ3 =0
0 = 0 λ3 = 0
0 · λ1 + 0 · λ2 + 1 · λ3 =0 λ3 = 0
Proposição 16 Toda a matriz A ∈ Mm×n (K) pode ser reduzida a uma matriz
B em forma de escada por meio de operações elementares sobre as suas linhas,
tendo-se consequentemente rl (A) = rl (B).
53
6 Teoria das Matrizes
54
6 Teoria das Matrizes
0 2 4 1 9
Exemplo 15 Considere-se a matriz A = 0 3 5 2 1 . Determi-
0 −1 2 0 0
nemos a sua característica de linha através de condensação vertical.
0 2 4 1 9 0 1 2 12 29
0 3 5 2 1 L1 ←− 2 L1 0 3 5 2 1 L2 ←− L2 − 3L1
5 −−−−−−−−−−−−→
0 −1 2 0 0 −−−−−−−−→ 0 −1 2 0 0
0 1 2 12 9
2
0 0 −1 1 − 25 L3 ←− L3 + L1
2 2 −−−−−−−−−−−→
0 −1 2 0 0
0 1 2 12 9
2 0 1 2 1
2
9
2
0 0 −1 1 − 25 L3 ←− L3 + 4L2 0 0 −1 1 − 25
2 2 −−−−−−−−−−−−→ 2 2
0 0 4 12 9
2 0 0 0 5
2 − 91
2
55
6 Teoria das Matrizes
0 1 1 −1 0
• 0 0 0 4 9 . Trata-se de uma matriz em forma de escada.
0 0 0 0 0
1 0 0 0 0
• 0 1 2 −1 0 . Trata-se de uma matriz em forma de escada
0 0 0 0 1
reduzida.
Demonstração.
(⇒) Suponhamos que AB = I. Pretende-se mostrar que BA = I.
3 Assumindo que o produto A· B −1 se encontra bem definido, é incorrecto representá-lo por
A
B
. Com efeito, esta notação poderá denotar ambiguamente o produto A · B −1 ou o produto
B −1 · A, que não são necessariamente iguais.
56
6 Teoria das Matrizes
57
6 Teoria das Matrizes
Demonstração.
1. Seja E uma matriz elementar de ordem n sobre K. Se E resultou de In
por troca de linhas (ou colunas) é fácil verificar que EE = In , logo E é
regular e inversa de si mesma. Com feito, se E resulta da troca das linhas
s e t; teremos (no caso da troca de linhas):
Pn
n
X Pj=1 esj ejk = etk , se i = s
n
(EE)ik = eij ejk = j=1 etj ejk = esk , se i = t
j=1 eik , se i 6= s, t
½
1, se k = s
, se i = s
½ 0, se k 6= s
= 1, se k = t = δ ik
, se i = t
0, se k =
6 t
eik , se i 6= s, t
n
X ½
ess fsk = αfsk , se i = s
(EF )ik = eij fjk =
eik , se i 6= s
j=1
½
1, se k = s
, se i = s
= 0, se k 6= s = δ ik
eik , se i 6= s
n
X ½ Pn
(EH)ik = eij hjk = j=1 esj hjk = ess hsk + est htk , se i = s
eik , se i 6= s
j=1
½
1 · 1 + 0 · 0 = 1, se k = s
, se i = s
= 1 · (−b) + b · 1 = 0, se k = t = δ ik
eik , se i 6= s
58
6 Teoria das Matrizes
à p
!
Y ¡ −1 ¢
Ak Ap × · · · × A−1
1 =
k=1
¡ −1
¢
= (A1 × · · · × Ap ) A−1
p × · · · × A1
¡ ¢
= A1 × · · · × Ap A−1p × · · · × A−1
1
¡ −1 ¢
(porque Ap é regular) = (A1 × · · · × Ap−1 ) Ap−1 × · · · × A−1 1
= In (por hipótese)
59
6 Teoria das Matrizes
−1
• Eik (α) = Eik (−α)
0
Demonstração. Façamos a prova para as linhas. Considere-se A = AF ,
e recordemos que a multiplicação à direita por uma matriz elementar cor- re-
sponde a operar sobre as colunas (Proposição
n 0o 13). Designem-se as linhas de
0
A por {Ls }s=1,··· ,n e as de A por Ls . Suponhamos, sem perda de
s=1,··· ,n
generalidade, que {Ls }s=1,··· ,h são linearmente idependentes. Vejamos qual o
resultado da aplicação das três operações elementares sobre as linhas de A.
0
• Suponhamos então que A resulta
n 0 ode A por troca das colunas i e j, com i<
j. Mostremos que as linhas Ls são linearmente independentes:
s=1,··· ,h
h
X 0
λs Ls = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asj ··· asi ··· asn = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
0
Suponhamos agora que A resulta de A por multiplicação da coluna
n 0 o j desta
última por um escalar β ∈ K\ {0}. Mostremos que as linhas Ls
s=1,··· ,h
são linearmente independentes:
h
X 0
λs Ls = 0 ⇐⇒
s=1
60
6 Teoria das Matrizes
h
X £ ¤
λs as1 ··· β × asj ··· asn = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
P
Em particular, relativamente às coordenadas de índice j, temos hs=1 λs ×
Ph Ph
β × asj = β s=1 λs asj = 0. Mas porque β 6= 0 virá s=1 λs asj = 0, isto
é
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
0
• Admitamos agora que A resulta de somar à coluna i de A a coluna j, com
in< j,
o multiplicada por um escalar β ∈ K\ {0}. Mostremos que as linhas
0
Ls são linearmente independentes:
s=1,··· ,h
h
X 0
λs Ls = 0 ⇐⇒
s=1
h
X £ ¤
λs as1 ··· asi + βasj ··· asj ··· asn = 0 ⇐⇒
s=1
61
6 Teoria das Matrizes
Ph
s=1 λs as1 = 0
..
.
Ph Ph
λs asi + β
s=1 s=1 λs asj = 0
.. ⇐⇒
.
Ph
s=1 λs asj = 0
.
..
Ph
s=1 λs asn = 0
Ph
s=1 λs as1 = 0
..
.
Ph
Ph
s=1 λs asi + β s=1 λs asj = 0
.. ⇐⇒
.
Ph
s=1 λs asj = 0
..
.
Ph
s=1 λs asn = 0
h
X £ ¤
λs as1 ··· asi ··· asj ··· asn = 0 ⇐⇒
s=1
h
X
λs Ls = 0 =⇒
s=1
λs = 0, ∀s=1,··· ,h
n 0o
Assim, as linhas Ls são linearmente independentes.
s=1,··· ,n
Concluímos assim, que rl (A) ≤ rl (AF ). Como F é uma matriz elemen-
0
tar, logo é regular e podemos escrever A = A F −1 , sendo também F −1
uma matriz elementar (como verificámos na demonstração
³ 0´ do
³ ponto ´1. da
0
−1
Proposição 18). Do mesmo modo, teremos rl A ≤ rl A F pela
Proposição 12, ou seja rl (AF ) ≤ rl (A), donde a igualdade.
Analogamente se prova a afirmação relativamente à característica de col-
una.
Nota 12 Em termos práticos, o que o resultado anterior nos indica é que oper-
ações elementares sobre as linhas de uma matriz não afectam a sua característica
de coluna e que as operaçõs elementares sobre as colunas de uma matriz não
afectam a sua característica de linha.
62
6 Teoria das Matrizes
1 b12 b13 ··· b1,n−2 b1,n−1 b1,n
0 1 b23 ··· b2,n−2 b2,n−1 b2,n
0 0 1 ··· b3,n−2 b3,n−1 b3,n
.. .. .. .. .. ..
. . . . . . (5)
0 0 0 ··· 1 bn−2,n−1 bn−2,n
0 0 0 ··· 0 1 bn−1,n
0 0 0 ··· 0 0 1
63
6 Teoria das Matrizes
Op1 Op1 ,
A −−−−−→ A1 In −−−−−→ E1
64
6 Teoria das Matrizes
E12···t = Et E12···t−1
= Et Et−1 · E12···t−2
= (· · · )
= Et Et−1 · · · · · E3 E2 E1
e ainda
In = At
= Et At−1
= Et Et−1 · At−2
= (· · · )
= Et Et−1 · · · · · E3 E2 E1 A
= E12···t A
65
6 Teoria das Matrizes
Demonstração.
1. Pelo ponto 2. da Proposição (18) se A é regular então rl (A) = n. Pela
Proposição (22), se rl (A) = n então A é regular. Analogamente para
rc (A) = n.
2. Se A é regular, por definição existe uma matriz B ∈ Mn (K) tal que AB =
In = BA. Se AB = In , pela Proposição (12) tem-se n = rc (In ) ≤ rc (B),
logo rc (A) = n, e portanto A é regular pelo ponto anterior.
£ ¤ £ ¤ £ ¤
A|In Op1 A1 |E1 In Op2 A2 |E2 E1 Op3
£ −−−−−¤→ £ −−¤−−−→ £ −−−− −→ ¤
A3 |E3 E2 E1 −−·−·−
·→ A1 |E1 Opt In |Et Et−1 · · · E2 E1
−−−−−→
£ ¤ £ ¤
O que fizemos foi passar de uma matriz A|In para uma matriz In |B
através de operações elementares sobre linhas, em que B = A−1 .
1 1 1
A = 1 −1 1
1 1 0
66
6 Teoria das Matrizes
− 12 1
2 1
A−1 = 1
2 − 12 0
1 0 −1
Conclui-se assim que a matriz é regular, conclusão esta atingida ao fim das
duas primeiras operações sobre as linhas de A, quando se obteve uma matriz
em escada de elementos principais significativos. Se a matriz A não fosse reg-
ular o processo teria terminado aqui. Sendo regular, prosseguiu-se na aplicação
de operações elementares sobre as linhas de A até se obter I3 enquanto que
simultaneamente determinávamos A−1 por aplicação das mesmas operações el-
ementares sobre I3 .
Note-se que às operações elementares utilizadas correspondem, utilizando a
notação habitual, as seguintes matrizes elementares
L2 ←− L2 − L1 : E21 (−1)
L3 ←− L3 − L1 : E31¡(−1)¢
L2 ←− − 12 L2 : E2 − 12
L3 ←− −L3 : E3 (−1)
L1 ←− L1 − L3 : E13 (−1)
L1 ←− L1 − L2 : E12 (−1)
67
6 Teoria das Matrizes
Tal significa, segundo o que verificámos na proposição 22, que a matriz A−1
pode ser produzida pelo produto, pela ordem correcta!, das matrizes elementares
acima descritas. Verifiquemos então esse resultado:
µ ¶
1
A−1 = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) =
2
1 −1 0 1 0 −1 10 0 1 0 0 1 00 1 00
· 0 1 0
= 0 1 0 · 0 1 0 · 0 − 12 0 · 0 1 0 · −1 1 0 =
0 0 1 00 1 0 0 −1 0 0 1 −1 0 1 0 01
1 1
1 −1 −1 1 0 0 1 0 0 −2 2 1
= 0 1 0 0 − 12 0 −1 1 0 = 12 − 12 0
0 0 1 0 0 −1 −1 0 1 1 0 −1
Como seria inevitável, a matriz obtida pelo produto das matrizes elementares
é precisamente A−1 .
Por um processo semelhante, também será possível recuperar a matriz A.
Com efeito, esta matriz será a inversa do produto de matrizes elementares de-
scrito anteriormente. Sabendo que a inversa de uma matriz elementar tem uma
forma extremamente simples, é relativamente simples determinar A, como se
verifica em seguida:
· µ ¶ ¸−1
1
A = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) =
2
µ ¶
−1 −1 1
E21 (−1) · E31 (−1) · E2−1 − · E3−1 (−1) · E13
−1 −1
(−1) · E12 (−1) =
2
E21 (1) · E31 (1) · E2 (−2) · E3 (−1) · E13 (1) · E12 (1) =
100 100 1 0 0 10 0 101 110
= 1 1 0 · 0 1 0 · 0 −2 0 · 0 1 0 · 0 1 0 =
· 0 1 0
001 101 0 0 1 0 0 −1 001 001
1 0 0 1 0 0 1 1 1 1 1 1
= 1 1 0 0 −2 0 0 1 1 = 1 −1 −1
1 0 1 0 0 −1 0 0 1 1 1 0
68
6 Teoria das Matrizes
por aplicação de operações elementares sobre linhas. Com efeito, só assim é pos-
sível afirmar que Et Et−1 · · · E2 E1 A = In e que portanto A−1 = Et Et−1 · · · E2 E1 .
Se forem aplicadas operações sobre colunas, definidas pelas matrizes elementares
F1 , F2 , · · · Fs , chegar-se-á à conclusão que Et Et−1 · · · E2 E1 AF1 F2 · · · Fs = In .
Esta expressão não está, obviamente, na forma BA = In não permitindo inferir
imediatamente a forma de A−1 .
1 1 1
A = 1 −1 1
−1 −3 −1
¯
1 1 1 ¯¯ 1 0 0
1 −1 1 ¯ 0 1 0 L2 ←− L2 − L1
¯ L3 ←− L3 + L1
−1 −3 −1 ¯ 0 0 1 −−− −−−−−−−−−→
¯
¯
1 1 1 ¯ 1 0 0
0 −2 0 ¯ −1 1 0 L3 ←− L3 − L2
¯ −−−−−−−−−−−−→
0 −2 0 ¯ 1 0 1
¯
1 1 1 ¯¯ 1 0 0
0 −2 0 ¯ −1 1 0
¯
0 0 0 ¯ 2 −1 1
£ ¤
Obteve-se uma matriz na forma A3 |E3 . Note-se que, neste ponto não há
forma de colocar na posição (3, 3) um elemento não nulo sem com essa operação
anular a configuração em forma de escada da matriz A3 . Conclui-se assim que
a matriz A não é regular. Mais se conclui que, como a matriz A3 está na forma
de escada, que a caratcterística da matriz A é 2.
69
6 Teoria das Matrizes
0···0 1 b1,j1 +1 b1,j1 +2 · · · b1,j2 b1,j2 +1 · · · b1,j3 b1,j3 +1 · · · b1,jt · · · b1n
0 · · · 0
0 0 0 · · · 1 b2,j2 +1 · · · b2,j3 b2,j3 +1 · · · b2,jt · · · b2n
0 · · · 0
0 0 0 ··· 0 0 · · · 1 b3,j3 +1 · · · b3,jt · · · b3n
.. ..
.. .. .. .. .. .. .. .. ..
. .. . . . . . . . .
0 · · · 0
0 0 0 ··· 0 0 ··· 0 0 · · · 1 · · · btn
0 · · · 0
0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
.. ..
.. .. .. .. .. .. .. .. ..
. .. . . . . . . . .
0···0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0
1 b1,j2 b1,j3 · · · b1,jt b1,j1 +1 b1,j1 +2 · · · b1,j2 +1 · · · b1,j3 +1 · · · b1n 0···0
0 1 b2,j3 · · · b2,jt 0 0 · · · b2,j2 +1 · · · b2,j3 +1 · · · b2n 0 · · · 0
0 0 1 · · · b3,jt 0 0 ··· 0 · · · b3,j3 +1 · · · b3n 0 · · · 0
.. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . .
0 0 0 ··· 1 0 0 ··· 0 ··· 0 · · · btn 0 · · · 0
0 0 0 ··· 0 0 0 ··· 0 ··· 0 ··· 0 0 · · · 0
. . .. .. .. .. .. .. .. .. ..
.
. . . . . . . . . . . .
0 0 0 ··· 0 0 0 ··· 0 ··· 0 ··· 0 0···0
70
6 Teoria das Matrizes
· ¸
(3) It 0t,n−t
A =
0m−t,t 0m−t,n−t
³ ´
t = rl A(3) = rl (EAF ) = rl (AF ) = rl (A)
³ ´
t = rc A(3) = rc (EAF ) = rc (AF ) = rc (A)
71
6 Teoria das Matrizes
72
6 Teoria das Matrizes
1 2 1 1 2 1
0 1 0 0 1 0
L3 ←−L3 +2×L2 L4 ←−L4 +3×L3
0 −2 1 1
L4 ←−L4 +3×L2 0 0 L4 ←−L4 −L3
0 −3
−3 −−−−−−−−−−−−−→ 0 0 −3 −−−− −−−−−−−−−→
0 0 1 0 0 1
1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
1 2 1 1 2 0
0 1 0 0 1 0
0 0 1 L1 ←− L1 − L3 0 0 1 L1 ←− L1 − 2 × L2
−−−−−−−−−−−−→ −−−−−−−−−−−−−−−−→
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
1 2 1 1 0 0
0 1 0 0 1 0
C2 ←− C2 − 2 × C1
0 0 1 0 0 1
0 0 0 −−−C3 ←− C3 − C1
−−−−−−−−−−−−−→ 0 0 0
0 0 0 0 0 0
73
6 Teoria das Matrizes
a1 x1 + a2 x2 + · · · + an−1 xn−1 + an xn = b
74
6 Teoria das Matrizes
a11 x1 + a12 x2 + · · · + a1,n−1 xn−1 + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2,n−1 xn−1 + a2n xn = b1
(8)
···
am1 x1 + am2 x2 + · · · + am,n−1 xn−1 + amn xn = b1
AX = B (9)
75
6 Teoria das Matrizes
· ¸· ¸ · ¸
1 1 x 1800
2 1 =
3 2 y 1100
½
3x + 2y + z = 39
•
2x + 3y + z = 34
Este sistema pode ser escrito matricialmente na forma:
· ¸ x · ¸
3 2 1 y = 39
2 3 1 34
z
10 + 11x + 12y = 0
• 20 + 21x + 22y = 0
30 + 31x + 32y = 0
O sistema acima, reescrito na forma canónica, apresenta-se do seguinte
modo:
11x + 12y = −10
21x + 22y = −20
31x + 32y = −30
11 12 · ¸ −10
21 22 x = −20
y
31 32 −30
76
6 Teoria das Matrizes
Demonstração.
1. Basta verificar que, dada a regularidade da matriz P , então P −1 existe e
portanto
(P A) X = P B ⇐⇒
−1
P (P A) X = P −1 P B ⇐⇒
IAX = IB ⇐⇒
AX = B
77
6 Teoria das Matrizes
Obviamente que
f (X0 ) = f (X1 ) ⇒
Q−1 X0 = Q−1 X1 ⇒
¡ ¢ ¡ ¢
QQ−1 X0 = QQ−1 X1 ⇒
IX0 = IX1 ⇒
X0 = X1
AX0 = A (QD)
= (AQ) D
= B
78
6 Teoria das Matrizes
x1 + 2x2 − x3 = 1
−2x1 + 4x2 + x3 = 0
−x1 + 6x2 = −1
A ”simplificação” deste sistema de equações consistia, por exemplo, em
”eliminar” a variável x1 da primeira equação; para tal, somava-se a primeira
com a terceira equação, para se obter 8x2 − x3 = 0; esta equação, com duas var-
iáveis, vinha agora substituir a primeira equação do sistema, com três variáveis,
para se obter um sistema equivalente:
8x2 − x3 = 0
−2x1 + 4x2 + x3 = 0
−x1 + 6x2 = −1
Prosseguia-se agora com a resolução resolvendo explicitamente para algu-
mas variáveis e substituindo o resultado nas equações com maior número de
variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente,
embora fosse intuitivamente evidente. No entanto, agora, à luz da teoria das
matrizes, é simples verificar que a transformação efectuada consistiu em tomar
a matriz elementar,
1 0 1
E= 0 1 0
0 0 1
e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos inde-
pendentes do sistema original, respectivamente,
1 2 −1 1
A = −2 4 1 e B = 0
−1 6 0 −1
O resultado obtido, é, como não podia deixar de ser,
1 0 1 1 2 −1 0 8 −1
A0 = 0 1 0 −2 4 1 = −2 4 1 e
0 0 1 −1 6 0 −1 6 0
1 0 1 1 0
B0 = 0 1 0 0 = 0
0 0 1 −1 −1
Note-se que as matrizes A0 e B 0 são precisamente as matrizes de coeficientes
e de termos independentes do sistema após a transformação. Portanto, os sis-
temas AX = B e A0 X = B 0 são equivalentes porque A0 = EA e B 0 = EB e E
é uma matriz elementar, logo regular.
79
6 Teoria das Matrizes
¯
¯
¯
0 · · · 0 1 a01,j1 +1 a01,j1 +2 · · · a01,j2 a01,j2 +1 · · · a01,j3 a01,j3 +1 · · · a01,jt · · · a01n¯¯ b01
0 · · · 0 0 0 0 · · · 1 a02,j2 +1 · · · a02,j3 a02,j3 +1 · · · a02,jt · · · a02n¯¯ b02
0 · · · 0 0 0 0 ··· 0 0 · · · 1 a03,j3 +1 · · · a03,jt · · · a03n¯¯ b03
. .. .. .. .. .. .. .. .. .. .. ¯¯ ..
.
. . . . . . . . . . . ¯ .
0 ¯ b0
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 1 · · · atn¯ t
¯
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 · · · 0 ¯ b0t+1
¯
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 ¯ 0
. .. .. .. .. .. .. .. .. .. ¯
.. ¯ ..
.
. . . . . . . . . . . ¯ .
¯
0 · · · 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 ··· 0 ¯ 0
| {z ¯
}¯ |{z}
A0 B 0
80
6 Teoria das Matrizes
¯
¯
¯
0 · · · 0 1 a001,j1 +1 a001,j1 +2 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0 · · · a001n¯¯ b001
0 · · · 0 0 0 0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0 · · · a002n¯¯ b002
0 · · · 0 0 0 0 ···0 0 · · · 1 a003,j3 +1 · · · 0 · · · a003n¯¯ b003
. .. .. .. .. .. .. .. .. .. .. ¯¯ ..
.
. . . . . . . . . . . ¯ .
¯
0 · · · 0 0 0 0 ···0 0 ···0 0 ···1 · · · a00tn¯ b00t
¯ 00
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 · · · 0 ¯ bt+1
¯
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0
. .. .. .. .. .. .. .. .. .. ¯
.. ¯ ..
.
. . . . . . . . . . . ¯ .
¯
0 · · · 0 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0
| {z }¯¯ |{z}
A00 B 00
81
6 Teoria das Matrizes
xj1 = b001n
xj2 = b002n
·········
xj2 = b00tn
xj = 0, j ∈ {1, · · · , n} \ {j1 , · · · jt }
É simples verificar que a solução acima exposta constitui uma solução para
o sistema A00 X = B 00 , logo, para o sistema AX = B. A título ilustrativo,
consideremos a primeira equação do sistema A00 X = B 00 :
Versão 2:
82
6 Teoria das Matrizes
Demonstração.
1.
2.(=⇒) Suponhamos que o sistema é possível e determinado. Então, existirá
apena uma coluna D ∈ Mn×1 (K) tal que AD = B. Se designarmos
por A1 , · · · , An as colunas da matriz A e se {d1 , · · · , dn } forem os
elementos da matriz D, teremos d1 A1 + · · · + dn An = B.
A natureza da independência linear das colunas da matriz A pode ser
estudada compondo a combinação nula destas colunas e resolvendo
para os escalares. A combinação linear nula das colunas de A é dada
por λ1 A1 + · · · + λn An = 0. Adicionando as duas equações termo a
termo, obtém-se
(d1 A1 + · · · + dn An ) + (λ1 A1 + · · · + λn An ) =
= (d1 + λ1 ) A1 + · · · + (dn + λn ) An = B + 0 = B
A igualdade mostra que a coluna de elementos {d1 + λ1 , · · · dn + λn }
é solução da equação AX = B. Como, por hipótese, a solução é única,
conclui-se que as colunas {d1 , · · · , dn } e {d1 + λ1 , · · · , dn + λn } de-
verão ser iguais, isto é, d1 = d1 + λ1 , · · · , dn = dn + λn , donde
λ1 = · · · = λn = 0, o que mostra que as colunas da matriz A
são linearmente independentes e, sendo em número de n, ter-se-á
r (A) = r ([ A| B]) = n.
83
6 Teoria das Matrizes
µ ¶
λ1 λn
(µ1 A1 + · · · + µn An ) − − A1 − · · · − An =
λn+1 λn+1
µ ¶ µ ¶
λ1 λn
= µ1 + A1 + · · · + µn + An = B − B = 0
λn+1 λn+1
84
6 Teoria das Matrizes
¯
¯
¯
1 a012 a013 · · · a01,n ¯¯ b01
0 1 a023 · · · a02,n ¯¯ b02
0 0 1 · · · a03,n ¯¯ b03
.. .. .. .. ¯¯ ..
. . . . ¯ .
¯ 0
0 0 0 · · · 1 ¯ bn
¯
0 0 0 ··· 0 ¯ 0
¯
0 0 0 ··· 0 ¯ 0
.. .. .. ¯
.. ¯ ..
. . . . ¯ .
¯
0 0 0 ··· 0 ¯ 0
| {z ¯
}¯ |{z}
A 0 B 0
Indeterminado
(r(A)=r([ A|B])<n)
Solúvel
(r(A)=r([ A|B]))
Equação AX = B Determinado
(r(A)=r([ A|B])=n)
Insolúvel
(r(A)6=r([ A|B]))
x+y =0
x−y =1
4x + 2y = 1
¯
1 1 ¯¯ 0
[ A| B] = 1 −1 ¯¯ 1
4 2 ¯ 1
85
6 Teoria das Matrizes
¯
1 1 ¯¯ 0
1 −1 ¯ 1 L2 ←− L2 − L1
¯ L3 ←− L3 − 4L1
4 2 ¯ 1 −−− −−−−−−−−−−→
¯ ¯
1 1 ¯¯ 0 1 1 ¯¯ 0
0 −2 ¯ 1 L3 ←− L3 − L2 0 −2 ¯ 1 = [ A0 | B 0 ]
¯ −−−−−−−−−−−→ ¯
0 −2 ¯ 1 0 0 ¯ 0
2x1 + 2x2 − 2x3 = 5
7x1 + 7x2 + x3 = 10
5x1 + 5x2 − x3 = 5
¯
2 2 −2 ¯ 5
¯
[ A| B] = 7 7 1 ¯ 10
¯
5 5 −1 ¯ 5
¯
2 2 −2 ¯ 5
¯ L ←− L2 − 72 L1
7 7 1 ¯ 10 2
¯ L3 ←− L3 − 5 L1
5 5 −1 ¯ 5 −−−−−−−−−−−−2−−→
¯
2 2 2 ¯ 5
¯
0 0 8 ¯ − 15 L3 ←− L3 + 3 L2
¯ 2
0 0 −6 ¯ − 15 −−−−−−−−−−−4−→
¯ 2
2 2 2 ¯¯ 5
0 0 8 ¯¯ − 152
= [ A0 | B 0 ]
0 0 0 ¯ 105
8
½
x1 − x2 + x3 = 1
x1 + x2 − x3 = 2
86
6 Teoria das Matrizes
· ¯ ¸
1 −1 1 ¯¯ 1
[ A| B] =
1 1 −1 ¯ 2
· ¯ ¸
1 −1 1 ¯¯ 1
L ←− L2−− L
1 1 −1 ¯ 2 −−2−−−−−− −− →1
· ¯ ¸
1 −1 1 ¯ 1
¯ 0 0
0 2 −2 ¯ 1 = [A | B ]
¯
¯
¯
0 · · · 0 1 a001,j1 +1 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0 00 ¯
· · · a1n¯ b001
0 · · · 0 0 0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0 · · · a002n¯¯ b002
0 · · · 0 0 0 ···0 0 · · · 1 a003,j3 +1 · · · 0 · · · a003n¯¯ b003
. .. .. .. .. .. .. .. .. .. ¯¯ ..
.
. . . . . . . . . . ¯ .
¯
0 · · · 0 0 0 ···0 0 ···0 0 ···1 · · · a00tn¯ b00t
¯
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0
¯
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0
. .. .. .. .. .. .. .. .. .. ¯¯ ..
.
. . . . . . . . . . ¯ .
¯
0 · · · 0 0 0 ···0 0 ···0 0 ···0 ··· 0 ¯ 0
| {z }¯¯ |{z}
A00 =P A 00
B =P B
87
6 Teoria das Matrizes
· ¸
It Ct,n−t
0m−t,t 0m−t,n−t
· Por outras
¸ palavras, existe uma matriz regular Q ∈ Mn (K) tal que P AQ =
It C
. Como foi referido no ponto 2 da Proposição 26, se D for uma
0 0
solução de (P A) X = P B então Q−1 D é uma solução de (P AQ) Y = P B. Ora,
facilmente se verifica que a equação
· ¸
It C
Y = {b001 , · · · , b00t , 0, · · · , 0}
0 0
· ¸" (1)
# "
00(1)
#
It Ct,n−t Yt,1 Bt,1
(2) = (10)
0m−t,t 0m−t,n−t Yn−t,1 0m−t,1
Esta equação matricial pode ser reescrita como um sistema de duas equações
matriciais atendendo à partição em blocos escolhida. Obtém-se então:
(
(1) (2) 00(1)
It · Yt,1 + Ct,n−t · Yn−t,1 = Bt,1
(1) (2)
0m−t,t · Yt,1 + 0m−t,n−t · Yn−t,1 = 0m−t,1
A segunda equação pode ser omitida uma vez que constitui a condição uni-
versal 0m−t,1 ≡ 0m−t,1 . Resta portanto a equação:
88
6 Teoria das Matrizes
" #
00(1)
Bt,1 − Ct,n−t · Dn−t,1
(11)
Dn−t,1
(2)
onde Dn−t,1 ∈ K n−t é uma concretização arbitrária qualquer das incógnitas
(2) (2)
representadas em Yn−t,1 , a saber {yt+1 , · · · , yn }. Em particular, se Yn−t,1 = 0,
recupera-se a solução particular D0 = {b001 , · · · , b00t , 0, · · · , 0} já mencionada.
Nota 18 A solução geral do sistema, dada pela expressão (11), foi obtida atrvés
de uma sucessão de equivalências que se iniciou na equação A00 Y = B 00 , o que
significa que não só a expressão (11) é uma solução do sistema como também
qualquer solução do sistema A00 Y = B 00 poderá ser escrita na forma dada pela
expressão (11), isto é, se Gn1 for uma solução de A00 Y = B 00 então existe
(2)
Dn−t,1 ∈ K n−t tal que:
" #
00(1)
Bt,1 − Ct,n−t · Dn−t,1
Gn1 =
Dn−t,1
89
6 Teoria das Matrizes
" # · ¸
00(1)
Bt,1 Ct,n−t
− Dn−t,1 (12)
0n−t,1 −In−t
(" # · ¸ )
00(1)
Bt,1 Ct,n−t
Q − Dn−t,1
0n−t,1 −In−t
¡ ¢
(P AQ) Q−1 X = (P A) E1 E2 · · · Eh Eh−1 · · · E2−1 E1−1 X
= (P A) E1 E2 · · · Eh Eh · · · E2 E1 X
90
6 Teoria das Matrizes
x1
1 2 −1 0 2 x2 1
−2 4 1 1 0 x3 = 0
−1 6 0 0 −1 x4 −1
| {z } x5 | {z }
A | {z } B
X
1 2 −1 0 2 1
−2 L2 ←− L2 + 2L1
4 1 1 0 0
L3 ←− L3 + L1
−1 6 0 0 −1 −−−−−−−−−−−−−→
−1
1 2 −1 0 2 1
0 −1 1 4 2 L
8 −−3−←− L−
−−−− −
3−−−L→2
0 8 −1 0 1 0
1 2 −1 0 2 1
0 8 −1 1 4 2 = [ A0 | B 0 ]
0 0 0 −1 −3 −2
91
6 Teoria das Matrizes
1 2 −1 0 2 1
L2 ←− 18 L2
0 8 −1 1 4 2
L3 ←− −L3
0 0 0 -1 −3 −2 −−−−−−−−−−→
1 2 −1 0 2 1
0 1 − 18 1 1 1 L1 ←− L1 − 2L2
8 2 4 −−−−−−−−−−−−→
0 0 0 1 3 2
1 0 − 34 − 14 1 1
2 1
0 1 − 18 1
8
1
2
1
4
L2 ←− L2 − 81 L3
L1 ←− L1 + L3
0 0 0 1 3 2 −−−−−−−−−−−−4−−→
1 0 − 34 0 7
4 1
0 1 − 18 0 1
0
8
0 0 0 1 3 2
Neste ponto, sabemos que existe uma matriz regular, P , tal que:
1 0 − 34 0 7
4 1
PA = 0 1 − 18 0 1
8
e PB = 0
0 0 0 1 3 2
Alternativa 1
Esta alternativa é baseada na descrição teórica acima realizada. A partir da
equação (P A) X = P B poderemos escrever, trocando as colunas 3 e 4 da matriz
P A o sistema:
1 0 0 − 34 7
4 ¡ −1 ¢ 1
0 1 0 − 18 1 Q X = 0
8
0 0 1 0 3 2
| {z } | {z }
P AQ PB
92
6 Teoria das Matrizes
1 0 0 0 0
0 1 0 0 0
Q=
0 0 0 1 0
0 0 1 0 0
0 0 0 0 1
" # · ¸
00(1)
B3,1 C3,2
− D2,1
02,1 −I2
3 7
1 −4 4 · ¸ · ¸
00(1) 0 1 0
onde B3,1 = 0 , C3,2 = − 18 18 , 02,1 = , I2 =
0 0 1
2 0 3
· ¸
α1
e D2,1 = é um vector de escalares pertencentes ao corpo K (neste caso
α2
K = R). Tem-se assim a solução geral, Y , de (P AQ) Y = P B dada por
y1 1 − 34 7
4
y2 0 − 18 1 · ¸
8 α1
y3 = 2 − 0 3
α2 ; α1 , α2 ∈ R
y4 0 −1 0
y5 0 0 −1
y1
1 − 34 7
4
¸
y2
0
− 18 ·
1
α1
8
Q
y3 =Q
2 −
0 3
α2 =
y4
0 −1 0
y5 0 0 −1
93
6 Teoria das Matrizes
3
1 4 − 74
0 1 − 18 · ¸
8 α1
= Q
2
+ Q 0 −3
α2 =
0 1 0
0 0 1
3
1 4 − 74
0 1 −1 · ¸
8 8 α1
=
0
+ 1
0
α2
2 0 −3
0 0 1
3
x1 1 4 − 74
x2 0 1 − 18
8
x3 = 0 + α1 1 + α2 0 ; α1 , α2 ∈ R
x4 2 0 −3
x5 0 0 1
Alternativa 2
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). O sistema a resolver é portanto:
1 0 − 34 0 7
4 1
0 1 − 18 0 1 X = 0
8
0 0 0 1 3 2
| {z } | {z }
PA PB
94
6 Teoria das Matrizes
x1 1
x2 0
x3 = 0 + α1 V3 + α2 V5 =
x4 2
x5 0
3 7
1 4 −4
0 1 −1
8 8
=
0 + α1 1 + α2 0
; α1 , α2 ∈ R
2 0 −3
0 0 1
Alternativa 3
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). Reescrevendo o sistema na forma algébrica, é possível deduzir a solução
geral de forma intuitiva. O sistema a resolver é, como na alternativa 2:
1 0 − 34 0 7
4 1
0 1 − 18 0 1 X = 0
8
0 0 0 1 3 2
| {z } | {z }
PA PB
95
6 Teoria das Matrizes
96
6 Teoria das Matrizes
3 7
x1 1 4 −4
x2 0 1 −1
8 8
x3 = 0 + α1 1 + α2 0 ; α1 , α2 ∈ R
x4 2 0 −3
x5 0 0 1
97
6 Teoria das Matrizes
obviamente insolúvel
Caso 2 cr ≤ n. O sistema é possível. Note-se que r ≤ n.
£ ¤T
b01 b02 ··· b0n
xc1 = b01 − a01cr+1 xcr+1 − · · · − a01cn xcn
····································
xcr = b0r − a0rcr+1 xcr+1 − · · · − a0rcn xcn
98
6 Teoria das Matrizes
· ¸
8 −28
Exemplo 27 A matriz A = é idempotente uma vez que:
2 −7
· ¸· ¸ · ¸
8 −28 8 −28 8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7)
=
2 −7 2 −7 2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7)
· ¸
8 −28
=
2 −7
0 0 0
Exemplo 28 A matriz A = 1 2 −1 é nilpotente de ordem 3 uma vez
1 4 −2
que:
0 0 0
1 2 −1 6= 0
1 4 −2
2
0 0 0 0 0 0
1 2 −1 6= 1 0 0 6= 0
1 4 −2 2 0 0
3
0 0 0
1 2 −1 = 0
1 4 −2
− 11
2 − 39
4 − 39
4
Exemplo 29 É simples confirmar que a matriz A = 1 5 3 é
2 2
2 3 4
involuntória.
99
6 Teoria das Matrizes
100