You are on page 1of 127

APUNTES DE

ALGEBRA II
INGENIER

IA INDUSTRIAL
a t i
c a s
a t e

UNIVERSIDAD CARLOS III DE MADRID


DEPARTAMENTO DE MATEM

ATICAS
Fernando de Ter an Vergara

Indice general
1. PRODUCTOS ESCALARES 3
1.1. Deniciones y propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Bases ortogonales y ortonormales. M etodo de Gram-Schmidt . . . . . . . . . . 9
1.3. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. Factorizaci on QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5. Problemas de mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . . . . 24
2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS 29
2.1. Matrices unitarias y ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Matrices de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3. El lema de Schur y sus aplicaciones . . . . . . . . . . . . . . . . . . . . . . . 36
2.4. Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
. . . . . . . . 44
3. VALORES SINGULARES DE MATRICES 53
3.1. La descomposici on en valores singulares . . . . . . . . . . . . . . . . . . . . . 53
3.2. Aplicaci on al problema de mnimos cuadrados. La pseudoinversa. . . . . . . . 60
3.3. Aproximaciones de rango bajo. Compresi on de im agenes . . . . . . . . . . . . 64
4. FORMAS CUADR

ATICAS 67
4.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2. Formas cuadr aticas. Reducci on a la forma can onica . . . . . . . . . . . . . . . 71
4.3. Formas cuadr aticas denidas . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4. La ley de inercia de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.5. Factorizaci on de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5. C

ONICAS Y CU

ADRICAS 83
5.1. C onicas en R
2
. Reducci on a la forma can onica . . . . . . . . . . . . . . . . . 83
5.2. Determinaci on de los ejes, centro y v ertice de una c onica . . . . . . . . . . . . 86
5.2.1. Centro y ejes de una elipse o una hip erbola . . . . . . . . . . . . . . . 87
5.2.2. Eje y v ertice de una par abola . . . . . . . . . . . . . . . . . . . . . . . 88
5.3. Cu adricas en R
3
. Reducci on a la forma can onica . . . . . . . . . . . . . . . . 90
5.4. Determinaci on de los ejes, centro y v ertice de una cu adrica . . . . . . . . . . . 96
5.4.1. Centro de un elipsoide o un hiperboloide . . . . . . . . . . . . . . . . 96
5.4.2. V ertice de un paraboloide . . . . . . . . . . . . . . . . . . . . . . . . 97
III
IV

INDICE GENERAL
5.5. Representaci on gr aca de las cu adricas en forma reducida . . . . . . . . . . . 98
6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES 103
6.1. Normas vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.2. Normas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.3. El radio espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.4. Errores en inversas y en soluciones de sistemas lineales. N umero de condici on . 109
7. INTRODUCCI

ON A LOS M

ETODOS ITERATIVOS 117


7.1. M etodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.2. Aplicaci on a los sistemas lineales. M etodos de Jacobi y Gauss-Seidel . . . . . 119
NOTACI

ON
En estos apuntes y, salvo que se indique explcitamente lo contrario, utilizaremos la si-
guiente notaci on:
Smbolo Signicado
C Cuerpo de los n umeros complejos
C
mn
Espacio vectorial de las matrices mn con coecientes complejos
R Cuerpo de los n umeros reales
R
mn
Espacio vectorial de las matrices mn con coecientes reales
K Cuerpo de los n umeros reales o complejos (indistintamente)
dim(V) Dimensi on del espacio vectorial V
I
n
Matriz identidad de tama no n n
0
pq
Matriz de tama no p q con todas sus entradas nulas
det(A) Determinante de la matriz A
rango(A) Rango de la matriz A
A
T
Traspuesta de la matriz A
A

Traspuesta conjugada de la matriz A


diag(A
1
, . . . , A
n
) Matriz diagonal por bloques, que son A
1
, . . . , A
n
A(i, j) Entrada (i, j) de la matriz A
ker (A) N ucleo de la matriz A
col (A) Espacio generado por las columnas de la matriz A
A =
_
a
1
. . . a
k

Matriz cuyas columnas son a


1
, . . . , a
k
Gen(S) Espacio vectorial (sobre K) generado por el conjunto S
(
R
n Base can onica de R
n
M(B
1
, B
2
) Matriz de cambio de base de B
1
a B
2
c Conjugado del n umero complejo c
[c[ M odulo del n umero complejo c
Re (v) Parte real del vector (complejo) v
Im (v) Parte imaginaria del vector (complejo) v
[v]
B
Vector v expresado en coordenadas en la base B
Para todo
Adem as, seguiremos el convenio de considerar vectores columna, es decir, las coordena-
das del vector v se suponen ordenadas en una columna. Para expresar vectores la, por tanto,
utilizaremos la traspuesta, v
T
.
Igualmente, denotaremos por e
i
al i- esimo vector can onico de R
n
, es decir
i)
e
i
=
_
0 . . . 1 . . . 0

T
.
1
PRODUCTOS ESCALARES
1.1 Deniciones y propiedades b asicas
A lo largo de estos apuntes, V denotar a un espacio vectorial sobre el cuerpo, C, de los
n umeros complejos o sobre el cuerpo, R, de los n umeros reales. En algunos casos el cuerpo
base ser a unicamente C o unicamente R, pero en otros ser a C o R, indistintamente. En este
ultimo caso denotaremos al cuerpo gen ericamente por K.
La denici on fundamental de este captulo es la siguiente.
Denici on 1.1.1 (Producto escalar hermtico) Sea V un espacio vectorial sobre C. Una apli-
caci on : V V C es un producto escalar hermtico en V si cumple los siguientes
axiomas:
i) (u, u) es un n umero real no negativo, para todo u V, y (u, u) = 0 si y s olo si
u = 0 (Positiva)
ii) (u, v) = (v, u), para cualesquiera u, v V (Hermtica)
iii) (u + v, w) = (u, w) + (v, w), para cualesquiera n umeros complejos , y
vectores u, v, w V (Bilineal)
En el caso de espacios vectoriales reales la denici on de producto escalar se obtiene parti-
cularizando la denici on anterior a un espacio sobre R.
Denici on 1.1.2 (Producto escalar) Sea V un espacio vectorial sobre R. Un aplicaci on :
V V R es un producto escalar en V si cumple los siguientes axiomas:
i) (u, u) es un n umero real no negativo, para todo u V, y (u, u) = 0 si y s olo si
u = 0 (Positiva)
3
4 1. PRODUCTOS ESCALARES
ii) (u, v) = (v, u), para cualesquiera u, v V (Sim etrica)
iii) (u + v, w) = (u, w) + (v, w), para cualesquiera n umeros reales , y
vectores u, v, w V (Bilineal)
Diremos, por tanto, que un producto escalar hermtico es una forma bilineal hermtica
denida positiva, mientras que un producto escalar (real) es una forma bilineal sim etrica
denida positiva.
A partir de este momento, y salvo que sea necesario, nos referiremos simplemente a pro-
ductos escalares, incluyendo con esta denominaci on tanto a los hermticos como a los reales.
Notaci on 1.1.3 Si es un producto escalar, entonces el producto escalar de u con v es el
n umero (u, v). Habitualmente lo escribiremos < u, v >.
Otra notaci on que puede encontrarse en la literatura es, simplemente, u v.
Obs ervese que la propiedad iii) del producto escalar s olo establece la linealidad en la
primera componente. En el siguiente ejercicio se pide demostrar que tambi en es lineal en la
segunda y que, por tanto, el calicativo de bilineal est a completamente justicado.
Ejercicio 1.1.4 Sea : V V K un producto escalar sobre V. Demostrar, usando unica-
mente la denici on, que es lineal en la segunda componente, es decir:
(u, v +w) = (u, v) +(u, w) ,
para cualesquiera , n umeros en K y vectores u, v, w V.
Hay que hacer notar que, en el caso hermtico, la linealidad en la primera componente se
da con el conjugado de los coecientes, mientras que en la segunda componente se da con los
mismos coecientes (sin conjugar).
Ejercicio 1.1.5 Demostrar, usando los axiomas i), ii) y iii) de la denici on, que cualquier
producto escalar (real o hermtico) sobre V satsiface
(0, u) = (u, 0) = 0 ,
para todo u V.
Observaci on 1.1.6 Es habitual encontrar en la literatura la denominaci on producto inte-
rior para referirse al producto escalar.
A continuaci on, vamos a ver unos cuantos ejemplos especialmente relevantes de productos
escalares.
Ejemplo 1.1.7 1. En el espacio vectorial V = K
n
denimos el producto escalar
< u, v >= u

v.
1.1 Deniciones y propiedades b asicas 5
Es f acil obtener la expresi on de dicho producto escalar en la base can onica de K
n
. Si
expresamos los vectores u y v en dicha base
u =
_

_
u
1
u
2
.
.
.
u
n
_

_
, v =
_

_
v
1
v
2
.
.
.
v
n
_

_
,
entonces
< u, v >= u

v = u
1
v
1
+ u
2
v
2
+ + u
n
v
n
.
Si K = R entonces el producto anterior es
< u, v >= u
T
v = u
1
v
1
+u
2
v
2
+ +u
n
v
n
.
Este producto escalar se conoce como el producto escalar usual.
2. Sea V el espacio vectorial de las sucesiones x
n

nN
, con x
n
K. Denimos el pro-
ducto escalar
< x
n
, y
n
>=

n=1
x
n
y
n
.
3. En el espacio de funciones reales continuas en un intervalo [a, b] denimos el producto
escalar
< f, g >=
_
b
a
f(x)g(x)dx.
4. En el espacio K
nn
de matrices cuadradas n n con entradas en K denimos
< A, B >= traza(A

B).
Ejercicio 1.1.8 Demostrar que las aplicaciones del ejemplo anterior son, efectivamente, pro-
ductos escalares. (Indicaci on: Hay que comprobar que cumplen los axiomas i), ii) y iii) de la
denici on de producto escalar).
Un espacio vectorial real V dotado de un producto escalar se suele llamar espacio vectorial
eucldeo, mientras que un espacio vectorial complejo con un producto vectorial hermtico se
denomina espacio vectorial unitario. En los espacios vectoriales eucldeos/unitarios se pueden
denir los conceptos de longitud, distancia y angulo. Es importante destacar que para denir
estos conceptos utilizaremos unicamente el producto escalar. En lo sucesivo, denotaremos por
(V, < , >) a un espacio vectorial eucldeo/unitario, donde V es el espacio vectorial y < , >
es el producto escalar.
Denici on 1.1.9 Sea (V, < , >) un espacio vetorial eucldeo/unitario. La norma de un vec-
tor u V es el n umero real
| u |=< u, u >
1/2
.
Diremos que u V es un vector unitario si | u |= 1.
6 1. PRODUCTOS ESCALARES
N otese que la norma de un vector depende del producto escalar asociado. Por tanto, un
vector puede ser unitario con una norma y no serlo con otra.
Propiedades de la norma:
En las siguientes propiedades (V, < , >) es un espacio vectorial eucldeo/unitario sobre
el cuerpo K.
1. | u |> 0, u V 0
V
, y
| 0
V
|= 0
2. | u |= [[ | u |, K, u V
3. | u +v || u | + | v |, u, v V (Desigualdad triangular)
Ejercicio 1.1.10 Demostrar las propiedades anteriores.
Ejemplo 1.1.11 En V = K
n
la norma asociada al producto escalar usual est a dada por
| u |
2
= ([u
1
[
2
+[u
2
[
2
+ +[u
n
[
2
)
1/2
donde u = [u
1
. . . u
n
]
T
. Esta norma se denomina la norma-2 (o norma usual).
Denici on 1.1.12 Sea (V, < , >) un espacio vectorial eucldeo/unitario y sean u, v Vdos
vectores de V. El angulo entre u y v es el unico n umero real [0, ) tal que
cos =
< u, v >
| u || v |
.
La denici on anterior coincide con el concepto habitual de angulo en R
2
y R
3
cuando
consideramos el producto escalar usual, como se muestra en el siguiente ejemplo.
Ejemplo 1.1.13 Consideremos el plano R
2
con el producto escalar usual y sean u, v dos vec-
tores del plano. Sean
u
y
v
los angulos (en el sentido habitual) que forman, respectivamente,
u y v con el eje horizontal, y supongamos, sin p erdida de generalidad, que
u

v
.

*
x
y
v
u

Llamemos al angulo (tambi en en el sentido habitual) que forman los vectores u, v. En-
tonces =
v

u
y, usando la identidad trigonom etrica bien conocida del coseno de una
diferencia, tenemos
cos = cos(
v

u
) = cos
v
cos
u
+ sen
v
sen
u
=
v
1
| v |
u
1
| u |
+
v
2
| v |
u
2
| u |
1.1 Deniciones y propiedades b asicas 7
=
u
1
v
1
+u
2
v
2
| u || v |
=
< u, v >
| u || v |
,
por tanto es el angulo entre u y v, tal y como se ha introducido en la Denici on 1.1.12.
Otro concepto importante es el de perpendicularidad, que denimos a continuaci on.
Denici on 1.1.14 Sea (V, < , >) un espacio vectorial eucldeo/unitario.
1) Dos vectores u, v V son ortogonales (o perpendiculares) si < u, v >= 0. Lo denota-
remos por u v.
2) Un conjunto de vectores no nulos u
1
, . . . , u
k
se dice ortogonal si u
i
u
j
para cua-
lesquiera i, j con i ,= j.
3) El subconjunto ortogonal de un subconjunto S de V es el conjunto
S

= v V : < u, v >= 0 u S .
Conviene se nalar que, en virtud de la simetra/hermiticidad del producto escalar/hermtico,
< u, v >= 0 si y s olo si < v, u >= 0 y, por tanto, podemos decir que u, v son perpendiculares
sin tener en cuenta el orden en que se indican ambos vectores.
Ejercicio 1.1.15 Demostrar que si S es un subconjunto cualquiera de un espacio vectorial
eucldeo/unitario entonces S S

= 0.
Proposici on 1.1.16 Sea (V, < , >) un espacio vectorial eucldeo/unitario sobre K y S un
subconjunto cualquiera de V. Entonces el subconjunto ortogonal de S, S

, es un subespacio
vectorial de V.
Demostraci on. Dados dos vectores v
1
, v
2
S

, cualquier combinaci on lineal de ellos, v


1
+
v
2
, con , K, satisface
< u, v
1
+v
2
>= < u, v
1
> + < u, v
2
>= 0 +0 = 0,
para todo u S. Por tanto v
1
+v
2
S

, lo que signica que S

es un subespacio vectorial.
N otese que S

siempre es un subespacio vectorial, aunque S no lo sea. En el caso de que


el conjunto S sea un subespacio vectorial, la dimensi on del subespacio ortogonal es comple-
mentaria a la de S.
Lema 1.1.17 Sea (V, < , >) un espacio vectorial eucldeo/unitario de dimensi on n y W un
subespacio vectorial de V. Entonces
dimW + dimW

= n.
En el siguiente ejercicio se pide demostrar que, en general, para comprobar si un vector
est a en un subespacio ortogonal no es necesario comprobar la ortogonalidad con todos los
vectores del conjunto (que pueden ser innitos). Concretamente, si partimos de un subespacio
vectorial W, para saber si un vector cualquiera est a en el subespacio ortogonal W

es suciente
con que dicho vector sea ortogonal a un conjunto de generadores de W.
8 1. PRODUCTOS ESCALARES
Ejercicio 1.1.18 Demostrar que si W es un subespacio vectorial entonces v W

si y s olo
si u es ortogonal a un conjunto de generadores de W.
Por otra parte, los subconjuntos ortogonales tienen la siguiente propiedad
Lema 1.1.19 Sea (V, < , >) un espacio vectorial eucldeo/unitario sobre K y u
1
, . . . , u
k

un subconjunto ortogonal. Entonces u


1
, . . . , u
k
es linealmente independiente.
Demostraci on. Procederemos por reducci on al absurdo. Supongamos, por tanto, que hay una
relaci on de dependencia entre los vectores del conjunto ortogonal:

1
u
1
+
2
u
2
+ +
k
u
k
= 0,
con
i
,= 0, para alg un 1 i k. Multiplicando por u
i
la anterior expresi on obtenemos
<
1
u
1
+
2
u
2
+. . . +
k
u
k
, u
i
>= 0
y, usando la linealidad en la primera componente,

1
< u
1
, u
i
> +
2
< u
2
, u
i
> +. . . +
i
< u
i
, u
i
> +. . . +
k
< u
k
, u
i
>= 0.
Como u
1
, . . . , u
k
es ortogonal, tenemos que < u
j
, u
i
>= 0 para j ,= i, luego la anterior
identidad es equivalente a

i
< u
i
, u
i
>= 0.
Finalmente, como u
i
,= 0 (los vectores de un conjunto ortogonal son, por denici on, no nulos),
se tiene que < u
i
, u
i
>,= 0 (por el axioma i) del producto escalar), luego tiene que ser
i
= 0,
en contradicci on con la hip otesis.
La ultima denici on de esta secci on es el concepto de distancia entre dos vectores.
Denici on 1.1.20 Sea (V, < , >) un espacio vectorial eucldeo/unitario y sean u, v dos
vectores de V. La distancia entre u y v es el n umero real no negativo
d(u, v) =| u v | .
N otese que d(u, v) = d(v, u) y que d(u, v) = 0 u = v.
Expresi on matricial en una base
Sea (V, < , >) un espacio vectorial eucldeo/unitario de dimensi on n y B = u
1
, . . . , u
n

una base de V. Vamos a encontrar una expresi on matricial para el producto escalar de dos
vectores cualesquiera expresados en esa base. Sean, por tanto, v, w dos vectores de V cuyas
coordenadas en la base B son
v =
_

_
v
1
.
.
.
v
n
_

_
, w =
_

_
w
1
.
.
.
w
n
_

_
,
es decir
v = v
1
u
1
+. . . +v
n
u
n
, w = w
1
u
1
+. . . +w
n
u
n
.
1.2 Bases ortogonales y ortonormales. M etodo de Gram-Schmidt 9
(N otese que v
i
, w
i
, para i = 1, . . . , n son n umeros, mientras que u
i
, para i = 1, . . . , n, son
vectores).
Usando la bilinealidad
< v, w >=<
n

i=1
v
i
u
i
,
n

j=1
w
j
u
j
>=
n

i=1
v
i
< u
i
,
n

j=1
w
j
u
j
>=
n

i=1
v
i
_
_
n

j=1
w
j
< u
i
, u
j
>
_
_
=
n

i,j=1
v
i
w
j
< u
i
, u
j
>,
que, matricialmente, se puede expresar as
< v, w >=
_
v
1
. . . v
n

_
< u
1
, u
1
> < u
1
, u
2
> . . . < u
1
, u
n
>
< u
2
, u
1
> < u
2
, u
2
> . . . < u
2
, u
n
>
.
.
.
.
.
.
.
.
.
< u
n
, u
1
> < u
n
, u
2
> . . . < u
n
, u
n
>
_

_
_

_
w
1
w
2
.
.
.
w
n
_

_
= v

G
B
w,
donde
G
B
=
_

_
< u
1
, u
1
> < u
1
, u
2
> . . . < u
1
, u
n
>
< u
2
, u
1
> < u
2
, u
2
> . . . < u
2
, u
n
>
.
.
.
.
.
.
.
.
.
< u
n
, u
1
> < u
n
, u
2
> . . . < u
n
, u
n
>
_

_
se conoce como la matriz de Gram del producto escalar < , > en la base B.
1.2 Bases ortogonales y ortonormales. M etodo de Gram-Schmidt
A largo de este apartado (V, < , >) es un espacio vectorial eucldeo/unitario. Una base
ortogonal de V es una base de V formada por vectores ortogonales. Si, adem as, los vectores
son unitarios, diremos que forman una base ortonormal.
Lo que vamos a ver a continuaci on es que todo espacio vectorial eucldeo/unitario (o cual-
quier subespacio vectorial de ese espacio) tiene, al menos, una base ortonormal. M as a un,
veremos un procedimiento para obtener una base ortogonal/ortonormal a partir de una base
cualquiera del espacio (o subespacio). El procedimiento que estudiaremos es el que se conoce
con el nombre de ortogonalizaci on de Gram-Schmidt.
Algoritmo 1: Ortogonalizaci on de Gram-Schmidt
Entrada: v
1
, v
2
, . . . , v
n
conjunto de n vectores.
Salida: u
1
, u
2
, . . . , u
n
conjunto de n vectores ortogonales dos a dos.
u
1
= v
1
u
2
= v
2

<u
1
,v
2
>
<u
1
,u
1
>
u
1
.
.
.
u
k
= v
k

_
<u
1
,v
k
>
<u
1
,u
1
>
u
1
+. . . +
<u
k1
,v
k
>
<u
k1
,u
k1
>
u
k1
_
10 1. PRODUCTOS ESCALARES
Las propiedades fundamentales del conjunto de vectores que produce el m etodo anterior
son las descritas en el siguiente teorema.
Teorema 1.2.1 El Algoritmo 1 produce un conjunto de vectores ortogonales dos a dos y
que satisfacen
Gen(v
1
, . . . , v
k
) = Gen(u
1
, . . . , u
k
), k = 1, 2, . . . , n. (1.1)
M as a un, el n umero de vectores linealmente independientes en el conjunto de partida
v
1
, v
2
, . . . , v
n
coincide con el n umero de vectores no nulos del conjunto de salida
u
1
, u
2
, . . . , u
n
(que, adem as, son linealmente independientes). En particular, si el conjun-
to de partida es linealmente independiente, entonces el Algoritmo 1 produce un conjunto
ortogonal de n vectores (no nulos).
Demostraci on. Vamos a demostrar que los vectores que produce el Algoritmo 1 son or-
togonales dos a dos y que satisfacen la propiedad (1.1). Pospondremos para la Secci on 1.3 la
demostraci on acerca de la relaci on entre la independencia lineal del conjunto de partida y el
n umero de vectores no nulos del conjunto de salida.
Para demostrar (1.1) n otese, en primer lugar, que Gen(v
1
, . . . , v
k
) Gen(u
1
, . . . , u
k
),
para k = 1, . . . , n, pues v
k
Gen(u
1
, . . . , u
k
) (basta despejar v
k
en la expresi on correspon-
diente a u
k
en el Algoritmo 1). La inclusi on opuesta, Gen(v
1
, . . . , v
k
) Gen(u
1
, . . . , u
k
),
se puede obtener f acilmente por inducci on: para k = 1 es obvia, pues u
1
= v
1
. Si la suponemos
cierta para k 1, tenemos que u
k
Genv
k
, u
1
, . . . , u
k1
Genv
k
, v
1
, . . . , v
k1
(donde
la hip otesis de inducci on se ha usado en esta ultima inclusi on).
Veamos ahora que los vectores del conjunto de salida son ortogonales dos a dos. Lo que
vamos a ver, por inducci on sobre k, es que el vector u
k
producido en el paso k- esimo es
ortogonal a todos los vectores anteriores, u
1
, . . . , u
k1
. El caso inicial es para k = 2. En este
caso tenemos que
< u
2
, u
1
>=< v
2

< u
1
, v
2
>
< u
1
, u
1
>
u
1
, u
1
>=< v
2
, u
1
>
< v
2
, u
1
>
< u
1
, u
1
>
< u
1
, u
1
>= 0.
(Para obtener la ultima igualdad hemos usado los axiomas del producto escalar). Supongamos
ahora que u
i
u
j
, para i, j = 1, . . . , k 1 con i ,= j (hip otesis de inducci on). Entonces, para
j k 1 tenemos que
< u
k
, u
j
>=< v
k

k1

i=1
< u
i
, v
k
>
< u
i
, u
i
>
u
i
, u
j
>=< v
k
, u
j
>
k1

i=1
< v
k
, u
i
>
< u
i
, u
i
>
< u
i
, u
j
>
=< v
k
, u
j
> < v
k
, u
j
>= 0,
donde, en la ultima igualdad hemos usado la hip otesis de inducci on < u
i
, u
j
>= 0 para
i = 1, . . . , k 1 , i ,= j. Esto demuestra que el conjunto u
1
, . . . , u
n
es ortogonal.
Observaci on 1.2.2 Si eliminamos los vectores nulos producidos en el proceso de Gram-Schmidt,
obtendremos una base ortogonal del espacio generado por los vectores de partida v
1
, v
2
, . . . , v
n
.
1.2 Bases ortogonales y ortonormales. M etodo de Gram-Schmidt 11
Para obtener una base ortonormal tenemos el siguiente algoritmo, donde en cada paso se
normalizan los vectores u
i
que se obtienen en el Algoritmo 1 con el n de obtener unos
nuevos vectores unitarios, que llamaremos q
i
.
Algoritmo 2: Ortonormalizaci on de Gram-Schmidt
Entrada: v
1
, v
2
, . . . , v
n
conjunto de n vectores.
Salida: q
1
, q
2
, . . . , q
n
conjunto de n vectores unitarios (o nulos) ortogonales
dos a dos.
u
1
= v
1
, q
1
=
u
1
u
1

u
2
= v
2
< q
1
, v
2
> q
1
, q
2
=
u
2
u
2

.
.
.
u
k
= v
k
(< q
1
, v
k
> q
1
+. . . + < q
k1
, v
k
> q
k1
) , q
k
=
u
k
u
k

Por supuesto, tenemos el resultado an alogo al Teorema 1.2.1, cuya demostraci on es exac-
tamente la misma, pues el hecho de que los vectores q
i
son unitarios es evidente.
Teorema 1.2.3 El Algoritmo 2 produce un conjunto de vectores unitarios que son ortogo-
nales dos a dos y que satisfacen
Gen(v
1
, . . . , v
k
) = Gen(q
1
, . . . , q
k
), k = 1, 2, . . . , n. (1.2)
M as a un, el n umero de vectores linealmente independientes en el conjunto de partida
v
1
, v
2
, . . . , v
n
coincide con el n umero de vectores no nulos del conjunto de salida
q
1
, q
2
, . . . , q
n
(que, adem as, son linealmente independientes). En particular, si el conjun-
to de partida es linealmente independiente, entonces el Algoritmo 2 produce un conjunto
ortonormal de n vectores (no nulos).
Es importante observar que a la hora de normalizar suelen aparecer races cuadradas que
no estaban presentes en los vectores de partida. Por tanto, si se quiere calcular una base orto-
normal y se van a hacer los c alculos a mano, lo m as pr actico para evitar c alculos engorrosos
con races cuadradas es obtener una base ortogonal con el Algoritmo 1 y despu es norma-
lizarla (es decir, normalizar cada vector). La unica diferencia entre el Algoritmo 2 y este
procedimiento es que en el primer caso los vectores se normalizan en cada paso, mientras que
en el segundo se normalizan todos al nal. Esto signica, en particular, que los vectores u
i
que
se obtienen en ambos casos son exactamente los mismos.
Ejercicio 1.2.4 Demostrar que los vectores u
j
que se obtienen al aplicar el Algoritmo 1
y los que se obtienen al aplicar el Algoritmo 2 son exactamente los mismos si en ambos
casos se parte del mismo conjunto de vectores v
1
, . . . , v
n
.
Problema Resuelto 1.2.5 Calcular una base ortonormal, con el producto escalar usual, del
subespacio de R
4
generado por los vectores
v
1
=
_

_
1
2
0
1
_

_
, v
2
=
_

_
1
3
1
1
_

_
, v
3
=
_

_
2
4
6
2
_

_
.
12 1. PRODUCTOS ESCALARES
Soluci on. Obtendremos la base ortonormal de las dos maneras descritas anteriormente: la pri-
mera aplicando el Algoritmo 1 y normalizando los vectores al nal y la segunda aplicando
el Algoritmo 2.
Primera forma:
Primero aplicamos el Algoritmo 1 al conjunto v
1
, v
2
, v
3
.
u
1
= v
1
=
_

_
1
2
0
1
_

_
u
2
= v
2

<u
1
,v
2
>
<u
1
,u
1
>
u
1
=
_

_
1
3
1
1
_

6
6
_

_
1
2
0
1
_

_
=
_

_
2
1
1
0
_

_
u
3
= v
3

<u
1
,v
3
>
<u
1
,u
1
>
u
1

<u
2
,v
3
>
<u
2
,u
2
>
u
2
=
_

_
2
4
6
2
_

12
6
_

_
1
2
0
1
_

6
6
_

_
2
1
1
0
_

_
=
_

_
2
1
5
0
_

_
.
Ahora normalizamos los vectores u
1
, u
2
y u
3
para obtener la base ortonormal
B =
_

_
1

6
_

_
1
2
0
1
_

_
,
1

6
_

_
2
1
1
0
_

_
,
1

30
_

_
2
1
5
0
_

_
_

_
.
Segunda forma: Aplicamos el Algoritmo 2 al conjunto v
1
, v
2
, v
3
.
u
1
= v
1
=
_

_
1
2
0
1
_

_
, q
1
=
u
1
u
1

=
1

6
_

_
1
2
0
1
_

_
u
2
= v
2
< q
1
, v
2
>=
_

_
1
3
1
1
_

6
_
_
_
_
1

6
_

_
1
2
0
1
_

_
_
_
_
_
=
_

_
2
1
1
0
_

_
, q
2
=
u
2
u
2

=
1

6
_

_
2
1
1
0
_

_
u
3
= v
3
< q
1
, v
3
> q
1
< q
2
, v
3
> q
2
=
_

_
2
4
6
2
_

12

6
_
_
_
_
1

6
_

_
1
2
0
1
_

_
_
_
_
_

6
_
_
_
_
1

6
_

_
2
1
1
0
_

_
_
_
_
_
=
_

_
2
1
5
0
_

_
, q
3
=
u
3
u
3

=
1

30
_

_
2
1
5
0
_

_
.
La base que obtenemos, B = q
1
, q
2
, q
3
, es la misma que en procedimiento anterior. M as
a un, como ya hemos comentado, los vectores u
i
que se obtienen en cada paso son los mismos
en ambos procedimientos.
1.3 Proyecciones ortogonales 13
1.3 Proyecciones ortogonales
El concepto de proyecci on ortogonal ya es conocido. Por ejemplo, en el Bachillerato se
estudian las proyecciones de un punto o un vector sobre una recta o un plano. La generalizaci on
al concepto de proyecci on ortogonal de un vector sobre un subespacio vectorial cualquiera es
el objeto del siguiente Teorema.
Teorema 1.3.1 (de la proyecci on ortogonal) Sean (V, < , >) un espacio vectorial eucldeo/
unitario, W un subespacio vectorial de V y v un vector de V. Entonces existe un unico vector,
llamado proyecci on de v sobre W, que denotaremos por proy
W
(v), tal que
i) proy
W
(v) W.
ii) v proy
W
(v) W

.
El Teorema 1.3.1 permite descomponer el vector v, de manera unica, en la forma
v = proy
W
(v) +v

, (1.3)
donde proy
W
(v) es un vector de W y v

es un vector perpendicular a W.
W

6
-
proy
W
(v)
v v

La igualdad (1.3) se conoce como la descomposici on ortogonal de v en W. N otese que,


en el caso particular en que v W, se tiene que proy
W
(v) = v y v

= 0, mientras que si
v W

entonces proy
W
(v) = 0 y v

= v.
Observaci on 1.3.2 No hay que confundir v

con v

o Gen(v)

. En el primer caso se trata


del vector v proy
W
(v), que depende del subespacio W, mientras que en el segundo caso se
trata del subespacio ortogonal al (subespacio generado por el) vector v.
Demostraci on. (del Teorema 1.3.1) La siguiente demostraci on es constructiva, es decir, da-
remos una f ormula para construir el vector proy
W
(v). El procedimiento es el siguiente. Sea
B = u
1
, . . . , u
k
una base ortogonal de W. Entonces, el vector
proy
W
(v) =
< u
1
, v >
< u
1
, u
1
>
u
1
+
< u
2
, v >
< u
2
, u
2
>
u
2
+. . . +
< u
k
, v >
< u
k
, u
k
>
u
k
(1.4)
satisface las propiedades i) y ii) del enunciado. Ve amoslo.
La condici on i) es inmediata, porque el vector denido en (1.4) es una combinaci on lineal
de vectores de W.
14 1. PRODUCTOS ESCALARES
Para demostrar la propiedad ii) ser a suciente, en virtud del Ejercicio 1.1.18, demostrar
que el vector v proy
W
(v) es ortogonal a los vectores de la base B. Fij emonos en un ndice
cualquiera j 1, . . . , k. Para este ndice se tiene
< vproy
W
(v), u
j
>=< v
k

i=1
< u
i
, v >
< u
i
, u
i
>
u
i
, u
j
>=< v, u
j
>
k

i=1
< v, u
i
>
< u
i
, u
i
>
< u
i
, u
j
> .
Como B es un conjunto ortogonal, lo anterior es igual a
< v, u
j
>
< v, u
j
>
< u
j
, u
j
>
< u
j
, u
j
>=< v, u
j
> < v, u
j
>= 0,
lo que signica que v proy
W
(v) es ortogonal a cualquier vector de B.
Finalmente, vamos a demostrar que la descomposici on (1.3) es unica. Por supuesto, la
f ormula (1.4) est a univocamente denida, pero podra existir otra proyecci on dada por otra
f ormula o, incluso, bases distintas podran dar lugar a proyecciones distintas. Supongamos
que hay dos descomposiciones distintas
v = v
1
+v

1
, v = v
2
+v

2
,
donde v
1
, v
2
son vectores de W y v

1
, v

2
son vectores de W

. Entonces, de la igualdad v
1
+
v

1
= v
2
+v

2
se obtiene que
v
1
v
2
= v

2
v

1
.
El vector v
1
v
2
es un vector de W, mientras que v

2
v

1
lo es de W

. Como ambos son


el mismo, se trata de un vector en W W

. En virtud del Ejercicio 1.1.15, dicho vector ha de


ser el vector nulo. Por tanto
v
1
= v
2
y v

1
= v

2
,
lo que signica que la descomposici on es unica.
En el siguiente cuadro conclusivo se resume el procedimiento que acabamos de ver para
calcular la proyecci on ortogonal.
Calculo de proy
W
(v)
1. Calcular una base ortogonal de W: B = u
1
, . . . , u
k

2. Aplicar la f ormula:
proy
W
(v) =
< u
1
, v >
< u
1
, u
1
>
u
1
+. . . +
< u
k
, v >
< u
k
, u
k
>
u
k
Es importante destacar que la base B ha de ser ortogonal, pues la f ormula anterior no es
v alida si B no es ortogonal (v ease la demostraci on del Teorema 1.3.1, en qu e momento se usa
que la base es ortogonal?).
Ejercicio 1.3.3 Comprobar, con un ejemplo, que la f ormula (1.4) no es v alida si la base no es
ortogonal (Indicaci on: Por ejemplo, en R
3
consid erese el plano horizontal z = 0 y una base
de dicho plano que no sea ortogonal. Aplquese la f ormula (1.4) para esa base y un vector v
cualquiera de R
3
y compru ebese que el vector que resulta no es la proyecci on ortogonal de v
sobre el plano).
1.3 Proyecciones ortogonales 15
Las proyecciones ortogonales permiten obtener una interpretaci on geom etrica del proce-
so de ortogonalizaci on de Gram-Schmidt, lo que ayudar a a recordarlo m as f acilmente. Para
obtener esta interpretaci on, denotaremos por
V
j1
= Gen(v
1
, . . . , v
j1
)
al subespacio vectorial generado por los primeros j 1 vectores del conjunto de partida (v ease
el Algoritmo 1). Los vectores u
j
del nuevo conjunto que nos porporciona el Algoritmo 1
est an dados por
u
j
= v
j
proy
V
j1
(v
j
).
Es decir, el vector u
j
que proporciona el m etodo de Gram-Schmidt en el paso j- esimo es el
vector que anteriormente hemos denotado por v

j
, y que, como hemos visto, cumple
v

j
V

j1
= Gen(u
1
, . . . , u
j1
)

,
es decir, u
j
es ortogonal a u
1
, . . . , u
j1
.
Problema Resuelto 1.3.4 Calcular la proyecci on ortogonal del vector v =
_
1 1 1 3

T
sobre el subespacio vectorial de R
4
del Problema Resuelto 1.2.5.
Soluci on. Llamemos W al subespacio vectorial del Problema Resuelto 1.2.5. Como ya he-
mos calculado en dicho problema una base ortogonal de W, podemos aplicar directamente la
f ormula (1.4)
proy
W
(v) =
< u
1
, v >
< u
1
, u
1
>
u
1
+
< u
2
, v >
< u
2
, u
2
>
u
2
+
< u
3
, v >
< u
3
, u
3
>
u
3
=
0
6
_

_
1
2
0
1
_

_
+
0
6
_

_
2
1
1
0
_

_
+
6
30
_

_
2
1
5
0
_

_
=
_

_
2/5
1/5
1
0
_

_
.
Para terminar este apartado, vamos a demostrar la parte que ha quedado pendiente del
enunciado de los Teoremas 1.2.1 y 1.2.3, es decir, que el n umero de vectores linealmente in-
dependientes del conjunto v
1
, . . . , v
n
coincide con el n umero de vectores no nulos del con-
junto u
1
, . . . , u
n
que produce el Algoritmo 1 y del conjunto q
1
, . . . , q
n
que produce
el Algoritmo 2. Supongamos que, para alg un k 1, . . . , n, tenemos que
v
k
Gen(v
1
, . . . , v
k1
) = Gen(u
1
, . . . , u
k1
) = Gen(q
1
, . . . , q
k1
)
Entonces (siguiendo la notaci on anterior)
u
k
= v
k
proy
V
k1
(v
k
) = v

k
,
y, como v
k
Gen(v
1
, . . . , v
k1
), se tiene que u
k
= 0 y, por tanto, q
k
= 0. A la inversa, si
q
k
= 0, para alg un subndice k 1, . . . , n, entonces tambi en u
k
= 0 y eso signica que
v

k
= 0, es decir, v
k
Gen(v
1
, . . . , v
k1
). As pues
u
k
= 0 q
k
= 0 v
k
Gen(v
1
, . . . , v
k1
)
16 1. PRODUCTOS ESCALARES
Expresi on matricial de la proyecci on ortogonal
En el espacio vectorial K
n
con el producto escalar usual, si Q =
_
q
1
. . . q
k

es una
matriz cuyas columnas son una base ortonormal de W, entonces la f ormula (1.4) es equiva-
lente a la expresi on matricial
proy
W
(v) = QQ

v
Por este motivo, la matriz QQ

se conoce como matriz de proyecci on (sobre el espacio


generado por las columnas de Q).
1.4 Factorizaci on QR
En este apartado vamos a aplicar el m etodo de ortonormalizaci on de Gram-Schmidt al
espacio de columnas de una matriz dada, A. En primer lugar, trataremos el caso en que todas
las columnas de A son linealmente independientes, lo que nos permite tomar dichas columnas
como base del espacio col(A). Despu es estudiaremos el caso en que las columnas no son
linealmente independientes.
Antes de comenzar, jaremos la siguiente denici on.
Denici on 1.4.1 Diremos que una matriz U C
nm
(respectivamente, P R
nm
) tiene
columnas ortonormales si U

U = I
m
(resp. P
T
P = I
m
).
N otese que la denici on anterior equivale a decir que las columnas de U (resp. P) forman
un conjunto ortonormal con respecto al producto escalar usual.
Es importante destacar que una matriz de tama no n m con m > n no puede tener
columnas ortonormales, pues eso supondra que existe un conjunto ortogonal (y, por lo tanto,
linealmente independiente) de mvectores en C
n
(resp. R
n
), lo cual es imposible si m > n. Por
tanto, para que la Denici on 1.4.1 tenga sentido es necesario que n m.
Por otra parte, tambi en es importante tener en cuenta que la igualdad U

U = I
m
no implica
necesariamente la igualdad UU

= I
n
. De hecho, como hemos visto en el p arrafo anterior,
esto ultimo no puede ocurrir si n > m.

Unicamente en el caso cuadrado, n = m, la igualdad
U

U = I
n
s que implica UU

= I
n
y, adem as, en este caso, U

= U
1
. Este caso ser a tratado
en el Tema 2.
Recordamos la siguiente denici on, que ser a utilizada en lo sucesivo.
Denici on 1.4.2 Una matriz T C
nm
se dice triangular superior si T(i, j) = 0 para todo
i > j, y se dice triangular inferior si T(i, j) = 0 para todo i < j.
Una matriz D C
nm
es diagonal si D(i, j) = 0 para todo i ,= j.
Obs ervese que una matriz diagonal no es necesariamente cuadrada y que, por otro lado,
una matriz es diagonal si y s olo si es triangular inferior y superior al mismo tiempo.
Ahora ya podemos enunciar el resultado fundamental de este apartado.
Teorema 1.4.3 (Factorizaci on QR) Dada una matriz A C
nm
, con n m, existen dos
matrices Q y R (que dependen de A) de manera que
A = QR
y
1.4 Factorizaci on QR 17
i) Q C
nm
tiene columnas ortonormales (Q

Q = I
m
).
ii) R C
mm
es triangular superior con entradas diagonales no negativas.
Si, adem as, las columnas de A son linealmente independientes entonces R puede tomarse
con todos sus elementos diagonales reales positivos (es decir, R(i, i) > 0, para todo i =
1, . . . , m).
Si A R
nm
entonces tanto Qcomo Rpueden tomarse con entradas reales y Q
T
Q = I
m
.
Demostraci on. Expresemos A =
_
a
1
. . . a
m

, con a
i
C
n
. Si aplicamos el Algoritmo 2
a las columnas de A, obtenemos
u
1
= a
1
, q
1
=
u
1
u
1

u
k
= a
k
(< q
1
, a
k
> q
1
+. . . + < q
k1
, a
k
> q
k1
) , q
k
=
u
k
u
k

, k = 2, . . . , m.
De aqu despejamos el vector a
k
para obtener
a
k
=< q
1
, a
k
> q
1
+. . . + < q
k1
, a
k
> q
k1
+ | u
j
| q
k
.
As pues, si denimos la matriz R cuya entrada (i, j) es
R(i, j) =
_
< q
i
, a
j
> , i ,= j
| u
i
| , i = j
,
tenemos que
A = QR,
donde, si Atiene columnas linealmente independientes, entonces la matriz Q =
_
q
1
. . . q
m

tiene columnas ortonormales, la matriz R es triangular superior (y cuadrada de tama no mm)


y R(i, i) =| u
i
|> 0.
Analicemos ahora el caso en que las columnas de A no son linealmente independien-
tes. Como ya hemos visto al nal de la Secci on 1.3, a
k
Gen(a
1
, . . . , a
k1
) si y s olo si
q
k
= 0. Supongamos que el rango de A es r, lo que signica que A tiene un total de m r
columnas linealmente dependientes. Por tanto, hay un total de m r vectores q
i
que son
nulos. El procedimiento para hallar la factorizaci on QR de A en este caso es el siguiente.
Una vez concludo el Algoritmo 2 , los vectores ortonormales no nulos que hemos obte-
nido, q
i
1
, . . . , q
i
r
, se completan hasta obtener un conjunto ortonormal de C
n
de m vectores,
q
i
1
, . . . , q
i
r
, q
j
1
, . . . , q
j
mr
. Ahora, los vectores nulos se van sustituyendo por los vectores nue-
vos (los denotados por q
j
). Por ejemplo, si el primer vector nulo es q
s
= 0 entonces tendremos
la sucesi on q
1
, q
2
, . . . , q
s1
, q
j
1
, . . . . Procedemos de esta manera hasta completar el total de m
vectores. Si Q =
_
q
1
. . . q
m

es la matriz obtenida por el Algoritmo 2 (incluyendo las


columnas nulas) y

Q es la matriz que se obtiene al sustituir las columnas nulas por los vectores
q
j
, entonces
QR =

QR.
La justicaci on de esta identidad es la siguiente. Si q
s
= 0 es uno de los vectores nulos,
entonces < q
s
, a
i
>= 0, para todo i = 1, . . . , m, lo que signica que la s- esima la de R
en nula y, por lo tanto, al cambiar q
s
por otro vector (en particular, un vector q
j
) el producto
por la matriz R no vara (n otese que, en el producto QR las entradas de la s- esima la de R
multiplican a las de la columna s- esima de Q).
18 1. PRODUCTOS ESCALARES
Finalmente, si la matriz A tiene entradas reales, entonces tanto las coordenadas de los
vectores q
i
, como los cocientes que produce el Algoritmo 2 son n umeros reales.
La demostraci on del Teorema 1.4.3 nos muestra que la factorizaci on QR de A se puede
obtener mediante el Algoritmo 2 aplicado a los vectores columna de A. Este procedimiento
nos da, en realidad, UNA factorizaci on QR, porque la factorizaci on QR de una matriz dada
NO ES

UNICA en general. No obstante, hay un caso particular en el que s podemos armar
que es unica. Este caso es el objeto del siguiente ejercicio.
Ejercicio 1.4.4 Demostrar que si n = m y A es invertible, entonces la factorizaci on QR de A
es unica. (Indicaci on: suponer, por reducci on al absurdo, que hay dos factorizaciones distintas
de A = QR = Q

y deducir, usando que A es invertible, que Q = Q

y R = R

).
A continuaci on, vamos a ver dos ejercicios resueltos en los que se pide calcular la facto-
rizaci on QR de una matriz A. En el primero de ellos la matriz A tiene columnas linealmente
independientes, mientras que en el segundo no.
Problema Resuelto 1.4.5 Hallar la factorizaci on QR de
A =
_
_
1 1 2
1 1 1
2 1 2
_
_
Soluci on. Aplicamos el Algoritmo 2 a las columnas de la matriz A (que denotaremos por
a
1
, a
2
, a
3
).
u
1
= a
1
, q
1
=
a
1
a
1

=
1

6
_
_
1
1
2
_
_
u
2
= a
2
< a
2
, q
1
> q
1
=
_
_
1
1
1
_
_

1
3
_
_
1
1
2
_
_
=
1
3
_
_
2
4
1
_
_
, q
2
=
u
2
u
2

=
1

21
_
_
2
4
1
_
_
u
3
= a
3
< a
3
, q
1
> q
1
< a
3
, q
2
> q
2
=
_
_
2
1
2
_
_

7
6
_
_
1
1
2
_
_

2
21
_
_
2
4
1
_
_
=
1
14
_
_
9
3
6
_
_
,
q
3
=
u
3
u
3

=
1

14
_
_
3
1
2
_
_
.
Ahora despejamos los vectores a
i
en las expresiones anteriores:
a
1
=| a
1
| q
1
a
2
=< a
2
, q
1
> q
1
+ | u
2
| q
2
a
3
=< a
3
, q
1
> q
1
+ < a
3
, q
2
> q
2
+ | u
3
| q
3
,
lo que, expresado matricialmente, nos da la factorizaci on QR de A
A =
_

_
1

6
2

21
3

14
1

6
4

21
1

14
2

6
1

21
2

14
_

_
_

6
3
7

6
6
0

21
3
2

21
21
0 0
3

14
14
_

_
.
1.4 Factorizaci on QR 19
Problema Resuelto 1.4.6 Hallar la factorizaci on QR de la matriz
A =
_

_
1 1 0 0
2 1 1 1
2 1 3 0
0 1 1 0
0 0 0 1
_

_
.
Soluci on. Aplicamos el Algoritmo 2 al conjunto de las columnas de A (que denotamos
a
1
, a
2
, a
3
, a
4
).
u
1
= a
1
, q
1
=
a
1
a
1

=
1
3
_

_
1
2
2
0
0
_

_
u
2
= a
2
< a
2
, q
1
> q
1
=
_

_
1
1
1
1
0
_

1
9
_

_
1
2
2
0
0
_

_
=
1
9
_

_
8
7
11
9
0
_

_
, q
2
=
u
2
u
2

=
1
3

35
_

_
8
7
11
9
0
_

_
u
3
= a
3
< a
3
, q
1
> q
1
< a
3
, q
2
> q
2
=
_

_
0
1
3
1
0
_

_
+
8
9
_

_
1
2
2
0
0
_

1
9
_

_
8
7
11
9
0
_

_
=
_

_
0
0
0
0
0
_

_
,
q
3
=
u
3
u
3

=
_

_
0
0
0
0
0
_

_
u
4
= a
4
< a
4
, q
1
> q
1
< a
4
, q
2
> q
2
< a
4
, q
3
> q
3
=
_

_
0
1
0
0
1
_

2
9
_

_
1
2
2
0
0
_

7
3

35
1
3

35
_

_
8
7
11
9
0
_

_
=
_

_
0
1
0
0
1
_

2
9
_

_
1
2
2
0
0
_

1
45
_

_
8
7
11
9
0
_

_
=
1
5
_

_
2
2
1
1
5
_

_
,
q
4
=
u
4
u
4

=
1

35
_

_
2
2
1
1
5
_

_
.
Como q
3
= 0 debemos substituir el vector q
3
por otro vector, q
3
, de manera que el
conjunto q
1
, q
2
, q
3
, q
4
sea ortonormal. Para hallar un vector unitario que sea ortogonal a
20 1. PRODUCTOS ESCALARES
Gen(q
1
, q
2
, q
4
) = Genu
1
, u
2
, u
4
resolvemos el sistema homog eneo U
T
x = 0, donde U =
_
u
1
u
2
u
4

. Para ello pasamos la matriz del sistema, U


T
, a su forma escalonada reducida
U
T
=
_
_
1 2 2 0 0
8 7 11 9 0
2 2 1 1 5
_
_

_
_
1 0 0 2/3 4/3
0 1 0 0 1
0 0 1 1/3 1/3
_
_
.
A partir de aqu se obtiene de forma inmediata una soluci on
u
3
=
_

_
4
3
1
0
3
_

_
, q
3
=
u
3
| u
3
|
=
1

35
_

_
4
3
1
0
3
_

_
.
Ahora despejamos los vectores a
i
en las expresiones de la p agina anterior:
a
1
=| a
1
| q
1
a
2
=< a
2
, q
1
> q
1
+ | u
2
| q
2
a
3
=< a
3
, q
1
> q
1
+ < a
3
, q
2
> q
2
+ | u
3
| q
3
=< a
3
, q
1
> q
1
+ < a
3
, q
2
> q
2
+ 0 q
3
a
4
=< a
4
, q
1
> q
1
+ < a
4
, q
2
> q
2
+ < a
4
, q
3
> q
3
+ | u
4
| q
4
=< a
4
, q
1
> q
1
+ < a
4
, q
2
> q
2
+ 0 q
3
+ | u
4
| q
4
.
Sustituyendo los coecientes y expresando matricialmente las igualdades anteriores llegamos
a la siguiente factorizaci on QR de A
A =
_

_
1
3
8
3

35
4

35
2

35
2
3
7
3

35
3

35
2

35
2
3
11
3

35
1

35
1

35
0
3

35
0
1

35
0 0
3

35
5

35
_

_
_

_
3
1
3
8
3
2
3
0

35
3

35
3

35
15
0 0 0 0
0 0 0

35
5
_

_
.
Factorizaci on QR completa y factorizaci on QR reducida
La factorizaci on QR completa de A K
nm
(con n m) consiste en a nadir a la matriz
Q de la factorizaci on QR (que, a partir de ahora, llamaremos factorizaci on QR reducida) un
total de n m columnas de modo que la matriz resultante, Q
c
, tenga un total de n columnas
ortonormales. La matriz Q
c
es, por tanto, cuadrada n n, invertible y con todas sus columnas
ortonormales. Estas matrices se llaman unitarias. Tienen una gran importancia y ser an objeto
de estudio en el Captulo 2. Pero la factorizaci on QR completa no consiste s olo en alterar
la matriz Q pues, en tal caso, no se podra hacer el producto de la nueva matriz Q
c
con la
antigua matriz R. Para que las dimensiones permitan hacer el producto, la matriz R tambi en
se modica a nadi endole un total de n m las nulas en las mismas posiciones en que se han
a nadido las columnas a la matriz Q (lo natural es hacerlo al nal en ambas matrices). De esta
manera, se obtiene una nueva matriz R
c
de modo que el producto de las dos nuevas matrices
es el mismo que el de las dos matrices antiguas, es decir
A = QR = Q
c
R
c
.
1.4 Factorizaci on QR 21
La relaci on entre la QR completa y la QR reducida de A est a descrita gr acamente en la
siguiente gura.
=
A Q
c
R
c
Q
R
Aplicaci on de la factorizaci on QR a la resoluci on de sistemas lineales
La factorizaci on QR puede aplicarse a la resoluci on del sistema lineal
Ax = b , (1.5)
donde A K
nm
y b K
n
, de la siguiente manera. Dada la factorizaci on QRde A, A = QR,
el sistema (1.5) es equivalente al sistema
(QR)x = b Rx = Q

b.
El ultimo sistema Rx = Q

b es un sistema escalonado (la matriz R es triangular superior) y,


por lo tanto, f acil y r apido de resolver. As pues, tenemos el siguiente m etodo para resolver el
sistema (1.5).
Resoluci on de Ax = b usando QR
1. Calcular una factorizaci on QR de A: A = QR.
2. Calcular y = Q

b.
3. Resolver Rx = y (en x).
C alculo de la factorizaci on QR con Matlab
El comando Matlab que calcula la factorizaci on QR completa de una matriz A es qr(A)
mientras que el comando que da la factorizaci on QR reducida es qr(A,0) . Para obtener
las dos matrices Q y R escribiremos [q r]=qr(A) o [q r]=qr(A,0) (por supuesto,
habiendo introducido previamente la matriz A) y el programa nos devolver a dos matrices:
una matriz q , que es la matriz Q, y una segunda matriz, r , que es la matriz R. Para m as
informaci on se puede introducir la orden help qr.
Ejemplo 1.4.7 La factorizaci on QR de la matriz A del Problema Resuelto 1.4.5 se obtiene en
Matlab introduciendo la siguiente secuencia: primero introducimos la matriz A y despu es el
comando qr(A).
>>A=[1 1 2; 1 -1 1;2 1 2];
>>[q r]=qr(A)
22 1. PRODUCTOS ESCALARES
q=
-0.4082 0.4364 -0.8018
-0.4082 -0.8729 -0.2673
-0.8165 0.2182 0.5345
r=
-2.4495 -0.8165 -2.8577
0 1.5275 0.4364
0 0 -0.8018
En este caso, al ser A una matriz cuadrada, la factorizaci on QR reducida coincide con la
factorizaci on QR completa.
Para la matriz del Problema Resuelto 1.4.6 tenemos
>>A=[1 1 0 0; 2 1 -1 1;-2 1 3 0; 0 1 1 0;0 0 0 1];
>>[q r]=qr(A)
q=
-0.3333 -0.4507 -0.7778 0.0604 -0.2777
-0.6667 -0.3944 0.5938 0.0463 -0.2127
0.6667 -0.6198 0.2049 0.0765 -0.3515
0 -0.5071 -0.0209 -0.1833 0.8419
0 0 0 0.9771 0.2127
r=
-3.0000 -0.3333 2.6667 -0.6667
0 -1.9720 -1.9720 -0.3944
0 0 0.0000 0.5938
0 0 0 1.0234
0 0 0 0
La factorizaci on QR reducida es
>>[q r]=qr(A,0)
q=
-0.3333 -0.4507 -0.7778 0.0604
-0.6667 -0.3944 0.5938 0.0463
0.6667 -0.6198 0.2049 0.0765
0 -0.5071 -0.0209 -0.1833
0 0 0 0.9771
r=
-3.0000 -0.3333 2.6667 -0.6667
0 -1.9720 -1.9720 -0.3944
0 0 0.0000 0.5938
0 0 0 1.0234
Es importante observar que las matrices que nos da el programa Matlab son las mismas que
hemos obtenido anteriormente en el Problema Resuelto 1.4.5 excepto por algunos cambios
de signo. Esto se debe a que el programa Matlab no calcula necesariamente la matriz R que
1.4 Factorizaci on QR 23
tiene todas sus entradas diagonales no negativas (obs ervese que hay, efectivamente, entradas
diagonales negativas en la matriz R). Para obtener la factorizaci on QR que hemos estudiado
(es decir, con las entradas diagonales de R no negativas) a partir de la que nos da el programa
Matlab procederemos de la siguiente manera.
Denotaremos por QR a la factorizaci on que da el programa Matlab y por

Q

R a la factori-
zaci on que queremos encontrar (en la que las entradas diagonales de

Rson nonegativas). Como
es habitual, q
i
denota a la columna i- esima de Q, y R(i, j) a la entrada (i, j) de R.
Supongamos que R(i, i) < 0. Entonces, tendremos que cambiar de signo esta entrada, es
decir:

R(i, i) = R(i, i) .
Este cambio implica un cambio de signo en la columna q
i
, es decir:
q
i
= q
i
.
Pero, ahora, este nuevo cambio tiene consecuencia en los siguientes pasos (recu erdese el m eto-
do de Gram-Schmidt) en los que aparece la columna q
i
. Concretamente, esta aparece multipli-
cada por las entradas de la i- esima la de R. Por tanto, hay que cambiar de signo esta la, es
decir:

R(i, j) = R(i, j) , j = i + 1, ..., m.


En resumen:
Por cada entrada R(i, i) < 0 de R hay que cambiar de signo:
La i- esima la de R.
La i- esima columna de Q.
Interpretaci on matricial:
Lo que estamos haciendo en el procedimiento anterior es multiplicar la Q y la R por la
matriz diagonal
S =
_

_
1
.
.
.
1
_

_
mm
,
donde el signo de la i- esima entrada diagonal es (+) si R(i, i) 0 y () si R(i, i) < 0.
Claramente S
2
= I
m
, por lo que
A = QR = (QS)(SR)
de manera que, con la notaci on anterior,

Q = QS y

R = SR. Recu erdese que multiplicar a
la derecha es hacer operaciones con las columnas de una matriz, mientras que multiplicar a la
izquierda es hacerlo con las las. Eso signica que QS cambia de signo las columnas de Q y
SR cambia de signo las las de R.
Esta interpretaci on matricial nos permite generalizar el procedimiento anterior al caso com-
plejo, en el que algunas de las entradas diagonales de R son n umeros complejos no reales. En
este caso, haramos lo siguiente:
A = QR = (QT
1
)(T
2
R) ,
24 1. PRODUCTOS ESCALARES
donde
T
1
=
_

_
R(1,1)
|R(1,1)|
.
.
.
R(m,m)
|R(m,m)|
_

_
mm
, T
2
=
_

_
|R(1,1)|
R(1,1)
.
.
.
|R(m,m)|
R(m,m)
_

_
mm
,
de modo que T
1
T
2
= I
m
, y tomaramos

Q = QT
1
,

R = T
2
R. Por supuesto, este ultimo proce-
dimiento incluye el anterior de las entradas negativas ya que, en ese caso
R(i, i)/[R(i, i)[ = 1 = [R(i, i)[/R(i, i).
Finalmente, observemos que la factorizaci on QR que da Matlab en el caso del Problema
Resuelto 1.4.6 es distinta de la que nosotros estudiamos (aparte de los signos). Este ejemplo
demuestra que, en el caso de que las columnas de A no sean linealmente independientes, la
factorizaci on QR de A no es unica.
1.5 Problemas de mnimos cuadrados
Sean A C
nm
, b C
n
y x C
m
un vector de inc ognitas. Supongamos que el sistema
lineal
Ax = b, (1.6)
no tiene soluci on. En esta situaci on es natural buscar un vector, x, que sea lo m as parecido a
una soluci on. Naturalmente que lo primero que hay que concretar es qu e entendemos por lo
m as parecido . Para ello usamos el concepto de distancia que hemos introducido en la Deni-
ci on 1.1.20. Concretamente: dos vectores ser an parecidos si su distancia es peque na (diremos,
en este caso, que ambos vectores son pr oximos). As pues, para el sistema lineal (1.6) razona-
mos de la siguiente manera: si x es un vector pr oximo a una soluci on de (1.6) entonces A x es
pr oximo al vector b o, lo que es igual, A xb es pr oximo al vector 0
C
n. Eso signica, en virtud
de la Denici on 1.1.20, que la norma de A x b es peque na. As pues, nuestro problema es el
siguiente:
Minimizar : | A x b |
2
, para x C
m
.
Gr acamente, la situaci on es:
col(A)

b
El vector b no est a en el espacio col(A), y por eso el sistema (1.6) no tiene soluci on.
Si llamamos

b = A x, entonces

b col(A), y el problema se puede plantear as:


1.5 Problemas de mnimos cuadrados 25
Encontrar el vector de col(A),

b, m as pr oximo a b.
En general, si en lugar del espacio col(A) consideramos un subespacio vectorial cualquiera,
llegamos a la siguiente denici on.
Denici on 1.5.1 Sea K
n
con el producto escalar usual y | |
2
la norma asociada. Dado un
subespacio vectorial W y un vector cualquiera v K
n
, la mejor aproximaci on de W a v en
sentido de mnimos cuadrados es el vector v tal que
| v v |
2
= nf
wW
| v w |
2
.
La distancia de v a W, que denotaremos por d(v, W), es el n umero real
d(v, W) = d(v, v).
El siguiente Teorema nos dice que la mejor aproximaci on de W a v est a dada por la pro-
yecci on ortogonal de v sobre W.
Teorema 1.5.2 (Soluci on al problema de mnimos cuadrados) La mejor aproximaci on de W a
v en el sentido de mnimos cuadrados es el vector v = proy
W
(v).
El resultado del Teorema 1.5.2 no debe resultar sorprendente. En realidad, ya conocemos
un caso particular de dicho teorema: la distancia de un punto a una recta. Como ya sabemos, la
distancia de un punto P a una recta r se dene como la menor distancia de P a cualquier punto
de r, y est a dada por la distancia de P a

P, donde

P es la proyecci on ortogonal de P sobre r.
En virtud del Teorema 1.5.2, el procedimiento est andar para hallar la soluci on al problema
de mnimos cuadrados consiste en calcular la proyecci on de v sobre W. Recordemos que para
ello necesitamos calcular una base ortogonal de W, lo que en general es un procedimiento
muy costoso si se calcula a mano. A continuaci on, vamos a estudiar un procedimiento menos
costoso, que no requiere el c alculo de una base ortogonal para obtener la proyecci on.
Las ecuaciones normales
En este apartado W es un subespacio vectorial de V, del que conocemos una base B =
v
1
, . . . , v
k
(no necesariamente ortogonal) y v es un vector cualquiera de V. Recordemos que
el vector v

= v proy
W
(v) es ortogonal a W. Si expresamos la proyecci on ortogonal en la
base B
proy
W
(v) = x
1
v
1
+. . . +x
k
v
k
entonces, para cada j = 1, . . . , k, tenemos que
< v
j
, v
k

i=1
x
i
v
i
>= 0,
lo que equivale a
< v
j
, v >=
k

i=1
x
i
< v
j
, v
i
> .
26 1. PRODUCTOS ESCALARES
La igualdad anterior se expresa matricialmente de la siguiente manera
G
..
_

_
< v
1
, v
1
> . . . < v
1
, v
k
>
< v
2
, v
1
> . . . < v
2
, v
k
>
.
.
.
.
.
.
< v
k
, v
1
> . . . < v
k
, v
k
>
_

_
_

_
x
1
x
2
.
.
.
x
k
_

_
=
_

_
< v
1
, v >
< v
2
, v >
.
.
.
< v
k
, v >
_

_
.
Si V = K
n
y el producto escalar < , > es el producto escalar usual, la igualdad matricial
anterior se puede expresar en la forma
A

Ax = A

v (1.7)
o bien
Gx = A

v,
donde A =
_
v
1
. . . v
k

es la matriz cuyas columnas son los vectores de la base B y G es


la matriz de Gram del producto escalar < , > en la base B, que hemos denido al nal de la
Secci on 1.1.
Las ecuaciones (1.7) se conocen con el nombre de ecuaciones normales para las coordena-
das de la proyecci on y s olo involucran a los vectores de la base B (ordenados por columnas en
la matriz A) y al vector v.
Si G = A

A es invertible, podemos despejar x en (1.7) para obtener la siguiente f ormula


de la proyecci on ortogonal en funci on de una base cualquiera (no necesariamente ortogonal)
de W
proy
W
(v) = A(A

A)
1
A

v (1.8)
La pregunta que queda por resolver es: cu ando la matriz A

A es invertible? El siguiente
resultado nos proporciona una condici on suciente.
Lema 1.5.3 Si las columnas de A son linealmente independientes entonces la matriz A

A es
invertible.
Por lo tanto, si partimos de una base B = v
1
, . . . , v
k
cualquiera de W, la matriz A

A es
invertible, porque las columnas de A son linealmente independientes. En este caso, la f ormula
(1.8) nos permite calcular la proyecci on de v sobre W sin necesidad de ortogonalizar B.
Resumimos este procedimiento alternativo para el c alculo de la proyecci on ortogonal (con
el producto escalar usual) en el siguiente cuadro
Calculo de proy
W
(v) (con el producto escalar usual)
1. Calcular una base de W: B = v
1
, . . . , v
k

2. Construir la matriz A =
_
v
1
. . . v
k

3. Aplicar la f ormula:
proy
W
(v) = A(A

A)
1
A

v
1.5 Problemas de mnimos cuadrados 27
Mnimos cuadrados usando la factorizaci on QR
En el caso en que las columnas de la matriz A =
_
v
1
. . . v
k

sean linealmente inde-


pendientes (en otras palabras, cuando los vectores v
1
, . . . , v
k
formen una base de W), podemos
usar la factorizaci on QR de A para hallar una f ormula m as elemental de la proyecci on orto-
gonal sobre W. Por la propiedad iv) del Lema 2.1.1, que veremos m as adelante, tenemos que
A

= R

, luego
A(A

A)
1
A

= QR(R

QR)
1
R

= QR(R

R)
1
R

,
y, dado que R es tambi en invertible (pues lo es A), la anterior expresi on se simplica a QQ

.
Por lo tanto, nos queda la f ormula elemental
proy
W
(v) = QQ

v
Esta f ormula es la misma que hemos obtenido al nal de la Secci on 1.3, pues las columnas
de Q son una base ortonormal del espacio de columnas de A.
Hay que destacar que la simplicidad de la f ormula anterior se basa en las propiedades de
la matriz Q, cuyo c alculo equivale al c alculo de una base ortogonal de W. Dicho c alculo es
costoso si se hace a mano pero, por el contrario, la matriz Q (y la factorizaci on QR) se pueden
obtener de una manera r apida y precisa con el programa Matlab. La soluci on que ofrece el
programa mediante este procedimiento es mucho m as precisa que si se resuelve el problema
(con el mismo programa) usando las ecuaciones normales.
Soluci on de Ax = b por mnimos cuadrados
El Teorema 1.5.2 nos dice que

b = proy
col(A)
(b)
es la mejor aproximaci on de col(A) al vector b. Por tanto, para resolver (1.6) por mnimos
cuadrados debemos resolver
A x =

b . (1.9)
Este sistema tiene soluci on porque

b col(A), pero la soluci on puede no ser unica. En este


apartado nos interesa el caso en el que hay soluci on unica. En la Secci on 3.2 estudiaremos un
m etodo para el c alculo de la soluci on optima cuando hay m as de una soluci on.
Recordamos el siguiente resultado de

Algebra elemental que es clave para nuestro proble-
ma.
Teorema 1.5.4 La soluci on del sistema lineal (1.9) es unica si y s olo si la matriz de coecientes
A tiene columnas linealmente independientes.
En el caso de que las columnas de A sean linealmente independientes, en virtud del Lema
1.5.3, la matriz A

A es invertible y, por tanto, la soluci on por mnimos cuadrados del sistema


(1.6) es la soluci on del sistema
A x = A(A

A)
1
A

b.
28 1. PRODUCTOS ESCALARES
Si multiplicamos en ambos t erminos a la izquierda por A

obtenemos
A

A x = A

b.
As pues, hemos llegado al siguiente resultado.
Teorema 1.5.5 Si la matriz A tiene columnas linealmente independientes entonces el sistema
lineal (1.6) tiene soluci on unica por mnimos cuadrados y dicha soluci on, x, es la soluci on del
sistema lineal
(A

A) x = A

b.
Problema Resuelto 1.5.6 Calcular la proyecci on ortogonal del vector v =
_
1 1 1

T
sobre el plano x y + 2z = 0 y usar dicha proyecci on para resolver, por mnimos
cuadrados, el sistema lineal
_
_
_
x + 3y = 1
x +y = 1
y = 1
.
Soluci on. Para calcular la proyecci on ortogonal usaremos la f ormula (1.8), para lo que nece-
sitamos una base del plano . El vector normal al plano es n =
_
1 1 2

T
, por lo que
una base del plano estar a formada por dos vectores perpediculares a n. Podemos tomar, por
ejemplo, los vectores que determinan los coecientes del sistema del enunciado, lo que nos da
la matriz
A =
_
_
1 3
1 1
0 1
_
_
.
Ahora, aplicando la f ormula (1.8)
proy

(v) = A(A

A)
1
A

v =
1
6
_
_
5 1 2
1 5 2
2 2 2
_
_
v =
_
_
1/3
1/3
1/3
_
_
.
El vector v no pertenece al plano , por lo que el sistema lineal no tiene soluci on. Como las
columnas de A son linealmente independientes, la soluci on por mnimos cuadrados es unica y
coincide con la soluci on, x, del sistema
A x = proy

(v) =
_
_
1/3
1/3
1/3
_
_
.
Dicha soluci on se obtiene f acilmente escalonando la matriz A y es
x =
_
2/3
1/3
_
.
2
ESTUDIO ESPECTRAL DE ENDOMORFISMOS
2.1 Matrices unitarias y ortogonales
En este tema estudiaremos dos clases fundamentales de matrices: las matrices unitarias y
las matrices ortogonales. La relevancia de estas clases de matrices radica en que preservan el
producto escalar usual y, en consecuencia, la norma asociada. Las matrices unitarias preservan
el producto escalar hermtico y las ortogonales preservan el producto escalar real. Este hecho
tiene implicaciones tanto desde el punto de vista de la geometra como desde el punto de vista
del c alculo num erico. El primer punto ser a estudiado en este tema, mientras que el segundo se
tratar a en el Tema 6.
Comenzamos este tema con unas propiedades elementales de la traspuesta conjugada de
matrices. Su demostraci on es inmediata.
Lema 2.1.1 Sean A, B dos matrices cualesquiera (de las dimensiones adecuadas) y C.
Entonces
i) (A

= A.
ii) (A+B)

= A

+B

.
iii) (A)

= A

.
iv) (AB)

= B

.
Recordemos que ya hemos usado la propiedad iv) en el Tema 1 para obtener la f ormula de
la proyecci on en t erminos de la matriz Q de la factorizaci on QR.
En la siguiente denici on introducimos las clases fundamentales de este tema y tambi en
recordamos otras dos deniciones ya conocidas que tienen, como veremos, una interpretaci on
relevante desde el punto de vista de los productos escalares.
29
30 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Denici on 2.1.2 i) Una matriz U C
nn
se dice unitaria si U

U = I
n
. En este caso se
tiene tambi en UU

= I
n
y, por tanto, U es invertible y U

= U
1
.
ii) Una matriz P R
nn
se dice ortogonal si P
T
P = I
n
. En este caso se tiene tambi en
PP
T
= I
n
y, por tanto, P es invertible y P

= P
1
.
iii) Una matriz A C
nn
se dice hermtica (o autoadjunta) si A

= A.
iv) Una matriz A C
nn
se dice sim etrica si A
T
= A.
Observaci on 2.1.3 N otese que, seg un la denici on que hemos introducido, una matriz orto-
gonal es real. No obstante, tambi en se puede denir el concepto de matriz ortogonal para
matrices complejas (la denici on sera exactamente la misma, pero permitiendo que la matriz
tenga entradas complejas). Sobre este particular no hay un criterio universal, pero s mayo-
ritario. La mayora de los autores entienden por matriz ortogonal (a secas) una matriz real,
mientras que se utiliza el t ermino matriz compleja ortogonal para las matrices con entradas
complejas. En este curso las matrices ortogonales complejas no ser an necesarias, por lo que
hemos preferido denir las matrices ortogonales como matrices reales.
En este apartado nos centraremos en las matrices ortogonales y unitarias. S olo en un
ap endice nal daremos la interpretaci on de las matrices sim etricas y hermticas a trav es de
los productos escalares/hermticos.
En el siguiente lema se enuncian algunas de las propiedades b asicas de las matrices unita-
rias y ortogonales.
Lema 2.1.4 (Propiedades de las matrices unitarias y ortogonales) En C
n
consideramos el pro-
ducto hermtico usual < u, v >= u

v. Dada una matriz U C


nn
i) U es unitaria si y s olo si las columnas de U son ortonormales,
ii) U es unitaria si y s olo si las las de U son ortonormales,
iii) Si U es unitaria entonces [det(U)[ = 1,
iv) Si U es unitaria entonces < Uu, Uw >=< u, v >, para cualquier par de vectores
u, v C
n
. Es decir, las matrices unitarias conservan el producto hermtico usual, en
particular
v) Si U es unitaria entonces | Uv |
2
=| v |
2
, para todo v C
n
.
En R
n
consideramos el producto escalar usual < u, v >= u
T
v. Dada una matriz P
R
nn
vi) P es ortogonal si y s olo si las columnas de P son ortonormales,
vii) P es ortogonal si y s olo si las las de P son ortonormales,
viii) Si P es ortogonal entonces det(P) = 1,
2.2 Matrices de Householder 31
ix) Si P es unitaria entonces < Pu, Pw >=< u, v >, para cualquier par de vectores
u, v R
n
. Es decir, las matrices ortogonales conservan el producto escalar usual, en
particular
x) Si P es ortogonal entonces | Pv |
2
=| v |
2
, para todo v R
n
.
xi) Si U, V C
nn
son matrices unitarias entonces UV es unitaria.
xii) Si P, Q R
nn
son matrices ortogonales entonces PQ es ortogonal.
Observaci on 2.1.5 La matriz Qde la factorizaci on QR de una matriz Areal cuadrada es una
matriz ortogonal (es cuadrada y tiene columnas ortonormales), mientras que si la matriz A es
compleja cuadrada entonces la matriz Q es unitaria.
En las propiedades iv) y ix) radica gran parte de la importancia que tienen las matrices
unitarias y ortogonales tanto desde el punto de vista geom etrico como desde el punto de vista
num erico. Seg un estas propiedades, las matrices unitarias/ortogonales, o sus transfromaciones
asociadas, conservan tanto el tama no (norma) de los vectores como su posici on relativa, dada
por sus angulos. Este hecho no s olo tiene importancia geom etrica (que explotaremos en el Te-
ma 5), sino tambi en num erica. Cuando operamos con matrices que no son unitarias/ortogonales
corremos el riesgo de introducir grandes errores en el c alculo de vectores. Por ejemplo, al mul-
tiplicar dos vectores perpendiculares (o casi perpendiculares) y, por lo tanto, lo m as alejados
posible de la dependencia lineal, por una matriz cualquiera invertible no podemos obtener dos
vectores paralelos (debido a la invertibilidad de la matriz) pero s dos vectores casi paralelos, es
decir, casi dependientes. Es decir, dos vectores de direcciones muy diferentes pueden transfor-
marse en vectores de direcciones parecidas al multiplicarlos por una matriz cualquiera. Esto, en
cambio, no puede ocurrir al multiplicarlos por una matriz unitaria/ortogonal, pues los angulos
se conservan. Por este motivo las matrices unitarias/ortogonales son preferibles desde el punto
de vista num erico.
2.2 Matrices de Householder
En esta secci on vamos a estudiar una clase importante de matrices unitarias, conocidas
como matrices de Householder, en honor al matem atico norteamericano Alston Householder
(1904-1993). Estas matrices se utilizan en el c alculo de la factorizaci on QR y, adem as, tienen
una interpretaci on geom etrica elemental, como veremos a continuaci on.
Denici on 2.2.1 (Matriz de Householder) Dado un vector v R
n
, la matriz de Householder
asociada a v es la matriz
H
v
= I
n

2
v
T
v
vv
T
.
Conviene observar que H
v
R
nn
. As, la matriz de Householder H
v
puede verse como
una transformaci on lineal de R
n
, dada por
H
v
: R
n
R
n
v H
v
(w) = H
v
w.
32 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
A estas transformaciones las llamaremos transformaciones de Householder. A continuaci on,
vamos a dar una interpretaci on geom etrica de dichas aplicaciones. Para entenderla, recordamos
que un hiperplano en el espacio R
n
es un subespacio vectorial de dimensi on n1. Su nombre
se debe a que un hiperplano es la generalizaci on a R
n
del concepto de plano en R
3
. Por ejemplo,
en el plano R
2
los hiperplanos son las rectas. Tambi en conviene tener en cuenta que, en virtud
del Lema 1.1.17, el subespacio ortogonal de una recta (o un vector) en R
n
es un hiperplano.
De hecho, todo hiperplano es el subespacio ortogonal de alg un vector.
La matriz de Householder H
v
representa una simetra en R
n
respecto al hiper-
plano ortogonal al vector v.
La comprobaci on de este hecho es muy sencilla: basta darse cuenta de que la matriz que
aparece en el segundo t ermino de H
v
(sin el factor 2),
P
v
=
1
v
T
v
vv
T
,
es la matriz asociada a la proyecci on sobre el espacio generado por v, Gen(v), pues, para
cualquier vector w V
P
v
(w) =
1
v
T
v
vv
T
w =
v
T
w
v
T
v
v =
< v, w >
< v, v >
v,
donde < , > denota el producto escalar usual. Esta es, precisamente, la f ormula de la pro-
yecci on de w sobre Gen(v) (comp arese con la f ormula (1.4) para un unico vector u
1
). Por
tanto
H
v
(w) = (I
n
2P
v
)(w) = w 2 proy
Gen(v)
(w)
es el vector sim etrico de w con respecto al hiperplano ortogonal a Gen(v).
Gr acamente
Gen(v)

proy
Gen(v)
(w)
w
Gen(v)
6
^ H
v
(w)
Lema 2.2.2 (Propiedades de las matrices de Householder) Sea v R
n
y H
v
la matriz de
Householder asociada a v. Entonces
i) H
v
es sim etrica.
ii) H
v
es ortogonal.
iii) H
v
= H
v
, para todo R 0.
2.2 Matrices de Householder 33
iv) det(H
v
) = 1.
v) La transformaci on lineal asociada a H
v
deja jos
La recta Gen(v).
Todos los vectores del hiperplano Gen(v)

.
vi) Dados dos vectores x, y R
n
con | x |
2
=| y |
2
,
H
xy
(x) = y.
La interpretaci on geom etrica del apartado vi) del Lema 2.2.2 es la siguiente:
-

o
x
y
x y
Gen(x y)

Los vectores x, y son sim etricos


respecto del espacio ortogonal al
vector x y.
Problema Resuelto 2.2.3 Calcular la matriz de Householder que transforma el vector
x =
_
3 0 4

T
en un vector paralelo al primer vector can onico e
1
.
Soluci on. Seg un la propiedad vi) del Lema 2.2.2, la transformaci on de Householder llevar a el
vector x a un vector de la misma norma que x. El vector paralelo a e
1
de la misma norma que
x es | x |
2
e
1
= 5e
1
. Por tanto, la transformaci on de Householder est a asociada al vector
v = x 5e
1
=
_
2 0 4

T
. Se trata, por lo tanto, de la transformaci on asociada a la
matriz
H
v
= I
v

2
20
vv
T
=
_
_
3/5 0 4/5
0 1 0
4/5 0 3/5
_
_
.
El Problema Resuelto 2.2.3 es la base del procedimiento que vamos a describir a continua-
ci on para el c alculo de la factorizaci on QR de una matriz, y que explota la propiedad ii) del
Lema 2.2.2.
Teorema 2.2.4 Dada una matriz A R
nm
con n m, existen m matrices de Householder,
H
1
, . . . , H
m
de modo que
H
m
H
1
A = R,
donde R es triangular superior con todas sus entradas diagonales no negativas. Por tanto
A = QR,
con Q una matriz unitaria que es el producto de m matrices de Householder.
34 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Demostraci on. Explicaremos esquem aticamente el procedimiento, que consta de m pasos, en
cada uno de los cuales se aplica una transformaci on de Householder a la matriz obtenida en el
paso anterior.
El primer paso consiste en hacer ceros en la primera columna de Apor debajo de la entrada
(1, 1). Si llamamos, como es habitual, a
1
a la primera columna de A, sabemos que hay una
matriz de Householder, H
1
, tal que H
1
a
1
=| a
1
|
2
e
1
. Por lo tanto
H
1
A =
_
| a
1
|
2

0
(n1)1

A
2
_
,
donde es una la de m1 entradas que no nos interesan, el 0 que hay bajo la entrada (1, 1)
es en realidad una columna de ceros y

A
2
es una matriz de tama no (n 1) (m1). N otese
que la entrada en la posici on diagonal (1, 1) es no negativa. Esta entrada no se ver a alterada en
el resto del proceso.
El segundo paso consiste en hacer lo mismo que en el primero pero sobre la matriz

A
2
, es
decir, aplicarle una transformaci on de Householder que convierta en ceros todas las entradas
por debajo de la entrada (1, 1). La matriz de Householder asociada,

H
2
, es de tama no (n
1) (n1). La matriz de Householder del segundo paso, que actuar a sobre la matriz completa
H
1
A y es de tama no n n, ser a
H
2
=
_
1 0
1(n1)
0
(n1)1

H
2
_
.
El proceso contin ua de la misma manera: en el paso j- esimo partimos de una matriz de la
forma
_
R
j1

0
(nj+1)(j1)

A
j
_
,
donde R
j1
es triangular superior de tama no (j 1) (j 1) y representa una subma-
triz que carece de relevancia en el proceso. Aplicaremos a la matriz

A
j
la transformaci on de
Householder,

H
j
, que lleva la primera columna a un m ultiplo de e
1
. Esta matriz es de tama no
(n j + 1) (n j + 1). La matriz H
j
de tama no n n que buscamos en este paso ser a
H
j
=
_
I
j1
0
(j1)(nj+1)
0
(nj+1)(j1)

H
j
_
.
N otese que esta matriz no altera la matriz R
j1
obtenida en el paso anterior. Tras aplicar m1
transformaciones de Householder, llegamos a una matriz de la forma
_
R
m1

0
(nm+1)1
a
m
_
,
donde a
m
es una unica columna (si n = m es simplemente una entrada). Al aplicar el ulti-
mo paso llegamos a una matriz R, que es triangular superior y con entradas diagonales no
negativas.
As pues, hemos obtenido una matriz

Q = H
m
H
1
tal que

QA = R. Como H
i
, para
i = 1, . . . , m, es sim etrica y ortogonal (apartados i) y ii) del Lema 2.2.2) tenemos que H
1
i
=
H
T
i
= H
i
, luego

Q
1
= H
1
1
H
1
m
= H
1
H
m
. Si llamamos Q = H
1
H
m
entonces
Q es unitaria y A = QR, lo que demuestra la ultima armaci on del enunciado.
2.2 Matrices de Householder 35
Observaci on 2.2.5 En el Teorema 2.2.4 consideramos matrices de Householder en sentido
generalizado, incluyendo la matriz identidad, que sera la matriz de Householder asociada
al vector nulo. Esto quiere decir que, si exclumos esta matriz, el n umero de matrices H
j
del
enunciado puede ser menor que m.
N otese que la matriz Q en el Teorema 2.2.4 es un producto de matrices sim etricas (las
matrices de Householder lo son, en virtud de la propiedad i) del Lema 2.2.2). En cambio, Q no
es siempre sim etrica. Este hecho nos indica que el producto de matrices sim etricas no siempre
da como resultado una matriz sim etrica. Esto es precisamente lo que se pide demostrar en el
siguiente ejercicio.
Ejercicio 2.2.6 Demostrar, con un contraejemplo, que el producto de matrices sim etricas no
es siempre una matriz sim etrica.
El Teorema 2.2.4 nos proporciona un m etodo para obtener la matriz R de la factorizaci on
QR de una matriz A mediante una serie de transformaciones de Householder aplicadas a dicha
matriz A. La ventajas, desde el punto de vista num erico, de operar con matrices de Householder
(que son ortogonales) se ha comentado ya tras el Lema 2.1.4. Por las razones all mencionadas
el procedimiento descrito en el Teorema 2.2.4 para calcular la factorizaci on QRes preferible al
descrito en el Teorema 1.4.3 basado en el m etodo de Gram-Schmidt. Precisamente el m etodo
del Teorema 2.2.4 es el que utiliza el programa Matlab para el c alculo de la factorizaci on
QR. Recordemos que dicho programa no proporciona, en general, una matriz R con entradas
diagonales no negativas. Ahora podemos dar una explicaci on de este hecho. Como hemos visto
en la demostraci on del Teorema 2.2.4, en cada paso del proceso para llegar a la matriz R
aplicamos una transformaci on de Householder que lleva una columna, llam emosla a, al vector
| a |
2
e
1
. No obstante, lo importante del procedimiento es llegar a un vector que tenga todas
las entradas nulas salvo la primera y, como queremos llegar a el mediante matrices ortogonales,
su norma ha de coincidir con la norma de a. El vector | a |
2
e
1
no es el unico que cumple
estas dos condiciones. De hecho, hay otro vector con estas caractersticas, que es precisamente
el vector opuesto al anterior, | a |
2
e
1
. Por cuestiones num ericas, hay ocasiones en que
no es aconsejable elegir el primero, sino el segundo. Es en estos casos en los que aparece una
entrada negativa en la diagonal de la matriz R.
Interpretaci on de las matrices sim etricas y hermticas
Debido a la simetra del producto escalar real < , >, la matriz de Gram de un producto
escalar en una base cualquiera (v ease la denici on al nal de la Secci on 1.1) es una matriz
sim etrica con entradas reales (diremos sim etrica real). A lainversa, aunque cualquier producto
escalar queda determinado por los valores que asigna a los vectores de una base, no es verdad
que cualquier matriz sim etrica real es la matriz de Gram de un determinado producto escalar
real en una base prejada. Para ello la matriz ha de ser denida positiva (v ease la Secci on 4.3).
En concreto, si B = v
1
, . . . , v
n
es una base de V y A = [a
ij
]
n
i,j=1
es una matriz sim etrica
real denida positiva, denimos el producto escalar de los vectores v
i
, v
j
de la base como
< v
i
, v
j
>= a
ij
.
De este modo, el producto escalar de dos vectores u, v V cualesquiera, expresados en la base
B, est a denido por
< u, v >= [u]
T
B
A[v]
B
.
36 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
De forma an aloga, la matriz de Gram de un producto hermtico es una matriz hermtica
mientras que recprocamente, toda matriz hermtica denida positiva H dene un producto
hermtico en una base prejada B, concretamente
< u, v >= [u]

B
H[v]
B
.
Resumiendo:
Teorema 2.2.7 a) Sea V un espacio vectorial real y B una base de V. Cualquier matriz
sim etrica denida positiva A R
nn
es la matriz de Gram de un producto escalar
sobre V en la base B, que est a denido por
< u, v >= [u]
T
B
A[v]
B
.
b) Sea V un espacio vectorial complejo y B una base de V. Cualquier matriz hermtica
denida positiva H C
nn
es la matriz de Gram de un producto hermtico sobre V en
la base B, que est a denido por
< u, v >= [u]

B
H[v]
B
.
2.3 El lema de Schur y sus aplicaciones
En este apartado todas las matrices que aparecen son cuadradas de tama no nn. Cuando
hablemos de transformaci on unitaria (respectivamente, ortogonal) nos referiremos a la trans-
formaci on lineal asociada a una matriz unitaria (resp. ortogonal).
Comenzamos con la siguiente denici on fundamental.
Denici on 2.3.1 Una matriz A K
nn
se dice que es semejante a otra matriz B K
nn
si
existe una matriz invertible P C
nn
tal que P
1
AP = B.
La matriz A C
nn
es unitariamente semejante a la matriz B C
nn
si existe una matriz
unitaria U C
nn
tal que U

AU = B.
Finalmente, una matriz A R
nn
es ortogonalmente semejante a una matriz B R
nn
si existe una matriz ortogonal P C
nn
tal que P
T
AP = B.
Observaci on 2.3.2 Los tres conceptos introducidos en la denici on anterior son sim etricos.
Esto signica que, por ejemplo, si una matriz A es semejante a otra matriz B entonces B es
a su vez semejante a la matriz A. La justicaci on de este hecho es la siguiente. Si P
1
AP =
B, para alguna matriz invertible P, entonces PBP
1
= A. Como P =
_
P
1
_
1
, B es
semejante a A, donde la matriz que da la semejanza, seg un la denici on, es P
1
. En realidad,
obtendramos la misma denici on de semejanza si escribi eramos PAP
1
= B en lugar de
P
1
AP = B.
Geom etricamente, dos matrices semejantes representan la misma transformaci on lineal
pero en dos bases distintas. Es decir, si A es semejante a B entonces existe una transformaci on
lineal T de K
n
y dos bases de K
n
, B y B

de manera que
A = M(T, B, B) y B = M(T, B

, B

)
2.3 El lema de Schur y sus aplicaciones 37
(donde M(T, B
1
, B
2
) representa la matriz de la transformaci on lineal T en las bases B
1
del
espacio de partida y B
2
del espacio de llegada). En este caso, la matriz P que da la semejanza
es la matriz de cambio de base de B

a B.
No obstante, aunque dos matrices semejantes representen la misma transformaci on pue-
de ocurrir que al cambiar de base el producto escalar de dos vectores se vea alterado. Esto,
en cambio, no ocurre con la semejanza unitaria/ortogonal, que es una semejanza mediante
matrices unitarias/ortogonales. Por tanto, las matrices de cambio de base en la semejanza uni-
taria/ortogonal conservan el producto escalar.
Puesto que, como acabamos de ver, una transformaci on lineal puede expresarse en diferen-
tes (en realidad innitas) bases a trav es de matrices semejantes, es natural preguntarse por la
expresi on m as sencilla posible de dicha transformaci on. Las matrices m as elementales, desde
el punto de vista operativo, son las matrices diagonales. Esto nos lleva a la siguiente denici on.
Denici on 2.3.3 Una matriz es diagonalizable si es semejante a una matriz diagonal.
Una matriz es unitariamente diagonalizable (resp. ortogonalmente diagonalizable) si es
unitariamente (resp. ortogonalmente) semejante a una matriz diagonal.
En otras palabras, las matrices diagonalizables son aquellas que, mediante un cambio de
base (el mismo en el espacio de partida y en el de llegada) pueden transformarse en una matriz
diagonal.
La cuesti on que surge de forma inmediata es: Todas las matrices son diagonalizables? Y
la respuesta, ya conocida, es: NO. El siguiente resultado, que es un mero recordatorio del curso
de

Algebra elemental, nos da una caracterizaci on de las matrices diagonalizables.
Teorema 2.3.4 Sea A C
nn
. Los siguientes enunciados son equivalentes.
i) A es diagonalizable.
ii) Existe una base de C
n
formada por vectores propios de A.
iii) La multiplicidad geom etrica de cada autovalor de A coincide con su multiplicidad alge-
braica.
Nuestro inter es se centra ahora en resolver la misma pregunta para la diagonalizaci on uni-
taria y ortogonal, es decir: Todas las matrices son unitariamente/ortogonalmente diagonaliza-
bles? En caso negativo, qu e matrices lo son y cu ales no?
La respuesta a esta pregunta es una de las aplicaciones del lema de Schur, que enunciamos
a continuaci on.
Teorema 2.3.5 (Lema de Schur) Dada una matriz A C
nn
, existen una matriz U unitaria y
una matriz S triangular superior de manera que
U

AU = S. (2.1)
Dicho de otra forma: toda matriz es unitariamente semejante a una matriz triangular superior.
M as a un, si la matriz de partida A es real con todos sus autovalores reales, entonces la
matriz U puede tomarse ortogonal.
38 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
La matriz S en (2.1) se conoce como forma de Schur de A, y, puesto que es triangular
y semejante a la matriz A, sus entradas diagonales son los autovalores de A. En cambio, las
columnas de la matriz U en (2.1) no son necesariamente los autovectores de A (s olo podemos
asegurar que la primera lo es).
Como hemos visto en el Lema de Schur, si la matriz de partida es real con autovalores
reales, entonces la matriz de paso, U, puede tomarse ortogonal. La condici on de que los au-
tovalores sean reales es necesaria para que esto ocurra. En el caso, m as general, en que los
autovalores son complejos, tenemos el siguiente resultado.
Teorema 2.3.6 (Lema de Schur real) Dada una matriz A R
nn
existe una matriz ortogonal
tal que
Q
T
AQ =
_

_
A
1
. . .
0 A
2
.
.
.
.
.
.
.
.
.

0 . . . 0 A
k
_

_
, (2.2)
donde A
i
, para i = 1, . . . , k, es una matriz 1 1 o 2 2. En este ultimo caso, A
i
tiene dos
valores propios conjugados.
La matriz derecha de la f ormula (2.2) es una matriz triangular superior por bloques y se
conoce como la forma de Schur real deA. Los smbolos en dicha matriz representan bloques
que no son relevantes.
La siguiente denici on es clave para responder a la pregunta sobre qu e matrices son unita-
riamente diagonalizables.
Denici on 2.3.7 Una matriz A C
nn
es normal si AA

= A

A.
Ejercicio 2.3.8 Demostrar que si una matriz es normal y triangular superior entonces es dia-
gonal.
El conjunto de las matrices normales incluye a (casi) todos los tipos de matrices de la
denici on 2.1.2. En el siguiente cuadro mostramos algunos de estos tipos de matrices.
Matrices normales:
Sim etricas reales
Hermticas
Unitarias
Ortogonales (reales)
N otese que, en cambio, las matrices sim etricas complejas no son necesariamente normales.
En el siguiente ejercicio se pide encontrar un contraejemplo.
Ejercicio 2.3.9 Encontrar un ejemplo de matriz sim etrica (compleja) que no sea normal.
Ahora ya podemos enunciar la caracterizaci on del conjunto de matrices que son unitaria-
mente diagonalizables. Se trata de una caracterizaci on, como se ver a, muy elemental en su
enunciado.
2.3 El lema de Schur y sus aplicaciones 39
Teorema 2.3.10 Una matriz es unitariamente diagonalizable si y s olo si es normal.
Demostraci on. Demostraremos primero que una matriz unitariamente diagonalizable es nor-
mal. Sea A, por tanto, una matriz unitariamente diagonalizable y
U

AU = D
una diagonalizaci on unitaria de A (U es, por tanto, una matriz unitaria y D una matriz diago-
nal). Entonces U

U = D

y, multiplicando ambas identidades tenemos


(U

AU)(U

U) = DD

= D

D = (U

U)(U

AU),
donde hemos usado, para obtener la segunda igualdad, que dos matrices diagonales siempre
conmutan. Como U

U = UU

= I (pues U es unitaria), la anterior igualdad es equivalente a


U

AA

U = U

AU.
Finalmente, multiplicando ambos t erminos a la izquierda por U y a la derecha por U

llegamos
a la igualdad
AA

= A

A,
es decir, A es normal.
Supongamos ahora que A es una matriz normal. Por el lema de Schur, existen una matriz
U unitaria y una matriz S triangular superior tales que
U

AU = S,
luego U

U = S

y, multiplicando ambas expresiones tenemos que


U

AA

U = SS

.
Como AA

= A

A, lo anterior es igual a U

AU = U

UU

AU = S

S, de modo que
SS

= S

S,
es decir, S es normal. Como S es triangular superior, el Ejercicio 2.3.8 nos permite concluir
que S es diagonal, y, por tanto, A es unitariamente diagonalizable.
Ejercicio 2.3.11 Demostrar que los autovalores de una matriz real sim etrica son n umeros
reales.
El teorema 2.3.10 caracteriza a las matrices unitarias como aquellas que tienen n autovec-
tores ortonormales con el producto escalar usual hermtico. Cabe preguntarse qu e ocurre en el
caso real, es decir, cuales son las matrices reales n n que tienen un total de n autovectores
ortonormales con el producto escalar usual? La respuesta la daremos en el Teorema 2.3.15 y es
muy sencilla de formular: se trata de las matrices real sim etricas. Este resultado sera muy sor-
prendente si no lo conoci eramos ya del curso elemental de

Algebra lineal. El Teorema 2.3.15
nos da, por tanto, una caracterizaci on de una de las clases importantes de matrices normales que
estamos tratando en este curso (las matrices reales sim etricas). Este resultado forma parte de
una serie de teoremas que veremos a continuaci on, en los que obtendremos caracterizaciones
40 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
de otras clases importantes de matrices normales, concretamente de las matrices hermticas,
unitarias y ortogonales. En estas caracterizaciones, a la propiedad fundamental de las matri-
ces normales (ser unitariamente diagonalizables), se a naden ciertas propiedades espectrales
(es decir, relativas a los autovalores y autovectores). Vamos a considerar por separado el caso
complejo y el caso real. Es importante destacar que todas estas caracterizaciones se derivar an
del Lema de Schur, lo que da una idea de la importancia de este resultado.
Matrices complejas
Los dos resultados que enunciamos a continuaci on caracterizan a los conjuntos de matrices
hermticas y unitarias. Concretamente, el primero de ellos establece que las matrices hermticas
son aquellas que se pueden diagonalizar unitariamente y tienen todos sus autovalores reales. El
segundo establece que las matrices unitarias son aquellas que pueden diagonalizarse unitaria-
mente y tiene todos sus autovalores de norma 1.
Teorema 2.3.12 A C
nn
tiene n autovectores ortogonales y todos sus autovalores reales si
y s olo si A es hermtica.
Demostraci on. En primer lugar, observamos que una matriz A C
nn
tiene n autovectores
ortogonales si y solo si tiene n autovectores ortonormales, pues los autovectores pueden norma-
lizarse y siguen siendo autovectores (recu erdese que cualquier m ultiplo de un autovector sigue
siendo autovector). Por tanto, la condici on A tiene n autovectores ortogonales es equivalente
a la condici on A es unitariamente diagonalizable.
Para demostrar el Teorema, supongamos primero que Aes hermtica, es decir, A = A

. Por
el Lema de Schur, U

AU = S, donde U es unitaria y S es triangular superior. Como A

= A,
aplicando la traspuesta conjugada a la igualdad anterior tenemos que U

AU = S

, de donde
se concluye que S = S

. Pero como S es triangular superior, S

es triangular inferior, luego S


es, al mismo tiempo, triangular superior e inferior, es decir, es diagonal. Adem as, la igualdad
S = S

implica que los autovalores de S (entradas diagonales) son n umeros reales. Como los
autovalores de S y los de A coinciden, se concluye que los autovalores de A son reales.
Para demostrar el recproco, supongamos que A es unitariamente diagonalizable y con to-
dos sus autovalores reales. Entonces, existen una matriz unitaria, U, y una matriz diagonal con
entradas reales, D, tales que U

AU = D. Tomando la traspuesta conjugada en esta igualdad


llegamos a que U

U = D, de donde, igualando ambas expresiones, U

AU = U

U.
Ahora, basta multiplicar a la izquierda por U y a la derecha por U

para concluir que A = A

,
es decir, A es hermtica.
Teorema 2.3.13 A C
nn
tiene n autovectores ortogonales y todos sus autovalores de m odu-
lo 1 si y s olo si A es unitaria.
Demostraci on. Supongamos primero que A es unitaria, es decir, A

A = I
n
= AA

. Por
el Lema de Schur, U

AU = S, donde U es unitaria y S es triangular superior. Tomando la


traspuesta conjugada en esta igualdad llegamos a que U

U = S

y, multiplicando ambas
expresiones, nos queda I
n
= SS

. Por tanto, S es tambi en unitaria y, en particular, es normal.


Por el Ejercicio 2.3.8 se concluye que S es diagonal. Adem as, la igualdad S

S = I
n
implica,
igualando las entradas diagonales, que los autovalores de S tienen norma (m odulo) 1. Como
los autovalores de A y S coinciden, tambi en los autovalores de A tienen m odulo 1.
2.3 El lema de Schur y sus aplicaciones 41
Recprocamente, supongamos que A es unitariamente diagonalizable y todos sus autovalo-
res tiene m odulo 1. Entonces, existen una matriz U unitaria y una matriz diagonal D con entra-
das diagonales de m odulo 1 tales que U

AU = D. Tomando la traspuesta conjugada tenemos


que U

U = D

y, multiplicando ambas expresiones, llegamos a que U

AA

U = DD

.
Como los autovalores de D (entradas diagonales) tienen m odulo 1, DD

= I
n
, de modo que
U

AA

U = I
n
y, multplicando a la derecha por U y a la izquierda por U

llegamos a que
AA

= I
n
, es decir, A es unitaria.
Problema Resuelto 2.3.14 Estudiar si es posible diagonalizar unitariamente la matriz
A =
_
_
0 0 1
1 0 0
0 1 0
_
_
y, en caso armativo, hallar una diagonalizaci on unitaria.
Soluci on. Puede comprobarse que AA
T
= A
T
A, lo que signica (A es real) que A es normal
y, por tanto, es unitariamente diagonalizable. Los autovalores de A se calculan a partir del
polinomio caracterstico, y son

1
= 1,
2
= e
2i/3
,
3
= e
4i/3
.
Los autovectores asociados (normalizados) son
v
1
=
_
_
1/

3
1/

3
1/

3
_
_
, v
2
=
_
_
1/

3
e
2i/3
/

3
e
2i/3
/

3
_
_
, v
3
=
_
_
1/

3
e
4i/3
/

3
e
4i/3
/

3
_
_
,
que, como puede comprobarse, son, efectivamente, ortogonales. As pues, si U =
_
v
1
v
2
v
3

y D = diag(
1
,
2
,
3
), entonces U

AU = D es una diagonalizaci on unitaria de A.


La matriz A es ortogonal, pues AA
T
= A
T
A = I
3
. Seg un el Teorema 2.3.13 los autovalo-
res de A tienen m odulo 1, que es algo que podemos comprobar inmediatamente.
La matriz A del Problema Resuelto anterior es una matriz real. En cambio, para diagonali-
zarla hemos utilizado n umeros complejos, que son inevitables porque dos de los autovalores de
A son complejos (no reales). Podramos plantearnos la posibilidad de hallar una forma can oni-
ca de A que, aunque no fuera diagonal (ya que esto es imposible porque, como hemos dicho,
dos de los autovalores no son reales) fuera lo m as parecido a una matriz diagonal y que no
involucrase valores complejos. Es posible hallar esta matriz y eso lo veremos en el Teorema
2.3.17.
Matrices reales
El primer resultado nos proporciona la caracterizaci on que ya hemos aludido de las matri-
ces reales ortogonalmente diagonalizables.
Teorema 2.3.15 Una matriz real es ortogonalmente diagonalizable si y s olo si es sim etrica.
42 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Demostraci on. Si A es una matriz real que es ortogonalmente diagonalizable, entonces
P
T
AP = D,
donde P es ortogonal y D es diagonal. Trasponiendo la igualdad anterior tenemos que
P
T
A
T
P = D
T
= D,
lo que implica que P
T
AP = P
T
A
T
P y, multiplicando a la izquierda por P y a la derecha por
P
T
llegamos a que A = A
T
, es decir, A es sim etrica.
A la inversa, si A es una matriz real sim etrica, por el ejercicio 2.3.11 A tiene autovalores
reales y, por el Teorema 2.3.5 la matriz U en (2.1) puede tomarse real ortogonal. Tenemos, por
tanto,
U
T
AU = S,
donde S es tambi en real porque es el producto de matrices reales. Trasponiendo esta identidad
llegamos a que U
T
AU = S
T
, e igualando, se tiene que S es sim etrica. En consecuencia, S es
normal y, por el Ejercicio 2.3.8, conclumos que S es diagonal. Como la matriz U en (2.1) es
ortogonal, A es ortogonalmente diagonalizable.
En el segundo resultado obtenemos una forma can onica real para las matrices reales nor-
males.
Teorema 2.3.16 Una matriz A R
nn
es normal si y s olo si A es ortogonalmente semejante
a una matriz diagonal por bloques de tama no 1 1 y 2 2
_

1
.
.
.

p
A
1
.
.
.
A
s
_

_
, (2.3)
donde los bloques diagonales de tama no 2 2 son de la forma
A
j
=
_
a
j
b
j
b
j
a
j
_
, j = 1, . . . , s,
y corresponden a un par de autovalores complejos conjugados de A, a
j
ib
j
.
Finalmente, el ultimo resultado de esta secci on, nos da una forma can onica real para las
matrices ortogonales.
Teorema 2.3.17 Una matriz A R
nn
es ortogonal si y s olo si es ortogonalmente semejante
a una matriz diagonal por bloques de tama no 1 1 y 2 2
_

1
.
.
.

p
A
1
.
.
.
A
s
_

_
, (2.4)
2.3 El lema de Schur y sus aplicaciones 43
con
i
= 1, para i = 1 . . . , p, y los bloques diagonales de tama no 2 2 son de la forma
A
j
=
_
cos
j
sen
j
sen
j
cos
j
_
, j = 1, . . . , s,
y corresponden a un par de autovalores complejos conjugados de A (de norma 1), cos
j

i sen
j
.
La matriz (2.3) o (2.4) se conoce como la diagonalizaci on ortogonal de A. Hay que tener
en cuenta que no se trata de una matriz diagonal en sentido estricto, sino de una matriz diagonal
por bloques.
Problema Resuelto 2.3.18 Hallar una diagonalizaci on ortogonal de la matriz A del Proble-
ma Resuelto 2.3.14.
Soluci on. Para hallar la diagonalizaci on ortogonal (real) de A, conviene recordar c omo se
obtiene la diagonalizaci on real de una matriz real a partir de la diagonalizaci on compleja: la
matriz diagonal por bloques, D
r
, contiene los autovalores reales (bloques 11) y unos bloques
diagonales 2 2 de la forma
_
a b
b a
_
,
donde a, b son, respectivamente, las partes real e imaginaria de cada uno de los pares de au-
tovalores conjugados (es decir, = a + bi, = a bi son dos autovalores conjugados de
A). Por otro lado, la matriz de paso, P, se obtiene tomando las partes real e imaginaria de los
autovectores (y orden andolas de acuerdo a la ordenaci on de los autovalores en D
r
).
Como A tiene un autovalor real,
1
= 1, y dos autovalores complejos conjugados,
2
=
e
2i/3
= cos(2/3)+i sen(2/3),
3
= e
4i/3
= cos(2/3)i sen(2/3), la matriz diagonal
ser a
D
r
=
_
_
1 0 0
0 cos(2/3) sen(2/3)
0 sen(2/3) cos(2/3)
_
_
=
_
_
1 0 0
0 1/2

3/2
0

3/2 1/2
_
_
.
Por otro lado, la matriz de paso, P, se obtiene a partir de los autovectores v
1
, v
2
, v
3
de la
siguiente manera (n otese que v
3
= v
2
y no lo usaremos). Primero calculamos los vectores
u
1
= v
1
=
_
_
1/

3
1/

3
1/

3
_
_
, u
2
=
1
2
(v
2
+v
2
) = Re(v
2
) =
_
_
1/

3
1/(2

3)
1/(2

3)
_
_
,
u
3
=
i
2
(v
2
v
2
) = Im(v
2
) =
_
_
0
1/2
1/2
_
_
,
que son ortogonales pero no unitarios, as que los normalizamos para obtener
P =
_
_
1/

3 2/

6 0
1/

3 1/

6 1/

2
1/

3 1/

6 1/

2
_
_
.
44 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Puede comprobarse que P
T
AP = D
r
.
El siguiente cuadro-resumen contiene los resultados de los teoremas 2.3.10, 2.3.12, 2.3.13
y 2.3.15.
Conjunto de matrices Caracterizaci on
Normales Unitariamente diagonalizables
Hermticas Unitariamente diagonalizables y autovalores reales
Unitarias Unitariamente diagonalizables y autovalores de norma 1
Reales sim etricas Ortogonalmente diagonalizables
2.4 Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
Hemos visto en el Teorema 2.3.17 que toda matriz ortogonal es semejante (ortogonalmente)
a una matriz diagonal por bloques de tama no 11 y 22, y que estos bloques son de la forma
1, 1,
_
cos sen
sen cos
_
(2.5)
asociados, respectivamente, con los autovalores 1, 1 y el par conjugado cos +i sen, cos
i sen.
Observaci on 2.4.1 En la secci on anterior hemos escrito los bloques asociados al par de au-
tovalores conjugados cos +i sen, cos i sen en la forma
_
cos
sen
sen
cos

para obtener los


autovectores de la forma real tomando directamente la parte real y la parte imaginaria de los
autovectores de la forma compleja. Ahora, para favorecer la interpretaci on geom etrica de las
transformaciones asociadas, nos interesa expresarlos en la forma
_
cos
sen
sen
cos

, con el signo
() en la entrada (1, 2) en lugar de la entrada (2, 1). N otese que una matriz se obtiene de la
otra cambiando por y viceversa.
Estamos interesados en aquellas transformaciones lineales del plano R
2
o del espacio R
3
que conservan la distancia entre vectores. Si extendemos este concepto a un espacio vectorial
eucldeo/unitario cualquiera, tenemos la siguiente denici on.
Denici on 2.4.2 Una isometra de un espacio vectorial euclideo/unitario V es una transfor-
maci on lineal, T, de V tal que
d(T(u), T(v)) = d(u, v),
para cualesquiera dos vectores u, v V.
Es decir, una isometra es un transformaci on lineal que preserva la distancia entre vectores.
Como ya sabemos, las transformaciones lineales asociadas a las matrices ortogonales pre-
servan la distancia asociada al producto escalar usual. Son, por tanto, isometras. En realidad,
no es difcil demostrar que estas son las unicas isometras de R
n
.
2.4 Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
45
Teorema 2.4.3 Toda isometra en R
n
, con el producto escalar usual, es una transfomaci on
lineal asociada a una matriz ortogonal.
En este apartado nos centramos en las isometras de los espacios vectoriales R
2
y R
3
con el
producto escalar usual. Vamos a ver que todas las isometras del plano R
2
pueden clasicarse
en tres grupos, mientras que las del espacio R
3
pueden clasicarse en cuatro grupos, que son
los indicados en la siguiente tabla.
Isometras de R
2
_
_
_
Identidad
Giro de angulo
Simetra respecto a un eje
Isometras de R
3
_

_
Identidad
Giro de eje r y angulo
Simetra respecto a un plano
Giro-reexi on respecto a un eje r y el plano r

Tabla 2.4: Isometras del plano y el espacio


Antes de comenzar con la clasicaci on, vamos a explicar brevemente aquellas isometras
de la tabla anterior que requieren alguna explicaci on. En concreto, el giro en R
3
y el giro-
reexi on (tambi en en R
3
). En lo sucesivo, entenderemos que un giro en un plano se efect ua en
sentido positivo si lo hace en sentido opuesto al movimiento de las agujas del reloj.
El giro de eje r y angulo en R
3
es un giro en el plano perpedicular al eje r. Es decir,
para conocer la imagen de un vector v cualquiera, consideramos el extremo de dicho vector
como un punto P y el plano perpendicular a r por dicho punto. Tomando como centro de giro
el punto de corte de r con el plano perpendicular, giramos el punto P un angulo de radianes
en sentido positivo y el punto que obtenemos es el extremo de la imagen del vector v.
El giro-reexi on de eje r y plano perpendicular a r es la composici on de un giro de eje r
(con un angulo , como se ha descrito en el p arrafo anterior) y una simetra (reexi on) respecto
al plano perpendicular a r. La composici on puede hacerse en los dos sentidos, es decir, primero
el giro y luego la simetra o a la inversa, porque ambos movimientos conmutan.
El procedimiento que seguiremos para clasicar las isometras de R
2
y R
3
se basa en los
siguientes dos argumentos:
(1) Cada uno de los tipos de isometras descritos en la Tabla 2.4 es invariante por semejanza
ortogonal.
(2) Todas las posibles formas can onicas de matrices ortogonales descritas en el Teorema
2.3.17 corresponden a alguna de las isometras de la Tabla 2.4.
La justicaci on del punto (1) es la siguiente: recordemos que una semejanza consiste sim-
plemente en un cambio de base. Si, adem as, la semejanza es ortogonal, dicho cambio de base
preserva el producto escalar y, en particular, las distancias. Por tanto, una semejanza ortogonal
representa la misma isometra pero expresada en bases distintas.
46 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Para demostrar (2) analizaremos todas las posibles formas can onicas que se derivan del
Teorema 2.3.17. Trataremos por separado las del plano R
2
y las del espacio R
3
.
Isometras b asicas de R
2
Como ya hemos visto en el Teorema 2.3.17, la forma can onica de una isometra de R
2
consiste en una matriz 2 2 que es diagonal por bloques, y los bloques diagonales son de la
forma (2.5). Las posibilidades se reducen a
(i) Autovalor 1 (doble) I
2
=
_
1 0
0 1
_
(ii) Autovalor 1 y autovalor 1
_
1 0
0 1
_
,
_
1 0
0 1
_
(iii) Autovalor 1 (doble) I
2
=
_
1 0
0 1
_
(iv) Dos autovalores complejos conjugados
_
cos sen
sen cos
_
La matriz de (i) corresponde a la transformaci on identidad en cualquier base (por tanto,
este caso se dar a s olo cuando la matriz de partida sea la propia identidad). Las matrices del
caso (ii) corresponden, respectivamente, a una simetra respecto del eje Y (vertical) y una
simetra respecto del eje X (horizontal). Si llegamos a alguna de estas dos formas can onicas
es porque la transformaci on de partida corresponde a una simetra. La matriz del caso (iii)
corresponde a un giro de 180
o
( radianes) y, como en el caso (i), s olo se dar a este caso si la
propia matriz de partida es I
2
. La matriz del caso (iv) corresponde a un giro de angulo (en
sentido positivo). Por lo tanto, el caso (iii), considerado como isometra, es un caso particular
del caso (iv) (con = ).
Como se ve, una isometra puede identicarse a trav es de los autovalores de la matriz orto-
gonal de partida. Pero los autovalores por s solos no determinan completamente la isometra,
pues, por ejemplo, en el caso de una simetra axial, no dicen cu al es el eje. No obstante, a
partir de ellos puede obtenerse el eje de simetra: se trata de la recta generada por el autovector
asociado al autovalor 1 (que es el autovector que queda jo por la transformaci on).
En la siguiente tabla conclusiva resumimos todo lo que acabamos de estudiar. Esta tabla
contiene la informaci on fundamental que se necesita para poder describir la isometra que
representa una matriz ortogonal dada A R
22
.
Autovalores Tipo de transformaci on Forma can onica Elementos
1, 1 Identidad
_
1 0
0 1
_

1, 1 Simetra de eje r
_
1 0
0 1
_
r ker(AI)
cos +i sen,
cos i sen
Giro
_
cos sen
sen cos
_

Angulo:
2.4 Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
47
Isometras b asicas de R
3
Razonando como en el caso de R
2
, las posibles formas can onicas ahora son:
(i) Autovalor 1 (triple) I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
(ii) Autovalor 1 (doble) y autovalor 1 (simple)
_
_
1 0 0
0 1 0
0 0 1
_
_
(ii) Autovalor 1 (simple) y autovalor 1 (doble)
_
_
1 0 0
0 1 0
0 0 1
_
_
(iv) Autovalor 1 (triple) I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
(v)
Autovalor 1 (simple) y
dos autovalores complejos conjugados

_
_
1 0 0
0 cos sen
0 sen cos
_
_
(vi)
Autovalor 1 (simple) y
dos autovalores complejos conjugados

_
_
1 0 0
0 cos sen
0 sen cos
_
_
La matriz del caso (i) corresponde a la transformaci on identidad y, como en el caso de
R
2
, s olo se dar a este caso si la propia matriz de partida es la identidad. La matriz del caso
(ii) corresponde a una simetra respecto del plano z = 0 y es una de las tres posibles matrices
can onicas con autovalor 1 doble y autovalor 1 simple. Las dos restantes se obtienen colocando
el autovalor 1, respectivamente, en la entrada (1, 1) y en la entrada (2, 2), y correponden,
respectivamente, a una simetra respecto al plano x = 0 y una simetra respecto al plano
y = 0. Cualquier simetra plana se reduce a una de estas tres formas can onicas. La matriz del
caso (iii) corresponde a una simetra respecto de la recta y = z = 0 (eje X), pero, como
isometra, es un caso particular del caso (v), tomando = . Dicha matriz es, como en el
caso anterior, una de las tres posibles matrices can onicas con autovalor 1 simple y autovalor
1 doble. Las dos restantes se obtienen situando el autovalor 1, respectivamente, en la entrada
(2, 2) y en la entrada (3, 3), y correponden, respectivamente, a una simetra respecto al eje
x = z = 0 (eje Y ) y una simetra respecto al eje x = y = 0 (eje Z). La matriz del caso
(iv) corresponde a una simetra respecto del origen de coordenadas. Es un caso particular
del tipo (vi), tomando = . La matriz del tipo (v) corresponde a un giro de eje y = z = 0
(eje X) y angulo o, lo que es igual, un giro de angulo en el plano x = 0. La matriz de
cualquier giro respecto a un eje en R
3
se reduce por semejanza ortogonal a una matriz de este
tipo. Finalmente, la matriz del caso (vi) corresponde a un giro-reexi on de eje y = z = 0 y
plano perpendicular x = 0.
Igual que en el caso del plano R
2
, para clasicar las isometras basta conocer los autovalo-
res de la matriz de partida. Esta informaci on, al igual que en el caso anterior, no es suciente
para deteminar por completo la isometra. Para eso necesitamos conocer, en algunos casos,
los autovectores asociados. Por ejemplo, en el caso (ii) el plano de simetra es el autoespacio
48 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
asociado al autovalor 1, que corresponde al subespacio jo por la isometra. En el caso (v) el
eje de giro corresponde igualmente al autoespacio asociado al autovalor 1 (que ahora es una
recta), porque es, igualmente, el subespacio que queda jo por la isometra. Finalmente, en el
caso (vi), en el que no hay vectores jos, el eje de giro es el autoespacio asociado al autovalor
1 y el plano de reexi on es el plano ortogonal a este eje.
El cuadro siguiente resume todo lo anterior. En el se encuentra la informaci on fundamental
para describir la isometra que corresponde a una matriz ortogonal A R
33
.
Autovalores Tipo de transformaci on Forma can onica Elementos
1, 1, 1 Identidad
_
1 0 0
0 1 0
0 0 1
_

1, 1, 1 Simetra plana
_
1 0 0
0 1 0
0 0 1
_
Plano : ker(AI)
1,
cos +i sen,
cos i sen
Giro respecto al eje r
_
1 0 0
0 cos sen
0 sen cos
_
Eje: r Gen(AI)

Angulo:
1,
cos +i sen,
cos i sen
Giro-reexi on respecto al eje r
_
1 0 0
0 cos sen
0 sen cos
_
Eje: r Gen(A+I)

Angulo:
Problema Resuelto 2.4.4 En R
3
con el producto escalar usual, se consideran las isometras:
S: simetra respecto del plano de ecuaci on x = y.
G: giro de eje Y y angulo /4 (orientaci on positiva).
R = S G.
Se pide:
1. Hallar la matriz de R respecto de la base can onica de R
3
. Estudiar si dicha matriz es
ortogonal.
2. Comprobar que R tiene un unico subespacio propio (autoespacio) de dimensi on 1 y
determinar una base, B
1
, de dicho subespacio, L.
3. Hallar una base ortonormal, B
2
, del subespacio ortogonal de L.
4. Determinar la matriz de Rrespecto de la base B = (B
1
; B
2
) de R
3
. Interpretar geom etri-
camente la aplicaci on R.
Soluci on.
1. Para hallar la matriz de R respecto a la base can onica necesitamos conocer la imagen
por R de la base can onica de R
3
. Hay varias formas de hacerlo. El procedimiento que
seguiremos aqu es calcular primero la matriz de G y la matriz de S respecto de la
base can onica y despu es multiplicarlas (recu erdese que la matriz de una composici on de
aplicaciones es el producto de las matrices de esas aplicaciones).
2.4 Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
49
Matriz de G en la base can onica: El vector e
2
= [0 1 0]
T
es el vector director
del eje de giro, luego es invariante por G. As pues, G(e
2
) = e
2
. Por otra parte,
los otros dos vectores can onicos e
1
= [1 0 0]
T
y e
3
= [0 0 1]
T
est an en el plano
perpendicular al eje de giro y, por tanto, su imagen se obtiene girando los dos
vectores can onicos de ese plano un angulo de /4 radianes en sentido positivo. As
G(e
1
) =
_
_
cos(/4)
0
sen(/4)
_
_
=
_
_

2/2
0

2/2
_
_
, G(e
3
) =
_
_
sen(/4)
0
cos(/4)
_
_
=
_
_

2/2
0

2/2
_
_
.
Por tanto
M(G, (
R
3, (
R
3) =
_

2
2
0

2
2
0 1 0

2
2
0

2
2
_

_
.
Matriz de S en la base can onica: Recordamos que la matriz de Householder asocia-
da al vector v = [1 1 0]
T
, ortogonal al plano x = y, corresponde, precisamente,
a la simetra respecto a dicho plano. Por lo tanto,
M(S, (
R
3, (
R
3) = H
v
= I
3

2
v
T
v
vv
T
=
_
_
1 0 0
0 1 0
0 0 1
_
_

_
_
1 1 0
1 1 0
0 0 0
_
_
=
_
_
0 1 0
1 0 0
0 0 1
_
_
.
Matriz de R en la base can onica
M(R, (
R
3, (
R
3) = M(S, (
R
3, (
R
3)M(G, (
R
3, (
R
3) =
_

_
0 1 0

2
2
0

2
2

2
2
0

2
2
_

_
.
El apartado xii) del Lema 2.1.4 nos asegura que M(R, (
R
3, (
R
3) es ortogonal. Vamos a
comprobarlo, no obstante. Un c alculo elemental permite comprobar que
M(R, (
R
3, (
R
3)
T
M(R, (
R
3, (
R
3) = I
3
, lo que signica que M(R, (
R
3, (
R
3) es, efec-
tivamente, ortogonal. En otras palabras, R es una isometra.
2. Para hallar los subespacios propios de Rprimero calculamos su polinomio caracterstico:
p
T
() =
_

2
2

2

2
2
+ 1
_
= ( + 1)
_

2
(1 +

2
2
) + 1
_
.
La unica raiz real es
1
= 1, pues el polinomio
2
(1+

2
2
)+1 no tiene races reales.
Por tanto, M(R, (
R
3, (
R
3) tiene un unico autovalor real, con multiplicidad algebraica 1.
El autoespacio asociado a
1
= 1 est a denido por
L = ker(M(R, (
R
3, (
R
3) +I) = ker
_

_
1 1 0

2
2
1

2
2

2
2
0 1 +

2
2
_

_
.
50 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
Resolviendo el sistema homog eneo correspondiente llegamos a que
L = Gen
_
_
_
_
1
1
1

2
_
_
_
_
.
Si normalizamos el vector anterior llegamos a
B
1
=
_
_
_
1
_
5 + 2

2
_
_
1
1
1

2
_
_
_
_
_
.
3. Primero calculamos una base del subespacio ortogonal L

. Por inspecci on, es f acil en-


contrar dos vectores linealmente independientes perpendiculares al vector generador de
L, concretamente
L

= Gen
_
_
_
_
_
1
1
0
_
_
,
_

2
2+

2
0
1
_

_
_
_
_
,
Ahora aplicamos el m etodo de Gram-Schmidt a la anterior base de L

:
q
1
=
_

_
1

2
1

2
0
_

_
u
2
=
_
_
1
1
2 + 2

2
_
_
, q
2
=
1
14+8

2
_
_
1
1
2 + 2

2
_
_
.
Por tanto,
B
2
=
_

_
_

_
1

2
1

2
0
_

_
,
1
_
14 + 8

2
_
_
1
1
2 + 2

2
_
_
_

_
.
4. La matriz de R respecto a la base B se puede calcular usando la f ormula
M(R, B, B) = M(B, (
R
3)
1
M(R, (
R
3, (
R
3)M(B, (
R
3)
=
_

_
1

5+2

2
1

2
1

14+8

5+2

2
1

2

1

14+8

2
1

5+2

2
0
2+2

14+8

2
_

_
1
_

_
0 1 0

2
2
0

2
2

2
2
0

2
2
_

_
_

_
1

5+2

2
1

2
1

14+8

5+2

2
1

2

1

14+8

2
1

5+2

2
0
2+2

14+8

2
_

_
=
_

_
1 0 0
0
2+

2
4

104

2
4
0

104

2
4
2+

2
4
_

_
. (2.6)
Naturalmente que ni la matriz inversa M(B, (
R
3)
1
ni el producto anterior se han calcu-
lado a mano (eso requerira unas grandes dosis de valor y desesperaci on a partes iguales).
2.4 Interpretaci on geom etrica de las matrices ortogonales en R
2
y R
3
51
De hecho, ni siquiera se han calculado porque no es necesario. Para obtener la matriz de
la transformaci on R en la base B s olo necesitamos conocer los autovalores conjugados
de la matriz de R en la base can onica. Estos autovalores son

2
=
2 +

2
4
+i
_
10 4

2
4
y
3
=
2
=
2 +

2
4
i
_
10 4

2
4
.
La teora que acabamos de estudiar nos asegura que R es un giro-reexi on con respecto
al eje L y de angulo = arc cos(
2+

2
4
), y que la forma can onica de R es la matriz (2.6),
que es, precisamente, la matriz de R en la base B.
52 2. ESTUDIO ESPECTRAL DE ENDOMORFISMOS
3
VALORES SINGULARES DE MATRICES
3.1 La descomposici on en valores singulares
El resultado fundamental de este tema es el siguiente.
Teorema 3.1.1 (Descomposici on en valores singulares) Sea A C
nm
. Entonces existen:
Una matriz unitaria U C
nn
(ortogonal si A es real),
una matriz unitaria V C
nn
(ortogonal si A es real), y
una matriz diagonal R
nm
cuyas entradas diagonales son n umeros reales no nega-
tivos: (i, i) =
i
, que supondremos ordenados en orden no creciente
1

2
. . .

s
0 (donde s = mnm, n)
de manera que
A = UV

(A = UV
T
si A es real). (3.1)
Los n umeros
1

2
. . .
s
0 est an unvocamente determinados por A (si se dan en
ese orden) y se llaman los valores singulares de A. La descomposici on (3.1) se conoce como la
descomposici on en valores singulares (SVD) de A.
Observaci on 3.1.2 i) La matriz diagonal de la SVD de una matriz A es unica, pero las
matrices U, V no son unicas.
ii) Si la matriz Aes cuadrada, entonces tenemos U

AV = , siendo una matriz diagonal


cuadrada. Esto no es una diagonalizaci on de A, porque, en general U ,= V .
A continuaci on vamos a estudiar un procedimiento para calcular la SVD de una matriz
dada, A. Para ello, necesitaremos el siguiente lema.
53
54 3. VALORES SINGULARES DE MATRICES
Lema 3.1.3 Dada una matriz A C
nm
cualquiera, los autovalores de A

A y A

A son
n umeros reales no negativos.
Demostraci on. Las matrices A

A y AA

son ambas hermticas, y ya sabemos (Teorema


2.3.12) que las matrices hermticas tienen todos sus autovalores reales. Si es un autovalor
de A

A con autovector asociado v, entonces


0 | Av |
2
2
= (Av)

Av = v

(A

Av) = v

(v) = (v

v) = | v |
2
2
.
Como | v |
2
2
0, necesariamente 0. As pues, los autovalores de A

A son n umeros reales


no negativos.
De forma an aloga se procede con los autovalores de la matriz AA

.
Antes de describir el procedimiento para el c alculo de la SVD, sintetizaremos las dos pro-
piedades fundamentales en las que descansa dicho procedimiento. La propiedad 1 est a rela-
cionada con el lema anterior. Seg un este lema, los autovalores de A

A son los cuadrados de


ciertos n umeros reales positivos. Estos n umeros son, precisamente, los valores singulares.
1 Los cuadrados de los valores singulares no nulos,
2
1
. . .
2
r
(siendo r el
mayor ndice k tal que
k
> 0), son los autovalores de A

A.
2 Los autovectores asociados a los autovalores de A

A son las columnas de V


(ordenadas de acuerdo al orden que tienen los valores singulares en ).
Se tienen las propiedades an alogas para la matriz AA

.
1 Los cuadrados de los valores singulares no nulos,
2
1
. . .
2
r
(siendo r el
mayor ndice k tal que
k
> 0), son los autovalores de AA

.
2 Los autovectores asociados a los autovalores de AA

son las columnas de U


(ordenadas de acuerdo al orden que tienen los valores singulares en ).
Las columnas de V y U se llaman, respectivamente, vectores singulares derechos y vectores
singulares izquierdos de A. Est an relacionadas por la igualdad
Av
i
=
i
u
i
, 1 i s,
o por la igualdad equivalente
v
i
=
1

i
A

u
i
, 1 i s.
Ahora ya estamos en disposici on de explicar el procedimiento para el c alculo de la SVD.
3.1 La descomposici on en valores singulares 55
C alculo de la SVD (va derecha)
1. Diagonalizar unitariamente el producto:
V

(A

A)V = diag(
1
, . . . ,
r
,
mr
..
0, . . . , 0)
(ordenamos los autovalores:
1
. . .
r
>
r+1
= . . . =
m
= 0)
2. Los valores singulares de A son
k
=

k
, k = 1, . . . , m.
=
_

1
.
.
.

r
0
(nr)(mr)
_

_
nm
3. Para cada uno de los valores singulares no nulos,
i
, calcular
u
i
=
1

i
Av
i
, i = 1, . . . , r
4. Para calcular las restantes columnas de U, u
r+1
, . . . , u
m
, como sabemos que
A

U = V
T
,
y las ultimas mr columnas de
T
son nulas, se tiene que
A

u
r+1
= . . . = A

u
m
= 0,
luego
u
r+1
, . . . , u
m
son una base ortonormal de ker(A

)
Por tanto, calculamos una base de ker(A

) y luego la ortonormalizamos.
La condici on del apartado 4 referente a los vectores u
r+1
, . . . , u
m
(es decir, que son una
base de ker(A

)) se ha includo con el n de facilitar la b usqueda de estos vectores, porque el


c alculo de una base de ker(A

) se ha estudiado ya en el curso previo de



Algebra Lineal. No
obstante, los vectores u
r+1
, . . . , u
m
pueden elegirse arbitrariamente con la condici on de que
el conjunto resultante u
1
, . . . , u
m
sea una base ortonormal de C
m
. Es decir: otra alternativa al
paso 4 consiste en completar el conjunto u
1
, . . . , u
r
, obtenido en el paso 3, a una base de C
m
y despu es ortogonalizarla mediante el m etodo de Gram-Scmidt (s olo ser a necesario aplicar el
m etodo de ortonormalizaci on a los ultimos vectores, porque los obtenidos en el paso 3 ya son
ortonormales).
El procedimiento an alogo al anterior, pero comenzando con la matriz AA

, es el siguiente.
56 3. VALORES SINGULARES DE MATRICES
C alculo de la SVD (va izquierda)
1. Diagonalizar unitariamente el producto:
U

(AA

)U = diag(
1
, . . . ,
r
,
mr
..
0, . . . , 0)
(ordenamos los autovalores:
1
. . .
r
>
r+1
= . . . =
m
= 0)
2. Los valores singulares de A son
k
=

k
, k = 1, . . . , m.
=
_

1
.
.
.

r
0
(nr)(mr)
_

_
nm
3. Para cada uno de los valores singulares no nulos,
i
, calcular
v
i
=
1

i
A

u
i
, i = 1, . . . , r
4. Para calcular las restantes columnas de V , v
r+1
, . . . , v
n
, como sabemos que
AV = U,
y las ultimas n r columnas de son nulas, se tiene que
Av
r+1
= . . . = Av
n
= 0,
luego
v
r+1
, . . . , v
n
son una base ortonormal de ker(A)
Por tanto, calculamos una base de ker(A) y luego la ortonormalizamos.
Naturalmente, cualquiera de los dos procedimientos anteriores (va derecha y va izquierda)
pueden aplicarse indistintamente a una matriz dada A. No obstante, en algunas ocasiones es
m as ventajoso, a efectos de c alculo, un procedimiento que otro. El criterio recomendable para
elegir la va derecha o la va izquierda es el tama no de la matriz sobre la que se aplica el primer
paso. Es natural, a efectos de c alculo, elegir aquel procedimiento para el cual dicho tama no sea
menor. Si elegimos la va derecha, la matriz a la que aplicamos el paso 1 es A

A, cuyo tama no
es mm, mientras que si elegimos la va izquierda trabajaremos sobre la matriz AA

, que es
de tama no n n. Por tanto, tenemos el siguiente criterio:
Si n m: elegir la va derecha.
Si n m: elegir la va izquierda.
3.1 La descomposici on en valores singulares 57
Problema Resuelto 3.1.4 Calcular la descomposici on en valores singulares de la matriz
A =
_
_
1 1
1 1
2 2
_
_
.
Soluci on. Siguiendo el criterio que acabamos de enunciar, como n = 3 m = 2, elegiremos
la va derecha.
Aplicamos el procedimiento que hemos descrito en la p agina anterior:
1. Para diagonalizar unitariamente la matriz
A

A =
_
6 6
6 6
_
.
primero calculamos sus autovalores. El polinomio caracterstico es
p() = ( 12),
luego los autovalores son

1
= 12,
2
= 0.
El autoespacio asociado a
1
= 12 es
ker(A

A12I
2
) = Gen
__
1
1
__
,
mientras que el autoespacio asociado a
2
= 0 es
ker(A

A) = Gen
__
1
1
__
.
Ahora normalizamos la base formada por los dos autovectores para obtener la matriz
V =
_
1

2
1

2
1

2
_
2. En virtud del paso anterior, la matriz es
=
_
_

12 0
0 0
0 0
_
_
.
3. La primera columna de U (vector singular izquierdo) es el vector
u
1
=
1

1
Av
1
=
1

12
_
_
1 1
1 1
2 2
_
_
_
1

2
_
=
_

_
1

6
2

6
_

_
.
58 3. VALORES SINGULARES DE MATRICES
4. La segunda y tercera columnas de U son una base ortonormal de ker(A

). Para hallarla
resolvemos el sistema A

x = 0, cuya matriz de coecientes escalonamos f acilmente


_
1 1 2
1 1 2
_

_
1 1 2
0 0 0
_
lo que signica que
ker(A

) = Gen
_
_
_
_
2
0
1
_
_
,
_
_
1
5
2
_
_
_
_
.
Ahora ortonormalizamos la base anterior de ker(A

). Como los vectores ya son ortogo-


nales, basta con normalizarlos, y el resultado son los dos vectores ortonormales
u
2
=
_

_
2

5
0

5
_

_
, u
3
=
_

_
1

30
5

30
2

30
_

_
.
Finalmente
U =
_

_
1

6
2

5
1

30

6
0
5

30
2

6

1

5
2

30
_

_
Puede comprobarse que, efectivamente, se tiene
A = UV

.
El siguiente resultado caracteriza las columnas de U y V en t erminos de ciertos espacios
invariantes de la matriz de partida A.
Teorema 3.1.5 Sea A C
nm
y A = UV

la SVD de A. Si tiene exactamente r entradas


diagonales (valores singulares de A) no nulas, entonces
(i) r = rango(A).
(ii) Las primeras r columnas de U son una base ortonormal de col(A).
(iii) Las primeras r columnas de V son una base ortonormal de col(A

).
(iv) Las ultimas n r columnas de U son una base ortonormal de ker(A

).
(v) Las ultimas n r columnas de V son una base ortonormal de ker(A).
Los valores singulares, a diferencia de los autovalores, no son invariantes por semejanza.
En cambio, s son invariantes por multiplicaci on, tanto a derecha como a izquierda, por matrices
unitarias.
Lema 3.1.6 Si P C
nn
y Q C
mm
son matrices unitarias y A C
nm
entonces los
valores singulares de A coinciden con los valores singulares de UAV .
3.1 La descomposici on en valores singulares 59
Demostraci on. Si A = UV

es la SVD de A, entonces PAQ = (PU)(Q

V )

es la SVD
de PAQ, porque PU y Q

V son unitarias. En ambos casos, la matriz diagonal es la misma.


Este lema tiene una aplicaci on inmediata al c alculo de autovalores de matrices normales.
Dicha aplicaci on est a enunciada en el siguiente corolario.
Corolario 3.1.7 Si Aes una matriz normal entonces los valores singulares de Ason los m odu-
los de los autovalores de A.
El Corolario 3.1.7 nos dice que los valores singulares de una matriz normal A se pueden
obtener calculando el m odulo de los autovalores de A. Este procedimiento es, en general, me-
nos costoso, si se hacen los c alculos a mano, que el descrito anteriormente para obtener la SVD
de una matriz arbitaria.
La descomposici on en valores singulares es una herramienta fundamental en el

Algebra
Lineal Num erica, que tiene, adem as, relevantes aplicaciones en otras areas. En este curso vamos
a estudiar algunos de los problemas o conceptos que pueden reinterpretarse mediante el uso de
la SVD. Las aplicaciones que aparecer an en este curso (y que son s olo una parte del conjunto
de aplicaciones de la SVD) est an resumidas en la siguiente tabla.
Aplicaciones de la SVD
_

_
Normas matriciales (Secci on 6.2)
C alculo de la Pseudoinversa (Secci on 3.2)
Problemas de mnimos cuadrados (Secci on 3.2)
Perturbaci on de matrices y sistemas lineales (Secci on 6.4)

Aproximaciones de rango bajo.


Compresi on de im agenes
(Secci on 3.3)
Tabla 3.1: Aplicaciones de la SVD
La descomposici on en valores singulares reducida
La SVD de A (3.1) contiene informaci on innecesaria cuando n ,= m. Supongamos que
n > m (el caso n < m es an alogo). En este caso, las ultimas n m las de la matriz son
nulas. Si eliminamos en (3.1) las ultimas n m columnas de U y las ultimas n m las de
la matriz resultante al hacer el producto sigue siendo la misma (porque el producto de entradas
nulas no aporta nada):
A =
U
..
_
u
1
. . . u
m
u
m+1
. . . u
n

..
_

1
.
.
.

m
0
.
.
.
0
_

_
V

..
_

_
v

1
.
.
.
v

m
_

_
=

U
..
_
u
1
. . . u
m

..
_

1
.
.
.

m
_

_
V

..
_

_
v

1
.
.
.
v

m
_

_
. (3.2)
60 3. VALORES SINGULARES DE MATRICES
La expresi on (3.2) se conoce como la descomposici on en valores singulares reducida de A,
y contiene toda la informaci on relevante de la SVD (3.1) (que, para distinguirla de la anterior,
llamaremos SVD completa).
La relaci on entre las SVD completa y reducida se representa en el siguiente dibujo (para
n > m).
=
A U

En el caso n < m la SVD reducida se obtiene de la SVD completa eliminando la ultimas


mn columnas de y las ultimas mn las de V

.
Ejemplo 3.1.8 La SVD reducida de la matriz A del Problema Resuelto 3.1.4 es
A =

U
..
_

_
1

6
2

6
0
2

6

1

5
_

..
_
12 0
0 0
_
V

..
_
1

2

1

2
1

2
1

2
_
.
3.2 Aplicaci on al problema de mnimos cuadrados. La pseudoin-
versa.
Volvamos al problema de resolver por mnimos cuadrados el sistema lineal (1.5), es decir:
Minimizar | Ax b |
2
con x C
m
(3.3)
donde A C
nm
, b C
n
y n m. En lo sucesivo, supondremos que rango(A) = r.
Utilizando la SVD de A (3.1) podemos escribir
| Ax b |
2
=| (UV

)x b |
2
=| U(V

x)
. .
y
b |
2
=| (U)y b |
2
=| U

(Uy b) |
2
=| y U

b |
2
donde y = V

x y, para obtener la pen ultima desigualdad, hemos usado la propiedad v) del


Lema 2.1.4 aplicada a la matriz unitaria U

.
Por tanto, el problema (3.3) es equivalente, con el cambio de variable y = V

x, al problema
Minimizar | y U

b |
2
con y C
m
. (3.4)
Por simplicidad, denotaremos

b =
_

b
1
. . .

b
n
_
T
= U

b. Como
| y

b |
2
= [
1
y
1

b
1
[
2
+ +[
r
y
r

b
r
[
2
+[

b
r+1
[
2
+ +[

b
n
[
2
3.2 Aplicaci on al problema de mnimos cuadrados. La pseudoinversa. 61
es una suma de t erminos no negativos, la norma de y

b se minimiza para el mayor n umero


posible de t erminos nulos. Es decir, para
y
1
=

b
1

1
, . . . , y
r
=

b
r

r
.
Deshaciendo el cambio de variable, x = V y, obtenemos la soluci on al problema (3.3)
x
1
= V y
1
, . . . , x
r
= V y
r
.
en funci on de la soluci on al problema (3.4).
Observemos que sobre las entradas x
r+1
, . . . , x
m
no hay ninguna restricci on, lo que sig-
nica que si m > r entonces el problema (3.3) tiene innitas soluciones. El caso m > r
corresponde al caso en que las columnas de la matriz A de coecientes del sistema (1.5) son
linealmente dependientes. Como recordaremos (v ease la Secci on 1.5) si las columnas de A
son linealmente independientes el problema de mnimos cuadrados (3.3) tiene soluci on unica.
Ahora sabemos que el recproco tambi en es cierto.
En caso de que las columnas de la matriz A no sean linealmente independientes y, por
tanto, el problema (3.3) tenga innitas soluciones, nos interesa encontrar la soluci on de norma
mnima. Como y = V

x y la matriz V

es unitaria, la norma de x coincide con la norma de y,


luego x es la soluci on de norma mnima de (3.3) si y s olo si y es la soluci on de norma mnima
de (3.4). Claramente dicha soluci on se obtiene tomando y
r+1
= . . . = y
m
= 0.
En el siguiente cuadro se resume el procedimiento descrito en esta secci on para calcular la
soluci on por mnimos cuadrados del sistema (1.5) a trav es de la SVD de A.
Minimizar | Ax b |
2
usando la SV D de A
A C
nm
con n m
r = rango(A)
1. Calcular la SVD de A : A = UV

2. Calcular :

b = U

b
3. Calcular : y
1
=

b
1

1
, . . . , y
r
=

b
r

r
, y
r+1
= 0, . . . , y
m
= 0
y
0
=
_
y
1
. . . y
m

T
4. Calcular : x
0
= V y
0
x
0
es la soluci on de menor norma entre todas las soluciones que minimizan
| Ax b |
2
Todas las soluciones que minimizan | Ax b |
2
son de la forma
x = x
0
+
r+1
v
r+1
+ +
m
v
m
con
r+1
, . . . ,
m
C.
62 3. VALORES SINGULARES DE MATRICES
La pseudoinversa
En este breve apartado continuamos con la notaci on del apartado anterior. En particular,
A C
nm
y (3.1) es la SVD de A. Si denimos la matriz

=
_

_
1

1
.
.
.
1

r
0
(mr)(nr)
_

_
mn
entonces la soluci on de norma mnima del problema (3.4) se puede expresar como
y
0
=

b ,
y la soluci on de norma mnima de (3.3) es
x
0
= V

b .
Esto nos conduce a la siguiente denici on.
Denici on 3.2.1 Si A = UV

es la SVD de de A, entonces la matriz


A

= V

es la pseudoinversa de A.
La pseudoinversa se conoce tambi en con el nombre de inversa generalizada. Su nombre se
debe, entre otras razones, a que, si A es invertible, entonces la pseudoinversa A coincide con la
inversa de A. Adem as, la pseudoinversa de Asatisface las siguientes igualdades (para cualquier
matriz A, no necesariamente invertible) que nos recuerdan a la inversa de A (en particular las
dos primeras)
AA

A = A.
A

AA

= A

.
AA

y A

A son hermticas.
Las tres propiedades anteriores se conocen como las condiciones de Moore-Penrose y son
una denici on alternativa de la pseudoinversa de A. Es decir: la unica matriz A

que satisface
esas tres condiciones es la pseudoinversa de A.
Como hemos visto, la pseudoinversa de A nos proporciona la soluci on por mnimos cua-
drados del sistema lineal Ax = b.
Teorema 3.2.2 Sean A C
nm
una matriz de rango r, A = UV

la SVD de A y A

la
pseudoinversa de A. Entonces
a) x
0
= A

b minimiza | Ax b |
2
para cualquier x C
m
.
b) Entre todos los vectores que minimizan | Ax b |
2
, x
0
= A

b es el que tiene menor


norma-2.
3.2 Aplicaci on al problema de mnimos cuadrados. La pseudoinversa. 63
c) Cualquier otro vector x que minimiza | Ax b |
2
es de la forma x = x
0
+ v, donde v
es una combinaci on lineal de las ultimas mr columnas de V .
Problema Resuelto 3.2.3 Resolver, por mnimos cuadrados, el sistema Ax =
_
1 1 1

T
,
donde A es la matriz del Problema Resuelto 3.1.4.
Soluci on. Aplicamos el procedimiento descrito en la p agina anterior.
La SVD de A ya ha sido calculada en el Problema Resuelto 3.1.4. Continuamos por el
segundo paso del procedimiento descrito anteriormente:

b = U

b =
_

_
1

6
2

5
1

30

6
0
5

30
2

6

1

5
2

30
_

_
T
_
_
1
1
1
_
_
=
_

_
2

6
1

5
8

30
_

_
,
de modo que
y
0
=
_

2
6
0
_
,
y
x
0
= V y
0
=
_
1

2
1

2
1

2
__

2
6
0
_
=
_
1
6

1
6
_
.
x
0
es la soluci on de norma mnima. Las restantes soluciones se obtienen a nadiendo a esta un
m ultiplo de la segunda columna de V :
x = x
0
+
_
1

2
1

2
_
.
Problema Resuelto 3.2.4 Resolver el Problema Resuelto 3.2.3 usando la pseudoinversa de A.
Soluci on. Como ya hemos calculado la SVD de A, su pseudoinversa se obtiene de forma
inmediata haciendo el c alculo
A

= V

=
_
1

2
1

2
1

2
__
1

12
0 0
0 0 0
_
_

_
1

6

1

6
2

6
2

5
0
1

5
1

30
5

30
2

30
_

_
=
1
12
_
1 1 2
1 1 2
_
=
1
12
A
T
.
Por tanto
x
0
=
1
12
A
T
b =
_
1
6

1
6
_
.
Como en el Problema Resuelto 3.2.3, todas las soluciones se obtienen a nadiendo a x
0
un
m ultiplo de la segunda columna de V .
64 3. VALORES SINGULARES DE MATRICES
C alculo de la SVD con Matlab
El comando Matlab para calcular la SVD (completa) de una matriz Aes svd(A), mientras
que el comando que devuelve la SVD reducida de A es svd(A,0). Para obtener las tres
matrices de la descomposici on, escribiremos [u s v]=svd(A) o [u s v]=svd(A,0),
y el programa nos devolver a tres matrices: la primera (u) es la matriz U, la segunda (s) es la
matriz diagonal y la tercera (v) es la matriz V (en ese orden). Para m as informaci on teclear
el comando help svd.
Ejemplo 3.2.5 Para obtener con Matlab la SVD de la matriz A del Problema Resuelto 3.1.4
primero introducimos la matriz A y despu es el comando svd(A).
)) A=[1 -1;-1 1;2 -2];
)) [u s v]=svd(A)
u =
0.4082 0.4082 -0.8165
-0.4082 0.8816 0.2367
0.8165 0.2367 0.5266
s =
3.4641 0
0 0
0 0
v =
0.7071 -0.7071
-0.7071 -0.7071
Obs ervese que las columnas segunda y tercera de la matriz U que nos devuelve el pro-
grama Matlab son distintas de las que hemos obtenido en el Problema Resuelto 3.1.4, lo que
demuestra que la matriz U no es unica.
3.3 Aproximaciones de rango bajo. Compresi on de im agenes
La SVD de A (3.1) puede escribirse como suma de matrices de rango 1
A = UV

=
r

i=1

i
u
i
v

i
. (3.5)
Cada uno de los sumandos que aparecen en la expresi on derecha de (3.5), u
i
v

i
, es una matriz
de rango 1 que se obtiene multiplicando un vector columna por un vector la (todas las matrices
de rango 1 se obtienen de esta manera). En la expresi on derecha de (3.5) se prescinde de los
valores singulares nulos de A y tambi en de las correspondientes columnas de U y las de V

,
con lo que se reduce al mnimo la informaci on necesaria para reconstruir la matriz A.
Por otro lado, la descomposici on (3.5) de Acomo suma de matrices de rango 1 nos permite
resolver el siguiente problema:
Problema 3.3: Minimizar | AB |
2
entre todas las matrices B de rango k, con k < r.
3.3 Aproximaciones de rango bajo. Compresi on de im agenes 65
Para entender el planteamento exacto del problema es necesario conocer el concepto de
norma-2 de una matriz, que se introducir a en la Secci on 6.2. Por el momento, es suciente con
saber que buscamos una matriz B de rango inferior al de A que es la m as parecida a la matriz
A en un cierto sentido. De hecho, podemos enunciar el problema como el de
encontrar la matriz B de rango k, con k < r, que mejor se aproxima a la matriz A en
sentido de mnimos cuadrados.
Este problema tiene diversas aplicaciones, entre ellas la reconstrucci on de im agenes, que
trataremos a continuaci on. Pero antes, enunciaremos la soluci on al problema.
Teorema 3.3.1 Sea A C
nm
de rango r, A = UV

la SVD de A y
1

2
. . .

r
> 0 los valores singulares no nulos de A. Sea B otra matriz del mismo tama no y de rango
k < r. Entonces
| AB |
2

k+1
.
Por tanto, la matriz B de rango k < r que m as se aproxima a la matriz A en sentido de
mnimos cuadrados (es decir, la soluci on al Problema 3.3) es
B = U diag(
1
, . . . ,
r
, 0, . . . , 0)V

.
A continuaci on vamos a describir qu e relaci on tiene lo anterior con la compresi on y re-
construcci on de im agenes. La idea b asica consiste en identicar una imagen con una matriz.
Por simplicidad, s olo vamos a considerar im agenes dibujadas en la escala del gris, que supon-
dremos pixeladas, o cuadriculadas en una cuadrcula n m. Estas im agenes se identican
de manera natural con matrices cuyas entradas son n umeros entre 0 y 1, donde 0 es el tono m as
oscuro (negro) y 1 es el tono m as claro (blanco). As pues, la informaci on de la imagen se cifra
en una matriz A de tama no n m. En muchas ocasiones, no es posible, o no es aconsejable
almacenar o transmitir toda las entradas de la matriz A, sino comprimirla en una cantidad in-
ferior de entradas que nos permita reconstruir de un modo able la imagen original. Esto puede
hacerse mediante aproximaciones de A de rango menor, tal y como se describe en el Teorema
3.3.1 y es lo que vamos a explicar a continuaci on.
Sea A = UV
T
la SVD de A (las matrices U, V son reales porque A tiene entradas
reales). El Teorema 3.3.1 nos dice que B
k
=

k
i=1

i
u
i
v
T
i
es la mejor aproximaci on de rango
k a la matriz A. Para almacenar la matriz B
k
necesitamos un total de m k+n k = (n+m) k
posiciones de memoria, que corresponden a las n entradas de cada uno de los k vectores u
i
y
a las m entradas de cada uno de los k vectores
i
v
i
. Si k es un valor relativamente peque no y
m, n son valores grandes, este n umero es sensiblemente inferior al n umero total de posiciones
de memoria que ocupa la matriz completa, que es n m.
En el siguiente ejemplo comparamos los resultados de almacenar la matriz (imagen) com-
pleta con varias aproximaciones de rango bajo.
Ejemplo 3.3.2 Consideremos la imagen de la gura 3.3.2 (a). Se trata de una imagen de 320
200 pxeles en blanco (1) y negro (0). La matriz asociada, A, es, por tanto, una matriz 32020
cuyas entradas son ceros y unos. El rango de dicha matriz es 200. Las im agenes (b), (c) y (d)
corresponden a las aproximaciones de A por matrices de rangos respectivos 40, 15 y 5, seg un
el enunciado del Teorema 3.3.1.
66 3. VALORES SINGULARES DE MATRICES
(a) (b)
(c) (d)
Figura 3.3.2:(a) Imagen original. (b) Aproximaci on de rango k = 40. (c) Aproximaci on de rango k = 15
(d) Aproximaci on de rango k = 5.
En la siguiente tabla comparamos el ahorro en memoria que supone cada una de las an-
teriores aproximaciones. Este ahorro se indica en la tercera columna, que muestra el cociente
(ratio) entre el n umero de posiciones de memoria de la aproximaci on y el n umero de posicio-
nes de la gura original, seg un la f ormula (m+n) k/(m n) = 520k/6400 k/123. En la
segunda columna aparece el error relativo que se comete al aproximar la matriz de la gura
original mediante cada una de las matrices de las restantes guras. Dicho error es el cociente

k+1
/
1
, y se entender a mejor cuando lleguemos a la Secci on 6.2.
k Error relativo=
k+1
/
1
Ratio de compresi on= 520k/64000
5 0.131 0.041
15 0.051 0.122
40 0.022 0.325
Como es natural, el error relativo y el ratio de compresi on est an en relaci on inversa. N otese
que para k = 15 se obtiene una imagen bastante able, con un error de un 5 %, mientras que
el ahorro en memoria es de aproximadamente el 88 %. La imagen original est a disponible en
Matlab en el archivo de demostraci on clown.mat.
Por otra parte, las cuatro guras de la portada corresponden a una gura original (la palabra
LUZ) de 1226 pxeles y tres aproximaciones de rango bajo. La gura original est a asociada
a una matriz de rango 10, mientras que las aproximaciones (de izquierda a derecha y de arriba
abajo) corresponden a matrices de rangos 7, 5 y 3.
4
FORMAS CUADR

ATICAS
4.1 Formas bilineales
En este tema y en el siguiente abandonamos el cuerpo de los n umeros complejos y nos
centramos en el de los n umeros reales. Hemos visto en la Secci on 1.1 que un producto escalar
(real) es una forma bilineal sim etrica denida positiva. En la presente secci on estudiaremos el
concepto de forma bilineal, que ser a fundamental para introducir las formas cuadr aticas en la
Secci on 4.2 y, como consecuencia, las c onicas y cu adricas en el Tema 5.
Denici on 4.1.1 Sea V un espacio sobre R. Una aplicaci on f : V V R es una forma
bilineal sobre V si f es lineal en cada componente, es decir, si satisface las dos condiciones
siguientes
i) f(u +v, w) = f(u, w) +f(v, w)
ii) f(u, v +w) = f(u, v) +f(u, w)
para cualesquiera n umeros reales , R y vectores u, v, w V.
El ejemplo m as inmediato de forma bilineal es un producto escalar real.

Este es un caso
particular de forma bilineal y tambi en un caso particular de las formas bilineales del segundo
apartado en el siguiente ejemplo.
Ejemplo 4.1.2 Sea V un espacio vectorial real de dimensi on n. Son formas bilineales
(i) Cualquier producto escalar en V.
67
68 4. FORMAS CUADR

ATICAS
(ii) Dada una matriz A R
nn
y una base B de V, la aplicaci on f : VV R denida
por
f(x, y) = [x]
T
B
A[y]
B
,
donde x, y son vectores cualesquiera de V.
A partir de ahora emplearemos las letras x, y para los vectores de V, en lugar de las letras
que venimos empleando u, v, w. Este cambio de notaci on es m as acorde con la notaci on que
se encuentra habitualmente en la literatura de formas cuadr aticas, que se interpretan como
aplicaciones, y de c onicas y cu adricas (que son ecuaciones).
Ejercicio 4.1.3 Demostrar que la aplicaci on (ii) del Ejercicio 4.1.2 es, efectivamente, una
forma bilineal.
Expresi on matricial en una base
A continuaci on vamos a ver que el apartado (ii) del Ejemplo 4.1.2 es algo m as que un
ejemplo. Concretamente, veremos que cualquier forma bilineal sobre V puede expresarse con
respecto a una base B de la forma descrita en dicho ejemplo, para alguna matriz A R
nn
.
Sean, por tanto, B = v
1
, . . . , v
n
una base de V, f : V V R una forma bilineal
sobre V y x, y V dos vectores cualesquiera de V, cuyas coordenadas en la base B son,
respectivamente, [x]
B
=
_
x
1
. . . x
n

T
e [y]
B
=
_
y
1
. . . y
n

T
. Esto signica que
u = x
1
v
1
+. . . +x
n
v
v
, y = y
1
v
1
+. . . +y
n
v
v
Aplicando la bilinealidad,
f(x, y) = f(
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
) =
n

i,j=1
x
i
y
j
f(v
i
, v
j
)
que, matricialmente, se expresa
f(x, y) =
_
x
1
. . . x
n

T
_

_
f(v
1
, v
1
) . . . f(v
1
, v
n
)
.
.
.
.
.
.
f(v
n
, v
1
) . . . f(v
n
, v
n
)
_

_
_

_
y
1
.
.
.
y
n
_

_
= [x]
T
B
M(f, B)[y]
B
,
donde
M(f, B) =
_

_
f(v
1
, v
1
) . . . f(v
1
, v
n
)
.
.
.
.
.
.
f(v
n
, v
1
) . . . f(v
n
, v
n
)
_

_
es la expresi on matricial de f en la base B.
Es importante notar que no existe ninguna restricci on en la matriz anterior. Por tanto, tene-
mos el siguiente resultado:
Sea V un espacio vectorial real de dimensi on n y B una base prejada de V. Toda
matriz A R
nn
es la expresi on matricial de una forma bilineal sobre V expresada
en la base B. Dicha forma bilineal est a denida por
f(x, y) = [x]
T
B
A[y]
B
.
4.1 Formas bilineales 69
Si desarrollamos el producto indicado en la expresi on matricial de una forma bilineal en
una base obtendremos un polinomio homog eneo (es decir, con todos los monomios del mismo
grado) de segundo grado en las variables x
1
, . . . , x
n
, y
1
, . . . , y
n
, de tal modo que cada variable
x
i
aparece multiplicada por una variable y
j
. Esta expresi on polin omica es equivalente a la
expresi on matricial, de tal manera que toda forma bilineal tiene una expresi on polin omica
asociada (en una base prejada).
En lo sucesivo, tanto para la expresi on matricial como para la expresi on polin omica, si no
se indica ninguna base explcitamente, se supondr a, por defecto, que la base es la can onica.
Ejemplo 4.1.4 La forma bilineal sobre R
3
denida, en la base can onica, por
f(x, y) =
_
x
1
x
2
x
3

_
_
1 2 1
0 1 3
2 0 4
_
_
_
_
y
1
y
2
y
3
_
_
tiene la siguiente expresi on polin omica:
f(x, y) = x
1
y
1
+ 2x
1
y
2
x
1
y
3
+x
2
y
2
+ 3x
2
y
3
2x
3
y
1
+ 4x
3
y
3
.
Cambio de base
Sean B = v
1
, . . . , v
n
y B

= w
1
, . . . , w
n
dos bases del espacio vectorial real V y
denotemos por M(B, B

) a la matriz de cambio de base de B a B

. Eso signica que, dados dos


vectores x, y V expresados en la base B como
[x]
B
=
_

_
x
1
.
.
.
x
n
_

_
, [y]
B
=
_

_
y
1
.
.
.
y
n
_

_
y en la base B

como
[x]
B
=
_

_
x

1
.
.
.
x

n
_

_
, [y]
B
=
_

_
y

1
.
.
.
y

n
_

_
se tiene que
_

_
x

1
.
.
.
x

n
_

_
= M(B, B

)
_

_
x
1
.
.
.
x
n
_

_
,
_

_
y

1
.
.
.
y

n
_

_
= M(B, B

)
_

_
y
1
.
.
.
y
n
_

_
.
Comparando las dos expresiones para la forma bilineal f en las bases B y B

f(x, y) = [x]
T
B
M(f, B)[y]
B
,
f(x, y) = [x]
T
B

M(f, B

)[y]
B
= [x]
T
B
M(B, B

)
T
M(f, B

)M(B, B

)[y]
B
conclumos que
M(f, B) = M(B, B

)
T
M(f, B

)M(B, B

) . (4.1)
Recordemos que la matriz de cambio de base M(B, B

) es invertible. Esto nos conduce a la


siguiente denici on.
70 4. FORMAS CUADR

ATICAS
Denici on 4.1.5 Dos matrices A, B R
nn
son congruentes si existe una matriz invertible
P R
nn
tal que
B = P
T
AP .
Al igual que en el caso de la relaci on de semejanza, la relaci on de congruencia es sim etrica
(es decir, A, B son congruentes si y s olo si B, A son congruentes).
As pues, una forma bilineal puede ser representada por innitas matrices (cada una de
ellas representa la forma bilineal en una base), pero todas ellas son congruentes. El recproco
es tambi en cierto: dos matrices congruentes representan la misma forma bilineal en dos bases
distintas. As pues:
Dos matrices son congruentes si y s olo si representan la misma forma bilineal en dos
bases distintas.
Como ya sabemos, el rango de una matriz no vara al multiplicarla por una matriz invertible.
En consecuencia, dos matrices congruentes tienen el mismo rango. Por tanto, tiene sentido la
siguiente denici on.
Denici on 4.1.6 El rango de una forma bilineal f sobre V es el rango de la matriz M(f, B),
para cualquier base B de V.
Problema Resuelto 4.1.7 Dada la forma bilineal sobre R
3
f(x, y) = x
1
y
2
2x
1
y
3
+ 7x
2
y
1
9x
2
y
3
,
denida en la base can onica, hallar su rango y la expresi on de f en la base
B =
_
_
_
_
_
1
0
1
_
_
,
_
_
1
1
0
_
_
,
_
_
0
2
1
_
_
_
_
_
.
Soluci on. La matriz de f en la base can onica es
M(f, (
R
3) =
_
_
1 2 0
7 0 9
0 0 0
_
_
,
que tiene rango 2, por lo que el rango de f es 2.
Como
M(B, (
R
3) =
_
_
1 1 0
0 1 2
1 0 1
_
_
tenemos
M(f, B) = M(B, (
R
3)
T
M(f, (
R
3)M(B, (
R
3)
=
_
_
1 1 0
0 1 2
1 0 1
_
_
T
_
_
1 2 0
7 0 9
0 0 0
_
_
_
_
1 1 0
0 1 2
1 0 1
_
_
=
_
_
1 3 4
3 4 5
4 14 18
_
_
.
4.2 Formas cuadr aticas. Reducci on a la forma can onica 71
Por tanto, la expresi on de f en la base B es
f(x, y) = x
1
y
1
+ 3x
1
y
2
4x
1
y
3
+ 3x
2
y
1
4x
2
y
2
+ 5x
2
y
3
4x
3
y
1
+ 14x
3
y
2
18x
3
y
3
.
Dado que cualquier matriz cuadrada es la matriz de una forma bilineal, cabe preguntarse
si se obtiene alg un tipo particular de forma bilineal cuando la matriz asociada tiene alguna de
las estructuras que hemos visto a lo largo del curso (sim etrica, unitaria, ortogonal). La que nos
interesa, en particular, es la simetra.
Denici on 4.1.8 Una forma bilineal f sobre V es sim etrica si
f(x, y) = f(y, x) , x, y V.
La matriz asociada a una forma bilineal sim etrica es, precisamente, una matriz sim etrica (y
viceversa).
f es una forma bilineal sim etrica sobre Vsi y s olo si M(f, B) es una matriz sim etrica
para cualquier base B de V.
4.2 Formas cuadr aticas. Reducci on a la forma can onica
En esta secci on introduciremos y estudiaremos las formas cuadr aticas asociadas a las for-
mas bilineales sim etricas, que ser an fundamentales en el Tema 5.
Denici on 4.2.1 Dado un espacio vectorial real V y una forma bilineal sim etrica f : V
V R sobre V, la forma cuadr atica asociada a f es la aplicaci on q : V R denida por
q(x) = f(x, x).
Si la forma bilineal f est a asociada a la matriz A (en una determinada base) entonces la
expresi on de la forma cuadr atica asociada es
q(x) = x
T
Ax.
Por lo tanto, una forma cuadr atica puede expresarse mediante un polinomio homog eneo de
segundo grado en n variables x
1
, . . . , x
n
, donde n es la dimensi on del espacio vectorial V.
Ejemplo 4.2.2 Sea f : R
2
R
2
R la forma bilineal sim etrica denida, en la base can oni-
ca, por
f(x, y) =
_
x
1
x
2

_
1 2
2 3
_ _
y
1
y
2
_
.
La forma cuadr atica asociada a f, en la base can onica de R
2
, est a dada por
q(x) =
_
x
1
x
2

_
1 2
2 3
_ _
x
1
x
2
_
= x
2
1
+ 4x
1
x
2
3x
2
2
.
72 4. FORMAS CUADR

ATICAS
Recprocamente, todo polinomio homog eneo de segundo grado en n variables es la ex-
presi on polin omica de una forma cuadr atica sobre el espacio R
n
, cuya matriz asociada puede
obtenerse f acilmente, como se muestra en el siguiente ejemplo.
Ejemplo 4.2.3 El polinomio homog eneo de segundo grado en tres variables
q(x
1
, x
2
, x
3
) = 3x
2
1
+ 4x
1
x
2
6x
1
x
3
+ 5x
2
2
x
2
3
est a asociado a la forma cuadr atica sobre R
3
cuya matriz, en la base can onica, es
A =
_
_
3 2 3
2 5 0
3 0 1
_
_
(n otese que para obtener las entradas no diagonales se dividen entre 2 los coecientes corres-
pondientes).
Forma can onica de una forma cuadr atica
Del mismo modo que una forma bilineal puede tener distintas expresiones matriciales,
tambi en una forma cuadr atica, que se obtiene de una forma bilineal haciendo coincidir el primer
vector y el segundo, se puede expresar en diferentes bases mediante diferentes matrices. E,
igualmente, todas las matrices que representan a una misma forma cuadr aticas son semejantes.
Nuestro inter es ahora se centra en encontrar la expresi on (matriz) m as elemental de una forma
cuadr atica. Puesto que las matrices m as elementales que existen son las matrices diagonales,
diremos que una forma cuadr atica q est a expresada en forma can onica si su matriz asociada es
diagonal, es decir, si la expresi on polin omica es del tipo
q(x) = x
T
Dx =
1
x
2
1
+. . . +
n
x
2
n
,
donde D = diag(
1
, . . . ,
n
).
La pregunta que surge inmediatamente es: toda forma cuadr atica se puede expresar en
forma can onica? La respuesta es SI.
Teorema 4.2.4 Toda forma cuadr atica tiene, al menos, una forma can onica.
Demostraci on. Sea q una forma cuadr atica sobre V cuya matriz asociada, en alguna base de
V, es A. Como A es sim etrica, por el Teorema 2.3.15, A es ortogonalmente diagonalizable, es
decir, existe una matriz P invertible tal que A = PDP
T
, donde D es una matriz diagonal. Por
tanto:
q(x) = x
T
Ax = x
T
(PDP
T
)x = (P
T
x)
T
DP
T
x = y
T
Dy = q(y),
donde y = P
T
x. La ultima expresi on est a en forma can onica.
La segunda cuesti on, una vez resuelta armativamente la primera, consiste en preguntarse
si la forma can onica es unica. En este caso, la respuesta es NO, como veremos en el siguiente
contraejemplo.
4.2 Formas cuadr aticas. Reducci on a la forma can onica 73
Ejemplo 4.2.5 Sea q la forma cuadr atica cuya matriz en la base can onica es
A =
_
1 0
0 2
_
,
que es diagonal y, por tanto,
q(x) = x
2
1
+ 2x
2
2
est a dada en forma can onica. La matriz
B =
_
1 1
4 2
_
. .
P
T
_
1 0
0 2
_
. .
A
_
1 4
1 2
_
. .
P
=
_
3 0
0 24
_
representa la misma forma cuadr atica y es diagonal, luego
q(y) = 3y
2
1
+ 24y
2
2
es otra forma can onica de q.
Las dos formas can onicas del ejemplo anterior est an relacionadas por el cambio de base
_
y
1
y
2
_
=
_
1 4
1 2
_ _
x
1
x
2
_
.
El ejemplo anterior pone de maniesto la importancia de indicar el cambio de base, es
decir, la base en la que se est a expresando la forma cuadr atica. Esto tiene especial relevancia
en la forma can onica que, como acabamos de ver, no es unica. Es importante destacar que los
coecientes que aparecen en la forma can onica de q no son (necesariamente) los autovalores
de la matriz A que representa la forma cuadr atica. Este hecho es consecuencia de que los
autovalores no son invariantes por congruencia.
La demostraci on del Teorema 4.2.4 nos proporciona un m etodo para reducir q a su forma
can onica: diagonalizarla por congruencia. Pero este no es el unico m etodo posible. A continua-
ci on, vamos a estudiar por separado los tres m etodos que recogemos en la siguiente tabla:
M etodos para obtener una forma can onica de q
A = matriz asociada a q
1 Diagonalizar A ortogonalmente: P
T
AP = D (P
1
= P
T
)
2 Diagonalizar A por congruencia: P
T
AP = D (P
1
,= P
T
)
3 Completar cuadrados (m etodo de Gauss)
Hay que destacar que, en el m etodo 1 , los coecientes de la forma can onica (las entradas
diagonales de la matriz D) son los autovalores de A, porque la congruencia es, al mismo
tiempo, una equivalencia, mientras que que en los m etodos 2 y 3 no son los autovalores.
74 4. FORMAS CUADR

ATICAS
El m etodo 1 es el m etodo usual de diagonalizaci on que se conoce del curso previo de

Algebra Lineal y que ya se ha tratado en la Secci on 2.3. A continuaci on vamos a explicar


brevemente los otros dos m etodos.
2 Diagonalizaci on por congruencia:
Este procedimiento se sintetiza en los siguientes dos pasos:
1) Escalonar la matriz A por las: PA = T, donde T es triangular superior.
2) Aplicar sobre las columnas de A las mismas operaciones que se han aplicado sobre las
las en el paso 1): PAP
T
= TP
T
= D
3 Diagonalizar completando cuadrados:
La idea b asica de este procedimiento es completar cuadrados en cada una de las variables
para absorber los t erminos x
i
x
j
, con i ,= j. El proceso se completa en n pasos, donde en el
paso i- esimo se completan cuadrados en todos los t erminos x
i
x
j
, para j > i (los otros ya se
han completado en pasos anteriores).
En el siguiente ejemplo ilustramos los tres m etodos.
Problema Resuelto 4.2.6 Sea q la forma cuadr atica sobre R
3
cuya representaci on en la base
can onica es
q(x) = x
2
1
+x
2
2
+x
2
3
4(x
1
x
2
+x
1
x
3
+x
2
x
3
).
Reducir q a una forma can onica de tres formas diferentes empleando cada uno de los tres
m etodos anteriores e indicar las bases en las que est a dada cada una de las formas can onicas.
Soluci on.
1 La matriz asociada a q en la base can onica es
A =
_
_
1 2 2
2 1 2
2 2 1
_
_
.
Sus autovalores se obtienen a partir del polinomio caracterstico
p() =
3
3
2
9 + 27
1
= 3 (doble),
2
= 3.
En este punto ya sabemos que una forma can onica de q es
q(x) = 3x
2
1
+ 3x
2
2
3x
2
3
.
Para hallar la base necesitamos conocer una base ortonormal de autovectores de A. El
espacio propio asociado a
1
= 3 es
V
{
1
=3}
= ker(A3I
3
) = Gen
_
_
_
_
1
1
0
_
_
,
_
_
1
1
2
_
_
_
_
.
4.2 Formas cuadr aticas. Reducci on a la forma can onica 75
La base anterior es ortogonal, as que es inmediato obtener una base ortonormal de auto-
vectores asociados a
1
= 3:
u
1
=
_

_
1

2
0
_

_
, u
2
=
_

_
1

6
1

6
_

_
.
Por otro lado, el espacio propio asociado a
2
= 3 es
V
{
2
=3}
= ker(A+ 3I
3
) = Gen
_
_
_
_
1
1
1
_
_
_
_
,
de manera que una base ortonormal de dicho espacio es
u
3
=
_

_
1

3
1

3
1

3
_

_
.
Por tanto, la base en la que est a expresada la forma can onica es B
1
= u
1
, u
2
, u
3
.
Puede comprobarse que, si P
1
=
_
u
1
u
2
u
3

entonces P
T
1
AP
1
= diag(3, 3, 3).
2 Primero pasamos A a forma escalonada mediante operaciones por las:
A =
_
_
1 2 2
2 1 2
2 2 1
_
_

F
2
+ 2F
1
F
3
+ 2F
1
_
_
1 2 2
0 3 6
0 6 3
_
_

F
3
2F
2
_
_
1 2 2
0 3 6
0 0 9
_
_
= T.
Aplicamos a las columnas de T las mismas operaciones que hemos aplicado a las las
de A(en el mismo orden) o, lo que es igual, multiplicamos T a la derecha por P
T
2
, donde
P
2
=
_
_
1 0 0
2 1 0
2 2 1
_
_
,
para obtener la matriz diagonal
P
2
AP
T
2
= TP
T
2
=
_
_
1 0 0
0 3 0
0 0 9
_
_
.
As, obtenemos la forma can onica
q(x) = x
2
1
3x
2
2
+ 9x
2
3
,
que, seg un (4.1), est a dada en la base que determinan las columnas de P
T
2
, es decir
B
2
=
_
_
_
_
_
1
0
0
_
_
,
_
_
2
1
0
_
_
,
_
_
2
2
1
_
_
_
_
_
.
76 4. FORMAS CUADR

ATICAS
3 Primero completamos los cuadrados de la variable x
1
:
q(x) = (x
2
1
4x
1
x
2
4x
1
x
3
) +x
2
2
+x
2
3
4x
2
x
3
= (x
1
2x
2
2x
3
)
2
4x
2
2
4x
3
3
8x
2
x
3
+x
2
2
+x
2
3
4x
2
x
3
= (x
1
2x
2
2x
3
)
2
3x
2
2
3x
3
3
12x
2
x
3
.
Con el cambio de variable
_
_
_
y
1
= x
1
2x
2
2x
3
y
2
= x
2
y
3
= x
3
obtenemos
q(y) = y
2
1
3y
2
2
3y
2
3
12y
2
y
3
,
que a un no est a en forma can onica. El siguiente paso consiste en completar cuadrados
en y
2
:
q(y) = y
2
1
3(y
2
2
+4y
2
y
3
)3y
2
3
= y
2
1
3(y
2
+2y
3
)
2
+12y
2
3
3y
2
3
= y
2
1
3(y
2
+2y
3
)
2
+9y
2
3
.
Con el cambio de variable
_
_
_
z
1
= y
1
z
2
= y
2
+ 2y
3
z
3
= y
3
obtenemos
q(z) = z
2
1
3z
2
2
+ 9z
2
3
,
que ya est a en forma can onica.
La relaci on entre las nuevas variables y las antiguas se expresa matricialmente en la
forma
_
_
z
1
z
2
z
3
_
_
=
_
_
1 0 0
0 1 2
0 0 1
_
_
_
_
y
1
y
2
y
3
_
_
=
_
_
1 0 0
0 1 2
0 0 1
_
_
_
_
1 2 2
0 1 0
0 0 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
1 2 2
0 1 2
0 0 1
_
_
. .
P
3
_
_
x
1
x
2
x
3
_
_
.
Si D = diag(1, 3, 9) tenemos que
q(z) = z
T
Dz = (P
3
x)
T
DP
3
x = x
T
(P
T
3
DP
3
)x = x
T
Ax,
de modo que P
T
3
DP
3
= A y, seg un la f ormula (4.1), P
3
= M((
R
3, B
3
), lo que signica
que
M(B, (
R
3) = M((
R
3, B
3
)
1
=
_
_
1 2 2
0 1 2
0 0 1
_
_
4.3 Formas cuadr aticas denidas 77
y, por tanto,
B
3
=
_
_
_
_
_
1
0
0
_
_
,
_
_
2
1
0
_
_
,
_
_
2
2
1
_
_
_
_
_
es la base en la que est a expresada la forma can onica de q. N otese que obtenemos la
misma forma can onica y la misma base que usando el procedimiento anterior.
4.3 Formas cuadr aticas denidas
Como se ha mencionado al principio de la Secci on 1.1, un producto escalar es una forma bi-
lineal sim etrica denida positiva. Dicha positividad se reera en realidad a la forma cuadr atica
asociada a la forma bilineal. A continuaci on enunciamos la denici on precisa de esta clase de
formas cuadr aticas, junto con las restantes clases an alogas.
Denici on 4.3.1 Sea q una forma cuadr atica sobre V. Diremos que q es
(i) Denida positiva si q(x) > 0 para todo x V 0
V
.
(ii) Denida negativa si q(x) < 0 para todo x V 0
V
.
(iii) Semidenida positiva si q(x) 0 para todo x V.
(iv) Semidenida negativa si q(x) 0 para todo x V.
(v) Indenida si no cumple ninguna de las anteriores, es decir, si existen x
1
, x
2
V tales
que q(x
1
) > 0 y q(x
2
) < 0.
La denici on anterior establece una clasicaci on completa de las formas cuadr aticas, pues
toda forma cuadr atica est a en, al menos, uno de los casos (i) (v). Algunos de ellos incluyen
otros. En concreto, si q es denida positiva entonces es semidenida positiva, y lo mismo ocurre
con las negativas. En cambio, otros son disjuntos. Por ejemplo, si q es indenida no puede ser
de ning un otro tipo.
El problema que ahora nos concierne es el de clasicar una forma cuadr atica dada, q,
seg un la clasicaci on de la Denici on 4.3.1. El siguiente Teorema nos da un criterio completo
si conocemos una forma can onica de q.
Teorema 4.3.2 Sea q(x) =
1
x
2
1
+ . . . +
n
x
2
n
una forma cuadr atica en forma can onica.
Entonces q es
(i) denida positiva si y s olo si
i
> 0 para todo i = 1, . . . , n,
(ii) denida negativa si y slo si
i
< 0 para todo i = 1, . . . , n,
(iii) semidenida positiva si y s olo si
i
0 para todo i = 1, . . . , n y
i
0
= 0 para alg un
1 i
0
n,
(iv) semidenida negativa si y s olo si
i
0 para todo i = 1, . . . , n y
i
0
= 0 para alg un
1 i
0
n,
78 4. FORMAS CUADR

ATICAS
(v) indenida si y s olo si hay dos subndices 1 i
1
, i
2
n de modo que
i
1
< 0 y
i
2
> 0.
Ejercicio 4.3.3 Demostrar el Teorema 4.3.2.
El Teorema 4.3.2 es muy util una vez que hemos reducido q a una forma can onica, pero po-
demos plantearnos si existe alg un criterio para clasicar la forma can onica a partir de cualquier
expresi on equivalente. La respuesta es armativa y para enunciarla necesitamos introducir el
siguiente concepto.
Denici on 4.3.4 El menor principal k- esimo de una matriz cuadrada A = [a
ij
]
n
i,j=1
, que
denotaremos por /
k
(A), es el determinante de la submatriz formada por las primeras k las
y k columnas de A, es decir:
/
k
(A) = det
_
[a
ij
]
k
i,j=1
_
.
El criterio para clasicar una forma cuadr atica a partir de la matriz en cualquier base es
este.
Teorema 4.3.5 (Criterio de los menores principales) Sea q una forma cuadr atica sobre un
espacio vectorial de dimensi on n cuya expresi on matricial en una base cualquiera es q(x) =
x
T
Ax. Entonces q es
(a) denida positiva si y s olo si /
k
(A) > 0, para todo k = 1, . . . , n,
(b) denida negativa si y s olo si /
1
(A) < 0, /
2
(A) > 0, /
3
(A) < 0, . . . , (1)
n
/
n
(A) >
0 (es decir, los menores principales tienen signos alternos y el primero es negativo).
El criterio del Teorema 4.3.5 no es un criterio completo, pues s olo permite reconocer dos
casos de los cinco posibles, pero es decisivo si la forma cuadr atica est a en uno de estos dos
casos.
Ejemplo 4.3.6 La forma cuadr atica sobre R
3
cuya expresi on en la base can onica es
q(x) = x
2
1
+ 6x
1
x
2
+ 2x
1
x
3
+ 10x
2
2
+ 4x
2
x
3
+ 3x
2
3
es denida positiva, porque la matriz asociada
A =
_
_
1 3 1
3 10 2
1 2 3
_
_
tiene sus tres menores principales positivos:
/
1
(A) = 1, /
2
(A) = 1, /
3
(A) = 1.
En cambio, la forma cuadr atica
s(x) = x
2
1
+ 6x
1
x
2
+ 2x
1
x
3
+ 10x
2
2
+ 4x
2
x
3
+x
2
3
no es ni denida positiva ni denida negativa, pues los menores principales de la matriz aso-
ciada
B =
_
_
1 3 1
3 10 2
1 2 1
_
_
son
/
1
(B) = 1 > 0, /
2
(B) = 1 > 0, /
3
(B) = 1 < 0.
4.4 La ley de inercia de Sylvester 79
4.4 La ley de inercia de Sylvester
Introducimos, en primer lugar, el concepto fundamental de esta secci on.
Denici on 4.4.1 La inercia de una matriz sim etrica A es la terna
i(A) = (i
+
(A), i
0
(A), i

(A)),
donde i
+
(A) es el n umero de autovalores positivos de A, i
0
(A) es el n umero de autovalores
nulos de A e i

(A) es el n umero de autovalores negativos de A.


La signatura de A es el n umero (A) = i
+
(A) i

(A).
En la secci on anterior hemos visto que la forma can onica de una forma cuadr atica q no
es unica pero, por otro lado, el Teorema 4.3.2 nos dice que hay ciertos invariantes en todas las
formas can onicas. En concreto, si todos los coecientes son positivos en una de ellas tambi en lo
ser an en cualquier otra, y lo mismo ocurre si todos son negativos, o todos positivos (o negativos)
y alguno nulo o si, nalmente, hay al menos uno positivo y uno negativo. El siguiente teorema
nos dice m as a un.
Teorema 4.4.2 (Ley de inercia de Sylvester) Dos matrices congruentes tienen la misma iner-
cia.
Como ya hemos mencionado anteriormente, los autovalores no se conservan por congruen-
cia. El teorema anterior nos dice que los signos, en cambio, s se conservan.
Traducido al lenguaje de las formas cuadr aticas, lo que nos dice la ley de inercia de Syl-
vester es que el n umero de coecientes positivos, negativos y nulos de una forma can onica
cualquiera de una forma cuadr atica dada q, no depende de dicha forma can onica, sino que es
un invariante de la forma cuadr atica. Por tanto, llamaremos inercia de una forma cuadr atica
q a la terna i(q) = (i
+
(q), i
0
(q), i

(q)), donde i
+
(q) es el n umero de coecientes positivos
de cualquier forma can onica de q, i
0
(q) es el n umero de coecientes nulos de cualquier forma
can onica de q e i

(q) es el n umero de coecientes negativos de cualquier forma can onica de q.


Ejemplo 4.4.3 La inercia de la forma cuadr atica del Ejemplo 4.2.6 es i(q) = (2, 0, 1). N otese
que en dos de las formas can onicas que se han obtenido en dicho problema los coecientes son
distintos, pero no as la inercia.
Forma polar asociada a una forma cuadr atica
Una forma cuadr atica q sobre un espacio vectorial V est a asociada, por denici on, a una
forma bilineal sim etrica f sobre V mediante la relaci on
q(x) = f(x, x).
La forma bilineal f se conoce como la forma polar asociada a q y es unica, es decir, que si f
1
y f
2
son dos formas bilineales sim etricas de manera que
q(x) = f
1
(x, x) = f
2
(x, x) x V
entonces
f
1
(x, y) = f
2
(x, y), x, y V.
Obtener q a partir de f es inmediato. Para recuperar f a partir de q lo que haremos ser a:
80 4. FORMAS CUADR

ATICAS
1) Calcular la matriz A asociada a q en una base determinada: q(x) = x
T
Ax.
2) Entonces: f(x, y) = x
T
Ay (en la misma base).
4.5 Factorizaci on de Choleski
Recordemos que una forma cuadr atica q sobre V es denida positiva si q(x, x) > 0 para
todo x V. Si A es la matriz asociada a q en una base cualquiera de V, esto equivale a decir
que x
T
Ax > 0 para todo x R
n
(donde n es la dimensi on del espacio vectorial V). Por
tanto, diremos que una matriz A R
nn
sim etrica es denida positiva si x
T
Ax > 0 para todo
x R
n
.
En el siguiente ejercicio se pide demostrar que la propiedad de ser denida positiva es
invariante por congruencia.
Ejercicio 4.5.1 Demostrar que una matriz A R
nn
sim etrica es denida positiva si y s olo
si P
T
AP es sim etrica denida positiva, para cualquier matriz P R
nn
invertible.
Ya hemos visto que toda matriz sim etrica es la matriz asociada a una forma bilineal sim etri-
ca en una base determinada. De la misma forma, toda matriz sim etrica denida positiva A
R
nn
es la matriz de Gram en alguna base del producto escalar usual en R
n
.
Como la matriz de Gramdel producto escalar usual en R
n
respecto a la base B = v
1
, . . . , v
n

se obtiene como el producto


G
B
= V
T
V
donde V =
_
v
1
. . . v
n

, llegamos a
A R
nn
es una matriz sim etrica denida positiva si y s olo si existe una matriz
G R
nn
invertible tal que A = G
T
G.
La matriz Ganterior es una matriz real cualquiera (invertible) de tama no nn. El resultado
fundamental de esta secci on proporciona una descomposici on similar a la anterior pero usando
una matriz triangular.
Teorema 4.5.2 (Factorizaci on de Choleski) Toda matriz Asim etrica denida positiva se puede
factorizar como
A = LL
T
,
donde L es triangular inferior con todas sus entradas diagonales positivas. La factorizaci on
anterior se conoce como la factorizaci on de Choleski de A.
Demostraci on. La siguiente demostraci on es constructiva. Hemos visto en la Secci on 4.2 que
la matriz sim etrica A puede diagonalizarse de la forma
PAP
T
= D = diag(
1
, . . . ,
n
)
donde las entradas diagonales de D son positivas (
i
> 0, i = 1, . . . , n), porque Aes denida
positiva y esta propiedad es invariante por congruencia (Ejercicio 4.5.1). La matriz P com-
prende las transformaciones elementales de las que llevan la matriz A a su forma escalonada.
4.5 Factorizaci on de Choleski 81
En estas operaciones a cada la se le a nade una combinaci on lineal de las las anteriores. La
matriz P es, por tanto, triangular inferior con 1s en las entradas diagonales. As pues
A = P
1
D(P
1
)
T
= P
1

D(P
1

D)
T
= LL
T
,
donde L = P
1

D, y

D es la matriz diagonal cuyas entradas diagonales son las races
cuadradas (positivas) de las entradas diagonales de D, es decir,

D = diag(

1
, . . . ,

n
).
Problema Resuelto 4.5.3 Encontrar la factorizaci on de Choleski de la matriz
A =
_
_
1 3 1
3 10 2
1 2 3
_
_
.
Soluci on. Como hemos visto en el Ejemplo 4.3.6, la matriz A es denida positiva. Por tanto,
existe la factorizaci on de Choleski de A. Para obtenerla seguimos el procedimiento descrito en
la demostraci on del Teorema 4.5.2.
Primero reducimos la matriz A a forma escalonada
A =
_
_
1 3 1
3 10 2
1 2 3
_
_

F
2
3F
1
F
3
F
1
_
_
1 3 1
0 1 1
0 1 2
_
_

F
3
+ F
2
_
_
1 3 1
0 1 1
0 0 1
_
_
= T.
Entonces
PAP
T
= TP
T
= D =
_
_
1 0 0
0 1 0
0 0 1
_
_
,
donde
P =
_
_
1 0 0
3 1 0
4 1 1
_
_
.
Si ahora llamamos
L = P
1

D =
_
_
1 0 0
3 1 0
1 1 1
_
_
_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
_
1 0 0
3 1 0
1 1 1
_
_
,
entonces
A = LL
T
es la factorizaci on de Choleski de A.
En el siguiente cuadro resumimos algunos resultados relevantes de este tema, en los que
se establece la relaci on (biunvoca) entre formas bilineales (q) con las propiedades que hemos
estudiado (simetra y positividad) y las estructuras correspondientes de las matrices asociadas
(A).
q A
Forma bilineal Cualquiera
Forma bilineal sim etrica Sim etrica
Forma bilineal sim etrica denida positiva Sim etrica denida positiva
82 4. FORMAS CUADR

ATICAS
5
C

ONICAS Y CU

ADRICAS
5.1 C onicas en R
2
. Reducci on a la forma can onica
Una c onica en el plano R
2
es el conjunto de soluciones de una ecuaci on cuadr atica. Es
decir, es el conjunto de puntos del plano x =
_
x
1
x
2

T
tales que
x
T
Ax +a
T
x +b = 0 , (5.1)
donde A es una matriz sim etrica,
A =
_
a
11
a
12
a
12
a
22
_
,
a =
_
a
1
a
2

T
es un vector (de coecientes) de R
2
y b Res un n umero real. Asumiremos,
desde un principio, que la matriz A es no nula, pues si A = 0 entonces (5.1) es una ecuaci on
de primer grado.
El objetivo de esta secci on es clasicar las c onicas, describirlas geom etricamente y dar un
procedimiento para poder identicar una c onica a partir de su ecuaci on (5.1). La herramienta
fundamental para hacer todo esto es la forma can onica de la forma cuadr atica asociada a la
ecuaci on (5.1), es decir, q(x) = x
T
Ax.
Recordemos que la forma can onica se obtiene a trav es de una congruencia de la matriz
original A. Esta congruencia est a asociada a un cambio de base (o cambio de coordenadas )
en el plano (o en el espacio R
3
en el caso que trataremos en la pr oxima secci on). Como hemos
comentado en el Tema 4, los cambios de base arbitrarios no respetan las distancias. Para eso ne-
cesitamos realizar un cambio de base ortonormal, es decir, en t erminos matriciales, realizar una
semejanza ortogonal. Como las c onicas son objetos denidos en t erminos de distancias (v ease
83
84 5. C

ONICAS Y CU

ADRICAS
la Secci on 5.2), para mantener invariante el tipo de c onica debemos, en principio, restringirnos
a las transformaciones ortogonales. Lo que haremos, por tanto, ser a diagonalizar ortogonal-
mente la matriz A. Este ser a el primer paso del procedimiento. El segundo (y ultimo) paso
consistir a en una traslaci on, que es una transformaci on que no altera el tipo de c onica, y nos
dar a su ecuaci on reducida.
Clasicaci on de las c onicas (ecuaci on reducida)
Partimos de la c onica (5.1).
Paso 1: Diagonalizar ortogonalmente la matriz A :
A = PDP
T
, D =
_

1
0
0
2
_
.
Con el cambio de variable y = P
T
x la ecuaci on (5.1) se transforma en
y
T
Dy +a
T
Py +b = 0
1
y
2
1
+
2
y
2
2
+a
1
y
1
+a
2
y
2
+b = 0 , (5.2)
donde a =
_
a
1
a
2

= a
T
P. Ahora distinguimos los tres casos siguientes:
CASO I (tipo elptico):
1

2
> 0
Paso 2: Completar cuadrados en (5.2):

1
_
y
1
+
a
1
2
1
_
2
+
2
_
y
2
+
a
2
2
2
_
2

c
..
_
a
2
1
4
1
+
a
2
2
4
2
b
_
= 0.
Con el cambio de variable (que corresponde a una traslaci on)
_
z
1
= y
1
+
a
1
2
1
z
2
= y
2
+
a
2
2
2
,
llegamos a la ecuaci on reducida de la c onica

1
z
2
1
+
2
z
2
2
c = 0
Entonces
Si c > 0 Elipse
Si c = 0 Un punto
Si c < 0 Conjunto vaco
5.1 C onicas en R
2
. Reducci on a la forma can onica 85
CASO II (tipo hiperb olico):
1

2
< 0
Paso 2: Completando cuadrados en (5.2) y haciendo el mismo cambio de variable que en el
CASO I, llegamos a la misma ecuaci on reducida

1
z
2
1
+
2
z
2
2
c = 0
Ahora
Si c ,= 0 Hip erbola z
2
1
_
(c/
1
) +z
2
2
_
(c/
2
) = 1
Si c = 0 Dos rectas z
2
=
_
_

1
/
2
_
z
1
CASO III (tipo parab olico):
1

2
= 0
Sin p erdida de generalidad, supondremos que
1
= 0. Distinguimos los casos:
i) a
1
,= 0 :
Paso 2: Completamos cuadrados en (5.2):

2
_
y
2
+
a
2
2
2
_
2
+a
1
_
y
1
+
b
a
1

a
2
2
4a
1

2
_
= 0,
y con el cambio de variable (que corresponde a una traslaci on)
_
z
1
= y
2
+
a
2
2
2
z
2
= y
1
+
b
a
1

a
2
2
4a
1

2
llegamos a la ecuaci on reducida

2
z
2
1
+a
1
z
2
= 0
La c onica es, por tanto, una par abola.
ii) a
1
= 0 :
Paso 2: Completamos cuadrados en (5.2):

2
_
y
2
+
a
2
2
2
_
2

c
..
_
a
2
2
4
2
b
_
= 0,
y con el cambio de variable (que corresponde a una traslaci on)
_
z
1
= y
1
z
2
= y
2
+
a
2
2
2
llegamos a la ecuaci on reducida

2
z
2
2
c = 0 z
2
=
_
c/
2
Por tanto
86 5. C

ONICAS Y CU

ADRICAS
Si (c/
2
) > 0 Dos rectas
Si c = 0 Una recta
Si (c/
2
) < 0 Conjunto vaco
N otese que el caso
1
=
2
= 0 ha sido excludo de nuestro an alisis. Este caso corresponde
al caso A = 0, que ha sido excludo desde el principio.
Observaci on 5.1.1 Para saber el tipo de c onica que corresponde a la ecuaci on (5.1) (elptico,
hiperb olico o parab olico) es suciente con conocer la inercia de A. Como ya sabemos por
la Ley de inercia de Sylvester (Teorema 4.4.2) la inercia es invariante por congruencia. Esto
signica que para clasicar la c onica al primer nivel de clasicaci on podemos diagonalizar A
usando cualquiera de los tres procedimientos que se han descrito en la Secci on 4.2, es decir, no
es necesario emplear transformaciones ortogonales. No obstante, para conocer algunos de los
elementos que describiremos en la pr oxima secci on (concretamente los ejes) debemos hacer
semejanza ortogonal.
5.2 Determinaci on de los ejes, centro y v ertice de una c onica
Un sistema de referencia en R
2
es una terna = O; v
1
, v
2
, donde O es un punto
(llamado centro u origen del sistema) y v
1
, v
2
son dos vectores, llamados ejes del sistema.
Los sistemas de referencia permiten localizar puntos en el plano afn, que como conjunto es el
mismo plano R
2
pero formado por puntos y vectores (no necesariamente apoyados en el origen
de coordenadas).
Puesto que las c onicas no son variedades lineales, hay que estudiarlas en el plano afn,
y no en el plano vectorial. En este apartado vamos a presentar los elementos singulares de
una c onica y vamos a aprender a localizarlos en el plano afn a partir de la ecuaci on de la
c onica. Dichos elementos singulares son los siguientes. Si la c onica (5.1) es una elipse o una
hip erbola, entonces son el centro y los ejes, mientras que si es una par abola, entonces se trata
del eje y del v ertice.
Recordemos que, para pasar a la ecuaci on reducida, primero diagonalizamos A por con-
gruencia ortogonal, de modo que
A = PDP
T
, o bien: P
1
AP = D,
donde P es una matriz ortogonal y D es diagonal:
D =
_

1

2
_
,
1
,
2
son los autovalores de A.
Recordemos tambi en que las columnas de P son los autovectores de A. La ecuaci on reducida
que obtenemos al hacer esta transformaci on es

1
y
2
1
+
2
y
2
2
+b
1
y
1
+b
2
y
2
+b = 0 , (5.3)
donde, llamando y = [y
1
y
2
]
T
, hemos efectuado el cambio de variable
x = Py (y = P
T
x) .
5.2 Determinaci on de los ejes, centro y v ertice de una c onica 87
Esto signica que la nueva ecuaci on est a dada en una nueva base B, y que P es la matriz de
cambio de base de B a B
c
(donde B
c
es la base can onica). Es decir: las columnas de P son los
vectores de B expresados en la base can onica. Por otra parte, la traslaci on que efectuamos en
el Paso 2 no altera la direcci on de los vectores. En resumen, al llevar a cabo los pasos 1 y 2 que
transforman la ecuaci on (5.1) en la ecuaci on reducida, lo que hacemos es expresar la c onica
en un nuevo sistema de referencia O; B que sustituye al sistema de referencia can onico, en
el que est a expresada la c onica inicialmente, y que consta del origen de coordenadas y la base
can onica. Los ejes del nuevo sistema de referencia son, por tanto, las columnas de P. Queda
por determinar el origen del sistema. Veremos que, en el caso de una elipse o hip erbola, el
origen O coincide con el centro de la c onica.
5.2.1 Centro y ejes de una elipse o una hip erbola
En este apartado escribiremos la ecuaci on de la c onica en la forma f(x
1
, x
2
) = 0 (es decir,
f(x) = x
T
Ax +a
T
x +b).
Recordemos la denici on m etrica de la elipse y la hip erbola:
Elipse: Conjunto de puntos del plano cuya SUMA de distancias a dos puntos jos (lla-
mados focos) es constante.
Hip erbola: Conjunto de puntos del plano cuya DIFERENCIA de distancias a dos puntos
jos (llamados focos) es constante.
En ambos casos, el centro de la c onica es el punto medio entre los focos (en la recta que
los une), uno de los ejes es la recta que contiene los focos y el otro es la recta perpendicular a
este por el centro de la c onica.
A continuaci on explicamos c omo hallar el centro y los ejes.
Centro: Llamemos C = (c
1
, c
2
) al centro de la elipse/hip erbola. Cuando hacemos una
traslaci on cualquiera de la forma
_
x
1
x
2
_
=
_
y
1
y
2
_
+
_
c
1
c
2
_
,
en la ecuaci on (5.1), el centro de la elipse/hip erbola va al origen de coordenadas, lo
que signica que la nueva ecuaci on que obtenemos, en las coordenadas y
1
, y
2
, no tiene
t ermino en y
1
ni en y
2
(es decir: los t erminos de primer grado son cero). Por otro lado,
puede comprobarse que al hacer el cambio anterior los coecientes de los t erminos de
primer grado que se obtienen son:
Coeciente de y
1
: 2a
11
c
1
+ 2a
12
c
2
+a
1
=
f
x
1
(c
1
, c
2
)
Coeciente de y
2
: 2a
22
c
2
+ 2a
12
c
1
+a
2
=
f
x
2
(c
1
, c
2
)
y, como estos dos coecientes han de ser nulos, llegamos a que (c
1
, c
2
) es la soluci on del
sistema lineal:
Centro:
f
x
1
=
f
x
2
= 0
88 5. C

ONICAS Y CU

ADRICAS
Ejes: La traslaci on no altera la direcci on de los ejes, por lo que estos tendr an las direc-
ciones y
1
= 0 e y
2
= 0 de la ecuaci on (5.3), y que corresponden a las direcciones de
los autovectores de A. Como adem as los ejes pasan por el centro, tendremos que las
ecuaciones param etricas de los ejes son:
Eje 1:
_
x
1
x
2
_
=
_
c
1
c
2
_
+t u
1
Eje 2:
_
x
1
x
2
_
=
_
c
1
c
2
_
+t u
2
donde u
1
, u
2
son los autovectores de A (es decir: las columnas de P).
Si conocemos los autovalores de A y el centro de la elipse/hip erbola, conocemos su ecua-
ci on reducida, que viene dada por

1
x
2
1
+
2
x
2
2
+f(c
1
, c
2
) = 0.
No obstante, para conocer el sistema de referencia en el que est a expresada la ecuaci on anterior,
es necesario conocer los autovectores de A.
5.2.2 Eje y v ertice de una par abola
Recordemos la denici on m etrica de par abola:
Par abola: Conjunto de puntos del plano que equidistan de un punto (llamado foco) y
una recta (llamada eje).
El v ertice de la par abola es el punto medio entre el foco y el punto de corte con el eje de
la recta perpendicular al eje por el foco. Es un punto de la c onica. A continuaci on explicamos
c omo hallar el eje y el v ertice. Supondremos, como antes, que
1
= 0.
V ertice: En el v ertice, la pendiente de la c onica coincide con la pendiente del eje, que es
la pendiente del autovector asociado al autovalor
2
(el que no es nulo). Llamaremos a
esta pendiente m
2
y recordemos que la pendiente es la derivada de x
2
con respecto a x
1
:
x
2
x
1
= m
2
Por otro lado, si derivamos (implcitamente) la ecuaci on f(x
1
, x
2
) = 0 obtenemos
f
x
1
+
f
x
2
x
2
x
1
= 0 .
Como, adem as, el v ertice est a en la par abola, conclumos que el v ertice, (v
1
, v
2
), es la
soluci on del sistema (no lineal)
5.2 Determinaci on de los ejes, centro y v ertice de una c onica 89
V ertice:
_

_
f
x
1
+m
2
f
x
2
= 0
f(x
1
, x
2
) = 0
Eje: El eje (que corresponde al eje de simetra de la par abola), est a dado por la ecuaci on
y
2
= 0, que corresponde al autovector asociado al autovalor cero. Como la traslaci on
no altera la direcci on del eje, se concluye que el eje tiene la direcci on del autovector
asociado al autovalor cero (que llamaremos u
1
). Como, adem as, pasa por el v ertice, su
ecuaci on param etrica es:
Eje:
_
x
1
x
2
_
=
_
v
1
v
2
_
+t u
1
(donde (v
1
, v
2
) son las coordenadas del v etice).
Problema Resuelto 5.2.1 Hallar la ecuaci on reducida de la c onica
4x
2
1
4x
1
x
2
+x
2
2
6x
1
2x
2
+ 18 = 0
y clasicarla. Hallar sus elementos notables (centro/v ertice y eje(s)).
Soluci on. Matricialmente la c onica se expresa en la forma
(
_
x
1
x
2

_
4 2
2 1
_
. .
A
_
x
1
x
2
_

_
6 2

_
x
1
x
2
_
+ 18 = 0.
Diagonalizamos la matriz A ortogonalmente como ya se ha descrito en la Secci on 4.2:
A =
_
2/

5 1/

5
1/

5 2/

5
_
. .
P
_
5 0
0 0
_ _
2/

5 1/

5
1/

5 2/

5
_
. .
P
T
.
Con el cambio de variable
_
y
1
y
2
_
= P
T
_
x
1
x
2
_
obtenemos la ecuaci on de la c onica
(
_
y
1
y
2

_
5 0
0 0
_ _
y
1
y
2
_
2

5
_
1 1

_
y
1
y
2
_
+ 18 = 0.
Se trata, por tanto, de una c onica de tipo parab olico. Completando cuadrados en la ecuaci on
anterior:
( 5
_
y
1

5
5
_
2
2

5
_
y
2

17
2

5
_
90 5. C

ONICAS Y CU

ADRICAS
y efectuando el cambio de variable
_
_
_
z
1
= y
1

5
5
z
2
= y
2

17
2

5
llegamos a la ecuaci on reducida
5z
2
1
2

5z
2
= 0.
El v ertice de ( es el punto
_
z
1
z
2
_
=
_
0
0
_

_
y
1
y
2
_
=
_
_

5
5
17
2

5
_
_

_
x
1
x
2
_
= P
T
_
_

5
5
17
2

5
_
_
=
_
21
10
16
5
_
mientras que el eje es la recta que pasa por el v ertice y cuya direcci on es el autovector asociado
al autovalor 0, es decir,
r
_
21
10
16
5
_
+t
_
1
2
_
Tambi en podamos haber calculado el v ertice mediante el procedimiento que acabamos de
estudiar, es decir, como la soluci on del sistema
f
x
1
+m
2
f
x
2
= 0 = f(x
1
, x
2
).
En este caso, dicho sistema (no lineal) es
_
8x
1
4x
2
6
1
2
(4x
1
+ 2x
2
2) = 0
4x
2
1
4x
1
x
2
+x
2
2
6x
1
2x
2
+ 18 = 0
Despejando x
2
= 2x
1
1 en la primera ecuaci on y sustituyendo en la segunda obtenemos
4x
2
1
4x
1
(2x
1
1)+(2x
1
1)
2
6x
1
2(2x
1
1)+18 = 0 10x
1
+21 = 0 x
1
=
21
10
,
y sustituyendo el valor de x
1
tenemos que x
2
= 16/5.
5.3 Cu adricas en R
3
. Reducci on a la forma can onica
Una cu adrica en el espacio R
3
es el conjunto de soluciones de una ecuaci on cuadr atica. Es
decir, es el conjunto de puntos del espacio x =
_
x
1
x
2
x
3

T
tales que
x
T
Ax +a
T
x +b = 0 , (5.4)
donde A es una matriz sim etrica,
A =
_
_
a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33
_
_
,
5.3 Cu adricas en R
3
. Reducci on a la forma can onica 91
a =
_
a
1
a
2
a
3

T
es un vector (de coecientes) de R
3
y b R es un n umero real. Como
en el caso de las c onicas, supondremos que la matriz A es no nula, pues si A = 0 entonces
(5.4) es una ecuaci on de primer grado.
El objetivo de esta secci on es clasicar las cu adricas, describirlas geom etricamente y dar un
procedimiento para poder identicar una cu adrica a partir de su ecuaci on (5.4). La herramienta
fundamental para hacer todo esto es, como en el caso de las c onicas, la forma can onica de la
forma cuadr atica q(x) = x
T
Ax.
El primer paso consistir a, de nuevo, en una semejanza ortogonal para diagonalizar la matriz
A y el segundo en una traslaci on despu es de completar cuadrados.
Clasicaci on de las cu adricas (ecuaci on reducida)
Partimos de la cu adrica (5.4).
Paso 1: Diagonalizar ortogonalmente la matriz A :
A = PDP
T
, D =
_
_

1
0 0
0
2
0
0 0
3
_
_
.
Con el cambio de variable y = P
T
x la ecuaci on (5.1) se transforma en
y
T
Dy +a
T
Py +b = 0
1
y
2
1
+
2
y
2
2
+
3
y
2
3
+a
1
y
1
+a
2
y
2
+a
3
y
3
+b = 0 , (5.5)
donde a =
_
a
1
a
2
a
3

= a
T
P. Ahora distinguimos los tres casos siguientes:
CASO I :
1

2

3
,= 0
Tenemos los casos
(a) Los tres autovalores del mismo signo. Supondremos que
1
> 0,
2
> 0,
3
> 0.
Paso 2: Completamos cuadrados en (5.5)

1
_
x
1
+
a
1
2
1
_
2
+
2
_
x
2
+
a
2
2
2
_
2
+
3
_
x
3
+
a
3
2
3
_
2

_
a
2
1
4
1
+
a
2
2
4
2
+
a
2
3
4
3
b
_
. .
c
= 0
y hacemos el cambio de variable
_

_
y
1
= x
1
+
a
1
2
1
y
2
= x
2
+
a
2
2
2
y
3
= x
3
+
a
3
2
3
para llegar a la ecuaci on reducida

1
y
2
1
+
2
y
2
2
+
3
y
2
3
= c
En funci on del signo de c tenemos
92 5. C

ONICAS Y CU

ADRICAS
Si c > 0 Elipsoide
Si c = 0 Un punto
Si c < 0 Conjunto vaco
(b) Dos autovalores del mismo signo y el tercero de signo distinto. Supondremos que

1
> 0,
2
> 0,
3
< 0.
Paso 2: Completamos cuadrados en (5.5) y, con el mismo cambio de variable que
en el caso anterior, llegamos a la misma ecuaci on reducida. Ahora tenemos los casos
siguientes en funci on del valor de c:
Si c ,= 0 Hiperboloide
Si c = 0 Cono Elptico
CASO II :
1

2
,= 0 ,
3
= 0 (Un autovalor nulo y los restantes no nulos)
Tenemos los dos casos siguientes
(c) Los dos autovalores del mismo signo. Supondremos que
1
> 0,
2
> 0,
3
= 0.
Paso 2: Completamos cuadrados en (5.5)

1
_
y
1
+
a
1
2
1
_
2
+
2
_
y
2
+
a
2
2
2
_
2
+a
3
y
3

_
a
2
1
4
1
+
a
2
2
4
2
b
_
. .
c
= 0
y hacemos el cambio de variable
_

_
z
1
= y
1
+
a
1
2
1
z
2
= y
2
+
a
2
2
2
y
3
jo
para llegar a la ecuaci on reducida

1
z
2
1
+
2
z
2
2
+a
3
y
3
= c
Ahora distinguimos los casos
(c1) a
3
,= 0: Haciendo el cambio de variable (traslaci on)
_
_
_
z
1
jo
z
2
jo
z
3
= y
3

c
a
3
llegamos a

1
z
2
1
+
2
z
2
2
+a
3
z
3
= 0
La cu adrica es un paraboloide elptico.
5.3 Cu adricas en R
3
. Reducci on a la forma can onica 93
(c2) a
3
= 0: La ecuaci on reducida es

1
z
2
1
+
2
z
2
2
= c,
y en funci on del signo de c
Si c > 0 Cilindro elptico
Si c = 0 Recta
Si c < 0 Conjunto vaco
(d) Los dos autovalores de distinto signo. Supondremos que
1
> 0,
2
< 0,
3
= 0.
Paso 2: Completamos cuadrados en (5.5) y haciendo el mismo cambio de variable que
en el apartado (c) llegamos a la misma ecuaci on reducida. Ahora distinguimos los casos
(d1) a
3
,= 0: Haciendo el cambio de variable (traslaci on)
_
_
_
z
1
jo
z
2
jo
z
3
= y
3

c
a
3
llegamos a

1
z
2
1
+
2
z
2
2
+a
3
z
3
= 0
La cu adrica es un paraboloide hiperb olico.
(d2) a
3
= 0: La ecuaci on reducida es

1
z
2
1
+
2
z
2
2
= c,
y en funci on del signo de c
Si c ,= 0 Cilindro hiperb olico
Si c = 0 Dos planos no paralelos
CASO III :
1
,= 0,
2
=
3
= 0 (Dos autovalores nulos y el tercero no nulo)
Paso 2: Completamos cuadrados en (5.5)

1
_
y
1
+
a
1
2
1
_
2
+a
2
y
2
+a
3
y
3

_
a
2
1
4
1
b
_
. .
c
= 0
y hacemos el cambio de variable
_
_
_
z
1
= y
1
+
a
1
2
1
y
2
jo
y
3
jo
para llegar a la ecuaci on reducida

1
z
2
1
+a
2
y
2
+a
3
y
3
= c
Supondremos que
94 5. C

ONICAS Y CU

ADRICAS
(e)
1
> 0,
2
=
3
= 0 y distinguimos los casos
(e1) a
2
,= 0 o a
3
,= 0: Podemos encontrar una transformaci on unitaria y una traslaci on
de manera que al aplicar estos cambios de variable llegamos a la ecuaci on

1
z
2
1
+nz
2
= 0,
donde n R. La c onica es un cilindro parab olico.
Vamos a describir el cambio de variable. La variable z
1
quedar a ja y s olo cambia-
remos las otras dos. El primer cambio de variable corresponde a una transformaci on
ortogonal y es
_
_
_
z
1
jo
w
2
=
a
2
n
y
2
+
a
3
n
y
3
w
3
=
a
3
n
y
2
+
a
2
n
y
3
,
donde n =

a
2
+a
3
. Con este cambio la c onica se reduce a

1
z
2
1
+nw
2
= c.
Finalmente, con la traslaci on
_
_
_
z
1
jo
z
2
= w
2

c
n
z
3
= w
3
,
obtenemos la ecuaci on indicada arriba.
(e2) a
2
= a
3
= 0: La ecuaci on reducida es

1
z
2
1
= c
y en funci on del signo de c tenemos
Si c > 0 Dos planos paralelos
Si c = 0 Plano (doble)
Si c < 0 Conjunto vaco
Problema Resuelto 5.3.1 Clasicar la cu adrica ( x
2
1
+ 2x
2
2
+ 4x
2
3
2x
1
+ 8x
2
+ 5 = 0.
Soluci on. La expresi on matricial de la cu adrica es
(
_
x
1
x
2
x
3

_
_
1 0 0
0 2 0
0 0 4
_
_
. .
A
_
_
x
1
x
2
x
3
_
_
+
_
2 8 0

_
_
x
1
x
2
x
3
_
_
+ 5 = 0 .
Paso 1: La matriz A ya est a en forma diagonal. Como los tres autovalores son positivos, (
es de tipo elptico.
Paso 2: Completamos cuadrados en la ecuaci on de partida
(x
1
1)
2
+ 2(x
2
+ 2)
2
+ 4x
2
3
4 = 0.
5.3 Cu adricas en R
3
. Reducci on a la forma can onica 95
Con el cambio de variable (que corresponde a una traslaci on)
_
_
_
y
1
= x
1
1
y
2
= x
2
+ 2
y
3
= x
3
la cu adrica se convierte en
( y
2
1
+ 2y
2
2
+ 4y
2
3
4 = 0.
Se trata, por lo tanto, de un elipsoide.
Problema Resuelto 5.3.2 Clasicar la cu adrica ( 2x
1
x
2
6x
1
+ 10x
2
x
3
+ 6 = 0.
Soluci on. La expresi on matricial de la ecuaci on de ( en la base can onica es
(
_
x
1
x
2
x
3

_
_
0 1 0
1 0 0
0 0 0
_
_
. .
A
_
_
x
1
x
2
x
3
_
_
+
_
6 10 1

_
_
x
1
x
2
x
3
_
_
+ 6 = 0 .
Paso 1: Los autovalores de A se obtienen f acilmente y son
1
= 1,
2
= 1 y
3
= 0. Por
tanto la cu adrica es del tipo (d) en la clasicaci on anterior. Los autoespacios correspondientes
son
V
{
1
=1}
= ker(AI) =
1

2
_
_
1
1
0
_
_
, V
{
2
=1}
= ker(A+I) =
1

2
_
_
1
1
0
_
_
,
V
{
3
=0}
= ker(A) =
_
_
0
0
1
_
_
,
donde ya hemos calculado en cada caso un vector generador unitario. Como puede verse, los
autovectores son ortogonales dos a dos. Por tanto, si
P =
_

_
1

2

1

2
0
1

2
1

2
0
0 0 1
_

_
entonces P
T
AP = D = diag(1, 1, 0), o bien, A = PDP
T
, lo que signica que con el
cambio de variable
_
_
y
1
y
2
y
3
_
_
= P
T
_
_
x
1
x
2
x
3
_
_
la cu adrica se convierte en
( y
2
1
y
2
2
+
_
6 10 1

P
_
_
x
1
x
2
x
3
_
_
+6 = 0 = 0 y
2
1
y
2
2
+
4

2
y
1

2
y
2
+y
3
+6 = 0.
96 5. C

ONICAS Y CU

ADRICAS
Paso 2: Completamos cuadrados en la ecuaci on anterior
_
y
1
+
2

2
_
2

_
y
2

2
_
2
y
3
+ 36 = 0,
y con el cambio de variable (traslaci on)
_

_
z
1
= y
1
+
2

2
z
2
= y
2

2
z
3
= y
3
36
la ecuaci on reducida de la c onica es
( z
2
1
z
2
2
z
3
= 0.
Se trata, por lo tanto, de un paraboloide hiperb olico.
5.4 Determinaci on de los ejes, centro y v ertice de una cu adrica
De igual forma que en la secci on anterior hemos introducido el concepto de sistema de
referencia en el plano, podemos denir un sistema de referencia en R
3
como una cuaterna
= O; v
1
, v
2
, v
3
, donde O es un punto de R
3
(llamado origen del sistema) y v
1
, v
2
, v
3
son
tres vectores, llamados ejes del sistema. Diremos que el sistema es ortogonal si v
1
, v
2
, v
3
es
un conjunto ortogonal, y que es ortonormal si los vectores son, adem as, unitarios.
Un cambio de coordenadas y = Px, donde P R
33
, est a asociado a un cambio de refe-
rencia en R
3
donde el centro queda jo. Si la matriz P es ortogonal y el sistema de referencia
de partida es ortonormal, entonces el nuevo sistema de referencia es tambi en ortonormal. Por
otro lado, un cambio de base z = y +b, donde b R
3
, debido a una traslaci on, tambi en corres-
ponde a un cambio de sistema de referencia, pero en este caso los ejes quedan jos y cambia
unicamente el centro. En consecuencia, los cambios de variable que llevamos a cabo para al-
canzar la forma reducida de una cu adrica corresponden a cambios de referencia en los que la
nueva referencia es ortonormal, de tal modo que, en esta nueva referencia, la cu adrica tiene una
expresi on elemental y, tambi en, una representaci on gr aca sencilla (que veremos en la Secci on
5.5). El origen de coordenadas del nuevo sistema de referencia es un punto distinguido. Si la
cu adrica es un elipsoide o un hiperboloide (CASO I de la clasicaci on anterior) entonces dicho
punto se conoce como el centro de la cu adrica (por razones geom etricas que son evidentes a
partir de la representaci on gr aca) y no es un punto de la cu adrica. En cambio, si la cu adrica
es un paraboloide (Casos II (c1) y II (d1) en la clasicaci on anterior), el origen de coordenadas
s forma parte de la cu adrica y se le llama v ertice del paraboloide. A continuaci on, vamos a ver
c omo se pueden calcular estos dos puntos.
5.4.1 Centro de un elipsoide o un hiperboloide
Si la cu adrica ( f(x
1
, x
2
, x
3
) = 0 es un elipsoide o un hiperboloide el centro de la
cu adrica es el origen de coordenadas del sistema de referencia en el que est a expresada la
ecuaci on reducida, es decir, z = 0
R
3. Deshaciendo los cambios para obtener las coordenadas
en el sistema de referencia can onico tenemos
y = z u = u x = Py = Pu,
5.4 Determinaci on de los ejes, centro y v ertice de una cu adrica 97
donde u es el vector de traslaci on y P es la matriz ortogonal que diagonaliza la matriz A de la
ecuaci on de partida.
No obstante, hay otra forma de calcular el centro sin necesidad de conocer las transfor-
maciones que llevan la cu adrica a su ecuaci on reducida. Igual que en el caso de la elipse y la
hip erbola, estudiado en la Secci on 5.2.1, el centro es el punto para el cual el gradiente de f se
anula, es decir, es la soluci on del sistema lineal de 3 ecuaciones y 3 inc ognitas
Centro:
f
x
1
=
f
x
2
=
f
x
3
= 0
A partir de los autovalores de A y del centro de la cu adrica podemos obtener la ecuaci on
reducida. Dicha ecuaci on es
(
1
z
2
1
+
2
z
2
2
+
3
z
2
3
+f(c
1
, c
2
, c
3
) = 0,
donde (c
1
, c
2
, c
3
) son las coordenadas del centro (en la base can onica).
5.4.2 V ertice de un paraboloide
Si la cu adrica ( f(x
1
, x
2
, x
3
) = 0 es un paraboloide el v ertice de la cu adrica, igual que
en el caso anterior, es el origen de coordenadas del sistema de referencia en el que est a ex-
presada la ecuaci on reducida, es decir, z = 0
R
3. Deshaciendo los cambios para obtener las
coordenadas en el sistema de referencia can onico tenemos
y = z u = u x = Py = Pu,
donde u es el vector de traslaci on y P es la matriz ortogonal que diagonaliza la matriz A de la
ecuaci on de partida.
Tambi en lo podemos obtener teniendo en cuenta que el gradiente de f evaluado en el v ertice
es paralelo al autovector asociado al autovalor = 0 y que, adem as, es un punto de la cu adrica.
Por tanto, el v ertice es la soluci on del sistema (no lineal)
V ertice:
_
f(x
1
, x
2
, x
3
) = tu
0
f(x
1
, x
2
, x
3
) = 0
donde u
0
es un autovector de A asociado al autovalor = 0 y t es un par ametro que hay que
calcular.
Problema Resuelto 5.4.1 Hallar, de dos formas distintas, el centro del elipsoide del Problema
Resuelto 5.3.1.
Soluci on. La primera forma de hallar el centro es deshaciendo el cambio de variable:
_
_
y
1
y
2
y
3
_
_
=
_
_
0
0
0
_
_

_
_
x
1
x
2
x
3
_
_
=
_
_
1
2
0
_
_
La segunda forma es resolviendo el sistema lineal f = 0, es decir:
_
_
_
2x
1
2 = 0
4x
2
+ 8 = 0
8x
3
= 0

_
_
x
1
x
2
x
3
_
_
=
_
_
1
2
0
_
_
98 5. C

ONICAS Y CU

ADRICAS
Problema Resuelto 5.4.2 Hallar, de dos formas distintas, el v ertice paraboloide del Problema
Resuelto 5.3.2.
Soluci on. La primera forma de hallar el centro es deshaciendo los cambios de variable:
_
_
z
1
z
2
z
3
_
_
=
_
_
0
0
0
_
_

_
_
y
1
y
2
y
3
_
_
=
_

2
8

2
36
_

_
_
x
1
x
2
x
3
_
_
= P
_
_
y
1
y
2
y
3
_
_
=
_
_
5
3
36
_
_
La segunda forma consiste en resolver el sistema no lineal
_

_
2x
2
6 = t 0
2x
1
+ 10 = t 0
1 = t 1
2x
1
y
1
6x
1
+ 10x
2
x
3
+ 6 = 0

_
x
2
= 3
x
1
= 5
t = 1
x
3
= 36
5.5 Representaci on gr aca de las cu adricas en forma reducida
A continuaci on mostramos las gr acas de las ecuaciones reducidas de las cu adricas estu-
diadas en la secci on anterior.
CASO I:
1

2

3
,= 0 (Cu adricas con centro)
Elipsoide

1
x
2
+
2
y
2
+
3
z
2
= c
(
1
> 0,
2
> 0,
3
> 0, c > 0)
Hiperboloide de una hoja

1
x
2
+
2
y
2
+
3
z
2
= c
(
1
> 0,
2
> 0,
3
< 0, c > 0)
5.5 Representaci on gr aca de las cu adricas en forma reducida 99
Hiperboloide de dos hojas

1
x
2
+
2
y
2
+
3
z
2
= c
(
1
< 0,
2
< 0,
3
> 0, c > 0)
Cono elptico

1
x
2
+
2
y
2
+
3
z
2
= 0
(
1
> 0,
2
> 0,
3
< 0)
CASO II:
1

2
,= 0,
3
= 0 (Cu adricas con v ertice)
Paraboloide hiperb olico

1
x
2
+
2
y
2
= bz
(
1

2
< 0, b ,= 0)
100 5. C

ONICAS Y CU

ADRICAS
Paraboloide elptico

1
x
2
+
2
y
2
= bz
(
1

2
> 0, b ,= 0)
CASO III:
1
,= 0,
2
=
3
= 0
Cilindro elptico

1
x
2
+
2
y
2
= c
(
1
> 0,
2
> 0, b > 0)
Cilindro hiperb olico

1
x
2
+
2
y
2
= c
(
1

2
< 0, c ,= 0)
5.5 Representaci on gr aca de las cu adricas en forma reducida 101
Cilindro parab olico

1
x
2
+by = 0
(
1
,= 0, b ,= 0)
Ejercicio 5.5.1 (a) La gr aca del paraboloide hiperb olico que aparece entre las guras
anteriores corresponde al caso en que el signo del coeciente b coincide con el signo
de uno de los dos autovalores. Cu al de ellos? C omo sera la gr aca en el otro caso?
Justica la respuesta.
(b) La gr aca del paraboloide elptico corresponde al caso en que el signo del coeciente b
es igual o distinto al signo de los autovalores? C omo sera la gr aca en el otro caso?
Justica la respuesta.
(c) La gr aca del cilindro hiperb olico corresponde al caso en que el signo del t ermino
independiente c es igual o distinto al signo de los autovalores? C omo sera la gr aca
en el otro caso? Justica la respuesta.
(d) La gr aca del cilindro parab olico corresponde al caso en que el signo del coeciente b
es igual o distinto al signo del autovalor
1
? C omo sera la gr aca en el otro caso?
Justica la respuesta.
102 5. C

ONICAS Y CU

ADRICAS
6
NORMAS DE VECTORES Y MATRICES.
SENSIBILIDAD DE MATRICES
6.1 Normas vectoriales
Una norma sobre un espacio vectorial es una herramienta que permite medir. Por ejem-
plo, medir el tama no de un vector o la distancia entre dos vectores. Tambi en, como hemos
visto en la Secci on 1.5, a trav es de las normas podemos medir la distancia de un vector a un
subespacio vectorial.
En esta secci on nos vamos a centrar en las normas sobre el espacio R
n
. Las llamaremos
normas vectoriales para distinguirlas de las normas matriciales que estudiaremos en siguiente
la secci on.
Denici on 6.1.1 Una norma en R
n
es una aplicaci on | |: R
n
[0, ) que cumple las
tres propiedades siguientes
i) | v |> 0 si v ,= 0
R
n y | 0
R
n |= 0.
ii) | v |= [[ | v |, para todo v R
n
y R.
iii) | u +v || u | + | v |, para cualesquiera u, v R
n
. (desigualdad triangular)
El concepto de norma asociada a un producto escalar ha sido ya introducido en la Deni-
ci on 1.1.9 (para espacios vectoriales cualesquiera). Estas son un tipo particular de normas, pero
no son las unicas.
Ejemplo 6.1.2 En este ejemplo consideramos el espacio R
n
y un vector cualquiera v =
_
v
1
. . . v
n

T
.
Las siguientes aplicaciones son ejemplos de normas sobre R
n
:
103
104 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
1) Las normas inducidas por productos escalares
| v |=< v, v >
1/2
.
2) La norma-1: | v |
1
= [v
1
[ +. . . +[v
n
[.
3) La norma-p, donde 1 < p < : | v |
p
= ([v
1
[
p
+. . . +[v
n
[
p
)
1/p
.
4) La norma-: | v |

= max[v
1
[ +. . . +[v
n
[.
Las normas | |
1
y | |

son dos ejemplos de normas vectoriales que no est an


inducidas por ning un producto escalar.
6.2 Normas matriciales
El conjunto R
nm
de matrices reales de tama no n n es un espacio vectorial sobre R
de dimensi on n m. Por tanto, se puede identicar con R
nm
y utilizar cualquier norma vec-
torial para medir el tama no de una matriz en R
nm
. No obstante, la identicaci on anterior
de R
nm
con R
nm
deja fuera una operaci on importante en el conjunto de matrices, que es
el producto de matrices. Esta operaci on es fundamental porque, recordemos, se corresponde
con la composici on de aplicaciones lineales. La denici on formal de norma matricial tiene en
cuenta esta operaci on.
Denici on 6.2.1 Una funci on | | R
nn
R es una norma matricial si para dos matrices
cualesquiera A, B R
nn
se cumplen los siguientes cuatro axiomas:
i) | A |> 0 si A ,= 0
R
nm y | 0
R
nm |= 0
ii) | A |= [[ | A |, para cualquier R.
iii) | A+B || A | + | B |. (desigualdad triangular)
iv) | AB || A | | B |
Los axiomas i) iii) de la denici on anterior son los mismos axiomas que denen a
las normas vectoriales. El axioma iv) permite comparar el tama no del producto AB con los
tama nos de A y B (a trav es de su producto).
Ejercicio 6.2.2 Demostrar que para cualquier norma matricial | | en R
nn
se cumple que
| I
n
| 1.
Nuestro primer ejemplo de norma matricial es un ejemplo de norma vectorial sobre R
nm
que es norma matricial porque satisface la propiedad iv) de la denici on.
Denici on 6.2.3 La norma de Frobenius de una matriz A = [a
ij
] R
nn
es el n umero real
| A |
F
=
_
_
n

i,j=1
a
2
ij
_
_
1/2
6.2 Normas matriciales 105
La norma de Frobenius es la norma-2 en el espacio R
nm
.
Consideremos ahora la matriz A R
nn
como una aplicaci on de R
n
A : R
n
R
n
v Av
,
y sea | | una norma vectorial en R
n
. Queremos medir c omo varan de tama no los vectores
de R
n
al aplicarles la transfomaci on A. Es decir, queremos estimar el cociente
| Av |
| v |
.
Para acotar la variaci on de tama no que puede experimentar un vector cualquiera calculamos
el supremo del anterior cociente sobre todos los vectores de R
n
.
Denici on 6.2.4 La norma matricial inducida por la norma vectorial | | es la aplicaci on
| |: R
nn
R denida por
| A |= max
x R
n
x = 0
| Ax |
| x |
.
Hemos empleado la misma notaci on para la norma vectorial y para la norma matricial
inducida. Es importante tener presente, no obstante, que representan normas distintas, pues
una es una norma matricial (aunque eso a un no lo hemos demostrado) y la otra es una norma
vectorial.
La norma matricial inducida de A es una cota superior (ajustada) de la variaci on de tama no
que puede experimentar un vector cualquiera de R
n
cuando sobre dicho espacio act ua la apli-
caci on lineal asociada a la matriz A. El siguiente ejercicio nos dice que dicha cota se alcanza
en el conjunto de vectores unitarios y, por tanto, para calcular la norma inducida es suciente
restringirse a ese conjunto.
Ejercicio 6.2.5 Demostrar que la denici on de norma inducida es equivalente a
| A |= max
x R
n
x = 1
| Ax | .
(Pista: Usar el axioma ii) de las normas vectoriales).
Entre las siguientes propiedades de las normas inducidas se incluyen los cuatro axiomas
que muestran que, efectivamente, son normas matriciales.
Propiedades de las normas inducidas:
Dadas dos matrices cualesquiera A, B R
nn
, un vector v R
n
y | | una norma
matricial inducida en R
nn
se tiene
1. | Av || A || v |
2. | I
n
|= 1
106 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
3. | A | 0 y | A |= 0 si y s olo si A = 0
4. | A |= [[ | A |, para todo R
5. | A+B || A | + | B |
6. | AB || A | | B |
Demostraci on. (de las propiedades anteriores)
1. Es inmediato a partir de la denici on de norma inducida.
2. | I
n
|= max
x=1
| I
n
x |= max
x=1
| x |= 1.
3. | A |= 0 | Ax |= 0, x ,= 0 Ax = 0, x ,= 0 A = 0.
4. Usando el Ejercicio 6.2.5:
| A |= max
x=1
| Ax |= max
x=1
[[ | Ax |= [[ max
x=1
| Ax |= [[ | A | .
5. Es consecuencia inmediata de la desigualdad [x +y[ [x[ +[y[, que implica
max
x,yS
([x +y[) max
x,yS
([x[ +[y[)
donde S es un subconjunto cualquiera de R
n
.
6. Tenemos
| AB |= max
x=1
| (AB)x |= max
x=1
| A(Bx) | max
x=1
| A || Bx |=| A || B |,
donde para la segunda desigualdad hemos usado que | A(Bx) || A || B |, que es
consecuencia de la propiedad 1.
Obs ervese que, en particular, la propiedad 2 parece indicar que la igualdad | I
n
|= 1 no es
cierta para cualquier norma matricial, y as es. Un ejemplo en el que esto no ocurre es la norma
de Frobenius (para n > 1).
Algunas de las normas inducidas tienen una expresi on sencilla, como veremos en el si-
guiente resultado.
Teorema 6.2.6 (1) La norma matricial en R
nn
inducida por la norma vectorial | |
1
est a dada por
| A |
1
= max
1jn
n

i=1
[a
ij
[ = max
1in
| a
i
|
1
,
donde a
i
es la i- esima columna de A.
6.2 Normas matriciales 107
(2) La norma matricial en R
nn
inducida por la norma vectorial | |

est a dada por


| A |

= max
1in
n

j=1
[a
ij
[ = max
1in
| f
T
i
|
1
donde f
i
es la i- esima la de A.
(3) La norma matricial en R
nn
inducida por la norma vectorial | |
2
est a dada por
| A |
1
= mayor valor singular de A = (mayor autovalor de A

A)
1/2
.
Demostraci on.
(1) Para cualquier x R
n
se tiene
| Ax |
1
=|
n

j=1
x
j
a
j
|
1

j=1
[x
j
[ | a
j
| (
n

j=1
[x
j
[) max
1jn
| a
j
|
1
.
Si x es unitario (es decir, | x |
1
=

n
j=1
[x
j
[ = 1) entonces la anterior expresi on
est a acotada por
max
1jn
| a
j
|
1
, (6.1)
lo que signica que
max
x
1
=1
| Ax |
1
max
1jn
| a
j
|
1
, (6.2)
es decir, la norma inducida est a acotada por (6.1). Por otro lado, si j
0
es el ndice
de la columna de A en el que la norma-1 alcanza el m aximo (es decir, | a
j
0
|
1
=
= max
1jn
| a
j
|
1
), entonces
| Ae
j
0
|
1
=| a
j
0
|
1
= max
1jn
| a
j
|
1
,
es decir, para elj
0
- esimo vector can onico se alcanza la igualdad en (6.2). Por lo tanto,
hemos llegado a que
| A |
1
= max
x
1
=1
| Ax |
1
= max
1jn
| a
j
|
1
.
(2) Para cualquier x R
n
se tiene
| Ax |

= max [(Ax)
1
[, . . . , [(Ax)
n
[ = max [f
1
x[, . . . , [f
n
x[ .
Si x es un vector unitario, | x |

= max[x
1
[, . . . , [x
n
[ = 1, es f acil comprobar que
[f
i
x[ | f
T
i
|
1
, i = 1, . . . , n.
De aqu se sigue que
max
x

=1
| Ax |

max
1in
| f
T
i
|
1
. (6.3)
108 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
Por otra parte, si i
0
es el ndice de la columna de Aen el que la norma-1 alcanza el m axi-
mo (es decir, | f
T
i
0
|
1
= max
1in
| f
T
i
|
1
), y denimos el vector x
0
cuya coordenada
j- esima es
(x
0
)
j
=
_
1 , si a
i
0
j
> 0
1 , si a
i
0
j
< 0
,
entonces | x
0
|

= 1 y
| Ax
0
|

= max [f
1
x
0
[, . . . , [f
n
x
0
[ =| f
T
i
0
|
1
= max
1in
| f
T
i
|
1
.
Por lo tanto, en (6.3) se alcanza la igualdad para x
0
, lo que signica que
| A |

= max
x

=1
| Ax |

= max
1in
| f
T
i
|
1
.
(3) Sea A = UV

la SVD de A. Entonces
| A |
2
= max
x
2
=1
| Ax |
2
= max
x
2
=1
| (UV

)x |
2
= max
x
2
=1
| (V

x)
. .
y
|
2
= max
y
2
=1
| y |
2
= max
y
2
=1
|
_

1
y
1
.
.
.

n
y
n
_

_
|
2
= max
y
2
=1
_
(
1
y
1
)
2
+. . . + (
n
y
n
)
2
,
donde en la tercera y cuarta igualdades hemos usado, respectivamente, que U y V son
unitarias. Como
1
. . .
n
0, la ultima expresi on est a acotada superiormente por

1
max
y
2
=1
| y |
2
=
1
.
Por otro lado, la igualdad se da para x = v
1
, donde v
1
es el primer vector singular
derecho, pues
| Av
1
|
2
=| (UV

)v
1
|
2
=| U(e
1
) |
2
=| e
1
|
2
=
1
,
con lo que el resultado queda demostrado.
La norma matricial inducida por | |
1
es, por tanto, la mayor norma-1 de cualquier co-
lumna de A, mientras que la norma matricial inducida por | |

es la mayor norma-1 de
cualquier la de A.
6.3 El radio espectral
El radio espectral de una matriz A R
nn
, que denotaremos por (A), es el mayor de los
m odulos de los autovalores de A, es decir
(A) = max[[ : es autovalor de A.
La relaci on del radio espectral con las normas matriciales se pone de maniesto en el
siguiente resultado.
6.4 Errores en inversas y en soluciones de sistemas lineales. N umero de condici on 109
Teorema 6.3.1 Sea A R
nn
. Entonces
a) (A) | A |, para cualquier norma matricial | |.
b) Dado un valor > 0, existe una norma matricial | | tal que (A) | A | (A) +.
Lo que nos dice el teorema anterior es que el radio espectral est a acotado por cualquier
norma de A, pero hay normas que permiten aproximar el radio espectral de A tanto como se
desee. Desgraciadamente, estas normas no son f acilmente construbles, por lo que el Teorema
6.3.1 no es un resultado pr actico para aproximar el radio espectral.
La utilidad pr actica del Teorema 6.3.1 se encuentra en el siguiente corolario, que usaremos
en el Tema 7.
Corolario 6.3.2 Sea A R
nn
. Entonces lm
k
A
k
= 0 si y s olo si (A) < 1.
La condici on lm
k
A
k
= 0 equivale a decir que todas las entradas de la k- esima poten-
cia de A tienden a cero.
6.4 Errores en inversas y en soluciones de sistemas lineales.
N umero de condici on
En c alculos num ericos es casi inevitable la presencia de errores. Por ejemplo, los c alculos
con un ordenador, que tiene una memoria nita y, por tanto, una aritm etica nita, est an su-
jetos a errores de redondeo y truncamiento. Por otra parte, en muchas ocasiones los datos de
entrada sobre los que hay que efectuar los c alculos no son los datos exactos, sino meras aproxi-
maciones de estos. Esta inexactitud puede obedecer a diversas causas, como la imprecisi on en
las herramientas de medici on o errores en c alculos previos. En estos casos es importante hacer
un an alisis de c omo pueden afectar estos errores iniciales al resultado nal. En los algoritmos
m as comunes los errores de redondeo se pueden tratar de la misma forma que los errores en
los datos. Esta es la situaci on que nosotros asumiremos, despreocup andonos de los errores de
redondeo y centr andonos en los errores iniciales. Por tanto, podemos esquematizar la situaci on
de la siguiente manera:
D +D o(D +D) = o(D) + ?
Con D representamos los datos del problema, que han sido alterados por una ligera per-
turbaci on D. El algoritmo num erico que se emplea para resolver el problema nos devuelve
la soluci on (supuesto que no hay error en los c alculos) del problema perturbado, o(D + D).
Lo que nos interesa estudiar es la desviaci on que existe entre esa soluci on y la soluci on del
problema con los datos exactos, o(D). Lo que haremos ser a estimar esa diferencia mediante el
error relativo
e =
| o(D +D) o(D) |
| o(D) |
.
En este curso vamos a tratar el problema del c alculo de la matriz inversa de una matriz A y
el del c alculo de la soluci on de un sistema lineal (1.5). En este ultimo problema supondremos
que la matriz de coecientes es invertible y, por tanto, hay soluci on unica. Ambos problemas
110 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
est an ntimamente relacionados, pues la soluci on del sistema (1.5), supuesto que esta soluci on
es unica, est a dada por
x = A
1
b. (6.4)
Comenzaremos estudiando el problema de la matriz inversa y acto seguido aplicaremos los
resultados obtenidos a la soluci on del sistema lineal a partir de la relaci on (6.4).
Nuestro primer resultado es el siguiente, que proporciona una cota del error relativo.
Teorema 6.4.1 (Cota para el error relativo en la inversa) Sean A, A R
nn
, con Ainvertible,
y | | una norma matricial. Si =| A
1
A |< 1, entonces

A = A + A es invertible y se
tiene la siguiente cota del error relativo para la inversa
| A
1


A
1
|
| A
1
|


1
. (6.5)
La condici on < 1 del teorema anterior no es f acil de vericar si desconocemos la per-
turbaci on A. Desgraciadamente, dicha perturbaci on no suele conocerse en la pr actica. No
obstante, podemos obtener una condici on suciente que garantiza la condici on < 1 y que
est a dada en t erminos de cantidades que s pueden conocerse en la pr actica.
Aunque no conozcamos explcitamente la matriz A, s es posible, en muchas ocasiones,
conocer su norma o, al menos, una cota superior de su norma. Podemos sacar provecho de
esta informaci on razonando de la siguiente manera. Recordemos que, por el axioma iv) de las
normas matriciales,
| A
1
A || A
1
| | A | .
Esta desigualdad tiene, al menos, las siguientes tres consecuencias
1) Si | A
1
| | A |< 1 entonces | A
1
A |< 1. Por lo tanto, la condici on < 1 del
enunciado del Teorema 6.4.1 se satisface si la norma de la perturbaci on A satisface la
acotaci on
| A |<
1
| A
1
|
. (6.6)
2) La condici on (6.6) junto con el Teorema 6.4.1 nos dicen que si A es sucientemen-
te peque na (al menos tanto como para vericar (6.6)) entonces la matriz perturbada

A = A + A sigue siendo invertible. En consecuencia, para que una matriz deje de


ser invertible ha de ser modicada por una perturbaci on sucientemente grande.
3) La cantidad /(1 ) en (6.5) puede acotarse por

1

| A
1
| | A |
1 | A
1
| | A |
,
donde para calcular el cociente de la derecha no es necesario conocer explcitamente A,
sino unicamente su norma (o una cota superior de ella).
La cota superior que aparece en 3) permite obtener, de manera inmediata a partir de (6.5),
una cota superior para el error relativo de la inversa que no requiere el conocimiento explcito
de A (pero s de su norma). No obstante, enunciaremos este resultado utilizando el concepto
de n umero de condici on de A, lo que nos dar a una cota que permite relacionar el error en las
soluciones (inversas) con el error en los datos (matrices A, A).
6.4 Errores en inversas y en soluciones de sistemas lineales. N umero de condici on 111
Denici on 6.4.2 Dada una matriz invertible A R
nn
y | | una norma matricial, el n umero
de condici on de A es el n umero real no negativo
c(A) =| A | | A
1
| .
El n umero de condici on depende de la norma. As, tendremos, por ejemplo, el n umero
de condici on asociado a la norma-2, c
2
(A), o a la norma innito, c

(A), etc. El caso de la


norma-2 es particularmente relevante. Lo podemos expresar como
c
2
(A) =

m ax
(A)

mn
(A)
(6.7)
donde
max
(A) y
mn
(A) son, respectivamente, el mayor y el menor valor singular de A (am-
bos son no nulos porque A es invertible). La demostraci on de dicha f ormula pasa por resolver
el siguiente ejercicio.
Ejercicio 6.4.3 Demostrar que, si A es invertible, entonces | A
1
|
2
= 1/
mn
(A).
Si A es una matriz normal entonces, como sabemos del Corolario 3.1.7, los valores singu-
lares coinciden con los m odulos de los autovalores. En este caso
Si A es normal: c
2
(A) =
[
max
(A)[
[
mn
(A)[
Como hemos visto en el Ejercicio 6.4.3 la norma-2 de la inversa coincide con el inverso del
menor valor singular de A. Eso quiere decir que si dicho valor singular es peque no (pr oximo a
0) entonces el n umero de condici on de A es elevado. Una matriz con un n umero de condici on
elevado es una matriz que se comporta mal respecto a la inversi on, es decir, que peque nas
alteraciones en las entradas de la matriz pueden provocar grandes alteraciones en su inversa o,
incluso, hacerla no invertible.
Ahora podemos enunciar el siguiente resultado, que es consecuencia inmediata del Teore-
ma 6.4.1, pero tiene las dos ventajas que se han mencionado arriba: por un lado, la cota del error
relativo para las inversas est a dada en t erminos que no requieren el conocimiento explcito de
la perturbaci on y, por otro, establece una relaci on entre los errores en los datos y los errores en
las inversas. Dicha relaci on involucra al n umero de condici on en los t erminos que explicaremos
tras enunciar el resultado.
Corolario 6.4.4 Sean A, A R
nn
, | | una norma matricial y c(A) el n umero de con-
dici on de A en esa norma. Si | A |< 1/ | A
1
| la matriz perturbada

A = A + A es
invertible y
| A
1


A
1
|
| A
1
|

c(A)
1 c(A)
A
A
| A |
| A |
. (6.8)
Si | A | es peque na, el denominador de la expresi on derecha en (6.8) es aproximadamente
1, y el t ermino completo es aproximadamente igual a
c(A)
| A |
| A |
.
112 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
Esto signica que el error relativo en las inversas est a acotado por el error en los datos a trav es
de un factor igual al n umero de condici on de la matriz de partida A. Por lo tanto, si el n umero
de condici on de A es peque no, el error en la soluci on (inversa) es del mismo orden que el
error en los datos. En cambio, si el n umero de condici on es elevado, peque nos errores en los
datos pueden provocar grandes errores en la inversa. Esto nos lleva a decir que una matriz
est a bien condicionada si su n umero de condici on es peque no (pr oximo a 1), y que est a mal
condicionada si el n umero de condici on es elevado. Si c(A) = 1 se acostumbra a decir que A
est a perfectamente condicionada (con respecto a la norma matricial asociada).
Ejercicio 6.4.5 Demostrar que c(A) 1 para cualquier A R
nn
y cualquier norma matri-
cial en R
nn
.
Problema Resuelto 6.4.6 Sea la matriz
A

=
_
1 1
1 1 +
_
donde > 0 es un n umero real arbitrario.
a) Calcular c
2
(A

).
b) Estudiar el condicionamiento de A

para valores peque nos de .


Soluci on.
a) La matriz A

es normal, de modo que


c
2
(A

) =
[
max
(A

)[
[
mn
(A

)[
.
Los autovalores de A

se obtienen f acilmente a partir del polinomio caracterstico

1
=
2 + +

2
+ 4
2
,
2
=
2 +

2
+ 4
2
.
Entonces
c
2
(A

) =
2 + +

2
+ 4
2 +

2
+ 4
=
1

_
2 + +

2
+ 4
2
_
2
.
b) El factor de la derecha en la expresi on nal de c
2
(A

) est a acotado para valores su-


cientemente peque nos de . Por lo tanto c
2
(A

) es de orden 1/. Eso signica que para


valores peque nos de el n umero de condici on de A

es grande (del orden de 1/) y, por


tanto, la matriz A

est a mal condicionada. De hecho, la perturbaci on


A =
_
0 0
0
_
,
cuya norma-2 es igual a , convierte a la matriz A en una matriz singular A+A.
6.4 Errores en inversas y en soluciones de sistemas lineales. N umero de condici on 113
Si calculamos el determinante de la matriz A

en el Problema Resuelto 6.4.6 obtendre-


mos inmediatamente det(A

) = . Por tanto, para valores peque nos de el determinante es


peque no. Esto nos puede llevar a pensar que el determinante es una medida del condiciona-
miento de una matriz. Esta idea es equivocada. El condicionamiento es una estimaci on de la
proximidad de una matriz a la singularidad en t erminos relativos. El determinante, en cambio,
mide la proximidad a la singularidad en t erminos absolutos. En otras palabras: el determinante
puede ser peque no porque las entradas de la matriz son peque nas. En este caso, la matriz no
est a necesariamente mal condicionada.
Por otro lado, el hecho de que una matriz invertible est e mal condicionada nos indica que
hay perturbaciones malas , pero no que cualquier perturbaci on sea mala . Podemos detectar
de antemano algunas perturbaciones malas si conocemos la SVD de la matriz. Para compren-
der esto mejor, comencemos con el caso elemental de una matriz que es diagonal (invertible)
y, por simplicidad, con autovalores positivos. En este caso, los valores singulares de A son las
entradas diagonales, es decir A = diag(
1
, . . . ,
n
), con
1
. . .
n
. Si el menor va-
lor singular
n
es muy peque no, una perturbaci on mala es A = diag(0, . . . , 0,
n
), cuya
norma-2 es igual a
n
(peque na, por tanto) y A + A es singular. En otras palabras: la matriz
A es muy sensible a modicaciones en la ultima entrada diagonal. Este razonamiento puede
generalizarse a matrices no necesariamente diagonales a partir de la SVD. Concretamente, si
A = UV

es la SVD de A, y el valor singular


i
es peque no, una perturbaci on mala
ser a A = U diag(0, . . . , 0,
i
, 0, . . . , 0)V

, donde el valor
i
est a en la entrada (i, i).
La matriz perturbada A + A es singular (hemos eliminado el i- esimo valor singular) y la
norma-2 de la perturbaci on es igual a
i
(peque na, por tanto). Este procedimiento, que consiste
en localizar perturbaciones malas de rango bajo de A, est a ntimamente relacionado con lo
que vimos en la Secci on 3.3 acerca de las aproximaciones de rango bajo de una matriz A.
Consideremos ahora la soluci on del sistema lineal (1.5). Si la matriz A de coecientes del
sistema se perturba por una matriz A y denotamos por

A = A+A, el sistema perturbado es

A x = b, (6.9)
donde hemos usado una notaci on distinta para la soluci on de (6.9) para evitar confundirla con
la soluci on de (1.5). Como consecuencia inmediata del Teorema 6.4.1 y del Corolario 6.4.4,
tenemos
Teorema 6.4.7 Sean A R
nn
una matriz invertible y | | una norma vectorial en R
n
y su
norma matricial inducida en R
nn
. Sea A R
nn
una matriz tal que A < 1/ | A
1
| y
denotemos

A = A + A. Sean x, x las soluciones de los sistemas lineales Ax = b y

A x = b.
Entonces
| x x |
| x |

c(A)
1 c(A)
A
A
| A |
| A |
. (6.10)
Igual que en el caso de la f ormula (6.8), la f ormula (6.10) nos dice que si A est a bien
condicionada, los errores en la soluci on del sistema (1.5) no dieren mucho de los errores en
los datos (matriz de coecientes).
Si se perturba tambi en el t ermino independiente, tenemos el siguiente resultado, que pro-
porciona una cota para el error relativo de las soluciones.
114 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
Teorema 6.4.8 Sean A R
nn
una matriz invertible y | | una norma vectorial en R
n
y la
norma matricial inducida en R
nn
. Sea A R
nn
una matriz tal que A < 1/ | A
1
| y
b, b dos vectores de R
n
(con b ,= 0) y denotemos

A = A + A,

b = b + b. Si x, x son las
soluciones de los sistemas lineales Ax = b y

A x =

b, entonces
| x x |
| x |

c(A)
1 c(A)
A
A
_
| A |
| A |
+
| b |
| b |
_
. (6.11)
Como se ve, la cota del error relativo en (6.11) consta de dos t erminos. El primero de ellos
corresponde al error en la matriz de coecientes A y el segundo de ellos al error en el t ermino
independiente b.
Problema Resuelto 6.4.9 Fijemos = 10
4
en la matriz A

del Problema Resuelto 6.4.6,


llamemos A = A
10
4 y consideremos el sistema lienal Ax = [1 1]
T
.
a) Si A es una perturbaci on de A con | A |
2
= 10
4
, obtener una cota te orica del error
cometido en las soluciones del sistema.
b) Obtener una perturbaci on particular para la cual el error en las soluciones sea aproxi-
madamente igual a la cota del apartado anterior.
Soluci on.
a) Vamos a calcular la cota te orica (6.10) establecida en el Teorema 6.4.7. Los valores que
aparecen en dicha cota son los siguientes
c
2
(A) = 4002 , | A |
2
= [
max
(A)[ = 2.0005 , | A |
2
= 10
4
,
por lo que
| x x |
2
| x |
2

4002
0.79995

10
4
2.0005
= 0.2500781494 .
Esto signica que una perturbaci on de una diezmil esima en la matriz de coecientes del
sistema puede provocar un error de m as de dos d ecimas en la soluci on. Naturalmente
que esto es s olo una cota, pero en el siguiente apartado veremos que, de hecho, existe
una perturbaci on para la que esta cota se alcanza.
b) La soluci on del sistema no perturbado Ax = [1 1]
T
es
_
x
1
x
2
_
=
_
2001
2000
_
.
Si
A =
_
0.0001 0
0 0.0001
_
entonces | A |
2
= 10
4
y la soluci on del sistema perturbado (A+A) x = [1 1]
T
es
_
x
1
x
2
_
=
_
1667.430
1666.597
_
.
6.4 Errores en inversas y en soluciones de sistemas lineales. N umero de condici on 115
El error relativo cometido es
| x x |
2
| x |
2
= 0.16670 .
No obstante, podemos encontrar una perturbaci on para la cual el error cometido es pr acti-
camente igual a la cota obtenida en el apartado anterior. M as a un, podemos obtener una
perturbaci on de rango 1. Para ello, seguimos el procedimiento que hemos descrito en la
p agina 113. Para ello necesitamos en primer lugar conocer la SVD de A. El programa
Matlab nos la ofrece con poco esfuerzo (el de teclear unas cuantas veces). A = UV

,
donde
U =
_
0.7069299824 0.7072835358
0.7072835358 0.7069299824
_
, =
_
2.00050 0
0 0.000499875
_
,
V =
_
0.7069299824 0.7072835358
0.7072835358 0.7069299824
_
.
Tomemos la siguiente perturbaci on de norma 10
4
y rango 1:
A = U
_
0 0
0 10
4
_
V

= 10
4

_
0.5002500000 0.4999999375
0.4999999375 0.4997500000
_
.
Para esta perturbaci on la soluci on del sistema (A+A) x = b es
_
x
1
x
2
_
=
_
2501.4064082275
2500.1562675742
_
,
y el error relativo cometido es
| x x |
2
| x |
2
= 0.2502188712 .
Aunque la perturbaci on anterior es muy especca, la mayora de las perturbaciones
implican un error relativo en la soluci on de aproximadamente el orden del n umero de
condici on de A. En la siguiente tabla mostramos los errores relativos en las soluciones
de los sistemas perturbados para 10 perturbaciones aleatorias de norma 10
4
.
Error relativo
1 0.1755514003
2 0.2109933108
3 0.1831942131
4 0.2399546841
5 0.1098550106
6 0.1026737324
7 0.1097760122
8 0.1844815833
9 0.1834607827
10 0.1610196936
Como se puede ver, en todos los casos el error es del orden de entre 1000 y 2000 veces
m as grande que el tama no de la perturbaci on.
116 6. NORMAS DE VECTORES Y MATRICES. SENSIBILIDAD DE MATRICES
7
INTRODUCCI

ON A LOS M

ETODOS ITERATIVOS
Vamos a estudiar dos m etodos iterativos que se aplican a la resoluci on de sistemas de
ecuaciones lineales: el m etodo de Jacobi y el m etodo de Gauss-Seidel. En la Secci on 7.1,
veremos por encima en qu e consisten los m etodos iterativos en general y, posteriormente, en
la Secci on 7.2 veremos c omo se aplican a la resoluci on de sistemas lineales y estudiaremos en
particular los dos m etodos que acabamos de mencionar.
7.1 M etodos iterativos
Dada una matriz B C
nn
y un vector c C
n
, generamos la sucesi on
x
0
C
n
, x
k+1
= Bx
k
+c . (7.1)
Nos referiremos a dicha sucesi on como m etodo iterativo.
Diremos que el m etodo iterativo (7.1) es convergente si existe lm
k
x
k
y el lmite, que
denotaremos por x, no depende del valor inicial x
0
.
Nuestra intenci on es aplicar un m etodo iterativo a la resoluci on del sistema lineal
Ax = b , (7.2)
donde A C
nn
y b C
n
. En lo sucesivo, supondremos que A es invertible, con lo cual
el sistema tiene soluci on unica. Para aplicar el m etodo (7.1) al sistema debemos asegurarnos
de que el lmite, caso de existir, ha de ser la soluci on de dicho sistema. Para que esto ocurra,
si llamamos x al lmite de la sucesi on (7.1) y a la soluci on del sistema (7.2), entonces, por
un lado, x = A
1
b y, por otro, tomando lmites en (7.1), ha de ser x = Bx + c. Igualando,
llegamos a la siguiente denici on.
117
118 7. INTRODUCCI

ON A LOS M

ETODOS ITERATIVOS
Denici on 7.1.1 Diremos que el m etodo (7.1) es consistente con el sistema (7.2) si
c = (I B)A
1
b.
El siguiente resultado nos da una caracterizaci on de los m etodos iterativos convergentes
que son consistentes con el sistema (7.2). Siguiendo con la notaci on del tema anterior, (B)
denotar a el radio espectral de B.
Teorema 7.1.2 Si (7.1) es un m etodo consistente con el sistema (7.2) entonces los siguientes
enunciados son equivalentes.
i) El m etodo iterativo (7.1) es convergente.
ii) (B) < 1.
iii) Existe una norma matricial | | tal que | B |< 1.
Demostraci on. La equivalencia entre los apartados ii) y iii) es consecuencia inmediata del
Teorema 6.3.1. Vamos a demostrar la equivalencia entre i) y ii).
Sea x la soluci on del sistema (7.2). Por la hip otesis de consistencia tenemos que
B(x
k
x) = Bx
k
Bx = x
k+1
cBA
1
b = x
k+1
(I B)A
1
bBA
1
b = x
k+1
x.
Iterando la identidad anterior llegamos a
x
k+1
x = B
k
(x
0
x). (7.3)
En primer lugar, supongamos que (B) < 1. Como (B) < 1, el Corolario 6.3.2 nos dice
que lm
k
B
k
= 0, luego lmx
k+1
= x, es decir, el m etodo es convergente a x.
Recprocamente, supongamos que (B) > 1. Entonces, existe al menos un autovalor de B,

0
, de m odulo mayor que 1. Si v
0
es el autovector asociado a
0
, tenemos que Bv
0
=
0
v
0
. Si
tomamos x
0
= v
0
+x como vector inicial del m etodo iterativo, se tiene que, usando (7.3)
x
k+1
x = B
k
(x
0
x) = B
k
v
0
=
k
v
0
.
Como [[ > 1,
k
no converge a 0, luego el vector
k
v
0
tampoco converge al vector 0. Eso
signica, por la ultima igualdad, que el m etodo (7.1) no converge a x.
En caso de que el m etodo iterativo (7.1) sea convergente, el k- esimo t ermino de la sucesi on,
x
k
, es una aproximaci on al lmite, x. El siguiente resultado nos da una cota del error que
cometemos al aproximar x por x
k+1
.
Proposici on 7.1.3 Sea (7.1) un m etodo consistente con el sistema (7.2) y | | una norma
vectorial y su correspondiente norma matricial inducida. Entonces, si | B |< 1, el m etodo
iterativo (7.1) es convergente a un vector x con la siguiente cota de error
| x
k+1
x |
| B |
k+1
1 | B |
| x
1
x
0
| . (7.4)
7.2 Aplicaci on a los sistemas lineales. M etodos de Jacobi y Gauss-Seidel 119
7.2 Aplicaci on a los sistemas lineales. M etodos de Jacobi y Gauss-
Seidel
Ahora vamos a ver c omo podemos aplicar los m etodos iterativos, denidos en la secci on
anterior, a la resoluci on de sistemas lineales. Para aplicar los m etodos anteriores a la resoluci on
del sistema (7.2) haremos lo siguiente:
1. Descomponer A = M N, donde M es una matriz invertible y cuya inversa sea f acil
de obtener (por ejemplo, una matriz diagonal, triangular...).
2. El sistema (7.2) es equivalente a
(M N)x = b Mx = Nx +b x = M
1
Nx +M
1
b = Bx +c ,
donde B = M
1
N, c = M
1
b.
N otese que, si B es la matriz reci en denida, entonces I B = I M
1
N = M
1
(M
N) = M
1
A, que es invertible por serlo A. Adem as (I B)A
1
b = M
1
b = c, luego el
m etodo iterativo (7.1) es consistente con el sistema (7.2).
Tambi en es importante notar que, para una matriz concreta, A, hay diferentes elecciones
de la matriz B. Los m etodos de Jacobi y Gauss-Seidel se obtienen precisamente a partir de
dos elecciones distintas de la matriz B. Ambos son v alidos para una matriz A con entradas
diagonales no nulas y se basan en la siguiente descomposici on de la matriz A:
A = D L U ,
donde D es una matriz diagonal con entradas diagonales no nulas (por tanto, invertible), L es
una matriz triangular inferior con entradas diagonal nulas y U es una matriz triangular superior
con entradas diagonales nulas. Naturalmente que una descomposici on as es siempre posible
(separando la parte diagonal de la parte superior y de la parte inferior de A) si que A tiene
entradas diagonales no nulas.
M etodo de Jacobi: Consiste en tomar M = D, N = L +U, es decir:
B
J
= D
1
(L +U) = I
n
D
1
A.
M etodo de Gauss-Seidel: Consiste en tomar M = D L, N = U, es decir:
B
GS
= (D L)
1
U = I
n
(D L)
1
A.
Los m etodos anteriores son utilizados frecuentemente en la resoluci on de sistemas lineales
con muchas ecuaciones. Recu erdese que la matriz A debe tener entradas diagonales no nulas,
pues de lo contrario la matriz D no sera invertible.
La pregunta que debemos formularnos ahora es: Para qu e matrices son convergentes los
m etodos de Jacobi y Gauss-Seidel? Desgraciadamente, no existe una respuesta que abarque a
cualquier matriz A(con entradas diagonales no nulas). Por supuesto que, para una matriz dada,
siempre se puede usar la Proposici on 7.1.3. Para ello hay que calcular el radio espectral de la
matriz B asociada al m etodo. No obstante, hay un tipo de matrices para las cuales esto no es
120 7. INTRODUCCI

ON A LOS M

ETODOS ITERATIVOS
necesario porque podemos asegurar que los m etodos son convergentes. Estas matrices son un
subconjunto particular de las matrices tridiagonales. Diremos que una matriz A es tridiagonal
si A(i, j) = 0 para [i j[ > 1. En otras palabras, las matrices tridiagonales son aquellas que
todas las entradas que no est an ni en la diagonal principal ni en las dos diagonales adyacentes
(la superior y la inferior) son nulas.
Proposici on 7.2.1 Si A es una matriz tridiagonal hermtica denida positiva, entonces los
m etodos de Jacobi y Gauss-Seidel para A son convergentes.
Diremos que una matriz A C
nn
es diagonalmente dominante por las si
[a
ii
[
n

j = 1
j = i
[a
ij
[, i = 1, . . . , n
y que A es estrictamente diagonalmente dominante por las si
[a
ii
[ >
n

j = 1
j = i
[a
ij
[, i = 1, . . . , n.
En otras palaras, A es diagonalmente dominante si el m odulo de la entrada diagonal de cada
la es mayor o igual que la suma de los m odulos de las restantes entradas de la la.
Proposici on 7.2.2 Si Aes estrictamente diagonalmente dominante por las entonces los m eto-
dos de Jacobi y Gauss-Seidel para A son convergentes.
Problema Resuelto 7.2.3 1) Para cada una de las matrices A
i
siguientes estudiar si los
m etodos de Jacobi y Gauss-Seidel convergen a la soluci on del sistema lineal A
i
x = b,
donde b R
3
es un vector cualquiera.
i) A
1
=
_
_
4 1 2
1 2 0
1 1 3
_
_
ii) A
2
=
_
_
5 2 0
2 1 1
0 1 6
_
_
iii) A
3
=
_
_
1 1 1
2 1 2
1 2 1
_
_
2) Tomemos b =
_
4 2 3

T
. Para cada uno de los m etodos convergentes, efect ua dos
iteraciones en cada uno de los dos m etodos y estima el n umero de iteraciones necesario
para aproximar la soluci on con un error menor que una mil esima partiendo del vector
x
0
= 0
R
3.
Soluci on.
7.2 Aplicaci on a los sistemas lineales. M etodos de Jacobi y Gauss-Seidel 121
1) i) La matriz A
1
es estrictamente diagonalmente dominante por las, pues
4 > 1 + 2, 2 > [ 1[ + 0, 3 > 1 + 1,
luego, por la Proposici on 7.2.1, los m etodos de Jacobi y Gauss-Seidel asociados a
la matriz A
1
son convergentes.
ii) La matriz A
2
es tridiagonal y hermtica (sim etrica). Como los menores principales
son positivos
5 > 0,

5 2
2 1

= 1 > 0,

5 2 0
2 1 1
0 1 6

= 1 > 0
sabemos (Teorema 4.3.5) que tambi en es denida positiva. Por la Proposici on 7.2.2
los m etodos de Jacobi y Gauss-Seidel asociados a la matriz A
2
son convergentes.
iii) Como
A =
_
_
1 0 0
0 1 0
0 0 1
_
_
. .
D

_
_
0 0 0
2 0 0
1 2 0
_
_
. .
L

_
_
0 1 1
0 0 2
0 0 0
_
_
. .
U
,
la matriz del m etodo de Jacobi es
B
J
= D
1
(L +U) = L +U =
_
_
0 1 1
2 0 2
1 2 0
_
_
.
Esta matriz tiene un autovalor igual a 1, luego (B
J
) 1 y, por el Teorema 7.1.2
el m etodo no es convergente.
La matriz de Gauss-Seidel es
B
GS
= (D L)
1
U =
_
_
0 1 1
0 2 0
0 5 1
_
_
,
cuyos autovalores son
1
= 0,
2
= 1,
3
= 2, por lo que (B
GS
) = 2 y el
m etodo no es convergente (Teorema 7.1.2).
2) La matriz de Jacobi asociada a la matriz A
1
es
B
J
= D
1
(L +U) =
_
_
0 1/4 1/2
1/2 0 0
1/3 1/3 0
_
_
Por otro lado,
c = D
1
b =
_
_
1
1
1
_
_
.
122 7. INTRODUCCI

ON A LOS M

ETODOS ITERATIVOS
Tomando x
0
= 0 tenemos
x
1
= B
J
x
0
+c = c =
_
_
1
1
1
_
_
, x
2
= B
J
x
1
+c =
_
_
1/4
3/2
1/3
_
_
.
La matriz de Gauss-Seidel para la matriz A
1
es
B
GS
= (D L)
1
U =
_
_
0 1/4 1/2
0 1/8 1/4
0 1/8 1/4
_
_
y
c = (D L)
1
b =
_
_
1
3/2
1/6
_
_
Entonces, para x
0
= 0,
x
1
= B
GS
x
0
+c = c =
_
_
1
1
1
_
_
, x
2
= B
GS
x
1
+c =
_
_
13/24
61/48
19/48
_
_
.
Para estimar el error usaremos la cota (7.4). Como, por el Teorema 6.3.1 hay una norma
tan pr oxima como se desee al radio espectral, podemos tomar (B) en lugar de | B | en
dicha f ormula.
Para el m etodo de Jacobi, primero calculamos con Matlab la norma-2 de la matriz B
J
usando el comando norm. El resultado es | B
J
|
2
= 0.65758
Sustituyendo en la cota (7.4) obtenemos
| x
k+1
x |
2

0.65758
k+1
1 0.65758

3 = 5.05829 0.65758
k+1
.
Para encontrar el primer valor de k para el que la cota anterior es menor que una mil esima
resolvemos la inecuaci on en k :
5.058290.65758
k+1
0.001 k+1 log (0.001/5.05829) / log(0.65758) = 20.34604.
As pues, podemos asegurar que x
20
se aproxima a la soluci on del sistema con un error
menor que una mil esima.
Para el m etodo de Gauss-Seidel procedemos como antes, calculando primero con Matlab
la norma-2 de B
GS
. El resultado es | B
GS
|
2
= 0.68465. Ahora
| x
k+1
x |
2

0.68465
k+1
1 0.68465
1.81046 = 5.74118 0.68465
k+1
.
De la misma forma, resolvemos
5.741180.68465
k+1
0.001 k+1 log (0.001/5.74118) / log(0.68465) = 22.84671,
7.2 Aplicaci on a los sistemas lineales. M etodos de Jacobi y Gauss-Seidel 123
lo que nos asegura que x
22
es una aproximaci on a la soluci on con un error menor que
una mil esima.
En realidad, estas estimaciones no son ajustadas. De hecho, para el m etodo de Jacobi
x
9
ya aproxima la soluci on con un error menor que una mil esima, mientras que en el
m etodo de Gauss-Seidel esto ocurre con x
5
.
El apartado ii) se resuelve de manera an aloga.

You might also like