You are on page 1of 395

lgebra Lineal

Teora y Prctica
Miguel A. Perell
c 2000 - 2002 CRESLINE
Versin 20020715
Els autors, 2002; Edicions UPC, 2002
ii
Els autors, 2002; Edicions UPC, 2002
ndice general
Introduccin XI
I Teora 1
1. Espacios vectoriales 3
1.1. Hacia el concepto de vector . . . . . . . . . . . . . . . . . . . . . 3
1.2. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . 3
1.3. Propiedades elementales . . . . . . . . . . . . . . . . . . . . . . . 7
1.4. Producto de espacios vectoriales . . . . . . . . . . . . . . . . . . 8
1.5. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6. Interseccin de subespacios vectoriales . . . . . . . . . . . . . . . 12
1.7. Subespacio engendrado por un subconjunto . . . . . . . . . . . . 13
1.8. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . 14
1.9. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 18
1.10. Clausura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.11. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.12. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 25
1.13. Bases de un espacio vectorial de dimensin nita . . . . . . . . . 30
1.14. Dimensin de un subespacio vectorial . . . . . . . . . . . . . . . . 34
1.15. Espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . . 38
1.16. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . 40
1.17. Isomorsmos de espacios vectoriales . . . . . . . . . . . . . . . . 43
1.18. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 48
2. Aplicaciones lineales 53
2.1. Denicin y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2. Ncleo e imagen de una aplicacin lineal . . . . . . . . . . . . . . 55
2.3. Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . 57
2.4. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . 62
2.5. Teoremas de isomorsmo . . . . . . . . . . . . . . . . . . . . . . 65
2.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 68
iii
Els autors, 2002; Edicions UPC, 2002
iv NDICE GENERAL
3. Matrices 71
3.1. Denicin de matriz . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.1.1. Tipos especiales de matrices . . . . . . . . . . . . . . . . . 73
3.2. Espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . 76
3.2.1. Suma de matrices . . . . . . . . . . . . . . . . . . . . . . 76
3.2.2. Multiplicacin escalar de matrices . . . . . . . . . . . . . 77
3.3. Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . 80
3.4. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.5. Imagen de un vector por de una aplicacin lineal . . . . . . . . . 85
3.6. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . 86
3.7. Trasposicin de matrices . . . . . . . . . . . . . . . . . . . . . . . 90
3.8. Cambios de base en un espacio vectorial . . . . . . . . . . . . . . 92
3.9. Cambios de base en una aplicacin lineal . . . . . . . . . . . . . . 94
3.9.1. Matrices equivalentes . . . . . . . . . . . . . . . . . . . . 96
3.9.2. Matrices semejantes . . . . . . . . . . . . . . . . . . . . . 97
3.10. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.11. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 100
4. Determinantes 111
4.1. Determinante de n vectores . . . . . . . . . . . . . . . . . . . . . 111
4.1.1. Propiedades de las formas multilineales alternadas . . . . 113
4.1.2. Propiedades de los determinantes . . . . . . . . . . . . . . 120
4.2. Determinante de un endomorsmo . . . . . . . . . . . . . . . . . 122
4.3. Determinante de una matriz cuadrada . . . . . . . . . . . . . . . 126
4.3.1. Desarrollo por los elementos de una la o columna . . . . 129
4.3.2. Clculo del rango de una matriz por determinantes . . . . 132
4.3.3. Clculo por determinantes de la matriz inversa . . . . . . 134
5. Sistemas de ecuaciones lineales 137
5.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . 137
5.2. Existencia de soluciones de un sistema de ecuaciones lineales . . 138
5.3. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.4. Resolucin de un sistema de ecuaciones lineales . . . . . . . . . . 141
5.5. Clasicacin de los sistemas de ecuaciones lineales . . . . . . . . 148
5.6. Mtodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
5.7. Clculo de la matriz inversa . . . . . . . . . . . . . . . . . . . . . 153
5.8. Estudio de las ecuaciones AX = B . . . . . . . . . . . . . . . . . 155
6. Diagonalizacin de endomorsmos 159
6.1. Vectores propios y valores propios. Polinomio caracterstico . . . 159
6.2. Diagonalizacin de endomorsmos . . . . . . . . . . . . . . . . . 161
Els autors, 2002; Edicions UPC, 2002
NDICE GENERAL v
7. La forma reducida de Jordan 167
7.1. Polinomio mnimo . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 169
7.3. El teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 175
7.4. Matriz reducida (general) de un endomorsmo . . . . . . . . . . 177
7.5. Matriz reducida de Jordan . . . . . . . . . . . . . . . . . . . . . . 181
8. Formas bilineales simtricas y formas cuadrticas 185
8.1. Denicin y primeras propiedades . . . . . . . . . . . . . . . . . . 185
8.2. Ortogonalidad. Elementos istropos . . . . . . . . . . . . . . . . 195
8.2.1. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . 200
8.2.2. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . 204
8.3. Formas bilineales simtricas reales . . . . . . . . . . . . . . . . . 207
8.3.1. Endomorsmos adjuntos y autoadjuntos . . . . . . . . . . 213
8.3.2. Diagonalizacin de matrices simtricas . . . . . . . . . . . 218
8.4. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
8.4.1. Reduccin de las formas cuadrticas reales . . . . . . . . 223
8.4.2. Clasicacin de formas cuadrticas reales . . . . . . . . . 228
II Prctica 233
9. Espacios vectoriales 235
9.1. Concepto de espacio vectorial . . . . . . . . . . . . . . . . . . . . 235
9.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 242
9.3. Interseccin de subespacios vectoriales . . . . . . . . . . . . . . . 245
9.4. Subespacio engendrado por un conjunto . . . . . . . . . . . . . . 246
9.5. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . . 246
9.6. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 247
9.7. Clausura lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
9.8. Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . 252
9.9. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 253
9.10. Bases de un espacio vectorial de dimensin nita . . . . . . . . . 255
9.11. Dimensin de un subespacio vectorial . . . . . . . . . . . . . . . . 257
9.12. Espacio vectorial cociente . . . . . . . . . . . . . . . . . . . . . . 259
9.13. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . 259
9.14. Producto de espacios vectoriales. Isomorsmos de espacios vecto-
riales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
9.15. Cambio de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 262
10.Aplicaciones lineales 265
10.1. Denicin y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 265
10.2. Ncleo e imagen de una aplicacin lineal . . . . . . . . . . . . . . 267
10.3. Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . 270
10.4. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . 275
10.5. Teoremas de isomorsmo . . . . . . . . . . . . . . . . . . . . . . 276
Els autors, 2002; Edicions UPC, 2002
vi NDICE GENERAL
10.6. El espacio de las aplicaciones lineales . . . . . . . . . . . . . . . . 277
11.Matrices 279
11.1. Denicin de matriz . . . . . . . . . . . . . . . . . . . . . . . . . 279
11.2. Espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . 279
11.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 281
11.4. Matriz asociada a una aplicacin lineal . . . . . . . . . . . . . . . 283
11.5. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . 283
11.6. Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
11.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 288
12.Determinantes 293
12.1. Formas multilineales. Propiedades . . . . . . . . . . . . . . . . . 293
12.2. Determinante de un endomorsmo . . . . . . . . . . . . . . . . . 294
12.3. Determinante de una matriz cuadrada. Propiedades . . . . . . . 295
13.Sistemas de ecuaciones lineales 303
14.Diagonalizacin de endomorsmos 313
14.1. Vectores y valores propios. Polinomio caracterstico . . . . . . . . 313
14.2. Diagonalizacin de matrices . . . . . . . . . . . . . . . . . . . . . 314
15.Forma reducida de Jordan 319
15.1. Polinomio mnimo . . . . . . . . . . . . . . . . . . . . . . . . . . 319
15.2. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 320
15.3. El teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 323
15.4. Matriz cannica de un endomorsmo . . . . . . . . . . . . . . . . 326
16.Formas bilineales simtricas y formas cuadrticas 331
16.1. Denicin y primeras propiedades . . . . . . . . . . . . . . . . . . 331
16.2. Ortogonalidad respecto a una forma bilineal simtrica . . . . . . 334
16.3. Formas bilineales simtricas reales . . . . . . . . . . . . . . . . . 339
16.4. Procedimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
III Apndices 347
A. Espacios vectoriales 349
B. Aplicaciones lineales 355
C. Matrices 361
D. Determinantes 365
E. Sistemas de ecuaciones lineales 369
F. Diagonalizacin de endomorsmos 371
Els autors, 2002; Edicions UPC, 2002
NDICE GENERAL vii
G. Forma reducida de Jordan 375
H. Formas bilineales simtricas y formas cuadrticas 379
Agradecimientos 381
Els autors, 2002; Edicions UPC, 2002
viii NDICE GENERAL
Els autors, 2002; Edicions UPC, 2002
Prefacio
El presente libro es slo una parte del curso que con el mismo ttulo se
ofrece de forma gratutita en www.aprendes.com. Su nico objetivo es presentar
sus contenidos en formato pdf para que el estudiante pueda obtener una copia
impresa de aquellos documentos que son de su inters. El estudiante, sin em-
bargo, debe tener en cuenta que al elegir el estudio por la va del documento
impreso no podr beneciarse de ninguna de las ayudas incorporadas en el curso
mediante interaccin, ni de ninguno de los exmenes tipo test donde podr pon-
er a prueba su nivel de conocimientos sobre un determinado tema. Este material
debe considerarse solamente como un soporte de repaso a los cursos interactivos
presentados por aprendes.com.
ix
Els autors, 2002; Edicions UPC, 2002
x PREFACIO
Els autors, 2002; Edicions UPC, 2002
Introduccin
El presente libro, dedicado al lgebra Lineal, est destinado a los estudiantes
de primer curso de las Facultades de Ciencias, Escuelas de Ingeniera y Arqui-
tectura, y su texto est dividido en tres partes: Teora, Prctica y Apndice.
La primera parte presenta una exposicin terica de cada tema por captulos.
En cada captulo se tratan los conceptos de forma rigurosa mediante deniciones,
se enuncian sus propiedades mediante teoremas y corolarios, y se acompaan
todas las demostraciones. En la exposicin se han incorporado ejemplos para
hacer ms fcil su compresin y su utilizacin en la prctica.
La segunda parte, como su nombre indica, es una cuidada seleccin de prob-
lemas resueltos de cada tema. En la mayora de los casos, los problemas se
presentan en cada captulo de esta parte bajo los mismos epgrafes que la ex-
posicin terica, y se han escrito los razonamientos que justican los pasos
realizados para llegar a la solucin de cada uno de ellos.
Finalmente, como apndice del texto, se han aadido listas de problemas
de cada uno de los temas tratados en las partes anteriores para que sirvan de
soporte a los estudiantes que quieran practicar y profundizar ms, as como la
bibliografa utilizada en el curso.
xi
Els autors, 2002; Edicions UPC, 2002
xii INTRODUCCIN
Els autors, 2002; Edicions UPC, 2002
Parte I
Teora
1
Els autors, 2002; Edicions UPC, 2002
Els autors, 2002; Edicions UPC, 2002
Captulo 1
Espacios vectoriales
1.1. Hacia el concepto de vector
La palabra vector es conocida de todos por la geometra. En el bachillerato,
se estudi la clase de objetos que denominamos vectores en geometra plana o
del espacio. Sin embargo, hay otras clases de objetos de la matemtica que
se comportan del mismo modo; comportarse del mismo modo signica poseer
las mismas propiedades. Descubrir estas propiedades es el primer paso hacia la
generalizacin.
El segundo paso es la axiomatizacin, es decir, elegir entre todas las
propiedades descubiertas aquellas que permitan deducir todas las dems; es-
tas propiedades se llaman entonces axiomas. Cualquier clase de objetos que
satisfaga estos axiomas se dir que se comportan como vectores.
El ltimo paso es desarrollar la teora matemtica con base en los axiomas
previamente elegidos. Los resultados que se obtienen de la teora constituyen
las propiedades de los vectores. Por tanto, cualquier clase de objetos que se
comporten como vectores tendrn estas propiedades.
Segn la teora matemtica, se llamar vector a cualquier elemento de un
espacio vectorial. Es preciso pues denir el concepto de espacio vectorial.
1.2. Concepto de espacio vectorial
Para saber si un conjunto es un espacio vectorial es necesario comprobar
que sobre l podemos denir dos operaciones. Una de ellas es interna, es decir,
estable respecto a los elementos del propio conjunto y, la otra, es externa y su
conjunto de operadores externo es un cuerpo conmutativo; decir que la operacin
es externa signica que es estable respecto a la actuacin del cuerpo sobre los
elementos del conjunto. Adems, estas dos operaciones deben satisfacer unas
determinadas propiedades, que se denominan axiomas.
Denicin 1 Dado un cuerpo conmutativo K, sea E un conjunto arbitrario de
3
Els autors, 2002; Edicions UPC, 2002
4 CAPTULO 1. ESPACIOS VECTORIALES
objetos sobre los cuales se denen dos operaciones, la adicin y la multiplicacin
por escalares (elementos de K). Por adicin se entiende una regla para asociar
con cada pareja de objetos u y v de E, un elemento u+v, llamado suma de u
y v. Por multiplicacin por escalares se entiende una regla para asociar con
cada escalar de K y cada objeto u de E, un elemento u, llamado producto de
u por el escalar . Si los axiomas siguientes son satisfechos por todos los objetos
u, v, w en E y todos los escalares , en K, entonces E recibe el nombre de
espacio vectorial sobre K, y a los objetos en E se les denomina entonces
vectores.
1. Si u y v son objetos de E, entonces u + v est en E (la adicin es una
operacin interna)
2. u + (v +w) = (u +v) +w (la adicin es asociativa)
3. u +v = v +u (la adicin es conmutativa)
4. Existe un objeto 0 en E, denominado vector cero, tal que 0+u = u+0 =
u (la adicin posee elemento neutro)
5. Para cada u en E, existe un objeto u en E, denominado opuesto de
u, tal que u + (u) = (u) + u = 0 (la adicin posee la propiedad del
elemento simtrico)
6. Si est en K y u en E, entonces u est en E (la multiplicacin por
escalares es una operacin externa y su conjunto de operadores es K)
7. (u +v) = u +v
8. ( +)u = u +u
9. (u) = ()u
10. 1u = u (1 es la unidad del cuerpo K)
Observacin 1 Hacemos las siguientes observaciones importantes:
1. En la teora de espacios vectoriales, el cuerpo K se ja de una vez para
siempre y se llama el cuerpo base. Sus elementos se llaman escalares
y se designan por letras griegas.
2. A los elementos de los espacios vectoriales se les llama vectores y se
designan por letras minsculas en negrita. Para distinguir el conjunto de
su estructura de espacio vectorial, utilizaremos la siguiente notacin: es-
cribiremos E para referirnos simplemente al conjunto, y E para referirnos
a su estructura de espacio vectorial sobre K.
3. En realidad, la distincin entre escalares y vectores no tiene ningn sentido
matemtico ya que como veremos ms abajo los escalares se comportan
tambin como vectores.
Els autors, 2002; Edicions UPC, 2002
1.2. CONCEPTO DE ESPACIO VECTORIAL 5
4. Se ha utilizado el mismo signo + para denotar dos operaciones distintas
(la adicin en K y la adicin en el espacio vectorial), pero no da lugar a
confusin si nos jamos en los elementos que une el signo + en cada caso.
Lo mismo puede decirse de la multiplicacin en K y de la multiplicacin
por escalares.
5. El conjunto E dotado con la adicin tiene la estructura de grupo con-
mutativo o abeliano al satisfacer los axiomas 1-5. Se supone en esta
seccin que el lector est familiarizado con las propiedades elementales de
la teora de grupos.
6. En particular, un espacio vectorial sobre el cuerpo R de los nmeros reales
se llama un espacio vectorial real, y un espacio vectorial sobre el cuerpo
C de los nmeros complejos, un espacio vectorial complejo.
7. El lector debe tener presente que, en la denicin de espacio vectorial, no
se especica la naturaleza de lo que llamamos despus vectores ni la de
las operaciones que denominamos adicin y multiplicacin por escalares.
Cualquier clase de objetos que se desee puede servir como vectores, todo lo
que se requiere es que se satisfagan los axiomas de los espacios vectoriales.
En los ejemplos que siguen, dan cierta idea de la diversidad de espacios
vectoriales posibles.
Ejemplo 1 Todo cuerpo conmutativo es un espacio vectorial sobre s mismo,
lo que muestra que los escalares son en este caso tambin vectores; Q, R y
C son espacios vectoriales sobre s mismo.
Ejemplo 2 El cuerpo de los nmeros reales R es un espacio vectorial sobre el
cuerpo Q de los nmeros racionales;

2, , 5

2+/3, etc., son vectores de este


espacio.
Ejemplo 3 Tomemos E = C, K = R y las operaciones
(a +bi) + (c +di) = (a +c) + (b +d)i
(a +bi) = a +bi
donde a, b, c, d, R, entonces C es un espacio vectorial real; es tambin un
espacio vectorial sobre s mismo. Es importante saber que estas dos estructuras
son diferentes.
Ejemplo 4 Tomemos K = R y como E el conjunto de los vectores de origen
dado O del espacio ordinario. Denimos la suma de dos vectores por la regla
del paralelogramo y el producto de un nmero real por un vector v como el
vector obtenido aplicando a v la homotecia de centro O y razn . De este modo
se obtiene un espacio vectorial real. En este ejemplo est el origen de la nocin
general de espacio vectorial y explica adems el empleo de la palabra vector
para designar a sus elementos.
Els autors, 2002; Edicions UPC, 2002
6 CAPTULO 1. ESPACIOS VECTORIALES
Ejemplo 5 Se llama vector de orden n sobre K a toda n tupla ordenada
(x
1
, ..., x
n
) de elementos del cuerpo conmutativo K. Los elementos x
i
se llaman
componentes del vector. El elemento x
i
recibe entoces el nombre de compo-
nente i esima del vector. Dos vectores de orden n son iguales si y slo si sus
componentes son iguales. Distinguiremos entre vector la
( x
1
x
n
)
y vector columna
_
_
_
x
1
.
.
.
x
n
_
_
_
Es fcil dotar al conjunto de estos vectores de estructura de espacio vectorial
sobre K. La adicin se dene por
(x
1
, ..., x
n
) + (y
1
, ..., y
n
) = (x
1
+y
1
, ..., x
n
+y
n
)
El elemento neutro es 0 = (0, ..., 0) y el opuesto de (x
1
, ..., x
n
) es (x
1
, ..., x
n
).
La multiplicacin por un escalar K se dene por
(x
1
, ..., x
n
) = (x
1
, ..., x
n
)
Es inmediato comprobar que se cumplen todos los axiomas de espacio vectorial,
ya que quedan reducidos a las propiedades elementales entre elementos del cuerpo
K. Este espacio vectorial se denota por K
n
. Este ejemplo tiene su origen en la
geometra analtica al representar un vector por sus componentes en los ejes de
coordenadas.
Ejemplo 6 El conjunto
R
n
[x] =

a
0
+a
1
x +a
2
x
2
+... +a
n
x
n
: a
0
, a
1
, a
2
, ..., a
n
R

de los polinomios de grado a lo sumo n con coecientes reales y las operaciones


(a
0
+a
1
x +a
2
x
2
+... +a
n
x
n
) + (b
0
+b
1
x +b
2
x
2
+... +b
n
x
n
) =
(a
0
+b
0
) + (a
1
+b
1
)x + (a
2
+b
2
)x
2
+... + (a
n
+b
n
)x
n
(a
0
+a
1
x +a
2
x
2
+... +a
n
x
n
) = a
0
+a
1
x +a
2
x
2
+... +a
n
x
n
forman un espacio vectorial real.
Ejemplo 7 El conjunto F(R, R) = {f : f : R R} de las funciones reales de
variable real y las operaciones (f, g) 7 f + g y (, f) 7 f denidas como
sigue
(f +g)(x) = f(x) +g(x)
(f)(x) = f(x)
forman un espacio vectorial real.
Els autors, 2002; Edicions UPC, 2002
1.3. PROPIEDADES ELEMENTALES 7
Ejemplo 8 El conjunto M
nm
(R) de las matrices de orden n m con coe-
cientes reales junto con las operaciones de adicin matricial y multiplicacin
escalar:
(a
ij
) + (b
ij
) = (a
ij
+b
ij
)
(a
ij
) = (a
ij
)
donde 1 i n y 1 j m, forman un espacio vectorial real.
Ejemplo 9 El conjunto E de todos los puntos del plano que se encuentran en
el primer cuadrante no es un espacio vectorial real. Para ver esto, obsrvese que
el punto de coordenadas (1, 1) est en E, pero (1)(1, 1) = (1, 1) no lo est.
Ejemplo 10 El conjunto de los polinomios de segundo grado con coecientes
reales no es un espacio vectorial real. Para ver esto, consideremos los siguientes
polinomios de segundo grado:
p(x) = x
2
y q(x) = x
2
+x + 1
Entonces, su suma no es un polinomios de segundo grado, pues
p(x) +q(x) = x + 1
Observacin 2 Sera interesante que el lector probara todas los axiomas de los
espacios vectoriales en los ejemplos anteriores; es fcil aunque un poco largo.
1.3. Propiedades elementales
Como consecuencia de la denicin, se obtienen los siguientes resultados.
Teorema 1 Para cualquier u de E y de K, se cumple:
1. 0u = 0
2. 0 = 0
3. u = 0 implica = 0 o u = 0
4. (1)u = u
Demostracin: (1.) En efecto, aplicando el axioma 8, se tiene
0u = (0 + 0)u = 0u + 0u
y, de aqu, por la unicidad del vector cero, se deduce 0u = 0.
(2.) En efecto, aplicando los axiomas 4 y 7, se tiene
0 = (0 +0) = 0 +0
Els autors, 2002; Edicions UPC, 2002
8 CAPTULO 1. ESPACIOS VECTORIALES
y, de aqu, por la misma razn de antes, se deduce 0 = 0.
(3.) En efecto, si 6= 0, es invertible en K. Entonces, aplicando el axioma
9 y el apartado anterior, se tiene
u = 1u = (
1
)u =
1
(u) =
1
0 = 0
y de aqu, se deduce lo que queramos demostrar.
(4.) En efecto, aplicando los axiomas 10 y 8, y el apartado 1, se tiene
u + (1)u = 1u + (1)u = (1 + (1))u = 0u = 0
de donde, por la unicidad del opuesto de u, se tiene lo que queramos probar.
1.4. Producto de espacios vectoriales
El procedimiento que nos ha permitido denir K
n
a partir de K puede gen-
eralizarse para construir nuevos espacios a partir de espacios conocidos.
Sean E
1
y E
2
dos espacios vectoriales sobre el mismo cuerpo conmutativo K.
Consideremos el conjunto producto E
1
E
2
y las dos operaciones siguientes:
(u
1
, u
2
) + (v
1
, v
2
) = (u
1
+v
1
, u
2
+v
2
)
(u
1
, u
2
) = (u
1
, u
2
)
Entonces con estos datos tenemos un espacio vectorial sobre K que se llama
espacio vectorial producto E
1
E
2
.
Del mismo modo se dene el producto de n espacios vectoriales E
1
, ..., E
n
sobre un mismo cuerpo K. Las operaciones son en este caso
(u
1
, u
2
, ..., u
n
) + (v
1
, v
2
, ..., v
n
) = (u
1
+v
1
, u
2
+v
2
, ..., u
n
+v
n
)
(u
1
, u
2
, ..., u
n
) = (u
1
, u
2
, ..., u
n
)
que denen el espacio vectorial producto E
1
E
2
E
n
.
Observacin 3 De nuevo hacemos la sugerencia de que el lector haga la prueba
de las dos armaciones anteriores.
Sabemos que K es un espacio vectorial sobre s mismo, entonces, tomando
E
1
= E
2
= = E
n
= K, se tiene el espacio vectorial K
n
sobre K. Este espacio
vectorial es el mismo que el del ejemplo 5.
Ejemplo 11 R
n
es un espacio vectorial real.
Ejemplo 12 C
n
es un espacio vectorial tanto real como complejo.
Els autors, 2002; Edicions UPC, 2002
1.5. SUBESPACIOS VECTORIALES 9
1.5. Subespacios vectoriales
Si E es un espacio vectorial sobre K, entonces ciertos subconjuntos de E
forman por s mismos espacios vectoriales sobre el mismo cuerpo, junto con la
adicin y multiplicacin por escalares denidas en E. En esta seccin se estudia
con detalle estos subconjuntos.
Denicin 2 Dado un espacio vectorial E sobre K, se llama subespacio vec-
torial de E a todo subconjunto de E que es tambin un espacio vectorial con las
mismas operaciones de adicin y multiplicacin por escalares denidas en E.
Teorema 2 Para que un subconjunto S no vaco de E sea un subespacio vecto-
rial de E es necesario y suciente que se cumplan las dos condiciones siguientes:
1. para todo u, v S, u +v S
2. para todo u S y K, u S
Demostracin: Las dos condiciones son sucientes. En efecto, es claro que +
es asociativa y conmutativa en S al serlo en E. Adems, si u S y 1 K,
entonces (1)u = u S y adems u + (u) = 0 S. De este modo S con la
suma es grupo conmutativo. Se comprueba en seguida que se cumplen los dems
axiomas.
Las dos condiciones son necesarias. En efecto, si S es un espacio vectori-
al con las mismas operaciones denidas en E se cumplen trivialmente las dos
condiciones (son los axiomas 1 y 6).
Teorema 3 Un subconjunto S no vaco de E es un subespacio vectorial de E si
y slo si, para todo u, v S y todo , K, se cumple que
u +v S
Demostracin: La condicin es suciente. En efecto, si u, v S, puesto que
1, 1 K, entonces
1u + 1v = u +v S
y
1u + (1)u = u + (u) = 0 S
De esta ltima relacin se sigue que si K, entonces
u + 0 = u S
Por tanto, por el teorema anterior, se deduce que S es un subespacio vectorial
de E.
La condicin es necesaria. Si S es un subespacio vectorial es evidente que se
satisface la condicin indicada.
Observacin 4 Hacemos las observaciones siguientes:
Els autors, 2002; Edicions UPC, 2002
10 CAPTULO 1. ESPACIOS VECTORIALES
1. Todo espacio vectorial E tiene al menos dos subespacios. El propio E es
un subespacio y el conjunto {0} es otro subespacio denominado subespacio
cero; respecto a la inclusin de conjuntos, podemos armar que el primero
es el mayor de todos los subespacios de E, y el menor, es el segundo. Todo
subespacio distinto a estos dos se llama subespacio vectorial propio de E.
2. Distinguiremos la estructura de espacio vectorial de un subconjunto S que
es subespacio vectorial de E por S.
Ejemplo 13 En el espacio vectorial real E de los vectores de origen O del
espacio ordinario, se tienen dos clases de subespacios vectoriales (aparte de {0}
y del propio E): (a) el conjunto de los vectores de origen O situados sobre una
recta que pasa por O, y (b) el conjunto de los vectores de origen O situados
sobre un plano que pasa por O. Obsrvese que no hay ningn otro subespacio
vectorial de E ms que los que acabamos de describir.
Ejemplo 14 El conjunto de los nmeros reales R es un subespacio vectorial de
C considerado como espacio vectorial real.
Ejemplo 15 Demostrar que el conjunto S de las matrices cuadradas de orden
2 que tienen ceros en la diagonal principal es un subespacio del espacio vectorial
real de todas las matrices cuadradas de orden 2 con coecientes reales.
Solucin: Es claro que S 6= . Sean
A =

0 a
12
a
21
0

y B =

0 b
12
b
21
0

dos matrices cualesquiera de S y un escalar cualquiera. Entonces


A+B =

0 a
12
+b
12
a
21
+b
21
0

y
A =

0 a
12
a
21
0

Debido a que A+B y A tienen ceros en la diagonal principal, estn en S. Por


consiguiente, S es un subespacio vectorial.
Ejemplo 16 Sea n un nmero natural y supongamos que S consta de la funcin
constante igual 0 y de todas las funciones polinmicas de grado a lo sumo n;
esto es, todas las funciones reales de variable real expresables en la forma
p(x) = a
0
+a
1
x + +a
n
x
n
en donde a
0
, a
1
, ..., a
n
son nmeros reales. Demostrar que S es un subespacio
del espacio vectorial real de todas las funciones reales de variable real.
Solucin: Es claro que S 6= . Sean
p(x) = a
0
+a
1
x + +a
n
x
n
Els autors, 2002; Edicions UPC, 2002
1.5. SUBESPACIOS VECTORIALES 11
y
q(x) = b
0
+b
1
x + +b
n
x
n
Entonces,
(p +q)(x) = p(x) +q(x) =
= (a
0
+b
0
) + (a
1
+b
1
)x + + (a
n
+b
n
)x
n
y
(p)(x) = p(x) =
= (a
0
) + (a
1
)x + + (a
n
)x
n
tienen la forma adecuada para armar que p +q y p estn en S. Por consigu-
iente, S es un subespacio vectorial.
Ejemplo 17 Recurdese que si f y g son funciones continuas y es una con-
stante real, entonces f + g y f son funciones continuas. Se concluye, pues,
que el conjunto de todas las funciones continuas es un subespacio del espacio
vectorial real de todas las funciones reales de variable real.
Ejemplo 18 Consideremos un sistema lineal de m ecuaciones con n incgnitas:
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
_

_
o bien, en notacin matricial, Ax = b, siendo
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
y
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y b =
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
Se dice que un vector columna de R
n
s =
_
_
_
_
_
s
1
s
2
.
.
.
s
n
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
12 CAPTULO 1. ESPACIOS VECTORIALES
es un vector solucin del sistema si x
1
= s
1
, x
2
= s
2
, ..., x
n
= s
n
es una solucin
de tal sistema. Demostrar que el conjunto de vectores solucin de un sistema
homogneo es un subespacio de R
n
. Un sistema lineal se llama homogneo si
todos sus trminos independientes son nulos, es decir, b
1
= = b
m
= 0.
Solucin: Sea Ax = 0 un sistema lineal homogneo de m ecuaciones con n
incgnitas, S el conjunto de vectores solucin, y s y t vectores de S. Puesto que
s y t son vectores solucin del sistema, se tiene
As = 0 y At = 0
Por tanto,
A(s +t) = As +At = 0 +0 = 0
y
A(s) = (As) = 0 = 0
De donde, s + s
0
y s satisfacen la ecuacin Ax = 0. Por tanto, s + s
0
y s
son vectores solucin y, en consecuencia, S es un subespacio vectorial que es
habitual denominarlo subespacio solucin del sistema Ax = 0.
1.6. Interseccin de subespacios vectoriales
Teorema 4 La interseccin S T de dos subespacios cualesquiera S y T de un
espacio vectorial E es tambin un subespacio de E.
Demostracin: La interseccin S T se dene como el conjunto de todos los
elementos que pertenecen simultneamente a S y T. Si u, v S T, entonces
u, v S y u, v T. Al ser ambos subespacios, se tiene u +v S y u +v T
y por tanto u + v S T. Anlogamente, todo mltiplo escalar u estar en
S T siempre que lo est u.
Observacin 5 Hacemos las siguientes observaciones:
1. Dados dos subespacios S y T de E, ST es el mayor subespacio contenido
en los dos.
2. En general, si F es una familia cualquiera de subespacios vectoriales de
E, se demuestra del mismo modo que
\
FF
F
es tambin un subespacio vectorial de E.
Ejemplo 19 Determinar la interseccin de los subespacios vectoriales
S =

(x, y, z) R
3
: x 2y +z = 0

T =

(x, y, z) R
3
: x = 0

de R
3
.
Els autors, 2002; Edicions UPC, 2002
1.7. SUBESPACIO ENGENDRADO POR UN SUBCONJUNTO 13
Solucin: Obsrvese que S y T son subespacios vectoriales de R
3
porque
ambos estn denidos por ecuaciones lineales homogneas. Cualquier vector de
S es solucin de la ecuacin lineal
x 2y +z = 0
Del mismo modo, cualquier vector de T es solucin de la ecuacin lineal
x = 0
Entonces, cualquier vector (x, y, z) S T debe ser solucin del sistema
x 2y +z = 0
x = 0

es decir,
S T =

(x, y, z) R
3
: 2y +z = 0 y x = 0

1.7. Subespacio engendrado por un subconjunto


Denicin 3 Dado un subconjunto no vaco A de E, se llama subespacio
engendrado por A al menor de los subespacios vectoriales de E que contienen
a A. Denotamos por hAi el subespacio engendrado por A.
Observacin 6 Hacemos las siguientes observaciones:
1. Dicho de otro modo, hAi es el subconjunto de E que cumple:
a) hAi es un subespacio vectorial de E
b) A hAi
c) Si S es un subespacio vectorial de E tal que A S, entonces debe
cumplirse que hAi S.
2. Es evidente que si S es un subespacio vectorial de E, entonces el subespacio
engendrado por S es el mismo S.
Teorema 5 Dado un subconjunto no vaco A de E, se cumple
hAi =
\
FF
F
donde F es la familia (no vaca, pues E pertenece a la familia) de todos los
subespacios vectoriales de E contienen a A.
Demostracin: En efecto, si F es la familia de todos los subespacios de E que
contienen A, entonces es claro que
\
FF
F
verica las tres condiciones indicadas en la ltima observacin.
Els autors, 2002; Edicions UPC, 2002
14 CAPTULO 1. ESPACIOS VECTORIALES
Ejemplo 20 Demostrar que si v es un vector de E y A = {v}, entonces hAi =
{v : K}.
Solucin: El conjunto {v : K} es un subespacio de E, ya que
(v) + (v) = ( +)v
y
(v) = ()v
Adems, v est en dicho conjunto, ya que
v = 1v
Por ltimo, es el menor subespacio que contiene a A por construccin.
1.8. Suma de subespacios vectoriales
Denicin 4 Dados dos subespacios vectoriales S y T de E, se llama subespacio
suma de S y T denotado por S + T al subespacio vectorial engendrado por el
conjunto S T. En smbolos
S +T = hS Ti
Teorema 6 Dados dos subespacios vectoriales S y T de E, entonces el subespa-
cio suma cumple
S +T = {s +t : s S, t T}
Demostracin: En efecto, si tomamos dos elementos cualesquiera de esta for-
ma s
1
+t
1
y s
2
+t
2
, entonces se tiene
(s
1
+t
1
) + (s
2
+t
2
) = s
1
+ (t
1
+s
2
) +t
2
= (s
1
+s
2
) + (t
1
+t
2
)
que es otro elemento de la misma forma. Adems, tambin tenemos
(s +t) = s +t
Por tanto, el conjunto {s +t : s S, t T} es un subespacio de E. Por otra
parte, de la manera como se ha denido es claro que es el menor subespacio que
contiene a S y T, y en consecuencia tenemos lo que queramos demostrar.
Observacin 7 Hacemos las siguientes observaciones importantes:
1. En general, ST no es un subespacio vectorial de E. Para probarlo, consid-
eremos los subespacios vectoriales S = {(x, 0) : x R} y T = {(0, y) : y R}
de R
2
. La suma (1, 0) + (0, 1) = (1, 1) no pertenece a S ni a T.
2. Dados dos subespacios S y T de E, S + T es el menor subespacio que
contiene a ambos.
Els autors, 2002; Edicions UPC, 2002
1.8. SUMA DE SUBESPACIOS VECTORIALES 15
Observacin 8 Un vector v de S + T puede, en general, descomponerse de
varias maneras en la forma s +t. Si
v = s
1
+t
1
= s
2
+t
2
entonces
w = s
1
s
2
= t
2
t
1
y el vector w obtenido de esta forma, que pertenece a S y T, tambin pertenece
a su interseccin. Recprocamente, cualquiera que sea w S T, se tiene
v = s +t = (s +x) + (t x)
Esta observacin justica la proposicin y denicin siguientes.
Teorema 7 Dados dos subespacios vectoriales S y T de un espacio vectorial E,
entonces las tres condiciones siguientes son equivalentes:
1. La descomposicin de todo vector v de S +T en suma de un vector s de S
y de un vector t de T es nica
2. Si s +t = 0, con s S y t T, se cumple que s = t = 0
3. S T = {0}
Demostracin: (1) implica (2). Dado que podemos escribir
s +t = 0 +0
se deduce s = t = 0.
(2) implica (3). Supongamos que v S T, podemos escribir
0 = v + (v)
donde v S y v T. De (2) se deduce v = 0.
(3) implica (1). Supongamos que tenemos un vector v de S+T expresado de
dos maneras
v = s
1
+t
1
= s
2
+t
2
entonces
s
1
s
2
= t
2
t
1
= 0
pues s
1
s
2
= t
2
t
1
es un vector de S T que por hiptesis debe ser 0.
Denicin 5 Dados dos subespacios vectoriales S y T de un espacio vectorial
E. Si S T = {0}, entonces se dice que la suma de subespacios S + T es una
suma directa y la designamos con la notacin
S T
Observacin 9 Hacemos las observaciones siguientes:
Els autors, 2002; Edicions UPC, 2002
16 CAPTULO 1. ESPACIOS VECTORIALES
1. A veces se dice que dos subespacios S y T de un espacio vectorial E son
independientes cuando S T = {0}. En tal caso, su suma es directa.
2. En general, si S
1
, ..., S
m
es una familia nita de subespacios de E, su suma
se dene como sigue
n
X
i=1
S
i
= S
1
+ +S
m
=
(
m
X
i=1
v
i
: v
i
S
i
)
que es un subespacio de E. La suma es directa, denotndose por
n
M
i=1
S
i
= S
1
S
m
si la descomposicin de un vector de este subespacio slo es posible de una
manera. Para ello es necesario y suciente que la igualdad
m
X
i=1
v
i
= 0
se verique nicamente escogiendo todos los vectores v
i
nulos.
Denicin 6 Se dice que S
1
y S
2
son dos subespacios suplementarios de
E si todo vector v de E puede escribirse de manera nica en la forma
v = v
1
+v
2
en donde v
1
S
1
y v
2
S
2
.
Corolario 1 Dos subespacios vectoriales S
1
y S
2
de E son suplementarios si y
slo si
E = S
1
S
2
Observacin 10 Hacemos las siguientes observaciones importantes:
1. Cuando se cumple
E = S
1
S
2
En tal caso se dice que S
1
(resp. S
2
) es un suplementario de S
2
(resp. S
1
)
respecto a E. En tal caso, cualquier vector v de E puede escribirse de
manera nica en la forma
v = v
1
+v
2
en donde v
1
S
1
y v
2
S
2
.
2. Es natural plantearse dos preguntas: si S
1
es un subespacio de E, existe un
suplementario S
2
de S
1
respecto a E, y, si existe, es nico? La respuesta a
la segunda pregunta es negativa, segn el teorema 21, pero ms adelante
tenemos el corolario 9. Respecto a la primera, la respuesta es armativa
segn el mismo teorema.
Els autors, 2002; Edicions UPC, 2002
1.8. SUMA DE SUBESPACIOS VECTORIALES 17
3. No hay que confundir suplementario del subespacio S respecto a E con el
complementario del conjunto S respecto a E. En este ltimo caso, no es
un subespacio de E ya que no contiene el 0.
Ejemplo 21 En R
3
se consideran los subespacios S y T engendrados por los
conjuntos {(2, 3, 0), (3, 1, 2)} y {(1, 2, 2)} respectivamente. Determinar el sube-
spacio S +T y averiguar si es suma directa.
Solucin: Segn el teorema, un vector (x, y, z) de S +T es de la forma
(x, y, z) = (2, 3, 0) +(3, 1, 2) +(1, 2, 2)
Efectuando operaciones, se obtiene
(x, y, z) = (2 + 3 +, 3 + 2, 2 + 2)
Igualando componentes, se tiene
E
1
: x = 2 + 3 +
E
2
: y = 3 + 2
E
3
: z = 2 + 2
_
_
_
De aqu se obtiene
3E
1
2E
2
: 3x 2y = 7 + 7
E
3
: z = 2 + 2

De aqu se obtiene
2(3E
1
2E
2
) 7E
3
: 6x 4y 7z = 0
Por consiguiente
S +T = {(x, y, z) R
3
: 6x 4y 7z = 0}
Para saber si la suma es directa debemos averiguar si los subespacios son o no
independientes. Para ello, debemos calcular S T. Un vector (x, y, z) de S T
debe cumplir
(x, y, z) = (2, 3, 0) +(3, 1, 2)
y
(x, y, z) = (1, 2, 2)
Por tanto,
(2, 3, 0) +(3, 1, 2) = (1, 2, 2)
es decir
(2 + 3, 3 +, 2) = (, 2, 2)
de donde se obtiene
2 + 3 =
3 + = 2
2 = 2
_
_
_
Els autors, 2002; Edicions UPC, 2002
18 CAPTULO 1. ESPACIOS VECTORIALES
Se tiene = . Por tanto, = = . Tomando = 1, se obtiene
(1, 2, 2) = (2, 3, 0) + (3, 1, 2)
lo que signica que
(1, 2, 2) S T
Por consiguiente,
S T 6= {0}
y la suma no es directa.
1.9. Combinaciones lineales
Denicin 7 Se llama sistema de vectores de E a cualquier sucesin nita S
de vectores de E. De este modo, S = (v
1
, v
2
, ..., v
m
), con v
i
E (i = 1, ..., m),
es un sistema de vectores de E.
Observacin 11 Se ha de tener cuidado en no confundir el sistema de vectores
(v
1
, v
2
, ..., v
m
) con el conjunto {v
1
, v
2
, ..., v
m
} cuyos elementos son los vectores
del sistema. Por ejemplo, el sistema (1, 1, 1) de vectores de R tiene como con-
junto de vectores {1}; y los sistemas distintos (1, 2, 3) y (2, 1, 3) de R tienen el
mismo conjunto de vectores {1, 2, 3}.
Cuando escribamos sistema de vectores nos referiremos a la sucesin nita
de vectores. En cambio, cuando escribamos vectores del sistema nos referire-
mos al conjunto de los vectores de la sucesin.
Denicin 8 Dado un sistema S = (v
1
, v
2
, ..., v
m
) de vectores de E. Se dice
que un vector v de E es combinacin lineal de los vectores del sistema S si
existe una sucesin nita (
1
,
2
, ...,
m
) de elementos de K tales que
v =
1
v
1
+
2
v
2
+ +
m
v
m
Los escalares
i
(i = 1, ..., m) se denominan coecientes de la combinacin
lineal.
Tambin se dice entonces, que el vector v depende linealmente de los
vectores del sistema S.
Observacin 12 Ms en general, si S = (v
i
)
iI
es una familia cualquiera
(nita o no) de vectores de E, se dice que un vector v de E es combinacin
lineal de los vectores de la familia S si existe una familia (
i
)
iI
de elementos
de K tales que slo un nmero nito de los escalares
i
son no nulos y
v =
X
iI

i
v
i
Obsrvese que si J I, J es nito y tal que
i
= 0 para todo i I J,
entonces
X
iI

i
v
i
=
X
iJ

i
v
i
Els autors, 2002; Edicions UPC, 2002
1.9. COMBINACIONES LINEALES 19
Es evidente que el valor del segundo miembro de la igualdad anterior no depende
de J (con tal que J satisfaga las condiciones enunciadas). Como consecuencia
tenemos que un vector v de E es combinacin lineal de los vectores de la familia
(v
i
)
iI
si lo es de una subfamilia nita de (v
i
)
iI
.
Teorema 8 Se deducen inmediatamente de la denicin los siguientes resulta-
dos:
1. El vector 0 es combinacin lineal de los vectores de cualquier sistema.
2. Todo vector es combinacin lineal de los vectores de cualquier sistema que
lo contiene.
3. Si v es combinacin lineal de los vectores del sistema (v
1
, v
2
, ..., v
m
) y si
cada v
i
(i = 1, 2, ..., m) es combinacin lineal de los vectores del sistema
(w
1
, w
2
, ..., w
p
), el vector v es combinacin lineal de de los vectores del
sistema (w
1
, w
2
, ..., w
p
).
Demostracin: (1.) Es suciente elegir todos los coecientes nulos.
(2.) En efecto,
v = 1v
y, si hay otros vectores, los afectamos a todos de coecientes nulos.
(3.) Si
v
i
=
p
X
j=1

ij
w
j
y
v =
1
v
1
+
2
v
2
+ +
m
v
m
entonces, por sustitucin y reglas de clculo, tenemos
v =
1
_
_
p
X
j=1

1j
w
j
_
_
+
2
_
_
p
X
j=1

2j
w
j
_
_
+ +
m
_
_
p
X
j=1

mj
w
j
_
_
=

m
X
k=1

k1
!
w
1
+

m
X
k=1

k2
!
w
2
+ +

m
X
k=1

kp
!
w
p
Observacin 13 Este ltimo resultado se expresa tambin as: si v depende
linealmente de los vectores v
1
, v
2
, ..., v
m
, y cada uno de estos depende lineal-
mente de w
1
, w
2
, ..., w
p
, el vector v depende linealmente de estos ltimos. Por
esta razn, este resultado se le conoce como propiedad transitiva de la depen-
dencia lineal.
Ejemplo 22 Consideremos los vectores u = (1, 2, 1) y v = (6, 4, 2) de R
3
.
Demostrar que w = (9, 2, 7) es combinacin lineal de u y v, y que, en cambio,
w
0
= (4, 1, 8) no es combinacin lineal de u y v.
Els autors, 2002; Edicions UPC, 2002
20 CAPTULO 1. ESPACIOS VECTORIALES
Solucin: Para que w sea una combinacin lineal de u y v, deben existir
los escalares
1
y
2
tales que w =
1
u +
2
v, es decir,
(9, 2, 7) =
1
(1, 2, 1) +
2
(6, 4, 2)
o bien,
(9, 2, 7) = (
1
+ 6
2
, 2
1
+ 4
2
,
1
+ 2
2
)
Al igualar las componentes correspondientes, se obtiene el sistema siguiente

1
+ 6
2
= 9
2
1
+ 4
2
= 2

1
+ 2
2
= 7
_
_
_
Si se resuelve este sistema, se obtiene la solucin
1
= 3 y
2
= 2. De este
modo, tenemos
w = 3u + 2v
Del mismo modo, para que w
0
sea una combinacin lineal de u y v deben
existir
1
y
2
tales que
(4, 1, 8) =
1
(1, 2, 1) +
2
(6, 4, 2)
o bien,
(4, 1, 8) = (
1
+ 6
2
, 2
1
+ 4
2
,
1
+ 2
2
)
Igualando componentes, se obtiene

1
+ 6
2
= 4
2
1
+ 4
2
= 1

1
+ 2
2
= 8
_
_
_
Este sistema de ecuaciones es incompatible, de modo que no existen esos es-
calares. Como consecuencia, w
0
no es una combinacin lineal de u y v.
1.10. Clausura lineal
Denicin 9 Se llama clausura lineal del sistema S = (v
1
, v
2
, ..., v
m
) al
conjunto de todos los vectores de E que son combinacin lineal de los vectores
de S. Denotamos este conjunto por hv
1
, v
2
, ..., v
m
i.
Teorema 9 La clausura lineal de cualquier sistema es un subespacio vectorial
de E.
Demostracin: En efecto, de las relaciones siguientes
(
1
v
1
+ +
m
v
m
) + (
1
v
1
+ +
m
v
m
) = (
1
+
1
)v
1
+ + (
m
+
m
)v
m
(
1
v
1
+ +
m
v
m
) = (
1
)v
1
+ + (
m
)v
m
se deduce inmediatamente lo que queremos demostrar.
Els autors, 2002; Edicions UPC, 2002
1.10. CLAUSURA LINEAL 21
Denicin 10 Un subespacio vectorial S de E se dice que est engendrado
por el sistema S = (v
1
, v
2
, ..., v
m
) si S es la clausura lineal del sistema, es
decir, si se cumple
S = hv
1
, v
2
, ..., v
m
i
Tambin se dice que S es un sistema generador del subespacio S.
Teorema 10 La clausura lineal de un sistema es el menor subespacio vectorial
que contiene al conjunto de los vectores del sistema.
Demostracin: Dado un sistema cualquiera S = (v
1
, v
2
, ..., v
m
). Sea A =
{v
1
, v
2
, ..., v
m
} el conjunto de los vectores de S. Por el teorema anterior la
clausura lineal es un subespacio vectorial de E. Para cualquier v
i
A (i =
1, ..., m) se cumple
v
i
= 0v
1
+ + 1v
i
+ + 0v
m
con lo que A est contenido en la clausura lineal de S. Si S es cualquier subespa-
cio de E que contiene A, entonces cualquier combinacin lineal de los vectores
de A es claramente otro vector de S. Por tanto, la clausura lineal de S est con-
tenido en S y, en consecuencia, es el menor subespacio vectorial que contiene a
A.
Observacin 14 Las nociones y propiedades anteriores pueden ampliarse al
caso de una familia cualquiera (v
i
)
iI
, nita o no, de vectores de E. Se llama
clausura lineal de una familia (v
i
)
iI
al menor subespacio vectorial que la con-
tiene. Puede demostrarse, sin ninguna dicultad, que dicha clausura lineal es la
interseccin de la familia de subespacios que contienen al conjunto de vectores
de la familia en consideracin. Finalmente, se demuestra que dicha clausura
lineal es el subespacio de las combinaciones lineales de cada subfamilia nita de
(v
i
)
iI
.
Ejemplo 23 Dado el sistema (e
1
, e
2
, e
3
) de vectores de R
3
, siendo e
1
= (1, 0, 0), e
2
=
(0, 1, 0) y e
3
= (0, 0, 1). Determinar la clausura lineal de este sistema.
Solucin: Es claro que he
1
, e
2
, e
3
i R
3
. Por otra parte, tenemos que todo
vector (x, y, z) de R
3
se puede escribir como
(x, y, z) = x(1, 0, 0) +y(0, 1, 0) +z(0, 0, 1)
es decir,
(x, y, z) = xe
1
+ye
2
+ze
3
lo cual es una combinacin lineal de e
1
, e
2
y e
3
. Por tanto, he
1
, e
2
, e
3
i = R
3
.
Ejemplo 24 Los polinomios 1, x, x
2
, ..., x
n
engendran al espacio vectorial R
n
[x]
(vase ejemplo 6), pues cualquier polinomio p(x) de R
n
[x] se puede escribir
como
p(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
lo cual es una combinacin lineal de 1, x, x
2
, ..., x
n
.
Els autors, 2002; Edicions UPC, 2002
22 CAPTULO 1. ESPACIOS VECTORIALES
Ejemplo 25 Determinar si v
1
= (1, 1, 2), v
2
= (1, 0, 1), v
3
= (2, 1, 3) engen-
dran R
3
.
Solucin: Es suciente determinar si un vector arbitrario v = (x, y, z) de
R
3
se puede escribir como una combinacin lineal de v
1
, v
2
y v
3
v =
1
v
1
+
2
v
2
+
3
v
3
Si expresamos esta ecuacin en trminos de componentes, se tiene
(x, y, z) =
1
(1, 1, 2) +
2
(1, 0, 1) +
3
(2, 1, 3)
o bien,
(x, y, z) = (
1
+
2
+ 2
3
,
1
+
3
, 2
1
+
2
+ 3
3
)
o bien,

1
+
2
+ 2
3
= x

1
+
3
= y
2
1
+
2
+ 3
3
= z
_
_
_
Por consiguiente, el problema se reduce a determinar si este sistema es o no
compatible para todos los valores de x, y y z. Aunque ms adelante daremos
mtodos ms operativos para resolver estas cuestiones, de momento nos con-
tentamos con armar que el vector (1, 0, 0) de R
3
no es una combinacin lineal
de v
1
, v
2
y v
3
. En efecto, puede comprobarse que el sistema siguiente

1
+
2
+ 2
3
= 1

1
+
3
= 0
2
1
+
2
+ 3
3
= 0
_
_
_
es incompatible. Por consiguiente, los vectores v
1
, v
2
y v
3
engendran un sube-
spacio vectorial distinto de R
3
.
Ejemplo 26 Podemos determinar x de manera que el vector (1, 2, 5, x) pertenez-
ca al subespacio de Q
4
engendrado por (4, 2, 1, 7) y (1, 0, 2, 4)?
Solucin: Para que (1, 2, 5, x) h(4, 2, 1, 7), (1, 0, 2, 4)i deben existir dos
escalares
1
y
2
de Q tales que
(1, 2, 5, x) =
1
(4, 2, 1, 7) +
2
(1, 0, 2, 4)
o bien,
(1, 2, 5, x) = (4
1
+
2
, 2
1
,
1
+ 2
2
, 7
1
+ 4
2
)
Igualando componentes, se tiene
4
1
+
2
= 1
2
1
= 2

1
+ 2
2
= 5
7
1
+ 4
2
= x
_

_
De las dos primeras ecuaciones del sistema se obtiene
1
= 1 y
2
= 3.
Estos valores satisfacen tambin la tercera ecuacin del sistema. Por tanto, debe
ocurrir
x = 7 + 12 = 5
Els autors, 2002; Edicions UPC, 2002
1.11. SISTEMAS EQUIVALENTES 23
1.11. Sistemas equivalentes
Denicin 11 Se dice que dos sistemas (v
1
, ..., v
m
) y (w
1
, ..., w
p
) de E son
equivalentes, denotndolo por (v
1
, ..., v
m
) (w
1
, ..., w
p
), cuando sus clausuras
lineales son iguales, es decir, cuando
hv
1
, ..., v
m
i = hw
1
, ..., w
p
i
Teorema 11 Dos sistemas son equivalentes si y slo si todo vector de cada
sistema es combinacin lineal de los vectores del otro.
Demostracin: Es inmediato a partir de la denicin de clausura lineal de un
sistema.
Observacin 15 Es fcil demostrar tambin que la relacin denida anterior-
mente es de equivalencia.
Teorema 12 La clausura lineal de un sistema no cambia cuando se aaden
nuevos vectores al sistema que sean combinacin lineal de los primeros.
Demostracin: Dado un sistema de vectores (v
1
, ..., v
m
), si
w =
m
X
i=1

i
v
i
entonces
hv
1
, ..., v
m
, wi = hv
1
, ..., v
m
i
pues

1
v
1
+ +
m
v
m
+w =
1
v
1
+ +
m
v
m
+
m
X
i=1

i
v
i
= (
1
+
1
) v
1
+ + (
m
+
m
) v
m
y por otra parte

1
v
1
+ +
m
v
m
=
1
v
1
+ +
m
v
m
+ 0w
as con cualquier otro vector aadido.
Observacin 16 Hacemos las siguientes observaciones:
1. Del teorema anterior se sigue de forma inmediata que
(v
1
, ..., v
m
, w) (v
1
, ..., v
m
)
si w es combinacin lineal de v
1
, ..., v
m
.
2. Despus de este resultado, cabe preguntarse en seguida si ser posible en-
contrar un sistema de vectores equivalente con un nmero menor de vec-
tores. Resolveremos esta cuestin al estudiar la independencia lineal de
vectores.
Els autors, 2002; Edicions UPC, 2002
24 CAPTULO 1. ESPACIOS VECTORIALES
Denicin 12 A continuacin denimos ciertas transformaciones que apli-
cadas sobre un sistema de vectores proporcionan sistemas equivalentes. Estas
operaciones se llaman transformaciones elementales y son las siguientes:
T1: Permutar dos vectores cualesquiera
(v
1
, ..., v
i
, ..., v
j
, ...v
m
) (v
1
, ..., v
j
, ..., v
i
, ...v
m
) (i 6= j)
T2: Multiplicar un vector cualquiera por un escalar distinto de cero
(v
1
, ..., v
i
, ...v
m
) (v
1
, ..., v
i
, ...v
m
)
T3: Sumar a un vector cualquiera un mltiplo escalar de otro vector
(v
1
, ..., v
i
, ..., v
j
, ...v
m
) (v
1
, ..., v
i
+v
j
, ..., v
j
, ...v
m
) (i 6= j)
Teorema 13 La clausura lineal de los vectores de un sistema no cambia some-
tiendo el sistema a una o varias transformaciones elementales.
Demostracin: Supongamos que el sistema S
0
= (w
1
, ..., w
m
) es el resulta-
do de aplicar una de las transformaciones elementales sobre el sistema dado
S = (v
1
, ..., v
m
). Se trata de probar que hw
1
, ..., w
m
i = hv
1
, ..., v
m
i, o lo que es
lo mismo, que S S
0
. Probaremos que todo vector v, combinacin lineal del sis-
tema (v
1
, ..., v
m
), es tambin combinacin lineal del nuevo sistema (w
1
, ..., w
m
).
Si S
0
se obtiene de S por T1, entonces esto es evidente por la conmutatividad
de la suma, pues los w
j
son idnticos a los v
i
, salvo el orden.
Si S
0
se obtiene de S por T2, entonces reemplazamos v
i
por w
i
= v
i
( 6=
0), sin modicar los restantes vectores. Entonces se tiene
v =
1
v
1
+ +
i
v
i
+ +
m
v
m
=
1
w
1
+ +

i

w
i
+ +
m
w
m
Si S
0
se obtiene de S por T3, entonces reemplazamos v
i
por w
i
= v
i
+
v
j
(i 6= j), sin modicar los otros vectores. Entonces se tiene
v =
1
v
1
+ +
i
v
i
+ +
m
v
m
=
1
w
1
+ +
i
w
i
+ + (
j

i
)w
j
+ +
m
w
m
Por otra parte, las transformaciones elementales son reversibles, ya que las
operaciones inversas son del mismo tipo. Por tanto, los sistemas S y S
0
son,
pues, equivalentes. Adems, la transitividad de la relacin demuestra que una
sucesin de transformaciones (tal que cada una opera sobre el sistema que resulta
de la precedente) aplica un sistema a otro de equivalente.
Ejemplo 27 Demostrar que los sistemas S = (v
1
, v
2
) y S
0
= (w
1
, w
2
) de
R
3
son equivalentes,siendo v
1
= (1, 1, 2), v
2
= (0, 1, 1), w
1
= (1, 0, 1) y w
2
=
(2, 1, 1).
Els autors, 2002; Edicions UPC, 2002
1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 25
Solucin: Para ello, aplicaremos transformaciones elementales a S hasta
obtener S
0
. Aplicando T3, se obtiene
(v
1
, v
2
) (v
1
v
2
, v
2
)
Ahora, aplicando T2,
(v
1
v
2
, v
2
) (v
1
v
2
, v
2
)
Finalmente, aplicando T3,
(v
1
v
2
, v
2
) 5(v
1
v
2
, v
2
+ 2(v
1
v
2
))
Por la transitividad de la relacin se deduce
(v
1
, v
2
) (v
1
v
2
, v
2
+ 2(v
1
v
2
))
es decir,
w
1
= v
1
v
2
y
w
2
= v
2
+ 2(v
1
v
2
)
Por consiguiente, S y S
0
son equivalentes.
1.12. Dependencia e independencia lineal
Denicin 13 Diremos que el sistema de vectores (v
1
, ..., v
m
) de un espacio
vectorial E es ligado cuando existe una sucesin nita (
1
, ...,
m
) de elementos
de K, no todos nulos, tales que

1
v
1
+ +
m
v
m
= 0
Cuando el sistema de vectores (v
1
, ..., v
m
) de E es ligado, tambin se dice
que los vectores v
1
, ..., v
m
del sistema son linealmente dependientes, y la
relacin

1
v
1
+ +
m
v
m
= 0
en donde no todos los coecientes son nulos, se llama una relacin de depen-
dencia de dichos vectores.
Teorema 14 Sealemos algunas consecuencias inmediatas de la denicin:
1. Todo sistema que incluya el vector 0 es ligado.
2. Si se aaden otros vectores a un sistema ligado, el sistema que resulta es
tambin ligado.
3. Todo sistema que incluya dos vectores iguales es ligado.
Els autors, 2002; Edicions UPC, 2002
26 CAPTULO 1. ESPACIOS VECTORIALES
4. El sistema (v
1
, ..., v
m
), con v
1
6= 0, es ligado si y slo si alguno de sus
vectores es combinacin lineal de los que le preceden.
5. Para que un sistema sea ligado es necesario y suciente que exista un
subsistema propio equivalente al sistema considerado.
Demostracin: (1.) Consiste en elegir todos los coecientes iguales a cero,
salvo el del vector 0.
(2.) Consiste en elegir, por ejemplo, los coecientes nulos para los nuevos
vectores.
(3.) Supongamos el sistema (v
1
, ..., v
m
) en el que para ciertos i, j, con i 6= j
y 1 i < j m, se cumple v
i
= v
j
. Entonces, es claro que
0v
1
+ + 1v
i
+ + (1)v
j
+ + 0v
m
= 0
lo que signica que el sistema considerado es ligado.
(4.) Si el sistema (v
1
, ..., v
m
) de E es ligado, entonces existe una sucesin
nita de escalares (
1
, ...,
m
), no todos nulos, tales que

1
v
1
+ +
m
v
m
= 0
De estos
i
no nulos, escogemos el que tiene el mayor subndice. Sea k = m ax{i :

i
6= 0}. Se cumple que k > 1, pues de lo contrario se tendra
1
v
1
= 0, y como
por hiptesis v
1
6= 0, se deducira que
1
= 0, lo que no es posible. Entonces
tenemos

1
v
1
+ +
k
v
k
= 0
y
k
6= 0. De esta ltima relacin se obtiene
v
k
=

k
v
1


k1

k
v
k1
es decir, podemos expresar v
k
como combinacin lineal de los vectores que le
preceden v
1
, ..., v
k1
.
Recprocamente, si existe v
k
con 1 k m tal que
v
k
=
1
v
1
+ +
k1
v
k1
entonces

1
v
1

k1
v
k1
+ 1v
k
+ 0v
k+1
+ + 0v
m
= 0
lo que signica que el sistema (v
1
, ..., v
m
) es ligado.
Con una demostracin anloga se deducira el teorema que resulta de susti-
tuir la hiptesis v
1
6= 0 por v
m
6= 0, y la palabra preceden por siguen.
(5.) Si el sistema (v
1
, ..., v
m
) de E es ligado, entonces existe una sucesin
nita de escalares (
1
, ...,
m
), no todos nulos, tales que

1
v
1
+ +
m
v
m
= 0
Els autors, 2002; Edicions UPC, 2002
1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 27
Supongamos que
i
6= 0, entonces se tiene

i
v
1
+ + 1v
i
+ +

m

i
v
m
= 0
de donde
v
i
=

i
v
1


m

i
v
m
es decir, v
i
es combinacin lineal de los vectores v
1
, ..., v
i1
, v
i+1
, ..., v
m
. En-
tonces, por sucesivas aplicaciones de T1, se tiene
(v
1
, ..., v
i
, ..., v
m
) (v
1
, ..., v
i1
, v
i+1
, ..., v
m
, v
i
)
y, por el teorema 10, se tiene
(v
1
, ..., v
i1
, v
i+1
, ..., v
m
, v
i
) (v
1
, ..., v
i1
, v
i+1
, ..., v
m
)
Por tanto,
(v
1
, ..., v
i
, ..., v
m
) (v
1
, ..., v
i1
, v
i+1
, ..., v
m
)
Repitiendo el proceso con cada
i
6= 0, se obtendr un subsistema equivalente al
original.
El recproco es evidente, pues si el sistema dado es equivalente a un subsis-
tema suyo, cualquier vector de este ltimo es combinacin lineal de los vectores
del sistema y, en consecuencia, el sistema es ligado.
Observacin 17 Del ltimo resultado del teorema anterior se sigue que el sis-
tema que se obtiene por eliminacin de todos aquellos vectores que en la relacin

1
v
1
+ +
m
v
m
= 0
tengan coeciente distinto de cero, es equivalente al sistema original.
Denicin 14 Diremos que el sistema (v
1
, ..., v
m
) de vectores de un espacio
vectorial E es libre cuando no es ligado.
Cuando el sistema de vectores (v
1
, ..., v
m
) de E es libre, tambin se dice que
los vectores v
1
, ..., v
m
del sistema son linealmente independientes.
Observacin 18 Dicho de otro modo, para que un sistema (v
1
, v
2
, ..., v
m
) sea
libre es necesario y suciente que la relacin

1
v
1
+ +
m
v
m
= 0
se cumpla slo si todos los coecientes
i
son nulos; la nica combinacin nula
de los vectores del sistema corresponde a elegir todos los coecientes nulos.
Teorema 15 Sealemos algunas consecuencias inmediatas de la denicin:
1. Un vector v no nulo constituye por s solo un sistema libre.
Els autors, 2002; Edicions UPC, 2002
28 CAPTULO 1. ESPACIOS VECTORIALES
2. Todos los vectores de un sistema libre son distintos de 0.
3. Todos los vectores de un sistema libre son dos a dos distintos.
4. Todo subsistema de un sistema libre es tambin libre.
5. En la clausura lineal de un sistema libre, todo vector puede escribirse de
manera nica como combinacin lineal de los vectores del sistema.
6. Si el sistema (v
1
, ..., v
m
) es libre, mientras que el sistema (v
1
, ..., v
m
, w),
obtenido aadindole un vector, es ligado, entonces el vector w es combi-
nacin lineal de los vectores v
1
, ..., v
m
.
Demostracin: (1.) En efecto,
v = 0 = = 0
pues la igualdad v = 0 queda excluida.
(2.) Pues cualquier sistema que contiene al vector 0 es ligado.
(3.) Pues cualquier sistema que contiene dos vectores iguales es ligado.
(4.) En efecto, si el nuevo sistema fuera ligado, aadindole otros vectores
seguira siendo un sistema ligado.
(5.) Supongamos que el sistema (v
1
, ..., v
m
) es libre. Sea v hv
1
, ..., v
m
i y
supongamos que v pudiera escribirse de dos maneras:
v =
1
v
1
+ +
m
v
m
=
1
v
1
+ +
m
v
m
Entonces, se tendra
(
1

1
)v
1
+ + (
m

m
)v
m
= 0
y por ser independientes los vectores v
i
se tendra que

i
= 0 (i = 1, ..., m)
En consecuencia, las dos descomposiciones coinciden.
(6.) Por ser el sistema (v
1
, ..., v
m
, w) ligado, tendremos la siguiente relacin
lineal

1
v
1
+ +
m
v
m
+w = 0
en donde 6= 0 ya que el sistema (v
1
, ..., v
m
) es libre. Por consiguiente podemos
despejar w, lo que demuestra la armacin.
Observacin 19 Hacemos las observaciones siguientes:
1. Del teorema 7 y del teorema 15 (5) se deduce inmediatamente el re-
sultado siguiente: si el sistema (v
1
, ..., v
m
) es libre, entonces
hv
1
, ..., v
m
i = hv
1
i hv
m
i
Els autors, 2002; Edicions UPC, 2002
1.12. DEPENDENCIA E INDEPENDENCIA LINEAL 29
2. Las nociones de dependencia e independencia lineal se generalizan para
cualquier familia (v
i
)
iI
de vectores de E. Una familia (v
i
)
iI
de vectores
de E se dir libre si lo es toda subfamilia nita. Una familia se llamar
ligada si no es libre. Esto signica que al menos hay una subfamilia nita
que no es libre.
Teorema 16 Si el espacio vectorial E es engendrado por el sistema (v
1
, ..., v
m
),
y E contiene k vectores linealmente independientes, entonces k m.
Demostracin: Supongamos que w
1
, ..., w
k
son vectores linealmente indepen-
dientes de E. Es claro que el sistema (w
1
, v
1
, ..., v
n
) es generador de E. Puesto
que E = hv
1
, ..., v
m
i, w
1
es combinacin lineal de v
1
, ..., v
m
. Por tanto, (w
1
, v
1
, ..., v
n
)
es ligado, y por el teorema 14 (4) existe un vector que es combinacin lineal
de los precedentes, que no es w
1
pues w
1
6= 0 (por pertenecer a un sistema
libre); sea dicho vector v
i
. Suprimindolo obtenemos otro sistema generador
equivalente, es decir,
E = hv
1
, ..., v
i
, ..., v
n
i = hw
1
, v
1
, ..., v
i1
, v
i+1
, ..., v
m
i
Tambin ser generador el sistema (w
2
, w
1
, v
1
, ..., v
i1
, v
i+1
, ..., v
m
) que a su
vez es ligado. Volviendo a aplicar el teorema 14 (4) podemos suprimir otro
vector v
j
, que no es w
2
ni w
1
porque (w
1
, w
2
) es un sistema libre. Repitiendo
este proceso resulta que, si fuese k > n, el sistema (w
n
, ..., w
1
) sera generador,
y en consecuencia, (w
n+1
, w
n
..., w
k
) sera ligado, contra la hiptesis.
Ejemplo 28 Demostrar que dos vectores de un espacio vectorial E son lineal-
mente dependientes si uno es un mltiplo escalar del otro.
Solucin: Sean u, v dos vectores linealmente dependientes de E. Entonces
existe una relacin de dependencia de dichos vectores

1
v
1
+
2
v
2
= 0
con algn
i
6= 0. Supongamos que
1
6= 0, entonces
1v
1
+

2

1
v
2
= 0
de donde
v
1
=

1
v
2
con lo que v
1
es mltiplo escalar de v
2
.
Ejemplo 29 Determinar si el sistema (v
1
, v
2
, v
3
) de R
3
es o no libre, siendo
v
1
= (1, 2, 3), v
2
= (0, 1, 2), v
3
= (2, 0, 1).
Solucin: Supongamos que

1
v
1
+
2
v
2
+
3
v
3
= 0
Introduciendo sus componentes, se tiene

1
(1, 2, 3) +
2
(0, 1, 2) +
3
(2, 0, 1) = (0, 0, 0)
Els autors, 2002; Edicions UPC, 2002
30 CAPTULO 1. ESPACIOS VECTORIALES
o bien
(
1
2
3
, 2
1
+
2
, 3
1
+ 2
2
+
3
) = (0, 0, 0)
Igualando compoenentes, se obtiene el siguiente sistema:

1
2
3
= 0
2
1
+
2
= 0
3
1
+ 2
2
+
3
= 0
_
_
_
resolvindolo, se obtiene,
1
= 0,
2
= 0,
3
= 0. Por tanto, el sistema es libre.
Ejemplo 30 Demostrar que el sistema (1 + x 2x
2
, 2 + 5x x
2
, x + x
2
) de
R
2
[x] es ligado. Escribir una relacin de dependencia.
Solucin: Supongamos que

1
(1 +x 2x
2
) +
2
(2 + 5x x
2
) +
3
(x +x
2
) = 0
entonces
(
1
+ 2
2
) + (
1
+ 5
2
+
3
)x + (2
1

2
+
3
)x
2
= 0
Por el principio de identidad de polinomios, se obtiene el sistema siguiente:

1
+ 2
2
= 0

1
+ 5
2
+
3
= 0
2
1

2
+
3
= 0
Es fcil comprobar que este sistema es compatible indeterminado y, en conse-
cuencia, el sistema es ligado. Sus soluciones son,
1
= 2
2
,
2
=
2
,
3
=
3
2
. Tomando
2
= 1, se obtiene
1
= 2 y
3
= 3. Por tanto,
2(1 +x 2x
2
) + (1)(2 + 5x x
2
) + 3(x +x
2
) = 0
es una relacin de dependencia.
1.13. Bases de un espacio vectorial de dimensin
nita
Denicin 15 Se llama base de un espacio vectorial E a toda familia libre
(nita o no) que engendra E.
Denicin 16 Se dice que un espacio vectorial E es de dimensin nita si
admite al menos una familia nita que engendra E.
Observacin 20 Dicho de otro modo, E es de dimensin nita si existe un
familia nita (v
1
, ..., v
m
) de E tal que
E = hv
1
, ..., v
m
i
Els autors, 2002; Edicions UPC, 2002
1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 31
Teorema 17 Todo espacio vectorial E 6= {0} de dimensin nita posee una
base.
Demostracin: Supongamos que E = hv
1
, ..., v
m
i. Si el sistema (v
1
, ..., v
m
) es
libre, forman una base y el teorema queda demostrado. En caso contrario, existe
al menos un vector v
i
que es combinacin lineal de los otros. Entonces
E = hv
1
, ..., v
m
i = hv
1
, ..., v
i1
, v
i+1
, ..., v
m
i
Apliquemos de nuevo el mismo razonamiento al nuevo sistema
(v
1
, ..., v
i1
, v
i+1
, ..., v
m
)
Si es libre, constituye una base y, si no lo es, suprimimos otro vector, deduciendo
un tercer sistema generador. Repitiendo un nmero nito de veces este proceso,
llegaremos a un sistema libre y generador de E, es decir, a una base, o suprim-
iremos todos los vectores. Ahora bien, en este segundo caso sera E = h0i = {0},
lo que no sera posible por hiptesis.
Observacin 21 Hacemos las observaciones siguientes:
1. De la demostracin del teorema anterior se deduce de forma inmediata el
siguiente resultado: todo sistema generador de E contiene un subsistema
libre equivalente.
2. En general, se demuestra que todo espacio vectorial (de dimensin nita
o no) admite una base.
Teorema 18 Todas las bases de un espacio vectorial E de dimensin nita son
nitas y tienen el mismo nmero de vectores.
Demostracin: Sean B
1
y B
2
dos bases cualesquiera de E, deducidas o no de
un sistema generador (v
1
, ..., v
m
) de E. El teorema 16 prueba que cada una de
ellas tiene un nmero nito de vectores; n
1
para B
1
y n
2
para B
2
, con n
1
m
y n
2
m. Por otra parte, cada base constituye una familia libre y generatriz de
E. Consideremos B
1
como familia generatriz y B
2
como familia libre, por el teo-
rema 16, es n
2
n
1
. Repitiendo de nuevo el mismo razonamiento, cambiando
el papel de las dos bases, se llega a que n
1
n
2
. Por consiguiente, n
1
= n
2
.
Observacin 22 En general, se demuestra que todas las bases de un espacio
vectorial (de dimensin nita o no) son equipotentes (de la misma cardinalidad).
Denicin 17 El nmero de vectores de cualquier base nita de un espacio
vectorial E se llama dimensin de E y se denota por dimE. Diremos que E es
de dimensin innita si no tiene bases nitas.
Observacin 23 El subespacio nulo {0} no posee base alguna, ya que la familia
(0) es ligada, pero se admite que:
dim{0} = 0
Els autors, 2002; Edicions UPC, 2002
32 CAPTULO 1. ESPACIOS VECTORIALES
Corolario 2 En un espacio vectorial de dimensin nita, la dimensin coin-
cide con el nmero mximo de vectores linealmente independientes de cualquier
sistema libre, y tambin con el nmero mnimo de vectores de cualquier sistema
generador.
Demostracin: Es una consecuencia inmediata del teorema 16.
Corolario 3 En un espacio vectorial de dimensin nita, toda familia libre de
E puede completarse hasta obtener una base.
Demostracin: Sea (v
1
, ..., v
n
) una base y (w
1
, ..., w
k
) una familia libre de E,
entonces por el teorema 16 se pueden sustituir k vectores v
i
por los w
j
de
modo que la familia (w
1
, ..., w
k
, v
i1
, ..., v
i
nk
) sea una base de E.
Corolario 4 Para que un sistema de n vectores sea una base de un espacio
vectorial de dimensin n, es suciente que el sistema sea generador de E o que
sea libre.
Demostracin: Por el corolario 3, cualquier sistema libre de n vectores se
puede completar hasta obtener una base. Ahora bien, todas las bases del espacio
tienen n vectores por el teorema 18. Por tanto, el sistema es una base. Por
otro lado, cualquier sistema generador de n vectores de un espacio vectorial
de dimensin n no es ligada, pues, de lo contrario, por el teorema 14 (5),
existira una subsistema propio generador, lo cual es imposible por el hecho de
que el nmero mnimo de vectores de cualquier sistema generador es n, segn
el corolario 2.
Denicin 18 Se llaman coordenadas de un vector v de un espacio vec-
torial E respecto a la base (v
1
, ..., v
n
) a la nica familia nita de escalares
(
1
, ...,
n
) tales que
v =
1
v
1
+ +
n
v
n
Observacin 24 Esta ltima denicin tiene sentido en virtud del teorema
15 (5).
Ejemplo 31 El espacio geomtrico ordinario es de tres dimensiones, porque,
elegidos tres vectores no coplanarios (no situados en el mismo plano)

OA,

OB,

OC,
sabemos que todo vector

OM puede escribirse como sigue:

OM =

OA+

OB +

OC
Ejemplo 32 El espacio K
n
de los vectores que son n tuplas de elementos K
es de dimensin n. En efecto, consideremos los n vectores siguientes:
e
1
= (1, 0, ..., 0)
e
2
= (0, 1, ..., 0)
.
.
.
e
n
= (0, 0, ..., 1)
Els autors, 2002; Edicions UPC, 2002
1.13. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 33
de los cuales el i esimo, e
i
, tiene componente i esima igual a 1 y el resto,
igual a 0. El (e
1
, e
2
, ..., e
n
) es generador de K
n
, ya que cualquier vector v =
(
1
,
2
, ...,
n
) de K
n
puede escribirse como sigue:
v =
1
e
1
+
2
e
2
+ +
n
e
n
Adems, este sistema es libre. En efecto, la relacin

1
e
1
+
2
e
2
+ +
n
e
n
= 0
slo es posible si
i
= 0 para todo 1 i n.
La base introducida de esta forma, asociada de manera particularmente sen-
cilla a la denicin de K
n
se llama base natural.
Ejemplo 33 Probar que los vectores de la familia S, siendo
S = ((2, 1, 1), (1, 3, 1), (2, 1, 3))
forman una base de R
3
.
Solucin: Sabemos que la dimensin de R
3
es tres. Por el corolario 2, es
suciente probar que S es libre. En efecto, supongamos que
(2, 1, 1) +(1, 3, 1) +(2, 1, 3) = (0, 0, 0)
es decir,
(2 + 2, + 3 +, + + 3) = (0, 0, 0)
Por igualacin de sus componentes se obtiene el siguiente sistema:
2 + 2 = 0
+ 3 + = 0
+ + 3 = 0
_
_
_
cuya solucin es = 0, = 0, = 0. Por tanto, S es una base de R
3
.
Ejemplo 34 Completar la siguiente familia libre (v
1
, v
2
, v
3
) para formar una
base de R
4
, siendo v
1
= (1, 1, 1, 1), v
2
= (1, 1, 0, 1), v
3
= (1, 2, 1, 1).
Solucin: Sabemos que la familia (e
1
, e
2
, e
3
, e
4
) es una base de R
4
, siendo
e
1
= (1, 0, 0, 0), e
2
= (0, 1, 0, 0), e
3
= (0, 0, 1, 0), e
4
= (0, 0, 0, 1). Se tiene
v
1
= 1e
1
+ 1e
2
+ (1)e
3
+ 1e
4
de donde
e
1
= v
1
e
2
+e
3
e
4
Por tanto,
(e
1
, e
2
, e
3
, e
4
) (v
1
, e
2
, e
3
, e
4
)
Se tiene
v
2
= 1v
1
+ 0e
2
+ 1e
3
+ 0e
4
Els autors, 2002; Edicions UPC, 2002
34 CAPTULO 1. ESPACIOS VECTORIALES
de donde
e
3
= v
1
+v
2
Por tanto,
(v
1
, e
2
, e
3
, e
4
) (v
1
, e
2
, v
2
, e
4
)
Finalmente, se tiene
v
3
= (1)v
1
+ 1e
2
+ 2v
2
+ 0e
4
de donde
e
2
= v
1
2v
2
+v
3
Por tanto,
(v
1
, e
2
, v
2
, e
4
) (v
1
, v
3
, v
2
, e
4
)
Adems, se cumple
(v
1
, v
3
, v
2
, e
4
) (v
1
, v
2
, v
3
, e
4
)
Por consiguiente,
(e
1
, e
2
, e
3
, e
4
) (v
1
, v
2
, v
3
, e
4
)
y, en consecuencia, (v
1
, v
2
, v
3
, e
4
) es una base de R
4
.
Ejemplo 35 El conjunto de los polinomios en una indeterminada x con coe-
cientes en un cuerpo conmutativo K es un espacio vectorial sobre K que denota-
mos por K[x]. La familia (1, x, x
2
, ...) es una base de K[x] pues todo polinomio
puede escribirse como combinacin lineal de una subfamilia nita. Este espacio
es de dimensin innita.
Ejemplo 36 En el espacio vectorial C sobre R la familia (1, i) es una base. La
familia (1 +i, 1 i) es otra base.
1.14. Dimensin de un subespacio vectorial
Teorema 19 Si E es un espacio vectorial de dimensin n, todo subespacio vec-
torial S de E es de dimensin nita y se cumple
dimS dimE
Adems
dimS = dimE implica S = E
Demostracin: El nmero de vectores de cualquier sistema libre y generador de
E est acotado por n. Todo sistema libre y generador de S tendr como mximo
un nmero determinado m de vectores de E. Por tanto, m n. Si m = n, los
vectores de una base de S constituyen un sistema libre de n vectores de E, y
en consecuencia, una base de E. Por tanto, S = E. Finalmente, si E = {0}, se
tiene igualmente S = {0}.
Els autors, 2002; Edicions UPC, 2002
1.14. DIMENSIN DE UN SUBESPACIO VECTORIAL 35
Teorema 20 En un espacio vectorial E de dimensin nita, si partimos una
base en dos partes complementarias, las clausuras lineales de cada uno de los
sistemas as denidos son subespacios suplementarios.
Demostracin: Sea B = (v
1
, ..., v
n
) una base de E. Consideremos los sistemas
S = (v
1
, ..., v
k
) y S
0
= (v
k+1
, ..., v
n
), y sean
S = hv
1
, ..., v
k
i
T = hv
k+1
, ..., v
n
i
Por construccin, es claro que S +T = E. Sea v S T, entonces
v =
1
v
1
+ +
k
v
k
v =
k+1
v
k+1
+ +
n
v
n
de aqu se obtiene

1
v
1
+ +
k
v
k

k+1
v
k+1

n
v
n
= 0
de donde
i
= 0 para todo 1 i n, ya que (v
1
, ..., v
n
) es un sistema libre.
Por consiguiente, v = 0 y, en consecuencia, S T = {0}.
Teorema 21 En un espacio vectorial E de dimensin n, todo subespacio S ad-
mite al menos un subespacio suplementario T y se cumple
E = S T implica dimE = dimS + dimT
Demostracin: Sea (u
1
, ..., u
p
) una base de S. Existe en E al menos un vector
v
1
tal que el sistema (u
1
, ..., u
p
, v
1
) es libre, pues, en caso contrario, los vectores
u
i
formaran una base de E y se tendra S = E y, en consecuencia, T = {0}.
Se repite el razonamiento con el sistema libre (u
1
, ..., u
p
, v
1
) que tiene p + 1
vectores. Podemos aadirle otro vector v
2
de manera que se obtenga otro sistema
libre (u
1
, ..., u
p
, v
1
, v
2
) si p + 1 < n. Este proceso termina cuando se hayan
introducido n p nuevos vectores, porque se habr obtenido una base de E. Los
vectores del sistema libre (v
1
, v
2
, ..., v
np
) engendran un subespacio vectorial T,
cuya dimensin es n p, y es un suplementario de S. Finalmente, si S = {0},
entonces T = E.
Observacin 25 Una demostracin alternativa basada en resultados anteriores
es la siguiente: Si S es una base de S, segn el corolario 3 de la seccin
anterior, existe un sistema S
0
libre tal que (S, S
0
) es una base de E. De aqu,
por el teorema 20, los subespacios S = hSi y T = hS
0
i son suplementarios.
Teorema 22 Sean S y T dos subespacios vectoriales de un espacio vectorial E
de dimensin nita. Entonces se cumple
dimS + dimT = dim(S T) + dim(S +T)
Demostracin: Sea (u
1
, ..., u
p
) una base de S T. Por el corolario 3 de la
seccin anterior, podemos completar esta base hasta obtener una base de S y
Els autors, 2002; Edicions UPC, 2002
36 CAPTULO 1. ESPACIOS VECTORIALES
una base de T. As tenemos que (u
1
, ..., u
p
, u
p+1
, ..., u
k
) es una base de S y
(u
1
, ..., u
p
, v
p+1
, ..., v
m
) es una base de T. Entonces
(u
1
, ..., u
p
, u
p+1
, ..., u
k
, v
p+1
, ..., v
m
)
constituye un sistema de generador de S + T. Si demostramos que todos estos
vectores son linealmente independientes, habremos obtenido una base de S + T
con un nmero de vectores que prueba la igualdad del enunciado. Supongamos
k
X
i=1

i
u
i
+
m
X
i=p+1

i
v
i
= 0
entonces
k
X
i=1

i
u
i
=
m
X
i=p+1

i
v
i
es un vector de S T, de donde

m
X
i=p+1

i
v
i
=
p
X
j=1

j
u
j
es decir
p
X
j=1

j
u
j
+
m
X
i=p+1

i
v
i
= 0
y, como que (u
1
, ..., u
p
, v
p+1
, ..., v
m
) es una base de T, se deduce
j
= 0 (j =
1, ..., p) y
i
= 0 (i = p + 1, ..., m). Por tanto,
k
X
i=1

i
u
i
= 0
y, como que (u
1
, ..., u
p
, u
p+1
, ..., u
k
) es una base de S, se deduce
i
= 0 (i =
1, ..., k).
Corolario 5 En las mismas condiciones del teorema anterior, se cumple
dim(S T) = dimS + dimT
En este caso, la reunin de una base de S y de una base de T da una base de
S T.
Demostracin: Es inmediato, sabiendo que cuando la suma es directa, ST =
{0}; adems, dim{0} = 0
Corolario 6 La suma S +T de dos subespacios es directa si y slo si dimS +
dimT = dim(S +T).
Demostracin: Es inmediato a partir del teorema precedente.
Els autors, 2002; Edicions UPC, 2002
1.14. DIMENSIN DE UN SUBESPACIO VECTORIAL 37
Ejemplo 37 Determinar una base para la suma y la interseccin de los sube-
spacios S y T de R
4
engendrados por los conjuntos {(1, 2, 1, 0), (1, 1, 1, 1)} y
{(2, 1, 0, 1), (1, 1, 3, 7)} respectivamente.
Solucin: Es claro que dimS = 2 y dimT = 2. Un vector (x, y, z, t) ST
debe cumplir
(x, y, z, t) = (1, 2, 1, 0) +(1, 1, 1, 1) = (2, 1, 0, 1) +(1, 1, 3, 7)
es decir
( , 2 +, +, ) = (2 +, , 3, + 7)
Por tanto, se obtiene el siguiente sistema
E
1
: = 2 +
E
2
: 2 + =
E
3
: + = 3
E
4
: = + 7
_

_
Efectuando las transformaciones indicadas
E
1
+E
2
: 3 =
E
3
: = + 7
Sustituyendo estos resultados en E
3
se tiene
= 3
Por tanto, = , = 4 y = 3. De aqu, se tiene
(x, y, z, t) = (1, 2, 1, 0) + 4(1, 1, 1, 1) = (5, 2, 3, 4)
Por tanto,
S T = h(5, 2, 3, 4)i
y, en consecuencia, ((5, 2, 3, 4)) es una base de S T y dim(S T) = 1. Por
la frmula del teorema 22, se sigue
dim(S +T) = dimS +dimT dim(S T) = 2 + 2 1 = 3
Sabemos que
S +T = h(1, 2, 1, 0), (1, 1, 1, 1), (2, 1, 0, 1), (1, 1, 3, 7)i
y por el resultado anterior debe ser uno de los vectores generadores dependiente
de los dems. Para encontrarlo aplicamos sucesivas transformaciones elemen-
tales con objeto de hallar un sistema equivalente libre.
v
1
v
2
v
3
v
4
1 1 2 1
2 1 1 1
1 1 0 3
0 1 1 7

v
1
v
2
+v
1
= u
2
v
3
2v
1
= u
3
v
4
v
1
= u
4
1 0 0 0
2 3 5 3
1 2 2 2
0 1 1 7

Els autors, 2002; Edicions UPC, 2002


38 CAPTULO 1. ESPACIOS VECTORIALES
v
1
u
2
5u
2
+ 3u
3
= w
3
u
4
+u
2
= w
4
1 0 0 0
2 3 0 0
1 2 4 4
0 1 8 8

v
1
u
2
w
3
w
4
w
3
1 0 0 0
2 3 0 0
1 2 4 0
0 1 8 0
Por consiguiente
S +T = h(1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)i
y una base de S +T es ((1, 2, 1, 0), (0, 3, 2, 1), (0, 0, 4, 8)).
1.15. Espacio vectorial cociente
Sea E un espacio vectorial y F un subespacio vectorial de E.
Denicin 19 Decimos que u, v E estn relacionados mdulo F si uv
F. Simblicamente, escribimos
u vmodF si y slo si u v F
Teorema 23 Esta relacin es una congruencia sobre E.
Demostracin: Primero probaremos que es una relacin de equivalencia. En
efecto, para todo u, v, w E se tiene: (1) u u modF, pues uu = 0 F ( es
reexiva); (2) si u v modF, es decir, uv F, entonces (uv) = vu
F, es decir, v u modF ( es simtrica); (3) si u v modF y v w modF,
es decir, si u v F y v w F, entonces (u v) + (v w) = u w F,
es decir, u w modF ( es transitiva).
Segundo, probaremos que es una relacin compatible con las operaciones
de E. En efecto, para todo u
1
, u
2
, v
1
, v
2
E y K, si u
1
v
1
modF y
u
2
v
2
modF, entonces u
1
+u
2
v
1
+v
2
modF, pues de
u
1
v
1
F
u
2
v
2
F
se deduce
(u
1
v
1
) + (u
2
v
2
) = (u
1
+u
2
) (v
1
+v
2
) F
Y, si u
1
v
1
F, entonces u
1
v
1
F, pues de u
1
v
1
F se deduce que
(u
1
v
1
) = u
1
v
1
F.
Teorema 24 El conjunto cociente E/F junto con las siguientes operaciones:
[u] + [v] = [u +v]
[u] = [u]
en donde [u] = {u +v : v F} designa la clase del vector u E, es un
espacio vectorial sobre K.
Els autors, 2002; Edicions UPC, 2002
1.15. ESPACIO VECTORIAL COCIENTE 39
Denicin 20 Se llama espacio vectorial cociente mdulo F, denotado por
E/F, al conjunto cociente E/F con las dos operaciones denidas en el teorema
anterior. Denotaremos tambin la clase del vector u por u +F.
Teorema 25 Si E es de dimensin nita, E/F tambin lo es y se cumple
dim(E/F) = dimE dimF
Demostracin: Completemos una base (v
1
, ..., v
m
) de F hasta obtener una
base (v
1
, ..., v
m
, v
m+1
, ..., v
n
) de E. Es claro que
[v
i
] = [0]
para todo 1 i m. Armamos que ([v
m+1
] , ..., [v
n
]) es una base de E/F. En
efecto, toda clase [u] de un vector
u =
n
X
i=1

i
v
i
se puede escribir como sigue
[u] =
n
X
i=1

i
[v
i
] =
n
X
i=m+1

i
[v
i
]
Por tanto, ([v
m+1
] , ..., [v
n
]) es un sistema generador de E/F.
Para ver que el sistema ([v
m+1
] , ..., [v
n
]) es libre, consideremos
n
X
i=m+1

i
[v
i
] = [0]
es decir,
"
n
X
i=m+1

i
v
i
#
= [0]
de donde
n
X
i=m+1

i
v
i
F
Entonces
n
X
i=m+1

i
v
i
=
m
X
j=1

j
v
j
es decir,
m
X
j=1

j
v
j

n
X
i=m+1

i
v
i
= 0
Ahora bien, (v
1
, ..., v
m
, v
m+1
, ..., v
n
) es una base de E. Por tanto,
j
= 0 (j =
1, ..., m) y
i
= 0 (i = m+ 1, ..., n).
Hemos obtenido una base de E/F, demostrando as la igualdad del enunciado.
Els autors, 2002; Edicions UPC, 2002
40 CAPTULO 1. ESPACIOS VECTORIALES
Ejemplo 38 Consideremos un subespacio F = hvi de R
2
. Si representamos los
elementos de R
2
como puntos del plano, los vectores de F corresponden a los
puntos de una recta que pasa por el origen. Cada una de las clases u+F corre-
sponde, entonces, a puntos de una recta paralela a F que pasa por u. El espacio
R
2
/F es, en este caso, el conjunto de rectas paralelas a F. Anlogamente, si
F = hvi R
3
, entonces R
3
/F es el conjunto de rectas de R
3
paralelas a una
recta F que pasa por el origen. Si F = hu, vi R
3
es de dimensin 2, F cor-
responde a un plano que pasa por el origen y R
3
/F es el conjunto de planos
paralelos a F.
1.16. Rango de un sistema de vectores
Denicin 21 Se llama rango de un sistema S = (v
1
, ..., v
m
) de E, denotado
por rang S, a la dimensin de la clausura lineal de dicho sistema, es decir, en
smbolos
rang S = dimhv
1
, ..., v
m
i
Observacin 26 Dicho de otro modo, el rango del sistema (v
1
, ..., v
m
) es el
nmero mximo de vectores linealmente independientes que contiene.
Teorema 26 Si S y S
0
son dos sistema equivalentes de E, entonces
rang S = rang S
0
Demostracin: Es una consecuencia inmediata de la denicin 11.
Corolario 7 Dado un sistema S = (v
1
, ..., v
m
), su rango no vara si se efecta
cualquiera de las transformaciones elementales:
1. rang (v
1
, ..., v
i
, ..., v
j
, ...v
m
) = rang (v
1
, ..., v
j
, ..., v
i
, ...v
m
) (i 6= j)
Els autors, 2002; Edicions UPC, 2002
1.16. RANGO DE UN SISTEMA DE VECTORES 41
2. rang (v
1
, ..., v
i
, ...v
m
) = rang (v
1
, ..., v
i
, ...v
m
) ( 6= 0)
3. rang (v
1
, ..., v
i
, ..., v
j
, ...v
m
) = rang (v
1
, ..., v
i
+v
j
, ..., v
j
, ...v
m
) (i 6=
j)
Demostracin: Estos resultados son consecuencias del teorema 13.
Corolario 8 Dado un sistema S = (v
1
, ..., v
m
), entonces
rang (v
1
, ..., v
m
) = rang (v
1
, ..., v
m
, w)
si y slo si w es combinacin lineal de los vectores de (v
1
, ..., v
m
).
Demostracin: Es una consecuencia inmediata del teorema 12.
Observacin 27 Este ltimo resultado permite asegurar que el rango de un
sistema no vara cuando suprimimos los vectores que son dependientes de los
restantes; en particular, podemos suprimir los vectores nulos, y de los vectores
repetidos nos quedamos slo con uno de ellos.
Teorema 27 Dado un sistema de r vectores (u
1
, ..., u
r
) de un espacio vectorial
E de dimensin n (r n) y (v
1
, ..., v
n
) una base de E. Si expresamos estos
vectores en esta base
u
i
=
n
X
j=1

ij
v
j
(i = 1, ..., r)
y se cumple

ij
= 0 para j < i
y

ii
6= 0 para todo i = 1, ..., r
entonces (u
1
, ..., u
r
) es un sistema libre.
Demostracin: Consideremos

1
u
1
+ +
r
u
r
= 0
Introduciendo las coordenadas de los vectores en la base se tiene

1
n
X
j=1

1j
v
j
+ +
r
n
X
j=1

rj
v
j
= 0
De aqu, puesto que (v
1
, ..., v
n
) es libre, se obtienen
r
X
i=1

ij
= 0 (j = 1, ..., n)
Els autors, 2002; Edicions UPC, 2002
42 CAPTULO 1. ESPACIOS VECTORIALES
Si ahora tenemos en cuenta las propiedades de las
ij
, obtenemos:

11
= 0

12
+
2

22
= 0

13
+
2

23
+
3

33
= 0
.
.
.

1r
+
2

2r
+ +
r

rr
= 0
es decir,
1
=
2
= =
r
= 0.
Observacin 28 El teorema anterior nos da un mtodo para determinar el
rango de un sistema. Para ver esto, examina con detalle el siguiente ejemplo.
Ejemplo 39 En R
4
determinar el rango del sistema S = (v
1
, v
2
, v
3
, v
4
), siendo
v
1
= (1, 1, 2, 0), v
2
= (1, 1, 0, 6), v
3
= (1, 2, 0, 1), v
4
= (1, 1, 1, 3).
Solucin: Tomando la base cannica de R
4
, escribimos las coordendas de
estos vectores por las (del mismo modo se hara por columnas) como sigue:
v
1
: 1 1 2 0
v
2
: 1 1 0 6
v
3
: 1 2 0 1
v
4
: 1 1 1 3
aplicando 3 veces T3 se obtiene
v
1
: 1 1 2 0
v
2
v
1
: 0 0 2 6
v
3
+v
1
: 0 3 2 1
v
4
v
1
: 0 0 1 3
aplicando ahora 2 veces T1 se obtiene
v
1
: 1 1 2 0
v
3
+v
1
: 0 3 2 1
v
4
v
1
: 0 0 1 3
v
2
v
1
: 0 0 2 6
aplicando una vez T3 se obtiene
v
1
: 1 1 2 0
v
3
+v
1
: 0 3 2 1
v
4
v
1
: 0 0 1 3
v
2
v
1
2(v
4
v
1
) : 0 0 0 0
nalmente, suprimiendo el vector nulo se tiene
v
1
: 1 1 2 0
v
3
+v
1
: 0 3 2 1
v
4
v
1
: 0 0 1 3
Els autors, 2002; Edicions UPC, 2002
1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 43
De este modo tenemos
(v
1
, v
2
, v
3
, v
4
) (v
1
, v
3
+v
1
, v
4
v
1
)
Por tanto,
rang (v
1
, v
2
, v
3
, v
4
) = rang (v
1
, v
3
+v
1
, v
4
v
1
)
El sistema (v
1
, v
3
+v
1
, v
4
v
1
) adems es libre, ya que cumple las coordenadas
de estos vectores cumplen las condiciones del teorema anterior. Por tanto,
rang(v
1
, v
2
, v
3
, v
4
) = rang(v
1
, v
3
+v
1
, v
4
v
1
) = 3
Como consecuencia el sistema dado (v
1
, v
2
, v
3
, v
4
) es ligado. Adems, a par-
tir de las transformaciones aplicadas anteriormente deducimos una relacin de
dependencia
v
2
v
1
2(v
4
v
1
) = 0
es decir
v
1
+v
2
2v
4
= 0
En general, comprobaremos que el mtodo nos da no solamente el rango s del sis-
tema (v
1
, ..., v
r
), es decir, la dimensin del subespacio engendrado, sino tambin
una base de este subespacio y las rs relaciones de dependencia existentes entre
los vectores del sistema. En particular, si E es de dimensin n y (v
1
, ..., v
n
) es
una base, este mtodo permite calcular las coordenadas de un vector cualquiera
respecto a dicha base.
1.17. Isomorsmos de espacios vectoriales
Denicin 22 Dados dos espacios vectoriales E y E
0
sobre el mismo cuerpo K.
Se llama isomorsmo de E en E
0
a toda aplicacin biyectiva f : E E
0
que
cumple:
1. Para todo u, v E, f(u +v) = f(u) +f(v)
2. Para todo u E y K, f(u) = f(u)
Si existe un isomorsmo de E en E
0
, entonces se dice que E y E
0
son dos
espacios vectoriales isomorfos. Escribiremos entonces
E

= E
0
Observacin 29 Hacemos las observaciones siguientes:
1. Armar que dos espacios vectoriales son isomorfos equivale a decir que
ambos tienen la misma estructura de espacio vectorial.
2. Estudiaremos con detalle los isomorsmos como caso particular de los ho-
momorsmos de espacios vectoriales (o aplicaciones lineales) ms adelante
en la seccin correspondiente.
Els autors, 2002; Edicions UPC, 2002
44 CAPTULO 1. ESPACIOS VECTORIALES
Teorema 28 Si E
1
y E
2
son dos subespacios suplementarios de un espacio
vectorial E, entonces los espacios E = E
1
E
2
y E
1
E
2
son isomorfos.
Demostracin: Si E
1
y E
2
son dos subespacios suplementarios de E, entonces
E = E
1
E
2
. Consideremos la descomposicin nica de todo v E como
v = v
1
+v
2
con v
1
E
1
y v
2
E
2
. Consideremos la aplicacin f de E
1
E
2
en E
1
E
2
denida por
f(v
1
, v
2
) = v
1
+v
2
Por construccin, es claro que f es biyectiva. Adems se cumple
f ((v
1
, v
2
) + (w
1
, w
2
)) = f(v
1
+w
1
, v
2
+w
2
) =
= (v
1
+w
1
) + (v
2
+w
2
) =
= (v
1
+v
2
) + (w
1
+w
2
) =
= f(v
1
, v
2
) +f(w
1
, w
2
)
y
f((v
1
, v
2
)) = f(v
1
, v
2
) =
= v
1
+v
2
=
= (v
1
+v
2
) =
= f(v
1
, v
2
)
Por consiguiente, f es un isomorsmo.
Observacin 30 Si E
1
y E
2
son dos espacios vectoriales sobre K, podemos
construir un nuevo espacio vectorial E que los contenga a los dos salvo un iso-
morsmo. En efecto, consideremos el espacio vectorial producto E
1
E
2
. Todo
vector (v
1
, v
2
) del espacio producto E
1
E
2
puede descomponerse como sigue
de forma nica
(v
1
, v
2
) = (v
1
, 0) + (0, v
2
)
Consideremos ahora los dos subespacios siguientes de E
1
E
2
:
E
0
1
= {(v
1
, 0) : v
1
E
1
}
y
E
0
2
= {(0, v
2
) : v
2
E
2
}
Es evidente que E
1
E
2
= E
0
1
E
0
2
, ya que los dos subespacios tienen interseccin
{(0, 0)}.
Por otra parte, es inmediato comprobar que las aplicaciones, f
1
: E
0
1
E
1
denida por f
1
(v
1
, 0) = v
1
, y f
2
: E
0
2
E
2
denida por f
2
(0, v
2
) = v
2
, son
isomorsmos de espacios vectoriales.
Como consecuencia de esto, en la prctica se identica siempre E
i
y E
0
i
(i = 1, 2); identicar por ejemplo E
1
y E
0
1
quiere decir, confundir los vectores
Els autors, 2002; Edicions UPC, 2002
1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 45
v
1
E
1
y (v
1
, 0) E
0
1
. Esta identicacin permite decir que E
1
y E
2
son sube-
spacios suplementarios de E
1
E
2
. Por el teorema, los espacios E
1
E
2
y
E
1
E
2
son isomorfos.
El espacio E = E
1
E
2
se llama suma directa de los espacios vectoriales
dados E
1
y E
2
. Entonces, es claro que E tiene a E
1
y E
2
como subespacios
suplementarios y se cumple que E y E
1
E
2
son isomorfos.
En estas condiciones, si v E, la descomposicin nica v = v
1
+ v
2
, hace
que la aplicacin de E en E
i
denida por
v = v
1
+v
2
7 v
i
se identique con la aplicacin de E
1
E
2
en E
i
, que se llama la proyeccin

i
de E
1
E
2
sobre E
i
(i = 1, 2). Por ejemplo,
1
se llama proyeccin de E
sobre el subespacio E
1
paralelamente al subespacio E
2
, suplementario de
E
1
respecto a E. Se dice tambin que v
1
(resp. v
2
) es la componente de v de
E en E
1
(resp. E
2
).
Ejemplo 40 Probar que los espacios vectoriales siguientes R R y R
2
son
isomorfos.
Solucin: Si tomamos E
1
= E
2
= R. Segn la observacin anterior, podemos
armar que los espacios vectoriales reales R R y R
2
son isomorfos. Si repre-
sentamos los elementos de E
1
como los vectores del eje real Ox, los de E
2
como
los vectores del eje real Oy, distinto de Ox, y los de E
1
E
2
como los vectores
de origen O del plano ordinario, entonces identicar RR y R
2
equivale a con-
fundir (x
1
, y
1
) de R
2
y x
1
+y
1
de RR. La gura siguiente ilustra este hecho.
Teorema 29 Si E
1
y E
2
son dos subespacios suplementarios de un espacio
vectorial E, entonces el espacio cociente E/E
1
es isomorfo a E
2
.
Demostracin: Si E
1
y E
2
son dos subespacios suplementarios de un espacio
vectorial E, entonces E = E
1
E
2
. Dados v = v
1
+v
2
y w = w
1
+w
2
de E, la
relacin v
1
+v
2
w
1
+w
2
(mod E
1
) puede escribirse como sigue
(v
1
+v
2
) (w
1
+w
2
) = v
1
w
1
+v
2
w
2
E
1
Els autors, 2002; Edicions UPC, 2002
46 CAPTULO 1. ESPACIOS VECTORIALES
equivalente a v
2
= w
2
. Por tanto, todos los vectores de una misma clase tienen
la misma componente en E
2
. Consideremos la aplicacin f : E/E
1
E
2
denida
por
f([v
1
+v
2
]) = v
2
Es claro que f es exhaustiva, pues cualquiera que sea v
2
de E
2
existe [0 +v
2
]
tal que f ([0 +v
2
]) = v
2
. Adems, si
f ([v
1
+v
2
]) = f ([w
1
+w
2
])
entonces v
2
= w
2
. Por tanto,
(v
1
+v
2
) (w
1
+w
2
) E
1
es decir,
[v
1
+v
2
] = [w
1
+w
2
]
Por tanto, f es inyectiva. Se cumple
f ([v] + [w]) = f ([v +w]) = v
2
+w
2
= f ([v]) +f ([w])
y
f ([v]) = f ([v]) = v
2
= f ([v])
Por tanto, f es un isomorsmo.
Corolario 9 En un espacio vectorial E, todos los subespacios suplementarios
de un subespacio vectorial E
1
de E son isomorfos.
Demostracin: Es una consecuencia inmediata del teorema anterior.
Teorema 30 Dos espacios vectoriales E y E
0
de dimensin nita sobre el mis-
mo cuerpo K son isomorfos si y slo si tienen la misma dimensin.
Demostracin: Supongamos que E y E
0
son de la misma dimensin n. Elegi-
mos una base (v
1
, ..., v
n
) de E y otra (w
1
, ..., w
n
) de E
0
. Por el teorema 15
(5), todo vector u E admite una expresin nica como sigue
u =
1
v
1
+ +
n
v
n
Consideremos la aplicacin f de E en E
0
denida por
f(u) =
1
w
1
+ +
n
w
n
Es claro que f es biyectiva. Por otra parte, si f(v) =
1
w
1
+ +
n
w
n
, entonces
se cumple:
f(u +v) = (
1
+
1
)w
1
+ + (
n
+
n
) w
n
=
= (
1
w
1
+ +
n
w
n
) + (
1
w
1
+ +
n
w
n
) =
= f(u) +f(v)
Els autors, 2002; Edicions UPC, 2002
1.17. ISOMORFISMOS DE ESPACIOS VECTORIALES 47
y
f(u) =
1
w
1
+ +
n
w
n
=
= (
1
w
1
+ +
n
w
n
) =
= f(u)
Por tanto, esta aplicacin es un isomorsmo de E en E
0
.
Recprocamente, supongamos que E y E
0
son isomorfos, y sea f el isomor-
smo de E en E
0
. Suponagmos tambin que dimE = n y dimE
0
= n
0
. Elegimos
una base (v
1
, ..., v
n
) de E. Denotamos por w
i
= f(v
i
) para cada 1 i n.
Cualquier vector u E admite una expresin nica como sigue
u =
1
v
1
+ +
n
v
n
De aqu, se tiene
f(u) = f(
1
v
1
+ +
n
v
n
) =
=
1
f(v
1
) + +
n
f(v
n
) =
=
1
w
1
+ +
n
w
n
Puesto que f es exhaustiva, cualquier vector w E
0
tiene una antiimagen en
E. Supongamos que f(u) = w, entonces
w =
1
w
1
+ +
n
w
n
Por tanto, (w
1
, ..., w
n
) es un sistema generador de E
0
. Vamos a ver ahora que
(w
1
, ..., w
n
) es libre. Para ello, consideremos

1
w
1
+ +
n
w
n
= 0
es decir

1
f(v
1
) + +
n
f(v
n
) = 0
De aqu, segn la denicin de isomorsmo, se sigue
f(
1
v
1
+ +
n
v
n
) = f(0)
ya que
f(0) = f(0 +0) = f(0) +f(0) implica f(0) = 0
Ahora bien, f es inyectiva. Por tanto,

1
v
1
+ +
n
v
n
= 0
Puesto que (v
1
, ..., v
n
) es una base de E, se sigue que
i
= 0 para todo 1 i
n. Por consiguiente, (w
1
, ..., w
n
) es una base de E
0
. En consecuencia, los dos
espacios vectoriales tienen la misma dimensin.
Els autors, 2002; Edicions UPC, 2002
48 CAPTULO 1. ESPACIOS VECTORIALES
Observacin 31 En la demostracin de este teorema se prueba tambin que si
dos espacios vectoriales de dimensin nita son isomorfos, la aplicacin trans-
forma una base de uno en una base del otro. Adems, el isomorsmo queda
perfectamente denido una vez elegida una base de cada espacio vectorial. En
concreto, el isomorsmo asocia los vectores de las mismas coordenadas.
Corolario 10 Todo espacio vectorial E de dimensin n sobre K es isomorfo a
K
n
.
Demostracin: El isomorsmo se establece una vez elegidas las bases: en E
escogemos una base arbitraria (v
1
, ..., v
n
) y en K
n
podemos tomar la base natural
(e
1
, ..., e
n
). Entonces, el vector v =
1
v
1
+ +
n
v
n
de E de coordenadas
(
1
, ...,
n
) respecto de la base considerada se corresponde con el vector w =

1
e
1
+ +
n
e
n
de K
n
de las mismas coordenadas en la base natural.
Observacin 32 Despus de este ltimo resultado, el estudio de E, desde el
punto de vista de su estructura vectorial se identica as con el estudio de K
n
referido a su base natural. Esta es la razn por la que se denomina tambin
base cannica a la base natural de K
n
. Obsrvese que con este resultado hemos
resuelto el problema de determinar (salvo isomorsmo) todos los espacios vec-
toriales de dimensin nita.
Corolario 11 Dados dos espacios vectoriales E
1
y E
2
de dimensiones nitas,
entonces se cumple
dim(E
1
E
2
) = dim(E
1
E
2
) = dimE
1
+dimE
2
Demostracin: Segn la observacin 30 se tiene
E
1
E
2

= E
1
E
2
Por tanto, por el teorema 30, tenemos
dim(E
1
E
2
) = dim(E
1
E
2
)
Para probar la ltima igualdad, supongamos que (v
1
, ..., v
n
) y (w
1
, ..., w
m
) son
bases de E
1
y E
2
respectivamente. Entonces es inmediato probar que
((v
1
, 0), ..., (v
n
, 0), (0, w
1
), ..., (0, w
m
))
es una base del espacio producto E
1
E
2
. Por tanto
dim(E
1
E
2
) = n +m
1.18. Cambio de coordenadas
Denicin 23 Se llaman coordenadas de un vector v de un espacio vec-
torial E respecto a la base (v
1
, ..., v
n
) a la nica familia nita de escalares
(
1
, ...,
n
) tales que
v =
1
v
1
+ +
n
v
n
Els autors, 2002; Edicions UPC, 2002
1.18. CAMBIO DE COORDENADAS 49
Denicin 24 Dado un espacio vectorial E, al pasar de una base B
1
a una
base B
2
, decimos que los vectores de E cambian sus coordenadas. Se dice
que el vector v tiene coordenadas (
1
, ...,
n
) en B
1
= (v
1
, ..., v
n
) y (
1
, ...,
n
)
en B
2
= (u
1
, ..., u
n
). A la base B
1
se la llama base antigua y a B
2
, la base
nueva.
En el teorema 31 se indicar cmo se calculan las coordendadas nuevas
a partir de las antiguas y recprocamente, y, en el teorema 32 se darn las
ecuaciones que caracterizan la relacin que hay entre las dos bases.
Observacin 33 Suponiendo E = E
0
en el teorema 30 y eligiendo dos bases
distintas (v
1
, ..., v
n
) y (u
1
, ..., u
n
) de E, la aplicacin biyectiva que asigna a
v =
1
v
1
+ +
n
v
n
el vector w =
1
u
1
+ +
n
u
n
, es un automorsmo de
E (un isomorsmo de E en s mismo). Esto hace que el estudio de E, realizado
utilizando la base antigua, se conserve idnticamente cuando cambiemos de base
y reemplacemos los vectores estudiados por sus transformados en el automors-
mo asociado, es decir, los vectores expresados en la base nueva.
Teorema 31 Dadas dos bases distintas B
1
= (v
1
, ..., v
n
) y B
2
= (u
1
, ..., u
n
)
de un espacio vectorial E. Sea v un vector arbitrario de E de coordenadas
(
1
, ...,
n
) en la base B
1
y de coordenadas (
1
, ...,
n
) en la base B
2
. Entonces
existen n
2
coecientes
ij
y
ij
tales que

i
=
1

i1
+ +
n

in
(i = 1, ..., n)
y

i
=
1

i1
+ +
n

in
(i = 1, ..., n)
Demostracin: Sea v un vector arbitrario de E de coordenadas (
1
, ...,
n
) en
la base antigua B
1
. Queremos hallar sus nuevas coordenadas en la base nueva
B
2
.
Los vectores de la nueva base estn denidos por medio de sus coordenadas
en la antigua base por las ecuaciones
u
j
=
1j
v
1
+ +
nj
v
n
(j = 1, ..., n) (1.1)
lo que introduce n
2
coecientes
ij
. El vector v se descompone de dos maneras
v =
1
v
1
+ +
n
v
n
=
1
u
1
+ +
n
u
n
siendo (
1
, ...,
n
) las coordenadas nuevas de v. Reemplazando los u
j
de (1.1),
se obtiene

1
v
1
+ +
n
v
n
=
1
(
11
v
1
+ +
n1
v
n
) + +
n
(
1n
v
1
+ +
nn
v
n
)
identicando en ambos miembros los coecientes de v
j
se tiene

i
=
1

i1
+ +
n

in
(i = 1, ..., n)
Estas son las expresiones de las antiguas coordenadas en funcin de las
nuevas.
Els autors, 2002; Edicions UPC, 2002
50 CAPTULO 1. ESPACIOS VECTORIALES
Si se desea obtener las frmulas inversas, basta escribir los vectores de la
antigua base por medio de sus coordenadas en la nueva base
v
j
=
1j
u
1
+ +
nj
u
n
(j = 1, ..., n) (1.2)
y procediendo de la misma manera se obtiene

i
=
1

i1
+ +
n

in
(i = 1, ..., n)
Observacin 34 Podemos escribir estas ecuaciones de una manera ms cmo-
da utilizando matrices. Consideremos las matrices siguientes
P =
_
_
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_
_
_ Q =
_
_
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_
_
_ A =
_
_
_

1
.
.
.

n
_
_
_ B =
_
_
_

1
.
.
.

n
_
_
_
Las ecuaciones que relacionan las coordenadas nuevas en B
2
en funcin de las
antiguas en B
1
se pueden escribir as
B = QA
y las ecuaciones que relacionan las coordenadas antiguas en funcin de las
nuevas como
A = PB
Es importante observar que las columnas de la matriz P son los vectores
de la base antigua B
1
expresados en la base nueva B
2
. Del mismo modo, las
columnas de la matriz Q son los vectores de la base nueva B
2
expresados en la
base antigua B
1
. Las matrices columna A y B son las coordenadas de un mismo
vector expresadas en B
1
y B
2
, respectivamente
Las matrices P y Q se llaman matrices de cambio de base. Tambin se
dice que P es la matriz de paso de la base nueva B
2
a la base antigua B
1
. De
forma anloga, Q se la llama matriz de paso de B
1
a B
2
.
Denicin 25 Se dene la aplicacin : N
n
N
n
{0, 1} por
(i, j) =

1 si i = j
0 si i 6= j
siendo N
n
= {1, 2, ..., n}. El valor (i, j) se representa por
ij
y recibe el nombre
de smbolo de Kronecker.
Teorema 32 Dadas dos bases distintas (v
1
, ..., v
n
) y (u
1
, ..., u
n
) de un espacio
vectorial E. Las coordenadas
ij
y
ij
de los vectores de una base respecto de la
otra, estn ligadas por las siguientes ecuaciones caractersticas
n
X
k=1

kj

ik
=
ij
Els autors, 2002; Edicions UPC, 2002
1.18. CAMBIO DE COORDENADAS 51
siendo
ij
el smbolo de Kronecker.
Demostracin: En las ecuaciones (1.1), introduciendo las ecuaciones (1.2),
se obtiene
u
j
= (
1j

11
+ +
nj

1n
)u
1
+ + (
1j

n1
+ +
nj

nn
)u
n
u
j
=

n
X
k=1

kj

1k
!
u
1
+ +

n
X
k=1

kj

nk
!
u
n
=
=
n
X
i=1
n
X
k=1

kj

ik
u
i
Dado que (u
1
, ..., u
n
) es un sistema libre, se deducen las siguientes relaciones:
1. Si j = i, el coeciente de u
i
en el segundo miembro debe ser igual a 1.
Por tanto,
n
X
k=1

ki

ik
= 1 (i = 1, ..., n)
2. Si j = r 6= i, el coeciente de u
r
en el segundo miembro debe ser igual a
0. Por tanto,
n
X
k=1

kr

ik
= 0 (i = 1, ..., r 1, r + 1, ..., n)
Introduciendo el smbolo de Kronecker, las dos relaciones anteriores se es-
criben en una sola como sigue
n
X
k=1

kj

ik
=
ij
Observacin 35 El teorema puede escribirse ms cmodamente utilizando ma-
trices. En efecto, obsrvese que la matriz asociada a la aplicacin que dene el
smbolo de Kronecker por
a
ij
=
ij
es la matriz que llamamos matriz identidad de orden n que la denotamos
por I
n
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
52 CAPTULO 1. ESPACIOS VECTORIALES
Las ecuaciones anteriores se escriben as
QP = I
n
Obsrvese que las matrices de los cambios de base son siempre invertibles. De
la ltima igualdad se sigue
P = Q
1
y Q = P
1
Ejemplo 41 En R
3
se consideran las bases B
1
= (e
1
, e
2
, e
3
) y B
2
= (v
1
, v
2
, v
3
)
siendo v
1
= 2e
1
, v
2
= e
2
+ 2e
3
y v
3
= 3e
3
. Hallar las coordenadas respecto
a B
2
del vector u = 4e
1
+e
2
5e
3
.
Solucin: Segn la observacin 34, sabemos que la matriz de cambio de
base o de paso de B
1
a B
2
tiene por vectores columna a los v
i
referidos a la base
antigua B
1
. En este caso tenemos
P =
_
_
2 0 0
0 1 0
0 2 3
_
_
Entonces, segn la observacin 35, la matriz Q de paso de B
2
a B
1
cumple
QP = I
3
Por tanto,
Q = P
1
=
1
6
_
_
3 0 0
0 6 0
0 4 2
_
_
Si (x
1
, y
1
, z
1
) son las coordenadas de un vector referidas a la base B
1
y (x
2
, y
2
, z
2
)
son las coordenadas del mismo vector referidas a la base B
2
. Entonces se cumple
1
6
_
_
3 0 0
0 6 0
0 4 2
_
_
_
_
x
2
y
2
z
2
_
_
=
_
_
x
1
y
1
z
1
_
_
Sustituyendo las coordenadas del vector u se tiene
1
6
_
_
3 0 0
0 6 0
0 4 2
_
_
_
_
4
1
5
_
_
=
_
_
2
1
1
_
_
Por tanto
u = 2v
1
v
2
+v
3
Els autors, 2002; Edicions UPC, 2002
Captulo 2
Aplicaciones lineales
2.1. Denicin y ejemplos
Sean dos espacios vectoriales E y F sobre el mismo cuerpo K. Una aplicacin
entre los conjuntos E y F que sea compatible con las estructuras de espacio
vectorial de E y F se llama homomorsmo de espacios vectoriales o aplicacin
lineal.
Denicin 26 Se llama aplicacin lineal a toda aplicacin f : E F tal que
f(u +v) = f(u) +f(v)
f(u) = f(u)
para todo u, v E y todo K.
Ejemplo 42 Consideremos E = F = R y K = R. Si f : R R es lineal y
f(1) = a, entonces f(x) = f(x1) = xf(1) = ax. Se cumple tambin que
f(x +y) = a(x +y) = ax +ay = f(x) +f(y)
De este modo, hemos caracterizado las aplicaciones compatibles con la estructura
de espacio vectorial de R; cualquier aplicacin lineal f : R R es de la forma
f(x) = ax, con a R.
Ejemplo 43 Sea E un espacio vectorial sobre K y (v
1
, ..., v
n
) una base de E.
La aplicacin f : E K
n
denida por
f(u) = (
1
, ...,
n
)
siendo u =
1
v
1
+ +
n
v
n
, es lineal. Esta aplicacin hace corresponder a
cada vector de E sus coordendas en la base dada.
Teorema 33 Si f : E F es lineal, entonces se cumple:
53
Els autors, 2002; Edicions UPC, 2002
54 CAPTULO 2. APLICACIONES LINEALES
1. f(u +v) = f(u) +f(v)
2. f(0) = 0
3. f(u) = f(u)
4. si adems g : F G es lineal, entonces g f : E G es lineal
Demostracin: (1.) Si f es lineal entonces se cumple
f(u +v) = f(u) +f(v)
De nuevo por ser lineal se cumple
f(u) +f(v) = f(u) +f(v)
De donde se tiene lo que queramos probar.
(2.) Si f es lineal, entonces se cumple
f(0) = f(0 +0) = f(0) +f(0)
De donde se obtiene lo que queramos probar.
(3.) Si f es lineal, entonces se cumple
0 = f(0) = f(u + (u)) = f(u) +f(u)
De donde se obtiene lo que queramos probar.
(4.) Si f es lineal entonces se cumple
(g f)(u +v) = g(f(u +v)) = g(f(u) +f(v))
Por ser g lineal, entonces
g(f(u) +f(v)) = g(f(u)) +g(f(v)) = (g f)(u) + (g f)(v)
Por otro lado, si f es lineal entonces se cumple
(g f)(u) = g(f(u)) = g(f(u))
Por ser g lineal, entonces
g(f(u)) = (g(f(u))) = (g f)(u)
Denicin 27 Un monomorsmo es una aplicacin lineal inyectiva. Un epi-
morsmo es una aplicacin lineal exhaustiva. Un isomorsmo es una apli-
cacin lineal biyectiva. Un endomorsmo es una aplicacin lineal de un espa-
cio E en s mismo. Un automorsmo es un endomorsmo biyectivo.
Els autors, 2002; Edicions UPC, 2002
2.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL 55
2.2. Ncleo e imagen de una aplicacin lineal
Sea f : E F una aplicacin lineal.
Denicin 28 Se llama ncleo de f al subconjunto de E denido como sigue
ker f = {u E : f(u) = 0}
Denicin 29 Se llama imagen de f al subconjunto de F denido como sigue
Im f = {v F : existe u E tal que f(u) = v}
Ejemplo 44 Consideremos la aplicacin cero 0 : E E:
0(u) = 0
para todo u E. Calculemos su ncleo y su imagen:
ker 0 = {u E : 0(u) = 0} = E
Im 0 = {v E : existe u E tal que 0(u) = v} = {v E : 0 = v} = {0}
Ejemplo 45 Consideremos la aplicacin identidad I
E
: E E:
I
E
(u) = u
para todo u E. Calculemos su ncleo y su imagen:
ker I
E
= {u E : I
E
(u) = 0} = {u E : u = 0} = {0}
Como u = I
E
(u), para todo u E, entonces
Im I
E
= E
Ejemplo 46 Consideremos la aplicacin
f : R
2
R
2
denida por
f(x, y) = (x +y, x y)
Calculemos su ncleo y su imagen:
ker f = {(x, y) R
2
: f(x, y) = 0} = {(x, y) R
2
: x +y = 0 y x y = 0} =
= {(x, y) R
2
: x = y y x = y} = {(0, 0)} = {0}
Im f = {f(x, y) : (x, y) R
2
} = {(x +y, x y) : (x, y) R
2
} =
= {(x, x) + (y, y) : (x, y) R
2
} = {x(1, 1) +y(1, 1) : (x, y) R
2
} =
= h{(1, 1), (1, 1)}i
es decir, Im f es el subespacio vectorial de R
2
generado por los vectores (1, 1) y
(1, 1).
Els autors, 2002; Edicions UPC, 2002
56 CAPTULO 2. APLICACIONES LINEALES
Teorema 34 Se cumple que ker f es un subespacio vectorial de E, e Im f es
un subespacio vectorial de F.
Demostracin: Vamos a probar que ker f es un subespacio vectorial de E. En
efecto, consideremos u, v ker f, entonces se cumple
f(u +v) = f(u) +f(v) = 0 +0 = 0
por ser f lineal. Por tanto, u + v ker f. Consideremos K, entonces se
cumple
f(u) = f(u) = 0 = 0
por ser f lineal. Por tanto, u ker f. En consecuencia lo que queramos
probar.
Para probar que Im f es un subespacio, consideremos u
0
, v
0
Im f, entonces
existen u, v E tales que
f(u) = u
0
y f(v) = v
0
Consideremos u +v E. Entonces se cumple
f(u +v) = f(u) +f(v) = u
0
+v
0
por ser f lineal. Por consiguiente, u
0
+ v
0
Im f. Consideremos K. Si
u
0
Im f entonces existe u E tal que f(u) = u
0
. Por tanto, u E y se
cumple
f(u) = f(u) = u
0
por ser f lineal. Por consiguiente, u Im f.
Teorema 35 Sea f : E F una aplicacin lineal, donde E es un espacio de
dimensin nita. Entonces ker f e Im f son de dimensin nita. Adems se
cumple
dimE = dim ker f +dim Im f
Demostracin: ker f es un subespacio vectorial de E, que por hiptesis es de
dimensin nita. Por tanto, ker f tambin es de dimensin nita. Sean k =
dim ker f, n = dimE. Consideremos una base de ker f, u
1
, . . . , u
k
, y ampli-
mosla a una base de E, u
1
, . . . , u
k
, u
k+1
, . . . , u
n
. Para completar la demostracin
del teorema, basta probar que f(u
k+1
), . . . , f(u
n
) es una base de F, porque esto
implicar que la dimensin de F es nita, y que dimF = dimEdim ker f, tal
y como queremos ver.
Veamos a continuacin que f(u
k+1
), . . . , f(u
n
) es una base de F. Sea u
Im f. Entonces existe v =
P
i=n
i=1

i
u
i
E tal que
u = f(v) = f

i=n
X
i=1

i
u
i
!
=
i=n
X
i=1

i
f(u
i
) =
i=n
X
i=k+1

i
f(u
i
)
Els autors, 2002; Edicions UPC, 2002
2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 57
donde se ha usado que las imgenes por f de u
1
, . . . , u
k
son 0 por pertenecer
a ker f. Por consiguiente, f(u
k+1
), . . . , f(u
n
) generan Im f. Slo falta ver que
son linealmente independientes:
0 =
i=n
X
i=k+1

i
f(u
i
) = f

i=n
X
i=k+1

i
u
i
!
Por tanto,
P
i=n
i=k+1

i
u
i
ker f, de donde se deduce
i=n
X
i=k+1

i
u
i
=
i=k
X
i=1

i
u
i
Por tanto,
i=k
X
i=1

i
u
i

i=n
X
i=k+1

i
u
i
= 0
Los vectores u
i
son linealmente independientes, por lo que los coecientes deben
ser 0. En particular,
i
= 0 para i = k+1, . . . , n. Por consiguiente, f(u
k+1
), . . . , f(u
n
)
son linealmente independientes.
Denicin 30 El rango de una aplicacin lineal f es la dimensin de Im f.
Teorema 36 Una aplicacin lineal f : E F es inyectiva si, y slo si, ker f =
0. Una aplicacin lineal f es exhaustiva si, y slo si, Im f = F.
Demostracin: Veamos primero que f es inyectiva ker f = 0.
) u ker f f(u) = 0 = f(0) u = 0, por ser f inyectiva.
) f(u) = f(v) f(u) f(v) = 0 f(u v) = 0 u v ker f
u v = 0 u = v.
Para ver que f es exhaustiva Im f = F, basta aplicar la denicin de
exhaustividad.
2.3. Matriz asociada a una aplicacin lineal
Teorema 37 Sea B = {u
i
|i I} una base de un espacio vectorial E sobre el
cuerpo K. Sean {w
i
|i I} vectores cualesquiera de un espacio vectorial F sobre
K. Existe una aplicacin lineal f : E F, y slo una, tal que f(u
i
) = w
i
para
cada i I.
Demostracin: Puesto que f es una aplicacin lineal, cumple
f

n
X
i=1

i
u
i
!
=
n
X
i=1

i
f(u
i
)
As pues, debemos denir la funcin que buscamos como sigue
f

n
X
i=1

i
u
i
!
=
n
X
i=1

i
w
i
Els autors, 2002; Edicions UPC, 2002
58 CAPTULO 2. APLICACIONES LINEALES
Slo falta demostrar que, as denida, f es lineal:
f(x +y) = f

n
X
i=1

i
u
i
+
n
X
i=1

i
u
i
!
= f

n
X
i=1
(
i
+
i
)u
i
!
=
n
X
i=1
(
i
+
i
)w
i
=
=
n
X
i=1
(
i
w
i
+
i
w
i
) =
n
X
i=1

i
w
i
+
n
X
i=!

i
w
i
= f(x) +f(y)
f(x) = f

n
X
i=!

i
u
i
!
= f

n
X
i=1
(
i
)u
i
!
=
n
X
i=1
(
i
)w
i
=
n
X
i=!

i
w
i
= f(x).
Observacin 36 El anterior teorema nos dice que una aplicacin lineal queda
totalmente determinada por las imgenes de los vectores de una base. Estas
imgenes pueden ser, no obstante, arbitrarias.
Teorema 38 Con las notaciones del teorema anterior, f es inyectiva si, y slo
si, {w
i
|i I} es linealmente independiente.
Demostracin: ) Supongamos que f es inyectiva. Por tanto, ker f = 0.
Veamos que {w
i
|i I} son linealmente independientes:
X
iI

i
w
i
= 0
X
iI

i
f(u
i
) = 0 f

X
iI

i
u
i
!
= 0
X
iI

i
u
i
= 0

i
= 0 para cada i I.
) Supongamos que {w
i
|i I} es linealmente independiente. Basta probar
que ker f = 0.
Sea x =
X
iI

i
u
i
ker f f(x) = 0 f

X
iI

i
u
i
!
= 0
X
iI

i
w
i
= 0

i
= 0 para todo i I x = 0 ker f = 0.
Teorema 39 Con las notaciones del teorema anterior, f es exhaustiva si, y
slo si, {w
i
|i I} genera F.
Demostracin: ) Supongamos que f es exhaustiva. Por tanto, Im f = F.
Sea y F, y veamos que puede expresarse en combinacin lineal de {w
i
|i I}:
y F = Im f Existe x =
X
iI

i
u
i
E tal que y = f(x)
y = f

X
iI

i
u
i
!
y =
X
iI

i
f(u
i
) y =
X
iI

i
w
i
.
Els autors, 2002; Edicions UPC, 2002
2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 59
) Supongamos que {w
i
|i I} genera F. Sea y F, y veamos que y
Im f :
y F = hw
i
|i Ii y =
X
iI

i
w
i
=
X
iI

i
f(u
i
) =
X
iI
f(
i
u
i
) = f

X
iI

i
u
i
!

y Im f f es exhaustiva.
Teorema 40 Con las notaciones del teorema anterior, f es biyectiva si, y slo
si, {w
i
|i I} es una base de F.
Demostracin: El enunciado se deduce de los dos teoremas anteriores:
f biyectiva f inyectiva y exhaustiva
{w
i
|i I} es linealmente independiente y genera F
{w
i
|i I} es una base de F.
Sea f : E F lineal, con E y F de dimensiones n y m respectivamente.
Sean u
1
, . . . , u
n
y v
1
, . . . , v
m
bases de E y F. Entonces f queda determinada si
conocemos las coordenadas de f(u
1
), . . . , f(u
n
) en la base v
1
, . . . , v
m
:
f(u
i
) =
m
X
j=1

j
i
v
j
, i = 1, . . . , n
Denicin 31 Se llama matriz asociada a f respecto a las bases {u
i
}, {v
j
}
a
_
_
_

1
1

1
n
.
.
.
.
.
.
.
.
.

m
1

m
n
_
_
_
La matriz asociada es la herramienta con que, muy a menudo, se estudi-
an las aplicaciones lineales. Veamos cmo esta matriz nos permite calcular las
coordenadas de la imagen de un vector:
Sea w =
n
X
i=1
w
i
u
i
E f(w) =
n
X
i=1
w
i
f(u
i
) =
n
X
i=1
w
i
_
_
m
X
j=1

j
i
v
j
_
_
=
m
X
j=1

n
X
i=!

j
i
w
i
!
v
j
As pues, las coordenadas (w
1,
. . . , w
m
) de f(w) en la base {v
j
} son
w
j
=
n
X
i=1

j
i
w
i
, j = 1, . . . , m.
Els autors, 2002; Edicions UPC, 2002
60 CAPTULO 2. APLICACIONES LINEALES
Si escribimos las coordenadas (w
1
, . . . , w
n
) y (w
1
, . . . , w
m
) como matrices de
una columna
W =
_
_
_
w
1
.
.
.
w
n
_
_
_, W =
_
_
_
w
1
.
.
.
w
n
_
_
_
entonces las igualdades anteriores se pueden resumir en
W = AW.
Ejemplo 47 Consideremos la aplicacin f : R
n
R
m
denida por
(x
1
, . . . , x
n
) 7(
n
X
i=1

1
i
x
i
, . . . ,
n
X
i=1

m
i
x
i
)
Tomemos en R
n
y R
m
las bases {e
i
= (0, . . . , 0, 1, 0, . . . 0)}.
f(e
i
) = f((0, . . . , 1, . . . , 0)) = (
1
i
, . . . ,
m
i
)
Por tanto, la matriz asociada a f es
_
_
_

1
1

1
n
.
.
.
.
.
.
.
.
.

m
1

m
n
_
_
_
Ejemplo 48 La matriz de I
E
: E E, considerando la misma base {u
i
} en los
dos espacios, es la matriz identidad
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
ya que I
E
(u
i
) = u
i
= 0u
1
+ + 1u
i
+ 0u
n
.
Ejemplo 49 Consideremos la matriz identidad I
E
: E E. Tomemos en el
primer espacio E una base u
1
, . . . , u
n
y en el segundo una base v
1
, . . . , v
n
. La
matriz de I
E
respecto a estas bases est formada por los coecientes de
I
E
(u
i
) = u
i
=
n
X
j=1

j
i
v
j
Ejemplo 50 Sea f : E F un isomorsmo. Consideremos una base {u
i
} de
E y la base {f(u
i
)} de F. La matriz de f respecto a estas bases es la matriz
identidad.
Els autors, 2002; Edicions UPC, 2002
2.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 61
Teorema 41 Sean f : E F y g : F H aplicaciones lineales. Sean {u
1
, . . . , u
n
},
{v
1
, . . . , v
m
}, {w
1
, . . . , w
s
} bases de E, F, H respectivamente. Sean A, B, C las
matrices de f, g, g f respecto a estas bases. Entonces C = BA.
Demostracin: Tenemos f(u
i
) =
P
m
j=1

j
i
v
j
, g(v
j
) =
P
s
k=1

k
j
w
k
. En-
tonces
(gf)(u
i
) = g(f(u
i
)) = g
_
_
m
X
j=1

j
i
v
j
_
_
=
m
X
j=1

j
i
g(v
j
) =
m
X
j=1

j
i

s
X
k=1

k
j
w
k
!
=
s
X
k=1
_
_
m
X
j=1

j
i

k
j
_
_
w
k
Por otro lado, usando la matriz asociada a g f,
(g f)(u
i
) =
s
X
k=1
c
k
i
w
k
Igualando las dos expresiones de (g f)(u
i
), obtenemos
c
k
i
=
m
X
j=1

j
i

k
j
=
m
X
j=1

k
j

j
i
Es decir,
C = BA.
Corolario 12 El producto de matrices es asociativo.
Demostracin: Recordemos en primer lugar que el producto de matrices slo
est denido cuando el nmero de columnas de la primera matriz coincide con
el nmero de las de la segunda. Sean, pues
A M
mn
(K), B M
sm
(K), C M
ts
(K)
Consideremos espacios vectoriales E, F, G, H sobre K de dimensiones n, m, s, t
respectivamente. Si jamos bases en cada uno de estos espacios, existen aplica-
ciones lineales f, g, h con matrices A, B, C respecto a estas bases. El hecho de
que h (g f) = (h g) f implica que
C(BA) = (CB)A
tal y como queramos ver.
Queremos ahora encontrar qu relacin hay entre las matrices de una misma
aplicacin lineal respecto a diferentes bases. Sea
f : E F
con matriz A respecto a las bases u
1
, . . . , u
n
de E y v
1
, . . . , v
m
de F, y con matriz
B respecto a las bases u
1
, . . . , u
n
de E y v
1
, . . . , v
m
de F. Podemos escribir f
como la composicin
E E F F
f = I
F
f I
E
Els autors, 2002; Edicions UPC, 2002
62 CAPTULO 2. APLICACIONES LINEALES
Consideremos en estos cuatro espacios las bases { u
i
}, {u
i
}, {v
i
}, { v
i
} respec-
tivamente. Sabemos que
B = QAP
donde P es la matriz de I
E
u
i
=
n
X
k=1
p
k
i
u
k
, i = 1, . . . , n
y Q es la matriz de I
F
v
j
=
m
X
k=1
q
k
j
v
k
, j = 1, . . . , m
En muchas ocasiones, lo que conocemos son las coordenadas de la nueva base
v
k
en la base v
j
,
v
k
=
m
X
j=1
r
j
k
v
j
, k = 1, . . . , m
Recordemos, sin embargo, que las matrices R = (r
j
k
) y Q son inversas una de la
otra. As pues,
B = R
1
AP.
2.4. Espacios vectoriales isomorfos
Teorema 42 Si f es lineal y biyectiva, entonces f
1
tambin es lineal.
Demostracin: Para demostrar que f
1
(u+v) = f
1
(u)+f
1
(v),basta probar
que ambos miembros tienen la misma imagen por f, gracias a que f es biyectiva:
f(f
1
(u +v)) = u +v = ff
1
(u) +ff
1
(v) = f(f
1
(u) +f
1
(v))
Veamos que f
1
(u) = f
1
(u) de la misma manera:
f(f
1
(u)) = u = ff
1
(u) = f(f
1
(u)).
Observacin 37 Gracias a este teorema sabemos que si f : E F es un
isomorsmo, entonces existe una aplicacin lineal g : F E (notamos g = f
1
)
tal que g f = I
E
y f g = I
F
, donde I
E
designa la aplicacin identidad de E
en E (I
E
(u) = u, para todo u E) y anlogamente para I
F
.
Recprocamente, si f es tal que existe una aplicacin lineal g : F E que
cumple gf = I
E
y f g = I
F
, entonces f es biyectiva e inversa de g. Aplicando
el anterior teorema, tenemos que f es lineal y, por tanto, es un isomorsmo.
Denicin 32 Se dice que dos espacios vectoriales E y F son isomorfos si
existe un isomorsmo E F.
Els autors, 2002; Edicions UPC, 2002
2.4. ESPACIOS VECTORIALES ISOMORFOS 63
Notacin 1 Para indicar que dos espacios E y F son isomorfos, usaremos la
siguiente notacin:
E

= F
Ejemplo 51 Si E es un espacio vectorial de dimensin n sobre K, entonces
E

= K
n
.
En efecto, consideremos una base de E: u
1
, . . . , u
n
. Todo vector v E puede
expresarse como v =
1
u
1
+ +
n
u
n
.
Denimos la siguiente aplicacin:
f : E K
n
dada por
f(
1
u
1
+ +
n
u
n
) = (
1
, . . . ,
n
) K
n
Veamos que f es un isomorsmo:
f es lineal:
f(v +w) = f((
1
u
1
+ +
n
u
n
) + (
1
u
1
+ +
n
u
n
)) =
= f((
1
+
1
)u
1
+ + (
n
+
n
)u
n
) =
= (
1
+
1
, . . . ,
n
+
n
) = (
1
, . . . ,
n
) + (
1
, . . . ,
n
) =
= f(u) +f(v)
f(v) = f((
1
u
1
+ +
n
u
n
)) = f(
1
u
1
+ +
n
u
n
) =
= (
1
, . . . ,
n
) = (
1
, . . . ,
n
) = f(v)
f es inyectiva: Basta probar que ker f = 0:
v ker f f(v) = 0 f(
1
u
1
+ +
n
u
n
) = 0 (
1
, . . . ,
n
) = 0

i
= 0, i = 1, . . . , n v = 0.
f es exhaustiva: Basta probar que Im f = K
n
.Sea (
1
, . . . ,
n
) K
n
.
Denimos
v =
1
u
1
+ +
n
u
n
Es obvio que f(v) = (
1
, . . . ,
n
) (
1
, . . . ,
n
) Im f.
Teorema 43 Dos espacios vectoriales de dimensin nita E y F son isomorfos
si, y slo si, dimE = dimF.
Demostracin: ) Supongamos que E

= F. As pues, existe un isomorsmo


f : E F. Sabemos que ker f = 0 por ser f inyectiva, y que Im f = F por ser
f exhaustiva. Se cumple
dimE = dim ker f +dim Im f dimE = dim0+dimF = 0 +dimF = dimF
tal y como queramos ver.
Els autors, 2002; Edicions UPC, 2002
64 CAPTULO 2. APLICACIONES LINEALES
) Supongamos ahora que dimE = dimF. Sea u
1
, . . . , u
n
una base de E,
y v
1
, . . . , v
n
una base de F. Consideremos la aplicacin lineal
f : E F
denida de la siguiente forma:
f

n
X
i=1

i
u
i
!
=
n
X
i=1

i
v
i
Veamos que f es un isomorsmo:
f es lineal: Sean x, y E, x =
P
n
i=1

i
u
i
, y =
P
n
i=1

i
u
i
, K.
f(x +y) = f

n
X
i=1

i
u
i
+
n
X
i=1

i
u
i
!
= f

n
X
i=1
(
i
+
i
)u
i
!
=
n
X
i=1
(
i
+
i
)v
i
=
=
n
X
i=1
(
i
v
i
+
i
v
i
) =
n
X
i=1

i
v
i
+
n
X
i=1

i
v
i
= f(x) +f(y)
f(x) = f

n
X
i=1

i
u
i
!
= f

n
X
i=1
(
i
)u
i
!
=
n
X
i=1
(
i
)v
i
=
n
X
i=1

i
v
i
= f(x)
f es inyectiva: Basta ver que ker f = 0.
Sea x =
n
X
i=1

i
u
i
ker f f(x) = 0 f

n
X
i=1

i
u
i
!
= 0
n
X
i=1

i
v
i
= 0

i
= 0 para i = 1, . . . , n x = 0 ker f = 0
f es exhaustiva: Basta ver que F = Im f. Sea y F, y =
P
n
i=1

i
v
i
.
Consideremos x =
P
n
i=1

i
u
i
E.
f(x) = f

n
X
i=1

i
u
i
!
=
n
X
i=1

i
v
i
= y y = f(x) y Im f
Ejemplo 52 R
2
y C son espacios vectoriales sobre R isomorfos. Un isomors-
mo es
(a, b) a +bi
Els autors, 2002; Edicions UPC, 2002
2.5. TEOREMAS DE ISOMORFISMO 65
2.5. Teoremas de isomorsmo
Teorema 44 (primer teorema de isomorsmo) Si f : E F es lineal,
entonces
Im f

= E/ ker f
Demostracin: La aplicacin f enva todos los elementos de una clase u+ker f
al mismo vector de F; en efecto, si w ker f, f(w) = 0, y
f(u +w) = f(u) +f(w) = f(u) +0 = f(u)
Esto nos permite denir una aplicacin
g : E/ ker f Im f
de la forma siguiente
g([u]) = f(u)
g es lineal:
g([u] + [v]) = g([u +v]) = f(u +v) = f(u) +f(v) = g([u]) +g([v])
g es exhaustiva:
si y Im f existe x E tal que y = f(x) y = g([x]) y Im g
g es inyectiva: Basta ver que ker g = 0.
Supongamos que g([u]) = 0 f(u) = 0 u ker f [u] = [0]
Por consiguiente, g es un isomorsmo entre E/ ker f e f. As pues,
Im f

= E/ ker f.
Corolario 13 (Segundo teorema de isomorsmo) Si F y G son subespacios
de E, se cumple
(F +G)/F

= G/(F G)
Demostracin: Consideremos la aplicacin
f : G (F +G)/F
dada por
f(v) = [v]
f es claramente lineal. ker f est formado por aquellos vectores v G tales
que [v] = 0, es decir, v F. Por tanto, ker f = FG. Adems, f es exhaustiva:
si [u] (F +G)/F u = w+v, w F, v G [u] = [v] = f(v)
Aplicando el primer teorema de isomorsmo a f, obtenemos
G/(F G)

= (F +G)/F.
Els autors, 2002; Edicions UPC, 2002
66 CAPTULO 2. APLICACIONES LINEALES
Corolario 14 (Tercer teorema de isomorsmo)Si F G son subespacios
de E, entonces
(E/F)/(G/F)

= E/G.
Demostracin: Observemos primero que F G implica que si una clase [u]
de E/F tiene un representante en G, todos sus elementos son de G. Por tanto,
G/F es un subconjunto de E/F. Denimos la aplicacin
f : E/F E/G
dada por
f([u]
F
) = [u]
G
donde [u]
F
indica la clase de u mdulo F, y [u]
G
, la clase de u mdulo G.Esta
aplicacin est bien denida, ya que elementos equivalentes respecto a F tambin
son equivalentes respecto a G.
f es lineal:
f([u]
F
+ [v]
F
) = f([u +v]
F
) = [u +v]
G
= [u]
G
+ [v]
G
= f([u]
F
) +f([v]
F
)
f es claramente exhaustiva.
Calculemos ker f :
ker f = {[u]
F
tales que [u]
G
= [0]
G
} = {[u]
F
tales que u G} = G/F
Aplicando el primer teorema de isomorsmo,
(E/F)/(G/F)

= E/G.
Observacin 38 Si la dimensin del espacio E es nita, Im f y E/ ker f tienen
la misma dimensin. Son, por tanto, espacios isomorfos. Qu nos dice de nue-
vo, pues, el primer teorema de isomorsmo? En primer lugar, nos dice que el
resultado es vlido para cualquier espacio vectorial, de dimensin nita o no.
An ms importante es, sin embargo, el hecho de que se pueda denir un isomor-
smo de una manera muy natural y sin intervencin de base. Una aplicacin
lineal denida sin utilizar ninguna base, o que permita una denicin de ese
tipo, se llama una aplicacin cannica. Todos los isomorsmos establecidos en
las tres demostraciones de este apartado son isomorsmos cannicos.
A continuacin veamos algunos ejemplos para ilustrar los tres teoremas de
isomorsmo.
Ejemplo 53 Consideremos la aplicacin lineal
f : R
2
R
dada por
f(x, y) = x y
Els autors, 2002; Edicions UPC, 2002
2.5. TEOREMAS DE ISOMORFISMO 67
El ncleo de f corresponde en el plano a una recta que pasa por (0, 0). R
2
/ ker f
es el conjunto de rectas paralelas a ker f:
R
2
/ ker f = {x y = a, a R}
Cada una de estas rectas corta al eje de las x en un punto (a, 0), y su imagen
por f es, precisamente, a. El isomorsmo
g : R
2
/ ker f Im f
denido de la forma
g([(x, y)]) = f(x, y) = x y
hace corresponder a cada recta de R
2
/ ker f su interseccin con el eje de las x.
Ejemplo 54 Consideremos
e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) en R
3
Sean F y G los subespacios vectoriales de R
3
denidos por
F = he
1
, e
2
i, G = he
1
, e
3
i
Entonces
F G = he
1
i y F +G = R
3
Por tanto, (F +G)/F es el conjunto de planos de R
3
paralelos a F y G/(F G)
es el conjunto de rectas del plano G paralelas a FG. El isomorsmo usado en
la demostracin del segundo teorema de isomorsmo hace corresponder a cada
recta de G paralela a F G el plano de R
3
paralelo a F que la contiene.
Ejemplo 55 Sean
e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) en R
3
Consideremos los subespacios de R
3
F = he
1
i y G = he
1
, e
2
i
Entonces R
3
/F es el conjunto de rectas de R
3
paralelas a F y G/F es el conjunto
de rectas de G paralelas a F. Cada clase de (R
3
/F)/(G/F) est formada por todas
las rectas (paralelas a F) situadas en un plano paralelo a G. El isomorsmo
usado en la demostracin del tercer teorema de isomorsmo hace corresponder
a cada una de esas clases el plano paralelo a G que la contiene (que es un
elemento de R
3
/G).
Els autors, 2002; Edicions UPC, 2002
68 CAPTULO 2. APLICACIONES LINEALES
2.6. El espacio de las aplicaciones lineales
Consideremos el conjunto L(E, F) de todas las aplicaciones lineales de E en
F. Hay una manera natural de denir una suma y un producto por elementos
del cuerpo K en L(E, F):
Si f, g L(E, F), denimos la suma f +g por
(f +g)(u) = f(u) +g(u) para todo u E
Si K, denimos el producto f por
(f)(u) = f(u) para todo u E
Las aplicaciones f +g y f son, claramente, lineales. L(E, F) con estas dos opera-
ciones satisface todos los axiomas de espacio vectorial, por lo que lo llamaremos
espacio vectorial de las aplicaciones de E en F.
Teorema 45 Si E y F son de dimensin nita, L(E, F) tambin lo es y dimL(E, F) =
dimE dimF
Demostracin: Sea u
1
, . . . , u
n
una base de E, y v
1
, . . . , v
m
una base de F.
Denimos
f
ij
: E F, i = 1, . . . , n, j = 1, . . . , m
de la forma
f
ij
(u
k
) = 0 si k 6= i
f
ij
(u
i
) = v
j
El teorema quedar demostrado si probamos que estas nm aplicaciones forman
una base de L(E, F). Para ello, tenemos que ver que {f
ij
} genera L(E, F), y que
es linealmente independiente.
{f
ij
} genera L(E, F): Sea f : E F lineal. Supongamos que f(u
k
) =
P
m
j=1

j
k
v
j
. Entonces
f =
n
X
i=1
m
X
j=1

j
i
f
ij
ya que para todo u
k
_
_
n
X
i=1
m
X
j=1

j
i
f
ij
_
_
(u
k
) =
{f
ij
} es linealmente independiente: En efecto,
n
X
i=1
m
X
j=1

j
i
f
ij
= 0
n
X
i=1
m
X
j=1

j
i
f
ij
(u
k
) = 0 k = 1, . . . , n

m
X
j=1
n
X
i=1

j
i
f
ij
(u
k
) = 0 k = 1, . . . , n
m
X
j=1

j
k
v
j
= 0 k = 1, . . . , n
j
i
= 0 k = 1, . . . , n, j = 1, . . . , m.
Els autors, 2002; Edicions UPC, 2002
2.6. EL ESPACIO DE LAS APLICACIONES LINEALES 69
La matriz de la aplicacin {f
ij
} respecto a las bases u
1
, . . . , u
n
y v
1
, . . . , v
m
es la matriz E
j
i
formada por 0 en todas las posiciones, excepto en la columna
i, la j, donde aparece un 1. Estas matrices forman una base de M
mn
(K). La
aplicacin
L(E, F) M
mn
(K)
tal que
f
ij
7E
ij
, i = 1, . . . , n, j = 1, . . . , m
es un isomorsmo entre estos dos espacios vectoriales. Este isomorsmo asocia
a cada aplicacin lineal f su matriz en las bases consideradas.
Els autors, 2002; Edicions UPC, 2002
70 CAPTULO 2. APLICACIONES LINEALES
Els autors, 2002; Edicions UPC, 2002
Captulo 3
Matrices
3.1. Denicin de matriz
Denicin 33 Dados dos conjuntos nitos I = {1, 2, ..., m} y J = {1, 2, ..., n},
se llama matriz de orden m n con coecientes en un conjunto K a
toda aplicacin de I J en K, tal que a cada par de elementos (i, j) I J le
hace corresponder el elemento a
ij
de K. Dicha matriz es expresable como una
tabla rectangular de m las y n columnas formada por elementos de K.
Denotaremos las matrices por letras maysculas. De este modo, si A es una
matriz de orden m n, designaremos por a
ij
el coeciente de A que ocupa el
lugar correspondiente a la i-sima la y la j-sima columna. De esta manera A
se escribir como sigue:
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
indicando que los coecientes a
ij
de A son elementos de K para todo i =
1, 2, ..., m y j = 1, 2, ..., n. Abreviadamente escribiremos A = (a
ij
) cuando no
haya confusin en el orden de la matriz, y recordando que el subndice i recorre
las las y el j recorre las columnas de la matriz A. Cuando m = n, la matriz
se llama cuadrada de orden n. Si m = 1 la matriz se llama matriz la de
orden n y si n = 1, se llama matriz columna de orden m.
Denotaremos por M
mn
(K) el conjunto de matrices de orden m n con
coecientes en el conjunto K. As A M
mn
(K) signica que A es una matriz
de orden m n con coecientes en el conjunto K. Escribiremos simplemente
M
n
(K) cuando las matrices sean cuadradas de orden n.
Observacin 39 En la mayor parte de los casos, los coecientes de las matrices
sern elementos de un cuerpo conmutativo K pero, en general los coecientes de
las matrices pueden ser cualquier objeto de la matemtica (nmeros, polinomios,
71
Els autors, 2002; Edicions UPC, 2002
72 CAPTULO 3. MATRICES
matrices, funciones, etc.). Cuando K = R (K = C) las matrices se llaman
reales (complejas).
Denicin 34 La igualdad de dos matrices A, B M
mn
(K) se dene por
su identidad: A = B si y slo si a
ij
= b
ij
para todo i = 1, 2, ..., m y j = 1, 2, ..., n.
Por consiguiente dos matrices iguales tienen el mismo orden. En otras palabras,
diremos que dos matrices son iguales cuando son del mismo orden y tienen los
mismos coecientes.
Ejemplo 56 En un espacio vectorial de dimensin nita un vector cualquiera
puede representarse por una matriz despus de haber elegido una base: los co-
ecientes de la matriz son las coordenadas del vector en dicha base. Podemos
escribirlo bien como una matriz la o bien columna. Debe observarse, sin em-
bargo, que un vector no es una matriz ya que un cambio de base cambia las
componentes del vector y por tanto la matriz, mientras que el vector permanece
invariable. Por ejemplo, el vector de componentes (1, 2, 3) en la base cannica
de R
3
tiene asociado las siguientes matrices columna y la en dicha base:
_
_
1
2
3
_
_
y

1 2 3

Ejemplo 57 Los sistemas lineales quedan perfectamente caracterizados por ma-
trices. As, por ejemplo, el siguiente sistema lineal:
3x 2y +z = 1
2x + 3y z = 0

dene la matriz

3 2 1
2 3 1

formada por los coecientes de las incgnitas.


Ejemplo 58 Siendo E un espacio vectorial de dimensin m sobre un cuerpo
conmutativo K de base (u
1
, u
2
, ..., u
m
) y n vectores v
1
, v
2
, ..., v
n
de E expresados
en dicha base como:
v
j
=
m
X
i=1
a
ij
u
j
= a
1j
u
1
+ +a
ij
u
i
+ +a
mj
u
m
(j = 1, 2, ..., n)
Las coordenadas a
ij
de estos n vectores pueden estar dispuestas segn una matriz
como la siguiente:
_
_
_
_
_
_
_
_
a
11
a
1j
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
ij
a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
mj
a
mn
_
_
_
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
3.1. DEFINICIN DE MATRIZ 73
Esta matriz es la matriz de las coordenadas de estos n vectores de E en la
base considerada. Obsrvese que los vectores estn colocados por columnas en la
matriz.
3.1.1. Tipos especiales de matrices
Denicin 35 Dada la matriz A, sean i
1
, i
2
, ..., i
q
ciertos ndices de las y
j
1
, j
2
, ..., j
p
ciertos ndices de columnas. La matriz q p obtenida, a partir de A,
suprimiendo en ella las las y columnas de ndices distintos a los considerados,
se dice que es una submatriz de A. Si los ndices de las y columnas elegidos
son consecutivos la matriz que resulta la llamaremos caja o bloque de la matriz
A dada.
Ejemplo 59 Dada la matriz
A =
_
_
1 2 1 5 3
0 1 1 1 2
3 4 2 2 2
_
_
de orden 3 5. La matriz siguiente
B =

0 1 2
3 2 2

es una submatriz de A, obtenida suprimiendo la primera la y las columnas 2 y


4; obsrvese que B no es una caja de A ya que los ndices elegidos (i
1
= 2, i
2
=
3, j
1
= 1, j
2
= 3 y j
3
= 5) para las columnas no son consecutivos. En cambio, la
matriz siguiente
C =

1 5 3
1 1 2

obtenida suprimiendo la tercera la y las columnas 1 y 2, es una caja de A.


Obsrvese que en este caso se han elegido i
1
= 1, i
2
= 2, j
1
= 3, j
2
= 4 y j
3
= 5.
Observacin 40 Si trazamos paralelas a los bordes de la tabla rectangular, la
matriz se divide en cierto nmero de submatrices o cajas. As, por ejemplo,
la matriz
B =
_
_
a b c
a
0
b
0
c
0
d e
d
0
e
0

_
_
se ha dividido en cuatro cajas. Recprocamente, podemos representar B como
la yuxtaposicin de cuatro cajas en un determinado orden, teniendo presente
que las cajas escritas en un misma la han de tener el mismo nmero de las,
y las de una misma columna el mismo nmero de columnas. De este modo B
puede considerarse como una matriz con coecientes en un conjunto formado
por elementos que son matrices. En suma, podemos expresar B como:
B =

B
11
B
12
B
21
B
22

Els autors, 2002; Edicions UPC, 2002


74 CAPTULO 3. MATRICES
donde, por ejemplo,
B
12
=

d e
d
0
e
0

Siguiendo con este procedimiento podemos armar que cualquier matriz puede
considerarse como la yuxtaposicin ordenada por las de varias matrices colum-
na o bien como la yustaposicin ordenada por columnas de matrices la. De este
modo, si
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
es una matriz de orden mn, podemos escribir
A =
_
_
_
_
_
F
1
F
2
.
.
.
F
m
_
_
_
_
_
=

C
1
C
2
C
n

donde F
i
y C
j
representan matrices la de orden n y matrices columna de orden
m correspondientes a la i-la y j-columna respectivamente de la matriz A. Por
ejemplo, la matriz B se escribe como
B =
_
_
F
1
F
2
F
3
_
_
=

C
1
C
2
C
3
C
4

donde por ejemplo
C
3
=
_
_
c
c
0

_
_
y F
2
=

a
0
b
0
c
0
d
0
e
0

Supongamos ahora que K es un cuerpo conmutativo. Sea A un elemento de
M
mn
(K). Podemos expresar A como una matriz columna en la que cada la
representa un vector de K
n
o bien como una matriz la en la que cada columna
es un vector de K
m
, en ambos casos habr que tomar ciertas bases en las que
se expresen los vectores en cuestin. Los vectores as considerados son llamados
respectivamente vectores la y vectores columna de la matriz A. Por tanto,
una matriz de M
mn
(K) puede considerarse como una la de vectores columna
o bien como una columna de vectores la.
Denicin 36 Si A es una matriz cuadrada de orden n, se llama diagonal
principal de A a los elementos de la forma a
ii
, i = 1, 2, ..., n. Se llama traza
de A, denotndose por tr A, a la suma de los elementos de la diagonal principal,
es decir,
tr A =
n
X
i=1
a
ii
Els autors, 2002; Edicions UPC, 2002
3.1. DEFINICIN DE MATRIZ 75
Denicin 37 Una matriz cuadrada se llama diagonal cuando todos los ele-
mentos situados fuera de la diagonal principal son nulos:
a
ij
= 0 i 6= j
Las matrices diagonales son de la forma siguiente:
_
_
_
_
_
_
_
_
a
11
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 a
ii
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
_
_
_
Una matriz diagonal se llama escalar cuando todos los elementos de la diagonal
principal son iguales:
a
ii
= k i = 1, 2, ..., n
En particular, cuando k = 1, se llama la matriz identidad de orden n y se
denota por I
n
o simplemente I.
_
_
_
_
_
_
_
_
1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
_
_
Denicin 38 Una matriz cuadrada se llama triangular inferior (superi-
or) cuando todos los elementos que estn por encima (debajo) de la diagonal
principal son nulos. Por ejemplo,
A =
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
es una matriz triangular inferior. Obsrvese que a
ij
= 0 cuando i > j (i < j) y
la matriz es triangular inferior (superior).
Ejemplo 60 Escribir la matriz real A de orden 2 3 tal que a
ij
= (1)
i+j
.
Solucin: Se tiene
A =

1 1 1
1 1 1

puesto que, por ejemplo, a


23
= (1)
2+3
= (1)
5
= 1.
Els autors, 2002; Edicions UPC, 2002
76 CAPTULO 3. MATRICES
Ejemplo 61 Cundo son iguales las matrices siguientes?

3 t 1
2t u

y

t 2v
u + 1 t +w

Solucin: Dos matrices son iguales cuando son del mismo orden y tienen
sus coecientes iguales. Por tanto
3 = t
t 1 = 2v
2t = u + 1
u = t +w
De aqu se obtiene, t = 3, v = 1, u = 5 y w = 2. Entonces las matrices son
iguales e iguales a la matriz

3 2
6 5

3.2. Espacio vectorial de las matrices


Sea K un cuerpo conmutativo. Las operaciones que vamos a denir a con-
tinuacin tienen como objetivo dotar al conjunto M
mn
(K) de una estructura
de espacio vectorial sobre K.
3.2.1. Suma de matrices
Denicin 39 Sean A = (a
ij
) y B = (b
ij
) dos elementos cualesquiera de
M
mn
(K). Se dene la adicin de A y B como la matriz C = (c
ij
) de
M
mn
(K) tal que c
ij
= a
ij
+ b
ij
para todo i = 1, 2, ..., m y j = 1, 2, ..., n.
Simblicamente escribimos
A+B = C a
ij
+b
ij
= c
ij
A la matriz A+B se la llama suma de A y B.
Teorema 46 El conjunto M
mn
(K) dotado con la adicin de matrices es un
grupo conmutativo.
Demostracin: Es fcil comprobar los axiomas de grupo:
1. Asociativa: Para todo A, B, C M
mn
(K) se cumple
A+ (B +C) = (A+B) +C
2. Conmutativa: Para todo A, B M
mn
(K) se cumple
A+B = B +A
Els autors, 2002; Edicions UPC, 2002
3.2. ESPACIO VECTORIAL DE LAS MATRICES 77
3. Elemento neutro: La matriz llamada nula, cuyos elementos son todos
iguales e iguales al cero de K, es el elemento neutro. Esta matriz se
denota por O = (0) y cumple
A+O = O +A = A
para todo A M
mn
(K); obsrvese que hay una matriz nula para cada
orden de las matrices.
4. Elemento opuesto: Una matriz admite siempre una matriz opuesta. Se
llama matriz opuesta de A a la matriz que denotamos por A cuyos
coecientes son los opuestos de los elementos de A en K. Si A = (a
ij
),
entonces A = (a
ij
). Se cumple que
A+ (A) = (A) +A = O
para cada A M
mn
(K).
Ejemplo 62 La matriz suma de dos matrices del mismo orden se calcula suman-
do cada coeciente de una con el correspondiente coeciente de la otra:

1 2 5
1 0 8

1 2 3
0 1 4

0 4 8
1 1 4

3.2.2. Multiplicacin escalar de matrices


Denicin 40 Sea A = (a
ij
) un elemento de M
mn
(K) y K. Se dene la
multiplicacin escalar A como la matriz B = (b
ij
) de M
mn
(K) tal que
b
ij
= a
ij
para todo i = 1, 2, ..., m y j = 1, 2, ..., n. Simblicamente escribimos
A = B a
ij
= b
ij
A la matriz A se la llama producto de por A.
Teorema 47 La multiplicacin escalar de matrices cumple las siguientes propiedades:
1. (A+B) = A+B
2. ( +)A = A+A
3. ()A = (A)
4. 1A = A
para todo , K y A, B M
mn
(K); hemos denotado por 1 la unidad de
K.
Demostracin: Es una simple comprobacin.
Els autors, 2002; Edicions UPC, 2002
78 CAPTULO 3. MATRICES
Ejemplo 63 El producto de un nmero por una matriz se calcula multiplicando
cada coeciente de la matriz por dicho nmero:
6

1 2 0
3 4 2

6 12 0
18 24 12

Como consecuencia de los dos teoremas anteriores tenemos el siguiente re-


sultado.
Teorema 48 El conjunto M
mn
(K) dotado con las operaciones de adicin y
de multiplicacin escalar tiene estructura de espacio vectorial sobre K.
Demostracin: Es consecuencia inmediata de los dos teoremas anteriores.
Observacin 41 El hecho de que M
mn
(K) sea un espacio vectorial permite
que todos las nociones relativas a los espacios vectoriales puedan aplicarse a las
matrices: combinacin lineal, dependencia e independencia lineal, base, dimen-
sin, etc.
Teorema 49 El espacio vectorial de las matrices M
mn
(K) es de dimensin
m n.
Demostracin: Sea A cualquier elemento de M
mn
(K), se tiene
A =
n
X
j=1
m
X
i=1
a
ij
E
ij
siendo E
ij
una matriz de M
mn
(K) que tiene todos sus coecientes nulos, salvo
el que est situado en la interseccin de la la i con la columna j y que es igual
a la unidad de K
E
ij
=
_
_
_
_
_
_
_
_
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
3.2. ESPACIO VECTORIAL DE LAS MATRICES 79
En efecto,
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
= a
11
_
_
_
_
_
1 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
+ +
a
1n
_
_
_
_
_
0 0 1
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
+ +a
m1
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
1 0 0
_
_
_
_
_
+ +
a
mn
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
De esto se sigue que estas m n matrices E
ij
forman un sistema generador
del espacio vectorial M
mn
(K); adems, por la forma que tienen es inmediato
comprobar que son independientes. En efecto,
n
X
j=1
m
X
i=1

ij
E
ij
= (
ij
) = (0) =
ij
= 0
para todo i = 1, 2, ..., n y j = 1, 2, ..., m.
Por tanto, (E
ij
: i = 1, 2, ..., m; j = 1, 2, ..., n) es una base de M
mn
(K); a
esta base se la llama base natural o cannica de M
mn
(K).
Ejemplo 64 La base cannica de M
2
(R) es

1 0
0 0

0 1
0 0

0 0
1 0

0 0
0 1

Obsrvese que cualquier matriz, como por ejemplo


A =

1 5
2 8

se escribe como combinacin lineal de las matrices de esta base

1 5
2 8

= 1

1 0
0 0

+ 5

0 1
0 0

0 0
1 0

+ 8

0 0
0 1

=
= E
11
+ 5E
12
2E
21
+ 8E
22
Ejemplo 65 Probar que el conjunto T de las matrices triangulares inferiores
de M
n
(K) forman un subespacio vectorial de M
n
(K). Probar tambin que su
dimensin es n(n + 1)/2.
Els autors, 2002; Edicions UPC, 2002
80 CAPTULO 3. MATRICES
Demostracin: Es claro que O T. Si A, B son dos matrices triangulares
inferiores de M
n
(K), entonces
A+B =
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
+
_
_
_
_
_
b
11
0 0
b
21
b
22
0
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
b
nn
_
_
_
_
_
=
=
_
_
_
_
_
a
11
+b
11
0 0
a
21
+b
21
a
22
+b
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
+b
n1
a
n2
+b
n2
a
nn
+b
nn
_
_
_
_
_
es decir, la matriz A+B es una matriz triangular. Adems
A =
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
=
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
es decir, la matriz A es una matriz triangular. Por tanto, T es un subespacio
de M
n
(K).
Observemos que si A T, entonces
A =
_
_
_
_
_
a
11
0 0
a
21
a
22
0
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
= a
11
_
_
_
_
_
1 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
+a
21
_
_
_
_
_
0 0 0
1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
+
a
22
_
_
_
_
_
0 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
+ +a
nn
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
es decir, las matrices triangulares E
11
, E
21
, E
22
, E
31
, ..., E
nn
forman un sistema
generador de T. Es claro que por su forma son tambin linealmente independi-
entes. Por tanto, constituyen una base de T. Su dimensin es
dimT = 1 + 2 + 3 + + (n 1) +n =
n(1 +n)
2
obsrvese la sucesin de elementos de la base (E
11
, E
21
, E
22
, E
31
, E
32
, E
33
, E
41
, ..., E
nn
).
3.3. Matriz asociada a una aplicacin lineal
Sean E y F dos espacios vectoriales de dimensiones nitas sobre un cuerpo
K. Supongamos que B = (u
1
, ..., u
n
) y B
0
= (v
1
, ..., v
m
) son bases de E y F
Els autors, 2002; Edicions UPC, 2002
3.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 81
respectivamente. Sabemos que una aplicacin lineal f : E F queda unvoca-
mente determinada al expresar los vectores f(u
1
), ..., f(u
n
) en la base B
0
de F.
De este modo, tenemos
f(u
i
) = a
1i
v
1
+ +a
mi
v
m
(i = 1, ..., n)
Denicin 41 Se llama matriz de f respecto de las bases B de E y B
0
de F a
la matriz de orden m n con coecientes en K cuya columna i sima est
constituida por las coordenadas de f(u
i
) (i = 1, ..., n) en la base B
0
de F.
A esta matriz se la llama tambin matriz asociada a la aplicacin lineal f en
las bases de E y F. Es frecuente denotarla por M
(f,B,B
0
)
, o simplemente, M
f
,
cuando no haya confusin posible.
Teorema 50 Sean E y F dos espacios vectoriales de dimensiones nitas sobre
un cuerpo K. Supongamos que B = (u
1
, ..., u
n
) y B
0
= (v
1
, ..., v
m
) son bases de
E y F respectivamente. Dada una aplicacin lineal f : E F, la aplicacin
: L(E, F) M
mn
(K)
denida por
(f) = M
(f,B,B
0
)
es biyectiva.
Demostracin: Fijadas las bases B = (u
1
, ..., u
n
) y B
0
= (v
1
, ..., v
m
) de E y
F, respectivamente. Dada cualquier matriz A = (a
ij
) de M
mn
(K), sta dene
de manera nica n vectores de F por las siguientes frmulas
w
j
= a
1j
v
1
+ +a
mj
v
m
(j = 1, ..., n)
Entonces sabemos que existe una aplicacin f : E F, y slo una, tal que
f(u
j
) = w
j
(j = 1, ..., n). Obsrvese entonces que A es la matriz asociada a f
en las bases consideradas.
Observacin 42 En particular, toda matriz de M
mn
(K) puede ser consider-
ada como la matriz asociada a la aplicacin lineal de K
n
en K
m
referidos a sus
respectivas bases cannicas.
Els autors, 2002; Edicions UPC, 2002
82 CAPTULO 3. MATRICES
Ejemplo 66 Sea f : R
2
R
3
una aplicacin lineal denida por
f(x, y) = (x +y, x +y, x +y)
Hallar su matriz asociada a las bases cannicas de R
2
y R
3
.
Solucin: Se cumple
f(1, 0) = (1, 1, 1)
f(0, 1) = (1, 1, 1)
Por tanto,
M
f
=
_
_
1 1
1 1
1 1
_
_
Ejemplo 67 Dada la matriz
M =

1 2 3
0 1 1

Escribir la aplicacin lineal asociada a esta matriz.


Solucin: Es claro que M M
23
(R). Por tanto, f : R
3
R
2
y cumple
f(e
1
) = e
0
1
f(e
2
) = 2e
0
1
e
0
2
f(e
3
) = 3e
0
1
+e
0
2
Por tanto,
f(x, y, z) = xf(e
1
) +yf(e
2
) +zf(e
3
)
= xe
0
1
+y(2e
0
1
e
0
2
) +z(3e
0
1
+e
0
2
)
= (x + 2y + 3z)e
0
1
+ (y +z)e
0
2
es decir,
f(x, y, z) = (x + 2y + 3z, y +z)
3.4. Producto de matrices
Sean E, F, G tres espacios vectoriales de dimensiones respectivas m, n, p sobre
K, y supongamos que (u
i
: i = 1, ..., n), (v
j
: j = 1, ..., m), (w
k
: k = 1, ..., p) son
bases de E, F y G, respectivamente. Consideremos las tres aplicaciones lineales
f, g, g f
Els autors, 2002; Edicions UPC, 2002
3.4. PRODUCTO DE MATRICES 83
y las tres matrices asociadas en las bases dadas M
f
= (
ij
), M
g
= (
jk
) y
M
gf
= (
ik
). Observemos que M
f
M
mn
(K), M
g
M
pm
(K) y M
gf

M
pn
(K) y que
(g f)(u
i
) =
p
X
k=1

ki
w
k
f(u
i
) =
m
X
j=1

ji
v
j
g(v
j
) =
p
X
k=1

kj
w
k
Entonces
(g f)(u
i
) = g(f(u
i
)) = g(
m
X
j=1

ji
v
j
) =
m
X
j=1

ji
g(v
j
)
=
m
X
j=1

ji
p
X
k=1

kj
w
k
=
m
X
j=1
p
X
k=1

ji

jk
w
k
=
p
X
k=1
m
X
j=1

ji

kj
w
k
=
p
X
k=1
w
k
m
X
j=1

ji

kj
Por tanto

ki
=
m
X
j=1

ji

kj
que se puede representar por el esquema siguiente
Obsrvese que el coeciente
ki
de la matriz de M
gf
se obtiene de los elementos
Els autors, 2002; Edicions UPC, 2002
84 CAPTULO 3. MATRICES
de la la k de M
g
(factor de la izquierda) y de los elementos de la columna i de
M
f
(factor de la derecha); se dice entonces que se ha efectuado el producto de
la la k por la columna i. De este modo, tenemos el resultado siguiente
M
gf
= M
g
M
f
y, en general, la siguiente denicin.
Denicin 42 Dadas las matrices A = (a
ik
) de M
mp
(K) y B = (b
kj
) de
M
pn
(K), se dene la multiplicacin de A y B como la matriz C de M
mn
(K)
tal que
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
ip
b
pj
(i = 1, ..., m; j = 1, ..., n)
Simblicamente escribimos
AB = C c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
ip
b
pj
A la matriz AB se la llama producto de A y B.
Observacin 43 La multiplicacin de dos matrices es una operacin que no
siempre puede realizarse. Para que pueda hacerse se ha de cumplir la siguiente
condicin: el nmero de columnas de la primera matriz (factor de la izquierda)
ha de coincidir con el nmero de las de la segunda matriz (factor de la derecha).
Si A es una matriz de orden mp, entonces slo podemos multiplicarla por una
matriz B que sea del orden p n. En tal caso, la matriz producto A B es de
orden mn. Es importante pues observar bien como estn puestos los nmeros
m, n y p de los rdenes de las matrices.
La operacin se efecta de la siguiente manera: si designamos por C la matriz
que resulta de la multiplicacin de A por B, tenemos
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
es decir, multiplicamos trmino a trmino la la i de A por la columna j de B,
sumando despus todos los productos efectuados.
Ejemplo:

1 2 3
2 1 3

_
_
1 2
0 1
1 5
_
_
=

1 1 + (2) 0 + 3 (1) 1 2 + (2) (1) + 3 5


2 1 + 1 0 + (3) (1) 2 2 + 1 (1) + (3) 5

2 19
5 12

Observemos los rdenes: 2 3 por 3 2 debe obtenerse 2 2.


Els autors, 2002; Edicions UPC, 2002
3.5. IMAGEN DE UN VECTOR POR DE UNA APLICACIN LINEAL 85
3.5. Imagen de un vector por de una aplicacin
lineal
Teorema 51 Sean E y F dos espacios vectoriales de dimensiones nitas sobre
un cuerpo K. Supongamos que B = (u
1
, ..., u
n
) y B
0
= (v
1
, ..., v
m
) son bases de E
y F respectivamente. Sea f : E F una aplicacin lineal que tiene como matriz
asociada en las bases B y B
0
la matriz A = (a
ij
) M
mn
(K). Consideremos
que (x
1
, ..., x
n
) son las coordenadas de v en B y (y
1
, ..., y
m
) son las coordendas
de f(v) en B
0
. Entonces se cumple la siguiente frmula matricial
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
y
1
.
.
.
y
m
_
_
_
Demostracin: En efecto, puesto que
v = x
1
u
1
+ +x
n
u
n
entonces,
f(v) = x
1
f(u
1
) + +x
n
f(u
n
)
Esta ecuacin puede escribirse matricialmente como sigue
_
_
_
y
1
.
.
.
y
m
_
_
_ = x
1
_
_
_
a
11
.
.
.
a
m1
_
_
_+ +x
n
_
_
_
a
1n
.
.
.
a
mn
_
_
_
=

A
11
A
1n

_
_
_
x
1
.
.
.
x
n
_
_
_
donde
A
1i
=
_
_
_
a
1i
.
.
.
a
mi
_
_
_ (i = 1, ..., n)
Ahora bien

A
11
A
1n

=
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
m1
a
mn
_
_
_ = A
Por tanto, tenemos la siguiente frmula matricial para calcular la imagen de un
vector
Y = AX
Els autors, 2002; Edicions UPC, 2002
86 CAPTULO 3. MATRICES
siendo
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ y Y =
_
_
_
y
1
.
.
.
y
m
_
_
_
Ejemplo 68 Dadas las matrices
A =

1 2 3
3 1 2

, B =
_
_
2 0 1
1 1 2
1 3 1
_
_
, C =
_
_
1 0 3 2
3 1 2 1
2 0 1 1
_
_
comprobar que
(AB)C = A(BC)
Solucin: Se tiene por un lado
AB =

1 2 3
3 1 2

_
_
2 0 1
1 1 2
1 3 1
_
_
=

3 7 8
5 7 3

(AB)C =

3 7 8
5 7 3

_
_
1 0 3 2
3 1 2 1
2 0 1 1
_
_
=

34 7 13 21
32 7 32 0

por otro lado


BC =
_
_
2 0 1
1 1 2
1 3 1
_
_
_
_
1 0 3 2
3 1 2 1
2 0 1 1
_
_
=
_
_
4 0 7 3
0 1 3 3
10 3 4 6
_
_
A(BC) =

1 2 3
3 1 2

_
_
4 0 7 3
0 1 3 3
10 3 4 6
_
_
=

34 7 13 21
32 7 32 0

3.6. El anillo de las matrices cuadradas


Teorema 52 El conjunto M
n
(K) de las matrices cuadradas de orden n sobre
K, provisto de las operaciones de adicin y multiplicacin es un anillo uni-
tario, no conmutativo, que posee divisores de cero, isomorfo al anillo L(E), con
dim E = n.
Demostracin: Segn el teorema 5, M
n
(K) puede considerarse como el con-
junto de las matrices asociadas a los endomorsmos del espacio vectorial E de
dimensin n sobre K. La biyeccin
: L(E) M
n
(K)
f (f) = M
f
Els autors, 2002; Edicions UPC, 2002
3.6. EL ANILLO DE LAS MATRICES CUADRADAS 87
nos permite denir sobre M
n
(K) dos operaciones internas A+B y AB, adicin
y multiplicacin de matrices respectivamente. Esta biyeccin y la estructura de
anillo de L(E) nos muestran que M
n
(K), provisto de las operaciones de adicin
y multiplicacin de matrices, tiene tambin estructura de anillo y que estos dos
anillos son isomorfos.
La unidad de este anillo es la matriz asociada a la identidad de E, es decir,
la matriz I
n
. Como L(E), este anillo no es conmutativo, como se puede ver en
el siguiente ejemplo

1 1
0 1

0 1
1 0

1 1
1 0

0 1
1 0

1 1
0 1

0 1
1 1

Igual que L(E), M


n
(K) tiene divisores de cero. El siguiente ejemplo muestra
este hecho

1 0
0 0

0 0
1 1

0 0
0 0

Observacin 44 De este teorema, se sigue que las matrices cuadradas de orden


n sobre K satisfacen las siguientes propiedades:
1. (AB)C = A(BC)
2. AB 6= BA
3. AI
n
= I
n
A = A
4. A(B +C) = AB +AC y (A+B)C = AC +BC
5. AB = O no implica A = O o B = O
6. AB = AC no implica B = C
7. A
n
= AA
n1
, para todo nmero natural n > 1
Teorema 53 Si f es un automorsmo de un espacio vectorial E de dimensin
n sobre K, entonces se cumple
M
f
1 = M
1
f
Demostracin: En efecto, si f es un automorsmo, existe f
1
, y satisface la
siguiente relacin
f f
1
= f
1
f = Id
E
conduce
M
f
M
f
1 = M
f
1M
f
= I
n
y, por tanto, M
f
1 = M
1
f
.
Els autors, 2002; Edicions UPC, 2002
88 CAPTULO 3. MATRICES
Denicin 43 Dada una matriz A de M
n
(K), se dice que A tiene inversa o
que es inversible, si existe una matriz B de M
n
(K) tal que
AB = BA = I
n
En tal caso la matriz B se representa por A
1
y se llama la matriz inversa
de A.
Recurdese que el conjunto de automorsmos de un espacio vectorial E sobre
un cuerpo conmutativo K es un grupo respecto a la composicin de aplicaciones.
Este grupo se llama grupo lineal de E y se representa por GL(E).
Teorema 54 El conjunto de las matrices inversibles de M
n
(K) es un grupo no
conmutativo isomorfo a GL(E).
Demostracin: La biyeccin f 7M
f
establecida en el teorema 5 demuestra
enseguida este hecho.
Observacin 45 Si dos matrices A, B de M
n
(K) son inversibles, se sigue que:
1. A
1
es nica
2.

A
1

1
= A
3. (AB)
1
= B
1
A
1
Es una simple consecuencia de que las matrices inversibles de M
n
(K) for-
man un grupo.
Ejemplo 69 Demostrar que la matriz
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
verica la relacin A
n
= 3
n1
A.
Solucin: La demostracin es por induccin. Para n = 1, es claro que se
cumple ya que A = A. Supongamos que la relacin es cierta para n1, es decir,
A
n1
= 3
n2
A. Entonces
A
n
= AA
n1
= A(3
n2
A) = 3
n2
A
2
Ahora bien,
A
2
=
_
_
1 1 1
1 1 1
1 1 1
_
_
2
=
_
_
3 3 3
3 3 3
3 3 3
_
_
= 3A
Por tanto,
A
n
= 3
n2
(3A) = 3
n1
A
Els autors, 2002; Edicions UPC, 2002
3.6. EL ANILLO DE LAS MATRICES CUADRADAS 89
Ejemplo 70 Demostrar que la matriz
A =

2 1
1 2

verica la ecuacin A
2
+ A + I
2
= O, determinando los valores de y .
Calcular A
1
, si existe.
Solucin: Se tiene entonces

2 1
1 2

2
+

2 1
1 2

1 0
0 1

0 0
0 0

Ahora bien,

2 1
1 2

2
=

5 4
4 5

por tanto, de la ecuacin anterior se sigue que

5 + 2 + 4 +
4 + 5 + 2 +

0 0
0 0

luego
5 + 2 + = 0
4 + = 0
de donde = 4 y = 3. Entonces A satisface la ecuacin siguiente
A
2
4A+ 3I
2
= O
Multiplicando la igualdad por A
1
, suponiendo que existe, se tiene
A4I
2
+ 3A
1
= O
Por tanto,
A
1
=
1
3
(4I
2
A)
es decir
A
1
=
1
3

2 1
1 2

Obsrvese que
AA
1
=
1
3

2 1
1 2

2 1
1 2

=
1
3

3 0
0 3

= I
2
Els autors, 2002; Edicions UPC, 2002
90 CAPTULO 3. MATRICES
3.7. Trasposicin de matrices
Denicin 44 En el conjunto M
mn
(K) se dene una operacin que recibe el
nombre de trasposicin. Hallar la traspuesta de una matriz A de M
mn
(K), es
formar otra matriz A
t
de M
nm
(K) que se obtiene a partir de A cambiando sus
las por sus columnas. De manera general, A = (a
ij
) se convierte en A
t
= (a
0
ij
)
con a
0
ij
= a
ji
, i = 1, ..., n, j = 1, ..., m. A la matriz A
t
se le llama traspuesta
de A.
Observacin 46 Si E y F son dos espacios vectoriales de dimensiones nitas
sobre K, E y E

, espacio dual de E, estn referidos a dos bases duales, as como


F y F

, entonces se cumple que


M
f
t = (M
f
)
t
para todo f L(E, F).
Teorema 55 De la denicin, se obtienen las siguientes propiedades:
1. La trasposicin es una aplicacin biyectiva de M
mn
(K) en M
nm
(K)
2. (A
t
)
t
= A, para todo A M
mn
(K)
3. (A+B)
t
= A
t
+B
t
, para todo A, B M
mn
(K)
4. (A)
t
= A
t
, para todo K y A M
mn
(K)
5. (AB)
t
= B
t
A
t
Demostracin: (1) Es inmediato por la forma en que se efecta la trasposicin
de matrices.
(2) Si A = (a
ij
), entonces A
t
= (a
ji
) y, por tanto, (A
t
)
t
= (a
ij
) = A.
(3) Si A = (a
ij
) y B = (b
ij
), entonces A + B = C = (c
ij
) y c
ij
= a
ij
+ b
ij
.
Por tanto, (A+B)
t
= C
t
= (c
ji
) = (a
ji
+b
ji
) = (a
ji
) + (b
ji
) = A
t
+B
t
.
(4) Si A = (a
ij
), entonces A = C y c
ij
= a
ij
. Por tanto, (A)
t
= C
t
=
(c
ji
) = (a
ji
) = (a
ji
) = A
t
.
(5) Si A = (a
ij
) y B = (b
ij
), entonces AB = C = (c
ij
) y
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
Por tanto,
(AB)
t
= C
t
= (c
ji
)
= (a
j1
b
1i
+a
j2
b
2i
+ +a
jn
b
ni
)
= (b
1i
a
j1
+b
2i
a
j2
+ +b
ni
a
jn
)
= B
t
A
t
Els autors, 2002; Edicions UPC, 2002
3.7. TRASPOSICIN DE MATRICES 91
Denicin 45 Una matriz cuadrada A = (a
ij
) de orden n se llama simtrica
si cumple a
ij
= a
ji
, i = 1, ..., n y j = 1, ..., n. La matriz se llama antisimtrica
si se cumple a
ij
= a
ji
, i = 1, ..., n y j = 1, ..., n.
Teorema 56 Sea A = (a
ij
) una matriz cuadrada de orden n. Entonces se
cumplen las siguientes propiedades:
1. A es simtrica si y slo si A
t
= A
2. A es antisimtrica si y slo si A
t
= A
3. Si A es antisimtrica, entonces todos los elementos de la diagonal principal
son nulos
4. A es descomponible en suma de una matriz simtrica y otra antisimtrica
Demostracin: (1) Si A = (a
ij
) es simtrica, entonces A = (a
ij
) = (a
ji
) = A
t
.
Recprocamente, si A
t
= A, entonces es claro que la matriz es cuadrada y de
orden el de A. Adems, de A
t
= A se sigue que a
ij
= a
ji
.
(2) Si A = (a
ij
) es antisimtrica, entonces A = (a
ij
) = (a
ji
) = (a
ji
) =
A
t
. Recprocamente, si A
t
= A, entonces es claro que la matriz es cuadrada
y de orden el de A. Adems, de A
t
= A se sigue que a
ji
= a
ij
, o sea que
a
ij
= a
ji
.
(3) Si A = (a
ij
) es antisimtrica, entonces A = (a
ij
) = (a
ji
). Por tanto,
a
ii
= a
ii
, luego a
ii
= 0 para todo i = 1, ..., n.
(4) Es claro que la matriz
1
2
(A+A
t
) es simtrica, pues

1
2
(A+A
t
)

t
=
1
2
(A
t
+A)
y que la matriz
1
2
(AA
t
) es antisimtrica, pues

1
2
(AA
t
)

t
=
1
2
(A
t
A) =

1
2
(AA
t
)

y adems se cumple que


A =
1
2
(A+A
t
) +
1
2
(AA
t
)
y, en consecuencia, toda matriz cuadrada puede descomponerse en suma de una
matriz simtrica y otra antisimtrica.
Ejemplo 71 Dadas dos matrices A, B M
n
(K), probar que
1. AA
t
y A
t
A son simtricas
2. A, B simtricas no implica AB simtrica
3. Si A es inversible, entonces (A
t
)
1
=

A
1

t
Els autors, 2002; Edicions UPC, 2002
92 CAPTULO 3. MATRICES
4. Si A y B son simtricas, entonces AB es simtrica si y slo si AB = BA
Solucin: (1) En efecto,
(AA
t
)
t
=

A
t

t
A
t
= AA
t
y del mismo modo se prueba que A
t
A es tambin simtrica.
(2) En efecto, consideremos las matrices simtricas siguientes
A =

1 2
2 1

y B =

1 1
1 1

entonces
AB =

1 2
2 1

1 1
1 1

1 3
3 1

que no es simtrica.
(3) Si A es inversible, existe A
1
. Entonces
AA
1
= I
de donde
(A
1
A)
t
= A
t
(A
1
)
t
= I
Por tanto, (A
t
)
1
=

A
1

t
.
(4) Si AB es simtrica, entonces
AB = (AB)
t
= B
t
A
t
= BA = BA
luego, A y B conmutan. Recprocamente, si AB = BA, entonces
(AB)
t
= B
t
A
t
= BA = AB
por tanto, AB es una matriz simtrica.
3.8. Cambios de base en un espacio vectorial
Teorema 57 Si B
1
= (u
1
, ..., u
n
) y B
2
= (v
1
, ..., v
n
) son dos bases de un es-
pacio vectorial E sobre K, la matriz P que tiene por columna i las coordenadas
de v
i
respecto de la base B
1
es inversible; se le llama la matriz de cambio o
paso de la base B
1
a la base B
2
y se cumple
X = PY y Y = P
1
X
donde X y Y son las matrices columna asociadas a un vector v de E, X son
las coordenadas de v en la base B
1
y Y son las coordenadas de v en la base B
2
.
Demostracin: Consideremos la identidad de E
B
2
Id
E
B
1
E E
v
i
v
i
=
1i
u
1
+ +
ni
u
n
(i = 1, ..., n)
Els autors, 2002; Edicions UPC, 2002
3.8. CAMBIOS DE BASE EN UN ESPACIO VECTORIAL 93
que es un automorsmo de E. Segn la denicin 9, este automorsmo tiene
como matriz asociada en la base B
2
en el espacio de salida y B
1
en el espacio
de llegada, la siguiente matriz
P =
_
_
_

11

1n
.
.
.
.
.
.
.
.
.

n1

nn
_
_
_
que tiene por columna i las coordenadas de v
i
respecto de la base B
1
. Segn
el teorema 8, P es una matriz inversible. Si designamos por (x
1
, ..., x
n
) las
coordenadas de un vector v de E en la base B
1
y por (y
1
, ..., y
n
) las coordenadas
del mismo vector en la base B
2
, se cumple
v = x
1
u
1
+ +x
n
u
n
= y
1
v
1
+ y
n
v
n
Segn el teorema 6, podemos escribir esta igualdad en forma matricial como
sigue
PY = X
o bien
Y = P
1
X
Observacin 47 Cuando se pasa de una base B a otra base B
0
se dice algu-
nas veces que B es la base antigua y B
0
, la nueva. Tambin se dice que
(x
1
, ..., x
n
) son las coordenadas antiguas y (y
1
, ..., y
n
), las nuevas de v. Se
ve enseguida que la matriz de paso P da las coordenadas antiguas en funcin de
las nuevas.
Ejemplo 72 En R
2
se consideran las bases B
1
= (e
1
, e
2
) , B
2
= (u
1
, u
2
) y
B
3
= (v
1
, v
2
) tales que
u
1
= e
1
u
2
= 2e
1
+e
2
y
v
1
= e
1
v
2
= e
1
+ 4e
2
Obtener las componentes del vector u = 2u
1
+ 5u
2
en la base B
3
.
Solucin: Observemos el diagrama siguiente
Id
R
2 Id
R
2
R
2
R
2
R
2
(u
i
) A (e
i
) B (v
i
)
Els autors, 2002; Edicions UPC, 2002
94 CAPTULO 3. MATRICES
siendo
A =

1 2
0 1

y B =

1
1
4
0
1
4

entonces
Id
R
2
R
2
R
2
(u
i
) BA (v
i
)
Por tanto
BA =

1
1
4
0
1
4

1 2
0 1

1
7
4
0
1
4

luego

1
7
4
0
1
4

2
5

43
4
5
4

Por consiguiente
u =
43
4
v
1
+
5
4
v
2
3.9. Cambios de base en una aplicacin lineal
Teorema 58 Dados dos espacios vectoriales E, F de dimensiones nitas sobre
K, B
1
y B
0
1
dos bases de E, B
2
y B
0
2
dos bases de F, P la matriz de paso de B
1
a B
0
1
y Q la matriz de paso de B
2
a B
0
2
, entonces para toda aplicacin lineal f
de E en F se cumple que
A
0
= Q
1
AP
siendo A = M
(f,B1,B2)
y A
0
= M
(f,B
0
1
,B
0
2
)
.
Demostracin: Consideremos el diagrama
Id
E
f Id
F
E E F F
B
0
1
P B
1
A B
2
Q
1
B
0
2
entonces tenemos
f = Id
F
f Id
E
Por tanto
A
0
= Q
1
AP
Observacin 48 Se puede operar directamente sobre las matrices. Supongamos
que X y X
0
son las coordenadas un vector de E en las bases B
1
y B
0
1
respecti-
vamente, y Y y Y
0
son las coordenadas de un vector de F en las bases B
2
y B
0
2
.
As tenemos, segn el teorema 6, que
Y = AX
Els autors, 2002; Edicions UPC, 2002
3.9. CAMBIOS DE BASE EN UNA APLICACIN LINEAL 95
y
Y
0
= A
0
X
0
Por tanto
QY
0
= APX
0
de donde multiplicando por la izquierda por Q
1
se sigue que
Y
0
= Q
1
APX
0
Por tanto
A
0
X
0
= Q
1
APX
0
es decir
(A
0
Q
1
AP)X
0
= O
para todo X
0
. Aplicando esta ltima frmula a las matrices columna asociadas
a los m vectores de B
0
1
se deduce que
A
0
= Q
1
AP
Corolario 15 Para todo endomorsmo f de E se tiene
A
0
= P
1
AP
siendo A y A
0
las matrices asociadas a f respecto a la base B
1
y B
0
1
, respectiva-
mente; y P la matriz de paso de B
1
a B
0
1
.
Demostracin: Es inmediato a partir del teorema 13.
Ejemplo 73 Obtener la matriz asociada a una aplicacin lineal f : R
2
R
3
denida por
f(1, 2) = (1, 1, 2)
f(2, 3) = (2, 10, 1)
al expresarla en la base B
1
= ((1, 1), (1, 3)) de R
2
y B
2
= ((1, 0, 1), (1, 1, 0), (0, 0, 2))
de R
3
.
Solucin: Supongamos que B
0
= (e
1
, e
2
) y B
0
0
= (u
1
, u
2
, u
3
) son las bases
cannicas de R
2
y R
3
respectivamente. Entonces
f(1, 2) = f(e
1
) + 2f(e
2
) = u
1
+u
2
+ 2u
3
f(2, 3) = 2f(e
1
) + 3f(e
2
) = 2u
1
+ 10u
2
+u
3
De aqu se obtiene
f(e
1
) = (1, 17, 4) = u
1
+ 17u
2
4u
3
f(e
2
) = (0, 8, 3) = 8u
2
+ 3u
3
Por tanto la matriz asociada a f en las bases cannicas de R
2
y R
3
es la siguiente
A =
_
_
1 0
17 8
4 3
_
_
Els autors, 2002; Edicions UPC, 2002
96 CAPTULO 3. MATRICES
Observemos el siguiente diagrama
Id
R
2 f Id
R
3
R
2
R
2
R
3
R
3
B
1
P B
0
A B
0
0
Q
1
B
2
donde
P =

1 1
1 3

y
Q
1
=
_
_
1 1 0
0 1 0
1 0 2
_
_
1
=
_
_
1 1 0
0 1 0

1
2
1
2
1
2
_
_
En esta misma unidad se expone un mtodo para hallar la matriz inversa. Aqu
suponemos que ya se conoce y simplemente damos el resultado. Por tanto
Q
1
AP =
_
_
1 1 0
0 1 0

1
2
1
2
1
2
_
_
_
_
1 0
17 8
4 3
_
_

1 1
1 3

=
_
_
8 8
9 7
7
2

3
2
_
_
3.9.1. Matrices equivalentes
Denicin 46 Dadas dos matrices A, B M
mn
(K), se dice que A y B son
equivalentes si existen dos matrices inversibles P M
n
(K) y Q M
m
(K)
que verican la siguiente relacin
B = QAP
Observacin 49 Por el teorema 13, es inmediato observar que dos matrices de
M
mn
(K) son equivalentes si y slo si estn asociadas a la misma aplicacin
lineal de E en F, con dimE = n y dimF = m.
Teorema 59 La relacin binaria entre matrices de M
mn
(K) segn la cual
A, B M
mn
(K) estn relacionadas si y slo si A, B son equivalentes, es una
relacin de equivalencia sobre M
mn
(K).
Demostracin: En efecto, la relacin es reexiva ya que para todo A M
mn
(K)
se cumple
A = I
m
AI
n
La relacin es simtrica ya que para todo A, B M
mn
(K), de
B = QAP
Els autors, 2002; Edicions UPC, 2002
3.9. CAMBIOS DE BASE EN UNA APLICACIN LINEAL 97
se deduce
Q
1
BP
1
= A
La relacin es transitiva ya que para todo A, B, C M
mn
(K), de
B = QAP
y
C = RBS
entonces
C = R(QAP)S = (RQ) A(PS)
siendo RQ M
m
(K) y PS M
n
(K), matrices inversibles.
3.9.2. Matrices semejantes
Denicin 47 Dadas dos matrices cuadradas A, B M
n
(K), se dice que A y
B son semejantes si existe una matriz inversible P M
n
(K) tal que
B = P
1
AP
Observacin 50 Del corolario 1 se deduce que dos matrices cuadradas de orden
n sobre K son semejantes si y slo si estn asociadas al mismo endomorsmo
de un espacio vectorial de dimensin n sobre K. Por este motivo, el objetivo en
las unidades de diagonalizacin y forma cannica de Jordan ser el de encontrar
una base respecto de la cual la matriz asociada a un endomorsmo sea la ms
simple posible.
Teorema 60 La relacin binaria entre matrices de M
n
(K) segn la cual A, B
M
n
(K) estn relacionadas si y slo si A, B son semejantes, es una relacion de
equivalencia sobre M
n
(K).
Demostracin: En efecto, la relacin es reexiva ya que para todo A M
n
(K)
se cumple
A = (I
n
)
1
AI
n
La relacin es simtrica ya que para todo A, B M
n
(K), de
B = P
1
AP
se deduce

P
1

1
BP
1
= A
La relacin es transitiva ya que para todo A, B, C M
n
(K), de
B = P
1
AP
y
C = Q
1
BQ
entonces
C = Q
1
(P
1
AP)Q = (PQ)
1
A(PQ)
Els autors, 2002; Edicions UPC, 2002
98 CAPTULO 3. MATRICES
3.10. Rango de una matriz
Denicin 48 Dada una matriz A de M
mn
(K) se llama rango de A y se
designa por rang A, el rango del sistema de K
m
formado por los vectores colum-
na de A.
Teorema 61 Si A es la matriz asociada a una aplicacin lineal f de E en F,
entonces los cuatro nmeros siguientes son iguales:
1. rango del sistema de K
m
formado por los vectores columna de A
2. rango del sistema de K
n
formado por los vectores la de A
3. dimImf
4. dimImf
t
, donde f
t
representa la aplicacin traspuesta de f
Demostracin: Sabemos que el rang A es el nmero mximo de vectores colum-
na de A linealmente independientes. Supongamos que dimE = n y (u
i
: i =
1, ..., n) una base de E, y dimF = m, si A es la matriz asociada a la aplicacin
lineal f, entonces los vectores columna de A representan los n vectores f(u
i
) de
F y, como que Imf = hf(u
1
), ..., f(u
n
)i, se tiene
rang A = dimImf
y rang A inf{n, m}, ya que Imf F. Por otra parte, la aplicacin lineal f
t
,
traspuesta de f, tiene asociada la matriz A
t
en las bases duales de las consid-
eradas en E y F. Entonces, el mismo razonamiento anterior hace que
rang A
t
= dimImf
t
Obsrvese que los vectores columna de A
t
son los vectores la de A. Ahora bien,
sabemos que
dimImf = dimImf
t
Por tanto se obtiene lo que queramos demostrar y adems se cumple que
rang A inf{n, m}
Denicin 49 Se llama matriz cannica de rango r de M
mn
(K) a la
matriz siguiente
Els autors, 2002; Edicions UPC, 2002
3.10. RANGO DE UNA MATRIZ 99
Teorema 62 Todas las matrices de M
mn
(K) de rango r son equivalentes a
la matriz cannica de rango r.
Demostracin: Sea A una matriz de M
mn
(K) asociada a una aplicacin lin-
eal f de un espacio vectorial E de dimensin n sobre K en otro F de dimensin
m sobre K. Si dimImf = r, entonces sabemos que dimker f = n r. Esco-
jamos la base (u
1
, ..., u
n
) de E de manera que (u
1
, ..., u
r
) sea una base de un
subespacio suplementario de ker f y (u
r+1
, ..., u
n
) una base del ker f. Entonces
(f(u
1
), ..., f(u
r
)) es una base de Imf. Ampliemos esta base hasta obtener una
base de F (f(u
1
), ..., f(u
r
)), v
r+1
, ..., v
m
). Entonces la matriz asociada a f toma
la forma considerada en dichas bases.
Corolario 16 Para que dos matrices de M
mn
(K) sean equivalentes es nece-
sario y suciente que sean del mismo rango.
Demostracin: En efecto, si son equivalentes, la dos matrices representan la
misma aplicacin lineal f respecto a bases diferentes, son pues del mismo rango,
el rango de f. Si tienen el mismo rango r, son equivalentes a la matriz cannica
de rango r de M
mn
(K) y, en consecuencia, son equivalentes entre s.
Corolario 17 Para que una matriz cuadrada A de orden n sobre K sea in-
versible es necesario y suciente que sea de rango n.
Demostracin: En efecto, A representa un endomorsmo f de un espacio
vectorial E de dimensin n sobre K. Si dimImf = rang A = n = dimE,
entonces sabemos que f es un automorsmo y, por el teorema 8, A es inversible.
Recprocamente, si A es inversible, f es un automorsmo y, en consecuencia,
rang A = dimImf = n.
Ejemplo 74 Sea f : R
3
R
3
un endomorsmo de R
3
y B = (e
1
, e
2
, e
3
) una
base de R
3
. Se dene f por
f(e
1
e
2
) = 0
f(e
1
+e
2
+e
3
) = 4e
2
+ 5e
3
f(e
2
+e
3
) = 3e
2
+ 3e
3
Els autors, 2002; Edicions UPC, 2002
100 CAPTULO 3. MATRICES
Hallar la matriz asociada a f en esta base. Calcular su rango y deducir si es o
no inversible.
Solucin: Puesto que f es lineal, se sigue que
f(e
1
) f(e
2
) = 0
f(e
1
) +f(e
2
) +f(e
3
) = 4e
2
+ 5e
3
f(e
2
) +f(e
3
) = 3e
2
+ 3e
3
De estas relaciones se obtienen las siguientes
f(e
1
) = f(e
2
) = e
2
+ 2e
3
f(e
3
) = 2e
2
+e
3
Por tanto, la matriz asociada a f en esta base es la matriz siguiente
A =
_
_
0 0 0
1 1 2
2 2 1
_
_
Sabemos que rang A = dimImf = dim hf(e
1
), f(e
2
), f(e
3
)i. Por tanto, debe-
mos calcular el rango del sistema de R
3
formado por las imgenes de los vectores
de la base, que son los vectores columna de la matriz A. Calcularemos este rango
por transformaciones elementales
f(e
1
) f(e
2
) f(e
3
)
0 0 0
1 1 2
2 2 1

f(e
1
) f(e
2
) f(e
1
) f(e
3
) 2f(e
1
)
0 0 0
1 0 0
2 0 3

f(e
1
) f(e
3
) 2f(e
1
) f(e
2
) f(e
1
)
0 0 0
1 0 0
2 3 0
Por tanto, rang A = dimImf = 2. La matriz A no tiene inversa ya que su
rango no es 3.
3.11. Matrices elementales
En la unidad de los espacios vectoriales se vi como las transformaciones
elementales dejan invariante el rango de un sistema de vectores. Es natural
estudiar la aplicacin de estas transformaciones para las matrices.
Denicin 50 Una matriz elemental es una matriz cuadrada que resulta
de aplicar una transformacin elemental a las las o columnas de la matriz
identidad.
Els autors, 2002; Edicions UPC, 2002
3.11. MATRICES ELEMENTALES 101
Tenemos as seis tipos de matrices elementales: 3 para las y 3 para columnas.
Las matrices siguientes son ejemplos de matrices elementales
_
_
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
_
_
se han permutado las columnas 2 y 4 de I
4
_
_
1 0 0
0 1 0
0 0 2
_
_
se ha multiplicado por -2 la columna 3 de I
3
_
_
_
_
1 3 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
se ha sumado la columna 1, multiplicada por 3, a la columna 2 de I
4
.
Teorema 63 Si A es una matriz de M
mn
(K), cada transformacin elemental
efectuada sobre las las de A puede expresarse como EA, donde E es la matriz
elemental de orden m correspondiente a la transformacin efectuada. Asimismo,
cada transformacin elemental efectuada sobre las columnas de A puede expre-
sarse como AE, donde E es la matriz elemental de orden n correspondiente a
la transformacin efectuada.
Demostracin: Esto puede probarse por clculo directo del producto AE y EA
en cada caso. Consideremos, por ejemplo, la transformacin elemental de sumar
a la columna i la columna j multiplicada por un nmero k.
Els autors, 2002; Edicions UPC, 2002
102 CAPTULO 3. MATRICES
y as con el resto de transformaciones.
Corolario 18 Una matriz elemental E es una matriz inversible.
Demostracin: Cualquier matriz elemental E resulta de aplicar una cierta
transformacin elemental a las columnas (o las) de la matriz identidad. La
transformacin inversa es tambin elemental y, en consecuencia, corresponde
a alguna matriz elemental E

, y transforma E en I. Por el teorema 18, la


transformacin inversa efectuada sobre las columnas de E puede expresarse
como EE

y, por tanto, EE

= I. Asimismo, la transformacin E efectuada


sobre las columnas de E

se expresa como E

E y, por tanto, E

E = I.
Denicin 51 Decimos que dos matrices A, B de M
mn
(K) son equivalentes
por las si puede obtenerse B a partir de A por una sucesin nita de trans-
formaciones elementales aplicadas a sus las.
Corolario 19 Si dos matrices A, B de M
mn
(K) son equivalentes por las,
entonces existe una matriz inversible Q de M
m
(K) tal que B = QA.
Demostracin: Si A y B son equivalentes por las, B se obtiene por transfor-
maciones elementales de las las de A. Por el teorema 18, se sigue que
B = E
s
E
s1
E
1
A
siendo E
i
una matriz elemental, i = 1, ..., s. Tomando Q = E
s
E
s1
E
1
, y sa-
biendo que las matrices elementales son inversibles, se obtiene lo que queramos
demostrar.
Denicin 52 Diremos que una matriz A de M
mn
(K) es reducida por las
si
Els autors, 2002; Edicions UPC, 2002
3.11. MATRICES ELEMENTALES 103
1. Cada la no nula de A tiene un 1 como primer elemento
2. Cada columna que contenga un 1 y ste sea el primer elemento de su la,
tiene todos sus otros elementos nulos
Ejemplo 75 La siguiente matriz
_
_
_
_
_
_
0 0 1 3 0 5
1 0 0 2 0 3
0 1 0 2 0 3
0 0 0 0 1 3
0 0 0 0 0 0
_
_
_
_
_
_
es una matriz 5 6 reducida por las. En cambio, la matriz
_
_
_
_
1 0 2 3 0 4
0 1 0 1 1 1
0 0 0 0 1 0
0 0 0 0 0 2
_
_
_
_
no es reducida por las ya que la cuarta la no tiene como primer elemento 1
y tambin porque la cuarta la tiene como primer elemento el 1 de la quinta
columna y no todos sus elementos son nulos.
Denicin 53 Diremos que una matriz A de M
mn
(K) es escalonada re-
ducida por las si
1. A es una matriz reducida por las
2. Las las nulas de A se sitan debajo de todas las las no nulas
3. El primer 1 de cada la se sita (de arriba a abajo) ms a la derecha que
el primer 1 de la la inmediatamente superior.
Ejemplo 76 La matriz siguiente
_
_
_
_
_
_
1 0 0 2 0 3
0 1 0 2 0 3
0 0 1 3 0 5
0 0 0 0 1 3
0 0 0 0 0 0
_
_
_
_
_
_
es una matriz 5 6 escalonada reducida por las. Esta matriz se ha obtenido
directamente de la matriz reducida del ejemplo 20 por permutaciones adecuadas
de sus las.
Teorema 64 Cualquier matriz A de M
mn
(K) es equivalente por las a una
matriz escalonada reducida por las.
Els autors, 2002; Edicions UPC, 2002
104 CAPTULO 3. MATRICES
Demostracin: Puesto que la demostracin es por induccin y sigue un mtodo
constructivo basado en la aplicacin sucesiva de las transformaciones elemen-
tales a las las de la matriz, en lugar de hacer una demostracin general, pro-
ponemos hacer una ilustracin del mtodo mediante un ejemplo. Consideremos
la matriz
A =
_
_
_
_
2 1 3 2
0 2 1 4
4 2 3 9
2 3 4 5
_
_
_
_
Observemos que la primera la no nula tiene como primer elemento un 2, coloca-
do en la primera columna. Multipliquemos la primera la por 1/2. As tenemos
_
_
_
_
1
1
2
3
2
1
0 2 1 4
4 2 3 9
2 3 4 5
_
_
_
_
Ahora sumamos la primera la multiplicada por 4 y 2 a la tercera y cuarta
las respectivamente. As tenemos
_
_
_
_
1
1
2
3
2
1
0 2 1 4
0 0 3 5
0 2 1 3
_
_
_
_
Observemos que as hemos reducido cada uno de los otros elementos de la colum-
na 1 a cero. Repitamos el mismo procedimiento con la segunda la. Observamos
que el primer elemento no nulo es un 2, colocado en la segunda columna. Mul-
tipliquemos la segunda la por 1/2. As tenemos
_
_
_
_
1
1
2
3
2
1
0 1
1
2
2
0 0 3 5
0 2 1 3
_
_
_
_
Ahora sumamos la segunda la multiplicada por 4 a la cuarta, y la segunda la
multiplicada por 1/2 a la primera; as tenemos
_
_
_
_
1 0
7
4
2
0 1
1
2
2
0 0 3 5
0 0 2 7
_
_
_
_
De nuevo hemos reducido cada uno de los restantes elementos de la segunda
columna a cero. Repitamos el proceso con la tercera la. Multiplicamos la tercera
la por 1/3, as tenemos
_
_
_
_
1 0
7
4
2
0 1
1
2
2
0 0 1
5
3
0 0 2 7
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
3.11. MATRICES ELEMENTALES 105
Ahora sumamos la tercera la multiplicada por 2 a la cuarta, la tercera la
multiplicada por 1/2 a la segunda, y la tercera multiplicada por 7/4 a la
primera; as tenemos
_
_
_
_
1 0 0
59
12
0 1 0
17
6
0 0 1
5
3
0 0 0
31
3
_
_
_
_
Finalmente, multiplicamos la cuarta la por 3/31 y as tenemos
_
_
_
_
1 0 0
59
12
0 1 0
17
6
0 0 1
5
3
0 0 0 1
_
_
_
_
ahora, sumamos la cuarta la multiplicada por los nmeros correspondientes a
cada una de las otras las y se obtiene la matriz escalonada reducida por las
equivalente a la matriz dada
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Ejemplo 77 Hallar la matriz escalonada reducida por las de la siguiente ma-
triz
A =
_
_
_
_
1 2 3
2 3 4
3 4 5
4 5 6
_
_
_
_
escribiendo en cada caso la matriz elemental correspondiente.
Solucin: Para ello seguimos los pasos siguientes
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 2 3 4
0 0 1 0 3 4 5
0 0 0 1 4 5 6
_
_
_
_
F
0
2
= F
2
2F
1
_
_
_
_
1 0 0 0 1 2 3
2 1 0 0 0 1 2
0 0 1 0 3 4 5
0 0 0 1 4 5 6
_
_
_
_
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 3 4 5
0 0 0 1 4 5 6
_
_
_
_
F
0
3
= F
3
3F
1
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
3 0 1 0 0 2 4
0 0 0 1 4 5 6
_
_
_
_
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 4 5 6
_
_
_
_
F
0
4
= F
4
4F
1
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 0 2 4
4 0 0 1 0 3 6
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
106 CAPTULO 3. MATRICES
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 0 3 6
_
_
_
_
F
0
2
= F
2
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 0 3 6
_
_
_
_
_
_
_
_
1 0 0 0 1 2 3
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 0 3 6
_
_
_
_
F
0
1
= F
1
2F
2
_
_
_
_
1 2 0 0 1 0 1
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 0 3 6
_
_
_
_
_
_
_
_
1 0 0 0 1 0 1
0 1 0 0 0 1 2
0 0 1 0 0 2 4
0 0 0 1 0 3 6
_
_
_
_
F
0
3
= F
3
+ 2F
2
_
_
_
_
1 0 0 0 1 0 1
0 1 0 0 0 1 2
0 2 1 0 0 0 0
0 0 0 1 0 3 6
_
_
_
_
_
_
_
_
1 0 0 0 1 0 1
0 1 0 0 0 1 2
0 0 1 0 0 0 4
0 0 0 1 0 3 6
_
_
_
_
F
0
4
= F
4
+ 3F
2
_
_
_
_
1 0 0 0 1 0 1
0 1 0 0 0 1 2
0 0 1 0 0 0 0
0 3 0 1 0 0 0
_
_
_
_
Por tanto, la matriz escalonada reducida por las es la matriz
B =
_
_
_
_
1 0 1
0 1 2
0 0 0
0 0 0
_
_
_
_
que se obtiene por
B = E
7
E
6
E
1
A
donde, por ejemplo,
E
5
=
_
_
_
_
1 2 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Teorema 65 Si A M
n
(K) es una matriz inversible, entonces se reduce a la
identidad por una sucesin de transformaciones elementales entre sus las, la
misma sucesin de transformaciones aplicadas a la matriz identidad I da como
resultado la matriz inversa de A.
Demostracin: Si A es una matriz inversible de M
n
(K), A es equivalente
por las a una matriz escalonada reducida E que tambin tiene rango n. Esta
matriz E tiene por lo tanto n las no nulas y, en consecuencia, tiene unos como
primeros elementos en n diferentes columnas y ningn otro elemento no nulo
en esas columnas. Por tanto, E es precisamente la matriz identidad. Si ahora
aplicamos el teorema 18, se sigue que para matrices elementales apropiadas E
i
se tiene
E
s
E
s1
E
1
A = I
Els autors, 2002; Edicions UPC, 2002
3.11. MATRICES ELEMENTALES 107
Multiplicando a la derecha por A
1
los dos miembros de esta igualdad, se tiene
E
s
E
s1
E
1
I = A
1
La matriz a la izquierda es el resultado de aplicar a la identidad I la sucesin
de matrices elementales E
1
, ..., E
s
.
Observacin 51 Este teorema proporciona un mtodo para determinar la in-
versa de una matriz inversible.
Corolario 20 Una matriz A de M
n
(K) es inversible si y slo si puede expre-
sarse como un producto de matrices elementales.
Demostracin: Por el teorema 20, si A es inversible, entonces A puede expre-
sarse como un producto de matrices elementales. Recprocamente, si
A = E
1
E
2
E
s
entonces, segn el corolario 4,
A
1
= (E
1
E
2
E
s
)
1
= E
1
s
E
1
2
E
1
1
Por tanto, A es una matriz inversible.
Corolario 21 Dos matrices A, B de M
mn
(K) son equivalentes por las si y
slo si existe una matriz inversible Q de M
m
(K) tal que B = QA.
Demostracin: Si A, B son equivalentes por las, entonces por el corolario 5
existe una matriz inversible Q de M
m
(K) tal que B = QA. Recprocamente, si
B = QA, con Q una matriz inversible, entonces por el corolario 6
Q = E
s
E
s1
E
1
es decir,
B = E
s
E
s1
E
1
A
Por tanto, segn el teorema 18, B es equivalente por las a A.
Denicin 54 Decimos que dos matrices A, B de M
mn
(K) son equivalentes
si puede obtenerse una a partir de la otra por una sucesin de transformaciones
elementales
B = E
r
E
r1
E
1
AE
0
1
E
0
s1
E
0
s
donde E
1
, ..., E
r
son matrices elementales que representan las transformaciones
aplicadas a las las de A y E
0
1
, ..., E
0
s
las transformaciones aplicadas a las colum-
nas de A, para obtener la matriz B.
Observacin 52 Hacemos las siguientes observaciones importantes:
Els autors, 2002; Edicions UPC, 2002
108 CAPTULO 3. MATRICES
1. Al reemplazar A por su traspuesta A
t
, las transformaciones elementales
entre las se cambian por transformaciones elementales entre columnas y
viceversa. En particular, A se podr transformar en B mediante una se-
rie de transformaciones elementales entre columnas, cuando la traspuesta
A
t
se pueda transformar en B
t
por una sucesin de transformaciones el-
ementales entre las, y slo en este caso. Aplicando, el corolario 7, esto
signica que B
t
= QA
t
, o sea, B = (B
t
)
t
= (QA
t
)
t
= AQ
t
= AP, donde
P = Q
t
es una matriz inversible. Recprocamente, si B = AP, siendo P
una matriz inversible, expresa que B es equivalente por columnas a A.
2. Esta denicin coincide con la denicin 14, pero ahora ha sido expre-
sada en trminos de matrices elementales. En efecto, si tomamos P =
E
0
1
E
0
s1
E
0
s
y Q = E
r
E
r1
E
1
, se tiene B = QAP, con P, Q matri-
ces inversibles. Las matrices P y Q son inversibles por el corolario 6.
Ejemplo 78 Obtener la matriz cannica de rango r de la matriz
A =
_
_
_
_
1 2 3
2 3 4
3 4 5
4 5 6
_
_
_
_
indicando las matrices inversibles P y Q.
Solucin: En el ejemplo 22 hemos visto que A es equivalente a la siguiente
matriz escalonada reducida por las
_
_
_
_
1 0 1
0 1 2
0 0 0
0 0 0
_
_
_
_
Aplicaremos ahora transformaciones elementales a sus columnas, o de forma
equivalente, aplicaremos transformaciones elementales a las las de su matriz
traspuesta
_
_
1 0 0 0 1 0 0
0 1 0 0 0 1 0
1 2 0 0 0 0 1
_
_
F
0
3
= F
3
+F
1
_
_
1 0 0 0 1 0 0
0 1 0 0 0 1 0
0 2 0 0 1 0 1
_
_
_
_
1 0 0 0 1 0 0
0 1 0 0 0 1 0
0 2 0 0 0 0 1
_
_
F
0
3
= F
3
2F
2
_
_
1 0 0 0 1 0 0
0 1 0 0 0 1 0
0 0 0 0 0 2 1
_
_
Trasponiendo de nuevo la matriz resultante, se sigue que la matriz cannica de
rango r de A es la siguiente matriz
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
3.11. MATRICES ELEMENTALES 109
Obsrvese que esta matriz se ha obtenido por transformaciones elementales entre
columnas a partir de la matriz
_
_
_
_
1 0 1
0 1 2
0 0 0
0 0 0
_
_
_
_
En efecto, para comprobarlo basta trasponer las matrices elementales aplicadas
anteriormente
_
_
_
_
1 0 1
0 1 2
0 0 0
0 0 0
_
_
_
_
_
_
1 0 1
0 1 0
0 0 1
_
_
_
_
1 0 0
0 1 2
0 0 1
_
_
=
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
_
_
_
_
Entonces
P =
_
_
1 0 1
0 1 0
0 0 1
_
_
_
_
1 0 0
0 1 2
0 0 1
_
_
=
_
_
1 0 1
0 1 2
0 0 1
_
_
y, segn el ejemplo 22,
Q = E
7
E
6
E
1
=
_
_
_
_
3 2 0 0
2 1 0 0
1 2 1 0
2 3 0 1
_
_
_
_
Obsrvese que se cumple lo siguiente
_
_
_
_
3 2 0 0
2 1 0 0
1 2 1 0
2 3 0 1
_
_
_
_
_
_
_
_
1 2 3
2 3 4
3 4 5
4 5 6
_
_
_
_
_
_
1 0 1
0 1 2
0 0 1
_
_
=
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
_
_
_
_
Observacin 53 En la prctica si A, B M
mn
(K) son equivalentes y B =
QAP, consideraremos el esquema inicial (I
m
|A|I
n
) y mediante transformaciones
elementales obtendremos el esquema (Q|B|P). Todas las transformaciones de
tipo la realizadas en A para llegar a B se reejan en I
m
y las de tipo columna
en I
n
. Una vez conseguida la matriz B, las matrices P y Q sern las obtenidas
a partir de I
n
y I
m
, respectivamente.
Asimismo, si A es una matriz inversible, su forma cannica es I
n
. Por tanto,
I
n
= QAP. Si se realizan slo transformaciones de tipo la, consideraremos el
esquema inicial (I
n
| A) y mediante transformaciones elementales obtendremos
el esquema (Q| I
n
), y se cumple Q = A
1
. Anlogamente, si se realizan slo
transformaciones de tipo columna, consideraremos el esquema inicial (A| I
n
) y
mediante transformaciones elementales obtendremos el esquema (I
n
| P), y se
cumple P = A
1
.
Els autors, 2002; Edicions UPC, 2002
110 CAPTULO 3. MATRICES
Ejemplo 79 Calcular la inversa de la matriz
A =
_
_
1 2 1
3 7 4
2 2 1
_
_
utilizando solamente transformaciones elementales de tipo la.
Solucin:
_
_
1 0 0 1 2 1
0 1 0 3 7 4
0 0 1 2 2 1
_
_

F
0
2
= F
2
+ 3F
1
F
0
3
= F
3
2F
1

_
_
1 0 0 1 2 1
3 1 0 0 1 1
2 0 1 0 6 3
_
_
F
0
1
= F
1
+ 2F
2
F
0
3
= F
3
6F
2

_
_
7 2 0 1 0 1
3 1 0 0 1 1
20 6 1 0 0 3
_
_
F
0
3
=
1
3
F
3

_
_
7 2 0 1 0 1
3 1 0 0 1 1
20/3 2 1/3 0 0 1
_
_
F
0
2
= F
2
F
3
F
0
1
= F
1
F
3

_
_
1/3 0 1/3 1 0 0
11/3 1 1/3 0 1 0
20/3 2 1/3 0 0 1
_
_
Luego
A
1
=
_
_
1/3 0 1/3
11/3 1 1/3
20/3 2 1/3
_
_
Els autors, 2002; Edicions UPC, 2002
Captulo 4
Determinantes
4.1. Determinante de n vectores
Consideremos el conjunto de las matrices cuadradas de orden n con coe-
cientes en un cuerpo conmutativo K. Queremos asociar a cada matriz un elemen-
to de K, su determinante, de forma que se cumplan las siguientes propiedades:
1. si multiplicamos por a K los elementos de una columna, el determinante
queda multiplicado por a
2. si una columna es suma de dos, el determinante es suma de los determi-
nantes calculados con cada una de las columnas-sumandos
3. si dos columnas son iguales, el determinante es cero
Estas tres condiciones son, de hecho, sucientemente restrictivas como para
no permitir mucho margen al querer denir lo qu ser el determinante de una
matriz. Vamos a verlo.
Observemos, en primer lugar, que las condiciones impuestas se reeren a las
columnas; por ello, conviene considerar cada matriz cuadrada de orden n como
un elemento de
n
z }| {
K
n
K
n
, interpretando cada columna como una ntupla
de K
n
. As pues, un determinante ha de ser una aplicacin
det :
n
z }| {
K
n
K
n
K
(a
1
, ..., a
n
) 7 det(a
1
, ..., a
n
)
que cumpla:
1. det(a
1
, ..., a a
i
, ..., a
n
) = a det(a
1
, ..., a
n
), para todo a K y para todo
i = 1, ..., n
2. det(a
1
, ..., a
i
+a
0
i
, ..., a
n
) = det(a
1
, ..., a
i
, ..., a
n
)+det(a
1
, ..., a
0
i
, ..., a
n
), para
todo i = 1, ..., n
111
Els autors, 2002; Edicions UPC, 2002
112 CAPTULO 4. DETERMINANTES
3. det(a
1
, ..., a
n
) = 0 si dos columnas cualesquiera son iguales
Esto nos conduce a la primera denicin que vamos a dar para una situacin
algo ms general.
Denicin 55 Sea E un espacio vectorial de dimensin n sobre un cuerpo con-
mutativo K. Se llama nforma lineal de E en K a toda aplicacin D : E
n

K que cumple
1. D(v
1
, ..., av
i
, ..., v
n
) = a D(v
1
, ..., v
i
, ..., v
n
)
2. D(v
1
, ..., v
i
+ v
0
i
, ..., v
n
) = D(v
1
, ..., v
i
, ..., v
n
) +D(v
1
, ..., v
0
i
, ..., v
n
), para
todo i = 1, ..., n
Las nformas lineales para n 2 se llaman tambin formas multilin-
eales; si n = 2, se dice que D es una forma bilineal.
Observacin 54 Las condiciones (1) y (2) se resumen diciendo que f es lineal
en cada factor. El nombre de forma se reserva para aplicaciones lineales o
multilineales en K.
Denicin 56 Sea E un espacio vectorial de dimensin n sobre un cuerpo con-
mutativo K. Una forma multilineal D de E en K se llama simtrica si para todo
elemento (v
1
, ..., v
i
, ..., v
n
) de E
n
y para toda permutacin S
n
se cumple
D(v
(1)
, ..., v
(i)
, ..., v
(n)
) = D(v
1
, ..., v
i
, ..., v
n
)
Denicin 57 Sea E un espacio vectorial de dimensin n sobre un cuerpo con-
mutativo K. Una forma multilineal D de E en K se llama antisimtrica si
para todo elemento (v
1
, ..., v
i
, ..., v
n
) de E
n
y para toda permutacin S
n
se
cumple
D(v
(1)
, ..., v
(i)
, ..., v
(n)
) = () D(v
1
, ..., v
i
, ..., v
n
)
Teorema 66 Sea E un espacio vectorial de dimensin n sobre un cuerpo con-
mutativo K. Una forma multilineal D de E en K es antisimtrica si y slo si
para todo (v
1
, ..., v
i
, ..., v
n
) de E
n
y para toda trasposicin S
n
se cumple
D(v
(1)
, ..., v
(i)
, ..., v
(n)
) = D(v
1
, ..., v
i
, ..., v
n
)
Demostracin: Si S
n
es una trasposicin, entonces () = 1. Luego, si
D es antisimtrica se tiene
D(v
(1)
, ..., v
(i)
, ..., v
(n)
) = D(v
1
, ..., v
i
, ..., v
n
)
Recprocamente, si S
n
, es descomponible en producto de trasposiciones:
=
r

1
. Entonces
D(v
(1)
, ..., v
(n)
) = D(v
(
r

1
)(1)
, ..., v
(
r

1
)(n)
)
= D(v
(
r

2
)(1)
, ..., v
(
r

2
)(n)
)
.
.
.
= (1)
r
D(v
1
, ..., v
n
)
= () D(v
1
, ..., v
n
)
Els autors, 2002; Edicions UPC, 2002
4.1. DETERMINANTE DE N VECTORES 113
Denicin 58 Sea E un espacio vectorial de dimensin n sobre un cuerpo con-
mutativo K. Una forma multilineal D de E en K se llama alternada si cumple
D(v
1
, ..., v
n
) = 0
si dos de los vectores son iguales.
4.1.1. Propiedades de las formas multilineales alternadas
Sea E un espacio vectorial de dimensin n sobre un cuerpo conmutativo K.
Teorema 67 Si D : E
n
K es una nforma lineal alternada, entonces
D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
)
Demostracin: Tenemos
0 = D(v
1
, ..., v
i
+v
j
, ..., v
i
+v
j
, ..., v
n
)
=
D(v
1
, ..., v
i
, ..., v
i
, ..., v
n
) +D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
)
+ D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
) +D(v
1
, ..., v
j
, ..., v
j
, ..., v
n
)
= D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) +D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
)
de donde,
D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
)
Observacin 55 Si v
i
= v
j
, entonces segn el teorema anterior tenemos
2 D(v
1
, ..., v
i
, ..., v
i
, ..., v
n
) = 0
Siempre que en K sea 2 6= 0, esto equivale a
D(v
1
, ..., v
i
, ..., v
i
, ..., v
n
) = 0
para 1 i n. Por tanto, esta propiedad es equivalente a la condicin que dene
a las formas multilineales alternadas si y slo si K no es de caracterstica 2.
Teorema 68 Si D : E
n
K es una nforma lineal alternada, entonces
D(v
(1)
, ..., v
(n)
) = () D(v
1
, ..., v
n
)
siendo () la signatura de la permutacin S
n
.
Demostracin: Si es una trasposicin, entonces () = 1 y la propiedad
se cumple por el teorema 1. En general, podemos descomponer en producto de
trasposiciones y aplicar el teorema 1 reiteradamente.
Els autors, 2002; Edicions UPC, 2002
114 CAPTULO 4. DETERMINANTES
Observacin 56 Si S
n
es el grupo de permutaciones del conjunto {1, ..., n},
se llama trasposicin a toda permutacin S
n
tal que (i) = j, (j) = i
y (k) = k, con i 6= j, i 6= k y j 6= k. Se demuestra que toda permutacin
se puede descomponer en producto de trasposiciones. Si I() indica el nmero
de inversiones presentadas dos a dos por los elementos {1, ..., n}, se dene la
signatura de , denotndose por (), como el nmero siguiente
() = (1)
I()
Si () = 1, se dice que es una permutacin par, y si () = 1, se llama
permutacin impar. Se demuestra que toda trasposicin es impar y que para
todo par de permutaciones , S
n
se cumple
( ) = () ()
Por ejemplo, si S
6
y por denicin
=

3 4 5 6 1 2

Entonces
=

3 5 1

4 6 2

=

5 1

3 1

6 2

4 2

y () = (1)
4
= 1, es decir, es una permutacin par.
Teorema 69 Si D : E
n
K es una nforma lineal alternada y v
i
= 0,
entonces
D(v
1
, ..., v
i
, ..., v
n
) = 0
Demostracin: En efecto, como v
i
= 0 v
i
, tenemos por (2)
D(v
1
, ..., v
i
, ..., v
n
) = D(v
1
, ..., 0 v
i
, ..., v
n
)
= 0 D(v
1
, ..., v
i
, ..., v
n
)
= 0
Teorema 70 Si D : E
n
K es una nforma lineal alternada y
v
j
=
X
k6=j
a
k
v
k
siendo a
k
K, entonces
D(v
1
, ..., v
j
, ..., v
n
) = 0
Demostracin: En efecto, segn (1) y (2) se tiene
D(v
1
, ..., v
j
, ..., v
n
) =
X
k6=j
a
k
D(v
1
, ..., v
k
, ..., v
n
)
Observemos que en cada sumando v
k
ocupa las posiciones j y k, y, por tanto,
segn (3), el sumando se anula.
Els autors, 2002; Edicions UPC, 2002
4.1. DETERMINANTE DE N VECTORES 115
Teorema 71 Si D : E
n
K es una nforma lineal alternada, entonces
D
_
_
v
1
, ..., v
i
+
X
k6=i
a
k
v
k
, ..., v
n
_
_
= D(v
1
, ..., v
i
, ..., v
n
)
Demostracin: Es consecuencia inmediata del teorema 4.
Teorema 72 Si e
1
, ..., e
n
es una base de E, una nforma lineal alternada D
de E en K queda determinada por el valor D(e
1
, ..., e
n
) K. Recprocamente,
dado k K existe una y una sola nforma lineal alternada D de E en K tal
que D(e
1
, ..., e
n
) = k.
Demostracin: En efecto, calculemos D(v
1
, ..., v
n
). Si
v
i
=
n
X
h=1
a
hi
e
h
entonces
D(v
1
, ..., v
n
) = D

n
X
h=1
a
h1
e
h
, ...,
n
X
h=1
a
hn
e
h
!
=
n
X
h1,...,hn=1
D(a
h
1
1
e
h
1
, ..., a
h
n
n
e
h
n
)
=
n
X
h
1
,...,h
n
=1
a
h
1
1
a
h
n
n
D(e
h
1
, ..., e
h
n
)
En D(e
h1
, ..., e
hn
), los subndices h
1
, ..., h
n
pueden tomar valores arbitrarios en
{1, ..., n}, pero el sumando se anular siempre que dos de los subndices sean
iguales. Quedarn solamente, pues, los sumandos en que h
1
, ..., h
n
sean precisa-
mente 1, ..., n permutados. Designemos por h la permutacin
h =

h
1
h
n

entonces por teorema 1 tenemos
D(v
1
, ..., v
n
) =
P
hs
n
a
h
1
1
a
h
n
n
D(e
h
1
, ..., e
h
n
)
=
P
hsn
a
h
1
1
a
h
n
n
(h) D(e
1
, ..., e
n
)
luego D(v
1
, ..., v
n
) queda determinada por D(e
1
, ..., e
n
).
Recprocamente, la aplicacin D denida por
D(v
1
, ..., v
n
) =
X
hsn
(h) a
h11
a
hnn
k
es una nforma lineal alternada de E en K tal que D(e
1
, ..., e
n
) = k. En efecto,
D(v
1
, ..., av
i
, ..., v
n
) =
X
hs
n
(h) a
h
1
1
aa
h
i
i
a
h
n
n
k
= a
X
hsn
(h) a
h
1
1
a
h
i
i
a
h
n
n
k
= a D(v
1
, ..., v
i
, ..., v
n
)
Els autors, 2002; Edicions UPC, 2002
116 CAPTULO 4. DETERMINANTES
lo que demuestra la condicin (1). Comprobemos (2)
D(v
1
, ..., v
i
+w
i
, ..., v
n
) =
X
hsn
(h) a
h11
(a
hii
+b
hii
) a
hnn
k
=
X
hs
n
(h) a
h
1
1
a
h
i
i
a
h
n
n
k +
X
hs
n
(h) a
h
1
1
b
h
i
i
a
h
n
n
k
= D(v
1
, ..., v
i
, ..., v
n
) +D(v
1
, ..., w
i
, ..., v
n
)
Falta, por ltimo, demostrar (3). Supongamos que v
i
= v
j
, esto quiere decir
que sus coordenadas son iguales, a
ki
= a
kj
para todo k {1, ..., n}. Entonces,
tenemos
D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) =
X
hsn
(h) a
h
1
1
a
h
i
i
a
h
j
j
a
h
n
n
k
Consideremos un sumando cualquiera
(h) a
h11
a
hii
a
hjj
a
hnn
y comparmoslo con el sumando correspondiente a t = h (i, j); sabiendo que
(i, j) = 1 y que ( ) = () (), tenemos
(t) a
t
1
1
a
t
i
i
a
t
j
j
a
t
n
n
= (h) a
h
1
1
a
h
j
i
a
h
i
j
a
h
n
n
= (h) a
h
1
1
a
h
j
j
a
h
i
i
a
nh
n
Por tanto, estos dos sumandos suman 0 y podemos eliminarlos del sumatorio.
Este proceso puede repetirse tantas veces como sea necesario; al nal quedar
X
hs
n
(h) a
h11
a
hii
a
hjj
a
hnn
k = 0
de donde
D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = 0
Corolario 22 Si e
1
, ..., e
n
es una base de E y D es una nforma lineal alterna-
da tal que D(e
1
, ..., e
n
) = 0, entonces D(v
1
, ..., v
n
) = 0 para cualquier ntupla
de vectores de E.
Demostracin: Es inmediato a partir de que
D(v
1
, ..., v
n
) =
X
hs
n
(h) a
h
1
1
a
h
n
n
k
con D(e
1
, ..., e
n
) = k.
Els autors, 2002; Edicions UPC, 2002
4.1. DETERMINANTE DE N VECTORES 117
Corolario 23 Si D es una nforma lineal alternada de E en K no nula y
v
1
, ..., v
n
son vectores linealmente independientes de E, entonces D(v
1
, ..., v
n
) 6=
0.
Demostracin: En efecto, si v
1
, ..., v
n
son linealmente independientes, v
1
, ..., v
n
forman una base de E. Si fuera D(v
1
, ..., v
n
) = 0 entonces por el corolario ante-
rior sera D = 0, lo que no es posible por hiptesis. Por lo tanto, D(v
1
, ..., v
n
) 6=
0.
Denicin 59 Se llama determinante de los vectores v
1
, ..., v
n
respecto de
la base e
1
, ..., e
n
de E al siguiente elemento de K
X
hs
n
(h) a
h
1
1
a
h
n
n
k
y abreviadamente se escribe
det
(e
i
)
(v
1
, ..., v
n
) =
X
hs
n
(h) a
h
1
1
a
h
n
n
k =

a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn

siendo
v
i
=
n
X
h=1
a
hi
e
h
Este elemento solamente depende de las coordenadas de los vectores v
1
, ..., v
n
en la base e
1
, ..., e
n
, y por el teorema 6 cumple la condicin de que, para toda
nforma lineal alternada D,
D(v
1
, ..., v
n
) = det
(ei)
(v
1
, ..., v
n
) D(e
1
, ..., e
n
)
As pues, existen tantas nformas lineales alternadas como elementos del cuerpo
K.
Teorema 73 Consideremos el conjunto A(E, K) de las nformas lineales al-
ternadas de E en K y, en l, las operaciones dadas por
(D
1
+D
2
)(v
1
, ..., v
n
) = D
1
(v
1
, ..., v
n
) +D
2
(v
1
, ..., v
n
)
(a D)(v
1
, ..., v
n
) = a D(v
1
, ..., v
n
) (a K)
A(E, K), con estas operaciones, es un espacio vectorial sobre el cuerpo K.
Demostracin: Es muy fcil probar que si D
1
, D
2
y D son de A(E, K), en-
tonces D
1
+ D
2
y aD tambin lo son. El resto de axiomas se comprueban sin
ninguna dicultad.
Teorema 74 Sea ahora e
1
, ..., e
n
una base de E. La aplicacin
A(E, K) K
D 7 D(e
1
, ..., e
n
)
Els autors, 2002; Edicions UPC, 2002
118 CAPTULO 4. DETERMINANTES
es un isomorsmo de espacios vectoriales. As pues, tenemos
A(E, K)

= K
y, en particular, A(E, K) tiene dimensin 1. La nforma alternada correspon-
diente al 1 de K es precisamente
det
(e
i
)
: E
n
K
(v
1
, ..., v
n
) 7 det
(ei)
(v
1
, ..., v
n
)
Demostracin: Es una simple comprobacin que la aplicacin es lineal y, por
el teorema 6, es biyectiva. Los dems resultados son consecuencias inmediatas
de la teora de espacios vectoriales y de las aplicaciones lineales.
Corolario 24 Los vectores v
1
, ..., v
n
de E son linealmente independientes si y
slo si
det
(e
i
)
(v
1
, ..., v
n
) 6= 0
Demostracin: Si los vectores v
1
, ..., v
n
de E son linealmente independientes,
por el corolario 2, tenemos
det
(e
i
)
(v
1
, ..., v
n
) 6= 0
Recprocamente, si fueran dependientes, segn el teorema 4, se tendra
det
(e
i
)
(v
1
, ..., v
n
) = 0
lo que no es posible.
Teorema 75 Sean e
1
, ..., e
n
y u
1
, ..., u
n
dos bases de un espacio vectorial E.
Entonces, se verica que
det
(ui)
(v
1
, ..., v
n
) = det
(ei)
(v
1
, ..., v
n
) det
(ui)
(e
1
, ..., e
n
)
Demostracin: Para cualquier nforma lineal alternada D tenemos
D(v
1
, ..., v
n
) = det
(ei)
(v
1
, ..., v
n
) D(e
1
, ..., e
n
)
= det
(ei)
(v
1
, ..., v
n
) det
(ui)
(e
1
, ..., e
n
) D(u
1
, ..., u
n
)
y tambin
D(v
1
, ..., v
n
) = det
(u
i
)
(v
1
, ..., v
n
) D(u
1
, ..., u
n
)
Podemos tomar D tal que D(u
1
, ..., u
n
) 6= 0 y obtenemos la igualdad deseada.
Ejemplo 80 Supongamos que E es un espacio vectorial de dimensin 2 sobre
K. Sea e
1
, e
2
una base de E y v
1
, v
2
E. Calcular det
(e
i
)
(v
1
, v
2
).
Els autors, 2002; Edicions UPC, 2002
4.1. DETERMINANTE DE N VECTORES 119
Solucin: Sea D : E
2
K una forma bilineal alternada. Supongamos que
v
1
= (a
11
, a
21
) y v
2
= (a
12
, a
22
) son sus coordenadas en la base e
1
, e
2
. Entonces
D(v
1
, v
2
) = D(a
11
e
1
+a
21
e
2
, a
12
e
1
+a
22
e
2
)
= D(a
11
e
1
, a
12
e
1
) +D(a
11
e
1
, a
22
e
2
) +D(a
21
e
2
, a
12
e
1
) +D(a
21
e
2
, a
22
e
2
)
= a
11
a
12
D(e
1
, e
1
) +a
11
a
22
D(e
1
, e
2
) +a
21
a
12
D(e
2
, e
1
) +a
21
a
22
D(e
2
, e
2
)
= a
11
a
22
D(e
1
, e
2
) a
21
a
12
D(e
1
, e
2
)
= (a
11
a
22
a
21
a
12
)D(e
1
, e
2
)
Por tanto
det
(e
i
)
(v
1
, v
2
) = a
11
a
22
a
21
a
12
Ejemplo 81 Para dos bases cualesquiera e
1
, ..., e
n
y u
1
, ..., u
n
de E, probar que
se verica
det
(ei)
(u
1
, ..., u
n
) det
(ui)
(e
1
, ..., e
n
) = 1
Solucin: En efecto, D(u
1
, ..., u
n
) 6= 0 y
D(u
1
, ..., u
n
) = det
(u
i
)
(u
1
, ..., u
n
)D(u
1
, ..., u
n
)
de donde
det
(u
i
)
(u
1
, ..., u
n
) = 1
Por tanto,
det
(ui)
(u
1
, ..., u
n
) = det
(ei)
(u
1
, ..., u
n
) det
(ui)
(e
1
, ..., e
n
) = 1
Ejemplo 82 Demostrar que toda forma multilineal alternada es antisimtrica.
Recprocamente, si K no es de caracterstica 2, entonces toda forma multilineal
antisimtrica es alternada.
Solucin: Supongamos que D es una forma multilineal alternada, entonces
0 = D(v
1
, ..., v
i
+v
j
, ..., v
i
+v
j
, ..., v
n
)
=
D(v
1
, ..., v
i
, ..., v
i
, ..., v
n
) +D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
)
+ D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
) +D(v
1
, ..., v
j
, ..., v
j
, ..., v
n
)
= D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) +D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
)
Por tanto,
D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
) = D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
)
y por el teorema 1??, D es antisimtrica. Recprocamente, si D es antisimtrica,
entonces
D(v
1
, ..., v
j
, ..., v
i
, ..., v
n
) = D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
)
Els autors, 2002; Edicions UPC, 2002
120 CAPTULO 4. DETERMINANTES
Luego si v
i
= v
j
, se sigue
2 D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = 0
y como K no es de caracterstica 2, se concluye
D(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = 0
4.1.2. Propiedades de los determinantes
De las propiedades de las nformas lineales alternadas y de la denicin se
deducen de forma inmediata las siguientes propiedades:
1. Si se multiplican todos los elementos de una columna por k, el determi-
nante queda multiplicado por k.
2. Si los elementos a
ij
de la columna j de un determinante son de la forma
a
ij
= b
i
+c
i
, el determinante es igual a la suma de dos determinantes que
tienen b
i
y c
i
respectivamente por columna j y las dems columnas iguales
a las del primero.
3. Si un determinante tiene dos columnas iguales es nulo.
4. Si en un determinante se cambian entre s dos columnas, el determinante
cambia de signo.
5. Si un determinante tiene una columna de ceros es nulo.
6. Condicin necesaria y suciente para que un determinante sea nulo es que
las columnas sean linealmente independientes.
7. Si a una columna de un determinante se le suma una combinacin lineal
de las restantes columnas el determinante no vara.
8. Si tomamos E = R
n
y K = R, por denicin tenemos

a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn

=
X
sn
() a
(1)1
a
(n)n
ya que D(e
1
, ..., e
n
) = 1. Para n = 2, puesto que 2! = 2, se obtiene
X
s
2
() a
(1)1
a
(2)2
= ()a
(1)1
a
(2)2
+()a
(1)1
a
(2)2
=
= a
11
a
22
a
21
a
12
ya que () = 1y () = 1. Por tanto

a
11
a
12
a
21
a
22

= a
11
a
22
a
21
a
12
Els autors, 2002; Edicions UPC, 2002
4.1. DETERMINANTE DE N VECTORES 121
Para n = 3, puesto que 3! = 6, se obtiene
X
s
3
() a
(1)1
a
(2)2
a
(3)3
= (
1
) a

1
(1)1
a

1
(2)2
a

1
(3)3
+(
2
) a

2
(1)1
a

2
(2)2
a

2
(3)3
+(
3
) a

3
(1)2
a

3
(2)
+(
4
) a

4
(1)1
a

4
(2)2
a

4
(3)3
+(
5
) a

5
(1)1
a

5
(2)2
a

5
(3)3
+(
6
) a

6
(1)1
a

6
(
X
s3
() a
(1)1
a
(2)2
a
(3)3
= a
11
a
22
a
33
+a
21
a
32
a
13
+a
31
a
12
a
23
a
31
a
22
a
13
a
11
a
32
a
23
a
21
a
12
a
33
ya que (
1
) = (
2
) = (
3
) = 1 y (
4
) = (
5
) = (
6
) = 1. Por
tanto

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+a
21
a
32
a
13
+a
31
a
12
a
23
a
31
a
22
a
13
a
11
a
32
a
23
a
21
a
12
a
33
Observacin 57 Para recordar la expresin que permite calcular los determi-
nantes de orden 3 se tiene la regla de Sarrus: se multiplican los tres elementos
de la diagonal principal; luego se multiplican los dos elementos situados sobre
una lnea paralela por debajo (a
21
y a
32
) a la diagonal principal por un tercer
elemento que es el vrtice (a
13
) que est por encima de la diagonal principal.
Luego, se repite la misma multiplicacin pero tomando la paralela por encima
(a
12
y a
23
) y el vrtice (a
31
) por debajo de la diagonal principal. Ahora se suman
los tres nmeros obtenidos. Se procede de igual forma pero en lugar de tomar co-
mo referencia la diagonal principal, se toma la otra diagonal, que est formada
por los elementos a
13
, a
22
y a
31
. Despus se suman los tres nmeros obtenidos.
Por ltimo, se resta la segunda suma de la primera. Ejemplo:

2 1 2
3 5 1
1 4 7

= [2 (5) 7 + 3 4 (2) + 1 1 1]
[(2) (5) 1 + 1 4 2 + 1 3 7]
= 93 39 = 132
Ejemplo 83 Hallar el signo del termino a
21
a
12
a
43
a
34
a
55
que aparece en el de-
sarrollo de un determinante de orden cinco.
Solucin: La permutacin correspondiente a este trmino es
=

2 1 4 3 5

=

4 3

2 1

Por tanto, () = (1)
2
= 1, o sea, es una permuitacin par.
Ejemplo 84 Comprobar que los vectores (1, 1, 1), (a, b, c), (b +c, a +c, a +b) de
R
3
son linealmente dependientes.
Els autors, 2002; Edicions UPC, 2002
122 CAPTULO 4. DETERMINANTES
Solucin: Calculemos el determinante de estos tres vectores

1 a b +c
1 b a +c
1 c a +b

1 a a +b +c
1 b a +b +c
1 c a +b +c

= (a +b +c)

1 a 1
1 b 1
1 c 1

= 0
Por tanto, los tres vectores son linealmente dependientes.
4.2. Determinante de un endomorsmo
Teorema 76 Sea f L(E) un endomorsmo de un espacio vectorial E de
dimensin n sobre K. Para toda nforma lineal alternada D, la aplicacin
b
f
denida como sigue
b
f(D) : E
n
K
(v
1
, ..., v
n
) 7 D(f(v
1
), ..., f(v
n
))
es una n-forma lineal alternada de E en K.
Demostracin: En efecto,
b
f(D)(v
1
, ..., a v
i
, ..., v
n
) = D(f(v
1
), ..., f(a v
i
), ..., f(v
n
))
= D(f(v
1
), ..., a f(v
i
), ..., f(v
n
))
= a D(f(v
1
), ..., f(v
i
), ..., f(v
n
))
= a
b
f(D)(v
1
, ..., v
n
)
y
b
f(D)(v
1
, ..., v
i
+w
i
, ..., v
n
) = D(f(v
1
), ..., f(v
i
+w
i
), ..., f(v
n
))
= D(f(v
1
), ..., f(v
i
) +f(w
i
), ..., f(v
n
))
= D(f(v
1
), ..., f(v
i
), ..., f(v
n
)) +D(f(v
1
), ..., f(w
i
), ..., f(v
n
))
=
b
f(D)(v
1
, ..., v
i
, ..., v
n
) +
b
f(D)(v
1
, ..., w
i
, ..., v
n
)
y si v
i
= v
j
entonces f(v
i
) = f(v
j
) y, tenemos
b
f(D)(v
1
, ..., v
i
, ..., v
j
, ..., v
n
) = D(f(v
1
), ..., f(v
i
), ..., f(v
j
), ..., f(v
n
)) = 0
Teorema 77 La aplicacin
b
f denida como sigue
b
f : A(E, K) A(E, K)
D 7
b
f(D)
Els autors, 2002; Edicions UPC, 2002
4.2. DETERMINANTE DE UN ENDOMORFISMO 123
es lineal.
Demostracin: En efecto,
b
f(a D)(v
1
, ..., v
n
) = (a D)(f(v
1
), ..., f(v
i
), ..., f(v
n
))
= a(D(f(v
1
), ..., f(v
i
), ..., f(v
n
)))
= a
b
f(D)(v
1
, ..., v
n
)
Por tanto,
b
f(a D) = a
b
f(D)
Adems,
b
f(D
1
+D
2
)(v
1
, ..., v
n
) = (D
1
+D
2
)(f(v
1
), ..., f(v
i
), ..., f(v
n
))
= D
1
(f(v
1
), ..., f(v
i
), ..., f(v
n
)) +D
2
(f(v
1
), ..., f(v
i
), ..., f(v
n
))
=
b
f(D
1
)(v
1
, ..., v
n
) +
b
f(D
2
)(v
1
, ..., v
n
)
Por tanto,
b
f(D
1
+D
2
) =
b
f(D
1
) +
b
f(D
2
)
Teorema 78 La aplicacin
L(E) L(A(E, K))
f 7
b
f
es una aplicacin del anillo L(E) en el anillo L(A(E, K)) que satisface las sigu-
ientes propiedades
[
g f =
b
f b g y
b
I
E
= I
A(E,K)
Demostracin: En efecto,
[
g f(D)(v
1
, ..., v
n
) = D(g(f(v
1
)), ..., g(f(v
n
)))
= b g(D)(f(v
1
), ..., f(v
n
))
=
b
f(b g(D))(v
1
, ..., v
n
)
= (
b
f b g)(D)(v
1
, ..., v
n
)
Por tanto,
[
g f =
b
f b g. Por otro lado, tenemos
b
I
E
(D)(v
1
, ..., v
n
) = D(I
E
(v
1
), ..., I
E
(v
n
))
= D(v
1
, ..., v
n
)
= I
A(E,K)
(D)(v
1
, ..., v
n
)
Por tanto,
b
I
E
= I
A(E,K)
.
Els autors, 2002; Edicions UPC, 2002
124 CAPTULO 4. DETERMINANTES
Observacin 58 Esta aplicacin no es lineal ya que por ejemplo, si n 2 se
cumple
c
af(D)(v
1
, ..., v
n
) = D((af)(v
1
), ..., (af)(v
i
), ..., (af)(v
n
))
= D(a f(v
1
), ..., a f(v
i
), ..., a f(v
n
))
= a
n
(D(f(v
1
), ..., f(v
i
), ..., f(v
n
)))
= a
n
b
f(D)
y por tanto
c
af(D) 6= a
b
f(D)
Teorema 79 Para cada f L(E) existe un nico k K tal que
b
f = k I
A(E,K)
Demostracin: Puesto que A(E, K)

= K, en particular, A(E, K) tiene dimen-


sin 1. Sea D una base de A(E, K), entonces
b
f(D) = k D
para k K. Como cualquier D
0
A(E, K) ser de la forma D
0
= r D, con
r K, entonces
b
f(D
0
) =
b
f(rD) = r
b
f(D) = rk D = kD
0
es decir,
b
f = k I
A(E,K)
.
Denicin 60 Al elemento k de K correspondiente a f se le llama determi-
nante del endomorsmo f y lo denotamos por det f. Por tanto, det f es el
elemento de K que satisface
b
f = (det f) I
A(E,K)
Corolario 25 Sea e
1
, ..., e
n
una base de E y D una nforma lineal alternada
no nula de E en K, entonces
det f = det
(e
i
)
D(f(e
1
), ..., f(e
n
))
es decir, el determinante de f es el determinante de los vectores f(e
1
), ..., f(e
n
)
respecto de la base e
1
, ..., e
n
.
Demostracin: Puesto que
b
f = (det f) I
A(E,K)
, se tiene
b
f(D) = det f I
A(E,K)
(D)
= (det f) D
Por tanto,
b
f(D)(e
1
, ..., e
n
) = (det f) D(e
1
, ..., e
n
)
Els autors, 2002; Edicions UPC, 2002
4.2. DETERMINANTE DE UN ENDOMORFISMO 125
Por la denicin de
b
f, se tiene
b
f(D)(e
1
, ..., e
n
) = D(f(e
1
), ..., f(e
n
))
= det
(ei)
(f(e
1
), ..., f(e
n
)) D(e
1
, ..., e
n
)
Igualando y teniendo en cuenta que D(e
1
, ..., e
n
) 6= 0, se obtiene que
det f = det
(e
i
)
(f(e
1
), ..., f(e
n
))
Corolario 26 Si f, g son dos endomorsmos de E, e I es la identidad, se
cumple
det(g f) = det g det f y det I = 1
Si f es biyectiva, entonces
det f
1
= (det f)
1
Demostracin: En efecto, de
[
g f =
b
f b g resulta
det(g f) = det f det g = det g det f
De
b
I
E
= I
A(E,K)
, resulta
det I = 1
De f f
1
= I, se obtiene
\
f f
1
=
d
f
1

b
f =
b
I
A(E,K)
. De aqu, resulta
det f
1
det f = 1
Corolario 27 Condicin necesaria y suciente para que un endomorsmo f de
E sea un automorsmo es que det f 6= 0.
Demostracin: Sea e
1
, ..., e
n
una base de E. Sabemos que f es un automors-
mo de E si y slo si los vectores f(e
1
), ..., f(e
n
) son linealmente independientes,
lo cual equivale por el corolario 3 a
det f = det
(e
i
)
(f(e
1
), ..., f(e
n
)) 6= 0
Ejemplo 85 Se considera el endomorsmo de R
3
denido por
f(e
1
) = e
1
e
2
f(e
2
) = e
2
e
1
f(e
3
) = e
3
siendo (e
1
, e
2
, e
3
) la base cannica de R
3
. Averiguar si f es o no un automor-
smo.
Els autors, 2002; Edicions UPC, 2002
126 CAPTULO 4. DETERMINANTES
Solucin: Se tiene
det f = det
(ei)
(f(e
1
), f(e
2
), f(e
3
))
Por tanto,
det f =

1 1 0
1 1 0
0 0 1

= 0
luego f no es un automorsmo.
4.3. Determinante de una matriz cuadrada
Denicin 61 Dada una matriz cuadrada de orden n sobre K
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_
se llama determinante de A al elemento de K denotado por det A y denido
como sigue
det A =
X
hs
n
(h) a
h11
a
hnn
Usaremos tambin la notacin
det A =

a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn

Observacin 59 Fijado un espacio vectorial E sobre K y una base e


1
, ..., e
n
de
E. Podemos interpretar las columnas de A como las coordenadas de los vectores
de E
a
i
=
n
X
j=1
a
ji
e
j
Tenemos as una correspondencia biyectiva entre matrices cuadradas de orden
n y ntuplas de vectores de E
M
n
(K) E
n
A = (a
ij
) 7 (a
1
, ..., a
n
)
de forma que
det A = det
(e
i
)
(a
1
, ..., a
n
)
Esta correspondencia permite traducir enseguida las propiedades de los deter-
minantes de n vectores en propiedades de los determinantes de las matrices
cuadradas de orden n.
Els autors, 2002; Edicions UPC, 2002
4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 127
Corolario 28 Sea e
1
, ..., e
n
una base de E y f un endomorsmo de E. Si A es
la matriz asociada a f en la base e
1
, ..., e
n
, entonces
det f = det A =

a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn

siendo
f(e
i
) =
n
X
j=1
a
ji
e
j
Demostracin: Es inmediato a partir de
det f = det
(ei)
(f(e
1
), ..., f(e
n
))
Observacin 60 Con este resultado es claro que todas las matrices asociadas
a un endomorsmo en diferentes bases tienen el mismo determinante. De este
modo, se concluye que el determinante de un endomorsmo es invariante
frente a los cambios de base.
Corolario 29 Si A y B son dos matrices cuadradas de orden n, entonces
1. det I
n
= 1
2. det(AB) = det A det B
3. Si A es adems inversible, entonces det A
1
= (det A)
1
Demostracin: A partir del hecho de que cualquier matriz cuadrada es la ma-
triz de un endomorsmo en una cierta base de un espacio vectorial de dimensin
n y del corolario ??? se deducen de forma inmediata estos resultados.
Teorema 80 Sea A una matriz cuadrada de orden n sobre K y A
t
su matriz
traspuesta. Entonces
det A = det A
t
Demostracin: Sean A = (a
ij
) y A
t
= (b
ij
), de forma que a
ij
= b
ji
. Entonces,
tenemos
det A =
X
hs
n
(h) a
h(1)1
a
h(n)n
=
X
hs
n
(h) a
1h
1
(1)
a
nh
1
(n)
=
X
ksn
(k) a
1k(1)
a
nk(n)
=
X
ks
n
(k) a
k(1)1
a
k(n)n
= det A
t
en donde k = h
1
.
Els autors, 2002; Edicions UPC, 2002
128 CAPTULO 4. DETERMINANTES
Observacin 61 Este resultado tiene como consecuencia que todas las propiedades
de los determinantes de matrices cuadradas de orden n referentes a sus columnas
dan lugar a propiedades referentes a sus las. Por ejemplo, si multiplicamos los
elementos de una la por un elemento a de K, el valor del determinante queda
multiplicado por a; si una la es combinacin lineal de las otras, el determinante
es cero; etc.
Corolario 30 Sea f un endomorsmo y f
0
su dual. Entonces se cumple
det f = det f
0
Demostracin: Recordemos que si A es la matriz asociada a un endomorsmo
f en una cierta base, la traspuesta A
t
es la matriz asociada a la aplicacin dual
f
0
en la base dual de la anterior. Por tanto, por el teorema anterior, obtenemos
det f = det f
0
.
Ejemplo 86 Calcular el determinante de una matriz antisimtrica de orden n
impar.
Solucin: Sea A dicha matriz. Se tiene
det A = det A
t
= det(A) = (1)
n
det A = det A
Por tanto, det A = 0.
Ejemplo 87 De dos matrices cuadradas A y B de orden 2 se sabe que
AB =

7 5
5 15

y AB =

a 8
2 b

Calcular los posiles valores de a y b.


Solucin: Sabemos que
|AB| = 105 25 = 80 = |A| |B|
y
|BA| = ab 16 = |B| |A|
De donde, ab 16 = 80, o sea que ab = 96. Pero como tr(AB) = tr(BA), se
tiene adems 22 = a +b. Por tanto, resolviendo el sistema
ab = 96
a +b = 22

se obtienen las soluciones a = 6, b = 16 y a = 16, b = 6.


Els autors, 2002; Edicions UPC, 2002
4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 129
4.3.1. Desarrollo por los elementos de una la o columna
Designemos por a
1
, ..., a
n
los vectores columna de una matriz cuadrada
A = (a
ij
) de orden n. Observemos que cada columna interviene una y slo
una vez en cada trmino de det A, lo cual signica que jadas n 1 columnas
a
1
, ..., a
j1
, a
j+1
, ..., a
n
la aplicacin det(a
1
, ..., a
j1
, , a
j+1
, ..., a
n
) es lineal en
los elementos a
1j
, ..., a
ij
, ..., a
nj
de la jsima columna de A. Agrupando los
trminos en que interviene cada a
ij
obtendremos una expresin de la forma
det A = A
1j
a
1j
+ +A
ij
a
ij
+ +A
nj
a
nj
en la que el coeciente A
ij
de a
ij
es una expresin que depender slo de las
restantes columnas a
1
, ..., a
j1
, a
j+1
, ..., a
n
. Como en cada factor (h) a
h
1
1
a
h
n
n
interviene exactamente un elemento de cada la y, tambin, un elemento de cada
columna, es claro que en el coeciente A
ij
no pueden intervenir ni los elementos
de la la i ni los elementos de la columna j. En l intervienen solamente los
elementos de la submatriz M
ij
, que es la matriz obtenida al suprimir de A la
la i y la columna j.
Como las las y columnas intervienen simtricamente en det A, se tiene de
forma anloga el desarrollo de det A por los elementos de una la.
Ejemplo 88 Sabemos por la regla se Sarrus que

2 1 2
3 5 1
1 4 7

= 132
Ahora se trata de calcular el determinante desarrollndolo por la primera la.
Solucin:

2 1 2
3 5 1
1 4 7

= 2 (1)
1+1

5 1
4 7

+1 (1)
1+2

3 1
1 7

+ (2) (1)
1+3

3 5
1 4

= 78 20 34 = 132
Denicin 62 El coeciente A
ij
se llama adjunto (o cofactor) del elemento
a
ij
en la matriz A. Entonces, cuando
det A = a
1j
A
1j
+ +a
ij
A
ij
+ +a
nj
A
nj
se dice que hemos desarrollado det A por los elementos de la columna jsima.
Anlogamente se tiene el desarrollo de det A por los elementos de una la.
Denicin 63 Dado un elemento a
ij
de A, se llama menor complementario
de a
ij
al determinante de la submatriz M
ij
de A que se obtiene de suprimir en
esta, la la isima y la columna jsima.
Els autors, 2002; Edicions UPC, 2002
130 CAPTULO 4. DETERMINANTES
Teorema 81 Si A
ij
es el adjunto y D
ij
es el menor complementario de a
ij
, se
tiene
A
ij
= (1)
i+j
|M
ij
|
Demostracin: Si i = j = 1, entonces la denicin
det A =
X
hs
n
(h) a
h11
a
hnn
muestra claramente que los trminos en que interviene a
11
son exactamente los
trminos que resultan de todas las permutaciones S
n
tales que (1) = 1.
Una permutacin par (impar) de este tipo contina siendo una permutacin par
(impar) de los restantes ndices 2, ..., n, ya que (1) = 1 no forma inversin con
los siguientes (i). Por tanto,
A
11
=
X
s
0
() a
22
a
nn
= |M
11
|
donde S
0
= {2, ..., n}.
Cualquier otro adjunto A
ij
puede ahora reducirse a este caso especial, lle-
vando el trmino a
ij
a la posicin (1, 1) por medio de i1 trasposiciones de las
(la isima con cada una de las precedentes), seguido de j 1 trasposiciones
de columnas (la jsima con cada una de las precedentes). Estas operaciones
no alteran |M
ij
|, pues la posicin relativa de las las y columnas de M
ij
queda
inalterada, pero cambia (i 1) +(j 1) veces de el signo de det A. As tenemos
det A

= (1)
i+j
det A
donde A

es la matriz resultante de estas operaciones. Ahora bien, desarrollando


det A

y det A, el coeciente de a
ij
en el primero es |M
ij
| y en el segundo es
(1)
i+j
A
ij
; como ambos miembros son iguales, queda probado el teorema.
Corolario 31 El desarrollo de det A por los elementos de una columna, puede
escribirse as
det A = (1)
1+j
(a
1j
A
ij
a
nj
A
nj
)
donde en el parntesis se toman alternativamente los signos ms o menos.
Anlogamente se escribira el desarrollo por los elementos de una columna.
Demostracin: Es inmediato a partir del teorema anterior.
Observacin 62 1. La frmula del corolario reduce el clculo de un deter-
minante de orden n al de determinantes de rdenes n 1, lo cual tiene
gran inters prctico en la mayora de ocasiones.
2. Un caso de especial inters es aquel en el cual todos los elementos de la
primera columna, a excepcin del primero, son nulos. En el desarrollo
det A = a
1j
A
1j
+ +a
nj
A
nj
aparece entonces solamente el primer adjunto |M
11
| = A
11
, es decir,
det A = a
11
|M
11
|
Els autors, 2002; Edicions UPC, 2002
4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 131
Corolario 32 El determinante de una matriz triangular es el producto de sus
elementos diagonales.
Demostracin: Este resultado se obtiene de forma inmediata por induccin a
partir de la observacin anterior.
Ejemplo 89 Calcular por triangulacin el valor del determinante siguiente

1 2 1 2
1 1 2 1
1 1 2 2
2 1 1 1

Solucin:

1 2 1 2
1 1 2 1
1 1 2 2
2 1 1 1

1 2 1 2
0 3 3 3
0 1 1 0
0 5 3 5

= 3

1 2 1 2
0 1 1 1
0 1 1 0
0 5 3 5

= 3

1 2 1 2
0 1 1 1
0 0 2 1
0 0 2 0

= 3

1 2 1 2
0 1 1 1
0 0 2 1
0 0 0 1

= 3 1 1 2 1 = 6
Recordemos que una operacin elemental entre las transforma la identidad
en una matriz elemental E y la matriz A en el producto EA.
Teorema 82 Si E es una matriz elemental,
|EA| = |E| |A| = |AE|
Demostracin: En efecto, para la transformacin elemental E
1
que consiste en
multiplicar la isima la de A por un escalar c 6= 0, se tiene det E
1
= c; para
la operacin E
2
que consiste en permutar dos las de A, se tiene det E
2
= 1; y
para la operacin E
3
que consiste en sumar a la la i el producto de a por la la
j, se tiene det E
3
= 1. Por tanto, segn las propiedades de los determinantes,
obtenemos |E
1
A| = c |A|, |E
2
A| = |A| y |E
3
A| = |A|, respectivamente. Esto
Els autors, 2002; Edicions UPC, 2002
132 CAPTULO 4. DETERMINANTES
demuestra que |EA| = |E| |A|; por simetra, segn el teorema (traspuesta), lo
mismo se aplica a las operaciones elementales entre columnas, obteniendo que
|AE| = |A| |E|.
Observacin 63 Estos ltimos resultados proporcionan un mtodo til para
calcular el valor del determinante de una matriz A. Se reduce A mediante trans-
formaciones elementales a una forma triangular T; sea t el nmero de inter-
cambios de las (o columnas) efectuado, y sean c
1
, ..., c
k
los diversos escalares
utilizados para multiplicar las (o columnas) de A. Por el teorema anterior, se
tiene
det A = (1)
t
(c
1
c
k
)
1
det T
El clculo se concluye poniendo
det T = t
11
t
nn
segn el ltimo corolario.
4.3.2. Clculo del rango de una matriz por determinantes
Sea E un espacio vectorial de dimensin n. En el teorema ??? hemos dado
un criterio para saber si n vectores de E son, o no, linealmente independientes:
lo son si y slo si su determinante es diferente de 0. En este apartado queremos
ampliar este criterio para poder reconocer si k vectores v
1
, ..., v
m
de E son, o
no, linealmente independientes, cules de ellos son combinacin lineal del resto
y cules son las combinaciones lineales que los relacionan.
Sea e
1
, ..., e
n
una base de E. Una vez jada una base, cada vector vendr
representado por una ntupla de elementos del cuerpo K, sus coordenadas, y
cada conjunto de vectores v
1
, ..., v
m
por una matriz de mcolumnas formadas por
las coordenadas de los m vectores. Toda matriz A de orden n m, corresponde
a m vectores de E. Recordemos que se llama rango de A al nmero mximo
de vectores-columna de A linealmente independientes. El problema planteado
equivale, pues, al clculo del rango de una matriz.
Denicin 64 Se llaman menores de orden p de una matriz A de orden
n m a las submatrices cuadradas de orden p que se obtienen de la matriz A
al suprimir ciertas las y columnas.
Teorema 83 El rango de una matriz A es el mximo de los rdenes de los
menores de A con determinante no nulo.
Demostracin: Indicaremos por a
j
el vector correspondiente a la columna j
de la matriz A = (a
ij
); es decir, las coordenadas de a
j
en la base prejada son
(a
1j
, ..., a
nj
). Supongamos que rang A = r. Demostraremos, en primer lugar,
que todo menor de orden p > r tiene determinante cero. Sean j
1
, ..., j
p
las colum-
nas con las cuales se ha formado el menor. Los vectores-columna a
j
1
, ..., a
j
p
son
linealmente dependientes y, por tanto, su determinante ser cero.
Veamos ahora que hay un menor de orden r con determinante no nulo.
En la matriz A hay por hiptesis r columnas linealmente independientes; sean
Els autors, 2002; Edicions UPC, 2002
4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 133
a
j
1
, ..., a
j
r
. Completemos estos vectores-columna con vectores de la base e
1
, ..., e
n
en la que trabajamos hasta obtener una base del espacio a
j1
, ..., a
jr
, e
hr+1
, ..., e
hn
.
La matriz A

formada por estos vectores en columna tiene el siguiente determi-


nante
det A

a
1j
1
a
1j
r
0 0 0
a
2j1
a
2jr
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
nj
1
a
nj
r
0
.
.
. 0

En cada una de las n r ltimas columnas, todos los elementos son 0, excepto
uno que vale 1; ese elemento aparece en cada columna en una la distinta.
Desarrollando sucesivamente este determinante por cada una de las nr ltimas
columnas, se obtiene
det A

a
i
1
j
1
a
i
1
j
r
.
.
.
.
.
.
a
irj1
a
irjr

Como los vectores-columna a


j1
, ..., a
jr
son linealmente independientes, se de-
duce que det A

6= 0. Obtenemos as un menor de orden r de la matriz A con


determinante no nulo.
Observacin 64 El teorema anterior proporciona un mtodo para cualcular el
rango de una matriz A mediante el clculo de los determinantes de los menores
de A. En la prctica, para calcular el rango de una matriz por determinantes
tendremos en consideracin la siguiente propiedad: si en una matriz tenemos el
determinante de un menor de orden p distinto de cero y al aadirle una la ja
y todas las dems columnas (de una en una) se forman menores de orden p +1
cuyo determinante son todos nulos, entonces esta la es combinacin lineal de
las dems las y por tanto se puede suprimir para el clculo del rango. Esta
propiedad es tambin vlida cambiando las por columnas. Para probar esta
propiedad se pueden aplicar transformaciones elementales y las propiedades de
los determinantes.
Ejemplo 90 Calcular el rango de la siguiente matriz
A =
_
_
_
_
1 2 3 1 5
2 1 3 0 1
1 1 2 0 2
4 4 8 1 8
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
134 CAPTULO 4. DETERMINANTES
Solucin: Se cumple
det

1 2
2 1

6= 0
Aadindole la tercera la y las dems columnas resultan menores de orden 3.
Observamos que

1 2 3
2 1 3
1 1 2

= 0 y

1 2 1
2 1 0
1 1 0

6= 0
Aadiendo al menor cuyo determinante es no nulo la cuarta la y las dems
columnas se obtienen los menores de orden 4. Observamos que

1 2 3 1
2 1 3 0
1 1 2 0
4 4 8 1

= 0 y

1 2 1 5
2 1 0 1
1 1 0 2
4 4 1 8

= 0
Por tanto, rang A = 3 y adems, segn estos resultados, podemos concluir que
la cuarta la es combinacin lineal de las tres primeras; en efecto, la suma de
las tres primeras las es la la cuarta.
Corolario 33 Una matriz A y su traspuesta A
t
tienen el mismo rango
rang A = rang A
t
Demostracin: Es inmediato a partir del teorema ???
Corolario 34 Una aplicacin lineal f y su dual f
0
tienen el mismo rango.
Demostracin: Sabemos que el rango de una aplicacin lineal f : E
F es la dimensin de Imf. Si e
1
, ..., e
n
es una base de E, entonces Imf =
hf (e
1
) , ..., f (e
n
)i. Las coordenadas de f (e
1
) , ..., f (e
n
) forman las columnas
de la matriz A asociada a f. Por tanto,
rang f = rang A
El resultado se deduce ahora del teorema ??? y el corolario ???
4.3.3. Clculo por determinantes de la matriz inversa
Teorema 84 Una matriz cuadrada A es inversible si y slo si det A 6= 0.
Demostracin: Mediante las transformaciones elementales entre las y colum-
nas, cualquier matriz cuadrada A resulta equivalente a una matriz diagonal D,
as como A puede obtenerse a partir de D por matrices elementales F y C, de
tipo la y columna respectivamente.
A = F
s
F
1
DC
1
C
r
Els autors, 2002; Edicions UPC, 2002
4.3. DETERMINANTE DE UNA MATRIZ CUADRADA 135
Segn el teorema ???, se tiene
|A| = |F
s
| |F
1
| |D| |C
1
| |C
r
|
Como cada |F
i
| 6= 0 y |C
i
| 6= 0, ser |A| 6= 0 si y slo si |D| 6= 0. La forma
cannica D tiene exactamente r elementos 1 en la diagonal principal, siendo
r = rang A. Por tanto, |D| es el producto de sus n elementos diagonales y, en
consecuencia, |D| 6= 0 si y slo si r = n, es decir, si y slo si A es una matriz
inversible.
Lema 1 Sea A una matriz cuadrada de orden n. La suma de los productos
de los elementos de una columna (la) por los adjuntos de una columna (la)
paralela es cero.
Demostracin: Consideremos las columnas i y j de A con i 6= j. Sea A

la
matriz que se obtiene sustituyendo en A la columna j por la columna i. Como A

tiene dos columnas iguales se tiene det A

= 0. Si ahora desarrollamos det A

por los elementos de la columna j, se tiene


det A

= a
1i
A
1j
+ +a
ni
A
nj
= 0
Anlogamente para las, se tiene
a
i1
A
j1
+ +a
in
A
jn
= 0
Teorema 85 Si A es una matriz cuadrada y det A 6= 0, entonces
A
1
= (det A)
1
(A
ij
)
t
donde (A
ij
) es la matriz de los adjuntos de los elementos de la matriz A.
Demostracin: La ecuacin obtenida en el lema anterior para las
a
i1
A
j1
+ +a
in
A
jn
= 0 (i 6= j)
y la ecuacin tambin para las de
det A = a
i1
A
i1
+ +a
in
A
in
pueden escribirse conjuntamente as
a
i1
A
j1
+ +a
in
A
jn
=
ij
|A|
donde

ij
=

1 si i = j
0 si i 6= i
El nmero
ij
es precisamente el elemento (i, j) de la matriz identidad I; luego,
I = (
ij
). La igualdad anterior es muy semejante a un producto matricial; si
los subndices de los adjuntos A
ji
se intercambian, el primer miembro de la
Els autors, 2002; Edicions UPC, 2002
136 CAPTULO 4. DETERMINANTES
igualdad da el elemento (i, j) del producto de A = (a
ij
) por la matriz traspuesta
de la matriz de los adjuntos de los elementos de A
(a
i1
A
1j
+ +a
in
A
nj
) = A(A
ij
)
t
El segundo miembro de la igualdad es el elemento (i, j) de la identidad multi-
plicada por el escalar |A|. Por lo tanto, tenemos
A(A
ij
)
t
= |A| I
Como det A 6= 0, A es inversible y, en consecuencia,
A
1
= |A|
1
(A
ij
)
t
Denicin 65 Sea A = (a
ij
) una matriz cuadrada, se llama matriz adjunta
de A a la matriz que tiene por elemento (i, j) el adjunto A
ij
de a
ij
de A.
Ejemplo 91 Calcular la matriz inversa de la siguiente matriz
A =
_
_
1 2 2
1 1 1
1 0 1
_
_
Solucin: Observemos en primer lugar que
det A = 1 6= 0
luego A es inversible. Para calcular su inversa, primero calcularemos la matriz
adjunta de A
_
_
1 0 1
2 1 2
0 1 1
_
_
Por tanto,
A
1
= |A|
1
(A
ij
)
t
=
_
_
1 0 1
2 1 2
0 1 1
_
_
t
=
_
_
1 2 0
0 1 1
1 2 1
_
_
Els autors, 2002; Edicions UPC, 2002
Captulo 5
Sistemas de ecuaciones
lineales
5.1. Planteamiento del problema
Supongamos que tenemos un sistema de ecuaciones lineales
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
_

_
donde los a
ij
y b
i
son elementos conocidos de un cuerpo conmutativo K. Se
trata de encontrar las ntuplas (x
1
, ..., x
n
) de K
n
que satisfacen todas estas
ecuaciones.
Observacin 65 Cada una de las ecuaciones del sistema se llama una ecuacin
lineal con las incgnitas x
1
, ..., x
n
y, en conjunto, forman lo que se llama un
sistema de m ecuaciones lineales en dichas n incgnitas. Los elementos a
ij
se llaman los coecientes del sistema. Los elementos b
i
se llaman trminos
independientes de las ecuaciones del sistema.
Si hacemos
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
, b =
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
, x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
podemos escribir entonces el sistema anterior en forma matricial como sigue
Ax = b
137
Els autors, 2002; Edicions UPC, 2002
138 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
Observacin 66 Los coecientes del sistema forman la matriz A que se llama
matriz del sistema. Su rango se llama rango del sistema.
Este mismo problema se puede plantear de otra manera. Sean E y F dos
espacios vectoriales sobre K con bases u
1
, ..., u
n
y v
1
, ..., v
m
, respectivamente.
Entonces, sabemos que existe una aplicacin lineal f : E F que tiene
como matriz asociada en esas bases la matriz A. Designemos por b el vector
b = b
1
v
1
+ +b
m
v
m
de F y por x el vector x = x
1
u
1
+ +x
n
u
n
de E. La
ecuacin matricial Ax = b es equivalente a escribir
f (x) = b
De este modo, el problema de hallar las soluciones del sistema se traduce en
encontrar las antiimgenes del vector b por la aplicacin lineal f.
Recprocamente, dada una aplicacin lineal f : E F y un vector b F,
el problema de encontrar las antiimgenes x de b es equivalente a resolver el
sistema de ecuaciones lineales
Ax = b
donde A es la matriz asociada a f en unas ciertas bases y b, x son matrices
de una columna formadas por las coordenadas de los vectores correspondientes.
Tanto en la primera interpretacin como en la segunda, nuestro objetivo es
1. Saber cundo el problema tiene solucin y cundo no
2. Si tiene solucin, saber cuntas soluciones tiene
3. Dar un mtodo para encontrar todas las soluciones
Para resolver cada una de estas cuestiones usaremos la interpretacin que nos
resulte ms cmoda. En general, los razonamientos de tipo terico son ms sim-
ples en el lenguaje de aplicaciones lineales y la resolucin de los casos concretos
se lleva a cabo mediante el lenguaje de matrices.
5.2. Existencia de soluciones de un sistema de
ecuaciones lineales
La condicin necesaria y suciente para que b admita una antiimagen, es
decir, para que el sistema tenga solucin, es que b Imf. Puesto que
Imf = hf (u
1
) , ..., f (u
n
)i
resulta el siguiente teorema.
Teorema 86 La condicin necesaria y suciente para que un sistema de ecua-
ciones lineales sobre un cuerpo K tenga solucin es que la matriz del sistema
y la que se obtiene al aadir la columna de trminos independientes, tengan el
mismo rango.
Els autors, 2002; Edicions UPC, 2002
5.2. EXISTENCIADE SOLUCIONES DE UNSISTEMADE ECUACIONES LINEALES139
Demostracin: Es claro que la concidicin b Imf es equivalente a
hf (u
1
) , ..., f (u
n
)i = hf (u
1
) , ..., f (u
n
) , bi
Por tanto
rang f = dimImf = dim hf (u
1
) , ..., f (u
n
) , bi
Sabemos que rang f = rang A, luego
rang A = rang (A|b)
donde (A|b) indica la matriz que se obtiene aadiendo a A la columna formada
por las coordenadas de b.
Observacin 67 En lenguaje de matrices, tenemos que el sistema Ax = b
tiene solucin si y slo si
rang A = rang (A|b)
A la matriz (A|b) suele llamarse matriz ampliada del sistema. Conocemos
mtodos para calcular el rango de una matriz. Por tanto, tenemos resuelto el
problema de saber si el sistema tiene o no soluciones.
Denicin 66 Se llama sistema homogneo asociado al sistema
Ax = b
al sistema de ecuaciones lineales que se obtiene haciendo b
i
= 0 para todo i =
1, ..., m.
Teorema 87 Las soluciones del sistema de ecuaciones lineales Ax = b, si
existen, se obtienen sumando a una solucin particular del sistema las soluciones
del sistema homogneo asociado.
Demostracin: En la demostracin del primer teorema de isomorsmo, se ha
visto que todos los vectores de E que se aplican por f en el mismo vector de
F forman una clase x
0
+ ker f mdulo el ncleo de f. Es decir, si f(x
0
) = b,
entonces cualquier vector x de la clase x
0
+ ker f tiene esa misma propiedad,
f(x) = b. As pues, b tiene tantas antiimgenes como vectores tiene ker f.
Adems, todas las antiimgenes se obtienen sumando a una solucin particular
x
0
los vectores de ker f. Segn la denicin de ker f, los vectores de ker f tienen
por coordenadas las soluciones del sistema homogneo asociado al sistema dado
Ax = 0
Observacin 68 Con este ultimo teorema tambin hemos resuelto el problema
de saber cuntas soluciones tiene el sistema, siempre que tenga solucin.
Els autors, 2002; Edicions UPC, 2002
140 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
5.3. Regla de Cramer
Vamos a dar en este apartado un mtodo para encontrar las soluciones de
un sistema de ecuaciones lineales en un caso muy particular.
Teorema 88 (Regla de Cramer) Sea el sistema Ax = b y supongamos que
la matriz A es cuadrada de orden n y que det A 6= 0. Entonces el sistema tiene
una nica solucin x = (x
1
, ..., x
n
) y se cumple
x
i
=
det (a
1
, ..., a
i1
, b, a
i+1
, ..., a
n
)
det A
para todo i = 1, ..., n; los vectores a
1
, ..., a
n
respresentan los vectores columna
de la matriz A.
Demostracin: Supongamos que en la ecuacin matricial
Ax = b
la matriz A es cuadrada de orden n y que det A 6= 0. Esto es equivalente a
suponer que en la ecuacin siguiente
f (x) = b
f es un isomorsmo. Entonces sabemos que hay una solucin y slo una, que
es
x = A
1
b
Sabemos tambin que
A
1
= (det A)
1
(A
ij
)
t
donde (A
ij
) representa la matriz adjunta de A. Por tanto
x
i
= (det A)
1
n
X
j=1
A
ji
b
j
Ahora bien, la expresin
n
X
j=1
A
ji
b
j
es el desarrollo por los trminos de la columna i del determinante de una matriz
con los mismos elementos que A, salvo la columna i, que ha sido sustituida por
(b
1
, ..., b
n
). Designemos ese determinante por det (a
1
, ..., a
i1
, b, a
i+1
, ..., a
n
).
Entonces tenemos
x
i
=
det (a
1
, ..., a
i1
, b, a
i+1
, ..., a
n
)
det A
para todo i = 1, ..., n. Estas frmulas se conocen con el nombre de regla de
Cramer y proporcionan un mtodo para hallar la nica slucin del sistema
cuando det A 6= 0.
Els autors, 2002; Edicions UPC, 2002
5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES 141
Ejemplo 92 Resolver el sistema
+ 2y 3z +t = 2
2x y z t = 1
x +y + 2z t = 0
3x + 2y 4z 3t = 1
_

_
Solucin: La matriz del sistema es cuadrada de orden 4 y su determinante
es

1 2 3 1
2 1 1 1
1 1 2 1
3 2 4 3

= 27 6= 0
Por tanto el sistema tiene una sola solucin. Aplicando la regla de Cramer,
obtenemos
x =

2 2 3 1
1 1 1 1
0 1 2 1
1 2 4 3

27
= 2
y =

1 2 3 1
2 1 1 1
1 0 2 1
3 1 4 3

27
= 1
z =

1 2 2 1
2 1 1 1
1 1 0 1
3 2 1 3

27
= 1
t =

1 2 3 2
2 1 1 1
1 1 2 0
3 2 4 1

27
= 1
5.4. Resolucin de un sistema de ecuaciones lin-
eales
Vamos a dar en este apartado un mtodo para encontrar las soluciones de
un sistema de ecuaciones lineales en el caso general.
Els autors, 2002; Edicions UPC, 2002
142 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
Teorema 89 Sea el sistema Ax = b y supongamos que se cumple
rang A = rang (A|b) = r
y que el menor M de orden r de A
M =
_
_
_
a
i1j1
a
i1jr
.
.
.
.
.
.
.
.
.
a
irj1
a
irjr
_
_
_
tiene determinante no nulo. Entonces el sistema admite las soluciones x =
(x
1
, ..., x
n
) tales que
x
1
=
1

nr
X
i=1

i1
x
r+i
.
.
.
x
r
=
r

nr
X
i=1

ir
x
r+i
x
r+1
=
r+1
.
.
.
x
n
=
n
donde
1
, ...,
r
es la solucin nica del sistema
a
i1j1

1
+ +a
i1jr

r
= b
i1
.
.
.
a
irj1

1
+ +a
irjr

r
= b
ir
_

_
obtenida por la regla de Cramer, y
i1
, ...,
ir
(i = 1, ..., n r) es la solucin
nica de cada sistema
a
i
1
j
1

i1
+ +a
i
1
j
r

ir
= a
1r+i
.
.
.
a
i
r
j
1

i1
+ +a
i
r
j
r

ir
= a
rr+i
_

_
para cada i = 1, ..., n r obtenida tambin por la regla de Cramer.
Demostracin: Dado el sistema Ax = b,
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
_

_
Els autors, 2002; Edicions UPC, 2002
5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES 143
Observemos que el sistema es equivalente a la siguiente ecuacin vectorial
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= b
donde a
1
, a
2
, ..., a
n
son los vectores columna de la matriz A. Sabemos por hipte-
sis que
rang A = rang (A|b) = r
A n de facilitarnos la notacin, no es restrictivo suponer que hemos reordenado
convenientemente las ecuaciones y las incgnitas para conseguir que el menor
_
_
_
a
11
a
1r
.
.
.
.
.
.
.
.
.
a
r1
a
rr
_
_
_
tenga determinante D 6= 0; obsrvese que as evitamos escribir las permuta-
ciones i, j S
r
, presentes en el enunciado del teorema. Por tanto, los vectores
columna a
1
, ..., a
r
de A son linealmente independientes; observemos, en partic-
ular, que r n. En estas condiciones, tenemos
a
r+i
=
i1
a
1
+ +
ir
a
r
(i = 1, ..., n r)
b =
1
a
1
+ +
r
a
r
es decir, los n r vectores columna restantes de A son combinaciones lineales
de los r primeros. Sustituyendo estos resultados en la ecuacin
a
1
x
1
+ +a
r
x
r
+a
r+1
x
r+1
+ +a
n
x
n
= b
se obtiene
(x
1
+
nr
X
i=1

i1
x
r+i

1
) a
1
+ + (x
r
+
nr
X
i=1

ir
x
r+i

r
) a
r
= 0
De aqu, por la independencia lineal de los vectores a
1
, ..., a
r
, todos los coe-
cientes de la combinacin son nulos y, por tanto, se obtiene
x
1
=
1

nr
X
i=1

i1
x
r+i
.
.
.
x
r
=
r

nr
X
i=1

ir
x
r+i
donde x
r+1
, ..., x
n
pueden tomarse arbitrariamente en K. Estas frmulas dan ex-
plcitamente las soluciones del sistema de ecuaciones una vez conocidos los ele-
mentos
1
, ...,
r
,
11
, ...,
1r
, ....,
nr1
, ...,
nrr
del cuerpo K. Por tanto, debe-
mos calcular estos elementos. Para ello, consideremos los sistemas que resultan
Els autors, 2002; Edicions UPC, 2002
144 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
al igualar las r primeras componentes de ambos miembros de las igualdades
siguientes
a
1

i1
+ +a
r

ir
= a
r+i
(i = 1, ..., n r)
a
1

1
+ +a
r

r
= b
es decir,
a
11

i1
+ +a
1r

ir
= a
1r+i
.
.
.
a
r1

i1
+ +a
rr

ir
= a
rr+i
_

_
(i = 1, ..., n r)
y
a
11

1
+ +a
1r

r
= b
1
.
.
.
a
r1

1
+ +a
rr

r
= b
r
_

_
Este ltimo sistema de r ecuaciones lineales con r incgnitas
1
, ...,
r
tiene
rango r por la condicin que hemos supuesto. La nica solucin se obtendr por
la regla de Cramer

i
=
det (a
1
, ..., a
i1
, b, a
i+1
, ..., a
r
)
det D
(i = 1, ..., r)
Por otro lado, cada uno de los sistemas
a
11

i1
+ +a
1r

ir
= a
1r+i
.
.
.
a
r1

i1
+ +a
rr

ir
= a
rr+i
_

_
(i = 1, ..., n r)
tiene tambin rango r y la solucin se obtendr por la regla de Cramer

ij
=
det (a
1
, ..., a
j1
, a
r+i
, a
j+1
, ..., a
r
)
det D
siendo i = 1, ..., n r y j = 1, ..., r.
Teorema 90 Sea el sistema Ax = b y supongamos que se cumple
rang A = rang (A|b) = r
y que el menor M de orden r de A
M =
_
_
_
a
i
1
j
1
a
i
1
j
r
.
.
.
.
.
.
.
.
.
a
i
r
j
1
a
i
r
j
r
_
_
_
Els autors, 2002; Edicions UPC, 2002
5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES 145
tiene determinante no nulo. Las soluciones admitidas por el sistema en el teo-
rema anterior
x
1
=
1

nr
X
i=1

i1
x
r+i
.
.
.
x
r
=
r

nr
X
i=1

ir
x
r+i
x
r+1
=
r+1
.
.
.
x
n
=
n
donde
r+1
, ...,
n
K pueden escogerse arbitrariamente, son todas las solu-
ciones del sistema
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
_

_
Demostracin: Si hacemos x
r+1
= = x
n
= 0, por las frmulas se obtiene
el vector
x
0
= (
1
, ...,
r
, 0, ..., 0)
Obsrvese que es una solucin ya que al sustituir en el sistema de ecuaciones
se obtienen las condiciones
a
11

1
+ +a
1r

r
= b
1
.
.
.
a
r1

1
+ +a
rr

r
= b
r
_

_
que se satisfacen por el teorema anterior. Si en x
r+1
, ..., x
n
hacemos x
r+i
= 1
y el resto todos nulos para cada i = 1, ..., n r, los vectores que se obtienen por
las frmulas son
x
1
= (
1

11
,
2

12
, ...,
r

1r
, 1, 0, ..., 0)
x
2
= (
1

21
,
2

22
, ...,
r

2r
, 0, 1, ..., 0)
.
.
.
x
nr
= (
1

nr1
,
2

nr2
, ...,
r

nrr
, 0, 0, ..., 1)
obsrvese que cada una de ellas es una solucin ya que al sustituir en el sistema
se obtienen las condiciones
a
11

i1
+ +a
1r

ir
= a
1r+i
.
.
.
a
r1

i1
+ +a
rr

ir
= a
rr+i
_

_
(i = 1, ..., n r)
Els autors, 2002; Edicions UPC, 2002
146 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
que se satisfacen por el teorema anterior. Los vectores
x
1
x
0
, x
2
x
0
, ..., x
nr
x
0
son del ncleo de la aplicacin lineal f asociada al sistema Ax = b. En efecto
A(x
i
x
0
) = Ax
i
Ax
0
= b b = 0
Puesto que estos vectores son linealmente independientes (por qu? se comprue-
ba inmediatamente observando las ltimas n r componentes) y sabemos que
dimker f = nr, son una base del ncleo. Por tanto, segn el teorema 2, todas
las soluciones del sistema son de la forma
x
0
+ ker f = x
0
+
nr
X
i=1
(x
i
x
0
)x
r+i
que coinciden con las soluciones dadas por las frmulas del teorema anterior.
Por tanto, hemos demostrado que dichas frmulas dan todas las soluciones del
sistema.
Observacin 69 Las incgnitas x
r+1
, ..., x
n
cuyos valores puden elegirse ar-
bitrariamente en K se llaman incgnitas no principales, mientras que las
restantes se llaman incgnitas principales. Supuesto que el sistema tiene solu-
ciones y es de rango r, del teorema anterior ??? se sigue que como incgnitas
principales podemos elegir r cualesquiera de ellas con tal que las columnas del
mismo subndice sean vectores linealmente independientes.
Los resultados de los teoremas anteriores suelen resumirse en el siguiente
teorema.
Teorema 91 (Teorema de Rouch-Frobenius) La condicin necesaria y su-
ciente para que un sistema de m ecuaciones lineales con n incgnitas sobre un
cuerpo K tenga solucin es que la matriz del sistema y la matriz ampliada con
la columna de trminos independientes tengan el mismo rango r. Supuesto que
la condicin se cumple, la solucin es nica si el rango es igual al nmero de
incgnitas. Si r < n se llaman incgnitas principales a r cualesquiera de las
incgnitas cuyas columnas en la matriz del sistema son linealmente independi-
entes; entonces se pueden escoger arbitrariamente en K los valores de las incg-
nitas restantes, que se llaman incgnitas no principales, y con stas se expresan
linealmente los valores de las incognitas principales que con ellos forman una
solucin del sistema.
Denicin 67 Se llaman sistemas homogneos a los sistemas de ecuaciones
lineales cuyos trminos independientes son todos nulos. Matricialmente, un sis-
tema homogneo se expresa como
Ax = 0
Tales sistemas admiten obviamente la solucin x
1
= x
2
= = x
n
= 0 y
tienen como conjunto de soluciones el ncleo de la aplicacin lineal cuya matriz
asociada es la matriz del sistema de ecuaciones.
Els autors, 2002; Edicions UPC, 2002
5.4. RESOLUCIN DE UN SISTEMA DE ECUACIONES LINEALES 147
A los sistemas homogneos podemos aplicar el teorema de Rouch-Frobenius.
Como ejemplo, proponemos el siguiente ejemplo, muy frecuente en Geometra.
Denicin 68 Ejemplo 93 Sea el sistema
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= 0
.
.
.
a
n11
x
1
+a
n12
x
2
+ +a
n1n
x
n
= 0
_

_
y supongamos que rang A = n 1. Se trata de encontrar todas sus soluciones.
Solucin: Por el teorema ???, supuesto que
det A
n
=

a
11
a
1n1
.
.
.
.
.
.
.
.
.
a
n11
a
n1n1

6= 0
se cumple

i
=
det (a
1
, ..., a
i1
, b, a
i+1
, ..., a
n1
)
det A
n
= 0 (i = 1, ..., n 1)
ya que b = 0, y

1j
=
det (a
1
, ..., a
j1
, a
n
, a
j+1
, ..., a
n1
)
det A
n
= (1)
nj1
det A
j
det A
n
siendo j = 1, ..., n1 y A
j
indica la submatriz que resulta de suprimir la columna
j a la matriz A del sistema. Por tanto,
x
1
=
11
x
n
= (1)
n1
det A
1
det A
n

x
2
=
12
x
n
= (1)
n2
det A
2
det A
n

.
.
.
x
n1
=
1n1
x
n
= (1)
det A
n1
det A
n

x
n
=
con K, y las soluciones forman el subespacio vectorial generado por el vector
((1)
n1
det A
1
det A
n
, (1)
n2
det A
2
det A
n
, ...,
det A
n1
det A
n
, 1)
o bien,
((1)
n1
det A
1
, (1)
n2
det A
2
, ..., det A
n1
, det A
n
)
observemos que dicho subespacio es de dimensin 1.
Els autors, 2002; Edicions UPC, 2002
148 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
5.5. Clasicacin de los sistemas de ecuaciones
lineales
Denicin 69 Si un sistema tiene alguna solucin se llama compatible, en
caso contrario se llama incompatible. Si tiene una nica solucin se llama
determinado y si tiene innitas solucines se llama indeterminado.
Segn el teorema de Rouch-Frobenius, podemos clasicar entonces los sis-
temas de m ecuaciones lineales con n incgnitas sobre un cuerpo conmutativo
K, como sigue:
1. No homogneos
a) Compatible: rang A = rang (A|b) = r
1) Determinado: r = n; la solucin se encuentra por la regla de
Cramer
2) Indeterminado: r < n; las soluciones se encuentran por la regla
de Cramer una vez elegidas r incgnitas principales
b) Incompatible: rang A 6= rang (A|b)
2. Homogneos: siempre son compatibles
a) Determinado: rang A = n; la solucin es la trivial
b) Indeterminado: rang A = r < n; las soluciones se encuentran por la
regla de Cramer una vez elegidas r incgnitas principales
Ejemplo 94 Discutir y resolver, si es posible, el siguiente sistema
x + 2y z +t +u = 0
3x y +t u = 6
6x +y +t +u = 1
x 2y + 2z 2t = 5
_

_
Solucin: En primer lugar calculemos el rango de A. Puesto que

1 2 1
3 1 0
6 1 0

= 9 6= 0
y

1 2 1 1
3 1 0 1
6 1 0 1
1 2 2 2

= 0 y

1 2 1 1
3 1 0 1
6 1 0 1
1 2 2 0

= 0
Els autors, 2002; Edicions UPC, 2002
5.5. CLASIFICACINDE LOS SISTEMAS DE ECUACIONES LINEALES149
se cumple que rang A = 3. Calculemos ahora el rango de la matriz ampliada
(A|b). Puesto que

1 2 1 0
3 1 0 6
6 1 0 1
1 2 2 5

= 0
se cumple que rang (A|b) = 3. Por tanto, como rang A = rang (A|b) = 3 < 5,
el sistema es compatible indeterminado. Elegimos como incgnitas principales
x, y, z ya que los vectores columna correspondientes a estas incgnitas son lin-
ealmente independientes. Por tanto, las incgnitas t, u pueden tomar cualquier
valor real; supongamos que t = y u = . Entonces el sistema
x + 2y z =
3x y = 6 +
6x +y = 1
_
_
_
tiene una sola solucin para cualquier valor de , R. Aplicando la regla de
Cramer, se obtiene
x =

2 1
6 + 1 0
1 1 0

9
=
7
9

2
9

y =

1 1
3 6 + 0
6 1 0

9
=
11
3
+
1
3

z =

1 2
3 1 6 +
6 1 1

4
=
59
4

13
4
+
9
4

t =
u =
Por tanto, las soluciones del sistema son
(x, y, z, t, u) = (7/9, 11/3, 59/4, 0, 0)+(2/9, 1/3, 13/4, 1, 0)+(0, 1, 9/4, 0, 1)
para todo , R, o bien,
x =
7
9

2
9
t
y =
11
3
+
1
3
t u
z =
59
4

13
4
t +
9
4
u
t = t
u = u
Els autors, 2002; Edicions UPC, 2002
150 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
5.6. Mtodo de Gauss
Otro mtodo para resolver sistemas de ecuaciones lineales es el de reduccin
o de Gauss-Jordan. Su justicacin terica est basada en unos razonamientos
muy simples. Sea f : E F una aplicacin lineal y sean u
1
, ..., u
n
y v
1
, ..., v
m
bases de E y F respectivamente. Denotamos por A la matriz asociada a f en
estas bases y por b el vector de F cuyas coordenadas son (b
1
, ..., b
m
). Queremos
encontrar las antiimgenes x de b. Los cambios en la base de F dan lugar a
cambios en la matriz asociada y en las coordenadas de b, pero no afectan a las
coordenadas de x, que permanecen invariables. Por tanto, si A
1
y b
1
son la nueva
matriz asociada y las nuevas coordenadas de b, las soluciones del sistema A
1
x =
b
1
coinciden con las del sistema original Ax = b. Efectuando cambios en la
base de F podemos conseguir un sistema equivalente con una matriz lo bastante
simple como para que el hecho de encontrar la solucin general no implique
ningn clculo. Adems, los cambios que efectuaremos son nicamente de tres
tipos muy simples y se corresponden con las transformaciones elementales.
1. Permutacin del orden de los vectores de la base de F. Naturalmente,
entonces, las coordenadas de
f(u
i
) = a
1i
v
1
+ +a
mi
v
m
(i = 1, ..., n)
y de
b = b
1
v
1
+ +b
m
v
m
quedan permutadas, lo cual equivale a que en la matriz (A|b) las las
queden permutadas o que las ecuaciones del sistema se intercambien.
2. Sustitucin de un vector v
j
de la base de F por kv
j
, con k 6= 0. Entonces
f(u
i
) = a
1i
v
1
+ + (a
ij
k
1
) k v
j
+ +a
mi
v
m
b = b
1
v
1
+ + (b
j
k
1
) k v
j
+ +b
m
v
m
Es decir, en la matriz (A|b) la la j queda multiplicada por k
1
o que la
ecuacin j queda multiplicada por k
1
.
3. Sustitucin de un vector v
j
de la base de F por v
j
+ k v
h
, con h 6= j.
Entonces
f(u
i
) = a
1i
v
1
+ +a
ji
(v
j
+k v
h
) + +(a
hi
a
ji
k) v
h
+ +a
mi
v
m
b = b
1
v
1
+ +b
j
(v
j
+k v
h
) + + (b
h
b
j
k) v
h
+ +b
m
v
m
Es decir, en la matriz (A|b), a la la h se le resta la la j multiplicada por
k o lo que es lo mismo, a la ecuacin h se le resta la ecuacin j multiplicada
por k.
Els autors, 2002; Edicions UPC, 2002
5.6. MTODO DE GAUSS 151
Haciendo cambios del tipo 1, 2 y 3 y permutando, si es necesario, el orden de
las incgnitas, lo que equivale a permutar el orden de las n primeras columnas
de (A|b), obtenemos una matriz de la forma
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 c
1r+1
c
1n
0 1 0 c
2r+1
c
2
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 c
rr+1
c
rn
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
d
1
d
2
.
.
.
d
r
d
r+1
.
.
.
d
m
_
_
_
_
_
_
_
_
_
_
_
_
El sistema as obtenido es de la forma
x
1
+ c
1r+1
x
r+1
+ + c
1n
x
n
= d
1
x
2
+ c
2r+1
x
r+1
+ + c
2n
x
n
= d
2
.
.
.
.
.
.
.
.
.
.
.
.
x
r
+ c
rr+1
x
r+1
+ + c
rn
x
n
= d
r
0 = d
r+1
.
.
.
.
.
.
.
.
.
0 = d
m
_

_
tiene, pues, las mismas soluciones que el original, salvo tal vez el orden de
las incgnitas. Por tanto, el sistema es compatible si y slo si
d
r+1
= = d
m
= 0
y, en este caso, la solucin general es
x
i
= d
i
c
ir+1
x
r+1
c
in
x
n
(i = 1, ..., r)
x
r+1
= x
r+1
.
.
.
x
n
= x
n
Observacin 70 Los cambios en la matriz (A|b) se efectan de la manera
siguiente: si la primera columna es toda 0, se pasa al lugar n. Si hay un elemento
no nulo, se permutan las las de forma que quede en primer lugar. Con un
cambio del tipo 2 se puede conseguir que este elemento pase a ser un 1 y con
cambios del tipo 3 se puede conseguir que el resto de la columna sea 0. La
primera columna queda, as, en la forma deseada. Supongamos que tenemos h
columnas en la forma deseada. Si en la columna h+1 los elementos de las las
h + 1, ..., m son 0, la situamos en el lugar n. En caso contrario, colocamos un
elemento no nulo en la la h +1, permutando nicamente las las h +1, ..., m.
Con cambios del tipo 2 y 3 podemos conseguir que este elemento sea 1 y el resto
de la columna sea 0. Observemos que de esta forma las columnas anteriores no
varan. El proceso puede continuar hasta obtener una matriz como la que hemos
escrito ms arriba.
Els autors, 2002; Edicions UPC, 2002
152 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
Notacin 2 Una de las ventajas del mtodo de Gauss es que se puede aplicar
simultneamente a sistemas de ecuaciones con la misma matriz y diferentes tr-
minos independientes. Sean, por ejemplo, Ax = b y Ax = c dos sistemas con
matriz A. Si efectuamos los cambios necesarios en la matriz (A|b|c), resolvere-
mos al mismo tiempo los dos sistemas.
Ejemplo 95 Consideremos el sistema
x
1
2x
2
+ 3x
3
+ 5x
4
4x
5
= b
1
2x
1
4x
2
+ 6x
3
+ 5x
4
+ 2x
5
= b
2
2x
1
5x
2
+ 7x
3
+ 7x
4
+ 3x
5
= b
3
x
1
+x
2
2x
3
3x
4
+ 5x
5
= b
4
_

_
y supongamos que nos interesan las soluciones cuando b es (2, 6, 7, 3) y
(3, 1, 1, 2).
Solucin: Enumeramos las columnas y las las. Para facilitarnos la es-
critura, las operaciones con las o columnas indicadas en cada paso se reeren
siempre al paso inmediatamente anterior.
1.
C
1
C
2
C
3
C
4
C
5
F
1
1 2 3 5 4 2 3
F
2
2 4 6 5 2 6 1
F
3
2 5 7 7 3 7 1
F
4
1 1 2 3 5 3 2
2.
C
1
C
2
C
3
C
4
C
5
F
1
1 2 3 5 4 2 3
F
2
2F
1
0 0 0 5 10 10 5
F
3
2F
1
0 1 1 3 11 11 7
F
4
+F
1
0 1 1 2 1 1 1
3.
C
1
C
2
C
3
C
4
C
5
F
1
1 2 3 5 4 2 3
F
4
0 1 1 2 1 1 1
F
3
0 1 1 3 11 11 7
F
2
0 0 0 5 10 10 5
4.
C
1
C
2
C
3
C
4
C
5
F
1
2F
2
1 0 1 1 6 4 1
F
4
0 1 1 2 1 1 1
F
3
F
2
0 0 0 5 10 10 8
F
2
0 0 0 5 10 10 5
Els autors, 2002; Edicions UPC, 2002
5.7. CLCULO DE LA MATRIZ INVERSA 153
5.
C
1
C
2
C
3
C
4
C
5
F
1
1 0 1 1 6 4 1
F
2
0 1 1 2 1 1 1
F
3
0 0 0 5 10 10 8
F
4
F
3
0 0 0 0 0 0 3
observemos que la ltima la nos dice que el segundo sistema es incompat-
ible. En consecuencia, podemos eliminarla y tambin la ltima columna.
6.
C
1
C
2
C
4
C
3
C
5
F
1
1 0 1 1 6 4
F
2
0 1 2 1 1 1
F
3
/5 0 0 1 0 2 2
7.
C
1
C
2
C
4
C
3
C
5
F
1
F
3
1 0 0 1 4 2
F
2
+ 2F
3
0 1 0 1 5 5
F
3
0 0 1 0 2 2
Por tanto, las soluciones del primer sistema se obtienen del siguiente sistema
equivalente
x
1
+x
3
4x
5
= 2
x
2
x
3
5x
5
= 5
x
4
2x
5
= 2
x
3
= x
3
x
5
= x
5
_

_
es decir,
x
1
= 2 x
3
+ 4x
5
x
2
= 5 +x
3
+ 5x
5
x
3
= x
3
x
4
= 2 + 2x
5
x
5
= x
5
_

_
5.7. Clculo de la matriz inversa
Dada A M
n
(K), se trata de encontrar, si existe, una matriz B = (b
ij
)
que cumpla AB = I
n
. Esto equivale a buscar las n columnas b
i
= (b
1i
, ..., b
ni
)
de B de forma que para cada i = 1, ..., n se cumpla
Ab
i
= e
i
donde e
i
= (0, ..., 1, ..., 0) es la columna i de I
n
. En otras palabras, debemos
resolver los siguientes n sistemas simultneamente
Ax = e
i
(i = 1, ..., n)
Els autors, 2002; Edicions UPC, 2002
154 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
todos con la misma matriz A. Para hacerlo aplicaremos el mtodo de Gauss.
Consideremos la matriz (A|e
1
| |e
n
) y apliquemos las transformaciones del
mtodo de Gauss. Observemos que (|e
1
| |e
n
) es precisamente la matriz iden-
tidad. Por tanto, partimos de
(A|I
n
)
y llegaremos a una matriz del tipo (I
n
|B), es decir,
_
_
_
1 0 b
11
b
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 1 b
n1
b
nn
_
_
_
La solucin del primer sistema es la primera columna de B, es decir, x
i
= b
i1
,
i = 1, ..., n, etc. En resumen, resulta que la matriz (b
ij
) que hemos obtenido
as es precisamente la matriz inversa de A. Naturalmente, puede suceder que la
matriz A no se pueda transformar en la matriz identidad I
n
. Entonces uno de
los sistemas Ax = e
i
para un cierto 1 i n, resulta incompatible y A no
tiene matriz inversa.
Ejemplo 96 Hallar la inversa de la siguiente matriz
A =
_
_
1 1 1
0 1 1
1 0 1
_
_
Solucin: Para facilitarnos la escritura, las operaciones con las indicadas
en cada paso se reeren siempre al paso inmediatamente anterior. As tenemos
1.
F
1
1 1 1 1 0 0
F
2
0 1 1 0 1 0
F
3
1 0 1 0 0 1
2.
F
1
1 1 1 1 0 0
F
2
0 1 1 0 1 0
F
3
F
1
0 1 0 1 0 1
3.
F
1
1 1 1 1 0 0
F
2
0 1 1 0 1 0
F
3
+F
2
0 0 1 1 1 1
4.
F
1
F
3
1 1 0 2 1 1
F
2
F
3
0 1 0 1 0 1
F
3
0 0 1 1 1 1
Els autors, 2002; Edicions UPC, 2002
5.8. ESTUDIO DE LAS ECUACIONES AX = B 155
5.
F
1
F
2
1 0 0 1 1 0
F
2
0 1 0 1 0 1
F
3
0 0 1 1 1 1
Por tanto,
A
1
=
_
_
1 1 0
1 0 1
1 1 1
_
_
5.8. Estudio de las ecuaciones AX = B
1. Calculamos rang A y rang (A|B). Si son iguales, el sistema es compatible
y por tanto tiene solucin, y si no son iguales, el sistema es incompatible,
es decir, no tiene solucin.
2. Procedemos a efectuar transformaciones elementales en la matriz (A|B)
hasta conseguir una nueva matriz de la forma (I|X), siendo I la matriz
identidad. Si esto es posible, entonces X es la nica solucin del sistema y
por tanto decimos que el sistema es compatible determinado. Ahora bien,
puede ocurrir que al efectuar las transformaciones por las no sea posible
llegar a la situacin sealada antes. Sin embargo, reordenando columnas
(o sea incgnitas) si es necesario, siempre ser posible llegar a una matriz
de la forma (I|T|Z), donde (I|T) es la transformada de A y T es una
matriz de tantas columnas como grados de libertad (o sea incgnitas no
principales) tenga el sistema AX = B, y Z es la transformada de B. En
este ltimo caso, el problema inicial se ha reducido a resolver el sistema
equivalente (I|T)X = Z. Descomponiendo la matriz de las incgnitas X
en dos submatrices o cajas X
1
y X
2
de rdenes tales que pueda efectuarse
la multiplicacin matricial, se tiene
(I|T)X = (I|T)

X
1
X
2

= IX
1
+TX
2
= X
1
+TX
2
Por tanto, el sistema inicial es equivalente al siguiente
X
1
+TX
2
= Z
es decir,
X
1
= Z TX
2
X
2
= X
2

Por tanto, la solucin general viene dada por


X =

X
1
X
2

=

Z TX
2
X
2

Els autors, 2002; Edicions UPC, 2002


156 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
en donde X
2
es la matriz de las incnitas no principales y por tanto pueden
tomar cualquier valor en K. En este caso, decimos que el sistema es com-
patible indeterminado.
Observacin 71 Cuando el sistema es de la forma XA = B, tenemos dos
alternativas. La primera consiste en hacer lo mismo que antes, pero aplicando
transformaciones elementales por columnas en lugar de por las. La segunda
alternativa consiste en observar que el sistema XA = B es equivalente a A
t
X
t
=
B
t
y, en consecuencia, podemos resolver este ltimo siguiendo las indicaciones
explicadas. Sin embargo, es importante no olvidar que la solucin que se obtiene
as es X
t
y, por tanto, para hallar X habr que trasponer X
t
.
Ejemplo 97 Discutir segn los valores de la compatibilidad de la ecuacin
XA = B, siendo
A =
_
_
1 1
1 1
1 1
_
_
y B =

1
2
1 1 1

Solucin: Es claro que XA = B es equivalente a A


t
X
t
= B
t
y por tanto,
discutiremos la compatibilidad de este ltimo sistema. As tenemos

A
t
|B
t

=
_
_
1 1 1 1
1 1 1
1 1
2
1
_
_
Aplicando transformaciones elementale por las, tenemos
_
_
1 1 1 1
1 1 1
1 1
2
1
_
_

_
_
1 1
2
1
1 1 1
1 1 1 1
_
_
F
3
F
2
F
1
_
_
1 1
2
1
1 1 1
1 1 1 1
_
_

_
_
1 1
2
1
0 1 1
2
0
0 1 1
2
1
3
1
_
_
F
1
F
2
F
1
F
3
aF
1
_
_
1 1
2
1
0 1 1
2
0
0 1 1
2
1
3
1
_
_

_
_
1 1
2
1
0 1 1
2
0
0 0 2
2
1 +
2

3
1
_
_
F
F
F
Puesto que las transformaciones que hemos efectuado respetan el valor del de-
terminante de A
t
, tenemos
det A
t
= ( 1)(2
2
) = ( 1)
2
( + 2)
Por tanto, si 6= 1 y 6= 2, entonces rang A
t
= 3 y por tanto se cumple
rang A
t
= rang (A
t
|B
t
) = 3. En este caso, el sistema es compatible determina-
do. Si = 1, tenemos

A
t
|B
t

_
_
1 1 1 1 1
0 0 0 0 0
0 0 0 0 0
_
_
Els autors, 2002; Edicions UPC, 2002
5.8. ESTUDIO DE LAS ECUACIONES AX = B 157
y por tanto tenemos rang A
t
= rang (A
t
|B
t
) = 1. En este caso, el sistema es
compatible indeterminado. Si = 2, tenemos

A
t
|B
t

_
_
1 1 2 4 1
0 3 3 6 0
0 0 0 3 1
_
_
y por tanto tenemos rang A
t
= 2 y rang (A
t
|B
t
) = 3. En este caso el sistema es
incompatible, es decir, no tiene solucin. Vamos ahora a encontrar las soluciones
en los casos en los que el sistema es compatible.
1. Empecemos por el caso en que = 1. Tenemos,

A
t
|B
t

_
_
1 1 1 1 1
0 0 0 0 0
0 0 0 0 0
_
_
= (I
1
|T|Z)
siendo T =

1 1

y Z =

1 1

. Por tanto,

1 1 1

X
1
X
2

=

1 1

Sabiendo que X
t
es de orden 3 2, tomamos
X
1
=

a b

y X
2
=

c d
e f

y de este modo obtenemos


(1) X
1
+

1 1

X
2
=

1 1

es decir,
(1)

a b

=

1 1

1 1

c d
e f

Por tanto

a b

=

1 1

c +e d +f

La solucin general de A
t
X
t
= B
t
es
X
t
=
_
_
a b
c d
e f
_
_
=
_
_
1 c e 1 d f
c d
e f
_
_
y por tanto
X =

1 c e c e
1 d f d f

es la solucin general del sistema AX = B.


Els autors, 2002; Edicions UPC, 2002
158 CAPTULO 5. SISTEMAS DE ECUACIONES LINEALES
2. Si 6= 1 y 6= 2, entonces tenemos

A
t
|B
t

_
_
1 1
2
1
0 1 1
2
0
0 0 2
2
1 +
2

3
1
_
_
Observemos que 2
2
= ( 1)( + 2) y que 1 +
2

3
=
( 1)( + 1)
2
, por tanto

A
t
|B
t

_
_
1 1
2
1
0 1 1 0
0 0 1
(+1)
2
+2
1
+2
_
_
F
1
1
1
F
2
1
(1)(+2)
F
3
_
_
1 1
2
1
0 1 1 0
0 0 1
(+1)
2
+2
1
+2
_
_

_
_
_
1 1 0

+2
2
+2
0 1 0
1
+2
1
+2
0 0 1
(+1)
2
+2
1
+2
_
_
_
F
1
F
3
F
2
+F
3
F
3
_
_
_
1 1 0

+2
2
+2
0 1 0
1
+2
1
+2
0 0 1
(+1)
2
+2
1
+2
_
_
_
_
_
_
1 0 0
+1
+2
1
+2
0 1 0
1
+2
1
+2
0 0 1
(+1)
2
+2
1
+2
_
_
_
F
1
F
2
F
2
F
3
Por tanto, obtenemos

A
t
|B
t

_
_
_
1 0 0
+1
+2
1
+2
0 1 0
1
+2
1
+2
0 0 1
(+1)
2
+2
1
+2
_
_
_ = (I
3
|X
t
)
y, en consecuencia, la solucin es
X =
1
+ 2

( + 1) 1 ( + 1)
2
1 1 1

Els autors, 2002; Edicions UPC, 2002


Captulo 6
Diagonalizacin de
endomorsmos
6.1. Vectores propios y valores propios. Polinomio
caracterstico
Denicin 70 Sea f End (E). Un vector v E, v 6= 0, es un vector propio
de f si
f (v) = kv, para algn k K.
Diremos, entonces, que k es un valor propio de f.
Observacin 72 Un vector v 6= 0 es vector propio de f de valor propio k si
y slo si f (v) kv = 0, es decir, si y slo si v ker (f kI). Un elemento
k K es un valor propio de f si y slo si ker (f kI) 6= {0}.
Denicin 71 Se llama multiplicidad del valor propio k a la dimensin de
ker (f kI).
Ejemplo 98 Los vectores de ker f diferentes de 0 son vectores propios de valor
propio 0.
Ejemplo 99 Si f = kI (homotecia de razn k), todo v 6= 0 es un vector propio
de f, y k es el nico valor propio de f.
Ejercicio 1 Si todo v E, v 6= 0, es un vector propio de f, f es una homotecia.
Teorema 92 k K es valor propio de f si y slo si det (f kI) = 0.
Demostracin: k es valor propio ker (f kI) 6= {0} det (f kI) =
0
159
Els autors, 2002; Edicions UPC, 2002
160 CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS
Denicin 72 Sea A =

a
j
i

la matriz de f en una cierta base e


1
, . . . , e
n
de
E. Entonces, si k es un valor propio de f,
det (f kI) =

a
1
1
k a
1
2
a
1
n
a
2
1
a
2
2
k a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n
1
a
n
2
a
n
n
k

= 0
Esta expresin es una ecuacin de grado n en la incgnita k, el miembro izquier-
do de la cual es el valor en k de un polinomio p
A
(x), que denominaremos poli-
nomio caracterstico de A.
Teorema 93 Si A y B son las matrices asociadas a f en dos bases distintas,
entonces p
B
(x) = p
A
(x).
Demostracin: Se cumple:
det (B kI) = det (f kI) = det (AkI) k K.
Es decir, p
B
(k) = p
A
(k) para todo k K. Si K tiene ms de n elementos,
resulta que p
B
(x) = p
A
(x).
Si K tiene n elementos o menos, esta demostracin no sirve, pero el resultado
contina siendo cierto. Una manera de demostrarlo es considerar p
A
(x) como
un determinante con elementos en el anillo K[x] :
p
A
(x) = det (AxI) =

a
1
1
x a
1
2
a
1
n
a
2
1
a
2
2
x a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n
1
a
n
2
a
n
n
x

.
La denicin y la mayora de las propiedades de los determinantes de matrices
con elementos en un cuerpo K se pueden generalizar a matrices con elementos en
K[x]. En particular, se cumple que el determinande de un producto de matrices
es el producto de sus determinantes. Entonces, si A y B son matrices del mismo
endomorsmo, B = P
1
AP (donde P es una matriz invertible) y
det (B xI) = det(P
1
AP xI) = det(P
1
(AxI) P) =
= det P
1
det (AxI) det P = det (AxI) .
Observacin 73 El teorema anterior nos permite hablar del polinomio car-
acterstico de f, p
f
(x).
Teorema 94 El polinomio caracterstico de A es
p
A
(x) = (1)
n
x
n
+(1)
n1
(a
1
1
+ +a
n
n
) x
n1
+ +(1)
r
A
r
x
r
+ +det A,
Els autors, 2002; Edicions UPC, 2002
6.2. DIAGONALIZACIN DE ENDOMORFISMOS 161
donde A
r
es la suma de los determinantes de los menores de orden nr forma-
dos por los elementos de A de (n r) las y (n r) columnas correspondientes
a los mismos ndices: a
j
i
, i = i
1
, . . . , i
nr
, j = i
1
, . . . , i
nr
. Es decir, son los
menores de orden n r que tienen la diagonal principal sobre la diagonal prin-
cipal de A.
Demostracin: No efectuaremos el clculo de los A
r
, que es largo y pesado.
Por otra parte, existen maneras ms cmodas de hallarlos que las que podramos
dar con los conocimientos que tenemos ahora. Nos limitaremos a calcular el
coeciente de x
n1
y el trmino independiente.
De la denicin de determinante resulta

a
1
1
k a
1
2
a
1
n
a
2
1
a
2
2
k a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
a
n
1
a
n
2
a
n
n
k

= (a
1
1
k)(a
2
2
k) (a
n
n
k) +S,
donde S es una suma de productos en cada uno de los cuales hay a lo sumo
n 2 elementos de la diagonal. Los trminos de grado n y n 1 en k son, por
tanto,
(1)
n
k
n
+ (1)
n1
(a
1
1
+ +a
n
n
) k
n1
.
El trmino independiente de p
A
(x) es p
A
(0) = det (A0I) = det A.
Corolario 35 Si A y B son dos matrices asociadas al mismo endomorsmo,
es decir, tales que B = P
1
AP con P invertible, entonces
a
1
1
+ +a
n
n
= b
1
1
+ +b
n
n
.
Demostracin: Del teorema anterior y de la invariancia del polinomio carac-
terstico, se deduce que A
r
= B
r
para todo r y, en particular,
a
1
1
+ +a
n
n
= b
1
1
+ +b
n
n
.
Denicin 73 La suma a
1
1
+ + a
n
n
se llama la traza de A, tr A. Dado
que dos matrices equivalentes tienen la misma traza, tiene sentido referirse a la
traza de f, tr f.
6.2. Diagonalizacin de endomorsmos
Sea f End (E). Si conseguimos formar una base de E con vectores propios
de f, la matriz de f tendr una forma muy simple:
_
_
_
_
_
k
1
0 0
0 k
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 k
n
_
_
_
_
_
.
Els autors, 2002; Edicions UPC, 2002
162 CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS
Todos los elementos no situados sobre la diagonal sern 0 y k
1
, k
2
, . . . , k
n
sern los valores propios de los vectores propios de la base.
Denicin 74 Una matriz de la forma
_
_
_
_
_
k
1
0 0
0 k
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 k
n
_
_
_
_
_
.
se llama una matriz diagonal.
Diagonalizar un endomorsmo f quiere decir encontrar una base de
vectores propios de f; diagonalizar una matriz A quiere decir encontrar una
matriz diagonal equivalente a A.
Diremos que un endomorsmo f es diagonalizable si se puede encontrar
una base de vectores propios de f. Una matriz se puede diagonalizar si y slo si
el endomorsmo asociado es diagonalizable.
Observacin 74 En la seccin anterior hemos dado ya una manera de encon-
trar los valores propios y los vectores propios: los valores propios son los ceros
del polinomio caracterstico y ker (f kI) es el conjunto de vectores propios
de valor propio k (ms el 0). Slo queda, pues, ver si hay n vectores propios
linealmente independientes.
Teorema 95 Vectores propios de valores propios diferentes son linealmente in-
dependientes.
Demostracin: Sean v
1
, . . . , v
m
vectores propios de valores propios distintos
k
1
, . . . , k
m
. Procederemos por induccin sobre m. Si m = 1, v
1
6= 0 es lineal-
mente independiente. En general, sea a
1
v
1
+ +a
m
v
m
= 0; entonces
0 = (f k
1
I) (a
1
v
1
+ +a
m
v
m
) = a
2
(k
2
k
1
) v
2
+ +a
m
(k
m
k
1
) v
m
.
Por hiptesis de induccin, v
2
, . . . , v
m
son linealmente independientes, de donde
se deduce que a
j
(k
j
k
1
) = 0, j = 2, . . . , m. Puesto que k
j
6= k
1
si j 6= 1, ser
a
j
= 0 para j = 2, . . . , m.
Entonces a
1
v
1
= 0, de donde tambin a
1
= 0.
Corolario 36 El nmero de valores propios diferentes es n. Si hay exacta-
mente n valores propios diferentes, el endomorsmo es diagonalizable.
Ejemplo 100 Consideremos el endomorsmo f : R
2
R
2
cuya matriz es

3
5
4
5
4
5

3
5

en la base usual (1, 0) , (0, 1). Su polinomio caracterstico es


x
2
1 = (x 1) (x + 1) .
Els autors, 2002; Edicions UPC, 2002
6.2. DIAGONALIZACIN DE ENDOMORFISMOS 163
f tiene, por tanto, dos valores propios: +1 y 1. El subespacio de vectores
propios de valor propio +1 es ker (f I). La matriz de (f I) es


2
5
4
5
4
5

8
5

,
de donde resulta que ker (f I) = {(2y, y)} = h(2, 1)i. Anlogamente se ve que
ker (f +I) = h(1, 2)i es el subespacio de vectores propios de valor propio 1.
Los vectores (2, 1) , (1, 2) forman una base en la que la matriz de f es

1 0
0 1

.
La imagen de un v E se puede encontrar geomtricamente de la manera
siguiente: descompongamos v como suma de un vector v
1
de h(2, 1)i y un vector
v
2
de h(1, 2)i: v = v
1
+ v
2
. Entonces f (v) = v
1
v
2
. Esto es una simetra
de eje h(2, 1)i.
Ejemplo 101 Consideremos ahora f : R
2
R
2
con matriz

1 1
0 1

en la base usual (1, 0) , (0, 1). El polinomio caracterstico es (1 x)


2
y, por tanto,
el nico valor propio es 1. Si f diagonalizase, su matriz diagonal sera

1 0
0 1

,
f sera la identidad y eso no es cierto. De hecho, el subespacio de vectores
propios tiene dimensin 1 : ker (f I) = h(1, 0)i.
Teorema 96 Si r es la multiplicidad del valor propio k, es decir, si r = dimker (f kI),
y s es la multiplicidad del cero k del polinomio caracterstico, entonces r s.
Demostracin: Sea v
1
, . . . , v
r
una base de ker (f kI). Completmosla hasta
obtener una base de E : v
1
, . . . , v
n
. En esta base la matriz de f es de la forma
A =
_
_
_
_
_
_
_
_
_
_
_
_
k 0 0 a
1
r+1
a
1
n
0 k 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 k
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
n
r+1
a
n
n
_
_
_
_
_
_
_
_
_
_
_
_
.
El polinomio caracterstico es, pues, p (x) = (k x)
r
q (x), lo que demuesta el
enunciado.
Els autors, 2002; Edicions UPC, 2002
164 CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS
Supongamos ahora que f es diagonalizable y sea
_
_
_
k
1
0
.
.
.
.
.
.
.
.
.
0 k
n
_
_
_
su matriz diagonal (k
1
, . . . , k
n
no necesariamente distintos). El polinomio
caracterstico es
p (x) = (k
1
x) (k
n
x)
y se descompone, por tanto, en factores lineales. Si un valor propio k
i
aparece
s veces en la diagonal, la multiplicidad del cero k
i
de p (x) es s. Por otro lado,
(f k
i
I) tendr una matriz diagonal con exactamente s ceros en la diagonal,
de donde dimker (f k
i
I) = s. Estos hechos caracterizan los endomorsmos
diagonalizables, como lo demuestra el siguiente teorema.
Teorema 97 (Teorema de diagonalizacin) Un endomorsmo f es diag-
onalizable si y slo si su polinomio caracterstico se descompone en factores
lineales y la multiplicidad de cada uno de sus ceros coincide con su multiplici-
dad como valor propio de f.
Demostracin: ) Supongamos ahora que f es diagonalizable y sea
_
_
_
k
1
0
.
.
.
.
.
.
.
.
.
0 k
n
_
_
_
su matriz diagonal (k
1
, . . . , k
n
no necesariamente distintos). El polinomio car-
acterstico es
p (x) = (k
1
x) (k
n
x)
y se descompone, por tanto, en factores lineales. Si un valor propio k
i
aparece
s veces en la diagonal, la multiplicidad del cero k
i
de p (x) es s. Por otro lado,
(f k
i
I) tendr una matriz diagonal con exactamente s ceros en la diagonal,
de donde dimker (f k
i
I) = s.
) Demostremos ahora las condiciones del enunciado son sucientes para
que f sea diagonalizable. Sea
p (x) = (1)
n
(x k
1
)
n1
(x k
r
)
nr
, n
1
+ +n
r
= n
el polinomio caracterstico de f. Pongamos E
k
i
= ker (f k
i
I). Vamos a ver
que
E = E
k
1
E
k
r
.
Una vez visto esto, podremos obtener una base de vectores propios tomando bases
en E
k
1
, . . . , E
k
r
. En esa base, la matriz de f ser diagonal.
Demostraremos, pues, que la expresin de los vectores de E como suma de
vectores de los subespacios E
ki
es nica. En efecto,
v
1
+ +v
r
= w
1
+ +w
r
Els autors, 2002; Edicions UPC, 2002
6.2. DIAGONALIZACIN DE ENDOMORFISMOS 165
con v
i
, w
i
E
k
i
, i = 1, . . . , r, implica
(v
1
w
1
) + + (v
r
w
r
) = 0.
Los vectores v
i
w
i
son vectores propios de valores propios diferentes, o 0.
Sabemos que son linealmente independientes, por lo que han de ser todos ellos
cero:
v
i
w
i
= 0;
es decir, v
i
= w
i
, i = 1, . . . , r. La suma de los subespacios E
ki
es, pues, directa
y su dimensin es n
1
+ +n
r
= n. Por tanto,
E
k
1
E
k
r
= E.
Denicin 75 Una matriz A =

a
j
i

se llama triangular superior si a


j
i
= 0
para i < j. Diremos que un endomorsmo es triangulable si, en una base
conveniente, su matriz es triangular.
Teorema 98 (Teorema de triangulacin) Un endomorsmo es triangulable
si y slo si su polinomio caracterstico se descompone en factores de primer
grado.
Demostracin: ) Si el endomorsmo f tiene una matriz triangular
_
_
_
_
_
_
_
a
1
1
a
1
2
a
1
3
a
1
n
0 a
2
2
a
2
3
a
2
n
0 0 a
3
3
a
3
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
n
n
_
_
_
_
_
_
_
,
su polinomio caracterstico p (x) = (a
1
1
x)(a
2
2
x) (a
n
n
x) se descompone
en factores lineales.
) Probaremos el recproco por induccin sobre n. Para n = 1, toda matriz
es triangular.
Sea n 2 cualquiera. El polinomio caracterstico tiene como mnimo una
raz; hay pues, como mnimo, un valor propio. Sea v
1
un vector propio, y
v
1
, v
2
, . . . , v
n
una base de E. La matriz de f en esta base es del tipo
_
_
_
_
_
k a
1
2
a
1
n
0 a
2
2
a
2
n
.
.
.
.
.
.
.
.
.
.
.
.
0 a
n
2
a
n
n
_
_
_
_
_
.
Consideremos ahora la aplicacin
g : hv
2
, . . . , v
n
i hv
2
, . . . , v
n
i
Els autors, 2002; Edicions UPC, 2002
166 CAPTULO 6. DIAGONALIZACIN DE ENDOMORFISMOS
de matriz
_
_
_
a
2
2
a
2
n
.
.
.
.
.
.
.
.
.
a
n
2
a
n
n
_
_
_.
Tenemos que det (f xI) = (k x) det (g xI) y, por tanto, el polinomio car-
acterstico de g, det (g xI), se descompone tambin en factores de primer gra-
do. Por hiptesis de induccin existe entonces una base u
2
, . . . , u
n
de hv
2
, . . . , v
n
i
en la cual la matriz de g es triangular:
_
_
_
_
_
b
2
2
b
2
3
b
2
n
0 b
3
3
b
3
n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
n
n
_
_
_
_
_
.
Ahora bien, f (v
i
) = a
1
i
v
1
+g (v
i
), i = 2, . . . , n. Por tanto, si u
j
=
P
n
i=2
c
i
j
v
i
,
entonces
f (u
j
) =
n
X
i=2
c
i
j
f (v
i
) =
n
X
i=2
c
i
j

a
1
i
v
1
+g (v
i
)

n
X
i=2
c
i
j
a
1
i
!
v
1
+g (u
j
) ,
para j = 2, . . . , n. La matriz de f en la base v
1
, u
2
, . . . , u
n
se obtiene, pues,
aadiendo a la matriz de g una primera columna (k, 0, ..., 0) y una primera
la

k, b
1
2
, ..., b
1
n

, donde b
1
j
=
P
n
i=2
c
i
j
a
1
i
, j 2. Es, por tanto, una matriz
triangular.
Corolario 37 Todo endomorsmo de un espacio vectorial sobre los complejos
es triangulable.
Els autors, 2002; Edicions UPC, 2002
Captulo 7
La forma reducida de
Jordan
7.1. Polinomio mnimo
El estudio de los vectores propios nos ha permitido simplicar la matriz
de un endomorsmo en muchos casos. Queda, sin embargo, sin resolver el caso
general. Nuestros pasos se encaminan ahora hacia la obtencin de unos teoremas
de descomposicin de E en suma directa de subespacios que permitan obtener
bases convenientes en las que se pueda expresar el endomorsmo. Observemos
que una descomposicin de ese tipo es la que nos ha permitido demostrar el
teorema de diagonalizacin.
Denicin 76 Consideremos las potencias de f: f
r
, r = 0, 1, 2, . . .
f
0
= I, f
1
= f, . . . , f
r
= f f
r1
, . . .
Si la dimensin de E es n, el espacio vectorial End (E) tiene dimensin n
2
, y las
potencias f
r
no pueden ser todas linealmente independientes. Las combinaciones
lineales
a
0
I +a
1
f + +a
s
f
s
= 0
nos llevan a considerar el ncleo de la aplicacin

f
: K[x] End (E)
p (x) = a
0
+a
1
x + +a
r
x
r
7 p (f) = a
0
I +a
1
f + +a
r
f
r
Se cumplen las siguiente propiedades:

f
(p (x) +q (x)) = p (f) +q (f) =
f
(p (x)) +
f
(q (x)) .

f
(p (x) q (x)) = p (f) q (f) =
f
(p (x))
f
(q (x)) .

f
(kp (x)) = kp (f) = k
f
(p (x)) .
167
Els autors, 2002; Edicions UPC, 2002
168 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN

f
es, pues, un morsmo de lgebras. De la conmutatividad del producto de
K[x] se deduce que dos endomorsmos de la imagen siempre conmutan:
p (f) q (f) = q (f) p (f) .
El ncleo de
f
es un ideal K[x] y, por tanto,
Nuc
f
= {p (x) K[x] | p (f) = 0} = (m
f
(x)) .
Los polinomios de Nuc
f
se llaman polinomios anuladores de f; m
f
(x)
se llama el polinomio minmo de f y est determinado salvo factores de K.
En general se toma m
f
(x) mnico, es decir, con el coeciente de grado mximo
igual a 1.
Ejemplo 102 Si E = {0} y f es el nico endomorsmo de {0}, entonces
Nuc
f
= K[x] = (a
0
), a
0
6= 0. Recprocamente, si el polinomio mnimo
de f es a
0
K, a
0
6= 0, entonces Nuc
f
= (a
0
) = K[x] y, en particular,
0 =
f
(1) = I
E
. Esto implica que E = {0} .
Ejemplo 103 Si E 6= {0} y f = 0, Nuc
f
= (x) .
Ejemplo 104 Si E 6= {0} y f = I, x 1 Nuc
f
y m
f
(x) | (x 1). Pero
puesto que m
f
(x) no es constante, m
f
(x) = x 1.
Ejemplo 105 Si E 6= {0}, f = kI si y slo si m
f
(x) = x k.
Denicin 77 Fijado un vector u E, consideremos ahora la aplicacin

u
: K[x] E
p (x) 7 p (f) (u) .
El ncleo de
u
es un ideal de K[x] :
Nuc
u
= {p (x) K[x] | p (f) (u) = 0} = (m
u
(x)) .
m
u
(x) se llama el polinomio mnimo de f en u o simplemente el polinomio
mnimo de u (si no hay confusin respecto a qu f nos referimos); est deter-
minado salvo factores de K y generalmente se toma mnico.
Teorema 99 Sea
m
u
(x) = a
0
+a
1
x + +a
s
x
s
el polinomio mnimo de u. Entonces u, f (u) , . . . , f
s1
(u) son linealmente inde-
pendientes y u, f (u) , . . . , f
s1
(u), f
t
(u) (t s) son linealmente dependientes.
Demostracin: Si u, f (u) , . . . , f
s1
(u) fuesen linealmente dependientes, habra
un polinomio p (x) de grado < s tal que p (f) (u) = 0. Esto contradice la deni-
cin de m
u
(x).
Si t = s, m
u
(f) (u) = a
0
u +a
1
f (u) + +a
s
f
s
(u) = 0 nos dice que estos
vectores son linealmente dependientes. Para t > s, procederemos por induccin.
As, pues,
f
t1
(u)

u, f (u) , . . . , f
s1
(u)

,
Els autors, 2002; Edicions UPC, 2002
7.2. SUBESPACIOS INVARIANTES 169
de donde
f
t
(u)

f (u) , f
2
(u) , . . . , f
s
(u)

u, f (u) , . . . , f
s1
(u)

y u, f (u) , . . . , f
s1
(u), f
t
(u) son linealmente dependientes.
7.2. Subespacios invariantes
Denicin 78 Sea f End (E). Un subespacio F de E se llama invariante
por f si f (F) F. En ese caso, f induce un endomorsmo de F
b
f = f
|F
: F F
v 7 f (v)
al que llamaremos restriccin de f a F.
Teorema 100 m
b
f
(x) divide a m
f
(x) .
Demostracin: m
f
(f) = 0 m
f
(f) (u) = 0 u E m
f
(
b
f) (v) =
m
f
(f) (v) = 0 v F m
f
(x)

m
b
f
(x)

m
b
f
(x) divide a m
f
(x) .
Corolario 38 Si dos subespacios F y G de E, invariantes por f, tienen poli-
nomios mnimos primos entre s, entonces F G = {0}.
Demostracin: Claramente, F G es tambin invariante y, por el teorema
anterior, su polinomio mnimo es 1. En este caso, el espacio debe ser {0}.
Teorema 101 Para todo polinomio p (x) K[x] , Nuc p (f) e Imp (f) son sube-
spacios invariantes por f.
Demostracin: Si u Nuc p (f) , p (f) (f (u)) = f (p (f) (u)) = f(0) = 0, de
donde f (u) Nuc p (f).
Si u = p (f) (v) Imp (f), f (u) = f (p (f) (v)) = p (f) (f (v)), de donde
f (u) Imp (f) .
Teorema 102 (primer teorema de descomposicin) Si el polinomio mn-
imo de f End (E) es
m
f
(x) = m
1
(x)
n1
m
r
(x)
nr
,
donde m
1
(x) , . . . , m
r
(x) son factores irreducibles, el espacio E es suma directa
de subespacios invariantes
E = E
1
E
r
,
de forma que el polinomio mnimo de la restriccin de f a E
i
es m
i
(x)
n
i
.
Esta descomposicin es nica:
E
i
= Nuc (m
i
(f)
n
i
) , i = 1, . . . , r.
Els autors, 2002; Edicions UPC, 2002
170 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
Demostracin: Supongamos que el polinomio mnimo de f, m
f
(x), se descom-
pone en producto de dos factores primos entre s:
m
f
(x) = p (x) q (x) .
Consideremos los subespacios invariantes Nuc p (f) y Nuc q (f). Los polinomios
p (x) y q (x) son anuladores de la restriccin de f a estos subespacios. Por tanto,
Nuc p (f) Nuc q (f) = {0}.
Ahora bien, es fcil ver que Nuc p (f) Imq (f) y que Nuc q (f) Imp (f) .
Comprobemos la primera inclusin: si u = q (f) (v) Imq (f), entonces p (f) (u) =
p (f) q (f) (v) = m
f
(f) (v) = 0 y, por tanto, u Nuc p (f). Estas inclusiones
indican que
n = dimNuc p (f) + dimImp (f)
dimNuc p (f) + dimNuc q (f) =
= dim(Nuc p (f) Nuc q (f)) n.
Las dos inclusiones son, pues, igualdades y
E = Nuc p (f) Nuc q (f) .
Cules son los polinomios mnimos de la restriccin de f a esos dos subespacios
invariantes en que se descompone E? Ya hemos dicho antes que tienen que ser
divisores de p (x) y de q (x) (estos polinomios son anuladores): sean p (x) y
q (x) . Pero, entonces, p (x)q (x) es un anulador de f: si u E, u = u
1
+ u
2
con u
1
Nuc p (f) , u
2
Nuc q (f) y, entonces,
p (f) q (f) (u) = q (f) p (f) (u
1
) +p (f) q (f) (u
2
) = 0 +0 = 0.
Por tanto, por un lado p (x)q (x) (m
f
(x)) y por el otro divide a m
f
(x) =
p (x) q (x). Debe cumplirse, pues p (x)q (x) = m
f
(x); es decir, p (x) = p (x)
y q (x) = q (x) son los polinomios mnimos buscados. Naturalmente, si ahora
p (x) (o q (x)) se descompone en factores primos, podemos descomponer Nuc p (f)
(o Nuc q (f) ) en suma de subespacios invariantes y proceder as tantas veces co-
mo podamos.
Lo nico que falta por demostrar es la unicidad de la descomposicin. Supong-
amos, pues, que tenemos dada una descomposicin en subespacios invariantes
E = E
1
E
r
,
de la cual solamente sabemos que el polinomio mnimo de la restriccin de f
a E
i
es m
i
(x)
ni
, para i = 1, . . . , r. Esta ltima condicin implica que E
i

Nuc (m
i
(f)
n
i
) , de donde
n = dimE
1
+ + dimE
r

dimNuc (m
1
(f)
n
1
) + + dimNuc (m
r
(f)
n
r
) = n.
Els autors, 2002; Edicions UPC, 2002
7.2. SUBESPACIOS INVARIANTES 171
La desigualdad tiene que ser, pues, una igualdad y todas las inclusiones anteri-
ores tienen que ser igualdades:
E
i
= Nuc (m
i
(f)
ni
) , i = 1, . . . , r.
Observacin 75 La descomposicin de E en suma directa de subespacios in-
variantes reduce el estudio del comportamiento de f al estudio de sus restric-
ciones a cada uno de los subespacios. Si escribimos la matriz de f en una base
de E formada por bases de cada uno de los subespacios, obtenemos
_
_
_
_
_
A
1
A
2
0
.
.
.
0 A
r
_
_
_
_
_
.
La matriz A esta formada por matrices A
1
, . . . , A
r
con la diagonal sobre la de A,
y 0 en el resto de posiciones. El estudio de A se reduce, pues, al de las matrices
A
i
, que son precisamente las matrices de las restricciones de f a cada uno de
los subespacios en que se descompone E.
Aplicaremos ahora el primer teorema de descomposicin a varios ejemplos
concretos.
Ejemplo 106 Consideremos el endomorsmo f : R
2
R
2
cuya matriz es
A =

3
5
4
5
4
5

3
5

En la base (1, 0) , (0, 1). El estudio de las combinaciones lineales entre sus po-
tencias A
n
resulta aqu trivial. Tenemos A
2
= I y, por tanto, x
2
1 es un
polinomio anulador.
Si m
f
(x) = x 1, m
f
(f) = f I = 0, de donde f = I. Si m
f
(x) =
x + 1, m
f
(f) = f + I = 0, de donde f = I. Ninguno de los dos casos es el
nuestro; por tanto,
m
f
(x) = (x 1) (x + 1) y E = E
1
E
2
,
donde E
1
= Nuc (f I) = h(2, 1)i , E
2
= Nuc (f +I) = h(1, 2)i . La restric-
cin de f a E
1
es I
E
1; la restriccin a E
2
es I
E
2. Es decir, E
1
y E
2
son
precisamente los subespacios de los vectores propios de valores propios 1 y 1.
En la base (2, 1) , (1, 2) la matriz resulta ser

1 0
0 1

.
Els autors, 2002; Edicions UPC, 2002
172 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
Ejemplo 107 Como generalizacin del ejemplo anterior, consideremos un en-
domorsmo f tal que f
2
= I (se llama una involucin). m
f
(x) divide a
x
2
1 = (x 1) (x + 1) y, como en el ejemplo 1,
si m
f
(x) = x 1, f = I;
si m
f
(x) = x + 1, f = I;
si m
f
(x) = (x 1) (x + 1) , E = E
1
E
2
.
El polinomio mnimo de la restriccin de f a E
1
es x1 y, por tanto, sobre
E
1
, f es I
E
1. Anlogamente, sobre E
2
, f es I
E
2. Si e
1
, . . . , e
r
es una base de
E
1
y e
r+1
, . . . , e
n
una base de E
2
, la matriz de E en la base que resulta de la
unin de esas dos es
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0
1
1
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
Observemos que aqu tambin E
1
, E
2
son los subespacios de vectores propios de
valores propios 1, 1 y que la matriz obtenida es una matriz diagonal.
Ejemplo 108 Modiquemos el ejemplo anterior estudiando endomorsmos f
tales que f
2
= I. El polinomio mnimo es ahora divisor de x
2
+1. Si el cuerpo
sobre el que trabajamos es el complejo C, x
2
+ 1 = (x i) (x +i), y obtenemos
una situacin muy similar a la del ejemplo 2. El polinomio m
f
(x) puede ser
m
f
(x) = x i, de donde f = iI;
m
f
(x) = x +i, de donde f = iI;
m
f
(x) = (x i) (x +i) , de donde E = E
1
E
2
. La restriccin de f a
E
1
es iI
E
1; la de f a E
2
es iI
E
2.
Tomando bases de E
1
y E
2
obtenemos una base de E en la cual f tiene una
matriz diagonal:
_
_
_
_
_
_
_
_
_
_
i
.
.
.
0
i
i
0
.
.
.
i
_
_
_
_
_
_
_
_
_
_
.
Si el cuerpo sobre el que trabajamos es el real R, x
2
+1 es irreducible: m
f
(x) =
x
2
+ 1 y el primer teorema de descomposicin no da ninguna descomposicin
propia. Podra ser, no obstante, que consiguiramos simplicar la matriz de f
tomando vectores propios para formar una base, pero tampoco es posible. Por
qu? Si k fuese un valor propio, el subespacio de vectores propios Nuc (f kI) 6=
{0} sera invariante y con polinomio mnimo x k. Esto implicara que x k
dividira a m
f
(x), lo cual no es cierto para ningn k. Este razonamiento que
acabamos de hacer es general y nos da:
Els autors, 2002; Edicions UPC, 2002
7.2. SUBESPACIOS INVARIANTES 173
Teorema 103 Si k es un valor propio de f, entonces (x k) | m
f
(x) .
Demostracin: Si k es un valor propio, el subespacio de vectores propios
Nuc (f kI) 6= {0} es invariante y con polinomio mnimo x k. Esto im-
plica que x k divide a m
f
(x).
Ejemplo 109 Sea f End (E) tal que f
3
= I. El polinomio x
3
1 es un
anulador y m
f
(x) | x
3
1. Si el cuerpo es C,
x
3
1 = (x 1)

x +
1 +i

3
2
!
x +
1 i

3
2
!
.
Un estudio parecido al de los ejemplos anteriores nos da, para todos los posibles
m
f
(x), bases de E en las que la matriz de f es diagonal y los valores propios
son
(
1,
1 +i

3
2
,
1 i

3
2
)
o un subconjunto de ste.
Si el cuerpo es R, x
3
1 = (x 1) (x
2
+x + 1) y, por tanto, E = E
1
E
2
.
El polinomio mnimo de f sobre E
1
es x1 y, por tanto, f sobre E
1
es I
E
1. El
polinomio mnimo de f sobre E
2
es x
2
+x + 1, irreducible. Sea e
1
, . . . , e
r
una
base de E
1
, y e
r+1
, . . . , e
n
una base de E
2
. La matriz de f en la base e
1
, . . . , e
n
es de la forma
_
_
_
_
_
1 0
.
.
.
1
0 A
2
_
_
_
_
_
.
Al igual que en el ejemplo anterior, ningn valor propio permite simplicar A
2
.
Ejemplo 110 Sea f : R
2
R
2
con matriz
A =

1 1
0 1

en la base (1, 0) , (0, 1). Es fcil ver que m


f
(x) = (x 1)
2
. El primer teorema de
descomposicin no permite descomponer E en suma de subespacios invariantes.
Hay, sin embargo, un subespacio invariante: el subespacio de vectores propios
de valor propio 1, h(1, 0)i . Si f tuviese una matriz diagonal, tendra que ser

1 0
0 1

,
ya que 1 es el nico valor propio de f. Pero f 6= I y no puede tener nunca la
matriz identidad.
Els autors, 2002; Edicions UPC, 2002
174 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
Ejemplo 111 Sea f End (E) con matriz
A =
_
_
1 0 0
0 1 1
0 1 1
_
_
en la base e
1
, e
2
, e
3
. Al calcular las potencias A
n
se ve en seguida que f
3
= f
2
y, por tanto, x
3
x
2
es un polinomio anulador. As pues, m
f
(x) | x
3
x
2
=
x
2
(x 1) .
Si m
f
(x) = x 1, f = I, lo cual es falso.
Si m
f
(x) = x, m
f
(f) = f = 0, lo cual es falso.
Si m
f
(x) = x
2
, f
2
= 0, lo cual es falso.
Si m
f
(x) = (x 1) x, f
2
= f, lo cual es falso.
As pues, m
f
(x) = (x 1) x
2
y E = E
1
E
2
. Sobre E
1
, f es I
E
1. Sobre
E
2
, f tiene polinomio mnimo x
2
. El clculo de E
1
y E
2
nos da
E
1
= Nuc (f I) = he
1
i , E
2
= Nucf
2
= he
2
, e
3
i .
En la base e
1
, e
2
, e
3
, la matriz de f es la matriz de A dada. Y los valores propios,
cules son? Pues son 1 y 0; los subespacios de vectores propios respectivos son
he
1
i y he
2
+e
3
i . Si completamos estos dos vectores hasta obtener una base de
E : e
1
, e
2
+e
3
, e
3
, obtenemos la matriz de f
_
_
1 0 0
0 0 1
0 0 0
_
_
,
que es triangular.
Todos los ejemplos estudiados nos llevan de manera natural a la siguiente
conclusin.
Teorema 104 (Teorema de diagonalizacin) Un endomorsmo es diago-
nalizable si y slo si su polinomio mnimo se descompone en factores lineales no
repetidos.
Demostracin: ) Supongamos que m
f
(x) = (x a
1
) (x a
r
), donde
a
i
6= a
j
si i 6= j. Por el primer teorema de descomposicin, E = E
1

E
r
,donde
E
i
= Nuc (f a
i
I)
es el subespacio de vectores propios de valor propio a
i
. Existe, pues, una base
de vectores propios de E constituida por bases de cada uno de los subespacios
E
1
, . . . , E
r
.
) Recprocamente, supongamos ahora que E tiene una base formada por
vectores propios:
e
1
1
, . . . , e
1
n
1
, e
2
1
, . . . , e
2
n
2
, . . . , e
r
1
, . . . , e
r
n
r
.
Els autors, 2002; Edicions UPC, 2002
7.3. EL TEOREMA DE CAYLEY-HAMILTON 175
Supongamos tambin que a
i
es el valor propio de e
i
1
, . . . , e
i
ni
. Entonces, si ponemos
E
i
=

e
i
1
, . . . , e
i
ni

, tenemos
E = E
1
E
r
y el polinomio mnimo de E
i
es (x a
i
). Esto implica que
(x a
1
) (x a
r
) | m
f
(x) .
Ahora bien, (x a
1
) (x a
r
) es un anulador, ya que si u = u
1
+ + u
r
con u
i
E
i
, i = 1, . . . , r, se tiene
(f a
1
I) (f a
r
I) (u) =
= (f a
2
I) (f a
r
I) (f a
1
I) (u
1
) +
+(f a
1
I) (f a
3
I) (f a
r
I) (f a
2
I) (u
2
) +
+ + (f a
1
I) (f a
r
I) (u
r
) =
= 0 +0 + +0 = 0,
de donde m
f
(x) = (x a
1
) (x a
r
) .
Por denicin el polinomio mnimo tiene grado n
2
= dimEnd (E) . Esta
cota es, sin embargo, muy grande cuando se trata de encontrar el polinomio
mnimo de un endomorsmo.
Teorema 105 El grado del polinomio mnimo m
f
(x) es menor o igual que la
dimensin del espacio E.
Demostracin: Sea m
f
(x) = m
1
(x)
n
1
m
r
(x)
n
r
y E = E
1
E
r
la
descomposicin dada por el primer teorema de descomposicin. Es suciente
ver que gr m
i
(x)
n
i
dimE
i
para i = 1, . . . , r.
Dado que m
i
(x)
ni
es el polinomio mnimo de la restriccin de f a E
i
,
hay un v
i
E
i
tal que m
i
(f)
n
i
(v
i
) = 0 pero m
i
(f)
n
i
1
(v
i
) 6= 0. Entonces
el polinomio mnimo de v
i
es m
i
(x)
n
i
y, por tanto, tendremos que los vec-
tores v
i
, f (v
i
) , . . . , f
k
i
1
(v
i
) son linealmente independientes, donde k
i
= gr
m
i
(x)
n
i
. Por tanto, k
i
dimE
i
.
7.3. El teorema de Cayley-Hamilton
Teorema 106 a es un cero de m
f
(x) si y slo si es un cero de p
f
(x) .
Demostracin: Hemos visto anteriormente que los ceros del polinomio carac-
terstico, p
f
(x), son tambin ceros del polinomio mnimo, m
f
(x) .
Demostremos ahora el recproco.Si a es un cero de m
f
(x) , entonces
m
f
(x) = (x a) m
1
(x) .
Existe un u E tal que m
1
(f) (u) 6= 0 (en caso contrario, el polinomio mnimo
sera m
1
(x)). Entonces el vector w = m
1
(f) (u) tiene valor propio a:
(f aI) w = (f aI) m
1
(f) (u) = m
f
(f) (u) = 0.
Por tanto, a es un cero de p
f
(x) .
Els autors, 2002; Edicions UPC, 2002
176 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
Teorema 107 Si el polinomio mnimo m
f
(x) y el polinomio caracterstico
p
f
(x) se descomponen en factores lineales, entonces p
f
(x) es un anulador de
f; esto es, p
f
(f) = 0.
Demostracin: Sea m
f
(x) = (x a
1
)
n1
(x a
r
)
nr
y sea E = E
1
E
r
la descomposicin dada por el primer teorema de descomposicin. La matriz de
f en una base formada por bases de los subespacios E
i
es de la forma
A =
_
_
_
_
_
A
1
0
A
2
.
.
.
0 A
r
_
_
_
_
_
.
Ahora bien, si p
i
(x) es el polinomio caracterstico de A
i
(es decir, de la restric-
cin de f a E
i
),
p
f
(x) = p
1
(x) p
2
(x) p
r
(x) .
Cada p
i
(x) se descompone en factores lineales y sus ceros son ceros del poli-
nomio mnimo de E
i
, que es (x a
i
)
n
i
. Por tanto, p
i
(x) = (x a
i
)
m
i
con
m
i
= dimE
i
. Sabemos que el grado del polinomio mnimo cumple n
i
m
i
, de
donde resulta que
m
f
(x) | p
f
(x) ,
y p
f
(x) es un anulador.
Teorema 108 (Teorema de Cayley-Hamilton) El polinomio mnimo divide
siempre al polinomio caracterstico.
Demostracin: Si A es una matriz nn sobre un cuerpo K, podemos referirnos
al polinomio caracterstico de A, p
A
(x), y al polinomio mnimo de A, m
A
(x),
tal como hemos hecho en el caso de endomorsmos. As, pues, m
A
(x) ser
un polinomio de grado mnimo del ideal {p (x) K[x] | p (A) = 0}, donde, si
p (x) = a
0
+a
1
x + +a
n
x
n
, ponemos
p (A) = a
0
I +a
1
A+ +a
n
A
n
.
Si p
A
(x) y m
A
(x) se descomponen en factores lineales, el teorema anterior
asegura que
p
A
(A) = 0.
Sea ahora A una matriz real. A es tambin una matriz compleja y su polinomio
caracterstico es el mismo: p
A
(x) = det (AxI). Entonces, en C,
p
A
(A) = 0
y, naturalmente, esta igualdad vale tambien en R. Este razonamiento hecho para
R y C sirve para dos cuerpos cualesquiera K K tales que todo polinomio de
K se descomponga en factores lineales. Si un polinomio no tiene ceros en K
podemos construir un cuerpo K
1
K donde este polinomio tenga un cero. Se
puede demostrar que la reiteracin de este proceso conduce a un cuerpo K K
en el cual todo polinomio se descompone en factores lineales. Este cuerpo K se
llama la clausura algebraica de K.
Els autors, 2002; Edicions UPC, 2002
7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO 177
Observacin 76 El teorema de Cayley-Hamilton proporciona un mtodo prc-
tico para calcular el polinomio mnimo de un endomorsmo f dado: sea A la
matriz de f en una base cualquiera. Debemos calcular el polinomio caracters-
tico p
A
(x), descomponerlo en factores irreducibles y buscar el menor de sus
divisores q (x) tales que q (f) = 0 (tal como se ha hecho en los ejemplos de la
seccin Subespacios invariantes). ste ser m
f
(x) .
7.4. Matriz reducida (general) de un endomor-
smo
El primer teorema de descomposicin en subespacios invariantes permite re-
ducir el estudio de un endomorsmo f al estudio de sus restricciones a ciertos
subespacios invariantes E
i
. En casos muy particulares, los espacios E
i
son sube-
spacios de vectores propios y podemos obtener una matriz de f diagonal. Vamos
a estudiar ahora las restricciones de f a los subespacios E
i
en el caso general.
Concretamente, vamos a descomponer cada subespacio E
i
en suma de subespa-
cios invariantes sobre los cuales la actuacin de f es muy clara: los subespacios
f-cclicos.
Denicin 79 Un subespacio F de E es fcclico si existe un vector u E
tal que F =

u, f (u) , f
2
(u) , . . .

.
Observacin 77 Si F es fcclico, entonces es invariante por f y su dimen-
sin es el grado del polinomio mnimo de f en u. Si este polinomio es
a
0
+a
1
x + +a
s1
x
s1
+x
s
,
entonces

u, f (u) , . . . , f
s1
(u)

es una base de F y, en esta base, la matriz de


la restriccin de f es
_
_
_
_
_
_
_
0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
s1
_
_
_
_
_
_
_
.
Teorema 109 (segundo teorema de descomposicin) Si f End (E), E
es suma directa de subespacios fcclicos.
Demostracin: Por el primer teorema de descomposicin, solamente hace falta
considerar el caso en que el polinomio mnimo de f es una potencia de un
polinomio primo: m
f
(x) = q (x)
s
, q (x) primo.
Usaremos induccin sobre la dimensin de E. Si dimE = 1, E ya es fcclico.
Supongamos cierto el teorema para todos los espacios de dimensin menor o
igual que n 1.
Els autors, 2002; Edicions UPC, 2002
178 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
Sea dimE = n. En la demostracin de que gr m
f
(x) n probamos que
existe un u
0
E tal que el polinomio mnimo de f en u
0
es el mismo m
f
(x).
Sea
F
0
=

u
0
, f (u
0
) , f
2
(u
0
) , . . .

y E = E/F
0
.
f induce un endomorsmo f de E
f : E E
[v] 7 [f (v)] ,
bien denido, ya que la imagen por f de todos los representantes de [v] est en
[f (v)] :
f ([v]) = f (v +F
0
) = f (v) +f (F
0
) f (v) +F
0
= [f (v)] .
Ahora bien, dimE < n = dimE y, por hiptesis de induccin,
E = F
1
F
r
con F
i
fcclico, i = 1, . . . , r. Sea F
i
=

[u
i
] , f [u
i
] , . . .

. Usaremos el sigu-
iente lema:
Lema 2 Existe un representante u
i
de [u
i
] tal que, si denotamos por F
i
el
subespacio hu
i
, f (u
i
) , . . .i ,la proyeccin

i
: F
i
F
i
v 7 [v]
es un isomorsmo.
Supongamos demostrado, de momento, este lema. Entonces
E = F
0
F
1
F
r
.
Comprobmoslo: si v E, [v] = [v
1
]+ +[v
r
] con [v
i
] F
i
. El lema nos asegura
entonces que podemos suponer que v
i
F
i
. As pues, E = F
0
+F
1
+ +F
r
. Para
ver que la suma es directa, supongamos que v E se expresa de dos maneras
como suma de vectores de F
0
, . . . , F
r
:
v = v
0
+v
1
+ +v
r
= w
0
+w
1
+ +w
r
, v
i
, w
i
F
i
, i = 0, 1, . . . , r
[v] = [v
1
] + + [v
r
] = [w
1
] + + [w
r
]
en E = F
1
F
r
[v
i
] = [w
i
] , i = 1, . . . , r. Pero, por el lema,
v
i
= w
i
, i = 1, . . . , r;
de donde tambin se deduce
v
0
= w
0
.
Slo queda demostrar el lema. Hagamos antes dos observaciones generales:
Els autors, 2002; Edicions UPC, 2002
7.4. MATRIZ REDUCIDA (GENERAL) DE UN ENDOMORFISMO 179
Si m(x) y m(x) son los polinomios mnimos de f y fen v y en [v] re-
spectivamente, entonces m(x) | m(x), ya que
m(f) ([v]) = [m(f) (v)] = [0].
El polinomio mnimo de f en v divide al polinomio mnimo de f. Esto
implica, en nuestro caso, que aquel polinomio es una potencia de q (x) con
exponente s.
Demostracin del lema: Sean q (x)
s
y q (x)
s
los polinomios mnimos de
f y f en u
i
y [u
i
], s s s. Entonces
q(f)
s
([u
i
]) = [0] q(f)
s
(u
i
) F
0
q (f)
s
(u
i
) = a (f) (u
0
)
q (f)
ss
a (f) (u
0
) = q (f)
s
(u
i
) = 0
q (x)
s
| q (x)
ss
a (x) (ya que el polinomio mnimo de u
0
es q (x)
s
)
a (x) = q (x)
s
b (x) q (f)
s
(u
i
) = a (f) (u
0
) = q (f)
s
b (f) (u
0
) .
El vector u
i
= u
i
b (f) (u
0
) u
i
+F
0
= [u
i
] tiene un polinomio mnimo que
divide a q (x)
s
, ya que
q (f)
s
(u
i
b (f) (u
0
)) = 0.
Por otra parte, el polinomio mnimo de u
i
ha de ser mltiplo del de [u
i
] = [u
i
],
que es q (x)
s
. As, pues, el polinomio mnimo de u
i
es q (x)
s
, el mismo que el
de [u
i
]. Los vectores u
i
, f (u
i
) , . . . , f
t1
(u
i
), donde t = s gr q (x), forman una
base de F
i
. Las clases
[u
i
] , f ([u
i
]) , . . . , f
t1
([u
i
])
forman una base de F
i
, y por tanto la proyeccin
i
: F
i
F
i
es un isomor-
smo. Esto acaba la demostracin.
Observacin 78 Hasta qu punto es nica la descomposicin obtenida en el
segundo teorema de descomposicin? Supongamos que
E = G
0
G
1
G
m
,
donde los subespacios G
i
son fcclicos y el polinomio mnimo de la restric-
cin de f a G
i
es q
i
(x)
n
i
con q
i
(x) irreducible. Agrupemos los sumandos que
correspondan a potencias del mismo q
i
(x). Por ejemplo, supongamos q
0
(x) =
q
1
(x) = = q
s
(x) y consideremos E
0
= G
0
G
s
. El polinomio mnimo
de la restriccin de f a E
0
es q
0
(x)
t
, donde t = m ax (n
0
, . . . , n
s
) . Agrupando
de esta forma los G
i
, obtenemos una descomposicin de E,
E = E
0
E
1
E
r
,
Els autors, 2002; Edicions UPC, 2002
180 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
que es precisamente la dada por el primer teorema de descomposicin. As pues,
los subespacios E
i
estn unvocamente determinados y las diferentes descom-
posiciones de E en subespacios fcclicos correspondern a las diferentes de-
scomposiciones de los subespacios E
i
.
Consideremos, pues, el caso en que el polinomio mnimo de f End (E) es
q (x)
s
, q (x) primo. La primera observacin que debe hacerse es que no podemos
aspirar a demostrar la unicidad de la descomposicin dada por el segundo teo-
rema de descomposicin. Lo veremos con un ejemplo.
Ejemplo 112 Si f = kI
E
, cualquier base u
1
, . . . , u
n
da lugar a una descom-
posicin en subespacios fcclicos:
E = hu
1
i hu
n
i .
Vamos a ver, no obstante, que en todas las posibles descomposiciones de E
en subespacios fcclicos el nmero n
t
de subespacios a los que corresponde
un cierto polinomio mnimo q (x)
t
es el mismo. Recordemos que estamos con-
siderando el caso en que el polinomio mnimo de f es q (x)
s
. Supongamos que
E = F
0
F
r
es una descomposicin de E en suma de subespacios fcclicos F
i
. Sea q (x)
s
i
el polinomio mnimo de la restriccin de f a F
i
(s
i
s) .Tenemos:
a. q (f)
t
(F
i
) F
i
; de donde
q (f)
t
(E) = q (f)
t
(F
0
) q (f)
t
(F
r
)
y, por tanto,
dim(q (f)
t
(E)) =
r
X
i=0
dim(q (f)
t
(F
i
)).
b. Si s
i
> t, el polinomio mnimo de la restriccin de f a q (f)
t
(F
i
) es q (x)
s
i
t
.
Entonces,
dim(q (f)
t
(F
i
)) = (s
i
t) gr q (x) = dimF
i
t gr q (x) .
c. Si s
i
t, q (f)
t
(F
i
) = {0}. Entonces,
dim(q (f)
t
(F
i
)) = 0 = dimF
i
s
i
gr q (x) .
Sustituyendo las expresiones de (b) y (c) en el sumatorio de (a), obtenemos
dim(q (f)
t
(E)) = dimE
r
X
i=0
mn(s
i
, t) gr q (x) .
Observemos ahora que
mn(s
i
, t) mn(s
i
, t 1)) =

0 si s
i
t 1
1 si s
i
t,
Els autors, 2002; Edicions UPC, 2002
7.5. MATRIZ REDUCIDA DE JORDAN 181
de donde
P
r
i=0
(mn(s
i
, t) mn(s
i
, t 1)) = n
t
+n
t+1
+ +n
s
. Denotemos
por q
t
la dimensin de q (f)
t
(E). Tenemos entonces
q
t1
q
t
= (n
t
+n
t+1
+ +n
s
) gr q (x) ,
de donde resulta que
n
t
=
1
gr q (x)
(q
t1
2q
t
+q
t+1
) .
Esta expresin de n
t
no depende de la descomposicin de E considerada.
Observacin 79 Se cumple
{0} Nuc q (f) Nuc q (f)
2
Nuc q (f)
s
= Nuc q (f)
s+1
= = E.
Sea q
t
= dimNuc q (f)
t
= n q
t
y designemos por
p
t
= dim

Nuc q (f)
t
/ Nuc q (f)
t1

= q
t
q
t1
.
Resulta, entonces, que
n
t
=
1
gr q (x)
(p
t
p
t+1
) .
7.5. Matriz reducida de Jordan
Teorema 110 Si el polinomio mnimo de f End (E) se descompone en fac-
tores lineales, existe una base de E en la cual la matriz de f es de la forma
J =
_
_
_
_
_
_
_
J (a
0
, s
0
) 0
J (a
1
, s
1
)
.
.
.
0 J (a
r
, s
r
)
_
_
_
_
_
_
_
.
Demostracin: Supongamos que el polinomio mnimo de f se descompone en
factores lineales. Sea
E = F
0
F
r
la descomposicin dada por el segundo teorema de descomposicin en subespa-
cios fcclicos y (x a
i
)
si
el polinomio mnimo de la restriccin de f a F
i
.
Escojamos para cada F
i
un vector u
i
con polinomio mnimo (x a
i
)
s
i
. En-
tonces,
u
i
, (f a
i
I) (u
i
) , . . . , (f a
i
I)
s
i
1
(u
i
)
Els autors, 2002; Edicions UPC, 2002
182 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
son linealmente independientes. Ahora bien, dimF
i
= s
i
y por tanto estos vec-
tores forman una base. La matriz de la restriccin de f a F
i
en esta base es la
siguiente matriz de s
i
las:
J (a
i
, s
i
) =
_
_
_
_
_
_
_
_
_
_
a
i
0 0 0
1 a
i
0 0
0 1
.
.
. 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
i
0
0 0 1 a
i
_
_
_
_
_
_
_
_
_
_
.
Denicin 80 La matriz J del teorema anterior se llama la matriz reducida
de Jordan de f.
Observacin 80 Observemos que los elementos a
i
que aparecen en la diagonal
de la matriz cannica de Jordan son los valores propios de f (posiblemente
repetidos).
Para obtener una base de E en la cual la matriz de f sea la matriz cannica
de Jordan procederemos de la siguiente forma.
Sean
p (x) = (x
1
)
1
(x
r
)
r
y
m(x) = (x
1
)
s1
(x
r
)
sr
los polinomios caracterstico y mnimo de f. Recordemos que
1
+ +
r
=
n = dimE y s
i

i
i. Los enteros s
i
estn caracterizados por el hecho de
satisfacer
{0} Nuc (f
i
I) Nuc (f
i
I)
2

Nuc (f
i
I)
si1
( Nuc (f
i
I)
si
y
Nuc (f
i
)
s
i
= Nuc (f
i
)
t
= E
i
, t s
i
.
Adems,
E = E
1
E
r
.
La base que buscamos es unin de bases convenientes de los subespacios
invariantes E
i
. Restringindonos a estos espacios, podemos suponer que el poli-
nomio caracterstico de f End (E) es (x )
n
y el polinomio mnimo (x )
s
, s
n. Para cualquier u E, designaremos (f I) (u) por q (u). Consideremos el
siguiente recuadro de vectores:
Els autors, 2002; Edicions UPC, 2002
7.5. MATRIZ REDUCIDA DE JORDAN 183
E = Nuc (f I)
s
u
11
u
1k
1
Nuc (f I)
s1
q(u
11
) q(u
1k
1
) u
21
u
2k
2

Nuc (f I) q
s1
(u
11
) q
s1
(u
1k1
) q
s2
(u
21
) q
s2
(u
2k2
) u
s1
u
sks
u
11
, . . . , u
1k
1
determinan clases que forman una base de Nuc (f I)
s
/ Nuc (f I)
s1
.
Es fcil ver que u
11
, . . . , u
1k1
son linealmente independientes y que q (u
11
) , . . . , q (u
1k1
)
Nuc (f I)
s1
determinan clases linealmente independientes en Nuc (f I)
s1
/ Nuc (f I)
s2
.
Los vectores u
21
, . . . , u
2k
2
son vectores representantes de clases que, juntamente
con las anteriores, forman una base de Nuc (f I)
s1
/ Nuc (f I)
s2
. Repi-
tamos ahora este proceso hasta obtener una base de Nuc (f I) formada por
los vectores situados en la ltima la del recuadro.
Tenemos entonces:
i. El conjunto de todos los vectores que aparecen en el recuadro forman una
base de E.
ii. El nmero de columnas es la multiplicidad del valor propio .
iii. El nmero de las es el exponente del polinomio mnimo.
iv. El nmero de vectores en cada la es
dim (Nuc(f I)
t
/ Nuc (f I)
t1
) = q
t
q
t1
= p
t
.
v. El nmero de matrices J (, t) que aparecen en la matriz cannica de Jordan
de f es n
t
= p
t
p
t+1
, que es la diferencia de vectores en las consecutivas.
vi. Cada columna es la base de un subespacio fcclico de la descomposicin
de E.
Observacin 81 n
S
1 siempre, ya que p
s+1
1. Esto signica que siempre
aparece al menos una matriz J (, s) de la mxima dimensin.
Ejemplo 113 Consideremos un endomorsmo f End (E) con matriz
_
_
_
_
_
_
1 1 1 1 1
1 3 1 1 1
0 0 2 0 0
0 0 0 1 1
0 0 0 1 3
_
_
_
_
_
_
.
Su polinomio caracterstico es (2 x)
5
. El rango de (f 2I) es 2 y, por tanto,
dimNuc (f 2I) = 3. Adems,
(f 2I)
2
= 0
Els autors, 2002; Edicions UPC, 2002
184 CAPTULO 7. LA FORMA REDUCIDA DE JORDAN
y el polinomio mnimo de f es (x 2)
2
. El recuadro considerado anteriormente
tiene, en este caso, dos las y tres elementos en la la inferior:
u
11
u
12
q(u
11
) q(u
12
) u
2
Podemos tomar u
11
= (1, 0, 0, 0, 0) , u
12
= (0, 0, 0, 1, 0). Entonces,
q (u
11
) = (f 2I) (u
11
) = (1, 1, 0, 0, 0)
q (u
12
) = (f 2I) (u
12
) = (1, 1, 0, 1, 1)
son dos vectores propios que, juntamente con u
2
= (0, 1, 1, 0, 0) , forman una
base de vectores propios. En la base
u
11
, q (u
11
) , u
12
, q (u
12
) , u
2
,
la matriz de f es
_
_
_
_
_
_
2 0 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 1 2 0
0 0 0 0 2
_
_
_
_
_
_
.
Observacin 82 El problema de encontrar la matriz cannica de Jordan de
un endomorsmo f dado queda, pues, resuelto, si el polinomio mnimo de f se
descompone en factores lineales:
m(x) = (x
1
)
s1
(x
r
)
sr
.
Solamente nos hace falta conocer para cada valor propio
i
los nmeros n
t
corre-
spondientes (1 t s
1
), los cuales nos indican cuntos subespacios fcclicos
de dimensin t aparecen (submatrices con el valor propio
i
en la diagonal y unos
debajo de ella). En particular, si s
i
= 1, el subespacio invariante correspondi-
ente es un subespacio de vectores propios. El endomorsmo es diagonalizable si
y slo si s
1
= = s
r
= 1.
Els autors, 2002; Edicions UPC, 2002
Captulo 8
Formas bilineales simtricas
y formas cuadrticas
En la unidad de Determinantes se dio la denicin y primeras propiedades
del concepto de nforma lineal sobre un espacio vectorial. Aqu estudiaremos
las formas bilineales y las formas cuadrticas sobre un espacio vectorial E sobre
un cuerpo conmutativo K.
8.1. Denicin y primeras propiedades
Denicin 81 Una forma bilineal sobre E es una aplicacin f : EE K
tal que verica las dos condiciones siguientes:
1. Para todo y E, la aplicacin (parcial) f
y
de E en K denida por
f
y
(x) = f(x, y)
es lineal
2. Para todo x E, la aplicacin (parcial) f
x
de E en K denida por
f
x
(y) = f(x, y)
es lineal
Teorema 111 Dada una base e
1
, ..., e
n
de E, a toda forma bilineal f sobre E
se puede asociar una matriz cuadrada A de M
n
(K) denida por f(e
i
, e
j
) = a
ij
para todo 1 i, j n. Adems, la aplicacin de L(E
2
, K) en M
n
(K) denida
por f 7 A es un isomorsmo de espacios vectoriales. Si X y Y representan
las matrices columna de las coordenadas de los vectores x e y respecto de la base
e
1
, ..., e
n
, entonces se cumple
f(x, y) = X
t
AY = Y
t
A
t
X
185
Els autors, 2002; Edicions UPC, 2002
186CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Demostracin: Sea e
1
, ..., e
n
una base de E y los vectores
x =
n
X
i=1
x
i
e
i
y y =
n
X
j=1
y
j
e
j
Si f es una forma bilineal sobre E, entonces por denicin se cumple
f(x, y) = f(
n
X
i=1
x
i
e
i
,
n
X
j=1
y
j
e
j
)
=
X
i,j
x
i
y
j
f(e
i
, e
j
)
es decir, la forma quedar denida cuando se conozcan las imgenes f(e
i
, e
j
).
Si designamos estas imgenes como a
ij
, entonces tenemos
f(x, y) =
X
i,j
a
ij
x
i
y
j
Esta ecuacin puede escribirse matricialmente como sigue
f(x, y) = X
t
AY
donde
X =
_
_
_
x
1
.
.
.
x
n
_
_
_, A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_, Y =
_
_
_
y
1
.
.
.
y
n
_
_
_
es decir, hemos considerado los vectores x e y como matrices columna que in-
dicamos respectivamente por X y Y . Recprocamente, utilizando la misma no-
tacin anterior, dada una matriz cuadrada A de M
n
(K) y una base e
1
, ..., e
n
de E. La aplicacin f : E E K denida como sigue
f(x, y) = X
t
AY
es una forma bilineal sobre E. Como consecuencia inmediata de lo que acabamos
de ver, la aplicacin de L(E
2
, K) en M
n
(K) denida por f 7 A es una
aplicacin biyectiva; adems se ve enseguida que es un isomorsmo de espacios
vectoriales. Es claro que f(x, y) es una escalar y, por tanto, independiente de
la trasposicin, es decir, se cumple
f(x, y) = Y
t
A
t
X
Esto equivale a caracterizar la forma bilineal por una nueva matriz A
t
.
Denicin 82 Dada una forma bilineal f sobre E. Se llama matriz de la
forma bilineal f referida a la base e
1
, ..., e
n
a la matriz A = (a
ij
) de
M
n
(K) tal que
f(e
i
, e
j
) = a
ij
para todo 1 i, j n.
Els autors, 2002; Edicions UPC, 2002
8.1. DEFINICIN Y PRIMERAS PROPIEDADES 187
Teorema 112 Dos matrices A, A
0
M
n
(K) asociadas a una misma forma
bilineal f sobre E son congruentes.
Demostracin: Recordemos que dos matrices cuadradas A, B M
n
(K) se
llaman congruentes cuando existe una matriz inversible P M
n
(K) tal que
B = P
t
AP
Si P es la matriz de cambio de base en E, sabemos que las nuevas matrices
columna de los vectores x e y de E son X
0
y Y
0
tales que
X = PX
0
y Y = PY
0
De aqu, se deduce que
f(x, y) = X
t
AY
= (PX
0
)
t
A(PY
0
)
= (X
0
)
t
(P
t
AP)Y
0
es decir, la matriz asociada a la forma en la nueva base es, por tanto,
A
0
= P
t
AP
Por consiguiente, si A, A
0
son dos matrices asociadas a f, entonces son congru-
entes.
Ejemplo 114 Una aplicacin bilineal de R
2
en R est denida por: f(e
1
, e
1
) =
1, f(e
1
, e
2
) = 1, f(e
2
, e
1
) = 1 y f(e
2
, e
2
) = 3. Determinar su matriz. Calcular
el valor de f(x, y) siendo x = 2e
1
3e
2
, y = e
1
+2e
2
y comprese con f(y, x).
Determinar la nueva matriz de f en la base u
1
= (1, 1) y u
2
= (1, 1).
Solucin: Sabemos que la matriz A asociada a f en la base e
1
, e
2
viene
dada por
f(e
i
, e
j
) = a
ij
Por tanto,
A =

1 1
1 3

Puesto que x = (2, 3) e y = (1, 2), se tiene


f(x, y) =

2
3

1 1
1 3

1
2

=

2 3

1
7

= 19
Por otra parte, tenemos
f(y, x) =

1
2

1 1
1 3

2
3

=

1 2

1
11

= 21
Els autors, 2002; Edicions UPC, 2002
188CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Por tanto, f(x, y) 6= f(y, x). La matriz de cambio de base es
P =

1 1
1 1

Por tanto, la nueva matriz asociada a f en la nueva base es


A
0
= P
t
AP
=

1 1
1 1

1 1
1 3

1 1
1 1

=

1 1
1 1

2 0
2 4

=

4 4
0 4

Ejemplo 115 Sea la aplicacin f de R


2
en R denida por
f(x, y) = 2x
1
y
1
+x
1
y
2
x
2
y
1
3x
2
y
2
siendo x = (x
1
, x
2
) e y = (y
1
, y
2
) en la base cannica de R
2
. Hallar la nueva
expresin de f cuando se toma la base u
1
= (2, 1) y u
2
= (1, 1).
Solucin: Si e
1
, e
2
es la base cannica de R
2
, entonces se cumple: f(e
1
, e
1
) =
2, f(e
1
, e
2
) = 1, f(e
2
, e
1
) = 1 y f(e
2
, e
2
) = 3. Por tanto, la matriz de f en
la base cannica es
A =

2 1
1 3

La matriz de cambio viene dada por


P =

2 1
1 1

Por tanto, la nueva matriz asociada a f es


A
0
= P
t
AP
=

2 1
1 1

2 1
1 3

2 1
1 1

=

2 1
1 1

5 3
5 4

=

5 2
0 1

De este modo, la nueva expresin de f en la nueva base es


f(x
0
, y
0
) =

x
0
1
x
0
2

5 2
0 1

y
0
1
y
0
2

=

x
0
1
x
0
2

5y
0
1
+ 2y
0
2
y
0
2

= 5x
0
1
y
0
1
+ 2x
0
1
y
0
2
x
0
2
y
0
2
Els autors, 2002; Edicions UPC, 2002
8.1. DEFINICIN Y PRIMERAS PROPIEDADES 189
Denicin 83 Una forma bilineal f sobre E se llama simtrica si
f(x, y) = f(y, x)
para todo (x, y) E E.
Teorema 113 Una forma bilineal f es simtrica si su matriz asociada A es
una matriz simtrica.
Demostracin: Si f es simtrica, entonces
a
ij
= f(e
i
, e
j
)
= f(e
j
, e
i
)
= a
ji
luego A es una matriz simtrica. Si A es simtrica, entonces
f(x, y) = X
t
AY
= X
t
A
t
Y
= Y
t
AX
= f(y, x)
Sea f una forma bilineal sobre un espacio vectorial E sobre K. Para todo
y E, la funcin f
y
denida por
f
y
(x) = f(x, y)
es una forma lineal sobre E. Por consiguiente, f dene una aplicacin de E
en su dual E

por
(y) = f
y
Teorema 114 Sea f una forma bilineal sobre un espacio vectorial E sobre K.
La aplicacin : E E

denida por
(y) = f
y
es lineal.
Demostracin: Cualesquiera que sean x, y, z E se cumple
f
y+z
(x) = f(x, y +z)
= f(x, y) +f(x, z)
= f
y
(x) +f
z
(x)
y, por tanto,
f
y+z
= f
y
+f
z
Els autors, 2002; Edicions UPC, 2002
190CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
o equivalentemente,
(y +z) = (y) +(z)
Por otra parte, se tiene
f
y
(x) = f(x, y)
= f(x, y)
y, por tanto,
f
y
= f
y
o de forma equivalente,
(y) = (y)
cualesquiera que sean K y y E.
Observacin 83 Se denira igualmente f
x
, que es tambin un elemento del
dual E

de E. Designemos por la aplicacin de E en E

denida por
(x) = f
x
Del mismo modo que antes, es lineal.
Teorema 115 Si e
1
, ..., e
n
es una base de E y e

1
, ..., e

n
es una base de E

, dual
de la dada, entonces la matriz asociada a la forma bilineal f respecto a la base
(e
i
) coincide con la matriz asociada a respecto a las bases (e
i
) y (e

i
).
Demostracin: Designamos por A = (a
ij
) la matriz cuadrada de orden n
asociada a la forma bilineal f sobre E. Entonces,
f(e
i
, e
j
) = a
ij
para 1 i, j n. Designamos por B = (b
ij
) la matriz cuadrada de orden n
asociada a la aplicacin en las bases (e
i
) y su dual (e

i
). Entonces,
(e
i
) = f
e
i
=
n
X
k=1
b
ik
e

k
para i = 1, ..., n. De aqu, obtenemos
a
ij
= f(e
i
, e
j
)
= f
e
i
(e
j
)
=

n
X
k=1
b
ik
e

k
!
(e
j
)
=
n
X
k=1
b
ik
e

k
(e
j
)
=
n
X
k=1
b
ik

kj
= b
ij
Por tanto, A = B.
Els autors, 2002; Edicions UPC, 2002
8.1. DEFINICIN Y PRIMERAS PROPIEDADES 191
Corolario 39 Si f es una forma bilineal simtrica sobre E, las dos aplicaciones
lineales y de E en E

, denidas por (y) = f


y
y (x) = f
x
, donde f
x
y f
y
son las aplicaciones parciales asociadas a f, son idnticas.
Demostracin: Es inmediato ya que para todo x E se tiene
[(y)] (x) = f(x, y)
= f(y, x)
= [(y)] (x)
y, por tanto, (y) = (y) para todo y E. Por consiguiente, = .
Denicin 84 Se llama ncleo de una forma bilineal simtrica f el ncleo de
, es decir, est constituido por los elementos y E tales que
(y) = f
y
= 0
o equivalentemente,
f
y
(x) = f(x, y) = 0
para todo x E. Adems, siendo f simtrica, est igualmente constituido por
los elementos x E tales que
(x) = f
x
= 0
o equivalentemente,
f
x
(y) = f(x, y) = 0
para todo y E.
Observacin 84 En general, el subconjunto
A = {(x, y) E E : f(x, y) = 0}
no es un subespacio vectorial de EE y, en consecuencia, el ncleo de f no es
A. Esto se debe a que f es bilineal y no lineal.
Denicin 85 Se dice que la forma bilineal simtrica f es no degenerada si
y slo si es inyectiva, es decir, si y slo si ker f = ker = {0}. Si ker f =
ker 6= {0} se dice que f es degenerada. Si E es de dimensin nita, se llama
rango de f al rango de , es decir, rang f = dimIm.
Teorema 116 Sea f una forma bilineal simtrica sobre un espacio vectorial E
de dimensin n y A = (a
ij
) la matriz asociada a f respecto a una base de E,
entonces las propiedades siguientes son equivalentes:
1. f es no degenerada sobre E
2. f(x, y) = 0 para todo x E, implica que y = 0
3. f(x, y) = 0 para todo y E, implica que x = 0
Els autors, 2002; Edicions UPC, 2002
192CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
4. La aplicacin de E en E

, asociada a f, es un isomorsmo de espacios


vectoriales
5. det A 6= 0
Demostracin: (1) = (2) Puesto que f es no degenarada, se tiene ker f =
{0}. Por tanto, si f(x, y) = 0 para todo x E, entonces y ker f y, en
consecuencia, y = 0.
(2) = (3) Puesto que f es simtrica, la prueba es inmediata.
(3) = (1) Si x ker f, entonces f(x, y) = 0 para todo y E. De aqu,
por (3), implica que x = 0 y, en consecuencia, f es no degenerada.
(1) = (4) Si f es no degenerada, entonces es inyectiva y, en consecuen-
cia, es biyectiva, ya que E es de dimensin nita y dimE = dimE

= n. por
qu? Por tanto, es un isomorsmo ya que sabemos que es una aplicacin
lineal.
(4) =(5) Si es biyectiva, entonces rang f = dimIm = n y, en conse-
cuencia, det A 6= 0.
(5) = (1) Si det A 6= 0, entonces rang f = dimIm = n y, por tanto,
dimker f = 0 y, en consecuencia, f es no degenerada.
Sea E un espacio vectorial sobre un cuerpo K de caracterstica diferente de
2.
Denicin 86 Sea f una forma bilineal sobre E, se llama forma cuadrtica
asociada a f la aplicacin q de E en K denida por
q(x) = f(x, x)
para todo x E.
Observacin 85 Sea e
1
, ..., e
n
una base de E y el vector
x =
n
X
i=1
x
i
e
i
entonces,
q(x) = f(x, x)
= f(
X
i
x
i
e
i
,
X
i
x
i
e
i
)
=
X
i,j
a
ij
x
i
x
j
= X
t
AX
donde f(e
i
, e
j
) = a
ij
, es decir, si consideramos q como una aplicacin de K
n
en K, q se expresa como un polinomio homogneo de segundo grado.
Els autors, 2002; Edicions UPC, 2002
8.1. DEFINICIN Y PRIMERAS PROPIEDADES 193
Teorema 117 El conjunto Q(E) de las formas cuadrticas denidas sobre E es
un espacio vectorial sobre K, provisto de la adicin y de la multiplicacin por
un escalar.
Demostracin: Es una simple comprobacin y se deja al lector.
Teorema 118 Supongamos que K es un cuerpo de caracterstica distinta de
2. La aplicacin que a toda forma bilineal simtrica f sobre E asocia la forma
cuadrtica q denida por
q(x) = f(x, x)
para x E, es biyectiva. Adems, la forma bilineal simtrica f, as asociada a
q, es tal que
f(x, y) =
1
2
[q(x +y) q(x) q(y)]
para todo (x, y) E E.
Demostracin: Es claro que por denicin la aplicacin es exhaustiva. Veamos
a continuacin que tambin es inyectiva. Como f es simtrica, tenemos
q(x +y) = f(x +y, x +y)
= f(x, x) +f(x, y) +f(y, x) +f(y, y)
= q(x) +q(y) + 2f(x, y)
de donde obtenemos
f(x, y) =
1
2
[q(x +y) q(x) q(y)]
Esta frmula muestra tambin que si la misma forma cuadrtica q est asoci-
ada a dos formas bilineales simtricas f y g, entonces f = g y, por tanto, la
aplicacin es inyectiva.
Observacin 86 1. En general, la aplicacin establecida en el teorema no
es inyectiva ya que si h es una forma bilineal alternada no nula, entonces
se tiene
f(x, x) = q(x)
y
(f +h)(x, x) = f(x, x) +h(x, x)
= f(x, x)
= q(x)
Por lo tanto, las dos formas bilineales distintas f y f +h estn asociadas
a la misma forma cuadrtica q.
2. El teorema muestra que el estudio de las formas bilineales simtricas es
equivalente, en cuerpos de caracterstica distinta de 2, al de las formas
cuadrticas.
Els autors, 2002; Edicions UPC, 2002
194CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Denicin 87 Se dice que la forma bilineal simtrica f es la polar de la forma
cuadrtica q cuando
f(x, y) =
1
2
[q(x +y) q(x) q(y)]
para todo x, y E.
Corolario 40 Si q es la forma cuadrtica asociada a la forma bilineal simtrica
f sobre E, las relaciones q = 0 y f = 0 son equivalentes.
Demostracin: Es inmediato a partir de las frmulas q(x) = f(x, x) y
f(x, y) =
1
2
[q(x +y) q(x) q(y)]
para todo x, y E.
Corolario 41 Si q es la forma cuadrtica asociada a la forma bilineal simtri-
ca f, para todo endomorsmo u de E, se tiene q [u(x)] = q(x) si y slo si
f [(u(x), u(y)] = f(x, y) para todo x, y E. En tal caso se dice que u conserva
f o q.
Demostracin: Es inmediato a partir de las frmulas q(x) = f(x, x) y
f(x, y) =
1
2
[q(x +y) q(x) q(y)]
para todo x, y E.
Denicin 88 Si E es de dimensin nita y q es una forma cuadrtica sobre
E. Si f es la polar de q, la matriz A = (a
ij
) asociada a f respecto de una base
de E se llama tambin matriz asociada a la forma cuadrtica q y a su
determinante se le llama discriminante de q. Tenemos entonces que
q(x) =
X
i,j
a
ij
x
i
x
j
=
X
i
a
ii
x
2
i
+ 2
X
i,j
a
ij
x
i
x
j
y se dice a menudo que a
ii
x
2
i
es un trmino cuadrado y 2a
ij
x
i
x
j
es un trmino
cruzado de la forma cuadrtica.
Ejemplo 116 Consideremos la siguiente forma cuadrtica sobre R
2
q(x) = 2x
2
1
3x
1
x
2
+ 4x
2
2
con x = (x
1
, x
2
). Determinar su nueva expresin cuando se toma como base
u
1
= (1, 1) y u
2
= (1, 1). Hallar la forma bilineal simtrica asociada a q.
Solucin: Determinemos primero la matriz de q en la base dada, es decir,
A =

2
3
2

3
2
4

Els autors, 2002; Edicions UPC, 2002


8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 195
La matriz de cambio de base viene dada por
P =

1 1
1 1

Por tanto, la matriz de q en la nueva base es


A
0
= P
t
AP
=

1 1
1 1

2
3
2

3
2
4

1 1
1 1

=

1 1
1 1

1
2

7
2
5
2
11
2

=

3 2
2 9

y, en consecuencia, la nueva expresin de q en la nueva base viene dada as


q(x) = 3x
2
1
+ 4x
1
x
2
+ 9x
2
2
donde x = (x
1
, x
2
) en la nueva base. Si f es la polar de q, entonces las matrices
asociadas a f y q coinciden y, por tanto, tenemos
f(x, y) =

x
1
x
2

3 2
2 9

y
1
y
2

=

x
1
x
2

3y
1
+ 2y
2
2y
1
+ 9y
2

= 3x
1
y
1
+ 2x
1
y
2
+ 2x
2
y
1
+ 9y
1
y
2
que es la expresin de f en la nueva base. Obsrvese que al hacer
q(x) = f(x, x)
= 3x
2
1
+ 4x
1
x
2
+ 9x
2
2
se obtiene el mismo resultado anterior.
8.2. Ortogonalidad. Elementos istropos
Denicin 89 Sea f una forma bilineal simtrica sobre un espacio vectorial
E sobre K. Se dice que x e y son dos vectores ortogonales respecto a f si
f(x, y) = 0. Se dice tambin que dos subconjuntos A y B de E son ortoganales
repecto a f, si cada vector de A es ortogonal a cada uno de los vectores de B
respecto a f. Por la bilinealidad de f, podemos decir entonces que dos subespa-
cios F y G son ortogonales respecto a f si una base de F y una base de G son
ortogonales.
Els autors, 2002; Edicions UPC, 2002
196CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Teorema 119 Si F es un subespacio vectorial de E, entonces el conjunto de
todos los vectores x E que son ortogonales a todo y F respecto a f, es un
subespacio vectorial de E. Este subespacio se llama ortogonal de F respecto a
f y se designa generalmente por F

.
Demostracin: Es inmediata y se deja al lector.
Denicin 90 Se dice que x E es un elemento istropo respecto a f si
f(x, x) = 0. Se dice que un subespacio F de E es isotropo repecto a f si existe
x 6= 0 de F ortogonal a todo F, es decir, cuando F F

6= {0}.
Teorema 120 Si E es un espacio vectorial de dimensin n, para toda forma
bilineal simtrica f sobre E y todo subespacio F de E, las propiedades siguientes
son equivalentes:
1. La restriccin de f a F es no degenerada
2. F F

= {0}
3. F no es isotropo
4. E = F F

Demostracin: (1) (2) Si f


F
es la restriccin de f a F, entonces f
F
es
una forma bilineal simtrica sobre F. Designemos por
0
la aplicacin lineal de
F en F

denida por

0
(x) = (f
F
)
x
Si x ker
0
, entonces tenemos
[
0
(x)] (y) = (f
F
)
x
(y)
= f
F
(x, y)
= f(x, y) = 0
para todo y F, es decir, x F

. De este modo, obtenemos que


ker
0
= F F

Por lo tanto, F F

= {0} es equivalente a
0
inyectivo y, en consecuencia, a
f
F
no degenerada sobre F.
(2) (3) La condicin FF

= {0} es equivalente a armar que el nico


vector de F ortogonal a todo F es el vector cero. Por tanto, F no es istropo.
(1) (4) Para todo x E, consideremos la forma lineal f
x
sobre E.
Podemos considerar su restriccin sobre F que designamos por u, es decir, se
cumple
u(y) = f
x
(y) = f(x, y)
para todo y F. Como f
F
no es degenerada sobre F, esto es equivalente por el
teorema ??? (4) a que para toda forma lineal sobre F, en particular u, exista un
nico x
1
de F tal que u(y) = f(x
1
, y) para todo y F. Por tanto, tenemos
f(x, y) = f(x
1
, y)
Els autors, 2002; Edicions UPC, 2002
8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 197
para todo y F. De aqu, obtenemos
f(x, y) f(x
1
, y) = 0
f(x x
1
, y) = 0
para todo y F. Dicho de otro modo, x
2
= x x
1
es ortogonal a F, luego para
todo x E existen x
1
F y x
2
F

tales que x = x
1
+x
2
y, en consecuencia,
E = F +F

. Ahora bien, como F F

= {0}, se tiene
E = F F

Corolario 42 Si F es un subespacio vectorial no isotropo de un espacio vectorial


E de dimensin nita, entonces
dimF

= dimE dimF
Demostracin: Es evidente a partir del teorema anterior.
Corolario 43 Si f es una forma bilineal simtrica sobre un espacio vectorial
E de dimensin nita, entonces las siguientes propiedades son equivalentes:
1. Para x E, la relacin f(x, x) = 0 implica x = 0; dicho de otro modo, f
no tiene ningn vector istropo no nulo.
2. Se cumple
E = F F

para todo subespacio vectorial F de E.


Demostracin: Es inmediato que para todo subespacio F de E el subespacio
F F

se conpone de vectores istropos. Por tanto, la propiedad (1) implica


F F

= {0}
y, por consiguiente, segn el teorema anterior, implica (2). Recprocamente, si se
cumple (2), en particular se cumplir para cualquier subespacio F de dimensin
uno de E y, en consecuencia, deduciremos (1).
Ejemplo 117 Sea M
2
(R) el espacio vectorial de las matrices cuadradas de
orden dos sobre el cuerpo R y f : M
2
(R) M
2
(R) R la aplicacin denida
por
f(X, Y ) = tr(XY ) trX trY
Se pide:
1. Estudiar si f es una forma bilineal simtrica
2. Hallar el subespacio de las matrices ortogonales a la matriz identidad
Els autors, 2002; Edicions UPC, 2002
198CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
3. Determinar la dimensin de dicho subespacio
Solucin:
1. f es una forma bilineal ya que para todo , R y X, Y, Z M
2
(R) se
tiene
f(X +Y, Z) = tr [(X +Y )Z] tr(X +Y ) trZ
= tr(XZ +Y Z) trX trZ trY trZ
= tr(XZ) +tr(Y Z) trX trZ trY trZ
= (tr(XZ) trX trZ) +(tr(Y Z) trY trZ)
= f(X, Z) +f(Y, Z)
Anlogamente se comprueba que para todo , R y X, Y, Z M
2
(R)
se tiene
f(X, Y +Z) = f(X, Y ) +f(X, Z)
Adems, f es simtrica
f(X, Y ) = tr(XY ) trX trY
= tr(Y X) trY trX
= f(Y, X)
2. Si X es ortogonal a la matriz identidad I, se tiene
0 = f(X, I)
= tr(XI) trX trI
= trX 2 trX
= trX
Luego, trX = 0 y, por tanto, el subespacio de las matrices ortogonales a
I es
F =

a b
c a

: a, b, c R

3. Es claro que dimF = 3, ya que

1 0
0 1

0 1
0 0

0 0
1 0

constituye una base de F.


Ejemplo 118 Consideremos R
4
referido a su base cannica y provisto de la
forma cuadrtica q denida por
q(x) = x
2
1
+x
2
2
+x
2
3
x
2
4
para todo x = (x
1
, x
2
, x
3
, x
4
) R
4
. Se pide:
Els autors, 2002; Edicions UPC, 2002
8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 199
1. Comprobar que el vector x
0
= (1, 0, 0, 1) es istropo respecto a q
2. Dar las coordenadas de todos los vectores istropos en funcin de tres
parmetros reales
3. Hallar el ncleo de q y vericar que x
0
no pertenece a este ncleo
Solucin:
1. Supongamos que f es la forma bilineal simtrica asociada a q. Entonces,
el vector x
0
es istropo ya que
f(x
0
, x
0
) = q(x
0
) = 1 + 0 + 0 1 = 0
2. El vector x = (x
1
, x
2
, x
3
, x
4
) es istropo si y slo si
q(x) = x
2
1
+x
2
2
+x
2
3
x
2
4
= 0
Si hacemos x
1
= , x
2
= y x
3
= , entonces tenemos
x
4
=
q

2
+
2
+
2
Por tanto, los vectores
(, , ,
q

2
+
2
+
2
)
con , , R, son istropos respecto a q.
3. La matriz asociada a q es
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
cuyo rango es 4. Por tanto, el ncleo de q se reduce al vector nulo y, en
consecuencia, x
0
no pertenece a este ncleo.
Ejemplo 119 Sea E un espacio vectorial sobre K, f una forma bilineal simtri-
ca sobre E y x
0
un vector no nulo de E. Demostrar que el subespacio Kx
0
es
istropo si y slo si x
0
es istropo. Se dice entonces que Kx
0
es una recta
istropa que pasa por el origen.
Solucin: Todos los elementos del subespacio en cuestin son de la forma
x
0
con K. Luego, este subespacio ser istropo si existe 6= 0 tal que
f(x
0
, x
0
) = f(x
0
, x
0
) = 0
para todo K. En particular, para = 1, tenemos
f(x
0
, x
0
) = 0
y, por tanto, x
0
es istropo. Recprocamente, si x
0
es istropo entonces es obvio
que el subespacio Kx
0
es istropo.
Els autors, 2002; Edicions UPC, 2002
200CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
8.2.1. Bases ortogonales
Denicin 91 Sea E un espacio vectorial de dimensin n sobre K y f una
forma bilineal simtrica sobre E. Se llama base ortogonal de E respecto a f a
toda base (e
1
, ..., e
n
) de E tal que se cumpla
f(e
i
, e
j
) = 0
para i 6= j. Esto signica que la matriz de f respecto a esta base es diagonal, o
tambin que la expresin de f respecto a dicha base es de la forma
f(x, y) =
n
X
i=1
a
i
x
i
y
i
con f(e
i
, e
i
) = a
i
(i = 1, ..., n).
Lema 3 Sea f una forma bilineal simtrica sobre un espacio vectorial E sobre
un cuerpo conmutativo de caracterstica distinta de 2. Si f no es nula, existen
en E vectores no istropos respecto a f.
Demostracin: Dicho de otro modo, si f 6= 0 y f(x, x) = 0 para todo x E,
entonces K es de caracterstica 2. En efecto, supongamos f(x, x) = 0 para todo
x E, entonces
f(x +y, x +y) = f(x, x) + 2f(x, y) +f(y, y)
= 2f(x, y)
y se tiene
2f(x, y) = 0
cualesquiera que sean x, y E. Sustituyendo x por x, con K, se tiene
2f(x, y) = 0
para todo K. Si f 6= 0, podemos elegir x e y de manera que f(x, y) = 6= 0;
tomando =
1
, resulta
2 = 0
y esto demuestra que K es de caracterstica 2.
Teorema 121 (Existencia de bases ortogonales) Sea f una forma bilineal
simtrica sobre un espacio vectorial E de dimensin nita sobre K. Si K es de
caracterstica distinta de 2, existe una base ortogonal de E respecto a f.
Demostracin: El teorema es trivial si f = 0, de manera que supondremos
f 6= 0. Como no hay nada que demostrar si E es de dimensin 1, razonaremos
por induccin sobre n = dim E. Supongamos que hemos hallado un vector v
1
E
no istropo respecto a f, que existe por el lema anterior. Entonces, por el ejemplo
???, Kv
1
no es istropo, y segn el teorema ???, se cumple
E = Kv
1
(Kv
1
)

Els autors, 2002; Edicions UPC, 2002


8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 201
es decir, E es la suma directa de la recta vectorial generada por v
1
y del hiper-
plano F ortogonal a sta. Segn el corolario ???, dim F = n1 y, en consecuen-
cia, la hiptesis de induccin muestra que F admite una base v
2
, ..., v
n
ortogonal
respecto a la restriccin f
F
de f a F. Es claro entonces que v
1
, v
2
, ..., v
n
es una
base ortogonal de E respecto a f.
Corolario 44 Sea f una forma bilineal simtrica sobre un espacio vectorial E
de dimensin n sobre un cuerpo K de caracterstica distinta de 2 y q la forma
cuadrtica asociada. Supongamos que K es de caracterstica distinta de 2. En-
tonces, existe una base de E tal que la expresin de f y de q respecto a esta base
sea
f(x, y) =
r
X
i=1
a
i
x
i
y
i
y q(x) =
r
X
i=1
a
i
x
2
i
donde r n. Para que f sea no degenerada es necesario y suciente que a
i
6= 0
para 1 i n, porque se debe expresar que la matriz de f respecto a la base
considerada es inversible.
Demostracin: Elijamos una base (e
1
, ..., e
n
) de E ortogonal respecto a f;
podemos suponer (cambiando si es necesario la numeracin de los vectores de
la base) que
f(e
i
, e
i
) =

a
i
para 1 i r
0 para r + 1 i n
Entonces esta base cumple las condiciones del enunciado. Si r < n, es claro que
e
n
es ortogonal a todos los e
i
(1 i n) y, por tanto, a todo x E, y, en
consecuencia, f es degenerada. Se tiene por tanto r = n si f es no degenerada.
Recprocamente, si r = n la matriz de f respecto a la base que acabamos de
construir es la matriz diagonal D = diag(a
1
, ..., a
n
), con a
i
6= 0 (i = 1, ..., n).
Por tanto, es inversible y f no es degenerada.
Observacin 87 1. Si suponemos que K es algebraicamente cerrado y de
caracterstica distinta de 2 (por ejemplo K = C). Entonces, existe una
base de E tal que la expresin de f y de q respecto a esta base sea
f(x, y) =
r
X
i=1
x
i
y
i
y q(x) =
r
X
i=1
x
2
i
donde r n. Para que f sea no degenerada es necesario y suciente que
r = n. Como K es algebraicamente cerrado, existen
i
K (1 i r)
que verican

2
i
f(e
i
, e
i
) = 1
para 1 i r. Esto quiere decir que los vectores v
i
=
i
e
i
satisfacen
f(v
i
, v
i
) = 1
para 1 i r, ya que f es bilineal. Entonces la base (v
1
, ..., v
n
) cumple
las condiciones del enunciado. Si r < n, es claro que e
n
es ortogonal a
Els autors, 2002; Edicions UPC, 2002
202CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
todos los e
i
(1 i n) y, por tanto, a todo x E, y, en consecuencia, f
es degenerada. Se tiene entonces r = n si f es no degenerada. Recproca-
mente, si r = n la matriz de f respecto a la base que acabamos de construir
es la matriz identidad, por tanto, es inversible y f no es degenerada.
2. Observemos que r es el rango de f, ya que el ncleo de f est descrito por
x =
1
e
1
+ +
n
e
n
vericando
f(x, y) = 0
para todo y E. En particular, entonces tenemos
a
1

1
= = a
r

r
= 0
luego, como a
i
6= 0 para 1 i r,

1
= =
r
= 0
Por tanto, el ncleo de f est pues descrito por los vectores x de E verif-
icando
x =
r+1
e
r+1
+ +
n
e
n
es decir, dimker f = n r y, en consecuencia, rang f = r.
Corolario 45 Sea f una forma bilineal simtrica sobre un espacio vectorial real
E de dimensin n y q la forma cuadrtica asociada. Existen nmeros naturales
s, t tales que s +t n, y una base de E tal que la expresin de f respecto a esta
base sea
f(x, y) =
s
X
i=1
x
i
y
i

s+t
X
i=s+1
x
i
y
i
y q(x) =
s
X
i=1
x
2
i

s+t
X
i=s+1
x
2
i
Adems, f es no degenerada si y slo si s +t = n.
Demostracin: Elijamos una base (e
1
, ..., e
n
) de E ortogonal respecto a f;
podemos suponer (cambiando si es necesario la numeracin de los vectores de
la base) que
f(e
i
, e
i
) =
_
_
_
> 0 para 1 i s
< 0 para s + 1 i s +t
= 0 para s +t + 1 i n
Tomando ahora
v
i
=
_

_
ei

f(e
i
,e
i
)
para 1 i s
e
i

f(ei,ei)
para s + 1 i s +t
e
i
para s +t + 1 i n
encontramos una base de E respecto a la cual la expresin de f es evidentemente
la del enunciado, ya que
f(v
i
, v
i
) =
_
_
_
1 para 1 i s
1 para s + 1 i s +t
0 para s +t + 1 i n
Els autors, 2002; Edicions UPC, 2002
8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 203
Si s+t < n, es claro que e
n
es ortogonal a todos los e
i
(1 i n) y, por tanto,
a todo x E, y, en consecuencia, f es degenerada. Se tiene por tanto s+t = n si
f es no degenerada. Recprocamente, si s+t = n la matriz de f respecto a la base
que acabamos de construir es la matriz diagonal D = diag(1, ..., 1, 1, ..., 1).
Por tanto, es inversible y f no es degenerada.
Observacin 88 Es obvio que rang f = s + t. Las mismas consideraciones
realizadas en la ltima observacin muestran este hecho.
En el siguiente teorema se demuestra que los nmeros s, t no dependen ms
que de f, y no de la eleccin de la base.
Teorema 122 (Ley de inercia de Sylvester) Todas las matrices reducidas
diagonales asociadas a una funcin bilineal simtrica f (o a una forma cuadrti-
ca q) sobre un espacio vectorial real E de dimensin n contienen el mismo
nmero de trminos positivos y negativos.
Demostracin: En la base v
1
, ..., v
n
del corolario anterior las expresiones de
f y q son como sigue
f(x, y) =
s
X
i=1
x
i
y
i

s+t
X
i=s+1
x
i
y
i
y q(x) =
s
X
i=1
x
2
i

s+t
X
i=s+1
x
2
i
que contienen p trminos positivos y q negativos. Supongamos ahora que existe
una segunda base u
1
, ..., u
n
de E ortogonal respecto a f (o a q) para la que f y
q toma la siguiente expresin
f(x, y) =
s
0
X
i=1
x
i
y
i

s
0
+t
0
X
i=s
0
+1
x
i
y
i
y q(x) =
s
0
X
i=1
x
2
i

s
0
+t
0
X
i=s
0
+1
x
2
i
Vamos a demostrar que s = s
0
y t = t
0
. Consideremos los dos subespacios
vectoriales de E siguientes:
F = hv
1
, ..., v
s
i
G = hu
s
0
+1
, ..., u
n
i
obviamente, dim F = s y dim G = n s
0
. Si x F, se tiene q(x) 0; si,
adems, x 6= 0 es claro que existe al menos un x
i
6= 0 (1 i p), luego
q(x) > 0 para todo x 6= 0 de F. Por otra parte, es claro tambin que si x
0
G,
se tiene q(x
0
) 0. Por tanto,
F G = {0}
luego, segn la frmula de Grassmann, obtenemos,
dim F + dim G = dim(F +G) dim E
es decir,
s +n s
0
n
Els autors, 2002; Edicions UPC, 2002
204CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
de donde
s s
0
Ahora, permutando el papel de las bases (v
i
) y (u
i
) se demostrar del mismo
modo que s
0
s. Por lo tanto, s = s
0
. Como, por otro lado, s + t = s
0
+ t
0
=
rang f, se tiene tambin t = t
0
.
Denicin 92 Sea f una forma bilineal simtrica sobre un espacio vectorial
real E de dimensin n y q la forma cuadrtica asociada. Existen nmeros natu-
rales s, t tales que s +t n, y una base de E tal que la expresin de f respecto
a esta base sea
f(x, y) =
s
X
i=1
x
i
y
i

s+t
X
i=s+1
x
i
y
i
y q(x) =
s
X
i=1
x
2
i

s+t
X
i=s+1
x
2
i
Al par de enteros naturales (s, t) se le llama la signatura de f o de q.
8.2.2. Bases ortonormales
Sea f una forma bilineal simtrica sobre un espacio vectorial E de dimensin
nita sobre K.
Denicin 93 Decimos que una base (e
1
, ..., e
n
) de E es ortonormal respecto
a f si
f(e
i
, e
j
) =

0 si i 6= j
1 si i = j
o lo que es lo mismo, si la matriz de f respecto a la base en cuestin es la matriz
identidad, o, por ltimo, si la expresin de f respecto a esta base es de la forma
f(x, y) =
n
X
i=1
x
i
y
i
donde n = dim E.
Observacin 89 La existencia de una base ortonormal obliga evidentemente
a que f sea no degenerada, y la observacin ??? muestra que esta condicin
tambin es suciente en el caso ortogonal complejo o, con mayor generalidad,
si K es algebraicamente cerrado y de caracterstica distinta de 2.
Denicin 94 Decimos que una forma bilineal simtrica f sobre un espacio
vectorial real E y que la forma cuadrtica asociada q es denida positiva si
f(x, x) = q(x) > 0
para todo x 6= 0 de E.
Els autors, 2002; Edicions UPC, 2002
8.2. ORTOGONALIDAD. ELEMENTOS ISTROPOS 205
Teorema 123 (Existencia de bases ortonormales) Sea E un espacio vec-
torial real de dimensin nita y f una forma bilineal simtrica sobre E. Para
que E admita una base ortonormal respecto a f es necesario y suciente que f
sea denida positiva.
Demostracin: Si f admite una base ortonormal, entonces se tiene para todo
x E
f(x, x) =
n
X
i=1
x
2
i
y por consiguiente,
f(x, x) > 0
para todo x 6= 0. Recprocamente, si f es denida positiva, la demostracin del
corolario ??? muestra que se cumple s = n, y por tanto consiguiente que E
admite una base ortonormal.
Del corolario ??? se deduce que para que f sea denida positiva es necesario
y suciente que s = n y t = 0. El otro extremo, s = 0 y t = n, es el de las
formas denidas negativas, es decir,
f(x, x) < 0
para todo x 6= 0.
Denicin 95 Decimos que una forma bilineal simtrica f sobre un espacio
vectorial real E y que la forma cuadrtica asociada q es denida negativa si
f(x, x) = q(x) < 0
para todo x 6= 0 de E.
Denicin 96 Se dice con mayor generalidad que una forma bilineal simtrica
f sobre un espacio vectorial real E y que la forma cuadrtica asociada q es
positiva (resp. negativa) si se cumple f(x, x) = q(x) 0 (resp. f(x, x) =
q(x) 0) para todo x E. Una forma que no es ni positiva ni negativa se
llama indenida; esto signica que se pueden encontrar vectores x, y E tales
que
f(x, x) = q(x) > 0 y f(y, y) = q(y) < 0
Observacin 90 Esto signica evidentemente que t = 0 (resp. s = 0), de
manera que las formas denidas positivas (resp. denidas negativas) son las
formas positivas (resp. negativas) no degeneradas. Para el caso en que la forma
es indenida es claro que se tiene p 1 y q 1.
Teorema 124 (Desigualdad de Schwarz) Si f es una forma bilineal simtri-
ca positiva sobre un espacio vectorial real E y q la forma cuadrtica asociada,
se cumple
f(x, y)
p
q(x) q(y)
Els autors, 2002; Edicions UPC, 2002
206CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
para todo (x, y) E E.
Demostracin: Siendo f positiva, para todo x, y E y R, tenemos
q(x +y) = f(x +y, x +y)
= f(x, x) + 2f(x, y) +
2
f(y, y) 0
en el caso en que f(y, y) 6= 0, q(x +y) es un polinomio de segundo grado en
con coecientes reales. Como
f(x, x) + 2f(x, y) +
2
f(y, y) 0
es imposible que tenga dos races reales distintas, de donde
4 [f(x, y)]
2
4q(x) q(y) 0
es decir,
[f(x, y)]
2
q(x) q(y)
Si y es tal que f(y, y) = 0, la desigualdad
f(x, x) + 2f(x, y) 0
no se puede vericar para todo nmero real salvo que f(x, y) = 0 y, en con-
secuencia,
[f(x, y)]
2
q(x) q(y)
tambin se cumple. En denitiva, se cumple
f(x, y)
p
q(x) q(y)
Corolario 46 Si q es una forma cuadrtica positiva sobre un espacio vectorial
real E, se cumple
p
q(x +y)
p
q(x) +
p
q(y)
para todo x, y E.
Demostracin: De la desigualdad de Schwarz se sigue que
q(x +y) = f(x +y, x +y)
= f(x, x) + 2f(x, y) +f(y, y)
q(x) + 2
p
q(x) q(y) +q(y)
=
h
p
q(x) +
p
q(y)
i
2
de donde, obtenemos
p
q(x +y)
p
q(x) +
p
q(y)
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 207
Corolario 47 El ncleo de una forma bilineal simtrica positiva f sobre un
espacio vectorial real E es el conjunto de los vectores istropos de E respecto a
f.
Demostracin: Sabemos que el ncleo de f est constituido por los vectores x
de E tales que
f(x, y) = 0
para todo y E. Por tanto, todo elemento del ncleo es istropo. Recproca-
mente, si f es positiva y x es cualquier vector istropo de E, entonces
f(x, x) = 0
Por la desigualdad de Schwarz, tenemos
[f(x, y)]
2
0
para todo y E, y por tanto,
f(x, y) = 0
para todo y E.
Observacin 91 De lo anterior resulta que si f es denida positiva, su ncleo
se reduce a {0}; por tanto, el vector nulo es el nico vector istropo respecto a
una forma bilineal simtrica denida positiva sobre un espacio vectorial real E.
8.3. Formas bilineales simtricas reales
En toda esta seccin suponemos que E es un espacio vectorial sobre R.
Diremos entonces que f es una forma bilineal simtrica real y que q es una
forma cuadrtica real.
Denicin 97 Sea E un espacio vectorial sobre R (o C), toda aplicacin p de
E en R que posee las siguientes propiedades:
1. p(x) = 0 si y slo si x = 0
2. p(x +y) p(x) +p(y)
3. p(x) = || p(x)
para todo x, y E y R, se llama una norma sobre E.
Observacin 92 1. En esta denicin se puede reemplazar R o C por cualquier
cuerpo valorado K, es decir, que posea denido un valor absoluto.
2. Es habitual escribir kxk en lugar de p(x).
Els autors, 2002; Edicions UPC, 2002
208CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Teorema 125 Si q es la forma cuadrtica asociada a una forma bilineal simtri-
ca denida positiva sobre un espacio vectorial E real, la aplicacin de E en R
+
,
denida por
x 7
p
q(x)
para todo x E, es una norma sobre E.
Demostracin: Si f es denida positiva, entonces el nico vector istropo es
0, luego
q(x) = 0 x = 0
Adems, segn el corolario ???, se tiene
p
q(x +y)
p
q(x) +
p
q(y)
para todo x, y E. Finalmente,
q(x) = f(x, x) =
2
q(x)
Por tanto,
p
q(x) = ||
p
q(x)
para todo x E y R.
Denicin 98 Un espacio vectorial E sobre R provisto de una norma x 7
p
q(x), siendo q una forma cuadrtica denida positiva sobre E, se llama un
espacio prehilbertiano real en el caso general y, en particular, si E es de
dimensin nita, E se llama espacio euclideo.
Denicin 99 Sea E un espacio euclideo de dimensin n, a la forma bilineal
simtrica denida positiva sobre E se llama producto escalar. Si f es el pro-
ducto escalar sobre E, utilizaremos la notacin x y para designar el nmero
real f(x, y). Se llama norma euclidea a la norma denida por
kxk =

x x
En una base ortonormal de E, se tiene
x y = x
1
y
1
+ +x
n
y
n
y
kxk =
q
x
2
1
+ +x
2
n
Observacin 93 Si E un espacio euclideo de dimensin n, es decir, un espacio
vectorial de dimensin n sobre R provisto de una forma bilineal simtrica deni-
da positiva f. Cualesquiera que sea esta forma f, referida a una base ortonormal
respecto a f, se expresar como sigue
f(x, y) =
n
X
i=1
x
i
y
i
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 209
Esto nos permite decir que existe una sola estructura de espacio euclideo de di-
mensin n. Para estudiarlo escogemos una forma bilineal simtrica no degener-
ada positiva f
0
que se llama producto escalar sobre E. Las bases ortonormales
de E sern las bases ortonormales respecto a f
0
. Asimismo, se llama norma
euclidea a la norma denida con la ayuda de la forma cuadrtica q
0
asociada
a f
0
.
Denicin 100 Si E es un espacio euclideo, dos vectores x, y E se llaman
ortogonales si x y = 0. Un vector x E se llama unitario si x x = 1.
Ejemplo 120 Si E es un espacio euclideo y x es un vector de E no nulo, en-
tonces
x

x x
es un vector unitario de E.
Solucin: Tenemos
x

x x

x

x x
=
x x
x x
= 1
Ejemplo 121 Si E es un espacio euclideo y S es un subconjunto de vectores
diferentes de 0 y ortogonales dos a dos, entonces S es linealmente independiente.
Solucin: Supongamos que S = {v
1
, ..., v
r
} y que
r
X
i=1

i
v
i
= 0
Entonces, para cada v
k
tenemos,
0 =

r
X
i=1

i
v
i
!
v
k
=
r
X
i=1

i
v
i
v
k
=
k
v
k
v
k
Ahora bien, como v
k
6= 0, se tiene v
k
v
k
6= 0. Por tanto,
k
= 0 para todo k.
Teorema 126 (Mtodo de Gram-Schmidt) Si E es un espacio euclideo,
entonces siempre existe una base ortonormal de E.
Demostracin: Sea e
1
, ..., e
n
una base cualquiera de E. Consideremos los sube-
spacios siguientes:
E
1
= he
1
i E
2
= he
1
, e
2
i E
n
= he
1
, ..., e
n
i = E
Els autors, 2002; Edicions UPC, 2002
210CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Es claro que E
1
tiene una base ortonormal que es
u
1
=
e
1

e
1
e
1
Supongamos que u
1
, ..., u
r
es una base ortonormal de E
r
. Construyamos una
base ortonormal de E
r+1
= hu
1
, ..., u
r
, e
r+1
i de la siguiente manera: considere-
mos un vector de la forma
u
0
r+1
= e
r+1
(
1
u
1
+ +
r
u
r
)
ortogonal a cada u
i
, i = 1, ..., r, es decir,
0 = u
0
r+1
u
i
= [e
r+1
(
1
u
1
+ +
r
u
r
)] u
i
= e
r+1
u
i

i
Por tanto, tenemos que tomar para cada i = 1, ..., r

i
= e
r+1
u
i
El ejemplo ??? nos dice que u
1
, ..., u
r
, u
0
r+1
son linealmente independientes y,
por tanto, forman una base de E
r+1
. Si ahora hacemos
u
r+1
=
u
0
r+1
p
u
0
r+1
u
0
r+1
entonces, los vectores u
1
, ..., u
r
, u
r+1
forman una base ortonormal de E
r+1
. De
este modo, por induccin obtenemos que E
n
= E tiene una base ortonormal.
Teorema 127 Si una forma bilineal f sobre un espacio vectorial real tiene la
matriz identidad en una base u
1
, ..., u
n
, entonces f es un producto escalar.
Demostracin: Es inmediato y se deja al lector los detalles de la demostracin.
Ejemplo 122 En R
3
se considera el producto escalar que en la base cannica
tiene por matriz
G =
_
_
3 1 1
1 1 0
1 0 1
_
_
Determinar por el mtodo de Gram-Schmidt un conjunto ortonormal de {(1, 0, 0), (0, 1, 1)}
respecto del producto escalar considerado.
Solucin: Hacemos v
1
= (1, 0, 0) y v
2
= (0, 1, 1). Entonces tenemos,
u
1
=
v
1

v
1
v
1
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 211
donde, en este caso,
v
1
v
1
=

1 0 0

_
_
3 1 1
1 1 0
1 0 1
_
_
_
_
1
0
0
_
_
=

1 0 0

_
_
3
1
1
_
_
= 3
luego,
u
1
= (
1

3
, 0, 0)
Por otro lado, tenemos
u
0
2
= v
2
u
1
siendo = v
2
u
1
, es decir,
=

0 1 1

_
_
3 1 1
1 1 0
1 0 1
_
_
_
_
1

3
0
0
_
_
=

0 1 1

_
_
_
3

3
1

3
1

3
_
_
_ =
2

3
luego,
u
0
2
= (0, 1, 1) (
2
3
, 0, 0)
= (
2
3
, 1, 1)
y
u
0
2
u
0
2
=


2
3
1 1

_
_
3 1 1
1 1 0
1 0 1
_
_
_
_

2
3
1
1
_
_
=


2
3
1 1

_
_
0
1
3
1
3
_
_
=
2
3
Por tanto,
u
2
=
u
0
2
p
u
0
2
u
0
2
= (
2

6
,
3

6
,
3

6
)
Los vectores u
1
, u
2
forman un conjunto ortonormal respecto al producto consid-
erado.
Els autors, 2002; Edicions UPC, 2002
212CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Teorema 128 Si E es un espacio euclideo, la aplicacin : E E

denida
por (y) = y

y tal que y

(x) = x y para todo x E, es un isomorsmo


cannico.
Demostracin: Para todo y E, la aplicacin y

: E R denida por
y

(x) = x y es lineal. Entonces, podemos denir la aplicacin : E E

por
(y) = y

. La aplicacin es inyectiva ya que


y

= w

= y

(x) = z

(x)
= x y = x z
= x (y z) = 0
= y z = 0
= y = z
Veremos ahora que la aplicacin es exhaustiva. En efecto, dado w E

,
consideremos una base ortonormal e
1
, ..., e
n
de E y el vector
y = w(e
1
) e
1
+ +w(e
n
) e
n
El vector y es una antiimagen de w, ya que
y

(e
i
) = e
i
y = w(e
i
)
para todo i = 1, ..., n, es decir, y

= w. Por ltimo, veremos que es lineal. En


efecto, se cumple
(y +z)

(x) = x (y +z)
= x y +x z
= y

(x) +z

(x)
para todo x E, es decir,
(y +z) = (y) +(z)
Adems,
(y)

(x) = x (y)
= (x y)
= y

(x)
para todo x E; por tanto,
(y) = (y)
Denicin 101 Si E es un espacio euclideo y S es un subconjunto de E. De-
nominaremos subespacio ortogonal de S a
S

= {y E : x y = 0, para todo x E}
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 213
Teorema 129 Si E es un espacio euclideo y S, T son subconjuntos de E. Se
cumple:
1. S

es un subespacio vectorial de E
2. S T implica T

3. S

= hSi

4. hSi S

= {0}
5. hSi (S

Demostracin: En cada caso es una simple comprobacin a partir de la deni-


cin; la demostracin se deja al lector.
Teorema 130 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces
E = F F

Demostracin: De la propiedad 4 del teorema anterior se deduce que FF

=
{0}. Sea u
1
, ..., u
r
una base ortonormal de F. Completmosla hasta obtener
una base u
1
, ..., u
r
, e
r+1
, ..., e
n
de E y apliquemos el mtodo de Gram-Schmidt
para conseguir una base ortonormal u
1
, ..., u
r
, u
r+1
, ..., u
n
de E. Observemos que
u
j
F

si j = r + 1, ..., n. Entonces, para todo x E,


x = x
1
u
1
+ +x
r
u
r
+x
r+1
u
r+1
+ +x
n
u
n
F +F

de donde resulta lo que queramos demostrar.


Corolario 48 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces
dimF

= dimE dimF
Demostracin: Es inmediato a partir del resultado del teorema anterior.
Corolario 49 Si E es un espacio euclideo y F es un subespacio vectorial de E,
entonces F

= F.
Demostracin: Por la propiedad 5 del teorema ???, se tiene F F

. Por el
corolario anterior, F y F

tienen la misma dimensin y, por tanto, F

= F.
8.3.1. Endomorsmos adjuntos y autoadjuntos
Denicin 102 Sea E un espacio euclideo. Un endomorsmo g se llama el
adjunto de f L(E) si
x g(y) = f(x) y
para todo x, y E.
Els autors, 2002; Edicions UPC, 2002
214CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Teorema 131 Sea E un espacio euclideo. El adjunto de un endomorsmo f de
E, si existe, es nico.
Demostracin: En efecto, si g
1
tambin es adjunto de f L(E), tenemos
x g(y) = f(x) y
= x g
1
(y)
para todo x, y E, de donde
g(y) = g
1
(y)
para todo y E. Por tanto, g = g
1
.
Teorema 132 Sea E un espacio euclideo. El adjunto g de un endomorsmo f
de E queda determinado por
g =
1
f
0

siendo el isomorsmo cannico entre E y su dual E

, y f
0
: E

tal que
f
0
(y

) = y

f para todo y

.
Demostracin: Veremos que la aplicacin
g =
1
f
t
: E E

E
es lineal y que satisface
x g(y) = f(x) y
para todo x, y E. La linealidad de g es consecuencia de la linealidad de y
de f
0
. Observemos ahora que
f
0

y 7 y

7 y

f g(y)
es decir, se cumple
[g(y)]

= y

f
de donde, para todo x E se tiene
[g(y)]

(x) = (y

f)(x)
x g(y) = y

(f(x))
x g(y) = f(x) y
Teorema 133 Sea E un espacio euclideo. Si g es el adjunto de f L(E),
entonces
ker g = (Imf)

y Img = (ker f)

Els autors, 2002; Edicions UPC, 2002


8.3. FORMAS BILINEALES SIMTRICAS REALES 215
Demostracin: Observamos que
ker g = {y E : g(y) = 0}
= {y E : x g(y) = 0, para todo x E}
= {y E : f(x) y = 0, para todo x E}
= (Imf)

De aqu, tomando ortogonales, obtenemos


Imf = (ker g)

Ahora bien, si g es el adjunto de f, entonces f es el adjunto de g y, en particular,


se cumple
Img = (ker f)

Teorema 134 Sea E un espacio euclideo. Si A = (a


ij
) es la matriz de f L(E)
en una base ortonormal e
1
, ..., e
n
. La matriz del adjunto de f en dicha base es
A
t
= (a
ji
).
Demostracin: Sea g el adjunto de f y B = (b
ij
) su matriz en la base e
1
, ..., e
n
.
Entonces,
g(e
i
) =
n
X
j=1
b
ji
e
j
de donde,
b
ji
= g(e
i
) e
j
= e
i
f(e
j
)
= e
i

n
X
k=1
a
kj
e
k
!
= a
ij
Por tanto, B = A
t
.
Ejemplo 123 En R
2
se considera el producto escalar cuya matriz en la base
cannica es
G =

2 0
0 3

y el endomorsmo f denido por


f(x, y) = (2x + 3y, y)
Determinar el adjunto de f.
Solucin: La matriz de f en la base ortonormal ((
1

2
, 0), (0,
1

3
)) es

2
0
0
1

3
!
1
2 3
0 1

2
0
0
1

3
!
=

2

6
0 1

Els autors, 2002; Edicions UPC, 2002


216CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Por tanto, la matriz del adjunto g de f en esta base es

2 0

6 1

y en la base cannica

2
0
0
1

3
!

2 0

6 1

2
0
0
1

3
!
1
=

2 0
2 1

Por tanto,
g(x, y) = (2x, 2x +y)
Denicin 103 Sea E un espacio euclideo. Se dice que f L(E) es autoad-
junto o simtrico cuando su adjunto coincide con s mismo, es decir, si se
cumple
x f(y) = f(x) y
para todo x, y E.
Corolario 50 Sea E un espacio euclideo. Si A es la matriz de f L(E) en una
base ortonormal de E, entonces f es simtrico si y slo si A = A
t
.
Demostracin: Es inmediato a partir del teorema anterior.
Ejemplo 124 Sea f un endomorsmo del espacio euclideo ordinario R
2
cuya
matriz en la base ((1, 1), (0, 1)) es

2 0
1

Determinar para que f sea simtrico.


Solucin: Si f es simtrico, entonces su matriz en una base ortonormal
debe ser simtrica. Si tomamos la base cannica, entonces la matriz de f en
esta base es

1 0
1 1

2 0
1

1 0
1 1

1
=

2 0
+ 1 1

luego, + 1 = 0, es decir, = 1.
Denicin 104 Sea E un espacio euclideo. Se dice que un automorsmo f de
E es ortogonal si su adjunto es f
1
, es decir, si se cumple
x f
1
(y) = f(x) y
para todo x, y E.
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 217
Teorema 135 Sea E un espacio euclideo. Si f es un automorsmo ortogonal
de E si y slo si f conserva el producto escalar, es decir, se cumple
f(x) f(y) = x y
para todo x, y E.
Demostracin: En efecto, si f es un automorsmo ortogonal de E, entonces
f(x) f(y) = x f
1
(f(y))
= x y
para todo x, y E y, por tanto, f conserva el producto escalar. Recprocamente,
si f conserva el producto escalar y suponemos que g es el endomorsmo adjunto
de f, entonces
x y = f(x) f(y)
x y = x g(f(y))
par todo x, y E, de donde
g f = id
E
De aqu se sigue que f es inyectiva y, en consecuencia, biyectiva ya que E es
de dimensin nita, luego g = f
1
y se tiene tambin
f g = id
E
Observacin 94 Podamos haber denido endomorsmo ortogonal de E como
un endomorsmo de E que conserva el producto escalar y deducir de ah que
dicho endomorsmo es biyectivo y, en consecuencia, un automorsmo de E.
Corolario 51 Sea E un espacio euclideo. Si A es la matriz de f L(E) en
una base ortonormal e
1
, ..., e
n
de E, entonces las siguientes propiedades son
equivalentes:
1. f es ortogonal
2. f(e
1
), ..., f(e
n
) es una base ortonormal
3. A
1
= A
t
4. A
t
A = AA
t
= I
n
Demostracin: (1) (2) Si f es ortogonal, por el teorema anterior, f
conserva el producto escalar y, por tanto, se cumple
f(e
i
) f(e
j
) = e
i
e
j
=
ij
Els autors, 2002; Edicions UPC, 2002
218CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
y, en consecuencia, f(e
1
), ..., f(e
n
) es una base ortonormal. Recprocamente, si
f(e
1
), ..., f(e
n
) es una base ortonormal, entonces
f(x) f(y) = f

n
X
i=1
x
i
e
i
!
f
_
_
n
X
j=1
x
j
e
j
_
_
=

n
X
i=1
x
i
f(e
i
)
!

_
_
n
X
j=1
x
j
f(e
j
)
_
_
=
n
X
i=1
n
X
j=1
x
i
y
j
(f(e
i
) f(e
j
))
=
n
X
i=1
n
X
j=1
x
i
y
i
= x y
(1) (3) Si f es ortogonal, por el corolario ???, esto es equivalente a
A
1
= A
t
.
(3) (4) Es inmediato y se deja la demostracin al lector.
Corolario 52 Sea E un espacio euclideo. Si e
1
, ..., e
n
y u
1
, ..., u
n
son dos bases
ortonormales de E, entonces la matriz de paso de una base a la otra es ortogonal.
(recordemos que una matriz cuadrada A de orden n se llama ortogonal si y slo
si A
t
A = I
n
)
Demostracin: En efecto, Si suponemos que P es la matriz de paso de la base
u
1
, ..., u
n
a la base e
1
, ..., e
n
, entonces
X = PX
0
donde X e X
0
designan las matrices columna de un vector x expresado en (e
i
)
y (u
i
), respectivamente. Obsrvese que
x x = X
t
X
= (PX
0
)
t
(PX
0
)
= (X
0
)
t
P
t
PX
0
Por tanto,
P
t
P = I
n
8.3.2. Diagonalizacin de matrices simtricas
Segn el corolario anterior, toda matriz simtrica real es la matriz de un
endomorsmo autoadjunto en una base ortonormal de un espacio euclideo E.
El problema de diagonalizar estas matrices equivale, pues, al de encontrar una
base de vectores propios de un endomorsmo autoadjunto de E.
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 219
Denicin 105 Si E es un espacio vectorial de dimensin n sobre R y e
1
, ..., e
n
es una base de E, entonces se tiene
E = Re
1
Re
n
Si ahora consideramos el espacio vectorial E
0
sobre C que tiene igualmente como
base e
1
, ..., e
n
, entonces se tendr
E
0
= Ce
1
Ce
n
El espacio vectorial E
0
de dimensin n sobre C asociado de esta manera a E se
llama complejicado de E, y se tiene claramente
E E
0
y E 6= E
0
Observacin 95 1. Si suponemos que E es un espacio euclideo, es decir, un
espacio vectorial provisto de una forma bilineal simtrica denida positiva
f, se tendr
f(x, y) =
n
X
i=1
x
i
y
i
cuando est referida a una base ortonormal e
1
, ..., e
n
de E. Entonces, se
puede dar a E
0
, complejicado de E, la forma bilineal f
0
: E
0
E
0
C
denida en la misma base (es decir, en la base ortonormal de E respecto
a f) por
f
0
(x, y) =
n
X
i=1
x
i
y
i
con
x =
n
X
i=1
x
i
e
i
y y =
n
X
i=1
y
i
e
i
pero, ahora x
1
, ..., x
n
, y
1
, ..., y
n
son nmeros complejos. Es claro que f
0
es una forma bilineal simtrica no degenerada sobre E
0
y que e
1
, ..., e
n
,
considerada como base de E
0
, es ortonormal respecto a f
0
. Ahora bien, es
importante saber que en este caso
f
0
(x, x) =
n
X
i=1
x
2
i
es un nmero complejo que puede ser nulo aun cuando x 6= 0, es decir,
hay en E
0
vectores istropos no nulos. Por lo tanto, no se puede asociar
una norma a f
0
y f
0
no es un producto escalar. Por ejemplo, el vector
x = (1, i) 6= 0 es istropo respecto a la forma cuadrtica sobre C
2
denida
por
q(x) = x
2
1
+x
2
2
Els autors, 2002; Edicions UPC, 2002
220CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
2. Si suponemos que E es un espacio euclideo y f es un endomorsmo de E,
entonces podemos asociarle un endomorsmo f
0
del complejicado E
0
de
E de manera que su matriz A sea la misma que la de f en la misma base.
Los valores propios de f (en C) son los mismos que los de f
0
, que son los
de la matriz real A.
Lema 4 Si E es un espacio euclideo de dimensin n y f : E E es autoad-
junto, entonces el polinomio caracterstico de f es de la forma
p(x) = (x
1
) (x
n
)
con
1
, ...,
n
R, es decir, todos los valores propios de f son nmeros reales.
Demostracin: Sea E
0
el complejicado de E y f
0
el endomorsmo de E
0
aso-
ciado a f. Sea A la matriz de f en una base ortonormal de E. Puesto que f y
f
0
tienen la misma matriz A en dicha base y f es autoadjunto, A es simtrica.
Es claro que, con respecto a esta base, se cumplir tambin
x f
0
(y) = f
0
(x) y
para todo x, y E
0
. Sea un valor propio de f
0
en C y, por tanto, de f y de A. Si
fuera un nmero complejo, f
0
admitira tambin el valor propio , conjugado
de . Sean x y x dos vectores propios, no nulos, asociados, respectivamente, a
y . Podemos suponer que sus coordenadas son dos a dos conjugadas en una
cierta base ortonormal de E
0
. Entonces tenemos,
x f
0
(x) = f
0
(x) x
x (x) = (x) x
(x x) = (x x)
( )(x x) = 0
de donde
( )(x x) = ( )
n
X
i=1
|x
i
|
2
= 0
como x 6= 0 implica
n
X
i=1
|x
i
|
2
6= 0
se sigue que = y, por tanto, que es real.
Teorema 136 Si E es un espacio euclideo de dimensin n y f : E E es
autoadjunto, se cumple:
1. El subespacio ortogonal a todo vector propio no nulo de f es invariante
por f
2. Los subespacios propios asociados a dos valores propios distintos son or-
togonales
Els autors, 2002; Edicions UPC, 2002
8.3. FORMAS BILINEALES SIMTRICAS REALES 221
Demostracin:
1. Si x es un vector propio no nulo de f de valor propio , entonces el
subespacio
F = hxi

= {y E : x y = 0}
es invariante pot f. En efecto, si y F, entonces
x f(y) = f(x) y
= (x) y
= (x y)
= 0 = 0
Por tanto, f(y) F.
2. Sean x
1
y x
2
dos vectores propios de f asociados, respectivamente, a dos
valores propios distintos
1
y
2
. Entonces, tenemos
x
1
f(x
2
) = f(x
1
) x
2
x
1
(
2
x
2
) = (
1
x
1
) x
2

2
(x
1
x
2
) =
1
(x
1
x
2
)
(
1

2
)(x
1
x
2
) = 0
de donde, x
1
x
2
= 0 y, por tanto, x
1
y x
2
son ortogonales. Por consigu-
iente, resulta que los subespacios propios asociados a
1
y
2
son ortogo-
nales.
Teorema 137 Si E es un espacio euclideo de dimensin n y f : E E es
autoadjunto, existe una base de vectores propios ortonormal.
Demostracin: Procederemos por induccin sobre la dimensin de E. Si dim E =
1, f tiene un solo valor propio . Si x 6= 0 es un vector propio, entonces
u =
x
kxk
constituye una base ortonormal de E. Sea dim E = n > 1 y supongamos que
para todo endomorsmo simtrico f de un espacio euclideo de dimensin n 1
existe una base ortonormal de vectores propios. Si dim E = n, f tiene n valores
propios reales por el lema anterior. Sea
1
uno de ellos, y u
1
un vector propio de
valor propio
1
tal que ku
1
k = 1. Consideremos el subespacio vectorial F = hu
1
i;
F no es istropo ya que en un espacio euclideo el nico vector istropo es 0. Por
tanto
E = F F

Els autors, 2002; Edicions UPC, 2002


222CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Por 1 del teorema anterior, F

es invariante por f y, por tanto, si f


0
es el
endomorsmo inducido por f en F

, f
0
es simtrico ya que
x f
0
(y) = x f(y)
= f(x) y
= f
0
(x) y
para todo x, y F

. Por otra parte, si x es un vector propio de f


0
existe R
tal que
f
0
(x) = f(x) = x
por tanto, los vectores propios de f
0
son los vectores propios de f. Por hiptesis
de induccin, existe una base u
2
, ..., u
n
de vectores propios de f
0
ortonormal de
F

. Por 2 del teorema anterior se sigue que u


1
, u
2
, ..., u
n
es una base ortonormal
de de E formada por vectores propios de f.
Corolario 53 Para toda matriz simtrica real A de orden n, existe una matriz
P ortogonal real de orden tal que la matriz
B = P
1
AP
es diagonal.
Demostracin: Es una consecuencia inmediata del teorema anterior y del coro-
lario ???, teniendo en cuenta que los elementos de la diagonal de la matriz B
son los valores propios de A.
Reduccin de las formas cuadrticas reales
Observacin 96 Dada una forma bilineal simtrica f sobre un espacio vectori-
al real de dimensin nita (o bien, la forma cuadrtica asociada a q), degenerada
o no, positiva o no, en una base ortonormal viene dada por
f(x, y) = X
t
AY (A
t
= A)
Entonces, podemos asociarle de manera biyectiva un endomorsmo autoadjunto
o simtrico g, de manera que se cumpla
f(x, y) = x g(y) = g(x) y
cuya matriz en la base considerada es A. De este modo, es lo mismo estudiar f
(o bien q) o g o tambin A, matriz cuadrada real simtrica.
Sea E un espacio euclideo de dimensin n y f una forma bilineal simtrica
cualquiera sobre E. Si A es la matriz asociada a f o al endomorsmo autoadjunto
o simtrico respecto a una base ortonormal cualquiera. Entonces, en una base
ortonormal formada por los vectores propios asociados a los valores propios

1
, ...,
n
de A, tenemos
f(x, y) =
n
X
i=1

i
x
i
y
i
Els autors, 2002; Edicions UPC, 2002
8.4. PROCEDIMIENTOS 223
o bien, si q es la forma cuadrtica asociada a f,
q(x) =
n
X
i=1

i
x
2
i
Naturalmente, si rang f = r, cambiando si fuera preciso la numeracin de los
vectores de la base, obtenemos
f(x, y) =
r
X
i=1

i
x
i
y
i
y q(x) =
r
X
i=1

i
x
2
i
donde los
i
6= 0 (1 i r). Esta ltima operacin se llama reduccin de las
formas cuadrticas en una base ortonormal.
8.4. Procedimientos
Estos mtodos se exponen sin demostracin.
8.4.1. Reduccin de las formas cuadrticas reales
Mtodo reduccin de Gauss
Este mtodo directo se basa en considerar una forma cuadrtica q como un
polinomio homogneo de segundo grado p(x
1
, ..., x
n
). Se considera una forma
cuadrtica q sobre R
n
y se pone
q(x) = p(x
1
, ..., x
n
) =
X
i
a
ii
x
2
i
+ 2
X
i,j
a
ij
x
i
x
j
Distinguimos dos casos:
1. Existe algn trmino x
2
i
con coeciente no nulo. Si, por ejemplo, es a
11
6= 0,
entonces escribimos
q(x) =
1
a
11
[L(x)]
2
+q
1
(x)
donde L es una forma lineal que se expresar con la ayuda de
1
2


x
1
[q(x)]
y q
1
(x) = p(x
2
, ..., x
n
) es una forma cuadrtica en las variables x
2
, ..., x
n
a
la que se vuelve a aplicar el mtodo, con lo que acabamos descomponiendo
q en una suma o diferencia de cudrados.
Els autors, 2002; Edicions UPC, 2002
224CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
2. Todos los coecientes de los trminos x
2
i
son nulos. Si, por ejemplo, es
a
12
6= 0, entonces escribimos
q(x) =
2
a
12
[L
1
(x) L
2
(x)] +q
1
(x)
donde L
1
y L
2
son formas lineales que se expresarn con la ayuda

x
1
[q(x)] y

x
2
[q(x)]
y q
1
(x) = p(x
3
, ..., x
n
) es una forma cuadrtica en las variables x
3
, ..., x
n
a la que se repite el proceso indicado en 1 o aqu, segn el caso. En este
caso, es conveniente observar que
4L
1
L
2
= (L
1
+L
2
)
2
(L
1
L
2
)
2
Observacin 97 Es conveniente recordar en este caso la frmula de Euler
para polinomios homogneos: p es un polinomio homogneo de grado 2 si y slo
si

x
1
[p(x)] + +

x
n
[p(x)] = 2p(x)
Ejemplo 125 Determinar una forma reducida de la siguiente forma cuadrtica
de R
3
q(x, y, z) = x
2
+y
2
+ 3z
2
+ 4xy + 2xz + 2yz
Solucin: Aplicaremos el mtodo de reduccin de Gauss, segn caso (1):
q(x, y, z) = x
2
+y
2
+ 3z
2
+ 4xy + 2xz + 2yz
= (x + 2y +z)
2
3y
2
+ 2z
2
2yz
= (x + 2y +z)
2

1
3
(3y +z)
2
+
7
3
z
2
obtenemos as la siguiente forma reducida de q
q(x
0
, y
0
, z
0
) = (x
0
)
2

1
3
(y
0
)
2
+
7
3
(z
0
)
2
donde
_
_
_
x
0
= x + 2y +z
y
0
= 3y +z
z
0
= z
Obsrvese que la forma cuadrtica es indenida y no degenerada.
Ejemplo 126 Determinar una forma reducida de la siguiente forma cuadrtica
de R
4
q(x
1
, x
2
, x
3
, x
4
) = x
1
x
2
+x
2
x
3
+x
1
x
4
+x
2
x
4
+x
3
x
4
Els autors, 2002; Edicions UPC, 2002
8.4. PROCEDIMIENTOS 225
Solucin: Aplicaremos el mtodo de reduccin de Gauss, segn caso (2):
q(x
1
, x
2
, x
3
, x
4
) = x
1
x
2
+x
2
x
3
+x
1
x
4
+x
2
x
4
+x
3
x
4
= (x
1
+x
3
+x
4
)(x
2
+x
4
) x
2
4
=
1
4
(x
1
+x
2
+x
3
+ 2x
4
)
2

1
4
(x
1
x
2
+x
3
)
2
x
2
4
obtenemos as la siguiente forma reducida de q
q(x
0
1
, x
0
2
, x
0
3
, x
0
4
) =
1
4
(x
0
1
)
2

1
4
(x
0
2
)
2
(x
0
3
)
2
donde
_

_
x
0
1
= x
1
+x
2
+x
3
+ 2x
4
x
0
2
= x
1
x
2
+x
3
x
0
3
= x
4
x
0
4
= 0
Transformaciones elementales
Realizando transformaciones elementales en la matriz A de la forma bilineal
simtrica asociada a la forma cuadrtica, conseguiremos otra matriz D congru-
ente con ella cuya forma es diagonal. De este modo, existe una matriz ortogonal
P tal que
D = P
t
AP
Las columnas de P sern las coordenadas de los vectores que constituyen la base
ortonormal respecto de la cual la matriz de la forma cuadrtica es D.
Ejemplo 127 Sea q la forma cuadrtica sobre R
3
denida por
q(x, y, z) = x
2
+y
2
+z
2
+ 2yz
1. Determinar una forma reducida y la base correspondiente
2. Es denida positiva?
Solucin:
1. La matriz asociada a q en la base cannica de R
3
es
A =
_
_
1 0 0
0 1 1
0 1 1
_
_
Els autors, 2002; Edicions UPC, 2002
226CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Aplicando transformaciones elementales en esta matriz obtenemos,
I
3
|A|I
3
=
1 0 0
0 1 0
0 0 1
1 0 0
0 1 1
0 1 1
1 0 0
0 1 0
0 0 1

1 0 0
0 1 0
0 0 1
1 0 0
0 1 1
0 0 0
1 0 0 F
1
0 1 0 F
2
0 1 1 F
3
F
2

1 0 0
0 1 1
0 0 1
C
1
C
2
C
3
C
2
1 0 0
0 1 0
0 0 0
1 0 0
0 1 0
0 1 1
P|D|P
t
Por tanto, tenemos que
q(x
0
, y
0
, z
0
) = x
02
+y
02
y la base ortogonal respecto a q en la que se expresa es la siguiente
((1, 0, 0), (0, 1, 0), (0, 1, 1))
2. Es evidente que q no es denida positiva ya que los elementos de la diago-
nal de la forma reducida son 1, 1 y 0, que no son estrictamente positivos.
Clculo de la base ortonormal
Este mtodo consiste en hallar una base ortonormal formada por los vec-
tores propios de la matriz asociada a la forma cuadrtica. Para ello, deberemos
calcular primero los valores propios correspondientes a partir de su polinomio
caracterstico.
Ejemplo 128 Sea q la forma cuadrtica sobre R
3
denida por
q(x, y, z) = x
2
+y
2
+z
2
+ 2yz
Determinar su forma reducida en una base ortonormal formada por los vectores
propios de su matriz asociada.
Solucin: La matriz A del endomorsmo simtrico f del espacio euclideo
ordinario R
3
asociado a q coincide con la matriz de q en una base ortonormal,
es decir, ser
A =
_
_
1 0 0
0 1 1
0 1 1
_
_
Els autors, 2002; Edicions UPC, 2002
8.4. PROCEDIMIENTOS 227
en la base cannica. Puesto que f(1, 0, 0) = (1, 0, 0), es evidente que e
1
=
(1, 0, 0) es un vector propio de valor propio 1, y al ser f(e
2
) = f(e
3
) = (0, 1, 1),
entonces det A = 0 y, por tanto, 0 es valor propio de A. Los vectores propios de
valor propio 0 son los vectores del ncleo de f, es decir,
_
_
1 0 0
0 1 1
0 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
Por ejemplo, el vector (0, 1, 1) es un vector propio de valor propio 0 ya que
_
_
1 0 0
0 1 1
0 1 1
_
_
_
_
0
1
1
_
_
=
_
_
0
0
0
_
_
Como que la traza es un invariante frente a los cambios de base, deducimos que
trA = 1 + 0 +
1 + 1 + 1 = 1 +
2 =
Por tanto, los valores propios son 0,1 y 2. Puesto que los vectores propios de val-
ores propios distintos son ortogonales, podemos calcular un vector propio (x, y, z)
de valor propio 2 con la ayuda de las ecuaciones siguientes:
(x, y, z) (1, 0, 0) = 0
(x, y, z) (0, 1, 1) = 0

es decir, x = 0 y y = z. Por tanto, podemos tomar como vector propio de


valor propio 2 el vector (0, 1, 1). Normalizando los vectores de la base obtenida
tenemos
u
1
= (1, 0, 0)
u
2
=
(0, 1, 1)

2
= (0,
1

2
,
1

2
)
u
3
=
(0, 1, 1)

2
= (0,
1

2
,
1

2
)
y, por tanto,
((1, 0, 0), (0,
1

2
,
1

2
), (0,
1

2
,
1

2
))
es una base ortonormal formada por vectores propios de f en la que las matrices
de f y q coinciden; esta matriz es
D =
_
_
1 0 0
0 2 0
0 0 0
_
_
La forma reducida de q en dicha base es
q(x
0
, y
0
, z
0
) = x
02
+ 2y
02
Els autors, 2002; Edicions UPC, 2002
228CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
8.4.2. Clasicacin de formas cuadrticas reales
Consiste en determinar si la forma cuadrtica es degenerada o no, positiva
o no, o indenida. Existen varios mtodos para hacer esto:
Invariantes
Consiste en determinar el rango r y la signatura (s, t), donde s es el nmero
de trminos positivos que presenta la forma cuadrtica q en una base ortonormal
y t, el nmero de trminos negativos. De este modo, tenemos
1. Si r = s = n, entonces q es denida positiva
2. Si r = t = n, entonces q es denida negativa
3. Si r = s < n, entonces q es positiva
4. Si r = t < n, entonces q es negativa
5. Si r 6= s y s 6= 0, entonces q es indenida
Ejemplo 129 Clasicar la siguiente forma cuadrtica q de R
5
que tiene por
matriz asociada
A =
_
_
_
_
_
_
2 1 0 0 0
1 2 0 0 0
0 0 2 0 0
0 0 0 2 1
0 0 0 1 2
_
_
_
_
_
_
en la base cannica. Para ello, hallar su rango y su signatura.
Solucin: Sabemos que en una base ortonormal el endomorsmo simtrico
asociado a q tiene la misma matriz A. El polinomio caracterstico de A es
det(AI
5
) = ( 2)( 1)
2
( 3)
2
y, por tanto, los valores propios de A son 1 (doble),2 y 3 (doble). Por lo tanto,
la forma reducida de q en la base ortonormal formada por vectores propios de
valores propios 1,2 y 3 es
q(x, y, z, t, u) = x
2
+y
2
+ 2z
2
+ 3t
2
+ 3u
2
De aqu obtenemos que r = 5 y la signatura de q es (5, 0) y, en consecuencia,
la forma cuadrtica es denida positiva.
Diagonalizacin de la forma cuadrtica
Supongamos que en una base ortonormal la forma cuadrtica se reduce a
q(x) = a
11
x
2
1
+ +a
nn
x
2
n
entonces:
Els autors, 2002; Edicions UPC, 2002
8.4. PROCEDIMIENTOS 229
1. Si a
ii
> 0 para todo i = 1, ..., n, entonces q es denida positiva
2. Si a
ii
< 0 para todo i = 1, ..., n, entonces q es denida negativa
3. Si a
ii
0 para todo i = 1, ..., n, entonces q es positiva
4. Si a
ii
0 para todo i = 1, ..., n, entonces q es negativa
5. Si hay coeentes a
ii
positivos y negativos, entonces q es indenida
Ejemplo 130 Clasicar la siguiente forma cuadrtica q de R
4
, calculando primero
una forma reducida de q
q(x, y, z, t) = 4x
2
+ 2y
2
+z
2
+ 2t
2
+ 4xy + 2yz 2yt
Solucin: Emplearemos el mtodo de Gauss para hallar una forma reducida
de q,
q(x, y, z, t) = 4x
2
+ 2y
2
+z
2
+ 2t
2
+ 4xy + 2yz 2yt
=
1
4
(4x + 2y)
2
+y
2
+z
2
+ 2t
2
+ 2yz 2yt
=
1
4
(4x + 2y)
2
+ (y +z t)
2
+t
2
+ 2zt
=
1
4
(4x + 2y)
2
+ (y +z t)
2
+ (t +z)
2
z
2
Por tanto, tenemos
q(x
0
, y
0
, z
0
, t
0
) =
1
4
(x
0
)
2
+ (y
0
)
2
+ (z
0
)
2
(t
0
)
2
donde
_

_
x
0
= 4x + 2y
y
0
= y +z t
z
0
= t +z
t
0
= z
Es claro que la forma cuadrtica es indenida y no degenerada.
Estudio de los menores principales
Si A = (a
ij
) es la matriz simtrica real de orden n, asociada a la forma
cuadrtica q, se llaman menores principales de A a los siguientes determi-
nantes
M
p
=

a
11
a
1p
.
.
.
.
.
.
.
.
.
a
p1
a
pp

(1 p n)
Els autors, 2002; Edicions UPC, 2002
230CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Se puede demostrar, que si M
p
6= 0 para todo p = 1, ..., n, entonces existe una
matriz diagonal
D =
_
_
_
c
1
0
.
.
.
.
.
.
.
.
.
0 c
n
_
_
_
y una matriz triangular de la forma
T =
_
_
_
_
_
1 0 0
t
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
t
n1
t
n2
1
_
_
_
_
_
tales que
A = TD
t
T
y
c
k
=
M
k
M
k1
Si rang A = r, se tiene c
1
6= 0, ..., c
r
6= 0, c
r+1
= = c
n
= 0 y A = TD
t
T si
y slo si M
p
6= 0 para 1 p r. Con este resultado, obtenemos el siguiente
criterio para caracterizar una forma cuadrtica q,
1. Si rang A = n, entonces se tiene
a) Si M
i
> 0 para todo i = 1, ..., n, entonces q es denida positiva
b) Si M
1
< 0, M
2
> 0, M
3
< 0, ... y as sucesivamente, entonces q es
denida negativa
2. Si rang A = r, entonces se tiene
a) Si M
1
> 0, M
2
> 0, ..., M
r
> 0, M
r+1
= = M
n
= 0, entonces q es
positiva
b) Si M
1
< 0, M
2
> 0, ... y as sucesivamente, M
r+1
= = M
n
= 0,
entonces q es negativa
Ejemplo 131 Clasicar la siguiente forma cuadrtica sobre R
3
q(x, y, z) = x
2
+ 2y
2
+ 3z
2
+ 2xy + 2xz + 4yz
Solucin: La matriz de q en la base cannica es
A =
_
_
1 1 1
1 2 2
1 2 3
_
_
Els autors, 2002; Edicions UPC, 2002
8.4. PROCEDIMIENTOS 231
Calculemos los menores principales de A,
M
1
= 1 > 0
M
2
=

1 1
1 2

= 1 > 0
M
3
=

1 1 1
1 2 2
1 2 3

= 1 > 0
Por tanto, la forma cuadrtica es denida positiva.
Ejemplo 132 Clasicar, segn los valores a, la siguiente forma cuadrtica q
de R
3
que tiene por matriz
A =
_
_
1 a 0
a 1 0
0 0 3
_
_
Solucin: Obsrvese en primer lugar que e
3
= (0, 0, 1) es un vector propio
de valor propio 3 del endomorsmo simtrico asociado a q en la base cannica.
Por tanto, q no puede ser denida positiva. Calculemos los menores principales
de A,
M
1
= 1 < 0
M
2
=

1 a
a 1

= 1 a
2
M
3
=

1 a 0
a 1 0
0 0 3

= 3(1 a
2
)
Es claro que q es denida negativa si y slo si a
2
< 1, es decir, 1 < a < 1. Si
a > 1 o a < 1, entonces q es indenida y no degenerada, ya que no es denida
positiva. Por ltimo, si a = 1 o a = 1, q es negativa y degenerada.
Estudio del signo de los valores propios
A partir del signo de los valores propios obtenidos como races del polinomio
caracterstico de la matriz asociada a la forma cuadrtica q tenemos:
1. Si todos los valores propios son positivos, q es denida positiva; si, adems,
alguno es nulo, entonces q es positiva
2. Si todos los valores propios son negativos, q es denida negativa; si, adems,
alguno es nulo, entonces q es negativa
3. Si existen valores propios positivos y negativos, q es indenida
Els autors, 2002; Edicions UPC, 2002
232CAPTULO8. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Para tomar una decisin en estos casos slo es necesario calcular el polinomio
caracterstico de la matriz A y averiguar los signos de las races por el teorema de
Descartes. Este teorema arma, que el nmeros de races positivas, contada cada
una tantas veces como indique su multiplicidad, no supera el nmero de cambios
de signo que presenta la sucesin de coecientes (supuestos todos reales), y
ambos nmeros (nmero de races positivas y nmero de cambios de signo)
tienen la misma paridad. Por ejemplo, el polinomio
p(x) = 7x
5
5x
3
+ 2x
2
+x 1
presenta la siguiente sucesin de signos
+ + +
luego, el nmero de races positivas ser 3 o 1. Para obtener el nmero de races
negativas basta poner x en lugar de x, y de este modo, la sucesin de signos
es
+ +
luego, el nmero de races negativas ser 2 o 0. En consecuencia, si este polinomio
admite todas sus races en R (esta situacin se dar en nuestro caso ya que la
matriz es simtrica real y, por tanto, ser siempre diagonalizable), tendr 3
races positivas y 2 de negativas.
Ejemplo 133 Clasicar la siguiente forma cuadrtica de R
3
q(x, y, z) = x
2
+ 2y
2
+ 3z
2
+ 2xy
Solucin: La matriz de q en la base cannica de R
3
es
A =
_
_
1 1 0
1 2 0
0 0 3
_
_
El polinomio caracterstico del endomorsmo simtrico asociado a q en la base
cannica es
det(AI
3
) =

1 1 0
1 2 0
0 0 3

=
3
+ 6
2
10 + 3
La sucesin de signos es
+ +
es decir, hay tres cambios de signo. Como A admite todos sus valores propios
en R, se sigue que los valores propios de A son todos positivos y, por tanto, q
es denida positiva.
Els autors, 2002; Edicions UPC, 2002
Parte II
Prctica
233
Els autors, 2002; Edicions UPC, 2002
Els autors, 2002; Edicions UPC, 2002
Captulo 9
Espacios vectoriales
9.1. Concepto de espacio vectorial
Ejercicio 2 Si K es el cuerpo de los enteros mdulo 3, considrese el espacio
vectorial de los vectores de orden n sobre K. Cunntos vectores hay en este
espacio? Siendo v un vector, qu cabe decir de v+v+v? Puede ser un vector
la suma de tres vectores iguales?
Solucin: Es claro que K = Z
3
=

0, 1, 2

, pues
m = {n Z : n m (3)}
en donde (3) denota el conjunto de mltiplos de 3. Entonces,
0 ={n Z : n (3)} = (3)
1 ={n Z : n 1 = mltiplo de 3} = (3) + 1
2 ={n Z : n 2 = mltiplo de 3} = (3) + 2
El espacio vectorial es K
n
cuyos vectores son ntuplas ordenadas de elementos
de K. En este espacio hay pues 3
n
vectores.
Para calcular v +v +v, haz click en cada paso:
v +v +v = (1 + 1 + 1)v
= 0v ya que 3 0 mod3
= 0
Por tanto, la suma de tres vectores iguales siempre es el vector cero. En
consecuencia, slo el vector cero es la suma de tres vectores iguales.
Ejercicio 3 Constryase un espacio vectorial con cuatro vectores, utilizando el
cuerpo de los enteros mdulo 2.
235
Els autors, 2002; Edicions UPC, 2002
236 CAPTULO 9. ESPACIOS VECTORIALES
Solucin: Si K = Z
2
=

0, 1

, entonces K
2
es un espacio vectorial de
2
2
= 4 elementos sobre K. La suma de vectores se dene por la tabla siguiente:
+ (0, 0) (0, 1) (1, 0) (1, 1)
(0, 0) (0, 0) (0, 1) (1, 0) (1, 1)
(0, 1) (0, 1) (0, 0) (1, 1) (1, 0)
(1, 0) (1, 0) (1, 1) (0, 0) (0, 1)
(1, 1) (1, 1) (1, 0) (0, 1) (0, 0)
y el producto por escalares se dene por la tabla siguiente
(0, 0) (0, 1) (1, 0) (1, 1)
0 (0, 0) (0, 0) (0, 0) (0, 0)
1 (0, 0) (0, 1) (1, 0) (1, 1)
En ambas tablas hemos escrito 0 y 1 en lugar de 0 y 1, respectivamente.
Ejercicio 4 Demostrar que el conjunto E de las aplicaciones f : R R puede
dotarse de manera natural de estructura de espacio vectorial real.
Solucin: Para cada par (f, g) E E denimos la aplicacin f +g por
(f +g)(x) = f(x) +g(x)
y para cada par (, f) R E denimos la aplicacin f por
(f)(x) = f(x)
Se cumplen los 10 axiomas para ser espacio vectorial real:
(1) Para todo f, g E, f + g E ya que la adicin de dos nmeros reales
es un nmero real.
(2) Para todo f, g, h E, (f +g) +h = f + (g +h), pues
((f +g) +h)(x) =
por denicin
(f +g)(x) +h(x) =
por denicin
(f(x) +g(x)) +h(x) =
por la propiedad asociativa de la adicin en R
f(x) + (g(x) +h(x)) =
por denicin
f(x) + (g +h)(x) =
por denicin
(f + (g +h))(x)
Els autors, 2002; Edicions UPC, 2002
9.1. CONCEPTO DE ESPACIO VECTORIAL 237
(3) Para todo f, g E, f +g = g +f, pues
(f +g)(x) =
por denicin
f(x) +g(x) =
por la propiedad conmutativa de la adicin en R
g(x) +f(x) =
por denicin
(g +f)(x)
(4) Existe la aplicacin 0 constante igual 0 R, denida por 0(x) = 0, tal
que f +0 = f para todo f E, pues
(f +0)(x) =
por denicin
f(x) +0(x) =
por denicin de la aplicacin constante igual 0
f(x) + 0 =
por ser 0 el cero de R
f(x)
(5) Para cada f E existe la aplicacin f E, denida por (f)(x) =
f(x), tal que f + (f) = 0, pues
(f + (f))(x) =
por denicin
f(x) + (f)(x) =
por denicin de f
f(x) + (f(x)) =
por ser f(x) y f(x) dos nmeros reales opuestos
0 =
por denicin de la aplicacin constante igual 0
0(x)
(6) Para todo f E y R, f E, ya que la multiplicacin de dos
nmeros reales es un nmero real.
(7) Para todo f, g E y R, (f +g) = f +g, pues
((f +g)) (x) =
Els autors, 2002; Edicions UPC, 2002
238 CAPTULO 9. ESPACIOS VECTORIALES
por denicin
(f +g) (x) =
por denicin
(f(x) +g(x)) =
por la propiedad distributiva de la multiplicacin respecto de la adicin en R
f(x) +g(x) =
por denicin
(f) (x) + (g) (x) =
por denicin
(f +g) (x)
(8) Para todo f E y , R, ( +) f = f +f, pues
(( +) f) (x) =
por denicin
( +) f(x) =
por la propiedad distributiva en R
f(x) +f(x) =
por denicin
(f) (x) + (f) (x) =
por denicin
(f +f) (x)
(9) Para todo f E y , R, () f = (f), pues
(() f) (x) =
por denicin
() f(x) =
por la propiedad asociativa de la multiplicacin en R
(f(x)) =
por denicin
((f) (x)) =
por denicin
((f)) (x)
(10) Para todo f E, 1f = f, pues
(1f) (x) =
Els autors, 2002; Edicions UPC, 2002
9.1. CONCEPTO DE ESPACIO VECTORIAL 239
por denicin
1f(x) =
por ser 1 la unidad en R
f(x)
Ejercicio 5 Estudiar si los conjuntos siguientes de nmeros reales y las opera-
ciones que se indican forman o no un espacio vectorial sobre el cuerpo de los
nmeros racionales: (a) A =

x +y

5 : x, y Z

y las operaciones
(x
1
+y
1

5) + (x
2
+y
2

5) = (x
1
+x
2
) + (y
1
+y
2
)

5
(x +y

5) = (x) + (y)

5
(b) B =

x +y

5 : x, y Q

y las mismas operaciones anteriores.


Solucin: (a) A no tiene estructura de espacio vectorial sobre Q, pues 1/2
Q y 1 + 2

5 A y, en cambio
1
2

1 + 2

=
1
2
+

5 / A
porque 1/2 / Z.
(b) Para B y las mismas operaciones se cumplen los 10 axiomas:
(1) Para todo x
1
+ y
1

5, x
2
+ y
2

5 B, (x
1
+ x
2
) + (y
1
+ y
2
)

5 B, ya
que x
1
+x
2
, y
1
+y
2
Q
(2) Para todo x
1
+y
1

5, x
2
+y
2

5, x
3
+y
3

5 B,

x
1
+y
1

+
h
x
2
+y
2

x
3
+y
3

5
i
=
por denicin

x
1
+y
1

+
h
(x
2
+x
3
) + (y
2
+y
3
)

5
i
=
por denicin
(x
1
+ (x
2
+x
3
)) + (y
1
+ (y
2
+y
3
))

5 =
por la propiedad asociativa de + en Q
((x
1
+x
2
) +x
3
) + ((y
1
+y
2
) +y
3
)

5 =
por denicin
h
(x
1
+x
2
) + (y
1
+y
2
)

5
i
+

x
3
+y
3

=
por denicin
h
x
1
+y
1

x
2
+y
2

5
i
+

x
3
+y
3

Els autors, 2002; Edicions UPC, 2002


240 CAPTULO 9. ESPACIOS VECTORIALES
(3) Para todo x
1
+y
1

5, x
2
+y
2

5 B,

x
1
+y
1

x
2
+y
2

=
por denicin
(x
1
+x
2
) + (y
1
+y
2
)

5 =
por la propiedad conmutativa de + en Q
(x
2
+x
1
) + (y
2
+y
1
)

5 =
por denicin

x
2
+y
2

x
1
+y
1

(4) Existe 0 + 0

5 B tal que, para todo x


1
+y
1

5 B

0 + 0

x
1
+y
1

=
por denicin
(0 +x
1
) + (0 +y
1
)

5 =
por ser 0 el elemento neutro de + en Q
x
1
+y
1

5
(5) Para cada x
1
+y
1

5 B, existe (x
1
) + (y
1
)

5 B tal que

(x
1
) + (y
1
)

x
1
+y
1

=
por denicin
((x
1
) +x
1
) + ((y
1
) +y
1
)

5 =
por ser x el opuesto de x por + en Q
0 + 0

5
(6) Para todo x
1
+ y
1

5 B y Q, (x
1
) + (y
1
)

5 B, ya que
x
1
, y
1
Q
(7) Para todo x
1
+y
1

5, x
2
+y
2

5 B y Q,

h
x
1
+y
1

x
2
+y
2

5
i
=
por denicin

h
(x
1
+x
2
) + (y
1
+y
2
)

5
i
=
por denicin
((x
1
+x
2
)) + ((y
1
+y
2
))

5 =
Els autors, 2002; Edicions UPC, 2002
9.1. CONCEPTO DE ESPACIO VECTORIAL 241
por la propiedad distributiva de la multiplicacin respecto a la adicin en Q
(x
1
+x
2
) + (y
1
+y
2
)

5 =
por denicin

x
1
+y
1

x
2
+y
2

=
por denicin

x
1
+y
1

x
2
+y
2

(8) Para todo x


1
+y
1

5 B y , Q,
( +)

x
1
+y
1

=
por denicin
(( +) x
1
) + (( +) y
1
)

5 =
por la propiedad distributiva de la multiplicacin respecto a la adicin en Q
(x
1
+x
1
) + (y
1
+y
1
)

5 =
por denicin

x
1
+y
1

x
1
+y
1

=
por denicin

x
1
+y
1

x
1
+y
1

(9) Para todo x


1
+y
1

5 B y , Q,

x
1
+y
1

5
i
=
por denicin

x
1
+y
1

=
por denicin
(x
1
) +(y
1
)

5 =
por la propiedad asociativa de la multiplicacin en Q
() x
1
+ () y
1

5 =
por denicin
()

x
1
+y
1

(10) Para todo x


1
+y
1

5 B,
1

x
1
+y
1

=
por denicin
(1x
1
) + (1y
1
)

5 =
por ser 1 la unidad de la multiplicacin en Q
x
1
+y
1

5
Por tanto, B es un espacio vectorial sobre Q.
Els autors, 2002; Edicions UPC, 2002
242 CAPTULO 9. ESPACIOS VECTORIALES
9.2. Subespacios vectoriales
Ejercicio 6 Consideremos el espacio vectorial real F(R, R) de las funciones
reales de variable real. Averiguar cules de los siguientes subconjuntos son sube-
spacios vectoriales: (a) S
1
=

f F(R, R) : f(x
2
) = (f(x))
2

; (b) S
2
= {f F(R, R) : f(0) = f(2)};
(c) S
3
= {f F(R, R) : f(2) = 3 +f(1)}.
Solucin: (a) Si f, g S
1
, entonces
f(x
2
) = (f(x))
2
g(x
2
) = (g(x))
2
Por tanto,
(f +g)(x
2
) =
por denicin,
f(x
2
) +g(x
2
) =
por hiptesis,
(f(x))
2
+ (g(x))
2
Por otra parte,
((f +g)(x))
2
=
por denicin,
(f(x) +g(x))
2
=
desarrollando,
(f(x))
2
+ 2f(x)g(x) + (g(x))
2
En general,
(f(x))
2
+ (g(x))
2
6= (f(x))
2
+ 2f(x)g(x) + (g(x))
2
Por consiguiente, f +g / S
1
y, en consecuencia, S
1
no es subespacio vectorial.
(b) Si f, g S
2
, entonces
f(0) = f(2)
g(0) = g(2)
Por tanto,
(f +g)(0) =
por denicin,
f(0) +g(0) =
por hiptesis,
f(2) +g(2) =
por denicin,
(f +g)(2)
Els autors, 2002; Edicions UPC, 2002
9.2. SUBESPACIOS VECTORIALES 243
Por tanto, f +g S
2
. Adems,
(f)(0) =
por denicin,
f(0) =
por hiptesis,
f(2) =
por denicin,
(f)(2)
Por tanto, f S
2
. Obsrvese que 0 S
2
, siendo 0 la funcin constante igual
0. En consecuencia, S
2
es subespacio vectorial.
(c) Si f, g S
2
, entonces
f(2) = 3 +f(1)
g(2) = 3 +g(1)
Por tanto,
(f +g)(2) =
por denicin,
f(2) +g(2) =
por hiptesis y efectuando operaciones,
6 +f(1) +g(1) =
Por otra parte,
3 + (f +g)(1) =
por denicin,
3 +f(1) +g(1)
Es claro que
6 +f(1) +g(1) 6= 3 +f(1) +g(1)
Por consiguiente, f +g / S
3
y, en consecuencia, S
3
no es subespacio vectorial.
Ejercicio 7 En el espacio vectorial R
4
consideremos el conjunto S = {(x, y, z, t)
R
4
: 2x + 3y +z 2t = 0}. Probar que S es un subespacio vectorial de R
4
.
Solucin: Si u = (x
1
, y
1
, z
1
, t
1
), v = (x
2
, y
2
, z
2
, t
2
) S, entonces
2x
1
+ 3y
1
+z
1
2t
1
= 0
2x
2
+ 3y
2
+z
2
2t
2
= 0
Els autors, 2002; Edicions UPC, 2002
244 CAPTULO 9. ESPACIOS VECTORIALES
Por denicin,
u +v = (x
1
+x
2
, y
1
+y
2
, z
1
+z
2
, t
1
+t
2
)
Adems se cumple,
2(x
1
+x
2
) + 3(y
1
+y
2
) + (z
1
+z
2
) 2(t
1
+t
2
) =
efectuando operaciones,
2x
1
+ 3y
1
+z
1
2t
1
+ 2x
2
+ 3y
2
+z
2
2t
2
=
por hipotesis,
0 + 0 = 0
Por tanto, u +v S.
Si u = (x
1
, y
1
, z
1
, t
1
), R, entonces por denicin se tiene
u = u = (x
1
, y
1
, z
1
, t
1
)
Adems se cumple,
2(x
1
) + 3(y
1
) + (z
1
) 2(t
1
) =
efectuando operaciones,
(2x
1
+ 3y
1
+z
1
2t
1
) =
por hiptesis,
0 = 0
Por tanto, u S. Obsrvese que 0 = (0, 0, 0, 0) S.
Por consiguiente, S es un subespacio vectorial de R
4
.
Ejercicio 8 Estudiar si los siguientes conjuntos son subespacios de R
4
. (a)
S
1
= {(x, y, z, t) R
4
: xy = 0}; (b) S
2
= {(x, y, z, t) R
4
: x = 1}; (c)
S
3
= {(x, y, z, t) R
4
: x
2
+y
2
+z
2
+t
2
= 0}.
Solucin: (a) Es claro que u = (1, 0, 0, 0), v = (0, 1, 0, 0) S
1
pero u+v =
(1, 1, 0, 0) / S
1
. Por tanto, S
1
no es subespacio vectorial.
(b) Es claro que 0 = (0, 0, 0, 0) / S
2
. Por tanto, S
2
no es subespacio vectorial.
(c) La ecuacin
x
2
+y
2
+z
2
+t
2
= 0
slo es vlida en R si x = y = z = t = 0. Por tanto, S
3
= {0} y, en consecuen-
cia, es subespacio vectorial de R
4
.
Els autors, 2002; Edicions UPC, 2002
9.3. INTERSECCIN DE SUBESPACIOS VECTORIALES 245
9.3. Interseccin de subespacios vectoriales
Ejercicio 9 Dados los subespacios S = {(x, y, z) R
3
: x + y + z = 0} y
T = {(, +, ) : , R} de R
3
. Determinar el subespacio interseccin
S T y expresarlo paramtricamente.
Solucin: En primer lugar debemos observar que el subespacio T viene dado
en forma paramtrica. Cualquier vector v = (x, y, z) de T debe cumplir
x =
y = +
z =
_
_
_
en donde , R. De estas ecuaciones se deduce
y +z = 2
y, de aqu, se obtiene
y +z = 2x
es decir
2x y z = 0
Por tanto, podemos escribir
T = {(x, y, z) R
3
: 2x y z = 0}
De este modo, es evidente que
S T = {(x, y, z) R
3
: x +y +z = 0 y 2x y z = 0}
Para expresarlo en forma paramtrica debemos resolver el sistema lineal formado
por las dos ecuaciones denidoras del subespacio:
x +y +z = 0
2x y z = 0

Sumando las dos ecuaciones se obtiene


x = 0
y, por tanto,
y = z
Si ahora hacemos z = , con R, entonces
x = 0
y =
z =
_
_
_
y, en consecuencia
S T = {(0, , ) : R}
Els autors, 2002; Edicions UPC, 2002
246 CAPTULO 9. ESPACIOS VECTORIALES
9.4. Subespacio engendrado por un conjunto
Ejercicio 10 Dado el conjunto A = {(1, 1, 1), (1, 0, 1)} de vectores de R
3
.
Hallar el subespacio engendrado por A.
Solucin: Es claro que por construccin
hAi = {(1, 1, 1) +(1, 0, 1) : , R}
Por tanto, si (x, y, z) hAi, entonces deben existir , R tales que
(x, y, z) = (1, 1, 1) +(1, 0, 1)
Por tanto, efectuando operaciones
(x, y, z) = ( +, , )
Teniendo presente que dos vectores son iguales si tienen las mismas compo-
nentes, se tiene
x = +
y =
z =
_
_
_
Sumando las ecuaciones, primera y tercera, se obtiene
x +z = 2
Y de la segunda, se obtiene
x +z = 2y
Por consiguiente
hAi = {(x, y, z) R
3
: x 2y +z = 0}
9.5. Suma de subespacios vectoriales
Ejercicio 11 En el espacio vectorial R
4
se considera el subespacio S engendrado
por los vectores u
1
= (1, 2, 0, 3), u
2
= (2, 1, 2, 4), u
3
= (0, 2, 1, 1), y el
subespacio T engendrado por v
1
= (1, 0, 1, 4), v
2
= (1, 1, 1, 0). Calcular S+T
y determinar si la suma es o no directa.
Solucin: Un vector (x, y, z, t) de S +T debe cumplir
(x, y, z, t) = (1, 2, 0, 3)+(2, 1, 2, 4)+(0, 2, 1, 1)+(1, 0, 1, 4)+(1, 1, 1, 0)
Efectuando operaciones, se tiene
(x, y, z, t) = (+2 ++, 2+ +2 +, 2 , 3+4 + +4)
Els autors, 2002; Edicions UPC, 2002
9.6. COMBINACIONES LINEALES 247
es decir,
E
1
: x = + 2 + +
E
2
: y = 2 + + 2 +
E
3
: z = 2
E
4
: t = 3 + 4 + + 4
_

_
De aqu, por sucesivas reducciones, se obtiene
5E
1
+ 4E
2
+ 9E
3
+E
4
: 5x + 4y + 9z +t = 0
Por consiguiente,
S +T = {(x, y, z, t) R
4
: 5x + 4y + 9z +t = 0}
Obsrvese que se cumple
v
1
= u
1
+u
3
Por tanto,
v
1
S T
y, en consecuencia,
S T 6= {0}
y la suma no es directa.
9.6. Combinaciones lineales
Ejercicio 12 Escribir el vector w = (1, 1, 1) como una combinacin lineal de
los vectores del sistema S = (v
1
, v
2
, v
3
) de R
3
, siendo v
1
= (1, 2, 3), v
2
=
(0, 1, 2), v
3
= (1, 0, 1).
Solucin: Es necesario encontrar escalares
1
,
2
,
3
tales que
w =
1
v
1
+
2
v
2
+
3
v
3
o bien,
(1, 1, 1) =
1
(1, 2, 3) +
2
(0, 1, 2) +
3
(1, 0, 1)
o bien,
(1, 1, 1) = (
1

3
, 2
1
+
2
, 3
1
+ 2
2
+
3
)
Igualando componentes, se obtiene el siguiente sistema lineal

3
= 1
2
1
+
2
= 1
3
1
+ 2
2
+
3
= 1
_
_
_
cuya soluciones son,
3
=
1
1,
2
= 2
1
+ 1,
1
=
1
. Por ejemplo, para
obtener una solucion particular, puede tomarse
1
= 1. Entonces
2
= 1 y

3
= 0, y se tiene
w = 1v
1
+ (1)v
2
+ 0v
3
= v
1
v
2
Otras elecciones para
1
producen otras maneras de escribir w como una com-
binacin lineal de S.
Els autors, 2002; Edicions UPC, 2002
248 CAPTULO 9. ESPACIOS VECTORIALES
Ejercicio 13 Escribir el polinomio p(x) = 2+6x
2
como una combinacin lineal
de los polinomios p
1
(x) = 2 +x+4x
2
, p
2
(x) = 1 x+3x
2
, p
3
(x) = 3 +2x+5x
2
de R
2
[x].
Solucin: Es preciso hallar escalares
1
,
2
,
3
tales que
p(x) =
1
p
1
(x) +
2
p
2
(x) +
3
p
3
(x)
es decir,
2 + 6x
2
=
1
(2 +x + 4x
2
) +
2
(1 x + 3x
2
) +
3
(3 + 2x + 5x
2
)
efectuando operaciones se obtiene
2 + 6x
2
= (2
1
+
2
+ 3
3
) + (
1

2
+ 2
3
)x + (4
1
+ 3
2
+ 5
3
)x
2
Por el prinicipio de identidad de polinomios, se obtiene el siguiente sistema
lineal
2
1
+
2
+ 3
3
= 2

2
+ 2
3
= 0
4
1
+ 3
2
+ 5
3
= 6
_
_
_
cuya solucin es:
1
= 4,
3
= 2,
2
= 0. Por tanto,
p(x) = 4p
1
(x) + 0p
2
(x) + (2)p
3
(x) = 4p
1
(x) 2p
3
(x)
Ejercicio 14 Averiguar si la matriz
A =

6 3
0 8

es o no una combinacin lineal de las matrices


M
1
=

1 2
1 3

, M
2
=

0 1
2 4

, M
3
=

4 2
0 2

de M
2
(R).
Solucin: Se trata de encontrar
1
,
2
,
3
R tales que
A =
1
M
1
+
2
M
2
+
3
M
3
es decir

6 3
0 8

=
1

1 2
1 3

+
2

0 1
2 4

+
3

4 2
0 2

Efectuando operaciones se obtiene

6 3
0 8

=


1
+ 4
3
2
1
+
2
2
3

1
+ 2
2
3
1
+ 4
2
2
3

Els autors, 2002; Edicions UPC, 2002


9.7. CLAUSURA LINEAL 249
De esta igualdad de matrices se obtiene el siguiente sistema

1
+ 4
3
= 6
2
1
+
2
2
3
= 3

1
+ 2
2
= 0
3
1
+ 4
2
2
3
= 8
_

_
cuya solucin es:
1
= 2,
3
= 1,
2
= 1. Por tanto,
A = 2M
1
+M
2
+M
3
9.7. Clausura lineal
Ejercicio 15 Dados los vectores v
1
= (3, 1, 1), v
2
= (1, 2, 0), v
3
= (0, 7, 1)
de R
3
, encontrar a para que el vector w = (1, 5, a) pertenezca a la clausura lineal
de dichos vectores.
Solucin: Hemos de encontrar a de manera que se cumpla
w hv
1
, v
2
, v
3
i
es decir
w =
1
v
1
+
2
v
2
+
3
v
3
para ciertos
1
,
2
,
3
R. Por tanto tenemos
(1, 5, a) =
1
(3, 1, 1) +
2
(1, 2, 0) +
3
(0, 7, 1)
es decir
(1, 5, a) = (3
1

2
,
1
+ 2
2
+ 7
3
,
1

3
)
Por tanto, se tiene el sistema
3
1

2
= 1

1
+ 2
2
+ 7
3
= 5

3
= a
_
_
_
De la primera ecuacin se tiene
2
= 3
1
1. Sustituyendo este resultado en la
segunda se obtiene
3
= 1
1
. Sustituyendo este ltimo resultado en la tercera
ecuacin se obtiene a = 1.
Ejercicio 16 Hallar un sistema homogneo de ecuaciones lineales que tenga
como subespacio solucin F = h(1, 1, 1, 1), (2, 1, 0, 3)i.
Solucin: Consideremos una solucin arbitraria de este sistema (x, y, z, t).
Entonces deben existir
1
,
2
R tales que
(x, y, z, t) =
1
(1, 1, 1, 1) +
2
(2, 1, 0, 3)
Els autors, 2002; Edicions UPC, 2002
250 CAPTULO 9. ESPACIOS VECTORIALES
es decir,
(x, y, z, t) = (
1
+ 2
2
,
1
+
2
,
1
,
1
+ 3
2
)
Por tanto, el siguiente sistema

1
+ 2
2
= x

1
+
2
= y

1
= z

1
+ 3
2
= t
_

_
debe ser compatible. Sustituyendo el valor de
1
= z en las ecuaciones del
sistema se tiene
2
2
= x z

2
= y z
3
2
= t z
Por tanto, debe cumplirse
x z
2
= y z =
t z
3
o bien
x 2y +z = 0
3y 2z t = 0

Obsrvese adems que hemos demostrado que


F =

(x, y, z, t) R
4
: x 2y +z = 0 y 3y 2z t = 0

Ejercicio 17 Hallar un sistema generador S del espacio vectorial de las solu-


ciones del siguiente sistema lineal homogneo:
x y = 0
2x +y +z = 0
x +y z = 0
_
_
_
Suponer que los coecientes del sistema son elementos de: (a) R; (b) Z
2
; (c)
Z
5
.
Solucin: En cualquiera de los tres casos es preciso resolver el sistema.
(a) En este caso, su solucin es: x = y = z = 0. Por tanto, S = ((0, 0, 0)).
(b) En este caso, el sistema se escribe como sigue
[x] + [y]) = [0]
[y] + [z] = [0]
[x] + [y] + [z] = [0]
_
_
_
(mod 2)
cuya solucin es [x] = [y] = [z] = [0]. Por tanto, S = (([0] , [0] , [0])).
Els autors, 2002; Edicions UPC, 2002
9.7. CLAUSURA LINEAL 251
(c) En este caso, el sistema se escribe como sigue
[x] + [4y]) = [0]
[2x] + [y] + [z] = [0]
[x] + [y] + [4z] = [0]
_
_
_
(mod 5)
De la suma de las dos primeras ecuaciones, multiplicando la primera por [3], se
obtiene
[3y] + [z] = [0]
es decir,
[z] = [2y]
De la suma de la segunda y tercera, multiplicando la tercera por [3], se obtiene
[4y] + [3z] = [0]
es decir, multiplicando por [2],
[3y] + [z] = [0]
o sea, obtenemos que [z] = [2y]. Por tanto, las soluciones del sistema son:[x] =
[y] , [z] = [2y] , [y] = [y]. Cualquier solucin del sistema es de la forma ([y] , [y] , [2y])
con [y] Z
5
, es decir,
([y] , [y] , [2y]) = [y] ([1] , [1] , [2])
Por consiguiente, S = (([1] , [1] , [2])).
Ejercicio 18 En el espacio vectorial R
3
se consideran los subespacios vectori-
ales
S
1
= {(x, y, z) R
3
: x +y +z = 0}
S
2
= {(, 2, 3) : R}
Demostrar que R
3
= S
1
S
2
.
Solucin: Primero debemos comprobar que S
1
S
2
= {(0, 0, 0)} y, segundo,
que S
1
+ S
2
= R
3
. En efecto, si u = (x, y, z) S
1
S
2
, entonces se cumple
x +y +z = 0, pues u S
1
, y = 2x, z = 3x ya que u S
2
. Por tanto,
x + 2x + 3x = 5x = 0
o sea x = 0; de donde, y = z = 0. En consecuencia, S
1
S
2
= {(0, 0, 0)}.
Consideremos u = (x, y, z) R
3
, debemos encontrar v S
1
y w S
2
tales que
u = v +w
Es claro, por otra parte, que si (x, y, z) S
1
, entonces z = x y. Por tanto,
(x, y, x y) = x(1, 0, 1) +y(0, 1, 1)
Els autors, 2002; Edicions UPC, 2002
252 CAPTULO 9. ESPACIOS VECTORIALES
y, en consecuencia,
S
1
= h(1, 0, 1), (0, 1, 1)i
Por tanto, si v S
1
, entonces v = (1, 0, 1) + (0, 1, 1) y, si w S
2
,
entonces w = (, 2, 3). Entonces
(x, y, z) = (1, 0, 1) +(0, 1, 1) +(1, 2, 3)
o bien
+ = x
+ 2 = y
+ 3 = z
Conocidos x, y, z, y resolviendo el sistema, se obtiene
=
x +y +z
6
luego
=
5x y z
6
=
x + 2y z
3
Por consiguiente, S
1
+ S
2
= R
3
. En consecuencia, R
3
= S
1
S
2
. Obsrvese
adems que los dos subespacios son suplementarios.
9.8. Sistemas equivalentes
Ejercicio 19 Consideremos los sistemas S
1
= (p
1
, p
2
, p
3
, p
4
) y S
2
= (q
1
, q
2
, q
3
)
del espacio vectorial R
2
[x], siendo p
1
= 2 + x
2
, p
2
= 1 + 2x + x
2
, p
3
=
2x +x
2
, p
4
= 1 +x, q
1
= 1, q
2
= x, q
3
= x
2
. Demostrar que son equivalentes.
Solucin: Para demostrarlo veremos que los vectores de cada sistema son
combinacin lineal de los del otro. En efecto, es fcil encontrar las siguientes
relaciones
q
1
= p
2
p
3
q
2
= p
2
+p
3
+p
4
q
3
= p
1
2p
2
+ 2p
3
y
p
1
= 2q
1
+q
3
p
2
= q
1
+ 2q
2
+q
3
p
3
= 2q
2
+q
3
p
4
= q
1
+q
2
Por tanto, S
1
S
2
.
Els autors, 2002; Edicions UPC, 2002
9.9. DEPENDENCIA E INDEPENDENCIA LINEAL 253
9.9. Dependencia e independencia lineal
Ejercicio 20 Cules de las siguientes familias nitas de elementos de F(R, R)
son libres? (a) (f
1
, f
2
, f
3
), denidas como sigue: f
1
(x) = sinx, f
2
(x) = cos x, f
3
(x) =
1; (b) (g
1
, g
2
), denidas por g
1
(x) = e
x
, g
2
(x) = e
x+2
; (c) (h
1
, h
2
, h
3
), denidas
como h
1
(x) = 2, h
2
(x) = x + 2, h
3
(x) = x
2
; (d) (j
1
, j
2
, j
3
), j
1
(x) = 0, j
2
(x) =
1, j
3
(x) = x + 1.
Solucin: (a) Consideremos

1
f
1
+
2
f
2
+
3
f
3
= 0
Entonces, para todo x R se cumple

1
sinx +
2
cos x +
3
1 = 0
En particular, para x = 0, x = /2, x = , se tiene

2
+
3
= 0

1
+
3
= 0

2
+
3
= 0
_
_
_
cuya solucin es
3
= 0,
2
= 0,
1
= 0. Por tanto, la familia es libre.
(b) Consideremos

1
g
1
+
2
g
2
= 0
Entonces, para todo x R se cumple

1
e
x
+
2
e
x+2
= 0
es decir,
(
1
+
2
e
2
)e
x
= 0
De donde

1
= e
2

2
Tomando
2
= 1 y
1
= e
2
, se tiene
e
2
g
1
+g
2
= 0
Por tanto, la familia es ligada.
(c) Consideremos

1
h
1
+
2
h
2
+
3
h
3
= 0
Entonces, para todo x R, se cumple

1
2 +
2
(x + 2) +
3
x
2
= 0
es decir,
2(
1
+
2
) +
2
x +
3
x
2
= 0
Els autors, 2002; Edicions UPC, 2002
254 CAPTULO 9. ESPACIOS VECTORIALES
De donde se obtiene
2(
1
+
2
) = 0

2
= 0

3
= 0
_
_
_
cuya solucin es
1
=
2
=
3
= 0. Por tanto, la familia es libre.
(d) La familia es ligada ya que contiene el vector cero.
Ejercicio 21 Hallar los valores de a y b para que los vectores (3, 2, a, 5), (2, 3, 5, a), (0, 13, b, 7)
de R
4
sean linealmente dependientes.
Solucin: Considermos

1
(3, 2, a, 5) +
2
(2, 3, 5, a) +
3
(0, 13, b, 7) = (0, 0, 0, 0)
es decir,
(3
1
+ 2
2
, 2
1
3
2
+ 13
3
, a
1
+ 5
2
+b
3
, 5
1
+a
2
+ 7
3
) = (0, 0, 0, 0)
Por tanto,
3
1
+ 2
2
= 0
2
1
3
2
+ 13
3
= 0
a
1
+ 5
2
+b
3
= 0
5
1
+a
2
+ 7
3
= 0
De las dos primeras ecuaciones se obtiene

2
=
3
2

1
y
3
=
1
2

1
Sustituyendo estos resultados en las dos siguientes y suponiendo que
1
6= 0 (ya
que de lo contrario seran linealmente independientes) se obtiene
2a b = 15
3a = 3

de donde resulta
a = 1 y b = 13
Ejercicio 22 En el espacio vectorial de los nmeros reales R sobre el cuerpo
de los nmeros racionales Q, probar que los vectores 1,

2,

5 son linealmente
independientes.
Solucin: Consideremos

1
1 +
2

2 +
3

5 = 0
con
1
,
2
,
3
Q. Si fuera
1
6= 0, entonces

1
=
2

2
3

5
Els autors, 2002; Edicions UPC, 2002
9.10. BASES DE UN ESPACIO VECTORIAL DE DIMENSIN FINITA 255
es decir,
2

2
3

5 sera un nmero racional, lo que no es posible. Por


tanto,
1
= 0. De aqu se obtiene

2 +
3

5 = 0
Si fuera
2
6= 0, entonces

2
=

3
es decir, (

5/

2)
3
sera un nmero racional, lo que no es posible. Por tanto,

2
=
3
= 0. En consecuencia, los vectores son linealmente independientes.
9.10. Bases de un espacio vectorial de dimensin
nita
Ejercicio 23 Demostrar que los vectores u
1
= (1, 1, 1), u
2
= (1, 1, 2) y u
3
=
(1, 2, 3) forman una base de R
3
, y encontrar las coordenadas del vector v =
(6, 9, 14) en dicha base.
Solucin: Sabemos que la dimensin del espacio vectorial es tres. Por tanto,
los vectores formarn una base si son linealmente independientes. Para ver esto,
consideremos

1
(1, 1, 1) +
2
(1, 1, 2) +
3
(1, 2, 3) = (0, 0, 0)
es decir,
(
1
+
2
+
3
,
1
+
2
+ 2
3
,
1
+ 2
2
+ 3
3
) = (0, 0, 0)
Por tanto, se obtiene el sistema siguiente

1
+
2
+
3
= 0

1
+
2
+ 2
3
= 0

1
+ 2
2
+ 3
3
= 0
_
_
_
cuya solucin es
1
=
2
=
3
= 0. Por tanto, los vectores son linealmente
independientes y, en consecuencia, forman base. Las coordenadas (x, y, z) de v
en esta base cumplen
x(1, 1, 1) +y(1, 1, 2) +z(1, 2, 3) = (6, 9, 14)
es decir,
x +y +z = 6
x +y + 2z = 9
x + 2y + 3z = 14
_
_
_
cuya solucin es x = 1, y = 2 y z = 3. Por consiguiente, las coordenadas de v
son (1, 2, 3) en la base en cuestin.
Els autors, 2002; Edicions UPC, 2002
256 CAPTULO 9. ESPACIOS VECTORIALES
Ejercicio 24 En el espacio vectorial F(R, R), se consideran las funciones f
1
, f
2
, f
3
, f
4
, f
5
denidas como sigue: f
1
(x) = 1, f
2
(x) = sin
2
x, f
3
(x) = cos
2
x, f
4
(x) = sin2x, f
5
(x) =
cos2x. Se pide: (a) estudiar su dependencia o independencia lineal; (b) deter-
minar la dimensin y una base del subespacio F = hf
1
, f
2
, f
3
, f
4
, f
5
i; (c) calcu-
lar las coordenadas de f y g con respecto a la base encontrada en (b), siendo
f(x) = cos2x +sin2x y g(x) = cosx.
Solucin: (a) Los vectores son linealmente dependientes, ya que se tiene
f
3
=
1
2
f
1
+
1
2
f
5
f
2
=
1
2
f
1

1
2
f
5
pues, cos
2
x =
1
2
(1 +cos2x) y sin
2
x =
1
2
(1 cos2x).
(b) Por las relaciones anteriores y, aplicando transformaciones elementales,
se tiene
(f
1
, f
2
, f
3
, f
4
, f
5
) (f
1
, f
4
, f
5
)
Por tanto,
F = hf
1
, f
2
, f
3
, f
4
, f
5
i = hf
1
, f
4
, f
5
i
Vamos a probar que f
1
, f
4
, f
5
son linealmente independientes. Consideremos

1
f
1
+
2
f
4
+
3
f
5
= 0
es decir, para todo x R se cumple

1
1 +
2
sin2x +
3
cos2x = 0
Tomando x = 0, x = /4, x = /2 se tiene el sistema siguiente

1
+
3
= 0

1
+
2
= 0

3
= 0
_
_
_
cuya solucin es
1
=
2
=
3
= 0. En consecuencia, dimF = 3 y (f
1
, f
4
, f
5
)
es una base de F.
(c) Es claro que
f = 0f
1
+ 0f
4
+ 1f
5
Por tanto, las coordenadas de f en la base considerada son (0, 0, 1). Por otra
parte, se cumple g / F ya que de lo contrario se tendra para todo x R
cosx = +sin2x +cos2x
Tomando x = 0 y x = , se obtendra
1 = +
1 = +
lo que es una contradiccin. Por consiguiente, no tiene sentido hablar de coor-
denadas en F.
Els autors, 2002; Edicions UPC, 2002
9.11. DIMENSIN DE UN SUBESPACIO VECTORIAL 257
9.11. Dimensin de un subespacio vectorial
Ejercicio 25 Consideremos el espacio vectorial R
n
[x] de los polinomios con
coecientes reales de grado menor o igual que n. Se pide: (a) demostrar que el
polinomio x
n
y sus n primeras derivadas forman una base de R
n
[x]; (b) estudiar
si los vectores p
1
(x) = 1 + 3x + 5x
2
, p
2
(x) = 1 + 2x
2
, p
3
(x) = 3 + 3x +x
2
son
o no linealmente independientes; (c) sean r
1
(x) = 1 + x
2
, r
2
(x) = 1 x
2
y
S
1
= hr
1
(x), r
2
(x)i, estudiar si p(x) y r(x) pertenecen a S
1
, siendo p(x) =
1 + 5x
2
, r(x) = 1 + x; (d) sea S
2
= hp
1
(x), p
2
(x), p
3
(x)i, calcular S
1
S
2
y
S
1
+S
2
.
Solucin: (a) Se cumple:
f
0
(x) = x
n
f
1
(x) = nx
n1
f
2
(x) = n(n 1)x
n2
.
.
.
f
n1
(x) = n(n 1)(n 2) 2x
f
n
(x) = n!
Hay que probar que (f
0
(x), f
1
(x), ..., f
n
(x)) es una base de R
n
[x]. Cualquier
polinomio p(x) de R
n
[x] es de la forma
p(x) = a
0
+a
1
x + +a
n1
x
n1
+a
n
x
n
expresndose tambin como sigue:
p(x) =
a
o
n!
f
n
(x) +
a
1
n(n 1) 2
f
n1
(x) + +
a
n1
n
f
1
(x) +a
n
f
0
(x)
es decir, p(x) es combinacin lineal de f
0
(x), f
1
(x), ..., f
n
(x). Por otra parte,
sabemos que dimR
n
[x] = n+1. Por tanto, (f
0
(x), f
1
(x), ..., f
n
(x)) es una base.
(b) Obsrvese que p
3
(x) = p
1
(x) p
2
(x). Por tanto, son linealmente depen-
dientes.
(c) Para que p(x) hr
1
(x), r
2
(x)i deben existir
1
,
2
R tales que
p(x) =
1
r
1
(x) +
2
r
2
(x)
es decir,
1 + 5x
2
=
1
(1 +x
2
) +
2
(1 x
2
)
De aqu se obtiene el sistema

1
+
2
= 1

2
= 5

cuya solucin es
2
= 2,
1
= 3. Por tanto, p(x) S
1
. Del mismo modo,
r(x) hr
1
(x), r
2
(x)i debe cumplirse
r(x) =
1
r
1
(x) +
2
r
2
(x)
Els autors, 2002; Edicions UPC, 2002
258 CAPTULO 9. ESPACIOS VECTORIALES
es decir,
1 +x =
1
(1 +x
2
) +
2
(1 x
2
)
o bien,
1 +x =
1
+
2
+ 0x + (
1

2
)x
2
lo que no es posible, ya que r(x) tiene coeciente 1 en x y, en cambio,
1
r
1
(x)+

2
r
2
(x) tiene coeciente 0 en x. Por tanto, r(x) / S
1
.
(d) Por (b) se tiene S
2
= hp
1
(x), p
2
(x)i y dimS
2
= 2. Por otro lado,
(r
1
(x), r
2
(x)) es una base de S
1
y dimS
1
= 2. Para determinar p(x) de manera
que p(x) S
1
S
2
debe cumplirse
p(x) = p
1
(x) +p
2
(x) y p(x) = r
1
(x) +r
2
(x)
es decir,
(1 + 3x + 5x
2
) +(1 + 2x
2
) = (1 +x
2
) +(1 x
2
)
o bien,
+ 3x + (5 + 2)x
2
= + + ( )x
2
Por tanto, tenemos el siguiente sistema
= +
3 = 0
5 + 2 =
_
_
_
cuya solucin es = 0, =
1
2
, =
3
2
. Tomando = 1, un vector de la
interseccin es 1 + 2x
2
. Por consiguiente, S
1
S
2
=

1 + 2x
2

y dim(S
1

S
2
) = 1. Entonces
dim(S
1
+S
2
) = dimS
1
+dimS
2
dim(S
1
S
2
) = 2 + 2 1 = 3
Es claro que S
1
+S
2
= hp
1
(x), p
2
(x), r
1
(x), r
2
(x)i. Ahora bien, slo tres de estos
vectores son linealmente independientes. Para encontrarlos, consideremos
(1 + 3x + 5x
2
) +(1 + 2x
2
) +(1 +x
2
) +(1 x
2
) = 0
de donde se obtiene
( + +) + 3x + (5 + 2 + )x
2
= 0
Por tanto, debe cumplirse
+ + = 0
3 = 0
5 + 2 + = 0
_
_
_
De aqu se obtiene, = 0, = 2 y = . Tomando, por ejemplo, = 1,
entonces = 2 y = 1 y, en consecuencia, tenemos
r
2
(x) = 2p
2
(x) r
1
(x)
es decir, r
2
(x) depende linealmente de los otros. Por tanto, (p
1
(x), p
2
(x), r
1
(x))
es una base de S
1
+S
2
.
Els autors, 2002; Edicions UPC, 2002
9.12. ESPACIO VECTORIAL COCIENTE 259
9.12. Espacio vectorial cociente
Ejercicio 26 Sea E un espacio vectorial de dimensin 3 y (e
1
.e
2
, e
3
) una base de
E. Sea F el subespacio engendrado por (v
1
, v
2
) siendo v
1
= e
1
e
2
y v
2
= e
1
+e
2
.
Hallar una base del espacio vectorial cociente E/F.
Solucin: Es claro que el sistema (v
1
, v
2
) es libre. Por tanto, dimF = 2.
En consecuencia,
dimE/F = dimE dimF = 3 2 = 1
Para hallar una base de E/F basta hallar un vector no nulo de E/F, es decir,
una clase no nula. Si [v] 6= [0], entonces v / F. Por tanto, v puede ser cualquier
vector que sea linealmente independiente con v
1
y v
2
; por ejemplo, podemos
tomar e
3
. Por consiguiente, (e
3
+F) es una base de E/F.
Ejercicio 27 Obtener una base del espacio vectorial cociente R
4
mdulo el sube-
spacio
F = h(1, 0, 1, 1), (1, 2, 1, 1), (2, 2, 2, 2)i
Solucin: Observemos que
(2, 2, 2, 2) = (1, 0, 1, 1) + (1, 2, 1, 1)
Por tanto, dimF = 2. De aqu,
dimR
4
/F = 4 2 = 2
Para obtener una base de R
4
/F basta con hallar una base del subespacio suple-
mentario de F respecto de R
4
. Obtendremos esta base completando la base de F a
una base de R
4
. Sea (e
1
, e
2
, e
3
, e
4
) la base cannica de R
4
y v
1
= (1, 0, 1, 1), v
2
=
(1, 2, 1, 1). Observemos que
e
1
= v
1
e
3
e
4
Por tanto, (v
1
, e
2
, e
3
, e
4
) es una base de R
4
. Observemos tambin que
e
2
=
1
2
v
1
+
1
2
v
2
Por tanto, (v
1
, v
2
, e
3
, e
4
) es una base de R
4
. En consecuencia, (e
3
, e
4
) es una
base del subespacio suplementario de F. Por consiguiente, (e
3
+F, e
2
+F) es una
base de E/F.
9.13. Rango de un sistema de vectores
Ejercicio 28 Determinar, segn los valores de , el rango del sistema S =
(v
1
, v
2
, v
3
) de vectores de R
3
, siendo v
1
= (, 1, 1), v
2
= (1, , 1), v
3
=
(1, 1, ).
Els autors, 2002; Edicions UPC, 2002
260 CAPTULO 9. ESPACIOS VECTORIALES
Solucin: Tomando la base cannica de R
3
, escribimos las coordendas de
estos vectores por las (del mismo modo se hara por columnas) como sigue:
v
1
: 1 1
v
2
: 1 1
v
3
: 1 1
Aplicando T1 se obtiene
v
3
: 1 1
v
2
: 1 1
v
1
: 1 1
aplicando 2 veces T3 se obtiene
v
3
: 1 1
v
2
v
3
: 0 + 1 1
v
1
+v
3
: 0 1 1 +
2
o de forma equivalente
v
3
: 1 1
v
2
v
3
: 0 1 (1 +)
v
1
+v
3
: 0 ( + 1) ( + 1)( 1)
Aplicando T2, suponiendo que + 1 6= 0, se obtiene
v
3
: 1 1
v
2
v
3
: 0 1 (1 +)
v1+v3
+1
: 0 1 1
Aplicando T1, se tiene
v
3
: 1 1
v
1
+v
3
+1
: 0 1 1
v
2
v
3
: 0 1 (1 +)
aplicando T3, se tiene
v
3
: 1 1
v
1
+v
3
+1
: 0 1 1
v
2
v
3
+
(1)(v1+v3)
+1
: 0 0 (1 +) ( 1)
2
o de forma equivalente
v
3
: 1 1
v
1
+v
3
+1
: 0 1 1
v
2
v
3
+
(1)(v
1
+v
3
)
+1
: 0 0
2
+ 2
Els autors, 2002; Edicions UPC, 2002
9.13. RANGO DE UN SISTEMA DE VECTORES 261
De donde obtenemos que si 6= 1, entonces
(v
1
, v
2
, v
3
)

v
3
,
v
1
+v
3
+ 1
, v
2
v
3
+
(1 )(v
1
+v
3
)
+ 1

y, los vectores de este ltimo sistema son linealmente independientes, ya que

2
+ 2 6= 0 para todo R. Por tanto, si 6= 1 entonces rang S = 3.
Si fuese = 1, entonces se tendra
v
3
: 1 1 1
v
2
v
3
: 0 2 0
v
1
v
3
: 0 0 0
Suprimiendo la tercera la se tiene
v
3
: 1 1 1
v
2
v
3
: 0 2 0
Por tanto, si = 1
(v
1
, v
2
, v
3
) (v
3
, v
2
v
3
)
y se tiene rang S = 2. Adems, la relacin de dependencia en este caso es
v
1
v
3
= 0
Ejercicio 29 Determinar el rango del sistema S de R
4
y eventualmente las rela-
ciones de dependencia entre los vectores del sistema, siendo S = (v
1
, v
2
, v
3
, v
4
)
con v
1
= (1, 1, 1, 1), v
2
= (0, 1, 2, 1), v
3
= (1, 0, 2, 3), v
4
= (2, 1, 0, 1).
Solucin: Tomando la base cannica de R
4
, escribimos las coordendas de
estos vectores por columnas (del mismo modo se hara por las) como sigue:
v
1
v
2
v
3
v
4
1 0 1 2
1 1 0 1
1 2 2 0
1 1 3 1
Aplicando dos veces T3, se tiene
v
1
v
2
v
3
v
1
v
4
2v
1
1 0 0 0
1 1 1 1
1 2 3 2
1 1 2 3
Aplicando de nuevo dos veces T3, se tiene
v
1
v
2
v
3
v
1
+v
2
v
4
2v
1
+v
2
1 0 0 0
1 1 0 0
1 2 1 0
1 1 1 4
Els autors, 2002; Edicions UPC, 2002
262 CAPTULO 9. ESPACIOS VECTORIALES
Por tanto,
rang(v
1
, v
2
, v
3
, v
4
) = rang(v
1
, v
2
, v
1
+v
2
+v
3
, 2v
1
+v
2
+v
4
) = 4
ya que los vectores del sistema (v
1
, v
2
, v
1
+ v
2
+ v
3
, 2v
1
+ v
2
+ v
4
) son
linealmente independientes.
9.14. Producto de espacios vectoriales. Isomor-
smos de espacios vectoriales
Ejercicio 30 Sean los espacios vectoriales E y F con E = F = R
2
. Calcular
una base del espacio vectorial producto E F asociada a la base natural de R
2
.
Solucin: Sabemos que el espacio vectorial EF es de dimensin 4, siendo
una base los vectores v
1
= (e
1
, 0), v
2
= (e
2
, 0), v
3
= (0, e
1
) y v
4
= (0, e
2
).
Sabemos que
R
2
R
2

= R
2
R
2

= (RR) (R R)

= R R R R

= R
4
De aqu, podemos identicar el vector v
1
= (e
1
, 0) de R
2
R
2
con el vector
(1, 0, 0, 0) de R
4
. De este modo, tenemos
((1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1))
es una base del espacio producto.
9.15. Cambio de coordenadas
Ejercicio 31 Calcular la matriz de cambio de la base B
1
= ((1, 1, 0), (1, 0, 2), (0, 2, 5))
a la base B
2
= ((0, 1, 1), (1, 1, 1), (3, 1, 0)) de R
3
.
Solucin: Sea B
0
la base natural de R
3
. Sabemos que la matriz de paso de
B
1
a B
0
es
P =
_
_
1 1 0
1 0 2
0 2 5
_
_
y la matriz de paso de B
2
a B
0
es
Q =
_
_
0 1 3
1 1 1
1 1 0
_
_
Si (x
1
, y
1
, z
1
) son las coordenadas de un vector en B
1
y (x
2
, y
2
, z
2
) son las co-
ordenadas del mismo vector en B
2
. Entonces, se cumple
_
_
1 1 0
1 0 2
0 2 5
_
_
_
_
x
1
y
1
z
1
_
_
=
_
_
0 1 3
1 1 1
1 1 0
_
_
_
_
x
2
y
2
z
2
_
_
Els autors, 2002; Edicions UPC, 2002
9.15. CAMBIO DE COORDENADAS 263
como que las matrices de cambio son siempre invertibles, podemos escribir
_
_
0 1 3
1 1 1
1 1 0
_
_
1
_
_
1 1 0
1 0 2
0 2 5
_
_
_
_
x
1
y
1
z
1
_
_
=
_
_
x
2
y
2
z
2
_
_
es decir
_
_
2 3 4
2 5 9
1 2 3
_
_
_
_
x
1
y
1
z
1
_
_
=
_
_
x
2
y
2
z
2
_
_
Por tanto, la matriz de paso de B
1
a B
2
es
Q
1
P =
_
_
2 3 4
2 5 9
1 2 3
_
_
Obsrvese el siguiente diagrama para recordar cmo puede deducirse directa-
mente la matriz en cuestin
B
2
Q
1
B
0
P
B
1
No hay que olvidar que el diagrama para cualquier base B que no sea la natural
es siempre el siguiente
B
0
P
B
en donde la matriz P tiene por columnas las coordenadas de los vectores de la
base B.
Els autors, 2002; Edicions UPC, 2002
264 CAPTULO 9. ESPACIOS VECTORIALES
Els autors, 2002; Edicions UPC, 2002
Captulo 10
Aplicaciones lineales
10.1. Denicin y ejemplos
Ejercicio 32 Estudiar si la aplicacin f : R
2
R dada por f(x, y) = 2x+3y1
es lineal.
Solucin: Sean (x
1
, y
1
), (x
2
, y
2
) R
2
,
f((x
1
, y
1
) + (x
2
, y
2
)) = f(x
1
+x
2
, y
1
+y
2
) = 2(x
1
+x
2
) + 3(y
1
+y
2
) 1 =
= (2x
1
+ 3y
1
) + (2x
2
+ 3y
2
1)
Por otro lado,
f(x
1
, y
1
) +f(x
2
, y
2
) = (2x
1
+ 3y
1
1) + (2x
2
+ 3y
2
1)
As pues, f((x
1
, y
1
) + (x
2
, y
2
)) 6= f(x
1
, y
1
) + f(x
2
, y
2
), por lo que concluimos
que f no es lineal.
Ejercicio 33 Di cules de las siguientes aplicaciones son lineales:
f : R
3
R
3
dada por f(x, y, z) = (2x, x y, 0)
g : R R
3
dada por g(x) = (x, 2, 3x)
h : R
3
R dada por h(x, y, z) = x 3y + 2z
Solucin:
Consideremos f : R
3
R
3
dada por f(x, y, z) = (2x, x y, 0).
Sean (x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
) R
3
:
f((x
1
, y
1
, z
1
) + (x
2
, y
2
, z
2
)) = f(x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) =
= (2(x
1
+x
2
), (x
1
+x
2
)(y
1
+y
2
), 0) = (2x
1
+2x
2
, (x
1
y
1
)+(x
2
y
2
), 0) =
= (2x
1
, x
1
y
1
, 0) + (2x
2
, x
2
y
2
, 0) = f(x
1
, y
1
, z
1
) +f(x
2
, y
2
, z
2
)
265
Els autors, 2002; Edicions UPC, 2002
266 CAPTULO 10. APLICACIONES LINEALES
Sean (x
1
, y
1
, z
1
) R
3
, R:
f((x
1
, y
1
, z
1
)) = f(x
1
, y
1
, z
1
) = (2(x
1
), x
1
y
1
, 0) =
= (2x
1
, x
1
y
1
, 0) = f(x
1
, y
1
, z
1
)
As pues, se cumple
f((x
1
, y
1
, z
1
) + (x
2
, y
2
, z
2
)) = f(x
1
, y
1
, z
1
) +f(x
2
, y
2
, z
2
)
f((x
1
, y
1
, z
1
)) = f(x
1
, y
1
, z
1
)
Por tanto, f es una aplicacin lineal.
Consideremos g : R R
3
dada por g(x) = (x, 2, 3x).
Sean x
1
, x
2
R:
g(x
1
+x
2
) = ((x
1
+x
2
), 2, 3(x
1
+x
2
)) = (x
1
x
2
, 2, 3x
1
+ 3x
2
)
Solucin:
Por otro lado,
g(x
1
) +g(x
2
) = (x
1
, 2, 3x
1
) + (x
2
, 2, 3x
2
) = (x
1
x
2
, 4, 3x
1
+ 3x
2
)
As pues, g(x
1
+x
2
) 6= g(x
1
) +g(x
2
), por lo que g no es lineal.
Consideremos h : R
3
R dada por h(x, y, z) = x 3y + 2z.
Sean (x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
) R
3
:
h((x
1
, y
1
, z
1
) + (x
2
, y
2
, z
2
)) = h(x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) =
= (x
1
+x
2
) 3(y
1
+y
2
) +2(z
1
+z
2
) = x
1
+x
2
3y
1
3y
2
+2z
1
+2z
2
=
= (x
1
3y
1
+ 2z
1
) + (x
2
3y
2
+ 2z
2
) = h(x
1
, y
1
, z
1
) +h(x
2
, y
2
, z
2
)
Sean (x
1
, y
1
, z
1
) R
3
, R:
h((x
1
, y
1
, z
1
)) = h(x
1
, y
1
, z
1
) = x
1
3(y
1
) + 2(z
1
) =
= (x
1
3y
1
+ 2z
1
) = h(x
1
, y
1
, z
1
)
As pues, se cumple
h((x
1
, y
1
, z
1
) + (x
2
, y
2
, z
2
)) = h(x
1
, y
1
, z
1
) +h(x
2
, y
2
, z
2
)
h((x
1
, y
1
, z
1
)) = h(x
1
, y
1
, z
1
)
Por tanto, h es una aplicacin lineal.
Els autors, 2002; Edicions UPC, 2002
10.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL 267
Ejercicio 34 Sea f : M
2
(R) R
4
dada por
f

a b
c d

= (a +b, b +c, c +d, d +a).


Probar que f es lineal.
Solucin: Sean A
1
, A
2
M
2
(R):
A
1
=

a
1
b
1
c
1
d
1

, A
2
=

a
2
b
2
c
2
d
2

Veamos que f es lineal:


f(A
1
+A
2
) = f

a
1
b
1
c
1
d
1

a
2
b
2
c
2
d
2

= f

a
1
+a
2
b
1
+b
2
c
1
+c
2
d
1
+d
2

=
= ((a
1
+a
2
)+(b
1
+b
2
), (b
1
+b
2
)+(c
1
+c
2
), (c
1
+c
2
)+(d
1
+d
2
), (d
1
+d
2
)+(a
1
+a
2
)) =
= ((a
1
+b
1
)+(a
2
+b
2
), (b
1
+c
1
)+(b
2
+c
2
), (c
1
+d
1
)+(c
2
+d
2
), (d
1
+a
1
)+(d
2
+a
2
)) =
= (a
1
+b
1
, b
1
+c
1
, c
1
+d
1
, d
1
+a
1
) + (a
2
+b
2
, b
2
+c
2
, c
2
+d
2
, d
2
+a
2
) =
= f

a
1
b
1
c
1
d
1

+f

a
2
b
2
c
2
d
2

= f(A
1
) +f(A
2
)
Sean R, A =

a b
c d

:
f(A) = f

a b
c d

= f

a b
c d

= (a+b, b+c, c+d, d+a) =


= ((a +b), (b +c), (c +d), (d +a)) = (a +b, b +c, c +d, d +a) =
= f

a b
c d

= f(A)
As pues,
f(A
1
+A
2
) = f(A
1
) +f(A
2
)
f(A
1
) = f(A
1
)
Por tanto, f es lineal.
10.2. Ncleo e imagen de una aplicacin lineal
Ejercicio 35 Calcular el ncleo y la imagen de la aplicacin lineal f : R
2
R
3
denida por f(x, y) = (2x +y, x y, 3y).
Solucin: Calculemos Nuc f:
Nuc f = {(x, y) R
2
: f(x, y) = 0} = {(x, y) R
2
: (2x+y, xy, 3y) = (0, 0, 0)} =
= {(x, y) : 2x +y = 0, x y = 0, 3y = 0} =
Els autors, 2002; Edicions UPC, 2002
268 CAPTULO 10. APLICACIONES LINEALES
= {(x, y) : 2x +y = 0, x y = 0, y = 0} =
= {(x, y) : x = y = 0} = {(0, 0)}
Calculemos Imf:
Imf = {f(x, y), (x, y) R
2
} = {(2x +y, x y, 3y), (x, y) R
2
} =
= {(2x, x, 0) + (y, y, 3y), (x, y) R
2
} =
= {x(2, 1, 0) +y(1, 1, 3), (x, y) R
2
} = h(2, 1, 0), (1, 1, 3)i
As pues,
Nuc f = 0
Imf = h(2, 1, 0), (1, 1, 3)i.
Ejercicio 36 Sea la aplicacin lineal f : R
3
M
2
(R) denida por f(x
1
, x
2
, x
3
) =

x
1
x
2
x
2
x
3
x
3
x
1
x
1
x
2

. Calcular la dimensin y una base de Nuc f e Imf.


Solucin: Calculemos Nuc f:
Nuc f = {(x
1
, x
2
, x
3
) R
3
: f(x
1
, x
2
, x
3
) = 0} =
= {(x
1
, x
2
, x
3
) R
3
:

x
1
x
2
x
2
x
3
x
3
x
1
x
1
x
2

=

0 0
0 0

} =
= {(x
1
, x
2
, x
3
) : x
1
x
2
= 0, x
2
x
3
= 0, x
3
x
1
= 0, x
1
x
2
= 0} =
= {(x
1
, x
2
, x
3
) : x
1
= x
2
= x
3
} = {(x
1
, x
1
, x
1
), x
1
R} =
= {x
1
(1, 1, 1), x
1
R} = h(1, 1, 1)i
As pues,
Nuc f = h(1, 1, 1)i
Por tanto, dim Nuc f = 1, y podemos deducir que dimImf = 2, ya que
dimR
3
= dimNuc f +dimImf 3 = 1+dimImf dimImf = 2
Calculemos ahora Imf:
Imf = {f(x
1
, x
2
, x
3
), (x
1
, x
2
, x
3
) R
3
} =
= {

x
1
x
2
x
2
x
3
x
3
x
1
x
1
x
2

, (x
1
, x
2
, x
3
) R
3
} =
= {

x
1
0
x
1
x
1

x
2
x
2
0 x
2

0 x
3
x
3
0

, (x
1
, x
2
, x
3
) R
3
} =
= {x
1

1 0
1 1

+x
2

1 1
0 1

+x
3

0 1
1 0

, (x
1
, x
2
, x
3
) R
3
} =
Els autors, 2002; Edicions UPC, 2002
10.2. NCLEO E IMAGEN DE UNA APLICACIN LINEAL 269
= h

1 0
1 1

1 1
0 1

0 1
1 0

i
Sabemos que dimImf = 2, por lo que basta tomar dos vectores linealmente
independientes entre los que generan Imf, por ejemplo los dos primeros:
Imf = h

1 0
1 1

1 1
0 1

i.
Ejercicio 37 Sea f un endomorsmo idempotente (ff = f
2
= f). Demostrar:
1. (I f)
2
= I f
2. Nuc f = Im(I f)
3. Imf = Nuc (I f)
Solucin:
1. Veamos que (I f)
2
= I f:
(I f)
2
= (I f) (I f) = I I +I (f) +(f) I +(f) (f) =
= I f f +f
2
= I 2f +f
2
= I 2f +f = I f
2. Veamos que Nuc f = Im(I f): Recordemos:
Nuc f = {u E : f(u) = 0}
Im(I f) = {v E : Existe u E tal que (I f)(u) = v}
) Probemos que Nuc f Im(I f):
u Nuc f f(u) = 0 u f(u) = u 0
(I f)(u) = u u Im(I f)
) Probemos que Nuc f Im(I f):
v Im(If) Existe u E tal que (If)(u) = v I(u)f(u) = v
uf(u) = v f(uf(u)) = f(v) f(u)f
2
(u) = f(v)
f(u) f(u) = f(v) 0 = f(v) v Nuc f
As pues, Nuc f = Im(I f).
Els autors, 2002; Edicions UPC, 2002
270 CAPTULO 10. APLICACIONES LINEALES
3. Veamos que Imf = Nuc (I f): Recordemos:
Imf = {v E : Existe u E tal que f(u) = v}
Nuc (I f) = {u E : (I f)(u) = 0}
) Probemos que Imf Nuc (I f):
v Imf Existe u E tal que f(u) = v f(f(u)) = f(v)
f
2
(u) = f(v) f(u) = f(v) v = f(v)
v f(v) = 0 (I f)(v) = 0 v Nuc (I f)
) Probemos que Imf Nuc (I f):
u Nuc (I f) (I f)(u) = 0 I(u) f(u) = 0
u f(u) = 0 u = f(u) u Imf
As pues, Imf = Nuc(I f).
10.3. Matriz asociada a una aplicacin lineal
Ejercicio 38 Sea la aplicacin lineal f : R
3
R
4
denida por
f(x, y, z) = (2x + 4y + 2z, x 2y z, 3x +y 2z, 5x 5z).
Calcular su matriz asociada en las bases cannicas.
Solucin: Para determinar la matriz asociada a f en las bases cannicas,
debemos expresar las imgenes de e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1) (los
vectores de la base cannica de R
3
) en u
1
= (1, 0, 0, 0), u
2
= (0, 1, 0, 0), u
3
=
(0, 0, 1, 0), u
4
= (0, 0, 0, 1) (la base cannica de R
4
):
f(e
1
) = f(1, 0, 0) = (2, 1, 3, 5) = 2u
1
u
2
+ 3u
3
+ 5u
4
Por tanto, la primera columna de la matriz asociada a f en estas bases ser
_
_
_
_
2
1
3
5
_
_
_
_
(Porque los coecientes de f(e
1
) en la base {u
1
, u
2
, u
3
, u
4
} son (2, 1, 3, 5)
f(e
2
) = f(0, 1, 0) = (4, 2, 1, 0) = 4u
1
2u
2
+u
3
Els autors, 2002; Edicions UPC, 2002
10.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 271
Por tanto, la segunda columna de la matriz asociada a f en estas bases ser
_
_
_
_
4
2
1
0
_
_
_
_
f(e
3
) = f(0, 0, 1) = (2, 1, 2, 5) = 2u
1
u
2
2u
3
5u
4
Por tanto, la tercera columna de la matriz asociada a f en estas bases ser
_
_
_
_
2
1
2
5
_
_
_
_
As pues, la matriz asociada a f en las bases cannicas de R
3
y R
4
es:
_
_
_
_
2 4 2
1 2 1
3 1 2
5 0 5
_
_
_
_
Ejercicio 39 Sea la aplicacin lineal f : R
2
R
2
denida por f(x, y) = (x +
y, xy). Obtener su matriz asociada en la base cannica de R
2
. Obtener tambin
en esta misma base las matrices asociadas a f
2
I y f
3
.
Solucin: Los vectores de la base cannica de R
2
son e
1
= (1, 0), e
2
= (0, 1).
f(e
1
) = f(1, 0) = (1, 1) = e
1
+e
2
f(e
2
) = f(0, 1) = (1, 1) = e
1
e
2
Por tanto, la matriz asociada a f en esta base es:

1 1
1 1

(La primera columna de la matriz est formada por la coecientes de f(e


1
)
en la base {e
1
, e
2
}, y la segunda columna, por los coecientes de f(e
2
) en
{e
1
, e
2
})Calculemos ahora la matriz asociada a f
2
I:
La matriz asociada a f es

1 1
1 1

y la matriz asociada a I es

1 0
0 1

Els autors, 2002; Edicions UPC, 2002


272 CAPTULO 10. APLICACIONES LINEALES
As pues, la matriz asociada a f
2
I es

1 1
1 1

1 0
0 1

=

1 1
1 1

1 1
1 1

1 0
0 1

=
=

2 0
0 2

1 0
0 1

=

1 0
0 1

Calculemos, nalmente, la matriz asociada a f


3
: Como la matriz asociada a f
es

1 1
1 1

la matriz asociada a f
3
es:

1 1
1 1

3
=

1 1
1 1

1 1
1 1

2
=

1 1
1 1

2 0
0 2

=

2 2
2 2

.
Ejercicio 40 Sea f : R
3
R
4
una aplicacin lineal tal que f(e
1
e
3
) =
u
1
, f(e
2
e
3
) = u
1
u
2
y f(2e
3
) = 2u
1
+ 2u
3
, donde B = {e
1
, e
2
, e
3
} es
una base de R
3
y

B = {u
1
, u
2
, u
3
, u
4
} es una base de R
4
. Calcular la matriz
asociada a f en las bases B y

B.
Solucin: Para determinar la matriz asociada a f en las bases B y

B nos
hace falta conocer f(e
1
), f(e
2
) y f(e
3
).
Sabemos que f(2e
3
) = 2u
1
+2u
3
2f(e
3
) = 2u
1
+2u
3
f(e
3
) = u
1
+u
3
Sabemos que f(e
1
e
3
) = u
1
f(e
1
)f(e
3
) = u
1
f(e
1
) = u
1
+f(e
3
)
f(e
1
) = u
1
+u
1
+u
3
f(e
1
) = 2u
1
+u
3
Sabemos que f(e
2
e
3
) = u
1
u
2
f(e
2
) f(e
3
) = u
1
u
2

f(e
2
) = u
1
u
2
+f(e
3
) f(e
2
) = u
1
u
2
+u
1
+u
3

f(e
2
) = 2u
1
u
2
+u
3
As pues,
f(e
1
) = 2u
1
+ 0u
2
+ 1u
3
+ 0u
4
f(e
2
) = 2u
1
1u
2
+ 1u
3
+ 0u
4
f(e
3
) = 1u
1
+ 0u
2
+ 1u
3
+ 0u
4
Por tanto, la matriz asociada a f en las bases B,

B es
_
_
_
_
2 2 1
0 1 0
1 1 1
0 0 0
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
10.3. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 273
Ejercicio 41 Dada la aplicacin lineal f : R
3
R
2
denida por f(x, y, z) =
(2x +y, y z), encontrar la matriz asociada a f en:
las bases cannicas de R
3
y R
2
;
las bases {(1, 1, 1), (0, 1, 2), (0, 2, 1)} de R
3
y {(2, 1), (1, 0)} de R
2
.
Solucin:
Calculemos la matriz de f en las bases cannicas:
Base cannica de R
3
: {e
1
= (1, 0, 0), e
2
= (0, 1, 0), e
3
= (0, 0, 1)}
Base cannica de R
2
: {u
1
= (1, 0), u
2
= (0, 1)}
Para determinar la matriz asociada a f en estas bases, debemos calcular
f(e
1
), f(e
2
), f(e
3
):
f(e
1
) = f(1, 0, 0) = (2, 0) = 2u
1
+ 0u
2
f(e
2
) = f(0, 1, 0) = (1, 1) = u
1
+u
2
f(e
3
) = f(0, 0, 1) = (0, 1) = 0u
1
u
2
Por tanto, la matriz asociada a f en las bases cannicas de R
3
y R
2
es:

2 1 0
0 1 1

Calculemos ahora la matriz de f en las bases siguientes:


Base de R
3
: {v
1
= (1, 1, 1), v
2
= (0, 1, 2), v
3
= (0, 2, 1)}
Base de R
2
: {w
1
= (2, 1), w
2
= (1, 0)}
Para determinar la matriz asociada a f en estas bases, debemos calcular
f(v
1
), f(v
2
), f(v
3
) y expresarlo en la base {w
1
, w
2
}:
f(v
1
) = f(1, 1, 1) = (3, 0) = 3w
2
f(v
2
) = f(0, 1, 2) = (1, 1) = w
1
+ 3w
2
f(v
3
) = f(0, 2, 1) = (2, 1) = w
1
As pues,
f(v
1
) = 0w
1
+ 3w
2
f(v
2
) = w
1
+ 3w
2
f(v
3
) = w
1
+ 0w
2
Por tanto, la matriz asociada a f en las bases {v
1
, v
2
, v
3
} de R
3
y {w
1
, w
2
}
de R
2
es:

0 1 1
3 3 0

Els autors, 2002; Edicions UPC, 2002


274 CAPTULO 10. APLICACIONES LINEALES
Ejercicio 42 Sea f : R
2
R
2
una aplicacin lineal cuya matriz en la base
cannica es A =

1 3
2 4

. Dada la base {u
1
, u
2
}, con u
1
= (2, 5), u
2
= (1, 3),
calcular la matriz de f en esta nueva base.
Solucin: Sabemos que la matriz de f en la base {e
1
= (1, 0), e
2
= (0, 1)}
de R
2
es
A =

1 3
2 4

Queremos encontrar su matriz en la base


{u
1
= (2, 5), u
2
= (1, 3)}
Para ello usarem la siguiente frmula, que nos da la relacin entre las matrices
de una aplicacin lineal respecto a bases distintas:
B = R
1
AP.
donde B es la matriz asociada a f en la base {u
1
, u
2
}, R
1
es la inversa de
la matriz de las coordenadas de la base {u
1
, u
2
} en la base {e
1
, e
2
}, A es la
matriz asociada a f en la base {e
1
, e
2
} y P es la matriz de las coordenadas de
la base {u
1
, u
2
} en la base {e
1
, e
2
}. Calculemos P: P tiene por columnas las
componentes de los vectores {u
1
, u
2
} en la base {e
1
, e
2
}:
u
1
= (2, 5) = 2e
1
+ 5e
2
u
2
= (1, 3) = 1e
1
+ 3e
2
Por tanto,
P =

2 1
5 3

Calculemos R
1
: R
1
es la inversa de la matriz de las coordenadas de {u
1
, u
2
}
en {e
1
, e
2
}, es decir, R
1
= P
1
. Dicho de otro modo, R
1
es la matriz de las
coordenadas de {e
1
, e
2
} en {u
1
, u
2
}:
e
1
= (1, 0) = 3u
1
5u
2
e
2
= (0, 1) = u
1
+ 2u
2
Por tanto,
R
1
=

3 1
5 2

Calculemos nalmente B:
B = R
1
AP =

3 1
5 2

1 3
2 4

2 1
5 3

=
=

3 1
5 2

17 10
24 14

=

27 16
37 22

As pues, la matriz de f en la base {u


1
, u
2
} es

27 16
37 22

Els autors, 2002; Edicions UPC, 2002


10.4. ESPACIOS VECTORIALES ISOMORFOS 275
10.4. Espacios vectoriales isomorfos
Ejercicio 43 Si E es un espacio vectorial de dimensin 1 sobre un cuerpo K,
demostrar que L(E, E) es isomorfo a K.
Solucin: Como dimE = 1, toda base de E est formada por un solo ele-
mento. Sea {e} una base de E. As pues, E = hei.
Sabemos que toda aplicacin lineal f : E E queda denida al dar una imagen
de una base de E, es decir, al dar f(e).
Puesto que f(e) E = hei existe K tal que f(e) = e.
Conocer nos permite calcular la imagen por f de todo vector de E: si v E,
entonces existe K tal que v = e, y
f(v) = f(e) = f(e) = (e) = ()e = ()e = (e) = v
Por tanto, toda aplicacin lineal f : E E consiste en multiplicar por un
escalar. Esto nos lleva a denir la aplicacin
: L(E, E) K
de la forma siguiente: si f(e) = e, entonces (f) = K.
Veamos que es un isomorsmo: es lineal: Sean f, g L(E, E) tales que
(f) = y (g) = .
(f+g)(e) = f(e)+g(e) = e+e = (+)e (f+g) = + = (f)+(g)
Sea K
(f)(e) = f(e) = (e) = ()e (f) = = (f)
As pues,
(f +g) = (f) +(g)
(f) = (f)
es inyectiva:
Nuc = {f L(E, E) : (f) = 0} = {f L(E, E) : f(e) = 0e} =
= {f L(E, E) : f(v) = 0v, v E} = 0
Por tanto, Nuc = 0 inyectiva
es exhaustiva: Sea K. Denamos una aplicacin f L(E, E) como sigue:
f(v) = v, v E
En particular,
f(e) = e (f) = Im Im = K exhaustiva.
Els autors, 2002; Edicions UPC, 2002
276 CAPTULO 10. APLICACIONES LINEALES
10.5. Teoremas de isomorsmo
Ejercicio 44 Sean F y G subespacios vectoriales de E. Se considera la apli-
cacin f : F G E, denida por f(u, v) = u +v.
1. Demostrar que Imf = F +G, y Nuc f = {(u, u) : u F G}.
2. Demostrar que la aplicacin g denida por g(u) = (u, u) es un isomor-
smo de F G en Nuc f.
3. Deducir de los apartados anteriores que dim(F + G) + dim(F G) =
dimF +dimG (Frmula de Grassman).
Solucin:
1. Veamos que Imf = F +G:
Imf = {f(u, v) : (u, v) F G} = {f(u, v) : u F, v G} =
= {u +v : u F, v G} = F +G
Veamos que Nuc f = {(u, u) : u F G}:
Nuc f = {(u, v) F G : f(u, v) = 0} = {(u, v) F G : u +v = 0} =
= {(u, v) FG : v = u} = {(u, u) FG} = {(u, u) : u F, u G} =
= {(u, u) : u F G}
2. Veamos que la aplicacin g : F G Nuc f denida por g(u) = (u, u)
es un isomorsmo:
g es lineal: Sean u, v F G,
g(u+v) = (u+v, (u+v)) = (u+v, uv) = (u, u)+(v, v) = g(u)+g(v)
Sean u F G, K,
g(u) = (u, u) = (u, u) = g(u)
g es inyectiva: veamos que Nuc g = 0
Nuc g = {u F G : g(u) = 0} = {u F G : (u, u) = 0} =
= {u F G : u = 0} = 0
g es exhaustiva: Sea (u, u) Nuc f (u, u) = g(u) (u, u)
Img.
Els autors, 2002; Edicions UPC, 2002
10.6. EL ESPACIO DE LAS APLICACIONES LINEALES 277
3. Veamos que dim(F +G) +dim(F G) = dimF +dimG:
Sabemos que (FG)/Nuc f

= Imf dim((FG)/Nuc f) = dim(Imf)
dim(F G) dim(Nuc f) = dim(Imf)
dim(F G) = dim(Nuc f) +dim(Imf)
dim(F G) = dim(Nuc f) +dim(F +G)
dim(F G) = dim(F G) +dim(F +G)
dim(F) +dim(G) = dim(F G) +dim(F +G)
10.6. El espacio de las aplicaciones lineales
Ejercicio 45 Calcula la dimensin sobre R de los siguientes espacios vectori-
ales:
L(R
2
, R
3
)
L(C, R
5
)
L(R, M
23
(R))
L(L(R
3
, R
4
), M
34
(R))
Solucin:
Calculemos dimL(R
2
, R
3
):
dimL(R
2
, R
3
) = dim(R
2
) dim(R
3
) = 2 3 = 6
Calculemos dimL(C, R
5
):
dimL(C, R
5
) = dim(C) dim(R
5
) = 2 5 = 10
Calculemos dimL(R, M
23
(R)):
dimL(R, M
23
(R)) = dim(R) dim(M
23
(R)) = 1 2 3 = 6
Calculemos dimL(L(R
3
, R
4
), M
34
(R)):
dimL(L(R
3
, R
4
), M
34
(R)) = dim(L(R
3
, R
4
) dim(M
34
(R)) =
= dim(R
3
) dim(R
4
) dim(M
34
(R)) = 3 4 (3 4) = 144
Els autors, 2002; Edicions UPC, 2002
278 CAPTULO 10. APLICACIONES LINEALES
Els autors, 2002; Edicions UPC, 2002
Captulo 11
Matrices
11.1. Denicin de matriz
Ejercicio 46 Cul es el orden de las matrices siguientes?
A =

3 2
5 8

, B =

1 2

3 16

, C =
_
_
_
_
1 2
8 5
7 6
1 1
_
_
_
_
Solucin: La matriz A es cuadrada de orden 2. La matriz B es una matriz
la de orden 4, y la matriz C es de orden 4 2.
Ejercicio 47 De las matrices del ejercicio anterior, decir cules son los valores
de a
21
, b
23
y c
32
.
Solucin: Se tiene a
21
= 5; no existe el valor de b
23
porque la matriz slo
tiene una la; y c
32
= 6.
Ejercicio 48 Construir la matriz A = (a
ij
) de orden 4 3 denida por a
ij
=
2i j.
Solucin: Puesto que a
ij
= 2i j, se tiene
A =
_
_
_
_
1 0 1
3 2 1
5 4 3
7 6 5
_
_
_
_
ya que, por ejemplo, a
42
= 2 4 2 = 8 2 = 6.
11.2. Espacio vectorial de las matrices
Ejercicio 49 Determinar dos matrices X e Y tales que veriquen
2X 5Y =

1 2
0 1

X + 3Y =

2 1
3 0

279
Els autors, 2002; Edicions UPC, 2002
280 CAPTULO 11. MATRICES
Solucin: Sean
A =

1 2
0 1

B =

2 1
3 0

entonces podemos escribir las ecuaciones iniciales como:


2X 5Y = A
X + 3Y = B
por reduccin, multiplicando la segunda ecuacin por 2 y sumndola despus con
la primera, obtenemos:
Y = 2B +A = 2

1 2
0 1

2 1
3 0

=

4 3
3 2

y multiplicando la primera por 3 y la segunda por 5 y sumando despus, se tiene:


X = 3A+ 5B = 3

1 2
0 1

+ 5

2 1
3 0

=

13 1
15 3

Ejercicio 50 Estudiar la dependencia lineal de las tres matrices siguientes:


A =

2 2
4 6

B =

1 4
5 3

C =

0 4
4 8

Solucin: De la siguiente combinacin lineal de la matriz nula

2 2
4 6

1 4
5 3

0 4
4 8

=

0 0
0 0

se obtiene:

2 + 2 4 4
4 + 5 4 6 + 3 8

=

0 0
0 0

luego
2 + = 0
2 4 4 = 0
4 + 5 4 = 0
6 + 3 8 = 0
_

_
cuya solucin es = 0, = 0, = 0. Por consiguiente las matrices A, B y C
son lienalmente independientes.
Ejercicio 51 Determinar y para que las matrices siguientes:
A =

2 1
5 3

B =

5 3
2 1

C =

11
4

Els autors, 2002; Edicions UPC, 2002


11.3. PRODUCTO DE MATRICES 281
sean dependientes. Hallar la relacin de dependencia.
Solucin: Si son dependientes, podemos escribir

2 1
5 3

5 3
2 1

=

11
4

de donde se obtiene

2 + 5 3
5 + 2 3

=

11
4

o sea el sistema
2 + 5 = 11
3 =
5 + 2 = 4
3 =
_

_
De la primera y la tercera se obtiene = 2 y = 3, y sustiyendo estos
resultados en la segunda y la cuarta, tenemos = 11 y = 9.
11.3. Producto de matrices
Ejercicio 52 Sean las matrices
B =

1 2 3
2 1 4

y C =

1 7 13
5 0 5

Existe alguna matriz A, tal que C = AB?


Solucin: La matriz A, en caso de existir, ser cuadrada de orden 2
A =

x y
z t

Entonces
AB =

x y
z t

1 2 3
2 1 4

=

x + 2y 2x y 3x + 4y
z + 2t 2z t 3z + 4t

Por tanto

1 7 13
5 0 5

=

x + 2y 2x y 3x + 4y
z + 2t 2z t 3z + 4t

y, en consecuencia,
x + 2y = 1
2x y = 7
3x + 4y = 13
_
_
_
de donde, y = 1 y x = 3. Adems
z + 2t = 5
2z t = 0
3z + 4t = 5
_
_
_
Els autors, 2002; Edicions UPC, 2002
282 CAPTULO 11. MATRICES
de donde, z = 1 y t = 2. Por consiguiente
A =

3 1
1 2

Ejercicio 53 Efectuar por cajas la multiplicacin AB, con


A =
_
_
2 3 1 0
1 0 0 1
0 1 1 0
_
_
y B =
_
_
_
_
1 1
1 0
1 0
0 1
_
_
_
_
Solucin: Para ello, debemos tener en cuenta que las matrices cuyos ele-
mentos sean las cajas han de ser multiplicables, as como debe ser siempre posible
la multiplicacin de las cajas consideradas como matrices. Descomponemos A
de la siguiente manera
A =
_
_
2 3 1 0
1 0 0 1
0 1 1 0
_
_
=

A
11
A
12
A
21
A
22

y B como sigue
B =
_
_
_
_
1 1
1 0
1 0
0 1
_
_
_
_
=

B
11
B
21

Entonces
AB =

A
11
A
12
A
21
A
22

B
11
B
21

=

A
11
B
11
+A
12
B
21
A
21
B
11
+A
22
B
21

Se tiene
A
11
B
11
+A
12
B
21
=

2 3
1 0

1 1
1 0

1 0
0 1

1 0
0 1

=

6 2
1 2

y
A
21
B
11
+A
22
B
21
=

0 1

1 1
1 0

1 0

1 0
0 1

=

2 0

Por tanto
AB =
_
_
6 2
1 2
2 0
_
_
Els autors, 2002; Edicions UPC, 2002
11.4. MATRIZ ASOCIADA A UNA APLICACIN LINEAL 283
11.4. Matriz asociada a una aplicacin lineal
Ejercicio 54 Una aplicacin lineal aplica (1, 1) en (0, 1, 2) y (1, 1) en (2, 1, 0).
Hallar la matriz que representa a esta aplicacin lineal.
Solucin: Llamamos f a esta aplicacin lineal. Es claro que f : R
2
R
3
y
f(1, 1) = (0, 1, 2)
f(1, 1) = (2, 1, 0)
Si tomamos las bases cannicas de R
2
y R
3
, puesto que (1, 1) = e
1
+ e
2
y
(1, 1) = e
1
+e
2
y f es lineal, se tiene
f(e
1
) +f(e
2
) = (0, 1, 2)
f(e
1
) +f(e
2
) = (2, 1, 0)
De aqu se sigue que
2f(e
1
) = (2, 0, 2)
2f(e
2
) = (2, 2, 2)
es decir,
f(e
1
) = (1, 0, 1)
f(e
2
) = (1, 1, 1)
Por tanto, la matriz asociada a f en las bases cannicas de R
2
y R
3
es la
siguiente matriz
_
_
1 1
0 1
1 1
_
_
11.5. El anillo de las matrices cuadradas
Ejercicio 55 Sean A, B M
n
(K), demostrar que
1. tr (A+B) = tr A+ tr B
2. tr (AB) = tr (BA)
Como consecuencia, probar que no es posible la igualdad AB BA = I
n
.
Els autors, 2002; Edicions UPC, 2002
284 CAPTULO 11. MATRICES
Solucin: (1) Se cumple
tr (A+B) = tr (a
ij
+b
ij
)
=
n
X
i=1
(a
ii
+b
ii
)
=
n
X
i=1
a
ii
+
n
X
i=1
b
ii
= tr A+ tr B
(2) Supongamos que C = AB y D = BA. Entonces se cumple
tr C =
n
X
i=1
c
ii
=
n
X
i=1
_
_
n
X
j=1
a
ij
b
ji
_
_
y
tr D =
n
X
i=1
d
ii
=
n
X
i=1
_
_
n
X
j=1
b
ij
a
ji
_
_
Es claro que tr C = tr D.
Si fuera posible, entonces por (1) y (2) se cumple
tr(AB BA) = trI
tr(AB) tr(BA) = n
0 = n
lo que es una contradiccin.
Ejercicio 56 Una matriz A de M
n
(K) se llama nilpotente si existe un nmero
natural n tal que A
n
= O. Probar que si A es nilpotente, entonces la matriz
I A tiene inversa.
Solucin: Supongamos que existe n N tal que A
n
= O. Observemos que
(I +A+A
2
+ +A
n2
+A
n1
)(I A) = I +A+A
2
+ +A
n2
+A
n1

AA
2
A
n1
A
n
= I A
n
= I
Por tanto
(I A)
1
= I +A+A
2
+ +A
n2
+A
n1
Els autors, 2002; Edicions UPC, 2002
11.6. CAMBIOS DE BASE 285
Ejercicio 57 Dada una matriz A M
n
(K), probar que
1. Existe un nmero natural m n tal que
k
0
I +k
1
A+k
2
A
2
+ +k
m
A
m
= O
2. Si k
0
6= 0, la matriz A es inversible. Cul es su inversa?
Solucin: (1) Puesto que A representa a un endomorsmo f de un espacio
vectorial E sobre K de dimensin n, consideremos las potencias sucesivas de f
f
0
= Id
E
f, f
2
, ..., f
r
= f f
r1
, ...
Si la dimensin de E es n, el espacio vectorial L(E) tiene dimensin n
2
, y las
potencias f
r
no pueden ser todas linealmente independientes. Por tanto, debe
existir algn m n y k
0
, k
1
, ..., k
m
no todos nulos tales que
k
0
Id
E
+k
1
f +k
2
f
2
+ +k
m
f
m
= O
De aqu se obtiene
k
0
I +k
1
A+k
2
A
2
+ +k
m
A
m
= O
(2) Si k
0
6= 0, entonces se cumple que
I +
k
1
k
0
A+
k
2
k
0
A+ +
k
m
k
0
A
m
= O
de donde resulta

k
1
k
0
I
k
2
k
0
A
k
m
k
0
A
m1

A = I
Por tanto
A
1
=
k
1
k
0
I
k
2
k
0
A
k
m
k
0
A
m1
11.6. Cambios de base
Ejercicio 58 Encontrar las coordenadas de un vector de R
3
, respecto de la
base B
1
= ((1, 2, 3), (3, 4, 0), (1, 1, 0)), sabiendo que sus coordenadas respecto de
la base B
2
= ((1, 1, 0), (0, 1, 1), (1, 0, 1)), son (1, 1, 1).
Solucin: Supongamos que B
0
= ((1, 0, 0), (0, 1, 0), (0, 0, 1)) sea la base canni-
ca de R
3
. Observemos el diagrama siguiente
Id
R
3 Id
R
3
R
3
R
3
R
3
B
2
A B
0
B B
1
Els autors, 2002; Edicions UPC, 2002
286 CAPTULO 11. MATRICES
siendo
A =
_
_
1 0 1
1 1 0
0 1 1
_
_
B =
_
_
1 3 1
2 4 1
3 0 0
_
_
1
=
_
_
0 0
1
3
1 1
1
3
4 3
2
3
_
_
En esta misma unidad se expone un mtodo para hallar la matriz inversa. Aqu
suponemos que ya se conoce y simplemente damos el resultado. Entonces
Id
R
3
R
3
R
3
B
2
BA B
1
donde
BA =
_
_
0 0
1
3
1 1
1
3
4 3
2
3
_
_
_
_
1 0 1
1 1 0
0 1 1
_
_
=
_
_
0
1
3
1
3
0
2
3

4
3
1
7
3
14
3
_
_
Por tanto
_
_
0
1
3
1
3
0
2
3

4
3
1
7
3
14
3
_
_
_
_
1
1
1
_
_
=
_
_
2
3

2
3
10
3
_
_
luego, las coordenadas del vector en la base B
1
son (2/3, 2/3, 10/3).
Ejercicio 59 Sea f : R
3
R
3
una aplicacin lineal de matriz asociada en la
base cannica B
0
= (e
1
, e
2
, e
3
)
A =
_
_
1 0 1
1 1 0
0 2 0
_
_
Sean u
1
= e
2
+e
3
, u
2
= e
1
+e
3
y u
3
= e
1
+e
2
los vectores de una nueva base
de R
3
. Calcular la imagen del vector v = u
1
+ 2u
2
+ 2u
3
.
Solucin: Llamemos B
1
a la base nueva. Consideremos el diagrama corre-
spondiente al cambio de base
Id
R
3 f Id
R
3
R
3
R
3
R
3
R
3
B
1
P B
0
A B
0
P
1
B
1
entonces
f
R
3
R
3
B
1
P
1
AP B
1
Els autors, 2002; Edicions UPC, 2002
11.6. CAMBIOS DE BASE 287
Debemos calcular P y P
1
. Es claro que
P =
_
_
0 1 1
1 0 1
1 1 0
_
_
ya que
Id
R
3
R
3
R
3
u
1
u
1
= e
2
+e
3
u
2
u
2
= e
1
+e
3
u
3
u
3
= e
1
+e
2
Se tiene
Id
R
3
R
3
R
3
e
1
e
1
= 1/2(u
1
+u
2
+u
3
)
e
2
e
2
= 1/2(u
1
u
2
+u
3
)
e
3
e
3
= 1/2(u
1
+u
2
u
3
)
ya que
e
2
+e
3
= u
1
e
1
+e
3
= u
2
e
1
+e
2
= u
3
_
_
_
=
e
1
= 1/2(u
1
+u
2
+u
3
)
e
2
= 1/2(u
1
u
2
+u
3
)
e
2
= 1/2(u
1
u
2
+u
3
)
Por tanto
P
1
=
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
y, en consecuencia,
P
1
AP =
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
1 0 1
1 1 0
0 2 0
_
_
_
_
0 1 1
1 0 1
1 1 0
_
_
=
_
_
1
3
2
1
2
1
3
2
3
2
0
1
2

1
2
_
_
La imagen del v = u
1
+ 2u
2
+ 2u
3
es pues
_
_
1
3
2
1
2
1
3
2
3
2
0
1
2

1
2
_
_
_
_
1
2
2
_
_
=
_
_
1
7
0
_
_
es decir,
f(v) = u
1
+ 7u
2
Els autors, 2002; Edicions UPC, 2002
288 CAPTULO 11. MATRICES
11.7. Matrices elementales
Ejercicio 60 Hallar la matriz cannica de rango r de la matriz siguiente
_
_
_
_
_
_
1 3 1 0
2 1 1 1
1 11 1 2
0 2 0 1
1 1 1 3
_
_
_
_
_
_
averiguando tambin las matrices de paso correspondientes.
Solucin:
F
0
2
= F
2
2F
1
F
0
3
= F
3
+F
1
F
0
4
= F
4
+F
1
E
3
E
2
E
1
=
_
_
_
_
_
_
1 0 0 0 0
2 1 0 0 0
1 0 1 0 0
0 0 0 1 0
1 0 0 0 1
_
_
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0 0
2 1 0 0 0
1 0 1 0 0
0 0 0 1 0
1 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 3 1 0
2 1 1 1
1 11 1 2
0 2 0 1
1 1 1 3
_
_
_
_
_
_
=
_
_
_
_
_
_
1 3 1 0
0 7 1 1
0 14 2 2
0 2 0 1
0 4 2 3
_
_
_
_
_
_
F
0
2
=
1
7
F
2
E
4
=
_
_
_
_
_
_
1 0 0 0 0
0
1
7
0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0 0
0
1
7
0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 3 1 0
0 7 1 1
0 14 2 2
0 2 0 1
0 4 2 3
_
_
_
_
_
_
=
_
_
_
_
_
_
1 3 1 0
0 1
1
7

1
7
0 14 2 2
0 2 0 1
0 4 2 3
_
_
_
_
_
_
F
0
1
= F
1
3F
2
F
0
3
= F
3
14F
2
F
0
4
= F
4
2F
2
F
0
5
= F
5
4F
2
E
8
E
7
E
6
E
5
=
_
_
_
_
_
_
1 3 0 0 0
0 1 0 0 0
0 14 1 0 0
0 2 0 1 0
0 4 0 0 1
_
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
11.7. MATRICES ELEMENTALES 289
Entonces
_
_
_
_
_
_
1 3 0 0 0
0 1 0 0 0
0 14 1 0 0
0 2 0 1 0
0 4 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 3 1 0
0 1
1
7

1
7
0 14 2 2
0 2 0 1
0 4 2 3
_
_
_
_
_
_
=
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0 0 0
0 0
2
7

5
7
0 0
10
7
25
7
_
_
_
_
_
_
F
0
3
= F
5
F
0
5
= F
3
E
9
=
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
_
_
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0 0 0 1
0 0 0 1 0
0 0 1 0 0
_
_
_
_
_
_
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0 0 0
0 0
2
7

5
7
0 0
10
7
25
7
_
_
_
_
_
_
=
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0
10
7
25
7
0 0
2
7

5
7
0 0 0 0
_
_
_
_
_
_
F
0
3
=
7
10
F
3
E
10
=
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0
7
10
0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 0
7
10
0 0
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0
10
7
25
7
0 0
2
7

5
7
0 0 0 0
_
_
_
_
_
_
=
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0 1
5
2
0 0
2
7

5
7
0 0 0 0
_
_
_
_
_
_
F
0
1
= F
1

4
7
F
3
F
0
2
= F
2

1
7
F
3
F
0
3
= F
3
+
2
7
F
4
E
13
E
12
E
11
=
_
_
_
_
_
_
1 0
4
7
0 0
0 1
1
7
0 0
0 0 1 0 0
0 0
2
7
1 0
0 0 0 0 1
_
_
_
_
_
_
Entonces
_
_
_
_
_
_
1 0
4
7
0 0
0 1
1
7
0 0
0 0 1 0 0
0 0
2
7
1 0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0
4
7
3
7
0 1
1
7

1
7
0 0 1
5
2
0 0
2
7

5
7
0 0 0 0
_
_
_
_
_
_
=
_
_
_
_
_
_
1 0 0 1
0 1 0
1
2
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
290 CAPTULO 11. MATRICES
Esta matriz es la matriz escalonada reducida por las de A. Ahora debemos
aplicar transformaciones elementales entre columnas para reducirla a su forma
cannica.
C
0
4
= C
4
+C
1
E
0
1
=
_
_
_
_
1 0 0 1
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 1
0 1 0
1
2
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
_
_
1 0 0 1
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
=
_
_
_
_
_
_
1 0 0 0
0 1 0
1
2
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
C
0
4
= C
4
+
1
2
C
2
E
0
2
=
_
_
_
_
1 0 0 0
0 1 0
1
2
0 0 1 0
0 0 0 1
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0
0 1 0
1
2
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0
1
2
0 0 1 0
0 0 0 1
_
_
_
_
=
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
C
0
4
= C
4

5
2
C
3
E
0
3
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1
5
2
0 0 0 1
_
_
_
_
Entonces
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1
5
2
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1
5
2
0 0 0 1
_
_
_
_
=
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
_
_
_
_
_
_
Esta es la matriz cannica de rango 3 equivalente a la matriz dada. Las matrices
de paso son entonces
P = E
0
1
E
0
2
E
0
3
=
_
_
_
_
1 0 0 1
0 1 0
1
2
0 0 1
5
2
0 0 0 1
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
11.7. MATRICES ELEMENTALES 291
y
Q = E
13
E
12
E
1
=
_
_
_
_
_
_
1
5
1
5
0 0
2
5
3
10

1
5
0 0
1
10

1
10
2
5
0 0
7
10

3
5
2
5
0 1
1
5
3 2 1 0 0
_
_
_
_
_
_
y se cumple
_
_
_
_
_
_
1
5
1
5
0 0
2
5
3
10

1
5
0 0
1
10

1
10
2
5
0 0
7
10

3
5
2
5
0 1
1
5
3 2 1 0 0
_
_
_
_
_
_
_
_
_
_
_
_
1 3 1 0
2 1 1 1
1 11 1 2
0 2 0 1
1 1 1 3
_
_
_
_
_
_
_
_
_
_
1 0 0 1
0 1 0
1
2
0 0 1
5
2
0 0 0 1
_
_
_
_
=
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
_
_
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
292 CAPTULO 11. MATRICES
Els autors, 2002; Edicions UPC, 2002
Captulo 12
Determinantes
12.1. Formas multilineales. Propiedades
Ejercicio 61 Sea el espacio vectorial R
2
. Se considera la aplicacin f : R
2

R
2
R denida por
f(x, y) = x
1
y
2
x
2
y
1
con x = (x
1
, x
2
), y = (y
1
, y
2
). Estudiar si f es una forma bilineal. Es simtri-
ca? Es antisimtrica? Es alternada?
Solucin: Veamos que f es lineal respecto al primer factor; del mismo modo
se vera la linealidad respecto del segundo factor.
f(ax, y) = ax
1
y
2
ax
2
y
1
= a(x
1
y
2
x
2
y
1
)
= af(x, y)
f(x +x
0
, y) = (x
1
+x
0
1
)y
2
(x
2
+x
0
2
)y
1
= x
1
y
2
x
2
y
1
+x
0
1
y
2
x
0
2
y
1
= f(x, y) +f(x
0
, y)
Por tanto, f es una forma multilineal; f no es simtrica, ya que si hacemos x =
(1, 1) y y = (3, 4), tenemos f(x, y) = 1 y f(y, x) = 1, luego f(x, y) 6= f(y, x);
f es antisimtrica ya que
f(y, x) = y
1
x
2
y
2
x
1
= (x
1
y
2
x
2
y
1
)
= f(x, y)
Al ser f antisimtrica y 2 6= 0, f es alternada.
293
Els autors, 2002; Edicions UPC, 2002
294 CAPTULO 12. DETERMINANTES
Ejercicio 62 En el espacio vectorial M
2
(R) de las matrices cuadradas de orden
2 sobre R, se dene la aplicacin f : M
2
(R) R por
f(A, B) = tr(AB)
Probar que f es una forma bilineal simtrica.
Solucin: Se cumple
f(A, B) = tr((A)B)
= tr(AB)
= f(A, B)
y
f(A
1
+A
2
, B) = tr((A
1
+A
2
)B)
= tr(A
1
B +A
2
B)
= tr(A
1
, B) +tr(A
2
, B)
= f(A
1
, B) +f(A
2
, B)
Luego f es lineal respecto al primer factor; anlogamente se comprueba que es
lineal respecto al segundo factor. Por tanto, f es una forma bilineal. Se cumple
que f es simtrica ya que
f(A, B) = tr(AB)
= tr(BA)
= f(B, A)
12.2. Determinante de un endomorsmo
Ejercicio 63 Sea f un endomorsmo de R
3
denido por
f(e
1
) = e
1
e
2
f(e
2
) = e
2
e
1
f(e
3
) = e
3
siendo (e
1
, e
2
, e
3
) la base cannica de R
3
. Consideremos los vectores
v
1
= e
1
+e
2
v
2
= e
1
+e
3
v
3
= e
2
+e
3
que forman base de R
3
. Calcular el determinante de f en esta nueva base.
Els autors, 2002; Edicions UPC, 2002
12.3. DETERMINANTE DE UNAMATRIZ CUADRADA. PROPIEDADES295
Solucin: Sabemos que el determinante de un endomorsmo no cambia si
efectuamos un cambio de base. Por tanto,
det f =

1 1 0
1 1 0
0 0 1

= 0
Ejercicio 64 Sea E el espacio vectorial de la funciones reales de variable real
generado por la funciones 1, sin y cos. Calcular el determinante del endomors-
mo f de E denido por la derivacin.
Solucin: Supongamos que f
1
(x) = 1, f
2
(x) = sinx y f
3
(x) = cos x. En-
tonces, f
0
1
(x) = 0, f
0
2
(x) = cos x y f
0
3
(x) = sinx. Entonces
f(1) = 0
f(sin) = cos
f(cos) = sin
Por tanto,
det f =

0 0 0
0 0 1
0 1 0

= 0
12.3. Determinante de una matriz cuadrada. Propiedades
Ejercicio 65 Demostrar que el valor del siguiente determinante

1 9 1 3
2 6 1 8
2 2 1 3
1 5 1 9

es mltiplo de 11.
Solucin: Al sumar a la cuarta la la tercera multiplicada por 10, la segunda
por 100 y la primera por 1000, se tiene

1 9 1 3
2 6 1 8
2 2 1 3
1 5 1 9

1 9 1 3
2 6 1 8
2 2 1 3
1221 9625 1111 3839

= 11

1 9 1 3
2 6 1 8
2 2 1 3
111 875 101 349

Por tanto, el valor del determinante es mltiplo de 11.


Els autors, 2002; Edicions UPC, 2002
296 CAPTULO 12. DETERMINANTES
Ejercicio 66 Calcular el valor del siguiente determinante

1 2 3 4 5
1 2 4 5 6
2 3 5 7 9
1 0 0 1 2
2 0 1 3 0

Solucin: Desarrollaremos este determinante por la la cuarta.

1 2 3 4 5
1 2 4 5 6
2 3 5 7 9
1 0 0 1 2
2 0 1 3 0

5 2 3 4 3
6 2 4 5 4
9 3 5 7 5
0 0 0 1 0
5 0 1 3 6

5 2 3 3
6 2 4 4
9 3 5 5
5 0 1 6

10 2 3 15
14 2 4 20
16 3 5 25
0 0 1 0

10 2 15
14 2 20
16 3 25

= 10

5 2 3
7 2 4
8 3 5

= 10

5 2 3
7 2 4
1 1 1

= 10

2 1 3
3 2 4
0 0 1

= 10

2 1
3 2

= 10 (1) = 10
Ejercicio 67 El determinante de Vandermonde de orden 3 tiene la siguiente
forma
D =

1 1 1
a b c
a
2
b
2
c
2

Els autors, 2002; Edicions UPC, 2002


12.3. DETERMINANTE DE UNAMATRIZ CUADRADA. PROPIEDADES297
Demostrar que D = (b a)(c a)(c b).
Solucin:

1 1 1
a b c
a
2
b
2
c
2

1 0 0
a b a c a
a
2
(b a)(b +a) (c a)(c +a)

= (b a)(c a)

1 1
b +a c +a

= (b a)(c a)

1 0
b +a c b

= (b a)(c a)(c b)
Ejercicio 68 Calcular el siguiente determinante

3 1 1 1
1 3 1 1
1 1 3 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 3

Solucin:

3 1 1 1
1 3 1 1
1 1 3 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 3

2 +n 2 +n 2 +n 2 +n
1 3 1 1
1 1 3 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 3

= (2 +n)

1 1 1 1
0 2 0 0
0 0 2 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 2

= 2
n1
(2 +n)
Ejercicio 69 Sea A una matriz cuadrada de orden n cuyos elementos a
ij
son
funciones reales derivables de variable x real. Se designa por a
j
los n vectores-
columna de A y se escribe
f(x) = det A = det(a
1
, ..., a
j
, ..., a
n
)
Demostrar que
f
0
(x) =
n
X
j=1
det(a
1
, ..., a
j1
, a
0
j
, a
j+1
, ..., a
n
)
Els autors, 2002; Edicions UPC, 2002
298 CAPTULO 12. DETERMINANTES
Deducir de aqu que se cumple
f
0
(x) =
d
dx
[|A|] =
n
X
i,j=1
d
dx
[a
ij
] A
ij
Deducir de aqu que se cumple
A
ij
=

a
ij
[|A|]
Como aplicacin, calcular el valor del determinante de orden n cuyos elementos
son todos iguales a 1 salvo los de la diagonal principal que son iguales a 1 +x.
Solucin: Por denicin se tiene
f(x) =
X
S
n
() a
(1)1
a
(j)j
a
(n)n
Por tanto,
f
0
(x) =
X
S
n
()
d
dx

a
(1)1
a
(j)j
a
(n)n

Se cumple que
X
S
n
()
d
dx

a
(1)1
a
(j)j
a
(n)n

=
X
S
n
()
_
_
n
X
j=1
a
(1)1

d
dx

a
(j)j

a
(n)n
_
_
=
n
X
j=1

X
Sn
() a
(1)1

d
dx

a
(j)j

a
(n)n
!
=
n
X
j=1
det(a
1
, ..., a
j1
, a
0
j
, a
j+1
, ..., a
n
)
luego
f
0
(x) =
n
X
j=1
det(a
1
, ..., a
j1
, a
0
j
, a
j+1
, ..., a
n
)
De aqu, desarrollando cada determinante por la columna j, se obtiene
f
0
(x) =
n
X
j=1
det(a
1
, ..., a
j1
, a
0
j
, a
j+1
, ..., a
n
)
=
n
X
j=1

n
X
i=1
a
0
ij
A
ij
!
=
n
X
i,j=1
d
dx
[a
ij
] A
ij
Els autors, 2002; Edicions UPC, 2002
12.3. DETERMINANTE DE UNAMATRIZ CUADRADA. PROPIEDADES299
luego
f
0
(x) =
n
X
i,j=1
d
dx
[a
ij
] A
ij
Si ahora suponemos que
f(a
11
, ..., a
ij
, ..., a
nn
) = det A
de la fmula anterior deducimos

a
ij
[det A] = A
ij
Sea
D
n
=

1 +x 1 1
1 1 +x 1
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 +x

y supongamos que
f(x) = D
n
entonces
f
0
(x) =

1 1 1
0 1 +x 1
.
.
.
.
.
.
.
.
.
.
.
.
0 1 1 +x

1 +x 0 1
1 1 1
.
.
.
.
.
.
.
.
.
.
.
.
1 0 1 +x

+ +

1 +x 1 0
1 1 +x 0
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1

= nD
n1
Por tanto,
f
0
(x) = nD
n1
f
00
(x) = n(n 1)D
n2
f
000
(x) = n(n 1)(n 2)D
n3
.
.
.
f
(n2)
(x) = n(n 1)(n 2) 3 D
2
f
(n1)
(x) = n!(1 +x)
f
(n)
(x) = n!
Aplicando la frmula de Taylor a f en x = 0 se tiene
f(x) = f(0) +
f
0
(0)
1!
+
f
00
(0)
2!
+ +
f
(n1)
(0)
(n 1)!
x
n1
+
f
(n)
(0)
n!
x
n
Els autors, 2002; Edicions UPC, 2002
300 CAPTULO 12. DETERMINANTES
y teniendo en cuenta que para todo 2 i n se cumple
D
i
(0) = 0
entonces
f(x) =
n!
(n 1)!
x
n1
+
n!
n!
x
n
= nx
n1
+x
n
= (n +x)x
n1
Por tanto,
D
n
= (n +x)x
n1
Ejercicio 70 Calcular el rango de la siguiente matriz
A =
_
_
_
_
1 7 5 3 2
0 4 2 2 0
2 2 4 0 1
3 1 7 1 3
_
_
_
_
Solucin: Observemos que

1 7
0 4

6= 0
Aadiendo la tercera la y las dems columnas, obtenemos menores de orden 3.
Observemos que

1 7 5
0 4 2
2 2 4

= 8 6= 0
Aadiendo la cuarta la y las dems columnas, obtenemos menores de orden 4.
Observemos que

1 7 5 3
0 4 2 2
2 2 4 0
3 1 7 1

= 0 y

1 7 5 2
0 4 2 0
2 2 4 1
3 1 7 3

= 0
Por tanto, rang A = 3 y la cuarta la es combinacin lineal de las dems las;
en efecto, se cumple

1 7 5 3
0 4 2 2
2 2 4 0
x y z t

= 16x 8z + 8t
y
16 3 8 7 + 8 1 = 0
Els autors, 2002; Edicions UPC, 2002
12.3. DETERMINANTE DE UNAMATRIZ CUADRADA. PROPIEDADES301
Ejercicio 71 Calcular unas ecuaciones homogneas del subespacio S de R
4
gen-
erado por los vectores (1, 1, 1, 1) y (1, 0, 1, 1).
Solucin: Sean (x, y, z, t) las coordenadas de los vectores del subespacio
S = h(1, 1, 1, 1), (1, 0, 1, 1)i. Entonces, el rango de la siguiente matriz
A =
_
_
_
_
1 1 x
1 0 y
1 1 z
1 1 t
_
_
_
_
debe ser 2. En consecuencia, todos los menores de A de orden 3 deben ser nulos.
Al ser (1, 1, 1, 1) y (1, 0, 1, 1) linealmente independientes, la dimensin de S es
2. Por tanto, habr dos ecuaciones homogneas denidoras de S que pueden ser

1 1 x
1 0 y
1 1 z

= x z = 0 y

1 1 x
1 0 y
1 1 t

= x t = 0
Por tanto,
S = {(x, y, z, t) R
4
: x = z = t}
Ejercicio 72 Calcular la inversa de la siguiente matriz
A =
_
_
1 1 1
1 a a
2
1 a
2
a
_
_
siendo a
3
= 1 y a 6= 1.
Solucin: Se cumple
det A =

1 1 1
1 a a
2
1 a
2
a

= a
4
+ 3a
2
2a
Como a
3
= 1, entonces det A = a + 3a
2
2a = 3a(a 1). Adems como
a
3
1 = (a 1)(a
2
+ a + 1) = 0 y a 6= 1, se tiene a
2
+ a + 1 = 0. Por tanto,
a 6= 0 y, en consecuencia, det A 6= 0. Calculemos ahora la matriz adjunta de A
_
_
a
2
a a
2
a a
2
a
a
2
a a 1 1 a
2
a
2
a 1 a
2
a 1
_
_
= (a 1)
_
_
a a a
a 1 (1 +a)
a (1 +a) 1
_
_
Observando que la matriz A es simtrica, tenemos
A
1
=
1
3a
_
_
a a a
a 1 (1 +a)
a (1 +a) 1
_
_
=
1
3a
_
_
a a a
a a
3
a
2
a a
2
a
3
_
_
Els autors, 2002; Edicions UPC, 2002
302 CAPTULO 12. DETERMINANTES
donde hemos tenido presente que a
3
= 1 y a
2
= (1 +a). Por tanto
A
1
=
1
3
_
_
1 1 1
1 a
2
a
1 a a
2
_
_
Els autors, 2002; Edicions UPC, 2002
Captulo 13
Sistemas de ecuaciones
lineales
Ejercicio 73 Discutir y resolver el sistema siguiente
2x + 4y + 5z = 1
x + 3y + 3z = 1
4x + 5y + 4z = 2
3x + 3y + 2z = 2
2x + 5y z = 7
_

_
Solucin: Escalonemos la matriz ampliada del sistema
_
_
_
_
_
_
2 4 5 1
1 3 3 1
4 5 4 2
3 3 2 2
2 5 1 7
_
_
_
_
_
_

_
_
_
_
_
_
2 4 5 1
0 2 1 3
0 3 6 0
0 6 11 1
0 1 6 8
_
_
_
_
_
_
F
1
2F
2
F
1
F
3
2F
1
2F
4
3F
1
F
5
F
1

_
_
_
_
_
_
2 4 5 1
0 2 1 3
0 0 9 9
0 0 8 8
0 0 13 13
_
_
_
_
_
_
F
1
F
2
2F
3
+ 3F
2
F
4
+ 3F
2
2F
5
F
2

_
_
_
_
_
_
2 4 5 1
0 2 1 3
0 0 1 1
0 0 0 0
0 0 0 0
_
_
_
_
_
_
F
1
F
2
F
3
/9
F
4
/8 F
3
/9
F
5
/13 F
3
/9
Hemos obtenido la matriz escalonada equivalente por las a la matriz ampliada
del sistema dado. El sistema escalonado equivalente es
2x + 4y + 5z = 1
2y +z = 3
z = 1
_
_
_
cuyo nmero de ecuaciones (suprimidas las ecuaciones triviales, o sea las las
de ceros de la matriz) es igual al nmero de incgnitas. Por tanto, el sistema es
303
Els autors, 2002; Edicions UPC, 2002
304 CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES
compatible determinado y su solucin es, sustituyendo los valores de las incg-
nitas hacia arriba
x = 2
y = 2
z = 1
Ejercicio 74 Discutir y resolver el sistema
x +y +z +t u = 1
x y z t + 2u = 2
x +y +z + 2t = 0
_
_
_
Solucin: Escalonemos la matriz ampliada del sistema
_
_
1 1 1 1 1 1
1 1 1 1 2 2
1 1 1 2 0 0
_
_

_
_
1 1 1 1 1 1
0 0 0 0 1 3
0 0 0 1 1 1
_
_
F
1
F
2
+F
1
F
3
F
1

_
_
1 1 1 1 1 1
0 0 0 1 1 1
0 0 0 0 1 3
_
_
F
1
F
3
F
2
Hemos obtenido la matriz escalonada equivalente por las a la matriz ampliada
del sistema dado. El nmero de ecuaciones no triviales del sistema escalonado
correspondiente es menor que el nmero de incgnitas. Por tanto, el sistema es
compatible indeterminado. Las incgnitas no principales son y y z como puede
observarse en la matriz escalonada. El sistema escalonado equivalente es
x +t u = 1 y z
t +u = 1
u = 3
_
_
_
Por sustituciones hacia arriba obtenemos las soluciones
x = 8 y z
y = y
z = z
t = 4
u = 3
_

_
Ahora podemos obtener soluciones del sistema dando valores a y y z.
Ejercicio 75 Discutir y resolver el sistema
x 3y = 10
3x + 8y = 12
5x 19y = 35
_
_
_
Els autors, 2002; Edicions UPC, 2002
305
Solucin: Escalonemos la matriz ampliada del sistema
_
_
1 3 10
3 8 12
5 19 35
_
_

_
_
1 3 10
0 17 18
0 34 15
_
_
F
1
F
2
3F
1
F
3
+ 5F
1

_
_
1 3 10
0 17 18
0 0 21
_
_
F
1
F
2
F
3
+ 2F
2
Hemos obtenido la matriz escalonada equivalente por las a la matriz ampliada
del sistema dado. Podemos observar enseguida que el sistema escalonado equiva-
lente tiene una contradiccin en la ltima ecuacin. Por consiguiente el sistema
es incompatible.
Ejercicio 76 Discutir y resolver el siguiente sistema
3x + 2y +z = 0
2x + 2y + 5z = 0
7x 4y + 2z = 0
_
_
_
Solucin: Podemos ver enseguida que el sistema es homogneo porque sus
trminos independientes son todos iguales a cero. Por consiguiente, el sistema es
compatible porque admite al menos una solucin: la solucin trivial. Para saber
si es o no indeterminado, escalonemos la matriz de coecientes del sistema
_
_
3 2 1
2 2 5
7 4 2
_
_

_
_
3 2 1
0 2 13
0 2 13
_
_
F
1
3F
2
2F
1
3F
3
+ 7F
1

_
_
3 2 1
0 2 13
0 0 0
_
_
F
1
F
2
F
3
F
2
Hemos obtenido la matriz escalonada equivalente por las a la matriz ampliada
del sistema dado. El nmero de ecuaciones no triviales del sistema escalonado
correspondiente es menor que el nmero de incgnitas. Por tanto, el sistema es
compatible indeterminado. La incgnita no principal es z como puede observarse
en la matriz escalonada. El sistema escalonado equivalente es
3x + 2y = z
2y = 13z

Por sustituciones hacia arriba obtenemos las soluciones


x = 4z
y =
13
2
z
z = z
_

_
Ahora podemos obtener soluciones del sistema dando valores a z.
Els autors, 2002; Edicions UPC, 2002
306 CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES
Ejercicio 77 Discutir y resolver cuando sea posible, segn los valores del parmetro
, el siguiente sistema
2y z =
3x 2z = 11
y +z = 6
2x +y 4z =
_

_
Solucin: Escalonemos la matriz ampliada del sistema
_
_
_
_
0 2 1
3 0 2 11
0 1 1 6
2 1 4
_
_
_
_

_
_
_
_
3 0 2 11
0 2 1
0 1 1 6
2 1 4
_
_
_
_
F
2
F
1
F
3
F
4

_
_
_
_
3 0 2 11
0 2 1
0 1 1 6
0 3 8 3 22
_
_
_
_
F
1
F
2
F
3
3F
4
2F
1

_
_
_
_
3 0 2 11
0 2 1
0 0 3 12
0 0 13 3 44
_
_
_
_
F
1
F
2
2F
3
F
2
2F
4
3F
2

_
_
_
_
3 0 2 11
0 2 1
0 0 3 12
0 0 0 4 + 24
_
_
_
_
F
1
F
2
F
3
3F
4
+ 13F
3
En primer lugar, vemos que el sistema ser incompatible cuando
6= 6
porque entonces la ltima ecuacin del sistema escalonado ser una contradic-
cin. El sistema ser compatible determinado cuando
= 6
ya que el nmero de ecuaciones no triviales del sistema escalonado es igual al
nmero de incgnitas. El sistema escalonado equivalente para este valor de es
3x 2z = 11
2y z = 6
3z = 6
_
_
_
cuya solucin es
x = 5
y = 4
z = 2
Ejercicio 78 Resolver el sistema, caso de ser compatible
2x 5y +z 2t + 2u = 0
3x 2y z +t 2u = 0
2x +y z + 2t 3u = 0
x 2y +z t +u = 0
_

_
Els autors, 2002; Edicions UPC, 2002
307
Solucin: El sistema es homogneo, tiene 4 ecuaciones y 5 incgnitas (o
sea, es de rango 5 como mximo). Por consiguiente, el sistema es compatible
indeterminado. Para conocer el nmero de grados de libertad (nmero de incg-
nitas no principales) es necesario calcular el rango de la matriz del sistema.
_
_
_
_
2 5 1 2 2
3 2 1 1 2
2 1 1 2 3
1 2 1 1 1
_
_
_
_

_
_
_
_
1 2 1 1 1
3 2 1 1 2
2 1 1 2 3
2 5 1 2 2
_
_
_
_
F
4
F
1
_
_
_
_
1 2 1 1 1
3 2 1 1 2
2 1 1 2 3
2 5 1 2 2
_
_
_
_

_
_
_
_
1 2 1 1 1
0 4 4 4 5
0 5 3 4 5
0 1 1 0 0
_
_
_
_
F
2
3F
1
F
3
2F
1
F
4
2F
1
_
_
_
_
1 2 1 1 1
0 4 4 4 5
0 5 3 4 5
0 1 1 0 0
_
_
_
_

_
_
_
_
1 2 1 1 1
0 1 1 0 0
0 5 3 4 5
0 4 4 4 5
_
_
_
_
F
4
F
2
_
_
_
_
1 2 1 1 1
0 1 1 0 0
0 5 3 4 5
0 4 4 4 5
_
_
_
_

_
_
_
_
1 2 1 1 1
0 1 1 0 0
0 0 8 4 5
0 0 8 4 5
_
_
_
_
F
3
5F
2
F
4
4F
2
_
_
_
_
1 2 1 1 1
0 1 1 0 0
0 0 8 4 5
0 0 8 4 5
_
_
_
_

_
_
_
_
1 2 1 1 1
0 1 1 0 0
0 0 8 4 5
0 0 0 0 0
_
_
_
_
F
4
F
3
luego, la matriz tiene rango 3 y por tanto, el sistema es compatible indeterminado
con 53 = 2 grados de libertad. Para resolverlo, utilizamos la matriz escalonada
equivalente. El sistema equivalente es entonces
x 2y +z t +u = 0
y +z = 0
8z + 4t 5u = 0
_
_
_
Por tanto, tomando como incgnitas no principales t y u, se tiene
x 2y +z = t u
y +z = 0
8z = 4t + 5u
t = t
u = u
_

_
es decir,
x =
1
8
(4t 7u)
y =
1
8
(4t 5u)
z =
1
8
(4t 5u)
t = t
u = u
_

_
Els autors, 2002; Edicions UPC, 2002
308 CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES
Ejercicio 79 Determinar para qu valores de a el sistema es compatible
ax +a
2
y +a
3
z = a
x +ay +a
2
z = a
2
x +y +az = a
3
x +y +z = a
4
_

_
Solucin: El sistema tiene 4 ecuaciones y 3 incgnitas. Por consiguiente
puede ser incompatible si el rango es 4. Vamos a calcular los valores para los
que el sistema no es compatible

a a
2
a
3
a
1 a a
2
a
2
1 1 a a
3
1 1 1 a
4

= a

1 a a
2
1
1 a a
2
a
2
1 1 a a
3
1 1 1 a
4

=
a

1 a a
2
1
0 0 0 a
2
1
0 1 a a a
2
a
3
1
0 1 a 1 a
2
a
4
1

F
1
F
2
F
1
F
3
F
1
F
4
F
1
=
a(a
2
1)

0 0 1
1 a a(1 a) (1 a)(a
2
+a + 1)
1 a (1 a)(1 +a) (1 a)(a + 1)(a
2
+ 1)

=
a(a
2
1)(1 a)
2

0 0 1
1 a

a
2
+a + 1

1 1 +a (a + 1)(a
2
+ 1)

=
a(a + 1)(1 a)
3

1 a
1 1 +a

= a(a + 1)(1 a)
3
De la ecuacin
a(a + 1)(1 a)
3
= 0
se obtienen las soluciones: a = 0, a = 1, y a = 1. Estos valores hacen que el
rango de la matriz ampliada no sea 4 y en consecuencia, que el sistema pueda
ser compatible. As pues, tenemos:
1. Si a 6= 0 y a 6= 1 y a 6= 1, el sistema no tiene solucin porque el rango de
la matriz ampliada es 4 y el rango de la matriz del sistema es a lo sumo
3.
2. Si a = 0, entonces las matrices del sistema son
_
_
_
_
0 0 0 0
1 0 0 0
1 1 0 0
1 1 1 0
_
_
_
_
Els autors, 2002; Edicions UPC, 2002
309
y los rangos son rang A = rang (A|b) = 3. Por consiguiente, el sistema
es compatible determinado ya que el rango coincide con el nmero de in-
cgnitas. El sistema que resulta es homogneo
x = 0
x +y = 0
x +y +z = 0
_
_
_
y por tanto la solucin es la trivial, o sea, x = 0, y = 0, z = 0.
3. Si a = 1, entonces las matrices del sistema son
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
cuyos rangos vamos a calcular por el mtodo de Gauss:
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_

_
_
_
_
1 1 1 1
0 0 0 0
0 2 2 2
0 2 0 0
_
_
_
_
F
1
F
2
+F
1
F
3
+F
1
F
4
+F
1
_
_
_
_
1 1 1 1
0 2 0 0
0 2 2 2
0 0 0 0
_
_
_
_

_
_
_
_
1 1 1 1
0 2 0 0
0 0 2 2
0 0 0 0
_
_
_
_
F
2
F
3
F
2
de donde rang A = rang (A|b) = 3. Por consiguiente, el sistema es com-
patible determinado ya que el rango coincide con el nmero de incgnitas.
El sistema equivalente que resulta es
x +y z = 1
2y = 0
2z = 2
_
_
_
cuya solucin es, x = y = 0, z = 1.
4. Si a = 1, las matrices del sistema son
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
cuyos rangos son evidentemente rang A = rang (A|b) = 1. Por consigu-
iente, el sistema es compatible indeterminado con 3 1 = 2 grados de
Els autors, 2002; Edicions UPC, 2002
310 CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES
libertad. Para resolverlo podemos tomar como incgnitas libres por ejem-
plo y y z. Entonces, la solucin del sistema es
x = 1 y z
y = y
z = z
_
_
_
Ejercicio 80 Discutir y resolver, segn los valores de los parmetros a y b, el
siguiente sistema
x +ay +a
2
z = 1
x +ay +abz = a
bx +a
2
y +a
2
bz = a
2
b
_
_
_
Solucin: El sistema tiene 3 ecuaciones y 3 incgnitas. Averiguemos para
qu valores de a y b el sistema tiene rango 3. Para ello, observemos que

1 a a
2
1 a ab
b a
2
a
2
b

= a
2

1 1 a
1 1 b
b a ab

=
a
2

1 1 a
1 1 b
b a ab

= a
2

1 1 a
0 0 b a
0 a b 0

F
1
F
2
F
1
F
3
bF
1
(b 6= 0)
=
a
2
(a b)

1 1 a
0 0 b a
0 1 0

= a
2
(a b)

0 b a
1 0

= a
2
(a b)
2
por tanto, si a 6= 0 y a 6= b, el rango del sistema es 3 y, en consecuencia, el
sistema es compatible determinado. Analicemos todos los casos posibles:
1. Si a 6= 0 y a 6= b, rang A = rang (A|b) = 3 y el sistema es compatible
determinado. La solucin puede hallarse por la regla de Cramer
x =

1 a a
2
a a ab
a
2
b a
2
a
2
b

a
2
(a b)
2
=
a
2
(1 b)
a b
y =

1 1 a
2
1 a ab
b a
2
b a
2
b

a
2
(a b)
2
=
b(a
2
1)
a(a b)
z =

1 a 1
1 a a
b a
2
a
2
b

a
2
(a b)
2
=
1 a
a(a b)
Els autors, 2002; Edicions UPC, 2002
311
2. Si a = 0, las matrices del sistema son
_
_
1 0 0 1
1 0 0 0
b 0 0 0
_
_
cuyos rangos son evidentemente rang A = 1 y rang (A|b) = 2. Por con-
siguiente, el sistema es incompatible.
3. Si a = b, entonces las matrices del sistema son
_
_
1 a a
2
1
1 a a
2
a
a a
2
a
3
a
3
_
_
cuyos rangos son rang A = 1 (ya que las tres columnas son dependientes de
la primera; las otras dos se obtienen multiplicando esta ltima por a y a
2
,
respectivamente; obsrvese que a 6= 0, porque de lo contrario estaramos
en el caso anterior). El rango de la matriz ampliada puede ser 2 ya que

1 1
1 a

= a 1
puede ser cero cuando a = 1 y el rango es 1, o bien distinto de cero cuando
a 6= 1 y el rango es 2. As pues tenemos dos subcasos:
a) Si a = b 6= 1, entonces rang A = 1 y rang (A|b) = 2 y el sistema es
incompatible.
b) Si a = b = 1, entonces las matrices del sistema son
_
_
1 1 1 1
1 1 1 1
1 1 1 1
_
_
cuyos rangos son evidentemente: rang A = rang (A|b) = 1 y el sis-
tema es compatible indeterminado con 3 1 = 2 grados de libertad.
Su solucin es
x = 1 y z
y = y
z = z
_
_
_
Els autors, 2002; Edicions UPC, 2002
312 CAPTULO 13. SISTEMAS DE ECUACIONES LINEALES
Els autors, 2002; Edicions UPC, 2002
Captulo 14
Diagonalizacin de
endomorsmos
14.1. Vectores y valores propios. Polinomio car-
acterstico
Problema 1: Hallar los posibles valores propios de un endomorsmo idem-
potente (f
2
= f f = f) de un espacio vectorial E.
Solucin: Sea k un valor propio de f. Sea v un vector propio de valor propio
k:
f(v) = kv
Entonces
f
2
(v) = f(f(v)) = f(kv) = kf(v) = k kv = k
2
v
Pero, por ser f idempotente,
f
2
(v) = f(v) = kv
Por tanto,
k
2
v = kv (k
2
k)v = 0 k
2
k = 0
k(k 1) = 0 k = 0, k = 1
En conclusin, los nicos valores propios posibles son 0 y 1.
Problema 2: Calcular el polinomio caracterstico de la matriz
A =
_
_
_
_
1 4 1 4
2 0 5 4
1 1 2 3
1 4 1 6
_
_
_
_
313
Els autors, 2002; Edicions UPC, 2002
314 CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS
Solucin: Usaremos el teorema 3:
p
A
(x) = (1)
4
x
4
+ (1)
3
A
3
x
3
+ (1)
2
A
2
x
2
+ (1)A
1
x + det A,
donde A
i
es la suma de los menores de orden 4i que tienen la diagonal principal
sobre la diagonal principal de A :
A
3
= a
1
1
+a
2
2
+a
3
3
+a
4
4
= 1 + 0 + (2) + 6 = 5
A
2
=

1 4
2 0

1 1
1 2

1 4
1 6

0 5
1 2

+
+

0 4
4 6

2 3
1 6

= 8 3 + 2 5 + 16 9 = 9
A
1
=

1 4 1
2 0 5
1 1 2

1 4 4
2 0 4
1 4 6

1 1 4
1 2 3
1 1 6

0 5 4
1 2 3
4 1 6

=
= 3 + 16 8 + 2 = 7
det A = 2
As pues,
p
A
(x) = x
4
5x
3
+ 9x
2
7x + 2
Problema 3: Son equivalentes (asociadas al mismo endomorsmo) las
matrices
A =
_
_
_
_
1 2 3 4
0 2 1 2
1 3 4 5
0 1 2 4
_
_
_
_
, B =
_
_
_
_
1 1 2 3
2 3 4 5
0 1 0 1
1 2 3 4
_
_
_
_
?
Solucin: Por el corolario del teorema 3, sabemos que dos matrices asociadas
al mismo endomorsmo, o equivalentes, tienen la misma traza, pero
tr A = 1 + 2 + 4 + 4 = 11
tr B = 1 + 3 + 0 + 4 = 8
Por tanto, A y B no son equivalentes.
14.2. Diagonalizacin de matrices
Problema 4: Calcular los valores y vectores propios de
A =
_
_
1 2 0
1 3 1
0 1 1
_
_
Els autors, 2002; Edicions UPC, 2002
14.2. DIAGONALIZACIN DE MATRICES 315
Solucin: Calculamos primero el polinomio caracterstico de A :
P
A
(x) =

1 x 2 0
1 3 x 1
0 1 1 x

= (1 x)
2
(3 x) + (1 x) =
= (1 x)((1 x)(3 x) + 1) = (1 x)(x
2
4x + 4) =
= (1 x)(x 2)
2
Los valores propios son 1 y 2. Calculemos ahora los vectores propios asociados
a cada uno de los valores propios:
a. k = 1. La matriz AI es:
_
_
1 2 0
1 3 1
0 1 1
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
_
0 2 0
1 2 1
0 1 0
_
_
Calculemos Nuc (AI) : Un vector (x
1
, x
2
, x
3
) pertenece a Nuc (A I)
si cumple:
_
_
0 2 0
1 2 1
0 1 0
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
Por tanto,

2x
2
= 0
x
1
+ 2x
2
+x
3
= 0

x
2
= 0
x
1
= x
3

Nuc (AI) = {(x
1
, 0, x
1
)} = h(1, 0, 1)i
Los vectores propios de A de valor propio 1 son los vectores pertenecientes
a h(1, 0, 1)i.
b. k = 2. La matriz A2I es:
_
_
1 2 0
1 3 1
0 1 1
_
_

_
_
2 0 0
0 2 0
0 0 2
_
_
=
_
_
1 2 0
1 1 1
0 1 1
_
_
Calculemos Nuc (A2I) : Un vector (x
1
, x
2
, x
3
) pertenece a Nuc (A2I)
si cumple:
_
_
1 2 0
1 1 1
0 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
Por tanto,
_
_
_
x
1
+ 2x
2
= 0
x
1
+x
2
+x
3
= 0
x
2
x
3
= 0

x
1
= 2x
2
x
3
= x
2

Nuc (A2I) = {(2x
2
, x
2
, x
2
)} = h(2, 1, 1)i
Los vectores propios de A de valor propio 2 son los vectores pertenecientes
a h(2, 1, 1)i.
Els autors, 2002; Edicions UPC, 2002
316 CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS
Problema 5: Sean E un espacio vectorial sobre K y f un endomorsmo de
E. Probar que f es inyectiva si, y slo si, 0 no es un valor propio de f.
Solucin: Queremos ver:
f inyectiva 0 no es valor propio de f
Esto es equivalente a demostrar:
f no es inyectiva 0 es valor propio de f
Demostraremos esta segunda equivalencia:
0 es valor propio de f existe v 6= 0 tal que f(v) = 0 v = 0
existe v 6= 0 tal que v Nuc f
Nuc f 6= {0}
f no inyectiva.
Problema 6: Calcular los valores y vectores propios de
B =
_
_
5 0 4
0 3 0
2 0 1
_
_
Solucin: Calculamos primero el polinomio caracterstico de B :
P
B
(x) =

5 x 0 4
0 3 x 0
2 0 1 x

= (3 x)

5 x 4
2 1 x

=
= (3 x)((5 x)(1 x) + 8) = (3 x)(x
2
4x + 3) =
= (3 x)
2
(1 x)
Los valores propios son 1 y 3. Calculemos ahora los vectores propios asociados
a cada uno de los valores propios:
a. k = 1. La matriz B I es:
_
_
5 0 4
0 3 0
2 0 1
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
=
_
_
4 0 4
0 2 0
2 0 2
_
_
Calculemos Nuc (B I) : Un vector (x
1
, x
2
, x
3
) pertenece a Nuc (B I)
si cumple:
_
_
4 0 4
0 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
Els autors, 2002; Edicions UPC, 2002
14.2. DIAGONALIZACIN DE MATRICES 317
Por tanto,

4x
1
4x
3
= 0
2x
2
= 0

x
2
= 0
x
1
= x
3

Nuc (B I) = {(x
1
, 0, x
1
)} = h(1, 0, 1)i
Los vectores propios de B de valor propio 1 son los vectores pertenecientes
a h(1, 0, 1)i.
b. k = 3. La matriz B 3I es:
_
_
5 0 4
0 3 0
2 0 1
_
_

_
_
3 0 0
0 3 0
0 0 3
_
_
=
_
_
2 0 4
0 0 0
2 0 4
_
_
Calculemos Nuc (B3I) : Un vector (x
1
, x
2
, x
3
) pertenece a Nuc (B3I)
si cumple:
_
_
2 0 4
0 0 0
2 0 4
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
Por tanto,
{2x
1
4x
3
= 0 {x
1
= 2x
3

Nuc (B 3I) = {(2x
3
, x
2
, x
3
)} = h(2, 0, 1), (0, 1, 0)i
Los vectores propios de B de valor propio 3 son los vectores pertenecientes
a h(2, 0, 1), (0, 1, 0)i.
Els autors, 2002; Edicions UPC, 2002
318 CAPTULO 14. DIAGONALIZACIN DE ENDOMORFISMOS
Els autors, 2002; Edicions UPC, 2002
Captulo 15
Forma reducida de Jordan
15.1. Polinomio mnimo
Ejercicio 1: Si E 6= {0} y f = kI, calcular m
f
(x).
Solucin: Supongamos que E 6= {0} y que f = kI. Observamos que el
polinomio p(x) = x k es un polinomio anulador, porque
p(f) = f kI = kI kI = 0.
Adems, p es mnico y tiene el menor grado posible. Por tanto,
m
f
(x) = p(x) = x k
Ejercicio 2: Sea E = R
3
, f un endomorsmo de E tal que su polinomio
mnimo es m
f
(x) = (x 2)
3
y u un vector tal que (f 2I)
2
u 6= 0. Probar que
(u, (f 2I)u, (f 2I)
2
u) es base de E.
Solucin: Como dim E = 3, basta ver que los tres vectores u, (f 2I)u y
(f 2I)
2
u son linealmente independientes. Observamos primero que son tres
vectores no nulos:
(f 2I)
2
u 6= 0 por hiptesis
(f 2I)((f 2I)u) 6= 0 (f 2I)u 6= 0
(f 2I)u 6= 0 u 6= 0
Veamos que son linealmente independientes. Supongamos que existen escalares

0
,
1,

2
tales que

0
u +
1
(f 2I)u +
2
(f 2I)
2
u = 0
319
Els autors, 2002; Edicions UPC, 2002
320 CAPTULO 15. FORMA REDUCIDA DE JORDAN
Aplicamos (f 2I)
2
a los dos miembros de la igualdad. Teniendo en cuenta que
el polinomio mnimo es m
f
(x) = (x 2)
3
, entonces (f 2I)
3
= 0, y por tanto,
tambin (f 2I)
4
= 0 :

0
(f 2I)
2
u +
1
(f 2I)
3
u +
2
(f 2I)
4
u = (f 2I)
2
0

0
(f 2I)
2
u +0 +0 = 0

0
(f 2I)
2
u 6= 0
Como (f 2I)
2
u 6= 0, deducimos que
0
= 0. As pues, nos queda:

1
(f 2I)u +
2
(f 2I)
2
u = 0
Aplicamos (f 2I) a los dos miembros:

1
(f 2I)
2
u +
2
(f 2I)
3
u = (f 2I)0

1
(f 2I)
2
u +0 = 0

1
(f 2I)
2
u = 0
Como (f 2I)
2
u 6= 0, deducimos que
1
= 0. As pues, nos queda

2
(f 2I)
2
u = 0
Como (f 2I)
2
u 6= 0, deducimos que
2
= 0.
Por tanto, los vectores u, (f 2I)u, (f 2I)
2
u son linealmente independi-
entes, luego forman una base de E = R
3
.
15.2. Subespacios invariantes
Ejercicio 3: Sea E un espacio vectorial sobre K, f un endomorsmo de E,
un escalar y u un vector. Supongamos que (f I)(u) 6= 0 y (f I)
2
(u) = 0.
Sea F el subespacio vectorial generado por u y (f I)(u).
a. Probar que (u, (f I)u) es una base de F.
b. Probar que F es invariante por f.
c. Encontrar la matriz de f en la base (u, (f I)u).
Solucin:
a. Para ver que (u, (f I)u) es una base de F = hu, (f I)ui , basta ver que
u y (f I)u son linealmente independientes. Sean y dos escalares
tales que
u +(f I)u = 0
Els autors, 2002; Edicions UPC, 2002
15.2. SUBESPACIOS INVARIANTES 321
Aplicando (f I) a ambos miembros de la igualdad, obtenemos
(f I)u +(f I)
2
u = (f I)0 = 0
Como (f I)
2
u = 0 y (f I)u 6= 0, deducimos que = 0. Nos queda,
por tanto,
(f I)u = 0
Nuevamente, como (f I)u 6= 0, deducimos que = 0.
Por tanto, u y (f I)u son linealmente independientes, luego forman
una base de F.
b. Para ver que F es invariante por f hace falta ver que
f(F) F.
Basta demostrarlo para una base. As pues, slo hay que probar
1. f(u) F
2. f((f I)(u)) F
En efecto,
1. f(u) = f(u) u +u = (f I)(u) +u f(u) F
2. f((f I)(u)) = f
2
(u) f(u) = f
2
(u) 2f(u) +
2
u f(u) +
2f(u)
2
u =
= (f I)
2
(u)+f(u)
2
u = 0+(f(u)u) = (f I)(u) F.
c. Busquemos ahora la matriz de f en la base B = (u, (fI)u). En el apartado
anterior hemos visto
f(u) = u + (f I)u
f((f I)u) = (f I)u
Por tanto, las componentes de f(u) en la base B son (, 1), y las compo-
nentes de f((f I)u) son (0, ). Por tanto, la matriz de la restriccin de
f a F en la base B es

0
1

Ejercicio 4: Encontrar la descomposicin dada por el primer teorema de


descomposicin de un endomorsmo involutivo (f
2
= I).
Solucin:
Sea f un endomorsmo tal que f
2
= I. Un polinomio anulador es x
2
1.
Calculemos el polinomio mnimo, usando que m
f
(x) divide a x
2
1 = (x
1)(x + 1). Se pueden dar tres casos:
Els autors, 2002; Edicions UPC, 2002
322 CAPTULO 15. FORMA REDUCIDA DE JORDAN
si m
f
(x) = x 1, obtenemos f = I;
si m
f
(x) = x + 1, obtenemos f = I;
si m
f
(x) = (x 1)(x + 1), aplicando el primer teorema de descomposicin,
obtenemos E = E
1
E
2
.
El polinomio mnimo de la restriccin de f a E
1
es x 1 y, por tanto,
sobre E
1
, f es I
E
1. Anlogamente, sobre E
2
, f es I
E
2. Si e
1
, . . . , e
r
es
una base de E
1
y e
r+1
, . . . , e
n
una base de E
2
, la matriz de E en la base
que resulta de la unin de esas dos es
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0
1
1
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
Observemos que E
1
, E
2
son los subespacios de vectores propios de valores
propios 1, 1 y que la matriz obtenida es una matriz diagonal.
Ejercicio 5:Encontrar la descomposicin dada por el primer teorema de
descomposicin del endomorsmo f con matriz
A =
_
_
1 0 0
0 1 1
0 1 1
_
_
en la base cannica de R
3
.
Solucin:
Al calcular las potencias A
n
se ve en seguida que f
3
= f
2
y, por tanto, x
3
x
2
es un polinomio anulador. As pues, m
f
(x) divide x
3
x
2
= x
2
(x 1).
Si m
f
(x) fuera x 1, obtendramos f = I, lo cual es falso.
Si m
f
(x) fuera x, obtendramos m
f
(f) = f = 0, lo cual es falso.
Si m
f
(x) fuera x
2
, obtendramos f
2
= 0, lo cual es falso.
Si m
f
(x) fuera (x 1) x, obtendramos f
2
= f, lo cual es falso.
As pues, m
f
(x) = (x 1)x
2
y, por el primer teorema de descomposicin,
E = E
1
E
2
. Sobre E
1
, f es I
E
1. Sobre E
2
, f tiene polinomio mnimo x
2
. El
clculo de E
1
y E
2
nos da
E
1
= Nuc (f I) = h(1, 0, 0)i, E
2
= Nuc f
2
= h(0, 1, 0), (0, 0, 1)i.
En la base e
1
, e
2
, e
3
, la matriz de f es la matriz de A dada.
Els autors, 2002; Edicions UPC, 2002
15.3. EL TEOREMA DE CAYLEY-HAMILTON 323
Los valores propios son 1 y 0; los subespacios de vectores propios respectivos
son h(1, 0, 0)i y h(0, 1, 1)i. Si completamos estos dos vectores hasta obtener una
base de E : e
1
, e
2
+e
3
, e
3
, obtenemos la matriz de f
_
_
1 0 0
0 0 1
0 0 0
_
_
,
que es triangular.
15.3. El teorema de Cayley-Hamilton
Ejercicio 6: Aplicando el teorema de Cayley-Hamilton, calcular la inversa
de la matriz
A =
_
_
1 2 0
1 3 1
0 1 1
_
_
Solucin: El polinomio caracterstico de A es
p
A
(x) = det (AxI) =

1 x 2 0
1 3 x 1
0 1 1 x

=
= (1 x)[(3 x)(1 x) 1] + 2(1 x) =
= (1 x)(3 3x x +x
2
1) + 2 2x =
= (1 x)(x
2
4x + 2) + 2 2x =
= x
2
4x + 2 x
3
+ 4x
2
2x + 2 2x =
= x
3
+ 5x
2
8x + 4
Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracterstico es
mltiplo del polinomio mnimo, y por tanto, es anulador. Por consiguiente, se
verica:
A
3
+ 5A
2
8A+ 4 = 0
Multiplicamos por A
1
:
A
2
+ 5A8 + 4A
1
= 0
Por tanto,
A
1
=
A
2
5A+ 8I
4
Els autors, 2002; Edicions UPC, 2002
324 CAPTULO 15. FORMA REDUCIDA DE JORDAN
As pues,
A
1
=
1
4
(A A5A+ 8I) =
=
1
4
_
_
_
_
1 8 2
4 8 4
1 4 2
_
_
5
_
_
1 2 0
1 3 1
0 1 1
_
_
+ 8
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
=
=
1
4
_
_
2 2 2
1 1 1
1 1 5
_
_
.
Ejercicio 7: Sea A la matriz
A =
_
_
1 0 0
0 1 0
0 0
1
2
_
_
a. Calcular la matriz M = 2A
4
7A
3
+ 9A
2
5A+I.
b. Calcular la matriz N = A
3
4A
2
+ 5A
1
+ 4I
Solucin:
a. El polinomio caracterstico de la matriz A es
p
A
(x) = det (AxI) =

1 x 0 0
0 1 x 0
0 0
1
2
x

=
= (1 x)(1 x)(
1
2
x) =
= (x
3

5
2
x
2
+ 2x
1
2
)
Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracters-
tico es anulador:
(A
3

5
2
A
2
+ 2A
1
2
I) = 0 2A
3
5A
2
+ 4AI = 0
2A
4
5A
3
+ 4A
2
A = 0
Por tanto,
M = 2A
4
7A
3
+ 9A
2
5A+I =
= (2A
4
5A
3
+ 4A
2
A) 2A
3
+ 5A
2
4A+I =
= 0 2A
3
+ 5A
2
4A+I = 0
Els autors, 2002; Edicions UPC, 2002
15.3. EL TEOREMA DE CAYLEY-HAMILTON 325
b. La matriz inversa de A es:
A
1
=
_
_
1 0 0
0 1 0
0 0 2
_
_
Su polinomio caracterstico es
p
A
1(x) = det (A
1
xI) =

1 x 0 0
0 1 x 0
0 0 2 x

=
= (1 x)(1 x)(2 x) =
= (x
3
4x
2
+ 5x 2)
Por el teorema de Cayley-Hamilton, sabemos que el polinomio caracters-
tico es anulador:
(A
3
4A
2
+ 5A
1
2I) = 0 A
3
4A
2
+ 5A
1
2I = 0
N = A
3
4A
2
+5A
1
+4I = A
3
4A
2
+5A
1
2I) +6I = 6I.
Ejercicio 8: Calcular el polinomio mnimo de la matriz
A =
_
_
_
_
1 i 0 0
i 1 i 0
0 i 1 i
0 0 i 1
_
_
_
_
.
Solucin: Calculemos el polinomio caracterstico de A:
p
A
(x) = det (AxI) =

1 x i 0 0
i 1 x i 0
0 i 1 x i
0 0 i 1 x

=
= (1 x)

1 x i 0
i 1 x i
0 i 1 x

i 0 0
i 1 x i
0 i 1 x

=
= (1 x)[(1 x)
3
(1 +x) (1 x)] i[i(1 x)
2
+i] =
= (1 +x)
4
+ (1 +x)
2
+ 1
Por el teorema de Cayley-Hamilton, sabemos que el polinomio mnimo es un
divisor de p
A
(x). Pero p
A
(x) no tiene races reales. Por tanto,
m
A
(x) = p
A
(x) = (1 +x)
4
+ (1 +x)
2
+ 1 =
= t
4
+ 4t
3
+ 7t
2
+ 6t + 3.
Els autors, 2002; Edicions UPC, 2002
326 CAPTULO 15. FORMA REDUCIDA DE JORDAN
15.4. Matriz cannica de un endomorsmo
Ejercicio 9: Calcular la forma cannica de Jordan de la matriz
A =
_
_
_
_
2 0 3 0
1 2 0 3
0 0 2 0
0 0 1 2
_
_
_
_
.
Solucin: Su polinomio caracterstico es
p
A
(x) =

2 x 0 3 0
1 2 x 0 3
0 0 2 x 0
0 0 1 2 x

= (2 x)
4
.
dim Nuc (A2I) = 4rango (A2I) = 4rango
_
_
_
_
0 0 3 0
1 0 0 3
0 0 0 0
0 0 1 0
_
_
_
_
= 42 = 2
dim Nuc (A2I)
2
= 4rango (A2I)
2
= 4rango
_
_
_
_
0 0 0 0
0 0 6 0
0 0 0 0
0 0 0 0
_
_
_
_
= 41 = 3
Adems,
(A2I)
3
= 0
Por tanto, el polinomio mnimo de A es
m
A
(x) = (x 2)
3
.
Veamos qu forma tiene el recuadro expuesto en el procedimiento para obtener
la matriz de Jordan:
El nmero de las es el exponente del polinomio mnimo: 3
El nmero de elementos en la la inferior es p
1
:
p
1
= q
1
q
0
= dim Nuc (A2I) dim Nuc I = 2 0 = 2
El nmero de elementos en la segunda la por abajo es p
2
:
p
2
= q
2
q
1
= dim Nuc (A2I)
2
dim Nuc (A2I) = 3 2 = 1
El nmero de elementos en la la superior es p
3
:
p
3
= q
3
q
2
= dim Nuc (A2I)
3
dim Nuc (A2I)
2
= 4 3 = 1
Els autors, 2002; Edicions UPC, 2002
15.4. MATRIZ CANNICA DE UN ENDOMORFISMO 327
Tenemos la siguiente situacin:
u
1
es un vector cualquiera que pertenezca a Nuc (A2I)
3
pero no a Nuc (A
2I)
2
. Por ejemplo,
u
1
= (0, 0, 1, 0)
Entonces,
(A2I)u
1
= (3, 0, 0, 1) Nuc (A2I)
2
\Nuc (A2I)
(A2I)
2
u
1
= (0, 6, 0, 0) Nuc (A2I)
u
2
es un vector de Nuc (A 2I) linealmente independiente con (A 2I)
2
u
1
;
por ejemplo
u
2
= (3, 0, 0, 1)
En la base B = {(0, 0, 1, 0), (3, 0, 0, 1), (0, 6, 0, 0), (3, 0, 0, 1)}, la matriz del en-
domorsmo ser la matriz cannica de Jordan:
J =
_
_
_
_
2 0 0 0
1 2 0 0
0 1 2 0
0 0 0 2
_
_
_
_
.
Ejercicio 10: Calcular las posibles formas cannicas de Jordan de la matriz
A =
_
_
10 4 13
5 3 7
9 4 12
_
_
.
Solucin: Su polinomio caracterstico es
p
A
(x) =

10 x 4 13
5 3 x 7
9 4 12 x

1 x 0 1 x
5 3 x 7
9 4 12 x

=
= (1 x)

1 0 0
5 3 x 2
9 4 3 x

= (1 x)

3 x 2
4 3 x

=
= (1 x)
2
(x + 1).
Los valores propios de A son 1 y -1.
dim Nuc (AI) = 3rango (AI) = 3rango
_
_
9 4 13
5 2 7
9 4 13
_
_
= 32 = 1
Els autors, 2002; Edicions UPC, 2002
328 CAPTULO 15. FORMA REDUCIDA DE JORDAN
dim Nuc (AI)
2
= 3rango (AI)
2
= 3rango
_
_
16 8 24
8 4 12
16 8 24
_
_
= 31 = 2
Por tanto,
Nuc (AI) Nuc (AI)
2
= Nuc (AI)
r
, r 2
Por consiguiente, el polinomio mnimo de A es
m
A
(x) = (x 1)
2
(x + 1).
Veamos qu forma tiene el recuadro expuesto en el procedimiento para obtener
la matriz de Jordan para el valor propio 1:
El nmero de las es el exponente del polinomio mnimo: 2
El nmero de elementos en la la inferior es p
1
:
p
1
= q
1
q
0
= dim Nuc (AI) dim Nuc I = 1 0 = 1
El nmero de elementos en la la superior es p
2
:
p
2
= q
2
q
1
= dim Nuc (AI)
2
dim Nuc (AI) = 2 1 = 1
Tenemos la siguiente situacin:
u
1
es un vector cualquiera que pertenezca a Nuc (AI)
2
pero no a Nuc (AI).
Por ejemplo,
u
1
= (1, 2, 0)
Entonces,
(AI)u
1
= (1, 1, 1) Nuc (AI)
u
2
es un vector de Nuc (A+I) ; por ejemplo
u
2
= (1,
1
2
, 1)
La forma de Jordan de la matriz A depende del orden de los vectores de la base:
En la base B = {u
1
= (1, 2, 0), (A I)u
1
= (1, 1, 1), u
2
= (1,
1
2
, 1)}, la
matriz del endomorsmo ser:
J =
_
_
1 0 0
1 1 0
0 0 1
_
_
.
Els autors, 2002; Edicions UPC, 2002
15.4. MATRIZ CANNICA DE UN ENDOMORFISMO 329
En la base B = {u
2
= (1,
1
2
, 1), u
1
= (1, 2, 0), (A I)u
1
= (1, 1, 1)} la
matriz del endomorsmo ser:
J =
_
_
1 0 0
0 1 0
0 1 1
_
_
En la base B = {(A I)u
1
= (1, 1, 1), u
1
= (1, 2, 0), u
2
= (1,
1
2
, 1)}, la
matriz del endomorsmo ser:
J =
_
_
1 1 0
0 1 0
0 0 1
_
_
En la base B = {u
2
= (1,
1
2
, 1), (A I)u
1
= (1, 1, 1), u
1
= (1, 2, 0)}, la
matriz del endomorsmo ser:
J =
_
_
1 0 0
0 1 1
0 0 1
_
_
Els autors, 2002; Edicions UPC, 2002
330 CAPTULO 15. FORMA REDUCIDA DE JORDAN
Els autors, 2002; Edicions UPC, 2002
Captulo 16
Formas bilineales simtricas
y formas cuadrticas
16.1. Denicin y primeras propiedades
Ejercicio 81 Consideremos las bases B
1
= (u
1
, u
2
, u
3
) y B
2
= (v
1
, v
2
, v
3
) de
R
3
tales que
u
1
= 2v
1
+v
2
u
2
= v
1
v
3
u
3
= v
1
+v
3
y la forma bilineal f : R
3
R
3
R cuya matriz en B
1
es la matriz
A =
_
_
1 0 2
1 1 0
0 1 0
_
_
Hallar la matriz de f en la base B
2
.
Solucin: Designamos por (x
1
, x
2
, x
3
) y (x
0
1
, x
0
2
, x
0
3
) las coordenadas de un
vector x de R
3
en las bases B
1
y B
2
, respectivamente. Entonces tenemos
_
_
2 1 1
1 0 0
0 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
x
0
1
x
0
2
x
0
3
_
_
es decir,
_
_
x
1
x
2
x
3
_
_
=
_
_
2 1 1
1 0 0
0 1 1
_
_
1
_
_
x
0
1
x
0
2
x
0
3
_
_
=
_
_
0 1 0
1
2
1
1
2
1
2
1
1
2
_
_
_
_
x
0
1
x
0
2
x
0
3
_
_
331
Els autors, 2002; Edicions UPC, 2002
332CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
En la base B
1
se cumple,
f(x, y) =

x
1
x
2
x
3

_
_
1 0 2
1 1 0
0 1 0
_
_
_
_
y
1
y
2
y
3
_
_
por tanto, en la base B
2
tendremos,
f(x
0
, y
0
) =

x
0
1
x
0
2
x
0
3

_
_
0 1 0
1
2
1
1
2
1
2
1
1
2
_
_
t
_
_
1 0 2
1 1 0
0 1 0
_
_
_
_
0 1 0
1
2
1
1
2
1
2
1
1
2
_
_
_
_
y
0
1
y
0
2
y
0
3
_
_
=

x
0
1
x
0
2
x
0
3

_
_
1
2

1
2

1
2
2 4 0
0
1
2
0
_
_
_
_
y
0
1
y
0
2
y
0
3
_
_
y, en consecuencia, la matriz de f en la base B
2
es
A
0
=
_
_
1
2

1
2

1
2
2 4 0
0
1
2
0
_
_
Ejercicio 82 Se considera la forma bilineal f : R
3
R
3
R denida por
f(x, y) = x
1
y
1
x
1
y
3
+x
2
y
2
x
3
y
1
+x
3
y
2
+ 2x
3
y
3
+x
2
y
3
siendo x = (x
1
, x
2
, x
3
) y y = (y
1
, y
2
, y
3
). Se pide:
1. La matriz asociada a f.
2. Rango y ncleo de f.
3. En R
3
se considera el siguiente cambio de coordenadas
x
0
1
= 2x
1
+ 2x
2
+ 3x
3
x
0
2
= x
1
x
3
x
0
3
= x
2
x
3
Hallar la expresin analtica de la forma cuadrtica asociada a f en la
nueva base.
Solucin:
1. Se cumple
f(x, y) =

x
1
x
2
x
3

_
_
1 0 1
0 1 1
1 1 2
_
_
_
_
y
1
y
2
y
3
_
_
y la matriz de f en la base original es
A =
_
_
1 0 1
0 1 1
1 1 2
_
_
Els autors, 2002; Edicions UPC, 2002
16.1. DEFINICIN Y PRIMERAS PROPIEDADES 333
2. Observamos que f es simtrica y, por tanto, el rango de f es el rango de
A; puesto que det A = 0 y

1 0
0 1

6= 0
el rango de f es dos y, en consecuencia, f es una forma degenerada. El
ncleo se obtiene resolviendo el siguiente sistema,
_
_
1 0 1
0 1 1
1 1 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
cuyas soluciones son x
1
= x
3
= y x
2
= con R. Por tanto,
ker f = h(1, 1, 1)i
3. La ecuacin del cambio de coordenadas es,
_
_
2 2 3
1 0 1
0 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
x
0
1
x
0
2
x
0
3
_
_
luego,
_
_
x
1
x
2
x
3
_
_
=
_
_
1 1 2
1 2 1
1 2 2
_
_
_
_
x
0
1
x
0
2
x
0
3
_
_
Entonces,
f(x
0
, y
0
) =

x
0
1
x
0
2
x
0
3

_
_
1 1 2
1 2 1
1 2 2
_
_
t
_
_
1 0 1
0 1 1
1 1 2
_
_
_
_
1 1 2
1 2 1
1 2 2
_
_
_
_
y
0
1
y
0
2
y
0
3
_
_
=

x
0
1
x
0
2
x
0
3

_
_
4 6 8
6 9 12
8 12 17
_
_
_
_
y
0
1
y
0
2
y
0
3
_
_
Por tanto, si q es la forma cuadrtica asociada a f, entonces tendremos,
q(x
0
) =

x
0
1
x
0
2
x
0
3

_
_
4 6 8
6 9 12
8 12 17
_
_
_
_
x
0
1
x
0
2
x
0
3
_
_
= 4(x
0
1
)
2
+ 9(x
0
2
)
2
+ 17(x
0
3
)
2
+ 12x
0
1
x
0
2
+ 16x
0
1
x
0
3
+ 24x
0
2
x
0
3
Els autors, 2002; Edicions UPC, 2002
334CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
16.2. Ortogonalidad respecto a una forma bilin-
eal simtrica
Ejercicio 83 Sea S
2
(R) el espacio vectorial de las matrices simtricas de orden
2 y
B =

1 0
0 0

0 1
1 0

0 0
0 1

una base del mismo. Sea f una forma bilineal simtrica sobre S
2
(R), cuya matriz
asociada en esta base es
A =
_
_
1 1 0
1 2 1
0 1 1
_
_
Se pide:
1. Rango de f y una base del ncleo de f
2. Hallar el subespacio ortogonal respecto a f con la matriz
B =

1 2
2 0

3. Hallar una base ortogonal de S


2
(R) respecto de f
4. Clasicar la forma cuadrtica asociada a f
Solucin:
1. Como

1 1 0
1 2 1
0 1 1

= 0
y

1 1
1 2

6= 0
el rango de f es dos y, por tanto, es degenerada. Calculemos su ncleo,
_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
es decir,
_
_
_
x +y = 0
x + 2y z = 0
y +z = 0
Els autors, 2002; Edicions UPC, 2002
16.2. ORTOGONALIDADRESPECTOAUNAFORMABILINEAL SIMTRICA335
de donde se obtiene, x = , y = z = con R. Por tanto, tenemos
que el ncleo de f est constituido por las matrices de la forma

1 0
0 0

0 1
1 0

0 0
0 1

1 1
1 1

y la matriz

1 1
1 1

es una base del ncleo de f.


2. Las coordenadas de la matriz B en la base B son

1 2
2 0

= 1

1 0
0 0

+ 2

0 1
1 0

+ 0

0 0
0 1

es decir, (1, 2, 0); luego el subespacio ortogonal vendr dado por las matri-
ces de coordenadas (x, y, z) tales que

1 2 0

_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
x
y
z
_
_
= 0
es decir,

3 5 2

_
_
x
y
z
_
_
= 3x + 5y 2z = 0
Por tanto,
hBi

=

x y
y z

S
2
(R) : 3x + 5y 2z = 0

3. Tomamos como primer vector de la base ortogonal la matriz

1 0
0 0

que tiene como coordenadas (1, 0, 0). Hallemos su subespacio ortogonal,

1 0 0

_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
x
y
z
_
_
=

1 1 0

_
_
x
y
z
_
_
= x +y = 0
Un vector de este subespacio es, por ejemplo, (0, 0, 1) que ser el segundo
vector vector de la base. Buscamos ahora un tercer vector de coordenadas
Els autors, 2002; Edicions UPC, 2002
336CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
(x, y, z) ortogonal con los dos anteriores. Para que sea ortogonal a (0, 0, 1)
tendr que cumplir

0 0 1

_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
x
y
z
_
_
=

0 1 1

_
_
x
y
z
_
_
= y +z = 0
Por tanto, este tercer vector debe satisfacer

x +y = 0
y +z = 0
Por ejemplo, podemos tomar (1, 1, 1). Por lo tanto, una base ortogonal
respecto a f es
B
0
=

1 0
0 0

1 1
1 0

1 1
1 1

4. La matriz de la forma cuadrtica q asociada a f coincide con A en la


base B. Para clasicarla debemos expresarla en una base ortonormal. Si
tomamos como base ortonormal la que acabamos de calcular, entonces la
matriz de cambio de base es
P =
_
_
1 0 1
0 0 1
0 1 1
_
_
y, por tanto, la nueva matriz de q en la base B
0
ser
_
_
1 0 1
0 0 1
0 1 1
_
_
t
_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
1 0 1
0 0 1
0 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 0
_
_
y su expresin en esta base es
q(x
0
, y
0
, z
0
) = (x
0
)
2
+ (y
0
)
2
y, en consecuencia, es una forma cuadrtica positiva, ya que slo contiene
trminos positivos por qu?
Ejercicio 84 Sea E un espacio vectorial de dimensin cuatro sobre el cuerpo de
los nmeros reales y B = (e
1
, e
2
, e
3
, e
4
) una base, respecto de la cual las coorde-
nadas de un vector genrico x se representan por (x
1
, x
2
, x
3
, x
4
). Consideremos
la forma cuadrtica denida sobre E por
q(x) = x
2
1
+ 3x
2
2
x
2
3
+ 4x
1
x
2
+ 2x
1
x
3
+ 2x
1
x
4
+ 2x
2
x
4
2x
3
x
4
Se pide:
Els autors, 2002; Edicions UPC, 2002
16.2. ORTOGONALIDADRESPECTOAUNAFORMABILINEAL SIMTRICA337
1. Clasicar la forma cuadrtica.
2. Calcular una base del ncleo de la polar de q.
3. Sea F el subespacio vectorial de E denido por las siguientes ecuaciones

x
1
x
3
+ 2x
4
= 0
x
2
x
3
x
4
= 0
en la base B. Hallar la matriz de q sobre F, indicando la base utilizada en
F.
4. Determinar un subespacio vectorial de E de dimensin mxima tal que la
restriccin de q a l sea una forma cuadrtica denida positiva. Dar la
dimensin y una base de dicho subespacio.
Solucin:
1. La matriz asociada a q en la base B es
A =
_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
Observemos que q(e
1
) = 1 > 0 y q(e
3
) = 1 < 0; luego q es indenida.
Adems, q es degenerada ya que det A = 0.
2. La polar de q es la forma bilineal simtrica f cuya matriz en la base B es
A. Por tanto, el ncleo de f se calcular por
_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= 0
Como el rango de A es tres, la dimensin del ncleo es uno y, por tanto,
podemos tomar como base el vector (1, 1, 0, 1).
3. Calculemos una base de F; para ello, resolvamos el siguiente sistema

x
1
x
3
+ 2x
4
= 0
x
2
x
3
x
4
= 0
cuyas soluciones son (2, +, , ) = (1, 1, 1, 0)+(2, 1, 0, 1) con
, R. Por tanto, una base de F es u
1
= (1, 1, 1, 0) y u
2
= (2, 1, 0, 1)).
Calculemos ahora la matriz de la restriccin de f a F en la base con-
siderada; para ello, debemos determinar f(u
1
, u
1
) = q(u
1
), f(u
1
, u
2
) y
Els autors, 2002; Edicions UPC, 2002
338CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
f(u
2
, u
2
) = q(u
2
),
q(u
1
) =

1 1 1 0

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
1
1
0
0
_
_
_
_
= 9
f(u
1
, u
2
) =

1 1 1 0

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
2
1
0
1
_
_
_
_
= 2
q(u
2
) =

2 1 0 1

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
2
1
0
1
_
_
_
_
= 3
Luego, la matriz de la restriccin g de f a F es

9 2
2 3

y si representamos por (y
1
, y
2
) las coordenadas de un vector de F con
repecto a la base considerada, la expresin de la restriccin de q a F es
q(y
1
, y
2
) = 9y
2
1
3y
2
4y
1
y
2
4. En primer lugar debemos calcular el valor de s, es decir, el nmero de
trminos positivos que contiene la forma cuadrtica al expresarla en una
base ortonormal respecto a f. Para ello, debemos calcular una base or-
togonal de E respecto a f. Tomemos como primer vector (1, 0, 0, 0); las
coordenadas del segundo (x
1
, x
2
, x
3
, x
4
) deben cumplir,

1 0 0 0

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= x
1
+ 2x
2
+x
3
+x
4
= 0
y, tomamos, por ejemplo, (1, 0, 1, 0); el tercer vector debe satisfacer,
adems de esta ltima ecuacin, la siguiente,

1 0 1 0

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= 2x
2
+ 2x
3
+ 2x
4
= 0
y, tomamos, (0, 0, 1, 1); por ltimo, el cuarto deber satisfacer las dos
anteriores y la siguiente

0 0 1 1

_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= x
2
+x
4
= 0
Els autors, 2002; Edicions UPC, 2002
16.3. FORMAS BILINEALES SIMTRICAS REALES 339
y, tomamos, (1, 1, 0, 1). Por tanto, B
0
= ((1, 0, 0, 0), (1, 0, 1, 0), (0, 0, 1, 1), (1, 1, 0, 1))
es una base ortonormal de E respecto a f. La matriz de q respecto a esta
ltima base se calcular como sigue,
_
_
_
_
1 1 0 1
0 0 0 1
0 1 1 0
0 0 1 1
_
_
_
_
t
_
_
_
_
1 2 1 1
2 2 0 1
1 0 1 1
1 1 1 0
_
_
_
_
_
_
_
_
1 1 0 1
0 0 0 1
0 1 1 0
0 0 1 1
_
_
_
_
=
_
_
_
_
1 0 0 0
0 2 0 0
0 0 1 0
0 0 0 1
_
_
_
_
y a la vista de los elementos de la diagonal tenemos que s = 2. Por tanto,
la dimensin mxima de un subespacio de E para el que la restriccin de la
forma cuadrtica es denida positiva es dos. Si llamamos v
1
= (1, 0, 0, 0)
y v
3
= (0, 0, 1, 1), es evidente que el subespacio vectorial G = hv
1
, v
3
i
cumple la condicin exigida y una base es v
1
y v
3
.
16.3. Formas bilineales simtricas reales
Ejercicio 85 Consideremos en R
3
las formas cuadrticas q
1
y q
2
con matrices
M
1
=
_
_
2 1 0
1 1 1
0 1 3
_
_
y M
2
=
_
_
1 0 1
0 3 1
1 1 2
_
_
en la base cannica, respectivamente. Averiguar si q
1
y q
2
son equivalentes en
R
3
.
Solucin: En un espacio euclideo dos formas cuadrticas q
1
y q
2
son equiv-
alentes si existe una base ortonormal respecto a la cual las matrices de las dos
formas cuadrticas coinciden. Ahora bien, como las formas cuadrticas reales
admiten siempre una representacin matricial diagonal en una base ortonor-
mal, el polinomio caracterstico es un invariante completo para la clasicacin
euclidea de las formas cuadrticas. Calculando los polinomios caractersticos de
ambas matrices tenemos,
det(M
1
I
3
) =
3
+ 6
2
9 + 1
det(M
2
I
3
) =
3
+ 6
2
9 + 2
A la vista de los resultados es evidente que las dos formas no son equivalentes.
Sin embargo, obsrvese que, para ambas formas cuadrticas, la sucesin de sig-
nos del polinomio caracterstico coincide,
+ +
Por tanto, las signaturas de ambas formas coinciden y su valor es (3, 0).
Els autors, 2002; Edicions UPC, 2002
340CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Ejercicio 86 Consideremos la forma cuadrtica q de R
3
denida por
q(x) = 2x
2
+y
2
+ 3z
2
+ 4xy + 4yz
y el subespacio vectorial F engendrado por los vectores de coordenadas u
1
=
(2, 0, 1) y u
2
= (1, 1, 1). Estudiar si la restriccin de q a F es denida positiva
o negativa, o indenida.
Solucin: La matriz de q y de la forma bilineal simtrica asociada f en la
base cannica es,
_
_
2 2 0
2 1 2
0 2 3
_
_
Encontremos la matriz de la restriccin al subespacio F, para ello debemos cal-
cular q(u
1
), f(u
1
, u
2
) y q(u
2
),
q(u
1
) =

2 0 1

_
_
2 2 0
2 1 2
0 2 3
_
_
_
_
2
0
1
_
_
= 5
f(u
1
, u
2
) =

2 0 1

_
_
2 2 0
2 1 2
0 2 3
_
_
_
_
1
1
1
_
_
= 5
q(u
2
) =

1 1 1

_
_
2 2 0
2 1 2
0 2 3
_
_
_
_
1
1
1
_
_
= 10
Por tanto, la matriz de la restriccin a F es,

5 5
5 10

que es una forma cuadrtica indenida, ya que a la vista de su polinomio car-


acterstico 75 5x +x
2
tiene signatura (1, 1) por qu?
Ejercicio 87 Consideremos la forma cuadrtica q de R
3
denida por
q(x) = 2x
2
2xy +y
2
+ 2xz
Para cada t [0, 1], consideramos el subespacio vectorial F
t
= h(1, 1, 0), (t, 1, t)i
y q
t
: F
t
R, la restriccin de q sobre F
t
. Considerando en R
3
el producto
escalar ordinario,
1. Dar la matriz de q
t
en una base de F
t
.
2. Clasicar q
t
segn los valores de t [0, 1].
3. Si f
t
es el endomorsmo simtrico asociado a q
t
, sea E un espacio euclideo
y f un endomorsmo simtrico E, se llama forma cuadrtica asociada
a f la forma cuadrtica q
f
sobre E que satisface q
t
(x) = x f(x) para todo
x E, hallar la matriz de f
t
en una base de F
t
.
Els autors, 2002; Edicions UPC, 2002
16.3. FORMAS BILINEALES SIMTRICAS REALES 341
Solucin:
1. La matriz de q y de la forma bilineal simtrica f asociada a q en la base
cannica es,
_
_
2 1 1
1 1 0
1 0 0
_
_
Designemos por u
1
= (1, 1, 0) y u
2
= (t, 1, t); para hallar la matriz de la
restriccin q
t
en la base u
1
, u
2
debemos calcular q(u
1
), q(u
2
) y f(u
1
, u
2
),
q(u
1
) =

1 1 0

_
_
2 1 1
1 1 0
1 0 0
_
_
_
_
1
1
0
_
_
= 1
f(u
1
, u
2
) =

1 1 0

_
_
2 1 1
1 1 0
1 0 0
_
_
_
_
t
1
t
_
_
= 0
q(u
2
) =

t 1 t

_
_
2 1 1
1 1 0
1 0 0
_
_
_
_
t
1
t
_
_
= 2t + 1
Por tanto, la matriz de q
t
en la base u
1
, u
2
de F
t
es
A
Ft
=

1 0
0 1 2t

2. A la vista de la matriz hallada en el apartado anterior, es claro que q


t
es
denida positiva si y slo si 1 2t > 0, es decir, t < 1/2. Si t = 1/2,
entonces q
t
es positiva y degenarada, y, si t > 1/2, q
t
es indenida.
3. Calculemos la matriz del producto escalar ordinario de R
3
restringido a
F
t
,

1 1 0

_
_
1
1
0
_
_
= 2

1 1 0

_
_
t
1
t
_
_
= t + 1

t 1 t

_
_
t
1
t
_
_
= 1 + 2t
2
Por tanto, la matriz del producto escalar sobre F
t
es
G
F
t
=

2 t + 1
t + 1 1 + 2t
2

Els autors, 2002; Edicions UPC, 2002


342CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
y, en consecuencia, si M
F
t
es la matriz del endomorsmo simtrico aso-
ciado a q
t
tenemos
A
F
t
= G
F
t
M
F
t
es decir,
M
F
t
= G
1
Ft
A
F
t
=

2 t + 1
t + 1 1 + 2t
2

1 0
0 1 2t

=
1
1 2t + 3t
2

1 + 2t
2
1 +t + 2t
2
1 t 2 4t

16.4. Procedimientos
Ejercicio 88 Dada la familia de formas cuadrticas en R
3
q

(x) = x
2
+y
2
+ ( + 1)z
2
+ 2yz + 2zx
1. Clasicar las formas cuadrticas segn los distintos valores reales del parmetro
.
2. Para = 2, obtener el ortogonal del subespacio vectorial F denido por
las ecuaciones siguientes

x y = 0
y = 0
3. Diagonalizar la forma para = 3 por el mtodo de Gauss.
4. Para = 4 diagonalizar la forma encontrando una base de vectores ortog-
onales
Solucin:
1. La matriz asociada a q

en la base cannica es
A

=
_
_
1 0 1
0 1
1 + 1
_
_
Calculemos los menores principales,
M
1
= 1 > 0
M
2
=

1 0
0 1

= 1 > 0
M
3
=

1 0 1
0 1
1 + 1

= (1 )
Entonces tenemos:
Els autors, 2002; Edicions UPC, 2002
16.4. PROCEDIMIENTOS 343
a) Si < 0, como M
3
< 0, q

es indenida y no degenerada
b) Si 0 < < 1, como M
3
> 0, q

es denida positiva
c) Si = 0 o = 1, como M
3
= 0, q

es positiva y degenerada
d) Si > 1, como M
3
< 0, q

es indenida y no degenerada
2. Observemos que F = h(0, 0, 1)i y, por tanto, el subespacio ortogonal vendr
denido por,

x y z

_
_
1 0 1
0 1 2
1 2 3
_
_
_
_
x
y
z
_
_
= 0
x + 2y + 3z = 0
Por tanto,
F

= {(x, y, z) R
3
: x + 2y + 3z = 0}
3. Para = 3, tenemos
q
3
(x) = x
2
+y
2
+ 4z
2
+ 6yz + 2zx
= (x +z)
2
+y
2
+ 3z
2
+ 6yz
= (x +z)
2
+ (y + 3z)
2
6z
2
Mediante el siguiente cambio de coordenadas,
_
_
_
x
0
= x +z
y
0
= y + 3z
z
0
= z
se obtiene la siguiente forma reducida,
q(x
0
) = (x
0
)
2
+ (y
0
)
2
6(z
0
)
2
4. Para = 4, tenemos
q
4
(x) = x
2
+y
2
+ 5z
2
+ 8yz + 2zx
Vamos a construir una base ortogonal respecto a q
4
. Tomamos como primer
vector de esta base el vector (1, 0, 0). El subespacio ortogonal con (1, 0, 0)
vendr dado por

1 0 0

_
_
1 0 1
0 1 4
1 4 5
_
_
_
_
x
y
z
_
_
= 0
x +z = 0
Els autors, 2002; Edicions UPC, 2002
344CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Un vector de este subespacio, por ejemplo, (0, 1, 0) ser el segundo vector
de la base. Por ltimo, buscamos un vector de coordenadas (x, y, z) que
sea ortogonal a los dos anteriores. El subespacio ortogonal con (0, 1, 0) es

0 1 0

_
_
1 0 1
0 1 4
1 4 5
_
_
_
_
x
y
z
_
_
= 0
y + 4z = 0
Por tanto, (x, y, z) tiene que ser solucin del siguiente sistema,

x +z = 0
y + 4z = 0
Por ejemplo, (1, 4, 1) puede ser el tercer vector de la base. Por lo tanto,
la base ortogonal respecto a q
4
es,
B = ((1, 0, 0), (0, 1, 0), (1, 4, 1))
La forma reducida correspondiente se hallar calculando primero
q
4
(1, 0, 0) = 1
q
4
(0, 1, 0) = 1
q
4
(1, 4, 1) = 12
Por tanto,
q
4
(x
0
) = (x
0
)
2
+ (y
0
)
2
12(z
0
)
2
Ejercicio 89 Consideremos en R
3
la familia de formas cuadrticas q

cuya
matriz respecto a la base cannica es
A

=
_
_
1 0
0 1 1
1 0
_
_
Calcular las signaturas de las formas cuadrticas segn los valores reales del
parmetro .
Solucin: Calculamos el determinante de A

1 0
0 1 1
1 0

= 1
2
Como R, 1
2
6= 0 para todo valor de . As, las formas cuadrticas
no son degeneradas para todo valor de R. Calculamos ahora el polinomio
caracterstico,
det(A

tI
3
) = t
3
+ 2t
2
+
2
t (1 +
2
)
Els autors, 2002; Edicions UPC, 2002
16.4. PROCEDIMIENTOS 345
y como
2
0 y 1 +
2
> 0 para todo R, obtenemos la siguiente sucesin
de signos entre los coecientes,
+ +
con dos cambios de signo. Como adems q

es no degenerada, la signatura es
(2, 1) para todo valor R.
Els autors, 2002; Edicions UPC, 2002
346CAPTULO16. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
Els autors, 2002; Edicions UPC, 2002
Parte III
Apndices
347
Els autors, 2002; Edicions UPC, 2002
Els autors, 2002; Edicions UPC, 2002
Apndice A
Espacios vectoriales
1. Demostrar que el conjunto C de los nmeros complejos, con las operaciones
(a +bi) + (c +di) = (a +c) + (b +d)i
(a +bi) = a +bi
tiene estructura de espacio vectorial real.
2. Considerese el conjunto de las funciones denidas sobre el intervalo [0, 1]
y tales que 2f(0) = f(1). Forman un espacio vectorial real?
3. Considerese el conjunto de los polinomios de grado inferior o igual a 4,
sobre un cuerpo K (comprendido el polinomio nulo). Forman un espacio
vectorial sobre K?
4. Consideremos el espacio vectorial real F(R, R) de las funciones reales de
variable real. Determinar cules de los siguientes subconjuntos son sube-
spacios vectoriales: (a) S
1
= {f F(R, R) : f(x) = f(x), x R};
(b) S
2
= {f F(R, R) : f(x) = f(x), x R}; (c) S
3
= {f
F(R, R) : f es continua}; (d) S
4
= {f F(R, R) : f(x) 0, x R};
(e) S
5
= {f F(R, R) : f es dos veces derivable y f
00
f
0
+ f = 0}; (f)
S
6
= {f F(R, R) : f(1) = f(2) + 3}.
5. Consideremos el espacio vectorial real M
nm
(R) de las matrices de orden
n m con coecientes reales. Determinar cules de los siguientes subcon-
juntos son subespacios vectoriales: (a) S
1
= {A M
nm
(R) : a
11
= 0};
(b) S
2
= {A M
nm
(R) :
P
n
i=1
a
ii
= 0, n = m}; (c) S
3
= {A
M
nm
(R) : a
ij
= a
ji
, i, j, n = m}.
6. Considrese las inclusiones Q Q(
3

5) R C, siendo Q(
3

5) = {a +
b
3

5 : a, b Q}. Demostrar que cada uno de estos cuerpos es un espacio


vectorial sobre el anterior.
349
Els autors, 2002; Edicions UPC, 2002
350 APNDICE A. ESPACIOS VECTORIALES
7. Escribir el vector w = (2, 2, 3) como una combinacin lineal de los vec-
tores del sistema S = (v
1
, v
2
, v
3
) de R
3
, siendo v
1
= (2, 1, 4), v
2
=
(1, 1, 3), v
3
= (3, 2, 5).
8. Escribir el polinomio p(x) = 2 +2x+3x
2
como una combinacin lineal de
los polinomios p
1
(x) = 2+x+4x
2
, p
2
(x) = 1x+3x
2
, p
3
(x) = 3+2x+5x
2
de R
2
[x].
9. Averiguar si la matriz
A =

1 7
5 1

es o no una combinacin lineal de las matrices


M
1
=

1 2
1 3

, M
2
=

0 1
2 4

, M
3
=

4 2
0 2

de M
2
(R).
10. (a) Exprese (4a, a b, a + 2b) como una combinacin lineal de (4, 1, 1) y
(0, 1, 2). (b) Exprese (3a + b + 3c, a + 4b c, 2a + b + 2c) como una
combinacin lineal de (3, 1, 2) y (1, 4, 1). (c) Exprese (2a b + 4c, 3a
c, 4b +c) como una combinacin lineal de tres vectores diferentes de cero.
11. Exprese v = (1, 1) como una combinacin lineal de v
1
= (1, 1), v
2
=
(3, 0), v
3
= (2, 1), de dos maneras distintas.
12. Expresar (si es posible) los siguientes elementos de F(R, R) como una
combinacin lineal de las familias correspondientes: (a) sinx y (1, x, x
2
, ...);
(b) x
2
+ x 1 y (1, x 1, (x 1)
2
); (c) 1 y (x + 1, x
2
1, x
3
+ 1); 0 y
((x 1)
2
, x, x
2
+ 2,

3).
13. En el espacio vectorial R
4
se considera el subespacio engendrado por
los vectores (2, 3, 1, 5) y (0, 2, 1, 3). Hallar a y b para que el vector
(2, a, 3, b) pertenezca a dicho subespacio.
14. Hallar un sistema generador S del espacio vectorial de las soluciones de
los siguientes sistemas lineales homogneos:
(a)
x + 4y + 8z = 0
2x + 5y + 6z = 0
3x +y 4z = 0
_
_
_
(b)
2x 3y +z = 0
6x 9y + 3z = 0
4x + 6y 2z = 0
_
_
_
15. De los sistemas siguientes, determinar cules engendran R
3
. En caso neg-
ativo, dar una descripcin geomtrica del subespacio que engendran. (a)
S
1
= ((4, 7, 3), (1, 2, 6), (2, 3, 5)); (b) S
2
= ((2, 5, 0), (4, 6, 3)); S
3
=
((1, 0, 3), (2, 0, 1), (4, 0, 5), (2, 0, 6)).
Els autors, 2002; Edicions UPC, 2002
351
16. Hallar un sistema de ecuaciones lineales homogneas cuyo espacio de solu-
ciones es cada uno de los siguientes subespacios vectoriales:
S
1
= h(1, 2, 0, 3), (1, 1, 1, 4), (1, 0, 2, 5)i
S
2
= h(1, 2, 0, 1)i
S
3
=

8 + 3x, 2x + 3x
2

(considerado como subespacio de R


2
[x] )
S
4
=

0 1
3 1

0 1
1 3

3 1
1 0

17. Se consideran los subespacios S y T de R


4
denidos como sigue:
S = {(x, y, z, t) R
4
: x = y = z}
T = {( + + + 3, + + 2, +, +) : , , , R}
(a) Est T S? (b) Calcular S T.
18. Hallar S T y S +T, siendo
S = h(1, 0, 1), (1, 1, 0)i
T = h(1, 2, 3), (0, 0, 1)i
Averiguar si la suma es o no directa. Averiguar tambin si S y T son o no
subespacios suplementarios respecto R
3
.
19. Demostrar que los sistemas S
1
= ((1, 2, 1), (2, 1, 0)) y S
2
= ((4, 7, 2), (1, 7, 3))
de R
3
son equivalentes.
20. En el espacio vectorial R
4
se consideran los vectores (1, 2, 0, a), (3, 2, b, 1), (2, 7, a, 3).
Determinar a y b para que estos vectores sean linealmente dependientes.
21. En R
4
estudiar la independencia lineal de los vectores
(1, 7, 1, 0), (2, 13, 0, 1), (3, 17, 4, 2), (0, 5, 2, 1)
22. Probar que si u
1
, u
2
, u
3
son vectores linealmente independientes de un
espacio vectorial E, tambin lo son u
1
+u
2
, u
2
+u
3
, u
1
+u
3
.
23. Calcular el espacio vectorial cociente del espacio vectorial R
4
mdulo el
subespacio F, siendo: (a) F = {(x, y, z, t) : x +y = z t = 0}; (b) F =
h(1, 1, 1, 1), (1, 2, 3, 4), (1, 3, 5, 6)i; (c) F = {(x, y, z, t) : x + y = x y =
z +t = x t = 0}.
24. Sean
M = {

a b
0 c

: a, b, c R}
M
0
= {

a b 2a
b a + 2b

: a, b R}
Hallar una base de M
22
(R)/M y M
22
(R)/M
0
.
Els autors, 2002; Edicions UPC, 2002
352 APNDICE A. ESPACIOS VECTORIALES
25. Determinar los rangos de los sistemas R
4
y eventualmente las relaciones en-
tre los vectores de S
i
(i = 1, 2). (a) S
1
: v
1
= (1, 0, 1, 0), v
2
= (2, 1, 0, 1), v
3
=
(0, 2, 1, 1), v
4
= (3, 1, 2, 0); (b) S
2
: v
1
= (1, 0, 2, 3), v
2
= (7, 4, 2, 1), v
3
=
(5, 2, 4, 7), v
4
= (3, 2, 0, 1).
26. Determinar, segn los valores de (o de , , ) los rangos de los sistemas
S
1
, S
2
, S
3
de vectores de R
3
. (a) S
1
: v
1
= (, 1, 1), v
2
= (1, , 1), v
3
=
(1, 1, ); (b) S
2
: v
1
= (, 1, 1), v
2
= (1, , 1), v
3
= (1, 1, );
S
3
: v
1
= (0, , ), v
2
= (, 0, ), v
3
= (, , 0).
27. Determinar una base del subespacio F de R
4
descrito por (x, y, z, t) del
que se sabe que x = y 3z y z = t. Completar la base obtenida para
obtener una base de R
4
.
28. En R
3
vericar que los vectores a, b, c son independientes y calcular las
coordenadas de x respecto de la base (a, b, c). Los vectores son a =
(1, 1, 1), b = (1, 1, 1), c = (1, 1, 1) y x = (2, 3, 1).
29. Determinar el rango del sistema de vectores v
i
(i = 1, ..., n) de R
n
que
tienen coordenadas
ij
= 1+(1)
ij
, en donde es un escalar conocido
y
ij
es el smbolo de Kronecker.
30. Sean F, G, H subespacios del espacio vectorial E. Demostrar o dar con-
traejemplos de las armaciones siguientes:
a) F (G+H) = (F G) + (F H)
b) F + (G H) = (F +G) (F +H)
c) dim(F (G+H)) = dim(F G) + dim(F H) + dim(F G H)
31. Consideremos el espacio vectorial R
3
[t] de los polinomios con coecientes
reales de grado a lo sumo tres. Sean F y G los subespacios
F = {p(t) R
3
[t] : p(0) = p(1) = p
0
(1/2) = p
000
(0) = 0}
G = ht + 1, t, t 1i
a) Calcular sus dimensiones y hallar una base de cada uno de ellos
b) Consideremos los polinomios t
2
5t + 2 y 3t 4. Se pide: (i) Son de
G? (ii) En caso armativo, hallar , , R tales que
p(t) = (t + 1) +t +(t 1)
siendo p(t) cada uno de los dos polinomios anteriores. (iii) Son estos
, , nicos? En caso armativo, justicar la respuesta. En caso con-
trario, hallarlos.
c) Calcular las dimensiones y hallar una base de F + G y F G. Es la
suma F +G directa?
d) Hallar una base de un complementario de F +G en R
3
[t].
Els autors, 2002; Edicions UPC, 2002
353
32. Consideremos en C
3
el sistema S = ((2 i, 1, 1), (1, 2 +i, 3), (1, 2 + 3i, 2)).
Averiguar: (a) Si S es un sistema generador de un subespacio de C
3
de
dimensin 1; (b) Si S es un sistema generador de un subespacio de C
3
de
dimensin 2; (c) Es una base de C
3
? (d) Es un sistema libre?
Els autors, 2002; Edicions UPC, 2002
354 APNDICE A. ESPACIOS VECTORIALES
Els autors, 2002; Edicions UPC, 2002
Apndice B
Aplicaciones lineales
1. Es lineal la aplicacin f : R
2
R
3
denida por f(x, y) = (2x + y, x
y, 3y)?
Solucin: S.
2. Sea la aplicacin f : R
3
M
2
(R) dada por
f(x
1
, x
2
, x
3
) =

x
1
x
2
x
2
x
3
x
3
x
1
x
1
x
2

.
Demostrar que es lineal.
3. Sea la aplicacin lineal f : R
4
R
3
dada por f(x, y, z, t) = (x+y, xt, 3z).
Calcular el valor de para que el vector v = (22, 4, 0, 2) pertenezca
a Nuc f.
Solucin: = 2.
4. Consideremos las aplicaciones f : M
2
(R) R
2
[x] denida por
f

a b
c d

= a + (b +c)x
2
y g : R
2
[x] R
2
[x] denida por
g(P(x)) = P(x) (derivada de P(x))
a) Es f inyectiva? Es g inyectiva?
b) Calcular las matrices asociadas a f y g en las bases cannicas de
M
2
(R) y R
2
[x]:
Base de M
2
(R) :

1 0
0 0

0 1
0 0

0 0
1 0

0 0
0 1

,
Base de R
2
[x] : {1, x, x
2
}
355
Els autors, 2002; Edicions UPC, 2002
356 APNDICE B. APLICACIONES LINEALES
c) Calcular una base y la dimensin de Imf y Nuc g
d) Calcular la matriz de g f en las bases cannicas de M
2
(R) y R
2
[x].
e) Calcular la matriz de gf en las bases V y W, siendo V =

1 0
0 0

1 1
0 0

1 1
1 0
y W = {1 +x +x
2
, 1 + 2x +x
2
, x
2
}
Solucin: f y g no son inyectivas; la matriz asociada a f es
_
_
1 0 0 0
0 0 0 0
0 1 1 0
_
_
La matriz asociada a g es
_
_
0 1 0
0 0 2
0 0 0
_
_
Base de Imf : {1, x
2
}. DimImf = 2. Base de Nuc g : {1}. DimNuc g =
1;
_
_
0 0 0 0
0 2 2 0
0 0 0 0
_
_
y
_
_
0 2 4 4
0 2 4 4
0 0 0 0
_
_
5. Sean f y g dos endomorsmos de un espacio vectorial, tales que fg = gf.
Demostrar:
a) f(ker g) ker g
b) f(Im g) Im g
Indicacin: Usar las deniciones de Nuc e Im.
6. Sean E y F espacios vectoriales sobre K y f una aplicacin lineal de E en
F. Demostrar que la aplicacin : E F E F denida por (u, v) =
(u, v f(u)) es un automorsmo de E F.
Indicacin: Hay que demostrar que es lineal, inyectiva y exhaustiva.
Para demostrar que es exhaustiva, recuerda el Teorema 3.
7. Sea E un espacio vectorial sobre K. Si f es un endomorsmo idempotente
(f
2
= f), demostrar que E = Nuc f Imf.
Indicacin: Hay que demostrar que Nuc fImf = {0}, y que E = Nuc f+
Imf. Observa que x = x f(x) +f(x).
8. Sea E un espacio vectorial sobre un cuerpo K de caracterstica 6= 2, y f un
endomorsmo de E, tal que f
2
= I
E
. Sean F = {x E : f(x) = x}, G =
{x E : f(x) = x}. Demostrar:
a) F y G son subespacios de E.
Els autors, 2002; Edicions UPC, 2002
357
b) E = F G.
Indicacin: Para probar que E = FG hay que demostrar que FG = {0}
y que E = F +G. Observa que x =
1
2
(x +f(x)) +
1
2
(x f(x)).
9. Se denen las aplicaciones lineales f y g de la siguiente manera
f : R
3
R
4
con f(x
1
, x
2
, x
3
) = (x
1
x
2
, x
1
x
3
, 0, x
1
)
g : R
4
R
2
con g(y
1
, y
2
, y
3
, y
4
) = (y
1
+y
4
, y
1
y
2
)
Calcular:
a) La matriz asociada a f en las bases cannicas de R
3
y R
4
.
b) La matriz asociada a g en las bases cannicas de R
4
y R
2
.
c) La matriz asociada a g f en las bases cannicas de R
3
y R
2
.
d) ker (g f)
Solucin:
_
_
_
_
1 1 0
1 0 1
0 0 0
1 0 0
_
_
_
_
,

1 0 0 1
1 1 0 0

y

2 1 0
0 1 1

y ker (g f) = h(1, 2, 2)i.


10. Se considera el subconjunto M de matrices cuadradas 2 2 denido de la
forma siguiente:
M =

a b
c 0

: a, b, c R

y la aplicacin f : MM denida por


f

a b
c 0

a b b a
c 0

.
Demostrar que f es lineal, y calcular la matriz asociada a f en la base

e
1
=

1 0
0 0

, e
2
=

0 1
0 0

, e
3
=

0 0
1 0

de M.
La matriz asociada a f es
_
_
1 1 0
1 1 0
0 0 1
_
_
Els autors, 2002; Edicions UPC, 2002
358 APNDICE B. APLICACIONES LINEALES
11. Sea la aplicacin lineal f : R
3
R
2
dada por f(x, y, z) = (x 2y, y +
z). Calcular su matriz en las bases {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R
3
y
{(1, 0), (1, 1)} de R
2
.
Solucin:

1 3 1
0 1 1

12. Sea f la aplicacin entre los espacios M


2
(R) y R
2
[x] denida por
f

a b
c d

= ax
2
+ (b c)x +d
a) Es f lineal?
b) Calcular la matriz de f en las bases cannicas de M
2
(R) y R
2
[x]:
Base de M
2
(R) :

1 0
0 0

0 1
0 0

0 0
1 0

0 0
0 1

,
Base de R
2
[x] : {x
2
, x, 1}
c) Calcular Nuc f y Imf.
d) Es f inyectiva? Es f exhaustiva? Es f biyectiva?
Solucin: S;
_
_
1 0 0 0
0 1 1 0
0 0 0 1
_
_
ker f =

0 1
1 0

, Im f = R
2
[x]; f es exhaustiva, pero no es
inyectiva ni biyectiva.
13. Sea A =

1 1
0 1

la matriz de un endomorsmo f de R
2
en la base
cannica. Sean u
1
= (0, 1), u
2
= (1, 1) una base de R
2
. Calcular la ma-
triz de f en esta nueva base.
Solucin:

0 1
1 2

14. Dada la aplicacin f : R


2
R
3
denida por
f(1, 0) = (2, 1, 0)
f(2, 1) = (4, 0, 2)
calcular su matriz en las bases cannicas de R
2
y R
3
.
Solucin:
_
_
2 0
1 2
0 2
_
_
Els autors, 2002; Edicions UPC, 2002
359
15. Sea f : E E una aplicacin lineal, y {e
1
, e
2
, e
3
} una base de E. Se dene
f por
f(e
1
e
2
) = 0
f(e
1
+e
2
+e
3
) = 4e
2
+ 5e
3
f(e
2
+e
3
) = 3e
2
+ 3e
3
Hallar la imagen de v = 3e
1
+ 4e
2
+ 6e
3
.
16. Consideremos la aplicacin lineal f : R
3
[x] M
2
(R) denida por
f(ax
3
+bx
2
+cx +d) =

a b d
c b 0

.
a) Calcular su matriz en las bases cannicas de R
3
[x] y M
2
(R):
Base de R
3
[x] : {x
3
, x
2
, x, 1},
Base de M
2
(R) :

1 0
0 0

0 1
0 0

0 0
1 0

0 0
0 1

b) Calcular una base de Nuc f.


Solucin:
_
_
_
_
1 0 0 0
0 1 0 1
0 1 1 0
0 0 0 0
_
_
_
_
y Nuc f = h(0, 1, 1, 1)i.
17. Dado un endomorsmo f de un espacio vectorial E de dimensin nita n,
demostrar que los conjuntos
F = {g L(E, E) : f g = 0} y G = {g L(E, E) : g f = 0}
son subespacios vectoriales de L(E, E).
18. Sea f L(E, E). Demostrar que Nuc f = Imf si, y slo si, dimE es par,
f
2
= 0 y el rango de f es
dimE
2
.
Els autors, 2002; Edicions UPC, 2002
360 APNDICE B. APLICACIONES LINEALES
Els autors, 2002; Edicions UPC, 2002
Apndice C
Matrices
1. Escribir la matriz real A de orden 2 3 tal que a
ij
= (1)
i+j
.
2. Para qu valores de u y v son iguales las dos matrices siguientes?
_
_
(1 u)
2
v
2
3
v 2u 5
6 u 1
_
_
y
_
_
4 4 u
v 3v u v
6 v + 5 1
_
_
3. Calcular A+B, AB, y 5A3B, sabiendo que
A =

0 1 1
2 3 7

y B =

1 1 5
0 1 9

4. Determinar dos matrices X, Y tales que


2X 5Y =

1 1
2 1

X + 2Y =

2 1
4 1

_
5. Estudiar la dependencia lineal de las tres matrices siguientes

1 1
2 3

0 1
1 1

2 3
1 4

6. En M
3
(R) consideramos el subconjunto S de las matrices mgicas. Una
matriz A se llama mgica si las ocho sumas siguientes son iguales.
3
X
i=1
a
ij
(j = 1, 2, 3),
3
X
j=1
a
ij
(i = 1, 2, 3),
3
X
i=1
a
ii
, a
13
+a
22
+a
31
Demostrar que S es un subespacio de M
3
(R), dando su dimensin y una
base.
361
Els autors, 2002; Edicions UPC, 2002
362 APNDICE C. MATRICES
7. Una aplicacin lineal aplica (2, 3) en (1, 0) y (3, 2) en (1, 1). Hallar la
matriz que representa a esta aplicacin lineal.
8. Dado el espacio vectorial M
n
(R) de las matrices cuadradas de orden n
con coecientes reales.
a) Demostrar que el conjunto S de las matrices simtricas y el conjunto
T de las matrices antisimtricas son subespacios de M
n
(R)
b) Demostrar que M
n
(R) = S T
c) Calcular la dimensin y una base de S y T
Descomponer la matriz
_
_
1 2 1
6 1 4
2 3 5
_
_
en suma de una matriz simtrica y otra antisimtrica
9. Si A es una matriz idempotente, es decir, verica que A
2
= A, probar que
es idempotente la matriz B = I A y que AB = BA = O.
10. Dadas las matrices
A =
_
_
1
1
n
1
n
0 1 0
0 0 1
_
_
y B =

cos sin
sin cos

Calcular A
n
y B
n
.
11. Sea B
1
= (u
1
, u
2
, u
3
), con u
1
= (1, 2, 1), u
2
= (0, 3, 1) y u
3
= (2, 0, 3), una
base de R
3
. Hallar la matriz respecto a la base cannica de la aplicacin
lineal que hace corresponder a cada vector su primera coordenada en la
base B
1
.
12. Sea E un espacio vectorial real de dimensin 3 y B
1
= (e
1
, e
2
, e
3
) una base
del mismo. Sea f un endomorsmo de E cuya matriz en esta base es
_
_
2 0 1
1 1 0
2 0 2
_
_
y g el endomorsmo de E determinado por
g(e
1
) = e
1
+e
3
g(e
2
) = 2e
1
+e
2
+ 3e
3
g(e
3
) = 3e
1
+e
2
+ 4e
3
Hallar las matrices asociadas a los endomorsmos g f y 2f 3g.
Els autors, 2002; Edicions UPC, 2002
363
13. Calcular el rango de las matrices
A
3
=
_
_
a 0 b
b a 0
0 b a
_
_
y A
4
=
_
_
_
_
a 0 0 b
b a 0 0
0 b a 0
0 0 b a
_
_
_
_
Generalizarlo para A
n
.
14. Calcular por transformaciones elementales de tipo la la inversa de la
matriz
A =
_
_
_
_
_
_
1 0 0 0 0
0 0 3 0 3
0 0 0 6 0
0 1 0 0 0
0 0 1 0 1
_
_
_
_
_
_
15. Calcular por transformaciones elementales de tipo columna, la inversa de
la matriz
A =
_
_
2 0 1
1 0 1
1 1 1
_
_
16. Calcular la matriz triangular equivalente a la matriz
A =
_
_
_
_
3 1 0 0
1 1 1 1
0 1 2 1
1 2 1 2
_
_
_
_
utilizando nicamente transformaciones de tipo la.
Els autors, 2002; Edicions UPC, 2002
364 APNDICE C. MATRICES
Els autors, 2002; Edicions UPC, 2002
Apndice D
Determinantes
1. Sea el espacio vectorial R
2
. Se considera la aplicacin f : R
2
R
2
R
denida por
f(x, y) = x
1
y
1
x
2
y
2
con x = (x
1
, x
2
), y = (y
1
, y
2
). Estudiar si f es una forma bilineal. Es
simtrica? Es antisimtrica? Es alternada?
2. Calcular el determinante de la matriz A = (a
ij
), donde a
ij
= |i j|.
3. Probar que (x 1)
3
divide al polinomio

1 x x
2
x
3
1 1 1 1
1 2 3 4
1 4 9 16

4. Dada la matriz
M =

0 A
adj A 0

calcular det M en funcin de det A. (adj A indica la matriz adjunta de A,


que se obtiene a partir de A sustituyendo cada elemento por su adjunto).
5. Descomponer el polinomio de C [x]

1 +x +x
2
1 1 1 1
1 1 +x +x
2
1 1 1
1 1 1 +x +x
2
1 1
1 1 1 1 +x +x
2
1
1 1 1 1 1 +x +x
2

en factores irreducibles.
365
Els autors, 2002; Edicions UPC, 2002
366 APNDICE D. DETERMINANTES
6. Sea E el espacio vectorial de las funciones reales de variable real generado
por sin y cos. Calcular el determinante del endomorsmo de E denido
por la derivacin.
7. Sea A una matriz cuadrada de orden n y adj A, la matriz adjunta de A.
Demostrar:
a) det(adj A) = (det A)
n1
b) Si rang A = n 1, entonces rang (adj A) = 1
8. Consideremos el determinante
D(n, k) =

1
k
2
k
n
k
2
k
3
k
(n + 1)
k
.
.
.
.
.
.
.
.
.
.
.
.
n
k
(n + 1)
k
(2n 1)
k

a) Calcular D(1, 1) , D(2, 1) , D(3, 1) , D(4, 1)


b) Demostrar que D(n, 2) = 0, para todo n > 3
c) Demostrar que D(n, k) = 0, para todo n > k + 1
9. Demostrar que, si A es invertible,

A
1

t
= (A
t
)
1
.
10. Demostrar que el determinante

3 0 1 4
9 2 2 4
2 3 1 4
4 4 5 9

es mltiplo de 3.
11. Calcular el determinante de la matriz A cuadrada de orden n tal que
a
ij
= 1 si i = j, y a
ij
= x si i 6= j, para todo 1 i, j n.
12. Calcular el rango de la matriz
A =
_
_
_
_
1 2 3 4 5 6
2 3 4 5 6 7
1 1 1 1 1 1
2 4 6 8 1 2
_
_
_
_
13. Hallar las ecuaciones denidoras del subespacio vectorial S = h(1, 1, 1, 1), (1, 2, 3, 4), (3, 2, 1, 0)i
de R
4
.
14. Dada la matriz
A =

x x 2
2 x

Calcular los valores de x para que puedan existir matrices B cuadradas


de orden 2, no nulas, tales que AB = O.
Els autors, 2002; Edicions UPC, 2002
367
15. Calcular la matriz inversa de la matriz
A =
_
_
1 i i
i 1 0
i 0 1
_
_
siendo i
2
= 1.
16. El determinante de Vandermonde de orden 4 tiene la siguiente forma
D =

1 1 1 1
a b c d
a
2
b
2
c
2
d
2
a
3
b
3
c
3
d
3

Demostrar que D = (b a)(c a)(d a)(c b)(d b)(d c).


Els autors, 2002; Edicions UPC, 2002
368 APNDICE D. DETERMINANTES
Els autors, 2002; Edicions UPC, 2002
Apndice E
Sistemas de ecuaciones
lineales
1. Dado el sistema
x +by +az = 1
ax +by +z = a
x +aby +z = b
_
_
_
a) Para qu valores de a y b el sistema tiene solucin?
b) Resolverlo y determinar cundo tiene una nica solucin.
2. Discutir el sistema homogneo
6x 6y + (11 a) z = 0
3x + (12 a) y 6z = 0
(2 a) x + 3y 6z = 0
_
_
_
y encontrar sus soluciones.
3. Resolver los sistemas de congruencias
x + 2y +z 1
2x +y + 2z 1
y + 2z 1
_
_
_
(mod5)
x + 2y +z 1
2x +y + 2z 1
y + 2z 1
_
_
_
(mod3)
4. Encontrar un sistema de ecuaciones lineales homogneo cuyas soluciones
sean exactamente los vectores del subespacio vectorial de (Z
7
)
4
generado
por los vectores
(1, 0, 1, 1) , (2, 1, 3, 0) , (1, 3, 4, 5)
369
Els autors, 2002; Edicions UPC, 2002
370 APNDICE E. SISTEMAS DE ECUACIONES LINEALES
5. Discutir segn los valores del parmetro a el sistema de congruencias m-
dulo 5
x +y + 3z 2
2x + 3y + 4z 0
3x + 4y +az 3
_
_
_
6. Hallar la solucin por el mtodo de Gauss del siguiente sistema
x
1
+x
2
+x
3
+x
4
= 10
x
1
x
2
+ 2x
3
+x
4
= 9
2x
1
+x
3
+x
4
= 9
4x
1
+ 2x
2
x
3
+ 2x
4
= 13
_

_
7. Hallar la inversa de la matriz
_
_
_
_
_
_
1 a a
2
a
3
a
4
0 1 a a
2
a
3
0 0 1 a a
2
0 0 0 1 a
0 0 0 0 1
_
_
_
_
_
_
8. Discutir el siguiente sistema segn los valores de a y b
x +y +z = 3
2x ay + 3z = 4
3x 3y + 4z = 7
5x (a +b)y + 7z = 8 +b
_

_
9. Dadas las matrices
A =
_
_
1 a 3
2 1 4
1 0 2
_
_
, B =
_
_
b 0 1
1 1 b
2 b 0
_
_
, C =
_
_
1 3 1
0 1 0
1 2 1
_
_
, D =
_
_
2 11 2
2 8 2
0 2 0
_
_
Para qu valores de a, b R los sistemas de ecuaciones AX = B y
XC = D tienen una solucin comn?. Hallar dicha solucin.
Els autors, 2002; Edicions UPC, 2002
Apndice F
Diagonalizacin de
endomorsmos
1. Estudiar la diagonalizacin de las siguientes matrices de M
n
(K) para K =
Q, R, C.
a)
_
_
1 2 2
1 3 0
0 2 1
_
_
b)
_
_
3 1 1
6 1 2
2 1 0
_
_
c)
_
_
5 6 3
1 0 1
1 2 1
_
_
d)
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
e)
_
_
3 1 0
4 1 0
4 8 2
_
_
371
Els autors, 2002; Edicions UPC, 2002
372 APNDICE F. DIAGONALIZACIN DE ENDOMORFISMOS
2. Sea f el endomorsmo de R
4
denido por
f(x, y, z, t) = (x z + (a + 2)t, y +z 2t, 2z + (a 3)t, at)
a) Calcular su matriz en la base cannica de R
4
b) Determinar para qu valores de a es diagonalizable f.
3. Hallar los posibles valores propios de un endomorsmo f involutivo (ff =
I).
4. Estudiar si son equivalentes las matrices
A =
_
_
_
_
1 1 2 4
0 5 0 0
0 12 1 8
0 9 1 3
_
_
_
_
B =
_
_
_
_
2 0 0 0
10 2 11 6
11 0 6 3
7 0 7 4
_
_
_
_
5. Calcular el polinomio caracterstico, utilizando los menores principales de
la matriz
A =
_
_
_
_
4 0 4 11
6 3 3 9
5 1 5 7
1 1 1 5
_
_
_
_
6. Sabiendo que las matrices
A =

a 5
5 4

y B =

3i 0
0 3i

son equivalentes, calcular el valor de a.


7. Encontrar una matriz A M
3
(R) con vectores propios (1, 2, 1), (1, 0, 1), (0, 1, 2)
de valores propios 2, 1, 2 respectivamente.
8. Encontrar las condiciones que deben vericar a, b, c, d, e, f para que la
matriz real
A =
_
_
_
_
1 0 0 0
a 1 0 0
b c 2 0
d e f 2
_
_
_
_
sea diagonalizable.
9. Encontrar los valores propios de la matriz
A =
_
_
_
_
a b c d
b a c d
b c a d
b c d a
_
_
_
_
Diagonaliza?
Els autors, 2002; Edicions UPC, 2002
373
10. Sea f End
R
(E). Probar que si dim E es senar, entonces f tiene algn
valor propio, y que si dim E es par y det f < 0, f tiene al menos dos
valores propios. Dar un ejemplo de un endomorsmo sin valores propios.
11. Sea A M
n
(R) y R no nulo. Encontrar la relacin que hay entre el
polinomio caracterstico de A y el polinomio caracterstico de A. Deducir
que si es un valor propio de A, entonces es un valor propio de A
y que si x es un vector propio de A de valor propio , entonces x es un
vector propio de A de valor propio .
Els autors, 2002; Edicions UPC, 2002
374 APNDICE F. DIAGONALIZACIN DE ENDOMORFISMOS
Els autors, 2002; Edicions UPC, 2002
Apndice G
Forma reducida de Jordan
1. Se consideran las siguientes matrices de M
3
(R) :
A
1
=
_
_
1 0 0
1 1 0
1 0 1
_
_
, A
2
=
_
_
1 0 1
0 3 4
0 1 1
_
_
, A
3
=
_
_
2 1 1
2 1 2
1 1 2
_
_
Razonar cules de estas matrices son equivalentes entre s, es decir, cules
de estas matrices pueden serlo de un mismo endomorsmo.
Indicacin:Dos matrices son equivalentes si tienen la misma forma canni-
ca de Jordan.
2. Dadas las matrices de M
3
(C),
A =
_
_
4 1 1
6 1 2
3 1 0
_
_
y B =
_
_
1 0 0
1 0
1 0
_
_
hallar para qu valores de y pueden ser equivalentes (matrices del
mismo endomorsmo).
3. Dada la matriz
A =
_
_
_
_
1 3 0 3
1 0 0 1
0 0 1 0
1 2 0 1
_
_
_
_
a) Encontrar la forma cannica de Jordan y una base de Jordan para
A.
b) Qu vectores de esta base son vectores propios de A?Podramos
encontrar una base de R
4
formada por vectores propios de A?
375
Els autors, 2002; Edicions UPC, 2002
376 APNDICE G. FORMA REDUCIDA DE JORDAN
4. Calcular la forma cannica de Jordan de
_
_
5 0 4
0 2 0
2 0 1
_
_
5. Calcular la forma cannica de Jordan de
_
_
_
_
1 3 2 0
0 1 0 0
0 2 2 0
6 6 3 4
_
_
_
_
6. Calcular la forma cannica de Jordan de
_
_
_
_
2 0 1 2
1 3 0 1
2 2 4 6
1 1 1 1
_
_
_
_
7. Calcular la forma cannica de Jordan de
_
_
_
_
4 0 4 11
6 3 3 9
5 0 5 7
1 0 1 5
_
_
_
_
8. Estudiar para qu valores de los parmetros a y b es diagonalizable la
matriz
_
_
5 0 0
0 1 b
3 0 a
_
_
calculando la forma cannica de Jordan para los valores a = 1 y b = 1.
9. Calcular la forma cannica de Jordan de las siguientes matrices:
A =

1 1
0 1

y B =
_
_
1 2 3
2 1 3
3 3 0
_
_
10. Calcular la forma cannica de Jordan de las siguientes matrices:
A =
_
_
10 4 13
5 3 7
9 4 12
_
_
y B =
_
_
3 0 0
0 1 5
0 5 1
_
_
11. De una matriz Ase sabe que el conjunto de sus valores propios es {1, 1, 6}.
Adems, se tiene:
Els autors, 2002; Edicions UPC, 2002
377
a) dim Nuc (AI) = dim Nuc (AI)
2
= 1
b) dim Nuc (A+I) = 1
c) dim Nuc (A+I)
2
= 2
d) dim Nuc (A+I)
3
= dim Nuc (A+I)
4
= 3
e) dim Nuc (A6I) = dim Nuc (A6I)
2
= 1
Cul es la forma cannica de Jordan de A?
12. Sea B = {e
1
, e
2
, e
3
, e
4
, e
5
} una base del espacio vectorial R
5
. Sea f un
endomorsmo de R
5
del que se conoce
a) f(e
2
) = e
2
b) f(e
3
+e
4
) = e
3
+e
4
c) f(e
5
) = 2e
5
+e
1
e
2
El polinomio caracterstico de f tiene la raz triple 2. Las ecuaciones im-
plcitas, respecto de la base B, del ncleo del endomorsmo f 2I son
_
_
_
x
1
+x
2
+x
3
= 0
x
3
+x
4
= 0
x
5
= 0
Calcular la forma cannica de Jordan de f.
Els autors, 2002; Edicions UPC, 2002
378 APNDICE G. FORMA REDUCIDA DE JORDAN
Els autors, 2002; Edicions UPC, 2002
Apndice H
Formas bilineales simtricas
y formas cuadrticas
1. Sea f : R
2
R
2
R la aplicacin denida por
f(x, y) = 2x
1
y
1
3x
1
y
2
+x
2
y
2
a) Demostrar que f es bilineal. Es simtrica?
b) Hallar la matriz A de f respecto de la base ((1, 0), (0, 1)).
c) Hallar la matriz B de f respecto de la base ((2, 1), (1, 1)).
d) Hallar la matriz P tal que B = P
t
AP.
2. Es cierta la desigualdad de Schwarz para la forma cuadrtica cuya forma
bilineal asociada tiene por matriz respecto de una cierta base
_
_
1 1 1
1 3 0
1 0 2
_
_
3. Clasicar la siguiente forma cuadrtica
q(x, y, z) = 3x
2
+ 4xy + 10xz 4yz
Calcular una forma reducida.
4. Obtener la forma reducida en una base ortogonal respecto a q de las sigu-
ientes formas cuadrticas:
a) q(x, y, z) = x
2
+y
2
5z
2
+ 6xz + 4yz
b) q(x, y, z) = 2xy + 2yz + 2xz
c) q(x, y, z, t) = x
2
+ 6y
2
4xy +z
2
+ 2yt +t
2
379
Els autors, 2002; Edicions UPC, 2002
380APNDICE H. FORMAS BILINEALES SIMTRICAS YFORMAS CUADRTICAS
5. Clasicar las formas cuadrticas asociadas a las formas bilineales simtri-
cas que tienen por matrices en la base cannica de R
3
(a)
_
_
4 2 2
2 5 1
2 1 3
_
_
(b)
_
_
_
_
1 2 3 4
2 5 8 11
3 8 14 20
4 11 20 30
_
_
_
_
6. Dadas las matrices asociadas a formas cuadrticas
A
1
=
_
_
2 1 1
1 2 1
1 1 2
_
_
, A
2
=
_
_
1 0 1
0 1 0
1 0 1
_
_
, A
3
=
_
_
1 1 1
1 2 2
1 2 3
_
_
Son equivalentes? (es decir, representan la misma forma cuadrtica?) Si
A y B son dos de estas matrices equivalentes, hallar la matriz inversible
S tal que B = S
t
AS.
Els autors, 2002; Edicions UPC, 2002
Agradecimientos
Quiero expresar aqu mi sincero agradecimiento a la profesora Brbara Lla-
cay por haber colaborado en la realizacin de algunos captulos de este libro.
381
Els autors, 2002; Edicions UPC, 2002
382 AGRADECIMIENTOS
Els autors, 2002; Edicions UPC, 2002
Bibliografa
[1] Roger Godement. lgebra. Editorial Tecnos, 1971.
[2] G. Birkho S. Mac Lane. lgebra Moderna. Editorial Vicens-Vives, 1974.
[3] Michel Queysanne. lgebra Lineal. Editorial Vicens-Vives, 1973.
[4] A. Lentin J. Rivaud. lgebra Moderna. Editorial Aguilar, 1973.
[5] J. Sancho San Roman. lgebra Lineal Y Geometra. Universidad de
Zaragoza, 1973.
[6] J. Teixidor J. Vaquer. Curso de Matemticas. Universidad de Barcelona,
1972.
383
Els autors, 2002; Edicions UPC, 2002

You might also like