Professional Documents
Culture Documents
Departamento de
Algebra. http://www.departamento.us.es/da
Indice
Tema 1: Estructuras b asicas 4
1.1. Conjuntos: Deniciones y notaciones. Operaciones . . . . . . . . . . . . . 4
1.2. Producto cartesiano. Relaciones de equivalencia. . . . . . . . . . . . . . . 7
1.3. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Grupos, anillos y cuerpos. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5. Grupos cclicos. Permutaciones. . . . . . . . . . . . . . . . . . . . . . . . 14
1.6. Los n umeros complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7. Polinomios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Tema 2: Matrices. Sistemas de ecuaciones lineales. 22
2.1. Deniciones. Matrices especiales. . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Operaciones: Suma, producto, producto por escalares. . . . . . . . . . . . 24
2.3. Determinantes (I). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4. Determinantes (II). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5. Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6. Rango. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.7. Sistemas de ecuaciones lineales: Sistemas de Cramer. . . . . . . . . . . . 43
2.8. Teorema de Rouch eFr obenius. . . . . . . . . . . . . . . . . . . . . . . . 46
Tema 3: Espacios vectoriales 48
3.1. Espacios vectoriales: Denici on y ejemplos. . . . . . . . . . . . . . . . . 48
3.2. Dependencia e independencia lineal. . . . . . . . . . . . . . . . . . . . . . 50
3.3. Sistemas generadores. Bases. . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4. Teorema de la base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5. Dimensi on. Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6. Cambios de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.7. Subespacios (I): Denici on y ejemplos. . . . . . . . . . . . . . . . . . . . 60
3.8. Subespacios (II): Sistemas de ecuaciones. . . . . . . . . . . . . . . . . . . 62
3.9. Operaciones (I): Teorema de la dimensi on. . . . . . . . . . . . . . . . . . 64
3.10. Operaciones (II): C alculos. Suma directa. . . . . . . . . . . . . . . . . . 66
3.11. Producto escalar. M odulo. Ortonormalidad. . . . . . . . . . . . . . . . . 69
3.12. Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.13. Expansi on de Fourier. Algoritmo de GramSchmidt. . . . . . . . . . . . 73
Tema 4: Homomorsmos de espacios vectoriales 76
4.1. Homomorsmos de espacios vectoriales. . . . . . . . . . . . . . . . . . . 76
iI
,
que se leera: la familia de conjuntos A
i
donde i pertence a I. Aqu I es el conjunto de
subndices que puede o no ser nito (por ejemplo I podra ser todo N).
Denici on. Un conjunto que carece de elementos se denomina el conjunto vaco y se
denota por . Un conjunto con un unico elemento se denomina unitario.
iI
, que denotaremos
_
iI
A
i
.
Proposici on. La uni on de conjuntos verica las siguientes propiedades, para cua-
lesquiera conjuntos A, B y C:
(a) Conmutativa: A B = B A.
(b) Asociativa: (A B) C = A (B C).
(c) A = A.
(d) A B A B = B.
(e) Si A B, entonces A (B A) = B.
Demostraci on. Todas las pruebas son sencillas, y son un buen ejercicio para que
el alumno comience a tratar de plasmar demostraciones rigurosas. Como ilustraci on de
c omo se ataca una doble implicaci on, probaremos (d).
Comenzaremos suponiendo que A B. Entonces todos los elementos de A est an
en B, por tanto A B = B de manera inmediata. Recprocamente, supongamos que
A B = B. Entonces todo elemento que est e en A o en B est a forzosamente en B, con
lo que se tiene A B. Q.c.T.
Denici on. Dados dos conjuntos A y B se dene la intersecci on de A y B, notado
AB, como el conjunto formado por aqu ellos elementos que pertencen al mismo tiempo
a ambos conjuntos, A y B.
Se denen de forma equivalente la intersecci on de una cantidad nita de conjuntos
A
1
, ..., A
n
, y la intersecci on de una familia arbitrariamente grande de conjuntos A
i
iI
,
que denotaremos, respectivamente,
A
1
... A
n
=
n
i=1
A
i
, y
iI
A
i
.
Si A y B son dos conjuntos tales que A B = se dice que A y B son disjuntos.
Proposici on. La intersecci on de conjuntos verica las siguientes propiedades, para cua-
lesquiera conjuntos A, B y C:
(a) Conmutativa: A B = B A.
6
i=1
A
i
= (a
1
, ..., a
n
) [ a
i
A
i
, para i = 1, ..., n .
Denici on. Una correspondencia G de A en B es un subconjunto del producto A B.
Equivalentemente se puede denir como una regla que asocia algunos elementos de A
con algunos elementos de B. Concretamente, G asocia a A con b B si (a, b) G.
Denici on. Sea A un conjunto. Una relaci on R denida en A es una correspondencia de
A en s mismo.
Si el par (x, y) A A est a en R, diremos que x est a Rrelacionado con y, o
relacionado con y por R. Esto se notar a frecuentemente xRy (n otese que el orden es
importante).
Denici on. Sea R una relaci on en A. Entonces diremos que R es:
(a) Reexiva cuando para todo x A se tiene que xRx.
(b) Sim etrica cuando xRy implica yRx.
(c) Antisim etrica cuando xRy e yRx implican x = y necesariamente.
(d) Transitiva cuando xRy e yRz implican xRz.
Las relaciones reexivas, sim etricas y transitivas se denominan relaciones de equiva-
lencia. Las relaciones reexivas, antisim etricas y transitivas se denominan relaciones de
orden, pero no las trataremos aqu.
Ejemplos. En el conjunto Z denimos la relaci on siguiente, notada S:
xSy x y es par,
Entonces S es una relaci on de equivalencia. De hecho, notemos que S es de equiva-
lencia si sustituimos la condici on x y es par por la condici on x y es m ultiplo de
p, para cualquier n umero p que jemos con antelaci on.
Denici on. Si R es una relaci on de equivalencia en A, denominamos clase de equiva-
lencia de un elemento x A al conjunto de todos los elementos de A relacionados con x,
esto es,
x = R(x) = y A [ xRy,
donde la primera notaci on se usa si R se sobreentiende, y la segunda si no es as.
Proposici on. Sea A un conjunto, R una relaci on de equivalencia en A. Entonces se
verican las siguientes propiedades:
(a) Todo elemento pertenece a una clase de equivalencia.
8
), para x, x
X, se
deduce que x = x
.
10
= e
e = e
.
Sean ahora entonces b y c dos elementos opuestos de un a G arbitrario, pero jado
en lo que sigue. Entonces
e = a b = c = c e = c a b = e b = b.
Q.c.T.
Notaci on. Existen dos notaciones usuales para la operaci on en un grupo: la notaci on
aditiva y la notaci on multiplicativa, que heredan las notaciones para los grupos conocidos
(k, +) y (k 0, ), donde k puede ser Qo R.
Si escribimos un grupo en notaci on aditiva, (G, +), denotaremos 0 al elemento neutro
y a al opuesto de a. Por el contrario, si usamos la notaci on multiplicativa, (G, ) deno-
taremos por 1 al elemento neutro y por a
1
o por 1/a al opuesto de a (que se denominar a
12
, b
) ab
= a
b.
En este contexto, la notaci on est andar para la clase de equivalencia del par (a, b) por
la relaci on es, obviamente, a/b.
Denici on. Un anillo es un conjunto A dotado con dos operaciones binarias internas,
usualmente denominadas suma o adici on (+) y producto o multiplicaci on (), de tal forma
que:
(A.1) (A, +) es un grupo abeliano.
(A.2) La operaci on () es asociativa, conmutativa y posee elemento neutro (notado 1)
1
.
(A.3) Se verica la propiedad distributiva de la suma respecto del producto:
a (b + c) = a b + a c, para cualesquiera a, b, c A.
Observaci on. En un anillo A, 0 a = 0 para todo a A, ya que
a + 0 a = a (1 + 0) = a 1 = a.
De similar forma se puede probar, por ejemplo, que (1) a = a para todo a A.
Ejemplo. El ejemplo fundamental de anillo son los enteros, Z, con la suma y el pro-
ducto usuales. Un ejemplo enormemente similar (luego veremos por qu e) es el de los
polinomios con coecientes en Qo en R.
1
No creemos necesario establecer la denici on m as general posible de anillo, que admite la posibilidad
de que el producto no sea abeliano ni posea elemento neutro.
13
1.
Comprobar que C con estas dos operaciones es un cuerpo es algo tedioso. Simple-
mente notaremos que el elemento neutro de la suma es 0 = 0+0 y el neutro del producto
es 1 = 1 +0. As mismo, dado a +b el inverso aditivo es a +(b) y, si es distinto de
0, el inverso multiplicativo es precisamente a/(a
2
+ b
2
) (b/(a
2
+ b
2
)).
Observaci on. Algunas propiedades interesantes de los n umero complejos son las si-
guientes:
(a) Si consideramos los n umeros complejos de la forma a + 0 veremos que podemos
suponer R C, identicando a Rcon a + 0 C.
(b) Dado un complejo z = a+b, el complejo z = ab se denomina su conjugado. La
operaci on de conjugaci on, a pesar de su inofensivo aspecto, tiene una importancia
enorme, incluso en el estudio de objetos reales. Un par de propiedades inmediatas,
a partir de la denici on, son las siguientes:
z
1
+ z
2
= z
1
+ z
2
, z
1
z
2
= z
1
z
2
,
15
i
m.
Demostraci on. Resulta un poco articial, por no recurrir a la conocida (y segura-
mente aceptada por el alumno sin mayor discusi on) factorizaci on unica de los anillos
de polinomios. Tal vez el docente opte por dar por supuesto este hecho y simplicar la
prueba; en caso contrario aqu tiene una alternativa interesante desde el punto de vista
formativo: lo haremos por inducci on en el n umero de races de P(X).
El caso de una raz es sencillo, ya que si P(X) tiene una sola raz
1
de multiplicidad
1
, es
P(X) = (X
1
)
1
Q(X),
y gr(P) =
1
+ gr(Q), lo que prueba el resultado.
Escribimos, en el caso general,
P(X) = (X
1
)
1
Q(X), P(X) = (X
i
)
i
R
i
(X), i = 2, ..., r
y veamos que
i
es raz de Q(X) con multiplicidad, al menos,
i
.
Comenzamos sustituyendo X =
i
y vemos que
0 = P(
i
) = Q(
i
)(
i
1
)
1
,
18
i
1
R
i
(X) = (X
1
)
1
Q
(i)
1
(X).
Si hacemos de nuevo X =
i
, comprobamos que Q
(i)
1
(
i
) = 0, y as
Q
(i)
1
(X) = (X
i
)Q
(i)
2
(X) = Q(X) = (X
i
)
2
Q
(i)
2
(X),
y podemos seguir el proceso en
i
ocasiones. Al nal obtenemos una expresi on de la
forma
Q(X) = Q
(i)
i
(X)(X
i
)
i
,
por lo que
i
es raz de Q con multiplicidad, al menos,
i
.
Obviamente Q(X) no tiene m as races que
2
, ...,
r
, porque
1
no lo es (dado que su
multiplicidad en P(X) es
1
) y P(X) no tiene otras races. As podemos aplicar a Q(X)
la hip otesis de inducci on, para deducir gr(Q)
2
+... +
r
. Como gr(P) =
1
+gr(Q),
el resultado est a probado. Q.c.T.
Corolario. Un polinomio de grado n en k[X] tiene, a lo m as, n races (eventualmente
repetidas) en k.
Observaci on. Para nalizar esta lecci on, destacamos los resultados m as utiles a la hora
de calcular races de polinomios, que el docente puede entrar a demostrar o no, seg un su
criterio. Los casos que tendr an m as trascendencia en el futuro ser an, obviamente k =
R, C y por ello se debera dedicar alg un tiempo a estos, al menos.
En cualquier caso, lo m as importante es que el alumno entienda que cu al es el cuerpo
base es esencial para el c alculo de las races de un polinomio, como se puede ver, por
ejemplo con P(X) = X
5
2X que tiene una raz racional, tres races reales y cinco
complejas.
Caso k = C. Dado un polinomio P(X) C[X] de grado m, el teorema fundamental
del algebra, aplicado m veces nos indica que P(X) tiene exactamente m races, si conta-
mos cada una tantas veces como indica su multiplicidad (esto se expresa abreviadamente
diciendo m races contadas con multiplicidad).
Adem as, si P(X) R[X] y z C es una raz, es inmediato que z tambi en: para ver
esto s olo hay que jarse en que, dados z
1
, z
2
C y R,
z
1
z
2
= z
1
z
2
, z
1
+ z
2
= z
1
+ z
2
, z
1
= z
1
,
de donde P(z) = P(z) = 0. Usando esto, es simple ver, tras dividir por (X z)(X z),
que z y z han de tener la misma multiplicidad.
Caso k = R. Si k = R, todo polinomio se puede escribir como producto de polinomios
de grado 1 (de la forma X ) por polinomios de grado 2 con sus dos soluciones com-
plejas (y conjugadas, como hemos visto).
Esto es as porque un polinomio de grado m tiene m races complejas. Si una de esas
races es real, pongamos , dan un factor en R[X] de grado 1, (X ). Si es compleja,
= a + b, entonces a b tambi en es raz y, en la descomposici on en C[X] aparecen
los factores (X ) y (X ), que al multiplicarse dan el polinomio de segundo grado
(X
2
2aX + a
2
+b
2
) R[X].
19
= (A)
t
= A
t
/(n m; C).
Una matriz A se dice sim etrica cuando A = A
t
, esto es cuando a
ij
= a
ji
para cua-
lesquiera i, j. Por otro lado, A se dice antisim etrica cuando a
ij
= a
ji
para todo (i, j)
(en particular, a
ii
= 0 para todo i).
Una matriz (denida sobre C) se dice hermtica o hermitiana cuando A = A
.
Observaci on. Como es obvio, si A /(n; C) verica que A = A, entonces A
/(n; R). De la misma forma, las matrices que son a la vez sim etricas y hermitianas han
de ser reales.
Observaci on. Obviamente una matriz sim etrica, antisim etrica o hermitiana ha de ser
cuadrada. An alogamente, una matriz antisim etrica y diagonal ha de ser forzosamente 0
n
.
Para nalizar, deniremos algunos conceptos que tambi en aparecen en algebra matri-
cial y que ser an utiles en adelante.
Denici on. Sea A /(mn; k).
(a) Cuando m = 1 (respectivamente n = 1) A se dir a una matrizla (matriz
columna).
(b) Una submatriz de A es una matriz formada por la intersecci on de un subconjunto
de las y un subconjunto de columnas de A, respetando el orden.
(c) Cuando una submatriz est e formada por las consecutivas y columnas consecutivas,
se denominar a un bloque de A.
Observaci on. Los bloques de A correspondientes a las las y columnas de A (m as pre-
cisamente las submatricesla y submatricescolumna de A) ser an usados con frecuencia.
23
l=1
a
il
b
lj
.
Notemos que, si escribimos A en submatricesla y B en submatricescolumna,
A =
_
_
_
_
_
_
F(A)
1
F(A)
2
.
.
.
F(A)
m
_
_
_
_
_
_
, B = ( C(B)
1
[ C(B)
2
[ ... [ C(B)
p
),
entonces el elemento (i, j) de AB es precisamente F(A)
i
C(B)
j
.
Proposici on. Se verican las siguientes propiedades:
(a) Dadas A /(m n; k), B /(n p; k) y C /(p q; k), se tiene que
A(BC) = (AB)C.
(b) Dadas A /(mn; k), B, C /(n p; k) y D /(p q; k), se tiene que
A(B +C) = AB + AC, (B + C)D = BD + CD.
(c) Dada A /(mn; k), AI
n
= I
m
A = A.
(d) Dadas A /(m n; k), B /(n p; k) y k, se tiene que (A)B =
(AB) = A(B).
Demostraci on. Casi todas las propiedades son similares y no demasiado complejas,
salvo por el hecho de que la notaci on puede ser enrevesada. De esta forma, haremos la
prueba de (a) y dejaremos las dem as (sobre todo (b) y (d)) como un interesante ejercicio.
Denominemos
D = A(BC), E = (AB)C,
ambas de orden mq.
El elemento d
ij
viene dado por
d
ij
=
n
h=1
a
ih
[ elemento (h, j) de BC ] =
n
h=1
a
ih
_
p
l=1
b
hl
c
lj
_
=
n; p
h=1; l=1
a
ih
b
hl
c
lj
,
mientras que el elemento e
ij
viene dado por
e
ij
=
p
l=1
[ elemento (i, l) de AB] c
lj
=
p
l=1
_
n
h=1
a
ih
b
hl
_
c
lj
=
p; n
l=1; h=1
a
ih
b
hl
c
lj
,
con lo que probamos el resultado. Q.c.T.
25
l=1
b
li
a
jl
= F(A)
j
C(B)
i
,
lo que prueba el resultado. Q.c.T.
Corolario. Dadas matrices complejas A y B, y un escalar C, se verica:
(a) Si A, B /(mn; k), A + B = A + B y (A +B)
= A
+ B
.
(b) Si A /(mn; k) y B /(n p; k), AB = A B y (AB)
= B
.
(c) A = A y (A)
= A
.
2.3. Determinantes (I).
El concepto de determinante es uno de los m as complejos del algebra matricial: optamos
aqu por la denici on m as tradicional basada en el desarrollo indicado por permutaciones,
que ya se han introducido.
Denici on. Sea A /(n; k). Denominamos determinante de A, notado [A[ o det(A)
al escalar dado por la f ormula
[A[ =
S
n
(1)
nt()
a
1(1)
a
2(2)
...a
n(n)
,
donde nt() indica el n umero de inversiones de la permutaci on .
26
1
=
_
1 2 3
1 2 3
_
,
2
=
_
1 2 3
2 3 1
_
,
3
=
_
1 2 3
3 1 2
_
,
1
=
_
1 2 3
3 2 1
_
,
2
=
_
1 2 3
2 1 3
_
,
3
=
_
1 2 3
1 3 2
_
,
donde las
i
tienen nt(
i
) par y las
i
tiene nt(
i
) impar.
El desarrollo es entonces el siguiente:
[A[ = a
11
a
22
a
33
+ a
12
a
23
a
31
+ a
13
a
21
a
32
a
13
a
22
a
21
a
12
a
21
a
33
a
11
a
23
a
32
,
que coincide con la f ormula conocida de los determinantes 3 3.
De las muchas propiedades de los determinantes, vamos a estudiar solamente algunas
en esta lecci on, las que lo caracterizan en cierto modo.
Proposici on. Sea A /(n; k). Entonces [A[ = [A
t
[.
Demostraci on. Escribimos, como es costumbre A = (a
ij
) y un sumando, de los n!
de que consta el desarrollo del determinante de A es
M
= (1)
nt()
a
1r
1
a
2r
2
...a
nr
n
,
donde viene dada por
=
_
1 2 ... n
r
1
r
2
... r
n
_
.
27
= (1)
nt()
a
k
1
1
a
k
2
2
...a
k
n
n
.
Donde k
i
es precisamente el elemento de 1, 2, ..., n que verica (k
i
) = i. Esto es,
la permutaci on
_
1 2 ... n
k
1
k
2
... k
n
_
es, precisamente,
1
que tambi en es un elemento de S
n
.
En el desarrollo del determinante de A
t
= (b
ij
) nos encontramos con el sumando
correspondiente a la permutaci on
1
, que es
N
1 = (1)
nt(
1
)
b
1k
1
b
2k
2
...b
nk
n
= (1)
nt(
1
)
a
k
1
1
a
k
2
2
...a
k
n
n
,
con lo que cada sumando M
1 de [A
t
[.
Por tanto para probar el resultado s olo resta demostrar que
(1)
nt()
= (1)
nt(
1
)
.
Antes de entrar a probar el resultado, tomemos un ejemplo de S
6
=
_
1 2 3 4 5 6
4 3 2 6 1 5
_
,
cuyo n umero de inversiones es nt() = 8. El inverso de viene dado por
1
=
_
1 2 3 4 5 6
5 3 2 1 6 4
_
,
que verica nt(
1
) = 8. Esto no es, como veremos, casual y, de hecho, este ejemplo
est a previsto para que podamos seguir sobre el (u otro similar) el razonamiento.
En efecto, cada inversi on de corresponde a un par (i, j) de 1, ..., n 1, ..., n
tal que i < j y (i) = r
i
> (j) = r
j
. Pero esto tambi en corresponde a un par
(r
j
, r
i
) 1, ..., n 1, ..., n tal que r
j
< r
i
y
1
(r
j
) = j >
1
(r
i
) = i. Por tanto,
cada inversi on de lleva aparejada una inversi on de
1
, con lo que nt() nt(
1
).
Como esto es cierto para cualquier , aplicando el mismo resultado a
1
se tiene lo que
queremos. Q.c.T.
Corolario. Si A /(n; C), entonces [A
[ = [A[ = [A[.
Demostraci on. Basta tener en cuenta que la denici on de determinante como suma
de productos de elementos de A, y las propiedades elementales de la conjugaci on de
n umeros complejos. Q.c.T.
Observaci on. A partir de este enunciado, todos los resultados relativos a evaluaci on
de determinantes (esto es del tipo, el determinante no vara, el determinante vale
0,...) y relativos a propiedades u operaciones por columnas son igualmente v alidos para
propiedades u operaciones por las, y viceversa.
28
F(A)
1
.
.
.
F(A)
i
.
.
.
F(A)
n
F(A)
1
.
.
.
1
B
1
+
2
B
2
+ ... +
r
B
r
.
.
.
F(A)
n
,
y, aplicando el caso de dos sumandos,
[A[ =
1
F(A)
1
.
.
.
B
1
.
.
.
F(A)
n
F(A)
1
.
.
.
2
B
2
+ ... +
r
B
r
.
.
.
F(A)
n
.
29
F(A)
1
.
.
.
B
1
.
.
.
F(A)
n
+
2
F(A)
1
.
.
.
B
2
.
.
.
F(A)
n
F(A)
1
.
.
.
3
B
3
+ ... +
r
B
r
.
.
.
F(A)
n
,
y, en r aplicaciones sucesivas,
[A[ =
1
[A
1
[ + ... +
r
[A
r
[.
Probemos entonces el caso r = 2. Para ello simplicaremos la notaci on y supon-
dremos
F(A)
i
= B + C,
con
B = ( b
i1
... b
in
) , C = ( c
i1
... c
in
) ,
donde usamos una notaci on algo extra na, para facilitar la situaci on de B y C como las
i esimas de A
1
y A
2
.
Desarrollamos el determinante de A, usando la notaci on habitual,
[A[ =
S
n
(1)
nt()
a
1r
1
...a
ir
i
...a
nr
n
=
S
n
(1)
nt()
a
1r
1
... (b
ir
i
+c
ir
i
) ...a
nr
n
=
S
n
(1)
nt()
a
1r
1
... (b
ir
i
) ...a
nr
n
+
S
n
(1)
nt()
a
1r
1
... (c
ir
i
) ...a
nr
n
= [A
1
[ + [A
2
[,
donde A
1
(resp. A
2
) es la matriz resultante de A al cambiar F(A)
i
por B (resp. C).
Q.c.T.
Corolario. Si multiplicamos todos los elementos de una la de Apor un elemento k,
el determinante de la matriz resultante es [A[.
Demostraci on. Es el resultado anterior para r = 1 (la demostraci on se adapta tri-
vialmente). Q.c.T.
Proposici on. Sea A /(n; k), y denominemos B la matriz resultante de intercambiar
dos las de A. Entonces [B[ = [A[.
Demostraci on. Supongamos que las las que se permutan son F(A)
i
y F(A)
j
(con
i < j) y denotemos, como es usual, A = (a
ij
), B = (b
ij
). Entonces:
[B[ =
S
n
(1)
nt()
b
1r
1
...b
ir
i
...b
jr
j
...b
nr
n
=
S
n
(1)
nt()
a
1r
1
...a
jr
i
...a
ir
j
...a
nr
n
=
S
n
(1)
nt()
a
1r
1
...a
ir
j
...a
jr
i
...a
nr
n
30
S
n
(1)
nt()
a
1r
1
...a
ir
j
...a
jr
i
...a
nr
n
= [A[,
porque, cuando recorre todas las biyecciones de S
n
, tambi en lo hace. Esto se puede
probar directamente o bien observando que = , donde es la pemutaci on que in-
tercambia i con j, dejando todos los dem as elementos de 1, ..., n iguales. Entonces,
cuando vara por todas las biyecciones de S
n
, lo hace por las de S
n
= S
n
(ver 1.5.).
Q.c.T.
Proposici on. El determinante de I
n
vale 1.
Demostraci on. Es inmediata, dado que la unica permutaci on que no arroja un
sumando nulo en el desarrollo es (i) = i, para todo i = 1, ..., n, que no tiene inver-
siones. Entonces
[I
n
[ = (1)
0
1 1 ... 1 = 1.
Q.c.T.
Observaci on. Puede probarse (aunque no lo haremos aqu), que las tres propiedades
estudiadas en esta lecci on (denominadas habitualmente, por este orden, multilinealidad,
alternancia y normalidad) caracterizan el determinante como aplicaci on de /(n; k) en k.
2.4. Determinantes (II).
Continuamos con las propiedades b asicas del determinante, incluyendo una prueba, que
raras veces se expone en clase con total rigor, de que el determinante del producto de
31
F(A)
1
.
.
.
F(A)
i
.
.
.
F(A)
j
.
.
.
F(A)
n
F(A)
1
.
.
.
F(A)
j
.
.
.
F(A)
j
.
.
.
F(A)
n
F(A)
1
.
.
.
F(A)
j
.
.
.
F(A)
j
.
.
.
F(A)
n
= 0,
por la alternancia del determinante. Q.c.T.
Corolario. Si una matriz tiene una la de ceros, su determinante es 0.
Demostraci on. Inmediata. Q.c.T.
Proposici on. Si en una matriz una la es combinaci on lineal de otras, el determinante
es 0.
Demostraci on. Supongamos que, en la matriz A /(n; k), tenemos
F(A)
i
=
1
F(A)
j
1
+
2
F(A)
j
2
+ ... +
r
F(A)
j
r
.
Entonces el determinante de A se puede descomponer, por multilinealidad, como
suma de r determinantes, cada uno de ellos con dos las proporcionales y, en conse-
cuencia, nulos. As [A[ = 0. Q.c.T.
Proposici on. Dada una matriz A /(n; k), si sumamos a una la de A una combi-
naci on lineal de otras las de A, obtenemos una matriz B que verica [A[ = [B[.
Demostraci on. Supongamos que B se obtiene de A haciendo
F(B)
i
= F(A)
i
+
1
F(A)
j
1
+
2
F(A)
j
2
+... +
r
F(A)
j
r
,
32
F(A)
1
.
.
.
F(A)
i
+
1
F(A)
j
1
+ ... +
r
F(A)
j
r
.
.
.
F(A)
n
F(A)
1
.
.
.
F(A)
i
.
.
.
F(A)
n
F(A)
1
.
.
.
1
F(A)
j
1
+ ... +
r
F(A)
j
r
.
.
.
F(A)
n
= [A[ + 0 = [A[.
Q.c.T.
Proposici on. Sean A, B /(n; k). Entonces [AB[ = [A[ [B[.
Demostraci on. Esta prueba es bastante compleja, y es muy probable que el docente
opte por no hacerla en clase; de todos modos la haremos por si no es este el caso.
Sea D = AB. Entonces, por denici on del producto,
d
ij
=
n
l=1
a
il
b
lj
,
por lo que
F(D)
i
=
n
l=1
a
il
F(B)
l
, para i = 1, ..., n.
As pues tenemos que
[D[ =
F(D)
1
.
.
.
F(D)
n
l
1
=1
a
1l
1
F(B)
l
1
.
.
.
n
l
n
=1
a
nl
n
F(B)
l
n
=
n
l
1
=1
...
n
l
n
=1
a
1l
1
...a
nl
n
F(B)
l
1
.
.
.
F(B)
l
n
,
usando (reiteradamente) la multilinealidad del determinante. Ahora bien, por alternancia,
sabemos que si los l
1
, ..., l
n
no son todos distintos dos a dos, el sumando correspon-
diente es 0, al tener el determinante del sumando dos las iguales.
Nos quedamos, pues, con los sumandos no nulos. Para uno de estos sumandos, de-
nimos S
n
por (j) = l
j
para j = 1, ..., n. Notemos que es un permutaci on bien
denida, para todos los sumandos no nulos de [D[ y, recprocamente, toda permutaci on
de S
n
va a aparecer de esta forma en alg un sumando de la expresi on anterior.
33
F(B)
l
1
.
.
.
F(B)
l
n
= (1)
nt()
[B[.
Esto puede probarse de manera similar a la prueba de que nt() = nt(
1
). Entonces
[D[ =
n
l
1
=1
...
n
l
n
=1
a
1l
1
...a
nl
n
F(B)
l
1
.
.
.
F(B)
l
n
S
n
a
1(1)
...a
n(n)
(1)
nt()
[B[
= [B[
S
n
a
1(1)
...a
n(n)
(1)
nt()
= [A[ [B[.
Q.c.T.
Observaci on. Algunas otras propiedades que se deducen de las ya estudiadas o que se
prueban de forma an aloga, y que pueden aparecer como corolarios o como ejercicios (o no
aparecer en absoluto e ir prob andolas seg un surjan) son las siguientes: dada A /(n; k),
(a) [A[ =
n
A, para todo k.
(b) [A
r
[ = [A[
r
, para todo r N.
(c) Si A es triangular superior (inferior), [A[ es el producto de sus elementos diago-
nales.
Estudiamos ahora un m etodo de c alculo de determinantes a mano: el desarrollo de un
determinante por adjuntos de una la (columna).
Denici on. Sea A /(n; k), a
ij
un elemento de A. La submatriz de A resultante de
eliminar F(A)
i
y C(A)
j
, se denomina submatriz complementaria de a
ij
y se denota M
ij
.
Su determinante se llama menor complementario de a
ij
, que notaremos
ij
. El escalar
A
ij
= (1)
i+j
ij
se denomina adjunto de a
ij
.
Observaci on. Los adjuntos se puede usar para calcular explcitamente los determi-
nantes, en especial si se usan junto con las propiedades estudiadas anteriormente. Probe-
mos primero el resultado esencial de esta lecci on.
Proposici on. Sea A /(n; k) y escojamos una la (columna) cualquiera F(A)
i
. En-
tonces
a
i1
A
i1
+a
i2
A
i2
+ ... +a
in
A
in
= [A[,
esto es, el determinante de [A[ se puede hallar calculando el desarrollo de una la
(columna) por sus adjuntos.
Demostraci on. El desarrollo de [A[ era
[A[ =
S
n
(1)
nt()
a
1(1)
...a
i(i)
...a
n(n)
,
34
(i)=j
(1)
nt()
a
1(1)
...a
i1(i1)
a
i+1(i+1)
...a
n(n)
= a
ij
B
ij
.
Obviamente el objetivo es probar que B
ij
= A
ij
= (1)
i+j
ij
.
Dado que en cada sumando de [A[ hay exactamente un elemento de cada la y de cada
columna, en cada sumando de B
ij
hay precisamente un elemento de cada la de A (ex-
cepto de F(A)
i
) y de cada columna (excepto de C(A)
j
). Por tanto, salvo eventualmente
el signo en cada sumando, B
ij
es el determinante de M
ij
.
Veamos, para un sumando concreto de B
ij
la relaci on entre el signo con que aparece
arriba (esto es, (1)
nt()
) y el signo con el que aparece en el desarrollo del determinante
de M
ij
.
Dado S
n
con (i) = j,
=
_
1 2 ... i 1 i i + 1 ... n
r
1
r
2
... r
i1
j r
i+1
... r
n
_
,
denominaremos
)
es el coeciente con que aparece a
1(1)
...a
i1(i1)
a
i+1(i+1)
...a
n(n)
en [M
ij
[.
N.B.: Para hacerlo usando permutaciones de S
n1
, deberamos denotar por
a la
permutaci on de S
n1
denida por
(l) =
_
_
(l) si 1 l i 1, 1 (l) j 1
(l) 1 si 1 l i 1, j + 1 (l) n
(l 1) si i + 1 l n, 1 (l) j 1
(l 1) 1 si i + 1 l n, j + 1 (l) n
o sea,
recorre S
n1
.
Ahora bien, al eliminar (i) = j, el n umero de inversiones de
se ve alterado como
sigue:
nt(
) = nt() r
l
> j [ l = 1, ..., i 1 +r
l
< j [ l = i + 1, ..., n.
Si llamamos s al segundo sumando en la expresi on anterior, entonces el tercer
sumando es claramente (j 1) (i 1 s) = j i + s, por lo que
nt(
) = nt() (s + j i + s),
de donde
(1)
nt(
)
= (1)
nt()2sj+i
= (1)
nt()+i+j
.
De esta forma hemos probado que el coeciente de a
ij
en [A[ es
(1)
nt(
)+i+j
a
1(1)
...a
i1(i1)
a
i+1(i+1)
...a
n(n)
= (1)
i+j
A
ij
.
35
a
11
... a
1l1
a
1l+1
... a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
... a
i,l1
a
i,l+1
... a
in
.
.
.
.
.
.
.
.
.
.
.
.
a
j1,1
... a
j1,l1
a
j1,l+1
... a
j1,n
a
j+1,1
... a
j+1,l1
a
j+1,l+1
... a
j+1,n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
... a
n,l1
a
n,l+1
... a
nn
a
11
... a
1l1
a
1l
a
1l+1
... a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
... a
i,l1
a
il
a
i,l+1
... a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j1,1
... a
j1,l1
a
j1,l
a
j1,l+1
... a
j1,n
0 ... 0 1 0 ... 0
a
j+1,1
... a
j+1,l1
a
j+1,l
a
j+1,l+1
... a
j+1,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
... a
n,l1
a
nl
a
n,l+1
... a
nn
a
11
... a
1l1
a
1l
a
1l+1
... a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
... a
i,l1
a
il
a
i,l+1
... a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
j1,1
... a
j1,l1
a
j1,l
a
j1,l+1
... a
j1,n
0 ... 0 a
il
0 ... 0
a
j+1,1
... a
j+1,l1
a
j+1,l
a
j+1,l+1
... a
j+1,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
... a
n,l1
a
nl
a
n,l+1
... a
nn
i=1
a
1i
A
1i
n
i=1
a
1i
A
2i
...
n
i=1
a
1i
A
ni
n
i=1
a
2i
A
1i
n
i=1
a
2i
A
2i
...
n
i=1
a
2i
A
ni
.
.
.
.
.
.
.
.
.
.
.
.
n
i=1
a
ni
A
1i
n
i=1
a
ni
A
2i
...
n
i=1
a
ni
A
ni
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
esto es,
A(adj A)
t
=
_
_
_
_
_
_
[A[ 0 ... 0
0 [A[ ... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... [A[
_
_
_
_
_
_
,
usando las propiedades de los adjuntos. La otra igualdad es an aloga. Q.c.T.
Con este resultado ya podemos probar el enunciado que resuelve los dos problemas
antes citados.
Teorema de la matriz inversa. Sea A /(n; k). Entonces A es regular si y s olo
si [A[ , = 0. En este caso,
A
1
=
1
[A[
(adj A)
t
.
37
a
11
+a
21
a
12
+ a
22
... a
1r+1
+ a
2r+1
a
31
a
32
... a
3r+1
.
.
.
.
.
.
.
.
.
.
.
.
a
r+2,1
a
r+2,2
... a
r+2,r+1
a
11
a
12
... a
1r+1
a
31
a
32
... a
3r+1
.
.
.
.
.
.
.
.
.
.
.
.
a
r+2,1
a
r+2,2
... a
r+2,r+1
a
21
a
22
... a
2r+1
a
31
a
32
... a
3r+1
.
.
.
.
.
.
.
.
.
.
.
.
a
r+2,1
a
r+2,2
... a
r+2,r+1
,
por lo que M es combinaci on de dos menores de orden r + 1 de A, de donde M = 0.
El apartado (d) es combinaci on directa de los apartados (c) y (b). Q.c.T.
Corolario. Dada A /(n; C), rg(A) = rg(A
) = rg(A).
Proposici on. Sea A /(m n; k), P GL(m; k), Q GL(n; k). Entonces
rg(PA) = rg(AQ) = rg(A).
39
m
l=1
p
1l
a
l1
...
m
l=1
p
1l
a
lr
.
.
.
.
.
.
.
.
.
m
l=1
p
rl
a
l1
...
m
l=1
p
rl
a
lr
y este menor, por la multilinealidad del determinante, puede escribirse como combinaci on
lineal de menores de orden r de A, separando primero en sumas de determinantes (usando
la multilinealidad por las, no por columnas) y extrayendo despu es r coecientes p
ij
de
cada determinante (tambi en por las).
Dado que el proceso completo es sumamente engorroso, no entraremos en los detalles,
pero haremos un ejemplo suponiendo r = m = 2 para ilustrar la complejidad de dar
explcitamente M como suma de menores de A. As, en ese caso
M =
p
11
a
11
+ p
12
a
21
p
11
a
12
+ p
12
a
22
p
21
a
11
+ p
22
a
21
p
21
a
12
+ p
22
a
22
p
11
a
11
p
11
a
12
p
21
a
11
+ p
22
a
21
p
21
a
12
+ p
22
a
22
+
+
p
12
a
21
p
12
a
22
p
21
a
11
+ p
22
a
21
p
21
a
12
+ p
22
a
22
p
11
a
11
p
11
a
12
p
21
a
11
p
21
a
12
p
11
a
11
p
11
a
12
p
22
a
21
p
22
a
22
p
12
a
21
p
12
a
22
p
21
a
11
p
21
a
12
+
+
p
12
a
21
p
12
a
22
p
22
a
21
p
22
a
22
= p
11
p
22
M
1
+ p
12
p
21
M
2
,
donde M
1
y M
2
son menores de orden 2 de A. Q.c.T.
Observaci on. No hemos dado a un un m etodo para calcular el rango, m as all a de los
dos evidentes que se desprende de la denici on: bien ir hallando todos los menores de
un orden dado hasta que aparezca uno no nulo y, en ese momento, comenzar con los
del orden siguiente; bien comenzar con los menores de orden m aximo e ir bajando hasta
encontrar uno no nulo.
Como muestra de la inefectividad de estos procedimientos, baste poner un ejemplo,
ni tan siquiera num erico: consideremos una matriz cuadrada de orden 5 y rango 3.
Si comenzamos haciendo menores de orden bajo y vamos ascendiendo, a un en el caso
de que tengamos suerte y hallemos pronto un menor de orden 3 no nulo, nadie nos quita de
40
3
_
,
con M
3
= M
2
S
1
M
1
+ M
3
.
Ahora bien, supongamos que hay una submatriz de orden r + 1 en B que contiene
a S y con determinante distinto de 0. Permutando, supondremos que es la formada por
las r + 1 primeras las y columnas. Esto implica, en particular que b
r+1,r+1
,= 0, ya que
b
r+1,i
= 0 para i = 1, ..., r.
Entonces, hacemos P
1
B = A y es elemental (aunque algo largo de probar con
detalle: lo dejamos al juicio del docente) ver que la submatriz formada por las r + 1
primeras las y columnas de A es precisamente
S =
_
_
_
_
_
_
b
1r+1
S
.
.
.
b
rr+1
a
r+1,1
... a
r+1,r
a
r+1,r+1
_
_
_
_
_
_
,
41
l=1
q
r+1,l
b
lj
, j = 1, ..., r + 1
pero, al ser q
r+1,l
= 0 para l > r + 1, y q
r+1,r+1
= 1, en realidad
a
r+1,j
=
r
l=1
q
r+1,l
b
lj
+b
r+1,j
, j = 1, ..., r + 1
y, para l, j r se tiene que b
lj
= a
lj
y b
r+1,j
= 0, por lo que
a
r+1,j
=
r
l=1
q
r+1,l
a
lj
j = 1, ..., r
a
r+1,r+1
=
r
l=1
q
r+1,l
a
l,r+1
+ b
r+1,r+1
Si ahora realizamos la operaci on
F(S)
r+1
l=1
q
r+1,l
F(S)
l
,
obtenemos una matriz de determinante [S[ y forma
_
_
_
_
_
_
b
1r+1
S
.
.
.
b
rr+1
0 ... 0 b
r+1,r+1
_
_
_
_
_
_
.
De todo esto deducimos que, si b
r+1,r+1
,= 0, podemos hallar tambi en en A una
submatriz de orden r +1 que contiene a S y de determinante distinto de 0. Por reducci on
al absurdo se deduce que rg(B) = r y, por tanto, tambi en rg(A) = r. Q.c.T.
Observaci on. El m etodo del orlado para el c alculo del rango de una matriz A se basa
en el resultado anterior de la manera obvia: dada A comenzamos buscando un menor de
orden 1 distinto de 0. Si lo hay, rg(A) 1, si no, rg(A) = 0 y hemos terminado.
En caso de no haber terminado, buscamos un menor de orden 2 cuya submatriz con-
tenga la del menor de orden 1 no nulo hallado anteriormente. Si encontramos tal menor,
rg(A) 2, si no, por la proposici on, rg(A) = 1 y hemos terminado.
As, cuando tengamos rg(A) i porque hemos hallado una submatriz de orden i y
menor no nulo, buscamos una submatriz de orden i +1 que contenga a la anterior (lo cual
recorta mucho la b usqueda) y de determinante no nulo. Si la hallamos rg(A) i + 1 y
seguimos, si no, rg(A) = i y hemos nalizado.
42
_
a
11
x
1
+ a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... + a
mn
x
n
= b
m
donde a
ij
, b
i
k para todo i = 1, ..., n, j = 1, ..., m.
En notaci on matricial el sistema anterior se expresa
_
_
_
_
_
_
a
11
a
12
... a
1n
a
21
a
22
... a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
... a
mn
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
=
_
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
_
,
o, abreviadamente,
AX
t
= B
t
.
La matriz A /(m n; k) se denomina matriz de coecientes del sistema y la
matriz
(A [ B
t
) =
_
C(A)
1
[ ... [ C(A)
n
[ B
t
_
se denomina matriz ampliada del sistema (n otese que hemos usado B
t
en lugar de
(C(B
t
)
1
), abusando un poco de la notaci on).
Una soluci on del sistema es una asignaci on de valores
x
1
=
1
, x
2
=
2
, ..., x
n
=
n
,
con
i
k para todo i = 1, ..., n; de tal forma que se verica
A
_
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
_
= B
t
.
Abreviadamente tambi en se dir a que (
1
, ...,
n
) es una soluci on del sistema.
Dos sistemas se dicen equivalentes cuando tienen exactamente las mismas soluciones;
esto es, toda soluci on de uno lo es de otro, y viceversa.
Observaci on. El caso m as simple (y, en cierto sentido, el unico) de sistemas equivalentes
es aqu el en el que a nadimos o sustraemos a un sistema ecuaciones formadas a partir de
las del sistema mediante combinaciones lineales.
Observaci on. Notemos que la existencia de una soluci on (
1
, ...,
n
) es equivalente a
que
1
C(A)
1
+
2
C(A)
2
+ ... +
n
C(A)
n
= B
t
.
Denici on. Atendiendo a la existencia y a la cantidad de soluciones, los sistemas de
ecuaciones lineales pueden clasicarse como:
43
1
a
l1
+ ... +
r
a
lr
= a
lr+1
.
45
1
C(A)
1
+ ... +
n
C(A)
n
= B
t
,
por lo que la ultima columna de (A [ B
t
) es combinaci on lineal de las anteriores y, en
consecuencia, rg(A) = rg(A [ B
t
).
Demostremos ahora que si los rangos de A y (A [ B
t
) coinciden, entonces existe
soluci on para el sistema. Para ello, supongamos que rg(A) = h y, permutando ecuaciones
y variables si es necesario, que las h primeras las y columnas de A forman un menor no
nulo (de A y de (A [ B
t
), claro).
Por tanto, las mh las restantes de (A [ B
t
) son, como vimos en la lecci on pasada,
combinaci on lineal de las anteriores. Esto es, las m h ecuaciones ultimas son combi-
naci on lineal de las h primeras, por lo que podemos eliminarlas del sistema y el sistema
que nos queda es equivalente.
As mismo, como las h primeras columnas participan en el menor no nulo, reescribire-
mos el sistema original de la siguiente forma:
_
_
a
11
x
1
+ a
12
x
2
+ ... + a
1h
x
h
= b
1
a
1h+1
x
h+1
... a
1n
x
n
a
21
x
1
+ a
22
x
2
+ ... + a
2h
x
h
= b
2
a
2h+1
x
h+1
... a
2n
x
n
.
.
.
.
.
.
a
h1
x
1
+a
h2
x
2
+ ... + a
hh
x
h
= b
h
a
hh+1
x
h+1
... a
hn
x
n
46
_
_
_
_
x
1
.
.
.
x
h
_
_
_
_
= B
obtenemos
x
i
=
A
1i
b
1
+ A
2i
b
2
+ ... + A
hi
b
h
[A
[
,
para i = 1, ..., h donde
b
j
= b
j
a
jh+1
x
h+1
... a
jn
x
n
.
Esto es, para cada valor que demos a las variables x
h+1
, ..., x
n
obtenemos una
soluci on del sistema de Cramer. En nomenclatura habitual, las variables x
h+1
, ..., x
n
son
par ametros del espacio de soluciones.
A partir de aqu todas las armaciones del teorema se siguen de manera obvia: existe
soluci on; y es unica si y s olo si no existen par ametros, esto es, cuando h = n; ya que
si existe un s olo par ametro, d andole valores 0 y 1 se han de obtener necesariamente al
menos dos soluciones distintas. Q.c.T.
Observaci on. Sea el sistema de m ecuaciones en n inc ognitas dado por AX
t
= B
t
, y
consideremos el sistema AX
t
= 0
m1
, denominado usualmente el sistema homog eneo
asociado. Sea
L =
_
(
1
, ...,
n
) soluciones de AX
t
= 0
m1
_
,
y sean (
1
, ...,
n
) y (
1
, ...,
n
) dos soluciones particulares del sistema original AX
t
=
B
t
. Entonces
(
1
1
, ...,
n
n
) L,
como se deduce trivialmente, ya que
A
_
_
_
_
1
.
.
.
n
_
_
_
_
= A
_
_
_
_
1
.
.
.
n
_
_
_
_
A
_
_
_
_
1
.
.
.
n
_
_
_
_
= B
t
B
t
= 0
m1
.
De la misma forma se prueba que (
1
+
1
, ...,
n
+
n
) es soluci on del sistema ori-
ginal para cualquier (
1
, ...,
n
) L. Ambas armaciones prueban entonces que el con-
junto de soluciones del sistema original se puede hallar sumando una soluci on particular
cualquiera con todas las soluciones del sistema homog eneo asociado.
47
x + 0 =
_
1
x + 0
_
=
_
1
x
_
= x,
por lo que 0 = 0.
Para nalizar haremos el segundo caso de (c). Para ello dados k y u V ,
consideramos
u +(u) = (u + (u)) = (u u) = 0 = 0,
lo cual prueba que (u) es el inverso aditivo de u, esto es, (u).
Las restantes pruebas son buenos ejercicios para que los alumnos se habit uen a usar
las propiedades de forma rigurosa, sin apoyarse en los vectores a los que est an acostum-
brados. Q.c.T.
Ejemplos. Notemos que, para dar un espacio vectorial, es necesario no solamente dar
un conjunto, sino las dos operaciones. Veremos a continuaci on algunos ejemplos proce-
dentes de diversos campos de las matem aticas, aunque no daremos las demostraciones,
por apartarse del temario de esta asignatura.
(a) El ejemplo fundamental ser a el espacio num erico ndimensional denido como
sigue: el conjunto base es
k
n
= (a
1
, ..., a
n
) [ a
i
k ,
y las dos operaciones son:
(a
1
, ..., a
n
) + (b
1
, ..., b
n
) = (a
1
+ b
1
, ..., a
n
+ b
n
),
(a
1
, ..., a
n
) = (a
1
, ..., a
n
).
Con estas operaciones comprobar las propiedades de espacio vectorial es elemen-
tal. Este ejemplo incluye los casos m as conocidos ( unicos?) hasta ahora por los
alumnos, R
2
y R
3
.
(b) Supongamos que tenemos dos cuerpos k K, de tal forma que, dados dos ele-
mentos cualesquiera en k, su suma y su producto son iguales si se consideran como
elementos de k y si se consideran como elementos de K. Entonces K es un k
espacio vectorial con las operaciones:
Dados , K, + es la suma en K.
Dados k K y K, el producto por escalares es el producto en
K.
(c) El conjunto /(mn; k) es un kespacio vectorial con las operaciones usuales de
suma y producto por escalares, como vimos en la lecci on 2.2.
49
+ a
1
(x)y
n1)
+ ... + a
n1
(x)y
+ a
n
(x)y = 0,
donde a
0
(x), a
1
(x), ..., a
n
(x) son funciones continuas en R, y es una funci on de R
en R a determinar e y
, y
, ..., y
n1)
, y
n)
i=1
n
j=1
a
ij
E
ij
.
Denici on. Sea S = v
1
, ..., v
m
V . Diremos que S es un conjunto linealmente de-
pendiente (o que los vectores v
1
, ..., v
m
son linealmente dependientes) si existen escalares
1
, ...,
m
k no todos nulos tales que
1
v
1
+... +
m
v
m
= 0.
Esto es, S es linealmente dependiente si 0 es combinaci on lineal no trivial de los
elementos de S.
En caso contrario, S se dice linealmente independiente. Esto es, v
1
, ..., v
m
son lineal-
mente independientes cuando
1
v
1
+ ... +
m
v
m
= 0 =
1
= ... =
m
= 0.
Ejemplos. Veamos ejemplos de dependencia e independencia lineal.
(a) Si 0 S, S ha de ser linealmente dependiente.
(b) Si S es un conjunto linealmente dependiente, cualquier conjunto (nito) T que lo
contenga tambi en es linealmente dependiente. Del mismo modo, cualquier subcon-
junto de un conjunto linealmente independiente es linealmente independiente.
(c) En particular, el conjunto vaco es linealmente independiente.
(d) Dado un vector v ,= 0, el conjunto v es linealmente independiente.
Proposici on. Sea S = v
1
, ..., v
m
V . Entonces:
(a) S es linealmente dependiente si y s olo si existe un i tal que v
i
depende linealmente
de v
1
, ..., v
i1
, v
i+1
, ..., v
m
.
(b) S es linealmente independiente si y s olo si ning un v
i
depende linealmente de los
restantes vectores de S.
51
1
v
1
+... +
m
v
m
= 0.
Si suponemos que
i
,= 0, entonces la igualdad anterior se puede traducir en
v
i
=
1
i
(
1
v
1
+ ... +
i1
v
i1
+
i+1
v
i+1
+ ... +
m
v
m
) ,
por lo que v
i
es combinaci on lineal de los restantes.
Ahora supondremos que alg un v
j
es combinaci on lineal de los restantes vectores de
S,
v
j
=
1
v
1
+ ... +
j1
v
j1
+
j+1
v
j+1
+ ... +
m
v
m
.
La expresi on anterior se traduce en
0 =
1
v
1
+ ... +
j1
v
j1
v
j
+
j+1
v
j+1
+ ... +
m
v
m
,
por lo que 0 es combinaci on lineal no trivial de los vectores de S, ya que el coeciente de
v
j
es no nulo. Q.c.T.
Observaci on. Consideremos el ejemplo V = k
n
, y sean v, v
1
, ..., v
m
dados por
v = (
1
, ...,
n
) , v
i
= (
1i
, ...,
ni
) .
Entonces, por las propiedades del rango estudiadas en las lecciones 2.6. y 2.8., sabe-
mos que v es combinaci on lineal de v
1
, ..., v
m
si y s olo si
rg
_
_
_
_
11
...
1m
.
.
.
.
.
.
n1
...
nm
_
_
_
_
= rg
_
_
_
_
11
...
1m
1
.
.
.
.
.
.
.
.
.
n1
...
nm
n
_
_
_
_
.
Aplicando esta misma propiedad m veces deducimos entonces que v
1
, ..., v
m
es
linealmente independiente si y s olo si
rg
_
_
_
_
11
...
1n
.
.
.
.
.
.
1m
...
nm
_
_
_
_
= m,
lo que prueba, en particular, que un conjunto de m as de n vectores no puede ser lineal-
mente independiente en k
n
.
3.3. Sistemas generadores. Bases.
Denici on. Sea V un kespacio vectorial, S V un subconjunto no necesariamente
nito. Diremos que S es un sistema generador de V si todo v V es combinaci on lineal
de un subconjunto nito de S.
52
i
(
1
v
1
+... +
i1
v
i1
a +
i+1
v
i+1
+ ... +
n
v
n
) ,
lo que prueba el resultado. Q.c.T.
Lema II. Sean B = u
1
, ..., u
m
una base de V y A = v
1
, ..., v
r
un conjunto lineal-
mente independiente. Entonces r m.
Demostraci on. Por el lema del intercambio, como v
1
es combinaci on lineal de los
elementos de B, podemos intercambiarlo con uno de los elementos de B, pongamos con
u
1
. Obtenemos entonces un nuevo conjunto B
1
= v
1
, u
2
, ..., u
m
, que es de nuevo
sistema generador como lo era B, porque todo elemento de B es combinaci on lineal de
los elementos de B
1
.
Por tanto, como v
2
es combinaci on lineal de los elementos de B
1
, podemos intercam-
biarlo por un elemento de B
1
. A un m as, podemos tomar para intercambiar un vector de
B
1
que no sea v
1
.
En efecto, si nos jamos en la demostraci on del lema del intercambio, veremos que
podemos tomar cualquier vector de B
1
que tenga coeciente no nulo en la expresi on de
v
2
como combinaci on lineal. Si el unico vector disponible fuera v
1
, tendramos
v
2
=
1
v
1
,
con lo que A sera linealmente dependiente, contradiciendo las hip otesis. Por tanto pode-
mos tomar uno de los v
i
, i = 2, ..., n. Por comodidad de notaci on, supondremos que
tomamos v
2
y denimos
B
2
= v
1
, v
2
, u
3
..., u
m
,
que sigue siendo sistema generador, por an alogas razones que B
1
.
Pasamos entonces al caso gen erico, suponiendo que tenemos un sistema generador
B
i
= v
1
, ..., v
i
, u
i+1
, ..., u
m
.
Por el lema del intercambio, como v
i+1
es combinaci on lineal de los vectores de B
i
,
podemos intercambiarlo con uno de esos vectores. Pero, si no pudiera ser intercambiado
por uno de los u
j
, j = i + 1, ..., m, sera porque
v
i+1
=
1
v
1
+... +
i
v
i
,
55
) = dim(V ).
Veamos por ultimo (f). En efecto, si W V , tomamos como antes una base B de W
y la extendemos a una base B
y,
por tanto, B genera V , de donde W = V . Q.c.T.
Observaci on. El concepto de coordenadas respecto de una base es uno de los m as impor-
tantes: es particularmente esencial que el alumno distinga entre vectores y coordenadas; si
es necesario poniendo enfasis en los ejemplos distintos de k
n
para acentuar la diferencia.
Proposici on. Sea B = u
1
, ..., u
n
una base de V , v V . Entonces existen unos
escalares unicos
1
, ...,
n
k tales que
v =
1
u
1
+ ... +
n
u
n
.
Demostraci on. La existencia de
1
, ...,
n
est a garantizada por el hecho de que B es
sistema generador de V . Para probar la unicidad supondremos que v se puede expresar
de dos formas distintas como combinaci on lineal de los elementos de B:
v =
1
u
1
+ ... +
n
u
n
=
1
u
1
+ ... +
n
u
n
.
Entonces ha de ser
0 = (
1
1
) u
1
+ ... + (
n
n
) u
n
,
57
1
= ... =
n
n
= 0,
esto es,
i
=
i
para i = 1, ..., n. Q.c.T.
Denici on. En la situaci on de la proposici on, la nupla (
1
, ...,
n
) k
n
se denominan
coordenadas de v con respecto a B, y se denota (v)
B
.
En (numerosas) ocasiones abusaremos de la notaci on y consideraremos las coorde-
nadas indistintamente como nupla (
1
, ...,
n
) y como matriz de orden 1n, (
1
...
n
).
Proposici on. Sea V un kespacio vectorial, B = u
1
, ..., u
n
una base de V ; v, v
1
, ..., v
m
vectores de V . Son equivalentes:
(a) v es combinaci on lineal de v
1
, ..., v
m
.
(b) (v)
B
es combinaci on lineal de (v
1
)
B
, ..., (v
m
)
B
.
Demostraci on. Denominemos
(v)
B
= (
1
, ...,
n
) , (v
i
)
B
= (
i1
, ...,
in
) , i = 1, ..., m.
Entonces si tenemos
v =
m
i=1
i
v
i
=
m
i=1
i
_
_
n
j=1
ij
u
j
_
_
=
i,j
(
i
ij
)u
j
,
por lo que, por la unicidad de las coordenadas,
(
1
, ...,
n
) =
_
m
i=1
i1
, ...,
m
i=1
in
_
=
m
i=1
i
(
i1
, ...,
in
) ,
y la otra implicaci on es an aloga. Q.c.T.
Corolario. Dados vectores v, v
1
, ..., v
p
V y escalares
1
, ...,
p
k,
v =
p
i=1
i
v
i
(v)
B
=
p
i=1
i
(v
i
)
B
Observaci on. A partir de este corolario es directo ver que la dependencia e independen-
cia lineal de un conjunto de vectores o el hecho de ser o no sistema generador se pueden
ver a partir de las coordenadas respecto de una base cualquiera.
3.6. Cambios de base.
En esta secci on trabajaremos con k
n
como espacio de coordenadas de un kespacio vecto-
rial arbitrario V de dimensi on n. Como ilustraci on primordial de la diferencia conceptual
58
= v
1
, ..., v
n
dos bases de V . Estudiaremos la relaci on que existe
entre las coordenadas de un mismo vector respecto de B y de B
.
Proposici on. En las condiciones anteriores, sea v V con
(v)
B
= (
1
, ...,
n
) , (v)
B
= (
1
, ...,
n
) ,
y sean
(u
i
)
B
= (c
1i
, ..., c
ni
) ,
las coordenadas de los vectores de B respecto de B
. Entonces
_
_
_
_
c
11
... c
1n
.
.
.
.
.
.
.
.
.
c
n1
... c
nn
_
_
_
_
_
_
_
_
1
.
.
.
n
_
_
_
_
=
_
_
_
_
1
.
.
.
n
_
_
_
_
.
Demostraci on. Basta aplicar la denici on de coordenadas respecto de B y B
y la
unicidad de estas ultimas. En concreto, tenemos que
v =
n
i=1
i
u
i
=
n
i=1
i
_
_
n
j=1
c
ji
v
j
_
_
=
n
j=1
_
n
i=1
i
c
ji
_
v
j
,
59
es precisamente
1
c
j1
+... +
n
c
jn
=
j
,
de donde se tiene el enunciado. Q.c.T.
Denici on. En las condiciones del enunciado, la matriz (c
ij
) se denomina matriz de
cambio de base de B a B
), esto es
M(B, B
)(v)
t
B
= (v)
t
B
.
Observaci on. La matriz M(B, B
.
Observaci on. Notemos que, como en M(B, B
)
1
= M(B
, B).
3.7. Subespacios (I): Denici on y ejemplos.
Denici on. Sea V un kespacio vectorial, no necesariamente de dimensi on nita. Un
subconjunto L V se denomina un subespacio vectorial si es, a su vez, un kespacio
vectorial con las mismas operaciones denidas en V .
Ejemplo. Si consideramos Q R, vemos que Q es un subespacio de R como Q
espacio vectorial, pero no como Respacio vectorial pues con la suma y el producto por
escalares reales Qno es espacio vectorial.
Proposici on. Sea L V , L ,= . Son equivalentes:
(a) L es un subespacio vectorial de V .
(b) Dados u, v L y , k cualesquiera, se tiene que u + v L.
Demostraci on. Haremos por separado las dos implicaciones, ya que son esencial-
mente distintas en su estrategia.
(a) =(b) Esta implicaci on es sencilla: como L es kespacio vectorial, el producto
de un escalar por un vector de L ha de estar en L, as como la suma de vectores de L, por
lo que se tiene (b).
(b) =(a) Entre elementos de L tenemos denida una suma, por ser a su vez ele-
mentos de V . La hip otesis (b), para = = 1, asegura que esta suma es una operaci on
interna. As mismo, el producto de un vector de L por un escalar arbitrario es de nuevo un
60
i=1
i
u
i
, v =
s
i=1
i
v
i
.
Pero entonces
u + v =
r
i=1
i
u
i
+
s
i=1
i
v
i
,
esto es, es combinaci on lineal de una cantidad nita de vectores de A, por lo que u+v
L(A).
Ahora hemos de probar que L(A) es el menor subespacio que contiene a A, para lo
que tomaremos un subespacio L tal que A L y veremos que L(A) L. Esto es
sencillo, ya que, si v L(A), existen a
1
, ..., a
r
A y
1
, ...,
r
k tales que
v =
1
a
1
+ ... +
r
a
r
.
61
i=h+1
d
i1
x
i
,
n
i=h+1
d
i2
x
i
, ...,
n
i=h+1
d
ih
x
i
, x
h+1
, ..., x
n
_
_
=
n
i=h+1
x
i
(d
i1
, ..., d
ih
, 0, ..., 0, 1, 0, ..., 0) ,
con el 1 en la posici on i esima. Denotemos
z
i
= (d
i1
, ..., d
ih
, 0, ..., 0, 1, 0, ..., 0) ,
para i = h + 1, ..., n.
62
dos bases de V , L un
subespacio denido, respecto de B por un sistema de ecuaciones implcitas AX
t
= 0
m1
.
Entonces un sistema de ecuaciones implcitas de L respecto de B
, B)X
t
= 0
m1
.
Demostraci on. El sistema anterior ser a un sistema de ecuaciones implcitas de L
respecto de B
, B)(v)
t
B
= A(v)
t
B
,
lo cual sucede si y s olo si v L. Esto prueba el resultado. Q.c.T.
3.9. Operaciones (I): Teorema de la dimensi on.
En toda esta lecci on consideraremos un kespacio vectorial V de dimensi on n.
Proposici on. Sea L
i
iI
una familia de subespacios vectoriales de V . Entonces el
conjunto
L =
iI
L
i
es un subespacio vectorial.
Demostraci on. Aplicando la caracterizaci on de subespacios es muy f acil: tomamos
u, v pertenencientes a L (en consecuencia a todos los L
i
) y , k. Por ser todos los L
i
subespacios, tenemos que u + v est a en todos los L
i
y, por tanto, en L. Q.c.T.
Observaci on. Como intersecci on de conjuntos que es, la intersecci on de subespacios
verica las propiedades asociativa y conmutativa.
Observaci on. Notemos, sin embargo que no siempre la uni on de subespacios es un
subespacio. Si tomamos, por ejemplo, los subespacios de R
3
denidos por
L
1
: z = 0, L
2
: x = 0,
observaremos que (1, 0, 0), (0, 0, 1) L
1
L
2
, pero su suma no est a en ninguno de ambos,
por lo que no est a en la uni on. Esto se resuelve, como es costumbre en matem aticas,
deniendo una nueva operaci on que resulte lo m as parecida posible a la suma.
64
iI
una familia de subespacios de V . Entonces se dene el subes-
pacio suma de la familia L
i
como
iI
L
i
=
_
_
iI
L
i
_
.
Equivalentemente, si I = 1, ..., n, notaremos
iI
L
i
= L
1
+ ... +L
n
.
Observaci on. Obviamente
iI
L
i
es un subespacio, porque lo hemos denido como
tal. Adem as es trivial que, por ser el menor subespacio que contiene a la uni on de los
L
i
, ha de ser el menor subespacio que contiene a todos los L
i
. As, la suma es, en cierto
modo, la operaci on m as pr oxima posible a la uni on.
Observaci on. Por la forma de denirla, es obvio que la suma de subespacios verica las
propiedades asociativa y conmutativa.
Proposici on. En las condiciones anteriores, dados subespacios L
1
, L
2
, L
3
, se verica:
(a) L
1
+ L
2
= u
1
+ u
2
[ u
i
L
i
(por supuesto, el enunciado an alogo es v alido para
n sumandos).
(b) (Leyes de simplicaci on) L
1
= L
1
+ (L
1
L
2
) = L
1
(L
1
+ L
2
).
(c) (Ley modular) Si L
1
L
3
, L
1
+ (L
2
L
3
) = (L
1
+ L
2
) L
3
.
Demostraci on. Probemos (a) y, para ello, denotemos moment aneamente
M = u
1
+ u
2
[ u
i
L
i
.
Si tomamos un vector cualquiera de M, pongamos v han de existir u
1
L
1
, u
2
L
2
vericando v = u
1
+ u
2
. Pero, por ser L
1
, L
2
L
1
+ L
2
y ser L
1
+ L
2
subespacio, se
tiene que v L
1
+ L
2
.
Para ver la otra inclusi on tomaremos un vector cualquier de L
1
+ L
2
= L
1
L
2
),
pongamos w. Como vimos entonces en 3.7., w ha de ser combinaci on lineal de una
cantidad nita de vectores de L
1
L
2
, esto es
w =
1
a
1
+ ... +
r
a
r
+
1
b
1
+ ... +
s
b
s
,
donde a
i
L
1
, b
j
L
2
, para i = 1, ..., r y j = 1, ..., s. Entonces llamando u
1
=
i
a
i
L
1
y u
2
=
j
b
j
L
2
, tenemos el resultado.
Dejaremos (b), que es el enunciado m as simple, como ejercicio, y probaremos una
de las inclusiones de (c), pues las dos son parecidas. Si, por ejemplo, tomamos u
L
3
(L
1
+ L
2
), eso quiere decir que
u L
3
y, adem as, a
1
L
1
, a
2
L
2
tales que u = a
1
+ a
2
.
Entonces a
2
= u a
1
L
3
(recordemos que a
1
L
1
L
3
), por lo que u se puede
escribir como suma de dos vectores: a
1
L
1
y a
2
L
2
L
3
. Esto naliza la inclusi on.
Q.c.T.
65
es base de L
1
+ L
2
. Es claro que es sistema generador, pues todo vector de L
1
+ L
2
es
combinaci on lineal de vectores de L
1
(que son a su vez combinaci on lineal de vectores de
B
1
) y de vectores de L
2
(an alogo). Veamos entonces que o es linealmente independiente.
Para ello consideremos
p
i=1
i
a
i
+
q
j=1
j
b
j
+
r
l=1
l
c
l
= 0,
y denotemos para abreviar los tres sumatorios de la izquierda como u, v, w, pertenecientes
respectivamente a L
1
L
2
, L
1
y L
2
.
Entonces, como u +v = w, este vector est a en L
1
L
2
. En concreto est a en L
1
por
ser u + v y est a en L
2
por ser w. Por tanto, podemos escribirlo como
p
i=1
i
a
i
+
q
j=1
j
b
j
=
p
i=1
i
a
i
,
de donde
(
i
i
)a
i
+
j
b
j
= 0 y, al ser B
1
base, esto implica que
i
i
=
j
= 0
para todo i = 1, ..., p y j = 1, ..., q. As, u + w = 0 y, por ser B
2
base, obtenemos
nalmente
i
=
l
= 0 para i = 1, ..., p y l = 1, ..., r. Q.c.T.
Corolario. Dados subespacios L
1
, ..., L
t
de V , se tiene que
dim(L
1
+ ... + L
t
) dim(L
1
) +... + dim(L
t
).
Demostraci on. Ejercicio sencillo por inducci on en t. Q.c.T.
3.10. Operaciones (II): C alculos. Suma directa.
Observaci on. Sean L
1
y L
2
subespacios de un kespacio vectorial V de dimensi on
nita. A la hora de efectuar c alculos explcitos de suma e intersecci on hemos de partir de
datos diferentes: como hemos visto en la demostraci on del teorema de la dimensi on, si
tenemos
L
1
= L(u
1
, ..., u
s
) , L
2
= L(v
1
, ..., v
t
) ,
66
i=1
L
i
= L
1
... L
n
,
si se verican las dos condiciones siguientes:
(a) L = L
1
+ ... + L
n
.
(b) L
i
j=i
L
j
_
= 0 para cualquier i.
En particular, L = L
1
L
2
si L = L
1
+ L
2
y L
1
L
2
= 0. Este caso es el que
aparecer a con m as frecuencia.
Observaci on. De la denici on y del teorema de la dimensi on se sigue que:
(a) Si L
1
, ..., L
n
est an en suma directa, tambi en lo est an cualquier subconjunto de ellos.
(b) dim(L
1
... L
n
) = dim(L
1
) +... + dim(L
n
). (Inducci on en n trivial)
Proposici on. Sea L = L
1
+ ... + L
n
. Las condiciones siguientes son equivalentes:
(a) L = L
1
... L
n
.
(b) Para todo v L existen unicos u
1
L
1
, ..., u
n
L
n
tales que v = u
1
+ ... + u
n
.
(c) Para cualesquiera B
1
, ..., B
n
, bases respectivas de L
1
, ..., L
n
, B
1
... B
n
es base
de L.
67
1
+ ... + u
n
, con u
i
, u
i
L
i
,
tendramos
u
1
u
1
= (u
2
+... +u
n
) (u
2
+ ... + u
n
) L
1
_
_
j>1
L
j
_
_
= 0,
por lo que u
1
= u
1
. Para un i cualquiera se procede an alogamente.
(b) =(c) El hecho de que B
1
... B
n
es sistema generador est a garantizado
porque L = L
1
+ ... + L
n
. Hemos de probar que es linealmente independiente y, para
ello, tomamos una combinaci on lineal
0 =
r
1
i=1
1i
a
1i
+ ... +
r
n
i=1
n1
a
ni
, con a
ji
B
j
=
_
a
j1
, ..., a
jr
j
_
,
ji
k.
Pero en la expresi on anterior escribimos 0 L como suma de un vector de cada L
i
.
Sin embargo, otra forma equivalente de expresarlo es 0 = 0 + ... + 0. Por la unicidad de
esta forma de expresi on (que es la hip otesis (b)) hemos de tener necesariamente
0 =
r
1
i=1
1i
a
1i
= ... =
r
n
i=1
ni
a
ni
,
y, al ser las B
j
bases, tenemos que, para cualesquiera j = 1, ..., n; i = 1, ..., r
j
;
ji
= 0
como queramos probar.
(c) =(a) Sean B
1
, ..., B
n
bases respectivas de L
1
, ..., L
n
, veric andose dim(L
i
) =
r
i
. Si es necesario, multiplicaremos algunos vectores de cada B
i
por escalares no nulos
para garantizar que B
i
B
j
= en cualquier caso. Entonces
dim
_
_
L
i
j=i
L
j
_
_
= dim(L
i
) + dim
_
_
j=i
L
j
_
_
dim(L).
Pero, por (c), B
1
... B
n
esbase de L y, obviamente, B
1
B
i1
B
i+1
... B
n
lo
es de
j=i
L
j
, por ser linealmente independiente. As,
dim
_
_
L
i
j=i
L
j
_
_
= r
i
+
j=i
r
j
n
j=1
r
j
= 0,
lo que prueba (a). Q.c.T.
Denici on. Dados subespacios L L
0
, diremos que L
es un subespacio complemen-
tario de L en L
0
cuando L
0
= L L
.
Observaci on. Por los resultados anteriores, una forma de calcular un subespacio com-
plementario de L en L
0
consiste en tomar una base, B
L
, de L y ampliarla a una base B de
L
0
. Entonces los vectores de B B
L
forman una base de un subespacio complementario.
En particular, salvo que L sea un subespacio trivial de L
0
, no existe un unico subespacio
complementario.
68
.
Esto es, siendo u = (a
1
, ..., a
n
), v = (b
1
, ..., b
n
), si k = Rtenemos que
u v = u v
t
= a
1
b
1
+... +a
n
b
n
.
Por otro lado, si k = C, entonces
u v = u v
t
= a
1
b
1
+... +a
n
b
n
.
El par (V, ) se denomina un espacio vectorial eucldeo (real o complejo, seg un el
cuerpo sobre el que est en denidos)
3
.
Observaci on. Algunas propiedades elementales del producto escalar son:
1. u v = v u
t
2. u v = v u.
3. (u + w) v = u v +w v.
4. u (w +v) = u w +u v.
5. u u es un n umero real estrictamente positivo para todo u ,= 0.
Las propiedades son traslaci on directa de las equivalentes para el producto de matri-
ces. Notemos que, en el caso k = R,
u v = v u.
Denici on. En este contexto, cuando dos vectores u y v verican que u v = 0 se dice
que son ortogonales y se suele denotar u v.
Denici on. El n umero real no negativo
u u se denomina m odulo del vector u, y se
denota por [[u[[.
Si u = (a
1
, ..., a
n
), entonces, cuando k = R,
[[u[[ =
_
a
2
1
+... +a
2
n
,
mientras que si k = C, entonces
[[u[[ =
_
[a
1
[
2
+... +[a
n
[
2
.
Proposici on. Dados u, v V , se verica:
3
En algunas referencias se puede encontrar la terminologa espacio vectorial eucldeo para referirse
unicamente al caso real, mientras que el caso complejo se denomina espacio vectorial unitario.
69
u u
,
que verica
(u v) u
= 0.
Entonces
0 [[u v[[ = (u v) (u v)
= (u v)u
(u v)v
= (u v)v
= u v
+ v v
=
1
[[u[[
2
_
[[u[[
2
[[v[[
2
(v u
)(u v
)
_
.
Si tenemos en cuenta que
(v u
) = (u v
)
y, por tanto,
(v u
)(u v
) = [u v
[
2
,
entonces lo que tenemos arriba es
0
1
[[u[[
2
_
[[u[[
2
[[v[[
2
[u v
[
2
_
[u v[ [[u[[ [[v[[
El apartado (d) es consecuencia directa del siguiente desarrollo:
[[u + v[[
2
= (u + v) (u + v) = [[u[[
2
+ u v
+v u
+[[v[[
2
[[u[[
2
+ 2[u v[ +[[v[[
2
[[u[[
2
+ 2[[u[[ [[v[[ +[[v[[
2
= ([[u[[ +[[v[[)
2
,
donde hemos aplicado (en la segunda desigualdad) el apartado (c). Adem as, la primera
lnea prueba el apartado (e). Q.c.T.
Observaci on. La desigualdad triangular es igualdad si y s olo si u y v son linealmente
dependientes y, adem as, u v 0.
Observaci on. Un kespacio vectorial V (no necesariamente de dimensi on nita) junto
con una aplicaci on de V en los reales no negativos
[[ [[ : X R
+
x [[x[[
70
= u [ u v, para todo v L
es tambi en un subespacio vectorial que verica L L
= V .
Demostraci on. Si tomamos una base de L, B
L
= u
1
, ..., u
r
, entonces
v L
v u
i
v u
i
= v u
i
= 0
u
i
v
t
= 0.
De esta forma, si notamos A /(r n; k) la matriz que verica F(A)
i
= u
i
,
entonces un vector (x
1
, ..., x
n
) L
si y s olo si
A
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
= 0
r1
.
Esto prueba que L
= 0. Por tanto,
usando el teorema de la dimensi on,
dim(L + L
) = dim(L) + dim(L
) dim(L L
) = n,
lo que prueba el resultado. Q.c.T.
Proposici on. Dados subespacios L
1
y L
2
de V se verica:
(a) V
= 0, 0
= V .
(b) (L
1
+ L
2
)
= L
1
L
2
.
71
= L
1
+L
2
.
(d) (L
= L.
Demostraci on. La primera propiedad es directa. En cuanto a (b) y (c), dado que son
similares, probaremos una, por ejemplo (b), y dejaremos (c) como ejercicio.
En primer lugar, si v (L
1
+ L
2
)
1
L
2
. Para ver la otra inclusi on
basta recordar que todo vector u L
1
+ L
2
se puede expresar como u = u
1
+ u
2
, con
u
i
L
i
(3.9.). Entonces si v L
1
L
2
,
v u = v (u
1
+ u
2
) = v u
1
+ v v
2
= 0,
lo que prueba el resultado.
Por su parte, el apartado (d) es directo de observar que L (L
(por denici on de
subespacio ortogonal) y
dim
_
(L
_
= n dim(L
) = dim(L).
Q.c.T.
Observaci on. De todo lo anterior se sigue que un procedimiento sencillo para hallar el
subespacio ortogonal a un subespacio L consiste en:
(a) Si L viene dado por un conjunto de generadores, dichos generadores, escritos en
las, forman una matriz cuya conjugada es la matriz de coecientes de un sistema
de ecuaciones de L
.
(b) Si L viene dado por un sistema de ecuaciones, las las de la matriz de coecientes
del sistema son los conjugados de un conjunto de vectores de V que genera L
.
Proposici on. Sea B una base ortonormal. Entonces, para cualesquiera u, v V se tiene
que
u v = (u)
B
(v)
B
.
Demostraci on. Basta recordar, de 3.6., que, si ( es la base habitual,
M((, B)v
t
C
= v
t
B
de donde
M((, B)v
C
= v
B
y, por tanto,
(u)
B
(v)
B
= u
C
M((, B)
t
M((, B)v
C
,
y, como las columnas de M((, B) son las coordenadas de los vectores de B, tenemos que
M((, B)
t
M((, B) = I
n
,
por ser B base ortonormal. Q.c.T.
72
, es ortonormal si
y s olo si se verica
M(B
, B)
M(B
, B) = I
n
,
esto es, si y s olo si la matriz del cambio de base es unitaria.
Demostraci on. Basta aplicar las siguientes igualdades conocidas:
M(B
, B)
M(B
, B) = [M((, B)M(B
, ()]
[M((, B)M(B
, ()]
= M(B
, ()
M((, B)
M((, B)M(B
, ()
= M(B
, ()
M(B
, () = I
n
Q.c.T.
Corolario. Si V es un Respacio vectorial y B una base ortonormal de V , entonces otra
base, B
, B)
t
M(B
, B) = I
n
.
esto es, si y s olo si la matriz del cambio de base es ortogonal.
Denici on. Sea A /(n; k).
(a) Cuando k = R, si A verica A
t
A = I
n
(o, lo que es igual, que A
t
= A
1
), A se
denomina matriz ortogonal (no ortonormal).
(b) Cuando k = C, si A verica A
A = I
n
(o, lo que es igual, que A
= A
1
), A se
denomina matriz unitaria.
Observaci on. Dado que el elemento (i, j) de A A
= I
n
A
A = I
n
,
es obvio entonces que una matriz es unitaria (respectivamente, ortogonal) si y s olo si sus
columnas forman una base ortonormal del espacio V .
3.13. Expansi on de Fourier. Algoritmo de GramSchmidt.
Las bases ortonormales son interesantes por muchos motivos. Uno de ellos es que per-
miten obtener de manera sencilla las coordenadas de cualquier vector respecto de ellas,
mediante el procedimiento conocido como expansi on de Fourier.
73
i=1
(u
i
v)u
i
.
Esta expresi on se denomina expansi on de Fourier de v respecto de B y los escalares
u
i
v = u
i
v
v
1
u
2
v
1
v
1
v
1
.
.
.
.
.
.
v
r
= u
r
v
1
u
r
v
1
v
1
v
1
...
v
r1
u
r
v
r1
v
r1
v
r1
y comprobemos que forman una base ortogonal.
Para ello, probaremos por inducci on que, dado un vector v
i
, este es ortogonal a todos
los v
j
, con j < i. Esto, junto con el hecho de que el producto escalar es conmutativo,
cuando los vectores son ortogonales, prueba que el conjunto v
1
, ..., v
r
es ortogonal.
Para probar el caso i = 2, s olo hay que comprobar que
v
1
v
2
= v
1
_
u
2
v
1
u
2
v
1
v
1
v
1
_
= v
1
u
2
v
1
u
2
v
1
v
1
v
1
v
1
= 0.
Para el caso general, supondremos cierto el resultado para los vectores v
1
, ..., v
i1
y
lo probaremos para v
i
. Entonces, si j < i,
v
i
v
j
=
_
u
i
v
1
u
i
v
1
v
1
v
1
...
v
i1
u
i
v
i1
v
i1
v
i1
_
v
j
= u
i
v
j
v
1
u
i
v
1
v
1
v
1
v
j
...
v
i1
u
i
v
i1
v
i1
v
i1
v
j
74
es una aplicaci on
f : V V
se denota Hom(V, V
).
Un homomorsmo de V en s mismo se denomina un endomorsmo (de V ). El con-
junto de los endomorsmos se denota End(V ).
Observaci on. Dado f Hom(V, V
.
Observaci on. Sea f Hom(V, V
), v, v
1
, ..., v
p
V . Entonces si v depende lineal-
mente de v
1
, ..., v
p
, f(v) depende linealmente de f(v
1
), ..., f(v
p
). Para verlo s olo hay que
escribir
v =
p
i=1
i
v
i
= f(v) =
p
i=1
i
f(v
i
).
= k
n
, A /(n m; k). Consideramos la aplicaci on dada por
f : V V
(a
1
, ..., a
n
) A
_
_
_
_
a
1
.
.
.
a
n
_
_
_
_
Entonces f es un homomorsmo de V en V
, la
aplicaci on
f : V V
= A(v)
t
B
es un homomorsmo por las propiedades vistas en 3.5. ( ultimo corolario de la
lecci on).
(e) Dado p(X) k[X], un ejemplo de endomorsmo de k[X] es
p(X)
: k[X] k[X]
q(X) p(X)q(X)
77
(x)
es un endomorsmo de V .
(g) Siendo V = C[a, b] el conjunto de funciones continuas en [a, b] las aplicaciones
I : V R L
c
: V R
f(x) I(f) =
_
b
a
f(x)dx f(x) L
c
(f) = lim
xc
f(x)
son homomorsmos de Respacios vectoriales (para el segundo jamos cualquier
c (a, b)).
(h) Si V es un kespacio vectorial de dimensi on n y B es una base de V , la aplicaci on
f : V k
n
v (v)
B
es un homomorsmo de espacios vectoriales (ver, de nuevo, 3.5.).
(i) La aplicaci on
f : C C
z z
es un homomorsmo de Respacios vectoriales, pero no de Cespacios vectoriales.
4.2. Matriz de un homomorsmo.
Hemos visto que, tomando coordenadas respecto de dos bases, multiplicar por una matriz
es un homomorsmo. En esta lecci on probaremos el recproco; esto es, que, esencial-
mente, todos los homomorsmos entre espacios de dimensi on nita (no consideraremos
otros en adelante) se reducen a multiplicar por una matriz.
Proposici on. Dados V y V
bases de V y V
, y f Hom(V, V
.
Demostraci on. Escribimos B = w
1
, ..., w
m
, B
= z
1
, ..., z
n
, y notaremos
f (w
i
) =
n
j=1
a
ji
z
j
[f(w
i
)]
t
B
=
_
_
_
_
a
1i
.
.
.
a
ni
_
_
_
_
.
78
i=1
i
w
i
,
tenemos que
f(v) =
m
i=1
i
f (w
i
) =
m
i=1
i
_
_
n
j=1
a
ji
z
j
_
_
,
esto es,
[f(v)]
t
B
=
_
m
i=1
i
a
1i
, ...,
m
i=1
i
a
ni
_
de donde llamando A = (a
ij
) /(n m; k), resulta
A(v)
t
B
= [f(v)]
t
B
.
Notemos que la matriz A tiene por columnas las coordenadas, respecto de B
, de las
im agenes de los vectores de B. Dicho de otro modo,
C(A)
i
= (f(w
i
))
t
B
, i = 1, ..., m.
Pero, si queremos que A verique el enunciado, esta condici on debe cumplirse. Esto
demuestra la unicidad de A.
Denici on. La matriz A del enunciado anterior se denomina matriz de f respecto de las
bases B y B
, y se denota M
B,B
(f). Cuando f End(V ) y escogemos B = B
, A se
denota M
B
(f).
Ejemplos. Con algunos de los casos que estudiamos en 4.1., veamos algunas matrices
de homomorsmos. Notemos que, para dar una matriz, previamente hay que jar bases
en el espacio original y en el espacio de llegada.
(a) Si L V es un subespacio, con dim(L) = l, dim(V ) = m, tomamos B
L
una base
de L y la extendemos a una base B
V
de V . Entonces
M
B
L
,B
V
(i) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 ... 0
0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1
0 0 ... 0
.
.
.
.
.
.
.
.
.
0 0 ... 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
/(ml; k).
En particular, cuando L = V , M
B
(Id
V
) = I
m
, pero M
B,B
(Id
V
) ,= I
m
, si B , = B
.
(b) La matriz de la aplicaci on nula de V (dim(V ) = n) en 0 es, obviamente, 0
1n
.
(c) Si consideramos V = /(n; k) y consideramos la base
B = E
11
, E
12
, ..., E
1n
, E
21
, ..., E
2n
, ..., E
n1
, ..., E
nn
,
y la base 1 de k entonces M
B,{1}
(Tr) es una matriz la de n
2
columnas con 1
en las columnas 1, n + 2, 2n + 3,...,1 + i(n + 1),...,1 + (n 1)(n + 1) = n
2
,
(correspondientes a las E
ij
con i = j) y 0 en las restantes.
79
y (
bases de V
) se verica
M(B
, (
)M
B,B
(f)M((, B) = M
C,C
(f).
Demostraci on. Dado que la matriz de f, jadas dos bases, es unica, s olo hay que
probar que el t ermino de la izquierda verica la propiedad que determina la matriz de la
derecha. Pero, para cualquier v V ,
M(B
, (
)M
B,B
(f)M((, B)(v)
t
C
= M(B
, (
)M
B,B
(f)(v)
B
= M(B
, (
) (f(v))
t
B
= (f(v))
t
C
,
lo que demuestra el resultado, ya que la matriz M
C,C
(f) es la unica que verica esta
igualdad para cualquier v V .
Corolario. Dadas dos bases B y B
de un kespacio vectorial V ,
M
B,B
(Id
V
) = M(B, B
).
As, podemos entender los cambios de base como un caso particular de homomor-
smo.
Proposici on. Sean f Hom(V, V
), g Hom(V
, V
), B, B
, B
bases de V , V
y V
) y, de hecho,
M
B,B
(g f) = M
B
,B
(g)M
B,B
(f).
Demostraci on. Por el mismo razonamiento que en la proposici on anterior, basta
demostrar que, para cualquier v V ,
M
B
,B
(g)M
B,B
(f)(v)
t
B
= [(g f)(v)]
t
B
,
pero
M
B
,B
(g)M
B,B
(f)(v)
t
B
= M
B
,B
(g) (f(v))
t
B
= [g(f(v))]
t
B
,
lo que naliza la demostraci on.
4.3. N ucleo e imagen de un homomorsmo.
Observaci on. Recordemos de los rudimentos de teora de conjuntos explicados en 1.3.
que, dada una aplicaci on f : X Y y subconjuntos A X y B Y , denamos
f(A) = f(x) [ x A Y
f
1
(B) = x X [ f(x) B X
80
), L V y L
y f
1
(L
son bases de V y V
, y AX
t
= 0
l1
es un sistema de ecua-
ciones implcitas de L
con respecto a B
, entonces
AM
B,B
(f)X
t
= 0
l1
es un sistema de ecuaciones implcitas de f
1
(L
) con respecto a B.
Demostraci on. La primera armaci on es trivial por doble inclusi on. Ya vimos en
4.1. que la imagen de cualquier vector de L es combinaci on lineal de las im agenes de los
u
i
. Pero, obviamente, si un vector de V
es de la forma
w =
1
f (u
1
) +... +
p
f(u
p
),
entonces w = f(
i
u
i
) f(L).
Para demostrar que un sistema de ecuaciones implcitas dene un conjunto concreto,
hay demostrar que un elemento est a en dicho conjunto si y s olo si verica las ecuaciones.
Por tanto, notemos que u f
1
(L
) si y s olo si f(u) L
.
Ahora bien, al ser AX
t
= 0
l1
un sistema de ecuaciones de L
, con respecto a B
,
f(u) L
si y s olo si
0
l1
= A[f(u)
B
]
t
= AM
B,B
(f) [(u)
B
]
t
,
lo que prueba que el sistema de ecuaciones propuesto es, de hecho, un sistema de ecua-
ciones de f
1
(L
) es un
subespacio de V .
Veamos ahora los dos casos particulares m as interesantes de imagen y antiimagen.
Denici on. Sea f Hom(V, V
). Se denen:
(a) El n ucleo de f, denotado
3
ker(f), es la imagen recproca del subespacio 0; esto
es,
f
1
(0) = v V [ f(v) = 0.
(b) La imagen de f, denotada Img(f) es el conjunto f(V ), esto es,
Img(f) = f(v) [ v V .
Observaci on. Los procedimientos anteriores para hallar im agenes e im agenes recpro-
cas, cuando se aplican al n ucleo y la imagen de un homomorsmo resultan especialmente
simples; sobre todo si conocemos una matriz de f respecto de dos bases.
3
Del alem an kernel. Una de las pocas notaciones de origen alem an que quedan junto con Z de z ahlen.
81
) y conocemos M = M
B,B
(f) /(nm; k), entonces,
el n ucleo de f es precisamente el conjunto de vectores cuya imagen es 0, por lo que unas
ecuaciones implcitas son, de forma inmediata,
M
_
_
_
_
_
_
x
1
x
2
.
.
.
x
m
_
_
_
_
_
_
= 0
n1
,
o, escritas en la forma usual, MX
t
= 0
n1
.
Por otro lado, si B = v
1
, ..., v
m
es base de V , como B es sistema generador de V ,
un sistema generador de Img(f) es f(v
1
), ..., f(v
m
) cuyas coordenadas respecto de B
). Entonces
dim(ker(f)) + dim(Img(f)) = dim(V ).
4.4. Isomorsmos.
Veamos ahora un ejemplo de la utilidad del n ucleo y la imagen, a la hora de estudiar
un homomorsmo: en concreto nos dicen qu e tipo de aplicaci on es el homomorsmo en
cuesti on.
Proposici on. Sea f Hom(V, V
). Entonces
(a) f es inyectiva si y s olo si ker(f) = 0.
(b) f es sobreyectiva si y s olo si Img(f) = V
.
Demostraci on. El enunciado (b) es trivial, por denici on de sobreyectividad y de
Img(f). Por tanto, probaremos (a). Es tambi en obvio que, como f(0) = 0, si f es
inyectiva el n ucleo ha de reducirse necesariamente a 0.
Para ver la otra implicaci on supongamos que ker(f) no contiene otro vector que el
nulo y que f no es inyectiva. As, han de existir u, v V distintos tales que f(u) = f(v).
Pero entonces f(u v) = f(u) f(v) = 0, con lo que hemos hallado un vector (en
82
i=1
i
f(u
i
) =
r
i=1
f (
i
u
i
) = 0 =
r
i=1
i
u
i
=
1
= ... =
r
= 0.
Corolario. Si f Hom(V, V
) y dim(V ) = dim(V
), son equivalentes:
(a) f es biyectiva.
(b) f es inyectiva.
(c) f es sobreyectiva.
Demostraci on. Haremos (a) (b), ya que (a) (c) es muy similar. Obvi-
amente (a) = (b), as que nos podemos reducir a la otra implicaci on. Pero, si f es
inyectivo,
dim(V
y f es sobre.
Denici on. Un homomorsmo f Hom(V, V
.
Si V = V
).
Demostraci on. Supongamos que V y V
de V y V
, respectivamente, ten-
emos que
dim(V
) = dim(Img(f)) = rg (M
B,B
(f)) ,
0 = dim(ker(f)) = dim(V ) rg (M
B,B
(f)) ,
por ser f, por este orden, sobreyectiva e inyectiva. De ambas igualdades obtenemos
dim(V ) = dim(V
).
Ahora tenemos dos espacios V y V
= v
1
, ..., v
n
y consideramos el homomorsmo dado por
M
B,B
(f) = I
n
,
esto es, el dado por u
i
v
i
. Como rg(I
n
) = n, f es inyectiva, porque dim(ker(f)) = 0
y es sobre porque dim(Img(f)) = n = dim(V
).
Corolario. Si f es un isomorsmo de V en V
, se tiene
que M
B,B
(f) es invertible.
83
, f
1
(que est a bien denida por ser f
biyectiva) tambi en es un isomorsmo, en este caso de V
en V . En efecto, jadas B y B
bases de V y V
M
B,B
(f)(v)
t
B
= (f(v))
t
B
,
por lo que
[M
B,B
(f)]
1
(f(v))
t
B
= (v)
t
B
=
_
f
1
f(v)
_
t
B
,
lo que prueba que f
1
es un homomorsmo (biyectivo ya era por serlo f) y, adem as, para
cualesquiera bases B y B
,
[M
B,B
(f)]
1
= M
B
,B
_
f
1
_
.
De esto se puede deducir, sin problemas, que Aut(V ) es un grupo con la operaci on
denida por la composici on de aplicaciones.
4.5. El espacio dual. El espacio Hom(V, W).
Esta secci on es, desde el punto de vista te orico, delicada, ya que consiste en dotar de
estructura de kespacio vectorial al conjunto de homomorsmos entre dos kespacios
vectoriales. Por ello la lecci on no ser a muy larga, para poder hacer enfasis en los detalles
complicados (para el alumno) de ver.
Sean V y W kespacios vectoriales (de dimensi on nita). En el conjunto Hom(V, W)
denimos las siguientes operaciones:
(a) Dados f, g Hom(V, W), se dene f + g como
f + g : V W
u (f + g)(u) = f(u) +g(u)
(b) Dados f Hom(V, W), k, se dene f como
f : V W
u (f)(u) = f(u)
Proposici on. Las operaciones anteriores dotan a Hom(V, WW) de estructura de k
espacio vectorial.
Demostraci on. Primero hay que probar que f +g y f son, de hecho, homomors-
mos. Haremos s olo f + g, pues la otra es similar. Entonces
(f +g)(u + v) = f(u + v) +g(u + v)
= f(u) +f(v) +g(u) +g(v)
= (f(u) +g(u)) +(f(v) +g(v))
= (f + g)(u) +(f + g)(v)
84
es, precisamente
B
=
1
, ...,
n
donde
i
: V k
u
j
i
_
u
j
_
= ij,
que es 1 cuando i = j y 0 en otro caso. Esto es,
M
B
(
i
) = ( 0 0 ... 0 1 0 ... 0 )
donde el 1 ocupa precisamenta la posici on i esima.
4.6. Autovalores y autovectores.
Observaci on. De ahora en adelante trataremos con endomorsmos de un kespacio
vectorial de dimensi on m, que denotaremos V . Sabemos que un mismo endomorsmo
puede adoptar diversas formas matriciales, al cambiar de base. Es por ello interesante
estudiar, dado f End(V ) el conjunto de matrices que pueden ser matriz de f y, si es
posible, hallar una base tal que su correspondiente matriz sea lo m as simple posible. Este
curso daremos respuesta parcial a este complicado problema.
Como sabemos de 4.2., si A = M
B
(f), B = M
C
(f) y P = M(B, (), entonces
A = P
1
BP. Esto motiva la siguiente denici on.
Denici on. Dos matrices A, B /(m; k) se dicen semejantes si existe una matriz
P GL(m; k) tal que A = P
1
BP.
Observaci on. La relaci on
A
s
B A es semejante a B
es de equivalencia. Veamos por ejemplo la transitividad: tenemos A, B, C /(m; k)
tales que existen P, Q GL(m; k) vericando
A = P
1
BP, B = Q
1
CQ.
Entonces es claro que A = P
1
Q
1
CQP = (QP)
1
C(QP), de donde A
s
C.
86
= Autovectores asociados a
se denomina (primer) subespacio invariante asociado a .
Observaci on. V
son, precisamente
[I
m
M
B
(f)] X
t
= 0
m1
.
Observaci on. Adem as V
) V
. En efecto, si
tomamos v V
, f(v) = v V
) V
.
Proposici on. En las condiciones anteriores, si es la multiplicidad de como raz del
polinomio caracterstico de f, dim(V
) .
Demostraci on. Escojamos una base de V
, pongamos B
= v
1
, ..., v
r
. Queremos
probar que r . Para ello comenzamos ampliando B
a una base de V , B.
Si queremos calcular A = M
B
(f), recordemos de 4.2. que la columna i esima son
las coordenadas, respecto de B de la imagen del elemento i esimo de B. En particular,
para los r primeros elementos tenemos
f(v
i
) = v
i
,
de donde, para i = 1, ..., r,
[f(v
i
)]
B
= (0, 0, ..., 0, , 0, ..., 0),
88
) = 1.
El resultado es elemental y se sigue de lo siguiente: dim(V
) 1 por la proposici on
que hemos probado. Pero, por ser autovalor, existe al menos un autovector no nulo, de
donde dim(V
i
. Entonces el conjunto B
1
B
2
... B
r
es linealmente inde-
pendiente.
Demostraci on. La prueba es algo difcil de seguir, por la notaci on, as que iremos
despacio. Lo haremos por inducci on en el n umero de autovalores que consideramos. El
caso r = 1 no requiere prueba, porque B
1
es linealmente independiente.
Vamos al caso general, suponiendo cierto el caso de considerar r 1 autovalores.
Tomamos una combinaci on lineal igualada a 0,
0 =
_
_
t
1
j=1
1j
u
1j
_
_
+ ... +
_
_
t
r1
j=1
r1,j
u
r1,j
_
_
+
_
_
t
r
j=1
rj
u
rj
_
_
,
y aplicamos f a ambos miembros de la igualdad:
0 =
_
_
t
1
j=1
1j
1
u
1j
_
_
+ ... +
_
_
t
r1
j=1
r1,j
r1
u
r1,j
_
_
+
_
_
t
r
j=1
rj
r
u
rj
_
_
.
89
j=1
1j
(
1
r
)u
1j
_
_
+ ... +
_
_
t
r1
j=1
r1,j
(
r1
r
)u
r1,j
_
_
,
que es una combinaci on lineal de autovectores de B
1
... B
r1
. Por hip otesis de in-
ducci on, este conjunto es linealmente independiente, por lo que
ij
(
i
r
) = 0, para
i = 1, ..., r 1, j = 1, ..., t
i
; esto es,
ij
= 0 ya que
i
,=
r
para i = 1, ..., r 1. Por
tanto, de la primera igualdad nos resta
0 =
t
r
j=1
rj
u
rj
,
donde
rj
= 0 para todo j = 1, ..., t
r
porque B
r
es base de V
r
.
4.8. Endomorsmos diagonalizables.
Esta lecci on cerrar a pr acticamente nuestro trabajo sobre endomorsmos. En concreto
responderemos a la siguiente pregunta: dada una matriz A, cu ando existe una matriz
semejante diagonal?
Denici on. Un endomorsmo de un kespacio vectorial V se dice diagonalizable si
existe B, base de V tal que M
B
(f) es diagonal.
Proposici on. Un endomorsmo f End(V ) es diagonalizable si y s olo si existe una
base de V formada por autovectores.
Demostraci on. Ambas implicaciones son sencillas. Si f es diagonalizable existe
una base B = v
1
, ..., v
m
tal que
M
B
(f) =
_
_
_
_
_
_
a
1
0 ... 0
0 a
2
... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... a
m
_
_
_
_
_
_
,
y entonces, para todo v
i
B f(v
i
) = a
i
v
i
, por lo que B est a formada por autovectores.
En el otro sentido, tomamos una base B = v
1
, ..., v
m
donde v
i
es un autovector
asociado al autovalor
i
. Entonces, como vimos en 4.6.,
[f(v
i
)]
B
= (0, 0, ..., 0,
i
, 0, ..., 0),
con
i
en la coordenada i esima. Por tanto M
B
(f) es diagonal.
Corolario. Si f posee m autovalores distintos (en k) es diagonalizable.
Demostraci on. Supongamos que f tiene autovalores
1
, ...,
m
todos ellos necesari-
amente de multiplicidad 1. Como vimos en la lecci on anterior, dim(V
i
) = 1 y, uniendo
m autovectores no nulos, uno por cada V
i
, obtenemos un conjunto linealmente indepen-
diente, por tanto una base de autovectores.
90
i
= m = dim(V ).
En efecto, para que f sea diagonalizable, es necesario hallar una base formada por
autovectores, pero el m aximo n umero de autovectores linealmente independientes que
podemos hallar es
dim(V
1
) +... + dim(V
r
)
1
+ ... +
r
m,
de forma que, para que la suma de las dimensiones sea m, ha de ser
1
+... +
r
= m.
Ahora podemos enunciar el resultado que caracteriza cu ando un endomorsmo es
diagonalizable.
Teorema. Sea f End(V ) de autovalores
1
, ...,
r
, con multiplicidades
1
, ...,
r
.
Supongamos que se verica
i
= m. Entonces las condiciones siguientes son equiva-
lentes:
(a) f es diagonalizable.
(b) dim(V
i
) =
i
para todo i = 1, ..., r.
Demostraci on. Comencemos por (a) =(b). Si f es diagonalizable, entonces tiene
una base formada por autovectores. Por tanto un conjunto que contenga a todos los au-
tovectores de f ha de generar V . Ahora bien, todos los autovectores no nulos de f est an
en los espacios V
1
, ..., V
r
. Por tanto
V = V
1
+... + V
r
.
Ahora, aplicando los resultados de la lecci on anterior y una consecuencia de teorema
de la dimensi on obtenemos
m = dim(V
1
+ ... + V
r
) dim(V
1
) +... + dim(V
r
)
1
+ ... +
r
(sumando a sumando)
m,
de donde, para que se d e la igualdad que estamos suponiendo cierta, ha de ser dim(V
i
) =
i
, para i = 1, ..., r.
Para ver (b) =(a) s olo hay que tener en cuenta que la uni on de bases de los V
i
es un
conjunto linealmente independiente. En las condiciones de (b) este conjunto linealmente
independiente es de hecho base de V porque tiene m elementos. Al estar formada esta
base por autovectores, f es diagonalizable.
Corolario. Sea f End(V ) de autovalores
1
, ...,
r
, con multiplicidades
1
, ...,
r
.
Supongamos que se verica
i
= m. Entonces las condiciones siguientes son equiva-
lentes:
(a) f es diagonalizable.
(b) V = V
1
... V
r
.
91
i
.
Entonces comprobamos si se verican las condiciones del teorema y, de ser as, for-
mamos una base B de V uniendo las bases halladas de los V
i
. La matriz M
B
(f) es
entonces diagonal y, por construcci on, la unica forma de hallar otra matriz diagonal de f
es reordenando los vectores de la base (y los elementos de la diagonal, claro). Todos estos
razonamientos nos llevan al siguiente resultado.
Teorema. Sean A y B matrices de endomorsmos diagonalizables. Entonces A y B son
semejantes si y s olo si tienen los mismos autovalores, con las mismas multiplicidades.
4.9. El Lema de Schur.
Una vez resuelto el problema de cu ando una matriz puede ser transformada en diagonal
(y c omo hacerlo), nos queda un problema importante a resolver: qu e hacer cuando no
se puede diagonalizar. Pero, antes de estudiar ese problema, resuelto por el Teorema de
Jordan, vamos a jarnos en una familia importante de matrices: las matrices normales. A
partir de aqu estudiaremos esencialmente los casos real y complejo, as que introducire-
mos una notaci on para relacionar ambas situaciones.
Notaci on. Dado
v = (a
1
+ b
1
, ..., a
n
+ b
n
) C
n
,
denominaremos parte real y parte imaginaria de v, respectivamente, a los vectores de R
n
R(v) = (a
1
, ..., a
n
), I(v) = (b
1
, ..., b
n
).
Evidentemente, la notaci on se extiende al caso de cualquier Cespacio vectorial de
dimensi on n donde se est en tomando coordenadas respecto de una base jada.
Para algunas matrices, como las hermticas, las sim etricas reales o las unitarias, exis-
ten resultados precisos acerca de su diagonalizaci on, denominados teoremas espectrales,
que veremos en la pr oxima lecci on. Pero el ingrediente esencial es un resultado, aparente-
mente inofensivo, que estudiaremos ahora.
Lema de Schur. Sea (V, ) un espacio eucldeo complejo, f End(V ). Entonces existe
B, base ortonormal de V tal que M
B
(f) es triangular superior.
En terminologa matricial, dada A /(n; C) existe U unitaria (esto es U
= U
1
)
tal que U
AU es triangular superior.
Demostraci on. La prueba es sencilla, por inducci on en la dimensi on de V , siendo
trivial el caso n = 1. Notemos de antemano que para aplicar la inducci on necesitamos
trabajar con matrices en lugar de con aplicaciones.
92
1
AU
1
= M
O
(f) =
_
_
_
_
_
_
...
0
.
.
. A
1
0
_
_
_
_
_
_
.
y entonces por hip otesis de inducci on, existe una matriz unitaria V
2
/(n 1; C)
unitaria tal que V
2
A
1
V
2
es triangular superior.
Denimos entonces
U
2
=
_
_
_
_
_
_
1 0 ... 0
0
.
.
. V
2
0
_
_
_
_
_
_
,
que es unitaria (ejercicio sencillo) y sea U = U
1
U
2
. Entonces U
= U
2
U
1
= U
1
2
U
1
1
=
U
1
, esto es, U es unitaria. Pero adem as
U
AU = U
2
(U
1
AU
1
)U
2
= U
2
_
_
_
_
_
_
...
0
.
.
. A
1
0
_
_
_
_
_
_
U
2
=
_
_
_
_
_
_
...
0
.
.
. V
2
A
1
V
2
0
_
_
_
_
_
_
,
y por tanto es triangular superior.
Corolario. Si A es una matriz tal que todos sus autovalores son reales, entonces existe
una base B de autovectores reales tal que M
B
(f) es triangular superior.
Demostraci on. En el teorema s olo hemos usado el cuerpo C a la hora de garantizar
que existe un autovalor y un autovector asociado. Pero en nuestras hip otesis la existencia
de un autovalor est a garantizada por hip otesis y, si R es un autovalor, y v V
,
entonces R(v) V
.
Observaci on. No debemos sin embargo pensar que existe una versi on real del Lema de
Schur. En efecto, si A es una matriz real, lo unico que podemos asegurar a ciencia cierta
es que existen matrices complejas U y T tales que U es unitaria, T triangular superior y
U
AU = T.
4.10. Teoremas espectrales.
Los teoremas espectrales no son en realidad m as que una aplicaci on directa del Lema de
Schur a un caso particularmente interesante: el de las matrices normales.
Denici on. Una matriz cuadrada A /(n; C) se dice normal cuando AA
= A
A.
93
= A),
las sim etricas reales (ya que A
= A
t
= A), las unitarias (porque AA
= A
A = I
n
) y
las ortogonales reales (porque A
= A
t
y A
t
A = AA
t
= I
n
).
Teorema espectral de las matrices normales. Una matriz A /(n; C) es semejante
a una matriz diagonal, con matriz de paso unitaria, si y s olo si A es normal.
Demostraci on. La implicaci on directa es trivial. Supongamos que existen U unitaria
y D diagonal, tales que U
AU = D. entonces
A
A = (UD
)(UDU
) = UD
DU
= UDD
= (UDU
)(UD
) = AA
.
Para ver la implicaci on inversa, partiendo de A, matriz normal, aplicamos el Lema
de Schur para hallar U unitaria y T triangular superior tales que U
AU = T, de donde
T
= U
U, luego
TT
= (U
AU)(U
U) = U
AA
U = U
AU = T
T.
Sin embargo, tenemos que el elemento (1, 1) de TT
es
F(T)
1
F(T)
t
1
= [t
11
[
2
+ ... +[t
1n
[
2
,
mientras que, al ser T triangular superior, el elemento (1, 1) de T
T es
C(T)
1
C(T)
t
1
= [t
11
[
2
.
Por tanto t
1j
= 0 para j = 2, ..., n. Procediendo an alogamente obtenemos que T ha
de ser diagonal.
Corolario. Si f End(V ), con matriz A normal, y u, v V son autovectores asociados
a autovalores distintos, entonces u v.
Demostraci on. Supondremos que los vectores dados son no nulos, ya que de lo
contrario el resultado es trivial. Dado que A es diagonalizable, sabemos que podemos
encontrar una base de autovectores donde u y v son los primeros vectores de las bases
de los subespacios invariantes asociados a sus autovalores. Tras aplicar GramSchmidt,
obtenemos dos vectores, proporcionales a u y v, que forman parte de una base ortonormal,
de donde se tiene el resultado.
Vamos a estudiar ahora con cierto detalle las dos familias m as importantes de matrices
normales: las hermticas y sim etricas reales por un lado y las unitarias y ortogonales
reales, por otro.
Proposici on. Sea A /(n; C) una matriz hermtica. Entonces los autovalores de A
son reales.
Demostraci on. Sea C un autovalor de A, v V
no nulo. Entonces
Av
t
= v
t
= vA
= v,
de donde, multiplicando la primera igualdad por v a izquierda y la segunda a derecha por
v
t
obtenemos
vAv
t
= v v
t
vA
v
t
= v v
t
,
y, al ser v no nulo (por tanto v v
t
,= 0) y A = A
= A
t
= A, en este caso.
Observaci on. Dado que en este caso A es diagonalizable, con autovalores reales, pode-
mos deducir que toda matriz sim etrica es semejante a una diagonal, con matriz de paso
ortogonal.
Proposici on. Sea A /(n; C) una matriz unitaria. Entonces los autovalores de A son
complejos de m odulo 1.
Demostraci on. Procedemos como antes y obtenemos, para C un autovalor de
A, v V
no nulo,
Av
t
= v
t
= vA
= v,
y multiplicando ambas expresiones obtenemos
v v
t
= [[[[v v
t
,
teniendo en cuenta que AA
= I
n
. De aqu obtenemos [[[[ = 1.
Observaci on. De las matrices ortogonales poco podemos decir, salvo que, por ser uni-
tarias, sus autovalores son complejos de m odulo 1. No podemos dar, en general, una
versi on real tan satisfactoria como en el caso de las matrices sim etricas. Podemos, sin
embargo, aproximarnos.
Sea A /(n; R) una matriz ortogonal. Sabemos entonces que es diagonalizable
sobre C, con matriz de paso unitaria, y siendo sus autovalores son complejos de m odulo 1.
Reordenamos una base ortonormal (con coordenadas complejas a priori) que diagonalice
A de forma que aparezcan:
a) Primero, los autovectores asociados a 1 y a 1, si los hubiera.
b) A continuaci on, los asociados a los autovalores complejos no reales. Como son
races complejas de un polinomio real, por cada raz aparece su conjugada, y con
la misma multiplicidad. As pues, podemos ordenar estos autovectores en parejas
(v, v), donde v V
, v V
.
Denotemos = a + b, y sean
u = R(v) =
1
2
(v +v), w = I(v) =
1
2
(v v).
Tenemos entonces que u w y tambi en que
v = u + w, v = u w
y, por tanto u, w) = v, v). Adem as
A(u + w)
t
= (a + b)(u + w)
t
,
y, separando en parte real e imaginaria,
Au
t
= au
t
bw
t
, Aw
t
= bu
t
+ aw
t
.
95
= u
j
i
, con j 0, i = 1, ..., d =
dim(Y
r
); que verica las condiciones del enunciado. Se trata ahora de ampliar esta base
a una de V .
Para ello, notaremos
d
k
= dim(Y
k
), s
k
= d
k
d
k+1
, t
k
= max
lk
s
l
,
y denimos
Z
k
= ker
_
(f Id)
|Y
k1
_
, k 1
que verica
dim(Z
k
) = d
k1
d
k
= s
k1
.
Para ampliar la base, hacemos k = r y notemos que t
r1
= s
r1
> s
r
= t
r
= 0.
Tomamos entonces una base de Z
r
, u
r1
i
, con i = d
r
+ 1, ..., d
r
+ t
r1
y, para cada
vector en la base realizamos las siguientes operaciones:
(a) Escogemos u
0
i
tal que (f Id)
r1
(u
0
i
) = u
r1
i
.
(b) Denimos u
j
i
= (f Id)
j
(u
0
i
), para 1 j r 2.
A continuaci on hacemos k = p = maxl [ s
l1
= t
l1
> t
l
= t
r1
. Entonces los
vectores u
r1
i
de la base de Z
r
anterior est an en Z
p
. A nadimos pues vectores u
p1
i
Z
p
(con d + t
p
+ 1 j d + t
p1
) para conformar una base de Z
p
.
Ahora escogemos de igual modo vectores u
0
i
y denimos vectores u
j
i
, para j =
1, ..., p
1
2. Continuando este proceso hasta que k = 0, construimos un total de
r
l=1
l (t
l1
t
l
) =
r
l=1
t
l1
r
l=1
s
l1
=
r1
l=1
(d
l1
d
l
) = dim(V ) dim(Y
r
)
vectores que verican, por construcci on, la condici on requerida. Adem as, es elemental
que la intersecci on del espacio que generan con Y
r
es nula, por lo que s olo resta probar
que son linealmente independientes para terminar la prueba.
Por tanto, tomamos una combinaci on lineal (ojo con el orden que damos a los vec-
tores)
0 =
r1
j=0
j
d
r
+1
u
j
d
r
+1
+... +
r1
j=0
j
d
r
+t
r1
u
j
d
r
+t
r1
+
p1
j=0
j
d
r
+t
p
+1
u
j
d
r
+t
p
+1
+ ... +
p1
j=0
j
d
r
+t
p1
u
j
d
r
+t
p1
+ ...
Ahora basta con aplicar, en primer t ermino, (f Id)
r1
para quedarnos unicamente
con
0 =
0
d
r
+1
u
0
d
r
+1
+... +
0
d
r
+t
r1
u
0
d
r
+t
r1
,
y, por construcci on, al ser las im agenes por (f Id)
r1
de los vectores involucrados
linealmente independientes, se tiene que
0
d
r
+1
= ... =
0
d
r
+t
r1
= 0. Eliminamos estos
vectores de la combinaci on, y continuamos aplicando (f Id)
l
. El mismo razonamiento
aplicado en cada paso prueba que todos los coecientes son nulos. Esto naliza la prueba.
97
, b = b
, c = c
,
A =
A
,
B =
B
,
C =
C
.
Observaci on. Seg un uno de los axiomas de Hilbert, para que ABC y A
sean
iguales basta con que b = b
, c = c
y
A =
A
.
Observaci on. Recordemos que un tri angulo se dice rect angulo si uno de sus angulos
es un angulo recto. Por contra, un tri angulo acut angulo tiene sus tres angulos agudos
(menores que el angulo recto), y un tri angulo obtus angulo tiene un angulo obtuso (mayor
que un angulo recto). En un tri angulo rect angulo, los dos lados que forman el angulo
recto se llaman catetos, y el otro lado se llama hipotenusa.
Denici on. Diremos que un tri angulo es equil atero si sus tres lados son iguales, is osceles
si dos de sus lados son iguales entre s y distintos del tercero, y escaleno si sus tres lados
son distintos dos a dos.
Uno de los primeros resultados que se puede demostrar sobre los tri angulos es el
c alculo de su area. Para ello suponemos que, como en la gura anterior, el lado c del
tri angulo es horizontal, y lo llamamos base, y al segmento vertical que une el punto C
con la recta AB lo llamamos altura, y lo denotamos h
C
. Esto se podra haber hecho
tambi en con los otros lados a y b, denotando la altura h
A
como el segmento perpendicular
a BC que une el v ertice A con la recta BC, y deniendo la altura h
B
de forma an aloga.
Por otra parte, por denici on, el area de un cuadrado de lado 1 es igual a 1, por lo que
el area de un cuadrado de lado r es igual a r
2
, y el area de un rect angulo de lados a y b es
igual a ab. De aqu podemos obtener el area de un tri angulo cualquiera.
Teorema. El area de un tri angulo ABC es igual a la mitad del producto de su base por
su altura. Es decir,
Area(ABC) =
a h
A
2
=
b h
B
2
=
c h
C
2
.
Demostraci on. Demostraremos el teorema para el lado c y la altura h
C
, siendo los
otros casos an alogos. Se dan tres casos, dependiendo si la altura h
C
corta al lado c en uno
de sus v ertices, lo corta en el interior, o no lo corta. Estos tres casos son los del siguiente
dibujo:
En el primer caso, h
C
= b (o bien h
C
= a, que es un caso an alogo), luego el teorema
dice que el area de este tri angulo rect angulo ser a bc/2. En efecto, si consideramos el
rect angulo de lados b y c, que tiene area bc, su diagonal ser a el lado a, que divide a este
101
cuyo lado
D
ser a paralelo a DE, del mismo tama no, y estar a del mismo lado de A que la recta
BC. Adem as, demostrar el teorema para AD
Area(EDB)
Area(ADE)
=
DB
AD
=
s
r
DB r = AD s.
Pero entonces se tiene:
DB r = AD s AD r +DB r = AD r + AD s
(AD + DB) r = AD (r + s) AB r = AD (r + s).
103
a
=
b
b
=
c
c
,
de donde se obtienen las igualdades
a
b
=
a
,
c
b
=
c
.
Por tanto, la denici on del seno y el coseno de no depende del tri angulo rect angulo
que tomemos, luego es una denici on correcta. Q.c.T.
Observaci on. S olo hemos denido los senos y cosenos de angulos mayores que cero y
menores que , ya que estamos estudiando tri angulos, cuyos angulos siempre estar an en
este conjunto. En este contexto una propiedad util es la siguiente:
Observaci on. De las deniciones son inmediatas las siguientes igualdades:
(a) Si y son complementarios, sen() = cos() y cos() = sen().
(a) Si y son suplementarios, sen() = sen() y cos() = cos().
Adem as de estar bien denidos, el seno y el coseno de un angulo determinan al propio
angulo:
Proposici on. Si y son dos angulos menores que uno llano, y se tiene cos = cos ,
entonces = . Si se tiene sen = sen , entonces o bien = o bien = .
Demostraci on. Supongamos primero que cos = cos . Al igual que en el resultado
anterior, podemos suponer que y son angulos agudos (su coseno es positivo). Supon-
gamos que cos = cos = c/b para ciertos n umeros positivos b y c. Esto quiere decir
que tanto como son angulos de sendos tri angulos rect angulos, cuyos lados contiguos
a y miden b y c, respectivamente. Pero el Teorema de Pit agoras nos dice entonces
cu anto mide el lado opuesto en ambos tri angulos, luego los dos tri angulos son iguales, y
por tanto = .
Por otra parte, si sen = sen y ambos son angulos agudos, un razonamiento id entico
al anterior nos dice que = . Por tanto, si alguno de ellos es obtuso, sabemos que s olo
hay un angulo agudo que tenga el mismo seno. Esto demuestra el resultado. Q.c.T.
Tambi en se demuestra f acilmente la famosa f ormula que relaciona el seno y el coseno:
105
B)
b
=
sen(
C)
c
.
Demostraci on. Se deduce directamente de la f ormula anterior, aplic andola en los
tres angulos de ABC. Los tres t erminos son iguales a
area(ABC)
abc
.
5.4. El teorema del coseno (opcional).
Una vez denido el coseno, podemos hacer una generalizaci on del Teorema de Pit agoras
para tri angulos que no sean rect angulos:
Teorema del coseno. Dado un tri angulo cualquiera ABC, se cumple lo siguiente:
a
2
= b
2
+ c
2
2 b c cos
A.
Demostraci on. Al igual que en el teorema del area del tri angulo, tenemos tres posi-
blidades, dependiendo de si
A es un angulo recto, agudo u obtuso.
Si
A es recto, entonces cos
A = 0, por lo que el Teorema del coseno dice lo mismo
que el teorema de Pit agoras, que ya hemos demostrado.
106
=
1
4
_
4b
2
c
2
(b
2
+ c
2
a
2
)
2
=
1
4
a
4
b
4
c
4
+ 2a
2
b
2
+ 2a
2
c
2
+ 2b
2
c
2
=
1
4
_
(a + b + c)(a + b + c)(a b + c)(a + b c)
=
_
s (s a)(s b)(s c),
como queramos probar. Q.c.T.
5.5. Espacio afn.
Denici on. Sea k un cuerpo arbitrario. El espacio afn ndimensional sobre k es una
terna (A
n
(k), V, +), donde:
108
(
1
, ...,
n
) = (a
1
+
1
, ..., a
n
+
n
).
Observaci on. Se verican de manera inmediata las siguientes propiedades:
(a) Fijado P A
n
(k), se tiene la igualdad de conjuntos P + u [ u V = A
n
(k).
(b) Dados P A
n
(k) y u, v V , (P + u) +v = P + (u + v).
(c) Dados P A
n
(k), u, v V , si P + u = P + v entonces u = v.
(d) Dados P, Q A
n
(k) existe un unico u V que verica P + u = Q. En estas
condiciones el vector u tambi en se notar a
PQ. Observemos que la unicidad es
sobre u y no sobre el par (P, Q): es posible que haya otros pares de puntos (A, B)
tales que u =
AB.
Obviamente, la notaci on
PQ.
Observaci on. Usando la notaci on anteriormente introducida, se pueden probar (en rea-
lidad, es poco m as que reescribir las propiedades anteriores en esta notaci on):
(a)
PQ +
QR =
PR para cualesquiera P, Q, R A
n
(k).
(b)
PQ =
QP para cualesquiera P, Q A
n
(k).
(c)
PQ =
SR si y s olo si
PS =
QR, para cualesquiera P, Q, R, S A
n
(k) (teorema
de Thales paralelo).
Veremos a continuaci on el concepto de dependencia afn en un conjunto de puntos,
que se corresponde con el de dependencia lineal de vectores.
Denici on. Sea S A
n
(k) un conjunto de puntos de A
n
(k). Diremos que S es
afnmente (in)dependiente si existe O S tal que el conjunto
S
O
=
OQ [ Q S, Q ,= O V
es linealmente (in)dependiente.
Lema. Para comprobar si S A
n
(k) es afnmente (in)dependiente es indiferente qu e
punto O escojamos en S como origen de todos los vectores.
109
OR
1
+ ... +
t
OR
t
=
1
(
OP +
PR
1
) +... +
t
(
OP +
PR
t
)
=
1
PR
1
+ ... +
t
PR
t
(
1
+ ... +
t
)
PO
de donde S
P
ha de ser linealmente dependiente, puesto que alg un
i
es no nulo. Esto
prueba lo que queremos salvo en el caso de que exista i entre 1 y t vericando
P = R
i
,
1
= ... =
i1
=
i+1
= ... =
t
= 0,
en cuyo caso la suma anterior se reduce a 0 =
i
PQ [ Q Y
_
A su vez, estas propiedades nos permiten armar que una variedad lineal es, de hecho,
un espacio afn, aplicando la denici on de la secci on anterior.
Denici on. Dada una variedad lineal Y A
n
(k) llamaremos sistema de referencia de
Y a un conjunto 1
Y
= O; B
Y
, donde O Y y B
Y
es una base del subespacio vectorial
D(Y ).
Proposici on. Supongamos que dim(Y ) = r y sea 1
Y
= O; u
1
, ..., u
r
. Entonces dado
P Y , existen unos unicos escalares
1
, ...,
r
k tales que
P = O +
1
u
1
+... +
r
u
r
.
La rupla (
1
, ...,
r
) se denomina coordenadas de P respecto del sistema de referen-
cia 1
Y
, y se denota (P)
R
Y
.
Demostraci on. Basta notar que, como O, P Y ,
OP D(Y ), por lo que existen
1
, ...,
r
k unicos tales que
OP =
1
u
1
+... +
r
u
r
= P = O +
1
u
1
+... +
r
u
r
,
111
O
2
O
1
_
B
2
, (P)
R
1
=
_
O
1
P
_
B
1
,
de donde deducimos que
M(1
1
, 1
2
) (1 [ (P)
R
1
)
t
= (1 [ (O
1
)
R
2
)
t
+
_
1 [ (
O
1
P)
B
2
_
t
=
_
1 [ (
O
2
P)
B
2
_
t
= (1 [ (P)
R
2
)
t
5.7. Operaciones con variedades. El Teorema de la di-
mensi on.
Observaci on. De la denici on de variedad lineal como conjunto de soluciones de un
sistema de ecuaciones lineales se sigue inmediatamente que la intersecci on de variedades
lineales anes es una variedad lineal afn. Para hallar un sistema de ecuaciones que dena
la intersecci on simplemente hay que unir todas las ecuaciones que denan las variedades
que queremos intersectar.
A continuaci on damos una noci on equivalente a la de sistema generador de un subes-
pacio vectorial que nos ser a de ayuda para denir las operaciones con variedades lineales.
Denici on. Diremos que un conjunto de puntos P
0
, ..., P
r
es un sistema generador
de una variedad lineal afn Y ,= si Y es la menor variedad lineal que contiene a
P
0
, ..., P
n
, hecho que notaremos Y = P
0
, ..., P
r
). Equivalentemente,
Y = P
0
, ..., P
r
) =
{P
0
,...,P
r
}L
L variedad lineal
L.
112
P
0
P
1
, ...,
P
0
P
r
_
lo es de D(Y ), y ser a una
base de Y cuando
_
P
0
P
1
, ...,
P
0
P
r
_
es una base de D(Y ). As demostramos que toda
base de Y tiene, exactamente dim(Y ) + 1 puntos.
Esto se generaliza para variedades lineales cualesquiera en el concepto de suma de
variedades.
Denici on. Dado un conjunto de variedades lineales Y
1
, ..., Y
r
, denimos la variedad
lineal suma como
Y
1
+ ... +Y
r
=
{Y
1
,...,Y
r
}L
L variedad lineal
L.
As denida, se observa que Y
1
+ ... + Y
r
es precisamente la menor variedad lineal
que contiene a Y
1
, ..., Y
r
.
Proposici on. Dadas Y
1
, Y
2
variedades lineales se tiene que, si Y
1
Y
2
,= ,
D(Y
1
Y
2
) = D(Y
1
) D(Y
2
) ,
y, en cualquier caso,
D(Y
1
+ Y
2
) = D(Y
1
) +D(Y
2
) +
P
1
P
2
),
para cualesquiera P
1
Y
1
, P
2
Y
2
. En particular, si Y
1
Y
2
,= ,
D(Y
1
+ Y
2
) = D(Y
1
) +D(Y
2
) .
Demostraci on. La primera armaci on se sigue directamente del hecho de que unas
ecuaciones de la variedad de direcci on son el sistema homog eneo asociado a un sistema
que dena la variedad.
En cuanto a la segunda, tomemos dos sistemas de generadores
Y
1
= P
1
, Q
1
, ..., Q
r
), Y
2
= P
2
, R
1
, ..., R
s
).
(los espacios son intencionados) entonces tenemos que
Y
1
+ Y
2
= P
1
, Q
1
, ..., Q
r
, P
2
, R
1
, ..., R
s
),
luego
D(Y
1
+ Y
2
) =
_
P
1
Q
1
, ...,
P
1
Q
r
,
P
1
P
2
,
P
1
R
1
, ...,
P
1
R
s
_
,
y escribiendo
P
1
R
i
=
P
1
P
2
+
P
2
R
i
, obtenemos
D(Y
1
+ Y
2
) =
_
P
1
Q
1
, ...,
P
1
Q
r
,
P
1
P
2
,
P
2
R
1
, ...,
P
2
R
s
_
= D(Y
1
) +D(Y
2
) +
P
1
P
2
).
Podemos entonces presentar el resultado que relaciona las dimensiones de dos varie-
dades lineales con las de su suma e intersecci on, a la manera de la f ormula de la dimensi on
para espacios vectoriales.
113
P
1
P
2
)
_
y aplicando el Teorema de la dimensi on de espacios vectoriales, junto con el hecho de
que
P
1
P
2
no puede estar ni en D(Y
1
) +D(Y
2
) (ejercicio sencillo), tenemos que
dim(Y
1
+ Y
2
) = dim(D(Y
1
)) +dim(D(Y
2
)) dim(D(Y
1
) D(Y
2
)) +dim
_
P
1
P
2
)
_
,
de donde se sigue el resultado.
5.8. El espacio eucldeo.
Denici on. Un espacio eucldeo es un espacio afn (A
n
(k), (V, ), +), donde (V, ) es un
espacio vectorial eucldeo. Como de costumbre diremos simplemente que A
n
(R) es un
espacio eucldeo (ndimensional).
Denici on. Dados P, Q en un espacio eucldeo A
n
(R) denimos la distancia entre P y
Q como
d(P, Q) =
PQ
.
Observaci on. La distancia denida es una m etrica topol ogica; esto es, verica las si-
guientes propiedades:
(a) d(P, Q) = 0 si y s olo si P = Q.
(b) d(P, Q) = d(Q, P).
(c) d(P, R) d(P, Q) +d(Q, R).
Todas las pruebas son directas a partir de los resultados de 3.11. As, por ejemplo
d(P, R) =
PR
PQ+
QR
PQ
QR
PQ
PR 0.
114
= O
; B
) =
_
_
_
_
_
1 0 ... 0
(O)
R
M(B, B
)
_
_
_
_
_
,
y verica, para todo Q A
n
(R),
M(1, 1
) (1 [ Q
R
)
t
= (1 [ Q
R
)
t
,
donde [Q]
R
(respectivamente [Q]
R
) son las coordenadas de Q respecto de 1 precedidas
de un 1.
Por tanto, un cambio de sistemas de referencia m etricos en A
n
(R) implica un cambio
de bases ortonormales de (V, ). As, por 3.12., la matriz M(B, B
) ha de ser ortogonal
(recordemos que una matriz unitaria y real es ortogonal).
Observaci on. Las otras dos propiedades del m odulo que no hemos utilizado son:
(a) La desigualdad de CauchySchwartz, que establece que, para todo par de vectores
u, v V ,
[u v[ [[u[[ [[v[[ = 1
u v
[[u[[ [[v[[
1.
Por tanto, dados dos vectores de V , con el mismo origen, denimos el angulo que
forman como el unico real (0, ] vericando
cos() =
PQ
PR
PQ
PR
.
Con esta denici on se verica la f ormula conocida del producto escalar
PQ
PR =
PQ
PR
cos().
(b) El teorema de Pit agoras establece que
u v [[u + v[[
2
= [[u[[
2
+[[v[[
2
,
lo cual, tomando vectores u =
PQ, v =
QR, nos da
d(P, R)
2
=
PQ +
QR
2
=
PQ
2
+
QR
2
= d(P, Q)
2
+ d(Q, R)
2
,
si y s olo si
PQ y
QR son ortogonales.
Este es el Teorema de Pit agoras tal y como
se suele expresar en este contexto.
115
a
2
= [a[, que coincide con el tama no de su
representaci on gr aca. Lo mismo ocurre con los vectores de la forma bv
2
. Si por ultimo se
tiene v = av
1
+bv
2
, entonces sus coordenadas respecto de 1son (a, b), luego su m odulo
ser a
a
2
+b
2
. Ahora bien, como v
1
y v
2
son perpendiculares, tambi en lo son av
1
y
bv
2
, luego sus representaciones gr acas forman un rect angulo. Una de las diagonales
de este rect angulo es la representaci on del vector v, la otra (que mide lo mismo, al ser
un rect angulo) es la hipotenusa de un tri angulo rect angulo de catetos av
1
y bv
2
, luego el
teorema de Pit agoras cl asico nos dice que el tama no de la representaci on de v es igual a
la raz cuadrada del cuadrado del tama no de av
1
m as el cuadrado del tama no de bv
2
, es
decir,
a
2
+ b
2
. Por tanto, m odulo y tama no son nociones equivalentes.
Una vez que sabemos que el m odulo de un vector coincide con su tama no, veamos
que ortogonalidad corresponde a perpendicularidad. Por un lado, sabemos por el teorema
de Pit agoras afn, que dos vectores u y v son ortogonales si y s olo si
[[u + v[[
2
= [[u[[
2
+[[v[[
2
.
Por otra parte, consideremos las representaciones gr acas de O, O + u y O + u + v.
Los lados de este tri angulo son u, v y u + v. El teorema de Pit agoras cl asico (y su
generalizaci on, el teorema del coseno) nos dice que u y v son perpendiculares si y s olo si
los tama nos de sus lados satisfacen [[u[[
2
+[[v[[
2
= [[u +v[[
2
. Por tanto, ortogonalidad y
perpendicularidad son nociones equivalentes. Q.c.T.
116
D(Y
2
) o D(Y
2
) D(Y
1
)
.
117
que verique las propiedades (a), (b) y (c) (para los mismos P
1
y
P
2
) verica Y
Y .
(e) d(Y
1
, Y
2
) = d(P
1
, P
2
).
A una tal variedad Y se la denomina una perpendicular com un a Y
1
e Y
2
.
Demostraci on. Obviamente para que Y verique (b) es necesario que D(Y ) sea
ortogonal a D(Y
1
) y a D(Y
2
); y para que verique (d) necesitamos que Y tenga la mayor
dimensi on posible. Por tanto, la opci on natural para D(Y ) es
D(Y ) = [D(Y
1
) +D(Y
2
)]
= D(Y
1
)
D(Y
2
)
,
y as tenemos que, recordando los resultados relativos a la dimensi on de los subespacios
ortogonales (3.12.)
dim(Y ) = dim(D(Y )) = n dim[D(Y
1
) +D(Y
2
)] .
Ahora, usando el teorema de la dimensi on para variedades anes
n = dim(A
n
(R)) dimD(Y
1
+ Y
2
) > dim(D(Y
1
) +D(Y
2
)) ,
por lo que nuestra denici on de D(Y ) asegura que dim(Y ) 1.
Para determinar Y necesitamos ahora un punto. Entonces tomemos dos puntos: Q
1
Y
1
, Q
2
Y
2
; y escribamos
Q
1
Q
2
como
Q
1
Q
2
= u + v = (u
1
+ u
2
) +v, con u D(Y
1
) +D(Y
2
), u
i
D(Y
i
), v D(Y ),
donde u y v son unicos porque D(Y ) = [D(Y
1
)+D(Y
2
)]
, pero los u
i
no lo son, a menos
que D(Y
1
) D(Y
2
) = 0. Tomamos entonces el punto
P
1
= Q
1
+ u
1
Y
1
,
y denimos Y = P
1
+ D(Y ).
118
P
1
P
2
= v D(Y ), por lo que P
2
Y . Ahora bien,
D(Y Y
i
) = D(Y ) D(Y
i
) = 0,
por lo que se tiene que Y Y
i
ha de ser un punto, y, en consecuencia, tiene que ser P
i
.
Por ultimo hemos de probar que la mnima distancia entre Y
1
e Y
2
se alcanza precisa-
mente en d(P
1
, P
2
). Para ello, sea Q
1
Y
1
, Q
2
Y
2
puntos cualesquiera como arriba.
Escribimos entonces
d(Q
1
, Q
2
)
2
=
Q
1
Q
2
2
=
Q
1
P
1
+
P
1
P
2
+
P
2
Q
2
2
=
Q
1
P
1
+
Q
2
P
2
2
+
P
1
P
2
2
,
porque (
Q
1
P
1
+
Q
2
P
2
)
P
1
P
2
y podemos aplicar el Teorema de Pit agoras. Entonces es
claro que el mnimo se alcanza cuando
Q
1
P
1
+
Q
2
P
2
2
= 0, esto es, cuando Q
i
= P
i
.
Corolario. Si D(Y
1
) D(Y
2
) = 0 (esto se suele expresar diciendo que Y
1
e Y
2
se
cruzan) entonces la perpendicular com un es unica.
Demostraci on. Basta recuperar de la demostraci on la unica elecci on que hemos he-
cho: la del punto P
1
, que provena de la elecci on de vectores u
1
D(Y
1
) y u
2
D(Y
2
)
en la descomposici on de
Q
1
Q
2
. Pero, si D(Y
1
) D(Y
2
) = 0, entonces la suma
D(Y
1
) +D(Y
2
) es directa; y por tanto u
1
y u
2
son unicos.
Corolario. Dadas dos variedades lineales anes Y
1
e Y
2
, se tiene que
d(Y
1
, Y
2
) = 0 Y
1
Y
2
,= .
Demostraci on. S olo hay que probar, obviamente, la implicaci on directa. Pero, si
d(Y
1
, Y
2
) = 0 y tenemos Y
1
Y
2
= , podemos construir una perpendicular com un y
hallar puntos P
i
Y
i
tales que d(Y
1
, Y
2
) = d(P
1
, P
2
) > 0, en contra de la hip otesis.
5.10. Distancias (II): Hiperplano mediador.
Una vez estudiado un procedimiento general para hallar la distancia entre dos variedades,
nos jamos en los casos m as interesantes geom etricamente: los casos de distancia de un
punto a un hiperplano y de distancia entre dos hiperplanos. Posteriormente veremos un
primer ejemplo de lugar geom etrico que nos ser a de gran utilidad en el pr oximo tema: el
hiperplano mediador de dos puntos.
Denici on. Sea P A
n
(R), Y una variedad lineal tal que P / Y . Entonces, si Y
es la
perpendicular com un a P e Y , el punto Y Y
1
+... + a
n
n
[
_
a
2
1
+ ... + a
2
n
.
Demostraci on. Dado que la direcci on de H viene determinada por la ecuaci on
D(H) : a
1
x
1
+... +a
n
x
n
= 0,
es obvio que
D(H)
=
_
(a
1
, ..., a
n
)
_
,
ya que dim(D(H)
(a
1
, ..., a
n
)
_
.
Buscamos un punto Q HL para lo cual lo m as simple es tomar un punto arbitrario
en L
P +
(a
1
, ..., a
n
) = (
1
+ a
1
, ...,
n
+ a
n
) ,
e imponemos que verique la ecuaci on de H. Entonces es inmediato que
=
a
0
+ a
1
1
+ ... + a
n
n
a
2
1
+ ... + a
2
n
.
Por tanto tenemos
d(P, Y ) = d(P, Q) =
PQ
= [[
(a
1
, ..., a
n
)
=
[a
0
+ a
1
1
+ ... + a
n
n
[
_
a
2
1
+ ... + a
2
n
.
Denici on. Dado un hiperplano H : a
0
+ a
1
x
1
+ ... + a
n
x
n
= 0, un vector no nulo del
subespacio
(a
1
, ..., a
n
)) se denominar a vector normal a H.
Corolario. Sean dos hiperplanos H y H
. Entonces, si H H
= podemos suponer
que vienen dados por ecuaciones
H : +a
1
x
1
+ ... + a
n
x
n
= 0, H
: + a
1
x
1
+ ... + a
n
x
n
= 0,
y, adem as,
d(H
1
, H
2
) =
[ [
_
a
2
1
+ ... + a
2
n
.
Demostraci on. Del teorema de la dimensi on para variedades lineales anes es in-
mediato que
H H
= = D(H) = D(H
),
por lo que podemos suponer que D(H) y D(H
) =
[ +a
1
1
+... +a
n
n
[
_
a
2
1
+ ... + a
2
n
=
[ [
_
a
2
1
+ ... + a
2
n
,
ya que +a
1
1
+...+a
n
n
= 0. Por tanto d(P, H
).
El ultimo punto relativo a puntos, hiperplanos y distancias es el hiperplano mediador.
Proposici on. Sean P, Q A
n
(R), distintos. Entonces el conjunto
M
PQ
= R A
n
(R) [ d(P, R) = d(Q, R)
es un hiperplano, denominado hiperplano mediador de P y Q (cuando n = 2, se denomi-
nar a mediatriz de P y Q).
Demostraci on. Vamos a dar la construcci on explcita de M
PQ
. Para ello, notemos
P = (
1
, ...,
n
), Q = (
1
, ...,
n
),
y consideramos R el punto medio de P y Q. Es obvio entonces que R M
PQ
, y que
R =
_
1
+
1
2
, ...,
n
+
n
2
_
.
Veamos entonces que M
PQ
= R +
_
PQ
_
. En efecto,
A M
PQ
d(A, P) = d(A, Q)
AP
2
=
AQ
AR +
RP
2
=
AR +
RQ
AR +
RP
_
AR +
RP
_
=
_
AR +
RQ
_
AR +
RQ
_
AR
RP =
AR
RQ
AR
RP =
AR
RP
AR
RP = 0
AR
RP = (1/2)
QP,
lo que naliza la prueba.
121
f : k
n
k
m
denominado homomorsmo vectorial asociado, que verica que para cualquier par de
puntos P, Q A
n
(k),
f(P) = f(Q) +
f
_
PQ
_
.
En el caso n = m, cuando
f sea adem as un isomorsmo (y por tanto un automor-
smo), f se denominar a anidad. Al ser
f biyectivo, tambi en lo es f.
Observaci on. De la denici on se deduce inmediatamente que
f(P)f(Q) =
f
_
PQ
_
,
lo cual ilustra nuestra armaci on de que f transforma de manera coherente los vectores:
dado un vector v, cualquier par (P, Q) que nos sirvan como origen y nal de v verican
que el vector de origen f(P) y nal f(Q) es siempre el mismo, y dicho vector ser a,
obviamente,
f (u).
Proposici on. Dada una aplicaci on afn f : A
n
(k) A
m
(k) y jados sistemas de
referencia 1
n
= O; B
n
y 1
m
= O
; B
m
, existe una matriz M
R
n
,R
m
(f), denominada
matriz de f respecto de 1
n
y 1
m
tal que, para todo P A
n
(k),
(1 [ f(P)
R
m
)
t
= M
R
n
,R
m
(f) (1 [ P
R
n
)
t
.
Demostraci on. En realidad basta con dar la matriz, que no es otra que
M
R
n
,R
m
(f) =
_
_
_
_
_
_
_
_
1 0 ... 0
f(O)
t
R
m
M
B
n
,B
m
_
f
_
_
_
_
_
_
_
_
_
f
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
P
t
R
n
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1 0 ... 0
f(O)
t
R
m
M
B
n
,B
m
_
f
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
OP
t
B
n
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
1
f(O)
t
R
m
+ M
B
n
,B
m
_
f
_
OP
t
B
n
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
1
f(O)
t
R
m
+
f(O)f(P)
t
B
m
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1
f(P)
t
R
m
_
_
_
_
_
_
_
_
Corolario. Una aplicaci on afn queda completamente determinada por su acci on sobre
un sistema de referencia del espacio de partida. Alternativamente, queda determinada por
su acci on sobre una base del espacio de partida.
Corolario. En las condiciones anteriores, si 1
n
y 1
m
son otros dos sistemas de refer-
encia de A
n
(k) y A
m
(k), respectivamente, entonces
M
R
n
,R
m
(f) = M(1
m
, 1
m
) M
R
n
,R
m
(f) M
(
1
n
, 1
n
).
Proposici on. Dada una aplicaci on afn f : A
n
(k) A
m
(k), si Y y Z son variedades
lineales anes de A
n
(k) y A
m
(k), respectivamente, entonces f(Y ) y f
1
(Z) son as
mismo variedades lineales anes.
Demostraci on. La demostraci on es muy similar al resultado equivalente para subes-
pacios vectoriales y homomorsmos. En concreto,
Y = P + D(Y ) = f(Y ) = f(P) +
f (D(Y )).
Ambas inclusiones son sencillas. Por ejemplo, si tomamos R f(Y ), debe existir
Q Y tal que f(Q) = R y por tanto u =
PQ D(Y ). Entonces
R = f(Q) = f
_
P +
PQ
_
= f(P) +
f
_
PQ
_
f(P) +
f (D(Y )).
La otra inclusi on es m as sencilla (si cabe).
Para demostrar que f
1
(Z) es una variedad lineal en A
n
(k) denida por, pongamos,
r ecuaciones, basta comprobar, como en 4.3., que (cuidado con las variables):
Z : A
_
_
_
_
x
1
.
.
.
x
m
_
_
_
_
= B
t
Z :
_
B
t
[ A
_
_
_
_
_
_
_
1
x
1
.
.
.
x
m
_
_
_
_
_
_
= 0
r1
f
1
(Z) :
_
B
t
[ A
_
M(f)
_
_
_
_
_
_
1
x
1
.
.
.
x
n
_
_
_
_
_
_
= 0
r1
123
f (u) [ u D(Y )
_
,
de donde f(Y ) = f(P) +
f (D(Y )).
Esto nos permite deducir, adem as, a partir de los resultados de 5.7., que
Y = P
0
, ..., P
r
) = f(Y ) = f (P
0
) , ..., f (P
r
)).
Proposici on. Sea una anidad f : A
n
(k) A
n
(k), y sea Y una variedad lineal dada
por Y = P + D(Y ). Entonces Y es ja (o sea, f(Y ) = Y ) si y s olo si f(P) Y y
f (D(Y )) = D(Y ).
Demostraci on. Ve amos la doble implicaci on. Por un lado, si Y es ja, es obvio que
f(P) f(Y ) = Y . Si tomamos u D(Y ), escribimos entonces Q = P +u Y . Como
f(Q) f(Y ) = Y , tenemos que
f
_
PQ
_
=
f(P)f(Q) D(Y ),
con lo que
f (D(Y )) D(Y ). Pero, por ser
f = Id,
para alg un ,= 0.
Observaci on. Dado que la matriz del isomorsmo identidad es la matriz identidad en
cualquier base, una anidad es una dilataci on si y s olo si la matriz complementaria al
elemento (1, 1) de M
R
(f) es I
n
, para cualquier sistema de referencia 1.
Observaci on. Si estudiamos los puntos jos de una dilataci on f, pongamos dada por la
matriz
M(f) =
_
_
_
_
_
_
1 0 ... 0
a
1
.
.
.
.
.
.
a
n
_
_
_
_
_
_
,
tendremos que resolver el sistema de ecuaciones:
D
f
:
_
_
a
1
= (1 )x
1
.
.
.
.
.
.
a
n
= (1 )x
n
Tenemos entonces dos casos claramente diferenciados.
125
(a
1
, ..., a
n
),
como se puede comprobar multiplicando por la matriz. Por este motivo la anidad se
denomina traslaci on de vector u =
(a
1
, ..., a
n
), y se denotar a habitualmente por
u
.
A partir de los resultados de la secci on anterior, dado que
f = Id es sencillo de-
mostrar que Y es ja si y s olo si f(P) Y , para alg un P Y . Esto es equivalente a
decir que Y es ja por
u
si y s olo si u D(Y ).
Caso ,= 1 En este caso las ecuaciones de los puntos jos forman un sistema compa-
tible determinado. La soluci on (y por tanto el unico punto jo) es
D
f
=
__
a
1
1
, ...,
a
n
1
__
.
La anidad f se denomina homotecia de centro el unico punto jo (que denotaremos
O en lo que sigue) y raz on , y se denota habitualmente h
O,
. El par (O, ) determina la
anidad, ya que, para todo P A
n
(k),
f(P) = O +
OP.
Para ver esto simplemente escribimos P = (x
1
, ..., x
n
) y, multiplicando por la matriz
M(f) obtenemos que
f(P) = (a
1
+ x
1
, ..., a
n
+ x
n
)
=
_
a
1
1
, ...,
a
n
1
_
+
_
x
1
a
1
1
, ..., x
n
a
n
1
_
lo que demuestra la armaci on.
Sea Y una variedad lineal cualquiera. Queremos saber cu ando ser a ja para h
O,
.
Dado que una vez m as se tiene que
f (D(Y )) = D(Y ) ya que
f = Id, es claro que
toda variedad lineal que pase por O es ja, basta escribirla como Y = O + D(Y ).
Pero adem as se tiene que, si Y es ja, entonces dado P Y cualquiera, f(P) Y y
por tanto
Pf(P) =
OP,
esto implica que si Y es ja
f
_
PQ
_
=
f(P)f(Q),
y, dado un sistema de referencia afn 1 = O; B, M
B
(
H
: A
n
(R) A
n
(R)
P
H
(P) = P + 2
PQ,
donde Q es el pie de la perpendicular a H trazada desde P. En particular, Q es el punto
medio de P y
H
(P).
127
) y una base v
1
, ..., v
n1
de D(H). Si apli-
camos GramSchmidt, por separado, a ambas bases, y las unimos obtenemos una base
ortonormal
B = w
1
, ..., w
n1
, x.
Finalmente escojemos un punto cualquiera O H para completar un sistema de referen-
cia afn 1 = O; B. Respecto de este sistema de referencia, H : x
n
= 0.
Escogemos entonces un punto cualquiera (identicamos en adelante coordenadas res-
pecto de 1y puntos) P = (a
1
, ..., a
n
). Entonces la perpendicular a H desde P es
L : x
1
= a
1
, ..., x
n1
= a
n1
,
y, por tanto,
H
(P) = (a
1
, ..., a
n
) + 2
(0, ..., 0, a
n
) = (a
1
, ..., a
n
) .
En forma matricial tenemos que
M
R
(f) =
_
_
_
_
_
_
_
_
_
1 0 ... 0 0
0 1
.
.
.
.
.
.
0 1
0 1
_
_
_
_
_
_
_
_
_
.
Por lo estudiado en este tema,
H
es una anidad. Adem as es inmediato que M
B
(
f )
es ortogonal, por lo que
H
es un movimiento. Adem as, una propiedad inmediata, bien
de la denici on, bien de la expresi on matricial de
H
, es que
2
H
= Id, esto es, que
1
H
=
H
. Otra propiedad elemental a deducir es que
(
H
)
|D(H)
= Id
D(H)
.
Podemos ampliar el estudio para incluir cualquier tipo de simetra (por ejemplo,
simetras axiales en A
3
(R)).
Ejemplo. La aplicaci on que, jado un sistema de referencia, permuta dos o m as va-
riables, es evidentemente un movimiento. Es un buen ejercicio que el alumno trate de
expresarlo como producto de (tal vez una) simetras.
6.5. El teorema de CartanDieudonn e (opcional).
Observaci on. El teorema de CartanDieudonn e nos permite una primera clasicaci on
(geom etrica) de los movimientos. Este resultado es el m as importante que se ver a en este
tema; en particular es de los pocos que se pueden aplicar a cualquier dimensi on.
Lema. Sea f : A
n
(R) A
n
(R) una aplicaci on que preserve distancias. Si f deja
n + 1 puntos invariantes Q
1
, ...., Q
n+1
no contenidos en un hiperplano, f = Id.
Demostraci on. En efecto, si existiese un punto P tal que f(P) ,= P, entonces,
d(P, Q
i
) = d(f(P), f(Q
i
)) = d(f(P), Q
i
),
de donde (5.10.) Q
1
, ..., Q
n+1
han de estar en el hiperplano mediador de P y f(P). Esto
es imposible por hip otesis, luego f = Id.
128
u
: A
n
(R) A
n
(R)
P P + u
129
Pf(P) = u = u D(H).
As, P es jo para g =
H
u
, pero, para todo R P + D(H),
g(R) = g(P) +
u
(v) = P +
H
(v) = R,
porque, como indicamos en 6.4.,
u
= Id
V
,
(
H
)
|D(H)
= Id
D(H)
.
Por tanto g es un movimiento con un hiperplano, P + D(H), de puntos jos y es, en
consecuencia, una simetra. Esto prueba que toda traslaci on es producto de dos simetras
hiperplanas de ejes paralelos.
6.6. Movimientos y algunos conjuntos anes.
Vamos a dar algunas propiedades relativas a movimientos que ser an de mucho uso en las
clases de problemas: en particular introduciremos los segmentos y semirrectas, cuyo uso
ser a fundamental a la hora de calcular movimientos que dejan invariantes guras.
Denici on. Dados P, Q A
n
(R) denominamos segmento de extremos P y Q al con-
junto
PQ = P +
PQ [ [0, 1].
Lema. Las condiciones siguientes son equivalentes:
(a) R PQ.
(b) R PQ y
PR
RQ 0.
(c) d(P, Q) = d(P, R) +d(R, Q).
Demostraci on. El resultado se sigue casi inmediatamente de 3.11. y de la denici on
anterior, haciendo (a) (b) (c).
La unica dicultad puede estar en (b) =(a). Para ello, tomemos R PQy notemos
el escalar que verica
PR = P +
PQ. Entonces
PR
RQ =
_
PQ
_
_
(1 )
PQ
_
= (1 )d
2
(P, Q),
130
PQ [ 0.
Lema. Las condiciones siguientes son equivalentes:
(a) R L
P,Q
.
(b) R PQ y, bien
PR
RQ 0, bien
PQ
QR 0.
(c) d(P, Q) = d(P, R) +d(R, Q) o bien d(P, Q) = d(P, R) +d(R, Q).
Demostraci on. Paralela al caso del segmento.
Corolario. Dados tres puntos alineados, uno de ellos siempre est a en el segmento cuyos
orgenes son los otros dos.
Proposici on. Sea f un movimiento. Entonces f(L
P,Q
) = L
f(P),f(Q)
.
Demostraci on. Aunque podemos adaptar la demostraci on del caso del segmento,
vamos a usar otra para dar una visi on m as amplia de las t ecnicas que podemos usar tra-
bajando con movimientos. Tomamos primero R L
P,Q
y, entonces,
PR =
PQ, con
0, de donde
f(P)f(R) =
f
_
PR
_
=
f
_
PQ
_
=
f(P)f(Q).
y esto es implica que f(R) L
f(P),f(Q)
.
Para ver la otra inclusi on, basta tomar R L
f(P),f(Q)
y aplicar f
1
que es tambi en
un movimiento. Entonces, por lo que acabamos de probar, f
1
(R) L
P,Q
, luego R
f (L
P,Q
), como queramos probar.
Observaci on. Un conjunto T se dice convexo cuando, para cualesquiera P, Q T,
PQ T. Los segmentos y las semirrectas son ejemplos de conjuntos convexos. En clase
de problemas veremos m as ejemplos (polgonos y poliedros, por ejemplo), y c omo varan
por la acci on de movimientos. En concreto, dos resultados a tener en cuenta en esta lnea
son los siguientes:
Lema. Sea T A
n
(R). Entonces
S(T) = f Mo(A
n
(R)) [ f(T) = T
es un grupo para la composici on de aplicaciones, denominado grupo de simetras de T.
131
A
n
(R) verica que existe g Mo(A
n
(R)) tal que g(T) = T
, entonces
h Mo(A
n
(R)) [ h(T) = T
= g f [ f S(T) = f g [ f S(T
).
Demostraci on. El hecho de que S(T) es un grupo es elemental, ya que la propiedad
asociativa se verica, por ser un subconjunto de Mo(A
n
(R)), Id S(T) obviamente
y, si f S(T), es elemental que f
1
tambi en. Por tanto, s olo hay que vericar que la
composici on de movimientos de S(T) est a en S(T), lo cual es tambi en claro.
La segunda armaci on es sencilla por doble inclusi on. Por ejemplo, si h(T) = T
,
entonces g
1
h(T) = T, luego existe f S(T) tal que g
1
h = f. Esto prueba que
h = g f, con f S(T). La otra inclusi on es a un m as simple.
6.7. Movimientos del plano.
Pasamos a estudiar ahora los movimientos del plano. Usaremos para ello tanto una car-
acterstica algebraica (los autovalores de
f y sus multiplicidades) como una geom etrica
(su variedad de puntos jos). Sea entonces f Mo(A
2
(R)).
De 4.9. sabemos que la matriz de
f , respecto de una cierta base ortonormal, es
diagonal por cajas, siendo las posibles cajas
(1), (1),
_
a b
b a
_
, con a
2
+ b
2
= 1, b ,= 0.
As pues, existe un sistema de referencia m etrico tal que la matriz de f es de una de
las siguientes formas:
_
_
_
1 0 0
1 0
0 1
_
_
_,
_
_
_
1 0 0
1 0
0 1
_
_
_,
_
_
_
1 0 0
1 0
0 1
_
_
_,
_
_
_
1 0 0
a b
b a
_
_
_,
que denotaremos respectivamente casos (a), (b), (c) y (d).
Caso (a) Separaremos el estudio dependiendo de la variedad de puntos jos de f,
que notaremos D
f
y que tiene por ecuaciones
+ x = x
+ y = y
_
(a.1) Si D
f
,= , las ecuaciones anteriores nos dicen que ha de ser = = 0 y, en
consecuencia f = Id.
(a.2) Si D
f
= , como ya hemos visto f =
(, )
.
Caso (b) Separaremos el estudio nuevamente. D
f
tiene ahora por ecuaciones
+ x = x
y = y
_
132
H
u
. Adem as se verica que u D(H). Este movimiento se denomina simetra con
deslizamiento, H se denomina el eje y u el deslizamieto o el vector.
N otese que H es jo para f (no de puntos jos) y es la unica en estas condiciones.
Para ver esto notemos que todas las direcciones son jas para
u
, y para
H
las unicas
direcciones jas son
(1, 0)) y
a 1 b
b a 1
= (a 1)
2
+ b
2
= 2a 2 ,= 0, ya que b ,= 0, a ,= 1.
De donde D
f
= P. Este tipo de movimientos se denomina un giro de centro P
y angulo . El problema de la determinaci on de angulos orientados es complejo en el
4
Si no se explica 6.5., entonces hay que realizar un peque no ejercicio y probar que s olo hay dos posibles
movimientos que posean una recta de puntos jos: la identidad y la simetra de eje la recta en cuesti on
(basta tomar un sistema de referencia m etrico con dos puntos en la recta y estudiar las posibles im agenes
del tercer punto).
133
PQ y
PQ
Pf(Q) =
PQ
f(P)f(Q)
= (a
1
a
2
)
__
a b
b a
__
a
1
a
2
__
= a
PQ
2
,
por lo que
cos() =
a
PQ
PQ
Pf(Q)
= a,
dado que d(P, Q) = d(P, f(Q)), al ser P jo. As hemos probado lo que busc abamos.
Resumimos entonces lo estudiado en esta lecci on en el siguiente cuadro. Usamos
la denominaci on cl asica elementos de un movimiento para designar aqu ellos objetos
geom etricos que lo caracterizan.
Tipo de Autovalores Puntos Elementos del
movimiento de
f jos movimiento
Identidad 1,1 A
2
(R)
Traslaci on 1,1 u =
Pf(P)
de vector u P A
2
(R)
Simetra 1,-1 H H = D
f
de eje H
Simetra con H es la unica
deslizamiento 1,-1 recta ja
(eje H, vector u) u =
Pf(P), P H
Simetra central -1,-1 P P = D
f
de centro P
Giro de centro P , C P Centro P
y angulo cos() = ()
134
_
+ x = x
+ y = y
+ z = z
por lo que D
f
,= si y s olo si = = = 0, esto es, si y s olo si f = Id. En otro caso,
f es la traslaci on de vector
(, , ).
Caso (b) Este caso tambi en es paralelo al del caso plano. Ahora
D
f
:
_
_
+ x = x
+ y = y
z = z
(b.1) Si D
f
,= , entonces = = 0 y D
f
: z = /2, por lo que f es la simetra
hiperplanar de eje D
f
.
(b.2) Si D
f
= , entonces, como en el caso plano
_
_
_
_
_
1 0 0 0
1 0 0
0 1 0
0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1 0 0
0 1 0
0 0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
1 0 0
0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 1
_
_
_
_
_
,
135
Pf(P) H.
Caso (d) Este caso, como en el plano, se denomina una simetra central de centro
P. El centro queda determinado por ser el unico punto jo de f:
D
f
:
_
_
x = x
y = y
z = z
= P =
_
2
,
2
,
2
_
.
Como en el caso plano, P es el punto medio de Q y f(Q), para cualquier Q A
3
(R)
y toda variedad pasando por P es jo, por ser f una homotecia.
136
(1, 0, 0)).
Por tanto, dado un punto P, f se comporta, en el plano P +D
f
como una simetra de
eje D
f
. Por tanto, f se denomina una simetra axial de eje D
f
.
(c.2) En este caso tenemos la descomposici on
_
_
_
_
_
1 0 0 0
1 0 0
0 1 0
0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
0 1 0 0
0 1 0
0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 1 0
0 0 1
_
_
_
_
_
,
por lo que f es composici on (conmutativa) de una simetra axial y una traslaci on de
vector paralelo al eje de simetra. Como cabe esperar, f se denomina simetra axial con
deslizamiento.
Como de costumbre, para hallar el eje podemos usar dos puntos cualesquiera y sus
im agenes; calculando los puntos medios. Una vez hecho esto, el vector de traslaci on es
: x = x
0
,
137
(0, 1, 0),
(0, 0, 1)
_
tenemos un sistema de referencia
m etrico en H que verica (ejercicio sencillo)
M
R
H
_
f
|H
_
=
_
_
_
1 0 0
0 a b
0 b a
_
_
_.
En consecuencia, restringido a H, f se comporta como un giro de centro H D
f
y
angulo tal que cos() = a. Por este motivo f se denomina precisamente un giro de eje
D
f
y angulo tal que cos() = a.
(e.2) En este caso podemos descomponer
_
_
_
_
_
1 0 0 0
1 0 0
0 a b
0 b a
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
0 1 0 0
0 a b
0 b a
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 a b
0 b a
_
_
_
_
_
,
por lo que f es composici on de un giro de eje L y una traslaci on de vector u, paralelo al
eje del giro, que adem as conmutan. f se denomina giro con deslizamiento o movimiento
helicoidal.
En esta ocasi on, para calcular el eje notemos que D(L) es el conjunto de autovec-
tores de
f asociados al autovalor 1. As pues, hallada D(L), tomamos P = (x, y, z)
e imponemos que
Pf(P) D(L). De esta condici on hallamos L. Posteriormente,
u =
Pf(P), para cualquier P L.
Caso (f) La variedad de puntos jos D
f
es en este caso la soluci on ( unica) del sistema
D
f
:
_
_
2x =
(a 1)y bz =
by + (a 1)z =
y f admite la siguiente descomposici on
_
_
_
_
_
1 0 0 0
1 0 0
0 a b
0 b a
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
0 1 0 0
0 a b
0 b a
_
_
_
_
_
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
=
_
_
_
_
_
1 0 0 0
1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 a b
0 b a
_
_
_
_
_
,
Por tanto f se descompone en una simetra de eje H y un giro de eje L que verican:
(a) H L.
138
f .
(2) El eje de giro L: pasa por D
f
y es perpendicular a H (equivalentemente su direcci on
est a asociada al autovalor 1).
(3) El angulo de giro : dado por cos() = a.
Resumimos como en 6.7. lo estudiado en esta lecci on y en la anterior en un cuadro.
No incluimos la descripci on de los elementos de cada movimiento, por estar ya incluida
en el desarrollo de las lecciones.
Tipo de Autovalores Puntos Elementos del
movimiento de
f jos movimiento
Identidad 1,1,1 A
2
(R)
Traslaci on 1,1,1 u, vector de traslaci on
Simetra 1,1,-1 H H, eje de simetra
hiperplanar
Simetra con 1,1,-1 H, eje de simetra
deslizamiento u, vector de traslaci on
Simetra central -1,-1,-1 P P, centro de simetra
Simetra axial 1,-1,-1 L L, eje de simetra
Simetra axial 1,-1,-1 L, eje de simetra
con deslizamiento u, vector de traslaci on
Giro 1; , C L L, eje de giro
, angulo de giro
Movimiento 1; , C L, ; eje y angulo de giro
helicoidal u, vector de traslaci on
Simetra -1; , C P L, ; eje y angulo de giro
rotacional H, eje de simetra
139