You are on page 1of 25

UNIVERSIDAD CARLOS III DE MADRID

Departamento de Economa
Curso 2006-2007
Tema 1: Espacios vectoriales y sistemas de ecuaciones
lineales.
Empezaremos por recordar conceptos ya conocidos de algebra lineal como las
matrices, determinantes el concepto de subespacio vectorial, bases, etc. Tambien
recordaremos el metodo de solucion de sistemas de ecuaciones lineales as como la
interpretaci on geometrica del conjunto de soluciones.
1. Matrices y determinantes. Rango de una matriz. Multiplicaci on y
matriz inversa
Una matriz de orden n m es un caja con n las y m columnas de n umeros
reales
A =

a
11
a
12
a
1m
a
21
a
22
a
2m
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nm

El elemento a
ij
es el que se encuentra en la la i y la columna j. Escribiremos
A M
nm
. A veces nos referimos a la matriz que tiene dentro los numeros a
ij
seg un el convenio anterior como A = (a
ij
)
i=1,...,n
j=1,...,m
.
Los elementos de la forma a
ii
se llaman la diagonal de A.
Cuando una matriz tiene n las y m columnas solemos decir que la matriz es de
tipo (o tama no) n m. En el caso de que el n umero de las y de columnas es el
mismo se dice que la matriz es cuadrada.
La matriz cuadrada

1 0 . . . 0
0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1

se llama matriz identidad de tama no n y se denota por I


n
.
Denicion 1. Dada una matriz
A =

a
11
a
12
a
1m
a
21
a
22
a
2m
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nm

M
nm
denimos la matriz transpuesta A
t
M
mn
( o A

) de A, como la matriz cuya


la i es igual a la columna i de A. Es decir,
A
t
= A

a
11
a
21
a
n1
a
12
a
22
a
n2
.
.
.
.
.
.
.
.
.
.
.
.
a
1m
a
2m
a
nm

M
mn
1
2
Denicion 2. Dada una matriz cuadrada,
A =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

M
nm
la traza de A es el n umero real
traza(A) = a
11
+a
22
+ +a
nn
1.1. Suma y producto por escalares. Las matrices del mismo tama no se pueden
sumar. La suma se hace sumando los elementos que se encuentran en la misma la
y columna en las dos matrices. As si A = (a
ij
)
i=1,...,n
j=1,...,m
y B = (b
ij
)
i=1,...,n
j=1,...,m
(como
veis las dos matrices tienen el mismo tama no) entonces
A+B = (a
ij
+b
ij
)
i=1,...,n
j=1,...,m
Ejemplo.
A =
_
2 1 3
9 6 5
_
B =
_
1 4 0
5 2 3
_
A+B =
_
2 + 1 1 + 4 3 + 0
9 + 5 6 + (2) 5 + (3)
_
=
_
3 5 3
14 4 2
_
De la misma manera se dene el producto por escalares (n umeros reales). Si
A = (a
ij
)
i=1,...,n
j=1,...,m
y R entonces
A = (a
ij
)
i=1,...,n
j=1,...,m
Ejemplo. Tomemos un numero cualquiera y la matriz
A =
_
2 1 3
9 6 5
_
entonces
A =
_
2 1 3
9 6 5
_
Si jamos = 7
7A =
_
7 2 7 1 7 3
7 9 7 6 7 5
_
=
_
14 7 21
63 42 35
_
La suma de matrices y el producto por escalares cumplen las siguientes propiedades
que se deducen de manera muy sencilla de las deniciones anteriores:
Propiedad 3. Sean A, B y C matrices del mismo tama no y y n umeros reales
cualesquiera:
(1) A +B = B + A (propiedad conmutativa).
(2) A + (B +C) = (A +B) +C (propiedad asociativa).
(3) (A +B) = A +B.
(4) ( + )A = A +A.
(5) (A) = ()A.
(6) (A +B)
t
= A
t
+B
t
.
3
1.2. Multiplicacion de matrices. Consideremos ahora A = (a
ij
)
i=1,...n
j=1,...,m
una
matriz n m y B = (b
ij
) del tipo m l, es decir, el n umero de las de la matriz
A es igual el n umero de columnas de B. Este es un requisito indispensable para
poder realizar el producto de las matrices A B.
Denition. La matriz producto C = AB es una matriz que tiene n las (el mismo
n umero que A) y l columnas (tantas c omo B) de manera que el elemento
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
im
b
mj
es decir, el elemento de la matriz producto que esta en posicion i, j es el resultado
de multiplicar la la i de A por la columna j de B.
Ejemplo. Consideremos las matrices
A =
_
2 1 5
3 0 2
_
B =

1 6
7 4
8 0

la matriz C = A B es una matriz 2 2


C =
_
49 2= 2 6 + 1 (4) + 5 0
13 18
_
Atencion. En general el producto de dos matrices no es conmutativo. De hecho
esto es algo mas fuerte, en muchos casos solo se puede hacer uno de los dos productos
y el otro no.
Por ejemplo si tomamos las matrices
A =
_
2 1
3 1
_
B =
_
1 2 5
1 4 4
_
podemos hacer A B pero en cambio B A no se puede puesto que el n umero de
columnas de B no coincide con el de las de A.
Si tomamos
A =
_
1 2
2 1
_
B =
_
3 1
2 1
_
Entonces
A B =
_
7 3
8 3
_
B A =
_
5 7
4 5
_
Propiedad 4. Si el producto AB existe, entonces tambien se pueden multiplicar
B
t
A
t
y se verica que
(AB)
t
= B
t
A
t
1.3. Matrices equivalentes. El metodo de Gauss. Dada una matriz Acualquiera
decimos que B es equivalente a A si podemos transformar A en B mediante una
combinaci on de las siguientes operaciones:
Multiplicar una la de A por un n umero real cualquiera diferente de cero.
Intercambiar dos las.
Sumar a una la de A cualquier otra la.
Estas tres operaciones se pueden describir mediante el producto de matrices.
Multiplicar la la i de una matriz n m de una por un n umero a es
equivalente a multiplicar a la izquierda por la matriz identidad aI
n
en la
que henos puesto en la posici on ii una a.
4
Por ejemplo si tomamos la matriz

2 4
3 6
7 9

y queremos multiplicar la la 2 por 5, tenemos que multiplicar esta matriz


por

1 0 0
0 5 0
0 0 1

Para intercambiar dos las, por ejemplo la i y la j lo unico que hay que
hacer es multiplicar por la matriz identidad a la que le hemos cambiado la
la i por la j.
Por ejemplo si en la matriz anterior:

2 4
3 6
7 9

queremos intercambiar la la 1 y la la 3 tenemos que hacer

0 0 1
0 1 0
1 0 0

2 4
3 6
7 9

Si queremos sumar a la la i un m ultiplo a de la la j tendremos que


multiplicar a la izquierda por la matriz identidad a la que le a nadimos en
la la i columna j una a
Si en la matriz

2 4
3 6
7 9

queremos sumarle a la la 2 siete veces la la 3 tenemos que hacer:

1 0 0
0 1 7
0 0 1

2 4
3 6
7 9

es decir hemos puesto un 7 en la posici on 23


Denicion 5. Diremos que una matriz A M
nm
es escalonada si se cumple lo
siguiente:
(1) Las las no nulas est an por encima de las las nulas.
(2) En cada la i = 1, . . . , m cualquiera, si el primer elemento no nulo es el
elemento a
ij
(es decir a
ij
= 0 y a
ik
= 0 para todo k < j), entonces a
i+1,l
= 0
para todo 1 l j.
En particular, si la matriz A esta en forma escalonada, entonces si en una la
cualquiera i, el primer elemento no nulo es a
ij
entonces a
kl
= 0 para todo par
k > i, l j.
5
Por ejemplo, las matrices,

5 3 0 4 1
0 1 6 2 0
0 0 1 3 0
0 0 0 0 1

2 0 0 1
0 1 2 3
0 0 0 5
0 0 0 0

son matrices escalonadas. Mientras que la matriz

2 0 0 1
0 1 2 3
0 0 0 0
0 0 0 1

no es escalonada.
El metodo de Gauss nos proporciona una manera sistematica de obtener me-
diante cambios elementales una matriz una matriz escalonada equivalente a matriz
cualquiera dada.
Funciona de la manera siguiente:

0 3 2 5 7
1 7 2 4 3
0 0 0 1 3
0 0 0 0 0
0 5 0 4 7

(1) Reordenamos las las de manera que todas las las de ceros, si las hay,
queden abajo del todo.

0 3 2 5 7
1 7 2 4 3
0 0 0 1 3
0 5 0 4 7
0 0 0 0 0

(2) Buscamos la primera columna que no tenga todo ceros.

0 3 2 5 7
1 7 2 4 3
0 0 0 1 3
0 5 0 4 7
0 0 0 0 0

(3) Reordenamos de nuevo las las de manera que los ceros de esta columna
queden abajo del todo.

1 7 2 4 3
0 3 2 5 7
0 0 0 1 3
0 5 0 4 7
0 0 0 0 0

(4) Si la matriz ya esta escalonada ya hemos acabado.


6
(5) Si no, buscamos el primer elemento donde no se cumple la condici on de
escalonamiento a este n umero le llamamos pivote y a partir de ahora nos
olvidamos de las las por encima de esta.

1 7 2 4 3
0 3 2 5 7
0 0 0 1 3
0 5 0 4 7
0 0 0 0 0

(6) Repetimos los pasos anteriores olvidandonos de las las ya escalonadas. Si


la matriz ya esta escalonada ya hemos acabado.

1 7 2 4 3
0 3 2 5 7
0 5 0 4 7
0 0 0 1 3
0 0 0 0 0

(7) Si no, eliminamos todos los n umeros que esten en la misma columna y por
debajo del pivote (supongamos que es a
ij
) que no sean cero haciendo las
operaciones a
ij
la
i+k
a
i+k,j
la
i
siempre y cuando a
i+k,j
= 0.
3la
3
5la
2

1 7 2 4 3
0 3 2 5 7
0 15 15 0 10 12 25 21 35
0 0 0 1 3
0 0 0 0 0

1 7 2 4 3
0 3 2 5 7
0 0 10 13 14
0 0 0 1 3
0 0 0 0 0

(8) Si la matriz ya est a escalonada, ya hemos acabado, en caso contrario repeti-


mos las operaciones anteriores s olo con las las donde la matriz no este
escalonada.
1.4. Determinantes. A toda matriz cuadrada se le puede asociar un n umero lla-
mado determinante de la matriz. Veremos mas adelante que es muy importante
y util. Vamos a denirlo de manera inductiva.
Si A es una matriz 1 1 es decir tiene una sola la y una sola columna entonces
de hecho A es un numero A = (a). El determinante es entonces a.
Si A es 2 2 entonces el determinante es:
det(a) =

a b
c d

= ad cb
En el caso de que A sea 3 3 tenemos dos maneras equivalentes de denir el
determinante:
7
(1) La regla de Sarrus:

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
31
a
22
a
13
a
32
a
23
a
11
a
33
a
21
a
12
(2) Desarrollando por una la o una columna:

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

a
22
a
23
a
32
a
33

a
21

a
12
a
13
a
32
a
33

+a
31

a
12
a
13
a
22
a
23

No es necesario utilizar la primera la o la primera columna. Se puede


utilizar cualquiera. Hay que tener cuidado con el signo, (1)
i+j
, que lleva
delante el elemento a
ij
.
Ejemplo. Si queremos calcular

1 2 1
4 3 5
3 1 3

= (1)
1+2
2

4 5
3 3

+ (1)
2+2
3

1 1
3 3

+ (1)
2+3
1

1 1
4 5

=
2 (3) + 3 (0) (1) 1 = 5
Para matrices de mayor tama no el sistema es el mismo que el de matrices 33. El
metodo consiste en desarrollar por las o columnas de manera que un determinante
4 4 equivale a calcular 4 determinantes 3 3.
En general, si A = (a
ij
) es una matriz cuadrada de orden n n, llamaremos
menor complementario del elemento a
ij
de la matriz A al determinante de la
submatriz de orden n 1 n 1 que se obtiene al eliminar la la i y la columna
j de la matriz A. El adjunto del elemento a
ij
de la matriz A es el menor comple-
mentario de a
ij
multiplicado por (1)
i+j
. Con esta notacion, podemos desarrollar
el determinante por la la i,
|A| = a
i1
A
i1
+a
i2
A
i2
+ +a
ij
A
ij
o por la columna j,
|A| = a
1j
A
1j
+a
2j
A
2j
+ +a
ij
A
ij
Veamos un ejemplo.
Ejemplo. Consideremos el determinante:

1 2 0 3
4 7 1 1
1 3 3 1
0 2 0 7

Lo mas interesante en este caso es desarrollar por la columna 3 o tambien por


la la 4. Esto es debido a que hay ceros y entonces tendremos que hacer menos
calculos. Desarrollemos por la columna 3.

1 2 0 3
4 7 2 1
1 3 3 1
0 2 0 7

= 0

4 7 1
1 3 1
0 2 7

+(1)
3+2
2

1 2 3
1 3 1
0 2 7

+(1)
3+3
3

1 2 3
4 7 1
0 2 7

+0

1 2 3
4 7 1
1 3 1

8
Como veis en este ejemplo cuantos mas ceros hay en una la o columna m as f acil
ser a hacer los calculos. Ahora explicaremos como se puede conseguir tener muchos
ceros. Con las propiedades de los determinantes.
Propiedad 6. (1) Si A y B son matrices cuadradas del mismo tama no en-
tonces
det(A B) = det(A) det(B)
(2) Si toda una la o toda una columna son ceros entonces el determinante es
cero.
Las propiedades que vienen a continuacion se deducen f acilmente de las anteriores
y son las que se pueden usar para conseguir ceros en un determinante
Propiedad 7. (1) Si multiplicamos toda una la o toda una columna por un
n umero diferente de cero entonces el determinante se multiplica por ese
n umero.
(2) Si intercambiamos dos las o dos columnas entonces el determinante cambia
de signo.
(3) Si a una la le sumamos un m ultiplo de otra la entonces el determinante
no cambia.
Utilizando estas tres propiedades el calculo de determinantes se simplica mucho
y el calculo de determinantes se puede simplicar utilizando el metodo que hemos
visto para escribir una matriz de forma escalonada.
Ejemplo. Consideremos el determinante:

1 2 3 4
2 3 5 1
3 1 4 2
2 5 5 1

1 2 3 4
0 1 1 7
0 5 5 10
0 1 1 7

=
=

1 1 7
5 5 10
1 1 7

1 1 7
5 5 10
1 1 7

1 1 7
0 0 25
0 2 14

=
=

1 1 7
0 2 14
0 0 25

= 50
1.5. Rango de una matriz.
Observaci on. La forma escalonada de una matriz no es unica. Es decir, al llevar
a cabo el metodo de Gauss descrito anteriormente, la matriz obtenida nalmente,
depende del orden en que se realizen las operaciones. Sin embargo, se puede probar
que, independientemente de los pasos realizados, el n umero de las distinto de cero
que se obtienen es siempre el mismo.
Denicion 8. Dada una matriz cualquiera A llamamos rango de A al n umero de
las diferentes de cero que tiene la matriz en cualquiera de sus formas escalonadas.
Ejemplo. Consideremos la matriz:
9
A =

0 3 2 5 7
1 7 2 4 3
0 0 0 1 3
0 0 0 0 0
0 5 0 4 7

esta es equivalente a:
=

1 7 2 4 3
0 3 2 5 7
0 0 10 13 14
0 0 0 1 3
0 0 0 0 0

que es una matriz escalonada, entonces el rango de A es cuatro.


Hay una denicion alternativa del rango de una matriz mediante determinantes.
Propiedad 9. Sea A una matriz cualquiera. El rango de A es el tama no del
mayor determinante diferente de cero que podemos construir dentro de la matriz
eliminando las y columnas.
Ejemplo. (1) Tomemos la matriz
_
1 2 5
2 4 9
_
El rango de esta matriz es como mucho 2 ya que no se puede construir
dentro un determinante 3 3. Miremos si podemos construir uno 2 2 que
no valga cero.

1 2
2 4

= 0
con este no funciona.

1 5
2 9

= 1 = 0
Como este determinante no vale cero entonces la matriz tiene rango 2.
(2) Si ahora tomamos
_
1 2 5
2 4 10
_
entonces como antes el rango puede ser como mucho 2. Como mnimo es 1
ya que para que sea 0 toda la matriz tendra que ser cero. Veamos si es 2:

1 2
2 4

= 0,

1 5
2 10

= 0,

2 5
4 10

= 0
Por lo tanto el rango es 1.
Atencion. El rango de dos matrices equivalentes es el mismo
10
1.6. Matriz Inversa. Dada una matriz cuadrada n n, A, decimos que tiene
inversa si existe una matriz nn que denotamos por A
1
tal que A
1
A = AA
1
=
I
n
donde I
n
es la matriz identidad de tama no n.
Observaci on. Es unica la matriz inversa? Es decir, puede ocurrir que haya dos
matrices distintas, digamos B y C tales que BA = AB = I
n
y ademas CA = AC =
I
n
? Veamos que, si estas ecuaciones se satisfacen, entonces debe ocurrir que B = C.
En efecto, como CA = I
n
, multiplicando por B por la derecha obtenemos
(CA)B = I
n
B = B
y como
(CA)B = C(AB) = CI
n
= C
tenemos que B = C.
Propiedad 10. Una matriz cuadrada A tiene inversa si, y s olo si, su determinante
es diferente de cero. Equivalentemente una matriz cuadrada n n tiene inversa si
y solo si su rango es n.
De hecho de la propiedad multiplicativa de los determinantes es facil deducir lo
siguiente:
Propiedad 11. Si A tiene inversa entonces det(A
1
) =
1
det(A)
.
Propiedad 12. Sean A y B matrices cuadradas de tama no n. A B y B A tienen
inversa si y solo si A y B tienen inversa. Adem as
(A B)
1
= B
1
A
1
(B A)
1
= A
1
B
1
Hay diversos metodos para calcular la matriz inversa pero sin duda el m as rapido
e inteligible es el metodo de Gauss que explicamos para escalonar matrices.
Si tenemos una matriz
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

Creamos la matriz

a
11
a
12
. . . a
1n
| 1 0 . . . 0
a
21
a
22
. . . a
2n
| 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
. |
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
| 0 0 . . . 1

A toda esta matriz le aplicamos cambios elementales hasta que conseguir (si es
que se puede lo cual es equivalente a que tenga rango maximo) que en la parte de
la izquierda nos quede la identidad. En caso que sea posible obtendremos

1 0 . . . 0 | b
11
b
12
. . . b
1n
0 1 . . . 0 | b
21
b
22
. . . b
2n
.
.
.
.
.
.
.
.
.
.
.
. |
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 | b
n1
b
n2
. . . b
nn

la matriz que tenemos ahora en la derecha es la inversa de A.


11
Este metodo funciona ya que de hecho la matriz que se obtiene en la derecha es
el producto de todas las matrices por las que hay que ir multiplicando la matriz
original para hacerle los cambios que nos llevan a la identidad.
Ejemplo. Consideremos la matriz

1 1 0
0 1 1
1 0 1

montamos la matriz grande:

1 1 0 | 1 0 0
0 1 1 | 0 1 0
1 0 1 | 0 0 1

Hacemos los cambios que toquen


(f
3
f
1
)

1 1 0 | 1 0 0
0 1 1 | 0 1 0
0 1 1 | 1 0 1

(f
3
+f
2
)

1 1 0 | 1 0 0
0 1 1 | 0 1 0
0 0 2 | 1 1 1

Aqu vemos que el rango de A es 3 por lo tanto se puede invertir.


(2f
2
f
3
)

1 1 0 | 1 0 0
0 2 0 | 1 1 1
0 0 2 | 1 1 1

(2f
1
f
2
)

2 0 0 | 1 1 1
0 2 0 | 1 1 1
0 0 2 | 1 1 1

Finalmente dividimos por 2

1 0 0 | 1/2 1/2 1/2


0 1 0 | 1/2 1/2 1/2
0 0 1 | 1/2 1/2 1/2

Por lo tanto la matriz inversa es


A
1
=

1/2 1/2 1/2


1/2 1/2 1/2
1/2 1/2 1/2

Para los fan aticos de las formulas, existe tambien una f ormula que proporciona
la inversa de una matriz. Llamamos matriz adjunta de A (Adj(A)) a la matriz
cuyos elementos son los adjuntos de A. Es decir, el elemento en la la i y columna
j de Adj(A), es A
ij
.
Proposici on. Si |A| = 0, entonces
A
1
=
1
|A|
(Adj(A))
t
2. Sistemas de ecuaciones lineales
Un sistema de ecuaciones lineales es sistema de ecuaciones de la forma

a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
donde a
ij
y b
k
son n umeros reales jos y x
1
, . . . , x
n
se llaman las inc ognitas (o
tambien variables) del sistema.
12
Un sistema de ecuaciones lineales se puede escribir de manera matricial:

a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn

x
1
.
.
.
x
n

b
1
.
.
.
b
m

Una soluci on del sistema anterior es un vector de R


n
que satisface la ecuacion
matricial. En otras palabras una soluci on es un vector de n umeros reales (x

1
, . . . x

n
)
que verican todas las ecuaciones del sistema.
Denicion 13. Un sistema de ecuaciones lineales es compatible si tiene solucion.
Diremos que es incompatible si no tiene soluci on.
Un sistema de ecuaciones lineales compatible se dice que es determinado si
tiene una unica soluci on. Diremos que es indeterminado si tiene m as de una (de
hecho innitas) soluciones.
Ejemplo. El sistema de ecuaciones lineales
_
2x +y = 5
4x + 2y = 7
no tiene solucion, es incompatible.
El sistema de ecuaciones
_
x +y = 5
4y = 8
tiene como unica soluci on el vector (3, 2). Es un sistema compatible determinado.
El sistema de ecuaciones
_
x +y = 4
2x + 2y = 8
tiene innitas soluciones. De hecho todos los vectores de la forma (x, 4 x) por lo
tanto es compatible indeterminado.
2.1. El Teorema de Rouche-Frobenius. El teorema de Rouche-Frobenius nos
proporciona un criterio para decidir cuando un sistema es compatible o incompatible
y en el caso de que sea compatible nos dice cuantas soluciones tiene.
Por ejemplo si consideramos el sistema de ecuaciones:
_
x +y = 2
2x + 2y = 4
vemos facilmente que la segunda ecuacion es dos veces la primera y por lo tanto es
redundante. As el conjunto de soluciones son los vectores (x, y) de R
2
que cumplen
la condicion y = 2 x. Si damos un valor a la variable x entonces obtenemos un
unico valor de la variable y de forma que estos valores son soluci on del sistema. En
particular, todas las soluciones del sistema son el conjunto {(x, 2x) : x R}. Este
conjunto se puede describir utilizando un par ametro. Decimos que hay 1 grado de
libertad.
El teorema de Rouche-Frobenius nos dice exactamente cuantos par ametros (gra-
dos de libertad) son necesarios para describir la solucion de un sistema compatible
indeterminado.
13
Dado un sistema de ecuaciones lineales:

a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
es un sistema con n inc ognitas y m ecuaciones. Llamamos matriz del sistema a
A =

a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn

Llamamos matriz ampliada del sistema a


(A|b) =

a
11
. . . a
1n
| b
1
.
.
. . . .
.
.
. |
.
.
.
a
m1
. . . a
mn
| b
m

Teorema 14 (Teorema de Rouche-Frobenius). Consideremos el sistema de ecua-


ciones

a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
.
.
.
a
m1
x
1
+ +a
mn
x
n
= b
m
(1) El sistema de ecuaciones es compatible si, y solo si rg A = rg(A|b) n.
(2) Supongamos que el sistema de ecuaciones es compatible (es decir, supon-
gamos que rg A = rg(A|b) n, por el apartado anterior). Entonces,
(a) El sistema es compatible determinado si y s olo si rg A = rg(A|b) = n.
(b) El sistema es compatible indeterminado si y s olo si rg A = rg(A|b) < n.
En este caso, el n umero de par ametros necesarios en la solucion del
sistema es n rg(A).
Ejemplo. Consideremos el sistema:

x +y + 2z = 1
2x +y + 3z = 2
3x + 2y + 5z = 3
La matriz del sistema y la matriz ampliada son:

1 1 2 | 1
2 1 3 | 2
3 2 5 | 3

Calculamos simultaneamente el rango de A y de (A|b):

1 1 2 | 1
2 1 3 | 2
3 2 5 | 3

1 1 2 | 1
0 1 1 | 0
0 1 1 | 0

1 1 2 | 1
0 1 1 | 0
0 0 0 | 0

Por lo tanto el rango de A y de (A|b) es 2. As pues el sistema es compatible


determinado. Adem as el n umero de par ametros es 3 rg A = 1. As que en el
conjunto de soluciones hay un par ametro.
14
Propiedad 15. Un sistema homogeneo (los terminos independientes valen todos
cero) siempre tiene como mnimo una soluci on.
2.2. El metodo de Gauss para solucionar sistemas de ecuaciones. El teo-
rema de Rouche-Frobenius nos permite decidir cuando un sistema de ecuaciones
lineales tiene o no solucion. Si combinamos este metodo con el de Gauss (Matrices
escalonadas) de matrices podremos obtener ademas las soluciones explcitamente.
La idea es que si tenemos dos sistemas de ecuaciones con matrices ampliadas equiv-
alentes entonces ambos sistemas tienen el mismo n umero de soluciones.
Por otro lado si la matriz asociada a un sistema ya es escalonada entonces es
muy f acil obtener las soluciones. Daremos unos cuantos ejemplos que sirven para
explicar el metodo. Consideremos el sistema de ecuaciones lineales que tiene como
matrices asociada y ampliada

1 3 5 | 1
0 1 4 | 2
0 0 2 | 4

El sistema asociado ser a compatible determinado. Para encontrar la soluci on solo


tenemos que recordar que cada columna se corresponde con una variable y que la
columna despues de la lnea corresponde a los terminos independientes. Para dar
la soluci on vamos encontrando los valores de cada variable de abajo a arriba.
La ultima la nos dice que 2z = 4, ahora substituimos z = 2 en la segunda
ecuacion y tenemos y + 8 = 2 por lo tanto y = 6. Finalmente con estos valores
substituimos en la primera ecuaci on y obtenemos que x 18 +10 = 1, es decir que
x = 9.
Si ahora consideramos el sistema que tiene por matrices asociadas:

1 3 5 | 1
0 1 4 | 2
0 0 0 | 0

Entonces tenemos un sistema compatible indeterminado, como el rango de A es 2


y el n umero de inc ognitas 3 entonces tenemos un grado de libertad o, lo que es lo
mismo, una variable libre. De la segunda ecuaci on se tiene que y + 4z = 2 o por lo
tanto que
y = 2 4z
Si ahora substituimos en la primera ecuaci on entonces se obtiene que x + 3(2
4z) + 5z = 1 es decir:
x = 5 + 7z
Por lo tanto el conjunto de todas las soluciones de nuestro sistema es
{(x, y, z) R
3
de la forma (7z 5, 2 4z, z)
A veces hay que tener cuidado con las variables que tomamos como libres. En
el caso anterior cualquiera de las variables nos hubiese servido. En el ejemplo que
sigue esto no es as:

1 4 1 | 1
0 1 0 | 1
0 0 0 | 0

15
Aqu la segunda ecuacion nos dice que y = 1 por lo tanto esta no puede ser una
variable libre. Sabiendo esto, substituimos ahora en la primera ecuaci on y obten-
emos x +4 z = 1, por lo tanto x = z 3. Aqu las variable que se pueden tomar
como libres son la x o la z. La soluci on general del sistema sera:
{(x, y, z) R
3
de la forma (z 3, 1, z)
o si preferimos dejar todo en funci on de la primera variable:
{(x, y, z) R
3
de la forma (x, 1, x + 3)
Como hemos dicho antes dos sistemas con matrices asociadas equivalentes por
las tienen exactamente las mismas soluciones esto es debido a que:
Si multiplicamos una ecuacion por un numero diferente de cero la ecuacion
no cambia.
Si reordenamos las ecuaciones el sistema no cambia.
Si a una ecuacion le sumamos (un m ultiplo de) otra ecuaci on el sistema no
cambia.
As pues, si dos sistemas tienen matrices equivalentes por las la soluci on no
cambia. El metodo de Gauss consiste entonces en transformar nuestro sistema en
uno cuya matriz (ampliada) asociada este escalonada. Las soluciones (si las tiene)
de este nuevo sistema que son faciles de encontrar ser an exactamente las soluciones
del sistema original.
2.3. El metodo de Cramer. Supongamos ahora que tenemos un sistema de n
ecuaciones y n inc ognitas. As pues la matriz del sistema es una matriz cuadrada.
El sistema ser a compatible determinado si, y s olo si, el rango de la matriz del
sistema es n o lo que es lo mismo si el determinante de la matriz del sistema es
diferente de cero. El metodo de Cramer nos proporciona un sistema de obtener las
soluciones de este tipo de sistemas mediante determinantes. Funciona as:
Consideremos un sistema compatible determinado:

a
11
x
1
+ +a
1n
x
n
= b
1
.
.
.
.
.
.
a
n1
x
1
+ +a
nn
x
n
= b
n
Ya sabemos que

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

= 0
Llamemos (x

1
, x

2
, . . . , x

n
) a la unica soluci on del sistema. Entonces:
x

1
=

b
1
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
b
n
a
n2
. . . a
nn

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

2
=

a
11
b
1
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
b
n
. . . a
nn

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

. . .
16
. . . x

n
=

a
11
a
12
. . . b
1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . b
n

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

Hacemos dos observaciones sobre este metodo.


Es tremendamente m as pesado que el metodo de Gauss.
Por otra parte, es f acil (aunque nosotros no lo haremos en este curso)
extender este metodo a sistemas compatibles indeterminados.
3. Espacios vectoriales y subespacios. Bases.
3.1. Denicion y Ejemplos. Trabajaremos siempre en R
n
para cualquier n 1.
Recordemos que
R
n
= R R
. .
n
= {(x
1
, . . . , x
n
) : x
1
, . . . , x
n
R}
esta formado por puntos (llamados nuplas) de la forma (x
1
, . . . , x
n
) donde x
1
, . . . , x
n
son n umeros reales. Los vectores de R
n
se pueden operar entre si (de manera pare-
cida a como se operan la matrices):
Suma de vectores: Si u = (u
1
, . . . , u
n
) y v = (v
1
, . . . , v
n
) entonces
u +v = (u
1
+v
1
, . . . , u
n
+v
n
)
Producto por escalares: Si u = (u
1
, . . . , u
n
) y es un n umero real
cualquiera entonces:
u = (u
1
, . . . , u
n
)
Producto escalar: Si u = (u
1
, . . . , u
n
) y v = (v
1
, . . . , v
n
) entonces
u v = u
1
v
1
+ +u
n
v
n
Denicion 16. Un subespacio vectorial E de R
n
es un subconjunto de puntos no
vaco de R
n
que cumplen la propiedad siguiente:
, R u, v E se tiene que cumplir que u +v E
u +v se llama una combinacion lineal de u y v.
Los elementos de un subespacio vectorial de R
n
se llaman indistintamente vec-
tores o puntos.
Observemos que cualquier subespacio vectorial de R
n
tiene que contener al vector
0 = (0, . . . , 0
. .
n
). Por otra parte el conjunto R
n
es un subespacio vectorial de s mismo.
Tambien el conjunto {(0, . . . , 0)}, cuyo unico elemento es el origen de coordenadas
es un subespacio vectorial de R
n
.
Por tanto, otra forma de caracterizar los subespacios vectoriales de R
n
es la
siguiente.
Proposici on. Un subconjunto E de R
n
subespacio vectorial si y solo si se verican
las tres propiedades siguientes
(1) 0 E.
17
(2) si u, v E, entonces u +v E.
(3) si u E y R, entonces u E.
Ejemplo. El siguiente subconjunto de vectores de R
2
E = {(x, y) : y = 2x}
es una recta que pasa por el origen en R
2
. Forma un subespacio vectorial de R
2
.
Efectivamente, sean u = (a, 2a) y v = (b, 2b) dos elementos de E cualesquiera.
Hacemos:
u +v = (a, 2a) +(b, 2b) = (a +b, 2a +2b) = (a +b, 2(a +b)) E
Ejemplo. Consideremos el subconjunto de R
3
E = {(x, y, z) tales que x +y +z = 0}
esto es un plano de R
3
que contiene el cero. Tambien es un subespacio vectorial
de R
3
. Si tomamos u = (x
1
, x
2
, x
3
) y v = (y
1
, y
2
, y
3
) dos vectores cualesquiera de
E tenemos que comprobar que para cualquier y n umeros reales u + v E.
Vamos a verlo:
u +v = (x
1
, x
2
, x
3
) +(y
1
, y
2
, y
3
) = (x
1
+y
1
, x
2
+y
2
, x
3
+y
3
)
Si sumamos las tres componentes tiene que dar cero:
x
1
+y
1
+ x
2
+y
2
+x
3
+y
3
= (x
1
+x
2
+x
3
) +(y
1
+y
2
+y
3
) = 0
Ejemplo. En cambio E = {(x, y, z) tales que x + y + z = 1} no es un subespacio
vectorial de R
3
ya que de hecho no contiene el 0 de R
3
porque 0 + 0 + 0 = 1. Por
tanto, no puede ser subespacio vectorial.
Ejemplo. Si consideramos el subconjunto E = {(x, y) tales que y = x
2
} de R
2
es
f acil ver que no es un subespacio vectorial. Antes que nada el vector (0, 0)
pertenece a E. Pero, si u = (a, a
2
), v = (b, b
2
) son dos vectores cualesquiera de E,
si hacemos u +v = (a +b, a
2
+b
2
) en general no es un vector de E, por lo tanto no
es un subespacio.
Intuitivamente, los subespacios vectoriales de R
2
son de alguno de los tipos
siguientes
{(0, 0)}.
Una recta que pasa por el punto (0, 0).
R
2
.
mientras que los subespacios vectoriales de R
3
son de alguno de los tipos siguientes
{(0, 0, 0)}.
Una recta que pasa por el punto (0, 0, 0).
Un plano que pasa por el punto (0, 0, 0).
R
3
.
Proposici on. Si S y T son dos subespacios vectoriales de R
n
, entonces el conjunto
S T tambien es un subespacio vectorial de R
n
.
Demostracion:
(1) Como 0 S y 0 T, entonces 0 S T.
(2) Si u, v S T, entonces u, v S y u, v T. Como estos conjuntos son
subespacios vectoriales de R
n
, se verica que u + v S y u + v T. Por
tanto, u +v S T.
18
(3) Sea u ST y sea R. Entonces, u S y u T. Y como estos conjuntos
son subespacios vectoriales de R
n
, se verica que u T y u T. Por lo
que u S T.
3.2. Sistemas de generadores e Independencia lineal. Sea E R
n
un sub-
espacio vectorial de R
n
. Fijamos un subconjunto {v
1
, . . . , v
m
} de vectores de E.
Denicion 17. Decimos que el vector v E es una combinacion lineal de
{v
1
, . . . , v
m
} si existen unos n umeros reales
1
, . . . ,
m
tales que
v =
1
v
1
+ +
m
v
m
Llamaremos < v
1
, . . . , v
m
> (la envoltura lineal de {v
1
, . . . , v
m
}) al conjunto
de vectores que son combinaciones lineales de {v
1
, . . . , v
m
}. Es decir,
< v
1
, . . . , v
m
>= {
1
v
1
+ +
m
v
m
:
1
, . . . ,
m
R}
Propiedad 18. El conjunto < v
1
, . . . , v
m
> tiene estructura de subespacio vecto-
rial de R
n
.
Al conjunto < v
1
, . . . , v
m
> se le llama el subespacio vectorial generado por
v
1
, . . . , v
m
.
Denicion 19. Decimos que {v
1
, . . . , v
m
} forman un sistema de generadores
de E si E =< v
1
, . . . , v
m
>.
Ejemplo. Consideramos E = {(x, y, z) R
3
: x + y + z = 0}. Los vectores
v
1
= (1, 0, 1) y v
2
= (0, 1, 1) forman un sistema de generadores de E. Por tanto
< (1, 0, 1), (0, 1, 1) >= {(x, y, z) R
3
: x +y +z = 0}
En el caso en que E = R
n
podemos caracterizar mediante matrices cuando un
conjunto de vectores forman un sistema de generadores.
Propiedad 20. Sean v
1
, . . . , v
m
un conjunto de vectores de R
n
, donde v
i
=
(v
1
i
, . . . , v
n
i
). Los vectores v
1
, . . . , v
m
forman un sistema de generadores de R
n
si
rg

v
1
1
. . . v
n
1
v
1
2
. . . v
n
2
.
.
. . . .
.
.
.
v
1
m
. . . v
n
m

= n
Ejemplo. Los vectores (1, 3, 0), (0, 2, 4), (1, 1, 5) y (0, 0, 3) forman un sistema de
generadores de R
3
. Efectivamente,
rg

1 3 0
0 2 4
1 1 5
0 0 3

= 3
por lo tanto son un sistema de generadores de R
3
.
Propiedad 21. Si un vector v es combinacion lineal de los vectores {v
1
, . . . , v
m
},
entonces
< v, v
1
, . . . , v
m
>=< v
1
, . . . , v
m
>
19
Denicion 22. Diremos que los vectores {v
1
, . . . , v
m
} de R
n
son linealmente
independientes si la unica soluci on de la ecuaci on

1
v
1
+ +
m
v
m
= 0
con
1
, . . . ,
m
R es
1
= =
m
= 0.
En caso contrario, es decir, si podemos encontrar
1
, . . . ,
m
R y no todos
nulos tales que

1
v
1
+ +
m
v
m
= 0
entonces decimos que los vectores {v
1
, . . . , v
m
} son linealmente dependientes.
Atencion. Un unico vector diferente de cero es linealmente independiente.
Ejemplo. Consideremos los vectores de R
3
v
1
= (0, 1, 1) y v
2
= (0, 0, 1). Vamos a
ver utilizando la denici on que son linealmente independientes. Supongamos que
0 =
1
v
1
+
2
v
2
(0, 0, 0) =
1
(0, 1, 1) +
2
(0, 0, 1)
Tenemos que ver que entonces
1
= 0 y
2
= 0. Igualando, componente a compo-
nente,

0 =
1
0 +
2
0
0 =
1
0 =
1
+
2
de donde se obtiene que
1
= 0 y
2
= 0 por lo tanto son linealmente independi-
entes.
Propiedad 23. Los vectores {v
1
, . . . , v
m
} son linealmente dependientes si y
solo si hay uno de ellos que es combinaci on lineal de los dem as. Es decir, son
linealmente dependientes si y s olo si hay alg un ndice i = 1, . . . , m tal que
v
i
< v
1
, , v
i1
, v
i+1
, . . . , v
m
>
Demostracion. Si los vectores {v
1
, . . . , v
m
} son linealmente dependientes en-
tonces existen
1
, . . . ,
m
R, no todos nulos tales que

1
v
1
+ +
m
v
m
= 0
Supongamos por ejemplo que
m
= 0 (si es necesario, podemos reordenar los vec-
tores {v
1
, . . . , v
m
}). En este caso podemos despejar v
m
de la ecuacion anterior,
v
m
=

1

m
v
1
+ +

m1

m
v
m1
por lo que v
m
es una combinacion lineal de {v
1
, . . . , v
m1
}.
Recprocamente, supongamos que uno de los vectores es combinacion lineal de
los demas. Reordenando, si fuera necesario, los vectores {v
1
, . . . , v
m
} podemos
suponer que v
m
es una combinacion lineal de {v
1
, . . . , v
m1
}. Es decir, existen

1
, . . . ,
m1
R tales que
v
m
=
1
v
1
+ +
m1
v
m1
pero entonces tenemos que

1
v
1
+ +
m1
v
m1
+ (1)v
m
= 0
y tomando

1
=
1
, . . . ,
m1
=
m1
,
m
= 1
20
vemos que los vectores {v
1
, . . . , v
m
} son linealmente dependientes.
Como consecuencia, tenemos la siguiente,
Proposici on. Los vectores v
1
, . . . , v
m
R
n
son linealmente independientes si y
solo si no hay ning un i = 1, . . . , m tal que
v
i
< v
1
, , v
i1
, v
i+1
, . . . , v
m
>
o, lo que es lo mismo que ning un v
i
es combinacion lineal de los restantes vectores.
Denicion 24. Dados los vectores {v
1
, . . . , v
m
} de R
n
, denimos su rango (y
escribiremos rg(v
1
, . . . , v
m
)) como el maximo n umero de vectores linealmente inde-
pendientes que hay en el conjunto {v
1
, . . . , v
m
}.
Es decir si rg(v
1
, . . . , v
m
) = p signica que p de los vectores {v
1
, . . . , v
m
} son
linealmente independientes y cualquier subconjunto de {v
1
, . . . , v
m
} con p + 1 (o
mas) vectores es linealmente dependiente. En particular, los vectores {v
1
, . . . , v
m
}
son linealmente independientes si, y s olo si rg(v
1
, . . . , v
m
) = m.
El rango de un conjunto de vectores se puede determinar calculando el rango de
una matriz.
Propiedad 25. Consideremos un conjunto {v
1
, . . . , v
m
} de vectores en R
n
. Cada
vector tiene n coordenadas. Supongamos que
v
i
= (v
1
i
, . . . , v
n
i
) i = 1, . . . , m
Formamos la matriz en la que la columna i esta formada por las coordenadas del
vector v
i
, es decir,
_
v
1
v
i
v
m
_
=

v
1
1
v
1
i
v
1
m
v
2
1
v
2
i
v
2
m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
v
n
1
v
n
i
v
n
m

Entonces,
rg(v
1
, . . . , v
m
) = rg

v
1
1
v
1
i
v
1
m
v
2
1
v
2
i
v
2
m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
v
n
1
v
n
i
v
n
m

En consecuencia, los vectores {v


1
, . . . , v
m
} son linealmente independientes si, y
solo si,
rg

v
1
1
v
1
i
v
1
m
v
2
1
v
2
i
v
2
m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
v
n
1
v
n
i
v
n
m

= m
Ejemplo. Los vectores (1, 0, 2, 4) (0, 0, 3, 4) y (0, 3, 7, 5) son linealmente indepen-
dientes.
rg

1 0 0
0 0 3
2 3 7
4 4 5

= 3
21
En cambio los vectores (1, 1, 1), (2, 4, 6) y (4, 6, 8) no son linealmente independientes:

1 1 1
2 4 6
4 6 8

= 0
por lo tanto el rango de la matriz no es 3.
Atencion. De la propiedad anterior se deduce que en R
n
no podremos encontrar
mas de n vectores que sean linealmente independientes entre ellos.
3.3. Bases.
Denicion 26. Sea E R
n
un subespacio vectorial de R
n
. Decimos que los
vectores {v
1
, . . . , v
m
} forman una base de E si se verica que:
(1) E =< v
1
, . . . , v
m
>.
(2) Los vectores {v
1
, . . . , v
m
} son linealmente independientes.
Ejemplo. Consideremos E = {(x, y, z) R
3
tales que x + y + z = 0}. Recordad
que ya vimos que {(1, 0, 1), (0, 1, 1)} formaban un sistema de generadores de E.
Ademas,
rg
_
1 0 1
0 1 1
_
= 2
por lo cual son linealmente independientes. As pues forman una base de E.
Propiedad 27. Los vectores v
1
, . . . , v
n
(con v
i
= (v
1
i
, . . . , v
n
i
)) son una base de R
n
si y solo si,
rg

v
1
1
. . . v
n
1
v
1
2
. . . v
n
2
.
.
. . . .
.
.
.
v
1
n
. . . v
n
n

= n
En particular una base de R
n
tiene exactamente n vectores.
Ejemplo. Tomemos los vectores de R
3
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Forman una
base de R
3
. Efectivamente,
rg

1 0 0
0 1 0
0 0 1

= 3
De hecho esta base se llama la base can onica de R
3
. No es la unica base que
tiene R
3
, hay muchsimas tantas como matrices 3 3 con determinante diferente
de cero! Por ejemplo, los vectores {(1, 1, 0), (1, 0, 1), (0, 1, 1)} tambien forman una
base de R
3
.
En general cuando estamos en R
n
a la base formada por los vectores: e
1
=
(1, 0, . . . , 0), e
2
= (0, 1, 0, . . . , 0), e
n
= (0, 0, . . . , 0, 1) se le llama la base can onica
de R
n
.
Propiedad 28. Todas las bases de un subespacio vectorial dado E tienen el mismo
n umero de vectores.
Denicion 29. Si E R
n
es un subespacio vectorial llamamos dimension de E al
numero de vectores que contiene una base (cualquiera) de E.
Ejemplo.
22
El espacio vectorial R
n
tiene dimensi on n.
E = {(x, y, z) R
3
tales que x +y +z = 0} tiene dimensi on 2.
E = {(x, y) R
2
tales que y = 2x} tiene dimensi on 1. Una base sera
{(1, 2)}.
Observaci on. Si E =< v
1
, . . . , v
m
>, entonces dimE = rg(v
1
, . . . , v
m
).
Algunas propiedades relativas a los sistemas generadores, independen-
cia lineal y bases.
Sea E R
n
un subespacio vectorial y supongamos que dimE = p. Sea
{v
1
, . . . , v
m
} un conjunto de vectores en E.
(1) Si los vectores {v
1
, . . . , v
m
} son linealmente independientes, entonces m
p. Si adem as m < p, entonces podemos encontrar un vector v
m+1
E de
forma que los vectores {v
1
, . . . , v
m
, v
m+1
} son linealmente independientes.
(2) Si E =< v
1
, . . . , v
m
>, entonces m p. Si adem as m > p, entonces los
vectores {v
1
, . . . , v
m
} son linealmente dependientes y el espacio vectorial E
esta generado por m1 de los vectores {v
1
, . . . , v
m
}.
Dado un subespacio vectorial de R
n
, E todo vector de E se expresa de ma-
nera unica c omo combinacion lineal de los elementos de una base. Es decir, si
{v
1
, . . . , v
m
} son una base de E entonces un vector v E cualquiera se puede
escribir de una unica manera c omo
v =
1
v
1
+ +
m
v
m
A los n umeros
1
, . . . ,
m
se les llama las componentes del vector v en la base
{v
1
, . . . , v
m
}.
3.4. Representacion de un subespacio vectorial. Un subespacio vectorial de
R
n
esta determinado por una base. Como ya hemos dicho antes la dimensi on (el
n umero de vectores de una base cualquiera) de un subespacio vectorial de R
n
es
siempre menor o igual que n. Vamos a ver que es lo que pueden ser estos subespacios
vectoriales de R
n
para diferentes valores de n, la dimensi on del espacio ambiente
donde nos encontramos.
Si n = 1, es decir estamos en R solamente tenemos dos subespacios vectoriales.
El de dimension 0, es decir el vector 0 y el de dimensi on 1 que es todo R. Este caso
no tiene mucha gracia.
Si n = 2 ya tenemos muchas mas posibilidades. Por supuesto tendremos el
subespacio de dimension 0 (el vector 0). Un subespacio de dimensi on 1 ser a el
conjunto de vectores de R
2
generado por un vector cualquiera diferente de 0. Es
decir, si v = (v
1
, v
2
) es el vector base entonces:
E = {(v
1
, v
2
) : R}
como todos sabeis esto se corresponde con una recta de R
2
que pasa por el origen.
Por tanto podremos encontrar dos n umeros reales a, b tales
E = {(x, y) R
2
: ax +by = 0}
Finalmente tenemos R
2
que es el unico subespacio vectorial de dimensi on 2 de R
2
.
Si n = 3 tenemos que {0} es el unico subespacio vectorial de dimensi on 0. Luego
tendremos los subespacios de dimension 1 de R
3
que son de la forma
E = {(v
1
, v
2
, v
3
) : R}
23
para un cierto v = (v
1
, v
2
, v
3
) jo. Como todos sabeis esto es la ecuacion vectorial de
una recta de R
3
que pasa por el punto (0, 0, 0). Tambien podemos escribir esta recta
como el conjunto de soluciones de un sistema de ecuaciones lineales homogeneo:
_
a
11
x +a
12
y +a
13
z = 0
a
21
x +a
22
y +a
23
z = 0
Los subespacios de dimension 2 de R
3
son espacios generados por dos vectores:
E = {u +v : , R}
y obtenemos la ecuaci on vectorial de un plano en R
3
que pasa por el origen de
coordenadas. As pues todo subespacio vectorial de dimension 2 dentro de R
3
se
puede escribir como solucion de la ecuaci on
ax +by +cz = 0
para ciertos valores de a, b y c.
En general si estamos en R
n
un subespacio vectorial de dimension n m se cor-
responde al conjunto de soluciones de un sistema de ecuaciones lineales homogeneo
con m ecuaciones y n inc ognitas.

a
11
x
1
+ +a
1n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+ +a
mn
x
n
= 0
3.5. Cambio de base en espacios vectoriales. Sean B = {v
1
, . . . , v
n
} y B

=
{v

1
, . . . , v

n
} dos bases de R
n
. Un vector v se expresa de forma unica en cada una
de las bases B y B

. Introducimos la notacion v
B
= (x
1
, . . . , x
n
) para indicar
v = x
1
v
1
+ +x
n
v
n
; de manera an aloga, v
B
= (x

1
, . . . , x

n
) signica v = x

1
v

1
+
+x

n
v

n
.
Nuestro objetivo es relacionar las coordenadas de v en la base B, (x
1
, . . . , x
n
),
con las coordenadas en la base B

, (x

1
, . . . , x

n
).
Comenzamos por expresar cada uno de los vectores de la base original en la
nueva base: existen escalares unicos p
1i
, . . . , p
ni
tales que v
i
=

n
j=1
p
ji
v

j
, para
i = 1, . . . , n. Por tanto,
v = x
1
v
1
+ +x
n
v
n
= x
1

j=1
p
j1
v

+ +x
n

j=1
p
jn
v

y reordenando las sumas anteriores obtenemos


v =
_
n

i=1
p
1i
x
i
_
v

1
+ +
_
n

i=1
p
ni
x
i
_
v

n
.
24
Dada que las coordenadas son unicas, debe ocurrir necesariamente
x

1
=
n

i=1
p
1i
x
i
= p
11
x
1
+ +p
1n
x
n
= (p
11
, . . . , p
1n
) (x
1
, . . . , x
n
)
.
.
.
x

n
=
n

i=1
p
ni
x
i
= p
n1
x
1
+ +p
nn
x
n
= (p
n1
, . . . , p
nn
) (x
1
, . . . , x
n
).
Esta es la relacion entre las coordenadas del vector en las base B y B

. La parte
mas a la derecha sugiere un producto matricial. De hecho, si denimos la matriz
P de cambio de base de B a B

como
P =

p
11
. . . p
1n
.
.
.
.
.
.
.
.
.
p
n1
. . . p
nn

,
entonces tenemos v
t
B
= Pv
t
B
, donde
t
es el smbolo de transposici on, o en forma
mas detallada

1
.
.
.
x

p
11
. . . p
1n
.
.
.
.
.
.
.
.
.
p
n1
. . . p
nn

x
1
.
.
.
x
n

Notamos que las columnas de P son las coordenadas de los vectores v


i
de la base
B en la base B

.
Ejemplo. Hallar la matriz P de cambio de base si B = C
R
3 es la base canonica de
R
3
y B

= {v
1
, v
2
, v
3
} = {(1, 0, 1), (1, 0, 0), (2, 1, 1)}. Hallar las coordenadas de
(1, 2, 3) en la nueva base.
Solucion: Para calcular P debemos expresar los vectores de la base canonica en
la nueva base, es decir:
P =

1
0
0

0
1
0

0
0
1

.
Por tanto, deben resolverse (de forma separada) los tres siguientes sistemas de
ecuaciones lineales:
(1, 0, 0) =
1
(1, 0, 1) +
2
(1, 0, 0) +
3
(2, 1, 1)
(0, 1, 0) =

1
(1, 0, 1) +

2
(1, 0, 0) +

3
(2, 1, 1)
(0, 0, 1) =

1
(1, 0, 1) +

2
(1, 0, 0) +

3
(2, 1, 1),
encontrando que (1, 0, 0)
B
= (0, 1, 0), (0, 1, 0)
B
= (1, 3, 1) y (0, 0, 1)
B
= (1, 1, 0),
por lo que
P =

0 1 1
1 3 1
0 1 0

.
De esta forma

1
2
3

0 1 1
1 3 1
0 1 0

1
2
3

5
8
2

25
Ejemplo. En el ejemplo anterior, hallar la matriz Q de cambio de base de B

a C
R
3 .
Que relacion liga a las dos matrices de cambio de base?
Solucion: Es inmediato obtener Q, puesto que
Q =

1
0
1

C
R
3

1
0
0

C
R
3

2
1
1

C
R
3

1 1 2
0 0 1
1 0 1

.
Las matrices P y Q son inversas la una de la otra, es decir, Q = P
1
.
Esto es una propiedad general que enunciamos a continuaci on.
Propiedad 30. Toda matriz de cambio de base es inversible. Ademas, si P es la
matriz de cambio de base de B a B

, entonces P
1
es la matriz cambio de base de
B

a B.

You might also like