Professional Documents
Culture Documents
FDRALE DE LAUSANNE
Algbre Linaire
Bachelor 1re anne
2009 - 2010
Gnie Civil
&
Sciences et Ingnierie de lEnvironnement
Septembre 2009
2
Table des matires
3 Le dterminant 33
3.1 Permutations et dterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2 et 3 3 . 36
3.2 Dterminants et oprations lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3 Les cofacteurs et la rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Calcul du dterminant par la mthode des cofacteurs . . . . . . . . . . . . . . 43
3.3.2 Calcul de linverse par la mthode des cofacteurs . . . . . . . . . . . . . . . . 45
3.3.3 Systmes linaires : rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . 47
3
4 TABLE DES MATIRES
6 Espaces vectoriels 81
6.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2.1 Espace des solutions dun systme dquations linaires homognes . . . . . . 84
6.3 Combinaison linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.4 Indpendance linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4.1 Interprtation gomtrique de la dpendance linaire . . . . . . . . . . . . . . 88
6.5 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.6 Espace des lignes et colonnes dune matrice . . . . . . . . . . . . . . . . . . . . . . . 94
6.7 Changements de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.7.1 Changement de bases en 2 dimensions . . . . . . . . . . . . . . . . . . . . . . 99
6.7.2 Dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Lalgbre linaire est un outil essentiel pour toutes les branches des mathmatiques appliques,
en particulier lorsquil sagit de modliser puis rsoudre numriquement des problmes issus de divers
domaines : des sciences physiques ou mcaniques, des sciences du vivant, de la chimie, de lconomie,
des sciences de lingnieur,...
Par exemple, la physique abonde de relations linaires : les lois fondamentales du mouvement
sont presque toutes linaires, ou se dduisent de lois linaires. Les systmes lectriques sont fonda-
mentalement dcrits par des lois linaires (V = RI, etc.) Cest pourquoi, le prsent cours commence
avec une tude des quations linaires et de leur rsolution.
Exemple 1.1.
2x + 3y = 6
y
Q
Q
Q
Q
Q
Q
Q
Q
1 Q
Q
Q
Q
Q
Q
Q
1 2 QQ x
Exemple 1.2. Les quations suivantes ne sont pas des quations linaires :
2x + y 2 = 1
y = sin(x)
x= y
7
8 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
Dfinition 1.3. De manire gnrale, on appelle quation linaire dans les variables x1 , ...., xn toute
relation de la forme
a1 x1 + + an xn = b (1.1)
o a1 , . . . , an et b sont des nombres rels.
Il importe dinsister ici que ces quations linaires sont implicites, cest--dire quelles dcrivent
des relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre
les variables.
Rsoudre une quation signifie donc la rendre explicite, cest--dire rendre plus apparentes les
valeurs que les variables peuvent prendre.
Une solution de lquation linaire (1.1) est un n-uple s1 , . . . , sn de valeurs des variables x1 , . . . , xn
qui satisfont lquation (1.1). Autrement dit
a1 s1 + + an sn = b.
Par la suite, nous tudierons lensemble des solutions dune quation linaire.
x1 4x2 + 13x3 = 5.
x1 = 4s 13t + 5, x2 = s, x3 = t
Dfinition 1.5. Un ensemble fini dquations linaires dans les variables x1 , . . . , xn sappelle un
systme dquations linaires. Tout nuplet de nombres s1 , . . . , sn satisfaisant chacune des quations
sappelle solution du systme dquations linaires.
x1 = 18 , x2 = 6 , x3 = 1 .
Par contre
x1 = 7 x2 = 2 x3 = 0
ne satisfait que la premire quation. Ce nest donc pas une solution du systme.
Dfinition 1.7. Un systme dquations est dit incompatible ou inconsistant sil nadmet pas de
solutions.
Considrons le systme
a11 x1 + a12 x2 = b1
(1.2)
a21 x1 + a22 x2 = b2
avec a11 a12 6= 0 et a21 a22 6= 0.
Ces deux quations reprsentent deux droites d1 et d2 dans le plan x1 x2 et une solution du
systme est un point (s1 , s2 ) qui est sur les deux droites. Trois cas se prsentent alors :
(1) Les droites d1 et d2 se coupent en un seul point. Dans ce cas, illustr par la figure 1.1, le systme
(1.2) a une seule solution.
(2) Les droites d1 et d2 sont parallles. Alors le systme est incompatible et na pas de solution. La
figure 1.2 illustre cette situation.
(3) Les droites d1 et d2 sont confondues et, dans ce cas, le systme a une infinit de solutions.
Nous verrons plus loin que ces trois cas de figures (aucune solution, une seule solution, une infinit
de solutions) sont les seuls cas qui peuvent se prsenter pour nimporte quel systme dquations
linaires.
x2
l
d2
l
l
l
l
l
l
l
l d
l 1
l
l x1
l
l
l
x2
l
l
l
l l
l l
l d2
l l
l l
d1ll l
l l
l l
l l x1
l l
l l
l l
x2
l
l
l
l
l
l
l d1 = d2
l
l
l
l
l x1
l
l
l
o le nombre rel aij est le coefficient de la j-me inconnue dans la i-me quation.
Dfinition 1.9 (Matrice augmente). Nous obtenons la matrice augmente associe au systme en
oubliant les variables xi et les signes + et =. La matrice augmente aasocie au systme (1.3)
est alors
a11 a12 a1n b1
a21 a22 a2n b2
.. .. .. .. ..
. . . . .
am1 am2 amn bm
Exemple 1.10. Considrons le systme linaire
x1 + x2 + 7x3 = 1
2x1 x2 + 5x3 = 5
x1 3x2 9x3 = 5.
Exemple 1.11. Utilisons ces oprations lmentaires pour rsoudre le systme suivant.
x + y + 7z = 1
2x y + 5z = 5
x 3y 9z = 5
(3) `2 `2 2`1
1 1 7 1
0 3 9 3
1 3 9 5
Nous remarquons que les oprations lmentaires peuvent tre faites uniquement sur la matrice
augmente pour revenir la fin au systme dquations. Cest ce que nous faisons dans la suite.
(3) `3 `3 + `1
1 1 7 1
0 3 9 3
0 2 2 6
(1) `2 31 `2
1 1 7 1
0 1 3 1
0 2 2 6
(3) `3 `3 + 2`2
1 1 7 1
0 1 3 1
0 0 4 4
(1) `3 41 `3
1 1 7 1
0 1 3 1
0 0 1 1
(3) `1 `1 7`3
12 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
1 1 0 6
0 1 3 1
0 0 1 1
(3) `2 `2 3`3
1 1 0 6
0 1 0 4
0 0 1 1
(3) `1 `1 `2
1 0 0 2
0 1 0 4
0 0 1 1
Cette matrice augmente correspond au systme
x = 2
y = 4
z = 1.
Dfinition 1.12 (matrice chelonne). Une matrice est appele matrice chelonne si elle a les
proprits suivantes :
(i) Dans toute ligne non nulle, le premier lment non nul vaut 1. Il est appel le 1 directeur.
(ii) Les lignes dont tous les lments sont nuls sont regroupes en bas de la matrice.
(iii) Dans deux lignes successives (contigus) ayant des lments non nuls, le 1 directeur de la ligne
infrieure se trouve droite du 1 directeur de la ligne suprieure.
satisfait (i), (ii) et (iii) : elle est donc sous forme chelonne. Finalement, la matrice
0 0 1 1 1
0 1 0 0 3
0 0 0 0 0
`1 13 `1
1
0 1 0 3
0 0 1 3
0 3 1 2
(4) Ajouter des multiples adquats de la premire ligne aux lignes en-dessous pour annuler les
lments en dessous du 1 directeur.
Exemple (suite) :
0 1 0 13
0 0 1 3
0 3 1 2
`3 `3 3`1
0 1 0 13
0 0 1 3
0 0 1 1
(5) Couvrir la premire ligne de la matrice, et aller (1)
Exemple (suite) :
0 0 1 3
0 0 1 1
(4) `2 `2 `1
0 0 1 3
0 0 0 2
(3) `2 21 `2
0 0 1 3
0 0 0 1
(6) La matrice entire est chelonne.
Exemple (suite) : On remet la premire ligne en place
1 0 31
0
0 0 1 3
0 0 0 1
(7) Pour la mettre sous la forme chelonne rduite, il faut ajouter une ligne des multiples
adquats des lignes situes au-dessous delle en allant du bas vers le haut.
Exemple (suite) :
0 1 0 13
0 0 1 3
0 0 0 1
`2 `2 3`3
1
0 1 0 3
0 0 1 0
0 0 0 1
`1 `1 13 `3
0 1 0 0
0 0 1 0
0 0 0 1
1.3. ELIMINATION GAUSSIENNE 15
Les deux exemples ci-dessous illustrent encore lalgorithme. Lexemple 1.16 illustre le point (7)
partir dune matrice qui est dj sous forme chelonne mais pas rduite. Dans lexemple 1.17, on
effectue lalgorithme dans son entier.
Exemple 1.16.
1 4
0 1
0
1 2 1
0 0
1 3
`2 `2 2`3
1 4
0 1
0 1 0 7
0 0
1 3
1 4 0 1
0 1 0 7
0 0 1 3
`1 `1 4`2
1 0 0 29
0
1 0 7
0 0 1 3
Exemple 1.17.
0 1 1 5 1
0 1 2 0 3
1 3 2 0 1
1 3 0 10 7
0 1 0 10 5
0 0 1 5 4
(7) `1 `1 + 3`2
1 0 0 20 8
0 1 0 10 5
0 0 1 5 4
La matrice est sous forme chelonne rduite. Un systme dont la matrice augmente est sous
forme chelonne rduite est trs simple rsoudre comme nous allons le voir ci-aprs.
x = 2, y = 4, z = 1.
Exemple 1.19. La matrice
0 1 3 0 1
0 0 0 1 5
0 0 0 0 0
est chelonne rduite. Elle correspond au systme
(
0x1 + x2 + 3x3 + 0x4 = 1
x4 = 5.
Les variables directrices sont x2 et x4 car les colonnes 2 et 4 de la matrice contiennent un 1
directeur, alors que x1 et x3 sont les variables libres.
Posons
x1 = s, x3 = t.
On obtient
x2 = 1 3t, x4 = 5
et lensemble des solutions du systme est :
Tout systme homogne dquations linaires est consistant, car il a au moins la solution dite
triviale x1 = x2 = = xn = 0. Un systme homogne dquations linaires a ou bien une seule
solution (la solution triviale), ou bien une infinit de solutions. En effet, supposons que le systme
admette la solution
x1 = t1 , . . . , xn = tn
avec au moins lun des ti 6= 0. Alors, pour un nombre rel k quelconque,
x1 = kt1 , . . . , xn = ktn
Thorme 1.20. Tout systme homogne dquations linaires dont le nombre dinconnues est plus
grand que le nombre dquations a une infinit de solutions.
Les variables directrices sont x1 , x3 et x4 alors que les variables libres sont x2 et x5 . Posons alors
x2 = s
x5 = t.
18 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES
On obtient
x1 = s 13t
x3 = 20t
x4 = 2t .
x1 = s 13t, x2 = s, x3 = 20t, x4 = 2t , x5 = t,
ou plus simplement
A = (aij )ij
si le nombre de lignes et de colonnes est connu par ailleurs.
Exemple 2.2.
1 2 5
A=
0 3 7
est une matrice 2 3 avec, par exemple, a11 = 1 et a23 = 7.
matrice carre n n
Dans le cas dune matrice carre, les lments a11 , a22 , . . . ann sont appels les lments diagonaux.
a11
a21 . . . a1n
a22 . . . a2n
a21
.. .. .. ..
. . . .
an1 an2 . . . a nn
Deux matrices sont gales lorsquelles ont la mme taille et que les lments correspondants sont
gaux.
Dfinition 2.3 (Somme de deux matrices). On peut dfinir la somme de deux matrices si elles sont
de mme taille. Soient A etB deux matrices de taille m n. On dfinit leur somme C = A + B, de
taille m n, par
cij = aij + bij .
En dautres termes, on somme composante par composante.
19
20 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
Exemple 2.4.
3 2 0 5 3 3
A= , B= , A+B =
1 7 2 1 3 6
4 1 2
A= , B= , A + B nest pas dfinie.
3 2 8
La matrice (de taille m n) dont tous les lments sont des zros est appele la matrice nulle et
note 0nm ou plus simplement 0. Cest llment neutre pour laddition, cest--dire que A + 0 = A.
Dfinition 2.5 (Produit dune matrice par un scalaire). Le produit dune matrice A par un scalaire
k est form en multipliant chaque lment de A par k. Il est not kA.
Exemple 2.7.
2 1 0
A=
4 5 2
1 4 2
B=
7 5 3
3 5 2
AB =
3 0 1
Dfinition 2.8 (Produit de deux matrices). Soit A = (aij ) une matrice m n et B = (bij ) une
matrice n p. Alors le produit C = AB est une matrice m p dont les lments cij sont dfinis par
n
X
cij = ai1 b1j + ai2 b2j + + aim bmj = aik bkj.
k=1
b11 . . . b1r
b ..
21 .
AB = C :
. ..
..
.
bm1 . . . bmr
c11
... c1r
a11 ... ... a1m
a21 a22 ... a2m ..
c21 .
.. ..
. . ..
..
. .
an1 ... ... anm cn1 . . . cnr
Exemple 2.9.
4
(2 3 1) 2 = (8 6 3) = (1)
3
13 31 11
Exemple 2.10.
3 3 6 9 0
2 1 2 3 0 = 2 4 6 0
1 1 2 3 0
31 14 34
Im A = A et AIn = A.
ATTENTION !
Le produit des matrices nest pas ncessairement commutatif. On peut avoir
AB 6= BA.
Exemple 2.12.
1 0 2 1
A = B =
2 5 3 0
2 1 4 5
AB = BA = .
11 2 3 0
22 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL
ATTENTION ! Il peut arriver que le produit de deux matrices non nulles soit nul. En dautres
termes, on peut avoir A, B 6= 0 et AB = 0.
Exemple 2.13.
0 1 2 3 0 0
A= , B= et AB = .
0 5 0 0 0 0
Exemple 2.14.
0 1 4 1 2 5
A= , B= , C=
0 3 5 4 5 4
5 4
AB = AC = .
15 12
On appelle A la matrice des coefficients du systme. Le vecteur x est une solution du systme si
et seulement si
Ax = B.
Thorme 2.15. Un systme dquations linaires na soit aucune solution, soit une seule solution,
soit une infinit de solutions.
Ay = c, Bx = y.
AB = I et BA = I,
En effet, on a
2 1 3 1 1 0 3 1 2 1 1 0
= et = .
5 3 5 2 0 1 5 2 5 3 0 1
B = C.
B = BI = B(AC) = (BA)C = IC = C.
AA1 = I et A1 A = I.
2.5.1 Matrices 2 2
Considrons les matrices 2 2
a b d b
A= et B= .
c d c a
On vrifie que
1 0
AB = BA = (ad bc) .
0 1
Donc A est inversible si ad bc 6= 0, et on a alors
1 d b
A1 = .
ad bc c a
Am = AA A}
| {z
m facteurs
Si A est inversible, on dfinit
m
Am = A1 = |A1 A1 1
{z A }
m facteurs
(Am )1 = |A1 A1 1
{z A }
m facteurs
= (A1 )m = Am ;
(B 1 A1 )(AB) = (AB)(B 1 A1 ) = I.
Cela suit de
(B 1 A1 )(AB) = B 1 (AA1 )B = B 1 IB = B 1 B = I,
et (AB)(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I.
Exemple 2.23.
2 1 1 3 1
A = A =
5 3 5 2
9 4 1 1 4
B = B =
2 1 2 9
2 1 9 4 16 7
AB = =
5 3 2 1 39 17
1 1 1 4 3 1 17 7
B A = =
2 9 5 2 39 16
On a alors bien
16 7 17 7 272 + 273 0 1 0
(AB)(B 1 A1 ) = = = .
39 17 39 16 0 273 272 0 1
(2) La matrice Eij est la matrice lmentaire obtenue en permutant les i-me et j-me lignes de In .
Exemple 2.26.
1 0 0 0
0 0 0 1
E24 = E42 =
0 0 1 0
0 1 0 0
(3) La matrice Eij (c) est la matrice lmentaire obtenue en ajoutant c fois la j-me ligne de In la
i-me ligne.
Exemple 2.27.
1 0 0 0
5 1 0 0
E21 (5) = 0 0 1 0
0 0 0 1
Lopration lmentaire permuter les lignes i et j correspond multiplier une matrice sur la
gauche par la matrice lmentaire Eij ; et de mme pour toutes autres oprations lmentaires. Cest
ce quindique le thorme suivant :
Thorme 2.28. Si la matrice lmentaire E est le rsultat dune opration lmentaire effectue
sur Im , alors pour toute matrice A de taille m n le produit matriciel EA est gal la matrice
obtenue en effectuant la mme opration lmentaire sur A.
Ainsi, multiplier une matrice A sur la gauche par Eij revient changer les lignes i et j de A ;
multiplier A sur la gauche par Ei (c) revient multiplier la ligne i de A par c ; et multiplier A sur la
gauche par Eij (c) revient ajouter c fois la ime ligne la jme.
Exemples :
(1)
2 0 a11 a12 a13 2a11 2a12 2a13
E1 (2) A = =
0 1 a21 a22 a23 a21 a22 a23
(2)
1 0 0 a11 a12 a11 a12
E23 A = 0 0 1 a21 a22 = a31 a32 .
0 1 0 a31 a32 a21 a22
(3)
1 0 0 a11 a11
E21 (9) A = 9 1 0 a21 = 9a11 + a21 .
0 0 1 a31 a31
Les oprations lmentaires sur les lignes sont rversibles. Ceci entrane linversibilit des matrices
lmentaires.
Thorme 2.29. Toute matrice lmentaire est inversible. En particulier, on a :
Dfinition 2.31. On dit que deux matrices sont quivalentes par lignes si lune peut tre obtenue
partir de lautre par une suite doprations lmentaires sur les lignes.
Thorme 2.32. Pour toute matrice A de taille nn, les affirmations suivantes sont quivalentes :
(a) A est inversible.
(b) Le systme AX = B a une et une seule solution pour toute matrice B de taille n 1. Cette
solution est donne par X = A1 B.
(c) AX = 0 na que la solution triviale X = 0.
(d) A est quivalente par lignes In .
(e) A est un produit de matrices lmentaires.
Dmonstration. (a) (b) Si A est inversible, on a les quivalences suivantes :
AX = B A1 AX = A1 B X = A1 B
(b) (c) Cest vident car (c) est un cas particulier de (b) avec B = 0.
La matrice associe ce dernier systme est la matrice identit. La matrice A est donc quivalente
par lignes In et ceci prouve le point (d).
(d) (e) On sait, par hypothse, quune succession doprations lmentaires sur A conduit la
matrice In . Par le thorme 2.28, ceci signifie quil existe des matrices lmentaires E1 , . . . Er telles
que
Er Er1 E1 A = In .
Comme une matrice lmentaire est inversible, ceci implique que
Mais linverse dune matrice lmentaire est encore une matrice lmentaire et lon a le rsultat
cherch.
(e) (a) Ceci dcoule du fait que toute matrice lmentaire est inversible et que le produit de
matrices inversibles est encore inversible.
1 2 1 : 1 0 0
(A : I) = 4 0 1 : 0 1 0
1 2 2 : 0 0 1
`2 := `2 4`1
1 2 1 : 1 0 0
0 8 5 : 4 1 0
1 2 2 : 0 0 1
`3 := `3 + `1
1 2 1 : 1 0 0
0 8 5 : 4 1 0
0 4 3 : 1 0 1
1
`2 := `2
8
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 4 3 : 1 0 1
`3 := `3 4`2
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1/2 : 1 1/2 1
`3 := 2`3
1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1 : 2 1 2
5
`2 := `2 `3
8
1 2 1 : 1 0 0
7
0 1 0 :
4 43 54
0 0 1 : 2 1 2
`1 := `1 2`2 `3
1 0 0 : 21 1 1
2 2
7
0 1 0 :
4 34 54
0 0 1 : 2 1 2
2 2 2
1
A1 = 7 3 5
4
8 4 8
2.8. MATRICES TRIANGULAIRES 29
i < j = aij = 0.
0
a11 0
..
a21 a22 . . .
.
.. .. .. .. ..
.
. . . .
. . .
.. .. ..
0
an1 an2 ann
On dit que A est triangulaire suprieure si ses lments en dessous de la diagonale sont nuls,
autrement dit si
i > j = aij = 0.
Une matrice triangulaire suprieure a donc la forme suivante :
a11 a12 ... ... ... a1n
0 a22 ... ... ... a2n
.. ..
.. ..
.
. . .
.. .. .. ..
.
. . .
. .. .. ..
..
. . .
0 ... ... ... 0 ann
Dfinition 2.37. Une matrice qui est triangulaire infrieure et triangulaire suprieure est dite
diagonale.
Thorme 2.39. Une matrice A de taille n n, triangulaire, est inversible si et seulement si ses
lments diagonaux sont tous non nuls.
Inversement, supposons quau moins lun des lments diagonaux soit nul et notons amm le
premier lment nul de la diagonale. En multipliant les lignes 1 m 1 par linverse de leur lment
diagonal, on obtient une matrice de la forme
1
0 ...
0 0
1
0 0 0
0 0 0 all
. .. .. .. ..
.. . . 0 . .
0 0 ann
o l = m + 1.
Il est alors clair que la colonne m de la forme chelonne ne contiendra pas de 1 directeur. La
forme chelonne rduite de A ne peut donc pas tre In et par le thorme 2.32, A nest pas inversible.
Dans le cas dune matrice triangulaire infrieure, on utilise la transposition qui fait lobjet de la
section suivante et on obtient une matrice triangulaire suprieure. On applique alors la dmonstration
ci-dessus.
2.9 La transposition
Soit A la matrice de taille m n
a11 a12 ... a1n
a21 a22 ... a2n
A=
.. .. ..
. . .
am1 am2 ... amn
Dfinition 2.40. On appelle matrice transpose de A, la matrice AT de taille n m dfinie par :
a11 a21 . . . am1
a12 a22 . . . am2
AT = . .
.. ..
.. . .
a1n a2n ... amn
Autrement dit, la i-me colonne de AT est la i-me ligne de A, ou encore
aTij = aji .
Exemple 2.41.
1
(1 2 5)T = 2
5
T
0 3
1 5 0 1 1
=
3 5 2
1 2
T
1 0 1 0
= .
0 2 0 2
(4)T = (4) .
Thorme 2.42. Lopration de transposition obit aux rgles suivantes :
(a) (A + B)T = AT + B T
(b) (kA)T = kAT
(c) (AB)T = B T AT
(d) (AT )T = A .
(e) Si A est inversible, alors AT lest aussi et on a (AT )1 = (A1 )T qui sera note AT .
2.10. LA TRACE 31
2.10 La trace
Soit A la matrice n n
a11 ... a1n
.. ..
A= . .
an1 ... ann
Dfinition 2.43. On appelle trace de A,et on note trace(A), le nombre obtenu en additionnant les
lments diagonaux de A. Autrement dit,
Dmonstration. (a) Pour tout 1 i n, (A + B)ii = Aii + Bii . Ainsi, on a bien trace(A + B) =
trace(A) + trace(B).
(b) On a trace(A) = A11 + + Ann = (A11 + + Ann ).
(c) Etant donn que la transposition ne change pas les lments diagonaux, la trace de A est gale
la trace de AT .
(d) On a
ABii = Ai1 B1i + Ai2 B2i + + Ain Bni .
Ainsi,
trace(AB) = A11 B11 +A12 B21 +... +A1n Bn1
+ A21 B12 +A22 B22 +... +A2n Bn2
..
.
+ An1 B1n +An2 B2n +... +Ann Bnn
qui vaut BA11 . En faisant de mme avec les autres lignes, on voit finalement que
sont symtriques.
Thorme 2.48. Pour une matrice B quelconque, les matrices BB T et B T B sont symtriques.
Dmonstration. Par le thorme 2.42, on a
(BB T )T = (B T )T B T = BB T
(B T B)T = B T (B T )T = B T B.
AT = A
Le dterminant
det(A) = ad bc.
= (j1 , j2 , . . . , jn )
1 = (1, 2) et 2 = (2, 1)
n! = 1 2 n
33
34 CHAPITRE 3. LE DTERMINANT
Dfinition 3.5. Dans une permutation on a une inversion si un nombre plus grand prcde un
nombre plus petit.
De manire plus prcise, le nombre dinversions dune permutation
(j1 , j2 , . . . , jn )
est la somme du
nombre de successeurs de j1 plus petits que j1 , plus
le nombre de successeurs de j2 plus petits que j2 , plus
...
le nombre de successeurs de jn1 plus petits que jn1 .
Exemple 3.6. La permutation
(4, 2, 5, 3, 1) contient 7 inversions.
En effet,il y a 3 successeurs plus petits que 4, 1 successeur plus petit que 2, 2 successeurs plus petits
que 5, 1 successeur plus petit que 3 et pas de successeur plus petit que 1. En additionnant ces
nombres, on obtient bien 7.
Exemple 3.7. La permutation
(6, 1, 3, 4, 5, 2)
contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Dfinition 3.8. Une permutation ayant un nombre pair dinversions est appele permutation paire,
sinon elle est appele permutation impaire. On dfinit la signature de la permutation comme suit :
1 si est paire
sign() =
1 si est impaire.
(1, 2, 3) 0 paire
(1, 3, 2) 1 impaire
(2, 1, 3) 1 impaire
(2, 3, 1) 2 paire
(3, 1, 2) 2 paire
(3, 2, 1) 3 impaire
Lemme 3.10. Soit n 1, i, j {1, . . . , n} avec i < j et Sn .
Posons 0 = ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)). Alors
sign() = sign( 0 ).
Dmonstration : Nous illustrons la mthode de la dmonstration par un cas particulier.
Considrons les deux permutations de S8 suivantes :
= (1, 2, 5, 7, 6, 3, 4, 8) et 0 = (1, 3, 5, 7, 6, 2, 4, 8).
Pour calculer leur signature, il faut calculer le nombre dinversions de et de 0 . On voit que 1, 4
et 8 ont le mme nombre de successeurs plus petits dans et 0 .
Pour passer de 0 , on permute 2 et 3. Dans , 3 nest pas un successeur de 2 plus petit, alors
que dans 0 , 2 est un successeur de 3 plus petit.
Dans , 5 nest pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alors
que dans 0 , 5 nest pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit. En
rptant le mme raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6
plus petits est le mme que cela soit dans ou dans 0 . Globalement, on voit donc que 0 a une et
une seule inversion de plus que . Ainsi, leurs signatures sont opposes.
3.1. PERMUTATIONS ET DTERMINANTS 35
sont :
Plus gnralement, partir dune matrice de taille nn, on peut former n ! produits lmentaires.
En effet, on constate quun produit lmentaire de A nest rien dautre quun produit a1j1 a2j2 . . . anjn
o (j1 , j2 , . . . , jn ) est un lment de Sn .
Dfinition 3.13. Un produit lmentaire sign dune matrice A est un produit
sont a11 a22 (la permutation (1, 2) est paire) et a21 a12 (la permutation (2,1) est impaire).
Les produits lmentaires signs de
a11 a12 a13
a21 a22 a23
a31 a32 a33
sont a11 a22 a33 , a11 a23 a32 , a12 a21 a33 , a12 a23 a31 , a13 a21 a32 et a13 a22 a31 .
Dfinition 3.15. Le dterminant dune matrice A est le nombre obtenu en effectuant la somme de
tous les produits lmentaires signs de A. Il est not det(A). Autrement dit,
X
det(A) = sign() a1i1 . . . anin ,
Sn
o = (i1 , . . . , in ).
Exemple 3.16.
a11 a12
A=
a21 a22
det(A) = a11 a22 a12 a21 .
36 CHAPITRE 3. LE DTERMINANT
Exemple 3.17.
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
det(A) = sign((1, 2, 3))a11 a22 a33 + sign((2, 3, 1))a12 a23 a31 + sign((3, 1, 2))a13 a21 a32
+ sign((3, 2, 1))a13 a22 a31 + sign((2, 1, 3))a12 a21 a33 + sign((1, 3, 2))a11 a23 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Thorme 3.18. Si A est une matrice ayant une ligne forme de zros, alors det(A) = 0.
Dmonstration. Par dfinition, le dterminant est la somme des produits lmentaires signs de A.
Mais chacun de ces produits lmentaires contient un lment nul provenant de la ligne de zros de
A. Donc det(A) = 0.
Thorme 3.19. Le dterminant dune matrice A triangulaire (infrieure ou suprieure) est gal
au produit a11 a22 a33 . . . ann des lments diagonaux.
Dmonstration. Le seul produit lmentaire sign non nul est a11 a22 . . . ann . La permutation corres-
pondante est (1, 2, . . . , n) qui contient 0 inversions et qui est donc une permutation paire. On a donc
bien
det(A) = a11 a22 a33 . . . ann .
on a
det(A) = abf abf + ace ace + bcd bcd = 0
et lon remarque que tous les produits lmentaires apparaissent deux fois avec des signes opposs
(cf. lemme 3.10).
Ceci nous amne au thorme suivant :
Thorme 3.21. Soit A une matrice avec deux lignes gales. Alors
det(A) = 0.
Dmonstration. Dans le dterminant dune telle matrice, tous les produits lmentaires apparaissent
deux fois, avec des signes opposs. Donc det(A) = 0.
Matrice 2 2
3
a11Q a
Q 12
QQ
a21 a22
Q
Q +
s
Q
det(A) = a11 a22 a12 a21 .
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 37
Matrice 3 3
On recopie les colonnes 1 et 2 la suite de la colonne 3 et on calcule comme suit :
Q Q 3
Q 3 3
a11 Q a12 Qa13 Q a11 a12
a21 Q aQ
22
Q a23
Q a a
Q Q21 22
a31 a32 Q
Q a33Q
a31Q a32
Q Q
s +Q
Q s+ Q s+
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a31 a22 a13 a32 a23 a11 a33 a21 a12 .
Exemple 3.22. Calculer
2 1 0
det 1 0 1 .
0 0 1
0 0 1
Q Q Q3 3
3
2Q 1Q0Q 2 1
1 Q0Q
Q1Q 1 0
Q
Q
0 0
QQ
Q1Q 0 Q 0
s Q
s Q
Q s
Q
0 0 0
donc det = 1.
ATTENTION : Cette mthode ne sapplique pas pour les matrices de dimensions suprieures
3.
X
det(Ei (k)) = sign() a1j1 . . . anjn ,
Sn
o = (j1 , . . . , jn ).
38 CHAPITRE 3. LE DTERMINANT
Comme il ny a quun seul lment non nul dans chaque ligne et dans chaque colonne, le seul
produit lmentaire non nul est
1 1 k 1 1 = k.
det(Ei (k)) = k.
Comme avant, il y a un seul produit produit lmentaire non nul, qui vaut 1. Le dterminant
sera donc 1. Il reste dterminer la signature de la permutation
Le dterminant est la somme des produits lmentaires signs. Chaque produit lmentaire
a exactement un lment de chaque ligne,en particulier un lment de la i-me ligne. Ainsi,
dans chaque terme de la somme, on peut mettre k en vidence. Finalement,
X
det(EA) = k sign()a1(1) . . . an(n)
Sn
= det(E) det(A).
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 39
La deuxime galit vient du fait que la i-me ligne de B est la j-me ligne de A (et rcipro-
quement). Posons
0 = ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)).
0 est la composition de avec la permutation qui change i et j. Par le lemme 3.10,
sign( 0 ) = sign(). Ainsi
X
det(B) = (sign( 0 )) a10 (1) . . . an0 (n)
0 Sn
X
= sign( 0 ) a10 (1) . . . an0 (n)
0 Sn
= det(A).
Troisime cas E = Eij (k). On peut supposer que i < j. Posons C = Eij (k)A. On a
a11 ... a1n
.. ..
. .
ai1 + kaj1 . . . ain + kajn
C= .. ..
.
. .
aj1 ... ajn
.. ..
. .
an1 ... ann
Alors,
X
det(C) = sign() b1(1) . . . bn(n)
Sn
X
= sign() a1(1) . . . a(i1)(i1) (ai(i) + kaj(i) )a(i+1)(i+1) . . . an(n)
Sn
X
= sign() a1(1) . . . an(n)
Sn
X
+ k sign(a1(1) . . . a(i1)(i1)) aj(i) a(i+1)(i+1) . . . an(n)
Sn
| {z }
=
= det(A) + k
40 CHAPITRE 3. LE DTERMINANT
Comme det(Eij (k)) = 1, pour montrer que det(C) = det(A) det(Eij (k)), il suffit de montrer
que = 0. Mais,
a11 ... a1n
.. ..
. .
a(i1)1 . . . a(i1)n
aj1
= det ... ajn
a(i+1)1 . . . a(i+1)n
.. ..
. .
an1 ... ann
et la i-me ligne de cette matrice est aj1 . . . ajn . Elle a donc deux lignes identiques (la i-me
et la j-me), ce qui implique que = 0.
Ce thorme nous permet de calculer le dterminant dune matrice de faon relativement simple,
en utilisant lalgorithme de Gauss pour rduire la matrice la forme chelonne (qui est triangulaire)
et en utilisant les thormes 3.23 et 3.19. En effet, si
A = E1 . . . Er D
o D = (dij ) est une matrice chelonne (triangulaire). Alors
det(A) = det(E1 ) . . . det(Er ) det(D) = det(E1 ) . . . det(Er )d11 d22 . . . dnn .
Exemple 3.24. Calculer det(A), o
0 1 5
A = 3 6 9
2 6 1
0 1 5
det(A) = det 3 6 9
2 6 1
3 6 9
= (1) det 0 1 5
2 6 1
1 2 3
= (3) det 0 1 5
2 6 1
1 2 3
= (3) det 0 1 5
0 10 5
1 2 3
= (3) det 0 1 5
0 0 55
1 2 3
= (3)(55) det 0 1 5
0 0 1
= (3)(55) = 165.
Exemple 3.25. Soit
1 3 2 4
2 6 4 8
A=
3
9 1 5
1 1 4 8
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 41
|A| = det(A).
Thorme 3.26. Soit A une matrice carre. Alors A est inversible si et seulement si det(A) 6= 0.
On a, dans ce cas,
1
det(A1 ) := .
det(A)
Dmonstration. Supposons dabord que A est inversible. On peut alors crire A comme produit de
matrices lmentaires, A = E1 Er . En appliquant successivement le thorme 3.23, on a
Comme le dterminant dune matrice lmentaire nest jamais nul, on en dduit que le dterminant
de A nest pas nul.
Ensuite, A1 = Er1 E11 , et on vrifie aisment que det(E 1 ) = det(E)1 pour toute matrice
lmentaire E. On a donc
det(A1 ) = det(Er )1 det(E1 )1 ,
et donc det(A1 ) = det(A)1 .
Rciproquement, supposons que det(A) 6= 0. Nous montrerons qualors A est quivalente par
lignes I, ce qui implique, par le thorme 2.32, que A est inversible.
Soit R la forme chelonne rduite de A. On peut donc trouver des matrices lmentaires
E1 , , Ek telles que
Ek E1 A = R, ou encore
A = E11 Ek1 R .
On en dduit que
|A| = |E11 | |Ek1 | |R| .
Mais par hypothse |A| =
6 0. Donc |R| =
6 0.
On en dduit que chaque ligne de R contient un 1 directeur. Donc R = I.
Le thorme suivant est essentiel et nous affirme que le dterminant est multiplicatif :
Dmonstration. Si A et B sont les deux inversibles, on les crit comme produit de matrices lmen-
taires : A = E1 . . . Er et B = F1 . . . Fs . On a alors
Si A ou B nest pas inversible, alors AB nest pas inversible non plus ; et det(AB) = 0.
det(A) = det(AT ).
Dmonstration. La dmonstration se fait comme ci-dessus : supposons dabord que A est inversible.
On peut alors lcrire comme produit de matrices lmentaires, A = E1 Er . On a alors
AT = ErT E1T
et
|AT | = |ErT | |E1T | = |Er | |E1 | = |A|.
Dautre part, si A nest pas inversible, alors AT nest pas inversible non plus, et |A| = |AT | =
0.
Comme la transposition transforme une ligne en une colonne (et rciproquement), ce thorme
nous permet de formuler le principe suivant :
Principe 3.29. Pour toute proprit des dterminants o il est question des lignes de la matrice, on
a une proprit analogue concernant les colonnes de la matrice.
a11 a12 ... aij ... a1n
a21 a22 ... a2j ... a2n
.. .. .. ..
. . . .
A=
ai1 aij ... aij ... ain
.. .. .. ..
. . . .
an1 an2 ... anj ... ann
a11 ... a1,j1 a1,j+1 ... a1n
.. .. .. ..
. . . .
ai11 ... ai1,j1 ai1,j+1 ... ai1,n
Mij = det
ai+11
... ai+1,j1 ai+1,j+1 ... ai+1,n
.. .. ..
. . .
an1 ... an,j1 an,j+1 ... an,n
1 2 3
2 1
M11 = 4 2 1 =
1 =1
0 1 1 1
1 2 3
1 3
M32 = 4 2 1 =
4 = 11
0 1 1 1
Pour dterminer si Cij = Mij ou Cij = Mij , on peut utiliser le schma suivant :
+ + ...
+ + ...
A=
+ + ...
.. .. .. ..
. . . .
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
Nous savons que
Remplaons les lments aij par ceux dune autre ligne, disons la k-me, avec k 6= i. Nous
obtenons
Thorme 3.34.
ak1 Ci1 + ak2 Ci2 + + akn Cin = 0 si k 6= i
On a donc
det(A0 ) = a11 C31 + a12 C32 + a13 C33 = 0.
En rsum, on a
det(A) si i=k
ak1 Ci1 + ak2 Ci2 + + akn Cin =
0 si i 6= k .
et calculons
a11 a12 ... a1n
a21 a22 ... a2n
C11 C21 ... Cn1
.. .. ..
C12 C22 ... Cn2
. . .
T
AC =
ai1 ai2 ... ain
.. .. ..
. . .
. .. ..
.. C1n C2n ... Cnn
. .
an1 an2 ... ann
46 CHAPITRE 3. LE DTERMINANT
1
A1 = CT .
det(A)
1
A1 = adj(A).
det(A)
Exemple 3.36.
1 1 0
A= 0 1 1 .
1 0 1
On a det(A) = 2 .
La matrice forme des Mij est
1 1 1
M = 1 1 1 .
1 1 1
jme colonne
Autrement dit, Aj est la matrice obtenue en remplaccant la j-me colonne de A par le second
membre B. La rgle de Cramer va nous permettre de calculer la solution du systme dans le cas o
det(A) 6= 0 en fonction des dterminants des matrices A et Aj .
AX = B
det(A) 6= 0 .
1
A1 = adj(A) .
det(A)
Donc
1
X= adj(A)B.
det(A)
48 CHAPITRE 3. LE DTERMINANT
Autrement dit,
x1 C11 . . . Cn1 b1
1 .
X = ... = ..
.. ..
det(A) . .
xn C1n . . . Cnn bn
C11 b1 + C21 b2 + + Cn1 bn
1 ..
= ,
det(A)
.
C1n b1 + C2n b2 + + Cnn bn
cest- -dire
C11 b1 + + Cn1 bn
x1 =
det(A)
C1i b1 + + Cni bn
xi =
det(A)
...
C1n b1 + + Cnn bn
xn = .
det(A)
Mais
b1 C1i + + bn Cni
est le dveloppement en cofacteurs de det(Ai ) par rapport sa i-me colonne. Donc
det(Ai )
xi = .
det(A)
On a
1 0 2 6 0 2
A = 3 4 6 A1 = 30 4 6
1 2 3 8 2 3
1 6 2 1 0 6
A2 = 3 30 6 A3 = 3 4 30 .
1 8 3 1 2 8
et
det(A) = 44 det(A1 ) = 40
det(A2 ) = 72 det(A3 ) = 152.
det(A2 ) 72 18
x2 = det(A) = 44 = 11
det(A3 ) 152 38
x3 = det(A) = 44 = 11 .
Chapitre 4
B
v
v = AB
A
On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est par
dfinition la droite passant par A et B.
Deux vecteurs ont la mme direction si leurs supports sont parallles. Deux vecteurs ayant la
mme direction ont le mme sens sils sont orients de la mme faon :
Deux vecteurs sont dits quivalents si lon peut les superposer par une translation. Par la suite, deux
vecteurs quivalents seront considrs comme gaux. Un vecteur est ainsi dtermin par son module,
sa direction et son sens.
Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On dfinit
la somme de deux vecteurs v et w par la rgle du parallelogramme :
!!
w!!!
!
!!! !! %ll v
! ! ! %
!! l
% v+w !!!
! % l
!
l % !!
l ll !! w
% !
l l%
v ll !
49
50 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
On place lorigine de w sur lextrmit de v. Le vecteur v + w est alors le segment orient joignant
lorigine de v lextrmit de w. Remarquons que v + w = w + v.
Le produit dun vecteur v par un scalaire k est le vecteur kv dfini par les proprits suivantes :
son module est gal |k| fois le module de v
sa direction est celle de v
son sens est celui de v si k > 0 et le sens oppos si k < 0.
Exemple 4.1.
3v
2v
v
Loppos du vecteur v est le vecteur v et la diffrence de deux vecteurs v et w est dfinie par
v w = v + (w).
v2
v
x
O v1
Figure 6.2
Dans cette reprsentation, lorigine du vecteur est toujours le point O = ( 00 ), intersection des
axes de coordonnes x et y.
Dans le cas de lespace 3 dimensions, on choisit toujours un systme daxes orient positivement
comme le montre la figure ci-dessous :
La somme de deux vecteurs et le produit dun vecteur par un scalaire se calculent comme suit
(nous donnons
v1 les formules
w1 pour
des vecteurs de lespace, le cas du plan tant similaire) :
Si v = vv2 et w = w 2
w3
alors
3
v1 + w1
v + w = v2 + w2 ,
v3 + w3
kv1
kv = kv2
kv3
4.1. DFINITIONS ET RGLES DE CALCUL 51
v3
v
y
v1
v2
v1
Figure 6.4 : v = v2 .
v3
x
Figure 6.5 : y a lorientation positive.
z
52 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
et
v1
v = v2 .
v3
u v = u1 v1 + u2 v2 + u3 v3
Le produit scalaire a les proprits suivantes :
Thorme 4.3. (1) u v = v u
(2) u v = (u v)
(3) (u + v) w = u w + v w
(4) u u 0
(5) u u = 0 si et seulement si u = 0.
(6) u u =k u k2
Dmonstration. Ces proprits sont des consquences immdiates de la dfinition. Par exemple, si
u = ( uu12 ) alors
u u = u21 + u22 .
Mais q
k u k= u21 + u22
et donc
u u =k u k2 ,
ce qui dmontre (6).
4.2. LE PRODUIT SCALAIRE 53
On a alors
Thorme 4.4 (Thorme du cosinus). Soient a, b, c les cts dun triangle et , , ses angles
comme dans la figure ci-dessus. Alors
a2 = b2 + c2 2 b c cos().
a2 = BH 2 + CH 2 .
Thorme 4.5. Soient u et v deux vecteurs non nuls, et soit langle quils forment. Alors
u v =k u k k v k cos()
Dmonstration. On a
k v u k2 = (v u) (v u)
= v v + u u 2u v
= k v k2 + k u k2 2u v .
k v u k2 =k v k2 + k u k2 2 k u k k v k cos() .
Donc
u v =k u k k v k cos() .
Ceci dmontre le thorme.
54 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
#A
# A
u ## A vu
# A
# A
# A
# A
v
Figure 6.8
Thorme 4.6. Soient u et v deux vecteurs non nuls. Alors u et v sont orthogonaux si et seulement
si
u v = 0.
Dmonstration. Comme
u v =k u k k v k cos() .
on a u v = 0 si et seulement si cos() = 0 et donc si et seulement si = 2 et donc si et seulement
si u et v sont orthogonaux.
Remarque 4.7. On convient en gnral que le vecteur nul est orthogonal tous les vecteurs. Ainsi,
lnonc du thorme 4.6 reste vrai, mme si lun des deux vecteurs est nul, bien que langle entre
u et v ne soit pas dfini.
u
v
Figure 6.9
projv u.
w1 = `v
B
u
w2
P
P
w1 v
Figure 6.10
Dmonstration.
uv = (w1 + w2 ) v =
= w1 v + w2 v .
uv = w1 v = (`v) v =
= ` v v = ` k v k2
do
uv
`= .
k v k2
On a donc
uv
projv u = v.
k v k2
|u v| |u v|
k projv u k = 2
kvk=
kvk kvk
k u k k v k cos()
= =k u k | cos()|.
kvk
u2 v3 u3 v2
uv = u3 v1 u1 v3
u1 v2 u2 v1
u2 v2
u3 v3
u 1 v1
=
u 3 v3 .
u1 v1
u2 v2
Posons
1 0 0
i = 0 , j = 1 , et k = 0 .
0 0 1
Alors
i u1 v1
u v = j u2 v2 .
k u3 v3
Le produit vectoriel satisfait les proprits suivantes :
u1 u2 v3 u3 v2
u (u v) = u2 u3 v1 u1 v3 =
u3 u1 v2 u2 v1
= u1 (u2 v3 u3 v2 ) + u2 (u3 v1 u1 v3 ) + u3 (u1 v2 u2 v1 ) =
= u1 u2 u3 u1 u3 v2 + u2 u3 v1 u1 u2 v3 + u1 u3 v2 u2 u3 v1 = 0 .
(f ) u u = 0 .
La notion de produit vectoriel est lie celle de colinarit par le thorme suivant :
Thorme 4.13. Soient u et v deux vecteurs non nuls de lespace de dimension 3. Les affirmations
(1) et (2) sont quivalentes :
(1) u et v sont colinaires (cest--dire u = `v)
(2) u v = 0.
Dmonstration. (1) = (2) : Supposons que u = `v. Alors
u v = (`v) v = `(v v) = 0.
u2 v3 u3 v2 = 0
u3 v1 u1 v3 = 0
u1 v2 u2 v1 = 0.
0 = 0
u1 v3 = 0
u1 v2 = 0.
u2 v3 = u3 v2 = 0.
Comme u2 6= 0, ceci entrane v3 = 0. Comme par hypothse v est non nul, on doit avoir v1 6= 0.
Alors par la 3me quation, on a
u1 v2 = u2 v1 6= 0
ce qui implique v2 6= 0 ce qui est absurde. Ainsi, on a donc v1 6= 0 et v2 6= 0.
Posons
u1
`= .
v1
Alors la 3-me quation donne
u2
=`
v2
et par la 2me quation on a
u3 v1 = u1 v3
ce qui implique
u1
u3 = v3 = `v3 .
v1
En conclusion, on a
u=`v
ce qui dmontre (2).
58 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
u v = k u k k v k cos() .
On a donc
k u v k2 = k u k2 k v k2 k u k2 k v k2 cos2
= k u k2 k v k2 (1 cos2 )
= k u k2 k v k2 sin2 .
On obtient donc
Thorme 4.14.
k u v k=k u k k v k sin()
Dmonstration. Comme
0
on a
sin() 0 .
A = (base)(hauteur)
= k u k k v k sin()
=k u v k .
On obtient donc le thorme suivant qui donne une interprtation gomtrique du produit vec-
toriel de deux vecteurs :
uv
h v
hhhhhh
u
Figure 6.13
[u, v, w] = u (v w)
v w2 v1 w1 v1 w1
= u 2
i j + v2 w2 k
v3 w 3 v3 w3
v w2
u1 v1 w1 v1 w1
= 2
u + u
w3 2 v2 w2 3
v3 w 3 v3
u1 v1 w1
= u2 v2 w2 .
u3 v3 w3
[u, v, w] = (v + w) (v w)
= v (v w) + w (v w)
| {z } | {z }
0 0
= 0.
60 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
Alors
i u1 v1
u1 v1
u v = j u2 v2 =
u2 k.
k v2
0 0
Laire du paralllogramme dtermin par u et v est
u1 v1
k u v k = det
k
u2 v2
u1 v1 det u1
v1
= det k k k= .
u2 v2 u2 v2
(2) Prenons le paralllogramme dtermin par v et w comme base du paralllpipde dtermin par
u, v et w. Laire de la base est donc
kvw k
et la hauteur du paralllpipde est la projection orthogonale de u sur v w .
On a
|u (v w)|
h =k projvw u k=
kvw k
et le volume V du paralllpipde est alors
V = (aire de la base) (hauteur)
|u (v w)|
=k v w k
kvw k
= |u (v w)|
qui est donc bien la valeur absolue du dterminant
u1 v1 w1
u2 v2 w2 .
u3 v3 w3
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 61
Figure 6.15
Le plan passant par P0 et ayant n comme vecteur normal est form des points P tels que le
vecteur P0 P est orthogonal au vecteur n. On a donc
P0 P n = 0 .
X Xx0
Si P = Y alors P0 P = Y y0 et la condition P0 P n = 0 scrit
Z Zz0
Xx0 n1
Y y0 nn2 = 0
Zz0 3
ou encore
n1 (X x0 ) + n2 (Y y0 ) + n3 (Z z0 ) = 0 .
2
Exemple 4.19. Lquation du plan passant par le point P0 = 5 et perpendiculaire au vecteur
1 6
n= 3 est
2
(X 2) + 3(Y + 5) 2(Z 6) = 0
ou encore
X + 3Y 2Z + 25 = 0.
Thorme 4.20. Soient a, b, c, d des scalaires tels que (a, b, c) 6= (0, 0, 0). Alors lquation
aX + bY + cZ + d = 0
62 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
Dmonstration. Par hypothse, les scalaires a, b, c sont non tous nuls. Nous pouvons supposer que
a 6= 0. Alors lquation
aX + bY + cZ + d = 0
peut tre rcrite comme
d
a X+ + bY + cZ = 0 .
a
d/a
Mais ceci est lquation du plan passant par le point 0 et ayant comme vecteur normal le
a 0
vecteur b .
c
aX + bY + cZ + d = 0
Figure 6.16
Dmonstration.
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 63
x1
Soit Q = y1
z1
un point du plan. On place le vecteur normal n au point Q. La distance de P0
au plan est gale la norme de la projection orthogonale du vecteur QP0 sur le vecteur n :
Donc
|QP0 n|
D =k projn QP0 k= .
knk
x0 x1
On a QP0 = y0 y1 et ainsi
z0 z1
x0 x1 a
QP0 n = y0 y1 b = a(x0 x1 ) + b(y0 y1 ) + c(z0 z1 ).
z0 z1 c
Comme p
k n k= a2 + b2 + c2 ,
on a
|a(x0 x1 ) + b(y0 y1 ) + c(z0 z1 )|
D= .
a2 + b2 + c2
x1
Or Q = yz1 est un point du plan, ce qui entrane que ax1 + by1 + cz1 + d = 0 et donc que
1
d = ax1 by1 cz1 . On obtient finalement
1. Un point
a1
a2
a3
Figure 7.1
2. Un vecteur
a1
d a2
a3
Figure 7.2
65
66 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
un )
!
0
Le vecteur nul de Rn est le vecteur 0 = .. .
.
0
u1 u1
! !
Soit u = .. un vecteur de Rn . Alors son oppos est le vecteur u = .. .
. .
un un
u1 v1 w1
! ! !
Thorme 5.3. Soient u = .. , v = .. et w = .. des vecteurs de Rn . Alors :
. . .
un vn wn
(a) u+v =v+u
(b) u + (v + w) = (u + v) + w
(c) u+0=0+u=u
(d) u + (u) = 0
(e) (u) = ()u
(f ) (u + v) = u + v
(g) ( + )u = u + u
(h) 1u=u
u v = u1 v1 + u2 v2 + + un vn .
Cest un scalaire. Remarquons que cette dfinition gnralise la notion de produit scalaire dans le
plan R2 et dans lespace R3 .
Thorme 5.4. Soient u, v et w des vecteurs de Rn et soit un scalaire. Alors on a :
(a) u v = v u
(b) (u + v) w = u w + v w
(c) (u) v = (u v)
(d) v v 0.
(e) v v = 0 si et seulement si v = 0.
5.1. ESPACES DE DIMENSION N 67
q
k u k= uu= u21 + + u2n .
u1 v1
! !
Soient u = .. et v = .. deux vecteurs. La distance (ou distance euclidienne) entre u et v
. .
un vn
est dfinie par
p
d(u, v) =k u v k= (u1 v1 )2 + (u2 v2 )2 + + (un vn )2 .
1 3
Exemple 5.5. Soient u = 4 et v = 72 . Alors leur distance dans R4 est
6
3 2
p
d(u, v) = (1 3)2 + (6 7)2 + (4 2)2 + (3 + 2)2
= 4 + 1 + 36 + 25 = 66.
|u v| k u k k v k .
u1
et v = ( vvn1 ). On a
(d) Soient u = dotsun
k u + v k2 = (u + v) (u + v)
= u u + v v + 2u v
=k u k2 + k v k2 +2u v.
k u + v k2 k u k2 + k v k2 +2 k u k k v k= (k u k + k v k)2
et donc
k u + v kk u k + k v k
!
u+!v !!
!
!!
! v
!
u
Figure 7.3
(a) d(u, v) 0
(b) d(u, v) = 0 si et seulement si u = v.
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) + d(w, v) (Ingalit du triangle)
k u + v k2 = (u + v) (u + v) =k u k2 + k v k2 +2u v
k u v k2 = (u v) (u v) =k u k2 + k v k2 2u v
Donc
k u + v k2 k u v k2 = 4u v
do
1 1
uv = k u + v k2 k u v k2 .
4 4
u v = 0.
Dmonstration.
k u + v k2 = (u + v) (u + v)
= k u k2 + k v k2 +2u v
= k u k2 + k v k2 car u v = 0.
Les oprations de somme et de produit par un scalaire dfinies ci-dessus se transposent parfaite-
ment lcriture matricielle et lon retrouve ainsi les oprations dfinies sur les matrices introduites
au chapitre 2 :
u1 v1 u1 + v1
u + v = ... + ... = ..
.
un vn u n + vn
et
u1 u1
u = ... = ... .
un un
un vn
deux vecteurs. On a
vT =
v1 v2 ... vn
et ainsi
u1
v T u = (v1 . . . vn ) ... = u1 v1 + + un vn = u v.
un
On a donc
u v = vT u .
Exemple 5.12.
1 2
3 3
6 ,
u= v= 5
4 0
1
T
3
u v = v u = (2 3 5 0)
6 = (41) = 41.
4
Soit A une matrice de taille n n et u un vecteur colonne (i.e. une matrice n 1). Le produit
matriciel Au est une matrice n 1, donc un vecteur colonne. On peut alors considrer le produit
scalaire de Au avec un autre vecteur v,
(Au) v
On a ainsi
(Au) v = v T (Au)
= (v T A)u = (AT v)T u =
= u (AT v).
Alors
1 2 3 1 7
Au = 2 4 1 2 = 10
1 0 1 4 5
et
1 2 1 2 7
AT v = 2 4 0 0 = 4 .
3 1 1 5 1
On obtient ainsi
7
(Au) v = (v T )(Au) =
2 0 5 10 = 14 + 0 + 25 = 11
5
et
1
u (AT v) = (AT v)T u =
7 4 1 2 = 7 + 8 4 = 11.
4
Autrement dit, cest le produit scalaire du i-me vecteur ligne de A avec le j-me vecteur colonne
de B. Notons l1 , . . . , lm les vecteurs ligne de A, et c1 , . . . , cn les vecteurs colonne de B. On a alors
`1 c1 `1 c2 . . . `1 cn
`2 c1 `2 c2 . . . `2 cn
AB =
.. .. ..
. . .
`m c1 `m c2 . . . `m cn
En particulier, un systme dquations linaires peut tre exprim grce au produit scalaire comme
suit : soit Ax = b un systme linaire o A est la matrice des coefficients du systme de taille m n,
b1
b = ...
bm
xn
5.2. APPLICATIONS LINAIRES 71
(1)
f : R R
f (x) = x2
f (x) = 3x
Soient
f1 : Rn R
..
.
fm : Rn R
f : Rn Rm
dfinie par
f (x1 , . . . , xn ) = (f1 (x1 , . . . , xn ), . . . , fm (x1 , . . . , xn )) .
72 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
Notation :
Soit f : Rn Rm une application linaire. On note [f ] la matrice de f (appele aussi matrice
standard de f ). Soit A une matrice m n. On note fA : Rn Rm lapplication linaire
fI (x) = Ix = x
est appele application identit, et note I ou Id. Lapplication linaire induite par la matrice nulle
0 de taille m n
f0 (x) = 0x = 0
est appele application nulle, et note 0.
Remarque 5.17. Soit f : Rn Rm une application linaire. Alors f (0) = 0. En effet, si A est la
matrice standard de f , on a f (0) = A0 = 0.
f : R2 R2
( xy ) 7 x
y
5.2. APPLICATIONS LINAIRES 73
(x, y) `
`
H (x, y)
HH
HH
HH
Figure 7.6
f : R2 R2
( xy ) 7 ( xy )
et sa matrice est
0 1
.
1 0
f : R3 R3
x x
y 7 y
z z
est la rflexion par rapport au plan Oxy. Cest une application linaire et sa matrice est
1 0 0
0 1 0 .
0 0 1
De mme, la rflection par rapport au plan Oxz est donne par la matrice
1 0 0
0 1 0
0 0 1
74 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES
(y, x)
(x, y)
Figure 7.7
Projections orthogonales
y
(x, y)
x
(x, 0)
Figure 7.8
Lapplication
f : R2 R2
( xy ) 7 ( x0 )
est la projection orthogonale sur laxe Ox. Cest une application linaire donne par la matrice
1 0
.
0 0
Lapplication linaire
f : R3 R3
x x
y 7 y
z 0
5.2. APPLICATIONS LINAIRES 75
5.2.4 Rotations
Soit f : R2 R2 la rotation dangle . On a
y
(w1, w2)
(x, y)
x
x = r cos
y = r sin
Aprs rotation dangle , on obtient :
w1 = r cos( + ),
w2 = r sin( + ) .
En appliquant des formules trigonomtriques, on obtient
g : R2 R2
f (v) x=y
g(f (v))
B
(
(
!
!!
! v
!!
!!!
!
y
x=y
g(v) (
(
!
!!! v
!
!!! x
!!
f (g(v))
On a alors
0 1 0 0 0 1
[f g] = [f ][g] = =
1 0 0 1 0 0
et
0 0 0 1 0 0
[g f ] = [g][f ] = =
0 1 1 0 1 0
Remarquons que
0 0 0 1
[g f ] = 6= = [f g]
1 0 0 0
ce qui montre que la composition dapplications linaires nest pas commutative en gnral.
Ainsi,
A (x1 x2 . . . xn ) = In
| {z }
=C
et det(AC) = det(A) det(C) = 1. Le dterminant de A est donc non nul, ce qui est quivalent dire
que A est inversible. Do le thorme suivant :
Thorme 5.20. Soit A une matrice n n. Les proprits suivantes sont quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
a une solution
(3) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
Dmonstration. Lquivalence des points (2), (3) et (4) dcoule du thorme prcdent.
Il suffit donc de montrer que (1) est quivalent (4) par exemple.
Supposons fA injective. Soit x Rn tel que fA (x) = 0. Alors Ax = 0. Or, on a aussi A0 = 0. Comme
fA est injective, on a ncessairement x = 0. Autrement dit, le systme Ax = 0 a une unique solution.
Le thorme 2.32 permet de conclure que la matrice A est inversible.
Rciproquement, supposons A inversible. Soient x1 , x2 Rn tels que fA (x1 ) = fA (x2 ), cest--dire
tels que Ax1 = Ax2 . On a alors A(x1 x2 ) = 0. A nouveau par le thorme 2.32, on en dduit que
x1 = x2 . Lapplication fA est donc injective.
f ( xy ) = ( x0 ) pour tout y R2
Soit
fA : Rn Rn
une application linaire associe une matrice A inversible. Alors
fA1 : Rn Rn
f 1 : Rn Rn
son inverse. Par le thorme 5.21, une application linaire est inversible si et seulement si elle est
bijective.
et
f (u) = A(u) = Au = f (u) .
Rciproquement, supposons (1) et (2). Notons dabord que (1) implique que
Posons
0
1 0
1
..
0
e1 =
.. ,
e2 =
0 , . . . , en =
.
.
. .. 0
.
0 1
0
Soit A la matrice n n dont les colonnes sont
et
x1
x2
x= .
..
.
xn
Alors
x = x1 e1 + x2 e2 + + xn en
et donc
Ax = A(x1 e1 + x2 e2 + + xn en )
= x1 Ae1 + x2 Ae2 + + xn Aen
= x1 f (e1 ) + x2 f (e2 ) + + xn f (en )
= f (x1 e1 ) + f (x2 e2 ) + + f (xn en )
= f (x1 e1 + x2 e2 + + xn en ) = f (x).
Espaces vectoriels
E E 0 = {(e, e0 ) | e E, e0 E 0 }
V V V
(u, v) 7 u+v
RV V
(, u) 7 u.
On dit que V , muni de ces deux oprations, est un espace vectoriel si pour tout u, v, w V et tout
, R, on a les proprits suivantes :
(1) u + v = v + u
(2) u + (v + w) = (u + v) + w
(3) Il existe 0 V tel que 0 + u = u + 0 = u pour tout u V .
(4) Pour tout u V , il existe u V tel que u + (u) = 0
(5) (u + v) = u + v
(6) ( + )u = u + u
(7) (u) = ()u
(8) 1 u = u
Exemple 6.3. Soit V lensemble des matrices de taille n m, muni de laddition des matrices et
de la multiplication dune matrice par un scalaire. Alors V est un espace vectoriel.
81
82 CHAPITRE 6. ESPACES VECTORIELS
f : R R .
Ceci en fait un espace vectoriel. Les proprits sont faciles vrifier. Par exemple, on dfinit la
fonction nulle
0 : R R
par
0(x) = 0 pour tout x R.
Alors f + 0 = f pour toute fonction f , et on est donc lgitim crire 0 pour la fonction 0. Si
f : R R est une fonction, on dfinit
f : R R
par
(f )(x) = f (x)
Exemple 6.5. Tout plan passant par lorigine est un espace vectoriel (par rapport aux oprations
habituelles sur les vecteurs). Le plan est donn par une quation de la forme
ax + by + cz = 0
Remarque 6.6. Attention ! Un plan ne contenant pas lorigine nest pas un espace vectoriel.
p : R R
p(x) = a0 + a1 x + + an xn ,
avec a0 , a1 , . . . , an R. Alors Pn est un sous-espace vectoriel de V . En effet :
(a) la fonction nulle est une fonction polynomiale ;
(b) soient p, q Pn
p(x) = a0 + a1 x + + an xn
q(x) = b0 + b1 x + + bn xn
Alors
(p + q)(x) = p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn .
Donc p + q Pn ;
(2) soit p(x) = a0 + a1 x + + an xn Pn et R. Alors
(p)(x) = p(x) = a0 + a1 x + + an xn .
Donc p Pn .
Exemple 6.13. Notons C(R) lensemble des fonctions continues f : R R. Alors C(R) est un
espace vectoriel. Cest un sous-espace vectoriel de lespace vectoriel de toutes les fonctions f : R
R . Il suffit de vrifier que la somme de deux fonctions continues est continue et que si f C(R)
alors f est continue pour tout R.
84 CHAPITRE 6. ESPACES VECTORIELS
Notons C 1 (R) lensemble des fonctions f : R R qui sont drivables et de premire drive
continue. Alors C 1 (R) est un sous-espace vectoriel de C(R). Notons C i (R) lensemble des fonctions
f : R R qui sont drivables i fois et dont la i-me drive est continue. On a les inclusions
nappartient ni d1 , ni d2 .
On a alors
Thorme 6.15. Soit Ax = 0 un systme dquations linaires homognes n variables. Alors
lensemble des vecteurs solution est un sous-espace vectoriel de Rn .
Dmonstration. Soit W lensemble des vecteurs solution. Le vecteur 0 est un lment de W . Vrifions
que W est ferm par rapport laddition et par rapport la multiplication par un scalaire.
Si x et x0 sont des vecteurs-solution, alors Ax = 0 et Ax0 = 0 et donc A(x + x0 ) = Ax + Ax0 = 0
ce qui montre que W est ferm par rapport laddition. On a aussi A(x) = Ax = 0 = 0 ce qui
prouve que W est aussi ferm par rapport la multiplication par un scalaire.
Exemple 6.16. Considrons le systme
1 2 3 x 0
2 4 6 y = 0 .
3 6 9 z 0
x = 2s 3t
y = s
z = t
ce qui donne
x = 2y 3z
do
x 2y + 3z = 0.
Lensemble des solutions est donc un plan passant par lorigine. Nous avons vu que ceci est un espace
vectoriel.
6.3. COMBINAISON LINAIRE 85
On a donc
9
= + 6
2 = 2 + 4
7 = + 2.
Thorme 6.21. Soient v1 , . . . , vr des vecteurs dun espace vectoriel V . Alors lensemble W des
combinaisons linaires de v1 , . . . , vr est un sous-espace vectoriel de V .
Dmonstration. Le vecteur 0 est dans W car 0 = 0 v1 + + 0 vr . Vrifions que W est ferm pour
laddition et pour la multiplication par un scalaire. Soient u, v W. Alors, par dfinition de W ,
u = 1 v1 + 2 v2 + + r vr
v = 1 v1 + 2 v2 + + r vr ,
Donc u + v est aussi une combinaison linaire de v1 , . . . , vr . Ceci implique que u + v W . Pour tout
R, on a
u = (1 )v1 + + (r )vr .
Donc u est combinaison linaire de v1 , . . . , vr . Ceci implique que u W . Donc W est bien un
sous-espace vectoriel de V .
W = L(S) = L(v1 , v2 , . . . , vr ).
Exemple 6.24. Soient v1 et v2 deux vecteurs non colinaires de R3 . Alors lespace vectoriel W
engendr par v1 et v2 est un plan.
Exemple 6.26. Soit Pn lespace vectoriel des fonctions polynomiales de degr n . Alors les
polynmes 1, x, . . . , xn engendrent Pn .
Thorme 6.27. Soit V un espace vectoriel, et soient S = {v1 , v2 , . . . , vr } et S 0 = {v10 , v20 , . . . , vs0 }
deux ensembles de vecteurs de V . On a
si et seulement si tout vecteur de S est une combinaison linaire de vecteurs de S 0 et tout vecteur
de S 0 est une combinaison linaire de vecteurs de S.
0 v1 + + 0 vr1 + 0 = 0
pour tout R.
2 1 7
1 2 1
Exemple 6.30. Soient v1 = 0 , v2 = 5 et v3 = 5 . Alors lensemble S = {v1 , v2 , v3 }
3 1 8
est linairement dpendant, car
3v1 + v2 v3 = 0.
Exemple 6.31. Les polynmes p1 (x) = 1 x, p2 (x) = 5 + 3x 2x2 et p3 (x) = 1 + 3x x2 forment
un ensemble linairement dpendant, car
3p1 p2 + 2p3 = 0.
a0 + a1 x + + an xn
a0 + a1 x0 + + an xn0 = 0 .
a0 = a1 = = an = 0 .
88 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.34. Un ensemble S est linairement dpendant si et seulement si au moins lun des
vecteurs de S est une combinaison linaire des autres vecteurs de S.
Comme les 1 , . . . , r ne sont pas tous nuls, il en existe au moins un qui est non nul. Supposons
i 6= 0, avec 1 i r. On a
Ceci implique
1 v1 + + i1 vi1 vi + i+1 vi+1 + + r vr = 0.
Lquation
x 1 v1 + x 2 v 2 + + x r vr = 0
Cest un systme homogne de n quations r inconnues. Lorsque r > n, ce systme a des solutions
non triviales ce qui montre que la famille S est linairement dpendante.
6.5. BASES ET DIMENSION 89
Thorme 6.37. Si S = {v1 , v2 , . . . , vn } est une base de lespace vectoriel V , alors tout vecteur
v V sexprime de faon unique comme combinaison linaire dlments de S :
v = 1 v1 + 2 v2 + + n vn
v = 1 v1 + 2 v2 + + n vn .
Alors on a
(1 1 )v1 + (2 2 )v2 + + (n n )vn = 0.
Comme S = {v1 , . . . , vn } est linairement indpendant, ceci implique
1 1 = 0, 2 2 = 0, ..., n n = 0
et donc
1 = 1 , 2 = 2 , . . . , n = n .
Dfinition 6.38 (Coordonnes par rapport une base). Les 1 , . . . , n du thorme prcdent sont
appels les coordonnes de v dans la base S.
Exemple 6.39. Les vecteurs v1 et v2 de la figure ci-dessous forment une base du plan car on a
v = av1 + bv2 pour tout vecteur v du plan o a et b sont des nombres rels uniquement dtermins.
Figure 8.4
a = 1 v1 + 2 v2 + 3 v3 .
Il reste montrer que ce systme a une solution 1 , 2 , 3 . Pour montrer que S est linairement
indpendant, il faut montrer que lunique solution de
1 v1 + 2 v2 + 3 v3 = 0
est
1 = 2 = 3 = 0 .
Ceci conduit montrer que le systme
1 + 22 + 33 = 0
21 + 92 + 33 = 0
1 + 43 = 0
Exemple 6.44. Base standard de Pn : la famille S = {1, x, . . . , xn } est une base de Pn , appele base
standard de Pn . En effet, nous avons dj vu que L(S) = Pn et que S est linairement indpendant.
Exemple 6.45. Base standard de M22 . On note M22 lensemble des matrices 2 2. Nous avons vu
que M22 est un espace vectoriel. Soient
1 0 0 1
M1 = M2 =
0 0 0 0
0 0 0 0
M3 = M4 = .
1 0 0 1
Lensemble S = {M1 , M2 , M3 , M4 } est une base de lespace vectoriel M22 , appele base standard de
M22 .
a b
Montrons dabord que L(S) = M22 . Soit un lment quelconque de M22 . On a
c d
a b a 0 0 b 0 0 0 0
= + + +
c d 0 0 0 0 c 0 0 d
1 0 0 1 0 0 0 0
=a +b +c +d
0 0 0 0 1 0 0 1
= aM1 + bM2 + cM3 + dM4
Dfinition 6.46. Soit V un espace vectoriel non nul. On dit que V est de dimension finie sil existe
un ensemble fini S de V qui est une base de V . Sil nexiste aucun tel ensemble, alors on dit que V
est de dimension infinie.
Exemple 6.47. Les espaces vectoriels Rn , M22 , Pn sont de dimension finie alors que C (R), C 1 (R),
C(R) sont de dimension infinie.
Thorme 6.48. Soit V un espace vectoriel de dimension finie, et soit S = {v1 , . . . , vn } une base
de V . Alors
(1) Tout sous-ensemble de V ayant plus de n lments est linairement dpendant.
(2) Aucun sous-ensemble de V ayant moins de n lments nengendre V .
Pour montrer que S 0 est linairement dpendant, on doit trouver des scalaires 1 , 2 , . . . , m non
tous nuls tels que 1 w1 + 2 w2 + + m wm = 0. On peut recrire cette quation comme suit
C est un systme homogne qui a plus dinconnues que dquations. Il a donc des solutions non
triviales 1 , . . . , m R telles que 1 w1 + + m wm = 0 ce qui montre que S 0 = {w1 , . . . , wm } est
linairement dpendant.
La dmonstration de (2) est similaire.
Corollaire 6.49. Toutes les bases dun espace vectoriel de dimension finie ont le mme nombre
dlments.
Dfinition 6.50 (Dimension dun espace vectoriel). La dimension dun espace vectoriel de dimension
finie V , note dim(V ), est par dfinition le nombre dlments dune base de V . Lespace vectoriel
V = {0} est de dimension 0.
1 0 ... 0 0 1 0 ... 0
.. ..
0 . 0 .
M1 =
.. ..
M2 =
.. ..
. . . .
0 ... ... 0 0 ... ... ... 0
0 ... 0
..
0 ... 0 1 1
.
.. .. ..
Mn = . Mn+1 = 0
. .
0 ... ... 0 . ..
..
.
0 ... 0
0 ... 0
.. ..
. .
Mmn =
..
. 0
0 ... 1
Exemple 6.52. On a vu la base standard {1, x, . . . , xn } des polynmes de degr au plus n. Voici
une autre base, souvent commode pour les calculs : on fixe des nombres 0 , 1 , . . . , n distincts, et
on considre la base
{(x 0 )(x 1 ) . . . (x n1 ),
(x 0 )(x 1 ) . . . (x n2 )(x n ), . . . ,
(x 0 ) . . . (x i ) . . . (x i+2 ) . . . (x n ), . . . ,
(x 1 )(x 2 ) . . . (x n )}
x1 = s t x2 = s x3 = t x4 = 0 x5 = t .
engendrent lespace des solutions du systme. Dautre part, on vrifie que v1 et v2 sont linairement
indpendants. Donc {v1 , v2 } est une base de lespace des solutions du systme. Ceci montre que cet
espace vectoriel est de dimension 2.
Thorme 6.54. Soit V un espace vectoriel et S un sous-ensemble fini et non vide de V . Alors
(a) si S est linairement indpendant et si v 6 L(S), alors S {v} est encore linairement ind-
pendant ;
(b) si v S est une combinaison linaire dautres vecteurs de S, alors
L(S\{v}) = L(S)
Dmonstration. Il est clair que (1) implique (2) et (3). Montrons que (2) implique (1). Pour cela, il
suffit de montrer que (2) implique (3). Autrement dit, il suffit de montrer que que si V = L(S) alors
S est linairement indpendant. On le montre par labsurde. Supposons S linairement dpendant.
Alors il existe v S qui est une combinaison linaire des autres vecteurs de S. Par le thorme
prcdent, ceci implique que
L(S\{v}) = L(S) = V.
Mais S\{v} contient seulement n 1 vecteurs, ce qui contredit lhypothse dim(V ) = n.
Montrons que (3) implique (1). Il suffit de montrer que (3) implique (2). Autrement dit, il suffit
de montrer que si S est linairement indpendant, alors S engendre V . Supposons que ce ne soit pas
le cas. Alors il existe v V tel que v 6 L(S). Par le thorme prcdent, ceci implique que S {v} est
linairement indpendant. Mais S {v} contient n+1 vecteurs ce qui contredit nouveau lhypothse
sur la dimension de V .
Thorme 6.56. Soit V un espace vectoriel de dimension finie et soit S un sous-ensemble fini de
V.
(a) Si S engendre V , alors on peut rtrcir S en une base de V : il existe v1 , . . . , vr S tels que
S\{v1 , . . . , vr } soit une base de V .
(b) Si S est linairement indpendant, alors on peut complter S en une base de V : il existe
w1 , . . . , wk V tels que S {w1 , . . . , wk } soit une base de V .
Dmonstration. Pour (a), on procde par rcurrence sur dim V #S. Supposons que S ne soit pas
linairement indpendant (sinon on a dj gagn). On a alors une combinaison linaire c1 u1 + +
cn un = 0 avec des ui S, et au moins un des ci , disons c1 , non nul. On pose alors v1 = u1 et
S 0 = S \ {v1 }. Par le thorme 6.54(a), S 0 engendre aussi V et est plus petit ; on peut donc, par
rcurrence, enlever v2 , . . . , vr S 0 pour obtenir une base de V ; et donc enlever v1 , . . . , vr S pour
obtenir une base de V .
Pour (b), on procde par rcurrence sur #S dim V . Supposons que S nengendre pas V . Soit
w1 V \ L(S), et S 0 = S {w1 }. Alors, par le thorme 6.54(b), S 0 est toujours linairement
indpendant, mais plus grand, donc par rcurrence peut se complter en une base S 0 {w2 , . . . , wk }
de V . Ainsi S {w1 , . . . , wk } est une base de V .
Thorme 6.57. Soit V un espace vectoriel de dimension finie, et soit W un sous-espace vectoriel
de V . Alors
dim(W ) dim(V ).
De plus, si dim(W ) = dim(V ), alors W = V .
a11 a12 ... a1n
a21 a22 ... a2n
A= .
.. .. ..
. . .
am1 am2 ... amn
n
Les vecteurs de R
`1 = a11 a12 ... a1n ,
`2 = a21 a22 ... a2n ,
...........................
`m = am1 am2 ... amn
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 95
Dfinition 6.59. Soit A une matrice de taille mn. Le sous-espace de Rn engendr par les vecteurs
ligne de A est appel espace des lignes de A, et le sous-espace de Rm engendr par les vecteurs colonne
de A est appel espace des colonnes de A.
Ainsi la dimension de lespace des lignes de A est le nombre de lignes linairement indpendantes
de A ; la dimension de lespace des colonnes est le nombre de colonnes linairement indpendantes
de A. On verra bientt que ces dimensions sont gales.
Dfinition 6.60 (Noyau (ou Nilespace) dune matrice). Lespace des solutions du systme dqua-
tions homogne
Ax = 0
est appel noyau de A, ou nilespace de A. Le noyau (nilespace) de A est un sous-espace vectoriel de
Rn . Il est not Ker(A).
Thorme 6.61. Soit A une matrice m n. Alors
1. Lespace des colonnes de A est Rm si et seulement si fA est surjective ;
2. Le noyau ker(A) = 0 si et seulement si fA est injective ;
3. Ax = b admet une solution si et seulement si b appartient lespace des colonnes de A ;
4. Lespace des lignes de A est lespace des colonnes de AT ;
5. Soit x0 un vecteur solution du systme Ax = b, et soit {v1 , v2 , . . . , vk } une base du noyau de
A. Alors lensemble des solutions du systme Ax = b est
{x0 + c1 v1 + + ck vk : ci R}.
Dmonstration. 1. Lespace des colonnes est limage de lapplication fA . Ainsi lespace des co-
lonnes est Rm si et seulement si limage de fA est Rm , cest--dire si et seulement si fA est
surjective.
2. Le noyau de A est lensemble des x Rn tels que Ax = 0. Ainsi le noyau de A est 0 si et
seulement si Ax = 0 nadmet que x = 0 comme solution, ce qui veut dire que A est injective.
3. Ax = b admet une solution si et seulement si b est dans limage de fA , qui est lespace des
colonnes de A.
4. Cest vident.
5. On calcule dabord
Thorme 6.62. Les oprations lmentaires sur les lignes ne changent pas le noyau de la matrice.
Dmonstration. Soit A une matrice. Le noyau de A est par dfinition lespace vectoriel des solutions
du systme Ax = 0. Nous avons vu que les oprations lmentaires sur A ne changent pas les
solutions du systme Ax = 0. Ceci implique que les oprations lmentaires ne changent pas le
noyau de A.
96 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.63. Les oprations lmentaires sur les lignes ne changent pas lespace des lignes de
la matrice.
Dmonstration. Soit A une matrice, et soient `1 , . . . , `m ses vecteurs ligne. Soit B une matrice
obtenue partir de A par une opration lmentaire sur les lignes. Si lopration consiste permuter
deux lignes de A, alors B a les mmes lignes que A, donc lespace des lignes est le mme. Si lopration
consiste multiplier une ligne de A par un scalaire non nul, ou ajouter un multiple dune ligne
une autre, alors les lignes de B sont des combinaisons linaires de `1 , . . . , `m . Donc lespace des lignes
de B est contenu dans lespace des lignes de A. Comme les oprations lmentaires sont rversibles,
on voit que lespace des lignes de A est contenu dans lespace des lignes de B. Donc ces deux espaces
vectoriels sont gaux.
Thorme 6.64. Soit A une matrice. Alors les lignes non nulles de la matrice chelonne rduite
forment une base de lespace des lignes de A.
Dmonstration. La matrice chelonne rduite a autant de 1 directeurs que de lignes non nulles.
Les 1 directeurs sont dans des colonnes diffrentes. Donc les vecteurs ligne non nuls de la matrice
chelonne rduite sont linairement indpendants. Comme ils engendrent galement lespace des
lignes, ils forment une base de cet espace.
Exemple 6.65.
1 1 0 0 1 0
0 0 1 0 1 0
A=
0
0 0 1 0 0
0 0 0 0 0 0
est une matrice chelonne rduite. Les lignes non nulles de A sont
`1 = (1 1 0 0 1 0), `2 = (0 0 1 0 1 0) et `3 = (0 0 0 1 0 0).
1 `1 + 2 `2 + 3 `3 = 0 .
Alors on a
1 (1 1 0 0 1 0) + 2 (0 0 1 0 1 0) + 3 (0 0 0 1 0 0) = (0 0 0 0 0 0).
Donc 1 = 2 = 3 = 0.
Application. Nous donnons la mthode pour extraire une base dune famille de vecteurs.
Soient
2 1 1
3 10 11
x= 8 , y = 21 , z = 23 .
19 69 76
Nous voulons extraire une base de cette famille de vecteurs. Nous crivons ces trois vecteurs en ligne
dans une matrice 3 4. On obtient
2 3 8 19
A = 1 10 21 69 .
1 11 23 76
Par le thorme 6.64, les lignes non nulles de la matrice chelonne rduite forment une base de
lespace des lignes de la matrice A. Il suffit donc dechelonner A et de la rduire pour trouver une
base.
2 3 8 19
1 10 21 69
1 11 23 76
`2 2`2 + `1
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 97
2 3 8 19
0 17 34 119
1 11 23 76
`3 2`3 `1
2 3 8 19
0 17 34 119
0 19 38 133
`3 17`3 + 19`2
2 3 8 19
0 17 34 119
0 0 0 0
1
`2 17 `2
2 3 8 19
0 1 2 7
0 0 0 0
`1 `1 3`2
2 0 2 2
0 1 2 7
0 0 0 0
`1 12 `1
1 0 1 1
0 1 2 7
0 0 0 0
Une base de lespace engendr par les vecteurs x, y et z est
1 0
0 ,
1
.
1 2
1 7
En fait, on peut galement prendre comme vecteurs de base les lignes non nulles de la matrice
chelonne (non ncessairement rduite).
Thorme 6.66. Soit A une matrice de taille m n. Alors la dimension de lespace des lignes de
A est gale la dimension de lespace des colonnes de A. Cette dimension est appele le rang de la
matrice A et est note rg(A).
Dmonstration. Soit
a11 ... a1n
.. ..
A= . .
.
am1 ... amn
Soient `1 , . . . , `m les lignes de A et c1 , . . . , cn les colonnes de A. Supposons que la dimension de
lespace des lignes de A soit k, et soit {b1 , . . . , bk } une base de cet espace. On peut donc crire
chaque ligne comme combinaison linaire des vecteurs de cette base :
`1 = 11 b1 + + 1k bk
.....................
`m = m1 b1 + + mk bk .
98 CHAPITRE 6. ESPACES VECTORIELS
avec
bj = (bj1 . . . bjn ) .
On a donc
11 1k
21 2l
cj = b1j + + bkj .
.. ..
. .
m1 mk
Ainsi lespace des colonnes de A est engendr par k vecteurs. La dimension de cet espace est donc
au plus gale k. Ce raisonnement est valable pour nimporte quelle matrice et en particulier pour
la transpose de A. Or, les colonnes de AT sont les lignes de A, et les lignes de AT sont les colonnes
de A. Grce au raisonnement prcdent applique AT , on voit que la dimension de lespace des
lignes de A est au plus gale la dimension de lespace des colonnes de A. Ces deux dimensions sont
donc gales.
Dfinition 6.67. Soit A une matrice. La nullit de A est par dfinition la dimension du noyau de
A, et est not null(A).
rg(A) + null(A) = n.
Ax = 0
a n variables. Donc la somme du nombre des variables directrices et du nombre des variables libres est
n. Or, le nombre de variables directrices est gal au nombre de 1 directeurs dans la forme chelonne
rduite de A. Ce nombre est gal au rang de (A). Dautre part, le nombre de variables libres est
gal au nombre de paramtres de la solution gnrale du systme, ce qui est gal la dimension de
lespace des solutions du systme, qui est par dfinition gal la nullit de A. On a donc bien
rg(A) + null(A) = n.
Thorme 6.69. Soit A une matrice de taille nn. Alors les affirmations suivantes sont quivalen-
tes :
(1) A est inversible
(2) rg(A) = n
(3) null(A) = 0.
Dmonstration. Nous avons vu que A est inversible si et seulement si sa forme chelonne rduite
est la matrice identit In . Ceci se passe si et seulement si toutes les variables sont directrices. Mais le
nombre de variables directrices est gal au rang de A. On a donc (1) (2). Lquivalence (2) (3)
rsulte du thorme prcdent.
6.7. CHANGEMENTS DE BASES 99
B = {v1 , v2 , . . . , vn }
v = 1 v1 + 2 v2 + + n vn
On a donc
1 a + 2 c
(v)B = .
1 b + 2 d
Ceci peut galement scrire
a c 1
(v)B =
b d 2
a c
= (v)B 0 .
b d
La matrice
a c
PB,B 0 =
b d
est la matrice de changement de bases (ou de passage de bases) de B 0 B.
100 CHAPITRE 6. ESPACES VECTORIELS
Thorme 6.71. Soit V un espace vectoriel de dimension finie, et soient B et B 0 deux bases de V .
Soit PB,B 0 la matrice de changement de base de B 0 B. Alors PB,B 0 est inversible et la matrice de
1
changement de base de B B 0 est PB,B 0.
do
1 c11
0 c21
= .
.. ..
. .
0 cn1
Le mme raisonnement avec x = u2 , . . . , un nous donne
c12 0 c1n 0
c22 1 c2n 0
.. = .. , . . . , .. = .
..
. . . .
cn2 0 cnn 1
Dmonstration. Soit x V . On a
(x)B = PB,B 0 (x)B 0
et
(x)B 0 = PB 0 ,B 00 (x)B 00
do
(x)B = PB,B 0 PB 0 ,B 00 (x)B 00 .
Ainsi, la matrice de changement de base de B 00 B est PB,B 0 PB 0 ,B 00 . Autrement dit,
PB,B 00 = PB,B 0 PB 0 ,B 00 .
La matrice C dsigne souvent la matrice canonique. Dans ce cas, si on connat les coordonnes de
B et B 0 dans la base canonique, on calcule directement la matrice de passage de B 0 B.
et
1 0 0
B 0 = 1 , 1 , 0 .
0 0 1
102 CHAPITRE 6. ESPACES VECTORIELS
On a alors
1 0 3 1 0 0
PC,B = 1 1 2 et PC,B 0 = 1 1 0 .
0 0 1 0 0 1
1 1
On applique maintenant la mthode de Gauss pour calculer PC,B et donc PB,B 0 = PC,B PC,B 0 :
1 0 3 : 1 0 0
1 1 2 : 1 1 0
0 0 1 : 0 0 1
`2 `2 `1
1 0 3 : 1 0 0
0 1 1 : 2 1 0
0 0 1 : 0 0 1
`1 `1 + 3`3
`2 `2 + `3
`3 `3
1 0 0 : 1 0 3
0 1 0 : 2 1 1
0 0 1 : 0 0 1
Do :
1 0 3
PB,B 0 = 2 1 1 .
0 0 1
Chapitre 7
<, >: V V R
(u, v) 7< u, v >
pour tout u, v, w V et R.
V = Rn
et
< u, v >= u v
le produit scalaire euclidien (produit scalaire habituel) de Rn . Nous avons dj vu que les proprits
(1) - (5) sont vrifies dans cet exemple.
Exemple 7.3. Soient u = ( uu12 ) et v = ( vv12 ) deux vecteurs de R2 . Posons
Alors <, > est un produit scalaire gnralis sur R2 . Vrifions les proprits (1) - (5) :
(1) On a
(2) Soit w = ( w1
w2 ). Alors
103
104 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
(3)
(4)
(5)
Dfinition 7.4. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
dfinit la norme (ou longueur) dun vecteur v V par la formule
k v k= < v, v >
d(u, v) =k u v k .
Exemple 7.5. Norme et distance dans Rn . Lorsque V = Rn et <, > est le produit scalaire habituel
< u, v >= u v, on retrouve les notions habituelles de norme et de distance dans Rn .
Exemple 7.6. Soit V = R2 . On obtient des notions de norme et de distance diffrentes selon le
produit scalaire gnralis choisi. Soient u = ( 10 ) et v = ( 01 ). Si lon choisit le produit scalaire
habituel sur R2 , on a q
k u k= u21 + u22 = 1 + 0 = 1
et
1
d(u, v) =k u v k=k 1 k
p
= 12 + (1)2 = 2.
Si lon choisit le produit scalaire gnralis < u, v >= 3u1 v1 + 2u2 v2 on obtient
k u k = < u, u >
q
= 3u21 + 2u22
= 3 + 0 = 3.
et
q
1 1
d(u, v) =k u v k= < 1 , 1 >= 3+2= 5.
Dfinition 7.7 (Cercle unit (ou sphre unit)). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Alors le cercle unit, ou sphre unit de V est par dfinition lensemble des
u V tels que
k u k= 1 .
Ce sont les lments de V dont la distance lorigine est gale 1.
7.1. DFINITION ET PREMIRES PROPRITS 105
Exemple 7.8. Soit V = R2 et <, > le produit scalaire habituel. Soit u = ( xy ). Alors
p
k u k= x2 + y 2
p
et lquation du cercle unit est alors x2 + y 2 = 1 ou
x2 + y 2 = 1.
Exemple 7.9. Soit V = R2 muni du produit scalaire gnralis
< u, v >= 3u1 v1 + 2u2 v2 .
Soit w = (x, y). Alors p
k w k= 3x2 + 2y 2
p
ce qui donne 3x2 + 2y 2 = 1 ou
3x2 + 2y 2 = 1
comme quation pour le cercle unit.
Le graphe de cette quation est une ellipse.
Dfinition 7.10. Soit A une matrice de taille n n inversible. Le produit scalaire gnralis associ
A est, par dfinition, le produit scalaire sur Rn qui u, v Rn associe
Au Av
(le produit scalaire habituel de Au et de Av).
Soient u, v Rn reprsents comme vecteurs colonne. Nous avons vu que
Au Av = (Av)T Au
et ceci conduit une nouvelle formulation de ce produit scalaire gnralis :
< u, v >= v T AT Au.
Notons que lorsque A = I, on obtient le produit scalaire habituel < u, v >= u v.
Exemple 7.11. Soit
3 0
A= .
0 2
Alors le produit scalaire gnralis associ A est
3 0 3 0 u1
< u, v > = (v1 v2 )
0 2 0 2 u2
3 0 u1
= (v1 v2 )
0 2 u2
= 3u1 v1 + 2u2 v2 .
On retrouve ainsi le produit scalaire de lexemple 7.3.
Thorme 7.12. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors, pour
tout u, v, w V et tout R, on a
(a) < 0, v >=< v, 0 >= 0
(b) < u, v >= < u, v >
(c) < u, v + w >=< u, v > + < u, w > .
| < u, v > | k u k k v k .
Dmonstration. Si u = 0 , alors on a
< u, v >=k u k= 0 ,
a = < u, u >
b = 2 < u, v >
c = < v, v > .
On a, pour tout t R,
Donc
at2 + bt + c 0
pour tout t R . Ceci implique que le polynme quadratique
aX 2 + bX + c
ce qui implique
< u, v >2 < u, u > < v, v >
donc
| < u, v > | < u, u >< v, v > =k u k k v k .
Thorme 7.14. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
a, pour tout u, v V et pour tout R
(a) k u k 0
(b) k u k = 0 u=0
(c) k u k = || k u k
(d) k u + v k k u k + k v k ingalit du triangle
Dmonstration. La dmonstration est la mme que dans le cas du produit scalaire habituel.
Corollaire 7.15. Soit V un espace vectoriel muni dun produit scalaire gnralis. Alors, pour tout
u, v, w V et tout R, on a
(a) d(u, v) 0
(b) d(u, v) = 0 u=v
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) + d(w, v) ingalit du triangle
Dmonstration. Ceci est une consquence immdiate des dfinitions et du thorme prcdent.
7.2. ANGLES ET ORTHOGONALIT 107
Exemple 7.17. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2. On dfinit
un produit scalaire gnralis sur P2 en posant
Z 1
< p, q >= p(x)q(x)dx
1
pour tout p, q P2 . Les axiomes de produit scalaire gnralis sont faciles vrifier. On a par
exemple la positivit : pour tout p P2 , on a
Z 1
< p, p >= p2 (x)dx 0 .
1
Soient
p(x) = x
et
q(x) = x2
alors p et q sont orthogonaux. En effet
Z 1 Z 1
< p, q > = x x2 dx = x3 dx
1 1
= 0.
Thorme 7.18 (Thorme de Pythagore gnralis). Soit V un espace vectoriel muni dun produit
scalaire gnralis. Soient u, v V , et supposons que u et v soient orthogonaux. Alors
k u + v k2 =k u k2 + k v k2 .
Dmonstration. Comme u et v sont orthogonaux, on a
< u, v >= 0 .
Donc
k u + v k2 = < u + v, u + v >
= k u k2 + k v k2 +2 < u, v >
= k u k2 + k v k2 .
108 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
Exemple 7.19. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2, muni du
produit scalaire gnralis dfini dans lexemple 7.17.
Soient p(x) = x et q(x) = x2 . Nous avons vu que p et q sont orthogonaux. Calculons k p k2 , k
q k , et k p + q k2 :
2
Z 1 Z 1
2 2 2 2 2
k p k =< p, p >= x dx = k q k =< q, q >= x4 dx =
1 3 1 5
Z 1 Z 1
16
k p + q k2 =< p + q, p + q >= (x + x2 )(x + x2 )dx = (x4 + 2x3 + x2 )dx =
1 1 15
On a bien
k p k2 + k q k2 =k p + q k2
Dfinition 7.20. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . On dit que u V est orthogonal W si u est orthogonal tout lment
de W . Lensemble des u V qui sont orthogonaux W est appel le complment orthogonal de W .
Il est not W .
Thorme 7.21. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . Alors on a
(a) W est un sous-espace vectoriel de V .
(b) W W = {0} .
Dmonstration. (a) On a < 0, w >= 0 pour tout w W , donc 0 W . Montrons que W est
ferm par addition et par multiplication par les scalaires. Soient
u, v W .
Alors
< u, w >=< v, w >= 0
pour tout w W . On a donc
< u + v, w >=< u, w > + < v, w >= 0 + 0 = 0
7.2. ANGLES ET ORTHOGONALIT 109
Dmonstration. (a) Soit W lespace des lignes de A. Soit v W . Soient `1 , . . . , `m les vecteurs
ligne de A. Alors
`1 v = `2 v = = `m v = 0 .
Or, nous avons vu que le systme linaire
Ax = 0
Av = 0 .
Alors on a
`1 v = `2 v = = `m v = 0 .
Soit w W . Alors w est combinaison linaire de `1 , `2 , . . . , `m ., cest--dire que lon a
w = 1 `1 + 2 `2 + + m `m
avec 1 , 2 , . . . , m R. On a donc
wv = (1 `1 + 2 `2 + + m `m ) v
= 1 (`1 v) + 2 (`2 v) + + m (`m v)
= 0
S = {v1 , . . . , vn }
un sous-ensemble de V . On dit que S est un ensemble orthogonal si vi est orthogonal vj pour tout
i 6= j. On dit que S est un ensemble orthonorm si S est orthogonal et si
k vi k= 1
pour tout i = 1, . . . , n . Un ensemble orthogonal qui est une base est appel une base orthogonale ;
un ensemble orthonorm qui est une base est appel une base orthonorme.
Thorme 7.24. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >, et soit
S = {v1 , . . . , vn } une base orthonorme de V . Soit u V . Alors
u = 1 v1 + + n vn .
On a
< u, vi >=< 1 v1 + + n vn , vi >= 1 < v1 , vi > + + n < vn , vi > .
Or, comme < vj , vi >= 0 si i 6= j et < vi , vi >=k vi k2 = 1, on a
< u, vi >= i
et par consquent
u =< u, v1 > v1 + < u, v2 > v2 + + < u, vn > vn .
Thorme 7.25. Soit V un espace vectoriel muni dun produit scalaire gnralis <, > . Soit S =
{v1 , v2 , . . . , vn } une base orthogonale de V et u un vecteur de V . Alors
< u, v1 > < u, v2 > < u, vn >
u= v1 + v2 + + vn .
k v1 k2 k v2 k 2 k vn k 2
Dmonstration. La base
v1 v2 vn
S0 = , ,...,
k v1 k k v2 k k vn k
est orthonorme. Par le thorme prcdent, on a donc
v1 v1 vn vn
u = u, + + u,
k v1 k k v1 k k v n k k vn k
et alors
< u, v1 > < u, vn >
u= v1 + + vn .
k v1 k2 k vn k 2
Thorme 7.26. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
{v1 , . . . , vn } un sous-ensemble orthogonal de V , avec vi 6= 0 pour tout i = 1, . . . , n. Alors S est une
famille linairement indpendante.
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 111
1 v1 + 2 v2 + + n vn = 0
avec 1 , 2 , . . . , n R. On a
i < vi , vi >= 0
,
,
u,,
w2 ,
,
,
,
,
,
, w1 W
Figure 9.2 : u = w1 + w2
projW (u).
pour tout i = 1, . . . , n. On a
pour tout i = 1, . . . , n ce qui montre que w2 est orthogonal S = {v1 , v2 , . . . , vn }. Comme S engendre
W , on a que w2 est orthogonal W . Donc
w2 W .
Corollaire 7.28. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit W un
sous-espace vectoriel de dimension finie de V . Alors tout u V scrit de manire unique comme
u = w1 + w2
Exemple 7.29. Soit V = R3 , <, > le produit scalaire habituel, et soit W le sous-espace engendr
par
0 4/5
v1 = 1 et v2 = 0 .
0 3/5
On vrifie que k v1 k=k 2 k= 1, et que < v1 , v2 >= v1 v2 = 0. Donc S = {v1 , v2 } est un ensemble
1v
orthonorm. Soit u = 1 . Alors
1
Thorme 7.30. Soit V un espace vectoriel de dimension finie muni dun produit scalaire gnralis
<, >. Alors V a une base orthonorme.
w2 = u2 projW1 (u2 ) .
Alors
< w2 , v1 >= 0
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 113
u2 = projW1 (u2 ) .
Ceci implique que u2 et v1 sont linairement dpendants et donc que u2 et u1 le sont galement.
Ceci nest pas possible car u1 et u2 font partie dune base de V . La norme de w2 est donc non nulle.
On pose alors
w2
v2 = .
k w2 k
On a k v2 k= 1, k v1 k= 1 et < v1 , v2 >= 0.
v1 , v2 , . . . , vk1
tels que
k v1 k=k v2 k= =k vk1 k= 1,
que < vi , vj >= 0 si i 6= j et que le sous-espace Wk1 engendr par v1 , v2 , . . . , vk1 soit gal au
sous-espace engendr par u1 , . . . , uk1 . On pose
wk = uk projWk1 (uk ).
k v1 k= =k vk k= 1,
w2 = u2 projW1 (u2 ) =
< u2 , w1 >
= u2 w1
k w1 k2
On a donc
1 2/3 0
w1 = 1 , w2 = 1/3 , w3 = 1/2 .
1 1/3 1/2
Alors {w1 , w2 , w3 } est une base orthogonale de R3 . On obtient une base orthonorme en posant
w1 w2 w3
v1 = , v2 = et v3 = .
k w1 k k w2 k k w3 k
Ceci nous donne
1/3 2/ 6 0
v1 = 1/3 , v2 = 1/6 , v3 = 1/ 2 .
1/ 3 1/ 6 1/ 2
Exemple 7.33. Les matrices de rotation sont orthogonales. Soit un angle. Alors la matrice de la
rotation dangle de R2 est
cos sin
A= .
sin cos
Cette matrice est orthogonale. En effet, lidentit
sin2 + cos2 = 1
montre que lon a
AT A = I.
Thorme 7.34. Soit A une matrice n n. Les trois proprits suivantes sont quivalentes :
(a) A est orthogonale.
(b) Pour tout x Rn , on a k Ax k=k x k.
(c) Pour tout x, y Rn , on a Ax Ay = x y.
En dautres termes, une matrice orthogonale conserve les normes et les angles.
Dmonstration. (a) = (b) Supposons A orthogonale. On a
k Ax k2 = Ax Ax = x (AT A)x = x x =k x k2 .
(b) = (c) Supposons que
k Ax k=k x k
pout tout x Rn . On a
1 1
Ax Ay = k Ax + Ay k2 k Ax Ay k2 =
4 4
1 1
= k A(x + y) k k A(x y) k2 =
2
4 4
1 1
= k x + y k k x y k2
2
4 4
= xy.
7.4. MATRICES ORTHOGONALES 115
(c) = (a) On considre (c) avec x = ei et y = ej des vecteurs de la base standard. Alors x y
est soit 0 (si i 6= j) soit 1 (si i = j), et est le coefficient Iij de la matrice identit. Dautre part,
Ax Ay = eTj AT Aei
est le coefficient (i, j) de la matrice AT A. Il suit que AT A = I, et donc que A est orthogonale.
Remarque 7.35. Linverse dune matrice orthogonale est orthogonale. En effet on a
A orthogonale A1 = AT
(A1 )1 = (AT )1
(A1 )1 = (A1 )T
A1 est orthogonale.
De plus, on a 0
u1 u1
.. ..
(u)B = . = PB,B 0 . = PB,B 0 (u)B 0 ,
un u0n
n n
X X 0
u2i = (u)TB (u)B et ui2 = (u)TB 0 (u)B 0
i=1 i=1
ce qui implique que
(u)TB 0 (u)B 0 =k u k= (u)TB (u)B = (PB,B 0 (u)B 0 )T PB,B 0 (u)TB 0 = (u)TB 0 PB,B
T
0 PB,B 0 (u)B 0 .
T
Comme ceci est vrai pour tout vecteur u, on en dduit que PB,B 0 PB,B 0 = I ce qui montre que PB,B 0
est orthogonale.
On appelle ci la i-me colonne de A. Soit {c01 , . . . , c0n } la base obtenue en appliquant Gram-Schmidt
{c1 , . . . , cn } et Q la matrice dont les colonnes sont c01 , . . . , c0n .
q11 . . . q1n
Q = ... ..
.
qn1 ... qnn
Comme {c01 , . . . , c0n } est une base orthonorme, on a
c1 = < c1 , c01 > c01 + + < c1 , c0n > c0n
..
.
cn = < cn , c01 > c01 + + < cn , c0n > c0n
cest--dire
q11 q1n
c1 = < c1 , c01 > ... + + < c1 , c0n > ...
qn1 qnn
..
.
q11 q1n
cn = < cn , c01 > ... + + < cn , c0n > ... .
qn1 qnn
Ainsi, on voit que
< c1 , c01 > < c2 , c01 > < cn , c01 >
q11 ... q1n ...
A = ... .. .. ..
. . .
qn1 ... qnn < c1 , c0n > < c2 , c0n > ... < cn , c0n >
| {z }
=R
La matrice R est triangulaire. En effet, par Gram-Schmidt, pour tout k > 1, c0k est orthogonal
lespace engendr par c1 , . . . , ck1 . Ainsi, Rij =< cj , c0i >= 0 pour tout i > j, et R est bien
triangulaire suprieure.
La dcomposition dune matrice en un produit dune matrice orthogonale et dune matrice tri-
angulaire sappelle la dcomposition QR.
Exemple 7.37. Calculons la dcomposition QR de la matrice
2 3
A= .
1 0
En appliquant le procd de Gram-Schmidt aux vecteurs colonne de A, on obtient
! !
2 5 5
c01 = 5
5
et c02 = 5
2 5
5 5
De plus,
< c1 , c01 > = 5
6 5
< c2 , c01 > =
5
< c1 , c02 > = 0
0 3 5
< c2 , c2 > =
5
Ainsi,
2 5
5
!
6 5
!
5 5 5 5
Q= 5 2 5
et R = 3 5
.
5 5 0 5
7.5. LA MTHODE DES MOINDRES CARRS 117
pour tout w W , w 6= projW (u). On dit que projW (u) est la meilleure approximation de u par des
vecteurs de W .
On a
projW (u) w W
et
u projW (u) W
donc ces deux termes sont orthogonaux lun lautre. Par le thorme de Pythagore gnralis, on
a
k u w k2 = k u projW (u) k2 + k projW (u) w k2 .
Si w 6= projW (u), alors
k projW (u) w k2 > 0
, do
k u w k2 > k u projw (u) k2
et donc
k u w k > k u projw (u) k .
On pourrait donc calculer projW (b), et rsoudre le systme Ax = projW (b), mais il y a une meilleure
mthode. En effet, si x est tel que Ax = projW (b), alors le vecteur
b Ax = b projW (b)
est orthogonal W . Mais W est lespace des colonnes de A et W est donc le nilespace de AT . On
doit donc avoir
AT (b Ax) = 0
autrement dit
AT Ax = AT b.
Ax = b
projW b = Ax .
Thorme 7.41. Soit A une matrice de taille m n. Supposons que les vecteurs colonne de A
soient linairement indpendantes. Alors la matrice AT A est inversible.
Dmonstration. Pour montrer que AT A est inversible, il suffit de montrer que le systme
AT Ax = 0
a une unique solution (la solution triviale). Soit x une solution de ce systme. Alors Ax est dans le
nilespace de AT . Mais Ax est aussi dans lespace des colonnes de A. Or nous avons vu que ces deux
espaces sont orthogonaux lun lautre. Leur intersection est donc nulle. Ceci implique que
Ax = 0.
Comme nous avons suppos que les vecteurs colonne de A sont linairement indpendants, ceci
implique que x = 0.
Thorme 7.42. Soit A une matrice dont les vecteurs colonne sont linairement indpendants.
Alors tout systme linaire
Ax = b
a une unique solution au sens des moindres carrs qui est donne par
x = (AT A)1 AT b .
x1 + x2 = 6
2x1 x2 = 1
x1 3x2 = 1
7.5. LA MTHODE DES MOINDRES CARRS 119
On a
1 1 6
A= 2 1 b= 1
1 3 1
Les vecteurs colonne de A tant linairement indpendants, le systme a une unique solution au sens
des moindres carrs. On a
6 5
AT A =
5 11
et
T 7
A b= .
8
Le systme normal AT Ax = AT b est donc
6x1 5x2 = 7
5x1 + 11x2 = 8.
121
122 CHAPITRE 8. DIAGONALISATION DES MATRICES
Exemple 8.3. Cherchons les valeurs propres et les vecteurs propres de la matrice
1 3
A= .
4 2
2 3 10 = 0.
Ax = x
autrement dit si
(I A)x = 0.
Ceci nous donne
1 3 x1 0
= .
4 2 x2 0
Pour = 2, on obtient
3 3 x1 0
= .
4 4 x2 0
Les solutions de ce systme sont
x1 = t, x2 = t.
Lensemble des vecteurs propres de A correspondant la valeur propre = 2 est donc
t
| t R, t 6= 0
t
Thorme 8.4. Soit A une matrice triangulaire. Alors les valeurs propres de A sont les lments
de la diagonale de A.
8.1. DFINITIONS ET PREMIRES PROPRITS 123
a11 . . . . . .
..
0 a22 .
.. . .. ..
A= . .
.
. .
. .
. .
0 0 ... 0 ann
a11
... ...
..
0 a22 .
det(I A) = det .. .. ..
= ( a11 )( a22 ) . . . ( ann )
. . .
.. ..
. .
0 0 ... 0 ann
(I A)x = 0 .
Lensemble de ces vecteurs propres est appel lespace propre de A correspondant la valeur propre
et est not E .
Nous venons donc de voir que lespace propre E est le nilespace de la matrice I A.
Exemple 8.5. Trouver des bases pour les espaces propres de la matrice
0 0 2
A= 1 2 1 .
1 0 3
3 52 + 8 4 = ( 1)( 2)2 = 0 .
=1 et = 2.
Les vecteurs propres de A correspondant la valeur propre = 2 sont donc les vecteurs non nuls
de la forme
s s 0 1 0
x = t = 0 + t = s 0 + t 1 .
s s 0 1 0
Comme
1 0
0 et 1
1 0
sont linairement indpendants, ces vecteurs forment une base de lespace propre E2 .
Pour = 1, on calcule le noyau de I A :
1 0 2
1 1 1 .
1 0 2
Thorme 8.6. Soit A une matrice carre, et soit k un entier. Si est une valeur propre de A, et
x un vecteur propre correspondant, alors k est une valeur propre de Ak , et x est un vecteur propre
correspondant k .
polynme
En particulier, les valeurs propres de Ak sont prcisment les puissances k-imes des valeurs
propres de A. Remarquons toutefois que Ak peut avoir plus de vecteurs propres que A. Un exemple
simple est la matrice A = ( 00 10 ) ; lespace propre E0 de A est de dimension 1, mais comme A2 = 0
lespace propre E0 de A2 est de dimension 2.
Si on dveloppe ce dterminant par rapport la premire ligne par exemple, on remarque que le
seul terme qui contient des puissances de suprieures n 2 est
On a donc
8.2 Diagonalisation
Dfinition 8.10. Soit A une matrice carre. On dit que A est diagonalisable sil existe une matrice
inversible P telle que P 1 AP soit une matrice diagonale.
Thorme 8.11. Soit A une matrice n n. Alors les proprits suivantes sont quivalentes :
(a) A est diagonalisable ;
(b) A a n vecteurs propres linairement indpendants.
Dmonstration. (a) = (b) Comme A est diagonalisable, il existe une matrice inversible
p11 p12 . . . p1n
p21 p22 . . . p2n
P = . ,
.. ..
.. . .
pn1 pn2 ... pnn
Comme P 1 AP = D, on a AP = P D. Donc
1 0 ... 0
1 p11 2 p12 ... n p1n
p11 ... p1n .. 1 p21 2 p22 ... n p2n
.. .. 0 .
AP = P D = = .
. .
.. .. .. ..
. .
pn1 ... pnn
. .
0 n 1 pn1 2 pn2 ... n pnn
1 p1 , 2 p2 , ..., n pn .
Donc
Ap1 = 1 p1 , Ap2 = 2 p2 , . . . , Apn = n pn .
Comme P est inversible, les vecteurs colonne p1 , p2 , . . . , pn sont linairement indpendants. Par les
formules ci-dessus, p1 , p2 , . . . , pn sont des vecteurs propres de A correspondant aux valeurs propres
1 , 2 , . . . , n . Donc A a n vecteurs propres linairement indpendants.
(b) = (a) Supposons que A ait n vecteurs propres linairement indpendants p1 , p2 , . . . , pn ,
avec valeurs propres correspondantes 1 , 2 , . . . , n . Posons
p11 p12 . . . p1n
p21 p22 . . . p2n
P = . .. .
..
.. . .
pn1 pn2 ... pnn
Les colonnes de la matrice P sont les vecteurs p1 , p2 , . . . , pn . Les colonnes du produit AP sont les
vecteurs Ap1 , Ap2 , . . . , Apn . Mais comme
on a
1 p11 2 p12 ... n p1n p11 p12 ... p1n 1 0 ... 0
1 p21 2 p22 ... n p2n p21 p22 ... p2n 0 2 ... 0
AP = =
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
1 pn1 2 pn2 ... n pnn pn1 pn2 ... pnn 0 0 ... n
= P D,
avec
1 0 ... 0
0 2 ... 0
D= .
.. .. .. ..
. . . .
0 0 ... n
On a donc :
AP = P D .
Comme les vecteurs colonne de P sont linairement indpendants, la matrice P est inversible et lon
obtient finalement
P 1 AP = D ,
ce qui montre que A est diagonalisable.
8.2. DIAGONALISATION 127
Ces 3 vecteurs propres tant linairement indpendants, la matrice A est diagonalisable. On pose
alors
1 0 2
P = 0 1 1
1 0 1
et on a
2 0 0
P 1 AP = 0 2 0
0 0 1
Thorme 8.13. Si v1 , v2 , . . . , vn sont des vecteurs propres dune matrice A correspondant des
valeurs propres distinctes 1 , 2 , . . . , n , alors {v1 , v2 , . . . , vn } est un ensemble linairement ind-
pendant.
Dmonstration. Nous allons dmontrer ce thorme par labsurde.
Supposons donc que les vecteurs propres v1 , v2 , . . . , vn sont linairement dpendants. Soit r le
plus grand entier tel que {v1 , v2 , . . . , vr } soit linairement indpendant. On a 1 r < n. Il existe
donc des scalaires c1 , c2 , . . . , cr+1 non tous nuls tels que
c1 v1 + c2 v2 + + cr+1 vr+1 = 0 . ()
Comme
Av1 = 1 v1 , Av2 = 2 v2 , . . . , Avr+1 = r+1 vr+1 ,
on obtient
c1 1 v1 + c2 2 v2 + + cr+1 r+1 vr+1 = 0 .
En multipliant () par r+1 , on a
c1 = c2 = = cr = 0 .
c1 = c2 = = cr+1 = 0.
2 trace(A) + det(A) = 2 + 4.
est diagonale.
Thorme 8.19. Deux vecteurs propres associs deux valeurs propres distinctes sont orthogonaux
(pour le produit scalaire usuel).
Dmonstration. Soient A une matrice carre et , deux valeurs propres de A distinctes. Soient
encore v un vecteur propre associ la valeur propre et w un vecteur propre associ la valeur
propre . On a
(Av) w = (v) w = (v w) = wT v.
Dautre part,
v (Aw) = (Aw)T v = wT AT v = wT Av = wT v = wT v.
La troisime galit dcoule du fait que A est symtrique. On a donc (Av) w = v (Aw), cest--dire
v w = v w. Ainsi
( ) v w = 0.
Comme 6= , on a ncessairement v w = 0. Les vecteurs v et w sont donc bien orthogonaux.
Dfinition 8.20. Soit A une matrice carre. On dit que A est orthogonalement diagonalisable si
elle est diagonalisable et sil existe une base de vecteurs propres qui est orthonorme.
Par le thorme prcdent, toute matrice symtrique est orthogonalement diagonalisable.
Nous donnons maintenant un exemple dune diagonalisation orthogonale.
1 1 1
Exemple 8.21. Soit A = 1 1 1 . Le polynme caractristique est
1 1 1
det( I A)
cest--dire
1 1 1
det 1 1 1 .
1 1 1
On trouve ainsi
3 32 .
Les valeurs propres de A sont donc 0 et 3. Calculons les espaces propres. Pour E0 , on doit rsoudre
le systme
1 1 1 x 0
1 1 1 y = 0
1 1 1 z 0
130 CHAPITRE 8. DIAGONALISATION DES MATRICES
1 1 1 1
On remarque quon a bien 1 1 et 1 0 . Appliquons le procd de
1 0 1 1
1 1
Gram-Schmidt pour extraire une base orthogonale de E0 . Posons f1 = 1 et f2 = 0 .
0 1
f1 f2
f20 = f2 f1
f1 f1
1 1
0 1 1
=
2
1 0
1
2
= 1
2
1
12
223
f1 f20
Les vecteurs, g1 = = 1 et g2 = = 2
||f1 || 2 ||f20 || 2 3 forment une base orthonorme
0 2
3
1
3
de E0 . Pour E3 , il suffit de prendre
1 comme vecteur de base de norme 1. On vrifie que
3
1
3
12 1 1 223 1
2
0 1 1 1
0 0 0
12 3
223 223 23 1 1 1 223 1 = 0 0 0
2 3
1 1 1 1 1 1 0 2 1 0 0 3
3 3 3 3 3
| {z } | {z }
PT P
Chapitre 9
Applications linaires
f : Rn Rm .
f : V W
est une application linaire si et seulement si les deux proprits suivantes sont vrifies :
(a) f (u + v) = f (u) + f (v) pout tout u, v V ;
(b) f (u) = f (u) pour tout u V , R.
Exemple 9.2. Voici quelques exemples dapplications linaires :
(1) Applications linaires
f : Rn Rm
f (x) = Ax
pour une certaine matrice A.
(2) Lapplication nulle
f : V W
f (u) = 0
pour tout u V .
(3) Lapplication identit
f : V V
f (u) = u
pour tout u V .
(4) La symtrie centrale
S : V V
S(v) = v
pour tout v V .
(5) Lhomothtie de rapport k
H : V V
H(v) = k v
pour tout v V .
131
132 CHAPITRE 9. APPLICATIONS LINAIRES
(6) La projection orthogonale. Soit V un espace vectoriel muni dun produit scalaire gnralis
<, >, et soit W un sous-espace vectoriel de V . Nous avons dfini la projection orthogonale
f : V W
T (f ) = f (ax + b).
et
T (f ) = (f )(ax + b)
= (f (ax + b))
= T (f ).
9.1. DFINITIONS ET EXEMPLES 133
(9) Lapplication linaire dfinie par un produit scalaire gnralis. Soit V un espace vec-
toriel muni dun produit scalaire gnralis <, >. Soit v0 V . On dfinit une application
f : V R
en posant
f (v) =< v, v0 > .
et
f (v) =< v, v0 >= < v, v0 >= f (v) .
(10) La drivation. Soit V = C 1 (R) lespace vectoriel des fonctions f : R R drivables avec
premire drive continue et W = C 0 (R) lespace vectoriel des fonctions continues relles
variable relle. Soit
D : C 1 (R) C 0 (R)
o f 0 est la premire drive de f . Alors D est une application linaire car la drivation est une
opration linraire.
(11) Lintgration. Soit V = C 0 (R) et W = C 1 (R). Soit
J : C 0 (R) C 1 (R)
Z x
f (t) 7 f (t)dt
0
Rx Rx Rx Rx
Lapplication J est linaire car 0 (f (t) + g(t))dt = 0 f (t)dt + 0 g(t)dt et 0 ( f (t))dt =
Rx
0 f (t)dt pour toutes fonctions f et g et pour tout R.
(12) Soit Mn (R) lensemble des matrices n n. Alors
tr : Mn (R) R
A 7 trace(A)
Exemple 9.3. Donnons un exemple dune application qui nest pas linaire. Soit
f : M22 R
On a
det(A) = 2 det(A)
f (1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) .
f (1 v1 + + n vn ) = 1 f (v1 ) + + n f (vn ).
Thorme 9.4. Soit f : V W une application linaire. Alors on a les proprits suivantes :
(a) f (0) = 0
(b) f (v) = f (v) pour tout v V
(c) f (v w) = f (v) f (w) pour tout v, w V .
f (0) = f (0 v) = 0f (v) = 0 .
Pour tout v, w V , on a
v w = v + (1)w,
donc
f (v w) = f (v + (1)w)
= f (v) + f ((1)w)
= f (v) + (1)f (w)
= f (v) f (w) .
f (v) = f (1 v1 + + n vn )
= 1 f (v1 ) + + n f (vn ) .
Exemple 9.5. Soit {v1 , v2 , v3 } une base de R3 , avec v1 = (1, 1, 1), v2 = (1, 1, 0) et v3 = (1, 0, 0).
Soit
f : R3 R2
lapplication linaire telle que
Soit
v = (2, 3, 5) .
9.1. DFINITIONS ET EXEMPLES 135
Alors
v = 5v1 8v2 + 5v3 ,
donc
(f2 f1 ) : V1 V3
v 7 f2 (f1 (v))
pour tout v V1 .
Figure 11.1
Soient v V1 et R. Alors
f (v) = w .
Exemple 9.9. Soit f : Rn Rm dfinie par f (x) = Ax, o A est une matrice m n. Alors Ker(f )
est gal au nilespace de A, et Im (f ) est gal lespace des colonnes de A.
Exemple 9.10. Soit 0 : V W lapplication linaire nulle. Alors Ker(0) = V et Im(0) = {0}.
Exemple 9.12. Soit f : R3 R2 la projection orthogonale sur le plan xy. Alors Ker(f ) est gal
laxe des z et limage de f est gale au plan xy.
Figure 11.2
f (v1 ) = w1 ,
f (v2 ) = w2 .
9.2. NOYAU ET IMAGE DUNE APPLICATION LINAIRE 137
Mais alors
f (v1 + v2 ) = f (v1 ) + f (v2 )
= w1 + w2 ,
donc w1 + w2 Im(f ). Soient w Im(f ) et R. Soit v V tel que f (v) = w. Alors
f (v) = f (v) = w. Donc w Im(f ). Ceci implique que Im(f ) est un sous-espace vectoriel
de W .
Exemple 9.14. Soit n un entier. Considrons lapplication linaire
: Pn Pn+1
f 7 xf.
Etudions dabord le noyau de : soit f = an xn + + a0 Pn tel que xf = 0. Alors
an xn+1 = + a1 x2 + a0 x = 0.
Ainsi, ai = 0 pour tout i {0, . . . , n} et f = 0. Le noyau de est donc nul.
Lespace Im() est lensemble des polynmes de Pn+1 sans terme constant. Une base de cet espace
est {x, x2 , . . . , xn+1 }.
Lemme 9.15. Soit f : V W une application linaire. Alors f est injective si et seulement si
Ker(f ) = {0}.
Dmonstration. Supposons f injective. On a, par le thorme 9.4, que f (0) = 0. Mais, linjectivit
implique que pour tout v V , v 6= 0, on a f (v) 6= 0. Ainsi, le noyau de f est nul.
Rciproquement, supposons que Ker(f ) = 0, et soient v1 , v2 V avec f (v1 ) = f (v2 ). Alors
0 = f (v1 ) f (v2 ) = f (v1 ) + f (v2 ) = f (v1 v2 ).
Ainsi, v1 v2 Ker(f ) et v1 = v2 . Lapplication f est donc bien injective.
Dfinition 9.16. Soit f : V W une application linaire. La dimension de Ker(f ) est appele la
nullit de f , et est note null(f ). La dimension de Im(f ) est appele le rang de f , et est note rg(f ).
Ces dfinitions sont compatibles avec celles donnes pour les matrices comme le montre le tho-
rme suivant :
Thorme 9.17. Soit A une matrice m n, et soit
f : Rn Rm
dfinie par
f (x) = Ax.
Alors
(a) null(f ) = null(A)
(b) rg(f ) = rg(A).
(ii) Si rg(f ) = 0, cela signifie que Im(f ) = {0}. Autrement dit, tout vecteur de V est envoy sur 0
par lapplication f . Ainsi, Ker(f ) = V et null(f ) = dim(V ).
(iii) Supposons maintenant que null(f ), rg(f ) 6= 0. Posons r = (f ) et soit {e1 , . . . , er } une base de
Ker(f ). Pour montrer le thorme, il suffit de montrer que limage de f est de dimension n r.
Comme {e1 , . . . , en } est une base de
Ker(f ), cest en particulier une famille de vecteurs linairement indpendants. Il existe donc
er+1 , . . . , en V tels que {e1 , . . . , en } soit une base de V . La famille B = {f (er+1 ), . . . , f (en )}
est une base de Im(f ). En effet,
i) si r+1 f (er+1 ) + + n f (en ) = 0, alors, par linarit, on a que r+1 er+1 + + n en
Ker(f ). Ce vecteur sexprime alors dans la base du noyau :
1 e1 + r er + r+1 er+1 + + n en = 0.
w = f (1 e1 + + n en ).
Ainsi, tout lment de limage de f est une combinaison linaire des vecteurs de B.
f : V V
f 1 : Im(f ) V
de la manire suivante :
Soit w Im(f ). Il existe v V tel que w = f (v). De plus, comme f est injective, le vecteur v est
unique. On dfinit alors
f 1 (w) = v.
Lapplication f 1 est appele linverse de f .
9.3. APPLICATIONS LINAIRES INVERSIBLES 139
Remarque 9.21. Dans le dfinition ci-dessus, on dfinit f 1 uniquement sur lespace Im(f ). Si
Im(f ) = W , cest--dire si f est aussi surjective, alors on peut dfinir f 1 : W V . On dit alors
que f est inversible.
Remarque 9.22. Une application linaire f : V W est donc dite inversible si et seulement si
elle est bijective.
Thorme 9.23. Soit f : V W une application linaire injective. Alors
(1) (f 1 f )(v) = v pour tout v V .
(2) (f f 1 )(w) = w pour tout w Im(f ).
(3) f 1 est une application linaire.
Dmonstration. (1) Ce point dcoule directement de la dfinition de linverse.
(2) Soit w Im(f ). Il existe un unique v V tel que f (v) = w. On a donc
(f f 1 )(w) = f (f 1 (w)) = f (v) = w.
| {z }
=v
Thorme 9.26. Soient V1 , V2 et V3 des espaces vectoriels de dimensions finies munis des bases
B1 , B2 et B3 respectivement. Soient f1 : V1 V2 et f2 : V2 V3 des applications linaires. Alors
[f2 f1 ]B3 ,B1 = [f2 ]B3 ,B2 [f1 ]B2 ,B1 .
Dmonstration. Posons n1 = dim(V1 ), n2 = dim(V2 ), n3 = dim(V3 ) et
B1 = {e1 , . . . , en1 }
B2 = {b1 , . . . , bn2 }
B3 = {1 , . . . , n3 }.
Ecrivons
11 1n2 11 1n1
.. .. .. ..
[f2 ]B3 ,B2 = . et [f1 ]B2 ,B1 = . .
. .
n3 1 n3 n2 n2 1 n2 n1
On a (f2 f1 )(e1 ) = f2 (f1 (e1 )) = f2 (11 b1 + + n2 1 bn2 ) = 11 f2 (b1 ) + + n2 1 f2 (bn2 )
= 11 [11 1 + + n3 1 n3 ] + + n2 1 [1n2 1 + + n3 n2 n3 ].
Ainsi, la premire colonne de [f2 f1 ]B3 ,B1 est
11 11 + + n2 1 1n2
11 21 + + n2 1 2n2
.
..
.
11 n3 1 + + n2 1 n3 n2
Mais ceci est aussi la premire colonne de la matrice [f2 ]B3 ,B2 [f1 ]B2 ,B1 . En faisant la mme chose
avec les autres colonnes, on remarque que [f2 ]B3 ,B2 [f1 ]B2 ,B1 et [f2 f1 ]B3 ,B1 sont deux matrices ayant
leurs colonnes gales. On a donc bien lgalit cherche.
Thorme 9.27. Soit f : V V une application linaire, et soit B une base de V . Alors les
conditions suivantes sont quivalentes :
(a) lapplication f est inversible ;
(b) La matrice [f ]B est inversible.
Dmonstration. Si f est inversible, alors, par le thorme prcdent, [f ]B [f 1 ]B = [f f 1 ]B = [I]B .
Ainsi, [f ]B est inversible et son inverse est [f 1 ]B .
Rciproquement, si [f ]B est inversible, il existe une matrice [g]B telle que [f ]B [g]B = I = [g]B [f ]B .
Par le thorme ci-dessus, [f g]B = I = [g f ]B , et les applications f g et g f sont toutes deux
gales lidentit. Donc f est bien inversible.
Thorme 9.28. Soient V un espace vectoriel de dimension finie, B et B 0 des bases de V et PB,B 0
la matrice de changement de base de B 0 B. Soit f : V V une application linaire. Alors
1
[f ]B 0 = PB,B 0 [f ]B PB,B 0 .
9.4. MATRICE DUNE APPLICATION LINAIRE 141
1
Dmonstration. Soit x V . Il faut montrer que PB,B 0 [f ]B PB,B 0 (v)B 0 = (f (v))B 0 . Rappelons que
1
PB,B 0 = PB 0 ,B et que PB,B 0 (v)B 0 = (v)B . On a alors
1
PB,B 0 [f ]B PB,B 0 (v)B 0 = PB 0 ,B [f ]B (v)B
= PB 0 ,B ([f ]B (v)B )
= PB 0 ,B (f (v))B
= (f (v))B 0 .
142 CHAPITRE 9. APPLICATIONS LINAIRES
Chapitre 10
Applications multilinaires et
tenseurs
La thorie des tenseurs offre un langage mathmatique simple et efficace pour dcrire des ph-
nomnes naturels, comme la trajectoire dun satellite, la circulation de la chaleur dans un corps ou
encore la focre lectromagntique dun lectron. Lobjectif du prsent chapitre est dintroduire la
notion de tenseur ainsi que certaines proprits associes. Celles-ci permettent, par exemple, dex-
pliquer les relations entre des quantits physiques et de prdire leur volution future.
Nous commenons ce chapitre en introduisant, dans le premier paragraphe, les tenseurs dordre
(0, 1) et ceux dordre (1, 0) : ce sont des formes linaires. Dans les paragraphes suivants, nous intro-
duirons les tenseurs dordre (0, m) (dits aussi m fois covariants) puis les tenseurs dordre (m, 0) (dits
m fois contravariants) avant de dfinir les tenseurs mixtes (p, q) : ce sont des formes multilinaires.
Ltude du comportement des tenseurs lors de changements de bases permettra dexpliquer les ter-
minologies covariant et contravariant (paragraphe 10.6). Ce chapitre clturera avec un paragraphe
sur les champs tensoriels.
f : V R.
Exemple 10.2.
1. Si V = Rn , lapplication de i-ime projection i : (x1 , ..., xn ) 7 xi est une forme linaire sur V .
2. Si V est lespace vectoriel des matrices carres de taille n, alors lapplication trace M 7 Tr(M )
dfinit une application linaire sur V .
3. Si V est un espace vectoriel muni dun produit scalaire gnralis <, > et si v0 un lment de
V , alors lapplication f : V R dfinie par f (v) =< v, v0 > est une forme linaire sur V .
143
144 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
On a donc :
V = {f : V R k f est linaire }.
Thorme 10.4. Lespace dual V est muni dune structure despace vectoriel.
Dmonstration. On vrifie facilement que laddition des formes linaires et leur multiplication par
un scalaire satisfont aux proprits des espaces vectoriels.
Si V est un espace vectoriel de dimension finie (voir Chapitre 6 pour la notion de dimension),
alors V est aussi de dimension finie, et leurs dimensions sont gales. Plus prcisment, chaque base
de V dtermine une base de V de la faon suivante :
Thorme 10.5. On suppose que lespace V est de dimension finie, avec dim(V ) = n.
Soit B = (e1 , ..., en ) une base de V . Soit B la famille (1 , ..., n ) de V o les i : V R sont
des applications linaires sur V donnes par :
i (ej ) = ij
et tendues linairement V .
Alors, la famille B forme une base de lespace dual V , appele base duale de la base B.
En particulier, on a bien :
dim(V ) = dim(V ).
Rappelons que le symbole ij dsigne le symbole de Kronecker, cest--dire la fonction qui vaut
1 si i = j et 0 sinon.
Dmonstration. Soit f une forme linaire sur V . Puisque toute forme linaire sur V est dtermine
par ses valeurs prises sur les ei , on a :
X n
f= fi i
i=1
Remarque
P 10.6. Si f est une application linaire sur V , alors, avec les notations prcdentes, on
a f = i fi i et les coordonnes fi sont appeles les coordonnes covariantes de f .
Nous allons dterminer la base B de V qui est duale de B, cest--dire identifier les formes linaires
sur R2 , notes 1 et 2 , telles que :
do a = 1 et b = 3. Puis :
2 (e1 ) = 2 (2, 1) = 2c + d = 0
2 (e2 ) = 2 (3, 1) = 3c + d = 1
do c = 1 et d = 2.
La base duale est donc :
Thorme 10.8. Si V est un espace de dimension finie, alors les espaces V et V sont isomorphes.
Dmonstration. Soit B = (e1 , ..., en ) une base de V et soit B = (1 , ..., n ) la base duale de V
correspondante, donne par le thorme 10.5. Daprs ce thorme, il est vident que lapplication :
B : V V
ei 7 i
Il est intressant de noter les relations suivantes entre une base B = (e1 , ..., en ) de V et sa base
duale B = (1 , ..., n ) de V . Ces relations expriment les coordonnes de tout vecteur v (resp. forme
linaire f ) dans la base B (resp. B ) :
vb := f 7 f (v)
est une forme linaire sur V , cest--dire un lment de V . On dfinit ainsi une application de
lespace V dans son bidual V , donne par :
: V V
v 7 vb.
Thorme 10.9. Lapplication est linaire et injective. De plus, lorsque lespace V est de dimen-
sion finie, est un isomorphisme.
146 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Dmonstration. Pour montrer la linarit, il faut montrer que (k v + w) = k (v) + (w) pour tout
k R et pour tout v, w V . Il faut donc montrer que k \
v + w = k vb + w.
b Ce qui est vrai car
B = {eb1 , eb2 , . . . , ec
n}
envoie ei sur ebi . Cet isomorphisme nest donc rien dautre que (en particulier, ne dpend plus de
B). Ceci prouve la dernire assertion du thorme.
Dans la suite, nous supposerons lespace V de dimension finie et nous identifierons souvent
les espaces V et V . Les vecteurs de V sont appels tenseurs dordre (1, 0), ou encore tenseurs
contravariants dordre 1.
Avec cette identification, remarquons que si (1 , ..., n ) est une base de V , duale dune base
(e1 , ..., en ) de V , alors (e1 , ..., en ) est aussi une base de V , duale de la base (1 , ..., n ).
f : V V R
est dite bilinaire si elle est linaire en chacun des facteurs, autrement dit, si :
(i) f (ku + v, w) = kf (u, w) + f (v, w) et si
(ii) f (u, kv + w) = kf (u, v) + f (u, w).
Lensemble des formes bilinaires sur V est un espace vectoriel o laddition et la multiplication
par un scalaire sont donnes par
et
(f )(u, v) = f (u, v).
Cet espace vectoriel est not Bil(V, R).
Si B = {e1 , e2 , . . . , en } est une base de V , on peut considrer les formes bilinaires particulires
i j 1 i n, 1 j n
dfinies par
(i j )(ek , el ) = ik jl .
Lensemble des i j forme alors une base de Bil(V, R). Les coordonnes fij dune forme bilinaire
f quelconque dans cette base sont simplement donnes par lvaluation de f au couple (ei , ej ).
Explicitement, on a
fij = f (ei , ej )
10.2. FORMES MULTILINAIRES SUR V : TENSEURS DORDRE (0, M ) 147
et X
f= fij (i j ).
i,j
Ainsi, si une base B de V est choisie, une forme bilinaire sur V nest rien dautre que la donne
dune matrice F = (fij ) de dimension n n o n = dim V . Si [u]B (resp. [v]B ) dsigne le vecteur des
coordonnes de u (resp. v) dans la base B, alors f (u, v) se calcule par le produit matriciel suivant :
Une forme bilinaire sur V est aussi appele un tenseur dordre (0, 2) ou encore un tenseur 2 fois
covariant. Cette terminologie provient du comportement de la forme lors dun changement de base
que nous verrons dans la section 10.6.
Remarque 10.11. La notation ci-dessus peut tre prise ici pour une simple notation.
Exemple 10.12. Soit V = Rn . Alors le produit scalaire usuel est une forme bilinaire (symtrique).
Sa matrice dans la base canonique est In .
Un produit scalaire gnralis est une forme bilinaire (symtrique). Il est reprsent par une
matrice A symtrique et dfinie positive.
f : V V R
| {z }
m
une application. On dit que f est une forme multilinaire ou tenseur dordre (0, m) si pour tout
1 i m, on a :
R3 R3 R3 R
f (x, y, z) = [x, y, z] = x (y z)
Cest pourquoi, on identifie les tenseurs dordre (1, 0) avec les vecteurs. En physique, la direction
que suit la trajectoire dun lectron un moment donn est reprsente par un vecteur et fournit
donc un exemple de tenseur 1 fois contravariant.
o fij = f (i , j ). Le choix de B tant fait (et donc aussi celui de B et de C), la forme f est
reprsente par une matrice F = (fij ).
Les formes bilinaires sur V V sont appeles tenseurs dordre (2, 0), ou encore tenseurs
contravariants dordre 2.
est appele un tenseur dordre (m, 0) ou tenseur m fois contravariant ou encore tenseur contravariant
dordre m.
nouveau, la terminologie de tenseur contravariant vient du comportement dune telle applica-
tion lors dun changement de bases (voir paragraphe 10.6).
10.4. TENSEURS MIXTES DORDRE (P, Q) 149
Dfinition 10.16 (Tenseur dordre (p, q)). Soient p et q des entiers 0. Un tenseur dordre (p, q)
est une application multilinaire :
f : V V V V R.
| {z } | {z }
p q
f : V V R.
Nous allons montrer quune telle application nest rien dautre quune application linaire :
: V V.
: V V,
f : V V R
en posant :
f (, u) = (u)()
d = ((u)).
On vrifie facilement que f est bilinaire et que lassociation 7 f est injective. Vrifions ici
linjectivit. Supposons que f soit lapplication triviale f (, u) = 0 pour tout u V et pour tout
V . Par dfinition de f , ceci implique que ((u)) = 0 pour tout u et tout . Mais ceci entrane
que (u) doit tre nul pour tout u V et donc que est lapplication nulle.
Pour des raisons de dimensions, linjectivit implique la surjectivit et on a donc montr que
donner une application bilinaire :
f : V V R
est quivalent donner une application linaire :
: V V.
Ce qui est remarquable, cest que les matrices de f et de sont les mmes, une base B de V
tant choisie. Soit B = {e1 , . . . , en } une base de V et B = {1 , . . . , n } sa base duale. La matrice
de f dans les bases B et B est dfinie par FB ,B = F = (fij ) avec
fij = f (ei , j ).
Mais, dautre part, la j-me colonne de la matrice []B est donne par limage de ej exprime dans
la base B. Ainsi, on a
[]ij = i ((ej )) = f (i , ej ) = fij
ce qui prouve que
[]B = FB ,B .
150 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
On a aussi une opration de multiplication entre tenseurs. Nous commenons par lexemple du
produit de deux formes linaires :
f : V R
g : V R .
Plus gnralement, on peut multiplier un tenseur dordre (p, q) avec un tenseur dordre (r, s) et
le rsultat est un tenseur dordre (p + r, q + s). Voici comment le produit est dfini. Soit :
f : V V V V R
| {z } | {z }
p q
g : V V V V R
| {z } | {z }
r s
f g : V V V V R
| {z } | {z }
p+r q+s
par :
Remarque 10.18. Lapplication identit Id : R R peut tre considre comme un tenseur dordre
(0, 0). Il joue alors le rle dlment neutre pour le produit dfini ci-dessus.
PBB0 = (ij )
dont la j-me colonne repsente les coordonnes de e0j dans la base B. En dautres termes
n
X
e0j = ij ei (10.1)
i=1
Dans la suite, nous noterons ij les coefficients de la matrice PB0 B , de sorte que lon a :
n
X
ei = e0k .
k=1
ou encore :
1
[v]B0 = PBB 0 [v]B , (10.4)
De mme, si B 0 = (e0 1, . . . , e0n ) est une autre base de V , de base duale B 0 = (10 , . . . , 0 n), et si on
note [f ]B0 la matrice de f dans cette base, ses coefficients sont donns par :
fi0 = f (e0i ),
de sorte que :
n
X
f= fi0 i0 .
i=1
Il sagit dcrire la matrice de passage de la base B 0 la base B et de voir les modifications sur
les coefficients de la matrice de f .
Pour cela, dterminons dabord les coefficients, nots ij de la matrice de passage PB B0 , dont
la j-me colonne est donne par les coefficients de lapplication j0 dans la base B .
0
P
Des relations j = i ij i et i (ej ) = ij , on dduit :
j0 (ei ) = ij ,
cest--dire :
= j0 ( k ki e0k )
P
ij
= ji ,
1
o les ij sont les coefficients de la matrice PB0 B = PBB 0.
On a donc prouv :
1 T
PB B0 = (PBB 0) . (10.5)
On peut maintenant calculer les coordonnes de f dans la base B 0 , i.e. trouver les fj0 tels que
X
f= fj0 j0 .
j
fj0 = f (e0j )
P
= Pi ij f (ei )
= Pi ij f (ei )
= i ij fi .
On a donc :
T
[f ]B0 = PBB 0 [f ]B . (10.6)
On constate que les formes linaires sur V se transforment comme les vecteurs de base tandis
que les vecteurs se transforment selon la rgle inverse (comparer (10.6) avec (10.2) et (10.4)).
10.6. CHANGEMENT DE BASES 153
Cest pour cette raison que les vecteurs (ou les formes linaires sur V ) sont appels
des tenseurs contravariants dordre 1 et les formes linaires sur V sont appeles des
tenseurs covariants dordre 1.
Le qualificatif contravariant concernerait donc les tenseurs dont les composantes se trans-
forment contrairement celles des vecteurs de base. Poursuivons notre investigation...
F 0 = PBB
T
0 F PBB 0 . (10.7)
Cette quation est du mme type que la relation (10.6). Les formes bilinaires suivent les mmes
rgles que les formes linaires lors dun changement de bases. Cest pourquoi, on dit aussi que les
formes bilinaires sur V sont des tenseurs covariants dordre 2.
1 1 T
F 0 = PBB 0 F (PBB 0 ) . (10.8)
On constate que cest la rgle inverse que pour un tenseur dordre (0, 2) (comparer avec 10.7).
En revanche, cest une loi similaire celle qui rgit le changement de coordonnes dun vecteur. Un
tenseur dordre (2, 0) est donc dit 2 fois contravariant.
Via lquivalence vue au paragraphe 10.4.2, et tenant compte du fait que = F , on obtient la
manire dont les coefficients dun tenseur dordre (1, 1) varient lors dun changement de bases. Cest
la mme rgle que pour une application linaire. Plus prcisment, si
f : V V R
est une application bilinaire de matrice F (resp. F 0 ) dans la base B (resp. B 0 ), alors on a
1
F 0 = PBB 0 F PBB 0 . (10.9)
On constate que la matrice de changement de base apparat droite de F mais que cest son
inverse qui apparait gauche. Cest pourquoi, un tenseur dordre (1, 1) est dit 1 fois covariant et
1 fois contravariant (comparer la relation (10.9) avec lquation (10.8) qui donne la rgle pour un
tenseur 2 fois covariant.)
154 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Dfinition 10.19 (Champ tensoriel). Un champ tensoriel est la donne en tout point y de lespace
dun tenseur dordre (p, q). Alors que le tenseur varie en fonction du point y E, lordre (p, q),
quant lui, est indpendant de y.
Exemple 10.20. Considrons un fluide localis dans une partie de lespace E. La vitesse du fluide
en chaque point de lespace est un tenseur dordre (0, 1).
u1 = u1 (x1 , . . . , xn )
(x1 , . . . , xn ) 7 ..
.
un = un (x1 , . . . , xn )
Explicitement, en chaque point y de lespace Rn , on a un changement de bases qui est donn par
X uj
e0i (y) = (y)ej (y).
j
xi
B
e2 (y)
D
P
e02 (y) `
y
e1 (y)
((
(
y0 e01 (y)
Dfinissons la matrice :
ui
= (ij ) := (y) .
xj
Cest la matrice de changement de base au point y. Son inverse est donn par
1 xi
= = (ij ) = (y) .
uj
Ces deux matrices dpendent du point y.
E = Rn Rn
y 7 v(y)
ou matriciellement
[v 0 ] = [v].
Cette rgle est similaire celle obtenue en (10.3), avec comme seule diffrence que la matrice de
changement de bases dpend du point y et est donne par la matrice jacobienne = 1 .
On parle dans ce cas de champ contravariant.
w(y) : Rn R.
On peut, en tout point y, considrer la base duale de B(y) que lon note B (y). Comme prcdemment,
si
B (y) = {i (y)}
alors chaque forme linaire w(y) scrit
X
w(y) = wi (y) i (y).
i
156 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS
Le changement de coordonnes donn par induit un changements des coordonnes wi (y) qui suit
la rgle suivante :
X xj
wi0 (y) = (y)wj (y)
j
ui
Ce rsultat nest pas surprenant. Lquation (10.10) est semblable la relation (10.6), la matrice
PBB0 ayant t remplae par la matrice .
On parle dans ce cas dun champ covariant.
[1] H. Anton and C. Rorres. Elementary linear Algebra. Applications Version. John Wiley &
Sons, Inc. New York, 2000.
[2] R. Dalang and A. Caabouni. Algbre linaire, Aide-mmoire, exercices et applications.
[3] D. Danielson. Vectors and Tensors in Enginee and Physics. Addison-Wesley Publishing Com-
pany, 1992.
[4] T. Liebling. Algbre linaire : une introduction pour ingnieurs.
157
158 BIBLIOGRAPHIE
Index
second membre, 47
somme
de matrices, 19
de tenseurs, 143
de vecteurs, 49, 64
sous-espace vectoriel, 80
sphre unit, 102
surjective (application), 75
systme dquations linaires, 6
systme normal, 115
tenseur, 139
triangle (ingalit du), 66, 104
Id - application identit, 70
<, > - produit scalaire (gnralis), 101
det(A) - dterminant de A, 35
e1 , . . ., en - base standard, 78
Ei (c), Eij (c), Eij - matrices lmentaires, 25
E - espace propre, 119
fA - application associe A, 70
[f ]B 0 ,B - matrice de f dans les bases B et B 0 ,
136
f , F - applications (linaires), 69, 127
[f ], [F ] - matrice standard, 70
In , I - matrice identit, 21
Im(f ) - image de f , 132
Ker(A) - noyau de A, 93
Ker(f ) - noyau de f , 132
null(A) - nullit de A, 96
rg(A) - rang de A, 95
Rn - espace rel de dimension n, 63
V - dual de V , 139
k v k - norme de v, 51, 65
V , W - espace, sous-espace vectoriel, 79
x1 , x2 , x3 - variables, 5