You are on page 1of 160

COLE POLYTECHNIQUE

FDRALE DE LAUSANNE

Algbre Linaire
Bachelor 1re anne
2009 - 2010

Gnie Civil
&
Sciences et Ingnierie de lEnvironnement

Support du cours de Dr. Lara Thomas

Polycopi initial labor par


Prof. Eva Bayer Fluckiger
Dr. Philippe Chabloz

Septembre 2009
2
Table des matires

1 Systmes dquations linaires et matrices 7


1.1 Introduction aux systmes dquations linaires . . . . . . . . . . . . . . . . . . . . . 7
1.2 Systmes linaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Elimination Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Algorithme dlimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Mthode de rsolution dun systme dquations linaires . . . . . . . . . . . 16
1.4 Systmes homognes dquations linaires . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Elments du calcul matriciel 19


2.1 Quelques dfinitions et oprations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Le produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Matrice identit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Rgles du calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Ecriture matricielle des systmes dquations linaires . . . . . . . . . . . . . . . . . 22
2.5 Linversion des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.1 Matrices 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2 Puissances dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Les matrices lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Calcul de linverse dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 La transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.10 La trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.11 Matrices symtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.12 Matrices antisymtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Le dterminant 33
3.1 Permutations et dterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2 et 3 3 . 36
3.2 Dterminants et oprations lmentaires . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3 Les cofacteurs et la rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Calcul du dterminant par la mthode des cofacteurs . . . . . . . . . . . . . . 43
3.3.2 Calcul de linverse par la mthode des cofacteurs . . . . . . . . . . . . . . . . 45
3.3.3 Systmes linaires : rgle de Cramer . . . . . . . . . . . . . . . . . . . . . . . 47

4 Calcul vectoriel dans le plan et dans lespace 49


4.1 Dfinitions et rgles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1 Systmes de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.2 Proprits du calcul vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2 Le produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.1 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Le produit vectoriel (cross product) . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.1 Interprtation gomtrique du produit vectoriel . . . . . . . . . . . . . . . . . 58
4.4 Le produit mixte (triple product) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5 Droites et plans dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . 61
4.5.1 Equation du plan passant par un point P0 et ayant vecteur normal n . . . . . 61

3
4 TABLE DES MATIRES

4.5.2 Droites dans lespace de dimension 3 . . . . . . . . . . . . . . . . . . . . . . . 62

5 Espaces euclidiens et applications linaires 65


5.1 Espaces de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.1 Dfinitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.1.2 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.3 Norme et distance dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.4 Reprsentation matricielle des vecteurs de Rn . . . . . . . . . . . . . . . . . . 68
5.1.5 Formule matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . . 69
5.1.6 Multiplication des matrices et produit scalaire . . . . . . . . . . . . . . . . . 70
5.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.1 Rappels sur les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.3 Quelques exemples dapplications linaires . . . . . . . . . . . . . . . . . . . . 72
5.2.4 Rotations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.5 Composition dapplications linaires . . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6 Espaces vectoriels 81
6.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2.1 Espace des solutions dun systme dquations linaires homognes . . . . . . 84
6.3 Combinaison linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.4 Indpendance linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4.1 Interprtation gomtrique de la dpendance linaire . . . . . . . . . . . . . . 88
6.5 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.6 Espace des lignes et colonnes dune matrice . . . . . . . . . . . . . . . . . . . . . . . 94
6.7 Changements de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.7.1 Changement de bases en 2 dimensions . . . . . . . . . . . . . . . . . . . . . . 99
6.7.2 Dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

7 Produits scalaires gnraliss 103


7.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2 Angles et orthogonalit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.2.1 Angle form par deux vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 107
7.3 Bases orthogonales et mthode de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 110
7.4 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4.1 Dfinition et Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4.2 Changement de bases orthonormes . . . . . . . . . . . . . . . . . . . . . . . 115
7.4.3 Dcomposition Q-R : application du thorme 7.30 . . . . . . . . . . . . . . . 115
7.5 La mthode des moindres carrs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.5.1 Solution approximative dun systme dquations linaires . . . . . . . . . . . 117

8 Diagonalisation des matrices 121


8.1 Dfinitions et premires proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.1.1 Calcul des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2.1 Mthode pour diagonaliser une matrice . . . . . . . . . . . . . . . . . . . . . 127
8.3 Matrices symtriques et diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 128

9 Applications linaires 131


9.1 Dfinitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
9.1.1 Proprits des applications linaires . . . . . . . . . . . . . . . . . . . . . . . 134
9.1.2 Expression dune application linaire dans une base . . . . . . . . . . . . . . 134
9.2 Noyau et image dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . 136
9.3 Applications linaires inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.4 Matrice dune application linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
TABLE DES MATIRES 5

10 Applications multilinaires et tenseurs 143


10.1 Formes linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.1.1 Formes linaires sur V : tenseurs dordre (0,1) . . . . . . . . . . . . . . . . . . 143
10.1.2 Espace dual, bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.1.3 Formes linaires sur V : tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . 145
10.2 Formes multilinaires sur V : tenseurs dordre (0, m) . . . . . . . . . . . . . . . . . . 146
10.2.1 Formes bilinaires sur V : tenseurs dordre (0, 2) . . . . . . . . . . . . . . . . 146
10.2.2 Tenseurs dordre (0, m) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
10.2.3 Quelques interprtations physiques . . . . . . . . . . . . . . . . . . . . . . . . 147
10.3 Formes multilinaires sur V : tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . 148
10.3.1 Une remarque sur les tenseurs dordre (1, 0) . . . . . . . . . . . . . . . . . . . 148
10.3.2 Formes bilinaires sur V : tenseurs dordre (2, 0) . . . . . . . . . . . . . . . . 148
10.3.3 Tenseurs dordre (m, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.4 Tenseurs mixtes dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.4.1 Tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.4.2 Exemple des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . 149
10.5 Oprations sur les tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10.6.1 Cas des tenseurs dordre (1, 0) (vecteurs de V ) . . . . . . . . . . . . . . . . . 151
10.6.2 Cas des tenseurs dordre (0, 1) (formes linaires sur V ) . . . . . . . . . . . . . 151
10.6.3 Cas des tenseurs dordre (0, 2) (formes bilinaires sur V ) . . . . . . . . . . . 153
10.6.4 Cas des tenseurs (2, 0) (formes bilinaires sur V ) . . . . . . . . . . . . . . . 153
10.6.5 Cas des tenseurs dordre (1, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . 153
10.6.6 Cas des tenseurs dordre (p, q) . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7 Champs tensoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.2 Changements de coordonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
10.7.3 Cas dun champ tensoriel dordre (1, 0) (champ vectoriel) . . . . . . . . . . . 155
10.7.4 Cas dun champ tensoriel dordre (0, 1) . . . . . . . . . . . . . . . . . . . . . . 155
10.7.5 Cas dun champ quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Index des notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6 TABLE DES MATIRES
Chapitre 1

Systmes dquations linaires et


matrices

Lalgbre linaire est un outil essentiel pour toutes les branches des mathmatiques appliques,
en particulier lorsquil sagit de modliser puis rsoudre numriquement des problmes issus de divers
domaines : des sciences physiques ou mcaniques, des sciences du vivant, de la chimie, de lconomie,
des sciences de lingnieur,...

Par exemple, la physique abonde de relations linaires : les lois fondamentales du mouvement
sont presque toutes linaires, ou se dduisent de lois linaires. Les systmes lectriques sont fonda-
mentalement dcrits par des lois linaires (V = RI, etc.) Cest pourquoi, le prsent cours commence
avec une tude des quations linaires et de leur rsolution.

1.1 Introduction aux systmes dquations linaires


Lquation dune droite dans le plan xy scrit
a1 x + a2 y = b
o a1 , a2 et b sont des paramtres rels. Cette quation sappelle quation linaire dans les variables
(ou inconnues) x et y.

Exemple 1.1.
2x + 3y = 6

y
Q
Q
Q
Q
Q
Q
Q
Q
1 Q
Q
Q
Q
Q
Q
Q
1 2 QQ x

Exemple 1.2. Les quations suivantes ne sont pas des quations linaires :
2x + y 2 = 1
y = sin(x)

x= y

7
8 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

Dfinition 1.3. De manire gnrale, on appelle quation linaire dans les variables x1 , ...., xn toute
relation de la forme
a1 x1 + + an xn = b (1.1)
o a1 , . . . , an et b sont des nombres rels.

Il importe dinsister ici que ces quations linaires sont implicites, cest--dire quelles dcrivent
des relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre
les variables.
Rsoudre une quation signifie donc la rendre explicite, cest--dire rendre plus apparentes les
valeurs que les variables peuvent prendre.
Une solution de lquation linaire (1.1) est un n-uple s1 , . . . , sn de valeurs des variables x1 , . . . , xn
qui satisfont lquation (1.1). Autrement dit

a1 s1 + + an sn = b.

Par la suite, nous tudierons lensemble des solutions dune quation linaire.

Exemple 1.4. Trouvons lensemble des solutions de lquation

x1 4x2 + 13x3 = 5.

Nous donnons des valeurs arbitraires s et t x2 et x3 respectivement et rsolvons lquation par


rapport x1 :
x2 = s, x3 = t et x1 = 4s 13t + 5.

Lensemble des solutions est alors

x1 = 4s 13t + 5, x2 = s, x3 = t

o s et t sont des nombres rels quelconques.

Dfinition 1.5. Un ensemble fini dquations linaires dans les variables x1 , . . . , xn sappelle un
systme dquations linaires. Tout nuplet de nombres s1 , . . . , sn satisfaisant chacune des quations
sappelle solution du systme dquations linaires.

Exemple 1.6. Le systme



x1 3x2 + x3 = 1
2x1 + 4x2 3x3 = 9

admet comme solution

x1 = 18 , x2 = 6 , x3 = 1 .

Par contre
x1 = 7 x2 = 2 x3 = 0
ne satisfait que la premire quation. Ce nest donc pas une solution du systme.

Dfinition 1.7. Un systme dquations est dit incompatible ou inconsistant sil nadmet pas de
solutions.

Exemple 1.8. Le systme linaire



x1 + x2 = 1
2x1 + 2x2 = 1

est clairement incompatible.


1.1. INTRODUCTION AUX SYSTMES DQUATIONS LINAIRES 9

Considrons le systme 
a11 x1 + a12 x2 = b1
(1.2)
a21 x1 + a22 x2 = b2
avec a11 a12 6= 0 et a21 a22 6= 0.
Ces deux quations reprsentent deux droites d1 et d2 dans le plan x1 x2 et une solution du
systme est un point (s1 , s2 ) qui est sur les deux droites. Trois cas se prsentent alors :
(1) Les droites d1 et d2 se coupent en un seul point. Dans ce cas, illustr par la figure 1.1, le systme
(1.2) a une seule solution.
(2) Les droites d1 et d2 sont parallles. Alors le systme est incompatible et na pas de solution. La
figure 1.2 illustre cette situation.
(3) Les droites d1 et d2 sont confondues et, dans ce cas, le systme a une infinit de solutions.
Nous verrons plus loin que ces trois cas de figures (aucune solution, une seule solution, une infinit
de solutions) sont les seuls cas qui peuvent se prsenter pour nimporte quel systme dquations
linaires.

x2
l
d2
l
l
l
l
l

l
l
l d
l 1
l
l x1
l
l
l

Fig. 1.1 Droites se coupant en un seul point

x2
l
l
l
l l
l l
l d2
l l
l l
d1ll l
l l
l l
l l x1
l l
l l
l l

Fig. 1.2 Droites parallles


10 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

x2
l
l
l
l
l
l
l d1 = d2
l
l
l
l
l x1
l
l
l

Fig. 1.3 Droites confondues

1.2 Systmes linaires et matrices


Considrons un systme quelconque de m quations n inconnues,

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2

.. .. (1.3)


. .
am1 x1 + am2 x2 + + amn xn = bm .

o le nombre rel aij est le coefficient de la j-me inconnue dans la i-me quation.

Dfinition 1.9 (Matrice augmente). Nous obtenons la matrice augmente associe au systme en
oubliant les variables xi et les signes + et =. La matrice augmente aasocie au systme (1.3)
est alors
a11 a12 a1n b1
a21 a22 a2n b2

.. .. .. .. ..
. . . . .
am1 am2 amn bm
Exemple 1.10. Considrons le systme linaire

x1 + x2 + 7x3 = 1
2x1 x2 + 5x3 = 5
x1 3x2 9x3 = 5.

Sa matrice augmente est


1 1 7 1
2 1 5 5 .
1 3 9 5
La mthode de base pour rsoudre un systme dquations linaires est de remplacer le systme
par un autre, plus simple, ayant le mme ensemble de solutions. Ceci se fait par une succession
doprations, appeles oprations lmentaires :
(1) multiplier une quation par une constante non nulle ;
(2) permuter deux quations ;
(3) ajouter un multiple dune quation une autre quation.
Les oprations (1), (2) et (3) ne changent pas lensemble des solutions. Elles correspondent des
oprations lmentaires sur les lignes de la matrice augmente. Ces oprations sont les suivantes :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ; ()
1.2. SYSTMES LINAIRES ET MATRICES 11

(3) ajouter un multiple dune ligne une autre ligne.

Exemple 1.11. Utilisons ces oprations lmentaires pour rsoudre le systme suivant.

x + y + 7z = 1
2x y + 5z = 5
x 3y 9z = 5

Nous calculons la matrice augmente associe au systme :



1 1 7 1
2 1 5 5
1 3 9 5
puis faisons les oprations lmentaires ncessaires sur le systme et sur la matrice augmente.
(3) `2 `2 2`1

x + y + 7z = 1
3y 9z = 3
x 3y 9z = 5

(3) `2 `2 2`1

1 1 7 1
0 3 9 3
1 3 9 5
Nous remarquons que les oprations lmentaires peuvent tre faites uniquement sur la matrice
augmente pour revenir la fin au systme dquations. Cest ce que nous faisons dans la suite.
(3) `3 `3 + `1

1 1 7 1
0 3 9 3
0 2 2 6
(1) `2 31 `2

1 1 7 1


0 1 3 1

0 2 2 6

(3) `3 `3 + 2`2

1 1 7 1


0 1 3 1

0 0 4 4

(1) `3 41 `3

1 1 7 1


0 1 3 1

0 0 1 1

(3) `1 `1 7`3
12 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES


1 1 0 6


0 1 3 1

0 0 1 1

(3) `2 `2 3`3

1 1 0 6
0 1 0 4
0 0 1 1
(3) `1 `1 `2

1 0 0 2
0 1 0 4
0 0 1 1
Cette matrice augmente correspond au systme

x = 2
y = 4
z = 1.

On obtient ainsi lunique solution su systme : x = 2, y = 4 et z = 1.

Cet exemple est gnralis dans le paragraphe suivant.

1.3 Elimination Gaussienne


Il sagit dune mthode qui permet de trouver lensemble des solutions de nimporte quel systme
dquations linaires. La mthode consiste mettre la matrice augmente du systme sous une forme
simple, dite forme chelonne (rduite) par une srie doprations lmentaires (1), (2), (3) de ().
Commenons par poser la dfinition suivante :

Dfinition 1.12 (matrice chelonne). Une matrice est appele matrice chelonne si elle a les
proprits suivantes :
(i) Dans toute ligne non nulle, le premier lment non nul vaut 1. Il est appel le 1 directeur.
(ii) Les lignes dont tous les lments sont nuls sont regroupes en bas de la matrice.
(iii) Dans deux lignes successives (contigus) ayant des lments non nuls, le 1 directeur de la ligne
infrieure se trouve droite du 1 directeur de la ligne suprieure.

Exemple 1.13. La matrice


0 1 3 6 0
1 3 1 0 2
0 0 1 1 7
satisfait la proprit (i) mais pas la proprit (iii), alors que la matrice suivante
 
0 3 1
1 1 0
ne satisfait pas la proprit (i). En revanche, la matrice

0 1 7 6


0 0 0 1

0 0 0 0
1.3. ELIMINATION GAUSSIENNE 13

satisfait (i), (ii) et (iii) : elle est donc sous forme chelonne. Finalement, la matrice

0 0 1 1 1


0 1 0 0 3

0 0 0 0 0

satisfait (i), (ii) mais pas (iii).


On peut raffiner un peu la dfinition prcdente en posant :
Dfinition 1.14 (matrice chelonne rduite). Si, en plus des proprits (i)-(iii) ci-dessus, la matrice
satisfait la proprit (iv) ci-dessous, on parle de matrice chelonne rduite :
(iv) Toute colonne contenant un 1 directeur a des zros partout ailleurs.
Exemple 1.15. La matrice
1 0 0 3
0 0 1 1
0 0 0 0
est chelonne rduite, alors que la matrice

1 0 1 2
0 0 1 1
0 0 0 0

est sous forme chelonne non rduite ( cause de la 3-me colonne).


On peut transformer nimporte quelle matrice en une matrice chelonne (rduite) en utilisant
lalgorithme de Gauss.

1.3.1 Algorithme dlimination de Gauss


Cet algorithme permet de transformer nimporte quelle matrice sous sa forme chelonne rduite
laide des oprations lmentaires (1)-(3) de (). Voici la marche suivre illustre par un exemple.
(1) Identifier la colonne se trouvant le plus gauche contenant au moins un lment non nul.
Exemple :
0 0 1 3
0 3 0 1
0 3 1 2
2eme colonne
(2) Permuter, sil le faut, la premire ligne avec une autre, pour que llment en haut de la colonne
identifie en (1) devienne non nul.
Exemple (suite) :

0 0 1 3 -
0  3 0 1 .
0 3 1 2
`1 `2 
0 3 0 1
0 
0 1 3
0 3 1 2
1
(3) Si llment se trouvant en haut de la dite colonne vaut a, multiplier la premire ligne par a
pour y faire apparatre le 1 directeur.
Exemple (suite) :
0 3 0 1
0 0 1 3
0 3 1 2
14 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

`1 13 `1
1

0 1 0 3
0 0 1 3
0 3 1 2
(4) Ajouter des multiples adquats de la premire ligne aux lignes en-dessous pour annuler les
lments en dessous du 1 directeur.
Exemple (suite) :

0 1 0 13

0  0 1 3
0 3 1 2

`3 `3 3`1

0 1 0 13

0  0 1 3
0 0 1 1

(5) Couvrir la premire ligne de la matrice, et aller (1)
Exemple (suite) :
 
0 0 1 3
0 0 1 1
(4) `2 `2 `1
 
0 0 1 3
0 0 0 2
(3) `2 21 `2
 
0 0 1 3
0 0 0 1
(6) La matrice entire est chelonne.
Exemple (suite) : On remet la premire ligne en place

1 0 31

0
0 0 1 3
0 0 0 1
(7) Pour la mettre sous la forme chelonne rduite, il faut ajouter une ligne des multiples
adquats des lignes situes au-dessous delle en allant du bas vers le haut.
Exemple (suite) :

0 1 0 13

0 0 1 3
0 0 0 1
`2 `2 3`3
1

0 1 0 3
0 0 1 0
0 0 0 1
`1 `1 13 `3

0 1 0 0
0 0 1 0
0 0 0 1
1.3. ELIMINATION GAUSSIENNE 15

Les deux exemples ci-dessous illustrent encore lalgorithme. Lexemple 1.16 illustre le point (7)
partir dune matrice qui est dj sous forme chelonne mais pas rduite. Dans lexemple 1.17, on
effectue lalgorithme dans son entier.

Exemple 1.16. 
1 4 

0 1
0 
1 2 1
0 0 
1 3
`2 `2 2`3

1 4 

0 1
0 1 0 7
0 0 
1 3

1 4 0 1

0 1 0 7
0 0 1 3
`1 `1 4`2

1 0 0 29
0 
1 0 7
0 0 1 3

Exemple 1.17.
0 1 1 5 1
0 1 2 0 3
1 3 2 0 1

(1) 1ere colonne



1 3 2 0 1
0 1 2 0 3
0 1 1 5 1
(2) `1 `3
 
0 1 2 0 3
0 1 1 5 1
2eme colonne
(4) `2 `2 `1
 
0 1 2 0 3
0 0 1 5 4
On remet en place la premire ligne pour obtenir

1 3 2 0 1
0 1 2 0 3 .
0 0 1 5 4
La matrice est maintenant sous forme chelonne. Il reste la mettre sous la forme chelonne
rduite.
(7) `2 `2 + 2`3

1 3 2 0 1
0 1 0 10 5
0 0 1 5 4
(7) `1 `1 2`3
16 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES


1 3 0 10 7
0 1 0 10 5
0 0 1 5 4
(7) `1 `1 + 3`2

1 0 0 20 8
0 1 0 10 5
0 0 1 5 4
La matrice est sous forme chelonne rduite. Un systme dont la matrice augmente est sous
forme chelonne rduite est trs simple rsoudre comme nous allons le voir ci-aprs.

1.3.2 Mthode de rsolution dun systme dquations linaires


Aprs avoir mis la matrice augmente du systme sous forme chelonne rduite, on procde
selon les deux tapes suivantes.
(1) Donner une valeur arbitraire chaque variable dont la colonne ne contient pas de 1 directeur.
Ces variables sont les variables libres.
(2) Rsoudre chaque quation en exprimant la variable correspondant au 1 directeur, appele
variable directrice, en fonction des autres variables.
Exemple 1.18. La matrice
1 0 0 2
0 1 0 4
0 0 1 1
est chelonne rduite.
Elle correspond au systme

x
= 2
y = 4

z = 1.

Toutes les variables sont des variables directrices.


La solution est donc

x = 2, y = 4, z = 1.
Exemple 1.19. La matrice
0 1 3 0 1
0 0 0 1 5
0 0 0 0 0
est chelonne rduite. Elle correspond au systme
(
0x1 + x2 + 3x3 + 0x4 = 1
x4 = 5.
Les variables directrices sont x2 et x4 car les colonnes 2 et 4 de la matrice contiennent un 1
directeur, alors que x1 et x3 sont les variables libres.
Posons
x1 = s, x3 = t.
On obtient
x2 = 1 3t, x4 = 5
et lensemble des solutions du systme est :

x1 = s, x2 = 1 3t, x3 = t, x4 = 5, pour tout t, s R.


1.4. SYSTMES HOMOGNES DQUATIONS LINAIRES 17

1.4 Systmes homognes dquations linaires


Un systme homogne est un systme dont les termes constants sont tous nuls. Il est de la forme


a11 x1 + a12 x2 + + a1n xn = 0
a21 x1 + a22 x2 + + a2n xn = 0


...
am1 x1 + am2 x2 + + amn xn = 0.

Tout systme homogne dquations linaires est consistant, car il a au moins la solution dite
triviale x1 = x2 = = xn = 0. Un systme homogne dquations linaires a ou bien une seule
solution (la solution triviale), ou bien une infinit de solutions. En effet, supposons que le systme
admette la solution
x1 = t1 , . . . , xn = tn
avec au moins lun des ti 6= 0. Alors, pour un nombre rel k quelconque,

x1 = kt1 , . . . , xn = ktn

est aussi solution du systme.

Thorme 1.20. Tout systme homogne dquations linaires dont le nombre dinconnues est plus
grand que le nombre dquations a une infinit de solutions.

Dmonstration. Soit m le nombre de colonnes et n le nombre dquations. La matrice augmente du


systme a alors m + 1 colonnes et n lignes. Il sensuit que sa forme chelonne rduite doit comporter
au moins une colonne sans 1 directeur. Supposons que ce soit la j-me avec 1 j m. Cette colonne
correspond une variable libre xj = s et il y a donc une infinit de solutions puisque le systme est
compatible.

Exemple 1.21. Considrons le systme homogne




3x1 + 3x2 2x3 x5 = 0
x1 x2 + x3 + 3x4 + x5 = 0


2x1 + 2x2 x3 + 2x4 + 2x5 = 0
x3 + 8x4 + 4x5 = 0

Sa matrice augmente est



3 3 2 0 1 0
1 1 1 3 1 0

2 2 1 2 2 0
0 0 1 8 4 0
et la forme chelonne rduite est

1 1 0 0 13 0
0 0 1 0 20 0

0 0 0 1 2 0
0 0 0 0 0 0
Cette matrice correspond donc au systme

x1 + x2 + 13x5 = 0
x3 + 20x5 = 0
x4 2x5 = 0

Les variables directrices sont x1 , x3 et x4 alors que les variables libres sont x2 et x5 . Posons alors

x2 = s
x5 = t.
18 CHAPITRE 1. SYSTMES DQUATIONS LINAIRES ET MATRICES

On obtient

x1 = s 13t
x3 = 20t
x4 = 2t .

Lensemble des solutions est donc

x1 = s 13t, x2 = s, x3 = 20t, x4 = 2t , x5 = t,

qui est bien infini.


Chapitre 2

Elments du calcul matriciel

2.1 Quelques dfinitions et oprations


Dfinition 2.1 (Matrice). Une matrice (relle) A est un tableau rectangulaire de nombres (rels).
Elle est dite de taille m n si le tableau possde m lignes et n colonnes. Les nombres du tableau
sont appels les lments de A. Llment situ la i-me ligne et la j-me colonne est not aij .
La matrice A est galement note
A = (aij ) 1in
1jm

ou plus simplement
A = (aij )ij
si le nombre de lignes et de colonnes est connu par ailleurs.

Exemple 2.2.  
1 2 5
A=
0 3 7
est une matrice 2 3 avec, par exemple, a11 = 1 et a23 = 7.

Si n = m, la matrice est dite carre.



a11 a12 ... a1n

a21 a22 ... a2n

.. .. .. ..
. . . .
an1 an2 ... ann

matrice carre n n

Dans le cas dune matrice carre, les lments a11 , a22 , . . . ann sont appels les lments diagonaux.

a11 

a21 . . . a1n
 a22 . . . a2n
a21 
.. .. .. ..
. . .  .
an1 an2 . . . a nn

Deux matrices sont gales lorsquelles ont la mme taille et que les lments correspondants sont
gaux.

Dfinition 2.3 (Somme de deux matrices). On peut dfinir la somme de deux matrices si elles sont
de mme taille. Soient A etB deux matrices de taille m n. On dfinit leur somme C = A + B, de
taille m n, par
cij = aij + bij .
En dautres termes, on somme composante par composante.

19
20 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

Exemple 2.4.
     
3 2 0 5 3 3
A= , B= , A+B =
1 7 2 1 3 6
   
4 1 2
A= , B= , A + B nest pas dfinie.
3 2 8

La matrice (de taille m n) dont tous les lments sont des zros est appele la matrice nulle et
note 0nm ou plus simplement 0. Cest llment neutre pour laddition, cest--dire que A + 0 = A.

Dfinition 2.5 (Produit dune matrice par un scalaire). Le produit dune matrice A par un scalaire
k est form en multipliant chaque lment de A par k. Il est not kA.

Exemple 2.6. Soient


 
3 2
A= et k = 3.
0 6
 
9 6
Alors kA = .
0 18

La matrice (1)A est note A et la diffrence A B est dfinie par A + (B).

Exemple 2.7.
 
2 1 0
A=
4 5 2
 
1 4 2
B=
7 5 3
 
3 5 2
AB =
3 0 1

2.2 Le produit matriciel


Le produit AB de deux matrices A et B est dfini seulement si le nombre de colonnes de A est
gal au nombre de lignes de B :

Dfinition 2.8 (Produit de deux matrices). Soit A = (aij ) une matrice m n et B = (bij ) une
matrice n p. Alors le produit C = AB est une matrice m p dont les lments cij sont dfinis par
n
X
cij = ai1 b1j + ai2 b2j + + aim bmj = aik bkj.
k=1

 
b11 . . . b1r
b ..
21 .
AB = C :
. ..

..

.
bm1 . . . bmr
 c11 
... c1r

a11 ... ... a1m  
a21 a22 ... a2m ..


c21 .
.. .. 
. . ..
..
. .
an1 ... ... anm cn1 . . . cnr

c21 = a21 b11 + a22 b21 + + a2m bm1


2.3. RGLES DU CALCUL MATRICIEL 21

Exemple 2.9.

4
(2 3 1) 2 = (8 6 3) = (1)
3

13 31 11
Exemple 2.10.

3  3 6 9 0
2 1 2 3 0 = 2 4 6 0
1 1 2 3 0

31 14 34

2.2.1 Matrice identit


Dfinition 2.11. La matrice carre n n

1 0 ... 0
0 1 ... 0
In =

.. .. .. ..
. . . .
0 0 ... 1
sappelle la matrice identit. Ses lments diagonaux sont gaux 1 et tous ses autres lments
sont gaux 0.
Dans le calcul matriciel, la matrice identit joue un rle analogue celui du nombre 1 dans
larithmtique des scalaires. Cest llment neutre pour la multiplication. En dautres termes, si A
une matrice m n, alors

Im A = A et AIn = A.

2.3 Rgles du calcul matriciel


Sous l hypothse que les tailles des matrices soient compatibles avec les oprations indiques, on
a les rgles suivantes :
(a) Commutativit de la somme : A + B = B + A
(b) Associativit de la somme : A + (B + C) = (A + B) + C.
(c) Associativit du produit : A(BC) = (AB)C
(d) Distributivit du produit par rapport la somme : A(B + C) = AB + AC
(B + C)A = BA + CA
(e) A + 0 = A
(f) AI = IA = A
(g) A 0 = 0 A = 0

ATTENTION !
Le produit des matrices nest pas ncessairement commutatif. On peut avoir
AB 6= BA.
Exemple 2.12.    
1 0 2 1
A = B =
2 5 3 0
   
2 1 4 5
AB = BA = .
11 2 3 0
22 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

ATTENTION ! Il peut arriver que le produit de deux matrices non nulles soit nul. En dautres
termes, on peut avoir A, B 6= 0 et AB = 0.

Exemple 2.13.
     
0 1 2 3 0 0
A= , B= et AB = .
0 5 0 0 0 0

Ce qui prcde implique, par distributivit, que lon peut avoir AB = AC et B 6= C.

Exemple 2.14.
     
0 1 4 1 2 5
A= , B= , C=
0 3 5 4 5 4
 
5 4
AB = AC = .
15 12

2.4 Ecriture matricielle des systmes dquations linaires


Le systme linaire

a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2


...
am1 x1 + am2 x2 + + amn xn = bm

peut scrire sous forme matricielle :



a11 . . . a1n x1 b1
a21 . . . a2n x2 b2
= .

.. .. .. ..
. . . .
am1 ... amn xn bm
| {z } | {z } | {z }
A x B

On appelle A la matrice des coefficients du systme. Le vecteur x est une solution du systme si
et seulement si
Ax = B.

Thorme 2.15. Un systme dquations linaires na soit aucune solution, soit une seule solution,
soit une infinit de solutions.

Dmonstration. Soit Ax = B la reprsentation matricielle du systme. On est ncessairement dans


lun des cas ci-dessous :
(a) le systme est incompatible (aucune solution) ;
(b) le systme a une seule solution ;
(c) le systme a plusieurs solutions.
Pour dmontrer le thorme , il suffit alors de montrer que dans le cas (c) il y a une infinit de
solutions.
Soient x1 et x2 des solutions distinctes du systme. Alors Ax1 = B et Ax2 = B. Donc Ax1 Ax2 =
0 et A(x1 x2 ) = 0.
Posons
x0 = x1 x2 .
On a x0 6= 0, car x1 6= x2 et lexpression
x1 + kx0
est une solution du systme pour tout nombre rel k. En effet, A(x1 +kx0 ) = Ax1 +kAx0 = B+0.
2.5. LINVERSION DES MATRICES 23

Thorme 2.16. Supposons que le systme




a11 y1 + a12 y2 + + a1n yn = c1
a21 y1 + a22 y2 + + a2n yn = c2


...
am1 y1 + am2 y2 + + amn yn = cm

dtermine les variables y1 , . . . , yn en fonction de constantes c1 , . . . , cm , et que le systme




b11 x1 + b12 x2 + + b1p xp = y1
b21 x1 + b22 x2 + + b2p xp = y2


...
bn1 x1 + bn2 x2 + + bnp xp = yn

exprime les variables x1 , . . . , xp en fonction des variables y1 , . . . , yn .


crivons ces systmes sous la forme compacte

Ay = c, Bx = y.

Alors le systme dterminant les variables x1 , . . . , xp en fonction des constantes c1 , . . . , cm est


donn par
(AB)x = c.

Quelques cas particuliers


Dans le cas particulier n = m = 2 (2 quations 2 inconnues) le systme linaire correspond
lintersection de deux droites dans le plan. Nous avons vu, dans le chapitre 1, que trois cas pou-
vaient se prsenter : les droites sont soit parallles, soit scantes, soit confondues et ces trois cas
correspondent aux trois cas du thorme ci-dessus.
Si le systme est homogne, les deux droites passent par le point (0, 0) et ne peuvent donc tre
parallles. Le cas sans solution est donc exclu.
Dans le cas lon a 2 quations (m = 2) 3 inconnues (n = 3), ceci correspond lintersection
de deux plans dans lespace. Trois cas se prsentent alors :
les plans sont parallles et il ny a alors aucune solution au systme ;
les plans sont confondus et il y a une infinit de solutions au systme ;
les plans se coupent en une droite et il y a une infinit de solutions ;
Du point de vue du nombre de solutions, nous constatons quil n y a que deux possibilits, savoir
aucune solution ou une infinit de solutions. Mais les deux derniers cas ci-dessus sont nanmoins
trs diffrents gomtriquement et il semblerait que dans le second cas (plans confondus), linfinit
de solutions soit plus grande que dans le troisime cas. Les chapitres suivants nous permettront de
rendre rigoureuse cette impression.

2.5 Linversion des matrices


Dfinition 2.17 (Matrice inverse). Soit A une matrice carre de taille n n. Sil existe une matrice
carre B de taille n n telle que

AB = I et BA = I,

on dit que A est inversible et on appelle B un inverse de A.


(on verra plus tard quil suffit de vrifier une seule des conditions AB = I, BA = I)
Exemple 2.18. La matrice  
2 1
5 3
est inversible et un de ses inverses est
 
3 1
.
5 2
24 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

En effet, on a
         
2 1 3 1 1 0 3 1 2 1 1 0
= et = .
5 3 5 2 0 1 5 2 5 3 0 1

Exemple 2.19. La matrice  


3 0
A=
5 0
nest pas inversible. En effet, soit
 
b11 b12
B=
b21 b22

une matrice quelconque. Alors le produit


    
b11 b12 3 0 0
BA = =
b21 b22 5 0 0
ne peut jamais tre gal la matrice identit.
Thorme 2.20. Si B et C sont des inverses de A, alors

B = C.

Dmonstration. On a I = AC = BA du fait que B et C sont des inverses de A ; donc

B = BI = B(AC) = (BA)C = IC = C.

Si A est une matrice inversible, son inverse est not A1 . On a donc

AA1 = I et A1 A = I.

2.5.1 Matrices 2 2
Considrons les matrices 2 2
   
a b d b
A= et B= .
c d c a
On vrifie que  
1 0
AB = BA = (ad bc) .
0 1
Donc A est inversible si ad bc 6= 0, et on a alors
 
1 d b
A1 = .
ad bc c a

2.5.2 Puissances dune matrice


Soit A une matrice n n. On dfinit

Am = AA A}
| {z
m facteurs
Si A est inversible, on dfinit
m
Am = A1 = |A1 A1 1
{z A }
m facteurs

Thorme 2.21. Soit A une matrice inversible. Alors


2.6. LES MATRICES LMENTAIRES 25

(a) A1 est inversible et (A1 )1 = A ;


(b) Am est inversible et

(Am )1 = |A1 A1 1
{z A }
m facteurs
= (A1 )m = Am ;

(c) kA est inversible si k 6= 0 et (kA)1 = k1 A1 .


Thorme 2.22. Soient A et B deux matrices n n inversibles. Alors
(a) AB est inversible et
(b) (AB)1 = B 1 A1 .
Dmonstration. Il suffit de montrer

(B 1 A1 )(AB) = (AB)(B 1 A1 ) = I.

Cela suit de

(B 1 A1 )(AB) = B 1 (AA1 )B = B 1 IB = B 1 B = I,
et (AB)(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I.

De faon analogue, on montre que si A1 , . . . , Am sont inversibles, alors


1 1
(A1 A2 . . . Am )1 = A1
m Am1 . . . A1 .

Exemple 2.23.    
2 1 1 3 1
A = A =
5 3 5 2
   
9 4 1 1 4
B = B =
2 1 2 9

     
2 1 9 4 16 7
AB = =
5 3 2 1 39 17
     
1 1 1 4 3 1 17 7
B A = =
2 9 5 2 39 16
On a alors bien
       
16 7 17 7 272 + 273 0 1 0
(AB)(B 1 A1 ) = = = .
39 17 39 16 0 273 272 0 1

2.6 Les matrices lmentaires


Dfinition 2.24 (Matrice lmentaire). On dit quune matrice E est lmentaire si elle peut tre
obtenue par une seule opration lmentaire sur les lignes de la matrice identit (voir 1.2 () pour
la dfinition des oprations lmentaires).
Il existe donc trois types de matrices lmentaires correspondant aux trois oprations lmen-
taires.
(1) La matrice Ei (c) est la matrice lmentaire obtenue en multipliant par c la i-me ligne de In ,
c est un nombre rel non nul.
Exemple 2.25.
1 0 0 0
0 5 0 0
E2 (5) =
0 0

1 0
0 0 0 1
26 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

(2) La matrice Eij est la matrice lmentaire obtenue en permutant les i-me et j-me lignes de In .
Exemple 2.26.
1 0 0 0
0 0 0 1
E24 = E42 =
0 0 1 0

0 1 0 0
(3) La matrice Eij (c) est la matrice lmentaire obtenue en ajoutant c fois la j-me ligne de In la
i-me ligne.
Exemple 2.27.
1 0 0 0
5 1 0 0
E21 (5) = 0 0 1 0

0 0 0 1
Lopration lmentaire permuter les lignes i et j correspond multiplier une matrice sur la
gauche par la matrice lmentaire Eij ; et de mme pour toutes autres oprations lmentaires. Cest
ce quindique le thorme suivant :
Thorme 2.28. Si la matrice lmentaire E est le rsultat dune opration lmentaire effectue
sur Im , alors pour toute matrice A de taille m n le produit matriciel EA est gal la matrice
obtenue en effectuant la mme opration lmentaire sur A.
Ainsi, multiplier une matrice A sur la gauche par Eij revient changer les lignes i et j de A ;
multiplier A sur la gauche par Ei (c) revient multiplier la ligne i de A par c ; et multiplier A sur la
gauche par Eij (c) revient ajouter c fois la ime ligne la jme.
Exemples :
(1)     
2 0 a11 a12 a13 2a11 2a12 2a13
E1 (2) A = =
0 1 a21 a22 a23 a21 a22 a23
(2)
1 0 0 a11 a12 a11 a12
E23 A = 0 0 1 a21 a22 = a31 a32 .
0 1 0 a31 a32 a21 a22
(3)
1 0 0 a11 a11
E21 (9) A = 9 1 0 a21 = 9a11 + a21 .
0 0 1 a31 a31
Les oprations lmentaires sur les lignes sont rversibles. Ceci entrane linversibilit des matrices
lmentaires.
Thorme 2.29. Toute matrice lmentaire est inversible. En particulier, on a :

[Eij (c)]1 = Eij (c)


1
Eij = Eij
 
1 1
[Ei (c)] = Ei .
c
Exemple 2.30. On a
   
1 0 1 0
E21 (4) = et E21 (4) =
4 1 4 1
et        
1 0 1 0 1 0 1 0 1 0
= =
4 1 4 1 0 1 4 1 4 1
2.7. CALCUL DE LINVERSE DUNE MATRICE 27

Dfinition 2.31. On dit que deux matrices sont quivalentes par lignes si lune peut tre obtenue
partir de lautre par une suite doprations lmentaires sur les lignes.
Thorme 2.32. Pour toute matrice A de taille nn, les affirmations suivantes sont quivalentes :
(a) A est inversible.
(b) Le systme AX = B a une et une seule solution pour toute matrice B de taille n 1. Cette
solution est donne par X = A1 B.
(c) AX = 0 na que la solution triviale X = 0.
(d) A est quivalente par lignes In .
(e) A est un produit de matrices lmentaires.
Dmonstration. (a) (b) Si A est inversible, on a les quivalences suivantes :

AX = B A1 AX = A1 B X = A1 B

ce qui prouve (b).

(b) (c) Cest vident car (c) est un cas particulier de (b) avec B = 0.

(c) (d) Par hypothse, le systme AX = 0 est quivalent au systme




X1 = 0
X2 = 0


.. .. .


. .
Xn = 0

La matrice associe ce dernier systme est la matrice identit. La matrice A est donc quivalente
par lignes In et ceci prouve le point (d).

(d) (e) On sait, par hypothse, quune succession doprations lmentaires sur A conduit la
matrice In . Par le thorme 2.28, ceci signifie quil existe des matrices lmentaires E1 , . . . Er telles
que
Er Er1 E1 A = In .
Comme une matrice lmentaire est inversible, ceci implique que

A = E11 E21 Er1 .

Mais linverse dune matrice lmentaire est encore une matrice lmentaire et lon a le rsultat
cherch.

(e) (a) Ceci dcoule du fait que toute matrice lmentaire est inversible et que le produit de
matrices inversibles est encore inversible.

2.7 Calcul de linverse dune matrice


Le thorme prcdent donne une mthode pour dterminer linverse dune matrice inversible. La
mthode consiste faire les oprations lmentaires mettant la matrice A sous la forme chelonne
rduite, qui est In . On fait ensuite les mmes oprations lmentaires sur la matrice In . On aboutit
alors A1 . En pratique, on fait les deux oprations en mme temps selon la procdure suivante :
Former la matrice (A : I) et effectuer sur cette matrice augmente les oprations lmentaires
mettant A sous la forme chelonne rduite. On obtient alors la matrice (I : A1 ).
Exemple 2.33. Calculons linverse de

1 2 1
A= 4 0 1 .
1 2 2
28 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL


1 2 1 : 1 0 0
(A : I) = 4 0 1 : 0 1 0
1 2 2 : 0 0 1

`2 := `2 4`1


1 2 1 : 1 0 0
0 8 5 : 4 1 0
1 2 2 : 0 0 1

`3 := `3 + `1


1 2 1 : 1 0 0
0 8 5 : 4 1 0
0 4 3 : 1 0 1

1
`2 := `2
8

1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 4 3 : 1 0 1

`3 := `3 4`2


1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1/2 : 1 1/2 1

`3 := 2`3


1 2 1 : 1 0 0
0 1 5/8 : 1/2 1/8 0
0 0 1 : 2 1 2

5
`2 := `2 `3
8

1 2 1 : 1 0 0
7
0 1 0 :
4 43 54
0 0 1 : 2 1 2

`1 := `1 2`2 `3

1 0 0 : 21 1 1

2 2
7
0 1 0 :
4 34 54
0 0 1 : 2 1 2

2 2 2
1
A1 = 7 3 5
4
8 4 8
2.8. MATRICES TRIANGULAIRES 29

2.8 Matrices triangulaires


Dfinition 2.34. Soit A une matrice de taille n n. On dit que A est triangulaire infrieure si ses
lments au dessus de la diagonale sont nuls, autrement dit si

i < j = aij = 0.

Une matrice triangulaire infrieure a donc la forme suivante :

0

a11 0
..
a21 a22 . . .

.
.. .. .. .. ..
.
. . . .

. . .
.. .. ..

0
an1 an2 ann

On dit que A est triangulaire suprieure si ses lments en dessous de la diagonale sont nuls,
autrement dit si
i > j = aij = 0.
Une matrice triangulaire suprieure a donc la forme suivante :

a11 a12 ... ... ... a1n
0 a22 ... ... ... a2n
.. ..

.. ..
.
. . .

.. .. .. ..
.
. . .

. .. .. ..
..

. . .
0 ... ... ... 0 ann

Exemple 2.35. Matrices triangulaires infrieures :



4 0 0  
0 1 0 5 0
1 2
3 2 0

Exemple 2.36. Matrices triangulaires suprieures :



1 1 1  
0 1 1 1 3
0 6
0 0 1

Dfinition 2.37. Une matrice qui est triangulaire infrieure et triangulaire suprieure est dite
diagonale.

Exemple 2.38. Exemples de matrices diagonales :



1 0 0  
0 6 0 2 0
et
0 3
0 0 0

Thorme 2.39. Une matrice A de taille n n, triangulaire, est inversible si et seulement si ses
lments diagonaux sont tous non nuls.

Dmonstration. Supposons que A est triangulaire suprieure.


Si les lments de la diagonale sont tous non nuls, alors, en multipliant chaque ligne i par
linverse de llment diagonal aii , on obtient la forme chelonne de A. Elle ne contient que des 1
sur la diagonale. De ce fait, la forme chelonne rduite de A sera la matrice identit. Le thorme
2.32 permet de conclure que A est inversible.
30 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

Inversement, supposons quau moins lun des lments diagonaux soit nul et notons amm le
premier lment nul de la diagonale. En multipliant les lignes 1 m 1 par linverse de leur lment
diagonal, on obtient une matrice de la forme

1
0 ...


0 0
1
0 0 0

0 0 0 all

. .. .. .. ..
.. . . 0 . .
0 0 ann
o l = m + 1.
Il est alors clair que la colonne m de la forme chelonne ne contiendra pas de 1 directeur. La
forme chelonne rduite de A ne peut donc pas tre In et par le thorme 2.32, A nest pas inversible.
Dans le cas dune matrice triangulaire infrieure, on utilise la transposition qui fait lobjet de la
section suivante et on obtient une matrice triangulaire suprieure. On applique alors la dmonstration
ci-dessus.

2.9 La transposition
Soit A la matrice de taille m n

a11 a12 ... a1n
a21 a22 ... a2n
A=

.. .. ..
. . .
am1 am2 ... amn
Dfinition 2.40. On appelle matrice transpose de A, la matrice AT de taille n m dfinie par :

a11 a21 . . . am1
a12 a22 . . . am2
AT = . .

.. ..
.. . .
a1n a2n ... amn
Autrement dit, la i-me colonne de AT est la i-me ligne de A, ou encore
aTij = aji .
Exemple 2.41.

1
(1 2 5)T = 2
5
T
0 3  
1 5 0 1 1
=
3 5 2
1 2
 T  
1 0 1 0
= .
0 2 0 2
(4)T = (4) .
Thorme 2.42. Lopration de transposition obit aux rgles suivantes :
(a) (A + B)T = AT + B T
(b) (kA)T = kAT
(c) (AB)T = B T AT
(d) (AT )T = A .
(e) Si A est inversible, alors AT lest aussi et on a (AT )1 = (A1 )T qui sera note AT .
2.10. LA TRACE 31

2.10 La trace
Soit A la matrice n n
a11 ... a1n
.. ..
A= . .
an1 ... ann

Dfinition 2.43. On appelle trace de A,et on note trace(A), le nombre obtenu en additionnant les
lments diagonaux de A. Autrement dit,

trace(A) = a11 + + ann .

Exemple 2.44. Soient



  1 1 2
2 1
A= et B= 5 2 8
0 5
11 0 10

Alors trace(A) = 2 + 5 = 7 et trace(B) = 1 + 2 -10 =-7.

Thorme 2.45. Soient A et B deux matrices n n. Alors


(a) trace(A + B) = trace(A) + trace(B) ;
(b) trace(A) = trace(A) pour tout R ;
(c) trace(AT ) = trace(A) ;
(d) trace(AB) = trace(BA).

Dmonstration. (a) Pour tout 1 i n, (A + B)ii = Aii + Bii . Ainsi, on a bien trace(A + B) =
trace(A) + trace(B).
(b) On a trace(A) = A11 + + Ann = (A11 + + Ann ).
(c) Etant donn que la transposition ne change pas les lments diagonaux, la trace de A est gale
la trace de AT .
(d) On a
ABii = Ai1 B1i + Ai2 B2i + + Ain Bni .
Ainsi,
trace(AB) = A11 B11 +A12 B21 +... +A1n Bn1
+ A21 B12 +A22 B22 +... +A2n Bn2
..
.
+ An1 B1n +An2 B2n +... +Ann Bnn

On peut rarranger les termes pour obtenir

A11 B11 +A21 B12 +... +An1 B1n


+ A12 B21 +A22 B22 +... +An2 B2n
..
.
+ A1n Bn1 +A2n Bn2 +... +Ann Bnn

En utilisant la commutativit de la multiplication dans R, la premire ligne devient

B11 A11 + B12 A21 + + B1n An1

qui vaut BA11 . En faisant de mme avec les autres lignes, on voit finalement que

trace(AB) = BA11 + + BAnn = trace(BA).


32 CHAPITRE 2. ELMENTS DU CALCUL MATRICIEL

2.11 Matrices symtriques


Dfinition 2.46. Une matrice A de taille n n est dite symtrique si elle est gale sa transpose,
cest--dire si
A = AT
ou encore si aij = aji pour tout i, j = 1, . . . , n.

Exemple 2.47. Les matrices



1 0 5  
0 2
0 2 1 , , In et 0n,n
2 4
5 1 0

sont symtriques.
Thorme 2.48. Pour une matrice B quelconque, les matrices BB T et B T B sont symtriques.
Dmonstration. Par le thorme 2.42, on a

(BB T )T = (B T )T B T = BB T
(B T B)T = B T (B T )T = B T B.

2.12 Matrices antisymtriques


Dfinition 2.49. Une matrice A de taille n n est dite antisymtrique si

AT = A

cest--dire si aij = aji pour tout i, j = 1, . . . , n.


Exemple 2.50.
    0 4 2
0 1 0 0 4
, , 0 5 .
1 0 0 0
2 5 0
Remarquons que les lments diagonaux dune matrice antisymtrique sont toujours tous nuls.
Thorme 2.51. Toute matrice A de taille n n est la somme dune matrice symtrique B et
dune matrice antisymtrique C.

Dmonstration. Posons B = (A + AT )/2 et C = (A AT )/2. On a alors A = B + C ; et B est


symtrique, car B T = (AT + (AT )T )/2 = B ; et C est antisymtrique, car C T = (AT (AT )T )/2 =
C.
Exemple 2.52. Soit  
2 10
A=
8 3
   
2 9 0 1
A= + .
9 3 1 0
| {z } | {z }
symtrique antisymtrique
Chapitre 3

Le dterminant

3.1 Permutations et dterminants


Nous allons construire dans ce chapitre une fonction appele le dterminant qui associe
un nombre rel chaque matrice carre et qui permettra de caractriser facilement les matrices
inversibles puisque ce sont celles dont le dterminant est non nul.
Exemple 3.1. Soit  
a b
A= .
c d
On a vu que si ad bc 6= 0, alors A est inversible. On a alors
 
1 1 d b
A = .
ad bc c a
On dfinit alors le dterminant de A comme tant

det(A) = ad bc.

On va maintenant gnraliser cette notion des matrices carres de taille n n.


Dfinition 3.2. On appelle permutation de lensemble dentiers {1, . . . , n} un arrangement de ceux-
ci sans omissions ni rptitions. Autrement dit, une permutation de {1, . . . , n} est une bijection de
lensemble {1, . . . , n} sur lui-mme.
Une permutation quelconque de {1, . . . , n} sera note

= (j1 , j2 , . . . , jn )

o j1 = (1), j2 = (2),. . ., jn = (n).


Lensemble de toutes les permutations de n lments sera not Sn .
Exemple 3.3. Il y a deux permutations de lensemble {1, 2} :

1 = (1, 2) et 2 = (2, 1)

(1, 2) est lidentit car 1 (1) = 1 et 1 (2) = 2.


Exemple 3.4. Il y a 6 permutations de lensemble {1, 2, 3} :

(1, 2, 3) (1, 3, 2) (2, 1, 3) (3, 2, 1) (2, 3, 1) (3, 1, 2).

Plus gnralement, lensemble {1, . . . , n} a

n! = 1 2 n

permutations. En effet, il y a n possibilits pour le premier nombre, n 1 possibilits pour le


deuxime et ainsi de suite ce qui nous donne n(n 1)(n 2) 2 1 diffrents arrangements possibles
des nombres 1, 2, . . . , n.

33
34 CHAPITRE 3. LE DTERMINANT

Dfinition 3.5. Dans une permutation on a une inversion si un nombre plus grand prcde un
nombre plus petit.
De manire plus prcise, le nombre dinversions dune permutation
(j1 , j2 , . . . , jn )
est la somme du
nombre de successeurs de j1 plus petits que j1 , plus
le nombre de successeurs de j2 plus petits que j2 , plus
...
le nombre de successeurs de jn1 plus petits que jn1 .
Exemple 3.6. La permutation
(4, 2, 5, 3, 1) contient 7 inversions.
En effet,il y a 3 successeurs plus petits que 4, 1 successeur plus petit que 2, 2 successeurs plus petits
que 5, 1 successeur plus petit que 3 et pas de successeur plus petit que 1. En additionnant ces
nombres, on obtient bien 7.
Exemple 3.7. La permutation
(6, 1, 3, 4, 5, 2)
contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Dfinition 3.8. Une permutation ayant un nombre pair dinversions est appele permutation paire,
sinon elle est appele permutation impaire. On dfinit la signature de la permutation comme suit :

1 si est paire
sign() =
1 si est impaire.

Exemple 3.9. Classification des permutations de {1, 2, 3} :


Permutation Nbre dinversions Parit

(1, 2, 3) 0 paire
(1, 3, 2) 1 impaire
(2, 1, 3) 1 impaire
(2, 3, 1) 2 paire
(3, 1, 2) 2 paire
(3, 2, 1) 3 impaire
Lemme 3.10. Soit n 1, i, j {1, . . . , n} avec i < j et Sn .
Posons 0 = ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)). Alors
sign() = sign( 0 ).
Dmonstration : Nous illustrons la mthode de la dmonstration par un cas particulier.
Considrons les deux permutations de S8 suivantes :
= (1, 2, 5, 7, 6, 3, 4, 8) et 0 = (1, 3, 5, 7, 6, 2, 4, 8).
Pour calculer leur signature, il faut calculer le nombre dinversions de et de 0 . On voit que 1, 4
et 8 ont le mme nombre de successeurs plus petits dans et 0 .
Pour passer de 0 , on permute 2 et 3. Dans , 3 nest pas un successeur de 2 plus petit, alors
que dans 0 , 2 est un successeur de 3 plus petit.
Dans , 5 nest pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alors
que dans 0 , 5 nest pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit. En
rptant le mme raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6
plus petits est le mme que cela soit dans ou dans 0 . Globalement, on voit donc que 0 a une et
une seule inversion de plus que . Ainsi, leurs signatures sont opposes.
3.1. PERMUTATIONS ET DTERMINANTS 35

Dfinition 3.11. Soit


a11 ... a1n
.. ..
A= . .
an1 ... ann
une matrice carre de taille n n. Un produit lmentaire de A est le produit de n lments de A,
choisis de faon quaucun couple dentre eux ne provienne de la mme ligne ou de la mme colonne.
Autrement dit, tous les lments du produit sont dans des lignes et des colonnes diffrentes.
Exemple 3.12. Les produits lmentaires de la matrice
 
a11 a12
A=
a21 a22

sont a11 a22 et a12 a21 . Les produits lmentaires de



a11 a12 a13
A = a21 a22 a23
a31 a32 a33

sont :

a11 a22 a33 a11 a32 a23 a21 a12 a33


a21 a32 a13 a31 a12 a23 a31 a22 a13

Plus gnralement, partir dune matrice de taille nn, on peut former n ! produits lmentaires.
En effet, on constate quun produit lmentaire de A nest rien dautre quun produit a1j1 a2j2 . . . anjn
o (j1 , j2 , . . . , jn ) est un lment de Sn .
Dfinition 3.13. Un produit lmentaire sign dune matrice A est un produit

sign() a1j1 a2j2 . . . anjn

o = (j1 , j2 , . . . , jn ) est une permutation n lments.


Exemple 3.14. Les produits lmentaires signs de
 
a11 a12
a21 a22

sont a11 a22 (la permutation (1, 2) est paire) et a21 a12 (la permutation (2,1) est impaire).
Les produits lmentaires signs de

a11 a12 a13
a21 a22 a23
a31 a32 a33

sont a11 a22 a33 , a11 a23 a32 , a12 a21 a33 , a12 a23 a31 , a13 a21 a32 et a13 a22 a31 .
Dfinition 3.15. Le dterminant dune matrice A est le nombre obtenu en effectuant la somme de
tous les produits lmentaires signs de A. Il est not det(A). Autrement dit,
X
det(A) = sign() a1i1 . . . anin ,
Sn
o = (i1 , . . . , in ).

Exemple 3.16.  
a11 a12
A=
a21 a22
det(A) = a11 a22 a12 a21 .
36 CHAPITRE 3. LE DTERMINANT

Exemple 3.17.
a11 a12 a13
A = a21 a22 a23
a31 a32 a33

det(A) = sign((1, 2, 3))a11 a22 a33 + sign((2, 3, 1))a12 a23 a31 + sign((3, 1, 2))a13 a21 a32
+ sign((3, 2, 1))a13 a22 a31 + sign((2, 1, 3))a12 a21 a33 + sign((1, 3, 2))a11 a23 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Thorme 3.18. Si A est une matrice ayant une ligne forme de zros, alors det(A) = 0.
Dmonstration. Par dfinition, le dterminant est la somme des produits lmentaires signs de A.
Mais chacun de ces produits lmentaires contient un lment nul provenant de la ligne de zros de
A. Donc det(A) = 0.
Thorme 3.19. Le dterminant dune matrice A triangulaire (infrieure ou suprieure) est gal
au produit a11 a22 a33 . . . ann des lments diagonaux.
Dmonstration. Le seul produit lmentaire sign non nul est a11 a22 . . . ann . La permutation corres-
pondante est (1, 2, . . . , n) qui contient 0 inversions et qui est donc une permutation paire. On a donc
bien
det(A) = a11 a22 a33 . . . ann .

Examinons maintenant ce qui se passe si deux lignes de la matrice sont gales.


Exemple 3.20. Soit

a b c
A= a b c ,
d e f

on a
det(A) = abf abf + ace ace + bcd bcd = 0
et lon remarque que tous les produits lmentaires apparaissent deux fois avec des signes opposs
(cf. lemme 3.10).
Ceci nous amne au thorme suivant :
Thorme 3.21. Soit A une matrice avec deux lignes gales. Alors
det(A) = 0.
Dmonstration. Dans le dterminant dune telle matrice, tous les produits lmentaires apparaissent
deux fois, avec des signes opposs. Donc det(A) = 0.

3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2


et 3 3
Nous dcrivons ici la rgle de Sarus pour calculer des dterminants 2 2 et 3 3.

Matrice 2 2

3


a11Q a
Q 12

QQ
a21 a22
 Q
Q +
s
Q
det(A) = a11 a22 a12 a21 .
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 37

Matrice 3 3
On recopie les colonnes 1 et 2 la suite de la colonne 3 et on calcule comme suit :


Q Q 3
Q  3 3

a11 Q a12 Qa13 Q a11 a12
a21 Q aQ
22
Q a23
 Q a a
Q  Q21 22
a31 a32 Q
 Q a33Q
 a31Q a32
Q Q
s +Q
Q s+ Q s+

det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a31 a22 a13 a32 a23 a11 a33 a21 a12 .
Exemple 3.22. Calculer
2 1 0
det 1 0 1 .
0 0 1
0 0 1
Q Q Q3  3 

 3

2Q 1Q0Q 2 1
1 Q0Q
Q1Q 1 0
Q
Q
0 0
  QQ
Q1Q 0 Q 0
s Q
s Q
Q s
Q
0 0 0
donc det = 1.
ATTENTION : Cette mthode ne sapplique pas pour les matrices de dimensions suprieures
3.

3.2 Dterminants et oprations lmentaires


Nous allons voir que la rduction dune matrice la forme chelonne nous fournit une mthode
efficace pour calculer son dterminant.
Thorme 3.23. Soit A une matrice de taille n n, et soit E une matrice lmentaire (E =
Ei (k), Eij ou Eij (k)). Alors
(1) det(Ei (k)) = k
(2) det(Eij ) = 1
(3) det(Eij (k)) = 1
(4) det(EA) = det(E) det(A)

Dmonstration. (1) Soit k R, k 6= 0. Rappelons que

1 0 ... ... ... ... 0



.. ..
.

0 .
.. ..



. 1 .


Ei (k) =
.. ..

. k
.
.. ..

. 1
.
.. ..
. . 0
0 ... ... ... ... 0 1

X
det(Ei (k)) = sign() a1j1 . . . anjn ,
Sn
o = (j1 , . . . , jn ).
38 CHAPITRE 3. LE DTERMINANT

Comme il ny a quun seul lment non nul dans chaque ligne et dans chaque colonne, le seul
produit lmentaire non nul est
1 1 k 1 1 = k.

De plus, la permutation (1, 2, . . . , n) na pas dinversion. Sa signature est donc 1. Ainsi

det(Ei (k)) = k.

(2) Sans perte de gnralit, on peut supposer que i < j. On a



1
..

.


0 1


1

..
Eij =
.


1


1 0


1

..
.
1

Comme avant, il y a un seul produit produit lmentaire non nul, qui vaut 1. Le dterminant
sera donc 1. Il reste dterminer la signature de la permutation

(1, 2, . . . , (i 1), j, (i + 1), (i + 2), . . . , (j 1), i, (j + 1), . . . , n).

j a (j 1) successeurs plus petits. Les nombres compris entre (i + 1) et (j 1) ont chacun un


succeseur plus petit. Or, il y a (j 1) 1 nombres entre i et j. Ainsi, le nombre dinversions de
la permutation est
(j i) + (j i) 1 = 2j 2i 1.

Cest un nombre impair. La signature est donc 1 et le dterminant de Eij est 1.


(3) En crivant la matrice Eij (k), on voit que le seul produit lmentaire non nul est 1 et que la
signature de la permutation tudier est celle de (1, 2, . . . , n). Cest une permutation paire, ce
qui implique que det(Eij (k)) = 1.
(4) Pour montrer que det(EA) = det(A) det(E), nous allons considrer trois cas, E = Ei (k), E = Eij
et E = Eij (k).
Premier cas E = Ei (k), k 6= 0 et A = (aij ).

a11 a12 ... a1n
a21 a22 ... a2n
.. .. ..


. . .
EA =
kai1
.
kai2 ... kain

. .. ..
..

. .
an1 an2 ... ann

Le dterminant est la somme des produits lmentaires signs. Chaque produit lmentaire
a exactement un lment de chaque ligne,en particulier un lment de la i-me ligne. Ainsi,
dans chaque terme de la somme, on peut mettre k en vidence. Finalement,
X
det(EA) = k sign()a1(1) . . . an(n)
Sn
= det(E) det(A).
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 39

Deuxime cas E = Eij . On peut supposer que i < j. Posons B = Eij A. On a



a11 a12 . . . a1n
.. .. ..
. . .

aj1 aj2 . . . ajn

Eij A = ... .. ..
.

. .
ai1 ai2 . . . ain

. .. ..
..

. .
an1 an2 ... ann
Les produits lmentaires de B et de A sont les mmes. Comme det(Eij ) = 1, pour montrer
que det(Eij A) = det(Eij ) det(A) il faut montrer que les produits lmentaires signs de A et
de B sont opposs. Par dfinition du dterminant,
X
det(B) = sign() b1(1) . . . bi(i) . . . bj(j) . . . bn(n)
Sn
X
= sign() a1(1) . . . aj(i) . . . ai(j) . . . an(n)
Sn

La deuxime galit vient du fait que la i-me ligne de B est la j-me ligne de A (et rcipro-
quement). Posons
0 = ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)).
0 est la composition de avec la permutation qui change i et j. Par le lemme 3.10,
sign( 0 ) = sign(). Ainsi
X
det(B) = (sign( 0 )) a10 (1) . . . an0 (n)
0 Sn
X
= sign( 0 ) a10 (1) . . . an0 (n)
0 Sn
= det(A).
Troisime cas E = Eij (k). On peut supposer que i < j. Posons C = Eij (k)A. On a

a11 ... a1n
.. ..

. .

ai1 + kaj1 . . . ain + kajn

C= .. ..
.

. .

aj1 ... ajn

.. ..
. .
an1 ... ann
Alors,
X
det(C) = sign() b1(1) . . . bn(n)
Sn
X
= sign() a1(1) . . . a(i1)(i1) (ai(i) + kaj(i) )a(i+1)(i+1) . . . an(n)
Sn
X
= sign() a1(1) . . . an(n)
Sn
X
+ k sign(a1(1) . . . a(i1)(i1)) aj(i) a(i+1)(i+1) . . . an(n)
Sn
| {z }
=
= det(A) + k
40 CHAPITRE 3. LE DTERMINANT

Comme det(Eij (k)) = 1, pour montrer que det(C) = det(A) det(Eij (k)), il suffit de montrer
que = 0. Mais,
a11 ... a1n
.. ..

. .

a(i1)1 . . . a(i1)n

aj1
= det ... ajn
a(i+1)1 . . . a(i+1)n

.. ..
. .
an1 ... ann
et la i-me ligne de cette matrice est aj1 . . . ajn . Elle a donc deux lignes identiques (la i-me
et la j-me), ce qui implique que = 0.

Ce thorme nous permet de calculer le dterminant dune matrice de faon relativement simple,
en utilisant lalgorithme de Gauss pour rduire la matrice la forme chelonne (qui est triangulaire)
et en utilisant les thormes 3.23 et 3.19. En effet, si
A = E1 . . . Er D
o D = (dij ) est une matrice chelonne (triangulaire). Alors
det(A) = det(E1 ) . . . det(Er ) det(D) = det(E1 ) . . . det(Er )d11 d22 . . . dnn .
Exemple 3.24. Calculer det(A), o


0 1 5
A = 3 6 9
2 6 1

0 1 5
det(A) = det 3 6 9
2 6 1

3 6 9
= (1) det 0 1 5
2 6 1

1 2 3
= (3) det 0 1 5
2 6 1

1 2 3
= (3) det 0 1 5
0 10 5

1 2 3
= (3) det 0 1 5
0 0 55

1 2 3
= (3)(55) det 0 1 5
0 0 1

= (3)(55) = 165.
Exemple 3.25. Soit
1 3 2 4
2 6 4 8
A=
3

9 1 5
1 1 4 8
3.2. DTERMINANTS ET OPRATIONS LMENTAIRES 41

Alors, en soustrayant deux fois la ligne 1 la ligne 2, on obtient



1 3 2 4
0 0 0 0
det(A) = det 3 9

1 5
1 1 4 8
= 0.

Notation : Pour toute matrice carre A, on note

|A| = det(A).

Thorme 3.26. Soit A une matrice carre. Alors A est inversible si et seulement si det(A) 6= 0.
On a, dans ce cas,
1
det(A1 ) := .
det(A)
Dmonstration. Supposons dabord que A est inversible. On peut alors crire A comme produit de
matrices lmentaires, A = E1 Er . En appliquant successivement le thorme 3.23, on a

det(A) = det(E1 Er ) = det(E1 ) det(E2 Er ) = = det(E1 ) det(Er ).

Comme le dterminant dune matrice lmentaire nest jamais nul, on en dduit que le dterminant
de A nest pas nul.
Ensuite, A1 = Er1 E11 , et on vrifie aisment que det(E 1 ) = det(E)1 pour toute matrice
lmentaire E. On a donc
det(A1 ) = det(Er )1 det(E1 )1 ,
et donc det(A1 ) = det(A)1 .
Rciproquement, supposons que det(A) 6= 0. Nous montrerons qualors A est quivalente par
lignes I, ce qui implique, par le thorme 2.32, que A est inversible.
Soit R la forme chelonne rduite de A. On peut donc trouver des matrices lmentaires
E1 , , Ek telles que

Ek E1 A = R, ou encore
A = E11 Ek1 R .

On en dduit que
|A| = |E11 | |Ek1 | |R| .
Mais par hypothse |A| =
6 0. Donc |R| =
6 0.
On en dduit que chaque ligne de R contient un 1 directeur. Donc R = I.

Le thorme suivant est essentiel et nous affirme que le dterminant est multiplicatif :

Thorme 3.27. Soient A et B deux matrices de taille n n. Alors

det(AB) = det(A) det(B) .

Dmonstration. Si A et B sont les deux inversibles, on les crit comme produit de matrices lmen-
taires : A = E1 . . . Er et B = F1 . . . Fs . On a alors

det(AB) = det(E1 Er F1 Fs ) = det(E1 ) det(E2 Er F1 . . . Fs )


= = det(E1 ) det(Er ) det(F1 Fs )
= det(E1 Er ) det(F1 Fs ) = det(A) det(B).

Si A ou B nest pas inversible, alors AB nest pas inversible non plus ; et det(AB) = 0.

Le dterminant est invariant par transposition :


42 CHAPITRE 3. LE DTERMINANT

Thorme 3.28. Soit A une matrice de taille n n. Alors

det(A) = det(AT ).

Autrement dit, le dterminant dune matrice est gal celui de sa transpose.

Dmonstration. La dmonstration se fait comme ci-dessus : supposons dabord que A est inversible.
On peut alors lcrire comme produit de matrices lmentaires, A = E1 Er . On a alors

AT = ErT E1T

et
|AT | = |ErT | |E1T | = |Er | |E1 | = |A|.
Dautre part, si A nest pas inversible, alors AT nest pas inversible non plus, et |A| = |AT | =
0.

Comme la transposition transforme une ligne en une colonne (et rciproquement), ce thorme
nous permet de formuler le principe suivant :

Principe 3.29. Pour toute proprit des dterminants o il est question des lignes de la matrice, on
a une proprit analogue concernant les colonnes de la matrice.

Rsum des rsultats sur le dterminant


P de taille n n
A matrice carre
det(A) = sign()a1,j1 an,jn o = (j1 , . . . , jn ).
Si A a une ligne nulle, alors det(A) = 0 .
Si A a deux lignes gales, alors det(A) = 0.
Si A est une matrice triangulaire (infrieure ou suprieure) alors det(A) est le produit de ses
lments diagonaux.

a11 a11 0
A=
.. ou
..
. .
0 ann ann

det(A) = a11 ann .


det(AB) = det(A) det(B)
det(AT ) = det(A)
A est inversible si et seulement si
det(A) 6= 0 .
Si A est inversible, alors
1
det(A) =
det(A1 )
Matrices lmentaires :
det(Ei (k)) = k
det(Eij ) = 1
det(Eij (k)) = 1.

3.3 Les cofacteurs et la rgle de Cramer


Dfinition 3.30 (Mineur et cofacteur). Soit A = (aij ) une matrice de taille n n. On appelle
mineur de llment aij le dterminant de la sous-matrice obtenue en liminant la i-me ligne et la
j-me colonne de la matrice A. On le note Mij . On appelle cofacteur de aij la quantit

Cij = (1)i+j Mij .


3.3. LES COFACTEURS ET LA RGLE DE CRAMER 43



a11 a12 ... aij ... a1n

a21 a22 ... a2j ... a2n
.. .. .. ..


. . . .
A=

ai1 aij ... aij ... ain

.. .. .. ..

. . . .

an1 an2 ... anj ... ann


a11 ... a1,j1 a1,j+1 ... a1n
.. .. .. ..

. . . .

ai11 ... ai1,j1 ai1,j+1 ... ai1,n
Mij = det
ai+11

... ai+1,j1 ai+1,j+1 ... ai+1,n

.. .. ..
. . .
an1 ... an,j1 an,j+1 ... an,n

Exemple 3.31. Soit


1 2 3
A= 4 2 1
0 1 1
Calculons M11 , C11 , M32 , C32 :




1 2 3
2 1
M11 = 4 2 1 =
1 =1
0 1 1 1

C11 = (1)1+1 M11 = 1 .




1 2 3
1 3
M32 = 4 2 1 =
4 = 11
0 1 1 1

C32 = (1)3+2 (11) = 11 .

Pour dterminer si Cij = Mij ou Cij = Mij , on peut utiliser le schma suivant :

+ + ...
+ + ...
A=

+ + ...
.. .. .. ..

. . . .

C11 = M11 , C12 = M12 , C21 = M21 , etc...

3.3.1 Calcul du dterminant par la mthode des cofacteurs


Soit A une matrice de taille 3 3
44 CHAPITRE 3. LE DTERMINANT


a11 a12 a13
A = a21 a22 a23
a31 a32 a33
Nous savons que

det(A) = a11 a22 a33 + a12 a23 a31


+a13 a21 a32 a13 a22 a31
a12 a21 a33 a11 a23 a32 .
On peut le rcrire de la manire suivante :

det(A) = a11 (a22 a33 a23 a32 )


+a12 (a23 a31 a21 a33 )
+a13 (a21 a32 a22 a31 ) .
Les termes entre parenthses sont les cofacteurs des lments a11 , a12 , a13 .
Donc

det(A) = a11 C11 + a12 C12 + a13 C13 .


Exemple 3.32.
1 2 3
A= 4 2 1
0 1 1

det(A) = 1C11 + 2C12 + 3C13



2 1 4 1 4 2
= 1 + 2 (1) + 3
1 1 0 1 0 1
= 1 8 + 12
= 5.
De manire analogue, on obtient

det(A) = a11 C11 + a12 C12 + a13 C13


= a21 C21 + a22 C22 + a23 C23
= a31 C31 + a32 C32 + a33 C33 .
Nous avons vu que les proprits du dterminant relatives aux lignes conduisent des proprits
analogues relatives aux colonnes. On a donc aussi :

det(A) = a11 C11 + a21 C21 + a31 C31


= a12 C12 + a22 C22 + a32 C32
= a13 C13 + a23 C23 + a33 C33 .
Ces expressions sont appeles les dveloppements du dterminant en cofacteurs par rapport aux
lignes, respectivement aux colonnes, de la matrice A.
Pour une matrice A de taille n n, on a les dveloppements en cofacteurs analogues. Nous
rsumons ceci dans le thorme suivant :
Thorme 3.33 (Dterminant par la mthode des cofacteurs). Dveloppement par rapport la
i-me ligne :
det(A) = ai1 Ci1 + ai2 Ci2 + + ain Cin
Dveloppement par rapport la j-me colonne :
det(A) = a1j C1j + a2j C2j + + anj Cnj .
3.3. LES COFACTEURS ET LA RGLE DE CRAMER 45

3.3.2 Calcul de linverse par la mthode des cofacteurs


Reprenons la formule du dterminant dvelopp selon la i-me ligne :

ai1 Ci1 + ai2 Ci2 + + ain Cin .

Remplaons les lments aij par ceux dune autre ligne, disons la k-me, avec k 6= i. Nous
obtenons

ak1 Ci1 + ak2 Ci2 + + akn Cin .


Cette expression est gale zro. Autrement dit,

Thorme 3.34.
ak1 Ci1 + ak2 Ci2 + + akn Cin = 0 si k 6= i

Dmonstration : Nous allons le vrifier dans le cas particulier o n = 3. La dmonstration


est analogue dans le cas gnral. Soit

a11 a12 a13
A = a21 a22 a23
a31 a32 a33

Remplaons la 3-me ligne par la 1-re. On obtient



a11 a12 a13
A0 = a21 a22 a23
a11 a12 a13
On a det(A0 ) = 0, car A0 a deux lignes gales. Calculons det(A0 ) par dveloppement en cofacteurs
par rapport la 3me ligne. On a :

det(A0 ) = a11 C31


0 0
+ a12 C32 0
+ a13 C33
0
o Cij sont les cofacteurs de la matrice A0 . Mais
0 0 0
C31 = C31 , C32 = C32 , et C33 = C33 .

On a donc
det(A0 ) = a11 C31 + a12 C32 + a13 C33 = 0.

En rsum, on a

det(A) si i=k
ak1 Ci1 + ak2 Ci2 + + akn Cin =
0 si i 6= k .

Considrons maintenant la matrice des cofacteurs



C11 C12 . . . C1n
C21 C22 . . . C2n
C= .

.. ..
..

. .
Cn1 Cn2 ... Cnn

et calculons
a11 a12 ... a1n
a21 a22 ... a2n
C11 C21 ... Cn1

.. .. ..

C12 C22 ... Cn2

. . .

T

AC =

ai1 ai2 ... ain
.. .. ..
. . .


. .. ..
.. C1n C2n ... Cnn

. .
an1 an2 ... ann
46 CHAPITRE 3. LE DTERMINANT

Dans le produit AC T , llment de la i-me ligne et de la j-me colonne est

ai1 Cj1 + ai2 Cj2 + + ain Cjn .

Par ce qui prcde, on a donc



det(A) 0 ... 0
..
T
0 det(A) .
= det(A) I.
AC = ..
..
. . 0
0 ... 0 det(A)

On en dduit que si det(A) 6= 0, cest--dire si A est inversible, alors on a

1
A1 = CT .
det(A)

On a ainsi une formule explicite pour calculer A1 . On appelle C T la matrice adjointe de A.


Elle est note
adj(A) .

Thorme 3.35. Soit A une matrice carre avec det(A) 6= 0. On a alors

1
A1 = adj(A).
det(A)

Exemple 3.36.
1 1 0
A= 0 1 1 .
1 0 1

On a det(A) = 2 .
La matrice forme des Mij est

1 1 1
M = 1 1 1 .
1 1 1

La matrice des signes est


+ +
A= + .
+ +
La matrice des cofacteurs est

1 1 1
C = 1 1 1 .
1 1 1
On a donc
1 1 1
adj(A) = C T = 1 1 1 .
1 1 1
Donc
1 1 1
1
A1 = 1 1 1 .
2
1 1 1
3.3. LES COFACTEURS ET LA RGLE DE CRAMER 47

3.3.3 Systmes linaires : rgle de Cramer


Le thorme suivant, appel rgle de Cramer, donne une formule explicite pour la solution de
certaines systmes dquations linaires.
Soit

a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2


...
an1 x1 + an2 x2 + + ann xn = bn

un systme dquations linaires n quations et n inconnues. Ce systme peut aussi scrire AX = B


o
a11 a12 . . . a1n x1 b1
a21 a22 . . . a2n x2 b2
A= . , X = et B = .. .

.. .. ..
..

. . . .
an1 an2 ... ann xn bn
La matrice A est appele la matrice des coefficients du systme et la matrice B est appele le second
membre.
Dfinissons Aj par

a11 ... a1,j1 b1 a1,j+1 ... a1n
a21 ... a2,j1 b2 a2,j+1 ... a2n
Aj =

.. .. .. ..
. . . .
an1 ... an,j1 bn an,j+1 ... ann

jme colonne

Autrement dit, Aj est la matrice obtenue en remplaccant la j-me colonne de A par le second
membre B. La rgle de Cramer va nous permettre de calculer la solution du systme dans le cas o
det(A) 6= 0 en fonction des dterminants des matrices A et Aj .

Thorme 3.37 (Rgle de Cramer). Soit

AX = B

un systme de n quations n inconnues. Supposons que det(A) 6= 0. Alors lunique solution du


systme est donne par

det(A1 ) det(A2 ) det(An )


x1 = , x2 = , . . . , xn = .
det(A) det(A) det(A)

Dmonstration. Nous avons suppos que

det(A) 6= 0 .

Donc A est inversible. Alors


X = A1 B
est lunique solution du systme. Dautre part, nous avons vu que

1
A1 = adj(A) .
det(A)

Donc
1
X= adj(A)B.
det(A)
48 CHAPITRE 3. LE DTERMINANT

Autrement dit,

x1 C11 . . . Cn1 b1
1 .
X = ... = ..
.. ..

det(A) . .
xn C1n . . . Cnn bn

C11 b1 + C21 b2 + + Cn1 bn
1 ..
= ,

det(A)
.
C1n b1 + C2n b2 + + Cnn bn

cest- -dire
C11 b1 + + Cn1 bn
x1 =
det(A)
C1i b1 + + Cni bn
xi =
det(A)
...
C1n b1 + + Cnn bn
xn = .
det(A)

Mais
b1 C1i + + bn Cni
est le dveloppement en cofacteurs de det(Ai ) par rapport sa i-me colonne. Donc

det(Ai )
xi = .
det(A)

Exemple 3.38. Rsolvons le systme suivant :



x1 + 2x3 = 6
3x1 + 4x2 + 6x3 = 30
x1 2x2 + 3x3 = 8.

On a

1 0 2 6 0 2
A = 3 4 6 A1 = 30 4 6
1 2 3 8 2 3

1 6 2 1 0 6
A2 = 3 30 6 A3 = 3 4 30 .
1 8 3 1 2 8

et

det(A) = 44 det(A1 ) = 40
det(A2 ) = 72 det(A3 ) = 152.

La solution est alors


det(A1 ) 40
x1 = det(A) = 44 = 10
11

det(A2 ) 72 18
x2 = det(A) = 44 = 11

det(A3 ) 152 38
x3 = det(A) = 44 = 11 .
Chapitre 4

Calcul vectoriel dans le plan et dans


lespace

4.1 Dfinitions et rgles de calcul


Un vecteur est un segment orient dans le plan ou dans lespace de dimension 3.

B

v
v = AB
A

On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est par
dfinition la droite passant par A et B.
Deux vecteurs ont la mme direction si leurs supports sont parallles. Deux vecteurs ayant la
mme direction ont le mme sens sils sont orients de la mme faon :




Deux vecteurs sont dits quivalents si lon peut les superposer par une translation. Par la suite, deux
vecteurs quivalents seront considrs comme gaux. Un vecteur est ainsi dtermin par son module,
sa direction et son sens.

Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On dfinit
la somme de deux vecteurs v et w par la rgle du parallelogramme :

!!
w!!!
!
!!! !! %ll v
! ! ! %
!! l
% v+w !!!
! % l
!
l % !!
l ll !! w
% !
l l%
v ll !

49
50 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

On place lorigine de w sur lextrmit de v. Le vecteur v + w est alors le segment orient joignant
lorigine de v lextrmit de w. Remarquons que v + w = w + v.
Le produit dun vecteur v par un scalaire k est le vecteur kv dfini par les proprits suivantes :
son module est gal |k| fois le module de v
sa direction est celle de v
son sens est celui de v si k > 0 et le sens oppos si k < 0.
Exemple 4.1.




3v


2v

v

Loppos du vecteur v est le vecteur v et la diffrence de deux vecteurs v et w est dfinie par
v w = v + (w).

4.1.1 Systmes de coordonnes


Si lon choisit un systme de coordonnes pour le plan (resp. pour lespace), un vecteur peut
alors scrire en composantes :

  v1
v1
v= , respectivement v = v2 .
v2
v3

v2 


v



 x
O v1

Figure 6.2

Dans cette reprsentation, lorigine du vecteur est toujours le point O = ( 00 ), intersection des
axes de coordonnes x et y.
Dans le cas de lespace 3 dimensions, on choisit toujours un systme daxes orient positivement
comme le montre la figure ci-dessous :
La somme de deux vecteurs et le produit dun vecteur par un scalaire se calculent comme suit
(nous donnons
 v1 les formules
 w1 pour
 des vecteurs de lespace, le cas du plan tant similaire) :
Si v = vv2 et w = w 2
w3
alors
3

v1 + w1
v + w = v2 + w2 ,
v3 + w3

kv1
kv = kv2
kv3
4.1. DFINITIONS ET RGLES DE CALCUL 51


v3

v

 y
v1 
v2


v1
Figure 6.4 : v = v2 .
v3


x
Figure 6.5 : y a lorientation positive.
z
52 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

et
v1
v = v2 .
v3

4.1.2 Proprits du calcul vectoriel


Thorme 4.2. (a) u + v = v + u
(b) (u + v) + w = u + (v + w)
(c) u + 0 = 0 + u = u
(d) u + (u) = 0
(e) k(`u) = (k`)u
(f ) k(u + v) = ku + kv
(g) (k + `)u = ku + `u
Soit v un vecteur. On note k v k son module. Cest un nombre positif ou nul qui est aussi appel
la norme de v. Si u = ( uu12 ) alors q
k u k= u21 + u22
 u1 
et, de mme, si u = uu2 alors
3
q
k u k= u21 + u22 + u23 .
Ceci dcoule du thorme de Pythagore.
Un vecteur de norme 1 est appel vecteur unit.

4.2 Le produit scalaire


On va dfinir le produit scalaire de deux vecteurs u et v dans le plan ou dans lespace de dimension
3. Le produit scalaire de deux vecteurs est un scalaire. Soient u = ( uu12 ) et v = ( vv12 ) deux vecteurs
dans le plan. On dfinit le produit scalaire par
u v = u1 v1 + u2 v2 .
 u1 
Soient u = u2
u3
et v = ( v1 ,v2 ,v3 ) deux vecteurs dans lespace de dimension 3. On dfinit le produit
scalaire par

u v = u1 v1 + u2 v2 + u3 v3
Le produit scalaire a les proprits suivantes :
Thorme 4.3. (1) u v = v u
(2) u v = (u v)
(3) (u + v) w = u w + v w
(4) u u 0
(5) u u = 0 si et seulement si u = 0.
(6) u u =k u k2
Dmonstration. Ces proprits sont des consquences immdiates de la dfinition. Par exemple, si
u = ( uu12 ) alors
u u = u21 + u22 .
Mais q
k u k= u21 + u22
et donc
u u =k u k2 ,
ce qui dmontre (6).
4.2. LE PRODUIT SCALAIRE 53

Nous rappelons maintenant un rsultat de trigonomtrie. Considrons le triangle suivant :


ZZ
b
c  Z

Z
 Z
 Z
hhhhhh
 Z
Z
hhh hhh Z
a

On a alors

Thorme 4.4 (Thorme du cosinus). Soient a, b, c les cts dun triangle et , , ses angles
comme dans la figure ci-dessus. Alors

a2 = b2 + c2 2 b c cos().

Dmonstration. Soit H le pied de la hauteur issue du sommet C.


A
H ZZ
b Z b
c  b
bZ
 bZ
 bZ
bZ
 hh bb
B h h hhhhh Z
hhb
Z
h
C
a

Appliquons le thorme de Pythagore dans le triangle rectangle BCH :

a2 = BH 2 + CH 2 .

Or, CH = b sin() et BH = c b cos(). Ainsi

a2 = c2 2 b c cos() + b2 cos2 () + b2 sin2 ()


= b2 + c2 2 b c cos()

Thorme 4.5. Soient u et v deux vecteurs non nuls, et soit langle quils forment. Alors

u v =k u k k v k cos()

Dmonstration. On a

k v u k2 = (v u) (v u)
= v v + u u 2u v
= k v k2 + k u k2 2u v .

Par le thorme du cosinus, on a :

k v u k2 =k v k2 + k u k2 2 k u k k v k cos() .
Donc
u v =k u k k v k cos() .
Ceci dmontre le thorme.
54 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

#A
# A
u ## A vu
# A
# A
# A
# A
v

Figure 6.8

Thorme 4.6. Soient u et v deux vecteurs non nuls. Alors u et v sont orthogonaux si et seulement
si
u v = 0.

Dmonstration. Comme
u v =k u k k v k cos() .

on a u v = 0 si et seulement si cos() = 0 et donc si et seulement si = 2 et donc si et seulement
si u et v sont orthogonaux.
Remarque 4.7. On convient en gnral que le vecteur nul est orthogonal tous les vecteurs. Ainsi,
lnonc du thorme 4.6 reste vrai, mme si lun des deux vecteurs est nul, bien que langle entre
u et v ne soit pas dfini.

4.2.1 Projection orthogonale



u 






v

Figure 6.9

La projection (orthogonale) de u sur v est note

projv u.

Le thorme suivant nous donne le lien entre la projection et le produit scalaire :


Thorme 4.8.
uv
projv u = v
k v k2

Posons w1 = projv u . Comme w1 est parallle v, on peut lcrire

w1 = `v

pour un certain scalaire `. On a :


u = w1 + w2 .
4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 55




B 

u 

w2 




 P
P


w1 v

Figure 6.10
Dmonstration.

Calculons le produit scalaire avec v. On a :

uv = (w1 + w2 ) v =
= w1 v + w2 v .

Mais w2 v = 0, car w2 et v sont orthogonaux. Il reste alors

uv = w1 v = (`v) v =
= ` v v = ` k v k2

do
uv
`= .
k v k2
On a donc
uv
projv u = v.
k v k2

Thorme 4.9. Soit langle form par les vecteurs u et v. Alors

k projv u k=k u k |cos()| .

Dmonstration. Par les thormes 4.8 et 4.5, on a

|u v| |u v|
k projv u k = 2
kvk=
kvk kvk
k u k k v k cos()
= =k u k | cos()|.
kvk

4.3 Le produit vectoriel (cross product)


Le produit vectoriel associe deux vecteurs de lespace u et v un troisime vecteur, not u v,
et dfini de la faon suivante :
 u1   v1 
Dfinition 4.10. Soient u = uu2 et v = vv2 deux vecteurs. Leur produit vectoriel est le vecteur
3 3
u v dfini par
56 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE


u2 v3 u3 v2
uv = u3 v1 u1 v3
u1 v2 u2 v1

u2 v2

u3 v3

u 1 v1
=
u 3 v3 .


u1 v1

u2 v2

Posons
1 0 0
i = 0 , j = 1 , et k = 0 .
0 0 1
Alors
i u1 v1

u v = j u2 v2 .

k u3 v3
Le produit vectoriel satisfait les proprits suivantes :

Thorme 4.11. Si u, v et w sont des vecteurs dans lespace de dimension 3, on a :


(a) u (u v) = 0 u v est orthogonal u
(b) v (u v) = 0 u v est orthogonal v
(c) k u v k =k u k k v k2 (u v)2
2 2
identit de Lagrange.
(d) u (v w) = (u w)v (u v)w
(e) (u v) w = (u w)v (v w)u
 u1   v1 
Dmonstration. (a) Soient u = uu2 et v = vv2 . Alors
3 3


u1 u2 v3 u3 v2
u (u v) = u2 u3 v1 u1 v3 =
u3 u1 v2 u2 v1
= u1 (u2 v3 u3 v2 ) + u2 (u3 v1 u1 v3 ) + u3 (u1 v2 u2 v1 ) =
= u1 u2 u3 u1 u3 v2 + u2 u3 v1 u1 u2 v3 + u1 u3 v2 u2 u3 v1 = 0 .

(b) calcul similaire (a)


(c) On a
k u v k2 = (u2 v3 u3 v2 )2 + (u3 v1 u1 v3 )2 + (u1 v2 u2 v1 )2
et
k u k2 k v k2 (u v)2 = (u21 + u22 + u33 )(v12 + v22 + v32 ) (u1 v1 + u2 v2 + u3 v3 )2
et un calcul direct montre que les deux termes de droites sont gaux.
(d) Les galits (d) et (e) se montrent de manire similaire.

Le produit vectoriel est bilinaire et anti-symtrique. En dautres termes, on a

Thorme 4.12. (a) u v = (v u)


(b) u (v + w) = (u v) + (u w)
(c) (u + v) w = (u w) + (v w)
(d) k(u v) = (ku) v = u (kv)
(e) u 0 = 0 u = 0
4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT) 57

(f ) u u = 0 .
La notion de produit vectoriel est lie celle de colinarit par le thorme suivant :
Thorme 4.13. Soient u et v deux vecteurs non nuls de lespace de dimension 3. Les affirmations
(1) et (2) sont quivalentes :
(1) u et v sont colinaires (cest--dire u = `v)
(2) u v = 0.
Dmonstration. (1) = (2) : Supposons que u = `v. Alors

u v = (`v) v = `(v v) = 0.

ce qui dmontre (2).  u1   v1 


Montrons maintenant limplication inverse (2) = (1) : Soient u = uu2 et v = vv2 et
3 3
 u2 v3 u3 v2 
uv = u v
3 1 u v
1 3 . Supposons que u v = 0. On a donc
u1 v2 u2 v1

u2 v3 u3 v2 = 0
u3 v1 u1 v3 = 0
u1 v2 u2 v1 = 0.

1er cas : Si u1 6= 0 et u2 = u3 = 0, les quations deviennent

0 = 0
u1 v3 = 0
u1 v2 = 0.

Comme u1 6= 0, ceci entrane v2 = v3 = 0 et donc


 u1 
u = 0
0
 v1 
v = 0 .
0
u1
Comme v est non nul, on a v1 6= 0, do u = `v avec ` = v1 ce qui dmontre (1).

2me cas : Supposons maintenant que u1 6= 0 et u2 6= 0. Si v2 = 0 la 1-re quation devient

u2 v3 = u3 v2 = 0.

Comme u2 6= 0, ceci entrane v3 = 0. Comme par hypothse v est non nul, on doit avoir v1 6= 0.
Alors par la 3me quation, on a
u1 v2 = u2 v1 6= 0
ce qui implique v2 6= 0 ce qui est absurde. Ainsi, on a donc v1 6= 0 et v2 6= 0.
Posons
u1
`= .
v1
Alors la 3-me quation donne
u2
=`
v2
et par la 2me quation on a
u3 v1 = u1 v3
ce qui implique
u1
u3 = v3 = `v3 .
v1
En conclusion, on a
u=`v
ce qui dmontre (2).
58 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

4.3.1 Interprtation gomtrique du produit vectoriel


Nous avons vu que
k u v k2 =k u k2 k v k2 (u v)2

(identit de Lagrange). Soit langle form par u et v. Alors on a :

u v = k u k k v k cos() .

On a donc

k u v k2 = k u k2 k v k2 k u k2 k v k2 cos2
= k u k2 k v k2 (1 cos2 )
= k u k2 k v k2 sin2 .

On obtient donc

Thorme 4.14.
k u v k=k u k k v k sin()

Dmonstration. Comme
0

on a
sin() 0 .

et donc lgalit cherche.

Considrons maintenant un paralllogramme dont les cts sont les vecteurs u et v :

Figure 6.12 : h =k v k sin()

Laire A de ce paralllogramme se calcule de la faon suivante :

A = (base)(hauteur)
= k u k k v k sin()
=k u v k .

On obtient donc le thorme suivant qui donne une interprtation gomtrique du produit vec-
toriel de deux vecteurs :

Thorme 4.15. La norme k u v k est gale laire du paralllogramme dtermin par u et v.


En rsum, u v est un vecteur perpendiculaire u et v, et de longueur (norme) gale laire du
paralllogramme dtermin par u et v. De plus, lorientation du triplet (u, v, u v) est positive
4.4. LE PRODUIT MIXTE (TRIPLE PRODUCT) 59

uv

h v
 hhhhhh

u 



Figure 6.13

4.4 Le produit mixte (triple product)


Dfinition 4.16. Soient u, v et w des vecteurs de lespace de dimension 3. On dfinit le produit
mixte des vecteurs u, v et w par
[u, v, w] = u (v w) .
 u1   v1   w1 
Cest un scalaire. Si u = uu2 , v = vv2 et w = w w
2 alors
3 3 3

[u, v, w] = u (v w)
 
v w2 v1 w1 v1 w1
= u 2

i j + v2 w2 k

v3 w 3 v3 w3

v w2
u1 v1 w1 v1 w1
= 2

u + u
w3 2 v2 w2 3

v3 w 3 v3

u1 v1 w1

= u2 v2 w2 .
u3 v3 w3

Thorme 4.17. Soient u, v et w trois vecteurs de lespace. Alors


(1) [u, v, w] = [w, u, v] = [v, w, u] = [v, u, w] = [u, w, v] = [w, v, u]
(2) [u, v, w] = [u, v, w] pour tout scalaire .
(3) [u, v, w] = 0 si et seulement sil existe des scalaires , , non tous nuls tels que u+v+w =
0.
Dmonstration. (1) et (2) dcoulent directement de la dfinition. Montrons alors la proprit (3).
Supposons que
u + v + w = 0
avec , , non tous nuls. Sans perte de gnralit, on peut supposer 6= 0.
Alors
u = v + w
avec

= et = ,

et

[u, v, w] = (v + w) (v w)
= v (v w) + w (v w)
| {z } | {z }
0 0
= 0.
60 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

Rciproquement, supposons que [u, v, w] = 0. On a donc


(u v) w = 0
cest--dire que u v est orthogonal w. Mais u v est aussi orthogonal u et v. Ceci entrane
que u, v et w sont coplanaires et donc que lon peut crire
w = u + v
ce qui termine la dmonstration.
Le produit mixte peut galement tre interprt gomtriquement ce qui est lobjet du thorme
suivant.
Thorme 4.18. (1) Soit u = ( uu12 ) et v = ( vv12 ) deux vecteurs de R2 . Alors la valeur absolue du
dterminant
u1 v1

u2 v2
est gal laire du paralllogramme dfini par les vecteurs u et v.
 u1   v1   w1 
(2) Soient u = uu2 , v = vv2 et w = w 2
w3
trois vecteurs de R3 . Alors la valeur absolue du
3 3
dterminant
u1 v1 w1

u2 v2 w2

u3 v3 w3
est gal au volume du paralllpipde dtermin par ces trois vecteurs
Dmonstration. (1) On considre u et v comme vecteurs de lespace de dimension 3 :
 u1   v1 
u = u2 et v = v2 .
0 0

Alors
i u1 v1
u1 v1
u v = j u2 v2 =
u2 k.
k v2
0 0
Laire du paralllogramme dtermin par u et v est
 
u1 v1
k u v k = det
k
u2 v2
   
u1 v1 det u1
v1
= det k k k= .
u2 v2 u2 v2

(2) Prenons le paralllogramme dtermin par v et w comme base du paralllpipde dtermin par
u, v et w. Laire de la base est donc
kvw k
et la hauteur du paralllpipde est la projection orthogonale de u sur v w .
On a
|u (v w)|
h =k projvw u k=
kvw k
et le volume V du paralllpipde est alors
V = (aire de la base) (hauteur)
|u (v w)|
=k v w k
kvw k
= |u (v w)|
qui est donc bien la valeur absolue du dterminant

u1 v1 w1

u2 v2 w2 .

u3 v3 w3
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 61

Figure 6.14 : h = hauteur

4.5 Droites et plans dans lespace de dimension 3


4.5.1 Equation du plan passant par un point P0 et ayant vecteur normal
n
 x0   n1 
Soit P0 = y0
z0
un point de lespace de dimension 3 et n = n2
n3
un vecteur.

Figure 6.15

Le plan passant par P0 et ayant n comme vecteur normal est form des points P tels que le

vecteur P0 P est orthogonal au vecteur n. On a donc

P0 P n = 0 .
 
X  Xx0
Si P = Y alors P0 P = Y y0 et la condition P0 P n = 0 scrit
Z Zz0
   
Xx0 n1
Y y0 nn2 = 0
Zz0 3

ou encore
n1 (X x0 ) + n2 (Y y0 ) + n3 (Z z0 ) = 0 .
 2 
Exemple 4.19. Lquation du plan passant par le point P0 = 5 et perpendiculaire au vecteur
 1  6
n= 3 est
2
(X 2) + 3(Y + 5) 2(Z 6) = 0
ou encore
X + 3Y 2Z + 25 = 0.
Thorme 4.20. Soient a, b, c, d des scalaires tels que (a, b, c) 6= (0, 0, 0). Alors lquation

aX + bY + cZ + d = 0
62 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE

est lquation dun plan ayant comme vecteur normal le vecteur



a
n = b .
c

Dmonstration. Par hypothse, les scalaires a, b, c sont non tous nuls. Nous pouvons supposer que
a 6= 0. Alors lquation
aX + bY + cZ + d = 0
peut tre rcrite comme
 
d
a X+ + bY + cZ = 0 .
a
 d/a 
Mais ceci est lquation du plan passant par le point 0 et ayant comme vecteur normal le
a 0
vecteur b .
c

4.5.2 Droites dans lespace de dimension 3


Soit L la droite passant par le point P0 = (x0 , y0 , z0 ) et parallle au vecteur v = (a, b, c). Alors L

est constitue des points P = (X, Y, Z) tels que le vecteur P0 P est parallle au vecteur v. Autrement
dit :

P0 P = v
pour un scalaire . On a donc
X x0 a
Y y0 = b
Z z0 c
ou, de manire quivalente,
X x 0
= a
Y y0 = b

Z z0 = c.

Ce systme est est appel systme dquations paramtriques de la droite L.


 x0 
Thorme 4.21. La distance D entre le point P0 = yz0 et le plan dquation
0

aX + bY + cZ + d = 0

est donne par


|ax0 + by0 + cz0 + d|
D= .
a2 + b2 + c2

Figure 6.16
Dmonstration.
4.5. DROITES ET PLANS DANS LESPACE DE DIMENSION 3 63
 x1 
Soit Q = y1
z1
un point du plan. On place le vecteur normal n au point Q. La distance de P0

au plan est gale la norme de la projection orthogonale du vecteur QP0 sur le vecteur n :
Donc
|QP0 n|
D =k projn QP0 k= .
knk
 x0 x1 
On a QP0 = y0 y1 et ainsi
z0 z1

x0 x1 a

QP0 n = y0 y1 b = a(x0 x1 ) + b(y0 y1 ) + c(z0 z1 ).
z0 z1 c

Comme p
k n k= a2 + b2 + c2 ,
on a
|a(x0 x1 ) + b(y0 y1 ) + c(z0 z1 )|
D= .
a2 + b2 + c2
 x1 
Or Q = yz1 est un point du plan, ce qui entrane que ax1 + by1 + cz1 + d = 0 et donc que
1
d = ax1 by1 cz1 . On obtient finalement

|ax0 + by0 + cz0 + d|


D=
a2 + b2 + c2
64 CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS LESPACE
Chapitre 5

Espaces euclidiens et applications


linaires

5.1 Espaces de dimension n


5.1.1 Dfinitions et notations
Lensemble des nombres rels est not R. Lensemble des nombres rels R est souvent reprsent
par une droite. Cest un espace de dimension 1. Le plan est form des couples ( aa12 ) de
 nombres rels.
a1

Il est not R2 . Lespace de dimension 3 est constitu des triplets de nombres rels a2
a3
. Il est not
 a1 
R3 . Le symbole aa2 a deux interprtations gomtriques :
3

1. Un point


a1
a2
a3

Figure 7.1

2. Un vecteur


a1
d a2
a3

Figure 7.2

65
66 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

On gnralise ces notions en considrant aussi des espaces de dimension n pour


! tout entier positif a1
n = 1, 2, 3, 4, . . . . Les lments de lespace de dimension n sont les n-uples .. de nombres rels.
.
an
a1
!
Lespace de dimension n est not Rn . Comme en dimension 3, le n-uple .. dnote aussi bien le
.
an
point que le vecteur de lespace de dimension n.
u1 v1
! !
Dfinition 5.1 (Somme de deux vecteurs). Soient u = .. et v = .. deux vecteurs de Rn .
. .
un vn
Leur somme est par dfinition le vecteur

u1 + v1
u+v = ..
.

.
un + vn
u1
!
Dfinition 5.2 (Produit dun vecteur par un scalaire). Soit u = .. un vecteur et un scalaire.
.
un
Alors
u1
u = ... .

un )
!
0
Le vecteur nul de Rn est le vecteur 0 = .. .
.
0
u1 u1
! !
Soit u = .. un vecteur de Rn . Alors son oppos est le vecteur u = .. .
. .
un un
u1 v1 w1
! ! !
Thorme 5.3. Soient u = .. , v = .. et w = .. des vecteurs de Rn . Alors :
. . .
un vn wn
(a) u+v =v+u
(b) u + (v + w) = (u + v) + w
(c) u+0=0+u=u
(d) u + (u) = 0
(e) (u) = ()u
(f ) (u + v) = u + v
(g) ( + )u = u + u
(h) 1u=u

5.1.2 Produit scalaire


u1 v1
! !
Soient u = .. et v = .. deux vecteurs de Rn . On dfinit leur produit scalaire par
. .
un vn

u v = u1 v1 + u2 v2 + + un vn .
Cest un scalaire. Remarquons que cette dfinition gnralise la notion de produit scalaire dans le
plan R2 et dans lespace R3 .
Thorme 5.4. Soient u, v et w des vecteurs de Rn et soit un scalaire. Alors on a :
(a) u v = v u
(b) (u + v) w = u w + v w
(c) (u) v = (u v)
(d) v v 0.
(e) v v = 0 si et seulement si v = 0.
5.1. ESPACES DE DIMENSION N 67

5.1.3 Norme et distance dans Rn


u1
!
Soit u = .. un vecteur. On dfinit la norme de u (ou norme euclidienne de u ) par
.
un

q
k u k= uu= u21 + + u2n .

u1 v1
! !
Soient u = .. et v = .. deux vecteurs. La distance (ou distance euclidienne) entre u et v
. .
un vn
est dfinie par
p
d(u, v) =k u v k= (u1 v1 )2 + (u2 v2 )2 + + (un vn )2 .
 1   3 
Exemple 5.5. Soient u = 4 et v = 72 . Alors leur distance dans R4 est
6
3 2
p
d(u, v) = (1 3)2 + (6 7)2 + (4 2)2 + (3 + 2)2

= 4 + 1 + 36 + 25 = 66.

Thorme 5.6. (Ingalit de Cauchy-Schwarz)


Soient u et v des vecteurs de Rn . Alors on a

|u v| k u k k v k .

Thorme 5.7. Soient u et v des vecteurs de Rn , et soit un scalaire. Alors on a :


(a) k u k 0
(b) k u k = 0 si et seulement si u = 0
(c) k u k= || k u k
(d) k u + v k k u k + k v k (Ingalit du triangle)
Dmonstration. (a) et (b) dcoulent des points (d) et (e) du thorme 5.4.
u1
! u1
!
(c) Soit u = .
.. . On a u = .
.. et donc
un un
p
k u k = (u1 )2 + + (un )2
q q
= 2 u21 + + 2 u2n = 2 u21 + + u2n
q
= || u21 + + u2n = || k u k .

u1
et v = ( vvn1 ). On a

(d) Soient u = dotsun

k u + v k2 = (u + v) (u + v)
= u u + v v + 2u v
=k u k2 + k v k2 +2u v.

Remarquons que u v |u v| car, pour nimporte quel scalaire a, on a a |a|.


On obtient alors

k u + v k2 k u k2 + k v k2 +2 k u k k v k= (k u k + k v k)2

et donc
k u + v kk u k + k v k

Corollaire 5.8. Soient u, v et w des vecteurs dans Rn , et soit un scalaire. Alors


68 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

!
u+!v !! 
!

!!
! v
! 
u

Figure 7.3

(a) d(u, v) 0
(b) d(u, v) = 0 si et seulement si u = v.
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) + d(w, v) (Ingalit du triangle)

Thorme 5.9. Soient u et v des vecteurs de Rn . Alors


1 1
uv = k u + v k2 k u v k2 .
4 4
Dmonstration.

k u + v k2 = (u + v) (u + v) =k u k2 + k v k2 +2u v
k u v k2 = (u v) (u v) =k u k2 + k v k2 2u v

Donc
k u + v k2 k u v k2 = 4u v
do
1 1
uv = k u + v k2 k u v k2 .
4 4

Dfinition 5.10. On dit que deux vecteurs u et v de Rn sont orthogonaux si

u v = 0.

Thorme 5.11 (Thorme de Pythagore dans Rn ). Soient u et v deux vecteurs de Rn orthogonaux.


Alors
k u + v k2 = k u k2 + k v k2 .

Dmonstration.

k u + v k2 = (u + v) (u + v)
= k u k2 + k v k2 +2u v
= k u k2 + k v k2 car u v = 0.

5.1.4 Reprsentation matricielle des vecteurs de Rn


u1
!
Soit u = .. un vecteur de Rn . On lappelle vecteur colonne, et on le considre naturelle-
.
un
ment u comme une matrice de taille n 1. Parfois, on rencontre aussi des vecteurs ligne : on peut
voir u comme une matrice 1 n, de la forme u = (u1 , . . . , un ). En fait, le vecteur ligne correspondant
u est le transpos uT du vecteur colonne u.
5.1. ESPACES DE DIMENSION N 69

Les oprations de somme et de produit par un scalaire dfinies ci-dessus se transposent parfaite-
ment lcriture matricielle et lon retrouve ainsi les oprations dfinies sur les matrices introduites
au chapitre 2 :

u1 v1 u1 + v1
u + v = ... + ... = ..

.
un vn u n + vn
et
u1 u1
u = ... = ... .

un un

5.1.5 Formule matricielle du produit scalaire


Soient
u1 v1
u = ... et v = ...

un vn
deux vecteurs. On a
vT =

v1 v2 ... vn
et ainsi
u1
v T u = (v1 . . . vn ) ... = u1 v1 + + un vn = u v.

un
On a donc
u v = vT u .
Exemple 5.12.
1 2
3 3
6 ,
u= v= 5

4 0

1
T
3
u v = v u = (2 3 5 0)
6 = (41) = 41.

4
Soit A une matrice de taille n n et u un vecteur colonne (i.e. une matrice n 1). Le produit
matriciel Au est une matrice n 1, donc un vecteur colonne. On peut alors considrer le produit
scalaire de Au avec un autre vecteur v,
(Au) v
On a ainsi

(Au) v = v T (Au)
= (v T A)u = (AT v)T u =
= u (AT v).

On obtient donc la formule


Thorme 5.13.
(Au) v = u (AT v).
On verra plus tard (matrices orthogonales) la signification de cette quation.
70 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

Exemple 5.14. Posons



1 2 3 1 2
A= 2 4 1 u= 2 et v = 0 .
1 0 1 4 5

Alors
1 2 3 1 7
Au = 2 4 1 2 = 10
1 0 1 4 5
et
1 2 1 2 7
AT v = 2 4 0 0 = 4 .
3 1 1 5 1
On obtient ainsi

7
(Au) v = (v T )(Au) =

2 0 5 10 = 14 + 0 + 25 = 11
5
et
1
u (AT v) = (AT v)T u =

7 4 1 2 = 7 + 8 4 = 11.
4

5.1.6 Multiplication des matrices et produit scalaire


Soient A = (aij ) une matrice de taille m r, et B = (bij ) une matrice de taille r n. Nous avons
vu que lon peut former le produit matriciel AB. On obtient une matrice de taille m n. Llment
dindice ij de la matrice AB est

ai1 b1j + ai2 b2j + + air brj .

Remarquons que ceci est aussi le produit



b1j
 b2j
ai1 ai2 ... air

..
.
brj

Autrement dit, cest le produit scalaire du i-me vecteur ligne de A avec le j-me vecteur colonne
de B. Notons l1 , . . . , lm les vecteurs ligne de A, et c1 , . . . , cn les vecteurs colonne de B. On a alors

`1 c1 `1 c2 . . . `1 cn
`2 c1 `2 c2 . . . `2 cn
AB =

.. .. ..
. . .
`m c1 `m c2 . . . `m cn

En particulier, un systme dquations linaires peut tre exprim grce au produit scalaire comme
suit : soit Ax = b un systme linaire o A est la matrice des coefficients du systme de taille m n,

b1
b = ...

bm

est le second membre et


x1
x = ...

xn
5.2. APPLICATIONS LINAIRES 71

le vecteur colonne des inconnues.


Soient `1 , . . . , `m les lignes de la matrice A. Ce sont des vecteurs ligne (matrices de taille 1 n).
Alors le systme peut tre exprim comme

`1 x
b1
`2 x
.. .
=b=

.. .
.
bm
`m x

5.2 Applications linaires


5.2.1 Rappels sur les applications
Soient A et B deux ensembles. Une application f : A B associe tout lment a de A
un unique lment f (a) de B. Llment f (a) est appel limage de a par f (ou la valeur de f en
a). Lensemble A est appel le domaine de dfinition de f . Le sous-ensemble f (A) de lensemble B
forms des lments f (a), o a est un lment de A, sappelle limage de A par f . Lorsque A = R,
on dit que f est une application (ou fonction) dune variable relle. Lorsque A = Rn , on dit que f
est une application (ou fonction) de n variables relles. Lorsque B = R, on dit que f est valeurs
relles.
Exemples

(1)
f : R R

f (x) = x2

est une fonction dune variable relle valeurs relles.


(2)
f : Rn R

f (x1 , . . . , xn ) = x21 + + x2n

est une fonction valeurs relles, de n variables relles.


(3)
f : R R

f (x) = 3x

est une fonction dune variable relle valeurs relles.

Soient

f1 : Rn R
..
.
fm : Rn R

m fonctions de n variables relles valeurs relles. On peut construire une application

f : Rn Rm

dfinie par
f (x1 , . . . , xn ) = (f1 (x1 , . . . , xn ), . . . , fm (x1 , . . . , xn )) .
72 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

5.2.2 Applications linaires


Dfinition 5.15. Une application f : Rn Rm dfinie par f (x1 , . . . , xn ) = (w1 , . . . , wm ) est dite
linaire si
w1 = a11 x1 + a12 x2 + . . . + a1n xn
w2 = a21 x1 + a22 x2 + . . . + a2n xn
.. .. .. ..
. . . .
wm = am1 x1 + am2 x2 + ... + amn xn .
En notation matricielle, on a

x1 w1 a11 a12 ... a1n x1
x2 w2 a21 a22 ... a2n x2
f . = . =

.. .. .. ..
.. ..

. . . .
xn wm am1 am2 ... amn xn
ou encore
f (x) = w = Ax avec A = (aij ).
A est appele la matrice de lapplication f .

Exemple 5.16. La fonction f : R4 R3 dfinie par

w1 = 2x1 + 5x2 + 2x3 7x4


w2 = 4x1 + 2x2 3x3 + 3x4
w3 = 7x1 3x2 + 9x3

peut tre exprime sous forme matricielle comme suit :



x1
w1 2 5 2 7 x2
w2 = 4 2 3 3 x3 .

w3 7 3 9 0
x4

Notation :
Soit f : Rn Rm une application linaire. On note [f ] la matrice de f (appele aussi matrice
standard de f ). Soit A une matrice m n. On note fA : Rn Rm lapplication linaire

fA (x) = Ax pour tout x Rn .


Lapplication linaire induite par la matrice identit

fI (x) = Ix = x

est appele application identit, et note I ou Id. Lapplication linaire induite par la matrice nulle
0 de taille m n
f0 (x) = 0x = 0
est appele application nulle, et note 0.
Remarque 5.17. Soit f : Rn Rm une application linaire. Alors f (0) = 0. En effet, si A est la
matrice standard de f , on a f (0) = A0 = 0.

5.2.3 Quelques exemples dapplications linaires


Rflexion par rapport laxe Oy
La fonction

f : R2 R2
( xy ) 7 x

y
5.2. APPLICATIONS LINAIRES 73

(x, y) `
`
H (x, y)
HH 
HH 
HH

Figure 7.6

est la rflexion par rapport laxe Oy et sa matrice est


 
1 0
0 1
car
    
1 0 x x
= .
0 1 y y

Rflexion par rapport laxe Ox


La rflexion par rapport laxe des x est donne par la matrice
 
1 0
.
0 1

Rflexion par rapport la droite y = x


La rflexion par rapport la droite y = x est donne par

f : R2 R2
( xy ) 7 ( xy )

et sa matrice est  
0 1
.
1 0

Rflexions dans lespace


Lapplication

f : R3 R3
x  x 
y 7 y
z z

est la rflexion par rapport au plan Oxy. Cest une application linaire et sa matrice est

1 0 0
0 1 0 .
0 0 1

De mme, la rflection par rapport au plan Oxz est donne par la matrice

1 0 0
0 1 0
0 0 1
74 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

(y, x)


 (x, y)
 
 
 



Figure 7.7

et la rflection par rapport au plan Oyz par la matrice



1 0 0
0 1 0 .
0 0 1

Projections orthogonales

y
(x, y)








x
(x, 0)

Figure 7.8

Lapplication

f : R2 R2
( xy ) 7 ( x0 )

est la projection orthogonale sur laxe Ox. Cest une application linaire donne par la matrice
 
1 0
.
0 0

Lapplication linaire

f : R3 R3
x x
y 7 y
z 0
5.2. APPLICATIONS LINAIRES 75

est la projection orthogonale sur le plan Oxy et sa matrice est



1 0 0
0 1 0 .
0 0 0
De mme, la projection orthogonale sur le plan Oxz est donne par la matrice standard

1 0 0
0 0 0 ,
0 0 1

et la projection orthogonale R3 R3 sur le plan Oyz par la matrice standard



0 0 0
0 1 0 .
0 0 1

5.2.4 Rotations
Soit f : R2 R2 la rotation dangle . On a

y
 (w1, w2)







 (x, y)


 
 
 
   x
 


Figure 7.9 : Rotation dangle

x = r cos
y = r sin
Aprs rotation dangle , on obtient :
w1 = r cos( + ),
w2 = r sin( + ) .
En appliquant des formules trigonomtriques, on obtient

w1 = r cos cos r sin sin


w2 = r cos sin + r sin cos
cest--dire
w1 = x cos y sin
w2 = x sin + y cos .
76 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

Autrement dit, la rotation dangle est donne par la matrice standard


 
cos sin
.
sin cos

5.2.5 Composition dapplications linaires


Soient
fA : Rm Rr
et
fB : Rr Rn
deux applications linaires induites respectivement par les matrices A et B. Considrons leur com-
position
fB fA : Rm Rn
dfinie par (fB fA )(x) = fB (fA (x)).
Cest une application linaire et on a

(fB fA )(x) = fB (fA (x)) =


= B(Ax) = (BA)x

ce qui implique que


fB fA = fBA .
Autrement dit, la matrice associe la composition de deux applications linaires est gale au produit
de leurs matrices standard.

Exemple 5.18. Soit


f : R2 R2
la rflection par rapport la droite y = x, et soit

g : R2 R2

la projection orthogonale sur laxe des y.

f (v) x=y
g(f (v))
B 




(
(
!
!!
! v
!!
!!!
!

Figure 7.10 : Composition de f puis de g

La matrice standard de f est  


0 1
[f ] =
1 0
et la matrice standard de g est  
0 0
[g] =
0 1
5.3. PROPRITS DES APPLICATIONS LINAIRES 77

y
x=y

g(v) (
(
!
!!! v
!
!!! x
!!
f (g(v))

Figure 7.11 : Composition de g puis de f

On a alors      
0 1 0 0 0 1
[f g] = [f ][g] = =
1 0 0 1 0 0
et      
0 0 0 1 0 0
[g f ] = [g][f ] = =
0 1 1 0 1 0
Remarquons que    
0 0 0 1
[g f ] = 6= = [f g]
1 0 0 0
ce qui montre que la composition dapplications linaires nest pas commutative en gnral.

5.3 Proprits des applications linaires

Dfinition 5.19. Soient E1 et E2 deux ensembles et soit


f : E1 E2
une application. On dit que f est injective si f (x) = f (y) implique x = y. Autrement dit, deux
lments distincts ont des images distinctes.
On dit que f est surjective si pour tout z E2 , il existe x E1 avec f (x) = z. Autrement dit,
f (E1 ) = E2 .
On dit que f est bijective si elle est injective et surjective. Autrement dit, f est bijective si, pour
tout z E2 , il existe un unique x E1 avec f (x) = z.
Soit A une matrice n n . Nous avons vu (thorme 2.32) que les proprits suivantes sont
quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w, de taille n 1, le systme
Ax = w
a une solution.
Dautre part, si pour toute matrice colonne w de taille n 1 le systme
Ax = w
a une solution, alors A est inversible. En effet, vu que pour tout w le systme a une solution, il existe
x1 , x2 , . . . , xn des matrices colonne telles que

1 0 0
0 1 ..
.
Ax1 = 0 , Ax2 = 0 , . . . , Axn = 0 .

.. ..
. . 0
0 0 1
78 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

Ainsi,
A (x1 x2 . . . xn ) = In
| {z }
=C

et det(AC) = det(A) det(C) = 1. Le dterminant de A est donc non nul, ce qui est quivalent dire
que A est inversible. Do le thorme suivant :

Thorme 5.20. Soit A une matrice n n. Les proprits suivantes sont quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w de taille n 1, le systme

Ax = w

a une solution
(3) Pour toute matrice colonne w de taille n 1, le systme

Ax = w

a exactement une solution.

Soit fA : Rn Rn lapplication linaire de matrice standard A. Remarquons que la proprit


(2) ci-dessus est quivalente
(2) fA est surjective
et que (3) quivalent
(3) fA est bijective.
On a donc le thorme suivant :

Thorme 5.21. Soit A une matrice de taille n n, et soit fA : Rn Rn lapplication linaire


associe. Les proprits suivantes sont quivalentes :
(1) fA est injective
(2) fA est surjective
(3) fA est bijective
(4) A est inversible.

Dmonstration. Lquivalence des points (2), (3) et (4) dcoule du thorme prcdent.
Il suffit donc de montrer que (1) est quivalent (4) par exemple.
Supposons fA injective. Soit x Rn tel que fA (x) = 0. Alors Ax = 0. Or, on a aussi A0 = 0. Comme
fA est injective, on a ncessairement x = 0. Autrement dit, le systme Ax = 0 a une unique solution.
Le thorme 2.32 permet de conclure que la matrice A est inversible.
Rciproquement, supposons A inversible. Soient x1 , x2 Rn tels que fA (x1 ) = fA (x2 ), cest--dire
tels que Ax1 = Ax2 . On a alors A(x1 x2 ) = 0. A nouveau par le thorme 2.32, on en dduit que
x1 = x2 . Lapplication fA est donc injective.

Exemple 5.22. Soit


f : R2 R2
la projection sur laxe des x. Alors f nest pas injective. En effet,

f ( xy ) = ( x0 ) pour tout y R2

La matrice standard de f est  


1 0
[f ] = .
0 0
Elle nest pas inversible, car det([f ]) = 0. Lapplication f nest donc pas surjective : ceci se vrifie
aisment car aucun point en-dehors de laxe des x nest dans limage de f .
5.3. PROPRITS DES APPLICATIONS LINAIRES 79

Soit
fA : Rn Rn
une application linaire associe une matrice A inversible. Alors

fA1 : Rn Rn

est aussi une application linaire et on a

fA (fA1 (x)) = AA1 x = Ix = x


fA1 (fA (x)) = A1 Ax = Ix = x

pour tout x dans Rn . Lapplication fA1 est appele lapplication inverse de fA .


On dit quune application linaire f : Rn Rn est inversible si f = fA , o A est une matrice
inversible. Si f : Rn Rn est inversible, on note

f 1 : Rn Rn

son inverse. Par le thorme 5.21, une application linaire est inversible si et seulement si elle est
bijective.

Exemple 5.23. Soit f : Rn R2 la rotation dangle . Alors f 1 : R2 R2 est la rotation


dangle .
On a
 
cos sin
[f ] =
sin cos
 
 1  cos sin
f =
sin cos
 
cos () sin ()
= .
sin () cos()

Thorme 5.24. Une application


f : Rn Rm
est linaire si et seulement si pour tous les vecteurs u, v de Rn et pour tout scalaire , on a
(1) f (u + v) = f (u) + f (v)
(2) f (u) = f (u) .
Dmonstration. Supposons f : Rn Rm linaire, et soit A sa matrice standard. On a

f (u + v) = A(u + v) = Au + Av = f (u) + f (v)

et
f (u) = A(u) = Au = f (u) .
Rciproquement, supposons (1) et (2). Notons dabord que (1) implique que

f (v1 + v2 + + vr ) = f (v1 ) + f (v2 ) + + f (vr ).

Posons
0
1 0
1
..
0
e1 =

.. ,

e2 =
0 , . . . , en =
.
.
. .. 0
.
0 1
0
Soit A la matrice n n dont les colonnes sont

f (e1 ), f (e2 ), . . . , f (en )


80 CHAPITRE 5. ESPACES EUCLIDIENS ET APPLICATIONS LINAIRES

et
x1
x2
x= .

..
.
xn
Alors
x = x1 e1 + x2 e2 + + xn en
et donc

Ax = A(x1 e1 + x2 e2 + + xn en )
= x1 Ae1 + x2 Ae2 + + xn Aen
= x1 f (e1 ) + x2 f (e2 ) + + xn f (en )
= f (x1 e1 ) + f (x2 e2 ) + + f (xn en )
= f (x1 e1 + x2 e2 + + xn en ) = f (x).

On a alors que f = fA . Cest une application linaire.


Dfinition 5.25. Les vecteurs

0
1 0
1
..
0
e1 =

.. , e2 =
0 , . . . , en = .


. .. 0
.
0 1
0

sont appels les vecteurs de base standard de Rn .

La dmonstration prcdente a ainsi montr :


Thorme 5.26. Soit f : Rn Rm une application linaire, et soient e1 , . . . , en les vecteurs de
base standard de Rn . Alors la matrice standard de f est donne par

[f ] = f (e1 ) f (e2 ) f (en ) .
Chapitre 6

Espaces vectoriels

6.1 Dfinition et premires proprits


Rappels et notations
1. Soit E un ensemble. La notation x E signifie x est un lment de E ou x appartient
E. Par exemple, R signifie est un nombre rel.
2. Soient E et E 0 deux ensembles. La notation E E 0 signifie E est contenu dans E 0 ou E
est un sous-ensemble de E 0 .
3. Soient E, E 0 deux ensembles. Alors lensemble des couples

E E 0 = {(e, e0 ) | e E, e0 E 0 }

sappelle le produit cartsien de E et E 0 .


Dfinition 6.1 (Espace vectoriel). Soit V un ensemble muni de deux oprations : une addition

V V V
(u, v) 7 u+v

et une multiplication par les scalaires

RV V
(, u) 7 u.

On dit que V , muni de ces deux oprations, est un espace vectoriel si pour tout u, v, w V et tout
, R, on a les proprits suivantes :
(1) u + v = v + u
(2) u + (v + w) = (u + v) + w
(3) Il existe 0 V tel que 0 + u = u + 0 = u pour tout u V .
(4) Pour tout u V , il existe u V tel que u + (u) = 0
(5) (u + v) = u + v
(6) ( + )u = u + u
(7) (u) = ()u
(8) 1 u = u

Exemple 6.2. Lensemble V = Rn muni des oprations habituelles daddition de vecteurs et de


produit dun vecteur par un scalaire est un espace vectoriel.

Exemple 6.3. Soit V lensemble des matrices de taille n m, muni de laddition des matrices et
de la multiplication dune matrice par un scalaire. Alors V est un espace vectoriel.

81
82 CHAPITRE 6. ESPACES VECTORIELS

Exemple 6.4. Soit V lensemble des fonctions

f : R R .

On dfinit sur V une opration daddition :

(f + g)(x) = f (x) + g(x)

et une opration de multiplication par les scalaires

(f )(x) = f (x) pour tout R.

Ceci en fait un espace vectoriel. Les proprits sont faciles vrifier. Par exemple, on dfinit la
fonction nulle
0 : R R

par
0(x) = 0 pour tout x R.

Alors f + 0 = f pour toute fonction f , et on est donc lgitim crire 0 pour la fonction 0. Si
f : R R est une fonction, on dfinit

f : R R

par
(f )(x) = f (x)

Les autres proprits se vrifient facilement.

Exemple 6.5. Tout plan passant par lorigine est un espace vectoriel (par rapport aux oprations
habituelles sur les vecteurs). Le plan est donn par une quation de la forme

ax + by + cz = 0

o a, b et c sont des scalaires non tous nuls.


 x0   x1 
Notons V ce plan. Soient yz0 et yz1 deux lments de V . Autrement dit,
0 1

ax0 + by0 + cz0 = 0


ax1 + by1 + cz1 = 0.
 x0 +x1 
Alors y0 +y1 est aussi dans V car on a
z0 +z1

a(x0 + x1 ) + b(y0 + y1 ) + c(z0 + z1 ) = 0.

Les autres proprits sont aussi faciles vrifier.

Remarque 6.6. Attention ! Un plan ne contenant pas lorigine nest pas un espace vectoriel.

Thorme 6.7. Soit V un espace vectoriel, v V et R. Alors on a :


(a) 0 v = 0.
(b) 0 = 0
(c) (1) v = v
(d) Si v = 0, alors = 0 ou v = 0.
6.2. SOUS-ESPACES VECTORIELS 83

6.2 Sous-espaces vectoriels


Dfinition 6.8. Un sous-ensemble W dun espace vectoriel V est un sous-espace vectoriel de V si
W est un espace vectoriel par rapport aux oprations de V .

Thorme 6.9. Soit V un espace vectoriel, et soit W un sous-ensemble de V . Alors W est un


sous-espace vectoriel de V si et seulement si les conditions suivantes sont vrifies :
(a) 0 W ;
(b) si u, v W , alors u + v W ;
(c) si u W et R, alors u W .
Dmonstration. Soit W un sous-espace vectoriel de V . Alors W satisfait aux axiomes qui dfinissent
un espace vectoriel, en particulier on a (a) (b) et (c). Rciproquement, si W est un sous-ensemble
de V vrifiant (a), (b) et (c), alors il est facile de vrifier que W est un espace vectoriel.
Terminologie : Soit W un sous-ensemble dun espace vectoriel V . Si la proprit (b) ci-dessus
est satisfaite, on dit que W est ferm par rapport laddition. Si (c) est satisfait, on dit que W est
ferm par rapport la multiplication par les scalaires.
Remarque 6.10. Soit V un espace vectoriel et W un sous-ensemble de V . Pour montrer que W
est un sous-espace vectoriel de V , il suffit de vrifier les proprits (b) et (c) du thorme ci-dessous.
En effet, en prenant = 0 dans (c), on a directement que 0 W .
Il est par contre souvent utile de commencer par vrifier (a) ; ainsi, si 0 / W , on en dduit imm-
diatemment que W nest pas un sous-espace vectoriel.
Exemple 6.11. Soit Mn lespace vectoriel de toutes les matrices de taille n n Soit Sn le sous-
ensemble des matrices symtriques. Alors Sn est un sous-espace vectoriel de Mn . Il suffit en effet de
vrifier que la matrice nulle est symtrique, que la somme de deux matrices symtriques est encore
symtrique et finalement que le produit dune matrice symtrique par un scalaire est une matrice
symtrique.
Exemple 6.12. Soit V lespace vectoriel des fonctions f : R R et soit Pn le sous-ensemble des
fonctions polynomiales de degr au plus n, autrement dit des fonctions de la forme

p : R R

p(x) = a0 + a1 x + + an xn ,
avec a0 , a1 , . . . , an R. Alors Pn est un sous-espace vectoriel de V . En effet :
(a) la fonction nulle est une fonction polynomiale ;
(b) soient p, q Pn

p(x) = a0 + a1 x + + an xn
q(x) = b0 + b1 x + + bn xn

Alors
(p + q)(x) = p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn .
Donc p + q Pn ;
(2) soit p(x) = a0 + a1 x + + an xn Pn et R. Alors

(p)(x) = p(x) = a0 + a1 x + + an xn .

Donc p Pn .
Exemple 6.13. Notons C(R) lensemble des fonctions continues f : R R. Alors C(R) est un
espace vectoriel. Cest un sous-espace vectoriel de lespace vectoriel de toutes les fonctions f : R
R . Il suffit de vrifier que la somme de deux fonctions continues est continue et que si f C(R)
alors f est continue pour tout R.
84 CHAPITRE 6. ESPACES VECTORIELS

Notons C 1 (R) lensemble des fonctions f : R R qui sont drivables et de premire drive
continue. Alors C 1 (R) est un sous-espace vectoriel de C(R). Notons C i (R) lensemble des fonctions
f : R R qui sont drivables i fois et dont la i-me drive est continue. On a les inclusions

C i (R) C i1 (R) C(R).

C i (R) est un sous-espace vectoriel de C(R) (et aussi de C i1 (R)).


Notons C (R) lensemble des fonctions f : R R qui sont indfiniment drivables et dont
toutes les drives sont continues. Alors C (R) est un sous-espace vectoriel de C(R). On a les
inclusions despaces vectoriels
Pn C (R) C(R).
Remarque 6.14. Soit {e1 , e2 } la base standard de R2 . Soit d1 (respectivement d2 ) la droite passant
par lorigine et de vecteur directeur e1 (respectivement e2 ). La runion de d1 et de d2 nest pas un
sous-espace vectoriel de R2 . En effet, le vecteur
     
1 0 1
e1 + e2 = + =
0 1 1

nappartient ni d1 , ni d2 .

6.2.1 Espace des solutions dun systme dquations linaires homognes


Un autre exemple despace vectoriel est donn par lensemble des solutions dun systme linaire
homogne. Soit Ax = 0 un systme de m quations n inconnues :

a11 . . . a1n x1 0
.. .. .. ..
. . . = .
am1 ... amn xn 0

On a alors
Thorme 6.15. Soit Ax = 0 un systme dquations linaires homognes n variables. Alors
lensemble des vecteurs solution est un sous-espace vectoriel de Rn .
Dmonstration. Soit W lensemble des vecteurs solution. Le vecteur 0 est un lment de W . Vrifions
que W est ferm par rapport laddition et par rapport la multiplication par un scalaire.
Si x et x0 sont des vecteurs-solution, alors Ax = 0 et Ax0 = 0 et donc A(x + x0 ) = Ax + Ax0 = 0
ce qui montre que W est ferm par rapport laddition. On a aussi A(x) = Ax = 0 = 0 ce qui
prouve que W est aussi ferm par rapport la multiplication par un scalaire.
Exemple 6.16. Considrons le systme

1 2 3 x 0
2 4 6 y = 0 .
3 6 9 z 0

Les solutions de ce systme sont

x = 2s 3t
y = s
z = t

ce qui donne
x = 2y 3z
do
x 2y + 3z = 0.
Lensemble des solutions est donc un plan passant par lorigine. Nous avons vu que ceci est un espace
vectoriel.
6.3. COMBINAISON LINAIRE 85

6.3 Combinaison linaire


Dfinition 6.17. Un vecteur w est appel combinaison linaire des vecteurs v1 , v2 , . . . , vr si
w = 1 v1 + 2 v2 + + r vr
avec 1 R, . . . , r R.
Exemple 6.18. Soient

1 0 0
e1 = 0 e2 = 1 e3 = 0
0 0 1
les vecteurs de la base standard de R3 et

x1
x = x2
x3
un vecteur quelconque de R3 . On a

x1 0 0 1 0 0
x = 0 + x2 + 0 = x1 0 + x2 1 + x3 0
0 0 x3 0 0 1
ce qui montre que x est une combinaison linaire de e1 , e2 et e3 . Ainsi, tout vecteur de R3 est
combinaison linaire de e1 , e2 et e3 .
 1  6 9
Exemple 6.19. Soient u = 2 et v = 4 deux vecteurs de R3 . Montrons que w = 2 est
1 2 7
combinaison linaire de u et v. On cherche donc et tels que
9  1  6
2 = 2 + 4
7 1 2
   6 
= 2 + 4
2
 
+6
= 2+4 .
+2

On a donc
9
= + 6
2 = 2 + 4

7 = + 2.

Une solution de ce systme est par exemple


= 3, = 2,
ce qui implique que w est combinaison linaire de u et v. On vrifie que lon a

9 1 6
2 = 3 2 + 2 4 .
7 1 2
 1  6  4 
Exemple 6.20. Soient u = 2 et v = 4 . Montrons que w = 1 nest pas une combinaison
1 2 8
linaire de u et v. Lgalit
4 1 6
1 = 2 + 4
8 1 2
donne le systme
4
= + 6
1 = 2 + 4

8 = + 2.

Or ce systme na aucune solution.


86 CHAPITRE 6. ESPACES VECTORIELS

Thorme 6.21. Soient v1 , . . . , vr des vecteurs dun espace vectoriel V . Alors lensemble W des
combinaisons linaires de v1 , . . . , vr est un sous-espace vectoriel de V .

Dmonstration. Le vecteur 0 est dans W car 0 = 0 v1 + + 0 vr . Vrifions que W est ferm pour
laddition et pour la multiplication par un scalaire. Soient u, v W. Alors, par dfinition de W ,

u = 1 v1 + 2 v2 + + r vr
v = 1 v1 + 2 v2 + + r vr ,

o 1 , . . . , r et 1 , . . . , r sont des scalaires. Donc

u + v = (1 + 1 )v1 + (2 + 2 )v2 + + (r + r )vr .

Donc u + v est aussi une combinaison linaire de v1 , . . . , vr . Ceci implique que u + v W . Pour tout
R, on a
u = (1 )v1 + + (r )vr .

Donc u est combinaison linaire de v1 , . . . , vr . Ceci implique que u W . Donc W est bien un
sous-espace vectoriel de V .

Dfinition 6.22. Le sous-espace W du thorme prcdent est appel le sous-espace vectoriel de v


engendr par v1 , . . . , vr . Si lon pose S = {v1 , . . . , vn }, alors W est not

W = L(S) = L(v1 , v2 , . . . , vr ).

Thorme 6.23. Soit V un espace vectoriel, et soient v1 , . . . , vr V . Soit W le sous-espace vec-


toriel de V engendr par v1 , . . . , vr . Alors W est le plus petit sous-espace vectoriel de V contenant
v1 , . . . , v r .

Dmonstration. On a clairement que v1 W, v2 W, . . . , vr W . Soit W 0 un autre sous-espace


vectoriel de V qui contient v1 , . . . , vr . Comme W 0 est un sous-espace vectoriel de V , il est ferm par
addition et par multiplication par un scalaire. Donc W 0 contient toutes les combinaisons linaires
de v1 , . . . , vr ce qui implique que W W 0 .

Exemple 6.24. Soient v1 et v2 deux vecteurs non colinaires de R3 . Alors lespace vectoriel W
engendr par v1 et v2 est un plan.

Exemple 6.25. Soient v1 et v2 deux vecteurs colinaires de R3 . Alors v2 = v1 . Lespace vectoriel


engendr par v1 et v2 est une droite.

Exemple 6.26. Soit Pn lespace vectoriel des fonctions polynomiales de degr n . Alors les
polynmes 1, x, . . . , xn engendrent Pn .

Thorme 6.27. Soit V un espace vectoriel, et soient S = {v1 , v2 , . . . , vr } et S 0 = {v10 , v20 , . . . , vs0 }
deux ensembles de vecteurs de V . On a

L(v1 , v2 , . . . , vr ) = L(v10 , v20 , . . . , vs0 )

si et seulement si tout vecteur de S est une combinaison linaire de vecteurs de S 0 et tout vecteur
de S 0 est une combinaison linaire de vecteurs de S.

Dmonstration. Cest une consquence immdiate de la dfinition de L(S) et de L(S 0 ).


6.4. INDPENDANCE LINAIRE 87

6.4 Indpendance linaire


Dfinition 6.28. Soit S = {v1 , . . . , vr } un ensemble non vide de vecteurs dun espace vectoriel.
Lquation
1 v1 + + r vr = 0
a au moins une solution, notamment la solution triviale 1 = 2 = = r = 0. Si cette solution
est unique, on dira que S est un ensemble linairement indpendant, ou que les vecteurs v1 , . . . vr
sont linairement indpendants.
Sinon, on dira que S est un ensemble linairement dpendant, ou que les vecteurs v1 , . . . , vr sont
linairement dpendants.
Remarque 6.29. Tout vecteur non nul est linairement indpendant. En effet, v = 0 implique
= 0 ou v = 0.
Le vecteur nul est linairement dpendant car 0 = 0 pour tout R. Plus gnralement,
tout ensemble contenant le vecteur nul est linairement dpendant. En effet, soient v1 , . . . , vr1 des
vecteurs quelconques et vr = 0. Alors

0 v1 + + 0 vr1 + 0 = 0

pour tout R.
2 1 7
     
1 2 1
Exemple 6.30. Soient v1 = 0 , v2 = 5 et v3 = 5 . Alors lensemble S = {v1 , v2 , v3 }
3 1 8
est linairement dpendant, car
3v1 + v2 v3 = 0.
Exemple 6.31. Les polynmes p1 (x) = 1 x, p2 (x) = 5 + 3x 2x2 et p3 (x) = 1 + 3x x2 forment
un ensemble linairement dpendant, car

3p1 p2 + 2p3 = 0.

Exemple 6.32. Soient


1 0 0
e1 = 0 , e2 = 1 , e3 = 0
0 0 1
les vecteurs de la base standard de R3 . Alors lensemble {e1 , e2 , e3 } est linairement indpendant.
En effet, supposons que 1 e1 + 2 e2 + 3 e3 = 0. Alors

1 0 0 0
1 0 + 2 1 + 3 0 = 0 ,
0 0 1 0
ce qui donne
1 0 0 1 0
0 + 2 + 0 = 2 = 0 ,
0 0 3 3 0
et donc
1 = 0 , 2 = 0 , 3 = 0.
Exemple 6.33. Les polynmes 1, x, . . . , xn forment un ensemble linairement indpendant de Pn .
En effet, supposons quil existe a0 , . . . , an R tels que

a0 + a1 x + + an xn

soit la fonction nulle 0. Ceci implique que pour tout x0 R, on a

a0 + a1 x0 + + an xn0 = 0 .

Mais un polynme de degr n a au plus n racines. On doit donc avoir

a0 = a1 = = an = 0 .
88 CHAPITRE 6. ESPACES VECTORIELS

Thorme 6.34. Un ensemble S est linairement dpendant si et seulement si au moins lun des
vecteurs de S est une combinaison linaire des autres vecteurs de S.

Dmonstration. Soit S = {v1 , v2 , . . . , vr } un ensemble linairement dpendant. Alors il existe 1 , . . . , r


R non tous nuls tels que
1 v1 + 2 v2 + + r vr = 0.

Comme les 1 , . . . , r ne sont pas tous nuls, il en existe au moins un qui est non nul. Supposons
i 6= 0, avec 1 i r. On a

i vi = 1 v1 i1 vi1 i+1 vi+1 r vr .

Comme i 6= 0, ceci implique


       
1 i1 i+1 r
vi = v1 + + vi1 + vi+1 + + vr
i i i i

et alors vi est une combinaison linaire des autres vecteurs.


Rciproquement, supposons que lun des vecteurs disons vi soit combinaison linaire des
autres vecteurs. Alors on a

vi = 1 v1 + + i1 vi1 + i+1 vi+1 + + r vr .

Ceci implique
1 v1 + + i1 vi1 vi + i+1 vi+1 + + r vr = 0.

Donc v1 , . . . , vr sont linairement dpendants.

6.4.1 Interprtation gomtrique de la dpendance linaire


Dans R2 ou R3 , deux vecteurs sont linairement dpendants si et seulement sils sont colinaires.
Dans R3 , trois vecteurs sont linairement dpendants si et seulement sils sont sur le mme
plan (coplanaires).

Thorme 6.35. Soit S = {v1 , v2 , . . . , vr } un sous-ensemble de Rn . Si S contient plus de n l-


ments, alors S est linairement dpendant.

Dmonstration. Supposons que



v11 v21 vr1
v12 v22 vr2
v1 = . , v2 = . , ,..., vr = . .

.. .. ..
v1n v2n vrn

Lquation
x 1 v1 + x 2 v 2 + + x r vr = 0

donne alors le systme suivant

v11 x1 + v21 x2 + + vr1 xr = 0


v12 x1 + v22 x2 + + vr2 xr = 0
...........................
v1n x1 + v2n x2 + + vrn xr = 0

Cest un systme homogne de n quations r inconnues. Lorsque r > n, ce systme a des solutions
non triviales ce qui montre que la famille S est linairement dpendante.
6.5. BASES ET DIMENSION 89

6.5 Bases et dimension


Dfinition 6.36 (Base dun espace vectoriel). Soit V un espace vectoriel, et S = {v1 , v2 , . . . , vn }
un sous-ensemble de V . Alors S est une base de V si et seulement si les deux conditions suivantes
sont vrifies :
(1) lensemble S est linairement indpendant ;
(2) lensemble S engendre V , cest--dire V = L(S).

Thorme 6.37. Si S = {v1 , v2 , . . . , vn } est une base de lespace vectoriel V , alors tout vecteur
v V sexprime de faon unique comme combinaison linaire dlments de S :

v = 1 v1 + 2 v2 + + n vn

avec 1 , . . . , n R dtermins de faon unique.

Dmonstration. Par dfinition, S engendre V , donc pour tout v V il existe 1 , . . . , n R tels


que
v = 1 v1 + 2 v2 + + n vn .
Il reste montrer lunicit des 1 , 2 , . . . , n . Soient 1 , 2 , . . . , n R tels que

v = 1 v1 + 2 v2 + + n vn .

Alors on a
(1 1 )v1 + (2 2 )v2 + + (n n )vn = 0.
Comme S = {v1 , . . . , vn } est linairement indpendant, ceci implique

1 1 = 0, 2 2 = 0, ..., n n = 0

et donc
1 = 1 , 2 = 2 , . . . , n = n .

Dfinition 6.38 (Coordonnes par rapport une base). Les 1 , . . . , n du thorme prcdent sont
appels les coordonnes de v dans la base S.

Exemple 6.39. Les vecteurs v1 et v2 de la figure ci-dessous forment une base du plan car on a
v = av1 + bv2 pour tout vecteur v du plan o a et b sont des nombres rels uniquement dtermins.

Figure 8.4

1 0 0


Exemple 6.40. Soient e1 = 0 , e2 = 1 , e3 = 0 les vecteurs de la base standard de R3 .
0 0 1
Alors S = {e1 , e2 , e3 } est une base de R3 car S est linairement indpendant et engendre R3 .
90 CHAPITRE 6. ESPACES VECTORIELS

Exemple 6.41. Base standard de Rn : les vecteurs



1 0 0
0 1 ..
e1 = . , e 2 = . , ..., en = .

.. .. 0
0 0 1

forment une base de Rn , appele la base standard de Rn .


1 2 3
Exemple 6.42. Soient v1 = 2 , v2 = 9 et v3 = 3 . Montrons que lensemble S = {v1 , v2 , v3 }
1 0 4  a1 
est une base de R3 . Montrons dabord que S engendre R3 . Soit a = aa2 un vecteur quelconque de
3

R3 . On cherche 1 , 2 , 3 R tels que

a = 1 v1 + 2 v2 + 3 v3 .

Ceci se reformule comme suit :



a1 1 2 3
a2 = 1 2 + 2 9 + 3 3
a3 1 0 4

1 + 22 + 33
= 21 + 92 + 33 .
1 + 43

Ceci conduit au systme suivant :



1 + 22 + 33 = a1
21 + 92 + 33 = a2
1 + 43 = a3 .

Il reste montrer que ce systme a une solution 1 , 2 , 3 . Pour montrer que S est linairement
indpendant, il faut montrer que lunique solution de

1 v1 + 2 v2 + 3 v3 = 0

est
1 = 2 = 3 = 0 .
Ceci conduit montrer que le systme

1 + 22 + 33 = 0
21 + 92 + 33 = 0
1 + 43 = 0

a une unique solution


1 = 2 = 3 = 0.
Remarquons que les deux systmes ont la mme matrice de coefficients. On peut donc montrer
simultanment que S engendre R3 et que S est linairement indpendant en montrant que la matrice
des coefficients est inversible. Cette matrice est

1 2 3
A= 2 9 3
1 0 4

et son dterminant vaut det(A) = 1. Donc S est une base de R3 .


Remarque 6.43. Lexemple prcdent se gnralise de la faon suivante : pour montrer que n
vecteurs de Rn forment une base de Rn , il suffit de montrer la chose suivante : la matrice A constitue
des composantes de ces vecteurs (chaque vecteur formant une colonne de A) est de dterminant non
nul.
6.5. BASES ET DIMENSION 91

Exemple 6.44. Base standard de Pn : la famille S = {1, x, . . . , xn } est une base de Pn , appele base
standard de Pn . En effet, nous avons dj vu que L(S) = Pn et que S est linairement indpendant.

Exemple 6.45. Base standard de M22 . On note M22 lensemble des matrices 2 2. Nous avons vu
que M22 est un espace vectoriel. Soient
   
1 0 0 1
M1 = M2 =
0 0 0 0
   
0 0 0 0
M3 = M4 = .
1 0 0 1

Lensemble S = {M1 , M2 , M3 , M4 } est une base de lespace vectoriel M22 , appele base standard de
M22 .  
a b
Montrons dabord que L(S) = M22 . Soit un lment quelconque de M22 . On a
c d
         
a b a 0 0 b 0 0 0 0
= + + +
c d 0 0 0 0 c 0 0 d
       
1 0 0 1 0 0 0 0
=a +b +c +d
0 0 0 0 1 0 0 1
= aM1 + bM2 + cM3 + dM4

ce qui montre que L(S) = M22 .


Montrons maintenant que S est linairement indpendant. Pour cela, supposons que 1 M1 +
2 M2 + 3 M3 + 4 M4 = 0. Ceci implique
         
0 0 1 0 0 1 0 0 0 0
= 1 + 2 + 3 + 4
0 0 0 0 0 0 1 0 0 1
       
1 0 0 2 0 0 0 0
= + + +
0 0 0 0 3 0 0 4
 
1 2
=
3 4

ce qui implique 1 = 2 = 3 = 4 = 0. Donc S est linairement indpendant.

Dfinition 6.46. Soit V un espace vectoriel non nul. On dit que V est de dimension finie sil existe
un ensemble fini S de V qui est une base de V . Sil nexiste aucun tel ensemble, alors on dit que V
est de dimension infinie.

Exemple 6.47. Les espaces vectoriels Rn , M22 , Pn sont de dimension finie alors que C (R), C 1 (R),
C(R) sont de dimension infinie.

Thorme 6.48. Soit V un espace vectoriel de dimension finie, et soit S = {v1 , . . . , vn } une base
de V . Alors
(1) Tout sous-ensemble de V ayant plus de n lments est linairement dpendant.
(2) Aucun sous-ensemble de V ayant moins de n lments nengendre V .

Dmonstration. (1) Soit S 0 = {w1 , . . . , wm } avec w1 , . . . , wm V et m > n. Montrons que S 0 est


linairement dpendant. Comme S = {v1 , v2 , . . . , vn } est une base de V , on a

w1 = a11 v1 + a21 v2 + + an1 vn


w2 = a12 v1 + a22 v2 + + an2 vn
...........................
wm = a1m v1 + a2m v2 + + anm vn
92 CHAPITRE 6. ESPACES VECTORIELS

Pour montrer que S 0 est linairement dpendant, on doit trouver des scalaires 1 , 2 , . . . , m non
tous nuls tels que 1 w1 + 2 w2 + + m wm = 0. On peut recrire cette quation comme suit

(1 a11 + 2 a12 + + m a1m )v1 +


+ (1 a21 + 2 a22 + + m a2m )v2 +
+ .................................
+ (1 an1 + 2 an2 + + m anm )vn = 0.

Par lindpendance linaire de S, on obtient

a11 1 + a12 2 + + a1m m = 0


a21 1 + a22 2 + + a2m m = 0
...........................
an1 1 + an2 2 + + anm m = 0.

C est un systme homogne qui a plus dinconnues que dquations. Il a donc des solutions non
triviales 1 , . . . , m R telles que 1 w1 + + m wm = 0 ce qui montre que S 0 = {w1 , . . . , wm } est
linairement dpendant.
La dmonstration de (2) est similaire.

Corollaire 6.49. Toutes les bases dun espace vectoriel de dimension finie ont le mme nombre
dlments.

Dfinition 6.50 (Dimension dun espace vectoriel). La dimension dun espace vectoriel de dimension
finie V , note dim(V ), est par dfinition le nombre dlments dune base de V . Lespace vectoriel
V = {0} est de dimension 0.

Exemple 6.51. Par les exemples qui prcdent, on a


1. dim(Rn ) = n (Exemple 6.41) ;
2. dim(Pn ) = n + 1 (Exemple 6.44) ;
3. dim(M22 ) = 4 (Exemple 6.45) ;
4. Plus gnralement, si Mmn est lespace vectoriel des matrices m n, on a dim(Mmn ) = mn.
En effet, lensemble


1 0 ... 0 0 1 0 ... 0
.. ..
0 . 0 .
M1 =
.. ..

M2 =
.. ..


. . . .
0 ... ... 0 0 ... ... ... 0

0 ... 0
..
0 ... 0 1 1
.

.. .. ..
Mn = . Mn+1 = 0

. .

0 ... ... 0 . ..
..

.
0 ... 0

0 ... 0
.. ..
. .
Mmn =
..


. 0
0 ... 1

est une base de Mmn et possde mn lments.


6.5. BASES ET DIMENSION 93

Exemple 6.52. On a vu la base standard {1, x, . . . , xn } des polynmes de degr au plus n. Voici
une autre base, souvent commode pour les calculs : on fixe des nombres 0 , 1 , . . . , n distincts, et
on considre la base

{(x 0 )(x 1 ) . . . (x n1 ),
(x 0 )(x 1 ) . . . (x n2 )(x n ), . . . ,
(x 0 ) . . . (x i ) . . . (x i+2 ) . . . (x n ), . . . ,
(x 1 )(x 2 ) . . . (x n )}

o chaque fois on prend tous les facteurs (x i ) sauf un.


Cette base est trs utile parce que le i-ime vecteur sannulle en tous les j pour j 6= i.
Exemple 6.53. Nous avons vu que lensemble des solutions dun systme dquations linaires
homogne est un espace vectoriel.
On considre le systme

2x1
+ 2x2 x3 + x5 = 0
x1 x2 + 2x3 3x4 + x5 = 0


x1 + x2 2x3 x5 = 0
x3 + x4 + x5 = 0.

On vrifie que la solution gnrale de ce systme est

x1 = s t x2 = s x3 = t x4 = 0 x5 = t .

Donc les vecteurs solution scrivent sous la forme



x1 s t s t 1 1
x2 s s 0 1 0

x3 = t = 0 +
t = s 0 + t 1 .

x4 0 0 0 0 0
x5 t 0 t 0 1

Ceci montre que les vecteurs



1 1

1


0

v1 =
0
et v2 =
1

0 0
0 1

engendrent lespace des solutions du systme. Dautre part, on vrifie que v1 et v2 sont linairement
indpendants. Donc {v1 , v2 } est une base de lespace des solutions du systme. Ceci montre que cet
espace vectoriel est de dimension 2.
Thorme 6.54. Soit V un espace vectoriel et S un sous-ensemble fini et non vide de V . Alors
(a) si S est linairement indpendant et si v 6 L(S), alors S {v} est encore linairement ind-
pendant ;
(b) si v S est une combinaison linaire dautres vecteurs de S, alors

L(S\{v}) = L(S)

o S\{v} dsigne lensemble obtenu en retirant v de S.


Thorme 6.55. Soit V un espace vectoriel de dimension n. Soit S un sous-ensemble de V conte-
nant exactement n vecteurs. Alors les affirmations suivantes sont quivalentes :
(1) S est une base de V ;
(2) S engendre V ;
94 CHAPITRE 6. ESPACES VECTORIELS

(3) S est linairement indpendant.

Dmonstration. Il est clair que (1) implique (2) et (3). Montrons que (2) implique (1). Pour cela, il
suffit de montrer que (2) implique (3). Autrement dit, il suffit de montrer que que si V = L(S) alors
S est linairement indpendant. On le montre par labsurde. Supposons S linairement dpendant.
Alors il existe v S qui est une combinaison linaire des autres vecteurs de S. Par le thorme
prcdent, ceci implique que
L(S\{v}) = L(S) = V.
Mais S\{v} contient seulement n 1 vecteurs, ce qui contredit lhypothse dim(V ) = n.
Montrons que (3) implique (1). Il suffit de montrer que (3) implique (2). Autrement dit, il suffit
de montrer que si S est linairement indpendant, alors S engendre V . Supposons que ce ne soit pas
le cas. Alors il existe v V tel que v 6 L(S). Par le thorme prcdent, ceci implique que S {v} est
linairement indpendant. Mais S {v} contient n+1 vecteurs ce qui contredit nouveau lhypothse
sur la dimension de V .

Thorme 6.56. Soit V un espace vectoriel de dimension finie et soit S un sous-ensemble fini de
V.
(a) Si S engendre V , alors on peut rtrcir S en une base de V : il existe v1 , . . . , vr S tels que
S\{v1 , . . . , vr } soit une base de V .
(b) Si S est linairement indpendant, alors on peut complter S en une base de V : il existe
w1 , . . . , wk V tels que S {w1 , . . . , wk } soit une base de V .

Dmonstration. Pour (a), on procde par rcurrence sur dim V #S. Supposons que S ne soit pas
linairement indpendant (sinon on a dj gagn). On a alors une combinaison linaire c1 u1 + +
cn un = 0 avec des ui S, et au moins un des ci , disons c1 , non nul. On pose alors v1 = u1 et
S 0 = S \ {v1 }. Par le thorme 6.54(a), S 0 engendre aussi V et est plus petit ; on peut donc, par
rcurrence, enlever v2 , . . . , vr S 0 pour obtenir une base de V ; et donc enlever v1 , . . . , vr S pour
obtenir une base de V .
Pour (b), on procde par rcurrence sur #S dim V . Supposons que S nengendre pas V . Soit
w1 V \ L(S), et S 0 = S {w1 }. Alors, par le thorme 6.54(b), S 0 est toujours linairement
indpendant, mais plus grand, donc par rcurrence peut se complter en une base S 0 {w2 , . . . , wk }
de V . Ainsi S {w1 , . . . , wk } est une base de V .

Thorme 6.57. Soit V un espace vectoriel de dimension finie, et soit W un sous-espace vectoriel
de V . Alors
dim(W ) dim(V ).
De plus, si dim(W ) = dim(V ), alors W = V .

6.6 Espace des lignes et colonnes dune matrice

Dfinition 6.58. Soit A une matrice de taille m n,


a11 a12 ... a1n
a21 a22 ... a2n
A= .

.. .. ..
. . .
am1 am2 ... amn
n
Les vecteurs de R

`1 = a11 a12 ... a1n ,

`2 = a21 a22 ... a2n ,
...........................

`m = am1 am2 ... amn
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 95

sont appels vecteurs ligne de A, et les vecteurs de Rm



a11 a12 a1n
a21 a22 a2n
c1 = . , c2 = . , ... , cn =

..
.. ..

.
am1 am2 amn

sont appels vecteurs colonne de A.

Dfinition 6.59. Soit A une matrice de taille mn. Le sous-espace de Rn engendr par les vecteurs
ligne de A est appel espace des lignes de A, et le sous-espace de Rm engendr par les vecteurs colonne
de A est appel espace des colonnes de A.
Ainsi la dimension de lespace des lignes de A est le nombre de lignes linairement indpendantes
de A ; la dimension de lespace des colonnes est le nombre de colonnes linairement indpendantes
de A. On verra bientt que ces dimensions sont gales.
Dfinition 6.60 (Noyau (ou Nilespace) dune matrice). Lespace des solutions du systme dqua-
tions homogne
Ax = 0
est appel noyau de A, ou nilespace de A. Le noyau (nilespace) de A est un sous-espace vectoriel de
Rn . Il est not Ker(A).
Thorme 6.61. Soit A une matrice m n. Alors
1. Lespace des colonnes de A est Rm si et seulement si fA est surjective ;
2. Le noyau ker(A) = 0 si et seulement si fA est injective ;
3. Ax = b admet une solution si et seulement si b appartient lespace des colonnes de A ;
4. Lespace des lignes de A est lespace des colonnes de AT ;
5. Soit x0 un vecteur solution du systme Ax = b, et soit {v1 , v2 , . . . , vk } une base du noyau de
A. Alors lensemble des solutions du systme Ax = b est

{x0 + c1 v1 + + ck vk : ci R}.

Dmonstration. 1. Lespace des colonnes est limage de lapplication fA . Ainsi lespace des co-
lonnes est Rm si et seulement si limage de fA est Rm , cest--dire si et seulement si fA est
surjective.
2. Le noyau de A est lensemble des x Rn tels que Ax = 0. Ainsi le noyau de A est 0 si et
seulement si Ax = 0 nadmet que x = 0 comme solution, ce qui veut dire que A est injective.
3. Ax = b admet une solution si et seulement si b est dans limage de fA , qui est lespace des
colonnes de A.
4. Cest vident.
5. On calcule dabord

A(x0 + c1 v1 + + ck vk ) = Ax0 + c1 Av1 + + ck Avk = b + 0 + + 0 = b,

ce qui montre que x0 + c1 v1 + + ck vk est une solution quels que soient c1 , . . . , ck .


Ensuite, soit x1 une autre solution Ax = b. On a alors A(x1 x0 ) = b b = 0, donc
x1 x0 ker(A). On peut donc crire x1 x0 = c1 v1 + + ck vk dans la base de ker(A). On
a donc x1 = x0 + c1 v1 + + ck vk pour certains c1 , . . . , ck R.

Thorme 6.62. Les oprations lmentaires sur les lignes ne changent pas le noyau de la matrice.
Dmonstration. Soit A une matrice. Le noyau de A est par dfinition lespace vectoriel des solutions
du systme Ax = 0. Nous avons vu que les oprations lmentaires sur A ne changent pas les
solutions du systme Ax = 0. Ceci implique que les oprations lmentaires ne changent pas le
noyau de A.
96 CHAPITRE 6. ESPACES VECTORIELS

Thorme 6.63. Les oprations lmentaires sur les lignes ne changent pas lespace des lignes de
la matrice.

Dmonstration. Soit A une matrice, et soient `1 , . . . , `m ses vecteurs ligne. Soit B une matrice
obtenue partir de A par une opration lmentaire sur les lignes. Si lopration consiste permuter
deux lignes de A, alors B a les mmes lignes que A, donc lespace des lignes est le mme. Si lopration
consiste multiplier une ligne de A par un scalaire non nul, ou ajouter un multiple dune ligne
une autre, alors les lignes de B sont des combinaisons linaires de `1 , . . . , `m . Donc lespace des lignes
de B est contenu dans lespace des lignes de A. Comme les oprations lmentaires sont rversibles,
on voit que lespace des lignes de A est contenu dans lespace des lignes de B. Donc ces deux espaces
vectoriels sont gaux.

Thorme 6.64. Soit A une matrice. Alors les lignes non nulles de la matrice chelonne rduite
forment une base de lespace des lignes de A.

Dmonstration. La matrice chelonne rduite a autant de 1 directeurs que de lignes non nulles.
Les 1 directeurs sont dans des colonnes diffrentes. Donc les vecteurs ligne non nuls de la matrice
chelonne rduite sont linairement indpendants. Comme ils engendrent galement lespace des
lignes, ils forment une base de cet espace.

Exemple 6.65.
1 1 0 0 1 0
0 0 1 0 1 0
A=
0

0 0 1 0 0
0 0 0 0 0 0

est une matrice chelonne rduite. Les lignes non nulles de A sont

`1 = (1 1 0 0 1 0), `2 = (0 0 1 0 1 0) et `3 = (0 0 0 1 0 0).

Elles sont linairement indpendantes. En effet, soient 1 , 2 , 3 R tels que

1 `1 + 2 `2 + 3 `3 = 0 .

Alors on a
1 (1 1 0 0 1 0) + 2 (0 0 1 0 1 0) + 3 (0 0 0 1 0 0) = (0 0 0 0 0 0).
Donc 1 = 2 = 3 = 0.

Application. Nous donnons la mthode pour extraire une base dune famille de vecteurs.
Soient
2 1 1
3 10 11
x= 8 , y = 21 , z = 23 .

19 69 76
Nous voulons extraire une base de cette famille de vecteurs. Nous crivons ces trois vecteurs en ligne
dans une matrice 3 4. On obtient

2 3 8 19
A = 1 10 21 69 .
1 11 23 76

Par le thorme 6.64, les lignes non nulles de la matrice chelonne rduite forment une base de
lespace des lignes de la matrice A. Il suffit donc dechelonner A et de la rduire pour trouver une
base.
2 3 8 19
1 10 21 69
1 11 23 76
`2 2`2 + `1
6.6. ESPACE DES LIGNES ET COLONNES DUNE MATRICE 97


2 3 8 19
0 17 34 119
1 11 23 76
`3 2`3 `1

2 3 8 19
0 17 34 119
0 19 38 133
`3 17`3 + 19`2

2 3 8 19
0 17 34 119
0 0 0 0
1
`2 17 `2

2 3 8 19
0 1 2 7
0 0 0 0
`1 `1 3`2

2 0 2 2
0 1 2 7
0 0 0 0

`1 12 `1

1 0 1 1
0 1 2 7
0 0 0 0
Une base de lespace engendr par les vecteurs x, y et z est


1 0
0 ,
1
.


1 2

1 7

En fait, on peut galement prendre comme vecteurs de base les lignes non nulles de la matrice
chelonne (non ncessairement rduite).

Thorme 6.66. Soit A une matrice de taille m n. Alors la dimension de lespace des lignes de
A est gale la dimension de lespace des colonnes de A. Cette dimension est appele le rang de la
matrice A et est note rg(A).

Dmonstration. Soit
a11 ... a1n
.. ..
A= . .

.
am1 ... amn
Soient `1 , . . . , `m les lignes de A et c1 , . . . , cn les colonnes de A. Supposons que la dimension de
lespace des lignes de A soit k, et soit {b1 , . . . , bk } une base de cet espace. On peut donc crire
chaque ligne comme combinaison linaire des vecteurs de cette base :

`1 = 11 b1 + + 1k bk
.....................
`m = m1 b1 + + mk bk .
98 CHAPITRE 6. ESPACES VECTORIELS

Ceci donne le systme

a1j = 11 b1j + + 1k bkj


a2j = 21 b2j + + 2k bkj
.....................
amj = m1 b1j + + mk bkj

avec
bj = (bj1 . . . bjn ) .

On a donc
11 1k
21 2l
cj = b1j + + bkj .

.. ..
. .
m1 mk

Ainsi lespace des colonnes de A est engendr par k vecteurs. La dimension de cet espace est donc
au plus gale k. Ce raisonnement est valable pour nimporte quelle matrice et en particulier pour
la transpose de A. Or, les colonnes de AT sont les lignes de A, et les lignes de AT sont les colonnes
de A. Grce au raisonnement prcdent applique AT , on voit que la dimension de lespace des
lignes de A est au plus gale la dimension de lespace des colonnes de A. Ces deux dimensions sont
donc gales.

Dfinition 6.67. Soit A une matrice. La nullit de A est par dfinition la dimension du noyau de
A, et est not null(A).

Thorme 6.68 (Thorme du rang). Soit A une matrice n colonnes. Alors

rg(A) + null(A) = n.

Dmonstration. Le systme linaire homogne

Ax = 0

a n variables. Donc la somme du nombre des variables directrices et du nombre des variables libres est
n. Or, le nombre de variables directrices est gal au nombre de 1 directeurs dans la forme chelonne
rduite de A. Ce nombre est gal au rang de (A). Dautre part, le nombre de variables libres est
gal au nombre de paramtres de la solution gnrale du systme, ce qui est gal la dimension de
lespace des solutions du systme, qui est par dfinition gal la nullit de A. On a donc bien

rg(A) + null(A) = n.

Thorme 6.69. Soit A une matrice de taille nn. Alors les affirmations suivantes sont quivalen-
tes :
(1) A est inversible
(2) rg(A) = n
(3) null(A) = 0.

Dmonstration. Nous avons vu que A est inversible si et seulement si sa forme chelonne rduite
est la matrice identit In . Ceci se passe si et seulement si toutes les variables sont directrices. Mais le
nombre de variables directrices est gal au rang de A. On a donc (1) (2). Lquivalence (2) (3)
rsulte du thorme prcdent.
6.7. CHANGEMENTS DE BASES 99

6.7 Changements de bases


Soit V un espace vectoriel, et soit

B = {v1 , v2 , . . . , vn }

une base de V . Nous avons vu que tout v V scrit de faon unique

v = 1 v1 + 2 v2 + + n vn

avec 1 , 2 , . . . , n R . Les 1 , . . . , n sont appels les coordonnes de v dans la base B, et on note



1
2
(v)B = . .

..
n

6.7.1 Changement de bases en 2 dimensions


Soient
B = {u1 , u2 } et B 0 = {u01 , u02 }
deux bases du mme espace vectoriel. Supposons que
 
0 a
(u1 )B =
b
et  
c
(u02 )B =
d
autrement dit que

u01 = au1 + bu2


u02 = cu1 + du2 .

Soit v V tel que  


1
(v)B 0 = ,
2
cest--dire que
v = 1 u01 + 2 u02 .
Nous aimerions trouver les coordonnes de v par rapport la base B. On a

v = 1 (au1 + bu2 ) + 2 (cu1 + du2 )


= (1 a + 2 c)u1 + (1 b + 2 d)u2

On a donc  
1 a + 2 c
(v)B = .
1 b + 2 d
Ceci peut galement scrire
  
a c 1
(v)B =
b d 2
 
a c
= (v)B 0 .
b d

La matrice  
a c
PB,B 0 =
b d
est la matrice de changement de bases (ou de passage de bases) de B 0 B.
100 CHAPITRE 6. ESPACES VECTORIELS

6.7.2 Dimension quelconque


Soit V un espace vectoriel de dimension n, et soient
B = {u1 , . . . , un } et B 0 = {u01 , . . . , u0n }
deux bases de V . Alors
(v)B = PB,B 0 (v)B 0
o PB,B 0 est la matrice dont les colonnes sont les coordonnes de u01 , . . . , u0n par rapport la base
B ; autrement dit,
PB,B 0 = (u01 )B (u02 )B . . . (u0n )B .


On appelle PB,B 0 la matrice de changement de base (ou de passage de base) de B 0 B.

Exemple 6.70. Soient B = {u1 , u2 } et B 0 = {u01 , u02 } deux bases de R2 , avec


u1 = ( 10 ) , u2 = ( 01 ) ;
u01 = ( 11 ) , u02 = ( 21 ) .
On a
u01 = u1 + u2
u02 = 2u1 + u2 .
Donc    
1 2
(u01 )B = , (u02 )B = .
1 1
La matrice de changement de base de B 0 B est ainsi
 
1 2
PB,B 0 = .
1 1

Thorme 6.71. Soit V un espace vectoriel de dimension finie, et soient B et B 0 deux bases de V .
Soit PB,B 0 la matrice de changement de base de B 0 B. Alors PB,B 0 est inversible et la matrice de
1
changement de base de B B 0 est PB,B 0.

Dmonstration. Soit PB 0 ,B la matrice de changement de base de B B 0 . Montrons que


PB,B 0 PB 0 ,B = I .
Soit B = {u1 , u2 , . . . , un }, et supposons que

c11 c12 ... c1n
c21 c22 ... c2n
PB,B 0 PB 0 ,B = .

.. ..
. .
cn1 cn2 ... cnn
Nous avons
(x)B = PB,B 0 (x)B 0
et
(x)B 0 = PB 0 ,B (x)B
pour tout x V . On a donc
(x)B = PB,B 0 PB 0 ,B (x)B .
Pour x = u1 , on obtient

1 c11 c12 ... c1n 1
0 c21 c22 ... c2n 0
=

.. .. .. .. ..
. . . . .
0 cn1 cn2 ... cnn 0
6.7. CHANGEMENTS DE BASES 101

do
1 c11
0 c21
= .

.. ..
. .
0 cn1
Le mme raisonnement avec x = u2 , . . . , un nous donne

c12 0 c1n 0
c22 1 c2n 0
.. = .. , . . . , .. = .

..
. . . .
cn2 0 cnn 1

Ceci montre que


PB,B 0 PB 0 ,B = I.

Thorme 6.72. Soit V un espace vectoriel de dimension n et soient B, B 0 , B 00 trois bases de V .


Alors
PB,B 0 PB 0 ,B 00 = PB,B 00 .

Dmonstration. Soit x V . On a
(x)B = PB,B 0 (x)B 0
et
(x)B 0 = PB 0 ,B 00 (x)B 00
do
(x)B = PB,B 0 PB 0 ,B 00 (x)B 00 .
Ainsi, la matrice de changement de base de B 00 B est PB,B 0 PB 0 ,B 00 . Autrement dit,

PB,B 00 = PB,B 0 PB 0 ,B 00 .

Application. Soit V un espace vectoriel de dimension n. Soient B 0 et B 00 deux bases de V et C


0
une autre base de V . Si on connat les coordonnes des vecteurs de B et de B  dans C, on peut
calculer la matrice PB,B 0 de la manire suivante : Ecrivons PC,B : PC,B 0 . Comme PC,B est
inversible (son inverse est PB,C ), elle est quivalente par lignes In . On obtient donc, par la mthode
de Gauss, que
In : (PC,B )1 PC,B 0


ou, autrement dit !


In : (PB,C ) PC,B 0
| {z } .
PB,B 0

La matrice C dsigne souvent la matrice canonique. Dans ce cas, si on connat les coordonnes de
B et B 0 dans la base canonique, on calcule directement la matrice de passage de B 0 B.

Exemple 6.73. Soit V = R3 et C sa base canonique. Dfinissons



1 0 3
B = 1 , 1 , 2
0 0 1

et
1 0 0
B 0 = 1 , 1 , 0 .
0 0 1

102 CHAPITRE 6. ESPACES VECTORIELS

On a alors
1 0 3 1 0 0
PC,B = 1 1 2 et PC,B 0 = 1 1 0 .
0 0 1 0 0 1
1 1
On applique maintenant la mthode de Gauss pour calculer PC,B et donc PB,B 0 = PC,B PC,B 0 :

1 0 3 : 1 0 0
1 1 2 : 1 1 0
0 0 1 : 0 0 1

`2 `2 `1

1 0 3 : 1 0 0
0 1 1 : 2 1 0
0 0 1 : 0 0 1
`1 `1 + 3`3
`2 `2 + `3
`3 `3

1 0 0 : 1 0 3
0 1 0 : 2 1 1
0 0 1 : 0 0 1
Do :
1 0 3
PB,B 0 = 2 1 1 .
0 0 1
Chapitre 7

Produits scalaires gnraliss

7.1 Dfinition et premires proprits


Dfinition 7.1. Soit V un espace vectoriel. Alors un produit scalaire gnralis sur V est par
dfinition une application

<, >: V V R
(u, v) 7< u, v >

ayant les proprits

(1) < u, v >=< v, u > symtrie


(2) < u + v, w >=< u, w > + < v, w > additivit
(3) < u, v >= < u, v > homognt
(4) < v, v > 0 positivit
(5) < v, v >= 0 v = 0.

pour tout u, v, w V et R.

Exemple 7.2. Produit scalaire euclidien sur Rn . Dans cet exemple, on a

V = Rn

et
< u, v >= u v
le produit scalaire euclidien (produit scalaire habituel) de Rn . Nous avons dj vu que les proprits
(1) - (5) sont vrifies dans cet exemple.
Exemple 7.3. Soient u = ( uu12 ) et v = ( vv12 ) deux vecteurs de R2 . Posons

< u, v > = 3u1 v1 + 2u2 v2 .

Alors <, > est un produit scalaire gnralis sur R2 . Vrifions les proprits (1) - (5) :
(1) On a

< u, v > = 3u1 v1 + 2u2 v2


= 3v1 u1 + 2v2 u2
= < v, u > .

(2) Soit w = ( w1
w2 ). Alors

< u + v, w > = 3(u1 + v1 )w1 + 2(u2 + v2 )w2


= (3u1 w1 + 2u2 w2 ) + (3v1 w1 + 2v2 w2 )
= < u, w > + < v, w > .

103
104 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

(3)

< u, v > = 3(u1 )v1 + 2(u2 )v2


= (3u1 v1 + 2u2 v2 )
= < u, v > .

(4)

< v, v > = 3v1 v1 + 2v2 v2


= 3v12 + 2v22 0.

(5)

< v, v > = 3v12 + 2v22 = 0


v1 = 0 v2 = 0
v = 0.

Dfinition 7.4. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
dfinit la norme (ou longueur) dun vecteur v V par la formule

k v k= < v, v >

La distance entre u, v V est mme par dfinition

d(u, v) =k u v k .

Exemple 7.5. Norme et distance dans Rn . Lorsque V = Rn et <, > est le produit scalaire habituel
< u, v >= u v, on retrouve les notions habituelles de norme et de distance dans Rn .

Exemple 7.6. Soit V = R2 . On obtient des notions de norme et de distance diffrentes selon le
produit scalaire gnralis choisi. Soient u = ( 10 ) et v = ( 01 ). Si lon choisit le produit scalaire
habituel sur R2 , on a q
k u k= u21 + u22 = 1 + 0 = 1
et
1

d(u, v) =k u v k=k 1 k
p
= 12 + (1)2 = 2.

Si lon choisit le produit scalaire gnralis < u, v >= 3u1 v1 + 2u2 v2 on obtient

k u k = < u, u >
q
= 3u21 + 2u22

= 3 + 0 = 3.

et
q
1 1
 
d(u, v) =k u v k= < 1 , 1 >= 3+2= 5.

Dfinition 7.7 (Cercle unit (ou sphre unit)). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Alors le cercle unit, ou sphre unit de V est par dfinition lensemble des
u V tels que
k u k= 1 .
Ce sont les lments de V dont la distance lorigine est gale 1.
7.1. DFINITION ET PREMIRES PROPRITS 105

Exemple 7.8. Soit V = R2 et <, > le produit scalaire habituel. Soit u = ( xy ). Alors
p
k u k= x2 + y 2
p
et lquation du cercle unit est alors x2 + y 2 = 1 ou
x2 + y 2 = 1.
Exemple 7.9. Soit V = R2 muni du produit scalaire gnralis
< u, v >= 3u1 v1 + 2u2 v2 .
Soit w = (x, y). Alors p
k w k= 3x2 + 2y 2
p
ce qui donne 3x2 + 2y 2 = 1 ou
3x2 + 2y 2 = 1
comme quation pour le cercle unit.
Le graphe de cette quation est une ellipse.

Dfinition 7.10. Soit A une matrice de taille n n inversible. Le produit scalaire gnralis associ
A est, par dfinition, le produit scalaire sur Rn qui u, v Rn associe
Au Av
(le produit scalaire habituel de Au et de Av).
Soient u, v Rn reprsents comme vecteurs colonne. Nous avons vu que
Au Av = (Av)T Au
et ceci conduit une nouvelle formulation de ce produit scalaire gnralis :
< u, v >= v T AT Au.
Notons que lorsque A = I, on obtient le produit scalaire habituel < u, v >= u v.
Exemple 7.11. Soit  
3 0
A= .
0 2
Alors le produit scalaire gnralis associ A est
   
3 0 3 0 u1
< u, v > = (v1 v2 )
0 2 0 2 u2
  
3 0 u1
= (v1 v2 )
0 2 u2
= 3u1 v1 + 2u2 v2 .
On retrouve ainsi le produit scalaire de lexemple 7.3.

Thorme 7.12. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors, pour
tout u, v, w V et tout R, on a
(a) < 0, v >=< v, 0 >= 0
(b) < u, v >= < u, v >
(c) < u, v + w >=< u, v > + < u, w > .

Dmonstration. Ceci dcoule immdiatement des proprits du produit scalaire :


(a) < 0, v >= 0 < 0, v >= 0 et < v, 0 >=< 0, v >= 0.
(b) < u, v >=< v, u >= < v, u >= < u, v >.
(c) < u, v + w >=< v + w, u >=< v, u > + < w, u >=< u, v > + < u, w > .
106 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

7.2 Angles et orthogonalit


Thorme 7.13 (Ingalit de Cauchy-Schwarz). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Soient u, v V . Alors on a

| < u, v > | k u k k v k .

Dmonstration. Si u = 0 , alors on a

< u, v >=k u k= 0 ,

donc laffirmation est vraie. Supposons que u 6= 0, et posons

a = < u, u >
b = 2 < u, v >
c = < v, v > .

On a, pour tout t R,

0 < tu + v, tu + v > = < u, u > t2 + 2 < u, v > t+ < v, v > = at2 + bt + c.

Donc
at2 + bt + c 0
pour tout t R . Ceci implique que le polynme quadratique

aX 2 + bX + c

a soit une racine double, soit aucune racine relle.


Son discriminant est donc ngatif ou nul : b2 4ac 0. Remplaant a par < u, u >, b par
2 < u, v > et c par < v, v >, on obtient

4 < u, v >2 4 < u, u >< v, v > 0

ce qui implique
< u, v >2 < u, u > < v, v >
donc
| < u, v > | < u, u >< v, v > =k u k k v k .

Thorme 7.14. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
a, pour tout u, v V et pour tout R
(a) k u k 0
(b) k u k = 0 u=0
(c) k u k = || k u k
(d) k u + v k k u k + k v k ingalit du triangle

Dmonstration. La dmonstration est la mme que dans le cas du produit scalaire habituel.

Corollaire 7.15. Soit V un espace vectoriel muni dun produit scalaire gnralis. Alors, pour tout
u, v, w V et tout R, on a
(a) d(u, v) 0
(b) d(u, v) = 0 u=v
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) + d(w, v) ingalit du triangle

Dmonstration. Ceci est une consquence immdiate des dfinitions et du thorme prcdent.
7.2. ANGLES ET ORTHOGONALIT 107

7.2.1 Angle form par deux vecteurs


Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient u, v V . Alors par
lingalit de Cauchy-Schwarz, on a si u 6= 0 et v 6= 0
 2
< u, v >
1
kukkvk
donc
< u, v >
1 1.
kukkvk
Il existe donc un unique angle , avec 0 , tel que
< u, v >
cos = .
kukkvk
On appelle langle form par les vecteurs u et v. Remarquons que dans le cas du produit scalaire
habituel de Rn , on retrouve la notion habituelle dangle entre deux vecteurs.
Dfinition 7.16. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient
u, v V . On dit que u et v sont orthogonaux si et seulement si
polynme < u, v >= 0 .

Exemple 7.17. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2. On dfinit
un produit scalaire gnralis sur P2 en posant
Z 1
< p, q >= p(x)q(x)dx
1

pour tout p, q P2 . Les axiomes de produit scalaire gnralis sont faciles vrifier. On a par
exemple la positivit : pour tout p P2 , on a
Z 1
< p, p >= p2 (x)dx 0 .
1

Soient
p(x) = x
et
q(x) = x2
alors p et q sont orthogonaux. En effet
Z 1 Z 1
< p, q > = x x2 dx = x3 dx
1 1
= 0.

Thorme 7.18 (Thorme de Pythagore gnralis). Soit V un espace vectoriel muni dun produit
scalaire gnralis. Soient u, v V , et supposons que u et v soient orthogonaux. Alors
k u + v k2 =k u k2 + k v k2 .
Dmonstration. Comme u et v sont orthogonaux, on a
< u, v >= 0 .
Donc
k u + v k2 = < u + v, u + v >
= k u k2 + k v k2 +2 < u, v >
= k u k2 + k v k2 .
108 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

Exemple 7.19. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2, muni du
produit scalaire gnralis dfini dans lexemple 7.17.
Soient p(x) = x et q(x) = x2 . Nous avons vu que p et q sont orthogonaux. Calculons k p k2 , k
q k , et k p + q k2 :
2

Z 1 Z 1
2 2 2 2 2
k p k =< p, p >= x dx = k q k =< q, q >= x4 dx =
1 3 1 5
Z 1 Z 1
16
k p + q k2 =< p + q, p + q >= (x + x2 )(x + x2 )dx = (x4 + 2x3 + x2 )dx =
1 1 15
On a bien
k p k2 + k q k2 =k p + q k2
Dfinition 7.20. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . On dit que u V est orthogonal W si u est orthogonal tout lment
de W . Lensemble des u V qui sont orthogonaux W est appel le complment orthogonal de W .
Il est not W .
Thorme 7.21. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . Alors on a
(a) W est un sous-espace vectoriel de V .
(b) W W = {0} .

Figure 9.1 : V = R2 < u, v >= u v

Dmonstration. (a) On a < 0, w >= 0 pour tout w W , donc 0 W . Montrons que W est
ferm par addition et par multiplication par les scalaires. Soient
u, v W .
Alors
< u, w >=< v, w >= 0
pour tout w W . On a donc
< u + v, w >=< u, w > + < v, w >= 0 + 0 = 0
7.2. ANGLES ET ORTHOGONALIT 109

pour tout w W ce qui montre que


u + v W .
De mme, si R, alors
< u, w >= < u, w >= 0
pour tout w W et donc u W .
(b) Soit v W W . Alors
< v, v >= 0
et donc
v = 0.

Thorme 7.22. Soit A une matrice de taille m n. Alors


(a) Par rapport au produit scalaire habituel de Rn , le complment orthogonal de lespace des lignes
de A est le nilespace (noyau) de A.
(b) Par rapport au produit scalaire habituel de Rm , le complment orthogonal de lespace des co-
lonnes de A est le nilespace de AT .

Dmonstration. (a) Soit W lespace des lignes de A. Soit v W . Soient `1 , . . . , `m les vecteurs
ligne de A. Alors
`1 v = `2 v = = `m v = 0 .
Or, nous avons vu que le systme linaire

Ax = 0

peut tre exprim par


`1 x 0
`2 x 0
= .

.. ..
. .
`m x 0
Comme `1 v = `2 v = = `m v = 0, le vecteur v est une solution de ce systme. Par
dfinition, ceci implique que v est dans le nilespace de A.
Rciproquement, supposons que v est dans le nilespace de A, autrement dit

Av = 0 .

Alors on a
`1 v = `2 v = = `m v = 0 .
Soit w W . Alors w est combinaison linaire de `1 , `2 , . . . , `m ., cest--dire que lon a

w = 1 `1 + 2 `2 + + m `m

avec 1 , 2 , . . . , m R. On a donc

wv = (1 `1 + 2 `2 + + m `m ) v
= 1 (`1 v) + 2 (`2 v) + + m (`m v)
= 0

Donc v W . Ceci dmontre la partie (a) du thorme.


(b) On applique (a) la matrice AT : en effet, lespace des colonnes de A est gal lespace des
lignes de AT .
110 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

7.3 Bases orthogonales et mthode de Gram-Schmidt


Dfinition 7.23. Soit V un espace vectoriel muni dun produit scalaire gnralis . Soit

S = {v1 , . . . , vn }

un sous-ensemble de V . On dit que S est un ensemble orthogonal si vi est orthogonal vj pour tout
i 6= j. On dit que S est un ensemble orthonorm si S est orthogonal et si

k vi k= 1

pour tout i = 1, . . . , n . Un ensemble orthogonal qui est une base est appel une base orthogonale ;
un ensemble orthonorm qui est une base est appel une base orthonorme.

Thorme 7.24. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >, et soit
S = {v1 , . . . , vn } une base orthonorme de V . Soit u V . Alors

u = < u, v1 > v1 + + < u, vn > vn .

Dmonstration. Comme S est une base, il existe 1 , . . . , n R tels que

u = 1 v1 + + n vn .

On a
< u, vi >=< 1 v1 + + n vn , vi >= 1 < v1 , vi > + + n < vn , vi > .
Or, comme < vj , vi >= 0 si i 6= j et < vi , vi >=k vi k2 = 1, on a

< u, vi >= i

et par consquent
u =< u, v1 > v1 + < u, v2 > v2 + + < u, vn > vn .

On appelle les scalaires


< u, v1 >, < u, v2 >, . . . , < u, vn >
les coordonnes de u par rapport la base orthonorme {v1 , . . . , vn }.

Thorme 7.25. Soit V un espace vectoriel muni dun produit scalaire gnralis <, > . Soit S =
{v1 , v2 , . . . , vn } une base orthogonale de V et u un vecteur de V . Alors
< u, v1 > < u, v2 > < u, vn >
u= v1 + v2 + + vn .
k v1 k2 k v2 k 2 k vn k 2

Dmonstration. La base  
v1 v2 vn
S0 = , ,...,
k v1 k k v2 k k vn k
est orthonorme. Par le thorme prcdent, on a donc
   
v1 v1 vn vn
u = u, + + u,
k v1 k k v1 k k v n k k vn k

et alors
< u, v1 > < u, vn >
u= v1 + + vn .
k v1 k2 k vn k 2

Thorme 7.26. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
{v1 , . . . , vn } un sous-ensemble orthogonal de V , avec vi 6= 0 pour tout i = 1, . . . , n. Alors S est une
famille linairement indpendante.
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 111

Dmonstration. Supposons que

1 v1 + 2 v2 + + n vn = 0

avec 1 , 2 , . . . , n R. On a

< 1 v1 + 2 v2 + + n vn , vi >=< 0, vi >= 0

pour tout i = 1, . . . , n. Par linarit du produit scalaire, on obtient

1 < v1 , vi > +2 < v2 , vi > + + n < vn , vi >= 0.

Mais comme < vj , vi >= 0 si i 6= j, on obtient

i < vi , vi >= 0

ce qui implique, comme vi 6= 0, que i = 0 pour tout i = 1, . . . , n. Donc S est linairement


indpendant.
Thorme 7.27. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
{v1 , v2 , . . . , vn } un sous-ensemble orthonorm (qui nest pas forcment une base ; il peut tre plus
petit) de V et soit u V . Posons

w1 =< u, v1 > v1 + < u, v2 > v2 + + < u, vn > vn

et w2 = u w1 . Notons W = L(S), le sous-espace vectoriel de V engendr par S. Alors w1 W et


w2 W .

,
,
u,,
w2 ,
,
,
,
,
,
, w1 W

Figure 9.2 : u = w1 + w2

Notation : Le vecteur w1 W est appel la projection orthogonale de u sur W , et est not

projW (u).

Dmonstration. Il est clair que w1 W , puisque w1 est une combinaison linaire de v1 , . . . , vn .


Montrons que w2 W . On a

< w2 , vi >=< u w1 , vi >=< u, vi > < w1 , vi >

pour tout i = 1, . . . , n. On a

< w1 , vi > = h< u, v1 > v1 + + < u, vn > vn , vi i


= < u, v1 >< v1 , vi > + + < u, vn >< vn , vi >
= 0 + + 0+ < u, vi >< vi , vi > +0 + + 0
= < u, vi > 1 =< u, vi >

pour tout i = 1, . . . , n. On a donc

< w2 , vi >=< u, vi > < w1 , vi >= 0


112 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

pour tout i = 1, . . . , n ce qui montre que w2 est orthogonal S = {v1 , v2 , . . . , vn }. Comme S engendre
W , on a que w2 est orthogonal W . Donc

w2 W .

Corollaire 7.28. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit W un
sous-espace vectoriel de dimension finie de V . Alors tout u V scrit de manire unique comme

u = w1 + w2

avec w1 W et w2 W . De plus, w1 = projW (u).

Exemple 7.29. Soit V = R3 , <, > le produit scalaire habituel, et soit W le sous-espace engendr
par
0 4/5
v1 = 1 et v2 = 0 .
0 3/5
On vrifie que k v1 k=k 2 k= 1, et que < v1 , v2 >= v1 v2 = 0. Donc S = {v1 , v2 } est un ensemble
 1v
orthonorm. Soit u = 1 . Alors
1

w1 = projW (u) =< u, v1 > v1 + < u, v2 > v2 .

Comme < u, v1 >= 1 et < u, v2 >= 51 , ceci donne



4/25
1
projW (u) = v1 v2 = 1 .
5
3/25

La dcomposition orthogonale de u par rapport W est donc



1 4/25 21/25
1 = 1 + 0 .
1 3/25 28/25
 
21/25
On vrifie que 0 est orthogonal v1 et v2 et donc quil est bien dans W .
28/25

Thorme 7.30. Soit V un espace vectoriel de dimension finie muni dun produit scalaire gnralis
<, >. Alors V a une base orthonorme.

Dmonstration. On va dmontrer le thorme en construisant une base orthonorme. La mthode de


construction utilise ici sappelle mthode de Gram-Schmidt ou procd de Gram-Schmidt.
Soit S = {u1 , . . . , un } une base quelconque de V . On construit une base orthonorme en n tapes.

1re tape : On pose


u1
v1 =
k u1 k
ce qui nous donne k v1 k= 1.

2re tape : Soit W1 le sous-espace de V engendr par v1 . On pose

w2 = u2 projW1 (u2 ) .

Alors
< w2 , v1 >= 0
7.3. BASES ORTHOGONALES ET MTHODE DE GRAM-SCHMIDT 113

car w2 est orthogonal W1 , donc v1 . Vrifions que w2 6= 0. En effet, si w2 = 0, alors

u2 = projW1 (u2 ) .

Ceci implique que u2 et v1 sont linairement dpendants et donc que u2 et u1 le sont galement.
Ceci nest pas possible car u1 et u2 font partie dune base de V . La norme de w2 est donc non nulle.
On pose alors
w2
v2 = .
k w2 k
On a k v2 k= 1, k v1 k= 1 et < v1 , v2 >= 0.

k-me tape Supposons construits les vecteurs

v1 , v2 , . . . , vk1

tels que
k v1 k=k v2 k= =k vk1 k= 1,
que < vi , vj >= 0 si i 6= j et que le sous-espace Wk1 engendr par v1 , v2 , . . . , vk1 soit gal au
sous-espace engendr par u1 , . . . , uk1 . On pose

wk = uk projWk1 (uk ).

Montrons que wk 6= 0. Si wk = 0, alors uk = projWk1 (uk ), donc uk Wk1 = L(u1 , . . . , uk1 ).


Ceci contredit lhpothse que u1 , . . . , uk font partie dune base de V . Donc wk 6= 0. Comme wk =
uk projWk1 (uk ), le vecteur wk est orthogonal Wk1 et en particulier v1 , . . . , vk1 . On pose
finalement
wk
vk = .
k wk k
On a ainsi construit v1 , . . . , vk tels que

k v1 k= =k vk k= 1,

et que < vi , vj >= 0 si i 6= j et L(v1 , . . . , vk ) = L(u1 , . . . , uk ). On termine ce procd lorsque lon a


obtenu vn .
3
Exemple
 1  7.31. On
0
 0 R muni du produit scalaire habituel. Soit S = {u1 , u2 , u3 }, avec
 considre
u1 = 1 , u2 = 1 , u3 = 0 une base de R3 . On applique la mthode de Gram-Schmidt pour
1 1 1
obtenir une base orthonorme.
1
1re tape : w1 = u1 = 1 .
1
2me tape : soit W1 = L(w1 ) = L(u1 ). On pose

w2 = u2 projW1 (u2 ) =
< u2 , w1 >
= u2 w1
k w1 k2

Comme < u2 , w1 >=< u2 , u1 >= 2 et k w1 k2 =k u1 k2 = 3, on obtient



0 1 2/3
2
w2 = 1 1 = 1/3 .
3
1 1 1/3

3me tape : soit


W2 = L(w1 , w2 ) = L(u1 , u2 ).
Posons
0
< u3 , w1 > < u3 , w2 >
w3 = u3 projW2 (u3 ) = u3 w1 w2 = 1/2 .
k w1 k2 k w2 k2
1/2
114 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

On a donc
1 2/3 0
w1 = 1 , w2 = 1/3 , w3 = 1/2 .
1 1/3 1/2
Alors {w1 , w2 , w3 } est une base orthogonale de R3 . On obtient une base orthonorme en posant
w1 w2 w3
v1 = , v2 = et v3 = .
k w1 k k w2 k k w3 k
Ceci nous donne
1/3 2/ 6 0
v1 = 1/3 , v2 = 1/6 , v3 = 1/ 2 .
1/ 3 1/ 6 1/ 2

7.4 Matrices orthogonales


7.4.1 Dfinition et Proprits
Dfinition 7.32. Soit A une matrice carre. On dit que A est une matrice orthogonale si
A1 = AT
Remarque : A est une matrice orthogonale si et seulement si
AT A = AAT = I .

Exemple 7.33. Les matrices de rotation sont orthogonales. Soit un angle. Alors la matrice de la
rotation dangle de R2 est  
cos sin
A= .
sin cos
Cette matrice est orthogonale. En effet, lidentit
sin2 + cos2 = 1
montre que lon a
AT A = I.

Thorme 7.34. Soit A une matrice n n. Les trois proprits suivantes sont quivalentes :
(a) A est orthogonale.
(b) Pour tout x Rn , on a k Ax k=k x k.
(c) Pour tout x, y Rn , on a Ax Ay = x y.
En dautres termes, une matrice orthogonale conserve les normes et les angles.
Dmonstration. (a) = (b) Supposons A orthogonale. On a
k Ax k2 = Ax Ax = x (AT A)x = x x =k x k2 .
(b) = (c) Supposons que
k Ax k=k x k
pout tout x Rn . On a

1 1
Ax Ay = k Ax + Ay k2 k Ax Ay k2 =
4 4
1 1
= k A(x + y) k k A(x y) k2 =
2
4 4
1 1
= k x + y k k x y k2
2
4 4
= xy.
7.4. MATRICES ORTHOGONALES 115

(c) = (a) On considre (c) avec x = ei et y = ej des vecteurs de la base standard. Alors x y
est soit 0 (si i 6= j) soit 1 (si i = j), et est le coefficient Iij de la matrice identit. Dautre part,
Ax Ay = eTj AT Aei

est le coefficient (i, j) de la matrice AT A. Il suit que AT A = I, et donc que A est orthogonale.
Remarque 7.35. Linverse dune matrice orthogonale est orthogonale. En effet on a
A orthogonale A1 = AT
(A1 )1 = (AT )1
(A1 )1 = (A1 )T
A1 est orthogonale.

7.4.2 Changement de bases orthonormes


Thorme 7.36. Soit V un espace vectoriel de dimension finie muni dun produit scalaire gnralis.
Soit P la matrice de changement de base dune base orthonorme vers une autre base orthonorme.
Alors P est une matrice orthogonale.
Dmonstration. Soient B = {e1 , . . . , en } et B 0 = {e01 , . . . , e0n } deux bases orthonormes de V et soit
PB,B 0 la matrice de changement de base de B 0 B. On a
n
X n
X
u= ui ei = u0i e0i .
i=1 i=1
0
Comme B et B sont des bases orthonormes, on a
n n
X X 0
k u k= u2i = ui2 .
i=1 i=1

De plus, on a 0
u1 u1
.. ..
(u)B = . = PB,B 0 . = PB,B 0 (u)B 0 ,
un u0n
n n
X X 0
u2i = (u)TB (u)B et ui2 = (u)TB 0 (u)B 0
i=1 i=1
ce qui implique que
(u)TB 0 (u)B 0 =k u k= (u)TB (u)B = (PB,B 0 (u)B 0 )T PB,B 0 (u)TB 0 = (u)TB 0 PB,B
T
0 PB,B 0 (u)B 0 .

T
Comme ceci est vrai pour tout vecteur u, on en dduit que PB,B 0 PB,B 0 = I ce qui montre que PB,B 0

est orthogonale.

7.4.3 Dcomposition Q-R : application du thorme 7.30


Soit A une matrice n n ayant ses colonnes linairement indpendantes. Alors il existe une
matrice orthogonale Q (par rapport au produit scalaire standard sur Rn ) et une matrice triangulaire
suprieure R, telles que :
A = QR.
Plus prcisment, Q est la matrice dont les colonnes sont les vecteurs obtenus en appliquant le
procd de Gram-Schmidt aux vecteurs colonne de A.
On procde comme suit :
Soit
a11 a12 . . . a1n
A = ... .. .

.
an1 an2 ... ann
116 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

On appelle ci la i-me colonne de A. Soit {c01 , . . . , c0n } la base obtenue en appliquant Gram-Schmidt
{c1 , . . . , cn } et Q la matrice dont les colonnes sont c01 , . . . , c0n .

q11 . . . q1n
Q = ... ..

.
qn1 ... qnn
Comme {c01 , . . . , c0n } est une base orthonorme, on a
c1 = < c1 , c01 > c01 + + < c1 , c0n > c0n
..
.
cn = < cn , c01 > c01 + + < cn , c0n > c0n
cest--dire

q11 q1n
c1 = < c1 , c01 > ... + + < c1 , c0n > ...

qn1 qnn
..
.
q11 q1n
cn = < cn , c01 > ... + + < cn , c0n > ... .

qn1 qnn
Ainsi, on voit que
< c1 , c01 > < c2 , c01 > < cn , c01 >

q11 ... q1n ...
A = ... .. .. ..

. . .
qn1 ... qnn < c1 , c0n > < c2 , c0n > ... < cn , c0n >
| {z }
=R

La matrice R est triangulaire. En effet, par Gram-Schmidt, pour tout k > 1, c0k est orthogonal
lespace engendr par c1 , . . . , ck1 . Ainsi, Rij =< cj , c0i >= 0 pour tout i > j, et R est bien
triangulaire suprieure.
La dcomposition dune matrice en un produit dune matrice orthogonale et dune matrice tri-
angulaire sappelle la dcomposition QR.
Exemple 7.37. Calculons la dcomposition QR de la matrice
 
2 3
A= .
1 0
En appliquant le procd de Gram-Schmidt aux vecteurs colonne de A, on obtient
! !
2 5 5
c01 = 5
5
et c02 = 5
2 5
5 5

De plus,

< c1 , c01 > = 5

6 5
< c2 , c01 > =
5
< c1 , c02 > = 0

0 3 5
< c2 , c2 > =
5
Ainsi,
2 5

5
!
6 5
!
5 5 5 5

Q= 5 2 5
et R = 3 5
.
5 5 0 5
7.5. LA MTHODE DES MOINDRES CARRS 117

7.5 La mthode des moindres carrs


Thorme 7.38. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace de V . Soit u V . Alors

k u projW (u) k < k u w k

pour tout w W , w 6= projW (u). On dit que projW (u) est la meilleure approximation de u par des
vecteurs de W .

Dmonstration. Pour tout w W , on a

u w = (u projW (u)) + (projW (u) w) .

On a
projW (u) w W
et
u projW (u) W
donc ces deux termes sont orthogonaux lun lautre. Par le thorme de Pythagore gnralis, on
a
k u w k2 = k u projW (u) k2 + k projW (u) w k2 .
Si w 6= projW (u), alors
k projW (u) w k2 > 0
, do
k u w k2 > k u projw (u) k2
et donc
k u w k > k u projw (u) k .

7.5.1 Solution approximative dun systme dquations linaires


Soit Ax = b un systme dquations linaires qui est incompatible, cest--dire qui na pas de
solution. Nous allons voir une mthode pour donner une solution approximative de ce systme. Cette
mthode sappelle la mthode des moindres carrs (least squares). Le principe de la mthode est le
suivant : tant donn un systme Ax = b de m quations et n inconnues, on se propose de trouver
un vecteur x tel que la norme
k Ax b k
soit minimale. Un tel vecteur x est appel une solution au sens des moindres carrs. Cette termi-
nologie vient du fait que lon minimise la norme euclidienne de lerreur commise. En effet, posons
e = Ax b. Si le systme admettait une solution, on aurait e = 0. Ce terme mesure donc lerreur
commise par lapproximation faite. Si e = (e1 , . . . , em ), alors

k e k2 = e21 + e22 + + e2m .

On dsire que ces carrs soient aussi petits que possible.


Soit Ax = b un systme de m quations linaires n inconnues. Alors A est de taille m n. Soit
W lespace des colonnes de A. Cest un sous-espace vectoriel de Rm . Nous avons vu que le systme
a une solution si et seulement si b W . Lorsque b 6 W , le mieux que lon puisse faire est de trouver
une approximation de b par un vecteur de W . Or, nous avons vu que la meilleure approximation de
b par un vecteur de W est
projW (b) .
On doit donc rsoudre le systme
Ax = projW (b).
118 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS

On pourrait donc calculer projW (b), et rsoudre le systme Ax = projW (b), mais il y a une meilleure
mthode. En effet, si x est tel que Ax = projW (b), alors le vecteur

b Ax = b projW (b)

est orthogonal W . Mais W est lespace des colonnes de A et W est donc le nilespace de AT . On
doit donc avoir
AT (b Ax) = 0
autrement dit
AT Ax = AT b.

Dfinition 7.39. Le systme


AT Ax = AT b
est appel le systme normal associ au systme Ax = b. Les solutions du systme normal sont les
solutions au sens des moindres carrs (solutions approximatives) du systme de dpart Ax = b.

Thorme 7.40. Pour tout systme dquations linaires

Ax = b

le systme normal associ


AT Ax = AT b
a au moins une solution. Toutes les solutions du systme normal sont des solutions au sens des
moindres carrs du systme Ax = b. De plus, si W est lespace des colonnes de A et si x est une
solution de moindres carrs de Ax = b, alors

projW b = Ax .

Thorme 7.41. Soit A une matrice de taille m n. Supposons que les vecteurs colonne de A
soient linairement indpendantes. Alors la matrice AT A est inversible.

Dmonstration. Pour montrer que AT A est inversible, il suffit de montrer que le systme

AT Ax = 0

a une unique solution (la solution triviale). Soit x une solution de ce systme. Alors Ax est dans le
nilespace de AT . Mais Ax est aussi dans lespace des colonnes de A. Or nous avons vu que ces deux
espaces sont orthogonaux lun lautre. Leur intersection est donc nulle. Ceci implique que

Ax = 0.

Comme nous avons suppos que les vecteurs colonne de A sont linairement indpendants, ceci
implique que x = 0.

Thorme 7.42. Soit A une matrice dont les vecteurs colonne sont linairement indpendants.
Alors tout systme linaire
Ax = b
a une unique solution au sens des moindres carrs qui est donne par

x = (AT A)1 AT b .

Dmonstration. Ceci dcoule directements des deux thormes prcdents.

Exemple 7.43. Trouver les solutions de moindres carrs du systme Ax = b suivant :

x1 + x2 = 6
2x1 x2 = 1
x1 3x2 = 1
7.5. LA MTHODE DES MOINDRES CARRS 119

On a
1 1 6
A= 2 1 b= 1
1 3 1
Les vecteurs colonne de A tant linairement indpendants, le systme a une unique solution au sens
des moindres carrs. On a  
6 5
AT A =
5 11
et  
T 7
A b= .
8
Le systme normal AT Ax = AT b est donc

6x1 5x2 = 7
5x1 + 11x2 = 8.

dont lunique solution est


117 83
x1 = x2 = .
39 39
120 CHAPITRE 7. PRODUITS SCALAIRES GNRALISS
Chapitre 8

Diagonalisation des matrices

8.1 Dfinitions et premires proprits


Dfinition 8.1. Soit A une matrice n n. On dit que x Rn , x 6= 0, est un vecteur propre de A
sil existe R tel que
Ax = x .
Le scalaire est appel valeur propre de A. On dit que x est un vecteur propre associ (ou corres-
pondant) la valeur propre . Si x est un vecteur propre de A, alors Ax est colinaire x :

 Ax x 
 

x  
 Ax
 
=2 = 1
Exemple 8.2. Soit  
3 0
A= .
8 1
 
1
Alors x = est un vecteur propre de A correspondant la valeur propre = 3, car
2
    
3 0 1 3
Ax = = = 3x.
8 1 2 6
Soit A une matrice n n. On peut rcrire lgalit
Ax = x
comme
Ax = Ix,
ce qui est quivalent
(I A)x = 0 .
Si est une valeur propre de A, alors cette quation a une solution x 6= 0. Ceci implique que
det(I A) = 0.
Cette dernire quation est appele lquation caractristique de A et p() = det(I A) est appel
le polynme caractristique de A. Les racines de lquation caractristique sont les valeurs propres
de A. Si A est une matrice n n, alors lquation caractristique de A est de degr n et le coefficient
de n est 1. Autrement dit, le polynme caractristique dune matrice n n est de la forme
p() = det(I A) = n + c1 n1 + + cn1 + cn .
On sait quun polynme de degr n a au plus n racines distinctes ce qui montre quune matrice n n
a au plus n valeurs propres distinctes.

121
122 CHAPITRE 8. DIAGONALISATION DES MATRICES

Exemple 8.3. Cherchons les valeurs propres et les vecteurs propres de la matrice
 
1 3
A= .
4 2

Son quation caractristique est


 
1 3
det(I A) = det = 2 3 10 = 0.
4 2

Les valeurs propres de A sont donc les racines de

2 3 10 = 0.

qui sont polynme


= 2 et = 5.
Cherchons maintenant les vecteurs propres de A. Un vecteur
 
x1
x=
x2

est vecteur propre de A si et seulement si

Ax = x

autrement dit si
(I A)x = 0.
Ceci nous donne     
1 3 x1 0
= .
4 2 x2 0
Pour = 2, on obtient     
3 3 x1 0
= .
4 4 x2 0
Les solutions de ce systme sont
x1 = t, x2 = t.
Lensemble des vecteurs propres de A correspondant la valeur propre = 2 est donc
  
t
| t R, t 6= 0
t

Pour = 5, on obtient le systme


    
4 3 x1 0
=
4 3 x2 0

dont les solutions sont


3
   
x1 4t
= .
x2 t
Lensemble des vecteurs propres de A correspondant la valeur propre = 5 est donc
 3  
4t | t R, t 6= 0
t

Thorme 8.4. Soit A une matrice triangulaire. Alors les valeurs propres de A sont les lments
de la diagonale de A.
8.1. DFINITIONS ET PREMIRES PROPRITS 123

Dmonstration. Soit A une matrice triangulaire suprieure

a11 . . . . . .

..
0 a22 .

.. . .. ..
A= . .

.
. .
. .

. .
0 0 ... 0 ann

Le polynme caractristique de A est

a11

... ...
..

0 a22 .

det(I A) = det .. .. ..
= ( a11 )( a22 ) . . . ( ann )

. . .
.. ..
. .
0 0 ... 0 ann

ce qui montre que les valeurs propres de A sont

= a11 , = a22 , ... , = ann .

La dmonstration est analogue lorsque A est triangulaire infrieure.

8.1.1 Calcul des vecteurs propres


Soit A une matrice carre et une valeur propre de A. Les vecteurs propres de A correspondant
la valeur propre sont les vecteurs x 6= 0 qui satisfont lquation Ax = x. De faon quivalente,
ces vecteurs sont les vecteurs non nuls de lespace des solutions de

(I A)x = 0 .

Lensemble de ces vecteurs propres est appel lespace propre de A correspondant la valeur propre
et est not E .
Nous venons donc de voir que lespace propre E est le nilespace de la matrice I A.

Exemple 8.5. Trouver des bases pour les espaces propres de la matrice

0 0 2
A= 1 2 1 .
1 0 3

Lquation caractristique de A est

3 52 + 8 4 = ( 1)( 2)2 = 0 .

Les valeurs propres de A sont donc

=1 et = 2.

Il y a donc deux espaces propres.


Pour calculer E2 (lespace propre associ la valeur propre 2), il faut trouver le noyau de 2I A,
cest--dire le noyau de
2 0 2
1 0 1 .
1 0 1
On obtient
x1 = s, x2 = t, x3 = s.
124 CHAPITRE 8. DIAGONALISATION DES MATRICES

Les vecteurs propres de A correspondant la valeur propre = 2 sont donc les vecteurs non nuls
de la forme
s s 0 1 0
x = t = 0 + t = s 0 + t 1 .
s s 0 1 0
Comme
1 0
0 et 1
1 0
sont linairement indpendants, ces vecteurs forment une base de lespace propre E2 .
Pour = 1, on calcule le noyau de I A :

1 0 2
1 1 1 .
1 0 2

Les solutions sont


x1 = 2s, x2 = s, x3 = s
ce qui nous permet de conclure que les vecteurs propres de A correspondant la valeur propre = 1
sont les vecteurs non nuls de la forme
2
s 1 .
1
Lensemble
2
1
1

constitue ainsi une base possible de E1

Thorme 8.6. Soit A une matrice carre, et soit k un entier. Si est une valeur propre de A, et
x un vecteur propre correspondant, alors k est une valeur propre de Ak , et x est un vecteur propre
correspondant k .

polynme

Dmonstration. Supposons dabord que k est positif. On a

Ak x = Ak1 (Ax) = Ak1 (x) = Ak1 x = Ak2 (Ax) = 2 Ak2 x = = k x.

Si k est ngatif, et si A est inversible, on a alors A1 x = 1 x en divisant lquation Ax = x


par A1 1 ; le mme calcul donne Ak x = k x.

En particulier, les valeurs propres de Ak sont prcisment les puissances k-imes des valeurs
propres de A. Remarquons toutefois que Ak peut avoir plus de vecteurs propres que A. Un exemple
simple est la matrice A = ( 00 10 ) ; lespace propre E0 de A est de dimension 1, mais comme A2 = 0
lespace propre E0 de A2 est de dimension 2.

Lemme 8.7. Soit f = an X n + + a1 X + a0 un polynme coefficients rels. Alors X = 0 est une


racine de f = 0 si et seulement si a0 = 0.

Dmonstration. Si 0 est une racine de f = 0, alors en remplaant X par 0 on trouve a0 = 0.


Rciproquement, si a0 = 0, alors on vrifie que 0 est bien une solution de lquation f = 0.

Thorme 8.8. Soit A = (aij ) une matrice n n et det(I A) = n + cn1 n1 + + c1 + c0


son polynme caractristique. Alors

c0 = (1)n det(A) et cn1 = tr(A).


8.2. DIAGONALISATION 125

Dmonstration. Montrons la premire galit. Remplaons par 0 dans le polynme caractristique


de A. On obtient ainsi
det(A) = c0 .
Comme det(A) = (1)n det(A), on obtient lgalit voulue.
Montrons la deuxime galit.

a11 a12 ... a1n
a21 a 22 ... a2n
det(I n) = det .

.. ..
. .
an1 ... an(n1) ann

Si on dveloppe ce dterminant par rapport la premire ligne par exemple, on remarque que le
seul terme qui contient des puissances de suprieures n 2 est

( a11 )( a22 ) ( ann ).

On a donc

( a11 )( a22 ) ( ann ) = n + (a11 a22 ann )n1 + . . .

Le coefficient de n1 dans le polynme caractristique est donc bien trace(A).


Corollaire 8.9. Une matrice carre A est inversible si et seulement si = 0 nest pas valeur propre
de A.
Dmonstration. la matrice A est inversible si et seulement si det(A) 6= 0. Or, par le thorme
prcdent, ceci est quivalent dire que = 0 nest pas un zro du polynme caractristique,
cest--dire pas une valeur propre de A.
Notons que si = 0 est une valeur propre de A, alors lespace propre associ E0 nest rien dautre
que le nilespace de A. En rsum,
E0 = KerA
si 0 est valeur propre.

8.2 Diagonalisation
Dfinition 8.10. Soit A une matrice carre. On dit que A est diagonalisable sil existe une matrice
inversible P telle que P 1 AP soit une matrice diagonale.

Thorme 8.11. Soit A une matrice n n. Alors les proprits suivantes sont quivalentes :
(a) A est diagonalisable ;
(b) A a n vecteurs propres linairement indpendants.
Dmonstration. (a) = (b) Comme A est diagonalisable, il existe une matrice inversible

p11 p12 . . . p1n
p21 p22 . . . p2n
P = . ,

.. ..
.. . .
pn1 pn2 ... pnn

telle que P 1 AP soit diagonale. On a donc P 1 AP = D, avec



1 0 ... 0
..
0 2 .
D= .
.
.. ..
. 0
0 ... 0 n
126 CHAPITRE 8. DIAGONALISATION DES MATRICES

Comme P 1 AP = D, on a AP = P D. Donc

1 0 ... 0
1 p11 2 p12 ... n p1n

p11 ... p1n .. 1 p21 2 p22 ... n p2n

.. .. 0 .
AP = P D = = .

. .

.. .. .. ..
. .

pn1 ... pnn
. .
0 n 1 pn1 2 pn2 ... n pnn

Soient p1 , p2 , . . . , pn les vecteurs colonne de P . Alors les colonnes de AP sont

1 p1 , 2 p2 , ..., n pn .

Mais on sait que les colonnes de AP sont

Ap1 , Ap2 , ..., Apn .

Donc
Ap1 = 1 p1 , Ap2 = 2 p2 , . . . , Apn = n pn .
Comme P est inversible, les vecteurs colonne p1 , p2 , . . . , pn sont linairement indpendants. Par les
formules ci-dessus, p1 , p2 , . . . , pn sont des vecteurs propres de A correspondant aux valeurs propres
1 , 2 , . . . , n . Donc A a n vecteurs propres linairement indpendants.
(b) = (a) Supposons que A ait n vecteurs propres linairement indpendants p1 , p2 , . . . , pn ,
avec valeurs propres correspondantes 1 , 2 , . . . , n . Posons

p11 p12 . . . p1n
p21 p22 . . . p2n
P = . .. .

..
.. . .
pn1 pn2 ... pnn

Les colonnes de la matrice P sont les vecteurs p1 , p2 , . . . , pn . Les colonnes du produit AP sont les
vecteurs Ap1 , Ap2 , . . . , Apn . Mais comme

Ap1 = 1 p1 , Ap2 = 2 p2 , . . . , Apn = n pn ,

on a

1 p11 2 p12 ... n p1n p11 p12 ... p1n 1 0 ... 0
1 p21 2 p22 ... n p2n p21 p22 ... p2n 0 2 ... 0
AP = =

.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
1 pn1 2 pn2 ... n pnn pn1 pn2 ... pnn 0 0 ... n
= P D,

avec
1 0 ... 0
0 2 ... 0
D= .

.. .. .. ..
. . . .
0 0 ... n
On a donc :
AP = P D .
Comme les vecteurs colonne de P sont linairement indpendants, la matrice P est inversible et lon
obtient finalement
P 1 AP = D ,
ce qui montre que A est diagonalisable.
8.2. DIAGONALISATION 127

8.2.1 Mthode pour diagonaliser une matrice


1. Trouver n vecteurs propres linairement indpendants, p1 , p2 , . . . , pn .
2. Construire la matrice P ayant p1 , p2 , . . . , pn comme vecteurs colonne.
3. La matrice P 1 AP est diagonale. Les lments diagonaux sont les valeurs propres 1 , 2 , . . . , n
correspondant respectivement aux vecteurs propres p1 , p2 , . . . , pn .
Exemple 8.12. Diagonalisons la matrice

0 0 2
A= 1 2 1 .
1 0 3

Lquation caractristique de A est


( 1)( 2)2 = 0
et les valeurs propres sont alors = 1 et = 2.
Une base de E2 est donne par

1 0
p1 = 0 , p2 = 1
1 0

alors quune base de E1 est donne par le vecteur



2
p3 = 1
1

Ces 3 vecteurs propres tant linairement indpendants, la matrice A est diagonalisable. On pose
alors
1 0 2
P = 0 1 1
1 0 1
et on a
2 0 0
P 1 AP = 0 2 0
0 0 1
Thorme 8.13. Si v1 , v2 , . . . , vn sont des vecteurs propres dune matrice A correspondant des
valeurs propres distinctes 1 , 2 , . . . , n , alors {v1 , v2 , . . . , vn } est un ensemble linairement ind-
pendant.
Dmonstration. Nous allons dmontrer ce thorme par labsurde.
Supposons donc que les vecteurs propres v1 , v2 , . . . , vn sont linairement dpendants. Soit r le
plus grand entier tel que {v1 , v2 , . . . , vr } soit linairement indpendant. On a 1 r < n. Il existe
donc des scalaires c1 , c2 , . . . , cr+1 non tous nuls tels que

c1 v1 + c2 v2 + + cr+1 vr+1 = 0 . ()

Multiplions cette quation par A. On obtient

c1 Av1 + c2 Av2 + + cr+1 Avr+1 = 0 .

Comme
Av1 = 1 v1 , Av2 = 2 v2 , . . . , Avr+1 = r+1 vr+1 ,
on obtient
c1 1 v1 + c2 2 v2 + + cr+1 r+1 vr+1 = 0 .
En multipliant () par r+1 , on a

c1 r+1 v1 + c2 r+1 v2 + + cr+1 r+1 vr+1 = 0 .


128 CHAPITRE 8. DIAGONALISATION DES MATRICES

En soustrayant cette quation de la dernire, on obtient

c1 (1 r+1 )v1 + + cr (r r+1 )vr = 0 .

Comme les 1 , . . . , n sont distincts, on a

c1 = c2 = = cr = 0 .

On a donc cr+1 vr+1 = 0 . Comme vr+1 6= 0, on a cr+1 = 0 ce qui conduit

c1 = c2 = = cr+1 = 0.

Ceci contredit lhypothse que c1 , c2 , . . . , cr+1 sont non tous nuls.


Corollaire 8.14. Soit A une matrice n n. Si A a n valeurs propres distinctes, alors A est diago-
nalisable.
Dmonstration. Cest une consquence immdiate des thormes 8.13 et 8.11.
 
0 2
Exemple 8.15. Soit A = . Par le thorme 8.8, le polynme carcatristique de A est
2 0

2 trace(A) + det(A) = 2 + 4.

A nest pas diagonalisable car son polynme na pas de racines dans R.


 
2 3
Exemple 8.16. Soit A = . Comme A est triangulaire, ses valeurs propres apparaissent
0 2
sur la diagonale. La matrice a donc une unique valeur propre qui est gale 2. On sait, par le
thorme 8.11, que A est diagonalisable si et seulement si A a deux vecteurs propres linairement
indpendants. Calculons lespace E2 : on doit rsoudre le systme
    
2 3 x x
=2 , x, y R.
0 2 y y
  
s
Il est quivalent y = 0. Ainsi, E2 = | s R qui est de dimension 1. A na donc pas 2
0
vecteurs linairement indpendants , elle nest donc pas diagonalisable.

8.3 Matrices symtriques et diagonalisation


Comme nous allons le voir, les matrices symtriques sont des matrices ayant la proprit dtre
toujours diagonalisables. De plus, il existe une base de vecteurs propres orthonorme.
Thorme 8.17. Soit A une matrice n n, symtrique. Alors A possde n vecteurs propres linai-
rement indpendants. De plus, on peut choisir ces vecteurs propres de faon quils forment une base
orthonormale. Une matrice carre symtrique est donc diagonalisable.
On va faire appel au lemme suivant, dont la dmonstration ncessite lusage de nombres com-
plexes.
Lemme 8.18. Soit A une matrice n n, symtrique. Alors A possde une valeur propre relle.
Preuve du thorme 8.17. Il sagit de montrer : pour une matrice A symtrique (AT = A), il existe
une matrice P orthogonale (P T P = I) telle que P 1 AP est diagonale. En effet, la matrice P en
question a pour colonnes les vecteurs propres de A, et ces derniers forment une base orthonormale
si et seulement si P est orthogonale.
On procde par rcurrence, le cas n = 1 tant trivial. Par le lemme, soit 1 une valeur propre de
A, et soit x un vecteur propre associ. On peut supposer x de norme 1, soit xT x = 1.
Par le procd de Gram-Schmidt, on peut complter x en une base orthonormale (x, y2 , . . . , yn )
de Rn . On note Y la matrice n (n 1) dont les colonnes sont y1 , . . . , yn . On a donc Y T Y = 1 et
xT Y = 0 et Y T x = 0, par orthogonalit de la base.
8.3. MATRICES SYMTRIQUES ET DIAGONALISATION 129

La matrice B = Y T AY est une matrice symtrique, car B T = Y T AT (Y T )T = B. De plus, elle


est de taille (n 1) (n 1). Ainsi, par rcurrence, il existe une matrice orthogonale Q telle que
Q1 BQ soit diagonale, disons de cofficients diagonaux 2 , . . . , n .
On pose alors P = (x|Y Q) ; cest la matrice carre dont la premire colonne est x et dont les
n 1 colonnes suivantes sont la matrice Y Q. On calcule :
! ! 
xT xT x xT Y Q

T
 1 0
P P = x Y Q = = = In ,
(Y Q)T QT Y T x QT Y T Y Q 0 In1

donc P est une matrice orthogonale. De plus,


! !
1 T xT Ax xT AY Q xT 1 x (Ax)T Y Q
P AP = P AP = =
QT Y T Ax QT Y T AY Q QT Y T 1 x QT BQ
T

1 1 x Y Q 1 0
2 0 2

= =

1 QT Y T x

. ..
. ..

0 n 0 n

est diagonale.
Thorme 8.19. Deux vecteurs propres associs deux valeurs propres distinctes sont orthogonaux
(pour le produit scalaire usuel).
Dmonstration. Soient A une matrice carre et , deux valeurs propres de A distinctes. Soient
encore v un vecteur propre associ la valeur propre et w un vecteur propre associ la valeur
propre . On a
(Av) w = (v) w = (v w) = wT v.
Dautre part,
v (Aw) = (Aw)T v = wT AT v = wT Av = wT v = wT v.
La troisime galit dcoule du fait que A est symtrique. On a donc (Av) w = v (Aw), cest--dire
v w = v w. Ainsi
( ) v w = 0.
Comme 6= , on a ncessairement v w = 0. Les vecteurs v et w sont donc bien orthogonaux.
Dfinition 8.20. Soit A une matrice carre. On dit que A est orthogonalement diagonalisable si
elle est diagonalisable et sil existe une base de vecteurs propres qui est orthonorme.
Par le thorme prcdent, toute matrice symtrique est orthogonalement diagonalisable.
Nous donnons maintenant un exemple dune diagonalisation orthogonale.

1 1 1
Exemple 8.21. Soit A = 1 1 1 . Le polynme caractristique est
1 1 1

det( I A)

cest--dire
1 1 1
det 1 1 1 .
1 1 1
On trouve ainsi
3 32 .
Les valeurs propres de A sont donc 0 et 3. Calculons les espaces propres. Pour E0 , on doit rsoudre
le systme
1 1 1 x 0
1 1 1 y = 0
1 1 1 z 0
130 CHAPITRE 8. DIAGONALISATION DES MATRICES

qui est quivalent x + y + z = 0. Ainsi,


(
1 1
)

E0 = s 1 + t 0 s, t R

0 1

Comme A est diagonalisable


et que E0 est de dimension 2, alors E3 est ncessairement de dimension
1
1. On a clairement 1 E3 . Ainsi
1
( 1 )

E3 = s 1 s R

1


1 1 1 1
On remarque quon a bien 1 1 et 1 0 . Appliquons le procd de
1 0 1 1
1 1
Gram-Schmidt pour extraire une base orthogonale de E0 . Posons f1 = 1 et f2 = 0 .
0 1

f1 f2
f20 = f2 f1
f1 f1

1 1
0 1 1
=
2
1 0
1
2
= 1
2
1


12
223

f1 f20
Les vecteurs, g1 = = 1 et g2 = = 2
||f1 || 2 ||f20 || 2 3 forment une base orthonorme
0 2
3
1

3
de E0 . Pour E3 , il suffit de prendre
1 comme vecteur de base de norme 1. On vrifie que

3
1
3

12 1 1 223 1

2
0 1 1 1

0 0 0

12 3
223 223 23 1 1 1 223 1 = 0 0 0

2 3

1 1 1 1 1 1 0 2 1 0 0 3
3 3 3 3 3
| {z } | {z }
PT P
Chapitre 9

Applications linaires

9.1 Dfinitions et exemples


Nous avons tudi la notion dapplication linaire

f : Rn Rm .

Cette notion se gnralise des espaces vectoriels quelconques.


Dfinition 9.1. Soient V et W des espaces vectoriels. On dit quune application

f : V W

est une application linaire si et seulement si les deux proprits suivantes sont vrifies :
(a) f (u + v) = f (u) + f (v) pout tout u, v V ;
(b) f (u) = f (u) pour tout u V , R.
Exemple 9.2. Voici quelques exemples dapplications linaires :
(1) Applications linaires
f : Rn Rm
f (x) = Ax
pour une certaine matrice A.
(2) Lapplication nulle
f : V W
f (u) = 0
pour tout u V .
(3) Lapplication identit
f : V V
f (u) = u
pour tout u V .
(4) La symtrie centrale
S : V V
S(v) = v
pour tout v V .
(5) Lhomothtie de rapport k
H : V V
H(v) = k v
pour tout v V .

131
132 CHAPITRE 9. APPLICATIONS LINAIRES

(6) La projection orthogonale. Soit V un espace vectoriel muni dun produit scalaire gnralis
<, >, et soit W un sous-espace vectoriel de V . Nous avons dfini la projection orthogonale

f : V W

f (v) = projW (v) .


Si S = {w1 , w2 , . . . , wr } est une base orthonorme de W , alors

f (v) = projW (v) =< v, w1 > w1 + + < v, wr > wr .

Cest une application linaire. En effet, vrifions les deux proprits :

f (u + v) =< u + v, w1 > w1 + + < u + v, wr > wr


=< u, w1 > w1 + < v, w1 > w1 + + < u, wr > wr + < v, wr > wr
=< u, w1 > w1 + + < u, wr > wr + < u, w1 > w1 + + < v, wr > wr
= f (u) + f (v).

f (u) =< u, w1 > w1 + + < u, wr > wr


= (< u, w1 > w1 + + < u, wr > wr )
= f (u).

Donc f est bien une application linaire.


(7) Rappelons que lon note Pn lensemble des fonctions polynomiales de degr n : p(x) =
an xn + + a1 x + a0 . On dfinit une application f : Pn Pn+1 par

f (p) = xp(x) = an xn+1 + + a1 x2 + a0 x.

Cest une application linaire car on a :

f (p1 + p2 ) = x(p1 (x) + p2 (x))


= xp1 (x) + xp2 (x)
= f (p1 ) + f (p2 )
et
f (p) = x(p(x))
= (xp(x))
= f (p) .

(8) Soient a, b R. Dfinissons lapplication T : Pn Pn par

T (f ) = f (ax + b).

Cest bien une application linaire car :

T (f1 + f2 ) = (f1 + f2 )(ax + b)


= f1 (ax + b) + f2 (ax + b)
= T (f1 ) + T (f2 )

et

T (f ) = (f )(ax + b)
= (f (ax + b))
= T (f ).
9.1. DFINITIONS ET EXEMPLES 133

(9) Lapplication linaire dfinie par un produit scalaire gnralis. Soit V un espace vec-
toriel muni dun produit scalaire gnralis <, >. Soit v0 V . On dfinit une application

f : V R

en posant
f (v) =< v, v0 > .

Alors f est une application linaire. En effet, on a :

f (u + v) =< u + v, v0 >=< u, v0 > + < v, v0 >= f (u) + f (v) ,

et
f (v) =< v, v0 >= < v, v0 >= f (v) .

(10) La drivation. Soit V = C 1 (R) lespace vectoriel des fonctions f : R R drivables avec
premire drive continue et W = C 0 (R) lespace vectoriel des fonctions continues relles
variable relle. Soit
D : C 1 (R) C 0 (R)

lapplication dfinie par


D(f ) = f 0

o f 0 est la premire drive de f . Alors D est une application linaire car la drivation est une
opration linraire.
(11) Lintgration. Soit V = C 0 (R) et W = C 1 (R). Soit

J : C 0 (R) C 1 (R)
Z x
f (t) 7 f (t)dt
0
Rx Rx Rx Rx
Lapplication J est linaire car 0 (f (t) + g(t))dt = 0 f (t)dt + 0 g(t)dt et 0 ( f (t))dt =
Rx
0 f (t)dt pour toutes fonctions f et g et pour tout R.
(12) Soit Mn (R) lensemble des matrices n n. Alors

tr : Mn (R) R
A 7 trace(A)

est une application linaire.

Exemple 9.3. Donnons un exemple dune application qui nest pas linaire. Soit

f : M22 R

la fonction dfinie par


f (A) = det(A) .

On a
det(A) = 2 det(A)

et 2 det(A) est diffrent de det(A) ds que 6= 1 et det(A) 6= 0. De plus, en gnral

det(A + B) 6= det(A) + det(B)

ce qui montre que cette application nest pas linaire.


134 CHAPITRE 9. APPLICATIONS LINAIRES

9.1.1 Proprits des applications linaires


Soit f : V W une application linaire. Pour tout v1 , v2 V et pour tout 1 , 2 R, on a

f (1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) .

Plus gnralement, pour tout 1 , . . . , n R et tout v1 , . . . , vn V , on a

f (1 v1 + + n vn ) = 1 f (v1 ) + + n f (vn ).

On dit que f prserve les combinaisons linaires.

Thorme 9.4. Soit f : V W une application linaire. Alors on a les proprits suivantes :
(a) f (0) = 0
(b) f (v) = f (v) pour tout v V
(c) f (v w) = f (v) f (w) pour tout v, w V .

Dmonstration. (a) Soit v V . On a 0 v = 0. Comme f est linaire, on a

f (0) = f (0 v) = 0f (v) = 0 .

(b) Pour tout v V , on a

f (v) = f ((1)v) = (1)f (v) = f (v) .

Pour tout v, w V , on a
v w = v + (1)w,
donc

f (v w) = f (v + (1)w)
= f (v) + f ((1)w)
= f (v) + (1)f (w)
= f (v) f (w) .

9.1.2 Expression dune application linaire dans une base


Soit f : V W une application linaire, et soit {v1 , . . . , vn } une base de lespace vectoriel V .
Alors f est dtermine par les images des lments de la base, cest--dire par lensemble

{f (v1 ), . . . , f (vn )}.

En effet, si v V , alors v = 1 v1 + + n vn . On a donc

f (v) = f (1 v1 + + n vn )
= 1 f (v1 ) + + n f (vn ) .

Exemple 9.5. Soit {v1 , v2 , v3 } une base de R3 , avec v1 = (1, 1, 1), v2 = (1, 1, 0) et v3 = (1, 0, 0).
Soit
f : R3 R2
lapplication linaire telle que

f (v1 ) = (1, 0), f (v2 ) = (2, 1), f (v3 ) = (4, 3) .

Soit
v = (2, 3, 5) .
9.1. DFINITIONS ET EXEMPLES 135

Alors
v = 5v1 8v2 + 5v3 ,
donc

f (v) = f (5v1 8v2 + 5v3 ) =


= 5f (v1 ) 8f (v2 ) + 5f (v3 )
= 5(1, 0) 8(2, 1) + 5(4, 3)
= (5 16 + 20, 8 + 15)
= (9, 23) .

Dfinition 9.6. Soient f1 : V1 V2 et f2 : V2 V3 deux applications linaires. Alors on dfinit


la composition de f2 avec f1 , note f2 f1 par

(f2 f1 ) : V1 V3
v 7 f2 (f1 (v))

pour tout v V1 .

Figure 11.1

Thorme 9.7. Si f1 : V1 V2 et f2 : V2 V3 sont des applications linaires, alors (f2 f1 ) :


V1 V3 est aussi une application linaire.

Dmonstration. Soient u, v V1 . Alors on a

(f2 f1 )(u + v) = f2 (f1 (u + v))


= f2 (f1 (u) + f1 (v))
= f2 (f1 (u)) + f2 (f1 (v))
= (f2 f1 )(u) + (f2 f1 )(v) .

Soient v V1 et R. Alors

(f2 f1 )(v) = f2 (f1 (v)) =


= f2 (f1 (v)) =
= f2 (f1 (v)) =
= (f2 f1 )(v) .

Donc f2 f1 est bien une application linaire.


136 CHAPITRE 9. APPLICATIONS LINAIRES

9.2 Noyau et image dune application linaire


Dfinition 9.8. Soit f : V W une application linaire. Le noyau de f, not Ker(f ), est par
dfintion lensemble des v V tels que
f (v) = 0 .
Limage de f , note Im(f ), est par dfinition lensemble des w W tel quil existe v V avec

f (v) = w .

Exemple 9.9. Soit f : Rn Rm dfinie par f (x) = Ax, o A est une matrice m n. Alors Ker(f )
est gal au nilespace de A, et Im (f ) est gal lespace des colonnes de A.

Exemple 9.10. Soit 0 : V W lapplication linaire nulle. Alors Ker(0) = V et Im(0) = {0}.

Exemple 9.11. Soit f : V V lapplication identit. Alors Ker(f ) = {0} et Im (f ) = V .

Exemple 9.12. Soit f : R3 R2 la projection orthogonale sur le plan xy. Alors Ker(f ) est gal
laxe des z et limage de f est gale au plan xy.

Figure 11.2

Thorme 9.13. Soit f : V W une application linaire. Alors


(a) Ker(f ) est un sous-espace vectoriel de V .
(b) Im(f ) est un sous-espace vectoriel de W .

Dmonstration. (a) On a 0 Ker(f ). Supposons que u, v Ker(f ). Alors f (u) = f (v) = 0.


On a f (u + v) = f (u) + f (v) = 0 ce qui montre que u + v Ker(f ). Soit R. Alors
f (v) = f (v) = 0, car f (v) = 0. Ceci implique que v Ker(f ). Ceci montre que Ker(f ) est
un sous-espace vectoriel de V .
(b) On a f (0) = 0, donc 0 Im(f ). Soient w1 , w2 Im(f ). Alors il existe v1 , v2 V tels que

f (v1 ) = w1 ,
f (v2 ) = w2 .
9.2. NOYAU ET IMAGE DUNE APPLICATION LINAIRE 137

Mais alors
f (v1 + v2 ) = f (v1 ) + f (v2 )
= w1 + w2 ,
donc w1 + w2 Im(f ). Soient w Im(f ) et R. Soit v V tel que f (v) = w. Alors
f (v) = f (v) = w. Donc w Im(f ). Ceci implique que Im(f ) est un sous-espace vectoriel
de W .
Exemple 9.14. Soit n un entier. Considrons lapplication linaire
: Pn Pn+1
f 7 xf.
Etudions dabord le noyau de : soit f = an xn + + a0 Pn tel que xf = 0. Alors
an xn+1 = + a1 x2 + a0 x = 0.
Ainsi, ai = 0 pour tout i {0, . . . , n} et f = 0. Le noyau de est donc nul.
Lespace Im() est lensemble des polynmes de Pn+1 sans terme constant. Une base de cet espace
est {x, x2 , . . . , xn+1 }.
Lemme 9.15. Soit f : V W une application linaire. Alors f est injective si et seulement si
Ker(f ) = {0}.
Dmonstration. Supposons f injective. On a, par le thorme 9.4, que f (0) = 0. Mais, linjectivit
implique que pour tout v V , v 6= 0, on a f (v) 6= 0. Ainsi, le noyau de f est nul.
Rciproquement, supposons que Ker(f ) = 0, et soient v1 , v2 V avec f (v1 ) = f (v2 ). Alors
0 = f (v1 ) f (v2 ) = f (v1 ) + f (v2 ) = f (v1 v2 ).
Ainsi, v1 v2 Ker(f ) et v1 = v2 . Lapplication f est donc bien injective.
Dfinition 9.16. Soit f : V W une application linaire. La dimension de Ker(f ) est appele la
nullit de f , et est note null(f ). La dimension de Im(f ) est appele le rang de f , et est note rg(f ).

Ces dfinitions sont compatibles avec celles donnes pour les matrices comme le montre le tho-
rme suivant :
Thorme 9.17. Soit A une matrice m n, et soit
f : Rn Rm
dfinie par
f (x) = Ax.
Alors
(a) null(f ) = null(A)
(b) rg(f ) = rg(A).

Thorme 9.18 (Thorme du rang). Soient V un espace vectoriel de dimension finie et f : V


W une application linaire. Alors
rg(f ) + null(f ) = dim(V ) .
Dmonstration. (i) Si null(f ) = 0, alors Ker(f ) = {0} et, par le lemme 9.15, f est injective. Soit
{e1 , . . . , en } une base de lespace V . La famille {f (e1 ), . . . , f (en )} est une base de limage de
f . En effet, cest une famille linairement indpendante car si 1 f (e1 ) + + n f (en ) = 0,
la linarit permet de dire que f (1 e1 + + n en ) = 0. Mais linjectivit implique que
1 e1 + + n en = 0 et comme {e1 , . . . , en } est une base, on a finalement 1 = = n = 0.
Il reste montrer que cest une famille gnratrice. Soit w Im(f ). Il existe v V tel
que f (v) = w. Mais v scrit 1 e1 + + n en , pour certains 1 , . . . , n R. Ainsi, w =
f (1 e1 + + n en ) = 1 f (e1 ) + + n f (en ).
On a ainsi rg(f ) = dim(V ) et donc bien rg(f ) + (f ) = dim(V ).
138 CHAPITRE 9. APPLICATIONS LINAIRES

(ii) Si rg(f ) = 0, cela signifie que Im(f ) = {0}. Autrement dit, tout vecteur de V est envoy sur 0
par lapplication f . Ainsi, Ker(f ) = V et null(f ) = dim(V ).
(iii) Supposons maintenant que null(f ), rg(f ) 6= 0. Posons r = (f ) et soit {e1 , . . . , er } une base de
Ker(f ). Pour montrer le thorme, il suffit de montrer que limage de f est de dimension n r.
Comme {e1 , . . . , en } est une base de
Ker(f ), cest en particulier une famille de vecteurs linairement indpendants. Il existe donc
er+1 , . . . , en V tels que {e1 , . . . , en } soit une base de V . La famille B = {f (er+1 ), . . . , f (en )}
est une base de Im(f ). En effet,
i) si r+1 f (er+1 ) + + n f (en ) = 0, alors, par linarit, on a que r+1 er+1 + + n en
Ker(f ). Ce vecteur sexprime alors dans la base du noyau :

r+1 er+1 + + n en = 1 e1 + + r er pour certains 1 , . . . , r R

ou, autrement dit,

1 e1 + r er + r+1 er+1 + + n en = 0.

Ceci implique en particulier que r+1 = = n = 0. B est donc linairement indpen-


dante.
ii) soit w Im(f ). Il existe 1 , . . . , n R tels que

w = f (1 e1 + + n en ).

Mais cette galit implique que

w = 1 f (e1 ) + + r f (er ) +r+1 f (er+1 ) + + n f (en ).


| {z } | {z }
=0 =0

Ainsi, tout lment de limage de f est une combinaison linaire des vecteurs de B.

Thorme 9.19. Soit V un espace vectoriel de dimension finie, et soit

f : V V

une application linaire. Alors les affirmations suivantes sont quivalentes :


(a) f est injective
(b) Ker(f ) = {0}
(c) null(f ) = 0
(d) rg(f ) = n = dim(V ).

9.3 Applications linaires inversibles


Nous avons dj dfini linverse dune application linaire fA donne par une matrice inversible
A. Nous allons maintenant gnraliser cette notion pour toutes les applications linaires.

Dfinition 9.20. Soit f : V W une application linaire injective. On dfinit

f 1 : Im(f ) V

de la manire suivante :
Soit w Im(f ). Il existe v V tel que w = f (v). De plus, comme f est injective, le vecteur v est
unique. On dfinit alors
f 1 (w) = v.
Lapplication f 1 est appele linverse de f .
9.3. APPLICATIONS LINAIRES INVERSIBLES 139

Remarque 9.21. Dans le dfinition ci-dessus, on dfinit f 1 uniquement sur lespace Im(f ). Si
Im(f ) = W , cest--dire si f est aussi surjective, alors on peut dfinir f 1 : W V . On dit alors
que f est inversible.
Remarque 9.22. Une application linaire f : V W est donc dite inversible si et seulement si
elle est bijective.
Thorme 9.23. Soit f : V W une application linaire injective. Alors
(1) (f 1 f )(v) = v pour tout v V .
(2) (f f 1 )(w) = w pour tout w Im(f ).
(3) f 1 est une application linaire.
Dmonstration. (1) Ce point dcoule directement de la dfinition de linverse.
(2) Soit w Im(f ). Il existe un unique v V tel que f (v) = w. On a donc
(f f 1 )(w) = f (f 1 (w)) = f (v) = w.
| {z }
=v

(3) Soient w1 , w2 Im(f ) et R. Alors


f 1 (w1 + w2 ) = f 1 (f (v1 ) + f (v2 )) pour certains v1 , v2 V
= f 1 (f (v1 + v2 ))
= v1 + v2 .
1
Or, f (wi ) = vi pour i = 1, 2. Ainsi
f 1 (w1 + w2 ) = f 1 (w1 ) + f 1 (w2 ).
La proprit f 1 (w1 ) = f 1 (w1 ) se montre de manire analogue.

Thorme 9.24. Soit f : V W une application linaire injective. Si g : Im(f ) V est


une application telle que (g f )(v) = v pour tout v V , alors g = f 1 . De plus, on a galement
(f g)(w) = w pour tout w Im(f ).
Dmonstration. Soit w Im(f ). Par hypothse, on a
(g f )(f 1 (w)) = f 1 (w) (?)
Mais, par le thorme prcdent, cette expression est gale g(w). Ainsi, g(w) = f 1 (w) pour tout
w Im(f ), cest--dire que g = f 1 .
En appliquant f des deux cts de lgalit (?), on obtient (f g)(w) = w pour tout w Im(f ).
Cas particulier
Soit V un espace vectoriel de dimension finie et f : V V une application injective. Alors, par
le thorme du rang, rg(f ) = dim(V ) et donc, Im(f ) = V . Dans ce cas, linverse de f est dfini sur
tout V .
Thorme 9.25. Soient f : V1 V2 et g : V2 V3 deux applications linaires injectives. Alors
g f est aussi injective et
(g f )1 = f 1 g 1 .
Dmonstration. Soit v1 V1 avec g(f (v1 )) = 0. On utilise succesivement linjectivit de g et de f
pour conclure que v1 = 0. La composition g f est donc bien injective.
Soit v3 Im(g f ). Posons u = (g f )1 (v3 ). Montrons que u = (f 1 g 1 )(v3 ). On a
(g f )(u) = (g f )((g f )1 (v3 )) = v3 .
Ainsi,
g 1 ((g f )(u)) = f (u) = g 1 (v3 )
et
f 1 (f (u)) = u = f 1 (g 1 (v3 )) = (f 1 g 1 )(v3 ).
140 CHAPITRE 9. APPLICATIONS LINAIRES

9.4 Matrice dune application linaire


Soient V et W des espaces vectoriels avec n = dim(V ) et m = dim(W ). Soit B = {u1 , . . . un }
une base de V et B 0 = {v1 , . . . , vm } une base de W . On sait que les n vecteurs f (u1 ), . . . , f (un )
dterminent lapplication linaire f . Notons [f (ui )]B 0 , les coordonnes de f (ui ) dans la base B 0 .
Cest un vecteur colonne de taille m. Considrons alors la matrice m n suivante :

A = [f (u1 )]B 0 . . . [f (un )]B 0
Cette matrice est note
[f ]B 0 ,B
et est appele la matrice de f par rapport aux bases B et B 0 . Si V = W et B = B 0 , on note [f ]B au
lieu de [f ]B,B 0 .

Thorme 9.26. Soient V1 , V2 et V3 des espaces vectoriels de dimensions finies munis des bases
B1 , B2 et B3 respectivement. Soient f1 : V1 V2 et f2 : V2 V3 des applications linaires. Alors
[f2 f1 ]B3 ,B1 = [f2 ]B3 ,B2 [f1 ]B2 ,B1 .
Dmonstration. Posons n1 = dim(V1 ), n2 = dim(V2 ), n3 = dim(V3 ) et
B1 = {e1 , . . . , en1 }
B2 = {b1 , . . . , bn2 }
B3 = {1 , . . . , n3 }.
Ecrivons

11 1n2 11 1n1
.. .. .. ..
[f2 ]B3 ,B2 = . et [f1 ]B2 ,B1 = . .

. .
n3 1 n3 n2 n2 1 n2 n1
On a (f2 f1 )(e1 ) = f2 (f1 (e1 )) = f2 (11 b1 + + n2 1 bn2 ) = 11 f2 (b1 ) + + n2 1 f2 (bn2 )
= 11 [11 1 + + n3 1 n3 ] + + n2 1 [1n2 1 + + n3 n2 n3 ].
Ainsi, la premire colonne de [f2 f1 ]B3 ,B1 est

11 11 + + n2 1 1n2
11 21 + + n2 1 2n2
.

..
.
11 n3 1 + + n2 1 n3 n2
Mais ceci est aussi la premire colonne de la matrice [f2 ]B3 ,B2 [f1 ]B2 ,B1 . En faisant la mme chose
avec les autres colonnes, on remarque que [f2 ]B3 ,B2 [f1 ]B2 ,B1 et [f2 f1 ]B3 ,B1 sont deux matrices ayant
leurs colonnes gales. On a donc bien lgalit cherche.
Thorme 9.27. Soit f : V V une application linaire, et soit B une base de V . Alors les
conditions suivantes sont quivalentes :
(a) lapplication f est inversible ;
(b) La matrice [f ]B est inversible.
Dmonstration. Si f est inversible, alors, par le thorme prcdent, [f ]B [f 1 ]B = [f f 1 ]B = [I]B .
Ainsi, [f ]B est inversible et son inverse est [f 1 ]B .
Rciproquement, si [f ]B est inversible, il existe une matrice [g]B telle que [f ]B [g]B = I = [g]B [f ]B .
Par le thorme ci-dessus, [f g]B = I = [g f ]B , et les applications f g et g f sont toutes deux
gales lidentit. Donc f est bien inversible.
Thorme 9.28. Soient V un espace vectoriel de dimension finie, B et B 0 des bases de V et PB,B 0
la matrice de changement de base de B 0 B. Soit f : V V une application linaire. Alors
1
[f ]B 0 = PB,B 0 [f ]B PB,B 0 .
9.4. MATRICE DUNE APPLICATION LINAIRE 141

1
Dmonstration. Soit x V . Il faut montrer que PB,B 0 [f ]B PB,B 0 (v)B 0 = (f (v))B 0 . Rappelons que
1
PB,B 0 = PB 0 ,B et que PB,B 0 (v)B 0 = (v)B . On a alors
1
PB,B 0 [f ]B PB,B 0 (v)B 0 = PB 0 ,B [f ]B (v)B
= PB 0 ,B ([f ]B (v)B )
= PB 0 ,B (f (v))B
= (f (v))B 0 .
142 CHAPITRE 9. APPLICATIONS LINAIRES
Chapitre 10

Applications multilinaires et
tenseurs

La thorie des tenseurs offre un langage mathmatique simple et efficace pour dcrire des ph-
nomnes naturels, comme la trajectoire dun satellite, la circulation de la chaleur dans un corps ou
encore la focre lectromagntique dun lectron. Lobjectif du prsent chapitre est dintroduire la
notion de tenseur ainsi que certaines proprits associes. Celles-ci permettent, par exemple, dex-
pliquer les relations entre des quantits physiques et de prdire leur volution future.

Dans toute la suite, on considre un espace vectoriel V .

Nous commenons ce chapitre en introduisant, dans le premier paragraphe, les tenseurs dordre
(0, 1) et ceux dordre (1, 0) : ce sont des formes linaires. Dans les paragraphes suivants, nous intro-
duirons les tenseurs dordre (0, m) (dits aussi m fois covariants) puis les tenseurs dordre (m, 0) (dits
m fois contravariants) avant de dfinir les tenseurs mixtes (p, q) : ce sont des formes multilinaires.
Ltude du comportement des tenseurs lors de changements de bases permettra dexpliquer les ter-
minologies covariant et contravariant (paragraphe 10.6). Ce chapitre clturera avec un paragraphe
sur les champs tensoriels.

10.1 Formes linaires


10.1.1 Formes linaires sur V : tenseurs dordre (0,1)
Dfinition 10.1. On appelle forme linaire ou tenseur dordre (0, 1) ou encore tenseur covariant
dordre 1 sur V toute application linaire :

f : V R.

Exemple 10.2.
1. Si V = Rn , lapplication de i-ime projection i : (x1 , ..., xn ) 7 xi est une forme linaire sur V .
2. Si V est lespace vectoriel des matrices carres de taille n, alors lapplication trace M 7 Tr(M )
dfinit une application linaire sur V .
3. Si V est un espace vectoriel muni dun produit scalaire gnralis <, > et si v0 un lment de
V , alors lapplication f : V R dfinie par f (v) =< v, v0 > est une forme linaire sur V .

10.1.2 Espace dual, bases duales


Dfinition 10.3. On appelle espace dual de V lensemble, not V , des formes linaires sur V .

143
144 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

On a donc :
V = {f : V R k f est linaire }.

Thorme 10.4. Lespace dual V est muni dune structure despace vectoriel.

Dmonstration. On vrifie facilement que laddition des formes linaires et leur multiplication par
un scalaire satisfont aux proprits des espaces vectoriels.

Si V est un espace vectoriel de dimension finie (voir Chapitre 6 pour la notion de dimension),
alors V est aussi de dimension finie, et leurs dimensions sont gales. Plus prcisment, chaque base
de V dtermine une base de V de la faon suivante :

Thorme 10.5. On suppose que lespace V est de dimension finie, avec dim(V ) = n.
Soit B = (e1 , ..., en ) une base de V . Soit B la famille (1 , ..., n ) de V o les i : V R sont
des applications linaires sur V donnes par :

i (ej ) = ij

et tendues linairement V .
Alors, la famille B forme une base de lespace dual V , appele base duale de la base B.
En particulier, on a bien :
dim(V ) = dim(V ).

Rappelons que le symbole ij dsigne le symbole de Kronecker, cest--dire la fonction qui vaut
1 si i = j et 0 sinon.

Dmonstration. Soit f une forme linaire sur V . Puisque toute forme linaire sur V est dtermine
par ses valeurs prises sur les ei , on a :
X n
f= fi i
i=1

avec fi = f (ei ). Ceci montre que les i engendrent lespace dual V .


Dautre part, on vrifie facilement que les i sont linairement indpendantes. Lensemble B
forme donc une base de lespace V .

Remarque
P 10.6. Si f est une application linaire sur V , alors, avec les notations prcdentes, on
a f = i fi i et les coordonnes fi sont appeles les coordonnes covariantes de f .

Exemple 10.7. Considrons la base suivante de V = R2 :

B = {e1 = (2, 1) , e2 = (3, 1)}.

Nous allons dterminer la base B de V qui est duale de B, cest--dire identifier les formes linaires
sur R2 , notes 1 et 2 , telles que :

1 (e1 ) = 1, 1 (e2 ) = 0, et 2 (e1 ) = 0, 2 (e2 ) = 0.

On crit ces applications sous la forme :

1 (x, y) = ax + by et 2 (x, y) = cx + dy.


10.1. FORMES LINAIRES 145

Il sagit donc de dterminer les rels a, b, c, d.


Les relations prcdentes impliquent :

1 (e1 ) = 1 (2, 1) = 2a + b = 1
1 (e2 ) = 1 (3, 1) = 3a + b = 0

do a = 1 et b = 3. Puis :

2 (e1 ) = 2 (2, 1) = 2c + d = 0
2 (e2 ) = 2 (3, 1) = 3c + d = 1

do c = 1 et d = 2.
La base duale est donc :

B = {1 : (x, y) 7 x + 3y ; 2 : (x, y) 7 x 2y}.

Le thorme 10.5 implique un rsultat plus fort :

Thorme 10.8. Si V est un espace de dimension finie, alors les espaces V et V sont isomorphes.

Dmonstration. Soit B = (e1 , ..., en ) une base de V et soit B = (1 , ..., n ) la base duale de V
correspondante, donne par le thorme 10.5. Daprs ce thorme, il est vident que lapplication :

B : V V
ei 7 i

est un isomorphisme entre V et V .


Notons que cet isomorphisme dpend de la base B choisie : en ce sens, il nest pas canonique.

Il est intressant de noter les relations suivantes entre une base B = (e1 , ..., en ) de V et sa base
duale B = (1 , ..., n ) de V . Ces relations expriment les coordonnes de tout vecteur v (resp. forme
linaire f ) dans la base B (resp. B ) :

v V, u = 1 (v)e1 + 2 (v)e2 + ... + n (v)en ;


f V , f = f (e1 )1 + f (e2 )2 + ... + f (en )n .

10.1.3 Formes linaires sur V : tenseurs dordre (1, 0)


Lespace dual V de V tant encore un espace vectoriel, on peut dfinir son espace dual. Celui-ci
est not V : cest lespace vectoriel form de toutes les formes linaires sur V . Si lon applique
deux fois le thorme 10.8, on voit clairement que les espaces V et V sont isomorphes, lorsque V
est de dimension finie. En fait, on a mieux : lisomorphisme est cette fois canonique, dans le sens
quil ne dpend pas de la base choisie sur V . Cest ce que nous montrons dans le thorme qui suit.
Avant cela, il est utile de faire la remarque suivante : si v est un vecteur de V , lapplication :

vb := f 7 f (v)

est une forme linaire sur V , cest--dire un lment de V . On dfinit ainsi une application de
lespace V dans son bidual V , donne par :

: V V
v 7 vb.

Le thorme est le suivant :

Thorme 10.9. Lapplication est linaire et injective. De plus, lorsque lespace V est de dimen-
sion finie, est un isomorphisme.
146 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

Dmonstration. Pour montrer la linarit, il faut montrer que (k v + w) = k (v) + (w) pour tout
k R et pour tout v, w V . Il faut donc montrer que k \
v + w = k vb + w.
b Ce qui est vrai car

v + w)(f ) = f (k v + w) = k f (v) + f (w) = k vb(f ) + w(f


(k \ b )

puisque f est linaire.


Supposons maintenant que (v) = 0, cest--dire que vb(f ) = 0 pour tout f V . Ceci implique
que f (v) = 0 pour tout f V et donc que v = 0. Ceci dmontre bien linjectivit de .
Enfin, si lon calcule la base duale de B , on obtient une base de V , note :

B = {eb1 , eb2 , . . . , ec
n}

et lisomorphisme (cf. notations de la preuve du thorme 10.8)



B
V V
B
V

envoie ei sur ebi . Cet isomorphisme nest donc rien dautre que (en particulier, ne dpend plus de
B). Ceci prouve la dernire assertion du thorme.

Dans la suite, nous supposerons lespace V de dimension finie et nous identifierons souvent
les espaces V et V . Les vecteurs de V sont appels tenseurs dordre (1, 0), ou encore tenseurs
contravariants dordre 1.

Avec cette identification, remarquons que si (1 , ..., n ) est une base de V , duale dune base
(e1 , ..., en ) de V , alors (e1 , ..., en ) est aussi une base de V , duale de la base (1 , ..., n ).

10.2 Formes multilinaires sur V : tenseurs dordre (0, m)


10.2.1 Formes bilinaires sur V : tenseurs dordre (0, 2)
Dfinition 10.10 (Forme bilinaire). Une application

f : V V R

est dite bilinaire si elle est linaire en chacun des facteurs, autrement dit, si :
(i) f (ku + v, w) = kf (u, w) + f (v, w) et si
(ii) f (u, kv + w) = kf (u, v) + f (u, w).

Lensemble des formes bilinaires sur V est un espace vectoriel o laddition et la multiplication
par un scalaire sont donnes par

(f + g)(u, v) = f (u, v) + g(u, v)

et
(f )(u, v) = f (u, v).
Cet espace vectoriel est not Bil(V, R).
Si B = {e1 , e2 , . . . , en } est une base de V , on peut considrer les formes bilinaires particulires

i j 1 i n, 1 j n

dfinies par
(i j )(ek , el ) = ik jl .
Lensemble des i j forme alors une base de Bil(V, R). Les coordonnes fij dune forme bilinaire
f quelconque dans cette base sont simplement donnes par lvaluation de f au couple (ei , ej ).
Explicitement, on a
fij = f (ei , ej )
10.2. FORMES MULTILINAIRES SUR V : TENSEURS DORDRE (0, M ) 147

et X
f= fij (i j ).
i,j

Ainsi, si une base B de V est choisie, une forme bilinaire sur V nest rien dautre que la donne
dune matrice F = (fij ) de dimension n n o n = dim V . Si [u]B (resp. [v]B ) dsigne le vecteur des
coordonnes de u (resp. v) dans la base B, alors f (u, v) se calcule par le produit matriciel suivant :

f (u, v) = [u]TB F [v]B .

Une forme bilinaire sur V est aussi appele un tenseur dordre (0, 2) ou encore un tenseur 2 fois
covariant. Cette terminologie provient du comportement de la forme lors dun changement de base
que nous verrons dans la section 10.6.
Remarque 10.11. La notation ci-dessus peut tre prise ici pour une simple notation.
Exemple 10.12. Soit V = Rn . Alors le produit scalaire usuel est une forme bilinaire (symtrique).
Sa matrice dans la base canonique est In .
Un produit scalaire gnralis est une forme bilinaire (symtrique). Il est reprsent par une
matrice A symtrique et dfinie positive.

10.2.2 Tenseurs dordre (0, m)


Dfinition 10.13 (Forme multilinaire). Soit V un espace vectoriel, et soit

f : V V R
| {z }
m

une application. On dit que f est une forme multilinaire ou tenseur dordre (0, m) si pour tout
1 i m, on a :

f (v1 , . . . , vi + wi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , wi , . . . , vm )

pour tout v1 , . . . , vm , w1 , . . . , wm V et tout , R. Une telle application est appele tenseur


dordre (0, m), ou tenseur covariant dordre m. Pour m = 1, on retrouve les formes linaires sur V ,
et pour m = 2 les formes bilinaires sur V .
Exemple 10.14 (Produit mixte). Le produit mixte

R3 R3 R3 R
f (x, y, z) = [x, y, z] = x (y z)

est un tenseur dordre (0, 3).

10.2.3 Quelques interprtations physiques


Avant de poursuivre, voici quelques interptations physiques des tenseurs dordre (0, m) que nous
venons de rencontrer.
1. Les tenseurs dordre (0, 0) sont les applications linaires R R. Ces dernires tant prcis-
ment de la forme x 7 ax pour un scalaire a R, les tenseurs dordre (0, 0) peuvent donc tre
naturellement identifis aux scalaires de R. En physique, ils reprsentent des quantits chiffres
telles la masse dun satellite, la temprature dun corps ou la charge dun lectron.
2. Les tenseurs dordre (0, 1) sont les formes linaires V R. Un exemple de tel tenseur est
donn par ltude de la trajectoire dun bateau voile, qui se dirige selon un vecteur unitaire
e. Considrons la force du vent exerce sur ce bateau : elle est reprsente par un vecteur
f perpendiculaire la voile du bateau. Seule la composante ef (produit scalaire) propulse
le bateau lavant. Lapplication f 7 ef est un tenseur dordre (0, 1). Le bateau avancera
dautant plus vite que la quantit ef est grande.
3. Les tenseurs dordre (0, 2) sont les formes bilinaires V V R. Le calcul du moment dune
force applique sur une clef plate pour visser un boulon fournit un exemple.
148 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

10.3 Formes multilinaires sur V : tenseurs dordre (m, 0)


10.3.1 Une remarque sur les tenseurs dordre (1, 0)
Nous avons vu la section 10.1.3 que V et V sont isomorphes si V est de dimension finie (ce
que nous supposons toujours ici). Ainsi un vecteur v V peut tre vu comme une forme linaire vb
sur V :
vb : V R
f 7 f (v).

Cest pourquoi, on identifie les tenseurs dordre (1, 0) avec les vecteurs. En physique, la direction
que suit la trajectoire dun lectron un moment donn est reprsente par un vecteur et fournit
donc un exemple de tenseur 1 fois contravariant.

10.3.2 Formes bilinaires sur V : tenseurs dordre (2, 0)


Considrons un espace vectoriel V muni dune base B = {e1 , . . . , en } et son dual V muni de la
base duale B = {1 , . . . n }.
On se donne une forme bilinaire
f : V V R.
Cette forme est entirement dtermine par ses valeurs sur les couples (i , j ).
Rappelons que lespace vectoriel V des formes linaires sur V est isomorphe canoniquement
V et admet pour base lensemble :
B = {eb1 , . . . , ec
n}

o les ebi sont donns par :


ebi (j ) = j (ei ) = ij .
Notons ebi ebj la forme bilinaire sur V V dfinie par
ebi ebj (k , l ) = ik jl .
On montre de manire similaire ce qui a t fait prcdemment que lensemble
C = {ebi ebj } 1 i n
1 j n

est une base de lespace vectoriel des formes bilinaires sur V V .


Dans cette base, la forme bilinaire f scrit
XX
f= fij (ebi ebj )
i j

o fij = f (i , j ). Le choix de B tant fait (et donc aussi celui de B et de C), la forme f est
reprsente par une matrice F = (fij ).

Les formes bilinaires sur V V sont appeles tenseurs dordre (2, 0), ou encore tenseurs
contravariants dordre 2.

10.3.3 Tenseurs dordre (m, 0)


En gnralisant ceci, on peut poser la dfinition suivante :
Dfinition 10.15 (Tenseur dordre (m, 0)). Une application multilinaire
V V V R
| {z }
m

est appele un tenseur dordre (m, 0) ou tenseur m fois contravariant ou encore tenseur contravariant
dordre m.
nouveau, la terminologie de tenseur contravariant vient du comportement dune telle applica-
tion lors dun changement de bases (voir paragraphe 10.6).
10.4. TENSEURS MIXTES DORDRE (P, Q) 149

10.4 Tenseurs mixtes dordre (p, q)


10.4.1 Tenseurs dordre (p, q)
Il existe des tenseurs mixtes, savoir des tenseurs dordre (p, q) qui sont donc (en copiant les
terminologies prcdentes) p fois contravariants et q fois covariants.

Dfinition 10.16 (Tenseur dordre (p, q)). Soient p et q des entiers 0. Un tenseur dordre (p, q)
est une application multilinaire :

f : V V V V R.
| {z } | {z }
p q

10.4.2 Exemple des tenseurs dordre (1, 1)


Pour illustrer la notion de tenseur dordre (1, 1), considrons une application bilinaire :

f : V V R.

Nous allons montrer quune telle application nest rien dautre quune application linaire :

: V V.

On commence par la construction inverse. Etant donne une application linaire :

: V V,

on peut dfinir une application bilinaire :

f : V V R

en posant :
f (, u) = (u)()
d = ((u)).
On vrifie facilement que f est bilinaire et que lassociation 7 f est injective. Vrifions ici
linjectivit. Supposons que f soit lapplication triviale f (, u) = 0 pour tout u V et pour tout
V . Par dfinition de f , ceci implique que ((u)) = 0 pour tout u et tout . Mais ceci entrane
que (u) doit tre nul pour tout u V et donc que est lapplication nulle.

Pour des raisons de dimensions, linjectivit implique la surjectivit et on a donc montr que
donner une application bilinaire :
f : V V R
est quivalent donner une application linaire :

: V V.

Ce qui est remarquable, cest que les matrices de f et de sont les mmes, une base B de V
tant choisie. Soit B = {e1 , . . . , en } une base de V et B = {1 , . . . , n } sa base duale. La matrice
de f dans les bases B et B est dfinie par FB ,B = F = (fij ) avec

fij = f (ei , j ).

Mais, dautre part, la j-me colonne de la matrice []B est donne par limage de ej exprime dans
la base B. Ainsi, on a
[]ij = i ((ej )) = f (i , ej ) = fij
ce qui prouve que
[]B = FB ,B .
150 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

10.5 Oprations sur les tenseurs


Sur les tenseurs de mme ordre, on a une opration daddition et de multiplication par les scalaires
qui en font un espace vectoriel.
Nous avons dj vu cette structure despace vectoriel pour les tenseurs dordre (0, 1) et dordre
(0, 2), cest--dire sur V et sur lespace des formes bilinaires. La gnralisation tout tenseur se
fait de manire vidente.

On a aussi une opration de multiplication entre tenseurs. Nous commenons par lexemple du
produit de deux formes linaires :

Exemple 10.17. Soient f, g V deux tenseurs dordre (0, 1),

f : V R
g : V R .

on dfinit leur produit par


b : V V R
b(u, v) = f (u)g(v).
Cest une forme bilinaire, cest--dire un tenseur dordre (0, 2).

Plus gnralement, on peut multiplier un tenseur dordre (p, q) avec un tenseur dordre (r, s) et
le rsultat est un tenseur dordre (p + r, q + s). Voici comment le produit est dfini. Soit :

f : V V V V R
| {z } | {z }
p q

un tenseur dordre (p, q) et soit :

g : V V V V R
| {z } | {z }
r s

un tenseur dordre (r, s). On dfinit leur produit :

f g : V V V V R
| {z } | {z }
p+r q+s

par :

(f g)(a1 , . . . , ap+r , x1 , . . . xq+s ) = f (a1 , . . . , ap , x1 , . . . xq )g(ap+1 , . . . ap+r , xq+1 , . . . xq+ss ).

Remarque 10.18. Lapplication identit Id : R R peut tre considre comme un tenseur dordre
(0, 0). Il joue alors le rle dlment neutre pour le produit dfini ci-dessus.

10.6 Changement de bases


Dans ce paragraphe, nous allons tudier le comportement dun tenseur (ou plutt de ses coordon-
nes) lors dun changement de bases. Il sagit ici dintroduire des proprits importantes des tenseurs
lies aux changements de coordonnes, trs utiles par exemple en physique lorsque lon change de
systme rfrent. Dautre part, les relations obtenues nous permettront dclairer les notions de
tenseurs covariants et contravariants.

Soient donc deux bases de V :

B = {e1 , . . . , en } et B 0 = {e01 , . . . , e0n }.


10.6. CHANGEMENT DE BASES 151

Daprs le paragraphe 6.7, la matrice de passage de la base B 0 la base B est la matrice :

PBB0 = (ij )

dont la j-me colonne repsente les coordonnes de e0j dans la base B. En dautres termes

n
X
e0j = ij ei (10.1)
i=1

ou encore, matriciellement (avec un petit abus de notation)


0
e1 e1
e02 e2
T
= PBB 0 . . (10.2)

..
. ..
e0n en

Daprs le thorme 6.71, la matrice PBB0 est inversible, et lon a :


1
PBB 0 = PB 0 B .

Dans la suite, nous noterons ij les coefficients de la matrice PB0 B , de sorte que lon a :
n
X
ei = e0k .
k=1

Le but de cette section est de dtudier le changement de coordonnes des tenseurs.

10.6.1 Cas des tenseurs dordre (1, 0) (vecteurs de V )


La modification des coordonnes dun vecteur par un changement de bases a dj t tudie au
chapitre 6, paragraphe 6.7). Rappelons que si v est un vecteur de V et si [v]B (resp. [v]B0 ) dsigne
le vecteur colonne dont les composantes sont les coordonnes de v dans la base B (resp. B 0 ), on a :

[v]B = PBB0 [v]B0 , (10.3)

ou encore :

1
[v]B0 = PBB 0 [v]B , (10.4)

chaque vi (resp. vi0 ) dsignant la i-me composante de v dans la base B (resp. B 0 ).

10.6.2 Cas des tenseurs dordre (0, 1) (formes linaires sur V )


Considrons maintenant une forme linaire f V . Soit B = (e1 , ..., en ) une base de V et soit
B = (1 , ..., n ) la base de V , duale de V .

Matriciellement, en crivant les vecteurs de V dans la base B, lapplication f est de la forme :



x1 x1
..  .
f ( . ) = f1 . . . fn ..
xn xn
152 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

fn est la matrice de f dans la base B , donne par fi = f (ei ).



Le vecteur ligne [f ]B = f1 ...
En dautres termes, on a :
n
X
f= fi i .
i=1

De mme, si B 0 = (e0 1, . . . , e0n ) est une autre base de V , de base duale B 0 = (10 , . . . , 0 n), et si on
note [f ]B0 la matrice de f dans cette base, ses coefficients sont donns par :

fi0 = f (e0i ),

de sorte que :
n
X
f= fi0 i0 .
i=1

Il sagit dcrire la matrice de passage de la base B 0 la base B et de voir les modifications sur
les coefficients de la matrice de f .

Pour cela, dterminons dabord les coefficients, nots ij de la matrice de passage PB B0 , dont
la j-me colonne est donne par les coefficients de lapplication j0 dans la base B .
0
P
Des relations j = i ij i et i (ej ) = ij , on dduit :

j0 (ei ) = ij ,

cest--dire :
= j0 ( k ki e0k )
P
ij
= ji ,
1
o les ij sont les coefficients de la matrice PB0 B = PBB 0.

On a donc prouv :

1 T
PB B0 = (PBB 0) . (10.5)

On peut maintenant calculer les coordonnes de f dans la base B 0 , i.e. trouver les fj0 tels que
X
f= fj0 j0 .
j

Cela scrit facilement, en utilisant la relation i0 (e0j ) = ij :

fj0 = f (e0j )
P
= Pi ij f (ei )
= Pi ij f (ei )
= i ij fi .

On a donc :

T
[f ]B0 = PBB 0 [f ]B . (10.6)

On constate que les formes linaires sur V se transforment comme les vecteurs de base tandis
que les vecteurs se transforment selon la rgle inverse (comparer (10.6) avec (10.2) et (10.4)).
10.6. CHANGEMENT DE BASES 153

Cest pour cette raison que les vecteurs (ou les formes linaires sur V ) sont appels
des tenseurs contravariants dordre 1 et les formes linaires sur V sont appeles des
tenseurs covariants dordre 1.

Le qualificatif contravariant concernerait donc les tenseurs dont les composantes se trans-
forment contrairement celles des vecteurs de base. Poursuivons notre investigation...

10.6.3 Cas des tenseurs dordre (0, 2) (formes bilinaires sur V )


On considre une forme bilinaire f sur V et sa matrice F (resp. F 0 ) dans la base B (resp, B 0 ).
On peut montrer que lon a la relation

F 0 = PBB
T
0 F PBB 0 . (10.7)

Cette quation est du mme type que la relation (10.6). Les formes bilinaires suivent les mmes
rgles que les formes linaires lors dun changement de bases. Cest pourquoi, on dit aussi que les
formes bilinaires sur V sont des tenseurs covariants dordre 2.

10.6.4 Cas des tenseurs (2, 0) (formes bilinaires sur V )


On considre un tenseur dordre (2, 0), cest--dire une forme bilinaire sur V . Notons F (resp.
F ) sa matrice dans la base B (resp, B 0 ). On a la relation :
0

1 1 T
F 0 = PBB 0 F (PBB 0 ) . (10.8)

On constate que cest la rgle inverse que pour un tenseur dordre (0, 2) (comparer avec 10.7).
En revanche, cest une loi similaire celle qui rgit le changement de coordonnes dun vecteur. Un
tenseur dordre (2, 0) est donc dit 2 fois contravariant.

10.6.5 Cas des tenseurs dordre (1, 1)


Lors dun changement de bases, on sait comment la matrice dune application : V V
change. Si (resp. 0 ) est la matrice de dans la base B (resp. B 0 ), alors on a
1
0 = PBB 0 PBB 0 .

Via lquivalence vue au paragraphe 10.4.2, et tenant compte du fait que = F , on obtient la
manire dont les coefficients dun tenseur dordre (1, 1) varient lors dun changement de bases. Cest
la mme rgle que pour une application linaire. Plus prcisment, si

f : V V R

est une application bilinaire de matrice F (resp. F 0 ) dans la base B (resp. B 0 ), alors on a

1
F 0 = PBB 0 F PBB 0 . (10.9)

On constate que la matrice de changement de base apparat droite de F mais que cest son
inverse qui apparait gauche. Cest pourquoi, un tenseur dordre (1, 1) est dit 1 fois covariant et
1 fois contravariant (comparer la relation (10.9) avec lquation (10.8) qui donne la rgle pour un
tenseur 2 fois covariant.)
154 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

10.6.6 Cas des tenseurs dordre (p, q)


Les formules prcdentes se gnralisent encore... et expliquent pourquoi un tenseur dordre (p, q)
est dit p fois contravariant et q fois covariant.

10.7 Champs tensoriels


10.7.1 Dfinitions
Jusquici, nous navons considr que des tenseurs isols. En physique, il est plus frquent de
rencontrer un champ tensoriel, cest--dire, la donne dun tenseur en tout point de lespace (ou
dune partie de celui-ci) ou en plusieurs instants.

On considre donc lespace affine E = Rn et en tout point y de lespace on considre lespace


vectoriel V = Rn .

Dfinition 10.19 (Champ tensoriel). Un champ tensoriel est la donne en tout point y de lespace
dun tenseur dordre (p, q). Alors que le tenseur varie en fonction du point y E, lordre (p, q),
quant lui, est indpendant de y.

Exemple 10.20. Considrons un fluide localis dans une partie de lespace E. La vitesse du fluide
en chaque point de lespace est un tenseur dordre (0, 1).

En chaque point y R3 , on se donne une base :

B(y) = {e1 (y), . . . en (y)}

dans laquelle on exprimera le champ tensoriel.


Par exemple, on pourrait considrer la base canonique en chaque point y : dans ce cas, la base
ne dpend pas de la position y.

10.7.2 Changements de coordonnes


Supposons que lon se donne un changement de coordonnes, i.e. en termes mathmatiques, une
fonction :
: Rn R

n

u1 = u1 (x1 , . . . , xn )

(x1 , . . . , xn ) 7 ..
.
un = un (x1 , . . . , xn )

qui soit de classe C 1 , bijective et dont linverse est aussi de classe C 1 .


Lapplication transforme, en chaque point y, la base B(y) en une nouvelle base

B 0 (y) = {e01 (y), . . . , e0n (y)}.

Le dessin ci-dessous illustre la situation dans le cas E = R2 .

Explicitement, en chaque point y de lespace Rn , on a un changement de bases qui est donn par
X uj
e0i (y) = (y)ej (y).
j
xi

Notons la dpendance en y dans la formule ci-dessus.


10.7. CHAMPS TENSORIELS 155

B
e2 (y)
D
P
 e02 (y)  `
y
e1 (y) 
  ((
(
y0 e01 (y)

Dfinissons la matrice :  
ui
= (ij ) := (y) .
xj
Cest la matrice de changement de base au point y. Son inverse est donn par
 
1 xi
= = (ij ) = (y) .
uj
Ces deux matrices dpendent du point y.

10.7.3 Cas dun champ tensoriel dordre (1, 0) (champ vectoriel)


Admettons que lon ait maintenant un champ vectoriel, i.e. la donne dun vecteur v de Rn en
tout point y de lespace Rn . Un champ vectoriel (ou champ tensoriel dordre (1, 0)) est donc la
donne dune application :

E = Rn Rn
y 7 v(y)

qui tout point y associe un vecteur v(y).


Notons vi (y) (resp. vi0 (y)) les coordonnes de v(y) dans la base B(y) (resp. B 0 (y)). On montre
alors quon a la relation suivante :
X ui
vi0 (y) = (y)vj (y)
j
xj

ou matriciellement
[v 0 ] = [v].
Cette rgle est similaire celle obtenue en (10.3), avec comme seule diffrence que la matrice de
changement de bases dpend du point y et est donne par la matrice jacobienne = 1 .
On parle dans ce cas de champ contravariant.

10.7.4 Cas dun champ tensoriel dordre (0, 1)


Soit w un champ de formes linaires, i.e. la donne en tout point y de lespace dune forme linaire

w(y) : Rn R.

On peut, en tout point y, considrer la base duale de B(y) que lon note B (y). Comme prcdemment,
si
B (y) = {i (y)}
alors chaque forme linaire w(y) scrit
X
w(y) = wi (y) i (y).
i
156 CHAPITRE 10. APPLICATIONS MULTILINAIRES ET TENSEURS

Le changement de coordonnes donn par induit un changements des coordonnes wi (y) qui suit
la rgle suivante :
X xj
wi0 (y) = (y)wj (y)
j
ui

qui scrit matricellement


[w0 ] = T [w]
ou encore

[w] = (1 )T [w0 ] (10.10)

Ce rsultat nest pas surprenant. Lquation (10.10) est semblable la relation (10.6), la matrice
PBB0 ayant t remplae par la matrice .
On parle dans ce cas dun champ covariant.

10.7.5 Cas dun champ quelconque


On peut gnraliser ce qui prcde au cas dun champ tensoriel dordre (p, q) quelconque. Les
changements de coordonnes se font de la mme manire que pour un tenseur dordre (p, q) la
diffrence prs, nouveau, que la matrice de changement de bases dpend du point y (et de ). On
remplace ainsi la matrice
PBB0
par la matrice  
ui
= .
xj
Bibliographie

[1] H. Anton and C. Rorres. Elementary linear Algebra. Applications Version. John Wiley &
Sons, Inc. New York, 2000.
[2] R. Dalang and A. Caabouni. Algbre linaire, Aide-mmoire, exercices et applications.
[3] D. Danielson. Vectors and Tensors in Enginee and Physics. Addison-Wesley Publishing Com-
pany, 1992.
[4] T. Liebling. Algbre linaire : une introduction pour ingnieurs.

157
158 BIBLIOGRAPHIE

Index

angle entre deux vecteurs, 105 linairement indpendants (vecteurs), 84


application, 69
application linaire, 70, 127 matrice
adjointe, 46
base antisymtrique, 32
dun espace vectoriel, 86 augmente dun systme, 9
orthogonale, 108 carre, 19
orthonorme, 108 dune application linaire, 70, 136
standard, 78, 83, 87, 88 de changement de bases, 97
bijective (application), 75 des coefficients, 47
diagonale, 29
caractristique (quation), 117 diagonalisable, 121
caractristique (polynme), 117 chelonne, 11
Cauchy-Schwarz (ingalit de), 65, 104 chelonne rduite, 11
cofacteur dune matrice, 42 lmentaire, 25
combinaison linaire, 82 identit, 21
complment orthogonal, 106 inverse, 23
composition dapplications, 73 inversible, 23
coordonnes dun vecteur, 50, 87, 108 orthogonale, 112
Cramer (rgle de), 46 symtrique, 31
transpose, 30
dterminant, 33, 35 triangulaire, 28
drivation, 129 matrice (relle), 19
diagonal(e) matrices quivalentes par lignes, 26
lment, 19 mineur dune matrice, 42
matrice, 29 moindres carrs (mthode des), 114
diagonalisation, 121
dimension dun espace vectoriel, 90 nilespace (=noyau), 93, 132
dual dun espace vectoriel, 139 norme dun vecteur, 51, 65, 102
noyau (=nilespace), 93, 132
espace
nullit, 96, 133
des colonnes, 92
des lignes, 92 oprations lmentaires, 9
propre, 119 orthogonal
vectoriel, 79 complment, 106
dimension, 90 matrice, 112
vecteur, 105
fonction, 69
orthogonalit, 53, 66, 106
forme multilinaire, 141

Gauss (algorithme de), 12 paire (permutation), 34


gaussienne (limination), 11 paramtriques (quations dune droite), 61
Gram-Schmidt (mthode de), 110 permutation, 33
polynme, 81, 85
homogne (systme), 15, 82 produit
de tenseurs, 143
image dune application, 132 cartsien, 79
impaire (permutation), 34 lmentaire, 35
incompatible (systme), 6 lmentaire sign, 35
inconsistant (systme), 6 matriciel, 20, 68
injective (application), 75 mixte, 58
inversion dune permutation, 33 scalaire, 52, 64, 101
vectoriel, 55
linaire (quation), 5 projection orthogonale, 54, 72, 109, 128
linairement dpendants (vecteurs), 84 Pythagore (thorme de), 66, 105
INDEX 159

rang, 95, 133


rang (thorme du), 96, 133
rflexion, 71
rotation, 73

second membre, 47
somme
de matrices, 19
de tenseurs, 143
de vecteurs, 49, 64
sous-espace vectoriel, 80
sphre unit, 102
surjective (application), 75
systme dquations linaires, 6
systme normal, 115

tenseur, 139
triangle (ingalit du), 66, 104

valeur propre, 117


variable
directrice, 15
libre , 15
vecteur(s), 49
colonne, 66
ligne, 66
normal, 60
orthogonaux, 105
propre, 117
160 BIBLIOGRAPHIE

Index des notations

Id - application identit, 70
<, > - produit scalaire (gnralis), 101

aij lments de la matrice A, 19


A, B - matrices, 19
A1 - matrice inverse, 24
|A| - dterminant, 41
adj(A) - matrice adjointe, 46
AT - matrice transpose, 30
AT - matrice transpose inverse, 30

Cij - cofacteur dune matrice, 42


C i (R), 81

det(A) - dterminant de A, 35

e1 , . . ., en - base standard, 78
Ei (c), Eij (c), Eij - matrices lmentaires, 25
E - espace propre, 119

fA - application associe A, 70
[f ]B 0 ,B - matrice de f dans les bases B et B 0 ,
136
f , F - applications (linaires), 69, 127
[f ], [F ] - matrice standard, 70

G F - composition dapplications, 131


g f - composition dapplications, 74

In , I - matrice identit, 21
Im(f ) - image de f , 132

Ker(A) - noyau de A, 93
Ker(f ) - noyau de f , 132

L(S) - espace vectoriel engendr par S, 84

Mij - mineur dune matrice, 42


Mmn - espace vectoriel des matrices m n, 90

null(A) - nullit de A, 96

Pn - espace vectoriel des polynmes de degr


n, 81

rg(A) - rang de A, 95
Rn - espace rel de dimension n, 63

u v - produit scalaire, 52, 64


u v - produit vectoriel, 55
[u, v, w]- produit mixte, 58

V - dual de V , 139
k v k - norme de v, 51, 65
V , W - espace, sous-espace vectoriel, 79

W - complment orthogonal, 106

x1 , x2 , x3 - variables, 5

You might also like