You are on page 1of 130

COURS DE MATHEMATIQUES

ALGEBRE

LAKHEL El Hassan
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
www.ensasafi.ma

Année Universitaire : 2006-2007


Table des matières

I ALGÈBRE GÉNÉRALE 6

1 GÉNÉRALITÉS - STRUCTURES ALGÉBRIQUES 7


1.1 Ensenbles - Relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Relation binaire sur un ensemble E . . . . . . . . . . . . . . . . . . . 8
1.1.3 Applications et fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Lois de composition - Structures d’ensembles . . . . . . . . . . . . . . . . . 10
1.3 Groupes et sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Morphisme de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 EXERCICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 LES POLYNÔMES 19
2.1 Présentation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Opérations sur les polynômes : . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Division Euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Arithmétiques sur les polynômes . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Algorithme d’Euclide. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Fonction polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Polynôme dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.2 Formule de Taylor pour les polynômes . . . . . . . . . . . . . . . . . . 27
2.4 Zéros d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.1 Multiplicité d’une racine . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Décomposition des polynômes en facteurs irréductibles . . . . . . . . . . . . 30
2.6.1 Factorisation des polynômes dans C[X] . . . . . . . . . . . . . . . . . 30
2.6.2 Factorisation des polynômes dans R[X] . . . . . . . . . . . . . . . . 30
2.6.3 Annexe : Recherche des racines, quelques résultats et méthodes . . . . 32
2.7 EXERCICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 FRACTIONS RATIONNELLES 36
3.1 Définitions et propriétés algèbriques . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.1 Fractions ratinnelles irréductibles . . . . . . . . . . . . . . . . . . . . . 36
3.2 Décomposition en éléments simples d’une fraction rationnelle . . . . . . . . . 38
3.2.1 Fractions rationnelles régulières . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . 38
3.2.3 Décomposition dans C(X) . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.4 Décomposition dans R(X) . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Recherche des parties polaires relatives à des facteurs de la forme (X − a)α . 43

1
3.3.1 Division suivant les puissances croissantes . . . . . . . . . . . . . . . . 43
3.4 Recherche des parties polaires relatives à des facteurs de la forme (X 2 + bX + c)α 45
3.5 APPLICATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6 EXERCICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

II ALGÈBRE LINÉAIRE 49

4 ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES 50


4.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.2 Sous-espace engendré par une partie . . . . . . . . . . . . . . . . . . . 52
4.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3.2 Image et noyau d’une application linéaire . . . . . . . . . . . . . . . . 56
4.4 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . 56
4.4.1 Structure d’espace vectoriel de LK (E, F ) . . . . . . . . . . . . . . . . . 56
4.4.2 Composition des applications linéaires . . . . . . . . . . . . . . . . . . 57
4.4.3 Le groupe linéaire (GL(E), o) . . . . . . . . . . . . . . . . . . . . . . . 57
4.5 Indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

5 ESPACES VECTORIELS DE DIMENSION FINIE 62


5.1 Définition d’un espace vectoriel de dimension finie. Bases. . . . . . . . . . . . 62
5.1.1 Espace vectoriel engendré par une suite finie. Base . . . . . . . . . . . 62
5.1.2 Existence de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2 Dimension d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . 63
5.2.1 Le théorème de la dimension . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.2 Rang d’une suite finie de vecteurs . . . . . . . . . . . . . . . . . . . . 64
5.2.3 Espace vectoriel de dimension finie donnée n . . . . . . . . . . . . . . 65
5.3 Sous-espaces d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . 65
5.4 Applications linéaires d’un K-e.v. de dimension finie dans un K e. v. . . . . . 66

6 MATRICES ET SYSTÈMES LINÉAIRES 72


6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.1.2 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.1 L’espace vectoriel Mp,n (K) . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.2 Base canonique et dimension de Mp,n (K) . . . . . . . . . . . . . . . . 74
6.2.3 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.4 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.4 Matrices carrées inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.5 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.5.1 Action d’un changement de base sur les coordonnées d’un vecteur . . 79
6.5.2 Action d’un changement de base sur la matrice d’une application linéaire 80
6.6 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.6.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.6.2 Interprétation matricielle d’un système linéaire : . . . . . . . . . . . . 81

2
6.6.3 Rang d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . 81
6.7 Méthode de pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.8 Algorithme du pivot de Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.9 Exercices : Les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

7 DÉTERMINANTS 91
7.1 Le groupe symétrique Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.2 Formes miltilinéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Déterminant d’une suite de vecteurs dans une base . . . . . . . . . . . . . . 94
7.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 95
7.5 Propriétés et calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.6.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension n . . . 97
7.6.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 98
7.6.3 Calcul de l’inverse d’une matrice carrée inversible . . . . . . . . . . . . 99
7.6.4 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . 99
7.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

8 RÉDUCTION DES ENDOMORPHISMES 104


8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.2 Vecteurs propres et valeurs propres d’un endomorphismes : . . . . . . . . . . 104
8.2.1 Calcul des valeurs propres. Polynôme caractéristique . . . . . . . . . . 105
8.2.2 Sous-espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.5 Caractérisation des endomorphismes diagonalisables . . . . . . . . . . . . . . 109
8.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

9 Examens de l’année universitaire 2005-2006 117

3
INTRODUCTION

Ce support de cours a pour objectif de faciliter le travail des étudiants. Il contient l’es-
sentiel du module d’algèbre, de la première année ENSAS que l’étudiant doit connaı̂tre.
Dans le cadre de ce cours on cherche à la fois développer de faon rigoureuse des concepts
et des méthodes et á dégager des connaissances nécessaires à la physique et aux sciences
ingénieurs. Le programme d’algèbre est organisé autour des concepts fondamentaux d’es-
pace vectoriel et d’application linéaire, et de leurs interventions en algèbre, en analyse et en
géométrie. La maı̂trise de l’algèbre linéaire élémentaire en dimension finie constitue un objectif
essentiel. C’est pour les élèves la partie la plus difficile, car la plus abstraite et la plus neuve :
ils y rencontrent pour la première fois la notion de structure, qui s’intéresse aux propriétés
des objets manipulés et non leur nature. Elle nécessite un important effort d’abstraction et
demande une assez longue adaptation. La plupart des résultats sont démontrs, dans le but
d’habituer les élèves à tenir un raisonnement rigoureux, à ne pas confondre démonstration et
affirmation, et aussi parce que les démonstrations permettent souvent de mettre en oeuvre et
d’illustrer les concepts introduits ou les propriétés précédemment établies.
En début d’année, on introduit la notion de loi de composition interne dans un ensemble,
l’étude des structures de groupe, anneau, corps, se réduit aux définitions (structure, sous-
structure, morphismes) et à quelques propriétés élémentaires des morphismes (composition,
noyau, isomorphismes). Survol du groupe des permutations d’ordre n (définition d’une per-
mutation, d’une transposition, détermination pratique de la signature). Ensuite, nous allons
étudier les polynômes et les fractions rationnelles.
L’étude de l’algèbre linéaire constitue le coeur du cours d’algèbre ; elle est subdivisée en
six chapitres :
La deuxème partie évoque la notion d’espace vectoriel. Notre but est d’introduire les
notions de base de l’algèbre linéaire et de démontrer rigoureusement les résultats principaux
de ce sujet. Les domaines suivants seront traités dans le premier chapitre de cette partie :
• Espace vectoriel et sous-espace vectoriel.
• Suite libre et suite génératrice.
• Application linéaire, endomorphisme, isomorphisme, automorphisme.
• Noyau et image d’une application linéaire.
• Espaces vectoriels de dimension finie.
Les chapitres cinq-huit introuduisent les matrices, les systèmes d’équations linéaires , les
déterminants et les réductions des matrices.

Le meilleur apprentissage de l’Algèbre Linéaire s’obtient par un travail régulier sur toute
l’année. Ce cours va te permettre de revoir rapidement ce qu’il te faut absolument savoir !
Mais ça reste un aide-mémoire et ne te dispense ni de cours, ni de faire les exercices. Chaque
fois qu’un exercice vous pose des problèmes, revenez à la partie du cours concernée, vérifiez
que les définitions et les théorèmes ont été bien compris et refaire les exemples et exercices
donnés. Ces allers-retours entre le cours et les applications sont essentiels pour une bonne
compréhension. Pour certains théorème, la démonstration ne demande que quelques lignes,

4
-et peut à tort sembler triviale, -alors que pour d’autres , il faut beaucoup plus d’ingeniosité.
Aucune de ces démonstrations ne doit être traitée à la légère, car c’est précisément à cause
de l’abondance de ces théorèmes que le calcul offre une base naturelle d’étude à ceux qui
veulent atteindre une certaine maturité mathématique. Des exercices sont insérés dans le
cours, souvent à la fin de chaque chapitre, ils deveraient permettre à l’étudiant de contrôler,
au fur et à mesure, l’acquisition des connaissances. J’espère présenter ainsi un ensemble
cohérent que chaque étudiant pourra parcourir à son rythme.
Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques sur ce
ce fascicule.
E. Lakhel

5
Première partie

ALGÈBRE GÉNÉRALE

6
Chapitre 1

GÉNÉRALITÉS - STRUCTURES
ALGÉBRIQUES

1.1 Ensenbles - Relations


1.1.1 Ensembles
a- Ensemble : Un ensemble est une collection d’objets vérifiant une propriété commune.
Ces objets sont alors appelés éléments de l’ensemble.
b- Appartenance : Soit E un ensemble. Si a est un élément de E ; on dit que a appartient
à E et on note a ∈ E.
c- Sous-ensemble d’un ensemble : Soit E un ensemble. On dit qu’une partie A de E est
un sous-ensemble de E si tout élément de A est élément de E ; on dit aussi que A est
inclus dans E et on note : A ⊆ E. Les sous ensembles ou parties de E constituent un
ensemble qu’on note P(E), et on a

A ∈ P(E) ⇔ A ⊆ E.

Remarque 1.1. 1. Si E = ∅, P(E) contient un élément qui est la partie vide de E. C’est-
à-dire : P(∅) = {∅}.
2. Si a ∈ E on ne confondra pas a et {a} : a est un élément de E tandis que {a} est une
partie de E, i.e. un élément de P(E).

d- Sous-ensemble complémentaire : Soient E un ensemble et A une partie de E. On


appelle sous-ensemble complémentaire de A dans E et on note ⊂A E ou A, le sous-
ensemble de E constitué des éléments de E qui n’appartiennent pas à A, et on a

A = {x ∈ E/ x∈
/ A}.

e- Égalité d’ensembles :
A = B ⇔ (A ⊆ B et B ⊆ A).
f- Produit cartésien de deux ensembles
Le produit cartésien de deux ensembles E et F se définit par :
1. E × F = {(x, y)/ x ∈ E et y ∈ F }
2. E × E = E 2 .

7
1.1.2 Relation binaire sur un ensemble E
On appelle relation binaire R sur un ensemble E, tout sous-ensemble de E 2 , tel que :

(∀a ∈ E), (∀b ∈ E) aRb (a est en relation avecb)

La relation R peut être un objet matématique quelconque : ⊆, ≤ ....

Relation d’équivalence sur un ensemble


Une relation d’équivalence dans un ensemble E est une relation binaire qui est à la fois
réflexive, symétrique et transitive, (∀a ∈ E) (∀b ∈ E), (∀c ∈ E)
1. R est une relation réflexive si et seulement si aRa
2. R est une relation symétrique si et seulement si aRb =⇒¾ bRa.
aRb
3. R est une relation transitive si et seulement si =⇒ aRc.
bRc
Exemples

1. La relation ” égal à ” est une relation d’équivalence.


2. La relation ” inclus dans ou égal à ” est une relation réflexive et transitive
3. La relation ”perpendiculaire” est une relation symétrique. Elle n’est pas transitive !
(Théorème d’Euclide : deux droite perpendiculaures à un troisième sont parallèles.)
3. La relation ”parallèle à ” est une relation d’équivalence.

Relation d’ordre sur un ensemble


Une relation d’ordre dans un ensemble E est une relation binaire qui est à la fois réflexive,
antisymétrique et transitive. Une relation R est une relation antisymétrique, si et seulement
si :
(aRb et bRa) =⇒ a = b (∀a ∈ E)(∀b ∈ E).
Exemple
- La relation ”inférieur ou égal ” est une relation d’ordre sur R.

1.1.3 Applications et fonctions


Définition 1.1. Soient E, F deux ensembles. On appelle application de E vers F toute cor-
respondance de E vers F qui, à tout élément de E, associe un élément unique de F .
Image d’une partie de E :

Définition 1.2. L’image d’une partie X de E par l’application f que l’on note f (X), est
l’ensemble des images de tous les éléments de X :

f (X) = {y ∈ F/∃x ∈ X, y = f (x)}.

Théorème 1.3. Soient A, B deux parties de E, on a :


1.
f (A ∪ B) = f (A) ∪ f (B).
2. Mais on a seulement l’inclusion :

f (A ∩ B) ⊆ f (A) ∩ f (B).

Preuve. (Voir exercice 3 série No 1.)

8
Remarque 1.2. l’inclusion réciproque n’est pas toujours vraie. En effet, considérons l’appli-
cation

f : R −→ R
x −→ x2

et considérons les ensembles A = [−3, 2], B = [1, 5].


On a f (A) = [0, 9], f (B) = [1, 25], donc f (A) ∩ f (B) = [1, 9], et A ∩ B = [1, 2], donc
f (A ∩ B) = [1, 4]. Donc
f (A) ∩ f (B) * f (A ∩ B).
En fait l’inclusion réciproque n’est vraie que si l’application f est injective (voir T.D.).
Image réciproque d’une partie de F
Définition 1.4. L’image réciproque d’une partie Y de F par l’application f qu’on note
f −1 (Y ) est l’ensemble des éléments de E dont l’image par f est dans Y ,

f −1 (Y ) = {x ∈ E/ f (x) ∈ Y }.

Remarque 1.3. Attention ! il ne faut pas confondre cette notion avec la fonction réciproque
d’une application bijective rappelée ci-après.
Théorème 1.5. Soient A et B deux parties de F . On a
1.
f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
2.
f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).
Preuve. 1.
x ∈ f −1 (A ∪ B) ⇔ f (x) ∈ A ∪ B
⇔ f (x) ∈ A ou f (x) ∈ B
⇔ (x ∈ f −1 (A)) ou (x ∈ f −1 (B))
⇔ x ∈ f −1 (A) ∪ f −1 (B).
2.
x ∈ f −1 (A ∩ B) ⇔ f (x) ∈ A ∩ B
⇔ f (x) ∈ A et f (x) ∈ B
⇔ (x ∈ f −1 (A)) et (x ∈ f −1 (B))
⇔ x ∈ f −1 (A) ∩ f −1 (B).
Propriétés des applications

Soient E, F deux ensembles, et f une application de E vers F .

• Injection : On dit que l’application f est injective si :

∀(x, y) ∈ E 2 , x 6= y ⇒ f (x) 6= f (y).

Autrement dit :
∀(x, y) ∈ E 2 , f (x) = f (y) ⇒ x = y.
• Surjection : On dit que l’application f est surjective si :

∀y ∈ F, ∃x ∈ E / y = f (x).

9
• Bijection : On dit que l’application f est bijective si elle est à la fois injective et surjective.
Autrement dit,
∀y ∈ F, ∃!x ∈ E / y = f (x).
• Bijection réciproque : Soit f une bijection de E vers F . On obtient ∀y ∈ F, ∃!x ∈
E/y = f (x).
la bijection
F −→ E
y 7→ x
est appelée bijection réciproque de f et est notée f −1 . Ainsi

∀(x, y) ∈ E × F, f (x) = y ⇔ x = f −1 (y).

• Applications égales : Soient E, F deux ensembles, et f une application de E vers F .


On dit que f et g sont égales si, pour tout élément x de E, on a f (x) = g(x).
On note alors :
f = g.
• Application identité :
soit E un ensemble. On appelle application identité dans E, l’application qui, à tout élément
x de E, on associe x ; cette application est notée id.
Exemples
1.
f : R∗ −→ R
x −→ x1
f est une application injective.
2. Soit C ∞ (R, R) l’ensemble constitué des fonctions infiniment dérivables sur R à valeurs
dans R.
Φ C ∞ (R, R) −→ C ∞ (R, R)
0
ϕ −→ ϕ
Φ est une application surjective.
3.
f: R −→ R
x −→ x + 1
f est une application bijective.

1.2 Lois de composition - Structures d’ensembles


Définition 1.6. • Soit E un ensemble. Une loi de composition interne (l.c.i) sur E est une
application de E × E dans E.
• Soient E et F deux ensembles.
Une loi de composition externe (l.c.e) sur E à domaine d’opérateurs (ou scalaires) dans
F est une application de F × E dans E .
Notations 1.
T : E × E −→ E
(x, y) −→ T (x, y) = xT y.
⊥ : F × E −→ E
(x, y) −→ ⊥(x, y) = x⊥y.

10
Remarque 1.4. Munir un ensemble G d’une structure, c’est définir sur G un nombre fini de
lois de composition internes ou externes vérifiant un certain nombre de conditions appelées
axiomes de la structure en question. Dans la suite, G étant un ensemble muni d’une l.c.i
notée ∗.

1.3 Groupes et sous-groupes


Définition 1.7. Un ensemble (G, ∗) est un groupe si il vérifie les trois conditions suivantes :
i) La loi ∗ est associative c’est-à-dire. ∀x, y, z ∈ G, x ∗ (y ∗ z) = (x ∗ y) ∗ z.
ii) La loi ∗ admet un élément neutre c’est-à-dire ∃e ∈ G ∀x ∈ G, x ∗ e = e ∗ x = x.
iii) Tout élément est symétrisable c’est-à-dire ∀x ∈ G, ∃x0 ∈ G/x ∗ x0 = x0 ∗ x = e.
Si, de plus, la loi est commutative (∀x, x0 ∈ G, x ∗ x0 = x0 ∗ x), on dit que le groupe est
commutatif ou abélien.
Exemple 1.1. Les ensembles suivants sont des groupes :
– (Z, +) où + est l’addition usuelle.
– (C∗ , ×) où × est la multiplication usuelle.
– (E, +) où E = { fonctions numériques définies sur R}. et + est la somme usuelle des
fonctions. C’est-à-dire, f et g étant deux éléments de E, f + g est définie, pour tout
réel x, par : (f + g)(x) = f (x) + g(x).
Proposition 1.8. Soit (G, ∗) un groupe et soit x un élément de G. Le symétrique de x est
unique.
Preuve. On suppose qu’il existe deux symétriques à x : x0 et x”.
x0 ∗ x ∗ x00 = (x0 ∗ x) ∗ x00 = e ∗ x00 = x00
= x0 ∗ (x ∗ x00 ) = x0 ∗ e = x0 .

Remarque 1.5. – Si une loi ∗ est commutative, pour vérifier qu’un élément e est l’élément
neutre, il suffit de vérifier que, ∀x ∈ G, on a x ∗ e = x (ou e ∗ x = x). L’autre relation
étant obtenue par la commutativité. De même, pour vérifier qu’un élément x0 est le
symétrique de x, il suffit que l’on ait soit x ∗ x0 = e soit x0 ∗ x = e.
Proposition 1.9. Soit (G, ∗) un groupe, pour tous les éléments a et b de G, on a :
(a ∗ b)−1 = b−1 ∗ a−1 .
Preuve. (a ∗ b)−1 est par définition l’unique élément de G qui vérifie :
(a ∗ b)−1 ∗ (a ∗ b) = (a ∗ b) ∗ (a ∗ b)−1 = e.
Or (b−1 ∗ a−1 ) ∗ (a ∗ b) = b−1 (a−1 ∗ a) ∗ b = b−1 ∗ e ∗ b = b−1 ∗ b = e et
(a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ e ∗ a−1 = a ∗ a−1 = e.
Définition 1.10. Soit (G, ∗) un groupe.
1. On dit qu’un élément a de G est régulier à gauche si
∀b, c ∈ G, (a ∗ b = a ∗ c) ⇒ (b = c).
2. On dit qu’un élément a de G est régulier à droite si
∀b, c ∈ G, (b ∗ a = c ∗ a) ⇒ (b = c).
3. On dit qu’un élément a de G est régulier si il est rérulier à gauche et à droite.
Proposition 1.11. Tout élément d’un groupe est régulier.
Preuve. Soient a, x, y trois éléments d’un groupe (G, ∗). Si on suppose que a ∗ x = a ∗ y,
alors, on aura après multiplication à gauche par a−1
a−1 ∗ (a ∗ x) = a−1 ∗ (a ∗ y),

11
ce qui entraine en utilisant l’associativité de la loi ∗ :
(a−1 ∗ a) ∗ x = (a−1 ∗ a) ∗ y.
Par suite x = y.
Sous-groupes Soit H une partie non vide d’un groupe G ; la partie H est dite stable pour
la loi ∗ du groupe G (ou stable dans G)si
∀x, y ∈ H, x ∗ y ∈ H.
Définition 1.12. Soit (G, ∗) un groupe. Soit H ⊆ G et H 6= ∅.
On dit que H est un sous-groupe de (G, ∗) si et seulement si
i) H est stable dans G.
ii) L’ensemble H, muni de la loi ∗ induite par G est un groupe.
Exemple 1.2. .
– (Z, +) est un sous-groupe de (R, +).
– 2Z = {2k/k ∈ Z}, alors, (2Z, +) est un sous-groupe de (Z, +).
– (Z∗ , ×) n’est pas un sous-groupe de (R∗ , ×).
Théorème 1.13. Soit (G, .) un groupe noté multiplicativement. Soit H ⊆ G. Les propriétés
suivantes sont équivalentes :

(i) H est un sous-groupe de G.


(ii) H 6= ∅, H est stable par la loi de G et ∀x ∈ H, on a x−1 ∈ H.
(iii) H 6= ∅ et ∀x, y ∈ H, on a x.y −1 ∈ H.
Preuve. (i) ⇒ (ii) évident.
(ii) ⇒ (iii) évident.
(iii) ⇒ (i) : Associativité découle de celle de G.
Elément neutre : ∀x ∈ H, x.x−1 ∈ H ⇒ e ∈ H.
Symétrique : ∀x ∈ H, e.x−1 ∈ H ⇒ x−1 ∈ H.
Loi de composition interne : ∀x, y ∈ H, on a y −1 ∈ H, et donc x.y = x.(y −1 )−1 ∈ H.
Remarque 1.6. – Soit H un sous-groupe de G. L’élément neutre de H est le même que
celui de G . Le symétrique d’un élément de H est le même dans H que dans G.
– Si la loi de G est notée additivement, on a :
(ii) devient (ii)’ H 6= ∅, H est stable par la loi de G et ∀x ∈ H, on a −x ∈ H.
(iii) devient (iii)’ H 6= ∅ et ∀x, y ∈ H, on a x − y ∈ H.
Exemple 1.3. Soit G un groupe.
{e} et G sont deux sous-groupe de G.
Tous les autres sous-groupes sont dits propres.
PropositionT1.14. Soit G un groupe et soit (Hi )i∈I une famille non vide de sous- groupes
de G. Alors i∈I Hi est un sous- groupe de G.
Preuve. T T
– ∀i ∈ I(6= ∅) e ∈ Hi , donc e T∈ i∈I Hi , par suite i∈I Hi 6= ∅.
– Soit x, y Tdeux éléments de i∈I Hi . ∀i ∈ I, x, y ∈ Hi donc x.y −1 ∈ Hi . D’où
x.y −1 ∈ i∈I Hi .
Remarque 1.7. En général, la réunion de 2 sous-groupes n’est pas un sous-groupe. Par
exemple, on a (2Z, +) est un sous-groupe de (Z, +) et (3Z, +) est un sous-groupe de (Z, +).
Si 2Z ∪ 3Z est un sous-groupe de (Z, +), on devrait avoir 2 + 3 ∈ 2Z ∪ 3Z.
Proposition 1.15. Soit G un groupe et soit a un élément de G. Il existe un plus petit sous-
groupe de G contenant a. Ce sous-groupe est appelé groupe engendré par a et est noté gr(a).
Preuve. Soit (Hi )i∈I l’ensemble des sous-groupes deTG qui contiennent a. Cette famille n’est
pas vide car G appartient à cette famille et gr(a) = i∈I Hi .

12
Exemple 1.4. 1) (2Z, +) est un sous-groupe de (Z, +) engendré par 2.
2) (Z, +) est sous-groupe de (R, +) engendré par 1.
3) Dans (C∗ , ×) , gr(i) = {1, i, −1, −i}.
Remarque 1.8. On peut géraliser cette définition à une partie A quelconque d’un groupe
G. Il existe un plus petit sous-groupe de G contenant A. Ce sous-groupe est appelé groupe
engendré par A et est noté gr(A).
Définition 1.16. Soit G un groupe et soit A une partie de G. On dit que A est une partie
génératrice de G si et seulement si gr(A) = G.

1.4 Morphisme de groupes


Définition 1.17. Soient (G, ∗), (F, ⊥) deux groupes, et f une application de G dans F . On
dit que f est un morphisme de groupes si :

∀(x, y) ∈ G2 , f (x ∗ y) = f (x)⊥f (y).

Exemples :

1. Soient G, G0 deux groupes. l’application de G dans G0 qui à x fait correspondre e0


(l’élément neutre de G0 ), est un morphisme de groupes appelé morphisme trivial.
2. Soit n ∈ N. L’application de (Z, +) dans (Z, +) qui à chaque x on associe nx, est un
morphisme de groupes (f (x + y) = f (x) + f (y)).
3. La fonction exponentielle est un morphisme de (R, +) dans (R∗+ , ×). La fonction loga-
rithme est un morphisme de (R∗+ , ×) dans (R, +).
Théorème 1.18. Soient (G, ∗) et (F, ⊥) deux groupes d’éléments neutres respectifs e et e0 .
Soit f un morphisme de G dans F . Alors,
(i) f (e) = e0 .
(ii) ∀x ∈ G, f (x−1 ) = (f (x))−1 .
Preuve :
(i) Nous avons e0 ⊥f (e) = f (e) = f (e ∗ e) = f (e)⊥f (e), donc f (e) = e0 puisque dans un
groupe tout éément est régulier.
(ii) Soit x un élément de G. Nous avons f (x−1 )⊥f (x) = f (x−1 ∗ x) = f (e) = e0 , donc
(f (x))−1 = f (x−1 ).
Définition 1.19. Soient (G, ∗), (F, ⊥) deux groupes et f un morphisme de G dans F . On
dit que f est un isomorphisme de G dans F s’il est bijective de G dans F . Dans ce cas on
dit que G et F sont isomorphes et on écrit G ∼
= F.
Dans le cas où G = F , un morphisme (resp. un isomorphisme) de G dans G est appelé un
endomorphime (resp. automorphisme)de G.
Définition 1.20. Soient (G, ∗), (F, ⊥) deux groupes et f un morphisme de G dans F .
• Le noyau de f noté ker(f ), est le sous-groupe de G défini par :

Ker(f ) = f −1 (e0 ) = {x ∈ G : f (x) = e0 }.

• L’image de f noté Im(f ), est le sous-groupe de G0 défini par :

Im(f ) = f (G) = {f (x) : x ∈ G}.

Théorème 1.21. Soit f un morphisme d’un groupe G dans un groupe F . Alors f est injectif
si et seulement si Ker(f ) = {e}.

13
Preuve Supposons que f est un morphisme injectif, donc si x est un élément de ker(f ),
alors f (x) = e0 = f (e), ce qui implique que x = e. Réciproquement, soient x, y ∈ G tels que
f (x) = f (y), alors, en multipliant par f (y)−1 , on obtient f (xy −1 ) = e0 . Il en résulte que
xy −1 ∈ ker(f ) = {e}. Donc xy −1 = e, d’où x = y. Par suite f est injective.

1.5 Anneaux et corps


Définition 1.22. Soit A un ensemble muni de deux lois de composition internes + et ×. On
dit que (A, +, ×) est un anneau si et seulement si :
i ) (A, +) est un groupe abélien.
ii ) La loi × est associative.
iii ) La loi × est distributive par rapport à la loi + ; c’est-à-dire distributive à gauche :
∀x, y, z ∈ A, x×(y+z) = (x×y)+(x×z) et distributive à droite : ∀x, y, z ∈ A, (y+z)×x =
(y × x) + (z × x).
vi) A admet un élément neutre pour la loi ×

∃e ∈ A ∀x ∈ A ex = xe = x.

On note e = 1A ou tout simplement 1.


Notons que la définition d’un anneau peut être énnoncée sans vi). Dans ce cas un anneau
vérifiant vi) sera dit un anneau unitaire.
Remarque 1.9. 1. Un anneau n’est jamais vide.
2. ({0}, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle est un anneau.
Cet anneau est appelé un anneau nul. Les autres anneaux seront dits unifères.
Exemple 1.5. 1. (Z, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle.
2. (R, +, ×) où + et × sont l’addition usuelle et la multiplication usuelle.
3. Soit E = { fonctions numériques définies sur R} (E, +, ×) où + et × sont les lois
usuelles : (f + g)(x) = f (x) + g(x) et (f × g)(x) = f (x) × g(x) pour tout réel x (f et g
étant deux éléments de E). On pourrait déterminer les éléments neutres pour chacune
des lois.....
Notations 2. Soit (A, +, ×) un anneau. On note généralement 0 ou 0A l’élément neutre de
(A, +) et 1 ou 1A l’élément neutre de (A, ×). On parlera d’opposé pour le symétrique d’un
élément pour la loi +. On note A∗ = A \ {0A }.
Exemple 1.6. Pour les matrices, on a dans (M3 (R), +, ×) :
   
1 0 0 0 0 0
1 = I3 =  0 1 0  et 0 =  0 0 0  .
0 0 1 0 0 0

Définition 1.23. Un anneau (A, +, ×) est dit commutatif si la loi × et commutative.


Exemple 1.7. 1. Les précédents exemples (Z, +, ×), (R, +, ×) et (E, +, ×) sont des an-
neaux commutatifs.
2. (M3 , +, ×) que nous verrons plus tard n’est pas non plus commutatif.
Définition 1.24. Soit (A, +, ×) un anneau. On dit qu’un élément x ∈ A est inversible si et
seulement si il admet un symétrique par rapport à la loi × ; c’est-à-dire : ∃x0 ∈ A tel que

x × x0 = x0 × x = 1.

On note u(A) l’ensemble des éléments inversibles de A (qui sont appelés aussi des unités).

14
Exemple 1.8. 1. u(Z) = {−1, 1} et u(Q) = Q∗
2. (E, +, ×) où E = { fonctions numériques définies sur R}. Alors,
u(E) = { fonctions numériques qui ne s’annulent pas sur R}.
Définition 1.25. On appelle corps tout anneau unitaire tel que tout élément non nul soit
inversible. C’est-à-dire,
si (A, +, ×) est un anneau unitaire, on a : A corps ⇔ (A∗ , ×) est un groupe.
Si de plus la loi × est commutative, on dit que le corps est commutatif.
Exemple 1.9. 1. (Z, +, ×) et (R[X], +, ×) ne sont pas des corps.
2. (R, +, ×) et (R(X), +, ×) sont des corps.
Exercice :
Soit A = L(R2 ) l’ensemble des applications linéaires de R2 dans R2 .On munit A des deux
lois de composition internes suivantes : (f, g) −→ f + g et (f, g) −→ f og telles que pour tout
x ∈ R2 (f + g)(x) = f (x) + g(x) et fog(x)=f(g(x)).
Montrer que (A, +, o) est un anneau. Est-il commutatif ?
Quel est l’élément neutre pour la loi o.

15
1.6 EXERCICES.
Exercice 1.
a. Soit les ensembles : E = {0, 3, 6} et F = {1, 2, 6}.
On définit la relation R de E vers F par : ∀x ∈ E et ∀y ∈ F , xRy ⇐⇒ x < y + 2.
On appelle graphe, et on le note G, d’une relation binaire R l’ensemble

G = {(x, y) ∈ E × F/xRy}.

Déterminer le graphe de R.
b. On donne ici l’ensemble E = {1, 2, 3, 4, 5, 6, 7, 8} et la relation R de E vers E définie
par ∀(x, y) ∈ E 2 , xRy ⇐⇒ x est un diviseur de y.
Déterminer le graphe de R.
R est une relation d’ordre ? d’équivalence ?

Exercice 2. A toute partie A d’un ensemble E, on assoucie la fonction χA , appelée fonction


caractéristique de A, définie de E vers {0, 1} par
½
∀x ∈ A, χA (x) = 1
∀x ∈ Ac , χA (x) = 0

Soit A et B deux sous-ensembles de E.


a. Montrer que A = B ⇐⇒ χA = χB .
b. Exprimer à l’aide des foctions χA et χB les fonctions χA∩B , χA∪B et χAc .
Exercice 3.
Soient A et B deux sous-ensembles d’un ensemble E.
1) Montrer que :
A ⊂ B ⇒ B ⊂ A.
A∩B =A∪B
2) Les sous-ensembles ou parties de E constituent un ensemble que l’on note P(E), Montrer
que
P(A ∩ B) ⊂ P(A).
Exercice 4.
On considère l’application :
f : R− −→ R
x2
x 7−→ 1+x2
.
Montrer que f est une bijection de R− sur un intervalle à préciser, et définir f −1 .
Exercice 5.
Soient E et F deux ensembles, f une application de E vers F , et A et B deux parties de E.
1) Montrer que : A ⊂ B ⇒ f (A) ⊂ f (B).
2) Comparer :
a) f (A ∪ B) et f (A) ∪ f (B).
b) f (A ∩ B) et f (A) ∩ f (B) si f est injective.
Exercice 6.
Soit E un ensemble non vide. On considère une application f de E dans R telle que :
(i) f (∅) = 0,
(ii) f (E) = 1,
(iii) f (A ∪ B) = f (A) + f (B) si A ∩ B = ∅, A et B étant deux parties quelconques de E.
1) Pour toute partie A de E, exprimer f (A) en fonction de f (A).

16
2) Démontrer que, pour toutes parties A et B de E, f (A ∪ B) = f (A) + f (B) − f (A ∩ B).
3) On suppose de plus que :
(iv) ∀A ⊂ E, f (A) ≥ 0.
En déduire que, si A et B sont deux parties de E, Alors :
(v) A ⊂ B ⇒ f (A) ≤ f (B).
(vi) 0 ≤ f (A) ≤ 1.
Exercice 7.
On définit dans R la loi de composition ∗ par :

∀(a, b) ∈ R2 , a ∗ b = 3ab + a + b.

1) Vérifier que ∗ est une loi interne sur R.


2) La loi ∗ est-elle commutative ? associative ?
Déterminer les éléments régulier de R pour ∗.
4) (R, ∗) est-il un groupe abélien ?
Sinon déterminer un ensemble E tel que (E, ∗) soit un groupe abélien.
Exercice 8.
Soit (G, .) un groupe multiplicatif non nécessairement commutatif. On appelle centre de G la
partie notée C définie par :

C = {x ∈ G/ ∀y ∈ G; xy = yx}.

1) Montrer que C est un sous-groupe de G.


2) Pour a ∈ G on pose :
fa : G −→ G
x 7−→ fa (x) = axa−1 .
Montrer que fa est un automorphisme de G.
3) Soit A = {fa ; a ∈ G}.
Montrer que fa ofb = fab et que (fa )−1 = fa−1 .
Que peut-on déduire pour (A, o) ?
4) Soit
ϕ: (G, .) −→ (A, o)
a 7−→ ϕ(a) = fa .
Montrer que ϕ est un morphisme de groupe et que Ker(ϕ) = C.

Exercice 9.
On sait que R2 muni de l’addition ((a, b) + (a0 , b0 ) = (a + a0 , b + b0 )) est un groupe commutatif.
On considère E = {(x, −x); x ∈ R}.
1) Montrer que (E, +) est un sous-groupe de (R2 , +).
2) Soit F = {(x, 1); x ∈ R}.
F est-il un sous-groupe de R2 ?

Exercice 10. Soit


f : (R2 , +) −→ (R, +)
(x, y) 7−→ f (x, y) = x − y.
1) Montrer que f est un morphisme de groupes.
2) Déterminer le noyau de f .

Exercice 11. Soit (A, +, ×) un anneau unitaire. On désigne par u(A) l’ensemble des éléments
de A inversiblespour la loi ×.
Montrer que (u(A), ×) est un groupe.

17
Exercice 12. Soit A une partie non vide d’un groupe G. Montrer que :

gp(A) = {aε11 .aε22 ...aεnn / n ∈ N∗ , ai ∈ A, εi ∈ {−1, 1}}.

18
Chapitre 2

LES POLYNÔMES

Historiquement, la recherche des solutions des équations polynomiales précède l’étude des
polynômes. Elle marque l’entrée des mathématiques dans une nouvelle ère. La formule de
résolution de l’équation du troisième degré x3 + px2 + q = 0 obtenue sans doute au début
du seizième siècle. La formule de résolution de l’équation du quatrième degré est obtenue
un demi siècle après. Cependant, l’équation du cinquième degré tient les mathématiciens en
echec pendant 200 ans ; ce n’ est qu’en 1826 qu’Abel démontre qu’il est impossible de donner
des formules explicites de types de celles données pour les degrés inférieurs pour les solutions
des équations de degré supérieur ou égal à 5. Quelques années plus tard, Galois donne un
critère de résolubilité par des radicaux de toutes les équations polynomiales. La théorie des
polynom̂es est née.

Dans ce chapitre, K est un corps (on pourra penser à R ou C).

2.1 Présentation des polynômes


2.1.1 Définitions et notations

Définition 2.1. Un polynôme à une indéterminée X est défini par la donnée de ses coeffi-
cients a0 , a1 , ..., an éléments de K. X étant une lettre muette, on note

P (X) = a0 + a1 X + ... + an X n
P k,
ou k≥0 ak X étant entendu que la somme ne comporte qu’un nombre fini de ak non nuls.
On peut faire jouer à X d’autres rôles que des valeurs de K. X peut être remplacé par
exemple par une matrice, ou un endomorphisme d’un espace vectoriel sur K, etc...
Notations 3. .
1) L’ensemble des polynômes à coefficients dans K est noté K[X].
2) Le polynôme dont tous les coefficients sont nuls est dit polynôme nul, il est noté 0.
Définition 2.2. Si P 6= 0, on appelle degré de P le maximum des entiers naturels k tels que
ak 6= 0. On note deg(P ) ou d0 P le degré du polynôme P .
Si P = 0, par convention, on pose deg(P ) = −∞.
Si P est de degré n, an X n est le terme (ou monôme) dominant. Si an = 1, le polynôme est
dit unitaire.
Exemple 2.1. Soit a ∈ R et fa (X) = (2 + a)X 3 − 5X 2 + X + 3. Pour tout a 6= −2, fa est
de degré 3. Pour a = −2, f−2 est de degré 2.

19
Nous indiquons maintenant comment calculer les coefficients de la somme et du produit
de deux polynômes.

2.1.2 Opérations sur les polynômes :


On peut définir sur K[X]
a) Une P somme P P
Si P = k≥0 ak X k et Q = k≥0 bk X k , alors P + Q = k≥0 (ak + bk )X k
On peut vérifier facilement que (K[X], +) est un groupe commutatif.
b) Un produit
P interne P P P
Si P = k≥0 ak X k Q = k≥0 bk X k , alors P Q = k≥0 ki=0 ai bk−i X k .
c) Produit
P par un kscalaire (produit extrene) P
Si P = k≥0 ak X et λ ∈ K alors λP = k≥0 λak X k .
On vérifier facilement que (K[X], +, .) est un K−espace vectoriel, dont une base est constituée
des polynômes (1, X, , X 2 , ..., X n , ...).
d) Egalité formelle de 2 polynômes.
Soit P = a0 + a1 X + ... + an X n et Q = b0 + b1 X + ... + bm X m deux polynômes sur K[X].
Alors
P = Q ⇔ m = n et ai = bi pour tout i ∈ {1, ...., n}
Proposition 2.3. Pour tous polynômes P et Q de K[X], on a :

deg(P + Q) ≤ sup(deg(P ), deg(Q)). (2.1.1)

deg(P.Q) = deg(P ) + deg(Q). (2.1.2)


Preuve.
La relation (2.1.1)
P est évidente P
si P = 0 ou Q = 0.
Soient P = nk=0 ak X k et Q = m k
k=0 bk X avec m, n ≥ 1.
Si m 6= n alors
deg(P + Q) = sup(deg(P ), deg(Q)).
Si m = n alors
deg(P + Q) ≤ sup(deg(P ), deg(Q)).
Donc
deg(P + Q) ≤ sup(deg(P ), deg(Q)).
La relation (2.1.2) est évidente si P = 0Pou Q = 0. SupposonsPque P et Q sont non nuls et
soit n = d0 P et m = d0 Q. On a P.Q = m+n c
k=0 k X k avec c =
k
k
i=0 ai bk−i .
Pour k > m + n on a : i > n ou k − i > m, donc ai bk−i = 0.
Donc pour tout k > m + n on a : ck = 0. De plus cm+n = an × bm 6= 0.
D’où
deg(P.Q) = n + m = d0 P + d0 Q.

P P
Définition 2.4. Soient P = nk=0 ak X k et Q = m0 k
k=0 bk X deux polynômes. On appelle
composée de P et Q noté P oQ (ou P(Q)) le polynôme
n
X
P oQ = ak Qk = a0 + a1 Q + ... + an Qn
k=0

Remarque 2.1. En général P oQ 6= QoP.

20
Proposition 2.5. Soient P , Q et R dans K[X]. Alors
(P + Q)oR = P oR + QoR
Preuve. P P
Soit P = nk=0 , Q = m k
k=0 bk X et R dans K[X].
On a
m∨n
X
P +Q= (ak + bk )X k
k=0
Par suite
m∨n
X n
X m
X
k k
(P + Q)oR = (ak + bk )R = ak R + bk Rk = P oR + QoR.
k=0 k=0 k=0

Remarque 2.2. Attention ! En général, P o(Q + R) 6= P oQ + P oR.


Par exemple : on prend P = 1 + X 2 , Q = X 2 et R = X.

2.2 Division Euclidienne


Théorème 2.6. Soit A, B dans K[X] deux polynômes avec B 6= 0. Alors il existe un couple
unique (Q, R) d’éléments de K[X] tel que :
A = B.Q + R avec deg(R) < deg(B).
Q est le quotient de la division euclidiènne (en abrégé D. E.) .
R est le reste de la D.E. (de A par B).
Lorsque le reste est nul on dit que B divise A.
On notera l’analogie dans l’énoncé avec la division euclidienne dans Z. Les démonstrations,
en ce qui concerne l’unicité, sont également analogues.
Preuve.
Montrons l’unicité :
Si A = BQ + R = BQ0 + R0 avec d0 R < d0 B et d0 R0 < d0 B, on a B(Q − Q0 ) = R0 − R,
avec d0 (B(Q − Q0 )) = d0 B + d0 (Q − Q0 ). Puisque d0 (R − R0 ) ≤ M ax(d0 R, d0 R0 ) < d0 B. On
déduit que deg(Q − Q0 ) = deg(R0 − R) − deg(B) < 0. Par conséquent Q − Q0 = 0 et par suite
R − R0 = 0.
Montrons l’existence :
Nous allons faire une démonstration par récurrence sur le degré de A. On montre la propriété
suivante : pour tout polynôme A de degré ≤ n il existe un couple (Q, R) tel que A = BQ + R
et deg(R) < deg(B).
La propriété est vraie pour n = 0 :

 0.B + 0 si A = 0;
A= 0.B + A si A = λ ∈ K∗ et deg(B) ≥ 1;
 a
b .B + 0 si A = a ∈ K∗ et B = b ∈ K∗ .
(H.R) supposons que pour tout A dans K[X] , d0 A ≤ n la propriété est vérifiée.
Soit A ∈ K[X], d0 A = n + 1 de la forme A = a0 + a1 X + ... + an+1 X n+1 , an+1 6= 0. Soit
B = b0 + b1 X + ... + bp X p .
Posons Q1 = an+1
bp X
n+1−p .

Alors
bp−1 an+1 n
A − BQ1 = 0.X n+1 + (an − )X + ....
bp

21
Donc deg(A − BQ1 ) ≤ n. D’après (H.R) il exsite (Q2 , R2 ) ∈ K[X]2 tel que

A − BQ1 = BQ2 + R2 avec deg(R2 ) < deg(B).

Donc
A = B(Q1 + Q2 ) + R2 avec deg(R2 ) < deg(B).
On prend Q = Q1 + Q2 et R = R2 .
Exemple 2.2. 1) Effectiuons la division euclidienne de A = 2X 4 + 5X 3 − X 2 + 2X +
1, par B = 2X 2 − 3X + 1. On trouve Q = X 2 + 4X + 5 et R = 13X − 4.
2) Pour A = X 4 − 2X 2 − X + 1 et B = X 2 + X. Après calculs, on trouve Q = X 2 − X − 1
et R = 1.

Remarque 2.3. Nous verrons au paragraphe sur les racines que le reste de la division eu-
clidienne du polynôme A par X − λ est le polynôme constant R = A(λ).

2.2.1 Arithmétiques sur les polynômes


Définition 2.7. Soit A, B ∈ K[X], on dit que B divise A qu’on note par B/A si :

∃Q ∈ K[X]; A = B.Q.

Exemple 2.3. 1. X 2 − 1 = (X − 1)(X + 1), donc (X − 1) et (X + 1) divisent X 2 − 1, dans


R[X]
2. X 2 + 1 = (X − i)(X + i), donc (X − i) et (X + i) divisent X 2 + 1 dans C[X].

Remarque 2.4. Si P.Q = 1, donc degP + degQ = 0. Par suite do P = do Q = 0. D’où


P, Q ∈ K∗ .
Théorème 2.8. Soient A1 , ... ,An , n polynômes non tous nuls de K[X]. Alors il existe un
polynôme
D ∈ K[X] tel que :
i) D divise chaque polynôme Ai , i ∈ {1, ..., n}.
ii) Tout diviseur commun aux Ai divise D.
D est appelé plus grand commun diviseur des polynôme A1 ,...,An . En abrégé pgcd et sera
noté : D = A1 ∧ A2 ∧ ... ∧ An .

Preuve.
Considérons l’ensemble :
n
X
E = {P = Pi Ai /Pi ∈ K[X]}.
i=1
Et posons
FE = {d0 P / P ∈ E \ {0}}.
Alors FE ⊆ N et FE 6= ∅. Donc FEPadmet un plus petit élément p. On choisit un polynôme
D ∈ E tel que d0 D = p. On a D = ni=1 Pi Ai , ∀R ∈ E \ {0}, d0 R ≥ d0 D.
Montrons maintenant que D vérifie i) et ii).
Montrons ii). Soit D0 ∈ K[X] tel que D0 soit diviseur commun des Ai , i = 1, ...., n. On a
Ai = Qi .D0 avec Qi ∈ K[X], i = 1, ...., n. On a aussi, puisque D ∈ E,
n
X n
X
D= Pj Aj = ( P jQj )D0 .
j=1 j=1

22
Par conséquent, D0 divise D.
IL reste à montrer i). La division euclidienne de Ai par D , 1 ≤ i ≤ n, implique

Ai = D.Qi + Ri , avec d0 Ri < d0 D.

si Ri 6= 0, on aura :
P
Ri = Ai − DQi = Ai − ( nj=1 Pj Aj )Qi
Pn
= Ai − Pi Ai Qi − j=1,j6=i Pj Aj Qi
P
= (1 − Pi Qi )Ai − ( nj=1,j6=i Pj Aj Qi ).

Ri peut s’écrire :
n
X
Ri = Pj0 Aj
j=1

avec Pi0= 1 − Pi Qi et Pj0


= Pj Qi pour j 6= i. Donc Ri ∈ E. Par définition de D, on a
0 0
d Ri ≥ d D. Ce qui est absurde. Donc Ri = 0, ∀i = 1, ...., n, et par conséquent D divise tous
les Ai , i = 1, ...., n.
Remarque 2.5. Deux polynômes unitaires P et Q chacun divisant l’autre sont égaux. En
effet : il existe D, D0 ∈ K[X] tels que P = DQ et Q = D0 P . Ceci implique DD’=1. Par suite
D, D0 ∈ K∗ . De plus pn = Dqn ce qui entraire D = 1 de même D0 = 1.
Conséquence : D’après cette remarque il existe un seul polynôme unitaire D qui vérifie le
théorème 2.8.
Définition 2.9. On dit que les polynômes A1 , ...., An sont premiers entre eux dans leur
ensemble si leur pgcd est une constante non nulle, autrement dit : s’ils n’ont pas de diviseur
commun de degré > 0. Ils sont dits premiers entre eux deux à deux si ∀i 6= j, pgcd(Ai , Aj ) = 1.

Théorème 2.10. (Bezout). Des polynômes A1 , ..., An ∈ K[X] sont premiers entre eux dans
leur ensemble si et seulement s’il existe U1 , ..., Un ∈ K[X] tels que

U1 A1 + ... + Un An = 1

Preuve. ⇒) La condition est nécessaire : si D = A1 ∧ A1 ∧ A2 ∧ ..... ∧ An est le pgcd de


A1 , ..., An . D’après la preuve du Théorème précédent il existe n polynômes P1 , ..., Pn tels que
n
X
D= Pi Ai (2.2.3)
i=1

Les polynômes A1 , ..., An sont premiers entre eux. Par suite, D est une constante non nulle.
n
X Pi
(2.2.3) =⇒ 1 = Ai .
D
i=1

D’où
n
X Pi
1= Ui Ai , avec Ui = .
D
i=1
Pn
⇐) La condition
P est suffisante : si i=1 Ui Ai = 1. Alors tout polynôme D qui divise A1 , ..., An
divise aussi ni=1 Ui Ai = 1. Donc D est une constante non nulle. D’où A1 , ..., An sont pre-
miers entre eux.

23
Théorème 2.11. (Gauss). Soient A, B et C trois polynômes. Si C est premier avec B et
divise AB, alors C divise A.

Preuve.
C divise AB ⇒ ∃Q ∈ K[X] tel que AB = QC (*)
C ∧ B = 1 ⇒ ∃U, V ∈ K[X] tels que U B + V C = 1 (**).
Multiplions (**) par A, on obtient :

U AB + V AC = A.

D’après (*), on peut remplacer AB par QC :

(U Q + V A)C = A.

D’où C divise A.
Théorème 2.12. Soient A, B, C ∈ K[X]. Si A et B sont premiers entre eux et divisent C,
alors C est un multiple de AB, autrement dit : AB divise C.
Preuve.
Il existe des polynômes P, Q, U, V ∈ K[X] tels que

C = P A = QB et U A + V B = 1.

On en déduit :
U AC + V BC = C
Donc
U AQB + V BP A = AB(U Q + V P ) = C.
Par conséquent, AB divise C.
Théorème 2.13. Si A est premier avec B et C, il est premier avec le produit BC.

Preuve.
Il existe U, V, U 0 , V 0 ∈ K[X] tels que U A + V B = 1 et U 0 A + V 0 C = 1. Par multiplication, on
obtient :
(U U 0 A + U V 0 C + V U 0 B)A + (V V 0 )BC = 1.
Donc A et BC sont premiers entre eux.

2.2.2 Algorithme d’Euclide.


Proposition 2.14. (Théorème d’Euclide ) Soient A et B deux polynômes dans K[X], tels
que d0 B < d0 A. Soit R le reste de la division euclidienne de A par B. Alors

A ∧ B = B ∧ R.

Preuve.
Soit (Q, R) le quotient et le reste de la division euclidienne de A par B. On a

(∗) A = B.Q + R avec d0 B < d0 R.

Soit ∆ = B ∧ R. Nous allons montrer que ∆ = A ∧ B ; c’est à dire que : ∆ vérifie i) et ii)
du théorème 2.8 .

24
i) ∆ divise t-il A et B ?
On a ∆ divise B et R, donc ∃Q1 , Q2 ∈ K[X] tels que :

B = Q1 .∆ et R = Q2 .∆.

Remplaçons dans (*) : A = (Q1 Q + Q2 )∆. Donc ∆ divise A.


ii) Soit D un diviseur commun de A et B : ∃P1 , P2 ∈ K[X] tels que :

A = P1 D et B = P2 D

Remplaçons dans (*) :


R = P1 D − P2 DQ = (P1 − P2 Q)D.
Par suite D divise R.
Finalement, D divise B et R. Or ∆ = B ∧ R.
Donc D divise ∆.
Algorithme d’Euclide
Soient A et B deux polynômes de K[X] tels que d0 B < d0 A. Soit R1 le reste de la division
euclidienne de A par B.
A = BQ + R1 , d0 R1 < d0 B.
Si R1 = 0 ⇒ A = BQ ⇒ B/A, donc A ∧ B = B.
Si R1 =
6 0, d’après la Proposition (2.14) , on a
½
A ∧ B = B ∧ R1
d0 R1 < d0 B.

On recommence et on considère R2 le reste de la division euclidienne de B par R1 .

Si R2 = 0 ⇒ B = R1 Q ⇒ R1 /B, donc B ∧ R1 = R1 .
Si R2 6= 0, Toujours d’après la Proposition (2.14), on a :
½
A ∧ B = B ∧ R1 = R1 ∧ R2
d0 R2 < d0 R1 < d0 B.

On construit ainsi une suite de polynômes (Rk )k≥0 vérifiant :




 R0 = B

 R1 : est le reste de la D.E. de A par B




 .
.



 .



 R : est le reste de la D.E. de Rk−2 par Rk−1
 k0
(d Rk )k≥0 est une suite strictement décroissante.

Comme la suite des degrés des restes est strictement décroissante, il existe un entier n tel
que Rn = 0. Alors A ∧ B = Rn−1 (où Rn−1 est le dernier reste non nul).
Exemple 2.4. Le pgcd des deux polynômes A = X 5 − 3X 4 + 5X 3 − 4X 2 + 7X − 4 et
B = X 5 − 3X 4 + 4X 3 − X 2 + 3X − 4 est le polynôme R2 = −X 2 + 3X − 4.

25
2.3 Fonction polynôme
Pn k
Définition 2.15. Pour tout polynôme P = k=0 ak X dans K[X] : on note

P̃ : K→K
P
x → P̃ (x) = nk=0 ak xk .

On dit que P̃ est la fonction polynôme associée au polynôme P .

Remarque 2.6. On distingue parfois le polynôme P (qui, par construction, est nul si et
seulement si tous ses coefficients sont nul(*) ) de la fonction polynomiale associée (celle-ci
est nulle si et seulement si : ∀x ∈ K, P (x) = 0 (**)).
On a bien évidemment l’implication :

P (X) = 0 ⇒ ∀x ∈ K : P̃ (x) = 0.

Mais la réciproque est loin d’être évidente. Il suffit de se placer sur le corps Z/2Z et de
considérer le polynôme P (X) = X 2 + X. Celle-ci est non nul en tant que polynôme formel,
mais la fonction polynomiale associée est nulle de K dans K. Cependant, nous pouvons
prouver que dans notre cas (K = R ou C), il y a équivalence. Dans la suite on convient de
noter P (x) la valeur de la fonction polynomiale P̃ (x) associée à P au point x ∈ K, au lieu
de P̃ (x).

2.3.1 Polynôme dérivé


Définition 2.16. Soit P ∈ K[X], P : x → an xn + ... + a1 x + a0 . Le polynôme dérivé de P ,
noté P 0 est défini par
P 0 : x → nan xn−1 + ... + 2a2 x + a1 .
Remarque 2.7. Lorsque K = R, le polynôme dérivé correspond à la dérivée usuelle de la
fonction polynomiale P .
Puisque P 0 est encore un polynôme, on peut itérer cette opération de dérivation et définir
successivement P 00 , puis P (3) ,... comme le degré diminue de 1 à chaque étape, cette itération
finira par donner le polynôme constant P (n) = n!an . Pour k > n, P k = 0 (polynôme nul).
Le résultat suivant établit un lien intéressant entre les valeurs en 0 des polynômes dérivés
successifs et les coefficients de P .
Théorème 2.17. Soit P : x → an xn + ... + a0 un polynôme de degré n. Pour tout k ∈
{0, ..., n},
P (k) (0)
ak =
k!
Preuve.
Pour k = 0, c’est évident.
Stop ! Avez-vous fait la démonstration vous-même avant de lire ci-dessous ?
Le cours n’est jamais qu’une suite d’exercices corrigés et commentés ! ! ! Ceci
est valable pour TOUS les cours de mathématiques.
Pour k ≥ 1, P (k) (0) est le terme constant de P (k) . Comme chaque dérivation abaisse le degré
de 1, ce terme constant résulte de k dérivations successives de ak xk . Il vaut donc k!ak d’où
le résultat.

26
2.3.2 Formule de Taylor pour les polynômes
Soit P un polynôme de degré n. Le Théorème 2.17 prouve l’identité suivante :
P (k) (0) k P (n) (0) n
P (x) = a0 + ... + ak xk + ... + an xn = P (0) + ... + x + ... + x .
k! n!
Le théorème suivant montre qu’elle est valable en tout point, et pas seulement en 0.
Théorème 2.18. Soit P un polynôme de degré n et soit α ∈ K. Alors, pour tout x ∈ K,
P (n) (α)
P (x) = P (α) + P 0 (α)(x − α) + ... + (x − α)n .
n!
Preuve. Nous allons utiliser le fait que nous connaissons déjà la validité de la formule pour
α = 0. Posons Q(t) = P (t + α). Q est encore un polynôme, du même degré que P , on peut
donc écrire, pour tout t ∈ K,
Q(n) (0) n
Q(t) = Q(0) + Q0 (0)t + ... + t .
n!
Admettons pour l’instant que, pour tout t ∈ K, Q(k) (t) = P k (t + α). On a alors, pour tout
t∈K
P (n) (α) n
P (t + α) = P (α) + P 0 (α)x + ... + t .
n!
Il reste donc à prouver que, pour tout k, Q(k) (t) = P k (t + α).
Pour k = 0, la formule à prouver devient Q(t) = P (t + α), qui est la définition même de Q.
Posons g(t) = t + α. On a Q = P og. Supposons que la formule est vraie au rang k. on a
donc : Q(k) (t) = P k (t + α), ou en d’autres termes Q(k) (t) = P k og). Dérivons cette égalité en
appliquant la formule de dérivation des fonctions composées :
0 0 0
(Q(k) ) = [(P k ) og] × g .
Comme g 0 = 1, on en déduit

Q(k+1) = P (k+1) og.


La propriété est donc vraie pour k + 1. Ceci termine la récurrence.

2.4 Zéros d’un polynôme


Une des questions les plus importantes dans l’étude des polynômes est le calcul de leurs
racines. Bien qu’il y ait peu de méthodes générales pour leur calcul effectif (on en décrira
quelques unes en fin de paragraphe), il y a en revanche de nombreux résultats théoriques.
Définition 2.19. Soit P ∈ K[X]. On dit que α ∈ K est racine de P si P (α) = 0.

Le fait qu’un nombre α soit racine d’un polynôme peut s’exprimer en termes fonctionnels
comme dans la définition ci-dessus, mais également en termes de divisibilité, grâce au critère
donné par le théorème suivant.
Théorème 2.20. Soit P ∈ K[X] et α ∈ K. Alors,
1) α est racine de P si et seulement si P est divisible par X − α.
2) Soit n ∈ N∗ et α1 , α2 , ..., αn ∈ K deux à deux distincts. Si α1 , α2 , ..., αn sont des zéros de
P , alors :
Yn
(X − αi )/P.
i=1

27
Preuve.
1) Si P est divisible par X − α, on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X], tel
que
P (x) = (x − α)Q(x).
Par suite :
P (α) = 0.
Réciproquement, soit α une racine de P . Faisons la division euclidienne de P par X − α.
Le reste R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a
donc P (x) = (x − α)Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0
puisque P (α) = 0 : P est donc bien divisible par X − α.
2) On a d’une part, pour tout i ∈ {1, ..., n} αi est zéro de P , donc (X − αi )/P .
D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − αi ) ∧ (X − αj ) = 1.
Le théorème 2.12 entraı̂ne :
n
Y
(X − αi )/P.
i=1

Ce théorème explique pourquoi le calcul des racines d’un polynôme joue un rôle important
dans la factorisation des polynômes. Cependant, avant d’énoncer le théorème de factorisation,
nous devons introduire le concept de racine multiple.

2.4.1 Multiplicité d’une racine


Quand le discriminant d’un trinôme du second degré est nul, on dit que cette équation
admet une racine double. Ce qui pouvait dans ce contexte apparaı̂tre comme une convention
de vocabulaire un peu arbitraire est en fait le cas particulier d’une situation générale que
nous décrivons dans ce chapitre.

Définition 2.21. Soit P ∈ K[X] et α ∈ K. On dit que α est racine de multiplicité k de P si


(X − α)k divise P et si (X − α)k+1 ne divise pas P .

Si k = 2 ou 3, on dit aussi : racine double ou racine triple. Si k = 1, on parle de racine


simple.

Exemple 2.5. Le polynôme (X − 3)2 (X − 5)4 admet α = 3 comme racine double et α = 5


comme racine de multiplicité 4.

Nous avons vu au paragraphe précédent qu’il y avait sur la notion de racine deux points
de vue possibles : un point de vue fonctionnel et un point de vue de divisibilité (on parle,
pour le second, d’un point de vue arithmétique). Cette dualité de points de vue se retrouve
pour l’étude des racines multiples.

Théorème 2.22. Soit P ∈ K[X] et α K. Alors α est racine de multiplicité k de P si et


seulement si P (α) = P 0 (α) = = P (k−1) (α) = 0, et P (k) (α) 6= 0.

Preuve.
Supposons que α est racine de multiplicité k avec k ≥ 1. On peut écrire, pour tout x ∈ K :
P (x) = (x − α)k Q(x) avec Q(α) 6= 0. On vérifie alors par récurrence sur l ∈ {1, ..., k} que
P (l) (x) = (x − α)k−l Ql (x)

28
avec Ql (α) 6= 0.
Il en résulte que, tant que k − l ≥ 1, c’est-à-dire l ≤ k − 1, P (l) (α) = 0, et que pour l = k,
P k (α) = Qk (α) 6= 0.

Réciproquement, faisons l’hypothèse sur les dérivées successives et montrons que α est
racine de multiplicité k de P . On écrit la formule de Taylor à l’ordre n = deg(P ) en α. On a
(k−1)
P (x) = P (α) + (x − α)P 0 (α) + ... + (x − α)k−1 P (k−1)!(α) +
P (k) (α) (n) (α)
(x − α)k ∗ k! ... + (x − α)n P n! .
Tous les coefficients de la première ligne sont nuls à cause de l’hypothèse. On peut donc
écrire :
P (x) = (X − α)k Q(x),
(k)
avec Q(α) = P k!(α) 6= 0. Ceci prouve que P est divisible par (X − α)k mais pas (X − α)k+1 ,
d’où la conclusion.
Exercice. Déterminer a et b pour que le polynôme P (x) = x5 + ax4 + bx3 − bx2 − ax − 1
admette 1 comme racine de plus grande multiplicité possible.

2.5 Polynômes irréductibles


Définition 2.23. Un polynôme P ∈ K[X] est irréductible sur K s’il n’est pas constant et si :
∀Q, R ∈ K[X], P = Q.R ⇒ d0 Q = 0 ou d0 R = 0.
Autrement dit, un polynôme P est irréductible sur K si et seulement si
1- degP ≥ 1.
2- Les seuls diviseurs de P dans K[X] sont les constantes et λP avec λ ∈ K.

Exemple 2.6. .
1) Tout polynôme de premeir degré est irréductible. Par exemple P = X + 2 est irréductible
dans K[X] ( K = R ou C )
2) Le polynôme P = X 2 + 1 est irréductible dans R.
3) Le polynôme P = X 2 + 1 n’est pas irréductible dans C.

Proposition 2.24. Soit P ∈ K[X] irréductible, A ∈ K[X] \ {0}. Alors


P/A ou P ∧ A = 1.
Preuve.
Soit D = P ∧ A. Puisque D/P et P est irréductible, alors D = 1 ou D = P (à une constante
multiplicative près) . D’où
P ∧ A = 1 ou P = D/A.

Proposition 2.25. Soient P ∈ K[X] irréductible, n ∈ N∗ , A1 , ..., An ∈ K[X] \ {0}. Alors :


n
Y
(P/ Ai ) ⇔ (∃i ∈ {1, ..., n}, P/Ai ).
i=1

Preuve. ⇐) Evidente.
⇒) Si P ne divise aucun des Ai , 1 ≤ i ≤ n. Alors, il est premier avec chaque Ai (d’après la
proposition 2.24. Donc premier avec le produit A1 ...An , d’après le Théorème 2.13.

29
2.6 Décomposition des polynômes en facteurs irréductibles
Les théorèmes suivants donnent la forme de la décomposition d’un polynôme P en facteurs
irréductibles selon que P est à coefficients dans R ou dans C .

2.6.1 Factorisation des polynômes dans C[X]


Nous commençons par rappeler le théorème de d’Alembert (que nous admettons) :
Théorème 2.26. (Théorème de d’Alembert) Si P ∈ C[X] est de degré n ≥ 1, P possède n ra-
cines (comptées éventuellement avec leur multiplicité). On dit que C est un corps algèbriquement
clos.

On déduit de ce théorème le résultat suivant :


Théorème 2.27. Sur C, les polynômes irréductibles sont les polynômes de degré 1.
Tout polynôme à coefficients dans C se décompose comme produit de polynômes irréductibles.

Preuve. On sait déjà que les polynômes de degré 1 sont irréductibles. Il reste à prouver
que les polynômes irréductibles sont de degré 1. On va montrer que les polynômes de degré
supérieur ou égal à 2 ne sont pas iréductibles.
Soit P ∈ C[X], d0 P ≥ 2. D’après le théorème de d’Alembert, P possède au moins une racine.
Donc P n’est pas irréductible.
Conséquence : Tout polynôme P de degré n ≥ 1 de C[X] se factorise donc de manière unique
comme produit d’une contante et de polynômes du premier degré normalisés, autrement dit,
P peut s’crire sous la forme :
p
Y
P = an . (X − xi )λi .
i=1

où ;
- an est le coefficient dominant de P .
- x1 , x2 , ...., xp sont les racines distinctes de P dans C.
- λi pour i ∈ {1, 2, ..., p} est l’ordre de multiplicité de la racine xi .
- λ1 + λ2 + ... + λp = n.

Exemples.

1. P = X 4 − 2X 2 Q
+ 1 = (X 2 − 1)2 = (X − 1)2 (X + 1)2 .
2. P = X − 1 = n−1
n
i=1 (X − ωi ) où les ωi sont les racines n−ième de l’unité.

2.6.2 Factorisation des polynômes dans R[X]


Remarquons que si P ∈ R[X] et α ∈ C une racine d’ordre k de P , alors ᾱ est aussi
racine d’ordre k de P . En effet,
¯
P (x) = (x − α)k Q(x) = (x − ᾱ)k Q(x).

Les racines de P dans C sont donc :

β1 , ..., βk : des racines réelles.

30
¾
α1 , ..., αl
complexes deux à deux conjuguées (distinctes ou multiples).
α¯1 , ..., ᾱl
Donc
P (x) = λ(x − β1 )...(x − βk )....(x − α1 )(x − α¯1 )...(x − αl )(x − ᾱl ).
avec k + 2l = d0 P .
Le polynôme
(x − αi )(x − ᾱi ) = x2 − 2(Reαi )x + |αi |2 ∈ R[X],
Ceci montre que tout polynôme P ∈ R[X] est produit de polynômes à coefficients réels de
degrés 1 ou 2, et en outre ceux de degré 2 ont un discriminant strictement négatif (sinon leurs
racines seraient réelles). Il en résulte que ces polynômes sont les seuls à être irréductibles, et
que tout polynôme de R[X] est produit de polynômes irréductibles.
On a donc le théorème :
Théorème 2.28. Les polynômes irréductibles R[X] sont
- Les polynômes de degré 1.
-Les polynômes de degré 2 de discriminant strictement négatif.

Corollaire 2.29. Si P ∈ R[X] tel que degP = n ≥ 1, alors la décomposition de P en facteurs


irréductibles sur R est de la forme :

P = an .(X − x1 )λ1 .(X − x2 )λ2 ...(X − xl )λl .(X 2 + p1 X + q1 )µ1 ...(X 2 + ps X + qs )µs .

où ;
- an est le coefficient dominant de P ,
- x1 , x2 , ...., xl sont les racines distinctes de P dans R,
- λi pour i ∈ {1, 2, ..., l} est l’ordre de multiplicité de la racine xi ,
- pi , qi , (i=1, 2,...,s) sont des nombres réels tels que ∆i = p2i − 4qi < 0,
- λ1 + λ2 + ... + λl + 2(µ1 + µ2 + ... + µs ) = n.

Remarque 2.8. Pour décomposer un polynôme en facteurs irréductibles sur R, il suffit donc
de le décomposer sur C (en calculant ses racines (du moins lorsque c’est possible) et de re-
grouper les racines complexes avec leurs conjuguées.

Exemples.

La décomposition de P en facteurs irréductibles de :


- P = X 4 − 2X 2 + 1 est P = (X − 1)2 (X + 1)2 ,
- P = X 4 + 2X 2 + 1 est P = (X 2 + 1)2 ,
- P = X 4 + 2X 3 + X 2 − 1 = (X 2 + X − 1)(X 2 + X + 1), d’où :
√ √ √ √
1− 5 1+ 5 1−i 3 1−i 3
P = (X − )(X − )(X − )(X − ).
2 2 2 2
En regroupant les racines complexes avec leurs conjuguées, on obtient
√ √
1− 5 1+ 5 2
p = (X − )(X − (X + X + 1)
2 2

31
2.6.3 Annexe : Recherche des racines, quelques résultats et méthodes
Nous savons déjà résoudre les équations de degré 2, à coefficients réels ou complexes. Bien
que des formules existent aussi pour les équations de degré 3 (formules de Cardan) et 4 (for-
mules de Ferrari), ces formules sont assez difficiles à utiliser, et en pratique ne servent jamais.
Au delà, on a pu démontrer qu’il n’existe aucune formule générale permettant de résoudre
les équations de degré 5 et plus. Il existe néanmoins quelques types d’équations que l’on peut
résoudre explicitement. Figurent parmi ceux-ci les équations bicarrées, tricarrées et certaines
équations appelées réciproques.

– On appelle équation bicarrée une équation de la forme aX 4 + bx2 + c = 0. On la


résoud en posant x = X 2 , en résolvant l’équation du second degré en x et en calculant
les racines carrées des solutions x1 et x2 .
– De manière analogue, une équation tricarrée a pour forme aX 6 + bX 3 + c = 0. Cette
fois on pose x = X 3 , on résoud l’équation du second degré en x et on calcule les racines
cubiques des solutions x1 , x2 et x3 .
Remarque 2.9. On terminera ce paragraphe en signalant que parfois, une information
supplémentaire sur les racines permet de simplifier leur calcul (ou parfois même de le rendre
possible).
Par exemple, si l’on sait que le polynôme X 4 +5X 3 −9X 2 −81X−108 possède une racine triple,
on cherche un nombre x tel que P (x) = P 00 (x) = 0. Comme P 00 est de degré 2, on calcule
facilement ses racines et on trouve x1 = −3 et x2 = 1/2. On vérifie que P (−3) = P 0 (−3) = 0.
La racine triple cherchée est donc −3 et il n’y a plus qu’une racine x4 à chercher pour facto-
riser P .
En utilisant le produit des racines, on trouve (−3)3 x4 = −108, d’où il résulte que x4 = 4.
Finalement P (X) = (X + 3)3 (X − 4).

32
2.7 EXERCICES.
Exercice 1.
Soient P , Q, et R trois polynomes dans K[X].
Montrer que
(P + Q)oR = P oR + QoR.
Et que en général
P o(Q + R) 6= P oQ + P oR.
Exercice 2.
Effectuer la division euclidienne de A par B dans les cas suivants :
a) A = X 8 − 1, B = X 3 − 1.
b) A = X + 4X − X 2 + 1,
6 4 B = X 2 + 1.
9
c) X − 1, 4
B = X − 1.
d) A = X − 3X 2 + X − 1,
3 B = X 2 − X − 2.
3 2
e) A = X − iX + X + 12, B = X 2 − iX + 1.
Exercice 3.
On donne K = C, A = X 4 + aX 2 + bX + c, B = X 2 + X + 1. Trouver des conditions sur a,
b, c pour que B divise A.
Exercice 4.
Soient a et b deux nombres complexes distincts, et soit P (X) un polynôme. Calculer en
fonction de P (a) et de P (b) le reste de la division euclidienne de P (X) par (X − a)(X − b).
Exercice 5.
Soit la suite de polynômes définies par : P0 = 1 , P1 = X et pour tout n ≥ 0 , Pn+2 =
XPn+1 − Pn .
1) Montrer que ∀n ∈ N :
2
Pn+1 − Pn Pn+2 = 1

2) Montrer que Pn et Pn+1 sot premiers entre eux.

Exercice 6.
Trouver le p.g.c.d des deux polynômes :

A = 2X 5 − 4X 4 − 3X 3 + 6X 2 + X − 2 et B = X 3 − 3X 2 + 3X − 2.

Exercice 7.
Soit m et p des entiers tels que m ≥ p > 0. En effectuant la division euclidienne de X m − am
par X p − ap , trouver une condition nécessaire et suffisante pour que X p − ap divise X m − am .

Exercice 8.
Soient A, B, et C trois polynômes tels que A ∧ B = B ∧ C = A ∧ C = 1.
Montrer que
ABC ∧ (AB + BC + AC) = 1.

Exercice 9.
Soit P un polynôme. Montrer que si P (X n ) est divisible par X − 1, il est aussi divisible par
X n − 1.
Exercice 10.
a) Soient a, p, q trois nombres complexes. Ecrire les conditions pour que a soit racine double

33
de polynôme X 3 + pX + q.
b) Quelle condition nécessaire et suffisante doivent satisfaire p et q pour que le polynôme
X 3 + pX + q ait une racine (au moins) double ?

Exercice 11. (Polynômes d’interpolation de Lagrange).


Soient a, b, c trois nombres réels distincts.
a) Chercher un polynôme P1 de degré inférieur ou égal à 2, tel que P1 (a) = 1, P1 (b) = 0,
P1 (c) = 0.
Est-il unique ?
b) Chercher des polynômes P2 et P3 de degré inférieur ou égal à 2, tels que P2 (a) = 0,
P2 (b) = 1, P2 (c) = 0 et P3 (a) = 0, P3 (b) = 0, P3 (c) = 1 .
c) Soient α, β, γ , trois nombres réels quelconques. Chercher un polynôme Q de degré inférieur
ou égal à 2, tel que Q(a) = α, Q(b) = β, Q(c) = γ.
(Indication : chercher Q comme combinaison des polynômes P1 , P2 , P3 ).
Le polynôme Q est-il unique ?
Exercice 12. Soit Q(X) le polynm̂es de R[X] donné par :

Q(X) = X 5 − X 4 − 2X 3 + 2X 2 + X − 1.
0 00
1) Calculer les dérivées Q (X), Q (X), Q3 (X), et Q4 (X).
2) Monter que 1 est un zéro d’ordre trois de Q(X).
3) En déduire la décomposition en facteurs irréductibles de Q(X) dans R[X].
Exercice 13.
Quelle est la multiplicité des racines 1,-1 et 2 du polynôme :

P = X 9 − 2X 8 − 4X 7 + 8X 6 + 6X 5 − 12X 4 − X 3 + 8X 2 + X − 2.

Exercice 14.
1) Montrer que si le polynôme P = X 4 − X 3 + X 2 + 2 admet une racine complexe α, il admet
également pour racine ᾱ. √
2) Montrer que 1 + i et − 12 + i 23 sont des racines de l’équation P = 0.
3) En déduire une factorisation de P dans C[X] puis dans R[X].
Exercice 15.
dire, sans trop de calcul, si les polynômes suivants sont irréductibles dans R et dans C.
P1 = X 2 − X + 2, P2 = X 4 − 3X2 + 2, P3 = X − 2, P4 = X 3 − 2X 2 + 4X − 1.

Exercice 16.
Soit α1 , ..., αn , β1 , ..., βn ∈ R, avec αi 6= αj si i 6= j. On pose
n
X Y X − αj
P = βi ( ).
αi − αj
i j6=i

Vérifier due P (αk ) = βk , pour tout 1 ≤ k ≤ n.

Exercice 17.
Soit P ∈ K[X] et n ∈ N. Montrer que si d0 P ≤ n et si P admet au moins n + 1 zéros deux à
deux distincts, alors P = 0.
Déduire que si un polynôme de K[X] admet une infinité de racines, alors P = 0.

34
Exercice 18. (Racine commune a deux polynômes ).
a) On considère les deux polynômes suivants : P (X) = 2X 4 + X 3 − X 2 + 2X − 1 et Q(X) =
4X 3 + 4X 2 − X − 1.
Montrer qu’ils ont une racine commune α que l’on déterminera.
(Indication : effectuer la division euclidienne de P par Q pour obtenir un polynôme de degré
plus petit que ceux de P et Q admettant encore pour racine α ; itérer cette procédure ).
b) Même question pour les polynômes : P (X) = X 4 − (1 + i)X 3 + X2 + (1 + i)X − 2 et
Q(X) = X 3 + (2 + 2i)X 2 + 2iX − 1 .
Exercice 19.
Factoriser sur R puis sur C les polynômes suivants :

P1 = X 10 + X 5 + 1, P2 = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16.


Exercice 20.
Soit n un entier non nul.
1. Montrer qu’il existe un couple unique (F, G) de polynômes de R[X], de degré srictement
inférieur à n, vérifiant :
(1 − X)n F (X) + X n G(X) = 1.
2. Montrer que
∀X ∈ R, F (X) = G(1 − X).

35
Chapitre 3

FRACTIONS RATIONNELLES

Dans ce chapitre, K est un corps (on pourra penser à R ou C).

3.1 Définitions et propriétés algèbriques


Définition 3.1. On appelle fraction rationnelle à coefficients dans K tout quotient de po-
A
lynômes à coeficients dans K. Autrement dit : une expression de la forme B où A ∈ K[X] et

B ∈ K[X] . L’ensemble de ces fractions rationnelles est noté K(X).
Soit F une fraction rationnelle. On appellera un représentant de F tout couple de polynômes
A
(A, B) tels que F = B . Il est clair qu’une fraction rationnelle admet une infinité de représentants.
On notera 0 la fraction rationnelle B0 et 1 la fraction rationnelle A A.
A
Pour toute fraction rationnelle F = B 6= 0, on appellera inverse de F la fraction rationnelle
1 B
F = A.

Exemple 3.1.
X 5 + 3X 2 + 1
F (X) = ∈ R(X).
X 6 + 2X 3 + 4X
iX 5 + 3jX 2 + 1
F (X) = ∈ C(X).
X 6 + 2X 3 + 4i
Remarque 3.1. Il n’est pas difficile de vérifier que K(X) est un corps.
A C
Définition 3.2. B On dit que deux fractions rationnelles F1 = B et F2 = D sont égales si
et seulement si
AD = BC.
Exemple 3.2.
X 2 + 2X + 1 X +1
F = 2
= .
X −1 X −1
Car (X 2 + 2X + 1)(X − 1) = (X 2 − 1)(X + 1).

3.1.1 Fractions ratinnelles irréductibles


P
Définition 3.3. Une fraction F = Q de K(X) est dite irréductible si les polynômes P et Q
sont premiers entre eux (i.e. P ∧ Q = 1 ).
Proposition 3.4. Toute fraction rationnelle F est égale à une fraction rationnelle irréductible.
P
Preuve. Soit F = Q ∈ K(X) , Si D = P ∧ Q. Alors P = DP1 et Q = DQ1 avec P1 ∧ Q1 = 1.
P P1
Par suite Q = Q1 .

36
X 3 −1 (X−1)(X 2 +X+1) X−1
Exemple 3.3. (X 2 +X+1)(X+2)
= (X 2 +X+1)(X+2)
= X+2 .
A
Définition 3.5. Soit F = B ∈ K(X). Le degré de F , noté d0 F , est la quantité : d0 F =
0 0
d A − d B.
Le degré d’une fraction rationnelle est un élément de Z ∪ {−∞}.
Proposition 3.6. Soient F1 , F2 ∈ K(X) et soit λ ∈ K∗ . Alors :
1. d0 (λF1 ) = d0 F1 .
2. d0 (F1 F2 ) = d0 F1 + d0 F2 .
3. d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ).
Preuve.
Les points 1. et 2. sont faciles.
A C A C
Montrons 3. Soit F1 = B et F2 = D . On a F1 + F2 = B +D = AD+BC
BD .
Par suite,
d0 (F1 + F2 ) = d0 (AD + BC) − d0 B − d0 D.
≤ sup(d0 (AD), d0 (BC))) − d0 B − d0 D.
Si sup(d0 (AD), d0 (BC)) = d0 (AD). Alors,

d0 (F1 + F2 ) = d0 A − d0 B = d0 F1
≤ sup(d0 F1 , d0 F2 ).

Si sup(d0 (AD), d0 (BC)) = d0 (BC). Alors,

d0 (F1 + F2 ) = d0 C − d0 D = d0 F2
≤ sup(d0 F1 , d0 F2 ).

Finalement,
d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ).
Remarque 3.2. Le degré d’une fraction rationnelle F ∈ K(X) est indépendant du choix du
représentant de F .
A
Définition 3.7. Soit F ∈ K(X) et soit B un représentant irréductible de F . On dira que
α ∈ K est une racine d’ordre n de F si α est une racine d’ordre n de A. On dira que β ∈ K
est un pôle d’ordre m de F si β est une racine d’ordre m de B.
Remarque 3.3. Pour calculer les racines et les pôles d’une fraction rationnelle F , il est
nécéssaire d’avoir un repésentant irréductible de F .
3
X −3X+2
Exemple 3.4. Soit F = (X+1)(X−2) 3 , alors
3 2
♣ X − 3X + 2 = (X − 1) (X + 2), donc 1 est un zéro double et −2 est un zéro simple
de F .
♣ −1 est un pôle simple de F .
♣ 2 est un pôle triple de F .
D’après les propriétés des polynômes, l’ensemble ∆F des pôles de F est fini. On dit que
DF = K \ ∆F est l’ensemble de définition de F . A partir de là, l’application :

Ã(x)
F̃ : DF −→ K, x 7→
B̃(x)

est appelée la fonction rationnelle associée à F.

37
3.2 Décomposition en éléments simples d’une fraction ration-
nelle
3.2.1 Fractions rationnelles régulières
P
Définition 3.8. La fraction rationnelle F = Q est dite régulière si do P < do Q.
Remarque 3.4. Une fraction rationnelle est régulière si et seulement si do F < 0.
Exemple 3.5.
5X − 2 2X 2 − 5 X3 − 2
F1 = , F2 = , F3 =
X2 − 1 X3 + 6 X5 + 3
sont régulières.
P
Théorème 3.9. Soit F = Q ∈ K(X). Il existe un polynôme E ∈ K[X] et un seul, tel que
F − E soit une fraction rationnelle régulière. Le polynôme E s’appelle la partie entière de F .
Preuve. On suppose do P > do Q, la division euclidienne de P par Q donne :

P = QE + R, do R < do Q.

Ainsi,
P R
F = =E+ avec do R < do Q.
Q Q
Unicité : Supposons que E1 , E2 ∈ K[X] vérifient le théorème, alors :

do (E1 − E2 ) = do [(F − E2 ) − (F − E1 )]
≤ sup(do (F − E1 ), do (F − E2 ))
< 0.

Par suite E1 = E2 .

Exemple 3.6.
X2 − 1 3
F1 = =X −2+ , donc E = X − 2.
X +2 X +2
Propriété Si F1 , FP 2 , ..., Fn sont des fractions rationnelles de parties entières respectivement
P
E1 , E2 , ..., En , alors ni=1 Ei est la partie entière de la fraction rationnelle F = ni=1 Fi .

3.2.2 Décomposition en éléments simples


Comment intégrer la fraction rationnelle :
X
F = ?
(X − 1)(X 2 + 1)3

On procède de la manière suivante, on écrit :


X a0 a1 X + b1 a2 X + b2 a3 X + b3
2 3
= + 2
+ 2 2
+ ,
(X − 1)(X + 1) X − 1 (X + 1) (X + 1) (X 2 + 1)3

puis on intègre chaque élément.


Le but de ce paragraphe est de montrer que cette écriture est toujours possible. On aura besoin
du résultat suivant.

38
Proposition 3.10. Soient A et P deux polynômes de K[X], P 6= 0. Pour tout entier naturel
non nul n, il existe un système unique de polynômes A1 , A2 , ..., An et R tels que

A = An + An−1 P + An−2 P 2 + .... + A1 P n−1 + RP n ,

avec d0 Ak < d0 P , 1 ≤ k ≤ n.
Preuve.
Unicité : Commençons par établir l’unicité. Supposons que :

A = An + An−1 P + An−2 P 2 + .... + A1 P n−1 + RP n , d0 Ak < d0 P, 1 ≤ k ≤ n.

et

A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R̃P n , d0 Ãk < d0 P, 1 ≤ k ≤ n.

Posons Bk = Ak − Ãk et S = R − R̃.


On a 0 = Bn + Bn−1 P + ... + B1 P n−1 + SP n .
D’où :
Bn = −P (Bn−1 + ... + B1 P n−2 + SP n−1 ).
Si Bn 6= 0, on aura d0 Bn ≥ d0 P , ce qui est absurde. Donc Bn = 0.
On simplifie par P (qui est 6= 0)et on fait la même chose pour Bn−1 , Bn−2 , ..., B1 , à la fin on
obtient SP = 0, puisque P 6= 0,on a alors S = 0. D’où l’unicité.
Existence : Nous allons faire une démonstration par récurrence sur n.
Pour n = 1, on effectue la D.E. de A par P , on a :

∃Q1 , R1 ∈ K[X] tels que A = P Q1 + R1 , d0 R1 < d0 P.

Il suffit de prendre A1 = R1 et R = Q1 .
Supposons le résultat vrai à l’ordre n ; c’est-à-dire ∃Ãk , 1 ≤ k ≤ n, ∃R̃ ∈ K[X] tels que :

A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R̃P n , avec d0 Ãk < do P.

Effectuons la D.E. R̃ par P , il existe Q2 , R2 dans K[X], d0 R2 < d0 P tels que : R̃ = P Q2 +R2 .
Donc

A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R2 P n + Q2 P n+1 .


Posons Ak+1 = Ãk , 1 ≤ k ≤ n, A1 = R2 et R = Q2 .
Finalement on trouve :

A = An+1 + An P + An−1 P 2 + .... + A1 P n + RP n+1 .

P
Soit maintenant, F = Q ∈ K(X), P ∧ Q = 1 avec Q normalisé.
Décomposons Q en facteurs irréductibles :
r
Y
Q= Qαi i , αi ≥ 1.
i=1

Les Qi étant deux à deux premiers entre eux, irréductibles et normalisés.


Le résultat fondamental portant sur les fractions rationnelles est le suivant :

39
Théorème 3.11. Avec les notations ci-dessus, la fraction F s’écrit d’une manière unique,
sous la forme :
r
X
F =E+ Pi
i=1
Pαi Pi,j
où E est un polynôme et où Pi = j=1 Qj .
i
Les Pi,j et les Qi étant des polynômes tels que pour tout i et tout j, d0 Pi,j < d0 Qi .
Le terme Pi s’appelle la partie polaire de F relative au facteur Qαi i du dénominateur Q de
F.
E s’appelle la partie entière de F .
Dans la pratique, on a intérêt à déterminer d’abord E.

Preuve.
Existence : On a : Q = Qα1 1 (Qα2 2 ...Qαr r ) avec Qα1 1 et (Qα2 2 ...Qαr r ) sont premiers entre eux. Il
existe U, V ∈ K[X] tels que :

U Qα1 1 + V (Qα2 2 ...Qαr r ) = 1.

D’où
P P.1 P [U Qα1 1 + V (Qα2 2 ...Qαr r )] PU PV
F = = = α1 α2 = αr + .
Q Q Q1 (Q2 ...Qr ) αr
(Q2 ...Qr ) Qα1 1
α2

PU
De proche en proche, en appliquant le même raisonnement à α
(Q2 2 ...Qαr ; on obtient
r )

r
X Ai
F = (∗)
Qαi i
i=1

où les Ai étant des polynômes.


Soit maintenant 1 ≤ i ≤ r, d’après le résultat de la proposition précédente pour A = Ai ,
P = Qi et n = αi :

∃Pi,j , 1 ≤ j ≤ αi , et ∃Ei ∈ K[X] tels que :

Ai = Pi,αi + Pi,αi −1 Qi + ... + Pi,1 Qαi i −1 + Ei Qαi i


avec d0 Pi,j < d0 Qi , ∀1 ≤ j ≤ αi .
αi
X
Ai = Pi,j Qαi i −j + Ei Qαi i .
j=1

En remplaçant dans (∗) on obtient :


r X
X αi αi
r X
X r
Pi,j Qαi i −j Pi,j X
F = ( + Ei ) = + Ei ,
Qαi i Qji
i=1 j=1 i=1 j=1 i=1

avec d0 Pi,j < d0 Qi ∀1 ≤ i ≤ r et ∀1 ≤ j ≤ αi .


P P P i Pi,j
Posons E = ri=1 Ei , on a F = ri=1 Pi + E avec Pi = αj=1 et
Qji
d0 Pi,j < d0 Qi , ∀1 ≤ i ≤ r et ∀1 ≤ j ≤ αi .
Unicité : C’est une conséquence du résultat suivant : la famille constituée d’une part par
k
les (X n )n≥0 et d’autre part par les ( X
Ql
) où Q est un polynôme irréductible, l ∈ N∗ et k < d0 Q
est une base du K − espace vectoriel K(X).

40
3.2.3 Décomposition dans C(X)
Lorsque K = C, les polynômes Qi sont du premier degré, soit Qi = X − ai . Les polynômes
Pi,j se réduisent à des constantes.
Le théorème précédent s’écrit, dans ce cas, sous la forme :
P
Théorème 3.12. Toute fraction rationnelle F = Q ∈ C(X) admet la décomposition :
αi
r X
X Ai,j
F =E+
(X − ai )j
i=1 j=1

où a1 , ..., ar sont les racines distinctes de Q et α1 , ..., αr leurs ordres de multiplicités. Les Ai,j
sont des constantes et E est un polynôme de degré égal à d0 P − d0 Q.
Exemple 3.7. Donner la décomposition en éléments simples dans C(X) des fractions ra-
tionnelles suivantes :

1+X 1 1
1) F = , 2) G = , 3) H = ,
1−X 1 + X2 (1 + X)(2 + X)(3 + X)
2
1) On a 1 + X = −(1 − X) + 2, donc F = −1 + 1−X .
1 1 a b a(X−i)+b(X+i)
2) G = 1+X 2
= (X−i)(X+i) = X+i + X−i = (X+i)(X−i) .
−i
On en déduit alors (par identification) : a + b = 0 et b − a = −i donc b = 2 et a = 2i .
Par conséquent :
1 i i
G= 2
= − .
1+X 2(X + i) 2(X − i)

3.2.4 Décomposition dans R(X)


Lorsque K = R ; les polynômes irréductibles dans R[X] sont de deux types :
1) Tout polynôme du prenier degré.
2) Tout polynôme du second degré à discriminant strictement négatif. Donc dans R(X) (en-
semble des fractions rationnelles) il y a deux types d’éléments simples :
1) L’élément simple dit de première espèce de la forme :
λ
avec µ, λ ∈ R et n ∈ N∗ .
(X + µ)n
2) L’élément simple de deuxième espèce de la forme :
λX + µ
. avec λ, µ, b, c ∈ R, et n ∈ N∗ .
(X 2 + bX + c)n
avec b2 − 4c < 0.
Soit Q ∈ R[X]. D’après ce qui précède Q peut s’écrire sous la forme :
Q = (X − a1 )α1 (X − a2 )α2 ...(X − ar )αr (X 2 + b1 X + c1 )µ1 ...(X 2 + bn X + cn )µn .
Et le théorème de la décomposition en éléments simples s’écrit dans le cas de R sous la
forme :
Théorème 3.13. Toute fraction rationnelle F dans R(X) s’écrit d’une manière unique sous
la forme :
a1,1 a1,2 a1,α1 ar,1
F = E+ X−a1 + (X−a1 )2 + ... + (X−a1 )α1 + ... + X−ar
ar,2 ar,αr b1,1 X+c1,1 b 1 X+c1,µ1
+ (X−a r)
2 + ... + (X−a )αr + X 2 +b X+c
r 1 1
+ ... + (X1,µ
2 +b X+c )µ1
1 1
+ ...+
b X+cn,1 bn,µn X+cn,µn
+ (Xn,1
2 +b X+c )
n n
+ ... + (X 2 +bn X+cn )µn
.
Ceci est la décomposition de F en éléments simples dans R(X).

41
Remarque 3.5. Pour décomposer F ∈ R(X) en éléments simples dans R, on peut :
i) soit décomposer F en éléments simples dans C et regrouper les termes conjugués.
ii) soit procéder par identification, en utilisant les propriétés de F (parité,...) (Voir T.D).
1 a bX+c a(X 2 +1)+(bX+c)(X−1)
Exemple 3.8. 1. F = (1+X 2 )(X−1)
= X−1 + X 2 +1
= (1+X 2 )(X−1)
.
Par identification on obtient : a + b = 0, c − b = 0 et a − c = 1. Donc a = 12 , b = −1
2 = c.
Par conséquent,
1 X +1
F = − .
2(X − 1) 2(X 2 + 1)
4X 3
2. Soit G = (X 2 −1)2
. G admet une décomposition de la forme
a b c d
G= + 2
+ + .
X + 1 (X + 1) X − 1 (X − 1)2
Remarquons que G est impaire : G(−X) = −G(X).
On a :
−a b −c d
G(−X) = + 2
+ + .
X − 1 (X − 1) X + 1 (x + 1)2
−a −b −c −d
−G(X) = + + + .
X + 1 (X + 1)2 X − 1 (X − 1)2
L’unicité de la décomposition en éléments simples entraı̂ne :
½
a=c
b = −d.
Pour trouver b multiplions G par (X + 1)2 .
4X 3 c(X + 1)2 d(X + 1)2
(X + 1)2 G(X) = = a(X + 1) + b + + .
(X − 1)2 X −1 (X − 1)2
En remplaçant X par −1, on obtient : b = −1, d’où d = 1.
Cette méthode permet de trouver le coefficient du terme de plus haut degré de chaque
partie polaire.
Pour déterminer les coefficients a et c, multiplions G par X :
4X 4 aX bX cX dX
X.G(X) = 2 2
= + 2
+ + .
(X − 1) X + 1 (X + 1) X − 1 (X − 1)2
En cherchant la limite de XG(X) en +∞ , on obtient :
lim XG(X) = 4 = a + c
X−→+∞

d’où a = c = 2.
Cette méthode permet de trouver la somme des coefficients de plus bas degré de toutes
les parties polaires.
Finalement, on obtient :
2 −1 2 1
G= + 2
+ + .
X + 1 (X + 1) X − 1 (X − 1)2
Remarque 3.6. Puisque la décomposition est unique, on peut utiliser tout procédé qui nous
semble adéquat pour obtenir les coefficients de la décomposition, sans que cela influe sur le
résultat final.

Exercice 3.14. Décomposer en éléments simples dans C puis dans R la fraction rationnelle
1
F = .
(X + X + 1)2 (X + 1)
2

42
3.3 Recherche des parties polaires relatives à des facteurs de
la forme (X − a)α
3.3.1 Division suivant les puissances croissantes
Théorème 3.15. Soient A, B deux polynômes tels que B(0) 6= 0.
Pour tout entier n, il existe un couple unique de polynomes (Qn , Rn ) vérifiant :

A = BQn + X n+1 Rn , d0 Qn ≤ n.

Qn est appelé le quotient à l’ordre n, X n+1 Rn est le reste à l’ordre n.

Preuve.
Existence : Démontrons l’existence par récurrence sur n.
Posons
Xp Xq
A= ai X i et B = bi X i .
i=0 i=0
A(0) a0
Pour n = 0, posons Q0 = B(0) = b0 . Alors Q0 ∈ K et A − BQ0 est divisible par X, d’où
l’existence de R0 ∈ K[X] tel que

A = BQ0 + XR0 , d0 Q0 = 0.

Supposons l’existence du couple (Qn , Rn ) aquise jusqu’à l’ordre n, c’est-à-dire :

A = BQn + X n+1 Rn , d0 Qn ≤ n.

On a :
Rn (0) Rn (0)
Rn = B + (Rn − B) .
B(0) B(0)
| {z }
H

On a H(0) = 0, donc il existe S ∈ K[X] tel que

Rn (0)
Rn = B + XS.
B(0)

L’hypothèse de récurrence implique :

Rn (0) Rn (0) n+1


A = BQn + X n+1 ( B + XS) = B(Qn + X ) + X n+2 S.
B(0) B(0)

On prend Qn+1 = Qn + RB(0)


n (0)
X n+1 et Rn+1 = S, on a donc d0 Qn+1 ≤ n + 1.
Unicité : Supposons BQn + X n+1 Rn = 0. Alors X n+1 /BQn . La condition B(0) 6= 0 implique
que B et X n+1 sont premiers entre eux. Le théorème de Gauss implique que X n+1 /Qn , or
d0 Qn ≤ n donc Qn = 0. Par conséquent Rn = 0.
Exemple 3.9. Effectuons la division suivant les puissances croissantes de A = X 3 + 2X + 1
par B = 2X 2 + X + 1 à l’ordre 3.
Après le calcul, on trouve :

X 3 + 2X + 1 = (2X 2 + X + 1) (1 + X − 3X 2 + 2X 3 ) +X 4 (4 − 4X) .
| {z } | {z }
Q3 R3

43
Nous allons maintenant appliquer ce théorème à la recherche de la partie polaire relative au
P (X) α
pôle a de F = (X−a) α Q (X) , Q1 (a) 6= 0, et P (X) ∧ (X − a) Q1 (X) = 1.
1
Posons Y = X − a, et
P (a + Y )
F (X) = G(Y ) = .
Y α Q1 (a + Y )
Nous sommes donc ramenés au cas où a = 0. Dans ce cas, on a le résultat suivant :
Proposition 3.16. Etant donnée la fraction rationnelle irréductible
P (X)
F = , Q1 (0) 6= 0.
X α Q1 (X)
La partie polaire de F relative au pôle 0 est l’expression :
λ0 λ1 λα−1
α
+ α−1 + ... + ,
X X X
avec λ0 +λ1 X +...+λα−1 X α−1 est le quotient de la division suivant les puissances croissantes
de P par Q1 à l’ordre α − 1.

Preuve.
Soit Qα−1 = λ0 + λ1 X + ... + λα−1 X α−1 le quotient de la division suivant les puissances
croissantes de P par Q1 à l’ordre α − 1.
Donc

P = Q1 Qα−1 + X α Rα−1 .
D’où
Q1 (X)(λ0 + λ1 X + ... + λα−1 X α−1 ) + X α Rα−1 λ0 λ1 λα−1 Rα−1
F = = α + α−1 + ... + + ,
X α Q1 (X) X X X Q1 (X)
Rα−1
mais comme Q1 (0) 6= 0 , alors 0 n’est pas un pôle de Q1 (X) . Ce qui achève la démonstration
de la proposition.
Exemple 3.10. En effectuant la division suivant les puissances croissantes, trouver la décomposition
en éléments simples dans R(X) de la fraction rationnelle :

2X 2 + 5
F = .
(X 2 − 1)3
Comme F est paire, l’unicité de la décomposition de F en éléments simples permet d’identifier
la décomposition de F (X) et de F (−X). On a :
a b c α β γ
F (X) = + 2
+ 3
+ + 2
+ .
X − 1 (X − 1) (X − 1) X + 1 (X + 1) (X + 1)3
−a b −c −α β −γ
F (−X) = + + + + + .
X + 1 (X + 1)2 (X + 1)3 X − 1 (X − 1)2 (X − 1)3
Ce qui donne :
a = −α, b = β, et c = −γ.
Déterminons a, b et c.
Posons Y = X − 1.
2Y 2 + 4Y + 7
F (Y + 1) = .
Y 3 (Y + 2)3
Effectuons la division suivant les puissances croissantes de 2Y 2 + 4Y + 7 par (Y + 2)3 =
Y 3 + 6Y 2 + 12Y + 8 à l’ordre 2. On trouve : c = 78 = −γ, b = −13 13
16 = β et a = 16 = −α.

44
Remarque 3.7. Dans le cas où α = 1, la partie polaire relative à un pôle simple de
P (X)
F = (X−a)Q 1 (X)
, Q1 (a) 6= 0 est QP0(a) 1
(a) . (X−a) . En effet,

P (X)
F = , Q(X) = (X − a)Q1 (X), avec Q1 (a) 6= 0.
Q(X)
En prenant les dérivées, on trouve :

Q0 (X) = Q1 (X) + (X − 1)Q01 (X),

d’où Q0 (a) = Q1 (a).


D’autre part,
P (X) α R0 (X)
F = = + .
Q(X) X − a Q1 (X)
D’où
P (X)(X − a) R0 (X)(X − a)
α= − .
Q(X) Q1 (X)
Pour X = a, on a :
P (a) P (a)
α= = 0 .
Q1 (a) Q (a)

3.4 Recherche des parties polaires relatives à des facteurs de


la forme (X 2 + bX + c)α
Il n’ y a pas, en général, une méthode précise pour déterminer les éléments simples de
second espèces, mais on dispose pratiquement de trois techniques.
– Technique 1
1. On cherche la décomposition en éléments simples dans C(X).
2. On regroupe les éléments simples relatifs à des pôles conjugués.

X
Exemple 3.11. Décomposer en éléments simples dans R(X) la fraction F = (X 2 +4)(X 2 +1)
.
1. La décomposition de F en éÃlément simples dans C(X)
La décomposition de F en éléments simples dans C(X) est
1 1 1 1 1
F = [ + − − ].
6 X + i X − i X + 2i X − 2i
2. En groupant les éléments simples relatifs aux pôles conjugués, on obtient :
1 X X
F = [ 2 − 2 ].
3 X +1 X +4
Technique 2 (méthode des coefficients indéterminés)
On détermine les coefficients par des considérations numériques particulières ; par exemple :
- Donner à X des valeurs particulières,
- multiplier par une puissance de X et faire tendre X vers +∞.
- Vérifier si F (−X) = F (X) ou F (−X) = −F (X) (c’est à dire la parité de F ).
Technique 3 (abaissement de l’exposant de (X 2 + bX + c))
1
Soit F = (X+1)(X 2 +1)2 . La décomposition de F en éléments simples dans R(X) est de

la forme :
1 a bX + c dX + e
F = = + + .
(X + 1)(X 2 + 1)2 X + 1 X 2 + 1 (X 2 + 1)2

45
1. On commence par calculer d et e. On multiplie les deux membres par (X 2 + 1)2 et
1
on donne à X la valeur i, on obtient i+1 = di + e, d’où 12 − 21 i = di + e.
1 −1
Par suite : e = 2 et d = 2 .
2. On calcule
dX + e 1 1 −X + 1
F− = − .
(X 2 + 1)2 (X + 1)(X 2 + 1)2 2 (X 2 + 1)2

Il reste,
1 a bx + c
= + .
(X + 1)(X 2 + 1) (X + 1) X 2 + 1
CONSEILS PRATIQUES :
P
Pour décomposer une fraction rationelle (irréductible) F = Q en éléments simples, il faut :

1. Factoriser Q .
2. Ecrire la forme générale de la décomposition, en n’oubliant pas la partie entière E,
qu’on calcule en faisant la division euclidienne.
3. Utiliser la parité-imparité qui réduit souvent beaucoup l’étude.
4. Terme de degré dominant : multiplier par (X − ai )αi , simplifier, puis prendre X = ai .
5. La somme des termes de plus bas degré : multiplier par X et calculer la limite quand
X tend vers +∞.
6. Enfin, prendre des valeurs ...

3.5 APPLICATIONS
Voir les travaux dirigés.

46
3.6 EXERCICES
Exercice 1.
Déterminer les zéros et les pôles de la fraction rationnelle de C[X]

X 4 − 5X 2 + 4
F (X) = .
Xn − 1
Exercice 2.
Montrer qu’il n’existe pas de fraction rationnelle de K(X) telle que F 2 = X.

Exercice 3.
Mettre sous forme irréductible les fractions rationnelles de R(X)
2 −3X+2 X 5 −X 4 −2X 3 +2X 2 +X−1 X 3 −3X+2
a) XX4 −5X 2 +4 , b) X 4 +X+1
, c) X 4 −5X 3 +4X 2 +X+2 .

Exercice 4.
Soit A et P deux polynômes de K[X]. On suppose que P est non nul et ne divise pas A.
1) Montrer que pour tout entier naturel non nul n, il existe des polynômes A0 , A1 , ..., An−1 , Rn
uniques tels que :

A = A0 + A1 P + A2 P 2 + .... + An−1 P n−1 + Rn P n ,

avec deg(Ak )< deg(P), 0 ≤ k ≤ n − 1.


A
2) Si P est irréductible, montrer que la décomposition en éléments simples de la fraction Pn
est
A0 A1 An−1
n
+ n−1 + ... + + Rn .
P P P
3) Décomposer en éléments simples dans R(X) la fraction

3X 8 + 4X 2 + 1
F = .
(X 2 + 2X + 3)3
Exercice 5.
Décomposer les fractions rationnelles suivantes en éléments simples dans R(X)
7 +2
0. F0 = (X 2X+X+1) 3.
1−2X
1. F1 = (X 2 +1)(X+2)2
.
X 2 +1
2. F2 = X 4 +X 3 −X−1 .
X 4 +1
3. F3 = X 6 +1 .
7X 3 +2X 2 +15X+6
4. F4 = (X 2 +X−2)(X 2 +4) .
−X 3 −X 2 +3X−1
5. F5 = (X 2 +X+1)2 .
5 4 −76X 3 −157X 2 −165X−72
6. F6 = −2X −19X (X 2 +4X+5)3 .
n! ∗
7. F7 = X(X+1)(X+2)...(X+n) , n ∈ N .
X2
8. F8 = (X 4 +X 2 +1)2 .
1
9. F9 = X(X 2 +1)2 .
10. F10 = X n1−1 , n ∈ N∗ .
Exercice 6.
Décomposer en éléments simples dans C(X) les fractions rationnelles suivantes :
1)F = (X 2 −1)X2 (X 2 +1) .
X4
2)F = X 5 +1
.

47
Exercice 7. Décomposer la fraction rationnelle en éléments simples dans R(X)

X 2n
F = (X 2 +1)n
, n ∈ N.

Exercice 8.
1) En développant (cosX + isinX)2n+1 , n ∈ N∗ , montrer qu’il existe un polynôme P à
coefficients réels, tels que

P (sinx) = sin(2n + 1)x, pour tout x ∈ R.

2) Déterminer les zéros de P et en déduire le degré de P .


3) Décomposer en éléments simples la fraction rationnelle P1 .
4) Déduire que
X2n kπ
2n + 1 (−1)k cos( 2n+1 )
= kπ
sin(2n + 1)x sinx − sin( 2n+1 )
k=o

pour tout réel x tel que sin(2n + 1)x 6= 0


Exercice 9.

En effectuant la division suivant les puissances croissantes, décomposer la fraction ration-


nelle dans R(X)
4
F = .
(X 2 − 1)2
Exercice 10.
On dit qu’un polynôme non nul P est scindé sur K si, et seulement si, P est de degré 0 ou,
si degré de P est non nul, P s’écrit sous la forme
n
Y
P = λ. (X − ai )ki
i=1

où a1 , ..., an sont des éléments de K et k1 ,..., kn des entiers strictement positifs. Par exemple
X 2 + 1 est un polynôme scindé sur C et n’ est pas un polynôme scindé sur R.
0
Soit P un polynôme scindé. Décomposer en éléments simples la fraction rationnelle PP .
Exercice 11. ( Dérivation d’ordre n des fractions rationnelles et calcul des sommes par-
tielles)
1) Montrer que pour tout n ∈ N et tout α ∈ C on a

1 (−1)n n!
( )(n) = .
X +α (X + α)n+1
1
2) Calculer la dérivé d’ordre 4 de la fraction rationnelle F = X(X−1)(X+1)
3) Calculer la limite quand n tend vers l’infini de la somme partielle
n
X 1
Sn =
k(k − 1)(k + 1)
k=2

48
Deuxième partie

ALGÈBRE LINÉAIRE

49
Chapitre 4

ESPACES VECTORIELS ET
APPLICATIONS LINÉAIRES

L’algèbre linéaire fournit un langage et une collection de résultats très utiles dans des
domaines très variés (biologie, chimie, économie, physique, statistiques ...). Mais pour sa-
voir l’utiliser, il faut apprendre à identifier les problèmes linéaires ou ceux qui peuvent être
modélisés par une approche linéaire (c’est une situation usuelle dans la plupart des sciences :
on remplace ainsi un phénomène complexe par un problème plus facile à résoudre). En
mathématiques, l’axiomatisation des problèmes linéaires se fait par la définition de la struc-
ture d’espace vectoriel et notre premier souci sera de distinguer, parmi les ensembles qui nous
sont familiers, ceux qui peuvent être munis de cette structure.

Dans tout ce chapitre K = R ou C.

4.1 Structure d’espace vectoriel


Définition 4.1. On appelle espace vectoriel sur K ou K-espace vectoriel, un ensemble E
muni de :
1) Loi de composition interne + appelée addition telle que (E, +) est un groupe commu-
tatif.
2) Loi de composition externe, ça sera une multiplication de

K × E −→ E
(α, x) −→ αx

vérifiant :

a. ∀ λ, µ ∈ K, ∀x ∈ E : (λ + µ)x = λx + µx.
b. ∀λ ∈ K, ∀x, y ∈ E : λ(x + y) = λx + λy
c. ∀ λ, µ ∈ K, ∀x ∈ E : λ(µx) = (λµ)x.
d. ∀x ∈ E : 1K x = x
Remarques
1. Faire attention aux lois.
2. Les éléments de K sont appelés des scalaires.
3. Les éléments de E sont appelés des vecteurs.
Exemples
1. Soit n ∈ N∗ , (Rn , +, ×) est un R-espace vectoriel.

50
2. (R[X], +, ×) est un R-espace vectoriel.
3. Si X 6= 0 et E est un K-espace vectoriel, alors (F(X, E), +, ×) est un K-espace
vectoriel, avec f + g est définie par

(f + g)(x) = f (x) + g(x), ∀x ∈ X.

4. On définit, dans l’espace des suites réelles S qui sont des fonctions de N dans R, les
opérations suivantes :
(u + v)n = un + vn
(λu)n = λun .
Ainsi, (S, +, ×) est un R-espace vectoriel.

Dans toute la suite, E désigne un espace vectoriel sur K.


Proposition 4.2. Soit λ ∈ K et x ∈ E. On a :

λx = 0E ⇐⇒ λ = 0K ou x = 0E .

Preuve
⇐=) On a : λ(x − y) = λx − λy , ∀x, y ∈ E et ∀λ ∈ K.
Pour x = y, on obtient λ0E = 0E ceci ∀λ ∈ K.
De même (λ − µ)x = λx − µx, ∀λ, µ ∈ K et ∀x ∈ E.
Pour λ = µ, on obtient 0K x = 0E , ∀x ∈ E.
=⇒) Soit λ ∈ K et x ∈ E tels que λx = 0. Supposons que λ 6= 0.
On a d’une part,
λ−1 (λx) = λ−1 0E = 0E .
D’autre part,
λ−1 (λx) = (λ−1 λ)x = x.
D’où
x = 0E .

4.2 Sous-espaces vectoriels


4.2.1 Généralités
Définition 4.3. On appelle sous-espace vectoriel de E, toute partie F de E vérifiant les
conditions suivantes :
(1) 0E ∈ F et pour tout x ∈ F et tout y ∈ F , x + y ∈ F,
(2) pour tout x ∈ F et pour tout λ ∈ K, λx ∈ F .
Proposition 4.4. Une partie F de E est un sous-espace vectoriel si, et seulement si 0E ∈ F
et ∀λ ∈ K, ∀x, y ∈ F , x + λy ∈ K.

Preuve. Exercice à le faire.

Exemples
1. {0} et E sont deux sous-espaces vectoriels de E.
2. L’ensemble des suites convergentes dans R est un R-espace vectoriel de (S, +, ×).
3. Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n} est sous-espace vectoriel de K[X].
4. L’ensemble C 0 (I, R) des fonctions continues d’un intervalle I de R a valeurs dans R
est un sous-espace vectoriel de F(I, R).

51
Théorème 4.5. Soit E un K-e.v. . Toutes intersections de sous-espaces vectoriels de E est
un sous-espace vectoriel de E.
Preuve. Evidente.
Remarques
1. Attention, ce théorème est faux pour la réunion. Par exemple : E = R2 , si
F = {(x, 0)/x ∈ R} et G = {(0, y)/y ∈ R}. On a F et G sont deux s.e.v. de R2 , mais
F ∪ G n’est pas un s.e.v. de R2 . En effet, (1, 0) ∈ F ⊆ F ∪ G et (0, 1) ∈ G ⊆ F ∪ G
mais (1, 1) ∈/ F ∪ G, car (1, 1) ∈/ F et (1, 1) ∈
/ G.
2. Soit F un s.e.v. de E. La restriction à F × F de l’addition est une loi interne sur F
(appelée loi induite par celle de E). La restriction à K × F de la multiplication externe
est une loi externe sur F . Pour ces deux lois, F est un K-espace vectoriel.
Conséquence : On montre rarement directement qu’un ensemble est un espace vectoriel,
mais souvent que c’est un sous-espace vectoriel d’un espace vectoriel connu (à l’aide de la
proposition 4.4).

4.2.2 Sous-espace engendré par une partie


Soit A une partie non vide de E. On note V ect(A) l’ensemble des vecteurs u ∈ E pouvant
s’écrire
u = λ1 a1 + λ2 a2 + · · · + λn an
avec n ∈ N∗ , a1 , . . . , an ∈ A et λ1 , . . . , λn ∈ K.

V ect(A) = {u ∈ E | ∃n ∈ N∗ , ∃a1 , . . . , an ∈ A, ∃λ1 , . . . , λn ∈ K, u = λ1 a1 + λ2 a2 + · · · + λn an }.


Proposition 4.6. V ect(A) est un sous-espace vectoriel.
Preuve.
Prenons λ1 = λ2 = ... = λn = 0, λ1 a1 + λ2 a2 + · · · + λn an = 0 donc 0 ∈ V ect(A).
Soit u, v ∈ V ect(A) et λ ∈ K. Par définition il existe un entier n, des vecteurs a1 , . . . , an ∈ A
et des scalaires α1 , . . . , αn ∈ K tels que u = α1 a1 + · · · + αn an .
De même, il existe m ∈ N∗ , b1 , . . . , bm ∈ A et β1 , . . . , βm ∈ K tels que v = β1 b1 + · · · + βm bm .
Alors
u + λv = α1 a1 + · · · + αn an + (λβ1 )b1 + · · · + (λβm )bm
donc u + λv ∈ V ect(A).
Définition 4.7. V ect(A) est appelé le sous-espace engendré par A.
Soit F un sous-espace vectoriel. Si V ect(A) = F on dit que A est une partie génératrice
(ou une famille génératrice) de F ou que A engendre F .

Notation
Si A = {a} contient un seul élément on note V ect(a) = Ka = {λa | λ ∈ K}.
Remarques :
• V ect(A) est le plus petit sous-espace vectoriel contenant A.
• Si A ⊂ B alors V ect(A) ⊂ V ect(B). En particulier, si A est une partie génératrice de E
et si B contient A alors B est aussi une partie génératrice de E.
• On considère souvent un ensemble fini : si A = {a1 , . . . , an }. Alors
V ect(A) = {λ1 a1 + · · · + λn an | λ1 , . . . , λn ∈ K}.
Exemple 4.1. Les vecteurs (1, 0), (0, 1) engendrent R2 .
En effet, si (x, y) ∈ R2 , on peut écrire
(x, y) = x(1, 0) + y(0, 1).

52
{(1, 0), (0, 1), (1, 1)} engendre également R2 car

(x, y) = x(1, 0) + y(0, 1) + 0(1, 1).

Il y a plusieurs façons d’écrire (x, y) comme combinaison linéaire de ces 3 vecteurs, en voici
une deuxième :
x−y y−x x+y
(x, y) = (1, 0) + (0, 1) + (1, 1).
2 2 2
Théorème 4.8. Soit F et G deux sous-espaces vectoriels d’un même K-espace vectoriel E.
Les propriétés suivantes sont équivalentes :
i) tout vecteur x ∈ E s’ecrit de manière unique, x = y + z, avec x ∈ F et z ∈ G,
ii) E = F + G et F ∩ G = {0}.
Preuve.
i) =⇒ ii) Soit x ∈ E, d’après i) x s’écrit sous la forme x = y + z avec y ∈ F et z ∈ G, donc
x ∈ F + G, d’où E ⊆ F + G. Or F + G ⊆ E. Donc E = F + G.
Soit x ∈ F ∩ G. On a x = x + 0 avec x ∈ F et 0 ∈ G. On a aussi x = 0 + x avec 0 ∈ F et
x ∈ G.
L’unicité de l’écriture de x comme somme d’un vecteur de F et d’un vecteur de G implique
x = 0.
Donc
F ∩ G ⊆ {0}.
De plus
{0} ⊆ F ∩ G.
D’où
F ∩ G = {0}.
ii) =⇒ i) Soit x ∈ E, puisque E = F + G, x s’écrit x = y + z avec y ∈ F et z ∈ G.
Supposons que x s’écrit de deux façons différentes x = y + z = y 0 + z 0 avec y, y 0 ∈ F et
z, z 0 ∈ G.
Alors y − y 0 = z 0 − z ∈ F ∩ G = {0}.
Ce qui imlpique y = y 0 et z = z 0 .
Définition 4.9. Deux sous-espaces vectoriels d’un K-e.v. E vérifiant les conditions équivalentes
i) et ii) du théorème 4.8 sont dits supplémentaires dans E.
On dit également que E est somme directe de F et G et on écrit :

E = F ⊕ G.

Exemple : Soit E = R2 , e1 = (1, 0), e2 = (0, 1) et a = (1, 1).


Soit
F = {αe1 /α ∈ R} = vect(e1 ),
G = {αe2 /α ∈ R} = vect(e2 ),
H = {αa/α ∈ R} = vect(a),
on a
R2 = F ⊕ G = F ⊕ H.
Conséqence : F ⊕ G = F ⊕ H n’implique pas que G = H!

Généralisation

53
Définition 4.10. On dit que le K-espace vectoriel E est somme directe des s.e.v.
PnF1 , , ..., Fn
si tout vecteur x ∈ E s’écrit de manière unique : x = x1 + x2 + ... + xn = i=1 xi avec
xi ∈ Fi , 1 ≤ i ≤ n. On écrit alors :

E = F1 ⊕ F2 ⊕ ... ⊕ Fn = ⊕ni=1 Fi .

Exemple. Soit E = R3 , e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).


Soit
F1 = {αe1 /α ∈ R} = vect(e1 ),
F2 = {αe2 /α ∈ R} = vect(e2 ),
F3 = {αe3 /α ∈ R} = vect(e3 ),
on a
R3 = F1 ⊕ F2 ⊕ F3 .
Proposition 4.11. Soient E un K-espace vectoriel, n ∈ N∗ , et n sous-espaces vectoriels
F1 ,...,Fn . Alors, on a l’équivalence :
 Pn
 E = i=1 Fi
E = ⊕ni=1 Fi ⇐⇒ et
 Pn
( i=1 xi = 0, xi ∈ Fi 1 ≤ i ≤ n) =⇒ (x1 = ... = xn = 0).
P
Preuve. =⇒) L’égalité E = ni=1 FiP est immédiate.
Soit, pour 1 ≤ i ≤ n, xi ∈ Fi tel que ni=1 xi = 0 = 0 + ... + 0.
L’unicité de l’écriture implique xi P= 0, ∀i = 1, ..., n.
n
⇐=) L’existencePde l’écriture Pn x =0 i=1 xi est évidente.
n
Supposons x =P i=1 xi = i=1 xi .
Ceci implique ni=1 (xi − x0i ) = 0 avec (xi − x0i ) ∈ Fi , ∀i = 1, ..., n.
L’hypothèse implique xi − x0i = 0 ∀i = 1, ..., n.
D’où
xi = x0i , ∀i = 1, ..., n.
Ceci donne l’unicité de l’écriture.

4.3 Applications linéaires


4.3.1 Généralités
Définition 4.12. Soit E et F deux K-espaces vectoriels et soit f une application de E
dans F . On dit que f est une application linéaire de E dans F si ∀x, y ∈ E, ∀λ ∈ K :
f (x + λy) = f (x) + λf (y).
Remarques :
1) Si f est une application linéaire de E dans F , on a f (0) = 0.
2) Pour tout x ∈ E, on a f (−x) = −f (x).
Exemples :
1) Soit E et F deux K-e.v. L’application

f : E −→ F
x −→ 0F

est linéaire.

54
2) Soit
ψ : F(R, R) −→ F
f −→ f (x0 ), x0 ∈ R
ψ est une application linéaire.
Exercice 4.13. f est une application linéaire si, et seulement si ∀(λ1 , ..., λn ) ∈ Kn , ∀(x1 , ..., xn ) ∈
En
Xn X n
f( λi xi ) = λi f (xi ).
i=1 i=1

(Indication : Raisonner par récurrence.)


Définition 4.14. Soit E et F deux K-espaces vectoriels et soit f une application linéaire de
E dans F .
• Si E = F , f s’appelle un endomorphisme de E.

• Si E = K, f s’appelle une forme linéaire sur E.

• Si f est une bijection de E sur F, f s’appelle un isomorphisme de E sur F .


Un isomorphisme de E sur E s’appelle aussi automorphisme de E.
Proposition 4.15. Si f est un isomorphisme de E sur F , l’application réciproque f −1 est
un isomorphisme de F sur E, appelé isomorphisme réciproque de f .

Preuve. Puisque f est une bijection de E dans F , alors f −1 est une bijection de F dans E.
Il nous suffit de montrer que f −1 est linéaire.
Soient x0 et y 0 ∈ F et λ ∈ K ; soit x = f −1 (x0 ), y = f −1 (y 0 ).
On a f (x + λy) = f (x) + λf (y) = x0 + λy 0
Donc
f −1 (x0 + λy 0 ) = x + λy = f −1 (x0 ) + λf −1 (y 0 ).
Définition 4.16. Deux K-espaces vectoriels sont dits isomorphes, s’il existe un isomor-
phisme de l’un dans l’autre ; on écrit E ' F.
Exemples.
1. Soit E un K− espace vectoriel quelconque, l’application identique IdE de E, définie
par IdE (x) = x pour tout x ∈ E est un automorphisme.
2. Si E = K[X], Soit
f : E −→ E
P −→ P 0
f est un endomorphisme.
3. Si E = Kn et F = {P ∈ K[X]/P = 0 ou do P ≤ n}.

f: E −→ F
(a1 , ..., an ) −→ a0 + a1 X + ... + an X n .

f est un isomorphisme.
4. Soit a ∈ R, b ∈ R, a < b et E = C([a, b], R). L’application :

ϕ : E −→ R
Rb
f −→ ϕ(f ) = a f (t)dt
est une forme linéaire sur E.

55
4.3.2 Image et noyau d’une application linéaire
Théorème 4.17. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .
1) L’image par f d’un sous-espace vectoriel de E est un sous-espace vectoriel de F .
2) L’image réciproque par f d’un sous-espace de F est un sous-espace vectoriel de E.

Preuve. 1) Soit E 0 un sous-espace vectoriel de E et soit

f (E 0 ) = {y ∈ F/∃x ∈ E 0 tel que y = f (x)}.

On a : 0 ∈ E 0 et 0 = f (0) ∈ f (E 0 ). Si y, y 0 ∈ f (E 0 ) et λ ∈ K, il existe x, x0 ∈ E 0 tels que


y = f (x) et y 0 = f (x0 ) et puisque E 0 est sous-espace vectriel de E, donc x + λx0 ∈ E 0 .
Alors y + λy 0 = f (x) + f (x0 ) = f (x + λx0 ) ∈ f (E 0 ).

2) Soit F 0 un sous-espace vectoriel de F et soit :

f −1 (F 0 ) = {x ∈ E/f (x) ∈ F 0 }

On a f (0) = 0 ∈ F 0 et donc 0 ∈ f −1 (F 0 ). Si x, x0 ∈ f −1 (F 0 ) et λ ∈ K, on a f (x + λx0 ) =


f (x) + λf (x0 ) ∈ F 0 et donc x + λx0 ∈ f −1 (F 0 ).

Définition 4.18. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .
- Le sous-espace vectoriel f (E) de F est appelé l’image de f et noté Im(f ).
- Le sous-espace vectoriel f −1 ({0}) = {x ∈ E/f (x) = 0} de E est appelé le noyau de f et
noté Ker(f ).
Théorème 4.19. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .

(1) f injective si, et seulement si ker(f ) = {0}.


(2) Soit n ∈ N∗ et soit x1 , ..., xn n vecteurs de E. L’image par f du sous-espace engendré
par (x1 , ..., xn ) est le sous-espace vectoriel de F engendré par (f (x1 ), ..., f (xn )) ; c’est
à dire :
f (vect(x1 , ..., xn )) = vect(f (x1 ), ..., f (xn )).
Preuve.
(1) Si f est injective et si x ∈ ker(f ), on a f (x) = 0 = f (0), donc x = 0.
Si ker(f ) = {0} et si f (x) = f (y), on a f (x−y) = f (x)−f (y) = 0, d’où x−y ∈ ker(f ) = {0},
et donc x = y.
(2) Il découle immédiatement de la propriété :
Xn n
X
n
∀(λ1 , ..., λn ) ∈ K , f( λi xi ) = λi f (xi ).
i=1 i=1

Remarque : Les isomorphismes de E dans F sont les applications linéaires f de E sur F


telles que Ker(f ) = {0} et Im(f ) = F .

4.4 Opérations sur les applications linéaires


4.4.1 Structure d’espace vectoriel de LK (E, F )

56
Soit E et F deux K-espaces vectoriels. L’ensemble des applications linéaires de E dans F
est noté LK (E, F ) ou simplement L(E, F ).
Lorsque E = F , on note LK (E) au lieu de LK (E, E).
LK (E, F ) est un sous espace vectoriel de (F(E, F ), +, .) et donc LK (E, F ) a une structure de
K-e.v.

4.4.2 Composition des applications linéaires


Proposition 4.20. Soit E , F et H trois K-espaces vectoriels. Si f ∈ LK (E, F ) et g ∈
LK (F, H). Alors gof ∈ LK (E, H).

Preuve. Exercice
Remarques :
1. La loi o n’est pas commutative dans LK (E, F ). Par exemple si E = F = R2 et si
f (x, y) = (y, 0), g(x, y) = (x, 0) pour (x, y) ∈ E. On a f, g ∈ LK (E, F ), f og(x, y) =
(0, 0) et gof (x, y) = (y, 0), donc f og 6= gof
2. Si 0 désigne l’application nulle de E dans E et si f ∈ L(E) et g ∈ L(E), alors f og = 0
n’implique pas f = 0 ou g = 0 ; prenez l’exemple précédent.

4.4.3 Le groupe linéaire (GL(E), o)


GL(E) est l’ensemble des automorphismes de E. Si f et g sont deux automorphismes de E,
alors , d’après ce qui précède, f og est un automorphisme de E.
GL(E) muni de la loi de composition des applications est un groupe, appelé groupe linéaire
de E.
Remarques : GL(E) n’est pas commutatif. Par exemple, si E = R2 et si f (x, y) = (x, x + y),
g(x, y) = (x + y, y) pour (x, y) ∈ E.
On a f, g ∈ GL(E)),
f og(x, y) = (x + y, x + 2y)
et
gof (x, y) = (2x + y, x + y),
donc
f og 6= gof

4.5 Indépendance linéaire


Définition 4.21. Soit n ∈ N∗ et soit n vecteurs x1 , x2 , ..., xn de E. On dit que la suite
(x1 , ..., xn ) est libre, ou encore que x1 , ..., xn sont linéairement indépendantes si
n
X
λ1 x1 + λ2 x2 + ... + λn xn = λi xi = 0 =⇒ λ1 = ... = λn = 0.
i=1

Dans le cas contraire on dit que la suite (x1 , ..., xn ) est liée.
Exemples.
1. La suite (x) est libre ssi x 6= 0. En effet ; si x 6= 0, λx = 0 implique λ = 0, donc (x)
est libre. Si x = 0, 1.x = 0 et (x) est liée.
2. Si E = R3 , V1 = (1, 1, 0), V2 = (0, 1, 1) et V3 = (1, −1, −2).
On a
V1 − 2V2 − V3 = 0E .

57
Donc la suite (V1 , V2 , V3 ) est liée. Par contre (V1 , V2 ) est libre car λV1 + βV2 = (0, 0, 0)
implique λ = β = 0.
Proposition 4.22. Soit n ≥ 2. La suite (x1 , ..., xn ) est liée si et seulement si il existe
k, 1 ≤ k ≤ n et des αi ∈ K, 1 ≤ i ≤ n, i 6= k tels que
n
X
xk = αi xi .
i=1,i6=k

Preuve.P Si la suite (x1 , ..., xn ) est liée, il existe des scalaires λi , 1 ≤ i P


≤ n non tous nuls
tels que i=1 λi xi = 0. Soit k, 1 ≤ k ≤ n tel que λk 6= 0. Alors xk = ni=1,i6=k αi xi , avec
n

αi = −λλk si 1 ≤ i ≤ n , i P
i
6= k.
P P
Réciproquement, si xk = ni=1,i6=k αi xi , on a xk − ni=1,i6=k αi xi = 0, soit ni=1 λi xi = 0 avec
λk = 1 6= 0, et la suite (x1 , ..., xn ) est liée.

Théorème 4.23. Soit n ≥ 2 et soit (x1 , ..., xn ) une suite de n vecteurs de E avec x1 6= 0. La
suite (x1 , ..., xn ) est liée si et seulement si, il existe k, 2 ≤ k ≤ n, tel que xk soit combinaison
linéaire des vecteurs x1 , ..., xk−1 qui le précède dans la suite (x1 , ..., xn ).
Preuve. =⇒)P Si la suite (x1 , ..., xn ) est liée, il existe des scalaires λi , 1 ≤ i ≤ n, non tous
nuls, tels que ni=1 λi xi = 0. Soit k le plus grand indice j, 1 ≤ j ≤ n tel que λj 6= 0. On
Pk
a k 6= 1, car sinon λ1 x1 = 0 avec x1 6= 0 et λ1 6= 0, donc k ≥ 2 et i=1 xi = 0. D’où
Pk−1 −λi
xk = i=1 αi xi avec αi = λk , pour 1 ≤ i ≤ k − 1.
P Pn
⇐=) S’il existe k ≥ 2, tel que xk = k−1 i=1 αi xi , alors i=1 λi xi = 0 avec λk = 1 6= 0. La suite
(x1 , ..., xn ) est donc liée.

Proposition 4.24. 1. Toute suite extraite d’une suite libre est une suite libre.
2. S’il existe une suite liée extraite de la suite (x1 , ..., xn ) alors la suite (x1 , ..., xn ) est
liée.
Preuve.
1. Soit (x1 , ..., xn ) une suitePlibre et soit (xk1 , ..., xkp ) une suite P extraite de la suite
p
(x1 , ..., xn ). Supposons que j=1 λkj xkj = 0. Alors, on a aussi, ni=1 αi xi = 0 avec
αkj = λkj si 1 ≤ j ≤ p et αi = 0 pour 1 ≤ i ≤ n, i ∈ / {k1 , ..., kp }. Comme la suite
(x1 , ..., xn ) est libre, donc αi = 0, 1 ≤ i ≤ n, d’où λkj = 0, 1 ≤ j ≤ p et la suite
(xk1 , ..., xkp ) est libre.
2. C’est une conséquence immédiate de 1.).
Remarques.
1. Une suite libre ne peut contenir le vecteur 0 .
2. Soit x1 , ..., xn une suite libre alors xi 6= xj , ∀i 6= j.
3. Une suite extraite d’une suite liée peut être libre. Par exemple, (x, x) et (x) avec x 6= 0.
Théorème 4.25. Soit n ∈ N et soit (x1 , ..., xn ) une suite libre de E.
1. Pour que le vecteur x ∈ vect(x1 , ..., xn ), il faut et il suffit que la suite (x1 , ..., xn , x)
soit liée.
2. Si x ∈ vect(x1 , ..., xn ), x s’écrit de manière unique
n
X
x= αi xi , αi ∈ K.
i=1

Preuve. 1.) Puisque la suite (x1 , ..., xn ) est libre, x1 6= 0. D’après le théorème 4.23, aucun
des vecteurs xj , 1 ≤ j ≤ n n’est combinaison linéaire de ceux qui le précèdent dans la suite

58
(x1 , ..., xn ).
Alors, d’après le théorème 4.23 :

x ∈ vect(x1 , ..., xn ) ⇐⇒ x est combinaison linéaire des x1 , ..., xn


⇐⇒ la suite (x1 , ..., xn , x) est liée.

2. ) Soit x ∈ vect(x1 , ..., xn ) et supposons que


n
X n
X
x= αi xi = βi xi
i=1 i=1
Pn
Alors, i=1 (αi − βi )xi = 0, d’où αi = βi pour 1 ≤ i ≤ n (car la suite (x1 , ..., xn )) est libre).

Proposition 4.26. Soit E et F deux K−espaces vectoriels et f ∈ L(E, F ). Soit n ∈ N∗ et


(x1 , ..., xn ) une suite de vecteurs de E.
1. Si la suite (x1 , ..., xn ) de E est liée, la suite (f (x1 ), ..., f (xn )) est liée
2. Si la suite (f (x1 ), ..., f (xn )) de F est libre, la suite (x1 , ..., xn ) est une suite libre de E.
Preuve. Immédiate.

Les idées clefs du chapitre :

• Espace vectoriel et sous-espace vectoriel.

• Suite libre et suite génératrice.

• Application linéaire, endomorphisme, isomorphisme, automorphisme.

• Noyau et image d’une application linéaire.

59
4.6 Exercices

Exercice 1.
Les ensembles sont-ils munis d’une structure d’espace vectoriel ?
1) F([0, 1], R) ensemble des applications de [0, 1] dans R.
2) F(R, [0, 1]) ensemble des applications de R dans [0, 1].
3) {(x, y, z) ∈ R3 , tel que 2x + 3y − z = 0}.
4) L’ensemble des suites convergentes dans R.

Exercice 2.
Dans E = F(R, R), quels sont, parmi les sous ensembles suivants, ceux qui sont des sous-
espaces vectoriels de E :
a) {f ∈ E : f (1) = 2f (0)} ;
b) {f ∈ E : f (1) − f (0) = 1};
c) {f ∈ E : f (x) = f (x − a) pour x ∈ R}, ( a ∈ R fixé).

Exercice 3.
Soit F et G deux sous-espaces vectoriels d’un K−espace vectoriel E. Montrer que :
{x ∈ E : ∃y ∈ F, ∃z ∈ G tels que x = y + z}
est le plus petit (pour l’inclusion) sous-espace de E contenant F ∪ G.

Exercice 4.
a) Soit F et G deux sous-espaces de E, montrer que F ∪ G est un sous-espace vectoriel de E
si et seulement, si F ⊂ G ou G ⊂ F .
b) Vérifier que toutes combinaison linéaire finie d’éléments de F ∪ G peut s’ecrire sous forme
x + y, avec x dans F et y dans G.
c) Dans le cas b) précédent, l’écriture x + y est-elle unique ? ( On pourra considérer par
exemple le cas où F = G).
d) que valent F + {0} et F + E ?
e) Vérifier que F + G = G + F .
f ) Soient F , G et H trois sous-espaces vectoriels d’un même K-espace-vectoriel E. Donner
un exemple tel que F + G = F + H et tel que G 6= H, (donc F + G = F + H n’implique pas
G = H !)
Exercice 5.
Montrer que si tout élément x d’un espace vectoriel E se décompose de manière unique sous
la forme y + z avec y dans F et z dans G, alors F et G sont supplémentaires. Autrement dit
la somme E = F + G est directe.

Exercice 6.
Soit le R-espace vectoriel E = F(R, R).Démontrer que l’ensemble P des fonctions paires de
E et l’ensemble I des fonctions impaires de E sont deux sous-espaces supplémentaires.

Exercice 7.
Si E = F ⊕ G, pour tout x de E, on note respectivement p1 (x) et p2 (x) les éléments de
l’unique décomposition de x en y ∈ F et z ∈ G (c’est-à-dire : y = p1 (x) et z = p2 (x)).
Montrer qu’alors p1 et p2 sont deux applications linéaires de E dans E, et que l’on a :
p1 + p2 = IdE , p21 = p1 , p22 = p2 , p1 op2 = p2 op1 = 0.

60
Ainsi que :
Ker(p1 ) = G, Im(p1 ) = F, ker(p2 ) = F, Im(p2 ) = G.
Exercice 8. Soient f1 et f2 les fonctions définies sur [−1, 1] par :
1 1
∀x ∈] − 1, 1[, f1 (x) = et f2 (x) = .
x−1 x+1
1)Montrer que les fonctions f1 et f2 sont linéairement indépendantes.
2) Montrer que la fonction f :] − 1, 1[−→ R, x −→ x22−1 , appartient au sous-espace vectoriel
engendré par f1 et f2 .

Exercice 9. Soient e1 = (1, 1, 0) et e2 = (0, 1, 1) deux vecteurs de R3 .


1) Montrer que e1 et e2 forment une partie libre de R3 .
2) Déterminer le réel α pour que le vecteur (2, 1, α) appartienne au sous-espace vectoriel
engendré par e1 et par e2 .
Exercice 10. Soit E un K−espace vectoriel.
I-1. I) Soit F et G deux sous-espaces vectoriels supplémentairesdans E. On définit l’ap-
plication f : E −→ Ede la manıère suivante si x ∈ E, x = y + z, y ∈ F , z ∈ G, alors
f (x) = y.
Vérifier que f est un endomorphisme de E tel que f 2 = f , (f 2 = f of ).
Déterminer Ker(f ) et Im (f ).
f est appelé laprojection de F parallèlement à G.
I-2. Soit f un endomorphisme de E tel que f 2 = f .

Démontrer que que

E = Im(f ) ⊕ Kef (f )
et que f est la projection sur Im(f ) parallèlemnt à Ker(f ).
II) Soit E = R2 et f : E −→ E définie par f (x, y) = (x − y, y − x)
II-1. Vérifier que f est un endomorphisme de E. Déterminer Ker(f ) et Im(f ).
II-2. Démontrer que E = Ker(f ) ⊕ Im(f ).
II-3. A t-on f 2 = f.

61
Chapitre 5

ESPACES VECTORIELS DE
DIMENSION FINIE

Dans tout ce chapitre K = R ou C.

5.1 Définition d’un espace vectoriel de dimension finie. Bases.


5.1.1 Espace vectoriel engendré par une suite finie. Base
Définition 5.1. Soit E un K−e.v.
On dit que la suite (a1 , ..., an ) de E est une suite génératrice de E, si le sous espace
vect(a1 , ..., an ) est égal à E, c’est à dire si tout vecteur de E est une combinaison linéaire
(C.L.) de a1 , ..., an .
On dit que la suite (e1 , ..., en ) est une base de E si elle est libre et génératrice de E.
On dit que la dimension de E est finie, s’il existe une suite génératrice finie de E. Dans le
cas contraire, E est dit de dimension infinie.
Proposition 5.2. Pour que la suite (e1 , ..., en ) de vecteurs de E soit une base de E, il faut
et il suffit que tout vecteur x de E s’écrit de manière unique :

(1) x = α1 e1 + ... + αn en , αi ∈ K, 1 ≤ i ≤ n.

Preuve. =⇒) Il résulte du théorème 4.25, 2)


⇐=) Puisque tout x s’écrit sous la forme (1), (e1 , ..., en ) est une suite génératrice de E.
D’autre part, si α1 e1 + α2 e2 + ... + αn en = 0 avec αi ∈ K, 1 ≤ i ≤ n, l’égalité e1 + ... + en =
0e1 + ...0en = 0 implique, d’après l’unicité de l’écriture (1),

α1 = ... = αn = 0.

Donc la suite (e1 , ..., en ) est libre.


Ainsi, la suite (e1 , ..., en ) est une base de E.
Définition 5.3. Si la suite (e1 , ..., en ) est une base de E et si x ∈ E, l’écriture (1) est la
décomposition de x et les scalaires α1 , ..., αn sont les coordonnées ou les composantes de
x dans la base (e1 , ..., en ).

62
Exemples.
1. Soit n ∈ N∗ , soit E = Kn . On considère les vecteurs e1 = (1, 0, ..., 0), e2 = (0, 1, 0, 0, ..., 0),
...,en = (0, ..., 0, 1). Pour tout vecteur x = (α1 , ..., αn ) ∈ E, on a
n
X
x= α i ei ,
i=1

donc (e1 , ..., en ) est


P une suite génératrice de E et E et de dimension finie.
De plus l’égalité ni=1 αi ei = 0 s’écrit (α1 , ..., αn ) = 0Rn et implique
α1 = ... = αn = 0.
La suite (e1 , ..., en ) est libre, c’est une base de E.
On appelle cette base la base canonique de Kn .
2. K est un K− espace vectoriel ( cas précédent avec n = 1).
3. Soit n ∈ N et soit Kn [X] le K− e.v.
Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n}.
La suite {1, X, ..., X n } est une base de Kn [X], appelée la base canonique de Kn [X].
4. C est un R−e.v. de dimension finie ; (1, i) est une base de C, puisque tout z ∈ C
s’écrit de manière unique :
z = α + iβ, α, β ∈ R.

5.1.2 Existence de bases


Théorème 5.4. Soit E un K− e.v., non nul. Si (a1 , ..., ap ) est une suite génératrice de E,
alors E admet une base, extraite de la suite (a1 , ..., ap ). Donc : tout espace vectoriel, non nul,
de dimension finie, admet au moins une base.

Preuve. Puisque E 6= {0}, les vecteurs ai ne sont pas tous nuls. Si ak 6= 0, la suite (ak )
est libre. Il existe donc au moins une suite libre extraite de (a1 , ..., ap ). Le nombre d’éléments
d’une suite libre extraite de (a1 , ..., ap ) est majoré par p. Soit n, 1 ≤ n ≤ p, le nombre
maximum d’éléments d’une suite libre extraite de (a1 , ..., ap ) et soit (ai1 , ..., ain ) une telle
suite. Pour tout k, 1 ≤ k ≤ p, la suite (ai1 , ..., ain , ak ) est liée et d’après le théorème 4.25
chapitre 4., ak ∈ vect(ai1 , ..., ain ). On a donc :
E = vect(a1 , ..., ap ) ⊆ vect(ai1 , ..., ain ) ⊆ E,
et par suite

E = vect(ai1 , ..., ain ).


Ainsi (ai1 , ..., ain ) est une suite libre et génératrice de E ; c’est une base de E.

5.2 Dimension d’un espace vectoriel de dimension finie


5.2.1 Le théorème de la dimension
Proposition 5.5. Dans un espace vectoriel engendré par n vecteurs, toute suite de n + 1
vecteurs est liée.
Preuve. Exercice.
(Indication : Raisonner par récurrence sur n) .

63
Théorème 5.6. ( de la dimension ). Dans un K−espace vectoriel E, non nul, de dimension
finie, toutes les bases ont le même nombre d’éléments.

Preuve. Soit (e1 , ..., en ) et (e01 , ..., e0p ) deux bases de E. On peut supposer n ≤ p. Si n < p,
c’est à dire n + 1 ≤ p. On applique la proposition 5.5 à la suite (e1 , ..., en ) et aux vecteurs
e01 , ..., e0n+1 . La suite (e01 , ..., e0n+1 ) est liée et donc aussi la suite (e01 , ..., e0p ). Ceci est absurde
puisque (e01 , ..., e0p ) est une base. Donc n = p.
Définition 5.7. Soit E un K−espace vectoriel, non nul, de dimension finie. Le nombre n
d’éléments de toute base de E est appelé la dimension de E et noté dimK (E) ou simplement
dim(E).
Par définition, la dimension d’un K− e.v. nul est égale à 0 ; c’est à dire : dim{0} = 0

Remarque 5.1.
E 6= {0} ⇐⇒ dimE ≥ 1.

Exemples
1. Soit Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n}. On a dimK (Kn [X]) = n + 1.
2. Si n ∈ N∗ , dimK (Kn ) = n, dimK (K) = 1 et dimR (C) = 2.
Définition 5.8. Dans un K−espace vectoriel E, un sous-espace vectoriel de dimension 1
est appelé une droite vectorielle , et un sous-espace de dimension 2 est appelé un plan
vectoriel .

5.2.2 Rang d’une suite finie de vecteurs

Définition 5.9. Soit x1 , ..., xp , p vecteurs d’un K− e. v. E. On appelle rang de la suite


(x1 , ..., xp ) et on note rg(x1 , ..., xp ), la dimension du sous-espace vectoriel vect(x1 , ..., xp ).

Proposition 5.10. Soit (x1 , ..., xp ) une suite de vecteurs de E. Alors,


1. 0 ≤ rg(x1 , ..., xp ) ≤ p et on a rg(x1 , ..., xp ) = 0 ⇐⇒ x1 = ...xp = 0.
2. rg(x1 , ..., xp ) est égal au nombre maximum d’éléments d’une suite libre extraite de la
suite (x1 , ..., xp ). En particulier, on a

rg(x1 , ..., xp ) = p ⇐⇒ (x1 , ..., xp ) est libre.

3. Si rg(x1 , ..., xp ) = r, toute suite libre de r vecteurs extraite de la suite (x1 , ..., xp ) est
une base de vect(x1 , ..., xp ).
Preuve. Même démonstration que celle du théorème 5.4.

Recherche pratique du rang d’une suite (x1 , ..., xp ) de vecteurs non tous nuls et
d’une base du sous-espace vectoriel vect(x1 , ..., xp ) :
Soit i1 le plus petit entier k , 1 ≤ k ≤ p, tel que xk 6= 0. Ensuite, s’il existe k, i1 < k ≤ p
et tel que (xi1 , xk ) soit libre, soit i2 le plus petit entier k vérifiant ces conditions. Puis, s’il
existe k, i2 < k ≤ p et tel que (xi1 , xi2 , xk ) soit libre, soit i3 le plus petit entier k vérifiant ces
conditions. Et ainsi de suite ... on obtient finalement une suite libre (xi1 , xi2 , ..., xir ) extraite
de la suite x1 , ..., xp telle que pour tout k, 1 ≤ k ≤ p, la suite (xi1 , xi2 , ..., xir , xk ) soit liée.
Alors, d’après le théorème 4.25 chp. 4, xk ∈ vect(xi1 , xi2 , ..., xir ), pour tout k, 1 ≤ k ≤ p.
D’où
vect(x1 , ..., xp ) = vect(xi1 , xi2 , ..., xir ).

64
Il en résulte que (xi1 , xi2 , ..., xir ) est une base de vect(x1 , ..., xp ) et rg(x1 , ..., xp ) = r.

Exemple Soit E = K[X]. Soit la suite (1, X, 1 + X, 1 + X 3 , X − X 3 ).


On a :
* La suite (1, X) est libre.
* La suite (1, X, 1 + X) est liée.
* La suite (1, X, 1 + X 3 ) est libre.
* La suite (1, X, 1 + X 3 ), X − X 3 est liée.
Donc rg(1, X, 1 + X, X 3 , X − X 3 ) = 3 et (1, X, 1 + X 3 ) est une base de vect(1, X, 1 + X, 1 +
X 3, X − X 3)

Remarque 5.2. Si rg(x1 , ..., xp ) = r, une suite extraite de (x1 , ..., xp ) ayant r vecteurs peut
être liée, dans l’exemple précédent r = 3 et (1, X, 1 + X) ainsi que (1 + X, 1 + X 3 , X − X 3 )
sont liées. Par contre (1, X, X − X 3 ) est libre et donc il peut y avoir plusieurs suites libres
extraites de la suite (x1 , ..., xp ), ayant r vecteurs.

5.2.3 Espace vectoriel de dimension finie donnée n


Théorème 5.11. Soit E un K−espace vectoriel de dimension finie n.

1. Toute suite libre a au plus n vecteurs. Toute suite libre de n vecteurs est une base de
E.
2. Toute suite génératrice a au moins n vecteurs. Toute suite génératrice de n vecteurs
est une base de E.
Preuve. 1) Soit (e1 , ..., en ) une base de E. D’après la proposition 5.5, puisque E = vect(e1 , ..., en ),
toute suite (x1 , ..., xn+1 ) est liée et donc toute suite (x1 , ..., xp ) avec p > n est liée.
Soit maintenant (x1 , ..., xn ) une suite libre de E. Pour tout vecteur x ∈ E, la suite (x1 , ..., xn , x)
est liée.
D’après théorème 4.25 chap. 4,

x ∈ V ect(x1 , ..., xn ).

Ainsi, la suite (x1 , ..., xn ) est une base de E.


2) Soit (x1 , ..., xp ) une suite génératrice de E. Le rang de cette suite est n = dimE. Donc,
d’après la proposition 5.10, 1) n ≤ p.
Soit (x1 , ..., xn ) une suite génératrice de E. On a rg(x1 , ..., xn ) = n.
D’apès la proposition 5.10, 2), la suite (x1 , ..., xn ) est libre. C’est une base de E.

Remarque. (Très importante en pratique).


Si dimK (E) = n, n ≥ 1. Pour prouver qu’une suite (x1 , ..., xn ) de n vecteurs de E est une
base de E, il suffit de prouver l’une des deux conditions suivantes :
1. la suite (x1 , ..., xn ) est libre.
2. la suite (x1 , ..., xn ) est génératrice.

5.3 Sous-espaces d’un espace vectoriel de dimension finie


Proposition 5.12. Soit E un K-espace vectoriel de dimension finie n, et F un sous-espace
vectoriel de E. Alors :
1. F est de dimension finie et dimF ≤ dimE.

65
2. Si dimF = dimE, on a
E = F.
Preuve. Si F = {0}, c’est évident.
Soit F 6= {0}, donc E 6= {0} et dimE > 0.
1) Toute suite libre de F est une suite libre de E. Cette suite a au plus n éléments (théorème
5.4,1) ). Soit p le nombre maximum d’éléments d’une suite libre de F . On a 0 < p ≤ n. Soit
(x1 , ..., xp ) une suite libre de F , et soit G = vect(x1 , ..., xp ). Soit x ∈ F . La suite (x1 , ..., xp , x)
est liée, donc x ∈ G d’après le théorème 4.25 ch. 4 ; on a donc F ⊆ G, donc F = G et
(x1 , ..., xp ) est une suite génératrice de F .
Par suite (x1 , ..., xp ) est une base de F et on a dimF = p ≤ n = dimE.
2) Si dimF = dimE, toute base de F est une suite libre de n vecteurs de E, donc une base
de E( d’après le théorème 5.4,1). Ce qui implique F = E.
Corollaire 5.13. Soit E un K-e.v. et F et G deux sous-espaces vectoriels de dimension finie,
alors :
F ⊆ G et dimF = dimG =⇒ F = G.
Il suffit d’appliquer la proposition 5.12, 2), en remplaçant E par G.

Proposition 5.14. Soit E un K-espace vectoriel de dimension finie. Pour des sous-espaces
vectoriels F et G de E, les deux assertions suivantes sont équivalentes :
(1) E = F ⊕ G
(2) F ∩ G = {0} et dim E+ dim G=dim E

Preuve. Si F = {0} ou G = {0} c’est évident.


Si F 6= {0} et G 6= {0}, soit (a1 , ..., ap ) et (b1 , ..., bq ) deux bases de F et G respectivement.
(1) =⇒ (2) Il suffit de montrer que {a1 , ..., ap , b1 , ..., bq } est une base de E.
(2) =⇒ (1) F ∩ G = {0} implique que {a1 , ..., ap , b1 , ..., bq } est libre, puisque p + q = dimE,
c’est une base de E. P P
Pour tout x ∈ E, x = pi=1 αi ai + qi=1 βi bi = y + z ; avec y ∈ F et z ∈ G.
Donc
F + G = E.
Par conséquent,
E = F ⊕ G.
Définition 5.15. Dans un espace vectoriel de dimension n > 0, on appelle hyperplan
vectoriel tout sous-espace vectoriel de dimension n − 1. Un hyperplan vectoriel est donc un
sous-espace vectoriel dont les supplémentaires sont des droites vectorielles.

5.4 Applications linéaires d’un K-e.v. de dimension finie dans


un K e. v.
Proposition 5.16. Soit E et F deux K-espaces vectoriels. E étant de dimension finie n ≥ 1.
Soit (e1 , ..., en ) une base de E et a1 ,...,an n vecteurs de F . Il existe une application linéaire
f de E dans F et une seule telle que f (ei ) = ai , 1 ≤ i ≤ n.
Preuve. P
Existence : Pour tout x ∈ E, on a x = ni=1 αi ei , αi ∈ K, les αi sont uniques. L’application

f : E −→ F
Pn
x −→ i=1 αi ai

66
est une application linéaire de E dans F telle que f (ei ) = ai , pour tout i, 1 ≤ i ≤ n.
Unicité : Supposons qu’il existe une P autre application g telle que g(ei ) = ai .
Soit x ∈ E, ∃!αi ∈ K, 1 ≤ i ≤ n, x = ni=1 αi ei .
Puisque f est une application linéaire, on a :
X X X
f (x) = αi f (ei ) = αi ai = αi g(ei ) = g(x).
i i i

Ceci étant vrai pour tout x ∈ E.


Donc
f = g.
D’où l’unicité.
Théorème 5.17. Soit E et F deux K-espaces vectoriels. E étant de dimension finie n ≥ 1.
Soit (e1 , ..., en ) une base de E et f ∈ L(E, F ). Alors,
1. f est injective ⇐⇒ (f (e1 ), ..., f (en )) est une suite libre dans F .
2. f est surjective ⇐⇒ (f (e1 ), ..., f (en )) est une suite génératrice de F .
3. f est un isomorphisme ⇐⇒ (f (e1 ), ..., f (en )) est une base de F .
Preuve. Voir TD.
Corollaire 5.18. 1. Soit E un K−espace vectoriel de dimension finie et f un isomor-
phisme de E sur un K− espace vectoriel F . Alors F est de dimensin finie et on a
dimE = dimF.
2. Deux K−espaces vectoriels de dimension finie tels que dimE = dimF sont iso-
morphes. En particuler, tout K-espace vectoriel de dimension n est isomorphe à Kn .
Preuve. 1) C’est évident si E = {0}.
Si dimE ≥ 1, le résultat découle de théorème 5.17,3).
2) Le résultat est évidente si E = F = {0}.
Si dimE = dimF ≥ 1. Soit (e1 , ..., en ) une base de E et (f1 , ..., fn ) une base de F . D’après la
proposition 5.16, il existe une application linéaire unique f de E dans F telle que f (ei ) = fi ,
pour 1 ≤ i ≤ n. D’après le théorème 5.17, 3) f est un isomorphisme.
Théorème 5.19. (Théorème noyau-image ou encore théorème du rang)
Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit f ∈ L(E, F ). Alors
Im(f ) est un sous-espace vectoriel de dimension finie de F et on a :

dimKerf + dimImf = dimE.

Preuve. Soit E 0 un sous-espace vectoriel de E tel que E 0 ⊕ Kerf = E. Soit ϕ la restriction


de f à E 0 . ϕ est une application linéaire comme la restriction d’une application linéaire à un
s.e.v. ϕ ∈ L(E 0 , Imf ).
Montrons que ϕ est un isomorphisme de E 0 sur Imf .
1) ϕ est injective : Soit x ∈ Kerϕ. Donc x ∈ E 0 et f (x) = ϕ(x) = 0.
D’où x ∈ E 0 ∩ Kerf = {0}, donc x = 0.
Par suite
Kerϕ = {0}.

2) ϕ est surjective : Soit y ∈ Imf . Alors il existe x ∈ E tel que f (x) = y.


Puisque
E = E 0 ⊕ Kerf,
il existe x1 ∈ E 0 et x2 ∈ Kerf tel que x = x1 + x2 .
On a f (x) = f (x1 ) + f (x2 ) = f (x1 ) = ϕ(x1 ). D’où y = ϕ(x1 ) ∈ Imϕ.

67
Ceci montre la surjectivité de ϕ.
Par suite, ϕ est un isomorphisme de E 0 sur Imf .
Donc
dimE 0 = dimImf.
Or,
E = E 0 ⊕ Kerf.
Ce qui donne
dimE = dimE 0 + Kerf = dimImf + dimKerf.

Remarques :
1. Dans ce théorème F n’est pas supposé de dimension finie.
2. Le théorème noyau-image donne une relation entre les dimensions des sous-espaces
kerf , Imf et dimE.
Exercice .
Soient E un espace vectoriel de dimension finie, et f un endomorphisme de E.
1) Montrer qu’on a toujours :

dimE = dimKerf + dimImf.

(Attention en général la somme Kerf + Imf n’est pas toujours directe !)


2) Comparer :
a) Ker(f ) et Ker(f 2 ).
b) Imf et Imf 2 .
3) Montrer que les propositions suivantes sont équivalentes :
i) Kerf ⊕ Imf = E ;
ii) Imf = Imf 2 ;
iii) Kerf = Kerf 2 .
iv) Kerf ∩ Imf = {0}.

Définition 5.20. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit
f ∈ L(E, F ). La dimension du sous-espace vectoriel Imf (= f (F )) est appelée le rang de
f et on note rg(f ).
Remarque : Si (e1 , ..., en ) est une base de E, puisque Imf = V ect(f (e1 ), ..., f (en )), on a
rg(f ) = rg(f (e1 ), ..., f (en )).
Corollaire 5.21. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit
f ∈ L(E, F ). On a :
1. f est injective ⇐⇒ dimf (E) = dimE ⇐⇒ rg(f ) = dimE.
2. f est injective ⇐⇒ pour tout sous-espace vectoriel G de E, on a

dimf (G) = dimG

Preuve. 1) Conséquence immédiate du théorème noyau-image.


2) Si f est injective et si G est un sous-espace vectoriel de E, alors f /G est injective.
D’après 1) dimfG (G) = dimG.
D’où
dimf (G) = dimG.
La réciproque résulte de 1) avec G = E.

Application du théorème noyau-image :

68
Proposition 5.22. ( Equation d’un hyperplan vectoriel)
Soit E un K-espace vectoriel de dimension n ≥ 1.
1. Le noyau d’une forme linéaire f sur E, non nulle, est un hyperplan vectoriel.
2. Réciproquement : si H est un hyperplan de E, il existe au moins une forme linéaire
sur E, non nulle, dont le noyau est H.
Preuve. 1. Imf est un sous-espace vectoriel de K, puisque dimK (K) = 1, on a dimImf ≤ 1.
Or f 6= 0, donc Imf 6= {0}.
Par suite dimImf = 1.
Finalement,
dimKerf = dimE − dimImf = n − 1.
2. Si n = 1, H = {0} et toute forme linéaire sur E, non nulle, convient.
Si n ≥ 2, soit (h1 , ..., hn−1 ) une base de H ; on la complète en une base (h1 , ..., hn−1 , a) de E.
Soit f ∈ L(E, K) telle que f (hi ) = 0 pour tout i, 1 ≤ i ≤ n − 1, et f (a) 6= 0.
On a
H ⊆ Kerf.
D’autre part, puisque f (a) 6= 0, on a f 6= 0 et d’après 1.)

dimKerf = n − 1 = dimH.

Il en résulte que H = Kerf.

Les idées clefs du chapitre :


• un espace vectoriel de type fini admet des bases (systm̀es libres générateurs)
• deux bases ont le même cardinal : la dimension de l’espace vectoriel
• dim(F + G) = dimF + dimG − dim(F ∩ G).
• la somme F + G est directe ⇔ dim(F + G) = dimF + dimG.
• rang d’une application linéaire
• théorème du rang.

.........................................................................

69
Exercice 1.
Dans l’espace vectoriel E = R3 , on considère les vecteurs a = (1, −1, 1), b = (1, 0, 1) et
c = (1, −1, 1).
1) Écrire les vecteurs de la base canonique de E.
2) Démontrer que (a, b, c) est une base de E.
3) Quelles sont, dans cette base, les coordonnées du vecteur x = (x1 , x2 , x3 ) ?

Exercice 2.
Soient E et F deux K-espaces vectoriels, f ∈ L(E, F ). Montrer que les deux assertions sui-
vantes sont équivalentes :
(a) f est injective ;
(b) pour toutes suite libre (x1 , x2 , ..., xn ) de vecteurs de E, (f (x1 ), ...., f (xn )) est une suite
libre de vecteurs de F .

Exercice 3.
Soient E et F deux K-e.v..E étant de dimension finie n ≥ 0. Soit(e1 , e2 , ..., en ) une base de
E et f ∈ L(E, F ). Démontrer qu’on a :
1) f est injective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite libre de F .
2) f est surjective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite génératrice de F .
3) f est isomorphisme ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une base de F .

Exercice 4.
Soit f un endomorphisme d’un espace vectoreil E. Montrer que si E est de dimension finie,
les deux conditions suivantes sont équivalentes :
(a) (∀x ∈ E) (∃n ∈ N) (f n (x) = 0).
(b) (∃n ∈ N) (∀x ∈ E) (f n (x) = 0).
(Remarque : un endomorphisme vérifiant (b) est dit nilpotent).

Exercice 5.
1) Soit f l’application de R3 dans R3 définie par :

f (x, y, z) = (x + y + z, x − y + 2z, x − 2y − z).

a) Montrer que f est un endomorphisme de R3 .


b) Quel est son noyau ?
2) Soit f ∈ L(R2 , R3 ) une application linéaire définie par

f (x, y) = (x − y, y − x, 0).

Déterminer une base de chacun des sous-espaces Im(f ) et Ker(f ).

Exercice 6. Soit E un K-e.v. de dimension finie n et f un endomorphisme de E tel que il


existe un vecteur u pour lequel (f k (u))1≤k≤n est une base de E.
1) Montrer que f est un automorphisme de E.
2) Montrer qu’il existe n scalaires λi tels que

(f n + λn−1 f n−1 + ... + λ0 IdE )(u) = 0

3) En déduire que
f n + λn−1 f n−1 + ... + λ0 IdE = 0
Exercice 7.
Soient E et F deux K-e.v., non nuls, de dimensions respectives p et q. Soit (e1 , ..., ep ) une

70
base de E et (f1 , ..., fq ) une base de F. Démontrer que l’espace vectoriel E × F est de dimen-
sion finie. Donner une base de E × F . Quelle est la dimension de E × F ?

Exercice 8.
Soient E et F deux sous-espaces vectoriels d’un espace vectoriel E, et f : F × G −→ E,
l’application définie par : f (x, y) = x + y. Montrer que :
1) f est une application linéaire surjective de E × F dans F + G, autrement dit f envoie
E × F sur F + G, ou f (F × G) = F + G.
2) f est injective si et seulement, si F ∩ G = {0}.
3 Si F ∩ G = {0}, f est un isomorphisme de F × G sur F + G.

Exercice 9.
Soit E un K-espace vectoriel, F et G deux sous espaces vectoriels de dimension finie, de E.
1) Montrer que F + G et F ∩ G sont de dimension finie.
2) Soit H = F ∩ G et U un suplémentaire de H dans G. Montrer que F + G = F ⊕ U .
3) Déduire que :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Exercice 10.On considère la suite (Pn )n∈N de polynômes de R[X] tels que

∀k ∈ N, deg(Pk ) = k.

10-1 Montrer que, pour tout n ∈ N, (Pk )0≤k≤n est une base de Rn [X].
10-2 Déduire que (Pk )k∈N est une base de R[X].
10-3 Donner un exemple d’endomorphisme surjectif et non injectif et un exemple d’en-
domorphisme injectif et non surjectif.
10-4 Soit f et g deux endomorphismes. On suppose que f og = IdE , que peut-on dire de
f et g ?

71
Chapitre 6

MATRICES ET SYSTÈMES
LINÉAIRES

Dans tout ce chapitre K = R ou C

6.1 Généralités
6.1.1 Définitions
Soit deux entiers p ≥ 1, n ≥ 1 , on appelle matrice de type (p, n) ou (p, n)−matrice à
coefficients dans K, un tableau rectangulaire à p lignes, n colonnes d’éléments de K.
 
a1,1 a1,2 . . . a1,n
 a2,1 a2,2 . . . a2,n 
 
a= . .. .. 
 .. . . 
ap,1 ap,2 . . . ap,n
Les éléments ai,j de K , 1 ≤ i ≤ p et 1 ≤ j ≤ n, sont les coefficients de la matrice A.
Pour représenter une matrice, on utilise la notation (ai,j )1≤i,≤p 1≤j≤n ou plus simplement
(ai,j ) lorsqu’il n’y a pas de confusion.
Exemple : K = R, p = 3, n = 2
 √ 
2 1
 1 1  ∈ M3,2 (R).
4
2 0, 7
Egalité de deux matrices : Soit A = (ai,j ) ∈ Mn,p (K) et B(bi,j ) ∈ Mn0 ,p0 (K).
Par définition
A = B ⇐⇒ p = p0 , n = n0 et ai,j = bi,j , ∀1 ≤ i ≤ p, 1 ≤ j ≤ n.
Vecteurs lignes et vecteurs colonnes : On appelle ieme vecteur ligne de la matrice A =
(ai,j ) ∈ Mp,n (K), le vecteur
¡ ¢
ai,1 ai,2 . . . ai,n ∈ Kn .
On appelle j eme vecteur colonne de la matrice A = (ai,j ) ∈ Mp,n (K), le vecteur
 
a1,j
 a2,j 
 
 ..  ∈ Kp .
 . 
ap,j

72
Remarques :
• Si n = p, la (n, n)−matrice A = (ai,j ) ∈ Mn,n (K) est appelée matrice carrée d’ordre
n. On note Mn (K) au lieu de Mn,n (K).
Soit A ∈ Mn (K) :  
a1,1 a1,2 . . . a1,n
 a2,1 a2,2 . . . a2,n 
 
A= . .. .. 
 .. . . 
an,1 an,2 . . . an,n
Les coefficients ai,i , 1 ≤ i ≤ n sont appelés les coefficients diagonaux de la matrice
carrée A. Ils constituent la diagonale principale de A.

• Une matrice carrée est dite triangulaire supérieure (resp. triangulaire inférieure) si tous
ses coefficients situés au dessous (resp. au dessus) de la diagonale principale sont nuls.
Une matrice triangulaire supérieure s’écrit :
 
a1,1 a1,2 . . . a1,n
 0 a2,2 . . . a2,n 
 
A= . .. 
 . . 0 . 
0 . . . 0 an,n

Une matrice triangulaire inférieure s’écrit :


 
a1,1 0 ... 0
 .. 
 a2,1 a2,2 0 . 
A= .  
. 
 .. .. 0 
an,1 an,2 . . . an,n

Une matrice carrée est dite diagonale si tous ses coefficients autres que les coefficients
diagonaux sont nuls, c’une matrice de la forme :
 
a1,1 0 . . . 0
 .. 
 0 a2,2 0 . 
A= . 
. 
 . 0 0 
0 . . . 0 an,n

6.1.2 Transposée d’une matrice


Définition 6.1. Soit A = (ai,j ) ∈ Mp,n (K). On appelle transposée de la (p, n)-matrice A, et
on note t A, la (n, p)−matrice (bi,j ) telle que bi,j = aj,i , 1 ≤ i ≤ n et 1 ≤ j ≤ p.
En pratique, t A est déduite de A par échange des lignes et des colonnes.

Remarques :
1. t (t A) = A, t (AB) = t B t A et t (A + B) = t A +t B.
2. L’application A −→t A est une bijection de Mp,n (K) sur Mp,n (K).
Définition 6.2. Une matrice carrée A = (ai,j ) ∈ Mn (K) est dite symétrique si t A = A.
Autrement dit,
ai,j = aj,i ∀1 ≤ i, j ≤ n.

73
6.2 Opérations sur les matrices
6.2.1 L’espace vectoriel Mp,n (K)
Définition 6.3. On appelle somme des deux matrices A = (ai,j ) ∈ Mp,n (K) et B = (bi,j ) ∈
Mp,n (K), et on note A + B, la matrice C = (ci,j ) ∈ Mp,n (K) telle que
ci,j = ai,j + bi,j , 1 ≤ i ≤ p, 1 ≤ j ≤ n
Exemple :
     
1 3 1 0 1 2 1 4 3
 0 5 2   5 6 4   5 11 6 
A=
 2
, B= , C= .
√ 6 5   7 4 0   9
√ 10 5 
2 i j 0 1 0 2 i+1 j
Définition 6.4. On appelle produit de la matrice A = (ai,j ) ∈ Mp,n (K) par le scalaire λ ∈ K,
et on note λA, la matrice A0 = (a0i,j ) ∈ Mp,n (K) telle que
a0i,j = λai,j 1 ≤ i ≤ p, 1 ≤ j ≤ n
Exemple :
   1 −5 
1 −5 0 3 3 0
1
 2 6 1   2
= 3 2 1
3


3 3 9 4   1 3 4
3

−i
−i 0 0 3 0 0
Théorème 6.5. L’ensemble Mp,n (K) muni de l’addition (A, B) −→ A + B et de la multi-
plication externe (λ, A) −→ λA, ayant K comme corps des scalaires, est un K-e.v.

Preuve. L’élément nul de Mp,n (K) est la matrice dont tous les coefficients sont nuls, appelée
matrice nulle, et notée par 0.
L’opposé de A = (ai,j ) est la matrice −A = (−ai,j ). Les autres axiomes d’un K−e.v. sont
laissés en exercice.

6.2.2 Base canonique et dimension de Mp,n (K)


pour 1 ≤ i ≤ p, 1 ≤ j ≤ n, la matrice élémentaire Ei,j ∈ Mp,n (K) est la (p, n)−matrice
dont le coefficient situé à l’intersection de la ieme ligne et de la j eme colonne est égal à 1 et
dont tous les autres coefficients sont nuls.

Proposition 6.6. La suite (E1,1 , E1,2 , ..., E2,1 , ..., Ep,n ) est une base de Mp,n (K) appelée base
canonique de Mp,n (K). Donc dimMp,n (K) = np.
Preuve.
A Ecrire..................

6.2.3 Multiplication des matrices


Définition 6.7. On appelle produit de la (n, p)−matrice A = (ai,j ) ∈ Mp,n (K) par la (n, q)-
matrice B = (bi,j ) ∈ Mn,q (K), et on note AB, la (p, q)−matrice C = (ci,j ) ∈ Mp,q (K) telle
que
Xn
ci,j = ai,k bk,j 1 ≤ i ≤ p, 1 ≤ j ≤ n.
k=1

74
Exemple :
 
  1 0
1 3 2 0  −2 −1 
A =  0 −1 −3 −1  ∈ M3,4 (R), B=
 0

2 
−2 0 1 2
1 3
 
−5 1
AB =  1 −8  .
0 8
Remarques :
1. La multiplication des matrices est associative et distributive par rapport à l’addition.
2. Si A ∈ Mp,n (K) et B ∈ Mn,q (K), on a t (AB) = t B t A. (Attention à l’ordre !)

6.2.4 Rang d’une matrice


Définition 6.8. Soit A = (ai,j ) ∈ Mp,n (K). On appelle rang de la matrice A, et on note
rg(A), le rang de la suite des vecteurs colonnes.
D’une part, on a rgA ≤ n. D’autre part, les vecteurs colonnes de A sont dans Kp , donc
rgA ≤ p.
D’où :
rgA ≤ min(n, p).
Exemple :
Remarque : Soit E un K−espace P vectoriel de dimension p > 0. B = (e1 , ..., ep ) une base
de E et soit les n vecteurs xj = pi=1 ai,j ei , 1 ≤ j ≤ n. Alors le rang de la suite (x1 , ..., x − n)
est égal au rang de la (p, n)−matrice A = (ai,j ) ∈ Mp,n (K) (dont la jeme ) colonne est
constituée par les coordonnées de xj dans la base B.

6.3 Matrice d’une application linéaire


Soit E et F deux K-e.v. non nuls de dimensions respectives n et p. Soit B = (e1 , ..., en )
une base de E et B0 = (f1 , ..., fp ) une base de F et soit ϕ une application linéaire de E dans
F . On sait que ϕ est déterminée par les images des vecteurs de la base B.
Posons :
Xp
ϕ(ej ) = ai,j fi , 1 ≤ j ≤ n.
i=1

Définition 6.9. On appelle matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases
B = (e1 , ..., en ) de E et B 0 = (f1 , ..., fp ) de F , la (p, n)−matrice A = (ai,j ) dont la jeme
colonne :  
a1,j
 a2,j 
 
 .. 
 . 
ap,j
est constituée par les coordonnées du vecteur ϕ(ej ) dans la base B0 = (f1 , ..., fp ).
Autrement dit :
ϕ(e1 ) ϕ(e2 ) . . . ϕ(en )

75
 
a1,1 a1,2 . . . a1,n f1
 a2,1 a2,2 . . . a2,n  f2
 
A= .. .. ..  ..
 . . .  .
ap,1 ap,2 . . . ap,n fp
L’application ϕ : E −→ F est déterminée par sa matrice A dans les bases B et B 0 .
Exemples :
Soit n ∈ N et soit le R−espace vectoriel En = {P ∈ R[X]/P = 0 ou degP ≤ n}.
1. Soit ϕ ∈ L(E3 , E2 ) définie par ϕ(P ) = P 0 . Alors la matrice de ϕ dans les bases
canoniques de E3 et de E2 est :
 
0 1 0 0
Mϕ =  0 0 2 0  ∈ M3,4 (R).
0 0 0 3

2. Soit ϕ ∈ L(E3 , E3 ) définie par ϕ(P ) = P 0 . Alors la matrice de ϕ dans la base cano-
niques de E3 est :  
0 1 0 0
 0 0 2 0 
Mϕ =   0
 ∈ M4 (R).
0 0 3 
0 0 0 0
3. Soit f ∈ L(R3 ) définie par :

 f (e1 ) = e1 + 3e2
f (2) = e2

f (e3 ) = e3

avec B = (e1 , e2 , e3 ) est la base canonique de R3 .


 
1 0 0
M at(f, B) =  3 1 0  ∈ M3 (R).
0 0 1

Remarques :
1. La matrice d’une application linéaire ϕ : E −→ F dans les bases B de E et B0 de F
dépend évidemment des bases choisies dans E et F .
2. Si A et B sont les matrices respectives des applications ϕ ∈ L(E, F ) et ψ ∈ L(E, F ),
dans les bases B et B 0 , la matrice de ϕ + ψ dans les bases B et B0 est A + B.
3. Si A est la matrice de ϕ ∈ L(E, F ) dans les bases B et B 0 , et si λ ∈ K, alors la matrice
de l’application linéaire λϕ est λA.
4. Si B est la matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases B = (e1 , ..., eq )
et B0 = (f1 , ..., fn ), et si A est la matrice de l’application linéaire ψ ∈ L(F, G), dans
les bases B0 et B00 = (g1 , ..., gp ), alors la matrice de ψoϕ dans les bases B et B00 est le
produit AB.
En effet, on a
n
X
ϕ(ej ) = bk,j fk
k=1
pour 1 ≤ j ≤ q.
Et pour 1 ≤ k ≤ n, on a
p
X
ψ(fk ) = ai,k gi .
i=1

76
Donc, pour 1 ≤ j ≤ q, on a
P P P P P
ψoϕ(ej ) = nk=1 bk,j ψ(fk ) = nk=1 bk,j ( pi=1 ai,k gi ) = nk=1 pi=1 (bk,j ai,k )gi
Pp Pn Pp
= i=1 ( k=1 ai,k bk,j )gi = i=1 ci,j gi
Pn
avec ci,j = k=1 ai,k bk,j pour 1 ≤ i ≤ p et 1 ≤ j ≤ q. Donc la matrice C de l’application
linéaire ψoϕ est égale à AB.
Proposition 6.10. Les bases B = (e1 , ..., en ) et B 0 = (f1 , ..., fp ) étant fixées. Désignons par
Mϕ la matrice de ϕ ∈ L(E, F ) dans les bases B et B0 . Alors l’application :
J : L(E, F ) −→ Mp,n (K)
ϕ −→ Mϕ
est un isomorphisme.

Preuve.
J est injective : car Mϕ = Mψ implique ϕ(ej ) = ψ(ej ) pour 1 ≤ j ≤ n et donc ϕ = ψ.
J est surjective : car si A = (ai,j ) ∈ Mp,n (K), soit ϕ ∈ L(E, F ) définie par
p
X
ϕ(ej ) = ai,j fi , 1 ≤ j ≤ n.
i=1

Alors Mϕ = A.
Donc J est surjective.
De plus, J est clairement linéaire d’après la remarque précédente.
Théorème 6.11. Soit E et F deux K−e.v. non nuls, de dimensions respectives n et p et soit
ϕ ∈ L(E, F ). Si A est la matrice de ϕ dans les bases B = (e1 , ..., en )de E et B 0 = (f1 , ..., fp )
de F , le rang de ϕ est égal au rang de A.

Preuve. On a rgϕ = dimϕ(E) = dim vect(ϕ(e1 ), ..., ϕ(en )).


Donc rgϕ = rg(ϕ(e1 ), ..., ϕ(en )) = rgA.
D’où rgϕ = rgA

6.4 Matrices carrées inversibles


Définition 6.12. Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle
que AB = BA = In (In est la matrice unité d’ordre n ).
Une telle matrice B si elle existe est unique. B est alors appelée l’inverse de A et notée A−1 .

Proposition 6.13. 1. Si A ∈ Mn (K) et B ∈ Mn (K) sont inversibles, alors AB est


inversible et on (AB)−1 = B −1 A−1 .
2. Si A est inversible, alors t A est inversible et on a (t A)−1 = t (A−1 ).
Preuve. 1. A inversible =⇒ ∃ A−1 telle que AA−1 = A−1 A = In .
B inversible =⇒ ∃ B −1 telle que BB −1 = B −1 B = In .
(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In .
(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In .
Donc AB est inversible et (AB)−1 = B −1 A−1 .
2. A inversible =⇒ ∃ A−1 telle que AA−1 = A−1 A = In .
(t A)t (A−1 ) = t (A−1 A) = t In = In .
( t A−1 t A) = t (AA−1 ) = t In = In .
Donc t A est inversible et on a (t A)−1 = t (A−1 ).

77
Théorème 6.14. Soit A ∈ Mn (K), E et F deux K−e. v. non nuls de dimension n. B une
base de E et B 0 une base de F . Soit ϕ ∈ L(E, F ), de matrice A dans les bases B et B0 . Les
propositions suivantes sont équivalentes :
1. Il existe B ∈ Mn (K) telle que BA = In .
2. Il existe C ∈ Mn (K) telle que AC = In
3. ϕ est un isomorphisme de E sur F .
4. A est inversible.
Preuve. (1) =⇒ (3) Soit g ∈ L(F, E) de matrice B dans les bases B0 et B.
goϕ ∈ L(E) et Mgoϕ = BA = In .
Donc goϕ = IdE .
Soit x ∈ Kerϕ, x = goϕ(x) = g(ϕ(x)) = g(0) = 0.
Donc
Kerϕ = {0}.
D’où ϕ est injective.
D’où ϕ est un isomorphisme de E sur F .
(2) =⇒ (3) Soit h ∈ L(F, E) de matrice C dans B0 et B. ϕoh ∈ L(F ) et Mϕoh = AC = In .
Donc ϕoh = IdF .
Soit y ∈ F , on a y = (ϕoh)(y) = ϕ(h(y).) Donc F ⊆ Imϕ, ce qui implique que ϕ est
surjective.
D’où ϕ est un isomorphisme de E sur F .
(3) =⇒ (4). Soit A0 la matrice de ϕ−1 dans les bases B0 et B. On a ϕ−1 oϕ = In et Mϕ−1 oϕ =
A0 A = In .
De même ϕoϕ−1 = IdF et Mϕoϕ−1 = AA0 = In .
Donc A est inversible.
(4) =⇒ (1) et (4) =⇒ (2) sont évidentes.
Corollaire 6.15. Soit A ∈ Mn (K). Les propositions suivantes sont équivalentes :
1. A est inversible.
2. rg A=n.
3. Les vecteurs colonnes de A constituent une base de Kn .
Preuve. Soit ϕ ∈ L(Kn ) de matrice A dans la base canonique de Kn .
(1) =⇒ (2)) On a :

rgA = rg(ϕ) = dim vect(ϕ(e1 ), ..., ϕ(en )) = dimF = n.

(2) =⇒ (3)) La suite (ϕ(e1 ), ..., ϕ(en )) est libre et dimF = n, donc (ϕ(e1 ), ..., ϕ(en )) est une
base de F.
(3) =⇒ (1) L’image d’une base par ϕ est une base.
Donc ϕ est un isomorphisme.
Par suite A est inversible.

6.5 Changement de base


Soit E un K−e.v. non nul de dimension n. Soit B = (e1 , ..., en ) une base de E et B 0 =
(e01 , ..., e0n )
une autre base de E. On a
n
X
e0j = pi,j ei , 1 ≤ j ≤ n.
i=1

78
Posons  
p1,1 p1,2 . . . p1,n
 p2,1 p2,2 . . . p2,n 
 
P = .. .. ..  ∈ Mn (K).
 . . . 
pn,1 pn,2 . . . pn,n
Le rang de la matrice P = (pi,j ) ∈ Mn (K) est égal au rang de la suite (e01 , ..., e0n ). Donc
rgP = n et P est inversible.

Définition 6.16. La matrice P = (pi,j ) ∈ Mn (K) dont la j eme colonne est constituée
par les coordonnées de e0j dans la base B = (e1 , ..., en ) est appelée matrice de pas-
sage de la base B = (e1 , ..., en ) à la base B0 = (e01 , ..., e0n ). C’est une matrice inversible.

6.5.1 Action d’un changement de base sur les coordonnées d’un vecteur
Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ) deux bases d’un K−e.v. E de dimension n. Soit
x ∈ E, on a :
X n n
X
x= xi ei = x0j e0j .
i=1 j=1

Associons à ces deux décompositions les matrices colonnes :


   0 
x1 x1
 x2   x0 
   2 
X = (x)B =  .  et X 0 = (x)B0 =  .  ∈ Mn,1 (K).
 ..   .. 
xn x0n

Soit P = (pP 0
i,j ) ∈ Mn (K) la matrice de passage de B à B .
0 n
On a ej = i=1 pi,j ei , 1 ≤ j ≤ n.
On a
Xn Xn n
X n X
X n n
X
0 0 0 0
x= xj ej = xj pi,j ei = ( xj pi,j )ei = xi ei
j=1 j=1 i=1 i=1 j=1 i=1
Pn 0
D’où, ∀1 ≤ i ≤ n, on xi = j=1 pi,j xj . Soit sous forme matricielle :
  Pn
    
x1 p x0 p1,1 p1,2 . . . p1,n x01
Pnj=1 1,j 0j
      x02 
 x2   j=1 p2,j xj   p2,1 p2,2 . . . p2,n  
X= ..= .. = .. .. ..  ..  = P X 0.
 .    . . .  . 
Pn .
xn 0
j=1 pn,j xj pn,1 pn,2 . . . pn,n x0n

Donc (x)B = P (x)B0 .


Proposition 6.17. Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ) deux bases d’un K−e.v. E et
P la matrice de passage de B à B0 . Alors la matrice de passage de B0 à B est la matrice P −1 .
Preuve. Pour tout x ∈ E, (x)B = P (x)B0 . P étant inversible, donc (x)B0 = P −1 (x)B . Par
suite P −1 est la matrice de passage de B0 à B.

79
6.5.2 Action d’un changement de base sur la matrice d’une application
linéaire
Proposition 6.18. Soit E et F deux K−e.v., non nuls, de dimensions respectives n et p.
Soit ϕ ∈ L(E, F ). Soit A la matrice de ϕ dans les bases B de E et B1 de F . Soit A0 la
matrice de ϕ dans les bases B 0 de E et B10 de F . Soit P la matrice de passage de B à B0 et
Q la matrice de passage de B1 à B10 , on a

A0 = Q−1 AP.

Preuve.
Soit x ∈ E et y = ϕ(x). On a (y)B1 = A(x)B et (y)B10 = A0 (x)B0 .
Or (y)B1 = Q(y)B10 et (x)B = P (x)B0 .
Donc :
(y)B10 = Q−1 (y)B1 = Q−1 A(x)B = Q−1 AP (x)B0 = A0 (x)B0
D’où :
A0 = Q−1 AP.

Définition 6.19. Deux matrices (p, n)−matrices , A ∈ Mp,n (K) et B ∈ Mp,n (K) sont dites
équivalentes s’il existe deux matrices carrées R ∈ Mp (K) et S ∈ Mn (K) telles que :

B = RAS.

Définition 6.20. Deux matrices carrées, d’ordre n, A ∈ Mn (K) et B ∈ Mn (K) sont dites
semblables s’il existe une matrice carrée inversible P ∈ Mn (K) telle que

B = P −1 AP.

6.6 Systèmes linéaires


6.6.1 Définitions
Soit p et n deux entiers ≥ 1. On appelle système linéaire de p équations à n inconnues à
coefficients dans K, un ensemble d’équations :


 a1,1 x1 +a1,2 x2 + . . . +a1,n xn = b1

 a2,1 x1 a2,2 x2 + . . . a2,n xn = b2
S= .. .. ..

 . . .


ap,1 x1 ap,2 x2 + . . . ap,n xn = bp
• Les éléments ai,j , 1 ≤ i ≤ p et 1 ≤ j ≤ n, appartiennent à K et sont appelés les coefficients
de (S).
• Les éléments bi , 1 ≤ i ≤ p, appartiennent à K et sont appelés seconds membres de (S).
Les coefficients et les seconds membres sont donnés.
• Les éléments xj , 1 ≤ j ≤ n, appartiennent à K et sont appelés les inconnues de (S).
• L’équationsai,1 x1 +ai,2 eme équation de (S).
 x2 +...+ai,n xn =bi est appelée i
a1,j xj
 a2,j xj 
 
• Le vecteur  ..  est appelé j eme colonne de (S).
 . 
ap,j xj
• Une solution de (S) est un vecteur (x1 , ..., xn ) ∈ Kn vérifiant toutes les équations de (S).

80
Discuter et résoudre (S) c’est trouver toutes les solutions de (S).
• Deux systèmes sont dits équivalents s’ils ont le même ensemble de solutions.
(S) est dit compatible s’il admet au moins une solution. Dans le cas contraire (S) est dit
incompatible (ou impossible).
• Le système (S) s’écrit en abrégé :
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p.
j=1

6.6.2 Interprétation matricielle d’un système linéaire :


Soit A
= (a
i,j ) ∈ Mp,n (K), A est appelée la matrice du systéme (S).
b1
 b2 
 
Soit b =  .  ∈ Mp,1 (K), b est appelé le vecteur second membre de (S).
 .. 
b
 p 
x1
 x2 
 
Soit X =  .  ∈ Mn,1 (K), X est appelé inconnue de (S).
 .. 
xn
Le système (S) s’écrit matriciellement :

AX = b. (1)

Résoudre (S), c’est trouver tous les vecteurs vérifiant (1).

6.6.3 Rang d’un système linéaire


Définition 6.21. On appelle rang du système (S), le rang r de la matrice A de (S) et on
notre rg (S).

Exemple : Soit (S) le système linéaire de 4 équations à 3 inconnues x, y, z à coefficients


réels : 

 2x +2z = 3

x +2y −z = 1
(S)

 4x −y +5z = 7

7x +8y −z = 9
La matrice de (S) est  
2 0 2
 1 2 −1 
A= 
 4 −1 5  ∈ M4,3 (R).
7 8 −1
On a la suite (c1 , c2 ) est libre et c3 = c1 − c2 .
Donc
rg(S) = rg(A) = 2.
Remarque : Un système est dit de Cramer si n = p = r. Autrement dit, si sa matrice est
carrée et inversible.
Un système de Cramer admet toujours une solution unique (X = A−1 b) car sa matrice A est

81
inversible.
Cas particulier : systèmes de Cramer triangulaires.
Soit un système (T ) de n équations à n inconnues dont la matrice est triangulaire supèrieure
avec des coefficients diagonaux tous non nuls.
On montre facilement (exercice) que rg A = n. Donc (T ) est un système de Cramer et admet
une solution unique.
 a1,1 x1 +a1,2 x2
 +... +a1,n xn = b1



 a2,2 x2 +... +a2,n xn = b2
(T ) .
..



 an−1,n−1 xn−1 +an−1,n xn = bn−1


an,n xn = bn
Le système (T ) est facile résoudre. En effet, on calcule de la façon suivante :
P P
bn bn−1 − an−1,n xn bi − nj=i+1 ai,j xj b1 − nj=2 a1,j xj
xn = , xn−1 = , ..., xi = , ..., x1 =
an,n an−1,n−1 ai,j a1,1

6.7 Méthode de pivot de Gauss


Définition 6.22. Un système linéaire :
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p,
j=1

est dit échelonné ou en échelon, s’il existe un entier q, 1 ≤ q ≤ p et q ≤ n tel que :


pour tout q < i ≤ p, 1 ≤ j ≤ n,on a ai,j = 0.
pour tout 1 ≤ i ≤ q, 1 ≤ j ≤ i, on a ai,i 6= 0 et ai,j = 0.
Donc(S) est échelonné si la matrice de(S) a la forme suivante dite échelonnée :
a1,1 ∗ ... ∗
 0 a2,2 
 
 .. .. 
 . . 
 
A=  0 ... 0 aq,q ∗ ... ∗   chaque étoile est un coefficient quelconque.
 0 ... ... ... . . . ... 0 
 
 .. .. 
 . . 
0 ... ... ... . . . ... 0
Théorème 6.23. : Soit (S) un système linéaire échelonné :
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p.
j=1

Avec les notations précédentes , le rang de (S) est r=q .


Le système est compatible si, et seulement si bq+1 = . . . = bq = 0, et dans ce cas, les solutions
de (S) sont les vecteurs (x1 , ..., xq , xq+1 , ..., xn ) où xq+1 , . . . , xn sont des éléments quelconques
de K et (x1 , . . . , xq ) la solution du système de Cramer triangulaire :
q
X n
X
(T ) ai,j xj = bi − ai,j xj 1 ≤ i ≤ q.
j=1 j=q+1

x1 , ..., xq sont appelés les inconnuses principales et xq+n , ..., xn sont appelées les incon-
nues non principales.

82
Preuve. Puisque les p-q dernières lignes de la matrice A sont nulles , on a rg A ≤ q.
Puisque les q premières colonnes de A forment une suite libre on a rgA ≥ q.
Donc
r = rgA = q.

S’il exsiste i, q + 1 ≤ i ≤ p tel que bi 6= 0 alors la ieme équation de (S) s’écrit :


0x1 + . . . + 0xn = bi = 0,
impossible et le système est donc incompatible.
Soit bq+1 = . . . = bp = 0. Le sysème (S) est équivalente au système :
q
X n
X
(T ) ai,j xj = bi − ai,j xj 1 ≤ i ≤ q.
j=1 j=q+1

avec xq+1 , ..., xn sont des éléments quelconques fixés dans K.


le système (T) est de Cramer , donc il admet une solution unique (x1 , ..., xq ).
D’où pour tout xq+1 , ..., xn quelconques (mais fixés) dans K, (x1 , ..., xq , xq+1 ..., xn ) est une
solution du système (S).

Exemple Faire l’exercice 3 série N 7.

Définition 6.24. On appelle opération élémentaire sur (S) chacune des opérations sui-
vantes :
(1) permuter deux colonnes de (S).
(2) permuter deux équations de (S).
(3) ajouter membre à membre à une équation, une combinaison linéaire des autres équations.
(4) multiplier les deux membre d’une équation par un même scalaire non nul.

On rappelle que deux systèmes linéaires sont dits équivalents, s’ils ont le même ensemble
de solutions.
Théorème 6.25. (S) étant un système linéaire , toute opération élémentaire sur (S) trans-
forme (S) en un système linéaire équivalent et de même rang.

Preuve. L’addition dans K est commutative, l’opération (1) transforme (S) en un système
équivalent.
L’ordre des équations n’intervient pas dans l’ensemble des solutions : l’opération (2) trans-
forme (S) en un système équivalent.

Soit λ ∈ K, h et k ∈ {1, ..., p}, h 6= k, et soit (S 0 )le système suivant déduit de (S) :
½ Pn
a x = bi , 1 ≤ i ≤ p, i 6= k,
0
(S ) Pnj=1 i,j j
j=1 (ak,j + λah,j )xj = bk + λbh .

Il est clair que si (x1 , ..., xn ) est solution de (S), (x1 , ..., xn ) est aussi solution de (S 0 ). Comme
on transforme (S 0 ) en (S) par une opération de même type que celle qui nous fait passer de
(S) à (S 0 ), toute solution de (S 0 ) est aussi solution de (S).

L’opération qui consiste à ajouter membre à membre à la k eme équation, une combinaison
linéaire des autres équations, est une suite finie d’opérations du type précédent, donc elle
transforme (S) en un système linéaire équivalent.
Enfin il est évident que l’opération (4) transforme (S) en un système linéaire équivalent.

83
6.8 Algorithme du pivot de Gauss :
Théorème 6.26. : Soit (S) un système linéaire de p équations à n inconnues
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p.
j=1

Soit A la matrice du système (S), si A 6= 0, il existe une suite finie d’opérations élémentaires
qui transforment (S) en un système échelonné.
Preuve.  
a1,1 a1,2 . . . a1,n
 a2,1 a2,2 . . . a2,n 
 
A= . .. ..  .
 . . . . 
ap,1 ap,2 . . . ap,n
A 6= 0, il existe donc i0 , j0 , 1 ≤ i0 ≤ p et 1 ≤ j0 ≤ n tel que ai0 ,j0 6= 0.
En permutant au besoin, les équations 1 et i0 et les colonnes 1 et j0 , on se ramène à un
système équivalent et de même rang :
n
X
(S 0 ) a0j,i x0j = b0i , 1≤i≤p avec a01,1 = ai0 ,j0 .
j=1

(attention : si j0 6= 1, x01 = xj0 et x0j0 = x1 )


On ajoute alors membre à membre la ieme équation, pour 2 ≤ i ≤ p, le produit de la première
a0
équation par − a0i,1 . On obtient alors un système équivalent et de même rang.
1,1

n
X
(S”) a”j,i x0j = b”i , 1 ≤ i ≤ p,
j=1

où a”1,1 = a01,1 et a”i,1 = 0, 2 ≤ i ≤ p.


La matrice de (S”) s’écrit :
 
a”1,1 ∗ . . . ∗
 0 
 
A” =  .. 
 . A”1 
0

avec A”1 ∈ Mp−1,n−1 (K).


On passe à l’étape suivante en travaillant maintenant avec A”1 .

Exemple : 
 x−y = −1
3x + 3z = 3

2x + y + 3z = 4
L’écriture matricielle du système est :
    
1 −1 0 x −1
 3 0 3  y  =  3 .
2 1 3 z 4

84
On utilise la méthode de pivot de Gauss en n’oubliant pas de traı̂ter b.
   
1 −1 0 −1 1 −1 0 −1
 3 0 3 | 3  =⇒  0 3 3 | 6 
2 1 3 4 0 3 3 6
 
1 −1 0 −1
 0 3 3 | 6 
0 0 0 0
Le rang de (S) est égal à r = 2.
On prend x et y comme inconnues principales et z comme inconnue non principale.

S = {(x, y, z) = (1 − z, 2 − z, z)/z ∈ R}

Récapitulatif. Quelques applications de la méthode du pivot de Gauss :

A. Comment déterminer le rang d’une matrice A.


D’après le théorème noyau-image :

rg(A) = n − dimKer(A)

(où n désigne bien le nombre de colonnes de A, c’est-à-dire la dimension de l’espace de


départ de l’application linéaire assouciée).
Donc il suffit de déterminer le noyau de A, c’est-à-dire d’expliciter suffisamment les
vecteurs X solutions de AX = 0 pour trouver la dimension de cet espace, et d’en déduire
le rang.

B. Noyau de f .
Soit f ∈ L(Rn , Rp ).
La résolution du système linéaire homogème f (X) = 0 fournit Ker(f ).

Ker(f ) = {X ∈ Rn /f (X) = 0.}

Exemple : Soit f ∈ L(R4 , R3 ) dont la matrice dans les base canoniques de R4 et R3 est
 
1 1 −3 4
A =  1 2 −5 2  .
−1 1 −1 −8

Si X = (x, y, z, t) ∈ R4 , AX = 0 s’écrit :

 x + y − 3z + 4t = 0
(S) x + 2y − 5z + 2t = 0

−x + y − z − 8t 0.

Système qui a été considéré en exercice 13.

C. Image de f .
On cherche les Y ∈ Rp pour lesquels l’équation f (X) = Y , où l’inconnue est X, a
au moins une solution. Si A est la matrice de f dans les bases canoniques de Rn et
Rp , on cherche les Y ∈ Rp pour lesquels le système AX = Y , où l’inconnue est X, est
compatible.

85
Compléments Sur les matrices par blocs.

Produit des matrices par blocs :


Soient A ∈ Mm+q,n+p (K) et B ∈ Mn+p,r+s (K) deux matrices que l’on ”décompose ” de la
manière suivante : µ ¶
A1 A2
A=
A3 A4
où A1 ∈ Mm,n (K), A2 ∈ Mm,p (K), A3 ∈ Mq,n (K) et A4 ∈ Mq,p (K).
µ ¶
B1 B2
B=
B3 B4
où B1 ∈ Mn,r (K), B2 ∈ Mn,s (K), B3 ∈ Mp,r (K) et B4 ∈ Mp,s (K). Alors on peut calculer le
produit AB de la manière suivante :
µ ¶
A1 B1 + A2 B3 A1 B2 + A2 B4
AB = ∈ Mm+q,r+s (K)
A3 B1 + A4 B3 A3 B2 + A4 B4

On peut procéder de même quel que soit le nombre de blocs, à condition que :

- le nombre de colonnes de blocs de A soit égal au nombre de lignes de blocs de B


(ici 2 et 2).
- le nombre de lignes et de colonnes de chaque bloc soient en adéquation pour tous les
sous-produits.
Généralisation : Soient A = (AIK ) et B = (BKJ ) deux matrices décomposées par blocs telles
que la décompositions correspond à l’indice K soit la même pour A et B. Alors AB = C se
décompose par blocs et on a X
CIJ = AIK BKJ .
K

Ceci est une généralisation de la multiplication habituelle des matrices.

........................................................................................

86
6.9 Exercices : Les matrices
Exercice 1. Un fabricant de composantes électriques vend deux produits différents à trois
clients. Les deux produits sont fabriqués dans deux usines différentes. Les coûts de transport
de chaque produit, pour chaque client, sont indiqués dans le schéma suivant :

1) Présentez les informations contenues dans le schéma sous forme d’une matrices A de
format 2 × 3, où aij représente le coût de transport pour expédier le produit i au client j.
2) Quelle information la deuxième ligne de la matrice contient-elle ?
3) Quelle information la troisième colonne de la matrice contient-elle ?
4) Quelle information a12 donne-elle ?
Exercice 2.
1) Calculer les produits AB et BA quand il existent dans le cas suivant :
A = (3 5 − 1 − 2) et B = t (−1 0 1 2).
2) Dans M4 (C) considérons les matrices :
   
α 1 0 1 α 0 0 0
 0 α 0 2   1 α 0 0 
A= 
 0 0 β 3  et B =  0 0 β 1 
 

0 0 0 1 0 0 0 β
Calculer A2 , AB, ABA, t (AB), t At B et B 3 .

Exercice 3. µ ¶ µ ¶
0 1 1 1
a) Calculer Am , m ∈ N, pour A1 = puis pour A2 = .
0 0 0 1
b) Calculer om et I m .
c) Vérifier les propriétés (λA)m = λm Am ; (A + B)2 = A2 + AB + BA + B 2 .

Exercice 4.
a) Développer (A + B)3 .
b) Développer (A + B + c)2 .
c) Développer (A + I)3 .
d) D’une manière générale, Développer (A + I)n . Déduire (A1 +P
I)n = (nA1 + I).
( Indication : Si AB = BA on a pour tout k ∈ N : (A + B) = ki=0 Cki Ak−i B i .)
∗ k

Exercice 5. On désigne par E l’ensemble des matrices de la forme


 
a c b
M (a, b, c) =  b a + c b + c 
c b a+c

où a, b, c ∈ Q.
1) Montrer que toute matrice E s’écrit de manière unique sous la forme aI + bJ + cK où I
désigne la matrice unité de M3 (Q) et J, K deux matrices de M3 (Q) indépendantes de a, b, c.

87
2) En déduire que E est un sous-espace vectoriel sur Q.
Quelle est sa dimension ?
3) Calculer J2 , J.K, K 2 , J 3 , 
J + I.
2 −3 −4
 3 1 5 
4) Soit A =  
 −1 0 −1  ∈ M4,3 (Q).
0 2 4
Trouver le rang des matrices suivantes A et t A.

Exercice 6.
Soit B = (e1 , e2 , e3 ) la base canonique de R3 . On considère l’endomorphisme de R3 défini
par :

 f (e1 ) = − 21 e1 + 12 e2 + 12 e3
f (e2 ) = −e1 + e3

f (e3 ) = − 21 e1 − 12 e2 + 12 e3
1) Déterminer la matrice de f dans la base B. Quel est le rang de cette matrice ?
2) Déterminer ker(f ) et sa dimension.
3) Déterminer Im(f ) et sa dimension.
4) Soient f1 = (1, −1, 1), f2 = (−1, 1, 1) et f3 = (1, 1, −1).
a) Calculer f (f2 ) et f (f3 ). Déduire que (f2 , f3 ) est une base de Im(f ).
b) Montrer que B 0 = (f1 , f2 , f3 ) est une base de R3 .
c) Montrer que R3 = ker(f ) ⊕ Im(f ).
5) Déterminer la matrice de f dans la base B 0 .
6) Déterminer la matrice de passage P de la base B 0 à la base B.

Exercice 7.
Soit E un K−espaces vectoriel, non nul, de dimension finie, et soit ϕ ∈ L(E). Soient B et
B 0 deux bases dans E. Soit A la matrice de ϕ dans la base B de E et A0 la matrice de ϕ dans
la base B 0 de E. Soit P la matrice de passage de B à B 0 .
1) Montrer que A0 = P −1 AP.
2) Pour tout k ∈ N, A0k = P −1 Ak P .

Exercice1 8. (Polynôme minimal d’un endomorphisme)


Deux matrices carrées d’ordre n, A ∈ Mn (K) et B ∈ Mn (K) sont semblables s’il existe une
matrice carrée inversible P ∈ Mn (K) telle que B = P −1 AP.
Soient A et B deux matrices semblables de Mn (K) , non nulles.
1) Démontrer que pour tout p de N, Ap et B p sont semblables.
2) En déduire que si h est un polynôme de K[X], h(A) et h(B) sont semblables.
3) a) Démontrer que pour tout M non nul de Mn (K) il existe un polynôme unitaire unique
PM de (K[X])∗ tel que :
i) PM (M ) = 0
ii) ∀Q ∈ K[X], Q(M ) = 0 ⇒ PM (X) divise Q(X).
PM (X) est le polynôme minimal de M .
b) Etablir que PA = PB .
c) Démontrer qu’un élément non nul M de Mn (K) est inversible si le terme constant de PM
est non nul.
d) Soit M un élément non nul idempotent (M 2 = M ) de M(K). Déterminer PM .

Exercice 9.

88
On considère l’application f de R3 dans R2 définie par :
 
x µ ¶
  2x − y − z
f y = .
−x + 2y − z
z

1.) Montrer que f est linéaire et écrire sa matrice A dans les bases canoniques.

2.) Déterminer le rang de f et les dimensions de Im f et Ker f . L’application f est-elle in-


jective, surjective, bijective ?

3.) Déterminer un vecteur V qui engendre Ker f et dont la première coordonnée vaut 1.
4.) (e1 , e2 , e3 ) désignant la base canonique de R3 , montrer que B1 = (e1 , e2 , V ) est une base
de R3 et écrire la matrice de passage Q de la base canonique à B1 .
5.) On note U1 = f (e1 ), U2 = f (e2 ). Montrer que B2 = (U1 , U2 ) est une base de R2 et écrire
la matrice de passage P de la base canonique à B2 .
0
6.) Écrire la matrice A de l’application linéaire f dans les bases B1 et B2 (sans utiliser P
et Q).
0
7.) Vérifier en utilisant la formule du changement de base reliant A, A , P et Q.
8.) Ecrire la matrice transposée t A de A. On note désormais g : R2 → R3 l’application
linéaire définie par g(X) = t AX.
9.) Déterminer le rang de g et les dimensions de Im g et Ker g. L’application g est-elle
injective, surjective, bijective ?
10.) Déterminer pour f og, puis pour gof , le rang, la dimension de l’image et la dimension
du noyau. L’application f og est-elle injective, surjective, bijective ?
Même question pour gof .
11.) Déduire des questions 2.), 9.) et 10.) les identités : Ker(gof ) = Kerf , Ker(f og) =
Kerg, Im(gof ) = Img, Im(f og) = Imf .
Exercice 10.
Ecrire sous forme canonique, puis sous forme matricielle, les systèmes :

  x + 1 = −y − z
½  0 = x + y + z + t 

y−1= 2z − x z+t= z−2
; 2= x−y ;
z= 2 − x + 3y  
 x−y = −1
4= t−z 
−y + 3 = z + 2x.

Exercice 11. A l’aide des transformatons élémentaires sur les lignes, déterminer une matrice
triangulaire A0 équivalente à :  
1 1 1
A =  1 2 3 .
1 3 4
2) Résoudre le système linéaire (S) AX = 0.

Exercice1 12.
Discuter et résoudre les systèmes linéaires suivants, En utilisant l’algorithme d’élimination
de Gauss :
 

 x +2y +3z +4t = 11 
 x +3y +5z −2t −7u = 3
 
2x +3y +4z +t = 12 3x +y +z −2t −u = 1
(S1 ) ; (S2 )

 3x +4y +z +2t = 13 
 2x −y −3z +7t +5u = 2
 
4x +y +2z +3t = 14. 4x −2y −5z +7t +8u = λ.

89
où λ est un paramètre réel.
Exercice 13.
Soit le sous-espace vectoriel F de R4 constitué des (x, y, z, t) ∈ R4 solutions du système (S)
à 3 équations : 
 x + y − 3z + 4t = 0
(S) x + 2y − 5z + 2t = 0

−x + y − z − 8t 0.
1) Quelle est la dimension de F ?
2) Trouver une base de F.
Exercice 14.
On considère le système linéaire (S) à coefficients complexes :

 2x + 2y − z − t = −1
(S) x + y − 2z − 2t = −4

x + y + 4z + 4t = 10.

Soit f ∈ L(C4 , C3 ) l’application linéaire associée à (S).


1) Déterminer rg(f ) et une base de Im(f ).
2) Montrer que (S) est compatible et en donner une solution.
3) Donner une base de ker(f ) et en déduire toutes les solutions.

Exercice 15.(Exemples d’applications des systèmes linéaires )


A. Deux camionnettes livrent du sable sur un chantier de travaux publics.
La première livre deux tonnes à chaque voyage, l’autre livre trois tonnes.
Une fois livrée la quantité commandée, un des chauffeurs dit à l’autre : ” on a fait à
nous deux trente voyages et on a livré autant chacun”.
Combien chaque camion a t-il fait de voyage ?

B. Si un train augmente sa vitesse de 10Km/h sur un trajet, il gagne 40 min. S’il diminue
sa vitesse de 10Km/h, il perd 1h. Quelle est la longueur du trajet ?
Exercice 16.
On considère le système linéaire à coefficients réels :

 x +y +z =0
(b + c)x +(a + c)y +(a + b)z = 0

bcx +acy +abz =0

où a, b et c sont des nombres réels donnés. Discuter (suivant les valeurs des paramètres
a, b, c) et résoudre ce système.

1
Les exercices 8 et 12 constituent le sujet d’un devoir libre à rendre au plus tard le 04 avril ...

90
Chapitre 7

DÉTERMINANTS

Comme d’habitude, K = R ou Q ou C.

7.1 Le groupe symétrique Sn


Définition 7.1. Soit n un entier ≥ 1 et soit J = {1, 2, ..., n}. Une permutation de J est une
application bijective de J sur lui-même. On note l’ensemble des permutations de J par Sn et
un élément σ de Sn par : µ ¶
1 2 ... n
σ=
σ(1) σ(2) ... σ(n)
Le nonmbre de permutation de J est n!
Exemple 7.1. µ ¶
1 2 3 4
σ= ∈ S4 .
4 2 1 3
σ est la permutation de J = {1, 2, 3, 4} qui à 1 fait correspondre 4, 2 fait correspondre 2, 3
fait correspondre 1 et à 4 fait correspondre 3.
Remarque 7.1. 1. La composée de deux permutations de J est une permutation de J.
L’ensemble Sn muni de la loi interne (σ, σ 0 ) −→ σoσ 0 est un groupe, appelé groupe
symétrique d’ordre n.
2. Si n = 1 , S1 est réduit à l’application
µ identique
¶ de J = µ
{1}. ¶
1 2 1 2
3. Si n = 2, S2 = {IJ , τ } avec IJ = et τ = . Le groupe S2 est
1 2 2 1
commutatif.
4. Si n ≥ 3, on considère
µ ¶ µ ¶
1 2 3 4 ... n 0 1 2 3 4 ... n
σ= , σ =
3 2 4 1 ... n 1 3 2 4 ... n

On a (σoσ 0 (1) = 3) et (σ 0 oσ(1) = 2) ; donc σoσ 0 6= σ 0 oσ, et le groupe Sn n’est pas


commutatif.
Définition 7.2. Pour n ≥ 2, on appelle transposition de J = {1, 2, ..., n} une permutation
de J qui échange deux éléments i et j de J et qui laisse fixe les autres éléments de J, c’est
à dire une permutation notée τi,j telle que τi,j (i) = j, τi,j (j) = i et τi,j (k) = k si k 6= i et
k 6= j.
Exemple 7.2. µ ¶
1 2 3 4 5 6
τ3,4 = ∈ S6 .
1 2 4 3 5 6

91
Remarque 7.2. On a τi,j = τj,i et τi,j oτi,j = IJ .
Théorème 7.3. Pour n ≥ 2, tout élément de Sn est égal à un produit de transpositions.
Preuve. Soit σ ∈ Sn On raisonne par récurrence sur l’entier q = n − p, où p est le nombre
déléments de J laissés fixes par σ.
Si q = n − p = 0 , alors σ = IJ = τ1,2 oτ1,2 .
Supposons la propriété vraie pour n − p < q et soit σ ∈ Sn laissant fixes p = n − q éléments
de J (p < n).
Il existe i ∈ J tel que σ(i) = j 6= i et on a σ(j) 6= σ(i) = j. Soit σ 0 = τi,j oσ. les points de J
laissés fixes par σ sont aussi laissés fixes par σ 0 et en outre, σ 0 laisse i fixe (σ 0 (i) = i). Par
suite le nombre p0 de points de J laissés fixes par σ 0 vérifie p0 > p et donc n − p0 < n − p = q.
D’après l’hypothèse de récurrence, σ 0 est un produit de transpositions et σ = τi,j oσ 0 est aussi
un produit de transpositions.
Exemple 7.3. µ ¶
1 2 3
σ= ∈ S3 . σ = τ1,2 oτ2,3 .
2 3 1
Soit n ≥ 2 et σ ∈ Sn . Si 1 ≤ i < j ≤ n, on a σ(i) 6= σ(j) et donc σ(i) < σ(j) ou σ(i) > σ(j).
Définition 7.4. Si i < j et σ(i) > σ(j), on dit que σ(i) et σ(j) présentent une inversion.
Définition 7.5. Si Nσ désigne le nombre d’inversions de la suite (σ(1), . . . , σ(n)), on appelle
signature de la permutation σ ∈ Sn , et on note ε(σ), le nombre ε(σ) = (−1)Nσ ∈ {1, −1}.
σ est dite paire si ε(σ) = 1, et impaire si ε(σ) = −1
Remarque 7.3. On a aussi
Y σ(j) − σ(i)
ε(σ) =
j−i
1≤i<j≤n

En effet, puisque ε(σ) est une permutation de {1, . . . , n}, chaque expression j−i du dénominateur
se trouve au signe prés au numérateur une fois exactement et le dénominateur ayant autant
de facteurs que le numérateur. D’autre part, le nombre de signe - est égal au nombre d’in-
versions dans la suite (σ(1), . . . , σ(n)).
Exemple 7.4. µ ¶
1 2 3 4 5
σ= ∈ S5 .
5 1 4 3 2
Les inverssion de σ sont : 5 et 1, 5 et 4 , 5 et 3, 5 et 2, 4 et 3, 4 et 2, 3 et 2. Donc Nσ = 7
et ε(σ) = −1. σ est impaire.
Proposition 7.6. Toute transposition est une permutation impaire
Preuve. Soit τi,j avec i < j.
µ ¶
1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n
σ = τi,j = ∈ Sn .
1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n
On a Nσ j − i + (j − i − 1) = 2(j − i) − 1 = et ε(σ) = −1.
Théorème 7.7. Soit n ≥ 1. Quelle que soient σ ∈ Sn et σ 0 ∈ Sn , on a ε(σoσ 0 ) = ε(σ)ε(σ 0 )
et ε(σ −1 ) = ε(σ)
Preuve. Le cas n = 1 est évident. Soit n ≥ 2. On a :
Y σoσ 0 (j) − σoσ 0 (i) Y σoσ 0 (j) − σoσ 0 (i) Y σ 0 (j) − σ 0 (i)
ε(σoσ 0 ) = =
j−i σ 0 (j) − σ 0 (i) j−i
1≤i<j≤n 1≤i<j≤n 1≤i<j≤n
Q σoσ 0 (j)−σoσ 0 (i) Q
Or, 1≤i<j≤n σ0 (j)−σ0 (i) = 1≤h<k≤n σ(k)−σ(h) k−h et donc ε(σoσ 0 ) = ε(σ)ε(σ 0 ).
En appliquant le resultat précédent à σ 0 = σ −1 , on a 1 = ε(Id) = ε(σoσ 0 ) = ε(σ −1 ).ε(σ) et
donc ε(σ −1 ) = ε(σ)

92
Corollaire 7.8. Pour n ≥ 2, σ ∈ Sn est paire si et seulement si σ est égale au produit d’un
nombre pair de transpositions.
Preuve. La preuve résulte du Théorème 1 et de la proposition précédente.

7.2 Formes miltilinéaires alternées


Soit E un K-e.v. et n ∈ N∗ . On pose E n = E × . . . × E (n fois).
Définition 7.9. On appelle forme n−linéaire (ou forme multilinéaire à n variables) sur E,
une application f : E n −→ K telle que, pour chaque j, 1 ≤ j ≤ n, et pour toute suite
(x1 , . . . , xj−1 , xj+1 , . . . , xn ) de n − 1 vecteurs de E, l’application fj : E −→ K définie par
f (x1 , . . . , xj−1 , x, xj+1 , . . . , xn ) soit linéaire.
Remarque 7.4. 1. Si n = 1, on retrouve la notion de forme linéaire.
2. Si n = 2 on a la notion de forme bilinéaire.
3. Si n = 3 on a la notion de forme trilinéaire, etc...
Exemple 7.5. a. Soit E = C([0, 1], R) et soit l’application

φ : E × E −→ R
R1
(f, g) −→ 0 f (x)g(x)dx

φ est une forme bilinéaire sur E.


b. Soit E = Rp (p ∈ N∗ ) et f P : E 2 −→ R définie par si x = (x1 , . . . , xp ) ∈ E et
y = (y1 , . . . , yp ) ∈ E, f (x, y) = pi=1 xi yi . f est une forme bilinéaire sur E.
Définition 7.10. Pour n ≥ 2, une forme n−linéaire sur E est dite alternée, si pour toute
suite (x1 , . . . , xn ) ∈ E n ayant deux vecteurs égaux xi et xj avec i 6= j, on a f (x1 , . . . , xn ) = 0.
Exemple 7.6. Soit E = R2 et f : E 2 −→ R définie par si x = (x1 , x2 ) ∈ E et y = (y1 , y2 ) ∈
E, f (x, y) = x1 y2 − x2 y1 . f est une forme bilinéaire alternée sur E.
Proposition 7.11. Soit f une forme n−linéaire alternée sur E, alors f est antisymétrique ;
c’est à dire que pour toute suite (x1 , . . . , xn ) ∈ E n , f (x1 , . . . , xn ) est changé en son opposé
quand on intervertit deux vecteurs xi et xj , i 6= j. Autrement dit, si τ = τi,j , on a

f (xτ (1) , . . . , xτ (n) ) = −f (x1 , . . . , xn ).

Preuve. On a f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xn ) = 0 car f est alternée.


En développant par n−linéarité on a :

f (x1 , . . . , xi , . . . , xi , . . . , xn ) + f (x1 , . . . , xi , . . . , xj , . . . , xn )+
f (x1 , . . . , xj , . . . , xi , . . . , xn ) + f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0

En utilisant encore le fait que f est alternée, on obtient :

f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ).
D’où

f (xτ (1) , . . . , xτ (i) , . . . , xτ (j) , . . . , xτ (n) = −f (x1 , . . . , xi , . . . , xi , . . . , xn ),


avec τ = τi,j .
Théorème 7.12. Soit f une forme n−linéaire alternée sur E. Soit (x1 , . . . , xn ) une suite de
n vecteurs de E. Si la suite (x1 , . . . , xn ) est liée, alors f (x1 , . . . , xn ) = 0.

93
Preuve. Soit (x1 , . . . , xn ) une suite liée. L’un
P au moins des vecteurs xi est combinaison
linéaire des autres vecteurs de la suite : xi = j6=i λj xj ; alors :
X X
f (x1 , . . . , xn ) = f (x1 , . . . , λj xj , . . . , xn ) = λj f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0
j6=i j6=i

Corollaire 7.13. Soit f une forme n−linéaire alternée sur E. Soit (x1 , . . . , xn ) une suite
de n vecteurs de E. On ne change pas la valeur de f (x1 , . . . , xn ) si l’on ajoute à l’un des
vecteurs xi une combinaison linéaire des autres vecteurs de la suite.
Théorème 7.14. Soit f une forme n−linéaire alternée, sur un K−e.v. E de dimension finie
n. Soit (e1 , . . . , en ) une base de E. P
1. Soit (x1 , . . . , xn ) une suite de n vecteurs de E, xj = ni=1 ai,j ei , 1 ≤ j ≤ n. Alors
à !
X
f (x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n f (e1 , . . . , en ).
σ∈Sn

2. Pour tout λ ∈ K, il existe une forme n−linéaire alternée sur E, et une seule, telle que
f (e1 , . . . , en ) = λ.
Preuve. Admis.

7.3 Déterminant d’une suite de vecteurs dans une base


Définition 7.15. Soit E un K−e.v. de dimension finie n ≥ 1. Si B = (e1 , ..., en ) une base
de E, l’unique forme n−linéaire alternée f sur E telle que f (e1 , ...en ) = 1 est appelée le
déterminant dans la base B et noté détB . Soit (x1 , ..., xn ) une suite de n−vecteurs de E. Le
scalaire P
détB (x1 , ..., xn ) est appelé le déterminant de la suite (x1 , ..., xn ) dans la base B.
Si xj = ni=1 ai,j ei , 1 ≤ j ≤ n,
X
detB (x1 , ..., xn ) = ε(σ)aσ(1),1 ...aσ(n),n
σ∈Sn

car détB (e1 , ..., en )=détB (B) = 1.


Remarque 7.5. Si n = 1 B = (e1 ) ∀λ ∈ K détB (λe1 ) = λ.
Proposition 7.16. Soit B = (e1 , ..., en ) et B0 = (e01 , ..., e0n ) deux bases de E. Alors :
1. Pour tout (x1 , ..., xn ) ∈ E n ,

detB (x1 , ..., xn ) = detB (B 0 )detB0 (x1 , ..., xn ).

2. detB0 (B)detB (B0 ) = 1


Preuve.
1. Soit α = detB (B0 ) et soit g : E n −→ K définie par : si (x1 , ..., xn ) ∈ E n , g(x1 , ..., xn ) =
αdetB0 (x1 , ...xn ). g est une forme n-linéaire alternée sur E et de plus g(B 0 ) = α.
De même detB est une forme n-linéaire alternée sur E et detB (B0 ) = α. D’après le
théorème 7.14 : g = detB .
2. D’après 1.) on a ∀(x1 , ..., xn ) ∈ E n

detB = detB (B0 )detB0 (x1 , ..., xn )

pour (x1 , ..., xn ) = B = (e1 , ..., en ), on a 1 = detB (B) = detB (B 0 )detB0 (B).

94
7.4 Déterminant d’une matrice carrée
Définition 7.17. Soit A = ai,j ∈ M(K). On appelle déterminant de A et on note det(A), le
determinant de la suite (C1 , ..., Cn ) de ses vecteurs colonnes dans la base canonique de Kn .
Le déterminant de A = ai,j ∈ M(K) est aussi noté :
¯ ¯
¯ a1,1 a1,2 . . . a1,n ¯
¯ ¯
¯ a2,1 a2,2 . . . a2,n ¯
¯ ¯
¯ .. .. .. .. ¯ ou encore |ai,j |.
¯ . . . . ¯¯
¯
¯ an,1 an,2 . . . an,n ¯
P
On a donc detA = σ∈Sn ε(σ)aσ(1),1 ...aσ(n),n .
Exemple 7.7. 1. Soit I la matrice unité d’ordre n, ses vecteurs colonnes sont les vec-
teurs de la base canonique de Kn , donc µdetIn = det(e¶1 , ..., en ) = 1.
a1,1 a1,2
2. Si n = 2 donc A est de la forme A = et S2 = {id, τ1,2 }.
a2,1 a2,2

det(A) = a1,1 a2,2 − a1,2 a2,1 .


 
a11 a12 a13

3. Si n = 3, A = a21 a22 a23  et S3 = {id, τ1,2 , τ1,3 , τ2,3 , τ1 , τ2 } avec
a31 a32 a33
µ ¶ µ ¶
1 2 3 1 2 3
σ1 = et σ2 = ε(σ1 ) = ε(σ2 ) = 1.
2 3 1 3 1 2

det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a21 a12 a33 − a31 a22 a13 a11 a32 a23 .
4. Déterminant d’une matrice triangulaire : soit A = (ai,j ) ∈ M(K) une matrice triangulaire
supérieure (resp. inférieure)
n
Y
det(A) = a11 ...ann = aii .
i=1

Voir série d’exercice N o .8.

7.5 Propriétés et calcul des déterminants


Soit A = (ai , j) ∈ M(K) et ∆ = |ai,j | = detA, on pose C1 , ..., Cn les colonnes de A.
Théorème 7.18. On a les résultats suivants :
1. ∆ = detB (C1 , ..., Cn ) dépend linéairement de chaque Ci . (B base canonique de Kn )
2. Si Ci = Cj avec i 6= j, alors ∆ = 0.
3. Si σ ∈ Sn , detB (Cσ(1) , ..., Cσ(n) ) = ε(σ)∆.
4. On ne modifie pas la valeur de ∆ en ajoutant à une colonne une combinaison linéaire
des autres colonnes.
Preuve. Le théorème 7.18 découle du fait que le déterminant est une forme multiléaire
alternée.
Corollaire 7.19. Soit A = ai,j ∈ M(K) et λ ∈ K ; on a det(λA) = λn detA
Théorème 7.20. Le déterminant d’une matrice carrée est égal au déterminant de sa matrice
transposée.

95
Preuve. Soit A = (ai , j) ∈ M(K). On a At = (bi,j ) avec bi,j = aj,i , 1 ≤ i ≤ n, 1 ≤ j ≤ n, et
X
detAt = ε(σ)bσ(1),1 ...bσ(n),n .
σ∈Sn

Or ε(σ)bσ(1),1 ...bσ(n),n = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) (car ε(σ) = ε(σ 0 ) et si i = σ(j) on a
j = σ −1 (i).)
Ainsi :
X X
detAt = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) = ε(σ −1 )aσ−1 (1),1 ...aσ−1 (n),n .
σ∈Sn σ∈Sn

L’application ϕ : Sn −→ sn définie par ϕ(σ) == σ −1 est une bijection, donc


X
detAt = ε(ρ)aρ(1),1 ...aρ(n),n = detA.
ρ∈Sn

Remarque 7.6. Les résultats du théorème 7.18 s’étendent aux lignes de la matrice A.
Définition 7.21. Soit A = (ai,j ) ∈ M(K)n ≥ 2 et le déterminant ∆ = detA = |ai,j |. On ap-
pelle mineur du coefficient ai,j le déterminant ∆i,j de la matrice Ai,j obtenue en supprimant,
dans A, la ième ligne et la jème colonne.

Théorème 7.22. Soit ∆ = |ai,j | un déterminant d’ordre n ≥ n, à coefficients dans K, et


∆i,j le mineur de ai,j , 1 ≤ i ≤ n, 1 ≤ j ≤ n. P
1. Quel que soit l’indice j, 1 ≤ j ≤ n, on a ∆ = ni=1 (−1)i+j ∆i,j ai,j (c’est le développement
de ∆ par rapport à la jème colonne). P
2. Quel que soit l’indice i, 1 ≤ i ≤ n, on a ∆ = nj=1 (−1)i+j ∆i,j ai,j (c’est le développement
de ∆ par rapport à la ième ligne).
Preuve. D’après le théorème 7.20 il suffit de prouver le premier point.
Soit B = (e1 , ..., en ) la base canonique de Kn . P
Première étape : Soit v1 , ..., vn−1 , n−1 vecteurs de Kn avec vj = ni=1 bi,j ei , 1 ≤ j ≤ n−1.
Posons bn,n = 1 et bi,n = 0 pour 1 ≤ i ≤ n − 1, (b1,n , ..., bn,n sont les coordonnées du vecteur
en de la base B).
On a X
detB (v1 , ..., vn−1 , en ) = ε(σ)bσ(1),1 ...bσ(n),n .
σ∈Sn

Si σ(n) 6= n, on a bσ(n),n = 0. Si σ(n) = n, la restriction de σ à {1, ..., n − 1} est un élément


σ 0 de Sn−1 et on a :

ε(σ)bσ(1),1 ...bσ(n),n = ε(σ 0 )bσ0 (1),1 ...bσ0 (n−1),n−1 .


Enfin, tout σ 0 ∈ Sn−1 est la restriction à {1,...,n-1} d’un seul σ ∈ Sn , et d’un seul, tel que
σ(n) = n.
On a donc X
detB (v1 , v2 , ...., vn−1 , en ) = ε(σ 0 )bσ0 (1),1 ...bσ0 (n−1),n−1 .
σ∈Sn−1
 
a1,k
 
Deuxième étape : Soit C1 , C2 , ..., Cn les vecteurs colonnes de la matrice A : ck =  ... 
an,k
pour 1 ≤ k ≤ n.

96
On a :
n
X n
X
det(A) = det(C1 , . . . , ai,j ei , . . . , Cn ) = ai,j detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . Cn ).
i=1 i=1

Or on a par échange de colonnes.

detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . Cn ) = (−1)n − jdetB (C1 , . . . , Cj−1 , Cj+1 , . . . Cn , ei ),

par suite, par échange de la ième ligne et de la nème, on obtient :

detB (C1 , . . . , Cj−1 , Cj+1 , . . . Cn , ei ) = (−1)n−i detB (C10 , . . . , Cj−1


0 0
, Cj+1 , . . . Cn0 , en ),

où  
a1,k
 .. 
 . 
 
 ai−1,k 
 
Ck0 =  
 ai−1,k  , 1 ≤ k ≤ n, k 6= j.
 .. 
 . 
 
 an,k 
ai,k
Donc :

detB (C1 , ..., Cj−1 , ei , Cj+1 , ..., Cn ) = (−1)n−j+n−i detB (C10 , ..., Cj−1
0 0
, Cj+1 , ..., Cn0 , en )

D’une part, on a (−1)n−j+n−i = (−1)i+j , d’autre part, en appliquant l’étape 1) à la suite


(v1 , ...vn−1 = (C10 , ..., Cn−1 ), nous obtenons :

detB (C1 , ..., Cj−1 , ei , Cj+1 , ..., Cn ) = (−1)i+j ∆i,j .


D’où finalement :
n
X
detA = (−1)i+j ai,j ∆i,j .
i=1

7.6 Applications des déterminants


7.6.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension n
Théorème 7.23. Soit E un K- e.v. de dimension finie n ≥ 1 et B = (e1 , e2 , ..., en ) une base
de E. Pour que la suite (x1 , ..., xn ) ∈ E n soit libre, il faut et il suffit que detB (x1 , ..., xn ) 6= 0.

Preuve. C.S. Supposons que (x1 , ..., xn ) soit liée, alors, puisque detB est une forme multi-
linéaire alérnée, on a (d’après section I) detB (x1 , ..., xn ) = 0.
C.N. La suite (x1 , ..., xn ) est libre dans E et contient n vecteurs, donc c’est une base
de E qu’on note B 0 . D’après la proposition 7.16 detB0 (B).detB (B 0 ) = 1. Donc detB (B0 ) =
detB (x1 , ..., xn ) 6= 0.
Corollaire 7.24. Si A ∈ Mn (K), on a rg(A) = n ⇐⇒ detA 6= 0.

97
7.6.2 Déterminant d’un endomorphisme
Théorème 7.25. et Définition Soit E un K−espace vectoriel de dimension n ≥ 1. Soit ϕ ∈
L(E). Il existe une constante Cϕ ∈ K, et une seule, telle que pour toute base B = (e1 , ..., en )
de E et toute suite (x1 , ..., xn ) ∈ E n , on ait

detB (ϕ(x1 ), ..., ϕ(xn )) = Cϕ detB (x1 , ..., xn ).

La constante Cϕ est appelée le déterminant de l’endomorphisme ϕ et se note detϕ.

Preuve. Unicité : Soit Cϕ et Cϕ0 ∈ K telles que pour toute suite (x1 , ..., xn ) ∈ E n , on ait

detB (ϕ(x1 , ..., xn )) = Cϕ detB (x1 , ..., xn ) = Cϕ0 detB (x1 , ..., xn ).

En particulier pour (x1 , ..., xn ) = (e1 , ..., en ), on a

detB (ϕ(e1 , ..., en )) = Cϕ detB (e1 , ..., en ) = Cϕ0 detB (e1 , ..., en ) = Cϕ = Cϕ0 .

D’où l’unicité.
Existence : Soit B = (e1 , e2 , ..., en ) une base fixée dans E. Posons α = detB (ϕ(e1 ), ..., ϕ(en )).
Soit f et g deux applications de E n dans K définies par :

f (x1 , ..., xn ) = detB (x1 , ..., xn ) = detB (ϕ(x1 , ..., ϕ(xn ))) et g(x1 , ...xn ) = αdetB (x1 , ..., xn ).

f et g sont deux formes multilinéiares alternées. De plus,

f (e1 , ..., en ) = detB (ϕ(e1 ), ..., ϕ(en )) = α,

et
g(e1 , ..., en )) = αdetB (e1 , ..., en ) = α
D’après le théorème 7.14 on a f = g. Donc :

∀(x1 , ..., xn ) ∈ E n , detB (ϕ(x1 ), ..., ϕ(xn )) = αdetB (x1 , ..., xn ).

On prend Cϕ = α. Indépendance de la base de E : Soit B 0 une base quelconque de E. D’après


la proposition 7.16, on a :

detB (ϕ(x1 ), ..., ϕ(xn )) = detB (B0 )detB0 (ϕ(x1 ), ..., ϕ(xn ))

et
detB (ϕ(x1 ), ..., ϕ(xn )) = αdetB (x1 , ..., xn ) = αdetB (B0 )detB0 (x1 , ..., xn ).
En simplifiant par detB (B 0 ) 6= 0. On obtient :

detB0 (ϕ(x1 ), ..., ϕ(xn )) = αdetB0 (x1 , ..., xn ).

Ce qui termine la preuve.

98
Remarque 7.7. 1. Le déterminant d’un endomorphisme ne dépend pas de la base de
E.
2. Soit E un K−e.v. de dimension n et ϕ ∈ L(E). Si B = (e1 , ..., en ) est une base de E
et si A est la matrice de ϕ dans la base B, on a

detϕ = detB (ϕ(e1 ), ..., ϕ(en )) = detA.

Théorème 7.26. Soit E un K−e.v. de dimension n ≥ 1.


1. Si ϕ ∈ L(E) et ψ ∈ L(E), alors det(ϕoψ) = detϕ.detψ
2. Soit ϕ ∈ L(E), on a : ϕ est un automorphisme de E ssi detϕ 6= 0.
1
Si ϕ ∈ L(E) est un automorphisme de E, alors : detϕ−1 = detϕ .
Preuve.
1.
detϕoψ = detB (ϕoψ(e1 ), ..., ϕoψ(en ))
detB (ϕ(ψ(e1 )), ..., ϕ(ψ(en )))
= detϕdetB (ψ(e1 ), ..., ψ(en ))
= detϕ .detψ.
2. Soit ϕ ∈ L(E) un automorphisme de E. Donc (ϕ(e1 ), ..., ϕ(en )) est une base de E.
Par suite, detB (ϕ(e1 ), ..., ϕ(en )) 6= 0.
ϕ ∈ L(E) automorphisme de E ⇐⇒ det(ϕoϕ−1 ) = detϕ.detϕ−1 = detIE = 1. Donc
1
detϕ−1 = detϕ
Corollaire 7.27. 1. Soit A ∈ Mn (K) et B ∈ Mn (K), on a :

det(AB) = detA.detB.

2. Soit A ∈ Mn (K), A est inversible ssi detA 6= 0.


1
Si A ∈ Mn (K) est inversible, alors detA−1 = detA .

7.6.3 Calcul de l’inverse d’une matrice carrée inversible


Définition 7.28. Soient A = (ai,j ) ∈ Mn (K) , ∆i,j le mineur de ai,j et bi,j = (−1)i+j ∆i,j
le cofacteur de ai,j , 1 ≤ i ≤ n , 1 ≤ j ≤ n. La matrice B = (bi,j ) ∈ Mn (K) est appelée la
comatrice de A et on note B = comA.
Théorème 7.29. Soit A(ai,j ) ∈ Mn (K) et B sa comatrice.
1. On a B t .A = A.B t = (detA).In .
1
2. Si A est inversible : A−1 = detA Bt.
Preuve. Voir TD.

7.6.4 Calcul du rang d’une matrice


Définition 7.30. A = (ai,j ) ∈ Mp,n (K) et soit k un entier tel que 1 ≤ k ≤ inf {p, n}. On
appelle déterminant d’ordre k extrait de A, le déterminant de toute matrice carrée obtenue
en supprimant dans A, p − k lignes et n − k colonnes, c’est à dire tout déterminant de la
forme : ¯ ¯
¯ ai1 ,j1 ai1 ,j2 . . . ai1 ,j ¯
¯ k ¯
¯ ai ,j ai ,j . . . ai ,j ¯
¯ 2 1 2 2 2 k ¯
¯ .. .. .. .. ¯
¯ . . . . ¯¯
¯
¯ ai ,j ai ,j . . . ai ,j ¯
k 1 k 2 k k

où 1 ≤ i1 < i2 < ... < ik ≤ p et 1 ≤ j1 < j2 < ... < jk ≤ n.

99
Théorème 7.31. Soit A = (ai,j ) ∈ Mp,n (K) et soit ρ le plus grand entier k ≤ inf {p, n} tel
qu’il existe un déterminant non nul, d’ordre k, extrait de A.
Alors
rg(A) = ρ.
Preuve. Laissée en exercice.

.............................................................................

100
7.7 Exercices

Exercice 1.
On note ε(σ) la signature de σ ∈ Sn (n ∈ N∗ ).
1) Montrer que ε(Id) = 1.
2) Montrer que pour toute transposition τ ∈ Sn , ε(τ ) = −1.
3)Calculer explicitement ε(σ) pour
µ σ de S2¶.
1 2 3
4) Soit σ ∈ S3 définie par σ = . Montrer que σ peut s’écrire comme la composé
2 3 1
de deux tranposition bien choisies. En déduire ε(σ).
5) calculer σoσ pour σ de 4) et calculer ε(σoσ). En déduire explicitement ε(σ) pour toute σ
de S3 .

Exercice 2.
Soit E un K-espace vectoriel, f une forme trilinéaire altérnée sur E, et e1 , e2 , e3 trois vec-
teurs de E. Calculer f (2e1 − 3e2 , e2 + 2e3 , e1 − 2e2 + 4e3 ) , en fonction de f (e1 , e2 , e3 ).

Exercice 3.
1) Calculer le déterminant à coefficients réels
¯ ¯
¯ 2 3 1 ¯
¯ ¯
¯ 2 7 8 ¯.
¯ ¯
¯ 5 5 0 ¯

2) Soit E un K−espace vectoriel de dimension 3. B = (e1 , e2 , e3 ) une base de E, (a, b, c) ∈ K3


et les vecteurs x = ae1 + be2 + ce3 , y = be1 + ce2 + ae3 , z = ce1 + ae2 + be3 .
Calculer detB (x, y, z).
3) Soient B et B0 deux bases d’un K−espace vectoriel E de dimension finie ≥ 1, et soit P la
matrice de passage de B à B 0 .
Montrer que detB (B 0 ) = det(P )
Exercice 4.
Soit f une forme linéaire sur l’espace vectoriel produit E × E.
1) Démontrer que si f est aussi une forme bilinéaire sur E, Alors f est nulle.
2) Soit ϕ et ψ deux formes linéaires sur E, et soit l’application g : E × E −→ K définie par
g(x, y) = ϕ(x)ψ(y), pour tout (x, y) ∈ E × E. Vérifier que g est une forme bilinéaire sur E.
Dans quels cas est-elle altérnée ?

Exercice 5.
Soit A = (ai,j ) ∈ Mn (R) telle que ai,j = 0 pour i > j.
1) Montrer que
n
Y
det(A) = a1,1 a2,2 ...an,n = ai,i .
i=1

2) Déduire que si B = bi,j ∈ Mn (R) telle que bi,j = 0 pour i < j, alors :
n
Y
det(B) = b1,1 b2,2 ...bn,n = bi,i .
i=1

Exercice 6.

101
Montrer que si (a, b, c) ∈ R3 ,
¯ ¯
¯ 1 1 1 ¯
¯ ¯
¯ a b c ¯ = 0.
¯ ¯
¯ b+c c+a a+b ¯

Exercice 7.
1) Calculer le déterminant, pour tout n ∈ N∗ .
¯ ¯
¯ a a a ... a ¯
¯ ¯
¯ a a + x1 a ... . ¯
¯ ¯
¯ a a a + x2 ... . ¯
¯ ¯
∆n+1 (x1 , x2 , ..., xn ) = ¯¯ . . . . . ¯
¯
¯ . . . . . ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯ a ... . . a + xn ¯

2)Etablir l’égalité :
¯ ¯
¯ a + x1 a ... a ¯
¯ ¯
¯ a a + x2 ... . ¯
¯ ¯
¯ ¯
¯ . . ¯ = x1 x2 ...xn (1 + a + ... + a ).
¯ . . ¯ x1 xn
¯ ¯
¯ . . ¯
¯ ¯
¯ a ... ... a + xn ¯

Exercice 8.
En utilisant des déterminants extraits, trouver le rang de la matrice :
 
a b a 1
A= a 2b 3a 2  ∈ M3,4 (R).
−b −a 2b b

Exercice 9. 
1 −1 1
1) Soit B =  1 −1 −1 . Montrer que B est inversible et calculer B −1 .
−1 −1 −1
2) Soit a un nombre réel, calculer l’inverse de la matrice :
µ ¶
cosa −sina
C= .
sina cosa

Exercice 10.
On considère les endomorphisme fa de R4 , dépendant d’un paramètre réel a, dont les matrices
Aa dans la base canonique sont données par :
 
1 a 1 a
 a 1 a 1 
Aa =  
 1 a 1 a  ∈ M4 (R).
a 1 a 1

1) Quel est le rang de Aa et de fa ? (Discuter suivant les valeurs de a).


En déduire le déterminant de Aa .

102
Exercice 11.  
−m 0 1
On considère les matrices Am =  2 m 1  ∈ M3 (R).
1 1 2
1) Calculer le déterminant de Am . Déduire le rang de Am .
2) Si fm est l’endomorphisme de matrice Am dans une base de E ; pour quelles valeurs de
m, fm est-il un automorphisme ? déterminer dans ce cas la matrice de fm −1 .

Exercice 12.
Soit a, b, c des réels non nuls, deux à deux distincts. En utilisant les formules de Cramer,
résoudrele système : 
 x+y+z = a
ax + by + cz = ab
 x y z
a + b + c 1
Exercice 13. Soit n un élément de N∗ , supérieur ou égal 2.
Soient a1 , ..., an n éléments de R , Calculer le déterminant de Vandermonde :
¯ ¯
¯ 1 a1 a21 ... a1n−1 ¯
¯ ¯
¯ 1 a2 a22 ... an−1 ¯
¯ 2 ¯
¯ . . . . . ¯
Vn = V (a1 , ..., an ) = ¯¯ ¯
¯ . . . . . ¯¯
¯ . . . . . ¯¯
¯
¯ 1 a a2 ... an−1 ¯
n n n
Q
(Indication : montrer par recurrence sur l’entier n que V (a1 , ..., an ) = 1≤i<j≤n (aj − ai )).
Exercice 14.
Soit s une permutation de {1, 2, ..., n} où n ∈ N∗ . Soit u l’endomorphisme de Rn défini par :

u(ei ) = es(i)

où B = {ei /1 ≤ i ≤ n} est la base canonique de R.


1. Calculer det(u).
2. Montrer que u est inversible et déterminer det(u−1 ).

103
Chapitre 8

RÉDUCTION DES
ENDOMORPHISMES

8.1 Introduction
Soit E un K− espace vectoriel et f un endomorphisme de E. Dans ce chapitre, l’objectif
est de chercher des bases de E dans lesquelles la matrice de l’endomorphisme f soit la plus
simple possible comme par exemple une matrice diagonale.
Le problème consiste à :
1- Caractériser les endomorphismes diagonalisables
2- Déterminer, si elles existent, les bases dans lesquelles la matrice de f est diagonale.
Remarque 8.1. L’intérêt de travailler avec des matrices diagonales est la réalisation pos-
sible de certains calculs comme par exemple : dét Mf , Mfk , k ∈ N, etc...

8.2 Vecteurs propres et valeurs propres d’un endomorphismes :


Définition 8.1. Soient E un K − e.v. quelconque et f ∈ Lk (E). On dit que λ ∈ K est une
valeur propre de f , s’il existe x ∈ E avec x 6= 0, tel que f (x) = λ.x.
Dans ce cas x s’appelle un vecteur propre associé à la valeur propre λ.
Remarque :
1. Le scalaire λ (qui dépend de x) est unique ; en effet,
f (x) = λx = λ0 x,
implique (λ − λ0 )x = 0 et donc, puisque x 6= 0, λ = λ0 .
2. Si λ ∈ K est une valeur propre de f , un vecteur propre associé à λ n’est pas unique.
En effet, si x est un vecteur propre associé à λ, et si α ∈ K, α 6= 0, αx est aussi
vecteur propre associé à λ. car f (αx) = αf (x) = αλx = λ(αx).
Proposition 8.2. λ ∈ K est une valeur propre de f si, et seulement si
Ker(f − λId) 6= {0}.
Autrement dit (f − λId) n’est pas injective.
Preuve.
λ ∈ K est une valeur propre ⇐⇒ ∃x 6= 0 tel que f (x) = λx
⇐⇒ f (x) − λId(x) = 0
⇐⇒ x ∈ Ker(f − λId)
⇐⇒ Ker(f − λId) 6= {0}.

104
Définition 8.3. Si λ ∈ K est une valeur propre de f , Ker(f − λId) est appelé le sous-espace
propre de f associé à la valeur propre λ.
On note
Eλ = Ker(f − λId).
Exemple Soit E = C[x] et f ∈ Lk (E) définie par :

f: C[x] −→ C[x]
.
P −→ P 0

Montrons que λ = 0 est la seule valeur propre de f et déterminons E0 .


Si P ∈ C, P 6= 0, on a P 0 = 0 et f (P ) = 0 ; donc λ = 0 est valeur propre de f .
De plus f (P ) = 0 implique P ∈ C. Donc Ker(f ) = C.
Si λ 6= 0 et P 6= 0, on a λP 6= 0. On a do (λP ) = do P .
Or P 0 = 0 ou do P = do P − 1. Donc f (P ) 6= λP .
La seule valeur propre de f est donc λ = 0 et le sous espace propre associé à la valeur propre
λ = 0 est Ker(f ) = C.

Dans toute la suite E est un K- e.v. de dimension finie.


Proposition 8.4. Soient f un endomorphisme de Eet λ1 , λ2 , ..., et λm des valeurs propres
deux à deux distinctes de f . Alors la somme Eλ1 + Eλ2 + ... + Eλm est direte.
Preuve.
A ecrire...........

8.2.1 Calcul des valeurs propres. Polynôme caractéristique


Définition 8.5. On appelle polynôme caractéristique de l’endomorphisme f , et on note
Pf (X) (ou Pf ), le polynôme Pf (X) = det(f − λId) = det(A − λIn ), où A est la matrice
de f dans une base quelconque de E.
Proposition 8.6. λ ∈ K une valeur propre de f si, et seulemnt si det(f − λId) = 0.
Preuve. D’après la proposition 8.2, λ ∈ K est valeur propre de f si et seulement si l’endo-
morphisme f − λId n’est pas injectif, ce qui équivaut, E étant de dimension finie, à f − λId
n’est pas automorphisme. Cette dernière condition équivaut à

det(f − λId) = 0.

Théorème 8.7. Soit f un endomorphisme d’un K-e.v. E de dimension finie.


Les valeurs propres de f sont les racines, dans K, du polynôme caractéristique Pf .
Preuve. Si A est la matrice de f dans une base B et si λ ∈ K, on a

det(f − λId) = det(A − λIn ) = Pf (λ).


D’après la proposition 8.6, λ est valeur propre de f si et seulement si Pf (λ) = 0.
Définition 8.8. Si λ est racine , dans K, du polynôme caractéristique Pf (X), de multiplicité
α ≥ 1, l’entier α est appelé la multiplicité de la valeur propre λ.
- Si α = 1, la valeur propre λ est dite simple ;
- si α = 2, la valeur propre λ est dite double,
etc...
Remarque :

1. Le polynôme caractéristique de l’endomorphisme f est un polynôme à coefficients dans


K, de degré n = dimE (voir EX.1 série N o 9)

105
2. Il résulte de la remarque précédente et des propriétés des polynômes que l’endomor-
phisme f admet au plus n valeurs propres distinctes, et s’il admet des valeurs propres
multiples, la somme de leurs multiplicités est inférieure ou égale à n.
3. Si K = C, l’endomorphisme f admet, d’après le théorème de d’Alembert, au moins
une valeur propre. D’après le théorème de factorisation dans C[X], on a :

Pf (X) = (λ1 − X)α1 ...(λp − X)αp ,

où les λi sont des nombres complexes deux à deux distinctes et les αi des entiers
supérieurs ou égaux à 1. les valeurs propres de f sont λ1 ...λp , de multiplicités α1 ...αp ,
et on a
α1 + ... + αp = do Pf (X) = n = dimE
Attention :
Ceci est faux si K = Q ou R. Si E est un (Q ou R)-espace vectoriel de dimension finie n ≥ 2,
f n’admet pas nécessairement de valeur propre.
Exemple :
Soit f l’endomorphisme du R-espace vectriel R2 , dont la matrice dans la base canonique est :
µ ¶
0 −1
A= .
1 0
On a : ¯ ¯
¯ −X −1 ¯
Pf (X) = det(A − XI2 ) = ¯¯ ¯ = X 2 + 1.
¯
1 −X
f n’admet pas de valeur propre.
Considérons l’endomorphisme g du C-espace vectoriel C2 dont la matrice dans la base
canonique est cette même matrice A.
On a
Pg (X) = X 2 + 1 = (X − i)(X + i)
et g admet les valeurs propres simples i et −i.
Remarque :
Une fois les valeurs propres calculées, on détermine les vecteurs propres en résolvant le
système linéaire homogène suivant :
   
x1 0
 ..   .. 
(A − λIn )  .  =  .  .
xn 0
où (x1 , . . . , xn ) est un vecteur propre associé à la valeur propre λ.
En effet, X v. p. ⇐⇒ X 6= 0 et X ∈ ker(A − λIn ).

Exemple :
 
−4 0 −2
Soit la matrice A =  0 1 0  .
5 1 3
Cherchons les valeurs propres de A.
¯ ¯
¯ −4 − λ 0 −2 ¯¯
¯
det(A − λId) = ¯¯ 0 1−λ 0 ¯¯
¯ 5 1 3−λ ¯
= (−4 − λ)(1 − λ)(3 − λ) + 10(1 − λ)
= (λ − 1)2 (λ + 2).

106
On a deux valeurs propres λ = 1 qui est une valeur propre double et λ = −2 une valeur
propre simple.
Touvons l’ensemble des vecteurs propre de A. Cela revient à résoudre le système linéaire
 
x1
 
(A − λI)X = 0 où x =  ... 
xn
Pour λ = 1, cherchons E1 :

 −5x + 0y − 2z = 0 ½
y=0
(A − I)X = 0 ⇐⇒ 0x + 0y + 0z = 0 ⇐⇒
 5x + y + 2z = 0
5x + y + 2z = 0

Donc
−5 −5
E1 = {(x, 0, x)/x ∈ R} = {x(1, 0, )}.
2 2
V1 = (1, 0, −5
2 ) engendre E1 donc dimE1 = 1.
Pour λ = −2, cherchons E−2 :

 −2x − 2z = 0 ½
y=0
(A + 2I)x = 0 ⇐⇒ 3y = 0 ⇐⇒
 x+z =0
5x + y + 5z = 0

Donc
E2 = {(x, 0, −x)/x ∈ R}
= {x(1, 0, 1)/x ∈ R}.
V2 = (1, 0, 1) engendre E−2 , donc dimE−2 = 1.

8.2.2 Sous-espaces propres


Théorème 8.9. :
Soit f un endomorphisme d’un K-espace vectoriel E de dimension n ≥ 1 et soit A la matrice
de f dans une base B de E. Alors dimK Eλ = dim ker(f − λI) = n − r où r désigne le rang
de la matrice (A − λIn).
Démonstration : On a d’après le théorème noyau-image :
dim Ker(f − λI) = n − dim Im(f − λI) = n − rg(f − λI) = n − rg(A − λIn ) = n − r
Théorème 8.10. :
Soit f un endomorphisme d’un K-espace vectoriel de dimension finie n ≥ 1, et soit λ une
valeur propre de f , de multiplicité α. Alors, on a :

dimK Eλ ≤ α

Démonstration : On a λ est racine de multiplicité α de Pf , donc il existe Q ∈ K[X] tel


que :
Pf (X) = (X − λ)α Q(X) et Q(λ) 6= 0.
Soit p = dimK Eλ .
∗ Montrons que Eλ est stable par f (i.e. f (Eλ ) ⊆ Eλ ).
Soit y = f (x), où x ∈ Eλ donc f (y) = f (f (x)) = f (λx) = λf (x) = λy, donc y ∈ Eλ . Soit g
la restriction de f à Eλ i.e. g = f /Eλ , alors g ∈ LK (Eλ ).
Soit (e1 , . . . , ep ) une base de Eλ . On a ∀x ∈ Eλ f (x) = λx.

107
 
λ 0
 .. 
D’où M at(g, (e1 , ..., ep )) =  . 
0 λ
 
λ − X 0 ... 0
 . .
.. .. .. 
 0 . 
Donc Pg (x) = 
 .. .. ..
 = (−1)p (x − λ)p

 . . . 0 
0 ... 0 λ − X
On sait d’après T.D. que Pg /Pf par suite,

(X − λ)p /(X − λ)α .Q

Q(λ) 6= 0, donc Q et (X − λ)p sont premiers entre eux, donc d’après le théorème de Gauss
(X − λ)p divise (X − λ)α et par suite
p ≤ α.
Corollaire : Soit f un endomorphisme d’un K-espace vectoriel de dimension finie. Si λ est
valeur propre simple de f , on a
dim Eλ = 1.

8.3 Diagonalisation
On suppose que E est un K-espace vectoriel de dimension finie n ≥ 1.

8.4 Généralités
Définition 8.11. Soit f un endomorphisme de E. On dit que f est diagonalisable s’il existe
une base de E dans laquelle la matrice de f est diagonale.

Proposition 8.12. Pour que f soit diagonalisable, il faut et il suffit qu’il existe une base
de E constituée de vecteurs propres de f . Alors la matrice de f dans une telle base est une
matrice diagonale dont les coefficients diagonaux sont les valeurs propres de f , chacune étant
écrite un nombre de fois égal à sa multiplicité.
Démonstration.
Si f est diagonalisable, soit B 0 = (e01 , . . . , e0n ) une base de E dans laquelle la matrice D de f
est diagonale :  
µ1 0 . . . 0
 . 
 0 . . . . . . .. 

D= . .  , µi ∈ K, 1 ≤ i ≤ n.
. . . . 
 . . . 0 
0 . . . 0 µn
Alors, pour 1 ≤ i ≤ n, on a f (e0i ) = µi e0i , et e0i , qui non nul, est un vecteur propre de f associé
à la valeur propre µi .
On a Pf (X) = det(D − XIn ) = (µ1 − X)...(µn − X), et les coefficients µi sont les valeurs
propres de f .
En groupant les facteurs du premier degré égaux, on a

Pf (X) = (λ1 − X)α1 ...(λp − X)αp .

Réciproquement, s’il existe une base B0 = (e01 , . . . , e0n ) de E constituée de vecteurs propres de
f , on a f (e0i ) = µi e0i , 1 ≤ i ≤ n, et la matrice de f dans la base B0 est la matrice diagonale

108
ci-dessus.

Définition 8.13. Soit A ∈ Mn (K). On dit que A est diagonalisable sur K, si elle est sem-
blable, dans Mn (K), à une matrice diagonale, c’est-à-dire s’il existe une matrice P ∈ Mn (K),
inversible, telle que la matrice P −1 AP soit diagonale.

8.5 Caractérisation des endomorphismes diagonalisables


Théorème 8.14. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie
n ≥ 1, admettant des valeurs propres. Soit λ1 , ..., λp , toutes les valeurs propres distinctes de
f , et soit Ei = Ker(f − λi I) le sous-espace propre associé à la valeur propre λi . Alors les
assertions suivantes sont équivalentes :
(a) P
f est diagonalisable ;
p
(b) dim Ei = n(= dim E) ;
i=1L
(c) E = pi=1 Ei .
Démonstration. P L
Posons F = pi=1PEi . D’après la proposition 8.4, F = pi=1 Ei . D’après le théorème ? du
chapitre ?, dim F = pi=1 dim Ei et si Bi0 est une base de Ei , 1 ≤ i ≤ p, (B0 , ..., Bp0 ) est une
base de F .
(a) =⇒ (b). f étant diagonalisable, soit B 0 = (e01 , ..., e0n ) une base de E constituée de vecteurs
propres de f . Pour 1 ≤ j ≤ n, on a e0j ∈ ∪pi=1 Ei ⊂ F d’où E ⊂ F et E = F .
Alors :
p
X
dim Ei = dim F = dim E = n
i=1
Pp L
(b) =⇒ (c). i=1 dim Ei = n implique dim F = dim E et donc E = F = pi=1 Ei .
(c) =⇒ (a). Bi0 étant une base de Ei , 1 ≤ i ≤ p, B 0 = (B10 , ..., Bp0 ) est une base de E = F et
c’est une base de E constituée de vecteurs propres de f .
Donc f est diagonalisable.
corollaire. Si f admet n valeurs propres distinctes, où dim E = n, alors f est diagonalisable.
Démonstration.
On a d’après le corollaire,

dim Ei = 1, 1≤i≤n

Donc
p
X
dim Ei = n
i=1

Par suite f est diagonalisable.

Remarque 8.2. Ce corollaire donne une condition suffisante pour qu’un endomorphisme
soit diagonalisable. Cette condition n’est pas nécessaire comme le montre l’exemple suivante :
soit l’homothétie vectorielle f : x −→ λx ; f est diagonalisable, sa matrice dans n’importe
quelle base étant λIn . Cependant, Pf (X) = det(λIn − XIn ) = (λ − X)n et λ est valeur propre
de f de multiplicité n.

Théorème 8.15. Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).


Pour que f soit diagonalisable il faut et il suffit :

109
(1) Pf est scindé sur K i.e.

Pf (X) = (λ1 − X)α1 ....(λp − X)αp ,

où les λi sont des éléments ( deux à deux disticts) de K.


(2) dimK Eλ i = αi , 1 ≤ i ≤ p.

Preuve. Voir Exercice 5.


Pratique de la diagonalisation
Pour diagonaliser une matrice ou un endomorphisme, on procède comme suit :

A- Recherche des valeurs propres

On calcule Pf (X) = dét (f − XId) puis on cherche les racines de ce polynôme. Ce sont les
valeurs propres. Pour une matrice A, on calcule dét(A − XIn ).
On essayera, autant que possible, de calculer Pf en factorisant dét (A − XIn ) ; si Pf ne
vérifie pas la condition (1) du théorème 5, i.e. Pf n’est pas scindé sur K, alors f n’est pas
diagonalisable.

B- Recherche des sous-espaces propres

Supposons que Pf est scindé sur K.


Pour chaque valeur propre λ trouvée, on résout le système (A − λIn )V = 0. La résolution,
faite par une méthode ou une autre, nous donne l’ensemble des vecteurs V solutions et nous
donne ainsi une base du sous-espace propre Eλ associà λ.
On détermine la dimension de chaque sous-espace propre Eλ = ker(f − λId). On a

dimEλ = n − rg(A − λIn ).

Alors, si la condition (2) du théorème 5 est également réalisée, f est diagonalisable. On se


place dans ce cas pour la suite.
Diagonaliser f , c’est trouver une base B 0 de E dans laquelle la matrice de f est diagonalisable.

C- Recherche d’une base de vecteurs propres

Dans chaque Eλ i , on détermine une base Bi0 pour 1 ≤ i ≤ p ; alors, puisque E = ⊕pi=1 Eλ i ,
B0 = (B10 , ..., Bp0 ) est une base constituée de vecteurs propres de f et dans cette base B 0 , la
matrice de f une matrice diagonale D.

♣ On obtient la matrice D en mettant sur la diagonale les valeurs propres de f . Chaque


valeur propre apparait un nombre de fois égal à sa multiplicité.

♣ La matrice de passage s’obtient en mettant en colonne les vecteurs propres trouvés. (Attention
Il faut respecter le même ordre des valeurs propres mises dans D).

♣ Les matrices A et D sont liées par la relation :

D = P −1 AP ⇔ A = P DP −1 .

110
Exemple
Diagonaliser la matrice suivante :
 
8 0 9
A =  −3 −1 −3 
−6 0 −7
¯ ¯
¯ 8−X 0 9 ¯
¯ ¯
¯
det(M − XI) = ¯ −3 −1 − X −3 ¯ = −(X − 2)(X + 1)2 .
¯
¯ −6 0 −7 − X ¯
Les valeurs propres sont -1 valeur propre double, et 2 valeur propre simple.
* Sous-espace propre associé à la valeur propre -1. On résout le système :

 9x +9z = 0
(A + I)V = 0 ⇔ −3x +0y+ −3z = 0 ⇔ x + z = 0.

−6x +0y+ −6z = 0

On prend x comme inconnue principale, y et z comme inconnues non principales.


Alors si y = 1 et z = 0 on obtient comme solution f1 = (0, 1, 0) et si y = 0 et z = 1 on
obtient f2 = (−1, 0, 1). Or dim E−1 = 2 donc la suite (f1 , f2 ) est une base de E−1 .
* Sous-espace propre associé à la valeur propre 2. On résout le système :

 6x +9z = 0 ½
x = −32 z
(A − 2I)V = 0 ⇔ −3x + − 3y+ −3z = 0 ⇔ 1
 y = 2z
−6x +0y+ −9z = 0

D’où, en prenant x et y comme inconnues principales et z comme inconnue non principale


−3 1 −3 1
E2 = {( z, z, z)/z ∈ R} = vect(( , , 1)).
2 2 2 2
les trois vecteurs trouvés forment notre base de vecteurs propres.

8.6 Trigonalisation
Définition 8.16. Soit f un endomorphisme de E et A ∈ Mn (K).
1. On dit que f est trigonalisable, s’il existe une base de E dans laquelle la matrice de f
est triangulaire. Trigonaliser f , c’est trouver une base de E dans laquelle la matrice de
f est triangulaire.
2. On dit que A est trigonalisable sur K, si elle est semblable, dans Mn (K), à une matrice
triangulaire, c’est-à-dire s’il existe une matrice P ∈ Mn (K), inversible, telle que la
matrice P −1 AP soit triangulaire. Trigonaliser A sur K, c’est trouver une matrice P ∈
Mn (K), inversible, telle que la matrice P −1 AP soit triangulaire.
Théorème 8.17. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie
n ≥ 1. Pour que f soit trigonalisable, il faut et il suffit que le polynôme caractéristique de f
soit décomposable en produit de facteurs du premier degré

Pf (X) = (λ1 − X)α1 ...(λP − X)αP ,

où les λi sont des éléments (deux à deux ) distincts de K.


Preuve. A écrire...

111
Théorème 8.18. (théorème de Cayley-Hamilton)
Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie n ≥ 1. on a

Pf (f ) = 0,

où Pf est le polynôme caractéristique f .


Preuve. Voir exercice 7.

112
8.7 Exercices

Exercice 1.
Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).
Soit λ une valeur propre de f , on pose Eλ = Ker(f − λI) le sous-espace propre associé à la
valeur propre λ.
1) Montrer que le polynôme caractéristique Pf (X) =dét(f − XI) de f ne dépend pas de la
base choisie dans E.
2) Montrer que Pf est un polynôme à coefficients dans K de degré n. Calculer a0 et an .
3) Démontrer que deux matrices carrées semblables de Mn (K) ont même polynôme ca-
ractéristique.
La réciproque est-elle vraie ?
4) Déduire que deux matrices semlables ont les mêmes valeurs propres.
5) Soit la matrice :  
−4 0 −2
A= 0 1 0 
5 1 3
5.1 Calculer les valeurs propres de A.

5.2 Déterminer une base de chacun des sous espaces propres de A.


Exercice 2.
Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).
1) Montrer que Eλ est stable par f .
2) Soit M ∈ Mn (K) une matrice carré de la forme :
µ ¶
A C
M=
0 B

avec A ∈ Mp (K) , B ∈ Mn−p (K) et C ∈ Mp,n−p (K).


Montrer par récurrence que
detM = detA.detB.
3) Soient g la restriction de f à Eλ . Montrer que g ∈ LK (Eλ ).
4) Déduire que Pg divise Pf .

Exercice 3.
Soient A et B deux matrices de Mn (K) , avec K = C et n ∈ N∗ .
1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que :

(−λ)n 1
PA−1 (λ) = PA ( ),
det(A) λ

où PA est le polynôme caractéristique de A.


2) On appelle spectre de A l’ensemble des valeurs propres de A.
Démontrer l’équivalence suivante :

PA (B) est inversible ⇔ Sp(A) ∩ Sp(B) = ∅.

Exercice 4.
Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit

113
d’autre part A la matrice carrée de taille n dont tous les coefficients sont égaux à 1 :
 
1 1 ... ... 1
 1 1 ... ... 1 
 
 . . . 
A=  .

 . . 

 . . . 
1 1 ... ... 1
On désigne par f l’endomorphisme de E dont la matrice dans la base B est A.
1) Soit u le vecteur u = e1 +e2 +...+en . Montrer que Im(f )=Vect(u). Quelle est la dimension
de Ker(f ) ?
2) Trouver les valeurs propres et leurs sous-espaces associés de f .
3) Déduire qu ’il existe une base B 0 de E telle que la matrice de f dans B0 soit A0 , avec
 
0 0 ... 0 0
 0 0 ... 0 0 
 
 . . . . 
0
A =  
. . . . 
 
 0 0 ... 0 0 
0 0 ... 0 n
4) Etablir que (A0 )k = nk−1 A0 pour tout k ∈ N∗ . En déduire Ak pour tout k ∈ N∗ .

Exercice 5.
Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).
Montrer que f est diagonalisable si et seulement, si
(1) Pf est scindé sur K i.e.

Pf (X) = (λ1 − X)α1 ....(λp − X)αp ,

(2) dimK Eλ i = αi , 1 ≤ i ≤ p.

Application :
Soit E un C-espace vectoriel et f un endomorphisme de E représenté par la matrice :
 
a 0 b
M = 0 a+b 0 
b 0 a

sur une base donnée B = (e1 , e2 , e3 ) de E.


Déterminer les valeurs propres et sous-espace propres associés de M .
En conclure si elle est ou non diagonalisable.

Exercice 6.
Discuter selon le paramètre m la diagonalisation de la matrice suivante dans M3 (R)
 
1 m 1
A =  0 1 1 .
0 0 −1
Exercice 7.
On se propose de démontrer le résultat suivant :

114
Soit E un C− espace vectoriel de dimension finie = n ≥ 1. Alors pour tout endomorphisme
f de E
on a
Pf (f ) = 0,
où Pf est le polynôme caractéristique f .
1) Montrer qu’il existe une base B = (b1 , ..., bn ) dans laquelle la matrice de f triangulaire
supérieure ; i.e. M (f, B) = ti,j avec ∀i ∈ {1, ..., n} tii = λi et ∀(i, j) ∈ {1, ..., n}2 , i > j
entraı̂ne tij = 0.
2)Pour tout i ∈ {1, ..., n} on pose :
ui = λi Id − f
et
Ui = (λ1 Id − f )o(λ2 Id − f )o...o(λi Id − f ).
Montrer que pour tout j ∈ {1, ..., i} : Ui (bj ) = 0.
3) Déduire que pour tout j ∈ {1, ..., n} Ui (bj ) = 0.
4) Conclure.
5) Application :
5.1) Soient E un K− espace vectoriel de dimension finie n ≥ 1 et f ∈ L(E). Montrer que
pour tout p ∈ N, on a f p ∈ V ect(IdE , f, f 2 , ..., f n−1 ).
5.2) Soit  
2 0 4
A =  3 −4 12  ∈ M3 (R).
1 −2 5

Ecrire Ap , pour tout p ∈ N comme combinaison linéaire de I3 , A et A2 .

Exercice 8.
Soient E un K− espace vectoriel de dimension fini n ≥ 1 et f un endomorphisme de E. On
dit que f est nilpotent, s’il existe un entier m ≥ 1 tel que f m = 0.
1) Soit f un endomorphisme nilpotent. Montrer qu’il existe un entier q ≥ 1 tel que f q = 0 et
f q−1 6= 0.
Cet entier q est appelé indice de nilopotence de f .
2) Montrer que rg(f ) ≤ n − 1.
3) Soit x ∈ E tel que f q−1 (x) 6= 0, prouver que (x, f (x), ..., f q−1 (x)) est libre. En déduire que
q ≤ n.
4) Etablir l’équivalence suivante :
f nilpotent ⇔ f n = 0.
5) Montrer que si f est nilpotent d’indice n, alors il existe une base B de E telle que :
 
0 1 0 ... ... 0
 . 1 . 
 
 . . 1 . 
M (f, B) =  .

 . 0 

 . 1 
0 ... ... ... . 0
6) Application : Soit  
−2 −1 2
A =  −15 −6 11  ∈ M3 (R).
−14 −6 11

115
6.1) Calculer le polynôme caractéristique PA de A. A est -il diagonalisable ?
6.2) Prouver qu’il existe λ ∈ R tel que A − λI3 soit nilpotente.
6.3) En déduire qu’il existe une matrice P inversible telle que
 
1 1 0
P −1 AP ==  0 1 1  ∈ M3 (R).
0 0 1

Exercice 9.
Chercher les valeurs propres et les sous espaces propres associés aux applications classiques :
a- Les homothéties λId
b- Les projecteurs c’est-à-dire les endomorphismes f non nuls de Rn , différents de l’identité
de Rn et tels que f 2 = f .
c- E = R2 et f la rotation d’angle π2 i.e. l’application linéaire définie par : f ((x, y)) = (−y, x).
d- E = R3 et f est la symertie orthogonale par rapport au plan P d’équation x + y + z = 0.

Exercice 10. (Application de la diagonalisation)

1) Calculer M n , où M est une matrice carrée : Soit


 
0 1 0
M = 1 0 1 
1 1 1

Calculer M n , n ∈ N∗ , par diagonalisation.

2) Application aux suites récurrentes :


On considère deux suites (un )n∈N et (vn )n∈N de nombres complexes telles que pour tout entier
naturel n on ait : ½
un+1 = −10un − 28vn
vn+1 = 6un + 16vn .
Calculer un et vn en fonction de u0 v0 et n.

116
Chapitre 9

Examens de l’année universitaire


2005-2006

Université Cadi Ayyad Durée du sujet : 1H :30min


Ecole Nationale des Sciences Appliquées Responsable : Lakhel E.
Safi Horaire : 9h :00-10h :30.

Devoir surveillé N 1.
Epreuve d’algèbre I Les trois exercices sont indépendants
Examen de 18 octobre ... Justifier toutes vos réponses.

Exercice 1.
Soient A, B , C, ∆ et P des polynômes de K[X], n ∈ N∗ , x1 , x2 , ..., xn ∈ K deux à
deux distincts.
1) Montrer que
x1 racine de P ⇐⇒ (X − x1 )/P.
Q
2) Déduire que si x1 , x2 , ..., xn sont des zéros de P , alors ni=1 (X − xi )/P.
3) Enoncer et démontrer le théorème de Gauss.
4) Montrer que si C divise A + B et A − B alors C divise A et B.
A B
5) Montrer que si ∆ 6= 0 et ∆ =pgcd (A, B) alors les polynômes Q1 = ∆ et Q2 = ∆ sont
premiers entre eux.

Exercice 2. On considère le polynôme

P (X) = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16.

1) Montrer que -2 est un zéro d’ordre 3 de P .


2) Montrer que √j est une racine de P , et en déduire que j 2 (= j) est une racine de P , où
2iπ
j = e 3 = −1+i2
3
.
3) Factoriser P (X) dans C[X] et dans R[X].

Exercice 3.

117
1) Soit n un entier naturel non nul. Quelle est la multiplicité pn de la racine 1 dans le
polynôme
Pn (X) = X 2n+1 − (2n + 1)X n+1 + (2n + 1)X n − 1?
2) On note Qn (X) le quotient de Pn (X) par (X − 1)3 . Montrer que

Pn+1 (X) − XPn (X) = (X − 1)3 (1 + X + ... + X n )2 .

3) Quelle relation en déduit-on pour les polynômes Qn ?


4) Calculer Qn pour n = 1, 2, 3, 4. Quelle hypothèse peut-on faire sur la forme générale de
Qn .
5) Montrer que

(1 + X + ... + X n )2 = 1 + 2X + 3X 2 + ... + (n + 1)X n + nX n+1 + ... + 2X 2n−1 + X 2n .

6) On pose an = 1 + 2 + ... + (n + 1) = (n+1)(n+2)


2 . Déduire de ce qui précède par récurrence
que
Qn (X) = a0 + a1 X + ... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 X 2n−2 .

Barême approximatif :
Exercice 1 : 5 points ; Exercice 2 : 5 points, Exercice 3 : 10 points.

118
Corrigé du devoir surveillé N o 1
Exercice 1.
1) ⇒) Si P est divisible par X − xi , on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X],
tel que
P (x) = (x − xi )Q(x).
Par suite :
P (xi ) = 0.
⇐) Soit xi une racine de P . Faisons la division euclidienne de P par X − xi . Le reste
R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a donc
P (x) = (x − xi )Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0 puisque
P (xi ) = 0 : P est donc bien divisible par X − xi .
2) On a d’une part, pour tout i ∈ {1, ..., n} xi est zéro de P , donc (X − xi )/P .
D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − xi ) ∧ (X − xj ) = 1.
Par conséquent,
Yn
(X − xi )/P.
i=1

3) Le théorème de Gauss affirme que : Si A, B et C sont trois polynômes et si C est premier


avec B et divise AB, alors C divise A.
En effet, C divise AB ⇒ ∃Q ∈ K[X] tel que

AB = QC(∗)

C ∧ B = 1 ⇒ ∃U, V ∈ K[X] tels que U B + V C = 1 (**).


Multiplions (**) par A, on obtient :

U AB + V AC = A.

D’après (*), on peut remplacer AB par QC :

(U Q + V A)C = A.

D’où C divise A.
4) On a C divise A + B ⇒ ∃Q1 ∈ K[X] tel que A + B = Q1 C (***).
On a aussi C divise A − B ⇒ ∃Q2 ∈ K[X] tel que A − B = Q2 C (4*).
En faisant la somme de (***) et (4*), on obtient :
1
A = (Q1 + Q2 )C,
2
donc C divise A.
Et en faisant la différence de (***) et (4*), on aura
1
B = (Q1 − Q2 )C
2
donc C divise B.
5) Soit D = pgcd(Q1 , Q2 )
On a D divise Q1 ⇒ ∃R1 ∈ K[X] tel que Q1 = DR1 .
De même, on a D divise Q2 ⇒ ∃R2 ∈ K[X] tel que Q2 = DR2 .
Mais
A = Q1 ∆ = D∆R1 ,

119
d’où D∆ divise A.
On a aussi,
B = Q2 ∆ = D∆R2 ,
d’où D∆ divise B.
Par conséquent D∆ divise ∆ = pgcd(A, B).
Donc il existe S ∈ K tel que ∆ = SD∆ ; d’où DS = 1. Ce qui entraı̂ne que D est une
constante de K i.e. Q1 et Q2 sont premiers entre eux.

Exercice 2.
1) On a
P (X) = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16.
Après le calcul, on trouve
0 000
P (−2) = P (−2) = P 00 (−2) = 0 et P (−2) = 72 6= 0.

Donc −2 est un zźro d’orde 3 de P .


2) Ona

P (j) = j 6 + 5j 5 + 5j 4 − 12j 3 − 32j 2 − 32j − 16


= 1 + 5j 2 + 5j − 12 − 32j 2 − 16 ( carj 3 = 1, j 4 = j et j 5 = j 2 = j.)
= −27(1 + j + j) = 0.

D’autre part P est un polynôme à coefficients réels, de plus j est racine de P donc j est aussi
racine de P .
3) Fractorisons P dans C[X] : en faisant la division euclidienne de P par (X + 2)3 = X 3 +
6X 2 + 12X + 8. On trouve X 3 − X 2 − X − 2.
En divison X 3 − X 2 − X − 2. par (X − j)(X − j) = X 2 + X + 1 on trouve la factorisation
de P dans C[C]
P = (X − j)(X − j)(X − 2)(X + 2)3 .
En groupant les termes conjugués, on obtient la factorisation de P dans R[X] :

P = (X 2 + X + 1)(X − 2)(X + 2)3 .

Exercice 3.
1) On a tout dabord Pn (1) = 0, puis
0
Pn (X) = (2n+1)X 2n −(2n+1)(n+1)X n +(2n+1)nX n−1 = (2n+1)[X 2n −(n+1)X n +nX n−1 ],
0 00
donc Pn (1) = 0. On a ensuite Pn (X) = (2n + 1)[2nX 2n−1 − n(n + 1)X n−1 + n(n − 1)X n−2 ],
00
donc Pn (1) = 0. (Le résultat reste vrai si n = 1, car le coefficient de X n−2 est nul dans ce
cas).
On a enfin

Pn(3) (X) = (2n + 1)[2n(2n − 1)X 2n−2 − n(n + 1)(n − 1)X n−2 + n(n − 1)(n − 2)X n−3 ],

donc

Pn(3) (1) = (2n + 1)[2n(2n − 1) − n(n + 1)(n − 1) + n(n − 1)(n − 2)] = (2n + 1)(n2 + n) 6= 0.

(Le résultat reste vrai si n = 1 et n = 2, car le coefficient de X n−2 est nul dans ces deux
cas).

120
Donc 1 est racine triple de Pn (X), c’est-à-dire pn = 3.
2) On a

Pn+1 (X) − XPn (X) = X 2n+3 − (2n + 3)X n+2 + (2n + 3)X n+1 − 1
−(X 2n+1 − (2n + 1)X n+1 + (2n − 1)X n − 1)
= (X − 1)X 2n+2 − 2(X − 1)X n+1 + X − 1
= (X − 1)(X 2n+2 − 2X n+1 + 1)
= (X − 1)(X n+1 − 1)2 .

Donc en utilisant la relation

X n+1 − 1 = (X − 1)(1 + X + + X n ),

on trouve :
Pn+1 (X) − XPn (X) = (X − 1)3 (1 + X + + X n )2 ,
3) Puisque
Pn+1 = (X − 1)3 Qn+1
et
Pn = (X − 1)3 Qn ,
on en déduit
Qn+1 (X) − XQn (X) = (1 + X + + X n )2 .
4) Remarquons que
P1 (X) = X 3 − 3X 2 + 3X − 1 = (X − 1)3 ,
donc
Q1 (X) = 1.
En appliquant la relation obtenue dans la question 2) on obtient alors

Q2 (X) = XQ1 (X) + (1 + X)2 = X 2 + 3X + 1,

puis
Q3 (X) = XQ2 (X) + (1 + X + X 2 )2 = X 4 + 3X 3 + 6X 2 + 3X + 1,
et enfin

Q4 (X) = XQ3 (X) + (1 + X + X 2 + X 3 )2 = X 6 + 3X 5 + 6X 4 + 10X 3 + 6X 2 + 3X + 1.

On voit donc s’introduire une suite de nombres a0 , a1 , a2 , .... tels que

Qn (X) = a0 + a1 X + .... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 x2n−2 .

On peut remarquer également que an + (n + 2) = an+1 en partant de a0 = 1, et donc que

(n + 1)(n + 2)
an = 1 + 2 + ... + (n + 1) = .
2
5) Dans le développement de (1 + X + ... + X n )(1 + X + ... + X n ), le coefficient de X k est
le nombre de façons d’écrire X k sous la forme X p X k−p , avec 0 ≤ p ≤ n et 0 ≤ k − p ≤ n.
La dernière condition s’écrit encore k − n ≤ p ≤ k.
Il y a deux cas possibles :
Si 0 ≤ k ≤ n, alors 0 ≤ p ≤ k, et lon a k + 1 dćompositions possibles.

121
Si n ≤ k ≤ 2n, alors k − n ≤ p ≤ n, et l’on a 2n − k + 1 décompositions possibles.
Donc on a bien

(1 + X + + X n )2 = 1 + 2X + 3X 2 + + (n + 1)X n + nX n+1 + + 2X 2n−1 + X 2n .

6) La propriété est vraie à l’ordre 1, puisque Q0 (X) = a0 = 1.


Supposons la propriété vraie à lordre n. Alors :

Qn+1 (X) = XQn (X) + (1 + X + ... + X n )2


= X(a0 + a1 X + .... + an−1 X n−1 + an−2 X n + ... + a1 X 2n−3 + a0 x2n−2 )+
1 + 2X + 3X 2 + .... + (n + 1)X n + nX n+1 + .... + 2X 2n−1 + X 2n
= 1 + (a0 + 2)X + .... + (an−1 + n + 1)X n + (an−2 + n)X n+1 + .... + (a0 + 2)X 2n−1 + X 2n .

Mais, si k ≥ 1, on a ak−1 + k + 1 = ak+1 d’où

Qn+1 (X) = a0 + a1 X + ... + an X n + an−1 X n+1 + ... + a1 X 2n−1 + a0 x2n .

122
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 2. Durée du sujet : 1h :30min


EPREUVE D’ALGEBRE Responsable : Lakhel El Hassan
Examen de 29 novembre 2005. Horaire : 10h :30-12h :00.

Exercice 1.
Soit P un polynôme de C[X] de degré au moins 1 et r un entier strictement positif.
1) Montrer que le reste de la division euclidienne de P par (X − a) est P (a).
2) Trouver le reste et le quotient de la division euclidienne du polynôme X 2r − 1 par X + 1
(réfléchir ou calculer, il faut choisir).
On note α1 , α2 , ..., αp les racines distinctes de P et k1 , k2 , ..., kp leurs ordres de multipli-
cités. 0
3) Montrer que la décomposition en éléments simples de la fraction rationnelle PP est
0
P k1 k2 kp
= + + ... + .
P X − α1 X − α2 X − αp

4) Application : décomposer en élélents simples dans C(X) la fraction rationnelle :

X n−1
, n ∈ N∗ .
Xn − 1
Exercice 2.
Décomposer en éléments simples dans K(X) les fractions :
1
a) F1 = X(X+1)(X+2)...(X+n) (K = R);
X8
b) F2 = (X 2 −X+1)3
(K = R);
X 2n
c) F3 = (X 2 +1)n
(K = C).

Problème .
Etant donné deux polynômes A et B de R[X], le théorème de Bezout affirme que A et B sont
premiers entre eux dans R[X] si et seulement si il existe un couple (U, V ) de polynômes de
R[X] tel que AU + BV = 1.
On suppose que A et B sont premiers entre eux.
1) Montrer que, si les couples (U1 , V1 ) et (U2 , V2 ) vérifient le théorème de Bezout pour A et
B, alors :
- le polynôme V1 − V2 est divisible par A,
- le polynôme U1 − U2 est divisible par B.
2) Montrer que il existe un unique couple (U0 , V0 ) vérifiant :
(i) AU0 + BV0 = 1
(ii) deg(U0 ) < deg(B)
(iii) deg(V0 ) < deg(A).
3) Trouver, en fonction de (U0 , V0 ), tous les couples (U, V ) de R[X] tels que AU +BV = 1.
4) Que pensez-vous de ce problème si l’équation à résoudre est AU + BV = C où C est un
polynôme quelconque de R[X].

123
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 3. Durée du sujet : 1h :30min


EPREUVE D’ALGEBRE Responsable : Lakhel El Hassan
Examen de 26 janvier ... Horaire : 10h :30-12h :00.

Problème 1. Soit E un K-espace vectoriel de dimension finie.


I. Soit F un K-espace vectoriel de dimension quelconque et f : E −→ F une application
linéaire.

1) Montrer que l’image d’une suite génératrice de E est une suite génératrice de Im(f ).
2) Montrer que f est un isomorphisme si et seulement si l’image d’une base de E est
une base de F .
3) En déduire que si F est de dimension finie et f : E −→ F est un isomorphisme.
Alors
dimK E = dimK F.
4) Montrer que si F1 et F2 sont deux sous-espaces vectoriels de E tels que E = F1 ⊕ F2 ,
alors
dimK E = dimK F1 + dimK F2 .
(Indication : utiliser une base B1 de F1 et une base B2 de F2 et montrer que B1 ∪B2 = B
est une base de E).

II. On suppose que g est un endomorphisme de E c’est-à-dire : g ∈ LK (E).


5) Montrer que les propriétés suivantes sont équivalentes :
i) E = Ker(g) ⊕ Im(g),
ii) Ker(g 2 ) = ker(g),
iii) Im(g 2 ) = Im(g).
III. Application :
Soit I l’endomorphisme identique de E. On appelle projecteur de E tout endomorphisme
p de E tel que p2 = p.
6. Démontrer l’équivalence des propositions suivantes où p est un endomorphisme de
E :
i. p est un projecteur,
ii. I − p est un projecteur,
iii. p(I − p) = (I − p)p = 0.
7. Déduire que si p est un projecteur,

E =∈ (p) ⊕ ker(p)

8. Soit E = R2 . L’endomorphisme f de E est défini par :

f ((x, y)) = (x − y, y − x) ((x, y) ∈ R2 )

Déterminer l’image et le noyau de f . f est-il un projecteur ?

124
Exercice 2. On prend E = R[X].
Soit f : R[X] −→ R[X] la ”multiplication par X ” définie par

f (P (X)) = XP (X).

a- Montrer que f est une application linéaire de E dans E.

b- Déterminer Ker(f ) et Im(f ).

d- Déduire que R[X] est de dimension infinie.

Barême approximatif :

Problème 1. 15 points : partie I : 4 pts + partie II : 4 pts ; Partie III : 7 pts ;


Exercice 2. : 5 points.

125
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N o 5.
Durée du sujet : 1h :30min
EPREUVE D’ALGEBRE LINÉAIRE Responsable : Lakhel El Hassan
Examen de 17 avril 2006. Horaire : 8h :30-10h :00.

Problème
Soient f: R3 →  R4  etg: R4 → R3
  −2x −2y −2z x  
x  2x +2y +3z   y  x − y + 2z − t
 y  7→     7→  y−t 
 4x +2y +4z   z 
z y−z+t
3x +y +4z t
1. Montrer que f et g sont des applications linéaires dont on donnera les matrices rela-
tivement aux bases canoniques. On notera A la matrice de f et B la matrice de g.
2. Écrire par rapport aux bases canoniques la matrice C de f og puis la matrice D de gof
en fonction de A et B.
3. Pour tout λ ∈ R, on considère la fonction P (λ) = det(D − λI3 ) où I3 désigne la
matrice
 identité de
 l’espace des matrices carrées 3 × 3. Après avoir vérifié que D =
1 −1 −1
 −1 1 −1  , montrer que
1 1 3

P (λ) = (2 − λ)2 (1 − λ).

4. Pour tout λ ∈ R, on pose Eλ = Ker(gof − λId3 ) où Id3 désigne l’identité de l’espace
R3 . Déduire dela question
 précédente
 que Eλ 6= {0}
 si etseulement si λ = 1 ou 2.
1 1 1
5. Soient V1 =  1 , V2 =  −1 , et V3 =  0 . Montrer que (V1 ) est une
−1 0 −1
base de E1 et que (V2 , V3 ) est une base de E2 .
6. Soit P la matrice du système B = (V1 , V2 , V3 ). Calculer det(P ) et en déduire que B est
une base de R3 .
7. Ecrire la matrice D0 de gof dans la base B = (V1 , V2 , V3 ) (au départ et à l’arrivée)
sans calculer P −1 . Exprimer D en fonction de D0 , P et P −1 .
8. On note Mn la matrice de (gof )n = (gof )o...o(gof ) dans les bases canoniques (au
| {z }
n f ois
départ et à l’arrivée). Exprimer Mn en fonction de D0 , P et P −1 .
9. Calculer P −1 puis la matrice Mn .
10. Déduire de la question 8) une expression de la matrice de (gof )n = (gof )o...o(gof )
| {z }
n f ois
dans les bases canoniques (au départ et à l’arrivée) en fonction de A, B et D.
11. Montrer que Kerg ⊂ Ker(f og). Sans calculer le rang de g , dire pourquoi dim(Kerg) 6=
0. En déduire que Ker(f og) 6= {0}.
12. Pour tout λ ∈ R , on pose Fλ = Ker(f og − λId4 ) où Id4 est l’application identité de
R4 . Montrer que f (Eλ ) ⊂ Fλ .
13. Montrer que f (V1 ) 6= 0 et que (f (V2 ), f (V3 )) est libre. En déduire que dimf (E1 ) = 1,
dimf (E2 ) = 2 puis que dim(F0 ) ≥ 1, dim(F1 ) ≥ 1 et dim(F2 ) ≥ 2.

126
14. Montrer que F1 ∩ F2 = {0}, puis exprimer dim(F1 + F2 ) en fonction de dim(F1 ) et
dim(F2 ).
15. De même, montrer que F0 ∩ (F1 + F2 ) = {0}, puis en déduire que

dim(F0 + F1 + F2 ) = dim(F0 ) + dim(F1 ) + dim(F2 ).

16. Déduire de la question précédente et de la question 13) que F0 + F1 + F2 = R4 . Quelle


est la valeur de dim(F0 ), dim(F1 ) et dim(F2 ) ?
17. À partir de la relation F0 + F1 + F2 = R4 , montrer que Fλ 6= {0} si et seulement si
λ = 0, 1 ou 2.
Exercice .(facultatif ) Soit n un élément de N∗ , supérieur ou égal 2.
Soient a1 , ..., an n éléments de R , Calculer le déterminant de Vandermonde :
¯ ¯
¯ 1 a1 a21 ... an−1 ¯
¯ 1 ¯
¯ 1 a2 a22 ... an−1 ¯
¯ 2 ¯
¯ . . . . . ¯¯
¯
Vn = V (a1 , ..., an ) = ¯
¯ . . . . . ¯¯
¯ . . . . . ¯¯
¯
¯ 1 a a2 ... an−1 ¯
n n n
Q
(Indication : montrer par recurrence sur l’entier n que V (a1 , ..., an ) = 1≤i<j≤n (aj − ai ) ).

127
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi

Devoir surveillé N 6.
EPREUVE D’ALGEBRE linéaire Durée du sujet : 1H :30min
Examen de 11 avril ... Responsable : Lakhel El Hassan
Horaire : 9h :00-10h :30.

Exercice 1.
Soient A et B deux matrices de Mn (K) , avec K = R ou C et n ∈ N∗ .
1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que :
(−λ)n 1
PA−1 (λ) = PA ( ),
det(A) λ
où PA est le polynôme caractéristique de A.
2) On appelle spectre de A l’ensemble des valeurs propres de A.
Démontrer l’équivalence suivante :

PA (B) est inversible ⇔ Sp(A) ∩ Sp(B) = ∅.

Exercice 2.
Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit
d’autre part A la matrice carrée de taille n dont tous les coefficients sont égaux à 1 :
 
1 1 ... ... 1
 1 1 ... ... 1 
 
 . . . 
A=  
. . . 
 
 . . . 
1 1 ... ... 1

On désigne par f l’endomorphisme de E dont la matrice dans la base B est A.


1) Soit u le vecteur u = e1 +e2 +...+en . Montrer que Im(f )=Vect(u). Quelle est la dimension
de Ker(f ) ?
2) Trouver les valeurs propres et leurs sous-espaces associés de f .
3) Déduire qu ’il existe une base B 0 de E telle que la matrice de f dans B0 soit A0 , avec
 
0 0 ... 0 0
 0 0 ... 0 0 
 
 . . . . 
0
A =  
. . . . 
 
 0 0 ... 0 0 
0 0 ... 0 n
4) Etablir que (A0 )k = nk−1 A0 pour tout k ∈ N∗ . En déduire Ak pour tout k ∈ N∗ .

PROBLÈME : ( MATRICES STOCHASTIQUES1 )


On note B = (e1 , e2 , ..., en ) la base canonique de l’espace vectoriel E = Kn (où n ≥ 2 et

128
K = R ou C).
On se propose d’étudier l’ensemble des valeurs propres des matrices stochastiques d’ordre n.
Une matrice S = (sij )i,j∈{1,2,...,n} ∈ Mn (R) est dite stochastique si et seulement si
n
X
+
∀i, j sij ∈ R et ∀i sij = si1 + si2 + ... + sin = 1.
j=1

On note Sn (R) l’ensemble des matrices stochastiques de Mn (R). Ces matrices sont stables
par le produit.
Dans la suite, on désigne par f un endomorphisme de E = Rn dont la matrice S = (sij ) est
stochastique.
1) V1 le vecteur de E dont les composantes dans la base B sont toutes égales a 1.
Montrer qu’une matrice M de Mn (R) à coefficients réels positifs ou nuls est stochastique si
et seulement si M V1 = V1 .
2) Déduire que 1 est une valeur propre de f .
3) Soit λ une valeur propre de f autre que 1. Montrer que |λ| ≤ 1.
(Indication : Pour tout vecteur x = (x1 , x2 , ..., xn ) de E = Rn , on convient de noter :

|x| = max(|x1 |, |x2 |, ..., |xn |).

pour x ∈ Rn , montrer que |f (x)| ≤ |x|. Puis conclure).

4) Montrer que
Ker(f − Id) ⊕ Im(f − Id) = Rn .
5) Montrer que Im(f − Id) est stable par f . Etablir que tout sous-espace propre Eλ de f
associé à une valeur propre λ autre que 1 est inclus dans Im(f − Id).

On suppose désormais que l’endomorphisme f est diagonalisable.


6) Montrer que la somme directe des sous-espaces propres associés aux valeurs propres de f
autre que 1 est égale à Im(f − Id).
7) On complète une base (v1 , v2 , ..., vp ) de E1 = Ker(f − Id) en une base B0 = (v1 , v2 , ..., vn )
de vecteurs propres de f . On note λ1 , λ2 , ..., λn les valeurs propres de f rangées par modules
décroissants (1 = |λ1 | = ... = |λp | ≥ |λp+1 | ≥ ... ≥ |λn |), associées à ces vecteurs propres
v1 , v2 , ..., vn . Soit D la matrice de f dans la base B 0 .
Prouver que la suite de matrices (S k ) converge si est seulement si la suite (Dk ) converge.
Déduire que la suite (S k ) est convergente.
(Pour une suite de matrices (Ak )k∈N , on dit que limk−→+∞ Ak = A , si , en notant : Ak =
(k) (k)
(aij ), on a : ∀i, j, limk−→+∞ aij = aij ).
8) Application :  
1 1 1
3 3 3
A= 0 1
2
1
2
.
0 0 1

Barême approximatif :
Exercice 1 : 4 points ; Exercice 2 : 6 points, Problème : 10 points.

1
Ces matrices jouent un rôle important, notament en calcul de probabilités.

129

You might also like