Professional Documents
Culture Documents
ALGEBRE
LAKHEL El Hassan
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
www.ensasafi.ma
I ALGÈBRE GÉNÉRALE 6
2 LES POLYNÔMES 19
2.1 Présentation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Opérations sur les polynômes : . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Division Euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Arithmétiques sur les polynômes . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Algorithme d’Euclide. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Fonction polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Polynôme dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.2 Formule de Taylor pour les polynômes . . . . . . . . . . . . . . . . . . 27
2.4 Zéros d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.1 Multiplicité d’une racine . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Décomposition des polynômes en facteurs irréductibles . . . . . . . . . . . . 30
2.6.1 Factorisation des polynômes dans C[X] . . . . . . . . . . . . . . . . . 30
2.6.2 Factorisation des polynômes dans R[X] . . . . . . . . . . . . . . . . 30
2.6.3 Annexe : Recherche des racines, quelques résultats et méthodes . . . . 32
2.7 EXERCICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 FRACTIONS RATIONNELLES 36
3.1 Définitions et propriétés algèbriques . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.1 Fractions ratinnelles irréductibles . . . . . . . . . . . . . . . . . . . . . 36
3.2 Décomposition en éléments simples d’une fraction rationnelle . . . . . . . . . 38
3.2.1 Fractions rationnelles régulières . . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . 38
3.2.3 Décomposition dans C(X) . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.4 Décomposition dans R(X) . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Recherche des parties polaires relatives à des facteurs de la forme (X − a)α . 43
1
3.3.1 Division suivant les puissances croissantes . . . . . . . . . . . . . . . . 43
3.4 Recherche des parties polaires relatives à des facteurs de la forme (X 2 + bX + c)α 45
3.5 APPLICATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6 EXERCICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
II ALGÈBRE LINÉAIRE 49
2
6.6.3 Rang d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . 81
6.7 Méthode de pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.8 Algorithme du pivot de Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.9 Exercices : Les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7 DÉTERMINANTS 91
7.1 Le groupe symétrique Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.2 Formes miltilinéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Déterminant d’une suite de vecteurs dans une base . . . . . . . . . . . . . . 94
7.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 95
7.5 Propriétés et calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.6.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension n . . . 97
7.6.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 98
7.6.3 Calcul de l’inverse d’une matrice carrée inversible . . . . . . . . . . . . 99
7.6.4 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . 99
7.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3
INTRODUCTION
Ce support de cours a pour objectif de faciliter le travail des étudiants. Il contient l’es-
sentiel du module d’algèbre, de la première année ENSAS que l’étudiant doit connaı̂tre.
Dans le cadre de ce cours on cherche à la fois développer de faon rigoureuse des concepts
et des méthodes et á dégager des connaissances nécessaires à la physique et aux sciences
ingénieurs. Le programme d’algèbre est organisé autour des concepts fondamentaux d’es-
pace vectoriel et d’application linéaire, et de leurs interventions en algèbre, en analyse et en
géométrie. La maı̂trise de l’algèbre linéaire élémentaire en dimension finie constitue un objectif
essentiel. C’est pour les élèves la partie la plus difficile, car la plus abstraite et la plus neuve :
ils y rencontrent pour la première fois la notion de structure, qui s’intéresse aux propriétés
des objets manipulés et non leur nature. Elle nécessite un important effort d’abstraction et
demande une assez longue adaptation. La plupart des résultats sont démontrs, dans le but
d’habituer les élèves à tenir un raisonnement rigoureux, à ne pas confondre démonstration et
affirmation, et aussi parce que les démonstrations permettent souvent de mettre en oeuvre et
d’illustrer les concepts introduits ou les propriétés précédemment établies.
En début d’année, on introduit la notion de loi de composition interne dans un ensemble,
l’étude des structures de groupe, anneau, corps, se réduit aux définitions (structure, sous-
structure, morphismes) et à quelques propriétés élémentaires des morphismes (composition,
noyau, isomorphismes). Survol du groupe des permutations d’ordre n (définition d’une per-
mutation, d’une transposition, détermination pratique de la signature). Ensuite, nous allons
étudier les polynômes et les fractions rationnelles.
L’étude de l’algèbre linéaire constitue le coeur du cours d’algèbre ; elle est subdivisée en
six chapitres :
La deuxème partie évoque la notion d’espace vectoriel. Notre but est d’introduire les
notions de base de l’algèbre linéaire et de démontrer rigoureusement les résultats principaux
de ce sujet. Les domaines suivants seront traités dans le premier chapitre de cette partie :
• Espace vectoriel et sous-espace vectoriel.
• Suite libre et suite génératrice.
• Application linéaire, endomorphisme, isomorphisme, automorphisme.
• Noyau et image d’une application linéaire.
• Espaces vectoriels de dimension finie.
Les chapitres cinq-huit introuduisent les matrices, les systèmes d’équations linéaires , les
déterminants et les réductions des matrices.
Le meilleur apprentissage de l’Algèbre Linéaire s’obtient par un travail régulier sur toute
l’année. Ce cours va te permettre de revoir rapidement ce qu’il te faut absolument savoir !
Mais ça reste un aide-mémoire et ne te dispense ni de cours, ni de faire les exercices. Chaque
fois qu’un exercice vous pose des problèmes, revenez à la partie du cours concernée, vérifiez
que les définitions et les théorèmes ont été bien compris et refaire les exemples et exercices
donnés. Ces allers-retours entre le cours et les applications sont essentiels pour une bonne
compréhension. Pour certains théorème, la démonstration ne demande que quelques lignes,
4
-et peut à tort sembler triviale, -alors que pour d’autres , il faut beaucoup plus d’ingeniosité.
Aucune de ces démonstrations ne doit être traitée à la légère, car c’est précisément à cause
de l’abondance de ces théorèmes que le calcul offre une base naturelle d’étude à ceux qui
veulent atteindre une certaine maturité mathématique. Des exercices sont insérés dans le
cours, souvent à la fin de chaque chapitre, ils deveraient permettre à l’étudiant de contrôler,
au fur et à mesure, l’acquisition des connaissances. J’espère présenter ainsi un ensemble
cohérent que chaque étudiant pourra parcourir à son rythme.
Je serais reconnaissant à ceux de mes lecteurs qui me feront parvenir leurs remarques sur ce
ce fascicule.
E. Lakhel
5
Première partie
ALGÈBRE GÉNÉRALE
6
Chapitre 1
GÉNÉRALITÉS - STRUCTURES
ALGÉBRIQUES
A ∈ P(E) ⇔ A ⊆ E.
Remarque 1.1. 1. Si E = ∅, P(E) contient un élément qui est la partie vide de E. C’est-
à-dire : P(∅) = {∅}.
2. Si a ∈ E on ne confondra pas a et {a} : a est un élément de E tandis que {a} est une
partie de E, i.e. un élément de P(E).
A = {x ∈ E/ x∈
/ A}.
e- Égalité d’ensembles :
A = B ⇔ (A ⊆ B et B ⊆ A).
f- Produit cartésien de deux ensembles
Le produit cartésien de deux ensembles E et F se définit par :
1. E × F = {(x, y)/ x ∈ E et y ∈ F }
2. E × E = E 2 .
7
1.1.2 Relation binaire sur un ensemble E
On appelle relation binaire R sur un ensemble E, tout sous-ensemble de E 2 , tel que :
Définition 1.2. L’image d’une partie X de E par l’application f que l’on note f (X), est
l’ensemble des images de tous les éléments de X :
f (A ∩ B) ⊆ f (A) ∩ f (B).
8
Remarque 1.2. l’inclusion réciproque n’est pas toujours vraie. En effet, considérons l’appli-
cation
f : R −→ R
x −→ x2
f −1 (Y ) = {x ∈ E/ f (x) ∈ Y }.
Remarque 1.3. Attention ! il ne faut pas confondre cette notion avec la fonction réciproque
d’une application bijective rappelée ci-après.
Théorème 1.5. Soient A et B deux parties de F . On a
1.
f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B).
2.
f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B).
Preuve. 1.
x ∈ f −1 (A ∪ B) ⇔ f (x) ∈ A ∪ B
⇔ f (x) ∈ A ou f (x) ∈ B
⇔ (x ∈ f −1 (A)) ou (x ∈ f −1 (B))
⇔ x ∈ f −1 (A) ∪ f −1 (B).
2.
x ∈ f −1 (A ∩ B) ⇔ f (x) ∈ A ∩ B
⇔ f (x) ∈ A et f (x) ∈ B
⇔ (x ∈ f −1 (A)) et (x ∈ f −1 (B))
⇔ x ∈ f −1 (A) ∩ f −1 (B).
Propriétés des applications
Autrement dit :
∀(x, y) ∈ E 2 , f (x) = f (y) ⇒ x = y.
• Surjection : On dit que l’application f est surjective si :
∀y ∈ F, ∃x ∈ E / y = f (x).
9
• Bijection : On dit que l’application f est bijective si elle est à la fois injective et surjective.
Autrement dit,
∀y ∈ F, ∃!x ∈ E / y = f (x).
• Bijection réciproque : Soit f une bijection de E vers F . On obtient ∀y ∈ F, ∃!x ∈
E/y = f (x).
la bijection
F −→ E
y 7→ x
est appelée bijection réciproque de f et est notée f −1 . Ainsi
10
Remarque 1.4. Munir un ensemble G d’une structure, c’est définir sur G un nombre fini de
lois de composition internes ou externes vérifiant un certain nombre de conditions appelées
axiomes de la structure en question. Dans la suite, G étant un ensemble muni d’une l.c.i
notée ∗.
Remarque 1.5. – Si une loi ∗ est commutative, pour vérifier qu’un élément e est l’élément
neutre, il suffit de vérifier que, ∀x ∈ G, on a x ∗ e = x (ou e ∗ x = x). L’autre relation
étant obtenue par la commutativité. De même, pour vérifier qu’un élément x0 est le
symétrique de x, il suffit que l’on ait soit x ∗ x0 = e soit x0 ∗ x = e.
Proposition 1.9. Soit (G, ∗) un groupe, pour tous les éléments a et b de G, on a :
(a ∗ b)−1 = b−1 ∗ a−1 .
Preuve. (a ∗ b)−1 est par définition l’unique élément de G qui vérifie :
(a ∗ b)−1 ∗ (a ∗ b) = (a ∗ b) ∗ (a ∗ b)−1 = e.
Or (b−1 ∗ a−1 ) ∗ (a ∗ b) = b−1 (a−1 ∗ a) ∗ b = b−1 ∗ e ∗ b = b−1 ∗ b = e et
(a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ b−1 ) ∗ a−1 = a ∗ e ∗ a−1 = a ∗ a−1 = e.
Définition 1.10. Soit (G, ∗) un groupe.
1. On dit qu’un élément a de G est régulier à gauche si
∀b, c ∈ G, (a ∗ b = a ∗ c) ⇒ (b = c).
2. On dit qu’un élément a de G est régulier à droite si
∀b, c ∈ G, (b ∗ a = c ∗ a) ⇒ (b = c).
3. On dit qu’un élément a de G est régulier si il est rérulier à gauche et à droite.
Proposition 1.11. Tout élément d’un groupe est régulier.
Preuve. Soient a, x, y trois éléments d’un groupe (G, ∗). Si on suppose que a ∗ x = a ∗ y,
alors, on aura après multiplication à gauche par a−1
a−1 ∗ (a ∗ x) = a−1 ∗ (a ∗ y),
11
ce qui entraine en utilisant l’associativité de la loi ∗ :
(a−1 ∗ a) ∗ x = (a−1 ∗ a) ∗ y.
Par suite x = y.
Sous-groupes Soit H une partie non vide d’un groupe G ; la partie H est dite stable pour
la loi ∗ du groupe G (ou stable dans G)si
∀x, y ∈ H, x ∗ y ∈ H.
Définition 1.12. Soit (G, ∗) un groupe. Soit H ⊆ G et H 6= ∅.
On dit que H est un sous-groupe de (G, ∗) si et seulement si
i) H est stable dans G.
ii) L’ensemble H, muni de la loi ∗ induite par G est un groupe.
Exemple 1.2. .
– (Z, +) est un sous-groupe de (R, +).
– 2Z = {2k/k ∈ Z}, alors, (2Z, +) est un sous-groupe de (Z, +).
– (Z∗ , ×) n’est pas un sous-groupe de (R∗ , ×).
Théorème 1.13. Soit (G, .) un groupe noté multiplicativement. Soit H ⊆ G. Les propriétés
suivantes sont équivalentes :
12
Exemple 1.4. 1) (2Z, +) est un sous-groupe de (Z, +) engendré par 2.
2) (Z, +) est sous-groupe de (R, +) engendré par 1.
3) Dans (C∗ , ×) , gr(i) = {1, i, −1, −i}.
Remarque 1.8. On peut géraliser cette définition à une partie A quelconque d’un groupe
G. Il existe un plus petit sous-groupe de G contenant A. Ce sous-groupe est appelé groupe
engendré par A et est noté gr(A).
Définition 1.16. Soit G un groupe et soit A une partie de G. On dit que A est une partie
génératrice de G si et seulement si gr(A) = G.
Exemples :
Théorème 1.21. Soit f un morphisme d’un groupe G dans un groupe F . Alors f est injectif
si et seulement si Ker(f ) = {e}.
13
Preuve Supposons que f est un morphisme injectif, donc si x est un élément de ker(f ),
alors f (x) = e0 = f (e), ce qui implique que x = e. Réciproquement, soient x, y ∈ G tels que
f (x) = f (y), alors, en multipliant par f (y)−1 , on obtient f (xy −1 ) = e0 . Il en résulte que
xy −1 ∈ ker(f ) = {e}. Donc xy −1 = e, d’où x = y. Par suite f est injective.
∃e ∈ A ∀x ∈ A ex = xe = x.
x × x0 = x0 × x = 1.
On note u(A) l’ensemble des éléments inversibles de A (qui sont appelés aussi des unités).
14
Exemple 1.8. 1. u(Z) = {−1, 1} et u(Q) = Q∗
2. (E, +, ×) où E = { fonctions numériques définies sur R}. Alors,
u(E) = { fonctions numériques qui ne s’annulent pas sur R}.
Définition 1.25. On appelle corps tout anneau unitaire tel que tout élément non nul soit
inversible. C’est-à-dire,
si (A, +, ×) est un anneau unitaire, on a : A corps ⇔ (A∗ , ×) est un groupe.
Si de plus la loi × est commutative, on dit que le corps est commutatif.
Exemple 1.9. 1. (Z, +, ×) et (R[X], +, ×) ne sont pas des corps.
2. (R, +, ×) et (R(X), +, ×) sont des corps.
Exercice :
Soit A = L(R2 ) l’ensemble des applications linéaires de R2 dans R2 .On munit A des deux
lois de composition internes suivantes : (f, g) −→ f + g et (f, g) −→ f og telles que pour tout
x ∈ R2 (f + g)(x) = f (x) + g(x) et fog(x)=f(g(x)).
Montrer que (A, +, o) est un anneau. Est-il commutatif ?
Quel est l’élément neutre pour la loi o.
15
1.6 EXERCICES.
Exercice 1.
a. Soit les ensembles : E = {0, 3, 6} et F = {1, 2, 6}.
On définit la relation R de E vers F par : ∀x ∈ E et ∀y ∈ F , xRy ⇐⇒ x < y + 2.
On appelle graphe, et on le note G, d’une relation binaire R l’ensemble
G = {(x, y) ∈ E × F/xRy}.
Déterminer le graphe de R.
b. On donne ici l’ensemble E = {1, 2, 3, 4, 5, 6, 7, 8} et la relation R de E vers E définie
par ∀(x, y) ∈ E 2 , xRy ⇐⇒ x est un diviseur de y.
Déterminer le graphe de R.
R est une relation d’ordre ? d’équivalence ?
16
2) Démontrer que, pour toutes parties A et B de E, f (A ∪ B) = f (A) + f (B) − f (A ∩ B).
3) On suppose de plus que :
(iv) ∀A ⊂ E, f (A) ≥ 0.
En déduire que, si A et B sont deux parties de E, Alors :
(v) A ⊂ B ⇒ f (A) ≤ f (B).
(vi) 0 ≤ f (A) ≤ 1.
Exercice 7.
On définit dans R la loi de composition ∗ par :
∀(a, b) ∈ R2 , a ∗ b = 3ab + a + b.
C = {x ∈ G/ ∀y ∈ G; xy = yx}.
Exercice 9.
On sait que R2 muni de l’addition ((a, b) + (a0 , b0 ) = (a + a0 , b + b0 )) est un groupe commutatif.
On considère E = {(x, −x); x ∈ R}.
1) Montrer que (E, +) est un sous-groupe de (R2 , +).
2) Soit F = {(x, 1); x ∈ R}.
F est-il un sous-groupe de R2 ?
Exercice 11. Soit (A, +, ×) un anneau unitaire. On désigne par u(A) l’ensemble des éléments
de A inversiblespour la loi ×.
Montrer que (u(A), ×) est un groupe.
17
Exercice 12. Soit A une partie non vide d’un groupe G. Montrer que :
18
Chapitre 2
LES POLYNÔMES
Historiquement, la recherche des solutions des équations polynomiales précède l’étude des
polynômes. Elle marque l’entrée des mathématiques dans une nouvelle ère. La formule de
résolution de l’équation du troisième degré x3 + px2 + q = 0 obtenue sans doute au début
du seizième siècle. La formule de résolution de l’équation du quatrième degré est obtenue
un demi siècle après. Cependant, l’équation du cinquième degré tient les mathématiciens en
echec pendant 200 ans ; ce n’ est qu’en 1826 qu’Abel démontre qu’il est impossible de donner
des formules explicites de types de celles données pour les degrés inférieurs pour les solutions
des équations de degré supérieur ou égal à 5. Quelques années plus tard, Galois donne un
critère de résolubilité par des radicaux de toutes les équations polynomiales. La théorie des
polynom̂es est née.
Définition 2.1. Un polynôme à une indéterminée X est défini par la donnée de ses coeffi-
cients a0 , a1 , ..., an éléments de K. X étant une lettre muette, on note
P (X) = a0 + a1 X + ... + an X n
P k,
ou k≥0 ak X étant entendu que la somme ne comporte qu’un nombre fini de ak non nuls.
On peut faire jouer à X d’autres rôles que des valeurs de K. X peut être remplacé par
exemple par une matrice, ou un endomorphisme d’un espace vectoriel sur K, etc...
Notations 3. .
1) L’ensemble des polynômes à coefficients dans K est noté K[X].
2) Le polynôme dont tous les coefficients sont nuls est dit polynôme nul, il est noté 0.
Définition 2.2. Si P 6= 0, on appelle degré de P le maximum des entiers naturels k tels que
ak 6= 0. On note deg(P ) ou d0 P le degré du polynôme P .
Si P = 0, par convention, on pose deg(P ) = −∞.
Si P est de degré n, an X n est le terme (ou monôme) dominant. Si an = 1, le polynôme est
dit unitaire.
Exemple 2.1. Soit a ∈ R et fa (X) = (2 + a)X 3 − 5X 2 + X + 3. Pour tout a 6= −2, fa est
de degré 3. Pour a = −2, f−2 est de degré 2.
19
Nous indiquons maintenant comment calculer les coefficients de la somme et du produit
de deux polynômes.
P P
Définition 2.4. Soient P = nk=0 ak X k et Q = m0 k
k=0 bk X deux polynômes. On appelle
composée de P et Q noté P oQ (ou P(Q)) le polynôme
n
X
P oQ = ak Qk = a0 + a1 Q + ... + an Qn
k=0
20
Proposition 2.5. Soient P , Q et R dans K[X]. Alors
(P + Q)oR = P oR + QoR
Preuve. P P
Soit P = nk=0 , Q = m k
k=0 bk X et R dans K[X].
On a
m∨n
X
P +Q= (ak + bk )X k
k=0
Par suite
m∨n
X n
X m
X
k k
(P + Q)oR = (ak + bk )R = ak R + bk Rk = P oR + QoR.
k=0 k=0 k=0
Alors
bp−1 an+1 n
A − BQ1 = 0.X n+1 + (an − )X + ....
bp
21
Donc deg(A − BQ1 ) ≤ n. D’après (H.R) il exsite (Q2 , R2 ) ∈ K[X]2 tel que
Donc
A = B(Q1 + Q2 ) + R2 avec deg(R2 ) < deg(B).
On prend Q = Q1 + Q2 et R = R2 .
Exemple 2.2. 1) Effectiuons la division euclidienne de A = 2X 4 + 5X 3 − X 2 + 2X +
1, par B = 2X 2 − 3X + 1. On trouve Q = X 2 + 4X + 5 et R = 13X − 4.
2) Pour A = X 4 − 2X 2 − X + 1 et B = X 2 + X. Après calculs, on trouve Q = X 2 − X − 1
et R = 1.
Remarque 2.3. Nous verrons au paragraphe sur les racines que le reste de la division eu-
clidienne du polynôme A par X − λ est le polynôme constant R = A(λ).
∃Q ∈ K[X]; A = B.Q.
Preuve.
Considérons l’ensemble :
n
X
E = {P = Pi Ai /Pi ∈ K[X]}.
i=1
Et posons
FE = {d0 P / P ∈ E \ {0}}.
Alors FE ⊆ N et FE 6= ∅. Donc FEPadmet un plus petit élément p. On choisit un polynôme
D ∈ E tel que d0 D = p. On a D = ni=1 Pi Ai , ∀R ∈ E \ {0}, d0 R ≥ d0 D.
Montrons maintenant que D vérifie i) et ii).
Montrons ii). Soit D0 ∈ K[X] tel que D0 soit diviseur commun des Ai , i = 1, ...., n. On a
Ai = Qi .D0 avec Qi ∈ K[X], i = 1, ...., n. On a aussi, puisque D ∈ E,
n
X n
X
D= Pj Aj = ( P jQj )D0 .
j=1 j=1
22
Par conséquent, D0 divise D.
IL reste à montrer i). La division euclidienne de Ai par D , 1 ≤ i ≤ n, implique
si Ri 6= 0, on aura :
P
Ri = Ai − DQi = Ai − ( nj=1 Pj Aj )Qi
Pn
= Ai − Pi Ai Qi − j=1,j6=i Pj Aj Qi
P
= (1 − Pi Qi )Ai − ( nj=1,j6=i Pj Aj Qi ).
Ri peut s’écrire :
n
X
Ri = Pj0 Aj
j=1
Théorème 2.10. (Bezout). Des polynômes A1 , ..., An ∈ K[X] sont premiers entre eux dans
leur ensemble si et seulement s’il existe U1 , ..., Un ∈ K[X] tels que
U1 A1 + ... + Un An = 1
Les polynômes A1 , ..., An sont premiers entre eux. Par suite, D est une constante non nulle.
n
X Pi
(2.2.3) =⇒ 1 = Ai .
D
i=1
D’où
n
X Pi
1= Ui Ai , avec Ui = .
D
i=1
Pn
⇐) La condition
P est suffisante : si i=1 Ui Ai = 1. Alors tout polynôme D qui divise A1 , ..., An
divise aussi ni=1 Ui Ai = 1. Donc D est une constante non nulle. D’où A1 , ..., An sont pre-
miers entre eux.
23
Théorème 2.11. (Gauss). Soient A, B et C trois polynômes. Si C est premier avec B et
divise AB, alors C divise A.
Preuve.
C divise AB ⇒ ∃Q ∈ K[X] tel que AB = QC (*)
C ∧ B = 1 ⇒ ∃U, V ∈ K[X] tels que U B + V C = 1 (**).
Multiplions (**) par A, on obtient :
U AB + V AC = A.
(U Q + V A)C = A.
D’où C divise A.
Théorème 2.12. Soient A, B, C ∈ K[X]. Si A et B sont premiers entre eux et divisent C,
alors C est un multiple de AB, autrement dit : AB divise C.
Preuve.
Il existe des polynômes P, Q, U, V ∈ K[X] tels que
C = P A = QB et U A + V B = 1.
On en déduit :
U AC + V BC = C
Donc
U AQB + V BP A = AB(U Q + V P ) = C.
Par conséquent, AB divise C.
Théorème 2.13. Si A est premier avec B et C, il est premier avec le produit BC.
Preuve.
Il existe U, V, U 0 , V 0 ∈ K[X] tels que U A + V B = 1 et U 0 A + V 0 C = 1. Par multiplication, on
obtient :
(U U 0 A + U V 0 C + V U 0 B)A + (V V 0 )BC = 1.
Donc A et BC sont premiers entre eux.
A ∧ B = B ∧ R.
Preuve.
Soit (Q, R) le quotient et le reste de la division euclidienne de A par B. On a
Soit ∆ = B ∧ R. Nous allons montrer que ∆ = A ∧ B ; c’est à dire que : ∆ vérifie i) et ii)
du théorème 2.8 .
24
i) ∆ divise t-il A et B ?
On a ∆ divise B et R, donc ∃Q1 , Q2 ∈ K[X] tels que :
B = Q1 .∆ et R = Q2 .∆.
A = P1 D et B = P2 D
Si R2 = 0 ⇒ B = R1 Q ⇒ R1 /B, donc B ∧ R1 = R1 .
Si R2 6= 0, Toujours d’après la Proposition (2.14), on a :
½
A ∧ B = B ∧ R1 = R1 ∧ R2
d0 R2 < d0 R1 < d0 B.
Comme la suite des degrés des restes est strictement décroissante, il existe un entier n tel
que Rn = 0. Alors A ∧ B = Rn−1 (où Rn−1 est le dernier reste non nul).
Exemple 2.4. Le pgcd des deux polynômes A = X 5 − 3X 4 + 5X 3 − 4X 2 + 7X − 4 et
B = X 5 − 3X 4 + 4X 3 − X 2 + 3X − 4 est le polynôme R2 = −X 2 + 3X − 4.
25
2.3 Fonction polynôme
Pn k
Définition 2.15. Pour tout polynôme P = k=0 ak X dans K[X] : on note
P̃ : K→K
P
x → P̃ (x) = nk=0 ak xk .
Remarque 2.6. On distingue parfois le polynôme P (qui, par construction, est nul si et
seulement si tous ses coefficients sont nul(*) ) de la fonction polynomiale associée (celle-ci
est nulle si et seulement si : ∀x ∈ K, P (x) = 0 (**)).
On a bien évidemment l’implication :
P (X) = 0 ⇒ ∀x ∈ K : P̃ (x) = 0.
Mais la réciproque est loin d’être évidente. Il suffit de se placer sur le corps Z/2Z et de
considérer le polynôme P (X) = X 2 + X. Celle-ci est non nul en tant que polynôme formel,
mais la fonction polynomiale associée est nulle de K dans K. Cependant, nous pouvons
prouver que dans notre cas (K = R ou C), il y a équivalence. Dans la suite on convient de
noter P (x) la valeur de la fonction polynomiale P̃ (x) associée à P au point x ∈ K, au lieu
de P̃ (x).
26
2.3.2 Formule de Taylor pour les polynômes
Soit P un polynôme de degré n. Le Théorème 2.17 prouve l’identité suivante :
P (k) (0) k P (n) (0) n
P (x) = a0 + ... + ak xk + ... + an xn = P (0) + ... + x + ... + x .
k! n!
Le théorème suivant montre qu’elle est valable en tout point, et pas seulement en 0.
Théorème 2.18. Soit P un polynôme de degré n et soit α ∈ K. Alors, pour tout x ∈ K,
P (n) (α)
P (x) = P (α) + P 0 (α)(x − α) + ... + (x − α)n .
n!
Preuve. Nous allons utiliser le fait que nous connaissons déjà la validité de la formule pour
α = 0. Posons Q(t) = P (t + α). Q est encore un polynôme, du même degré que P , on peut
donc écrire, pour tout t ∈ K,
Q(n) (0) n
Q(t) = Q(0) + Q0 (0)t + ... + t .
n!
Admettons pour l’instant que, pour tout t ∈ K, Q(k) (t) = P k (t + α). On a alors, pour tout
t∈K
P (n) (α) n
P (t + α) = P (α) + P 0 (α)x + ... + t .
n!
Il reste donc à prouver que, pour tout k, Q(k) (t) = P k (t + α).
Pour k = 0, la formule à prouver devient Q(t) = P (t + α), qui est la définition même de Q.
Posons g(t) = t + α. On a Q = P og. Supposons que la formule est vraie au rang k. on a
donc : Q(k) (t) = P k (t + α), ou en d’autres termes Q(k) (t) = P k og). Dérivons cette égalité en
appliquant la formule de dérivation des fonctions composées :
0 0 0
(Q(k) ) = [(P k ) og] × g .
Comme g 0 = 1, on en déduit
Le fait qu’un nombre α soit racine d’un polynôme peut s’exprimer en termes fonctionnels
comme dans la définition ci-dessus, mais également en termes de divisibilité, grâce au critère
donné par le théorème suivant.
Théorème 2.20. Soit P ∈ K[X] et α ∈ K. Alors,
1) α est racine de P si et seulement si P est divisible par X − α.
2) Soit n ∈ N∗ et α1 , α2 , ..., αn ∈ K deux à deux distincts. Si α1 , α2 , ..., αn sont des zéros de
P , alors :
Yn
(X − αi )/P.
i=1
27
Preuve.
1) Si P est divisible par X − α, on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X], tel
que
P (x) = (x − α)Q(x).
Par suite :
P (α) = 0.
Réciproquement, soit α une racine de P . Faisons la division euclidienne de P par X − α.
Le reste R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a
donc P (x) = (x − α)Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0
puisque P (α) = 0 : P est donc bien divisible par X − α.
2) On a d’une part, pour tout i ∈ {1, ..., n} αi est zéro de P , donc (X − αi )/P .
D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − αi ) ∧ (X − αj ) = 1.
Le théorème 2.12 entraı̂ne :
n
Y
(X − αi )/P.
i=1
Ce théorème explique pourquoi le calcul des racines d’un polynôme joue un rôle important
dans la factorisation des polynômes. Cependant, avant d’énoncer le théorème de factorisation,
nous devons introduire le concept de racine multiple.
Nous avons vu au paragraphe précédent qu’il y avait sur la notion de racine deux points
de vue possibles : un point de vue fonctionnel et un point de vue de divisibilité (on parle,
pour le second, d’un point de vue arithmétique). Cette dualité de points de vue se retrouve
pour l’étude des racines multiples.
Preuve.
Supposons que α est racine de multiplicité k avec k ≥ 1. On peut écrire, pour tout x ∈ K :
P (x) = (x − α)k Q(x) avec Q(α) 6= 0. On vérifie alors par récurrence sur l ∈ {1, ..., k} que
P (l) (x) = (x − α)k−l Ql (x)
28
avec Ql (α) 6= 0.
Il en résulte que, tant que k − l ≥ 1, c’est-à-dire l ≤ k − 1, P (l) (α) = 0, et que pour l = k,
P k (α) = Qk (α) 6= 0.
Réciproquement, faisons l’hypothèse sur les dérivées successives et montrons que α est
racine de multiplicité k de P . On écrit la formule de Taylor à l’ordre n = deg(P ) en α. On a
(k−1)
P (x) = P (α) + (x − α)P 0 (α) + ... + (x − α)k−1 P (k−1)!(α) +
P (k) (α) (n) (α)
(x − α)k ∗ k! ... + (x − α)n P n! .
Tous les coefficients de la première ligne sont nuls à cause de l’hypothèse. On peut donc
écrire :
P (x) = (X − α)k Q(x),
(k)
avec Q(α) = P k!(α) 6= 0. Ceci prouve que P est divisible par (X − α)k mais pas (X − α)k+1 ,
d’où la conclusion.
Exercice. Déterminer a et b pour que le polynôme P (x) = x5 + ax4 + bx3 − bx2 − ax − 1
admette 1 comme racine de plus grande multiplicité possible.
Exemple 2.6. .
1) Tout polynôme de premeir degré est irréductible. Par exemple P = X + 2 est irréductible
dans K[X] ( K = R ou C )
2) Le polynôme P = X 2 + 1 est irréductible dans R.
3) Le polynôme P = X 2 + 1 n’est pas irréductible dans C.
Preuve. ⇐) Evidente.
⇒) Si P ne divise aucun des Ai , 1 ≤ i ≤ n. Alors, il est premier avec chaque Ai (d’après la
proposition 2.24. Donc premier avec le produit A1 ...An , d’après le Théorème 2.13.
29
2.6 Décomposition des polynômes en facteurs irréductibles
Les théorèmes suivants donnent la forme de la décomposition d’un polynôme P en facteurs
irréductibles selon que P est à coefficients dans R ou dans C .
Preuve. On sait déjà que les polynômes de degré 1 sont irréductibles. Il reste à prouver
que les polynômes irréductibles sont de degré 1. On va montrer que les polynômes de degré
supérieur ou égal à 2 ne sont pas iréductibles.
Soit P ∈ C[X], d0 P ≥ 2. D’après le théorème de d’Alembert, P possède au moins une racine.
Donc P n’est pas irréductible.
Conséquence : Tout polynôme P de degré n ≥ 1 de C[X] se factorise donc de manière unique
comme produit d’une contante et de polynômes du premier degré normalisés, autrement dit,
P peut s’crire sous la forme :
p
Y
P = an . (X − xi )λi .
i=1
où ;
- an est le coefficient dominant de P .
- x1 , x2 , ...., xp sont les racines distinctes de P dans C.
- λi pour i ∈ {1, 2, ..., p} est l’ordre de multiplicité de la racine xi .
- λ1 + λ2 + ... + λp = n.
Exemples.
1. P = X 4 − 2X 2 Q
+ 1 = (X 2 − 1)2 = (X − 1)2 (X + 1)2 .
2. P = X − 1 = n−1
n
i=1 (X − ωi ) où les ωi sont les racines n−ième de l’unité.
30
¾
α1 , ..., αl
complexes deux à deux conjuguées (distinctes ou multiples).
α¯1 , ..., ᾱl
Donc
P (x) = λ(x − β1 )...(x − βk )....(x − α1 )(x − α¯1 )...(x − αl )(x − ᾱl ).
avec k + 2l = d0 P .
Le polynôme
(x − αi )(x − ᾱi ) = x2 − 2(Reαi )x + |αi |2 ∈ R[X],
Ceci montre que tout polynôme P ∈ R[X] est produit de polynômes à coefficients réels de
degrés 1 ou 2, et en outre ceux de degré 2 ont un discriminant strictement négatif (sinon leurs
racines seraient réelles). Il en résulte que ces polynômes sont les seuls à être irréductibles, et
que tout polynôme de R[X] est produit de polynômes irréductibles.
On a donc le théorème :
Théorème 2.28. Les polynômes irréductibles R[X] sont
- Les polynômes de degré 1.
-Les polynômes de degré 2 de discriminant strictement négatif.
P = an .(X − x1 )λ1 .(X − x2 )λ2 ...(X − xl )λl .(X 2 + p1 X + q1 )µ1 ...(X 2 + ps X + qs )µs .
où ;
- an est le coefficient dominant de P ,
- x1 , x2 , ...., xl sont les racines distinctes de P dans R,
- λi pour i ∈ {1, 2, ..., l} est l’ordre de multiplicité de la racine xi ,
- pi , qi , (i=1, 2,...,s) sont des nombres réels tels que ∆i = p2i − 4qi < 0,
- λ1 + λ2 + ... + λl + 2(µ1 + µ2 + ... + µs ) = n.
Remarque 2.8. Pour décomposer un polynôme en facteurs irréductibles sur R, il suffit donc
de le décomposer sur C (en calculant ses racines (du moins lorsque c’est possible) et de re-
grouper les racines complexes avec leurs conjuguées.
Exemples.
31
2.6.3 Annexe : Recherche des racines, quelques résultats et méthodes
Nous savons déjà résoudre les équations de degré 2, à coefficients réels ou complexes. Bien
que des formules existent aussi pour les équations de degré 3 (formules de Cardan) et 4 (for-
mules de Ferrari), ces formules sont assez difficiles à utiliser, et en pratique ne servent jamais.
Au delà, on a pu démontrer qu’il n’existe aucune formule générale permettant de résoudre
les équations de degré 5 et plus. Il existe néanmoins quelques types d’équations que l’on peut
résoudre explicitement. Figurent parmi ceux-ci les équations bicarrées, tricarrées et certaines
équations appelées réciproques.
32
2.7 EXERCICES.
Exercice 1.
Soient P , Q, et R trois polynomes dans K[X].
Montrer que
(P + Q)oR = P oR + QoR.
Et que en général
P o(Q + R) 6= P oQ + P oR.
Exercice 2.
Effectuer la division euclidienne de A par B dans les cas suivants :
a) A = X 8 − 1, B = X 3 − 1.
b) A = X + 4X − X 2 + 1,
6 4 B = X 2 + 1.
9
c) X − 1, 4
B = X − 1.
d) A = X − 3X 2 + X − 1,
3 B = X 2 − X − 2.
3 2
e) A = X − iX + X + 12, B = X 2 − iX + 1.
Exercice 3.
On donne K = C, A = X 4 + aX 2 + bX + c, B = X 2 + X + 1. Trouver des conditions sur a,
b, c pour que B divise A.
Exercice 4.
Soient a et b deux nombres complexes distincts, et soit P (X) un polynôme. Calculer en
fonction de P (a) et de P (b) le reste de la division euclidienne de P (X) par (X − a)(X − b).
Exercice 5.
Soit la suite de polynômes définies par : P0 = 1 , P1 = X et pour tout n ≥ 0 , Pn+2 =
XPn+1 − Pn .
1) Montrer que ∀n ∈ N :
2
Pn+1 − Pn Pn+2 = 1
Exercice 6.
Trouver le p.g.c.d des deux polynômes :
A = 2X 5 − 4X 4 − 3X 3 + 6X 2 + X − 2 et B = X 3 − 3X 2 + 3X − 2.
Exercice 7.
Soit m et p des entiers tels que m ≥ p > 0. En effectuant la division euclidienne de X m − am
par X p − ap , trouver une condition nécessaire et suffisante pour que X p − ap divise X m − am .
Exercice 8.
Soient A, B, et C trois polynômes tels que A ∧ B = B ∧ C = A ∧ C = 1.
Montrer que
ABC ∧ (AB + BC + AC) = 1.
Exercice 9.
Soit P un polynôme. Montrer que si P (X n ) est divisible par X − 1, il est aussi divisible par
X n − 1.
Exercice 10.
a) Soient a, p, q trois nombres complexes. Ecrire les conditions pour que a soit racine double
33
de polynôme X 3 + pX + q.
b) Quelle condition nécessaire et suffisante doivent satisfaire p et q pour que le polynôme
X 3 + pX + q ait une racine (au moins) double ?
Q(X) = X 5 − X 4 − 2X 3 + 2X 2 + X − 1.
0 00
1) Calculer les dérivées Q (X), Q (X), Q3 (X), et Q4 (X).
2) Monter que 1 est un zéro d’ordre trois de Q(X).
3) En déduire la décomposition en facteurs irréductibles de Q(X) dans R[X].
Exercice 13.
Quelle est la multiplicité des racines 1,-1 et 2 du polynôme :
P = X 9 − 2X 8 − 4X 7 + 8X 6 + 6X 5 − 12X 4 − X 3 + 8X 2 + X − 2.
Exercice 14.
1) Montrer que si le polynôme P = X 4 − X 3 + X 2 + 2 admet une racine complexe α, il admet
également pour racine ᾱ. √
2) Montrer que 1 + i et − 12 + i 23 sont des racines de l’équation P = 0.
3) En déduire une factorisation de P dans C[X] puis dans R[X].
Exercice 15.
dire, sans trop de calcul, si les polynômes suivants sont irréductibles dans R et dans C.
P1 = X 2 − X + 2, P2 = X 4 − 3X2 + 2, P3 = X − 2, P4 = X 3 − 2X 2 + 4X − 1.
Exercice 16.
Soit α1 , ..., αn , β1 , ..., βn ∈ R, avec αi 6= αj si i 6= j. On pose
n
X Y X − αj
P = βi ( ).
αi − αj
i j6=i
Exercice 17.
Soit P ∈ K[X] et n ∈ N. Montrer que si d0 P ≤ n et si P admet au moins n + 1 zéros deux à
deux distincts, alors P = 0.
Déduire que si un polynôme de K[X] admet une infinité de racines, alors P = 0.
34
Exercice 18. (Racine commune a deux polynômes ).
a) On considère les deux polynômes suivants : P (X) = 2X 4 + X 3 − X 2 + 2X − 1 et Q(X) =
4X 3 + 4X 2 − X − 1.
Montrer qu’ils ont une racine commune α que l’on déterminera.
(Indication : effectuer la division euclidienne de P par Q pour obtenir un polynôme de degré
plus petit que ceux de P et Q admettant encore pour racine α ; itérer cette procédure ).
b) Même question pour les polynômes : P (X) = X 4 − (1 + i)X 3 + X2 + (1 + i)X − 2 et
Q(X) = X 3 + (2 + 2i)X 2 + 2iX − 1 .
Exercice 19.
Factoriser sur R puis sur C les polynômes suivants :
35
Chapitre 3
FRACTIONS RATIONNELLES
Exemple 3.1.
X 5 + 3X 2 + 1
F (X) = ∈ R(X).
X 6 + 2X 3 + 4X
iX 5 + 3jX 2 + 1
F (X) = ∈ C(X).
X 6 + 2X 3 + 4i
Remarque 3.1. Il n’est pas difficile de vérifier que K(X) est un corps.
A C
Définition 3.2. B On dit que deux fractions rationnelles F1 = B et F2 = D sont égales si
et seulement si
AD = BC.
Exemple 3.2.
X 2 + 2X + 1 X +1
F = 2
= .
X −1 X −1
Car (X 2 + 2X + 1)(X − 1) = (X 2 − 1)(X + 1).
36
X 3 −1 (X−1)(X 2 +X+1) X−1
Exemple 3.3. (X 2 +X+1)(X+2)
= (X 2 +X+1)(X+2)
= X+2 .
A
Définition 3.5. Soit F = B ∈ K(X). Le degré de F , noté d0 F , est la quantité : d0 F =
0 0
d A − d B.
Le degré d’une fraction rationnelle est un élément de Z ∪ {−∞}.
Proposition 3.6. Soient F1 , F2 ∈ K(X) et soit λ ∈ K∗ . Alors :
1. d0 (λF1 ) = d0 F1 .
2. d0 (F1 F2 ) = d0 F1 + d0 F2 .
3. d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ).
Preuve.
Les points 1. et 2. sont faciles.
A C A C
Montrons 3. Soit F1 = B et F2 = D . On a F1 + F2 = B +D = AD+BC
BD .
Par suite,
d0 (F1 + F2 ) = d0 (AD + BC) − d0 B − d0 D.
≤ sup(d0 (AD), d0 (BC))) − d0 B − d0 D.
Si sup(d0 (AD), d0 (BC)) = d0 (AD). Alors,
d0 (F1 + F2 ) = d0 A − d0 B = d0 F1
≤ sup(d0 F1 , d0 F2 ).
d0 (F1 + F2 ) = d0 C − d0 D = d0 F2
≤ sup(d0 F1 , d0 F2 ).
Finalement,
d0 (F1 + F2 ) ≤ sup(d0 F1 , d0 F2 ).
Remarque 3.2. Le degré d’une fraction rationnelle F ∈ K(X) est indépendant du choix du
représentant de F .
A
Définition 3.7. Soit F ∈ K(X) et soit B un représentant irréductible de F . On dira que
α ∈ K est une racine d’ordre n de F si α est une racine d’ordre n de A. On dira que β ∈ K
est un pôle d’ordre m de F si β est une racine d’ordre m de B.
Remarque 3.3. Pour calculer les racines et les pôles d’une fraction rationnelle F , il est
nécéssaire d’avoir un repésentant irréductible de F .
3
X −3X+2
Exemple 3.4. Soit F = (X+1)(X−2) 3 , alors
3 2
♣ X − 3X + 2 = (X − 1) (X + 2), donc 1 est un zéro double et −2 est un zéro simple
de F .
♣ −1 est un pôle simple de F .
♣ 2 est un pôle triple de F .
D’après les propriétés des polynômes, l’ensemble ∆F des pôles de F est fini. On dit que
DF = K \ ∆F est l’ensemble de définition de F . A partir de là, l’application :
Ã(x)
F̃ : DF −→ K, x 7→
B̃(x)
37
3.2 Décomposition en éléments simples d’une fraction ration-
nelle
3.2.1 Fractions rationnelles régulières
P
Définition 3.8. La fraction rationnelle F = Q est dite régulière si do P < do Q.
Remarque 3.4. Une fraction rationnelle est régulière si et seulement si do F < 0.
Exemple 3.5.
5X − 2 2X 2 − 5 X3 − 2
F1 = , F2 = , F3 =
X2 − 1 X3 + 6 X5 + 3
sont régulières.
P
Théorème 3.9. Soit F = Q ∈ K(X). Il existe un polynôme E ∈ K[X] et un seul, tel que
F − E soit une fraction rationnelle régulière. Le polynôme E s’appelle la partie entière de F .
Preuve. On suppose do P > do Q, la division euclidienne de P par Q donne :
P = QE + R, do R < do Q.
Ainsi,
P R
F = =E+ avec do R < do Q.
Q Q
Unicité : Supposons que E1 , E2 ∈ K[X] vérifient le théorème, alors :
do (E1 − E2 ) = do [(F − E2 ) − (F − E1 )]
≤ sup(do (F − E1 ), do (F − E2 ))
< 0.
Par suite E1 = E2 .
Exemple 3.6.
X2 − 1 3
F1 = =X −2+ , donc E = X − 2.
X +2 X +2
Propriété Si F1 , FP 2 , ..., Fn sont des fractions rationnelles de parties entières respectivement
P
E1 , E2 , ..., En , alors ni=1 Ei est la partie entière de la fraction rationnelle F = ni=1 Fi .
38
Proposition 3.10. Soient A et P deux polynômes de K[X], P 6= 0. Pour tout entier naturel
non nul n, il existe un système unique de polynômes A1 , A2 , ..., An et R tels que
avec d0 Ak < d0 P , 1 ≤ k ≤ n.
Preuve.
Unicité : Commençons par établir l’unicité. Supposons que :
et
Il suffit de prendre A1 = R1 et R = Q1 .
Supposons le résultat vrai à l’ordre n ; c’est-à-dire ∃Ãk , 1 ≤ k ≤ n, ∃R̃ ∈ K[X] tels que :
A = Ãn + Ãn−1 P + Ãn−2 P 2 + .... + Ã1 P n−1 + R̃P n , avec d0 Ãk < do P.
Effectuons la D.E. R̃ par P , il existe Q2 , R2 dans K[X], d0 R2 < d0 P tels que : R̃ = P Q2 +R2 .
Donc
P
Soit maintenant, F = Q ∈ K(X), P ∧ Q = 1 avec Q normalisé.
Décomposons Q en facteurs irréductibles :
r
Y
Q= Qαi i , αi ≥ 1.
i=1
39
Théorème 3.11. Avec les notations ci-dessus, la fraction F s’écrit d’une manière unique,
sous la forme :
r
X
F =E+ Pi
i=1
Pαi Pi,j
où E est un polynôme et où Pi = j=1 Qj .
i
Les Pi,j et les Qi étant des polynômes tels que pour tout i et tout j, d0 Pi,j < d0 Qi .
Le terme Pi s’appelle la partie polaire de F relative au facteur Qαi i du dénominateur Q de
F.
E s’appelle la partie entière de F .
Dans la pratique, on a intérêt à déterminer d’abord E.
Preuve.
Existence : On a : Q = Qα1 1 (Qα2 2 ...Qαr r ) avec Qα1 1 et (Qα2 2 ...Qαr r ) sont premiers entre eux. Il
existe U, V ∈ K[X] tels que :
D’où
P P.1 P [U Qα1 1 + V (Qα2 2 ...Qαr r )] PU PV
F = = = α1 α2 = αr + .
Q Q Q1 (Q2 ...Qr ) αr
(Q2 ...Qr ) Qα1 1
α2
PU
De proche en proche, en appliquant le même raisonnement à α
(Q2 2 ...Qαr ; on obtient
r )
r
X Ai
F = (∗)
Qαi i
i=1
40
3.2.3 Décomposition dans C(X)
Lorsque K = C, les polynômes Qi sont du premier degré, soit Qi = X − ai . Les polynômes
Pi,j se réduisent à des constantes.
Le théorème précédent s’écrit, dans ce cas, sous la forme :
P
Théorème 3.12. Toute fraction rationnelle F = Q ∈ C(X) admet la décomposition :
αi
r X
X Ai,j
F =E+
(X − ai )j
i=1 j=1
où a1 , ..., ar sont les racines distinctes de Q et α1 , ..., αr leurs ordres de multiplicités. Les Ai,j
sont des constantes et E est un polynôme de degré égal à d0 P − d0 Q.
Exemple 3.7. Donner la décomposition en éléments simples dans C(X) des fractions ra-
tionnelles suivantes :
1+X 1 1
1) F = , 2) G = , 3) H = ,
1−X 1 + X2 (1 + X)(2 + X)(3 + X)
2
1) On a 1 + X = −(1 − X) + 2, donc F = −1 + 1−X .
1 1 a b a(X−i)+b(X+i)
2) G = 1+X 2
= (X−i)(X+i) = X+i + X−i = (X+i)(X−i) .
−i
On en déduit alors (par identification) : a + b = 0 et b − a = −i donc b = 2 et a = 2i .
Par conséquent :
1 i i
G= 2
= − .
1+X 2(X + i) 2(X − i)
41
Remarque 3.5. Pour décomposer F ∈ R(X) en éléments simples dans R, on peut :
i) soit décomposer F en éléments simples dans C et regrouper les termes conjugués.
ii) soit procéder par identification, en utilisant les propriétés de F (parité,...) (Voir T.D).
1 a bX+c a(X 2 +1)+(bX+c)(X−1)
Exemple 3.8. 1. F = (1+X 2 )(X−1)
= X−1 + X 2 +1
= (1+X 2 )(X−1)
.
Par identification on obtient : a + b = 0, c − b = 0 et a − c = 1. Donc a = 12 , b = −1
2 = c.
Par conséquent,
1 X +1
F = − .
2(X − 1) 2(X 2 + 1)
4X 3
2. Soit G = (X 2 −1)2
. G admet une décomposition de la forme
a b c d
G= + 2
+ + .
X + 1 (X + 1) X − 1 (X − 1)2
Remarquons que G est impaire : G(−X) = −G(X).
On a :
−a b −c d
G(−X) = + 2
+ + .
X − 1 (X − 1) X + 1 (x + 1)2
−a −b −c −d
−G(X) = + + + .
X + 1 (X + 1)2 X − 1 (X − 1)2
L’unicité de la décomposition en éléments simples entraı̂ne :
½
a=c
b = −d.
Pour trouver b multiplions G par (X + 1)2 .
4X 3 c(X + 1)2 d(X + 1)2
(X + 1)2 G(X) = = a(X + 1) + b + + .
(X − 1)2 X −1 (X − 1)2
En remplaçant X par −1, on obtient : b = −1, d’où d = 1.
Cette méthode permet de trouver le coefficient du terme de plus haut degré de chaque
partie polaire.
Pour déterminer les coefficients a et c, multiplions G par X :
4X 4 aX bX cX dX
X.G(X) = 2 2
= + 2
+ + .
(X − 1) X + 1 (X + 1) X − 1 (X − 1)2
En cherchant la limite de XG(X) en +∞ , on obtient :
lim XG(X) = 4 = a + c
X−→+∞
d’où a = c = 2.
Cette méthode permet de trouver la somme des coefficients de plus bas degré de toutes
les parties polaires.
Finalement, on obtient :
2 −1 2 1
G= + 2
+ + .
X + 1 (X + 1) X − 1 (X − 1)2
Remarque 3.6. Puisque la décomposition est unique, on peut utiliser tout procédé qui nous
semble adéquat pour obtenir les coefficients de la décomposition, sans que cela influe sur le
résultat final.
Exercice 3.14. Décomposer en éléments simples dans C puis dans R la fraction rationnelle
1
F = .
(X + X + 1)2 (X + 1)
2
42
3.3 Recherche des parties polaires relatives à des facteurs de
la forme (X − a)α
3.3.1 Division suivant les puissances croissantes
Théorème 3.15. Soient A, B deux polynômes tels que B(0) 6= 0.
Pour tout entier n, il existe un couple unique de polynomes (Qn , Rn ) vérifiant :
A = BQn + X n+1 Rn , d0 Qn ≤ n.
Preuve.
Existence : Démontrons l’existence par récurrence sur n.
Posons
Xp Xq
A= ai X i et B = bi X i .
i=0 i=0
A(0) a0
Pour n = 0, posons Q0 = B(0) = b0 . Alors Q0 ∈ K et A − BQ0 est divisible par X, d’où
l’existence de R0 ∈ K[X] tel que
A = BQ0 + XR0 , d0 Q0 = 0.
A = BQn + X n+1 Rn , d0 Qn ≤ n.
On a :
Rn (0) Rn (0)
Rn = B + (Rn − B) .
B(0) B(0)
| {z }
H
Rn (0)
Rn = B + XS.
B(0)
X 3 + 2X + 1 = (2X 2 + X + 1) (1 + X − 3X 2 + 2X 3 ) +X 4 (4 − 4X) .
| {z } | {z }
Q3 R3
43
Nous allons maintenant appliquer ce théorème à la recherche de la partie polaire relative au
P (X) α
pôle a de F = (X−a) α Q (X) , Q1 (a) 6= 0, et P (X) ∧ (X − a) Q1 (X) = 1.
1
Posons Y = X − a, et
P (a + Y )
F (X) = G(Y ) = .
Y α Q1 (a + Y )
Nous sommes donc ramenés au cas où a = 0. Dans ce cas, on a le résultat suivant :
Proposition 3.16. Etant donnée la fraction rationnelle irréductible
P (X)
F = , Q1 (0) 6= 0.
X α Q1 (X)
La partie polaire de F relative au pôle 0 est l’expression :
λ0 λ1 λα−1
α
+ α−1 + ... + ,
X X X
avec λ0 +λ1 X +...+λα−1 X α−1 est le quotient de la division suivant les puissances croissantes
de P par Q1 à l’ordre α − 1.
Preuve.
Soit Qα−1 = λ0 + λ1 X + ... + λα−1 X α−1 le quotient de la division suivant les puissances
croissantes de P par Q1 à l’ordre α − 1.
Donc
P = Q1 Qα−1 + X α Rα−1 .
D’où
Q1 (X)(λ0 + λ1 X + ... + λα−1 X α−1 ) + X α Rα−1 λ0 λ1 λα−1 Rα−1
F = = α + α−1 + ... + + ,
X α Q1 (X) X X X Q1 (X)
Rα−1
mais comme Q1 (0) 6= 0 , alors 0 n’est pas un pôle de Q1 (X) . Ce qui achève la démonstration
de la proposition.
Exemple 3.10. En effectuant la division suivant les puissances croissantes, trouver la décomposition
en éléments simples dans R(X) de la fraction rationnelle :
2X 2 + 5
F = .
(X 2 − 1)3
Comme F est paire, l’unicité de la décomposition de F en éléments simples permet d’identifier
la décomposition de F (X) et de F (−X). On a :
a b c α β γ
F (X) = + 2
+ 3
+ + 2
+ .
X − 1 (X − 1) (X − 1) X + 1 (X + 1) (X + 1)3
−a b −c −α β −γ
F (−X) = + + + + + .
X + 1 (X + 1)2 (X + 1)3 X − 1 (X − 1)2 (X − 1)3
Ce qui donne :
a = −α, b = β, et c = −γ.
Déterminons a, b et c.
Posons Y = X − 1.
2Y 2 + 4Y + 7
F (Y + 1) = .
Y 3 (Y + 2)3
Effectuons la division suivant les puissances croissantes de 2Y 2 + 4Y + 7 par (Y + 2)3 =
Y 3 + 6Y 2 + 12Y + 8 à l’ordre 2. On trouve : c = 78 = −γ, b = −13 13
16 = β et a = 16 = −α.
44
Remarque 3.7. Dans le cas où α = 1, la partie polaire relative à un pôle simple de
P (X)
F = (X−a)Q 1 (X)
, Q1 (a) 6= 0 est QP0(a) 1
(a) . (X−a) . En effet,
P (X)
F = , Q(X) = (X − a)Q1 (X), avec Q1 (a) 6= 0.
Q(X)
En prenant les dérivées, on trouve :
X
Exemple 3.11. Décomposer en éléments simples dans R(X) la fraction F = (X 2 +4)(X 2 +1)
.
1. La décomposition de F en éÃlément simples dans C(X)
La décomposition de F en éléments simples dans C(X) est
1 1 1 1 1
F = [ + − − ].
6 X + i X − i X + 2i X − 2i
2. En groupant les éléments simples relatifs aux pôles conjugués, on obtient :
1 X X
F = [ 2 − 2 ].
3 X +1 X +4
Technique 2 (méthode des coefficients indéterminés)
On détermine les coefficients par des considérations numériques particulières ; par exemple :
- Donner à X des valeurs particulières,
- multiplier par une puissance de X et faire tendre X vers +∞.
- Vérifier si F (−X) = F (X) ou F (−X) = −F (X) (c’est à dire la parité de F ).
Technique 3 (abaissement de l’exposant de (X 2 + bX + c))
1
Soit F = (X+1)(X 2 +1)2 . La décomposition de F en éléments simples dans R(X) est de
la forme :
1 a bX + c dX + e
F = = + + .
(X + 1)(X 2 + 1)2 X + 1 X 2 + 1 (X 2 + 1)2
45
1. On commence par calculer d et e. On multiplie les deux membres par (X 2 + 1)2 et
1
on donne à X la valeur i, on obtient i+1 = di + e, d’où 12 − 21 i = di + e.
1 −1
Par suite : e = 2 et d = 2 .
2. On calcule
dX + e 1 1 −X + 1
F− = − .
(X 2 + 1)2 (X + 1)(X 2 + 1)2 2 (X 2 + 1)2
Il reste,
1 a bx + c
= + .
(X + 1)(X 2 + 1) (X + 1) X 2 + 1
CONSEILS PRATIQUES :
P
Pour décomposer une fraction rationelle (irréductible) F = Q en éléments simples, il faut :
1. Factoriser Q .
2. Ecrire la forme générale de la décomposition, en n’oubliant pas la partie entière E,
qu’on calcule en faisant la division euclidienne.
3. Utiliser la parité-imparité qui réduit souvent beaucoup l’étude.
4. Terme de degré dominant : multiplier par (X − ai )αi , simplifier, puis prendre X = ai .
5. La somme des termes de plus bas degré : multiplier par X et calculer la limite quand
X tend vers +∞.
6. Enfin, prendre des valeurs ...
3.5 APPLICATIONS
Voir les travaux dirigés.
46
3.6 EXERCICES
Exercice 1.
Déterminer les zéros et les pôles de la fraction rationnelle de C[X]
X 4 − 5X 2 + 4
F (X) = .
Xn − 1
Exercice 2.
Montrer qu’il n’existe pas de fraction rationnelle de K(X) telle que F 2 = X.
Exercice 3.
Mettre sous forme irréductible les fractions rationnelles de R(X)
2 −3X+2 X 5 −X 4 −2X 3 +2X 2 +X−1 X 3 −3X+2
a) XX4 −5X 2 +4 , b) X 4 +X+1
, c) X 4 −5X 3 +4X 2 +X+2 .
Exercice 4.
Soit A et P deux polynômes de K[X]. On suppose que P est non nul et ne divise pas A.
1) Montrer que pour tout entier naturel non nul n, il existe des polynômes A0 , A1 , ..., An−1 , Rn
uniques tels que :
3X 8 + 4X 2 + 1
F = .
(X 2 + 2X + 3)3
Exercice 5.
Décomposer les fractions rationnelles suivantes en éléments simples dans R(X)
7 +2
0. F0 = (X 2X+X+1) 3.
1−2X
1. F1 = (X 2 +1)(X+2)2
.
X 2 +1
2. F2 = X 4 +X 3 −X−1 .
X 4 +1
3. F3 = X 6 +1 .
7X 3 +2X 2 +15X+6
4. F4 = (X 2 +X−2)(X 2 +4) .
−X 3 −X 2 +3X−1
5. F5 = (X 2 +X+1)2 .
5 4 −76X 3 −157X 2 −165X−72
6. F6 = −2X −19X (X 2 +4X+5)3 .
n! ∗
7. F7 = X(X+1)(X+2)...(X+n) , n ∈ N .
X2
8. F8 = (X 4 +X 2 +1)2 .
1
9. F9 = X(X 2 +1)2 .
10. F10 = X n1−1 , n ∈ N∗ .
Exercice 6.
Décomposer en éléments simples dans C(X) les fractions rationnelles suivantes :
1)F = (X 2 −1)X2 (X 2 +1) .
X4
2)F = X 5 +1
.
47
Exercice 7. Décomposer la fraction rationnelle en éléments simples dans R(X)
X 2n
F = (X 2 +1)n
, n ∈ N.
Exercice 8.
1) En développant (cosX + isinX)2n+1 , n ∈ N∗ , montrer qu’il existe un polynôme P à
coefficients réels, tels que
où a1 , ..., an sont des éléments de K et k1 ,..., kn des entiers strictement positifs. Par exemple
X 2 + 1 est un polynôme scindé sur C et n’ est pas un polynôme scindé sur R.
0
Soit P un polynôme scindé. Décomposer en éléments simples la fraction rationnelle PP .
Exercice 11. ( Dérivation d’ordre n des fractions rationnelles et calcul des sommes par-
tielles)
1) Montrer que pour tout n ∈ N et tout α ∈ C on a
1 (−1)n n!
( )(n) = .
X +α (X + α)n+1
1
2) Calculer la dérivé d’ordre 4 de la fraction rationnelle F = X(X−1)(X+1)
3) Calculer la limite quand n tend vers l’infini de la somme partielle
n
X 1
Sn =
k(k − 1)(k + 1)
k=2
48
Deuxième partie
ALGÈBRE LINÉAIRE
49
Chapitre 4
ESPACES VECTORIELS ET
APPLICATIONS LINÉAIRES
L’algèbre linéaire fournit un langage et une collection de résultats très utiles dans des
domaines très variés (biologie, chimie, économie, physique, statistiques ...). Mais pour sa-
voir l’utiliser, il faut apprendre à identifier les problèmes linéaires ou ceux qui peuvent être
modélisés par une approche linéaire (c’est une situation usuelle dans la plupart des sciences :
on remplace ainsi un phénomène complexe par un problème plus facile à résoudre). En
mathématiques, l’axiomatisation des problèmes linéaires se fait par la définition de la struc-
ture d’espace vectoriel et notre premier souci sera de distinguer, parmi les ensembles qui nous
sont familiers, ceux qui peuvent être munis de cette structure.
K × E −→ E
(α, x) −→ αx
vérifiant :
a. ∀ λ, µ ∈ K, ∀x ∈ E : (λ + µ)x = λx + µx.
b. ∀λ ∈ K, ∀x, y ∈ E : λ(x + y) = λx + λy
c. ∀ λ, µ ∈ K, ∀x ∈ E : λ(µx) = (λµ)x.
d. ∀x ∈ E : 1K x = x
Remarques
1. Faire attention aux lois.
2. Les éléments de K sont appelés des scalaires.
3. Les éléments de E sont appelés des vecteurs.
Exemples
1. Soit n ∈ N∗ , (Rn , +, ×) est un R-espace vectoriel.
50
2. (R[X], +, ×) est un R-espace vectoriel.
3. Si X 6= 0 et E est un K-espace vectoriel, alors (F(X, E), +, ×) est un K-espace
vectoriel, avec f + g est définie par
4. On définit, dans l’espace des suites réelles S qui sont des fonctions de N dans R, les
opérations suivantes :
(u + v)n = un + vn
(λu)n = λun .
Ainsi, (S, +, ×) est un R-espace vectoriel.
λx = 0E ⇐⇒ λ = 0K ou x = 0E .
Preuve
⇐=) On a : λ(x − y) = λx − λy , ∀x, y ∈ E et ∀λ ∈ K.
Pour x = y, on obtient λ0E = 0E ceci ∀λ ∈ K.
De même (λ − µ)x = λx − µx, ∀λ, µ ∈ K et ∀x ∈ E.
Pour λ = µ, on obtient 0K x = 0E , ∀x ∈ E.
=⇒) Soit λ ∈ K et x ∈ E tels que λx = 0. Supposons que λ 6= 0.
On a d’une part,
λ−1 (λx) = λ−1 0E = 0E .
D’autre part,
λ−1 (λx) = (λ−1 λ)x = x.
D’où
x = 0E .
Exemples
1. {0} et E sont deux sous-espaces vectoriels de E.
2. L’ensemble des suites convergentes dans R est un R-espace vectoriel de (S, +, ×).
3. Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n} est sous-espace vectoriel de K[X].
4. L’ensemble C 0 (I, R) des fonctions continues d’un intervalle I de R a valeurs dans R
est un sous-espace vectoriel de F(I, R).
51
Théorème 4.5. Soit E un K-e.v. . Toutes intersections de sous-espaces vectoriels de E est
un sous-espace vectoriel de E.
Preuve. Evidente.
Remarques
1. Attention, ce théorème est faux pour la réunion. Par exemple : E = R2 , si
F = {(x, 0)/x ∈ R} et G = {(0, y)/y ∈ R}. On a F et G sont deux s.e.v. de R2 , mais
F ∪ G n’est pas un s.e.v. de R2 . En effet, (1, 0) ∈ F ⊆ F ∪ G et (0, 1) ∈ G ⊆ F ∪ G
mais (1, 1) ∈/ F ∪ G, car (1, 1) ∈/ F et (1, 1) ∈
/ G.
2. Soit F un s.e.v. de E. La restriction à F × F de l’addition est une loi interne sur F
(appelée loi induite par celle de E). La restriction à K × F de la multiplication externe
est une loi externe sur F . Pour ces deux lois, F est un K-espace vectoriel.
Conséquence : On montre rarement directement qu’un ensemble est un espace vectoriel,
mais souvent que c’est un sous-espace vectoriel d’un espace vectoriel connu (à l’aide de la
proposition 4.4).
Notation
Si A = {a} contient un seul élément on note V ect(a) = Ka = {λa | λ ∈ K}.
Remarques :
• V ect(A) est le plus petit sous-espace vectoriel contenant A.
• Si A ⊂ B alors V ect(A) ⊂ V ect(B). En particulier, si A est une partie génératrice de E
et si B contient A alors B est aussi une partie génératrice de E.
• On considère souvent un ensemble fini : si A = {a1 , . . . , an }. Alors
V ect(A) = {λ1 a1 + · · · + λn an | λ1 , . . . , λn ∈ K}.
Exemple 4.1. Les vecteurs (1, 0), (0, 1) engendrent R2 .
En effet, si (x, y) ∈ R2 , on peut écrire
(x, y) = x(1, 0) + y(0, 1).
52
{(1, 0), (0, 1), (1, 1)} engendre également R2 car
Il y a plusieurs façons d’écrire (x, y) comme combinaison linéaire de ces 3 vecteurs, en voici
une deuxième :
x−y y−x x+y
(x, y) = (1, 0) + (0, 1) + (1, 1).
2 2 2
Théorème 4.8. Soit F et G deux sous-espaces vectoriels d’un même K-espace vectoriel E.
Les propriétés suivantes sont équivalentes :
i) tout vecteur x ∈ E s’ecrit de manière unique, x = y + z, avec x ∈ F et z ∈ G,
ii) E = F + G et F ∩ G = {0}.
Preuve.
i) =⇒ ii) Soit x ∈ E, d’après i) x s’écrit sous la forme x = y + z avec y ∈ F et z ∈ G, donc
x ∈ F + G, d’où E ⊆ F + G. Or F + G ⊆ E. Donc E = F + G.
Soit x ∈ F ∩ G. On a x = x + 0 avec x ∈ F et 0 ∈ G. On a aussi x = 0 + x avec 0 ∈ F et
x ∈ G.
L’unicité de l’écriture de x comme somme d’un vecteur de F et d’un vecteur de G implique
x = 0.
Donc
F ∩ G ⊆ {0}.
De plus
{0} ⊆ F ∩ G.
D’où
F ∩ G = {0}.
ii) =⇒ i) Soit x ∈ E, puisque E = F + G, x s’écrit x = y + z avec y ∈ F et z ∈ G.
Supposons que x s’écrit de deux façons différentes x = y + z = y 0 + z 0 avec y, y 0 ∈ F et
z, z 0 ∈ G.
Alors y − y 0 = z 0 − z ∈ F ∩ G = {0}.
Ce qui imlpique y = y 0 et z = z 0 .
Définition 4.9. Deux sous-espaces vectoriels d’un K-e.v. E vérifiant les conditions équivalentes
i) et ii) du théorème 4.8 sont dits supplémentaires dans E.
On dit également que E est somme directe de F et G et on écrit :
E = F ⊕ G.
Généralisation
53
Définition 4.10. On dit que le K-espace vectoriel E est somme directe des s.e.v.
PnF1 , , ..., Fn
si tout vecteur x ∈ E s’écrit de manière unique : x = x1 + x2 + ... + xn = i=1 xi avec
xi ∈ Fi , 1 ≤ i ≤ n. On écrit alors :
E = F1 ⊕ F2 ⊕ ... ⊕ Fn = ⊕ni=1 Fi .
f : E −→ F
x −→ 0F
est linéaire.
54
2) Soit
ψ : F(R, R) −→ F
f −→ f (x0 ), x0 ∈ R
ψ est une application linéaire.
Exercice 4.13. f est une application linéaire si, et seulement si ∀(λ1 , ..., λn ) ∈ Kn , ∀(x1 , ..., xn ) ∈
En
Xn X n
f( λi xi ) = λi f (xi ).
i=1 i=1
Preuve. Puisque f est une bijection de E dans F , alors f −1 est une bijection de F dans E.
Il nous suffit de montrer que f −1 est linéaire.
Soient x0 et y 0 ∈ F et λ ∈ K ; soit x = f −1 (x0 ), y = f −1 (y 0 ).
On a f (x + λy) = f (x) + λf (y) = x0 + λy 0
Donc
f −1 (x0 + λy 0 ) = x + λy = f −1 (x0 ) + λf −1 (y 0 ).
Définition 4.16. Deux K-espaces vectoriels sont dits isomorphes, s’il existe un isomor-
phisme de l’un dans l’autre ; on écrit E ' F.
Exemples.
1. Soit E un K− espace vectoriel quelconque, l’application identique IdE de E, définie
par IdE (x) = x pour tout x ∈ E est un automorphisme.
2. Si E = K[X], Soit
f : E −→ E
P −→ P 0
f est un endomorphisme.
3. Si E = Kn et F = {P ∈ K[X]/P = 0 ou do P ≤ n}.
f: E −→ F
(a1 , ..., an ) −→ a0 + a1 X + ... + an X n .
f est un isomorphisme.
4. Soit a ∈ R, b ∈ R, a < b et E = C([a, b], R). L’application :
ϕ : E −→ R
Rb
f −→ ϕ(f ) = a f (t)dt
est une forme linéaire sur E.
55
4.3.2 Image et noyau d’une application linéaire
Théorème 4.17. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .
1) L’image par f d’un sous-espace vectoriel de E est un sous-espace vectoriel de F .
2) L’image réciproque par f d’un sous-espace de F est un sous-espace vectoriel de E.
f −1 (F 0 ) = {x ∈ E/f (x) ∈ F 0 }
Définition 4.18. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .
- Le sous-espace vectoriel f (E) de F est appelé l’image de f et noté Im(f ).
- Le sous-espace vectoriel f −1 ({0}) = {x ∈ E/f (x) = 0} de E est appelé le noyau de f et
noté Ker(f ).
Théorème 4.19. Soit E et F deux K−espaces vectoriels et soit f une application linéaire
de E dans F .
56
Soit E et F deux K-espaces vectoriels. L’ensemble des applications linéaires de E dans F
est noté LK (E, F ) ou simplement L(E, F ).
Lorsque E = F , on note LK (E) au lieu de LK (E, E).
LK (E, F ) est un sous espace vectoriel de (F(E, F ), +, .) et donc LK (E, F ) a une structure de
K-e.v.
Preuve. Exercice
Remarques :
1. La loi o n’est pas commutative dans LK (E, F ). Par exemple si E = F = R2 et si
f (x, y) = (y, 0), g(x, y) = (x, 0) pour (x, y) ∈ E. On a f, g ∈ LK (E, F ), f og(x, y) =
(0, 0) et gof (x, y) = (y, 0), donc f og 6= gof
2. Si 0 désigne l’application nulle de E dans E et si f ∈ L(E) et g ∈ L(E), alors f og = 0
n’implique pas f = 0 ou g = 0 ; prenez l’exemple précédent.
Dans le cas contraire on dit que la suite (x1 , ..., xn ) est liée.
Exemples.
1. La suite (x) est libre ssi x 6= 0. En effet ; si x 6= 0, λx = 0 implique λ = 0, donc (x)
est libre. Si x = 0, 1.x = 0 et (x) est liée.
2. Si E = R3 , V1 = (1, 1, 0), V2 = (0, 1, 1) et V3 = (1, −1, −2).
On a
V1 − 2V2 − V3 = 0E .
57
Donc la suite (V1 , V2 , V3 ) est liée. Par contre (V1 , V2 ) est libre car λV1 + βV2 = (0, 0, 0)
implique λ = β = 0.
Proposition 4.22. Soit n ≥ 2. La suite (x1 , ..., xn ) est liée si et seulement si il existe
k, 1 ≤ k ≤ n et des αi ∈ K, 1 ≤ i ≤ n, i 6= k tels que
n
X
xk = αi xi .
i=1,i6=k
αi = −λλk si 1 ≤ i ≤ n , i P
i
6= k.
P P
Réciproquement, si xk = ni=1,i6=k αi xi , on a xk − ni=1,i6=k αi xi = 0, soit ni=1 λi xi = 0 avec
λk = 1 6= 0, et la suite (x1 , ..., xn ) est liée.
Théorème 4.23. Soit n ≥ 2 et soit (x1 , ..., xn ) une suite de n vecteurs de E avec x1 6= 0. La
suite (x1 , ..., xn ) est liée si et seulement si, il existe k, 2 ≤ k ≤ n, tel que xk soit combinaison
linéaire des vecteurs x1 , ..., xk−1 qui le précède dans la suite (x1 , ..., xn ).
Preuve. =⇒)P Si la suite (x1 , ..., xn ) est liée, il existe des scalaires λi , 1 ≤ i ≤ n, non tous
nuls, tels que ni=1 λi xi = 0. Soit k le plus grand indice j, 1 ≤ j ≤ n tel que λj 6= 0. On
Pk
a k 6= 1, car sinon λ1 x1 = 0 avec x1 6= 0 et λ1 6= 0, donc k ≥ 2 et i=1 xi = 0. D’où
Pk−1 −λi
xk = i=1 αi xi avec αi = λk , pour 1 ≤ i ≤ k − 1.
P Pn
⇐=) S’il existe k ≥ 2, tel que xk = k−1 i=1 αi xi , alors i=1 λi xi = 0 avec λk = 1 6= 0. La suite
(x1 , ..., xn ) est donc liée.
Proposition 4.24. 1. Toute suite extraite d’une suite libre est une suite libre.
2. S’il existe une suite liée extraite de la suite (x1 , ..., xn ) alors la suite (x1 , ..., xn ) est
liée.
Preuve.
1. Soit (x1 , ..., xn ) une suitePlibre et soit (xk1 , ..., xkp ) une suite P extraite de la suite
p
(x1 , ..., xn ). Supposons que j=1 λkj xkj = 0. Alors, on a aussi, ni=1 αi xi = 0 avec
αkj = λkj si 1 ≤ j ≤ p et αi = 0 pour 1 ≤ i ≤ n, i ∈ / {k1 , ..., kp }. Comme la suite
(x1 , ..., xn ) est libre, donc αi = 0, 1 ≤ i ≤ n, d’où λkj = 0, 1 ≤ j ≤ p et la suite
(xk1 , ..., xkp ) est libre.
2. C’est une conséquence immédiate de 1.).
Remarques.
1. Une suite libre ne peut contenir le vecteur 0 .
2. Soit x1 , ..., xn une suite libre alors xi 6= xj , ∀i 6= j.
3. Une suite extraite d’une suite liée peut être libre. Par exemple, (x, x) et (x) avec x 6= 0.
Théorème 4.25. Soit n ∈ N et soit (x1 , ..., xn ) une suite libre de E.
1. Pour que le vecteur x ∈ vect(x1 , ..., xn ), il faut et il suffit que la suite (x1 , ..., xn , x)
soit liée.
2. Si x ∈ vect(x1 , ..., xn ), x s’écrit de manière unique
n
X
x= αi xi , αi ∈ K.
i=1
Preuve. 1.) Puisque la suite (x1 , ..., xn ) est libre, x1 6= 0. D’après le théorème 4.23, aucun
des vecteurs xj , 1 ≤ j ≤ n n’est combinaison linéaire de ceux qui le précèdent dans la suite
58
(x1 , ..., xn ).
Alors, d’après le théorème 4.23 :
59
4.6 Exercices
Exercice 1.
Les ensembles sont-ils munis d’une structure d’espace vectoriel ?
1) F([0, 1], R) ensemble des applications de [0, 1] dans R.
2) F(R, [0, 1]) ensemble des applications de R dans [0, 1].
3) {(x, y, z) ∈ R3 , tel que 2x + 3y − z = 0}.
4) L’ensemble des suites convergentes dans R.
Exercice 2.
Dans E = F(R, R), quels sont, parmi les sous ensembles suivants, ceux qui sont des sous-
espaces vectoriels de E :
a) {f ∈ E : f (1) = 2f (0)} ;
b) {f ∈ E : f (1) − f (0) = 1};
c) {f ∈ E : f (x) = f (x − a) pour x ∈ R}, ( a ∈ R fixé).
Exercice 3.
Soit F et G deux sous-espaces vectoriels d’un K−espace vectoriel E. Montrer que :
{x ∈ E : ∃y ∈ F, ∃z ∈ G tels que x = y + z}
est le plus petit (pour l’inclusion) sous-espace de E contenant F ∪ G.
Exercice 4.
a) Soit F et G deux sous-espaces de E, montrer que F ∪ G est un sous-espace vectoriel de E
si et seulement, si F ⊂ G ou G ⊂ F .
b) Vérifier que toutes combinaison linéaire finie d’éléments de F ∪ G peut s’ecrire sous forme
x + y, avec x dans F et y dans G.
c) Dans le cas b) précédent, l’écriture x + y est-elle unique ? ( On pourra considérer par
exemple le cas où F = G).
d) que valent F + {0} et F + E ?
e) Vérifier que F + G = G + F .
f ) Soient F , G et H trois sous-espaces vectoriels d’un même K-espace-vectoriel E. Donner
un exemple tel que F + G = F + H et tel que G 6= H, (donc F + G = F + H n’implique pas
G = H !)
Exercice 5.
Montrer que si tout élément x d’un espace vectoriel E se décompose de manière unique sous
la forme y + z avec y dans F et z dans G, alors F et G sont supplémentaires. Autrement dit
la somme E = F + G est directe.
Exercice 6.
Soit le R-espace vectoriel E = F(R, R).Démontrer que l’ensemble P des fonctions paires de
E et l’ensemble I des fonctions impaires de E sont deux sous-espaces supplémentaires.
Exercice 7.
Si E = F ⊕ G, pour tout x de E, on note respectivement p1 (x) et p2 (x) les éléments de
l’unique décomposition de x en y ∈ F et z ∈ G (c’est-à-dire : y = p1 (x) et z = p2 (x)).
Montrer qu’alors p1 et p2 sont deux applications linéaires de E dans E, et que l’on a :
p1 + p2 = IdE , p21 = p1 , p22 = p2 , p1 op2 = p2 op1 = 0.
60
Ainsi que :
Ker(p1 ) = G, Im(p1 ) = F, ker(p2 ) = F, Im(p2 ) = G.
Exercice 8. Soient f1 et f2 les fonctions définies sur [−1, 1] par :
1 1
∀x ∈] − 1, 1[, f1 (x) = et f2 (x) = .
x−1 x+1
1)Montrer que les fonctions f1 et f2 sont linéairement indépendantes.
2) Montrer que la fonction f :] − 1, 1[−→ R, x −→ x22−1 , appartient au sous-espace vectoriel
engendré par f1 et f2 .
E = Im(f ) ⊕ Kef (f )
et que f est la projection sur Im(f ) parallèlemnt à Ker(f ).
II) Soit E = R2 et f : E −→ E définie par f (x, y) = (x − y, y − x)
II-1. Vérifier que f est un endomorphisme de E. Déterminer Ker(f ) et Im(f ).
II-2. Démontrer que E = Ker(f ) ⊕ Im(f ).
II-3. A t-on f 2 = f.
61
Chapitre 5
ESPACES VECTORIELS DE
DIMENSION FINIE
(1) x = α1 e1 + ... + αn en , αi ∈ K, 1 ≤ i ≤ n.
α1 = ... = αn = 0.
62
Exemples.
1. Soit n ∈ N∗ , soit E = Kn . On considère les vecteurs e1 = (1, 0, ..., 0), e2 = (0, 1, 0, 0, ..., 0),
...,en = (0, ..., 0, 1). Pour tout vecteur x = (α1 , ..., αn ) ∈ E, on a
n
X
x= α i ei ,
i=1
Preuve. Puisque E 6= {0}, les vecteurs ai ne sont pas tous nuls. Si ak 6= 0, la suite (ak )
est libre. Il existe donc au moins une suite libre extraite de (a1 , ..., ap ). Le nombre d’éléments
d’une suite libre extraite de (a1 , ..., ap ) est majoré par p. Soit n, 1 ≤ n ≤ p, le nombre
maximum d’éléments d’une suite libre extraite de (a1 , ..., ap ) et soit (ai1 , ..., ain ) une telle
suite. Pour tout k, 1 ≤ k ≤ p, la suite (ai1 , ..., ain , ak ) est liée et d’après le théorème 4.25
chapitre 4., ak ∈ vect(ai1 , ..., ain ). On a donc :
E = vect(a1 , ..., ap ) ⊆ vect(ai1 , ..., ain ) ⊆ E,
et par suite
63
Théorème 5.6. ( de la dimension ). Dans un K−espace vectoriel E, non nul, de dimension
finie, toutes les bases ont le même nombre d’éléments.
Preuve. Soit (e1 , ..., en ) et (e01 , ..., e0p ) deux bases de E. On peut supposer n ≤ p. Si n < p,
c’est à dire n + 1 ≤ p. On applique la proposition 5.5 à la suite (e1 , ..., en ) et aux vecteurs
e01 , ..., e0n+1 . La suite (e01 , ..., e0n+1 ) est liée et donc aussi la suite (e01 , ..., e0p ). Ceci est absurde
puisque (e01 , ..., e0p ) est une base. Donc n = p.
Définition 5.7. Soit E un K−espace vectoriel, non nul, de dimension finie. Le nombre n
d’éléments de toute base de E est appelé la dimension de E et noté dimK (E) ou simplement
dim(E).
Par définition, la dimension d’un K− e.v. nul est égale à 0 ; c’est à dire : dim{0} = 0
Remarque 5.1.
E 6= {0} ⇐⇒ dimE ≥ 1.
Exemples
1. Soit Kn [X] = {P ∈ K[X]/P = 0 ou do P ≤ n}. On a dimK (Kn [X]) = n + 1.
2. Si n ∈ N∗ , dimK (Kn ) = n, dimK (K) = 1 et dimR (C) = 2.
Définition 5.8. Dans un K−espace vectoriel E, un sous-espace vectoriel de dimension 1
est appelé une droite vectorielle , et un sous-espace de dimension 2 est appelé un plan
vectoriel .
3. Si rg(x1 , ..., xp ) = r, toute suite libre de r vecteurs extraite de la suite (x1 , ..., xp ) est
une base de vect(x1 , ..., xp ).
Preuve. Même démonstration que celle du théorème 5.4.
Recherche pratique du rang d’une suite (x1 , ..., xp ) de vecteurs non tous nuls et
d’une base du sous-espace vectoriel vect(x1 , ..., xp ) :
Soit i1 le plus petit entier k , 1 ≤ k ≤ p, tel que xk 6= 0. Ensuite, s’il existe k, i1 < k ≤ p
et tel que (xi1 , xk ) soit libre, soit i2 le plus petit entier k vérifiant ces conditions. Puis, s’il
existe k, i2 < k ≤ p et tel que (xi1 , xi2 , xk ) soit libre, soit i3 le plus petit entier k vérifiant ces
conditions. Et ainsi de suite ... on obtient finalement une suite libre (xi1 , xi2 , ..., xir ) extraite
de la suite x1 , ..., xp telle que pour tout k, 1 ≤ k ≤ p, la suite (xi1 , xi2 , ..., xir , xk ) soit liée.
Alors, d’après le théorème 4.25 chp. 4, xk ∈ vect(xi1 , xi2 , ..., xir ), pour tout k, 1 ≤ k ≤ p.
D’où
vect(x1 , ..., xp ) = vect(xi1 , xi2 , ..., xir ).
64
Il en résulte que (xi1 , xi2 , ..., xir ) est une base de vect(x1 , ..., xp ) et rg(x1 , ..., xp ) = r.
Remarque 5.2. Si rg(x1 , ..., xp ) = r, une suite extraite de (x1 , ..., xp ) ayant r vecteurs peut
être liée, dans l’exemple précédent r = 3 et (1, X, 1 + X) ainsi que (1 + X, 1 + X 3 , X − X 3 )
sont liées. Par contre (1, X, X − X 3 ) est libre et donc il peut y avoir plusieurs suites libres
extraites de la suite (x1 , ..., xp ), ayant r vecteurs.
1. Toute suite libre a au plus n vecteurs. Toute suite libre de n vecteurs est une base de
E.
2. Toute suite génératrice a au moins n vecteurs. Toute suite génératrice de n vecteurs
est une base de E.
Preuve. 1) Soit (e1 , ..., en ) une base de E. D’après la proposition 5.5, puisque E = vect(e1 , ..., en ),
toute suite (x1 , ..., xn+1 ) est liée et donc toute suite (x1 , ..., xp ) avec p > n est liée.
Soit maintenant (x1 , ..., xn ) une suite libre de E. Pour tout vecteur x ∈ E, la suite (x1 , ..., xn , x)
est liée.
D’après théorème 4.25 chap. 4,
x ∈ V ect(x1 , ..., xn ).
65
2. Si dimF = dimE, on a
E = F.
Preuve. Si F = {0}, c’est évident.
Soit F 6= {0}, donc E 6= {0} et dimE > 0.
1) Toute suite libre de F est une suite libre de E. Cette suite a au plus n éléments (théorème
5.4,1) ). Soit p le nombre maximum d’éléments d’une suite libre de F . On a 0 < p ≤ n. Soit
(x1 , ..., xp ) une suite libre de F , et soit G = vect(x1 , ..., xp ). Soit x ∈ F . La suite (x1 , ..., xp , x)
est liée, donc x ∈ G d’après le théorème 4.25 ch. 4 ; on a donc F ⊆ G, donc F = G et
(x1 , ..., xp ) est une suite génératrice de F .
Par suite (x1 , ..., xp ) est une base de F et on a dimF = p ≤ n = dimE.
2) Si dimF = dimE, toute base de F est une suite libre de n vecteurs de E, donc une base
de E( d’après le théorème 5.4,1). Ce qui implique F = E.
Corollaire 5.13. Soit E un K-e.v. et F et G deux sous-espaces vectoriels de dimension finie,
alors :
F ⊆ G et dimF = dimG =⇒ F = G.
Il suffit d’appliquer la proposition 5.12, 2), en remplaçant E par G.
Proposition 5.14. Soit E un K-espace vectoriel de dimension finie. Pour des sous-espaces
vectoriels F et G de E, les deux assertions suivantes sont équivalentes :
(1) E = F ⊕ G
(2) F ∩ G = {0} et dim E+ dim G=dim E
f : E −→ F
Pn
x −→ i=1 αi ai
66
est une application linéaire de E dans F telle que f (ei ) = ai , pour tout i, 1 ≤ i ≤ n.
Unicité : Supposons qu’il existe une P autre application g telle que g(ei ) = ai .
Soit x ∈ E, ∃!αi ∈ K, 1 ≤ i ≤ n, x = ni=1 αi ei .
Puisque f est une application linéaire, on a :
X X X
f (x) = αi f (ei ) = αi ai = αi g(ei ) = g(x).
i i i
67
Ceci montre la surjectivité de ϕ.
Par suite, ϕ est un isomorphisme de E 0 sur Imf .
Donc
dimE 0 = dimImf.
Or,
E = E 0 ⊕ Kerf.
Ce qui donne
dimE = dimE 0 + Kerf = dimImf + dimKerf.
Remarques :
1. Dans ce théorème F n’est pas supposé de dimension finie.
2. Le théorème noyau-image donne une relation entre les dimensions des sous-espaces
kerf , Imf et dimE.
Exercice .
Soient E un espace vectoriel de dimension finie, et f un endomorphisme de E.
1) Montrer qu’on a toujours :
Définition 5.20. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit
f ∈ L(E, F ). La dimension du sous-espace vectoriel Imf (= f (F )) est appelée le rang de
f et on note rg(f ).
Remarque : Si (e1 , ..., en ) est une base de E, puisque Imf = V ect(f (e1 ), ..., f (en )), on a
rg(f ) = rg(f (e1 ), ..., f (en )).
Corollaire 5.21. Soit E et F deux K-espaces vectoriels. E étant de dimension finie. Soit
f ∈ L(E, F ). On a :
1. f est injective ⇐⇒ dimf (E) = dimE ⇐⇒ rg(f ) = dimE.
2. f est injective ⇐⇒ pour tout sous-espace vectoriel G de E, on a
68
Proposition 5.22. ( Equation d’un hyperplan vectoriel)
Soit E un K-espace vectoriel de dimension n ≥ 1.
1. Le noyau d’une forme linéaire f sur E, non nulle, est un hyperplan vectoriel.
2. Réciproquement : si H est un hyperplan de E, il existe au moins une forme linéaire
sur E, non nulle, dont le noyau est H.
Preuve. 1. Imf est un sous-espace vectoriel de K, puisque dimK (K) = 1, on a dimImf ≤ 1.
Or f 6= 0, donc Imf 6= {0}.
Par suite dimImf = 1.
Finalement,
dimKerf = dimE − dimImf = n − 1.
2. Si n = 1, H = {0} et toute forme linéaire sur E, non nulle, convient.
Si n ≥ 2, soit (h1 , ..., hn−1 ) une base de H ; on la complète en une base (h1 , ..., hn−1 , a) de E.
Soit f ∈ L(E, K) telle que f (hi ) = 0 pour tout i, 1 ≤ i ≤ n − 1, et f (a) 6= 0.
On a
H ⊆ Kerf.
D’autre part, puisque f (a) 6= 0, on a f 6= 0 et d’après 1.)
dimKerf = n − 1 = dimH.
.........................................................................
69
Exercice 1.
Dans l’espace vectoriel E = R3 , on considère les vecteurs a = (1, −1, 1), b = (1, 0, 1) et
c = (1, −1, 1).
1) Écrire les vecteurs de la base canonique de E.
2) Démontrer que (a, b, c) est une base de E.
3) Quelles sont, dans cette base, les coordonnées du vecteur x = (x1 , x2 , x3 ) ?
Exercice 2.
Soient E et F deux K-espaces vectoriels, f ∈ L(E, F ). Montrer que les deux assertions sui-
vantes sont équivalentes :
(a) f est injective ;
(b) pour toutes suite libre (x1 , x2 , ..., xn ) de vecteurs de E, (f (x1 ), ...., f (xn )) est une suite
libre de vecteurs de F .
Exercice 3.
Soient E et F deux K-e.v..E étant de dimension finie n ≥ 0. Soit(e1 , e2 , ..., en ) une base de
E et f ∈ L(E, F ). Démontrer qu’on a :
1) f est injective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite libre de F .
2) f est surjective ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une suite génératrice de F .
3) f est isomorphisme ⇐⇒ (f (e1 ), f (e2 ), ..., f (en )) est une base de F .
Exercice 4.
Soit f un endomorphisme d’un espace vectoreil E. Montrer que si E est de dimension finie,
les deux conditions suivantes sont équivalentes :
(a) (∀x ∈ E) (∃n ∈ N) (f n (x) = 0).
(b) (∃n ∈ N) (∀x ∈ E) (f n (x) = 0).
(Remarque : un endomorphisme vérifiant (b) est dit nilpotent).
Exercice 5.
1) Soit f l’application de R3 dans R3 définie par :
f (x, y) = (x − y, y − x, 0).
3) En déduire que
f n + λn−1 f n−1 + ... + λ0 IdE = 0
Exercice 7.
Soient E et F deux K-e.v., non nuls, de dimensions respectives p et q. Soit (e1 , ..., ep ) une
70
base de E et (f1 , ..., fq ) une base de F. Démontrer que l’espace vectoriel E × F est de dimen-
sion finie. Donner une base de E × F . Quelle est la dimension de E × F ?
Exercice 8.
Soient E et F deux sous-espaces vectoriels d’un espace vectoriel E, et f : F × G −→ E,
l’application définie par : f (x, y) = x + y. Montrer que :
1) f est une application linéaire surjective de E × F dans F + G, autrement dit f envoie
E × F sur F + G, ou f (F × G) = F + G.
2) f est injective si et seulement, si F ∩ G = {0}.
3 Si F ∩ G = {0}, f est un isomorphisme de F × G sur F + G.
Exercice 9.
Soit E un K-espace vectoriel, F et G deux sous espaces vectoriels de dimension finie, de E.
1) Montrer que F + G et F ∩ G sont de dimension finie.
2) Soit H = F ∩ G et U un suplémentaire de H dans G. Montrer que F + G = F ⊕ U .
3) Déduire que :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Exercice 10.On considère la suite (Pn )n∈N de polynômes de R[X] tels que
∀k ∈ N, deg(Pk ) = k.
10-1 Montrer que, pour tout n ∈ N, (Pk )0≤k≤n est une base de Rn [X].
10-2 Déduire que (Pk )k∈N est une base de R[X].
10-3 Donner un exemple d’endomorphisme surjectif et non injectif et un exemple d’en-
domorphisme injectif et non surjectif.
10-4 Soit f et g deux endomorphismes. On suppose que f og = IdE , que peut-on dire de
f et g ?
71
Chapitre 6
MATRICES ET SYSTÈMES
LINÉAIRES
6.1 Généralités
6.1.1 Définitions
Soit deux entiers p ≥ 1, n ≥ 1 , on appelle matrice de type (p, n) ou (p, n)−matrice à
coefficients dans K, un tableau rectangulaire à p lignes, n colonnes d’éléments de K.
a1,1 a1,2 . . . a1,n
a2,1 a2,2 . . . a2,n
a= . .. ..
.. . .
ap,1 ap,2 . . . ap,n
Les éléments ai,j de K , 1 ≤ i ≤ p et 1 ≤ j ≤ n, sont les coefficients de la matrice A.
Pour représenter une matrice, on utilise la notation (ai,j )1≤i,≤p 1≤j≤n ou plus simplement
(ai,j ) lorsqu’il n’y a pas de confusion.
Exemple : K = R, p = 3, n = 2
√
2 1
1 1 ∈ M3,2 (R).
4
2 0, 7
Egalité de deux matrices : Soit A = (ai,j ) ∈ Mn,p (K) et B(bi,j ) ∈ Mn0 ,p0 (K).
Par définition
A = B ⇐⇒ p = p0 , n = n0 et ai,j = bi,j , ∀1 ≤ i ≤ p, 1 ≤ j ≤ n.
Vecteurs lignes et vecteurs colonnes : On appelle ieme vecteur ligne de la matrice A =
(ai,j ) ∈ Mp,n (K), le vecteur
¡ ¢
ai,1 ai,2 . . . ai,n ∈ Kn .
On appelle j eme vecteur colonne de la matrice A = (ai,j ) ∈ Mp,n (K), le vecteur
a1,j
a2,j
.. ∈ Kp .
.
ap,j
72
Remarques :
• Si n = p, la (n, n)−matrice A = (ai,j ) ∈ Mn,n (K) est appelée matrice carrée d’ordre
n. On note Mn (K) au lieu de Mn,n (K).
Soit A ∈ Mn (K) :
a1,1 a1,2 . . . a1,n
a2,1 a2,2 . . . a2,n
A= . .. ..
.. . .
an,1 an,2 . . . an,n
Les coefficients ai,i , 1 ≤ i ≤ n sont appelés les coefficients diagonaux de la matrice
carrée A. Ils constituent la diagonale principale de A.
• Une matrice carrée est dite triangulaire supérieure (resp. triangulaire inférieure) si tous
ses coefficients situés au dessous (resp. au dessus) de la diagonale principale sont nuls.
Une matrice triangulaire supérieure s’écrit :
a1,1 a1,2 . . . a1,n
0 a2,2 . . . a2,n
A= . ..
. . 0 .
0 . . . 0 an,n
Une matrice carrée est dite diagonale si tous ses coefficients autres que les coefficients
diagonaux sont nuls, c’une matrice de la forme :
a1,1 0 . . . 0
..
0 a2,2 0 .
A= .
.
. 0 0
0 . . . 0 an,n
Remarques :
1. t (t A) = A, t (AB) = t B t A et t (A + B) = t A +t B.
2. L’application A −→t A est une bijection de Mp,n (K) sur Mp,n (K).
Définition 6.2. Une matrice carrée A = (ai,j ) ∈ Mn (K) est dite symétrique si t A = A.
Autrement dit,
ai,j = aj,i ∀1 ≤ i, j ≤ n.
73
6.2 Opérations sur les matrices
6.2.1 L’espace vectoriel Mp,n (K)
Définition 6.3. On appelle somme des deux matrices A = (ai,j ) ∈ Mp,n (K) et B = (bi,j ) ∈
Mp,n (K), et on note A + B, la matrice C = (ci,j ) ∈ Mp,n (K) telle que
ci,j = ai,j + bi,j , 1 ≤ i ≤ p, 1 ≤ j ≤ n
Exemple :
1 3 1 0 1 2 1 4 3
0 5 2 5 6 4 5 11 6
A=
2
, B= , C= .
√ 6 5 7 4 0 9
√ 10 5
2 i j 0 1 0 2 i+1 j
Définition 6.4. On appelle produit de la matrice A = (ai,j ) ∈ Mp,n (K) par le scalaire λ ∈ K,
et on note λA, la matrice A0 = (a0i,j ) ∈ Mp,n (K) telle que
a0i,j = λai,j 1 ≤ i ≤ p, 1 ≤ j ≤ n
Exemple :
1 −5
1 −5 0 3 3 0
1
2 6 1 2
= 3 2 1
3
3 3 9 4 1 3 4
3
−i
−i 0 0 3 0 0
Théorème 6.5. L’ensemble Mp,n (K) muni de l’addition (A, B) −→ A + B et de la multi-
plication externe (λ, A) −→ λA, ayant K comme corps des scalaires, est un K-e.v.
Preuve. L’élément nul de Mp,n (K) est la matrice dont tous les coefficients sont nuls, appelée
matrice nulle, et notée par 0.
L’opposé de A = (ai,j ) est la matrice −A = (−ai,j ). Les autres axiomes d’un K−e.v. sont
laissés en exercice.
Proposition 6.6. La suite (E1,1 , E1,2 , ..., E2,1 , ..., Ep,n ) est une base de Mp,n (K) appelée base
canonique de Mp,n (K). Donc dimMp,n (K) = np.
Preuve.
A Ecrire..................
74
Exemple :
1 0
1 3 2 0 −2 −1
A = 0 −1 −3 −1 ∈ M3,4 (R), B=
0
2
−2 0 1 2
1 3
−5 1
AB = 1 −8 .
0 8
Remarques :
1. La multiplication des matrices est associative et distributive par rapport à l’addition.
2. Si A ∈ Mp,n (K) et B ∈ Mn,q (K), on a t (AB) = t B t A. (Attention à l’ordre !)
Définition 6.9. On appelle matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases
B = (e1 , ..., en ) de E et B 0 = (f1 , ..., fp ) de F , la (p, n)−matrice A = (ai,j ) dont la jeme
colonne :
a1,j
a2,j
..
.
ap,j
est constituée par les coordonnées du vecteur ϕ(ej ) dans la base B0 = (f1 , ..., fp ).
Autrement dit :
ϕ(e1 ) ϕ(e2 ) . . . ϕ(en )
75
a1,1 a1,2 . . . a1,n f1
a2,1 a2,2 . . . a2,n f2
A= .. .. .. ..
. . . .
ap,1 ap,2 . . . ap,n fp
L’application ϕ : E −→ F est déterminée par sa matrice A dans les bases B et B 0 .
Exemples :
Soit n ∈ N et soit le R−espace vectoriel En = {P ∈ R[X]/P = 0 ou degP ≤ n}.
1. Soit ϕ ∈ L(E3 , E2 ) définie par ϕ(P ) = P 0 . Alors la matrice de ϕ dans les bases
canoniques de E3 et de E2 est :
0 1 0 0
Mϕ = 0 0 2 0 ∈ M3,4 (R).
0 0 0 3
2. Soit ϕ ∈ L(E3 , E3 ) définie par ϕ(P ) = P 0 . Alors la matrice de ϕ dans la base cano-
niques de E3 est :
0 1 0 0
0 0 2 0
Mϕ = 0
∈ M4 (R).
0 0 3
0 0 0 0
3. Soit f ∈ L(R3 ) définie par :
f (e1 ) = e1 + 3e2
f (2) = e2
f (e3 ) = e3
Remarques :
1. La matrice d’une application linéaire ϕ : E −→ F dans les bases B de E et B0 de F
dépend évidemment des bases choisies dans E et F .
2. Si A et B sont les matrices respectives des applications ϕ ∈ L(E, F ) et ψ ∈ L(E, F ),
dans les bases B et B 0 , la matrice de ϕ + ψ dans les bases B et B0 est A + B.
3. Si A est la matrice de ϕ ∈ L(E, F ) dans les bases B et B 0 , et si λ ∈ K, alors la matrice
de l’application linéaire λϕ est λA.
4. Si B est la matrice de l’application linéaire ϕ ∈ L(E, F ) dans les bases B = (e1 , ..., eq )
et B0 = (f1 , ..., fn ), et si A est la matrice de l’application linéaire ψ ∈ L(F, G), dans
les bases B0 et B00 = (g1 , ..., gp ), alors la matrice de ψoϕ dans les bases B et B00 est le
produit AB.
En effet, on a
n
X
ϕ(ej ) = bk,j fk
k=1
pour 1 ≤ j ≤ q.
Et pour 1 ≤ k ≤ n, on a
p
X
ψ(fk ) = ai,k gi .
i=1
76
Donc, pour 1 ≤ j ≤ q, on a
P P P P P
ψoϕ(ej ) = nk=1 bk,j ψ(fk ) = nk=1 bk,j ( pi=1 ai,k gi ) = nk=1 pi=1 (bk,j ai,k )gi
Pp Pn Pp
= i=1 ( k=1 ai,k bk,j )gi = i=1 ci,j gi
Pn
avec ci,j = k=1 ai,k bk,j pour 1 ≤ i ≤ p et 1 ≤ j ≤ q. Donc la matrice C de l’application
linéaire ψoϕ est égale à AB.
Proposition 6.10. Les bases B = (e1 , ..., en ) et B 0 = (f1 , ..., fp ) étant fixées. Désignons par
Mϕ la matrice de ϕ ∈ L(E, F ) dans les bases B et B0 . Alors l’application :
J : L(E, F ) −→ Mp,n (K)
ϕ −→ Mϕ
est un isomorphisme.
Preuve.
J est injective : car Mϕ = Mψ implique ϕ(ej ) = ψ(ej ) pour 1 ≤ j ≤ n et donc ϕ = ψ.
J est surjective : car si A = (ai,j ) ∈ Mp,n (K), soit ϕ ∈ L(E, F ) définie par
p
X
ϕ(ej ) = ai,j fi , 1 ≤ j ≤ n.
i=1
Alors Mϕ = A.
Donc J est surjective.
De plus, J est clairement linéaire d’après la remarque précédente.
Théorème 6.11. Soit E et F deux K−e.v. non nuls, de dimensions respectives n et p et soit
ϕ ∈ L(E, F ). Si A est la matrice de ϕ dans les bases B = (e1 , ..., en )de E et B 0 = (f1 , ..., fp )
de F , le rang de ϕ est égal au rang de A.
77
Théorème 6.14. Soit A ∈ Mn (K), E et F deux K−e. v. non nuls de dimension n. B une
base de E et B 0 une base de F . Soit ϕ ∈ L(E, F ), de matrice A dans les bases B et B0 . Les
propositions suivantes sont équivalentes :
1. Il existe B ∈ Mn (K) telle que BA = In .
2. Il existe C ∈ Mn (K) telle que AC = In
3. ϕ est un isomorphisme de E sur F .
4. A est inversible.
Preuve. (1) =⇒ (3) Soit g ∈ L(F, E) de matrice B dans les bases B0 et B.
goϕ ∈ L(E) et Mgoϕ = BA = In .
Donc goϕ = IdE .
Soit x ∈ Kerϕ, x = goϕ(x) = g(ϕ(x)) = g(0) = 0.
Donc
Kerϕ = {0}.
D’où ϕ est injective.
D’où ϕ est un isomorphisme de E sur F .
(2) =⇒ (3) Soit h ∈ L(F, E) de matrice C dans B0 et B. ϕoh ∈ L(F ) et Mϕoh = AC = In .
Donc ϕoh = IdF .
Soit y ∈ F , on a y = (ϕoh)(y) = ϕ(h(y).) Donc F ⊆ Imϕ, ce qui implique que ϕ est
surjective.
D’où ϕ est un isomorphisme de E sur F .
(3) =⇒ (4). Soit A0 la matrice de ϕ−1 dans les bases B0 et B. On a ϕ−1 oϕ = In et Mϕ−1 oϕ =
A0 A = In .
De même ϕoϕ−1 = IdF et Mϕoϕ−1 = AA0 = In .
Donc A est inversible.
(4) =⇒ (1) et (4) =⇒ (2) sont évidentes.
Corollaire 6.15. Soit A ∈ Mn (K). Les propositions suivantes sont équivalentes :
1. A est inversible.
2. rg A=n.
3. Les vecteurs colonnes de A constituent une base de Kn .
Preuve. Soit ϕ ∈ L(Kn ) de matrice A dans la base canonique de Kn .
(1) =⇒ (2)) On a :
(2) =⇒ (3)) La suite (ϕ(e1 ), ..., ϕ(en )) est libre et dimF = n, donc (ϕ(e1 ), ..., ϕ(en )) est une
base de F.
(3) =⇒ (1) L’image d’une base par ϕ est une base.
Donc ϕ est un isomorphisme.
Par suite A est inversible.
78
Posons
p1,1 p1,2 . . . p1,n
p2,1 p2,2 . . . p2,n
P = .. .. .. ∈ Mn (K).
. . .
pn,1 pn,2 . . . pn,n
Le rang de la matrice P = (pi,j ) ∈ Mn (K) est égal au rang de la suite (e01 , ..., e0n ). Donc
rgP = n et P est inversible.
Définition 6.16. La matrice P = (pi,j ) ∈ Mn (K) dont la j eme colonne est constituée
par les coordonnées de e0j dans la base B = (e1 , ..., en ) est appelée matrice de pas-
sage de la base B = (e1 , ..., en ) à la base B0 = (e01 , ..., e0n ). C’est une matrice inversible.
6.5.1 Action d’un changement de base sur les coordonnées d’un vecteur
Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ) deux bases d’un K−e.v. E de dimension n. Soit
x ∈ E, on a :
X n n
X
x= xi ei = x0j e0j .
i=1 j=1
Soit P = (pP 0
i,j ) ∈ Mn (K) la matrice de passage de B à B .
0 n
On a ej = i=1 pi,j ei , 1 ≤ j ≤ n.
On a
Xn Xn n
X n X
X n n
X
0 0 0 0
x= xj ej = xj pi,j ei = ( xj pi,j )ei = xi ei
j=1 j=1 i=1 i=1 j=1 i=1
Pn 0
D’où, ∀1 ≤ i ≤ n, on xi = j=1 pi,j xj . Soit sous forme matricielle :
Pn
x1 p x0 p1,1 p1,2 . . . p1,n x01
Pnj=1 1,j 0j
x02
x2 j=1 p2,j xj p2,1 p2,2 . . . p2,n
X= ..= .. = .. .. .. .. = P X 0.
. . . . .
Pn .
xn 0
j=1 pn,j xj pn,1 pn,2 . . . pn,n x0n
79
6.5.2 Action d’un changement de base sur la matrice d’une application
linéaire
Proposition 6.18. Soit E et F deux K−e.v., non nuls, de dimensions respectives n et p.
Soit ϕ ∈ L(E, F ). Soit A la matrice de ϕ dans les bases B de E et B1 de F . Soit A0 la
matrice de ϕ dans les bases B 0 de E et B10 de F . Soit P la matrice de passage de B à B0 et
Q la matrice de passage de B1 à B10 , on a
A0 = Q−1 AP.
Preuve.
Soit x ∈ E et y = ϕ(x). On a (y)B1 = A(x)B et (y)B10 = A0 (x)B0 .
Or (y)B1 = Q(y)B10 et (x)B = P (x)B0 .
Donc :
(y)B10 = Q−1 (y)B1 = Q−1 A(x)B = Q−1 AP (x)B0 = A0 (x)B0
D’où :
A0 = Q−1 AP.
Définition 6.19. Deux matrices (p, n)−matrices , A ∈ Mp,n (K) et B ∈ Mp,n (K) sont dites
équivalentes s’il existe deux matrices carrées R ∈ Mp (K) et S ∈ Mn (K) telles que :
B = RAS.
Définition 6.20. Deux matrices carrées, d’ordre n, A ∈ Mn (K) et B ∈ Mn (K) sont dites
semblables s’il existe une matrice carrée inversible P ∈ Mn (K) telle que
B = P −1 AP.
80
Discuter et résoudre (S) c’est trouver toutes les solutions de (S).
• Deux systèmes sont dits équivalents s’ils ont le même ensemble de solutions.
(S) est dit compatible s’il admet au moins une solution. Dans le cas contraire (S) est dit
incompatible (ou impossible).
• Le système (S) s’écrit en abrégé :
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p.
j=1
AX = b. (1)
81
inversible.
Cas particulier : systèmes de Cramer triangulaires.
Soit un système (T ) de n équations à n inconnues dont la matrice est triangulaire supèrieure
avec des coefficients diagonaux tous non nuls.
On montre facilement (exercice) que rg A = n. Donc (T ) est un système de Cramer et admet
une solution unique.
a1,1 x1 +a1,2 x2
+... +a1,n xn = b1
a2,2 x2 +... +a2,n xn = b2
(T ) .
..
an−1,n−1 xn−1 +an−1,n xn = bn−1
an,n xn = bn
Le système (T ) est facile résoudre. En effet, on calcule de la façon suivante :
P P
bn bn−1 − an−1,n xn bi − nj=i+1 ai,j xj b1 − nj=2 a1,j xj
xn = , xn−1 = , ..., xi = , ..., x1 =
an,n an−1,n−1 ai,j a1,1
x1 , ..., xq sont appelés les inconnuses principales et xq+n , ..., xn sont appelées les incon-
nues non principales.
82
Preuve. Puisque les p-q dernières lignes de la matrice A sont nulles , on a rg A ≤ q.
Puisque les q premières colonnes de A forment une suite libre on a rgA ≥ q.
Donc
r = rgA = q.
Définition 6.24. On appelle opération élémentaire sur (S) chacune des opérations sui-
vantes :
(1) permuter deux colonnes de (S).
(2) permuter deux équations de (S).
(3) ajouter membre à membre à une équation, une combinaison linéaire des autres équations.
(4) multiplier les deux membre d’une équation par un même scalaire non nul.
On rappelle que deux systèmes linéaires sont dits équivalents, s’ils ont le même ensemble
de solutions.
Théorème 6.25. (S) étant un système linéaire , toute opération élémentaire sur (S) trans-
forme (S) en un système linéaire équivalent et de même rang.
Preuve. L’addition dans K est commutative, l’opération (1) transforme (S) en un système
équivalent.
L’ordre des équations n’intervient pas dans l’ensemble des solutions : l’opération (2) trans-
forme (S) en un système équivalent.
Soit λ ∈ K, h et k ∈ {1, ..., p}, h 6= k, et soit (S 0 )le système suivant déduit de (S) :
½ Pn
a x = bi , 1 ≤ i ≤ p, i 6= k,
0
(S ) Pnj=1 i,j j
j=1 (ak,j + λah,j )xj = bk + λbh .
Il est clair que si (x1 , ..., xn ) est solution de (S), (x1 , ..., xn ) est aussi solution de (S 0 ). Comme
on transforme (S 0 ) en (S) par une opération de même type que celle qui nous fait passer de
(S) à (S 0 ), toute solution de (S 0 ) est aussi solution de (S).
L’opération qui consiste à ajouter membre à membre à la k eme équation, une combinaison
linéaire des autres équations, est une suite finie d’opérations du type précédent, donc elle
transforme (S) en un système linéaire équivalent.
Enfin il est évident que l’opération (4) transforme (S) en un système linéaire équivalent.
83
6.8 Algorithme du pivot de Gauss :
Théorème 6.26. : Soit (S) un système linéaire de p équations à n inconnues
n
X
(S) ai,j xj = bi , 1 ≤ i ≤ p.
j=1
Soit A la matrice du système (S), si A 6= 0, il existe une suite finie d’opérations élémentaires
qui transforment (S) en un système échelonné.
Preuve.
a1,1 a1,2 . . . a1,n
a2,1 a2,2 . . . a2,n
A= . .. .. .
. . . .
ap,1 ap,2 . . . ap,n
A 6= 0, il existe donc i0 , j0 , 1 ≤ i0 ≤ p et 1 ≤ j0 ≤ n tel que ai0 ,j0 6= 0.
En permutant au besoin, les équations 1 et i0 et les colonnes 1 et j0 , on se ramène à un
système équivalent et de même rang :
n
X
(S 0 ) a0j,i x0j = b0i , 1≤i≤p avec a01,1 = ai0 ,j0 .
j=1
n
X
(S”) a”j,i x0j = b”i , 1 ≤ i ≤ p,
j=1
Exemple :
x−y = −1
3x + 3z = 3
2x + y + 3z = 4
L’écriture matricielle du système est :
1 −1 0 x −1
3 0 3 y = 3 .
2 1 3 z 4
84
On utilise la méthode de pivot de Gauss en n’oubliant pas de traı̂ter b.
1 −1 0 −1 1 −1 0 −1
3 0 3 | 3 =⇒ 0 3 3 | 6
2 1 3 4 0 3 3 6
1 −1 0 −1
0 3 3 | 6
0 0 0 0
Le rang de (S) est égal à r = 2.
On prend x et y comme inconnues principales et z comme inconnue non principale.
S = {(x, y, z) = (1 − z, 2 − z, z)/z ∈ R}
rg(A) = n − dimKer(A)
B. Noyau de f .
Soit f ∈ L(Rn , Rp ).
La résolution du système linéaire homogème f (X) = 0 fournit Ker(f ).
Exemple : Soit f ∈ L(R4 , R3 ) dont la matrice dans les base canoniques de R4 et R3 est
1 1 −3 4
A = 1 2 −5 2 .
−1 1 −1 −8
Si X = (x, y, z, t) ∈ R4 , AX = 0 s’écrit :
x + y − 3z + 4t = 0
(S) x + 2y − 5z + 2t = 0
−x + y − z − 8t 0.
C. Image de f .
On cherche les Y ∈ Rp pour lesquels l’équation f (X) = Y , où l’inconnue est X, a
au moins une solution. Si A est la matrice de f dans les bases canoniques de Rn et
Rp , on cherche les Y ∈ Rp pour lesquels le système AX = Y , où l’inconnue est X, est
compatible.
85
Compléments Sur les matrices par blocs.
On peut procéder de même quel que soit le nombre de blocs, à condition que :
........................................................................................
86
6.9 Exercices : Les matrices
Exercice 1. Un fabricant de composantes électriques vend deux produits différents à trois
clients. Les deux produits sont fabriqués dans deux usines différentes. Les coûts de transport
de chaque produit, pour chaque client, sont indiqués dans le schéma suivant :
1) Présentez les informations contenues dans le schéma sous forme d’une matrices A de
format 2 × 3, où aij représente le coût de transport pour expédier le produit i au client j.
2) Quelle information la deuxième ligne de la matrice contient-elle ?
3) Quelle information la troisième colonne de la matrice contient-elle ?
4) Quelle information a12 donne-elle ?
Exercice 2.
1) Calculer les produits AB et BA quand il existent dans le cas suivant :
A = (3 5 − 1 − 2) et B = t (−1 0 1 2).
2) Dans M4 (C) considérons les matrices :
α 1 0 1 α 0 0 0
0 α 0 2 1 α 0 0
A=
0 0 β 3 et B = 0 0 β 1
0 0 0 1 0 0 0 β
Calculer A2 , AB, ABA, t (AB), t At B et B 3 .
Exercice 3. µ ¶ µ ¶
0 1 1 1
a) Calculer Am , m ∈ N, pour A1 = puis pour A2 = .
0 0 0 1
b) Calculer om et I m .
c) Vérifier les propriétés (λA)m = λm Am ; (A + B)2 = A2 + AB + BA + B 2 .
Exercice 4.
a) Développer (A + B)3 .
b) Développer (A + B + c)2 .
c) Développer (A + I)3 .
d) D’une manière générale, Développer (A + I)n . Déduire (A1 +P
I)n = (nA1 + I).
( Indication : Si AB = BA on a pour tout k ∈ N : (A + B) = ki=0 Cki Ak−i B i .)
∗ k
où a, b, c ∈ Q.
1) Montrer que toute matrice E s’écrit de manière unique sous la forme aI + bJ + cK où I
désigne la matrice unité de M3 (Q) et J, K deux matrices de M3 (Q) indépendantes de a, b, c.
87
2) En déduire que E est un sous-espace vectoriel sur Q.
Quelle est sa dimension ?
3) Calculer J2 , J.K, K 2 , J 3 ,
J + I.
2 −3 −4
3 1 5
4) Soit A =
−1 0 −1 ∈ M4,3 (Q).
0 2 4
Trouver le rang des matrices suivantes A et t A.
Exercice 6.
Soit B = (e1 , e2 , e3 ) la base canonique de R3 . On considère l’endomorphisme de R3 défini
par :
f (e1 ) = − 21 e1 + 12 e2 + 12 e3
f (e2 ) = −e1 + e3
f (e3 ) = − 21 e1 − 12 e2 + 12 e3
1) Déterminer la matrice de f dans la base B. Quel est le rang de cette matrice ?
2) Déterminer ker(f ) et sa dimension.
3) Déterminer Im(f ) et sa dimension.
4) Soient f1 = (1, −1, 1), f2 = (−1, 1, 1) et f3 = (1, 1, −1).
a) Calculer f (f2 ) et f (f3 ). Déduire que (f2 , f3 ) est une base de Im(f ).
b) Montrer que B 0 = (f1 , f2 , f3 ) est une base de R3 .
c) Montrer que R3 = ker(f ) ⊕ Im(f ).
5) Déterminer la matrice de f dans la base B 0 .
6) Déterminer la matrice de passage P de la base B 0 à la base B.
Exercice 7.
Soit E un K−espaces vectoriel, non nul, de dimension finie, et soit ϕ ∈ L(E). Soient B et
B 0 deux bases dans E. Soit A la matrice de ϕ dans la base B de E et A0 la matrice de ϕ dans
la base B 0 de E. Soit P la matrice de passage de B à B 0 .
1) Montrer que A0 = P −1 AP.
2) Pour tout k ∈ N, A0k = P −1 Ak P .
Exercice 9.
88
On considère l’application f de R3 dans R2 définie par :
x µ ¶
2x − y − z
f y = .
−x + 2y − z
z
1.) Montrer que f est linéaire et écrire sa matrice A dans les bases canoniques.
3.) Déterminer un vecteur V qui engendre Ker f et dont la première coordonnée vaut 1.
4.) (e1 , e2 , e3 ) désignant la base canonique de R3 , montrer que B1 = (e1 , e2 , V ) est une base
de R3 et écrire la matrice de passage Q de la base canonique à B1 .
5.) On note U1 = f (e1 ), U2 = f (e2 ). Montrer que B2 = (U1 , U2 ) est une base de R2 et écrire
la matrice de passage P de la base canonique à B2 .
0
6.) Écrire la matrice A de l’application linéaire f dans les bases B1 et B2 (sans utiliser P
et Q).
0
7.) Vérifier en utilisant la formule du changement de base reliant A, A , P et Q.
8.) Ecrire la matrice transposée t A de A. On note désormais g : R2 → R3 l’application
linéaire définie par g(X) = t AX.
9.) Déterminer le rang de g et les dimensions de Im g et Ker g. L’application g est-elle
injective, surjective, bijective ?
10.) Déterminer pour f og, puis pour gof , le rang, la dimension de l’image et la dimension
du noyau. L’application f og est-elle injective, surjective, bijective ?
Même question pour gof .
11.) Déduire des questions 2.), 9.) et 10.) les identités : Ker(gof ) = Kerf , Ker(f og) =
Kerg, Im(gof ) = Img, Im(f og) = Imf .
Exercice 10.
Ecrire sous forme canonique, puis sous forme matricielle, les systèmes :
x + 1 = −y − z
½ 0 = x + y + z + t
y−1= 2z − x z+t= z−2
; 2= x−y ;
z= 2 − x + 3y
x−y = −1
4= t−z
−y + 3 = z + 2x.
Exercice 11. A l’aide des transformatons élémentaires sur les lignes, déterminer une matrice
triangulaire A0 équivalente à :
1 1 1
A = 1 2 3 .
1 3 4
2) Résoudre le système linéaire (S) AX = 0.
Exercice1 12.
Discuter et résoudre les systèmes linéaires suivants, En utilisant l’algorithme d’élimination
de Gauss :
x +2y +3z +4t = 11
x +3y +5z −2t −7u = 3
2x +3y +4z +t = 12 3x +y +z −2t −u = 1
(S1 ) ; (S2 )
3x +4y +z +2t = 13
2x −y −3z +7t +5u = 2
4x +y +2z +3t = 14. 4x −2y −5z +7t +8u = λ.
89
où λ est un paramètre réel.
Exercice 13.
Soit le sous-espace vectoriel F de R4 constitué des (x, y, z, t) ∈ R4 solutions du système (S)
à 3 équations :
x + y − 3z + 4t = 0
(S) x + 2y − 5z + 2t = 0
−x + y − z − 8t 0.
1) Quelle est la dimension de F ?
2) Trouver une base de F.
Exercice 14.
On considère le système linéaire (S) à coefficients complexes :
2x + 2y − z − t = −1
(S) x + y − 2z − 2t = −4
x + y + 4z + 4t = 10.
B. Si un train augmente sa vitesse de 10Km/h sur un trajet, il gagne 40 min. S’il diminue
sa vitesse de 10Km/h, il perd 1h. Quelle est la longueur du trajet ?
Exercice 16.
On considère le système linéaire à coefficients réels :
x +y +z =0
(b + c)x +(a + c)y +(a + b)z = 0
bcx +acy +abz =0
où a, b et c sont des nombres réels donnés. Discuter (suivant les valeurs des paramètres
a, b, c) et résoudre ce système.
1
Les exercices 8 et 12 constituent le sujet d’un devoir libre à rendre au plus tard le 04 avril ...
90
Chapitre 7
DÉTERMINANTS
Comme d’habitude, K = R ou Q ou C.
91
Remarque 7.2. On a τi,j = τj,i et τi,j oτi,j = IJ .
Théorème 7.3. Pour n ≥ 2, tout élément de Sn est égal à un produit de transpositions.
Preuve. Soit σ ∈ Sn On raisonne par récurrence sur l’entier q = n − p, où p est le nombre
déléments de J laissés fixes par σ.
Si q = n − p = 0 , alors σ = IJ = τ1,2 oτ1,2 .
Supposons la propriété vraie pour n − p < q et soit σ ∈ Sn laissant fixes p = n − q éléments
de J (p < n).
Il existe i ∈ J tel que σ(i) = j 6= i et on a σ(j) 6= σ(i) = j. Soit σ 0 = τi,j oσ. les points de J
laissés fixes par σ sont aussi laissés fixes par σ 0 et en outre, σ 0 laisse i fixe (σ 0 (i) = i). Par
suite le nombre p0 de points de J laissés fixes par σ 0 vérifie p0 > p et donc n − p0 < n − p = q.
D’après l’hypothèse de récurrence, σ 0 est un produit de transpositions et σ = τi,j oσ 0 est aussi
un produit de transpositions.
Exemple 7.3. µ ¶
1 2 3
σ= ∈ S3 . σ = τ1,2 oτ2,3 .
2 3 1
Soit n ≥ 2 et σ ∈ Sn . Si 1 ≤ i < j ≤ n, on a σ(i) 6= σ(j) et donc σ(i) < σ(j) ou σ(i) > σ(j).
Définition 7.4. Si i < j et σ(i) > σ(j), on dit que σ(i) et σ(j) présentent une inversion.
Définition 7.5. Si Nσ désigne le nombre d’inversions de la suite (σ(1), . . . , σ(n)), on appelle
signature de la permutation σ ∈ Sn , et on note ε(σ), le nombre ε(σ) = (−1)Nσ ∈ {1, −1}.
σ est dite paire si ε(σ) = 1, et impaire si ε(σ) = −1
Remarque 7.3. On a aussi
Y σ(j) − σ(i)
ε(σ) =
j−i
1≤i<j≤n
En effet, puisque ε(σ) est une permutation de {1, . . . , n}, chaque expression j−i du dénominateur
se trouve au signe prés au numérateur une fois exactement et le dénominateur ayant autant
de facteurs que le numérateur. D’autre part, le nombre de signe - est égal au nombre d’in-
versions dans la suite (σ(1), . . . , σ(n)).
Exemple 7.4. µ ¶
1 2 3 4 5
σ= ∈ S5 .
5 1 4 3 2
Les inverssion de σ sont : 5 et 1, 5 et 4 , 5 et 3, 5 et 2, 4 et 3, 4 et 2, 3 et 2. Donc Nσ = 7
et ε(σ) = −1. σ est impaire.
Proposition 7.6. Toute transposition est une permutation impaire
Preuve. Soit τi,j avec i < j.
µ ¶
1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n
σ = τi,j = ∈ Sn .
1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n
On a Nσ j − i + (j − i − 1) = 2(j − i) − 1 = et ε(σ) = −1.
Théorème 7.7. Soit n ≥ 1. Quelle que soient σ ∈ Sn et σ 0 ∈ Sn , on a ε(σoσ 0 ) = ε(σ)ε(σ 0 )
et ε(σ −1 ) = ε(σ)
Preuve. Le cas n = 1 est évident. Soit n ≥ 2. On a :
Y σoσ 0 (j) − σoσ 0 (i) Y σoσ 0 (j) − σoσ 0 (i) Y σ 0 (j) − σ 0 (i)
ε(σoσ 0 ) = =
j−i σ 0 (j) − σ 0 (i) j−i
1≤i<j≤n 1≤i<j≤n 1≤i<j≤n
Q σoσ 0 (j)−σoσ 0 (i) Q
Or, 1≤i<j≤n σ0 (j)−σ0 (i) = 1≤h<k≤n σ(k)−σ(h) k−h et donc ε(σoσ 0 ) = ε(σ)ε(σ 0 ).
En appliquant le resultat précédent à σ 0 = σ −1 , on a 1 = ε(Id) = ε(σoσ 0 ) = ε(σ −1 ).ε(σ) et
donc ε(σ −1 ) = ε(σ)
92
Corollaire 7.8. Pour n ≥ 2, σ ∈ Sn est paire si et seulement si σ est égale au produit d’un
nombre pair de transpositions.
Preuve. La preuve résulte du Théorème 1 et de la proposition précédente.
φ : E × E −→ R
R1
(f, g) −→ 0 f (x)g(x)dx
f (x1 , . . . , xi , . . . , xi , . . . , xn ) + f (x1 , . . . , xi , . . . , xj , . . . , xn )+
f (x1 , . . . , xj , . . . , xi , . . . , xn ) + f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0
f (x1 , . . . , xi , . . . , xj , . . . , xn ) = −f (x1 , . . . , xj , . . . , xi , . . . , xn ).
D’où
93
Preuve. Soit (x1 , . . . , xn ) une suite liée. L’un
P au moins des vecteurs xi est combinaison
linéaire des autres vecteurs de la suite : xi = j6=i λj xj ; alors :
X X
f (x1 , . . . , xn ) = f (x1 , . . . , λj xj , . . . , xn ) = λj f (x1 , . . . , xj , . . . , xj , . . . , xn ) = 0
j6=i j6=i
Corollaire 7.13. Soit f une forme n−linéaire alternée sur E. Soit (x1 , . . . , xn ) une suite
de n vecteurs de E. On ne change pas la valeur de f (x1 , . . . , xn ) si l’on ajoute à l’un des
vecteurs xi une combinaison linéaire des autres vecteurs de la suite.
Théorème 7.14. Soit f une forme n−linéaire alternée, sur un K−e.v. E de dimension finie
n. Soit (e1 , . . . , en ) une base de E. P
1. Soit (x1 , . . . , xn ) une suite de n vecteurs de E, xj = ni=1 ai,j ei , 1 ≤ j ≤ n. Alors
à !
X
f (x1 , . . . , xn ) = ε(σ)aσ(1),1 . . . aσ(n),n f (e1 , . . . , en ).
σ∈Sn
2. Pour tout λ ∈ K, il existe une forme n−linéaire alternée sur E, et une seule, telle que
f (e1 , . . . , en ) = λ.
Preuve. Admis.
pour (x1 , ..., xn ) = B = (e1 , ..., en ), on a 1 = detB (B) = detB (B 0 )detB0 (B).
94
7.4 Déterminant d’une matrice carrée
Définition 7.17. Soit A = ai,j ∈ M(K). On appelle déterminant de A et on note det(A), le
determinant de la suite (C1 , ..., Cn ) de ses vecteurs colonnes dans la base canonique de Kn .
Le déterminant de A = ai,j ∈ M(K) est aussi noté :
¯ ¯
¯ a1,1 a1,2 . . . a1,n ¯
¯ ¯
¯ a2,1 a2,2 . . . a2,n ¯
¯ ¯
¯ .. .. .. .. ¯ ou encore |ai,j |.
¯ . . . . ¯¯
¯
¯ an,1 an,2 . . . an,n ¯
P
On a donc detA = σ∈Sn ε(σ)aσ(1),1 ...aσ(n),n .
Exemple 7.7. 1. Soit I la matrice unité d’ordre n, ses vecteurs colonnes sont les vec-
teurs de la base canonique de Kn , donc µdetIn = det(e¶1 , ..., en ) = 1.
a1,1 a1,2
2. Si n = 2 donc A est de la forme A = et S2 = {id, τ1,2 }.
a2,1 a2,2
det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a21 a12 a33 − a31 a22 a13 a11 a32 a23 .
4. Déterminant d’une matrice triangulaire : soit A = (ai,j ) ∈ M(K) une matrice triangulaire
supérieure (resp. inférieure)
n
Y
det(A) = a11 ...ann = aii .
i=1
95
Preuve. Soit A = (ai , j) ∈ M(K). On a At = (bi,j ) avec bi,j = aj,i , 1 ≤ i ≤ n, 1 ≤ j ≤ n, et
X
detAt = ε(σ)bσ(1),1 ...bσ(n),n .
σ∈Sn
Or ε(σ)bσ(1),1 ...bσ(n),n = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) (car ε(σ) = ε(σ 0 ) et si i = σ(j) on a
j = σ −1 (i).)
Ainsi :
X X
detAt = ε(σ −1 )b1,σ−1 (1) ...bn,σ−1 (n) = ε(σ −1 )aσ−1 (1),1 ...aσ−1 (n),n .
σ∈Sn σ∈Sn
Remarque 7.6. Les résultats du théorème 7.18 s’étendent aux lignes de la matrice A.
Définition 7.21. Soit A = (ai,j ) ∈ M(K)n ≥ 2 et le déterminant ∆ = detA = |ai,j |. On ap-
pelle mineur du coefficient ai,j le déterminant ∆i,j de la matrice Ai,j obtenue en supprimant,
dans A, la ième ligne et la jème colonne.
96
On a :
n
X n
X
det(A) = det(C1 , . . . , ai,j ei , . . . , Cn ) = ai,j detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . Cn ).
i=1 i=1
où
a1,k
..
.
ai−1,k
Ck0 =
ai−1,k , 1 ≤ k ≤ n, k 6= j.
..
.
an,k
ai,k
Donc :
detB (C1 , ..., Cj−1 , ei , Cj+1 , ..., Cn ) = (−1)n−j+n−i detB (C10 , ..., Cj−1
0 0
, Cj+1 , ..., Cn0 , en )
Preuve. C.S. Supposons que (x1 , ..., xn ) soit liée, alors, puisque detB est une forme multi-
linéaire alérnée, on a (d’après section I) detB (x1 , ..., xn ) = 0.
C.N. La suite (x1 , ..., xn ) est libre dans E et contient n vecteurs, donc c’est une base
de E qu’on note B 0 . D’après la proposition 7.16 detB0 (B).detB (B 0 ) = 1. Donc detB (B0 ) =
detB (x1 , ..., xn ) 6= 0.
Corollaire 7.24. Si A ∈ Mn (K), on a rg(A) = n ⇐⇒ detA 6= 0.
97
7.6.2 Déterminant d’un endomorphisme
Théorème 7.25. et Définition Soit E un K−espace vectoriel de dimension n ≥ 1. Soit ϕ ∈
L(E). Il existe une constante Cϕ ∈ K, et une seule, telle que pour toute base B = (e1 , ..., en )
de E et toute suite (x1 , ..., xn ) ∈ E n , on ait
Preuve. Unicité : Soit Cϕ et Cϕ0 ∈ K telles que pour toute suite (x1 , ..., xn ) ∈ E n , on ait
detB (ϕ(x1 , ..., xn )) = Cϕ detB (x1 , ..., xn ) = Cϕ0 detB (x1 , ..., xn ).
detB (ϕ(e1 , ..., en )) = Cϕ detB (e1 , ..., en ) = Cϕ0 detB (e1 , ..., en ) = Cϕ = Cϕ0 .
D’où l’unicité.
Existence : Soit B = (e1 , e2 , ..., en ) une base fixée dans E. Posons α = detB (ϕ(e1 ), ..., ϕ(en )).
Soit f et g deux applications de E n dans K définies par :
f (x1 , ..., xn ) = detB (x1 , ..., xn ) = detB (ϕ(x1 , ..., ϕ(xn ))) et g(x1 , ...xn ) = αdetB (x1 , ..., xn ).
et
g(e1 , ..., en )) = αdetB (e1 , ..., en ) = α
D’après le théorème 7.14 on a f = g. Donc :
detB (ϕ(x1 ), ..., ϕ(xn )) = detB (B0 )detB0 (ϕ(x1 ), ..., ϕ(xn ))
et
detB (ϕ(x1 ), ..., ϕ(xn )) = αdetB (x1 , ..., xn ) = αdetB (B0 )detB0 (x1 , ..., xn ).
En simplifiant par detB (B 0 ) 6= 0. On obtient :
98
Remarque 7.7. 1. Le déterminant d’un endomorphisme ne dépend pas de la base de
E.
2. Soit E un K−e.v. de dimension n et ϕ ∈ L(E). Si B = (e1 , ..., en ) est une base de E
et si A est la matrice de ϕ dans la base B, on a
det(AB) = detA.detB.
99
Théorème 7.31. Soit A = (ai,j ) ∈ Mp,n (K) et soit ρ le plus grand entier k ≤ inf {p, n} tel
qu’il existe un déterminant non nul, d’ordre k, extrait de A.
Alors
rg(A) = ρ.
Preuve. Laissée en exercice.
.............................................................................
100
7.7 Exercices
Exercice 1.
On note ε(σ) la signature de σ ∈ Sn (n ∈ N∗ ).
1) Montrer que ε(Id) = 1.
2) Montrer que pour toute transposition τ ∈ Sn , ε(τ ) = −1.
3)Calculer explicitement ε(σ) pour
µ σ de S2¶.
1 2 3
4) Soit σ ∈ S3 définie par σ = . Montrer que σ peut s’écrire comme la composé
2 3 1
de deux tranposition bien choisies. En déduire ε(σ).
5) calculer σoσ pour σ de 4) et calculer ε(σoσ). En déduire explicitement ε(σ) pour toute σ
de S3 .
Exercice 2.
Soit E un K-espace vectoriel, f une forme trilinéaire altérnée sur E, et e1 , e2 , e3 trois vec-
teurs de E. Calculer f (2e1 − 3e2 , e2 + 2e3 , e1 − 2e2 + 4e3 ) , en fonction de f (e1 , e2 , e3 ).
Exercice 3.
1) Calculer le déterminant à coefficients réels
¯ ¯
¯ 2 3 1 ¯
¯ ¯
¯ 2 7 8 ¯.
¯ ¯
¯ 5 5 0 ¯
Exercice 5.
Soit A = (ai,j ) ∈ Mn (R) telle que ai,j = 0 pour i > j.
1) Montrer que
n
Y
det(A) = a1,1 a2,2 ...an,n = ai,i .
i=1
2) Déduire que si B = bi,j ∈ Mn (R) telle que bi,j = 0 pour i < j, alors :
n
Y
det(B) = b1,1 b2,2 ...bn,n = bi,i .
i=1
Exercice 6.
101
Montrer que si (a, b, c) ∈ R3 ,
¯ ¯
¯ 1 1 1 ¯
¯ ¯
¯ a b c ¯ = 0.
¯ ¯
¯ b+c c+a a+b ¯
Exercice 7.
1) Calculer le déterminant, pour tout n ∈ N∗ .
¯ ¯
¯ a a a ... a ¯
¯ ¯
¯ a a + x1 a ... . ¯
¯ ¯
¯ a a a + x2 ... . ¯
¯ ¯
∆n+1 (x1 , x2 , ..., xn ) = ¯¯ . . . . . ¯
¯
¯ . . . . . ¯
¯ ¯
¯ . . . . . ¯
¯ ¯
¯ a ... . . a + xn ¯
2)Etablir l’égalité :
¯ ¯
¯ a + x1 a ... a ¯
¯ ¯
¯ a a + x2 ... . ¯
¯ ¯
¯ ¯
¯ . . ¯ = x1 x2 ...xn (1 + a + ... + a ).
¯ . . ¯ x1 xn
¯ ¯
¯ . . ¯
¯ ¯
¯ a ... ... a + xn ¯
Exercice 8.
En utilisant des déterminants extraits, trouver le rang de la matrice :
a b a 1
A= a 2b 3a 2 ∈ M3,4 (R).
−b −a 2b b
Exercice 9.
1 −1 1
1) Soit B = 1 −1 −1 . Montrer que B est inversible et calculer B −1 .
−1 −1 −1
2) Soit a un nombre réel, calculer l’inverse de la matrice :
µ ¶
cosa −sina
C= .
sina cosa
Exercice 10.
On considère les endomorphisme fa de R4 , dépendant d’un paramètre réel a, dont les matrices
Aa dans la base canonique sont données par :
1 a 1 a
a 1 a 1
Aa =
1 a 1 a ∈ M4 (R).
a 1 a 1
102
Exercice 11.
−m 0 1
On considère les matrices Am = 2 m 1 ∈ M3 (R).
1 1 2
1) Calculer le déterminant de Am . Déduire le rang de Am .
2) Si fm est l’endomorphisme de matrice Am dans une base de E ; pour quelles valeurs de
m, fm est-il un automorphisme ? déterminer dans ce cas la matrice de fm −1 .
Exercice 12.
Soit a, b, c des réels non nuls, deux à deux distincts. En utilisant les formules de Cramer,
résoudrele système :
x+y+z = a
ax + by + cz = ab
x y z
a + b + c 1
Exercice 13. Soit n un élément de N∗ , supérieur ou égal 2.
Soient a1 , ..., an n éléments de R , Calculer le déterminant de Vandermonde :
¯ ¯
¯ 1 a1 a21 ... a1n−1 ¯
¯ ¯
¯ 1 a2 a22 ... an−1 ¯
¯ 2 ¯
¯ . . . . . ¯
Vn = V (a1 , ..., an ) = ¯¯ ¯
¯ . . . . . ¯¯
¯ . . . . . ¯¯
¯
¯ 1 a a2 ... an−1 ¯
n n n
Q
(Indication : montrer par recurrence sur l’entier n que V (a1 , ..., an ) = 1≤i<j≤n (aj − ai )).
Exercice 14.
Soit s une permutation de {1, 2, ..., n} où n ∈ N∗ . Soit u l’endomorphisme de Rn défini par :
u(ei ) = es(i)
103
Chapitre 8
RÉDUCTION DES
ENDOMORPHISMES
8.1 Introduction
Soit E un K− espace vectoriel et f un endomorphisme de E. Dans ce chapitre, l’objectif
est de chercher des bases de E dans lesquelles la matrice de l’endomorphisme f soit la plus
simple possible comme par exemple une matrice diagonale.
Le problème consiste à :
1- Caractériser les endomorphismes diagonalisables
2- Déterminer, si elles existent, les bases dans lesquelles la matrice de f est diagonale.
Remarque 8.1. L’intérêt de travailler avec des matrices diagonales est la réalisation pos-
sible de certains calculs comme par exemple : dét Mf , Mfk , k ∈ N, etc...
104
Définition 8.3. Si λ ∈ K est une valeur propre de f , Ker(f − λId) est appelé le sous-espace
propre de f associé à la valeur propre λ.
On note
Eλ = Ker(f − λId).
Exemple Soit E = C[x] et f ∈ Lk (E) définie par :
f: C[x] −→ C[x]
.
P −→ P 0
det(f − λId) = 0.
105
2. Il résulte de la remarque précédente et des propriétés des polynômes que l’endomor-
phisme f admet au plus n valeurs propres distinctes, et s’il admet des valeurs propres
multiples, la somme de leurs multiplicités est inférieure ou égale à n.
3. Si K = C, l’endomorphisme f admet, d’après le théorème de d’Alembert, au moins
une valeur propre. D’après le théorème de factorisation dans C[X], on a :
où les λi sont des nombres complexes deux à deux distinctes et les αi des entiers
supérieurs ou égaux à 1. les valeurs propres de f sont λ1 ...λp , de multiplicités α1 ...αp ,
et on a
α1 + ... + αp = do Pf (X) = n = dimE
Attention :
Ceci est faux si K = Q ou R. Si E est un (Q ou R)-espace vectoriel de dimension finie n ≥ 2,
f n’admet pas nécessairement de valeur propre.
Exemple :
Soit f l’endomorphisme du R-espace vectriel R2 , dont la matrice dans la base canonique est :
µ ¶
0 −1
A= .
1 0
On a : ¯ ¯
¯ −X −1 ¯
Pf (X) = det(A − XI2 ) = ¯¯ ¯ = X 2 + 1.
¯
1 −X
f n’admet pas de valeur propre.
Considérons l’endomorphisme g du C-espace vectoriel C2 dont la matrice dans la base
canonique est cette même matrice A.
On a
Pg (X) = X 2 + 1 = (X − i)(X + i)
et g admet les valeurs propres simples i et −i.
Remarque :
Une fois les valeurs propres calculées, on détermine les vecteurs propres en résolvant le
système linéaire homogène suivant :
x1 0
.. ..
(A − λIn ) . = . .
xn 0
où (x1 , . . . , xn ) est un vecteur propre associé à la valeur propre λ.
En effet, X v. p. ⇐⇒ X 6= 0 et X ∈ ker(A − λIn ).
Exemple :
−4 0 −2
Soit la matrice A = 0 1 0 .
5 1 3
Cherchons les valeurs propres de A.
¯ ¯
¯ −4 − λ 0 −2 ¯¯
¯
det(A − λId) = ¯¯ 0 1−λ 0 ¯¯
¯ 5 1 3−λ ¯
= (−4 − λ)(1 − λ)(3 − λ) + 10(1 − λ)
= (λ − 1)2 (λ + 2).
106
On a deux valeurs propres λ = 1 qui est une valeur propre double et λ = −2 une valeur
propre simple.
Touvons l’ensemble des vecteurs propre de A. Cela revient à résoudre le système linéaire
x1
(A − λI)X = 0 où x = ...
xn
Pour λ = 1, cherchons E1 :
−5x + 0y − 2z = 0 ½
y=0
(A − I)X = 0 ⇐⇒ 0x + 0y + 0z = 0 ⇐⇒
5x + y + 2z = 0
5x + y + 2z = 0
Donc
−5 −5
E1 = {(x, 0, x)/x ∈ R} = {x(1, 0, )}.
2 2
V1 = (1, 0, −5
2 ) engendre E1 donc dimE1 = 1.
Pour λ = −2, cherchons E−2 :
−2x − 2z = 0 ½
y=0
(A + 2I)x = 0 ⇐⇒ 3y = 0 ⇐⇒
x+z =0
5x + y + 5z = 0
Donc
E2 = {(x, 0, −x)/x ∈ R}
= {x(1, 0, 1)/x ∈ R}.
V2 = (1, 0, 1) engendre E−2 , donc dimE−2 = 1.
dimK Eλ ≤ α
107
λ 0
..
D’où M at(g, (e1 , ..., ep )) = .
0 λ
λ − X 0 ... 0
. .
.. .. ..
0 .
Donc Pg (x) =
.. .. ..
= (−1)p (x − λ)p
. . . 0
0 ... 0 λ − X
On sait d’après T.D. que Pg /Pf par suite,
Q(λ) 6= 0, donc Q et (X − λ)p sont premiers entre eux, donc d’après le théorème de Gauss
(X − λ)p divise (X − λ)α et par suite
p ≤ α.
Corollaire : Soit f un endomorphisme d’un K-espace vectoriel de dimension finie. Si λ est
valeur propre simple de f , on a
dim Eλ = 1.
8.3 Diagonalisation
On suppose que E est un K-espace vectoriel de dimension finie n ≥ 1.
8.4 Généralités
Définition 8.11. Soit f un endomorphisme de E. On dit que f est diagonalisable s’il existe
une base de E dans laquelle la matrice de f est diagonale.
Proposition 8.12. Pour que f soit diagonalisable, il faut et il suffit qu’il existe une base
de E constituée de vecteurs propres de f . Alors la matrice de f dans une telle base est une
matrice diagonale dont les coefficients diagonaux sont les valeurs propres de f , chacune étant
écrite un nombre de fois égal à sa multiplicité.
Démonstration.
Si f est diagonalisable, soit B 0 = (e01 , . . . , e0n ) une base de E dans laquelle la matrice D de f
est diagonale :
µ1 0 . . . 0
.
0 . . . . . . ..
D= . . , µi ∈ K, 1 ≤ i ≤ n.
. . . .
. . . 0
0 . . . 0 µn
Alors, pour 1 ≤ i ≤ n, on a f (e0i ) = µi e0i , et e0i , qui non nul, est un vecteur propre de f associé
à la valeur propre µi .
On a Pf (X) = det(D − XIn ) = (µ1 − X)...(µn − X), et les coefficients µi sont les valeurs
propres de f .
En groupant les facteurs du premier degré égaux, on a
Réciproquement, s’il existe une base B0 = (e01 , . . . , e0n ) de E constituée de vecteurs propres de
f , on a f (e0i ) = µi e0i , 1 ≤ i ≤ n, et la matrice de f dans la base B0 est la matrice diagonale
108
ci-dessus.
Définition 8.13. Soit A ∈ Mn (K). On dit que A est diagonalisable sur K, si elle est sem-
blable, dans Mn (K), à une matrice diagonale, c’est-à-dire s’il existe une matrice P ∈ Mn (K),
inversible, telle que la matrice P −1 AP soit diagonale.
dim Ei = 1, 1≤i≤n
Donc
p
X
dim Ei = n
i=1
Remarque 8.2. Ce corollaire donne une condition suffisante pour qu’un endomorphisme
soit diagonalisable. Cette condition n’est pas nécessaire comme le montre l’exemple suivante :
soit l’homothétie vectorielle f : x −→ λx ; f est diagonalisable, sa matrice dans n’importe
quelle base étant λIn . Cependant, Pf (X) = det(λIn − XIn ) = (λ − X)n et λ est valeur propre
de f de multiplicité n.
109
(1) Pf est scindé sur K i.e.
On calcule Pf (X) = dét (f − XId) puis on cherche les racines de ce polynôme. Ce sont les
valeurs propres. Pour une matrice A, on calcule dét(A − XIn ).
On essayera, autant que possible, de calculer Pf en factorisant dét (A − XIn ) ; si Pf ne
vérifie pas la condition (1) du théorème 5, i.e. Pf n’est pas scindé sur K, alors f n’est pas
diagonalisable.
Dans chaque Eλ i , on détermine une base Bi0 pour 1 ≤ i ≤ p ; alors, puisque E = ⊕pi=1 Eλ i ,
B0 = (B10 , ..., Bp0 ) est une base constituée de vecteurs propres de f et dans cette base B 0 , la
matrice de f une matrice diagonale D.
♣ La matrice de passage s’obtient en mettant en colonne les vecteurs propres trouvés. (Attention
Il faut respecter le même ordre des valeurs propres mises dans D).
D = P −1 AP ⇔ A = P DP −1 .
110
Exemple
Diagonaliser la matrice suivante :
8 0 9
A = −3 −1 −3
−6 0 −7
¯ ¯
¯ 8−X 0 9 ¯
¯ ¯
¯
det(M − XI) = ¯ −3 −1 − X −3 ¯ = −(X − 2)(X + 1)2 .
¯
¯ −6 0 −7 − X ¯
Les valeurs propres sont -1 valeur propre double, et 2 valeur propre simple.
* Sous-espace propre associé à la valeur propre -1. On résout le système :
9x +9z = 0
(A + I)V = 0 ⇔ −3x +0y+ −3z = 0 ⇔ x + z = 0.
−6x +0y+ −6z = 0
8.6 Trigonalisation
Définition 8.16. Soit f un endomorphisme de E et A ∈ Mn (K).
1. On dit que f est trigonalisable, s’il existe une base de E dans laquelle la matrice de f
est triangulaire. Trigonaliser f , c’est trouver une base de E dans laquelle la matrice de
f est triangulaire.
2. On dit que A est trigonalisable sur K, si elle est semblable, dans Mn (K), à une matrice
triangulaire, c’est-à-dire s’il existe une matrice P ∈ Mn (K), inversible, telle que la
matrice P −1 AP soit triangulaire. Trigonaliser A sur K, c’est trouver une matrice P ∈
Mn (K), inversible, telle que la matrice P −1 AP soit triangulaire.
Théorème 8.17. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie
n ≥ 1. Pour que f soit trigonalisable, il faut et il suffit que le polynôme caractéristique de f
soit décomposable en produit de facteurs du premier degré
111
Théorème 8.18. (théorème de Cayley-Hamilton)
Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie n ≥ 1. on a
Pf (f ) = 0,
112
8.7 Exercices
Exercice 1.
Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).
Soit λ une valeur propre de f , on pose Eλ = Ker(f − λI) le sous-espace propre associé à la
valeur propre λ.
1) Montrer que le polynôme caractéristique Pf (X) =dét(f − XI) de f ne dépend pas de la
base choisie dans E.
2) Montrer que Pf est un polynôme à coefficients dans K de degré n. Calculer a0 et an .
3) Démontrer que deux matrices carrées semblables de Mn (K) ont même polynôme ca-
ractéristique.
La réciproque est-elle vraie ?
4) Déduire que deux matrices semlables ont les mêmes valeurs propres.
5) Soit la matrice :
−4 0 −2
A= 0 1 0
5 1 3
5.1 Calculer les valeurs propres de A.
Exercice 3.
Soient A et B deux matrices de Mn (K) , avec K = C et n ∈ N∗ .
1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que :
(−λ)n 1
PA−1 (λ) = PA ( ),
det(A) λ
Exercice 4.
Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit
113
d’autre part A la matrice carrée de taille n dont tous les coefficients sont égaux à 1 :
1 1 ... ... 1
1 1 ... ... 1
. . .
A= .
. .
. . .
1 1 ... ... 1
On désigne par f l’endomorphisme de E dont la matrice dans la base B est A.
1) Soit u le vecteur u = e1 +e2 +...+en . Montrer que Im(f )=Vect(u). Quelle est la dimension
de Ker(f ) ?
2) Trouver les valeurs propres et leurs sous-espaces associés de f .
3) Déduire qu ’il existe une base B 0 de E telle que la matrice de f dans B0 soit A0 , avec
0 0 ... 0 0
0 0 ... 0 0
. . . .
0
A =
. . . .
0 0 ... 0 0
0 0 ... 0 n
4) Etablir que (A0 )k = nk−1 A0 pour tout k ∈ N∗ . En déduire Ak pour tout k ∈ N∗ .
Exercice 5.
Soient E un K−espace vectoriel de dimension finie n ≥ 1 et f ∈ LK (E).
Montrer que f est diagonalisable si et seulement, si
(1) Pf est scindé sur K i.e.
(2) dimK Eλ i = αi , 1 ≤ i ≤ p.
Application :
Soit E un C-espace vectoriel et f un endomorphisme de E représenté par la matrice :
a 0 b
M = 0 a+b 0
b 0 a
Exercice 6.
Discuter selon le paramètre m la diagonalisation de la matrice suivante dans M3 (R)
1 m 1
A = 0 1 1 .
0 0 −1
Exercice 7.
On se propose de démontrer le résultat suivant :
114
Soit E un C− espace vectoriel de dimension finie = n ≥ 1. Alors pour tout endomorphisme
f de E
on a
Pf (f ) = 0,
où Pf est le polynôme caractéristique f .
1) Montrer qu’il existe une base B = (b1 , ..., bn ) dans laquelle la matrice de f triangulaire
supérieure ; i.e. M (f, B) = ti,j avec ∀i ∈ {1, ..., n} tii = λi et ∀(i, j) ∈ {1, ..., n}2 , i > j
entraı̂ne tij = 0.
2)Pour tout i ∈ {1, ..., n} on pose :
ui = λi Id − f
et
Ui = (λ1 Id − f )o(λ2 Id − f )o...o(λi Id − f ).
Montrer que pour tout j ∈ {1, ..., i} : Ui (bj ) = 0.
3) Déduire que pour tout j ∈ {1, ..., n} Ui (bj ) = 0.
4) Conclure.
5) Application :
5.1) Soient E un K− espace vectoriel de dimension finie n ≥ 1 et f ∈ L(E). Montrer que
pour tout p ∈ N, on a f p ∈ V ect(IdE , f, f 2 , ..., f n−1 ).
5.2) Soit
2 0 4
A = 3 −4 12 ∈ M3 (R).
1 −2 5
Exercice 8.
Soient E un K− espace vectoriel de dimension fini n ≥ 1 et f un endomorphisme de E. On
dit que f est nilpotent, s’il existe un entier m ≥ 1 tel que f m = 0.
1) Soit f un endomorphisme nilpotent. Montrer qu’il existe un entier q ≥ 1 tel que f q = 0 et
f q−1 6= 0.
Cet entier q est appelé indice de nilopotence de f .
2) Montrer que rg(f ) ≤ n − 1.
3) Soit x ∈ E tel que f q−1 (x) 6= 0, prouver que (x, f (x), ..., f q−1 (x)) est libre. En déduire que
q ≤ n.
4) Etablir l’équivalence suivante :
f nilpotent ⇔ f n = 0.
5) Montrer que si f est nilpotent d’indice n, alors il existe une base B de E telle que :
0 1 0 ... ... 0
. 1 .
. . 1 .
M (f, B) = .
. 0
. 1
0 ... ... ... . 0
6) Application : Soit
−2 −1 2
A = −15 −6 11 ∈ M3 (R).
−14 −6 11
115
6.1) Calculer le polynôme caractéristique PA de A. A est -il diagonalisable ?
6.2) Prouver qu’il existe λ ∈ R tel que A − λI3 soit nilpotente.
6.3) En déduire qu’il existe une matrice P inversible telle que
1 1 0
P −1 AP == 0 1 1 ∈ M3 (R).
0 0 1
Exercice 9.
Chercher les valeurs propres et les sous espaces propres associés aux applications classiques :
a- Les homothéties λId
b- Les projecteurs c’est-à-dire les endomorphismes f non nuls de Rn , différents de l’identité
de Rn et tels que f 2 = f .
c- E = R2 et f la rotation d’angle π2 i.e. l’application linéaire définie par : f ((x, y)) = (−y, x).
d- E = R3 et f est la symertie orthogonale par rapport au plan P d’équation x + y + z = 0.
116
Chapitre 9
Devoir surveillé N 1.
Epreuve d’algèbre I Les trois exercices sont indépendants
Examen de 18 octobre ... Justifier toutes vos réponses.
Exercice 1.
Soient A, B , C, ∆ et P des polynômes de K[X], n ∈ N∗ , x1 , x2 , ..., xn ∈ K deux à
deux distincts.
1) Montrer que
x1 racine de P ⇐⇒ (X − x1 )/P.
Q
2) Déduire que si x1 , x2 , ..., xn sont des zéros de P , alors ni=1 (X − xi )/P.
3) Enoncer et démontrer le théorème de Gauss.
4) Montrer que si C divise A + B et A − B alors C divise A et B.
A B
5) Montrer que si ∆ 6= 0 et ∆ =pgcd (A, B) alors les polynômes Q1 = ∆ et Q2 = ∆ sont
premiers entre eux.
Exercice 3.
117
1) Soit n un entier naturel non nul. Quelle est la multiplicité pn de la racine 1 dans le
polynôme
Pn (X) = X 2n+1 − (2n + 1)X n+1 + (2n + 1)X n − 1?
2) On note Qn (X) le quotient de Pn (X) par (X − 1)3 . Montrer que
Barême approximatif :
Exercice 1 : 5 points ; Exercice 2 : 5 points, Exercice 3 : 10 points.
118
Corrigé du devoir surveillé N o 1
Exercice 1.
1) ⇒) Si P est divisible par X − xi , on a, pour tout x ∈ K, il existe un polynôme Q ∈ K[X],
tel que
P (x) = (x − xi )Q(x).
Par suite :
P (xi ) = 0.
⇐) Soit xi une racine de P . Faisons la division euclidienne de P par X − xi . Le reste
R est nul ou de degré strictement inférieur à 1, donc R est une constante r. On a donc
P (x) = (x − xi )Q(x) + r pour tout x ∈ K. En remplaçant x par α, on obtient r = 0 puisque
P (xi ) = 0 : P est donc bien divisible par X − xi .
2) On a d’une part, pour tout i ∈ {1, ..., n} xi est zéro de P , donc (X − xi )/P .
D’autre part, ∀i, j ∈ {1, ..., n}, avec i 6= j : (X − xi ) ∧ (X − xj ) = 1.
Par conséquent,
Yn
(X − xi )/P.
i=1
AB = QC(∗)
U AB + V AC = A.
(U Q + V A)C = A.
D’où C divise A.
4) On a C divise A + B ⇒ ∃Q1 ∈ K[X] tel que A + B = Q1 C (***).
On a aussi C divise A − B ⇒ ∃Q2 ∈ K[X] tel que A − B = Q2 C (4*).
En faisant la somme de (***) et (4*), on obtient :
1
A = (Q1 + Q2 )C,
2
donc C divise A.
Et en faisant la différence de (***) et (4*), on aura
1
B = (Q1 − Q2 )C
2
donc C divise B.
5) Soit D = pgcd(Q1 , Q2 )
On a D divise Q1 ⇒ ∃R1 ∈ K[X] tel que Q1 = DR1 .
De même, on a D divise Q2 ⇒ ∃R2 ∈ K[X] tel que Q2 = DR2 .
Mais
A = Q1 ∆ = D∆R1 ,
119
d’où D∆ divise A.
On a aussi,
B = Q2 ∆ = D∆R2 ,
d’où D∆ divise B.
Par conséquent D∆ divise ∆ = pgcd(A, B).
Donc il existe S ∈ K tel que ∆ = SD∆ ; d’où DS = 1. Ce qui entraı̂ne que D est une
constante de K i.e. Q1 et Q2 sont premiers entre eux.
Exercice 2.
1) On a
P (X) = X 6 + 5X 5 + 5X 4 − 12X 3 − 32X 2 − 32X − 16.
Après le calcul, on trouve
0 000
P (−2) = P (−2) = P 00 (−2) = 0 et P (−2) = 72 6= 0.
D’autre part P est un polynôme à coefficients réels, de plus j est racine de P donc j est aussi
racine de P .
3) Fractorisons P dans C[X] : en faisant la division euclidienne de P par (X + 2)3 = X 3 +
6X 2 + 12X + 8. On trouve X 3 − X 2 − X − 2.
En divison X 3 − X 2 − X − 2. par (X − j)(X − j) = X 2 + X + 1 on trouve la factorisation
de P dans C[C]
P = (X − j)(X − j)(X − 2)(X + 2)3 .
En groupant les termes conjugués, on obtient la factorisation de P dans R[X] :
Exercice 3.
1) On a tout dabord Pn (1) = 0, puis
0
Pn (X) = (2n+1)X 2n −(2n+1)(n+1)X n +(2n+1)nX n−1 = (2n+1)[X 2n −(n+1)X n +nX n−1 ],
0 00
donc Pn (1) = 0. On a ensuite Pn (X) = (2n + 1)[2nX 2n−1 − n(n + 1)X n−1 + n(n − 1)X n−2 ],
00
donc Pn (1) = 0. (Le résultat reste vrai si n = 1, car le coefficient de X n−2 est nul dans ce
cas).
On a enfin
Pn(3) (X) = (2n + 1)[2n(2n − 1)X 2n−2 − n(n + 1)(n − 1)X n−2 + n(n − 1)(n − 2)X n−3 ],
donc
Pn(3) (1) = (2n + 1)[2n(2n − 1) − n(n + 1)(n − 1) + n(n − 1)(n − 2)] = (2n + 1)(n2 + n) 6= 0.
(Le résultat reste vrai si n = 1 et n = 2, car le coefficient de X n−2 est nul dans ces deux
cas).
120
Donc 1 est racine triple de Pn (X), c’est-à-dire pn = 3.
2) On a
Pn+1 (X) − XPn (X) = X 2n+3 − (2n + 3)X n+2 + (2n + 3)X n+1 − 1
−(X 2n+1 − (2n + 1)X n+1 + (2n − 1)X n − 1)
= (X − 1)X 2n+2 − 2(X − 1)X n+1 + X − 1
= (X − 1)(X 2n+2 − 2X n+1 + 1)
= (X − 1)(X n+1 − 1)2 .
X n+1 − 1 = (X − 1)(1 + X + + X n ),
on trouve :
Pn+1 (X) − XPn (X) = (X − 1)3 (1 + X + + X n )2 ,
3) Puisque
Pn+1 = (X − 1)3 Qn+1
et
Pn = (X − 1)3 Qn ,
on en déduit
Qn+1 (X) − XQn (X) = (1 + X + + X n )2 .
4) Remarquons que
P1 (X) = X 3 − 3X 2 + 3X − 1 = (X − 1)3 ,
donc
Q1 (X) = 1.
En appliquant la relation obtenue dans la question 2) on obtient alors
puis
Q3 (X) = XQ2 (X) + (1 + X + X 2 )2 = X 4 + 3X 3 + 6X 2 + 3X + 1,
et enfin
(n + 1)(n + 2)
an = 1 + 2 + ... + (n + 1) = .
2
5) Dans le développement de (1 + X + ... + X n )(1 + X + ... + X n ), le coefficient de X k est
le nombre de façons d’écrire X k sous la forme X p X k−p , avec 0 ≤ p ≤ n et 0 ≤ k − p ≤ n.
La dernière condition s’écrit encore k − n ≤ p ≤ k.
Il y a deux cas possibles :
Si 0 ≤ k ≤ n, alors 0 ≤ p ≤ k, et lon a k + 1 dćompositions possibles.
121
Si n ≤ k ≤ 2n, alors k − n ≤ p ≤ n, et l’on a 2n − k + 1 décompositions possibles.
Donc on a bien
122
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Exercice 1.
Soit P un polynôme de C[X] de degré au moins 1 et r un entier strictement positif.
1) Montrer que le reste de la division euclidienne de P par (X − a) est P (a).
2) Trouver le reste et le quotient de la division euclidienne du polynôme X 2r − 1 par X + 1
(réfléchir ou calculer, il faut choisir).
On note α1 , α2 , ..., αp les racines distinctes de P et k1 , k2 , ..., kp leurs ordres de multipli-
cités. 0
3) Montrer que la décomposition en éléments simples de la fraction rationnelle PP est
0
P k1 k2 kp
= + + ... + .
P X − α1 X − α2 X − αp
X n−1
, n ∈ N∗ .
Xn − 1
Exercice 2.
Décomposer en éléments simples dans K(X) les fractions :
1
a) F1 = X(X+1)(X+2)...(X+n) (K = R);
X8
b) F2 = (X 2 −X+1)3
(K = R);
X 2n
c) F3 = (X 2 +1)n
(K = C).
Problème .
Etant donné deux polynômes A et B de R[X], le théorème de Bezout affirme que A et B sont
premiers entre eux dans R[X] si et seulement si il existe un couple (U, V ) de polynômes de
R[X] tel que AU + BV = 1.
On suppose que A et B sont premiers entre eux.
1) Montrer que, si les couples (U1 , V1 ) et (U2 , V2 ) vérifient le théorème de Bezout pour A et
B, alors :
- le polynôme V1 − V2 est divisible par A,
- le polynôme U1 − U2 est divisible par B.
2) Montrer que il existe un unique couple (U0 , V0 ) vérifiant :
(i) AU0 + BV0 = 1
(ii) deg(U0 ) < deg(B)
(iii) deg(V0 ) < deg(A).
3) Trouver, en fonction de (U0 , V0 ), tous les couples (U, V ) de R[X] tels que AU +BV = 1.
4) Que pensez-vous de ce problème si l’équation à résoudre est AU + BV = C où C est un
polynôme quelconque de R[X].
123
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
1) Montrer que l’image d’une suite génératrice de E est une suite génératrice de Im(f ).
2) Montrer que f est un isomorphisme si et seulement si l’image d’une base de E est
une base de F .
3) En déduire que si F est de dimension finie et f : E −→ F est un isomorphisme.
Alors
dimK E = dimK F.
4) Montrer que si F1 et F2 sont deux sous-espaces vectoriels de E tels que E = F1 ⊕ F2 ,
alors
dimK E = dimK F1 + dimK F2 .
(Indication : utiliser une base B1 de F1 et une base B2 de F2 et montrer que B1 ∪B2 = B
est une base de E).
E =∈ (p) ⊕ ker(p)
124
Exercice 2. On prend E = R[X].
Soit f : R[X] −→ R[X] la ”multiplication par X ” définie par
f (P (X)) = XP (X).
Barême approximatif :
125
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N o 5.
Durée du sujet : 1h :30min
EPREUVE D’ALGEBRE LINÉAIRE Responsable : Lakhel El Hassan
Examen de 17 avril 2006. Horaire : 8h :30-10h :00.
Problème
Soient f: R3 → R4 etg: R4 → R3
−2x −2y −2z x
x 2x +2y +3z y x − y + 2z − t
y 7→ 7→ y−t
4x +2y +4z z
z y−z+t
3x +y +4z t
1. Montrer que f et g sont des applications linéaires dont on donnera les matrices rela-
tivement aux bases canoniques. On notera A la matrice de f et B la matrice de g.
2. Écrire par rapport aux bases canoniques la matrice C de f og puis la matrice D de gof
en fonction de A et B.
3. Pour tout λ ∈ R, on considère la fonction P (λ) = det(D − λI3 ) où I3 désigne la
matrice
identité de
l’espace des matrices carrées 3 × 3. Après avoir vérifié que D =
1 −1 −1
−1 1 −1 , montrer que
1 1 3
4. Pour tout λ ∈ R, on pose Eλ = Ker(gof − λId3 ) où Id3 désigne l’identité de l’espace
R3 . Déduire dela question
précédente
que Eλ 6= {0}
si etseulement si λ = 1 ou 2.
1 1 1
5. Soient V1 = 1 , V2 = −1 , et V3 = 0 . Montrer que (V1 ) est une
−1 0 −1
base de E1 et que (V2 , V3 ) est une base de E2 .
6. Soit P la matrice du système B = (V1 , V2 , V3 ). Calculer det(P ) et en déduire que B est
une base de R3 .
7. Ecrire la matrice D0 de gof dans la base B = (V1 , V2 , V3 ) (au départ et à l’arrivée)
sans calculer P −1 . Exprimer D en fonction de D0 , P et P −1 .
8. On note Mn la matrice de (gof )n = (gof )o...o(gof ) dans les bases canoniques (au
| {z }
n f ois
départ et à l’arrivée). Exprimer Mn en fonction de D0 , P et P −1 .
9. Calculer P −1 puis la matrice Mn .
10. Déduire de la question 8) une expression de la matrice de (gof )n = (gof )o...o(gof )
| {z }
n f ois
dans les bases canoniques (au départ et à l’arrivée) en fonction de A, B et D.
11. Montrer que Kerg ⊂ Ker(f og). Sans calculer le rang de g , dire pourquoi dim(Kerg) 6=
0. En déduire que Ker(f og) 6= {0}.
12. Pour tout λ ∈ R , on pose Fλ = Ker(f og − λId4 ) où Id4 est l’application identité de
R4 . Montrer que f (Eλ ) ⊂ Fλ .
13. Montrer que f (V1 ) 6= 0 et que (f (V2 ), f (V3 )) est libre. En déduire que dimf (E1 ) = 1,
dimf (E2 ) = 2 puis que dim(F0 ) ≥ 1, dim(F1 ) ≥ 1 et dim(F2 ) ≥ 2.
126
14. Montrer que F1 ∩ F2 = {0}, puis exprimer dim(F1 + F2 ) en fonction de dim(F1 ) et
dim(F2 ).
15. De même, montrer que F0 ∩ (F1 + F2 ) = {0}, puis en déduire que
127
Université Cadi Ayyad
Ecole Nationale des Sciences Appliquées
Safi
Devoir surveillé N 6.
EPREUVE D’ALGEBRE linéaire Durée du sujet : 1H :30min
Examen de 11 avril ... Responsable : Lakhel El Hassan
Horaire : 9h :00-10h :30.
Exercice 1.
Soient A et B deux matrices de Mn (K) , avec K = R ou C et n ∈ N∗ .
1) Si A est une matrice inversible et λ ∈ K∗ . Montrer que :
(−λ)n 1
PA−1 (λ) = PA ( ),
det(A) λ
où PA est le polynôme caractéristique de A.
2) On appelle spectre de A l’ensemble des valeurs propres de A.
Démontrer l’équivalence suivante :
Exercice 2.
Soit E un C-espace vectoriel de dimension finie n et B = (e1 , e2 , ..., en ) une base de E. Soit
d’autre part A la matrice carrée de taille n dont tous les coefficients sont égaux à 1 :
1 1 ... ... 1
1 1 ... ... 1
. . .
A=
. . .
. . .
1 1 ... ... 1
128
K = R ou C).
On se propose d’étudier l’ensemble des valeurs propres des matrices stochastiques d’ordre n.
Une matrice S = (sij )i,j∈{1,2,...,n} ∈ Mn (R) est dite stochastique si et seulement si
n
X
+
∀i, j sij ∈ R et ∀i sij = si1 + si2 + ... + sin = 1.
j=1
On note Sn (R) l’ensemble des matrices stochastiques de Mn (R). Ces matrices sont stables
par le produit.
Dans la suite, on désigne par f un endomorphisme de E = Rn dont la matrice S = (sij ) est
stochastique.
1) V1 le vecteur de E dont les composantes dans la base B sont toutes égales a 1.
Montrer qu’une matrice M de Mn (R) à coefficients réels positifs ou nuls est stochastique si
et seulement si M V1 = V1 .
2) Déduire que 1 est une valeur propre de f .
3) Soit λ une valeur propre de f autre que 1. Montrer que |λ| ≤ 1.
(Indication : Pour tout vecteur x = (x1 , x2 , ..., xn ) de E = Rn , on convient de noter :
4) Montrer que
Ker(f − Id) ⊕ Im(f − Id) = Rn .
5) Montrer que Im(f − Id) est stable par f . Etablir que tout sous-espace propre Eλ de f
associé à une valeur propre λ autre que 1 est inclus dans Im(f − Id).
Barême approximatif :
Exercice 1 : 4 points ; Exercice 2 : 6 points, Problème : 10 points.
1
Ces matrices jouent un rôle important, notament en calcul de probabilités.
129