You are on page 1of 214

INTRODUCTION

Ce livre propose les enonces et les corriges des epreuves de mathematiques


generales de lagregation externe de mathematiques des dix derni`eres annees
(de 1989 `a 1998). A notre connaissance, il vient combler un vide editorial.
Nous avons souhaite en faire le complement du Probl`emes danalyse pour
lagregation publie dans la meme collection : un pivot pour organiser son tra-
vail en vue du concours. En effet si lon met de cote la pratique des lecons doral,
exercices necessitant une solide preparation specifique, lannee de lagregation
presente deux caracteristiques essentielles :
- Ce doit etre une annee de revision, de mise `a plat et de structuration
des connaissances qui ont ete acquises jusquen matrise, parfois de facon
eparse tout au long de modules universitaires distincts.
- Ce doit etre une annee dentranement et il faut veritablement entendre
ce terme dans son acception sportive de pratique reguli`ere et intensive.
Ceci vaut specialement pour lepreuve de mathematiques generales quil nest
pas facile de definir rigoureusement en quelques mots mais dont on pourrait
presque dire quelle recouvre tout ce qui nest pas du ressort exclusif de lana-
lyse ou des disciplines optionnelles, avec comme evident noyau central lalg`ebre
et la geometrie. Le corollaire immediat est quelle fait appel `a un spectre etendu
de culture mathematique, `a une vision transversale globale du programme, que
lon na pas toujours loccasion de mettre en pratique lors de sa scolarite uni-
versitaire.
Il ny a pas de meilleur moyen de remplir ces deux objectifs que de chercher
`a resoudre des probl`emes dagregation. Ceux-ci, en plus de constituer le meilleur
exemple de ce qui attend le futur candidat, sont difficiles (cest en quelque sorte
le summum au niveau de lenseignement universitaire) et offrent une photogra-
phie aussi compl`ete que precise des connaissances et competences exigibles des
candidats, etant minutieusement construits dans ce but. Les commentaires que
nous avons places apr`es chaque corrige et qui ne se subsituent absolument pas
aux rapports des concours quil faut consulter, sont justement l`a pour aider le
candidat `a sorganiser en lui fournissant un apercu rapide du probl`eme en ques-
tion, et le cas echeant une clarification sur un point laisse volontairement dans
lombre par lenonce.
Nous esperons que le profit retire de cet ouvrage par ses futurs lecteurs, qui
deborderont peut-etre du cadre strict des candidats au concours comme le laisse
supposer lactuel succ`es de cette collection, sera proportionnel au plaisir quont
pris ensemble ses auteurs en le redigeant.
2
Table des mati`
eres

1 Session de 1989 5
1.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Session de 1990 23
2.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3 Session de 1991 37
3.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4 Session de 1992 55
4.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

5 Session de 1993 77
5.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

6 Session de 1994 97
6.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

7 Session de 1995 123


7.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

8 Session de 1996 147


8.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

3
4 `
TABLE DES MATIERES

9 Session de 1997 167


9.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
9.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

10 Session de 1998 197


10.1 Sujet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.2 Correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Chapitre 1

Session de 1989

1.1 Sujet

5
6 CHAPITRE 1. SESSION DE 1989

1.2 Correction

I. Pr
eliminaires

A. Dans cette partie, p est un nombre premier impair.

1.a. On remarque que lhypoth`ese w non nul nest pas necessaire : il y a


dans ce cas une solution triviale. Fp est un groupe. Soient u et v dans Fp , ils
sont en particulier inversibles. Rappelons le fait classique suivant : lensemble
C = {z 2 |z Fp } poss`ede p+1
2 elements.
En effet : C = {z 2 |z Fp } {0} or lapplication k de Fp dans Fp qui `a z
associe z 2 est un morphisme de groupe dont le noyau est determine par (z Fp ) :

k(z) = 1 (z 1)(z + 1) = 0 z = 1 ou z = 1 car Fp est un anneau int`egre.

On en deduit ker(k) = {1, 1}. De plus, Im(k) est isomorphe `a Fp / ker(k).


Comme Im(k) est par definition {z 2 |z Fp }, on obtient : |{z 2 |z Fp }| = p1
2
u |C| = p+1
do` 2 .
Considerons la translation `a gauche u par u : pour tout z dans Fp , u (z) =
uz. On a u (C) = {ux2 |x Fp }. Comme u est inversible dans Fp , u est une
bijection donc |u (C)| = |C| = p+12 .
De meme, on consid`ere lapplication f de Fp dans Fp qui `a z associe f (z) =
w vz. Comme v est inversible dans Fp , f est une bijection. On a donc |f (C)| =
|C| = p+1
2 . De plus, par definition, f (C) = {w vy 2 |y Fp }.
On remarque que |u (C)| + |f (C)| = p + 1 > |Fp | donc que u (C) f (C) 6= .
Soit z u (C) f (C), z secrit dune part ux2 avec x Fp et dautre part,
w vy 2 avec y Fp . On a alors ux2 + vy 2 = w.
1.b. On commence par remarquer que, si a et b sont des entiers relatifs :
a2 + ab + nb2 + 1 = (a + 2b )2 + (4n 1)( 2b )2 + 1.
On consid`ere lequation dans Fp : x2 +(4n 1)y 2 = 1, o` designe la classe
uh
dun entier h. Comme p ne divise pas 4n 1, (4n 1) 6= 0. On a aussi 1 6= 0.

Dapr`es la question 1.a, il existe une solution (x, y) Fp Fp `a lequation
precedente. En considerant des representants de x et y, on a lexistence de r
et s dans Z tels que : r2 + (4n 1)s2 = 1 + mp, o` u m Z (et puisque le
membre de gauche est positif, necessairement : m 1) . On pose b = 2s et
a = r s = r 2b . a et b sont des entiers et (a + 2b )2 + (4n 1)( 2b )2 + 1 = mp.
La remarque initiale donne le resultat.
2. On rappelle que P (t) = t4 +1 est reductible dans Fp (cf le Cours dAlg`ebre
de D. Perrin : ch.III.15). Pour exhiber un corps de rupture de P , on peut par
exemple considerer K = Fp (b) o` u b est une racine de P dans un corps de
decomposition de P . Comme b4 = 1, b 6= 0 donc inversible (K est un corps).
2.a. On a x2 = b2 2 + b2 = b2 (b4 + 1) 2 = 2.
Comme K est une extension de Fp , sa caracteristique est p. Soit f (z) = z p
le Frobenius de K. On a f (b b1 ) = f (b) f (b1 ) (on rappelle que ceci se
demontre via le binome de Newton et le fait que p divise Cpk pour 1 k p1).
Ainsi :
1.2. CORRECTION 7

si p = 8k + 1 : f (x) = b.(b8 )k b1 (b1 )8 car b4 = 1 donc f (x) = x.


si p = 8k + 3 : f (x) = b3 (b1 )3 = b1 + b car b4 = 1 ie b3 = b1
donc f (x) = x.
Dapr`es le (petit) theor`eme de Fermat, on a Fp {k K|k p k = 0}.
Comme X p X a au plus p racines dans le corps K, Fp = {k K|k p k = 0}.
Dapr`es le resultat precedent, xp x = 0 donc x Fp .
2.b. On deduit de 2.a que 2 est un carre dans Fp donc (2)1 aussi. Il
existe x dans Fp tel que x2 = (2)1 donc on a : 2x2 + 1 = 0. En remontant
dans Z (autrement dit, en choisissant un representant), il existe a et q dans N
tel que 2a2 + 1 = qp. Comme p est impair, q est necessairement impair donc
secrit 2m 1 avec m dans N.
On consid`ere la matrice :

p a 0
M = a m 1.
0 1 2

On a det(M ) = p(2m 1) 2a2 = 1 et M est clairement symetrique reelle. Pour


montrer que M est definie positive, nous proposons deux methodes.
La premi`ere utilise un resultat classique : il suffit de montrer que les mineurs
principaux sont tous strictement positifs. Le premier vaut p > 0 et le second :
mp a2 = 21 (p + 1) > 0. Le troisi`eme vaut det(M ) = 1 > 0. Ainsi M est definie
positive.
La seconde methode est elementaire et `a peine plus calculatoire. Pour tout
vecteur (x, y, z) de R3 , on calcule t XM X :


p a 0 x
t
XM X = (x, y, z) a m 1 y = px2 + 2axy + my 2 + 2yz + 2z 2 .
0 1 2 z

La methode de Gauss donne :


t
2 p 2 p 2
XM X = p x + p1 ay + m p1 a2 y + 2
z + 2 2
z .
mp a mp a
1 p
u mp a2 =
o` (p + 1) > 0 et 2 > 0 (2m 1)p 2a2 > 0 or
2 mp a2
(2m 1)p 2a2 = 1. Ainsi, M est definie positive.
Resolution du cas p = 17. Il y a deux solutions `a lequation Fp : 2x2 + 1 = 0
car r2 = s2 r = s. Ici les solutions modulo 17 sont 5 et 5 (qui est egal `a 12
modulo 17). On cherche les solutions sous la forme a = 5 + 17q et a = 12 + 17q.
Si a = 5+17q alors 17q 2 +10q +2 = m donc (a, m) = (5+17q, 17q 2 +10q +2)
o`
u q Z.
Si a = 12+17q alors 17q 2 +24q+9 = m donc (a, m) = (12+17q, 17q 2 +24q+9)
o`
u q Z.

B. Soit D 1 non divisible par le carr


e dun nombre
premier.

p a + bD
1. La matrice est clairement hermitienne.
a + bD m
8 CHAPITRE 1. SESSION DE 1989

Si D 3 [4] : D+1
4 N et le A.1.b assure lexistence de a, b, m dans Z tels
D+1 2
2
que a + ab + 4 b + 1 = mp car p ne divise pas D = 4n 1 o` u n = D+1
4 .
Si D 1 ou 2 [4] : le A.1.a assure lexistence de a, b, m dans Z tels que
1 + mp = a2 + b2 D car p ne divise pas D (ie D 6= 0).
Dans chacun des cas, on remarque que m est necessairement positif et que
det(M ) = mp |a + bD |2 = 1. M est hermitienne donc diagonalisable et les
valeurs propres sont reelles. Comme det(M ) = 1, elles sont de meme signe.
Comme T r(M ) = p + m > 0, elles sont strictement positives. Ainsi, M est
definie positive.
2.a. Si E est un ensemble, on designe par conv(E) lenveloppe convexe de E.
le centre du cercle circonscrit est lintersection des mediatrices. Notons comme
dhabitude A0 , B 0 , C 0 les milieux respectifs des segments [BC], [AC], [AB]. Les
trois mediatrices separent le triangle T en trois zones : conv(A, C 0 , , B 0 ), conv(B, C 0 , , A0 ),
conv(C, A0 , , B 0 ). Soit M un point de T , M est dans une de ces trois zones :
conv(A, C 0 , , B 0 ) pour fixer les idees. On a AB 2R car A et B appar-
tiennent au disque de centre et de rayon R. Ce disque est convexe donc
AC 0 R. De meme AB 0 R. Enfin, A = R par definition. Ainsi, A, C 0 ,
et B 0 appartiennent au disque de centre A et de rayon R. Par convexite, ce
disque contient conv(A, C 0 , , B 0 ) donc M . On conclut AM R. Les cas
M conv(B, C 0 , , A0 ) et M conv(C, A0 , , B 0 ) reviennent `a considerer res-
pectivement M B et M C.
2.b. On a u Z[D ] u = + D o`u , Z. Pour tout z dans C,
on peut ecrire z = x + yD o`
u x, y R. On a donc
n o
k = sup inf {|(x ) + (y )D |2 }; z C, z = x + yD avec x, y R .
,Z

En approximant un reel par un entier relatif, on remarque que si E est un


intervalle de longueur 12 :
n 1 o
k = sup inf {|(x ) + (y )D |2 }; z = x + yD C; y [0, ]; x E .
,Z 2

Ceci secrit encore


n o
k = sup inf{d(M, N )2 ; N reseau de points `a affixe dans Z[D ]}; M E

1
o`
u E = M ; laffixe de M secrit x + yD avec y [0, ], x E .
2
Pour D 3 [4], on choisit E = [ 14 , 34 ] et pour D 1 ou 2 [4], on choisit
E = [0, 12 ]. On remarque que le rectangle E + i[0, 21 ] (on identifie les points et
leurs affixes) est contenu dans le triangle T . On obtient linegalite :

k sup inf{M A2 , M B 2 , M C 2 }.
M T

Enfin, on remarque quapproximer par un entier dans la definition de k


revient `a raisonner modulo 1 sur les parties reelles et imaginaires de z. Ainsi,
n o
k = sup inf{|(x ) + (y )D |2 /, Z}; z C, z = x + yD ; x, y [0, 1]
1.2. CORRECTION 9

le rectangle [0, 1] + i[0, 1] contient le triangle T donc on a linegalite

k sup inf{M A2 , M B 2 , M C 2 }.
M T

2.c. Dapr`es les questions a et b, on a : k R2 et legalite est atteinte pour


M = . On a donc : k = R2 = A2 . Si on note laffixe de , on a k = ||2 .
Si D 1 ou 2 [4] : est lintersection des mediatrices et un calcul elemen-
+1
taire donne = D2 donc k = D+1 4 .
Si D 3 [4] : a clairement pour partie reelle 21 . est `a egale distance de
1 1D
A, B et C donc || = | 1| = | D |. On obtient = + i donc
2 4 D
2
k = (1+D)
16D .

2.d. Soient et 6= 0 dans Z[D ]. On pose z = . Par definition de k (par


compacite, la borne inferieure est un minimum) : il existe dans Z[D ] tel que
|z |2 k. Ainsi, | |2 k||2 .
Pour k < 1, on en deduit que secrit + r o`u r verifie
|r|2 = | |2 k||2 < ||2 . Le raisonnement precedent est valable pour tout
et 6= 0 dans Z[D ] donc Z[D ] est un anneau euclidien (dont une norme N
est le carre du module).
Il suffit de trouver D tel que k < 1.
Si D 1 ou 2 [4] : k = D+14 < 1 pour D = 1 ou 2.
(1+D)2
Si D 3 [4] : k = 16D< 1 pour D = 3, 7 ou 11.

3 13 18i 2
Application : pour D = 2, 2 = i 2 et k = 4 . = . On peut
19 19
6 i 2 6 i 2
ecrire = 1 i 2 + ( + ) et | + | k. On peut aussi ecrire
19 19 19 19
13 i 2 13 i 2
=i 2+( + ) et | + | k. Il ny a pas dautres possibilites et
19 19 19 19
on trouve donc pour deux valeurs possibles : 1 i 2 et i 2.

II. Matrices hermitiennes de la forme B B.


1. On note S lensemble des inversibles de S. Comme A et B sont congru-
entes, A = U BU o` u B GL(n, S). On a det(A) = det(B)| det(U )|2 . Comme
U GL(n, S), il existe V dans GL(n, S) telle que U V = V U = I. Donc
det(U ) det(V ) = 1 et det(U ) S .
On rappelle le resultat classique :

(R) S = {s S; |s| = 1}.

Effectivement, soit s S , il existe r dans S tel que rs = 1. En passant aux


modules, on obtient : |r|2 |s|2 = 1 or |r|2 , |s|2 N donc necessairement : |s|2 = 1.
Inversement, si |s| = 1 alors ss = 1 donc s est inversible dans S (car s S). Ce
qui prouve (R).
Ainsi, | det(U )| = 1 et det(A) = det(B).
10 CHAPITRE 1. SESSION DE 1989

2.a. Soit x dans S n \ {0}, xAx R+ car A est definie positive. Dautre

+ n
part, xAx S. Comme R S = N \ {0}, lensemble xAx |x S \ {0} est
une partie non vide de N \ {0} donc admet un plus petit element m(A). Celui-ci
est atteint pour un certain z S n \ {0} verifiant zAz = m(A).
On peut ecrire z = (z1 , , zn ). Soit u S \ {0} tel que u divise zi pour tout
1 i n. On a
Xn
zAz = Ai,j zj zi = |u|2 yAy .
i,j=1

o`
u on a pose y = (y1 , , yn ) avec yi S tel que uyi = zi .
Comme |u|2 1 (car non nul), m(A) = zAz = |u|2 yAy yAy m(A).
Donc |u|2 = 1 et u est inversible dans S. Les composantes de z sont premi`eres
entre elles.
2.b.

S n \ {0} = (xU ) |x S n \ {0} car U GL(n, S).

donc m(A) = m(B).


2.c. Clairement, m(A) 2 car le vecteur z = (1, 0) verifie zAz = 2.
Cherchons si zAz = 1 a une solution.
Cette equation secrit en posant z = (x, y) : 2x2 + 14xy + 25y 2 = 1 soit
(2x + 7y)2 + y 2 = 2 ce qui est verifie pour x = 4 et y = 1. Donc m(A) = 1.

A. Le cas n = 2.
1.a. z secrit (x, y) o`u x et y sont premiers entre eux dapr`es la question 2.a.
Le theor`eme de Bezout sapplique car S est euclidien donc principal : il existe
u, v S tels que ux + vy = 1.

x v
La matrice Uo = GL(2, S) car le determinant vaut 1.
y u

ceci se voit aussi avec la relation :



u v 1 0
Uo =
y x 0 1

La matrice B = Uo .A.Uo est congruente `a A et on a :

b1,1 =x(a1,1 x + a1,2 y) + y(a1,2 x + a2,2 y)


= a1,1 |x|2 + 2Re( ) + a2,2 |y|2
a1,2 y x
= zAz = m(A).

1.b. Dapr`es le I.B.2.d. dans le cas S = Z[D ] et dapr`es lapproximation


dun reel par unentier dans le cas S = Z, il existe s dans S tel que :
|b1,1 s + b1,2 | kb1,1 . car b1,1 1. On definit la matrice

1 0 1 s m(A) m(A)s + b1,2
C= B = .
s 1 0 1 m(A) s + b1,2 m(A)|s|2 + +2Re(sb1,2 ) + b2,2

1 s 1 s
On remarque que la matrice est inversible, dinverse .
0 1 0 1
1.2. CORRECTION 11

C est hermitienne et congruente `a B donc `a A. Ainsi, m(A) = m(C).


On a
a = c1,1 = m(A) = m(C). La remarque du debut de question donne ( k)1 |b|
b1,1 = m(A).
Enfin, avec z = (0, 1), on a c m(C) = a.
1.c. Comme det(A) = det(C), d = ac 2 2 2
|b| . On a |b| ka donc
1
d ac ka2 (1 k)a2 . On obtient : d(1 k) 2 a = m(A).
1.d. A une matrice hermitienne definie positive de determinant d. Dapr`es
les questions precedentes, A est congruente `a une matrice C verifiant (i) et (ii)
dans 1.b. et dapr`es 1.c., le nombre de valeurs possibles pour a = m(A) est fini.
|b|2 k|a|2 donc |b|2 N ne peut prendre quun nombre fini de valeurs. A
fortiori, comme b Z[D ], b ne peut prendre quun nombre fini de valeurs.
2
Enfin, c = d|b|
a donc c ne peut prendre quun nombre fini de valeurs.
Donc le nombre de classes de congruence est fini.
1
2.a. Pour chacune des possibilites de S, on constate que (1 k) 2 < 2. On
a donc 1 m(A) < 2. Comme m(A) est un entier, m(A) = 1.
Si on consid`ere la matrice C comme dans 1.b., on a : |b|2 k < 1 donc
b = 0. Enfin, comme d = 1, on a c = 1. Finalement C = I2 . Comme A et I2
sont congruentes, il existe B GL(2, S) telle que A = B B.
2.b. Soit D tel que p ne divise pas D. Dapr`es la question I.B.1., il existe
des entiers relatifs a, b, m tels que

p a + bD
A= est hermitienne definie positive et det(A) = 1.
a + bD m

r s
A = BB o`
uB= GL(2, S).
u v
En identifiant le coefficient (1, 1) dans les matrices, on obtient la relation :
p = |r|2 + |s|2 , avec r, s S.
i) Pour D = 1, r et s secrivent x + iy et n + im, o` u x, y, n, m Z. Donc,
p = x2 + y 2 + n2 + m2 .
ii) Si p = 3, on remarque que 3 = 12 + 1.1 + 12 .. Comme D = 3 et p 6= 3 (p ne
divise pas D), il existe x, y, n, m Z tels que p = x2 + x.y + y 2 + n2 + n.m + m2 .
iii) Si p = 7, on remarque que 3 = (1)2 + (1).2 + 2.22 . Comme D = 7 et
p 6= 7 (p ne divise pas D), il existe x, y, n, m Z tels que p = x2 + x.y + 2y 2 +
n2 + n.m + 2m2 .

B. Matrices sym
etriques `
a coefficients entiers.
1.a. On remarque que la surjectivite de f assure lexistence de x. Soit Gx =
Zx le sous-groupe engendre par x. Soit y Gx ker(f ), y = qx avec q Z et
q = f (y) = 0 donc y = 0. Ainsi Gx ker(f ) = {0}. Soit y Zn , f (y) Z et
z = y f (y)x ker(f ) donc y secrit z + f (y)x, avec z ker(f ). On a donc
Zn = ker(f ) Gx .
1.b.
(i) (ii) on pose x = b1 . On peut completer {b1 } en une base {bj }j de
Zn dapr`es lhypoth`ese (i). Soit M la matrice des coordonnees des vecteurs
bi dans la base canonique {ej } de Zn . La premi`ere colonne de M est t x. De
12 CHAPITRE 1. SESSION DE 1989

plus, M GL(n, Z) (cf P.Tauvel mathematiques generales pour lagregation


ch.VIII ou S.Lang : Algebra) car cest une matrice de changement de base de
Z-module (en fait un simple calcul matriciel, formellement le meme que pour
les espaces vectoriels, le montre : linverse de M nest autre que la matrice des
coordonnees des vecteurs ei dans la base {bj }).
t
(ii) (iii) M = x, v2 , , vn avec vj vecteur `a coordonnees dans Z. M
est inversible donc il existe une matrice N telle que N M = In . Le premier
vecteur ligne de N est de la forme : (a1 , , an ) avec ai Z. Le calcul du
Xn
coefficient (1, 1) du produit N M = In donne : xj aj = 1.
j=1
(iii) (iv) on consid`ere le morphisme de groupe :

Zn Z
n
X
f :
(y1 , , yn ) 7 aj yj
j=1

on a f (x) = 1 par hypoth`ese donc, pour tout n Z, f (nx) = n et f est


surjectif.
(iv) (i) la question 1.a donne : Zn = ker(f ) Zx. Rappelons le fait
suivant : tout sous-module de Zn est libre de type fini. (voir complements). Ainsi
ker(f ) est libre de type fini donc admet une base {b1 , , bl }. Do`
u {x, b1 , , bl }
est une base de Zn et a posteriori n = l + 1.
2. m(A) = zAz o`u z Zn \ {0} et les composantes (zj ) de z sont premi`eres
n
X
entre elles (cf II.2.a.). Dapr`es Bezout, il existe u1 , , un tels que uj zj = 1.
j=1
Le crit`ere (iii) de 1.b. implique lexistence de M GL(n, Z) ayant pour premier
vecteur colonne t z. B = M AM est congruente `a A et b1,1 = zAz = m(A).
n
X
3.a. Par hypoth`ese, on a a1,1 y1 = a1,i xi .
i=1
Dautre part,
n X
X n
a1,1 xAt x = a1,1 ai,j xi xj
i=1 j=1
Xn X n n
X
= a1,1 ai,j xi xj + a1,1 x1 a1,j xj
i=2 j=1 j=1
Xn X n n n
X X
= a1,1 ai,j xi xj + a1,i xi a1,j xj
i=2 j=1 i=1 j=1
X n n
X
a1,i xi a1,j xj
i=2 j=1
n X
X n
= (ai,j a1,1 a1,i a1,j )xi xj + (a1,1 y1 )2 .
i=2 j=1

Comme A est symetrique, on a une simplification pour j = 1 donc, compte-tenu


de xi = zi1 pour i 2, on obtient :
n X
X n
a1,1 xAt x = (a1,1 y1 )2 + (ai,j a1,1 a1,i a1,j )zi1 zj1 .
i=2 j=2
1.2. CORRECTION 13

Ainsi, xAt x = a1,1 y12 + a1 t


1,1 zB z avec Bi1,j1 = ai,j a1,1 a1,i a1,j pour
2 i, j n. B Mn1 (Z) est symetrique car A lest. Comme U t x = t y, on
peut ecrire
1 a1,i .a1
1,1
0 1 0 ... 0
. ..
. .
U =. 0
. .
.. .. 0
0 ... ... 0 1
On a la relation :

t a1,1 0 a1,1 a1,i
U U=
0 a1
1,1 B a1,i B

i1,j1 = a1,i .a1,j .a1 + a1 Bi1,j1 = ai,j pour 2 i, j n. Donc


avec B 1,1 1,1

t a1,1 0
U U = A.
0 a1
1,1 B

Montrons que B est definie positive. Comme U est inversible, on a pour tout
vecteur v = (v1 , . . . , vn ) Zn

a1,1 0 t t 1 t t 1 0 si v 6= 0
v v = (v U )A (v U )
0 a1
1,1 B = 0 si v = 0

a1,1 0
car A definie positive. La matrice est donc symetrique et definie
0 a1
1,1 B
positive.
Par restriction au sous-espace {0} Rn1 de Rn , a1 1,1 B donc B est d efinie
positive (car a1,1 = m(A) > 0).
Enfin, det(A) = det(U )2 .a1,1 det(a1
1,1 B). Or U est inversible et | det(U )| = 1 ;
de plus, B est une matrice dordre n 1 donc det(A) = an2 1,1 det(B).

3.b. Montrons ceci par recurrence sur n. Soient n 2 et Hn la proposition :


Pour toute matrice A Mn (Z) symetrique et definie positive, on a
n1
1
m(A) 43 2 det(A) n .
Pour n = 2, il suffit dappliquer la question A.1.c.
Suppsons Hn1 vraie. Soit z = (x2 , . . . , xn ) Zn1 tel que zB t z = m(B)
n
X
(cf. II.2.a). On peut considerer un entier x1 approximant le reel a1,i a1
1,1 xi
i=2
a` 21 pr`es donc |y1 | 12 . Linegalite m(A) xAt x = a1,1 y12 + a1
1,1 m(B) donne
4 2
alors 3 m(A) m(B).
Or dapr`es lhypoth`ese Hn1 , on a :
n2 n2
4 2 1 4 2 n2 1
m(B) det(B) n1 m(A) n1 det(A) n1 .
3 3
n n1
1 n2 1 1
Finalement 43 m(A)2 43 2 m(A) n1 det(A) n1 donc m(A) 4
3
2
det(A) n .
Par recurrence, le resultat est vrai pour tout n 2.
14 CHAPITRE 1. SESSION DE 1989

4.a. Pour n 5, on remarque que 1 m(A) < 2 donc necessairement


m(A) = 1. On raisonne ensuite par recurrence sur n. Le cas n = 2 a ete traite
au A.2.
Pour n 3, on suppose le resultat vrai pour n 1. On peut supposer
a1,1 = m(A) = 1 dapr`es le 2) donc

1 0
A = tU U
0 B

et det(B) = det(A) = 1 donc m(B) = 1 (cf remarque initale). Dapr`es lhypo-


th`ese de recurrence, B = t QQ o`
u Q Mn1 (Z). On obtient

t 1 0 t t 1 0 1 0
A= U U= U U
0 t QQ 0 Q 0 Q

1 0
et B = U convient pour avoir le resultat au rang n.
0 Q

4.b. Dapr`es le I.2, il existe a, m tels que la matrice



p a 0
A = a m 1
0 1 2

est definie positive de determinant 1. La question precedente implique donc


A = t BB o` u le premier vecteur colonne de B = (r, s, t). En identifiant les
coefficients (1, 1), on a : p = r2 + s2 + t2 .

III. Classes did


eaux et anneaux principaux.

A. On notera A le polynome minimal et A le polynome caracteristique


de A.
On remarque quon peut ecrire Z[] = Z Z. Z.n1 qui est un
Z-module libre de rang n.
1. Soit I un ideal non nul de Z[]. I est un groupe abelien et un sous-module
de Z[]. Soit j I \ {0}, j.Z[] est un sous-module de I et I est un sous-module
Z[], qui est un Z-module libre de rang n. Donc (on utilise le meme resultat
qu`a la question II.B.1.b : voir complements.) I et j.Z[] sont libres. Le rang de
j.Z[] est necessairement inferieur `a celui de I, qui est inferieur `a n (le rang de
Z[]).
Dautre part, on a j.Z[] = Z.j Z.j Z.jn car j est non nul et Z[]
est int`egre (P est irreductible).
Donc j.Z[] est de rang n. A fortiori I est de rang n.
2.a. On peut interpreter la question comme : montrer que est valeur
propre de A, en faisant attention au sens que lon peut donner `a cette phrase
(valeur propre en travaillant dans quel espace vectoriel ou quel module ?).
Comme P (A) = 0 (theor`eme de Cayley-Hamilton), A divise P . En effet, on
effectue la division euclidienne de P par A et on obtient un reste R, polynome
1.2. CORRECTION 15

de degre strictement inferieur `a celui de A . Comme P (A) = A (A) = 0, on a


R(A) = 0. Par definition de A , R est necessairement nul.
Comme P est irreductible, comme P et A sont unitaires, on a P = A .
Donc (le degre de P est n) A et A sont de meme degre : n. On a donc :
A = (1)n P .
A est une matrice `a coefficients dans Z donc dans le corps Q. On note Q() le
corps des fractions de Z[]. Le polynome caracteristique de A vue comme matrice
de Mn (Q) est le meme que celui de A vue comme matrice de Mn (Q()) : cest
det(A XI) Q[X]. Il sagit donc de (1)n P et celui-ci sannule en Q()
par hypoth`ese. est donc valeur propre de A vue comme matrice de Mn (Q()).
Il existe donc un vecteur non nul v = (v1 , . . . , vn ) Q()n tel que At v = .t v.
En multipliant v par c Z[] non nul adequat, on obtient x Z[]n non nul tel
que At x = .t x.
2.b. I = Z.x1 + + Z.xn est un sous-groupe additif de Z[]. Montrons que
I est un ideal de Z[]. Soient j I et R() Z[] (R Z[X]), on peut ecrire
X n
j= lk xk avec lk Z. Comme At x = .t x, en explicitant la k ieme ligne, on
k=1
obtient .xk Z.x1 + + Z.xn = I pour tout k. Par une recurrence immediate,
Xn
on a R().xk I pour tout k. Enfin, R().j = lk R().xk I.
k=1
Remarquons que est racine simple de P : sinon P et P 0 admettent comme
racine. Comme P est irreductible, P et P 0 sont premiers entre eux et le theor`eme
de Bezout donne U P + V P 0 = 1 (U, V Q[X]). En prenant la valeur en , on
obtient une contradiction. On conclut alors que est racine simple du polynome
caracteristique de A vue comme matrice de Mn (Q()). est donc valeur propre
simple et le sous-espace propre associe `a est de dimension 1 : cest Q().t x.
Supposons donc avoir un ensemble J = Z.x01 + +Z.x0n o` u x0 = (x01 , . . . , x0n )
0
repond aussi `a la question 2.a. Le vecteur x est vecteur propre de A. On en
deduit lexistence de a, b Z[] tels que ax = bx0 donc aI = bJ. Ainsi, I et J
appartiennent `a la meme classe.
2.c. Soit Q GL(n, Z), QAQ1 est une matrice semblable `a A donc admet
aussi comme valeur propre simple. Un vecteur propre associe est x0 = Qt x.
Dapr`es la question precedente, lideal IQAQ1 secrit Z.x01 + + Z.x0n . Comme
x0 = Qt x, on a x0k Z.x1 + + Z.xn donc IQAQ1 IA . Par symetrie des
roles joues par les deux ideaux, on a aussi IA IQAQ1 do` u legalite.
3. Si J = 0, alors tous les yj sont nuls donc nimporte quelle matrice B telle
que P (B) = 0 convient (on peut considerer par exemple une matrice compagnon
associee `a P ). On suppose desormais J non nul. Dapr`es 1., J est libre de rang
n
X
n et (y1 , . . . , yn ) est Z-libre. Pour tout i, .yi J donc secrit Bi,j yj . On
j=1
definit la matrice B = {Bi,j }i,j Mn (Z) et les relations precedentes secrivent :
B t y = .t y.
On a alors P (B)t y = P ()t y = 0. Notons ci,j la matrice P (B), on a pour
Xn
tout i : ci,j yj = 0. Comme (y1 , . . . , yn ) est libre, on obtient pour tout j :
j=1
ci,j = 0. Ainsi P (B) = 0.
16 CHAPITRE 1. SESSION DE 1989

4. Comme le vecteur x defini par la question 2.a est non nul, pour tout M ,
IM nest pas nul. Il faut donc separer le cas nul.
On note K = {(QAQ1 )QGL(n,Z) ; A Mn (Z), P (A) = 0}. Considerons
lapplication definie par

K {classes dideaux non nulles de Z[]}


C = (QAQ1 )QGL(n,Z) 7 IM o` uM C

(C) a un sens dapr`es 2.b et 2.c et est independant du representant M choisi


dans (QAQ1 )QGL(n,Z) car IM ne depend que de la classe de M . est surjective
dapr`es le 3.
Montrons que est injective. Soient C et C 0 K telles que (C) = (C 0 )
(que lon notera J). Soient M un representant de C et N un representant de
C 0 . Lideal J est non nul et il existe a, b Z[] non nuls tels que aIM = bIN . Il
existe aussi x, y Z[]n tels que IM = Z.x1 + +Z.xn et IN = Z.y1 + +Z.yn
Xn
avec M t x = .t x et N t y = .t y. Comme aIM = bIN , on a : axi = b qi,j yj
j=1
pour tout i, o` u qi,j Z. En notant Q = (qi,j ) Mn (Z), on a at x = bQt y. De
meme, il existe Q Mn (Z) telle que bt y = aQ t x. On a alors ba.Id = ab.QQ
(o`
u

Id est la matrice identite dordre n). ab est non nul donc Id = QQ et on obtient
de meme QQ = Id donc Q GL(n, Z).
Enfin, M Qt y = Qt y secrit aussi (Q1 M Q)t y = N t y. On conclut comme
`a la fin de la question 3. (via (y1 , , yn ) libre) que Q1 M Q = N donc que
M et N sont dans la meme classe de similitude : C = C 0 . est injective donc
bijective.

5. Il faut encore faire attention au cas de la classe nulle. Dapr`es 4., lassertion
(ii) est equivalente `a lexistence dune unique classe dideaux non nuls de Z[]
donc `a lassertion (i) suivante : Pour tout ideal non nul I de Z[], il existe a
et b dans Z[], non nuls, tels que aI = bZ[]. Il suffit en effet de remarquer que
Z[] est un ideal de Z[].
Limplication (i) (i0 ) est triviale. Quant `a la reciproque, pour tout ideal
non nul I de Z[], on consid`ere a et b dans Z[], non nuls, tels que aI = bZ[].
Comme 1 Z[], b secrit ar avec r I donc aI = arZ[] puis la non nullite de
a et lintegrite de Z[] donnent I = rZ[] donc I est un ideal principal et Z[]
est un anneau principal.

B. D 1

1. D secrit i D donc P (D ) = 0. De plus, P est clairement irreductible.
On applique A.5. avec = D et n = 2 : Z[D ] est principal si et seulement sil
existe une unique classe de similitude dans M2 (Z) de matrices A avec P (A) = 0.
Soit donc A M2 (Z) telle que P (A) = 0. Le polynome caracteristique de
A est P car il sannule en D , appartient `a Q2 [X] et est unitaire. Comme la
somme des valeurs propres de A est nulle, A est de trace nulle donc de la forme
A(, , ). Le determinant de A vaut 2 et dautre part , cest D. Ainsi,
D2 =
Pour que Z[D ] soit principal, il faut que A(1, , ) et A(0, r, s) soient sem-
blables pour tous les , , r et s dans Z.
1.2. CORRECTION 17

Par exemple, on choisit r = 1 et s = D. La condition de similitude secrit :


il existe Q GL(2, Z) telle que QA(0, 1, D) = A(, , )Q. On pose :

a b
Q= .
c d

En explicitant le produit matriciel, on obtient un syst`eme ().


Si D 1 [4] : on choisit = 1. D secrit `a la fois 1 + 4k et 1 donc
2(2k + 1) = . On choisit alors = 2 et = 2k + 1.

a + 2c (4k + 1)d = 0

a + b + 2d = 0
()

(2k + 1)a + c + (4k + 1)b = 0
(2k + 1)b c + d = 0

Il y a une solution non triviale `a () : les coefficients de Q GL(2, Z) ne peuvent


etre tous nuls. Ainsi le determinant de () est nul or il vaut 2k(4k + 1)(2k + 1).
Donc k = 0 et D = 1.
Si D 2 [4] : D secrit 2 + 4k et 1 . On choisit alors = 0, = 2 et
= 2k + 1. Le syst`eme () se reduit aux equations : a = 2d et c = (2k + 1)b.
Comme | det(Q)| = 1, on a 2d2 + (2k + 1)b2 = 1 (le cas 1 est impossible) donc
|b| = 1 et k = d = 0. Ainsi D = 2.
Enfin, on remarque que Z[1 ] et Z[2 ] sont euclidiens (cf I.B.2.d) donc prin-
cipaux.
2.a. On justifie lecriture de B par tr(A) = tr(B) = 1 (le coefficient de X
est 1). On peut toujours supposer que |a| est minimal.


1 n 1 a + nc n(2a + 1) n2 c b
i) Pour P = , P BP =
0 1 c nc + a + 1
1 0 1 a + nb b
ii) Pour P = , P BP = 2
n 1 n(2a + 1)+ n b + c nb + a + 1
0 1 a+1 c
iii) Pour P = , P BP 1 =
1 0 b a
1 0 a b
iv) Pour P = , P BP 1 =
0 1 c a + 1

En regardant le determinant de B, on obtient legalite


D+1
(det) a(a + 1) + bc = K = 4 .

Si a < 0, a 1 ie a + 1 0 donc avec (iii), le coefficient (1,1) est (a + 1)


avec (a + 1) 0. Dans ce cas, on a |a + 1| = a + 1 > a = |a| ce qui contredit
que |a| est minimal. Ainsi, on peut supposer a positif.
Avec i, ii et la minimalite de a, |anc| et |anb| a donc b 0 ou b 2na.
De meme, c 0 ou c 2na. Avec (det) et a(a + 1) 0, on a : bc 1 donc b
et c sont non nuls et de meme signe. Grace `a (iv), on peut toujours supposer b
et c positifs. A fortiori, b 2na et c 2na. En prenant n = 2, on obtient b et
c 2a + 1.
Enfin, K = a2 a + bc 3a2 + 3a + 1.
18 CHAPITRE 1. SESSION DE 1989

2.b. Soient (x, y) Z2 \ {0}. On remarque que


(2 + 1) 2 42 + 4 + 1 2
x2 + ( 1)y 2 + (2 + 1)xy = (x + y) + ( 1 )y .
2 4

Or compte-tenu de la relation = K + 2 + ,

42 +4+1
(I) 1 4 > 0 4 4 > 42 + 4 + 1 4(K ) > 1.

Montrons que K > . Supposons K ; alors comme K 2

= K + 2 + K 2 2K + 2 = (K 1)2 + 1 ( 1)( 1) + 1.

On en deduit que + 2 or > 1. On obtient une contradiction et


2
K > donc dapr`es (I), 1 4 +4+1
4 > 0. Comme de plus > 1, la
remarque du debut donne :

(2 + 1)
x2 +(1)y 2 +(2+1)xy 0 et est nul ssi (x+ y) = 0 et y = 0.
2

Ainsi, lhypoth`ese x et y non nuls donne le resultat.


Si A et M sont semblables, il existe une matrice Q telle que QA = M Q.
Ecrivons
r s
Q= avec ru st = 1.
t u
On obtient le syst`eme

s = r t

s rK = s u

u = r + t( + 1)
u tK = s + u( + 1)

En multipliant la premi`ere ligne par t et la troisi`eme par r, on obtient :

1 = ru st = u = r2 + t2 + rt(2 + 1) > t2

car {r, t} 6= {0, 0} (cf premi`ere partie de la question). Necessairement t = 0 donc


1 = r2 et = 1 ce qui est contraire `a lenonce.
2.c. Dapr`es A.5, Z[D ] est principal si et seulement si il existe une unique
classe de similitude de matrices A M2 (Z) telles que P (A) = 0. Il suffit en effet
de verifier que P est irreductiblesur Q et pour cela, que P na aucune racine
dans Q. Les racines de P sont i 1+4K 2 / Q.
Soit Z[D ] principal : le cas K = 1 a dej`a ete traite : D = 3 et Z[D ] est
euclidien (I.B.2.d). Supposons donc que K > 1 et quil existe a {0, . . . , K 1}
tel que K + a2 + a ne soit pas premier donc secrive avec 1 < .
Dapr`es 2.b avec = a, les matrices A et M ne sont pas semblables. Or on
remarque que A (X) = M (X) = P (X) et le theor`eme de Cayley-Hamilton
donne P (A) = P (M ) = 0. Donc il existe au moins deux classes de similitude de
matrices A M2 (Z) telles que P (A) = 0 et Z[D ] nest pas principal.
1.2. CORRECTION 19

2.d. Le cas K = 1 est clair. Pour K > 1, supposons K + a2 + a premier


pour tout a 0 tel que 3(a2 + a) + 1 K. Soit A M2 (Z) telle que P (A) = 0.
On peut ecrire (T r(A) = 1)

b
A= .
c +1

On peut toujours supposer que || est minimal (car lensemble des valeurs pos-
sibles || est une partie non vide de N donc admet un plus petit element) et
donc que (cf III.B.2.a)

0 c 2 + 1 b 2 + 1 3(2 + ) + 1 K.

Par hypoth`ese, K + 2 + est premier. On a K = det(A) = 2 + bc


donc K + 2 + = bc et necessairement b = 1 ou c = 1. Comme c 2 + 1 et
b 2 + 1, on obtient = 0 et det(A) = K = bc = b ou c. Ainsi, on a

0 K 0 1
A= ou A = .
1 1 K 1

Il suffit de verifier que ces deux matrices sont semblables. On remarque que

0 K 1 1 1 1 0 1
= .
1 1 1 0 1 0 K 1

Il y a donc une unique classe de similitude et Z[D ] est principal.


2.e. Le cas K = 1 soit D = 3, a dej`a ete traite. Suppsons donc D 200
et D 3 [4], on a alors 1 < K 50. On veut que K + a2 + a soit premier
pour tout a K 1 ou tout a tel que 3(a2 + a) + 1 K. Ainsi, K est premier
donc il reste 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47. Excepte pour K = 2,
il faut aussi K + 2 premier donc il reste 2, 3, 5, 7, 11, 17, 29, 41. On remarque que
si a 2, 3(a2 + a) + 1 19 donc pour K < 19, le test est dej`a suffisant : les cas
K = 2, 3, 5, 11, 17 conviennent.
Il reste donc `a tester K = 29 et K = 41. On remarque que 3(a2 + a) + 1 > 41
d`es que a 4. Pour a = 2, K + 6 doit etre premier et pour a = 3, K + 12 doit
etre premier : il reste K = 41.
Finalement, on obtient : K = 1, 2, 3, 5, 11, 17, 41 soit D = 4K 1 donc
D = 3, 7, 11, 19, 43, 67, 163.
2.f. On remarque que D 106 si et seulement si K 2, 5.105 =: N .
On fait varier K de 0 `a N .
On initialise une variable T [K] `a true.
3+ 3(4K1)
On fait varier a de 0 `a la partie enti`ere de 6 .
On effectue une procedure de test de primalite de K + a2 + a.
T [K] passe `a false si K + a2 + a nest pas premier et on passe `a la
valeur suivante de K. Sinon T [K] reste true et on passe `a la valeur
suivante de a.

C.
1. Determinons les inversibles de S = Z[D ] avec D 3 [4]. Soit r S
inversible, r secrit x + yD . On rappelle que r est inversible si et seulement si
20 CHAPITRE 1. SESSION DE 1989

|r|2 = 1 soit, ici, x2 + xy + D+1 2


4 y = 1. Comme
D+1 2
4 y > 1, on a n ecessairement
y = 0 et x = 1. Donc lensemble des inversibles de S est {1, 1}.
Soit b S, on effectue une division euclidienne (S est suppose euclidien)
de b par a. On a b = aq + r avec q, r S et N (r) < N (a) ou r = 0. Dapr`es
lhypoth`ese de minimalite sur a, si r est non nul, r est inversible. Ainsi, dapr`es
la remarque initiale r = 0, cest `a dire b aS, ou r {1, 1}. On a donc

S/aS = {1, 0, 1}.

Selon la nature de a, on peut avoir (ou pas) 1 = 1. Dans tous les cas 1 et 1
sont distincts de 0 car 1 = 0 signifie aS = 1 + aS ie ax = 1 + ay 1 = a(x y)
donc a serait inversible dans S ce qui est contraire `a lhypoth`ese.
On conclut donc que S/aS est isomorphe `a F2 (si 1 = 1) ou F3 (sinon).
2. On suppose donc ici que K 5. Avec P (X) = X 2 X + K, on a
P (D ) = 0. En passant aux classes dequivalence dans S/aS, on obtient :

D 2 D + K 1 = 0.

Or P (0) = P (1) = K 1 6= 0 et P (1) = K 1 + 2. De plus S/aS est isomorphe


`a F2 ou F3 et ni K ni K + 2 ne sont nulles pour K = 5, 11, 17, 41. Il y a donc
une contradiction.
Lanneau Z[D ] est donc principal mais non euclidien.

1.3 Commentaires
Ce probl`eme sinteresse `a la determination des anneaux euclidiens et princi-
paux parmi les anneaux dentiers des corps quadratiques imaginaires de discri-
minant inferieur `a 200. On utilise principalement les techniques de reseaux (ce
qui generalise notamment les methodes tr`es classiques sur lanneau des entiers
de Gauss) et les matrices hermitiennes `a coefficients dans lanneau dentiers. On
trouve donc dans ce probl`eme quelques techniques classiques de manipulation
de Z/pZ et de resolution dequations diophantiennes. Au passage, ceci permet
dobtenir le theor`eme de Lagrange sur les sommes de quatre carres.

Nous avons utilise plusieurs fois dans ce probl`eme le resultat suivant : tout
sous-module de Zn est libre de type fini. Nous allons montrer que tout sous-
module N dun module libre M de type fini sur un anneau principal, est libre
de type fini. Pour plus de clarte et pour coller au probl`eme, nous considererons
le cas de lanneau Z mais la redaction est la meme avec nimporte quel anneau
principal.

Le module M est libre de type fini : il existe une base (e1 , . . . , en ). Soit
Nr = N (Ze1 . . . Zer ) et montrons par recurrence que Nr est libre de
dimension inferieure `a r n.
Pour r = 1, N1 = {0} ou Nr = Z.e1 avec 6= 0. Le resultat annonce est
donc vrai.
Supposons que Nr soit libre de dimension inferieure `a r < n et considerons
lensemble
r
X
A = {a Z| i Z, i ei + aer+1 N }.
i=1
1.3. COMMENTAIRES 21

Comme N est un sous-module de M , on verifie aisement que A est un ideal de


Z qui est principal donc A est de la forme Z avec Z .
Si = 0 alors Nr+1 = Nr donc le resultat annonce est vrai au rang r + 1.
r
X
Sinon, il existe c N et des i Z tels que c = i ei + er+1 . On a alors
i=1
Nr+1 = Nr Zc et Nr+1 est libre de dimension inferieure `a r + 1.
Par recurrence, le resultat annonce est vrai pour tout r n.
Pour obtenir le resultat final, il suffit de prendre r = n.
22 CHAPITRE 1. SESSION DE 1989
Chapitre 2

Session de 1990

2.1 Sujet

23
24 CHAPITRE 2. SESSION DE 1990

2.2 Correction

I. Questions utiles pour la suite du probl`


eme

A. Decomposition dun element de S(E)


1.a. Pour tout vecteur u E, lendomorphisme fu : x 7 (u|x)u est
symetrique positif car pour tout x, y E, (fu (x)|y) = (u|x)(u|y) = (x|fu (y)) et
pour tout x E, (fu (x)|x) = (u|x)2 0.
1.b. Lorsque u = 0, lapplication fu est lendomorphisme nul de E. Si u 6= 0
alors rg(fu ) = 1 puisque imfu Ru et fu (u) = kuk2 u 6= 0.
1.c. Si kuk = 1 alors fu (u) = u. Pour tout y (Ru) , on a fu (y) = 0 donc
fu est le projecteur orthogonal sur Ru parall`element `a (Ru) .
1.d. Soit B = (b1 , ..., bn ) une base orthonormale de E et U la matrice de u
dans cette base B. On a alors pour tout 1 i n, Ui = (u|bi ). Le coefficient
de la matrice de fu en ie`me ligne et j e`me colonne dans la base B est donne par :
(fu (bj )|bi ) = (u|bj )(u|bi ) et concide avec celui de U U ? . Ceci justifie que dans
la suite du probl`eme, on notera uu? lapplication fu .
2. Si uu? = vv ? : il est clair que u = 0 v = 0. Sinon u est colineaire `a v et il
existe R tel que v = u et comme uu? (u) = vv ? (u) alors (1 2 )(u|u)u = 0.
On a donc = 1 ou = 1. Reciproquement si u = v ou u = v alors
uu? = vv ? .
3. Soit f S(E). f est donc diagonalisable dans une base orthonormale de
vecteurs propres. Notons (e1 , ..., en ) cette base de vecteurs propres
Pn et (1 , ..., n )
les valeurs propres associees. Pour Pn tout x E, on a f (x) = i=1 i (x|ei )ei ce
qui veut justement dire queP f = i=1 i ei e?i . Reciproquement, si f admet une
n
decomposition de la forme i=1 i ei e?i avec (e1 , . . . , en ) base orthonormale de
E, alors, pour tout k {1, . . . , n}, f (ek ) = k ek donc ek est vecteur propre de
f associe `a la valeur propre k .
f est dans S + (E) si et seulement si pour tout x E, (x|f (x)) 0. Si f est
dans S + (E) alors pour tout i = 1, ..., n, (f (ei )|ei ) = i 0 etP
reciproquement, si
n
toutes les valeurs propres de f sont positives alors (x|f (x)) = i=1 i (x|ei )2 0
pour tout x E.
4. Soit f S(E) tel que x E, (x|f (x)) = 0 alors pour tout x, y
E, (x + y|f (x + y)) = 0. En developpant cette expression et en utilisant le fait
que f S(E), on en deduit que x, y E, (f (x)|y) = 0 cest `a dire que pour
tout x E , f (x) E , donc f = 0.
5. Soit f S + (E) et x E. On sait alors que pour tout y E, pour tout
R, (x + y|f (x + y)) 0. Si (x|f (x)) = 0, on obtient que 2(f (x)|y) +
(y|f (y)) 0, pour tout R, y E, ce qui nest vrai que lorsque f (x) E .
Ceci implique que f (x) = 0.
6. Par le I.A.3 onPa dej`a vu que si f S + (E) alors ses valeurs propres
n
et f = i=1 i ei e?i o`
sont positives uPles ei sont des vecteurs propres de f . En
n ?
posant ui = i ei , on a bien P f = i=1 ui ui . Maintenant, si f admet une
n ?
decomposition de la forme f = i=1 ui ui alors :
2.2. CORRECTION 25

f est une somme dendomorphismes


Pn symetriques donc f S(E).
Pour tout x E, (f (x)|x) = i=1 (x|ui )2 0 donc x E, (f (x)|x) 0.

B. Caract erisation des elements de B(E) et de C(E)


1.a. x E, kf (x)k2 = (f (x)|f (x)) = (x|f ? f (x)), par definition de lad-
joint de f . Dapr`es linegalite de Cauchy-Schwarz, on en deduit que kf (x)k2
kxkkf ? f (x)k.
Comme kf ? f (x)k kf ? kkf (x)k alors pour tout x E, kf (x)k kf ? kkxk.
1.b. Dapr`es linegalite precedente, on obtient kf k kf ? k, pour tout f
L(E). En appliquant cette derni`ere inegalite `a f ? , comme f ?? = f , on a aussi
kf ? k kf k . On a bien pour tout f L(E), kf k = kf ? k.
2.a. f ? f est un endomorphisme symetrique car (f ? f )? = f ? f ?? = f ? f . De
plus x E, (f ? f (x)|x) = (f (x)|f (x)) 0 donc f ? f S + (E).
2.b. Lendomorphisme id f ? f est evidemment symetrique donc il est
element de S + (E) si et seulement si pour tout x E, (x|x f ? f (x)) = kxk2
kf (x)k2 0. Cette condition caracterise le fait que kf k 1 ou encore que
f B(E).
3.a. En dimension finie, la sph`ere unite de E est compacte et comme f
est continu ainsi que lapplication x 7 kxk alors supkxk=1 kf (x)k est atteint en
un point de la sph`ere unite. On en deduit que si kf k = 1 alors Ef 6= {0}. La
reciproque est evidente pour f B(E).
3.b. Dapr`es I.B.2.b. f B(E) id f ? f S + (E), et par le I.A.5., on
sait que pour x E, (id f ? f )(x) = 0 si et seulement si (x|x f ? f (x)) = 0.
On en conclut que ker(id f ? f ) = Ef .
Comme kf k = kf ? k alors f B(E) f ? B(E) donc on a de la meme
mani`ere Ef ? = ker(id f f ? ). En particulier Ef et Ef ? sont des sous-espaces
vectoriels de E.
3.c. Si x Ef ? alors on vient de voir que x = f (f ? (x)). Comme (id
f f )(f ? (x)) = f ? (xf f ? (x)) = 0 alors f ? (x) ker(idf ? f ). Ainsi f ? (x) Ef
?

et comme x = f (f ? (x)) alors x f (Ef ). Reciproquement, si x f (Ef ) alors


x = f (y) avec y = f ? f (y). On a x f f ? (x) = f (y f ? f (y)) = 0 donc x Ef ? .
Il est etabli que f (Ef ) = Ef ? et comme f ?? = f alors f ? (Ef ? ) = Ef . De la
premi`ere egalite, on deduit que f transforme une base de Ef en une famille
generatrice de Ef ? donc dim Ef dim Ef ? . De meme de la seconde egalite on
tire dim Ef dim Ef ? .
4. Par le I.B.1.b. on sait que pour tout f L(E), kf k = kf ? k. Par le
theor`eme du rang, on sait que rg(id f ? f ) = n dim ker(id f ? f ). Pour
f B(E), on sait que dim Ef = dim Ef ? donc rg(id f ? f ) = rg(id f f ? ). On
a bien f C(E) f ? C(E).
Comme (f ? )k = (f k )? alors kf k k = k(f ? )k k. Par definition et le resultat
rappele par lenonce, f C0 (E) si et seulement si f C(E) et k N tel que
kf k k < 1. Il est alors clair que f C0 (E) f ? C0 (E).
5. Soit f L(E).
Il est evident que (ii) (i) car on sait par le I.B.2.b que f B(E)
id f ? f S + (E) et par le I.1.b. que rg(uu? ) 1. On a facilement (ii) (iii).
Il ne reste qu`a prouver que (i) (ii) et (iii) (ii).
26 CHAPITRE 2. SESSION DE 1990

(i) (ii) : si f C(E) alors f B(E) et rg(id f ? f ) 1. On en deduit que


id f ? f S + (E). Cet endomorphisme est donc diagonalisable dans une base
orthonormale de vecteurs propres et toutes ses valeurs propres sont positives.
Comme son rang est inferieur `a 1, il existe 0 et v E tels que id f ? f =
vv ? car tous
les autres vecteurs propres sont asocies `a la valeur propre 0. On
pose u = v et (ii) est verifiee.
(iii) (ii) : (iii) secrit aussi : il existe u E tel que pour tout x
E, ((id f ? f uu? )(x)|x) = 0. Comme id f ? f uu? est un element de S(E),
alors par le I.A.4. on en conclut que (ii) est vrai.

C. Propri
et
es des matrices compagnons
Montrons par recurrence sur n que pour tout polynome unitaire P de degre
n, le polynome caracteristique de sa matrice compagnon est P .
Si n = 1 et P = X a0 alors C = [a0 ] et det(XI C) = X a0 ce qui
demontre la propriete au rang 1.
Supposons la propriete vraie au rang n 1. Soit P = X n an1 X n1 ...
a1 X a0 et C sa matrice compagnon. En notant Q = X n1 an1 X n2 ...a1
et D sa matrice compagnon, alors en developpant det(XI C) par rapport `a la
premi`ere ligne, on a

det(XIn C) = X det(XIn1 D) + (1)1+n (a0 ) det E

o`
u E est une matrice triangulaire superieure de taille n 1 nayant que des 1
sur la diagonale. On a det E = (1)n1 et dapr`es lhypoth`ese de recurrence
det(XIn1 D) = Q. Donc det(XIn C) = XQ a0 = P .
Pour tout i {0, ..., n 1}, on a C i (E1 ) = Ei+1 donc la famille
(C i (E1 ))0in1 est libre dans Rn et necessairement la famillle (C i )0in1
est libre dans Mn (R). Le degre du polynome minimal de C est donc plus grand
que n. Par ailleurs ce polynome est unitaire et divise P dapr`es le theor`eme de
Cayley-Hamilton : cest necessairement P .

II. Le but de cette partie est de d eterminer les


matrices triangulaires inf erieures qui sont dans
C(Rn ) et, si A est une de ces matrices, de trouver
U Rn tel que In A? A = U U ?

0 1 (2 + 2 )
1. A =
alors I2 A? A =
1 2
. On sait
que A C(R2 ) (A B(R2 ) et rg(I2 A? A) 1).
En dimension 2, rg(I2 A? A) 1 det(I2 A? A) = 0, ce qui donne
= (1 2 )(1 2 ).
2

Dans ce cas, les valeurs propres de I2 A? A sont 0 et tr(I2 A? A) = 12 2 .


Par le I.A.3., on sait que A B(R2 ) I2 A? A S + (R2 ) ce qui permet de
conclure que

A C(R2 ) ( 2 = (1 2 )(1 2 ) et 2 2 1).(?)


2.2. CORRECTION 27

Si A C(R2 ), on obtient facilement 2 1 et 2 1 donc on peut trouver


deux reels et tels que = cos et = cos . On a aussi 2 = sin2 sin2
donc quitte `a changer en , = sin sin .
cos 0
Reciproquement si A = alors la condition (?) est
sin sin cos
2
satisfaite et donc A C(R ).
sin cos
De plus, si lon pose U = alors U est une solution de I2
sin
? ?
A A = UU .

B 0 W
2. On ecrit A = C ? a et U =
bn
o`
u B Mn1 (R), C, W
nn

In1 B ? B CC ? ann C
Rn1 . On a alors : In A? A = et U U ? =
ann C ? 1 a2nn
W W ? bn W
.
bn W ? b2n
Si In A A = U U ? alors on a 1 a2nn = b2n donc il existe n R tel
?

que ann = cos(n ) et bn = sin(n ). De plus, bn W = ann C et on sait que


(ann , bn ) 6= (0, 0) donc il existe V Rn1 tel que W = ann V et C = bn V. On
verifie facilement quon a bien In1 B ? B = W W ? + CC ? = V V ? .
La reciproque est evidemment vraie.
3. Soit (1 , . . . , n ) la liste des valeurs propres imposees. Pour tout k
{1, . . . , n}, |k | 1 donc il existe k R tel que k = cos k . Construisons
par recurrence finie sur k une famille de matrices Ak Mk (R) et de vecteurs
colonnes
Uk Rk en posant :
A1 = (cos(1 ))
U1 = (sin(1 ));


Ak 0
Ak+1 = ?
sin(
k+1 )Uk cos( k+1 )
et k {1, . . . , n 1},

cos(k+1 )Uk
Uk+1 = .
sin(k+1 )
Au rang k = 1, on a bien s ur I1 A?1 A1 = U1 U1? .
De plus, la question precedente prouve que pour tout k {1, . . . , n 1},
Ik A?k Ak = Uk Uk? Ik+1 A?k+1 Ak+1 = Uk+1 Uk+1 ?
, donc par recurrence, il
est clair que In An An = Un Un . Dapr`es I.B.5., on en conclut que An C(Rn ),
? ?

et il est clair par construction que cette matrice est bien triangulaire inferieure
avec les valeurs propres souhaitees.
Par ailleurs, si A C(Rn ) , dapr`es I.B.5., il existe U Mn (R) tel que In
A A = U U ? . Comme le resultat de la question II.2. est une condition necessaire
?

et suffisante, cela prouve que si A est une matrice triangulaire inferieure de


C(Rn ) alors elle est necessairement obtenue par le procede decrit ci-dessus. On en
conclut que les elements de C(Rn ) qui sont des matrices triangulaires inferieures
sont de la forme A = (aij )1i,jn o` u


j>i : 0

j = i : cos(i )
aij = i1
Y , (1 , . . . , n ) Rn .


j < i : sin(i ) sin(j )
cos(l )
l=j+1

(Par convention, le produit sur un ensemble vide dindices est egal `a 1.)
28 CHAPITRE 2. SESSION DE 1990

?
Pour un tel element A,
un vecteur
colonne satisfaisant lequation In A A =
u1 n
.. Y
?
U U est donne par : U = . o` u uj = sin(j ) cos(k ).
un k=j+1


III. Etude de B(E) et de C0 (E)

A. D ecomposition dun el
ement de B(E)
T
1.a. Il est clair que F = kN (f ) (Ef ) o`u (f k )1 (Ef ) designe, pour
k 1

k N, limage reciproque de Ef par f k . On a vu que pour f B(E), Ef est un


sous-espace vectoriel de E. Donc F est un sous-espace vectoriel de E en tant
quintersection de sous-espaces vectoriels de E.
1.b. Soit x F . Alors pour tout k N, f k (f (x)) = f k+1 (x) Ef car
x F . Donc f (x) F et f (F ) F . On peut alors considerer lendomorphisme
induit par f sur F , note . On voit que est injectif car : F Ef et x Ef ,
kf (x)k = kxk, donc si (x) = 0 alors kxk = k(x)k = 0. Comme F est de
dimension finie, est surjectif donc f (F ) = (F ) = F . Dautre part, si x F ,
alors x Ef donc x = f ? (f (x)). Comme f (x) F alors x f ? (F ) et F
f ? (F ). Mais dim f ? (F ) dim F donc F = f ? (F ).
1.c. Dapr`es b. F est stable par f ? . Donc F est stable par f ?? , cest `a dire
que G est stable par f .
2. La question precedente justifie que = f|F et = f|G definissent bien
deux endomorphismes sur F et G respectivement.
2.a. Soit x G. Alors k(x)k = kf (x)k kxk car f B(E). Donc
B(G).
2.b. On a : F Ef donc pour tout x F , k(x)k = kf (x)k = kxk. Ceci
caracterise les endomorphismes orthogonaux de F .
2.c. Si k = 0 : x / F donc x 6= 0 et (x) forme bien une famille libre de E.
On peut donc supposer k 1. Par definition de k : f k (x) / Ef et pour
tout entier j < k, f j (x) Ef . Supposons quil existe des scalaires non tous nuls
Pk
0 , . . . , k tels que i=0 i f i (x) = 0 et notons j le plus grand indice tel que
Pj1
j 6= 0. En composant par f kj , on a f k (x) = i=0 ji f i+kj (x). Comme Ef
est un sous-espace vectoriel de E et pour tout i {0, . . . , j 1}, f i+kj (x) Ef
alors f k (x) Ef , ce qui est absurde. Ainsi la famille (x, f (x), , f k (x)) est libre
dans E.
On a donc k + 1 dim E = n et kf n (x)k = kf n(k+1) (f k+1 (x))k
k+1
kf (x)k car k.k est une norme dalg`ebre sur L(E) et f B(E). Dautre
part f k (x) / Ef et pour tout entier j < k, f j (x) Ef , donc : kf k+1 (x)k <
kf (x)k = kxk. On a bien : kf n (x)k < kxk.
k

2.d. On rappelle que B(G). Par compacite de la boule unite de G, il


existe x0 G, kx0 k = 1 et k n k = k n (x0 )k. Comme x0 6= 0, x0 / F car G =
F . Dapr`es la question precedente, k n k = k n (x0 )k = kf n (x0 )k < kx0 k = 1.
Dapr`es le resultat rappele par lenonce, () < 1 et B0 (G).
2.2. CORRECTION 29

3. (iii) (ii) : si F = {0} alors E = G et f = f|G = . On vient de voir


que k n k < 1 donc on a (ii).
(ii) (i) est une consequence immediate du resultat rappele par lenonce.
(i) (iii) : supposons F 6= {0}. Pour x F \ {0} et pour k N kf k (x)k =
kxk. Donc pour tout k N, kf k k 1. Or, toujours grace au resultat rappele
par lenonce, k N tel que kf k k < 1 car f B0 (E). Ceci est absurde.

B. Caract erisation des elements de C0 (E)


1. Comme f C(E) alors dapr`es le I.B.5., il existe effectivement u E tel
que id f ? f = uu? .
1.a. On sait que Ef = ker(id f ? f ) et ici id f ? f = uu? , donc Ef = {u} .
Si x F alors pour tout k N, f k (x) Ef et (f k (x)|u) = 0. Reciproquement
si pour tout k {0, . . . , n 1}, (f k (x)|u) = 0, alors pour tout k {0, . . . , n 1}
f k (x) Ef , cest `a dire kf (f k (x))k = kf k (x)k. Donc kf n (x)k = kxk et dapr`es
III.A.2.c., on en conclut que x F .
1.b. Pour tout k {0, . . . , n 1}, (f k (x)|u) = (x|(f ? )k (u)). Ainsi, dapr`es
a. F = (u, f ? (u), . . . , (f ? )n1 (u)) .
Dautre part puisque f C(E), f C0 (E) f B0 (E). Or dapr`es
II.A.3., f B0 (E) F = 0. On en conclut que f C0 (E) si et seulement
si Vect(u, f ? (u), . . . , (f ? )n1 (u)) = E. Comme cette famille est de cardinal n,
on a le resultat.
2. Si n = 1 nimporte quel vecteur non nul fait laffaire.
Si n 2 on peut choisir x (u, f ? (u), . . . , (f ? )n2 (u)) \ {0}. Les calculs
effectues au 1.a. montrent que kxk = kf (x)k = = kf n1 (x)k. Ceci assure
que pour tout k {0, . . . , n 1}, kf k k 1. Comme f C0 (E) alors, dapr`es
III.A.3., pour tout k {0, . . . , n 1}, kf k k = 1 et kf n k < 1.
3. Si n = 1, il ny a rien `a demontrer.
Supposons n 2. Comme kf k = 1, on a kxk = kf n1 (x)k kf n2 (x)k
kf (x)k kxk. Les inegalites ci-dessus sont donc des egalites et pour tout
k {0, . . . , n 2}, f k (x) Ef . Comme kf n k < 1, f n1 (x) / Ef et n 1 est le
plus petit entier k tel que f k (x) / Ef . Par III.A.2.c., (x, f (x), . . . , f n1 (x)) est
une famille libre de E, de cardinal n : cest une base de E.
Il reste `a voir que f C0 (E). Comme f B(E) et kf n k < 1, il suffit de
montrer que rg(id f ? f ) 1. Or pour tout i {0, . . . , n 2}, f i (x) Ef
donc (id f ? f )(f i (x)) = 0. Comme (f i (x))0in1 est une base de E, on a le
resultat.

C. Etude dune base adapt ee `a un element de C0 (E) et


de sa matrice de Gram
1. Dapr`es III.B.2, il existe x E \ {0} tel que kxk = kf n1 (x)k, et kf n k <
1. Cette derni`ere inegalite assure que kf n (x)k < kxk. On peut poser 1 =
2 1 n 2
x et on a bien kf n1 (1 )k = k1 k et k1 k2 kf n (1 )k2 = 1.
kxk kf (x)k
Puisque f C0 (E), III.B.2. prouve que f et 1 satisfont aux hypoth`eses de
la question III.B.3. dont on applique le resultat : (1 , . . . , n ) est une base de E.
La matrice de f dans cette base est alors la matrice compagnon dun polynome
Q. Dapr`es I.C. son polynome caracteristique est Q donc cette matrice est egale
`a C.
30 CHAPITRE 2. SESSION DE 1990

2.a. La formule du produit matriciel de 3 matrices donne pour tout (i, j)


{1, . . . , n}2 ,
n X
X n n X
X n
(C ? C)i,j = ?
Ci,k k,l Cl,j = k,l Ck,i Cl,j .
k=1 l=1 k=1 l=1

Comme k,l = (k |l ) alors par bilinearite du produit scalaire, on a


n n
X X
(C ? C)i,j = Ck,i k | Cl,j l .
k=1 l=1

On vient de voir que la matrice de f dans la base (1 , . . . , n ) est C donc


(C ? C)i,j = (f (i )|f (j )).
2.b.
( C ? C)i,j = (i |j ) (f (i )|f (j )) d0 apr`es le a.
= (i |j f ? f (j )).

Si j 6= n, j Ef = ker(id f ? f ) donc ( C ? C)i,j = 0.


Si i = j = n, (C ? C)n,n = kn k2 kf (n )k2 = kf n1 (1 )k2 kf n (1 )k2 = 1
par construction de 1 .
Comme C ? C est symetrique alors tous ses coefficients sont nuls sauf
celui en position (n, n) : C ? C = En En? .

IV. R
esolution dans Mn (R) de l
equation `
a
?
linconnue G : G C GC = H

1. Dapr`es I.C., P est le polynome caracteristique de C. Lhypoth`ese faite


sur les racines de P assure que (C) < 1 donc que limk C k = 0. Comme
k(C ? )k k = kC k k, on a aussi limk (C ? )k = 0. Par continuite du produit
matriciel, (C ? )k AC k tend vers 0 quand k tend vers linfini. Or une recurrence
evidente montre que pour tout k N, A = (C ? )k AC k donc A = 0.
2.a. On consid`ere : Mn (R) Mn (R) defini par (M ) = M C ? M C.
est alors un endomorphisme de Mn (R) et le 1. prouve quil est injectif. Cest
donc un isomorphisme : pour tout B Mn (R), il existe une unique matrice
A Mn (R) telle que B = (A).
2.b. En multipliant la relation A C ? AC = B `a gauche par (C ? )p et `a
droite par C p , on obtient que pour tout p N, (C ? )p AC p = (C ? )p+1 AC p+1 +
(C ? )p BC p . On additionne les k + 1 premi`eres egalites ainsi obtenues et on en
Pk
deduit que pour tout k N, A = (C ? )k+1 AC k+1 + p=0 (C ? )p BC p . On a dej`a
P
vu que limk (C ? )k+1 AC k+1 = 0 ce qui prouve que la serie ? p
p (C ) BC
p

est convergente dans Mn (R) et que sa somme vaut A.


P
3.a. On vient de voir que G = + ? p p
p=0 (C ) HC . On sait que H S (R )
+ n

donc pour tout p N, (C ? )p HC p S + (Rn ). Comme S + (Rn ) est un cone


convexe ferme de Mn (R) alors G est aussi dans S + (Rn ).
2.2. CORRECTION 31

3.b. (i) (ii) : Dapr`es le I.A.5., si S + (Rn ), X ker (X|X) =


0. Or G S + (Rn ) doncP+X ker G (GX|X) = 0. Par continuite du produit
scalaire, (GX|X) = p=0 (HC p X|C p X) et comme H S + (Rn ), X ker G
(p N, C p X ker H).
(ii) (iii) : evident.
(iii) (ii) : par le theor`eme de Cayley-Hamilton, on sait que le polynome
caracteristique de C (cest `a dire P dapr`es le I.C.) annule C. Pour tout k n,
effectuons la division euclidienne de T k par P : on trouve deux polynomes Qk
et Rk tels que T k = Qk P + Rk avec deg(Rk ) n 1. Comme P (C) = 0 alors
C k = Rk (C). De plus, si pour tout p {0, . . . , n 1}, HC p X = 0, alors pour
tout polynome R de degre inferieur ou egal `a n1, HR(C)X = 0. On en conclut
que pour tout k n, HC k X = HRk (C)X = 0. On a donc bien prouve que
(iii) (ii).
4. Notons dabord que U U ? S + (Rn ), donc nous pouvons appliquer les
resultats obtenus `a la question precedente avec H = U U ? . En particulier, on sait
alors que G S + (Rn ) donc G est definie positive si et seulement si kerG = {0}.
Par (iii), on a aussi ker G = X : i {0, . . . , n 1}, C i X ker U U ? .
Ceci etant dit, remarquons que X kerU U ? (U |X) = 0. On en conclut
i
que
G est definie positive si et seulement si X : i {0, . . . , n 1}, (C X|U ) =
0 = {0}, ce qui est exactement la propriete (i).
Montrons que (i) (ii) : on a evidemment

(i) X : i {0, . . . , n 1}, (X|(C i )? U ) = 0 = {0}
(U, C ? U, . . . , (C ? )n1 U ) = {0}
Vect(U, C ? U, . . . , (C ? )n1 U ) = E.
Comme les familles generatrices de cardinal n sont les bases de Rn , on en conclut
que (i) (ii).
5.a. On peut appliquer le resultat de la question precedente avec G = et
U = En . En particulier, montrer que (En , C ? En , . . . , (C ? )n1 En ) est une base
de Rn prouvera que est definie positive :
lorsque l + k n, C k El = El+k et ((C ? )k En |El ) = (En |C k El ). on en deduit
que si l + k < n alors ((C ? )k En |El ) = 0 et si l + k = n alors ((C ? )k En |El ) = 1.
La matrice des vecteurs colonnes (C ? )k En 0kn1 exprimee dans la base
(En , . . . , E1 ) est alors triangulaire superieure et nadmet que des 1 sur la diago-
nale. La famille (En , C ? En , . . . , (C ? )n1 En ) forme donc une base de Rn .
5.b. Comme la famille (En , C ? En , . . . , (C ? )n1 En ) est generatrice dans Rn ,
pour tout U Rn , il existe une famille de scalaires (0 , . . . , n1 ) telle que U =
Pn1 ? i
Pn1 i ?
i=0 i (C ) En . Soit Q(T ) = i=0 i T alors U = (Q(C)) En et deg Q
n 1. De plus sil existe deux polynomes Q1 et Q2 de degres inferieurs ou
egaux `a n 1 verifiant (Q1 (C))? En = (Q2 (C))? En alors par liberte de la famille
(En , C ? En , . . . , (C ? )n1 En ), leurs coefficients sont egaux, ce qui prouve lunicite
dun tel polynome.
Par propriete de commutativite de lalg`ebre des polynomes dune matrice,
on constate que Q(C)? Q(C) C ? Q(C)? Q(C)C = Q(C)? ( C ? C)Q(C)
= U U ? car C ? C = En En? . Or par le 2.a., G est lunique solution de
lequation G C ? GC = U U ? donc G = Q(C)? Q(C).
5.c. Par le I.A.6., on sait que G C ? GCP S + (Rn ) si et seulement si il
n
existe U1 , . . . , Un Rn tels que G C ? GC = i=1 Ui Ui? .
32 CHAPITRE 2. SESSION DE 1990

Dapr`es la question precedente, pour tout i {1, . . . , n}, il existe Qi R[T ]


tel que Gi = (Qi (C))? Q P equation Gi C ?P
i (C) soit la solution de l Gi C = Ui Ui? .
n n
On en conclut que G = i=1 Gi est la solution de G C GC = i=1 Ui Ui? ce
?
? + n
qui prouve que si GP C GC S (R ) alors il existe n polynomes Q1 , . . . , Qn
n
R[T ] tels que G = i=1 (Qi (C))? Qi (C).
Reciproquement, sil existe n polynomes Q1 , . . . , Qn R[T ] tels que G =
Pn ?
i=1 (Qi (C)) Qi (C) alors, en effectuant le m eme calcul qu`a la question
Pn
? ?
precedente, il est facile de constater que G C GC = i=1 Ui Ui , o`
u Ui =
(Qi (C)) En . A nouveau par le I.A.6, on en conclut que G C GC S + (Rn ).
? ?

V.
A. Existence d el
ements f de C0 (E) tels que f = P
Qn
1. Il suffit, si P = i=1 (X i ) (les i sont eventuellement confondus),
de reprendre lalgorithme de II.3. pour construire une matrice M triangulaire
inferieure dont les valeurs propres sont les i , et qui appartient `a C(Rn ). Comme
les racines de P sont de modules strictement inferieurs `a 1, (M ) < 1 donc
M C0 (Rn ).
On consid`ere alors une base orthonormee B de E et on prend f L(E) qui
admet M pour matrice dans B. Par definition, on a (f ) = (M ) et kf k = kM k.
Dautre part, la matrice de f ? dans B est M ? car B est orthonormee, donc
rg(id f ? f ) = rg(I M ? M ). Comme M C0 (Rn ) alors f C0 (E) et il est clair
que f = P .
2.a. Dapr`es IV.5.a., est definie positive.
Soit B = (b1 , . . . , bn ) une base orthonormee de E et lendomorphisme de
E represente par dans cette base. est symetrique defini positif, donc on peut
trouver une base orthonormee B 0 telle que Mat(, B 0 ) = diag(1 , . . . , n ) avec
pour tout i {1, . . . , n}, i > 0. On definit alors v L(E) par Mat(v, B 0 ) =

diag( 1 , . . . , n ), et on constate que v est un automorphisme symetrique de
E tel que = v 2 .
Soit i = v(bi ) pour i {1, . . . , n}., alors (1 , . . . , n ) est une base de E car v
est un automorphisme et pour tout (i, j) {1, . . . , n}2 , (i |j ) = (v(bi )|v(bj )) =
(bi |(bj )) = ij . On a donc bien G(1 , . . . , n ) = .
2.b. Considerons lendomorphisme f de E dont la matrice dans la base
(1 , . . . , n ) est C. Le I.C. nous assure immediatement que f = P . En reprenant
le calcul fait au III.C.2.a. on trouve que C ? C = G(f (1 ), . . . , f (n )). Comme
C ? C = En En? , on a ((id f ? f )(i )|j ) = 0 si (i, j) 6= (n, n) et ((id
f ? f )(n )|n ) = 1.
(1 , . . . , n ) est
Pnune base de E donc pour tout x E, il existe (1 , . . . , n )
Rn tel que x = i=1 i i . On a alors
X
((id f ? f )(x)|x) = i j ((id f ? f )(i )|j ) = 2n .
i,j

Soit u tel que u (1 , . . . , n1 ) et (u|n ) = 1. Alors ((id f ? f )(x)|x) =


2n = (u|x)2 , pour tout x E. Par le I.B.5, on sait alors que f C(E). Comme
f = P , (f ) < 1 et f C0 (E).
2.2. CORRECTION 33

3. Il est evident que (i) (ii) (iii).


Supposons (iii) et appelons D la matrice compagnon de f = g . Dapr`es
III.C., on peut trouver deux bases B = (1 , . . . , n ) et B 0 = (10 , . . . , n0 ) de
E, telles que Mat(f ; B) = D = Mat(g; B 0 ). Si = G(1 , . . . , n ) et 0 =
G(10 , . . . , n0 ) alors D? D = En En? et 0 D? 0 D = En En? . Dapr`es IV.2.a,
on en deduit que = 0 . Soit r lendomorphisme de E defini par r(i ) =
i0 pour tout i {1, . . . , n}. De = 0 , on deduit que pour tout (i, j)
{1, . . . , n}2 , (r(i )|r(j )) = (i |j ) ce qui permet de conclure que r O(E).
Comme Mat(f ; B) = Mat(g, B 0 ) alors rf r1 = g et on a montre (i).

B. Maximum de kQ(g)k lorsque kgk 1 et P (g) = 0


P
1.a. Comme P (g) = 0 alors nk=1 Ck,n gk1 (u) = gn (u). C est la ma-
trice compagnon du polynome P , donc en reprenant le calcul matriciel effectue
au III.2.a. et en utilisant la forme de la matrice C, on trouve que C ? GC =
G(g(u), . . . , g n (u)). On prouve alors facilement par recurrence que pour tout
k N, (C ? )k GC k = G(g k (u), . . . , g n+k1 (u)), do`
u lon deduit que pour tout
polynome Q R[T ],
Q(C)? GQ(C) = G(Q(g)(u), . . . , Q(g)(g n1 (u))).

x1

On a alors pour tout X = ... ,
xn
n
X
(Q(C)? GQ(C)X|X) = Q(g)(g i1 (u))|Q(g)(g j1 (u)) xi xj
i,j=1
Xn

= xi Q(g)(g i1 (u))|xj Q(g)(g j1 (u)) .
i,j=1
Pn i1
En notant x = i=1 xi g (u), par bilinearite du produit scalaire, on a bien
la relation cherchee : kQ(g)(x)k2 = (Q(C)X)? G(Q(C)X).
1.b. Soit X Rn .
X ? (G C ? GC)X = X ? GX X ? C ? GCX
= X ? GX (CX)? GCX
= kxk2 kg(x)k2 d0 apr`es a. avec Q(T ) = T
0 car g B(E).
Donc G C GC S (Rn ).
? +

1.c. Dapr`es b. et IV.5.c, il existe n polynomes Q1 , . . . , Qn tels que


n
X
G= Qi (C)? Qi (C).
i=1

Reprenons la formule etablie au a. : kQ(g)(x)k2 = (Q(C)X)? G(Q(C)X). Elle


devient maintenant :
n
X
kQ(g)(x)k2 = (Q(C)X)? Qi (C)? Qi (C) (Q(C)X)
i=1
34 CHAPITRE 2. SESSION DE 1990

n
X ?
= Q(C)Qi (C)X Q(C)Qi (C)X .
i=1

On a utilise au passage le fait que Qi (C) et Q(C) commutaient.


Comme f C0 (E), P est son polynome caracteristique, C est la matrice
compagnon associee `a P alors les resultats du III.C. peuvent sappliquer. On
trouve alors une base V = (v1 , . . . , vn ) telle que Mat(f, V ) = C et G(v1 , . . . , vn )
satisfait lequation G(v1 , . . . , vn )C ? G(v1 , . . . , vn )C = En En? . Maintenant, rap-
pelons que a ete choisie telle que C ? C = En En? (au IV.5.) et par le
IV.2.a., on en conclut que G(v1 , . . . , vn ) = .
On vient juste de voir que la matrice du produit scalaire dans la base
(v1 , . . . , vn ) est egale `a . Soit ui le vecteur de E ayant pour matrice colonne
Qi (C)X dans cette base, alors Q(f
? )(u
i ) a pour matrice
colonne Q(C)Qi (C)X
et kQ(f )(ui )k2 = Q(C)Qi (C)X Q(C)Qi (C)X . A condition davoir choisi

1
0

au depart X = . , cest `a dire x = u, on a trouve des vecteurs (u1 , . . . , un )
..
0
tels que pour tout polynome Q R[T ],
n
X
kQ(f )(ui )k2 = kQ(g)(x)k2 .
i=1

2. Soit u E. Dapr`es 1.c., il existe n


P (u1 , . . . , un ) R tel que pour tout
n
polynome reel R, on a : kR(g)(u)k2 = i=1 PkR(f )(ui )k2 .
n
Appliquons ce resultat `a R = 1 : kuk = i=1 kui k2 .
2

Appliquons aussi ce resultat `a R = Q :


n
X n
X
2 2
kQ(g)(u)k = kQ(f )(ui )k kQ(f )k2 k(ui )k2
i=1 i=1
n
X n
X
= kQ(f )k2 k(ui )k2 = kQ(f )k2 kui k2
i=1 i=1
= kQ(f )k2 kuk2
On en conclut que pour tout u E, kQ(g)(u)k kQ(f )k kuk, ce qui assure que
kQ(g)k kQ(f )k.

2.3 Commentaires
Il sagit dun sujet dalg`ebre lineaire et bilineaire qui met en uvre lessentiel
des notions et theor`emes relatif `a la reduction des endomorphismes et `a la
manipulation des normes en dimension finie. Il est abordable d`es le debut de la
preparation `a lagregation.

Nous nous proposons de demontrer les deux equivalences admises par lenonce :
pour tout endomorphisme f L(E),
(f ) < 1 lim f p = 0 k N : kf k k < 1.
p+
2.3. COMMENTAIRES 35

a. Commencons par etablir la seconde equivalence :


Si lim f p = 0, il est clair que, pour k assez grand : kf k k < 1.
p+
Reciproquement, soit k N tel que : kf k k < 1. Pour tout n N, la division
euclidienne de n par k secrit n = qn k + rn o`u 0 rn < k.
On a alors : kf n k = k(f k )qn f rn k kf k kqn kf rn k mk kf k kqn en posant
mk = sup kf j k qui est independant de n. On remarque que lim qn = +
0jk1 n
k k qn n
donc, comme kf k < 1, on a : lim kf k = 0. Ainsi, lim kf k = 0.
n n

b. Nous nous interessons maintenant `a la premi`ere equivalence : commen-


cons par remarquer que le passage en complexe est inevitable dans la mesure
o`u la definition meme de (f ) est en terme de racines complexes de f . Pour
eviter de complexifier lespace reel E (le lecteur pourra consulter `a ce sujet le
tome 2 du cours de Mathematiques speciales ecrit par Ramis-Deschamps-Odoux
edite chez Masson), nous allons transferer le probl`eme de la convergence dans
L(E) vers un probl`eme de convergence dans Mn (C). Plus precisement : L(E)
est un espace vectoriel reel de dimension finie donc toutes les normes sur L(E)
definissent la meme topologie.
Soit k k une norme dalg`ebre sur Mn (C) et (e1 , . . ., en ) une base de E.
Pour tout g L(E), en notant Mg = M at(g; e1 , . . . , en ) Mn (C), on definit
lapplication N de L(E) dans R+ par N (g) = kMg k. On verifie alors que N est
une norme sur le R-espace vectoriel L(E).
On pose M = Mf et on a, pour tout k N : M k = M at(f k ; e1 , . . . , en ),
cest `a dire N (f k ) = kM k k. Ainsi, la convergence de f k vers 0 dans (L(E), N )
est equivalente `a celle de M k dans (Mn (C), k.k).
Supposons (f ) < 1 :
Le polynome caracteristique f est scind
Qse sur C. Soient 1 , . . . , s les racines
distinctes de f dans C, on a : f (T ) = j=1 (j T )j (avec j 1).
En notant m lendomorphisme de Cn represente par M dans la base canonique,
le theor`eme de decomposition des noyaux et le theor`eme de Cayley-Hamilton
(comme f = m alors f (m) = 0) donne :
Cn = ker(m 1 I)1 . . . ker(m s I)s .
Ainsi, M est semblable `a une matrice bloc-diagonale M , o`
u chaque bloc est
de la forme j I + Bj , avec Bj nilpotente dordre j (il suffit de considerer une
base de chaque sous-espace caracteristique ker(m j I)j ). Soit P la matrice de
passage correspondante, on a : M k = P M k P 1 et kM k k kP kkP 1 kkM k k.
On remarque k
que M est toujours bloc-diagonale. On peut en fait ecrire M =
Ps
D + j=1 Aj , avec D diagonale (de termes 1 , . . . , s ) et Aj nilpotente dordre
j . Ainsi, en tenant compte de la forme par bloc de D et des Aj , on a la relation :
s X
X k s X
X j 1

k =
M Ckl kl l
Ckl kl l
j Aj = j Aj .
j=1 l=0 j=1 l=0

s X
X j 1

kk
Donc kM Ckl |j |kl avec = sup sup kAlj k qui est fini.
j=1 l=0 1js 0lj 1

Xs X
j 1

kk
On obtient kM Ckl (f )kl . Comme (f ) < 1, le terme de droite
j=1 l=0
36 CHAPITRE 2. SESSION DE 1990

converge vers 0 quand k tend vers linfini donc, M k converge vers 0 dans
(Mn (C), k.k). On en conclut que f k converge vers 0 dans (L(E), N ).
Reciproquement : supposons que f k converge vers 0 dans L(E). Lendomor-
phisme f k est represente par M k dans la base (e1 , . . . , en ). Soit une racine
de f et X un vecteur propre de M associe, appartenant `a Cn : M k X = k X.
En choisissant la norme doperateur sur Cn comme norme k k sur Mn (C), on
obtient :
kM k Xk
kM k k = sup |k |.
X6=0 kXk
Soit N la norme sur L(E) associee `a cette norme doperateur alors N (f k ) |k |.
Par ailleurs lhypoth`ese impose que lim N (f k ) = 0 donc || < 1. On en deduit
k
que (f ) < 1.
Signalons que (f ) sappelle dhabitude le rayon spectral de f . Cette serie
dequivalence permet den obtenir la caracterisation usuelle suivante (indepen-
dante de la norme choisie) :

(f ) = lim kf n k1/n .
n

Dabord la convergence de la suite (kf n k1/n )nN est un exercice classique.


Cette
P nlimite est alors linverse du rayon de convergence de la serie enti`ere reelle
kf kxn . En appliquant le lemme dAbel et la premi`ere equivalence, ce rayon
1
de convergence est aussi egal `a (f ).
Chapitre 3

Session de 1991

3.1 Sujet

37
38 CHAPITRE 3. SESSION DE 1991

3.2 Correction

A. Th
eor`
eme de Gauss-Lucas, s
eries lacunaires.

I. Le th
eor`
eme de Gauss-Lucas.
1. Enveloppe convexe dune partie dun espace affine reel E.

Ta. Soit (Ci )iI une famille quelconque de parties convexes de E.


Si iI Ci = alors elleTest evidemment convexe.
Sinon, pour tout x, y iI Ci on sait que pour tout i I, x Ci et y Ci .
Comme Ci est convexe alors

i I, [x, y] Ci ,
T
o`
u [x,
T y] designe le segment reliant x `a y. Ceci prouve que [x, y] iI Ci et
que iI Ci est convexe.

b. Soit C = {C E tel que C convexe et A C}. On a alors les deux


proprietes suivantes : C est non vide car E C et pour tout C C, A C. On
definit alors C(A) par :
\
C(A) = C.
CC

Dapr`es la question precedente, on sait que C(A) est convexe et par construction,
C(A) verifie la propriete :

(P) pour tout convexe K E, A K C(A) K.

On a unicite de cet ensemble car si C1 (A) et C2 (A) sont deux convexes verifiant
(P) alors : comme A C1 (A) et C2 (A) verifie (P) alors C2 (A) C1 (A). De la
meme mani`ere C1 (A) C2 (A) donc C1 (A) = C2 (A).
n
X
c. Soit B = {barycentres des syst`emes (i , Mi ) tels que i 6= 0, i 0}.
i=1
Par propriete de transitivite des barycentres, B est un convexe de lespace affine
E.
- Comme A = {M1 , . . . , Mn } alors il est evident que A B.
- Dautre part, si K est un convexe de E contenant A alors par definition
de la convexite, K contient tous les barycentres des syst`emes (i , Mi ) avec
P n
i=1 i 6= 0 et i 0 donc B K.

On a ainsi prouve que B verifie la propriete (P) donc B est lenveloppe convexe
de A.

2. Le theor`eme de Gauss-Lucas.
3.2. CORRECTION 39

p
Y
a. On a P = c (X i )ni avec ni 1, c complexe non nul, et les nombres
i=1
complexes i deux `a deux distincts. On en deduit que
p
X Y
P0 = c ni (X i )ni 1 (X j )nj
i=1 j6=i
p
X P
= ni
i=1
X i

et que
X ni p
P0
= .
P i=1
X i

b. Soit z tel que P 0 (z) = 0 et P (z) 6= 0 alors par legalite precedente, on a


p
X ni
0= .
i=1
z i

1 zi
Or zi = |zi |2 et ni N donc en prenant le conjugue de cette expression,
p
X z i
0= ni .
i=1
|z i |2

c. On a Z(P ) = {z C; P (z) = 0} = {1 , . . . p } donc par leP1.c., C(Z(P ))


p
est lensemble des barycentres des syst`emes (i , i ) tels que i=1 i 6= 0 et
i 0. Si z Z(P 0 ) alors distinguons deux cas :
si z Z(P ) alors z C(Z(P )),
si z / Z(P ) alors par la question precedente, on sait que z est barycentre
ni
du syst`eme i , |z i|
2 (cest la definition meme du barycentre). On a bien
Xp
ni ni
0 et 6= 0 donc z C(Z(P )).
|z i |2 i=1
|z i |2
On a alors prouve le theor`eme de Gauss-Lucas : Z(P 0 ) C(Z(P )).
3. Application `a la localisation des zeros dans un disque.
On suppose que Z(P )) D(0, R), disque de centre 0 et de rayon R. Comme
D(0, R) est convexe alors C(Z(P )) D(0, R). Le theor`eme de Gauss-Lucas
assure que Z(P 0 ) C(Z(P )) donc les zeros du polynome derive sont aussi de
module inferieur ou egal `a R.

II. Surjectivit
e des fonctions d
efinies par une s
erie la-
cunaire.
Comme tous les complexes ak sont distincts de 0, Pd est un polynome de
valuation n0 = 0 et de degre nd , Qd est un polynome de degre nd et de valuation
0 et Rd est un polynome de valuation 0 et de degre nd 1.
a. Comme Qd (X) = X nd Pd ( X1 ) et val(Qd ) = 0 alors
1
Z(Qd ) = {z C, Z(Pd )}.
z
40 CHAPITRE 3. SESSION DE 1991

1
Comme Rd (X) = X nd 1 Q0d ( X ) et val(Rd ) = 0 alors
1
Z(Rd ) = {z C, Z(Q0d )}.
z
Si Pd na pas de zeros dans D(0, ) alors Z(Qd ) D(0, 1/). Par le I.3. on en
deduit que Z(Q0d ) D(0, 1/) donc Rd na pas de zeros dans D(0, ).
b. Par definition de Qd et de Rd , on a clairement :
d
X
Qd (X) = ak X nd nk ,
k=0
d1
X
Q0d (X) = ak (nd nk )X nd nk 1 ,
k=0
d1
X d1
X
Rd (X) = ak (nd nk )X nk = nd (nd 1)X + ak (nd nk )X nk .
k=0 k=2

c. Prouvons ce resultat par recurrence. Soit H(d) lhypoth`ese :


+
X d
X
pour toute serie enti`ere lacunaire 1 z + ak z nk , le polyn
ome Pd = ak z nk
k=2 k=0
admet un zero de module inferieur ou egal ` a d .
Lhypoth`ese est vraie au rang 1 car dans ce cas, pour toute serie enti`ere lacunaire
de ce type, on a P1 = 1 z donc P1 admet une unique racine z = 1 de module
inferieur ou egal `a 1.
Supposons H(d 1) vraie et prouvons H(d). On consid`ere une serie enti`ere
lacunaire
+
X X d
1z+ ak z nk et Pd = ak z nk .
k=2 k=0
Pd1
Dans ce cas, Rd = nd (nd 1)X + k=2 ak (nd nk )X nk . Comme (nk )kN est
une suite strictement croissante, n1 = 1 et d 2 alors nd 2. Soit
d1
X nk
nd nk nd
S =1X + ak X nk
nd nd 1
k=2

nd 1
de telle sorte que Rd = nd S X . On definit la serie enti`ere lacunaire,
nd
+
X
1z+ bk z nk , avec
k=2
nk
nd nk nd
2 k d 1, bk = ak
nd nd 1

k d, bk = ak .

Dapr`es H(d 1), on sait que le polynome S admet un zero de module inferieur
ou egal `a d1 ce qui prouve que Rd admet un zero de module inferieur ou egal
`a d = ndn1
d
d1 . Par contraposee du a., Pd admet un zero de module inferieur
ou egal `a d donc H(d) est vraie.
3.2. CORRECTION 41

2. Existence dun zero de f .


a. On vient de voir que pour tout d N? , il existe z C tel que Pd (z) = 0
et |z| d . Or pour tout d 2,
d
X 1
ln d = ln
k=2
1 n1k

Comme (nk ) est une suite dentiers strictement croissante, lim nk = et


k
1 1 P 1
ln . La serie nk est convergente donc par crit`
ere de comparaison
1 n1k nk
P
des series `a termes positifs, ln 11 1 est convergente ce qui prouve que (d )d2
nk

est une suite bornee de C. Soit M = sup |d | alors


d1

d N? , z C tel que P (z) = 0 et |z| M.

b. Par le a., pour tout d N? , il existe zd D(0, M ) tel que P (zd ) = 0. La


suite (zd )dN a donc tous ses elements contenus dans le compact D(0, M ). On
peut en extraire une sous-suite convergente vers z D(0, M ). Comme f (zd ) =
f (zd ) Pd (zd ) alors

|f (zd )| sup |f (z) Pd (z)|.


zD(0,M )

Or Pd converge uniformement vers f sur D(0, M ) (le rayon de convergence de


la serie enti`ere lacunaire est infini et on a meme convergence normale sur tous
les compacts de C) donc lim |f (zd )| = 0. Comme f est continue et lim zd = z
d d
alors f (z) = 0.
3. On a
X
g(z) = g(0) + g 0 (0)z + bk z nk .
k=2

Soit y C. Si y = g(0) alors on a trouve un antecedent de y


Si y 6= g(0) alors g(z) = y secrit (car g 0 (0) 6= 0) :

X n nk
g 0 (0) bk y g(0) k g 0 (0)z
1 z = 0.
y g(0) y g(0) g 0 (0) y g(0)
k=2
n
g 0 (0)z bk y g(0) k
En posant Z = , ak = et en definissant f la
y g(0) y g(0) g 0 (0)
serie enti`ere lacunaire associee `a cette suite :

X
f (Z) = 1 Z + ak Z nk ,
k=2

on a
y g(0)
g(z) = y f (Z) = 0 et z = Z .
g 0 (0)
42 CHAPITRE 3. SESSION DE 1991

Comme g est une serie enti`ere lacunaire de rayon de convergence infini, il en est
de meme pour f et f verifie les hypoth`eses du 1. et 2. ce qui permet de conclure
par le 2.b. que f admet un zero dans C. On a alors trouve un antecedent de y
par g.

B. Localisation des z
eros dun polyn
ome.
1. Localisation des valeurs propres dune matrice.
a. On suppose que > 0. Soit i0 tel que kXk = |xi0 | = max1in |xi |. On
a alors kAXk |(AX)i0 |. Or
n
X X
|(AX)i0 | = | Ai0 j xj | |Ai0 i0 xi0 | |Ai0 j ||xj |
j=1 j6=i0

et pour tout j 6= i0 , |xj | kXk = |xi0 | donc

kAXk |(AX)i0 | kXkLi0 kXk.

On en deduit que si AX = 0 alors kXk = 0 donc X = 0 ce qui prouve que A


est injective. Comme la dimension est finie, A est inversible.
[n X c
b. Soit B = I A avec D(Aii , |Aij |) . Pour tout i = 1, . . . , n
1 j6=i
X X
|Bii | = | Aii | > |Aij | = |Bij |.
j6=i j6=i
X
Soit = min {|Bii | |Bij |} alors > 0 (car le nombre dindices est fini)
1in
j6=i
et par le a., on en conclut que B est inversible. Pour toute valeur propre de
A, la matrice I A est non inversible donc par contraposee,
n
[ X
D(Aii , |Aij |).
1 j6=i

2. Application aux polynomes.


On etablit par recurrence que P est au signe pr`es le polynome caracteristique
de A (il sagit meme du polynome minimal, voir la question I.C. du sujet de
1990) donc par le 1.b., tout zero de P est dans lensemble
n2
X
D(0, 1) D(an1 , |aj |).
j=0

Qp
3. Par le A.I.2.a. on a vu que lorsque P = c i=1 (X i )ni ,

X nj p
P0
= .
P j=1
X j
3.2. CORRECTION 43

Ainsi,
Z p
X 1 Z
1 P 0 (z) nj
dz = dz.
2i P (z) j=1
2i
z j

1
R dz
Par le theor`eme des residus, on sait que si j D, 2i zj
= 1 et si j
/ D,
1
R dz
2i zj = 0 donc
Z X
1 P 0 (z)
dz = nj .
2i P (z)
j tel que j D

C. Le th
eor`
eme de Grace.
1. Action de GL2 (C) sur la sph`ere de Riemann.
a. Soit le morphisme surjectif de GL2 (C) sur H defini par (A) = HA .
Lelement neutre du groupe multiplicatif H est lidentite et (A) = I si et
seulement sipour tout z C, HA (z) = z et HA () = . Par definition, en
a b
notant A = , on a HA () = ac = , HA (0) = db = 0 et HA (1) = a+b
c d
c+d

a 0
donc b = c = 0 et a = d. Reciproquement, il est clair que si A = ,
0 a
avec a C? , alors (A) = I. On en conclut que

a 0
ker = , a C? .
0 a


0 1 1 1 k 0
b. Soit M1 = 1 0 , M2 = 0 1 et Nk = 0 1 avec k C? .
Par un calcul elementaire sur les matrices 2 2, on constate que :
Multiplier la matrice A par la matrice M1 revient `a echanger les colonnes de la
matrice tandis que multiplier la matrice M1 par la matrice A revient `a echanger
les lignes de la matrice.
Multiplier la matrice A par la matrice M2 revient `a garder inchangee la premi`ere
colonne de la matrice et `a additionner les deux colonnes de la matrice tandis
que multiplier la matrice M2 par la matrice A revient `a additionner les deux
lignes de la matrice et `a garder inchangee la seconde ligne de la matrice.
Multiplier la matrice A par la matrice Nk revient `a multiplier par k la premi`ere
colonne de la matrice et `a garder inchangee la seconde colonne de la matrice
tandis que multiplier la matrice Nk par la matrice M revient `a multiplier par
k la premi`ere ligne de la matrice et `a garder inchangee la seconde ligne de la
matrice.
En multipliant par ces matrices, on peut effectuer toutes les operations
elementaires possibles sur les lignes et les colonnes. Or lorsque M GL2 (C), on
sait que M est transformee en lidentite apr`es une suite doperations elementaires
sur les lignes et les colonnes (methode du pivot de Gauss). Lensemble des ma-
trices
0 1 1 1 k 0 ?
, , o`ukC .
1 0 0 1 0 1
44 CHAPITRE 3. SESSION DE 1991

engendre donc GL2 (C).


c. Comme est un morphisme surjectif de GL2 (C) sur le groupe des ho-
mographies alors limage par de cet ensemble generateur de GL2 (C) est une
u k C? } engendre H avec
partie generatrice de H, cest `a dire : {H1 , H2 , hk o`

1
z S, H1 (z) = , H2 (z) = z + 1, hk (z) = kz.
z

2. Geometrie de la sph`ere de Riemann. On rappelle que le birapport de


z1 , z2 , z3 , z4 elements distincts de S est defini par

z4 z2 z3 z2
[z1 , z2 ; z3 , z4 ] =
z4 z1 z3 z1

avec la convention que = 1. Ainsi, un Scercle est caract


erise par trois
elements z1 , z2 , z3 de S tels que

= {z C tel que [z, z1 ; z2 , z3 ] R}.

a. Le birapport delements distincts de S est conserve par les homographies


H1 , H2 et hk donc le birapport est conserve par toute homographie (puisque
H1 , H2 et hk engendre H) ce qui prouve que limage dun Scercle par une
homographie est un Scercle.
Dautre part, H1 , H2 et hk sont continues pour la topologie associee `a la
sph`ere de Riemann (en particulier, une base de voisinages de l est constituee
des complementaires des disques fermes de C) et elles sont bijectives sur S donc
il en est de meme pour toutes les homographies. La fronti`ere dun Sdisque
ferme est un Scercle donc par continuite, limage dun Sdisque ferme par
une homographie est incluse dans un Sdisque ferme (car les proprietes de
connexite sont conservees) et par bijectivite, limage est un Sdisque ferme.
b. Si C est un cercle de C alors C est limage de 0 par une similitude. Si
C est une Sdroite alors par translation puis par rotation, on transforme cette
Sdroite en la droite dequation <(z) = 1/2. Cette droite est limage par H1
du translate de 0 par 1 : {z C, |z 1| = 1}. Ainsi, tout S cercle est limage
par au moins une homographie de 0 .
Il est clair que limage par H1 du disque unite est le complementaire du
disque unite ouvert donc de la meme mani`ere, tout Sdisque ferme est limage
par une homographie du disque unite de C.
3. Action de GL2 (C) sur les polynomes et sur la forme dapolarite.

a b e f
a. Soit A = c d
et B =
g h
deux elements de GL2 (C). On a

ae + bg af + bh
AB = donc pour tout polynome P Cn [X],
ce + dg cf + dh
n
(cf + dh)X (af + bh)
(AB)(P ) = (ce + dg)X + ae + bg P .
(ce + dg)X + ae + bg
3.2. CORRECTION 45
hXf

Dautre part, B(P ) = (gX + e)n P gX+e donc
n dXb
n dX b h cX+a f
A(B(P )) = (cX + a) g +e P dXb
cX + a g cX+a +e
= (AB)(P ).

Ce resultat prouve que lon definit bien une action de GL2 (C) sur Cn [X]. En
particulier, comme {M1 , M2 , Nk avec k C? } engendre GL2 (C), il nous suf-
fira detudier laction de ces matrices sur Cn [X] pour obtenir des resultats sur
laction de nimporte quelle matrice.
b. On a At (P ) = P (X + t) et At (Q) = Q(X + t) donc
n
X
Gn (At (P ), At (Q)) = (1)k P (k) (t)Q(nk) (t).
k=0

Appelons f cette fonction de t : elle est holomorphe sur C et


n
X
0 k (k+1) (nk) (k) (nk+1)
f (t) = (1) P (t)Q (t) + P (t)Q (t)
k=0
= P (t)Q(n+1) (t) + (1)n P (n+1) (t)Q(t).

Or P, Q Cn [X] donc f 0 (t) = 0 et pour tout t C,

Gn (At (P ), At (Q)) = f (t) = f (0) = Gn (P, Q).

n
X n
X
c. Soit P = pj X j Cn [X] et Q = qj X j Cn [X], il est clair que
j=0 j=0

n
X
Gn (P, Q) = (1)j j! (n j)! pj qnj .
j=0

Par le a., il suffit de prouver le resultat pour les matrices M1 , M2 , Nk avec


k C? .
On vient de voir que Gn (P, Q) = Gn (M2 (P ), M2 (Q)) car A1 = M2 .
De plus, pour tout polynome P Cn [X], pour tout k C? on a :

Xn
1
M1 (P ) = ) = (1)n
(1)n X n P ( pnj X j
X j=0
Xn
X pj
et Nk (P ) = kn P ( ) = kn Xj
k j=0
kj

ce qui donne
n
X
Gn (M1 (P ), M1 (Q)) = (1)j j! (n j)! pnj qj = (1)n Gn (P, Q)
j=0
46 CHAPITRE 3. SESSION DE 1991

n
X pj qnj j
et Gn (Nk (P ), Nk (Q)) = k 2n (1)j j! (n j)! X
j=0
k j k nj
= k n Gn (P, Q).
Le resultat est alors evident.
4. Effet de laction de GL2 (C) sur les zeros des polynomes.
a. Soit P un element non nul de Cn [X]. Par la theorie classique des po-
lynomes symetriques, on sait que x1 , . . . , xnk sont les racines de P comptees
avec leur multiplicite si et seulement si il existe c C? tel que :
nk
X
P =c (1)j j (x1 , . . . , xnk )X nkj .
j=0

Apr`es changement dindice, on constate que P secrit


n
X
P =c (1)jk jk (x1 , . . . , xnk )X nj .
j=k

Or la convention adoptee pour etendre les fonctions symetriques elementaires `a


S assure que :
n
X
k
P = (1) c (1)j j (x1 , . . . , xnk , , . . . , )X nj ,
j=0

o`
u l est un zero de multiplicite k.
b. Comme precedemment, il suffit de prouver le resultat pour les matrices
M1 , M2 , Nk , avec k C? . On a vu au 3.c. que pour tout polynome P Cn [X],
pour tout k C? ,

M1 (P ) = (1)n X n P ( 1 )

X
M2 (P ) = P (X + 1)


N (P ) = k n P ( X )
k
k
donc il est clair que la famille des zeros de M1 (P ) dans S (respectivement M2 (P ),
Nk (P )) est limage par lhomographie H1 (respectivement H2 , hk ) des zeros de
P dans S.
5. Le theor`eme de Grace.
a. On note F le Sdisque ferme contenant les zeros dans S de P et ne
contenant pas ceux de Q. Par le 3.a., il suffit de trouver une matrice A telle que
A(P ) et A(Q) verifient les hypoth`eses enoncees.
Supposons Q de degre n :
on consid`ere HA une homographie qui envoie un des zeros de Q sur l. Par
le 4.b., la famille des zeros dans S de A(Q) est limage par lhomographie HA
de celle des zeros dans S de Q donc A(Q) admet l comme zero dordre de
multiplicite 1 et le degre de A(Q) est strictement inferieur `a n.
Par le 4.b., la famille des zeros dans S de A(P ) est contenu dans limage par
HA de F . Sil existait z HA (F ) zero dans S de A(Q) alors en faisant agir par
3.2. CORRECTION 47

A1 , on trouverait un zero de Q dans F ce qui est contradictoire donc HA (F )


ne contient aucun zero dans S de A(Q).
Mais par le 2.a., HA (F ) est un Sdisque ferme et comme est une racine de
A(Q) alors HA (F ) ne contient pas l. Il sagit donc dun disque ferme de C et
on a bien les trois hypoth`eses desirees.
Si Q est de degre inferieur strictement `a n alors l est zero de Q et la
derni`ere partie du raisonnement montre quil ny a pas `a changer P et Q pour
avoir ces hypoth`eses.
b. Comme Q est de degre inferieur ou egal `a n 1 alors Gn1 (P 0 , Q) a un
sens et
n1
X
Gn1 (P 0 , Q) = (1)k P (k+1) (0)Q(n1k) (0)
k=0
Xn
= (1)k P (k) (0)Q(nk) (0).
k=1

Or Q(n) (0) = 0 donc Gn1 (P 0 , Q) = Gn (P, Q) = 0.


c. Prouvons le theor`eme de Grace par recurrence. Soit H(n) lhypoth`ese :
Pour tout P , Q Cn [X] non nuls tels que Gn (P, Q) = 0, tout Sdisque ferme
contenant tous les zeros dans S de P contient au moins un zero dans S de Q.
Au rang 1, on a P = aX + b, Q = cX + d non nuls et G1 (P, Q) = 0 assure
que adbc = 0. On en conclut que P et Q ont les memes racines donc le resultat
est evident.
Supposons lhypoth`ese vriae au rang n 1. Montrons la au rang n en rai-
sonnant par labsurde (comme cela est suggere au debut de cette question 5.).
Par le a. et le b., on trouve deux polynomes P et Q verifiant :
(i) Q est degre inferieur ou egal `a n 1.
(ii) D est un disque ferme de C contenant tous les zeros dans S de P .
(iii) aucun des zeros dans S de Q nappartient `a D.
(iv) Gn1 (P 0 , Q) = 0.
Par le theor`eme de Gauss-Lucas (A.I.3.), on sait que tous les zeros de P 0 sont
dans D, disque ferme de C. Comme P 0 , Q Cn1 [X] (cf (i)), et Gn1 (P 0 , Q) = 0
(cf(iv)), on peut appliquer lhypoth`ese de recurrence et D contient au moins
un zero dans S de Q. Ceci est contradictoire avec (iii) donc lhypoth`ese de
recurrence est vraie au rang n.
6. AutrePn forme du theor`eme de Grace.
Soit Q = j=0 (1)j j (x1 , . . . , xn )X nj . Par le 4.a. on sait que x1 , . . . , xn sont
les zeros de Q comptes avec leur multiplicite. On peut alors exprimer lhypoth`ese
sur les aj en terme dapolarite :

Gn (Q, P ) = (1)n Gn (P, Q)


Xn
= (1)n (1)j j! (n j)! Cnj aj (1)j j (x1 , . . . , xn )
j=0
n
X
n
= (1) n! aj j (x1 , . . . , xn ) = 0.
j=0
48 CHAPITRE 3. SESSION DE 1991

Comme D est un Sdisque ferme contenant tous les zeros de Q alors par le
theor`eme de Grace, le polynome P a au moins un zero dans S, eventuellement
, appartenant `a D.
7. Application.
n
X u
Legalite H(u) = 0 secrit Cnj aj bj uk = 0. Soit Q1 defini par Q1 = X n Q( )
j=0
X
alors
n
X
Q1 = (1)j Cnj bj uk X nj .
j=0

On a alors H(u) = 0 Gn (P, Q1 ) = 0. Comme tous les zeros dans S de P


sont de module inferieur ou egal `a R1 alors par le theor`eme de Grace, il existe
un zero z1 de Q1 tel que |z1 | R1 .
Or 0 nest pas racine de Q1 car Q est de degre exactement n et bn 6= 0 donc
u
Q1 (z) = 0 Q( ) = 0.
z
Comme les zeros de Q dans S sont de module inferieur ou egal `a R2 alors

u
R2 et |z1 | R1 ,
z1

ce qui prouve que |u| R1 R2 .

C. Le th
eor`
eme de Biernacki sur les sommes des
s
eries lacunaires.
1. Preliminaire : zeros de la derivee dun produit.
a. Comme z est un zero de 0 alors 1 (z)02 (z) + 2 (z)01 (z) = 0. Or
p
X

(z) = (1)j j (1 , . . . , p )z pj

1
j=0
p1
X


0
(p j)(1)j j (1 , . . . , p )z p1j ,
1 (z)
=
j=0

donc legalite 1 (z)02 (z) + 2 (z)01 (z) = 0. se traduit par


p
X
aj j (1 , . . . , p ) = 0
j=0


o`u pour tout 0 j p, aj = (1)j z p1j z02 (z) + (p j)2 (z) . Par le C.6.,
Xp
le polynome P = Cpj aj X j a au moins un zero dans S appartenant `a D1 car
j=0
D1 est un disque ferme complexe contenat tous les i .
3.2. CORRECTION 49

Dautre part,
p
X

(z X) p
= Cpj (1)j z pj X j


j=0
p1
X


p1 j
(1)j z p1j X j .
et p(z X)
= p Cp1
j=0

j
Comme p Cp1 = (p j)Cpj alors

(z X)p 02 (z) + p(z X)p1 2 (z)


p1
X
= (1)p 02 (z)X p + (1)j z p1j Cpj z02 (z) + (p j)2 (z) X j
j=0
p
X
= Cpj aj X j = P.
j=0

On sait alors quil existe D1 tel que P () = 0, cest `a dire :

(z )p 02 (z) + p(z )p1 2 (z) = 0.

Soit P1 (X) = (X )p alors z est racine de (2 P1 )0 . De la meme mani`ere


que precedemment, on trouve D2 tel que

(z )q P10 (z) + q(z )q1 P1 (z) = 0,

cest `a dire
p(z )p1 (z )q + q(z )q1 (z )p = 0.
Ce resultat est valable pour tout zero de 0 (infini ou non). Maintenant, comme
z
/ D1 , p 1, q 1 alors z 6= 0 et ne peut pas etre l.
b. Soit z un zero de 0 tel que z / D1 D2 . Par le a., il existe D1 ,
D2 \ {} tels que

p(z )p1 (z )q + q(z )q1 (z )p = 0.

Or z
/ D1 D2 donc z 6= 0 et z 6= 0 donc p(z ) + q(z ) = 0 et
p + q
z= .
p+q

Ceci prouve que z est combinaison convexe de (, p/(p + q)), (, q/(p + q))
donc
pA2 + qA1 pR2 + qR1
z D3 = D ,
p+q p+q
Comme D1 , D2 , D3 sont des disques fermes disjoints alors il existe trois
cercles 1 , 2 , 3 tels que les disques de fronti`ere i contiennent strictement Di
et soient disjoints. Cette construction assure que 0 ne sannule sur aucun des
i . Par le B.3., on a
Z
1 00 (z)
#{z Di , 0 (z) = 0} = dz.
2i i 0 (z)
50 CHAPITRE 3. SESSION DE 1991

Fixons 1 , . . . , q et faisons varier 1 , . . . , p : soit

i : D1p N Z
1 00 (z)
(1 , . . . , p ) 7 dz.
2i i 0 (z)

Dapr`es les proprietes de continuite des integrales dependant dun param`etre, i


est continue. Or D1p est connexe et i est `a valeurs enti`eres donc i est constante
sur D1p . On peut alors considerer que 1 = . . . = p = A1 .
De la meme mani`ere, en faisant varier les i , on peut considerer par propriete de
connexite et de continuite que 1 = . . . = q = A2 . Soit P = (X A1 )p (X A2 )q
alors
#{z Di , 0 (z) = 0} = #{z Di , P 0 (z) = 0}.

Or P 0 = (X A1 )p1 (X A2 )q1 p(X A2 + q(X A1 ) donc

P 00 p1 q1 1
0
= + + pA 2 +qA1
.
P X A1 X A2 X p+q

pA2 + qA1
Il est clair par hypoth`ese que
/ D1 D2 car D1 , D2 et D3 sont deux
p+q
`a deux disjoints donc
Z
1 P 00

#{z D1 , 0 (z) = 0} = =p1

2i Z1 P0

1 P 00
#{z D2 , 0 (z) = 0} = =q1

2i Z2 P0

1 P 00


#{z D3 , 0 (z) = 0} = = 1.
2i 3 P0

c. Tout dabord, il existe R1 < R telcque pour tout 1 i p, i D1 =


D(0, R1 ). Soit D2 = d(0, (p + 2q)R/p) en notant par d() le disque ouvert
correspondant.
Montrons que 0 ne sannule pas sur le cercle R de centre 0 et de rayon R. En
effet, supposons z zero de 0 :
Si z D1 D2 , |z| < R ou |z| > (p + 2q)R/p > R donc z / R .
Si z / D1 D2 et z 6= alors par le a., il existe D1 , D2 \ {} tels que

p(z )p1 (z )q + q(z )q1 (z )p = 0.

p + q
donc z = . Or || > (p + 2q)R/p et || < R donc
p+q

(p + 2q)R qR
|z| > = R.
p+q p+q
c
On en deduit que si z 0 alors soit z D1 , soit z
/ d(0, R) cest `a dire que
0 ne sannule pas sur R . Par le B.3., on sait alors que
Z
1 00
#{z D(0, R), 0 (z) = 0} = .
2i R 0
3.2. CORRECTION 51

De la meme mani`ere qu`a la question precedente, par connexite et continuite,


on se ram`ene au cas o`
u 1 = . . . = p = 0 D1 et 1 = . . . = q = D2
avec || > (p + 2q)R/p. Comme au b., on a

#{z D1 , 0 (z) = 0} = p 1 avec D1 = D(0, R1 ) et R1 < R.

2. Application `a la localisation des zeros dans un disque.


Montrons le resultat par recurrence descendante. Soit H(p) lhypoth`ese :
Pour tout polyn ome de degre n et de zeros 1 , . . . , n avec |1 | . . . |n |, si
R R?+ est tel que |p | R alors P 0 a au moins p 1 zeros de module inferieur
np
Y n+k
ou egal `
aR .
nk
k=0
Cette hypoth`ese est vraie pour p = n car dans ce cas, pour tout i, |i | R
et par le theor`eme de Gauss-Lucas (A.I.3), P 0 a tous ses zeros contenus dans le
disque de centre 0 et de rayon R. Le degre de P 0 vaut n 1 donc P 0 a (n 1)
zeros de module majore par R.
Supposons H(p + 1) vraie et montrons H(p) : on suppose que
n
Y
P = (X i ) avec |1 | . . . |n | et |p | R.
i=1

On constate que P secrit P = 1 2 avec


p
Y n
Y
1 = (X k ) et 2 = (X k ).
k=0 k=p+1

Le degre de 1 est p et celui de 2 est n p. Comme |p | R alors les zeros de


1 sont dans le disque D(0, R) et comme les i sont ranges par ordre croissant
en module, les zeros de 2 sont de module superieur ou egal `a |p+1 |.
Si |p+1 | > p+2(np)
p R = (2n p)R/p alors dapr`es le 1.c. (en remplacant R par
R + > R puis en faisant tendre vers 0), on sait que P 0 admet exactement
np
Y n+k
(p1) zeros de module inferieur ou egal `a R. Il est evident que R R .
nk
k=0
Si |p+1 | (2n p)R/p alors P verifie les hypoth`eses de la recurrence au rang
p + 1 avec R0 = (2n p)R/p. On en deduit que P 0 admet au moins p zeros de
np1
Y n+k
module inferieur ou egal `a R0 . Or R0 = (2n p)R/p donc
nk
k=0

np1
Y np
Y n+k
0 n+k
R =R .
nk nk
k=0 k=0

On en conclut que dans tous les cas, P 0 admet au moins (p 1) zeros de module
np
Y n+k
inferieur ou egal `a R ce qui prouve H(p).
nk
k=0

3. Existence dune infinite de zeros pour la somme dune serie lacunaire.


52 CHAPITRE 3. SESSION DE 1991

a. Ecrivons Q sous la forme


q
X ai
Q= Cnnqi (nr ni ) . . . (nq+1 ni )X ni .
i=0
Cnnqi

Par le C.7., il suffit de localiser les zeros des deux polynomes P1 et P2 o`


u
q
X q
X
P1 = ai X ni et P2 = Cnnqi (nr ni ) . . . (nq+1 ni )X ni .
i=0 i=0

Par hypoth`ese, les zeros de P1 = Pd sont de module inferieur ou egal `a R.


Normalisons le polynome P2 : P2 = grq (nq )P2 avec
q
X Yr
nj ni ni
P2 = Cnnqi X .
i=0
n
j=q+1 j
nq

Par le B.2., les zeros de P2 (et donc ceux de P2 ) sont contenus dans
Yr q2 r
nj nq1 X ni Y nj ni
D(0, 1) D Cnnqq1 , Cnq .
j=q+1
nj nq i=0 n nq
j=q+1 j

q2 nq
X X
Or ni 0 et Cnnqi Cnkq = 2nq = 2p donc
i=0 k=0

q2
X Yr Y
r X
q2
nj ni nj
Cnnqi Cnnqi
i=0
n
j=q+1 j
nq n
j=q+1 j
nq i=0
Yr
p nj
2 .
j=q+1
nj nq

nj
Comme nj nq 1 et 2p 1, les zeros de P2 sont de module inferieur ou egal `a
r
Y nj
2p . En appliquant le C.7., on en conclut que les zeros de Q sont
n nq
j=q+1 j
de module majore par
r
Y nj
R(p, r) = R 2p .
n
j=q+1 j
nq

b. Montrons par recurrence sur j que


rj
X j1
Y
Fj = ak (nri nk ) X nrj nk .
k=0 i=0

Au rang 0, on a dej`a vu au A.II.2.b. que


X r
1
X nr Pr ( )= ak X nr nk ,
X
k=0
3.2. CORRECTION 53

ce qui prouve lhypoth`ese au rang 0.


Supposons la vraie au rang j et montrons la au rang j + 1. Par definition,

X nrj nrj1 1 Fj+1 (X) = Fj0 (X)

et dapr`es lhypoth`ese, on sait que


rj1
X j
Y
Fj0 (X) = ak (nri nk ) X nrj nk 1 .
k=0 i=0

On en deduit que
rj1
X j
Y
Fj+1 = ak (nri nk ) X nrj1 nk
k=0 i=0

ce qui prouve lhypoth`ese au rang j + 1.


On constate que
q
X rq1
Y
Frq = ak (nri nk ) X nq nk .
k=0 i=0

q
X rq1
Y
1
Mais X p Q( )= grq (nk )ak X nq nk et grq (nk ) = (nri nk ) donc
X i=0
k=0

1
Frq (X) = X p Q( ).
X

c. Raisonnons par labsurde : soit j {0, . . . , r q} et supposons que Fj a


au moins nrj nq + 1 zeros de module strictement inferieur `a
Y 1
ni + k
Rj = R(p, r) .
k{0,...,p1}
ni k
i{q+1,...,rj}

On a deg(Fj ) = nrj car les complexes ak sont non nuls et par le 2., on sait que
Fj0 a au moins nrj nq zeros de module strictement inferieur `a

nq 1
Y nrj + k
Rj = Rj+1 .
nrj k
k=0

Par definition X nrj nrj1 1 Fj+1 = Fj0 et vu la formule obtenue pour les Fj ,
on constate que si 0 est zero de Fj0 alors nrj nrj1 1 = 0 et Fj+1 = Fj0 .
On en deduit que les zeros de Fj+1 sont exactement les zeros de Fj0 . De plus,
la suite (nk ) est strictement croissante donc nrj nrj1 + 1 et Fj+1 a au
moins nrj1 nq + 1 zeros de module strictement inferieur `a Rj+1 .
En reiterant ce procede, on trouve que Frq a au moins 1 zero de module
inferieur `a Rrq . Mais Rrq = 1/R(p, r) et dapr`es le a. et le b., tous les zeros
de Frq sont de module superieur `a 1/R(p, r) donc ceci est contradictoire.
54 CHAPITRE 3. SESSION DE 1991

1
On a F0 (X) = X nr Pr ( ) donc Pr a au plus nr nq zeros de module
X
strictement superieur `a 1/R0 et comme deg(Pr ) = nr alors Pr a au moins p
zeros de module inferieur ou egal `a
Y ni + k
1/R0 = R(p, r) .
k{0,...,p1}
ni k
i{q+1,...,r}

d. Pour tout p = nq , on va montrer que f admet au moins p zeros et comme


la suite (nk ) est un suite dentiers strictement croissante, cela prouvera que f
admet une infinite de zeros.
Soit p = nq fixe, R le plus grand des modules des zeros de Pq . On vient de
voir au c. que pour tout r > q, Pr admet au moins p zeros z1r , . . . , zpr de module
inferieur ou egal `a
r
Y Y k
1 1+ ni
R 2p nq k
.
j=q+1
1 nj k{0,...,p1}
1 ni
i{q+1,...,r}

P 1
La convergence de la serie nk assure que pour tout k = 0, . . . , p, le produit
Y Y
k k
infini (1 + ) est convergent, ainsi que (1 ). On en deduit que :
i=q+1
ni i=q+1
n i

M R?+ , r > q, z1r , . . . , zpr tels que Pr (zir ) = 0 et |zir | M.

Comme les suites (zir )rq+1 sont contenues dans le compact D(0, M ) alors
par un procede dextraction diagonale, on peut supposer que ces p suites sont
convergentes vers zi . La serie enti`ere f a un rayon de convergence infini donc
Pr converge uniformement vers f sur D(0, M ) et de la meme mani`ere quau
A.II.2.b., on conclut que pour tout i = 1, . . . , p, f sannule en zi .
4. Le theor`eme de Biernacki.
On pose f (z) = g(z) y et f verifie evidemment les hypoth`ese du 4. donc f
admet une infinite de zeros et lequation g(z) = y admet une infinite de solutions
dans C.

3.3 Commentaires
Ce probl`eme est typique dune epreuve de mathematiques generales `a lagre-
gation. On y utilise des techniques dalg`ebre, danalyse et de geometrie. Le debut
du probl`eme peut etre considere comme du cours sur la localisation des zeros
des polynomes, la geometrie de la sph`ere de Riemann ainsi que les homogra-
phies. Letude dune action de groupe de GL2 (C) sur Cn [X] permet detablir le
theor`eme de Grace sur la localisation des zeros dans la sph`ere de Riemann dun
polynome. Enfin, la derni`ere partie demande de bien matriser les differents
outils introduits dans les parties precedentes pour demontrer le theor`eme de
Biernacki :
pour toute serie enti`ere lacunaire g de rayon de convergence infini, lequation
g(z) = y admet une infinite de solutions dans C.
Chapitre 4

Session de 1992

4.1 Sujet

55
56 CHAPITRE 4. SESSION DE 1992

4.2 Correction

I. Lespace vectoriel H0 (A)


A. Pr eliminaires
1. Lapplication T est clairement lineaire. Pour tous a, a0 A2 , aa0 a0 a
[A, A] donc T (aa0 a0 a) = 0 par definition de T . Do`
u T (aa0 ) T (a0 a) = 0,
donc T (aa0 ) = T (a0 a) : T est une trace.
2. On a [A, A] ker car :
n n
X X
i (ai a0i a0i ai ) = i ( (ai a0i ) (a0i ai )) = 0.
i=1 i=1

On en deduit que se factorise `a travers A/[A, A] = H0 (A). Precisons le rai-


sonnement, et pour cela partons de H0 (A). Prenons un representant a
de (i.e. T (a) = ) et posons () = (a). Cela definit bien : en effet si
b A est un autre representant de (i.e. T (b) = ) on a a b [A, A] donc
0 = (a b) = (a) (b). On a fait ce quil fallait pour que T = . Il est
clair qualors est lineaire car T est lineaire surjective et est lineaire. Enfin
lunicite de est une consequence triviale de la surjectivite de T ; soit en effet
H0 (A) et a un de ses representants : () = (a) donc () est uniquement
determine.
Soit
: L(H0 (A), V ) T (A, V )
t 7 t T.
A priori est `a valeurs dans L(A, V ) mais si a, a0 A :

t T (aa0 ) t T (a0 a) = t T (aa0 a0 a) = t T ([a, a0 ]) = t T (0) = 0,


donc t T (aa0 ) = t T (a0 a) et t T est une trace : t T T (A, V ).
Lapplication est lineaire. Lexistence de la factorisation precedente par
assure sa surjectivite et lunicite de cette factorisation assure son injectivite :
est un isomorphisme.
3.a. On note TA et TB les projections canoniques sur H0 (A) et H0 (B).
Puisque f est un morphisme dalg`ebres il est facile de voir que f ([A, A])
[B, B]. Or [B, B] = ker TB donc [A, A] ker(TB f ) : dapr`es 2., lapplication
lineaire TB f se factorise `a travers le quotient A/[A, A] qui est H0 (A).
Lapplication lineaire quotient H0 (f ) de H0 (A) vers H0 (B) ainsi obtenue
verifie la relation H0 (f ) TA = TB f. Compte tenu de la surjectivite de TA
cette derni`ere egalite determine H0 (f ) de facon unique.
3.b. On est dans la situation de la question prec`edente avec B = A. Soit
H0 (A) et a un representant de dans A. Comme T est une trace, T (uau1 ) =
T (au1 u) = T (a) et
(H0 (f ))() = (H0 (f ))(T (a))
= T f (a)
= T (uau1 )
= T (a)
= .
4.2. CORRECTION 57

Donc H0 (f ) = IdH0 (A) .

B. Les alg`
ebres de matrices
1. Lapplication T T r est bien definie de Mn (A) vers H0 (A) et est lineaire
comme composee dapplications lineaires. Soient M et N Mn (A) :

T T r(M N ) T T r(N M ) = T T r(M N N M )


X n
= T (M N N M )j,j
j=1
Xn Xn n X
X n
= T mj,i ni,j nj,i mi,j
j=1 i=1 j=1 i=1
Xn X n Xn X n
= T mj,i ni,j ni0 ,j 0 mj 0 ,i0
j=1 i=1 i0 =1 j 0 =1
Xn X n n X
X n
= T mj,i ni,j ni,j mj,i
j=1
n
X
i=1
i=1 j=1

= T [mj,i , ni,j ]
i,j=1
n
X
= 0 (car [mj,i , ni,j ] [A, A]).
i,j=1

Donc T T r est bien une trace de Mn (A) vers H0 (A).


2.a. On a :
[Eij (a), Ekl (b)] = Eij (a)Ekl (b) Ekl (b)Eij (a) = jk Eil (ab) il Ekj (ba).

2.b. Faisons l = i, j = k = 1, b = 1 et utilisons alors le calcul precedent. Il


vient :
[Ei1 (a), E1i (1)] = Fi (a).

2.c. Soit m Mn (A). Posons :


X X
a= Eij (mi,j ) + Fi (mii ) + E11 (T r(m)).
1i6=jn 2in

Soient 1 k, l n :
Si k 6= l alors akl = mkl .
XSi k = l on distingue deux cas : si k 6= 1, akl = mkl , et si k = 1, a11 =
mkk + T r(m) = m11 .
k6=1
Donc a = m et on a demontre lexistence de lecriture demandee.
Enfin on sait que si Dn = {m Mn (A) ; mij = L0 si i 6= j} et si Cn = {m
Mn (A) ; mij = 0 si i = j}, on a Mn (A) = Cn Dn . Comme il est clair que
Eij (1)i6=j est une base du Amodule Cn (donc `a fortiori une famille libre sur
58 CHAPITRE 4. SESSION DE 1992

k) et que E11 (1) {Fi (1)}i6=1 est une Abase de Dn (donc une famille libre sur
k) on a lunicite de lecriture demandee.
2.d. Soit m Mn0 (A) : on a T r(m) ker T i.e. T r(m) [A, A].
Si i 6= j, Eij (mij ) = [Ei1 (mij ), E1j (1)] dapr`es a.. En particulier Eij (mij )
[Mn (A), Mn (A)].
Dapr`es b., Fi (mii ) [Mn (A), Mn (A)]. X
T r(m) [A, A] donc T r(m) peut secrire sous la forme i [ai , ai0 ]. Alors
X
E11 (T r(m)) = i E11 ([ai , ai0 ]). Mais le a. prouve que :

E11 ([ai , ai0 ]) = [E11 (ai ), E11 (ai0 )].

On en deduit facilement que E11 (T r(m)) [Mn (A), Mn (A)].


Compte tenu de la decomposition de m obtenue au c. tout ceci assure que
m [Mn (A), Mn (A)]. On a donc prouve que Mn0 (A) [Mn (A), Mn (A)]. Enfin
Mn0 (A) etant defini comme un noyau, cest un sev de Mn (A), que lon peut voir
aussi comme un sev de [Mn (A), Mn (A)].
2.e. Dapr`es a., T T r est une trace donc en appliquant A.2. on sait que
T T r = T T r TMn (A) (cette notation ayant un sens evident).
Les applications T et T r sont surjectives donc T T r lest aussi et cette
factorisation prouve que T T r lest egalement.
Soit ker T T r et m Mn (A) un representant de : TMn (A) (m) = .
Il vient T T r(m) = T T r TMn (A) (m) = T T r() = 0 donc m Mn0 (A) et
dapr`es d., m [Mn (A), Mn (A)]. On en deduit que = TMn (A) (m) = 0 et cela
prouve linjectivite de T T r.
Finalement il sagit bien dun isomorphisme.

C. Lalg`
ebre dun groupe fini
X
1. Posons k[G] definie par = f (g)g (somme finie). Pour tout
gG
h G on a : X
(h) = f (g)g (h)
gG X
= f (h)h (h) + f (g)g (h)
g6=h
= f (h)1 + 0
= f (h),
donc = f . Ceci prouve que la famille {g }gG est une partie generatrice de
lespace vectoriel k[G]. P
Supposons maintenant quon ait des g k tels que : gG g g = 0k[G] .
Prenons h G quelconque et appliquons lui cette relation fonctionnelle : il vient
exactement h = 0. Comme h est choisi quelconque, la famille {g }gG est une
partie libre de lespace vectoriel k[G]. Cest finalement une base.
X
2. Soit t G : g g0 (t) = g (h)g0 (h1 t). Si h = g et h1 t = g 0
hG
alors g (h)g0 (h1 t) = 1 et sinon g (h)g0 (h1 t) = 0. Donc quand t = gg 0 ,
g (h)g0 (h1 t) = 1 (si h = g) ou 0 (si h 6= g) et quand t 6= gg 0 on a
4.2. CORRECTION 59

g (h)g0 (h1 t) = 0 quel que soit h. Finalement g g0 (t) = 1 si t = gg 0 et


0 sinon :

() g g0 = gg0 .

La bilinearite de ce produit de convolution est evidente. On va verifier son


associativite sur les elements de la base :

(g g0 )g00 = gg0 g00 = (gg0 )g00 = g(g0 g00 ) = g g0 g00 = g (g0 g00 )

(en utilisant la relation que nous venons de demontrer et l associativite dans


G). On a ainsi muni k[G] dune structure dalg`ebre. Il est evident que e en est
lunite (car e g = eg = g et de meme g e = ge = g ).
3. Lapplication TC est clairement lineaire. Soient f, f 0 k[G] :
X
TC (f f 0 ) = f f 0 (g)
gC
X X
= f (h)f 0 (h1 g).
gC
X hG
X
TC (f 0 f ) = f 0 (h)f (h1 g)
gC
X hG
X
= ( f (h1 g)f 0 (h))
gC
X hG
X
= ( f (t)f 0 (gt1 )) (avec t = h1 g)
gC tG

X X
Donc TC (f f 0 ) TC (f 0 f ) = f (h)( f 0 (h1 g) f 0 (gh1 )) ou encore :
hG gC

X X X
TC (f f 0 ) TC (f 0 f ) = f (h)( f 0 (h1 g) f 0 (gh1 )).
hG gC gC

Fixons h G. Pour tout g C il existe un unique g 0 C tel que h1 gh = g 0


cest-`a-dire h1 g = g 0 h1 . Posons g 0 = (g) : definit une application de C
dans C.
Si (g1 ) = (g2 ) alors h1 g1 = (g1 )h = (g2 )h = h1 g2 donc g1 = g2 : est
injective. C etant finie, est bijective. Donc :
X X X
f 0 (g 0 h1 ) = f 0 ((g)h1 )) = f 0 (h1 g).
g 0 C gC gC

En injectant cette egalite dans le calcul precedent on obtient enfin que TC (f f 0 )


TC (f 0 f ) = 0 et donc TC est une trace.
4.a. Soit (k[G]) (espace dual de k[G]). Pour tout g G posons a(g) =
(g ). CeciX
definit bien un element a de k[G]. Pour tout f k[G] on sait dapr`es
1. que f = f (g)g .
gG
X X X
On a alors ( f (g)g ) = f (g)(g ) = a(g)f (g).
gG gG gG
60 CHAPITRE 4. SESSION DE 1992

4.b. En particulier une trace de k[G] `a valeurs dans k est une forme lineaire
sur k[G]. Donc si estXune telle trace, il existe a k[G] tel que pour tout
f k[G] on ait (f ) = a(g)f (g) (en invoquant la question precedente a.).
gG
Considerons g1 et g2 appartenant `a une meme classe de conjugaison : il existe
h0 G tel que g1 = h0 g2 h1
0 . On a :

a(g1 ) = (g1 ) = (h0 g2 h1 )


0
= (h0 g2 h1 ) (d0 apr`es
0
= (h1 h0 g2 ) car est une trace
0
= (g2 ) (d0 apr`es
= a(g2 ).
Donc en fait si C est une classe de conjugaison donnee il existe aC k tel que
pour tout g C on ait a(g) = aC . On a alors pour tout f k[G] :
X
(f ) = a(g)f (g)
gG
X X
= a(g)f (g) (la premi`ere somme porte sur l0 ensemble C des
CC gC
classes
X Xde conjugaison car celles ci partitionnent G)
= aC f (g)
CC
X gCX
= aC f (g)
CC
X gC
= aC TC (f ),
CC

ce qui prouve le resultat.


5. Par le 3., {TC }CC T (k[G], k) et le 4.b. assure que cette famille est
generatrice de T (k[G],
P k).
Supposons que C C TC = 0T (k[G],k) . Fixons une P classe de conjugaison C0
et
P f la fonction valant 1 sur C 0 et 0 ailleurs. On a ( C C TC )(f ) = 0, donc
C C TC (f ) = 0, soit C0
card(C 0 ) = 0, et finalement C0 = 0. Comme C0
etait choisie quelconque cela prouve que la famille est libre : elle forme bien une
base de T (k[G], k).
On applique le resultat de la question A.2. avec A = k[G] et V = k. La
situation est la suivante :
: T (k[G], k) (H0 (k[G]))
= T 7 .
Il sagit dun isomorphisme. Comme il transforme la famille des TC , qui est une
base de T (k[G], k), en la famille des TC , cette derni`ere est `a son tour une base
de (H0 (k[G])) .
6. Pour un espace vectoriel de dimension finie, on sait que : dimE =dimE .
Donc dimH0 (k[S4 ]) =dim(H0 (k[S4 ])) . Mais dim(H0 (k[S4 ])) est le nombre de
classes de conjugaison de S4 dapr`es la question 5.. Il y en a 5 : les 4-cycles, les
3-cycles, les produits de deux transpositions `a supports disjoints, les transposi-
tions, lidentite. Donc finalement dimH0 (k[S4 ]) = 5.
4.2. CORRECTION 61

II. Ind
ecomposabilit
e de Z[G]
A. Idempotents
1.a. (e + f )2 = (e + f )(e + f ) = e2 + ef + f e + f 2 = e + 0 + 0 + f = e + f
donc e + f P (A).
1.b. (1 e)2 = 1 e e + e2 = 1 e e + e = 1 e donc 1 e P (A).
e(1 e) = e e2 = e e = 0 et (1 e)e = e e2 = e e = 0 donc e et 1 e
sont orthogonaux.
2. Soit e P (A). Alors dapr`es 1. 1 e est idempotent et e et 1 e sont
orthogonaux donc dapr`es (R3) on a : r(e + 1 e) = r(e) + r(1 e).
Mais r(e + 1 e) = r(1) = 1 (dapr`es (R1)) donc r(e) + r(1 e) = 1.
Or r(e) N et r(1 e) N donc r(e) = 0 ou r(1 e) = 0. Si r(e) = 0 alors
dapr`es (R2) e = 0. Sinon r(1 e) = 0 et pour la meme raison 1 e = 0 donc
e = 1.
3. Supposons que A ne soit pas indecomposable. Alors, par definition, il
existe deux anneaux A1 et A2 non triviaux et un isomorphisme danneaux de
A sur A1 A2 . Soit lisomorphisme reciproque et posons = (1A1 , 0A2 ).
0A1 A2 = (0A1 , 0A2 ) donc 6= 0A1 A2 ce qui force () 6= 0A .
1A1 A2 = (1A1 , 1A2 ) donc 6= 1A1 A2 ce qui force () 6= 1A .
Mais (1A1 , 0A2 )(1A1 , 0A2 ) = (1A1 1A1 , 0A2 0A2 ) = (1A1 , 0A2 ) donc est idem-
potent. On a alors ()2 = (2 ) = () ce qui prouve que () est un
idempotent de A. Cest absurde car les seuls idempotents de A sont 0A et 1A .
4. Si e Mn (k) est idempotente alors e annule le polynome X 2 X =
X(X 1) qui est scinde `a racines simples sur k. Donc e est diagonalisable et ses
seules valeurs propres possibles sont les racines de ce polynome : 0 et 1. Il existe
P GLn (k) telle que P 1 eP = diag(1, . . . , 1, 0, . . . , 0). Si m est le nombre de 1
dans cette matrice diagonale, on a rg(e)1 = rg(P 1 eP )1 = m1 et
T r(e) = T r(P 1 eP ) = 1 + . . . + 1 = m1
| {z }
m termes

donc on a lidentite voulue.

B. Ind ecomposabilit e
1. Z[G] est clairement un sous-groupe additif de Q[G]. Il contient lunite
e . Il est clairement stable par multiplication (car si a et b sont des entiers
ag bg0 = abgg0 : ab est un entier et on conclut par bilinearite). Comme Q[G]
est un anneau, cela prouve que Z[G] en est un sous-anneau.
X
2. Soit x Z[G]. Alors x secrit n(h)h , les n(h) etant entiers.
hG
Pour tout g G on a :
x
(g ) = xX g
= ( n(h)h )g
hG X
= n(e)g + n(h)hg
h6
X =e
= n(e)g + n(ug 1 )u .
u6=g
62 CHAPITRE 4. SESSION DE 1992

Rappelons queXles g forment une base de Q[G]. Ce petit calcul justifie donc
que T r(
x) = n(e) = N n(e). Mais par definition n(e) = (x) donc :
gG

T r(
x) = N (x).

3. Soit x P (Z[G]) et x lendomorphisme correspondant de Q[G]. Si y


Q[G] on a
x
x(y) = x(xy) = x(xy) = x2 y = xy = x
(y).
Ceci prouve que x est un idempotent de lanneau L(Q[G]). Comme Q[G] est
fini de dimension N on peut appliquer le A.4. en confondant x avec sa matrice
representative (element de Mn (Q)) dans la base des g . On obtient rg( x) =
T r(x). Dapr`es 2., N (x) = rg( x) ce qui assure (x) 0. Or est `a valeurs
dans Z donc sa restriction `a P (Z[G]) est `a valeurs dans N.
Par definition (e ) = 1 et (0) = 0 : (R1) est verifiee.
Si x P (Z[G]) est non nul alors on a aussi x 6= 0 car x
(e ) = x. Dans ce
cas rg( x) > 0 et donc (x) > 0 : (R2) est verifiee.
(x1 + x2 ) = n1 (e) + n2 (e) = (x1 ) + (x2 ) : (R3) est verifiee.
On sait alors en utilisant A.2. que les seuls idempotents de Z[G] sont 0 et
1(= e ). On peut donc invoquer A.3. pour enfin obtenir lindecomposabilite de
Z[G].

III. Lespace vectoriel H1 (A)

1. Soit p la projection canonique XA C(A) = XA /YA . Soient x C(A)


et x XA un repr
X esentant de x : p(x) = x.
On a x = (a,b) X(a,b) avec une famille de (a,b) nulle sauf pour un
(a,b)AA
nombre fini de termes.

x = p(x)
X
= p (a,b) X(a,b)
(a,b)AA
X X
= p (a,b) X(a,b) + p (a, b, (a,b) )
(a,b)AA (a,b)AA,(a,b) 6=0
(car
(a, b,X
(a,b) ) YA )
= p (a,b) X(a,b) + (a, b, (a,b) )
(a,b)AA,
X
(a,b) 6=0

= p X((a,b) a, b)
(a,b)AA,(a,b) 6=0
X
= p(X((a,b) a, b))
(a,b)AA,(a,b) 6=0
X
= [((a,b) a) b].
(a,b)AA,(a,b) 6=0
4.2. CORRECTION 63

On a donc exprime tout element de C(A) sous la forme desiree.


2. Pour tout (a, b) A A on a (a, b) = X(a,b) + X(b,a) YA . Donc :
0 = p((a, b)) = p(X(a,b) + X(b,a) ) = p(X(a,b) ) + p(X(b,a) ) = a b + b a,

ce qui prouve que a b = b a.


De meme (a, b, c) = X(ab, c) X(a, bc) + X(ca, b) YA et en projetant par
p, lineaire, sur XA /YA , il vient :

0 = ab c a bc + ca b,
soit la seconde identite cherchee en changeant de membre.
Enfin faisons b = c = 1 dans cette derni`ere identite : il vient a 1 = 0, et la
premi`ere force alors aussi 1 a = 0.
3. La famille {X(a,b) }(a,b)AA constitue une base de FA , donc pour definir
une application lineaire de FA dans V il suffit dimposer arbitrairement des
valeurs sur ses elements. Ainsi on appelle f lapplication lineaire de FA dans V
definie par f(X(a, b)) = f (a, b) pour tout (a, b) A A. Si a, b, c A et k
on a :
f((a, b)) = f(X(a, b) + X(b, a)) = f (a, b) + f (b, a) = 0.
f((a, b, c)) = 0 car f (a, bc) = f (ab, c) + f (ca, b).
f((a, b, )) = f((a, b, c)) = 0 car f est bilineaire.
On a alors YA ker f et dapr`es un theor`eme de factorisation, il existe f
L(XA /YA , V ) (cest-`a-dire L(C(A), V )) tel que f = f p. En appliquant cette
relation `a X(a, b) on obtient f(X(a, b)) = f(a b). Compte tenu de la definition
de f cela signifie que f (a, b) = f(a b). Enfin on sait depuis le 1. que les
a b engendrent lespace vectoriel C(A) donc cette derni`ere relation assure, par
linearite, lunicite de f.
4.a. On reprend les notations de la question 3. avec V = A et f le crochet
de A. Il est immediat de constater que ce crochet de commutation est bien bi-
lineaire, antisymetrique, et satisfait `a lidentite de Jacobi, comme lapplication f
dans cette question. On en applique donc le resultat en appelant A lapplication
f : A repond `a la question.
4.b. Il est clair, par definition de A , que imA = [A, A]. (Un argument
rigoureux pour le montrer invoquerait bien s ur le 1. et le a.). Donc A (CA ) =
[A, A]. Alors par definition de H0 (A) on a A/A (CA ) = H0 (A).
5.a. On a :
p
X
T r0 (Eij (a), Ekl (b)) = (Eij (a)) (Ekl (b))
,=1
= a (Ekl (b))ji
= a (kj li b)
= kj li a b.

5.b. Il suffit dappliquer le resultat de 3. avec V remplace par C(A), A


remplace par Mp (A) et f remplacee par T r0 . Pour cela on constate dabord
que T r0 est bilineaire (ce qui est une consequence de la bilinearite du produit
64 CHAPITRE 4. SESSION DE 1992

exterieur ). Ensuite pour verifier les hypoth`eses de la question 3. on developpe


T r0 (m, n) par bilinearite suivant les Eij (a) et enfin, compte tenu du calcul du
a., on conclut `a laide des deux premi`eres relations obtenues au 2.
5.c. Montrons que A Td r0 = T r Mp (A) . Pour cela partons de
X
C(Mp (A)). On sait depuis 1. que = m n o` u est un ensemble fini.

p
X p
X
Ici m = Eij (mij ) et n = Ekl (nkl ). On a :
i,j=1 k,l=1
X
d
(A T r0 )() d
= A ( T r0 ( m n ))
X
= A ( Td r0 (m n ))
X

= A (T r0 (m , n ))

X p
X
= A ( mij nji )
i,j=1
p
X X
= A (mij nji )
i,j=1
X X p
= [mij , nji ].
i,j=1

On a aussi :
X
(T r Mp (A) )() = T r(Mp (A) ( m n ))
X
= T r(Mp (A) (m n ))
X

= T r([m , n ])
X

= T r(m n n m )

p
X X
= ( (m n )ii (n m )ii )
i=1
X X p p
X
= ( mij nji nij mji )
i,j=1 i,j=1
X X p X p
= ( mij nji nji mij )
i,j=1 i,j=1
X X p
= ( [mij , nji ]).
i,j=1

d
Donc on a A T r0 () = T r Mp (A) () ce qui assure le resultat voulu.
Soit maintenant H1 (Mp (A)) = ker Mp (A) . Grace `a ce qui prec`ede,

d
A T r0 () = T r Mp (A) () = T r(0) = 0,
d
donc T r0 () ker A = H1 (A) : T r1 est `a valeurs dans H1 (A).
4.2. CORRECTION 65

n
X
5.d. Soit H1 (A) : = a b . Dapr`es a., pour tout on a :
=1

d
a b = T r0 (E11 (a ), E11 (b )) = T r0 (E11 (a ) E11 (b )).
n
X n
X
Donc = d
T d
r0 (E11 (a ) E11 (b )) = T r0 ( E11 (a ) E11 (b )).
=1 =1
n
X
On pose alors = d
E11 (a ) E11 (b ) : on a = T r0 ().
=1
n
X
Mp (A) () = Mp (A) ( E11 (a ) E11 (b ))
=1
n
X
= Mp (A) (E11 (a ) E11 (b ))
=1
Xn
= [E11 (a ), E11 (b )]
=1
Xn
= E11 ([a , b ]) (d0 apr`es I.B.2.a.)
=1
Xn
= E11 (A (a b ))
=1
n
X
= E11 (A ( a b ))
=1
= E11 (A ())
= E11 (0) (car H1 (A) = ker A )
= 0.
Donc ker Mp (A) = H1 (Mp (A)) ce qui prouve que T r1 est surjective.
X X
6.a. On pose P = pn tn et Q = qn tn . On a alors :
nZ nZ
X X
P0 = (n + 1)pn+1 tn et Q0 = (n + 1)qn+1 tn .
nZ nZ

Par definition du produit dans lalg`ebre k[t, t1 ] il vient :

X X X X
PQ = ( pi qj )tn donc (P Q)0 = (n + 1)( pi qj )tn .
nZ i+j=n nZ i+j=n+1

Ensuite :
X X X X
P 0Q = ( (i + 1)pi+1 qj )tn et P Q0 = ( pi (j + 1)qj+1 )tn .
nZ i+j=n nZ i+j=n

On fait les changements dindices k = i + 1 et l = j + 1 dans ces deux derni`eres


expressions :
X X X X
P 0Q = ( kpk qj )tn et P Q0 = ( pi lql )tn .
nZ k+j=n+1 nZ i+l=n+1
66 CHAPITRE 4. SESSION DE 1992

Et en les additionnant on obtient :


X X X
P 0 Q + P Q0 = ( kpk qj + lpi ql )tn
nZ
X k+j=n+1
X i+l=n+1
X
= ( ipi qj + jpi qj )tn
X i+j=n+1
nZ X i+j=n+1
= ( (i + j)pi qj )tn
X i+j=n+1
nZ X
= (n + 1)( pi qj )tn
nZ i+j=n+1
= (P Q)0 .
Par ailleurs res(P 0 ) = (n + 1)pn+1 pour n = 1, donc res(P 0 ) = 0.
6.b. Encore une fois il suffit de verifier que lapplication de k[t, t1 ]k[t, t1 ]
dans k qui `a (P, Q) associe res(P Q0 ) satisfait aux hypoth`eses de la question 3.
(avec ici A = k[t, t1 ] et V = k).
Il est immediat de verifier la bilinearite de cette application.
De plus :

res(P Q0 ) + res(QP 0 ) = res(P Q0 + P 0 Q)


= res((P Q)0 ) (d0 apr`es a.)
= 0 (toujours d0 apr`es a.).

res(P (QR)0 ) = res(P (QR0 + Q0 R))


= res(P QR0 ) + res(P Q0 R)
= res((P Q)R0 ) + res((RP )Q0 ).
Donc les deux identites fixees au 3. sont bien demontrees dans ce cas et on
obtient en appliquant le resultat de cette question lexistence de f, que lon
note ici Res, et qui poss`ede les caracteristiques requises.
6.c. Montrons par recurrence sur n N que pour tout P k[t, t1 ] on a
P tn = nP tn1 t.
Si n = 0 la propriete secrit P 1 = 0 ce que lon a demontre au 2..
Supposons la propriete verifiee au rang n et etudions le rang n + 1. Dapr`es
lidentite de Jacobi (la seconde relation du 2.),

P tn+1 = P (tn t) = P tn t + tP tn .

Mais dapr`es lhypoth`ese de recurrence au rang n appliquee `a tP on a :

tP tn = ntP tn1 t = nP tn t.

Donc il vient :

P tn+1 = P tn t + nP tn t = (n + 1)P tn t,
ce qui ach`eve la recurrence.
Pour montrer la propriete sur Z \ N, on constate dapr`es lidentite de Jacobi
que
0 = P tn 1 = P tn tn tn = P tn + P t2n tn .
4.2. CORRECTION 67

Comme P t2n k[t, t1 ], on sait alors que pour n 0, P t2n tn = ntn1 P t


ce qui prouve que
P tn = ntn1 P t.
On rappelle que le produit est bilineaire (en etudiant les classes de et on
obtient la linearite par rapport
X `a la premi`eXre variable, ce qui est suffisant par
n
antisymetrie.) Posons P = pn t et Q = qn tn . Alors :
nZ nZ
X
P Q = qn P tn
X
nZ
= qn nP tn1 t (formule precedente)
nZX
= P( nqn tn1 ) t
X
nZ
= P( (n0 + 1)qn0 +1 tn ) t
n0 Z
= P Q0 t.
On a aussi Q P = QP 0 t. Comme P Q = Q P on a bien egalement
P Q = QP 0 t.
Enfin on a :
P Q0 t = QP 0 t
P Q t + QP 0 t
0
= 0
(P Q0 + QP 0 ) t = 0
(P Q)0 t = 0.
En particulier si Q = 1 cela donne P 0 t = 0.
6.d. Il est clair que k[t, t1 ] est une alg`ebre commutative donc k[t,t1 ] est
lapplication nulle : H1 (k[t, t1 ]) = C(k[t, t1 ]).
Res(t1 t) = res(t1 (t)0 ) = res(t1 ) = 1 donc Res est non nulle. Comme
cest une forme lineaire elle est necessairement surjective.
Interessons nous maintenant `a son eventuelle injectivite ; pour cela on va
dabord demontrer le resultat suivant :
Pour tout P k[t,X t1 ], il existe Q k[t, t1 ] tel que P =X
(resP )t1 + Q0 .
n
En effet si P = pn t il suffit de considerer Q = qn tn avec pour
nZ nZ{1}
tout n 6= 1, qn+1 = pn (n + 1)1 (ce qui est licite car dans ce cas n + 1 6= 0
dans k, puisque k est de caracteristique nulle).
Maintenant si A et B k[t, t1 ] on a A B = AB 0 t dapr`es c.. Avec ce
qui prec`ede on sait donc quil existe C k[t, t1 ] tel que :
A B = (res(AB 0 ))t1 + C 0 ) t = res(AB 0 )t1 t + C 0 t.
Mais encore dapr`es c., C 0 t = 0 donc finalement A B = res(AB 0 )t1 t.
Xn
Dapr`es 1., pour tout C(k[t, t1 ]), = Ai Bi et il devient clair que
i=1
C(k[t, t1 ]) = vect(t1 t). Ceci prouve que H1 (k[t, t1 ]) = C(k[t, t1 ]) est de
dimension 1. En particulier puisque Res est non nulle, Res est injective.
En definitive on a bien montre que Res est un isomorphisme de H1 (k[t, t1 ])
sur k.
68 CHAPITRE 4. SESSION DE 1992

IV. Extensions

A. Gen eralites
1.a. Pour tous (u, x), (v, y), (w, z) U E on a < u, v > + < v, u >= 0
dapr`es (L1) et (u, v) + (v, u) = 0 dapr`es (C1) donc :

{(u, x), (v, y)} + {(v, y), (u, x)} = (< u, v >, (u, v)) + (< v, u >, (v, u))
= (< u, v > + < v, u >, (u, v) + (v, u))
= (0, 0)
= 0U E .

Donc { , } verifie (L1).


{(u, x), {(v, y), (w, z)}} + {(v, y), {(w, z), (u, x)}} + {(w, z), {(u, x), (v, y)}}
= {(u, x), (< v, w >, (v, w))} + {(v, y), (< w, u >, (w, u))} + {(w, z), (< u, v >
, (u, v))}
= (< u, < v, w >>, (u, < v, w >)) + (< v, < w, u >>, (v, < w, u >))
+(< w, < u, v >>, (w, < u, v >))
= (< u, < v, w >> + < v, < w, u >> + < w, < u, v >>,
(u, < v, w >) + (v, < w, u >) + (w, < u, v >)).
Or < u, < v, w >> + < v, < w, u >> + < w, < u, v >>= 0 dapr`es (L2) et
(u, < v, w >) + (v, < w, u >) + (w, < u, v >) = 0 dapr`es (C2) donc :
{(u, x), {(v, y), (w, z)}} + {(v, y), {(w, z), (u, x)}} + {(w, z), {(u, x), (v, y)}} =
(0, 0) = 0U E . Donc { , } verifie (L2).
1.b. Clairement, p est lineaire. De plus si (u, x) et (v, y) U E on a :
< p(u, x), p(v, y) >=< u, v >= p(< u, v >, (u, v)) = p{(u, x), (v, y)}.

Donc p est un `-morphisme de L() sur L.


1.c. Supposons quil existe une application lineaire f de U dans E telle que
pour tous u, v U on ait (u, v) = f (< u, v >). Posons alors :

s :U U E
u 7 (u, f (u)).

Il est clair que s est lineaire. De plus pour tous u, v U on a :

{s(u), s(v)} = {(u, f (u)), (v, f (v))}


= (< u, v >, (u, v))
= (< u, v >, f (< u, v >))
= s(< u, v >).
Ceci prouve que s est un `-morphisme de L dans L().
De plus pour tout u U , p s(u) = p(u, f (u)) = u : p s = IdU .
Reciproquement supposons que s soit un `-morphisme de L dans L() veri-
fiant p s = IdU . Si u U posons (v, x) = s(u). Comme p s(u) = u on a en
fait v = u. On a donc montre que pour tout u U il existait un unique x E
tel que s(u) = (u, x). Notons alors :

g :U E
u 7 x.
4.2. CORRECTION 69

La linearite de s entrane celle de g de facon evidente.


Enfin s est un `-morphisme donc pour tous u, v U on a :

{s(u), s(v)} = s(< u, v >) = (< u, v >, g(< u, v >)).

Comme on a egalement :

{s(u), s(v)} = {(u, g(u)), (v, g(v))} = (< u, v >, (u, v)),

on obtient en identifiant (u, v) = g(< u, v >), donc g est lapplication f


cherchee.
2.a. Pour tous a, b A,
[a, b] + [b, a] = (ab ba) + (ba ab) = 0,

donc [ , ] verifie (L1) (lantisymetrie).


Pour tous a, b, c A, posons J(a, b, c) = [a, [b, c]] + [b, [c, a]] + [c, [a, b]]. On a :

J(a, b, c) = [a, bc cb] + [b, ca ac] + [c, ab ba]


= a(bc cb) (bc cb)a + b(ca ac) (ca ac)b + c(ab ba) (ab ba)c
= abc acb bca + cba + bca bac cab + acb + cab cba abc + bac
= 0.

Donc [ , ] verifie (L2) (lidentite de Jacobi). Comme elle est clairement bilineaire,
cest un crochet sur A.
2.b. Remarque : on utilisera librement les relations du III.2..
Pour tous a, b A on a :

(a, b) + (b, a) = (a b) + (b a) = (a b + b a) = (0) = 0.

Donc verifie (C1).


Pour tous a, b, c A, posons

J (a, b, c) = (a, [b, c]) + (b, [c, a]) + (c, [a, b]).

On a :
J (a, b, c) = (a [b, c]) + (b [c, a]) + (c [a, b])
= (a [b, c] + b [c, a] + c [a, b])
= (a (bc cb) + b (ca ac) + c (ab ba))
= (a bc a cb + b ca b ac + c ab c ba)
= (a
bc a cb ca b + ac b ab c + ba c)
= (a bc (ab c + ca b)) + ((ac b + ba c) a cb)
= 0.

Donc verifie (C2). De plus on a dej`a dit que etait bilineaire donc la linearite
de entraine la bilinearite de : finalement est un cocycle.
2.c. Dapr`es 1.c. L(A)( ) est triviale si et seulement si il existe une appli-
cation lineaire f de A dans E telle que (a, b) = f ([a, b]) pour tous a, b A.
Cela peut secrire (a b) = f ([a, b]).
70 CHAPITRE 4. SESSION DE 1992

Supposons quil existe une telle application f et considerons H1 (A) :


Xn
= ai bi (toujours III.1.). On a :
i=1
Xn n
X
() = ( ai bi ) = (ai bi )
i=1 i=1
n
X Xn
= f ([ai , bi ]) = f ( [ai , bi ])
i=1 i=1
Xn n
X
= f( A (ai bi )) = f (A ( ai bi ))
i=1 i=1
= f (A ()) = f (0) (car H1 (A) = ker A )
= 0.

Donc la restriction de `a H1 (A) est nulle.


Reciproquement si la restriction de `a H1 (A) est nulle, on definit g sur
[A, A] comme etant lapplication lineaire valant (a b) sur [a, b] quel que soit
le couple (a, b) delements de A. Pour justifier cette definition il faut verifier que
Xn m
X n
X m
X
si i [ai , bi ] = j [cj , dj ] alors i (ai bi ) = j (cj dj ). Faisons
i=1 j=1 i=1 j=1
le ; pour cela on commence par ecrire que :
n
X m
X Xn m
X
i (ai bi ) j (cj dj ) = ( i (ai bi ) j (cj dj )).
i=1 j=1 i=1 j=1

Mais on a :
Xn m
X n
X m
X
A ( i (ai bi ) j (cj dj )) = i A (ai bi ) j A (cj dj )
i=1 j=1 i=1 j=1
n
X m
X
= i [ai , bi ] j [cj , dj ]
i=1 j=1
= 0.
n
X m
X
Donc i (ai bi ) j (cj dj ) H1 (A) ce qui prouve que son image
i=1 j=1
par est nulle, ce que nous voulions demontrer. Donc g est bien definie sur
[A, A]. On letend `a A lineairement (sans autre condition, par exemple nulle sur
un supplementaire quelconque de [A, A] dans A) pour obtenir lapplication f
voulue.

B. Extensions affines
1. Il est clair que {tn }nZ forme une base, donc en particulier une famille
libre, de k[t, t1 ] sur k. On en deduit par un raisonnement dextension classique
que {Eij (tn )}1i,jp,nZ est encore libre sur k ; en effet supposons que :
X
ijn Eij (tn ) = 0Mp (A) .
1i,jp,nZ
4.2. CORRECTION 71
X X
Alors Eij ( ijn tn ) = 0Mp (A) donc pour tout couple (i, j) on a lidentite
1i,jp nZ
X
suivante : ijn tn = 0A . Dapr`es la remarque initiale cela force ijn = 0 pour
nZ
tout triplet (i, j, n).
Montrons maintenant que {Eij (tn )}1i,jp,nZ est generatriceX
de Mp (A) sur
k. Pour cela considerons m Mp (A) quelconque : m secrit Eij (mij ).
1i,jp
Comme {tn }nZ 1
X forme une base de k[t, t ] sur k on peut ecrire pour tout couple
n
(i, j) : mij = ijn t . On injecte ces expressions dans celle de m et la linearite
nZ
donne le resultat.
En definitive tout ceci prouve que {Eij (tn )}1i,jp,nZ est une base de Mp (A)
sur k. Il est alors evident que {c}{eij (tn )}1i,jp,nZ est une base de Mp (A)k
sur k. Verifions les relations demandees :
{c, c} = {(0, 1), (0, 1)} = ([0, 0], (0, 0)) = (0, 0).
{c, eij (tn )} = {(0, 1), (Eij (tn ), 0)} = ([0, Eij (tn )], (0, Eij (tn ))) = (0, 0).
{eij (tn ), c} = {c, eij (tn )} dapr`es (L1), donc {eij (tn ), c} = (0, 0).
Enfin on a :
{eij (tn ), ekl (tm )} = {(Eij (tn )), 0), (Ekl (tm ), 0)}
= ([Eij (tn ), Ekl (tm )], (Eij (tn ), Ekl (tm ))).

Mais on sait depuis I.B.2.a. que :

[Eij (tn ), Ekl (tm )] = jk Eil (tn tm )li Ekj (tm tn ) = jk Eil (tn+m )il Ekj (tn+m ).

On a egalement :

(Eij (tn ), Ekl (tm )) = (Eij (tn ) Ekl (tm ))


= Res(T d r0 (Eij (tn ) Ekl (tm ))
= Res(T r0 (Eij (tn ), Ekl (tm ))
= Res(il jk tn tm ) (III.5.a.)
= il jk Res(tn tm )
= il jk res(mtn+m1 ) (III.6.b.).

Si n + m 6= 0, res(mtn+m1 ) = 0 et si n = m, res(mtn+m1 ) = m. Donc


finalement si n + m 6= 0, {eij (tn ), ekl (tm )} = jk eil (tn+m ) il ekj (tn+m ) et par
ailleurs {eij (tm ), ekl (tm )} = jk eil (1) il ekj (1) + il jk mc.
2. Dapr`es A.1.c., L(Mp (A))( ) est triviale ssi (H1 (Mp (A))) = {0}.
Or (H1 (Mp (A))) = Res(T dr0 (H1 (Mp (A)))) = Res(H1 (A)) (dapr`es III.5.d.)
= k (dapr`es III.6.d.). Donc L(Mp (A))( ) nest pas triviale.

C. Op
erateurs diff
erentiels
1.a. Posons Pe = f (P ) et prenons R dans A. On a :
f (P + Q)(R) = (P + Q)R = P R + QR = f (P )(R) + f (Q)(R) =
(f (P ) + f (Q))(R). Comme cest vrai quel que soit R A, on a :

f (P + Q) = f (P ) + f (Q).
72 CHAPITRE 4. SESSION DE 1992

f (P Q)(R) = P QR = P (QR) = f (P )(QR) = f (P )(f (Q)(R)) donc :

f (P Q) = f (P ) f (Q).

f (1)(R) = 1R = R = IdA (R) donc f (1) = 1End(A) .


Il sagit donc bien dun morphisme dalg`ebres.

1.b. Montrons

par recurrence sur q N que pour tous P, R A on a :
q
X q
dq (P R) = P (l) R(ql) (ce qui correspond `a la formule de Leibniz).
l
l=0
Quand q = 0 cette egalite secrit juste P R = P R.
Supposons legalite verifiee jusquau rang q et etudions dq+1 (P R) :

dq+1 (P R) = d(dq (P R))


X q
q
= d( P (l) R(ql) )
l
l=0
Xq
q
= d(P (l) R(ql) ) (car d est lineaire)
l
l=0
Xq
q
= (P (l+1) R(ql) + P (l) R(ql+1) ) (III.6.a.)
l
l=0
Xq X q
q q
= P (l+1) R((q+1)(l+1)) + P (l) R((q+1)l)
l l
l=0 l=0
q+1
X X q
q (u) ((q+1)u) q
= P R + P (u) R((q+1)u)
u=1
u 1 u=0
u
Xq
q q (u) ((q+1)u)
= + P R
u1 u

u=1
+ qq P (q+1) R + 0q P R(q+1)
Xq
q q
= + P (u) R((q+1)u)
u 1 u
(q+1)
u=1
+ q+1
q+1 P R + q+1 0 PR
(q+1)
.

q q q+1
Or dapr`es la formule du triangle de Pascal u1 + u = u . Donc on a en
fait obtenu la formule souhaitee au rang q + 1.
Fixons maintenant R A. On a :

(dq Pe)(R) = dq (Pe(R))


= dq (P R)
Xq
q
= P (l) R(ql) (calcul preliminaire)
l
l=0
Xq
q g
= P (l) (R(ql) )
l
l=0
Xq
q g
= (P (l) dql )(R).
l
l=0
4.2. CORRECTION 73

Ceci etant vrai pour tout R cela signifie que :


q
X q g
dq Pe = P (l) dql .
l
l=0

X
2.a. Soit D. Par definition = Pei di avec I fini. Posons pour tout
iI
X
i I : Pi = pil tl (il sagit de sommes finies). On a alors :
lZ

X Xg
= ( pil tl )di .
iI lZ

Xg X Xg X
Mais ( pil tl ) = pil e
tl dapr`es 1.a. donc ( pil tl ) = pil ul et finalement
lZ lZ lZ lZ
X X
= pil ul di . Cela prouve que {up dq }pZ,qN est une famille generatrice
iI lZ
de D.
Supposons maintenant que cette famille ne soit pas libre. On peut donc
exhiber uneXrelation de liaison avec des coefficients tous non nuls de la forme
suivante : (p,q) up dq = 0End(A) o`
u I est une partie finie de Z N. Posons
(p,q)I
maintenant dune part :

q0 = inf{q N tel qu0 il existe p Z avec (p, q) I},

et dautre part :
J = {p Z tel que (p, q0 ) I}.
X X
Appliquons (p,q) up dq `a tq0 : il vient ( (p,q) up dq )(tq0 ) = 0A . Mais
(p,q)I (p,q)I
par ailleurs on a :
X X
( (p,q) up dq )(tq0 ) = (p,q) up (dq )(tq0 )
(p,q)I (p,q)I
X
= (p,q0 ) up (q0 !)
pJ
X
= (p,q0 ) q0 !tp .
pJ
X
Donc (p,q0 ) q0 !tp = 0A . Comme les tp forment une famille libre dans A tous
pJ
les (p,q0 ) sont nuls. Ceci est absurde donc notre famille initiale est libre. Comme
elle etait aussi generatrice, cest une base de D.

2.b. Il suffit de le montrer sur les elements dune base (par exemple celle
du a.) puis detendre le resultat par bilinearite du produit dans une alg`ebre (ici
0 0
End(A)). Soient donc up dq et up dq deux elements de cette base. On a :
74 CHAPITRE 4. SESSION DE 1992

0 0 0 0
up dq up dq = up (dq up )dq
p0
= f )dq0
up (dq (t)
= up (dq (tgp0 ))dq
0

X q
q
((tg
0
= up ( p0 )(l) )dql )dq (1.b.)
l
l=0
Xq
q p g 0
= u ((tp0 )(l) )dq+q l .
l
l=0

Mais ((tg g
p0 )(l) ) est de la forme t a-dire un car e est un morphisme
n cest-`

dalg`ebres. En injectant cette forme dans le calcul precedent, et compte tenu


0 0
de up un = up+n , on obtient une ecriture de up dq up dq comme combinaison
lineaire de vecteurs de la base, ce qui ach`eve la demonstration : D est stable par
composition.
Comme D est un sev de End(A), il ne reste plus qu`a verifier que 1End(A) D
pour etablir que D est une sous-alg`ebre de End(A) . Cest facile : 1End(A) =
IA = u0 d0 .
3. Si r = 0, il est clair que ce commutateur est nul. Sinon (r 1) [u, uq dr ] =
u d uq dr u = uq+1 dr uq (udr + rdr1 ) en appliquant la formule du 1.b.
q+1 r

Donc [u, uq dr ] = uq+1 dr uq+1 dr ruq dr1 = ruq dr1 .


On en deduit que si (q, r) Z N, on a : uq dr = (r + 1)1 [u, uq dr+1 ]. En
particulier uq dr [D, D]. Comme les uq dr engendrent D cela force D [D, D],
donc D = [D, D] (puisque D est une sous-alg`ebre de End(A)) : par definition
on a H0 (D) = {0}.
Enfin on sait depuis I.A.2. que si V est un kespace vectoriel, T (D, V ) est
isomorphe `a L(H0 (D), V ), donc `a L({0}, V ) : T (D, V ) = {0}. Ceci signifie que
toute trace sur D est nulle car V est quelconque.

D. Extension de Virasoro
1. Compte tenu de la definition de W , on peut dire quil est compose des
elements de D qui peuvent secrire Ped pour P A. On peut tout de suite
preciser que les up d pour p parcourant Z forment une base de W : cest une
famille generatrice par definition de W , et libre dapr`es C.2.a.. Ceci etant dit,
calculons le crochet [Ped, Qd].
e On a :

[Ped, Qd]
e = PedQd
e Qd
e Ped
= (PedQe Qd
e Pe)d
= e e
(P (Qd + Qf0 ) Q(
e Ped + P
f0 ))d (C.1.b.)
= e e e f 0 e e
(P Qd + P Q QP d QP e f0 )d.

Or P Q = QP donc P g Q = QP g et PeQ e = Q e Pe puisquon a un morphisme


dalg`ebres. On en deduit que PeQd e = Q e Ped. Le calcul precedent se simplifie
en [Ped, Qd]
e = (PeQ f0 Q eP
f0 )d. En invoquant encore une fois le fait queeest un
morphisme dalg`ebres on reecrit PeQ f0 Q f0 sous la forme (P Q0g
eP QP 0 ) ce qui
donne la formule demandee.
La restriction de [ , ] `a W W est donc `a valeurs dans W . Sa bilinearite
etant evidente, il suffit de verifier les identites (L1) et (L2) sur les elements de
4.2. CORRECTION 75

la base de W constituee des up d pour en deduire que (W, [ , ]) est un l-espace.


Mais ceci est evident (il suffit de relire le A.2.a. pour sen convaincre).
2. Pour tous P , Q A, on a :
(P d, Qd)
+ (Qd,
P d) = 1 res(P 0 Q00 Q0 P 00 ) + res(Q0 P 00 P 0 Q00 )
12
1
= 12 res(0) (par linearite de res.)
= 0.

Ceci prouve (C1).


Encore une fois il est clair que est bilineaire donc il suffit de verifier (C2)
sur les elements de la base. Soient donc p, q, r Z et notons :

J(p, q, r) = (up d, [uq d, ur d]) + (uq d, [ur d, up d]) + (ur d, [up d, uq d]).

En utilisant la formule demontree au 1., on obtient pour J(p, q, r) lexpression


suivante :

(up d, (r q)uq+r1 d) + (uq d, (p r)up+r1 d) + (ur d, (q p)uq+p1 d).


1
Il est clair que chacun des trois termes est de la forme 12 res(tp+q+r4 ) avec
k. Donc si p+q+r 6= 3, cest-`a-dire si p+q+r4 6= 1, on a immediatement
J(p, q, r) = 0. Reste `a etudier le cas p + q + r = 3 :

(up d, (r q)uq+r1 d) = (up d, (r q)u2p d)


1
= 12 resptp1 (r q)(2 p)(1 p)tp p(p 1)tp2 (r q)(2
p)t1p
1
= 12 res (p(r q)(2 p)(1 p) p(p 1)(r q)(2 p))t1
1
= 12 (p(r q)(2 p)(1 p) p(p 1)(r q)(2 p))
= 61 p(r q)(2 p)(1 p).

On calcule pareillement les deux autres termes et on additionne pour obtenir :


J(p, q, r) = 16 [p(r q)(2p)(1p)+q(pr)(2q)(1q)+r(q p)(2r)(1r)].
En developpant puis en simplifiant, il vient pour J(p, q, r) cette expression :
1 3 2 3 2 3 2 3 2 3 2 3 2
6 (p r 3p r p q + 3p q + q p 3q p q r + 3q r + r q 3r q r p + 3r p).
Mais cette derni`ere somme se factorise sous la forme suivante :
(p + q + r 3)(q 2 r + p2 r p2 q + q 2 p + r2 q r2 p).
Puisque p + q + r = 3, elle est nulle, et on a donc bien obtenu J(p, q, r) = 0 dans
tous les cas, ce qui demontre (C2). Finalement est bien un cocycle sur W .
3. W () = (W k, { , }) avec {(w1 , 1 ), (w2 , 2 )} = ([w1 , w2 ], (w1 , w2 )).
On pose c = (0, 1) et pour tout n Z, Ln = (un+1 d, 0). On sait dej`a que
{un+1 d}nZ est une base de W donc il est clair que {c} {Ln }nZ est une base
de W k qui est lespace vectoriel sous-jacent `a V ir.
Les bilinearites de [ , ] et de assurent immediatement que :

{c, c} = {c, Ln } = {Ln , c} = 0.

Si n + m 6= 0 on a : Dautre part

{Ln , Lm } = ([un+1 d, um+1 d], (un+1 d, um+1 d))


= (((m + 1) (n + 1))u(m+1)+(n+1)1 d,
1 n m1
12 res((n + 1)t (m + 1)mt (m + 1)tm (n + 1)ntn1 )
(en utilisant la formule du 1.)
1
= ((m n)un+m+1 d, 12 res((n + 1)(m + 1)(m n)tn+m1 ))
76 CHAPITRE 4. SESSION DE 1992

Si n + m 6= 0 alors {Ln , Lm } = ((m n)un+m+1 d, 0) = (m n)Ln+m .


Si n + m = 0, cest-`a-dire si n = m,

m3 m
{Lm , Lm } = 2mL0 c.
6

4.a. Dapr`es A.1.c. on a lequivalence : V ir est triviale si et seulement si


il existe une application lineaire f : W k telle que (w1 , w2 ) = f ([w1 , w2 ])
pour tous w1 , w2 dans W . Supposons que cela soit vrai et appliquons ceci `a
w1 = um+1 d et w2 = um+1 d pour un m Z quelconque. Le calcul effectue `a la
3
question precedente (dans le cas n = m) donne m 6m = 2mf (ud) quel que
soit m Z. Cest evidemment absurde (un polynome non nul nadmet quun
nombre fini de racines) donc lextension V ir nest pas triviale.
4.b. Dapr`es a., il nexiste pas dapplication lineaire f : W k telle que
(w1 , w2 ) = f ([w1 , w2 ]) pour tous w1 , w2 dans W . A fortiori comme W D,
il nexiste pas dapplication lineaire g : D k telle que (d1 , d2 ) = g([d1 , d2 ])
pour tous d1 , d2 dans D donc L(D)() nest pas triviale.
Si on admet que le cocycle est de la forme avec une forme lineaire sur
C(D) alors on peut appliquer le resultat de A.2.c. avec A = D. Ceci implique
necessairement que lespace vectoriel H1 (D) nest pas nul.

4.3 Commentaires
Ce probl`eme exige une bonne familiarite avec les notions dalg`ebre lineaire ou
multilineaire, notamment celle de base, celle dapplication (multi)lineaire et celle
omnipresente de passage au quotient. Peu de connaissances theoriques sophis-
tiquees sont reellement mises en jeu, meme si lon manipule groupes, alg`ebres,
polynomes ou matrices. On peut mentionner quil fallait par exemple connatre
les classes de conjugaison de S4 ou savoir que le rang dun projecteur est donne
par sa trace. Il est donc raisonnable de dire que ce probl`eme est plutot moins
difficile que la plupart de ceux traditionnellement poses lors de cette epreuve de
mathemathiques generales, tant du point de vue conceptuel que du point de vue
de lerudition requise. A ce titre, il peut servir de base de travail d`es le debut
dune annee de preparation au concours. Toutefois il necessite une habilite cer-
taine dans les calculs et meme parfois une bonne dose de perseverance ! Ce sera
de toute facon un excellent test.
Chapitre 5

Session de 1993

5.1 Sujet

77
78 CHAPITRE 5. SESSION DE 1993

5.2 Correction

I. Exemples de fonctions v erifiant des


equations
diff
erentielles alg
ebriques sur C.

1. Lapplication exponentielle r
eelle.
1.a. Soit P C[X0 ] tel que P (f ) = 0. On a pour tout u R, P (eu ) = 0
donc le polynome P sannule sur lensemble infini R+ . On en deduit que P est
nul.
1.b. Soit Q = X1 X0 C[X0 , X1 ]. Le polynome Q est clairement non nul.
Comme Q(f, f 0 ) = f 0 f = 0, le polynome Q convient.

Remarque importante. Dans la suite, on identifie A[X0 , . . . , Xn+1 ] et


A[X0 , . . . , Xn ][Xn+1 ] o`
u A est un anneau commutatif int`egre unitaire. On rap-
pelle dailleurs que si A est un anneau commutatif int`egre unitaire, alors A[X]
aussi.
1.c. Fixons P C[X0 , X1 ]. Supposons que P secrive (X1 X0 )R avec
R C[X0 , X1 ]. Alors P (f, f 0 ) = (f 0 f )R(f, f 0 ) = 0.
Reciproquement, on definit V = X1 X0 . On remarque que P, V C[X0 ][X1 ]
et le coefficient dominant de V est 1 donc inversible dans C[X0 ]. On peut donc
effectuer la division euclidienne du polynome P par le polynome V . Il existe
ainsi Q, R C[X0 ][X1 ] tels que P = V Q + R et le degre de R soit strictement
inferieur `a celui de V donc V est nul ou de degre nul. Autrement dit R est un
polynome constant (eventuellement nul) de C[X0 ][X1 ] soit R = r o` u r C[X0 ].
On a : P (f, f 0 ) = V (f, f 0 )Q(f, f 0 ) + r(f ). Comme P (f, f 0 ) = 0 par hypoth`ese,
on obtient : r(f ) = 0. Enfin, on applique la question 1.a et r = 0 soit R = 0.
Finalement, P = (X1 X0 )Q.
1.d. Fixons P C[X0 , X1 , X2 ].
Supposons que P secrive (X1 X0 )R+(X2 X0 )S avec R, S C[X0 , X1 , X2 ]
alors P (f, f 0 , f 00 ) = (f 0 f )R(f, f 0 , f 00 ) + (f 00 f )S(f, f 0 , f 00 ) = 0.
Reciproquement, on definit V (X0 , X1 , X2 ) = X2 X0 C[X0 , X1 ][X2 ]. On
a P, V C[X0 , X1 ][X2 ] et le coefficient dominant de V est 1 donc inversible dans
C[X0 , X1 ]. On peut donc effectuer la division euclidienne du polynome P par le
polynome V . Il existe ainsi S, T C[X0 , X1 ][X2 ] tels que P = V S+T . De plus, le
degre de T est strictement inferieur `a celui de V donc est nul. On peut donc ecrire
T = t C[X0 , X1 ]. Comme 0 = P (f, f 0 , f 00 ) = (f 00 f )S(f, f 0 , f 00 ) + t(f, f 0 ),
on obtient t(f, f 0 ) = 0. Dapr`es 1.c, le polynome t secrit (X1 X0 )R avec
R C[X0 , X1 ].
Finalement, P = (X2 X0 )S + (X1 X0 )R avec R, S C[X0 , X1 , X2 ].
1.e. Soient P J et Q C[X0 , X1 , X2 ].
On a (P Q)(f, f 0 , f ) = Q(f, f 0 , f )P (f, f 0 , f ) = 0 car P J. On en deduit
que QP = P Q J. De plus, si P, Q J, on a clairement P Q J donc J est
un sous-groupe additif de C[X0 , X1 , X2 ]. On conclut que J est un ideal.
Supposons que J soit principal, il existe un polynome P J qui engendre
cet ideal, cest `a dire que J = P.C[X0 , X1 , X2 ]. Comme J nest pas reduit `a
5.2. CORRECTION 79

{0} (par exemple X1 X0 J), P nest pas nul. Il est clair que X2 X0 et
X1 X0 J donc il existe Q1 et Q2 C[X0 , X1 , X2 ] tels que X2 X0 = P Q2
et X1 X0 = P Q1 .
En raisonnant dans C[X0 , X1 ][X2 ], le degre en X2 de X1 X0 est nul donc
celui de P aussi. De meme, en raisonnant dans C[X0 , X2 ][X1 ], le degre en X1
de X2 X0 est nul donc celui de P aussi.
A fortiori, P = p C[X0 ]. Comme P J, on p(f ) = P (f, f 0 , f 00 ) = 0.
Dapr`es 1.a, p = 0. Ainsi P = 0 et J = {0}, ce qui est faux. On conclut donc
que J nest pas principal.

2. Lapplication u 7 sin u.
2.a. Soit P C[X0 ] tel que P (f ) = 0. On a pour tout u R, P (sin u) = 0
donc le polynome P sannule sur lensemble infini [1, 1]. On en deduit que P
est nul.
2.b. Le polynome Q(X0 , X1 ) = X12 + X02 1 C[X0 , X1 ] convient car
Q(f, f 0 )(u) = cos2 u + sin2 u 1 = 0. De plus, Q est non nul.
2.c. Soient U, V C[X0 ] tels que U (f )f 0 + V (f ) = 0.
2 2
On a alors U (f )f 0 = V (f ) . On a donc T (f ) = 0 o` u T est le polynome
U 2 (1 X02 ) V 2 . Dapr`es 2.a, T = 0 donc U 2 = U 2 X02 + V 2 .
En comparant les degres, U 2 X02 et V 2 ont necessairement le meme, sinon le
degre de U 2 est le maximum des degres de U 2 X02 et V 2 donc est strictement
superieur `a celui de U 2 . Notons a (resp. b) le coefficient de plus haut degre de
U (resp. de V ). On a : a2 = a2 + b2 donc b = 0. Ainsi, V = 0 et U 2 (1 X02 ) = 0
donc U = 0.
2.d. Lensemble J est clairement un ideal.
Soit Q(X0 , X1 ) = X12 + X02 1 C[X0 , X1 ]. On a Q.C[X0 , X1 ] J car
Q J dapr`es 1.b.
Reciproquement, si P J, on effectue la division euclidienne dans C[X0 ][X1 ]
de P par Q dont le coefficient dominant (cest 1) est inversible dans C[X0 ]. Il
existe donc S, T C[X0 ][X1 ] tels que P = QS + T . De plus, le degre de T
est strictement inferieur `a celui de V . On peut donc ecrire T = U X1 + V o` u
U, V C[X0 ]. Comme P, Q J qui est un ideal, on a T J ie T (f, f 0 ) = 0 soit
U (f )f 0 + V (f ) = 0. Dapr`es 2.c, les polynomes U et V sont nuls donc T est nul.
Finalement, P = QS avec S C[X0 , X1 ].
On conclut que J = Q.C[X0 , X1 ] donc J est un ideal principal de C[X0 , X1 ].
2.e. Lensemble L est clairement un ideal de C[X0 , X1 , X2 ]. On definit Q =
X12 + X02 1 et R = X2 + X0 , ce sont des elements de L. Supposons que L soit
principal. On a alors lexistence de P L tel que L = P.C[X0 , X1 , X2 ]. Comme
L nest pas reduit `a {0} (par exemple R 6= 0), P nest pas nul. Il existe T1 et
T2 C[X0 , X1 , X2 ] tels que R = P T1 et Q = P T2 .
En raisonnant dans C[X0 , X1 ][X2 ], le degre en X2 de Q est nul donc celui
de P aussi. De meme, en raisonnant dans C[X0 , X2 ][X1 ], le degre en X1 de R
est nul donc celui de P aussi.
A fortiori, P = p C[X0 ]. Comme P L, on p(f ) = P (f, f 0 , f 00 ) = 0.
Dapr`es 2.a, p = 0. Ainsi P = 0 et L = {0}, ce qui est faux. On conclut donc
que L nest pas principal.
80 CHAPITRE 5. SESSION DE 1993

2
3. Lapplication u 7 eu .
3.a. Soit P C[X0 , X1 ] tel que P (f, f 0 ) = 0. On ecrit
X
P (X0 , X1 ) = ai,j X0i X1j .
i,j0

Supposons que P soit non nul, on peut alors definir N = max{i+j| ai,j 6= 0}
et d = max{j| 0 j N, aN j,j 6= 0}.
2 2
On a pour tout u R, P (eu , 2ueu ) = 0, ce qui secrit encore
X 2
ai,j (2u)j enu = 0.
0nN
i+j=n

2
En divisant cette relation par ud .eN u , on obtient pour tout u R

X d
X
j jd (nN )u2
ai,j 2 .u e + aN j,j .2j .ujd = 0.
0n<N j=0
i+j=n

En faisant tendre u vers +, il vient aN d,d .2d = 0 ce qui contredit la definition


de d. Ainsi P est nul.
2 2
3.b. Pour tout u R, on a f 0 (u) = 2ueu et f 00 (u) = 2(2u2 + 1)eu . On a
alors f f 00 = (f 0 )2 + 2f 2 . Ainsi le polynome Q = X0 X2 X12 2X02 convient.
3.c. Lensemble J est clairement un ideal.
Comme Q J, on a Q.C[X0 , X1 , X2 ] J. Reciproquement, soit P J. On
1
consid`ere lanneau commutatif int`egre unitaire : A = C[X0 , , X1 ] (comme
X0
sous-anneau de C(X0 , X1 )). Lelement X0 est inversible dans A donc le coef-
ficient dominant de Q C[X0 , X1 ][X2 ] (que lon consid`ere de facon naturelle
comme element de A) est inversible dans A. On effectue alors la division eucli-
dienne de P (que lon consid`ere aussi de facon naturelle comme element de A)
par Q dans A[X2 ]. Il existe R, S A[X2 ] tels que P = RQ + S o` u le degre de
1
S est strictement inferieur `a celui de Q soit S = s A. Comme C , on a :
f
1 0
s(f, , f ) = 0.
f
1
Soit n le degre de S en lindetermine . On a S0 = X0n S C[X0 , X1 ] et
X0
on a S0 (f, f 0 ) = 0. Dapr`es 3.a, S0 est nul donc S aussi.
Attention : ce nest pas fini ! On a montre P = RQ mais pour linstant
R A.
R0
Il existe un entier n et R0 C[X0 , X1 ] tels que R = n . On a donc P X0n =
X0
R0 Q et cette egalite a lieu dans C[X1 , X2 ][X0 ]. La valuation de R0 Q, val(R0 Q),
est donc superieure `a n. Dautre part, val(R0 Q) =val(R0 )+val(Q) or val(Q) =
0. On en deduit que val(R0 ) n i.e. X0n divise R0 donc P = T Q o` u T
C[X1 , X2 ][X0 ].
On aurait pu aussi raisonner de facon plus theorique dans C[X0 , X1 , X2 ] :
X0n divise R0 Q, X0 ne divise pas Q et X0 est irreductible. Comme C[X0 , X1 , X2 ]
est factoriel, on applique le theor`eme de Gauss et on deduit que X0n divise R0 .
5.2. CORRECTION 81

On conclut que P Q.C[X0 , X1 , X2 ].


Finalement, J = Q.C[X0 , X1 , X2 ] et J est principal.

II. Solutions holomorphes dune


equation
fonctionnelle.
1.a. Soient [0, 1[ et n N. Montrons par recurrence que :
n
Y n+1
2k 1 2
(Hn ) (1 + ) =
1
k=0

1 2
(H0 ) est clairement vraie : (1 + ) =
1
Supposons (Hn ) vraie alors
n+1
Y n
Y n+1 n+2
2k 2n+1 2k 2n+1 1 2 1 2
(1 + ) = (1 + ) (1 + ) = (1 + ) =
1 1
k=0 k=0

Ainsi, (Hn+1 ) est vraie.


Par recurrence, (Hn ) est vraie pour tout n.
Yn n+1
2k 1 2 1
Comme [0, 1[, on conclut alors (1 + ) =
1 1
k=0

1.b. Pour tout z , on a la factorisation suivante


n
Y
n+1 k
n (z) n+1 (z) = z 2 (1 z 2 ).
k=0

do`
u la majoration en module :
n
Y n+1
n+1 k |z|2
|n (z) n+1 (z)| |z|2 (1 + |z|2 )
1 |z|
k=0

o`
u la derni`ere inegalite provient de (Hn ) avec = |z| < 1.
1.c. Pour tout z et tous q > p N, on constate que
q1
X
p (z) q (z) = n (z) n+1 (z).
n=p

Ainsi, via 1.b,


q1
X q1
X n+1 p+1
|z|2 1 |z|2
|p (z) q (z)| |n (z) n+1 (z)|
n=p n=p
1 |z| 1 |z| 1 |z|

n0 +1
|z|2
Fixons z et > 0, comme |z| < 1, il existe n0 N tel que < .
(1 |z|)2
82 CHAPITRE 5. SESSION DE 1993

n0 +1
|z|2
On a alors pour tous q > p n0 , |p (z) q (z)| < .
(1 |z|)2
Dapr`es le crit`ere de Cauchy, la suite (n (z))n est convergente vers une limite
(z). Autrement dit, (n )n est simplement convergente vers sur .
n0 +1
r2
1.d. Soit r ]0, 1[. Il existe n0 N tel que < .
(1 r)2
Pour tous q > p n0 et tout z r = {z C; |z| < r}, on a :
n0 +1 n0 +1
|z|2 r2
|p (z) q (z)| < .
(1 |z|)2 (1 r)2
Autrement dit, (n )n est uniformement convergente vers sur r. Comme pour
tout n, n est holomorphe sur r, la fonction est elle-meme holomorphe sur
r. Ceci est valable pour tout r < 1 donc la fonction est holomorphe sur .
2.a. Fixons z et n N. On a
n
Y n
Y n+1
Y
k k+1 k
n (z 2 ) = (1 (z 2 )2 ) = (1 z 2 )= (1 z 2 )
k=0 k=0 k=1

(on a effectue le changement dindice k + 1 k).


n+1
Y k
Donc, (1 z)n (z 2 ) = (1 z 2 ) = n+1 (z). En passant `a la limite quand
k=0
n tend vers +, on obtient : (1 z)(z 2 ) = (z).
2.b. Supposons que (z) = 0, o`u z (en particulier z 6= 1). Onp
a dapr`es
2.a, (z 2 ) = 0. Par une recurrence immediate, pour tout p N, z 2 est zero de
p
. Comme (z 2 )p converge vers 0 (car |z| < 1), on a (0) = 0 par continuite de
. Or n (0) = 1 pour tout n, a fortiori, (0) = 1. On a une contradiction donc
ne sannule pas sur .
f (z)
2.c. Comme ne sannule pas sur , on peut definir h(z) = pour
(z)
z .
f (z 2 ) f (z)
On a pour z , h(z 2 ) = = = h(z). Par une recurrence
(z 2 ) (z)
p
immediate, pour tout p N, h(z) = h(z 2 ). Comme f est continue sur , h
est continue sur et par passage `a la limite sur p, on obtient h(z) = h(0). En
posant = h(0), on a h(z) = ie f (z) = (z).
3.a. Pour t , on a |et | = eRe(t) < 1 car Re(t) < 0. De plus, ne
sannule pas sur et est bien definie. Comme est holomorphe sur , 0
1
aussi. Comme ne sannule pas sur , est aussi holomorphe sur . Enfin,

t
lapplication : t 7 e est holomorphe. On conclut que est holomorphe
sur .
3.b. Remarquons que t si et seulement si 2t .
Dapr`es 2.a, on a avec z = et , (1 et ).(e2t ) = (et ). En derivant cette
relation, il vient 2e2t (1 et )0 (e2t ) et (e2t ) = et .0 (et ). Puis en divisant par
(1 et )(e2t ), on obtient
0 (e2t ) et 0 (et ) 0 t
t (e )
2e2t = e t
= e
(e2t ) (1 et ) (1 et )(e2t ) (et )
5.2. CORRECTION 83

et
Finalement, cela secrit 2(2t) + = (t).
(et 1)
3.c. Pour tout k N, on pose
(Hk ) t , (k) (t) = 2k+1 (k) (2t) + Sk (et ) avec Sk+1 (z) = z.Sk0 (z) o`
u Sk C(z).

z
Pour k = 0, on definit S0 (z) = et 3.b montre que (H0 ) est vraie.
(z 1)
Supposons que (Hk ) soit vraie et derivons (Hk ). Il vient pour t ,

(k+1) (t) = 2k+2 (k+1) (2t) + et .Sk0 (et ).

Donc (Hk+1 ) est vraie avec Sk+1 (z) = z.Sk0 (z).


Par recurrence, (Hk ) est vraie pour tout k.

III. Quelques r
esultats sur les fractions
rationnelles et les polyn
omes.

A. Fractions rationnelles `
a une ind
etermin
ee.
U P
1.a. Soit R C(z). Si R secrit et o`
u U, V, P, Q C[z] (Q, V non nuls),
V Q
on a U Q = V P . On note deg(U ) le degre de U. En egalant les degres, il vient
deg(U )+deg(Q) = deg(V )+deg(P ). Donc deg(U )deg(V ) = deg(P )deg(Q).
P
Ainsi deg(R) est independant du choix du representant de R.
Q
U P UQ + V P
Soient R, S C(z). On pose R = et S = . On a R + S = .
V Q QV
On a donc

deg(R + S) = deg(U Q + V P ) deg(QV ) = deg(U Q + V P ) deg(Q) deg(V ).

Pour fixer les idees, supposons que deg(R) = max{deg(R), deg(S)}. On a donc
deg(U ) deg(V ) deg(P ) deg(Q) soit deg(U Q) deg(V P ). Ainsi, on a
deg(U Q + V P ) max{deg(U Q), deg(V P )} = deg(U Q). Do`u:

deg(R + S) deg(U Q) deg(Q) deg(V )


= deg(U ) + deg(Q) deg(Q) deg(V )
= deg(U ) deg(V ) = deg(R)
= max{deg(R), deg(S)}.

1.b. On sait que C(z) est un C-espace vectoriel.


P P
Soient C et F = C0 (z). On a F = et deg(F ) = deg(P )
Q Q
deg(Q) deg(P ) deg(Q) = deg(F ) 0. Ainsi F C0 (z).
Soient R, S C0 (z). Dapr`es 1.a, deg(R + S) max{deg(R), deg(S)} 0.
Donc R + S C0 (z).
On conclut que C0 (z) est un sous-espace vectoriel de C(z).
84 CHAPITRE 5. SESSION DE 1993

1
Pour tout C et n N, on a deg = n 0 donc V et W sont
(z )n
inclus dans C0 (z). Par definition, V et W sont des C-espaces vectoriels pour la
meme structure despace vectoriel (laddition interne et la multiplication par un
scalaire) que C0 (z). Ainsi, V et W sont des sous-espaces vectoriels de C0 (z).
1.c. Il suffit dinvoquer lexistence et lunicite de la decomposition en ele-
ments simples, compte-tenu que, ici, la partie enti`ere est reduite aux polynomes
constants.
2. Dapr`es 1.c, pour tout F C0 (z), il existe C et une famille (b,n ),n
presque nulle telle que
X b,n
F =+ .
C (z )n
n1

On note D loperateur de derivation de C0 (z) dans C(z). On a alors


X nb,n
D(F ) = F 0 = W.
C (z )n+1
n1

Donc Im(D) W .
X b,n
Reciproquement, pour tout w W , on a w = = D(F ) avec
C (z )n
n2
X b,n
F = C0 (z).
C (n 1)(z )n1
n2
Finalement, Im(D) = W .
3. Lapplication est lineaire donc il suffit de verifier que (v) V quand
1
v decrit une partie generatrice de V . Ainsi, pour v = o`
u C, il existe
(z )
a C tel que = a2 et on a alors

1 1 1 1 1
(v)(z) = z = z = + V.
(z 2 ) (z 2 a2 ) 2 (z a) (z + a)

Donc V est stable par .


Pour w W , dapr`es 2, il existe F C0 (z) telle que w = D(F ). On a alors
1
(w)(z) = zF 0 (z 2 ) = (F (z 2 ))0 Im(D) = W car F (z 2 ) C0 (z). Donc W est
2
stable par .
4. Ici la partie enti`ere est nulle car le degre de R est strictement negatif.
n
X n
X
r(a, k) r(a, k)
R(z) = k
+
(z a) (z + a)k
k=1 k=1

En multipliant cette relation par (z a)n , il vient

X n n
X r(a, k).(z a)n
1 n nk
= (z a) R(z) = r(a, k)(z a) +
(z + a)n (z + a)k
k=1 k=1
5.2. CORRECTION 85

En prenant la valeur z = a, on a finalement


1
r(a, n) =
(2a)n

B. Polyn
omes `
a (n + 1) ind
etermin
ees.

1. Ordre sur Nn+1 .


Il sagit de lordre lexicographique lorsquon ecrit de droite `a gauche.
1.a. Montrons cela par recurrence sur n. Pour n = 0, cest lordre usuel sur
N.
Supposons que Rn soit une relation dordre sur Nn+1 . Soit Nn+2 . On
a bien s ur n+1 = n+1 et (0 , . . . , n )Rn (0 , . . . , n ) car Rn est reflexive par
hypoth`ese de recurrence. Ainsi (0 , . . . , n+1 )Rn+1 (0 , . . . , n+1 ) donc Rn+1
est elle-meme reflexive.
Soient , Nn+2 tels que Rn+1 et Rn+1 . Comme Rn+1 , on a
n+1 n+1 . De meme, Rn+1 donc n+1 n+1 . Ainsi, n+1 = n+1 . On
a donc (0 , . . . , n )Rn (0 , . . . , n ) et (0 , . . . , n )Rn (0 , . . . , n ). Comme Rn
est antisymetrique, on a (0 , . . . , n ) = (0 , . . . , n ). Finalement, = donc
Rn+1 est antisymetrique.
Soient , , Nn+2 tels que Rn+1 et Rn+1 . En particulier, on a
n+1 n+1 et n+1 n+1 . Si n+1 < n+1 alors Rn+1 . Sinon, on a
n+1 = n+1 = n+1 donc on a les relations (0 , . . . , n )Rn (0 , . . . , n ) et
(0 , . . . , n )Rn (0 , . . . , n ). Comme Rn est transitive, on en deduit alors que
(0 , . . . , n )Rn (0 , . . . , n ) donc Rn+1 et Rn+1 est transitive.
Finalement, Rn+1 est une relation dordre et par recurrence, pour tout entier
n, Rn est une relation dordre.
1.b. L`a encore, on raisonne par recurrence sur n. Soit donc `a n N fixe,
(Hn ) Tout ensemble non vide E Nn+1 admet un plus petit element.

Pour n = 0, il sagit dun des axiomes de Peano qui caracterisent N donc


(H0 ) est vraie.
Supposons (Hn ) vraie et fixons E Nn+2 . Comme E est non vide, on peut
definir

n+1 = min{a N; a0 , . . . , an N, (a0 , . . . , an , a) E}

et
E 0 = {(a0 , . . . , an ) Nn+1 ; (a0 , . . . , an , n+1 ) E}.
E 0 est une partie non vide de Nn+1 (par definition de n+1 ) donc dapr`es
(Hn ), admet un minimum (0 , . . . , n ). On pose = (0 , . . . , n , n+1 ). Pour
tout E, on a par definition de n+1 , n+1 n+1 . Si n+1 > n+1 , Rn+1 .
Sinon n+1 = n+1 et (0 , . . . , n ) E 0 donc par definition de (0 , . . . , n ), on
a (0 , . . . , n )Rn (0 , . . . , n ) soit Rn+1 .
Donc est le plus petit element de E et (Hn+1 ) est vraie.
Par recurrence, (Hn ) est vraie pour tout n N.
86 CHAPITRE 5. SESSION DE 1993

1.c. Soient , Nn+1 , on definit E = {, } qui est non vide donc admet
un plus petit element dapr`es 1.b. Il sagit de ou donc Rn ou Rn . La
relation Rn est donc totale.
1.d. Ceci se demontre une fois de plus par recurrence. Soit donc `a n N
fixe,
(Hn ) Tout ensemble fini non vide E Nn+1 admet un plus grand element.

Pour n = 0, il sagit dun des axiomes de Peano donc (H0 ) est vraie.
Supposons (Hn ) vraie et fixons E Nn+2 fini. Comme E est non vide et
fini, on peut definir
n+1 = max{a N; a0 , . . . , an N, (a0 , . . . , an , a) E}
et
E 0 = {(a0 , . . . , an ) Nn+1 ; (a0 , . . . , an , n+1 ) E}.
E 0 est une partie finie non vide de Nn+1 (par definition de n+1 ) donc dapr`es
(Hn ), admet un maximum (0 , . . . , n ). On montre exactement comme en 1.b
(en remplacant min par max) que (0 , . . . , n , n+1 ) est le maximum de E.
On pouvait aussi utiliser la question precedente. On raisonne alors par re-
currence sur le cardinal. Soit E non vide fini, E = (a1 , . . . , ac ) o` u c =card
E. Soit E 0 = (a1 , . . . , ac1 ) et m = max E 0 (par hypoth`ese de recurrence) et
max E = max{ac , m} qui existe car Rn est totale (le maximum de deux elements
distincts est celui qui nest pas le minimum !).
2.a. Soient P, Q K[X0 , X1 , . . . , Xn ], non nuls, on definit : R = p Q q P .
Si R est non nul, on peut definir d = d(R). Le coefficient de X dans R est nul
donc d 6= .
Si Rn d, en identifiant les coefficients de X d dans la relation Q = p1 (R +
q P ) (par definition p 6= 0), on obtient, comme 6= d : 0 = p1 r d =
6 0. Cette
impossibilite montre que Rn d est faux soit dRn (car Rn est totale).
Ainsi, si p Q q P est non nul, 6= d(p Q q P ) et d(p Q q P )Rn .

2.b. On consid`ere lensemble E = d(P ); P J \ {0} . Lensemble E est
une partie non vide (car J 6= {0}) de Nn+1 donc admet un plus petit element
d dapr`es 1.b. Par definition, il existe M J \ {0} tel que d = d(M ). Soit
P J \{0}, si d(P )Rn d(M ) alors d(P ) = d(M ) par definition de d = d(M ). Soit
R = md P pd M , on a alors dapr`es 2.a, R = 0 ou d(R)Rn d(M ) et d(R) 6= d(M ).
Mais la seconde eventualite est impossible par definition de d(M ) = d. Ainsi
R = 0 ie P = m1 d pd M . Finalement, P = cM o` u c K.
3. Pour j {0, , n}, on definit
n o
dj = max aj N; (ai )i6=j Nn , pour a = (a0 , . . . , an ), pa 6= 0 .

Comme P nest pas constant, il existe j {0, , n} tel que dj 1. Soit


i = (d0 , . . . , dj1 , dj 1, dj+1 , . . . , dn )
iP X iX
On a alors i
= p or
X
X i

iX Y dk Xkk dj 1 Xj
j
=
X i 0kn Xkdk d 1
Xj j
k6=j
5.2. CORRECTION 87


dk Xkk dj 1 Xj j
o`
u = ck K pour k 6= j ; = cj K si j dj 1 et
Xkdk Xj j
d 1

dj 1 Xj j
d 1
= cj Xj 6= 0 si j = dj .
Xj j
On a donc le resultat demande.

IV. On se propose de montrer que la fonction


definie `
a la question II.1.c ne v
erifie pas
d
equation diff erentielle alg
ebrique sur C(z).

0
1.a. On raisonne par recurrence sur k 1. Pour k = 1, on a = g = Q1 (g)

o`
u Q1 (Z0 ) = Z0 . Donc cest vrai pour k = 1.
Supposons que le resultat soit vrai pour un entier k N, k 1, o` u on peut
ecrire Qk = Zk1 + Rk (Z0 , . . . , Zk2 ). En derivant (k) , il vient :
k1
X Qk
(k+1) = 0 Qk (g, . . . , g (k1) ) + . g (p+1) (g, . . . , g (k1) ).
p=0
Zp

On remarque que 0 = .g. On en deduit que (k+1) = Qk+1 (g, . . . , g (k) )


k2
X Rk
avec Qk+1 = Zk + Z0 Qk + Zp+1 . Le multidegre de Qk+1 est (0, . . . , 0, 1)
p=0
Zp
et son coefficient dominant est 1. Le resultat est donc vrai au rang k + 1.
Par recurrence, le resultat est vrai pour tout k 1.
1.b. Comme H est non nul, on peut considerer son multidegre d(H) = .
On pose = (0 , . . . , n ). On note r < s pour rRn1 s et r 6= s. On peut ecrire
X X
H= ha T0a T11 . . . Tnn + h(0 ,...,n ) T00 T11 . . . Tnn .
a (1 ,...,n )
(1 ,...,n )<(1 ,...,n )

Par hypoth`ese, le polynome H est homog`ene donc la premi`ere somme est


reduite `a h T00 T11 . . . Tnn . On a

X
H(1, Q1 , . . . , Qn ) = h Q11 . . . Qnn + h(0 ,...,n ) Q n
1 . . . Qn .
1

(0 ,...,n )
(1 ,...,n )<(1 ,...,n )

Si tous les i sont nuls pour i 1, H = hT00 o` u h 6= 0. On a alors


H(1, Q1 , . . . , Qn ) = h 6= 0.
Sinon, on peut definir j = max{k 1; k =
6 0}. Dapr`es la question 1.a,

Q11 . . . Qnn = Q11 . . . Qj j = Z11 . . . Zj j + R(Z1 , . . . , Zj1 )

o`
u d(R) est de la forme (r1 , . . . , rj , 0, . . . , 0) avec rj < j . Donc
88 CHAPITRE 5. SESSION DE 1993


H(1, Q1 , . . . , Qn ) = h Z11 . . . Zj j + RH (Z1 , . . . , Zn ) avec d(RH ) < .

Donc H(1, Q1 , . . . , Qn ) 6= 0.
2. Lhypoth`ese de lenonce nous permet de considerer un entier n tel quil
existe P C(z)[Z0 , Z1 , . . . , Zn ], non nul verifiant P (, . . . , (n) ) = 0. Cela
secrit, en notant |(0 , . . . , n )| = 0 + . . . + n et N le degre total de P (au-
trement dit le plus grand || tel que p 6= 0) :
N
X X
j p Q n
1 (g) . . . Qn (g, . . . , g
1 (n1)
) = 0.
j=0 ||=j

X
Notons Aj = p Q n
1 (Z0 ) . . . Qn (Z0 , . . . , Zn1 ) et aj = Aj (g, . . . , g
1 (n1)
).
||=j
Dapr`es X
la question 1.b, on remarque que Aj est non nul d`es que le polynome
homog`ene p T11 . . . Tnn est non nul.
||=j
On a lequation algebrique (ordinaire) sur le corps Kn = C(z)(g, . . . , g (n1) )
N
X
(E) aj j = 0.
j=0

avec aj = Aj (g, . . . , g (n1) ) o`


u Aj C(z)[Z0 , Z1 , . . . , Zn ].
On consid`ere d le plus petit entier N verifiant une relation de type (E) avec
aj K o` u K = K est le corps C(z)(g, g 0 , g 00 , . . .) (en fait on veut la cloture par
derivation de Kn ).
Si d = 0, on a a0 = 0 et A0 est non nul donc le resultat est demontre.
Sinon, par definition de d, on a ad 6= 0 donc quitte `a diviser par ad , on
peut supposer ad = 1. En fait, quitte `a tout multiplier par un element conve-
nable de C(z)[g, g 0 , . . .], on peut supposer aj C(z)[g, g 0 , . . .]. De plus, on
peut choisir m minimal pour que tous les aj secrivent Aj (g, . . . , g (m1) ) o` u
Aj C(z)[Z0 , Z1 , . . . , Zm1 ].
En derivant la relation (E), on obtient
d
X
jaj j1 0 + a0j j = 0.
j=1

Comme 0 = g, on obtient :
d
X
(E 0 ) (jaj g + a0j )j = 0.
j=0

On op`ere (E 0 ) dg (E) et on obtient lequation algebrique suivante qui


est encore `a coefficients dans K
d1
X
((j d)aj g + a0j )j = 0.
j=0
5.2. CORRECTION 89

Par definition de la minimalite de d, pour tout j {0, . . . , d 1}, on a


necessairement (j d)aj g + a0j = 0. Ainsi, pour tout j {0, . . . , d 1}, on a
m1
X Aj
Bj (g, . . . , g (m) ) = 0 avec Bj = (j d)Z0 Aj + Zp+1 + A0j , o`
u A0j signifie
p=0
Z p

clairement que lon derive les coefficients de Aj (qui sont dans C(z)).
Pour conclure, il suffit donc de montrer quil existe j {0, . . . , d 1} tel que
Aj
Bj est non nul. Or le coefficient dominant de Bj en Zm vaut car les
Zm1
polynomes Ai (i d 1) nont aucun terme en Zm dapr`es 1.a.
Si le degre partiel en Zm1 de tous les polynomes Ai non nuls (i d 1)
est nul alors ceci contredit la minimalite de m. On conclut donc quil existe
Ai
i d 1 tel que le degre partiel en Zm1 de Ai est non nul ie est non
Zm1
nul donc Bi est non nul. Ceci ach`eve la demonstration du resultat demande.
3. Comme g(et ) = et (et ), une recurrence immediate donne pour tout
entier j : g (j) exp = Aj (, . . . , (j) ) o` u Aj L[Z0 , Z1 , . . . , Zj ] et le coefficient
dominant de Aj en Zj est expj1 .
Si B(g, . . . , g (n) ) = 0 o` u B C(z)[Z0 , Z1 , . . . , Zn ] est non nul, on a alors

B(, . . . , (n) ) = 0 o` uB L[Z0 , Z1 , . . . , Zn ]. En notant = d(B), on a d(B) =
D
P
et B = B (exp) u D = j (j + 1)j donc B est non nul.
6= 0 o`
verifie donc une equation differentielle algebrique sur L.
4. On consid`ere lensemble J = {Q L[X0 , . . . , Xn ]; Q(, . . . , (n) ) = 0}
o`u n est tel quil existe B L[Z0 , Z1 , . . . , Zn ] non nul avec B(, . . . , (n) ) = 0.
J est clairement un ideal non reduit `a {0}. Dapr`es III.B.2.b, il existe M
J \ {0} tel que pour tout P J \ {0}, d(P )Rn d(M ) implique lexistence de
c L tel que P = cM . M est non constant car un polynome constant de J est
necessairement nul. 1
1
On consid`ere alors P = M (X0 R0 ), . . . , n+1 (Xn Rn ) . Pour tout
2 2
t , on a
1 1
P (, . . . , (n) )(t) = M ( R0 ), . . . , n+1 ((n) Rn ) (t)
2 2
= M (, . . . , (n) )(2t) = 0

1 (j)
car pour tout j et tout t , on a (t) Rj (t) = (j) (2t) (cf. II.3.c).
2j+1
Ainsi P J \ {0} et clairement d(P )Rn d(M ). La definition de M implique
lexistence de L tel que P = M ie
1 1
M (X0 R0 ), . . . , n+1 (Xn Rn ) = M.
2 2

5.a. Comme M / L, dapr`es la question III.B.3, il existe (i0 , . . . , in ) tel que


|i| M
U= soit affine et non constant (on rappelle que |i| = i0 +. . .+in ).
X0i0. . . Xnin
On a alors
|i|
1 1
U = M (X0 R0 ), . . . , (X n Rn ) .
X0i0 . . . Xnin 2 2n+1
90 CHAPITRE 5. SESSION DE 1993

Or
j
1 1
(X0 M R0 ), . . . , (X n Rn )
Xsj 2 2n+1
1 j M 1 1
= j(s+1) (X 0 R 0 ), . . . , (X n R n )
2 Xsj 2 2n+1
donc
hY
n
1 i |i| M 1 1
U = (X0 R0 ), . . . , n+1 (Xn Rn ) .
s=0
2is (s+1)
X0i0 in
. . . Xn 2 2
1 1
Finalement, U (X0 R0 ), . . . , n+1
(Xn R n ) = U o`
u L.
2 2
n
X
5.b. Le polynome U est affine donc U = pj Xj + q. La relation de la
j=0
question 5.a secrit donc
n
X n
X
1
p (Xj Rj ) + q =
j+1 j
pj Xj + q.
j=0
2 j=0

1
Ainsi, pour tout j {0, . . . , n}, pj = p et
2j+1 j
n
X 1
(E) p (Rj ) + q = q.
j=0
2j+1 j

On est amene `a etudier une equation (Ea ) du type au = u . On pose pour


t : u(t) = v(exp(t)) o` u v M (). Lequation (Ea ) secrit alors pour tout
t , av(exp(t)) = v(exp(2t)) soit pour tout z : av(z) = v(z 2 ). Supposons
u (donc v) non nulle, comme v est meromorphe, il existe Z tel que pour
z au voisinage de zero, on ait v(z) = z w(z) o` u w(0) 6= 0 et w holomorphe
au voisinage de zero. Lequation (Ea ) secrit alors pour z au voisinage de zero
az w(z) = z 2 w(z 2 ) soit aw(z) = z w(z 2 ). Comme a est non nul (sinon u
donc u est nulle), on a necessairement (en regardant le comportement en zero) :
= 0 et a fortiori, en z = 0, cela donne a = 1 (car w(0) 6= 0). Ainsi, pour
r
z , v(z) = v(z 2 ) = . . . = v(z 2 ) pour tout entier r. Faisant tendre r vers
+, on obtient v(z) = v(0), autrement dit v donc u est constante.
Pour tout j {0, . . . , n}, lequation (E2j+1 ) donne : soit pj = 0, soit est
non nul, 2j+1 = 1 et pj est constante. On rappelle que le cas = 0 implique
pj = 0.
On remarque donc que si est nul alors tous les pj sont nuls et U est
constante ce qui est faux.
Ainsi est non nul et pour tout j {0, . . . , n}, pj = 0 ou 2j+1 = 1 et pj
est constante. Il est clair quon ne peut avoir 2j+1 = 1 et 2i+1 = 1 pour i
et j distincts donc tous les pj sont nuls sauf exactement un (puisquils ne sont
pas tous nuls), disons pour j = m. On a alors 2m+1 = 1 et pour tout j 6= m,
pj = 0. De plus, pm est constante.
Lequation (E) devient donc 2(m+1) pm (Rm ) + q = q = 2(m+1) q. On
q q
en deduit en posant pm = C C que Rm = 2m+1 . Ainsi, il existe
C C
u L tel que Rm = 2m+1 u u.
5.2. CORRECTION 91

5.c. On ecrit Rm (t) = Sm (et ) et u(t) = (et ) o`u t et Sm , C(z).


Le resultat de la question precedente donne alors Sm (et ) = 2m+1 (e2 t) (et ).
Donc pour tout z , Sm (z) = 2m+1 (z 2 ) (z).
z
6. On commence par remarquer que, comme S0 (z) = , 1 est pole simple
1z
de S0 . Puis par recurrence immediate, 1 est pole dordre k + 1 de Sk .
admet donc necessairement 1 pour pole. Notons n lordre de multiplicite
du pole 1 pour . On peut donc ecrire :

V (z)
(z) = .
(z 1)n
o`
u V M () est holomorphe au voisinage de 1 et nadmet 1 ni comme zero ni
comme pole.
Le resultat de la question precedente donne donc

V (z 2 ) V (z)
(P ) Sm (z) = 2m+1 .
(z 2 1)n (z 1)n

1
On decompose en elements simples et III.A4 donne
(z 2 1)n

1 1 1
= + (z 1)C(z)
(z 2 1)n (z 1)n 2n

o`
u C C(z) et admet uniquement 1 comme pole.
La relation (P ) secrit alors (en posant N (z) = V (z 2 ).C(z))

1
m+1n 2
Sm (z) = 2 V (z ) V (z) + (z 1)N (z) .
(z 1)n

Comme 1 est pole dordre m + 1 de Sm , on a n = m + 1. En effet, si n 6=


m + 1, alors necessairement n > m + 1 et il faudrait alors que 1 soit zero de
2m+1n V (z 2 ) V (z) + (z 1)N (z) donc zero de 2m+1n V (z 2 ) V (z) ce qui
imposerait (2m+1n 1)V (1) = 0 alors que V (1) 6= 0.
Comme V est holomorphe au voisinage de 1, on peut ecrire V (z) = V (1) +
(z 1)h(z) o`u h M () est holomorphe au voisinage de 1 (donc nadmet pas
1 comme pole). On obtient V (z 2 ) V (z) = (z 1)[(z + 1)h(z 2 ) h(z)] donc

1
Sm (z) = m
(z + 1)h(z 2 ) h(z) + N (z) .
(z 1)

donc 1 est pole de Sm dordre inferieur `a m ce qui est faux.


On a donc une contradiction qui ne peut provenir que de lhypoth`ese du
debut de question IV.2. On conclut que ne verifie pas d equation differentielle
algebrique sur C(z).
92 CHAPITRE 5. SESSION DE 1993

V. G
en
eralisation.
1.a. Pour tout entier n N et tout z (toutes les puissances de z sont
n
Y k
encore dans ), on definit n (z) = R(z 2 ). On a n H() car R H()
k=0
et n (0) = 1.
On ecrit R(z) = 1 + zr(z) o`
u r est holomorphe sur .
Fixons < 1. Etant continue, r est en particulier bornee sur ladherence de
(qui est strictement incluse dans ) par m . Pour tout z , on a la
majoration
n
Y n
Y n
Y
k k k
| R(z 2 )| (1 + |r(z)|.|z|2 ) (1 + m 2 ).
k=0 k=0 k=0

Y
n
k

Comme < 1, la suite (1 + m 2 ) est majoree (en fait, on a mieux :
n
k=0
k
comme cette suite est croissante, puisque (1 + m 2 ) 1, le produit infini
Y
k
(1 + m 2 ) est convergent). En effet, en passant au log, il vient
k=0

n
Y n
X n
X
k k k
0 log (1 + m 2 ) = log(1 + m 2 ) m 2
k=0 k=0 k=0

et le dernier terme est convergent (donc majore) quand n tend vers +. On a


n
Y k
donc bien lexistence de M R tel que (1 + m 2 ) M pour tout n.
k=0
n+1
Y
n
k
On a pour tout z : n+1 (z) n (z) = 1 R(z 2 ) . R(z 2 ). On
k=0
en deduit la majoration
n+1 n+1 n+1 n+1
|n+1 (z) n (z)| |1 R(z 2 )|M M |z|2 |r(z 2 )| M m 2 .
P
Ainsi, la serie de fonctions n (n+1 n ) converge uniformement sur
pour tout < 1. On en deduit que (n ) converge simplement vers une fonction
sur et que (n ) converge uniformement vers sur pour tout < 1. En
particulier est holomorphe sur pour tout < 1 donc est holomorphe sur
.
On remarque que pour tout z , n+1 (z) = R(z).n (z 2 ) et n (0) = 1. En
passant `a la limite sur n, on obtient les relations (z) = R(z).(z 2 ) et (0) = 1.
Il reste `a etablir lunicite de . On ne peut malheureusement pas raisonner
comme au II.2 car R peut a priori sannuler sur . Soit T holomorphe sur
telle que T (0) = 1 et T (z) = R(z)T (z 2 ).
En 0, et R sont non nulles. Par continuite, il existe ]0, 1[ tel que pour
T (z)
tout z : h(z) = est definie (en particulier donc R est non nulle
(z)
r
sur ce voisinage) et on a alors h(z) = h(z 2 ) = . . . = h(z 2 ) puis par passage `a
la limite sur r vers + : h(z) = h(0) = 1. Ainsi, T (z) = (z) sur . Dapr`es
5.2. CORRECTION 93

le theor`eme du prolongement analytique (T et sont holomorphes sur louvert


et coincident sur louvert ) T = sur . Ceci etablit donc lunicite de .
1.b. On raisonne par recurrence sur k. Pour k = 0, on derive la relation
(et ) = R(et ).(e2t ) o`
u t pour obtenir

et 0 (et ) = et R0 (et ).(e2t ) + 2e2t R(et ).0 (e2t ).

et 0 (et ) et R0 (et ) 2e2t 0 (e2t )


Do`
u f (t) = = + = 2f (2t) + S0 (et ).
(et ) R(et ) (e2t )
zR0 (z)
avec S0 (z) =
R(z)
Supposons alors que le resultat soit vrai pour k N. On derive la relation

f (k) (t) = 2k+1 f (k) (2t) + Sk (et ) u Sk C(z)


o`

pour obtenir

f (k+1) (t) = 2k+2 f (k+1) (2t) + Sk+1 (et ) u Sk+1 (z) = zSk0 (z).
o`

Le resultat est donc vrai `a lordre k + 1 et par recurrence, il est vrai pour
tout k.
2. On suppose quil existe m N tel que
(Em ) Sm (z) = 2m+1 (z 2 ) (z) o`
u C(z).

On remarque par une recurrence immediate que Sm nadmet pas 0 comme


pole et que Sm C0 (z). La relation de recurrence sur Sk montre alors que 0 est
racine de Sm (car 0 nest ni pole ni racine de R). Nous affirmons que nadmet
pas 0 comme pole.
1
En effet, si 0 est pole de , disons dordre n 1, secrit n B(z) o`
u B(0) 6= 0
z
m+1
2 1
et B est meromorphe sur . On a la relation Sm (z) = 2n B(z 2 ) n B(z).
z z
Ainsi, lim z 2n Sm (z) = 2m+1 B(0) 6= 0 or Sm nadmet pas 0 comme pole. Nous
z0
avons donc une contradiction et nadmet pas 0 comme pole.
Si m = 0, le choix G = convient.
0
Supposons que m 1. On a zSm1 (z) = Sm (z) = 2m+1 (z 2 ) (z) soit

0 (z 2 ) (z)
() Sm1 (z) = 2m+1 .
z z
(z)
On remarque que necessairement le degre de est inferieur `a 1. En
z
2
(z ) (z)
effet, le degre de est different de celui de d`es que le degre de nest
z z
0 (z)
pas 0. Comme le degre de Sm1 est inferieur `a 1, le degre de est inferieur
z
`a 1 sauf eventuellement si le degre de vaut 0. Auquel cas, a posteriori, le
(z)
degre de est aussi inferieur `a 1. Ainsi, notre affirmation est verifiee.
z
(z)
On peut donc ecrire (cf. III.A.1.c) = v(z) + w(z) o` u v V et w W .
z
94 CHAPITRE 5. SESSION DE 1993

(z)
Comme en particulier C0 (z), on peut operer (cf. III.A.2) et on
z
obtient la relation
(z 2 ) 0 (z)
(z) = = 2(m+1) Sm1 (z) + .
z z z
0
Donc (v) + (w) = 2(m+1) Sm1 +v+w .
0
Par definition, Sm1 W . On rappelle que V et W sont en somme directe et
sont stables par donc
0
(v) = 2(m+1) v et (w) = 2(m+1) Sm1 +w .
En particulier, la premi`ere relation permet daffirmer que si a est un pole
de v alors les deux racines carrees de a aussi. En particulier si a = teis (0 <
1 is
s 2, t > 0) est un pole non nul de v alors tous les complexes t n e n aussi.
Donc v admettrait une infinite de poles, ce qui est impossible. On en deduit
que v = 0 ou v nadmet que 0 comme pole. Supposons v non nul, la relation
p(z)
zv(z 2 ) = 2(m+1) v(z) implique que 0 est pole dordre 1 de v donc v(z) =
z
u p est un polynome qui verifie la relation : p(z 2 ) = 2(m+1) p(z). Le polynome
o`
p est donc clairement nul (pour des raisons de degres, il est constant, egal `a C
disons, puis C = 2(m+1) C impose C = 0). Ainsi, v = 0.
(z)
On en deduit que = w W =ImD, cest `a dire quil existe une fraction
z
(z)
G (on la choisit telle que G(0) = 0) telle que G0 (z) = . Comme 0 nest pas
z
(z)
pole de , 0 nest pas pole de G. De plus, la relation () devient
z
0 (z 2 ) (z)
Sm1 (z) = 2m (2z 2 ) = 2m G(z 2 )0 G0 (z).
z z
Par integration, Sm1 (z) = 2m G(z 2 ) G(z) (on rappelle que Sm1 (0) = 0)
et on a lequation (Em1 ).
Enfin, par recurrence, on a les equations (Em1 ), (Em2 ),...,(E0 ). Le cas
m = 0 a dej`a ete traite et le resultat est demontre.
3.a. X g(, n)
G(z) = E(z) + .
C
(z )n
n1

R0
On commence par remarquer que la fraction z nadmet que des poles
R
simples.
Fixons = a2 un pole de G et notons n (resp. N , eventuellement nul) lordre
de multiplicite de (resp. a) en tant que pole de G.
A(z)
On a G(z) = o`
u A C(z) et A(a) = g(a, N ). De meme, G(z) =
(z a)N
B(z) 2 B(z 2 )
o`
u B C(z) et B() = g(, n) =
6 0 donc G(z ) = .
(z )n (z 2 a2 )n
Lequation (E0 ) devient
R0 (z) 1 2B(z 2 ) A(z)
z = . .
R(z) (z a)n (z + a)n (z a)N
5.2. CORRECTION 95

R0 (z)
Si n 2, il faut N = n sinon a est pole double de z . Ainsi a est aussi
R(z)
pole de G. Finalement, si est pole de G dordre n 2, ses racines carrees
sont aussi poles dordre n. On conclut comme dans la question precedente que
G aurait alors une infinite de poles ce qui est impossible.
Finalement, n 1, ce quil fallait demontrer.
R0 (z)
3.b. Le degre de z est negatif donc la partie enti`ere de G est constante.
R(z)
En reprenant les calculs de la question precedente et compte-tenu que tous les
poles sont simples, on peut ecrire pour tout a

R0 (z) 1 g(a2 , 1)
z = g(a, 1) + Q(z) o`
u a nest pas pole de Q.
R(z) (z a) a

On pose
R0 (z) na
= + T (z)
R(z) za
o`
u a nest pas pole de T et na est un entier relatif (en fait, |na | est lordre de
multiplicite de a comme racine ou comme pole de R).
On a alors, en identifiant les equivalents en a :

g(a2 , 1)
na .a = g(a, 1)
a
g(a2 , 1) g(a, 1)
et ceci est vrai pour tout a. Ceci secrit encore na = donc
a2 a
pour tout entier p
p+1 p p+1
g(a2 , 1) g(a2 , 1) g(a2 , 1) g(a, 1) g(a2 , 1) g(a, 1)
pna = p+1 p + . . . + = .
a2 a2 a2 a a2p+1 a
Fixons un pole de G. Comme il y a un nombre fini de poles, le raisonnement
p+1
de la question 2 nous donne lexistence de p et a tels que = a2 et g(a, 1)
est nul.
g(, 1)
Ainsi, pour tout pole de G, on a = q Z. On peut alors ecrire

X q .
G(z) = E + .

z
C

do`
u
R0 (z) 2G(z 2 ) G(z) E X 2q . X q .
= = + 2
.
R(z) z z
z(z )
z(z )
C C

R0 (z) 1 1
On remarque que E = lim z Z. De plus, on a = + et
R(z) z(z ) z z
1 z 2G(z 2 ) G(z)
2
= + 2 . La fraction apparat donc comme la
z(z ) z z z
F (z) Y X
derivee logarithmique de z Eq 2
o`u F (z) = (z )q et q = q .
F (z )
C C
96 CHAPITRE 5. SESSION DE 1993

F (z)
On obtient donc la relation R = cz Eq o`
u c C. Comme 0 nest ni pole ni
F (z 2 )
racine de R, E q = 0. De plus, c = R(0) = 1. Finalement, F (z) = R(z)F (z 2 ).
Pour utiliser lunicite de (cf V.1.a) et conclure = F C(z), il faut encore
etablir le caract`ere holomorphe de F sur . Pour cela, il suffit de montrer que
F nadmet aucun pole dans . Mais sinon, comme R nadmet aucun pole dans
, les poles dans de F (z) et F (z 2 ) sont les memes. Mais le raisonnement du
V.2 (toujours le meme) montre que alors F admet une infinite de poles dans ,
ce qui est faux. F est donc holomorphe sur et on conclut C(z).

5.3 Commentaires
Le probl`eme concerne surtout la fonction generatrice associee `a la suite de
Thue-Morse. Il sagit de montrer quelle ne verifie aucune equation differentielle
algebrique non triviale. Ce resultat est generalise `a dautres types de fonctions
dans la derni`ere partie. Lepreuve est toutefois eclectique et les th`emes abordes
sont : lalg`ebre des polynomes `a plusieurs indeterminees, leurs ideaux et leur
caract`ere eventuellement principal, les fonctions holomorphes (de facon tr`es
elementaire), la decomposition des fractions rationnelles en elements simples.
Chapitre 6

Session de 1994

6.1 Sujet

97
98 CHAPITRE 6. SESSION DE 1994

6.2 Correction

Partie I. Pr
eliminaires

1.1. Procedons par recurrence sur lentier l N .


Soit Hl lenonce suivant : si A1 , . . . , Al sont des parties infinies de k et si P est
un polynome de k[X1 , . . . , Xl ] dont la fonction associee sannule sur A1 . . .Al
alors P est le polynome nul.
H1 est vrai : un polynome `a une indeterminee qui a une infinite de racines
dans k est le polynome nul.
Supposons Hl vrai et montrons Hl+1 . Soient A1 , . . . , Al+1 des parties infinies
de k et soit P k[X1 , . . . , Xl+1 ] dont la fonction associee sannule sur A1 . . .
Al+1 .
X d
i
On peut ecrire P = Qi Xl+1 o`u d est un entier et o` u Qi k[X1 , . . . , Xl ]
i=0
pour 0 i d. On a par hypoth`ese :
d
X
(x1 , . . . , xl , xl+1 ) A1 . . . Al Al+1 fi (x1 , . . . , xl ) xil+1 = 0
Q
i=0

fi designe la fonction associee `a Qi ).


(pour 0 i d, Q
Fixons alors (x1 , . . . , xl ) A1 . . . Al et considerons le polynome :
d
X
R= fi (x1 , . . . , xl ) X i .
Q
i=0

La fonction associee `a R sannule sur Al+1 qui est une partie infinie de k : le
cas l = 1 affirme alors que R est le polynome nul.
Ainsi, pour tout i {0, . . . , d}, Qfi (x1 , . . . , xl ) = 0. Ceci est bien entendu
valable pour tout (x1 , . . . , xl ) A1 . . . Al et on peut alors appliquer lhy-
poth`ese de recurrence pour obtenir : Qi = 0 pour 0 i d et ceci entraine
clairement la nullite de P .
1.2. Les normes sont equivalentes en dimension finie. On peut donc supposer
que la topologie de k n est celle induite par la norme k.k o`
u

k(x1 , . . . , xn )k = sup |xi | .


1in

U contient alors une boule ouverte de k n qui est de la forme I1 . . . In o`


u Ip
est un ouvert non vide de k pour 1 p n (si k = R, Ip est un intervalle, si
k = C, Ip est un disque). La question 1. entraine que P est le polynome nul (il
est clair que les Ip sont infinis).
1.3.1. Il est clair que pour f F (V ) et pour g G, g.f F (V ). Il est
egalement clair que pour g G, f, h F (V ) et k, g.(f + h) = g.f + g.h.
On definit ainsi une application : G L(F (V )) par (g) : f 7 g.f .
Montrons que pour tous g1 , g2 G, (g1 g2 ) = (g1 ) (g2 ).
6.2. CORRECTION 99

Soient g1 , g2 G, f F (V ) et v V . On a :

(g1 )((g2 )(f ))(v) = [(g2 )(f )](g11 .v) = f (g21 .(g11 .v) = f ([g1 g2 ]1 .v).

Do`u lassertion.
Dautre part, on a clairement, si e designe lelement neutre de G et si f
F (V ) :
v V, ((e)(f ))(v) = f (e.v) = f (v).
Donc (e) est lapplication identique de F (V ). Ces deux derniers faits mis en-
semble assurent que si g G, alors (g) GL(F (V )) et [(g)]1 = (g 1 ). Le
resultat en decoule aussitot.
1.3.2. Soit g G. Alors h(g.v) = (g 1 .h)(v) = h(v) car h F (V )G . Ainsi
h est bien constant sur Ov .
Reciproquement, soit f F (V ) constante sur toutes les G-orbites. Soit
v V , f est alors constante egale `a f (v) sur Ov (car v Ov ). Donc pour tout
g G, comme g 1 .v Ov , on a : (g.f )(v) = f (g 1 .v) = f (v). On a donc :
g.f = f pour g G et f F (V )G .
1.4.1. Precisons un P
peu laction de r sur k[X].
Tout dabord, si P = n an X n k[X] (la somme etant bien entendue finie),
on a par linearite :
X X
()(P ) = an ()(X n ) = an n X n = P (X).
n n

Pour i N , on a alors pour n N : ( i )(X n ) = in X n . Ceci se montre


par recurrence sur i.
Cest vrai si i = 1 de par la definition de ()(X n ). Supposons le resultat
vrai pour i. Soit n N, alors :

( i+1 )(X n ) = ()[(( i )(X n )] = ()( in X n ) = in n X n = n(i+1) X n .


n n n
Il revient au meme de dire queX pour g r , (g)(X ) = g X et ceci entraine
par linearite que (g)(P ) = an g n X n = P (gX) pour g r .
n
Le resultat est alors clair.
1.4.2. Soit Q k[X r ] et g r . On ecrit Q = P (X r ), o`u P k[X]. On a
alors :
(g)(Q) = Q(gX) = P (g r X r ) = P (X r ) = Q
car g r = 1. Donc Q k[X]r . P
Reciproquement, soit Q = n an X n un element de k[X]r .
On a Q(X) = Q(X), ce qui donne en identifiant les coefficients :

n N , an ( n 1) = 0

Les hypoth`eses faites sur k et le fait que soit une racine primitive r -i`eme de
1 font que n = 1 r divise n. Donc, si r ne divise pas n, an = 0. Il en
resulte immediatement que Q k[X r ].
1.5.1. Soient g G et (x1 , . . . , xn ) kn . Notons y = g 1 x. Les coordonnees
de y sont des fonctions lineaires des xi . Il est alors immediat que P (y) est une
100 CHAPITRE 6. SESSION DE 1994

fonction polynomiale des xi . La fonction g.P est donc associee `a un polynome


de k[x1 , . . . , xn ].
1.5.2. Montrons que lorbite de v par G est kn \ {0}.
Tout dabord, comme v 6= 0 et que tout element de G represente une appli-
cation lineaire injective, g.v 6= 0 et Ov k n \ {0}.
Donnons nous u k n , u 6= 0. Soient e1 , . . . , en1 , f1 , . . . , fn1 des vecteurs
de k n tels que (v, e1 , . . . , en1 ) et (u, f1 , . . . , fn1 ) soient des bases de k n . Soit h
lunique application lineaire de k n dans k n definie par h(v) = u et par h(ei ) = fi
pour 1 i n 1. Transformant base en base, h est bijective. Si g designe la
matrice de h dans la base canonique, alors g G et g.v = u i.e u Ov .

1.5.3. Soit f une fonction polynomiale sur kn invariante par G. Si v est un


vecteur non nul de k n , f est alors constante sur lorbite de v par G, cest `a dire
sur k n \ {0}. f etant une fonction continue, elle est alors constante sur k n . Il
est dautre part clair que les fonctions constantes sont invariantes par G, do` u
le resultat.

Partie II. Polyn


omes et actions sur les alg`
ebres
On remarque en toute generalite que si A est une alg`ebre et f1 , . . . , fn des
elements de A, alors k[f1 , . . . , fn ] est la plus petite sous-alg`ebre de A qui contient
les fi .

1.1. Donnons nous une autre base (fi )1in de V et notons (Y1 , . . . , Yn )
la base duale. Les Xi0 sexpriment lineairement en fonction des Yi (1 i
n). Donc pour 1 i n, Xi0 k[Y1 , . . . , Yn ] qui est une sous-alg`ebre de
A. Par consequent, k[X10 , . . . , Xn0 ] k[Y1 , . . . , Yn ]. On a linclusion inverse par
symetrie : S(V ) ne depend pas du choix de la base de V .
1.2. Notons ce morphisme. est surjectif P par definition de S(V ). Remar-
quons que pour P k[X1 , . . . , Xn ] et pour x = xi ei V , on a

(P )(x) = Pe(x1 , . . . , xn ) ,

Pe designant la fonction associee `a P sur k n . Linjectivite de resulte alors de


I.1.

1.3. Soit (fi )1in une autre base de V etP notons (Y1 , . . . , Yn ) la base duale
associee. Pour 1 i n, on peut ecrire Xi0 = j aj Yj . Pour tout N, (Xi0 )
est alors un polynome homog`ene de degre en les Yj car Xi0 est un polynome
homog`ene de degre 1 en les Yj . Il en resulte que tout polynome homog`ene
elementaire de degre d en les Xi0 est egalement un polynome homog`ene de degre
d en les Yj , puis que tout polynome homog`ene de degre d en les Xi0 (somme de
polynomes homog`enes elementaires de degre d) est un polynome homog`ene de
degre d en les Yj .
Par symetrie, on a aussi que tout polynome homog`ene de degre d en les Yi
est un polynome homog`ene de degre d en les Xj . S(V )d ne depend pas du choix
de la base de V .
6.2. CORRECTION 101

2.1. Soit g G et f1 , f2 F (V ). Pour v V on a alors :


[(g)(f1 f2 )](v) = [f1 f2 ](g 1 .v) = f1 (g 1 .v) f2 (g 1 .v)
= [(g)(f1 )](v) [(g)(f2 )](v).

Il est dautre part evident que (g)(1) = 1. Donc est aussi une action de G
sur lalg`ebre F (V ).
2.2. Soit g G. Pour 1 i n, on remarque que (g)(Xi ) est lineaire. En
effet, si v1 , v2 V et si k, on a :

[(g)(Xi )](v1 + v2 ) = Xi (g 1 .(v1 + v2 ))


= Xi (g 1 .v1 + g 1 .v2 )
= Xi (g 1 .v1 ) + Xi (g 1 .v2 )
= [(g)(Xi )](v1 ) + [(g)(Xi )](v2 ).

Pour 1 i n, (g)(Xi ) est alors combinaison lineaire des Xj , i.e un polynome


homog`ene de degre 1 en les Xj . Donc, pour N, ((g)(Xi )) est un polynome
homog`ene de degre .
Soit alors 1 , . . . , n des entiers de somme d. Dapr`es la question precedente,
on a : (g)(X11 . . . Xnn ) = [(g)(X1 )]1 . . . [(g)(Xn )]n . Cest donc un po-
lynome homog`ene de degre 1 + . . . + n = d.
Donc limage par (g) dun polynome homog`ene elementaire de degre d est
dans S(V )d . Comme tout element de S(V )d est combinaison lineaire de tels
polynomes, on a le resultat par linearite de (g).
X
2.3. On sait que la somme S(V )d est directe.
d0
P G
A fortiori, d0 S(V )d S(V ) est directe et on a aussi linclusion
evidente
M
S(V )d S(V )G S(V )G
d0
P
Soit alors P S(V ) invariant par G. On ecrit P = d Pd o` u Pd S(V )d
pour tout d (la somme est finie, bien entendu).
P
Si g G, on a alors (g)(P ) = P = d (g)(Pd ). Dapr`es ce qui prec`ede,
(g)(Pd ) S(V )d pour tout d. Par unicite de la decomposition de P , on a alors
pour tout d : (g)(Pd ) = Pd . Donc, pour tout d, Pd S(V )G , ce quil fallait
prouver.

Partie III. Exemples

3. Groupe sp
ecial lin
eaire.
3.1. Si r > n alors Ur est vide, donc ouvert.
Supposons r n.
Pour toute matrice A `a n lignes et r colonnes `a coefficients dans k, on note
(A) lensemble des matrices carrees dordre r extraites de A (il y en a N = Cnr ).
Les elements de (A) seront notes 1 (A), . . . , N (A).
Fixons une base e de V .
102 CHAPITRE 6. SESSION DE 1994

Considerons lapplication : V r R definie de la mani`ere suivante. Si


(v1 , . . . , vr ) V r , on note M = M ate (v1 , . . . , vr ) et on pose :

(v1 , . . . , vr ) = |dete (1 (M ))| + . . . + |dete (N (M ))|

Lapplication ainsi definie est continue (les determinants qui interviennent


sont des fonctions polynomiales des coordonnees des vi dans la base e).
On a alors Ur = 1 (R+ ). Image reciproque dun ouvert par une application
continue, Ur est un ouvert de V r .
3.2. Soient (u1 , . . . , ur ) et (v1 , . . . , vr ) des elements de Ur . On peut consi-
derer des vecteurs de V : ur+1 , . . . , un et vr+1 , . . . , vn tels que u = (ui )1in
et v = (vi )1in soient des bases de V . Soit M = M atu (v1 , . . . , vn ). M est
inversible. Soit h lunique application lineaire de V dans V definie par h(ui ) = vi
pour i n 1 et h(un ) = vn o` u est un scalaire non nul `a preciser. On
a : det h = det M . On prend alors = 1/ det M pour obtenir det h = 1 et
(v1 , . . . , vr ) = h.(u1 , . . . , ur ). Ur est ainsi une orbite de G.
Il est clair que les constantes sont dans S(V r )G . Soit alors f S(V r )G . f
est constante sur Ur . Soit ` cette constante. Alors f ` sannule sur Ur qui est
un ouvert non vide de V r . On sait alors dapr`es I.2. que f ` est nul. Dont
acte.
3.3.1. Soit g G et (v1 , . . . , vn ) V r . On a, par definition du determinant
dun endomorphisme :

dete (g 1 (v1 ), . . . , g 1 (vn )) = det g 1 dete (v1 , . . . , vn ) = dete (v1 , . . . , vn )

cest `a dire que (g.f )(v1 , . . . , vn ) = f (v1 , . . . , vn ) et f S(V n )G .


3.3.2. Soit (v1 , . . . , vn ) Un , (v1 , . . . , vn ) est donc une base de V . Suppo-
sons lexistence de g G tel que g.(v1 , . . . , vn ) = (e1 , . . . , en1 , en ). g est alors
necessairement lunique application lineaire definie par ses valeurs sur la base
(v1 , . . . , vn ) par g(vi ) = ei si i n 1 et par g(vn ) = en . On a alors

= dete (g(v1 ), . . . , g(vn )) = det g f (v1 , . . . , vn ) = f (v1 , . . . , vn ).

Ceci montre lunicite, mais aussi lexistence : il suffit de definir g sur la base
(v1 , . . . , vn ) par g(vi ) = ei si i n 1 et par g(vn ) = f (v1 , . . . , vn ) en . On a
alors

f (v1 , . . . , vn ) = dete (g(v1 ), . . . , g(vn )) = det g f (v1 , . . . , vn ).

Donc det g = 1 car f (v1 , . . . , vn ) 6= 0.


On a bien entendu k[f ] S(V n )G . Soit alors h S(V n )G . Soit (v1 , . . . , vn )
Un . On sait que h est constant sur lorbite de (v1 , . . . , vn ). La fonction

t k h(e1 , . . . , en1 , ten )

est une fonction polynomiale P de t car h S(V n ).


On en deduit dapr`es ce qui prec`ede que :

h(v1 , . . . , vn ) = hg(v1 ), . . . , g(vn )
= h e1 , . . . , en1 , f (e1 , . . . , en ) en = P (f (v1 , . . . , vn )).
6.2. CORRECTION 103

Ainsi h P (f ) sannule sur louvert non vide Un , cest donc le polynome nul
par I.2. On a donc h = P (f ) k[f ].

4. Quelques groupes finis.


4.1. Lalg`ebre k[X1 , . . . , Xn ]n est celle des polynomes symetriques. Elle
est engendree par les polynomes symetriques elementaires 1 , . . . , n qui sont
algebriquement libres : cest donc une alg`ebre de polynomes.
4.2.1. Il est clair que k[X12 , . . . , Xi Xj , . . . , Xn2 ] k[X1 , . . . , Xn ]G .
Soit P k[X1 , . . . , Xn ] invariant par G, P est combinaison lineaire de
monomes du type X11 . . . Xnn . Laction de G sur un tel monome ne change
pas le n-uple (1 , . . . , n ). On en deduit que les monomes qui composent P
doivent etre aussi invariants par G. Cherchons donc `a quelle condition un tel
monome est invariant par G.
On doit avoir (1)1 +...+n = 1.
Ceci impose que le nombre delements i impairs est pair. On peut donc
grouper deux par deux les i impairs. Donnons nous alors un tel couple (i , j ).
On peut ecrire, si i j (par exemple) :
i
Xii Xj j = (Xi Xj )i Xj j k[Xj2 , Xi Xj ]

car j i est pair.


On voit donc quun tel monome est element de k[X12 , . . . , Xi Xj , . . . , Xn2 ] et
ceci entrane lassertion.
4.2.2. Commencons par prouver que k[X 2 , XY, Y 2 ] nest pas factoriel.
Les seuls diviseurs de X 2 dans k[X, Y ] sont les constantes, X, et X 2 o` u
k . On en deduit que X 2 est irreductible dans k[X 2 , XY, Y 2 ] : en effet, un
diviseur de X 2 dans k[X 2 , XY, Y 2 ] est aussi un diviseur de X 2 dans k[X, Y ].
De meme, Y 2 est irreductible dans k[X 2 , XY, Y 2 ]
De meme, les seuls diviseurs de XY dans k[X, Y ] sont les constantes, X, Y
et XY o` u k . On en deduit que XY est irreductible dans k[X 2 , XY, Y 2 ].
Or, on a : X 2 Y 2 = (XY )2 et il ny a pas unicite de la factorisation en
produit dirreductibles.
Donc k[X 2 , XY, Y 2 ] nest pas factoriel.
Pour n 2, il suffit de considerer de la meme facon legalite :

(X1 X2 )2 = X12 X22

pour sapercevoir que k[X12 , . . . , Xi Xj , . . . , Xn2 ] nest pas factoriel.


On en deduit dej`a que pour n 2, k[X1 , . . . , Xn ]G nest pas une alg`ebre de
polynomes car k[X1 , . . . , Xn ] est factoriel.
Pour n = 1, on a k[X]G = k[X 2 ] et k[X 2 ] est isomorphe `a k[X] via

P k[X] P (X 2 ).

k[X]G est une alg`ebre de polynomes.


4.2.3. Identifions k[U, V, W ] et (k[U, W ])[V ]. Lanneau k[U, W ] est commu-
tatif, unitaire et int`egre et le polynome V 2 U W est unitaire. On peut donc
effectuer la division euclidienne de P par V 2 U W .
104 CHAPITRE 6. SESSION DE 1994

On ecrit P = Q(V 2 U W ) + R, avec deg R 1. R secrit donc

R = S(U, W )V + T (U, W ).

Or P (X 2 , XY, Y 2 ) = 0 et cela donne S(X 2 , Y 2 )XY = T (X 2 , Y 2 ). Mais


T ((X)2 , Y 2 ) = T (X 2 , Y 2 ). Ceci implique alors S(X 2 , Y 2 ) = 0 et S est nul.
D`es lors, T est nul et R est nul. Donc V 2 U W divise P .
4.2.4. Considerons le morphisme : k[U, V, W ] k[X 2 , XY, Y 2 ] qui `a
un polynome P associe le polynome P (X 2 , XY, Y 2 ). est bien s ur surjectif et
dapr`es la question precedente, le noyau de est lideal engendre par V 2 U W .
Il suffit alors dappliquer le theor`eme disomorphisme : im est isomorphe `a
k[U, V, W ]/ ker .

5. et 6. Groupe orthogonal.
5.1. Soit v V . Sil existe un element a e1 (avec a 0) dans lorbite
de v sous O(V ), on peut trouver g O(V ) tel que g(v) = a e1 . On a alors
kvk = kg(v)k = |a| = a. Ainsi, a est determine de facon unique. Montrons
lexistence. Si v = 0, il suffit de prendre a = 0. Si v 6= 0, on pose e01 = v/kvk, on
compl`ete e01 en une base orthonormee (e01 , . . . , e0n ) de V et on consid`ere g L(V )
defini par g(e0i ) = ei pour 1 i n. Alors g O(V ) car g transforme une base
orthonormee en une autre et on a : g(v) = g(kvk e01 ) = kvk e1 .
5.2. Il est clair que R[X12 + . . . + Xn2 ] S(V )O(V ) .
Soit f S(V )O(V ) . Considerons le polynome P R[X] tel que pour t R,
P (t) = f (t e1 ). Remarquons que ce polynome est pair : pour v V , v est dans
lorbite de v car IdV O(V ). Comme f S(V )O(V ) , P (t) = f (t e1 ) =
f (t e1 ) = P (t) pour t R. On peut donc ecrire P = Q(X 2 ) o` u Q R[X]. Soit
alors v V . Dapr`es la question precedente, on a f (v) = f (kvk e1 ) = Q(kvk2 ).
Il en resulte que f R[X12 + . . . + Xn2 ]. Do`
u le resultat.
6.1. Soit g G, et (x, y) V . Comme g 1 conserve la norme et le produit
scalaire, on a :

g.L(x, y) = L(g 1 .x, g 1 .y) = H(g 1 (x).g 1 (y), kg 1 (x)k2 , kg 1 (y)k2 )


= H(x.y, kxk2 , kyk2 )
= L(x, y).

et L est bien G-invariant.


6.2. Considerons s la symetrie orthogonale daxe R e1 . Soient a, b, c R.
On a : s(a, 0) = (a, 0) et s(b, c) = (b, c). Par definition, F est invariant par s,
il en resulte que K(a, b, c) = K(a, b, c). Donc
P K est pair en la variable c et on
peut ecrire, pour a, b, c R, K(a, b, c) = i Qi (a, b)c2i o`u Qi R[X, Y ]. F est
aussi invariant par IdE , et ceci donne K(a, b, c) = K(a, b, c) pour tous
a, b, c R. On a donc pour tout i, Qi (a, b) = Qi (a, b) et dapr`es 4.2.1, Qi
est un polynome en a2 , b2 , ab. Ainsi K est bien un polynome en a2 , b2 , c2 , ab.
6.3. Soit (x, y) V . Si x = 0, nimporte quel element de G fait laffaire.
Supposons que x 6= 0. Soit f1 = x/kxk et soit f2 un vecteur de E de norme
1, orthogonal `a u. Soit g G tel que g(f1 ) = e1 et g(f2 ) = e2 . On a alors
g(x) = kxk e1 . Donc (x, y) a bien dans son orbite sous G un element (u, v) tel
que u est proportionnel `a e1 . Avec les notations precedentes, on peut prendre
6.2. CORRECTION 105

u = kxk e1 et v = g(y). Le vecteur y secrit y = (y.f1 ) f1 + (y.f2 ) f2 , donc


g(y) = (y.f1 ) e1 + (y.f2 ) e2 . On a donc

F (x, y) = F (u, v) = K(kxk, y.f1 , y.f2 ).

Dapr`es 6.2., cest donc un polynome en kxk2 = x.x, (y.f1 )2 , (y.f2 )2 , kxk y.f1 .
Or, on a :
(x.y)2
(y.f1 )2 = et kxk y.f1 = x.y.
x.x
Dautre part, on a
y.y = (y.f1 )2 + (y.f2 )2 ,
donc
(x.y)2
(y.f2 )2 = y.y .
x.x
1
On voit ainsi que F (x, y) devient un polynome en x.x, y.y, x.y, . En mul-
x.x
tipliant par une puissance convenable de x.x, on obtient alors un polynome en
x.x, y.y, x.y. Il existe donc M R[U, V, W ] et N tels que pour x 6= 0,

M (x.y, x.x, y.y)


F (x, y) = .
(x.x)

6.4. Soit R = W p P (U, V, W ) V q Q(U, V, W ). Montrons que R sannule


sur un ouvert de R3 . Considerons = [1/4, 1/4] [1/2, 1] [1/2, 1]. On va
montrer que R sannule sur , qui contient un ouvert de R3 : R est alors nul.
Donnons-nous (a, b, c) . Remarquons que a/ bc [1, 1], ce qui permet
de
considerer [0, ] tel que cos
= a/ bc. Soit alors x E de norme b. On
peut trouver y E de norme c tel que langle des vecteurs x et y soit . On
a alors x.y = bc cos = a. Do` u R(a, b, c) = R(x.y, x.x, y.y) = 0 (x et y sont
non nuls).
6.5. Dapr`es 6.1., on a
R[X1 Y1 + X2 Y2 , X12 + X22 , Y12 + Y22 ] R[X1 , X2 , Y1 , Y2 ]G .

Soit alors F R[X1 , X2 , Y1 , Y2 ]G . Dapr`es ce qui prec`ede, on peut trouver


M R[U, V, W ] et N tels que pour x 6= 0,

M (x.y, x.x, y.y)


F (x, y) = .
(x.x)

En raisonnant de mani`ere analogue, on montre quil existe N R[U, V, W ] et


N tels que pour y 6= 0,

N (x.y, x.x, y.y)


F (x, y) = .
(y.y)

On montre tout dabord que K1 (a, b, c) = F (a, b, 0, c) est un polynome en a2 , b2 ,


c2 , bc en considerant la symetrie orthogonale daxe Re2 , puis que tout element
(x, y) V a dans son orbite un element (u, v) o`u v est proportionnel `a e2 .
106 CHAPITRE 6. SESSION DE 1994

On a alors :
M (x.y, x.x, y.y) N (x.y, x.x, y.y)
x, y E \ {0} : =
(x.x) (y.y)

Dapr`es 6.4., W M (U, V, W ) = V N (U, V, W ). Or V et W sont irreductibles


dans R[U, V, W ] qui est factoriel. On en deduit que V divise M . On peut donc
ecrire M = V S et on en deduit que pour x 6= 0, F (x, y) = S(x.y, x.x, y.y) et il
y a egalite en 0 par continuite. F est bien un polynome en x1 y1 + x2 y2 , x21 + x22 ,
y12 + y22 .

7. Conjugaison.
7.1. Pour tout f V , on note Pf le polynome caracteristique de f . On
designe par Cn [X] le C-espace vectoriel des polynomes de degre inferieur `a n
`a coefficients dans C. Lapplication de L(E) dans Cn [X] qui `a un endomor-
phisme f associe Pf est continue (les coefficients de Pf sont des polynomes en
les coefficients de la matrice de f dans une base de E). Dautre part lapplica-
tion de Cn [X] dans C qui `a un polynome P fait correspondre le resultant de
P et P 0 est aussi continue ((P ) est en effet un polynome en les coefficients
de P ). Rappelons que si R(T, S) designe le resultant des polynomes T et S,
alors R(T, S) = 0 si et seulement si T et S ont une racine commune. On a alors
U = ( )1 (C ). U apparait ainsi comme image reciproque dun ouvert par
une application continue : U est donc ouvert.
Lorbite de u est la classe de similitude de u. Ici, u poss`ede n valeurs propres
distinctes. u est en particulier diagonalisable. Si v est dans lorbite de u, v
poss`ede les memes valeurs propres que u. Reciproquement, si f V poss`ede
les memes valeurs propres que u, f est diagonalisable car f admet n valeurs
propres distinctes. Il est clair que u et f ont memes matrices dans des base
convenables. u et f sont donc semblables. Lorbite de u est ainsi lensemble des
endomorphismes v de V qui ont les memes valeurs propres que u.
7.2. Ceci resulte immediatement du fait que deux endomorphismes sem-
blables ont meme polynome caracteristique.
7.3. La question qui prec`ede assure que k[1 , . . . , n ] S(V )G .
Soit alors F S(V )G . Fixons une base B = (e1 , . . . , en ) de E. Une base de V
est alors la famille dendomorphismes (fij )1i,jn definie par : pour tous i, j, k
dans {1, . . . , n}, fij (ek ) = ik ej . Soit P le polynome de C[X1 , . . . , Xn ] tel que
n
X
P (x1 , . . . , xn ) = F ( xi fii ) (ce polynome ne depend que de F ). P est en fait un
i=1
polynome symetrique. En effet, soit (x1 , . P . . , xn ) Cn et soit
Pune permutation
n n
de {1, . . . , n}. Les endomorphismes v = i=1 xi fii et w = i=1 x(i) fii sont
tous les deux diagonalisables : pour 1 i n, on a v(ei ) = xi ei et w(ei ) =
x(i) ei . La matrice de v dans la base (e(1) , . . . , e(n) ) est la meme que celle
de w dans la base B, v et w sont donc semblables et P (x1 , . . . , xn ) = F (v) =
F (w) = P (x(1) , . . . , x(n) ). On peut alors exprimer P comme un polynome en
les polynomes symetriques elementaires 1 , . . . , n . On ecrit P = Q(1 , . . . , n ).
Maintenant, si u V est diagonalisable Pn de valeurs propres (distinctes ou
non) x1 , . . . , xn , u est semblable `a v = i=1 xi fii , donc

F (u) = F (v) = Q(1 (x1 , . . . , xn ), . . . , n (x1 , . . . , xn )) = Q(1 (u), . . . , n (u)).


6.2. CORRECTION 107

F et Q(1 , . . . , n ) concident en particulier sur louvert U , donc partout et on


a bien :
F C[1 , . . . , n ].

PARTIE IV Les formes binaires

8. Un exemple (d = 2)

8.1. Par definition, on a 2 (g)P (u, v, w) = P (g 1 .[uX 2 + vXY + wY 2 ]).
Il sagit donc ici de calculer

g 1 .[uX 2 + vXY + wY 2 ] = u (g 1 .X)2 + v g 1 .X g 1 .Y + w (g 1 .Y )2

Lancons-nous donc dans les calculs sans rechigner. On a :

(g 1 .X)2 = (X + Y )2 = 2 X 2 + 2 Y 2 + 2XY
(g 1 .Y )2 = (X + Y )2 = 2 X 2 + 2 Y 2 + 2XY
(g 1 .X) (g 1 .Y ) = X 2 + ( + ) XY + Y 2 .

On en deduit que :

g 1 .[uX 2 + vXY + wY 2 ] = (2 u + 2 w + v)X 2


+(2 u + 2 w + ( + )v) XY
+( 2 u + 2 w + v) Y 2 .

Le resultat demande en decoule immediatement.


Montrons
maintenant que (u, v, w) = v 2 4uw appartient `a S(R2 )G . Soit

g= SL2 (k). Montrons que

(2 u+ 2 w+ v, 2 u+2 w+( +)v, 2 u+ 2 w+ v) = (u, v, w).

On a :
(2 u + 2 w + ( + )v)2 = 42 2 u2 + ( + )2 v 2 + 4 2 2 w2
+2 [2 ( + )] uv
+2 [2 ( + )] vw
+2 [2 2]uw.

Dautre part :

(2 u + v + 2 w) ( 2 u + 2 w + v) = 2 2 u2 + v 2 + 2 2 w2
+[( + )] uv
+[2 2 + 2 2 ] uw
+[( + )] vw.

Il vient donc :
(2 (g))(u, v, w) = v 2 [( + )2 4] + uw [8 42 2 4 2 2 ]
= ( )2 (v 2 4 uw)
= (det g)2 (u, v, w) = (u, v, w) car det g = 1.
108 CHAPITRE 6. SESSION DE 1994

Do`
u le resultat.
8.2. Comme k est algebriquement clos, le polynome X 2 u poss`ede une
racine z k. Comme u 6= 0, on a z 6= 0 et z est inversible car k est de
caracteristique nulle. On peut alors ecrire :
v v 2 4z 2 w 2
u X 2 + v XY + w Y 2 = (z X + 2z Y )
2
4z 2 Y
v 2 (u,v,w) 2
= (z X + 2z Y ) 4z 2 Y

(u, v, w) 2
On voit alors que u X 2 + v XY + w Y 2 = 2 (g 1 )(X 2 Y ) en posant
4
v (u, v, w)
z 2z
g= et on a bien g SL2 (k). Donc, X 2 Y 2 et u X 2 +
0 z 1 4
v XY + w Y 2 sont dans la meme orbite.
Montrons alors que S(R2 )G = k[]. Dapr`es 8.1., on a dej`a k[] S(R2 )G .
T
Soit alors P S(R2 )G . Soit Q k[T ] defini par Q = P (1, 0, ). Dapr`es

4
ce qui prec`ede, P et Q() concident sur k k k. On en deduit alors que
P = Q() grace `a la partie I. Ceci entrane bien entendu le resultat.

9. Cas g
en
eral.
9.1. Soit (i, j) un couple dentiers de {0, . . . , d} tels que i + j = d. Par
definition de d , on a :

(d (ga ))(X i Y j ) = (a1 X)i (aY )j = aji X i Y j .

Il en resulte que la matrice de (d (ga )) dans la base (X d , X d1 Y, . . . , Y d ) est


diagonale, le i-`eme coefficient diagonal valant ad+2i pour 0 i d. On a
alors :
d
X 1 a2(d+1) ad ad+2 ad+1 a(d+1)
tr(d (ga )) = ad a2i = ad = = .
i=0
1 a2 1 a2 a a1

9.2. On a R0 = k (un polynome homog`ene de degre 0 est constant) et il est


clair que les fonctions constantes sont invariantes par G, donc R0G = k.
Xd
Soit alors d > 0. Donnons-nous P RdG . On ecrit P = i X i Y di . On a
i=0
en particulier pour tout a k , (d (ga ))(P ) = P , cest `a dire que
d
X
P = ad2i i X i Y di .
i=0

Donc pour 0 i d, on a i (1 ad2i ) = 0.


Ceci impose i = 0 d`es que 2i 6= d : en effet, le polynome non constant
X |d2i| 1 na quun nombre fini de racines dans k et k est infini car de ca-
racteristique nulle ; on peut donc trouver une infinite de scalaires non nuls a tels
que 1 ad2i 6= 0. Reste `a examiner le cas o` u d est pair. On ecrit d = 2l, et P
secrit alors P = l X l Y l (tous les autres i son nuls par ce qui prec`ede). Soit
6.2. CORRECTION 109

1 1
g= . On a g.P = l (X + Y )l Y l = l X l Y l . Ceci impose clairement
0 1
l = 0. P est bien le polynome nul.
9.3. Considerons pour L tout i I une base Bi de Vi et soit dautre part i
lapplication de Vi dans kI Vk S definie par i (x) = (0, . . . , x, . . . , 0)
L (x est `a la
i-`eme place). Il est clair que B = iI i (Bi ) est alors une base de kI Vk . La
matrice de (h) dans cette base est diagonale par blocs, les blocsP diagonaux etant
les matrices de i (h) dans Bi . Il en resulte alors que tr(h) = iI tri (h).
9.4.1. On a
1
tr(ga ) = tr(
M n(d)
(ga ) )
= tr d (ga )
Xd0 n(d)
= trd (ga )
d0
X
= n(d)trd (ga )
d0
X ad+1 a(d+1)
= n(d) .
a a1
d0

On a utilise deux fois la question 9.3. : une fois pour ecrire que
M n(d) X n(d)
tr d (ga ) = trd (ga )
d0 d0

, et une autre pour ecrire


n(d)
trd (ga ) = n(d)trd (ga ).

9.4.2. Soit N N tel que n(d) = 0 si d > N . Pour tout a k on a donc


N
X
(a a1 )tr(ga ) = n(d)(ad+1 a(d+1) ) ,
d=0

et donc
N
X
aN +1 (a a1 )tr(ga ) = n(d) (aN +d+2 aN d ).
d=0
N +d+2
Ainsi n(d) est le coefficient de a dans le polynome
N
X
P = n(d) (aN +d+2 aN d )
d=0

qui ne depend que de dapr`es legalite precedente. Donc determine les entiers
n(d) de facon unique.
M n(d)
9.4.3. V est isomorphe `a Rd .
d0
M G
G n(d)
V est alors isomorphe `a Rd .
d0
110 CHAPITRE 6. SESSION DE 1994

Par definition dune somme directe dactions, on a clairement un isomorphisme


L G L
entre iI Vi et iI ViG avec les notations de la definition 11. Ici, V G est
L n(d) n(d)
isomorphe `a d0 [Rd ]G , et on a encore pour tout d 0, (Rd )G isomorphe
n(d)
`a (RdG )n(d) (laction de G sur Rd est encore la somme directe des actions d
sur Rd ). Or on a vu que si d > 0, RdG = 0. Finalement, V G est isomorphe `a
n(0)
R0 = k n(0) . La dimension de V G est donc n(0) qui est bien le coefficient de
N
X
a dans le polynome de Laurent (a a1 )tr(ga ) = n(d)(ad+1 a(d+1) ).
d=0

9.5.1. On sait que les inversibles de k[[T ]] sont les series formelles dont
le premier terme est non nul (en fait inversible dans k). Ici, si P designe le
polynome det(In B 1 T ), P (0) = det In = 1. Do`
u lexistence de linverse de
P dans k[[T ]].
9.5.2. B est triangulaire superieure, il en est donc de meme de B 1 ; de
plus, les coefficients diagonaux de B 1 sont b1 1
11 , . . . , bnn . La matrice In B
1
T
est egalement triangulaire superieure et ses coefficients diagonaux sont 1
b1 1
11 T, . . . , 1 bnn T . On a donc

n
Y
det(In B 1 T ) = 1 b1
ii T .
i=1

X Tk
Soit 1 i n, 1 b1
ii T est inversible dans k[[T ]], dinverse (il suffit
k0
bkii
1 X
dutiliser = U k ). On en deduit alors linverse de det(In B 1 T ) dans
1U
k0
k[[T ]].
X
(det(In B 1 T ))1 = ck T k
k0

o`
u pour k N, par definition du produit de series formelles :
X 1 1
ck = ... .
b1 b
nn
n
1 +...+n =k 11

Soit alors e N. Une base de k[X1 , . . . , Xn ]e est donnee par les elements du type
X11 . . . Xnn o`
u (1 , . . . , n ) decrit lensemble des n-uplets dentiers verifiant
1 + . . . + n = e. Notons B 1 = [aij ] (aii = 1/bii ). On a

B.(X11 . . . Xnn ) = (b1


11 X1 + a12 X2 + . . . + a1n Xn )
1
1
(b22 X2 + a23 X3 + . . . + a2n Xn )2
..
.
(b1
nn Xn )
n
.

1 1
La composante de B.(X11 . . . Xnn ) suivant X11 . . . Xnn est alors . . . n ;
b
11
1
bnn
il suffit de developper le produit precedent : on retrouve le produit X11 . . . Xnn
6.2. CORRECTION 111

en gardant (b1
11 X1 )
1
dans le premier facteur, puis (b1
22 X2 )
2
dans le second,
et ainsi de suite jusquau dernier facteur. On a alors
X 1 1
tre B = 1 . . . n .
1 +...+n
b
=e 11
b nn

X
Do`
u legalite des series formelles tre (B)T e et (det(In B 1 T ))1 .
e0

9.5.3. k est algebriquement clos, donc le polynome caracteristique de B


est scinde sur k. On sait alors que B est semblable `a une matrice P triangulaire
superieure A. Dapr`es la question precedente, les series formelles e0 tre (A)T e
et (det(In A1 T ))1 sont egales dans k[[T ]]. Comme B 1 est semblable `a A1 ,
les polynomes det(In A1 T ) et det(In B 1 T ) sont egaux (pour tout k,
In A1 et In B 1 sont semblables, donc ont meme determinant). On a
donc legalite des series formelles (det(In A1 T ))1 et (det(In B 1 T ))1 .
Dautre part, changeons leg`erement de notation et notons pour toute matrice
D GLn (k) : (D) lautomorphisme de k[X1 , . . . , Xn ] induit par D. En fait,
on a immediatement que (D1 D2 ) = (D1 ) (D2 ) (D1 , D2 GLn (k)) (
est donc une action de groupe). Soit C GLn (k) tel que B = C 1 AC. Alors
(B) = (C)1 (A) (C). Ainsi les automorphismes (A) et (B) sont
semblables. Il en resulte alors que pour tout e 0 tre (A) = tre (B). Do` u le
resultat.
X
9.6. Dapr`es ce qui prec`ede, on a d,e (a)T e = (det(In [d (ga )]1 T ))1 .
e0
Or, on a vu que la matrice de d (ga ) dans la base (X d , X d1 Y, . . . , Y d ) est
d
a
ad+2

. .. ,

d
a

donc la matrice de [d (ga )]1 dans cette base est


d
a
ad2

.. .
.
ad
On a donc tout de suite
det(In [d (ga )]1 T ) = (1 ad T )(1 ad2 T ) . . . (1 ad+2 T )(1 ad T )
= (1 ad T )(1 ad+2 T ) . . . (1 ad T ).
Do`
u le resultat.
9.7. Le terme constant de FU (W ) (obtenu pour W = 0) est 1 qui est
inversible dans Z[U ]. FU (W ) est alors inversible dans Z[U ][[W ]], do`
u lexistence
des polynomes Md,e (U ) Z[U ] tels que
X
[FU (W )]1 = Md,e (U )W e .
e0
112 CHAPITRE 6. SESSION DE 1994

9.8. On a :
X
d,e (a)W e = [(1 ad W )(1 ad+2 W ) . . . (1 ad W )]1
e0
d W 1
= [(1 a0 W
ad
)(1 a2W
aed
) . . . (1 (a2 ) ad
)]
X W
= Md,e (a2 )
ad
e0

Do`
u:
d,e (a) = ade Md,e (a2 )

9.9. Dapr`es la question 9.4.3., md,e est le coefficient de a dans le polynome


de Laurent (a a1 )d,e (a). Or on a :

(a a1 )d,e (a) = (a a1 )aX


de
Md,e (a2 )
1
= (a a ) c(d, e, i)a2ide
X i0 X
2ide+1
= c(d, e, i)a c(d, e, i)a2ide1
i0 i0

Il vient donc si de est impair, md,e = 0 et si de est pair, md,e = c(d, e, de/2)
c(d, e, (de/2) + 1). Il y avait donc une petite erreur denonce.


PARTIE V. GROUPE SYMETRIQUE

10. Polarisation.
10.1. Lapplication est derivable et
n
X
0 f
(t) = Yi (U1 + tY1 , . . . , Un + tYn )
i=1
Ui

On a donc bien 0 (0) = DU,Y f .


On en deduit que f 7 DU,Y f est une derivation de B[U ] dans B[U, Y ]. Pour
f B[U ], notons (f ) lapplication t R 7 f (U1 +tY1 , . . . , Un +tYn ). Il est clair
que f B[U ] 7 (f ) est lineaire et que si f, g B[U ] on a (f g) = (f )(g).
Soient alors a, b R, f , g B[U ]. On a

DU,Y (af + bg) = [(af + bg)]0 (0) = [a(f ) + b(g)]0 (0)


= a[(f )]0 (0) + b[(g)]0 (0)
= aDU,Y (f ) + bDU,Y (g).

et dautre part

DU,Y (f g) = [(f g)]0 (0) = [(f )(g)]0 (0)


= [(f )]0 (0)[(g)](0) + [(f )](0)[(g)]0 (0)
= DU,Y (f ) g + DU,Y (g) f.
6.2. CORRECTION 113

10.2. f est combinaison lineaire delements du type h1 1 . . . hp p . Par linea-


rite, il suffit donc de montrer le resultat pour ces derniers elements. On proc`ede
par recurrence sur p.
Le resultat est vrai pour p = 1 : soit 1 N (le cas 1 = 0 est clair). DU,Y
est une derivation, on a donc immediatement (il suffit deffectuer une recurrence
sur 1 ) DU,Y (h11 ) = (1 1)h 1
1 1
DU,Y (h1 ) B[h1 , DU,Y h1 ].
Supposons le resultat vrai pour lentier p 1. Soient 1 , . . . , p des entiers.
On a alors :

DU,Y (h p 1 p1 p 1 p1 p
1 . . . hp ) = DU,Y (h1 . . . hp1 ) hp + (h1 . . . hp1 )DU,Y (hp ).
1

Or par hypoth`ese,

DU,Y (h p1
1 . . . hp1 ) B[h1 , . . . , hp1 , DU,Y h1 , . . . , DU,Y hp1 ]
1


et dapr`es le cas p = 1, DU,Y hp p B[hp , DU,Y hp ]. On voit donc que

DU,Y (h p
1 . . . hp ) B[h1 , . . . , hp , DU,Y h1 , . . . , DU,Y hp ].
1

10.3. Donnons-nous F k[U ] et g G. Exprimons g.DU,Y F .


Notons [aij ] la matrice de g 1 (plus precisement de (g 1 ) si est laction de
G sur k n ) dans la base canonique de k n . On a par definition de laction de G
sur k[U, Y ] :
n
X
1 1
1 F 1
g.DU,Y F = DU,Y F (g .U, g .Y ) = (g .Y ) k (g .U ).
Uk
k=1

n
X

Or, on a pour 1 k n : (g 1 .Y ) k = akl Yl . On en deduit donc que :
l=1

Xn Xn
F 1
g.DU,Y F = (g .U ) akl Yl
Uk
k=1 l=1
Xn X n
F 1
= akl (g .U ) Yl .
Uk
l=1 k=1

Soit alors H = g.F = F (g 1 .U ). On a , par composition :


n
H X (g 1 .U )k F 1
l {1, . . . , n} = (g .U )
Ul Ul Uk
k=1

n
X

Or, pour 1 k n : (g 1 .U ) k = akp Up . On a donc :
p=1


(g 1 .U )k
(k {1, . . . , n}) (l {1, . . . , n}) = akl .
Ul
114 CHAPITRE 6. SESSION DE 1994

Finalement,
n
X H
g.DU,Y F = Yl = DU,Y H = DU,Y (g.F ).
Ul
l=1

Il en resulte immediatement que si f k[U ] est invariant pour laction de G


sur k[U ], alors DU,Y f est invariant pour laction de g sur k[U, Y ].
10.4.1. P est un polynome homog`ene de degre d en les indeterminees U [1] =
[1] [1]
(U1 , . . . , Un ), donc on a

P (X U [1] , U [2] , . . . , U [N ] ) = X d P (U [1] , . . . , U [N ] )


[1] [1]
u X U [1] = (X U1 , . . . , X Un ). Derivons cette relation par rapport `a X :
o`
n
X [1] P
Ui [1]
(X U [1] , U [2] , . . . , U [N ] ) = dX d1 P (U [1] , . . . , U [N ] ).
i=1 Ui

On specialise alors en X = 1 pour obtenir


n
X [1] P
Ui [1]
(U [1] , U [2] , . . . , U [N ] ) = d P (U [1] , . . . , U [N ] ).
i=1 Ui

Comme
n
X [N +1] P
Q(U [1] , . . . , U [N +1] ) = Ui [1]
(U [1] , . . . , U [N ] ) ,
i=1 Ui

on a bien le resultat annonce :

Q(U [1] , . . . , U [N ] , U [1] ) = d P (U [1] , . . . , U [N ] ).

10.4.2. Remarquons tout dabord que si F B[U ] est homog`ene de degre d,


alors DU,Y F est homog`ene de degre d1 vis-`a-vis de U . En effet, par linearite, il
suffit de prouver ceci lorsque F est de la forme U11 . . . Unn avec 1 +. . .+n = d.
Or, dans ce cas, on a pour i {1, . . . , n},
Y
F Uii 1 Uj j si i 1
= j6=i .
Ui
0 si i = 0

F
Donc est soit homog`ene de degre d 1, soit nul. Si F nest pas constant
Ui
F
(d 1), lun des est non nul et ceci entrane bien que DU,Y F est homog`ene
Ui
de degre d 1 vis-`a-vis de U . Appliquons cette remarque `a f , qui est homog`ene
de degre r : on obtient tout de suite par recurrence que si p {1, . . . , r + 1},
fbp est homog`ene de degre r p + 1 vis-`a-vis de U [1] . En particulier, fbr+1 est
homog`ene de degre 0, donc constant vis-`a-vis de U [1] . Il en resulte tout de suite
que si p > r + 1, fbp = 0.
6.2. CORRECTION 115

Demontrons `a present le resultat demande. On se donne un entier p dans


{1, . . . , N }.
Supposons dans un premier temps p < r.
fbr1 est un polynome homog`ene de degre 2 vis-`a-vis de U [1] et on a par definition

fbr = DU [1] ,U [r] fbr1 .

Dapr`es la question precedente, on a


1
fbr1 = fbr (U [1] , . . . , U [r1] , U [1] ).
2

fbr2 est un polynome homog`ene de degre 3 vis-`a-vis de U [1] et on obtient de


meme :
1
fbr2 = fbr1 (U [1] , . . . , U [r2] , U [1] ).
3
Do`u
1 b [1]
fbr2 = fr (U , . . . , U [r2] , U [1] , U [1] ).
32
On reit`ere alors cette methode r p fois pour obtenir :
1
fbp = fbr (U [1] , . . . , U [p] , U [1] , . . . , U [1] ).
(r p + 1) !

Lexistence de la suite (1 , . . . , r ) verifiant les conditions en decoule aussitot.


Pour p = r (ce qui suppose N r), le resultat est evident.
Pour p > r + 1 (ce qui suppose N r + 2), on a fbp = 0 et la suite (1 , . . . , r )
telle que i = 1 pour tout i fait laffaire.
Reste le cas p = r + 1 (ce qui suppose N r + 1). On sait que fbr est homog`ene
de degre 1 vis-`a-vis de U [1] . On peut donc ecrire :
n
X
fbr =
[1]
Pi (U [2] , . . . , U [r] ) Ui
i=1

u les Pi sont des polynomes en (U [2] , . . . , U [r] ). On a alors tout de suite :


o`
n
X
fbr+1 (U [1] , . . . , U [r+1] ) =
[r+1]
Pi (U [2] , . . . , U [r] ) Ui .
i=1

Ainsi
fbr+1 = fbr (U [r+1] , U [2] , . . . , U [r] ).
La suite (r + 1, 2, . . . , r) convient donc.

11 Action diagonale du groupe sym


etrique.
11.1. Soit r un entier fixe dans {1, . . . , n} et soit (i1 , . . . , ir ) des entiers
[1] [1]
verifiant 1 i1 < i2 < . . . < ir n. Soit f(i1 ,...,ir ) = Ui1 . . . Uir . Il est
clair que la polarisation totale de r est la somme des polarisations totales
des f(i1 ,...,ir ) lorsque (i1 , . . . , ir ) decrit lensemble des r-uplets dentiers verifiant
1 i1 < i2 < . . . < ir n.
116 CHAPITRE 6. SESSION DE 1994

Fixons un tel r-uplet (i1 , . . . , ir ) et etudions la polarisation totale de f(i1 ,...,ir )


que nous notons provisoirement f par commodite. Montrons que si p est un
entier compris entre 1 et r 1, alors :
X [2] [p+1]
Y [1]
DU [1] ,U [p+1] . . . DU [1] ,U [2] f = Uj1 . . . Ujp Uk .
(j1 ,...,jp ) k

La somme precedente porte sur tous les p-uplets dentiers distincts de lensemble
{i1 , . . . , ir }. Lorsquun tel p-uplet (j1 , . . . , jp ) est fixe, le produit qui apparat
porte sur les k appartenant au complementaire de {j1 , . . . , jp } dans {i1 , . . . , ir }.
Montrons cette formule par recurrence sur p. pour p = 1, on a :
n
X [2] f
DU [1] ,U [2] f = Ui [1]
.
i=1 Ui

f
Or, il est immediat que [1]
= 0 si i
/ {i1 , . . . , ir }. De plus, si k {1, . . . , r},
Ui
on a :
f Y [1]
[1]
= Uj .
Uik j{i1 ,...,ir }\{ik }

Ceci entrane la veracite de la formule pour p = 1.


Supposons la formule vraie pour lentier p et montrons la au rang p + 1. En
utilisant lhypoth`ese de recurrence et la linearite de DU [1] ,U [p+2] , on obtient :
X [2] [p+1] Y [1]
DU [1] ,U [p+2] . . . DU [1] ,U [2] f = Uj1 . . . Ujp DU [1] ,U [p+2] Uk .
(j1 ,...,jp ) k

Fixons (j1 , . . . , jp ) un p-uplets dentiers distincts de {i1 , . . . , ir }. Notons I len-


semble I = {i1 , . . . , ir } \ {j1 , . . . , jp }. Dapr`es le cas p = 1, on a :
Y [1] X [p+2] Y [1]
DU [1] ,U [p+2] Uk = Ui Uk
kI iI jI\{i}

Ceci entrane le resultat.


En particulier, on obtient :
X Y
fbr =
[2] [r] [1]
Uj1 . . . Ujr1 Uk .
(j1 ,...,jr1 ) k

Lorsque (j1 , . . . , jr1 ) est fixe dans {i1 , . . . , ir }, le produit qui apparat est reduit
[1]
au facteur Ujr o` u {jr } = {i1 , . . . , ir } \ {j1 , . . . , jr1 }. On a donc
X
fbr =
[1] [2] [r]
Uj1 Uj1 . . . Ujr ,
(j1 ,...,jr )

et la somme porte sur toutes les suites (j1 , . . . , jr ) dentiers distincts de len-
semble {i1 , . . . , ir } (il y a r ! termes dans cette somme : autant que de permu-
tations de {i1 , . . . , ir }).
On obtient alors le resultat en sommant les polarisations des f(i1 ,...,ir ) .
11.2. G agit sur kn via .(x1 , . . . , xn ) = (x1 (1) , . . . , x1 (n) ). G agit alors
sur k nN via g.(u1 , . . . , uN ) = (g.u1 , . . . , g.uN ), ce qui definit une action de G
6.2. CORRECTION 117

sur k[U [1] , . . . , U [N ] ] : cest laction qui est proposee par lenonce. En 10.3., on
a vu que si f k[U ] est invariant pour laction de G sur k[U ], alors DU,Y f
est invariant pour laction de G sur k[U, Y ]. On generalise alors facilement au
cas de p derivations successives pour en deduire que pour tout p N , fbp est
invariant pour laction de G sur k[U [1] , . . . , U [p] ]. En particulier, fbr est invariant
pour laction de G sur k[U [1] , . . . , U [r] ].
Dans la presente situation, r est invariant pour laction de G sur k[U [1] ]. Donc
br est invariant pour laction de G sur k[U [1] , . . . , U [r] ] pour 1 r n. Il en

resulte immediatement que les sont invariants pour laction de G sur A si


est dans M .
11.3. La polarisation totale de (U ) est la somme des polarisations to-
tales des polynomes (Uj ) pour 1 j n. La polarisation totale de (Uj ) est
immediate `a calculer : cest
d
(U [1] []
j ) = ! Uj . . . Uj .

On a donc
n
X [1] []
c (U [1] , . . . , U [] ) = !
Uj . . . Uj .
j=1

Si 1 , . . . , sont des entiers entre 1 et N , on a :


n
X [1 ] [ ]
c (U [1 ] , . . . , U [ ] ) = !
Uj . . . Uj .
j=1

On prend alors par exemple les a1 premiers egaux `a 1, les a2 suivants egaux
a` 2, jusquaux aN derniers egaux `a N , ce qui est possible par definition de .
Avec cette suite 1 , . . . , , on obtient :
1
Pa (U [1] , . . . , U [N ] ) =
c (U [1 ] , . . . , U [ ] ).

!
On sait que est un polynome en 1 , . . . , n ( est symetrique). Il est clair
que grace aux proprietes des derivations, c est un polynome en les i ainsi
quen les diverses derivations des i . Dapr`es 10.4.2., chacune de ces derni`eres
fonctions est proportionnelle `a un certain pour un M . c est donc un
polynome en les , et il en est ainsi de meme de Pa .
11.4. La relation 1 (U ) = 1 (U ) U1 est bien claire. Pour r entre 2 et
n 1, on a :
X
r (U ) = Ui1 . . . Uir
1i1 <...<i
X r n X
= Ui1 . . . Uir + Ui1 . . . Uir
2i1 <...<ir n 1=i1 <i2 <...<ir n
= r (U ) + U1 r1 (U ).
Montrons que les polarisations totales des r peuvent secrire comme des po-
[1] [N ]
lynomes en les avec des coefficients dans k[U1 , . . . , U1 ].
Cette assertion est vraie de visu pour 1 . Supposons que lassertion soit vraie
pour lentier r 1 et montrons quelle est vraie pour r.
Dapr`es ce qui prec`ede et la linearite de la derivation, on a tout de suite :

cr = cr Ud 1 r1 (U ) .
118 CHAPITRE 6. SESSION DE 1994

Comme cr est lun des (`a un coefficient pr`es), tout revient donc `a montrer
d [1] [N ]
que U1 r1 (U ) est un polynome en les `a coefficients dans k[U1 , . . . , U1 ].
Or on montre facilement par recurrence sur k (on vous conseille deffectuer les
calculs pour 1 k 4) que :

DU [1] ,U [k] . . . DU [1] ,U [2] Ud
1 r1 (U ) = U1 DU [1] ,U [k] . . . DU [1] ,U [2] r1
Xk Y
[j]
+ U1 DU [1] ,U [i] r1 .
j=2 ki2,i6=j

En particulier, on obtient
r
X Y
d [j]
U1 r1 (U ) = DU [1] ,U [r] d
r1 + U1 DU [1] ,U [i] r1 .
j=2 ri2,i6=j
Q
Fixons j {2, . . . , r}, ri2,i6=j DU [1] ,U [i] r1 est alors le polynome

d [1]
r1 (U , . . . , U
[j1]
, U [j+1] , . . . , U [r] ) ,
qui est par hypoth`ese de recurrence un polynome en les `a coefficients dans
[1] [N ]
k[U1 , . . . , U1 ]. On a aussi vu que DU [1] ,U [r] d
r1 est le polyn
ome

d [r] [2]
r1 (U , U , . . . , U
[r1]
),
[1] [N ]
qui est aussi un polynome en les `a coefficients dans k[U1 , . . . , U1 ]. Le
resultat en decoule tout de suite.
11.5. Pour n = 1, le resultat est trivial.
Supposons le resultat vrai pour lentier n1. Nommons B la k-alg`ebre engendree
par les polynomes o` u prend toute les valeurs possibles dans M et soit Sn
le groupe symetrique dordre n.
Dapr`es 11.2., on a B ASn . Soit alors P ASn . On peut ecrire de facon
unique : X [1] [N ]
P = (U1 )a1 . . . (U1 )aN Ta
a
[j]
o`
u Ta {k(Ui ) ; 1 j N , 2 i n}. Notons Sn1 le groupe des per-
[1] [N ]
mutations de {2, . . . , n}. P est invariant par Sn1 et chaque (U1 )a1 . . . (U1 )aN
est invariant par Sn1 . Il en resulte que pour tout a, Ta ASn1 . Donc Ta est
par hypoth`ese de recurrence un polynome en les cr pris en U [1 ] , . . . , U [r ]
et dapr`es la question 11.4., Ta est un polynome en les `a coefficients dans
[1] [N ]
k[U1 , . . . , U1 ].
On peut donc ecrire
X [1] [N ]
P = (U1 )b1 . . . (U1 )bN Qb
b

o`
u pour tout b, Qb est un polynome en les `a coefficients dans k. Qb est en
particulier invariant par Sn . Pour tout 2 j n, ecrivons que P est invariant
par la transposition qui echange 1 et j. On obtient :
X [1] [N ]
P = (Uj )b1 . . . (Uj )bN Qb .
b
6.2. CORRECTION 119

On en deduit alors que

1 XX [1] b1
n
[N ]
P = (Uj ) . . . (Uj )bN Qb
n j=1 b

n
X [1] [N ]
Or dapr`es 11.3., pour tout b, (Uj )b1 . . . (Uj )bN est un polynome en les
j=1
`a coefficients dans k. Il en est donc de meme de P .

12. Application
12.1. On a :
n
e [1] , . . . , u[i] , . . . , u[N ] 1X [1] [N ]
J(u 1 j n ) = J(uj , . . . , uj )
n j=1
n
1X
= J(gj .u)
n j=1
n
1X
= J(u)
n j=1
= J(u).

On a utilise que J est invariant en ecrivant J(gj .u) = J(u) pour 1 j n.


12.2. Soit Sn . On a :
n
1X [1] [N ]
.Je = .J(Uj , . . . , Uj )
n j=1
n
1X [1] [N ]
= J(U(j) , . . . , U(j) )
n j=1
n
1X [1] [N ]
= J(Uk , . . . , Uk )
n
k=1
e
= J.

Donc Je est invariant par Sn .


12.3. est une bijection de sur lensemble des monomes non constants
de k[X1 , . . . , XN ] de degre total inferieur ou egal `a n. En effet donnons-nous un
aN
tel monome P . On peut ecrire P = X1a1 . . . XN o`
u a1 , . . . , aN sont des entiers
positifs ou nuls tels que 1 r = a1 + . . . + aN n. Au plus r entiers ai sont
non nuls. Appelons-les aj1 , . . . , ajq : les entiers ajk sont distincts non nuls, de
a aj
somme r et P secrit P = Xj1j1 . . . Xjq q avec j1 < . . . < jq . Si est un element
de tel que () = P , alors necessairement la taille de vaut r (en effet le
degre de () nest autre que la taille de ). On voit alors que les aj1 premiers
elements de doivent etre pris egaux `a j1 , les aj2 suivants egaux `a j2 , et ainsi
de suite jusquaux ajq derniers egaux `a jq . Ceci montre linjectivite de , mais
aussi la surjectivite sans trop de fatigue.
Soit alors r un entier compris entre 1 et n. Comptons le nombre de monomes
de k[X1 , . . . , XN ] de degre r. Se donner un tel monome revient `a se donner un
120 CHAPITRE 6. SESSION DE 1994

N -uplet dentiers (a1 , . . . , aN ) tels que a1 + . . . + aN = r. Il est classique que le


nombre cherche est
N 1
rN = CN r
+r1 = CN +r1 .

Redemontrons ceci. Pour voir plus facilement les choses, on va associer un code
`a chaque N -uplet dentiers (a1 , . . . , aN ) tels que a1 +. . .+aN = r. Les codes sont
formes de traits et de croix. On se donne N 1 traits verticaux qui determinent
N places (une `a gauche du premier, une `a droite du dernier et N 2 places
entre les deux traits extremaux). On met alors ai croix `a la i-`eme place. Il y a
donc r croix.
Par exemple, pour N = 6 et r = 7, le sextuplet (1, 0, 3, 2, 0, 1) est represente par
le code
| | | | |
Il est clair quil y a une bijection entre les N -uplets dentiers (a1 , . . . , aN ) tels
que a1 + . . . + aN = r et les codes correspondants. Dautre part, un tel code est
enti`erement determine d`es que lon sest donne la place des N 1 traits (ou des
r croix) dans la succession des r + N 1 symboles qui constituent le code. Il y
N 1
a donc CN +r1 tels codes. Do`u le resultat. Cette demonstration se trouve par
exemple dans le livre dAlain Combrouze, Probabilites /1, PUF.
On en deduit que le nombre de monomes de k[X1 , . . . , XN ] de degre inferieur
ou egal `a n est :
n
X n
X
N 1 N N N
]= CN +r1 = CN +r CN +r1 ) = Cn+N 1.
r=1 r=1

Le cardinal de est donc

N (N + 1) . . . (N + n)
] = Cn+N 1= 1.
n!

12.4. Via 12.1., lapplication qui `a J S(V )G associe Je ASn est injective.
On sait dapr`es 11.5. que ASn est engendree par un nombre fini delements, il
en est donc de meme de S(V )G . On sait que ASn est engendree par les o` u
M . Mais dapr`es lexpression de
cr trouvee en 11.1., lensemble des o` u
M est le meme que celui des o` u : si (1 , . . . , r ) et (1 , . . . , r )
decrivent le meme ensemble, alors on a

cr (U [1 ] , . . . , U [r ] ) =
cr (U [1 ] , . . . , U [r ] ).

Le nombre de generateurs de ASn est ainsi majore par le cardinal de . Le


(N + 1) . . . (N + n)
nombre de generateurs de S(V )G est ainsi majore par 1.
n!

6.3 Commentaires
Le sujet est, cest une tradition, excessivement long et deux bonnes dizaines
dheures de travail ne seront pas de trop pour en venir `a bout. Cela dit, prati-
quement toutes les questions seront `a la portee du candidat qui aura fait leffort
de bien comprendre les definitions (ce qui reclame parfois une bonne capacite
dabstraction). Les connaissances requises restent `a un niveau elementaire. En
6.3. COMMENTAIRES 121

vrac, groupes, polynomes `a plusieurs variables (il faut absolument savoir traiter
la premi`ere question !), polynomes homog`enes, symetriques, alg`ebre lineaire et
bilineaire de base, faits elementaires sur les series formelles et un brin de com-
binatoire vous attendent au detour de ce sujet. Cest l`a loccasion deprouver
la solidite de vos connaissances de base en alg`ebre. Ce sujet est `a ce titre un
excellent test, que nous ne pouvons que recommander.
122 CHAPITRE 6. SESSION DE 1994
Chapitre 7

Session de 1995

7.1 Sujet

123
124 CHAPITRE 7. SESSION DE 1995

7.2 Correction

I. Spectre des matrices positives



y1
1. Notons A = (ai,j ) 1in et y = .
.. .
1jn
yn
P
a. Chaque coordonnee de z secrit zi = nj=1 ai,j yj + yi . Comme A et y sont
positifs, il est clair que z est un vecteur positif de Cn . Pour tout vecteur positif,
soit Z(y) = {i {1, . . . , n} , yi = 0}. On a
X
zi = ai,j yj + yi yi 0.
j Z(y)
/

Si zi = 0 alors necessairement yi = 0 donc Z(z) Z(y).


Supposons que Z(y) 6= alors Z(y) = {k1 , . . P
. , kl } o`
u l est le cardinal de
Z(y). Si Z(z) = Z(y) alors pour tout i Z(y), j Z(y) / ai,j yj = 0. Or pour
tout j
/ Z(y), yj > 0 donc necessairement,

i Z(y), j
/ Z(y), ai,j = 0.

Soit la permutation de {1, . . . , n} telle que (1) = k1 , . . . , (l) = kl et P la


matrice de permutation associee `a dont les coefficients sont definis par pi,j =
(i),j (i,j designe le symbole de Kronecker). On a alors P 1 = (i,(j) ) 1in
1jn
donc pour tout 1 i, j n,
n
X
(P AP 1 )i,j = a(i),k (j),k = a(i),(j) .
k=1

Ainsi, pour tout i = 1, . . . , l, j = l + 1, . . . , n, (P AP 1 )i,j = 0 puisque (i)


Z(y) et (j) / Z(y), ce qui contredit le fait que A soit irreductible. On en
conclut que si Z(y) 6= , cardZ(z) cardZ(y) 1.
b. Si Z(y) = alors y est strictement positif . On vient de voir que Z(z)
u lon deduit que (I + A)n1 y est
Z(y) donc (I + A)y est strictement positif do`
strictement positif.
Sinon, Z(y) 6= donc cardZ(y) 1. Comme y est positif, il est clair que
(I + A)n1 y est positif. Par une recurrence evidente, on sait par la question
precedente que cardZ((I + A)n1 y) max(0, cardZ(y) (n 1)). Or y est
un vecteur non nul donc cardZ(y) n 1 ce qui prouve que (I + A)n1 y est
strictement positif.
c. Les vecteurs ei , i = 1, . . . , n de la base canonique de Cn sont des vecteurs
positifs non nuls. Ainsi, dapr`es la question precedente, pour tout i = 1, . . . , n,
(I + A)n1 ei est strictement positif donc la matrice (I + A)n1 est strictement
positive.
2.a. Soit R = sup{ tel que i, xi (Ax)i }. Prouvons que R = r(x).
7.2. CORRECTION 125

Pour tout i I, r(x)xi (Ax)i . Dautre part, si i / I, xi = 0 et comme A


et x sont positifs, pour tout i / I, (Ax)i 0 . On en deduit que r(x) R.
De plus, par definition du supremum, pour tout > 0, il existe [R, R]
tel que pour tout i = 1, . . . , n, xi (Ax)i . Donc r(x) et en faisant tendre
vers zero, on obtient R r(x).
(Ax)i
b. Par definition, si x Q+ , r(x) = min . Or les applications
i=1,...,n xi
definies sur Q+ par x 7 (Ax)
xi
i
sont continues. En utilisant la relation suivante
permettant de determiner le minimum de deux nombres reels quelconques,

a + b |a b|
min(a, b) = ,
2
on montre facilement par recurrence que le minimum de n fonctions continues en
un point est continue en ce point. Lapplication r : Q+ R est ainsi continue.
c. (i) En tant quintersection dun ferme borne et dun ferme de Cn , E est
un ferme borne de Cn . Lapplication (I + A)n1 est lineaire donc continue sur
Cn . Limage de E par cette application est alors une partie compacte de Cn .
Dautre part, pour tout x E, x est un vecteur positif non nul puisque xi 0 et
P n 2
i=1 xi = 1. Par le 1.b., on en deduit que pour tout x E, (I + A)n1 x Q+ .
(ii) Dapr`es le 2.a., pour tout x E, pour tout i = 1, . . . , n, on a r(x)xi
(Ax)i donc le vecteur z = ((Ax)i r(x)xi )1in est positif. Comme (I+A)n1 est
un polynome en A, les matrices A et (I+A)n1 commutent. Soit y = (I+A)n1 x
alors
(Ax)1
..
Ay = (I + A)n1 . .
(Ax)n
Mais la matrice (I + A)n1 est positive donc (I + A)n1 z est positif ce qui donne
pour tout i = 1, . . . , n,

(Ay)i r(x)yi = (I + A)n1 (Ax) i r(x)yi = (I + A)n1 (Ax r(x)x) i 0.

Ainsi pour tout i = 1, . . . , n, (Ay)i r(x)yi do`


u r(y) r(x).
(iii) Comme F est un compact de Cn , F Q+ et r est continue sur Q+ , alors
r est bornee et atteint son maximum sur F . Soit y0 F tel que r(y0 ) = max r(y).
yF
Par la definition de r, on constate que pour tout > 0, r(x) = r(x). Comme
y0 est strictement positif, ky0 k 6= 0 donc x0 = kyy00 k E et verifie r(x0 ) = r(y0 ).
Ainsi, max r(x) max r(y). Mais dapr`es le (ii), on sait que pour tout x E,
xE yF
u y = (I + A)n1 x F ce qui prouve que pour tout x E,
r(x) r(y) o`
r(x) max r(y). On a donc
yF

max r(x) = max r(y)


xE yF

(iv) Comme F Q+ , r = 0 si et seulement si pour tout y F , Ay a au


moins une coordonnee nulle. Or F = {(I + A)n1 x ; x E} donc

r = 0 {x E, (I + A)n1 (Ax) a une coordonnee nulle},


126 CHAPITRE 7. SESSION DE 1995

car A et (I+A)n1 commutent. Or A est positive et irreductible donc par le 1.c.,


(I+A)n1 est strictement positive ce qui prouve que r = 0 {x E, Ax = 0}.
Comme les vecteurs de la base canonique appartiennent `a E, on en conclut que
r = 0 A = 0. Ici A est irreductible donc elle est non nulle et r > 0.
d. Soit z tel que r(z) = r et t = (I + A)n1 z. Par definition de z et r,
Az rz est un vecteur positif. Supposons que Az rz soit non nul. Comme A
et (I + A)n1 commutent, At rt = (I + A)n1 (Az rz). Par le 1.b., At rt est
un vecteur strictement positif, donc r(t) > r ce qui nest pas possible car t F
et r = max r(y). On en conclut que z ker(rI A) 6= {0} puisque z E..
yF

e. Si Z(z)
X 6= alors comme Az = rz, pour tout i Z(z), (Az)i = 0. Mais
(Az)i = ai,j zj et pour tout j
/ Z(z), zj > 0 donc
j Z(z)
/

i Z(z), j
/ Z(z), ai,j = 0.
Comme dans le 1.a., on prouve alors que la matrice A est reductible ce qui est
contradictoire. Ainsi, si z E verifie r(z) = r alors z est strictement positif.
f. Comme y est vecteur Pn propre de A associe `a la valeur propre alors pour
tout i = 1, . . . , n, yi = j=1 ai,j yj et par linegalite triangulaire, on en deduit
Pn
que |||yi | j=1 |ai,j ||yj |. Or A est positive donc |ai,j | = ai,j et Ay+ ||y+
est positif.
y+
Un vecteur propre est par definition non nul. Soit z = kyk alors z E et
on vient de voir que pour tout i = 1, . . . , n, (Az)i ||zi donc r(z) ||. Cela
prouve que r ||.
g. Par le 2.c., on sait que ker(rI A) 6= {0} donc dim ker(rI A) 1.
Soit y un vecteur propre de A associe `a la valeur propre r. Par la question
y+
precedente, on sait que Ay+ ry+ donc r(y+ ) r. Mais kyk E et on a vu
y+
au 2.c.(iii). que r( kyk ) = r(y+ ) donc, par definition de r, r = r(y+ ). Dapr`es le
2.d., on sait alors que y+ ker(rI A). Par le 2.e., y+ est strictement positif
donc pour tout i = 1, . . . , n, yi 6= 0. On en conclut que si y ker(rI A) alors
soit y = 0, soit toutes ses coordonnees sont non nulles.
Dautre part, soient v, w deux vecteurs propres de A associe `a la valeur
propre r. Par le resultat precedent, les coordonnees de v et de w sont non
nulles. Posons = wv11 alors v w ker(rI A) et sa premi`ere coordonnee est
nulle donc necessairement v = w et dim ker(rI A) = 1.
3. Soient y et z deux vecteurs propres positifs de A associes respectivement
aux valeurs propres et . Comme A est positive, et sont deux reels positifs.
On peut supposer que . Comme y 0, y 6= 0, on sait par le 1.b. que
(I + A)n1 y est strictement positif. Or (I + A)n1 y = (1 + )n1 y et 0 donc
y est strictement positif.
zi
Soit = max alors y z est positif et il existe i0 tel que yi0 zi0 = 0.
1in yi
Si y z 6= 0 alors par le 1.b., (I + A)n1 (y z) est strictement positif. En
particulier, (1 + )n1 yi0 > (1 + )n1 zi0 . Mais yi0 = zi0 et donc cette
inegalite est impossible. On en conclut que y et z sont colineaires et = .
Remarque : on a vu au 2. quil existe un vecteur propre strictement positif
associe `a la valeur propre r. Cette question etablit que seul le sous-espace propre
ker(rI A) contient des vecteurs propres positifs.
7.2. CORRECTION 127

4.a. Soit y un vecteur


Pn propre de B associe `a la valeur propre . Pour tout
i = 1, . . . , n, yi = j=1 bi,j yj et par linegalite triangulaire, on a
n
X
|||yi | |bi,j ||yj |.
j=1

y+
Comme |bi,j | ai,j alors Ay+ ||y+ . En posant z = kyk , on constate que
z E et que r(z) || ce qui prouve que r ||.
b. Supposons que || = r. Soit y un vecteur propre de B associe `a la valeur
propre alors comme B est positive, on a

Ay+ By+ ||y+ = ry+ .

On en deduit que r(y+ ) = r et par le 2.d. que Ay+ = ry+ . Par le 2.e., on sait
alors que y+ est strictement positif. On a aussi pour tout i = 1, . . . , n,
n
X n
X
r |yi | bi,j |yj | ai,j |yj | = r|yi |
j=1 j=1

et 0 bi,j ai,j donc necessairement A = B ce qui est contradictoire et prouve


que || < r.
5. Soit une valeur propre de A telle que || = r et y un vecteur propre de A
associe `a la valeur propre . On a Ay = y donc Ay+ = ry+ car || r(y+ ) r.
Par le 2.e., tous les yi sont non nuls. De plus, on a aussi pour tout i = 1, . . . , n
n
X n
X
| ai,j yj | = |(Ay)i | = |yi | = r|y|i = ai,j |yj |.
j=1 j=1

Comme A est strictement positive, tous les yj , j = 1, . . . , n ont le meme argu-


ment (cas degalite dans linegalite triangulaire pour les complexes) et pour tout
j = 1, . . . , n, yj = |yj | ei , [0, 2 [. Legalite Ay = y secrit alors Ay+ = y+
ce qui prouve que = r. On en conclut que si est une valeur propre de A
autre que celle de module maximal r, on a || < r.
6.a. Repondons `a cette question par contraposee. Si A est reductible, il
existe une matrice de permutation P telle que

B 0
P AP 1 = ,
C D

avec B, D matrices carrees. Pour tout p N, il existe une matrice Cp rectan-


gulaire telle que p
B 0
P Ap P 1 = .
Cp D p
On en conclut que la matrice P Ap P 1 ne peut etre strictement positive pour
aucun entier p et comme P est une matrice de permutation, pour tout p N,
Ap nest pas strictement positive.
b. Dapr`es le 2.d., ker(rI A) 6= {0}. Comme on travaille sur le corps
des complexes, toutes les valeurs propres de Ap sont de la forme p o`
u est
128 CHAPITRE 7. SESSION DE 1995

valeur propre de A (il suffit pour cela de trigonaliser A). En particulier, rp est
la valeur propre positive de module maximal de Ap et par le 2.g., on sait que
dim ker(rp I Ap ) = 1. Or ker(rI A) ker(rp I Ap ) donc ker(rI A) =
ker(rp I Ap ) .
Soit une valeur propre de A (cest `a dire ker(I A) 6= {0}) et supposons
|| = r. Comme ker(I A) ker(p I Ap ) et Ap est strictement positive alors
le 5. assure que p = rp . De plus dim ker(rp I Ap ) = 1 donc ker(I A) =
ker(rp I Ap ). On en deduit que ker(I A) = ker(rI A) et que = r. Toute
valeur propre 6= r de A satisfait alors || < r.
7. Commencons par donner une caracterisation ensembliste des matrices
reductibles, redondantes, decomposables.
On a dej`a vu au 1.a. que C M` (C) est reductible si et seulement sil existe
une partition non triviale (I, J) de {1, . . . , `} telle que

i I, j J, ci,j = 0. (7.1)

Par definition, B est decomposable sil existe des matrices de permutation


P Mn (C) et Q Mm (C) telles que
0
B 0
P BQ = ,
0 B 00

u B 0 Mp,r (C), B 00 Mnp,nr (C) sont rectangulaires. Soit Sn telle


o`
que P = ((i),j ) 1in et Sm telle que Q = (i, (j) ) 1im , alors on a
1jn 1jm
P BQ = (b(i), (j) ) 1in et on trouve que B est decomposable sil existe Sn
1jm
et Sm telles que

i {(1), . . . , (p)}, j { (r + 1), . . . , (m)}, bi,j = 0
i {(p + 1), . . . , (n)}, j { (1), . . . , (r)}, bi,j = 0.

Soit I1 = {(1), . . . , (p)}, I2 = {(p + 1), . . . , (n)}, J1 = { (1), . . . , (r)},


J2 = { (r + 1), . . . , (m)}, alors on conclut que B est decomposable sil existe
des partitions non triviales (I1 , I2 ) de {1, . . . , n} et (J1 , J2 ) de {1, . . . , m} telles
que
i I1 , j J2 , bi,j = 0
(7.2)
i I2 , j J1 , bi,j = 0.
Dautre part, B est redondante lorsquune des deux partitions est triviale
dans la caracterisation precedente.
a. Montrons que C reductible implique B non indecomposable.
Par la relation (7.1), on sait que C est reductible lorsquil existe une partition
non triviale (L, K) de {1, . . . , `} telle que l L, k K, cl,k = 0. Or par
definition de C,

bl,kn si l {1, . . . , n} et k {n + 1, . . . , `}
cl,k = bk,ln si l {n + 1, . . . , `} et k {1, . . . , n}

0 sinon.

Soient I1 = L {1, . . . , n}, I2 = K {1, . . . , n} et J1 = {l n ; l L {n +


1, . . . , `}}, J2 = {kn ; k K {n+1, . . . , `}}. Comme (L, K) est une partition
7.2. CORRECTION 129

de {1, . . . , `}, (I1 , I2 ) (respectivement (J1 , J2 )) est une partition de {1, . . . , n}


(respectivement de {1, . . . , m}).
De plus, pour tout i I1 , j J2 , il existe l L {1, . . . , n} et k K {n +
1, . . . , `} tels que i = l et j = k n donc bi,j = bl,kn = cl,k = 0. De meme
pour i I2 , j J1 , il existe k K {1, . . . , n} et l L {n + 1, . . . , `} tels
que i = k et j = l n donc bi,j = bk,ln = cl,k = 0. On a donc trouve deux
partitions (dont lune est non triviale car (L, K) est une partition non triviale
de {1, . . . , `}) telles que la relation (7.2) soit verifiee ce qui prouve que B est
decomposable ou que B est redondante.
Montrons que B non indecomposable implique B reductible.
Par la relation (7.2), on sait que B est non indecomposable lorsquil existe
des partitions (dont lune est non triviale) (I1 , I2 ) de {1, . . . , n} et (J1 , J2 ) de
{1, . . . , m} telles que

i I1 , j J2 , bi,j = 0
i I2 , j J1 , bi,j = 0.

Soient K1 = {j + n; j J1 }, K2 = {j + n; j J2 }, L = I1 K1 , K = I2 K2
alors (L, K) est une partition non triviale de {1, . . . , `}. On distingue trois cas
pour determiner la valeur de cl,k lorsque l L, k K :
1. Si (l, k) I1 I2 {1, . . . , n}2 ou si (l, k) K1 K2 {n + 1, . . . , `}2
alors par definition de C, cl,k = 0.
2. Si l I1 et k K2 alors il existe i I1 , j J2 tels que l = i et k = n + j
donc cl,k = ci,n+j = bi,j = 0 par definition de I1 et J2 .
3. Si l K1 et k I2 alors il existe i I2 , j J1 tels que l = j + n et k = i
donc cl,k = cj+n,i = bi,j = 0 par definition de I1 et J2 .
On en conclut que (L, K) est une partition non triviale de {1, . . . , `} et que pour
tout l L, pour tout k K, cl,k = 0 ce qui prouve dapr`es (7.1) que C est
reductible.
b. Le raisonnement seffectue par contraposee.
Si B tB est reductible, il existe unePpartition non triviale (I1 , I2 ) de {1, . . . , n}
m
telle que pour tous i I1 , j I2 , k=1 bi,k bj,k = 0. Or B est positive donc
i I1 , j I2 , k {1, . . . , m}, bi,k bj,k = 0 ce qui permet de definir une
partition (J1 , J2 ) de {1, . . . , m} telle que

i I1 , k J2 , bi,k = 0
i I2 , k J1 , bi,k = 0

Par la relation (7.2), on sait que B est non indecomposable.


On constate que si tB est non indecomposable, B lest aussi donc de la meme
mani`ere, tBB reductible implique B non indecomposable.
Dautre part, B tB est symetrique et positive (au sens euclidien) donc elle est
diagonalisable et ses valeurs propres sont positives. Ainsi toute valeur propre
de B tB distincte de la valeur propre maximale verifie 0 < r. On remarque
aussi dapr`es le 2.g. que dim ker(rI B tB) = 1 donc lordre de multiplicite de r
est egal `a 1. Il en est de meme pour tBB.
130 CHAPITRE 7. SESSION DE 1995

II. Alg`
ebres de matrices
1.a. Soit x J non nul, cest `a dire quil existe k, l {1, . . . , n} tels que
xk,l 6= 0. Comme J est un ideal bilat`ere, pour tout i, j {1, . . . , n}, Ei,k xEk,j
J. Or Ei,k xEl,j = xk,l Ei,j et xk,l 6= 0 donc Ei,j J. Lideal J contient tous les
elements dune base de M donc J = M .
b. Comme {Ei,j ; i, j {1, . . . , n}} engendre M , on a
Z(M ) = {x M ; i, j {1, . . . , n}, xEi,j = Ei,j x}.
X
Or tout element x de M secrit x = xp,q Ep,q donc
p,q

n
X n
X
xEi,j = xp,i Ep,j et Ei,j x = xj,q Ei,q .
p=1 q=1

Comme (Ei,j )1i,jn est une famille libre de M , x Z(M ) si et seulement si


pour tout i 6= j, xi,j = 0 et xi,i = xj,j . On en conclut que

Z(M ) = {I; C}

o`
u I designe lidentite de M .
2.a. Soit pi = (Ei,i ). Comme est un morphisme dalg`ebres avec unite,
p1 , . . . , pn sont des idempotents orthogonaux et verifient
n
X Xn
pi = ( Ei,i ) = (I) = IV
i=1 i=1

o`
u IV est lunite de End(V ).
Soit Vi = Impi alors
P il est facile de constater par la relation precedente que pour
tout v V , v = i pi (v) donc
X
V = Vi .
i
P
si z Vi ( j6=i Vj ) alors il existe y1 V1 , . . . , yn Vn tels que
Dautre part, P
z = pi (yi ) = j6=iPpj (yj ). Or les (pi )1in sont des idempotents P orthogonaux
donc pi (z) = z = j6=i pi pj (yj ) = 0 ce qui prouve que Vi ( j6=i Vj ) = {0}.
On a donc
Mn
V = Vi .
i=1

b. Par les proprietes de morphisme dalg`ebres de , on sait que pour tout


i, j, k, ` {1, . . . , n}
(Ei,j )(Ek,` ) = j,k (Ei,` ).
Si j 6= k on a donc (Ei,j )(Ek,k ) = 0 ce qui prouve que (Ei,j )|Vk = 0. On
en deduit que (Ei,j ) agit non trivialement uniquement sur le sous-espace Vj .
7.2. CORRECTION 131

On sait aussi par cette relation que (Ei,j )(Ej,j ) = (Ei,i )(Ei,j ) donc
Im(Ei,j ) Vi et comme (Ei,i ) = (Ei,j )(Ej,i ) alors on peut ecrire que

IVi = ((Ei,j ))|Vj ((Ej,i ))|Vi .

De meme on a
IVj = ((Ej,i ))|Vi ((Ei,j ))|Vj
donc la restriction de (Ei,j ) `a Vj definit un isomorphisme de Vj sur Vi .
c. Par la question precedente, il existe d tel que pour tout j = 1, . . . , n,
dim Vj = d. Soit Wk = Vect{(E1,1 )ek , . . . , (En,1 )ek }.
(i) Par L
le b., pour tout j = 1, . . . , n, on a (Ej,1 )ek Vj \ {0} car ek 6= 0. Par
n
le a., V = j=1 Vj donc la famille {(E1,1 )ek , . . . , (En,1 )ek } est libre. Comme
elle engendre Wk , elle forme une base de Wk et dim Wk = n.
(ii) Dapr`es les proprietes de morphisme dalg`ebres de , il suffit de prouver
que pour tous i, j, ` = 1, . . . , n, on a (Ei,j )(E`,1 )ek Wk . Ce resultat est
evident car (Ei,j )(E`,1 ) = j,` (Ei,1 ) donc (Ei,j )(E`,1 )ek = j,` (Ei,1 )ek
Wk par definition, donc pour tout x M,

(x)Wk Wk .

(iii) La question precedente assure que


X pour tout x M , (x) definit un
endomorphisme sur Wk . En notant x = xi,j Ei,j , le ``eme vecteur colonne de
i,j
la matrice representative est
n
X
(x)(E`,1 )ek = xi,` (Ei,1 )ek
i=1

ce qui prouve que la matrice de k (x), endomorphisme induit par (x) sur Wk ,
dans la base decrite au (i) est x.
(iv) Par le b., (Ei,1 ) definit un isomorphisme de V1 sur Vi donc la famille
((E
Ln i,1 )e1 , . . . , (Ei,1 )ed ) est une base de Vi . Dapr`es le a., on sait que V =
j=1 Vj donc la famille B = ((Ei,1 )ek ) 1in est une base de V . Par le (i),
1kd
((E1,1 )ek , . . . , (En,1 )ek ) est une base de Wk alors
d
M
V = Wk .
k=1

(v) Par le (ii) et (iv), on sait que la matrice de (x) dans la base B est une
matrice diagonale par blocs o` u chaque bloc est la matrice de k dans la base de
Wk introduite au (i). Dapr`es (iii), on en conclut que la matrice de (x) dans
la base B est egale `a
x 0 ... 0
0 x ... 0

.. .. . . .. .
. . . .
0 0 ... x
132 CHAPITRE 7. SESSION DE 1995

d. Soit : Mn (C) Mm (C) un morphisme dalg`ebres avec unite. On


applique les resultats de la question precedente avec M = Mn (C) et V = Cm .
Par le 2.c.(iv) on a dim V = m = nd donc m est un multiple de n. Par le 2.c.(v),
la matrice de (x) dans la base B est une matrice diagonale par blocs, tous
egaux `a x donc si (x) = 0 alors x = 0 ce qui prouve que est injectif.
3.a. On etudie dans cette question (M )0 . Le fait que A commute avec tous
les (x), x M secrit dans la base B :

A11 . . . A1d x ... 0 x ... 0 A11 ... A1d
.. . .. .
.. ... .. . .. .. .. .. .. .. ,
. . .. = . . . . . .
Ad1 ... Add 0 ... x 0 ... x Ad1 ... Add

ce qui prouve que pour tout i, j {1, . . . , d}, pour tout x M , Aij x = xAij .
Dapr`es le 1.b., le centre de M est lensemble des matrices scalaires ce qui prouve
que Aij = ij In avec ij C. Reciproquement, il est clair que toute matrice de
ce type est dans le commutant de (M ) donc

11 In . . . 1d In


0 .
.. . .. .
..
(M ) = , ij C ,



d1 In . . . dd In

cette ecriture se faisant dans la base B.


b. Lapplication
: (M )0 Md (C)
(ij In ) 1id 7 (ij ) 1id
1jd 1jd

est clairement un isomorphisme dalg`ebres de (M )0 sur Md (C) ce qui prouve


que (M )0 est une sous-alg`ebre de EndV isomorphe `a Md (C).
On a evidemment (M ) (M )00 . Soit A de matrice (Ak` )1k,`d dans la
base B o` u Ak` Mn (C). Si A (M )00 alors elle commute avec les matrices de
la forme Ek` = (ik j` In )1i,jd . En effectuant le produit matriciel par blocs,
on constate comme dans le 1.b. que AEk` = Ek` A pour tout k, ` {1, . . . , d} si
et seulement sil existe x M tel que pour tout k 6= `, Ak` = 0 et Akk = x. Par
le 2.c.(v), (x) admet la meme matrice que A dans la base B donc A = (x)
(M ). On en conclut que (M ) = (M )00 .
4.a. Comme pi = (0, . . . , 0, Ii , 0, . . . , 0), il est clair par definition du produit
dans lalg`ebre N que pi pj = 0 si i 6= j et pi pi = pi . Il est tout aussi evident que
Xn
pi = (I1 , . . . , Im ) = IN .
i=1

b. Si z Z(N ), en ecrivant z = (z1 , . . . , zn ) avec zi Ai , on constate que z


commute avec tous les elements a N si et seulement si zi Z(Ai ) pour tout
i = 1, . . . , n. Or par le 1.b., Z(Ai ) = {i Ii ; i C} donc

Z(N ) = {(1 I1 , . . . , m Im ); 1 , . . . , m C}.


7.2. CORRECTION 133

c. Soit z un idempotent central de N alors z = (1 I1 , . . . , m Im ) et z 2 = z.


Donc pour tout i, 2i = i ce qui prouve que i {0, 1}. Reciproquement, si
Xm
z= i pi avec i {0, 1} alors z est un idempotent central de N .
i=1
m
X
d. Soit p un idempotent central de N , cest `a dire p = i pi avec i
i=1
{0, 1}. Pour tout j = 1, . . . , n, on a ppj = pj p = j pj . Comme pj est un
idempotent central de N alors, si p est minimal, pour tout j = 1, . . . , n tel
que j 6= 0, on a p = pj . On en deduit que soit p = 0, soit p = pj0 pour un
j0 {1, . . . , m}.
Reciproquement, {0, p1 , . . . , pn } sont des idempotents centraux de N , mi-
nimaux. Lelement nul est evidemment un idempotent central de N , minimal.
Xm
Supposons p = pi . Pour tout q = i pi , i {0, 1}, on a pq = i pi donc
i=1
pq 6= 0 lorsque i = 1. Dans ce cas, on a bien pq = qp = p ce qui prouve que p
est minimal.
5.a. Dapr` P es le 4.a., p1 , . . . , pm sont des idempotents deux `a deux ortho-
gonaux et pi = IN . Comme est un morphisme dalg`ebres avec unite alors
(p
P 1 ), . . . , (pm ) sont aussi des idempotents deux `a deux orthogonaux et verifient
(pi ) = IW . De plus, est suppose injectif donc (pj ) est non nul. Comme
Wj = Im(pj ) alors en copiant le raisonnement du 2.a., on prouve que
m
M
W = Wj .
j=1

b. Soit y = (aj ) avec aj Aj . Par definition de pj , on a


pj aj = aj pj = aj

et par les proprietes de morphisme dalg`ebres de , on en conclut que si j 6= k,

y(pk ) = (aj pj pk ) = 0 et y(pj ) = (pj aj pj ) = (pj )y = y

ce qui prouve que y envoie Wj dans lui-meme et est nul sur Wk pour k 6= j.
c. Comme Aj = Mnj (C), Wj est un espace vectoriel de dimension finie et
(pj ) = IWj alors : Mnj (C) End(Wj ) est un morphisme dalg`ebres avec
unite. Dapr`es le 2.d., on sait que ce morphisme est injectif et par le 2.c. quil
existe une base de Wj telle que pour tout x Aj , la matrice de (x) dans cette
base est
x 0 ... 0
0 x ... 0

.. .. . . . .
. . . ..
0 0 ... x

d. Comme pj est un idempotent central de N , on a


(pj )C(N )(pj ) C(N ).
134 CHAPITRE 7. SESSION DE 1995

P Pm
On a aussi IW = (pj ) donc pour tout u End(W ), u = j=1 u(pj ).
2
Lorsque u C(N ), u(pj ) = (pj )u = (pj )u = (pj )u(pj ) donc
m
X
u= (pj )u(pj )
j=1
Pm
ce qui prouve que C(N ) = 1 (pj )C(N )(pj ).
m
X
Dautre part, si zj = 0 avec zj = (pj )uj (pj ), uj C(N ) alors comme
j=1
((p1 ), . . . , (pm )) sont des idempotents deux `a deux orthogonaux,
m
X
0 = (pi )( zj )(pi ) = zi
j=1

ce qui prouve que la somme est directe et que


m
M
C(N ) = (pj )C(N )(pj ).
j=1

e. Soit BW la base de W obtenue en ecrivant les bases de Wj `a la suite


les unes des autres. Dans cette base, tout endomorphisme u End(W ) a pour
matrice u = (uij )1i,jm o` u les uij sont des matrices rectangulaires representant
un morphisme de Wj dans Wi . Dans cette base, la matrice de (pj ) na que des
blocs nuls sauf le j e bloc diagonal egal `a IWj . Il ne reste plus qu`a travailler en
effectuant des calculs matriciels. On constate que (pj )u(pj ) a pour matrice
dans la base BW
0 ... 0 ... 0
.. .. ..
. . .

0 . . . ujj . . . 0 .

. .. ..
. . . .
0 ... 0 ... 0
m
X
Comme pour tout u C(N ), u = (pj )u(pj ) alors la matrice de u est
j=1
diagonale par blocs, chaque bloc ujj definissant un endomorphisme sur Wj ap-
partenant au commutant de (Aj ) dans End(Wj ). Cette ecriture matricielle
montre que (pj )C(N )(pj ) = ((Aj ))0 , le commutant de (Aj ) dans End(Wj ).
Or par le 3.b., C((Aj )) ' Mdj (C) donc
m
M
C(N ) ' Mdj (C).
j=1

f. On a evidemment (N ) C(C(N )). Soit u C(C(N )) alors pour tout


j = 1, . . . , m, u(pj ) = (pj )u donc Wj est stable par u. On en deduit aussi que
lendomorphisme uj induit par u sur Wj appartient au commutant de ((Aj ))0
dans End(Wj ). On sait par le 3.b. que ((Aj ))00 = (Aj ) donc uj = (aj ), aj
7.2. CORRECTION 135

Aj ce qui prouve que u = (a1 , . . . , am ) (N ). On en conclut que C(C(N )) =


(N ).
6.a. (i) Tout dabord, il est clair que qAq est une sous-alg`ebre non nul
de A car q est non nul. Comme q est un idempotent de Mn (C) alors q est un
projecteur de Cn et Cn = ker q imq. A partir de cette decomposition en somme
directe, on definit une base de Cn . Montrons que qAq ' Mr (C) o` u r = rg q.
En effet, soit le morphisme defini par
: Mr (C) qAq

0 0
U 7 ,
0 U
lecriture matricielle seffectuant dans la base de Cn associee `a ker q et imq. Ce
morphisme est bien defini car

0 0 0 0 0 0
q= et =q q qAq.
0 I 0 U 0 U
Par construction, est evidemment un isomorphisme dalg`ebres avec unite
(lunite de qAq est q) donc qAq ' Mr (C).
Comme : Mn (C) Mm (C) est un morphisme dalg`ebres avec unite alors
on sait dapr`es le 2. quil existe une base de Cm dans laquelle on peut ecrire
pour tout x A,
x ... 0

(x) = ... . . . ... ,
0 ... x
cette ecriture matricielle comportant d colonnes, cest `a dire m = dn. Cela
permet de conclure que dans B, rg (q) = d rg (q) = dr. De meme que prece
demment, on montre que qBq ' Mdr (C).
(ii) Comme qAq est isomorphe `a une alg`ebre de matrices, on sait par le 3.b.
que C(A) = (A)0 ' Md (C) et que C(qAq) = (qAq)0 ' Md (C).
Soit defini par
: C(A) qC(A)q
x 7 qxq.
Comme q A et q 2 = q alors pour tous a, a0 C(A),
(aa0 ) = qaa0 q = qaqqa0 q = (a)(a0 )
donc est un morphisme dalg`ebres avec unite. On sait alors que ker est un
ideal bilat`ere de C(A). Comme C(A) ' Md (C) alors dapr`es le 1.a., ker = {0}
puisque est non nul. On en conclut que dim qC(A)q dim C(A) = d2 .
Dautre part, qC(A)q C(qAq). En effet, pour tout b C(A), qb = bq.
On a alors (qbq)(qaq) = qbaq = qabq = qabq 2 = (qaq)(qbq). Cela prouve que
qC(A)q C(qAq).
Comme dim C(qAq) = d2 alors on en conclut que qC(A)q = C(qAq)
b. Soit q un projecteur non nul de (A)0 = C(A) B.
(i) On definit lapplication par
: A qAq
x 7 q(x)q.
136 CHAPITRE 7. SESSION DE 1995

Comme q C(A) et q 2 = q, on a pour tous a, a0 A,


(aa0 ) = q(a)(a0 )q = q(a)qq(a0 )q = (a)(a0 )
donc definit un morphisme dalg`ebres avec unite surjectif. On sait alors que
ker est un ideal bilat`ere de A = Mn (C) et par le 1.a., est injectif. On en
conclut que qAq ' Mn (C).
(ii) Comme qAq est isomorphe `a une alg`ebre de matrices, on sait par le 3.b.
que C(A) ' Md (C) est une alg`ebre de matrices incluse dans B. Comme q est
un idempotent de C(A) alors dapr`es le a., on a :
. qC(A)q est une alg`ebre de matrices isomorphe `a Mrg (q) (C),
. le commutant de qC(A)q dans qBq est egal `a qC(C(A))q.
Ceci peut encore secrire C(qC(A)q) = qC(C(A))q. Or A et qC(A)q sont des
alg`ebres de matrices donc par le 3.b. (theor`eme du bicommutant),
C(C(A)) = A et C(C(qC(A)q)) = qC(A)q.

Ainsi qAq = C(qC(A)q) et C(C(qC(A)q)) = qC(A)q donc on en conclut que


C(qAq) = C(C(qC(A)q)) = qC(A)q.

III. Normes des matrices `


a coefficients entiers
1.a. Soit P U . Dapr`es les relations liant les coefficients dun polynome et
ses racines, 1 , . . . , ` , on sait que pour tout k = 1, . . . , `1, ak =
k(1 , . . . , ` ).
`
Si |i | 1 alors on a |ak | k (1, . . . , 1). Or k (1, . . . , 1) = donc pour
k
tout k = 1, . . . , ` 1,
`
|ak | .
k

b. Par la question precedente, on sait que pour tout k = 1, . . . , ` 1, ak


`
k . Comme ak Z, il ny a quun nombre fini de valeurs possibles pour

chaque ak ce qui prouve quil nexiste quun nombre fini de polynomes verifiant
ces hypoth`eses.
c. Soit P U tel que
`
Y
P = (X i ) et 1 i `, |i | 1.
i=1

(i) On a
`
X
Pk (X) = i (k1 , . . . , k` )X `i + X ` .
i=1

Soit i,k = i (X1k , . . . , X`k )


alors i,k est clairement un polynome symetrique `a
coefficients entiers. Dapr`es le rappel enonce au debut de la partie III, il existe
un polynome S `a coefficients entiers tel que
i,k (X1 , . . . , X` ) = S(1 , . . . , ` ).
7.2. CORRECTION 137

Comme P U alors i (1 , . . . , ` ) Z donc

i (k1 , . . . , k` ) = i,k (k1 , . . . , k` ) = S(1 (1 , . . . , ` ), . . . , ` (1 , . . . , ` )) Z

ce qui prouve que Pk Z[X1 , . . . , X` ].


(ii) On a meme prouve que pour tout entier positif k, Pk est un polynome
satisfaisant les hypoth`eses du a.. Comme il nexiste quun nombre fini de tels
polynomes, on trouve deux entiers distincts j, k tels que Pj = Pk .
On remarque que si j = 0 alors Pj (X) = X ` et comme Pj = Pk avec j 6= k
alors pour tout i = 1, . . . , `, i = 0 ce qui veut dire que pour tout j, k N,
Pj = Pk .
On en conclut quil existe deux entiers distincts strictement positifs tels que
Pj = Pk .
(iii) Comme Pj = Pk avec j 6= k alors par unicite de la decomposition en
polynomes irreductibles, il existe une permutation de {1, . . . , `} telle que

1 i `, ki = j(i) .

On peut supposer k > j > 0 donc pour tout i = 1, . . . , `, (i) = kj


i . Or S`
`!
est dordre ` ! donc (i) = i ce qui donne
(kj)` !
1 i `, i = i .

On conclut que les racines de P sont soit nulles soit des racines de lunite.
d. On consid`ere Q(X) = X ` P (X + X1 ). Comme P U peut secrire P (X) =
`
X
X` + (1)i ai X `i alors
i=1

X
`
1 `i 1
Q(X) = X` (1)i ai (X + ) + (X + )`
i=1
X X
`
X
= (X 2 + 1)` + (1)i ai (X 2 + 1)`i X i .
i=1

Le coefficient dominant est X 2` donc Q U de degre 2` et comme Q(0) = 1


alors 0 nest pas racine de Q. Cette derni`ere constatation permet de dire que
est racine de Q si et seulement si + 1 est racine de P . Soit une racine de
P et resolvons lequation du second degre 2 + 1 = 0. Comme [2, 2]
alors les racines sont
p p
+ i 4 2 i 4 2
0 = et 1 = .
2 2
Ces deux racines sont de module 1 donc toutes les racines de Q sont de module
1 et Q verifie les hypoth`eses du a.. Dapr`es le c., les racines de Q sont des racines
2ip
de lunite (car 0 nest pas une racine de Q). Ainsi = e q avec p, q Z et
comme = + 1 alors = 2 cos( 2p q ). On en conclut que si toutes les racines
de P sont reelles, contenues dans [2, 2] alors pour toute racine de P , on peut
trouver un rationnel r tel que = 2 cos(2r).
138 CHAPITRE 7. SESSION DE 1995

e. (i) On sait que Qn est irreductible sur Z donc il est irreductible sur Q.
Soit une racine primitive ne de lunite alors Qn est le polynome minimal de
sur Q et L Q est un corps de rupture de Qn . De meme si est une autre
racine primitive ne de lunite, Q[] est un corps de rupture de Qn . Comme Qn
est irreductible sur Q, son corps de rupture est unique `a isomorphisme pr`es et
on a meme lexistence dun unique Q-isomorphisme de L sur Q[] tel que
() = .
2ip
(ii) Soit = 2 cos( 2p
q ) une racine de P . Par d
efinition de Q, e q est une racine
de Q. Comme p q = 1 alors est une racine primitive q e de lunite. Par la
2i
question precedente, comme e q est aussi une racine primitive q e de lunite, il
2i
existe un automorphisme Q-lineaire qui envoie sur e q . Comme Q Z[X]
alors Q = Q donc
2i
Q() = 0 = Q(e q ) = 0.
2i 2i 2i
Ainsi e q est une racine de Q et par definition de Q, e q + e q = 2 cos( 2 q )
est une racine de P .
(iii) On etablit de la meme mani`ere quau (ii) un resultat plus precis :
si 1 p0 q 1 est tel que p0 q = 1 et = 2 cos( 2pq ) est racine de P avec
2ip0 0
p q, alors e q est une racine primitive q e de lunite donc 2 cos( 2p q ) est
encore une racine de P .
Dapr`es le d., toutes les racines de P sont de la forme i = 2 cos( 2p qi ) avec
i

pi qi = 1. On peut supposer pi et qi positifs et que 0 pi qi 1 apr`es avoir


effectue une division euclidienne entre pi et qi . Comme i ] 2, 2[ alors on a
en fait 1 pi qi 1.
Distinguons alors deux cas selon qi pair ou impair.
Premier cas : si qi = 2qi0 est pair alors dapr`es (ii), 2 cos( q0 ) est une racine
i
de P . Comme pi qi = 1 alors pi 6= qi0 et 1 pi qi0 1 ou qi0 + 1 pi q 1.
En etudiant les variations de la fonction t 7 | cos t|, on en deduit que

pi (qi0 1)
| cos( 0 )| max | cos( 0 )|, | cos( )| = | cos( 0 )|.
qi qi qi0 qi
Deuxi`eme cas : si qi = 2qi0 +1 est impair alors qi qi0 = 1 donc par la remarque
2q 0
effectuee au debut de cette question, 2 cos( qi i ) est encore une racine de P . De
2q 0
plus, | cos( qi i )| = | cos( qi )| et `a nouveau dapr`es letude des variations de la
fonction t 7 | cos t|, comme 1 pi qi0 1 ou qi0 + 1 p q 1 alors
2pi 2qi0
| cos( )| | cos( )| = | cos( )|.
qi qi qi

Letude de ces deux cas permet detablir que



max{|j |, j = 1, . . . , `} = 2 cos( )
q
avec q 2. Dautre part, si q = 2 alors P = X ` ce qui est exclu donc q 3.
2.a. Montrons tout dabord que kBk = ktBk. En effet
kBk = sup kBxk = sup sup hBx, yi,
xRm ,kxk=1 xRm ,kxk=1 yRn ,kyk=1
7.2. CORRECTION 139

par definition de la dualite dans lespace euclidien Rn . Par definition de la trans-


position, on en conclut que

kBk = sup sup hBx, yi = sup hx,t Byi = ktBk.


xRm ,kxk=1 yRn ,kyk=1 xRm ,kxk=1
yRn ,kyk=1

Ensuite on prouve que kBk = ktBBk1/2 . Comme tBB est symetrique alors

ktBBk = sup htBBx, xi = sup hBx, Bxi


xRm ,kxk=1 xRm ,kxk=1
= sup kBxk2 = kBk . 2
xRm ,kxk=1

En echangeant les roles de B et tB, on a aussi ktBk = kB tBk1/2 .


Enfin, prouvons que kCk = kBk. On a

kCk = sup (kBxk2 + ktByk2 )1/2 .


xRm ,yRn
kxk2 +kyk2 =1

Comme kBk = ktBk alors il est clair que kCk kBk. Dautre part, en prenant
y = 0 dans lexpression precedente du supremum, on a kCk kBk ce qui prouve
le resultat annonce.
b. Soit B Mm,n (Z) alors on vient detablir que kBk = kCk o`u

0 B
C= t M` (C).
B 0

Comme C est symetrique alors elle est diagonalisable dans une base orthonormee
de vecteurs propres et ses valeurs propres sont reelles. Donc kCk = max{|j |, j =
1, . . . , `}, les j representant les valeurs propres de C ou encore les racines du
polynome caracteristique de C. Or B Mm,n (Z) donc C M` (Z) et PC
Z[X]. On en conclut que soit kBk 2, soit kBk < 2 auquel cas max{|j |, j =
1, . . . , `} < 2 et PC verifie les hypoth`eses de 1.e.(iii). On sait alors que

max{|j |, j = 1, . . . , `} = 2 cos( )
q
o`
u q 2.

IV. Indices dinclusions


1. Comme (A) B alors (A) (B) donc
(B)0 ( (A))0 .

On a vu au II.3.b. quil sagissait dalg`ebres de matrices.


On sait que : B C est un morphisme dalg`ebres avec unite donc par le
II.3.b.,
dim C = dim B dim( (B))0 .
De meme, : A C est un morphisme dalg`ebres avec unite donc

dim C = dim A dim( (A))0 .


140 CHAPITRE 7. SESSION DE 1995

On en conclut que
dim (A)0
[( (A))0 : ( (B))0 ] = dim (B)0
dim B
= dim A = [B : A].

2.a. On a vu au II.4. que {p1 , . . . , ps } sont les idempotents centraux mini-


maux non nuls de S et comme R S, on a pour tout j = 1, . . . , r,

pi qj = qj pi et (pi qj )2 = p2i qj2 = pi qj .

On en conclut que pi qj : S S definit en fait un endomorphisme de Bi et quil


sagit dun idempotent de Bi .
b. Si pi qj 6= 0, dapr`es la relation precedente, on a
Sij = pi qj Bi pi qj et Rij = pi qj Aj pi qj .

Or dapr`es le a. pi qj est un idempotent de Bi . Il sagit aussi dun idempotent


du centre de Aj . Il est non nul par hypoth`ese donc de la meme mani`ere quau
II.6.a.(i) et II.6.b.(i), on demontre que

Sij ' Mrg(pi qj ) (C)

est une alg`ebre de matrices et que

Aj Rij
x 7 pi xpi

est un isomorphisme dalg`ebres avec unite (car pour tout x Aj , qj xqj = x).
c. Si une ligne de SR est identiquement nulle alors il existe i0 {1, . . . , s}
tel que i0 j = 0 pour tout j = 1, . . . , r. Ainsi, on a

1 j r, pi0 qj = 0.
r
X
Comme qj = IS alors pi0 = 0 ce qui est contradictoire.
j=1
s
X
Il en est de meme si lune des colonnes est nulle car pi = IS .
i=1

d. On vient de voir que la matrice SR est non redondante. Ainsi, SR est


indecomposable si et seulement si elle nest pas decomposable.
Montrons que si SR est decomposable alors Z(R) Z(S) nest pas reduit
aux multiples de lidentite. Par le I.7. (voir la caracterisation (7.2)), on sait quil
existe des partitions non triviales (I1 , I2 ) de {1, . . . , s} et (J1 , J2 ) de {1, . . . , r}
telles que
i I1 , j J2 , pi qj = 0
i I2 , j J1 , pi qj = 0.
X X X X
Soit P1 = pi , P2 = pi , Q1 = qj , Q 2 = qj . On a alors
iI1 iI2 jJ1 jJ2

P1 + P2 = Q1 + Q2 = IS et P1 Q2 = P2 Q1 = 0.
7.2. CORRECTION 141

Dapr`es ces relations P1 = P1 (Q1 + Q2 ) = P1 Q1 et Q1 = (P1 + P2 )Q1 = P1 Q1


donc P1 = Q1 . Dautre part, il est clair que Q1 Z(R) et P1 Z(S) car ce
sont des combinaisons lineaires didempotents centraux. Comme les partitions
ne sont pas triviales, P1 = Q1 Z(R) Z(S) nest pas un multiple de lidentite.
Montrons que si Z(R)Z(S) nest pas reduit aux multiples de lidentite alors
SR est decomposable. Soit z Z(R) Z(S) avec z non multiple de lidentite.
Par le II.4.b., on trouve des complexes 1 , . . . , r , 1 , . . . , s tels que
r
X s
X
z= j qj = i pi .
j=1 i=1

Quitte `a multiplier z, on peut supposer que max |j | = j0 = 1. Soit

J1 = {j {1, . . . , r}; j = 1}.

On a J1 6= puisque j0 J1 et J1 6= {1, . . . , r} puisque z nest pas un multiple


Xr
de lidentite. Comme qj = IS alors
j=1

z + IS X X j + 1
= qj + qj .
2 2
jJ1 j J
/ 1

Comme Z(R) et Z(S) sont des alg`ebres, on sait que pour tout n N,
n
z + IS
Z(R) Z(S).
2

Or n
z + IS X X j + 1 n
= qj + qj
2 2
jJ1 j J
/ 1
j +1
et comme pour tout j
/ J1 , j 6= 1 et |j | 1 donc | 2 | < 1 et
n X
z + IS
lim = qj Z(R) Z(S).
n 2
jJ1

X
Ainsi on a prouve que Q = qj est un idempotent central de S donc par le
jJ1
II.4.c., Q secrit aussi X
Q= pi .
iI1

Comme J1 6= et J1 6= {1, . . . , r} alors necessairement, I1 6= et I1 6= {1, . . . , s}.


Dautre part, i I1 , pi Q = pi et j / J1 , Qqj = 0 donc

i I1 , j
/ J1 , pi qj = 0.

De la meme mani`ere,
i
/ I1 , j J1 , pi qj = 0,
ce qui prouve que SR est decomposable.
142 CHAPITRE 7. SESSION DE 1995

r
M s
M t
M

e. Soit RS T avec R = Aj , S = Bk , T = Ci . On note
j=1 k=1 i=1
u1 , . . . , ut les idempotents centraux minimaux non nuls de T et on pose TR =
(ij ) 1it , SR = (0kj ) 1ks , TS = (00ik ) 1it .
1jr 1jr 1ks
Dapr`es le 2.b., on sait que lorsque pi qj 6= 0,

Aj ' Rij

et Skj est une alg`ebre de matrices donc en considerant le morphisme dalg`ebres


avec unite
kj : Aj Skj
x 7 pk qj xpk qj
on sait par le II.2.c.(v) que la matrice de kj (x) est une matrice diagonale par
blocs avec 00kj blocs diagonaux :

x ... 0
.. . . .. .
. . .
0 ... x

De la meme mani`ere on consid`ere les morphismes dalg`ebres avec unite

ij : Aj Tij
z 7 ui qj zui qj
et
ik : Bk Uik
y 7 ui pk yui pk .
On sait par le II.2.c.(v) que la matrice de ij (z) est une matrice diagonale par
blocs avec ij blocs diagonaux egaux `a z et que la matrice de ik (y) est une
matrice diagonale par blocs avec 0ik blocs diagonaux egaux `a y.
X s
Mais Skj Bk , pk = IT et ui , pk , qj commutent deux `a deux donc
k=1

s
X s
X
ik kj (z) = ui pk qj zpk qj ui = ij (z).
k=1 k=1

La matrice de ik kj (z) est une matrice diagonale par blocs avec 0ik 00kj blocs
diagonaux egaux `a z. Comme {p1 , . . . , ps } sont des idempotents orthogonaux de
T , il est clair que la famille des alg`ebres Uik , 1 k s est en somme directe
Xs
dans T donc la matrice de ik kj (z) est une matrice diagonale par blocs
k=1
avec
s
X
0ik 00kj
k=1

blocs diagonaux egaux `a z. En egalant avec la matrice de ij (z), on trouve


s
X
ij = 0ik 00kj .
k=1
7.2. CORRECTION 143

f. Comme R S, il est clair que C(S) C(R) et que C(S) est une sous-
alg`ebre de C(R). Ces sommes directes dalg`ebres de matrices sinjectent dans
une alg`ebre de matrices F donc on peut appliquer les resultats du II.5.. Par le
II.5.d. et II.5.e., on a
r
M r
M
C(R) = qj C(R)qj = A0j
j=1 j=1

et
s
M s
M
C(S) = pi C(S)pi = Bi0 ,
i=1 i=1

u A0j est le commutant de Aj dans qj F qj , Bi0 est le commutant de Bi dans


o`
pi F pi .
Dapr`es le II.4., on deduit de ces ecritures que {q1 , . . . , qr } (respectivement
{p1 , . . . , ps }) sont les idempotents centraux minimaux non nuls de C(R) (res-
pectivement C(S)).
C(R)
Par definition de la matrice dindice, on a C(S) = (ji ) 1jr avec
1is

2ji = [qj pi C(R)qj pi : qj pi C(S)qj pi ]


lorsque qj pi 6= 0 et 0 sinon.
Si pi qj = 0 alors ji = ij .
Si qj pi 6= 0 : on a evidemment qj pi C(R)qj pi = pi A0j pi et qj pi C(S)qj pi = qj Bi0 qj
donc
dim pi A0j pi
2ji = .
dim qj Bi0 qj
A ce stade, rappelons le resultat etabli au II.3.b. : si A et B sont deux alg`ebres
de matrices telles quil existe un morphisme dalg`ebres avec unite de A dans B
alors
dim B
[B : A] = = dim A0
dim A
u A0 est le commutant de A dans B.
o`
On a clairement linjection Aj qj F qj et A0j est le commutant de Aj dans
qj F qj . Comme pi Z(S) et R S alors pi C(R) donc qj pi est un idempotent
non nul de A0j . Dapr`es le II.6.b.(ii) le commutant de pi qj Aj pi qj dans pi qj F pi qj
est egal `a pi qj A0j pi qj . Or qj Aj qj = Aj et qj A0j qj = A0j donc
dim(pi qj F pi qj ) = dim(pi Aj pi ) dim(pi A0j pi ).
On a aussi linjection Bi pi F pi et Bi0 est le commutant de Bi dans pi F pi .
Dapr`es le 2.b., qj pi est un idempotent non nul de Bi donc dapr`es le II.6.a.(ii), le
commutant de qj pi Bi qj pi dans qj pi F qj pi est egal `a qj pi Bi0 qj pi . Or pi Bi pi = Bi
et pi Bi0 pi = Bi0 donc
dim(pi qj F pi qj ) = dim(qj Bi qj ) dim(qj Bi0 qj ).
Comme pi Aj pi = Rij et qj Bi qj = Sij , on a
dim(pi A0j pi ) dim Sij
2ji = = = ij
dim(qj Bi0 qj ) dim Rij
144 CHAPITRE 7. SESSION DE 1995

C(R)
ce qui permet de conclure que C(S) = tSR .
3.a. On verifie facilement que est un morphisme dalg`ebres injectif avec
unite, que est un antihomomorphisme dalg`ebres injectif avec unite et que

x, z S, (x)(z) = (z)(x).

b. Par la relation vue au a., il est clair que (S) EndR (S).
On definit un morphisme dalg`ebres avec unite par

: S L
End(S) Ls
s
x = i=1 xi 7 ( i=1 txi )

Comme R est une somme directe dalg`ebres de matrices, (R) est isomorphe `a
une somme directe dalg`ebres de matrices. Comme (R) = (R), EndR (S) est le
commutant de (R) dans End(S) donc dapr`es le II.5.d., EndR (S) est isomorphe
`a une somme directe dalg`ebres de matrices.
c. Montrons que (S) est le commutant de (S) dans End(S). Tout dabord,
il est clair dapr`es la relation etablie au a. que (S) ( (S))0 . Ensuite, si
f ( (S))0 alors
s S, f (s) = (s) f.
En appliquant cette egalite `a lelement I, on en deduit que pour tout s S,
f (s) = f (I)s ce qui prouve que f = (x) avec x = f (I) et que f (S).
On a alors R S End(S). On vient de voir que (S) = C(S) et on a
vu au b. que EndR (S) = C(R) donc dapr`es le 2.f.,
End (S)
(S)R = tSR .

4.a. Par le 3.c., on a SS2p+1


2p
S
= et S2p
2p1
=t et dapr`es la relation de
transitivite des matrices dindice pour linclusion etablie au 2.e., on constate
facilement que
SS02k = SS20 SS2k
2k2
= ( t)k ,
et que
S
S2k+1
0
= ( t)k .

b. Comme on suppose que Z(R) Z(S) est reduit aux multiples de liden-
tite alors dapr`es le 2.d., la matrice est indecomposable. Par le I.7.b. on en
conclut que les matrices t et t sont des matrices positives irreductibles et
diagonalisables `a valeurs propres positives ou nulles.
c. Comme A est diagonalisable `a valeurs propres positives ou nulles alors
pour tout vecteur y, on a X
Ay = i Pi y
o`
u Pi designe le projecteur orthogonal sur le sous-espace propre associe `a la
valeur propre i et 0 la valeur propre de module maximal. Comme A est
7.2. CORRECTION 145

P k
symetrique alors kAk = 0 et on a Ak y = i Pi y. Par le I.7.b., on sait que
pour toute valeur propre de A distincte de celle de module maximal, || < 0 ,
donc on en conclut que

Ak Ak
lim k
y = lim k y = P0 y.
k kA k k 0

d. On a vu au I.2.g que le sous-espace propre associe `a la valeur propre de


module maximal est de dimension 1 et que imP0 = Vectz o` u z est un vecteur
strictement positif. Comme y est un vecteur positif non nul, P0 y = hz, yiz est
non nul.
Dapr`es la question precedente, on a

lim k( t)k yk1/k = lim k( t)k yk1/k = kAk.


k k

Dapr`es le b., A est irreductible et on a vu au III.2.a. que dans ce cas kAk = kk2
ce qui etablit le resultat.
L
e. On aLun morphisme injectif avec unite de S0 = R = rj=1 Maj (C) dans
s
Sk = S = i=1 Mbi (C) et la matrice dindice pour cette inclusion est definie
par
ij = 0 si pi qj = 0
1
ij = [Sij : Rij ] 2 si pi qj 6= 0.
On sait que par le 2.b. que lorsque pi qj 6= 0,

Maj (C) ' Rij et (dim Sij )1/2 = rg(pi qj ).

Or {q1 , . . . , qr } sont des idempotents orthogonaux dont la somme vaut lidentite


donc
r
X
rg(pi qj ) = rg(pi ) = bi .
j=1

Par la definition des ij , on en deduit que


r
X
ij aj = bi .
j=1

a1

Soit y = ... .
ar
Dans le cas pair : k = 2p. On a dapr`es le a.,
s
X
dim(S2p ) = b2i = k( t)p yk2
i=1

Dans le cas impair : k = 2p + 1, on a


s
X
dim(S2p+1 ) = b2i = k( t)p yk2 .
i=1
146 CHAPITRE 7. SESSION DE 1995

Or y et y sont des vecteurs positifs non nuls donc par le d., on en conclut que

lim (dim(Sk ))1/k = kk2 .


k

Comme est une matrice `a coefficients entiers, on peut appliquer les resultats
du III.2.b.. Ainsi kk2 4 ou kk2 = 4 cos2 ( q ) avec q entier superieur ou egal
`a 3 (car 6= 0).

7.3 Commentaires
Comme lindique clairement lenonce, les trois premi`eres parties de cette
epreuve sont independantes. Il est donc important le jour du concours que le
candidat les lise et choisisse celle par laquelle il pref`ere commencer.
La premi`ere partie traite dalg`ebre lineaire et de reduction de matrices `a
coefficients positifs autour du theor`eme de Perron-Froebenius. Les parties II
et III, bien quindependantes, etablissent les premiers resultats de la theorie
des representations des alg`ebres associatives, la troisi`eme partie demandant de
matriser la notion de corps de rupture dun polynome. Enfin, la derni`ere partie
traite dindices dinclusion des alg`ebres semi-simples et demande detre pret `a
utiliser tous les resultats etablis dans les parties precedentes.
Chapitre 8

Session de 1996

8.1 Sujet

147
148 CHAPITRE 8. SESSION DE 1996

8.2 Correction

Partie 1. Partitions dun entier

1. r0 est le nombre de lignes du diagramme 0 associe `a 0 , cest-`a-dire le


nombre de colonnes du diagramme associe `a , on a donc r0 = 1 .
Soit k N : rk0 est le nombre de lignes de 0 qui contiennent k carres, i.e le
nombre de colonnes de qui contiennent k carres. Or, la j-`eme colonne de
contient k carres si et seulement si k j > k+1 : les k premi`eres lignes de
contiennent au moins j carres, donc la j-`eme colonne contient au moins k
carres ; les lignes suivantes de contiennent strictement moins de j carres, donc
la j-`eme colonne de contient exactement k carres.
On a donc
rk0 = k k+1 (k N ).

On en deduit que pour i N :

i
X i
X
1 i+1 = (k k+1 ) = rk0 .
k=1 k=1

X
et tenant compte du fait que 1 = r0 = rk0 , on obtient :
k1

X
i = rk0 (i 1).
ki

0
Comme 0 = , on a aussi :
X
0i = rk (i 1).
ki

2. Il est clair que si et seulement si le diagramme de est contenu dans


celui de . Le diagramme de transpose est alors evidemment inclus dans celui
de transpose et donc 0 0 . De meme, si 0 0 , alors = (0 )0 (0 )0 = .

3. Il est clair que :


( )0 = 0 + 0

et
( + )0 = 0 0 .
8.2. CORRECTION 149

Partie 2. Quelques lemmes


4.a. On developpe le produit et on regroupe suivant les puissances de T .
Pour k 1, le terme facteur de T k est :
X
X i1 +...+ik .
0i1 <...<ik n1

Or, si (i1 , . . . , ik ) est un k-uplet dentiers tels que 0 i1 < . . . < ik n 1, on


a:
k (k 1)
i1 + . . . + ik 0 + 1 + . . . + (k 1) = .
2
k (k1) X
X 2 est donc facteur de X i1 +...+ik , donc de X i1 +...+ik , et
0i1 <...<ik n1
lautre facteur est `a coefficients entiers positifs (ses coefficients valent 0 ou 1).
On peut donc bien ecrire pour k 1 :
X k (k1)
X i1 +...+ik = X 2 Pn,k (X).
0i1 <...<ik n1

avec Pn,k `a coefficients entiers positifs.


Cette ecriture est valide aussi pour k = 0 avec Pn,0 = 1. Do`
u le resultat.
n
Y n1
Y
4.b. Soit n 1. On ecrit (1 + X i T ) = (1 + X n T ) (1 + X i T ). On a
i=0 i=0
donc :
n
Y X
n
k (k1)

(1 + X i T ) = (1 + X n T ) X 2 Pn,k (X)T k
i=0 k=0
n
X k (k1)
= X 2 Pn,k (X)T k
k=0
Xn
k (k1)
+ X 2 Pn,k (X)X n T k+1 .
k=0

Or, on a :
n
X k (k1) n (n1)
X 2 Pn,k (X)X n T k+1 = X 2 Pn,n (X)X n T n+1
k=0
n
X (j1) (j2)
+ X 2 Pn,j1 (X)X n T j .
j=1

et pour 1 j n :
(j1) (j2) j (j1)
X 2 Xn = X 2 X nj+1 .

Il en resulte que :
n
Y n
X k (k1)
(1 + X i T ) = X 2 Pn,k (X) + X nk+1 Pn,k1 (X) T k
i=0 k=1
n (n+1)
+ Pn,0 (X) + X 2 Pn,n (X)T n+1 .
150 CHAPITRE 8. SESSION DE 1996

On a donc par identification (la famille {T k }k0 est une base de Q(X) [T ]) :

Pn+1,0 (X) = Pn,0 (X)
Pn+1,k (X) = Pn,k (X) + X nk+1 Pn,k1 (X) si 1 k n .

Pn+1,n+1 (X) = Pn,n (X)
On en deduit immediatement que n N, Pn,0 (X) = Pn,n (X) = 1.
5.a. Si n N , et si 1 k n, on a :
Fn,k + X nk+1 Fn,k1
(1 X nk+1 ) . . . (1 X n ) (1 X nk+2 ) . . . (1 X n )
= k
+ X nk+1
(1 X) . . . (1 X ) (1 X) . . . (1 X k1 )
nk+2 n nk+1
(1 X ) . . . (1 X )[(1 X ) + X nk+1 (1 X k )]
= k
(1 X) . . . (1 X )
(1 X nk+2 ) . . . (1 X n )(1 X n+1 )
=
(1 X) . . . (1 X k )
= Fn+1,k
Il est dautre part clair que Fn,n (X) = 1, et lenonce pose Fn,0 (X) = 1. Donc les
Fn,k satisfont `a toutes les conditions qui definissent en 4.b. les Pn,k de mani`ere
unique dans Q[X], mais en fait aussi dans Q(X) : les Fn,k sont en realite les
Pn,k , donc dapr`es 4.a. des polynomes `a coefficients entiers positifs.
5.b. Le degre sur Q(X) defini par deg U/V = deg U deg V prolonge le
degre sur Q[X] et poss`ede des proprietes identiques. Il vient donc :
Y
k
1 X nk+i
deg Fn,k = deg
i=1
1 Xi
k
X 1 X nk+i
= deg
i=1
1 Xi
k
X
= (n k) = k (n k)
i=1

5.c. Si k = 0, il suffit de se rappeler que Fn,0 (X) = Fn,n (X) = 1.


Si k {1, . . . , n}, on multiplie numerateur et denominateur de Fn,k par le
produit (1 X) . . . (1 X nk ) pour obtenir
(1 X) . . . (1 X n )
Fn,k (X) = ,
(1 X) . . . (1 X nk ) (1 X) . . . (1 X k )
expression sur laquelle il est evident que Fn,k = Fn,nk .
6.a. Comptons tout dabord le nombre Nr de syst`emes ordonnes libres
(e1 , . . . , er ) de r vecteurs que lon peut choisir dans E (qui compte pn elements).
On a pn 1choix possibles pour le premier vecteur e1 . Une fois que lon a choisi
e1 , . . . , ei , ei+1 doit etre choisi dans E prive de lespace engendre par e1 , . . . , ei ,
qui compte pi elements : on a donc pn pi choix possibles pour ei+1 .
Il vient donc :
r
Y r
Y r
Y
Nr = (pn pi1 ) = (pni+1 1) pi1 .
i=1 i=1 i=1
8.2. CORRECTION 151

Si F designe `a present un sous-espace vectoriel de E de dimension r, un calcul


analogue au precedent montre que le nombre Nr0 de bases ordonnees de F est
r
Y r
Y r
Y
Nr0 = (pr pi1 ) = (pri+1 1) pi1 .
i=1 i=1 i=1

Or, un sous-espace vectoriel de E de dimension r est determine par un syst`eme


libre de r vecteurs, et deux tels syst`emes engendrent le meme sous-espace si et
seulement si ils sont deux bases dun meme sous-espace : le nombre de sous-
espaces de dimension r de E est donc
Qr
Nr (pni+1 1)
0
= Qi=1
r ri+1 1)
= Fn,r (p).
Nr i=1 (p

6.b. Les sous-espaces G de E, de dimension r et contenant F sont en bi-


jection avec les sous-espaces G de E/F de dimension r l via la surjection
canonique de E sur E/F . Mais E/F est `a son tour un espace vectoriel de di-
mension n l sur Z/pZ, donc dapr`es a. :

cn,l,r = Fnl,rl (p).

On a donc, en utilisant ce qui prec`ede et 5.c.,

cn,l,n+rl = Fnl,nr (p) = Fnl,nl(nr) (p) = cn,l,r .

6.c. Le cas n = l est evident : la somme vaut cl,l,l , cest-`a-dire 1.


Si n > l, on applique la formule du 4.a., avec X specialise en p, T en 1 et n
remplace par n l. On obtient :
nl+1
Y nl
X k(k1)
(1 pi ) = p 2 Pnl,k (p)(1)k .
i=0 k=0

Or, dune part le produit est nul (son premier terme est nul), et dautre part :

Pnl,k (p) = Fnl,k (p) = cn,l,l+k d0 apr`es 5. et b.

Donc on a bien
nl
X k(k1)
(1)k p 2 cn,l,l+k = 0 .
k=0

6.d. Soit F un sous-espace vectoriel de E. Alors :


X l(l1) X l(l1)
X
(1)l p 2 fG = (1)l p 2 gH
GF GF HG
X l(l1)
= (1)l p 2 gH
X
HGF
X l(l1)

= (1)l p 2 gH .
HF HGF
152 CHAPITRE 8. SESSION DE 1996

Pour calculer la deuxi`eme somme (o`


u H est fixe et G varie), on regroupe les
sous-espaces G de E tels que H G F suivant leur dimension. On a donc :

X l(l1)
dim
XF X l(l1)

(1)l p 2 = (1)l p 2 .
HGF k=dim H HGF,dim G=k

Or le nombre l = lF (G) ne depend que de la dimension de G, donc si


dim H k dim F :
X l(l1) l(l1)
(1)l p 2 = (1)l p 2 Nk
HGF,dim G=k

o`
u Nk est le nombre de sous-espaces G de E tels que H G F de dimension
k, cest-`a-dire que Nk = cdim F,dim H,k . Dautre part, si G est un sous-espace de
dimension k de E tels que H G F , on a l = lF (G) = dim F k. La somme
totale cherchee vaut donc :
X dim
XF (dim F k)(dim F k1)

(1)(dim F k) p 2 cdim F,dim H,k gH .
HF k=dim H

ou encore :
X dim FX
dim H
j(j1)

(1)(j) p 2 cdim F,dim H,dim H+j gH .
HF j=0

Pdim F dim H j(j1)


Dapr`es c., la somme j=0 (1)(j) p 2 cdim F,dim H,dim H+j est nulle si
dim F > dim H, et vaut 1 si dim H = dim F . La somme precedente se reduit
donc `a gF , ce qui est le resultat demande.
7. Remarquons que puisque G est commutatif, tous les sous-groupes consi-
deres ici sont distingues, et les quotients que lon envisage sont bien munis dune
structure de groupe compatible avec la surjection canonique.
7.a. Soit la surjection canonique de G sur G/K. On a bien sur H/K =
(H). Comme est un homomorphisme de groupes, H/K est un sous-groupe
G/K
de G/K. Considerons alors 0 la surjection canonique de G/K sur ainsi
H/K
que = 0 . Le theor`eme disomorphisme nous dit que

im ' G/ ker .

Comme et 0 sont surjectives, lest aussi, i.e


G/K
im = .
H/K

On a ker = {g G / (g) H/K}. Il est alors clair que H ker .


Si g G est tel que (g) H/K = (H), alors il existe h H tel que
(g) = (h), ce qui signifie que g h K. Donc g h + K H car K H.
Donc ker = H et on a bien lisomorphisme annonce.
7.b. K est bien sur un sous-groupe de H + K, et on peut considerer la
surjection canonique de H + K sur (H + K)/K. Soit la restriction de `a H.
8.2. CORRECTION 153

On a ker = H ker = H K. est dautre part surjective : si g est dans


H + K, g secrit g = h + k avec h H et k K et on a

(g) = (h) + (k) = (h) = (h) im .

Il suffit dappliquer le theor`eme disomorphisme `a pour obtenir le resultat.


7.c. est maintenant la surjection canonique de G sur G/H et on consid`ere
la restriction de `a qG.
On a ker = ker qG = H qG.
Dautre part, si g G, (qg) = (qg) = q(g) q (G/H). Reciproquement, si
x q (G/H), x secrit x = q(g) avec g G, i.e x = (qg) = (qg) im . Donc
im = q (G/H).
On applique alors le theor`eme disomorphisme `a .

Partie 3. Les p-groupes commutatifs finis


8.a. Si G est de type , G ' Z/p1 Z . . . Z/pr Z.
Si H est de type , H ' Z/p1 Z . . . Z/pl Z.
G H est alors isomorphe `a

Z/p1 Z . . . Z/pr Z Z/p1 Z . . . Z/pl Z.

On peut rearranger le (r + l)-uplet (1 , . . . , r , 1 , . . . , l ) en un (r + l)-uplet


(1 , . . . , r+l ) tel que 1 . . . r+l . Il est clair que est le type de G H.
Montrons quen fait = . On proc`ede pour cela par recurrence sur r + l.
Si r = l = 1, cest evident.
Supposons que r + l > 2 et que le resultat soit vrai pour r + l 1. Il est
clair que la premi`ere ligne de est max(1 , 1 ) = 1 . Pour fixer les idees,
supposons que 1 = 1 et considerons qui est privee de 1 . Il est clair que
le rearrange (1 , . . . , r+l1 ) associe `a la paire (, ) est (2 , . . . , r+l ), donc il
suffit dappliquer lhypoth`ese de recurrence pour obtenir que

(2 , . . . , r+l ) =

et donc que = .
Card G
8.b. Puisque Card (G/H) = , on a pl(G/H) = pl(G)l(H) .
Card H
Do`
u l(G/H) = l(G) l(H).
G/K
8.c. On a vu au 7.a. que G/H ' : la definition du cotype entraine
H/K
alors immediatement le resultat.

9. Supposons g (p) 6= 0. Il existe alors H un sous-groupe de G (p) tel que
H ' G (p) et G (p)/H ' G (p). Dans ce cas, on a dune part

Card H = Card G (p) = p||

et dautre part
Card G (p)
Card H = = p|||| .
Card G (p)
154 CHAPITRE 8. SESSION DE 1996


Donc || + || = ||. Ainsi, si || + || 6= ||, g (p) = 0.
Pour montrer que la multiplication sur A(p) est bien definie, il suffit de voir que

pour tous , , g (p) est nul sauf pour un nombre fini de , ce qui est le
cas puisquil nexiste quun nombre fini de qui verifient || = || + ||.
10. Fixons (, , ) dans 3 :
X

G (p)G (p) G (p) = g (p)G (p) G (p)
X

= g (p)G (p)G (p)
X 0
X

= g (p) g (p)G0 (p)
0
X X 0

= g (p)g (p) G0 (p).
0

Par un calcul analogue, on obtient dautre part :


X X
0
G (p) G (p)G (p) = g (p)g (p) G0 (p).
0

Comme pour verifier lassociativite de la multiplication de A(p), il suffit de le


faire sur les elements de la base des G (p), il suffit de montrer que pour tout
(, , , 0 ) dans 4 , on a :
X X 0
0
g (p)g (p) = g (p)g (p).

0 0

Pour cela, calculons de deux mani`eres differentes g (p). Par definition, g (p)
est le nombre de couples (H1 , H2 ) de sous-groupes de G0 (p) tels que H1 H2 ,
H1 est de type , H2 /H1 est de type et G0 (p)/H2 est de type .
0
Dune part, pour chaque , il y a g (p) sous-groupes H2 de G0 (p) de type
tels que G0 (p)/H2 est de type . Pour chacun de ces H2 , il y a par definition

g (p) sous-groupes H1 , de type et de cotype (dans H2 ) .
Il vient donc X
0 0
g (p) = g (p)g (p).

0

Dautre part, pour chaque , il y a g (p) sous-groupes H1 de G0 (p)
de type et de cotype . Donnons-nous un de ces H1 : G0 (p)/H1 est donc
isomorphe `a G (p), donc le nombre de sous-groupes de G0 (p)/H1 de type et

de cotype est g (p). Mais lensemble de ces sous-groupes est en bijection via
la surjection canonique avec lensemble des sous-groupes H2 de G0 (p) contenant
H1 et verifiant H2 /H1 de type et G0 (p)/H2 de type (dapr`es 8.c., le type
G0 (p)/H1
de G0 (p)/H2 est aussi celui de ).
H2 /H1
En consequence,
0
X 0

g (p) = g (p)g (p).

Do`
u le resultat.
8.2. CORRECTION 155

11.a. Tout dabord, remarquons que si G1 , . . . , Gn sont des groupes com-


mutatifs, alors les groupes G1 d . . . Gn et Gc1 . . . Gcn sont isomorphes :
si G1 d . . . Gn , on lui associe en effet fi () G ci defini par la relation
fi ()(x) = (0, . . . , x, . . . , 0) (x est `a la i-`eme place).
Lapplication (f1 (), . . . , fn ()) est lisomorphisme annonce.
Dapr`es cette remarque, il suffit donc de montrer le resultat pour chacun des
facteurs cycliques de G : on peut supposer que G est cyclique. Soit n le cardinal
de G et g un generateur. Considerons lapplication
b C
: G
.
7 (g)
Il est clair que est un homomorphisme de groupes. Comme g engendre G, il
est injectif.
b (g) n = (ng) = (1) = 1. Ceci montre que limage de
Dautre part, si G,
est contenue dans Un , le groupe des racines n-emes de 1. Reciproquement, si
b et im . Limage de
Un , en posant (pg) = p on defini un element de G
b est isomorphe `a Un , donc `a G (Un et G sont deux groupes
est ainsi Un , et G
cycliques de meme ordre).
11.b. Il suffit une fois encore de faire la demonstration dans le cas de G (p).
Si x 6= 0 dans G (p), cela signifie en posant x = (x1 , . . . , xr ) quil existe un i
tel que xi est non nul (dans Z/pi Z). Soit g un generateur de Z/pi Z, on peut
ecrire xi = j g avec j {0, . . . , pi 1}. Soit une racine primitive pi -i`eme
de 1 et soit lunique element de Z/p di Z tel que (g) = . On d efinit alors
d
G (p) par (y1 , . . . , yn ) = (yi ).
On a alors (x) = (j g) = j 6= 1.
Interessons-nous maintenant `a . Soit x G. Pour , G, b on a

(x)() = ()(x) = (x)(x) = (x)()(x)()


bb
donc (x) G.
b on a :
Considerons ensuite x, y G. Pour G,

(x + y)() = (x + y) = (x)(y) = (x)()(y)()

donc (x + y) = (x)(y), ce qui prouve que est un homomorphisme de


groupes.
Linjectivite de resulte de ce qui prec`ede (si x 6= 1, il existe G b tel que
(x)() 6= 1, donc (x) 6= 1 et x / ker ).
b sont isomorphes, ainsi que G b et Gbb
Mais on sait que G et G : ces trois groupes
ont memes cardinaux, et est alors bijective.
T
11.c. Remarquons tout dabord que H = xH ker (x), cest donc un
sous-groupe de G.
Soit la surjection canonique de G sur G/H.
Soit H . Si g et g 0 sont deux elements de G tels que g g 0 H, alors
on a (g g 0 ) = 1 = (g)/(g 0 ), i.e (g) = (g 0 ). Ceci permet de definir sans
equivoque une application () de G/H dans C en posant ()((g)) = (g).
De plus, si g, g 0 G, on a

()((g)(g 0 )) = ()((gg 0 )) = (gg 0 ) = (g)(g 0 ) = ()((g))()((g 0 )).


156 CHAPITRE 8. SESSION DE 1996

d
Donc () est dans G/H.
d Montrons que cest un
On a donc defini une application de H dans G/H.
isomorphisme de groupes.
Soient , H et soit g G :

()((g)) = ()(g) = (g)(g) = [()()]((g))

donc est un homomorphisme de groupes.


Si ker , alors pour tout g G, (g) = ()((g)) = 1, donc = 1 et est
injective.
d posons pour g G, (g) = ((g)). Il est clair que H et on
Si G/H,
a () = et est bien surjective.

11.d. Considerons : Gb Hb definie par () = |H . Il est clair que


est un morphisme de groupes et que ker = H . On a donc un isomorphisme
b et im . On a en particulier
entre G/H

b
Card (G) Card G
Card im = = .
Card H Card H
Or dapr`es c., on a

d = Card G/H = Card G .


Card H = Card (G/H)
Card H
b et im = H,
Donc Card im = Card H = Card H, b ce qui repond `a la question.

11.e. Montrons que pour tout sous-groupe H de G, H = (H ) .


On a linclusion evidente H (H ) . Reciproquement, si x / H, alors dans
G/H, on a (x) 6= 0 ( designe toujours la surjection canonique de G sur G/H).
On peut donc considerer dapr`es b., G/H d tel que ((x)) 6= 1. Il est clair

que H . Ainsi x / (H ) , ce qui prouve ce que nous voulions.
Il en resulte que lapplication proposee est injective car si H1 = H2 alors

H1 = (H1 ) = (H2 ) = H2 .

Mais comme on sait depuis le a. que G et G b sont isomorphes, ils ont meme
nombre de sous-groupes, et la surjectivite en decoule. Lapplication reciproque
est K K .
11.f. Soit (, , ) 3 .
Considerons H un sous-groupe de G = G (p) de type et de cotype . H est
d lui-meme isomorphe `a G/H, donc H est de type . G/H
isomorphe `a G/H, b
b
est isomorphe `a H, donc `a H et H est de cotype .

On en deduit grace `a e. que g (p) g (p) et il y a en fait egalite en echangeant
les roles de et . La commutativite de la multiplication dans A(p) en decoule.
12. On sait que G ' Z/p1 Z . . . Z/pr Z.
Il est alors evident que

j N pj G ' pj Z/p1 Z . . . pj Z/pr Z .
8.2. CORRECTION 157

Soit j N et i {1, . . . , r}.


Il est clair que si j i alors pj Z/pi Z = {0}.
Si j < i , on applique 7.c. avec q = pj , G = Z et H = pi Z. On obtient :

pj Z/pi Z ' pj Z / pi Z pj Z .

Comme j < i , on a pi Z pj Z = pi Z. Le cardinal de pj Z/pi Z est ainsi
lindice de pi Z dans pj Z, cest-`a-dire que

Card pj Z/pi Z = pi j .

Finalement, on a pour 1 i r,

Card pj Z/pi Z = pmax(i j,0)

et ainsi,
r
Y Pr
max(i j,0)
Card (pj G) = pmax(i j,0) = p i=1 .
i=1
On en deduit que
r
X
l(pj G) = max(i j, 0).
i=1

Dapr`es 8.b., on a j = l(pj1 G) l(pj G), do`


u
r
X
j = max(i j + 1, 0) max(i j, 0)
i=1

Mais max(i j + 1, 0) max(i j, 0) vaut 1 si i j et 0 sinon. On en deduit


que
j = Card {i / i j} = 0j .
Ainsi = 0 .

13. G est un groupe de type donc 0i = l pi1 G/pi G en appliquant le
resultat de 12.
H est de cotype dans G donc 0i = l pi1 G1 /pi G1 o` u G1 designe le groupe
G/H.
Notons la surjection canonique de G sur G1 .
pi G1 est un sous-groupe i1
i de p G1 , on notera 1 la surjection canonique de
i1 i1
p G1 sur p G1 / p G1 . On notera G2 ce dernier groupe.
Remarquons que si g et g 0 sont deux elements de G qui verifient pi1 g = pi1 g 0 ,
alors on a 1 (pi1 (g)) = 1 (pi1 (g 0 )) et ceci permet de definir sans ambiguite
lapplication :
: pi1 G G2
.
pi1 g 7 1 (pi1 (g))
Il est clair que est un homomorphisme de groupes surjectif. Dautre part, on
a pi G ker . il en resulte que

Card pi1 G Card pi1 G
Card G2 = = Card pi1 G/pi G
Card ker i
Card p G
158 CHAPITRE 8. SESSION DE 1996

et par suite
l pi1 G/pi G l(G2 ).
On a donc 0i 0i pour tout i, i.e 0 0 et ceci equivaut dapr`es 2. `a .
Enfin, H est de cotype dans Gb qui est toujours de type car isomorphe `a G,
on a donc aussi .

Partie 4 D
enombrement de sous-groupes
14. Soit lapplication de G dans G definie par (x) = px. Il est clair que
est un morphisme de groupes. Si on note S = ker , S est un sous-groupe
elementaire et comme tout sous-groupe elementaire est contenu dans ker , S
est le socle de G.
G/S est isomorphe `a im = pG. est ainsi le type de pG. Il est clair que
r
Y
pG ' Z/pmax(i 1,0) Z .
i=1

i = max(i 1, 0).
On a donc
15. G est dej`a muni dune structure de groupe commutatif, il suffit donc de
trouver une multiplication externe compatible avec cette structure. Il suffit de
poser, si q Z/pZ et x G, qx = qx (cette definition est licite car si q = q0 ,
q q 0 est un multiple de p et comme G est elementaire, (q q 0 )x = 0). On verifie
aisement que G devient alors un Z/pZ-espace vectoriel.
16. Comme G/H est fini et elementaire, cest un Z/pZ-espace vectoriel de
dimension finie (disons n). On a alors Card (G/H) = pn et n = l(G/H) =
l(G) l(H).
Rappelons que le nombre de familles libres {
x1 , . . . , x
l } dans G/H est, comme
on la explique au 6.a.,
Yl
(pn pi1 ).
i=1

Dautre part, chaque element de G/H admet Card H = pl(H) antecedents dans
G, le nombre cherche est donc
l
Y
(pl(G) pl(H)+i1 ).
i=1

17.a. Il est clair que H 0 G0 H.


Reciproquement, soit g G0 H. Puisque g G0 , on peut ecrire g = h0 +
P l
u h0 H 0 et ni Z pour 1 i l. Soit la surjection canonique
i=1 ni xi o`
de G sur G/H. Alors (g) = 0 car g H. Comme H 0 H, on a aussi (h0 ) =
Pl Pl
0, et par suite i=1 ni (xi ) = 0, et i=1 n
i (xi ) = 0 dans le Z/pZ-espace
vectoriel G/H. Par hypoth`ese, la famille ((x1 ), . . . , (xl )) est libre dans cet
espace vectoriel, donc tous les ni sont
Pnuls. Tous les ni sont donc des multiples
l
de p, et comme G est elementaire, i=1 ni xi = 0. Ainsi, g = h0 H 0 . Donc
G0 H = H 0 .
8.2. CORRECTION 159

Dautre part, considerons 0 la surjection canonique de G0 sur G0 /H 0 , et


posons x0i = 0 (xi ) (1 i l).
Puisque G/H 0 est elementaire (quotient de groupe elementaire), il en est de
meme de G0 /H 0 qui en est un sous-groupe et la question 15. permet de le voir
comme un espace vectoriel sur Z/pZ. Montrons que (x01 , . . . , x0l ) en est une base.
Pl
Soit g 0 G0 . g 0 secrit g 0 = h0 + i=1 ni xi o` u h0 H 0 et ni Z pour 1 i l.
Donc :
Xl X l X l
0 0 0 0 0 0
(g ) = (h ) + ni (xi ) = ni xi = ni x0i ,
i=1 i=1 i=1

ce qui prouve que la famille Pest generatrice. Pl


l
Supposons maitenant que i=1 ni x0i = 0 dans G0 /H 0 . On a donc i=1 ni x0i = 0
Pl Pl
dans G0 /H 0 , i.e i=1 ni xi H 0 . Comme H 0 H, on a ( i=1 ni xi ) = 0, puis
Pl
i=1 n
i (xi ) = 0 dans G/H. On en deduit comme plus haut que les ni sont
nuls, et la famille (x01 , . . . , x0l ) est libre.
La dimension de G0 /H 0 est donc l, et son cardinal est pl . Ce cardinal est par
0 0
ailleurs pl(G /H ) , il en resulte que l(G0 /H 0 ) = l.
On a montre que G0 verifie bien la condition (C).
17.b. On conserve les notations et 0 de la question precedente.
Supposons que G0 verifie la condition (C). De l(G0 /H 0 ) = l, on deduit que
G0 /H 0 est de dimension l sur Z/pZ. Considerons-en une base (x01 , . . . , x0l ), puis
une famille (x1 , . . . , xl ) delements de G0 telle que pour tout i, 0 (xi ) = x0i .
Pl
On montre que la famille (x1 , . . . , xl ) est libre modulo H : si i=1 ni (xi ) = 0,
Pl Pl
cela signifie que i=1 ni xi H. Comme par ailleurs ni xi G0 , on a
Pl 0 0 0
P l Pi=1
l
i=1 ni xi H = G H. Donc ( i=1 ni xi ) = 0, et i x0i = 0 et tous
i=1 n
les ni sont nuls du fait de lindependance de la famille (x1 , . . . , x0l ), ce que nous
0

voulions.
Montrons ensuite que G0 est engendr Pl e par H 0 et cette famille :
si g G , on peut ecrire (g ) = i=1 ni x0i car la famille (x01 , . . . , x0l ) engendre
0 0 0 0
Pl Pl
G0 /H 0 . cela signifie que 0 (g 0 i=1 ni xi ) = 0, donc que g 0 i=1 ni xi H 0 ,
et le resultat en decoule.
17.c. Dapr`es les deux questions qui prec`edent, se donner un sous-groupe
G0 de G verifiant la condition (C), cest exactement se donner une famille
(x1 , . . . , xl ) delements de G, libre modulo H.
Ql
Depuis 16., on sait que le nombre de telles familles est i=1 pl(G) pl(H)+i1 .
Cherchons `a quelles conditions deux telles familles donnent naissance au meme
sous-groupe G0 . Supposons donc que (x1 , . . . , xl ) et (y1 , . . . , yl ) sont deux fa-
milles libres modulo H donnant naissance aux sous-groupes G01 et G02 qui ve-
rifient (C). Soit F1 le sous-espace vectoriel de G/H 0 engendre par la famille
( 00 (x1 ), . . . , 00 (xl )) et F2 celui engendre par ( 00 (y1 ), . . . , 00 (yl )) (ici, 00 designe
la surjection canonique de G sur G/H 0 ).
Pl
Si G1 = G2 , alors pour tout j, xj G2 et xj secrit xj = h0 + i=1 ni yi o` u
Pl
h0 H 0 et ni Z. Do` u 00 (xj ) = i=1 ni 00 (yi ), ce qui prouve que F1 F2 .
On a de meme F2 F1 , et F1 = F2 .
00
Reciproquement, si F2 = F1 , alors pourPtout j de {1, . . . , l}, (xj ) secrit
P l l
00 (xj ) = i=1 n i 00 (yi ) et ainsi xj i=1 ni yi H 0 , ce qui prouve que
xj G02 , donc que G01 G02 , et par symetrie on a G02 G01 , puis G01 = G02 .
160 CHAPITRE 8. SESSION DE 1996

Donc deux familles libres modulo H engendrent avec H 0 le meme sous-groupe


G0 verifiant (C) si et seulement si leurs images dans G/H 0 engendrent le meme
sous-espace vectoriel. En definitive, comme ces images sont evidemment libres
dans G/H 0 (car H 0 H), deux familles libres modulo H engendrent avec H 0 le
meme sous-groupe G0 verifiant (C) si et seulement si leurs images dans G/H 0
sont deux bases dun meme sous-espace vectoriel de dimension l. Dapr`es un
calcul dej`a effectue au 6.a., il y a (pl 1) . . . (pl pl1 ) bases pour un tel sous-
espace. Dautre part une telle base provient via 00 dexactement (Card H 0 )l
familles delements de G. Donc, le nombre de familles delements de G qui
donnent naissance au meme sous-groupe G0 est :
0
pl(H )l
(pl 1) . . . (pl pl1 ).
Finalement, le nombre cherche est :
Ql l(G)
i=1 p pl(H)+i1
N= Ql .
pl(H 0 )l i=1 (pl pi1 )
Or, on a
l
Y l
Y
0 l(G)l(H 0 ) 0
pl(G) pl(H)+i1 = pl(H )l p pl(H)l(H )+i1 .
i=1 i=1

Dautre part,
l
Y l
Y
0 0 0
pl(G)l(H ) pl(H)l(H )+i1
= pl[l(H)l(H )]
pi1 pl(G)l(H)i+1 1
i=1 i=1

et
l
Y l
Y
(pl pi1 ) = pi1 pli+1 1 .
i=1 i=1
Il vient donc : 0
N = pl[l(H)l(H )]
Fl(G)l(H),l (p).
Ceci est une fonction polynomiale de p dapr`es 5.b. (le polynome est meme `a
coefficients entiers).


Partie 5. Pr
ecisions sur g (p)

18.a. On sait dapr`es le 7.c. que pi G /Hi ' pi G/H . En particulier, on
a:
l pi G/H = l pi G /Hi = l pi G l Hi ,
et
l Hi = l pi G l pi G/Hi .

Dautre part, dapr`es 12., on sait que pour tout j > i, l pj1 G l pj G = 0j .
Comme `a partir dun certain rang pj G = {0}, on a
X X
0j = l pj1 G l pj G = l pi G .
j>i j>i
8.2. CORRECTION 161

Le type de G/H est , donc de la meme facon,


X
j0 = l pi (G/H) .
j>i

On a donc bien X
l(Hi ) = 0j j0 .
j>i

P 0
18.b. Si K est de cotype dans G, alors pour tout i, l(Ki ) = j>i j j0
dapr`es a., et on a bien

l(Ki1 ) l(Ki ) = 0i i0 .

Reciproquement, supposons que pour tout i, l(Ki1 ) l(Ki ) = 0i i0 . Si est


le cotype de K, on a dapr`es la partie directe l(Ki1 ) l(Ki ) = 0i i0 . Il en
resulte que pour tout i, i0 = i0 , donc que 0 = 0 , puis = .

18.c. Montrons que lapplication K 7 Ki = K pi G i0 realise une
bijection de lensemble des sous-groupes de G contenus dans H et de cotype
dans G et lensemble L des chanes decroissantes (Li )i1 de sous-groupes de H
verifiant pour i 1 :

Li1 Hi = Li et l(Li1 /Li ) = 0i i0 .

Cette application est bien definie : si K H est de cotype dans G, alors pour
i1:
Ki1 Hi = K Hi1 Hi = K Hi = Ki
et l(Ki1 /Ki ) = 0i i0 dapr`es a.(condition necessaire).
Elle est injective car K = K0 .
Enfin, elle est surjective car si une chane (Li ) verifie les conditions imposees,
alors en posant K = L0 , K est un antecedent de (Li ) toujours grace `a a.(con-
dition suffisante).
Le nombre cherche est donc Card L.
Mais, pour tout i N :
Pi
l(H) l(Hi ) = k=1 l(Hk1 ) l(Hk )
Pi P 0 0
P 0 0
= k=1 j>k1 j( j ) (
j>k j j )
Pi 0 0
= (
k=1 k k ).

Or donc 0 0 0 , donc pour tout k, k0 k0 0k .


Pi
En particulier, k=1 (0k k0 ) 0i i0 , donc l(H) l(Hi ) 0i i0 si K est de
cotype . Donc, puisque H est elementaire, on peut appliquer 17.c. pour affirmer
que si Li Hi est donne, le nombre des sous-groupes Li1 de H verifiant

Li1 Hi = Li et l(Li1 /Li ) = 0i i0

est polynomial en p (le polynome ne depend que de , , et i). Dautre part,


si i 1 , pi G = {0}. Il en resulte immediatement que si (Li )i1 appartient `a
L, alors Li est nul d`es que i 1 .
Pour compter le nombre de chanes : on a un seul choix pour L1 et au-del`a, et
162 CHAPITRE 8. SESSION DE 1996

si Li , . . . , L1 sont fixes, le nombre de facons de choisir Li1 est polynomial, et


donc le nombre final cherche est un produit fini de polynomes en p (le processus
sarrete quand on atteint L0 ). On obtient ainsi un polynome en p qui ne depend
que de , , et .
19. La premi`ere formule est immediate : elle resulte du fait que lensemble
des sous-groupes K de G de cotype tels que pK L H K est lunion
disjointe, lorsque T decrit les sous-groupes de L des ensembles des sous-groupes
K de G de cotype tels que pK = T H K.
Lorsque H est elementaire, on peut considerer H comme un Z/pZ-espace vecto-
riel et ses sous-groupes comme des sous-espaces vectoriels : la seconde formule
decoule alors de 6.d.
Lorsque H est quelconque, on le rend elementaire en quotientant G par pH.
Plus precisement, soit la surjection canonique de G sur G/pH. Il est clair que
(H) = H/pH est un sous-groupe elementaire de G/pH. Dautre part, induit
une bijection croissante au sens de linclusion entre les sous-groupes de G qui
contiennent pH et les sous-groupes de G/pH. Soit L un sous-groupe de H. Soit
K un sous-groupe de cotype dans G tel que pK L H K (notons que
pour quun tel sous-groupe K existe, il est necessaire que pH L car pH pK
puisque H K). Alors le cotype de K/pH dans G/pH ne depend que de :
nommons-le 1 . On a, par croissance de :

(pK) = p(K) (L) (H) (K).

Reciproquement, si K 0 est un sous-groupe de G/pH de cotype 1 tel que pK 0


(L) (H) K 0 , alors 1 (K 0 ) est un sous-groupe de cotype de G qui
verifie pK L H K.
On a donc : f (H, L) = f1 ((H), (L)) et de meme g(H, L) = g1 ((H), (L))
u f1 ((H), (L)) est le nombre de sous-groupes K 0 de G/pH de cotype 1 tel
o`
que pK 0 (L) (H) K 0 et g1 ((H), (L)) le nombre de sous-groupes K 0
de G/pH de cotype 1 tel que pK 0 = (L) (H) K 0 . Comme (H) est
elementaire, il vient
X m(m1)
g1 ((H), (L)) = (1)m p 2 f1 ((H), T 0 ).
T 0 (L)

Dans cette formule, m = l((L)/T 0 ) = l(L/T ) o`


u T = 1 (T 0 ). Le resultat en
decoule.
20.a. Soit S le socle de G/L. Considerons S1 limage reciproque de S par
la surjection canonique de G sur G/L. Alors S1 /L = S est le socle de G/L.
Si S = S1 + L, on a egalement (S) = S car (L) = 0. Dautre part, puisque H
est elementaire, on a pour h H :

p(h) = (ph) = (0) = 0.

Donc (h) S = (S1 ) donc h S1 + L et S contient H.


20.b. On a : K/H S/H K + H S + H K S + H.
Supposons que K/H S/H, et considerons k K. On ecrit k = s + h o` u
s S et h H. Comme H est elementaire, pk = ps. On a, avec les notations
precedentes : (pk) = p(s) = 0 car (s) S. Ainsi, pk L et pK L.
8.2. CORRECTION 163

Reciproquement, supposons que pK L. Soit k K, alors pk L, donc


(pk) = p(k) = 0 et (k) S = (S). Ainsi, k S + L S + H et K S + H,
ce que nous voulions.
Appelons F(H, L) lensemble des sous-groupes K de cotype dans G tels que
pK L H K. Alors, dapr`es ce qui prec`ede :
K F (H, L) K est de cotype dans G et K S + H
K est de cotype dans G et K S (car H S).

Comme S est elementaire, on peut appliquer le 18.c. avec H = S pour evaluer


le nombre de K verifiant cette derni`ere propriete. Le cotype de S dans G est
dapr`es 8.c. le cotype de S/L dans G/L. Le type de G/L est ; le cotype de
S/L dans G/L est donc dapr`es 14. car S/L est le socle de G/L.
On a donc f (H, L) = Card F(H, L) = h (p).
20.c. Il est clair que le nombre cherche est
X m(m1)
g(H, H) = (1)m p 2 f (H, T ).
T H

Dapr`es b., si T H est de cotype , alors f (H, T ) = h (p) : cest donc


dapr`es 18.c. un polynome en p `a coefficients entiers, et il en est alors de meme
de g(H, H).
21. Soit ((0) , . . . , (r) ) une RL-suite telle que (0) = et (r) = : elle est
obtenue `a partir dun groupe G de type et dun sous-groupe H de G de type
et de cotype . On a les inclusions evidentes :

{0} = pr H pr1 H . . . H.

De plus, les inclusions precedentes sont strictes : supposons quil existe i dans
{0, . . . , r 1} tel que pi H = pi+1 H. On a i r 2 par definition de r. Alors
pi+1 H = pi+2 H. En effet, si x pi+1 H, on peut ecrire x = pi+1 y = p pi y. Alors
pi y pi H = pi+1 H, donc pi y secrit pi y = pi+1 z et finalement x = pi+2 z
pi+2 H. On montre alors facilement que pour j i, pj H = pi H, et ceci entre en
contradiction avec la definition de r.
On a donc en particulier pour i {0, . . . , r 1} : Card pi+1 H < Card pi H, et
par voie de consequence l(pi+1 H) < l(pi H), i.e l(pi+1 H) + 1 l(pi H). On en
deduit alors que
l(H) l(pr H) + r.
Donc r l(). Mais comme Card G = Card H Card G/H, on a l() = l()+l()
et on en deduit que r l() l().
Dautre part, on note que (i) (i+1) pour i {0, . . . , r1} : en effet, dapr`es la
question 8.c., le cotype de pi H dans G est le cotype de pi H/pi+1 H dans G/pi+1 H
et dapr`es la question 13., ce cotype est contenu dans le type de G/pi+1 H, qui
est (i+1) par definition.
Lentier r ne peut donc prendre quun nombre fini de valeurs, et lorsque r est
fixe, il est clair quil ny a quun nombre fini de partitions 1 , . . . , r1 telles que

1 . . . r1 .

Lensemble des RL-suites ((0) , . . . , (r) ) telles que (0) = et (r) = est bien
fini.
164 CHAPITRE 8. SESSION DE 1996

22.a. Notons A lensemble des RL-suites ((0) , . . . , (r) ) telles que (0) =
et (r) = . Pour U dans A, il y a gU (p) sous-groupes H de G de type et de
cotype tel que U (H) = U . De plus, si H est un sous-groupe de G de type
et de cotype , alors il est clair que U (H) A. On obtient donc :

X
g (p) = gU (p).
U A

Si chaque gU est polynomiale, il en sera donc de meme de g (p).
22.b. On a tout de suite pour tout i, pi H 0 = pi+1 H. Il en resulte immedia-
tement que
U (H 0 ) = ((1) , . . . , (r) ).

22.c. Suivons lindication de lenonce et considerons la surjection canoni-


que de G sur G/pH 0 . On sait que induit une bijection entre les sous-groupes
de G qui contiennent pH 0 et les sous-groupes de G/pH 0 . Notons U lensemble
des sous-groupes H de G tels que U (H) = U et pH = H 0 . Notons que si H U,
alors pH 0 = p2 H H et la restriction de `a U est une bijection entre U et
(U).
Soit H U et soit K 0 = (H) = H/pH 0 . Le cotype de K 0 dans G/pH 0 est (cf
8.c.) celui de H dans G, soit (0) . On a pK 0 = (pH) = (H 0 ) = H 0 /pH 0 .
Reciproquement, si K 0 est un sous-groupe de G/pH 0 de cotype (0) tel que
pK 0 = H 0 /pH 0 , alors 1 (K 0 ) U : en effet soit H = 1 (K 0 ). Le cotype
de H dans G est celui de (H) = K 0 dans G/pH 0 , i.e (0) . De plus, on a
(pH) = pK 0 = (H 0 ), donc pH = H 0 (ce sont deux sous-groupes de G qui
contiennent pH 0 et qui ont meme image par ). Ceci entrane evidemment que
U (H) = U .
U est ainsi en bijection avec lensemble des sous-groupes K 0 de G/pH 0 de cotype
(0) tels que pK 0 = H 0 /pH 0 . Or H 0 /pH 0 est elementaire de cotype le cotype de
H 0 dans G, soit (1) et G/pH 0 est un groupe de type (2) puisque U (H 0 ) = U 0 .
Dapr`es 19.c., le nombre de sous-groupes K 0 de G/pH 0 de cotype (0) tels que
pK 0 = H 0 /pH 0 est precisement F(0) (1) (2) (p) : cest donc le cardinal de U.
Il y a gU 0 (p) sous-groupes de G tels que U (H 0 ) = U 0 . Pour chacun de ces H 0 ,
on peut trouver Card U sous-groupes H de G tels que U (H) = U et pH = H 0 .
De plus, si U (H) = U alors U (pH) = U 0 . Il vient donc
gU (p) = F(0) (1) (2) (p) gU 0 (p).

22.d. En iterant la methode precedente, on obtient pour r 2 :


gU (p) = F(0) (1) (2) (p)F(1) (2) (3) (p) . . . F(r2) (r1) (r) (p) gV (p)

u V = ((r1) , (r) ). gV (p) est ainsi le nombre de sous-groupes H de G de


o`
cotype (r1) tels que pH = {0}, donc le nombre de sous-groupes elementaires
de G de cotype (r1) de G, donc le nombre de sous-groupes elementaires de
G contenus dans le socle de G (qui est elementaire) de cotype (r1) dans G :
dapr`es 18.c., ce nombre est une fonction polynomiale de p, et il en est de meme
de gU (p). Pour r = 1, gU (p) est le nombre de sous-groupes H de G tels que
U (H) = ((0) , (1) ) et on vient de voir que cest un polynome en p.
Do`
u le resultat.
8.3. COMMENTAIRES 165

8.3 Commentaires
Denombrer : tel est le th`eme majeur du sujet de 1996. La premi`ere partie est
assez facile, bien que deroutante. Les parties suivantes melangent avec un certain
bonheur groupes commutatifs finis et espaces vectoriels de dimension finie sur
un corps fini. A ce sujet, les questions 6.a. et 6.b. sont des calculs classiques
que tout candidat serieux se doit de matriser. De meme, il faut savoir resoudre
la question 11., qui concerne des faits classiques sur les caract`eres des groupes
commutatifs finis.
Une certaine familiarite avec les quotients de groupes est indispensable pour
etre `a laise tout au long du sujet, notamment le fait capital que les sous-groupes
de G/H sont en bijection via la surjection canonique avec les sous-groupes de G
qui contiennent H. La plupart des questions sont abordables, mais certaines sont
veritablement ardues du point de vue combinatoire, et il faut de la perseverance,
voire de lentetement pour arriver au bout !
Bref, voil`a un sujet assez long et pas toujours tr`es facile qui testera `a fond
vos qualites de denombreur, ainsi que votre volonte. Bon courage !
166 CHAPITRE 8. SESSION DE 1996
Chapitre 9

Session de 1997

9.1 Sujet

167
168 CHAPITRE 9. SESSION DE 1997

9.2 Correction

I. Fonctions polyn
omes `
a valeurs enti`
eres.
1. On va demontrer le resultat demande par recurrence sur p N :
Si p = 1 il sagit juste de la definition de f .
Considerons p > 1 et supposons que pour tout n Z on ait :
p1
X
p1
p1 f (n) = (1)k f (n k).
k
k=0

Alors pour tout n Z on a :

p f (n) = ( p1 f )(n)
= p1 f (n) p1 f (n 1)
p1
X p1
X
p1 p1
= (1)k f (n k) (1)k f (n 1 k)
k k
k=0 k=0
p1
X X p
p1 0 p1
= (1)k f (n k) (1)k 1 0 f (n k 0 )
k k 1
k=0 k0 =1
p1
X Xp
p 1 p1
= (1)k f (n k) + (1)k f (n k)
k k1
k=0 k=1
p1
X
k p1 p1
= f (n) + (1) [ + ] + (1)p f (n p).
k k1
k=1
p1 p1 p
Comme k + k1 = k on obtient :
p
X
p
p f (n) = (1)k f (n k).
k
k=0

Ceci ach`eve la recurrence.


2.a.
P est un sous-ensemble non vide (prendre 0) de lanneau Q[T ] ; pour montrer
quil en est un sous-anneau, il suffit de montrer quil est stable par addition,
passage `a loppose, multiplication. Comme Z est lui-meme un sous-anneau de
Q, cela resulte immediatement de la definition des operations dans P.
2.b. Il est evident que lapplication en question est un homomorphisme
danneaux (ceci est une consequence evidente des structures danneaux de P
et F(Z, Z)). Pour montrer quil sagit dun homomorphisme injectif, il suffit de
considerer P P tel que pour tout n Z, P (n) = 0 et de montrer qualors
P = 0 : ceci est vrai car un polynome non nul nadmet quun nombre fini de
racines.
3.a. Fixons k > 0 (pour P0 il n y a pas de probl`eme).
Si n [0, k 1], il est clair que Pk (n) = 0 donc Pk (n) Z.
9.2. CORRECTION 169

n(n 1) . . . (n k + 1) n! n
Si n k, Pk (n) = = = . En particulier
k! k!(n k)! k
Pk (n) Z.

On montre de meme que si n 1, on a Pk (n) = (1)k k(n+1)
k et donc `a
nouveau Pk (n) Z.
3.b. Dabord on a par definition pour tout k N, 0 fk = fk .
Ensuite fixons k > 0.

Pk (T ) = Pk (T ) Pk (T 1)
T (T 1) . . . (T k + 1) (T 1)(T 2) . . . (T k)
=
k! k!
(T 1) . . . (T k + 1)
= [T (T k)]
k!
(T 1) . . . (T k + 1)
=
(k 1)!
= Pk1 (T 1)
= Pk1 (T ) [Pk1 (T ) Pk1 (T 1)]
= Pk1 (T ) Pk1 (T ).

Donc pour tout k > 0, on a : fk = fk1 fk1 .


A laide de cette formule on va demontrer par recurrence sur k N que :
k1
X
fk = (1)(k1j) fj .
j=0

(Par definition une somme sur un ensemble vide dindices est nulle).
Il est bien evident que f0 = 0, ce qui prouve
Pk2la formule pour k = 0.
Fixons k > 0 et supposons que : fk1 = j=0 (1)(k2j) fj .
Alors on a :

fk = fk1 fk1
k2
X
= fk1 (1)(k2j) fj
j=0
k2
X
= fk1 + (1)(k1j) fj
j=0
k1
X
= (1)(k1j) fj .
j=0

Ceci ach`eve la recurrence.


Cette nouvelle formule nous permet de demontrer par recurrence sur p N
que pour tout k N :
kp
X
k1l
p fk = (1)p+k+l fl .
p1
l=0
n
(Par convention m = 0 si m > n.)
Pour p = 1 cette formule secrit :
170 CHAPITRE 9. SESSION DE 1997

k1
X
fk = (1)k+l+1 fl
l=0
k1
X
= (1)kl1 fl .
l=0
Cest justement la formule precedemment demontree.
Fixons maintenant p > 1 et supposons que :
kp+1
X
p1 p1+k+l k 1 l
fk = (1) fl .
p2
l=0

Alors on a :
p fk = ( p fk )
kp+1
X
p1+k+l k 1 l
= ( (1) fl )
p2
l=0
kp+1
X
p1+k+l k 1 l
= (1) fl ( est lineaire.)
p2
l=0
kp+1
X X l1
p1+k+l k 1 l
= (1) [ (1)l1j fj ]
p2 j=0
l=0
kp+1
X X l1
p1+k+l+l1j k 1l
= (1) fj
p2
l=0 j=0
kp+1
X X l1
k1l
= (1)p+k+j fj
p2
l=0 j=0
kp
X X k 1 l
kp+1
= (1)p+k+j [ ]fj
j=0
p2
l=j+1
kp
X X l0
kj2
p+k+j
= (1) [ ]fj
p2
j=0 l0 =p2
kp
X
p+k+j k j 1
= (1) fj .
j=0
p1
Pm
On a utilise pour finir la formule combinatoire suivante : q=n nq = m+1n+1 .
Ceci termine cette recurrence et donc la demonstration de la formule generale
annoncee. En particulier on note que p > k implique p fk = 0.
4.a. Si f F(Z, Z) provient du polynome P , il est clair que f provient
du polynome P . Il est alors evident que f P, lorsque f P. De plus pour
tout k N on a :

(T k ) = T k (T 1)k
X k
k
= Tk (1)kj T j
j=0
j
X k
k1
= (1)kj+1 T j .
j=0
j
9.2. CORRECTION 171

En particulier deg((T k )) = k 1 ou (T k ) = 0 si k = 0. On en deduit


immediatement que pour tout P Q[T ] on a deg(P ) = degP 1, ou P = 0
si degP = 0. Il est alors evident que deg(f ) = degf 1, ou f = 0 si degf = 0.
4.b. Une recurrence evidente `a partir du a. prouve que pour tout f P
on a degf +1 f = 0. Posons p = degf + 1 : on a p f = 0 donc pour tout n Z,
p f (n) = 0. Dapr`es 1. cela secrit exactement :
Xp
k p
Pour tout n Z, (1) f (n k) = 0.
k
k=0

4.c. Puisque pour tout k N, degPk = k, la famille {Pk }kN est une base
du Q-espace vectoriel Q[T ]. Soit maintenant P Q[T ]P tel que f = fP et soit
p+1 p
p = degP . Il existe
Pp (a 0 , . . . , a p ) Q tel que P = k=0 ak Pk . Il est alors
clair que f = k=0 ak fk . Supposons que lon nait pas (a0 , . . . , ap ) Zp+1 et
considerons alors k0 = max{k [0, p] tel que ak / Z}. Alors il est clair que
Pp Pk0
k=k0 +1 ak fk P dapr` es 3.a., donc que k=0 ak fk P. Dapr`es a. (et une
Pk0
recurrence evidente) cela prouve que k0 ( k=0 ak fk ) P. Or en utilisant la
conclusion mentionnee `a la fin du 3.b. on obtient :
k0
X k0
X
k0 ( ak fk ) = ak k0 (fk ) = ak0 f0 .
k=0 k=0

Donc en fait ak0 f0 P et ak0 Z. Ceci est absurde donc (a0 , . . . , ap ) Zp+1 :
f admet bien une ecriture de Pla forme demandee. Pp
p
Supposons maintenant que k=0 nk fk = 0. Alors dapr`es 2.b., k=0 nk Pk = 0
dans P, donc `a fortiori dans Q[T ]. Comme {Pk }kN est une famille libre du Q-ev
Q[T ], les nk sont tous nuls : {fk }kN est une
Pp famille libre du Z-module P. Ceci
prouve quune ecriture sous la forme f = k=0 nk fk est necessairement unique.
4.d. On sait dej`a depuis le a. que si f P alors f P.
Reciproquement considerons f F(Z, Pp Z) telle que f P. Dapr`es c. il existe
(n0 , . . . , np ) Zp+1 tel que f = k=0 nk fk . On a demontre au 3.b. que fk =
fk + fk+1 donc on a :
p
X p
X
f = nk (fk + fk+1 ) = ( nk (fk + fk+1 )).
k=0 k=0

On en deduit que :
p
X
(f nk (fk + fk+1 )) = 0.
k=0
Ceci prouve quil existe m0 Z tel que pour tout n Z on ait :
p
X
f (n) nk (fk (n) + fk+1 (n)) = m0 .
k=0

Mais pour tout n Z on a m0 = m0 f0 (n). Donc en fait :


p
X
f nk (fk + fk+1 ) = m0 f0 ,
k=0
172 CHAPITRE 9. SESSION DE 1997

Pp
cest-`a-dire f = m0 f0 + k=0 nk (fk +fk+1 ). Dapr`es 3.a. cela prouve que f P,
ce que nous voulions demontrer.
On a dej`a demontre au b. que si f P alors il existe p N tel que p f = 0.
Reciproquement supposons quil existe p N tel que p f = 0. En particulier
p f P. Comme on sait dej`a que si g P alors g P, une recurrence finie
triviale assure que f P.

5. Il est evident que P P 0 .


Appelons F(Z, Q) lensemble des fonctions de Z dans Q. Loperateur est defini
de la meme mani`ere sur F(Z, Q). Si f F(Z, Q) le resultat du 1. reste valide
et on a pour tout p N et pour tout n Z :
p
X
p
p f (n) = (1)k f (n k).
k
k=0

Dautre part on montre comme au 4.a. que si P Q[T ], degP +1 P = 0. Soit


P Q[T ]. On vient dexpliquer pourquoi il existe p N tel que pour tout
n Z on ait :
Xp
k p
(1) P (n k) = 0.
k
k=0

Supposons alors que P P 0 mais que P / P. Puisque P P 0 , il existe n0 Z


tel que pour tout n n0 on ait P (n) Z. Donc {n Z, P (n) / Z} est majore.
De plus comme P / P cet ensemble nest pas vide. Nous pouvons donc en
consid
Pp erer klepplus
grand element, que nous notons n1 . Specialisons la relation
k=0 (1) k P (n k) = 0 pour n = n1 + p. Il vient :
p
X
p
(1)k P (n1 + p k) = 0.
k
k=0

Soit :
p
X
p
P (n1 ) = (1)p+1+k P (n1 + p k).
k
k=0

Mais par definition de n1 on a P (n1 + p k) Z pour tout k [0, p 1]. Donc


cette relation assure que P (n1 ) Z egalement. Ceci est absurde donc si P P 0
on a aussi P P : P 0 P. Finalement P = P 0 .

6.a. Si f P , il existe g P et n0 Z tels que f (n) = g(n) si n n0 .


De cette egalite on deduit que f (n) = g(n) si n n0 + 1. Comme dapr`es
4.a. on sait que g P ceci prouve que f P .
Reciproquement supposons que f P : il existe g P et n0 Z tels
que f (n) = g(n) si n n0 . Comme Pp g P on sait dapr`es 4.c. quil existe
(m0 , . . . , mp ) Zp+1 tel que
Pp g = k=0 mk fk . Puisque fk = fk + fk+1 , ceci
peut se reecrire : g = ( k=0 mk (fk + fk+1 )). Donc en fait on a lidentite
suivante, valable d`es que n n0 + 1 :
p
X
f mk (fk + fk+1 ) (n) = 0.
k=0
9.2. CORRECTION 173

Ceci prouve quil existe q0 Z tel que pour n n0 + 1 on ait :


Xp
f mk (fk + fk+1 ) (n) = q0 .
k=0

Puisque pour tout n Z, q0 = q0 f0 (n) on a en fait :


p
X
f (n) = [q0 f0 + mk (fk + fk+1 )](n),
k=0
Pp
et ceci d`es que n n0 + 1. Comme [q0 f0 + k=0 mk (fk + fk+1 )] P (3.a.), on
a montre que f P .
6.b. Si f P , il existe g P et n0 Z tels que f (n) = g(n) si n n0 .
Une recurrence evidente assure que pour tout p N on a p f (n) = p g(n) si
n n0 + p. Mais on sait (4.d.) quil existe p0 N tel que p0 g = 0. On a alors
p0 f (n) = 0 pour n n0 + p0 .
Reciproquement sil existe p N et n0 Z tels que p f (n) = 0 pour n n0 ,
on a en particulier p f P . Le resultat du a. et une recurrence finie triviale
assurent alors que f P .
P
7. On va Pmontrer par recurrence sur k N que fk (t) = tk [(1 t)k+1 ]1 .
P n
Pour k = 0 : f0 (t) = n=0 t = (1 t)1 .
P
Soit k > 0 et supposons que fk1 (t) = tk1 [(1 t)k ]1 .
P
Alors (1 t)k t fk1 (t) = tk . Mais :
P X
t fk1 (t) = t fk1 (n)tn
n0
X n
= t tn (formules du 3.a.)
k1
nk1
X n+1 n n
= t [ ]t
k k
nk1
X n + 1 X n
= tn+1 t tn
k k
nk1 nk1
X n0 0 X n
n
= t t tn
k k
n0 k
P P nk
= (t) t fk (t) (formules du 3.a.)
fk P
= (1 t) fk (t).
P
Donc (1 t)k+1 fk (t) = tk , ce qui ach`eve la recurrence.

II. Dimensions des composantes homog`


enes
danneaux de polyn
omes.
1. Il est clair que Sn est un k-espace vectoriel : il suffit pour le voir de
constater que cest une partie du k-espace vectoriel S, stable par addition et
par multiplication par un scalaire (car alors ce en sera un sous-espace vectoriel).
Ceci est evident.
174 CHAPITRE 9. SESSION DE 1997

Pr
Il est egalement clair que {X11 . . . Xrr , i=1 i ai = n} en est une base. Puis-
quil sagit dune partie finie, Sn est de dimension finie.
2.a. Dans ce cas on a, compte tenu de la question precedente, pour tout
nZ:
r
X
dimSn = card({(1 , . . . , r ) Nr , i = n}).
i=1

On va montrer par recurrence sur r N que pour tout n Z :


r
X
r n+r1
card({(1 , . . . , r ) N , i = n}) = .
i=1
r1

Si r = 1, cest evident : ce nombre vaut 1 si n 0, et 0 sinon.


Soit r > 1, et supposons le resultat vrai pour Pr r 1. Pour tout n Z on a en
posant N (n, r) = card({(1 , . . . , r ) Nr , i=1 i = n}) :

[ r1
X
N (n, r) = card( {(1 , . . . , r1 ) Nr1 , i = n r })
r [0,n] i=1
n
X r1
X
= card({(1 , . . . , r1 ) Nr1 , i = n r })
r =0 i=1
(car l0 union est disjointe)
Xn
n r + r 2
= (par hypoth`ese de recurrence)
r =0
r2
Xn
k+r2
=
r2
n+r1
k=0
= r1 (formule combinatoire utilisee au I.3.b.).
n+r1
Ceci ach`eve la recurrence donc pour tout n Z, hS (n) = r1 .

2.b. Dans ce cas il est clair que hS (n) = 1 si a1 divise n, et hS (n) = 0 sinon.
3. En reprenant la base exhibee `a la question 1. on obtient que lon a pour
tout n Z :
r
X
r
hS (n) = card({(1 , . . . , r ) N , i ai = n})
i=1
[ r1
X
= card( {(1 , . . . , r1 ) Nr1 , i ai = n r ar })
r N i=1
0nr ar

X r1
X
= card({(1 , . . . , r1 ) Nr1 , i ai = n r ar }).
r N i=1
0nr ar

r1 Pr1
Mais {X11 . . . Xr1 0
, i=1 i ai = nr ar } est une base de Sn r ar
donc pour
tout n Z : X
hS (n) = hS 0 (n r ar ).
r N,0nr ar
9.2. CORRECTION 175

P0 P 0

P0 4. P(t)

= n0 =0 hS 0 (n0 )tn donc le terme general dindice m du produit
nar
(t) n=0 t est donne par la formule :
X
(hS 0 (n0 ) 1).
(n,n0 )N2 ,n0 +nar =m
X
Mais hS 0 (n0 ) peut se reecrire sous la forme suivante :
(n,n0 )N2 ,n0 +nar =m
X
hS 0 (m nar ).
nN,0mnar

On a justement montre `a la question 3.Pque cettePsomme Pvalait hS (m)P donc le


0
terme general en question est celui de : on a n=0 tnar = . Multi-
ar
plions les deux
P membres de cette
e galit
e par (1 t ) qui est la s
e rie formelle
inverse de n=0 tnar . Nous obtenons apr`es simplification :
X 0 X
= (1 tar ).

Une recurrence finie sur r, triviale, assure alors que :


X r
Y
1= (1 tai ).
i=1

Ceci signifie que :


X r
Y
= ( (1 tai ))1
i=1
r
Y
= (1 tai )1 .
i=1

III. Id
eaux homog`
enes et relations.
1.a. Debutons par une remarque generale dont nous ferons par la suite un
usage constant sans plus de commentaire. Pour tout n Z, n est un operateur
lineaire, et verifie la propriete suivante : si P est homog`ene alors n (P Q) =
P ndegP (Q).
Supposons que toutes les composantes homog`enes de P appartiennent `a I.
Alors P , qui est la somme de toutes ses composantes homog`enes, appartient
aussi `a I car une somme delements dun ideal est encore dans cet ideal.
Reciproquement supposons que P I :
Puisque I est homog`ene, il admet un syst`eme fini de generateurs homog` Ps enes,
que nous notons (P1 , . . . , Ps ). Il existe (F1 , . . . , Fs ) S s tel que P = i=1 Fi Pi .
Soit maintenant n N. On a :
s
X
n (P ) = n (Fi Pi ) (n est lineaire)
i=1
Xs
= ndegPi (Fi )Pi (les Pi sont homog`enes).
i=1
176 CHAPITRE 9. SESSION DE 1997

Pour tout i [1, s], ndegPi (Fi )Pi I puisque Pi I, donc n (P ) I.


Ceci est vrai pour tout n N, donc toutes les composantes homog`enes de P
appartiennent `a I.
1.b. Soit (P1 , . . . , Ps ) un syst`eme fini de generateurs de I. Par hypoth`ese
les composantes homog`enes des Pi sont des elements de I, et il est clair quen
les regroupant toutes on obtient un nouveau syst`eme fini de generateurs de I.
Mais celui-ci est compose delements homog`enes, donc I est homog`ene.
1.c. Il est clair que X1 + X2 et X12 + X2 (X1 1) sont des elements de
< X1 , X2 > donc :

< X1 + X2 , X12 + X2 (X1 1) >< X1 , X2 > .

Reciproquement

X2 = X1 (X1 + X2 ) (X12 + X2 (X1 1))


et X1 = (1 X1 )(X1 + X2 ) + (X12 + X2 (X1 1))

donc en fait :

< X1 , X2 >< X1 + X2 , X12 + X2 (X1 1) > .

Ceci prouve que < X1 + X2 , X12 + X2 (X1 1) >=< X1 , X2 >, qui est un ideal
homog`ene par definition, car X1 et X2 sont bien evidemment homog`enes.
2.a. Sn est un sous-espace vectoriel de S. (II.1.)
I est un ideal de S, donc en particulier un sous-espace vectoriel de S.
Donc In = I Sn est encore un sous-espace vectoriel de S. Il est dans le sous-
espace vectoriel Sn , donc on peut le voir comme un sous-espace vectoriel de
Sn .
2.b. Soit I un ideal homog`ene de S et (P1 , . . . , Ps ) un syst`eme fini de
generateurs homog`enes de I. Un polynome homog`ene en une variable est un
monome donc pour tout i [1, s], il existe pi N tel que Pi = X pi . Soit
alors p = min{pi , i [1, s]}. On a pour tout i [1, s], Pi = X pi p X p donc
Pi < X p >. Ceci prouve que I < X p >. X p etant lun des Pi linclusion
u I =< X p >. Comme par ailleurs il est clair que
reciproque est evidente do`
p
pour tout p N, < X > est un ideal homog`ene de S, les ideaux homog`enes de
S sont tous les < X p >, p N.
2.c. Soit I =< X p > (voir b.).
Si 0 n < p, In = {0}, donc hS/I (n) = dimSn /In = dimSn = 1.
Si n p :

In = {X p P, P Snp }
= {X p (X np ), k}
= {X n , k}
= Sn .
Donc hS/I (n) = dimSn /In = dim{0} = 0.
3. A appartient au sous-module de relations
P
engendre par A1 , . . . , AM , donc
M
il existe (P1 , . . . , PM ) S M tel que A = j=1 Pj Aj . De meme on sait quil
9.2. CORRECTION 177

PM
existe (Q1 , . . . , QM ) S M tel que B = j=1 Qj Aj . Il est alors evident que :

M
X
A+B = (Pj + Qj )Aj
j=1

et que :
M
X
PA = (P Pj )Aj .
j=1

Ceci prouve le resultat demande et justifie donc la terminologie employee (i.e.


le terme de sous-module, lanneau de base etant S.)
4. Soit A = (A1 , . . . , AN ) une relation quelconque entre F1 , . . . , FN . Notons
pour tout j Z :

Aj = (jdegF1 (A1 ), . . . , jdegFN (AN )).

Il est clair que seul un nombre fini des Aj sont non nulles.
Montrons dabord que pour tout j Z, Aj est une relation :

N
X N
X
jdegFi (Ai )Fi = j (Ai Fi ) (les Fi sont homog`enes)
i=1 i=1
XN
= j ( Ai Fi )
i=1
= j (0) (A est une relation)
= 0.

Il est ensuite evident que pour tout i [1, N ], jdegFi (Ai ) est homog`ene avec
deg(jdegFi (Ai )Fi ) = j, qui est independant de i, ce qui prouve que Aj est une
relation homog`ene.
Enfin on a :
X X X
Aj = jdegF1 (A1 ), . . . , jdegFN (AN )
jZ jZ jZ
X X
= j1 (A1 ), . . . , jN (AN )
j1 Z jN Z
= (A1 , . . . , An )
= A.
Donc A est la somme des Aj , (toutes les sommes en jeu dans ce calcul sont bien
ur en realite finies), ce qui prouve que A est somme de relations homog`enes.
s
5.a. Soient A1 et B1 deux elements de p1 (RF ) et P un element de S. Il existe
(A2 , . . . , AN ) S N 1 et (B2 , . . . , BN ) S N 1 tels que A = (A1 , . . . , AN ) et
B = (B1 , . . . , BN ) soient des elements de RF . Il est clair qualors A+B RF et
que P A RF (ce que lenonce admet implicitement en parlant de la relation
A + B ou de la relation P A et en employant le terme de module). Donc
p1 (A + B) p1 (RF ) et p1 (P A) p1 (RF ). Comme p1 (A + B) = A1 + A2 et
p1 (P A) = P A1 , cela prouve que p1 (RF ) est un ideal de S. Supposons de plus les
Fi homog`enes. Alors dapr`es 4., on peut ecrire A comme une somme de relations
178 CHAPITRE 9. SESSION DE 1997

homog`enes Aj = (Aj,1 , . . . , Aj,N ) pour j J (J ensemble


P fini dindices.) Pour
tout j J, Aj,1 = p1 (Aj ) p1 (RF ). Dautre part A1 = jJ Aj,1 . Puisque les
Aj sont homog`enes, les Aj,1 egalement, donc les composantes homog`enes de A1
sont chacune des sommes de certains des Aj,1 . En particulier les composantes
homog`enes de A1 sont dans p1 (RF ) puisque cest un ideal. Dapr`es 1.b. cela
prouve que p1 (RF ) est un ideal homog`ene.

5.b. Dapr`es a., p1 (RF ) est un ideal de S. Notons-en (A1,1 , . . . , AM,1 ) un


syst`eme fini de generateurs. Puisque les Aj,1 sont des elements de p1 (RF ) on
peut trouver {Aj,i }(j,i)[1,M ][2,N ] tels que pour tout j [1, M ], (Aj,1 , . . . , Aj,N )
soit une relation que lon notera Aj . Soit egalement R1 le sous-module de re-
lations quelles engendrent. Considerons alors A = (A1 , . . . , AN ) un element de
R quelconque. A1 p1 (RF ), donc il existe (P1 , . . . , PM ) S M tel que A1 =
PFM PM PM
j=1 Pj Aj,1 ou encore A1 j=1 Pj Aj,1 = 0. Cela prouve que A j=1 Pj Aj
PM
est une relation dont limage par p1 est nulle. De plus j=1 Pj Aj est un element
PM PM
de R1 . Comme A = j=1 Pj Aj + (A j=1 Pj Aj ), les relations A1 , . . . , AM
repondent `a la question posee.

5.c. Montrons par recurrence sur N N que RF peut etre engendre par
un nombre fini de relations :
Si N = 1 et si A = (A1 ) RF , alors A1 F1 = 0. Comme F1 est non nul lintegrite
de S assure que A1 = 0 et RF est constitue uniquement de la relation nulle :
celle-ci engendre donc RF .
Si N > 1, et si le resultat est vrai pour N 1 :
Appelons R0F le module des relations entre F2 , . . . , FN . Par hypoth`ese de re-
currence on peut lengendrer avec un nombre fini de relations, par exemple
B 01 , . . . , B 0P . On pose pour tout k [1, P ], B 0k = (Bk,2 , . . . , Bk,N ). Il est alors
clair quen posant pour tout k [1, P ], B k = (0, Bk,2 , . . . , Bk,N ) on definit P
elements de RF . Soit maintenant A un element de RF dont limage par p1 est
nulle : A = (0, A2 , . . . , AN ). Il est clair que (A2 , . . . , AN ) R0F donc il existe
PP
(P1 , . . . , PP ) S P tel que (A2 , . . . , AN ) = k=1 Pk B 0k . On en deduit que : A =
PP
k=1 Pk B k . En invoquant le b. (dont on reprend egalement les notations), on a
obtenu un syst`eme fini de generateurs pour RF : cest A1 , . . . , AM , B 1 , . . . , B P .
Ceci ach`eve la recurrence.

5.d. Il suffit dutiliser c. pour exhiber un nombre fini de relations genera-


trices, puis dinvoquer 4. pour decomposer chacun de ces generateurs en une
somme finie de relations homog`enes : on obtient ainsi un syst`eme generateur de
RF , fini, compose de relations homog`enes.

IV. Etude des relations dans le cas r = 2.

1.a. Dabord par definition RF S N . Ensuite si (A1 , . . . , AN ) S N on a :


9.2. CORRECTION 179

N
X
(A1 , . . . , AN ) RF Ai Fi = 0
i=1
XN
Ai (ei ) = 0
i=1
XN
( Ai ei ) = 0 ( est K lineaire)
i=1
((A1 , . . . , AN )) = 0
(A1 , . . . , AN ) ker .

Donc RF = S N ker .
1.b. Dapr`es a., {A1 , . . . , AM } ker .
Considerons reciproquement (A1 , . . . , AN ) ker : dapr`es a., (A1 , . . . , AN ) est
un element de RF que lon note A. Par hypoth`ese il existe (P1 , . . . , PM ), un
PM
element de S M tel que A = j=1 Pj Aj . Les elements de S sont `a fortiori dans
K, donc A est combinaison K-lineaire des Aj , pour j [1, M ].
Ceci prouve que {A1 , . . . , AM } est un syst`eme generateur de ker (dans lespace
vectoriel K N ). En particulier card({A1 , . . . , AM }) dimker . Mais dune part
evidemment card({A1 , . . . , AM }) = M et dautre part dimker =dimK N 1 =
N 1 dapr`es le theor`eme du rang. Donc finalement M N 1.
2.a. Fixons j [1, M ]. Considerons les polynomes A1j , . . . , AN j . Comme Aj
est une relation homog`ene, ils sont tous homog`enes et les polynomes A1j F1 , . . . ,
AN j FN sont egalement homog`enes, qui plus est de meme degre que lon note j .
Puisque pour tout i [1, N ], degAij Fi = degAij +degFi on a j = degAij + di
soit degAij = j di .
2.b. Soit A une relation homog`ene. A = (A1 , . . . , AN ) avec pour tout i
[1, N ], Ai homog`ene. Notons i son degre ; il existe d N tel que pour tout
i [1, N ], i + di = d, car les Ai Fi sont tous de meme degre (justement ce
PM
d). Il existe (Q1 , . . . , QM ) S M tel que A = j=1 Qj Aj . De cette egalite on
PM
deduit que pour tout i [1, N ] on a : Ai = j=1 Qj Aij . En particulier pour
tout n N on a :
XM
n (Ai ) = n ( Qj Aij )
j=1
M
X
= n (Qj Aij )
j=1
XM
= n(j di ) (Qj )Aij
j=1

car les Aij sont homog`enes de degres j di dapr`es a.. Donc si n = i , cela
PM PM
donne Ai = j=1 i (j di ) (Qj )Aij = j=1 dj (Qj )Aij . Posons donc pour
tout j [1, M ], Pj = dj (Qj ). En particulier les Pj sont homog`enes. La
PM
formule precedente assure que pour tout i [1, N ], Ai = j=1 Pj Aij cest-`a-
PM
dire que A = j=1 Pj Aj .
180 CHAPITRE 9. SESSION DE 1997

Pj d1
3.a. Notons pour tout j [1, M ], A1j = aj,k Y k X (j d1 )k ce qui
k=0
est possible car dapr`es 2.a., A1j est homog`ene de degre j d1 . Choisissons
alors j0 [1, M ] tel que j0 =inf{j , j [1, M ] tel que aj,(j d1 ) 6= 0}. Posons
ensuite pour tout j [1, M ] different de j0 , j = (aj0 ,(j0 d1 ) )1 aj,(j d1 ) . On
a la relation :

aj,(j d1 ) + j aj0 ,(j0 d1 ) = 0.

Posons egalement A0j = Aj + j Y (j j0 ) Aj0 . (Ceci est licite car par definition
de j0 , Y (j j0 ) est bien un element de S.) Posons enfin A0j0 = Aj0 .
Il est clair que les A0j pour j [1, M ], sont des elements de RF car cest un
S-module comme il la ete remarque au III.
On a dapr`es 2.a., degAij = j di et :

deg(j Y (j j0 ) Aij0 ) = (j j0 ) + (j0 di ) = j di .

Donc A0ij est homog`ene de degre j di et les A0ij Fi (pour i [1, N ]) sont tous
homog`enes de meme degre j , ce qui prouve que chacune des A0j est en fait une
relation homog`ene.
Si j 6= j0 on a :

A01j = A1j + j Y (j j0 ) A1j0


(j d1 )
X
= aj,k Y k X (j d1 )k
k=0
(j0 d1 )
X 0 0
+ [(aj0 ,(j0 d1 ) )1 aj,(j d1 ) ]aj0 ,k0 Y k +(j j0 ) X (j0 d1 )k
k0 =0
(j d1 )
X
= aj,k Y k X (j d1 )k aj,(j d1 ) Y (j d1 )
k=0
(j0 d1 )1
X 0 0
+ [(aj0 ,(j0 d1 ) )1 aj,(j d1 ) ]aj0 ,k0 Y k +(j j0 ) X (j0 d1 )k
k0 =0
(j d1 )1
X
= aj,k Y k X (j d1 )k
k=0
(j0 d1 )1
X 0 0
+ [(aj0 ,(j0 d1 ) )1 aj,(j d1 ) ]aj0 ,k0 Y k +(j j0 ) X (j0 d1 )k .
k0 =0

Ceci prouve que A01j < X >, donc est divisible par X.
Enfin si A est un element quelconque de RF : il existe (P1 , . . . , PM ) S M tel que
PM P
A = j=1 Pj Aj . Posons si j 6= j0 , Qj = Pj et Qj0 = Pj0 j6=j0 j Y (j j0 ) Pj .
9.2. CORRECTION 181

Alors :
M
X X
Qj A0j = Pj (Aj + j Y (j j0 ) Aj0 )
j=1 j6=j0 X
+(Pj0 j Y (j j0 ) Pj )Aj0
X j6=j0 X
= Pj Aj + ( j Y (j j0 ) Pj )Aj0
j6=j0 j6=j0
X
+Pj0 Aj0 ( j Y (j j0 ) Pj )Aj0
j6=j0
M
X
= Pj Aj
j=1
= A.
Cela prouve que les A0j sont bien encore des generateurs de RF .
3.b. Soit i0 [1, N ] et appelons Pi0 la propriete suivante : RF peut etre
engendre par des relations homog`enes B 1 , . . . , B M telles que pour tout i i0 et
pour tout j > i, la i-`eme composante Bij de B j soit divisible par X. Il faut ici
demontrer PN , ce que nous allons faire en procedant par recurrence sur i0 pour
montrer quen fait Pi0 est vraie pour tout i0 [1, N ].
Si i0 = 1 : il suffit de considerer la famille {A01 , . . . , A0M } construite au a. et de
la reordonner pour placer A0j0 en premi`ere position.
Si i0 [1, N 1] et si Pi0 est verifiee : alors RF est engendre par des relations
homog`enes B 1 , . . . , B M telles que pour tout i i0 et pour tout j > i, la i-`eme
composante Bij de B j soit divisible par X. Si i0 M 1, il est clair que
Pi0 +1 est aussi verifiee (en prenant la meme famille de relations car en realite
on najoute pas de conditions supplementaires). On peut donc supposer que
i0 +1 < M . Interessons-nous au sous-module de RF des relations engendrees par
B i0 +1 , . . . , B M et notons le R. En appliquant la meme technique qu`a la question
a., il est clair que lon peut trouver B 0i0 +1 , . . . , B 0M , generateurs homog`enes de
R, et possedant de plus la propriete suivante : la (i0 + 1)-`eme composante de
B 0j est divisible par X, pour tout j [i0 + 2, M ]. De plus si j i0 + 1 et
i i0 alors la i-`eme composante Bij 0
de B 0j reste divisible par X car cest
une combinaison S-lineaire de polynomes divisibles par X (car la technique de
construction est celle du a.). La famille {B 1 , . . . , B i0 , B 0i0 +1 , . . . , B 0M } poss`ede
donc les proprietes requises pour pouvoir affirmer que Pi0 +1 est vraie.
3.c. Il y a ici une erreur dans lenonce :
considerons en effet F1 = Y et F2 = X. (Cas N = 2). Soit alors (P, Q) RF . On
a P Y + QX = 0. Do` u QX = P Y et en particulier Y divise QX. Du theor`eme
de Gauss on deduit que Y divise Q : Q = Y S. On montre de meme que P = XR.
On a alors (R + S)XY = 0 donc S = R : (P, Q) = (RX, RY ) = R(X, Y ).
Ceci prouve que (X, Y ) est un generateur (homog`ene) de RF . Donc en posant
B 1 = B 2 = (X, Y ) on obtient un syst`eme generateur de relations homog`enes
de RF (M = 2). Ce syst`eme verifie les conditions du b. car B12 = X est divisible
par X. Pourtant B22 = Y nest pas divisible par X, donc B 2 / XRF .
Cependant on peut corriger lenonce, au prix daccepter eventuellement une
permutation prealable dans le syst`eme {F1 , . . . , FN } (ce qui ne modifie pas la
nature des relations de RF , mais juste lordre des facteurs dans une relation) :
en effet posons k = max{p N tel que pour tout i [1, N ], X p |Fi }. Alors il
182 CHAPITRE 9. SESSION DE 1997

existe i0 [1, N ] tel que X k+1 ne divise pas Fi0 , et pour tout i [1, N ], X k
divise Fi . Reordonnons le syst`eme {F1 , . . . , FN } de sorte que Fi0 devienne le der-
nier. Cest `a present ce nouveau syst`eme que nous appelons {F1 , . . . , FN } (nous
supposerons que ce choix a ete opere au debut de cette partie, ce qui ne pose
aucun probl`eme comme pourra tr`es aisement le verifier un lecteur pointilleux).
Intoduisons `a present le syst`eme {F10 , . . . , FN0 } o`u pour tout i [1, N ], Fi0 designe
le quotient de Fi par X . Par choix de k, {F1 , . . . , FN0 } S N et X ne divise
k 0

pas FN0 . Il est clair que RF = R0F :


N
X N
X
Pi Fi = 0 ssi Pi (Fi0 X k ) = 0
i=1 i=1
XN
( Pi Fi0 )X k = 0
i=1
N
X
Pi Fi0 = 0.
i=1

Montrons que pour tout j [N, M ], on a B j XRF :


Si j > N , cest facile : dapr`es b. pour tout i [1, N ], Bij est divisible par
0 0
PN 0
PN 0
X : Bij = XBij avec Bij S. On a X( i=1 Bij Fi ) = i=1 XBij Fi =
PN PN 0
i=1 Bij Fi = 0 car B j RF . Comme S est int` egre, i=1 Bij Fi = 0 ce qui
0 0 0 0
prouve que (B1j , . . . , BN j ) RF . Or B j = X(B1j , . . . , BN j ) donc B j XRF .
Si j = N : toujours dapr`es b. pour tout i [1, N 1], BiN est divisible par X.
Il suffit alors de prouver que BN N est egalement divisibleP par X pour conclure
N
comme dans le cas j > N . Comme B N RF , B N R0F : i=1 BiN Fi0 = 0, soit
0
PN 1 0
BN N FN = i=1 BiN Fi . Puisque pour tout i [1, N 1], BiN est divisible
par X, on en deduit que X divise BN N FN0 . Comme X ne divise pas FN0 , X est
premier avec FN0 , donc X divise BN N par le theor`eme de Gauss (S est factoriel).
CQFD.
4.a. On va montrer ce resultat par recurrence sur n N :
Si n = 1 : A RF donc il existe (P1 , . . . , PM ) S M tel que :
M
X N
X 1 M
X
A= Pj B j = Pj B j + Pj B j .
j=1 j=1 j=N

PN 1
Par definition de R0 , j=1 Pj B j R0 . Dapr`es le 3.c., pour tout j [N, M ],
il existe B 0j RF tel que B j = XB 0j . On a :

M
X M
X M
X
Pj B j = Pj XB 0j = X( Pj B 0j ).
j=N j=N j=N

PM PM
Or j=N Pj B 0j RF puisque B 0j RF , donc j=N Pj B j XRF .
Si n 1 et si le resultat est vrai pour n alors A = A0 + X n B o`
u A0 R0 et
B RF . Puisque B RF le cas n = 1 permet daffirmer quil existe B 0 R0
et C RF tels que B = B 0 + XC. Alors :

A = A0 + X n (B 0 + XC) = (A0 + X n B 0 ) + X n+1 C.


9.2. CORRECTION 183

Comme B 0 R0 , X n B 0 R0 do` u A0 + X n B 0 R0 : le resultat est vrai pour


n + 1, ce qui ach`eve la recurrence.
4.b. On va demontrer que RF R0 (ce qui est suffisant car linclusion
reciproque est evidente, et alors B 1 , . . . , B N 1 engendrent RF ). Pour cela con-
siderons A dans RF quelconque et montrons PK que A R0 . Dapr`es III.4., A est
somme de relations homog`enes : A = k=1 Ak o` u Ak est une relation homog`ene.
Comme R0 est un sous-module, il suffit de verifier que chaque Ak R0 . Fixons
donc k [1, K] et etudions Ak = (A1k , . . . , AN k ). Puisque Ak est une relation
homog`ene les Aik sont tous homog`enes et il existe Dk N tel que pour tout i
[1, N ], Aik Fi soit homog`ene de degre Dk . On a alors degAik = Dk di . Dautre
part en utilisant 2.a. il existe (10 , . . . , M
0
) tel que pour tout (i, j) [1, N ][1, M ],
degBij = j di . Alors degAik degBij = (Dk di )(j0 di ) = Dk j0 . Posons
0

n =max{deg(Aik ) + 1, i [1, N ]}. Dapr`es a. il existe A0k R0 et B RF tels


PN 1 PM
que Ak = A0k + X n B. On pose A0k = j=1 Pj B j et B = j=1 Qj B j . Alors
pour tout i [1, N ] on a :
N
X 1 M
X
Aik = Pj Bij + X n Qj Bij .
j=1 j=1

Comme Aik est homog`ene on a :

Aik = degAik (Aik )


N
X 1 M
X
= degAik (Pj Bij ) + degAik (X n Qj Bij ).
j=1 j=1

Chaque terme de la seconde somme est nulle par choix de n donc en fait :
N
X 1
Aik = degAik (Pj Bij )
j=1
N
X 1
= degAik degBij (Pj )Bij
j=1
car les Bij sont homog`enes.
N
X 1
= Dk j0 (Pj )Bij .
j=1

Posons alors pour tout j [1, N 1], Rj = Dk j0 (Pj ). Le calcul precedent


PN 1
prouve que pour tout i [1, N ], Aik = j=1 Rj Bij . Cela signifie exactement
PN 1
que Ak = j=1 Rj B j , donc Ak R0 .
L
5.a. Considerons lespace vectoriel N i=1 Sndi (somme directe externe
despaces vectoriels). Considerons egalement lapplication suivante :
N
M
Sndi S
i=1
N
X
(P1 , . . . , PN ) 7 Pi Fi .
i=1
184 CHAPITRE 9. SESSION DE 1997

Il est clair que est une application lineaire.


Puisque les Fi sont des elements de I, on a forcement im I. De plus si
Pi Sndi , Pi Fi Sn donc im Sn ; Ceci force im I Sn = In .
Reciproquement si F In , alors en particulier F I. Comme les P Fi en forment
N
un syst`eme generateur il existe (P1 , . . . , PN ) S N tel que F = i=1 Pi Fi . F
appartient egalement `a Sn donc F = n (F ). Cela donne :
N
X
F = n ( Pi Fi )
i=1
N
X
= n (Pi Fi )
i=1
XN
= ndi (Pi )Fi
i=1

car les Fi sont homog`enes de degres di .


Posons alors pour tout i [1, N ], Qi = ndi (Pi ) : Qi Sndi . De plus F =
PN
i=1 Qi Fi . Donc F = (Q1 , . . . , QN ) ce qui prouve que In im. Finalement
im = In . LN
Appliquons le theor`eme disomorphisme `a : im ' ( i=1 Sndi )/ ker
LN
cest-`a-dire In ' ( i=1 Sndi )/ ker . Interessons-nous donc maintenant au
LN 1 LN
noyau de . Pour cela considerons les espaces vectoriels j=1 Snj et i=1 S
(toujours des sommes directes externes) et lapplication suivante :
N
M 1 N
M
Snj S
j=1 i=1
N
X 1 N
X 1
(P1 , . . . , PN 1 ) 7 ( Pj C1j , . . . , Pj CN j ).
j=1 j=1

Il est clair que est une application


LN 1 lineaire.
Soit (P1 , . . . , PN 1 ) j=1 Snj . Si (i, j) [1, N ] [1, N 1], Pj Cij est
homog`ene avec degPj Cij = degPj +degCij = (n j ) + (j di ) = n di . Donc
LN
en fait im i=1 Sndi .
De plus :
N N
X 1
X
((P1 , . . . , PN 1 )) = ( Pj Cij )Fi
i=1 j=1
N
X 1 XN
= Pj ( Cij Fi )
j=1 i=1
N
X 1
= Pj 0 (car C j RF )
j=1
= 0.
Donc im ker .
Reciproquement soit (Q1 , . . . , QN ) ker : (Q1 , . . . , QN ) definit donc un element
de RF que lon peut noter Q. Puisque les C j forment un syst`eme de generateurs
PN 1
de RF on peut trouver des polynomes R1 , . . . , RN 1 tels que Q = j=1 Rj C j .
9.2. CORRECTION 185

PN 1
En particulier pour tout i [1, N ], Qi = j=1 Rj Cij . Puisque (Q1 , . . . , QN )
ker , on voit que pour tout i [1, N ], Qi est homog`ene de degre n di ce qui
secrit Qi = ndi (Qi ). On en deduit que :
N
X 1
Qi = ndi ( Rj Cij )
j=1
N
X 1
= ndi (Rj Cij )
j=1
N
X 1
= ndi (j di ) (Rj )Cij
j=1

car les Cij sont homog`enes de degres j di .


Mais n di (j di ) = n j est independant de i donc on peut poser pour
tout j [1, N 1] : Pj = ndi (j di ) (Rj ). On note dabord que Pj Snj .
PN 1
Ensuite le calcul precedent donne pour tout i [1, N ], Qi = j=1 Pj Cij . Cela
prouve que (Q1 , . . . , QN ) = (P1 , . . . , PN 1 ) donc que (Q1 , . . . , QN ) im :
ker im do` u finalement ker = im. LN 1
Appliquons le theor`eme disomorphisme `a : im ' ( j=1 Snj )/ ker
LN 1
donc en fait ker ' ( j=1 Snj )/ ker .
Il suffit donc maintenant detablir que ker = {0} pour repondre `a la ques-
tion posee. Soit alors (P1 , . . . , PN ) ker . On obtient immediatement que
PN 1 N
j=1 Pj C j = 0 dans K . Mais comme C 1 , . . . , C N 1 engendrent RF , ils
forment un syst`eme generateur (dans le K-espace vectoriel K N ) du noyau de la
forme lineaire consideree au 1.. Ce noyau etait de dimension N 1, donc cette
famille en est en fait une base. En particulier cest une famille libre sur K, ce
qui force la nullite de tous les Pj : effectivement ker = {0}.
5.b. On sait que dimE/F = dimEdimF donc dapr`es a. :
N
M N
M 1
dimIn = dim( Sndi ) dim( Snj )
i=1 j=1
N
X N
X 1
= dim(Sndi ) dim(Snj )
i=1 j=1
XN N
X 1
n di + 1 n j + 1
=
i=1
1 j=1
1

dapr`es II.2.a..
Or hS/I (n) = dimSn /In = dimSn dimIn = n+1
1 dimIn . Donc on a :

X N NX1
n+1 n di + 1 n j + 1
hS/I (n) = + .
1 i=1
1 j=1
1

5.c. Posons n0 = max{max{di 1, i [1, N ]},max{j 1, j [1, N 1]}}.


Alors pour tout n n 0 , on a :
pour tout i [1, N ], nd1i +1 = n di + 1 ;

pour tout j [1, N 1], n1j +1 = n j + 1.
186 CHAPITRE 9. SESSION DE 1997

Donc si n n0 :

N
X N
X 1
hS/I (n) = (n + 1) (n di + 1) + (n j + 1)
i=1 j=1
N
X N
X 1
= n + 1 Nn + di N + (N 1)n j + (N 1)
i=1 j=1
N
X N
X 1
= di j .
i=1 j=1

Cest une constante (i.e. cest independant de n). Il est donc clair que hS/I P
car il suffit de prendre pour g cette constante, dans la definition de P donnee
au I..

V. Id
eaux mon
omiaux.
1.a. Precisons tout de suite que lensemble des monomes de S forme une
base de S. Ce fait revet une importance capitale dans cette partie.
Si m est divisible par lun des monomes m1 , . . . , ms , il est clair que m I car
I est un ideal.
s
Reciproquement supposons que m I : il existe
P P (P1 , . . . , Ps ) S tel que m =
s
ecrivons Pi = ti Ti t piti la decomposition de
i=1 Pi mi . Fixons i [1, s] et
Pi en somme de ses termes (i.e. on decompose Pi suivant
P la base des monomes).
Puisque mi est un monome, il est immediat que ti Ti ti (piti mi ) est la de-
composition de Pi mi en somme de ses termes. On a :
s X
X
m ti (piti mi ) = 0.
i=1 ti Ti

Mais pour tout i [1, s], pour tout ti Ti , piti mi est un monome, donc cette
relation est en fait une combinaison lineaire nulle de monomes. Supposons que
pour tout i [1, s], pour tout ti Ti , piti mi 6= m. Alors cette combinaison
lineaire est non triviale (le coefficient affecte `a m vaut 1) : cest absurde car
puisque la famille des monomes est une base de S, elle est en particulier libre.
Donc il existe i0 [1, s] et ti0 Ti0 tels que pi0 ti0 mi0 = m. En particulier m est
divisible par le monome mi0 .
1.b. Si chacun des termes de P appartient `a I, alors il est clair que P I
car I est un ideal.
Reciproquement
Ps supposons que P I : il P existe (P1 , . . . , Ps ) S s tel que
P = i=1 Pi mi . Ecrivons encore que Pi = ti Ti ti piti comme au a.. Alors
Ps P
P = i=1 ti Ti ti (piti mi ) est une ecriture de P comme combinaison lineaire
de termes (mais pas forcement les siens) car les mi sont des monomes. Si
dans cette somme on regroupe les termes qui ont meme monome associe, alors
on obtient la decomposition de P comme somme de ses termes. On voit donc que
chacun des termes de P est une combinaison S-lineaire des monomes m1 , . . . , ms ,
et est donc un element de I.
9.2. CORRECTION 187

1.c. Dabord puisque I est un ideal, il est clair que J est egalement un ideal.
En effet si (P, Q) J 2 alors (P + Q)m = P m + Qm I car (P m, Qm) I 2 et
si (P, Q) S J alors (P Q)m = P (Qm) I car Qm I.
Ensuite posons MI = {p tel que p est un monome avec pm I}, et soit
J 0 lideal engendre par les elements de MI . Cest un ideal monomial car il
admet le syst`eme de generateurs MI , qui est forme de monomes. (Le lecteur
sinqui`ete peut-etre du fait que ce syst`eme soit infini ; mais la definition donnee
ici dun ideal monomial ne suppose pas quil doive sagir dun syst`eme fini, et de
toute mani`ere il peut toujours en etre ainsi car S est noetherien.) Par definition
MI J donc J 0 J.
Reciproquement P soit P J et ecrivons sa decomposition comme P somme de ses
termes : P = tT t pt . Alors puisque m est un monome, P = tT t (pt m)
est la decomposition de P m comme somme de ses termes. Comme P J,
P m I et donc dapr`es b., t (pt m) I pour tout t T . Cela signifie que
pour tout t T , pt m I, et donc que pt MI . Ceci prouve que P J 0 , donc
J J 0.
Finalement J = J 0 donc J est monomial.
2. Dabord il est clair que I I 0 est un ideal.
Posons ensuite pour tout (i, j) [1, s] [1, t], mij =ppcm(mi , m0j ) et soit J
lideal engendre par tous les monomes mij . Cest bien s ur un ideal monomial.
Soit m un monome de J. Il est divisible par un mi0 j0 dapr`es 1.a.. Donc il est
divisible par mi0 et par m0j0 puisque mi0 j0 en est un multiple commun ; on en
deduit quil appartient `a I et `a I 0 : m I I 0 . Mais puisque J est monomial,
il est engendre par les monomes quil contient. On vient donc de montrer que
I I 0 contient un syst`eme generateur deP J, ce qui assure linclusion J I I 0 .
Reciproquement soit P I I 0 et P = tT t pt sa decomposition en somme
de ses termes. En particulier P I qui est monomial, donc dapr`es 1.b. pour
tout t T , pt I. Fixons t0 T : pt0 I. Alors dapr`es 1.a. il existe i0 [1, s]
tel que mi0 divise pt0 . De meme puisque P I 0 , pt0 I 0 et il existe j0 [1, t]
tel que m0j0 divise pt0 . Donc pt0 est un multiple commun `a mi0 et m0j0 . Or mi0 j0
est leur ppcm donc pt0 est egalement un multiple de mi0 j0 : pt0 J. Comme t0
est quelconque, ceci prouve que P J, donc I I 0 J.
Finalement I I 0 = J, donc I I 0 est bien monomial.
3. Si n 0, il est clair que In = {0} donc hS/I (n) = 0 si n < 0 et hS/I (0) = 1.
1 r
Si n > 0, etudions lespace vectoriel In : la famille Pr des X1 . . . Xr o` u les
r
(1 , . . . , r ) sont les elements de N qui verifient i=1 i = n et il existe i0
[1, s] tel que i0 > 0, en est une base. Pourquoi ?
Dabord cette famille est evidemment incluse dans In .
Ensuite cest une famille de monomes distinctsP donc elle est libre.
Enfin considerons P In , et ecrivons P = tT t pt sa d ecomposition en
somme de ses termes. I est monomial par definition donc dapr`es 1.b. on a
pour tout t T , t pt I, donc pt I. Comme pour tout t T , pt est un
monome on a dapr`es 1.a. : pour tout t T , il existe i(t) [1, s] tel que Xi(t) |pt .
Donc pt secrit X11 . . . Xrr o` u (1 , . . . , r ) Nr et il existe i0 [1, s] tel que
i0 > 0 (prendre i0 = i(t)). De plus t pt est un terme de P qui Prest un polynome
homog`ene de degre n, donc le degre du monome pt est n : i=1 i = n. Donc
notre famille est aussi generatrice de In .
Comme par ailleurs Pr la famille {X11 . . . Xrr } o` u (1 , . . . , r ) est un element de
r
N qui verifie i=1 i = n, est une base de Sn , alors en prenant le complementai-
188 CHAPITRE 9. SESSION DE 1997

re de notre base de In dans cette famille on obtient une base dun suppl ementaire
P r
de In dans Sn : la famille {X11 . . . Xrr } o`
u (1 , . . . , r ) Nr verifie i=1 i =
n et pour tout i [1, s], i = 0 est une base dun supplementaire de In dans
Sn . Ce supplementaire etant isomorphe `a Sn /In , la dimension de Sn /In est le
cardinal de cette derni`ere base. Mettant `a part le cas s = r qui est evident
s+1
(hS/I (n) = 0), on constate donc quen posant S 0 = k[Xs+1 , . . . , Xrr ] on a
n+rs1
hS/I (n) = hS 0 (n). Or dapr`es II.2.a., hS 0 (n) = rs1 . Donc hS/I (n) =
n+rs1
rs1 . En utilisant les formules e tablies au I.3.a., ceci prouve que si n 1,
hS/I (n) = frs1 (n + r s 1). Toujours dapr`es I.3.a., frs1 P donc
hS/I P .
4.a. Considerons P Snd . Comme m est un monome, donc homog`ene, de
degre d, P m Sn . Cela a donc un sens de considerer lapplication suivante :
Snd Sn /In
P 7 P m.

Il est clair quil sagit dune application lineaire.


Si P Jnd (donc P J) on a immediatement P m I par definition de J,
donc (P ) = 0 : Jnd ker .
Reciproquement si P ker alors P m = 0 donc P m I : cela prouve que
P J, donc ker Jnd et en definitive ker = Jnd .
Si P Snd , alors P m < m > Sn In0 , donc (P ) In0 /In : im In0 /In .
Reciproquement soit Q In0 /In , (Q In0 ). Puisque Q I 0 il existe (Q00 , P 0 )
I S tel que Q = Q00 + P 0 m. On a Q = n (Q) = n (Q00 ) + nd (P 0 )m puisque
Q et m sont homog`enes de degres n et d. Posons Q0 = n (Q00 ) et P = nd (P 0 ).
Comme I est un ideal homog`ene, Q0 In , et il est de plus evident que P Snd .
La premi`ere remarque prouve que Q0 = 0 et la seconde que cela a un sens de
considerer (P ) ; (P ) = P m = P m + Q0 = P m + Q0 = Q. Do` u In0 /In im
0
et en definitive im = In /In .
Appliquons `a present le theor`eme du rang `a :

dimSnd = dim ker + rg


= dimJnd + dimIn0 /In .
On a donc :

dimSnd dimJnd = dimIn0 dimIn


= (dimIn0 dimSn ) + (dimSn dimIn ).

Ceci peut se reecrire de la mani`ere suivante :

dim(Snd /Jnd ) = dim(Sn /In0 ) + dim(Sn /In ).


Cest-`a-dire :

hS/J (n d) = hS/I 0 (n) + hS/I (n).

4.b. Appelons IN lensemble


Pt des ideaux monomiaux L qui peuvent secrire
L =< m01 , . . . , m0t > avec i=1 degm0i N . En particulier I IPs degms . On
i=1
va demontrer par recurrence sur N N, que pour tout N N et pour tout
L IN , hS/L P ce qui prouvera le resultat.
9.2. CORRECTION 189

Si N = 0 : si L I0 , alors forcement L =< 1 > donc L = S et hS/L = 0 P .


Si N 0 et si pour tout L IN , hS/L P : considerons L IN +1 ; L =<
Pt
m01 , . . . , m0t > avec i=1 degm0i N + 1. Deux cas peuvent se presenter :
dans le premier on a degm0i 1 pour tout i [1, t]. Il suffit alors dinvoquer le
3. pour conclure que hS/L P .
Dans le second il existe i0 [1, t] tel que degm0i0 > 1. Quitte `a reordonner les
m0i , on peut supposer que i0 = 1 : degm01 > 1. En particulier il existe j [1, r]
tel que Xj |m01 . Posons JL = (L : Xj ) et IL0 = L+ < Xj >. On est donc dans la
situation du a. avec : I remplace par L, m par Xj (ici d = 1), J par JL , et I 0 par
IL0 . Donc en appliquant ici le resultat de cette question on obtient la relation :

() hS/L (n) = hS/JL (n 1) + hS/IL0 (n).


Puisque Xj |m01 il est clair que IL0 =< Xj , m02 , . . . , m0t >. De plus on a en fait :
degXj = 1 < degm01 , donc :
t
X t
X
degXj + degm0i < degm0i N + 1,
i=2 i=1

soit :
t
X
degXj + degm0i N.
i=2
Il suffit donc dappliquer lhypoth`ese de recurrence pour prouver que hS/IL0
P .
m0
Pour tout i [1, t] on pose m00i = Xji si Xj |m0i et m00i = m0i sinon. On consid`ere
ensuite J 0 =< m001 , . . . , m00t >.PIl est clair que J 0 (L : Xj ) = JL . Reciproque-
ment considerons P JL et tT t pt sa decomposition comme somme de ses
termes. Dapr`es 1.c., JL est monomial donc pour tout t T , pt JL : Xj pt L.
Fixons t0 T . Dapr`es 1.a. il existe i1 [1, t] tel que m0i1 |Xj pt0 . Si Xj |m0i1 alors
cela signifie exactement que Xj m00i1 |Xj pt0 donc m00i1 |pt0 . Sinon Xj et m0i1 sont
premiers entre eux donc m0i1 |pt0 (theor`eme de Gauss) cest-`a-dire exactement
(dans ce cas) m00i1 |pt0 . Quelle que soit la situation on a donc montre que pt0 J 0 .
Puisque t0 etait quelconque cela assure que P J 0 ce qui prouve que JL J 0
et finalement JL = J 0 .
Mais pour tout i [1, t], degm00i degm0i et meme degm001 < degm01 car Xj |m01 .
Pt 00
Pt 0
Donc i=1 degmi < i=1 degmi N + 1. Il suffit dappliquer ` a nouveau
lhypoth`ese de recurrence pour obtenir que hS/J 0 P cest-`a-dire hS/JL P .
Il est clair que n 7 hS/JL (n 1) est alors aussi dans P .
De la definition de P donnee au I. et de I.2.a. on tire facilement que P est
un sous-anneau de F(Z, Z) donc () prouve que hS/L P , ce qui ach`eve la
recurrence.
5.a. On va dabord montrer le lemme suivant : si I et J sont deux ideaux
homog`enes alors :

hS/I + hS/J = hS/(IJ) + hS/(I+J) .

En voici la preuve : si n Z on consid`ere lapplication lineaire ainsi definie


L
In Jn Sn
(P, Q) 7 P + Q.
190 CHAPITRE 9. SESSION DE 1997

Il est clair que im (I +J)n et reciproquement si R (I +J)n alors R = n (R)


car R Sn et R = P +Q avec (P, Q) IJ car R I+J. On a R = n (P +Q) =
n (P ) + n (Q). Comme I et J sont homog`enes, n (P ) In et n (Q) Jn . Ceci
prouve que R im : (I + J)n im. Finalement im = (I + J)n donc
dim(im()) = dim(I + J)n . Soit egalement lapplication :
L
(I J)n In Jn
P 7 (P, P ).

Il est evident que est lineaire, que ker = {0} et que im ker . Prenons
donc (P, Q) dans ker ; P +Q = 0 donc il existe R S tel que (P, Q) = (R, R).
Puisque P et Q sont homog`enes de degre n, R Sn . Puisque (P, Q) I J,
R I J. Donc R (I J)n . Enfin puisque (P, Q) = (R, R), (P, Q) =
(R), ce qui prouve ker im et donc im = ker . Finalement realise un
isomorphisme deL(I J)n sur ker donc dimker = dim(I J)n .
Comme dim(In Jn ) = dimIn + dimJn , lapplication du theor`eme du rang `a
donne :

dimIn + dimJn = dim(I J)n + dim(I + J)n .


On en deduit immediatement que (dimSn dimIn ) + (dimSn dimJn ) vaut :

(dimSn dim(I J)n ) + (dimSn dim(I + J)n ).


Cela est exactement legalite que nous avons annoncee, specialisee en n. Le
lemme est donc demontre.
Posons `a present :
I0 = < X1 , . . . , Xr >,
I1 = < X1 , . . . , Xs > et
I2 = < Xs+1 , . . . , Xr > .

Dune part il est clair que I1 + I2 = I0 et dautre part si (i, j) [1, s] [s + 1, r],
on a ppcm(Xi , Xj ) = Xi Xj donc en reprenant la demonstration effectuee au 2.
on constate que I = I1 I2 .
Notre lemme applique `a I1 et I2 nous permet donc decrire que :

hS/I1 + hS/I2 = hS/I + hS/I0 ,

soit :
hS/I = hS/I1 + hS/I2 hS/I0 .
On utilise le resultat de 3. pour estimer les trois termes de cette expression de
hS/I ; si n N , on a :

hS/I1 (n) = n+r+s1
rs1 ,
n+r(rs)1
hS/I2 (n) = r(rs)1
et
hS/I0 (n) = 0.

On obtient donc, avec les notations du I.3.a. :

hS/I (n) = frs1 (n + r s 1) + fs1 (n + s 1).


9.2. CORRECTION 191

Pp
5.b. Introduisons r = j=1 (kj + 1) et pour tout j [1, p], posons :

j1
X j
X
Ij = [( (kl + 1)) + 1, ( (kl + 1))].
l=1 l=1

On consid`ere alors lanneau de polynomes S 0 = k[X1 , . . . , Xr ] et pour tout


j [1, p], lideal monomial Ij engendre par les monomes Xi pour i / Ij . On
definit enfin pour tout j [1, p], lideal Ij0 = jl=1 Ij . Alors on a pour tout
j [1, p] et pour tout n 1 :
j
X
hS/Il (n) = hS/Ij0 (n).
l=1

Montrons le par recurrence sur j :


Si j = 1 il ny a rien `a demontrer.
Soit j [1, p 1] et supposons que pour tout n 1 :
j
X
hS/Il (n) = hS/Ij0 (n).
l=1

Appliquons le lemme demontre au a. aux ideaux Ij0 et Ij+1 . On obtient :

hS/Ij0 + hS/Ij+1 = hS/(Ij0 Ij+1 ) + hS/(Ij0 +Ij+1 ) .


En utilisant lhypoth`ese de recurrence et en remarquant que par definition on a
Ij0 Ij+1 = Ij+1
0
, il vient pour tout n 1 :
j+1
X
hS/Il (n) = hS/Ij+1
0 (n) + hS/(Ij0 +Ij+1 ) (n).
l=1

Pour obtenir la propriete au rang j + 1 il suffit davoir hS/(Ij0 +Ij+1 ) (n) = 0


cest-`a-dire (Ij0 + Ij+1 )n = Sn pour tout n 1. Cest le cas car clairement
< {Xi , i Ij+1 } > Ij0 donc < {Xi , i [1, r]} > Ij0 + Ij+1 . La recurrence est
achevee.
Posons maintenant en particulier I 0 = Ip0 . Ce qui prec`ede prouve que pour tout
n1:
p
X
hS/I 0 (n) = hS/Ij (n).
j=1

Mais en utilisant 3. on peut calculer hS/Ij (n) ; si n 1 :

hS/Ij (n) = fr(rcard(Ij ))1 (n + r (r card(Ij )) 1)


= fcard(Ij )1 (n + card(Ij ) 1).
Comme card(Ij ) = kj + 1 ce nombre est fkj (n + kj ). Lidentite souhaitee ici sera
donc verifiee : il ne reste plus qu`a montrer que I 0 est monomial. Pour cela on
constate dabord que par definition Ij est monomial pour tout j [1, p]. On en
deduit par une recurrence finie evidente basee sur le resultat de la question 2.
que pj=1 Ij est encore monomial. Mais cet ideal nest autre que I 0 par definition,
donc on a le resultat.
192 CHAPITRE 9. SESSION DE 1997

Le sens du mot construire nest pas forcement tout `a fait clair et peut-etre
attendait-on un syst`eme explicite de generateurs monomiaux pour I 0 . Le lecteur
se convaincra facilement quun tel syst`eme est (par exemple) lensemble des
Xi Xi0 verifiant cette propriete : si j est tel que i Ij , alors i0
/ Ij .
6.a. Remarque : on suppose dans toute cette question que lordre lexico-
graphique est en effet un ordre, ce que semble admettre implicitement lenonce
par le choix de cette terminologie.
Puisque m = m on a m m, et donc est une relation reflexive.
Soient m et m0 tels que m m0 et m0 m. De m m0 on tire degm
degm0 , et de m0 m on tire degm0 degm, donc degm = degm0 . On obtient
alors (1 , . . . , r ) (10 , . . . , r0 ) et (10 , . . . , r0 ) (1 , . . . , r ) pour lordre
lexicographique. Lantisymetrie de cet ordre prouve alors que (1 , . . . , r ) =
u m = m0 ce qui prouve que est une relation antisymetrique.
(10 , . . . , r0 ) do`
Soient m, m , et m00 tels que m m0 et m0 m00 . Si degm > degm00 alors on
0

a bien m m00 . Sinon degm degm00 . Mais on sait que degm degm0 (car
m m0 ) et de meme degm0 degm00 . Donc dans ce cas degm = degm0 =
degm00 . Il suffit alors dinvoquer la transitivite de lordre lexicographique pour
obtenir celle de .
Tout ceci prouve que est une relation dordre.
Pour montrer que cet un ordre total, on prend deux monomes m et m0 et il
sagit de montrer quils sont comparables :
Si m = m0 alors m m0 (par exemple). Donc on peut supposer m 6= m0 .
Si degm 6= degm0 , alors degm > degm0 ou degm0 > degm. Dans le premier cas
m m0 , et dans le second m0 m. On peut donc supposer que degm = degm0 .
Puisque m 6= m0 , {i [1, r], i 6= i0 } est non vide. On peut donc en considerer
le plus petit element i0 . On a alors i0 > i0 0 ou i0 0 > i0 . Dans le premier cas
m m0 , et dans le second m0 m. (On vient juste de reexpliquer pourquoi
lordre lexicographique est total.)
6.b. Supposons que mm00 = m0 m00 . Alors (mm0 )m00 = 0. Comme m00 6= 0,
m = m0 . Absurde car m > m0 . Donc mm00 6= m0 m00 . Supposons que m0 m00 = m0 .
Alors m0 (m00 1) = 0. Comme m0 6= 0 et m00 6= 1, ceci aussi est absurde, et
m0 m00 6= m0 . Il suffit donc de montrer que mm00 m0 m00 m0 :
(i) Comme m00 6= 1, degm00 1 do`
u deg(m0 m00 ) = degm0 + degm00 > degm0 .
0 00 0
Cela prouve que m m m .

(ii) On a m > m0 , donc deux cas peuvent se presenter : soit on a degm >
degm0 , soit on a degm = degm0 et si i0 =min {i [1, r], i 6= i0 } (qui
existe car m 6= m0 ), i0 > i0 0 . Dans le premier cas deg(mm00 ) = degm+
degm00 > degm0 + degm00 = deg(m0 m00 ), donc mm00 m0 m00 . Dans le se-
+00 +00 0 +00 0 +00
cond on ecrit mm00 = X1 1 1 . . . Xr r r et m0 m00 = X1 1 1 . . . Xr r r .
On a deg(mm00 ) = deg(m0 m00 ) et :
i0 = min{i [1, r], i + i00 6= i0 + i00 },
avec i0 + i000 > i0 0 + i000 . Donc mm00 m0 m00 .

6.c. Soit M un ensemble non vide de monomes. Considerons lensemble


suivant :
DM = {degm, m M }.
9.2. CORRECTION 193

DM est un ensemble non vide dentiers naturels donc on peut en considerer


le plus petit element dM : pour tout m M , degm dM et M 0 = {m
M, degm = dM } est non vide. On definit ensuite recursivement M0 , . . . , Mr de
la mani`ere suivante : M0 = M 0 et :
0
Mi+1 = {m Mi , i+1 = min{i+1 , m0 Mi }}.

Il est facile de verifier (recursivement) que lon a ainsi construit une suite
decroissante densembles non vides. Soit mr Mr . On note :
(r )1
mr = X1 . . . Xr(r )r .

Alors mr est un (donc le) plus petit element de M . En effet si m M , il suffit


de montrer que m mr . Deux cas peuvent se presenter : soit m / M 0 , et donc
0
degm > dM = degmr , do` u m mr , soit m M . Si dans ce cas m = mr , il ny
a rien `a montrer, donc on peut supposer que m 6= mr . Alors il existe i0 =min
{i [1, r], i 6= (r )i }. Puisque degm = dM = degmr , il suffit de verifier que
i0 > (r )i0 . Pour cela on montre (recursivement) que m Mi0 1 . (m M 0 =
M0 , puis si m Mi avec i [1, i0 2] alors i + 1 i0 1 donc i+1 = (r )i+1 .
Comme mr Mi+1 , cela prouve que m Mi+1 egalement.) Maintenant comme
mr Mi0 , m Mi0 1 force i0 (r )i0 . Puisque i0 6= (r )i0 , i0 > (r )i0 .
6.d. Fixons un monome m. Alors m > m0 entrane degm degm0 donc
{m , m > m0 } {m0 , degm0 degm}. Mais il est clair quil ny a quun
0

nombre fini de monomes qui ont un degre n donne (ce nombre vaut dimSn ),
donc seul un nombre fini de monomes ont un degre inferieur `a celui de m, ce
qui assure le resultat demande.
8.a. Soit m J un monome. Puisque
P m J, il existe (P1 , . . . , Ps ) S s
s
et (Q1 , . . . , Qs ) I s tels que m = i=1 Pi inQi . Quitte `a multiplier les Pi par
des constantes on peut supposer que les inQi sont des monomes. Posons donc
mi = inQi . Alors m < m1 , . . . , ms >. Dapr`es 1.a., il existe i0 tel que mi0 |m.
Posons m0i0 = mmi et considerons Q0i0 = m0i0 Qi0 . Puisque Qi0 I, Q0i0 I.
0
Montrons que son terme initial est m (ce qui prouvera le resultat demande) :
soit m0 un monome de Qi0 different de mi0 : alors mi0 > m0 . Si m0i0 6= 1, on
tire de 6.b. que m0i0 mi0 > m0i0 m0 . Comme lensemble des monomes associes aux
termes de Q0i0 est {m0i0 m0 , m0 monome associe `a un terme de Qi0 }, on en deduit
que m0i0 mi0 est le terme initial de Q0i0 . Il est clair que ce resultat est encore vrai
si m0i0 = 1. Enfin m0i0 mi0 = m, donc on a le resultat.
8.b. Remarque : en notant in(P inP ) < inP , lauteur du probl`eme confond
abusivement termes et monomes associes. Il a raison de le faire, et `a partir de
maintenant nous ferons de meme le cas echeant ! Ceci dit cette question est
facile : en effet (P inP ) est non nul ; si m est un terme quelconque de (P inP )
cest aussi un terme de P , donc on a inP m. De plus inP nest pas un terme de
(P inP ) donc inP 6= m. Ceci prouve que inP > m. Il suffit alors de considerer
m = in(P inP ), qui est en particulier un terme de (P inP ).
8.c. Supposons que M0 ne soit pas un syst`eme libre du k-espace vectoriel
S/I. On peut donc trouver une combinaison lineaire nulle mais non triviale
0
entre elements de M Ps: il existe (1 , . . . , s ) (k )s , (m01 , . . . , m0s ) M0s (tous
0 s
distincts) tels que i=1 i mi = 0S/I . Soit (m1 , . . . , ms ) M tel que pour
tout i [1, s], m0i = mi o` u P designe la classe de P S, dans S/I. On a alors
194 CHAPITRE 9. SESSION DE 1997

Ps Ps Ps Ps
i=1 i m0iP= i=1 i mi = i=1 i mi donc i=1 i mi = 0S/I . Ceci prouve
s
que P = i=1 i mi I. Il est facile de montrer r ecursivement, en utilisant
6.c., que lon peut reindexer les mi de mani`ere `a avoir ms ms1 . . . m1 (on
commence par choisir le plus petit dentre eux, qui deviendra m1 , puis `a chaque
etape on choisit le plus petit de ceux qui restent). De plus puisque les m0i sont
distincts, les mi le sont egalement. Donc en fait ms > ms1 > . . . > m1 . Ceci
prouve que s ms =inP . Or puisque les mi (qui sont libres dans S) sont distincts
et les i non nuls, P 6= 0. Donc s ms J, do` u ms J. Mais ms M donc
ms / J. Cest absurde donc M0 est un syst`eme libre de S/I.

8.d. Montrons par labsurde le resultat suivant : pour tout monome m S,


il existe (m1 , . . . , ms ) Ms , (1 , . . . , s ) (k)s et P I tels que :
s
X
m= i mi + P.
i=1

Si cest faux on consid`ere le plus petit element m0 , de ceux qui ne verifient


pas cette propriete (ce que lon peut faire grace au 6.c.). On ne peut pas avoir
m0 M sinon il suffirait decrire m0 = m0 pour obtenir une decomposition de
m0 de la forme voulue. Donc m0 J. Dapr`es a., il existe Q I tel que m0 =
inQ. On peut encore ecrire que m0 = (Q inQ) + Q. Si Q = inQ alors m0 = Q
ce qui est absurde car cest une decomposition de la forme voulue. Donc Q 6=
inQ et dapr`es b., in(Q inQ) < inQ. Donc in(Q inQ) < m0 . Par definition de
m0 cela prouve que tout monome associe `a un terme de in(Q inQ) admet une
decomposition de la forme voulue. Il suffit alors de reporter ces decompositions
dans lexpression (Q inQ) + Q pour en obtenir une de m0 ce qui est absurde.
Ps
Donc pour tout monome m de S, on peut ecrire m =P i=1 i mi +P o` uPpour tout
s s
i [1, s], mi M et P I. On en deduit que m = i=1 i mi +P = i=1 i mi
0
car P = 0. Ceci prouve que le syst`eme M engendre la famille suivante :

{m, m monome de S}.

Or la famille {m, m monome de S} est une base de S donc {m, m monome


de S} est une famille generatrice de S/I. Donc le syst`eme M0 est `a son tour
generateur de S/I. En joignant ce resultat `a celui du c., on obtient que M0 est
une base de S/I.

8.e. Fixons n Z et introduisons les notations suivantes :


n
Mn = {m M tel que degm = n}, P designe la projection de P Sn sur In ,
n
et Mn = {m , m Mn }. Montrons que M0n est une base de Sn /In .
0
n n
Cest une famille libre : si mP elementsPdistincts de M0n et
1 , . . . , ms sont des
s s n s
si (1 ,P. . . , s ) (k) verifie i=1 i mi = 0(Sn /In ) alors i=1 i mi In I
s
donc i=1 i mi = 0S/I . Mais les mi sont distincts dans M0 : sinon il existe
i 6= j avec mi = mj , donc mi mj I. Puisque mi 6= mj (car mi n 6= mj n )
in(mi mj ) est mi ou mj , et appartient `a J. Donc mi J ou mj J. Ceci
est absurde car ce sont des elements de M. On est donc en position dappliquer
le resultat de c. pour obtenir la nullite de tous les i .
Cest une famille generatrice ; pour le montrer nous partons dun element quel-
n
conque de Sn /In . P Il peut secrire P avec P Sn . Nous consid`erons P S/I.
s
On sait que P = i=1 i mi o` u les mi M, car dapr`es d. M est generatrice
9.3. COMMENTAIRES 195

Ps
de S/I. Cela signifie que P = i=1 i mi + Q avec Q I. Donc :
s
X
n (P ) = i n (mi ) + n (Q).
i=1
Ps
Comme P Sn on a en fait P = i=1 i n (mi ) + n (Q). De plus I est un
ideal homog`ene donc dapr`es III.1.a., n (Q) In . Notre egalite passe donc au
quotient de la mani`ere suivante :
s
X
n n
P = i n (mi ) .
i=1
n
Or pour tout i dans [1, s], n (mi ) = 0 ou mi . Donc les n (mi ) sont soit nuls,
soit des elements de M0n ce qui prouve la propriete annoncee.
On deduit de tout ceci que dim(Sn /In ) = card M0n , donc hS/I (n) = card(M0n ).
n
Considerons maintenant (m, m0 ) (Mn )2 tel que mn = m0 . Alors m m0
In I. Si m 6= m on a dej`a explique quon obtient une absurdite, donc m = m0 .
0

Ceci prouve que card(Mn ) = card(M0n ), dont on tire quen fait hS/I (n) =
card(Mn ).
Mn est lensemble des monomes de degre n qui nappartiennent pas `a J. Nous
appelons alors M00n lensemble des monomes de degre n qui appartiennent `a J. Il
est clair que Mn M00n est une base de Sn , et quil sagit dune union disjointe.
Donc card(Mn )+ card(M00n ) = dimSn , cest-`a-dire quen fait on dispose de le-
galite : card(Mn ) = dimSn card(M00n ).
Montrons que M00n est une base de Jn .
Dabord cest une famille libre car elle est composee dePmonomes.
Ensuite cest une famille generatrice : soit P Jn et tT t pt sa decom-
position en somme de ses termes. Pour tout t T , degpt = n car P Sn . De
plus P J donc pour tout t T , pt J dapr`es 1.b. car J est monomial.
(Remarque : en toute rigueur pour appliquer les resultats de 1. ou 4., il faudrait
que J soit engendre par un nombre fini de monomes, mais on sait quen fait
u pt M00n .
cest le cas car S est noetherien.) Donc pour tout t T , pt Jn , do`
00
En particulier on en deduit que card(Mn ) = dimJn .
Donc en fait card(Mn ) = dimSn dimJn = dim(Sn /Jn ) = hS/J (n).
Finalement on a obtenu que hS/I (n) = hS/J (n). Comme cette relation est
vraie pour tout n, hS/I = hS/J . On conclut en remarquant que puisque J est
monomial on a dapr`es 4.b. (cf remarque precedente), hS/J P .

9.3 Commentaires
Ce probl`eme se fixe lobjectif de demontrer un cel`ebre theor`eme de Hilbert
apr`es avoir familiarise le candidat avec les notions relatives `a son enonce et `a sa
signification :
Si I est un ideal homog`ene de K[X1 , . . . , Xr ] et si pour tout entier n, hI (n)
designe la codimension de In (i.e. les elements homog`enes de degre n de I) dans
(K[X1 , . . . , Xr ])n (i.e. les elements homog`enes de degre n dans K[X1 , . . . , Xr ])
alors la fonction hI est polynomiale pour n grand.
Precisons que le polynome en question est appele traditionnellement polynome
de Hilbert de lideal I par les geom`etres algebristes.
196 CHAPITRE 9. SESSION DE 1997

En consequence, cette epreuve est `a la fois longue et difficile. Si dans un


premier temps une certaine aisance dans les calculs et le raisonnement par
recurrence peut suffire face `a des polynomes en une variable et `a valeurs enti`eres
(premi`ere partie), tr`es vite (surtout `a partir de la troisi`eme partie) une bonne fa-
miliarite avec les anneaux de polynomes `a plusieurs variables devient necessaire.
Le maniement des ideaux et des relations dans de tels anneaux est mis en jeu
`a chaque question, parfois de facon assez technique. On notera aussi une uti-
lisation interessante et variee des outils dalg`ebre lineaire autour de la notion
de dimension (base, theor`eme du rang,...). En resume, il sagit dun beau sujet
dalg`ebre (commutative) qui ravira les amateurs en testant leurs connaissances,
les poussant `a plusieurs reprises `a une veritable recherche et vraisemblablement
en les instruisant, specialement dans les deux derni`eres parties. Un petit re-
gret tout de meme en forme davertissement pour le lecteur : une erreur subtile
(destabilisante le jour du concours) sest glissee dans lavant-derni`ere partie du
sujet.
Chapitre 10

Session de 1998

10.1 Sujet

197
198 CHAPITRE 10. SESSION DE 1998

10.2 Correction

I.
1. Construisons la suite (in )nN par recurrence.
On prend i0 quelconque dans I.
Supposons avoir construit i0 , . . . , in : soit O le centre de Cin . Comme (Ci )iI
est une partition de E, il existe un unique j I tel que O Cj . On a alors
Cj Din . En effet Cj Cin = cest `a dire Cj E Cin et comme Cj est
connexe, Cj est inclus dans lune des deux composantes connexes de E Cin .
Puisque O Cj , on a Cj Din ce qui entrane Dj Din . Soit O0 le point de
Cj diametralement oppose `a O : kO O0 k = 2rj < rin car O0 Din . On prend
alors in+1 = j.
2. Il sagit dune intersection decroissante de fermes non vides dont le
diam`etre tend vers 0 (on montre facilement par recurrence que pour tout n 0,
rin 2n ri0 ) dans un espace complet. Dapr`es le theor`eme des fermes embotes,
on sait que nN Din est un singleton {P }.

Remarque : on utilisera dans la suite le resultat elementaire suivant : soient


deux cercles distincts C et C 0 , de centres respectifs O et O0 et de rayons respectifs
R et R0 . Ils sont dintersection non vide si et seulement si

|R R0 | kO O0 k R + R0 .

Dans le cas o` u C C 0 6= , cette intersection est reduite `a un point si une des


deux inegalites precedentes est une egalite et cette intersection est reduite `a
deux points si les deux inegalites sont strictes.

3. Soit j lunique element de I tel que P Cj . On peut considerer n N tel


que rin < rj . Soit Oj le centre de Cj et Oin le centre de Cin . On a kOj Oin k =
kOj P +P Oin k et comme kP Oin k rin < rj (on se souvient que P Din )
alors
rj rin kOj Oin k rj + rin .
Dapr`es la remarque, Cj Cin 6= , ce qui est absurde car j 6= in .
Finalement, on conclut quon ne peut pas recouvrir E par une famille de
cercles disjoints.

II.
1. ""
" !
rp
r !!
p
"
!
"
!


!
"
`
a
ba```
rq
bar
q
``
baaa
b
bb
Distinguons deux cas.
10.2. CORRECTION 199

Si p et q sont diametralement opposes, on consid`ere les cordes de longueur non


nulles de D perpendiculaires `a la droite (p, q). Tout point M de D {p, q} est
dans une telle corde (il suffit de considerer la droite passant par M perpendicu-
laire `a (p, q)). De plus, deux telles cordes distinctes sont strictement parall`eles
donc disjointes do` u le resultat.
Si p et q ne sont pas diametralement opposes, les tangentes en p et q `a C sont
secantes en un point . Considerons lensemble L des cordes de D non reduites
`a un point supportees par des droites passant par . Cet ensemble est une
partition de D {p, q} car :
- il ne contient ni p ni q car (p) et (q) sont tangentes au cercle C,
- si m D {p, q}, la droite (m) coupe C en deux points distincts donc
la corde D (m) appartient `a L,
- deux elements distincts de L sont disjoints car supportes par des droites
distinctes secantes en
/ D.

2. Considerons un plan contenant le centre de S, p et q (ce plan est unique


lorsque p et q ne sont pas diametralement opposes). On projette orthogonale-
ment S {p, q} sur : on obtient un disque D de centre O de diam`etre le
diam`etre de S, prive des points p et q. Grace `a 1., on trouve une partition de
D en segments de droite de longueur non nulle (contenus dans ). Les images
reciproques de ces segments par la projection orthogonale tracent sur la sph`ere
des cercles et il est clair que la famille formee par ces cercles convient.
3. Lenonce suggerait de choisir une famille indexee par Z, comme, par
exemple la famille de cercles de rayon 1 centres en 1 + 4n o` u n Z. Nous
proposons une autre solution, necessitant egalement un nombre denombrable
de cercles.
#
C
0
Or rj
C1
"!

Soit un plan qui contient et un point de tel que k Ok = 1.


Considerons la famille (Cn )nN suivante : Cn est le cercle de centre , de rayon
rn = 1 + 2n, inclus dans .
Soit r > 0. Il existe un et un seul n N tel que 2n < r 2(n + 1). Distin-
guons deux cas.
Si 2n < r < 2(n+1) : si i < n ou si i n+1, il est clair que |rri | > 1 = kOk
donc S(O, r) Ci = . Si i = n, |r rn | < 1 donc S(O, r) Cn est un doubleton.
Si r = 2(n + 1) : si i < n ou si i > n + 1, il est clair que |r ri | > 1 = k Ok
donc S(O, r) Ci = . Sinon |r rn | = 1 et |r rn+1 | = 1 donc S(O, r) Cn
est reduit `a un point appartenant `a Cn et S(O, r) Cn+1 est reduit `a un point
appartenant `a Cn+1 .
\ [
Dans tous les cas, on en conclut que S(O, r) Cn est un doubleton.
nN

4. Conservons les notations de la question 3. Pour tout r > 0,


\ [
S(O, r) Cn = {pr , qr }.
nN
200 CHAPITRE 10. SESSION DE 1998

Dapr`es 2., on peut recouvrir S(O, r) {pr , qr } par une famille Cr de cercles
disjoints. Les cercles de Cr sont disjoints des Cm (m 0) car pr et qr sont les
deux seuls points dintersection de S(O, r) et de nN Cn . De plus, pour r 6= r0 ,
Cr et Cr0 sont disjointes 0
S car S(O, r) S(O, r ) = . Enfin, on note que O C0
et que E {O} = r>0 S(O, r) donc E est recouvert par la famille de cercles
disjoints
[ [
Cr Cn .
r>0 nN

III.
On notera E = (e1 , . . . , en ) la base canonique de Rn ; Mat (x1 , . . . , xn ) la
matrice dont les vecteurs colonnes sont les coordonnees des vecteurs x1 , . . . , xn
dans la base ; Mat(f, , 0 ) la matrice representative de lapplicaton lineaire
f dans les bases et 0 .
1. Pour 1 i n, notons M ei = e0i . Comme M GLn (R), E 0 =
(e01 , . . . , e0n )
est une base de Rn . Orthonormalisons cette base pour le produit
scalaire usuel sur Rn : on obtient une base orthonormee E 00 = (e001 , . . . , e00n ) et
on a immediatement par recurrence Vect(e001 , . . . , e00i ) = Vect(e01 , . . . , e0i ) pour
tout i = 1, . . . , n. Il en resulte que T1 = MatE 00 (e01 , . . . , e0n ) est triangulaire
superieure. Comme E 00 est orthonormee, les coefficients diagonaux de T1 sont
egaux `a he0i , e00i i > 0. On a alors

M = Mat(I, E 0 , E) = Mat(I, E 00 , E) Mat(I, E 0 , E 00 )


= Mat(I, E 00 , E) T1 .

Soit K = Mat(I, E 00 , E) : K est la matrice de passage dune base orthonormee


de Rn vers une autre base orthonormee donc K est orthogonale. Dautre part,
si les tii designent les coefficients diagonaux de T1 et D = diag(t11 , . . . , tnn )
alors on peut ecrire T1 = DT donc (la ligne i de T est t1ii fois la ligne i de T1 )
M = KDT o` u T est triangulaire superieure avec des 1 sur la diagonale.
Montrons lunicite dune telle decomposition. Supposons disposer de K1 , K2
On (R), D1 , D2 diagonales `a elements diagonaux strictement positifs (en parti-
culier inversibles) et T1 , T2 triangulaires superieures avec des 1 sur la diagonale
telles que K1 D1 T1 = K2 D2 T2 alors on a

K21 K1 = D2 T2 T11 D11 ,

avec K21 K1 orthogonale, et on remarque que D2 T2 T11 D11 est triangulaire


superieure `a elements diagonaux positifs. Comme la seule matrice orthogonale
et triangulaire superieure `a elements diagonaux positifs est lidentite, K21 K1 =
D2 T2 T11 D11 = I ce qui prouve que K1 = K2 et D1 T1 = D2 T2 . Les coefficients
diagonaux de D1 T1 sont ceux de D1 , les coefficients diagonaux de D2 T2 sont
ceux de D2 donc D1 = D2 . Comme D1 est inversible, on a T1 = T2 .
2. Si M GLn (Z) alors det M Z et det M 1 Z car M et M 1 sont `a
coefficients entiers. Or det M det M 1 = 1 donc det M est inversible dans Z et
necessairement, det M {1, 1}.
10.2. CORRECTION 201

Reciproquement, si M Mn (Z) et det M {1, 1} alors les cofacteurs


de M sont entiers et comme det M est inversible dans Z, la matrice M 1 =
1 t
comM est `a coefficients entiers et M GLn (Z).
det M
3. Il existe une structure de groupe sur Hn faisant de n un homomor-
phisme de groupes si et seulement si GLn (Z) est distingue dans GLn (R). Cest
clairement le cas si n = 1 mais ce nest plus vrai pour n 2 comme le montre
lexemple suivant : pour n = 2, on a
1
2 0 0 1 2 0 0 1/2
=
/ GL2 (Z).
0 1 1 0 0 1 2 0
Pour n 3, il suffit de considerer les matrices definies par bloc :

2 0 0 1
0 1 0 0
et 1 0 .
0 In2 0 In2

4. Appelons cette application. Pour M GLn (R), il est clair que M (Zn )
est le reseau dont une base est (M e1 , . . . , M en ) car
Xn n
X
M (a1 , . . . , an ) = M ( ai ei ) = ai M (ei ).
i=1 i=1

Si est un reseau de base (f1 , . . . , fn ), il suffit de considerer la matrice M dont


les colonnes sont les fi pour obtenir (M ) = : est surjective.
On sait aussi quen definissant la relation R sur GLn (R) de la facon suivante :
M RM 0 si et seulement si M (Zn ) = M 0 (Zn ),
on peut factoriser en une injection de GLn (R)/R qui a meme image que
definie par ([M ]R ) = (M ).
Il suffit donc de montrer que GLn (R)/R = GLn (R)/GLn (Z), cest `a dire
M (Zn ) = M 0 (Zn ) A GLn (Z), M = M 0 A.
Mais M (Zn ) = M 0 (Zn ) si et seulement si M 01 M (Zn ) = Zn car M 0 est bijective.
Il suffit alors de prouver que si A GLn (R), A(Zn ) = Zn si et seulement si
A GLn (Z).
Supposons que A(Zn ) = Zn avec A GLn (R). Alors il est clair que A Mn (Z) :
en effet, les vecteurs colonnes de A sont les images de vecteurs de Zn donc
sont dans Zn . Dautre part, on a aussi Zn = A1 (Zn ) donc A1 Mn (Z) et
A GLn (Z).
Reciproquement si A GLn (Z), il est clair que A(Zn ) Zn . De meme, A1
GLn (Z) donc A1 (Zn ) Zn do` u Zn A(Zn ).
5. Pour tout M GLn (R), pour tout A GLn (Z),
| det M A| = | det M | | det A| = | det M |
car dapr`es 2., det A {1, 1}. On peut donc definir
f : Hn R
[M ] 7 | det M |.
202 CHAPITRE 10. SESSION DE 1998

Comme Hn est en bijection avec Rn dapr`es 4., on en deduit une application


1
=f :
: Rn R
= M (Zn ) 7 | det M |.
Si u1 , . . . , un est une base du reseau , on a ui = M ei donc

() = | det B (u1 , . . . , un )|.

Cest donc le volume du parallelotope defini par les vecteurs u1 , . . . , un (ce


volume ne depend pas de la base choisie).
6. Soit B(c, r) une boule de Rn et M GLn (R) telle que = M (Zn ). On a
#{x ; x B(c, r)} = #{x M (Zn ); x B(c, r)}
= #{y Zn ; y M 1 (B(c, r))}.

Lapplication M 1 est lineaire et continue (nous sommes en dimension finie)


donc M 1 (B(c, r)) est une partie bornee de Rn incluse dans un cube de la
forme [a, a]n avec a N. Un tel cube contient au plus (2a + 1)n elements de
Zn ce qui entrane le resultat.
7. Soit = M (Zn ) le reseau defini par la classe M (cf. 4.). Pour M M,
M e est un element de donc (M ) est la norme dun element de pour
M M. Soit M0 M. Dapr`es la question 6., il ny a quun nombre fini de
points de de norme inferieure `a (M0 ). En particulier, (M) B(0, (M0 ))
est fini dans R donc atteint son minimum sur M.
8. On a clairement
(M ) = kM ek = kKDT ek = kDT ek car K est isometrique
= kDek = kd1 (M )ek = |d1 (M )| = d1 (M ) via T e = e.

9. Posons t = t1,2 (M ) et choisissons p Z tel que 1/2 p + t 1/2. On


a (p + t)2 1/4. Posons

p 1
0
1 0
1
A= GLn (Z) (cf 2.).
..
0 .
1

On a alors Ae = pe+e2 , T Ae = pe+te+e2 et DT Ae = d1 (M )(p+t)e+d2 (M )e2


do`
u

(M A)2 = kKDT Aek2 = kDT Aek2 = d1 (M )2 (p + t)2 + d2 (M )2

car la base canonique est orthonormale.


Comme M est minimale, (M )2 (M A)2 ce qui donne, dapr`es la question
8., d1 (M )2 (M A)2 . On obtient

d1 (M )2 (1 (p + t)2 ) d2 (M )2
10.2. CORRECTION 203

et comme 1 (p + t)2 3/4, on a

2
d1 (M ) d2 (M ).
3

10.a. La matrice DT est triangulaire superieure et ses coefficients diagonaux


sont les di (M ). Elle peut secrire par blocs sous la forme suivante :

d1 (M ) L
0

DT = .. 0 ,
. T
0

u T 0 est une matrice triangulaire superieure inversible dordre n 1 et L une


o`
matrice ligne de taille (n 1). Puisque n1 (Tn1 ) = Hn1 , on peut trouver
A0 GLn1 (Z) telle que T 0 A0 Tn1 . Posons

1 0...0
0

A= . .
.. A0
0

Il est clair quon a aussi A GLn (Z) car det A = det A0 (cf 2.). On a

d1 (M ) b2 . . . bn
0

DT A = .. ,
. T 0 A0
0

donc A repond `a la question posee.


b. Soit (K 0 , D0 , T 0 ) la decomposition dIwasawa de M 0 . Posons

1 0...0 d1 (M ) 0 . . . 0
0 0
=K
K ..

,D = ..

,
. K0 . D0
0 0

1 b2 /d1 (M ) . . . bn /d1 (M )
0

et T = .. 0 .
. T
0
On (R), que D
Il est clair que K est diagonale `a coefficients strictement positifs

et T est triangulaire superieure `a coefficients diagonaux egaux `a 1. De plus,
D
K T = K(DT A) = (KDT )A = M A.

D,
Par unicite (cf 1), la decomposition dIwasawa de M A est donc (K, T).
204 CHAPITRE 10. SESSION DE 1998

11. On proc`ede par recurrence sur n N? .


Si n = 1, cest evident car T1 = GL1 (R).
Supposons que n1 (Tn1 ) = Hn1 ce qui nous permet dappliquer 10. Soit
M Hn . Dapr`es 7., on peut trouver M M minimale. Dapr`es 10.a., il existe
A GLn (Z) et M 0 Tn1 telles que

d1 (M ) b2 . . . bn
0

DT A = .. 0 .
. M
0

On a bien s ur M A M. Le 10.b. prouve que d1 (M A) = d1 (M ) et di (M A) =


di1 (M 0 ) d`es que i 2. En particulier, dapr`es 8., (M A) = (M ) donc M A
est minimale et dapr`es 9.,
2
d1 (M A) d2 (M A).
3
Dautre part, puisque M 0 Tn1 , d`es que i 2,
2 2
di (M A) = di1 (M 0 ) di (M 0 ) = di+1 (M A).
3 3
Ceci prouve que M A Tn et ach`eve la recurrence.
12. Dapr`es 4., tout reseau sidentifie `a un element M de Hn . Dapr`es
11., on peut considerer M M Tn .
Remarquons que (M ) = kM ek m() car M e {0}. On a ainsi m()2
d1 (M )2 .
Dautre part, comme M Tn , pour tout i = 1, . . . , n,

3 i1
di (M ) d1 (M ).
2
Comme () = | det M | = | det(KDT )| = | det D| car | det K| = | det T | = 1, on
en deduit que
n n
Y Y 3 i1 3 n(n1)/2
n
() = di (M ) d1 (M ) = d1 (M )n .
i=1 i=1
2 2

On obtient donc
d1 (M )2 2 n1
() 3 n1 = .
2
d1 (M ) 2 3

Pour montrer que () > 0, il suffit de montrer que m() > 0. Pour cela,
nous allons montrer que la borne inferieure definissant m() est atteint en a
{0}. Si ce nest pas le cas, pour tout a {0}, il existe a0 {0}
tel que ka0 k < kak. On peut donc trouver une suite (an )nN bornee delements
tous distincts de ce qui contredit le resultat de 6.
n
X
13. Si (p1 , . . . , pn ) Zn {0}, k(p1 , . . . , pn )k2 = p2i 1 et kek = 1
i=1
donc m(Zn ) = 1. Dautre part, il est clair que In est dans lelement de Hn
10.2. CORRECTION 205

correspondant `a Zn (In correspond `a la base (e1 , . . . , en ) de Zn ). Ainsi (Zn ) =


| det In | = 1 et on en deduit immediatement que (Zn ) = 1.
On appelle le reseau

1 3
Z(1, 0) Z ,
2 2

Soit a = p(1, 0) + q(1/2, 3/2) {0}. On calcule
q 3 1 3
kak2 = (p + )2 + q 2 = (2p + q)2 + q 2 .
2 4 4 4
Si q = 0, clairement kak2 1.
Si q 6= 0, on a kak2 14 + 43 . En effet, si 2p + q est non nul, cest trivial. Si
2p + q est nul, p est alors non nul (car q 6= 0), q est pair donc kak2 3.
1 3
Dans tous les cas, kak 1 et le minimum est atteint en (1, 0) et en ( , ).
2 2
Ainsi, m() = 1.
Dautre part, si M est lelement de Hn correspondant `a ,

1
1
2
M = M
3
0
2

donc () = | det M | = 3/2.
Finalement, () = 2/ 3 et lon constate que linegalite obtenue en 12. est
optimale dans le cas des reseaux de dimension 2.
14. Soit M un element quelconque de Hn . Dapr`es 11., on sait quil existe
M Tn telle que n (M ) = M. Soit (K, D, T ) la decomposition dIwasawa
de M et A une matrice triangulaire superieure `a coefficients entiers dont les
coefficients diagonaux valent 1 : il est clair que A GLn (Z) donc n (M A) =
M. Dautre part, T A est triangulaire superieure dont les coefficients diagonaux
valent 1 donc (K, D, T A) est la decomposition dIwasawa de M A. En particulier,
DM A = DA = D donc on a encore M A Tn .
Il suffit donc de montrer que lon peut ajuster les coefficients hors diagonale de
A de facon `a ce que ceux de T A soient de valeur absolue inferieure `a 1/2.
Xj j
X
On a : (T A)ij = tik akj . Si j > i, (T A)ij = aij + tik akj .
k=i k=i+1
j
X
Fixons j 2. Supposons choisis ai+1,j ; . . . ; aj,j donc le reel tik ak,j est
k=i+1
fixe. On choisit alors ai,j Z tel que
j
X
1/2 ai,j + tik ak,j 1/2.
k=i+1

Comme aj,j = 1, cela definit par une recurrence decroissante les coefficients de
la j-i`eme colonne de A qui permettent de satisfaire aux conditions posees pour
la j-i`eme colonne de T A. On fait bien s
ur ce travail pour tout j = 2, . . . , n. Pour
la matrice A obtenue, M A Sn et n (M A) = M.
206 CHAPITRE 10. SESSION DE 1998

IV.
1. Soit V un ouvert de Rn . Il existe U un ouvert de GLn (R), tel que V =
n (U ). On a
n1 (V ) = {M GLn (R); n (M ) n (U )}
= {M[ GLn (R); M A = vB, o` u A, B GLn (Z), v U }
= U A.
AGLn (Z)

On remarque que pour tout A GLn (Z), U A est un ouvert de GLn (R) car
cest un translate de louvert U . Lensemble n1 (V ) est donc une intersection
douvert donc cest un ouvert de GLn (R). Ceci est valable pour tout ouvert V
donc n est continue.
Supposons Rn non separee. Il existe , 0 Rn tels que 6= 0 et pour tous
ouverts U , V de GLn (R) tels que n (U ) et 0 n (V ), on a
n (U ) n (V ) 6= .
Soient M , M 0 GLn (R) telles que n (M ) = et n (M 0 ) = 0 . Pour tout
p N? , on a donc
n (B(M, 1/p)) n (B(M 0 , 1/p)) 6= ,
o`
u B(M, 1/p) est la boule ouverte de centre M et de rayon 1/p dans GLn (R). On
peut donc trouver Mp B(M, 1/p) et Mp0 B(M 0 , 1/p) telles que n (Mp ) =
n (Mp0 ). On a donc Mp1 Mp0 GLn (Z). Il est clair que Mp converge vers M
et que Mp0 converge vers M 0 dans GLn (R). Comme lapplication (A, A0 ) 7
A1 A0 est continue donc Mp1 Mp0 converge vers M 1 M 0 . Or GLn (Z) est ferme
2 2
dans GLn (R) car on peut le voir comme Zn (ferme dans Rn ) intersecte avec
det1 ({1, 1}) (ferme dans GLn (R) car det est continue). On a donc M 1 M 0
GLn (Z) cest `a dire n (M ) = n (M 0 ) ce qui est absurde.
2. Soit O un ouvert de R. Supposons avoir montre que
1 (O) = n (| det |1 (O)).
Comme | det | est continue sur GLn (R), | det |1 (O) est ouvert dans GLn (R).
Puisque n est ouverte, n (| det |1 (O)) est ouvert dans Rn . Ceci prouve que
1 (O) est ouvert do`
u la continuite de .
Montrons legalite annoncee.
Considerons 1 (O) et soit M GLn (R) telle que = n (M ). Par
definition de (voir 5.), | det M | = () O donc M | det |1 (O) et
n (| det |1 (O)).
Considerons n (| det |1 (O)), il existe M | det |1 (O) telle que =
n (M ). Or () = | det M | O donc 1 (O).
3. Lapplication
GLn (R) R?+
M 7 kM 1 k
est continue comme composee dapplications continues. Comme U est compact,
son image par cette application est bornee :
> 0, M U, kM 1 k .
10.2. CORRECTION 207

Ainsi pour tout x Rn , pour tout M U ,

kxk = kM 1 M xk kM 1 kkM xk kM xk.

Il suffit de choisir c = 1/.


4. Soit Rn et M GLn (R) tel que n (M ) = . Par continuite du
determinant, on trouve > 0 tel que kM P k entrane | det M det P |
1
2 | det M |, ce qui assure que P GLn (R). Lensemble

U = {P Mn (R), kM P k }.

est inclus dans GLn (R) et cest un compact de Mn (R) en tant que ferme borne
donc U est un compact pour la topologie induite sur GLn (R). Par la question
precedente, il existe c > 0 tel que

P U, x Rn , kP xk ckxk.

Soit > 0, O = {M 0 GLn (R), kM 0 M k < }. Louvert n (O) est un


voisinage de et pour tout 0 n (O), il existe M 0 O telle que n (M 0 ) = 0 .
On a vu au III.12. que m() et m(0 ) sont atteints donc il existe z Zn , z 0 Zn
tels que
m() = kM zk et m(0 ) = kM 0 z 0 k.
Par definition de lapplication m,

m() kM z 0 k et m(0 ) kM 0 zk

Or
kM z 0 k = kM 0 z 0 + (M M 0 )z 0 k m(0 ) + kz 0 k
et de meme kM 0 zk m() + kzk.
Il vient : m(0 ) m() kzk. De meme, m() m(0 ) kz 0 k. En
choisissant suffisamment petit, M 0 est un element de U . On a alors kz 0 k
1 0 0
c kM z k. Puis

m() m(0 ) kM 0 z 0 k m(0 ).
c c

Ainsi, m() m(0 ) +c m().
La fonction m est donc continue au point .
Dapr`es 2., est continue. Comme elle ne sannule pas sur Rn , il en resulte
immediatement que est continue.
5. Soit Y une partie fermee de Sn .
Supposons quil existe > 0 et > 0 tels que

M Y, d1 (M ) et dn (M ) .

Soit (Mp )pN une suite delements de Y. Pour tout p N, (Kp , Dp , Tp ) est la
decomposition dIwasawa de Mp . Puisque On (R) est compact, il existe K
On (R) et strictement croissante de N dans N telle que K(p) K. Len-
semble des matrices triangulaires superieures `a coefficients diagonaux egaux `a 1
et `a coefficients hors-diagonaux de valeur absolue inferieure ou egale `a 1/2 est
compact car homeomorphe `a [1/2, 1/2]n(n1)/2 donc il existe T de ce type et
208 CHAPITRE 10. SESSION DE 1998

telles que T(p) T . Enfin, comme M Sn Tn , la condition sur d1 (M )


et dn (M ) assure que pour tout i = 1, . . . , n, pour tout p N,

3 n1 2 n1
di (Mp ) ,
2 3
donc Dp est `a valeurs dans un compact de R+ et il existe D diagonale `a
coefficients diagonaux strictement positifs et telles que D(p) D. Il est
alors clair que M(p) KDT et comme Y est ferme, KDT Y ce qui
prouve la compacite de Y.
Reciproquement, supposons que Y soit compacte. Lapplication

GLn (R) R?+


M 7 d1 (M )

est continue car dapr`es 8., d1 (M ) = (M ) = kM ek donc limage de Y par cette


application est un compact de R?+ . En particulier, il existe > 0 tel que

M Y, d1 (M ) .

Lapplication
GLn (R) R?+
M 7 | det M |
est continue donc limage de Y par cette application est un compact de R?+ . En
particulier, il existe > 0 tel que

M Y, | det M | .

Mais M Sn Tn donc pour tout i = 1, . . . , n



3 i1
di (M ) d1 (M )
2
Finalement,
n
Y 3 (n1)(n2)/2
n1
| det M | = di (M ) dn (M )d1 (M ) ,
i=1
2

et comme d1 (M ) , on en conclut que


2 (n1)(n2)/2
dn (M ) .
n1 3
Les conditions posees sur d1 et dn sont donc satisfaites sur Y.
6. Supposons que P soit compacte. On a montre au 2. que est continue
de Rn dans R donc (P ) est une partie compacte de R qui est en particulier
majoree : (i) est verifiee. On a montre au 4. que m est continue de Rn dans
R?+ donc m(P) est une partie compacte de R?+ et en particulier, il existe a > 0
tel que pour tout P, m() a. Il suffit alors de poser U = B(0, a/2) pour
verifier (ii).
Reciproquement, supposons que (i) et (ii) soient verifiees. Posons

Y = n1 (P) Sn .
10.2. CORRECTION 209

Dapr`es II.14., n (Y) = P. Il suffit de montrer que Y est compacte car P sera
egalement compacte comme image dans un espace separe (par 1.) dun compact
par une application continue.
Puisque n est continue et P ferme dans Rn , Y est ferme dans Sn . Pour obtenir
la compacite de Y, il suffit de verifier les deux conditions sur d1 et dn de la
question precedente.
Dapr`es (ii), on peut considerer > 0 tel que pour tout P, B(0, ) = {0}.
Ceci entrane evidemment que pour tout P, m() . Si M Y,

d1 (M ) = (M ) = kM ek m(n (M ))

donc la condition sur d1 est verifiee.


Dapr`es (i), on peut considerer > 0 tel que pour tout P, () .
Ceci entrane evidemment que pour tout M Y, | det M | . On conclut
exactement comme dans 5. `a lexistence dun 1 tel que pour tout M Y,
dn (M ) 1 : la condition sur dn est egalement verifiee.
7. Il est evident que limage de 0 est incluse dans limage de . Considerons
a dans limage de : il existe Rn tel que () = a. Soit = 1/()1/n et
considerons 0 = = {x, x }.
Il est clair que 0 est un reseau : si (f1 , . . . , fn ) est une base de , 0 est le reseau
de base (f1 , . . . , fn ).
Il est egalement clair que (0 ) = n () = 1 donc 0 R0n .
Enfin, comme m(0 ) = m() on a

m(0 )2 (m())2
0 (0 ) = 0 2/n
= n = () = a
( ) ( ())2/n
donc a est dans limage de 0 .
8. Dapr`es 4., et donc 0 sont continues. Considerons K un compact de
]0, +[ : K est ferme donc 01 (K) est fermee dans R0n donc dans Rn car
R0n est fermee dans Rn . Pour montrer sa compacite, on peut donc appliquer la
question 6. et il suffit de verifier les conditions (i) et (ii).
Par definition de R0n , (i) est verifiee.
Dautre part, il existe > 0 tel que K [, +[ donc pour tout 01 (K),
0 () . Mais
m()2
0 () = = m()2
()2/n

donc pour tout 01 (K), m() . Si U = B(0, /2), la propriete (ii)
est verifiee.
9. Dapr`es 7., sup () = sup 0 (0 ). Considerons 01 R0n alors par le
Rn 0 R0n
III.12.,
2 n1
sup 0 (0 ) 0 (01 ), .
0
Rn 0 3
2 n1
On pose K = 01 ([ 0 (01 ), 0
] : dapr`es 8., K est compact et |K est
3
0
continue et atteint son maximum en 0 . Il est clair que

0 (00 ) = sup 0 (0 ),
0 R0n
210 CHAPITRE 10. SESSION DE 1998

donc 00 convient.

V.
Remarquons tout dabord que :
- S() est non vide par III.6. et 12.
- S() est fini en utilisant III.6.
- S() est de cardinal pair car si a S(), a S() et a 6= a.

1
1. Il suffit de poser B(x, y) = hx, yi.
m()2

2. Soit y0 non nul dans S(). Dapr`es III.6., la boule B(0, ky0 k) ne
contient quun nombre fini delements de donc quun nombre fini delements
non nuls de S(). Soit y1 de norme minimale dans cet ensemble. Il est clair
quen posant
ky1 k
c() = ,
m()
on a bien c() > 1 (car y1
/ S()) et pour tout y S() non nul,

kyk ky1 k = c()m().

Soit y non nul dans S() et M GLn (R) alors

c()m() kyk = kM 1 M yk kM 1 k kM yk,

ce qui est le resultat.


3. Lapplication M 7 kM k kM 1 k est continue sur GLn (R) et vaut 1 en
In . On peut donc trouver un voisinage U de In dans GLn (R) tel que

M U, kM k kM 1 k < c().

Prenons b S(M ()) et a tel que b = M a. Pour tout u {0},


m() = kM ak kM uk. Montrons que a S(). On a kak = kM 1 M ak
kM 1 kkM ak mais kM ak kM uk donc

kak kM 1 kkM uk kM 1 kkM kkuk < c()kuk.

En particulier, si u S(), kak < c()m(). Mais dapr`es 2., si a


/ S(), on
a avec M = In , kak c()m() ce qui est contradictoire. On en conclut que
a S() donc b = M a M (S()).
4. Puisque lim M = In , on peut trouver > 0 tel que si || < alors
0
M U. On a donc pour tout || < ,

S(M () M (S()).
10.2. CORRECTION 211

Considerons b S(M ()) : kbk = m(M ()). Dautre part, b secrit M a o`


u
a S(). Comme M est symetrique,

kbk2 = kM ak2 = ha, M2 ai

et M2 = In + M donc

kbk2 = kak2 + ha, M ai.

Par definition de M , on a ha, M ai = (B B 0 )(a, a) = 1 1 = 0, donc kbk =


kak = m() ce qui prouve que m(M ()) = m().
5. La matrice M est symetrique donc diagonalisable dans une base ortho-
normee de Rn ainsi que In + M . Si 1 , . . . , n designent les valeurs propres
de M alors les valeurs propres de In + M sont 1 + 1 , . . . , 1 + n . Soit
f : 7 det M alors

f 2 () = det M2 = det(In + M )
Yn n
X X
= (1 + i ) = 1 + i + 2 ( i j ) + o(2 ).
i=1 i=1 1i<jn

n
X X
On pose 1 = i et 2 = i j . On a alors (f () etant positif pour
i=1 1i<jn
assez petit)
p
f () = f 2 () = (1 + 1 + 2 2 + o(2 ))1/2
1 2 2
= 1 + + 2 ( 1 ) + o(2 ).
2 2 8
Supposons maintenant () = sup (0 ) alors (M ()) (). Dapr`es
0 Rn
4., on a pour assez petit, m(M ()) = m() donc

m()2
(M ()) = ,
(M ())2/n

et on en deduit que (M ()) (). Or (M ()) = | det(M M )| o`


u =
n (M ) donc (comme M est definie positive) (M ()) = det(M )| det(M )| =
(det M ) () puis pour assez petit, on a

det M 1 = det M0 .

Ceci entrane dabord 1 = 0 sinon le developpement limite precedent assurerait


que det M prend des valeurs strictement plus petites que 1 au voisinage de 0 `a
2 2 2
gauche. Pour la meme raison, 1 = 0 donc
2 8 2
n
X
2i = 12 22 = 22 0.
i=1

Ceci entrane la nullite de tous les i donc de la matrice M . Ainsi, B = B 0 et


B na quun seul element.
212 CHAPITRE 10. SESSION DE 1998

6.a. Soient b1 , . . . , bn les elements de B. Ecrivons pour a S(),


n
X
a= i (a)bi
i=1

avec i (a) Z. On a alors

B B a S(), B(a,
X a) = 1
a S(), i (a)j (a)B(bi , bj ) = 1.
i,j

On obtient donc un syst`eme `a coefficients entiers de #S() equations. Or a et


a donnent naissance `a la meme equation donc on obtient en fait un syst`eme
lineaire `a #S()/2 equations.
b. Comme B est symetrique, le syst`eme precedent comporte n(n + 1)/2
inconnues. Il doit avoir une unique solution car B a un seul element. Il poss`ede
donc plus dequations que dinconnues donc

#S() n(n + 1)

2 2
do`
u le resultat.
c. Soit q la forme bilineaire q(x, y) = hx, yi alors
(hb, b0 i)b,b0 B = Mat(q, B).

Si P designe la matrice de passage de la base canonique E vers B, on a

Mat(q, B) = tP Mat(q, E)P

ce qui donne (hb, b0 i)b,b0 B = tP P. Or | det P | = () car P est la matrice des


vecteurs de B dans la base canonique. Le determinant cherche est donc (())2 .
d. Comme B a un seul element, cet element de B est celui determine au
1., cest `a dire
hx, yi
B(x, y) = .
m()2
Dautre part les B(b, b0 ) sont rationnels car solution dun syst`eme lineaire `a
coefficients dans Z donc

det B(b, b0 ) b,b0 B Q.

Or ce determinant vaut
1 0
()2 1
det [hb, b i] b,b 0 B = =
m()2n m()2n ()n

donc ()n Q.

Remarque : dapr`es 5., cette derni`ere propriete de rationnalite est en parti-


culier verifiee si maximise .
10.3. COMMENTAIRES 213

10.3 Commentaires
On etudie dans un premier temps un probl`eme de recouvrement dans le cas
du plan puis de lespace. Aucune connaissance particuli`ere nest requise. Le reste
du sujet concerne la geometrie des reseaux. Le probl`eme utilise principalement
des techniques dalg`ebre lineaire, doptimisation et destimations volumiques.
La partie IV permettra aux candidats de manipuler des notions topologiques
standards sur lensemble des reseaux.

La topologie quotient. Identifier Rn et Hn , cest par definition dire que


Rn est lensemble quotient GLn (R)/GLn (Z). Expliquons pourquoi la topologie
dont on munit Rn dans la partie IV est en fait la topologie quotient associee.
En effet, la definition donnee ici nest pas la definition generale de la topologie
quotient.
Posons
T = {n (U ) o` u U ouvert de GLn (R)}
et
T 0 = {V Rn tel que n1 (V ) ouvert de GLn (R)}.
Il est facile de verifier que T 0 est une topologie sur Rn : cest une consequence
immediate des relations
[ [ \ \
1 1 1
n Vi = n (Vi ) et n Vi = n1 (Vi ).
iI iI iI iI

Par definition, T 0 rend n continue et si T 00 est une autre topologie rendant n


continue alors un ouvert V pour T 00 verifie n1 (V ) ouvert de GLn (R), et donc
est un ouvert de T 0 . Ainsi T 00 T 0 ce qui prouve que T 0 est la topologie la
plus fine sur Rn rendant n continue. Cest elle que par definition on appelle la
topologie quotient.
Dautre part si V T 0 alors, comme V = n (n1 (V )) puisque n est sur-
jective, on a V T donc T 0 T . Mais egalement si V T , V secrit n (U )
et
n1 (V ) = {M GLn (R) / n (M ) n (U )}
= {M[ GLn (R) / M U GLn (Z)}
= U A.
AGLn (Z)

Lapplication M 7 M A definit un homeomorphisme de U sur U A donc n1 (V )


est un ouvert de GLn (R), comme union douverts de GLn (R). Ceci prouve que
V T 0 donc que T 0 = T , ce qui fournit dans le cas particulier de classe
dequivalence modulo un sous-groupe, une description alternative commode de
la topologie quotient. Une consequence immediate est le caract`ere dapplication
ouverte de la surjection canonique.

Mettons egalement en garde le lecteur contre la dangereuse tentation de


simplifier la demonstration du fait que cette topologie est separee de la facon
suivante (question IV.1.) : n (Mp )p n (M ) et n (M 0 ) n (M 0 ) car n est
p p
continue. De n (Mp ) = n (Mp ) on peut deduire que n (M ) = n (M 0 ) ce qui
0

etait la contradiction cherchee. Cette deduction est injustifiee tant que lon ne
peut assurer lunicite de la limite dune suite convergente. Or cest justement la
214 CHAPITRE 10. SESSION DE 1998

separation de T (que nous cherchons `a etablir dans cette question) qui permet
dobtenir cette unicite.
Le lecteur devra de toute facon se convaincre que le caract`ere ferme de
GLn (Z) est ici lhypoth`ese necessaire au resultat.

You might also like