Professional Documents
Culture Documents
1. Si on considère une norme quelconque sur Cn , on en déduit une norme sur L(Cn ), la norme
subordonnée, qui vérifie ku ◦ vk ≤ kuk.kvk d’après le cours. En notant |||M ||| la quantité kuk
où u est l’endomorphisme canoniquement associé à M , on obtient alors une norme sur Mn (C)
qui est une norme matricielle.
On peut aussi exhiber une telle norme. L’application (M, N ) 7→ T r(t M N ) est un produit scalaire
sur Mn (C). Soit k.k la norme associée. On a
n 2 n
!2
X X X X
2
kABk = ai,k bk,j ≤ |ai,k |.|bk,j |
1≤i,j≤n k=1 1≤i,j≤n k=1
En réordonnant les sommes, on voit que le majorant vaut exactement kAk2 kBk2 et on en déduit
que k.k est une norme matricielle.
2.a. Par inégalité triangulaire, on a
p
X
k
A
|||Sp − Sm ||| ≤
k!
k=m+1
Par ailleurs, une récurrence immédiate (à partir de la propriété de norme matricielle) montre
que
k k
∀k ≥ 1, A ≤ |||A|||
Remarque : c’est a priori faux pour k = 0 ce qui n’est pas gênant dans cette question puisque la
somme débute à m + 1 ≥ 1.
On en déduit donc que
p
X |||A|||k
|||Sp − Sm ||| ≤
k!
k=m+1
xk /k! converge pour tout réel x (de somme ex ), la suite des sommes partielles de
P
2.b. Comme
P |||A|||k
k! est de Cauchy. D’après l’inégalité précédente, il en est de même de la suite (Sn ).
Comme Mn (C) est complet, on en déduit que cette suite converge.
k
k
A /k! est absolument convergente puisque Ak! ≤ |||A|||
P k
Remarque : plus simplement, et
k!
on conclut encore par complétude.
2.c. A commute avec tout polynôme en A et donc
∀N, ASN = SN A
Les application M 7→ AM et M 7→ M A sont linéaires en dimension et donc continues. Comme
SN → eA , un passage à la limite (N → +∞) donne
AeA = eA A
De même, les sommes étant finies et la transposition linéaire et vérifiant t (Ak ) = (t A)k (récurrence
sur k), on a
N
X (t A)k
∀N, t SN =
k!
k=0
1
t
Quand N → +∞, le membre de droite tend vers e A et, par continuité de la transposition, celui
de gauche tend vers t eA . On a donc
t A t
e =eA
3. On suppose qu’il existe une matrice inversible P et une matrice diagonale D = diag(d1 , . . . , dn )
telles que P −1 AP = D. On a alors
M 7→ P M P −1 étant continue (linéaire en dimension finie par exemple, mais on peut aussi par
théorèmes généraux), un passage à la limite (N → +∞) donne
eA = P eD P −1 = P diag(ed1 , . . . , edn )P −1
Ainsi, eA est diagonalisable da,s la même base que A et ses valeurs propres sont les exponentielles
de celles de A.
Φ(0) = In x = x
Par ailleurs, on a
+∞ k
X t
etA = Ak = lim SN (tA)
k! N →+∞
k=0
On voudrait dériver cette relation par rapport à t. On pourra intervertir la dérivation et la
limite si on P montre que la suite (Sn (tA)) converge uniformément sur tout compact ou encore
que la série (tA)k /k! converge normalement sur tout compact (le terme général de la série est
de classe C 1 ). C’est le cas car
k
t (c |||A|||)k
∀t ∈ [−c, c], Ak ≤
k! k!
et le majorant est le terme général d’une série indépendante de t et convergente. On a donc
+∞ k
!
0
X t k+1
Φ (t) = A x = AetA x = AΦ(t)
k!
k=0
4.b. Comme on est dans le cadre du théorème de Cauchy-Lipschitz cas linéaire, on sait qu’une solution
de X 0 = AX + f (t) vérifiant X(0) = x est unique. Il suffit que l’on montre que Ψ convient.
Elle vérifie déjà Ψ(0) = x. Par ailleurs, τ 7→ e−τ A f (τ ) étant une application continue (τ 7→ e−τ A
est même de classe C 1 , on vient de le voir), l’application
Z t
G : t 7→ e−τ A f (τ ) dτ
0
2
On pourra conclure que Ψ est solution de X 0 = AX + f (t) si on montre que eM est inversible
d’inverse e−M . De manière plus générale, on a
∀N, M, si M N = N M, eM eN = eM +N
5. Supposons toutes les solutions asymptotiquement stables. Soit λ une valeur propre de A et x
un vecteur propre associé. On a alors Ak = λk x et donc Φ(t) = etA x = eλt x. Comme x n’est
pas nul, la condition “asymptotiquement stable” indique que eλt → 0 quand t → +∞. Ainsi
(ea+ib = ea eib est de module ea ), la partie réelle de λ est < 0.
Supposons, réciproquement, que toutes les valeurs propres de A aient cette propriété. Notons
e1 , . . . , en une base de vecteurs propres et λ1 , . . . , λn les valeurs propres associées. Soit x un
vecteur et x1 , . . . , xn ses coordonnées dans la base (e1 , . . . , en ). On a alors
n
X n
X
Φ(t) = etA x = xi etA ei = xi etλi ei
i=1 i=1
C’est une somme finie de terme de limite nulle en +∞ et Φ est donc de limite nulle en ∞. Ainsi,
toutes les solutions sont asymptotiquement stables.
2 Commandabilité.
6. AT est inclus dans Rn et est non vide (il contient 0 pour lequel le contrôle u = 0 convient puisque
la solution nulle vérifie X 0 = AX et X(0) = 0). Soient x et y des éléments de AT (correspondant
à des contrôles u et v et des solution Φ et Ψ) et λ ∈ R. La fonction Θ = Φ + λΨ vérifie alors
l’équation
X 0 = AX + B(u(t) + λv(t))
et Θ(0) = 0, Θ(T ) = Φ(T ) + λΨ(T ) = x + λy. On a don montré que x + λy ∈ AT (et exhibé un
contrôle correspondant).
7. Soit Φ l’unique solution de X 0 = AX + Bu(t) telle que X(0) = 0. La partie I montre que
Z t
Φ(t) = e tA
e−τ A Bu(τ ) dτ
0
3
ce qui découle de la linéarité de l’intégrale.
Ici, avec un formalise matriciel,
Z t
Φ(t) = etA e−τ A Bu(τ ) dτ
0
Comme tA et −τ A commutent, on peut utiliser le résultat prouvé en question 4.b pour écrire
Z t
Φ(t) = e(t−τ )A Bu(τ ) dτ
0
En particulier, on a donc Z T
xT = Φ(T ) = e(T −τ )A Bu(τ ) dτ
0
Zn−1
n−1
X
CZ = (Ai B)Zi
i=0
Par ailleurs, esA est, pour tout réel s, la limite d’une suite d’éléments de V ect(In , A, . . . , An−1 )
(question précédente et définition de esA ). Cet espace étant fermé (il est de dimension finie),
esA en fait encore partie. Il existe donc des fonctions a1 , . . . , an : R → R telle que
n−1
X
∀s, esA = ai (s)Ai
i=0
On a alors
Z T n−1
X n−1
XZ T n−1
X Z T
i i i
x= ai (T −τ )A Bu(τ ) dτ = ai (T −τ )(A B)u(τ ) dτ = AB ai (T −τ )u(τ ) dτ
0 i=0 i=0 0 i=0 0
4
9.a. Soit y ∈ A⊥
T . Posons
t
u(s) = t Be(T −s) A y
On définit alors une fonction continue de R dans Rm . Soit Φ l’unique solution nulle en 0 de
X 0 = AX + Bu(t). On a alors x = Φ(T ) qui est, par définition, dans AT et est donc orthogonal
à y, ce qui s’écrit matriciellement t xy = 0. La question 7 donne
Z T
t
x= e(T −s)A B t Be(T −s) A y ds
0
t
9.b. Si on pose M (s) = t Be(T −s) A y (élément de Rm ), on a donc
Z T
t
M (s)M (s) ds = 0
0
Comme s 7→ t M (s)M (s) = kM (s)k2 est positive et continue (et comme T > 0), on a donc
∀s ∈ [0, T ], M (s) = 0
On a ici utilisé la formule de cours Ker(t N ) = Im(N )⊥ qui correspond à Ker(v ∗ ) = Im(v)⊥
pour les endomorphismes. En particulier, pour s = T , on obtient que y est orthogal à tout
élément de Im(B).
t
Plus généralement, en dérivant k fois l’égalité M (s) = 0 (s 7→ e(T −s) A est infiniment dérivable
comme le montre une récurrence aisée) on obtient
t
∀s ∈ [0, T ], t B(−t A)k e(T −s) A y = 0
et on obtient alors (même raisonnement que y est orthogonal à tout élément de Im((−1)k Ak B) =
Im(Ak B). y est alors orthogonal à toute combinaison de tels éléments c’est à dire à tout élément
de Im(C). On a ainsi montré que
A⊥T ⊂ Im(C)
⊥
Im(C) ⊂ AT
10.a. Avec la question précédente, la paire (A, B) est commandable si Im(C) = Rn . Comme Im(C) ⊂
Rn , ceci équivaut à rang(C) = n (le seul sous-espace de dimension n de Rn étant Rn lui même).
5
10.c. Pour tout choix de A, la paire (A, 0) est non commandable puisque Im(C) = {0} (on est dans
le cas d’un système homogène et la seule solution nulle en 0 est la fonction nulle ; on peut donc
seulement atteindre 0).
t
11.a. Pour tout s, N (s) = e(T −s)A B t Be(T −s) A est symétrique de taille n. Il en est donc de même
pour D (la transposée de l’intégrale est l’intégrale de la transposée). Les éléments de Im(D)
sont de la forme Z T
t
z= e(T −s)A B t Be(T −s) A y ds
0
t
Ceci correspond à l’élément de AT associé au contrôle u(s) = t Be(T −s) A y (ce qui définit une
application continue). On a donc bien
Im(D) ⊂ AT
On est revu à l’égalité de 9.a à partir de laquelle on a vu que y ∈ Im(C)⊥ . Comme Im(C) = AT ,
on a donc y ∈ A⊥ T et l’inclusion
Ker(D) ⊂ A⊥ T
11.c. Ceci découle d’une propriété de cours rappelée en 9.c. Reprouvons là dans le cas particulier
demandé. Soit x ∈ Im(M )⊥ . On a
Im(M )⊥ ⊂ Ker(M )
AT ⊂ Ker(D)⊥
AT ⊂ Im(D)
AT = Im(D)
12.a. (A, B) étant commandable, Im(D) = AT = Rn et D est de rang n. Comme la matrice est carrée
d’ordre n, elle est inversible.
12.b. Soit v le contrôle proposé. Il envoie l’état nul à t = 0 sur l’état yT au temps T avec
Z T
yT = e(T −s)A Bv(s) ds
0
6
Avec la définition de v, on a
t
e(T −s)A Bv(s) = e(T −s)A B t Be(T −s) A D−1 xT
Par inégalité de Cauchy-Schwarz dans l’ensemble des fonctions continues sur [0, T ] muni de
RT
(f, g) 7→ 0 f g, on a alors
s s
Z T Z T Z T
2
kv(s)k ds ≤ kv(s)k2 ds ku(s)k2 ds
0 0 0
qR
T 2
Si 0 kv(s)k ds 6= 0 on obtient l’inégalité voulue en divisant par ce terme. Sinon, l’inégalité
voulue est évidente. On a ainsi
Z T Z T
2
kv(s)k ds ≤ ku(s)k2 ds
0 0
7
13.a. Si u = 0, l’équation est homogène. C’est une équation différentielle d’ordre 2 à coefficients
constants d’équation caractéristique
r2 + 2λr + ω02 = 0
√
Les solutions de cette équation sont λ ± i ω 2 − λ2 . La solution générale de (H) est alors
p p
t 7→ eλt c1 cos( ω 2 − λ2 t) + c2 sin( ω 2 − λ2 )
ω02
0
C=
ω0 −2λω02
2
Cette matrice est de rang 2 (déterminant égal à −ω04 6= 0) et la paire (A, B) est donc command-
able d’après la question 10.
8
16. Supposons (A, B) commandable. La matrice
B AB A2 B . . . An−1 B
C=
est alors de rang n. Soit (Ã, B̃) conjuguée de (A, B) avec P ∈ GLn (R). On a
C̃ = B̃ ÃB̃ Ã2 B̃ . . . Ãn−1 B̃
ce qui donne
P −1 B P −1 AB P −1 A2 B . . . P −1 An−1 B = P −1 C
C̃ =
Multiplier par une matrice inversible ne changeant pas le rang, C̃ est de rang n et (Ã, B̃) est
commandable.
La réciproque s’obtient en changeant P en P −1 .
donc inversible et ses colonnes, qui ont b, Ab, . . . , An−1 b, forment une base de Rn . Le vecteur
An b pouvant s’exprimer dans cette base, il existe des scalaire a0 , . . . , an−1 tels que
An b = a0 b + · · · + an−1 An−1 b
n−1
X
= Ak+1 b − ai Ai−n+k+1 b
i=n−k−1
En particulier, la matrice de la famille (fn , . . . , f1 ) dans la base (b, Ab, . . . , An−1 b) est triangulaire
supérieure avec des 1 sur la diagonale. Cette matrice est donc inversible et la famille (fn , . . . , f1 )
est une base de Rn .
dans la base (f1 , . . . , fn ), l’endomorphisme canoniquement associé à A est représenté par Ã. Par
définition, les coordonnées de b dans cette base sont (0, . . . , 0, 1). Ainsi, en notant P la matrice
dont les colonnes sont (f1 , . . . , fn ), on a
P −1 AP = Ã et P −1 B = B̃
9
17.d. L’indépendance linéaire de (b, Ab, . . . , An−1 b) indique qu’aucun polynôme non nul de degré ≤
n − 1 n’annule A. Par ailleurs,
n−1
X
P = Xn − ai X i
i=0
annule A (P (A) est nul sur la base (b, Ab, . . . , An−1 b)).
Ce polynôme P est donc générateur de
l’idéal des annulateurs de A (polynôme minimal). Comme le polynôme caractéristique est un
multiple de ce polynôme (Cayley-Hamilton) et est de degré n de coefficient dominant (−1)n , il
vaut (−1)n P . Le polynôme caractéristique de à est le même (invariant de similitude).
Remarque : on peut retrouver aisément cela en faisant un développement par rapport à la dernière
ligne.
Si K̃ = k0 . . . kn−1 alors
0 1 0 ... 0
.. .. ..
. 0 1 . .
..
à + B̃ K̃ = .. ..
. . . 0
0 0 ... 0 1
a0 + k0 a1 + k1 . . . an−2 + kn−2 an−1 + kn−1
On voit que lorsque les ki varient, on peut atteindre tout polynôme F de degré n et de coefficient
dominant (−1)n .
à + B̃ K̃ = P −1 (A + BK)P
18. Si (A, B) est commandable on peut ainsi trouver K tel que A + BK soit diagonalisable à valeurs
propres toutes négatives (il suffit de prendre F = (−1)n (X + 1) . . . (X + n) on a alors n valeurs
propres distinctes et la matrice est diagonalisable et ses valeurs propres sont −1, . . . , −n). avec
la partie I, (A, B) est alors stabilisable.
10