You are on page 1of 10

1 Exponentielles de matrices.

1. Si on considère une norme quelconque sur Cn , on en déduit une norme sur L(Cn ), la norme
subordonnée, qui vérifie ku ◦ vk ≤ kuk.kvk d’après le cours. En notant |||M ||| la quantité kuk
où u est l’endomorphisme canoniquement associé à M , on obtient alors une norme sur Mn (C)
qui est une norme matricielle.
On peut aussi exhiber une telle norme. L’application (M, N ) 7→ T r(t M N ) est un produit scalaire
sur Mn (C). Soit k.k la norme associée. On a
n 2 n
!2
X X X X
2
kABk = ai,k bk,j ≤ |ai,k |.|bk,j |



1≤i,j≤n k=1 1≤i,j≤n k=1

L’inégalité de Cauchy-Schwarz dans Rn muni de sa structure euclidienne canonique donne alors


n n
!
X X X
2 2 2
kABk ≤ |ai,k | |bk,j |
1≤i,j≤n k=1 k=1

En réordonnant les sommes, on voit que le majorant vaut exactement kAk2 kBk2 et on en déduit
que k.k est une norme matricielle.
2.a. Par inégalité triangulaire, on a
p
X
k
A
|||Sp − Sm ||| ≤
k!
k=m+1

Par ailleurs, une récurrence immédiate (à partir de la propriété de norme matricielle) montre
que
k k
∀k ≥ 1, A ≤ |||A|||
Remarque : c’est a priori faux pour k = 0 ce qui n’est pas gênant dans cette question puisque la
somme débute à m + 1 ≥ 1.
On en déduit donc que
p
X |||A|||k
|||Sp − Sm ||| ≤
k!
k=m+1

xk /k! converge pour tout réel x (de somme ex ), la suite des sommes partielles de
P
2.b. Comme
P |||A|||k
k! est de Cauchy. D’après l’inégalité précédente, il en est de même de la suite (Sn ).
Comme Mn (C) est complet, on en déduit que cette suite converge.
k
k
A /k! est absolument convergente puisque Ak! ≤ |||A|||
P k
Remarque : plus simplement, et

k!
on conclut encore par complétude.
2.c. A commute avec tout polynôme en A et donc
∀N, ASN = SN A
Les application M 7→ AM et M 7→ M A sont linéaires en dimension et donc continues. Comme
SN → eA , un passage à la limite (N → +∞) donne
AeA = eA A
De même, les sommes étant finies et la transposition linéaire et vérifiant t (Ak ) = (t A)k (récurrence
sur k), on a
N
X (t A)k
∀N, t SN =
k!
k=0

1
t
Quand N → +∞, le membre de droite tend vers e A et, par continuité de la transposition, celui
de gauche tend vers t eA . On a donc
t A t
e =eA

3. On suppose qu’il existe une matrice inversible P et une matrice diagonale D = diag(d1 , . . . , dn )
telles que P −1 AP = D. On a alors

∀k, Ak = (P AP −1 )k = P Dk P −1 = P diag(dk1 , . . . , dkn )P −1

On en déduit (les sommes sont finies) que


N N N
!
X
−1
X dk X dk
SN = P k
D P = P diag 1
,..., n
P −1
k! k!
k=0 k=0 k=0

M 7→ P M P −1 étant continue (linéaire en dimension finie par exemple, mais on peut aussi par
théorèmes généraux), un passage à la limite (N → +∞) donne

eA = P eD P −1 = P diag(ed1 , . . . , edn )P −1

Ainsi, eA est diagonalisable da,s la même base que A et ses valeurs propres sont les exponentielles
de celles de A.

4.a. Comme ci-dessus, on a e0n = diag(e0 , . . . , e0 ) = In . Ainsi,

Φ(0) = In x = x

Par ailleurs, on a
+∞ k
X t
etA = Ak = lim SN (tA)
k! N →+∞
k=0
On voudrait dériver cette relation par rapport à t. On pourra intervertir la dérivation et la
limite si on P montre que la suite (Sn (tA)) converge uniformément sur tout compact ou encore
que la série (tA)k /k! converge normalement sur tout compact (le terme général de la série est
de classe C 1 ). C’est le cas car
k
t (c |||A|||)k
∀t ∈ [−c, c], Ak ≤
k! k!
et le majorant est le terme général d’une série indépendante de t et convergente. On a donc
+∞ k
!
0
X t k+1
Φ (t) = A x = AetA x = AΦ(t)
k!
k=0

On a ainsi montré que Φ est solution de (1).

4.b. Comme on est dans le cadre du théorème de Cauchy-Lipschitz cas linéaire, on sait qu’une solution
de X 0 = AX + f (t) vérifiant X(0) = x est unique. Il suffit que l’on montre que Ψ convient.
Elle vérifie déjà Ψ(0) = x. Par ailleurs, τ 7→ e−τ A f (τ ) étant une application continue (τ 7→ e−τ A
est même de classe C 1 , on vient de le voir), l’application
Z t
G : t 7→ e−τ A f (τ ) dτ
0

est de classe C 1 (primitive de la première fonction). Ainsi, Ψ est de classe C 1 et

Ψ0 (t) = AΨ(t) + etA G0 (t) = AΨ(t) + etA e−tA f (t)

2
On pourra conclure que Ψ est solution de X 0 = AX + f (t) si on montre que eM est inversible
d’inverse e−M . De manière plus générale, on a

∀N, M, si M N = N M, eM eN = eM +N

ce qui donne le résultat voulu en prenant


P k N =P −M .
Preuve de ce résultat : les séries M /k! et N k /k! étant absolument convergente, on peut
utiliser le résultat sur le produit de Cauchy :
 
m k j k−j
X X M N
eM eN = lim  
m→+∞ j! (k − j)!
k=0 j=0

avec M N = N M , on peut utiliser la formule du binôme :


m
X (M + N )k
eM eN = lim = eM +N
m→+∞ k!
k=0

5. Supposons toutes les solutions asymptotiquement stables. Soit λ une valeur propre de A et x
un vecteur propre associé. On a alors Ak = λk x et donc Φ(t) = etA x = eλt x. Comme x n’est
pas nul, la condition “asymptotiquement stable” indique que eλt → 0 quand t → +∞. Ainsi
(ea+ib = ea eib est de module ea ), la partie réelle de λ est < 0.
Supposons, réciproquement, que toutes les valeurs propres de A aient cette propriété. Notons
e1 , . . . , en une base de vecteurs propres et λ1 , . . . , λn les valeurs propres associées. Soit x un
vecteur et x1 , . . . , xn ses coordonnées dans la base (e1 , . . . , en ). On a alors
n
X n
X
Φ(t) = etA x = xi etA ei = xi etλi ei
i=1 i=1

C’est une somme finie de terme de limite nulle en +∞ et Φ est donc de limite nulle en ∞. Ainsi,
toutes les solutions sont asymptotiquement stables.

2 Commandabilité.
6. AT est inclus dans Rn et est non vide (il contient 0 pour lequel le contrôle u = 0 convient puisque
la solution nulle vérifie X 0 = AX et X(0) = 0). Soient x et y des éléments de AT (correspondant
à des contrôles u et v et des solution Φ et Ψ) et λ ∈ R. La fonction Θ = Φ + λΨ vérifie alors
l’équation
X 0 = AX + B(u(t) + λv(t))
et Θ(0) = 0, Θ(T ) = Φ(T ) + λΨ(T ) = x + λy. On a don montré que x + λy ∈ AT (et exhibé un
contrôle correspondant).

7. Soit Φ l’unique solution de X 0 = AX + Bu(t) telle que X(0) = 0. La partie I montre que
Z t
Φ(t) = e tA
e−τ A Bu(τ ) dτ
0

Rappel : si F est un endomorphisme de Rn et g une application continue de [a, b] dans Rn alors


Z t  Z t
F g(τ ) dτ = F (g(τ )) dτ
0 0

3
ce qui découle de la linéarité de l’intégrale.
Ici, avec un formalise matriciel,
Z t
Φ(t) = etA e−τ A Bu(τ ) dτ
0

Comme tA et −τ A commutent, on peut utiliser le résultat prouvé en question 4.b pour écrire
Z t
Φ(t) = e(t−τ )A Bu(τ ) dτ
0

En particulier, on a donc Z T
xT = Φ(T ) = e(T −τ )A Bu(τ ) dτ
0

8.a. Il est évident que


∀k ∈ {0, . . . , n − 1}, Ak ∈ V ect(In , A, . . . , An−1 )
Le théorème de Cayley-Hamilton indique que P = det(A − XIn ) annule A. Soit k ≥ n et
X k = QP + R la division euclidienne de X k par P . On a Ak = R(A) (Z 7→ Z(A) est un
morphisme d’algèbres de R[X] dans Mn (R)). et comme deg(R) ≤ n − 1 (P est de degré n), on
a
Ak ∈ V ect(In , A, . . . , An−1 )
 
Z0
8.b. Soit Z ∈ Rmn ; Z peut s’écrire, par blocs, Z =  ...  avec Zk bloc de taille m. On a alors
 

Zn−1

n−1
X
CZ = (Ai B)Zi
i=0

On a donc, les Zi pouvant être pris quelconques,


n−1
X
Im(C) = Im(Ai B)
i=0

Soit x ∈ AT et u un contrôle correspondant. La question 7 donne


Z T
x= e(T −τ )A Bu(τ ) dτ
0

Par ailleurs, esA est, pour tout réel s, la limite d’une suite d’éléments de V ect(In , A, . . . , An−1 )
(question précédente et définition de esA ). Cet espace étant fermé (il est de dimension finie),
esA en fait encore partie. Il existe donc des fonctions a1 , . . . , an : R → R telle que
n−1
X
∀s, esA = ai (s)Ai
i=0

On a alors
Z T n−1
X n−1
XZ T n−1
X Z T
i i i
x= ai (T −τ )A Bu(τ ) dτ = ai (T −τ )(A B)u(τ ) dτ = AB ai (T −τ )u(τ ) dτ
0 i=0 i=0 0 i=0 0

ce qui montre que x ∈ Im(C).

4
9.a. Soit y ∈ A⊥
T . Posons
t
u(s) = t Be(T −s) A y
On définit alors une fonction continue de R dans Rm . Soit Φ l’unique solution nulle en 0 de
X 0 = AX + Bu(t). On a alors x = Φ(T ) qui est, par définition, dans AT et est donc orthogonal
à y, ce qui s’écrit matriciellement t xy = 0. La question 7 donne
Z T
t
x= e(T −s)A B t Be(T −s) A y ds
0

On en déduit que (la transposée de l’intégrale est l’intégrale de la transposée)


Z T
t
0 =< x|y >= xy = t t
ye(T −s)A B t Be(T −s) A y ds
0

t
9.b. Si on pose M (s) = t Be(T −s) A y (élément de Rm ), on a donc
Z T
t
M (s)M (s) ds = 0
0

Comme s 7→ t M (s)M (s) = kM (s)k2 est positive et continue (et comme T > 0), on a donc

∀s ∈ [0, T ], M (s) = 0

ce que l’on peut encore écrire


 ⊥
∀s ∈ [0, T ], y ∈ Ker(t (e(T −s)A B)) = Im e(T −s)A B

On a ici utilisé la formule de cours Ker(t N ) = Im(N )⊥ qui correspond à Ker(v ∗ ) = Im(v)⊥
pour les endomorphismes. En particulier, pour s = T , on obtient que y est orthogal à tout
élément de Im(B).
t
Plus généralement, en dérivant k fois l’égalité M (s) = 0 (s 7→ e(T −s) A est infiniment dérivable
comme le montre une récurrence aisée) on obtient
t
∀s ∈ [0, T ], t B(−t A)k e(T −s) A y = 0

et on obtient alors (même raisonnement que y est orthogonal à tout élément de Im((−1)k Ak B) =
Im(Ak B). y est alors orthogonal à toute combinaison de tels éléments c’est à dire à tout élément
de Im(C). On a ainsi montré que
A⊥T ⊂ Im(C)

ce qui donne, par passage à l’orthogonal,

Im(C) ⊂ AT

Avec la question 8.b on a donc


Im(C) = AT

9.c. C ne dépendant pas de T , AT est donc indépendant de T .

10.a. Avec la question précédente, la paire (A, B) est commandable si Im(C) = Rn . Comme Im(C) ⊂
Rn , ceci équivaut à rang(C) = n (le seul sous-espace de dimension n de Rn étant Rn lui même).

10.b. Dans ce cas, on a toujours AT 0 = Im(C) = Rn (question 9.c). La commandabilité en temps T


entraı̂ne celle en tout temps T 0 > 0.

5
10.c. Pour tout choix de A, la paire (A, 0) est non commandable puisque Im(C) = {0} (on est dans
le cas d’un système homogène et la seule solution nulle en 0 est la fonction nulle ; on peut donc
seulement atteindre 0).
t
11.a. Pour tout s, N (s) = e(T −s)A B t Be(T −s) A est symétrique de taille n. Il en est donc de même
pour D (la transposée de l’intégrale est l’intégrale de la transposée). Les éléments de Im(D)
sont de la forme Z T
t
z= e(T −s)A B t Be(T −s) A y ds
0
t
Ceci correspond à l’élément de AT associé au contrôle u(s) = t Be(T −s) A y (ce qui définit une
application continue). On a donc bien

Im(D) ⊂ AT

11.b. Soit y ∈ Ker(D). On a alors


Z T
t
e(T −s)A B t Be(T −s) A y ds
0
et on en déduit que Z T
t
t
ye(T −s)A B t Be(T −s) A y ds
0

On est revu à l’égalité de 9.a à partir de laquelle on a vu que y ∈ Im(C)⊥ . Comme Im(C) = AT ,
on a donc y ∈ A⊥ T et l’inclusion
Ker(D) ⊂ A⊥ T

11.c. Ceci découle d’une propriété de cours rappelée en 9.c. Reprouvons là dans le cas particulier
demandé. Soit x ∈ Im(M )⊥ . On a

kM xk2 = t (M x)(M x) = t xM 2 x = (x|M 2 x) = 0

car M 2 x ∈ Im(M ). Ainsi M x = 0 et x ∈ Ker(M ). On a donc

Im(M )⊥ ⊂ Ker(M )

11.d. En passant à l’orthogonal dans la relation de 11.b on a

AT ⊂ Ker(D)⊥

et en passant à l’orthogonal dans la relation de 11.c on a donc

AT ⊂ Im(D)

Avec la question 11.a on conclut que

AT = Im(D)

12.a. (A, B) étant commandable, Im(D) = AT = Rn et D est de rang n. Comme la matrice est carrée
d’ordre n, elle est inversible.

12.b. Soit v le contrôle proposé. Il envoie l’état nul à t = 0 sur l’état yT au temps T avec
Z T
yT = e(T −s)A Bv(s) ds
0

6
Avec la définition de v, on a
t
e(T −s)A Bv(s) = e(T −s)A B t Be(T −s) A D−1 xT

D et xT ne dépendant pas de s, on a donc


Z T 
t
yT = e(T −s)A B t Be(T −s) A ds D−1 xT = DD−1 xT = xT
0

12.c. Soit u un contrôle envoyant l’état nul à t = 0 en xT au temps T . On a donc (question 7)


Z T
e(T −s)A B(u(s) − v(s)) ds = 0
0

En utilisant l’expression de v, on a alors (toujours en utilisant le fait que xT et D sont des


constantes)
Z T Z T Z T
−1
(v(s)|u(s) − v(s)) ds = t
v(s)(u(s) − v(s)) ds = xT D t
e(T −s)A B(u(s) − v(s)) ds = 0
0 0 0

12.d. Si u et v sont deux contrôles convenables, on a donc


Z T Z T
2
kv(s)k ds = (v(s)|u(s)) ds
0 0

Par inégalité de Cauchy-Schwarz dans Rn , on a donc


Z T Z T
kv(s)k2 ds = kv(s)k.ku(s)k ds
0 0

Par inégalité de Cauchy-Schwarz dans l’ensemble des fonctions continues sur [0, T ] muni de
RT
(f, g) 7→ 0 f g, on a alors
s s
Z T Z T Z T
2
kv(s)k ds ≤ kv(s)k2 ds ku(s)k2 ds
0 0 0
qR
T 2
Si 0 kv(s)k ds 6= 0 on obtient l’inégalité voulue en divisant par ce terme. Sinon, l’inégalité
voulue est évidente. On a ainsi
Z T Z T
2
kv(s)k ds ≤ ku(s)k2 ds
0 0

Si il y a égalité, on a ∀s, (u(s)|v(s)) = kv(s)k.ku(s)k (sinon, par continuité, l’intégrale de la


différence est > 0) ce qui montre l’existence de λ(s) ≥ 0 tel que v(s) = λ(s)u(s). Par ailleurs,
on a aussi égalité dans la seconde inégalité de Schwarz et les fonctions s 7→ ku(s)k et s 7→ kv(s)k
doivent être liées ce qui donne λ(s) constant. On a alors, en réinjectant dans la relation de 12.c,
Z T
(λ − 1) kv(s)k2 ds = 0
0

On a alors soit v qui est nulle et alors u = λv l’est aussi, soit λ = 1 et u = v.


Réciproquement, il y a bien égalité pour u = v (c’est le seul cas d’égalité).

7
13.a. Si u = 0, l’équation est homogène. C’est une équation différentielle d’ordre 2 à coefficients
constants d’équation caractéristique

r2 + 2λr + ω02 = 0

Les solutions de cette équation sont λ ± i ω 2 − λ2 . La solution générale de (H) est alors
 p p 
t 7→ eλt c1 cos( ω 2 − λ2 t) + c2 sin( ω 2 − λ2 )

13.b. x est solution de (H) si et seulement si


     
0 1 0 x(t)
X 0 (t) = X(t) + u(t) avec X(t) =
−ω02 −2λ ω02 x0 (t)

13.c. La matrice C la question 8 est ici

ω02
 
0
C=
ω0 −2λω02
2

Cette matrice est de rang 2 (déterminant égal à −ω04 6= 0) et la paire (A, B) est donc command-
able d’après la question 10.

3 Stabilisation par retour d’état.


   
0 1 0
14. On a ici A = et B = et on cherche (c’est suffisant d’après la question
−ω02 −2λ ω02
5) une matrice K telle
 que A + BK soit diagonalisable à valeurs propres de partie réelle < 0.
Posons K = a b . On a alors
 
0 1
A + BK = 2 2
ω0 (a − 1) ω0 b − 2λ
2λ−1 1
Si on choisit b = ω02
et a = 1 − ω02
on a alors
 
0 1
A + BK =
−1 −1

matrice dont le polynôme caractéristique est X 2 + X + 1. Il y a donc deux racines (j et j 2 ) à


partie réelle < 0. Le couple (A, B) est ainsi stabilisable.

15. On s’intéresse ici à l’équation


x00 (t) + ω02 (1 − k)x(t) = 0
et on cherche si on peut choisir k de façon à ce que toutes les solutions soient de limite nulle en
+∞.

- Si k = 1 alors la solution constante égale à 1 donne un contre-exemple.



- Si k > 1, t 7→ e|ω0 | k−1t fournit un contre-exemple.

- Si k < 1, t 7→ cos(ω0 1 − kt) fournit un contre-exemple.

On ne peut trouver un tel scalaire k.

8
16. Supposons (A, B) commandable. La matrice

B AB A2 B . . . An−1 B

C=

est alors de rang n. Soit (Ã, B̃) conjuguée de (A, B) avec P ∈ GLn (R). On a

C̃ = B̃ ÃB̃ Ã2 B̃ . . . Ãn−1 B̃

ce qui donne

P −1 B P −1 AB P −1 A2 B . . . P −1 An−1 B = P −1 C

C̃ =

Multiplier par une matrice inversible ne changeant pas le rang, C̃ est de rang n et (Ã, B̃) est
commandable.
La réciproque s’obtient en changeant P en P −1 .

17.a. La matrice C = B AB A2 B . . . An−1 B est carrée d’ordre n et de rang n. Elle est




donc inversible et ses colonnes, qui ont b, Ab, . . . , An−1 b, forment une base de Rn . Le vecteur
An b pouvant s’exprimer dans cette base, il existe des scalaire a0 , . . . , an−1 tels que

An b = a0 b + · · · + an−1 An−1 b

17.b. On montre par récurrence que


n−1
X
fn−k = Ak b − ai Ai−n+k b
i=n−k

- C’est vrai pour n = 0 (fn = b) et n = 1 (fn−1 = Ab − an−1 b).


- Supposons le résultat vrai au rang k ∈ [0..n − 2]. On a alors
n−1
X
fn−k−1 = Afn−k − an−k−1 fn = Ak+1 b − ai Ai−n+k+1 b − an−k−1 b
i=n−k

n−1
X
= Ak+1 b − ai Ai−n+k+1 b
i=n−k−1

ce qui pouve le résultat au rang k + 1.

En particulier, la matrice de la famille (fn , . . . , f1 ) dans la base (b, Ab, . . . , An−1 b) est triangulaire
supérieure avec des 1 sur la diagonale. Cette matrice est donc inversible et la famille (fn , . . . , f1 )
est une base de Rn .

17.c. Comme Afi = fi−1 + ai−1 fn pour i ≥ 2 et


n−1 n−1
!
X X
n−1 i−1 n
Af1 = A A b− ai A b =A b− ai Ai b = a0 b = a0 fn
i=1 i=1

dans la base (f1 , . . . , fn ), l’endomorphisme canoniquement associé à A est représenté par Ã. Par
définition, les coordonnées de b dans cette base sont (0, . . . , 0, 1). Ainsi, en notant P la matrice
dont les colonnes sont (f1 , . . . , fn ), on a

P −1 AP = Ã et P −1 B = B̃

ce qui montre que (A, B) et (Ã, B̃) sont conjugués.

9
17.d. L’indépendance linéaire de (b, Ab, . . . , An−1 b) indique qu’aucun polynôme non nul de degré ≤
n − 1 n’annule A. Par ailleurs,
n−1
X
P = Xn − ai X i
i=0

annule A (P (A) est nul sur la base (b, Ab, . . . , An−1 b)).
Ce polynôme P est donc générateur de
l’idéal des annulateurs de A (polynôme minimal). Comme le polynôme caractéristique est un
multiple de ce polynôme (Cayley-Hamilton) et est de degré n de coefficient dominant (−1)n , il
vaut (−1)n P . Le polynôme caractéristique de à est le même (invariant de similitude).
Remarque : on peut retrouver aisément cela en faisant un développement par rapport à la dernière
ligne. 
Si K̃ = k0 . . . kn−1 alors
 
0 1 0 ... 0
 .. .. .. 
 . 0 1 . . 
..
 
à + B̃ K̃ =  .. .. 
 . . . 0 
 
 0 0 ... 0 1 
a0 + k0 a1 + k1 . . . an−2 + kn−2 an−1 + kn−1

Le calcul du polynôme caractéristique se déduit de celui de Ã. Il vaut


n−1
!
X
n n i
(−1) X − (ai + ki )X
i=0

On voit que lorsque les ki varient, on peut atteindre tout polynôme F de degré n et de coefficient
dominant (−1)n .

17.e. Si on pose K = K̃ P −1 on a alors

à + B̃ K̃ = P −1 (A + BK)P

et F est son polynôme caractéristique (toujours invariance par similitude).

18. Si (A, B) est commandable on peut ainsi trouver K tel que A + BK soit diagonalisable à valeurs
propres toutes négatives (il suffit de prendre F = (−1)n (X + 1) . . . (X + n) on a alors n valeurs
propres distinctes et la matrice est diagonalisable et ses valeurs propres sont −1, . . . , −n). avec
la partie I, (A, B) est alors stabilisable.

10

You might also like