You are on page 1of 28

TD dconomie Julien Grenet

cole Normale Suprieure


Anne 2007-2008

Vade mecum : Optimisation statique.


Lagrangien et conditions de Kuhn et Tucker
Ce vade mecum expose la mthode de rsolution des programmes doptimisation statique (par opposition aux programmes doptimisation dynamique qui ne seront pas abords ici) dans le cas dune fonction objectif multivarie. Les sections 1 et 2 donnent un
certain nombre de dfinitions prliminaines. Les sections suivantes exposent les mthodes
de rsolution des quatre grandes catgories de programmes doptimisation : optimisation
sans contraintes (section 3), optimisation sous contraintes prenant la forme dquations
(section 4), optimisation sous contraintes prenant la forme dinquations (section 5) et
optimisation sous contraintes prenant la forme dinquations incluant des contraintes de
non-ngativit (section 6).

Prambule

1.1

Dfinitions prliminaires

Soit f : U R une fonction de n variables (x1 , x2 , ..., xn ) valeurs relles dont lensemble de dfinition U constitue un sous-ensemble de Rn . On supposera toujours que f
est continue et deux fois diffrentiable.
f (x1 ,x2 ,...,xn)
);
xi
2 f (x1 ,x2 ,...,xn)
)
xi xj

On note fi la drive partielle de f par rapport xi (fi =


la drive croise de f par rapport xi et xj (fij =

on note fij

Dterminant dune matrice : Le dterminant dune matrice est dfini par induction :
Une matrice (1,1) est juste un scalaire
a. Le dterminant de cette matrice est gal a.
!
a b
a b


Matrice (2,2) : soit M =
. Le dterminant de M scrit
= ad bc.
c d
c d

a11 a12 a1n

a21 a22 a2n

Matrice (n, n) : soit M = .


..
..
..
Pour calculer le dterminant de M ,
.
..
.
.
an1 an2 ann
il suffit dutiliser la mthode dite du dveloppement selon la premire ligne :

1. on associe chaque coefficient a1i de la premire ligne de la matrice M un signe +


si i est impair et un signe - si i est pair.
2. Le dterminant de M peut scrire comme la somme des n dterminants dordre
n 1 obtenus en liminant de la matrice M la ligne et la colonne contenant le
coefficient a1i . Chacun de ces dterminants est multipli par (1)1+i a1i

a b c

Exemple : soit M = d e f . Le dterminant de la matrice M scrit :


g h i


a b c



e



= d e f = a


h
g h i

det(M )

f
i






d f
d e




b
+c

g i
g h

= a(ei f h) b(di f g) + c(dh eg)

Mineurs principaux dune matrice : Soit M une matrice carr symtrique de dimension (n, n). Un mineur principal dordre k est le dterminant de la sous-matrice de M
dordre k obtenue en supprimant n k lignes et les n k colonnes correspondantes dans
M.

a11 a12 a13

Exemple : soit M = a21 a22 a23 .


a31 a32 a33
Les trois mineurs principaux dordre 1 de M sont a11 , a22 et a 33 .
a
a a
a

Les trois mineurs principaux dordre 2 de M sont : 22 23 11 13
a32 a33 a31 a33

a
11

Le mineur principal dordre 3 de M est : a21

a31

a12 a13
a22 a23
a32 a33


a
11
et
a21

a12
a32

Mineurs principaux diagonaux dune matrice : Soit M une matrice carr symtrique de dimension (n, n). Le mineur principal diagonal dordre k (not Dk ) de la matrice
M est le dterminant de la matrice de taille (k, k) obtenue en liminant les n k dernires
lignes et n k dernires colonnes de la matrice M . Une matrice carr dordre n admet n
mineurs principaux diagonaux.

N.B. : Le mineur principal diagonal dordre k dune matrice est lun de ses mineurs
principaux dordre k.

a11 a12 a13

Exemple : soit M = a21 a22 a23 .


a31 a32 a33
Le mineur principal diagonal dordre 1 de M
est a11 .
a
a

Le mineur principal diagonal dordre 2 est 11 12 ;
a21 a22

a
11

le mineur principal diagonal dordre 3 est a21

a31

a12 a13
a22 a23
a32 a33

Matrice hessienne : On appelle matrice hessienne H(x1 , x2 , ..., xn ) de f la matrice des


drives secondes de f values au point (x1 , x2 , ..., xn ) :

H(x1 , x2 , ..., xn ) =

f11

f21
..
.

f12

f12

..
..
.
.

fn2

fn1

f1n

f2n
..
.

fnn

(i, j), la matrice hessienne de f est une matrice symtrique d ordre n.


Comme fij = fji

Matrice hessienne borde : On appelle matrice hessienne borde H(x1 , x2 , ..., xn ) de


f la matrice des drives secondes de f , borde par la matrice des drives premires de f :

H(x1 , x2 , ..., xn ) =

0
f1
f2
..
.

f1

f11

f21
..
.

fn fn1

f2

f12

f12
..
..
.
.

fn2

fn

f1n

f2n
..
.

fnn

La matrice hessienne borde de f est une matrice symtrique carre dordre n + 1.


Matrice jacobienne : soit G = (g1 , g2 , ..., gm ) une fonction dfinie de Rn dans Rm .
e = (x1 , x2 , ..., xn ), la fonction G associe le vecteur de fonctions
A tout vecteur x
e), g2 (x
e), ..., gm (x
e)). On appelle matrice jacobienne de G la matrice de dimension (m, n)
(g1 (x
JG (x1 , x2 , ...xn ) des drives partielles des m fonctions qui composent G :

JG (x1 , x2 , ..., xn ) =

1.2

g1
e
x1 (x)
g2
e)
(
x
x1

..
.

gm
e
x1 (x)

g1
e
x2 (x)
g2
e)
(
x
x2

..
.

..
.
g1
e
x2 (x)

g1
e
xn (x)
g2
e)
(
x
xn

..
.

gm
e
xn (x)

Matrices (semi) dfinies ngatives, matrice (semi) dfinies positives

Matrice dfinie positive : Soit M une matrice carre symtrique. Soit A un vecteur
colonne quelconque. On note A sa transpose. M est dite dfinie positive si et seulement
si :
A M A > 0 A 6= 0
N.B. :

Les lments diagonaux aii dune matrice dfinie positive sont tous > 0.

Matrice semi-dfinie positive : Soit M une matrice carre symtrique. Soit A un vecteur colonne quelconque. On note A sa transpose. Une matrice M est dite semi-dfinie
positive si et seulement si :
A M A > 0 A
3

N.B. :

Les lments diagonaux aii dune matrice semi-dfinie positive sont tous 0.

Matrice dfinie ngative : Soit M une matrice carre symtrique. Soit A un vecteur
colonne quelconque. On note A sa transpose. M est dite dfinie ngative si et seulement
si :
A M A < 0 A 6= 0
N.B. :

Les lments diagonaux aii dune matrice dfinie ngative sont tous < 0.

Matrice semi-dfinie ngative : Soit M une matrice carre symtrique. Soit A un vecteur colonne quelconque. On note A sa transpose. M est dite semi-dfinie ngative si et
seulement si :
A M A 6 0 A
N.B. :

Les lments diagonaux aii dune matrice semi-dfinie ngative sont tous 0.

Caractrisation : Soit M une matrice carre symtrique dordre n.


M dfinie positive ses n mineurs principaux diagonaux Dk sont > 0.
M semi-dfinie positive tous ses mineurs diagonaux (et pas seulement diagonaux !)
Dk sont > 0.
M dfinie ngative ses n mineurs principaux diagonaux Dk sont alternativement < 0
(k impair) et > 0 (k pair).
M semi-dfinie ngative tous ses mineurs principaux Dk (et pas seulement diagonaux !) sont alternativement 6 0 (k impair) et > 0 (k pair).

1.3

Ensembles convexes

Ensemble convexe : Un ensemble S de Rn est convexe ssi, (x, y) S 2 :


(1 )x + y S, [0, 1]
Intuitivement, un ensemble convexe est tel que tout segment reliant deux points de cet
ensemble se trouve lintrieur de lensemble. La figure 1 donne un exemple densemble
convexe et un exemple densemble non convexe.

Ensemble strictement convexe : Un ensemble S de Rn est strictement convexe ssi,


(x, y) S 2 :
(1 )x + y intrieurS, ]0, 1[
N.B. :

La notion d ensemble concave nexiste pas.

1.4

Fonctions concaves, fonctions convexes

Soit f une fonction de plusieurs variables dfinie sur un ensemble convexe S.


Fonction concave : f est concave sur S ssi, (x, y) S 2 et [0, 1], on a :


f (1 )x + y > (1 )f (x) + f (y)


f est strictement concave sur S ssi :

f (1 )x + y > (1 )f (x) + f (y)


Autrement dit, une fonction f est concave ssi le segment reliant tout couple de points
situs sur la surface dfinie par f est situ au-dessous de cette surface.
La figure 2 donne un exemple de fonction strictement concave dans le cas une seule
variable.
La figure 3 donne un exemple de fonction strictement concave dans le cas 2 variables.

Fonction convexe : f est convexe sur S ssi, (x, y) S 2 et [0, 1], on a :




f (1 )x + y 6 (1 )f (x) + f (y)
f est strictement convexe sur S ssi :

f (1 )x + y < (1 )f (x) + f (y)


Autrement dit, une fonction f est convexe si le segment reliant tout couple de points
situs sur la surface dfinie par f est situ au-dessus de cette surface.
La figure 4 donne un exemple de fonction strictement concave dans le cas 1 variable.
La figure 5 donne un exemple de fonction strictement strictement convexe dans le cas
2 variables.
N.B. : Il est important de ne pas confondre la notion densemble convexe avec celle de
fonction convexe.
Proprits importantes :
f concave f convexe
Si f et g sont des fonctions concaves (resp. convexes), alors (a, b) R2+ , (a.f + b.g) est
une fonction concave (resp. convexe).
Si f est une fonction concave et g est une fonction croissante et concave, alors la fonction
g f (x) est concave.
Si f est une fonction convexe et g est une fonction croissante et convexe, alors la fonction
g f (x) est convexe.
Une fonction affine est la fois concave et convexe.
5

Figure 1: Exemples dun ensemble convexe S et dun ensemble non convexe S .


Ensemble convexe S
Ensemble non convexe S

Figure 2: Fonction (strictement) concave f (x) = 10 x2 .


f x
10

x
-3

-2

-1

Figure 3: Fonction (strictement) concave f (x, y) = 6 (x 2)2 (y 2)2 . Reprsentation


en 3 dimensions et courbes de niveaux.
Reprsentation en 3D

Courbes de niveau
4

2.

4
3

1
1

5.

1.

y 2

6
4
2 f x,y 
0
-2

2
x

3.
5.
4.

0
0

00

3
x

Figure 4: Fonction (strictement) convexe f (x) = x2 .


f x 

x
-3

-2

-1

Figure 5: Fonction (strictement) convexe f (x, y) = (x 2)2 + (y 2)2 . Reprsentation


en 3 dimensions et courbes de niveaux.
Reprsentation en 3D

Courbes de niveau
4

2.

f x,y 

4
3
y

5.

0
1.

6
4

2
1

3.

5.

4.

0
0

00

3
x

Caractrisation pour les fonctions une seule variable :


f concave f (x) 6 0 x R.
f (x) < 0 x R f strictement concave (attention : la rciproque nest pas ncessairement vraie).
f convexe f (x) > 0 x R.
f (x) > 0 x R f strictement convexe (attention : la rciproque nest pas ncessairement vraie).
Caractrisation pour les fonctions plusieurs variables :
e Rn .
f concave la matrice hessienne de f est semi-dfinie ngative x
n
la matrice hessienne de f est dfinie ngative x R f strictement concave (attention : la rciproque nest pas ncessairement vraie).
f concave la matrice hessienne de f est semi-dfinie positive x Rn .
la matrice hessienne de f est dfinie ngative x Rn f strictement convexe (attention : la rciproque nest pas ncessairement vraie).
Exemple : Montrer que la fonction f (x, y, z) = x2 + 2y 2 + 3z 2 + 2xy + 2xz est
strictement convexe.
Solution : Soit H La matrice hessienne de f . Elle scrit :

fxx
fxy
fxz
2 2 2

H(x, y, z) = fyx fyy fyz = 2 4 0

2 0 6
fzx
fzy
fzz

Noter quici, la matrice hessienne est indpendante de ses arguments x, y et z (ce nest
pas toujours le cas). Les mineurs principaux diagonaux de H sont D1 = 2 > 0, D2 =
4 > 0 et D3 = 8 > 0, donc H est dfinie positive, donc f est strictement convexe.

1.5

Fonctions quasi-concaves, fonctions quasi-convexes

Fonctions quasi-concaves : Une fonction valeurs relles f dfinie sur Rn est dite
quasi-concave ssi ses contours suprieurs forment des ensembles convexes, c.--d. ssi lene Rn : f (x
e) > c} est convexe pour toutes les valeurs de c.
semble P = {x

Une telle dfinition ne donne pas une reprsentation trs intuitive de la notion de
quasi-concavit dune fonction. Pour se faire une ide de ce que recouvre ce concept, il est
important davoir en tte un ou deux exemples de fonctions quasi-concaves.
Dans le cas une variable, on pensera la fonction f reprsente la figure 6. Elle
nest clairement pas convexe, puisquon peut trouver deux points de cette fonction unis par
un segment passant au-dessus de la courbe. En revanche, cest une fonction quasi-concave,
car lensemble des valeurs x telles que f (x) > c est un ensemble convexe. Cet ensemble
correspond en effet au segment en gras sur le graphique. Quelle que soit la valeur de c, ce
segment est est constitu dun seul tenant.
A linverse, la fonction f une variable reprsente la figure 7 nest pas quasi-concave
car ses contours suprieurs ne sont pas convexes.

Figure 6: Fonction (strictement) quasi-concave f (x, y) = exp (x2 ). La fonction est quasi
concave car lensemble des valeurs x telles que f (x) > c est un ensemble (ici un segment)
(strictement) convexe.
f x
1

0.8

0.6

0.4

0.2

x
-3

-2

-1

Figure 7: Fonction qui nest pas quasi-concave car lensemble des valeurs x telles que
f (x) > c est un ensemble (constitu ici de la runion de deux segments) non convexe.
f
x
1

0.8

0.6

0.4

0.2

x
-3

-2

-1

Dans le cas 2 variables, on pensera la fonction reprsente la figure 8. La surface


dessine par cette fonction est en cloche , cest--dire que ses bords sont convexes. Bien
que cette fonction ne soit pas convexe, lensemble de ses contours suprieurs forment des
ensembles convexes, comme on peut le voir sur le graphique de ses courbes de niveaux
(qui dlimitent ses contours suprieurs).


Figure 8: Fonction (strictement) quasi-concave f (x, y) = exp (x 2)2 (y 2)2 . Reprsentation en 3 dimensions et courbes de niveau.
Reprsentation de la fonction en 3D

Courbes de niveau
3.5

0.1

4
3

2.5
2

0.3 0.5

0.4 0.2

1
0.75
0.5 f x,y
0.25
0

1.5
1

y 2
1
1

0.5

2
x

0
0

00

0.5

1.5

2.5

3.5

Fonctions strictement quasi-concaves : Une fonction valeurs relles f dfinie sur


Rn est dite strictement quasi-concave si ses contours suprieurs forment des ensembles
strictement convexes, i.e. si lensemble P = {x Rn : f (x) > c} est strictement convexe
pour toutes les valeurs de c.
Dans le cas une seule variable, une fonction ne sera strictement quasi-concave que si
sa courbe ne comporte aucune section horizontale.
Dans le cas deux variables, une fonction quasi-concave ne sera strictement quasiconcave que si ses contours suprieurs ne prsentent pas de sections horizontales et si la
fonction ne comporte pas de replats (qui se traduisent par des courbes dindiffrences
paisses ) (cf. figure 9).
Fonctions quasi-convexes : Une fonction valeurs relles f dfinie sur Rn est dite
quasi-convexe si ses contours infrieurs forment des ensembles convexes, c.--d. si lensemble P = {x Rn : f (x) 6 c} est convexe pour toutes les valeurs de c.
Fonctions strictement quasi-convexes : Une fonction f dfinie sur Rn est dite strictement quasi-convexe si ses contours infrieurs forment des ensembles strictement convexes,
i.e. si lensemble P = {x Rn : f (x) 6 c} est strictement convexe pour toutes les valeurs
de c.
10

Figure 9: Courbes dindiffrence de fonctions quasi-concaves, mais pas strictement quasiconcaves


Contre-exemple 1

Contre-exemple 2

La figure 10 montre le graphique dune fonction quasi-convexe dans le cas une seule
variable. Bien que cette fonction ne soit pas convexe, ses contours infrieurs sont convexes.
Elle est donc bien quasi-convexe.

Figure 10: Fonction (strictement) quasi-convexe f (x, y) = 1 exp (x2 ). La fonction est
quasi-concave car lensemble des valeurs x telles que f (x) 6 c est un ensemble (ici un
segment) convexe.
f x 
1

0.8

0.6

0.4

0.2

x
-3

-2

-1

La figure 11 montre la reprsentation en 3 dimensions et les courbes de niveaux dune


fonction deux variables strictement quasi-convexe : bien que les bords de la fonction
soient concaves, ses contours infrieurs sont strictement convexes.

11

Figure 11: Fonction (strictement) quasi-convexe f (x, y) = 1exp (x 2)2 (y 2)2 .


Reprsentation en 3 dimensions et courbes de niveau.
Reprsentation en 3D

Courbes de niveau
3.5

0.9

1
2.5

0.75
f x,y 

4
3
y

0.7 0.5

0.6 0.8

0.5
0.25

1.5

0
1

2
2

0.5

1
1

x
0
0

00

0.5

1.5

2.5

3.5

Proprits importantes :
f concave (resp. convexe) f quasi-concave (resp. quasi-convexe) (attention : la rciproque nest pas vraie).
f quasi-concave (f ) quasi-convexe.
La somme de deux fonctions quasi-concaves (resp. quasi-convexes) nest pas ncessairement une fonction quasi-concave (resp. quasi-convexe).
Toute transformation monotone dune fonction concave (resp. convexe) est une fonction
quasi-concave (resp. quasi-convexe) : si f est une fonction
concave (resp. convexe) et

g est une fonction monotone, alors la fonction g f (x) est quasi concave (resp. quasiconvexe).
Caractrisation :
f quasi-concave les mineurs principaux diagonaux Dk de la matrice hessienne borde
de f alternent en signe partir de k = 3, avec Dk > 0 pour k impair et Dk 6 0 (k pair)
e Rn (attention : la rciproque nest pas ncessairement vraie).
x
Les mineurs principaux diagonaux Dk de la matrice hessienne borde de f alternent en
e Rn f
signe partir de k = 2, avec Dk > 0 pour k impair et Dk < 0 (k pair) x
quasi-concave.
f quasi-convexe les mineurs principaux diagonaux Dk de la matrice hessienne borde
e Rn (attention : la rciproque nest pas
de f sont tous 6 0 partir de k = 3 x
ncessairement vraie).
Les mineurs principaux diagonaux Dk de la matrice hessienne borde de f sont tous < 0
e Rn f quasi-convexe.
partir de k = 2 x
Exemple : Trouver une condition suffisante sur x et y permettant daffirmer que la
fonction f (xy) = xy est quasi-concave.

12

Solution : Soit H La matrice hessienne borde de f . Elle scrit :

0 fx
fy
0 y x

H(x, y) = fx fxx fxy = y 0 1

x 1 0
fy fxy
fyy

Le mineur diagonal principal dordre 3 de H est D3 = 2xy. Une condition suffisante


pour que f soit quasi-concave est que D3 > 0. Ce sera le cas en particulier si x > 0 et
y > 0.

13

Gnralits sur loptimisation

2.1

Notations

Un programme doptimisation scrit typiquement sous la forme (avec s.c. pour sous
contraintes ) :


max
f (x1 , x2 , ..., xn )

P x1 ,x2,...,xn

s.c.
contrainte(j) j = 1, ..., m
sil sagit dun programme de maximisation sous contraintes et sous la forme :

min


P x1 ,x2 ,...,xn

s.c.

f (x1 , x2 , ..., xn )
contrainte(j) j = 1, ..., m

sil sagit dun programme de minimisation sous contraintes.


La fonction f est appele fonction objectif. Le programme consiste chercher les valeurs (x1 , x2 , ..., xn ) pour laquelle la valeur de cette fonction est maximale (ou minimale)
sous les contraintes. On appelle Optimum la solution dun programme doptimisation : il
sagit soit dun maximum, soit dun minimum.
Les contraintes peuvent prendre plusieurs formes distinctes :
contraintes en quations : gj (x1 , x2 , ..., xn ) = cj j = 1, ..., m
contraintes en inquations : gj (x1 , x2 , ..., xn ) 6 cj j = 1, ..., m
contraintes de non-ngativit : xi > 0 i = 1, ..., n

2.2

Dfinitions

Maximum, minimum :
e qui rsout le programme P est un maximum de la fonction f sous les
La valeur x
contraintes du programme.
e qui rsout le programme P est un minimum de la fonction f sous les
La valeur x
contraintes du programme.
Optimum local :
La variable x est un maximum local dune fonction f dfinie sur lensemble convexe S
> 0 tel que f (x) 6 f (x ) x S et |x x | 6
La variable x est un minimum local dune fonction f dfinie sur lensemble convexe S
> 0 tel que f (x) > f (x ) x S et |x x | 6

Optimum global :
La variable x est un maximum global dune fonction f dfinie sur lensemble convexe
S f (x) 6 f (x ) x S
La variable x est un minimum global dune fonction f dfinie sur lensemble convexe
S f (x) > f (x ) x S
La figure 12 montre le graphique dune fonction f comportant un maximum local et
un maximum global.
14

Figure 12: Fonction f admettant un maximum local en x et un maximum global en x


sur lensemble de son domaine de dfinition.

2.3

Remarques

Transformation de la fonction objectif : Soit g une fonction une seule variable


strictement croissante. Alors lensemble des solutions du programme P :

max

P ex
s.c.

e)
f (x

contraintes

est identique lensemble des solutions du programme P :



max

P ex
s.c.

e))
g (f (x

contraintes

Transformation des programmes de minimisation : tout programme de minimisation peut aisment tre transform en programme de maximisation en remplaant la fonction objectif f par son oppose f :

min
e
x
s.c.


max

ex
s.c.
contraintes
e)
f (x

e)
f (x

contraintes

N.B. : Dans les sections qui suivent, on crira tous les programmes doptimisation
comme des programmes de maximisation sous contraintes. On prcisera, en cas de besoin, comment adapter la mthode de rsolution au cas des programmes de minimisation
sous contraintes.

15

Conditions ncessaires et suffisantes dexistence dun optimum :


e dun programme doptimisation quelconque, on distingue traPour trouver la solution x
ditionnellement deux types de conditions :
Les conditions du premier ordre (CPO) sont les conditions ncessaires que doit
vrifier un optimum, sil existe. Ces conditions scrivent comme un systme dquations
e .
ou dinquations dont la rsolution permet de trouver x
Les conditions du second ordre (CSO) garantissent que les conditions du premier
e soit bien la solution du programme doptimisation.
ordre sont suffisantes pour que x

Optimisation sans contraintes

3.1

Cas dune fonction une seule variable

On commence par envisager le cas dune fonction f une seule variable que lon maximise sans contrainte.
On considre le programme de maximisation P suivant :
P : max f (x)
x

Condition du premier ordre : si x est une solution du programme de maximisation


P, alors x vrifie :
f (x ) = 0
Conditions du second ordre pour un optimum local : Supposons quil existe un
x qui vrifie la CPO. Alors :
x est un maximum local f (x ) 6 0
f (x ) < 0 x est un maximum local
x est un minimum local f (x ) > 0
f (x ) > 0 x est un minimum local
Conditions suffisantes du second ordre pour un optimum global : Supposons
quil existe un x qui vrifie la CPO. Alors :
f (x) 6 0 x (f est concave) x est un maximum global
f (x) > 0 x (f est convexe) x est un minimum global
Exemple : Trouver le maximum global du programme de maximisation P :
P : max f (x) = (x 2)2
x

Solution :
CPO : x est une solution du programme P f (x ) = 0, soit 2(x 2) = 0 x = 2
CSO : f (x) = 2 < 0 x, donc x est un maximum global
Ccl : x = 2 est le maximum global de f .
16

3.2

Cas dune fonction plusieurs variables

Soit une fonction f n variables.


On considre le programme de maximisation P suivant :
P:

max

x1 ,x2 ,...,xn

f (x1 , x2 , ..., xn )

e = (x1 , x2 , ..., xn ) est une solution du programme


Conditions du premier ordre : Si x

e vrifie :
de maximisation P, alors x
e )
f (x
= 0 i = 1, ..., n
xi

Conditions du second ordre pour un optimum local : Supposons quil existe un


e qui vrifie les CPO. Alors :
x
e ) est dfinie ngative x
e est un maximum local
H(x

e est un maximum local H(x


e ) est semi-dfinie ngative
x
e ) est dfinie positive x
e est un minimum local
H(x

e est un minimum local H(x


e ) est semi-dfinie positive
x
e ) dsigne la matrice hessienne de f value au point x
e .
o H(x
Conditions suffisantes du second ordre pour un optimum global : Supposons
e qui vrifie les CPO. Alors :
quil existe un x
e est un maximum global
H(ze) est semi-dfinie ngative ze (f est concave) x
e est un minimum global
H(ze) est semi-dfinie positive ze (f est convexe) x
o H(ze) dsigne la matrice hessienne de f value au point ze.
Exemple : Rsoudre le programme de maximisation P :

P : max f (x, y) = 3xy x3 y 3


x,y

Solution :
CPO : Si (x , y ) est une solution du programme P alors :
fx (x , y ) = 0 3(y ) 3(x )2 = 0
fy (x , y ) = 0 3(x ) 3(y )2 = 0
(x , y ) est donc tel que x = (y )2 = (x )4 . Il y a deux solutions possibles : (0, 0) et (1, 1).
CSO : la matrice hessienne de f value en tout point (x, y) scrit :
6x
3
3
6y

H(x, y) =
on a donc :
H(0, 0) =

0 3
3 0

et

17

H(1, 1) =

6 3
3 6

Les mineurs principaux diagonaux de H(0, 0) sont D1 = 0 et D2 = 9, donc H(0, 0)


nest pas semi-dfinie ngative, donc (0, 0) nest pas un maximum local de f .
Les mineurs principaux diagonaux de H(1, 1) sont D1 = 1 et D2 = 27, donc H(1, 1)
est dfinie ngative, donc (1,1) est un maximum local de f .
Par ailleurs, comme H(0, 0) nest pas semi-dfinie ngative, H(x, y) nest pas
semi-dfinie ngative pour tout (x, y). Les conditions du second ordre ne permettent
donc pas de conclure que (1, 1) est un maximum global. En fait, on peut montrer que
ce nest pas le cas : f (1, 1) = 1, mais f (1, 1) = 5 (par exemple).
Ccl : (x , y ) = (1, 1) est un maximum local, mais pas un maximum global de f .

Optimisation sous contraintes prenant la forme dquations : le Lagrangien

On envisage maintenant loptimisation dune fonction f n variables sous m contraintes


de la forme : gj (x1 , x2 , ..., xn ) = cj , j = 1, ..., m

4.1

Cas une seule contrainte

On considre le programme de maximisation P suivant :



max

P ex
s.c.

e)
f (x

e) = c
g(x

Lagrangien : On appelle Lagrangien, not L, la fonction suivante :


e, ) = f (x
e) (g(x
e) c)
L(x

o la variable est appele multiplicateur de Lagrange associ la contrainte.


Conditions de qualification de la contrainte : Pour pouvoir utiliser le Lagrangien
dans la rsolution dun programme doptimisation sous une contrainte en quation, il
suffit que lune des conditions suivantes soit vrifie :
e ne sont pas
(a) Les drives partielles de la fonction contrainte g values loptimum x
g
e ) 6= 0 pour au moins un xi , i = 1, ..., n.
simultanment nulles, c.--d. x
(x
i
(b) La fonction contrainte g est linaire.
N.B. : Les conditions de qualification des contraintes garantissennt simplement quil ny
a pas de contraintes potentiellement contradictoires.
Conditions du premier ordre : On suppose que la contrainte de qualification est ve = (x1 , x2 , ..., xn ) est une solution du programme de maximisation
rifie. Si le vecteur x
e vrifie les n + 1 conditions suivantes :
P, alors il existe un unique tel que x

e , )
L(x

=0

e )
e )
f (x
g(x
.
=0
xi
xi

xi
e , )

L(
x

e ) = c
= 0 g(x

18

i = 1, ..., n

Matrice hessienne borde du Lagrangien dans le cas une seule contrainte :


e la matrice
On appelle matrice hessienne borde du Lagrangien H L value au point x
des drives partielles secondes de L par rapport xi borde par les drives partielles
premires de la fonction contrainte g :

g
x1
g
x2

g
x1
2L
x21
2L
x1 x2

g
x2
2L
x1 x2
2L
x22

g
xn

2L
x1 xn

2L
x2 xn

e) =
H L (x

..
.

..
.

..
.

..
.

g
xn
2L
x1 xn
2L
x2 xn

..
.

2L
x2n

H L est une matrice symtrique dordre n + 1.


Conditions suffisantes du second ordre pour un optimum local : Supposons
e qui vrifie les CPO.
quil existe un x
Les n 1 derniers mineurs principaux diagonaux de la matrice hessienne borde du
e , ) value loptimum sont alternativement > 0 et < 0, le dernier
Lagrangien HL (x
e est un maximum local.
dentre eux (Dn+1 ) tant de mme signe que (1)n x
Les n 1 derniers mineurs principaux diagonaux de la matrice hessienne borde du
e , ) value loptimum sont tous tous < 0 x
e est un minimum
Lagrangien HL (x
local.
Conditions suffisantes du second ordre pour un optimum global : Supposons
e qui vrifie les CPO. Alors :
quil existe un x
Le Lagrangien L est une fonction concave (ce qui est est le cas en particulier si f est
e est un maximum global.
concave et si g est convexe) x
Le Lagrangien L est une fonction convexe (ce qui est est le cas en particulier si f est
e est un minimum global.
convexe et g est concave) x
Exemple : Rsoudre le programme de maximisation P :

Solution :


max

P x,y
s.c.

f (x, y) = xy
x+y =6

Le Lagrangien associ ce programme scrit :


L(x, y, ) = xy (x + y 6)
Condition de qualification de la contrainte : Soit g(x, y) = x + y 6 et soit
(x , y ) une solution du programme. La condition de qualification de la contrainte sera
vrifie si gx (x , y ) 6= 0 et gy (x , y ) 6= 0. Il faudra le vrifier quand on connatra (x , y ).
CPO : Si (x , y ) est une solution du programme P, alors :
L
x
L
y
L

=0
y = 0
=0
x = 0
= 0 x + y 6 = 0
19

Lunique solution de ce systme de 3 quations 3 inconnues est (x , y , ) = (3, 3, 3).


Cette solution vrifie la condition de qualification de la contrainte puisque
gx (3, 3) = 1 6= 0 et gy (3, 3) = 1 6= 0.
CSO : La matrice hessienne borde du Lagrangien scrit, pour tout (x, y) :

0 gx
gy
0 1 1

= 1 0 1
H L (x, y) = gx fxx fxy

1 1 0
gy fxy fyy

Le mineur principal dordre 3 de cette matrice value en (3, 3) est gal 2 > 0. Il
est donc du mme signe que (1)n , puisque n = 2. Par consquent, le point (3, 3) est
un maximum local. En revanche, la fonction f ntant pas concave (elle est seulement
quasi-concave), la condition suffisante pour que (x , y ) soit un maximum global nest
pas vrifie.
Cc : Le programme P admet un maximum local en (3, 3).

4.2

Cas m contraintes

Le programme prcdent se gnralise aisment au cas m contraintes.


e = (x1 , x2 , ...xn )) :
On considre le programme de maximisation P suivant (o x

max

P ex
s.c.

e)
f (x

e) = cj
gj (x

j = 1, ..., m

Lagrangien : On appelle Lagrangien, not L, la fonction suivante :


e = f (x
e, )
e)
L(x

m
X

j=1

e) cj )
j (gj (x

o les variables j sont appeles multiplicateurs de Lagrange associs aux j contraintes et


e = (1 , 2 , ..., n ).

Conditions de qualification des contraintes : Pour pouvoir utiliser le Lagrangien


dans la rsolution dun programme doptimisation sous plusieurs contraintes en quations,
il suffit que lune des conditions suivantes soit vrifie :
(a) La matrice jacobienne des fonctions contraintes gj , j = 1, ..., m, note JG et de
f .
taille (m, n) est de rang m lorsquelle est value loptimum x
(b) Les fonctions contraintes gj sont toutes linaires.
N.B. : il existe dautres proprits (non indiques ici) portant sur les fonctions contraintes
qui permettent de garantir que la condition de qualification de la contrainte est vrifie.

20

Conditions du premier ordre : On suppose que la contrainte de qualification est ve = (x1 , x2 , ..., xn ) est une solution du programme de maximisation
rifie. Si le vecteur x
f tel que x
e vrifie les n + m conditions suivantes :
P, alors il existe un unique vecteur

e )
e ,

L(x

=0

xi
f )

e ,

L(x

=0

m
e ) X
e )
f (x
gj (x

j .
=0
xi
xi
j=1

i = 1, ..., n

e ) = cj
gj (x

j = 1, ..., m

Matrice hessienne borde du Lagrangien dans le cas m contraintes : On appelle matrice hessienne borde du Lagrangien H L dans le cas m contraintes la matrice
hessienne du Lagrangien (drives partielles secondes de L par rapport xi borde par les
e:
drives partielles premires des m fonctions contraintes gj , value au point x

e) =
H L (x

0
0
..
.

0
0
..
.

..
.

0
0
..
.

g1
x1
g2
x1

g1
x2
g2
x2

..
.

g1
xn
g2
xn

g1
x1
g1
x2

g2
x1
g2
x2

gm
x1
gm
x2

gm
x1
2L
x21
2L
x1 x2

gm
x2
2L
x1 x2
2L
x22

gm
xn
2L
x1 xn
2L
x2 xn

g1
xn

g1
xn

gm
xn

2L
x1 xn

2L
x2 xn

..
.

..
.

..
.

..
.

..
.

..
.

..
.

..
.

H L est une matrice symtrique dordre m + n.

..
.

..
.

..
.

2L
x2n

Conditions suffisantes du second ordre pour un optimum local : Supposons


e qui vrifie les CPO.
quil existe un x
Les n m derniers mineurs principaux diagonaux de la matrice hessienne borde du
e ) value loptimum sont alternativement > 0 et < 0, le dernier
e ,
Lagrangien HL (x
e est un maximum local.
dentre eux (Dm+n ) tant de mme signe que (1)n x
Les n m mineurs principaux diagonaux de la matrice hessienne borde du Lagrangien
e ) value loptimum sont tous strictement du mme signe que (1)m x
e ,
e
HL (x
est un minimum local.
Conditions suffisantes du second ordre pour un optimum global : Supposons
e qui vrifie les CPO.
quil existe un x
Si le Lagrangien L est une fonction concave (ce qui est est le cas en particulier si f est
e est un maximum global.
concave et les j gj sont convexes j = 1, ..., m) x
Si le Lagrangien L est une fonction convexe (ce qui est est le cas en particulier si f est
e est un minimum global.
convexe et les j gj sont concaves j = 1, ..., m) x
Exemple : Rsoudre le programme de maximisation P :

max
x,y

P s.c.

x2 + y 2 + z 2
x + 2y + z = 1
2x y 3z = 4
21

Solution :
Le Lagrangien associ ce programme scrit :
L(x, y, z, 1 , 2 ) = x2 + y 2 + z 2 1 (x + 2y + z 1) 2 (2x y 3z 4)
Condition de qualification des contraintes : Soient g1 (x, y, z) = x + 2y + z 1 et
g2 (x, y, z) = 2x y 3z 4. La matrice jacobienne JG des fonctions contraintes value
au point (x, y, z) scrit :

g1
x
JG (x, y, z)
g2
x

g1
y
g2
y

g1
z

g2 =
z

1 2
1
2 1 3

Les deux vecteurs-lignes de cette matrice tant linairement indpendants, JG est


de rang 2 pour tout (x, y, z) (donc en particulier pour (x , y , z )). La contrainte de
qualification est donc vrifie. Le fait que les deux contraintes soient linaires permet
aussi de laffirmer.
CPO : Si (x , y , z , 1 , 2 ) est une solution du programme P, alors :
L
x
L
y
L
z
L
1
L
2

=0
=0
=0
=0
=0

2x 1 22
2y 21 + 2
2z 21 + 32

x + 2y + z
2x y 3z

=0
=0
=0
=1
=4

Lunique solution de ce systme de 5 quations 5 inconnues est :


(x , y , z , 1 , 2 ) = (

16 1 11 52 54
, ,
, , )
15 3 15 75 75

CSO : La fonction f tant une somme de fonctions convexes, elle est convexe quelles que
soient les valeurs de 1 et 2 . Par consquent, (x , y , z , 1 , 2 ) est un maximum global.
1 11 52 54
Ccl : Le programme P admet un maximum global en ( 16
15 , 3 , 15 , 75 , 75 ).

Optimisation sous contraintes prenant la forme dinquations : les conditions de Kuhn et Tucker
On considre le programme de maximisation P suivant :

max

P ex
s.c.

e)
f (x

e) 6 cj
gj (x

j = 1, ..., m

e la solution de ce programme. Deux situations sont envisageables pour chaque


Soit x
contrainte j
e ) = cj : dans ce cas, on dit que la contrainte j est sature loptimum ;
soit gj (x
e ) < cj : dans ce cas, on dit que la contrainte j est non sature loptimum.
soit gj (x

22

Comme prcdemment, on dfinit le Lagrangien comme la fonction L suivante :


e = f (x
e, )
e)
L(x

m
X

j=1

e) cj )
j (gj (x

o les variables j sont les multiplicateurs de Lagrange associs chaque contrainte j et


e = ( , , ..., ).

1 2
m
Conditions de qualification des contraintes : Pour pouvoir utiliser le Lagrangien
dans la rsolution dun programme doptimisation sous contraintes prenant la forme dinquations, il suffit que lune des conditions suivantes soit vrifie :
f . On suppose sans perte de
(a) Soit s 6 m le nombre de contraintes satures loptimum x
gnralit quil sagit des s premires contraintes gj , j = 1, ..., s. Si la matrice jacobienne
de ces s fonctions contraintes, note JG et de taille (s, n), est de rang s lorsquelle est
e , alors la condition de qualification des contraintes est vrifie.
value loptimum x
(b) Les fonctions contraintes gj , j = 1, ..., s sont toutes linaires.
e du programme
Les conditions du premier ordre que doit vrifier toute solution x
P sont lgrement modifies par rapport au cas prcdent (contraintes prenant la forme
dquations) et portent le nom de conditions de Kuhn et Tucker . Elles ont notamment
pour proprit que le multiplicateur de Lagrange j associ la contrainte j est nul lorsque
cette contrainte nest pas sature lquilibre.

Conditions du premier ordre (Kuhn et Tucker) : On suppose que la contrainte de


e = (x1 , x2 , ..., xn ) est une solution du programme
qualification est vrifie. Si le vecteur x
f tel que x
e vrifie les n + 3m
de maximisation P, alors il existe un unique vecteur
conditions suivantes :

e)

e ,
L(x

=0

xi

f )
e ,
L(x
>0

j > 0

m
e ) X gj (x
e )
f (x

j .
=0
xi
xi
j=1

e ) 6 cj
gj (x

j > 0
e ) = cj
j (gj (x ) cj ) = 0 j = 0 ou gj (x

i = 1, ..., n
j = 1, ..., m
j = 1, ..., m
j = 1, ..., m

e ) = cj simultanment.
N.B. : ces conditions nexcluent pas la possibilit que j = 0 et gj (x

En pratique, la rsolution des conditions de Kuhn et Tucker est complique par le


fait quil faut envisager successivement toutes les configurations possibles : toutes les
contraintes sont satures lquilibre, toutes sauf une, deux,..., aucune (tous les j sont
nuls lquilibre). Pour trouver la bonne solution, il faut procder par limination, en
montrant que parmi lensemble de ces possibilits, certaines aboutissent des contradictions.

23

Conditions suffisantes du second ordre pour un optimum local : Supposons


e qui vrifie les CPO. Soit s le nombre de contraintes satures
quil existe un x
loptimum. Sans perte de gnralit, on suppose quil sagit des s premires. On dsigne
par H L la matrice hessienne du Lagrangien borde par les drives premires des seules
contraintes satures. Cette matrice est symtrique dordre s + n.
e ) value
e ,
Les n s derniers mineurs principaux diagonaux de la matrice H L (x
loptimum sont alternativement > 0 et < 0, le dernier dentre eux (Dn+s ) tant du
e est un maximum local.
mme signe que (1)n x
e ) value
e ,
Les n s derniers mineurs principaux diagonaux de la matrice H L (x
e est un minimum
loptimum sont tous du mme signe (strictement) que (1)m x
local.
Conditions suffisantes du second ordre pour un optimum global : Supposons
e qui vrifie les CPO.
quil existe un x
e est un maximum global
Si f est concave et les gj sont convexes j = 1, ..., m x
e ) 6= 0
Si f est quasi-concave et les gi sont quasi-convexes j = 1, ..., m et fi (x

e est un maximum global


i = 1, ..., n x
e est un minimum global
Si f est convexe et les gj sont concaves j = 1, ..., m x
e ) 6= 0
Si f est quasi-convexe et les gj sont quasi-concaves j = 1, ..., m et fi (x

e est un minimum global


i = 1, ..., n x

Dans les cas 2 et 3, si lune des drives partielles de f (notes fi ) est nulle au point
e peut tre ou ne pas tre un maximum (ou un minimum) global. Pour le savoir,
alors x
e et de la comparer la valeur prise par f
il peut tre utile de calculer la valeur de f en x
pour dautres points vrifiant les conditions du premier ordre.

e ,
x

Note sur les programmes de minimisation sous contraintes dinquations : Il


est trs facile de passer dun programme de minimisation sous contraintes prenant la forme
dinquations un programme de maximisation.
Soit P le programme de minimisation suivant :

min
P ex
s.c.

e)
f (x

e) > cj
gj (x

j = 1, ..., m

Pour pouvoir appliquer les conditions de Kuhn et Tucker voques ci-dessus, il suffit
de transformer le programme P en un programme de maximisation P :

max
P ex
s.c.

Le Lagrangien scrit donc :

e)
f (x

e) 6 cj
gj (x

e = f (x
e, )
e)
L(x

e) +
= f (x

24

m
X

j=1
m
X
j=1

j = 1, ..., m

e) + cj )
j (gj (x
e) cj )
j (gj (x

Pour trouver la solution du programme, on cherche les conditions du premier ordre


associes ce Lagrangien.
Exemple : Rsoudre le programme de maximisation P :

Solution :



max
x,y
P s.c.

(x 4)2 (y 4)2

x+y 64
x + 3y 6 9

Le Lagrangien associ ce programme scrit :


L(x, y, 1 , 2 ) = (x 4)2 (y 4)2 1 (x + y 4) 2 (x + 3y 9)
Condition de qualification des contraintes : Toutes les contraintes tant linaires,
la contrainte de qualification est automatiquement vrifie.
CPO : Si (x , y , 1 , 2 ) est une solution du programme P, alors :
L
x
L
y
L
1
1
L
1 .
1
L
2
2
L
2 . 2

=0
=0
>0
>0
=0
>0
>0
=0

2(x 4) 1 2
2(y 4) 1 32

x + y

1 (x + y 4)

x + 3y

2 (x + 3y 9)

=0
=0
64
>0
=0
69
>0
=0

Pour dterminer les solutions de ce systme, il faut envisager successivement tous les cas
de figure possibles portant sur la saturation des contraintes et procder par limination :
Cas 1 : (x + y = 4) et (x + 3y = 9) (les deux contraintes sont satures
loptimum). Dans ce cas, on a x = 32 et y = 52 . Alors, les deux premires quations
se rcrivent :
5 1 2 = 0
3 1 32 = 0
qui implique que 1 = 6 et 2 = 1, ce qui viole la condition 2 > 0.
Cas 2 : (x + y = 4) et (x + 3y < 9), donc 2 = 0 (seule la premire contrainte
est sature loptimum). Alors, les deux premires quations impliquent que x =
y = 2 et 1 = 4. Toutes les conditions sont satisfaites, donc (x , y , 1 , 2 ) =
(2, 2, 4, 0) est une solution possible.
Cas 3 : (x + y < 4) et (x + 3y = 9), donc 1 = 0 (seule la seconde contrainte est
sature loptimum). Alors, les deux premires quations impliquent que x = 12
5

et y = 11
5 , ce qui viole la condition x + y < 4.
Cas 4 : (x + y < 4) et (x + 3y < 9), donc 1 = 2 = 0 (aucune des deux
contraintes nest sature loptimum). Alors, les deux premires quations
impliquent que x = y = 4, ce qui viole la condition x + y < 4.
CSO : la fonction f est concave et les deux contraintes sont linaires. Par consquent,
(x , y , 1 , 2 ) est un maximum global.
CCl : Le programme P admet un maximum global en (2, 2, 4, 0).
25

Optimisation sous contraintes prenant la forme dinquations incluant des contraintes de non-ngativit

Dans de nombreuses application conomiques, les programmes doptimisation considrs imposent que les variables considres ne puissent pas tre ngatives (le travail ou le
capital dans la fonction de production, par exemple).
On considre le programme de maximisation P suivant :




P

max

x1 ,x2 ,...,xn

s.c.

e)
f (x

e) 6 cj
gj (x
xi > 0

j = 1, ..., m
i = 1, ..., n

En ralit, le programme P nest quun cas particulier du programmes doptimisation


tudi dans la section prcdente (il suffit de rcrire les contraintes xi > 0 sous la forme
xi 6 0 pour sen apercevoir). Toutefois, la rsolution de ce programme selon la mthode
expose prcdemment exigerait de travailler avec n + m multiplicateurs de Lagrange, ce
qui est peu commode lorsque n est grand. Cest la raison pour laquelle on prfrera, pour
ce type de programmes, travailler partir dun Lagrangien dit modifi , partir duquel
on peut driver des conditions de Kuhn et Tucker plus simples manipuler.
e scrit :
e, ),
Lagrangien modifi : Le Lagrangien modifi, not M(x
e = f (x
e, )
e) j
M(x

n
X
i=1

e) cj )
(gj (x

On remarquera que ce Lagrangien ne contient pas explicitement les contraintes de nonngativit xi > 0, i = 1, ..., n.
Condition de qualification des contraintes : Ce sont les mmes que dans le cas des
programmes doptimisation sous contraintes prenant la forme dinquations.
Conditions du premier ordre (Kuhn et Tucker) : On suppose que la contrainte de
e = (x1 , x2 , ..., xn ) est une solution du programme
qualification est vrifie. Si le vecteur x
f tel que x
e vrifie les 3(n + m)
de maximisation P, alors il existe un unique vecteur
conditions suivantes :

e )

e ,
M(x

60

xi

xi > 0

e )

e ,
M(x

xi .

=0

xi

f )

e ,
M(x

>0

j > 0

(g (x
j e ) cj ) = 0
j

m
e ) X
e )
f (x
gj (x

j .
60
xi
xi
j=1

xi > 0

xi = 0 ou

e)
e ,
M(x

e ) 6 cj
gj (x

xi

j > 0
e ) = cj
j = 0 ou gj (x
26

=0

i = 1, ..., n
i = 1, ..., n
i = 1, ..., n
j = 1, ..., m
j = 1, ..., m
j = 1, ..., m

Conditions suffisantes du second ordre pour un optimum local : Elles


sont
identiques celles du cas prcdent (programme doptimisation avec contraintes prenant
la forme dinquations).
Conditions suffisantes du second ordre pour un optimum global : Cf. cas prcdent.
En pratique, la rsolution des programmes doptimisation sous contraintes dinquations incluant des contraintes de non-ngativit est complique par le fait que non seulement il faut envisager toutes les configurations possibles pour les j , mais aussi toutes les
configurations possibles pour les variables xi : elles sont strictement positives lquilibre,
toutes sauf une, deux,..., toutes sont nulles loptimum. Pour trouver la bonne solution, il
faut ensuite procder par limination en montrant que parmi lensemble de ces possibilits,
certaines aboutissent des contradictions. Une solution pour laquelle un ou plusieurs xi
sont nuls loptimum est appele solution en coin .
Note sur les programmes de minimisation

Cf. remarques de la section prcdente.

Exemple : Rsoudre le programme de maximisation P :



max
x,y


P s.c.


Solution :

xy
x+y 66
x >0
y >0

Le Lagrangien modifi associ ce programme scrit :


M(x, y, ) = xy (x + y 6)
Condition de qualification des contraintes : Toutes les contraintes tant linaires,
la contrainte de qualification est automatiquement vrifie.
CPO (Kuhn et Tucker) : Si (x , y , ) est une solution du programme P, alors :
M
x
x

60
>0
x . M
x = 0
M
y 6 0
y > 0
y . M
y = 0
L
> 0
> 0
M

. = 0

x (y )

y (x )

x + y

(x + y 6)

60
>0
=0
60
>0
=0
66
>0
=0

Pour dterminer les solutions de ce systme, il faut thoriquement passer en revue tous
les cas de figures possibles portant sur la saturation des contraintes (sur x,y et x+ y 6),
ce qui fait 9 combinaisons diffrentes. En ralit, on peut aboutir la solution trs
rapidement en procdant comme suit :
27

Cas x > 0. Alors, daprs la troisime condition : y = .


Si y = 0, alors = 0, donc x 6 0 daprs la quatrime condition, ce qui est
contradictoire avec lhypothse de dpart (x > 0).
Donc y > 0, ce qui implique x = daprs la cinquime condition. La dernire
condition implique alors que x = y = = 3.
Cas x = 0. Alors :
Si y > 0, alors = x = 0 daprs la sixime condition. Mais alors, la premire
condition contredit lhypothse y > 0.
Donc y = 0. La dernire condition implique alors que x = y = = 0.
Finalement, on en dduit que les conditions de Kuhn et Tucker admettent deux
solutions pour (x , y , ) : (3, 3, 3) et (0, 0, 0).
CSO : La fonction f est deux fois drivable et quasi-concave et les contraintes sont
linaires. Par consquent, si les drives partielles fi de f values en (x , y , ) sont
non nulles, alors (x , y , ) est un maximum global. Cest le cas pour la solution
(x , y ) = (3, 3). En revanche, comme les drives partielles de f sannulent en (0,0),
on peut savoir ce stade si la solution (x , y ) = (0, 0) est ou non un maximum global.
Pour dterminer lequel de ces deux points est le maximum global du programme P, il
faut alors comparer les valeurs de f en ces deux points : comme f (3, 3) > f (0, 0), le
point (x , y ) = (3, 3) est le maximum global du programme.
Ccl : Le programme P admet un maximum global en (3, 3).

28

You might also like