Vous êtes sur la page 1sur 36

Université Ibn Zohr Faculté Polydisciplinaire Ouarzazate

Modélisation
Exercices et examens corrigés
Filière Sciences Mathématiques et Informatiques (Semestre 6)

Par
Abdelkrim EL MOUATASIM Professeur Habilité

Années Universitaires : 2015–2021


Première partie

Exercices corrigés
Exercice I.1 Soit X ⊂ Rn et f : X −→ R avec f ∈ C1 /X. Démontrer que si f est une fonction
convexe sur X, alors (∇ f (x) − ∇ f (y))T (x − y) ≥ 0 pour toute paire de points x, y ∈ X.
Corrigé :
Puisque f est convexe, alors l’inégalité de gradient s’applique :

f (x) ≥ f (y) + ∇ f (y)T (x − y) ⇔ f (x) − f (y) ≥ ∇ f (y)T (x − y)

f (y) ≥ f (x) + ∇ f (x)T (y − x) ⇔ f (y) − f (x) ≥ ∇ f (x)T (y − x)

donc
0 ≥ ∇ f (y)T (x − y) + ∇ f (x)T (y − x)

ou
(∇ f (x) − ∇ f (y))T (x − y) ≥ 0.

Exercice I.2 f (x1 , x2 ) = 12 x21 + x1 cos x2 ,

Utilisons les cond. d’opt. pour identifier les minima locaux.


Corrigé :
x1 + cos x2
!
∇ f (x1 , x2 ) = .
−x1 sin x2
Le gradient s’annule pour
— x∗k = ((−1)k+1 , kπ)T , k ∈ Z,
— x̄k = (0, π2 + kπ)T , k ∈ Z,

2
!
1 − sin x2
∇ f (x1 , x2 ) =
2
.
− sin x2 −x1 cos x2
! !
1 0 1 (−1)k+1
∇ 2
f (x∗k ) = , ∇ f (x̄k ) =
2
k+1 .
0 1 (−1) 0
— x∗k vérifie les conditions suffisantes d’optimalité pour tout k
— x̄k ne vérifie les conditions nécessaires d’optimalité pour aucun k.

Exercice I.3 Soit la fonction


n
X n−1
X
f (x) = 2x2i − 2 xi xi+1 .
i=1 i=1

1. Misé f sous forme de carrés.


2. Écrire f sous la forme xT Ax, avec A symétrique.
3. Calculer le gradient ∇ f (x) et le Hessien de f .
4. Donner l’approximation de gradient.
5. Calculer les valeurs propres de A.
6. Étudier la convexité de f .
Corrigé :
1.
f (x) = x21 + (x1 − x2 )2 + · · · + (xn−1 − xn )2 + x2n

2.
f (x) = xT Ax
 
 2 −1 
 .. 
avec A =  −1
 . 



 −1 
−1 2

3.
∇ f (x) = 2Ax

et
H( f ) = 2A

4. On pose g = ∇ f (x) donc pour 1 ≤ i ≤ n

f (x1 , . . . , xi + h, . . . , xn ) − f (x1 , . . . , xi , . . . , xn )
gi ≈
h

5.
2iπ
λi = 2 − 2 cos , ∀i ∈ [1, n]
n+1

3
6. Toutes les valeurs propres de A sont positives, donc la fonction f est convexe.

Exercice I.4 Trouver l’optimum de

f (x, y) = 4x2 − xy + y2 − x3

Corrigé : On a :
∂f ∂f
= 8x − y − 3x2 = −x + 2y
∂x ∂y
∂2 f ∂2 f ∂2 f
= 8 − 6x =2 = −1
∂x2 ∂y2 ∂x∂y
En résolvant l’équation : ∇ f (x) = 0. Donc les points candidats sont : P1 = (0; 0; 0) et P2 =
( 25 ; 54 ; 125
16 ). La matrice Hessienne est définie par :
!
8 − 6x −1
H f (x) =
−1 2

Alors !
8 −1
H f (P1 ) =
−1 2
Comme M1 = 8 > 0 et M2 = 15 > 0, donc P1 est un minimum.
Et !
−7 −1
H f (P2 ) =
−1 2
Comme M2 = −7 < 0 et M2 = −15 < 0, donc P2 est un point-selle.

Exercice I.5 Considérer le problème suivant

1
min f (x) = x2 − x
2
1. Résoudre le problème avec la méthode de Newton en considérant le point initial x0 = 3

2. Trouver un intervalle contenant le point où s’annule en utilisant 3 itérations de la méthode


de bisection.
Corrigé :

1. On a :
x1 = xk − f 0 (x0 )/ f 00 (x0 ) = 3 − 11/4 = 1/4

et f 0 (x1 ) = 0 stop.

4
Méthode de la bissection : f 0 (x) = x3 + x2 − 3x − 3 = 0
x1 x2 xm f 0 (x1 ) f 0 (x2 ) f 0 (xm ) Err.abs
1.0 2.0 1.5 -4.0 3.0 -1.875 0.5
1.5 2.0 1.75 -1.875 3.0 +0.171 87 0.25
1.5 1.75 1.625 -1.875 0.171 87 -0.943 35 0.125
1.625 1.75 1.6875 -0.943 35 0.171 87 -0.409 42 0.0625
1.6875 1.75 1.718 75 -0.409 42 0.171 87 -0.124 78 0.03125

2.
Itération 1 :
On a f 0 (0) f 0 (1) = (−1/2)(3/4) < 0 donc on pose a = 0 et b = 1.
Itération 2 :
c = 1/2 f 0 (c) = 1/2 > 0 donc on pose a = 0 et b = 1/2.
Itération 3 :
c = 1/4 et f 0 (c) = 0. Stop.

Exercice I.6 Soit f (x) = 41 x4 + 31 x3 − 32 x2 − 3x.


Utilisé la méthode de la bi-section pour déterminé le optimum de f .
Corrigé :
Si x est l’optimum de f donc f 0 (x) = x3 + x2 − 3x − 3 = 0. Dans l’intervalle [x1 = 1, x2 = 2]
il y a une racine car est continue et f 0 (1) f 0 (2) = −4 ∗ 3 < 0. On connait les racines pour ce cas :
√ √
f 0 (x) = (x2 − 3)(x + 1) = 0, on a trois racines réels : r1 = −1, r2 = − 3, r3 = 3
x1 +x2
1. xm = 2 = 1.5 et f 0 (xm ) = −1.875
2. Puisque f 0 (xm ) f 0 (x2 ) < 0 alors x1 = xm = 1.5 et x2 = 2
x1 +x2
3. xm = 2 = 1.75 et f 0 (xm ) = 0.17187
4. Puisque f 0 (x1 ) f 0 (xm ) = −1.875 ∗ 0.17187 < 0 alors x1 = 1.5 et x2 = xm = 1.75
x1 +x2
5. xm = 2 = 1.625 alors f 0 (xm ) = −0.94335
6. Puisque f 0 (xm ) f 0 (x2 ) = −0.94335 ∗ 0.17187 < 0 la racine se trouve donc dans l’intervalle
réduit [x1 = 1.625, x2 = 1.75]
x1 +x2
7. xm = 2 = 1.6875 alors f 0 (xm ) = −0.40942
8. Puisque f 0 (xm ) f 0 (x2 ) = −0.40942 ∗ 0.17187 < 0 la racine se trouve donc dans l’intervalle
réduit [x1 = 1.6875, x2 = 1.75].
Et ainsi de suite...

On voit clairement que l’intervalle devient de plus petit



(|x2 − x1 |)et que l’on se dirige vers 1.732050(' r3 = 3).
Puisque f 0 (r3 ) = 0 et f 00 (r3 ) > 0 donc r3 est un minimum local de f .
On voit aussi que la méthode a certain désavantager (lenteur en particulier, et comment on
s’arrête ?) : critéres d’arrêts

5
|x1 −x2 |
1. L’erreur absolue : |r − xm | ' 2 < abs
|r−xm | |x1 −x2 |
2. L’erreur relative : |r| '< rel
|xm |

3. On peut arrêter l’algorithme si f 0 (xm ) <  f

Exercice I.7 Soit f (x) = − exp(−x) − 21 x2


Utilisé la méthode de Newton pour déterminé le minimum de f .
Corrigé :

Méthode de Newton : f 0 (x) = e−x − x


n xn |en | | en+1
en |
0 0.000 0000 0.5671 ∗ 10+0 0.1183 ∗ 10+0
1 0.500 0000 0.6714 ∗ 10−1 0.1239 ∗ 10−1
2 0.566 3110 0.8323 ∗ 10−3 0.1501 ∗ 10−3
3 0.567 1432 0.1250 ∗ 10−6 ' 0
4 0.567 1433 0.4097 ∗ 10−9 —

On remarque la convergence très rapide de cette méthode.

Exercice I.8 Soit le problème


1
min f (x, y) = (x2 + y2 )
2
Considérer la solution initiale x = 2, y = −1. Exécuter 3 itérations de la méthode du gradient.
0 0

Corrigé :

1.
∇ f (x, y) = (x, y)T

Itération 1 : étape 0 : X0T = (2, −1), k = 0, δ = 10−2


étape 1 : ∇ f (X0 )T = (2, −1) , (0, 0)
étape 2 : t0 = arg mint≥0 f (X0 − t∇ f (X0 )) = 1

Itération 2 :
étape 0 : X1T = X0T − t0 ∇ f (X0 )T = (2, −1) − 1(2, −1) = (0, 0)
étape 1 : ∇ f (X1 )T = (0, 0) stop
X∗T = X1 = (0, 0) et f ∗ = f (X∗ ) = 0.

Exercice I.9 Considérons le problème (P) suivant :

max f (x1 , x2 ) = ln(x1 + 1) + x2


s.c. 2x1 + x2 ≤ 3,
x1 ≥ 0, x2 ≥ 0.

6
Utilisé les conditions KKT pour résoudre le problème (P).
Corrigé :
Nous pouvons donc considérer qu’il n’y a qu’une seule contrainte avec

g1 (x1 , x2 ) = 2x1 + x2 ,

et b1 = 3.
Nous associons à cette contrainte un multiplicateur u1 ≥ 0, et pour les contraintes de non-
négativité u2 ≥ 0, u3 ≥ 0, nous avons alors les conditions suivantes :
1
− 2u1 + u2 = 0,
x1 + 1

1 − u1 + u3 = 0,
2x∗1 + x∗2 − 3 ≤ 0,
u1 (2x∗1 + x∗2 − 3) = 0,
−x1 ≤ 0,
−x2 ≤ 0,
u2 x1 = 0,
u3 x2 = 0.

Nous obtenons u1 ≥ 1. Puisque

1 − 2u1 (x∗1 + 1) + u2 = 0

et x∗1 ≥ 0, nous en déduisons u2 ≥ 1

Par conséquent, x∗1 = 0. Puisque u1 , 0, nous avons

2x∗1 + x∗2 − 3 = 0,

et par conséquent x∗2 = 3. Dès lors, u1 = 1, u2 = 1, u3 = 0. Les conditions KKT sont donc
satisfaites en un seul point : (0, 3).

Exercice I.10 Soit (P) le problème :

min f (x) = x21 + x22





x1 + 2x2 + 3x3 − x4 = 6

 s.c.


x1 + 3x2 + 2x3 + 5x4 = 4





 x≥0

Utilisé la méthode de gradient réduit avec x0 = (2, 2, 1, 0)t .


Corrigé :

7
!
1 2 3 −1
Ici A =
1 3 2 5
! ! ! !
1 3 2 −1 x1 x2
Choisissons B = {1, 3}, N = {2, 4}. Alors AB = , AN = , xB , xN
1 2 3 5 x3 x4
! ! ! ! !
xB 1 3 x1 2 −1 x2
(AB AN ) = +
xN 1 2 x3 3 !5 x4
x1 + 3x3 + 2x2 − x4
=
x1 + 2x3 + 3x2 + 5x4

On exprime x1 en fonction de x2 , x4 , on obtient

g(x2 , x4 ) = (−5x2 − 17x4 )2 + x2

et
∂g ∂g
( ) = (52x2 + 170x4 170x2 + 578x4 ).
∂x2 ∂x4
Alors !
−2 3
A−1
B
=
1 −1
! !
−2 3 2
Effectuons le changement de base = {2, 3},
B0 = {1, 4}
N0 = A−1
B
A{2} =
1 −1 3
1
! ! !
5 2 3 5 0
p = 5 , 0 et donc AB0 = est inversible (A−1
B
A B 0)
−1 =
1 et A−1B0
=
−1 3 2 5 1
1 −2 3
! ! !
5 0 −2 3
1 = 5
3
5
−2
5 1 1 −1 5 5 ! ! !
x1 x2 x 1
Pour B = {1, 3}, on a + A−1B
AN = A−1 B
b soit +
x3 x4 x
! ! ! ! ! ! ! 3 !
−2 3 2 −1 x2 −2 3 6 x1 5 17 x2
= soit encore + =
1 −1 3 5 x4 1 −1 4 x3 −1 −6 x4
!
0
2
x3 = 0 ⇒ −x2 − 6x4 = 2
Les pivots des colonnes A2 et A4 (relatifs à x3 ) sont −1 et −6. S’ils étaient nuls on aurait 0 = 2. On
voit que la condition de non-dégénérescence n’est pas nécessaire puisqu’ici A−1
B
b a une composante
(celle associée à x1 ) nulle et pourtant on peut effectuer les changements de base B − {1} + {2} et
B − {1} + {4}, les pivots (5 et 17) étant non nuls.

Exercice I.11
min f (x) = x21 + x22 + x23 + x24 − 2x1 − 3x4



2x1 + x2 + x3 + 4x4 = 7

 s.c.


x1 + x2 + 2x3 + x4 = 6





 x≥0
Utilisé la méthode de gradient réduit avec x0 = (2, 2, 1, 0)t .
Corrigé :

8
!
2 1
Soient x0 = (2, 2, 1, 0)t , x1 et x2 les variables de base et B = la base.
1 1
On a : ∇ f (x0 ) = (2, 4, 2, −3)T
! !
1 −1 2 1 1 4
r(x ) = (2, 4, 2, −3) − (2, 4)
0
= (0, 0, −8, −1),
−1 2 1 1 2 1

par conséquent, d3 = 8 et d4 = 1.
On a :
dB = B−1 NdN = (5, −22)T
xkj
et µ ≤ µmax = min {− d j } = 11 .
1
j∈B,d j <0
On vérifie que le minimum de la fonction f (x0 + µd) pour µ ∈ [0, 11
1
] est obtenu pour µ = 1
11 .
La variable x2 quitte alors la base pour y être remplacée par x3 ou x4 , au choix.

Exercice I.12 On considère le problème d’optimisation sous contraintes suivante :

min x21 + x22





s.c. x1 + x2 ≥ 1

(P)



x1 ≥ 0, x2 ≥ 0

(P) revient à le pb d’optimisation avec contraintes d’égalité

min x21 + x22





s.c. x1 + x2 + x3 = 1




x1 ≥ 0, x2 ≥ 0, x3 ≥ 0


 
 2 
Choisissons le point initial P0 =  0  et B = {3}, N = {1, 2} pour démarré la méthode de gradient
 
1
 
réduit.
Corrigé :
Itération 1.
∂g ∂f ∂f
On a x3 = −1 + x1 + x2 . On en déduit g(x1 , x2 ) = f (x1 , x2 , −1 + x1 + x2 ), ∂xN = ( ∂x1 , ∂x2 ) =
 
 −4 
(2x1 , 2x2 ) et r(P0 ) = (4 0). La direction de déplacement est  0  .
 
−4
 
   
 2   −4 
α ≤ 12
(
 0  + α  0  ≥ 0 ⇒ ⇒ αmax = 41
   
    α ≤ 14
1 −4
Le minimum de f (2 − 4α, 0, 1 − 4α) sous la contrainte 0 ≤ α ≤ 14 est atteint en α1 = 41 .
 
 1 
Le nouveau point est P1 =  0 . Sa coordonnée 3 est nulle. Il faut effectuer un changement de
 
0
 
base. L’indice 1 est l’indice dans N associé à la coordonnée de P1 la plus grande : on forme la
nouvelle décomposition B = {1} et N = {2, 3}.

9
Itération 2.
∂g ∂f ∂f ∂f ∂f
On a x1 = 1 − x2 + x3 d’où g(x2 , x3 ) = f (1 − x2 + x3 , x2 , x3 ), ∂xN = (− ∂x1 + ∂x2 ∂x1 + ∂x3 ) =
!
2
(−2x1 + 2x2 2x1 ) et r(P1 ) = (−2 2). dN = et dB = −2 donc la direction de déplacement est
0
 
 −2 
 2  .
 
 
0
   
 1   −2 
α ≤ 21
(
 0  + α  2  ≥ 0 ⇒ ⇒ αmax = 21
   
    α≤0
0 0
Le minimum de f (1 − 2α, 2α, 0) sous la contrainte 0 ≤ α ≤ 12 est atteint en α2 = 14 .
 1 
 2 
Le nouveau point est P2 =  12 .
 
0
 
Itération 3. !
0
Le gradient réduit en P2 est r(P2 ) = (0 1) donc dN = . On arrête.
0
Vérifions que les conditions de Kuhn-Tucker sont satisfaites : ici A = (1 1 − 1)
∂f
soient µ = − ∂x1 ( 21 , 12 , 0)A−1
1
= −2 × 1
2 = −1 (car A1 = 1), λ1 = 0, (λ2 λ3 ) = r(P2 ) = (0 1)
∂f 1 1
( , , 0)
∂x 2 2
+ µA − λ = 0 ⇔ (2 × 1
2 2× 1
2 0) − (1 1 − 1) − (0 0 0), donc vérifié.
On aura remarqué que l’on a une écriture “transposée” des équations de Kuhn-Tucker.
λ ≥ 0 et les conditions de complémentarités λ1 × 1
2 = 0, λ2 × 1
2 = 0, λ3 × 0 = 0 sont vérifiées.
Remarque :
En partant du même point on obtient des cheminements différents selon le choix du B initial.
 2   2 
 5   5 
Si l’on choisit B = {1} et N = {2, 3}, on passe par les 3 points P1 =  45  , P2 =  35  ,

 1  
0

 1  5
 2 
P3 =  12  sans changer de base B.
 
0
 

Exercice I.13 Le tableau suivant donne l’évolution en fonction de l’année du budget publicitaire
d’une entreprise, en dizaines de milliers dh.

années 1998 1999 2000 2001 2002 2003 2004 2005


rang xi 1 2 3 4 5 6 7 8
budget yi 2 2,2 2,5 3 3,2 3,5 3,7 4,2

1. Montrer que cov(X, Y) = XY − X̄Ȳ.


2. Calculer le coefficient de corrélation entre ces deux séries.
3. Déterminer une équation de la droite ∆ d’ajustement par la méthode des moindres carrés,
commenter la qualité de cet ajustement. (On donnera les résultats à 0,001 près).

10
4. On considère que cette droite permet un ajustement de cette série statistique. Calculer à
partir de quelle année le budget devrait dépasser 60 000 dh.

Corrigé :

1. On a
cov(X, Y) = (X − X̄)(Y − Ȳ)

donc P
(X −X̄)(Y −Ȳ)
cov(X, Y) = P i n i
(X Y −X Ȳ−X̄Y +X̄Ȳ)
= P i i i nP i P
(Xi Yi )−Ȳ Xi −X̄ Yi +nX̄Ȳ)
= n
= XY − X̄Ȳ
2.
cov(X,Y)
r(X, Y) = σ(X)σ(Y)
= 2.29128∗0.71578
1.63125

= 0.99462
3. L’équation de la droite X = aY + b avec :

cov(X, Y)
a= = 3.18389
σ(Y)2
et

¯ − a(Y)
b = (X) ¯ = b = −5.17109

donc X = 3.18389Y − 5.17109 On a r(X, Y) ≈ 1 donc la régression entre X et Y est fort.


4. Y = 6 donc X = 3.18389 ∗ 6 − 5.17109 ≈ 14
Alors à partir de l’année 2011 le budget devrait dépasser 60000dh.

Exercice I.14 Nous considérons l’ensemble X = {1, 2, 3, 6, 7, 8, 13, 15, 17} à partir duquel nous
souhaitons créer 3 clusters.
1. Appliqué l’algorithme kmeans ont choisissons arbitrairement pour centres de cluster les
éléments M1 = 13, M2 = 15, M3 = 17 associés respectivement aux clusters C1 =
13, C2 = 15, C3 = 17.
2. Appliqué l’algorithme kmeans++ ont choisissons arbitrairement pour centre de cluster
l’éléments M1 = 2 associés au clusters C1 = 2.
Corrigé :
Table 1 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre M1 =
13, M2 = 15, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8, 13} de centre
M1 = 7,
40
C2 = {15} de centre M2 = 15 et C3 = 17 de centre M3 = 17.

11
x M1 = 13 M2 = 15 M3 = 17
1 144 196 256
2 121 169 225
1. 3 100 144 196
6 49 81 121
7 36 64 100
8 25 49 81

Table 1 – Itération 1

x M1 = 40
7 M2 = 15 M3 = 17
1 1089/49 196 256
2 676/49 169 225
3 361/49 144 196
6 4/49 81 121
7 81/49 64 100
8 256/49 49 81
13 2601/49 4 14

Table 2 – Itération 2

Table 2 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre
M1 = 7,
40
M2 = 15, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8} de centre
M1 = 4.5, C2 = {13, 15} de centre M2 = 14 et C3 = 17 de centre M3 = 17.

12
x M1 = 4.5 M2 = 14 M3 = 17
1 12.25 169 256
2 6.25 144 225
3 2.25 121 196
6 2.25 64 121
7 6.25 49 100
8 12.25 36 81
13 72.25 1 14
15 110.25 1 4

Table 3 – Itération 3

Table 3 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre
M1 = 4.5, M2 = 14, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8} de
centre M1 = 4.5, C2 = {13, 15} de centre M2 = 14 et C3 = 17 de centre M3 = 17.
Les centres issus du tableau 3 sont les mêmes que ceux issus du ta-
bleau 2. L’algorithme s’arrête donc et nous obtenons les 3 clustres suivants
C1 = {1, 2, 3, 6, 7, 8} de centre M1 = 4.5
C2 = {13, 15} de centre M2 = 14
C3 = {17} de centre M3 = 17

x 1 3 6 7 8 13 15 17
2. D22 (x) 1 1 16 25 36 121 169 225
P(M2 = x) 1
594
1
594
16
594
25
594
36
594
121
594
169
594
225
594

Table 4 – Itération 1

Tableau 4 : Calcul des distances D22 (x) séparant chaque élément de X au premier centre
égal à 2 et identification du deuxième centre M2 = 17 correspondant à l’élément de X avec
la plus forte probabilité.

13
x 1 3 6 7 8 13 15
D22 (x) 1 1 16 25 36 121 169
D217 (x) 256 196 121 100 81 16 4
P(M3 = x) 1
99
1
99
16
99
25
99
36
99
16
99
4
99

Table 5 – Itération 2

Tableau 5 : Calcul des distances D22 (x) séparant chaque élément de X au premier centre égal
à 2, D217 (x) séparant chaque élément de X au deuxième centre égal à 17 et identification du
troisième centre M3 = 8 correspondant à l’élément de X avec la plus forte probabilité.
Tableau 6 : Calcul des distances séparant chaque élément de X à chaque centre M1 = 2,

x M1 = 2 M2 = 17 M3 = 8
1 1 256 49
3 1 196 25
6 16 121 4
7 25 100 1
13 121 16 25
15 169 4 49

Table 6 – Phase 2

M2 = 17 et M3 = 8 et identification des clusters C1 = {1, 2, 3} de centre M1 = 2,


C2 = {13, 15, 17} de centre M2 = 15 et C3 = {6, 7, 8} de centre M3 = 7.

Exercice I.15 Considérer le problème de produire une boîte de volume maximale avec une pièce
de carton de superficie spécifiée c > 0. Dénotons les dimensions des côtés de cette boîte par x, y et
z. Le problème peut se formuler comme suit :

 max xyz


c
 s.c. yx + yz + xz =


2
Déterminer les dimensions optimales en utilisant les conditions de Kuhn-Tucker (KKT).
Corrigé : KKT :
−yz + λ1 (y + z) − λ2 = 0 (1)
−xz + λ1 (x + z) − λ3 = 0 (2)
−xy + λ1 (x + y) − λ4 = 0 (3)
xy + yz + xz = C2 (4)
xλ2 = yλ3 = zλ3 = 0 (5)
(1)+(2)+(3) :
−(xy + yz + zx) + 2λ1 (x + y + z) = λ2 + λ3 + λ4


λ2 + λ3 + λ4 C
λ1 (x + y + z) = + > 0 ⇒ λ1 > 0
2 4

14
Si x = 0, alors (3) devient λ1 z = λ3

⇒ λ1 yz = yλ3 = 0

⇒ y = 0ouz = 0

d’après (4) impossible.


Donc x , 0, de même y , 0 et z , 0

=⇒ λ2 = λ3 = λ4 = 0

On multiplie :

(1) par x et (2) par y et on soustrait ⇒ x−y=0


(1) par x et (3) par z et on soustrait ⇒ x−z=0
(2) par Y et (3) par z et on soustrait ⇒ u−z=0
q
Donc (4) =⇒ x = y = z = C6

15
Deuxième partie

Examens corrigés

16
Année Universitaire : 2016–2017

Examen session principale

Exercice II.1 Soit f : Rn → R, f ∈ C1 et convexe sur Rn . soit x∗ ∈ Rn , d ∈ Rn une direction,


et α > 0 un scalaire. Soit x̄ = x∗ + αd.
Démontrer que si ∇ f (x̄)T d < 0, alors d est une direction de descente au point x∗ .
Corrigé :
Utilisent l’inégalité de gradient

f (x∗ ) ≥ f (x̄) + ∇ f (x̄)T (x∗ − x̄)


= f (x̄) − α∇ f (x̄)T d
> f (x̄)

Utilisent la définition de la fonction convexe x ∈ [x∗ , x̄] est de la forme

x = θx∗ + (1 − θ)x̄ (1)

et si θ , 1 on a

f (x) = f (θx∗ + (1 − θ)x̄) ≤ θ f (x∗ ) + (1 − θ) f (x̄) < f (x∗ )

Également, en peut écrire (1)

x = θx∗ + (1 − θ)(x∗ + αd) = x∗ + (1 − θ)αd

Donc pour 0 ≤ θ1,


f (x∗ ) > f (x∗ + (1 − θ)αd)

⇒ d est une direction de descente.

Exercice II.2 Modèle statistique simple


Utiliser la méthode des moindres carrés pour estimer les paramètres de la droite de régression
Y = aX + b qui approche le mieux les n couples (Xi , Yi ).
Corrigé :

17
Soit (Xi )1≤i≤n et Yi deux séries statistiques. On cherche à savoir s’il est raisonnable de prévoir
Yi en fonction de Xi , avec par exemple une relation linéaire Yi = a + bXi . Pour cela on minimise
f (a, b) = (a + bXi − Yi )2 par rapport à a et b, ce qui donne les équations :
P

∂f
 Pn
 ∂a = 0 = 2 i=1 (a + bXi − Yi )


 ∂ f = 0 = 2 n Xi (a + bXi − Yi )

 P
∂b i=1

équivalentes à :
a Pni=1 + b Pni=1 Xi = Pni=1 Yi
( P P P
a ni=1 Xi + b ni=1 Xi2 = n
i=1 Xi Yi

Donc
cov(X, Y)
a= , et b = m(Y) − am(X).
v(X)

Exercice II.3 On considère le problème de programme non-linéaire HS48 suivant :

min z =(x1 − 1)2 + (x2 − x3 )2 + (x4 − x5 )2


s.c. x1 + x2 + x3 + x4 + x5 = 5
x3 − 2(x4 + x5 ) = −3
xi ≥ 0, i = 1, . . . , 5.

Compléter deux itérations de la méthode du gradient réduit pour résoudre le problème HS48,
on partira du point X0 = (2, 1.5, 0, 1.5, 0)T
Corrigé :
— 1re itération :
XB0 = (x1 , x4 ), XN
0
= (x2 , x3 , x5 ),
9 9 23 15
⇒ rN (X0 ) = (1, − , −6)T , dN = (−1, , 6)T et dB = (− , − )T
2 2 4 4
αmax = 0.3478 ⇒ α1 = 0.1807

⇒ X1 = (0.9607, 1.3193, 0.8134, 0.822, 1.084)T

— 2me itération :
XB1 = (x1 , x4 ), XN
1 = (x , x , x ),
2 3 5
⇒ d = (0.856, −0.63, −0.1509, −0.5638, −0.4884)T
⇒ α2 = 0.159
⇒ X2 = (0.868, 1.162, 0.9794, 1.0559, 0.9338)T

Examen session rattrapage

Exercice II.4 Soit la fonction f = 12 xT Dx − bT x où x, b ∈ Rn et D est une matrice n × n.


1. Démontrer que si xT Dx est convexe sur Rn , alors f est aussi convexe sur Rn .

18
2. Démontrer que si tout les valeurs propre de D sont positive, alors f est convexe sur Rn .
Corrigé :
1. La fonction g(x) = −bT x est linéaire donc convexe. En effet −bT (αx + (1 − α)y) = −αbT x −
(1 − α)bT y
Puisque xT Dx est convexe, alors f (x) est une combinaison linéaire de deux fonction convexe
1
avec un poids pour xT Dx et 1 pour −bT x. Donc f est convexe.
2
2. Si tout les valeurs propre de D positive donc D est semi défini positive ⇒ xT Dx est convexe
d’après Q1 f est convexe.

α
!
Exercice II.5 1. Montrer que en partant du point X0 = (α , 0 quelconque), la
0
méthode de Newton converge.
α
!
2. Appliquer la méthode de Newton avec le pas optimale en partant de X0 = pour
0
calculer X1 . Que constate-t-on ?
Corrigé :
2 2
1. X1 = ( α, 0)T , X2 = (( )2 α, 0)T
3 3
2 k k→∞
⇒ X = (( ) α, 0) −−−−→ 0
k T
3
1
2. Direction de Newton en X0 est −( α, 0)T
3
1
X1 (t) = X0 − t( α, 0)T
3
t
(α − α)4
⇒ g(t) = f (X(t)) = 3 ≥ 0 g(t) atteint son minimum en t = 3 X1 = X(3) =
4
(0, 0)T minimum atteint.

Exercice II.6 On considère le problème d’optimisation non-linéaire (P1) suivant :

min z =(x1 − 1)2 + (x2 − x3 )2 + (x4 − x5 )2


s.c. x1 + x2 + x3 + x4 + x5 = 5
x2 − 2(x4 + x5 ) = −3
xi ≥ 0, i = 1, . . . , 5.

Soit X0 = (2, 0, 1.5, 0, 1.5)T le point initial, pour résoudre le problème (P1) par la méthode du
gradient réduit.
1. Donner les bases possible.
2. Compléter une itération de l’algorithme. Donner la base de deuxième itération.
3. Vérifier que le point X∗ = (1, 1, 1, 1, 1)T vérifie les conditions de Kuhn-Tucker.

19
Corrigé :
1. B1 = {x1 , x5 } et B2 = {x3 , x5 }
2. Si B = B1 on trouve X1 = (0.961, 0.834, 1.319, 1.084, 0.822)T et B = B1
Si B = B2 on trouve X1 = (2.108, 0.648, 0.42, 0.648, 1.176)T et B = B2
3. dN = 0 ⇒ X∗ vérifier les conditions de KKT.

20
Année Universitaire : 2017–2018

Examen session principale

Exercice II.7 Soit X ∈ Rn est un ensemble convexe et si la fonction f : X −→ R est strictement


convexe sur X. On pose qu’il existe un point minimum local x∗ .
1. Démontrer que x∗ est un minimum global.
2. Démontrer que le minimum est unique.
Corrigé :
1. La preuve se fait par contradiction en supposant qu’il existe un point x̂ ∈ X tel que
f (x̂) < f (x̄). Puisque f est convexe, f (θx̂ + (1 − θ)x̄) ≤ θ f (x̂) + (1 − θ) f (x̄) < θ f (x̄) +
(1 − θ) f (x̄) = f (x̄) pour tout θ ∈ (0, 1]. Or pour θ > 0 suffisamment petit,

x(θ) = θx̂ + (1 − θ)x̄ ∈ B(x̄) ∩ X.

Ainsi f (x(θ)) < f (x̄) où x(θ) ∈ B(x̄) ∩ X, contredisant que x̄ est un minimum local de f
sur X.
2. Soit donc x∗ ∈ K tel que f (x∗ ) ≤ f (x), ∀x ∈ K. Supposons qu’il existe y∗ , x∗ tel que
f (y∗ ) ≤ f (x), ∀x ∈ K. Formons pour λ ∈ ] 0, 1 [ le vecteur

u = λy∗ + (1 − λ)x∗ .

D’après la stricte convexité de f et puisque nécessairement f (y∗ ) = f (x∗ ) on a

f (u) < λ f (y∗ ) + (1 − λ) f (x∗ ) = f (x∗ ),

ce qui contredit le fait que x∗ soit un minimum. On a donc x∗ = y∗ .

Exercice II.8 Considérer le problème de déterminer le point de la droite a1 x + a2 y = b le plus


proche de l’origine. Nous faisons l’hypothèse que a1 , 0 ou a2 , 0.
1. Formuler ce problème comme un problème d’optimisation.
2. Écrire les conditions d’optimalité KKT pour ce problème.
3. Déterminer une solution optimale de ce problème.

21
4. Les conditions KKT sont-elle suffisantes pour ce problème ? Justifier votre réponse.
Corrigé :
1.

min z =x2 + y2
s.c. a1 x + a2 y = b

2.

L(x, y, z) = x2 + y2 − λ(a1 x + a2 y − b)
2x − a1 λ = 0
2y − a2 λ = 0
a1 x + a2 y = b(∗)

a1 λ a2 λ 2b a1 b a2 b
3. x = et y = d’après (∗) λ = 2 donc x = 2 et y = 2
2 2 a1 + a2
2 a1 + a22 a1 + a22
4. On a le problème d’optimisation convexe donc les conditions de KKT sont suffisantes.

Exercice II.9 On considère le programme nonlinéaire (P) suivant :

min z = x21 − x1 x2 + 6x22 − 12x2 + 2x23


s.c. x1 − x2 = −3
x1 − x3 = 1
x1 , x2 , x3 ≥ 0.
 
 2 
1. Résoudre le problème (P) avec la méthode du gradient réduit, on partira du point X0 =  5 
 
1
 
2. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).
Corrigé :
1
1. d0 = (−49, −49, −49)T et α0 = αmax =
49
donc X1 = X0 + α0 d0 = (1, 4, 0)T et dN = 0 stop.
∂f
2. on a + UA − λ = (−2, 35, 0) + (2, −35, 33) − (0, 0, 33) = (0, 0, 0), λi Xi1 = 0, λi ≥ 0
∂x
donc X1 vérifie les conditions de Kuhn-Tucker (KT).

Examen session rattrapage

Exercice II.10 Modèle statistique multiple


Considérer le problème d’estimer les paramètres de la régression

Y = α1 X1 + α2 X2 + α3

22
qui approche le mieux les n triples (X1i , X2i , Yi ).

1. Quelle méthode que on peut utiliser ?


2. Formuler ce problème comme un problème d’optimisation.
3. Écrire les conditions d’optimalité pour ce problème.

Corrigé :
1. La méthode des moindres carrés.
n
2. F(α1 , α2 , α3 ) = min (yi − (α1 x1i + α2 x2i + α3 x3i ))2 .
P
i=1
∂F(α
3. = 0, i = 1, 2, 3.
∂αi

Exercice II.11 On considère le problème (P) d’optimisation sous contraintes suivante :

min z = x21 + x22


s.c. x1 + x2 ≥ 1
x1 , x2 ≥ 0.
 
 0 
1. Résoudre le problème (P) avec la méthode du gradient réduit, on partira du point X0 =  2 
 
1
 

2. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).


Corrigé :
1. Iteration 1 :
1
X0 = (0, 2, 1)T donc B = {3} et N = {1, 2} ⇒ d0 = (0, −4, −4)T et α0 = αmax =
4
donc X1 = X0 + α0 d0 = (0, 1, 0)T
Iteration 2 :
X2 = (0.5, 0.5, 0)T et dN = 0 stop.
∂f
2. on a + UA − λ = (0, 0, 0), λi Xi2 = 0, λi ≥ 0 donc X2 vérifie les conditions de Kuhn-
∂x
Tucker (KT).

23
Année Universitaire : 2018–2019

Examen session principale

Exercice II.12 Soit la fonction f : R2 −→ R suivante f (x, y) = x3 + y2 + 2xy.


Soit un ensemble X ∈ R2 suivant : X = {(x, y) : x ≥ 1, y ≤ −1}.
1. Démontrer que X est un ensemble convexe ou identifier un contre exemple pour démontrer
qu’il ne l’est pas.
2. Démontrer que f est convexe sur X ou identifier un contre exemple pour démontrer qu’il
ne l’est pas.
Corrigé :
1.
Soit X = {(x, y) : x ≥ 1, y ≤ −1}, et (x1 , y1 ) ∈ X, (x2 , y2 ) ∈ X
on a
αx1 + (1 − α)x2 ≥ α + (1 − α) = 1

αy1 + (1 − α)y2 ≤ −α − (1 − α) = −1

donc X est un ensemble convexe.


2.
Soit f (x, y) = x3 + y2 + 2xy

3x2 + 2y
" # " #
6x 2
∇ f (x, y) = , ∇ f (x, y) =
2
2y + 2x 2 2
Mineurs principaux de ∇2 f (x, y) sont :

a11 = 6x, a22 = 2, det(∇2 f (x, y)) = 12x − 4

puisque x ≥ 0 donc
6x ≥ 0, 12x − 4 ≥ 0

=⇒ ∇2 f (x, y) est semi-défini positive sur X,


=⇒ f est convexe sur X.

24
Exercice II.13 Une firme aéronautique fabrique des avions qu’elle vend sur deux marchés étran-
gers. Soit q1 le nombre d’avions vendus sur le premier marché et q2 le nombre d’avions vendus sur
le deuxième marché. Les fonctions de demande dans les deux marchés respectifs sont :

p1 = 60 − 2q1 , p2 = 80 − 4q2

où p1 et p2 sont les deux prix de vente. La fonction de coût total de la firme est

C = 50 + 40q

où q es le nombre total d’avions produits.


Il faut trouver le nombre d’avions que la firme doit vendre sur chaque marché pour maximiser son
bénéfice.
Corrigé :
Comme q = q1 + q2 , la fonction de coût devient :

C = 50 + 40q = 50 + 40q1 + 40q2

Le revenu total R s’obtient en multipliant le prix par la quantité sur chaque marché :

R = p1 q1 + p2 q2 = 60q1 − 2q21 + 80q2 − 4q22

On obtient le bénéfice B en calculant la différence entre le revenu et le coût :

B = R − C = 20q1 − 2q21 + 40q2 − 4q22 − 50.

Première condition d’optimalité :


∂B
= 0 ⇒ (q1 ; q2 ) = (5, 5).
∂q
Deuxième condition d’optimalité :
La matrice Hessienne est : " #
−4 0
H=
0 −8
Par conséquent :
δ1 = −4 < 0, delta2 = 32 > 0

Donc (q1 , q2 ) est un maximum. Le bénéfice maximum réalisé B∗ = 100.


Quant aux prix, ils s’élèvent respectivement à :

p1 = 50, p2 = 50

Exercice II.14 On considère le problème (P) d’optimisation sous contraintes suivant :

min z = x21 + x22


s.c. x1 + x2 ≥ 1
x1 , x2 ≥ 0.

25
1. Transformer le problème (P) vers un problème d’optimisation avec contraintes d’égalité
(P1).
2. Déterminer le point X0 de problème (P1) associer au sommet A = (1, 0)t de problème (P).
3. Résoudre le problème (P1) avec la méthode du gradient réduit, on partira du point X0 . (1
itération)
4. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).

Corrigé :
On considère le problème (P) d’optimisation sous contraintes suivant :
1.

min z = x21 + x22


s.c. x1 + x2 − x3 = 1
x1 , x2 , x3 ≥ 0.

2.
A = (1, 0)t est un sommet de problème (P) donc x1 = 1, x2 = 0, donc X0 = (1, 0, x3 )
d’après la contrainte x3 = 0. =⇒ X0 = (1, 0, 0).
3.
On a x1 = 1 − x2 + x3 d’où g(x2 , x3 ) = f (1 − x2 + x3 , x2 , x3 ),

∂g ∂f ∂f ∂f ∂f
= (− + + ) = (−2x1 + 2x2 2x1 )
∂xN ∂x1 ∂x2 ∂x1 ∂x3
 
!  −2 
2
et r(P1 ) = (−2 2). dN = et dB = −2 donc la direction de déplacement est  2  .
 
0
0
 
   
 1   −2 
α ≤ 12
(
 0  + α  2  ≥ 0 ⇒ ⇒ αmax = 12
   
    α≤0
0 0
Le minimum de f (1 − 2α, 2α, 0) sous la contrainte 0 ≤ α ≤ 1
2 est atteint en α2 = 41 .
 1 
 2 
Le nouveau point est X1 =  12 .
 
0
 

4.
Le gradient réduit en X1 est r(X1 ) = (0 1) donc
!
0
dN = .
0

=⇒ le point courant X1 vérifie les conditions de Kuhn-Tucker (d’après le théorème).

26
Examen session rattrapage

Exercice II.15 Un fabricant de postes de télévision produit q poste par semaine à un coût total de

C = 6q2 + 80q + 5000.

C’est un monopoleur et son prix s’exprime par la relation p = 1080 − 4q.


1. Modélisé le problème pour maximiser le bénéfice.
2. Trouver le bénéfice net maximum.
3. Montrer que ce maximum est un maximum global.
Corrigé :
1. Le revenu total R s’obtient en multipliant le prix par la quantité :

R = (pq = 1080 − 4q)q = 1080q − 4q2

On obtient le bénéfice B en calculant la différence entre le revenu et le coût :

B = R − C = 1080q − 4q2 − (6q2 + 80q + 5000) = −10q2 + 1000q − 5000

Donc la modélisation optimal de problème est :

max B(q)

2. Première condition d’optimalité :

∂B
= 0 ⇒ q = 50.
∂q

Sa dérivée seconde est :


B” = −20 < 0

Par conséquent, la fonction de bénéfice présente un maximum en x = 50.


3. Ce maximum est un maximum global car la fonction est une parabole (concave).

Exercice II.16 1. Utiliser la méthode des moindres carrés pour estimer les paramètres de la
droite y = ax + b qui approche le mieux les n couples (xi , yi ).
2. Trouver la droite f (x) = ax + b qui approche le mieux les mesures :

f (0) = 0, f (1) = 1, f (3) = 2, f (4) = 5.

Corrigé :

27
1. Soit (xi )1≤i≤n et yi deux séries statistiques. On cherche à savoir s’il est raisonnable de
prévoir yi en fonction de xi , avec par exemple une relation linéaire yi = axi + b. Pour cela
on minimise X
f (a, b) = (axi + b − yi )2

par rapport à a et b, ce qui donne les équations :


∂f
 Pn
 ∂a = 0 = 2 i=1 xi (axi + b − yi )


 ∂ f = 0 = 2 n (axi + b − yi )

 P
∂b i=1

équivalentes à :
b ni=1 xi + a ni=1 x2i =
( P P Pn
xi yi
Pn Pn Pi=1
n
i=1 b+ a i=1 xi = i=1 yi

On exprime b dans la seconde équation


Pn Pn
i=1 yi i=1 xi
b= −a
n n
=⇒ b = E(y) − aE(x)
1
On remplace b par sa valeur dans la 1er équation pour obtenir a et on multiple par n
numérateur et dénominateur, on obtient
E(xy) − E(x)E(y)
a=
σ(x)2

tel que :
- E(x) est la moyenne arithmétique de x
- σ(x) est l’écart type de x.
2. D’après la question 1

27
4 −4 11
a= =
10 10
et
11 2
b=2− ×2=−
10 10
donc
11 2
f (t) = t−
10 10
Exercice II.17 On considère le programme nonlinéaire (P1) suivant :

min z = x21 + 2x22 − x1 x3 + 6x23 − 12x3


s.c. x1 − x3 = −3
x1 − x2 = 1
x1 , x2 , x3 ≥ 0.

28
1. Résoudre
 le problème (P1) avec la méthode du gradient réduit, on partira du point X0 =
 2 
 1 
 
 
5
2. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).
Corrigé :
1.
Itération 1 :  
 2 
Puisque le point initial est X0 =  1  donc B = {1, 3}, N = {2},
 
5
 
! ! !
0 1 −1 0 1
AN = et AB = donc AB =−1
−1 1 0 −1 1
on sait que
rN (X) = 4x2 − (2x1 − x3 , −x1 + 12x3 − 12)A−1
B AN

=⇒ rN (X0 ) = 49 donc dN = −49!


−49
=⇒ dB = −A−1 B
AN dTN =
−49
 
 −49 
donc d =  −49  et αmax = 49
0 1
.
 
−49
 
On calcule le pas optimale α0

α0 = arg min f (X0 + αd0 )


0≤α≤αmax

On pose φ(α) = f (X0 + αd0 )


0
pour φ (α∗ ) = 0 on a α∗ = 3855
33614 > αmax
donc α0 = αmax = 1
49 .
 
 1 
=⇒ X1 = X0 + α0 d0 =  0 
 
4
 
Itération 2 :
On a rN (X1 ) = 33 et x2 = 0 donc dN = 0 stop
X1 est un solution optimal.
2.
∂f ∂f
On a 1
partialx (X ) = (−2, 35, 0)T , on pose u = − partialxB (X1 )A−1
B
= (35, −33) et λ = r =
(0, 0, 33)T
alors
∂f
(X1 ) + uA − λ = 0
partialx
or λ ≥ 0, λi .xi = 0, AX1 = b
donc X1 vérifie les conditions de KKT.

29
Année Universitaire : 2019–2020

Examen session principale

Exercice II.18 Soit f : R2 −→ R, une fonction différentiable. Soit x0 ∈ R2 et d ∈ R2 , une


direction non nulle telle que k∇ f (x0 ) + dk ≤ k∇ f (x0 )k.
1. Montrer que d est une direction de descente de f en x0 .
2. Trouver alors le pas optimal ρ ∈ R minimisant la fonction φ(ρ) = k∇ f (x0 ) + ρdk.
3. Exhiber une direction de descente qui n’appartient pas à vect(−∇ f (x0 )) lorsque ∇ f (x0 ) , 0.
Corrigé :
1. Puisque k∇ f (x0 ) + dk ≤ k∇ f (x0 )k, on élève chacun des membres de l’inégalité au carré et
on les développe. On obtient

k∇ f (x0 )k2 + 2 < ∇ f (x0 ), d >2 +kdk2 ≤ k∇ f (x0 )k2

et par conséquent, < ∇ f (x0 ), d >2 ≤ − 21 kdk2 < 0.


Par conséquent,
f (x0 + d) − f (x0 ) 1
=< ∇ f (x0 ), d >2 +o() ≤ − kdk2 + o().
 2
Par conséquent, le second membre est strictement négatif si  est assez petit et la conclusion
s’ensuit.
2. Pour trouver le pas optimal, remarquons que le problème min φ est équivalent au problème
R
min φ2 . Or, φ2 (ρ) = k∇ f (x0 )k2 + 2ρ < ∇ f (x0 ), d >2 +ρ2 kdk2 , donc le minimum est
R
<∇ f (x0 ),d>2 <∇ f (x0 ),d>22
atteint en ρ∗ = − kdk2
et vaut min φ2 = k∇ f (x0 )k2 − kdk2
.
R
3. En particulier, tout vecteur de la forme d = −∇ f (x0 ) + u, où u est un vecteur unitaire et
 ∈]0, k∇ f (x0 )k[ est une direction de descente.

Exercice II.19 Soit f : R4 −→ R, la fonction définie par

f (x1 , x2 , x3 , x4 ) = (1 + x4 )3 (x21 + x22 + x23 ) + x24 .

1. Déterminer les points critiques de f .

30
2. Montrer que f (0R4 ) est un minimum local. Est-ce un minimum global ?
Corrigé :
1. Les points critiques de f sont les solutions de l’équation ∇ f (x1 , x2 , x3 , x4 ) = 0R4 . Or,

2(1 + x4 )3 x1 = 0



 2(1 + x4 )3 x2 = 0


∇ f (x1 , x2 , x3 , x4 ) = 0R4 ⇔ 

 2(1 + x4 )3 x3 = 0


 3(1 + x )2 (x2 + x2 + x2 ) + 2x = 0.

4 1 2 3 4

Notons que x4 , −1 sinon, la dernière équation fournit une contradiction. On en déduit


que nécessairement x1 = x2 = x3 = 0. Il vient x4 = 0. L’unique point critique de f est
donc 0R4 .
2. Évaluons la matrice hessienne de f en 0R4 . Notons X = (x1 , x2 , x3 , x4 ). On a

 2(1 + x4 ) 6x1 (1 + x4 )2
 3 0 0


0 2(1 + x4 )3 0 6x2 (1 + x4 )2
 
Hess f (X) = 
 
2(1 + x4 ) 3 6x3 (1 + x4 )2

 0 0 
6x1 (1 + x4 )2 6x2 (1 + x4 )2 6x3 (1 + x4 )2 2 + 6(1 + x4 )(x21 + x22 + x23 )
 

et par conséquent, Hess f (0R4 ) = 2I4 est définie positive. On en déduit que f (0R4 ) = 0 est
un minimum local. Il n’est en revanche pas global car

f (1, 0, 0, t) = (1 + t)3 + t2 −−−−−→ −∞


t→−∞

Exercice II.20 Soit N ∈ N∗ . On considère un nuage de points {(ti , xi )}1≤i≤N , et on cherche à


mettre en ?uvre une régression parabolique, autrement dit, on recherche la parabole P d’équation
y = at2 + bt + c, où a, b et c sont trois réels à déterminer, telle que la somme sur tous les indices
i variant de 1 à N du carré de la distance du point (ti , xi ) au point de même abscisse sur P soit
minimale.
1. Écrire ce problème comme un problème de minimisation quadratique, c’est-à-dire un pro-
blème de la forme

1
min J(X) = < AX, X > − < b, X >, (Q)
X∈RN 2
avec A ∈ Mn (R), b ∈ Rn . On devra donc expliciter n, A et b.
N
On utilisera la notation Sk = tki .
P
i=1
2. Discuter de l’existence des solutions d’un tel problème.
3. On suppose que la matrice A est définie positive. Démontrer que (Q) possède une unique
solution.
Corrigé :

31
1. Le problème s’écrit
N
X
min f (a, b, c) = (xi − at2i − bti − c)2 .
(a,b,c)∈R3
i=1
 2
 t1 t1 1 
  
 a 
Écrivons J(X) = kMX − kk2 avec X =  b , M =  ... .. .. 
  
. . 
c

2
 
tN tN 1

 x1 
 

et k =  ... . D’après la méthode des moindres carrés, on a


 
 
xN
1
J(X) = < Ax, X > − < b, X >
2
 
 S4 S3 S2 
avec n = 3, A = MT M ∈ M3 (R) et b = MT k ∈ R3 . On calcule A =  S3 S2 S1 .
 
S2 S1 N
 
2. Ce problème est équivalent au problème de minimiser la distance euclidienne de k au
sous espace vectoriel (de dimension finie) Im(M). C’est donc un problème de projection
orthogonale, et il admet une solution.
3. Dans ce cas, on sait que HessJ(X) = A qui est définie positive. Par conséquent, J est
strictement convexe, et J possède au plus un minimum dans R3 . Comme on a vu qu’elle
en possède au moins un, on conclut à l’existence et l’unicité.

Exercice II.21 On souhaite résoudre numériquement le problème d’optimisation

min f (x, y) = x4 + y4 − xy,


(x,y)∈R2

à l’aide d’une méthode de gradient à pas constant, noté ρ > 0. On appelle (xk , yk )k∈N la suite des
itérés obtenus.
1. Donner la relation de récurrence satisfaite par la suite (xk , yk )k∈N .
2. Quel critère d’arrêt numérique proposez-vous pour cet algorithme ?
Corrigé :
1. f est C∞ car polynomiale et on a ∇ f (x, y) = (4x3 − y, 4y3 − x). La relation de récurrence
dans la méthode du gradient à pas constant s’écrit Xk+1 = Xk − ρ∇ f (Xk ), qui s’écrit ici
xk+1 = xk − ρ(4x3k − yk )
(

yk+1 = yk − ρ(4y3k − xk ).
2. On fixe tol > 0. Un critère raisonnable est de stopper l’algorithme lorsque

|xk+1 − xk | + |yk+1 − yk | < tol

ou encore lorsque
|4x3k − yk | + |4y3k − xk | < tol.

32
Examen session rattrapage

Exercice II.22 On définit la famille des {ui }i∈{0,...,N+1} par ui = ih, avec h = 1
N+1 et N ∈ N∗ donné.
On se donne un nuage de points de R2 (ui , xi )i∈{0,...,N+1} . On suppose par ailleurs que x0 = 0 et
xN+1 = 1. Posons x = (x1 , ..., xN ). On appelle f (x), la longueur de la courbe affine par morceaux
passant par les points (ui , xi ).
1. Calculer la distance entre deux points Ai+1 = (ui+1 , xi+1 ) et Ai = (ui , xi ).
2. Montrer que pour tout x ∈ RN , on a
N r
X xi+1 − xi 2
f (x) = h 1+( ) .
h
i=0

3. Montrer que f est coercive ( f (x) ≥ kxk∞ ), et en déduire l’existence de la solution pour le
problème min f (x).
4. Étudier la convexité de f , et en déduire l’unicité de la solution pour le problème min f (x).
Corrigé :
p
1. d(Ai+1 , Ai ) = k(ui+1 , xi+1 ) − (ui , xi )k2 = (ui+1 − ui )2 − (xi+1 − xi )2
N p N p N q
2. f (x) = (ui+1 − ui )2 + (xi+1 − xi )2 = h2 − (xi+1 − xi )2 = h 1 + ( xi+1h−xi )2
P P P
i=0 i=0 i=0
3. Soit k ∈ [1, N] et x = (x1 , ..., xN ) ∈ RN . On a successivement
N q k−1
P q
f (x) = h 1 + ( xi+1h−xi )2 ≥ h 1 + ( xi+1h−xi )2
P
i=0 i=0
k−1
P q xi+1 −xi 2 k−1
P xi+1 −xi
≥ h ( h ) ≥h | h )|
i=0 i=0
k−1
P k−1
P
≥ |xi+1 − xi | ≥ | (xi+1 − xi )| ≥ |xk − x0 | ≥ |xk |,
i=0 i=0

d’après l’inégalité triangulaire f est donc coercive.


Puisque f est continue, coercive sur RN qui est fermé, le problème min f possède une
solution.
4. Montrons que f est strictement convexe. Pour cela, remarquons d’abord que la fonction

g : x 7→ 1 + x2 est strictement convexe car sa dérivée seconde est donnée par g” (x) =
1/(1 + x2 )3/2 et est donc strictement positive sauf en 0.
Soit (x, y) ∈ (RN )2 tel que x , y. ce qui signifie qu’il existe au moins un indice j ∈ [1, N]
tel que x j , y j . Par conséquent, il existe un rang k ∈ [0, N] tel que xk+1 − xk , yk+1 − yk .
En effet, si ce n’était pas le cas, puisque x0 = y0 = 0, on en déduirait successivement
que x1 = y1 , x2 = y2 et ainsi de suite jusqu’a xN = yN , et on aurait donc x = y. Par
conséquent, pour tout t ∈]0, 1], on a

g(t(xk+1 − xk ) + (1 − t)(yk+1 − yk )) < tg(xk+1 − xk ) + (1 − t)g(yk+1 − yk ).

33
Soit t ∈]0, 1]. En utilisant la stricte convexité de g, il vient :
N
yi+1 −yi
f (tx + (1 − t)y) = h g(t( xi+1h−xi ) + (1 − t)(
P
h ))
i=0
N
yi+1 −yi
= h g(t( xi+1h−xi ) + (1 − t)(
P
h ))
i=0,i,k
x −x y −y
+hg(t( k+1h k ) + (1 − t)( k+1h k ))
N
y −y
< (tg( xi+1h−xi ) + (1 − t)g( i+1h i ))
P
h
i=0,i,k
x −x y −y
+h(tg( k+1h k ) + (1 − t)g( k+1h k ))
N
y −y
= h (tg( xi+1h−xi ) + (1 − t)g( i+1h i ))
P
i=0
= t f (x) + (1 − t) f (y).

On en déduit que f est strictement convexe. On en déduit que le problème min f (x) admet
au plus une solution.
En combine avec le résultat d’existence obtenu précédemment, il vient que ce problème
possède une unique solution.

Exercice II.23 On se donne n ∈ N∗ , b ∈ Rn un vecteur et A ∈ Mn (R) une matrice symétrique et


semi-définie positive. On considère la fonction f : Rn −→ R définie par
1
f (x) = kxk2 + < Ax, x > − < b, x >, x ∈ Rn .
2
I)  > 0,
1. Montrer que f est une fonction quadratique et calculer ∇ f et ∇2 f .
2. Montrer que f est fortement convexe et en déduire l’existence et l’unicité d’un point
de minimum de f sur Rn ; on va noter par x∗ ce point de minimum.
3. Écrire l’équation qui permet de trouver x∗ .
4. Trouver x∗ dans le cas particulier
! !
1 0 1 0
n = 2,  = , b= , A= .
100 1 0 0

II)  = 0, on va noter dans la suite par u∗ l’unique point de minimum de f sur Rn . Nous
appliquons la méthode de gradient à pas optimal qui consiste à construire une suite
{u(k) }k∈N ⊂ Rn par la relation de récurrence vue en cours, avec u(0) donnée.
1. Montrer qu’on a

u(k+1) − u∗ = u(k) − u∗ − ρk A(u(k) − u∗ ), ∀k ∈ N,

avec ρk ∈ R le pas optimal.


2. Programmer cet algorithme de gradient à pas optimal sous Python.

34
Corrigé :
I)  > 0,
1. On a
1 1
f (x) = kxk2 + < Ax, x > − < b, x >=  < In x, x > + < Ax, x > − < b, x >
2 2
forme quadratique,
∇ f (x) = 2In x + Ax − b, ∀x ∈ Rn

∇2 f (x) = 2In + A, ∀x ∈ Rn

2. Si w ∈ Rn arbitraire alors

< ∇2 f (x)w, w >= 2 < In w, w > + < Aw, w >≥ 2kwk2 > 0

donc f est fortement convexe.


Alors d’après le théorème on a l’existence et l’unicité d’un point minimum x∗ .
3. x∗ satisfait l’équation d’Euler ∇ f (x∗ ) = 0 donc

2x∗ + Ax∗ = b

4.
x∗1
! !
x∗1
! !
2 1 0 0
+ =
100 x∗2 0 0 x∗2 1
donc x∗1 = 0 et x∗2 = 50.
II)  = 0,

1. u∗ satisfait Au∗ = b donc

u(k+1) −u∗ = u(k) −u∗ −ρk ∇J(u(k) ) = u(k) −u∗ −ρk (Au(k) −b) = u(k) −u∗ −ρk A(u(k) −u∗ ).

35

Vous aimerez peut-être aussi