Académique Documents
Professionnel Documents
Culture Documents
Exercices Examens + Correction Modélisation
Exercices Examens + Correction Modélisation
Modélisation
Exercices et examens corrigés
Filière Sciences Mathématiques et Informatiques (Semestre 6)
Par
Abdelkrim EL MOUATASIM Professeur Habilité
Exercices corrigés
Exercice I.1 Soit X ⊂ Rn et f : X −→ R avec f ∈ C1 /X. Démontrer que si f est une fonction
convexe sur X, alors (∇ f (x) − ∇ f (y))T (x − y) ≥ 0 pour toute paire de points x, y ∈ X.
Corrigé :
Puisque f est convexe, alors l’inégalité de gradient s’applique :
donc
0 ≥ ∇ f (y)T (x − y) + ∇ f (x)T (y − x)
ou
(∇ f (x) − ∇ f (y))T (x − y) ≥ 0.
2
!
1 − sin x2
∇ f (x1 , x2 ) =
2
.
− sin x2 −x1 cos x2
! !
1 0 1 (−1)k+1
∇ 2
f (x∗k ) = , ∇ f (x̄k ) =
2
k+1 .
0 1 (−1) 0
— x∗k vérifie les conditions suffisantes d’optimalité pour tout k
— x̄k ne vérifie les conditions nécessaires d’optimalité pour aucun k.
2.
f (x) = xT Ax
2 −1
..
avec A = −1
.
−1
−1 2
3.
∇ f (x) = 2Ax
et
H( f ) = 2A
f (x1 , . . . , xi + h, . . . , xn ) − f (x1 , . . . , xi , . . . , xn )
gi ≈
h
5.
2iπ
λi = 2 − 2 cos , ∀i ∈ [1, n]
n+1
3
6. Toutes les valeurs propres de A sont positives, donc la fonction f est convexe.
f (x, y) = 4x2 − xy + y2 − x3
Corrigé : On a :
∂f ∂f
= 8x − y − 3x2 = −x + 2y
∂x ∂y
∂2 f ∂2 f ∂2 f
= 8 − 6x =2 = −1
∂x2 ∂y2 ∂x∂y
En résolvant l’équation : ∇ f (x) = 0. Donc les points candidats sont : P1 = (0; 0; 0) et P2 =
( 25 ; 54 ; 125
16 ). La matrice Hessienne est définie par :
!
8 − 6x −1
H f (x) =
−1 2
Alors !
8 −1
H f (P1 ) =
−1 2
Comme M1 = 8 > 0 et M2 = 15 > 0, donc P1 est un minimum.
Et !
−7 −1
H f (P2 ) =
−1 2
Comme M2 = −7 < 0 et M2 = −15 < 0, donc P2 est un point-selle.
1
min f (x) = x2 − x
2
1. Résoudre le problème avec la méthode de Newton en considérant le point initial x0 = 3
1. On a :
x1 = xk − f 0 (x0 )/ f 00 (x0 ) = 3 − 11/4 = 1/4
et f 0 (x1 ) = 0 stop.
4
Méthode de la bissection : f 0 (x) = x3 + x2 − 3x − 3 = 0
x1 x2 xm f 0 (x1 ) f 0 (x2 ) f 0 (xm ) Err.abs
1.0 2.0 1.5 -4.0 3.0 -1.875 0.5
1.5 2.0 1.75 -1.875 3.0 +0.171 87 0.25
1.5 1.75 1.625 -1.875 0.171 87 -0.943 35 0.125
1.625 1.75 1.6875 -0.943 35 0.171 87 -0.409 42 0.0625
1.6875 1.75 1.718 75 -0.409 42 0.171 87 -0.124 78 0.03125
2.
Itération 1 :
On a f 0 (0) f 0 (1) = (−1/2)(3/4) < 0 donc on pose a = 0 et b = 1.
Itération 2 :
c = 1/2 f 0 (c) = 1/2 > 0 donc on pose a = 0 et b = 1/2.
Itération 3 :
c = 1/4 et f 0 (c) = 0. Stop.
5
|x1 −x2 |
1. L’erreur absolue : |r − xm | ' 2 < abs
|r−xm | |x1 −x2 |
2. L’erreur relative : |r| '< rel
|xm |
3. On peut arrêter l’algorithme si f 0 (xm ) < f
Corrigé :
1.
∇ f (x, y) = (x, y)T
Itération 2 :
étape 0 : X1T = X0T − t0 ∇ f (X0 )T = (2, −1) − 1(2, −1) = (0, 0)
étape 1 : ∇ f (X1 )T = (0, 0) stop
X∗T = X1 = (0, 0) et f ∗ = f (X∗ ) = 0.
6
Utilisé les conditions KKT pour résoudre le problème (P).
Corrigé :
Nous pouvons donc considérer qu’il n’y a qu’une seule contrainte avec
g1 (x1 , x2 ) = 2x1 + x2 ,
et b1 = 3.
Nous associons à cette contrainte un multiplicateur u1 ≥ 0, et pour les contraintes de non-
négativité u2 ≥ 0, u3 ≥ 0, nous avons alors les conditions suivantes :
1
− 2u1 + u2 = 0,
x1 + 1
∗
1 − u1 + u3 = 0,
2x∗1 + x∗2 − 3 ≤ 0,
u1 (2x∗1 + x∗2 − 3) = 0,
−x1 ≤ 0,
−x2 ≤ 0,
u2 x1 = 0,
u3 x2 = 0.
1 − 2u1 (x∗1 + 1) + u2 = 0
2x∗1 + x∗2 − 3 = 0,
et par conséquent x∗2 = 3. Dès lors, u1 = 1, u2 = 1, u3 = 0. Les conditions KKT sont donc
satisfaites en un seul point : (0, 3).
7
!
1 2 3 −1
Ici A =
1 3 2 5
! ! ! !
1 3 2 −1 x1 x2
Choisissons B = {1, 3}, N = {2, 4}. Alors AB = , AN = , xB , xN
1 2 3 5 x3 x4
! ! ! ! !
xB 1 3 x1 2 −1 x2
(AB AN ) = +
xN 1 2 x3 3 !5 x4
x1 + 3x3 + 2x2 − x4
=
x1 + 2x3 + 3x2 + 5x4
et
∂g ∂g
( ) = (52x2 + 170x4 170x2 + 578x4 ).
∂x2 ∂x4
Alors !
−2 3
A−1
B
=
1 −1
! !
−2 3 2
Effectuons le changement de base = {2, 3},
B0 = {1, 4}
N0 = A−1
B
A{2} =
1 −1 3
1
! ! !
5 2 3 5 0
p = 5 , 0 et donc AB0 = est inversible (A−1
B
A B 0)
−1 =
1 et A−1B0
=
−1 3 2 5 1
1 −2 3
! ! !
5 0 −2 3
1 = 5
3
5
−2
5 1 1 −1 5 5 ! ! !
x1 x2 x 1
Pour B = {1, 3}, on a + A−1B
AN = A−1 B
b soit +
x3 x4 x
! ! ! ! ! ! ! 3 !
−2 3 2 −1 x2 −2 3 6 x1 5 17 x2
= soit encore + =
1 −1 3 5 x4 1 −1 4 x3 −1 −6 x4
!
0
2
x3 = 0 ⇒ −x2 − 6x4 = 2
Les pivots des colonnes A2 et A4 (relatifs à x3 ) sont −1 et −6. S’ils étaient nuls on aurait 0 = 2. On
voit que la condition de non-dégénérescence n’est pas nécessaire puisqu’ici A−1
B
b a une composante
(celle associée à x1 ) nulle et pourtant on peut effectuer les changements de base B − {1} + {2} et
B − {1} + {4}, les pivots (5 et 17) étant non nuls.
Exercice I.11
min f (x) = x21 + x22 + x23 + x24 − 2x1 − 3x4
2x1 + x2 + x3 + 4x4 = 7
s.c.
x1 + x2 + 2x3 + x4 = 6
x≥0
Utilisé la méthode de gradient réduit avec x0 = (2, 2, 1, 0)t .
Corrigé :
8
!
2 1
Soient x0 = (2, 2, 1, 0)t , x1 et x2 les variables de base et B = la base.
1 1
On a : ∇ f (x0 ) = (2, 4, 2, −3)T
! !
1 −1 2 1 1 4
r(x ) = (2, 4, 2, −3) − (2, 4)
0
= (0, 0, −8, −1),
−1 2 1 1 2 1
par conséquent, d3 = 8 et d4 = 1.
On a :
dB = B−1 NdN = (5, −22)T
xkj
et µ ≤ µmax = min {− d j } = 11 .
1
j∈B,d j <0
On vérifie que le minimum de la fonction f (x0 + µd) pour µ ∈ [0, 11
1
] est obtenu pour µ = 1
11 .
La variable x2 quitte alors la base pour y être remplacée par x3 ou x4 , au choix.
9
Itération 2.
∂g ∂f ∂f ∂f ∂f
On a x1 = 1 − x2 + x3 d’où g(x2 , x3 ) = f (1 − x2 + x3 , x2 , x3 ), ∂xN = (− ∂x1 + ∂x2 ∂x1 + ∂x3 ) =
!
2
(−2x1 + 2x2 2x1 ) et r(P1 ) = (−2 2). dN = et dB = −2 donc la direction de déplacement est
0
−2
2 .
0
1 −2
α ≤ 21
(
0 + α 2 ≥ 0 ⇒ ⇒ αmax = 21
α≤0
0 0
Le minimum de f (1 − 2α, 2α, 0) sous la contrainte 0 ≤ α ≤ 12 est atteint en α2 = 14 .
1
2
Le nouveau point est P2 = 12 .
0
Itération 3. !
0
Le gradient réduit en P2 est r(P2 ) = (0 1) donc dN = . On arrête.
0
Vérifions que les conditions de Kuhn-Tucker sont satisfaites : ici A = (1 1 − 1)
∂f
soient µ = − ∂x1 ( 21 , 12 , 0)A−1
1
= −2 × 1
2 = −1 (car A1 = 1), λ1 = 0, (λ2 λ3 ) = r(P2 ) = (0 1)
∂f 1 1
( , , 0)
∂x 2 2
+ µA − λ = 0 ⇔ (2 × 1
2 2× 1
2 0) − (1 1 − 1) − (0 0 0), donc vérifié.
On aura remarqué que l’on a une écriture “transposée” des équations de Kuhn-Tucker.
λ ≥ 0 et les conditions de complémentarités λ1 × 1
2 = 0, λ2 × 1
2 = 0, λ3 × 0 = 0 sont vérifiées.
Remarque :
En partant du même point on obtient des cheminements différents selon le choix du B initial.
2 2
5 5
Si l’on choisit B = {1} et N = {2, 3}, on passe par les 3 points P1 = 45 , P2 = 35 ,
1
0
1 5
2
P3 = 12 sans changer de base B.
0
Exercice I.13 Le tableau suivant donne l’évolution en fonction de l’année du budget publicitaire
d’une entreprise, en dizaines de milliers dh.
10
4. On considère que cette droite permet un ajustement de cette série statistique. Calculer à
partir de quelle année le budget devrait dépasser 60 000 dh.
Corrigé :
1. On a
cov(X, Y) = (X − X̄)(Y − Ȳ)
donc P
(X −X̄)(Y −Ȳ)
cov(X, Y) = P i n i
(X Y −X Ȳ−X̄Y +X̄Ȳ)
= P i i i nP i P
(Xi Yi )−Ȳ Xi −X̄ Yi +nX̄Ȳ)
= n
= XY − X̄Ȳ
2.
cov(X,Y)
r(X, Y) = σ(X)σ(Y)
= 2.29128∗0.71578
1.63125
= 0.99462
3. L’équation de la droite X = aY + b avec :
cov(X, Y)
a= = 3.18389
σ(Y)2
et
¯ − a(Y)
b = (X) ¯ = b = −5.17109
Exercice I.14 Nous considérons l’ensemble X = {1, 2, 3, 6, 7, 8, 13, 15, 17} à partir duquel nous
souhaitons créer 3 clusters.
1. Appliqué l’algorithme kmeans ont choisissons arbitrairement pour centres de cluster les
éléments M1 = 13, M2 = 15, M3 = 17 associés respectivement aux clusters C1 =
13, C2 = 15, C3 = 17.
2. Appliqué l’algorithme kmeans++ ont choisissons arbitrairement pour centre de cluster
l’éléments M1 = 2 associés au clusters C1 = 2.
Corrigé :
Table 1 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre M1 =
13, M2 = 15, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8, 13} de centre
M1 = 7,
40
C2 = {15} de centre M2 = 15 et C3 = 17 de centre M3 = 17.
11
x M1 = 13 M2 = 15 M3 = 17
1 144 196 256
2 121 169 225
1. 3 100 144 196
6 49 81 121
7 36 64 100
8 25 49 81
Table 1 – Itération 1
x M1 = 40
7 M2 = 15 M3 = 17
1 1089/49 196 256
2 676/49 169 225
3 361/49 144 196
6 4/49 81 121
7 81/49 64 100
8 256/49 49 81
13 2601/49 4 14
Table 2 – Itération 2
Table 2 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre
M1 = 7,
40
M2 = 15, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8} de centre
M1 = 4.5, C2 = {13, 15} de centre M2 = 14 et C3 = 17 de centre M3 = 17.
12
x M1 = 4.5 M2 = 14 M3 = 17
1 12.25 169 256
2 6.25 144 225
3 2.25 121 196
6 2.25 64 121
7 6.25 49 100
8 12.25 36 81
13 72.25 1 14
15 110.25 1 4
Table 3 – Itération 3
Table 3 : Calcul des distances D2 (x) séparant chaque élément de X à chaque centre
M1 = 4.5, M2 = 14, M3 = 17 et identification des clusters C1 = {1, 2, 3, 6, 7, 8} de
centre M1 = 4.5, C2 = {13, 15} de centre M2 = 14 et C3 = 17 de centre M3 = 17.
Les centres issus du tableau 3 sont les mêmes que ceux issus du ta-
bleau 2. L’algorithme s’arrête donc et nous obtenons les 3 clustres suivants
C1 = {1, 2, 3, 6, 7, 8} de centre M1 = 4.5
C2 = {13, 15} de centre M2 = 14
C3 = {17} de centre M3 = 17
x 1 3 6 7 8 13 15 17
2. D22 (x) 1 1 16 25 36 121 169 225
P(M2 = x) 1
594
1
594
16
594
25
594
36
594
121
594
169
594
225
594
Table 4 – Itération 1
Tableau 4 : Calcul des distances D22 (x) séparant chaque élément de X au premier centre
égal à 2 et identification du deuxième centre M2 = 17 correspondant à l’élément de X avec
la plus forte probabilité.
13
x 1 3 6 7 8 13 15
D22 (x) 1 1 16 25 36 121 169
D217 (x) 256 196 121 100 81 16 4
P(M3 = x) 1
99
1
99
16
99
25
99
36
99
16
99
4
99
Table 5 – Itération 2
Tableau 5 : Calcul des distances D22 (x) séparant chaque élément de X au premier centre égal
à 2, D217 (x) séparant chaque élément de X au deuxième centre égal à 17 et identification du
troisième centre M3 = 8 correspondant à l’élément de X avec la plus forte probabilité.
Tableau 6 : Calcul des distances séparant chaque élément de X à chaque centre M1 = 2,
x M1 = 2 M2 = 17 M3 = 8
1 1 256 49
3 1 196 25
6 16 121 4
7 25 100 1
13 121 16 25
15 169 4 49
Table 6 – Phase 2
Exercice I.15 Considérer le problème de produire une boîte de volume maximale avec une pièce
de carton de superficie spécifiée c > 0. Dénotons les dimensions des côtés de cette boîte par x, y et
z. Le problème peut se formuler comme suit :
max xyz
c
s.c. yx + yz + xz =
2
Déterminer les dimensions optimales en utilisant les conditions de Kuhn-Tucker (KKT).
Corrigé : KKT :
−yz + λ1 (y + z) − λ2 = 0 (1)
−xz + λ1 (x + z) − λ3 = 0 (2)
−xy + λ1 (x + y) − λ4 = 0 (3)
xy + yz + xz = C2 (4)
xλ2 = yλ3 = zλ3 = 0 (5)
(1)+(2)+(3) :
−(xy + yz + zx) + 2λ1 (x + y + z) = λ2 + λ3 + λ4
⇒
λ2 + λ3 + λ4 C
λ1 (x + y + z) = + > 0 ⇒ λ1 > 0
2 4
14
Si x = 0, alors (3) devient λ1 z = λ3
⇒ λ1 yz = yλ3 = 0
⇒ y = 0ouz = 0
=⇒ λ2 = λ3 = λ4 = 0
On multiplie :
15
Deuxième partie
Examens corrigés
16
Année Universitaire : 2016–2017
et si θ , 1 on a
17
Soit (Xi )1≤i≤n et Yi deux séries statistiques. On cherche à savoir s’il est raisonnable de prévoir
Yi en fonction de Xi , avec par exemple une relation linéaire Yi = a + bXi . Pour cela on minimise
f (a, b) = (a + bXi − Yi )2 par rapport à a et b, ce qui donne les équations :
P
∂f
Pn
∂a = 0 = 2 i=1 (a + bXi − Yi )
∂ f = 0 = 2 n Xi (a + bXi − Yi )
P
∂b i=1
équivalentes à :
a Pni=1 + b Pni=1 Xi = Pni=1 Yi
( P P P
a ni=1 Xi + b ni=1 Xi2 = n
i=1 Xi Yi
Donc
cov(X, Y)
a= , et b = m(Y) − am(X).
v(X)
Compléter deux itérations de la méthode du gradient réduit pour résoudre le problème HS48,
on partira du point X0 = (2, 1.5, 0, 1.5, 0)T
Corrigé :
— 1re itération :
XB0 = (x1 , x4 ), XN
0
= (x2 , x3 , x5 ),
9 9 23 15
⇒ rN (X0 ) = (1, − , −6)T , dN = (−1, , 6)T et dB = (− , − )T
2 2 4 4
αmax = 0.3478 ⇒ α1 = 0.1807
— 2me itération :
XB1 = (x1 , x4 ), XN
1 = (x , x , x ),
2 3 5
⇒ d = (0.856, −0.63, −0.1509, −0.5638, −0.4884)T
⇒ α2 = 0.159
⇒ X2 = (0.868, 1.162, 0.9794, 1.0559, 0.9338)T
18
2. Démontrer que si tout les valeurs propre de D sont positive, alors f est convexe sur Rn .
Corrigé :
1. La fonction g(x) = −bT x est linéaire donc convexe. En effet −bT (αx + (1 − α)y) = −αbT x −
(1 − α)bT y
Puisque xT Dx est convexe, alors f (x) est une combinaison linéaire de deux fonction convexe
1
avec un poids pour xT Dx et 1 pour −bT x. Donc f est convexe.
2
2. Si tout les valeurs propre de D positive donc D est semi défini positive ⇒ xT Dx est convexe
d’après Q1 f est convexe.
α
!
Exercice II.5 1. Montrer que en partant du point X0 = (α , 0 quelconque), la
0
méthode de Newton converge.
α
!
2. Appliquer la méthode de Newton avec le pas optimale en partant de X0 = pour
0
calculer X1 . Que constate-t-on ?
Corrigé :
2 2
1. X1 = ( α, 0)T , X2 = (( )2 α, 0)T
3 3
2 k k→∞
⇒ X = (( ) α, 0) −−−−→ 0
k T
3
1
2. Direction de Newton en X0 est −( α, 0)T
3
1
X1 (t) = X0 − t( α, 0)T
3
t
(α − α)4
⇒ g(t) = f (X(t)) = 3 ≥ 0 g(t) atteint son minimum en t = 3 X1 = X(3) =
4
(0, 0)T minimum atteint.
Soit X0 = (2, 0, 1.5, 0, 1.5)T le point initial, pour résoudre le problème (P1) par la méthode du
gradient réduit.
1. Donner les bases possible.
2. Compléter une itération de l’algorithme. Donner la base de deuxième itération.
3. Vérifier que le point X∗ = (1, 1, 1, 1, 1)T vérifie les conditions de Kuhn-Tucker.
19
Corrigé :
1. B1 = {x1 , x5 } et B2 = {x3 , x5 }
2. Si B = B1 on trouve X1 = (0.961, 0.834, 1.319, 1.084, 0.822)T et B = B1
Si B = B2 on trouve X1 = (2.108, 0.648, 0.42, 0.648, 1.176)T et B = B2
3. dN = 0 ⇒ X∗ vérifier les conditions de KKT.
20
Année Universitaire : 2017–2018
Ainsi f (x(θ)) < f (x̄) où x(θ) ∈ B(x̄) ∩ X, contredisant que x̄ est un minimum local de f
sur X.
2. Soit donc x∗ ∈ K tel que f (x∗ ) ≤ f (x), ∀x ∈ K. Supposons qu’il existe y∗ , x∗ tel que
f (y∗ ) ≤ f (x), ∀x ∈ K. Formons pour λ ∈ ] 0, 1 [ le vecteur
u = λy∗ + (1 − λ)x∗ .
21
4. Les conditions KKT sont-elle suffisantes pour ce problème ? Justifier votre réponse.
Corrigé :
1.
min z =x2 + y2
s.c. a1 x + a2 y = b
2.
L(x, y, z) = x2 + y2 − λ(a1 x + a2 y − b)
2x − a1 λ = 0
2y − a2 λ = 0
a1 x + a2 y = b(∗)
a1 λ a2 λ 2b a1 b a2 b
3. x = et y = d’après (∗) λ = 2 donc x = 2 et y = 2
2 2 a1 + a2
2 a1 + a22 a1 + a22
4. On a le problème d’optimisation convexe donc les conditions de KKT sont suffisantes.
Y = α1 X1 + α2 X2 + α3
22
qui approche le mieux les n triples (X1i , X2i , Yi ).
Corrigé :
1. La méthode des moindres carrés.
n
2. F(α1 , α2 , α3 ) = min (yi − (α1 x1i + α2 x2i + α3 x3i ))2 .
P
i=1
∂F(α
3. = 0, i = 1, 2, 3.
∂αi
23
Année Universitaire : 2018–2019
αy1 + (1 − α)y2 ≤ −α − (1 − α) = −1
puisque x ≥ 0 donc
6x ≥ 0, 12x − 4 ≥ 0
24
Exercice II.13 Une firme aéronautique fabrique des avions qu’elle vend sur deux marchés étran-
gers. Soit q1 le nombre d’avions vendus sur le premier marché et q2 le nombre d’avions vendus sur
le deuxième marché. Les fonctions de demande dans les deux marchés respectifs sont :
p1 = 60 − 2q1 , p2 = 80 − 4q2
où p1 et p2 sont les deux prix de vente. La fonction de coût total de la firme est
C = 50 + 40q
Le revenu total R s’obtient en multipliant le prix par la quantité sur chaque marché :
p1 = 50, p2 = 50
25
1. Transformer le problème (P) vers un problème d’optimisation avec contraintes d’égalité
(P1).
2. Déterminer le point X0 de problème (P1) associer au sommet A = (1, 0)t de problème (P).
3. Résoudre le problème (P1) avec la méthode du gradient réduit, on partira du point X0 . (1
itération)
4. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).
Corrigé :
On considère le problème (P) d’optimisation sous contraintes suivant :
1.
2.
A = (1, 0)t est un sommet de problème (P) donc x1 = 1, x2 = 0, donc X0 = (1, 0, x3 )
d’après la contrainte x3 = 0. =⇒ X0 = (1, 0, 0).
3.
On a x1 = 1 − x2 + x3 d’où g(x2 , x3 ) = f (1 − x2 + x3 , x2 , x3 ),
∂g ∂f ∂f ∂f ∂f
= (− + + ) = (−2x1 + 2x2 2x1 )
∂xN ∂x1 ∂x2 ∂x1 ∂x3
! −2
2
et r(P1 ) = (−2 2). dN = et dB = −2 donc la direction de déplacement est 2 .
0
0
1 −2
α ≤ 12
(
0 + α 2 ≥ 0 ⇒ ⇒ αmax = 12
α≤0
0 0
Le minimum de f (1 − 2α, 2α, 0) sous la contrainte 0 ≤ α ≤ 1
2 est atteint en α2 = 41 .
1
2
Le nouveau point est X1 = 12 .
0
4.
Le gradient réduit en X1 est r(X1 ) = (0 1) donc
!
0
dN = .
0
26
Examen session rattrapage
Exercice II.15 Un fabricant de postes de télévision produit q poste par semaine à un coût total de
max B(q)
∂B
= 0 ⇒ q = 50.
∂q
Exercice II.16 1. Utiliser la méthode des moindres carrés pour estimer les paramètres de la
droite y = ax + b qui approche le mieux les n couples (xi , yi ).
2. Trouver la droite f (x) = ax + b qui approche le mieux les mesures :
Corrigé :
27
1. Soit (xi )1≤i≤n et yi deux séries statistiques. On cherche à savoir s’il est raisonnable de
prévoir yi en fonction de xi , avec par exemple une relation linéaire yi = axi + b. Pour cela
on minimise X
f (a, b) = (axi + b − yi )2
équivalentes à :
b ni=1 xi + a ni=1 x2i =
( P P Pn
xi yi
Pn Pn Pi=1
n
i=1 b+ a i=1 xi = i=1 yi
tel que :
- E(x) est la moyenne arithmétique de x
- σ(x) est l’écart type de x.
2. D’après la question 1
27
4 −4 11
a= =
10 10
et
11 2
b=2− ×2=−
10 10
donc
11 2
f (t) = t−
10 10
Exercice II.17 On considère le programme nonlinéaire (P1) suivant :
28
1. Résoudre
le problème (P1) avec la méthode du gradient réduit, on partira du point X0 =
2
1
5
2. Vérifier que le point trouver vérifie les conditions de Kuhn-Tucker (KT).
Corrigé :
1.
Itération 1 :
2
Puisque le point initial est X0 = 1 donc B = {1, 3}, N = {2},
5
! ! !
0 1 −1 0 1
AN = et AB = donc AB =−1
−1 1 0 −1 1
on sait que
rN (X) = 4x2 − (2x1 − x3 , −x1 + 12x3 − 12)A−1
B AN
29
Année Universitaire : 2019–2020
30
2. Montrer que f (0R4 ) est un minimum local. Est-ce un minimum global ?
Corrigé :
1. Les points critiques de f sont les solutions de l’équation ∇ f (x1 , x2 , x3 , x4 ) = 0R4 . Or,
2(1 + x4 )3 x1 = 0
2(1 + x4 )3 x2 = 0
∇ f (x1 , x2 , x3 , x4 ) = 0R4 ⇔
2(1 + x4 )3 x3 = 0
3(1 + x )2 (x2 + x2 + x2 ) + 2x = 0.
4 1 2 3 4
2(1 + x4 ) 6x1 (1 + x4 )2
3 0 0
0 2(1 + x4 )3 0 6x2 (1 + x4 )2
Hess f (X) =
2(1 + x4 ) 3 6x3 (1 + x4 )2
0 0
6x1 (1 + x4 )2 6x2 (1 + x4 )2 6x3 (1 + x4 )2 2 + 6(1 + x4 )(x21 + x22 + x23 )
et par conséquent, Hess f (0R4 ) = 2I4 est définie positive. On en déduit que f (0R4 ) = 0 est
un minimum local. Il n’est en revanche pas global car
1
min J(X) = < AX, X > − < b, X >, (Q)
X∈RN 2
avec A ∈ Mn (R), b ∈ Rn . On devra donc expliciter n, A et b.
N
On utilisera la notation Sk = tki .
P
i=1
2. Discuter de l’existence des solutions d’un tel problème.
3. On suppose que la matrice A est définie positive. Démontrer que (Q) possède une unique
solution.
Corrigé :
31
1. Le problème s’écrit
N
X
min f (a, b, c) = (xi − at2i − bti − c)2 .
(a,b,c)∈R3
i=1
2
t1 t1 1
a
Écrivons J(X) = kMX − kk2 avec X = b , M = ... .. ..
. .
c
2
tN tN 1
x1
à l’aide d’une méthode de gradient à pas constant, noté ρ > 0. On appelle (xk , yk )k∈N la suite des
itérés obtenus.
1. Donner la relation de récurrence satisfaite par la suite (xk , yk )k∈N .
2. Quel critère d’arrêt numérique proposez-vous pour cet algorithme ?
Corrigé :
1. f est C∞ car polynomiale et on a ∇ f (x, y) = (4x3 − y, 4y3 − x). La relation de récurrence
dans la méthode du gradient à pas constant s’écrit Xk+1 = Xk − ρ∇ f (Xk ), qui s’écrit ici
xk+1 = xk − ρ(4x3k − yk )
(
yk+1 = yk − ρ(4y3k − xk ).
2. On fixe tol > 0. Un critère raisonnable est de stopper l’algorithme lorsque
ou encore lorsque
|4x3k − yk | + |4y3k − xk | < tol.
32
Examen session rattrapage
Exercice II.22 On définit la famille des {ui }i∈{0,...,N+1} par ui = ih, avec h = 1
N+1 et N ∈ N∗ donné.
On se donne un nuage de points de R2 (ui , xi )i∈{0,...,N+1} . On suppose par ailleurs que x0 = 0 et
xN+1 = 1. Posons x = (x1 , ..., xN ). On appelle f (x), la longueur de la courbe affine par morceaux
passant par les points (ui , xi ).
1. Calculer la distance entre deux points Ai+1 = (ui+1 , xi+1 ) et Ai = (ui , xi ).
2. Montrer que pour tout x ∈ RN , on a
N r
X xi+1 − xi 2
f (x) = h 1+( ) .
h
i=0
3. Montrer que f est coercive ( f (x) ≥ kxk∞ ), et en déduire l’existence de la solution pour le
problème min f (x).
4. Étudier la convexité de f , et en déduire l’unicité de la solution pour le problème min f (x).
Corrigé :
p
1. d(Ai+1 , Ai ) = k(ui+1 , xi+1 ) − (ui , xi )k2 = (ui+1 − ui )2 − (xi+1 − xi )2
N p N p N q
2. f (x) = (ui+1 − ui )2 + (xi+1 − xi )2 = h2 − (xi+1 − xi )2 = h 1 + ( xi+1h−xi )2
P P P
i=0 i=0 i=0
3. Soit k ∈ [1, N] et x = (x1 , ..., xN ) ∈ RN . On a successivement
N q k−1
P q
f (x) = h 1 + ( xi+1h−xi )2 ≥ h 1 + ( xi+1h−xi )2
P
i=0 i=0
k−1
P q xi+1 −xi 2 k−1
P xi+1 −xi
≥ h ( h ) ≥h | h )|
i=0 i=0
k−1
P k−1
P
≥ |xi+1 − xi | ≥ | (xi+1 − xi )| ≥ |xk − x0 | ≥ |xk |,
i=0 i=0
33
Soit t ∈]0, 1]. En utilisant la stricte convexité de g, il vient :
N
yi+1 −yi
f (tx + (1 − t)y) = h g(t( xi+1h−xi ) + (1 − t)(
P
h ))
i=0
N
yi+1 −yi
= h g(t( xi+1h−xi ) + (1 − t)(
P
h ))
i=0,i,k
x −x y −y
+hg(t( k+1h k ) + (1 − t)( k+1h k ))
N
y −y
< (tg( xi+1h−xi ) + (1 − t)g( i+1h i ))
P
h
i=0,i,k
x −x y −y
+h(tg( k+1h k ) + (1 − t)g( k+1h k ))
N
y −y
= h (tg( xi+1h−xi ) + (1 − t)g( i+1h i ))
P
i=0
= t f (x) + (1 − t) f (y).
On en déduit que f est strictement convexe. On en déduit que le problème min f (x) admet
au plus une solution.
En combine avec le résultat d’existence obtenu précédemment, il vient que ce problème
possède une unique solution.
II) = 0, on va noter dans la suite par u∗ l’unique point de minimum de f sur Rn . Nous
appliquons la méthode de gradient à pas optimal qui consiste à construire une suite
{u(k) }k∈N ⊂ Rn par la relation de récurrence vue en cours, avec u(0) donnée.
1. Montrer qu’on a
34
Corrigé :
I) > 0,
1. On a
1 1
f (x) = kxk2 + < Ax, x > − < b, x >= < In x, x > + < Ax, x > − < b, x >
2 2
forme quadratique,
∇ f (x) = 2In x + Ax − b, ∀x ∈ Rn
∇2 f (x) = 2In + A, ∀x ∈ Rn
2. Si w ∈ Rn arbitraire alors
< ∇2 f (x)w, w >= 2 < In w, w > + < Aw, w >≥ 2kwk2 > 0
2x∗ + Ax∗ = b
4.
x∗1
! !
x∗1
! !
2 1 0 0
+ =
100 x∗2 0 0 x∗2 1
donc x∗1 = 0 et x∗2 = 50.
II) = 0,
u(k+1) −u∗ = u(k) −u∗ −ρk ∇J(u(k) ) = u(k) −u∗ −ρk (Au(k) −b) = u(k) −u∗ −ρk A(u(k) −u∗ ).
35