Vous êtes sur la page 1sur 76

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTÈRE ÐE L’ENSEIGNEMENT SUPÉRIEUR


ET ÐE LA RECHERCHE SCIENTIFIQUE

Numéro d’ordre :
Numéro de série :

UNIVERSITE LARBI BEN M'HIDI OUM EL BOUAGHI


Faculté des sciences exactes et sciences de la nature et de la vie
Département de Mathématiques et Informatique

Mémoire
pour obtention le diplôme de Master

Technique d’Optimisation Déterministe Pour La Résolution De


Problèmes Multidimensionnelles
«Etude pratique sur les panneaux photovoltaïque»
Option: Mathématiques Appliquée

Présenté par : SAYAD AMIRA

Soutenue le 09/06/2018 devant les membres du jury :

Mr S. Dehilis Prof à l’université Larbi Ben M'Hidi, Oum El Bouaghi Président


Mr T. Hamaizia Prof à l’université Larbi Ben M'Hidi, Oum El Bouaghi Rapporteur
Mr S. Makhlouf Prof à l’université Larbi Ben M'Hidi, Oum El Bouaghi Examinateur
Mr M. Saadi Prof à l’université Larbi Ben M'Hidi, Oum El Bouaghi Examinateur

Année universitaire: 2017/2018


Remerciements

Je remercie d’abord et avant tout le bon Dieu qui m’a donné le courage et la
patience pour réaliser ce travail.

Je tiens d’abord à remercier infiniment Mr TAIEB HAMAIZIA d‘une part


pour le choix de ce mémoire et pour son aide inestimable et les conseils précieux
qu’il m’a apportés d’autre part. Je reste et je resterai très reconnaissant.

Je remercie Mr SOFIANE DEHILIS qui me fait l’honneur de présider ce jury.

Je remercie Mr SEDDIK MAKHLOUF et Mr MOHAMED SAADI d’avoir


bien voulu accepter d’être examinateurs de ce jury.

Un grand merci à mes parents pour leur dévouement pour mon bonheur. Je tiens
aussi à exprimer ma profonde gratitude à mes chers frères et mes sœurs.

Je tiens également à remercier mes amies. Je remercie aussi toute personne


ayant participé de près ou de loin à la réalisation de ce travail.

O E B 2018
Dédicaces
Je dédie ce modeste travail à celle qui m'a donné la vie, le symbole de tendresse,

qui s'est sacrifiée pour mon bonheur et ma réussite, à ma mère HABIBA.

A mon père AMMAR, école de mon enfance, qui a été mon ombre durant toutes
les années des études, et qui a veillé tout au long de ma vie à m’encourager, à
me donner l'aide et à me protéger.

Que Dieu les gardes et les protège.

A mes adorables sœurs : LAMIA, KAMILIA.

A mes frères : ALI, ADEL.

Aux anges de la maison : IYED, AYA, ALA et LEDJAINE.

A mes amies : SARA, BOCHRA, et LATIFA.

A tous ceux qui me sont chères.

A tous ceux que j'aime.

O E B 2018
Table des matières

Table des notations 3

Introduction générale 4

1 Généralités 6
1.1 Formulation d’un problème d’optimisation . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Formulation mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Di¤érentiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Vecteurs gradient et matrice hessienne . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Dérivée directionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Ensemble convexe, Fonction convexe . . . . . . . . . . . . . . . . . . . . . 17
1.3.2 Caractérisation de la convexité . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.3 Conditions d’optimalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Existence et unicité d’un point de minimum . . . . . . . . . . . . . . . . . . . . . 28
1.4.1 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5 Points critiques et leur nature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2 Quelques méthodes et algorithmes de minimisation 35

1
Table des matières

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Méthodes d’optimisation multidimensionnelle . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Méthodes de Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.3 Méthode de Quasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Méthodes d’optimisation unidimensionnelle . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Méthode de Dichotomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.2 Méthode de Section Dorée . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.3 Méthode de Brent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3 Optimisation d’un système d’énergie photovoltaïque 50


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Historique de l’énergie photovoltaïque . . . . . . . . . . . . . . . . . . . . . 50
3.2 Rayonnement solaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Déclinaison du soleil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Avantages et inconvénients de l’énergie solaire . . . . . . . . . . . . . . . . . . . . 53
3.5 Générateur photovoltaïque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Cellule photovoltaïque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6.1 Cellule photovoltaïque idéal . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6.2 Cellule photovoltaïque réel . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7 Optimisation de rendement par les méthodes de gradient, Dichotomie et Section
Dorée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7.1 La résolution numérique par la méthode de gradient . . . . . . . . . . . . . 63
3.7.2 La résolution numérique par la méthode de dichotomie . . . . . . . . . . . 66
3.7.3 La résolution numérique par la méthode de Section Dorée . . . . . . . . . . 68

Conclusion générale 71

Bibliographie 72

2
Notations

f (:) Fonction objectif.


kk Norme d’un vecteur.
t
x = (x1 ; : : : ; xn ) Vecteur d’éléments en colonne.
h; i Produit scalaire canonique.
xt Transposée d’un vecteur x.
rf Gradient de f .
Mm;n Matrice de m ligne et n colonne.
C (Rn ; R) L’espace des fonctions continues de Rn dans R.
x l = min f (x) :
PV Photovoltaïque.
GPV Générateur photovoltaïque.
K Constant de Bolzmann.
Rs Résistance série.
Rsh Résistance shunt.
I Le courant fourni par la cellule.
I0 Le courant de saturation de la diode.
Iph Le photo-courant.
q Charge d’électron.
T La température de cellule en Kelvin.

3
Introduction générale

Les mathématiques pures ont pour objectif le développement des connaissances mathéma-
tiques pour elles-mêmes sans aucun intérêt a priori pour les applications, sans aucune motivation
d’autres sciences. L’objet de la recherche mathématique peut ainsi être une meilleure compréhen-
sion d’une série d’exemples particuliers abstraits, sur lesquels s’appuie et se développe la ré‡exion
mathématique, la généralisation d’un aspect d’une discipline ou la mise en évidence de liens entre
diverses disciplines des mathématiques.
Les mathématiques appliquées sont une branche des mathématiques qui s’intéressent à l’appli-
cation du savoir mathématique aux autres domaines, L’analyse numérique, les mathématiques de
l’ingénierie, l’optimisation linéaire, la programmation dynamique, l’optimisation et la recherche
opérationnelle, la théorie de l’information, les probabilités et les statistiques et jusqu’à un certain
point, la combinatoire et la géométrie …nie..., ainsi qu’une bonne partie de l’informatique sont
autant de domaines d’application des mathématiques.
L’optimisation joue un rôle important en recherche opérationnelle, dans les mathématiques
appliquées, en analyse et en analyse numérique, en statistique pour l’estimation du maximum de
vraisemblance d’une distribution, pour la recherche de stratégie dans le cadre de la théorie des
jeux, ou encore théorie du contrôle et de la commande.
L’optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à
résoudre analytiquement ou numériquement les problèmes qui consistent à déterminer quelles sont
la solution (ou les solutions) satisfaisant un objectif quantitatif tout en respectant d’éventuelles
contraintes.

4
Introduction générale

L’optimisation peut être dé…nie comme la science qui détermine la meilleure solution à cer-
taine problèmes mathématiquement dé…nie, qui sont souvent des modèles de physique réel. C’est
une technique qui permet de "quanti…er" les compromis entre des critères parfois non commen-
surables.
D’un point de vue mathématique, l’optimisation consiste à rechercher le minimum ou le
maximum d’une fonction avec ou sans contrainte.
Dans ce mémoire, notre attention est portée sur l’étude de certaines méthodes d’optimisation
déterministe. Pour atteindre cet objectif, notre travail est articulé autour de trois chapitres.
Le premier chapitre commence par traiter des notions mathématiques fondamentales, on dé…-
nit et on introduit les outils fonctionnels de base nécessaires pour l’optimisation sans contraintes,
la notion de solution locale et quelques éléments d’analyse convexe. Ainsi, nous étudierons
quelques résultats théoriques (existence et unicité de solutions), aussi, les points stationnaires et
leurs natures.
Dans le chapitre suivant, nous nous intéressons à l’étude de quelques méthodes d’optimisation
les plus utilisées dans la pratique, nous allons traiter certaines méthodes : la méthode de Gradient,
Dichotomie, Newton...
Finalement, le dernier chapitre sera consacré aux méthodes d’optimisation de gradient, di-
chotomie et section dorée. Son but est d’améliorer les performances du système photovoltaïque,
autrement dit maximiser la puissance générée pour avoir un bon rendement et de fortes puissances
transférées.

5
Chapitre 1

Généralités

1.1 Formulation d’un problème d’optimisation

1.1.1 Formulation mathématique

En général optimiser signi…e le fait de chercher une con…guration optimale d’un système,
c’est a dire, chercher la meilleure con…guration parmi tous les con…gurations possibles du système
et ceci, par rapport à un critère donné. Pour d’écrire un problème d’optimisation nous utilisons
la formulation mathématique. Ce type de problème s’écrit de la forme suivante :
8
>
> min f (x)
>
<
sous la contrainte :
>
>
>
: x2U

Où U est un sous-ensemble de Rn appelée ensemble des points admissibles ou réalisables:

- La fonction f : Rn ! R est appelée fonction objectif ou fonction de critère (voir [10]).

- Les variables x = (x1 ; : : : ; xn ) sont appelées variables d’optimisation ou variables de décision.

On va considère deux cas pour U :

- Si U Rn le problème est dit problème d’optimisation avec contraintes.

- Si U = Rn le problème est dit problème d’optimisation sans contraintes.

6
Chapitre 1 : Généralités

Dans ce présent travail, nous nous intéressons aux problèmes d’optimisation sans contraintes,
autrement dit : 8
< Trouver x 2 Rn tel que :
: (P )
: f (x ) f (x) ; 8x 2 Rn

Si x est une solution du problème (P ), on dit que x 2 arg minRn f .

Minima locaux et globaux

Soient l’ensemble U Rn et f une fonction dé…nie de U dans R. On dé…nie les minima locaux
et globaux de f sur U de la manière suivante :

Dé…nition 1.1 (Minimum global) On dit que x est un minimum global (ou absolu ) de f
sur U si
f (x ) f (x) ; 8x 2 U:

x s’appelle minimum global strict si

f (x ) < f (x) ; 8x 2 U:

Dé…nition 1.2 (Minimum local) On dit que x est un minimum local (ou relatif ) de f sur
U s’il existe un voisinage V de x tel que

f (x ) f (x) ; 8x 2 U \ V (x ) :

x s’appelle minimum local strict si

f (x ) < f (x) ; 8x 2 U \ V (x ) avec x 6= x :

Les notions de maximum local et global sont dé…nies de façon tout à fait similaire. En fait,
on peut facilement démontrer que les problèmes sans contraintes :

min f (x) et max ( f (x)) :


x2U x2U

7
Chapitre 1 : Généralités

Sont équivalents dans le sens où ils même ensemble de solutions :

max f (x) = min ( f (x)) :


x2U x2U

Ainsi la recherche d’un maximum pouvant se ramener à la recherche d’un minimum, nous por-
terons une attention plus particulière à la recherche du minimum (voir [26]).

F IGU RE 1:1 : Exemple de minima et maxima locaux


et globaux pour une f onction unidimensionnelle:

F IGU RE 1:2 : Exemple de minima et


maxima locaux et globaux pour une
f onction multidimensionnelle:

8
Chapitre 1 : Généralités

Exemple 1.1 Soit f (x) = sin (x) ; il existe une in…nité de minima et maxima globaux.

F IGU RE 1:3 : Exemple de minima et


maxima globaux pour la f onction f:

1.2 Di¤érentiabilité
Soit U un ouvert de Rn . On considère ici le cas particulier où l’ensemble U l’espace entier Rn ;
considéré comme un espace vectoriel normé muni de la norme euclidienne notée k k (voir [11],
[15] et [25]).

1.2.1 Dérivées partielles

Dé…nition 1.3 (Di¤érentiable au sens de Fréchet) Soit f une fonction de Rn dans Rm .


On dit que f est di¤érentiable en x 2 Rn , s’il existe une transformation linéaire continue T de
Rn dans Rm tel que :

f (x + h) = f (x) + T (h) + (h) khk 8h 2 Rn où (h) ! 0 quand h ! 0:

C’est à dire :
f (x + h) f (x) T (h)
lim = 0:
h!0 khk

9
Chapitre 1 : Généralités

Dans ce cas l’application T est alors unique et on note par Df (x) = T: L’ensemble des trans-
formations linéaires continue de Rn dans Rm et noté par L (Rn ; Rm ) ; et il existe une matrice
A (x) 2 Mm;n (R) dans la base fondamentale de Rn tel que Df (x) (y) = A (y) ; 8y 2 Rn ; avec
A (x) = Df (x) = (ai;j )16i m;1 j n :

- Dans le cas m = 1, on a Df (x) 2 M1;n (R) et on peut dé…nir le gradient de f en x par

rf (x) = (Df (x))t 2 Rn :

Exemple 1.2 Soit f : R3 ! R2 dé…nie par :


0 1
x31 + x42 + x23
f (x) = @ A;
5x21 + 2x32 + x3

on a 0 1 0 1
@f1 @f1 @f1
3x21 4x32 2x3
Df (x) = @ @x1 @x2 @x3 A=@ A:
@f2 @f2 @f2
@x1 @x2 @x3
10x1 6x22 1

Pour h = (h1 ; h2 ; h3 ) on a :
0 1
0 1 0 h1 1
3x21 4x32 2x3 B C 3h x 2
+ 4h x 3
+ 2h x
Df (x) h = @ AB C
B h2 C = @
1 1 2 2 3 3
A:
10x1 6x22 1 @ A 2
10h1 x1 + 6h2 x2 + h3
h3

Alors, on a 0 1
3x21 4x32 2x3
A (x) = @ A:
10x1 6x22 1

Remarque 1.1 On note e1 ; e2 ; : : : ; en les éléments de la base canonique de Rn ; où ei est le


vecteur de Rn donné par :
8
< 0 si j =
6 i
(ei )j = ; 8i; j = 1; 2; : : : ; n:
: 1 si j = i

10
Chapitre 1 : Généralités

Proposition 1.1 Soit f : Rn ! R une application di¤érentiable en point a. Alors la matrice


dite Jacobienne des dérivées partielles de la fonction f de coordonnées (f1 ; f2 ; : : : ; fn ) existe et
noté Jf (a) tel que : 0 1
@f1 (a) @f1 (a) @f1 (a)
:::
B @x1 @x2 @xn C
B @f2 (a) @f2 (a) @f2 (a) C
B ::: C
Jf (a) =B
B
@x1
..
@x2
..
@xn
..
C:
C
B . . . C
@ A
@fm (a) @fm (a) @fm (a)
@x1 @x2
::: @xn

C’est à dire toutes les dérivées partielles existent et égale à Df (a) :

Remarque 1.2 La réciproque de la proposition précédente n’est pas vraie.

Proposition 1.2 On suppose que les dérivées partielles de f existent et continues en un point
a: Alors f est di¤érentiable en a:

Preuve
On suppose que n = 2. Le cas général se montre exactement de la même manière. Pour
h = (h1 ; h2 ) 2 R2 assez petits on peut dé…nir

@f @f
r (h) = f (a + h) f (a) h1 (a) h2 (a) :
@x1 @x2

On a

f (a + h) f (a) = f (a1 + h1 ; a2 + h2 ) f (a1 ; a2 + h2 ) + f (a1 ; a2 + h2 ) f (a1 ; a2 )


Z h1 Z h2
@f @f
= (a1 + t; a2 + h2 ) dt + (a1 ; a2 + t) dt
0 @x 1 0 @x 2
Z 1 Z 1
@f @f
= h1 (a1 + sh1 ; a2 + h2 ) ds + h2 (a1 ; a2 + sh2 ) ds:
0 @x1 0 @x2

Alors :
Z 1 Z 1
@f @f @f @f
r (h) = h1 (a1 + sh1 ; a2 + h2 ) (a1 ; a2 ) ds+h2 (a1 ; a2 + sh2 ) (a1 ; a2 ) ds:
0 @x1 @x1 0 @x2 @x2

11
Chapitre 1 : Généralités

Puisque les dérivées partielles de f sont continues en a, il existe > 0 tel que pour tout h1 ; h2 2
[ ; ] et s 2 [0; 1] on a

@f @f
(a1 + sh1 ; a2 + h2 ) (a1 ; a2 ) < "
@x1 @x1

et
@f @f
(a1 ; a2 + sh2 ) (a1 ; a2 ) < ":
@x2 @x2
Cela preuve que jr (h)j " max (jh1 j , jh2 j) ; et …nalement r (h) = h!0 (khk) : D’où le résultat.

Exemple 1.3 Soit la fonction f dé…nie par :


8
< x2 y
si (x; y) 6= (0; 0)
x2 +y 2
f (x; y) = :
: 0 si (x; y) = (0; 0)

a) Les dérivées partielles de la fonction f est :

@f 2xy 3 @f x2 (x2 y 2 )
(x; y) = ; (x; y) = ;
@x (x2 + y 2 )2 @y (x2 + y 2 )2

qui n’est pas continue en (0; 0), en e¤et posons y = x avec 6= 0 on obtient

@f 2 3 x4 2 3
lim (x; y) = lim 2 = 2 2
;
(x;y)!(0;0) @x x!0 x4 1 + 2 1+

@f
et on a @x
(0; 0) = 0 donc

@f @f
lim (x; y) 6= (0; 0) ;
(x;y)!(0;0) @x @x

@f @f
donc @x
(x; y) n’est pas continue à l’origine. De même à @y
(x; y) :
f (x+h) f (x) T (h)
b) On montre que f n’est pas di¤érentiable c’est à dire limh!0 khk
6= 0: Posons

12
Chapitre 1 : Généralités

h1 = h2 on obtient :

f (h1 ; h2 ) f (0; 0) h1 @f@x


(0; 0) h2 @f
@y
(0; 0) h21 h2
lim p = lim 3
(h1 ;h2 )!(0;0) h21 + h22 (h1 ;h2 )!(0;0) (h21 + h22 ) 2
2
= 3 6= 0:
( 2
+1) 2

Ce qui montre que f n’est pas di¤érentiable à l’origine.

1.2.2 Vecteurs gradient et matrice hessienne


@f
Si les dérivées partielles @xi
existent pour tout i, le gradient de f est dé…ni de la façon suivante
(pour plus de détails voir [22] et [25]).

Dé…nition 1.4 (Vecteur gradient) Soient f une application de Rn dans R et x 2 Rn ; on


appelle gradient de f en x = (x1 ; : : : ; xn ) le vecteur :
0 1
@f (x)

@f (x) B @x1 C
B .. C
rf (x) = =B . C:
@xi i=1;:::;n @ A
@f (x)
@xn

On note dans R;
rf (x) = f 0 (x) :

2 2
Exemple 1.4 1. Soit f (x1 ; x2 ; x3 ) = 2x21 + 15 (x1 x22 ) + 20 (x2 + x23 ) : Le gradient de f est
donnée par : 0 1
4x1 + 30 (x1 x22 )
B C
B C
rf (x1 ; x2 ; x3 ) = B 60x2 (x1 x22 ) + 40 (x2 + x23 ) C :
@ A
2
80x3 (x2 + x3 )

2. Soit f (x) = 5x3 + exp (2x2 ) ; On calcule le gradient de f on obtient :

rf (x) = f 0 (x) = 15x2 + 4x exp 2x2 :

13
Chapitre 1 : Généralités

Proposition 1.3 Pour tout x 2 Rn le gradient rf (x) est l’unique vecteur tel que pour tout
h 2 Rn on a :
Df (x) (h) = hrf (x) ; hi ;

où pour deux vecteurs u = (u1 ; : : : ; un ) et v = (v1 ; : : : ; vn ) de Rn on a noté hu; vi le produit


P
scalaire usuel nj=1 uj vj :

Dé…nition 1.5 Soit f : Rn ! R une fonction di¤érentiable en point x on a :

@ 2 f (x)
H (x) = r2 f (x) = ; pour tout i; j 2 f1; : : : ; ng
@xi @xj i;j=1;:::;n

alors 0 1
@ 2 f (x) @ 2 f (x)
B @x21 @x1 @xn C
B .. ... .. C
H (x) = B . . C:
@ A
@ 2 f (x) @ 2 f (x)
@xn @x1 @x2n

On note dans R;
H (x) = f 00 (x) :

Remarque 1.3 Si f deux fois di¤érentiable en x alors r2 f (x) est une matrice symétrique, c’est
à dire :
@ @f @ @f
= :
@xi @xj @xj @xi
2 2
Exemple 1.5 1. Pour la fonction f (x1 ; x2 ; x3 ) = 2x21 + 15 (x1 x22 ) + 20 (x2 + a23 ) : La
hessienne de f est donné par :
0 1
34 60x2 0
B C
B C
r2 (x1 ; x2 ; x3 ) = B 60x2 6x1 + 180x22 + 40 80x3 C:
@ A
0 80x3 80x2 + 240x23

2. Soit f (x) = 5x3 + exp (2x2 ) : On calcule la hessienne de f :

00
r2 f (x) = f (x) = 30x + 4 exp 2x2 + 16x2 exp 2x2 :

14
Chapitre 1 : Généralités

1.2.3 Dérivée directionnelle

Dé…nition 1.6 (Dérivée directionnelle) Soit f une application de Rn à valeur dans R: La


dérivée directionnelle de f en x dans la direction d 2 Rn , notée f (x; d) ; est dé…nie par la limite
quand elle existe de :
f (x + td) f (x)
lorsque t tend vers 0:
t
De plus, lorsque le gradient existe, la dérivée directionnelle est le produit scalaire entre le gradient
de f et la direction d c’est à dire :

f (x; d) = dt rf (x) :
0 1
2 d1
Exemple 1.6 Soit f (x1 ; x2 ) = 2 (x21 + x2 ) 4 (x2 + 6) et soit d = @ A : La dérivée direc-
d2
tionnelle de f dans la direction d est :

(d1 d2 ) rf (x1 ; x2 ) = 8d1 x1 x21 + x2 + 4d2 x21 + x2 1 :

où rf (x1 ; x2 ) est donnée par :


0 1
8x1 (x21 + x2 )
rf (x1 ; x2 ) = @ A:
4 (x21 + x2 1)

Dé…nition 1.7 Soit f : Rn ! R une fonction continue. si pour tout d 2 Rn ; la dérivée direc-
tionnelle de f dans la direction d existe, alors la fonction f est dite di¤érentiable.

Dé…nition 1.8 (Direction de descente ) Soient f : Rn ! R et x 2 Rn : Le vecteur d 2 Rn


est une direction de descente pour f à partir du point x si t 7! f (x + td) est décroissante en
t = 0, c’est à dire s’il existe > 0 tel que :

f (x + td) < f (x) ; 8t 2 ]0; ] :

15
Chapitre 1 : Généralités

Dé…nition 1.9 Soit d un vecteur non nul de Rn . On dit que d est une direction de descente de
f en x 2 Rn si dT rf (x) < 0:

Dé…nition 1.10 (di¤érentiable au sens de Gâteaux) Soit f une application de Rn à valeur


dans R; v un élément de Rn et x un point de Rn . On dit que f admet une dérivée en x suivant
le vecteur v si la limite suivante existe :

@f (x) f (x + tv) f (x)


= lim :
@v t!0 t

@f (x)
On dit que f est Gâteaux-di¤ érentiable en x si les dérivées directionnelles @v
sont dé…nies
@f (x)
pour tout v et si de plus l’application v 7! @v
est linéaire.

1.2.4 Formule de Taylor

La formule de Taylor est un outil important en convexité. Nous rappelons dans le cas général
(voir [2] et [23]) :
Soit f une application de U Rn a valeur dans R, x 2 U et h 2 Rn ; alors :

Formule de Taylor à l’ordre 1

Proposition 1.4 (Formule de Taylor-Young) Si f de classe C 1 , alors

f (x + h) = f (x) + hrf (x) ; hi + (khk) :

Proposition 1.5 (Formule de Taylor avec reste intégrale) Si f de classe C 1 sur U , alors
Z 1
f (x + h) = f (x) + hrf (x + th) ; hi dt:
0

Formule de Taylor à l’ordre 2

Proposition 1.6 (Formule de Taylor-Young) Si f de classe C 2 , alors

1
f (x + h) = f (x) + hrf (x) ; hi + r2 f (x) h; h + khk2 :
2

16
Chapitre 1 : Généralités

Proposition 1.7 (Formule de Taylor avec reste intégrale) Si f de classe C 2 sur U , alors
Z 1
f (x + h) = f (x) + hrf (x) ; hi + (1 t) r2 f (x + th) h; h dt:
0

La notation khkk pour k 2 Nn signi…e une expression qui tend vers 0 plus vite que khkk
( c’est à dire, si on la divise par khkk , le résultat tend vers 0 quand khk tend vers 0 ).

Remarque 1.4 a) Si f est de classe C 1 , alors il existe 0 < < 1 tel que :

f (x + h) = f (x) + hrf (x + h) ; hi :

Cette formule, connue sous le nom de formule de Taylor-Maclaurin d’ordre 1.

b) Si f est de classe C 2 , alors il existe 0 < < 1 tel que :

1
f (x + h) = f (x) + hrf (x) ; hi + r2 f (x + h) h; h :
2

C’est la formule de Taylor-Maclaurin d’ordre 2.

1.3 Convexité
La convexité joue un rôle extrêmement important en optimisation (Voir [3] et [4]) :
On voit assez ce qu’est un ensemble convexe et une fonction convexe, les propriétés de
convexité ainsi que quelques propositions importantes.

1.3.1 Ensemble convexe, Fonction convexe

Dé…nition 1.11 (Ensemble convexe) Un ensemble U Rn est dit convexe si :

8x; y 2 U; 8t 2 [0; 1] on a tx + (1 t) y 2 U:

Autrement dit U est convexe si pour tous les points de U , le segment [x; y] est inclus dans U
(c’est à dire, 8x; y 2 U on a [x; y] U ).

17
Chapitre 1 : Généralités

F IGU RE 1:4 : Exemple d’un ensemble convexe et non convexe:

Exemple 1.7 - Rn est un ensemble convexe.

- Si n = 1 et U = [a; b] un intervalle de R; 8 x; y 2 [a; b] on a [x; y] [a; b] alors l’ensemble U


est convexe dans R:

P
Dé…nition 1.12 Soit x1 ; x2 ; : : : ; xn 2 Rn et j 0 tels que kj=1 j = 1: Toute expression de
P
la forme kj=1 j xj s’appelle combinaison convexe des points xj .

Dé…nition 1.13 (Fonction convexe) Soit U Rn un ensemble convexe et f : U ! R une


fonction. On dit que f est convexe sur U si

8x; y 2 U , 8t 2 [0; 1] f (ty + (1 t) x) tf (y) + (1 t) f (x) :

Autrement dit pour tout ; 2 R+ tel que + = 1, on a

f ( x + y) f (x) + f (y) :

Exemple 1.8 - Les fonctions a¢ nes f (x) = ax + b sont des fonctions convexes et concaves.
En e¤et, soit ; 2 R+ tel que + = 1 on a : f ( x + y) = a ( x + y) + b =
a ( x + y) + ( + ) b = (ax + b) + (ay + b) = f (x) + f (y).

- La somme de deux fonctions convexes est convexe.

18
Chapitre 1 : Généralités

- Le produit d’une fonction convexe par un scalaire est un convexe.

Dé…nition 1.14 Soit U Rn un ensemble convexe et f : U ! R une fonction.

1. On dit que f est strictement convexe sur U si :

8x; y 2 U avec x 6= y, 8t 2 [0; 1] f (ty + (1 t) x) < tf (y) + (1 t) f (x) :

2. On dit que f est fortement convexe sur U s’il existe > 0 tel que :

8x; y 2 U , 8t 2 [0; 1] f (ty + (1 t) x) < tf (y) + (1 t) f (x) t (1 t) ky xk2 :

3. On dit que f est concave sur U (respectivement strictement concave, respectivement


fortement concave) si f est convexe ( respectivement strictement convexe, respec-
tivement fortement convexe).

F IGU RE 1:5 : Exemple d’une f onction convexe et non


convexe:

Remarque 1.5 Il est facile de voir qu’on a :


fortement convexe ) strictement convexe ) convexe. Mais la réciproque n’est pas vraie en gé-
néral, par exemple une application a¢ ne f (x) = ax+b est convexe mais elle n’est pas strictement
convexe donc elle n’est pas fortement convexe.

19
Chapitre 1 : Généralités

Proposition 1.8 Soit U Rn un ensemble convexe, p 2 N ; f1 ; f2 ; : : : ; fp : U ! R des fonctions


convexes et 1; 2; : : : ; n des constantes strictement positives. Posons

f= 1 f1 + 2 f2 + + n fn :

Alors on a :

1. La fonction f est convexe donc toute combinaison linéaire avec des coe¢ cients strictement
positifs de fonctions convexes est convexe.

2. Si au moins l’une des fonctions f1 ; f2 ; : : : ; fp est strictement convexe alors f est strictement
convexe.

3. Si au moins l’une des fonctions f1 ; f2 ; : : : ; fp est fortement convexe alors f est fortement
convexe.

Proposition 1.9 [3] Nous avons :

r2 f (x) h = r hrf (x) ; hi 8x 2 U; 8h 2 Rn :

Où le premier gradient dans le membre de droite de l’égalité est considéré par rapport à la variable
x:

1.3.2 Caractérisation de la convexité

Il est en général di¢ cile de véri…er la convexité d’une fonction en utilisant uniquement la
dé…nition (essayez avec f (x) = x2 ) les propositions suivantes donnent des critères de convexité,
convexité stricte et convexité forte [7].

Proposition 1.10 Soit Rn un ouvert, U avec U convexe et f : ! R une fonction


de classe C 1 alors :

a) Les 3 assertions suivantes sont équivalentes :

1. f est convexe sur U .

20
Chapitre 1 : Généralités

2. f (y) f (x) + hrf (x) ; y xi ; 8x; y 2 U:

3. rf est monotone sur U , c’est à dire :

hrf (y) rf (x) ; y xi 0 8x; y 2 U:

b) Si de plus f est de classe C 2 sur alors f est convexe sur U si et seulement si :

r2 f (x) (y x) ; y x 0 8x; y 2 U: (1.1)

Preuve

a) On montre l’équivalence entre 1), 2) et 3).

1) ) 2) : supposons que f est convexe, la dé…nition de la convexité peut s’écrire

f (x + t (y x)) f (x) t [f (y) f (x)] :

En …xant x; y en divisant par t et en faisant t tend vers 0 (ce qui est possible car t 2 [0; 1]) on
obtient 2).
2) ) 3) : De 2) on déduit

f (y) f (x) + hrf (x) ; y xi ; 8x; y 2 U;

et on a aussi (prendre y en x et x en y) :

f (x) f (y) + hrf (y) ; x yi ; 8x; y 2 U:

On faisant la somme de ces 2 inégalités on obtient 3).


3) ) 1) : Soient x; y 2 U …xés. On introduit la fonction g : I ! R dé…nie par

t 2 I ! g (t) = f (ty + (1 t) x) 2 R;

21
Chapitre 1 : Généralités

où I est un intervalle ouvert qui contient [0; 1]. Il est facile de voir que g est de classe C 1 et on a

g 0 (t) = hrf (ty + (1 t) x) ; y xi 8 t 2 I:

Soient t1 ; t2 2 [0; 1] avec t1 < t2 : Alors

g 0 (t2 ) g 0 (t1 ) = hrf (x + t2 (y x)) rf (x + t1 (y x)) ; y xi


1
= hrf (x + t2 (y x)) rf (x + t1 (y x)) ; (t2 t1 ) (y x)i :
t2 t1

Par hypothèse 3) le dernier terme de l’égalité précédente 0, ce qui montre que la fonction g 0
est une fonction croissante. On déduit alors que g est une fonction convexe sur [0; 1] ; ce qui nous
donne pour tout t 2 [0; 1] :

g (t 1 + (1 t) 0) tg (1) + (1 t) g (0) ;

c’est à dire
f (ty + (1 t) x) tf (y) + (1 t) f (x)

donc f est convexe.

b) On suppose ici f 2 C 2 :

“)” Supposons que f est convexe et montrons (1:1). Soit h 2 Rn …xé et notons g : 7! R la
fonction donnée par g (x) = hrf (x) ; hi ; 8 x 2 . En utilisant aussi la proposition (1:9) :

@g hrf (x + th) ; hi hrf (x) ; hi


r2 f (x) h; h = hrg (x) ; hi = (x) = lim ;
@h t!0 t

ce qui nous donne

hrf (x + th) rf (x) ; thi


r2 f (x) h; h = lim :
t!0 t2

22
Chapitre 1 : Généralités

Considérons maintenant x; y 2 U arbitraires et h = y x: Comme

x + t (y x) 2 U 8t 2 [0; 1] ;

de l’égalité précédente on déduit à l’aide de la monotonie de rf que r2 f (x) h; h 0;


c’est à dire (1:1) :

“(=” Supposons maintenant que (1:1) est satisfaite et montrons que f est convexe. Soient
x; y 2 U …xées arbitraires, considérons la fonction g1 : ! R donnée par

g1 (z) = hrf (z) ; x yi 8 z 2 :

Alors

hrf (x) rf (y) ; x yi = g1 (x) g1 (y) = hrg1 (y + (x y)) ; x yi ;

avec 2 ]0; 1[ (on a utilisé l’une des formules de Taylor).

D’autre part, nous avons


rg1 (z) = r2 f (x) (x y) :

Ceci nous permet de déduire, en utilisant aussi (1:1) :

hrf (x) rf (y) ; x yi = r2 f (y + (x y)) (x y) ; x y 0:

Ce qui donne la monotonie de rf , d’où la convexité de f:

Proposition 1.11 (Caractérisation de la convexité stricte)


Soit Rn un ouvert, U avec U convexe et f : ! R une fonction de classe C 1 :
Alors :

a) Les 3 assertions suivantes sont équivalentes :

1. f est strictement convexe sur U

23
Chapitre 1 : Généralités

2. f (y) > f (x) + hrf (x) ; y xi ; 8x; y 2 U avec x 6= y:

3. rf est strictement monotone sur U , c’est à dire :

hrf (y) rf (x) ; y xi > 0 8x; y 2 U avec x 6= y:

b) Si de plus f est de classe C 2 sur alors si :

r2 f (x) (y x) ; y x > 0 8x; y 2 U avec x 6= y; (1.2)

alors f est strictement convexe sur U .

Proposition 1.12 (Caractérisation de la convexité forte)


Soit Rn un ouvert, U avec U convexe et f : ! R une fonction de classe C 1 :
Alors :

a) Les 3 assertions suivantes sont équivalentes :

1. f est fortement convexe sur U

2. Il existe > 0 tel que :

f (y) f (x) + hrf (x) ; y xi + ky xk2 ; 8x; y 2 U:

3. Il existe > 0 tel que :

hrf (y) rf (x) ; y xi ky xk2 ; 8x; y 2 U:

b) Si de plus f est de classe C 2 sur alors f est fortement convexe sur U si et seulement s’il
existe > 0 tel que :

r2 f (x) (y x) ; y x ky xk2 ; 8x; y 2 U: (1.3)

Remarque 1.6 1. Dans la proposition (1:11) b) il n’y a pas d’équivalence entre la stricte
convexité de f et l’inégalité (1:2) de cette proposition dans le cas f 2 C 2 (par exemple la

24
Chapitre 1 : Généralités

fonction f : R ! R donnée par f (x) = x4 est strictement convexe, mais l’inégalité n’est
pas satisfait si x = 0).

2. Dans le cas particulier où l’ensemble U est ouvert alors les 3 propositions précédentes les
inégalités (1:1) ; (1:2) et (1:3) concernant la matrice hessienne r2 f s’écrivent respective-
ment :

r2 f (x) h; h 0 8x 2 U; 8h 2 Rn (pour la proposition (1:10) ),

r2 f (x) h; h > 0 8x 2 U; 8h 2 Rn (pour la proposition (1:11) ),

r2 f (x) h; h > khk2 , 8x 2 U; 8h 2 Rn (pour la proposition (1:12) ).

Pour voir ceci il su¢ t de remarquer que d’une part, pour tout y 2 U on peut considérer
h=y x 2 Rn et d’autre part, que pour tout h 2 Rn on peut considérer y = x + th 2 U
avec t > 0 assez petit.

3. Dans le cas particulier n = 1 et U un intervalle dans R, on a r2 f (x) = f 00 (x) ; donc


r2 f (x) (y x) , y x = f 00 (x) (y x)2 : Alors les 3 inégalités précédentes peuvent s’écrire
respectivement :

f 00 (x) 0 8 x 2 U; f 00 (x) > 0 8 x 2 U; f 00 (x) 8 x 2 U:

On rétrouve alors une caractérisation bien connue pour la convexité et la convexité stricte.

Exemple 1.9 Soit la fonction f : R ! R donnée par f (x) = x2 . Comme rf (x) = f 0 (x) = 2x
on a 8x; y 2 R :

h 00 0
i
hrf (x) rf (y) , x yi = f (x) f (y) : (x y) = 2 (x y)2 kx yk2 avec = 2;

donc f est fortement convexe.

C’est encore plus facile si on utilise f 00 :

f 00 (x) = 2 = > 0;

25
Chapitre 1 : Généralités

alors f est fortement convexe.

Dé…nition 1.15 (Matrice dé…nie positive) Soit A 2 Mn (R) une matrice carré réelle on dit
que :

- A est dé…nie positive si et seulement si :

8 d 2 Rn ; dt Ad > 0:

- A est semi dé…nie positive si et seulement si :

8 d 2 Rn ; dt Ad 0:

Théorème 1.1 [15] Soit f : Rn ! R de classe C 2 : On note H (x) sa hessienne en x.

- Si H (x) est semi dé…nie positive pour tout x 2 Rn ; alors f est convexe.

- Si H (x) est dé…nie positive pour tout x 2 Rn ; alors f est strictement convexe.

1.3.3 Conditions d’optimalité

Proposition 1.13 (Conditions nécessaires d’optimalité du premier ordre)


Soit f : Rn ! R une fonction di¤érentiable sur Rn . Si x est un minimum (global ou local)
de f alors :
rf (x ) = 0:

Preuve
On démontre par l’absurde, on suppose que rf (x ) 6= 0: Si on pose d = rf (x ) ; on
obtient :
rf (x )T d = krf (x )k2 < 0;

et par la dé…nition (1:8) ; il existe > 0 tel que :

f (x + td) < f (x ) pour tout t 2 ]0; [ ;

26
Chapitre 1 : Généralités

ce qui donne une contradiction avec le fait que x est un minimum, d’où rf (x ) = 0:

Remarque 1.7 La proposition précédente donne une condition nécessaire n’est pas su¢ sante
c’est à dire rf (x ) = 0 n’entraîne pas que f atteint un minimum (ou un maximum). Prendre
par exemple, soit f une fonction dé…nie de R dans R par f (x) = x3 . on a :

f 0 (x) = 3x2 = 0 ) x = 0;

mais x = 0 n’est pas un minimum.

Proposition 1.14 (Conditions nécessaires d’optimalité du second ordre)


Soit f : Rn ! R deux fois di¤érentiable au point x . Supposons que x soit un minimum local
de f alors : rf (x ) = 0 et la matrice hessienne de f au point x qu’on note H (x ) est semi
dé…nie positive .

Preuve
Soit d 2 Rn ; d 6= 0: Pour s assez petit, on dé…nit

: s 2 R 7! f (x + sd) :

admet donc un minimum local en s = 0; d’où : 0


(0) = rf (x )T d = 0: Ceci étant vrai pour
tout d; on en déduit : rf (x ) = 0:
Supposons maintenant f deux fois di¤érentiable. On écrit le développement de Taylor d’ordre
deux de la fonction : Comme rf (x ) = 0; on obtient :

1
f (x + sd) f (x ) = s2 dT H (x ) d + s2 :
2

Soit 12 s2 dT H (x ) d + (s2 ) 0 puisque x est un point de minimum local de f: Ce qui arrive


aprés une division par s2 , on fait tendre s vers 0, on obtient : dT H (x ) d 0:

Proposition 1.15 (Conditions su¢ santes d’optimalité) [5] Soit f : Rn ! R deux fois dif-
férentiable en x : Si rf (x ) = 0 et la matrice hessienne H (x ) est dé…nie positive, alors x est
un minimum local strict de f:

27
Chapitre 1 : Généralités

Cas particulier n=1


Soit f : R ! R une fonction de classe C 2 si x 2 R véri…e les conditions que :
8
< f 0 (x ) = 0
:
: f 00 (x ) > 0

Alors, x est un minimum local strict de f:

1.4 Existence et unicité d’un point de minimum


Avant d’étudier les propriétés de la solution (ou des solutions) de (P ) il faut s’assurer de leur
existence. Nous relions ensuite par des résultats d’unicité (Voir [3] et [10]):

Dé…nition 1.16 (Fonction coercive) On dit que f : Rn ! R est coercive si :

lim f (x) = +1:


kxk!+1

Ici k k désigne une norme quelconque de Rn , comme :

" # p1
X
n
p
8 x = (x1 ; : : : ; xn ) 2 Rn kxkp = jxi j ; avec p 2 N :
i=1

La norme in…nie de Rn est

8 x = (x1 ; : : : ; xn ) 2 Rn kxk1 = max jxi j :


1 i n

28
Chapitre 1 : Généralités

F IGU RE 1:6 : Exemple d’une f onction coercive et non


coercive:

Exemple 1.10

- f (x) = kxk est coercive.

- Pour n = 2 et x = (x1 ; x2 ) ; f dé…nie par f (x) = x21 + x22 ax1 bx2 c; est coercive pour
tout réels a et b.

- f dé…nie par f (x) = x21 x22 n’est pas coercive. En e¤et la suite xn = (0; n) est telle que
kxn k ! +1 (on peut prendre par exemple kxn k = kxn k1 = n) et pourtant f (xn ) = n2
ne converge pas vers +1.

De la même manière, (toujours dans le cas n = 2), la fonction f dé…nie par f (x) = x21 n’est
pas coercive. C’est encore choisir pour le montrer la suite (0; n) car f (0; n) = 0:

Proposition 1.16 Soit Rn un ouvert et U un ensemble convexe et non borné. Soit


f: ! R une fonction de classe C 1 sur et fortement convexe sur U . Alors f est coercive sur
U:

Preuve
Ecrivons l’inégalité 2 de la proposition (1:12) avec x = a où a est un élément …xé de U :

f (y) f (a) + hrf (a) , y ai + ky ak2 8 y 2 U;

29
Chapitre 1 : Généralités

où > 0 est un nombre …xé. D’autre part, nous avons

hrf (a) , y ai krf (a)k : ky ak ;

( conséquence de l’inégalité de Cauchy-Schwarz ). Ceci donne

f (y) f (a) krf (a)k : ky ak + ky ak2 8 y 2 U:

En faisant kyk ! +1 (ce qui donne ky ak ! +1) on obtient le résultat.

1.4.1 Existence et unicité

Théorème 1.2 (Existence) Soit U Rn un ensemble non-vide et fermé et f : U ! R une


fonction continue. On suppose :

Soit U est borné,

Soit U est non borné et f est une fonction coercive.

Alors il existe au moins un point de minimum de f sur U (c’est à dire, 9x 2 U tel que
f (x ) f (x) ; 8x 2 U )

Preuve

On distingue deux cas :

Cas 1) L’ensemble U est borné.


Alors comme U est aussi fermé, U est compact. Comme f est continue, le théorème de
Weierstrass nous assure que f est bornée sur U et atteint ses bornes. Donc il existe au moins un
point de minimum absolu de f sur U .
Cas 2) L’ensemble U est non borné.
Soit a 2 U et considérons l’ensemble

E = fx 2 U; f (x) f (a)g Remarque : a 2 E:

Il est facile de montrer :

30
Chapitre 1 : Généralités

1
1. E est fermé (car E = f (] 1; f (a)]) ; donc E est l’image inverse d’un intervalle fermé
par une fonction continue )

2. E est borné ( supposons le contraire : alors il existe une suite xk 2 E avec kxk k ! +1
pour k ! +1. Comme f est coercive, ceci entrainne f (xk ) 7! +1 ce qui absurde, car
f (xk ) f (a) ; 8k 2 N:).

On déduit alors que E est un ensemble compact dans Rn : Du théorème de Weierstrass,


9x 2 E tel que
f (x ) f (x) ; 8x 2 U:

Mais d’autre part, on a


f (x ) < f (x) ; 8x 2 U E

( car f (x ) f (a) f (x) ; 8x 2 U E).


Ceci prouve que x est un point de minimum absolu de f sur U; ce qui termine la preuve.

Théorème 1.3 (Unicité) Soit U Rn un ensemble convexe et f : U ! R une fonction


strictement convexe. Alors il existe au plus un point de minimum de f sur U:

Preuve

On va raisonner par l’absurde. Soient x1 ; x2 2 U avec x1 6= x2 deux points de minimum de f


sur U . Nous avons donc :

f (x1 ) = f (x2 ) f (x) ; 8x 2 U:

Comme f est strictement convexe, on a

1 1 1 1
f x1 + x2 < f (x1 ) + f (x2 ) = f (x1 ) :
2 2 2 2

( car f (x1 ) = f (x2 ) ) et ceci contredit avec la minimalité.

31
Chapitre 1 : Généralités

Théorème 1.4 (Existence et unicité) [15] Soit f : Rn ! R une fonction. On suppose que :

(i) f continue

(ii) f coercive

(iii) f strictement convexe.

Alors il existe un unique point de minimum de f .

1.5 Points critiques et leur nature


Dé…nition 1.17 (Points critiques) Soit f : Rn ! R une fonction continument di¤érentiable.
Un point x de Rn véri…ant :
rf (x ) = 0;

est appelé point critique ( ou point stationnaire).

Exemple 1.11 Soit f une fonction dé…nie sur R tel que :

f (x) = x2 + 2x + 1:

On calcule le gradient de f en x :

rf (x ) = f 0 (x ) = 2x + 2:

f 0 (x ) = 0 () 2x + 2 = 0 ) x = 1:

Donc le point critique de f est x = 1:

Remarque 1.8 La relation rf (x ) = 0 est également appelée équation d’Euler.

Théorème 1.5 [15]Soit U un ouvert de Rn ; f : U ! R fonction de classe C 2 et x 2 U un point


critique de f: On suppose que la hessienne H (x ) existe, alors on a :

- Si H (x ) est dé…nie positive ( c’est à dire tous ses n mineurs diagonaux principaux sont
strictement positifs ), alors x est un minimum local de f .

32
Chapitre 1 : Généralités

- Si H (x ) est dé…nie négative ( c’est à dire tous ses n mineurs diagonaux principaux d’ordre k
(k = 1; : : : ; n) Mk véri…ent : ( 1)k Mk > 0 ), alors x est un maximum local de f .

- Si l’un des mineurs diagonaux principaux est non nul et ne véri…e pas l’une des deux règles de
signes ci-dessus, alors x est un point selle.

- Sinon on ne peut pas conclure.

Exemple 1.12 Soit f une fonction dé…nie sur R2 par :

f (x; y) = x3 + 3x2 y + 3xy 2 + 3y;

on calcule le gradient de f
0 1 0 1
@f 2 2
(x; y) 3x + 6xy + 3y
rf (x; y) = @ @x A=@ A:
@f 2
@y
(x; y) 3x + 6xy + 3

On a 0 1 0 1
2 2
3x + 6x y + 3y 0
rf (x ; y ) = 0 ) @ 2
A=@ A;
3x + 6x y + 3 0

ce qui donne
8 8 8
< x 2 + 2x y + y 2 = 0 < (x + y )2 = 0 < x = y
) ) ;
: x 2 + 2x y + 1 = 0 : x 2 + 2x y + 1 = 0 : x = 1

donc les points critiques de f sont : f( 1; 1) et (1; 1)g :

La matrice hessienne de f évaluée en tout point (x; y) s’écrit :


0 1 0 1
@2f @2f
@x2
(x; y) (x; y) 6x + 6y 6x + 6y
H (x; y) = @ @x@y A=@ A;
@2f @2f
@y@x
(x; y) @y 2
(x; y) 6x + 6y 6x

on a donc 0 1 0 1
0 0 0 0
H ( 1; 1) = @ A et H (1; 1) = @ A:
0 6 0 6

33
Chapitre 1 : Généralités

Les mineurs principaux diagonaux de H ( 1; 1) et H (1; 1) sont D1 = D2 = 0; donc on


ne peut pas conclure.

Théorème 1.6 [10] Soit f : Rn ! R di¤érentiable et convexe sur Rn . Un point x réalise un


minimum global de f sur Rn si et seulement si rf (x ) = 0.

Remarque 1.9 Dans le cas ou f est convexe, alors tout minimum local est aussi global. De plus
si f est strictement convexe, alors tout minimum local devient non seulement global mais aussi
unique.

34
Chapitre 2

Quelques méthodes et algorithmes de


minimisation

2.1 Introduction
Dans ce chapitre, nous allons présenter quelques méthodes d’optimisation les plus utilisées
dans la pratique.
Deux classes d’algorithmes soient présentées les algorithmes multidimensionnelles et les al-
gorithmes unidimensionnelles. La première classe présente les algorithmes locaux et la deuxième
classe présente les algorithmes uniquement globaux.

2.2 Méthodes d’optimisation multidimensionnelle


On s’intéresse dans cette partie à l’optimisation de fonctions multivariables (fonctions de Rn
dans R). L’objectif est de découvrir quelques méthodes et algorithmes numérique pour l’optimi-
sation tel que méthode de Gradient, Newton...

2.2.1 Méthodes de Gradient

La méthode ( ou algorithme ) du gradient fait partie de la classe plus grande des méthodes
appelées méthodes de descente.

35
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

On veut minimiser une fonction f . Pour cela on se donne un point de départ arbitraire x0 :
Pour construire l’itéré suivante x1 il faut penser qu’on veut rapprocher du minimum de f , on
veut donc que f (x1 ) < f (x0 ) : On cherche alors x1 sous la forme x1 = x0 + 0 d0 où d0 2 Rn et

0 > 0: En pratique donc, on cherche d0 et 0 pour que f (x0 + 0 d0 ) < f (x0 ) : Quand d0 existe
on dit que c’est une direction de descente et 0 est le pas de descente. La direction et le pas
de descente peuvent être …xé ou changer à chaque itération. Le schéma général d’une méthode
de descente est le suivant :
8
< x donné dans Rn
0
:
: x n
k+1 = xk + k dk ; avec dk 2 R et k >0

Où k et dk choisis de telle sorte que f (xk + k dk ) f (xk ) :


Une idée pour trouver la direction de descente est de faire un développement de Taylor de f
au premier ordre au voisinage de xk+1 est donné par :

f (xk+1 ) = f (xk + k dk )

= f (xk ) + k rf (xk ) dk + ( k dk ) :

Or, puisque l’on désire avoir : f (xk+1 ) f (xk ) ; une solution évidente consiste à prendre :

dk = rf (xk ) :

La méthode obtenue ainsi obtenue s’appelle méthode de gradient. Donc le schéma général de la
méthode est : 8
< x donné dans Rn
0
:
: x
k+1 = xk k rf (xk ) ; avec k >0

Algorithme du Gradient :

36
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

1. Initialisation
k = 0 : choix de x0 et de 0 > 0:
2. Itération k
Le pas k est choisi constant ou variable
xk+1 = xk k rf (xk ) :
3. Critère d’arrêt
Si kxk+1 xk k < "; STOP.
Sinon, on pose k = k + 1 et on retourne à 2.

Théorème 2.1 [26] Soit f une fonction de classe C 1 de Rn dans R, x est un minimum de f ,
supposons que :

1. f est -elliptique, c’est à dire :

9 > 0; 8 (x; y) 2 Rn Rn hrf (x) rf (y) ,x yi kx yk2 :

2. L’application rf est Lipchitzienne, c’est à dire :

9 L > 0; 8 (x; y) 2 Rn Rn krf (x) rf (y)k L kx yk :

2
S’il existe deux réels a et b tels que 0 < a < k <b< L2
; pour tout k 0; alors la méthode
du gradient converge pour tout choix de x0 de façon géométrique c’est à dire :

k
9 2 ]0:1[ ; kxk xk kx0 x k:

Méthode du gradient à pas …xe

La méthode du gradient à pas …xe est dé…nie par :


8
< x donné dans Rn
0
:
: x = x rf (x )
k+1 k k

37
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

C’est une méthode de descente utilisant un pas …xe k = (indépendant de k). La convergence
de la méthode est assurée sous les hypothèses du théorème précédent, en particulier pour un
choix de pas véri…ant :
2
0< < :
L2
C’est la méthode de gradient la plus simple à utiliser.

Exemple 2.1 Soit la fonction f dé…nie de R dans R par :

f (x) = 2x2 + 3x 1:

L’algorithme de descente est 8


< x donné dans R
0
:
: x
k+1 = xk + dk

f est di¤érentiable donc : dk = rf (x) = f 0 (x) = 4x + 3: D’ou


8
< x donné dans R
0
:
: x f 0 (xk )
k+1 = xk

Calculons le pas On a :

jrf (x) rf (y)j = j(4x + 3) (4y + 3)j = j4 (x y)j 4 jx yj ;

donc rf est lipchitzienne de constant L = 4: Et

hrf (x) rf (y) , x yi = h4 (x y) , x yi = 4 (x y)2 4 jx yj2 ;

donc f est -elliptique avec = 4:

Comme 2 0; L2 2 donc 2 0; 12 : Si on pose x0 = 0:75; = 0:1:

38
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

Itération 1

x1 = x0 f 0 (x0 )

= 0:75 0:1 (4 ( 0:75) + 3) = 0:75

d’ou x1 = 0:75;

Critère d’arrêt : jx1 x0 j = 0 < ":

STOP.

Méthode du gradient à pas optimal

Ici on choisit à chaque étape k de façon que :

f (xk k rf (xk )) = inf f (xk rf (xk )) :


2R

Théorème 2.2 Si f est -elliptique sur Rn , si rf est uniformément lipchitzien de constante


de lipschitz L, l’algorithme de gradient à pas optimal est bien dé…ni et converge vers la solution
optimale.

Remarque 2.1 Les directions de descente sont orthogonales, c’est à dire :

hrf (xk ) ,rf (xk+1 )i = 0:

Cas d’une fonction quadratique

Ici la fonctionnelle f est quadratique sur Rn :

1
f (v) = hAv; vi hb; vi ;
2

où la matrice A est symétrique dé…nie positive. La solution x du problème de minimisation véri…e


Ax = b. On appellera résidu à l’étape k la quantité rk = Axk b:
On prend ici une direction de descente dk quelconque dans Rn ; non orthogonale à rk . A chaque

39
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

étape, le pas optimal k est donnée par :

hrk , dk i
k = ;
hAdk , dk i

et l’on a hrk+1 , dk i = 0:
Notons E (v) = 21 hA (v u) ; v ui ; on a alors

E (xk+1 ) = (1 k) E (xk ) ;

avec
1 hrk , dk i2
k = :
2 hAdk , dk i hA 1 rk , rk i
Puisque la quantité k est par construction telle que 0 k 1; on a l’estimation suivante :

2
rk dk
, > 0;
krk k kdk k

alors k = K(A)
( où K (A) est le conditionnement de A, c’est à dire le rapport de la plus
grande à la plus petite valeur propre ), et donc

E (xk+1 ) = (1 ) E (xk ) :

On dit que la méthode converge linéairement.

2.2.2 Méthode de Newton

La méthode de Newton est une méthode itérative générale de résolution d’un système non-
linéaire.
une condition pour x soit solution du problème d’optimisation minRn f (x) avec f : Rn ! R
est qu’il s’annule le gradient de f:
x est une solution de l’équation rf (x) = 0: On cherche à résoudre cette équation .
On peut résoudre l’équation g (x) = rf (x) = 0 par la méthode de Newton qui permet de
résoudre l’équation g (x) = 0.

40
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

Soit x0 2 Rn ; à l’itération k + 1

g (xk ) 1
xk+1 = xk = xk (g 0 (xk )) g (xk ) :
g 0 (xk )

Pour appliquer cette méthode a l’optimisation en remplace g (x) par rf (x)

1
xk+1 = xk r2 f (xk ) rf (xk ) :

1
Où r2 f (xk ) = H (xk ) est la forme hessienne de f et (H (xk )) l’inverse de H (xk ) :
La méthode nécessite l’évaluation de la matrice hessienne de f , elle ne peut être utilisée que si
f est deux fois continument di¤érentiable. On peut remarquer que la méthode s’arrête également
lorsque rf (xk ) = 0: Si en plus, r2 f (xk ) est dé…nie positive alors xk est un minimum local
d’après la condition su¢ sante donnée au proposition (1:15) :
Algorithme du Newton :
1. Initialisation
k = 0 : choix de x0 :
2. Itération k
1
xk+1 = xk r2 f (xk ) rf (xk ) :
3. Critère d’arrêt
Si kxk+1 xk k2 < "; STOP.
Sinon, on pose k = k + 1 et on retourne à 2.

Remarque 2.2 Si le point x1 est assez proche de la solution optimale local x telle que H (x )
soit dé…nie positive alors l’algorithme de Newton converge de façon quadratique vers la solution
x c’est à dire :
kxk+1 xk kxk x k2 0:

Exemple 2.2 Soit f : R2 ! R une fonction dé…nie par :

f (x1 ; x2 ) = x21 + x22 x1 2x2 :

41
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

0 1 0 1
x01 2
Soit x0 = @ A=@ A ; on trouve les itérations 1 et 2 par la méthode de Newton d’opti-
x02 3
misation 8
< x0 donné
:
: xk+1 = xk r2 f (xk )
1
rf (xk )

On a 0 1 0 1 0 1
2x01 1 3 2 0
rf (x01 ; x02 ) = @ A=@ A ; r2 f (x01 ; x02 ) = @ A:
2x2 0
2 4 0 2
1
On pose dk = r2 f (xk1 ; xk2 ) rf (xk1 ; xk2 ) alors :
8
< x0 donné
:
: xk+1 = xk + dk

r2 f (xk1 ; xk2 ) dk = rf (xk1 ; xk2 ) : Donc

r2 f (x01 ; x02 ) d0 = rf x01 ; x02

alors 0 10 1 0 1 8
2 0 d01 3 < 2d0 = 3
1
@ A@ A=@ A) :
0 2 d02 4 : 2d02 = 4
0 1
3
D’ou d01 = 2
3
; d02 = 2 ) d0 = @ 2 A ; ce qui donne :
2

0 1 0 1 0 1
3 1
2
x1 = x0 + d0 = @ A+@ 2 A=@ 2 A:
3 2 1

0 1 0 1 0 1 0 1
1 1 1
0
x2 = x1 + d1 = @ 2 A+@ A=@ 2 A : Ainsi le point @ 2 A est la solution approché de la
1 0 1 1
fonction f:

42
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

2.2.3 Méthode de Quasi-Newton

Dans la pratique pour les problèmes de grande dimension, le calcule du hessienne est très
di¢ cile, on peut alors utiliser des algorithmes dites Quasi-Newton qui calcul une approximation
1
Bk de r2 f (xk ) en fonction de Bk+1 ; rf (xk ) ; rf (xk 1 ) ; xk ; xk 1 :
En utilisant Broyden :

(yk 1 Bk 1 :dk 1 ) T
Bk = Bk 1 + T
:dk 1 ;
dk 1 :dk 1

avec dk 1 = xk xk 1 ; y k 1 = rf (xk ) rf (xk 1 ) :


Algorithme de Quasi-Newton :
1. Initialisation
x0 donné, B0 donné
2. Itération k
xk+1 = xk Bk rf (xk ) :
3. Critère d’arrêt
Si kxk+1 xk k < "; STOP.
Sinon, on pose k = k + 1 et on retourne à 2.

2.3 Méthodes d’optimisation unidimensionnelle


L’optimisation unidimensionnelle est l’étude des minima ou des maxima des fonctions d’une
seule variable (fonction de R dans R): L’intérêt des algorithmes d’optimisation unidimensionnelle
ne vient pas seulement du fait que dans les applications on rencontre naturellement des problèmes
unidimensionnels, mais aussi du fait que l’optimisation unidimensionnelle est un composant fon-
damental de bon nombre de méthode d’optimisation multidimensionnelle (voir [9]).

Dé…nition 2.1 (Fonction unimodale) Soit f dé…nie sur intervalle I R: On dit que f (x)
est unimodale si elle admet un unique minimum x dans I; elle est strictement décroissante sur
I \ ] 1; x [ et strictement croissante sur I \ ]x ; +1[ :

Exemple 2.3 La fonction f (x) = jxj est une fonction unimodale sur l’intervalle [ 1; 1] :

43
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

Proposition 2.1 Si f est strictement convexe sur I et atteint son minimum sur I en un point
x dans l’intérieur de I alors elle est unimodale.

2.3.1 Méthode de Dichotomie

La méthode de Dichotomie est une méthode unidimensionnelle qui utilisé pour la fonction
unimodale.
Au départ, à l’aide d’un algorithme préliminaire, on choisit a et b tels que le minimum de f
soit atteint entre a et b. On partage alors, à l’aide de points d; c et e; l’intervalle [a; b] en quatre
sous-intervalles égaux :
a+b a+c c+b
c= ; d= ; e= :
2 2 2
En comparant les valeurs prises par f en a, b; c; d et e, on peut éliminer deux des sous-intervalles
dé…nis par ces points et a¢ rmer que le minimum de f est atteint dans l’union de deux sous-
intervalles contigus [a1 ; c1 ] et [c1 ; b1 ] :
On évalue la fonction f (x) dans ces points qui donnent le résultat suivant :

1. Si f (a) < f (d) < f (c) < f (e) < f (b) alors, on peut éliminer c; e; et b:

2. Si f (a) > f (d) < f (c) < f (e) < f (b) alors, on peut éliminer e; b:

3. Si f (a) > f (d) > f (c) < f (e) < f (b) alors, on peut éliminer a; b:

4. Si f (a) > f (d) > f (c) > f (e) < f (b) alors, on peut éliminer a; d:

5. Si f (a) > f (d) > f (c) > f (e) > f (b) alors, on peut éliminer a; d; et c:

Exemple 2.4 soit f une fonction dé…nie sur I par :

f (x) = jxj avec I = [ 7; 2] ;

par l’application de méthode de Dichotomie on a :

5 19 1
f (a) = 7; f (b) = 2; f (c) = ; f (d) = ; f (e) = ;
2 4 4

44
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

Donc
f (a) > f (d) > f (c) > f (e) < f (b) :

D’après la comparaison on peut éliminer a et d; C’est à dire le minimum est forcément entre c
et b:

2.3.2 Méthode de Section Dorée

On construit une suite décroissante d’intervalles [ai ; bi ] qui contiennent tous le minimum
x : Pour passer de [ai ; bi ] à [ai+1 ; bi+1 ] ; on procède de la manière suivante. On introduit deux
nombres a0 et b0 de l’intervalle [ai ; bi ] tels que a0 < b0 : Puis, on calcule les valeurs f (a0 ) et f (b0 ) :
Trois possibilités se présentent alors à nous. Si f (a0 ) < f (b0 ) ; alors le minimum x se trouve
nécessairement à gauche de b0 , ceci dé…nit alors le nouvel intervalle en posant ai+1 = ai et
bi+1 = b0 : Considérons maintenant que l’inégalité : f (a0 ) > f (b0 ) est satisfaite. Dans ce second
cas , il est évident que le minimum se trouve cette fois à droite de a0 ; on pose alors : ai+1 = a0 et
bi+1 = bi : En…n, le dernier cas consiste à avoir f (a0 ) = f (b0 ) : Alors le minimum se trouve dans
l’intervalle [a0 ; b0 ] : On se restreint donc à ai+1 = a0 et bi+1 = b0 :
Pour choisir a0 et b0 en pratique en général, on privilégie deux aspects :

(i) On souhaite que le facteur de réduction ; qui représente le ratio du nouvel intervalle par
rapport au précédent, soit constant.

(ii) On désire réutiliser le point qui n’a pas été choisi dans l’itération précédente a…n de diminuer
les coûts de calculs.

On peut montrer que la véri…cation simultanée de ces deux contraintes conduits à un choix
unique des paramètres a0 et b0 . Plus précisément, supposons que f est unimodale. Alors on
obtient l’algorithme ci- dessous dit de la section dorée, la méthode tirant son nom de la valeur
du paramètre :

45
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

p
1+ 5
poser = 2

poser a0 = a
poser b0 = b
pour i = 0; : : : ; N max
1
poser a0 = ai + 2 (bi ai )
poser b0 = ai + 1 (bi ai )
si (f (a0 ) < f (b0 )) alors
poser ai+1 = ai
poser bi+1 = b0 :
sinon si (f (a0 ) > f (b0 )) alors
poser ai+1 = a0
poser bi+1 = bi
sinon si (f (a0 ) = f (b0 )) alors
poser ai+1 = a0
poser bi+1 = b0
…n si
…n pour i
Ici, N max est le nombre maximal d’itérations que l’on se …xe. A cette …n, on doit valider un
critère d’arrêt de la forme : jbi+1 ai+1 j < "; où " est l’erreur que l’on se permet sur la solution
x du problème.

2.3.3 Méthode de Brent

Elle est appliquée aux fonctions deux fois continument di¤érentiables dont la dérivée seconde
est bornée.

Dé…nition 2.2 On dit qu’une fonction F est parabolique par morceaux sur [a; b] ; s’il existe une
famille …nies d’intervalles (Ii )1 i k disjoints deux à deux tels que :

[a; b] = [1 i k Ii et 8i = 1; : : : ; k; F Ii est une fonction parabolique.

46
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

C’est une méthode unidimensionnelle, qui consiste à construire une suite croissante de fonction
(Fk )1 k N parabolique par morceaux, dont les minima globaux forment une suite qui converge
vers le minimum global de f:
C’est à dire :

8i 1; 8x 2 [a; b] ; Fi (x) Fi+1 (x)

8x 2 [a; b] ; Fi (x) f (x) :

Les minima globaux des fonctions F convergent vers le minimum global de f:


L’idée de la méthode de Brent repose sur le résultat suivant :

d2 f (x)
Théorème 2.3 Soit f une fonction deux fois di¤érentiable et véri…e 8x 2 [a; b], dx2
M;
(M > 0) : Alors 8x1 ; x2 2 [a; b] véri…ant x1 x2 , la parabole ' (x) dé…nie par :
8
>
> ' (x1 ) = f (x1 )
2
>
<
d ' (x)
= M; 8x 2 [a; b] et et ;
dx2 >
>
>
: ' (x ) = f (x )
2 2

est une sous estimateur de f c’est à dire ' (x) f (x) :

Preuve
Posons g (x) = ' (x) f (x) pour x 2 [a; b] :
Alors g 00 (x) = '00 (x) f 00 (x) = M f 00 (x) 0: Donc g est convexe.
On a : g (x1 ) = g (x2 ) = 0 ) g (x) 0 8x 2 [a; b] ; d’ou ' (x) f (x) :

Remarque 2.3 Pour toute subdivision a = x1 ; x2 ; : : : ; xk = b de [a; b] ; on peut construire une


fonction Fk continue et parabolique par morceaux sur [a; b] : En e¤et, on construit à partir de
chaque couple (xj ; xj+1 ) fermé de deux points successifs une parabole notée '[xj ;xj+1 ] dé…nie sur
l’intervalle [xj ; xj+1 ] et ceci pour j = 1; 2; : : : ; k 1: Ensuite on dé…nie la fonction Fk par :

Fk : [a; b] ! R
x ! '[xj ;xj+1 ] (x) si x 2 [xj ; xj+1 ] :

47
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

Fk est une fonction parabolique par morceaux, elle est notée :

h i
Fk (x) = '[a;x1 ] ; '[x1 ;x2 ] ; : : : ; '[xk 1 ;xk ]
:

Maintenant, cherchons une parabole ' (x) véri…ant '00 (x) = M et passant par les deux points
(x1 ; y1 ) ; (x2 ; y2 ) ; x1 6= x2 : C’est à dire :
8
< y = ' (x )
1 1
:
: y = ' (x )
2 2

M 2
Posons ' (x) = 2
x + x + : On a :
8
< y = M 2
x + x1 +
1 2 1
:
: y = M 2
x + x2 +
2 2 2

En résolvant ce système de deux équations à deux inconnues on trouve :

y1 y2 M x1 y2 x2 y1 M
= (x1 + x2 ) ; = + x1 x2 :
x1 x2 2 x1 x2 2

Déterminons le point x0 qui réalise le minimum de ' (x)

'0 (x) = M x +
y1 y2 1
'0 (x0 ) = 0 ) x0 = = + (x1 + x2 ) :
M M (x2 x1 ) 2

L’algorithme de Brent :
1. Initialisation :
Poser k = 1
f (b) f (a) a+b
x1 = M (b a)
+ 2

f" = min ff (a) ; f (x1 ) ; f (b)g


x" = arg min ff (a) ; f (x1 ) ; f (b)g
F" = '[a;b] (x)

48
Chapitre 2 : Quelques méthodes et algorithmes de minimisation

F1 = '[a;x1 ] ; '[x1 ;b]


2. Etape k=1,2,...
Si f" F" " alors arrêter
2
sinon déterminer xk+1 2 arg min Fk ([a; b])
6
6
6 si f (xk+1 ) f" ; alors poser
6 2
6
6 f = f (xk+1 )
6 4 "
6
6 xk = xk+1
6
6
6 Fsi
6
6
6 poser Fk = min Fk+1 ([a; b])
6
6
6 k =k+1
4
Aller à l’étape 2
Fsi.

49
Chapitre 3

Optimisation d’un système d’énergie


photovoltaïque

3.1 Introduction
L’utilisation de l’énergie solaire est une option énergétique prometteuse qui répond à la de-
mande croissante en énergie dans le monde, avec des avantages comme l’absence de la pollution
et la disponibilité partout au globe terrestre.
L’énergie photovoltaïque résulte de la transformation directe de la lumière du soleil en énergie
électrique au moyen des cellules généralement à base de silicium cristallin qui reste la …lière la
plus avancée sur le plan technologiques et industriel, en e¤et le silicium est l’un des éléments les
plus abondants sur terre sous forme de silice non toxique.
En e¤et le mot "photovoltaïque" vient du grec "photo" qui signi…e lumière et de "voltaïque"
qui tire son origine du nom d’un physicien italien Alessandro Volta (1754-1827) qui a beaucoup
contribué à la découverte de l’électricité, alors le photovoltaïque signi…e littérairement la «lumière
électricité» .

3.1.1 Historique de l’énergie photovoltaïque

Quelques dates importantes dans l’énergie photovoltaïque :

50
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

1839 : Le physicien français Edmond Beckerel découvre l’e¤et photovoltaïque.

1875 : Werner Von Siemens expose devant l’académie des sciences de Berlin un article sur
l’e¤et photovoltaïque dans les semi-conducteurs.

1954 : Trois chercheurs américains Chapin, Peason et Prince fabriquent un cellule photovol-
taïque.

1958 : Une cellule avec un rendement 9%, les premiers satellites alimentés par des cellules
solaires sont envoyés dans l’espace.

1973 : La première maison alimentée par des cellules photovoltaïques est construite à l’univer-
sité de Delware.

1983 : La première voiture alimentée en énergie photovoltaïque parcourt une distance de 4000
Km en Australie.

F IGU RE 3:1 : Schema d’un energie photovolta•{que:

3.2 Rayonnement solaire


Malgré la distance considérable qui sépare le soleil de la terre 150:106 Km; la couche ter-
restre reçoit une quantité d’énergie importante 180:106 GW , c’est pour ça que l’énergie solaire se

51
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

présente bien comme une alternative aux autre sources d’énergie. Cette quantité d’énergie quit-
tera sa surface sous forme de rayonnement électromagnétique compris dans une longueur variant
de 0:22 à 10 m, l’énergie associe à ce Rayonnement solaire se décompose approximativement
comme suit :

- 9% dans la bande des ultraviolets ( < à 0:4 m).

- 47% dans la bande visibles ( 0:4 à 0:8 m).

- 44% dans la bande des infrarouges ( > à 0:8 m).

F IGU RE 3:2 : Reponce spectrale d’une cellule:

Au cours de ces dix derniers années ce spectre à été homologués par l’organisation internatio-
nal ( ISO 9845-1 : 1992 ) et la société américaine de test et de matériaux ( ASTME 892-87 : 1992)
ont …xées le ‡ux de standardisation à 1000 W=m2 . Cette énergie est dé…nie comme paramètre
solaire qui à une valeur variable suivant la saison, l’heure, la localisation géographique du site,
les conditions météorologues (poussière, humidité,...ect.).

52
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

3.3 Déclinaison du soleil


C’est l’angle formé par la direction du soleil et le plan équatorial terrestre, sa valeur en degré
est donné par la relation de Cooper suivante :

284 + j
= 23:45 sin 2
365

Où j est le numéro d’ordre du jour de l’année ( n = 1 pour le 1er Janvier, n = 32 pour le 1er
Février,...etc.).
La déclinaison varie entre 23:45 le 21 décembre et +23:45 le 21 juin.

F IGU RE 3:3 : Courbe de declinaison du soleil:

3.4 Avantages et inconvénients de l’énergie solaire


Les systèmes photovoltaïques présentent un grand nombre d’avantages et d’inconvénients qui
sont : [6]

53
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

Avantages

Les systèmes photovoltaïques ont plusieurs avantages :

- Le système modulaire de panneaux photovoltaïques permet un montage adaptable à des besoins


énergétiques variés, les systèmes peuvent être dimensionnés pour des applications allant du
milliwatt au mégawatt.

- Le technologie photovoltaïque présente des qualités sur le plan écologique car le produit et non
polluant, silencieux, et n’entraîne aucune perturbation du milieu.

- Ils sont non polluants sans émission ou odeurs discernables.

- Ils peuvent être des systèmes autonomes qui fonctionnent sûrement, sans surveillance pendant
de longues périodes.

- Ils n’ont besoin d’aucun raccordement à une autre source d’énergie où à un approvisionnement
en carburant.

- Ils peuvent être combinés avec d’autres sources d’énergie pour augmenter la …abilité de système.

- Ils peuvent résister à des conditions atmosphériques pénibles comme la neige et la glace.

- Ils ne consomment aucun combustible fossile et leur carburant est abondant et libre.

- Une haute …abilité car l’installation ne comporte pas de pièces mobiles, ce qui la rend particu-
lièrement appropriée aux régions isolées, d’où son utilisation sur les engins spatiaux.

- Ils ont une longue durée de vie.

- Les frais et les risques de transport des énergie fossiles éliminées.

Inconvénients

- L’énergie issue du générateur photovoltaïque est continue et de faible voltage (< à 30 V ) donc
il doit être transformé par l’intermédiaire d’un onduleur.

- Ils sont tributaires des conditions météorologiques.

- La fabrication des modules photovoltaïque relève de la haute technique, ce qui rend le coût
très élevé.

54
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

- Le rendement réel d’un module photovoltaïque et de l’ordre de 10 à 15%.

- Beaucoup d’appareils vendus sur les marches fonctionnent avec du 130 V alternatif.

3.5 Générateur photovoltaïque


L’énergie solaire photovoltaïque (PV) provient de la conversion directe de l’énergie provenant
des photons, compris dans le rayonnement solaire, en énergie électrique par le biais de capteurs
fabriqués avec des matériaux sensibles aux longueurs d’onde du visible (nommée cellule PV).
L’association de plusieurs cellules PV en série/parallèle donne lieu à un générateur photovoltaïque
(GPV) qui a une caractéristique statique courant tension I V non linéaire et présente un point
de puissance maximale (PPM). Cette caractéristique dépend du niveau d’éclairement et de la
tension de la cellule. Le point de fonctionnement du GPV peut donc varier entre les points
extêrmes correspondants au courant du court-circuit Icc et la tension en circuit ouvert VOC .
La détermination du point de fonctionnement du GPV dépend directement de la charge à
laquelle il est connecté, il est plus ou moins éloigné du PPM caractérisé par le courant et la
tension optimaux, notés (Imp ; Vmp ) :

3.6 Cellule photovoltaïque


Les cellules photovoltaïques ou les plaques solaires sont des composants qui transforment
directement la lumière solaire en électricité par un processus appelé "e¤et photovoltaïque". Elles
sont réalisées à l’aide de matériaux semi-conducteurs, c’est-à-dire ayant des propriétés intermé-
diaires entre les conducteurs et les isolants. La taille de chaque cellule va de quelques centimètres
carrés jusqu’à 100 cm2 ou plus sa forme est circulaire, carrée ou dérivée des deux géométries.
(voir [12])

3.6.1 Cellule photovoltaïque idéal

La photopile est un composant semi-conducteur qui délivre un courant en excitant ce dernier


par des photons, donc en première approximation on a une source de courant, qui est court-

55
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

circuitée par une diode (car la photopile est une jonction p n).

F IGU RE 3:4 : Schema ideale d’une cellule photovolta•{que:

Le courant généré par la cellule PV est donné par :

I = Iph ID
qV
= Iph I0 exp 1 :
AKT

Avec
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.

3.6.2 Cellule photovoltaïque réel

On rencontre dans la littérature plusieurs modèles de la cellule photovoltaïque qui di¤érent


entre eux par le nombre de paramètres intervenant dans le calcul de la tension et de courant de

56
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

sortie.(voir [6])
Rauschenbach (1980) et Townsend (1981) ont prouvé que des cellules photovoltaïques peuvent
être modélisées par un circuit électrique équivalent qui contient des paramètres ayant les signi…-
cations liées aux phénomènes physiques de la cellule.
Rauschenbach (1980) et Green (1981) ont passé en revue plusieurs circuits équivalents et ils
ont recommandé l’utilisation de circuit d’une seule diode à quatre paramètres.
Roger (1984), Appelbaum (1987), Ekstein (1990), Du¢ e et Beckmann (1991) et Alghuwainem
(1992) ont employé le modèle à quatre paramètres.

Modèle à une diode (à une seule exponentielle) :

Réellement il existe plusieurs in‡uences des résistances parasites dans la production de l’éner-
gie électrique, et la cellule photovoltaïque est représentée généralement par le schéma suivant :

F IGU RE 3:5 : Schema equivalent d’une cellule solaire:

C’est le modèle le plus classique dans la littérature, il fait intervenir un générateur de courant
pour la modélisation du ‡ux lumineux incident, une diode pour les physiques de polarisation et
deux résistances (série et shunt).
Ces résistances auront une certaine in‡uence sur la caractéristique I V de la photopile :

- La résistance série est la résistance interne de la cellule, elle principalement la résistance de

57
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

semi-conducteur utilisé, de la résistance de contact des grilles collectrices et de la résistivité


de ces grilles.

- La résistance shunt est due à un courant de fuite au niveau de la jonction, elle dépend de la
façon dont celle-ci a été réalisée.

Le courant de la diode est donné par :

q (V + RS I)
ID = I0 exp 1 :
KT

Le courant généré par la cellule PV est donné par la loi des mailles

I = Iph ID Ish
q (V + RS I) V + RS I
= Iph I0 exp 1 :
KT RSh

Avec :
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.
RS : Résistance série.
RSh : Résistance shunt.

Modèle à une diode sans résistance shunt :

Un modèle électrique empirique simple, le plus proche du générateur photovoltaïque, est


actuellement le plus utilisé en raison de la qualité des résultats obtenus, c’est le modèle à une

58
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

diode.

F IGU RE 3:6 : Schema equivalent a une diode


sans resistance shunt:

Le courant généré par la cellule PV est donné par la loi des mailles

I = Iph ID
q (V + RS I)
= Iph I0 exp 1 :
KT

Avec
I : Le courant fourni par la cellule.
Iph : Le photo-courant.
I0 : Le courant de saturation de la diode.
19
q : Charge d’électron ( = 1:602 10 C).
23
K : Constante de Boltzmann ( = 1:381 10 Joule/Kelvin).
T : La température de cellule en Kelvin.
RS : Résistance série.

Fonction objective

Le courant généré par la cellule PV est donné par

qV
I = Iph I0 exp 1 :
AKT

59
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

Nous présentons ci-dessous la caractéristique I en fonction de V d’un module photovoltaïque


pour di¤érentes températures T :

F IGU RE 3:7 : La caracteristique de I = f (V )


en f onction de temperature:

On a la formule de puissance est :

qV
P (V ) = I V = Iph V I0 V exp 1
AKT
= V V [exp ( V ) 1] :

Nous présentons ci-dessous la caractéristique P en fonction de V d’un module photovoltaïque


pour di¤érentes températures T :

60
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

F IGU ERE 3:8 : La caracteristique de P = f (V ) en


f onction de temperature:

On applique le développement de Taylor sur exp (V ) d’où

P (V ) ' V V [1 + V 1]

' V V 2:

Le but est maximiser la puissance P en fonction de V; on pose P = f et V = x et on choisi


= 27 , = 1:

61
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

3.7 Optimisation de rendement par les méthodes de gra-


dient, Dichotomie et Section Dorée
Soit la fonction f dé…nie sur un intervalle [0; 3:5] par :

7
f (x) = x2 + x:
2

On pose
7
g (x) = f (x) = x2 x:
2

F IGU RE 3:9 : Graphe de la f onction concave f et la


f onction convexe g:

62
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

3.7.1 La résolution numérique par la méthode de gradient

Méthode de gradient à pas …xe

L’algorithme de descente est donné par :


8
< x donné, " = 10 3
0
:
: x
k+1 = xk + dk

La fonction g est di¤érentiable, donc : dk = rg (x) = g 0 (x) = 2x + 72 : D’ou


8
< x donné
0
:
: x g 0 (xk )
k+1 = xk

Calculons le pas , on a :

7 7
jrg (x) rg (y)j = 2x 2y = j2 (x y)j 2 jx yj ;
2 2

donc rg est lipchitzienne de constant L = 2:


Et on a

hrg (x) rg (y) , x yi = h2 (x y) , x yi = 2 (x y)2 2 jx yj2 ;

donc g est -elliptique avec = 2:


Comme 2 0; L2 2 donc 2 ]0; 1[ : Si on pose x0 = 0; = 12 :

- Itération 1

x1 = x0 g 0 (x0 )
1 7 7
= 0 2 0 = ;
2 2 4

d’ou x1 = 47 :
7 7
Critère d’arrêt : jx1 x0 j = 4
0 = 4
> ":

63
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

- Itération 2

x2 = x1 g 0 (x1 )
7 1 7 7 7
= 2 = ;
4 2 4 2 4

d’ou x2 = 74 :
7 7
Critère d’arrêt : jx2 x1 j = 4 4
= 0 < ":

STOP. Donc x = arg min g (x) = x2 = 74 :

Méthode du gradient à pas optimal

L’algorithme de descente est formulé par :


8
>
> x donné
>
< 0
0 :
xk+1 = xk k g (xk )
>
>
>
: 0
k = arg mink2R+ g (xk kg (xk ))

7
Avec g 0 (x) = 2x 2
: D’ou on pose x0 = 0 on a

- Itération 1

0
x1 = x0 0g (x0 )
0
0 = arg min g [x0 0g (x0 )]
7
= arg min g x0 0 2x0
2
7
= arg min g 0 0 2 0
2
7
= arg min g 0 ;
2

d’ou
7 49 2 49
g 0 = 0 0:
2 4 4

64
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

D’autre part
7 49 49 1
g0 0 =0, 0 =0) 0 = ;
2 2 4 2
donc

0
x1 = x0 0g (x0 )
1 7 7
= 0 2 0 = ;
2 2 4

d’ou x1 = 47 :
7 7
Critère d’arrêt : jx1 x0 j = 4
0 = 4
> ":

- Itération 2

0
x2 = x1 1g (x1 )
0
1 = arg min g [x1 1g (x1 )]
7
= arg min g 1 0
4
7
= arg min g :
4

D’ou
7
1 = ;
4
donc

0
x2 = x1 1g
(x1 )
7 7 7 7 7
= 2 = ;
4 4 4 2 4

d’ou x2 = 74 :
7 7
Critère d’arrêt : jx2 x1 j = 4 4
= 0 < ":

STOP. Donc x = x2 = 74 :

65
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

3.7.2 La résolution numérique par la méthode de dichotomie

D’après la formule de la fonction g, on a la continuité et l’unimodalité de g sur l’intervalle


[0; 3:5], alors g (x) admet un seul minimum dans cet intervalle, donc en peut appliqué la méthode
de dichotomie avec " = 0:06: Alors on partage a l’aide de points d; c et e, l’intervalle [a; b] en
quatre sous-intervalles égaux avec a = 0 et b = 3:5;

a+b a+c c+b


c= = 1:75; d = = 0:875 et e = = 2:625:
2 2 2

Aprés les calcules, on obtient

g (a) = 0; g (b) = 0; g (c) = 3:06; g (d) = 2:296 et g (e) = 2:296:

Resevoir à :
g (a) > g (d) > g (c) < g (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e:


Donc le nouvel intervalle est [0:875; 2:625] :
Itération 2 :
On applique la méthode de dichotomie sur l’intervalle [0:875; 2:625], d’où :

a = 0:875, b = 2:625, c = 1:75; d = 1:312 et e = 2:187;

et par les calcules on a

g (a) = 2:297; g (b) = 2:297; g (c) = 3:06; g (d) = 2:870 et g (e) = 2:871;

Donc
g (a) > g (d) > g (c) < f (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e:


Itération 3 :

66
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

On applique la méthode de dichotomie sur l’intervalle [1:312; 2:187], d’où :

a = 1:312, b = 2:187, c = 1:75; d = 1:531 et e = 1:968;

aprés l’évaluation, on trouve

g (a) = 2:870; g (b) = 2:871; g (c) = 3:06; g (d) = 3:014 et g (e) = 3:014;

Donc
g (a) > g (d) > g (c) < g (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e:


Itération 4 :
On applique la méthode de dichotomie sur l’intervalle [1:531; 1:968], d’où :

a = 1:531, b = 1:968, c = 1:75; d = 1:640 et e = 1:851:

Evalué dans la fonction g, on a :

g (a) = 3:014; g (b) = 3:014; g (c) = 3:06; g (d) = 3:05 et g (e) = 3:05;

Donc
g (a) > g (d) > g (c) < g (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e:


Itération 5 :
On applique la méthode de dichotomie sur l’intervalle [1:640; 1:851], d’où :

a = 1:640, b = 1:851, c = 1:745; d = 1:692 et e = 1:798:

67
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

On remplace ces points, on obtient :

g (a) = 3:05; g (b) = 3:052; g (c) = 3:062; g (d) = 3:06 et g (e) = 3:06:

On résulte
g (a) > g (d) > g (c) < g (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e:


Itération 6 :
On applique la méthode de dichotomie sur l’intervalle [1:692; 1:798], d’où :

a = 1:692, b = 1:798, c = 1:745; d = 1:718 et e = 1:771;

et par les calcules on a

g (a) = 3:059; g (b) = 3:06; g (c) = 3:062; g (d) = 3:061 et g (e) = 3:061;

ce qui arrive à :
g (a) > g (d) > g (c) < g (e) < g (b) :

D’après la comparaison on peut éliminer a et b; donc le minimum est forcément entre d et e: On


a j1:771 1:718j < " donc STOP.

3.7.3 La résolution numérique par la méthode de Section Dorée

On a la continuité et l’unimodalité de g sur l’intervalle [0; 3:5], alors g (x) admet un seul
minimum dans cet intervalle, donc en peut appliqué la méthode de section dorée.
p
1+ 5
On pose = 2
; a0 = a = 0; b0 = b = 3:5 et " = 0:06,
posons

1
a0 = ai + 2
(bi ai )
1
b 0 = ai + (bi ai ) ;

68
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

Itération 1 : pour i = 0, on a

1
a0 = a0 + 2
(b0 a0 ) = 1:336
1
b 0 = a0 + (b0 a0 ) = 2:163;

d’où
g (a0 ) = 2:892; g (b0 ) = 2:892;

alors g (a0 ) = g (b0 ) ; donc d’après l’algorithme de section dorée on a :

a1 = a0 = 1:336

b1 = b0 = 2:163:

C’est à dire le nouvelle intervalle est [1:336; 2:163] :


Itération 2 : pour i = 1, on a

1
a0 = a1 + 2
(b1 a1 ) = 1:651
1
b 0 = a1 + (b1 a1 ) = 1:847;

puis
g (a0 ) = 3:053; g (b0 ) = 3:052;

alors g (a0 ) = g (b0 ) ; donc d’après l’algorithme de section dorée on a :

a2 = a0 = 1:651

b2 = b0 = 1:847;

C’est à dire le nouvel intervalle est [1:651; 1:847] :

69
Chapitre 3 : Optimisation d’un système d’énergie photovoltaïque

Itération 3 : pour i = 2, on a

1
a0 = a2 + 2
(b2 a2 ) = 1:725
1
b 0 = a2 + (b2 a2 ) = 1:772;

conséquence
g (a0 ) = 3:06; g (b0 ) = 3:06;

alors g (a0 ) = g (b0 ) ;donc d’après l’algorithme de section dorée on a :

a3 = a0 = 1:725

b3 = b0 = 1:772;

C’est à dire le nouvel intervalle est [1:725; 1:772] : On a j1:772 1:725j < " donc STOP.
D’ou on conclu que le minimum de la fonction g est :

7 49
g (x ) = g = :
4 16

Ce qui donne
49
max f (x) = min ( f (x)) = min g (x) = :
16

Conclusion

Dans la première partie de ce chapitre, nous avons présenté une introduction et quelques
avantages et inconvénients sur les systèmes photovoltaïques.
Ensuite nous avons appliqué quelques méthodes d’optimisation pour augmenter et maximiser
la puissance P en fonction a la tension V pour améliorer les performances du système photovol-
7
taïque. Finalement, on résulte que pour une tension égale 4
donne une puissance maximale égale
49
16
:

70
Conclusion

Dans ce mémoire, nous avons présenté di¤érentes méthodes de résolution des problèmes d’op-
timisation déterministe. Dans le cas ou le problème est unidimensionnel c’est-à-dire la fonction
objectif à une seule variable ces problèmes sont relativement faciles à résoudre. Mais la di¢ culté
deviennent beaucoup plus considérables lorsqu’on besoin du minimum global pour le problème
multidimensionnel c’est à dire d’une fonction à plusieurs variables.
Le but assigné à ce mémoire consiste à appliquer les méthodes de Gradient, Dichotomie et
Section Dorée dans le but de maximiser la puissance générée pour avoir un bon rendement du
système photovoltaïque.

Conclusion

In this memory we have presented di¤erent resolution methods on problems of global opti-
mization. In the case of a function of a single variable such problems are relatively easy to solve.
Di¢ culties become much more signi…cant when a need of the global minimum of a function of
several variables.
The purpose of this memory is to apply the Gradient, Dichotomie and Golden search methods
to maximize the power generated to have a good performance of photovoltaic system.

71
Bibliographie

[1] S. Belahcene. Résolution de problèmes de programmation semi-in…nie et introduction à


l’optimisation globale. Mémoire de magister, UMMTO (2005).

[2] M. Bellou…. Cours d’optimisation sans contraintes. Université Mohamed Cherif Messaadia,
Souk-Ahras, (2015).

[3] M. Bergounioux. Optimisation et contrôle des systèmes linéaires, Dunod, Paris, (2001).

[4] M. Bierlaire. Introduction à l’optimisation di¤érentiable. Presses polytechniques et uni-


versitaires romandes, Lausanne, (2006).

[5] K. Bouaziz. Etude de la convergence d’une combinaison de familles du Gradient conjugue.


Mémoire de Magister, Université Mohamed Cherif Messaadia, Souk-Ahras, (2012-2013).

[6] D. Boukhers. Optimisation d’un système d’énergie photovoltaïque application au pompage.


Mémoire de magister en électrotechnique, Université Mentouri de Constantine, (2007).

[7] J. Céa. Optimisation : théorie et algorithmes, Dunod, (1971).

[8] Y. Cherruault. Optimisation, Méthode locales et globales, Presses universitaire de France,


(1999).

[9] G. Christophe. Optimisation non linéaire monodimensionnelle sans contraintes, LIP6-


Université Paris 6, France.

[10] P. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimisation, Masson,


Paris, (1982).

[11] R. Danchin. Cours de calcul di¤érentiel. Licence de Mathématiques, 3éme année, (2010).

72
Bibliographie

[12] Y. Djedidi, M-S. Amamra. Optimisation de la production d’un générateur photovol-


taïque. Mémoire de master, Université Kasdi Merbah Ouargla, (2015).

[13] R. Fletcher. Practical methods of optimization. John Wily & Sons, New-York, (1987).

[14] T. Hamaizia. A novel class of Filled function for global optimization, International journal
of Mathematics & Computation, Volume 22, No.1, (2013).

[15] T. Hamaizia. Cours d’Optimisation Sans Contraintes, Université Larbi Ben M’hidi d’Oum
Elbouaghi, (2015).

[16] R. Herbin. Analyse numérique, Université Aix Marseille, France, (2011).

[17] M. H.Holmes. Introduction to Numerical Methods in Di¤erential Equations, Springer-


Verlag, New York.

[18] G. Legendre. Méthodes numériques-Introduction à l’analyse numérique et au calcul scien-


ti…que. Université Paris I-Dauphine, (2012).

[19] M. Michel. Optimisation et programmation mathématique. Master IRIV, Télécom Physique


Strasbourg.

[20] M. Pierre, A. Henort. Analyse numérique. Ecole des Mines de Nancy, (2013-2014).

[21] Y. Privat. Introduction à l’optimisation aspects théoriques et numériques, Ecole nationale


supérieure d’Electricité et de Mécanique, Université Pierre et Marie Curie, Paris, (2014-
2015).

[22] L. Pujo-Menjouet. Cours de calcul di¤érentiel. Université Claude Bernard, Lyon, France.

[23] J. Raymond. Calcul di¤érentiel. Université Paul Sabatier, (2000).

[24] R-T. Rockafellar. Convex Analysis, Princeton Mathematics Ser. 28, Princeton University
Press, Princeton, New Jersey, (1970).

[25] J. Royer. Calcul Di¤érentiel et intégral. Université Toulouse 3, (2013-2014).

[26] H. Soulami. Méthodes de descente en optimisation numérique. Mémoire de …n d’études de


licences. Université Sidi Mohamed Ben Abdellah, (2016).

73

Vous aimerez peut-être aussi