Vous êtes sur la page 1sur 69

Université des Sciences et de la technologie Houari

Boumediene
Faculté d’Electronique et Informatique
Département Electrotechnique

Techniques d’optimisation et
de contrôle de puissance
(TOCP)
Responsable du Module: Dr.N. KOUBA
nkouba@usthb.dz
M1/ER/ES
2017/2018
Objectifs :

Le but est d’acquérir des connaissances sur les éléments


(dispositifs électroniques) constituant un conditionneur de
puissance électrique issue d’un système E.R.

Connaissances préalables recommandées :

1. Système PV,
2. Système Eolien,
3. Système de Stockage,
4. Techniques de commande (MPPT).
Contenu de la matière :
•Chapitre 0 : Le Réseau Electrique et les Energies Renouvelables.

•Chapitre 1 : Commande de la puissance générée via les techniques MPPT.

•Chapitre 2 : Les techniques MPPT dans les systèmes PV :

-Algorithmes directs
la méthode Perturb & Observ (P&O),
algorithme basé sur la logique floue, adaptative
algorithme basé sur les réseaux de neurones, neuro-flou

-Algorithmes indirects.-
la méthode d’ajustement de courbe,
la méthode (” look-up table”),
la méthode de court circuit.
•Chapitre 3 : Les techniques d’optimisation dans les systèmes éoliens
-méthodes P&O, TSR, PSF, HCS, gradient, LF, adaptatives, prédictives……

•Chapitre 4 : Applications
•Chapitre 1 :

Part 1

Techniques
d’Optimisation
• 1.1) Méthodes Stochastiques.
• 1.2)Logique Floue / Réseaux de Neurones
Artificiels.
• 1.3) Méthodes Hybrides.
Techniques
d’optimisation

Qu'est-ce que
l'optimisation ?
Optimisation
Optimiser
Donner à quelque chose les meilleures conditions d'utilisation, de
fonctionnement ou de rendement .

Optimisation
•Action d'optimiser; résultat de cette action.

•C’est un calcul permettant de trouver les valeurs d'un ou plusieurs


paramètres qui correspondent au minimum / maximum d'une fonction.

•Réalisation de quelque chose d’une manière optimale.

•Fait d'optimiser, de donner le meilleur rendement possible.


Optimisation

•En mathématiques, l'optimisation traite de la recherche d'un


extremum d'une fonction, dont les entrées peuvent être soumises à des
contraintes.

•En informatique, l'optimisation de code permet d'améliorer les


performances d'un logiciel plus particulièrement dans les bases de
données.

•L'optimisation pour les moteurs de recherche permet d’améliorer le


classement d'un site web dans les résultats d'une requête sur les
moteurs de recherche .
Optimisation (mathématiques)
L'optimisation est une branche des mathématiques cherchant à
modéliser, à analyser et à résoudre analytiquement ou numériquement
les problèmes qui consistent à minimiser ou maximiser une fonction sur
un ensemble.

Les premiers problèmes d'optimisation auraient été formulés par


Euclide, au IIIe siècle.

Le plus court chemin pour aller de


A à C en passant par un point de la
droite est obtenu lorsque l'angle
d'incidence est égal à l'angle
réfléchi (sur la figure, il s'agit du
chemin vert passant par B).
l'optimisation est l’étude des problèmes qui s'expriment de
la manière suivante:

On dit que l'on cherche à minimiser la fonction f sur l'ensemble A.


La fonction f porte divers noms : fonction-coût ou simplement coût, fonction-objectif
ou simplement objectif, critère, etc.
L’optimisation est découpée en sous-disciplines qui se chevauchent,
suivant la forme de la fonction objectif et celle des contraintes :

l'optimisation en dimension finie ou infinie : on parle ici de la dimension de l'espace vectoriel


des variables à optimiser.
l'optimisation continue ou combinatoire: les variables à optimiser sont discrètes dans ce dernier
cas.
l'optimisation linéaire (fonctions affines),
quadratique (objectif quadratique et contraintes affines),
semi-définie positive (la variable à optimiser est une matrice dont on requiert la semi-définie
positivité),
conique (généralisation des disciplines précédentes, dans laquelle on minimise une fonction
linéaire sur l'intersection d'un cône et d'un sous-espace affine),
convexe (fonctions convexes),
non linéaire,
la commande optimale,
l'optimisation stochastique (en) et robuste (présence d'aléas),
l'optimisation multicritère (un compromis entre plusieurs objectifs contradictoires est
recherché),
l'optimisation bi-niveaux,
l'optimisation sous contraintes de complémentarité,
Techniques d’optimisation

Analytiques Intelligence artificielle


Programmation numérique métaheuristiques

• Nature du problème: (Exemple)

Non linéaire Non convexe


Les éléments d’optimisation

min f (U , X )   Fonction objectif


u,x

 G (U , X ) = 0 Contraintes d’égalité

 H (U , X ) ≤ 0 Contraintes d’inégalité
s.t    
 U min ≤ U ≤ U max Variables de contrôles

X ≤ X ≤ X
 min max
Variables d’états
Méthodes

 Newton  Génétique Algorithme (GA)


 Gradient  Recuit simulé (RS)
 Programmation quadratique  Particle swarm optimization (PSO)
successive (SQP)
 Differential Evolution (DE)
 Point Intérieur (IP)
 Differential search (DS) (2011)

Méthodes Hybrides
DE - PSO BFA – PSO (2012)
SQP - PSO PSO – GSA (2013)
PSO - SA IP - PSO

15
Il existe un grand nombre de méthodes d’optimisation différentes, allant de la
simple recherche locale à des algorithmes complexes de recherche globale.

La majorité de ces algorithmes utilisent des processus stochastiques. En effet,


pour les algorithmes stochastiques, nous avons en général deux types :

• Heuristique;
• Méta-heuristique.

Heuristique signifie «trouver» ou «découvrir par épreuve et erreur». De plus,


le développement sur les algorithmes heuristiques est le soi-disant ‘méta-
heuristique’. Le terme ‘meta’ signifie 'au-delà' ou 'niveau supérieur', et ils
fonctionnent généralement mieux que les algorithmes heuristiques simples.

En générale, les algorithmes méta-heuristiques peuvent être classés de


plusieurs façons, l'une d'elles est de les classés comme: Population, et
Trajectoire. Tout les algorithmes méta-heuristiques inclus les phases suivantes
:
•Exploration.
•Exploitation.
Le choix de la meilleure méthode.

Quel est la méthode


la plus efficace ?

Bon minimum Rapide

Plus efficace Méthode déterministe

Plus Utilisé
Utilisations
•Les problèmes de la dynamique des solide indéformable;

•Résolution d'une équation différentielle ordinaire sur une variété contrainte ;

•Le problème de complémentarité linéaire, qui peut aussi être vu comme un problème
d'optimisation quadratique;

•Plusieurs problèmes de conception peuvent aussi être exprimés sous forme de


problèmes d’optimisation;

• Optimisation multidisciplinaire;

•Problèmes d'ingénierie et technologie spatiale;

•Optimisation de taille ou optimisation paramétrique;

•Optimisation de forme;

•Ooptimisation topologique.
Algorithmes
d‘Optimisation
Inspirés de la
Nature
Algorithmes évolutionnaires
•Les algorithmes évolutionnaires (AEs), élaborés au cours des années
1950 , sont des techniques de recherche inspirées par l’évolution
biologique des espèces.

•Ils s’inspirent de l’évolution des êtres vivants pour résoudre des


problèmes d’optimisation.

•L’idée est que, les individus qui ont hérité des caractères bien adaptés
à leur milieu ont tendance à vivre assez longtemps pour se reproduire,
alors que les plus faibles ont tendance à disparaître.

•Au cours des années 1970, avec l’avènement des calculateurs de forte
puissance, de nombreuses approches de modélisation de l’évolution
ont été réalisées.
Algorithme évolutionnaire est composé de:

Création de la population initiale.


Evaluation de la fonction fitness (objectif).

Evolution (création d’une nouvelle population).


Algorithme évolutionnaire générique
•Les algorithmes génétiques (AG) sont des algorithmes de recherche inspirés
des mécanismes de l’évolution naturelle des êtres vivants et de la génétique.

• Les premiers travaux ont été menés par John Holland en 1975 dans l’ouvrage
"Adaptation of Natural and Artificial System" qui formalise les algorithmes
génétiques dans le cadre de l’optimisation mathématique.

•Ces méthodes s’attachent à simuler le processus de sélection naturelle dans


un environnement défavorable.

•Selon ces concepts, lorsqu’une population est soumise aux contraintes d’un
milieu naturel, seuls les individus les mieux adaptés survivent et génèrent une
descendance.

•Cette particularité de l’évolution naturelle : la capacité d’une population à


explorer son environnement en parallèle et à recombiner les meilleurs
individus entre eux, est empruntée par les algorithmes génétiques.
Particle Swarm Optimization (PSO)
Optimisation par Essaim Particulaire
(Kennedy and Eberhart, 1995)
Procédure de recherche

Meilleure performance
individuelle
Meilleure performance des
Pbest-i voisins
Gbest

Position actuelle

• Capacité de mémoriser la meilleure position

• Particule est informée de la meilleure position


Algorithme PSO est composé de

Evaluation de la fonction objectif


Mise à jour de la fonction objectif individuelle et globale
Mise à jour de la vitesse et position

Manipulation des particules

 Equilibrage de la recherche
W max − W min
W(Iter +1) = Wmax - . Iter
Iter max
Exemple de la fonction objectif.
Ant Colony Optimization (ACO)
Méthode de colonies de fourmis
ACO est s’inspiré du comportement des insectes sociaux, et en particulier les
fourmis. Le premier algorithme a été proposé en 1996 par Colorni.
Le but initial de cet algorithme était de résoudre le problème du voyageur de
commerce.
Le principe générale de cette méthode est le suivant : Malgré la vision très limitée de
chaque fourmi, une colonie de fourmis parvient à minimiser la longueur du chemin
conduisant à une source de nourriture, grâce aux traces chimiques appelées
PHEROMONES laissées par chacune des fourmis sur le sol. De cette manière, le plus
court chemin a une probabilité plus grande d’être pris par les fourmis que les autres
chemins, et il sera donc pris par toutes les fourmis.
Artificial Bee Colony (ABC)
Méthode de Colonie d'Abeilles

Cet algorithme est proposé par Dervis Karaboga en 2005 , et


l'efficacité d’ABC est montrée en 2007. Cet algorithme simule le
comportement intelligent de fourrage des essaims d'abeilles.
Grey Wolf Optimiser (GWO)
Méthode du Loup Gris (GWO)

C’est une nouvelle méthode d'optimisation heuristique


développée en 2014 par Seyedali Mirjalili. Cet algorithme imite le
mécanisme de chasse des loups gris dans la nature.

Les étapes principales de la chasse de ce type des loups sont :

1. Suivre, chasser et approcher la proie.


2. Poursuivre, encercler et harceler la proie jusqu'à ce qu'elle cesse
de bouger.
3. Attaque vers la proie.
Dragonfly Algorithm (DA)
Algorithme de Libellule (DA)
Dragonfly algorithm (DA) a été développée en 2015.
Ant Lion Optimizer Algorithm (ALO)
Méthode de Fourmi-Lion (ALO)
Cet algorithme est une nouvelle approche d'optimisation
méta-heuristique développée récemment en 2015.
Gravitational Search Algorithm (GSA)
Algorithme de la Recherche Gravitationnelle

GSA est une nouvelle


M4
F14
M1

approche d'optimisation F12

méta-heuristique
a1

proposé par E. Rashedi M2


F13

en 2009 .
M3
F1

•Dans l'algorithme GSA, chaque masse a quatre particularités :


1. Sa position ;
2. Sa masse Inertielle (MIii) ;
3. Sa masse gravitationnelle active (Mgai) ;
4. Sa masse gravitationnelle passive (Mgpi).
Multi-Verse Optimizer (MVO)
Multi-Verse ou bien Multi-Univers, (MVO) a été récemment
proposée en 2015 .
Les principales inspirations de cet algorithme sont basées sur trois
concepts en cosmologie :

1. Trou Blanc (White hole) ;


2. Trou Noir (Black hole) ;
3. Trou de ver (Worm hole).
Bats Algorithm (BA) Xin-She Yang, 2010
Algorithme de chauves-souris

THE PHYSICS OF
SOUND

fi = f min + ( f max − f min ) β     =t


xi xi t −1
+v i
t

t −1
v=
t
i v i + ( x t
i − x∗ ) fi = xold + σ Amean
xnew old
Whale Optimization Algorithm (WOA)
L'algorithme d'optimisation des baleines
Butterfly Optimization (MBO)
Optimisation papillon (MBO)

Monarch Butterfly Optimization (MBO) was proposed for first time to enhance power
system restoration (PSR) loops. The main inspiration of this algorithm was based on the
migration behavior of Monarch Butterflies from the northern USA and southern Canada
to Mexico.
G.Wang en 2015.
Cuckoo search optimization (CSO)
Xin-She Yang, 2009

Differentiel Search Algorithm (DSA)


Fonction objectif
•Il convient de noter que le choix de la fonction objectif est très
important pour résoudre un problème d'optimisation. Dans la
littérature, quatre types de critères de performance généralement
considérés dans la conception de contrôle qui sont :
• Intégrale de l'erreur quadratique (ISE).
∞ 2 ∞ 2
ISE =∫ ( x(t ) − y (t ) ) .dt =∫ ( e(t ) ) .dt
0 0

• Intégrale de l'erreur absolue (IAE).


∞ ∞
( )
IAE =∫ x(t ) − y (t ) .dt =∫ e(t ) .dt ( )
0 0

• Intégrale de l'erreur quadratique multipliée par le temps (ITSE).


∞ 2 ∞ 2
ITSE =∫ t. ( x (t ) − y (t ) ) .dt =∫ t . ( e(t ) ) .dt
0 0

• Intégrale de l'erreur absolue multipliée par le temps (ITAE).


∞ ∞
ITAE = ∫ t.( x(t ) − y (t ) ).dt = ∫ t.( e(t ) ).dt
0 0
•Principe d’optimisation d’un régulateur PID.
Estimation/Identification
Fuzzy Logic Control (FLC): Introduction

Logic, discrete
0 OR 1
and crisp

Some thing
Fuzzy logic
between 0 and 1

Fuzzy Logic Will Play a Major


Role in Control Engineering !
Fuzzy Logic Control: Application

• Automatic control Today, Fuzzy Logic

Data classification
Has Already Become
• the Standard

Decision analysis
Technique for Multi-
• Variable Control !

• Expert systems
• Computer vision
• Cameras
• Washing machines
• Microwave ovens
• Industrial process control
• Medical instrumentation
Fuzzy Logic Control: Elements
Fuzzy controller is composed of the following
elements:
1. A rule-base (a set of If-Then rules).
2. An inference mechanism. Fuzzy Logic Defines
the Control Strategy
3. A fuzzification interface. on a Linguistic Level!

4. A defuzzification interface.

Block diagram of a Fuzzy control system


Fuzzy Logic Process

Membership Function for the Control Input /Output Variables.

Rule Table
dACE NB NS ZE PS PB
ACE
NB NB NB NS NS ZE
NS NB NB NS ZE ZE
ZE NS NS ZE PS PS
PS ZE PS PS PB PB
PB ZE ZE PS PB PB
Réseaux de Neurones

Vous aimerez peut-être aussi