Académique Documents
Professionnel Documents
Culture Documents
Mémoire
Présenté en vue de l’obtention du diplôme de
Master
En
Génie pétrochimique
Thème
Je remercie de tout cœur monsieur Saadi Amine AOUANOUK, d’avoir accepté de suivre ce travail
de près, transformant ainsi les difficultés rencontrées en une expérience enrichissante. Je lui suis
également reconnaissante de m’avoir assuré un encadrement rigoureux, de précieux conseils, et des
solutions concrètes à mes diverses interrogations. Qu’il trouve ici l’expression de ma profonde
gratitude.
Mes remerciements vont ensuite à monsieur Menad NAIT AMAR du centre de recherche et
développement de Boumerdes, pour sa patience, sa disponibilité, et surtout la chance qu’il m’a donné
d’élargir mon horizon scientifique et surtout de m’avoir aidé sur les réseaux de neurones artificiels,
et d’approfondir mon apprentissage dans ce domaine malgré les difficultés et les conditions spéciales
rencontrées au cours de cette année.
Vous résumez si bien le mot parents qu’il serait superflu d’y ajouter quelque chose.
A Tayeb et Lila
Je ne saurai traduire sur du papier l’affection que j’ai pour vous deux.
J’implore dieu qu’il vous apporte bonheur, santé et réussite.
A mes amies et collègues qui m’ont soutenue durant tout mon parcours. Je
m’abstiendrai de les nommer tellement la liste serait longue
Je vous suis extrêmement reconnaissante.
Résumé
L’objectif principal de cette étude est d’examiner les aptitudes de deux modèles intelligents, dont le
perceptron multicouche (MLP) optimisé avec Levenberg-Marquardt (MLP-LM) et la régularisation
bayésienne (MLP-BR), à prédire la quantité capturée de CO2 à travers les deux procédés d’Adsorption
et d’Absorption en utilisant les réseaux de neurones artificiels (RNA), à l’aide de la boite à outils
Neural Networks du logiciel Matlab®.
Une base de données récoltée à partir de la littérature a été utilisée. Les distributions des erreurs de
prédiction sont tracées pour les deux procédés afin de fournir des connaissances plus complètes sur
les performances des modèles étudiés.
La validation RNA a été faite en étudiant d’autres paramètres d’entrées de la même base de données
qui n’a pas été introduite au début dans le RNA, et comparer ensuite les résultats expérimentaux avec
ceux calculés par la méthode neuronale.
Abstract
The main objective of this study is to examine the capabilities of two intelligent models, including
the multilayer perceptron (MLP) optimized with Levenberg-Marquardt (MLP-LM) and Bayesian
regularization (MLP-BR), to predict the amount of CO2 uptake through the two Adsorption and
Absorption processes using a new and revolutionary approach in the field of Artificial Neural
Networks (ANN) processes, using the Neural Networks toolbox of Matlab® software.
A database collected from the literature was used. The distributions of prediction errors are plotted
for both processes to provide more complete knowledge of the performance of the models studied.
The RNA validation was done by studying other input parameters from the same database that was
not initially introduced into the ANN, and then comparing the experimental results with those
calculated by the neural method.
ملخص
) المحسنMLP ( بما في ذلك المدرك متعدد الطبقات،الهدف الرئيسي من هذه الدراسة هو فحص قدرات نموذجين ذكيين
) للتنبؤ بالكمية الملتقطة من ثاني أكسيد الكربون من خالل عمليتا االمتزازMLP-BR( ) و تنظيمMLP-LM( باستخدام
) باستخدام مجموعة أدوات الشبكات العصبية لبرنامج ماطالبANN( واالمتصاص باستخدام الشبكات العصبية االصطناعية
تم رسم توزيعات أخطاء التنبؤ لكلتا الطريقتين لتوفير رؤى أكثر شموالً حول أداء.تم استخدام قاعدة بيانات تم جمعها من األدبيات
النماذج المدروس
) من خالل دراسة معلمات االدخال االخرى لقاعدة البيانات نفسها والتي لم تقدم في البداية فيANN( تم اجراء التحقق من صحة
ثم مقارنة النتائج التجريبية بتلك المحسوبة بالطريقة العصبية
( تم اجراء التحقق من صحةANN) من خالل دراسة معلمات االدخال االخرى لقاعدة البيانات نفسها والتي لم تقدم في البداية ثم
النتائج التجريبية بتلك المحسوبة بطريقة الخاليا العصبية االصطناعية
Table des matières
Introduction générale………………………………………………………………………………... 1
I.1. Introduction……………………………………………………………………………………… 2
I.2. Physisorption et chimisorption…………………………………………………………………. 2
I.2.1. Les grands types d’adsorbants « physiques »……………….…………………...………. 2
I.3. Méthodes de capture du dioxyde de carbone par Adsorption……………………………….. 4
I.3.1. Adsorption en lit fixe…………………….…………………………………………………. 4
I.3.2. Adsorption en lit fluidisé………………….………………………………………………... 4
I.3.3. Adsorption en lit mobile et lit mobile simulé.……………………………………………… 4
I.3.4. Adsorption avec un concentrateur à roue…………….………………………………….. 5
I.4. Techniques de désorption………………………………………………………………............. 6
I.4.1. Désorption par un changement de la pression…………………………………………... 6
I.4.2. Désorption par un changement de la température………………………………………. 6
I.4.3. Désorption avec un gaz à chaud…………………………………………………………. 6
I.5. Le role des Charpentes MOF dans l’adsorption de CO2……………………………………... 7
I.5.1. Définition des MOFs……………………………………………………………………… 7
I.6. Introduction……………………………………………………………………………………… 9
I.7. Les procédés les plus connues en absorption………………………………………………….. 9
I.7.1. Procédés d’absorption chimique aux amines …………………………………………… 9
I.7.2. Procédés d’absorption chimique par solution aqueuses inorganiques…………………. 10
I.7.3. Procédés d’absorption chimique par adsorbant solides…………………………………. 10
I.7.2. Procédés d’absorption chimique par solvants physiques………………………………... 10
I.8. L’absorption de CO2 par liquides ioniques……………………………………………………. 11
I.8.1. Définitions………………………………………………………………………………… 11
I.8.2. Applications des liquides ioniques…………………………………………………………….. 11
I.8.3. Captage de gaz dans les liquides ioniques…………………………………………………….. 11
I.9. Introduction……………………………………………………………………………………… 13
I.10. Neurone biologique et neurone artificiel…………………………………………………. 13
I.10.1. Le neurone biologique…………………………………………………………………... 13
I.10.1. Définitions Le neurone formel …………………………………………………………. 14
I.11. Analogie entre le neurone biologique et le neurone formel…………………………………. 16
I.12. Réseau de neurones…………………………………………………………………………….. 16
I.12.1. Architecture des réseaux………………………………………………………………… 16
I.12.2. Réseau monocouche…………………………………………………………...………… 16
I.12.3. Réseau multicouche……………………………………………………………………... 17
I.13. Type de réseaux de neurones …………………………………………………………………. 19
I.13.1. Réseau de neurones bouclés…………………………………………………….............. 19
I.13.2. Réseau de neurones non bouclés………………………………………………………... 19
I.14. L’apprentissage des réseaux de neurones ……………………………………………………. 20
I.14.1. Types d’apprentissage…………………………………………………………………… 20
I.14.2. Apprentissage supervisé…………………………………………………………………. 20
I.14.3. Apprentissage non supervisé……………………………………………………………. 21
I.15. Algorithme d’apprentissage…………………………………………………………………… 21
I.16. Pas d’apprentissage……………………………………………………………………………. 22
I.17. Surapprentissage………………………………………………………………………………. 22
I.18. Le critère d’arrêt pour l’apprentissage………………………………………………………. 23
I.19. Théorie de généralisation……………………………………………………………………… 23
I.20. Conclusion……………………………………………………………………………………… 23
II.1. Conception du réseau de neurones …………………………………………………………… 24
II.1.1. Conception pour les liquides ioniques……………………………………………………. 24
II.1.2. Conception pour les MOFs……………………………………………………………….. 25
II.2. Mise en œuvre des réseaux neuronaux………………………………………………….…….. 26
II.2.1. Fixation du nombre de couches cachées…………………………………………...……... 26
II.3. Conclusion………………………………………………………………………………………. 26
III.1. Modélisation pour les liquides ioniques……………………………………………………… 26
III.1.1. Modélisation par l’algorithme de Levenberg Marquardt……………………………….. 27
III.1.1.1. Performance du réseau de neurones…………………………………………………... 30
III.1.1.2. Validation du réseau de neurones……………………………………………………… 30
III.1.2. Modélisation par l’algorithme de Bayesian Regularization……………………..……… 31
III.1.2.1. Performance du réseau de neurones …………………………………………..……… 34
III.1.2.2. Validation du réseau de neurones……………………………………………………… 35
III.2. Résultats de prédictions de la fraction molaire de CO2 par liquides ioniques……………. 35
III.4. Modélisation pour les MOFs………………………………………………………….……… 36
III.4.1. Modélisation par l’algorithme de Levenberg Marquardt……………………………….. 36
IIII.4.1.1. Performance du réseau de neurones………………………………………………….. 40
III.4.1.2. Validation du réseau de neurones……………………………………………………… 41
III.4.2. Modélisation par l’algorithme de Bayesian Regularization…………………………….. 42
III.4.2.1. Performance du réseau de neurones…………………………………………………... 45
III.5. Résultats de prédiction de la concentration par MOFs…………………………………….. 46
III.6. Comparaisn entre les résultats obtenus avec l’algorithme MLP LM et MLP BR……....... 47
III.6.1. Pour les liquides ioniques………………………………………………………………… 47
III.6.2. Pour les MOFs…………………………………….……………………………………… 47
III.7. Conclusion……………………………………………………………………………..………. 48
Conclusion générale………………………………………………………………………….……… 49
Références bibliographiques
Annexes
Liste des symboles
La demande mondiale croissante en énergie liée à une forte dépendance aux énergies fossiles a
considérablement intensifié la concentration de gaz à effet de serre dans l'atmosphère, atteignant des
niveaux alarmants [1]. Sachant que les émissions de dioxyde de carbone contribuent pour environ
50% au potentiel de réchauffement, il est évidemment pertinent d'étudier tous les moyens de réduire
ces émissions [2].
Afin d'atténuer les effets négatifs du réchauffement climatique et pour réduire les émissions, plusieurs
études présentent de nombreuses technologies qui ont été développés au cours des dernières décennies
pour séparer et récupérer le dioxyde de carbone (CO2) ont vu le jour.
Outre les programmes écologiques visant la substitution des énergies fossiles par des énergies vertes,
le CO2 trouve également de nombreuses utilisations dans différents domaines d’industries tels
que : Industrie chimique, Industrie pharmaceutique, Alimentaire, Santé, Electronique et
Environnement. C’est pourquoi le CO2 à été précisément choisie pour faire l’objet de cette étude.
La séparation des gaz à grande échelle est une tâche importante pour de nombreux procédés
industriels. Parmi ces techniques, l'adsorption et l’absorption se distinguent comme des opérations
prometteuses en raison de leur coût relativement faible et de leurs consommations efficaces d'énergie
[3].
Les réseaux de neurones artificiels, dont le fonctionnement s'inspire de celui des réseaux de neurones
biologiques, connaissent depuis quelques années un succès croissant dans divers domaines des
sciences de l’ingénieur, notamment celui de Génie des Procédés.
Plusieurs chercheurs se sont intéressés sur ces deux procédés afin de séparer et de récupérer le dioxyde
de carbone (CO2) et ont fini par modéliser ces deux phénomènes. Nous citerons par exemple, certains
modèles utilisés tel que le modèle de Levenberg Marquardt, Bayesian Regularization, Radial Basis
Function, etc.
Pratiquement tous les modèles qu’on retrouve dans la littérature ne sont valables que dans un domaine
bien précis, ce qui est le cœur de la problématique de cette étude.
L’objectif du présent mémoire est de contribuer à l’application de la méthode neuronale en vue de la
prédiction de la capture de CO2 en fonction de plusieurs paramètres qui influent sur ce dernier.
Ce mémoire est organisé en trois chapitres :
Le chapitre I, sera divisé en trois parties qui sont : une présentation détailé des phénomènes
d’adsorption, ensuite d’absorption et en troisième, la notion de neurone artificiel.
Le chapitre II, est consacré aux matériels et méthodes utilisés dans l’étude de l’adsorption et
d’absorption afin de construire une base de données qui servira à l’apprentissage du réseau de
neurones.
Le chapitre III est dédié aux résultats obtenus lors de la conception du réseau de neurones pour la
prédiction en utilisant la Toolbox Neural Networks TM sous le logiciel MATLAB®.
Enfin, une conclusion générale sera présentée ainsi que des perspectives qui pourront être envisagées.
Chapitre I :
Synthèse
bibliographique
Adsorption
Chapitre I. Synthèse Bibliographique
I.1. Introduction
L'adsorption est un phénomène de surface universel. En effet, toute surface est constituée d'atomes
n'ayant pas toutes leurs liaisons chimiques satisfaites. Cette surface a donc tendance à combler ce
manque en captant les atomes et molécules passant à proximité.
Ainsi, les adsorbants sont d'abord caractérisés par des propriétés de surface telles que la surface et la
polarité [4].
Il existe deux types d’adsorption, physique et chimique qui seront définis plus en détails dans ce qui
va succéder. Nous n’envisagerons dans ce chapitre que l’adsorption physique qui, seule, présente un
intérêt en tant que procédé de séparation.
I.2. Physisorption et chimisorption
L'adsorption physique est causée principalement par la force de van der Waals et force électrostatique
entre les molécules d'adsorbat et les atomes qui composent la surface adsorbante [5].
L'adsorption chimique, ou chimisorption, résulte d’une interaction chimique qui se traduit par un
transfert d’électrons entre le solide et l’adsorbat. Il y alors formation d’un composé chimique à la
surface de l’adsorbant. Ce type d'adsorption se développe à haute température et met en jeu une
enthalpie de transformation élevée [6].
Cette interaction est beaucoup plus forte que l'adsorption physique, ou physisorption, qui a lieu sur
toutes les surfaces si les conditions de température et de pression sont favorables. La chimisorption
ne se produit que sur des sites actifs propres à des emplacements de surface spécifiques sur un
matériau et, contrairement à la physisorption, cesse lorsque l'adsorbat ne peut plus entrer en contact
direct avec la surface, faisant de la chimisorption un processus monocouche (Figure I.1).
2
Chapitre I. Synthèse Bibliographique
• Les zéolithes
Une zéolithe, ou zéolite, est un cristal formé d'un squelette microporeux d'aluminosilicate, dont les
espaces vides connectés sont initialement occupés par des cations et des molécules d'eau [7].
3
Chapitre I. Synthèse Bibliographique
Pour le lit mobile, l’adsorbant se déplace, dans la colonne d’adsorption, à contre-courant de l’effluent
à traiter. Ainsi, l’adsorption et la régénération peuvent avoir lieu dans la même colonne. Un procédé
d’adsorption en lit mobile existe pour l’élimination des dioxines dans les fumées d’un incinérateur
d’ordures ménagères. L’adsorbant, un coke activé, n’est pas régénéré. Il est soit détruit, soit stocké
(Figures I.2 et I.3) [12].
4
Chapitre I. Synthèse Bibliographique
Figures I.3 : Principe de fonctionnement d'un procédé d'adsorption par lit mobile simulé
I.3.4. Adsorption avec un concentrateur à roue
Il s’agit d’un véritable lit mobile qui réalise l’adsorption et la désorption en continu. Le procédé
comprend un lit fixe tournant sur son axe à très faible vitesse (de l’ordre de 2 tours/heure) et dont le
rapport diamètre (de l’ordre de quelques mètres) sur épaisseur est élevé [12].
L’adsorbant se présente, parfois, sous la forme d’un monolithe (type nid d’abeille) sur lequel est
déposé l’adsorbant (charbon actif ou zéolite). Une grande partie du lit tournant est en adsorption,
tandis qu’un petit secteur, protégé du flux de gaz à traiter par un capotage, est en régénération au
moyen d’un gaz chaud. Ainsi, au cours d’une rotation, le lit est successivement en étape d’adsorption
et en étape de régénération
Un schéma d’un concentrateur à roue est donné par la figure I.4.
6
Chapitre I. Synthèse Bibliographique
Figure I.6 : Entités inorganiques (clusters) avec en bleu les cations, en rouge les atomes d'oxygène
et en noir les atomes de carbone
Des structures uniformes, une porosité ajustable et une grande variété de fonctionnalités chimiques
offrent des solutions à diverses industries et à de nombreuses applications comme le montre les
figures suivantes (Figures I.7, I.8 et I.9) :
7
Chapitre I. Synthèse Bibliographique
8
Absorption
Chapitre I. Synthèse Bibliographique
I.6. Introduction
L’absorption consiste à mettre en contact un mélange de gaz et un liquide afin de solubiliser
préférentiellement un composé. Dans le liquide, ou solvant, le composé dissous s’appelle le soluté.
Cette opération nécessite un transfert de matière de la phase gazeuse à la phase liquide. La désorption
de ce composé s’effectue quand le transfert se fait de la phase liquide à la phase gazeuse. La solubilité
du gaz dans le liquide, à température et pression donnée, est la concentration du gaz dissous dans le
liquide à l’équilibre.
I.7. Les procédés les plus connues en absorption
Il existe plusieurs procédés pour le phénomène d’absorption dans l’industrie, cependant seulement
quelques-uns des procédés les plus utilisés seront cités dans ce chapitre.
I.7.1. Procédés d’absorption chimique aux amines
L’utilisation d’amines primaires est favorable à des flux de gaz à traiter se caractérisant par une faible
pression partielle en CO2. La monoéthanolamine (MEA) est l’amine de référence la plus étudiée pour
l’absorption du CO2. Celle-ci présente néanmoins un certain nombre de désavantages, le premier
résidant dans la forte pénalité énergétique liée à la régénération du solvant. De plus, la MEA est
sensible à la dégradation thermique et chimique, et se révèle corrosive, toxique et volatile [15].
Un certain nombre d’autres amines sont donc envisagées. La diéthanolamine (DEA) et la
triéthanolamine (TEA) sont testées mais ne sont pas encore commercialisées, leur capacité
d’absorption du CO2 est plus faible que celle de la MEA.
D’autres amines telles que les amines tertiaires ont été étudiées (MDEA) ou encore des amines
stériquement encombrées (liées à des groupes fonctionnels) qui se dégradent moins vite et forment
des sels moins stables avec le CO2, ce qui permet de réduire les coûts de régénération. Certains
solvants sont également élaborés à partir de mélanges d’amines (exemples : MEA - pipérazine, MEA
- MDEA, MEA - AMP). La diglycolamine (DGA) présente une forte capacitée d’absorption et
présente ainsi un potentiel intéressant au niveau des consommations d’énergie (Figure I.10) [15].
Figure I.10 : Schéma de principe du procédé d’absorption de CO2 par la MEA dans des contacteurs
classiques
9
Chapitre I. Synthèse Bibliographique
de développement futurs pour trouver des liquides ioniques appropriés pour le captage du dioxyde de
carbone ont également été discutés plus récemment. Les propriétés des liquides ioniques sont
comparées aux autres solvants commercialisés et si les capacités d’absorption de dioxyde de carbone
et de sélectivité sont suffisamment intéressantes comparativement à ces autres solvants, le coût ainsi
que le manque de données physicochimiques et thermodynamiques ou encore de données sur l’impact
environnemental reste un frein en vue d’une application à l‘échelle industrielle [23].
12
Réseau de neurones
Chapitre I. Synthèse Bibliographique
I.9. Introduction
Les réseaux de neurones artificiels ont été inspirés par le système nerveux biologique dont le but
était de réaliser des constructions capables de résoudre divers problèmes complexes.
La méthode neuronale est une technique qui ne nécessite pas la connaissance exacte des lois
physiques puisqu’elle va les extraire des données. Par contre, elle nécessite des données en nombre
important et offre l’avantage de traiter des phénomènes paramétrables par apprentissage sur des
données expérimentales représentatives.
L'objectif du présent travail est de contribuer à l’application de la méthode neuronale pour le calcul
et la modélisation des phénomènes d’Adsorption et Absorption du CO2.
Dans cette partie, nous allons voir comment cette structure est mise en œuvre et comment on peut
lui apprendre un problème spécifique.
Nous aborderons aussi les principales architectures des réseaux que l’on retrouve dans la
littérature. Vu le grand nombre de modèles de RNA (Réseau de neurones artificiels) nous ne
pourrons pas toutes les aborder, mais nous allons plutôt en comprendre les mécanismes
fondamentaux.
I.10. Neurone biologique et neurone artificiel
I.10.1. Le Neurone biologique :
Le neurone biologique est une cellule vivante spécialisée dans le traitement des signaux
électriques, il est représenté sur la figure I.12 [24].
Les neurones sont reliés entre eux par des liaisons appelées axones. Ces axones vont eux-mêmes
jouer un rôle important dans le comportement logique de l’ensemble. Ils conduisent les signaux
électriques de la sortie d’un neurone vers l’entrée (synapse) d’un autre neurone.
Les neurones font une sommation des signaux reçus en entrée (dendrites) et en fonction du résultat
obtenu vont fournir un courant en sortie [24].
à dire une sorte de sommations des signaux. En général, quand la somme dépasse un certain seuil,
le neurone émet à son tour un signal électrique [25], ceci est schématisé sur la figure I.13.
• Entrées "Xi"
Typiquement, les valeurs d'entrée sont des stimuli externes en provenance de l'environnement ou
des sorties d'autres neurones artificiels.
Les poids sont des valeurs réelles qui déterminent la contribution (force de connexion) de chaque
entrée. Un algorithme d'apprentissage permet de déterminer le meilleur ensemble de poids pour le
problème considéré.
14
Chapitre I. Synthèse Bibliographique
• Seuil "θ"
Le seuil est un nombre réel qui est soustrait de la somme pondérée des valeurs d'entrée. Pour des
raisons de simplicité, le seuil peut être vu comme une entrée supplémentaire associée à un poids.
Une fois que la sortie est calculée, elle peut être passée à un autre neurone (ou groupe de neurones)
ou directement à l'environnement extérieur comme représenté par le schéma de la Figure I.15.
16
Chapitre I. Synthèse Bibliographique
• Levenberg-Marquardt (LM) :
L'algorithme de Levenberg-Marquardt a été développé au début des années 1960 pour résoudre
des problèmes de moindres carrés non linéaires. Les problèmes de moindres carrés surviennent
dans le contexte de l'ajustement d'un modèle mathématique paramétré à un ensemble de points de
données en minimisant un objectif exprimé comme la somme des carrés des erreurs entre la
fonction du modèle et un ensemble de points de données. [29]
L'algorithme de Levenberg-Marquardt combine deux algorithmes de minimisation numérique : la
méthode de descente de gradient et la méthode de Gauss-Newton. Dans la méthode de descente de
gradient, la somme des erreurs au carré est réduite en mettant à jour les paramètres dans la direction
de descente la plus raide. Dans la méthode de Gauss-Newton, la somme des erreurs quadratiques
est réduite en supposant que la fonction des moindres carrés est localement quadratique dans les
paramètres, et en trouvant le minimum de cette quadratique.
L'algorithme de Levenberg-Marquardt fait varier de manière adaptative le changement des
paramètres entre la variation de descente de gradient et la variation de Gauss-Newton. [29]
La méthode de Levenberg-Marquardt agit plus comme une méthode de descente de gradient
lorsque les paramètres sont éloignés de leur valeur optimale, et agit davantage comme la méthode
de Gauss-Newton lorsque les paramètres sont proches de leur valeur optimale.
18
Chapitre I. Synthèse Bibliographique
fonction d’elle-même; cela n’est évidemment concevable que si la notion de temps est
explicitement prise en considération, figure I.19 [25].
𝐸 = Σ𝑖 (𝑑𝑖 − 𝑠𝑖 )2 (I.3)
Qui est l'erreur ou distance quadratique entre la sortie calculée, si, et la sortie désirée, di. La
rétropropagation du gradient permet donc de minimiser la fonction de coût E. Toutefois cette
méthode ne garantit pas l'obtention du minimum global de la fonction (blocage dans un minimum
local). Dans ce cas la minimisation de l'erreur n'est pas optimale.
En résumé, l'algorithme de rétropropagation du gradient est défini par les étapes suivantes :
1. Initialisation des poids à des petites valeurs aléatoires ;
2. Présentation d'une entrée Xk et de la sortie désirée dk ;
21
Chapitre I. Synthèse Bibliographique
𝜕𝐸
Δ𝑤𝑖𝑗 = −𝜇
𝜕𝑤𝑖𝑗
μ : est un petit nombre positif qui représente le pas de déplacement en direction du minimum le
plus proche (pas d'apprentissage).
7. Répéter les étapes de 2 à 6 pour l'entrée suivante, jusqu'à ce que l'erreur en sortie soit inférieure
à la limite fixée ou que le nombre maximum d'itérations soit atteint.
I.16. Pas d’apprentissage
L'apprentissage avec la rétropropagation du gradient dépend fortement de la valeur donnée au pas
d'apprentissage, aussi appelé "gain d'adaptation", μ dans l'expression (I). Il présente un dilemme
s'il est trop grand, il peut entraîner des oscillations dans le cas contraire, le temps d'apprentissage
peut être infini. Habituellement, on fait varier le pas au cours du temps en prenant au début de
l'apprentissage des valeurs proches de "1", et en faisant tendre ce coefficient vers "0" [26].
I.17. Surapprentissage
Il arrive qu’à faire apprendre un réseau de neurones toujours sur le même échantillon, celui-ci
devient inapte à reconnaître autre chose que les éléments présents dans l’échantillon.
Le réseau ne cherche plus l’allure générale de la relation entre les entrées et les sorties du système,
mais cherche à reproduire les allures de l’échantillon. On parle alors de surapprentissage : le réseau
est devenu trop spécialisé et ne généralise plus correctement.
Ce phénomène apparaît aussi lorsqu’on utilise trop d’unités cachées (de connexions), la phase
d’apprentissage devient alors trop longue (trop de paramètres réglables dans le système) et les
performances du réseau en généralisation deviennent médiocres [31].
I.18. Le Critère d'arrêt pour l’apprentissage
Il est important de définir un critère d'arrêt pour l'algorithme d'apprentissage. En effet, un réseau
de neurones qui a appris par cœur l'ensemble d'apprentissage et qui est incapable de généraliser,
ne sert à rien.
Les données sont séparées en trois ensembles : un ensemble d'apprentissage, un ensemble de
validation et un ensemble de test. L'ensemble de test est utilisé pour contrôler la généralisation du
réseau. Pendant l'apprentissage, le coût sur les points d'apprentissage diminue, celui sur les points
de validation diminue jusqu'à un certain point, puis augmente. A partir de ce point, le réseau
apprend par cœur les données de l'ensemble d'apprentissage et l'algorithme doit être stoppé (Figure
I.23). En utilisant cette méthode, on trouve l'optimum de la généralisation sur la base de validation
pour l'architecture choisie et pour la fonction de coût choisie [33].
22
Chapitre I. Synthèse Bibliographique
23
Chapitre II :
Partie expérimentale
Chapitre II. Partie Expérimentale
24
Chapitre II. Partie Expérimentale
température critique (Tc), le facteur acentrique (w), et la masse moléculaire (Mw) ont été choisis
comme six paramètres d'entrée.
Il convient de prendre en compte le fait que chaque liquide ionique a une valeur spécifique de T,
P, Tc, Pc, W et Mw.
Ces propriétés ont été estimées importantes pour cette étude à l'aide des approches de contribution
de groupe développées par Valderrama [39].
Pour ce faire, comprendre les paramètres influents le processus est indispensable pour contrôler la
réponse prédite dans cette étude étant la fraction molaire du CO2.
Les points de données préparés doivent être divisés en deux ensembles initialement. La première
catégorie, qui est employée pour le processus d’apprentissage, contient 736 points de données. Les
8 points de données restants ont été utilisés pour tester l'efficacité du modèle proposé.
Cette base de données doit être normalisée afin de faciliter le calcul avec la fonction de transfert.
Selon plusieurs études il est préférable de normaliser les entrées et sorties entre -0.9 et 0.9. La
fonction qui permet de faire ceci est la suivante :
y = (ymax – ymin) * (x - xmin)/(xmax - xmin) + ymin ………………………………………………..(II.1)
X : est l’élément du vécteur à normaliser (entrée ou sortie).
Xmax : est la valeur de l’élément le plus grand du vecteur à normaliser.
Xmin : est la valeur de l’élément le plus petit du vecteur à normaliser.
Y : est la valeur normalisée de x.
Ymax : est la valeur maximale de l’intervalle de normalisation c’est-à-dire 0.9.
Ymin : est la valeur maximale de l’intervalle de normalisation c’est-à-dire -0.9.
La commande qui réalise cette opération, MATLAB, est désignée par « mapminmax » [40]
II.1.2. Conception pour les MOFs
Tous comme on l’avait vu précédemment pour les ILs, deux approches dont MLP-LM et MLP-
BR ont aussi été utilisés pour estimer l’adsorption du CO2 par des MOFs classés dans de larges
gammes de conditions basées sur des données recueillies dans la littérature (annexe C).
II.1.2.1. Récolte de la base de données pour l’apprentissage de l’ANN :
La base de données enveloppe des conditions étendues en termes de température, de pression,
surface d’échange, ainsi que le volume poreux. Le nombre d'échantillons préparés utilisés dans le
travail actuel était de 504 pour 10 MOFs différents.
Les intervalles ainsi que les références de chaque paramètre sont illustrés dans le tableau II.2.
25
Chapitre II. Partie Expérimentale
Tableau II.2 : Intervalles de données des paramètres du réseau utilisé pour les MOFs.
L’objectif fixé est la détermination de la structure optimale du réseau, autrement dit du nombre de
neurones cachés optimale, qui permet la meilleure approximation de la fraction molaire (x) pour
les MOFs, et la meilleure approximation de la concentration en CO2 pour les liquides ioniques.
III.1. Modélisation pour les Liquides ioniques
Le choix du nombre de neurones à adopter pour les modèles (LM et BR) se fera suivant l’erreur
quadratique moyenne obtenue sur le système (EQMS). Ainsi, par tâtonnement, il a été possible de
récolter les résultats illustrés dans les tableaux III.1 et III.2, le reste des résultats se trouvent dans
l’annexe B.
III.1.1. Modélisation par l’algorithme de Levenberg Marquardt
Tableau III.1 : Erreur quadratique moyenne globale suivant le modèle MLP LM.
Nombre de neurones 2 3 4 … 16 17 18
Figure III.1 : Courbe de performance pour une (01) couches cachées suivant le modèle MLP-
LM.
D’après la figure III.1 on remarque que l’erreur quadratique moyenne est de 8.2*10-3, alors que
dans la figure 2 suivante le R2≈0.98 ce qui est supposé être un bon résultat, par contre avec la
distribution des points de données n’est pas bonne car les points ne suivent pas la première
bissectrice, ce qui est expliqué par un mauvais apprentissage pour ce modèle proposé.
27
Chapitre III. Résultats et Discussion
Figure III.2 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour (01) couches cachées suivant le modèle MLP-LM.
Après plusieurs essaies (ANNEXE B), il a été conclu que le meilleur modèle de perceptron
multicouche devra comporter trois couches pour 18 neurones en utilisant le modèle MLP - LM, la
figure III.3 représente l’architecture de ce réseau :
Figure III.3 : Schéma représentant le réseau de neurones obtenu pour les ILs avec le modèle LM.
28
Chapitre III. Résultats et Discussion
Le réseau de neurones qui a été choisi est celui avec dix-huit (18) neurones dans la couche cachée
car c’est celui qui présente l’erreur la plus faible (0.00045) avec un coefficient de détermination
R2 ≈0.998.
Les figures III.4 et III.5 illustrent la performance, et la régression pour dix-huit neurones dans la
couche cachée.
La figure III.4 représente l’évolution de l’erreur quadratique moyenne sur la base de
l’apprentissage (courbe bleue), sur la base de validation (courbe verte) et sur la base de test (courbe
rouge) en fonction du nombre d’itérations pour dix-huit (18) neurones dans la couche cachée.
Figure III.5 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-LM
29
Chapitre III. Résultats et Discussion
Figure III.6 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction
molaire expérimentale.
III.1.1.2. Validation du réseau de neurones
Comme il a été cité dans le chapitre II, Les points de données préparés doivent être divisés en deux
ensembles initialement, où une partie de cette base de données (les 08 points cités précédemment)
va servir à la validation de l’efficacité du réseau de neurones.
Dans un premier temps le réseau de neurone développée ne va pas recevoir les huit (08) points
d’entrées durant son apprentissage, une fois les résultats obtenus, une simulation se fera de tel sorte
à ce que le réseau de neurones va recevoir les données qu’il n’avait pas vu précédemment, et
l’efficacité du réseau sera testé selon un tracé de graphe (Figure III.7).
La validation se fait sous MATLAB® avec la commande « sim(net18 , testin) » avec « net18 » le
nom attribué au ANN et « testin » la matrice d’entrée qui contient les huit (08) points que le réseau
30
Chapitre III. Résultats et Discussion
n’a pas encore appris. La droite de parité se trace en fonction de la validation « sim(net18 , testin) »
et la nouvelle matrice de sortie X avec le nom attribué « testout ».
Les valeurs obtenues sont normalisées entre -0.9 et 0.9, et afin de les comparer avec les valeurs
expérimentales, une dénormalisation est effectué avec l’équation (III.1)
D’après la figure III.7 presque tous les points sont répartis sur la 1ère bissectrice avec un R2≈ 0.99
ce qui veut dire que le réseau de neurone conçue est arrivé à simuler la majorité des points d’entrées
de la base de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de
neurone conçu pour ce modèle LM est performant.
III.1.2. Modélisation suivant l’algorithme de Bayesian Regularization
Le tableau III.2 montre l’évolution de l’erreur quadratique moyenne en fonction du nombre de
neurones dans deux couches cachées pour le modèle MLP BR, le nombre de neurones s’incrémente
progressivement de telle sorte que plus le nombre de neurones augmente plus l’erreur diminue. On
note que l’erreur quadratique moyenne la plus faible enregistré pour ce réseau est celle à une
EQMS=0.00057.
Tableau III.2 : Erreur quadratique moyenne globale suivant le modèle MLP BR.
31
Chapitre III. Résultats et Discussion
Figure III.8 : Courbe de performance pour deux (02) couches cachées suivant le modèle MLP-
BR.
Figure III.9 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour deux (02) couches cachées suivant le modèle MLP-BR.
D’après la figure III.8 on remarque que l’erreur quadratique moyenne est de 7.1*10-3, alors que
dans la figure 4 le R2≈0.98 ce qui est supposé être un bon résultat, par contre avec la distribution
des points de données n’est pas bonne car les points ne suivent pas la première bissectrice, ce qui
est expliqué par un mauvais apprentissage pour ce modèle proposé.
Après une série de test effectué, il a été conclu que le meilleur modèle de perceptron multicouche
devra comporter quatre couches dont dix (10) neurones seront réparties dans la première couche
32
Chapitre III. Résultats et Discussion
cachée et douze (12) dans la seconde couche cachée en utilisant le modèle MLP - BR, la figure
III.10 représente l’architecture de ce réseau :
Figure III.10 : Schéma représentant le réseau de neurones obtenu pour les ILs avec le modèle
BR.
Le réseau de neurones qui a été choisi est celui avec dix (10) neurones dans la première couche
cachée et douze (12) dans la seconde couche cachée, car c’est celui qui présente l’erreur la plus
faible (0.000575) avec un coefficient de détermination R2 ≈0.998.
La figure III.11 représente l’évolution de l’erreur quadratique moyenne sur la base de
l’apprentissage et du teste en fonction du nombre d’itérations pour deux couches cachées. La
performance est atteinte au bout de 971 itérations.
Figure III.11 : Courbe de performance suivant le modèle MLP BR pour les ILs.
33
Chapitre III. Résultats et Discussion
Figure III.12 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR pour les ILs.
III.1.2.1. Performance du réseau de neurones
Après dénormalisation du vecteur sorti avec l’équation (III.1), une courbe de parité (figure III.13)
a été tracé afin de comparer les valeurs expérimentales avec celles obtenues.
On remarque que presque tous les points se dispersent au tour de l’équation y = 1.002x +
2.22 ∗ 10 − 4 qui se rapproche de l’équation y=x, avec un R2=0.9958. Nous constatons que les
modèles développés par la méthode neuronale sont satisfaisants.
Figure III.13 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction
molaire expérimentale.
34
Chapitre III. Résultats et Discussion
D’après la figure III.14 tous les points sont répartis sur la 1ère bissectrice avec un R2≈ 1 ce qui veut
dire que le réseau de neurone conçue est arrivé à simuler la majorité des points d’entrées de la base
de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de neurone
conçu pour ce modèle LM est d’une bonne performance.
III.2. Résultats de prédictions de la fraction molaire de CO2 par liquides ioniques
Le tableau III.3 représente une synthèse des résultats obtenues avec le meilleur résultat pour
chaque test, ainsi que la médiane pour chacun d’entre eux. On remarque que les deux meilleurs
résultats de la fraction molaire absorbé ont une grande corrélation pour une masse molaire (Mw),
une température critique (Tc), une pression critique (Pc), ainsi qu’un facteur acentrique (W)
constants.
D’où on déduit de ces résultats que les deux paramètres qui influent sur la fraction simulée sont la
température (T) et la pression (P).
35
Chapitre III. Résultats et Discussion
X2
Mw Pc P
Tc (K) W T (K) simulé
(Kg/Kmole) (MPa) (MPa)
(fraction)
Min 408,38 1196,86 2,674 0,2753 303,15 0,52 0,185
Données
Max 253,36 1023,74 3,09 0,42 373,15 97,3 0,607072
Les paramètres du
meilleur résultat
447,92 1292,78 2,3888 0,3893 353,15 36,63 0,8199
suivant l’algorithme
BR
Quant à la base de données LM, les résultats obtenus sont résumés dans le tableau III.4.
Tableau III.4 : Tableau récapitulatif des résultats suivant l’algorithme LM :
X2
Mw Pc P
Tc (K) W T (K) simulé
(Kg/Kmole) (MPa) (MPa)
(fraction)
Min 408,38 1196,86 2,674 0,2753 303,15 0,52 0,22288
Données
Max 253,36 1023,74 3,09 0,42 373,15 97,3 0,605689
Les paramètres du
meilleur résultat
447,92 1292,78 2,3888 0,3893 353,15 36,63 0,8204
suivant l’algorithme
LM
36
Chapitre III. Résultats et Discussion
Tableau III.5 : Erreur quadratique moyenne globale suivant le modèle MLP LM pour MOFs.
L’erreur quadratique moyenne la plus faible relevée dans les résultats du tableau III.5 pour ce
réseau est celle à une EQMS=0.00012, on remarque aussi que plus on augmente le nombre de
neurones plus l’erreur diminue. Un exemple du développement d’un réseau à deux (02) et un (01)
neurones respectivement dans la 1ère et la 2ème couche cachée est illustré dans les figures III.15 et
III.16 :
Figure III.15 : Courbe de performance suivant le modèle MLP LM pour les MOFs
37
Chapitre III. Résultats et Discussion
Figure III.16 : Diagramme de parité pour la base d’apprentissage, validation, de teste ainsi que
pour toute la base de données des MOFs pour deux (02) et un (01) neurones respectivement dans
la 1ère et la 2ème couche cachée suivant le modèle MLP-LM.
D’après la figure II.16 on remarque que l’erreur quadratique moyenne est de 4*10-2, alors que dans
la figure III.15 le R2≈0.87, avec une distribution arbitraire des points de données qui ne suivent
pas la première bissectrice ce qui est expliqué par un mauvais apprentissage pour ce modèle
proposé.
C’est pourquoi dans ce qui va suivre de ce travail on va utiliser plusieurs autres itérations jusqu’à
arriver au bon modèle de réseau de neurones.
Après plusieurs tests effectués pour différents nombres de neurones (tableau III.5), le meilleur
modèle de perceptron multicouche choisie comporte deux couches cachées dont six (06) et huit
(08) neurones répartis respectivement sur la première et la deuxième couche cachée (colonne en
bleu sur le tableau III.5), en utilisant le modèle MLP - LM, la figure III.17 représente l’architecture
de ce réseau :
38
Chapitre III. Résultats et Discussion
Figure III.17 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
LM.
Ce réseau de neurones a été choisie car c’est celui qui présente l’erreur la plus faible (0.0001288)
avec un coefficient de détermination globale R2 ≈0.99947.
Les figures III.18, III.19 illustrent la performance et la régression pour ce même réseau.
Figure III.18 : Courbe de performance suivant le modèle MLP LM pour les MOFs
39
Chapitre III. Résultats et Discussion
Figure III.19 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-LM
D’après la figure III.18 la performance est atteinte au bout de 158 itérations. L’évolution de
l’apprentissage, la validation ainsi que le test est représenté dans la figure III.19.
On remarque que pratiquement tous les points se rapprochent des bissectrices dans les quatre
diagrammes de régression, ce qui vérifie un bon apprentissage du réseau de neurones pour la base
de données étudié.
III.4.1.1. Performance du réseau de neurones :
Après dénormalisation du vecteur sorti du réseau de neurones avec l’équation précédente (III.1),
une courbe de parité (figure III.20) a été tracé afin de comparer les valeurs expérimentales avec
celles obtenues avec le réseau de neurones.
On remarque que presque tous les points se dispersent au tour de l’équation y=1.01x + 0.0002428
qui se rapproche de l’équation y=x, avec un R2=0.9919. Nous constatons que les modèles
développés par la méthode neuronale sont très satisfaisants, malgré une légère différence entre la
fraction molaire calculés expérimentalement et ceux calculés par le réseau de neurones.
40
Chapitre III. Résultats et Discussion
D’après la figure III.20 certains points s’éloignent de la 1ère bissectrice, avec un R2≈ 0,97 ce qui
veut dire que le réseau de neurone conçue est arrivé à simuler une majorité des points d’entrées de
la base de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de
neurone conçu pour ce modèle LM est assez performant.
III.4.2. Modélisation par l’algorithme de Bayesian Regularization :
L’évolution de l’erreur quadratique moyenne en fonction du nombre de neurones dans deux
couches cachées pour le modèle MLP BR est représenté dans le tableau suivant :
Tableau III.6 : Erreur quadratique moyenne globale suivant le modèle MLP BR pour MOFs
Figure III.22 : Courbe de performance suivant le modèle MLP BR pour deux (02) et un (01)
neurones dans la 1ère et la 2ème couche cachée pour les MOFs.
42
Chapitre III. Résultats et Discussion
Figure III.23 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-BR pour deux (02) et un (01) neurones
dans la 1ère et la 2ème couche cachée.
D’après la figure III.22 on remarque que l’erreur quadratique moyenne est de 3.19*10-2, alors que
dans la figure III.23 le R2≈0.89, avec une distribution arbitraire des points de données qui ne
suivent pas la première bissectrice ce qui est expliqué par un mauvais apprentissage pour ce modèle
proposé.
Le meilleur réseau de neurone choisi pour ce modèle d’algorithme (MLP-BR) comporte deux
couches cachées, dont 8 et 9 neurones sont répartis respectivement sur la première et la deuxième
couche cachée, la figure III.24 représente l’architecture de ce réseau :
Figure III.24 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
d’algorithme BR.
43
Chapitre III. Résultats et Discussion
Ce réseau de neurones a été choisi car c’est celui qui présente l’erreur la plus faible
(1,8898 × 10-5) avec un coefficient de détermination globale R2 ≈0.99991.
Les figures III.25, III.26, illustrent la performance, l’état de l’apprentissage et la régression pour
ce même réseau.
Figure III.26 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR.
44
Chapitre III. Résultats et Discussion
45
Chapitre III. Résultats et Discussion
D’après la figure III.28 les points de la base de données ont une bonne corrélation avec la 1ère
bissectrice, avec un R2≈ 0,996 ce qui veut dire que le réseau de neurone conçue est arrivé à simuler
la majorité des points d’entrées de la base de données qu’il n’avait pas appris précédemment, d’où
il est conclu que le réseau de neurone conçu pour ce modèle LM est d’une bonne performance.
III.5- Résultats de prédictions de la concentration de CO2 par MOFs :
Le tableau III.7 représente une synthèse des résultats obtenus avec le meilleur résultat pour chaque
test, ainsi que la médiane pour chacun d’entre eux. On remarque que les deux meilleurs résultats
de la fraction molaire adsorbée ont une grande corrélation pour une masse molaire (Mw), une
température critique (Tc), une pression critique (Pc), ainsi qu’un facteur acentrique (W) constants.
Tableau III.7 : Tableau récapitulatif des résultats suivant l’algorithme BR pour MOFs.
S Vp X1 simulé
T (K) P (Bar)
(m2/g) (cm3/g) (mmol/g)
Min 298 0,00 345 0,227 8,38*10-15
Données
Max 313 35,317 1800 0,573 6,704
Les paramètres du meilleur résultat
298 36,100 4508 1,59 15,086
suivant l’algorithme BR
Ci-dessous le tableau III.8 qui représente les résultats de la concentration simulé suivant
l’algorithme LM.
46
Chapitre III. Résultats et Discussion
Tableau III.8 : Tableau récapitulatif des résultats suivant l’algorithme LM pour MOFs.
X1
S Vp
T (K) P (Bar) simulé
(m2/g) (cm3/g)
(mmol/g)
Min 298 0,00 345 0,227 0,677
Données
Max 313 35,317 1800 0,573 7,045
Les paramètres du meilleur résultat
298 34,000 4508 1,59 14,825
suivant l’algorithme LM
Dans les résultats de ces deux tableaux précédents (III.7 et III.8) les paramètres d’entrées sont les
mêmes, mais une légère différence de la sortie « X simulé » est notée, ce qui peut être expliqué
par la performance d’un algorithme d’apprentissage par rapport à l’autre (BR et LM), ou bien
quelques points n’ont pas été pris en considération lors de l’apprentissage de l’un des deux modèles
d’algorithme étudié lors de cette expérience.
III.6- Comparaison entre les résultats obtenue avec les algorithmes MLP-LM et MLP-BR :
III.6.1. Pour les Liquides Ioniques :
Sur la base des résultats des figures précédentes, les algorithmes LM et BR offrent de bonnes
performances de classification avec une précision de test R2 ˃ 0.90. Cependant, l'algorithme BR
s'est avéré légèrement meilleur avec des performances de classification de R2 ≈0.9980, tandis que
l'algorithme LM parvient à obtenir une précision de test de R2 ≈0.9975.
Afin d'obtenir des performances de classification optimales, le nombre de couches cachées requis
pour les deux algorithmes était de 1 et 2, tandis que le nombre d'itérations d'apprentissage était de
483 et 972, respectivement pour LM et BR. Ici, l'algorithme BR nécessitait plus de couches
cachées pour fournir la capacité de généralisation élevée.
III.6.2. Pour les MOFs :
Sur la base des résultats des figures précédentes, on remarque que l'algorithme BR s'est avéré
légèrement meilleur avec des performances de classification de R2 ≈0.99991, tandis que
l'algorithme LM parvient à obtenir une précision de test de R2 ≈0.99947.
Afin d'obtenir des performances de classification optimales, le nombre de couches cachées requis
pour les deux algorithmes était de 2, tandis que le nombre d'itérations d'apprentissage était de 158
et 771, respectivement pour LM et BR.
Ainsi, en utilisant les 4 caractéristiques d'entrée globales, l'algorithme BR s'est avéré être un
meilleur algorithme d'entraînement avec une précision de test élevée, afin d'obtenir les
performances optimales pour la prédiction de la concentration de CO2 adsorbé dans les MOFs.
47
Chapitre III. Résultats et Discussion
III.7- Conclusion :
Le réseau MLP formé à l'aide des algorithmes LM et BR a été utilisé pour prédire la fraction
molaire et la concentration de CO2 dans les liquides ioniques et les MOFs respectivement.
Ici, plusieurs caractéristiques des liquides ioniques et MOFs dont on site principalement la
température et la pression, ont été utilisées comme entrées du réseau neuronal. Les résultats
montrent que ces caractéristiques proposées donnent une bonne capacité de prédiction.
De plus, en utilisant les algorithmes LM et BR, une bonne performance de prédiction a été obtenue.
Cependant, le réseau MLP formé à l'aide de l'algorithme de régulation bayésienne (BR) s'est avéré
légèrement meilleur avec des performances de classification de R2 ≈0.9980 et R2 ≈0.9999 pour les
liquides ioniques et MOF respectivement. Ainsi, le résultat démontre de manière significative la
pertinence des caractéristiques utilisées comme entrées de notre ANN et de la prédiction proposées
à l'aide du réseau MLP.
Cependant, il faudra prendre en considération que les conditions opérationnelles lors de la
conception de la base de données, les erreurs lors de la conception du réseau de neurones ainsi que
les critères économiques de la matière utilisé pour le captage de CO2 influent sévèrement sur la
conception du réseau de neurone et donc sur les résultats obtenus.
On pourra donc dire que les deux algorithmes utilisés (LM et BR) restent une bonne solution pour
déterminer les conditions opératoires optimales au captage du CO2 par les liquides ioniques et
MOFs.
48
Conclusion Générale
Conclusion Générale :
Le cœur de ce travail a consisté à mettre au point une nouvelle méthodologie qui permet de
connaitre la quantité capturée en fonction des paramètres qui influent sur ce dernier en utilisant
deux phénomènes de captage différents l’adsorption et l’absorption par une approche qui connait
un grand succès dans le domaine des sciences de l’ingénieur, à savoir, les réseaux de neurones
artificiels.
Dans ce présent travail, un réseau de neurones a été créé pour prédire la quantité capturée de CO2.
Le réseau élaboré relie dans un premier modèle la fraction molaire du CO2, ensuite la concentration
de ce dernier, avec les différents paramètres qui influent sur lui (Pression, température, coefficient
acentrique, masse moléculaire, surface spécifique, volume poreux, température critique, pression
critique). Ce réseau permet de prédire la quantité de CO2 capturé sous diverses conditions sans
aucune expérience.
Après avoir réalisé plusieurs recherches dans le but de constituer une base de données, la
réalisation de ce réseau est passée par une succession de choix et de décisions :
Il existe différents types de réseaux neuronaux qui trouvent leurs applications dans divers
domaines pour la réalisation de différents objectifs. Après une étude théorique, il a été constaté
que les réseaux de neurones non bouclés (statique) à apprentissage supervisé de type Multi Layer
Perceptron (MLP) sont les mieux adaptés pour prédire la quantité de CO2 capturé.
Il reste maintenant à choisir la manière d’effectuer l’apprentissage de cet MLP. Deux méthodes
ont été étudiées dans ce travail, à savoir Levenberg-Marquardt (LM) et Bayesian Regularization
(BR). La méthode la plus rapide et la plus efficace consiste, dans ce cas, à évaluer le gradient de
la fonction de coût par rétropropagation et à modifier les paramètres du réseau par la méthode de
Bayesian Regularization.
Les réseaux élaborés ont fourni de très bons résultats, ceci prouve l’aptitude des réseaux de
neurones à résoudre ce genre de problème. En perspective, il serait donc intéressant :
- D’étudier plus de paramètres qui influent sur la capture du CO2 comme l’écoulement des
particules, la viscosité des absorbants, l’humidité des adsorbants, étudier le phénomène sur
un autre type d’absorbant et adsorbant, …etc.
- L’utilisation de ce modèle à l’échelle industrielle pourrait rendre d’énormes services car il
permet de s’abstenir de l’analyse de l’absorbant pour déterminer sa capacité de captage de
CO2.
49
Références
bibliographiques
Références bibliographiques
[1]: Victor DG, Zhou D, Ahmed EHM, Dadhich PK, Olivier JGJ, Rogner H-H, Sheikho K,
Yamaguchi M. (2014): Introductory Chapter. In: Climate Change: Mitigation of climate change.
Contribution of working group III to the fifth assessment report of the intergovernamental panel
on climate change. [Edenhofer O, Pichs-Madruga R, Sokona Y, Farahani E, Kadner S, Seyboth K,
Adler A, Baum I, Brunner S, Eickemeier P, Kriemann B, Savolainen J, Schlömer S, von Stechow
C, Zwickel T and Minx JC (eds)]. Cambridge University Press, New York.
[2] : Wiersum AD, Chang JS, Serre C, Llewellyn PL. (2013), An adsorbent performance indicator
as a first step evaluation of novel sorbents for gas separations: Application to metal-organic
frameworks. Langmuir ; 29 : 10, 3301–3309.
[3]: Capture par adsorption de CO2 dans des gaz de centrales thermiques et leur injection en puits
de pétrole P- 4
[4]: MOTOYUKI Suzuki, professor, Institute of industrial science, university of Tokyo, Tokyo 1,
Adsorption engineering
[5]: Yahiaoui, N. (2012), Etude de l'adsorption des composés phénoliques des margines d'olive sur
carbonate de calcium, hydroxypatite et charbon actif, Mémoire de Magister, Université de Tizi
Ouzou.
[6]: Mellah, A.K. (2012), Adsorption de produits pharmaceutiques sur le charbon actif en poudre
en vue de leur élimination, Mémoire de Magister, Ecole Nationale Polytechnique, Alger.
[7]: R. Xu, W. Pang, J. Yu, Q. Huo, J. Chen. (2007), Chemistry of Zeolites and Related Porous
Materials.
[8] : Ralph T. Yang, Dwight F. (2003) Benton Professor of Chemical Engineering University of
Michigan. Adsorbents: Fundamentals and Applications. P 146, by John Wiley & Sons, Inc. All
rights reserved.
[9]: Ratel, Larysa, Frédéric Kuznik, and Kévyn Johannes (2021), "Open Sorption Systems."
[10]: Draoui K., R. Denoyel, M. Chgoura, J. Rouquerol, J. (1999) Therm. Anal. Catal. 58 597.
[11]: Procédé d’adsorption avec régénération « lelctrochimique pour la capture du dioxyde de
carbone en post combustion, Nabill Ettlili, Hal , université Lorraine,29 mars 2018 – P 31- 32 - 33-
36 -
[12]: Maring BJ and Webley PA. A (2013) new simplified pressure/vacuum swing adsorption
model for rapid adsorbent screening for CO2 capture applications. Int. J. Greenh. Gas Control; 15,
16–31.
[13]: Marx D, Joss L, Hefti M, Gazzani M, Mazzotti M. (2015) CO2 Capture from a Binary CO2 /
N2 and a Ternary CO2 / N2 / H2 Mixture by PSA: Experiments and Prediction. Ind. Eng. Chem.
Res.; 54, 6035-6045.
[14]: Hong-Cai, Zhoua and Susumu Kitagawab (2014), Metal-Organic Frameworks (MOFs),
Chem. Soc. Rev., P 43, 5415
[15]: Chou C.AT. and Chen C.AY. (2004) , Carbon dioxide recovery by vacuum swing adsorption,
separation and purification technology", 2004, 39 51 - 56
[16]: Study of the CO2 capture with physical absorption n an electricity production system based
on coal gaseification with an integrated cycle, Cathy Descamps, Hal, 12 oct 2009.
[17]: Gupta, M., Coyle, I., Thambimuthu, K. (2003) CO2 capture technologies and opportunities
in Canada. 1st Canadian CC&S Technology Roadmap Workshop: s.n.
[18]: Intergovernmental Panel on Climate Change. Carbon Dioxide Capture and Storage - Chapter
3. 2005.
[19] : Lecomte, F., Broutin, P., Lebas, E. (2010), Le captage du CO2. s.l. : Editions TECHNIP -
IFP Publications.
[20]: Domanska, U. (2009) Ionic Liquids in Chemical Analysis, Koel, M. (Eds.), Taylor & Francis
Group, New York, p. 1-71.
[21]: Crosthwaite, J. M.; Muldoon, M. J.; Dixon, J. K.; Anderson, J. L.; Brennecke, J. F. J. ((2005),
Chem. Thermodyn.,37, 559-568.
[22]: Keskin, S.; Kayrak-Talay, D.; Akman, U.; Hortacsu, O. J. (2007), Supercrit. Fluids, 43, 150-
180.
[23] : Seddon, K. R.; Stark, A.; Torres, M. J. (2000) Pure Appl. Chem., 72, 2275-2287.
[24] : M. WEINFELD. Réseaux de neurones. Technique de l‟ingénieur.
Figure : Boite à outils du réseau de neurones (NNTOOL) pour le modèle des Ils.
Figure : représentation d’un réseau de neurones artificiel pour le modèle des Ils.
ANNEXE B
Résultats des mauvaises prédictions pour différents nombres de neurones
Ces outils sont simples à appliquer et peuvent éviter des mesures expérimentales chronophages et
des appareils expérimentaux coûteux ainsi que des procédures d'interprétation compliquées.
IV.1.2- Caractérisation de matières utilisées :
Plusieurs matériaux seront exposés dans cette partie, afin de maitriser le phénomène étudié.
Au cours de cette étude, 13 liquides ioniques ont été utilisés. Pour chaque Ils des mesures ainsi
que des conditions opératoires spécifiques leurs ont été attribué.
IV.1.2.1- Produits chimiques :
Les 13 liquides ioniques seront divisés en 5 parties selon les 5 références (étude scientifique)
utilisées pour la réalisation de ce mémoire « [34 - 38] »
IV.1.2.1.a- Caractéristiques des liquides ioniques de la partie 1 :
Les liquides ioniques [BMP][Tf2N] et [BMP] - [MeSO4] ont été achetés auprès de C-TRI (Corée).
Les données de pureté de [BMP][Tf2N] et [BMP][MeSO4] sont présentés dans le tableau 2.
Tableau 2. Données de pureté [BMP][Tf2N] and [BMP][MeSO4]
Figure. 1 : Structure chimique des liquides ioniques : (a) [BMP][Tf2N] et (b) [BMP][MeSO4].
Le dioxyde de carbone de haute pureté (99,995 %) utilisé pour les mesures a été acheté auprès de
Deokyang Gas Co. (Corée). Les liquides ioniques et le gaz CO2 ont été utilisés sans autre
purification.
Contenu
Contenu en Méthode Contenu Méthode
Pureté initial en
Source Halogénures d'élimination en eau d'analyse
eau
(%) (%) de l'eau finale de l'eau
(PPM)
Dong-
A Gas - - - - -
CO2 99.999
Co.
Karl
Future- Évaporation
[c2mim][SCN] 98 0.14 1620 26 Fischer
Chem sous vide
titration
Karl
Évaporation
Future- 0.61 1520 24 Fischer
[c2mim][N(CN)2] 98 sous vide
Chem titration
Karl
Évaporation
Future- 0.01 930 20 Fischer
[c2mim][C(CN)3] 98 sous vide
Chem titration
Le CO2 a été acheté à Dong-A Gas Co. (Corée) a un haut niveau de pureté (99,999 % en masse).
Les liquides ioniques et le gaz CO2 ont été utilisés sans autre purification.
IV.1.2.1.c- Caractéristiques des liquides ioniques de la partie 3 :
Les liquides ioniques [HMIM][Tf2N], [HMIM][TfO], [HMIM][MeSO4],[HMIM][BF4] et
[HMIM][PF6] ont été achetés auprès de C-TRI (Corée).
Les données de pureté totale ont été fournies par C-TRI (Corée).
Le CO2 de haute pureté (99,995 % en masse) utilisé pour les mesures a été acheté auprès de
Deokyang Gas Co. (Corée). Les liquides ioniques et le gaz CO2 ont été utilisés sans autre
purification.
La structure chimique des quatre liquides ioniques est présentée sur la figure 3.
Figure. 3 : Structure chimique des liquides ioniques : (a) [HMIM][Tf2N], (b) [HMIM][TfO], (c)
[HMIM][MeSO4], (d)[HMIM][BF4] et (e)[HMIM][PF6].
Les données de pureté de ces cinq liquides ioniques sont présentées dans le tableau 4.
Tableau 4 : Données de pureté des cinq liquides ioniques précédents :
Liquides ioniques Source Pureté Contenu en Contenu Méthode Contenu Méthode
(% Halogénures initial en d'élimination en eau d'analyse de
masse) (%) eau (PPM) de l'eau finale l'eau
[HMIM][Tf2N] C-Tri 99.0 17 1128 Evaporation 25 Karl Fischer
sous vide
[HMIM][TfO] C-Tri 99.0 11 1577 Évaporation 27 Karl Fischer
sous vide
[HMIM][MeSO4] C-Tri 99.0 29 1851 Évaporation 22 Karl Fischer
sous vide
[HMIM][BF4] C-Tri 99.0 33 1577 Évaporation 20 Karl Fischer
sous vide
[HMIM][PF6] C-Tri 99.0 25 1709 Évaporation 27 Karl Fischer
sous vide
Types de MOFs
MOF-2 IRMOF-11 IRMOF-3 IRMOF-6 IRMOF-1
MOF-177 BeBTB CoBDP CuBTTri Mg2(dobdc)