Vous êtes sur la page 1sur 89

République Algérienne Démocratique et Populaire

Ministère de l’enseignement supérieur et de la recherche scientifique


Université des Sciences et de la Technologie Houari Boumediene
Faculté de génie mécanique et de génie des procédés
Département de génie chimique
Filière : génie des procédés

Mémoire
Présenté en vue de l’obtention du diplôme de

Master
En
Génie pétrochimique
Thème

Etude prédictive du captage de CO2 par Liquides Ioniques et


Metal-Organic-Frameworks grâce à un réseau de neurones
artificiel

Soutenu le : 02 Juillet 2022

Réalisé par : Proposé par :


Melle Tinhinane MAHDI M. Menad NAIT AMAR
M. Amine AOUANOUK

Devant la commission de jury :


M. Abdelkader MOUHEB Professeur Président
M. Ahmed BELGACEM Professeur Examinateur
M. S. Amine AOUANOUK MCB Encadrant
M. Menad NAIT AMAR Docteur Invité
Remerciements
Je commence par remercier Dieu tout puissant d’avoir eu la bonté de m’entourer de personnes qui
ont, chacune à leur façon, et ce, à différentes étapes de mon cheminement, contribué, d’une manière
ou d’une autre, à arriver où je suis aujourd’hui.

Je remercie de tout cœur monsieur Saadi Amine AOUANOUK, d’avoir accepté de suivre ce travail
de près, transformant ainsi les difficultés rencontrées en une expérience enrichissante. Je lui suis
également reconnaissante de m’avoir assuré un encadrement rigoureux, de précieux conseils, et des
solutions concrètes à mes diverses interrogations. Qu’il trouve ici l’expression de ma profonde
gratitude.

Mes remerciements vont ensuite à monsieur Menad NAIT AMAR du centre de recherche et
développement de Boumerdes, pour sa patience, sa disponibilité, et surtout la chance qu’il m’a donné
d’élargir mon horizon scientifique et surtout de m’avoir aidé sur les réseaux de neurones artificiels,
et d’approfondir mon apprentissage dans ce domaine malgré les difficultés et les conditions spéciales
rencontrées au cours de cette année.

Je remercie également le Centre de Recherche et Développement de Boumerdès (CRD), de m’avoir


ouvert les portes durant ma période de travail sur ce projet de fin d’étude.

Je suis grandement reconnaissante au Professeur Abdelkader MOUHEB, pour m’avoir fait


l’honneur d’accepter de présider le jury de ce projet de fin d’étude.

Je souhaite aussi exprimer ma reconnaissance à monsieur Ahmed BELGACEM examinateur qui a


accepté de siéger dans le jury de ce projet de fin d’étude et sa disponibilité pour examiner ce travail.
Dédicaces
Je dédie ce mémoire…

A mes très chers parents

Aucune dédicace ne saurait exprimer ma reconnaissance et mon profond amour que


j’ai pour vous, mes chers parents…
Vos prières et votre bénédiction m’ont été d’un grand secours tout au long de ma vie.
Merci pour le soutient, la confiance, les sacrifices, et surtout votre patience qui me
guide tous les jours. Merci d’avoir fait de moi ce que je suis aujourd’hui.
J’espère avoir répondu aux espoirs que vous avez fondés en moi et réalisé
aujourd’hui l’un de vos rêves.
Pourriez-vous trouver dans ce travail le fruit de toutes vos peines et tous vos efforts.

Vous résumez si bien le mot parents qu’il serait superflu d’y ajouter quelque chose.

A Yassine, Yasmine et Sissa !


Vous avez été à mes côtés pendant toutes les étapes de ce travail, je vous en suis très
reconnaissante.
Aucune dédicace ne peut exprimer la profondeur des sentiments fraternels et
d’amour que j’éprouve à votre égard.

A Tayeb et Lila
Je ne saurai traduire sur du papier l’affection que j’ai pour vous deux.
J’implore dieu qu’il vous apporte bonheur, santé et réussite.

A mon unique sœur Zakia


Une sœur comme on ne peut trouver nulle part ailleurs.
En témoignage de l’attachement et l’amour que je porte pour toi, je te remercie pour
tous les moments magnifiques passés ensemble. Je te souhaite un avenir plein de joie,
de bonheur et de réussite.

A mes amies et collègues qui m’ont soutenue durant tout mon parcours. Je
m’abstiendrai de les nommer tellement la liste serait longue
Je vous suis extrêmement reconnaissante.
Résumé

L’objectif principal de cette étude est d’examiner les aptitudes de deux modèles intelligents, dont le
perceptron multicouche (MLP) optimisé avec Levenberg-Marquardt (MLP-LM) et la régularisation
bayésienne (MLP-BR), à prédire la quantité capturée de CO2 à travers les deux procédés d’Adsorption
et d’Absorption en utilisant les réseaux de neurones artificiels (RNA), à l’aide de la boite à outils
Neural Networks du logiciel Matlab®.
Une base de données récoltée à partir de la littérature a été utilisée. Les distributions des erreurs de
prédiction sont tracées pour les deux procédés afin de fournir des connaissances plus complètes sur
les performances des modèles étudiés.

La validation RNA a été faite en étudiant d’autres paramètres d’entrées de la même base de données
qui n’a pas été introduite au début dans le RNA, et comparer ensuite les résultats expérimentaux avec
ceux calculés par la méthode neuronale.

Abstract

The main objective of this study is to examine the capabilities of two intelligent models, including
the multilayer perceptron (MLP) optimized with Levenberg-Marquardt (MLP-LM) and Bayesian
regularization (MLP-BR), to predict the amount of CO2 uptake through the two Adsorption and
Absorption processes using a new and revolutionary approach in the field of Artificial Neural
Networks (ANN) processes, using the Neural Networks toolbox of Matlab® software.
A database collected from the literature was used. The distributions of prediction errors are plotted
for both processes to provide more complete knowledge of the performance of the models studied.

The RNA validation was done by studying other input parameters from the same database that was
not initially introduced into the ANN, and then comparing the experimental results with those
calculated by the neural method.

‫ملخص‬

‫ ) المحسن‬MLP ( ‫ بما في ذلك المدرك متعدد الطبقات‬،‫الهدف الرئيسي من هذه الدراسة هو فحص قدرات نموذجين ذكيين‬
‫) للتنبؤ بالكمية الملتقطة من ثاني أكسيد الكربون من خالل عمليتا االمتزاز‬MLP-BR( ‫) و تنظيم‬MLP-LM( ‫باستخدام‬
‫) باستخدام مجموعة أدوات الشبكات العصبية لبرنامج ماطالب‬ANN( ‫واالمتصاص باستخدام الشبكات العصبية االصطناعية‬
‫ تم رسم توزيعات أخطاء التنبؤ لكلتا الطريقتين لتوفير رؤى أكثر شموالً حول أداء‬.‫تم استخدام قاعدة بيانات تم جمعها من األدبيات‬
‫النماذج المدروس‬
‫) من خالل دراسة معلمات االدخال االخرى لقاعدة البيانات نفسها والتي لم تقدم في البداية في‬ANN( ‫تم اجراء التحقق من صحة‬
‫ثم مقارنة النتائج التجريبية بتلك المحسوبة بالطريقة العصبية‬
‫( تم اجراء التحقق من صحة‬ANN) ‫من خالل دراسة معلمات االدخال االخرى لقاعدة البيانات نفسها والتي لم تقدم في البداية ثم‬
‫النتائج التجريبية بتلك المحسوبة بطريقة الخاليا العصبية االصطناعية‬
Table des matières
Introduction générale………………………………………………………………………………... 1
I.1. Introduction……………………………………………………………………………………… 2
I.2. Physisorption et chimisorption…………………………………………………………………. 2
I.2.1. Les grands types d’adsorbants « physiques »……………….…………………...………. 2
I.3. Méthodes de capture du dioxyde de carbone par Adsorption……………………………….. 4
I.3.1. Adsorption en lit fixe…………………….…………………………………………………. 4
I.3.2. Adsorption en lit fluidisé………………….………………………………………………... 4
I.3.3. Adsorption en lit mobile et lit mobile simulé.……………………………………………… 4
I.3.4. Adsorption avec un concentrateur à roue…………….………………………………….. 5
I.4. Techniques de désorption………………………………………………………………............. 6
I.4.1. Désorption par un changement de la pression…………………………………………... 6
I.4.2. Désorption par un changement de la température………………………………………. 6
I.4.3. Désorption avec un gaz à chaud…………………………………………………………. 6
I.5. Le role des Charpentes MOF dans l’adsorption de CO2……………………………………... 7
I.5.1. Définition des MOFs……………………………………………………………………… 7
I.6. Introduction……………………………………………………………………………………… 9
I.7. Les procédés les plus connues en absorption………………………………………………….. 9
I.7.1. Procédés d’absorption chimique aux amines …………………………………………… 9
I.7.2. Procédés d’absorption chimique par solution aqueuses inorganiques…………………. 10
I.7.3. Procédés d’absorption chimique par adsorbant solides…………………………………. 10
I.7.2. Procédés d’absorption chimique par solvants physiques………………………………... 10
I.8. L’absorption de CO2 par liquides ioniques……………………………………………………. 11
I.8.1. Définitions………………………………………………………………………………… 11
I.8.2. Applications des liquides ioniques…………………………………………………………….. 11
I.8.3. Captage de gaz dans les liquides ioniques…………………………………………………….. 11
I.9. Introduction……………………………………………………………………………………… 13
I.10. Neurone biologique et neurone artificiel…………………………………………………. 13
I.10.1. Le neurone biologique…………………………………………………………………... 13
I.10.1. Définitions Le neurone formel …………………………………………………………. 14
I.11. Analogie entre le neurone biologique et le neurone formel…………………………………. 16
I.12. Réseau de neurones…………………………………………………………………………….. 16
I.12.1. Architecture des réseaux………………………………………………………………… 16
I.12.2. Réseau monocouche…………………………………………………………...………… 16
I.12.3. Réseau multicouche……………………………………………………………………... 17
I.13. Type de réseaux de neurones …………………………………………………………………. 19
I.13.1. Réseau de neurones bouclés…………………………………………………….............. 19
I.13.2. Réseau de neurones non bouclés………………………………………………………... 19
I.14. L’apprentissage des réseaux de neurones ……………………………………………………. 20
I.14.1. Types d’apprentissage…………………………………………………………………… 20
I.14.2. Apprentissage supervisé…………………………………………………………………. 20
I.14.3. Apprentissage non supervisé……………………………………………………………. 21
I.15. Algorithme d’apprentissage…………………………………………………………………… 21
I.16. Pas d’apprentissage……………………………………………………………………………. 22
I.17. Surapprentissage………………………………………………………………………………. 22
I.18. Le critère d’arrêt pour l’apprentissage………………………………………………………. 23
I.19. Théorie de généralisation……………………………………………………………………… 23
I.20. Conclusion……………………………………………………………………………………… 23
II.1. Conception du réseau de neurones …………………………………………………………… 24
II.1.1. Conception pour les liquides ioniques……………………………………………………. 24
II.1.2. Conception pour les MOFs……………………………………………………………….. 25
II.2. Mise en œuvre des réseaux neuronaux………………………………………………….…….. 26
II.2.1. Fixation du nombre de couches cachées…………………………………………...……... 26
II.3. Conclusion………………………………………………………………………………………. 26
III.1. Modélisation pour les liquides ioniques……………………………………………………… 26
III.1.1. Modélisation par l’algorithme de Levenberg Marquardt……………………………….. 27
III.1.1.1. Performance du réseau de neurones…………………………………………………... 30
III.1.1.2. Validation du réseau de neurones……………………………………………………… 30
III.1.2. Modélisation par l’algorithme de Bayesian Regularization……………………..……… 31
III.1.2.1. Performance du réseau de neurones …………………………………………..……… 34
III.1.2.2. Validation du réseau de neurones……………………………………………………… 35
III.2. Résultats de prédictions de la fraction molaire de CO2 par liquides ioniques……………. 35
III.4. Modélisation pour les MOFs………………………………………………………….……… 36
III.4.1. Modélisation par l’algorithme de Levenberg Marquardt……………………………….. 36
IIII.4.1.1. Performance du réseau de neurones………………………………………………….. 40
III.4.1.2. Validation du réseau de neurones……………………………………………………… 41
III.4.2. Modélisation par l’algorithme de Bayesian Regularization…………………………….. 42
III.4.2.1. Performance du réseau de neurones…………………………………………………... 45
III.5. Résultats de prédiction de la concentration par MOFs…………………………………….. 46
III.6. Comparaisn entre les résultats obtenus avec l’algorithme MLP LM et MLP BR……....... 47
III.6.1. Pour les liquides ioniques………………………………………………………………… 47
III.6.2. Pour les MOFs…………………………………….……………………………………… 47
III.7. Conclusion……………………………………………………………………………..………. 48
Conclusion générale………………………………………………………………………….……… 49
Références bibliographiques
Annexes
Liste des symboles

COV Composés Organiques Volatiles [-]


DEA Diéthanolamine [-]
EQMS Erreur Quadratique Moyenne du Système [-]
F Fonction d’activation [-]
ILs Ionic Liquids [-]
MDEA Méthyldiéthanolamine [-]
MEA Monoéthanolamine [-]
MLP Multi-Layer Perceptron [-]
MLP - BR MLP - Bayesian Regularization [-]
MLP - LM MLP- Levenberg Marquardt [-]
MOF Metal Organic Framework [-]
Mw Masse molaire Kg/Kmole
Ps Somme pondérée [-]
P Pression MPa ; Bar
Pc Pression Critique MPa ; Bar
PSA Pressure Swing Adsorption [-]
RNA Réseau de Neurones Artificiel [-]
Sr Sortie du réseau [-]
S Surface Spécifique m2/g
T Température K
Tc Température Critique K
TEA Triéthanolamine [-]
TSA Température Swing Adsorption [-]
Vp Volume Poreux cm3/g
VSA Vacuum Swing Adsorption [-]
W Facteur Acentrique [-]
Wi Poids synaptiques du neurone. [-]
𝑡+1
𝑤𝑡𝑗 Nouveau poids [-]
𝑡
𝑤𝑡𝑗 Ancien poids [-]
𝑡
Δ𝑤𝑡𝑗 Adaptation des poids à l’itération t [-]
X1 Concentration prédite mmol/g
X2 Fraction prédite [-]
Xi Entrées du neurone [-]
X0 Biais [-]
ZIF Zeolitic Imidazolate Framework [-]
ZMOF les Zeolite-like Metal-Organic Frameworks [-]
Ө Seuil [-]
Liste des tableaux

Tableau I.1: Fonctions d’activation les plus utilisées…………………………………………..... 15


Tableau I.2: Analogie entre le neurone biologique et le neurone formel………………………… 16
Tableau II.1: Intervalles de données des paramètres du réseau utilisé pour les liquides ioniques... 24
Tableau II.2: Intervalles de données des paramètres du réseau utilisé pour les MOFs…………… 26
Tableau II.1: Erreur quadratique Moyenne globale suivant le modèle MLP LM………………… 27
Tableau III.2: Erreur quadratique Moyenne globale suivant le modèle MLP BR………………..... 31
Tableau III.3: Tableau récapitulatif des résultats suivant l’algorithme BR………………………... 36
Tableau III.4: Tableau récapitulatif des résultats suivant l’algorithme BR………………………... 36
Tableau III.5: Erreur quadratique Moyenne globale suivant le modèle MLP LM pour MOFs….... 37
Tableau III.6: Erreur quadratique Moyenne globale suivant le modèle MLP BR pour MOFs…..... 42
Tableau III.7: Tableau récapitulatif des résultats suivant l’algorithme BR pour MOFs…………… 46
Tableau III.8: Tableau récapitulatif des résultats suivant l’algorithme LM pour MOFs…………... 47
Liste des figures
Figure I.1: Adsorption chimique………………………………………………………………… 2
Figure I.2: Principe de fonctionnement d’un procédé d’adsorption en lit mobile……………..... 4
Figure I.3: Principe de fonctionnement d’un procédé d’adsorption par lit mobile simulé………. 5
Figure I.4: Schéma d’un concentrateur à roue…………………………………………………… 5
Figure I.5: Représentation schématique d’un MOF, le PCN-9………………………………….. 7
Figure I.6: Entités inorganiques avec en bleu les cations, en rouge les atomes d'oxygène et en
noir les atomes de carbone……………………………………………………………………...... 7
Figure I.7: HKUST-1 / MOF-199………………………………………………………………... 8
Figure I.8: Figure I. 8: UiO-66…………………………………………………………………… 8
Figure I.9: UiO-67……………………………………………………………………………...... 8
Figure I.10: Schéma de principe du procédé d’absorption de CO2 par la MEA dans des
contacteurs classiques…………………………………………………………………………… 9
Figure I.11: Absorption du CO2 par absorbants solides…………………………………………. 10
Figure I.12: Anatomie d'un neurone biologique…………………………………………………. 13
Figure I.13: Schéma du fonctionnement d’un neurone biologique………………………………. 14
Figure I.14: Neurone artificial…………………………………………………………………… 14
Figure I.15: Neurone formel……………………………………………………………………... 15
Figure I.16: Réseau Monocouche………………………………………………………………... 16
Figure I.17: Réseau Multicouche classique……………………………………………………… 17
Figure I.18: Perceptron multicouche à une couche de neurones cachés………………………….. 17
Figure I.19: Exemple de réseau de neurones bouclé ou récurrent………………………………. 19
Figure I.20: Exemple de réseau de neurones non-bouclé………………………………………… 19
Figure I.21: Illustration de l’apprentissage supervisé……………………………………………. 20
Figure I.22: Illustration de l’apprentissage non supervisé……………………………………….. 21
Figure I.23: Arret premature…………………………………………………………………….. 23
Figure III.1: Courbe de performance pour une (01) couche cachée suivant le modèle MLP-
LM………………………………………………………………………………………………. 27
Figure III.2: Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour (01) couches cachées suivant le modèle MLP-LM………… 28
Figure III.3 : Schéma représentant le réseau de neurones obtenu pour les ILs avec le modèle
LM………………………………………………………………………………………………. 28
Figure III.4 : Courbe de performance suivant le modèle MLP LM…………………………….. 29
Figure III.5 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-LM……………………………………. 29
Figure III.6 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction molaire
expérimentale…………………………………………………………………………………… 30
Figure III.7 : Courbe de parité de la validation en fonction de la nouvelle fraction molaire
simulée pour le modèle LM – Ils………………………………………………………………. 31
Figure III.8 : Courbe de performance pour deux (02) couches cachées suivant le modèle MLP-
BR………………………………………………………………………………………………. 32
Figure III.9 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour deux (02) couches cachées suivant le modèle MLP-
BR………………………………………………………………………………………………. 32
Figure III.10 : Schéma représentant le réseau de neurones obtenu pour les Ils avec le modèle
BR………………………………………………………………………………………………. 33
Figure III.11 : Courbe de performance suivant le modèle MLP BR pour les Ils……………….. 33
Figure III.12 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR pour les Ils…………. 34
Figure III.13 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction
molaire expérimentale………………………………………………………………………….... 34
Figure III.14 : Courbe de parité de la validation en fonction de la nouvelle fraction molaire
simulé pour le modèle BR - ILs…………………………………………………………………. 35
Figure III.15 : Courbe de performance suivant le modèle MLP LM pour les MOFs……………. 37
Figure III.16 : Diagramme de parité pour la base d’apprentissage, validation, de teste ainsi que
pour toute la base de données des MOFs pour deux (02) et un (01) neurones respectivement
dans la 1ère et la 2ème couche cachée suivant le modèle MLP-LM……………………………. 38
Figure III.17 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
LM……………………………………………………………………………………................. 39
Figure III.18 : Courbe de performance suivant le modèle MLP LM pour les MOFs…………… 39
Figure III.19 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi
que pour toute la base de données suivant le modèle MLP-LM………………………………… 40
Figure III.20 : Courbe de parité entre la concentration prédite en fonction de la concentration
expérimentale pour le modèle LM - MOFs…………………………………………………….. 41
Figure III.21 : Courbe de parité de la validation en fonction de la nouvelle fraction molaire
simulé pour le modèle LM – MOFs……………………………………………………………. 41
Figure III.22 : Courbe de performance suivant le modèle MLP BR pour deux (02) et un (01)
neurones dans la 1ère et la 2ème couche cachée pour les MOFs…………………………….. 42
Figure III.23 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi
que pour toute la base de données suivant le modèle MLP-BR pour deux (02) et un (01) neurones
dans la 1ère et la 2ème couche cachée…………………………………………………………… 43
Figure III.24 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
d’algorithme BR………………………………………………………………………………… 43
Figure III.25 : Courbe de performance suivant le modèle MLP BR…………………………… 44
Figure III.26 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR…………………… 44
Figure III.27 : Courbe de parité entre la concentration prédite en fonction de la concentration
expérimentale……………………………………………………………………………………. 45
Figure III.28 : Courbe de parité de la validation en fonction de la nouvelle fraction molaire
simulée pour le modèle BR – MOFs……………………………………………………………. 46
Introduction générale

La demande mondiale croissante en énergie liée à une forte dépendance aux énergies fossiles a
considérablement intensifié la concentration de gaz à effet de serre dans l'atmosphère, atteignant des
niveaux alarmants [1]. Sachant que les émissions de dioxyde de carbone contribuent pour environ
50% au potentiel de réchauffement, il est évidemment pertinent d'étudier tous les moyens de réduire
ces émissions [2].
Afin d'atténuer les effets négatifs du réchauffement climatique et pour réduire les émissions, plusieurs
études présentent de nombreuses technologies qui ont été développés au cours des dernières décennies
pour séparer et récupérer le dioxyde de carbone (CO2) ont vu le jour.
Outre les programmes écologiques visant la substitution des énergies fossiles par des énergies vertes,
le CO2 trouve également de nombreuses utilisations dans différents domaines d’industries tels
que : Industrie chimique, Industrie pharmaceutique, Alimentaire, Santé, Electronique et
Environnement. C’est pourquoi le CO2 à été précisément choisie pour faire l’objet de cette étude.
La séparation des gaz à grande échelle est une tâche importante pour de nombreux procédés
industriels. Parmi ces techniques, l'adsorption et l’absorption se distinguent comme des opérations
prometteuses en raison de leur coût relativement faible et de leurs consommations efficaces d'énergie
[3].
Les réseaux de neurones artificiels, dont le fonctionnement s'inspire de celui des réseaux de neurones
biologiques, connaissent depuis quelques années un succès croissant dans divers domaines des
sciences de l’ingénieur, notamment celui de Génie des Procédés.
Plusieurs chercheurs se sont intéressés sur ces deux procédés afin de séparer et de récupérer le dioxyde
de carbone (CO2) et ont fini par modéliser ces deux phénomènes. Nous citerons par exemple, certains
modèles utilisés tel que le modèle de Levenberg Marquardt, Bayesian Regularization, Radial Basis
Function, etc.
Pratiquement tous les modèles qu’on retrouve dans la littérature ne sont valables que dans un domaine
bien précis, ce qui est le cœur de la problématique de cette étude.
L’objectif du présent mémoire est de contribuer à l’application de la méthode neuronale en vue de la
prédiction de la capture de CO2 en fonction de plusieurs paramètres qui influent sur ce dernier.
Ce mémoire est organisé en trois chapitres :
Le chapitre I, sera divisé en trois parties qui sont : une présentation détailé des phénomènes
d’adsorption, ensuite d’absorption et en troisième, la notion de neurone artificiel.
Le chapitre II, est consacré aux matériels et méthodes utilisés dans l’étude de l’adsorption et
d’absorption afin de construire une base de données qui servira à l’apprentissage du réseau de
neurones.
Le chapitre III est dédié aux résultats obtenus lors de la conception du réseau de neurones pour la
prédiction en utilisant la Toolbox Neural Networks TM sous le logiciel MATLAB®.
Enfin, une conclusion générale sera présentée ainsi que des perspectives qui pourront être envisagées.
Chapitre I :
Synthèse
bibliographique
Adsorption
Chapitre I. Synthèse Bibliographique

I.1. Introduction
L'adsorption est un phénomène de surface universel. En effet, toute surface est constituée d'atomes
n'ayant pas toutes leurs liaisons chimiques satisfaites. Cette surface a donc tendance à combler ce
manque en captant les atomes et molécules passant à proximité.
Ainsi, les adsorbants sont d'abord caractérisés par des propriétés de surface telles que la surface et la
polarité [4].
Il existe deux types d’adsorption, physique et chimique qui seront définis plus en détails dans ce qui
va succéder. Nous n’envisagerons dans ce chapitre que l’adsorption physique qui, seule, présente un
intérêt en tant que procédé de séparation.
I.2. Physisorption et chimisorption
L'adsorption physique est causée principalement par la force de van der Waals et force électrostatique
entre les molécules d'adsorbat et les atomes qui composent la surface adsorbante [5].
L'adsorption chimique, ou chimisorption, résulte d’une interaction chimique qui se traduit par un
transfert d’électrons entre le solide et l’adsorbat. Il y alors formation d’un composé chimique à la
surface de l’adsorbant. Ce type d'adsorption se développe à haute température et met en jeu une
enthalpie de transformation élevée [6].
Cette interaction est beaucoup plus forte que l'adsorption physique, ou physisorption, qui a lieu sur
toutes les surfaces si les conditions de température et de pression sont favorables. La chimisorption
ne se produit que sur des sites actifs propres à des emplacements de surface spécifiques sur un
matériau et, contrairement à la physisorption, cesse lorsque l'adsorbat ne peut plus entrer en contact
direct avec la surface, faisant de la chimisorption un processus monocouche (Figure I.1).

Figure I.1 : Adsorption chimique

2
Chapitre I. Synthèse Bibliographique

I.2.1. Les grands types d'adsorbants « physiques »


On distingue cinq grands types d'adsorbants « physiques » : les charbons actifs, les zéolithes, les
alumines, les gels de silice et les argiles activées.

• Les charbons actifs


Le charbon actif est préparé en pyrolysant des matériaux contenant du carbone, du charbon ou des
matières végétales pour produire du charbon de bois, qui est ensuite oxydé par la vapeur d'eau dans
des conditions contrôlées pour créer une structure microporeuse. Il existe des centaines de qualités de
charbon actif, selon le précurseur et les conditions de traitement.

• Les zéolithes
Une zéolithe, ou zéolite, est un cristal formé d'un squelette microporeux d'aluminosilicate, dont les
espaces vides connectés sont initialement occupés par des cations et des molécules d'eau [7].

• Les alumines activées


La production commerciale d'alumine activée est réalisée exclusivement par voie thermique de
déshydratation ou activation du trihydrate d'aluminium, Al(OH)3 [8].
Elles adsorbent préférentiellement les substances polaires qui contaminent les liquides ou les gaz. Et
se présente sous la forme de billes de quelques millimètres de diamètre.

• Les gels de silice


Le gel de silice est un hydroxyde de silicium Si(OH)4 polymère d'acide silicique préparé à partir de
silicate de sodium [9].

• Les argiles activées


Les argiles sont les principaux composants de la fraction minérale de sols. Ce sont des adsorbants
naturels efficaces en raison de leurs faibles tailles de particules, et leur charges négatives de surfaces,
ce qui en fait de bons adsorbants avec une grandes surfaces réactives pour l'échange d'ions ou
l'attraction électrostatique [10].

• Metal-Organic Frameworks (MOFs)


Structures métallo-organiques (MOF en anglais, également appelés polymères de coordination
poreux ou PCP) sont une classe émergente de matériaux construits à partir de nœuds contenant du
métal et des liaisons organiques. En raison de leur structure et de leur fonctionnalité accordable, le
domaine des MOF est devenu l'un des domaines les plus dynamiques de la chimie [11].
Dans la plupart des procédés d’adsorption industriels, l’adsorption physique est largement plus
utilisée par rapport à la chimisorption, par conséquent seule l’adsorption physique sera abordée dans
ce chapitre.
I.3. Méthodes de capture du dioxyde de carbone par Adsorption
Il existe plusieurs types d’adsorbeurs. La nature et la configuration d’un adsorbeur dépend avant tout
de son application.

3
Chapitre I. Synthèse Bibliographique

I.3.1. Adsorption en lit fixe


Les colonnes d’adsorption sont souvent de forme cylindrique, verticales et comportent des plateaux
perforés sur lesquels repose l’adsorbant. Lorsque la masse de l’adsorbant est très importante, les
colonnes d’adsorption peuvent être placées horizontalement. L’adsorbant est alors déposé sous forme
de couches parallélépipédiques horizontales [12].
I.3.2. Adsorption en lit fluidisé
Cette technique repose sur le maintien de l’adsorbant en état de fluidisation au moyen de l’effluent à
traiter. Le fluide traverse de bas en haut la couche d’adsorbant. Le procédé peut fonctionner en
continu. Les particules d’adsorbant qui sont saturées s’écoulent par gravité dans une zone de
régénération où l’adsorbant entre en contact avec un échangeur thermique parcouru par un fluide
chaud (120 à 250°C). L’adsorbant régénéré est renvoyé mécaniquement en haut de la colonne.
I.3.3. Adsorption en lit mobile et lit mobile simulé

Pour le lit mobile, l’adsorbant se déplace, dans la colonne d’adsorption, à contre-courant de l’effluent
à traiter. Ainsi, l’adsorption et la régénération peuvent avoir lieu dans la même colonne. Un procédé
d’adsorption en lit mobile existe pour l’élimination des dioxines dans les fumées d’un incinérateur
d’ordures ménagères. L’adsorbant, un coke activé, n’est pas régénéré. Il est soit détruit, soit stocké
(Figures I.2 et I.3) [12].

Figure I.2 : Principe de fonctionnement d'un procédé d'adsorption en lit mobile

4
Chapitre I. Synthèse Bibliographique

Figures I.3 : Principe de fonctionnement d'un procédé d'adsorption par lit mobile simulé
I.3.4. Adsorption avec un concentrateur à roue
Il s’agit d’un véritable lit mobile qui réalise l’adsorption et la désorption en continu. Le procédé
comprend un lit fixe tournant sur son axe à très faible vitesse (de l’ordre de 2 tours/heure) et dont le
rapport diamètre (de l’ordre de quelques mètres) sur épaisseur est élevé [12].
L’adsorbant se présente, parfois, sous la forme d’un monolithe (type nid d’abeille) sur lequel est
déposé l’adsorbant (charbon actif ou zéolite). Une grande partie du lit tournant est en adsorption,
tandis qu’un petit secteur, protégé du flux de gaz à traiter par un capotage, est en régénération au
moyen d’un gaz chaud. Ainsi, au cours d’une rotation, le lit est successivement en étape d’adsorption
et en étape de régénération
Un schéma d’un concentrateur à roue est donné par la figure I.4.

Figures I.4 : Schéma d’un concentrateur à roue


Un des principaux inconvénients des concentrateurs à roue est leur faible capacité d’adsorption
comparée à celle d’un adsorbeur traditionnel [12].
I.4. Techniques de désorption
L’étape d’adsorption est suivie d’une étape de désorption ou de régénération qui consiste à récupérer
le dioxyde de carbone fixé par l’adsorbant. La récupération du gaz carbonique piégé pendant
l’adsorption peut être effectuée en modifiant la pression partielle du CO2 dans la phase gazeuse. On
parle de procédés PSA (Pressure Swing Adsorption) ou VSA (Vacuum Swing Adsorption) [12].
5
Chapitre I. Synthèse Bibliographique

Une deuxième méthode de régénération consiste à augmenter la température de l’adsorbant avec un


gaz chaud (air, azote…) ou de la vapeur d’eau ou en chauffant l’adsorbant par effet Joule [12].
I.4.1. Désorption par un changement de la pression
✓ Adsorption modulée en pression
Dans l'adsorption modulée en pression (PSA en anglais), l'adsorbant est régénéré en réduisant la
pression et, en température modulée (TSA), en élevant sa température. Les techniques PSA et TSA
classiques ont été modifiées et adaptées pour éliminer des éléments tels que le CO2 des flux de gaz.
Pendant la dernière décennie, les chercheurs ont décrit plusieurs nouveaux concepts de PSA qui
améliorent la performance des processus. Des résultats très prometteurs ont également été rapportés
avec Élimination du CO2 des gaz de combustion en utilisant une combinaison de PSA et TSA (PTSA)
[12].
La plupart des adsorbants ont des surfaces qui interagissent plus fortement avec le CO2 qu'avec un
autre gaz. Ces matériaux sont communément appelés à l'équilibre adsorbant, par exemple, charbon
actif, zéolithes et les charpentes organométalliques (MOF).
✓ Désorption sous vide ou VSA
Pour récupérer le composé adsorbé, au lieu de baisser la pression partielle de l’adsorbat en utilisant
par exemple un gaz de purge, il est possible de baisser la pression totale dans la colonne d’adsorption.
L’utilisation de pressions plus basses (vide plus ou moins poussé) diminue la charge résiduelle de
l’adsorbant [13].
I.4.2. Désorption par un changement de la température
Cette technique est généralement utilisée dans le cas de composés fortement adsorbés et pour des
systèmes contenant des adsorbats dont les affinités sont très différentes. Les procédés d’adsorption à
régénération thermique sont souvent simples à mettre en œuvre et flexibles mais ils consomment
beaucoup d’énergie [13].
✓ Adsorption à température modulée
L'adsorption à température modulée (TSA) est un procédé de séparation de mélanges gazeux au cours
duquel ont lieu alternativement l’adsorption d’un gaz par un solide ou un liquide à une température
donnée, puis sa désorption à une température plus élevée [12].
I.4.3. Désorption avec un gaz à chaud
L’énergie nécessaire à la désorption est apportée à l’aide d’un fluide caloporteur (air ou gaz inerte).
Cette méthode permet de pouvoir réaliser la régénération à haute température. Cependant, elle
présente certains inconvénients. En effet, en raison de la faible capacité calorifique du gaz, un volume
important est nécessaire. Ceci entraîne une dilution du composé désorbé, pour un coût énergétique
élevé. Avec certains adsorbants comme les charbons actifs, l’utilisation de l’air chaud comme gaz de
purge doit être évité. Ceci est dû aux risques d’oxydation de l’adsorbant [13].
✓ Désorption à la vapeur d’eau
Cette méthode de désorption est très utilisée par les procédés industriels notamment dans le domaine
du traitement des COV.

6
Chapitre I. Synthèse Bibliographique

I.5. Le rôle des Charpentes MOF dans l’adsorption de CO2


Séparer le dioxyde de carbone et le méthane de l'azote sans surcoût énergétique est un défi
technologique en raison de la similarité de leurs propriétés physico-chimiques.
I.5.1. Définition des MOFs
En termes simples, les charpentes organométalliques (MOF) sont des composés d'ions métalliques et
de molécules organiques qui forment des charpentes structurées. Ces matériaux avancés peuvent être
comparés à des éponges dotées de capacités uniques - être capables d'absorber, de retenir et de libérer
des molécules de leurs pores. Par conséquent, les cadres organométalliques (MOF) sont la classe de
matériaux à la croissance la plus rapide en chimie aujourd'hui. Par rapide, nous entendons plus de 20
000 MOF ont été trouvés au cours des 20 dernières années [14].
Les MOFs sont construits par l’assemblage d’unités de construction inorganiques (composées de
cations métalliques) et d’entités organiques également appelées ligands (Figure I.5) [14].

Figure I.5 : Représentation schématique d’un MOF, le PCN-9


L’entité inorganique peut être composée d’un cation métallique seul, d’un dimère, d’un trimère, d’un
tétraèdre ou encore de chaînes ou de plans, voire d’édifices tridimensionnels (Figure I.6) [14].

Figure I.6 : Entités inorganiques (clusters) avec en bleu les cations, en rouge les atomes d'oxygène
et en noir les atomes de carbone
Des structures uniformes, une porosité ajustable et une grande variété de fonctionnalités chimiques
offrent des solutions à diverses industries et à de nombreuses applications comme le montre les
figures suivantes (Figures I.7, I.8 et I.9) :

7
Chapitre I. Synthèse Bibliographique

Figure I.7: HKUST-1 / MOF-199 Figure I.8: UiO-66

Figure I.9 : UiO-67


Les MOFs présentent également d’autres avantages tels qu’une stabilité thermique suffisante pour
certaines applications en adsorption et la possibilité d’être fonctionnalisés (ajout d’un groupement
fonctionnel sur le ligand organique) [14].

8
Absorption
Chapitre I. Synthèse Bibliographique

I.6. Introduction
L’absorption consiste à mettre en contact un mélange de gaz et un liquide afin de solubiliser
préférentiellement un composé. Dans le liquide, ou solvant, le composé dissous s’appelle le soluté.
Cette opération nécessite un transfert de matière de la phase gazeuse à la phase liquide. La désorption
de ce composé s’effectue quand le transfert se fait de la phase liquide à la phase gazeuse. La solubilité
du gaz dans le liquide, à température et pression donnée, est la concentration du gaz dissous dans le
liquide à l’équilibre.
I.7. Les procédés les plus connues en absorption
Il existe plusieurs procédés pour le phénomène d’absorption dans l’industrie, cependant seulement
quelques-uns des procédés les plus utilisés seront cités dans ce chapitre.
I.7.1. Procédés d’absorption chimique aux amines
L’utilisation d’amines primaires est favorable à des flux de gaz à traiter se caractérisant par une faible
pression partielle en CO2. La monoéthanolamine (MEA) est l’amine de référence la plus étudiée pour
l’absorption du CO2. Celle-ci présente néanmoins un certain nombre de désavantages, le premier
résidant dans la forte pénalité énergétique liée à la régénération du solvant. De plus, la MEA est
sensible à la dégradation thermique et chimique, et se révèle corrosive, toxique et volatile [15].
Un certain nombre d’autres amines sont donc envisagées. La diéthanolamine (DEA) et la
triéthanolamine (TEA) sont testées mais ne sont pas encore commercialisées, leur capacité
d’absorption du CO2 est plus faible que celle de la MEA.
D’autres amines telles que les amines tertiaires ont été étudiées (MDEA) ou encore des amines
stériquement encombrées (liées à des groupes fonctionnels) qui se dégradent moins vite et forment
des sels moins stables avec le CO2, ce qui permet de réduire les coûts de régénération. Certains
solvants sont également élaborés à partir de mélanges d’amines (exemples : MEA - pipérazine, MEA
- MDEA, MEA - AMP). La diglycolamine (DGA) présente une forte capacitée d’absorption et
présente ainsi un potentiel intéressant au niveau des consommations d’énergie (Figure I.10) [15].

Figure I.10 : Schéma de principe du procédé d’absorption de CO2 par la MEA dans des contacteurs
classiques
9
Chapitre I. Synthèse Bibliographique

I.7.2. Procédé d’absorption chimique par solutions aqueuses inorganiques


Les solvants inorganiques qui peuvent être employés pour l’absorption chimique du CO2 sont le
carbonate de potassium, le carbonate de sodium ou l’ammoniac aqueux [16].
Le carbonate de potassium est dominant sur le marché et peut être utilisé dans des configurations
diverses. Les avantages de ce solvant est qu’il se caractérise par une faible enthalpie de réaction, se
dégrade et se volatilise peu [17].
I.7.3. Procédé d’absorption chimique par absorbants solides
Des absorbants solides sont également envisagés pour le captage du CO2 en postcombustion à hautes
températures. La mise en œuvre de ces hautes températures lors de l’étape de séparation du CO2
permet de réduire la pénalité énergétique par rapport à des systèmes d’absorption humides. En
principe, toutes les technologies d’absorption par solvants solides suivent le même schéma, présenté
ci-dessous (Figure I.11) [18].

Figure I.11 : Absorption du CO2 par absorbants solides


Les fumées issues de la combustion sont mises en contact avec l’absorbant solide dans un réacteur
favorisant le contact gaz-solide. Le solide peut ensuite être facilement séparé du flux de gaz et envoyé
dans un second réacteur pour être régénéré. Au lieu de faire déplacer le solide, il est également
possible de concevoir un seul réacteur batch pouvant fonctionner à la fois en mode absorption et
régénération (cycles). Un critère clé pour le développement de ces systèmes d’absorption est de
trouver un absorbant solide ayant une bonne capacité d’absorption du CO2 et une bonne stabilité
mécanique et chimique lui permettant de supporter de longues périodes d’opération sur des cycles
successifs [18].
I.7.4. Procédés d’absorption par solvants physiques
L’absorption du CO2 par des solvants dits « physiques » consiste à le séparer par dissolution sans
réaction chimique.
Les solvants physiques présentent les avantages suivants :
- Peu dégradables,
- Peu sujets à des réactions secondaires,
- Régénérables par simple abaissement de pression (éventuellement régénération thermique en
complément) et de façon très économique.
Les performances d’absorption dépendent majoritairement de la température de mise en contact et de
la pression partielle en CO2 dans les fumées. Une basse température et une pression partielle élevée
favorisent l’absorption dans la phase liquide [19].
10
Chapitre I. Synthèse Bibliographique

I.8. L’absorption de CO2 par Liquides Ioniques


I.8.1. Définitions
Les liquides ioniques sont des composés constitués uniquement d’ions. Le nombre théorique des
combinaisons possibles cation-anion est de l’ordre de 1018, qui fait que cette classe de composés est
une des plus grandes dans la science de la chimie. Aujourd’hui, plus de 350 liquides ioniques sont
disponibles commercialement [20].
L’étude de ces types de solvants par les scientifiques est justifiée par les propriétés uniques des
liquides ioniques.
Les liquides ioniques présentent des températures de fusions proches ou inferieures à la température
ambiante et restent à l’état liquide dans une large gamme de température [21]. Dans la plupart de cas,
les cations sont organiques et volumineux, tandis que les anions peuvent être organiques ou
inorganiques et plus petits [22]. Une autre propriété très importante, qui permet aux liquides ioniques
d’être impliqués dans des applications à très hautes températures ou à très basses pressions, est que
leur pression de vapeur est quasiment nulle [23]. Contrairement aux sels fondus classiques, les
interactions coulombiennes réduites entre les ions limitent la formation de paires d'ions nécessaires à
la volatilisation. Pour obtenir des liquides ioniques avec des pressions de vapeurs négligeables, les
ions doivent se répartir de façon uniforme, chaque ion est entouré d'une coque symétrique de la charge
opposée. C'est cette distribution qui minimise l'énergie potentielle électrostatique [24].
I.8.2. Applications des liquides ioniques [21]
• Comme solvants dans des réactions de synthèse et de catalyse. Par exemple les réactions de
cycloadition de Diels-Alder, l'alkylation et l'acylation Friedel-Crafts, les réactions
d'hydrogénation, d'hydroformylation, d'oxydation ou les réactions de Heck.
• Comme substituts aux solvants organiques traditionnels dans les systèmes biphasiques
intervenant dans les processus de séparation et d'extraction.
• Comme électrolytes en électrochimie.
• Comme solvant dans la synthèse de matériaux, et plus particulièrement de matériaux
nanostructurés: oxydes mésoporeux, nanoparticules métalliques ou particules anisotropes
(nanofeuillets ou nanorods).
• Leur stabilité thermique, leur caractère non inflammable et non volatil en font des solvants
d'avenir pour des procédés industriels.
• En biologie, dans la catalyse enzymatique, biocatalyse de cellule-entière et cristallisation de
protéines.
I.8.3. Captage de gaz dans les liquides ioniques :
L’absorption de dioxyde de carbone dans les liquides ioniques est plus importante (un ordre de
grandeur au moins) comparée à celle d’autres gaz comme l’azote, l’oxygène, l’hydrogène et l’éthane.
Le second intérêt des liquides ioniques réside dans le processus de régénération peu couteux d’un
point de vue énergétique, les interactions entre le dioxyde de carbone et les liquides ioniques étant
généralement de type physique [22].
Les mesures d’absorption de dioxyde de carbone ont débuté avec des liquides ioniques avec un cation
de type imidazolium et des anions hexafluorophosphate (PF6), bis(trifluoromethylsulfonyl) imide
(NTf2) ou tetrafluoroborate (BF4) avant de se tourner vers des liquides ioniques avec anion
tris(pentafluoroalkyl)trifluorophosphate (FAP) ou acétate (OAc). L’ensemble des progrès et les axes
11
Chapitre I. Synthèse Bibliographique

de développement futurs pour trouver des liquides ioniques appropriés pour le captage du dioxyde de
carbone ont également été discutés plus récemment. Les propriétés des liquides ioniques sont
comparées aux autres solvants commercialisés et si les capacités d’absorption de dioxyde de carbone
et de sélectivité sont suffisamment intéressantes comparativement à ces autres solvants, le coût ainsi
que le manque de données physicochimiques et thermodynamiques ou encore de données sur l’impact
environnemental reste un frein en vue d’une application à l‘échelle industrielle [23].

12
Réseau de neurones
Chapitre I. Synthèse Bibliographique

I.9. Introduction
Les réseaux de neurones artificiels ont été inspirés par le système nerveux biologique dont le but
était de réaliser des constructions capables de résoudre divers problèmes complexes.
La méthode neuronale est une technique qui ne nécessite pas la connaissance exacte des lois
physiques puisqu’elle va les extraire des données. Par contre, elle nécessite des données en nombre
important et offre l’avantage de traiter des phénomènes paramétrables par apprentissage sur des
données expérimentales représentatives.
L'objectif du présent travail est de contribuer à l’application de la méthode neuronale pour le calcul
et la modélisation des phénomènes d’Adsorption et Absorption du CO2.
Dans cette partie, nous allons voir comment cette structure est mise en œuvre et comment on peut
lui apprendre un problème spécifique.
Nous aborderons aussi les principales architectures des réseaux que l’on retrouve dans la
littérature. Vu le grand nombre de modèles de RNA (Réseau de neurones artificiels) nous ne
pourrons pas toutes les aborder, mais nous allons plutôt en comprendre les mécanismes
fondamentaux.
I.10. Neurone biologique et neurone artificiel
I.10.1. Le Neurone biologique :
Le neurone biologique est une cellule vivante spécialisée dans le traitement des signaux
électriques, il est représenté sur la figure I.12 [24].
Les neurones sont reliés entre eux par des liaisons appelées axones. Ces axones vont eux-mêmes
jouer un rôle important dans le comportement logique de l’ensemble. Ils conduisent les signaux
électriques de la sortie d’un neurone vers l’entrée (synapse) d’un autre neurone.
Les neurones font une sommation des signaux reçus en entrée (dendrites) et en fonction du résultat
obtenu vont fournir un courant en sortie [24].

Figure I.12 : Anatomie d'un neurone biologique.


Un neurone émet un signal en fonction des signaux qui lui proviennent des autres neurones, on
observe en fait au niveau d'un neurone, une intégration des signaux reçus au cours du temps, c'est
13
Chapitre I. Synthèse Bibliographique

à dire une sorte de sommations des signaux. En général, quand la somme dépasse un certain seuil,
le neurone émet à son tour un signal électrique [25], ceci est schématisé sur la figure I.13.

Figure 13 : Schéma du fonctionnement d’un neurone biologique.


I.10.2. Le neurone artificiel :
Un neurone formel ou artificiel, est la représentation mathématique simplifié d'un neurone
biologique. Un neurone possède des entrées qui peuvent être les sorties d'autres neurones, ou des
entrées de signaux extérieures, et une sortie. La valeur de la somme des entrées, pondérées par des
coefficients (dits poids de connexions ou poids synaptiques) et donne suite au calcul d'une fonction
non linéaire (dite fonction d'activation) de cette somme pondérée. Le résultat obtenu provoque ou
non le déclenchement d'un potentiel d'action suivant le dépassement d'un seuil, et sert à son tour
d'entrée à d'autres neurones [26], figure I.14.

Figure I.14 : neurone artificiel.


Un neurone formel peut être défini par les cinq éléments suivants :

• Entrées "Xi"
Typiquement, les valeurs d'entrée sont des stimuli externes en provenance de l'environnement ou
des sorties d'autres neurones artificiels.

• Poids synaptiques "Wi"


La première chose que fait un neurone formel est de calculer la somme pondérée de ses entrées :
𝑛
𝑃𝑠 = Σ𝑖=1 𝑤𝑖 𝑥𝑖 (I.1)

Les poids sont des valeurs réelles qui déterminent la contribution (force de connexion) de chaque
entrée. Un algorithme d'apprentissage permet de déterminer le meilleur ensemble de poids pour le
problème considéré.
14
Chapitre I. Synthèse Bibliographique

• Seuil "θ"
Le seuil est un nombre réel qui est soustrait de la somme pondérée des valeurs d'entrée. Pour des
raisons de simplicité, le seuil peut être vu comme une entrée supplémentaire associée à un poids.

• Fonction d’activation "F"


L'état que peut prendre un neurone est en général binaire mais il peut aussi bien prendre une valeur
discrète ou bien continue. Selon le type de cet état, différentes formes de la fonction d'activation
peuvent être distinguées comme le montre le tableau I.1 [26].
Tableau I.1. Fonctions d’activation les plus utilisées

• Sortie du neurone "Sr"


Le neurone artificiel calcule sa sortie grâce à l'équation (I.2), elle peut être discrète ou réelle selon
la fonction d'activation utilisée.
𝑛 𝑛
𝑆𝑟 = 𝐹(Σ𝑖=1 𝑤𝑖 𝑥𝑖 − 𝜃) = 𝐹(Σ𝑖=1 𝑤𝑖 𝑥𝑖 ) (I.2)

Une fois que la sortie est calculée, elle peut être passée à un autre neurone (ou groupe de neurones)
ou directement à l'environnement extérieur comme représenté par le schéma de la Figure I.15.

Figure I.15. Neurone formel.


15
Chapitre I. Synthèse Bibliographique

I.11. Analogie entre le neurone biologique et le neurone formel


Le tableau I.2 permet de voir clairement la transition entre le neurone biologique et le neurone
formel.
Tableau I.2. Analogie entre le neurone biologique et le neurone formel

Neurone biologique Neurone artificiel

Synapses Poids de connexions

Axones Signal de sortie

Dendrite Signal d’entrée

Somma Fonction d’activation

I.12. Réseaux de neurones


Un réseau de neurones artificiels est un processeur parallèle de traitement d’informations
distribuées, qui présente une propension naturelle à la mémorisation et à l’exploitation de
connaissances relatives à l’environnement dans lequel il est immergé, connaissances acquises à
partir de l’expérience. Sa structure repose sur une interconnexion massive de neurones formels
[26].
I.12.1. Architecture des réseaux
Les connexions entre les neurones qui composent le réseau décrivent la topologie du modèle. Elle
peut être quelconque, mais le plus souvent, il est possible de distinguer une certaine régularité [27].
Les deux classes d’architecture de réseau les plus importantes sont le réseau monocouche et le
réseau multicouche.
I.12.2. Réseau monocouche
La structure d’un réseau monocouche est telle que des neurones organisés en entrée soient
entièrement connectés à d’autres neurones organisés en sortie par une couche modifiable de poids.
Cette structure est représentée par la Figure I.16.

Figure I.16. Réseau Monocouche.

16
Chapitre I. Synthèse Bibliographique

I.12.3. Réseau multicouche


Les neurones sont arrangés par couche. Il n'y a pas de connexion entre neurones d'une même
couche, et les connexions ne se font qu'avec les neurones de couches avales. Habituellement,
chaque neurone d'une couche est connecté à tous les neurones de la couche suivante et celle-ci
seulement. Ceci nous permet d'introduire la notion de sens de parcours de l'information (de
l'activation) au sein d'un réseau et donc définir les concepts de neurone d'entrée et de neurone de
sortie. Par extension, on appelle couche d'entrée l'ensemble des neurones d'entrée, couche de sortie
l'ensemble des neurones de sortie. Les couches intermédiaires n'ayant aucun contact avec
l'extérieur sont appelées couches cachées. Ce type de réseau peut être schématisé par la Figure I.17
[24].

Figure I.17. Réseau Multicouche classique.


I.12.3.1. Le perceptron multicouche et ses propriétés
Le perceptron multicouche ou Multi-Layer Perceptron (MLP) est un réseau non bouclé avec une
architecture particulière : toutes les entrées sont connectées à tous les neurones d’une première
couche de neurones cachés où la fonction d’activation est une sigmoïde et tous les neurones de
cette couche sont connectés à tous les neurones de la couche suivante. Les neurones cachés sont
non-linéaires alors que les neurones de sortie sont linéaires ou non linéaires. La figure I.18 illustre
le perceptron multicouche dans le cas particulier d’une seule sortie [28].

Figure I.18. Perceptron multicouche à une couche de neurones cachés.


17
Chapitre I. Synthèse Bibliographique

I.12.3.1. Comment choisir le type d’algorithme d’apprentissage dans le perceptron


multicouche :
Il est très difficile de savoir quel algorithme d'apprentissage sera le plus rapide pour un problème
donné. Cela dépend de nombreux facteurs, notamment la complexité du problème, le nombre de
points de données dans l'ensemble d'apprentissage, le nombre de poids et de biais dans le réseau,
l'objectif d'erreur et si le réseau est utilisé pour la reconnaissance de formes (analyse discriminante)
ou approximation de fonction (régression). Cette section compare les différents algorithmes
d’apprentissage. Les réseaux « feedforward backpropagation » sont entraînés sur plusieurs
algorithmes d’apprentissages, nous citons deux d’entre eux que nous allons utiliser pour mener
nos expériences dans le chapitre III :

• Levenberg-Marquardt (LM) :
L'algorithme de Levenberg-Marquardt a été développé au début des années 1960 pour résoudre
des problèmes de moindres carrés non linéaires. Les problèmes de moindres carrés surviennent
dans le contexte de l'ajustement d'un modèle mathématique paramétré à un ensemble de points de
données en minimisant un objectif exprimé comme la somme des carrés des erreurs entre la
fonction du modèle et un ensemble de points de données. [29]
L'algorithme de Levenberg-Marquardt combine deux algorithmes de minimisation numérique : la
méthode de descente de gradient et la méthode de Gauss-Newton. Dans la méthode de descente de
gradient, la somme des erreurs au carré est réduite en mettant à jour les paramètres dans la direction
de descente la plus raide. Dans la méthode de Gauss-Newton, la somme des erreurs quadratiques
est réduite en supposant que la fonction des moindres carrés est localement quadratique dans les
paramètres, et en trouvant le minimum de cette quadratique.
L'algorithme de Levenberg-Marquardt fait varier de manière adaptative le changement des
paramètres entre la variation de descente de gradient et la variation de Gauss-Newton. [29]
La méthode de Levenberg-Marquardt agit plus comme une méthode de descente de gradient
lorsque les paramètres sont éloignés de leur valeur optimale, et agit davantage comme la méthode
de Gauss-Newton lorsque les paramètres sont proches de leur valeur optimale.

• Bayesian regularization (BR) :


Bayesian regularization est une fonction d'apprentissage du réseau qui met à jour les valeurs de
pondération et de biais selon l'optimisation de Levenberg-Marquardt. Il minimise une combinaison
d'erreurs au carré et de poids, puis détermine la combinaison correcte de manière à produire un
réseau qui se généralise bien. Le processus est appelé régularisation bayésienne. [30]
I.13. Types de réseaux de neurones
I.13.1. Réseaux de neurones bouclés
L’architecture la plus générale pour les réseaux de neurones est celle des réseaux bouclés, dont le
graphe des connexions est cyclique : lorsqu’on se déplace dans le réseau en suivant le sens des
connexions, il est possible de trouver au moins un chemin qui revient à son point de départ (un tel
chemin est désigné sous le terme de cycle). La sortie d’un neurone du réseau peut donc être

18
Chapitre I. Synthèse Bibliographique

fonction d’elle-même; cela n’est évidemment concevable que si la notion de temps est
explicitement prise en considération, figure I.19 [25].

Figure I.19. Exemple de réseau de neurones bouclé ou récurrent


I.13.2. Réseaux de neurones non bouclés
Un réseau de neurones non bouclé est présenté graphiquement par un ensemble de neurones
connectés entre eux. L’information circulant des entrées vers les sorties sans retour en arrière : si
l’on représente le réseau comme un graphe dont les nœuds sont les neurones et les arêtes les
connexions entre ceux-ci, le graphe d’un réseau non bouclé est acyclique : si l’on se déplace dans
le réseau, à partir d’un neurone quelconque, en suivant les connexions, on ne peut pas revenir au
neurone de départ, figure I.20 [25].

Figure I.20. Exemple de réseau de neurones non-bouclé.


Remarque :
Dans un réseau de neurones non bouclé, le temps ne joue aucun rôle fonctionnel : si les entrées
sont constantes, les sorties le sont également. Le temps nécessaire pour le calcul de la fonction
réalisée par chaque neurone est négligeable et on peut considérer ce calcul comme instantané.
Pour cette raison, les réseaux non bouclés sont souvent appelés « réseaux statiques », par
opposition aux réseaux bouclés ou « dynamiques ». Ils sont utilisés en classification,
reconnaissance des formes (caractères, parole, ...) et en prédiction [31].
19
Chapitre I. Synthèse Bibliographique

I.14. L’apprentissage des réseaux de neurones


La notion d’apprentissage recouvre deux réalités souvent traitées de façon successive :
- Mémorisation : le fait d’assimiler sous une forme dense des exemples éventuellement
nombreux,
- Généralisation : le fait d’être capable, grâce aux exemples appris, de traiter des exemples
distincts, non rencontrés encore, mais similaires [32].
L'apprentissage est une phase du développement d'un réseau de neurones durant laquelle le
comportement du réseau est modifié jusqu'à l'obtention du comportement désiré.
Durant cette phase de fonctionnement, le réseau adapte sa structure (le plus souvent, les poids des
connexions) afin de fournir sur ses neurones de sortie les valeurs désirées. Cet apprentissage
nécessite des exemples, aussi désignés sous l'appellation d'échantillon d'apprentissage, ainsi qu'un
algorithme d'apprentissage. Après initialisation des poids (en général des valeurs aléatoires), les
échantillons sont présentés au réseau, il en résulte le calcul des sorties correspondantes. Une valeur
d'erreur ou de correction est calculée et une correction des poids est appliquée.
I.14.1. Types d’apprentissage :
Au niveau des algorithmes d'apprentissage, il a été défini deux grandes classes selon que
l'apprentissage est dit supervisé ou non supervisé. Cette distinction repose sur la forme des
exemples d'apprentissages. Dans le cas de l'apprentissage supervisé, les exemples sont des couples
(Entrée, Sortie associée) alors que l'on ne dispose que des valeurs (Entrée) pour l'apprentissage
non supervisé [31].
I.14.2. Apprentissage supervisé
Dans ce mode d'apprentissage, les réponses désirées fournies par l'expert (ou éducateur) décrivent
la fonction du réseau. Le rôle de l'algorithme d'apprentissage est d'amener le réseau à remplir cette
fonction [26].
Au cours de l'apprentissage, on présente une entrée et on compare la sortie obtenue à la sortie
désirée fournie par l'expert. La différence entre la réponse désirée et la réponse du réseau est alors
utilisée pour adapter les paramètres du réseau de façon à corriger son comportement. Ce processus
est ainsi répété jusqu’à l’obtention d’une erreur jugée acceptable, figure I.21.

Figure I.21 : Illustration de l'apprentissage supervisé


20
Chapitre I. Synthèse Bibliographique

I.14.3. Apprentissage non supervisé


Contrairement à l'apprentissage supervisé effectué sous contrôle d'un expert, l'apprentissage non
supervisé est autodidacte. L'ensemble des exemples d'apprentissage ne comprend que des stimuli.
Aucune réponse désirée n'est associée.
Cet apprentissage consiste à détecter automatiquement des régularités qui figurent dans les
exemples présentés et à modifier les poids des connexions pour que les exemples ayant les mêmes
caractéristiques de régularité provoquent la même sortie. Ce type d'apprentissage est représenté
schématiquement en figure I.22 [26].

Figure I.22. Illustration de l'apprentissage non supervisé


I.15. Algorithme d’apprentissage
L’algorithme d’apprentissage est la méthode mathématique qui va modifier les poids de
connexions afin de converger vers une solution qui permettra au réseau d’accomplir la tâche
désirée. L’apprentissage est une méthode d’identifications paramétrique qui permet d’optimiser
les valeurs des poids du réseau [31].
Plusieurs algorithmes itératifs peuvent être mis en œuvre, parmi lesquels on note l’algorithme de
rétropropagation.
La technique de rétropropagation du gradient est une méthode qui permet de calculer le gradient
de l'erreur (fonction coût) pour chaque neurone du réseau, de la dernière couche vers la première.
D'après C.M. Bishop, il existe un grand nombre de fonctions de coûts possibles. Le choix de la
fonction utilisée pour l’apprentissage des réseaux de neurones multicouches a une certaine
influence sur la rapidité d’apprentissage et sur la qualité de généralisation du réseau [26].
La fonction de coût la plus utilisée est la suivante :

𝐸 = Σ𝑖 (𝑑𝑖 − 𝑠𝑖 )2 (I.3)
Qui est l'erreur ou distance quadratique entre la sortie calculée, si, et la sortie désirée, di. La
rétropropagation du gradient permet donc de minimiser la fonction de coût E. Toutefois cette
méthode ne garantit pas l'obtention du minimum global de la fonction (blocage dans un minimum
local). Dans ce cas la minimisation de l'erreur n'est pas optimale.
En résumé, l'algorithme de rétropropagation du gradient est défini par les étapes suivantes :
1. Initialisation des poids à des petites valeurs aléatoires ;
2. Présentation d'une entrée Xk et de la sortie désirée dk ;
21
Chapitre I. Synthèse Bibliographique

3. Calcul de la sortie actuelle par propagation à travers les couches


4. calculer un signal d’erreur entre la sortie réelle et la sortie désirée, en utilisant la formule I.3
5. Rétropropagation du gradient de l'erreur depuis la dernière couche vers la première couche.
6. corriger les poids pour minimiser l’erreur en utilisant la formule :
𝑡+1 𝑡 𝑡
𝑤𝑡𝑗 = 𝑤𝑡𝑗 + Δ𝑤𝑡𝑗 (I.4)

𝜕𝐸
Δ𝑤𝑖𝑗 = −𝜇
𝜕𝑤𝑖𝑗

μ : est un petit nombre positif qui représente le pas de déplacement en direction du minimum le
plus proche (pas d'apprentissage).
7. Répéter les étapes de 2 à 6 pour l'entrée suivante, jusqu'à ce que l'erreur en sortie soit inférieure
à la limite fixée ou que le nombre maximum d'itérations soit atteint.
I.16. Pas d’apprentissage
L'apprentissage avec la rétropropagation du gradient dépend fortement de la valeur donnée au pas
d'apprentissage, aussi appelé "gain d'adaptation", μ dans l'expression (I). Il présente un dilemme
s'il est trop grand, il peut entraîner des oscillations dans le cas contraire, le temps d'apprentissage
peut être infini. Habituellement, on fait varier le pas au cours du temps en prenant au début de
l'apprentissage des valeurs proches de "1", et en faisant tendre ce coefficient vers "0" [26].
I.17. Surapprentissage
Il arrive qu’à faire apprendre un réseau de neurones toujours sur le même échantillon, celui-ci
devient inapte à reconnaître autre chose que les éléments présents dans l’échantillon.
Le réseau ne cherche plus l’allure générale de la relation entre les entrées et les sorties du système,
mais cherche à reproduire les allures de l’échantillon. On parle alors de surapprentissage : le réseau
est devenu trop spécialisé et ne généralise plus correctement.
Ce phénomène apparaît aussi lorsqu’on utilise trop d’unités cachées (de connexions), la phase
d’apprentissage devient alors trop longue (trop de paramètres réglables dans le système) et les
performances du réseau en généralisation deviennent médiocres [31].
I.18. Le Critère d'arrêt pour l’apprentissage
Il est important de définir un critère d'arrêt pour l'algorithme d'apprentissage. En effet, un réseau
de neurones qui a appris par cœur l'ensemble d'apprentissage et qui est incapable de généraliser,
ne sert à rien.
Les données sont séparées en trois ensembles : un ensemble d'apprentissage, un ensemble de
validation et un ensemble de test. L'ensemble de test est utilisé pour contrôler la généralisation du
réseau. Pendant l'apprentissage, le coût sur les points d'apprentissage diminue, celui sur les points
de validation diminue jusqu'à un certain point, puis augmente. A partir de ce point, le réseau
apprend par cœur les données de l'ensemble d'apprentissage et l'algorithme doit être stoppé (Figure
I.23). En utilisant cette méthode, on trouve l'optimum de la généralisation sur la base de validation
pour l'architecture choisie et pour la fonction de coût choisie [33].
22
Chapitre I. Synthèse Bibliographique

Figure I.23 : Arrêt prématuré

I.19. Théorie de la généralisation


La généralisation concerne la tâche accomplie par le réseau une fois son apprentissage achevé.
Elle peut être évaluée en testant le réseau sur des données qui n’ont pas servi à l'apprentissage [26].
I.20. Conclusion :
Dans les deux premières parties de ce chapitre le principe d’adsorption et d’absorption ont été
définis, et les différentes méthodes et procédés pour réaliser ces phénomènes ont été énoncés.
Ainsi que l’existence et le rôle des MOFs et des Liquides Ioniques utilisés pour effectuer ces deux
procédés. C’est pour cette raison, que ces derniers ont été choisie lors de cette étude afin de
capturer le CO2.
Dans la dernière partie de ce chapitre il a été montré qu’un réseau de neurones dépend du choix de
l'architecture du réseau de neurones, du nombre de couches cachées, du nombre de neurones par
couche, de la fonction d'activation, de l'algorithme d'apprentissage et du nombre d’exemples pour
l’apprentissage.
Par ailleurs ce chapitre montre clairement tout l’intérêt de l’application des réseaux de neurones
dans le Génie des Procédés et en particulier en technologie pétrochimique (captage du CO2 en
postcombustion, précombustion, torchage, etc.).
Pour cette raison l’utilisation des réseaux de neurones artificiels sera élaborée afin de prédire la
solubilité et la concentration de CO2 capturé.
Dans le chapitre qui va suivre la procédure expérimentale qui a permis d’exploiter la méthode
neuronale sera évoqué.

23
Chapitre II :
Partie expérimentale
Chapitre II. Partie Expérimentale

II.1. Conception du réseau de neurones


Le présent travail a été obtenue à partir d’une base de données complète préparée à partir des
diverses sources académiques (annexe C).
Cette étude se divise en deux parties, la première se fera en utilisant les liquides ioniques comme
outils de captage du CO2, ensuite une deuxième partie en utilisant les MOFs comme adsorbant
sera développée.
La base de données sera divisée en trois (03) parties, 70% de la base de données seront consacrés
à l’apprentissage du réseau de neurones, 15% au test et 15% à la validation, cette partition est
réalisée automatiquement par MATLAB.
L’apprentissage du perceptron multicouche considéré, s’effectue à l’aide de l’algorithme de
rétropropagation du gradient, la modification des poids du réseau se fait par les méthodes de
Levenberg-Marquardt et Bayesian-Regularization, qui sont désignée sous MATLAB®
respectivement par TRAINLM et TRAINBR.
II.1.1. Conception pour les liquides Ioniques
Dans cette étude, des conditions spécifiques ont été élaborés en termes de température, température
critique, pression, pression critique, masse molaire ainsi que le coefficient acentrique.
II.1.1.1. Récolte de la base de données pour l’apprentissage de l’ANN
Le nombre d'échantillons préparés utilisés dans cette étude lors de la récolte de données est de 758
pour 13 ILs différents, les intervalles ainsi que les références de chaque paramètre sont illustrés
dans le tableau II.1.
Tableau II.1 : Intervalles de données des paramètres du réseau utilisé pour les liquides ioniques.

Paramètres Intervalle Références


Mw (Kg/Kmol) [De 408,38 à 253,36] [34 - 38]
Tc (K) [De 1196,86 à 1023,74] [34 - 38]
Pc (Mpa) [De 2,674 à 3,09] [34 - 38]
W [De 0,2753 à 0,42] [34 - 38]
T (K) [De 303,15 à 373,15] [34 - 38]
P (Mpa) [De 0,52 à 97,3] [34 - 38]
X2 (Fraction molaire) [De 0,186 à 0,6049] [34 - 38]

II.1.1.2. Modèle développé


Dans cette étude, deux méthodes d'apprentissage ont été utilisés (la MLP-LM et MLP-BR) pour
prédire la solubilité du CO2 dans différents Ils. A cet effet, la boite à outils réseaux de neurones
artificiels (NNTOOL) du logiciel MATLAB® R2014a a été utilisée, (Annexe A).
La prochaine étape après la préparation des données est la caractérisation des paramètres de sortie
et d'entrée du modèle.
À cet égard, la fraction molaire de CO2 (x) a été supposée être la sortie du ANN, et la pression (P),
la température (T) ainsi que les propriétés des ILs, y compris la pression critique (Pc), la

24
Chapitre II. Partie Expérimentale

température critique (Tc), le facteur acentrique (w), et la masse moléculaire (Mw) ont été choisis
comme six paramètres d'entrée.
Il convient de prendre en compte le fait que chaque liquide ionique a une valeur spécifique de T,
P, Tc, Pc, W et Mw.
Ces propriétés ont été estimées importantes pour cette étude à l'aide des approches de contribution
de groupe développées par Valderrama [39].
Pour ce faire, comprendre les paramètres influents le processus est indispensable pour contrôler la
réponse prédite dans cette étude étant la fraction molaire du CO2.
Les points de données préparés doivent être divisés en deux ensembles initialement. La première
catégorie, qui est employée pour le processus d’apprentissage, contient 736 points de données. Les
8 points de données restants ont été utilisés pour tester l'efficacité du modèle proposé.
Cette base de données doit être normalisée afin de faciliter le calcul avec la fonction de transfert.
Selon plusieurs études il est préférable de normaliser les entrées et sorties entre -0.9 et 0.9. La
fonction qui permet de faire ceci est la suivante :
y = (ymax – ymin) * (x - xmin)/(xmax - xmin) + ymin ………………………………………………..(II.1)
X : est l’élément du vécteur à normaliser (entrée ou sortie).
Xmax : est la valeur de l’élément le plus grand du vecteur à normaliser.
Xmin : est la valeur de l’élément le plus petit du vecteur à normaliser.
Y : est la valeur normalisée de x.
Ymax : est la valeur maximale de l’intervalle de normalisation c’est-à-dire 0.9.
Ymin : est la valeur maximale de l’intervalle de normalisation c’est-à-dire -0.9.
La commande qui réalise cette opération, MATLAB, est désignée par « mapminmax » [40]
II.1.2. Conception pour les MOFs
Tous comme on l’avait vu précédemment pour les ILs, deux approches dont MLP-LM et MLP-
BR ont aussi été utilisés pour estimer l’adsorption du CO2 par des MOFs classés dans de larges
gammes de conditions basées sur des données recueillies dans la littérature (annexe C).
II.1.2.1. Récolte de la base de données pour l’apprentissage de l’ANN :
La base de données enveloppe des conditions étendues en termes de température, de pression,
surface d’échange, ainsi que le volume poreux. Le nombre d'échantillons préparés utilisés dans le
travail actuel était de 504 pour 10 MOFs différents.
Les intervalles ainsi que les références de chaque paramètre sont illustrés dans le tableau II.2.

25
Chapitre II. Partie Expérimentale

Tableau II.2 : Intervalles de données des paramètres du réseau utilisé pour les MOFs.

Paramètres Intervalle Références


S (m2/g) [De 345 à 1800] [41]
T (K) [De 298 à 373,15] [42]
P (Mpa) [De 0,00 à 35,317] [43]
Vp [De 0,227 à 0,573] [44]
X1 (mmol/g) [De 0,0 à 15,0615] [45]

II.1.2.2. Modèle développé


Dans cette deuxième partie, les mêmes méthodes d'apprentissage précédentes ont été utilisés
(MLP-LM et MLP-BR) pour prédire la quantité de CO2 adsorbé dans différents MOFs. On suivra
les mêmes étapes susmentionnées
À cet égard, la concentration de CO2 (X) a été supposée être la sortie du ANN, et la pression (P),
la température (T) ainsi que les propriétés des MOFs, y compris le volume poreux (Vp), et la
surface d’échange (S), ont été choisis comme 4 paramètres d'entrée.
Les points de données préparés sont divisés en deux ensembles initialement. La première
catégorie, qui est employée pour le processus d’apprentissage, contient 497 points de données. Les
7 points de données restants ont été utilisés pour tester l'efficacité du modèle proposé.
Cette base de données doit être normalisée entre -0.9 et 0.9 avec la fonction (I) précédente.
II.2. Mise en œuvre des réseaux neuronaux
Les données collectées précédemment ont permis l’élaboration d’une base de données pour le
réseau neuronal. Cette dernière a été structurée sur un Fichier Excel avant d’être exportée sur le
logiciel de programmation MATLAB® où l’utilisation de la boite à outil « NNTOOL » était
nécessaire.
II.2.1. Fixation du nombre de couches cachées
Mis à part les couches d’entrée et de sortie, l’analyste doit décider du nombre de couches
intermédiaires ou cachées. Sans couche cachée, le réseau n’offre que de faibles possibilités
d’adaptation ; avec une couche cachée, il est capable, avec un nombre suffisant de neurones,
d’approximer toute fonction continue. Une seconde couche cachée prend en compte les
discontinuités éventuelles.
II.2.2. Choix de la fonction de transfert
La fonction tangente hyperbolique (TANSIG) a été considérée pour le passage de la couche
d’entrée à la couche cachée. Le passage de cette dernière à la couche de sortie sera sigmoïde.
II.3. Conclusion
En vue de l’importance que représente une collecte de données pour une étude expérimentale, le
choix de la procédure est une étape cruciale dont dépendent les résultats. C’est pour cette raison
que les étapes de conception du réseau de neurones cités plus haut ainsi que les données qui ont
été récoltées, serviront de support au réseau neuronal qui va être étudié plus en détails dans le
prochain chapitre.
26
Chapitre III :
Résultats et discussions
Chapitre III. Résultats et Discussion

L’objectif fixé est la détermination de la structure optimale du réseau, autrement dit du nombre de
neurones cachés optimale, qui permet la meilleure approximation de la fraction molaire (x) pour
les MOFs, et la meilleure approximation de la concentration en CO2 pour les liquides ioniques.
III.1. Modélisation pour les Liquides ioniques
Le choix du nombre de neurones à adopter pour les modèles (LM et BR) se fera suivant l’erreur
quadratique moyenne obtenue sur le système (EQMS). Ainsi, par tâtonnement, il a été possible de
récolter les résultats illustrés dans les tableaux III.1 et III.2, le reste des résultats se trouvent dans
l’annexe B.
III.1.1. Modélisation par l’algorithme de Levenberg Marquardt
Tableau III.1 : Erreur quadratique moyenne globale suivant le modèle MLP LM.

Nombre de neurones 2 3 4 … 16 17 18

Erreur 0.0082 0.0060 0.0027 … 0.0006 0.0005 0.0004

Le tableau III.1 montre l’évolution de l’erreur quadratique moyenne en fonction du nombre de


neurones dans une couche cachée pour le modèle MLP LM, le reste des données sont partagés en
détails en annexe B.
On remarque aussi que plus on augmente le nombre de neurones plus l’erreur diminue, un exemple
du développement d’un réseau à 2 neurones est illustré dans les figures III.1 et III.2 :

Figure III.1 : Courbe de performance pour une (01) couches cachées suivant le modèle MLP-
LM.
D’après la figure III.1 on remarque que l’erreur quadratique moyenne est de 8.2*10-3, alors que
dans la figure 2 suivante le R2≈0.98 ce qui est supposé être un bon résultat, par contre avec la
distribution des points de données n’est pas bonne car les points ne suivent pas la première
bissectrice, ce qui est expliqué par un mauvais apprentissage pour ce modèle proposé.

27
Chapitre III. Résultats et Discussion

Figure III.2 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour (01) couches cachées suivant le modèle MLP-LM.
Après plusieurs essaies (ANNEXE B), il a été conclu que le meilleur modèle de perceptron
multicouche devra comporter trois couches pour 18 neurones en utilisant le modèle MLP - LM, la
figure III.3 représente l’architecture de ce réseau :

• La première est constituée de six variables d’entrée.


• La seconde contiendra 18 neurones cachés.
• La troisième est constituée d’un seul neurone de sortie.

Figure III.3 : Schéma représentant le réseau de neurones obtenu pour les ILs avec le modèle LM.

28
Chapitre III. Résultats et Discussion

Le réseau de neurones qui a été choisi est celui avec dix-huit (18) neurones dans la couche cachée
car c’est celui qui présente l’erreur la plus faible (0.00045) avec un coefficient de détermination
R2 ≈0.998.
Les figures III.4 et III.5 illustrent la performance, et la régression pour dix-huit neurones dans la
couche cachée.
La figure III.4 représente l’évolution de l’erreur quadratique moyenne sur la base de
l’apprentissage (courbe bleue), sur la base de validation (courbe verte) et sur la base de test (courbe
rouge) en fonction du nombre d’itérations pour dix-huit (18) neurones dans la couche cachée.

Figure III.4 : Courbe de performance suivant le modèle MLP LM


L’évolution de l’apprentissage, la validation ainsi que le test est représenté dans la figure III.5. Il
se doit de noter que certains points ne se rapprochent pas des bissectrices dans le premier et le
dernier diagramme de régression, ceci est dû à une incapacité d’apprentissage du réseau de
neurones de la base de données dans ces points-là.

Figure III.5 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-LM
29
Chapitre III. Résultats et Discussion

III.1.1.1. Performance du réseau de neurones


La simulation du réseau de neurones sous MATLAB® se fait avec la commande « sim(net18 ,
entree) », avec « net18 » le nom attribué au réseau de neurones et « entree » la matrice d’entrée.
Les valeurs obtenues sont normalisées entre -0.9 et 0.9 et afin de les comparer avec les valeurs
expérimentales, une dénormalisation est effectué avec l’équation suivante :
x = (y – ymin) * (xmax - xmin)/(ymax - ymin) + xmin ……………………………………….(III.1)
Après dénormalisation du vecteur sorti du réseau de neurones avec l’équation précédente, une
courbe de parité (figure III.6) a été tracé afin de comparer les valeurs expérimentales avec celles
obtenues avec le réseau de neurones. On remarque que presque tous les points se dispersent au
tour de l’équation y=0.9878x + 0.0062 qui se rapproche de l’équation y=x.
Nous constatons que les modèles développés par la méthode neuronale pour l’algorithme LM sont
très satisfaisants, malgré une légère différence entre la fraction molaire calculés
expérimentalement et ceux calculés par le réseau de neurones.

Figure III.6 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction
molaire expérimentale.
III.1.1.2. Validation du réseau de neurones
Comme il a été cité dans le chapitre II, Les points de données préparés doivent être divisés en deux
ensembles initialement, où une partie de cette base de données (les 08 points cités précédemment)
va servir à la validation de l’efficacité du réseau de neurones.
Dans un premier temps le réseau de neurone développée ne va pas recevoir les huit (08) points
d’entrées durant son apprentissage, une fois les résultats obtenus, une simulation se fera de tel sorte
à ce que le réseau de neurones va recevoir les données qu’il n’avait pas vu précédemment, et
l’efficacité du réseau sera testé selon un tracé de graphe (Figure III.7).
La validation se fait sous MATLAB® avec la commande « sim(net18 , testin) » avec « net18 » le
nom attribué au ANN et « testin » la matrice d’entrée qui contient les huit (08) points que le réseau

30
Chapitre III. Résultats et Discussion

n’a pas encore appris. La droite de parité se trace en fonction de la validation « sim(net18 , testin) »
et la nouvelle matrice de sortie X avec le nom attribué « testout ».
Les valeurs obtenues sont normalisées entre -0.9 et 0.9, et afin de les comparer avec les valeurs
expérimentales, une dénormalisation est effectué avec l’équation (III.1)

Figure III.7 : Courbe de parité de la validation en fonction de la nouvelle fraction molaire


simulée pour le modèle LM - ILs.

D’après la figure III.7 presque tous les points sont répartis sur la 1ère bissectrice avec un R2≈ 0.99
ce qui veut dire que le réseau de neurone conçue est arrivé à simuler la majorité des points d’entrées
de la base de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de
neurone conçu pour ce modèle LM est performant.
III.1.2. Modélisation suivant l’algorithme de Bayesian Regularization
Le tableau III.2 montre l’évolution de l’erreur quadratique moyenne en fonction du nombre de
neurones dans deux couches cachées pour le modèle MLP BR, le nombre de neurones s’incrémente
progressivement de telle sorte que plus le nombre de neurones augmente plus l’erreur diminue. On
note que l’erreur quadratique moyenne la plus faible enregistré pour ce réseau est celle à une
EQMS=0.00057.
Tableau III.2 : Erreur quadratique moyenne globale suivant le modèle MLP BR.

Nombre de neurones dans la 1ère couche cachée 2 … 10 10

Nombre de neurones dans la 2ème couche cachée 1 … 11 12

Erreur quadratique moyenne de l’apprentissage 0.0079 … 0.00072 0.00057

Un exemple du développement d’un réseau à 2 et 1 neurones respectivement dans la 1ère et 2ème


couche cachée est illustré dans les figures III.8 et III.9.

31
Chapitre III. Résultats et Discussion

Figure III.8 : Courbe de performance pour deux (02) couches cachées suivant le modèle MLP-
BR.

Figure III.9 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données pour deux (02) couches cachées suivant le modèle MLP-BR.

D’après la figure III.8 on remarque que l’erreur quadratique moyenne est de 7.1*10-3, alors que
dans la figure 4 le R2≈0.98 ce qui est supposé être un bon résultat, par contre avec la distribution
des points de données n’est pas bonne car les points ne suivent pas la première bissectrice, ce qui
est expliqué par un mauvais apprentissage pour ce modèle proposé.
Après une série de test effectué, il a été conclu que le meilleur modèle de perceptron multicouche
devra comporter quatre couches dont dix (10) neurones seront réparties dans la première couche

32
Chapitre III. Résultats et Discussion

cachée et douze (12) dans la seconde couche cachée en utilisant le modèle MLP - BR, la figure
III.10 représente l’architecture de ce réseau :

Figure III.10 : Schéma représentant le réseau de neurones obtenu pour les ILs avec le modèle
BR.
Le réseau de neurones qui a été choisi est celui avec dix (10) neurones dans la première couche
cachée et douze (12) dans la seconde couche cachée, car c’est celui qui présente l’erreur la plus
faible (0.000575) avec un coefficient de détermination R2 ≈0.998.
La figure III.11 représente l’évolution de l’erreur quadratique moyenne sur la base de
l’apprentissage et du teste en fonction du nombre d’itérations pour deux couches cachées. La
performance est atteinte au bout de 971 itérations.

Figure III.11 : Courbe de performance suivant le modèle MLP BR pour les ILs.

33
Chapitre III. Résultats et Discussion

Figure III.12 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR pour les ILs.
III.1.2.1. Performance du réseau de neurones
Après dénormalisation du vecteur sorti avec l’équation (III.1), une courbe de parité (figure III.13)
a été tracé afin de comparer les valeurs expérimentales avec celles obtenues.

On remarque que presque tous les points se dispersent au tour de l’équation y = 1.002x +
2.22 ∗ 10 − 4 qui se rapproche de l’équation y=x, avec un R2=0.9958. Nous constatons que les
modèles développés par la méthode neuronale sont satisfaisants.

Figure III.13 : Courbe de parité entre la fraction molaire prédite en fonction de la fraction
molaire expérimentale.
34
Chapitre III. Résultats et Discussion

III.1.2.2. Validation du réseau de neurones


Pour la validation de ce modèle les mêmes étapes susmentionnées précédemment pour le modèle
LM seront suivit.
L’efficacité du réseau sera testée selon un tracé de graphe (Figure III.14).
La validation se fait sous MATLAB® avec la commande « sim(net10_12 , testin) » avec
« net10_12 » le nom attribué au ANN et « testin » la matrice d’entrée qui contient les huit (08)
points que le réseau n’a pas encore appris. La droite de parité se trace en fonction de la validation
« sim(net10_12 , testin) » et la nouvelle matrice de sortie X avec le nom attribué « testout ».

Figure III.14 : Courbe de parité de la validation en fonction de la nouvelle fraction


molaire simulé pour le modèle BR - ILs.

D’après la figure III.14 tous les points sont répartis sur la 1ère bissectrice avec un R2≈ 1 ce qui veut
dire que le réseau de neurone conçue est arrivé à simuler la majorité des points d’entrées de la base
de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de neurone
conçu pour ce modèle LM est d’une bonne performance.
III.2. Résultats de prédictions de la fraction molaire de CO2 par liquides ioniques
Le tableau III.3 représente une synthèse des résultats obtenues avec le meilleur résultat pour
chaque test, ainsi que la médiane pour chacun d’entre eux. On remarque que les deux meilleurs
résultats de la fraction molaire absorbé ont une grande corrélation pour une masse molaire (Mw),
une température critique (Tc), une pression critique (Pc), ainsi qu’un facteur acentrique (W)
constants.
D’où on déduit de ces résultats que les deux paramètres qui influent sur la fraction simulée sont la
température (T) et la pression (P).

35
Chapitre III. Résultats et Discussion

Tableau III.3 : Tableau récapitulatif des résultats suivant l’algorithme BR :

X2
Mw Pc P
Tc (K) W T (K) simulé
(Kg/Kmole) (MPa) (MPa)
(fraction)
Min 408,38 1196,86 2,674 0,2753 303,15 0,52 0,185
Données
Max 253,36 1023,74 3,09 0,42 373,15 97,3 0,607072
Les paramètres du
meilleur résultat
447,92 1292,78 2,3888 0,3893 353,15 36,63 0,8199
suivant l’algorithme
BR

Quant à la base de données LM, les résultats obtenus sont résumés dans le tableau III.4.
Tableau III.4 : Tableau récapitulatif des résultats suivant l’algorithme LM :

X2
Mw Pc P
Tc (K) W T (K) simulé
(Kg/Kmole) (MPa) (MPa)
(fraction)
Min 408,38 1196,86 2,674 0,2753 303,15 0,52 0,22288
Données
Max 253,36 1023,74 3,09 0,42 373,15 97,3 0,605689
Les paramètres du
meilleur résultat
447,92 1292,78 2,3888 0,3893 353,15 36,63 0,8204
suivant l’algorithme
LM

III.4. Modélisation pour les MOFs


Le choix du nombre de neurones à adopter pour les modèles (LM et BR) se fera suivant l’erreur
quadratique moyenne obtenue sur le système (EQMS). Ainsi, par tâtonnement, il a été possible de
récolter les résultats illustrés dans les tableaux 3 et 4, le reste des résultats se trouvent dans l’annexe
B.
III.4.1. Modélisation par l’algorithme de Levenberg Marquardt
L’évolution de l’erreur quadratique moyenne en fonction du nombre de neurones dans deux
couches cachées pour le modèle MLP LM (voir tableau III.5).

36
Chapitre III. Résultats et Discussion

Tableau III.5 : Erreur quadratique moyenne globale suivant le modèle MLP LM pour MOFs.

Nombre de neurones dans la 1ère couche cachée 2 … 6 6

Nombre de neurones dans la 2ème couche cachée 1 … 7 8

Erreur quadratique moyenne de l’apprentissage 0.0114 … 0.00064 0.00012

L’erreur quadratique moyenne la plus faible relevée dans les résultats du tableau III.5 pour ce
réseau est celle à une EQMS=0.00012, on remarque aussi que plus on augmente le nombre de
neurones plus l’erreur diminue. Un exemple du développement d’un réseau à deux (02) et un (01)
neurones respectivement dans la 1ère et la 2ème couche cachée est illustré dans les figures III.15 et
III.16 :

Figure III.15 : Courbe de performance suivant le modèle MLP LM pour les MOFs

37
Chapitre III. Résultats et Discussion

Figure III.16 : Diagramme de parité pour la base d’apprentissage, validation, de teste ainsi que
pour toute la base de données des MOFs pour deux (02) et un (01) neurones respectivement dans
la 1ère et la 2ème couche cachée suivant le modèle MLP-LM.

D’après la figure II.16 on remarque que l’erreur quadratique moyenne est de 4*10-2, alors que dans
la figure III.15 le R2≈0.87, avec une distribution arbitraire des points de données qui ne suivent
pas la première bissectrice ce qui est expliqué par un mauvais apprentissage pour ce modèle
proposé.
C’est pourquoi dans ce qui va suivre de ce travail on va utiliser plusieurs autres itérations jusqu’à
arriver au bon modèle de réseau de neurones.
Après plusieurs tests effectués pour différents nombres de neurones (tableau III.5), le meilleur
modèle de perceptron multicouche choisie comporte deux couches cachées dont six (06) et huit
(08) neurones répartis respectivement sur la première et la deuxième couche cachée (colonne en
bleu sur le tableau III.5), en utilisant le modèle MLP - LM, la figure III.17 représente l’architecture
de ce réseau :

38
Chapitre III. Résultats et Discussion

Figure III.17 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
LM.
Ce réseau de neurones a été choisie car c’est celui qui présente l’erreur la plus faible (0.0001288)
avec un coefficient de détermination globale R2 ≈0.99947.
Les figures III.18, III.19 illustrent la performance et la régression pour ce même réseau.

Figure III.18 : Courbe de performance suivant le modèle MLP LM pour les MOFs

39
Chapitre III. Résultats et Discussion

Figure III.19 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-LM

D’après la figure III.18 la performance est atteinte au bout de 158 itérations. L’évolution de
l’apprentissage, la validation ainsi que le test est représenté dans la figure III.19.
On remarque que pratiquement tous les points se rapprochent des bissectrices dans les quatre
diagrammes de régression, ce qui vérifie un bon apprentissage du réseau de neurones pour la base
de données étudié.
III.4.1.1. Performance du réseau de neurones :
Après dénormalisation du vecteur sorti du réseau de neurones avec l’équation précédente (III.1),
une courbe de parité (figure III.20) a été tracé afin de comparer les valeurs expérimentales avec
celles obtenues avec le réseau de neurones.
On remarque que presque tous les points se dispersent au tour de l’équation y=1.01x + 0.0002428
qui se rapproche de l’équation y=x, avec un R2=0.9919. Nous constatons que les modèles
développés par la méthode neuronale sont très satisfaisants, malgré une légère différence entre la
fraction molaire calculés expérimentalement et ceux calculés par le réseau de neurones.

40
Chapitre III. Résultats et Discussion

Figure III.20 : Courbe de parité entre la concentration prédite en fonction de la


concentration expérimentale pour le modèle LM - MOFs.
III.4.1.2. Validation du réseau de neurones :
Comme il a été cité dans le chapitre II, Les points de données préparés doivent être divisés en deux
ensembles initialement, où une partie de cette base de données (ici seulement 07 points seront
retiré de la base de données initiale) va servir à la validation de l’efficacité du réseau de neurones.
Pour la validation de ce modèle les mêmes étapes susmentionnées précédemment pour le modèle
des liquides ioniques seront suivit pour concevoir celui des MOFs.
L’efficacité du réseau sera testée selon un tracé de graphe (Figure III.21).
La validation se fait sous MATLAB® avec la commande « sim(net6_8 , testin) » avec « net6_8 »
le nom attribué au ANN et « testin » la matrice d’entrée qui contient les huit (07) points que le
réseau n’a pas encore appris. La droite de parité se trace en fonction de la validation « sim(net6_8
, testin) » et la nouvelle matrice de sortie X avec le nom attribué « testout ».

Figure III.21 : Courbe de parité de la validation en fonction de la nouvelle fraction


molaire simulé pour le modèle LM - MOFs.
41
Chapitre III. Résultats et Discussion
1

D’après la figure III.20 certains points s’éloignent de la 1ère bissectrice, avec un R2≈ 0,97 ce qui
veut dire que le réseau de neurone conçue est arrivé à simuler une majorité des points d’entrées de
la base de données qu’il n’avait pas appris précédemment, d’où il est conclu que le réseau de
neurone conçu pour ce modèle LM est assez performant.
III.4.2. Modélisation par l’algorithme de Bayesian Regularization :
L’évolution de l’erreur quadratique moyenne en fonction du nombre de neurones dans deux
couches cachées pour le modèle MLP BR est représenté dans le tableau suivant :
Tableau III.6 : Erreur quadratique moyenne globale suivant le modèle MLP BR pour MOFs

Nombre de neurones dans la 1ère couche cachée 2 … 8 8

Nombre de neurones dans la 2ème couche cachée 1 … 8 9

Erreur quadratique moyenne de l’apprentissage 0.0319 … 3.1212*10-05 1.8898*10-05

Le tableau III .6 montre l’évolution de l’erreur quadratique moyenne en fonction du nombre de


neurones dans deux couches cachées pour le modèle MLP LM. L’erreur quadratique moyenne la
plus faible enregistré pour ce réseau est celle à une EQMS=1,8898*10-05, on remarque aussi que
plus on augmente le nombre de neurones plus l’erreur diminue. Un exemple du développement
d’un réseau à deux (02) et un (01) neurones respectivement dans la 1ère et la 2ème couche cachée
est illustré dans les figures III.22 et III.23 :

Figure III.22 : Courbe de performance suivant le modèle MLP BR pour deux (02) et un (01)
neurones dans la 1ère et la 2ème couche cachée pour les MOFs.

42
Chapitre III. Résultats et Discussion

Figure III.23 : Diagramme de parité pour la base d’apprentissage, de validation, de test ainsi que
pour toute la base de données suivant le modèle MLP-BR pour deux (02) et un (01) neurones
dans la 1ère et la 2ème couche cachée.
D’après la figure III.22 on remarque que l’erreur quadratique moyenne est de 3.19*10-2, alors que
dans la figure III.23 le R2≈0.89, avec une distribution arbitraire des points de données qui ne
suivent pas la première bissectrice ce qui est expliqué par un mauvais apprentissage pour ce modèle
proposé.
Le meilleur réseau de neurone choisi pour ce modèle d’algorithme (MLP-BR) comporte deux
couches cachées, dont 8 et 9 neurones sont répartis respectivement sur la première et la deuxième
couche cachée, la figure III.24 représente l’architecture de ce réseau :

Figure III.24 : Schéma représentant le réseau de neurones obtenu pour les MOFs avec le modèle
d’algorithme BR.
43
Chapitre III. Résultats et Discussion

Ce réseau de neurones a été choisi car c’est celui qui présente l’erreur la plus faible
(1,8898 × 10-5) avec un coefficient de détermination globale R2 ≈0.99991.
Les figures III.25, III.26, illustrent la performance, l’état de l’apprentissage et la régression pour
ce même réseau.

Figure III.25 : Courbe de performance suivant le modèle MLP BR.

Figure III.26 : Diagramme de parité pour la base d’apprentissage, de test ainsi que pour toute la
base de données pour deux couches cachées suivant le modèle MLP-BR.

44
Chapitre III. Résultats et Discussion

La figure III.25 représente l’évolution de l’erreur quadratique moyenne sur la base de


l’apprentissage et du teste en fonction du nombre d’itérations pour deux couches cachées. La
performance est atteinte au bout de 761 itérations.
On remarque que l’évolution de l’apprentissage et celui du test globale (figure III.26) pour le
modèle MLP-BR est légèrement meilleur (différence de 0.00044) que celle étudié pour le modèle
MLP-LM.
III.4.2.1. Performance du réseau de neurones :
Après dénormalisation du vecteur sorti du réseau de neurones avec l’équation précédente (III.1),
une courbe de parité (figure III.27) a été tracée afin de comparer les valeurs expérimentales avec
celles obtenues.
On remarque que presque tous les points se dispersent au tour de l’équation y=0.9983x + 7.4*10-
05
qui se rapproche de l’équation y=x, avec un R2=0.9996. Nous constatons que les modèles
développés par la méthode neuronale sont très satisfaisants.

Figure III.27 : Courbe de parité entre la concentration prédite en fonction de la


concentration expérimentale.
III.4.2.2. Validation du réseau de neurones :
Pour la validation de ce modèle les mêmes étapes susmentionnées précédemment pour le modèle
LM seront suivit.
L’efficacité du réseau sera testée selon un tracé de graphe (Figure III.28).
La validation se fait sous MATLAB® avec la commande « sim(net8_9 , testin) » avec « net8_9 »
le nom attribué au ANN et « testin » la matrice d’entrée qui contient les huit (08) points que le
réseau n’a pas encore appris. La droite de parité se trace en fonction de la validation « sim(net8_9
, testin) » et la nouvelle matrice de sortie X avec le nom attribué « testout ».

45
Chapitre III. Résultats et Discussion

Figure III.28 : Courbe de parité de la validation en fonction de la nouvelle fraction


molaire simulée pour le modèle BR - MOFs.

D’après la figure III.28 les points de la base de données ont une bonne corrélation avec la 1ère
bissectrice, avec un R2≈ 0,996 ce qui veut dire que le réseau de neurone conçue est arrivé à simuler
la majorité des points d’entrées de la base de données qu’il n’avait pas appris précédemment, d’où
il est conclu que le réseau de neurone conçu pour ce modèle LM est d’une bonne performance.
III.5- Résultats de prédictions de la concentration de CO2 par MOFs :
Le tableau III.7 représente une synthèse des résultats obtenus avec le meilleur résultat pour chaque
test, ainsi que la médiane pour chacun d’entre eux. On remarque que les deux meilleurs résultats
de la fraction molaire adsorbée ont une grande corrélation pour une masse molaire (Mw), une
température critique (Tc), une pression critique (Pc), ainsi qu’un facteur acentrique (W) constants.
Tableau III.7 : Tableau récapitulatif des résultats suivant l’algorithme BR pour MOFs.

S Vp X1 simulé
T (K) P (Bar)
(m2/g) (cm3/g) (mmol/g)
Min 298 0,00 345 0,227 8,38*10-15
Données
Max 313 35,317 1800 0,573 6,704
Les paramètres du meilleur résultat
298 36,100 4508 1,59 15,086
suivant l’algorithme BR

Ci-dessous le tableau III.8 qui représente les résultats de la concentration simulé suivant
l’algorithme LM.

46
Chapitre III. Résultats et Discussion

Tableau III.8 : Tableau récapitulatif des résultats suivant l’algorithme LM pour MOFs.

X1
S Vp
T (K) P (Bar) simulé
(m2/g) (cm3/g)
(mmol/g)
Min 298 0,00 345 0,227 0,677
Données
Max 313 35,317 1800 0,573 7,045
Les paramètres du meilleur résultat
298 34,000 4508 1,59 14,825
suivant l’algorithme LM

Dans les résultats de ces deux tableaux précédents (III.7 et III.8) les paramètres d’entrées sont les
mêmes, mais une légère différence de la sortie « X simulé » est notée, ce qui peut être expliqué
par la performance d’un algorithme d’apprentissage par rapport à l’autre (BR et LM), ou bien
quelques points n’ont pas été pris en considération lors de l’apprentissage de l’un des deux modèles
d’algorithme étudié lors de cette expérience.
III.6- Comparaison entre les résultats obtenue avec les algorithmes MLP-LM et MLP-BR :
III.6.1. Pour les Liquides Ioniques :
Sur la base des résultats des figures précédentes, les algorithmes LM et BR offrent de bonnes
performances de classification avec une précision de test R2 ˃ 0.90. Cependant, l'algorithme BR
s'est avéré légèrement meilleur avec des performances de classification de R2 ≈0.9980, tandis que
l'algorithme LM parvient à obtenir une précision de test de R2 ≈0.9975.
Afin d'obtenir des performances de classification optimales, le nombre de couches cachées requis
pour les deux algorithmes était de 1 et 2, tandis que le nombre d'itérations d'apprentissage était de
483 et 972, respectivement pour LM et BR. Ici, l'algorithme BR nécessitait plus de couches
cachées pour fournir la capacité de généralisation élevée.
III.6.2. Pour les MOFs :
Sur la base des résultats des figures précédentes, on remarque que l'algorithme BR s'est avéré
légèrement meilleur avec des performances de classification de R2 ≈0.99991, tandis que
l'algorithme LM parvient à obtenir une précision de test de R2 ≈0.99947.
Afin d'obtenir des performances de classification optimales, le nombre de couches cachées requis
pour les deux algorithmes était de 2, tandis que le nombre d'itérations d'apprentissage était de 158
et 771, respectivement pour LM et BR.
Ainsi, en utilisant les 4 caractéristiques d'entrée globales, l'algorithme BR s'est avéré être un
meilleur algorithme d'entraînement avec une précision de test élevée, afin d'obtenir les
performances optimales pour la prédiction de la concentration de CO2 adsorbé dans les MOFs.

47
Chapitre III. Résultats et Discussion

III.7- Conclusion :

Le réseau MLP formé à l'aide des algorithmes LM et BR a été utilisé pour prédire la fraction
molaire et la concentration de CO2 dans les liquides ioniques et les MOFs respectivement.
Ici, plusieurs caractéristiques des liquides ioniques et MOFs dont on site principalement la
température et la pression, ont été utilisées comme entrées du réseau neuronal. Les résultats
montrent que ces caractéristiques proposées donnent une bonne capacité de prédiction.
De plus, en utilisant les algorithmes LM et BR, une bonne performance de prédiction a été obtenue.
Cependant, le réseau MLP formé à l'aide de l'algorithme de régulation bayésienne (BR) s'est avéré
légèrement meilleur avec des performances de classification de R2 ≈0.9980 et R2 ≈0.9999 pour les
liquides ioniques et MOF respectivement. Ainsi, le résultat démontre de manière significative la
pertinence des caractéristiques utilisées comme entrées de notre ANN et de la prédiction proposées
à l'aide du réseau MLP.
Cependant, il faudra prendre en considération que les conditions opérationnelles lors de la
conception de la base de données, les erreurs lors de la conception du réseau de neurones ainsi que
les critères économiques de la matière utilisé pour le captage de CO2 influent sévèrement sur la
conception du réseau de neurone et donc sur les résultats obtenus.
On pourra donc dire que les deux algorithmes utilisés (LM et BR) restent une bonne solution pour
déterminer les conditions opératoires optimales au captage du CO2 par les liquides ioniques et
MOFs.

48
Conclusion Générale
Conclusion Générale :
Le cœur de ce travail a consisté à mettre au point une nouvelle méthodologie qui permet de
connaitre la quantité capturée en fonction des paramètres qui influent sur ce dernier en utilisant
deux phénomènes de captage différents l’adsorption et l’absorption par une approche qui connait
un grand succès dans le domaine des sciences de l’ingénieur, à savoir, les réseaux de neurones
artificiels.
Dans ce présent travail, un réseau de neurones a été créé pour prédire la quantité capturée de CO2.
Le réseau élaboré relie dans un premier modèle la fraction molaire du CO2, ensuite la concentration
de ce dernier, avec les différents paramètres qui influent sur lui (Pression, température, coefficient
acentrique, masse moléculaire, surface spécifique, volume poreux, température critique, pression
critique). Ce réseau permet de prédire la quantité de CO2 capturé sous diverses conditions sans
aucune expérience.
Après avoir réalisé plusieurs recherches dans le but de constituer une base de données, la
réalisation de ce réseau est passée par une succession de choix et de décisions :
Il existe différents types de réseaux neuronaux qui trouvent leurs applications dans divers
domaines pour la réalisation de différents objectifs. Après une étude théorique, il a été constaté
que les réseaux de neurones non bouclés (statique) à apprentissage supervisé de type Multi Layer
Perceptron (MLP) sont les mieux adaptés pour prédire la quantité de CO2 capturé.
Il reste maintenant à choisir la manière d’effectuer l’apprentissage de cet MLP. Deux méthodes
ont été étudiées dans ce travail, à savoir Levenberg-Marquardt (LM) et Bayesian Regularization
(BR). La méthode la plus rapide et la plus efficace consiste, dans ce cas, à évaluer le gradient de
la fonction de coût par rétropropagation et à modifier les paramètres du réseau par la méthode de
Bayesian Regularization.
Les réseaux élaborés ont fourni de très bons résultats, ceci prouve l’aptitude des réseaux de
neurones à résoudre ce genre de problème. En perspective, il serait donc intéressant :

- D’étudier plus de paramètres qui influent sur la capture du CO2 comme l’écoulement des
particules, la viscosité des absorbants, l’humidité des adsorbants, étudier le phénomène sur
un autre type d’absorbant et adsorbant, …etc.
- L’utilisation de ce modèle à l’échelle industrielle pourrait rendre d’énormes services car il
permet de s’abstenir de l’analyse de l’absorbant pour déterminer sa capacité de captage de
CO2.

49
Références
bibliographiques
Références bibliographiques
[1]: Victor DG, Zhou D, Ahmed EHM, Dadhich PK, Olivier JGJ, Rogner H-H, Sheikho K,
Yamaguchi M. (2014): Introductory Chapter. In: Climate Change: Mitigation of climate change.
Contribution of working group III to the fifth assessment report of the intergovernamental panel
on climate change. [Edenhofer O, Pichs-Madruga R, Sokona Y, Farahani E, Kadner S, Seyboth K,
Adler A, Baum I, Brunner S, Eickemeier P, Kriemann B, Savolainen J, Schlömer S, von Stechow
C, Zwickel T and Minx JC (eds)]. Cambridge University Press, New York.
[2] : Wiersum AD, Chang JS, Serre C, Llewellyn PL. (2013), An adsorbent performance indicator
as a first step evaluation of novel sorbents for gas separations: Application to metal-organic
frameworks. Langmuir ; 29 : 10, 3301–3309.
[3]: Capture par adsorption de CO2 dans des gaz de centrales thermiques et leur injection en puits
de pétrole P- 4
[4]: MOTOYUKI Suzuki, professor, Institute of industrial science, university of Tokyo, Tokyo 1,
Adsorption engineering
[5]: Yahiaoui, N. (2012), Etude de l'adsorption des composés phénoliques des margines d'olive sur
carbonate de calcium, hydroxypatite et charbon actif, Mémoire de Magister, Université de Tizi
Ouzou.
[6]: Mellah, A.K. (2012), Adsorption de produits pharmaceutiques sur le charbon actif en poudre
en vue de leur élimination, Mémoire de Magister, Ecole Nationale Polytechnique, Alger.
[7]: R. Xu, W. Pang, J. Yu, Q. Huo, J. Chen. (2007), Chemistry of Zeolites and Related Porous
Materials.
[8] : Ralph T. Yang, Dwight F. (2003) Benton Professor of Chemical Engineering University of
Michigan. Adsorbents: Fundamentals and Applications. P 146, by John Wiley & Sons, Inc. All
rights reserved.
[9]: Ratel, Larysa, Frédéric Kuznik, and Kévyn Johannes (2021), "Open Sorption Systems."
[10]: Draoui K., R. Denoyel, M. Chgoura, J. Rouquerol, J. (1999) Therm. Anal. Catal. 58 597.
[11]: Procédé d’adsorption avec régénération « lelctrochimique pour la capture du dioxyde de
carbone en post combustion, Nabill Ettlili, Hal , université Lorraine,29 mars 2018 – P 31- 32 - 33-
36 -
[12]: Maring BJ and Webley PA. A (2013) new simplified pressure/vacuum swing adsorption
model for rapid adsorbent screening for CO2 capture applications. Int. J. Greenh. Gas Control; 15,
16–31.
[13]: Marx D, Joss L, Hefti M, Gazzani M, Mazzotti M. (2015) CO2 Capture from a Binary CO2 /
N2 and a Ternary CO2 / N2 / H2 Mixture by PSA: Experiments and Prediction. Ind. Eng. Chem.
Res.; 54, 6035-6045.
[14]: Hong-Cai, Zhoua and Susumu Kitagawab (2014), Metal-Organic Frameworks (MOFs),
Chem. Soc. Rev., P 43, 5415
[15]: Chou C.AT. and Chen C.AY. (2004) , Carbon dioxide recovery by vacuum swing adsorption,
separation and purification technology", 2004, 39 51 - 56
[16]: Study of the CO2 capture with physical absorption n an electricity production system based
on coal gaseification with an integrated cycle, Cathy Descamps, Hal, 12 oct 2009.
[17]: Gupta, M., Coyle, I., Thambimuthu, K. (2003) CO2 capture technologies and opportunities
in Canada. 1st Canadian CC&S Technology Roadmap Workshop: s.n.
[18]: Intergovernmental Panel on Climate Change. Carbon Dioxide Capture and Storage - Chapter
3. 2005.
[19] : Lecomte, F., Broutin, P., Lebas, E. (2010), Le captage du CO2. s.l. : Editions TECHNIP -
IFP Publications.
[20]: Domanska, U. (2009) Ionic Liquids in Chemical Analysis, Koel, M. (Eds.), Taylor & Francis
Group, New York, p. 1-71.
[21]: Crosthwaite, J. M.; Muldoon, M. J.; Dixon, J. K.; Anderson, J. L.; Brennecke, J. F. J. ((2005),
Chem. Thermodyn.,37, 559-568.
[22]: Keskin, S.; Kayrak-Talay, D.; Akman, U.; Hortacsu, O. J. (2007), Supercrit. Fluids, 43, 150-
180.
[23] : Seddon, K. R.; Stark, A.; Torres, M. J. (2000) Pure Appl. Chem., 72, 2275-2287.
[24] : M. WEINFELD. Réseaux de neurones. Technique de l‟ingénieur.

[25]: B. KAHINA. Modélisation du procédé d’hydrotraitement du gasoil à l’aide des réseaux de


neurones artificiels. UNIVERSITE M‟HAMED BOUGARA BOUMERDES, 2008.
[26] : Hassani, D. (2009) Méthode des réseaux de neurones pour le calcul des paramètres
pertinents des phénomènes de transports, Université des Sciences et de la Technologie Houari
Boumediene (USTHB).
[27] : Davalo E. and P. Naïm, (1993), Les Réseaux de Neurones, Eyrolles, 2ème édition edition
Mar.
[28] : L. K. Siou. Modélisation des crues de bassins karstiques par réseaux de neurones. Cas du
bassin du Lez (France). Université de Montpellier II, Sciences et Techniques du Languedoc, 2011.
[29] : Henri P. Gavin, (September 18, 2020),The Levenberg-Marquardt algorithm for nonlinear
least squares curve-fitting problems.
[30] : Ammar MY., (2007), Mise en oeuvre de réseaux de neurones pour la modélisation de
cinétiques réactionnelles en vue de la transposition Batch/Continu, Thèse de Doctorat de l‟I.N.P.
Toulouse.
[31] : Ammar MY., (2007), Mise en oeuvre de réseaux de neurones pour la modélisation de
cinétiques réactionnelles en vue de la transposition Batch/Continu, Thèse de Doctorat de l‟I.N.P.
Toulouse.
[32] : L. K. Siou., (2011), Modélisation des crues de bassins karstiques par réseaux de neurones.
Cas du bassin du Lez (France). Université de Montpellier II, Sciences et Techniques du
Languedoc.
[33]: Kalogirou S., S. Panteliou, A. Dentsoras, Artificial neural networks used for the performance
prediction of a thermosiphon solar water heater, Renewable Energy, 1999.
[34]: Millward AR, Yaghi OM. Metal- organic frameworks with exceptionally high capacity for
storage of carbon dioxide at room temperature. J Am Chem Soc 2005; 127:17998–9.
[35] : Tranchemontagne DJ, Hunt JR, Yaghi OM. (2008), Room temperature synthesis of
metalorganic frameworks: MOF-5, MOF-74, MOF-177, MOF-199, and IRMOF-0. Tetrahedron
;64:8553–
[36] : Zhang M, Zhou W, Pham T, Forrest KA, Liu W, He Y, et al. (2017) Fine Tuning of MOF-
505 Analogues To Reduce Low-Pressure Methane Uptake and Enhance Methane Working
Capacity. Angew Chemie Int Ed ;56:11426–30.
[37] : Srinivas G, Krungleviciute V, Guo Z-X, Yildirim T. (2014) Exceptional CO 2 capture in a
hierarchically porous carbon with simultaneous high surface area and pore volume. Energy &
Environ Sci ;7:335–42.
[38]: Kumar RS, Kumar SS, Kulandainathan MA. (2013) Efficient electrosynthesis of highly
active Cu3 (BTC) 2-MOF and its catalytic application to chemical reduction. Microporous
Mesoporous Mater ;168:57–64.
[39]: Valderrama, J., Robles, P., (2007), Critical properties, normal boiling temperatures, and
acentric factors of fifty ionic liquids. Ind. Eng. Chem. Res. 46, 1338–1344.
[40]: Mahdi, Y. (2017) Etude de la microencapsulation dans un système microfluidique., USTHB
[41]: High-pressure phase behavior of binary mixtures containing methylpyrrolidinium derivative
ionic liquids and carbon dioxide Seol A Kim, Joon-Hyuk Yim, Jong Sung Lim.
[42]: Solubility of carbon dioxide in three [Tf2N] ionic liquids Ali Tagiuri, Kazi Z. Sumon, Amr
Henni.
[43]: CO2 solubility measurement in 1-hexyl-3-methylimidazolium ([HMIM]) cation based ionic
liquids Joon-Hyuk Yim, Jong Sung Lim.
[44]: Solubility of CO2 in ionic liquids containing cyanide anions: [c2mim][SCN],
[c2mim][N(CN)2], [c2mim][C(CN)3] Ji Eun Kima, Hak Joo Kimb, Jong Sung Lim.
[45]: Measurement of CO2 Solubility in Ionic Liquids: [BMP][Tf2N] and [BMP][MeSO4] by
Measuring Bubble-Point Pressure Joon-Hyuk Yim, Ha Na Song, Ki-Pung Yoo, and Jong Sung
Lim.
Annexes
ANNEXE A
Espace de travail sure MATLAB

Figure : Boite à outils du réseau de neurones (NNTOOL) pour le modèle des Ils.

Figure : représentation d’un réseau de neurones artificiel pour le modèle des Ils.
ANNEXE B
Résultats des mauvaises prédictions pour différents nombres de neurones

Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Figure : Courbe de performance suivant le modèle MLP LM

Figure : Diagramme de parité pour la base d’apprentissage suivant MLP LM


Annexe C
Méthodes d’obtention des bases de données dans la litérature
IV.1- Matériel et méthode :
Dans cette partie sera présenté en premier lieu les caractéristiques matières premières ayant servie
à la capture du CO2.
Dans un second temps, le dispositif expérimental a été exposé afin de caractériser le processus
expérimental.
En fin, la procédure expérimentale pour développer les modèles utilisés pour la construction des
réseaux de neurones ont été mis en évidence
IV.1.1 Liquides Ioniques :
IV.1.1.1. Introduction :
Alors que les études de mesures de solubilité de H2S, N2O, SO2, NH3, H2, O2 et CH4 dans les
liquides ioniques sont peu nombreuses, les mesures de solubilité pour les systèmes CO2-ILs ont
été étudié de manière extensive [34] [35] [36].
Dans cette étude, deux approches dont MLP-LM et MLP-BR ont été utilisés pour estimer la
solubilité du CO2 avec différents types de liquides ioniques dans de larges gammes de conditions
opératoires basées sur des données recueillies dans la littérature et présentées dans le tableau 1.
Tableau 1 : Noms des ILs utilisés, la concentration en CO2 et les plages de température et de
pression ainsi que les références.
Liquide [C3mpy][Tf2N] [bmmim][tf2N] [P(5)mpyrr][Tf2N] [HMIM][Tf2N] [HMIM][TfO]
ionique
[HMIM][BF4] [HMIM][MeSO4] [HMIM][PF6] [C2mim][SCN] [c2mim][N(CN)2]
[c2mim][C(CN)3] [BMP][Tf2N] [BMP][MeSO4]

Ces outils sont simples à appliquer et peuvent éviter des mesures expérimentales chronophages et
des appareils expérimentaux coûteux ainsi que des procédures d'interprétation compliquées.
IV.1.2- Caractérisation de matières utilisées :
Plusieurs matériaux seront exposés dans cette partie, afin de maitriser le phénomène étudié.
Au cours de cette étude, 13 liquides ioniques ont été utilisés. Pour chaque Ils des mesures ainsi
que des conditions opératoires spécifiques leurs ont été attribué.
IV.1.2.1- Produits chimiques :
Les 13 liquides ioniques seront divisés en 5 parties selon les 5 références (étude scientifique)
utilisées pour la réalisation de ce mémoire « [34 - 38] »
IV.1.2.1.a- Caractéristiques des liquides ioniques de la partie 1 :
Les liquides ioniques [BMP][Tf2N] et [BMP] - [MeSO4] ont été achetés auprès de C-TRI (Corée).
Les données de pureté de [BMP][Tf2N] et [BMP][MeSO4] sont présentés dans le tableau 2.
Tableau 2. Données de pureté [BMP][Tf2N] and [BMP][MeSO4]

Liquides ioniques [BMP][Tf2N] [BMP][MeSO4]


description Liquids incolors liquide jaunâtre pâle
teneur en eau 32 x 10-6 fraction massique 40 x 10-6 fraction massique
teneur en chlorure 15 x 10-6 fraction massique 30 x 10-6 fraction massique
Pureté >99% >99%

Les structures chimiques de [BMP][Tf2N] et [BMP][MeSO4] sont décrites dans la figure 1.

Figure. 1 : Structure chimique des liquides ioniques : (a) [BMP][Tf2N] et (b) [BMP][MeSO4].
Le dioxyde de carbone de haute pureté (99,995 %) utilisé pour les mesures a été acheté auprès de
Deokyang Gas Co. (Corée). Les liquides ioniques et le gaz CO2 ont été utilisés sans autre
purification.

IV.1.2.1.b- Caractéristiques des liquides ioniques de la partie 2 :


Les liquides ioniques [c2mim][SCN], [c2mim][N(CN)2] et [c2mim][C(CN)3] ont été achetés
auprès de FutureChem (Corée). Les structures chimiques de [c2mim][SCN], [c2mim][N(CN)2] et
[c2mim][C(CN)3] sont illustrés à la Figure 2.

Figure. 2 : Données de pureté des liquides ioniques


(a) [c2mim][SCN], (b) [c2mim][N(CN)2],(c) [c2mim][C(CN)3].
Les données de pureté pour [c2mim][SCN], [c2mim][N(CN)2] et [c2mim][C(CN)3] sont également
affichés dans le tableau 3.
Tableau 3 : Données de pureté des liquides ioniques ([c2mim][SCN], [c2mim][N(CN)2],
[c2mim][C(CN)3]) et CO2.

Contenu
Contenu en Méthode Contenu Méthode
Pureté initial en
Source Halogénures d'élimination en eau d'analyse
eau
(%) (%) de l'eau finale de l'eau
(PPM)
Dong-
A Gas - - - - -
CO2 99.999
Co.

Karl
Future- Évaporation
[c2mim][SCN] 98 0.14 1620 26 Fischer
Chem sous vide
titration
Karl
Évaporation
Future- 0.61 1520 24 Fischer
[c2mim][N(CN)2] 98 sous vide
Chem titration

Karl
Évaporation
Future- 0.01 930 20 Fischer
[c2mim][C(CN)3] 98 sous vide
Chem titration

Le CO2 a été acheté à Dong-A Gas Co. (Corée) a un haut niveau de pureté (99,999 % en masse).
Les liquides ioniques et le gaz CO2 ont été utilisés sans autre purification.
IV.1.2.1.c- Caractéristiques des liquides ioniques de la partie 3 :
Les liquides ioniques [HMIM][Tf2N], [HMIM][TfO], [HMIM][MeSO4],[HMIM][BF4] et
[HMIM][PF6] ont été achetés auprès de C-TRI (Corée).
Les données de pureté totale ont été fournies par C-TRI (Corée).
Le CO2 de haute pureté (99,995 % en masse) utilisé pour les mesures a été acheté auprès de
Deokyang Gas Co. (Corée). Les liquides ioniques et le gaz CO2 ont été utilisés sans autre
purification.
La structure chimique des quatre liquides ioniques est présentée sur la figure 3.
Figure. 3 : Structure chimique des liquides ioniques : (a) [HMIM][Tf2N], (b) [HMIM][TfO], (c)
[HMIM][MeSO4], (d)[HMIM][BF4] et (e)[HMIM][PF6].

Les données de pureté de ces cinq liquides ioniques sont présentées dans le tableau 4.
Tableau 4 : Données de pureté des cinq liquides ioniques précédents :
Liquides ioniques Source Pureté Contenu en Contenu Méthode Contenu Méthode
(% Halogénures initial en d'élimination en eau d'analyse de
masse) (%) eau (PPM) de l'eau finale l'eau
[HMIM][Tf2N] C-Tri 99.0 17 1128 Evaporation 25 Karl Fischer
sous vide
[HMIM][TfO] C-Tri 99.0 11 1577 Évaporation 27 Karl Fischer
sous vide
[HMIM][MeSO4] C-Tri 99.0 29 1851 Évaporation 22 Karl Fischer
sous vide
[HMIM][BF4] C-Tri 99.0 33 1577 Évaporation 20 Karl Fischer
sous vide
[HMIM][PF6] C-Tri 99.0 25 1709 Évaporation 27 Karl Fischer
sous vide

IV.1.2.1.d- Caractéristiques des liquides ioniques de la partie 4 :


Les liquides ioniques [C3mpy] [Tf2N], [C5mpy] [Tf2N], [C7mpy] [Tf2N] et [C9mpy] [Tf2N] ont
été achetés auprès de C-TRI (Corée). La pureté les données de ces quatre liquides ioniques sont
présentées dans le tableau 6.
Le CO2 utilisé pour les mesures a été acheté auprès de Deokyang Gas Co. (Corée). Les liquides
ioniques et le gaz CO2 ont été utilisés sans autre purification.
Tableau 6 : Données de pureté de [C3mpy][Tf2N], [C5mpy][Tf2N], [C7mpy][Tf2N] et
[C9mpy][Tf2N].

Liquides [C3mpy][Tf2N] [C5mpy][Tf2N] [C7mpy][Tf2N] [C9mpy][Tf2N]


ioniques
liquide jaunâtre liquide jaunâtre liquide jaunâtre liquide jaunâtre
description pâle pâle pâle pâle
teneur en eau 35 ppm 31 ppm 28 ppm 39 ppm
teneur en 21 ppm 15 ppm 16 ppm 25 ppm
chlorure
Pureté >99% >99% >99% >99%

IV.1.2.1.e- Caractéristiques des liquides ioniques de la partie 5 :


Les liquides ioniques et le dioxyde de carbone utilisés dans la présente étude sont répertoriés
dans le tableau 5 avec les fournisseurs, les structures et la pureté. Les liquides ioniques ont été
utilisés sans autre purification. Cependant, au cours de l'expérience, les liquides ioniques ont été
séchés avant la mesure de l'isotherme d’absorption.
Tableau 5 : Produits chimiques utilisés dans l'étude actuelle indiquant la source des liquides
ioniques et la pureté contenue dans chaque IL.

Abréviation Nom complet du cation Structure Source et pureté


Solvionic (purity of 99.9%)
Masse moléculaire (g/mol) 436.44
N-methyl-N-pentylpyrrolidinium Teneur en eau (%) ≤0.002
[p(5)mpyrr][Tf2N]
bis(trifluoromethanesulfonyl)imide Br (%) ≤ 0.0001
Cl % ≤ 0.0001 Methylpyrrolidine (%)
≤0.001
Solvionic (purity of 99.9%)
Masse moleculaire (g/mol) 433.4
1-Butyl-2,3-dimethylimidazolium Teneur en eau (%) ≤0.002
[bmmim][Tf2N]
bis(trifluoromethanesulfonyl)imide Br (%) ≤ 0.0001
Cl % ≤ 0.0001
Dimethylimidazole (%) ≤0.005
IoLiTec Ionic Liquids Technologies Inc.
Tributylmethylphosphonium (purity of 98%)
[P4441][Tf2N] CAS no. 324575-10-2
bis(trifluoromethylsulfonyl)imide
Masse moléculaire (g/mol) 497.5

IV.1.3- Dispositif expérimentale :


Dans le cadre de cette étude deux équipements ont été principalement employés pour la
solubilisation de CO2 par les liquides ioniques. Pour les trois premières expériences, une cellule
de visualisation à volume variable à haute pression (figure 4) a été utilisé.
Pour la dernière expérience une microbalance gravimétrique entièrement automatique contrôlée
par ordinateur de modèle Hiden Isochema Ltd, IGA003 (figure 5) a été utilisé avec une résolution
stable de 1 µg.
Dans chaque expérience, une petite quantité d'échantillons de liquide ionique a été utilisée.
Figure 4: schéma de principe du dispositif expérimental : (1) Eau pour presser; (2) générateur de
pression ; (3) manomètre ; (4) piston ; (5) fenêtre saphir; (6) barre magnétique ; (7) agitateur ; (8)
bain d'air; (9) cellule de volume variable ; (10) source lumineuse ; (11) boroscope ; (12) Caméra
CCD ; (13) écran ; (14) jauge de température ; (15) chauffage ; (16) régulateur de chaleur.

Figure 5 : Schéma de la microbalance gravimétrique "IGA" avec profil de température et


étiquettes des composants : (i1) conteneur d’échantillon ; (i2) Fil de suspension inférieur ;
(i3) Chaîne de suspension supérieure ; (i4) Crochet de balance d’échantillon ; (j1) Contrepoids
(CW) ; (j2) Crochet de contrepoids ; (j3) chaîne pendante de CW ; (j4) Crochet de balance de CW.
IV.1.4- Procédure expérimentale :
IV.1.4.1- Première méthode : mesure du CO2 absorbé en utilisant la cellule de
visualisation à volume variable à haute pression :
Un échantillon de liquide ionique est chargé dans la cellule de visualisation à volume variable à
haute pression. La quantité de l'échantillon est d'environ (8 à 9) g. Un piston crée l'espace à
l'intérieur de la cellule avec un générateur de pression utilisé pour pressuriser l'eau.
La cellule intérieure est observée par la fenêtre en saphir. Pour éliminer tout air emprisonné présent
dans la cellule et tout gaz et eau dissous dans la cellule ionique liquide, la cellule est évacuée avec
une pompe à vide à la température ambiante pendant plusieurs jours avant l'expérience. La fraction
molaire de CO2 dans le liquide ionique est calculée sur la base de quantités connues de CO2.
Pour dissoudre le CO2 dans les liquides ioniques, le mélange liquide ionique + CO2 est agité avec
dans un agitateur magnétique. Lorsque la pression augmente, le mélange de CO2 et liquide ionique
dans la cellule atteint une seule phase.
La pression est ensuite réduite jusqu'à ce que la première bulle de CO2 soit observée dans la
solution. A ce moment, la pression dans la cellule mesurée et cette lecture sera considérait comme
la pression au point de bulle à une fraction molaire de CO2 et une température fixe.
Après qu’une série d'expériences (de 303,15K à 373,15 K) a été fini à une fraction molaire de CO2
fixe, plus de CO2 a été chargé dans la cellule et une fraction molaire de CO2 d'un nouvel ensemble
de système expérimental a été recalculé. Chaque mesure a été répétée plus de trois fois à chaque
température pour obtenir une bonne base de données.
IV.1.4.1- Deuxième méthode : mesure du CO2 absorbé en utilisant la microbalance
gravimétrique "IGA" :
L'échantillon est dégazé et séché sous vide grâce à une pompe à membrane jusqu'à ce que la
pression atteigne 20 mbar, suivie d'une pompe turbo pour atteindre et maintenir un vide profond
(max. 10 mbar) et le chauffer à environ 348 K pendant un minimum de 12 h pour éliminer toute
contamination. Lorsque le poids de l'échantillon se stabilise, l'échantillon est considéré comme
sec.
Les trois liquides ioniques utilisés dans cette étude sont quelque peu visqueux, ainsi la diffusion
du gaz dans le liquide peut être lente. Il a fallu moins de 120 minutes pour atteindre l'équilibre
sous une pression de 1 000 mbar, en fonction du liquide ionique, de la température de l'échantillon
et du gaz.
IV.2. Metal Organic Frameworks (MOFs):
IV.2.1- Introduction :
Tous comme on l’avait vu précédemment pour les ILs, deux approches dont MLP-LM et MLP-
BR ont aussi été utilisés pour estimer l’adsorption du CO2 par des MOFs classés dans de larges
gammes de conditions basées sur des données recueillies dans la littérature et présentées dans le
tableau 7 :
Tableau 7 : Liste des MOFs utilisé lors de cette étude

Types de MOFs
MOF-2 IRMOF-11 IRMOF-3 IRMOF-6 IRMOF-1
MOF-177 BeBTB CoBDP CuBTTri Mg2(dobdc)

IV.1.2- Caractérisation des matières utilisés :


Au cours de cette étude, 10 MOFs différents ont été utilisés à partir de la littérature [41 – 45], Pour
chaque MOF des mesures ainsi que des conditions opératoires spécifiques leurs ont été attribué.
IV.1.3- Dispositif expérimentale :
Des échantillons purs de ces matériaux ont été synthétisés, caractérisés par diffraction des rayons
X sur poudre et analyse thermogravimétrique, activé pour mesurer la surface N2, puis manipulé
sous une atmosphère inerte. Un échantillon de charbon actif (Norit RB2) a également été testé
comme matériau de référence.
IV.1.4- Procédure expérimentale :
La capacité d'absorption gravimétrique de CO2 pour chaque MOF a été déterminée en exposant un
échantillon de l'adsorbant MOF à des incréments de pression croissants de CO2 à température
ambiante. L'échantillon et le gaz ont été introduits pour arriver à l'équilibre pour chacun des
incréments.

Vous aimerez peut-être aussi