Académique Documents
Professionnel Documents
Culture Documents
B.P. 08 Kaélé
Tél : +237 665417855
Email :fmip.uma@gmail.com
Présenté par :
SEMBONG ANKIENWA AMANDINE
Matricule :
17A156FM
ANNEE ACADEMIQUE
2021/2022
FICHE D’AUTHENTIFICATION D’ORIGINALITE DU
DOCUMENT
Je soussignée, SEMBONG ANKIENWA Amandine, étudiante au département de Génie
Mécanique Pétrolier et Gazier à l’Ecole Nationale Supérieure des Mines et des Industries
Pétrolières de l’université de Maroua atteste que, la présente étude est le résultat de mes propres
travaux effectués à Perenco Cameroun sous l’encadrement de M. NDOKA NDOKA Joseph,
Slickline Services Leader avec la supervision du Professeur KOL Guy Richard, Chef de
département de Génie Mécanique Pétrolier et Gazier.
Ce rapport est authentique et n’a jamais été présenté pour l’obtention d’un quelconque
grade universitaire.
DATE……………………………
DATE ……………………………..
DATE ………………...................
La quantité de données produites chaque jour dans les entreprises est volumineuse ;
Ces données sont essentielles pour le bon fonctionnement de l’entreprise. Elles sont souvent à
l’état brut et ont besoin d’être structurées et analysées de façon à les transformer afin de faciliter
la prise de décisions. Après avoir effectué une analyse du besoin et de l’existant, nous avons
constaté que le traitement des données des opérations de stimulation se fait de façon manuelle
avec différentes sources. C’est dans l’optique de proposer une solution à ce problème que nous
avons conçu un projet intitulé « Mise en place d’une solution d’analyse de données pour les
opérations de stimulation matricielle». L’objectif premier étant d’automatiser le processus de
recueil de données, nous avons tout d’abord étudié celui en place, ensuite une étude comparative
des solutions d’analyse des données existantes comme Power BI, QlikView et Tableau
Software nous a permis de choisir la solution Power BI. Ce choix a été fait sur des critères de
coûts, de performance et d’interopérabilité de l’outil d’analyse. Cette solution repose donc sur
une base de données centralisée dans Excel qui nous sert d’entrepôts de données plus connu
sous l’appellation de data warehouse. Nous constatons par la suite que la solution nous permet
de gagner en temps d’analyse et facilite la recherche des candidats de stimulation. La
problématique posée a été traitée et le présent rapport est la synthèse des différents travaux
menés.
The quantity of produced data each day in the companies is bulky; these data are
essential for the correct operation of the company. They are often in a rough state and have
need to be structured and analyzed in order to transform them in order to facilitate the decision-
making. After having carried out an analysis of the need and what exists, we noted that the data
processing of the operations of stimulation is made in a manual way with different sources. It
is in optics to propose a solution with this problem, which we conceived a project entitled
"Installation of a solution of analysis of data of the operations of stimulation and treatments of
the wells." The objective first being to automate the process of collection of data, we studied
that places from there, then a comparative study of the solutions of analysis of the existing data
like Power BI, QlikView and Tableau Software enabled us to choose the solution Power BI.
This choice was made on criteria of cost, performance and interworking of the tool for analysis.
This solution rests on a basis of data centralized in Excel, which serves to us as Dated
Warehouse. We note thereafter that the solution enables us to gain in time of analysis and
facilitates the research of the candidates of stimulation. The problems posed were treated and
this report/ratio is the synthesis of various undertaken work.
DEDICACE ......................................................................................................................... ii
RESUME............................................................................................................................iv
ABSTRACT ......................................................................................................................... v
TABLE DE MATIERES..........................................................................................................vi
GLOSSAIRE ........................................................................................................................xi
ANNEXES ........................................................................................................................ 63
L’Ecole Nationale Supérieure des Mines et des Industries Pétrolières a été créé par le
Décret N° 2022/012 du 07 Janvier 2022.
Article 6 : (1) le Conseil de Direction de l'ENSMIP est composé ainsi qu'il suit :
Président : le Recteur de l'Université de Maroua.
Vice-Président : le représentant du Ministère en charge des mines.
Rapporteur : le Directeur de l'ENSMIP.
Membres :
❖ Un (01) représentant du Ministère en charge de l'enseignement supérieur ;
❖ Un (01) représentant du Ministère en charge de la recherche scientifique et de
l'innovation ;
❖ Un (01) représentant du Ministère en charge de la fonction publique ;
❖ Un (01) représentant du Ministère en charge des finances ;
❖ Un (01) représentant du Ministère en charge de l'économie ;
❖ Un (01) représentant du Ministère en charge de l'eau et de l'énergie ;
❖ Un (01) représentant du Ministère en charge des petites et moyennes entreprises ;
❖ Un (01) représentant du Ministère en charge de l'environnement ;
❖ Un (01) représentant des ordres professionnels par filière fonctionnelle au sein de
l'ENSMIP ;
❖ Un (01) représentant de la Chambre de Commerce, de l'industrie, des Mines et de
l’Artisanat ;
❖ Deux (02) représentants des regroupements patronaux.
SECTION II : DE LA DIRECTION
ARTICLE 7 : (1) La Direction de l'ENSMIP est assurée par un Directeur, enseignant de rang
magistral, nommé par décret du Président de la République.
(2) Le Directeur est assisté d'un Directeur-Adjoint, nommé par arrêté du
Ministre charge de l'enseignement supérieur. II assure l'intérim en cas d'empêchement ou
d'absence du Directeur.
Article 13 : (1) L'Assemblée d'Etablissement se réunit une fois par semestre et chaque fois que
cela est juge nécessaire, sur convocation de son Président.
(2) Le secrétariat est assuré par la Division Administrative et Financière.
Article 14 : (1) Le Département est une unité pédagogique regroupant l'ensemble des
enseignements et des activités de recherche d'une discipline ou groupe de disciplines
déterminées.
(2) Le Département anime, coordonne et contrôle les activités académiques ;
élabore, exécute et effectue le suivi des programmes d'enseignement et de recherche.
(3) Le Département se réunit en Conseil.
Article 15 : (1) Chaque Département est dirigé par un Chef de Département, enseignant de rang
magistral ou, à défaut, par un Charge de Cours de la discipline concernée. II est assisté d'un
Adjoint.
Article 17 : L’ENSMIP comprend des départements crées par arrêté du ministre chargé de
l’enseignement supérieur, éventuellement sur proposition du recteur, et après avis des instances
délibérantes compétentes de l’Université de Maroua.
Article 18 : Les études à l’ENSMIP sont assurées dans le cadre des cycles de formation initiale
et continue, des stages de recyclage et de perfectionnement, ainsi que des enseignements à
distance.
Fiche signalétique
Organigramme de l’entreprise
Pour le bon déroulement de notre projet, nous avons subdivisé notre travail en cinq
principales parties. La première partie présentera l’introduction au problème ; la deuxième
partie intitulée chapitre I présentera la revue de la littérature pertinente sur le sujet soient les
grands enjeux du problème. La troisième partie qui sera notre chapitre II abordera les méthodes
utilisées dans l’étude pour aboutir à notre outil d’analyse. La quatrième partie qui est le chapitre
III illustrera les résultats qui seront présentés et discutés afin de défendre notre approche. Et la
cinquième partie qui constitue notre conclusion identifiera à la fois les limites de l’étude ainsi
que des pistes de recherches complémentaires [4].
Dans ce chapitre, nous allons tout d’abord aborder les généralités sur les opérations de
stimulation matricielle, ensuite nous présenterons de manière détaillée les différentes causes de
ces stimulations et enfin nous exposerons les généralités sur les différentes solutions d’analyse
de données.
La stimulation des puits peut être définie comme étant un traitement effectué pour
restaurer ou améliorer la productivité d’un puits. Les traitements de stimulation se divisent
généralement en deux groupes à savoir :
Les traitements dits de fracturation hydraulique qui sont effectués au-dessus de
la pression de fracturation de la formation réservoir et créent un chemin de flux hautement
conducteur entre le réservoir et le puits de forage ;
La stimulation matricielle qui est conçue pour traiter la formation du réservoir
proche du puits de forage plutôt que d’autres zones du conduit de production telles que le tubage
a) L’acidification
Ce traitement matriciel dans les réservoirs de grès utilisé depuis 1930 consiste à
injecter dans la formation un acide dilué dans de l’eau, de façon à « laver » la zone périphérique
du puits, c’est-à-dire éliminer ou déloger les solides colmatants indésirables, présents dans les
pores de la roche (voir figure 3). Plusieurs types d’acides sont utilisés selon la nature de la roche
réservoir à savoir : l’acide chlorhydrique (HCl) utilisé pour les roches calcaires et permettant
de dissoudre les carbonates, soit dans la formation, soit à partir des fluides de forage ; et l’acide
fluorhydrique (HF) utilisé pour les grès [11]. L'acide chlorhydrique peut être utilisé
individuellement ou en combinaison avec l’acide fluorhydrique dans ce qu'on appelle l'acide de
Notons que cette méthode est couramment utilisée, non seulement dans le domaine des
forages pétroliers mais aussi, pour le traitement des puits d’eau ou des puits de géothermie. Le
propre de l’acidification est que la pression d’injection est suffisante pour permettre la
pénétration de l’eau dans la roche et le cas échéant, la réouverture de fractures naturelles
existantes ; sans toutefois dépasser la pression de fracturation de la formation.
b) La fracturation acide
Il s'agit ici d'un processus dans lequel de l'acide est injecté à une pression supérieure
au gradient de dégradation de la formation créant ainsi une fracture. L'acide forme alors des
canaux d'écoulement à la surface de la fracture qui, lors de la fermeture, fourniront des canaux
d'écoulement conducteurs profonds (voir figure 4).
c) La fracturation hydraulique
Développée en 1940 par l’entreprise Halliburton l’un des plus gros opérateurs du
domaine pétrolier, l’idée de stimuler la productivité de forage par la fracturation sous haute
pression avec une première expérimentation au Etats-Unis en 1947 dans l’état du Kansas pour
le compte de la compagnie pétrolière et gazière Stanolind Oil and Gas Corp [13].. Ce n’est
qu’en 1957 que le procédé a pu être amélioré par de nouvelles pompes très puissantes. Depuis
le creusement de son premier puits horizontal, plus de 1million d’opérations auraient été
conduites par le groupe Halliburton, qui aurait permis d’extraire plus de 600milliards de pieds
cubiques de gaz. En raison de son efficacité, cette technique a rapidement été adoptée par
d’autres compagnies, pour être aujourd’hui utilisée dans le monde entier, dans des dizaines de
milliers de forages pétroliers et gaziers chaque année [14]. La fracturation hydraulique se
produit à de grandes profondeurs, généralement entre 5 et 10000 ft (pieds). Il s'agit d'une
technique par laquelle le fluide est injecté à un débit élevé et avec une pression supérieure au
gradient de dégradation de la formation (voir figure5). Le réservoir se « cassera »
mécaniquement, produisant ainsi une fissure. Cette fissure est maintenue ouverte grâce à
l'utilisation d'agents de soutènement initialement ajoutés et pompés avec les fluides de
fracturation : des fractures nouvelles sont ainsi créées dans la formation. Un propant
(généralement du sable de granulométrie sélectionnée ou des billes) est utilisé pour maintenir
ouvertes les fissures artificiellement créées.
Cet usage « historique » de la fracturation hydraulique doit être distingué de son usage
nouveau (opérations de fracturations successives dans un drain horizontal de plusieurs centaines
de mètres), qui s’est développé depuis le début des années 2000, essentiellement aux Etats-
Unis, dans le cadre de l’exploitation des hydrocarbures de roches mères soient de gaz et huile
de schistes par exemple.
Dans ce dernier cas, la fracturation hydraulique est utilisée de manière beaucoup plus
intensive, pour fissurer des roches très peu perméables, c’est-à-dire qui ne possèdent pas
naturellement la perméabilité suffisante pour permettre un écoulement des hydrocarbures vers
le puits par simple pompage ou par balayage de la couche géologique. En France, depuis la loi
2011-835 du 13 juillet 2011, la mise en œuvre de la fracturation hydraulique est interdite pour
l’exploration et l’exploitation des hydrocarbures, quel que soit son usage [15]. Les opérateurs
pétroliers et gaziers utilisent le traitement à l’acide (acidification) pour améliorer la productivité
des puits depuis près de 120 ans. L’acidification est antérieure à toutes les autres techniques de
Cependant, jusqu’au début des années 1930, l’utilisation de l’acidification était limitée
par le manque d’inhibiteurs de corrosion efficaces, l’utilisation et le développement du
traitement à l’acide des puits de pétrole et de gaz ont proliféré, conduisant à la création de
l’industrie des services de stimulation des puits [16]. Aujourd’hui, l’acidification est l’un des
moyens les plus utilisés et les plus efficaces dont disposent les opérateurs pétroliers et gaziers
pour améliorer la productivité des puits. Nous nous concentrerions davantage sur l'acidification
car c'est la technique de stimulation utilisée par l'entreprise qui nous a accueillis.
Avant l’injection de chaque solution dans le puits, on procède à son mixage dans les
cuves. A chaque phase des opérations, on enregistre les données du puits à savoir la pression,
le débit d’injection et la quantité injectée. En fonction de la réaction de la pression, on peut
déterminer si le traitement a eu des effets positifs ou négatifs. Mais ce n’est qu’avec les gains
observés que l’on peut affirmer que le traitement administré était approprié ou pas [16].
Bien que la production de sable soit facile à identifier, des tests de puits et des
Ces dernières années, les progrès numériques et technologiques ont fourni tant d'outils
d'efficacité et de productivité aux entreprises et à l'industrie que les cadres et les gestionnaires
ont parfois du mal à suivre. Les entreprises axées sur les données ont mis sur pieds de nouvelles
techniques d'analyse de données et des améliorations matérielles dans la technologie, créant
ainsi de solutions d’analyses mises sur le marché chaque année. A l'instar du processus qui
consiste à devenir une organisation axée sur les données, les méthodologies qui sous-tendent
l'analyse des données sont difficiles à adapter [16]. Il s'agit simplement de se familiariser avec
les principes et concepts clés, puis de mettre en pratique quelques idées simples. Dans
l’acception française, la terminologie « analyse des données » est un processus d'évaluation des
données à l'aide d'un ou de plusieurs outils d'analyse. Certaines méthodes, pour la plupart
géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données
et à en tirer une information statistique qui permet de décrire de façon plus succincte les
principales informations contenues dans ces données [17]. D’autres techniques permettent de
regrouper les données de façon à faire apparaître clairement ce qui les rend homogène, et ainsi
mieux les connaître.
L’analyse des données permet de traiter un nombre très important de données et de
dégager les aspects les plus intéressants de la structure de celle-ci. Le succès de cette discipline
dans les dernières années est dû, dans une large mesure aux représentations graphiques fournies.
Ces graphiques peuvent mettre en évidence des relations difficilement saisies par l’analyse
directe des données ; mais surtout, ces représentations ne sont pas liées à une opinion à priori
sur les lois des phénomènes analysés contrairement aux méthodes de la statistique classique.
Les fondements mathématiques de l’analyse des données ont commencé à se développer au
début du XXe siècle, mais ce sont les ordinateurs qui ont rendu cette discipline opérationnelle,
et qui en ont permis une utilisation très étendue. Mathématiques et informatique sont ici
intimement liées [18].
Si les données sont la nouvelle monnaie des entreprises, l’intelligence artificielle est
le cerveau qui permet de les investir judicieusement. La résolution de problèmes complexes
dans l’environnement de travail d’aujourd’hui impose l’acquisition de données et l’application
TABLEAU SOFTWARE :
Créé en Janvier 2003 par le doctorant Chris Stolte, le professeur Pat Hanrahan et
Christian Chabot ; leur vision était de commercialiser le résultat d’une recherche menée au
département d’informatique de l’université Stanford entre 1999 et 2002. Ces derniers étudiaient
les techniques de visualisation pour explorer et analyser les bases de données et des cubes de
données relationnelles et ont conduit la recherche vers l’utilisation et la visualisation de base de
données relationnelles multidimensionnelles [19]. Ensemble, ils conçoivent VizQL (Visual
Query Language), un langage structuré pour l’interrogation de bases de données et de
présentation graphique des résultats. Ce n’est qu’en Mai 2013 que tableau software sera
introduit au New York Stock Exchange où il atteint une valorisation de 250 millions de dollars,
or avant son introduction en bourse, tableau software avait levé plus de 45millions de dollars
auprès d’investisseurs tels que NEA et MERITECH. En 2010, tableau a déclaré des recettes de
34,2 millions de dollars [19]. Ce chiffre est passé à 62,4 millions de $ en 2011 et 127,7 millions
de $ en 2012. Les revenus en 2013 de ladite entreprise ont atteint 232,44 millions de dollars,
soit une croissance de 82% par rapport à 2012 (où les revenus étaient de 128millions de $). Les
bénéfices durant ces périodes étaient respectivement de 2,7 ; 3,4 et 1,6 million de dollars [20].
QLIK VIEW :
Précédemment connu sous le nom de QlikTech a été fondé à Lund, en Suède en 1993.
C’est une société de logiciels de Business Intelligence (BI). Son outil de bureau a été appelé
QlikView. ‘’Qlik’’ synonyme de ‘’Qualité’’ de la compréhension, de l’interaction, de la
connaissance. Initialement, le logiciel a été vendu seulement en Suède [20].
Mans HULTMAN devient le directeur général en 2000 et LARS BJÖRK devient
directeur financier. La société se concentre sur le domaine de la BI. QlikTech a besoin de plus
de capital et d’une vision plus large pour poursuivre sa croissance. A cette fin, QlikTech choisit
MICROSOFT POWER BI :
Power BI a commencé comme beaucoup de grandes inventions, comme un projet top
secret. Tout a commencé en 2006 par Thierry D’hers et Amir Netz de l’équipe SQL Server
Reporting Services de Microsoft. A l’époque, il s’agissait d’un projet classifié portant le nom
de code « Germini ». Ce projet « Germini » a exploité la puissance des services d’analyses SQL
Serveur (SSAS) de Microsoft et l’a transformé en un moteur de stockage en mémoire. Germini
a fait ses débuts en 2009 sous le nom de « Power Pivot », qui était une extension Excel gratuite.
Cependant, il est resté plus ou moins inconnu de la communauté scientifique des données
jusqu’à ce que Rob Collie, expert de Microsoft Power Pivot en parle aux utilisateurs d’Excel
[21].
Non conçu pour les tables complexes, Power BI a du mal à gérer plusieurs liens entre
les tables. Les utilisateurs doivent s’assurer que les modèles des données supplémentaires ont
des champs uniques, sinon Power BI pourrait finir par confondre les tables « extrait de la revue
de Datacamp » [21].
Ces dernières années, ces outils se sont au fur et à mesure perfectionnés. Avec ces
logiciels, il est désormais possible pour un grand nombre de développeurs d’interpréter avec
beaucoup plus de précisions, de nombreux résultats d’analyse et de collecte de données. Ces
outils d’analyse ont leurs forces et leurs faiblesses. Cependant, certains critères peuvent être
déterminants dans le choix d’une solution ou d’une autre ; cela peut être financier, mais aussi
sur les problématiques d’intégration.
Dans cette partie, nous allons mettre en avant la méthodologie de mise en place de
notre solution qui aura pour objectif de limiter le temps d’analyse des données. Ce chapitre
suivra l’ordre chronologique des méthodes suivantes : la méthode d’analyse de l’existant et du
besoin, la méthode d’analyse des données, la méthode d’architecture de la base des données et
enfin la méthode du schéma de la base de données.
Pour mener à bien notre projet, il était tout d’abord nécessaire de comprendre où nous
allons et ce dont nous aurons besoin pour le bon fonctionnement de notre travail. L'objectif de
cette planification est d'y voir clair et de savoir ce que nous avons à faire, au jour le jour et à
long terme. De cette façon, on peut agir avec précision et efficacité sans quoi nous travaillerons
avec beaucoup d’hésitations. De plus, la planification nous rassure sur la possibilité d'atteindre
nos objectifs puisqu'elle vérifie qu'ils soient accessibles en termes de ressources et de délais.
Aussi, selon Seiwert (1991), elle permet de mettre moins de temps à réaliser nos tâches et par
le fait même d'atteindre plus rapidement les objectifs fixés [22]. Pour que la planification soit
efficace, elle doit procurer une image claire de nos actions à entreprendre, c’est dans cette lancée
que nous avons implémenté l’outil informatique Project Plan 365 qui nous a aidés à planifier
notre travail établi comme suit (voir figure 6) :
Nous avons poursuivi par la mise en place de l’outil du reporting choisi après
comparaison avec les autres ; cette phase a pris 4 jours ; puis il a fallu tenir une première réunion
sur l’avancement du projet qui s’est tenu sur une période de 2 jours avant de passer au test de
la solution pendant un jour afin d’observer et apporter les modifications nécessaires, qui s’est
étendu sur 8 jours. Par la suite, nous avons tenu une deuxième réunion sur l’avancement du
projet pendant une journée. L’avant dernière phase consistait à recenser tous les documents qui
nous ont été utiles lors de la réalisation de notre projet ; une étape qui a duré 12 jours avant la
dernière qui n’est autre que la clôture du projet pendant 2 jours. Toutes ces étapes sont résumées
par le diagramme de GANTT ci-dessus (voir figure 6).
La phase d'analyse de l'existant et des besoins est une phase essentielle et complexe [22].
Elle doit aboutir à des spécifications générales qui décrivent en langage naturel les données
manipulées, et les traitements à effectuer sur ces données.
L'étude de 1'existant est le point de passage obligé qui matérialise le premier contact
du concepteur avec un domaine ignoré. II y‘a donc lieu de parvenir à une vue claire des besoins,
c'est-à-dire la connaissance à la fois des objectifs poursuivis et le terrain sur lequel ils
s'appliquent [22]. Afin de réaliser notre étude, nous nous sommes rapprochés des différents
membres du département du Well. Le constat qui a été fait est qu’il n’existe pas une solution
d’analyse de données au sens propre du terme. Néanmoins, nous avons constaté que la plupart
des analyses se font avec l’outil Excel et les documents sont partagés sur le réseau local de
l’entreprise. Chaque département a une nomenclature différente pour les noms des puits et des
réservoirs ; par conséquent il y’a donc incohérence entre les sources de données, ce qui rend
faible la possibilité d’automatiser une tâche [22].
Après l’étude, nous avons ressorti les avantages et les inconvénients du système en
place. Comme avantages, nous pouvons citer entre autres : La flexibilité de l’outil Excel comme
solution d’analyse. Cependant, nous avons pu détecter comme inconvénients :
Afin de mieux cerner le besoin, nous avons opté de travailler avec un outil d’analyse du
besoin qui est le diagramme bête à corne qui permet la formulation du projet (voir figure 7)
avec pour objectif principal de cadrer le contexte dans lequel le projet voit le jour [23]. Dans
notre cas d’étude, il est représenté comme suit :
Cette figure nous illustre comment l’outil d’analyse rendra service au département du
Well Services sur les opérations de stimulations matricielles dans le but de centraliser et
modéliser les informations afin faciliter la collecte et l’analyse des données.
Une étude comparative sur les avantages et les limites a été effectuée avant de faire un
choix sur l’outil à implémenter.
a. QlikView
QlikView est une application développée par une société suédoise qui consolide les
données pertinentes issues de différentes sources dans une seule et même application. Elle
donne la possibilité d’explorer les associations entre vos données tout en développant la prise
de décisions collaborative en temps réel et de façon sécurisée tout en permettant la visualisation
des données à l’aide de graphiques soignés et performants (voir figure8). QlikView est doté
d’un moteur In-Memory qui facilite la création des graphiques interactifs en conservant les
données en mémoire [23]. Elle propose également une édition personnelle (gratuite), serveur et
Cloud. QlikView est une entreprise qui utilise un moteur de recherche unique pour offrir des
réponses plus complètes aux questions que peuvent poser ses clients, généralement des
entreprises. La différence qu’il propose différencie leur moteur des autres en utilisant
l’apprentissage automatique pour inclure davantage de résultats. Son moteur analyse plus de
données que les moteurs standards et compile des données provenant de plus de sources afin
que nous obtenions un résultat plus brièvement défini et complet pour notre requête. Les
résultats obtenus ne sont aucunement limités par la taille des fichiers auxquels nous essayons
d’accéder. Ils promettent des résultats rapides et clairs pour nos requêtes [23].
D’après nos informations le logiciel QlikView peut se connecter à plus de 15
plateformes logicielles afin de faciliter les échanges de données entre applications, d’améliorer
votre flux de travail, et de gagner en productivité ;parmi ces plateformes, on peut citer :
MySQL, oracle, tableau server, analytics,…..etc. Cette application est conseillée pour les
métiers telsques : communication, direction financière, management, marketing, vente
commerciale…et est utilisée dans les secteurs de: logiciels généraliste, aéronautique,
agriculture, agroalimentaire, artisanat. Cet outil informatique permet également de découvrir
des informations que les outils de BI basés sur des requêtes manquent tout simplement. Son
Comme toutes réalisations bien définies, QlikView présente aussi des limitations qui
résident sur :
L’analyse statistique qui n’est pas avancée parce qu’il ne prend pas encore en
compte les langages R et Python ;
Son système d’exploitation limite la capacité à découvrir des informations
exploitables et empêche les utilisateurs de mieux comprendre les données ;
Son connecteur SAP est disponible mais il est trop lent pour extraire les données
des cubes [25] ;
Cet outil de rapport et d'analyse n'autorise pas la réécriture à la base de données, et
n’a pas de format d'impression.
Tableau propose des outils d'analyse visuelle et de forage de données robustes dans
l'ensemble de ses produits [18]. Nous avons répertorié les principales fonctionnalités qui
rendent cela possible :
Cependant, Tableau est conçu pour les analystes individuels et les utilisateurs
expérimentés, et coûte 70 $ par utilisateur et par mois la version desktop est payante et propose
une période d’essai de 14 jours uniquement. Chaque abonnement inclut la maintenance, les
mises à niveau des produits et l'assistance en un seul coût, de sorte qu'il n'y ait pas de frais
imprévus [19]. Tableau peut également aider n’importe qui à voir et à comprendre ses données
en se connectant à presque toutes les bases de données, puis en effectuant un geste de glisser et
déposer dans le but de créer des visualisations tout en partageant en un clic.
c. Power BI
Chaque entreprise souhaite établir sa marque sur le marché et connaître une croissance
exponentielle. C'est là que l'intelligence d'affaires joue un rôle crucial, car c'est un facteur très
important dans le processus d’images de marques et d'autres processus décisionnels. Pour aider
à prendre des décisions efficaces et à tirer des conclusions, Microsoft présente un outil d'analyse
très intéressant, Power BI qui est une des solutions d’analyse et de visualisation de données les
plus utilisées de par sa simplicité et ses fonctions analytiques avancées comme le langage R et
Python (voir figure 10). Les principaux outils de Power BI incluent Power Query, qui est utilisé
pour l'extraction et la transformation ; Power Pivot, utilisé pour modéliser et analyser ; Power
View et Map, qui sont utilisés pour visualiser les données et enfin le service Power BI, pour
partager des rapports, des ensembles de données et des tableaux de bord. Le concepteur Power
BI combine divers outils distincts dans une application tout-en-un, qui supprime toutes ses
dépendances à Excel ou Office [20].
L’édition Desktop est gratuite et permet l’importation des données provenant de
plusieurs sources. Power BI vise à fournir des visualisations interactives et des capacités de
veille stratégique avec une interface suffisamment simple pour que les utilisateurs finaux
puissent créer leurs propres rapports et tableaux de bord. Son fonctionnement similaire à celui
d’Excel, sa communauté et sa flexibilité l’ont propulsé à être au niveau actuel. En résumé,
Power BI est une solution collaborative qui permet de partager les données, d’être mobile et
d’être adaptée aux besoins de l’entreprise qui vous garantit un contrôle total de la sécurité, de
l’évolutivité et un vaste choix d’option de déploiement [20].
Cet outil informatique traite l’information pour la rendre compréhensible, cohérente et
pertinente afin de faciliter la prise de décision. Tous les aspects de l’entreprise peuvent être
Rédigé par SEMBONG A. Amandine
21
traités par ce logiciel : la logistique, les ressources humaines, les relations clients, les
transactions financières, le département des ventes, les analyses de marché, le processus de
fabrication … Le principal avantage de Power BI est son utilisation tout à fait simple et
immédiate, qui ne requiert pas de profils techniques. Les rapports et les tableaux de
bords (Dashboard) sont complètement personnalisables et très visuels, ce qui est très utile pour
la préparation des présentations et des réunions. Son intégration avec le cloud et la compatibilité
avec les principaux outils de data warehouse du marché font de Power BI un outil prometteur
[20].
Toutefois, nous avons détecté que cette solution comporte aussi des limites à l’exemple
du fait que Power BI n’est pas un outil destiné aux petites entreprises. Afin de tirer parti de ses
fonctionnalités les plus intéressantes ; il faut déjà obtenir un volume important d’informations,
sinon le manque d’information peut mener à des conclusions erronées. Nous avons également
détecté comme limites :
Sa nature est complexe : c'est l'une des limites majeures car Microsoft a conçu
Power BI de manière très complexe avec une longue liste de composants difficile de
comprendre de quel composant vous pourriez avoir besoin. Cela rend le produit encore plus
difficile à dépanner, ce qui entraîne une augmentation du coût total de possession ;
La qualité des données : Microsoft Power BI ne fournit aucune solution de
nettoyage des données. Cela signifie que les données que vous extrayez ont été nettoyées bien
à l'avance et qu'elles sont de haute qualité ;
Ne gère pas correctement les grandes sources de données : Microsoft Power
BI rencontre des problèmes lors de la connexion et de l'importation de grands ensembles de
données, ainsi que des problèmes de délais d'expiration ;
Problèmes de performances : Power BI peut rencontrer des problèmes de
performances car il a été observé qu'il n'a pas été en mesure de traiter plus de 10 000 à 20 000
lignes sans rencontrer de problèmes pour certaines requêtes. Pour éviter de faire face à ce
problème, vous pouvez créer plusieurs requêtes afin de couvrir toute la gamme de données et
les diviser en fonction des dates ;
Interface utilisateur volumineuse : la fenêtre d'aide de la formule et la partie
latérale bloquent souvent la vue centrale, ce qui rend l'interface utilisateur de Power BI très
volumineuse. La réalisation d'un tableau de bord défilant demandera beaucoup d'efforts
puisqu'il ne s'agit pas d'une fonctionnalité étrangère ;
Cette méthodologie d'entrepôt de données d’Inmon explique qu’il faut d’abord créer
l’entrepôt qui comprend l’ensemble des données de l’entreprise, pour ensuite alimenter de mini-
entrepôts de données départementales (voir figure11). Chaque mini-entrepôt vise un secteur
particulier de l’entreprise et sera la source des requêtes et rapports utilisés par les décideurs de
l’entreprise. Inmon divise l’environnement de bases de données de l’entreprise en quatre
niveaux :
Opérationnel ;
Entrepôt de données atomique ;
Départemental ;
Individuel.
Les trois derniers niveaux constituent l’entrepôt. Le premier niveau comprend les
bases de données de logiciels patrimoniaux et autres systèmes de traitement transactionnel. Les
données sont transformées entre le premier et le deuxième niveau. Pour transformer les
données, un processus appelé ETC (pour extraction, transformation et chargement) est utilisé.
Il s’agit d’un ensemble de processus qui extraient les données des systèmes sources, qui
transforment les données et les chargent dans l’entrepôt cible. Avec cette approche, les données
des départements sont toujours cohérentes, car elles proviennent toutes du même entrepôt.
L'entrepôt de données agit comme une source de données unique pour divers magasins
de données afin de garantir l'intégrité et la cohérence dans l'ensemble de l'entreprise. C’est ce
L'entrepôt de données agit comme une source de vérité unifiée pour l'ensemble
de l'entreprise, où toutes les données sont intégrées ;
Cette approche a une très faible redondance des données. Ainsi, il y a moins de
possibilité d'irrégularités de mise à jour des données, ce qui rend le processus d'entrepôt de
données basé sur le concept ETL plus simple, moins susceptible d'échouer et minimise la
probabilité de dysfonctionnement ;
Cela simplifie les processus métiers, car le modèle logique représente des objets
métiers détaillés ;
Cette approche offre une plus grande flexibilité, car il est plus facile de mettre à
jour l'entrepôt de données en cas de changement dans les exigences de l'entreprise ou les
données sources ;
Il peut gérer diverses exigences de reporting à l'échelle de l'entreprise.
L’environnement technique ;
Les données ;
Les applications analytiques.
Les tâches des chemins spécialisés peuvent être exécutées en parallèle, car elles ne
visent pas les mêmes éléments de l’environnement.
Une fois les données téléchargées dans la zone de transfert de l'entrepôt de données,
la phase suivante comprend le chargement des données dans un modèle d'entrepôt de données
Le data warehouse peut être vu comme l’union des data marts cohérents entre eux
grâce aux dimensions conformes. Les caractéristiques majeures de cette architecture sont :
Au vue de tous ces avantages, nous avons également pu desceller les limitations de
cette architecture qui sont les suivantes :
Des irrégularités peuvent se produire lorsque les données sont mises à jour dans
l'architecture Kimball DW ;
Dans l'architecture Kimball DW, des problèmes de performances peuvent
survenir en raison de l'ajout de colonnes dans la table de faits, car ces tables sont assez
détaillées. L'ajout de nouvelles colonnes peut étendre les dimensions de la table de faits,
affectant ses performances. En outre, le modèle d'entrepôt de données dimensionnel devient
difficile à modifier en cas de modification des besoins de l'entreprise ;
Comme le modèle Kimball est orienté processus métier, au lieu de se concentrer
sur l'entreprise dans son ensemble, il ne peut pas gérer toutes les exigences de rapport BI. Le
processus d'incorporation de grandes quantités de données héritées dans l'entrepôt de données
est complexe [22].
a. Schéma en étoile
Le schéma en étoile est une approche de modélisation mature largement adoptée par les
entrepôts de données relationnels. Les modélisateurs doivent classer leurs tables de modèle en
tant que table de dimensions ou table de faits. Ce schéma imite une étoile, avec une table de
dimensions présentée dans un motif étalé entourant la table de faits centrale (voir figure 13). La
table des faits est connectée à la table de dimensions via les clés primaire et étrangère. Les
dimensions sont dé-normalisées afin de concentrer toutes les informations en une seule table,
Cela implique qu’on y retrouve souvent certaines colonnes ayant plusieurs fois les mêmes
valeurs [23].
Les requêtes utilisent des jointures très simples lors de la récupération des
données et augmentent ainsi les performances des requêtes.
Il est simple de récupérer des données à des fins de rapport, à tout moment et
pour toute période [24].
Malgré les différents avantages de ce schéma, nous avons également trouvé des
limitations à ce dernier qui sont les suivants :
Vous pouvez avoir besoin de jointures complexes pour effectuer une requête en
raison du nombre de tables ajoutées. Par conséquent, les performances des requêtes seront
dégradées ;
Les efforts de maintenance supplémentaires dus au nombre croissant de tables
de petites dimensions. De nombreuses requêtes complexes compliquent la recherche des
données requises ;
De plus, le temps de mise en œuvre de la question est élevé du faite des tables
plus hautes ;
Ce modèle est également rigide et nécessite des coûts de maintenance plus
élevées ;
La complexité des requêtes nécessaires pour accéder aux données : chaque
requête doit creuser profondément pour accéder aux données pertinentes puisqu’il y a plusieurs
jointures.
a. Définition
Une opération de stimulation consiste à injecter un fluide dans la formation, soit un
acide, soit un solvant à des pressions inférieures à la pression de fracturation, afin d'améliorer
la capacité de production ou le débit d'injection d'un puits en améliorant la perméabilité du
réservoir. La détermination du type de traitement est fonction de la nature du réservoir.
b. Moyens de traitement
L’architecture d’un traitement ou le choix des types de fluides de traitement, est
fonction du type d’endommagement soupçonné et dépend des données relatives à la
température en fond de puits, à la perméabilité et la minéralogie du réservoir. La mise en œuvre
d’une stimulation de puits par bull head prévoit deux grandes étapes :
i. Pickle
Les opérations de pickle permettent de nettoyer le tubing d’un puits. Parfois après une
longue exploitation d’un puits, il y a formation de carbonates ou de paraffines sur les parois du
puits ce qui permet de diminuer la production du puits. Les opérations de Pickling permettent
de dissoudre ces carbonates et ces paraffines. Cette opération est souvent faite avec une
concentration bien précise du HCl ou un solvant organique et parfois, elle est précédée d’un
test d’injectivité avec de l’eau salée.
Le nettoyage de la colonne de production, bien qu’il soit fait avec des appareils
sophistiqués, comporte des limitations en ce sens qu'il est difficile à manipuler en raison de sa
corrosivité et qu'il n'est pas applicable à tous les aciers. La fragilisation par l'hydrogène devient
un problème pour certains alliages et aciers à haute teneur en carbone. L'hydrogène de l'acide
réagit avec la surface et la rend cassante, provoquant ainsi des fissures [26]. En raison de sa
réactivité élevée avec les aciers pouvant être traités, les concentrations d'acide et les
températures de solution doivent être contrôlées pour garantir les taux de décapage souhaités.
Preflush ou prélavage avec une solution non acide et une solution acide ;
Mainflush ou lavage principal ;
Postflush ou après-lavage avec une solution acide et/ou non acide.
NH4Cl 3 à 5% de saumure
HCl 5 à 15 % + additifs spécifiques (Aromatique ou solvant mutuel)
Acide acétique + NH4Cl
Main-flush : L’objectif de cette phase est d’augmenter la gorge des pores et les
additifs de transport pour réduire les dommages. Il s'agit ici d'un mélange de HCl et d’HF appelé
« acide de boue ». Les concentrations usuelles sont de 10% HCl et 5% HF dans le mélange
utilisé pour les puits géothermiques. Le HCl est efficace pour dissoudre le calcaire et les
dolomies, tandis que l’HF est efficace pour dissoudre les minéraux siliceux tels que les argiles,
le feldspath et les sables siliceux. HF dissout également les fluorures de calcium et de
magnésium. Les fluides utilisés lors de cette étape sont :
L’acide de boue connu sous le nom de mud acid ; car il a une résistance HF en
fonction de la minéralogie, de la température et de la teneur en argile ;
Le test de laboratoire à effectuer dans une nouvelle formation.
Les volumes utilisés en fonction de la profondeur des dommages sont les suivants :
Cette figure illustre clairement les différentes étapes du traitement typique d’un puits
à l’acide qui se déroule de la manière suivante (voir figure 15) :
Prélavage non acide : rend la formation plus compatible avec le fluide HF usé.
Prélavage acide : qui sert de barrière physique entre HF et fluide de formation
représenté ici comme additifs ;
Traitement HF : pour traiter la matrice
Overflush : permet de repousser le traitement et tout précipité
Flowback : ici, le nettoyage de la colonne d’injection doit être effectué dès que
possible.
Cette figure illustre dans un premier temps les dommages causés par une exposition à
long terme à la kaolinite (voir figure 16 a) puis le contrôle de ce dommage suite à l’action d’HF
(voir figure 16b).
Le traitement standard pour l’ensemble des puits était basé sur le mud acid
(HCl/HF 9 :1) comme mainflush, à l’exception des puits à fort BSW (à l’exemple de ACM 013
et ASM 038) où des traitements à base de solvant ont été privilégiés. Le traitement appliqué
était à base de mud acid généralement recommandé pour les formations gréseuses.
La configuration était celle adoptée après échanges avec Halliburton, où tous les
volumes des flush acides (Preflush, mainflush et postflush) ont été fixés à 1m3/m de fluide de
traitement du réservoir perforé. L’additif Musol (Mutual Solvant qui agit sur la mouillabilité de
la roche) incorporé dans les traitements depuis fin 2013 a été retiré de tous les acid flush (où la
concentration était 50l/m3) et intégré dans le non acid Preflush (nouvelle étape ajoutée au
traitement : brine + Musol) avec une concentration de 30l/m3. Cette configuration générale (qui
peut être ajustée selon certaines spécificités de puits) du traitement des puits se présente comme
précédemment annoncé au niveau de la revue de littérature.
Dans cette partie, nous présenterons nos différents résultats obtenus à l’aide d’une
étude comparative des différentes méthodes suivantes : la méthode de l’existant et du besoin,
de l’analyse des données, du schéma de la base de données et enfin grâce à l’architecture de la
dite base de données. Par la suite, une discussion aura lieu sur les différents résultats obtenus
dans le souci de les expliquer et de les valoriser.
D’autres entretiens d’évaluation ont également eu lieu durant le projet pour améliorer
nos indicateurs et peaufiner le travail.
Tarif avantageux ;
Son dynamisme ;
Sa compatibilité ;
Simplicité d’utilisation ;
Ses capacités d’intelligence décisionnelles en libre-service ;
Sa flexibilité ;
Sa capacité à récupérer des données n’importe où et à tout moment ;
Son prix attractif ;
Il est le plus efficace pour prendre des décisions en matière de coûts.
Difficile. Redondance à
Maintenance Facile
gérer
Court si mode incrémental (1
Durée de mise en œuvre Longue (2 Mois)
Mois)
Elle est applicable par domaine métier (service) et plus facile à mettre en œuvre ;
Le facteur temps limite du projet est respecté ;
Les besoins de reporting et les systèmes sources sont relativement stables ;
Les décideurs ne se soucient pas du fond de la démarche, et ne recherchent
qu'une solution pour améliorer le reporting ;
Elle développe des magasins de données en utilisant le schéma en étoile.
Le tableau ci-dessous nous renseigne sur les similitudes et les contraintes de nos deux
schémas de modélisation, ceci dans le but d’effectuer une étude comparative de ces derniers
dans le souci de faire un choix selon nos critères de sélection pour la réalisation de notre outil
d’analyse :
La table des faits est reliée à chaque table de dimensions par une seule et unique
jointure, ce qui simplifie considérablement les requêtes et en améliore le temps d’exécution y
compris sur d’énormes volumes de données ;
Il est simple à comprendre et à concevoir,
Il est pertinent pour le développement de modèles de données Power BI qui sont
optimisés du point de vue des performances et de la convivialité ;
Les outils de BI permettent aux utilisateurs professionnels d'interagir facilement
avec les structures de table dans des requêtes simples ;
Les tables de dimension prennent en charge le filtrage et le regroupement ;
Les tables de faits prennent en charge la totalisation.
Les solutions de gestion des bases de données relationnelles classiques, comme SQL
Server ou Oracle sont les plus conseillées. Mais pour des raisons de ressources (coût de licence,
maintenance) et politique interne du parc informatique, car tous les postes sont en mode
utilisateurs et non administratifs, la base de données a été créée sur Excel suivant la figure
suivante (voir annexes 2).
Le Data Warehouse contient les données d’un seul service et plus précisément sur les
différentes opérations de stimulation matricielle. Nous avons donc opté pour l’architecture
suivant l’approche de Kimball parce que les magasins de données contiennent les dimensions
d’axes d’analyses et les faits ou mesures. Les faits contiennent soit des données atomiques c’est
à dire à un niveau fin, soit des données agrégées. De plus, il modélise souvent un domaine
d’activité très spécifique comme les ventes ou la production. D’autres raisons également
Power BI est un puissant outil qui rassemble toutes les données de l’entreprise quel
que soit le département. La business intelligence concentre les informations au même endroit
par un système de collecte puis modélise ces données pour les transformer en outils d’aide à la
décision. Pour cela, Power BI suit quatre étapes [30]. :
La collecte des données qui centralise tous les résultats des bases de données ;
L’intégration qui apporte de la cohérence et de la structure à l’agrégat de
données ;
La diffusion qui donne une vue facile à comprendre à ceux qui ont les droits
d’accès à l’information ;
La restitution qui schématise les informations pour en faire un visuel
compréhensible pour tous et facilement partageable. Dans notre projet, certaines tables ont été
faites grâce à des requêtes d’ajoûts pour avoir uniquement les champs importants pour
l’analyse.
La figure ci-dessous nous présente les tables à importer :
Les données étant au cœur de Power BI, l’importation des tables dans Excel permettra
à ce dernier d’analyser le classeur Excel et le convertir en fichier Power BI Desktop (.pbix).
Cette action est un évènement ponctuel. Une fois le fichier Power BI Desktop créé, il n’a aucune
dépendance envers le classeur Excel d’origine, et nous pouvons donc l’enregistrer et le partager
sans que cela n’affecte le classeur d’origine. A la fin de l’importation, une page s’affiche et
décrit les éléments qui ont été convertis tout en donnant la liste de tous ceux qui n’ont pas été
importés.
a. Rapports (reporting)
Le choix de la solution de reporting est celle de Power BI. L’outil propose une vaste
gamme de connecteurs et applications comme les fichiers Excel et texte, les bases de données
comme SQL server, Access et Oracle, les plateformes en ligne comme GitHub, Facebook etc…
La figure ci-dessous nous montre une partie des sources possibles :
Après avoir choisi la source de données, nous avons le choix entre l’importation des
données ou leurs transformations avec l’éditeur de requêtes. Ces tables sont ensuite ouvertes
dans l’éditeur de requête pour faire des modifications. Certaines transformations sont faites
dans l’éditeur de requêtes, comme la modification du type de champs et le filtrage de données
avant importation. La figure ci-dessous représente les dimensions importées :
Le choix des tables s’est fait grâce à notre base de données centralisée pour extraire
les données des systèmes sources, les transformer et les charger dans l’entrepôt cible dans le
but d’avoir une utilisation optimale pour le modèle du rapport central (voir figure 21).
Une fois les champs importés, nous pouvons créer des visuels qui sont généralement des
tableaux de bord et de rapports dans le but de les partager à des groupes de travail (toute
l’équipe), pour que l’information décisionnelle permette d’agir immédiatement et de manière
instantanée. Mais pour donner la possibilité d’avoir des interactions entre les visuels provenant
des champs dans des tables différentes, il est tout d’abord important de mettre ces tables en
relation.
Après le choix des tables à importer, nous devons effectuer une analyse à l’aide des
données de toutes ces tables ; car, étant donné que Power BI copie des données, nous devons
actualiser le jeu de données pour récupérer les changements des sources de données cachées.
Les relations entre ces tables sont nécessaires pour obtenir des résultats précis et pour afficher
des informations correctes dans notre rapport.
Selon les indicateurs recensés durant l’analyse du besoin, certains visuels créés
représentent les paramètres suivants :
D’autres indicateurs également importants pour la mise en relation de nos tables sont entre
autres :
Dans d’autres rapports paginés, les indicateurs ci-dessous ont été ajoutés pour une
meilleure compréhension de nos relations créées ainsi qu’une meilleure clairvoyance ou clarté
des résultats obtenus. Ces différents indicateurs sont les suivants :
Le type de puits ;
Les réservoirs d’un puits ;
L’évolution du BSW ;
Nombre de stimulation par puits ;
Les longueurs de perforations ;
Les coûts chimiques et totaux.
Dans cette page du rapport, nous voyons que nous avons effectué 129 stimulations en
pratiquement huit années, en notant également une variation du débit d’huile par année pour
avoir une approximation du chiffre d’affaires et des gains. Nous constatons qu’en 2015, nous
avons eu un gain plus performant que les autres années ce qui s’explique par une stimulation
effectuée avec succès par conséquent l’on peut conclure que le traitement administré était
approprié.
Par contre en 2019, le gain est moins performant expliqué par un faible BSW et un
grand nombre de stimulation pour le même puits d’où, le traitement administré n’était pas
approprié pour ce puits : il faudra revoir les chimiques ainsi que leurs volumes respectifs
pompés pour une meilleure réponse.
b. Mise en œuvre
Le projet a pour objectif principal d’améliorer le temps mis pour analyser les données.
La première étape consiste à importer les données de la base de données du Well performance
qui centralisait déjà les données auparavant, mais dispersées dans des fichiers Excel.
Cette base de données contient plus d’une cinquantaine de tables/requêtes et quelques
tables nécessaires pour l’analyse ont été importées et transformées dans l’éditeur de requêtes
de Power BI avant le début de l’analyse.
Ci-dessous une image qui présente quelques tables mises en relation (voir figure24).
Après cette modélisation, les visuels ont été créés pour représenter les données
suivantes : les Bottleneck, Baisse de Potentiel et Evolution de Potentiel détaillé.
c. Les indicateurs
Après une étude du besoin, les indicateurs à ressortir dans notre analyse sont les suivants :
c. 1. Les Bottleneck
Caractérisé par :
c. 2. Baisse de potentiel
Caractérisée par :
Caractérisée par :
Le projet a pour objectif principal d’améliorer le temps mis pour analyser les données
ce qui se résume en réalisant un rapport d’analyse avec Power BI pour le service du Well
Performance. Le présent rapport de stimulation a été créé suivant la figure ci-dessous (voir
figure25).
10.000 / jr par
Ressources humaine 01 homme pendant 03 Mois 900.000
homme
TOTAL 1.462.500
01 homme pendant 03
Ressources humaines 100.000/mois mois 300.000
TOTAL 300.000
La différence entre les coûts estimatifs et les coûts réels est l’écart type. Un écart type
positif signifie que l’entreprise a dépensé moins sur le projet et donc les coûts du projet ont été
maitrisés. Dans notre cas d’étude, l’écart type de notre projet est de :
Le but de la solution est de faciliter la prise de décision pour déterminer les candidats,
(puits pouvant être stimulé) afin de croître la production de l’entreprise. Les gains d’une
opération de stimulation sont mesurés en barrels d’huile et actuellement sur le marché, 1 baril
≈ 56285,21 FCFA. Dans ce cas, un bon candidat déterminé grâce à l’outil d’analyse, avec un
Après avoir effectué une étude comparative précédemment annoncée pour la mise en
place de notre outil d’analyse, nous avons adopté une architecture qui a par la suite été mise sur
pieds puis implémentée. Les résultats obtenus étant concluants, nous pouvons dire avec
certitude et assurance que notre projet a été un véritable succès vu les gains apportés à
l’entreprise avec très peu de coûts.
Au terme de notre étude où il était question de mettre en place une solution d’analyse
de données pour les opérations de stimulation matricielle, notre objectif principal était de
faciliter la prise de décision tout en améliorant le temps d’analyse de données. Pour répondre à
cet objectif, nous avons tout d’abord fait une étude comparative des différentes méthodes
utilisées pour la réalisation de notre outil d’analyse telles que la méthode de l’architecture des
données qui nous a permis de faire le choix sur l’approche de Kimball car elle est applicable
par domaine métier. Ensuite, une étude sur la méthode des schémas de modélisation nous a
amené à choisir le schéma en étoile pour des raisons de performances et d’exécution des
requêtes. Par la suite nous avons mis sur pied une base de données centralisée sous Excel ; et
enfin, grâce à l’outil de reporting Power BI, nous avons créé des rapports qui répondent à ce
besoin.
Comme tout travail bien mené, nous avons rencontré quelques difficultés notamment
la nomenclature différente des puits ainsi que les contraintes des sources externes de logiciels
mises en place par le parc informatique. Au regard de ces limites, nous avons proposé comme
perspectives : l’apport de nouvelles améliorations pour assurer l’optimisation de la solution au
sein de l’entreprise PERENCO ; la création d’un entrepôt de données centralisées sur une base
de données plus performante comme SQL Server. La mise à jour du système qui permettra une
meilleure visibilité, un meilleur suivi et le partage des rapports et tableaux de bords à grande
échelle, ainsi que le déploiement de la dite solution dans toute la direction des opérations.
[1]. http://www.perenco.com/Cameroun
[2].http://infodecisionnel.com/reporting-2/reporting-open-source/qlikview-reporting-open-
source/presentation-de-qlikview/
[3]. http://tdan.com/data-warehouse-design-inmon-versus-kimball/20300#
[4]. https://fr.wikipedia.org/wiki/%C3%89toile_(mod%C3%A8le_de_donn%C3%A9es
[5]. https://web.stanford.edu/dept/itss/docs/oracle/10g/server.101/b10736/concept.htm#i10062
97
[6]. https://www.aerow.group/a16u1509/
[7]. https://www.agiledss.com/fr/blogue/lien-entre-tableau-software-et-analyse-predictive
[8]. https://www.megabyte.be/logiciel-de-gestion/informatique-decisionnelle-business-
intelligence/qlikview/
[10]. www.thegasgun.com
[11]. https://www.infocube.ch/fr
[13]. https://www.dmp.wa.gov.au
[14]. https://www.parents.google.com
[15]. https://www.lesdieuxducode.com
[16]. https://stph.scenari-community.org/bdd/gen1/co/pri1c23.html
[18]. https://www.logiciels.pro/logiciel-saas/qlikview/
[19]. https://www.sales-hacking.com/outils/tableau#tarifs
[20] .https://www-knowledgehut-com.translate.goog/blog/business-intelligence-and-
visualization/power-bi-limitations
[22].https://www.cartelis.com/blog/architecture-data-warehouse/#les-modeles-de-data-
warehouse
[23]. https://learn.microsoft.com/fr-fr/power-bi/guidance/star-schema
[24].https://fre.myservername.com/schema-types-data-warehouse-modeling-star-snowflake-
schema
[25].https://fre.myservername.com/schema-types-data-warehouse-modeling-star-snowflake-
schema
[27]. Sadiq J. Zarrouk, Katie McLean, in Geothermal Well Test Analysis, 2019
[29].way to learn
[30]. https://www.votreassistance.net/
Annexe 2 : Informations sur les différents puits ayant été stimulés de 2011 à 2019
ACM013 30/04/2014 ACM-013:S4.5 1334,6 - 1343,6 1334,6 1343,6 9 31,0 1153,0 1296,5 1440
ACM014 07/11/2013 ACM-014:S4.5 1453 - 1462 1453 1462 9 31,0 1460,0 1645,0 1830
ACM014 28/08/2015 ACM-014:S4.5 1453 - 1462 1453 1462 9 31,0 1460,0 1645,0 1830
1600,7-1620,7;
ACM017A 13/01/2018 ACM-017:PS3 1600,7 1627,5 26,8 32,0 90,0 90,0
1615,7-1627,5
ACM025 27/01/2015 ACM-025:S4.5 1598,7 - 1610,7 1598,7 1610,7 12 30,0 350,0 350,0
1242,6 - 1245,6;
ACM026A 15/06/2017 ACM-026:PS3 1242,6 1252,6 10 100,0 100,0
1249,6 - 1252,6
1242,6-1245,6
ACM026A 21/12/2017 ACM-026:PS3 1242,6 1252,6 10 100,0 120,0 140
/1249,6-1252,6
ASM033A 12/05/2014 ASM-033:S1.5 1386,4 - 1392,4 1386,4 1392,4 6 25,6 900,0 1075,0 1250
ASM033A 07/12/2017 ASM-033:S1.5 1386,4-1392,4 1386,4 1392,4 6 25,6 900,0 1075,0 1250
1570-1580
ASM035A 29/11/2018 ASM-035:S4.5 1587-1590 1570 1605 35 26,0 550,0 550,0
1593-1605
ASM037 29/12/2018 ASM-037:S4.6 1294,3-1300,3 1294,3 1300,3 6 24,0 200,0 250,0 300
1886,3 - 1895,3;
ASM038 20/05/2014 ASM-038:S5D 1886,3 1913,3 27 NA 1118,0 1118,0
1902,3 - 1913,3
BOM011 16/02/2016 BOM-011:S5G 2076 - 2082 2076 2082 6 26,0 500,0 500,0
BOM203SS 17/01/2015 BOM-203S:S4.6 2179,2 - 2188,2 2179,2 2188,2 9 34,9 350,0 350,0
BOM204 16/01/2015 BOM-204:S5G 2930,5 - 2945,5 2930,5 2945,5 15 30,1 1000,0 1000,0
BRM103 20/01/2015 BRM-103:S5C_S5D 2512,8 - 2531,8 2512,8 2531,8 19 23,0 50,0 50,0
S5C 2489,9-2535,9
BRM103 04/12/2016 BRM-103:S5C_S5D 2489,9 2531,8 41,9 23,0 50,0 50,0
S5D 2512,8-2531,8
1498 - 1502;
BTM011A 03/02/2014 BTM-011:S1.6 1498 1511 13 30,0 90,0 715,0 1340
1505 - 1511
BTM020 14/11/2012 BTM-020:S5E 1934,8 - 1951,0 1934,8 1951 16,2 27,0 500,0 500,0
BTM020 22/06/2013 BTM-020:S5E 1946,5 - 1962,7 1946,5 1962,7 16,2 27,0 500,0 500,0
BTM030I 18/04/2014 BTM-030:S2 2626 - 2641 2626 2641 15 29,0 310,0 1265,0 2220
2650,8 - 2655,8;
BTM032I 08/03/2014 BTM-032:S1.5 2650,8 2693,8 43 29,0 475,0 634,0 793
2663,8 - 2693,8
2650,8 - 2655,8;
BTM032I 08/04/2014 BTM-032:S1.5 2650,8 2693,8 43 29,0 475,0 634,0 793
2663,8 - 2693,8
2249,8 - 2252,8;
BTM050 12/11/2012 BTM-050:S1.5 2249,8 2266,3 16,5 28,0 200,0 200,0
2256,8 - 2266,3
1425,7-1443,5
BVM044A 12/12/2017 BVM-044:S5D /1433,7-1435,7 1425,7 1443,7 18 29,0 75,0 75,0
/1437,2-1443,7
BVM046 26/07/2018 BVM-046:S5D 1586,7-1601,7 1586,7 1601,7 15 Il s'obtient à partir d'un test de puits:
#DIV/0!
on introduit un séparateur test dans lequel on dirige la
1618,2 - 1621,2;
BVM047 21/12/2014 BVM-047:S5D 1623,2 - 1629,2; 1618,2 1638,7 20,5 31,0 743,0 743,0
1632,7 - 1638,7
1618,2 - 1621,2;
BVM047 04/05/2017 BVM-047:S5D 1623,2 - 1629,2; 1618,2 1638,7 20,5 31,0 743,0 743,0
1632,7 - 1638,7
1618,2-1621,2
BVM047 07/12/2018 BVM-047:S5D 1623,2-1629,2 1632,7- 1618,2 1638,7 20,5 31,0 743,0 743,0
1638,7
1351,5 - 1370,5;
BVM051 11/01/2015 BVM-051:S5D_S5E 1351,5 1398,5 47 35,0 293,0 319,5 346
1388,5 - 1398,5
1799,7 - 1802,7;
BVM054A 18/05/2016 BVM-054:S4.6_S4.7 1808,7 - 1810,7; 1799,7 1851,7 52 0,2 112,0 112,0
1843,7 - 1851,7
BVM512 26/12/2015 BVM-012I:IM5 1713,5-1721,5 1713,5 1721,5 8 26,0 55,0 92,5 130
BVM516I 26/12/2015 BVM-516I:S4.7 1497,1-1511,1 1497,1 1511,1 14 19,0 130,0 132,5 135
1765 - 1770;
BVM548 10/11/2015 BVM-548I:S5D 1774 - 1781; 1765 1793 28 28,0 220,0 282,5 345
1784 - 1793
2889 - 2904;
BVM559 30/07/2011 BVM-559I:S5D 2889 2934 45 #DIV/0!
2914 - 2934
pour remplacer le Guidon AGS et PAD 9:1 10% HCl HCl 3,2
Q après = 40,1m3/day
PAD (HCl), pas de HF ou xylene,
Q avant= 18,7m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
Q avant= 69m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
Q avant= 96m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
PAD 9:1 10% HCl HCl 3,2 2500 $ 3542,4 $ 8000 $ / 14042,4
PAD 9:1 10% HCl HCl 4,9 2500$ 3542,4$ 8000$ / 12908,65
PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 21080
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 13 2500$ 3542,4$ 8000$ / 15055
CLAYFIX 5 5,6 PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 20450
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2 2500$ 3542,4$ 8000$ / 19340
PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 16400
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 3 2500$ 3542,4$ 8000$ / 12650
CLAYFIX 5 &
2 PAD 9:1 10% HCl HCl 1,6 2500$ 3542,4$ 8000$ / 19054
LOSURF 300M
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 1,5 2500$ 3542,4$ 8000$ / 16030
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2 2500$ 3542,4$ 8000$ / 14042,4
PAD 9:1 10% HCl HCl 4,76 2500$ 3542,4$ 8000$ / 14042,4
CLAYFIX 5 &
4,2 DAD 2,1 2500$ 3542,4$ 8000$ / 12090
MUSOL
CLAYFIX 5 &
3,6 HCL 10% 12 K-SPAR 12 5% HCl 12 CLAYFIX 5
MUSOL
CLAYFIX 5 &
1,8 HCL 10% 6 K-SPAR 6 5% HCl 6 CLAYFIX 5
MUSOL
CLAYFIX 5 &
PAD 9:1 10%
MUSOL & 3,6 12 K-SPAR 12 5% HCL 12 CLAYFIX 5
HCl
LOSURF
CLAYFIX 5 &
HCL 10% 6,3 SCA 20 5% HCl 9,9
MUSOL
FRESH
4,59 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
14,3 5,5 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
7,8 7,3 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
3,9 5,6 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
3,9 5,6 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
2,7 6,29 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
3,3 5,8 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
3,25 3,25 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
3,25 16,4 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
10,1 8,4 4500$ 3542,4 12000$ / 20042,4
WATER
FRESH
9,7 14,8 4500$ 3542,4 12000$ / 20042,4
WATER
Rédigé par SEMBONG A. Amandine
70
CONTROL PHASE
Pickle Re ason for
Re ason for pickle pickle displVol Re ason for space r Solve ntVol
displF+AE2:AN space r fluid space r vol (m3) Solve nt Dive rte r fluid
phase re ne wal (m3) fluid phase (m3)
70luid phase
Le Spacer permet
Le pickle fluid ici sert à Le diverter fluid
d'eviter le contact de
pousser le reste de permet de créer
deux chimiques afin
volume d'acide du main un champ d'action
FSW 2,86 d'agir indépendamment NVSO 2,7
treatment au niveau de plus élargi du
les uns des autres
la formation avant de fluide dans toute
généralement
dégorger le puits la formation
considéré omme un
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
CLAYFIX5 1,58
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau
Le pickle fluid ici sertdeà d'agir indépendamment
Le Spacer permet Leplus élargifluid
diverter du
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 3 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 4,1
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 2,4 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 2,4 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main CLAYFIX5 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 3,2 NVSO 3,9
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
CLAYFIX5 2,6 CLAYFIX 5 6 NVSO 6
volume d'acide du main deux chimiques afin un champ d'action
treatment
Le au niveau
pickle fluid ici sertdeà d'agir indépendamment
Le Spacer permet Leplus élargifluid
diverter du
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main CLAYFIX5 5,2 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation
Le pickle fluid ici sert à les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 3,5 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
Le pickle fluid ici sert à
d'eviter le contact de permet de créer
pousser le reste de
deux chimiques afin un champ d'action
volume d'acide du main
d'agir indépendamment plus élargi du
treatment au niveau de
les uns des autres fluide dans toute
la formation
Le pickle fluid ici sert à Legénéralement
Spacer permet Leladiverter
formation
fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER deux chimiques afin CLAYFIX 5 3,25 un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation
Le pickle fluid ici sert à les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 6,3 deux chimiques afin CLAYFIX 5 8 un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 11,8
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du