Vous êtes sur la page 1sur 96

République du Cameroun Republic of Cameroon

Paix – Travail – Patrie Peace – Work – Fatherland


**** ****
Ministère de l’Enseignement Ministry of Higher Education
Supérieur ****
**** The University of Maroua
Université de Maroua ****
**** National Advanced School of
Ecole Nationale Supérieure des Mines and Petroleum Industries
Mines et des Industries Pétrolières ****
**** Department of Mechanical
Département de Génie Mécanique Petroleum and Gas Engineering
Pétrolier et Gazier ****
****

B.P. 08 Kaélé
Tél : +237 665417855
Email :fmip.uma@gmail.com

MEMOIRE DE FIN D’ETUDE EN VUE DE L’OBTENTION DU


DIPLOME D’INGENIEUR DE CONCEPTION
OPTION : PRODUCTION PETROLIERE ET GAZIERE

MISE EN PLACE D’UN OUTIL D’ANALYSE DE DONNEES


POUR LES OPERATIONS DE STIMULATION
MATRICIELLE

Présenté par :
SEMBONG ANKIENWA AMANDINE
Matricule :
17A156FM

ENCADREUR PROFESSIONNEL ENCADREUR ACADEMIQUE

M. NDOKA NDOKA Joseph Pr KOL Guy Richard

Slickline Services leader Maître de conférences


Perenco Cameroun
Ecole Nationale Supérieure des Mines et des
Industries Pétrolières

ANNEE ACADEMIQUE
2021/2022
FICHE D’AUTHENTIFICATION D’ORIGINALITE DU
DOCUMENT
Je soussignée, SEMBONG ANKIENWA Amandine, étudiante au département de Génie
Mécanique Pétrolier et Gazier à l’Ecole Nationale Supérieure des Mines et des Industries
Pétrolières de l’université de Maroua atteste que, la présente étude est le résultat de mes propres
travaux effectués à Perenco Cameroun sous l’encadrement de M. NDOKA NDOKA Joseph,
Slickline Services Leader avec la supervision du Professeur KOL Guy Richard, Chef de
département de Génie Mécanique Pétrolier et Gazier.

Ce rapport est authentique et n’a jamais été présenté pour l’obtention d’un quelconque
grade universitaire.

SEMBONG ANKIENWA AMANDINE

DATE……………………………

VISA DE L’ENCADREUR ACADEMIQUE

PROFESSEUR KOL GUY RICHARD

DATE ……………………………..

VISA DU CHEF DE DEPARTEMENT

PROFESSEUR KOL GUY RICHARD

DATE ………………...................

Rédigé par SEMBONG A. Amandine


i
DEDICACE

La grande famille ANKIENWA

Rédigé par SEMBONG A. Amandine


ii
REMERCIEMENTS

En préambule à notre stage de fin d’études et fort de notre reconnaissance et notre


gratitude, nous tenons à adresser nos profonds remerciements à l’Eternel Dieu grâce à qui nous
avons la force de tout accomplir et sans qui ce mémoire n’aurait jamais vu le jour. Nous
adressons également nos remerciements à toutes ces personnes qui nous ont apporté leur soutien
tant physique que moral à savoir :

 Professeur DOKA YAMIGNO Serge, Directeur de l’Ecole Nationale Supérieure


des Mines et des Industries Pétrolières pour tous ses efforts conjugués afin de nous assurer une
bonne formation ;
 Professeur KOL Guy richard, Directeur Adjoint et chef du département de Génie
Mécanique Pétrolier et Gazier pour tous ses conseils et unités dispensées avec soin et beaucoup
de rigueur ;
 Mon encadreur académique, Professeur KOL Guy Richard pour
l’accompagnement, la disponibilité et les conseils ;
 Les membres du jury, qui ont bien voulu prendre le temps de porter un regard
critique dans la lecture et l'évaluation de ce mémoire ;
 Nos valeureux enseignants du département particulièrement Professeur
TAKOUGANG, Docteur KARGA TAPSIA , Docteur TALLA, et Docteur WELBA Collins
pour leur générosité, leur disponibilité, leur patience tout au long de notre formation ;
 Mon encadreur professionnel, M. NDOKA NDOKA Joseph, qui s’est toujours
montré à l’écoute et très disponible tout au long de la réalisation de ce mémoire, ainsi que l’aide,
les directives précieuses, la qualité de ses suivis et le temps qu’il a bien voulu nous consacrer ;
 Tout le personnel de Perenco pour l’acceuil au sein de l’entreprise ;
 Ma famille, plus particulièrement ma sœur YANGA ANKIENWA Elisette qui
m’a toujours tenu la main et motivée à aller plus loin ;
 M. LIGUEMO Backy, pour tous les soutiens et aides de toutes natures ;
 M. YOUTOU Groleau, pour son soutien multiforme et ses précieux conseils ;
 M. KOCK Roger, chef atelier maintenance pour son acceuil et sa formation
pratique dans ses différents locaux ;
 M. MBOUDOU Cyrille Joseph, pour ses multiples formations, conseils,
encouragements, son soutien et son acceuil chaleureux.

Rédigé par SEMBONG A. Amandine


iii
RESUME

La quantité de données produites chaque jour dans les entreprises est volumineuse ;
Ces données sont essentielles pour le bon fonctionnement de l’entreprise. Elles sont souvent à
l’état brut et ont besoin d’être structurées et analysées de façon à les transformer afin de faciliter
la prise de décisions. Après avoir effectué une analyse du besoin et de l’existant, nous avons
constaté que le traitement des données des opérations de stimulation se fait de façon manuelle
avec différentes sources. C’est dans l’optique de proposer une solution à ce problème que nous
avons conçu un projet intitulé « Mise en place d’une solution d’analyse de données pour les
opérations de stimulation matricielle». L’objectif premier étant d’automatiser le processus de
recueil de données, nous avons tout d’abord étudié celui en place, ensuite une étude comparative
des solutions d’analyse des données existantes comme Power BI, QlikView et Tableau
Software nous a permis de choisir la solution Power BI. Ce choix a été fait sur des critères de
coûts, de performance et d’interopérabilité de l’outil d’analyse. Cette solution repose donc sur
une base de données centralisée dans Excel qui nous sert d’entrepôts de données plus connu
sous l’appellation de data warehouse. Nous constatons par la suite que la solution nous permet
de gagner en temps d’analyse et facilite la recherche des candidats de stimulation. La
problématique posée a été traitée et le présent rapport est la synthèse des différents travaux
menés.

Mots clés : data warehouse, Stimulation, Traitement, Solution, Analyses, Données

Rédigé par SEMBONG A. Amandine


iv
ABSTRACT

The quantity of produced data each day in the companies is bulky; these data are
essential for the correct operation of the company. They are often in a rough state and have
need to be structured and analyzed in order to transform them in order to facilitate the decision-
making. After having carried out an analysis of the need and what exists, we noted that the data
processing of the operations of stimulation is made in a manual way with different sources. It
is in optics to propose a solution with this problem, which we conceived a project entitled
"Installation of a solution of analysis of data of the operations of stimulation and treatments of
the wells." The objective first being to automate the process of collection of data, we studied
that places from there, then a comparative study of the solutions of analysis of the existing data
like Power BI, QlikView and Tableau Software enabled us to choose the solution Power BI.
This choice was made on criteria of cost, performance and interworking of the tool for analysis.
This solution rests on a basis of data centralized in Excel, which serves to us as Dated
Warehouse. We note thereafter that the solution enables us to gain in time of analysis and
facilitates the research of the candidates of stimulation. The problems posed were treated and
this report/ratio is the synthesis of various undertaken work.

Keywords: data warehouse, Stimulation, Treatment, Solution, Analyses, Datas

Rédigé par SEMBONG A. Amandine


v
TABLE DE MATIERES

DEDICACE ......................................................................................................................... ii

REMERCIEMENTS ............................................................................................................. iii

RESUME............................................................................................................................iv

ABSTRACT ......................................................................................................................... v

TABLE DE MATIERES..........................................................................................................vi

LISTE DES TABLEAUX .........................................................................................................ix

LISTE DES ABBREVIATIONS .................................................................................................x

GLOSSAIRE ........................................................................................................................xi

AVANT-PROPOS ............................................................................................................... xii


 Présentation de Perenco Cameroun .................................................................................................. xix
 Fiche signalétique et Organigramme général de l’entreprise ............................................................. xx
 Présentation du département Well Interventions ............................................................................. xxi

INTRODUCTION GENERALE ............................................................................................... 1

CHAPITRE I : REVUE DE LA LITTERATURE SUR LES OPERATIONS DE STIMULATION


MATRICIELLE ET LES SOLUTIONS D’ANALYSE DE DONNEES ................................................. 2
I. 1. Les types de stimulations matricielles .................................................................................................. 2
a) L’acidification ....................................................................................................................................... 3
b) La fracturation acide ............................................................................................................................ 4
c) La fracturation hydraulique ................................................................................................................. 5
I. 2. Les différentes causes de la stimulation des puits ................................................................................. 8
I. 3. Les différentes solutions d’analyse des données ................................................................................... 9

CHAPITRE II : METHODOLOGIE ........................................................................................ 12


II. 2. Méthodes d’analyse des données des opérations de stimulation matricielle .................................... 14
II. 2. 1. La méthode de l’étude de l’existant et du besoin .......................................................................... 15
II. 2. 2. La méthode de solution d’analyse de données .............................................................................. 16
a. QlikView ................................................................................................................................................... 17
b. Tableau Software ..................................................................................................................................... 19
c. Power BI ................................................................................................................................................... 21

Rédigé par SEMBONG A. Amandine


vi
II. 2. 3. La méthode d’architecture de la base de données ......................................................................... 23
a. Approche de Bill Inmon ........................................................................................................................... 23
b. Approche selon Kimball ........................................................................................................................... 26
II. 2. 4. La méthode de schéma de la base de données .............................................................................. 30
a. Schéma en étoile ..................................................................................................................................... 30
b. Schéma en flocon (flocon de neige) ........................................................................................................ 32
II. 2. 5. Etude sur les opérations de stimulation matricielle ....................................................................... 34
a. Définition ................................................................................................................................................. 34
b. Moyens de traitement ............................................................................................................................. 34
i. Pickle .................................................................................................................................................. 35
ii. Main treatment .................................................................................................................................. 35
c. Opérations de stimulation matricielle ..................................................................................................... 37

CHAPITRE III : RÉSULTATS ET DISCUSSIONS ...................................................................... 40

III. 1. Étude de l’existant et du besoin ............................................................................ 40

III. 2. Méthodes d’analyses des données ......................................................................... 40

III. 3. Architecture de la base de données ........................................................................ 42

III. 4. Schéma de la base de données ............................................................................... 43

III. 5. Création de la base de données centralisée ............................................................ 44

III. 6. Application de la méthode de Kimball .................................................................... 44

III. 7. Application de la méthode POWER BI .................................................................... 46


..................................................................................................................................................................... 48
a. Rapports (reporting) ................................................................................................................................ 48
b. Mise en œuvre......................................................................................................................................... 53
c. Les indicateurs ......................................................................................................................................... 55
c. 1. Les Bottleneck ...................................................................................................................................... 55
c. 2. Baisse de potentiel ............................................................................................................................... 55
c. 3. Evolution du potentiel détaillé ............................................................................................................. 56

III. 8. Bilan économique .................................................................................................. 57

CONCLUSION GENERALE ................................................................................................. 60

REFERENCES BIBLIOGRAPHIQUES .................................................................................... 61

ANNEXES ........................................................................................................................ 63

Rédigé par SEMBONG A. Amandine


vii
LISTE DES FIGURES

Figure 1: Concessions de Perenco au Cameroun [1]............................................................... xix


Figure 2 : organigramme de l’entreprise [1] ........................................................................... xxi
Figure 3 : Processus d’acidification [12].................................................................................... 4
Figure 4: Processus de fracturation acide [12] ........................................................................... 5
Figure 5 : Processus de fracturation hydraulique [11] ............................................................... 6
Figure 6 : Planning prévisionnel du travail .............................................................................. 13
Figure 7 : Diagramme bête à corne .......................................................................................... 16
Figure 8 : Logo du logiciel QlikView [9] ................................................................................ 18
Figure 9 : Logo Tableau Software [9] ...................................................................................... 21
Figure 10 : Logo du logiciel Power BI [9] ............................................................................... 23
Figure 11: Data warehouse selon Inmon [22] .......................................................................... 26
Figure 12: Data warehouse selon Kimball [14] ....................................................................... 30
Figure 13 : Schéma en étoile [25] ............................................................................................ 32
Figure 14 : Schéma en Flocon de neige [25] ............................................................................ 34
Figure 15 : Etapes d'une opération de traitement [28] ............................................................. 37
Figure 16 : Effet d’une opération de stimulation ..................................................................... 38
Figure 17 : Architecture de la solution adoptée ....................................................................... 45
Figure 18 : Importation des tables dans Excel ......................................................................... 47
Figure 19 : Schéma en étoile de la base de données ................................................................ 48
Figure 20 : Choix du type de source sélectionné ..................................................................... 49
Figure 21 : Choix des tables à importer ................................................................................... 50
Figure 22 : Tables mises en relation......................................................................................... 51
Figure 23 : Rapport de stimulation matricielle......................................................................... 52
Figure 24 : Modélisation dans Power BI .................................................................................. 54
Figure 25 : Rapport de Well Performance ............................................................................... 56
Figure 26 : organigramme du service d’acceuil [1] ................................................................. 63
Figure 27 : Présentation de quelques puits ayant subi une stimulation matricielle .................. 73

Rédigé par SEMBONG A. Amandine


viii
LISTE DES TABLEAUX

Tableau 1 : Fiche signalétique .................................................................................................. xx


Tableau 2 : Comparaison des solutions .................................................................................... 41
Tableau 3 : Comparaison des architectures .............................................................................. 42
Tableau 4 : Comparaison des Schémas .................................................................................... 43
Tableau 5 : Coût estimatif du projet ......................................................................................... 57
Tableau 6 : Coûts réels du projet .............................................................................................. 58

Rédigé par SEMBONG A. Amandine


ix
LISTE DES ABBREVIATIONS

 ACM : Asoma Centre Marine


 AED : Analyse Exploratoire des Données
 AKF : Akono Forage
 AKM : Akono Marine
 API : Application Programming Interface (Interface de programmation d’application)
 ASF : Asoma Forage
 ASM : Asoma Marine
 BI : Business Intelligence
 BKF : Bakassi Forage
 BKM : Bakassi Marine
 BOEPD : Barrels of Oil Equivalent Per Day (Barils de pétrole par jour)
 BOF : Boa Forage
 BOM : Boa Marine
 BSW: Basic Sediments Water
 ENF : Erong Nord Forage
 ENSMIP : Ecole Nationale Supérieure des Mines et Industries Pétrolières
 HCl : Acide Chlorhydrique
 HF: Acide Fluorhydrique
 IBM-SPSS: International Business Machine - Statistical Package for the Social
Sciences
 ODBC : Open DataBase Connectivity
 PMI : Project Management Institute
 Qoil : Débit d’huile
 RDR : Rio Del Rey
 SNH : Société Nationale des Hydrocarbures
 SQL Server : Structured Query Language (Langage de requêtes structurées)

Rédigé par SEMBONG A. Amandine


x
GLOSSAIRE

 BOPD/BOEPD : La quantité d’huile en barils produit par jour.


 BSW : Ratio d’eau dans le réservoir.
 Bull head : mise en place du traitement en l’injectant à partir de la tête de puits.
 Data marts : pseudo Data Warehouse qui contient les données par services.
 Data Warehouse : entrepôts de données utilisées pour stocker les données et les
modéliser pour faciliter l’analyse des données.
 Diverter : fluide utilisé durant une opération de stimulation en vue de répartir de façon
homogène le traitement sur un long intervalle de perforation.
 ETL : processus qui permet de modifier les données avant de stocker dans un data
Warehouse.
 Mud acid : mélange d’acide chlorhydrique et d’acide fluorhydrique généralement
utilisé comme traitement principal au cours de la stimulation des réservoirs gréseux.
 ODBC : technologie qui permet d’interfacer une application à une source de données.
 Puits : canal foré et équipé en vue de produire la réserve d’un gisement du fond vers la
surface.
 Pumping : l’action qui permet d’injecter les fluides dans un puits.
 Qoil : débit d’huile produit par un puits souvent mesuré en bopd.
 Réservoir : formation géologique qui contient des hydrocarbures, du gaz et de l’eau.
 SQL : langage de définition de données avec des requêtes.
 Complétion : partie interne du puits faisant la liaison entre le réservoir et la tête de puits.
 Work over : reprise de la complétion d’un puits.

Rédigé par SEMBONG A. Amandine


xi
AVANT-PROPOS

PRESENTATION DE L’ECOLE NATIONALE SUPERIEURE


DES MINES ET DES INDUSTRIES PETROLIERES (ENSMIP)

L’Ecole Nationale Supérieure des Mines et des Industries Pétrolières a été créé par le
Décret N° 2022/012 du 07 Janvier 2022.

TITRE I : DISPOSITIONS GENERALES

Article 1 : (1) Le présent Avant-Propos porte sur un extrait de l’organisation administrative et


académique de l'Ecole Nationale Supérieure des Mines et des Industries Pétrolières de
l'Université de Maroua, en abrégé et ci-après désignée « ENSMIP ».
(2) L'ENSMIP est une Grande Ecole à vocation scientifique, technologique et
professionnelle de l'Université de Maroua.

Article 2 : L'ENSMIP a pour missions :


❖ La formation des ingénieurs et des cadres supérieurs dans les métiers des mines et du
pétrole ;
❖ La promotion de la recherche dans ses domaines de formation ;
❖ L'appui au développement sous forme de prestations de services.

Article 3 : Dans le cadre de ses missions, l'ENSMIP :


❖ Entretient des relations étroites avec les milieux socioprofessionnels ;
❖ Peut négocier des conventions et accords de coopération avec des entreprises, des
institutions et organisations nationales ou étrangères, conformément aux lois et
règlements en vigueur au Cameroun.

TITRE II : DE L'ORGANISATION ADMINISTRATIVE

Article 4 : L'ENSMIP comprend les organes suivants :

Rédigé par SEMBONG A. Amandine


xii
❖ Un Conseil de Direction ;
❖ Une Direction ;
❖ Un Conseil d'Etablissement ;
❖ Une Assemblée d'Etablissement :
❖ Des Départements.

SECTION I : DU CONSEIL DE DIRECTION

Article 5 : (1) Le Conseil de Direction est l'organe d'orientation de l'ENSMIP.


(2) II est notamment consulté sur toute question qui touche à la vie de l'ENSMIP et est
chargé d'étudier et de promouvoir toute action susceptible de contribuer à l'accomplissement
des missions de l'ENSMIP.

Article 6 : (1) le Conseil de Direction de l'ENSMIP est composé ainsi qu'il suit :
Président : le Recteur de l'Université de Maroua.
Vice-Président : le représentant du Ministère en charge des mines.
Rapporteur : le Directeur de l'ENSMIP.
Membres :
❖ Un (01) représentant du Ministère en charge de l'enseignement supérieur ;
❖ Un (01) représentant du Ministère en charge de la recherche scientifique et de
l'innovation ;
❖ Un (01) représentant du Ministère en charge de la fonction publique ;
❖ Un (01) représentant du Ministère en charge des finances ;
❖ Un (01) représentant du Ministère en charge de l'économie ;
❖ Un (01) représentant du Ministère en charge de l'eau et de l'énergie ;
❖ Un (01) représentant du Ministère en charge des petites et moyennes entreprises ;
❖ Un (01) représentant du Ministère en charge de l'environnement ;
❖ Un (01) représentant des ordres professionnels par filière fonctionnelle au sein de
l'ENSMIP ;
❖ Un (01) représentant de la Chambre de Commerce, de l'industrie, des Mines et de
l’Artisanat ;
❖ Deux (02) représentants des regroupements patronaux.

Rédigé par SEMBONG A. Amandine


xiii
(2) Les membres du Conseil de Direction sont désignés par les Administrations et
Organismes auxquels ils appartiennent.
(3) Les représentants des milieux socioprofessionnels, désignés par décision du Recteur,
sur proposition du Directeur de l'ENSMIP, sont des personnalités ayant une qualification établie
dans les domaines de formation dispensée par l'ENSMIP.
(4) La composition du Conseil de Direction est constatée par décision du Ministre
charge de l'enseignement supérieur.
(5) Le Président du Conseil peut inviter toute personne à participer aux travaux du
Conseil avec voix consultative, en raison de ses compétences sur les points inscrits à l'ordre du
jour.

SECTION II : DE LA DIRECTION

ARTICLE 7 : (1) La Direction de l'ENSMIP est assurée par un Directeur, enseignant de rang
magistral, nommé par décret du Président de la République.
(2) Le Directeur est assisté d'un Directeur-Adjoint, nommé par arrêté du
Ministre charge de l'enseignement supérieur. II assure l'intérim en cas d'empêchement ou
d'absence du Directeur.

Article 8 : (1) La Direction de l’ENSMIP comprend :


❖ La Division des affaires académiques, de la recherche et de la coopération ;
❖ La Division de la scolarité et des Etudes ;
❖ La Division de la formation continue et à distance ;
❖ La division administrative et financière ;
❖ Le centre de documentation et des archives ;
❖ Le centre d’expérimentation et de production ;
❖ La cellule informatique et des systèmes d’information ;
❖ Le service de l’orientation-conseils et de l’action sociale ;
❖ Le service du courrier et des relations publiques ;
❖ L’infirmerie.
(2) sont directement rattachés au Directeur :
❖ Le centre de documentation et des archives ;
❖ Le centre d’expérimentation et de production ;

Rédigé par SEMBONG A. Amandine


xiv
❖ La cellule informatique et des systèmes d’information ;
❖ Le service de l’orientation-conseils et de l’action sociale ;
❖ Le service du courrier et des relations publiques ;
❖ L’infirmerie.

SECTION Ill : DU CONSEIL D'ETABLISSEMENT

ARTICLE 9 : Le Conseil d'Etablissement fait des recommandations sur :


❖ La création et l'exécution des nouveaux programmes ;
❖ L'évaluation des programmes en matière d'adéquation formation-emploi ;
❖ L'évaluation des activités d'enseignement du personnel enseignant ;
❖ L'organisation des études ;
❖ Le recrutement et la promotion des enseignants conformément aux textes en vigueur ;
❖ Les besoins en matière de recherche et les opportunités de recherche ;
❖ Les résultats des examens à transmettre au Conseil d'Université.

Article 10 : (1) Le Conseil d'Etablissement est compose ainsi qu'il suit :


Président : le Directeur de l'ENSMIP ;
Vice-Président : le Directeur-Adjoint de l’ENSMIP ;
Rapporteur : le Chef de la Division Administrative et Financière ;
Membres :
❖ Les Chefs de Division ;
❖ Les Chefs de Département ;
❖ Les enseignants de rang magistral ;
❖ Un (01) représentant des Charges de Cours élu par ses pairs pour une période de trois
(03) ans renouvelable une (01) fois ;
Un (01) représentant des Assistants élus par ses pairs pour une période de trois (03) ans
renouvelable une (01) fois.
(2) Le Président du Conseil d'Etablissement peut, compte tenu des questions inscrites à
l'ordre du jour, inviter toute personne à prendre part aux travaux avec voix consultative.

SECTION IV : DE L'ASSEMBLEE D'ETABLISSEMENT

Rédigé par SEMBONG A. Amandine


xv
Article 11 : L'Assemblée d'Etablissement formule des recommandations sur toutes les
questions intéressant la vie de l'ENSMIP.

Article 12 : (1) Présidée par le Directeur, l'Assemblée d'Etablissement de l'ENSMIP comprend


les membres suivants :
❖ Le Directeur-Adjoint ;
❖ Les Chefs de Division ;
❖ Les Chefs de Départements ;
❖ Tous les enseignants permanents, associes et vacataires ;
❖ Deux (02) représentants des personnels d'appui ;
❖ Un (01) représentant de l'Association des Etudiants de l'ENSMIP.
(2) Les représentants des personnels d'appui ne sont pas admis aux réunions ou la
condition de l'enseignant est à l'ordre du jour.
(3) Les représentants des étudiants participent avec voix consultative aux travaux de
l'Assemblée d'Etablissement, hormis ceux ayant trait au corps enseignant et à la sanction des
étudiants.

Article 13 : (1) L'Assemblée d'Etablissement se réunit une fois par semestre et chaque fois que
cela est juge nécessaire, sur convocation de son Président.
(2) Le secrétariat est assuré par la Division Administrative et Financière.

SECTION V : DES DEPARTEMENTS

Article 14 : (1) Le Département est une unité pédagogique regroupant l'ensemble des
enseignements et des activités de recherche d'une discipline ou groupe de disciplines
déterminées.
(2) Le Département anime, coordonne et contrôle les activités académiques ;
élabore, exécute et effectue le suivi des programmes d'enseignement et de recherche.
(3) Le Département se réunit en Conseil.

Article 15 : (1) Chaque Département est dirigé par un Chef de Département, enseignant de rang
magistral ou, à défaut, par un Charge de Cours de la discipline concernée. II est assisté d'un
Adjoint.

Rédigé par SEMBONG A. Amandine


xvi
(2) Le Département peut comprendre des unités de recherche ou des Laboratoires dans
l'organisation et les modalités de fonctionnement sont fixées par décision du Recteur de
l'Université de Maroua.
Article 16 : Le Conseil de Département émet un avis motive sur :
❖ La politique du département en matière de formation et de recherche ;
❖ La création des enseignements et des options de formation ;
❖ Le recrutement, les avancements et les promotions des enseignants permanents du
département ;
❖ Toute autre question impliquant le département et à lui soumise par le chef de
Département.

Article 17 : L’ENSMIP comprend des départements crées par arrêté du ministre chargé de
l’enseignement supérieur, éventuellement sur proposition du recteur, et après avis des instances
délibérantes compétentes de l’Université de Maroua.

Article 18 : Les études à l’ENSMIP sont assurées dans le cadre des cycles de formation initiale
et continue, des stages de recyclage et de perfectionnement, ainsi que des enseignements à
distance.

SECTION VI : DES CURSUS DE FORMATION

Article 19 : (1) L’ENSMIP comprend deux (02) cursus de formation :


❖ Le cursus de formation d’ingénieur ;
❖ Le cursus de formation en sciences de l’ingénieur.
(2) L’ENSMIP prépare aux diplômes ci-après :
a) le diplôme d'ingénieur pour le cursus de formation d’ingénieur ;
b) pour le cursus en Sciences de l’ingénieur :
❖ Le diplôme de Licence en Sciences de l’ingénieur ;
❖ Le diplôme de Master en Sciences de l'ingénieur ;
❖ Le diplôme de Doctorat ou PhD en Sciences de l'ingénieur.
(3) Les stages et formations organisés dans le cadre de la section « Formation
Continue» donnent lieu à la délivrance d'attestations ou de certificats de formation.

Rédigé par SEMBONG A. Amandine


xvii
Article 20 : (1) Les étudiants inscrits dans le cursus de formation d'ingénieur peuvent
prétendre à l'obtention des diplômes de Licence et Master, par la création de passerelles et
d'enseignements complémentaires dont les régimes sont fixes par arrêté du Ministre charge de
L’enseignement supérieur.
(2) Les étudiants ayant obtenu le diplôme de Master en Sciences de l'ingénieur
peuvent être admis au cycle de Doctorat en Sciences de l'ingénieur, suivant les conditions fixées
par l'Ecole doctorale concernée et conformément à l'arrêté portant organisation des études pris
par le Ministre charge de l'enseignement supérieur.
(3) L'organisation, les programmes et le système d'évaluation des enseignements dans
les différents cycles de formation sont fixes par arrêté du Ministre charge de l'enseignement
supérieur.

SECTION VII : DE L'ADMISSION DES ETUDIANTS

Article 21 : (1) L'admission à l'ENSMIP se fait par voie de concours.


(2) Les modalités d'admission à l'ENSMIP, prévue à l'alinéa 1 ci-dessus, sont fixées
par décision du Ministre charge de l'enseignement supérieur.

Rédigé par SEMBONG A. Amandine


xviii
PRESENTATION DE L’ENTREPRISE

 Présentation de Perenco Cameroun

Le groupe PERENCO est représenté au Cameroun par sa filiale PERENCO


CAMEROON. Elle a commencé ses activités en 1993 sous la dénomination KELT
CAMEROON. La filiale exploitait alors les sites de MOUDI et EBOME en partenariat avec la
SNH. En 1997, KELT CAMEROON devient PERENCO CAMEROON et, en 2001, après avoir
racheté les avoirs de CMS NOMECO, l’entreprise acquiert les permis de MVIA et KOMBE-
NSEPE. En 2008, l’entreprise signe avec la SNH un contrat d’autorisation exclusive
d’exploitation et production du gaz de la concession de SANAGA SUD. En 2011, PERENCO
effectuera sa dernière acquisition en date et non des moindres, celle des actifs de TOTAL E&P
Cameroun. A ce jour, PERENCO Cameroun emploie environ 300 personnes et a une production
journalière d’environ 72000 bopd répartie sur les sites du Rio Del Rey Est & Ouest, EBOME,
MOUDI, DISSONI, MASSONGO.

Figure 1: Concessions de Perenco au Cameroun [1]

Rédigé par SEMBONG A. Amandine


xix
 Fiche signalétique et Organigramme général de l’entreprise

 Fiche signalétique

PERENCO étant une compagnie pétrolière, produit du pétrole et du gaz naturel


dans une zone opérationnelle de plus de 6000km2. Les informations clées sont recensées dans
cette fiche signalétique :

Tableau 1 : Fiche signalétique

Nom de l’entreprise PERENCO CAMEROON


Forme juridique Entreprise indépendante
Logo

Directeur général Armel SIMONDIN


Production journalière moyenne 85 000 BOEPD
Capital 3 400 000 $ USD
Effectif du personnel 288 nationaux
101 expatriés
Siège Social Douala, Cameroun
BO : 2214
Tel : +237 233421366
Siteweb: http://www.perenco.com/cameroon
Concurrents nationaux ADDAX Petroleum
Concurrents Internationaux SHELL
Trident Energy
ADDAX Petroleum

 Organigramme de l’entreprise

La direction générale de l’entreprise se fait assister par d’autres directions dans la


gestion des activités de l’entreprise et sa bonne marche. La figure ci-après est un extrait de
l’organigramme de fonctionnement de l’entreprise :

Rédigé par SEMBONG A. Amandine


xx
Figure 2 : organigramme de l’entreprise [1]

 Présentation du département Well Interventions

Placé sous la directive des départements Drilling et Production, le département


Well Interventions est chargé de planifier et coordonner les opérations sur les puits de pétrole
tels que les opérations de nettoyage de tube de production, de stimulation de puits et de
Slickline. Pour cela, le département est divisé en deux entités, à savoir :

 Le Well Performance : cette entité est chargée d’étudier le


comportement des puits et de proposer des solutions pour améliorer leur production ;

Rédigé par SEMBONG A. Amandine


xxi
 Le Well Services : celle-ci est chargée de la mise en œuvre des solutions
proposées par le Well Performance, c’est-à-dire la planification, l’ordonnancement et le suivi
des opérations faites sur les différents puits. On y trouve plusieurs sections à savoir :

La section Pumping, qui s’occupe des opérations de pompage de fluides


qui visent à dissoudre les dépôts dans le tubing (Pickling) et à stimuler les réservoirs
(stimulations matricielles)
La section Slickline, en charge de toutes les opérations faites au câble
permettant le remplacement et la mise en place de composants dans les complétions ou la
mesure de données de pression et température
La section Well Integrity qui se charge de l’intégrité des têtes de puits à
travers le monitoring et la maintenance des vannes de têtes de puits.
L’atelier Well Services qui est chargée de mixer les produits chimiques
de traitements, la maintenance des vannes Gaslift, vannes de tête de puits et certains outils
Slickline.

Rédigé par SEMBONG A. Amandine


xxii
INTRODUCTION GENERALE

Chaque année au moins une à 2 campagnes de stimulation sont lancées pour


optimiser la production et le processus de préparation avant le début de la campagne prend
énormément de temps. Certains puits peuvent revenir plus d’une fois et on aimerait savoir si le
traitement appliqué à sa dernière stimulation était un succès ou pas. Les données étant
dispersées dans différentes sources et les processus de recueil de ces données étant des
processus manuels, le temps de réponse pour avoir les informations sur un puits est énorme et
pour toute une campagne, le processus de collecte devient très long [1]. C’est dans cette logique
que le projet intitulé mise en place d’une solution d’analyse des données pour les opérations de
stimulation matricielle a été soumis à notre étude.

Pour remédier à ce problème, nous nous sommes posés la question de savoir


« comment améliorer le processus d’analyse de données ? ». Dans le souci de remédier à ce
problème, nous travaillerons dans l’optique de proposer une solution d’analyse de données qui
permettra de centraliser et limiter le temps d’analyse des données relatives aux opérations de
stimulation. La solution doit être capable d’automatiser le processus de collecte, de traitement,
d’analyse et également le partage de ces informations [2]. Elle se doit d’être sécurisée et capable
d’intégrer l’architecture de l’entreprise en respectant ses contraintes et politiques. Afin de
répondre à la problématique susmentionnée, nous débuterons premièrement par une étude
d’opérations de stimulation de puits, ensuite, notre réflexion se dirigera deuxièmement sur les
solutions existantes d’analyse de données, enfin nous étudierons plusieurs méthodes à
l’exemple de celles de l’étude de l’existant et du besoin [3], de l’architecture et du schéma de
modélisation afin de faciliter le travail.

Pour le bon déroulement de notre projet, nous avons subdivisé notre travail en cinq
principales parties. La première partie présentera l’introduction au problème ; la deuxième
partie intitulée chapitre I présentera la revue de la littérature pertinente sur le sujet soient les
grands enjeux du problème. La troisième partie qui sera notre chapitre II abordera les méthodes
utilisées dans l’étude pour aboutir à notre outil d’analyse. La quatrième partie qui est le chapitre
III illustrera les résultats qui seront présentés et discutés afin de défendre notre approche. Et la
cinquième partie qui constitue notre conclusion identifiera à la fois les limites de l’étude ainsi
que des pistes de recherches complémentaires [4].

Rédigé par SEMBONG A. Amandine


1
CHAPITRE I : REVUE DE LA LITTERATURE SUR LES
OPERATIONS DE STIMULATION MATRICIELLE ET LES
SOLUTIONS D’ANALYSE DE DONNEES

Dans ce chapitre, nous allons tout d’abord aborder les généralités sur les opérations de
stimulation matricielle, ensuite nous présenterons de manière détaillée les différentes causes de
ces stimulations et enfin nous exposerons les généralités sur les différentes solutions d’analyse
de données.

I. 1. Les types de stimulations matricielles

Les hydrocarbures sont concentrés et retenus « prisonniers» par l’imperméable et sous


pression par le poids des terrains de recouvrement. Un réservoir pétrolier a une extension
limitée (de quelques km2 voire centaines de km2) [7]. Schématiquement, pour son exploitation,
il suffit, par l’intermédiaire d’un forage, de percer la couche imperméable pour pénétrer dans
le gisement ; d’équiper le puits (avec des tubages et des vannes), de faire baisser la pression
dans l’ouvrage pour que le pétrole ou le gaz remontent en surface sous la pression des terrains.
La fracturation hydraulique a d’ailleurs été mise au point par les pétroliers pour améliorer les
débits des réservoirs conventionnels en fin de vie. Elle permettait de fracturer la roche du
réservoir mais préservait scrupuleusement la roche de la couverture imperméable [8]. On peut
dire que la fracturation restait « contenue ». Pour mieux trouver des solutions à ce phénomène
de stimulation, il faudrait tout d’abord le comprendre en essayant de trouver une définition plus
explicite :

La stimulation des puits peut être définie comme étant un traitement effectué pour
restaurer ou améliorer la productivité d’un puits. Les traitements de stimulation se divisent
généralement en deux groupes à savoir :
 Les traitements dits de fracturation hydraulique qui sont effectués au-dessus de
la pression de fracturation de la formation réservoir et créent un chemin de flux hautement
conducteur entre le réservoir et le puits de forage ;
 La stimulation matricielle qui est conçue pour traiter la formation du réservoir
proche du puits de forage plutôt que d’autres zones du conduit de production telles que le tubage

Rédigé par SEMBONG A. Amandine


2
à travers l’intervalle de production, les tubes de production ou les perforations [9]. D’autres
groupes de traitements de stimulation sont les suivants :
 Le contrôle du sable (sand control) qui empêche la migration du sable du
réservoir dans le puits de forage ou à proximité de ce dernier ;
 Le contrôle de l’eau qui est effectué dans un réservoir ou un intervalle perforé
pour réduire la production d’eau ;
 Le nettoyage du puits de forage.

Les préoccupations récentes concernant la stimulation des puits incluent : le


perçage horizontal, la rareté des ressources, le prix de l’essence déprimé et la sensibilisation
accrue à l’environnement. Certains paramètres sont critiques pour la stimulation ; on peut noter
entre autre les puits de pétrole ou de gaz, les coûts et la répartition du propant dans les fractures
complexes [10]. Malgré toutes les précautions prises au cours du forage, il est inévitable qu’il
y ait un filtrat de boue qui envahisse la couche réservoir autour du puits, sur une distance qui
peut aller de quelques centimètres à plusieurs mètres. Ce filtrat contient de fines particules qui
peuvent colmater les pores de la roche et nuire à la production ou à l’injection. C’est pourquoi
il peut s’avérer nécessaire, avant de tester ou de mettre en production un puits, d’effectuer un
traitement pour améliorer la liaison couche-trou, ayant pour but de rétablir la perméabilité
naturelle de la formation autour du puits, voire de l’améliorer. Il existe trois (03) grands types
de techniques de stimulation dont deux chimiques et une mécanique qui sont entre autres :
 L’acidification,
 La fracturation acide,
 Fracturation hydraulique.

a) L’acidification
Ce traitement matriciel dans les réservoirs de grès utilisé depuis 1930 consiste à
injecter dans la formation un acide dilué dans de l’eau, de façon à « laver » la zone périphérique
du puits, c’est-à-dire éliminer ou déloger les solides colmatants indésirables, présents dans les
pores de la roche (voir figure 3). Plusieurs types d’acides sont utilisés selon la nature de la roche
réservoir à savoir : l’acide chlorhydrique (HCl) utilisé pour les roches calcaires et permettant
de dissoudre les carbonates, soit dans la formation, soit à partir des fluides de forage ; et l’acide
fluorhydrique (HF) utilisé pour les grès [11]. L'acide chlorhydrique peut être utilisé
individuellement ou en combinaison avec l’acide fluorhydrique dans ce qu'on appelle l'acide de

Rédigé par SEMBONG A. Amandine


3
boue (Mud Acid) ; c'est la principale technique utilisée par PERENCO car les réservoirs sont
des réservoirs gréseux non consolidés. En général, la majeure partie de l’acide injecté réagit
avec la formation et ne retourne pas dans le puits.

Notons que cette méthode est couramment utilisée, non seulement dans le domaine des
forages pétroliers mais aussi, pour le traitement des puits d’eau ou des puits de géothermie. Le
propre de l’acidification est que la pression d’injection est suffisante pour permettre la
pénétration de l’eau dans la roche et le cas échéant, la réouverture de fractures naturelles
existantes ; sans toutefois dépasser la pression de fracturation de la formation.

Figure 3 : Processus d’acidification [12]

b) La fracturation acide

Il s'agit ici d'un processus dans lequel de l'acide est injecté à une pression supérieure
au gradient de dégradation de la formation créant ainsi une fracture. L'acide forme alors des
canaux d'écoulement à la surface de la fracture qui, lors de la fermeture, fourniront des canaux
d'écoulement conducteurs profonds (voir figure 4).

Rédigé par SEMBONG A. Amandine


4
Figure 4: Processus de fracturation acide [12]

c) La fracturation hydraulique
Développée en 1940 par l’entreprise Halliburton l’un des plus gros opérateurs du
domaine pétrolier, l’idée de stimuler la productivité de forage par la fracturation sous haute
pression avec une première expérimentation au Etats-Unis en 1947 dans l’état du Kansas pour
le compte de la compagnie pétrolière et gazière Stanolind Oil and Gas Corp [13].. Ce n’est
qu’en 1957 que le procédé a pu être amélioré par de nouvelles pompes très puissantes. Depuis
le creusement de son premier puits horizontal, plus de 1million d’opérations auraient été
conduites par le groupe Halliburton, qui aurait permis d’extraire plus de 600milliards de pieds
cubiques de gaz. En raison de son efficacité, cette technique a rapidement été adoptée par
d’autres compagnies, pour être aujourd’hui utilisée dans le monde entier, dans des dizaines de
milliers de forages pétroliers et gaziers chaque année [14]. La fracturation hydraulique se
produit à de grandes profondeurs, généralement entre 5 et 10000 ft (pieds). Il s'agit d'une
technique par laquelle le fluide est injecté à un débit élevé et avec une pression supérieure au
gradient de dégradation de la formation (voir figure5). Le réservoir se « cassera »
mécaniquement, produisant ainsi une fissure. Cette fissure est maintenue ouverte grâce à
l'utilisation d'agents de soutènement initialement ajoutés et pompés avec les fluides de
fracturation : des fractures nouvelles sont ainsi créées dans la formation. Un propant
(généralement du sable de granulométrie sélectionnée ou des billes) est utilisé pour maintenir
ouvertes les fissures artificiellement créées.

Rédigé par SEMBONG A. Amandine


5
Notons que la fracturation hydraulique, en tant que méthode de traitement des puits, a
pour fonction de rétablir, dans un périmètre localisé autour du puits, la connexion hydraulique
entre le puits et une formation réservoir naturellement perméable [15].

Figure 5 : Processus de fracturation hydraulique [11]

Cet usage « historique » de la fracturation hydraulique doit être distingué de son usage
nouveau (opérations de fracturations successives dans un drain horizontal de plusieurs centaines
de mètres), qui s’est développé depuis le début des années 2000, essentiellement aux Etats-
Unis, dans le cadre de l’exploitation des hydrocarbures de roches mères soient de gaz et huile
de schistes par exemple.
Dans ce dernier cas, la fracturation hydraulique est utilisée de manière beaucoup plus
intensive, pour fissurer des roches très peu perméables, c’est-à-dire qui ne possèdent pas
naturellement la perméabilité suffisante pour permettre un écoulement des hydrocarbures vers
le puits par simple pompage ou par balayage de la couche géologique. En France, depuis la loi
2011-835 du 13 juillet 2011, la mise en œuvre de la fracturation hydraulique est interdite pour
l’exploration et l’exploitation des hydrocarbures, quel que soit son usage [15]. Les opérateurs
pétroliers et gaziers utilisent le traitement à l’acide (acidification) pour améliorer la productivité
des puits depuis près de 120 ans. L’acidification est antérieure à toutes les autres techniques de

Rédigé par SEMBONG A. Amandine


6
stimulation des puits, y compris la fracturation hydraulique qui n’a été développée qu’à la fin
des années 1940.

Cependant, jusqu’au début des années 1930, l’utilisation de l’acidification était limitée
par le manque d’inhibiteurs de corrosion efficaces, l’utilisation et le développement du
traitement à l’acide des puits de pétrole et de gaz ont proliféré, conduisant à la création de
l’industrie des services de stimulation des puits [16]. Aujourd’hui, l’acidification est l’un des
moyens les plus utilisés et les plus efficaces dont disposent les opérateurs pétroliers et gaziers
pour améliorer la productivité des puits. Nous nous concentrerions davantage sur l'acidification
car c'est la technique de stimulation utilisée par l'entreprise qui nous a accueillis.

L’objectif du traitement de stimulation est d’éliminer toutes les particules ou tartres


potentiellement solubles dans l’acide, dans la région proche du puits de forage et également
d’attaquer les fines et la migration de l’argile qui pourraient affecter la perméabilité. La
conception de traitement standard habituellement appliquée sur le champ Rio Del Rey (RDR)
suit les étapes de la manière suivante :

 Test d’injectivité avec un Clayfix5


 Nettoyage des tubes de production avec 10% de HCl ou PAD 9 :1 10%
 Le déplacement des solutions avec de l’eau douce
 Prélavage (Preflush) non acide avec Clayfix5 associé à du Musol (0.3m3/m)
 Prélavage acide avec 10% HCl ou PAD 9 :1 10% (1m3/m)
 Rinçage acide principal (Main acid flush) avec de l’acide de boue (HCl/HF 9 :1, HCl/HF
13.5 :1.5) (1m3/m)
 Post-rinçage (postflush) acide avec 5% d’acide HCl (1m3/m)
 Post-rinçage non acide avec Clayfix5 (0.65 m3 /m)
 Déplacement des solutions avec de l’eau douce (volume du tube)

Avant l’injection de chaque solution dans le puits, on procède à son mixage dans les
cuves. A chaque phase des opérations, on enregistre les données du puits à savoir la pression,
le débit d’injection et la quantité injectée. En fonction de la réaction de la pression, on peut
déterminer si le traitement a eu des effets positifs ou négatifs. Mais ce n’est qu’avec les gains
observés que l’on peut affirmer que le traitement administré était approprié ou pas [16].

Rédigé par SEMBONG A. Amandine


7
Pour apporter des résolutions à la baisse de la productivité des puits, chercheurs,
géologues et géophysiciens se sont réunis afin de trouver quels pourraient être les différentes
causes possibles de ce problème technique.

I. 2. Les différentes causes de la stimulation des puits

Dans de nombreuses formations rocheuses, des processus biologiques, chimiques,


et/ou physiques, altèrent la roche réservoir au cours du temps géologiques. Dans certains cas
remplissant partiellement ou complètement les ouvertures, ou pores, dans la roche en réduisant
la capacité du pétrole et du gaz à s’écouler. En fin de compte, ces processus diagénétiques
peuvent déterminer la viabilité commerciale d’un réservoir de pétrole, car ils contrôlent le
volume et le débit auxquels le pétrole s’écoulera dans un puits de forage. Dans les circonstances
où l’espace poreux est très restreint, une certaine forme de stimulation du réservoir, définit
comme un traitement effectué pour restaurer ou améliorer la productivité d’un puits, peut être
bénéfique pour permettre aux hydrocarbures de s’écouler [13]. Dans le souci de pallier à ce
problème, chercheurs, doctorants et ingénieurs se sont questionnés afin de savoir : quelles
pourraient être les causes de cette baisse de productivité ? Le travail d’ingénierie pour maintenir
et améliorer les taux de production du pétrole et du gaz commence par l’identification des
différents problèmes qui peuvent entraîner des faibles taux de production des puits ; suivi d’un
déclin rapide du fluide de production souhaitable ou d’une augmentation rapide des fluides
indésirables. Ces problèmes sont entre autres :

 Faible productivité d’huile


 Production excessive de gaz
 Production excessive d’eau
 Production de sable

Pour les puits de gaz, les problèmes surviennent généralement de :


 Faible productivité de gaz
 Production d’eau excessive
 Chargement liquide
 Production de sable

Bien que la production de sable soit facile à identifier, des tests de puits et des

Rédigé par SEMBONG A. Amandine


8
diagraphies de production sont souvent nécessaires pour identifier d’autres causes des
problèmes de puits.

I. 3. Les différentes solutions d’analyse des données

Ces dernières années, les progrès numériques et technologiques ont fourni tant d'outils
d'efficacité et de productivité aux entreprises et à l'industrie que les cadres et les gestionnaires
ont parfois du mal à suivre. Les entreprises axées sur les données ont mis sur pieds de nouvelles
techniques d'analyse de données et des améliorations matérielles dans la technologie, créant
ainsi de solutions d’analyses mises sur le marché chaque année. A l'instar du processus qui
consiste à devenir une organisation axée sur les données, les méthodologies qui sous-tendent
l'analyse des données sont difficiles à adapter [16]. Il s'agit simplement de se familiariser avec
les principes et concepts clés, puis de mettre en pratique quelques idées simples. Dans
l’acception française, la terminologie « analyse des données » est un processus d'évaluation des
données à l'aide d'un ou de plusieurs outils d'analyse. Certaines méthodes, pour la plupart
géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données
et à en tirer une information statistique qui permet de décrire de façon plus succincte les
principales informations contenues dans ces données [17]. D’autres techniques permettent de
regrouper les données de façon à faire apparaître clairement ce qui les rend homogène, et ainsi
mieux les connaître.
L’analyse des données permet de traiter un nombre très important de données et de
dégager les aspects les plus intéressants de la structure de celle-ci. Le succès de cette discipline
dans les dernières années est dû, dans une large mesure aux représentations graphiques fournies.
Ces graphiques peuvent mettre en évidence des relations difficilement saisies par l’analyse
directe des données ; mais surtout, ces représentations ne sont pas liées à une opinion à priori
sur les lois des phénomènes analysés contrairement aux méthodes de la statistique classique.
Les fondements mathématiques de l’analyse des données ont commencé à se développer au
début du XXe siècle, mais ce sont les ordinateurs qui ont rendu cette discipline opérationnelle,
et qui en ont permis une utilisation très étendue. Mathématiques et informatique sont ici
intimement liées [18].
Si les données sont la nouvelle monnaie des entreprises, l’intelligence artificielle est
le cerveau qui permet de les investir judicieusement. La résolution de problèmes complexes
dans l’environnement de travail d’aujourd’hui impose l’acquisition de données et l’application

Rédigé par SEMBONG A. Amandine


9
d’ajustements continus pour optimiser les processus commerciaux, de donner le pouvoir aux
employés et engager les clients. Il existe de nombreuses méthodes d'analyse de données
spécifiques. Certaines d'entre elles incluent des domaines tels que l'exploration de données,
l'analyse de texte, l'intelligence décisionnelle et la visualisation de données [19]. Les entreprises
les plus performantes font tout cela sans intervention humaine mais avec l’aide de logiciel
d’analyse de données tels que :

TABLEAU SOFTWARE :
Créé en Janvier 2003 par le doctorant Chris Stolte, le professeur Pat Hanrahan et
Christian Chabot ; leur vision était de commercialiser le résultat d’une recherche menée au
département d’informatique de l’université Stanford entre 1999 et 2002. Ces derniers étudiaient
les techniques de visualisation pour explorer et analyser les bases de données et des cubes de
données relationnelles et ont conduit la recherche vers l’utilisation et la visualisation de base de
données relationnelles multidimensionnelles [19]. Ensemble, ils conçoivent VizQL (Visual
Query Language), un langage structuré pour l’interrogation de bases de données et de
présentation graphique des résultats. Ce n’est qu’en Mai 2013 que tableau software sera
introduit au New York Stock Exchange où il atteint une valorisation de 250 millions de dollars,
or avant son introduction en bourse, tableau software avait levé plus de 45millions de dollars
auprès d’investisseurs tels que NEA et MERITECH. En 2010, tableau a déclaré des recettes de
34,2 millions de dollars [19]. Ce chiffre est passé à 62,4 millions de $ en 2011 et 127,7 millions
de $ en 2012. Les revenus en 2013 de ladite entreprise ont atteint 232,44 millions de dollars,
soit une croissance de 82% par rapport à 2012 (où les revenus étaient de 128millions de $). Les
bénéfices durant ces périodes étaient respectivement de 2,7 ; 3,4 et 1,6 million de dollars [20].

QLIK VIEW :
Précédemment connu sous le nom de QlikTech a été fondé à Lund, en Suède en 1993.
C’est une société de logiciels de Business Intelligence (BI). Son outil de bureau a été appelé
QlikView. ‘’Qlik’’ synonyme de ‘’Qualité’’ de la compréhension, de l’interaction, de la
connaissance. Initialement, le logiciel a été vendu seulement en Suède [20].
Mans HULTMAN devient le directeur général en 2000 et LARS BJÖRK devient
directeur financier. La société se concentre sur le domaine de la BI. QlikTech a besoin de plus
de capital et d’une vision plus large pour poursuivre sa croissance. A cette fin, QlikTech choisit

Rédigé par SEMBONG A. Amandine


10
un consortium composé des sociétés des capital-risques Accel partners et Jerusalem Venture
Partners, et augmentent son capital de 12,5millions de dollards et Alex Ott Accel et Erel
Margalit de JVP a conçu une stratégie de croissance qui a abouti à un taux de 35% taux de
croissance annuel et 13millions de dollards de revenus d’ici à 2004. En Avril 2011, la société a
une capitalisation boursière de plus de 2milliards de dollards et en Juin 2016, Qlik a accepté de
se vendre à la société de Private equity de Thoma Bravo LLC pour environs 3 milliards de
dollards [20]. A l’automne 2016, il a été annoncé que Qlik sera en partenariat avec l’Ontario,
au Canada, pour créer un laboratoire à Ottawa, axé sur le développement de logiciels pour
l’informatique en nuage, de l’analyse et de business intelligence. Le projet a une valeur totale
de plus de 22millions de dollards et devrait être terminé en Décembre 2019

MICROSOFT POWER BI :
Power BI a commencé comme beaucoup de grandes inventions, comme un projet top
secret. Tout a commencé en 2006 par Thierry D’hers et Amir Netz de l’équipe SQL Server
Reporting Services de Microsoft. A l’époque, il s’agissait d’un projet classifié portant le nom
de code « Germini ». Ce projet « Germini » a exploité la puissance des services d’analyses SQL
Serveur (SSAS) de Microsoft et l’a transformé en un moteur de stockage en mémoire. Germini
a fait ses débuts en 2009 sous le nom de « Power Pivot », qui était une extension Excel gratuite.
Cependant, il est resté plus ou moins inconnu de la communauté scientifique des données
jusqu’à ce que Rob Collie, expert de Microsoft Power Pivot en parle aux utilisateurs d’Excel
[21].
Non conçu pour les tables complexes, Power BI a du mal à gérer plusieurs liens entre
les tables. Les utilisateurs doivent s’assurer que les modèles des données supplémentaires ont
des champs uniques, sinon Power BI pourrait finir par confondre les tables « extrait de la revue
de Datacamp » [21].

Ces dernières années, ces outils se sont au fur et à mesure perfectionnés. Avec ces
logiciels, il est désormais possible pour un grand nombre de développeurs d’interpréter avec
beaucoup plus de précisions, de nombreux résultats d’analyse et de collecte de données. Ces
outils d’analyse ont leurs forces et leurs faiblesses. Cependant, certains critères peuvent être
déterminants dans le choix d’une solution ou d’une autre ; cela peut être financier, mais aussi
sur les problématiques d’intégration.

Rédigé par SEMBONG A. Amandine


11
CHAPITRE II : MATERIEL ET METHODES

Dans cette partie, nous allons mettre en avant la méthodologie de mise en place de
notre solution qui aura pour objectif de limiter le temps d’analyse des données. Ce chapitre
suivra l’ordre chronologique des méthodes suivantes : la méthode d’analyse de l’existant et du
besoin, la méthode d’analyse des données, la méthode d’architecture de la base des données et
enfin la méthode du schéma de la base de données.

II. 1. Procédure mise sur pieds pour structurer notre travail

Pour mener à bien notre projet, il était tout d’abord nécessaire de comprendre où nous
allons et ce dont nous aurons besoin pour le bon fonctionnement de notre travail. L'objectif de
cette planification est d'y voir clair et de savoir ce que nous avons à faire, au jour le jour et à
long terme. De cette façon, on peut agir avec précision et efficacité sans quoi nous travaillerons
avec beaucoup d’hésitations. De plus, la planification nous rassure sur la possibilité d'atteindre
nos objectifs puisqu'elle vérifie qu'ils soient accessibles en termes de ressources et de délais.
Aussi, selon Seiwert (1991), elle permet de mettre moins de temps à réaliser nos tâches et par
le fait même d'atteindre plus rapidement les objectifs fixés [22]. Pour que la planification soit
efficace, elle doit procurer une image claire de nos actions à entreprendre, c’est dans cette lancée
que nous avons implémenté l’outil informatique Project Plan 365 qui nous a aidés à planifier
notre travail établi comme suit (voir figure 6) :

Rédigé par SEMBONG A. Amandine


12
Figure 6 : Planning prévisionnel du travail

Rédigé par SEMBONG A. Amandine


13
Le début de notre projet commence par la phase de la compréhension du thème dans
le but de cerner tous les contours afin de mieux résoudre le problème posé. Cette tâche a duré
7 jours. Par la suite, nous sommes passés à l’identification du besoin dont le but était de
connaitre tous les éléments nécessaires pour mener à bien notre projet ; cette étape a duré 4
jours. Ensuite s’en est suivie l’analyse des solutions existantes qui nous a servi à faire une étude
comparative entre celles présentent sur le marché, afin d’en tirer la plus économique ; elle a
duré 5 jours. Puis, l’estimation de la durée des activités en 4 jours, et des ressources en 2 jours
suivi d’une étude sur la conception d’un data warehouse qui est l’ensemble des approches
utilisées pour pouvoir mettre sur pied une base de données qui nous a pris 7 jours. Après avoir
collecté les données, nous sommes passés à la phase de comparaison des outils du rapport
(reporting) du point de vue des avantages et des inconvénients mais surtout des coûts ce qui
nous a pris 7 jours, par la suite, il était question d’estimer les coûts ce qui nous a pris en moyenne
une durée de 3 jours. C’était alors la phase principale de notre projet : la Conception de la base
de données qui consistait à recenser puis réunir les données des différents puits ayant été
stimulés de 2011 à 2019 qui ont eu une durée de 3 jours.

Nous avons poursuivi par la mise en place de l’outil du reporting choisi après
comparaison avec les autres ; cette phase a pris 4 jours ; puis il a fallu tenir une première réunion
sur l’avancement du projet qui s’est tenu sur une période de 2 jours avant de passer au test de
la solution pendant un jour afin d’observer et apporter les modifications nécessaires, qui s’est
étendu sur 8 jours. Par la suite, nous avons tenu une deuxième réunion sur l’avancement du
projet pendant une journée. L’avant dernière phase consistait à recenser tous les documents qui
nous ont été utiles lors de la réalisation de notre projet ; une étape qui a duré 12 jours avant la
dernière qui n’est autre que la clôture du projet pendant 2 jours. Toutes ces étapes sont résumées
par le diagramme de GANTT ci-dessus (voir figure 6).

II. 2. Méthodes d’analyse des données des opérations de stimulation


matricielle

Dans le souci de solutionner la problématique posée, nous avons eu recourt à plusieurs


méthodes dans le but de choisir la plus efficace et moins coûteuse pour le bon déroulement de
notre projet. Ces différentes méthodes sont les suivantes : la méthode de l’étude de l’existant et

Rédigé par SEMBONG A. Amandine


14
du besoin ; la méthode d’analyse de données ; la méthode de l’architecture de la base de
données ; la méthode du schéma de la base de données et enfin l’étude des opérations de
stimulation et traitement des puits.

II. 2. 1. La méthode de l’étude de l’existant et du besoin

La phase d'analyse de l'existant et des besoins est une phase essentielle et complexe [22].
Elle doit aboutir à des spécifications générales qui décrivent en langage naturel les données
manipulées, et les traitements à effectuer sur ces données.

II. 2.1.1 Etude de l’existant

L'étude de 1'existant est le point de passage obligé qui matérialise le premier contact
du concepteur avec un domaine ignoré. II y‘a donc lieu de parvenir à une vue claire des besoins,
c'est-à-dire la connaissance à la fois des objectifs poursuivis et le terrain sur lequel ils
s'appliquent [22]. Afin de réaliser notre étude, nous nous sommes rapprochés des différents
membres du département du Well. Le constat qui a été fait est qu’il n’existe pas une solution
d’analyse de données au sens propre du terme. Néanmoins, nous avons constaté que la plupart
des analyses se font avec l’outil Excel et les documents sont partagés sur le réseau local de
l’entreprise. Chaque département a une nomenclature différente pour les noms des puits et des
réservoirs ; par conséquent il y’a donc incohérence entre les sources de données, ce qui rend
faible la possibilité d’automatiser une tâche [22].

Après l’étude, nous avons ressorti les avantages et les inconvénients du système en
place. Comme avantages, nous pouvons citer entre autres : La flexibilité de l’outil Excel comme
solution d’analyse. Cependant, nous avons pu détecter comme inconvénients :

 La dispersion des informations ;


 Le temps énorme mis pour recueillir les informations ;
 L’analyse non dynamique (statique) ;
 L’analyse non automatisée.

Rédigé par SEMBONG A. Amandine


15
II.2.1.2 Etude du besoin

Afin de mieux cerner le besoin, nous avons opté de travailler avec un outil d’analyse du
besoin qui est le diagramme bête à corne qui permet la formulation du projet (voir figure 7)
avec pour objectif principal de cadrer le contexte dans lequel le projet voit le jour [23]. Dans
notre cas d’étude, il est représenté comme suit :

Figure 7 : Diagramme bête à corne

Cette figure nous illustre comment l’outil d’analyse rendra service au département du
Well Services sur les opérations de stimulations matricielles dans le but de centraliser et
modéliser les informations afin faciliter la collecte et l’analyse des données.

II. 2. 2. La méthode de solution d’analyse de données

Les outils d’analyse de données permettent aux utilisateurs de récupérer, combiner,


interagir, explorer et visualiser des données provenant de différentes sources, leur fournissant
ainsi une meilleure compréhension de leurs processus opérationnels. Ceci permet d’améliorer
la prise de décision et optimiser les performances des opérations.

Rédigé par SEMBONG A. Amandine


16
Plusieurs outils sont disponibles sur le marché mais seules trois (03) ont retenu notre
attention du fait de leurs particularités qui sont entre autres :

 Elles sont les plus en vogue sur le marché ;


 Elles sont leader du faite de leur facilité d’exécution et la vision dans le marché ;
 Elles sont les plus populaires en data visualisations.

Une étude comparative sur les avantages et les limites a été effectuée avant de faire un
choix sur l’outil à implémenter.

a. QlikView
QlikView est une application développée par une société suédoise qui consolide les
données pertinentes issues de différentes sources dans une seule et même application. Elle
donne la possibilité d’explorer les associations entre vos données tout en développant la prise
de décisions collaborative en temps réel et de façon sécurisée tout en permettant la visualisation
des données à l’aide de graphiques soignés et performants (voir figure8). QlikView est doté
d’un moteur In-Memory qui facilite la création des graphiques interactifs en conservant les
données en mémoire [23]. Elle propose également une édition personnelle (gratuite), serveur et
Cloud. QlikView est une entreprise qui utilise un moteur de recherche unique pour offrir des
réponses plus complètes aux questions que peuvent poser ses clients, généralement des
entreprises. La différence qu’il propose différencie leur moteur des autres en utilisant
l’apprentissage automatique pour inclure davantage de résultats. Son moteur analyse plus de
données que les moteurs standards et compile des données provenant de plus de sources afin
que nous obtenions un résultat plus brièvement défini et complet pour notre requête. Les
résultats obtenus ne sont aucunement limités par la taille des fichiers auxquels nous essayons
d’accéder. Ils promettent des résultats rapides et clairs pour nos requêtes [23].
D’après nos informations le logiciel QlikView peut se connecter à plus de 15
plateformes logicielles afin de faciliter les échanges de données entre applications, d’améliorer
votre flux de travail, et de gagner en productivité ;parmi ces plateformes, on peut citer :
MySQL, oracle, tableau server, analytics,…..etc. Cette application est conseillée pour les
métiers telsques : communication, direction financière, management, marketing, vente
commerciale…et est utilisée dans les secteurs de: logiciels généraliste, aéronautique,
agriculture, agroalimentaire, artisanat. Cet outil informatique permet également de découvrir
des informations que les outils de BI basés sur des requêtes manquent tout simplement. Son

Rédigé par SEMBONG A. Amandine


17
moteur associatif unique en son genre rassemble toutes vos données afin que les utilisateurs
puissent librement rechercher et explorer afin de trouver de nouvelles connexions.
L’intelligence artificielle et les capacités à interagir avec les autres offrent des suggestions de
perspicacité, d’automatisation et d’interaction conversationnelle [24]. Le prix de QlikView est
de 15€ par mois et par utilisateur mais ce tarif peut éventuellement évoluer, car différentes
options sont proposées par son éditeur afin de répondre aux besoins de ses utilisateurs. Ces
options sont : le nombre de licences et les fonctions supplémentaires [24].

Comme toutes réalisations bien définies, QlikView présente aussi des limitations qui
résident sur :
 L’analyse statistique qui n’est pas avancée parce qu’il ne prend pas encore en
compte les langages R et Python ;
 Son système d’exploitation limite la capacité à découvrir des informations
exploitables et empêche les utilisateurs de mieux comprendre les données ;
 Son connecteur SAP est disponible mais il est trop lent pour extraire les données
des cubes [25] ;
 Cet outil de rapport et d'analyse n'autorise pas la réécriture à la base de données, et
n’a pas de format d'impression.

Figure 8 : Logo du logiciel QlikView [9]

Rédigé par SEMBONG A. Amandine


18
b. Tableau Software
Tableau est un outil d’analyse qui est orienté uniquement dans la visualisation des
données. Comme de nombreux outils maintenant sur le marché, Tableau vise une clientèle plus
diversifiée qu’auparavant (voir figure9). L’objectif est d’offrir une plateforme aux utilisateurs
issus d’avantage du secteur commercial des entreprises. Ses principaux avantages sont les
suivants : il offre une énorme collection de connecteurs de données et de visualisations, une
conception conviviale, un moteur de traitement impressionnant et des produits matures avec
une grande communauté d'utilisateurs.

Sans être des spécialistes de la statistique ni de la visualisation de données, tous


peuvent créer des tableaux de bord à l’aide de cet outil. L’interface est simple et intuitive,
d’autant plus que l’outil donne des suggestions de visualisation en fonction des métriques
sélectionnées. Ce logiciel permet d’organiser, d’analyser les données et de les rendre facilement
digestibles à l’aide d’un éventail d’aides visuelles. Il dispose même d’une fonction de glisser-
déposer pour plus de commodité [18].

Tableau propose des outils d'analyse visuelle et de forage de données robustes dans
l'ensemble de ses produits [18]. Nous avons répertorié les principales fonctionnalités qui
rendent cela possible :

 De nombreuses connexions de données : Tableau peut se connecter à des


centaines sources de données, en direct et en mémoire, sans aucune programmation. Les
connecteurs notables incluent ;
 Des données en direct et en mémoire : pour basculer facilement entre les
données extraites et les connexions en direct, tout en configurant des rafraîchissements
automatiques des extraits et étant averti lorsqu'une connexion de données échoue ;
 Une collaboration sécurisée : en utilisant Tableau Server et Tableau Online
pour partager et collaborer en toute sécurité sur des informations clées ;
 Des conceptions optimisées pour les mobiles : tableau est un outil qui permet
aux utilisateurs de concevoir, personnaliser et publier des tableaux de bord adaptés aux
ordinateurs de bureau, aux téléphones et aux tablettes ;
 Des tableaux de bord intégrés : intégrer des tableaux de bord dans vos
applications existantes, telles que Salesforce, et SharePoint, pour obtenir des analyses rapides
là où vous en avez le plus besoin. ;

Rédigé par SEMBONG A. Amandine


19
 L’intégration par glisser-déposer : grâce aux capacités de glisser-déposer,
intégrons facilement des données et créons des visuels pour mettre en évidence des modèles en
quelques clics ;
 Des connecteurs de données illimités : Tableau peut se connecter à n'importe
quelle source de données sur site ou dans le cloud ;
 Des relations : cette fonctionnalité permet à Tableau de créer automatiquement
des relations entre les tables de données et d'exécuter des requêtes uniquement sur les données
pertinentes pour l'analyse de l'utilisateur. Il permet aux utilisateurs d'analyser les données au
bon niveau de détail.

Cependant, Tableau est conçu pour les analystes individuels et les utilisateurs
expérimentés, et coûte 70 $ par utilisateur et par mois la version desktop est payante et propose
une période d’essai de 14 jours uniquement. Chaque abonnement inclut la maintenance, les
mises à niveau des produits et l'assistance en un seul coût, de sorte qu'il n'y ait pas de frais
imprévus [19]. Tableau peut également aider n’importe qui à voir et à comprendre ses données
en se connectant à presque toutes les bases de données, puis en effectuant un geste de glisser et
déposer dans le but de créer des visualisations tout en partageant en un clic.

Les limites de cet outil informatique sont les suivants :


 Un coût relativement haut, surtout en comparaison avec les autres outils BI.
Ainsi, Tableau est uniquement adapté aux grandes entreprises capables de payer la licence ;
 On déplore l’absence de gestion de changement. Il est un peu difficile d’importer
des visualisations personnalisées, et il n’y a pas de méthode simple pour intégrer des rapports
à d’autres applications ;
 Tableau ne propose pas de capacité d’intelligence artificielle ;
 Les utilisateurs ont besoin d'une formation pour tirer pleinement parti de toutes
les fonctionnalités intégrées à cet outil ;
 Les utilisateurs essaient de ne pas suivre la formation et de se contenter de se
familiariser avec l'interface utilisateur. Cela fonctionnera pour les requêtes de base, mais finira
par freiner l'organisation, non pas parce que l'outil ne peut pas faire le travail, mais parce que
les utilisateurs ne savent pas comment le faire fonctionner pour des tâches plus difficiles [19].

Rédigé par SEMBONG A. Amandine


20
Figure 9 : Logo Tableau Software [9]

c. Power BI
Chaque entreprise souhaite établir sa marque sur le marché et connaître une croissance
exponentielle. C'est là que l'intelligence d'affaires joue un rôle crucial, car c'est un facteur très
important dans le processus d’images de marques et d'autres processus décisionnels. Pour aider
à prendre des décisions efficaces et à tirer des conclusions, Microsoft présente un outil d'analyse
très intéressant, Power BI qui est une des solutions d’analyse et de visualisation de données les
plus utilisées de par sa simplicité et ses fonctions analytiques avancées comme le langage R et
Python (voir figure 10). Les principaux outils de Power BI incluent Power Query, qui est utilisé
pour l'extraction et la transformation ; Power Pivot, utilisé pour modéliser et analyser ; Power
View et Map, qui sont utilisés pour visualiser les données et enfin le service Power BI, pour
partager des rapports, des ensembles de données et des tableaux de bord. Le concepteur Power
BI combine divers outils distincts dans une application tout-en-un, qui supprime toutes ses
dépendances à Excel ou Office [20].
L’édition Desktop est gratuite et permet l’importation des données provenant de
plusieurs sources. Power BI vise à fournir des visualisations interactives et des capacités de
veille stratégique avec une interface suffisamment simple pour que les utilisateurs finaux
puissent créer leurs propres rapports et tableaux de bord. Son fonctionnement similaire à celui
d’Excel, sa communauté et sa flexibilité l’ont propulsé à être au niveau actuel. En résumé,
Power BI est une solution collaborative qui permet de partager les données, d’être mobile et
d’être adaptée aux besoins de l’entreprise qui vous garantit un contrôle total de la sécurité, de
l’évolutivité et un vaste choix d’option de déploiement [20].
Cet outil informatique traite l’information pour la rendre compréhensible, cohérente et
pertinente afin de faciliter la prise de décision. Tous les aspects de l’entreprise peuvent être
Rédigé par SEMBONG A. Amandine
21
traités par ce logiciel : la logistique, les ressources humaines, les relations clients, les
transactions financières, le département des ventes, les analyses de marché, le processus de
fabrication … Le principal avantage de Power BI est son utilisation tout à fait simple et
immédiate, qui ne requiert pas de profils techniques. Les rapports et les tableaux de
bords (Dashboard) sont complètement personnalisables et très visuels, ce qui est très utile pour
la préparation des présentations et des réunions. Son intégration avec le cloud et la compatibilité
avec les principaux outils de data warehouse du marché font de Power BI un outil prometteur
[20].

Toutefois, nous avons détecté que cette solution comporte aussi des limites à l’exemple
du fait que Power BI n’est pas un outil destiné aux petites entreprises. Afin de tirer parti de ses
fonctionnalités les plus intéressantes ; il faut déjà obtenir un volume important d’informations,
sinon le manque d’information peut mener à des conclusions erronées. Nous avons également
détecté comme limites :
 Sa nature est complexe : c'est l'une des limites majeures car Microsoft a conçu
Power BI de manière très complexe avec une longue liste de composants difficile de
comprendre de quel composant vous pourriez avoir besoin. Cela rend le produit encore plus
difficile à dépanner, ce qui entraîne une augmentation du coût total de possession ;
 La qualité des données : Microsoft Power BI ne fournit aucune solution de
nettoyage des données. Cela signifie que les données que vous extrayez ont été nettoyées bien
à l'avance et qu'elles sont de haute qualité ;
 Ne gère pas correctement les grandes sources de données : Microsoft Power
BI rencontre des problèmes lors de la connexion et de l'importation de grands ensembles de
données, ainsi que des problèmes de délais d'expiration ;
 Problèmes de performances : Power BI peut rencontrer des problèmes de
performances car il a été observé qu'il n'a pas été en mesure de traiter plus de 10 000 à 20 000
lignes sans rencontrer de problèmes pour certaines requêtes. Pour éviter de faire face à ce
problème, vous pouvez créer plusieurs requêtes afin de couvrir toute la gamme de données et
les diviser en fonction des dates ;
 Interface utilisateur volumineuse : la fenêtre d'aide de la formule et la partie
latérale bloquent souvent la vue centrale, ce qui rend l'interface utilisateur de Power BI très
volumineuse. La réalisation d'un tableau de bord défilant demandera beaucoup d'efforts
puisqu'il ne s'agit pas d'une fonctionnalité étrangère ;

Rédigé par SEMBONG A. Amandine


22
 Partage limité des données : les rapports et les tableaux de bord peuvent être
partagés uniquement avec les utilisateurs qui ont les mêmes domaines de messagerie ou ceux
dont les domaines de messagerie sont répertoriés dans votre locataire Office 365. En outre, il
est impossible de mélanger les données importées [21].

Figure 10 : Logo du logiciel Power BI [9]

II. 2. 3. La méthode d’architecture de la base de données

En analyse de données, la base de données centralisée qui contient toutes les


informations d’analyse est appelée un data Warehouse (entrepôts de données). L’architecture
d’une telle base est faite selon l’une des deux approches : celle d’Inmon ou celle de Kimball
[19]. Pendant des années, plusieurs développeurs ont débattu sur l'approche d'entrepôt de
données la meilleure et la plus efficace pour les entreprises. Cependant, il n'y a toujours pas de
réponse définitive car les deux méthodes ont leurs avantages et leurs inconvénients. Examinons-
les en détails pour déterminer lequel est le meilleur.

a. Approche de Bill Inmon


Bill Inmon, le père de l'entreposage de données, a proposé le concept de
développement d'un entrepôt de données qui identifie les principaux domaines et entités avec
lesquels l'entreprise travaille, tels que les clients, les produits, les fournisseurs, etc. La définition
de Bill Inmon d'un entrepôt de données est qu'il s'agit d'une collection de données orientée sujet,

Rédigé par SEMBONG A. Amandine


23
non volatile, intégrée et variant dans le temps à l'appui des décisions de la direction. L’approche
de conception de Bill Inmon utilise la forme normalisée pour construire la structure de l'entité,
évitant autant que possible la redondance des données. Cela permet d'identifier clairement les
besoins commerciaux et d'éviter toute irrégularité de mise à jour des données [22].

Cette méthodologie d'entrepôt de données d’Inmon explique qu’il faut d’abord créer
l’entrepôt qui comprend l’ensemble des données de l’entreprise, pour ensuite alimenter de mini-
entrepôts de données départementales (voir figure11). Chaque mini-entrepôt vise un secteur
particulier de l’entreprise et sera la source des requêtes et rapports utilisés par les décideurs de
l’entreprise. Inmon divise l’environnement de bases de données de l’entreprise en quatre
niveaux :

 Opérationnel ;
 Entrepôt de données atomique ;
 Départemental ;
 Individuel.

Les trois derniers niveaux constituent l’entrepôt. Le premier niveau comprend les
bases de données de logiciels patrimoniaux et autres systèmes de traitement transactionnel. Les
données sont transformées entre le premier et le deuxième niveau. Pour transformer les
données, un processus appelé ETC (pour extraction, transformation et chargement) est utilisé.
Il s’agit d’un ensemble de processus qui extraient les données des systèmes sources, qui
transforment les données et les chargent dans l’entrepôt cible. Avec cette approche, les données
des départements sont toujours cohérentes, car elles proviennent toutes du même entrepôt.

Développer suivant la méthodologie d’Inmon demande une connaissance approfondie


de l’entreprise. Inmon recommande l’utilisation de modèles de données déjà existants sur le
marché pour le domaine d’affaires de l’entreprise. La modélisation de la base de données repose
sur les techniques traditionnelles d’entités-association et de normalisation. Le modèle d’entités-
association est un modèle de données conceptuel de haut niveau contenant des entités et les
associations entre elles, traditionnellement utilisé pour concevoir des bases de données en
informatique.

L'entrepôt de données agit comme une source de données unique pour divers magasins
de données afin de garantir l'intégrité et la cohérence dans l'ensemble de l'entreprise. C’est ce

Rédigé par SEMBONG A. Amandine


24
qu’on appelle une approche descendante ou « top-down » de l’entreposage des données [22].
Les caractéristiques majeures de cette architecture sont :

 La conception du modèle de data warehouse ;


 L’architecture composée d’un staging area permanent, d’un data warehouse et
de data marts;
 Le data warehouse orienté entreprise et les data marts orienté processus ;
 Le data warehouse contient les données automatiques et les data marts
contiennent les données agrégées ;
 Le data warehouse contient les données normalisées de toute l’entreprise ;
 Les data marts utilisent les données dimensionnelles orientées sujet ou service
de l’entreprise ;
 Les utilisateurs font leurs requêtes directement dans les data marts.

L'approche de conception de Bill Inmon offre un grand nombre d’avantages parmi


lesquels nous pouvons citer :

 L'entrepôt de données agit comme une source de vérité unifiée pour l'ensemble
de l'entreprise, où toutes les données sont intégrées ;
 Cette approche a une très faible redondance des données. Ainsi, il y a moins de
possibilité d'irrégularités de mise à jour des données, ce qui rend le processus d'entrepôt de
données basé sur le concept ETL plus simple, moins susceptible d'échouer et minimise la
probabilité de dysfonctionnement ;
 Cela simplifie les processus métiers, car le modèle logique représente des objets
métiers détaillés ;
 Cette approche offre une plus grande flexibilité, car il est plus facile de mettre à
jour l'entrepôt de données en cas de changement dans les exigences de l'entreprise ou les
données sources ;
 Il peut gérer diverses exigences de reporting à l'échelle de l'entreprise.

Après présentation des différents avantages de cette architecture suivant l’approche de


Bill Inmon, nous avons par la suite cherché à connaître les différentes limites possibles de cette
dernière qui sont entre autres :

Rédigé par SEMBONG A. Amandine


25
 La complexité augmente à mesure que plusieurs tables sont ajoutées au modèle
de données avec le temps ;
 Des ressources qualifiées dans la modélisation de données d'entrepôt de données
sont nécessaires, ce qui peut être coûteux et difficile à trouver ;
 L'installation préliminaire et la livraison prennent beaucoup de temps ;
 Une opération de processus ETL supplémentaire est requise car les magasins de
données sont créés après la création de l'entrepôt de données ;
 Cette tâche de réalisation est assez difficile et coûteuse ;
 L’étape de montage et de livraison de longue date (4 à 9 mois) ;
 Cette approche nécessite des spécialistes hautement qualifiés à la fois en
modélisation de données et en affaires pour gérer efficacement un entrepôt de données [22].

Figure 11: Data warehouse selon Inmon [22]

b. Approche selon Kimball


Ralph Kimball prend une approche tout à fait différente d’Inmon pour la création
d’entrepôts.

Premièrement, il a développé une technique pour modéliser un entrepôt qui, à


l’époque, était révolutionnaire : le modèle dimensionnel. Au lieu d’être basé sur le modèle
entités- -association, le modèle dimensionnel repose sur des tables représentant des faits et des
dimensions. Le modèle dimensionnel peut être représenté dans la plupart des cas par un modèle
Rédigé par SEMBONG A. Amandine
26
entités-association, mais est plus simple à comprendre dans sa forme dimensionnelle. Les faits
sont typiquement des évènements mesurables qui se produisent dans l’entreprise. Il est simple
de mesurer la quantité de produit commandée, le montant d’une facture ou le nombre de jours
de retard d’un paiement. Les dimensions sont des descriptions textuelles d’éléments de
l’entreprise. [22] Les dimensions permettent d’analyser les faits sous différents angles, par
exemple des ventes par client, par produit et par mois.

Deuxièmement, au lieu de créer un entrepôt normalisé global à partir duquel sont


ensuite produits des magasins de données (data marts), Kimball préfère la création de magasins
de données comme base de l’architecture. Ces magasins, des sous-ensembles de données
regroupées généralement pour répondre aux besoins spécifiques d’un département ou secteur
de la compagnie, sont assemblés pour créer un entrepôt. Cette approche est possible lorsque les
dimensions sont conformes, c’est-à-dire qu’elles représentent exactement la même chose d’un
magasin à l’autre.

Troisièmement, un autre élément de la méthodologie de Kimball qui diffère avec


celle d’Inmon est qu’elle est menée par les besoins des clients. Le cycle de vie d’un projet
utilisant la méthodologie Kimball débute comme celui d’un projet traditionnel en cascade, soit
par l’élaboration des besoins du client. Ensuite, Kimball distingue les tâches de création
d’entrepôts entre trois spécialisations du monde de l’intelligence d’affaires qui sont [22] :

 L’environnement technique ;
 Les données ;
 Les applications analytiques.

Les tâches des chemins spécialisés peuvent être exécutées en parallèle, car elles ne
visent pas les mêmes éléments de l’environnement.

L’architecture de données Kimball suit une approche ascendante pour un entrepôt


de données conceptionnel de modèle dans laquelle les magasins de données sont d'abord formés
en fonction des besoins de l'entreprise. Les principales sources de données sont ensuite
évaluées, et un outil d'extraction, de transformation et de chargement (ETL) est utilisé pour
extraire des données de plusieurs sources et les charger dans une zone intermédiaire du serveur
de base de données relationnelle.

Une fois les données téléchargées dans la zone de transfert de l'entrepôt de données,
la phase suivante comprend le chargement des données dans un modèle d'entrepôt de données

Rédigé par SEMBONG A. Amandine


27
dimensionnel qui est dénormalisé par nature [22]. Ce modèle partitionne les données dans la
table de faits, qui est constituée de données transactionnelles numériques ou de table de
dimensions, qui est l'information de référence qui prend en charge les faits (voir figure 12). Le
Data Warehouse est simplement une combinaison de différents Data Marts qui facilite le
reporting et l’analyse. Cette conception de Kimball correspond à l’approche ascendante
« Bottom-up » [22].

Un outil de conception important dans la méthodologie d'entrepôt de données de Ralph


Kimball est la matrice de bus d'entreprise ou l'architecture de bus Kimball qui enregistre
verticalement les faits et horizontalement les dimensions conformes. La matrice de Kimball,
qui fait partie de l'architecture de bus, montre comment les schémas en étoile sont construits. Il
est utilisé par les équipes de gestion d'entreprise comme entrée pour hiérarchiser la ligne de la
matrice de Kimball qui doit être mise en œuvre en premier.

Le data warehouse peut être vu comme l’union des data marts cohérents entre eux
grâce aux dimensions conformes. Les caractéristiques majeures de cette architecture sont :

 Commencer par la conception du modèle dimensionnel pour les data marts ;


 Ressortir l’architecture d’un staging area et de data marts. Le data warehouse
physique n’existe pas ;
 Les data marts contiennent les données automatiques et agrégées ;
 Les data marts peuvent fournir une vue complète des données de l’entreprise ou
d’un service ;
 Les data marts sont implémentés de façon incrémentale et intégrée en utilisant
les dimensions conformes.

Nous avons pu ressortir certains des principaux avantages de la méthodologie de


Kimball qui comprennent entre autres :

 La modélisation dimensionnelle Kimball est rapide à construire car aucune


normalisation n'est impliquée, ce qui signifie une exécution rapide de la phase initiale de
l’entreposage de données procédé de design ;
 Un avantage du schéma en étoile est que la plupart des opérateurs de données
peuvent facilement le comprendre en raison de sa structure dénormalisée, ce qui simplifie les
requêtes et l'analyse ;

Rédigé par SEMBONG A. Amandine


28
 Il permet une récupération rapide des données à partir de l'entrepôt de données,
car les données sont séparées en tables de faits et dimensions. Par exemple, la table de faits et
de dimensions pour le secteur de l'assurance inclurait les transactions de polices et les
transactions de sinistres ;
 Une petite équipe de concepteurs et de planificateurs est suffisante pour la
gestion de l'entrepôt de données, car les systèmes de source de données sont stables et l'entrepôt
de données est orienté processus. De plus, l'optimisation des requêtes est simple, prévisible et
contrôlable ;
 Petite taille de l'environnement d'entrepôt de données qui simplifie les activités
de gestion du système ;
 Structure dimensionnelle conforme pour le cadre de qualité des données.

L'approche Kimball du cycle de vie de l'entrepôt de données est également appelée


approche de style de vie dimensionnelle commerciale, car elle permet aux outils d'intelligence
d'affaires d'approfondir plusieurs schémas en étoile et génère des informations fiables.

Au vue de tous ces avantages, nous avons également pu desceller les limitations de
cette architecture qui sont les suivantes :

 Des irrégularités peuvent se produire lorsque les données sont mises à jour dans
l'architecture Kimball DW ;
 Dans l'architecture Kimball DW, des problèmes de performances peuvent
survenir en raison de l'ajout de colonnes dans la table de faits, car ces tables sont assez
détaillées. L'ajout de nouvelles colonnes peut étendre les dimensions de la table de faits,
affectant ses performances. En outre, le modèle d'entrepôt de données dimensionnel devient
difficile à modifier en cas de modification des besoins de l'entreprise ;
 Comme le modèle Kimball est orienté processus métier, au lieu de se concentrer
sur l'entreprise dans son ensemble, il ne peut pas gérer toutes les exigences de rapport BI. Le
processus d'incorporation de grandes quantités de données héritées dans l'entrepôt de données
est complexe [22].

Rédigé par SEMBONG A. Amandine


29
Figure 12: Data warehouse selon Kimball [14]

II. 2. 4. La méthode de schéma de la base de données

La conception de bases de données relationnelles implique un modèle de données


entité-relations. Dans ces modèles, un schéma de base de données se compose d’un ensemble
d’entités et des relations liées entre elles. Un schéma est fait de plusieurs tables de dimensions
et d’une table de faits. Une dimension contient des axes d’analyses qui ne varient pas
rapidement comme la date ou le nom des puits, alors qu’une table de faits contient les valeurs
variantes et les mesures. Deux types de schéma existent : en étoile et en flocon.

a. Schéma en étoile
Le schéma en étoile est une approche de modélisation mature largement adoptée par les
entrepôts de données relationnels. Les modélisateurs doivent classer leurs tables de modèle en
tant que table de dimensions ou table de faits. Ce schéma imite une étoile, avec une table de
dimensions présentée dans un motif étalé entourant la table de faits centrale (voir figure 13). La
table des faits est connectée à la table de dimensions via les clés primaire et étrangère. Les
dimensions sont dé-normalisées afin de concentrer toutes les informations en une seule table,
Cela implique qu’on y retrouve souvent certaines colonnes ayant plusieurs fois les mêmes
valeurs [23].

Rédigé par SEMBONG A. Amandine


30
Les tables de dimensions décrivent les entités d’entreprise soient les choses que vous
modélisez. Les entités peuvent inclure des produits, des personnes, des lieux et des concepts, y
compris le temps lui-même. La table la plus cohérente que vous trouverez dans un schéma en
étoile est une table de dimensions de date. Une table de dimension contient une ou plusieurs
colonnes clés qui jouent le rôle d’identificateur unique et de colonnes descriptives. De même,
les tables de faits stockent des observations ou des événements et peuvent être des commandes
des clients, des soldes de stock, des taux de change, des températures, etc. Une table de faits
contient des colonnes clés de dimension qui se rapportent aux tables de dimension et des
colonnes de mesures numériques. Les colonnes clés de dimension déterminent
la dimensionnalité d’une table de faits, tandis que les valeurs clés de dimension déterminent
sa granularité [23].

Pour comprendre certains concepts du schéma en étoile, il est important de connaître


ces deux termes très importants et cruciaux : normalisation et dénormalisation. La
normalisation est le terme utilisé pour décrire les données stockées de manière à réduire les
données répétitives. Prenons l’exemple d’une table de produits qui a une colonne de valeur de
clé unique comme la clé de produit, et des colonnes supplémentaires qui décrivent les
caractéristiques du produit, à savoir son nom, sa catégorie, sa couleur et sa taille. Une table de
ventes est considérée normalisée quand elle stocke uniquement des clés, comme la clé de
produit. Toutefois, si la table de ventes stocke des détails sur les produits qui vont au-delà de la
clé, elle est considérée comme étant dénormalisée [23].

Les principaux avantages du schéma en étoile sont les suivants :

 Les requêtes utilisent des jointures très simples lors de la récupération des
données et augmentent ainsi les performances des requêtes.
 Il est simple de récupérer des données à des fins de rapport, à tout moment et
pour toute période [24].

Comme limites de ce schéma, nous pouvons citer :

 Il a un état dénormalisé et d’intégrité élevée ;


 L’ensemble du processus s’effondrera si l’utilisateur ne parvient pas à mettre à
jour les données ;
 La sécurité et les protections sont également limitées ;

Rédigé par SEMBONG A. Amandine


31
 Le schéma en étoile n’est pas aussi flexible que le modèle analytique. Il n’offre
pas un soutien efficace aux diverses relations ;
 S'il y a de nombreux changements dans les exigences, il n'est pas recommandé
de modifier et de réutiliser le schéma en étoile existant à long terme ;
 La redondance des données est davantage due au fait que les tables ne sont pas
divisées hiérarchiquement.

Figure 13 : Schéma en étoile [25]

b. Schéma en flocon (flocon de neige)


Le schéma en flocon de neige est un type de schéma en étoile qui inclut la forme
hiérarchique des tables dimensionnelles. Dans ce schéma, il existe une table de faits composée
de différentes tables de dimensions et de sous-dimensions reliées par des clés primaires et
étrangères à la table de faits (voir figure 14). Il porte le nom de flocon de neige car sa structure
ressemble à un flocon de neige [25]. Le fractionnement permet de réduire la redondance et de
prévenir les pertes de mémoire.
Un schéma de flocon de neige est plus facile à gérer mais complexe à concevoir et à
comprendre. Cela peut également réduire l’efficacité de la navigation car davantage de jointures
seront nécessaires pour exécuter une requête. La disposition d'une table de faits au centre,
entourée de plusieurs hiérarchies de tables de dimensions ressemble à un flocon de neige dans
le modèle du schéma de flocon. Chaque ligne de table de faits est associée à ses lignes de table
de dimension avec une référence de clé étrangère. Lors de la conception des schémas en flocon,
les tables de dimension sont volontairement normalisées. Des clés étrangères seront ajoutées à
chaque niveau des tables de dimension pour se lier à son attribut parent.

Rédigé par SEMBONG A. Amandine


32
La complexité du schéma de flocon de neige est directement proportionnelle aux
niveaux de hiérarchie des tables de dimensions. Le schéma de flocon est différent, car il
normalise les données : il les organise efficacement de sorte que toutes les dépendances de
données soient définies et que chaque table contienne un minimum de redondances.
Les tables unidimensionnelles se divisent donc en tables de dimensions séparées. Le
schéma du flocon utilise moins d’espace disque et préserve mieux l’intégrité des données.

Ce schéma de modélisation, comme toute réalisation contient des avantages et des


limites. Comme avantages nous avons pu discerner [25] :
 La redondance des données est complètement supprimée en créant de nouvelles
tables de dimension ;
 Par rapport au schéma en étoile, moins d'espace de stockage est utilisé par les
tables de dimension en flocon ;
 Il est facile de mettre à jour (ou) de maintenir les tables de floconnage de neige.

Malgré les différents avantages de ce schéma, nous avons également trouvé des
limitations à ce dernier qui sont les suivants :

 Vous pouvez avoir besoin de jointures complexes pour effectuer une requête en
raison du nombre de tables ajoutées. Par conséquent, les performances des requêtes seront
dégradées ;
 Les efforts de maintenance supplémentaires dus au nombre croissant de tables
de petites dimensions. De nombreuses requêtes complexes compliquent la recherche des
données requises ;
 De plus, le temps de mise en œuvre de la question est élevé du faite des tables
plus hautes ;
 Ce modèle est également rigide et nécessite des coûts de maintenance plus
élevées ;
 La complexité des requêtes nécessaires pour accéder aux données : chaque
requête doit creuser profondément pour accéder aux données pertinentes puisqu’il y a plusieurs
jointures.

Rédigé par SEMBONG A. Amandine


33
Figure 14 : Schéma en Flocon de neige [25]

II. 2. 5. Etude sur les opérations de stimulation matricielle

Avant de procéder à la réalisation de l’outil d’analyse, il était question pour nous de


comprendre le processus de stimulation d’un puits et ses différentes étapes afin de mieux
concevoir les besoins du projet.

a. Définition
Une opération de stimulation consiste à injecter un fluide dans la formation, soit un
acide, soit un solvant à des pressions inférieures à la pression de fracturation, afin d'améliorer
la capacité de production ou le débit d'injection d'un puits en améliorant la perméabilité du
réservoir. La détermination du type de traitement est fonction de la nature du réservoir.

Sur le champ de Perenco au Cameroun, la nature des réservoirs est gréseuse


(Sandstones). On peut aussi noter qu’autre type de réservoir rencontré ailleurs dans le monde
est carbonaté.

b. Moyens de traitement
L’architecture d’un traitement ou le choix des types de fluides de traitement, est
fonction du type d’endommagement soupçonné et dépend des données relatives à la
température en fond de puits, à la perméabilité et la minéralogie du réservoir. La mise en œuvre
d’une stimulation de puits par bull head prévoit deux grandes étapes :

Rédigé par SEMBONG A. Amandine


34
 Le nettoyage de la colonne de production encore appelé tubing pickle ;
 Le nettoyage de la liaison couche-trou ou stimulation du réservoir proprement
dit encore appelé main treatment.

i. Pickle
Les opérations de pickle permettent de nettoyer le tubing d’un puits. Parfois après une
longue exploitation d’un puits, il y a formation de carbonates ou de paraffines sur les parois du
puits ce qui permet de diminuer la production du puits. Les opérations de Pickling permettent
de dissoudre ces carbonates et ces paraffines. Cette opération est souvent faite avec une
concentration bien précise du HCl ou un solvant organique et parfois, elle est précédée d’un
test d’injectivité avec de l’eau salée.

Le nettoyage de la colonne de production, bien qu’il soit fait avec des appareils
sophistiqués, comporte des limitations en ce sens qu'il est difficile à manipuler en raison de sa
corrosivité et qu'il n'est pas applicable à tous les aciers. La fragilisation par l'hydrogène devient
un problème pour certains alliages et aciers à haute teneur en carbone. L'hydrogène de l'acide
réagit avec la surface et la rend cassante, provoquant ainsi des fissures [26]. En raison de sa
réactivité élevée avec les aciers pouvant être traités, les concentrations d'acide et les
températures de solution doivent être contrôlées pour garantir les taux de décapage souhaités.

ii. Main treatment


Cette phase se déploie en trois principales étapes (voir figure 15) qui sont :

 Preflush ou prélavage avec une solution non acide et une solution acide ;
 Mainflush ou lavage principal ;
 Postflush ou après-lavage avec une solution acide et/ou non acide.

Preflush : habituellement, une concentration d'acide chlorhydrique (HCl) de 5% à


15% est injectée. Ceci est conçu pour dissoudre les minéraux carbonatés dans la formation qui
réagiraient avec le HCl. Cette étape consiste à déplacer l'eau dans la formation ou la saumure
de complétion tout en évitant les précipités entre l’HF et les ions K+ Ca2+ Na+. Cette étape

Rédigé par SEMBONG A. Amandine


35
consiste également à éliminer les précipités de sel s'il y en a et enlever les carbonates.
Généralement, les fluides utilisés pour cette opération sont :

 NH4Cl 3 à 5% de saumure
 HCl 5 à 15 % + additifs spécifiques (Aromatique ou solvant mutuel)
 Acide acétique + NH4Cl

Main-flush : L’objectif de cette phase est d’augmenter la gorge des pores et les
additifs de transport pour réduire les dommages. Il s'agit ici d'un mélange de HCl et d’HF appelé
« acide de boue ». Les concentrations usuelles sont de 10% HCl et 5% HF dans le mélange
utilisé pour les puits géothermiques. Le HCl est efficace pour dissoudre le calcaire et les
dolomies, tandis que l’HF est efficace pour dissoudre les minéraux siliceux tels que les argiles,
le feldspath et les sables siliceux. HF dissout également les fluorures de calcium et de
magnésium. Les fluides utilisés lors de cette étape sont :

 L’acide de boue connu sous le nom de mud acid ; car il a une résistance HF en
fonction de la minéralogie, de la température et de la teneur en argile ;
 Le test de laboratoire à effectuer dans une nouvelle formation.

Les volumes utilisés en fonction de la profondeur des dommages sont les suivants :

 3 % 100 gal/pi à 40 gal/pi - 1,2 à 0,5 m3/m ;


 1,5 % 150 gal/pi à 40 gal/pi - 1,8 m3/m ;
 1 % 200 gal/pi à 40 gal/pi - 2,5 m3/m

Postflush également connu sous le nom d’overflush : il sert à pousser le mélange


d'acide de rinçage principal plus loin dans la formation et minimise les réactions de précipitation
inévitables à proximité du puits de forage. Dans la stimulation des puits de pétrole, l'acide
chlorhydrique faible (HCl), le chlorure d'ammonium, le diesel (pour les puits de pétrole et
uniquement après un sur-balayage d'eau ou d'acide faible) et l'azote gazeux, pour les puits de
gaz et uniquement après un sur-balayage d'eau ou d'acide faible sont généralement utilisés.
Dans les puits géothermiques, cependant, il est courant d'utiliser de l'eau douce pour le trop-
plein [27].

Rédigé par SEMBONG A. Amandine


36
Figure 15 : Etapes d'une opération de traitement [28]

Cette figure illustre clairement les différentes étapes du traitement typique d’un puits
à l’acide qui se déroule de la manière suivante (voir figure 15) :

 Prélavage non acide : rend la formation plus compatible avec le fluide HF usé.
 Prélavage acide : qui sert de barrière physique entre HF et fluide de formation
représenté ici comme additifs ;
 Traitement HF : pour traiter la matrice
 Overflush : permet de repousser le traitement et tout précipité
 Flowback : ici, le nettoyage de la colonne d’injection doit être effectué dès que
possible.

c. Opérations de stimulation matricielle


La dissolution des Sandstones se fait grâce à des acides. L’acide le plus adapté pour
l’interaction avec le Sandstone est le Mud Acid. Cet acide est un mélange de l’acide
chlorhydrique et fluorhydrique (HCl/HF), qui réagit avec les minéraux du Sandstone (Quartz,
Kaolinite, Argiles etc.). Une concentration élevée de l’HF permet d’augmenter le débit de
réactivité mais c’est un acide très nocif et corrosif. Le rôle du HCl est principalement d’éviter
les précipitations secondaires et également d’augmenter la vitesse de réaction. La température
est également un catalyseur de cette réaction. De ce fait, un mélange généralement utilisé sur le
champ de Perenco a pour concentration : 9%HCl / 1%HF.

Rédigé par SEMBONG A. Amandine


37
Avant Après

(a) effet de l’exposition à la kaolinite (b) action du HF sur la partie endommagée

Figure 16 : Effet d’une opération de stimulation

Cette figure illustre dans un premier temps les dommages causés par une exposition à
long terme à la kaolinite (voir figure 16 a) puis le contrôle de ce dommage suite à l’action d’HF
(voir figure 16b).

Le traitement standard pour l’ensemble des puits était basé sur le mud acid
(HCl/HF 9 :1) comme mainflush, à l’exception des puits à fort BSW (à l’exemple de ACM 013
et ASM 038) où des traitements à base de solvant ont été privilégiés. Le traitement appliqué
était à base de mud acid généralement recommandé pour les formations gréseuses.

La configuration était celle adoptée après échanges avec Halliburton, où tous les
volumes des flush acides (Preflush, mainflush et postflush) ont été fixés à 1m3/m de fluide de
traitement du réservoir perforé. L’additif Musol (Mutual Solvant qui agit sur la mouillabilité de
la roche) incorporé dans les traitements depuis fin 2013 a été retiré de tous les acid flush (où la
concentration était 50l/m3) et intégré dans le non acid Preflush (nouvelle étape ajoutée au
traitement : brine + Musol) avec une concentration de 30l/m3. Cette configuration générale (qui
peut être ajustée selon certaines spécificités de puits) du traitement des puits se présente comme
précédemment annoncé au niveau de la revue de littérature.

Rédigé par SEMBONG A. Amandine


38
Parvenu au terme de notre chapitre dans lequel nous avons présenté les différentes
méthodes utilisées pour la mise en place de notre outil d’analyse des données, il en ressort qu’il
existe une panoplie d’idées et de solutions d’analyses mais nous pencherons notre pensée sur
une étude comparative de ces différentes méthodes afin d’aboutir à une architecture bien
structurée qui répondra à nos critères de sélection.

Rédigé par SEMBONG A. Amandine


39
CHAPITRE III : RÉSULTATS ET DISCUSSIONS

Dans cette partie, nous présenterons nos différents résultats obtenus à l’aide d’une
étude comparative des différentes méthodes suivantes : la méthode de l’existant et du besoin,
de l’analyse des données, du schéma de la base de données et enfin grâce à l’architecture de la
dite base de données. Par la suite, une discussion aura lieu sur les différents résultats obtenus
dans le souci de les expliquer et de les valoriser.

III. 1. Étude de l’existant et du besoin

Afin de définir et améliorer les fonctionnalités de la solution, un entretien avec le


directeur d’opération a eu lieu et les indicateurs de performance suivants ont été identifiés :

 Traitements appliqués sur un puits ;


 Les opérations faites avec succès (ΔQoil > 0) ;
 Coûts totaux par année ;
 Coûts de chimique par mètre perforée ;
 ΔBSW, ΔQoil ;
 Le fluide utilisé comme diverter

D’autres entretiens d’évaluation ont également eu lieu durant le projet pour améliorer
nos indicateurs et peaufiner le travail.

III. 2. Méthodes d’analyses des données

Le tableau ci-dessous nous donne une comparaison profonde de nos différentes


solutions d’analyse choisies en fonction de certains critères pour faciliter le choix dans la prise
de décision. Ces critères sont les suivants : la performance, la facilité d’apprentissage, les coûts,
l’interface utilisateur, la source de données, l’interface utilisateur, la vitesse d’application et les
avantages primordiaux.

Rédigé par SEMBONG A. Amandine


40
Tableau 2: Comparaison des solutions [29]

Critères Power BI Tableau QlikView


Besoin d’un
Technique de calcul
Moteur de calcul puissant
Performance développeur pour la
cubique et facile à utiliser
avec le langage DAX
création des rapports
Interface L’interface utilisateur est L’interface utilisateur est
L’interface utilisateur
Utilisateurs superbe pour les tableaux meilleure et contient plus
moins bonne
de bords de visuels
Facilité Connaissance d’Excel Facile à apprendre. Nul Besoin des
d'apprentissage suffisant comme besoin des connaissances connaissances en
connaissance de base techniques. science de données
Vaste source de
Sources de données
Vaste source de données et données et API
Sources de limitées aux connecteurs
connecteurs y compris disponible pour
données ODBC. Possibilité de
application et site web. développer des
développer un module
connecteurs.
Support de l’outil desktop, API de développement
Support la passerelle et les langages Support du langage R mais ne supporte pas les
R et Python langages R et Python.
Qlik Personal Edition
Version desktop (gratuit) et Version Reader (gratuit) et
Version (gratuit) et version
version cloud (payant) version serveur (payant)
cloud (payant)

$25 par utilisateur/mois


Coût (version $10 par utilisateur/mois soit $70 par utilisateur/mois
soit 16064,07 Franc
payante) 6425,63 Franc CFA soit 44979,40Franc CFA
CFA
Coût $35 soit 22489,70 Franc
Gratuit Gratuit
(Desktop) CFA
Vitesse dépend des Moteur In-Memory qui
Récupération intelligente et
Vitesse caractéristiques du serveur augmente sa vitesse de
automatique
ou desktop calcul
Avantage sur des grands Avantage sur la qualité des Avantage sur l’analyse
Avantage
projets visuels des données

Rédigé par SEMBONG A. Amandine


41
Au regard de l’analyse faite plus haut, nous avons trouvé la solution Power BI adaptée pour
répondre à nos besoins, ceci grâce à plusieurs critères telsques :

 Tarif avantageux ;
 Son dynamisme ;
 Sa compatibilité ;
 Simplicité d’utilisation ;
 Ses capacités d’intelligence décisionnelles en libre-service ;
 Sa flexibilité ;
 Sa capacité à récupérer des données n’importe où et à tout moment ;
 Son prix attractif ;
 Il est le plus efficace pour prendre des décisions en matière de coûts.

III. 3. Architecture de la base de données

Le tableau ci-contre obtenu grâce à des critères de construction, de maintenance, de


durée de mise en œuvre, de compétences utiles et d’intégration des données, va nous permettre
de faire un choix sur l’architecture à adopter qui sera la plus plausible en fonction de notre
projet et répondra à nos critères de sélection La tâche principale est de prendre des décisions
raisonnables et adaptées aux besoins de l'entreprise pour obtenir les meilleurs résultats. :

Tableau 3: Comparaison des architectures [29]

Critères Inmon Kimball

Construction Couteux en temps Rapide

Difficile. Redondance à
Maintenance Facile
gérer
Court si mode incrémental (1
Durée de mise en œuvre Longue (2 Mois)
Mois)

Compétences utiles Equipe spécialisé Equipe généraliste

Intégration des données Niveau entreprise Par domaine métier

Rédigé par SEMBONG A. Amandine


42
Après cette étude comparative, selon nos critères de sélection et au vue des
contraintes locales, nous avons opté pour l’architecture de Kimball. Les raisons étant les
suivantes :

 Elle est applicable par domaine métier (service) et plus facile à mettre en œuvre ;
 Le facteur temps limite du projet est respecté ;
 Les besoins de reporting et les systèmes sources sont relativement stables ;
 Les décideurs ne se soucient pas du fond de la démarche, et ne recherchent
qu'une solution pour améliorer le reporting ;
 Elle développe des magasins de données en utilisant le schéma en étoile.

III. 4. Schéma de la base de données

Le tableau ci-dessous nous renseigne sur les similitudes et les contraintes de nos deux
schémas de modélisation, ceci dans le but d’effectuer une étude comparative de ces derniers
dans le souci de faire un choix selon nos critères de sélection pour la réalisation de notre outil
d’analyse :

Tableau 4: Comparaison des Schémas [29]

Schéma en étoile Schéma en flocon

Contient des tables de sous-dimension


Contient des tables de
Structure du schéma comprenant des tables de faits et de
faits et de dimensions.
dimensions.

Modèle de données Top-down Bottom-up

Complexité de requête Faible Haute

Jointure utilisée Moins Grand nombre de jointure

Utilisation de l’espace Plus Moins


Temps consommé lors de Prend plus en raison de l’utilisation
Prend moins de temps
l’exécution de la requête excessive de la jointure.
Utilisation de la N’utilise pas la Utilise la normalisation et la
normalisation normalisation. dénormalisation.

Rédigé par SEMBONG A. Amandine


43
Notre base de données contient peu de tables et pas de sous-dimensions. Les données
sources proviennent de plusieurs sources (Excel, Access) et elles sont transformées avant d’être
créées en dimensions. Pour des raisons de performance soit du temps d’exécution d’une requête,
nous avons opté pour le schéma en étoile pour des raisons de :

 La table des faits est reliée à chaque table de dimensions par une seule et unique
jointure, ce qui simplifie considérablement les requêtes et en améliore le temps d’exécution y
compris sur d’énormes volumes de données ;
 Il est simple à comprendre et à concevoir,
 Il est pertinent pour le développement de modèles de données Power BI qui sont
optimisés du point de vue des performances et de la convivialité ;
 Les outils de BI permettent aux utilisateurs professionnels d'interagir facilement
avec les structures de table dans des requêtes simples ;
 Les tables de dimension prennent en charge le filtrage et le regroupement ;
 Les tables de faits prennent en charge la totalisation.

III. 5. Création de la base de données centralisée

Les solutions de gestion des bases de données relationnelles classiques, comme SQL
Server ou Oracle sont les plus conseillées. Mais pour des raisons de ressources (coût de licence,
maintenance) et politique interne du parc informatique, car tous les postes sont en mode
utilisateurs et non administratifs, la base de données a été créée sur Excel suivant la figure
suivante (voir annexes 2).

III. 6. Application de la méthode de Kimball

Le Data Warehouse contient les données d’un seul service et plus précisément sur les
différentes opérations de stimulation matricielle. Nous avons donc opté pour l’architecture
suivant l’approche de Kimball parce que les magasins de données contiennent les dimensions
d’axes d’analyses et les faits ou mesures. Les faits contiennent soit des données atomiques c’est
à dire à un niveau fin, soit des données agrégées. De plus, il modélise souvent un domaine
d’activité très spécifique comme les ventes ou la production. D’autres raisons également

Rédigé par SEMBONG A. Amandine


44
énoncées au niveau d’III.3 ne sont pas à négliger. Après application des différentes méthodes
mises sur pieds, l’architecture finale se présente comme suit (voir figure17) :

Figure 17 : Architecture de la solution adoptée

L’architecture suivant l’approche de Kimball nous présente comment les données


proviennent de plusieurs sources telles que Access, SQL Server et Excel pour être stocker au
niveau de l’entrepôt de données qui transmettra les informations perçues soit dans un formulaire
d’importation, soit au niveau du logiciel Power BI. A ce niveau, un petit jeu se produit : les
informations contenues au niveau du formulaire d’importation et de Power BI sont ensuite
transmises à un poste avec droit d’écriture. Power BI quant à lui a également la capacité de
retransmettre ces informations reçues aux différents utilisateurs en libre-service d’où son large
champ d’action qui fait sa particularité et qui attire notre attention (voir figure 17).

La méthodologie de Kimball est itérative et incrémentale, mais reste traditionnelle


dans son exécution avec des tâches en cascade. Cette méthodologie peut être utilisée lorsque le
besoin du client est clair. Par contre, une méthodologie agile est requise pour s’adapter aux
besoins imprécis et changeants du client. Nous travaillerons ainsi à l’aide d’une approche
combinant certains éléments de Kimball avec des pratiques empruntées des méthodologies

Rédigé par SEMBONG A. Amandine


45
agiles [30]. Ces dernières se veulent plus pragmatiques que les méthodes traditionnelles en
impliquant au maximum le demandeur (client) et en permettant une grande réactivité à ses
demandes. Elles reposent sur un cycle de développement itératif, incrémental et adaptatif. La
particularité de cette méthode est que l’on travaille en étroite collaboration avec le client afin
d’assurer la validation après chaque étape. Dans notre cas, nous avions des critères bien précis
à remplir lors de la réalisation du projet, et de façon hebdomadaire nous avions des mises au
point afin de valider ou de modifier les différentes étapes.

III. 7. Application de la méthode POWER BI

Power BI est un puissant outil qui rassemble toutes les données de l’entreprise quel
que soit le département. La business intelligence concentre les informations au même endroit
par un système de collecte puis modélise ces données pour les transformer en outils d’aide à la
décision. Pour cela, Power BI suit quatre étapes [30]. :

 La collecte des données qui centralise tous les résultats des bases de données ;
 L’intégration qui apporte de la cohérence et de la structure à l’agrégat de
données ;
 La diffusion qui donne une vue facile à comprendre à ceux qui ont les droits
d’accès à l’information ;
 La restitution qui schématise les informations pour en faire un visuel
compréhensible pour tous et facilement partageable. Dans notre projet, certaines tables ont été
faites grâce à des requêtes d’ajoûts pour avoir uniquement les champs importants pour
l’analyse.
La figure ci-dessous nous présente les tables à importer :

Rédigé par SEMBONG A. Amandine


46
Figure 18 : Importation des tables dans Excel

Les données étant au cœur de Power BI, l’importation des tables dans Excel permettra
à ce dernier d’analyser le classeur Excel et le convertir en fichier Power BI Desktop (.pbix).
Cette action est un évènement ponctuel. Une fois le fichier Power BI Desktop créé, il n’a aucune
dépendance envers le classeur Excel d’origine, et nous pouvons donc l’enregistrer et le partager
sans que cela n’affecte le classeur d’origine. A la fin de l’importation, une page s’affiche et
décrit les éléments qui ont été convertis tout en donnant la liste de tous ceux qui n’ont pas été
importés.

La figure ci-dessous représente le schéma en étoile avec les dimensions et la table de


fait pour les opérations de stimulation matricielle.

Rédigé par SEMBONG A. Amandine


47
Figure 19 : Schéma en étoile de la base de données

a. Rapports (reporting)

Le choix de la solution de reporting est celle de Power BI. L’outil propose une vaste
gamme de connecteurs et applications comme les fichiers Excel et texte, les bases de données
comme SQL server, Access et Oracle, les plateformes en ligne comme GitHub, Facebook etc…
La figure ci-dessous nous montre une partie des sources possibles :

Rédigé par SEMBONG A. Amandine


48
Figure 20 : Choix du type de source sélectionné

Le choix du type de source de données permet d’extraire et de nous connecter à


plusieurs sources de données différentes tout en les combinant et les nettoyant pour créer un
modèle de données. Ce modèle de données permet de créer des visuels que nous pourrons
partager sous forme de rapports avec d’autres personnes au sein de l’entreprise.

Après avoir choisi la source de données, nous avons le choix entre l’importation des
données ou leurs transformations avec l’éditeur de requêtes. Ces tables sont ensuite ouvertes
dans l’éditeur de requête pour faire des modifications. Certaines transformations sont faites
dans l’éditeur de requêtes, comme la modification du type de champs et le filtrage de données
avant importation. La figure ci-dessous représente les dimensions importées :

Rédigé par SEMBONG A. Amandine


49
Figure 21 : Choix des tables à importer

Le choix des tables s’est fait grâce à notre base de données centralisée pour extraire
les données des systèmes sources, les transformer et les charger dans l’entrepôt cible dans le
but d’avoir une utilisation optimale pour le modèle du rapport central (voir figure 21).

Une fois les champs importés, nous pouvons créer des visuels qui sont généralement des
tableaux de bord et de rapports dans le but de les partager à des groupes de travail (toute
l’équipe), pour que l’information décisionnelle permette d’agir immédiatement et de manière
instantanée. Mais pour donner la possibilité d’avoir des interactions entre les visuels provenant
des champs dans des tables différentes, il est tout d’abord important de mettre ces tables en
relation.

Rédigé par SEMBONG A. Amandine


50
Figure 22 : Tables mises en relation

Après le choix des tables à importer, nous devons effectuer une analyse à l’aide des
données de toutes ces tables ; car, étant donné que Power BI copie des données, nous devons
actualiser le jeu de données pour récupérer les changements des sources de données cachées.
Les relations entre ces tables sont nécessaires pour obtenir des résultats précis et pour afficher
des informations correctes dans notre rapport.

Selon les indicateurs recensés durant l’analyse du besoin, certains visuels créés
représentent les paramètres suivants :

 Les différents puits stimulés depuis 2011 ;


 La longueur de perforation d’un puits ;
 La perméabilité du puits ;
 Le coût chimique par mètre perforé ;
 Le traitement appliqué ;
 Les détails des coûts d’opérations ;
 Les données de performance (le débit d’huile et son BSW).

D’autres indicateurs également importants pour la mise en relation de nos tables sont entre
autres :

Rédigé par SEMBONG A. Amandine


51
 L’utilisation d’un support naval ;
 Le sous-traitant de l’opération ;
 Le diverter fluide appliqué ;
 Le volume de diverter appliqué ;
 Les stimulations avec succès ;
 Les gains après opérations.

Dans d’autres rapports paginés, les indicateurs ci-dessous ont été ajoutés pour une
meilleure compréhension de nos relations créées ainsi qu’une meilleure clairvoyance ou clarté
des résultats obtenus. Ces différents indicateurs sont les suivants :

 Le type de puits ;
 Les réservoirs d’un puits ;
 L’évolution du BSW ;
 Nombre de stimulation par puits ;
 Les longueurs de perforations ;
 Les coûts chimiques et totaux.

La figure ci-dessous représente une vue du rapport avec certains indicateurs :

Figure 23 : Rapport de stimulation matricielle

Rédigé par SEMBONG A. Amandine


52
Ce rapport nous permet donc de visualiser de manière claire et précise le nombre de
stimulation des puits, les différents coûts d’équipement, du personnel et des produits chimiques
utilisés lors des opérations de stimulations. Nous pouvons également voir les longueurs de
perforation des puits, leurs perméabilités respectives et le traitement mis en application.

Dans cette page du rapport, nous voyons que nous avons effectué 129 stimulations en
pratiquement huit années, en notant également une variation du débit d’huile par année pour
avoir une approximation du chiffre d’affaires et des gains. Nous constatons qu’en 2015, nous
avons eu un gain plus performant que les autres années ce qui s’explique par une stimulation
effectuée avec succès par conséquent l’on peut conclure que le traitement administré était
approprié.
Par contre en 2019, le gain est moins performant expliqué par un faible BSW et un
grand nombre de stimulation pour le même puits d’où, le traitement administré n’était pas
approprié pour ce puits : il faudra revoir les chimiques ainsi que leurs volumes respectifs
pompés pour une meilleure réponse.

b. Mise en œuvre

Le projet a pour objectif principal d’améliorer le temps mis pour analyser les données.
La première étape consiste à importer les données de la base de données du Well performance
qui centralisait déjà les données auparavant, mais dispersées dans des fichiers Excel.
Cette base de données contient plus d’une cinquantaine de tables/requêtes et quelques
tables nécessaires pour l’analyse ont été importées et transformées dans l’éditeur de requêtes
de Power BI avant le début de l’analyse.

Ci-dessous une image qui présente quelques tables mises en relation (voir figure24).

Rédigé par SEMBONG A. Amandine


53
Figure 24 : Modélisation dans Power BI

Rédigé par SEMBONG A. Amandine


54
La modélisation de ces tables dans l’outil de rapport ne respecte pas les normes
standards. Elles ont été reliées à une table qui sert de table centrale et qui mets les autres tables
en relation grâce à des relations bidirectionnelles. Autrement dit, cette table centrale peut être
vue comme une table de faits.

Après cette modélisation, les visuels ont été créés pour représenter les données
suivantes : les Bottleneck, Baisse de Potentiel et Evolution de Potentiel détaillé.

c. Les indicateurs
Après une étude du besoin, les indicateurs à ressortir dans notre analyse sont les suivants :

c. 1. Les Bottleneck

Caractérisé par :

 Les puits qui n’ont jamais été stimulé/acidifié


 Les puits avec une production supérieure à 400 bopd
 Les puits avec injecteurs
 Les puits qui produisent du sable
 Les puits qui ont un BSW supérieure à 90%
 Les puits instables
 Les puits producteurs de sable
 Les puits avec une pression de tète supérieure à 10 bar

c. 2. Baisse de potentiel

Caractérisée par :

 Variation de production d’un puits sur les 3 derniers mois


 Variation de production d’un puits sur les 6 derniers mois
 Variation de production d’un puits sur les 12 derniers mois
 La production journalière en bopd

Rédigé par SEMBONG A. Amandine


55
c. 3. Evolution du potentiel détaillé

Caractérisée par :

 La production journalière pour chaque concession


 Le total de production sur une plage de temps
 La production journalière par puits et plateforme

Le projet a pour objectif principal d’améliorer le temps mis pour analyser les données
ce qui se résume en réalisant un rapport d’analyse avec Power BI pour le service du Well
Performance. Le présent rapport de stimulation a été créé suivant la figure ci-dessous (voir
figure25).

Figure 25 : Rapport de Well Performance

Rédigé par SEMBONG A. Amandine


56
Ce rapport ne contient pas de données, il spécifie où obtenir les données, celles à
obtenir et comment les afficher. Lors de l’exécution du rapport, le processus de rapport prend
la définition de ce dernier que nous avons spécifié, récupère les données et les combine avec la
disposition des rapports pour le générer.

III. 8. Bilan économique

Après la mise en œuvre de la solution, il était question de déterminer le retour sur


investissement de la solution et déterminer si le projet est rentable ou pas. Pour cela, il faut
calculer les coûts estimatifs, réels et l’écart type.

Tableau 5: Coût estimatif du projet

Ressources Prix unitaire Quantité Total

Poste de travail (Dell, 8Gb


RAM, 2.5GHz Processeur) 315.000 01 315.000

Power BI Desktop Gratuit 01 -

Base de données Access


(Office 2013) 217.500 01 217.500

Connexion Internet 10.000 / Mois 03 Mois 30.000

10.000 / jr par
Ressources humaine 01 homme pendant 03 Mois 900.000
homme

TOTAL 1.462.500

TOTAL + TVA (19.25%) 1.699.225

Rédigé par SEMBONG A. Amandine


57
Au vu de la disponibilité de certaines ressources déjà présentes au sein de l’entreprise,
nous pouvons nous permettre de scinder les coûts réels de ceux estimatifs liés au projet. Ces
différentes contraintes sont représentées dans le tableau ci-dessous :

Tableau 6 : Coûts réels du projet

Ressources Prix unitaire Quantité Total

Poste de travail (Dell, 8Gb


RAM, 2.5GHz Processeur) Disponible 01 -

Power BI Desktop Gratuit 01 -

Base de données Access


(Office 2013) Disponible 01 -

Connexion Internet Disponible 03 mois -

01 homme pendant 03
Ressources humaines 100.000/mois mois 300.000

TOTAL 300.000

La différence entre les coûts estimatifs et les coûts réels est l’écart type. Un écart type
positif signifie que l’entreprise a dépensé moins sur le projet et donc les coûts du projet ont été
maitrisés. Dans notre cas d’étude, l’écart type de notre projet est de :

1.699.225 – 300.000 = 1.399.225

Rédigé par SEMBONG A. Amandine


58
Après avoir implémenté le projet, nous constatons que le temps d’analyse a
considérablement réduit. Une tâche qui nécessitait au moins 4 heures de temps est désormais
effectuée en moins de 15 minutes par la même ressource, ce qui rend la ressource beaucoup
plus productive.

Le but de la solution est de faciliter la prise de décision pour déterminer les candidats,
(puits pouvant être stimulé) afin de croître la production de l’entreprise. Les gains d’une
opération de stimulation sont mesurés en barrels d’huile et actuellement sur le marché, 1 baril
≈ 56285,21 FCFA. Dans ce cas, un bon candidat déterminé grâce à l’outil d’analyse, avec un

gain de 200 bopd rapporte à l’entreprise près de 11.257.042 FCFA / Jour.

Après avoir effectué une étude comparative précédemment annoncée pour la mise en
place de notre outil d’analyse, nous avons adopté une architecture qui a par la suite été mise sur
pieds puis implémentée. Les résultats obtenus étant concluants, nous pouvons dire avec
certitude et assurance que notre projet a été un véritable succès vu les gains apportés à
l’entreprise avec très peu de coûts.

Rédigé par SEMBONG A. Amandine


59
CONCLUSION GENERALE

Au terme de notre étude où il était question de mettre en place une solution d’analyse
de données pour les opérations de stimulation matricielle, notre objectif principal était de
faciliter la prise de décision tout en améliorant le temps d’analyse de données. Pour répondre à
cet objectif, nous avons tout d’abord fait une étude comparative des différentes méthodes
utilisées pour la réalisation de notre outil d’analyse telles que la méthode de l’architecture des
données qui nous a permis de faire le choix sur l’approche de Kimball car elle est applicable
par domaine métier. Ensuite, une étude sur la méthode des schémas de modélisation nous a
amené à choisir le schéma en étoile pour des raisons de performances et d’exécution des
requêtes. Par la suite nous avons mis sur pied une base de données centralisée sous Excel ; et
enfin, grâce à l’outil de reporting Power BI, nous avons créé des rapports qui répondent à ce
besoin.

Nous constatons qu’après l’étude, la conception, la réalisation et l’implémentation du


projet, la solution nous permet de gagner en temps d’analyse et facilite la recherche des
candidats de stimulation. Pour faciliter la prise en main de la solution proposée, nous avons
formé les utilisateurs sur ladite solution.

Comme tout travail bien mené, nous avons rencontré quelques difficultés notamment
la nomenclature différente des puits ainsi que les contraintes des sources externes de logiciels
mises en place par le parc informatique. Au regard de ces limites, nous avons proposé comme
perspectives : l’apport de nouvelles améliorations pour assurer l’optimisation de la solution au
sein de l’entreprise PERENCO ; la création d’un entrepôt de données centralisées sur une base
de données plus performante comme SQL Server. La mise à jour du système qui permettra une
meilleure visibilité, un meilleur suivi et le partage des rapports et tableaux de bords à grande
échelle, ainsi que le déploiement de la dite solution dans toute la direction des opérations.

Rédigé par SEMBONG A. Amandine


60
REFERENCES BIBLIOGRAPHIQUES

[1]. http://www.perenco.com/Cameroun

[2].http://infodecisionnel.com/reporting-2/reporting-open-source/qlikview-reporting-open-
source/presentation-de-qlikview/

[3]. http://tdan.com/data-warehouse-design-inmon-versus-kimball/20300#

[4]. https://fr.wikipedia.org/wiki/%C3%89toile_(mod%C3%A8le_de_donn%C3%A9es

[5]. https://web.stanford.edu/dept/itss/docs/oracle/10g/server.101/b10736/concept.htm#i10062
97

[6]. https://www.aerow.group/a16u1509/

[7]. https://www.agiledss.com/fr/blogue/lien-entre-tableau-software-et-analyse-predictive

[8]. https://www.megabyte.be/logiciel-de-gestion/informatique-decisionnelle-business-
intelligence/qlikview/

[9]. Microsoft, Power BI Community, https://community.powerbi.com/, 2019

[10]. www.thegasgun.com

[11]. https://www.infocube.ch/fr

[12]. TOTAL, Sandstone Acidizing. Juin 2010, 31 pages.

[13]. https://www.dmp.wa.gov.au

[14]. https://www.parents.google.com

[15]. https://www.lesdieuxducode.com

[16]. https://stph.scenari-community.org/bdd/gen1/co/pri1c23.html

[17]. Extrait de la revue de Datacamp

[18]. https://www.logiciels.pro/logiciel-saas/qlikview/

[19]. https://www.sales-hacking.com/outils/tableau#tarifs

[20] .https://www-knowledgehut-com.translate.goog/blog/business-intelligence-and-
visualization/power-bi-limitations

Rédigé par SEMBONG A. Amandine


61
[21]. http://www.stopaugazdeschiste07.org/spip.php?article179

[22].https://www.cartelis.com/blog/architecture-data-warehouse/#les-modeles-de-data-
warehouse

[23]. https://learn.microsoft.com/fr-fr/power-bi/guidance/star-schema

[24].https://fre.myservername.com/schema-types-data-warehouse-modeling-star-snowflake-
schema

[25].https://fre.myservername.com/schema-types-data-warehouse-modeling-star-snowflake-
schema

[26]. "Pickling and Passivation". Australian Stainless Steel Development Association.


Brisbane, Australia. Archived from the original on 2021-05-20

[27]. Sadiq J. Zarrouk, Katie McLean, in Geothermal Well Test Analysis, 2019

[28]. TOTAL, Sandstones, page 45

[29].way to learn

[30]. https://www.votreassistance.net/

Rédigé par SEMBONG A. Amandine


62
ANNEXES

 Annexe 1 : Organigramme du service d’acceuil

Figure 26 : organigramme du service d’acceuil [1]

 Annexe 2 : Informations sur les différents puits ayant été stimulés de 2011 à 2019

Rédigé par SEMBONG A. Amandine


63
Perforation Porosity Permeability Permeability Permeability
Well name dateOn Reservoir name Interval Top Length (m) bot Length (m)
length (m) (%) upper (mD) (mD) lower (mD)

ACM013 30/04/2014 ACM-013:S4.5 1334,6 - 1343,6 1334,6 1343,6 9 31,0 1153,0 1296,5 1440

ACM014 07/11/2013 ACM-014:S4.5 1453 - 1462 1453 1462 9 31,0 1460,0 1645,0 1830

ACM014 28/08/2015 ACM-014:S4.5 1453 - 1462 1453 1462 9 31,0 1460,0 1645,0 1830

1600,7-1620,7;
ACM017A 13/01/2018 ACM-017:PS3 1600,7 1627,5 26,8 32,0 90,0 90,0
1615,7-1627,5

ACM025 27/01/2015 ACM-025:S4.5 1598,7 - 1610,7 1598,7 1610,7 12 30,0 350,0 350,0

1242,6 - 1245,6;
ACM026A 15/06/2017 ACM-026:PS3 1242,6 1252,6 10 100,0 100,0
1249,6 - 1252,6

1242,6-1245,6
ACM026A 21/12/2017 ACM-026:PS3 1242,6 1252,6 10 100,0 120,0 140
/1249,6-1252,6

ASM033A 12/05/2014 ASM-033:S1.5 1386,4 - 1392,4 1386,4 1392,4 6 25,6 900,0 1075,0 1250

ASM033A 07/12/2017 ASM-033:S1.5 1386,4-1392,4 1386,4 1392,4 6 25,6 900,0 1075,0 1250

ASM033A 27/12/2018 ASM-033:S1.5 1051,7-1063,7 1051,7 1063,7 12 26,0 200,0 200,0

1570-1580
ASM035A 29/11/2018 ASM-035:S4.5 1587-1590 1570 1605 35 26,0 550,0 550,0
1593-1605

ASM037 29/12/2018 ASM-037:S4.6 1294,3-1300,3 1294,3 1300,3 6 24,0 200,0 250,0 300

1886,3 - 1895,3;
ASM038 20/05/2014 ASM-038:S5D 1886,3 1913,3 27 NA 1118,0 1118,0
1902,3 - 1913,3

Rédigé par SEMBONG A. Amandine


64
BOM011 12/09/2015 BOM-011:S5G 2076 - 2082 2076 2082 6 26,0 500,0 500,0

BOM011 16/02/2016 BOM-011:S5G 2076 - 2082 2076 2082 6 26,0 500,0 500,0

BOM203SS 17/01/2015 BOM-203S:S4.6 2179,2 - 2188,2 2179,2 2188,2 9 34,9 350,0 350,0

BOM204 16/01/2015 BOM-204:S5G 2930,5 - 2945,5 2930,5 2945,5 15 30,1 1000,0 1000,0

BRM103 20/01/2015 BRM-103:S5C_S5D 2512,8 - 2531,8 2512,8 2531,8 19 23,0 50,0 50,0

S5C 2489,9-2535,9
BRM103 04/12/2016 BRM-103:S5C_S5D 2489,9 2531,8 41,9 23,0 50,0 50,0
S5D 2512,8-2531,8

1498 - 1502;
BTM011A 03/02/2014 BTM-011:S1.6 1498 1511 13 30,0 90,0 715,0 1340
1505 - 1511

BTM020 14/11/2012 BTM-020:S5E 1934,8 - 1951,0 1934,8 1951 16,2 27,0 500,0 500,0

BTM020 22/06/2013 BTM-020:S5E 1946,5 - 1962,7 1946,5 1962,7 16,2 27,0 500,0 500,0

BTM030I 18/04/2014 BTM-030:S2 2626 - 2641 2626 2641 15 29,0 310,0 1265,0 2220

BTM031 20/10/2017 BTM-031:BTC-RB1 2290-2293 2290 2293 3 25,2 1350,0 1350,0

2650,8 - 2655,8;
BTM032I 08/03/2014 BTM-032:S1.5 2650,8 2693,8 43 29,0 475,0 634,0 793
2663,8 - 2693,8

2650,8 - 2655,8;
BTM032I 08/04/2014 BTM-032:S1.5 2650,8 2693,8 43 29,0 475,0 634,0 793
2663,8 - 2693,8

2249,8 - 2252,8;
BTM050 12/11/2012 BTM-050:S1.5 2249,8 2266,3 16,5 28,0 200,0 200,0
2256,8 - 2266,3

Rédigé par SEMBONG A. Amandine


65
BVM044A 30/12/2014 BVM-044:S5D 1425,7-1443,7 1425,7 1443,7 18 29,0 75,0 75,0

1425,7-1443,5
BVM044A 12/12/2017 BVM-044:S5D /1433,7-1435,7 1425,7 1443,7 18 29,0 75,0 75,0
/1437,2-1443,7

BVM046 26/07/2018 BVM-046:S5D 1586,7-1601,7 1586,7 1601,7 15 Il s'obtient à partir d'un test de puits:
#DIV/0!
on introduit un séparateur test dans lequel on dirige la

1618,2 - 1621,2;
BVM047 21/12/2014 BVM-047:S5D 1623,2 - 1629,2; 1618,2 1638,7 20,5 31,0 743,0 743,0
1632,7 - 1638,7

1618,2 - 1621,2;
BVM047 04/05/2017 BVM-047:S5D 1623,2 - 1629,2; 1618,2 1638,7 20,5 31,0 743,0 743,0
1632,7 - 1638,7

1618,2-1621,2
BVM047 07/12/2018 BVM-047:S5D 1623,2-1629,2 1632,7- 1618,2 1638,7 20,5 31,0 743,0 743,0
1638,7

1351,5 - 1370,5;
BVM051 11/01/2015 BVM-051:S5D_S5E 1351,5 1398,5 47 35,0 293,0 319,5 346
1388,5 - 1398,5

1799,7 - 1802,7;
BVM054A 18/05/2016 BVM-054:S4.6_S4.7 1808,7 - 1810,7; 1799,7 1851,7 52 0,2 112,0 112,0
1843,7 - 1851,7

BVM062 17/05/2012 BVM-062:S5D 2688 - 2725 2688 2725 37 NA 400,0 400,0

BVM512 26/12/2015 BVM-012I:IM5 1713,5-1721,5 1713,5 1721,5 8 26,0 55,0 92,5 130

BVM516I 26/12/2015 BVM-516I:S4.7 1497,1-1511,1 1497,1 1511,1 14 19,0 130,0 132,5 135

1765 - 1770;
BVM548 10/11/2015 BVM-548I:S5D 1774 - 1781; 1765 1793 28 28,0 220,0 282,5 345
1784 - 1793

2889 - 2904;
BVM559 30/07/2011 BVM-559I:S5D 2889 2934 45 #DIV/0!
2914 - 2934

Rédigé par SEMBONG A. Amandine


66
PICKLE PHASE
Débit avant et après
Results (m3/day) Comments Injectivity fluid injectivity vol Pickle fluid pickleVol (m3)
l'opération

Overflush (eau de mer): 15m3


Q avant = 24,96m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

pour remplacer le Guidon AGS et PAD 9:1 10% HCl HCl 3,2
Q après = 40,1m3/day
PAD (HCl), pas de HF ou xylene,

On soupçonne que l'accumulation


Q avant = 38,2m3/day; de tartre à travers la perforation et
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

PAD 9:1 10% HCl HCl 4,9


Q après = 31,64m3/day le dépôt de carbonates à proximité
de la zone du puis de forage est la
Des particules ou écailles solubles
Q avant = 32,9m3/day;
dans l'acide potentielles dans la
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

Q après = 16,92m3/day ; PAD 9:1 10% HCl HCl 3,2


région proche du puits de forage et
BSW= 86%
la migration des fines et de l'argile
Reprendre l'injection d'eau
Q avant = 167m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

pendant la nuit selon le CLAYFIX 5 2 PAD 9:1 10% HCl HCl 13


Q après = 179m3/day
département du réservoir

Baisse de l'indice de productivité


Q avant = 20,96m3/day; lors du traitement au Mud acid
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
10% HCl 3,2
Q après = 17,92m3/day (l'acide de boue),. On note
également la présence suspectée

Q avant= 18,7m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

CLAYFIX 5 5,6 PAD 9:1 10% HCl HCl 3,2


Q après= 20m3/day

Q avant= 69m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2


Q aprs= 113m3/day

Pas d'évolution de la pression,


Q avant= 15,89m3/day; petite augmentation du BOPD.
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

PAD 9:1 10% HCl HCl 3,2


Q après= 23,84m3/day Les acides HF et HCl n'ont pas
contacté la formation

Q avant= 96m3/day;
I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 3


Q après= 78m3/day

Pétrole lourd ayant tendance à se CLAYFIX 5 &


I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
2 PAD 9:1 10% HCl HCl 1,6
figer LOSURF 300M

Traitement conçu pour une


I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s
CLAYFIX 5 2 PAD 9:1 10% HCl HCl 1,5
perforation de 18m au lieu de 25m

Traitement conçu pour une


I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

perforation de 5m au lieu de 6m du CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2


puits ( contraintes de coûts)

Q avant= 19,1m3/day; Overflush (brine): 10m3,


I l s'obt i ent à par t i r d'un t est de pui t s: on i nt r odui t un sépar at eur t est dans l equel on di r i ge l a pr oduct i on du pui t s et au sor t i e de ce sépar at eur i l y'a un com pt eur qui per m et d'a voi r l e débi t pr odui t par l e pui t s

PAD 9:1 10% HCl HCl 4,76


Q après= 20,03m3/day déplacement de 8,5m3 d'eau

Rédigé par SEMBONG A. Amandine


67
PICKL+P1:X17E PHASE
Total cost Pickle
Inje ctivity fluid inje ctivity vol Pickle fluid pickle Vol (m3) Equipme nt cost Che mical cost Pe rsonne l cost Boat cost
phase

PAD 9:1 10% HCl HCl 3,2 2500 $ 3542,4 $ 8000 $ / 14042,4

PAD 9:1 10% HCl HCl 4,9 2500$ 3542,4$ 8000$ / 12908,65

PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 21080

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 13 2500$ 3542,4$ 8000$ / 15055

10% HCl 3,2 2500$ 3542,4$ 8000$ / 13450

CLAYFIX 5 5,6 PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 20450

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2 2500$ 3542,4$ 8000$ / 19340

PAD 9:1 10% HCl HCl 3,2 2500$ 3542,4$ 8000$ / 16400

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 3 2500$ 3542,4$ 8000$ / 12650

CLAYFIX 5 &
2 PAD 9:1 10% HCl HCl 1,6 2500$ 3542,4$ 8000$ / 19054
LOSURF 300M

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 1,5 2500$ 3542,4$ 8000$ / 16030

CLAYFIX 5 2 PAD 9:1 10% HCl HCl 2 2500$ 3542,4$ 8000$ / 14042,4

PAD 9:1 10% HCl HCl 4,76 2500$ 3542,4$ 8000$ / 14042,4

2500$ 3542,4$ 8000$ / 12650

2500$ 3542,4$ 8000$ / 12650

2500$ 3542,4$ 8000$ / 12650

2500$ 3542,4$ 8000$ / 14042,4

2500$ 3542,4$ 8000$ / 14042,4

CLAYFIX 5 &
4,2 DAD 2,1 2500$ 3542,4$ 8000$ / 12090
MUSOL

10% HCl 3 2500$ 3542,4$ 8000$ / 13450

10% HCl 3 2500$ 3542,4$ 8000$ / 11250

2500$ 3542,4$ 8000$ / 13450


Rédigé par SEMBONG A. Amandine
68
MAIN TREATMENT PHASE
Non acidic non acidic preflush acidic preflushVol treatmentVol Acid PostflushVol
Acidic preflush treatmentFluid Acid Postflush Overflush
preflush vol (m3) (m3) (m3) (m3)

PAD 9:1 10% HCl 8,9 FSW

PAD 9:1 10%


5,4 K-SPAR 3,5 5% HCl 5,4
HCl

CLAYFIX 5 & PAD 9:1 10%


2,7 9 K-SPAR 9 5% HCl 9
MUSOL HCl

CLAYFIX 5 & PAD 9:1 10%


6,6 22 SCA 22 5% HCL 22 CLAYFIX 5
MUSOL HCl

CLAYFIX 5 &
3,6 HCL 10% 12 K-SPAR 12 5% HCl 12 CLAYFIX 5
MUSOL

HCL 10% 6 SCA 6 5% HCl 6 CLAYFIX 5

CLAYFIX 5 & PAD 9:1 10%


1,8 6 FCA 6 5% HCl 1 CLAYFIX 5
MUSOL HCl

PAD 9:1 10%


9,1 K-SPAR 6,04 5% HCl 7,9
HCl

CLAYFIX 5 &
1,8 HCL 10% 6 K-SPAR 6 5% HCl 6 CLAYFIX 5
MUSOL

CLAYFIX 5 &
PAD 9:1 10%
MUSOL & 3,6 12 K-SPAR 12 5% HCL 12 CLAYFIX 5
HCl
LOSURF

CLAYFIX 5 & PAD 9:1 10%


5,4 18 K-SPAR 18 5% HCL 18 CLAYFIX 5
MUSOL HCl

PAD 9:1 10%


CLAYFIX 5 1,5 5 K-SPAR 5 5% HCL 5 CLAYFIX 5
HCl

N-Ver-Spers-O 1,98 PAD 9:1 10% HCl 10 FSW

HCL 10% 10 K-SPAR 6,5 5% HCl 10

HCL 10% 7,31 K-SPAR 4,92 5% HCl 7,3

CLAYFIX 5 7,5 HCL 10% 7,5 K-SPAR 5 5% HCl 7,5

CLAYFIX 5 1,5 SANDSTIM 5 CLAYFIX 5

CLAYFIX 5 5 HCL 10% 5 K-SPAR 5 5% HCl 5 CLAYFIX 5

CLAYFIX 5 &
HCL 10% 6,3 SCA 20 5% HCl 9,9
MUSOL

Rédigé par SEMBONG A. Amandine


69
Ove rflus hVol Main Dis pl Main Dis pl Vol Equipme nt Che mical
Pe rs onne l cos t3 Boat cos t3 Total Main phas e
(m3) Fluid 1 1 (m3) cos t3 cos t3

14,9 FSW 3,2 4500$ 3542,4 12000$ / 20042,4

CLAYFIX 5 10,2 4500$ 3542,4 12000$ / 20042,4

FRESH
4,59 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
14,3 5,5 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
7,8 7,3 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
3,9 5,6 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
3,9 5,6 4500$ 3542,4 12000$ / 20042,4
WATER

CLAYFIX 5 12,04 4500$ 3542,4 12000$ / 20042,4

FRESH
2,7 6,29 4500$ 3542,4 12000$ / 20042,4
WATER

7,8 CLAYFIX 5 4,6 4500$ 3542,4 12000$ / 20042,4

11,5 CLAYFIX 5 7,4 4500$ 3542,4 12000$ / 20042,4

FRESH
3,3 5,8 4500$ 3542,4 12000$ / 20042,4
WATER

18,6 4500$ 3542,4 12000$ / 20042,4

4500$ 3542,4 12000$ / 20042,4

4500$ 3542,4 12000$ / 20042,4

4500$ 3542,4 12000$ / 20042,4

FRESH
3,25 3,25 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
3,25 16,4 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
10,1 8,4 4500$ 3542,4 12000$ / 20042,4
WATER

FRESH
9,7 14,8 4500$ 3542,4 12000$ / 20042,4
WATER
Rédigé par SEMBONG A. Amandine
70
CONTROL PHASE
Pickle Re ason for
Re ason for pickle pickle displVol Re ason for space r Solve ntVol
displF+AE2:AN space r fluid space r vol (m3) Solve nt Dive rte r fluid
phase re ne wal (m3) fluid phase (m3)
70luid phase
Le Spacer permet
Le pickle fluid ici sert à Le diverter fluid
d'eviter le contact de
pousser le reste de permet de créer
deux chimiques afin
volume d'acide du main un champ d'action
FSW 2,86 d'agir indépendamment NVSO 2,7
treatment au niveau de plus élargi du
les uns des autres
la formation avant de fluide dans toute
généralement
dégorger le puits la formation
considéré omme un
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
CLAYFIX5 1,58
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau
Le pickle fluid ici sertdeà d'agir indépendamment
Le Spacer permet Leplus élargifluid
diverter du
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 3 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 4,1
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 2,4 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 2,4 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main CLAYFIX5 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 3,2 NVSO 3,9
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
CLAYFIX5 2,6 CLAYFIX 5 6 NVSO 6
volume d'acide du main deux chimiques afin un champ d'action
treatment
Le au niveau
pickle fluid ici sertdeà d'agir indépendamment
Le Spacer permet Leplus élargifluid
diverter du
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main CLAYFIX5 5,2 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation
Le pickle fluid ici sert à les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 3,5 deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
Le pickle fluid ici sert à
d'eviter le contact de permet de créer
pousser le reste de
deux chimiques afin un champ d'action
volume d'acide du main
d'agir indépendamment plus élargi du
treatment au niveau de
les uns des autres fluide dans toute
la formation
Le pickle fluid ici sert à Legénéralement
Spacer permet Leladiverter
formation
fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER deux chimiques afin CLAYFIX 5 3,25 un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation
Le pickle fluid ici sert à les Spacer
Le uns despermet
autres fluide dans toute
Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
volume d'acide du main FRESH WATER 6,3 deux chimiques afin CLAYFIX 5 8 un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du
la formation les uns des autres fluide dans toute
Le pickle fluid ici sert à Le Spacer permet Le diverter fluid
pousser le reste de d'eviter le contact de permet de créer
FRESH WATER 11,8
volume d'acide du main deux chimiques afin un champ d'action
treatment au niveau de d'agir indépendamment plus élargi du

Rédigé par SEMBONG A. Amandine


71
Dive rte r FINES Equipme nt Total Control
0 FINES Vol (m3) Che mical cos t2 Pe rs onne l cos t2
Vol(m3) CONTROL cos t2 phas e

GUIDON 2,7 7500 3542,4 9050 20092,4

7500$ 3542,4 6045$ 17087,4

GUIDON 4,5 7500$ 3542,4 5060$ 16102,4

GUIDON 13,2 7500$ 3542,4 5060$ 16102,4

7500$ 3542,4 5060$ 16102,4

7500$ 3542,4 5060$ 16102,4

7500$ 3542,4 5060$ 16102,4

7500$ 3542,4 150090$ 16102,4

GUIDON 3 UTTA 2,7 7500$ 3542,4 150090$ 16102,4

GUIDON 7,2 7500$ 3542,4 7050$ 18092

GUIDON 30 7500$ 3542,4 7050$ 18092

GUIDON 1,5 7500$ 3542,4 7050$ 18092

GUIDON 4,94 7500$ 3542,4 10500$ 18092

7500$ 3542,4 2300$ 18092

7500$ 3542,4 1545$ 18092

UTTA 3 7500$ 3542,4 1545$ 18092

UTTA 3 7500$ 3542,4 9800$ 18092

UTTA 2,25 7500$ 3542,4 9800$ 18092

Oil Seeker 3,8 7500$ 3542,4 20900$ 18092

GUIDON 9 7500$ 3542,4 20900$ 18092

Rédigé par SEMBONG A. Amandine


72
FABRICANT ET COÛTS TOTAUX DE L’OPÉRATION
Total
Total Che mical Total Pe rs onne l Nombre
Pe rforme r Support naval Equipme nt Total Boat cos t2 Total
cos t cos t d'é tape s
cos t

Halliburton No $ 19 790,00 $ 40 408,75 $ 29 050,00 $ - $ 89 248,75 1

Halliburton No $ 13 880,00 $ 36 914,00 $ 18 600,00 $ - $ 69 394,00 1

Halliburton No $ 19 003,10 $ 54 012,88 $ 19 747,00 $ - $ 92 762,98 1

Halliburton No $ 21 764,00 $ 126 028,00 $ 20 400,00 $ - $ 168 192,00 3

Halliburton No $ 33 355,00 $ 56 041,42 $ 24 800,00 $ - $ 114 196,42 1

Halliburton No $ 21 764,00 $ 43 632,00 $ 20 400,00 $ - $ 85 796,00 1

Halliburton No $ 19 103,20 $ 35 854,81 $ 15 743,00 $ - $ 70 701,01 1

Halliburton No $ 51 296,00 $ 70 581,00 $ 45 600,00 $ - $ 167 477,00 1

Halliburton No $ 26 818,00 $ 70 305,00 $ 22 950,00 $ - $ 120 073,00 1

Halliburton No $ 24 863,00 $ 86 654,30 $ 17 850,00 $ - $ 129 367,30 2

Halliburton No $ 32 823,00 $ 129 924,67 $ 17 850,00 $ - $ 180 597,67 2

Halliburton No $ 5 107,00 $ 16 326,92 $ 2 550,00 $ - $ 23 983,92 1

Halliburton No $ 51 643,60 $ 54 153,91 $ 31 000,00 $ - $ 136 797,51 1

Halliburton No $ 13 315,20 $ 18 519,53 $ 7 410,00 $ - $ 39 244,73 1

Halliburton No $ 7 758,00 $ 17 358,21 $ 4 200,00 $ - $ 29 316,21 1

Halliburton No $ 8 350,00 $ 30 218,55 $ 4 200,00 $ - $ 42 768,55 1

Halliburton No $ 35 060,14 $ 50 066,73 $ 25 753,00 $ - $ 110 879,87 1

Halliburton No $ 19 048,68 $ 41 933,85 $ 19 747,00 $ - $ 80 729,53 1

Schlumberger Yes $ 13 207,00 $ 90 999,00 $ 43 296,00 $ 108 000,00 $ 255 502,00 3

Halliburton Yes $ 40 997,00 $ 106 369,00 $ 24 700,00 $ - $ 172 066,00 2

Figure 27 : Présentation de quelques puits ayant subi une stimulation matricielle

Rédigé par SEMBONG A. Amandine


73

Vous aimerez peut-être aussi