Vous êtes sur la page 1sur 98

NABLI 

LOTFI
Cours data Mining

Institut Supérieur des Sciences Appliquées et de Technologie


de Kairouan

Cours de Mastère Professionnelle


Pilotage et Réseaux Industriels

Cours : Data Mining

1
NABLI LOTFI
Cours data Mining
Plan
1. Historique
2. Introduction
3. Définitions
4. Spécificité du data mining
5. Objectif et Outils
6. Outils de Modélisation intelligent
1. Système Multi gents
2. Logique Floue
3. Réseaux de Neurones
7. La cryptographie
8. Outils de Gestion et d’analyse de donnéesABC
9. Applications Industrielles
ISAT de Kairouan
2
NABLI LOTFI
Cours data Mining
Data Mining
1. Historique :
L’idée de découvrir des faits à partir des données est aussi vieille que
la statistique “Statistics is the science of learning from data.Statistics is
essential for the proper running of government, central to decision
making in industry,and a core component of modern educational
curriculaat all levels ”(J.Kettenring,1997,ancien président de l’ASA).
Dans les années 60: Analyse Exploratoire (Tukey, Benzécri) «L’analyse
des données est un outil pour dégager de lagangue des données le pur
diamant de lavéridique nature.»(J.P.Benzécri 1973)

ISAT de Kairouan
3
NABLI LOTFI
Cours data Mining
L’informatique décisionnelle désigne les moyens, les outils et les
méthodes qui permettent de collecter, consolider, modéliser et restituer
les données d'une entreprise en vue d'offrir un système expert assurant
une aide à la décision et de permettre aux responsables de la stratégie
d'une entreprise d’avoir une vue d’ensemble de l’activité traitée.
•Sélectionner les données (par rapport àun sujet et/ou une période)
•Trier,regrouper ou répartir ces données selon certains critères
• Élaborer des calculs récapitulatifs « simples » (totaux, moyennes
conditionnelles,etc.)
•Présenter les résultats de manière synthétique
Le Data Mining est proche de ce cadre, mais elle introduit une
dimension supplémentaire qui est la modélisation « exploratoire »
(détection des liens de cause àeffet,validation de leur reproductibilité)
ISAT de Kairouan
4
NABLI LOTFI
Cours data Mining

2. Introduction : L’exploration de données, aussi connue sous les


noms fouille de données, data mining (forage de données) ou
encore extraction de connaissances à partir de données (ECD en
français, KDD en anglais), a pour objet l’extraction d'un savoir ou d'une
connaissance à partir de grandes quantités de données, par des
méthodes automatiques ou semi-automatiques. L'utilisation industrielle
ou opérationnelle de ce savoir dans le monde professionnel permet de
résoudre des problématiques très diverses, allant de la gestion à la
maintenance préventive, en passant par la surveillance des systèmes
industriels.

ISSAT de Kairouan
5
NABLI LOTFI
Cours data Mining

3. Définitions Data Mining

Définition 1 : C’est une démarche plutôt qu’une théorie le data mining


permet de classer les faits, à partir d’une base de données, et de les prévoir dans
une certaine mesure.
Définition 2 : Le Data Mining est un nouveau champ situé au croisement de la
statistique et des technologies de l’information (bases de données, intelligence
artificielle, apprentissage etc.) dont le but est de découvrir des structures dans de
vastes ensembles de données.
Deux types: modèles et comportement

Définition 3 : Processus non-trivial d ’identification de structures inconnues,


valides et potentiellement exploitables dans les bases de données (Fayyad,1996)
ISSAT de Kairouan
6
NABLI LOTFI Cours data Mining

4. Spécifité du data mining

Techniques d’exploration de données


• Des techniques d’origines diverses,
• issues de cultures différentes
• …mais qui traitent des problèmes similaires
• et qui partent toujours d’une base de données

Des méthodes appliquées aux systèmes avec ou sans modèle.


Très souvent, ces méthodes reviennent à optimiser les mêmes critères,
mais avec des approches / formulations différentes.

ISAT de Kairouan
7
NABLI LOTFI Cours data Mining

Analyse de données Techniques utilisées selon leur « origine »


(Statistique exploratoire) Statistiques
Description factorielle Théorie de l’estimation, tests
Discrimination Économétrie
Clustering Maximum de vraisemblance et moindres
Méthodes géométriques, probabilités carrés
ACP,ACM,Analyse discriminante, CAH, … Régression logistique, …

Informatique : Intelligence artificielle Informatique : système de gestion de Base


•Apprentissage symbolique de données
•Reconnaissance de formes •Exploration des bases de données
•Une étape de l’intelligence artificielle •Volumétrie
•Logique floue, Système Multi Agents, •Règles d’association, motifs fréquents,
Réseaux de neurones, algorithmes MéthodeABC,…
génétiques…
ISAT de Kairouan 8
NABLI LOTFI Cours data Mining
5. Objectifs et outils
Le Data Mining cherche des structures de deux types : Modèles et
Patterns ( comportement ).
Patterns
une structure caractéristique possédée par un petit nombre
d’observations: niche de clients à forte valeur, ou au contraire des
clients àhaut risque
Outils:classification, visualisation par réduction de dimension (ACP,
AFC etc.) règles d’association.
Modèles
Construire des modèles a toujours été une activité des statisticiens. Un
modèle est un résumé global des relations entre variables, permettant de
comprendre des phénomènes, de les simuler, et d’émettre des prévisions.

ISSAT de Kairouan
9
NABLI LOTFI Cours data Mining

Modèles
Le DM ne traite pas d’estimation et de tests de modèles pré spécifiés,
mais de la découverte de modèles à l’aide d’un processus de recherche
algorithmique d’exploration de modèles:
linéaires ou non,
explicites ou implicites: logique floue, réseaux de neurones, arbres
de décision,analyse en composantes principales,régression logistique,
réseaux bayesiens.…
Les modèles ne sont pas issus d’une théorie mais de l’exploration des
données.
Autre distinction:prédictif (supervisé) ou exploratoire(non supervisé)

ISSAT de Kairouan
10
NABLI LOTFI Cours data Mining

Des outils ou un process?

Le Data Mining est souvent présenté comme un ensemble intégré


d’outils permettant entre autres de comparer plusieurs techniques sur les
mêmes données.
Mais le DataMiningest bien plus qu’une boîte àoutils :

Données Information Connaissance


prétraitements analyse

ISSAT de Kairouan
11
NABLI LOTFI Cours data Mining

Le Data Mining est une étape dans le processus d’extraction des


connaissances, qui consiste à appliquer des algorithmes d’analyse des
données.

ISSAT de Kairouan
12
NABLI LOTFI Cours data Mining

Syst ème de C ondu it e Fac il it é de par amét r age


moder n e Facilité de modélisation – Réseaux de Petri (RdP) et Systèmes Multi Agents
Apprentissage, Classification, évolution – Réseaux de neurones (RN)
P r ise en c ompt e de l ’impr éc is ion
Exprimer les imprécisions – Logique floue (LF)
P r ise en c ompt e de l ’inc er ta in
Exprimer les incertitudes – Logique floue (LF) et/ou Méthode statistique :
Analyse en Composantes Principales (ACP)
G én ér ic it é de l ’out il
Prise en compte des connaissances industrielles -AMDEC, REX, GMAO,
Construction du modèle – MATLAB,Visual Basic,…
Val idat ion des r ésul tat s
Confrontation avec l’expertise humaine – tests, benchmarks, prototypage

13
ISSAT de Kairouan
13
NABLI LOTFI
Cours data Mining
6. Outils de Modélisation intelligent
6.1. Systèmes Multi agents
Définition d’un A gent
Un agent est un système informatique encapsulé situé dans un
environnement dans lequel il est capable d’effectuer une action flexible et
autonome,compatible aux objectifs de laconception.
Un agent est une entité autonome, réelle ou abstraite, qui est capable
d'agir sur elle-même et sur son environnement, qui, dans un univers
multi-agents, peut communiquer avec d'autres agents, et dont le
comportement est la conséquence de ses observations, de ses
connaissances et des interactions avec les autres agents.
La définition du concept agent n’est pas triviale, tant est grand le nombre
de domaines différents qui s’approprient àtort ou àraison son utilisation.
ISSAT de Kairouan 14
NABLI LOTFI
Cours data Mining

Dans le cadre des systèmes « Agents Intelligents » nous pouvons définir un agent
comme ayant les caractéristiques suivantes :
Un agent est une entité clairement identifiable de résolution de
problèmes avec des bornes et des interfaces bien définies.
Un agent est un objet au sens informatique du terme qui possède sa
propre autonomie.
Un agent possède un ou plusieurs objectifs.
Un agent a les moyens d’orienter son action afin de satisfaire ses
objectifs.
Un agent a la capacité de communiquer avec les autres agents du
système.
Un agent s’il est situé dans un environnement particulier, reçoit des
entrées liées aux états de cet environnement par des capteurs et agit sur cet
environnement par des émetteurs.
ISSAT de Kairouan 15
NABLI LOTFI
Cours data Mining
Types d’agents

On distingue deux types d’agents :

Systèmes d’agents cognitifs Systèmes d’agents réactifs

Représentation explicite de Pas de représentation


l’environnement explicite
Peut tenir compte de son passé Pas de mémoire de son
histoire
Agents complexes Fonctionnement
Stimulus/action
Petit nombre d’agent Grand nombre d’agents

ISSAT de Kairouan 16
NABLI LOTFI
Cours data Mining

Caractéristiques des agents


- situé : l'agent est capable d'agir sur son environnement à partir des entrées
sensorielles qu'il reçoit de ce même environnement;
- autonome : l'agent est capable d'agir sans l'intervention d'un tiers (humain
ou agent) et contrôle ses propres actions ainsi que son état interne;
- proactif : l'agent doit exhiber un comportement proactif et opportuniste,
tout en étant capable de prendre l'initiative au bon moment;
- capable de répondre à temps : l'agent doit être capable de percevoir
son environnement et d'élaborer une réponse dans le temps requis;
- social : l'agent doit être capable d'interagir avec des autres agents (logiciels
ou humains) afin d'accomplir des taches ou aider ces agents à accomplir les
leurs.
.
ISSAT de Kairouan 17
NABLI LOTFI
Cours data Mining

Architecture d’agent

ISSAT de Kairouan 18
NABLI LOTFI
Cours data Mining

Les agents intermédiaires


Des mécanismes pour la publicité, la découverte, l’utilisation, la
présentation, la gestion et la mise à jour des services et des
informations fournis par les agents sont nécessaires. Pour réaliser ces
mécanismes,des agents intermédiaires sont proposés.
Les agents intermédiaires sont des entités auxquelles d’autres agents
publient leurs capacités, et qui ne sont ni demandeurs ni fournisseurs.
L’avantage de tels agents, est qu’ils permettent à un SMA d’opérer de
façon robuste face à l’apparition, à la disparition et à la mobilité des
agents.

ISSAT de Kairouan 19
NABLI LOTFI
Cours data Mining

Les facilitateurs :
Ce sont des agents auxquels d’autres agents abandonnent leur
autonomie en échange des services de ces agents (facilitateurs). Les
facilitateurs ont été utilisés dans le modèle dynamique d’interaction.
Ils possèdent un répertoire des services et capacités des agents et sont
capables d’aider dans l’aiguillage du flux d’information et dans la mise en
relation des agents.
Leur utilisation simplifie les connaissances dont les agents ont besoin à
propos des autres agents. Ils peuvent se cantonner à faire appel aux
facilitateurs qui, à leur tour, iront fournir les informations sur les autres
agents ou sur les services dont ils ont besoin.
Ce concept aété également utilisé dans le langage KQML.

ISSAT de Kairouan 20
NABLI LOTFI
Cours data Mining

Les médiateurs :
Il existe plusieurs approches à l’application du concept de médiateur dans les
SMA. Un médiateur est un agent qui exploite les connaissances codées sur
un ensemble (ou sous ensemble) de données pour créer des informations
pour un niveau d’application supérieur.
Un agent médiateur est un agent logiciel qui gère avec un dossier les
interactions des agents personnels présents dans un même lieu.

Les courtiers :
Ce sont des agents qui reçoivent des demandes et exécutent des actions en
utilisant des services d’autres agents, en conjonction avec leurs propres
ressources.

ISSAT de Kairouan 21
NABLI LOTFI
Cours data Mining

Les apparieurs et les pages jaunes :


Ce sont des agents qui fournissent des services de pages jaunes pour
les autres agents. Les agents peuvent publier leurs compétences
(services) et consulter celles des autres agents. Les apparieurs
assistent les demandeurs pour trouver des agents fournisseurs de
service,en se basant sur les compétences publiées .

Tableau noir :
Ce sont des agents repositoires qui reçoivent et maintiennent des
demandes pour le traitement d’autres agents.

ISSAT de Kairouan 22
NABLI LOTFI
Cours data Mining

Systèmes Multi-Agents

Définition
Un système SMA, « multi-agents » ou « agent intelligent » est à la
fois un système de résolution de problème et une méthodologie de
programmation. Il gère une population d’agents distribués. Chaque
agent a sa propre capacité à traiter son environnement local en vue
d’obtenir un état qui maximise la résolution de ses propres buts.
L’état global du système (l’avancement de sa résolution) est une
fonction de l’état de chaque agent du système.

ISSAT de Kairouan 23
NABLI LOTFI
Cours data Mining

Un Système Multi-Agent est un système composé de :


– un environnement (espace disposant ou non d'une métrique)
– un ensemble d'objets situés (il est possible,àun moment donné,de
leur associer une position dans l'environnement). Ils sont passifs et
peuvent être perçus,créés,détruits et modifiés par les agents
– un ensemble d'agents capables de percevoir, produire, consommer,
transformer et manipuler les objets de l'environnement
– un ensemble de relations (communications) unissant les agents
– un administrateur chargé de contrôler l'activation des agents

ISSAT de Kairouan 24
NABLI LOTFI
Cours data Mining

Caractéristiques d’un SMA

Un SMA est généralement caractérisé par :


1.chaque agent a des informations ou des capacités de résolution de
problèmes limitées,ainsi chaque agent aun point de vue partiel;
2.il n’y aucun contrôle global du système multi-agents;
3.les données sont décentralisées;
4.le calcul est asynchrone.

ISSAT de Kairouan 25
NABLI LOTFI
Cours data Mining

Un SMA est aussi caractérisé par une vision locale et décentralisée


[FER95] :
– locale : chaque agent est responsable de ses connaissances
(encapsulation) et de ses actions (autonomie), mais également de
l'organisation qu'il met en place avec d'autres agents.Aucun agent n'a
de vue globale du SMA tout entier.
– décentralisée : on s'efforce d'éliminer tout contrôle central. Les
tâches à réaliser et les compétences pour le faire sont distribuées
sur les agents.

ISSAT de Kairouan 26
NABLI LOTFI
Cours data Mining

Un SMA peut-être :
– ouvert :les agents y entrent et en sortent librement (ex:un café)
– fermé : l'ensemble d'agents reste le même (ex: un match de
football)
– homogène : tous les agents sont construits sur le même modèle
(ex:une colonie de fourmis)
– hétérogène : des agents de modèles différents, de granularité
différentes (ex:l'organisation hospitalière)

Le principe récursif définit un SMA à un niveau supérieur


d’abstraction comme étant un agent.

ISSAT de Kairouan 27
NABLI LOTFI
Cours data Mining
Vue canonique d’un SMA

Agent

Agent

Agent

Agent

Agent
Sphère
d’influence

ISSAT de Kairouan 28
NABLI LOTFI
Cours data Mining

Organisation

Étant donné que les SMA peuvent être considérés comme une
société d’agents coopérant ensemble pour accomplir collectivement
un objectif donné, il est nécessaire de résoudre un problème
d’organisation,généralement de façon dynamique.

On peut définir une organisation comme une structure décrivant


comment les membres de l’organisation sont en relation et
interagissent afin d’atteindre un but commun.

ISSAT de Kairouan 29
NABLI LOTFI
Cours data Mining

L’autonomie et le comportement proactif des agents constituant les


SMA suggèrent que la conception de ces applications peut être
réalisée en imitant le comportement et la structure des
organisations humaines, car l’une des missions principales des SMA
est de supporter et/ou de contrôler des organisations du monde
réel. Un SMA peut, par exemple, aider à contrôler les activités du
commerce électronique. Selon [ZAM00], la perspective
organisationnelle conduit àune caractérisation générale d’un SMA.

ISSAT de Kairouan 30
NABLI LOTFI
Cours data Mining
Caractérisation d’un SMA

ISSAT de Kairouan 31
NABLI LOTFI
Cours data Mining

Le système peut être décomposé en des sous-organisations


distinctes. Un agent peut jouer un ou plusieurs rôles tout en
coopérant et en respectant ses sous-organisations. Les interactions
entre agents apparaissent via les capteurs et les émetteurs. Le rôle
d’un agent détermine la portion de l’environnement dans laquelle il
peut recevoir et émettre des données.
Coordination d’actions et résolution de conflits
Malone [MAL90] note que deux des composantes fondamentales de
la coordination entre agents sont l’allocation de ressources rares et
la communication de résultats intermédiaires. Dans ce contexte, les
agents doivent être capables de communiquer entre eux de façon à
pouvoir échanger les résultats intermédiaires.

ISSAT de Kairouan 32
NABLI LOTFI
Cours data Mining

Pour l’allocation des ressources partagées, les agents doivent être


capables de faire des transferts de ressources. Ceci peut d’ailleurs
imposer certains comportements àdes agents particuliers.
Malone conclut qu’il peut être utile de distinguer les liens de contrôle
comme une catégorie spéciale de liens de communication par lesquels
certains agents transmettent des instructions que d’autres vont être
motivés àsuivre.
La coordination peut se faire selon deux approches :
La planification (planification centralisée, planification distribuée)
La négociation
Communication entre agents
Voir Application industrielle (SMA d’une unité de Filature)
ISSAT de Kairouan 33
NABLI LOTFI
Cours data Mining
6.2. Logique Floue
La logique floue (fuzzy logic, en anglais) est une technique utilisée en
intelligence artificielle. Elle a été formalisée par Lotfi Zadeh en 1965 et
utilisée dans des domaines aussi variés que l'automatisme (freins ABS),la
robotique (reconnaissance de formes), la gestion de la circulation
routière (feux rouges), le contrôle aérien, l'environnement
(météorologie, climatologie, sismologie, analyse du cycle de vie), la
médecine (aide au diagnostic), l'assurance (sélection et prévention des
risques) et bien d'autres.
Elle s'appuie sur la théorie mathématique des ensembles flous. Cette
théorie, introduite par Zadeh, est une extension de la théorie des
ensembles classiques pour la prise en compte d'ensembles définis de
façon imprécise.

ISSAT de Kairouan 34
NABLI LOTFI
Cours data Mining

C'est une théorie formelle et mathématique dans le sens où Zadeh,


en partant du concept de fonction d'appartenance pour modéliser la
définition d'un sous-ensemble d'un univers donné, a élaboré un
modèle complet de propriétés et de définitions formelles. Il a aussi
montré que cette théorie des sous-ensembles flous se réduit
effectivement à la théorie des sous-ensembles classiques dans le cas
où les fonctions d'appartenance considérées prennent des valeurs
binaires ({0,1}).
Elle présente aussi l'intérêt d'être plus facile et meilleur marché à
implémenter qu'une logique probabiliste, bien que cette dernière
seule soit stricto sensu.

ISSAT de Kairouan 35
NABLI LOTFI
Cours data Mining
À l'inverse de la logique booléenne, la logique floue permet à une
condition d'être en un autre état que vrai ou faux. Il y a des degrés dans
lavérification d'une condition.
Considérons par exemple la vitesse d'un véhicule sur une route
nationale française. La vitesse normale est de 90 km/h. Une vitesse peut
être considérée comme élevée au-dessus de 100 km/h, et comme plus
du tout élevée en dessous de 80 km/h.
Lalogique booléenne envisagerait les choses de lamanière suivante :

La vitesse est considérée à 100 %comme élevée à partir de 100 km/h,


et à0 %en dessous.

ISSAT de Kairouan 36
NABLI LOTFI
Cours data Mining
La logique floue, à l'inverse, permet des degrés de vérification de la
condition « Lavitesse est-elle élevée ?» (voir fig.2) :
La vitesse est considérée comme pas du tout élevée en dessous de
80 km/h. On peut donc dire qu'en dessous de 80 km/h, la vitesse est
élevée à0 %.
La vitesse est considérée comme élevée au-dessus de 100 km/h. La
vitesse est donc élevée à100 %au-dessus de 100 km/h.
Lavitesse est donc élevée à50 %à90 km/h,et à25 %à85 km/h.

ISSAT de Kairouan 37
NABLI LOTFI
Cours data Mining
De la même manière,la fonction « La vitesse est-elle peu élevée ?» sera
évaluée de lamanière suivante :
La vitesse est considérée comme peu élevée en dessous de 80 km/h.
Elle est donc peu élevée à100 %.

La vitesse est considérée comme pas du tout peu élevée au-dessus de


100 km/h.Elle est donc peu élevée à0 %.

ISSAT de Kairouan 38
NABLI LOTFI
Cours data Mining

Lavitesse est donc peu élevée à50 %à90 km/h,et à25 %à95 km/h.
On peut également définir une fonction « La vitesse est-elle
moyenne ?»
La vitesse est moyenne à 90 km/h. À cette allure, la vitesse est moyenne
à100 %.

La vitesse n'est pas du tout moyenne en dessous de 80 km/h et au-


dessus de 100 km/h. Hors de cet intervalle, la vitesse est moyenne à
0 %.

ISSAT de Kairouan 39
NABLI LOTFI
Cours data Mining
Lavitesse est donc moyenne à50 %à85 km/h et 95 km/h.
Il n'est pas obligatoire que la transition soit linéaire. Des transitions
hyperboliques (comme une sigmoïde ou une tangente hyperbolique),
exponentielle, gaussienne (dans le cas d'un état moyen) ou de toute
autre nature sont utilisables.

ISSAT de Kairouan 40
NABLI LOTFI
Cours data Mining
Concepts de base de la logique floue
L’origine des ensemble flous est liée à l’inadéquation entre la dichotomie
vrai/faux, héritée de la logique classique, et la notion de classe manipulée
par les individus qui raisonnent en langage naturel.
Mathématiquement un ensemble flou Ef sera défini sur un référentiel U
borné, par une fonction d’appartenance, notée f.Appliquée à un élément u
de U, f(u) retourne un degré d’appartenance à Ef. f(u)=1 et f(u)=0
correspondent respectivement à l’appartenance et la non-appartenance.
Les prédicats du langage représentables par des ensembles flous sont dits
graduels ou nuancés.
Les variables linguistiques, la fonction d’appartenance et les règles
d’inférences constituent la base de l’exploitation de la théorie des sous-
ensembles flous.
ISSAT de Kairouan 41
NABLI LOTFI
Cours data Mining

Les variables linguistiques


Les variables linguistiques constituent un codage pour la classification
d’un ensemble de grandeur sous forme de termes linguistiques selon le
type de variable à coder. La qualité d’un produit peut être qualifiée de
Bonne, Moyenne ou mauvaise. Une défaillance peut être qualifiée de
Mineur,Moyenne ou Grave.
Le codage des variables permet d’une part de définir des fonctions
d’appartenance et d’autre part d’élaborer un ensemble de règles
d’action et de réaction.
Dans la plus part des cas on utilise pour les fonctions d’appartenance
des formes triangulaires ou trapézoïdales Il s’agit de formes simples,
composées de morceaux de droites

ISSAT de Kairouan 42
NABLI LOTFI
(x) Cours data Mining
1

0 P1 P2    P3                 P4 P5          P6  X
(x) Fonctions d’appartenances de formes triangulaires
(x)
1 1

0 0
P1 P2        P3  X  P1           P2 P3            P4  X

Fonctions d’appartenances de formes trapézoïdales
(x)

1 (x) =[ (1 +( x-x0) / a) 2] -1

-  <x < +

0 a    x0 a X
Fonction d’appartenance de forme en cloche (gaussienne)

ISSAT de Kairouan 43
NABLI LOTFI (x) Cours data Mining
1

0 2a a x0 a 2a x
Fonction d’appartenance de forme en cloche
(x) = ½[ 1 +cos (x-x0)/2a ] ; x0-2a  x  x0 +2a
(x) =0 x  ] -  , x0-2a ]  [x0+2a , +[

(x)

1 (x) = ½[ 1 +cos (x-x1)/2a1 ] ; x1-2a1  x  x1


(x) =1 ; x1  x  x2
(x) = ½[ 1 +cos (x-x2)/2a2 ] ; x2 x  x2 +2a2
(x) =0 x  ] -  , x1-2a1 ]  [x2+2a2 , + [

0 2a a1 x1 x2 a2 2a x

Fonction d’appartenance de forme en cloche aplatie

ISSAT de Kairouan 44
Mécanismede
edeFuzzification
Dans ce niveau nous avons la conversion des valeurs d’entrées
numériques de quatre paramètres en grandeurs floues linguistiques

Une mesure  Classe d’appartenance lexicale et 
un coefficient de vraisemblance
45
Mécanismed’Inférence
Dans ce bloc qui est à base des règles floues existantes entre les variables
d’entrée exprimées sous forme linguistiques et les variables de sorties

coefficients de La surface d’une forme
vraisemblances  géométrique
46
Méthoded’Inférence Som/Prod
La méthode d’inférence Som_Prod est basée sur l’utilisation de deux opérations
logiques :le OU logique et le ET logique.
Dans un premier temps l’opérateur ET est appliqué pour l’évaluation de la partie
condition de chaque règle. Ces conditions sont composées de prémisses relatives
aux variables d’entrées. En fonction de la valeur de la variable d’entrée, chaque
prémisse est évaluée.L’opérateur ET réalise ensuite le produit des évaluations des
prémisses d’une règle pour générer les valeurs relatives à la fonction
d’appartenance des sorties. L’opérateur est appliqué dans un deuxième temps
pour tenir compte de l’influence de chaque règle sur les valeurs finales des
variables de sortie. Chacune de ces valeurs est multipliée par un coefficient de
pondération caractérisant la contribution de la règle correspondante. Il réalise la
somme pondérée (moyenne) des valeurs partielles de chaque variable obtenues
par l’application de l’opérateur ET àchaque règle d’inférence.
Soit deux variables d'entrée X1 et X2 et une variable de sortie Y. Les
fonctions d’appartenance de ces variables sont définies par trois ensembles
flous Bon (Bo),Moyen (Mo),Mauvais (Ma).Les ensembles flous définissant ces
fonctions d'appartenance,sont de forme trapézoïdale.
Pour les variables d'entrée,on suppose que les valeurs numériques sont
X1=37 et X2 =14.
L'inférence est composée de deux règles :
Règle 1 : SI ( X1 est Moyen ET X2 est Moyen ), ALORS Y est Moyen avec
un facteur d’opération m1(Y)=0,8.
Règle 2 : SI ( X1 est Moyen ET X2 est Bon), ALORS Y est Bon avec un
facteur d’opération m2(Y)=0,4.
µ(X1) µ(X2) µ(Y1)
Règle 1
1 ET ALORS
0,2 0,07 * 0,8
0,35
Bo Mo Ma Prod Bo Mo Ma Prod Bo Mo Ma

0 10 20 30 40 50 0 10 20 30 40 50 0 10 20 30 40 50
X1 X2 X r1 Y1

X1=37 µ(Y)
OU

Som
Bo Mo Ma
0,056
X2=14
0,028

0 10 20 30 40 50
µ(X1) µ(X2) Y
µ(Y2)
Règle 2
1 ET ALORS
0,35 0,8 0,28* 0,4
Prod Bo Mo Ma
Bo Mo Ma Prod Bo Mo Ma

0 10 20 30 40 50 0 10 20 30 40 50 0 10 20 30 40 50 Y2
X1 X2
NABLI LOTFI
Cours data Mining

•Avec  les  facteurs  d'appartenance  µmoyen (X1=  37)  =0.35  et 


µmoyen(X2=14)=0.2,  la  partie  condition  de  la  première  règle  donne  le 
facteur  d'appartenance  µC1 =  0.07  (produit  des  deux  valeurs).  Cette 
valeur  est  alors  multipliée  par  le  facteur  d’opération  relatif  à  la 
variable de sortie Y afin d’obtenir la fonction d’appartenance partielle 
due à l’application de la règle 1 ( (Y1)=c1*1(Y)=0,07*0,8=0,056).
•Avec  les  facteurs  d'appartenance  µmoyen(X1=  37)=  0.35    et  
µbon(X2=14)= 0.8, la deuxième règle prend le facteur d'appartenance 
µC2 =  0.28  (produit  des  deux  valeurs).  Cette  valeur  est  alors 
multipliée  par  le  facteur  d’opération  relatif  à  la  variable  de  sortie  Y 
afin  d’obtenir  la  fonction  d’appartenance  partielle  due  à  l’application 
de la règle 2 ((Y2)=c2*2(Y)=0,28*0,4=0,112).

ISSAT de Kairouan 50
NABLI LOTFI
Cours data Mining

•La fonction d'appartenance résultante µ (Y), s'obtient par la formation  de 
la somme pondérée (valeur moyenne) des deux fonctions d'appartenance 
partielles, sur chaque sous­ensemble flou. Ainsi :
•pour le sous­ensemble flou  Bo, (Y)=((Y1)+(Y2))/2=(0+0,112)/2=0,56
•pour le sous­ensemble flou  Mo, (Y)=((Y1)+(Y2))/2=(0,056+0)/2=0,028
•pour le sous ensemble flou  Ma, (Y)=((Y1)+(Y2))/2=(0+0)/2=0

Règle 1 : SI ( X1 est Moyen ET X2 est Moyen ), ALORS Y est


Moyen avec un facteur d’opération m1(Y)=0,8.
Règle 2 :SI ( X1 est Moyen ET X2 est Bon), ALORS Y est Bon avec
un facteur d’opération m2(Y)=0,4.

ISSAT de Kairouan 51
NABLI LOTFI
Cours data Mining

Méthoded’Inférence Max/Min
La méthode d’inférence Max_Min est basée sur l’utilisation de deux opérations
logiques : le ET logique associé au minimum, et le OU logique associé au
maximum.

µ(X 1) µ(X 2) µ(Y1)


Règle 1
1 ET ALORS
0,2 0,2 * 0,8
0,35
Bo Mo Ma Min Bo Mo Ma Min Bo Mo Ma

0 10 20 30 40 50 0 10 20 30 40 50 0 10 20 30 40 50
X1 X2 Y1
Xr1

X 1=37 µ(Y)
OU
1
Max
Bo Mo Ma
0,16
X 2=14
0,14

0 10 20 30 40 50
Xr
µ(X 1) µ(X 2)
µ(Y2)
Règle 2
1 ET ALORS
0,35 0,8 0,35* 0,4
Min Bo Mo Ma
Bo Mo Ma Min Bo Mo Ma

0 10 20 30 40 50 0 10 20 30 40 50 0 10 20 30 40 50 Y2
X1 X2

ISSAT de Kairouan 52
NABLI LOTFI
Cours data Mining

Dans un premier temps l’opérateur ET est appliqué pour l’évaluation de la


partie condition de chaque règle. Ces conditions sont composées de
prémisses relatives aux variables d’entrées. En fonction de la valeur de la
variable d’entrée,chaque prémisse est évaluée.L’opérateur ET réalise ensuite
le minimum des évaluations des prémisses d’une règle pour générer les
valeurs partielles relatives à la fonction d’appartenance des sorties. . Chacune
de ces valeurs est alors multipliée par un coefficient de pondération
caractérisant la contribution de la règle correspondante. L’opérateur OU,
associé au maximum par classe, est appliqué dans un deuxième temps pour
tenir compte de l’influence de chaque règle sur les valeurs finales des
variables de sortie.
A noter que la désignation de laméthode d’inférence Max_Min se rapporte à
laréalisation de OU liant les règles (Max) et laréalisation deALORS (Min).

ISSAT de Kairouan 53
NABLI LOTFI
Cours data Mining

Méthoded’Inférence Max/Pro
Max/Prod
La méthode d’inférence Max_Prod est basée sur l’utilisation de deux
opérations logiques : le ET logique associé au produit, et le OU logique associé
au maximum.
µ(x1) µ(x2) µ(Y1)
Règle 1
1 ET ALORS
0,07* 0,8
0,35 0,2
Bo Mo Ma Prod Bo Mo Ma Prod Bo Mo Ma

0 10 20 30 40 50 0 10 20 30 40 50 X2 0 10 20 30 40Xr1Y1
50
X1

X 1=37 µ(Y) OU
1

Bo Mo Ma Max
0,112
X 2=14 0,058

0 10 20 30 40 50
µ(x1) µ(x2) Xr
µ(Y 2)
Règle 2
1 ET ALORS
0,35 0,8
Prod Bo Mo Ma 0,28* 0,4
Bo Mo Ma Prod Bo Mo Ma

0 10 20 30 40 50
0 10 20 30 40 50
X1 0 10 20 30 40 50
X2 Y2

ISSAT de Kairouan 54
NABLI LOTFI
Cours data Mining

Dans un premier temps l’opérateur ET est appliqué pour l’évaluation de la


partie condition de chaque règle. Ces conditions sont composées de prémisses
relatives aux variables d’entrées.En fonction de la valeur de la variable d’entrée,
chaque prémisse est évaluée. L’opérateur ET réalise ensuite le produit des
évaluations des prémisses d’une règle pour générer les valeurs relatives à la
fonction d’appartenance des sorties.Chacune de ces valeurs est alors multipliée
par un coefficient de pondération caractérisant la contribution de la règle
correspondante. L’opérateur OU, associé au maximum par classe, est appliqué
dans un deuxième temps pour tenir compte de l’influence de chaque règle sur
les valeurs finales des variables de sortie. Donc l’opérateur OU, liant les règles,
est réalisé par la formation du maximum et le ALORS est réalisé par la
formation du produit, d’où la désignation de cette méthode d’inférence par
Max_Prod

ISSAT de Kairouan 55
NABLI LOTFI
Cours data Mining

Dans le cas général on considère les annotations suivantes :
m(z) : nombre d’ensemble flous associé à la variable Z,
i : indice d’une règle tel que i  [ 1 .. R ],
j : indice d’une variable d’entrée Xj tel que j  [ 1 .. n ],
k : indice d’une variable de sortie Yk tel que k  [ 1 .. p ],
Une règle i  s’écrit :
Règle i :   si x1 est S1i ... et xj est S ji...  et xn est  Sni alors Y1 est 
I1i … et Yp est Ipi
Ainsi le nombre de règles possibles Rmax est égal à :

n
R max   m(X ) (1) 
j
j1

ISSAT de Kairouan 56
NABLI LOTFI
Cours data Mining
On note 
X = ( x1, x2,...,xj, ...,xn)T le vecteur forme floue relatif à chaque valeur.
M = [ SnR]  la matrice des conditions.

S11 S21  ............... Sj1 ............... Sn1


S12 S22 ............... Sj2 ............... Sn2
............... ...............
............... ...............
S1i S2i ............... Sji ............... Sni
M =  ...............  ...............      
...............  ...............
...............  ...............
S1R S2R ............... SjR ............... SnR

I=( I1, I2, ...,Ik , …, Ip )T le vecteur conclusion.


On obtient la fonction d'appartenance partielle  µi( Yk) de chaque règle par la 
relation : 
µi(Yk) =  µci *  µoi (Yk) ;  i = 1, 2, …,R                       (2)
Avec µci le facteur d’appartenance de la condition et µoi (Yk) la fonction 
d’appartenance de l’opération, tous deux inhérents à la règle Ri.
ISSAT de Kairouan 57
NABLI LOTFI
Cours data Mining

La relation (3) donne de manière condensée le facteur d’appartenance 
des variables d’entrée :
n
  (X
i

ci j j ) ; i =1, 2, …,R (3)


j 1

Enfin, la fonction d'appartenance d’une sortie Yk est donnée par :
µ (Yk) = [ µ1(Yk) +  µ2(Yk) + … +µR(Yk) ] / R (4)                     
La relation (4) s’écrit de manière condensée comme suit : :
R
 (Y k )  R 
1
(Yi k ) (5) 
i 1

On exprime les relations (1), (2), (3) et (5) de manière condensée par 



R
 (Yk )  R 
1
  (Yci oi k ) (6a)
i 1

ISSAT de Kairouan 58
NABLI LOTFI
Cours data Mining

(3.7)
R n
 (Y k )  R  (
1
(X  (Y
i

j j ))  oi k ) (6b)
i 1 j 1

Dans le cas de notre étude p = 1 et donc Y1  = IQ. Par ailleurs pour 
chaque  règle  i  nous  imposons  µoi (IQ)  =  1.  Par  conséquent  la 
relation (6b) s’écrit :

R n
 ( IQ)  R  (
1
(X
i
(7)
j j)
i 1 j 1

ISSAT de Kairouan 59
NABLI LOTFI
Cours data Mining

Défuzzification
Dans cette étape nous avons la conversion des sous – ensembles
flous de sortie en valeurs déterminées

Calcul du centre de gravité de la somme des 
surfaces élémentaires 

ISSAT de Kairouan
60 60
NABLI LOTFI
Cours data Mining
La méthode  de défuzziffication la plus utilisée est celle de la détermination 
du centre de gravité de la fonction d'appartenance résultante µ(Yk). Dans 
G

ce contexte, il suffit de calculer l'abscisse Y r
max(Yk )

. L'abscisse du centre de gravité peut   Y k
  (Y ) dY
k k
G
 min(Yk ) (8)
être déterminée à l'aide de la relation  Y r max(Yk )

générale.
  (Y ) dY
min(Yk )
k k

*
Y
Dans ce cas on introduit l'abscisse           du centre de gravité de la surface  Si. 
i
*

S i Yi
A noter que         et         peuvent être calculés a priori à l'aide de relations 
géométriques assez simples, lorsque µoi (Yk) est de forme trapézoïdale ou 
triangulaire.
Ainsi, selon (8), l'abscisse du centre de gravité devient :
R

  *Y * S
*
ci i i

Y 
* i 1
k R

  *S i 1
ci i

ISSAT de Kairouan 61
NABLI LOTFI
Cours data Mining

6.3. Réseau de Neurones


Définitions
• Un réseau de neurones artificiels est un modèle de
calcul dont la conception est très schématiquement
inspirée du fonctionnement des neurones biologiques.

• Un réseau de neurone est basé sur un modèle


simplifié de neurone.

• Ce modèle imite certaines fonctions du cerveau,


comme la mémorisation et l’apprentissage.

ISSAT de Kairouan 62
NABLI LOTFI
Cours data Mining

Information 
Corps cellulaire ( soma)
Axone 

Synapse 

Dendrite 

Réseau de neurones biologique
ISSAT de Kairouan 63
NABLI LOTFI
Cours data Mining

Réseau de neurones biologie Réseau de neurones artificiel

ISSAT de Kairouan 64
NABLI LOTFI
Cours data Mining

Définitions

• Généralement, un réseau de neurones est constitué d’un


grand ensemble de neurones ayant chacune une petite
mémoire locale, ces neurones sont reliés par des canaux
de communications appelés Synapes qui transportent des
données numériques

Vue simplifiée d'un réseau artificiel de neurones


ISSAT de Kairouan 65
NABLI LOTFI
Cours data Mining

U tilités
Les réseaux de neurones, en tant que système capable
d'apprendre, mettent en œuvre le principe de l'induction,
c’est-à-dire l'apprentissage par l'expérience.

Par confrontation avec des situations ponctuelles, ils


infèrent un système de décision intégré dont le caractère
générique est fonction du nombre de casd'apprentissages
rencontrés et de leur complexité par rapport à la
complexité du problème à résoudre.

ISSAT de Kairouan 66
NABLI LOTFI
Cours data Mining

U tilités

Les réseaux de neurones artificiels sont caractérisés par :

La capacité d’apprentissage,

L’adaptation aux non-linéarités des systèmes,

La rapidité de traitement.

ISSAT de Kairouan 67
NABLI LOTFI
Cours data Mining

Struc ture du Réseau

Un réseau de neurones est en général composé d'une succession


de couches dont chacune prend ses entrées sur les sorties de la
précédente.

Chaque couche (i) est composée de Ni neurones, prenant leurs


entrées sur les Ni-1 neurones de la couche précédente.

À chaque synapse est associée un poids synaptique, de sorte que


les N i-1 sont multipliés par ce poids, puis additionnés par les
neurones de niveau i, ce qui est équivalent à multiplier le vecteur
d'entrée par une matrice de transformation.

Le neurone calcule la somme de ses entrées puis cette valeur


passe à travers la fonction d'activation pour produire sa sortie
Structure d'un neurone artificiel.

ISSAT de Kairouan 68
NABLI LOTFI
Cours data Mining

Arc hitec tures neuronales

Trois architectures neuronales sont très utilisées:


j . 

x1

x2 y

x3

Le Réseau de neurones à fonctions de base radiales ( RFR )


Le Perceptron Multi Couches ( PMC )
La Carte de Kohonen

ISSAT de Kairouan 69
NABLI LOTFI
Cours data Mining

Arc hitec tures neuronales


Le Perceptron Multi Couches ( PMC )

Le perceptron Multi Couches est un réseau orienté des


neurones artificiels organisés en couches et ou l’information voyage
dans un seul sens,de la couche d’entrée vers la couche de sortie

Ce modèle peut posséder un nombre des couches quelconques


et un nombre des neurones par couche également quelconque

Les neurones sont reliés entre eux par des connexions


pondérées, ce sont les poids de ces connexions qui gouvernent le
fonctionnement du réseau

ISSAT de Kairouan 70
NABLI LOTFI
Cours data Mining

Arc hitec tures neuronales

La Carte de Kohonen

La carte de Kohonen est en général à deux dimensions, chaque


neurone de la couche d’entrée est relié à chaque neurone de la
carte de Kohonen

Le principe de ce modèle est de choisir au préalable un rayon


de voisinage r qui représente la longueur de voisinage d’un
neurone i en terme de nombre de neurones

ISSAT de Kairouan 71
NABLI LOTFI
Cours data Mining

Arc hitec tures neuronales


Le Réseau de neurones à fonctions de base radiales ( RFR )

j.  Couche
cachée
Couche
x1 d’entrée
Couche
de sortie
x2 y

x3

ISSAT de Kairouan 72
NABLI LOTFI
Cours data Mining

Arc hitec tures neuronales


Le Réseau de neurones à fonctions de base radiales ( RFR )

Les RFR ont l’aptitude de Résoudre des problèmes


d’interpolation multi-variables :

La prédiction des états des systèmes dynamiques,

Reconnaissance des formes.

ISSAT de Kairouan 73
7. la cryptographie 
Introduction

La cryptographie est la science qui utilise les mathématiques pour chiffrer


et déchiffrer des données.
La cryptographie vous permet de stocker des informations sensibles ou
de les transmettre à travers des réseaux non sûrs (comme Internet) de
telle sorte qu’elles ne puissent être lues par personne à l’exception du
destinataire convenu.
Alors que la cryptographie est la science de la sécurisation des données,
la cryptanalyse est la science de l’analyse et du cassage des
communications sécurisées.
La cryptanalyse classique mêle une intéressante combinaison de
raisonnement analytique, d’application d’outils mathématiques, de
découverte de redondances, de patience, de détermination, et de chance.
Les cryptanalystes sont aussi appelés attaquants. La cryptologie
embrasse à la fois la cryptographie et la cryptanalyse.
La cryptographie peut être forte ou faible. La force de la cryptographie est
mesurée par le temps et les ressources qui seraient nécessaires pour
retrouver le texte clair. Le résultat de la cryptographie forte est un texte
chiffré qui est très difficile à déchiffrer sans la possession de l’outil de
déchiffrement approprié.
A quel point est­ce difficile? Même en utilisant toute la puissance
informatique disponible dans le monde aujourd’hui à plein temps – même
avec un milliard d’ordinateurs effectuant chacun un milliard de
vérifications à la seconde – il serait impossible de déchiffrer le résultat
d’une cryptographie forte avant la fin de l’univers.
Fonctionnement de la cryptographie
Un algorithme cryptographique, ou chiffre, est une fonction mathématique
utilisée dans le processus de chiffrement et de déchiffrement. Un algorithme
cryptographique fonctionne en combinaison avec une clé – un mot, un nombre,
ou une phrase – pour chiffrer le texte clair. Le même texte clair se chiffre en un
texte chiffré différent si l’on utilise des clés différentes. La sécurité des données
chiffrées est entièrement dépendante de deux choses: la force de l'algorithme
cryptographique et le secret de la clé.
Un algorithme cryptographique, plus toutes les clés possibles et tous les
protocoles qui le font fonctionner constitue un cryptosystème. PGP est un
cryptosystème.
Dans la cryptographie conventionnelle, aussi appelée chiffrement à clé secrète
ou à clé symétrique, une [seule et même] clé est utilisée à la fois pour le
chiffrement et le déchiffrement. Le Data Encryption Standard (DES) est un
exemple de cryptosystème conventionnel qui est largement employé par le
Gouvernement fédéral américain.
Le chiffre de César
Un exemple extrêmement simple de chiffrement conventionnel est un chiffre à 
substitution. Un chiffre à substitution remplace un morceau d’information par un 
autre. Le plus souvent, cela est effectué en décalant des lettres de l’alphabet. Deux 
exemples sont l’anneau décodeur secret du “Captain Midnight”, que vous avez peut­
être utilisé quand vous étiez enfant, et le chiffre de Jules César. Dans les deux cas, 
l’algorithme consiste en un décalage de l’alphabet, et la clé est le nombre de 
caractères à décaler. Par exemple, si nous codons le mot “SECRET” en utilisant une 
valeur de 3 pour la “clé de César”, nous décalons l’alphabet de telle sorte que la 
troisième lettre en descendant (D) commence l’alphabet. Donc en commençant avec
ABCDEFGHIJKLMNOPQRSTUVWXYZ
Et en décalant le tout de 3, vous obtenez
DEFGHIJKLMNOPQRSTUVWXYZABC
où D=A, E=B, F=C, et ainsi de suite.
En utilisant ce schéma, le texte clair, “SECRET” se chiffre comme “VHFUHW”. Pour 
permettre à quelqu’un d’autre de lire le texte chiffré, vous lui dites que la clé est 3.
Evidemment, c’est de la cryptographie excessivement faible au regard des normes 
actuelles, mais bon, cela marchait pour César, et cela illustre aussi comment 
fonctionne la cryptographie conventionnelle.
Gestion de clé et chiffrement conventionnel

Le chiffrement conventionnel a des avantages. Il est très rapide. Il est 
particulièrement utile pour chiffrer des données qui ne vont aller nulle part. 
Cependant, le chiffrement conventionnel seul en tant que moyen de transmission 
de données sécurisées peut être assez onéreux simplement en raison de la 
difficulté de la distribution sécurisée de la clé.
Rappelez­vous un personnage de votre film d’espionnage préféré: l’homme qui 
porte une mallette menottée à son poignet. Qu’y a­t­il dans la mallette, justement?
Ce n’est probablement pas le code de lancement du missile ou la formule de la 
biotoxine ou le plan d’invasion lui­même. C’est la clé qui déchiffrera les données 
secrètes.
Pour qu’un expéditeur et un destinataire communiquent de façon sûre en utilisant 
un chiffrement conventionnel, ils doivent se mettre d’accord sur une clé et la 
garder secrète entre eux. S’ils sont dans des lieux géographiques différents, ils 
doivent faire confiance à un messager, au Bat Phone, ou à un autre moyen de 
communication sûr pour empêcher la divulgation de la clé secrète pendant la 
transmission. Quiconque a entendu par hasard ou intercepté la clé en transit peut 
plus tard lire, modifier, et contrefaire toutes les informations chiffrées ou 
authentifiées avec cette clé. Du DES à l'anneau décodeur secret du “Captain 
Midnight”, le problème continuel avec le chiffrement conventionnel est la 
distribution de la clé: comment donnerez­vous la clé au destinataire sans que 
personne ne puisse l’intercepter?
Les problèmes de distribution de clé sont résolus par la cryptographie à clé publique, 
dont le concept fut inventé par Whitfield Diffie et Martin Hellman en 1975. (Il y a 
maintenant des preuves que les Services secrets britanniques l’inventèrent quelques 
années avant Diffie et Hellman, mais en conservèrent le secret militaire  et ne firent 
rien avec.
La cryptographie à clé publique repose sur un schéma asymétrique qui utilise une 
paire de clés pour le chiffrement: une clé publique, qui chiffre les données, et une clé 
privée correspondante, aussi appelée clé secrète, qui sera utilisée pour le 
déchiffrement. 
Vous publiez largement votre clé publique, tout en gardant votre clé privée secrète. 
Toute personne en possession d’une copie de votre clé publique peut ensuite chiffrer 
des informations que vous seul pourrez lire. Même des gens que vous n’avez jamais 
rencontrés.
Il est mathématiquement impossible de déduire la clé privée de la clé publique. 
Quiconque a une clé publique peut chiffrer des informations mais ne peut pas les 
déchiffrer. Seule la personne qui a la clé privée correspondante peut déchiffrer les 
informations.
Le principal avantage de la cryptographie à clé publique est qu’elle permet à des 
gens qui n’ont pas d'accord de sécurité préalable d’échanger des messages de 
manière sûre.
La nécessité pour l'expéditeur et le destinataire de partager des clés secrètes via 
un canal sûr est éliminée; toutes les communications impliquent uniquement des 
clés publiques, et aucune clé privée n’est jamais transmise ou partagée. 
Des exemples de cryptosystèmes à clé publique sont Elgamal (du nom de son 
inventeur, Taher Elgamal), RSA (du nom de ses inventeurs, Ron Rivest, Adi Shamir, 
et Leonard Aldeman), Diffie­Hellman (nommé ainsi, vous l’avez deviné, à cause de 
ses inventeurs), et DSA, l"Algorithme de Signature Digitale (inventé par David 
Kravitz).
Parce que la cryptographie conventionnelle était autrefois le seul moyen disponible 
pour transmettre des informations secrètes, le coût des canaux sûrs et de la 
distribution des clés réservait son utilisation uniquement à ceux qui pouvaient se 
l’offrir, comme les gouvernements et les grandes banques (ou les petits enfants 
avec leurs anneaux décodeurs secrets). 
Le chiffrement à clé publique est la révolution technologique qui permet aux 
masses d’accéder à la cryptographie forte.
Vous vous souvenez du messager avec la mallette menottée à son poignet? Le 
chiffrement à clé publique le met à la retraite (probablement à son grand 
soulagement).
Exercice 1:
La méthode de pliage consiste à écrire le message d’origine
dans une matrice comportant autant de colonnes que la clé
de caractères.
Le cryptogramme est obtenu en écrivant, en ligne, le texte en
claire dans la matrice, puis en lisant cette matrice en
colonne dans l’ordre alphabétique des lettres de laclé.
Le principe de décryptage est le suivant : à partir d’une
matrice de n colonnes où n est la longueur de la clé, on
écrit dans chaque colonne et dans l’ordre alphabétique de la
clé.
Un code de pliage donne en sortie
PCVEENALULHONAEI et laclé est SURF,
Déterminer le texte en claire.
Réponse :
La clé (SURF) est de longueur 4, le crypto 16, chaque colonne
comporte donc 4 caractères. Soit à écrire : PCVE ENA L ULHO
NA EI en colonne dans l’ordre :F R S U (car laclé est SURF)

S  U  R  F 
3  4  2  1 
U  N  E  P 
L  A  N  C 
H  E  A  V 
O  I  L  E 

Ce qui donne en lisant en ligne : « UNEPLANCHEAVOILE » et en


restituant les blanc :« UNE PLANCHEA VOILE ».
Exercice 2:

La méthode du pliage triple consiste à écrire le message d’origine dans une


matrice comportant autant de colonnes que la clé de caractères. Le
cryptogramme est obtenu en écrivant, en ligne, le texte en claire dans la
matrice,puis en lisant cette matrice en colonne dans l’ordre alphabétique des
lettres de laclé.

Le principe de décryptage est le suivant :à partir d’une matrice (m, n) où m est


le nombre de ligne égale au triple de la longueur de la clé et n le nombre de
colonnes où n est la longueur de la clé, on écrit dans chaque colonne et dans
l’ordre alphabétique de laclé,le cryptogramme.

Le code de pliage triple dont laclé est PAIX , donne en sortie :

EPIJSAET FLCUSREODNRMIAT RL4MSRJINSAIT 1ERUEVOIN DAE

Déterminer le texte en claire.


83
Réponse 2:
La clé (PAIX) est de longueur 4, le crypto 48, chaque colonne comporte donc 12 
caractères. Soit à écrire :
EPIJSAETFLCU SREODNRMIATR L4MSRJINSAIT 1ERUEVOINDAE ;
en colonne dans l’ordre : AIPX(car la clé est PAIX)
P A I X
3 1 2 4
1 L E S 1
2 4 P R E
3 M I E R
4 S J O U
5 R S D E
6 J A N V
7 I E R O
8 N T M I
9 S F I N
10 A L A D
11 I C T A
12 T U R E

84
NABLI LOTFI
Cours data Mining
8. Outils de gestion et d’analyse de base de données
8.1. Méthode ABC / Loi de PARETO

Origine:
Vilfredo Pareto, économiste italien constata que 20% des contribuable paye 80% des
impôts, ce qui a permis d’en tirer la loi des 20-80 ou loi de Pareto. Cette loi est
applicable à beaucoup d’autre problèmes, c’est un outil efficace pour le choix et l’aide à
la décision.

Exemple de répartitions appliquées à la maintenance industrielle


Exploitez votre historique de maintenance pour dégager des connaissances
du type :
20% des systèmes représentent 80% des pannes
20%des interventions représentent 80%des coûts de maintenance.

ISSAT de Kairouan 85
NABLI LOTFI
Cours data Mining

Autres exemples :
20%des composants représentent 80%de la valeur des stocks.
20%des temps d’arrêts de maintenance sont du à des casses
garnitures
12%des temps d’arrêts de maintenance sont du à des arrêts
d’électrovannes
7%des temps d’arrêts de maintenance sont du à des arrêts
d’automates

ISSAT de Kairouan 86
NABLI LOTFI
Cours data Mining

3. Mise en application de la loi

L’exploitation de cette loi permet de déterminer les éléments les plus 
pénalisants afin d’en diminuer leurs effets :
Diminuer les coûts de maintenance,
Améliorer la disponibilité des systèmes,
Justifier la mise en place d’une stratégie de maintenance

4. Fonction
Classer par ordre d’importance des éléments ( ressources, produits, etc...) à 
partir d’une base de connaissance d’une période antérieure afin de suggérer 
objectivement un choix

ISSAT de Kairouan 87
NABLI LOTFI
Cours data Mining
5. Présentation
La méthode ABC est simple à appliquer et la courbe facile à tracer en
suivant la méthodologie. L’allure de la courbe permet de déterminer trois
zones appelées respectivement A, B et C d’où le nom de la méthode.
6. Déterminer le cadre de l’étude
Le service maintenance désir connaître par exemple:
Les équipements qui nécessite plus d’intervention,
Le type de pièce à posséder au stock,
7. Déterminer les critères représentatifs
A partir du problème à résoudre, déterminer le critère le plus représentatif qui
peut être :
Les coûts de maintenance
La durée des interventions
ISSAT de Kairouan 88
NABLI LOTFI
Cours data Mining
8. Durée
Il s’agit de limiter la durée de la période la plus représentative qui va servir de
base à l’étude.

9. Préparation de la courbe
En fonction de la période retenue, il s’agit d’extraire de la documentation les
éléments nécessaires tels que le nombre d’heures d’intervention pour chaque
équipement, les coûts de maintenance etc.…

1. Classer lecritère selon l'ordre décroissant.


2. Calcul des cumuls
3. Calcul des pourcentages cumulés
4. Tracer la courbe dePareto et définissez les zonesA,B & C.
5. Prendrela décision

ISSAT de Kairouan 89
NABLI LOTFI
Cours data Mining

Exemple
Le diagramme de Pareto est la courbe du total des temps d’arrêts en fonction du
nombre d’interventions. Les interventions les plus longues sont représentées les
premières.

P
N
M

A B C

Cela permet de s’apercevoir que 6,7%des interventions


représentent 30%des heures d’arrêt.

ISSAT de Kairouan 90
NABLI LOTFI
Cours data Mining

Exemple
Le diagramme de Pareto est la courbe du total des temps d’arrêts en fonction du
nombre d’interventions. Les interventions les plus longues sont représentées les
premières.

P
N
M
x

A B C

Cela permet de s’apercevoir que 6,7%des interventions


représentent 30%des heures d’arrêt.

ISSAT de Kairouan 91
NABLI LOTFI Cours data Mining

Partie 2 :Application Industrielle


2.1. Par objectifs
De nos jours,les techniques de dataminingpeuvent être utilisées pour :

Analyser les comportements des systèmes industriels : production,


marketing, ventes croisées, similarités de comportements, cartes de
contrôle,…

Prédire le taux de réponse à un publipostage (mailing) ou à une


opération de marketing direct (par exemple pour en optimiser les coûts
de production)

Prédire les attentes des décideurs : quels sont les indices de


comportement permettant de détecter qu’une dérive puisse apparaitre.

ISSAT de Kairouan 92
NABLI LOTFI Cours data Mining

Détecter des comportements anormaux ou dégradés

Rechercher des critères qui permettant de repérer les « bons »


comportements,sans facteur de risque,

Suggérer lors de lasollicitation d’un centre d'appel,en temps réel,une


réponse de l’opérateur qui soit adaptée

Provoquer un comportement attendu, dès lors qu'on en a isolé le


stimulus

ISSAT de Kairouan 93
NABLI LOTFI Cours data Mining

Les outils de text mining (fouille de textes) associent en complément


aux principes du data mining, l’analyse lexicographique et/ou
linguistique multilingue des données non structurées comme les
courriels, les réponses à des questionnaires ou à des enquêtes, les
réclamations clients, les blogs Internet, les news en ligne, les tchats…
En tentant de déterminer par exemple le degré de satisfaction (ou
d’insatisfaction) de la clientèle. Ses applications les plus rudimentaires
sont la lutte contre le spam, ou pourriel, ainsi que l’analyse de contenu.
De plus ambitieuses concernent l’évaluation par analyse de dépêches
de presse, de l’image d’une société, d’un climat politique ou boursier,
ou lacatégorisation automatique d’informations.

ISSAT de Kairouan 94
NABLI LOTFI Cours data Mining
2.2. Par secteurs d'activités
L'industrie a pris conscience de l'importance du patrimoine constitué
par ses données et cherche à l'exploiter en utilisation l'informatique
décisionnel et l'exploration des données.

De «bonnes pratiques» ont émergé au fil du temps pour améliorer


la qualité des projets. Parmi celles-ci, les méthodologies aident les
équipes àorganiser les projets en processus.

ISSAT de Kairouan
95
NABLI LOTFI Cours data Mining

1. Comprendre le métier - Formaliser un problème que l'organisation


cherche à résoudre en termes de données, et mettre en place un
plan initial pour réaliser cet objectif.
2. Comprendre les données - Accéder aux données appropriées
quelles qu'elles soient
3. Préparer ces données en vue des traitements et utilisations futurs
4. Modéliser les données en leur appliquant des algorithmes d'analyse
5. Évaluer et valider les connaissances ainsi extraites des analyses
6. Déployer les analyses dans l'entreprise pour une utilisation
effective

ISSAT de Kairouan
96
NABLI LOTFI Cours data Mining

ISSAT de Kairouan
97
NABLI LOTFI Cours data Mining

ISSAT de Kairouan
98

Vous aimerez peut-être aussi