Académique Documents
Professionnel Documents
Culture Documents
Base de faits
Les faits décrivent ce qui est vrai dans la situation d’exploitation de la base de règles
La prémisse
C’est la partie de la règle située entre le Si et le Alors. Elle est composée de plusieurs “propositions”
´élémentaires (X, Y , etc.) connectées entre elles par des opérateurs logiques (et, ou). Chaque
proposition est interprétée comme “vraie” ou “fausse” d’un point de vue logique, l’´évaluation
globale de la prémisse étant réalisée selon les connecteurs.
La conclusion
Si la prémisse est évaluée comme “vraie”, une décision sur la classe d’appartenance de l’objet à la
classe Ci.
La plupart des systèmes de classification basés sur des règles associe une classe avec une règle,
c’est–`a–dire que la prémisse de chaque règle d´définit complétement les conditions que doit
satisfaire un objet pour appartenir à la classe concernée.
Un arbre est composé de “nœuds”, “branches” et “feuilles”. Un arbre ne peut pas contenir de
boucles, et une seule branche peut “entrer” dans un nœud.
Nœuds
Un nœud est une entité qui donne l’accès à une ou plusieurs branches. Le nœud origine de l’arbre,
s’appelle la “racine” (root) de l’arbre.
Branches
Chaque branche part d’un nœud et correspond àune réponse possible à la question posée en ce
nœud
Feuilles
– Chaque nœud de l’arbre contient une condition binaire (qui peut être vraie ou fausse) ou une
comparaison d’un attribut de l’objet avec des valeurs–clé. Les arbres dont les nœuds contiennent
uniquement des conditions binaires s’appellent “arbres binaires”.
– Chaque feuille de l’arbre correspond à une décision. Généralement, une feuille est associée à une
seule classe, mais une classe peut être associée à plusieurs feuilles.
Chaque nœud a exactement deux branches qui correspondent aux deux valeurs de vérité possibles,
“vrai” et “faux”, pour les conditions 1 et 2.
La classe C1 est mise en correspondance avec une règle qui agrège disjonctivement deux règles
conjonctives :
Ses nœuds contiennent une condition binaire (condition 1), mais aussi une condition générale
relative à l’appartenance de la valeur de l’attribut x à l’un des intervalles 1, 2 ou 3.
Les branches des nœuds contenant des conditions non–binaires doivent couvrir tout le domaine de
définition (plus exactement toutes les valeurs possibles de l’attribut analysé) sans se superposer.
Exemple
Si l’attribut x ∈ [0, 3], les trois intervalles peuvent être [0, 1], [1, 2] et [2, 3].
Une superposition des intervalles pourrait mener à une ambiguïté dans la décision finale.
Au contraire, si les valeurs possibles ne sont pas toutes couvertes, le système risque d’échouer dans
sa tâche de classification (situation d’indécision)
PROCEDURE Construit_Arbre(T,E)
SINON
Pour j=1 à n
Construit_Arbre(Tj, Ej)
FIN
E
T
A={v ...v }
1 n
E=E ∪. ∪E
v v
1 n
1 v n
2
E E
E 2 n
1 T T T
1 2 n
But : obtenir des feuilles où tous les exemples sont de la même classe.
Moyen : trouver le meilleur attribut en chaque nœud. Comment ?
Algorithme ID3 (Iterative Dichotomiser 3)
L’algorithme ID3 a été développé en 1979 par Ross Quinlan. Etant donnée plusieurs attributs, la
décision commence par un de ces attributs (caractéristiques) ; si ce n’est pas suffisant, on utilise un
autre attribut, ainsi de suite. Ainsi, l’algorithme ID3 recherche l’attribut le plus pertinent à tester
pour que l’arbre soit le plus court et optimisé possible. Pour décider quel meilleur attribut choisir afin
de construire l’arbre, l’algorithme ID3 utilise l’Entropie et le Gain d’Information. ID3 s’applique
seulement aux caractéristiques nominales.
Principe
Calcul de l’Entropie
L’entropie initiale de l’ensemble S se calcule comme suit :
Attribut Humidité
Donc :
Le plus grand gain est pour Prévisions. C’est donc l’attribut Prévisions qui est le premier attribut testé
dans l’arbre. En séparant les exemples selon les valeurs de l’attribut Prévisions, on obtient l’arbre partiel :
Lorsque le ciel est nuageux, il reste uniquement des exemples positifs, donc ce nœud devient une
feuille avec une valeur de Oui.
Pour les deux autres nœuds, il y a encore des exemples positifs et négatifs, alors il faut recommencer le
même calcul du gaind'information, mais avec les sous‐ensembles restants.
On détermine pour Ensoleillé quel est le meilleur attribut à tester.
Le plus grand gain est pour ‘’Humidité’ ’tel que Gain(SEnsoleillé, Humidité) = 0.971 = Entropie(SEnsoleillé).
Ainsi, chaque nœud fils de ‘’Humidité’’ sera une étiquette.
On détermine pour Pluvieux quel est le meilleur attribut à tester.
Le plus grand gain est pour ‘’Vent ‘’ tel que Gain (SPluvieux, Vent) = 0.971 = Entropie(SPluvieux). Ainsi,
chaque nœud fils de ‘’Vent’’ sera une étiquette.