Vous êtes sur la page 1sur 18

PROJECT

GROUPE: 04

UNSUPERVISED LEARNING (ASSOCIATION


RULES) : A PRIORI

sous la direction de: Dr Ing. Houndji V. Ratheil


GROUPE 4
Présenté par :
A. Dérick 0%
DAHOUI Armel 23%
TONON David 23%
RADJI Anlim 20%
AGBOSSOUNON Mariane 23%
ALOWANOU Hosanna 11%
PLAN
Introduction
• Définition de l’ Apprentissage Non Supervisé
• Définition du Règlement de l'Association
• Application des règles de l'association
• Algorithme Apriori
• Exemples d’Application
• Avantages
• Limites
conclusion
INTRODUCTION
L’Apprentissage non supervisé, avec un focus particulier sur l’ algorithme Apriori,
constitue une facette fascinante de l’Intelligence Artificielle. En se distinguant de
l’apprentissage surpervisé, l' algorithme Apriori permet l’exploration de modèles cachés
au sein données non étiquetées, révélant des associations significatives.
Dans cet exposé, nous plongerons dans les mécanismes de l' algorithme Apriori, en
explorant son fonctionnement et son impact dans divers contextes.

1
Qu’est-ce que l’apprentissage non supervisé ?

Trouver des similitudes entre des données non ordonnées


2
L'apprentissage non supervise

L'apprentissage non supervisé est une méthode d'apprentissage automatique où


un algorithme est chargé de découvrir des structures intrinsèques ou des patterns
intéressants dans des données sans étiquettes préalables. Contrairement à
l'apprentissage supervisé où l'algorithme reçoit des exemples étiquetés et
cherche à apprendre une fonction qui mappe les entrées aux sorties, dans
l'apprentissage non supervisé, l'algorithme doit trouver des structures ou des
régularités sans avoir de références externes.

3
Les règles d'association
Une règle d'association est une relation entre les éléments d'un ensemble de données
qui indique une corrélation ou une co-occurrence fréquente entre ces éléments. Elles
sont souvent exprimées sous forme de "si... alors...", où "si" représente l'ensemble
des items qui co-occurrent et "alors" représente l'item qui est susceptible de suivre.
Par exemple, dans un contexte de vente au détail, une règle d'association pourrait être
"si un client achète du pain et du lait, alors il est probable qu'il achète également des
œufs.

4
Application des règles de l'association

01 02 03 04
Marketing croisé systèmes de
personnalisation et de
Prétraitement des Conception de
recommandation données catalogue
pour la navigation sur Génomique
les pages Web

5
L'algorithme Apriori

L'algorithme Apriori est une méthode d'apprentissage non supervisé


qui identifie les règles d'association dans un ensemble de données
transactionnelles. Il fonctionne en générant des ensembles d'éléments
candidats et en éliminant ceux qui ne satisfont pas à un seuil de
support minimum, pour découvrir des associations significatives entre
les items.

6
Les Etapes
Étape 2 : Construire la première table (L1)
Étape 1 : Définir les termes

Définir ce qu'est une transaction T (un • Trouver combien de fois chaque article est acheté
ensemble d'articles achetés), un article I (un freq(I).
produit spécifique) et le support minimum • Créer des ensembles d'articles uniques L1​(chaque
article individuel).
minSupp (le nombre minimum de fois qu'un
• Calculer le support de chaque article
article doit apparaître pour être considéré supp(I)=freq(I)/∣T∣ où ∣T∣ est le nombre total de
significatif). transactions.

7
Les Etapes
Étape 3 : Générer des ensembles d'articles plus grands Étape 4 : Arrêter ou itérer
• Si nous avons trouvé des ensembles
• Supprimer les articles qui n'atteignent d'articles significatifs, nous nous arrêtons.
pas le support minimum. • Sinon, nous continuons à combiner les
• Combiner les articles restants pour articles et à recalculer le support jusqu'à
former de nouveaux ensembles d'articles obtenir des résultats significatifs.
plus grands LkLk​. • Calculer la confiance pour chaque règle
• Calculer le support de chaque nouvel d'association X→Y où X et Y sont des
ensemble d'articles ensembles d'articles
supp(Lk)=freq(Lk)/∣T∣. conf(X→Y)=supp(X∪Y)/supp(X)​.

8
Exemple d'application

Dans un supermarché , certains clients ont acheté différents articles. Le


propriétaire désire savoir comment disposer ses produits deux à deux
pour réaliser plus de ventes.
On nous donne les achats réalisés dans le supermarché:
A1 = { Oeufs, Pain, Lait},

A2 = { Œufs, Lait}, A3 = { Pain, Lait}.

9
Exemple d'application

Articles Fréquence Soutien Supprimer


Soit A1 , A2, A3 comme transactions et
I1, I2, I3 comme éléments
respectivements pour les œufs, le pain et 2/3 Non
I1 2
comme 66% (2 >= 2)
le lait.
A1 ={I1,I2,I3}, A2 = {I1,I3}, A3 =
{I2,I3} .
2/3 Non
Ici le min Supp est 2 . Nous I2 2
comme 66% (2 >= 2)

construisons notre tableau L1 comme


suit :
3/3
Non
I3 3 comme
(2 >= 2)
100%

10
Exemple d'application

Articles Fréquence Soutien Supprimer

On construit ensuite le tableau, 1/3 Oui


I1 I2 1
pour les ensembles de types 2- comme 33% (1 < 2)

ensembles

2/3
I1 I3 2 Non (2 >= 2)
comme 66%

2/3
I2 I3 2 Non (2 >= 2)
comme 66%

11
Statistics
Conf (I1 I3) = Supplément (I1 I3) / Supplément (I1) =
100 %
Conf (I2 I3) = Supplément (I2 I3) / Supplément (I2) =
100 %

Conclusion
Pour conclure la totalité des clients achetant du
pain ou de l’œuf achète du lait. Alors le
propriétaire doit placer le support à lait entre le
support à œufs et à pain .

12
Avantages
Personnalisation des
Détection de tendances Réduction des coûts de
Facilité d'utilisation recommandations clients
cachées stockage

Apriori permet de L'algorithme Apriori est En identifiant les produits En comprenant les
découvrir des associations relativement simple à qui sont rarement achetés habitudes d'achat des clients,
comprendre et à mettre en ensemble, les détaillants Apriori peut recommander
entre des éléments qui
œuvre, offrant ainsi une peuvent ajuster leurs stocks des produits pertinents de
pourraient ne pas être manière personnalisée,
méthode accessible pour pour éviter les excès de
évidentes au départ, améliorant ainsi la
l'analyse des données et la stock et réduire les coûts de
révélant ainsi des stockage inutiles. satisfaction et les ventes.
génération de règles
tendances cachées dans les
d'association.
données.
13
Limites
Sensibilité aux données bruitées :
Les données bruitées ou les éléments exceptionnels peuvent fausser les
résultats d'Apriori en générant des règles d'association peu pertinentes ou
erronées.

Complexité computationnelle

L'algorithme Apriori peut devenir rapidement complexe avec des ensembles de


données volumineux, ce qui peut entraîner des temps de calcul prolongés et une
consommation de ressources importantes.

Dépendance des paramètres


Dépendance des paramètres : Les performances d'Apriori dépendent souvent de réglages de
paramètres appropriés, tels que les seuils de support et de confiance, ce qui peut nécessiter une
expérimentation et une optimisation minutieuses.
14
conclusion
l'utilisation de l'algorithme Apriori pour explorer l'apprentissage non supervisé a démontré
son efficacité dans la découverte de modèles d'association. L'analyse des éléments et des
règles d'association a permis d'identifier des tendances significatives, notamment dans le
domaine du commerce, pour améliorer la disposition des produits et les recommandations
clients. Toutefois, le succès de cette approche dépend de la qualité des données et de la
pertinence des paramètres, ainsi que d'une interprétation prudente des résultats.

15

Vous aimerez peut-être aussi