Vous êtes sur la page 1sur 20

Data mining

Exploration de données

Exploration de données

1

Lexploration de données [1] , connue aussi sous l'expression de fouille de données, data mining (« forage de données »), ou encore extraction de connaissances à partir de données, « ECD » en français, « KDD » en anglais, a pour objet lextraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.

L'utilisation industrielle ou opérationnelle de ce savoir dans le monde professionnel permet de résoudre des problèmes très divers, allant de la gestion de la relation client à la maintenance préventive, en passant par la détection de fraudes ou encore l'optimisation de sites web.

L'exploration de données [2] fait suite, dans l'escalade de l'exploitation des données de l'entreprise, à l'informatique décisionnelle. Celle-ci permet de constater un fait, tel que le chiffre d'affaires, et de l'expliquer (comme par exemple le chiffre d'affaires décliné par produits) tandis que l'exploration de données permet de classer les faits et de les prévoir dans une certaine mesure (en suivant le même exemple, il permet de répondre à la question : « Quel pourrait être le chiffre d'affaires dans un mois ? »).

Histoire

La génération de modèles à partir d'un grand nombre de données n'est pas un phénomène récent. Pour qu'il y ait création de modèle il faut qu'il y ait collecte de données. En Chine on prête à l'Empereur Tang Yao, la volonté de recenser les récoltes en 2238 av. J.-C. [3] ; en Égypte le pharaon Amasis organise le recensement de sa population au cinquième siècle av. J.-C. [3] . Ce n'est qu'au XVIII e siècle qu'on commence à vouloir analyser les données pour en rechercher des caractéristiques communes. En 1763, Thomas Bayes montre qu'on peut déterminer, non seulement des probabilités à partir des observations issues dune expérience, mais aussi les paramètres relatifs à ces

probabilités. Présenté dans le cas particulier d'une loi binomiale, ce résultat est étendu indépendamment par Laplace, conduisant à une formulation générale du théorème de Bayes. Legendre publie en 1805 un essai sur la méthode des moindres carrés qui permet de comparer un ensemble de données à un modèle mathématique.

un ensemble de données à un modèle mathématique. Collecter les données, les analyser et les présenter

Collecter les données, les analyser et les présenter au client.

Dans les années 1920, Ronald Fisher met au point l'analyse de la variance comme outil pour son projet d'inférence statistique médicale. Dans les années 1950, l'apparition du calculateur et des techniques de calcul sur ordinateur, telles que la segmentation, les réseaux de neurones et les algorithmes génétiques et, dans les années 1960, les arbres de décision, la méthode des centres mobiles, permettent aux chercheurs d'exploiter et de découvrir des modèles de plus en plus précis. En France, Jean-Paul Benzécri développe l'analyse des correspondances en 1962.

Le concept d'exploration de données fait son apparition, d'après Pal et Jain [4] , aux conférences de l'IJCAI en 1989. Puis arrivent, dans les années 1990, les techniques d'apprentissage automatique telles que les SVM [5] en 1998, qui complètent les outils de l'analyste.

Au début du XXI e siècle, une entreprise comme Amazon.com se sert de tous ces outils pour proposer à ses clients des produits susceptibles de les intéresser [6] ,[7] .

Exploration de données

2

Applications industrielles

Par objectifs

De nos jours, les techniques d'exploration de données peuvent être utilisées dans des domaines complètement différents avec des objectifs bien spécifiques. Les sociétés de vente par correspondance analysent, avec cette technique, le comportement des consommateurs pour dégager des similarités de comportement, accorder des cartes de fidélité, ou établir des listes de produits à proposer en vente additionnelle (vente croisée).

à proposer en vent e additionnelle (vente croisée). Un exemple de ce qu'on p eut faire

Un exemple de ce qu'on peut faire avec le logiciel R : ici un corrélogramme

Un publipostage (mailing) servant à la prospection de nouveaux clients possède un taux de réponses de 10 % en moyenne. Les entreprises de marketing utilisent la fouille de données pour réduire le coût d'acquisition d'un nouveau client en classant les prospects selon des critères leur permettant d'augmenter les taux de réponses [8] aux questionnaires envoyés.

Ces mêmes entreprises, mais d'autres aussi comme les banques, les opérateurs de téléphonie mobile ou les assureurs, cherchent grâce à l'exploration de données à minimiser lattrition (ou churn) de leurs clients puisque le coût de conservation d'un client est moins important que celui de l'acquisition d'un nouveau.

Les services de polices de tous les pays [9] cherchent à caractériser les crimes (répondre à la question : « Qu'est-ce qu'un crime "normal" ? ») et les comportements des criminels (répondre à la question : « qu'est-ce qu'un comportement criminel "normal" ? ») afin de prévenir le crime, limiter les risques et les dangers pour la population.

Le scoring des clients dans les banques est maintenant très connu, il permet de repérer les « bons » clients, sans facteur de risque (Évaluation des risques-clients) à qui les organismes financiers, banques, assurances, etc., peuvent proposer une tarification adaptée et des produits attractifs, tout en limitant le risque de non-remboursement ou de non-paiement.

Les centres d'appel utilisent cette technique [8] pour améliorer la qualité du service [10] et permettre une réponse adaptée de l'opérateur pour la satisfaction du client.

Dans la recherche du génome humain, les techniques d'exploration de données ont été utilisées pour découvrir les gènes et leur fonction [11] .

D'autres exemples dans d'autres domaines pourraient être trouvés, mais ce qu'on peut remarquer dès à présent, c'est que toutes ces utilisations permettent de caractériser un phénomène complexe (comportement humain, expression d'un gène), pour mieux le comprendre, afin de réduire les coûts de recherche ou d'exploitation liés à ce phénomène, ou bien afin d'améliorer la qualité des processus liés à ce phénomène.

Par secteurs d'activités

L'industrie a pris conscience de l'importance du patrimoine constitué par ses données et cherche à l'exploiter en utilisant l'informatique décisionnelle et l'exploration des données. Les compagnies les plus avancées dans ce domaine se situent dans le secteur tertiaire. Selon le site kdnuggets.com [12] la répartition aux États-Unis, en pourcentage du total des réponses au sondage, de l'utilisation de l'exploration des données par secteurs d'activités s'effectue en 2010 comme ceci :

Exploration de données

3

Branches et domaines dans lesquels est utilisée l'exploration des données (%).

GRC/ analyse de la consommation

Détection de fraude

Médical

26.8

12.7

10.8

9.9

8.0

Banque

19.2

11.3

10.3

9.9

8.0

Web

13.1

11.3

10.3

8.9

8.0

Recherche et groupes de réflexion

Comme le montre l'histogramme ci-dessus, l'industrie est très intéressée par le sujet, notamment en matière de standard et d'interopérabilité [13] qui facilitent l'emploi d'outils informatiques provenant d'éditeurs différents. En outre, les entreprises, l'enseignement et la recherche ont grandement contribué à l'évolution et à l'amélioration (en termes de rigueur par exemple) des méthodes et des modèles ; un article publié en 2008 par l'International Journal of Information Technology and Decision Making résume une étude qui trace et analyse cette évolution [14] . Certains acteurs sont passés de la recherche à l'industrie.

acteurs sont passés de la recherche à l'industrie. Résultats g ra p hi q ues d'une

Résultats graphiques d'une analyse en composantes principales

Des universités telles que celles de Constance en Allemagne, de Dortmund en Caroline du Nord, aux États-Unis, de Waikato en

Nouvelle-Zélande, et l'Université Lumière Lyon 2 en France, ont effectué des recherches pour trouver de nouveaux algorithmes et améliorer les anciens. Ils ont aussi développé des logiciels permettant à leurs étudiants, enseignants et chercheurs de progresser dans ce domaine, faisant ainsi bénéficier l'industrie de leur progrès.

Dautre part, de nombreux groupements interprofessionnels et d'associations se sont créés pour réfléchir et accompagner le développement de l'exploration de données. Le premier de ces groupements professionnels dans le domaine est le groupe dintérêt de l'Association for Computing Machinery sur la gestion des connaissances et l'exploration de données, le SIGKDD [15] . Depuis 1989 il organise une conférence internationale annuelle et publie les nouveaux résultats, réflexions et développements de ses membres [16] . Ainsi, depuis 1999, cet organisme publie une revue semestrielle dont le titre est « SIGKDD Explorations » [17] .

D'autres conférences sur l'exploration de données et l'informatique sont organisées, comme par exemple :

• DMIN - International Conference on Data Mining [18] ,[19] ,[20] ,[21] ,[22]

• DMKD - Research Issues on Data Mining and Knowledge Discovery

• ICDM [23] - IEEE International Conference on Data Mining [24] ,[25] ,[26] ,[27] ,[28] ,[29] ,[30] ,[31]

• MLDM - Machine Learning and Data Mining in Pattern Recognition

• SDM - SIAM International Conference on Data Mining

• EDM - International Conference on Educational Data Mining

• ECDM - European Conference on Data Mining

• PAKDD - The annual Pacific-Asia Conference on Knowledge Discovery and Data Mining

Exploration de données

4

Ces recherches et résultats financièrement probants obligent les équipes spécialisées dans l'exploration de données à effectuer un travail méthodique dans des projets structurés.

Projet, méthodes et processus

De bonnes pratiques ont émergé au fil du temps pour améliorer la qualité des projets. Parmi celles-ci, les méthodologies aident les équipes à organiser les projets en processus. Au nombre des méthodes les plus utilisées se trouvent la méthodologie SEMMA du SAS Institute et la CRISP-DM qui est la méthode la plus employée dans les années 2010.

Méthode CRISP-DM

L'exploration de données se propose d'utiliser un ensemble d'algorithmes issus de disciplines scientifiques diverses telles que les statistiques, l'intelligence artificielle ou l'informatique, pour construire des modèles à partir des données, c'est-à-dire trouver des structures intéressantes ou des motifs selon des critères fixés au préalable, et d'en extraire un maximum de connaissances utiles à l'entreprise.

La méthode CRISP-DM [32] découpe le processus de fouille de données en six étapes permettant de structurer la technique et de l'ancrer dans un processus industriel. Plus qu'une théorie normalisée, c'est un processus d'extraction des connaissances métiers.

Il faut d'abord comprendre le métier [32] qui pose la question à l'analyste, formaliser le problème que l'organisation cherche à résoudre en termes de données, comprendre les enjeux, connaître les critères de réussite du projet et mettre en place un plan initial pour réaliser cet objectif.

Ensuite, l'analyste a besoin de données appropriées. Dès que l'équipe de projet sait ce qu'il faut faire, elle doit se mettre en quête des données, des textes et tout le matériel qui lui permettra de répondre au problème. Il lui faut ensuite en évaluer la qualité, découvrir les premiers schémas apparents pour émettre des hypothèses sur les modèles cachés.

pour émettre des hypothèses sur les modèles cachés. Phases du processus CRISP-DM Les données que l'équipe

Phases du processus CRISP-DM

Les données que l'équipe de projet a collectées sont hétérogènes. Elles doivent être préparées [32] en fonction des algorithmes utilisés, en supprimant les valeurs aberrantes, ou valeurs extrêmes, en complétant les données non renseignées, par la moyenne ou par la méthode des K plus proches voisins, en supprimant les doublons, les variables invariantes et celles ayant trop de valeurs manquantes, ou bien par exemple en discrétisant les variables si lalgorithme à utiliser le nécessite, comme c'est par exemple le cas pour l'analyse des correspondances multiples ACM, l'analyse discriminante DISQUAL, ou bien la méthode de Condorcet.

Une fois les données prêtes, il faut les explorer [32] . La modélisation regroupe des classes de tâches pouvant être utilisées seules ou en complément avec les autres [33] dans un but descriptif ou prédictif.

La segmentation est la tâche consistant à découvrir des groupes et des structures au sein des données qui sont d'une certaine façon similaires, sans utiliser des structures connues à priori dans les données. La classification est la tâche de généralisation des structures connues pour les appliquer à des données nouvelles [34] .

La régression tente de trouver une fonction modélisant les données continues, c'est-à-dire non discrètes, avec le plus petit taux d'erreur, afin d'en prédire les valeurs futures. L'association recherche les relations entre des items. Par exemple un supermarché peut rassembler des données sur des habitudes d'achats de ses clients. En utilisant les règles d'association, le supermarché peut déterminer quels produits sont fréquemment achetés ensemble et ainsi utiliser cette connaissance à des fins de marketing. Dans la littérature, cette technique est souvent citée sous le nom d'« analyse du panier de la ménagère ».

Exploration de données

5

Il s'agit d'évaluer ensuite [32] les résultats obtenus en fonction des critères de succès du métier et d'évaluer le processus lui-même pour faire apparaître les manques et les étapes négligées. À la suite de ceci, il doit être décidé soit de déployer, soit d'itérer le processus en améliorant ce qui a été mal ou pas effectué.

Puis vient la phase de livraison [32] et de bilan de fin de projet. Les plans de contrôle et de maintenance sont conçus et le rapport de fin de projet est rédigé. Afin de déployer un modèle prédictif, le langage PMML, basé sur le XML, est utilisé. Il permet de décrire toutes les caractéristiques du modèle et de le transmettre à d'autres applications compatibles PMML.

D'autres méthodes

SEMMA

La méthodologie SEMMA [35] (Sample then Explore, Modify, Model, Assess pour « Échantillonner, puis Explorer, Modifier, Modéliser, Évaluer »), inventée par le SAS Institute, se concentre sur les activités techniques de la fouille de données. Bien qu'elle soit présentée par le SAS comme seulement une organisation logique des outils de SAS Enterprise miner [36] , SEMMA peut être utilisée pour organiser le processus d'exploration de données indépendamment du logiciel utilisé [37] .

Six Sigma (DMAIC)

Six Sigma [38] ,[39] ,[40] (DMAIC est un acronyme caractérisant la méthode comme suit : Define, Mesure, Analyse, Improve, Control pour « Définir, Mesurer, Analyser, Améliorer, Contrôler ») est une méthodologie structurée, orientée données, dont le but est l'élimination des défauts, des redondances et des problèmes de contrôle qualité de toutes sortes dans les domaines de la production, de la fourniture de service, du management et d'autres activités métiers. La fouille de données est un domaine dans lequel ce guide méthodologique peut être appliqué [10] .

Maladresses à éviter

Les erreurs font partie de l'expérience, l'exploration de données est une question de pratique, de jugement et d'interprétation. Les méthodes sont faites pour guider, mais n'empêchent pas les écueils dont les plus communément rencontrés par les fouilleurs de données expérimentés ou non, ont été décrits par Robert Nisbet, John Elder et Gary Miner dans leur ouvrage Handbook of Statiscal Analysis & Data Mining Applications [41] .

La première est le fait de poser la mauvaise question. Ce qui conduit à faire chercher au mauvais endroit. Il faut que la question initiale soit correctement posée pour que la réponse soit utile.

soit correctement posée pour que la réponse soit utile. Sur-ajustement d'un modèle : arbitrage performance /

Sur-ajustement d'un modèle : arbitrage performance / complexité

Ensuite, c'est se contenter d'une faible quantité de données pour un problème complexe [41] . Il faut avoir des données pour les explorer, et les cas intéressants pour le fouilleur sont rares à observer, il faut donc avoir à sa disposition énormément de données pour pouvoir faire des échantillons qui ont une valeur d'apprentissage et qui vont permettre de prédire une situation, c'est-à-dire répondre à une question posée, sur les données hors échantillon. De plus, si les données ne sont pas adaptées à la question posée, la fouille sera limitée : par exemple si les données ne contiennent pas de variables à prédire, la fouille sera cantonnée à la description et l'analyste ne pourra que découper les données en sous-ensembles cohérents (clusterisation) ou trouver les meilleures dimensions qui capturent la variabilité des données.

Il faut construire l'échantillon, qui permet l'apprentissage, avec précaution et ne pas échantillonner à la légère [41] . L'apprentissage permet de construire le modèle à partir d'un ou plusieurs échantillons. Paramétrer l'outil

Exploration de données

6

d'exploration de données jusqu'à ce que le modèle renvoie 100 % des cas recherchés revient à se concentrer sur les particularités et se détourner de la généralisation, nécessaire, qui permet d'appliquer le modèle sur les données hors-échantillon. Des techniques existent pour éviter le sur-ajustement ou le sur-apprentissage. Il s'agit des méthodes de ré-échantillonnage telles que le bootstrap, du jackknife ou de la validation croisée [42] .

Parfois, une seule technique (arbre de décision, réseaux neuronaux,

) n'est pas suffisante pour obtenir du modèle

qu'il donne de bons résultats sur toutes les données [41] . Une des solutions, dans ce cas, serait constituée d'un ensemble d'outils, qu'on peut utiliser les uns après les autres et comparer les résultats sur les mêmes données ou bien unifier les forces de chaque méthode soit par l'apprentissage soit par combinaison des résultats [43] .

Il faut placer les données et les résultats de la fouille en perspective dans leur contexte [41] , et ne pas se focaliser sur les données, sans cela des erreurs d'interprétation peuvent survenir ainsi que des pertes de temps et d'argent.

Éliminer à priori les résultats qui paraissent absurdes [44] , en comparaison avec ce qui est attendu, peut être source d'erreurs car ce sont peut-être ces résultats qui donnent la solution à la question posée.

Il est impossible d'utiliser et dinterpréter les résultats d'un modèle en dehors du cadre dans lequel il a été construit [41] . Interpréter des résultats en fonction d'autres cas similaires mais différents est aussi cause d'erreurs, mais ce n'est pas propre aux raisonnements liés à l'exploration de données. Enfin, extrapoler des résultats, obtenus sur des espaces de faibles dimensions, sur des espaces de dimensions élevés peut aussi conduire à des erreurs.

Deux citations de George Box, « Tous les modèles sont faux, mais certains sont utiles » et « Les statisticiens sont comme les artistes, ils tombent amoureux de leurs modèles », illustrent avec humour le fait que quelquefois certains analystes en fouille de données ont besoin de croire en leur modèle et de croire que le modèle qu'ils travaillent est le meilleur. Utiliser un ensemble de modèles et interpréter la distribution des résultats est nettement plus sûr [45] .

Planifier

Dans un projet d'exploration de données, il est essentiel de savoir ce qui est important et ce qui ne l'est pas, ce qui prend du temps et ce qui n'en prend pas ; ce qui ne coïncide pas toujours.

Estimation du temps à consacrer aux différentes étapes [46] , [47]

Tâches

Charge

Importance dans le projet

Inventaire, préparation et exploration des données

38

%

3

Élaboration - Validation des modèles

25

%

2

Restitution des résultats

12

%

4

Analyse des premiers tests

10

%

3

Définition des objectifs

8 %

1

Documentation - présentations

7

%

5

Le cœur de l'exploration de données est constitué par la modélisation : toute la préparation est effectuée en fonction du modèle que l'analyste envisage de produire, les tâches effectuées ensuite valident le modèle choisi, le complètent et le déploient. La tâche la plus lourde de conséquences dans la modélisation consiste à déterminer le ou les algorithmes qui produiront le modèle attendu. La question importante est donc celle des critères qui permettent de choisir cet ou ces algorithmes.

Exploration de données

7

Algorithmes

Résoudre un problème par un processus d'exploration de données impose généralement l'utilisation d'un grand nombre de méthodes et d'algorithmes différents plus ou moins faciles à comprendre et à employer [48] . Il existe deux grandes familles d'algorithmes : les méthodes descriptives et les méthodes prédictives.

Méthodes descriptives

Définition

Les méthodes descriptives [49] permettent d'organiser, de simplifier et d'aider à comprendre l'information sous-jacente d'un ensemble important de données.

Elles permettent de travailler sur un ensemble de données, organisées en instances de variables, dans lequel aucune des variables explicatives des individus n'a d'importance particulière par rapport aux autres. Elles sont utilisées par exemple pour dégager, d'un ensemble d'individus, des groupes homogènes en typologie, pour construire des normes de comportements et donc des déviations par rapport à ces normes telles que la détection de fraudes nouvelles ou inconnues à la carte bancaire ou à l'assurance maladie, pour réaliser de la compression d'informations ou de la compression d'image, etc.

ou de la compression d'image , etc. Repérer les données aberrantes et les éliminer. Exemples

Repérer les données aberrantes et les éliminer.

Exemples

Repérer les données aberrantes et les éliminer. Exemples Un exemple d'analyse en composante principale faite avec

Un exemple d'analyse en composante principale faite avec les données disponibles sous R.

Parmi les techniques disponibles, celles qui sont issues de la statistique peuvent être exploitées. Sont regroupées sous le vocable analyses factorielles, des méthodes statistiques qui permettent de dégager des variables cachées dans un ensemble de mesures ; ces variables cachées sont appelées « facteurs ». Dans les analyses factorielles, on part du principe que si les données sont dépendantes entre elles, c'est parce qu'elles sont liées à des facteurs qui leur sont communs [50] . Lintérêt des facteurs réside dans le fait qu'un nombre réduit de facteurs explique presque aussi bien les données que l'ensemble des variables, ce qui est utile quand il y a un grand nombre de variables [51] . Les techniques factorielles se décomposent principalement en analyse en composantes principales, analyse en composantes indépendantes, analyse factorielle des correspondances, analyse des correspondances multiples et positionnement multidimensionnel [52] .

Exploration de données

8

Pour fixer les idées, l'analyse en composantes principales fait correspondre à variables quantitatives décrivant individus, facteurs, les composantes principales, de telle manière que la perte d'information soit minimum. En effet, les composantes sont organisées dans l'ordre croissant des pertes d'information, la première en perdant le moins, que les composantes soient non corrélées linéairement entre elles et que les individus soient projetés sur les axes définis par les facteurs en respectant la distance qui existe entre eux. Les similitudes et les différences sont expliquées par les facteurs.

et les différences sont expliquées par les facteurs. individus, Une classification hiérarchique faite avec les
et les différences sont expliquées par les facteurs. individus, Une classification hiérarchique faite avec les
et les différences sont expliquées par les facteurs. individus, Une classification hiérarchique faite avec les
et les différences sont expliquées par les facteurs. individus, Une classification hiérarchique faite avec les

individus,

différences sont expliquées par les facteurs. individus, Une classification hiérarchique faite avec les données

Une classification hiérarchique faite avec les données disponibles sous R.

L'analyse factorielle des correspondances et l'ACM font correspondre à

variables qualitatives décrivant les caractéristiques de qualitatives décrivant les caractéristiques de

facteurs en utilisant le tableau de contingence , ou le tableau de Burt tableau de contingence, ou le tableau de Burt

dans le cas de l'ACM, de telle manière que les facteurs soient constitués des variables numériques séparant le mieux les valeurs des variables qualitatives initiales [53] , que deux individus soient proches s'ils possèdent à peu près les mêmes valeurs des variables qualitatives et que les valeurs de deux variables qualitatives soient proches si ce sont pratiquement les mêmes individus qui les possèdent [53] .

On peut aussi utiliser des méthodes nées dans le giron de l'intelligence artificielle et plus particulièrement dans celui de l'apprentissage automatique. La classification [54] non supervisée est une famille de méthodes qui permettent de regrouper des individus en classes, dont la caractéristique est que les individus d'une même classe se ressemblent, tandis que ceux de deux classes différentes sont dissemblables. Les classes de la classification ne sont pas connues au préalable, elles sont découvertes par le processus. D'une manière générale, les méthodes de classification servent à rendre homogènes des données qui ne le sont pas à priori, et ainsi permettent de traiter chaque classe avec des algorithmes sensibles aux données aberrantes. Dans cette optique, les méthodes de classification forment une première étape du processus d'analyse.

Ces techniques empruntées à l'intelligence artificielle utilisent le partitionnement de l'ensemble des informations mais aussi le recouvrement. Le partitionnement est l'objectif des algorithmes utilisant par exemple des méthodes telles que celles des k-means (les « nuées dynamiques » en français), des k-medoids [55] , k-modes et k-prototypes, qu'on peut utiliser pour rechercher les aberrations (outliers), les réseaux de Kohonen, qui peuvent aussi servir à la classification [56] , l'algorithme EM ou l'AdaBoost. La classification hiérarchique est un cas particulier de partitionnement pour lequel les graphiques produits sont facilement compréhensibles. Les méthodes ascendantes partent des individus qu'on agrège en classes, tandis que les méthodes descendantes partent du tout et par divisions successives arrivent aux individus qui composent les classes. Ci-contre le graphique d'une classification ascendante a été tracé pour montrer comment les classes les plus proches sont reliées entre elles pour former des classes de niveau supérieur.

Le recouvrement à logique floue est une forme de recouvrement de l'ensemble des individus représentés par les lignes d'une matrice où certains d'entre eux possèdent une probabilité non nulle d'appartenir à deux classes différentes. L'algorithme le plus connu de ce type est le FCM (Fuzzy c-means) [57] .

En bio-informatique, des techniques de classification double sont employées pour regrouper simultanément dans des classes différentes les individus et les variables qui les caractérisent.

Pour rendre compte de l'utilité de ces méthodes de recouvrement, il faut se rappeler que la classification est un problème dont la grande complexité a été définie par Eric Bell. Le nombre de partitions d'un ensemble de objets

. Le nombre de partitions d'un ensemble de objets est égal à : . Il vaut
. Le nombre de partitions d'un ensemble de objets est égal à : . Il vaut

est égal à : . Il vaut donc mieux avoir des méthodes efficaces et rapides pour trouver une

partition qui répond au problème posé plutôt que de parcourir l'ensemble des solutions possibles.

Exploration de données

9

Enfin, quand l'analyse se porte non pas sur les individus, les items ou les objets, mais sur les relations qui existent entre eux, la recherche de règles d'associations est l'outil adapté. Cette technique est, à l'origine, utilisée pour faire l'analyse du panier d'achats ou l'analyse de séquences. Elle permet, dans ce cas, de savoir quels sont les produits achetés simultanément, dans un supermarché par exemple, par un très grand nombre de clients ; elle est également appliquée pour résoudre des problèmes d'analyse de parcours de navigation de sites web. La recherche de règles d'association peut être utilisée de manière supervisée ; les algorithmes APriori, GRI, Carma, méthode ARD ou encore PageRank se servent de cette technique [58] .

Méthodes prédictives

Définition

La raison d'être des méthodes prédictives est d'expliquer ou de prévoir un ou plusieurs phénomènes observables et effectivement mesurés. Concrètement, elles vont s'intéresser à une ou plusieurs variables définies comme étant les cibles de l'analyse. Par exemple, l'évaluation de la probabilité pour qu'un individu achète un produit plutôt qu'un autre, la probabilité pour qu'il réponde à une opération de marketing direct, celles qu'il contracte une maladie particulière, en guérisse, les chances qu'un individu ayant visité une page d'un site web y revienne, sont typiquement des objectifs que peuvent atteindre les méthodes prédictives.

objectifs que peuvent atteindre les méthodes prédictives. Régression linéaire . En exploration de données

En exploration de données prédictive, il y a deux types d'opérations : la discrimination ou classement, et la régression ou prédiction, tout dépend du type de variable à expliquer. La discrimination sintéresse aux variables qualitatives, tandis que la régression sintéresse aux variables continues [59] .

Les méthodes de classement et de prédiction permettent de séparer des individus en plusieurs classes. Si la classe est connue au préalable et que l'opération de classement consiste à analyser les caractéristiques des individus pour les placer dans une classe, la méthode est dite « supervisée [60] ». Dans le cas contraire, on parle de méthodes « non-supervisées », ce vocabulaire étant issu de l'apprentissage automatique. La différence entre les méthodes descriptives de classification que l'on a vues précédemment, et les méthodes prédictives de classement provient du fait que leur objectif est divergent : les premières « réduisent, résument, synthétisent les données [51] » pour donner une vision plus claire de l'amas de données, alors que les secondes expliquent une ou plusieurs variables cibles en vue de la prédiction des valeurs de ces cibles pour les nouveaux arrivants.

Exploration de données

10

Exemples

Exploration de données 1 0 Exemples On peut référencer quelques exemples de méthodes prédictives [ 6

On peut référencer quelques exemples de méthodes prédictives [61] , et les présenter selon le domaine d'où elles proviennent.

Parmi les méthodes issues de l'intelligence artificielle, l'analyste pourra utiliser les arbres de décision [62] ,[63] , parfois pour la prédiction, parfois pour discrétiser les données quantitatives [64] , [65] , le raisonnement par cas, les réseaux de neurones [66] , les neurones à base radiale [67] ,[68] pour la classification et l'approximation de fonctions, ou peut-être les algorithmes génétiques, certains en appui des réseaux bayésiens [69] , d'autres comme Timeweaver en recherche d'évènements rares [70] .

Si l'analyste est plus enclin à utiliser les méthodes issues de la statistique et des probabilités, il se tournera vers les techniques de régressions linéaires ou non linéaires au sens large [71] pour trouver une

fonction d'approximation, l'analyse discriminante de Fisher, la gression logistique, et la régression logistique PLS pour prédire une variable catégorielle, ou bien le modèle linéaire généralisé (GLM), le modèle additif généralisé (GAM) ou modèle log-linéaire afin de prédire une variable multidimensionnelle.

Un exemple d'arbre de décision utilisant la méthode CART, sur les données de la population du Titanic

Quant à l'inférence bayésienne et plus particulièrement les réseaux bayésiens [72] ,[73] , ils pourront être utile à l'analyste si celui-ci cherche les causes d'un phénomène ou bien cherche la probabilité de la réalisation d'un évènement [74] ,[75] .

S'il souhaite compléter les données manquantes, la méthode des k plus proches voisins (K-nn) reste à sa disposition [76] . À moins que l'exploration hypercubique issue de l'aide à la décision ou le filtrage collaboratif issu du marketing ne répondent mieux à ses attentes.

La liste des algorithmes évolue chaque jour, car ils n'ont pas tous le même objet, ne s'appliquent pas aux mêmes données en entrée et aucun n'est optimal dans tous les cas. En outre, ils s'avèrent complémentaires les uns aux autres en pratique et en les combinant intelligemment en construisant des modèles de modèles ou métamodèles, il est possible d'obtenir des gains en performance et en qualité très significatifs. L'ICDM-IEEE a fait en 2006 un classement des 10 algorithmes [58] ayant le plus d'influence dans le monde de l'exploration de données : ce classement est une aide efficace au choix et à la compréhension de ces algorithmes.

au choix et à la compréhension de ces algorithmes. Courbe lift évaluant la performance d'un modèle

Courbe lift évaluant la performance d'un modèle random forest sur les données Kyphosis.

L'Université Stanford a mis en concurrence à sa rentrée d'automne 2007 deux équipes sur le projet suivant : en s'appuyant sur la base de

films visualisés par chaque client d'un réseau de distribution dont les abonnements sont payés par carte magnétique, déterminer l'audience la plus probable d'un film qui n'a pas encore été vu. Une équipe s'est orientée sur une recherche d'algorithmes extrêmement fins à partir des informations de la base, une autre au contraire a pris des algorithmes extrêmement simples, mais a combiné la base fournie par le distributeur au contenu de lInternet Movie Database (IMDB) pour

Exploration de données

11

enrichir ses informations. La seconde équipe a obtenu des résultats nettement plus précis. Un article [77] suggère que l'efficacité de Google tient moins à son algorithme PageRank qu'à la très grande quantité d'information que Google peut corréler par croisement des historiques de requêtes, et par l'analyse du comportement de navigation de ses utilisateurs sur les différents sites.

Avec les moyens modernes de l'informatique l'une ou l'autre de ces deux solutions peut s'envisager dans chaque projet, mais d'autres techniques sont apparues qui ont prouvé leur efficacité pour améliorer la qualité des modèles et leur performance.

améliorer la qualité des modèles et leur performance. Qualité et performance Courbes ROC comparant la

Qualité et performance

Courbes ROC comparant la performance en classification de cinq modèles d'apprentissage automatique sur les données du cancer du sein.

Un modèle de qualité est un modèle rapide, dont le taux d'erreur doit

être le plus bas possible. Il ne doit pas être sensible aux fluctuations de l'échantillon pour ce qui concerne les méthodes supervisées, il doit être robuste et supporter des changements lents intervenants sur les données. En outre, le fait d'être simple, compréhensible et produire des résultats interprétables facilement, augmente sa valeur. Enfin, il est paramétrable pour être réutilisable [78] .

Plusieurs indicateurs sont utilisés pour évaluer la qualité d'un modèle, et parmi ceux-ci les courbes ROC et lift, l'indice de Gini et l'erreur quadratique moyenne montrent où se situe la prédiction par rapport à la réalité et donnent ainsi une bonne idée de la valeur de cette composante de la qualité du modèle.

La robustesse et la précision [79] ,[80] sont deux autres facettes de la qualité du modèle. Pour obtenir un modèle performant, la technique consiste à limiter l'hétérogénéité des données, optimiser léchantillonnage ou combiner les modèles.

La pré-segmentation se propose de classifier la population, puis de construire un modèle sur chacune des classes dans lesquelles les données sont plus homogènes et enfin d'en agréger les résultats.

Avec l'agrégation de modèles, l'analyste applique le même modèle à des échantillons légèrement différents issus de l'échantillon initial, pour ensuite associer les résultats. Le bagging et le boosting étaient les deux techniques les plus efficaces et les plus populaires en 1999 [81] . En marketing par exemple, l'algorithme Uplift utilise la technique du bagging pour produire un modèle d'identification de groupes de personnes pouvant répondre à une offre commerciale après sollicitation.

Enfin, la combinaison de modèles conduit l'analyste à appliquer plusieurs modèles sur une même population et à combiner les résultats. Des techniques telles que l'analyse discriminante et les réseaux de neurones par exemple, se marient aisément.

Outils informatiques

Logiciels

La fouille de données n'existerait pas sans outils. L'offre informatique est présente sous la forme de logiciels [82] et aussi sur quelques plateformes spécialisées [83] . De nombreux logiciels sont présents dans la sphère des logiciels commerciaux, mais il en existe aussi dans celle des logiciels libres. Il n'y a pas de meilleurs logiciels que d'autres, tout dépend de ce qu'on veut en faire [84] . Les logiciels commerciaux sont plutôt destinés aux entreprises, ou aux organismes ayant de gros volumes de données à explorer [85] , tandis que les logiciels libres sont destinés plus particulièrement aux étudiants, à ceux qui veulent expérimenter des techniques nouvelles, et aux PME [85] . En

2009 [86] , les outils les plus utilisés sont, dans l'ordre, SPSS, RapidMiner, SAS, Excel, R, KXEN, Weka, Matlab,

Exploration de données

12

Knime, Microsoft SQL Server, Oracle DM et Statistica. En 2010, R [87] est l'outil le plus utilisé parmi les utilisateurs ayant répondus au sondage de Rexer Analytics [88] .

Informatique en nuage

Linformatique en nuage (cloud computing) nest pas un outil dexploration de données, mais un ensemble de services web, délivrés par des fournisseurs via l'internet, permettant daccueillir et/ou dutiliser des données et des logiciels [89] . Néanmoins, il existe des services qui peuvent être utilisés dans le domaine de lexploration de données. Oracle Data mining sexpose sur lIaaS dAmazon [90] en proposant aux clients une Amazon Machine Image [91] contenant une base de données Oracle incluant une IHM pour la fouille de données ; une image pour R et Python est disponible aussi sur Amazon Web Services [92] . Des acteurs présents exclusivement dans le nuage et spécialisés dans le domaine de la fouille de données proposent leurs services comme In2Cloud [93] , Predixion [94] et Cloud9Analytics [95] entre autres.

Limites et problèmes

L'exploration des données est une technique ayant ses limites et posant quelques problèmes [96] .

Limites

Les logiciels ne sont pas auto-suffisants. Les outils d'exploration des données ne proposent pas d'interprétation des résultats, un analyste spécialiste de la fouille de données et une personne connaissant le métier duquel sont extraites les données sont nécessaires pour analyser les livrables du logiciel.

En outre, les logiciels d'exploration de données donnent toujours un résultat, mais rien n'indique qu'il soit pertinent, ni ne donne une indication sur sa qualité. Mais, de plus en plus, des techniques d'aide à l'évaluation sont mises en place dans les logiciels libres ou commerciaux.

Les relations entre les variables ne sont pas clairement définies. Les outils d'exploration des données indiquent que telles et telles variables ont une influence sur la variable à expliquer, mais ne disent rien sur le type de relation, en particulier il n'est pas dit si les relations sont de cause à effet.

De plus, il peut être très difficile de restituer de manière claire soit par des graphes, des courbes ou des histogrammes, les résultats de l'analyse. Le non-technicien aura quelquefois du mal à comprendre les réponses qu'on lui apporte.

Problèmes

Pour un francophone, néophyte de surcroit, le vocabulaire est une difficulté voire un problème. Pour s'en rendre compte, il est intéressant de préciser le vocabulaire rencontré dans les littératures française et anglo-saxonne. En prenant comme référence le vocabulaire anglo-saxon [97] , le clustering est compris en exploration de données comme une segmentation, en statistiques et en analyse des données comme une classification. La classification en anglais correspond à la classification en exploration de données, à l'analyse discriminante ou au classement en analyse de données à la française et à un problème de décision en statistique. Enfin, les decision trees sont des arbres de décision en exploration de données, et on peut entendre parler de segmentation dans ce cas dans le domaine de l'analyse des données. La terminologie n'est pas claire.

La qualité des données, c'est-à-dire la pertinence et la complétude des données, est une nécessité pour l'exploration des données, mais ne suffit pas. Les erreurs de saisies, les enregistrements doublonnés, les données non renseignées ou renseignées sans référence au temps affectent aussi la qualité des données. Les entreprises mettent en place des structures et des démarches d'assurance qualité des données pour pouvoir répondre efficacement aux nouvelles réglementations externes, aux audits internes, et augmenter la rentabilité de leurs données qu'elles considèrent comme faisant partie de leur patrimoine [98] .

Exploration de données

13

L'interopérabilité d'un système est sa capacité à fonctionner avec d'autres systèmes, créés par des éditeurs différents. Les systèmes d'exploration de données doivent pouvoir travailler avec des données venant de plusieurs systèmes de gestion de bases de données, de type de fichier, de type de données et de capteurs différents. En outre, linteropérabilité a besoin de la qualité des données. Malgré les efforts de l'industrie en matière d'interopérabilité, il semble que dans certains domaines ce ne soit pas la règle [99] .

Les données sont collectées dans le but de répondre à une question posée par le métier. Un risque de l'exploration de données est l'utilisation de ces données dans un autre but que celui assigné au départ. Le détournement des données est l'équivalent d'une citation hors de son contexte. En outre, elle peut conduire à des problèmes éthiques.

La vie privée des personnes peut être menacée par des projets d'exploration de données, si aucune précaution n'est prise, notamment dans la fouille du web et l'utilisation des données personnelles collectées sur Internet où les habitudes d'achats, les préférences, et même la santé des personnes peuvent être dévoilées. Un autre exemple est fourni par l'Information Awareness Office et en particulier le programme Total Information Awareness (TIA) [100] qui exploitait pleinement la technologie d'exploration de données et qui fut un des projets « post-11 septembre » que le Congrès des États-Unis avait commencé à financer, puis qu'il a abandonné à cause des menaces particulièrement importantes que ce programme faisait peser sur la vie privée des citoyens américains. Mais même sans être dévoilées, les données des personnes recueillies par les entreprises, via les outils de CRM, les caisses enregistreuses, les DAB, les cartes santé, etc., peuvent conduire, avec les techniques de fouille de données, à classer les personnes en une hiérarchie de groupes, de bons à mauvais, prospects, clients, patients, ou n'importe quel rôle que l'on joue à un instant donné dans la vie sociale, selon des critères inconnus des personnes elles-mêmes [101] ,[102] . Dans cette optique, et pour corriger cet aspect négatif, Rakesh Agrawal et Ramakrishnan Sikrant s'interrogent sur la faisabilité d'une exploration de données qui préserverait la vie privée des personnes [103] ,[104] . Le stockage des données nécessaire à la fouille pose un autre problème dans la mesure où les données numériques peuvent être piratées. Et dans ce cas l'éclatement des données sur des bases de données distribuées [105] et la cryptographie font partie des réponses techniques qui existent et qui peuvent être mises en place par les entreprises.

Fouilles spécialisées

Ce qui vient d'être vu concerne l'exploration de données qu'on pourrait qualifier maintenant de classique. Des spécialisations techniques de l'exploration de données telles que la fouille d'images (image mining), la fouille du web (web data mining), la fouille de flots de données (data stream mining) et la fouille de textes (text mining) sont en plein développement dans les années 2010 et concentrent l'attention de nombreux chercheurs et industriels.

Par types de données

La fouille audio, technique naissante qui n'est peut-être pas apparentée à la fouille de données, permet de reconnaître des sons dans un flux audio. Elle sert principalement dans le domaine de la reconnaissance vocale.

La fouille d'images [106] est la technique qui sintéresse au contenu de l'image. Elle extrait des caractéristiques dans un ensemble d'images, par exemple du web, pour les classer, les regrouper par type ou bien pour reconnaître des formes dans une image dans le but de chercher des copies de cette image ou de détecter un objet particulier, par exemple.

La fouille de textes est l'exploration des textes en vue d'en extraire une connaissance de haute qualité. Cette technique est souvent désignée sous l'anglicisme text mining. C'est un ensemble de traitements informatiques consistant à extraire des connaissances selon un critère de nouveauté ou de similarité dans des textes produits par des humains pour des humains. Dans la pratique, cela revient à mettre en algorithmes un modèle simplifié des théories linguistiques dans des systèmes informatiques d'apprentissage et de statistiques. Les disciplines impliquées sont donc la linguistique calculatoire, l'ingénierie du langage, l'apprentissage artificiel, les statistiques et l'informatique.

Exploration de données

14

Par environnements techniques

Il s'agit d'exploiter, avec la fouille du web, l'énorme source de données que constitue le web et trouver des modèles et des schémas dans l'usage, le contenu et la structure du web. La fouille de l'usage du web (Web usage mining ou Web log mining) est le processus d'extraction d'informations utiles stockées dans les journaux des serveurs. Cette fouille exploite la fouille de textes pour analyser les documents textes. La fouille de la structure du web est le processus d'analyse des relations, inconnues à priori, entre documents ou pages stockés sur le web.

La fouille de flots de données (data stream mining) [107] est la technique qui consiste à explorer les données qui arrivent en un flot continu [108] , illimité, avec une grande rapidité, et dont certains paramètres fondamentaux se modifient avec le temps : par exemple, l'analyse des flots de données émis par des capteurs automobiles [109] . Mais des exemples d'applications peuvent être trouvés dans les domaines des télécommunications, de la gestion des réseaux, de la gestion des marchés financiers, de la surveillance, et dans les domaines d'activités de la vie de tous les jours, plus proches des personnes, comme l'analyse des flux de GAB, des transactions par cartes de crédit, etc.

Par domaines d'activités

La fouille de données spatiales [110] (Spatial data mining) est la technique d'exploration de données géographiques à notre échelle sur Terre, mais aussi astronomiques ou microscopiques, dont le but est de trouver des motifs intéressants dans les données contenant à la fois du texte, des données temporelles ou des données géométriques, telles que des vecteurs, des trames ou des graphes. Les données spatiales donnent des informations à des échelles différentes, fournies par des techniques différentes, sous des formats différents, dans une période de temps souvent longue en vue de l'observation des changements. Les volumes sont donc très importants, les données peuvent être imparfaites, bruitées. De plus, les relations entre les données spatiales sont souvent implicites : les relations ensemblistes, topologiques, directionnelles et métriques se rencontrent fréquemment dans cette spécialisation. La fouille de données spatiales est donc particulièrement ardue.

de données spatiales est donc particulièrement ardue. Re p résentation graphique des bords de la Meuse

Représentation graphique des bords de la Meuse aux Pays-bas où des concentrations anormales de zinc ont été observées.

On utilise la fouille de données spatiales pour explorer les données des sciences de la terre, les données cartographiques du crime, celles des recensements, du trafic routier, des foyers de cancer [111] , etc.

Dans le futur

Lavenir de l'exploration de données dépend de celui des données numériques. Avec lapparition du Web 2.0, des blogs, des wikis et des services en nuages [112] , il y a une explosion du volume des données numériques et les gisements de matière première pour la fouille de données sont donc importants.

De nombreux domaines exploitent encore peu la fouille de données pour leurs besoins propres. Lanalyse des données venant de la blogosphère nen est quà son début. Comprendre l« écologie de linformation [113] ,[114] » pour analyser le mode de fonctionnement des médias de lInternet par exemple ne fait que commencer.

Pour peu que les problèmes liés à la vie privée des personnes [115] ,[116] soient réglés, la fouille de données peut aider à traiter des questions dans le domaine médical [117] , et notamment dans la prévention des risques hospitaliers [117] .

Enfin,

nouveaux domaines, les techniques continuent de se

avec

lapparition

de

nouvelles

données

et

de

Exploration de données

15

Notes et références

Notes

[1]

[2] (en) Kurt Thearling, « An Introduction to Data Mining (http://www.thearling.com/text/dmwhite/dmwhite.htm) » sur thearling.com. Consulté le 2 mai 2011. [3] [PDF] Jean-Claude Oriol, « Une approche historique de la statistique (http://www.statistix.fr/IMG/pdf/ Une_approche_historique_de_la_statistique_v3.pdf) ». Consulté le 12 mai 2011

[4] (en) Nikhil Pal et Lakhmi Jain, Advanced techniques in knowledge discovery and data mining, Springer, 2005, 254 p. (ISBN 978-1-85233-867-1) [5] [PDF] Philippe Besse, « Data mining II - Modélisation Statistique et Apprentissage, Université Pde Toulouse (http://www.math. univ-toulouse.fr/~besse/pub/Appren_stat.pdf) », juillet 2000. Consulté le 12 mai 2011

[6] [PDF] (en) Patricia Cerrito, « A Data Mining Applications Area in the Department of Mathematics (http://www.math.louisville.edu/ people/faculty/Cerrito/DataMine.pdf) ». Consulté le 31 mai 2011 [7] (en) Maryann Lawlor, « Smart Companies Dig Data (http://www.afcea.org/signal/articles/anmviewer.asp?a=1417&print=yes) ». Consulté le 31 mai 2011 [8] [PDF] Christine Frodeau, « Data mining, Outil de Prediction du Comportement du Consommateur (http://www.creg.ac-versailles.fr/ IMG/pdf/data_mining.pdf) ». Consulté le 12 mai 2011

[9] (en) Colleen McCue, Data Mining and Predictive Analysis, Elsevier, 2007, 313 p. (ISBN 978-0-7506-7796-7) [10] [PDF] Frank audet, Malcolm Moore, « Amélioration de la qualité dans un centre dappel (http://www.jmp.com/fr/software/success/ pdf/qualite_et_management.pdf) ». Consulté le 12 mai 2011

[11] [PDF] (en) Henry Abarbanel, Curtis Callan, William Dally, Freeman Dyson, Terence Hwa, Steven Koonin, Herbert Levine, Oscar Rothaus, Roy Schwitters, Christopher Stubbs, Peter Weinberger, « Data mining and the human genome (http://www.fas.org/irp/agency/ dod/jason/genome.pdf) », p. 7. Consulté le 12 mai 2011 [12] (en) Industries / Fields for Analytics / Data Mining in 2010 (http://www.kdnuggets.com/polls/2010/ analytics-data-mining-industries-applications.html), octobre 2010. Consulté le 12 mai 2011

[13] Voir dans ce document les efforts de standardisation et d'interopérabilité effectués par l'industrie : [PDF] (en) Arati Kadav, Aya Kawale, Pabitra Mitra, « Data Mining Standards (http://www.datamininggrid.org/wdat/works/att/standard01.content.08439.pdf) ». Consulté le

Terme recommandé au Canada par l'OQLF, et en France par la DGLFLF (Journal officiel du 27 février 2003) et par FranceTerme

13 mai 2011

[14] (en) Yi Peng, Gang Kou, Yong Shi et Zhengxin Chen, « A Descriptive Framework for the Field of Data Mining and Knowledge Discovery », dans International Journal of Information Technology and Decision Making, vol. 7, n o 4, 2008, p. 639 à 682 [[10.1142/S0219622008003204 texte intégral] ( le 19 mai 2011)] [15] (en) SIGKDD : Site officiel (http://www.sigkdd.org/index.php). Consulté le 13 mai 2011 [16] (en) ACM SIGKDD : Conferences (http://www.kdd.org/conferences.php). Consulté le 13 mai 2011 [17] (en) ACM, New York, « SIGKDD Explorations (http://www.kdd.org/explorations/about.php) ». Consulté le 13 mai 2011 [18] (en) 5th (2009) (http://www.dmin--2009.com/). Consulté le 13 mai 2011 [19] (en) 4th (2008) (http://www.dmin-2008.com/). Consulté le 13 mai 2011 [20] (en) 3rd (2007) (http://www.dmin-2007.com/). Consulté le 13 mai 2011 [21] (en) 2 nd (2006) (http://www.dmin-2006.com/). Consulté le 13 mai 2011 [22] (en) 1st (2005) (http://www.informatik.uni-trier.de/~ley/db/conf/dmin/dmin2005.html). Consulté le 13 mai 2011 [23] (en) ICDM : Site officiel (http://www.cs.uvm.edu/~icdm/). Consulté le 13 mai 2011

[24] (en) IEEE International Conference on Data Mining (http://www.informatik.uni-trier.de/~ley/db/conf/icdm/index.html). Consulté le

13 mai 2011

[25] (en) ICDM09, Miami, FL (http://www.cs.umbc.edu/ICDM09/). Consulté le 13 mai 2011 [26] (en) ICDM08, Pisa (Italy) (http://icdm08.isti.cnr.it/). Consulté le 13 mai 2011 [27] (en) ICDM07, Omaha, NE (http://www.ist.unomaha.edu/icdm2007/). Consulté le 13 mai 2011 [28] (en) ICDM06, Hong Kong (http://www.comp.hkbu.edu.hk/iwi06/icdm/). Consulté le 13 mai 2011 [29] (en) ICDM05, Houston, TX (http://www.cacs.ull.edu/~icdm05/). Consulté le 13 mai 2011 [30] (en) ICDM04, Brighton (UK) (http://icdm04.cs.uni-dortmund.de/). Consulté le 13 mai 2011 [31] (en) ICDM01, San Jose, CA. (http://www.cs.uvm.edu/~xwu/icdm-01.html). Consulté le 13 mai 2011 [32] (en) CRoss Industry Standard Process for Data Mining (http://www.crisp-dm.org/Process/index.htm), 2007. Consulté le 14 mai 2011 [33] [PDF] (en) Usama Fayyad, Gregory Piatetsky-Shapiro, Padhraic Smyth, « From Data Mining to Knowledge Discovery in Databases (http://www.kdnuggets.com/gpspubs/aimag-kdd-overview-1996-Fayyad.pdf) », 1996. Consulté le 14 mai 2011 [34] Par exemple, un programme gestionnaire de messages électroniques pourrait tenter de classer un e-mail dans la catégorie des e-mails légitimes ou bien dans celle des pourriels. Les algorithmes généralement utilisés incluent les arbres de décision, les plus proches voisins, la classification naïve bayésienne, les réseaux neuronaux et les séparateurs à vaste marge (SVM)

[35] (en) STATISTICA, Statistics Glossary, Models for Data Mining (http://www.statsoft.com/textbook/statistics-glossary/m/button/m/). Consulté le 13 mai 2011

Exploration de données

16

[39] StatSoft, « Sigma DMAIC Six Sigma DMAIC (http://www.statsoft.com/textbook/statistics-glossary/s/button/s/#Six) ». Consulté le

[40] (en)Aveta Business Institute, « Six Sigma on line (http://www.sixsigmaonline.org/services.html) ». Consulté le 15 mai 2011 [41] Nisbet, Elder et Miner 2009, p. 733

[42] (en) fasq.org, « What are cross-validation and bootstrapping? (http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-12.html) ». Consulté le 15 mai 2011 [43] (en) Jing Gao, Wei Fan, Jiawei Han, « On the Power of Ensemble: Supervised and Unsupervised Methods Reconciled (http://www.ews. uiuc.edu/~jinggao3/sdm10ensemble.htm) ». Consulté le 15 mai 2011 [44] [PDF] (en)Mary McGlohon, « Data Mining Disasters: a report (http://www.cs.cmu.edu/~mmcgloho/pubs/accidents-sigbovik08. pdf) », p. 2. Consulté le 14 mai 2011 [45] (en) An Introduction to Ensemble Methods (http://fedc.wiwi.hu-berlin.de/xplore/ebooks/html/csa/node228.html) sur RDC (http:// fedc.wiwi.hu-berlin.de). Consulté le 14 mai 2011 [46] Tufféry 2010, p. 44

[47] (en) Dorian Pyle, Data Preparation for Data Mining, Morgan Kaufmann, 1999, 560 p. (ISBN 978-1558605299)

[48] (en) Kurt Thearling, « ''An Introduction to Data Mining (http://www.thearling.com/dmintro/dmintro.htm) », p. 17. Consulté le 14 mai

2011

[49] [PDF] Stéphane Tufféry, « Les techniques descriptives (http://data.mining.free.fr/cours/Descriptives.pdf) », 2007, p. 5. Consulté le 14

mai 2011 [50] [PDF] Jacques Baillargeon, « Analyse factorielle exploratoire (http://www.uqtr.ca/cours/srp-6020/afe/afe.pdf) », 2003, p. 4. Consulté le 14 mai 2011 [51] Tufféry 2010, p. 161

[52] [PDF] Philippe Besse, Alain Baccini, « Exploration Statistique (http://www.math.univ-toulouse.fr/~besse/pub/Explo_stat.pdf) », juin 2010, p. 7. Consulté le 14 mai 2011 [53] Tufféry 2010, p. 198

[54] [PDF] Philippe Besse, Alain Baccini, « Exploration Statistique (http://www.math.univ-toulouse.fr/~besse/pub/Explo_stat.pdf) », juin 2010, p. 8. Consulté le 14 mai 2011 [55] Tufféry 2010, p. 244 [56] Alexandre Aupetit, « Réseaux de neurones artificiels : une petite introduction (http://labo.algo.free.fr/neuro/ reseau_de_neurones_artificiel.html) », mai 2004. Consulté le 14 mai 2011

[57] [PDF] (en)Nikhil R. Pal, Kuhu Pal, James M. Keller, James C. Bezdek, « Fuzzy c-Means Clustering of Incomplete Data (http://www. comp.ita.br/~forster/CC-222/material/fuzzyclust/fuzzy01492404.pdf) », août 2005. Consulté le 14 mai 2011 [58] [PDF] (en) ICDM Top 10 algorithms in data mining (http://www.cs.uvm.edu/~icdm/algorithms/10Algorithms-08.pdf). Consulté le

14 mai 2011

[59] Tufféry 2010, p. 297 [60] Nisbet, Elder et Miner 2009, p. 235

[61] Dont ont peut trouver, pour certaines, la description ici : [PDF] Guillaume Calas, « Études des principaux algorithmes de data mining (http://guillaume.calas.free.fr/data/Publications/DM-Algos.pdf) », 2009. Consulté le 14 mai 2011

[62] [PDF] (en) Wei-Yin Loh, Yu-Shan Shih, « Split Selection Methods for Classification Trees (http://www.math.ccu.edu.tw/~yshih/ papers/sinica.pdf) », 1997. Consulté le 14 mai 2011 [63] [PDF] (en)Leo Breiman, « Random Forests (http://www.springerlink.com/content/u0p06167n6173512/fulltext.pdf) », 2001. Consulté le 14 mai 2011 [64] [PDF] Ricco Rakotomalala, « Arbres de Décision (http://www-rocq.inria.fr/axis/modulad/archives/numero-33/ tutorial-rakotomalala-33/rakotomalala-33-tutorial.pdf) », 2005. Consulté le 14 mai 2011 [65] Comme CART, CHAID, ECHAID, QUEST, C5, C4.5 et les forêts d'arbres décisionnels [66] Tels que les perceptrons mono ou multicouches avec ou sans rétropropagation des erreurs

[67] (en) (en) Simon Haykin, Neural Networks: A comprehensive Foundation, Prentice Hall, 1998, 842 p. (ISBN 978-0132733502) [68] [ppt] M. Boukadoum, « Réseaux de neurones à base radiale (http://www.labunix.uqam.ca/~boukadoum_m/DIC9315/Notes/NN/ 6_rbf.ppt) ». Consulté le 14 mai 2011 [69] [PDF] Jean-Marc Trémeaux, « Algorithmes génétiques pour l'identification structurelle des réseaux bayésiens (http://naku.dohcrew.com/ dea-ecd/Tremeaux-genetic-bayesnet.pdf) », 2006. Consulté le 14 mai 2011 [70] [PDF] Thomas Vallée, Murat Yıldızoğlu, « Présentation des algorithmes génétiques et de leurs applications en économie (http://www. sc-eco.univ-nantes.fr/~tvallee/recherche/murat/agpresf42.pdf) », 2003, p. 15. Consulté le 14 mai 2011 [71] Telles que la régression linéaire, linéaire multiple, logistique, PLS, ANOVA, MANOVA, ANCOVA ou MANCOVA.

Exploration de données

17

[72] [PDF] Olivier Parent, Julien Eustache, « Les Réseaux Bayésiens (http://liris.cnrs.fr/amille/enseignements/master_ia/rapports_2006/ Reseau Bayesien SYNTHESE ECRITE.pdf) », 2006. Consulté le 14 mai 2011 [73] [PDF] Gilles Balmisse, « Les Réseaux Bayésiens (http://www.gillesbalmisse.com/IMG/pdf/GB_RB.pdf) », 2006. Consulté le 14 mai

2011

[74] [PDF] Samos, « Les Réseaux Bayésiens (http://samos.univ-paris1.fr/archives/ftp/preprints/samos175.pdf) », 2003. Consulté le 14 mai

2011

[75] Bayesia, « Pour sortir de l'incertitude, entrez dans l'ère des réseaux bayésiens (http://www.bayesia.com/fr/technologie/ reseaux-bayesiens.php) », Bayesia. Consulté le 14 mai 2011 [76] Valérie Monbet, « Les données manquantes (http://perso.univ-rennes1.fr/valerie.monbet/doc/cours/IntroDM/Chapitre4.pdf) », p. 27. Consulté le 14 mai 2011 [77] Didier Durand, « PageRank de Google : l'algorithme prend en compte 200 paramètres ! (http://media-tech.blogspot.com/2008/03/ pagerank-de-google-lalgorithme-prend-en.html) », 2008. Consulté le 14 mai 2011

[78] [PDF] Bertrand Liaudet, « Cours de Data Mining 3 : Modelisation Présentation Générale (http://bliaudet.free.fr/IMG/pdf/ Cours_de_data_mining_3-Modelisation-EPF.pdf) ». Consulté le 14 mai 2011 [79] Tufféry 2010, p. 518 [80] Voir Glossaire du data mining pour la définition de « robustesse » et « précision ».

[81] [PDF] (en) David Opitz, Richard Maclin, « Popular Ensemble Methods: An Empirical Study (http://www.d.umn.edu/~rmaclin/ cs5751/notes/opitz-jair99.pdf) », 1999. Consulté le 14 mai 2011 [82] (en) Software Suites for Data Mining, Analytics, and Knowledge Discovery (http://www.kdnuggets.com/software/suites.html#B) sur kdnuggets (http://www.kdnuggets.com). Consulté le 15 mai 2011 [83] Plateforme de datamining pour les editeurs d'univers virtuels (http://www.marketingvirtuel.fr/2009/03/17/ twofish-lance-une-plateforme-de-datamining-pour-les-editeurs-dunivers-virtuels/). Consulté le 15 mai 2011

[84] [PDF] (en) Dean W. Abbott, I. Philip Matkovsky, et John Elder IV, « 1998 IEEE International Conference on Systems, Man, and Cybernetics, San Diego, CA (http://datamininglab.com/Portals/0/tool eval articles/smc98_abbott_mat_eld.pdf) », 14 octobre 1998. Consulté le 15 mai 2011 [85] Tufféry 2010, p. 121

[86] (en) Data Mining Tools Used Poll (http://www.kdnuggets.com/polls/2009/data-mining-tools-used.htm), 2009. Consulté le 15 mai

2011

[87] (en)Rexer Analytics, « 2010 Data Miner Survey (http://www.rexeranalytics.com/Data-Miner-Survey-Results-2010.html) ». Consulté le

19 juin 2011

[88] (en)Rexer Analytics, « Rexer Analytics (http://www.rexeranalytics.com/index.html) ». Consulté le 19 juin 2011 [89] (en)Dave Wells, « Whats Up with Cloud Analytics? (http://www.b-eye-network.com/view/12100) ». Consulté le 2 juin 2011 [90] IaaS signifiant Infrastructure as a service dénommé Amazon Elastic Compute Cloud chez Amazon

[91] [PDF](en)John Smiley, Bill Hodak, « Oracle Database on Amazon EC2 : An Oracle White Paper (http://www.oracle.com/ technetwork/topics/cloud/oracle-aws-getting-started-twp-171089.pdf) ». Consulté le 4 juin 2011 [92] [PDF](en)Drew Conway, « Amazon EC2 configuration for scientific computing in Python and R (http://www.kdnuggets.com/2011/ 04/amazon-cloud-computing-with-python-and-r.html) ». Consulté le 4 juin 2011 [93] (en)In2Cloud, « In2Clouds Solutions (http://www.in2clouds.com/predictive-analytics-solutions) ». Consulté le 5 juin 2011 [94] (en)Predixion, « Cloud Predixion Solutions (http://www.predixionsoftware.com/predixion/Solutions.aspx) ». Consulté le 5 juin 2011 [95] (en)Cloud9, « Cloud9 Solution Overview (http://www.cloud9analytics.com/solutions) ». Consulté le 14 juin 2011

[96] [PDF] (en) Jeffrey Seifer, « CRS report for congress (http://biotech.law.lsu.edu/blaw/crs/RL31798.pdf) », 2007. Consulté le 15 mai

2011

[97] Tufféry 2010, p. 158 [98] Laetitia Hardy, « Pourquoi la qualité des données devient incontournable au sein de lentreprise? (http://www.decideo.fr/ Pourquoi-la-qualite-des-donnees-devient-incontournable-au-sein-de-l-entreprise_a1951.html) » sur Decideo (http://www.decideo.fr), 2007. Consulté le 15 mai 2011

[99] [PDF] (en) Jeffrey Seifert, « CRS report for congress (http://biotech.law.lsu.edu/blaw/crs/RL31798.pdf) », 2007, p. 27. Consulté le

15 mai 2011

[100] (en) International Workshop on Practical Privacy-Preserving Data Mining (http://www.cs.umbc.edu/~kunliu1/p3dm08/), 2008. Consulté le 15 mai 2011 [101] [PDF] (en) Martin Meint, Jan Möller, « Privacy Preserving Data Mining (http://www.fidis.net/fileadmin/journal/issues/1-2007/ Privacy_Preserving_Data_Mining.pdf) ». Consulté le 15 mai 2011 [102] (en) Kirsten Wahlstrom, John F. Roddick, Rick Sarre, Vladimir Estivill-Castro et Denise de Vries, « Legal and Technical Issues of Privacy Preservation in Data Mining (http://www.irma-international.org/chapter/legal-technical-issues-privacy-preservation/10968/) »,

2007. Consulté le 15 mai 2011 [103] [PDF] (en) Rakesh Agrawal, Ramakrishnan Sikrant, « privacy-Preserving Data mining (http://www.cs.utexas.edu/~shmat/courses/ cs395t_fall05/ppdm.pdf) ». Consulté le 15 mai 2011 [104] Puisque les modèles de l'exploration de données concernent les données agrégées d'où sont éliminées les données personnelles.

Exploration de données

18

[105] [PDF] (en) Murat Kantarcioglu, « Introduction to Privacy Preserving Distributed Data Mining (http://wiki.kdubiq.org/ summerschool2008/uploads/Main/SS08/Lectures/Kantarcioglu_kdubiq08-talk.pdf) ». Consulté le 15 mai 2011 [106] [PDF] Patrick Gros, « Nouvelles de lAS fouille dimages & Émergence de caractéristiques sémantiques (http://liris.cnrs.fr/as50/ Journee-7-juillet/Gros-presentation.pdf) », 16 juillet 2003. Consulté le 15 mai 2011

[107] [PDF] (en) Mohamed Medhat Gaber, Arkady Zaslavsky et Shonali Krishnaswamy, « Data Streams: A Review (http://www.sigmod. org/publications/sigmod-record/0506/p18-survey-gaber.pdf) », 2005. Consulté le 15 mai 2011 [108] [PDF] (en) Chih-Hsiang Li, Ding-Ying Chiu, Yi-Hung Wu, Arbee L. P. Chen, « Mining Frequent Itemsets from Data Streams with a Time-Sensitive Sliding Window (http://www.siam.org/proceedings/datamining/2005/dm05_07linc.pdf) », 2005. Consulté le 15 mai 2011 [109] [PDF] (en) Hillol Kargupta, Ruchita Bhargava, Kun Liu, Michael Powers, Patrick Blair, Samuel Bushra, James Dull, Kakali Sarkar, Martin Klein, Mitesh Vasa et David Handy, « VEDAS : A Mobile and Distributed Data Stream Mining System for Real-Time Vehicle Monitoring (http://www.siam.org/proceedings/datamining/2004/dm04_028karguptah.pdf) », 2004. Consulté le 15 mai 2011 [110] (en) Spatial Database and Spatial Data Mining Research Group : Site officiel (http://www.spatial.cs.umn.edu/), 2011. Consulté le 15 mai 2011 [111] [PDF] (en) Shashi Shekhar, Pusheng Zhang, « Spatial Data Mining: Accomplishments and Research Needs (http://www.spatial.cs. umn.edu/paper_ps/giscience.pdf) », 2004. Consulté le 15 mai 2011 [112] IDC pronostique une explosion du volume de données produites dans le monde d'ici 10 ans (http://www.lemagit.fr/article/

Consulté le 21 mai 2011 [113] Selon Tim Finin, Anupam Joshi, Pranam Kolari, Akshay Java, Anubhav Kale et Amit Karandikar, « The information ecology of social media and online communities (http://aisl.umbc.edu/resources/376.pdf) ». Consulté le 19 juin 2011. [114] Kargupta et al. Kumar, p. 283 [115] Kargupta et al. Kumar, p. 357 [116] Kargupta et al. Kumar, p. 420 [117] Kargupta et al. Kumar, p. 471 [118] Kargupta et al. Kumar, p. 1-281

Références

(en) Cet article est partiellement ou en totalité issu de larticle de Wikipédia en anglais intitulé « Data mining (http://en.wikipedia.org/wiki/En:data_mining?oldid=cur) » (voir la liste des auteurs (http://en.wikipedia.org/ wiki/En:data_mining?action=history))

Sources et contributeurs de larticle

19

Sources et contributeurs de larticle

Exploration de données Source: http://fr.wikipedia.org/w/index.php?oldid=69077328 Contributeurs: -

Source des images, licences et contributeurs

Fichier:SlideQualityLife.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:SlideQualityLife.png Licence: Creative Commons Attribution 3.0 Contributeurs: A. N. Gorban, A. Zinovyev

Fichier:CarMilageData.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:CarMilageData.png Licence: Creative Commons Attribution-Sharealike 3.0 Contributeurs: User:Jackverr

Fichier:AcpClusterRL01.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:AcpClusterRL01.png Licence: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributeurs:

Jackverr

Fichier:CRISP DM.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:CRISP_DM.png Licence: Creative Commons Attribution 3.0 Contributeurs: Jackverr

Image:Surajustement Modèle 2.JPG Source: http://fr.wikipedia.org/w/index.php?title=Fichier:Surajustement_Modèle_2.JPG Licence: Creative Commons Attribution-ShareAlike 3.0 Unported Contributeurs: -

Fichier:LOF.svg Source: http://fr.wikipedia.org/w/index.php?title=Fichier:LOF.svg Licence: Public Domain Contributeurs: Chire

Fichier:AirqACP.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:AirqACP.png Licence: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributeurs: Jackverr

Fichier:HierarchicalClustering.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:HierarchicalClustering.png Licence: Creative Commons Attribution-Sharealike 3.0 Contributeurs: Jackverr

Image:LinearRegressionR.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:LinearRegressionR.png Licence: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributeurs: Jackverr

Image:CART tree titanic survivors.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:CART_tree_titanic_survivors.png Licence: Creative Commons Attribution-Sharealike 3.0 Contributeurs: Stephen Milborrow

Image:LiftCurve01.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:LiftCurve01.png Licence: Creative Commons Attribution-Sharealike 3.0 Contributeurs: Jackverr

Image:ROCCurve02.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:ROCCurve02.png Licence: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributeurs:

Jackverr

Image:MeuseRiverZincConcentr01.png Source: http://fr.wikipedia.org/w/index.php?title=Fichier:MeuseRiverZincConcentr01.png Licence: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Contributeurs: Jackverr

Licence