Vous êtes sur la page 1sur 44

Intégration de données hétérogènes et

réparties

Anne Doucet
Anne.Doucet@lip6.fr

1
Plan

• Intégration de données
• Architectures d’intégration
– Approche matérialisée
– Approche virtuelle
• Médiateurs
– Conception et intégration
– Traitement des requêtes
– Systèmes existants
• Médiation et architectures P2P

2
Intégration de données

• Contexte
• Caractéristiques
• Taxonomie des systèmes existants
• Processus d’intégration de données

3
Problématique

Globalisation des données et des ressources


4
Intégration de données

Infrastructures
de médiation

Accès transparent aux données : illusion d’un système unique et homogène


¾ dictionnaire de données réparti, requêtes et transactions réparties, échange de
Données, coopération, cohérence, sécurité, … 5
Contexte

• Sources d’informations nombreuses et très diversifiées (SGBD


R, SGBDO, XML, fichiers texte, pages Web, etc.)
• Différents modes de consultation
– Langages et modes de requêtes différents (SQL, moteurs de
recherche, programme d’applications…)
– Différentes façons de répondre (différentes présentations
du résultat) : pages Web, tableurs, relations…
• Différents interactions avec la source
– Protocoles de communication (JDBC, ODBC, IIOP)
– Différentes interfaces

6
Exemple

SQL Moteur de
OQL XQuery recherches API

tuples html instances


objets xml

SGBD SGBD Fichiers


Fichiers Application
SGBD Fichiers
texte
relationnel objet Semi-Structuré texte
texte
Agence Chaine Site horaire Informations Météo
de voyage hotelière des vols Pays 7
Intégration de données

Fournir
un accès (requêtes, éventuellement mises à jour)
uniforme (les sources sont transparentes à l’utilisateur)
à des sources (pas seulement des BD)
multiples (même 2 est un problème)
autonomes (sans affecter le comportement des sources)
hétérogènes (différents modèles de données, schémas)
structurées ( ou au moins semi-structurées)

8
Caractéristiques des sources

• Distribution
• Hétérogénéité
• Autonomie
• Interopérabilité
Distribution

Interopérabilité

Autonomie
Hétérogénéité

9
Distribution

• Les données sont stockées sur des supports répartis


géographiquement.
• Offre disponibilité et amélioration des temps d’accès.
• Pbs:
– Localiser la (ou les) source(s) contenant les
données pertinentes.
– Tenir compte de la puissance des sources et de leur
charge
– Les sources peuvent être temporairement
indisponibles
10
Hétérogénéité
• L’hétérogénéité concerne les données, les modèles et les
langages.
• Système homogène :
• même logiciel gérant les données sur tous les sites
• même modèle de données
• même univers de discours

• Système hétérogène :
• n’adhère pas à toutes les caractéristiques d’un système
homogène
• langages de programmation et d’interrogation différents,
modèles différents, SGBD différents

11
Hétérogénéité des données

• Sémantique
– Signification, interprétation ou utilisation différente de la
même donnée
– Types de relations sémantiques
• R1 identique à R2 : même constructeur, même concept
• R1 équivalente à R2 : constructeurs différents, même concept
• R1 compatible avec R2 : ni identiques, ni équivalents
• R1 incompatible avec R2 : contradictoires
• Structurelle

12
Hétérogénéité des données

• Sémantique
• Structurelle
– Représentation différente des mêmes concepts
dans des bases différentes
– Conflits de noms, types de données, attributs,
unités

13
Autonomie
• Conception : sources locales avec des
• modèles de données propres,
• langage d’interrogation
• Interprétation sémantique des données, contraintes, fonctions …
• Communication : les sources de données locales décident
quand et comment répondre aux questions d’autres sources
• Exécution : pas d’information provenant des sources locales
sur
• l’ordre d’exécution des transactions locales ou des opérations
externes
• pas de distinction entre les opérations locales et globales
• Association :
• connexion et déconnexion des sources
• partage de données et des fonctions
14
Interopérabilité

• Systèmes interopérables :
• échange de messages et de requêtes
• fonctionnent comme une unité pour une tâche commune
• partagent les fonctions
• Communiquent même avec des composants internes
incompatibles
• Propriétés fondamentales à tout système interopérable :
– Distribution
– Hétérogénéité
– Autonomie
15
Taxonomie de SGBD hétérogènes et répartis
Distribution
SGBD
homogènes SGBD Multi-SGBD
répartis Fédérés répartis
Répartis
Multi-SGBD
Hétérogènes oui
Localement intégrés

non partielle totale


Autonomie
oui
SGBD SGBD fédérés
hétérogènes Hétérogènes
répartis répartis
SGBD SGBD fédérés Multi-SGBD
Hétérogènes hétérogènes hétérogènes
intégrés Multi-SGBD
Hétérogénéité Hétérogènes
répartis 16
Localisation de données

Systèmes de requêtes
Pour sources hétérogènes

Les données sont transférées Les données restent sur le site où elles se trouvent

Intégration Intégration
matérialisée virtuelle

Données natives Données structurées Données structurées Données natives Données natives
structurées Natives et dérivées Structurées Non structurées
Semi-structurées
Non structurées

Entrepôt de Systèmes Systèmes Recherche


SGDB universel
données fortement intégrés Faiblement D’information
intégrés
Bases de données fédérées Moteurs de recherche
17
Niveau intégration

faible fort

• Bases de données réparties


• Fédérations de bases de données
• Multi bases de données avec schéma global
• Bases de données inter opérables …

18
Processus d’Intégration
Processus semi automatisable permettant d’intégrer des données
structurellement et sémantiquement hétérogènes.
Problème ancien (voir état de l’art dans A.P.Sheth and J.A Larson.
Federated database systems for managing distributed, heterogeneous, and
autonomous databases. ACM Computing Surveys, 22(1):183-236, Mars 90).
Pbs : hétérogénéité des modèles de données, des puissances
d’expression, des modélisations.
Un système d’intégration comprend 4 tâches principales :
- intégration de schéma
- fusion de données
- traduction de requêtes
- réécriture de requêtes
19
Intégration de schéma
– Pré intégration
• Analyse des schémas :
– identification des éléments semblables dans les schémas initiaux, et
description des liens inter-schémas.
– unifier les types en correspondance en un schéma intégré et produire les règles
de traduction associées entre le schéma intégré et les schémas initiaux.
• Ordre d’intégration
• Définition de contraintes globales
– Comparaison
• Identification de relations entre attributs
• Homonymes, synonymes, types de données, dépendances
• Propriétés (assertions) de correspondance inter schémas
(dépendances d’inclusion, exclusion, union)
• S’assurer que l’ensemble d’assertions est cohérent et minimum.

20
Fusion de données

– Mise en conformité : résolution de conflits


• Classification : les populations du monde réel représentées par les
deux types sont différentes.
• Description : les types ont des ensembles différents de propriétés
• Structure : les concepts utilisés pour décrire les types sont différents
• Hétérogénéité : les modèles de données utilisés sont différents.
• Données : des instances en correspondance ont des valeurs
différentes pour des propriétés en correspondance.
– Regroupement et restructuration : mise en forme
d’objets dans la vue intégrée

21
Représentation des aspects sémantiques

• Logique de description
• Méta attributs et valeurs à représentation d’un contexte
• Dictionnaires de données à vocabulaire utilisé dans les bases
de données
• Ontologies décrivant des domaines de discours (concepts,
relations, valeurs)

22
Architectures d’intégration

• Intégration matérialisée
– Les données provenant des sources à intégrer sont stockées
sur un support spécifique (entrepôt de données).
– L’interrogation s’effectue comme sur une BD classique
(relationnelle).
• Intégration virtuelle
– Les données restent dans les sources
– Les requêtes sont faites sur un schéma global, puis
décomposées en sous-requêtes sur les sources. Les
différents résultats des sources sont de la requête sont
combinés pour former le résultat final.

23
Architecture d’entrepôt de données

utilisateur

requête réponse

Entrepôt
(BD relationnelle)

Intégrateur
Extraction et
nettoyage
de données

Schéma local Schéma local Schéma local


Source 1 Source 2 Source 3

24
Architecture de médiateur
utilisateur

requête réponse

Schéma global

Médiateur

adaptateur adaptateur adaptateur

Schéma local Schéma local Schéma local

Source 1 Source 2 Source 3


25
Matérialisé vs. virtuel

• Architectures matérialisées
– Bonnes performances
– Données pas toujours fraîches
– Nettoyage et filtrage des données
• Architectures virtuelles
– Les données sont toujours fraîches
– Traitement de requêtes peut être coûteux
– Défi principal : performances

26
Entrepôts de données

27
Motivations
• Réconciliation sémantique
– Dispersion des sources de données au sein d’une entreprise
– Différents codage pour les mêmes données
– L’entrepôt rassemble toutes les informations au sein d’un unique
schéma
– Conserve l’historique des données
• Performance
– Les données d’aide à la décision nécessitent une autre organisation
des données
– Les requêtes complexes de l’OLAP dégradent les performances
des requêtes OLTP.
• Disponibilité
– La séparation augmente la disponibilité
– Une bonne façon d’interroger des sources de données dispersées
• Qualité des données

28
Systèmes légués
• gros système, critique, sur environnement ancien. Souvent peu documenté.
Interactions entre les différents modules peu claires. Très cher à maintenir.
• Il faut l'intégrer (migration) au système actuel (Entrepôt) = architecture cible.
• Contraintes : migration sur place, garder opérationnel, corriger et améliorer
pour anticiper, le moins de changements possibles (diminuer le risque),
flexible sur les évolutions futures, utiliser les technologies modernes.
• Approche classique : tout réécrire dans l'architecture cible
– promesses à tenir dans des conditions changeantes
– problème de transfert de très gros fichiers (plusieurs jours) dans
système critique
– gros projet, retard mal vus, risque d'abandon
• Approche incrémentale :
– isoler des sous-systèmes a migrer
– établir des passerelles pour que les modules déjà migrés puissent
communiquer avec les modules encore dans le système légué
(traducteur de requêtes et de données).
29
– coordonner les mises à jour pour garder la cohérence.
Bases de Données/Entrepôts de données

BD- OLTP Entrepôts

Objectif collecte de données consultation et analyse


opérations au jour le jour

Utilisateurs un département (Employé) transversal (Gestionnaire)

Types de
données de gestion données d’analyse
données (données courantes) (données historiques)

Informations détaillées détaillées + agrégées

n-uplets accédés dizaines millions

Opérations requêtes simples, pré-déterminées requêtes complexes, ad-hoc


sélections et mises à jour sélections
nombreuses transactions peu de transactions
transactions courtes transactions longues
temps réel batch
recherche d'enregistrements
détaillés agrégations et group by
30
Bases de données/Entrepôts de données

Un entrepôt recouvre un horizon bien plus long dans le temps


que les systèmes de production.

Il inclut de nombreuses bases de données «travaillées» de façon à


définir les données uniformément.

Il est optimisé pour répondre à des questions complexes pour décideurs


et analystes.

31
Bases de données / Entrepôts

Les entrepôts sont physiquement séparés des systèmes de production,


pour des raisons de
Performance : les données des systèmes de production ne sont pas
organisées pour pouvoir répondre efficacement aux requêtes des systèmes d’aide
à la décision. Même les requêtes simples peuvent dégrader sérieusement les
performances.

Accès aux données : un entrepôt doit pouvoir accéder aux données


uniformément, quelle que soit la provenance des données.

Formats des données : les données des entrepôts sont transformées,


et doivent être disponibles sous un format simple et unique.

Qualité des données: les données d’un DW sont propres et validées. La


qualité des données est vue au sens large du décisionnel, et ne peut être réalisée
qu’après comparaison avec d’autres éléments.
32
Caractéristiques

Dans un entrepôt, les données sont

• orientées par sujets :


Les données organisées par sujet (clients, vendeurs, production,etc.) contiennent
seulement l'information utile à la prise de décision.
Les systèmes opérationnels sont plutôt orientés autour des traitements et des fonctions.

• intégrées :
Les données, provenant de différentes sources (systèmes légués) sont souvent
structurées et codées de façons différentes. L'intégration permet d'avoir une
représentation uniforme, cohérente et transparente. Lorsque les données sont
agrégées, il faut s’assurer que l’intégration est correcte.

• historiques :
Un datawarehouse contient des données "anciennes", datant de plusieurs années,
utilisées pour des comparaisons, des prévisions, etc.

• non volatiles :
Une fois chargées dans le datawarehouse, les données ne sont plus modifiables. Elles
sont uniquement accessibles en lecture (pour l'instant...).
33
Fonctions des entrepôts

• Récupérer les données existantes des différentes sources

• Référencer les données de manière uniforme

• Stocker les données (notamment historisées)

• Mettre à disposition les données pour :

•interrogation
•visualisation
•analyse

34
Structure des données

Un entrepôt de données contient 5 types de données :

fortement résumées

M faiblement résumées
E
T
A
D
O données courantes
N
N
E
E données anciennes
S
35
Métadonnées

• Les métadonnées jouent un rôle central dans l'alimentation de


l’entrepôt

• Ce sont les "données sur les données".

• Elles sont utilisées lors de l'extraction, l'agrégation, la transformation,


le filtrage et le transfert des données.

• Le méta-modèle constitue le référentiel unique:

• utilisateurs, profils et droits


• applications
• modèles de données, structure des données
• règles d'agrégation et de calcul

36
Architecture

données externes
(connaissances, règles) datamart

olap
entrepôt
datamart

données de production
(y.c. Systèmes légués)
datamart
META-MODELES
37
Architecture à 3 niveaux

• Serveur de la BD de l’entrepôt
– Presque toujours relationnel
• Data marts /serveur OLAP
– Relationel (ROLAP)
– Multidimensionel (MOLAP)
• Clients
– Outils d’interrogation et de rapports
– Outils d’analyse et d’aide à la décision

38
Construction d’un entrepôt de données
Trois phases principales
1. Acquisition:
Extraction : collection de données utiles
Préparation : transformation des caractéristiques des données
du système opérationnel dans le modèle de l’entrepôt
Chargement : nettoyage (élimination des dupliqués, incomplétudes,
règles d’intégrité, etc.) et chargement dans l’entrepôt (trier, résumer, calculs,
index).
2. Stockage :
Les données sont chargées dans une base de données pouvant
traiter des applications décisionnelles.
3. Restitution des données :
Il existe plusieurs outils de restitution (tableaux de bord, requêteurs
SQL, analyse multidimensionnelle, data mining ...)
39
Maintenance
• Les données de l’entrepôt sont stockées sous forme de vues
matérialisées sur les différentes sources de données.
• Quand répercuter les mises à jour des sources ?
– À chaque modification ?
– Périodiquement ?
– À définir par l’administrateur
• Comment les répercuter ?
– Tout recompiler périodiquement ?
– Maintenir les vues de façon incrémentale
• Détecter les modifications (transactions, règles actives, etc.)
• Les envoyer à un intégrateur qui détermine les vues concernées,
calcule les modifications et les répercute.

40
Outils d’extraction de données

• Les requêteurs génèrent des requêtes SQL ad hoc (GQL, Reporter,


Impromptu).
• Les tableaux de bord prédéfinis, consultables à l’écran, génèrent des états
(histogrammes, camemberts, ...)

• Les outils de data mining permettent d’extraire des informations implicites


de la base. Ils utilisent des techniques de classification, de segmentation,
d’apprentissage symbolique et numérique, des statistiques, des réseaux
neuronaux.
(Enterprise Miner, Intelligent Miner, KnowledgeSeeker, STATlab,...)
• Les analyseurs permettent de gérer les données multidimensionnelles
(Outils OLAP: Explorer, PowerPlay, Metacube Explorer, ...)

41
Evolution

Les entrepôts sont amenés à évoluer souvent et considérablement.


La taille d'un entrepôt croît rapidement (de 20giga à 100giga en 2 ans).

Pourquoi ?
- nouvelles données (extension géographique, changement de fréquence des
historiques, changement du niveau de détail, etc.)
- ajout de nouveaux éléments de données au modèle (l'ajout d'un attribut
pour 2millions de n-uplets représente une augmentation considérable!)
- création de nouveaux index, résumés
- ajout de nouveaux outils (générateurs de requêtes, outils OLAP, etc.)
- nouveaux utilisateurs
- complexité des requêtes

Comment garantir l'extensibilité, la disponibilité, la maintenabilité ?


42
Evolution

Les prototypes ne sont guère utiles (ne dépassent pas 20giga), les estimations
sont souvent erronées...
Trois aspects majeurs sont concernés :
la base de données doit être extensible, disponible (plus de batch),
facilement gérable (optimisation, indexation, gestion du disque
automatiques).
le middleware (gestionnaire de transactions, gestionnaire d'accès,...)
doit être performant et cohérent. Là aussi, extensibilité, disponibilité,
facilité de gestion.
l'intégration des outils doit se faire avec un souci de compatibilité.
Les outils doivent être conformes au plus grand nombre de standards.

43
Problèmes ouverts dans les DW

• Alimentation des entrepôts : 1/3 de la taille du projet.


Simplifier le processus pour en alléger le coût.
• Maintenance : maintenir des vues matérialisées. Pb de
cohérence. Pb de mise à jour à travers les vues.
• Intégration de schéma : les différentes sources ont des
schéma différents, le DW doit avoir un schéma global
unique. Comment faire ?
• Effet taille : les DW grossissent "`à vue d'oeil" (victimes
de leur succès), vers des tera-octets. Comment gérer cela ?
Les solutions actuelles seront-elles viables ?
• Coût d'un DW prohibitif pour les petites entreprises.
Commencer par ne faire que des data-marts et les intégrer
peu à peu...
44

Vous aimerez peut-être aussi