Académique Documents
Professionnel Documents
Culture Documents
Le monde a connu au cours des dernières années un agrandissement considérable des besoins en
télécommunications. Ceci est expliqué par une large démocratisation des smartphones et des objets
connectés et par le foisonnement des services multimédias. Tout cela impose aux opérateurs et aux
fournisseurs de contenus multimédias de moderniser les technologies qui soutiennent leurs réseaux,
pour continuer à garantir un certain niveau de qualité de service. Sur les réseaux mobiles, ces
évolutions ont donné lieu à une succession de générations de technologie. On est ainsi passé du
Global System for Mobile Communications (GSM) ,2ème génération de réseau mobile, à la Long Term
Evolution (LTE) , 4ème génération, entre les années 90 et les années 2010. Aujourd’hui le monde
prépare la 5G (5ème génération de réseau mobile). Elle comporte à l’heure actuelle plusieurs
exigences en termes de meilleur débit, de moindre latence, de garantie de bonne expérience
utilisateur, de support d’un nombre massif de connections, de support d’une grande diversité de
types de terminaux et d’efficacité énergétique. Plusieurs technologies accompagnent la 5G telles que
la Network Function Virtualization (NFV) qui permet de faire face au défi de performance, en termes
de « scalabilité », de réactivité et d’efficacité énergétique. La NFV consiste en l’utilisation
d’équipements informatiques standards, et non plus d’équipements dédiés très coûteux, pour
assurer les fonctions du réseau. Cela revient à amener l’intelligence des réseaux au niveau logiciel et
ainsi s’appuyer sur les techniques de virtualisation et de gestion de « Cloud » et de « Data center »
pour assurer les services réseau avec une certaine garantie de qualité.
La Data Science est un terme qui s’est démocratisé au cours de la dernière décennie. Elle est la
preuve de la prise de conscience de l’importance et du potentiel que comportent les données dans
tous les activités. Le développement de la Data Science en tant que discipline a été facilité par les
progrès récents dans la capacité à apprendre sur les données grâce à la miniaturisation des
processeurs, à l’évolution des technologies de stockage, au développement de nouvelles
architectures de traitement et à la sophistication des algorithmes d’apprentissage. C’est une
discipline qui inclut divers savoir-faire autour des données, tels que leur collecte(image, texte ,voix..),
leur gestion, leur modélisation(étiquetage manuel du données, leur apprentissage , leur visualisation
et leur intégration à un système d’intelligence artificielle(entrainement , apprentissage..)
La composante de la Data Science qui nous intéresse le plus dans le contexte de ce manuscrit est le
Machine Learning, en d’autres termes, l’apprentissage automatique. Le Machine Learning consiste à
apprendre des données, c’est-à-dire en extraire une connaissance qui se traduit sous la forme d’un
modèle, qu’on utilise pour comprendre, classifier ou prédire une mesure, un phénomène ou un
événement.
Ce projet est né pour montrer le potentiel intérêt de la Data Science pour la gestion des réseaux. Ce
manuscrit porte sur des cas d’utilisation concrets de la Data Science pour le réseau et sur la
proposition de nouveaux outils d’analyse et d’apprentissage de données, mais aussi de déploiement
de la Data Science en tant que service.
Les contributions entrent dans le cadre de l’insertion de la Data Science dans le réseau, soit par la
proposition de cas concrets d’utilisation, soit par la proposition d’outils facilitant l’analyse ou le
déploiement de moyens de traitement de données dans le réseau. Les contributions algorithmiques
sont la prédiction de la couverture et le débit des réseaux cellulaires 3G et 4G
Mesurer et contrôler la couverture, la qualité de service et le débit c’est pouvoir en apprécier la
réalité ou sa représentation. Que recouvrent les termes couverture ,qualité de service et le débit ?
Ces notions sont parfois confondues et nécessitent d’être définies pour en apprécier la portée. Alors
que la couverture est un indicateur disponible en tout point du territoire, notamment fondé sur des
simulations théoriques de propagation du signal (pouvant être ensuite vérifiées par des mesures de
terrain), la qualité de service est une notion à la fois technique et subjective qui peut être mesurée
par des tests plus ou moins lourds visant à établir in fine sa capacité à satisfaire l’utilisateur d’un
service sur le réseau mobile. Le débit est la quantité de données qui transite sur un réseau pendant
une durée déterminée, peut varier significativement au cours du temps, avec un effet non
négligeable sur la qualité d’expérience.
Nous avons réalisé une campagne de mesure de débit(RLC), niveau de signal(RSRP) et qualité de
signal(RSRQ) dans une zone impliquant plusieurs utilisateurs connectés au réseau 3G et 4G à
Monastir. Grâce aux données collectées, nous avons montré la capacité d’exploiter les mesures sur le
réseau de l’opérateur et sur le terminal mobile pour prédire avec précision le niveau de signal,
qualité de signal et le débit accessible. Cela a permis d’introduire des stratégies de coopération entre
le client, l’opérateur, et le fournisseur de contenu pour parvenir à une solution de livraison cognitive
de données multimédia.
Le document s’articule en trois chapitres .Le premier traite les réseaux de télécommunication, il
décrit l’évolution des réseaux télécommunication d’un passé récent à aujourd’hui. Ensuite l’analyse et
l’apprentissage de données (Chapitre 2), expose les stratégies proposées dans la littérature pour
intégrer la notion de Data Science dans la gestion des réseaux et traite des contributions algorithmes
à savoir le modèle de prédiction.
Le réseau cellulaire est un type de réseau d’accès qui est apparu au début des années 1971. Son
principe est d’assimiler les zones géographiques à couvrir à des cellules de plusieurs kilomètres de
rayon. Chaque cellule comporte une antenne jouant le rôle d’émetteur-récepteur pour communiquer
avec les terminaux mobiles des utilisateurs grâce à des ondes radioélectriques communément
qualifiées de « radio » tout court. Derrière chaque antenne se trouve une station de base qui gère le
fonctionnement de l’antenne, qui sont reliées à d’autres équipement du réseau d’accès radio qui les
contrôlent et les gère conjointement afin d’assurer les « handover » : le transfert intercellulaire
quand un utilisateur mobile en déplacement passe d’une cellule à une autre.
La 1 ère génération (1G) : C'est l'ancien Radio com 2000 de France Télécom.
La 2 -ème génération (2G) : GSM (Global System for Mobile Communication) qui fonctionne
toujours
La 2.5G : C’est le GPRS (Global Packet Radio Service), premier réseau pour les données.
La 2.75G : C'est la norme EDGE (Enhanced Data Rate for GSM Evolution).
La 3 -ème génération (3G) : C'est l'UMTS, la principale norme 3G utilisée en Europe.
La 3.5G ou 3G+ : Norme HSPA (High Speed Pocket Access) une évolution de l'UMTS.
La 3.75G ou 3G++ : Toujours une évolution de l'UMTS, c'est la norme HSPA+ (High Speed
Pocket Access +). Il existe aussi une petite évolution avec le DC-HSPA+ (Dual-Carrier High
Speed Pocket Access +).
La 4 -ème génération (4G) : Parfois appelée par les puristes la 3.9G, cette nouvelle
génération utilise la norme LTE (Long Term Evolution). La 4G constitue la quatrième
génération des technologies de la téléphonie mobile. Elle repose sur la nouvelle norme « LTE
» ou Long Terme Evolution, et succède directement à la technologie 3G et à la 3G+, qui se
fondaient quant à elles sur les normes UMTS et HSDPA
La 5G est une norme de réseau de téléphonie mobile. Elle succède à la quatrième
génération, débits plus importants et une latence fortement réduite, tout en évitant le
risque de saturation des réseaux lié à l'augmentation des usages numériques.
Le réseau 2G, déployé en 1982 reste toujours actif, actuellement c’est le réseau le plus étendu en
France avec plus de 99% de couverture territoriale sur l'ensemble des opérateurs. Il représente le
passage de l’analogique au numérique.
La 2G est suffisante pour appeler et envoyer des SMS voire des MMS légers. Ce réseau par ailleurs
précurseur dans le transfert de données par paquets. Les débits généralement observés en 2G sont
de 9.6Kbits/s.
2 Le réseau GPRS :
Le réseau GPRS (General Packet Radio Service), aussi appelé 2,5G, offre une amélioration notable en
matière de débit par rapport à la 2G (171,2Kbits/s théorique, 40Kbits/s généralement en pratique).
Le standard GPRS est précurseur sur l'internet mobile.
Le GPRS et la 2G sont diffusés sur les bandes de fréquences 900 MHz et 1800 MHz.
3 Le réseau EDGE :
Evolution du GPRS, le réseau EDGE utilise en émission des bandes de fréquences comprises entre 876
MHz et 915 MHz, contre 921 MHz et 960 MHz en réception. Le réseau EDGE, aussi appelé 2,75G, a
permis la transition entre la 2G et la 3G via des débits pouvant atteindre 384Kbits/s en théorie et
100Kbits/s en pratique. L'EDGE a été développé dans le but d'optimiser la partie radio du réseau
mobile au niveau des données et d'améliorer les débits de téléchargements.
4 La troisième génération des réseaux mobiles (3G) :
La 3G a été conçu pour permettre des diverses applications sur le mobile comme la vidéo et
améliorer la QoS (Qualité Of Service) du MultiMedia.
Certain abonné peut profiter du débit selon le lieu d'utilisation et la vitesse de déplacement :
Avec un débit théorique de 150Mbits/s et un débit pratique de 40Mbits/s, la 4G ou LTE (Long Term
Evolution) donne aux usagers l'opportunité de surfer à très grande vitesse. L'utilisation des bandes de
fréquences dépend de l'opérateur : tous utilisent le 2600 MHz. Le 800 MHz est employé par tous les
opérateurs excepté Free, qui emploie le 700 MHz. La 4G s’appuie sur un réseau de transport à
commutation par paquet IP.
Aujourd'hui, tous les opérateurs proposent des forfaits 4G. Sa couverture est d'ailleurs très complète
et similaire à la 3G. La 4G permet de transférer des fichiers lourds, visionner des vidéos en HD, "live
streamer"…
6 Le réseau 4G+ :
Comme le GSM et l'UMTS, la norme LTE a connu des évolutions qui ont abouti au développement de
la 4G+. Les débits pouvant atteindre 1Gbit/s à l'arrêt et 100Mbits/s en mouvement. Aujourd'hui,
toutes les zones urbaines du monde sont bien couvertes par la 4G+.
La 5G :
La technologie 5G donne accès à des débits dépassant largement ceux de la 4G, avec des temps de
latence très courts et une haute fiabilité. Elle vise à supporter jusqu'à un million de mobiles au
kilomètre carré (dix fois plus que la 4G). Une fois déployée, elle doit permettre des débits de
télécommunications mobiles de plusieurs gigabits de données par seconde.
Mesure de la puissance d’un signal reçu par le terminal client sur la bande de fréquence concerné.
Mesure la puissance du signal de référence reçu par le terminal client en provenance d’une station
de base.
Mesure de qualité de la réception du signal obtenue d’un ratio entre le RSRP et le RSSI.
Mesure de la qualité de l’onde radio reçue par un téléphone mobile, utilisé dans les réseaux 3G et
4G.
Drive testing
1. Définition
2. types de QoS
L’UIT-T unifie les définitions et clarifie les différents types de QoS suivants :
La QoS intrinsèque
La QoS intrinsèque correspond au type de QoS désigné par la définition de l’IETF. Il s’agit de la QoS
émanant de la capacité du réseau.
La QoS réalisée
La QoS peut être borné à une certaine limite à cause de divers facteurs. Le niveau atteint est appelé
la QoS réalisée.
La QoS perçue
Est celle que perçoit le client, au vue de la QoS réalisée et de divers facteurs extérieurs influençant
son ressenti.
3. Paramètres de QoS
La qualité de service se mesure grâce à des paramètres classiques tels que, la capacité d’un lien, la
bande passante disponible, le débit, la latence, et le taux perte de paquets.
Indique la quantité maximale de données en fonction de temps. Il s’agit d’une propriété du lien,
donc d’un paramètre de QoS intrinsèque, qui dépend aussi bien de ses propriétés physiques que de
sa configuration. Le gestionnaire du lien peut délibérément décider de limiter cette capacité en
jouant sur la configuration logicielle.
Elle se rapporte à la capacité inutilisée en fonction du temps. Elle dépend de la quantité de données
qui y circule effectivement et du temps. Il est bon de différencier la bande passante d’un lien de la
bande passante d’un chemin.
Débit effectif
C’est est la quantité de trafic maximale pouvant être transportée par un flux sur le lien considéré sur
une période de mesure. Un débit calculé sur une connexion TCP qui a saturé le lien sur la période de
mesure va donc refléter la quantité de données que l’on peut faire transiter par unité de temps sur le
lien quand il se trouve dans les mêmes conditions que lors de la période de mesure.
Latence
La latence dans les réseaux c’est le temps total nécessaire à la transmission d’un paquet entre sa
source et sa destination. Les conséquences de la latence sont particulièrement visibles pour tous les
services qui fonctionnent en temps réel : transmission vidéo, communication vocale, applications
interactives de type jeux-vidéo, etc.
Il correspond au nombre de paquets qui n’arrivent pas correctement jusqu’à leurs destinations. Ce
phénomène peut être principalement causé par deux facteurs.
La qualité de service (QoS) de la LTE est devenue une partie nécessaire de la planification et de la
conception du réseau 4G / LTE pour les services de données et de voix. Il existe des abonnés qui
utilisent des services LTE pour les opérations critiques (par exemple, les appels vocaux, les
transactions bancaires, les opérations hospitalières), et il y a des abonnés qui souhaitent simplement
profiter d'une expérience supérieure sur Internet et applications.
LTE a été conçu pour répondre à ces demandes accrues de données et d'applications avec des
connexions fiables et un faible coût de déploiement.
Conclusion :
Dans ce chapitre, nous avons présenté un aperçu sur les différentes normes téléphoniques et
leurs évolutions permettant de comprendre le fonctionnement actuel des réseaux d’opérateur,
ainsi que leur évolution et le concept de qualité de service et ses composantes.
Chapitre 2
Analyse et apprentissage automatique de
données
I. L’apprentissage automatique
L’apprentissage automatique, plus connu sous son appellation anglophone Machine Learning, est un
champ d'étude de l'intelligence artificielle qui vise à donner aux machines la capacité d'apprendre à
partir de données, via des modèles mathématiques, des algorithmes.
Les paragraphes suivants présentent chacune d’elles à savoir : l’apprentissage supervisé, non
supervisé, semi-supervisé et par renforcement.
1. Apprentissage supervisée
Un apprentissage supervisé est le paradigme d'apprentissage le plus populaire en Machine Learning
et en Deep Learning, consiste à mettre en face à face un groupe de variables
appelés variables explicatives ou prédicteurs et un autre en général constitué d’une seule
variable, appelée variable cible ou à prédire. L’objectif, est d’apprendre le lien
entre les variables explicatives et la variable à prédire grâce à des algorithmes d’optimisation et de le
traduire sous forme de modèle.
Chaque individu est affecté à la classe dont le centre est le plus proche au sens de la distance
euclidienne qui est notre métrique.
On calcule les coordonnées des k centres des classes ainsi constituées.
3. Apprentissage semi-supervisé
Ce sont les méthodes qui s’inspirent à la fois de l’apprentissage supervisé et du non
supervisé pour s’adapter à certaine situation.
L'apprentissage semi-supervisé consiste à entraîner un (ou plusieurs) modèle(s) en incorporant les
données non labellisées à l'ensemble d'apprentissage .
Cette approche utilise un algorithme d’optimisation pour estimer les coefficients β . Ainsi, l’équation
obtenue permet pour tout nouvel individu d’effectuer une prédiction notée Y. L’avantage d’un modèle
linéaire est la simplicité et la rapidité. Par contre, il peut être moins performant quand on est en face de
relations trop complexes entre variables explicatives et variables à expliquer ou en face de trop de
valeurs extrêmes ou « outlier ».
2. Random Forest
Il s’agit d’une extension des arbres de décision ou de régression. Le principe de fonctionnement est le
suivant :
Premièrement, un ensemble d’arbres est construit à partir d’un nombre réduit de prédicteurs choisis
aléatoirement, et en second lieu, les prédictions issues de tous les arbres sont agrégées. Chaque arbre
est construit à partir d’un échantillon bootstrap et d’un nombre restreint de prédicteurs choisi
aléatoirement. L’ensemble des arbres de régression est appelé forêt aléatoire (random forest). La
prédiction considérée est la moyenne des sorties de chaque arbre dans le cas d’une régression. Un
modèle Random Forest est assez flexible pour capturer des relations complexes entre les prédicteurs et
la variable à prédire. De plus, le Random Forest n’est pas sujet au sur-apprentissage et les valeurs
aberrantes n’impactent pas considérablement sa performance.
Figure : Représentation graphique de KNN où le carré vert représente la donnée X à classifier. Si k est
fixé à 3 X sera classé comme un rond bleu par vote majoritaire. Si k est fixé à 5 X sera classé comme
un triangle rouge.
5. Le SVM
Appartient à la catégorie des classificateurs linéaires (qui utilisent une séparation linéaire des
données), et qui dispose de sa méthode à lui pour trouver la frontière entre les catégories. Pour que
le SVM puisse trouver cette frontière, il est nécessaire de lui donner des données d’entraînement. En
l’occurrence, on donne au SVM un ensemble de points, dont on sait déjà si ce sont des carrés rouges
ou des ronds bleus, comme dans la Figure suivante. A partir de ces données, le SVM va estimer
l’emplacement le plus plausible de la frontière: c’est la période d’entraînement, nécessaire à tout
algorithme d’apprentissage automatique. Une fois la phase d’entraînement terminée, le SVM a ainsi
trouvé, à partir de données d’entraînement, l’emplacement supposé de la frontière. En quelque
sorte, il a «appris» l’emplacement de la frontière grâce aux données d’entraînement. SVM est
maintenant capable de prédire à quelle catégorie appartient une entrée qu’il n’avait jamais vue
avant, et sans intervention humaine comme c’est le cas avec le triangle noir dans la Figure.
Le naïve Bayes classifier se base sur le théorème de Bayes qui est un classique de la théorie des
probabilités. Ce théorème est fondé sur les probabilités conditionnelles.
Exemple :
Supposons qu’on ait une classe de lycéens. Soit A et B les deux événements suivants :
P(élève est une fille ET élève pratique l ’ allemand)=P ( élève est une fille ) × P(élève pratique l ’ allemand ¿ est u
√
n
1
RMSE= ∑ ( ^y i− y i ) ❑
2
n i=1
d) Erreur absolue moyenne (MAE pour Mean Absolute Error)
Il s’agit de la moyenne arithmétique des valeurs absolues des écarts entre les valeurs prédites et les
valeurs observées.
n
1
MAE= ∑ |^y ⅈ− y i|
n L̇=1
Conclusion :
Dans ce chapitre, nous revenons sur la notion de représentation de données .D’abord, nous présentons
les méthodes d’apprentissage classées par leur type déterminé selon leur finalité. Ensuite nous faisons
un focus sur l’apprentissage supervisé qui a le plus servi au cours de nos travaux.
Chapitre 3
Conception
1. Introduction UML :
UML (Unified Modeling Language) est un langage de modélisation orientée objet développée en
réponse à l’appel à propositions lancé par l’OMG (Object Management Group) dans le but de définir
la notation standard pour la modélisation des applications construites à l’aide d’objets. Il est hérité de
plusieurs autres méthodes telles qu'OMT1 (Object Modeling Technique) et OOSE2 (Object Oriented
Software Engineering) ET Booch. Les principaux auteurs de la notation UML sont Grady Booch, Ivar
Jacobson et Jim Rumbaugh.
UML est utilisé pour spécifier un logiciel et/ou pour concevoir un logiciel. Dans la spécification, le
modèle décrit les classes et les cas d’utilisation vus de l’utilisateur final du logiciel. Le modèle produit
par une conception orientée objet est en général une extension du modèle issu de la spécification.
Il enrichit ce dernier de classes, dites techniques, qui n’intéressent pas l’utilisateur final du logiciel
mais seulement ses concepteurs. Il comprend les modèles des classes, des états et d’interaction. UML
est également utilisée dans les phases terminales du développement avec les modèles de réalisation et
de déploiement.
UML est un langage utilisant une représentation graphique. L’usage d’une représentation graphique
est un complément excellent à celui de représentions textuelles. En effet, l’une comme l’autre est
ambiguës mais leur utilisation simultanée permet de diminuer les ambiguïtés de chacune d’elle. Un
dessin permet bien souvent d’exprimer clairement ce qu’un texte exprime difficilement et un bon
commentaire permet d’enrichir une figure. Il est nécessaire de préciser qu’un langage tel qu’UML ne
suffit pas à produire un développement de logiciel de qualité à toute seule. En effet, UML est un
ensemble de formalismes permettant d’appréhender un domaine et de le modéliser.
UML 2.0 comporte ainsi treize types de diagrammes représentant autant de vues distinctes pour
représenter des concepts particuliers du système. Ils se répartissent en deux grands groupes :
Ces diagrammes, d’une utilité variable selon les cas, ne sont pas nécessairement tous produits à
l’occasion d’une modélisation. Les plus utiles pour la maîtrise d’ouvrage sont les diagrammes
d’activités, de cas d’utilisation, de classes, d’objets, de séquence et d’états transitions. Les
diagrammes de composants, de déploiement et de communication sont surtout utiles pour la
maîtrise d’œuvre à qui ils permettent de formaliser les contraintes de la réalisation et la solution
technique.
Notre future application mobile aura comme objectifs de prédire le débit (RLC), niveau de signal
(RSRP) et qualité de signal (RSRQ), en utilisant des mesures recueillies sur le réseau de l’opérateur et
sur les terminaux mobiles des utilisateurs, avant d’établir une connexion. L’analyse de ces données
montre qu’il est effectivement possible d’exploiter ces mesures pour prédire le débit, niveau de
signal et qualité de signal réalisable avec une précision acceptable. Cela a permis d’élaborer des
stratégies de coopération entre le terminal mobile, le réseau d’opérateur et le réseau de diffusion de
contenu
Acteurs et cas d'utilisation sont les concepts UML fondamentaux pour la spécification des exigences.
Dans cette section, nous les identifierons à partir de l'expression initiale des besoins de notre
étude de cas. Nous structurerons, relierons et classerons ensuite ces cas d'utilisation et élaborerons
les représentations graphiques UML associées.
Un acteur représente un rôle joué par une entité externe (utilisateur humain, dispositif matériel ou
autre système) qui interagit directement avec le système étudié. Il peut consulter et/ou modifier
directement l'état du système, en émettant et/ou en recevant des messages susceptibles d'être
porteurs de données.
Dans le cas de notre système, nous avons identifié principalement deux (02) acteurs en interaction
avec celui-ci :
Un cas d'utilisation (use case) représente un ensemble de séquences d'action qui sont réalisées par
le système et qui produisent un résultat observable intéressant pour un acteur particulier. Il permet
de décrire ce que le futur système devra faire, sans spécifier comment il le fera.
Reprenons un à un les deux acteurs et listons les différentes façons qu'ils ont d'utiliser le futur
système.
L’abonné :
- Consulter la page d’accueil
- Saisir les données
- Consulter les résultats
Le cas d'utilisation authentification est un cas qui doit être réalisé afin de permettre à chaque
acteur d'exécuter ses propres cas d'utilisation. Ce cas d'utilisation est qualifié de « fragment » ; il ne
représente pas un objectif à part entière de l'acteur, mais plutôt un objectif de niveau intermédiaire .
Sommaire d’identification
Titre du cas d'utilisation L'authentification
Post conditions L'utilisateur est authentifié et accède aux fonctionnalités qui lui
sont dédiées.
Table : Description textuelle du cas d'utilisation Authentification.
Figure : Diagramme de cas d'utilisation
b. Diagrammes de séquence :
L'objectif des diagrammes de séquence est de représenter les interactions entre les objets en
indiquant la chronologie des échanges. Cette représentation peut se réaliser par cas d'utilisation en
considérant les différents scénarios associés.
Dans ce qui suit, nous représentons le diagramme de séquence d'un scénario représentatif de
chacun des cas d'utilisation décrits précédemment.
o gain de précision
o gage de stabilité
o Il cadre l'analyse.
La mise en pratique d'UML nécessite un apprentissage et passe par une période d'adaptation.
la nécessité de s'accorder sur des modes d'expression communs est vitale en informatique.
UML n’est pas à l'origine des concepts objets, mais en constitue une étape majeure, car il unifie les
différentes approches et en donne une définition plus formelle.
Le processus (non couvert par UML) est une autre clé de la réussite d'un projet.
l'intégration d'UML dans un processus n'est pas triviale et améliorer un processus est une tâche
complexe et longue.
Les auteurs d'UML sont tout à fait conscients de l'importance du processus, mais l'acceptabilité
industrielle de la modélisation objet passe d'abord par la disponibilité d'un langage d'analyse objet
performant et standard.