Vous êtes sur la page 1sur 3

Normalisation clustering :

La normalisation égalise le poids de chaque dimension dans le but d'éviter que les variables ayant de
grandes valeurs soient considérées plus importantes que les variables ayant des valeurs moins
grandes, d'où l'importance de l'application au préalable de certains algorithmes de clustering.

La normalisation est une méthode de prétraitement des données qui permet de réduire la
complexité des modèles. C’est également un préalable à l’application de certains algorithmes.

car elle égalise le poids de chaque dimension, c’est-à-dire de chaque descripteur. A l’inverse, elle
est à proscrire pour l’utilisation d’autres algorithmes, par exemple l’analyse en composantes
principales (PCA), justement fondée sur l’importance relative de chaque dimension. Enfin la
normalisation n’a pas d’utilité pour certains algorithmes basés sur des seuils comme les arbres de
décisions car elle ne modifie pas le résultat.

travail est de proposer plusieurs mesures de dispersion d'une variable décrite par des intervalles.
On pourra en particulier utiliser ces mesures de dispersion pour normaliser le tableau de
données intervalles ou encore de manière équivalente la distance utilisée dans l'algorithme de
classification. MOTS-C ES : Données symboliques intervalles, standardisation, distance
normalisée, classification.

Le poids de chaque dimension de l’ensemble de données est différent de l’autre, chaque dimension
se trouve dans un intervalle différent. Par conséquent, les attributs ayants des grandes valeur
devienne plus considérable que les attributs ayant des valeurs plus petite.

La solution de ce problème est de faire un prétraitement des données précisément la


Standardisation de données qui égalise le poids de chaque dimension afin d’ assurer
l’indépendance par rapport aux unités de mesures

Égaliser le poids des variables pour assurer l’indépendance par rapport aux unités de mesures

égalise le poids de chaque dimension Standardisation


Les clusters sont produits dans les algorithmes de clustering hiérarchique en divisant itérativement
les modèles en utilisant une approche descendante ou ascendante. Le clustering agglomérant et le
clustering diviseur sont deux types de méthodes hiérarchiques [32]. La méthode agglomérative
utilise une technique ascendante, en commençant par un seul élément et en fusionnant
progressivement ces clusters atomiques dans des clusters de plus en plus grands jusqu'à ce que tous
les objets soient finalement regroupés dans un seul cluster ou jusqu'à ce que des circonstances de fin
spécifiées soient remplies. La stratégie descendante est utilisée dans le clustering hiérarchique
diviseur, qui divise un cluster contenant tous les éléments en clusters plus petits jusqu'à ce que
chaque objet forme son propre cluster ou réponde à des circonstances de terminaison spécifiées.

grands jusqu'à ce que tous les objets soient finalement regroupés dans un seul cluster ou jusqu'à ce
que des circonstances de fin spécifiées soient remplies.

jusqu'à ce que tous les objets se trouvent finalement dans un seul cluster ou jusqu'à ce que certaines
conditions de fin soient satisfaites

, jusqu’à ce que tous les objets se trouvent finalement dans un seul groupe ou autrement jusqu’à ce
que certaines conditions de terminaison soient remplies

Algorithmes de clustering basé sur la densité :


Les algorithmes de clustering basés sur la densité reposent sur la notion de densité pour identifier
des clusters de formes et de tailles arbitraires avec des densités variables, ce qui permet d’assurer
l'isolement des bruits et d’éviter la formation de clusters non pertinents. La densité est définit
comme le nombre d’objets de données se trouvent dans un voisinage bien déterminer des autres
objets . Dans cette approche, un cluster basé sur la densité est un ensemble de données répartis
dans l'espace de données sur une zone contiguë de de densité plus élevée de données, séparée
d'autres clusters par des zones contiguës de faible densité de données. Ces algorithmes de clustering
ne nécessitent pas le nombre de clusters comme paramètres d'entrée.
Une collection de données est partitionnée en un ensemble de clusters distincts en utilisant le
clustering partitionnel. Une méthode de partitionnement crée K (N k) partitions d'un ensemble de
données de N points, chaque partition représentant un cluster. C'est-à-dire qu'elle divise les données
en K groupes sur la base des critères suivants : (1) chaque groupe possède au moins un point, et (1)
chaque point appartient à un seul groupe. Il convient de noter qu'un point peut appartenir à plus
d'un groupe dans le partitionnement flou.

Le regroupement partitionnel décompose un ensemble de données en un ensemble de grappes


disjointes. Avec un ensemble de données de N points, une méthode de partitionnement construit
des partitions K (N K) des données, chaque partition représentant un cluster. Autrement dit, il classe
les données en groupes K en satisfaisant aux exigences suivantes : (1) chaque groupe contient au
moins un point, et (1) chaque point appartient exactement à un groupe. Notez que pour le
partitionnement flou, un point peut appartenir à plus d’un groupe

Vous aimerez peut-être aussi