Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
PRINCIPES
METHODES
CODAGE DE FREEMAN
DESCRIPTEURS STATISTIQUES
MOMENTS GEOMETRIQUES
CLASSIFICATION
1. Introduction
L’objectif : analyser le contenu des segments de l’image afin d’identifier les formes et les objets.
L'être humain commence à faire de la Reconnaissance des Formes (RdF) dés le jeune âge de l'enfance.
Dans l'histoire de l'humanité, les humains ont fait de la RdF en regardant les étoiles puis en les
regroupant en constellations.
Dans le domaine numérique, la RdF a commencée dans le traitement de la parole (traitement du signal)
pour déterminer les empreintes vocales des gens, puis, dans les images numériques:
- médecine: pour reconnaitre les organes et les pathologies,
- industrie: pour les processus de fabrication et dans le contrôle de la qualité,
- documentation: pour la reconnaissance automatique de l'écriture,
- biométrie: pour la reconnaissance des empreintes digitales,
- vidéosurveillance: pour la sécurité des personnes et des biens…
Dans notre étude on se focalise sur la vision et reconnaissance des formes ; c'est à dire la reconnaissance
à partir des images numeriques
2. Méthodes
La reconnaissance des formes nécessite un bon prétraitement d'image pour bien mettre en valeur les
objets à identifier ; par la suite choisir la methode qui parrait la plus adéquate.
Dans la majorité des cas, il faut commencer par définir un descripteur ou un attribut ou une texture, puis
essayer de le mesurer. Certaines méthodes se basent sur une base de données: c'est les techniques
supervisées. D'autres méthodes ne sont pas supervisées.
2
3 1
4 0
5 7
6
Exemple :
le code :
600244
Le code :
556000022442
4. Analyse statistique
4.1. coefficient de corrélation
Corrélation de l’objet étudier avec un objet d’une base de données (coûteuse en temps de calcul)
Ecart-type
Skewness
Kurtosis
Exemple :
Graphiquement : on place deux moments statistiques sur un place, avec l'axe des <<x>> pour le 1 er
moment et l'axe des <<y>> pour le 2e. On retient le chiffre manuscrit le plus proche du chiffre tapé.
5. Descripteurs géométriques
Moment central :
Moment d’ordre 0 :
µ00
Moment d’ordre 1 :
µ10 et µ01
Moments d’ordre 2 :
ϕ1=µ20+µ02
ϕ2=(µ20-µ02)2+4(µ11)2
Moments d’ordre 3 :
ϕ3=(µ30-3µ12)2+(3µ21-µ03)2
ϕ4=(µ30+µ12)2+(µ21+µ03)2
ϕ5=(µ30-3µ12)(µ30+µ12)((µ30+µ12)2-3(µ21+µ03)2)
+(3µ21-µ03)(µ21+µ03)(3(µ30+µ12)2-(µ21+µ03)2)
ϕ6=(µ20-µ02)((µ30+µ12)2-(µ21+µ03)2)+4µ11(µ30+µ12)(µ21+µ03)
ϕ7=(3µ21-µ03)(µ30+µ12)((µ30+µ12)2-3(µ21+µ03)2)
-(µ30-3µ12)(µ21+µ03)(3(µ30+µ12)2-(µ21+µ03)2)
Les Formules Numeriques en vision
avec xg et yg les coordonnees du centre de gravite de la forme (en supposant que la forme est une image
en blanc sur un fond en noir)
avec γ=1+(p+q)/2
ϕ01 = η0,1
ϕ10 = η1,0
6. La classification (clustering)
(methode des C-moyennes saptiale)
on choisit le nombre de classes, on fixe la 1ere classe : le 1er point, 2e point pour la 2e classe..., les
autres points pour la dernière classe,
on calcul pour chaque classe le centre de gravité,
on calcul les inerties intraclasse et interclasses
pour chaque classe, on calcul l'inertie intraclasse: Ia = Σ d2(p-g), p: les points de la classes et g: le centre
de gravité de la classe
on calcul la somme des Ia: Σ Ia
on calcul l'inertie interclasse: Ie = Σ d2(gi-gj), gi et gj: les respectives centres de gravité des classes,
on calcul le rapport (Σ Ia)/Ie qui doit être minimal
on refait les étapes jusqu'à le convergence (pour la dernière itération et celle qui la précède, on trouve le
même rapport (ΣIa)/Ie)
Exemple de Kmeans :
hypothese : data={1,2,5,8,10,11,15,16,17,20}
nb_cl = 2
calcul :
milieu = (1+2+5+8+10+11+15+16+17+20)/10 = 10.5
C1={1,2,5,8,10} C2={11,15,16,17,20}
G1=(1+2+5+8+10)/5 = 5.2 G2=(11+15+16+17+20)/5 = 15.8
milieu = (5.2 + 15.8)/2 = 10.5
C1={1,2,5,8,10} C2={11,15,16,17,20}
Exemple 3 :
data : [[0,0],[0,1],[1,2],[2,2],[2,3],[2,6],[5,6],[5,7],[6,5],[2,1]]
nb_cl=3
La classificationFCM
La classification iFCM
LES RESEAUX DE NEURONES ARTIFICIELS
INTRODUCTION
La complexité des systèmes usuels a poussé l’être humain à concevoir des commandes et des modèles
de plus en plus performants et adaptables pour contrôler ses outils. L’une des constatation faite par
l’homme s’est focalisée sur son propre cerveau comme étant le meilleur modèle à imiter, ce qui l’a
amené à voir sa constitution biologique et son principal élément moteur de réflexion qui est le neurone
et tout le système neuronal d’où la terminologie de réseau de neurones ou réseau neuromimétique : RN.
Les grandes propriétés des réseaux de neurones sont la capacité d’adaptation et de généralisation, la
facilité de simulation et de développement, le parallélisme, la distribution de mémoire...pour cela on voit
l’évolution rapide des RN et l’incitation à son utilisation dans tous les domaines industriels, financier,
télécommunication, chimique... En plus les bons résultats fournis par les modèles de RN a permis de
sauvegarder leur efficacité environnementale et temporelle. Ainsi les RN sont devenus un outil
nécessaire et puissant pour énormément d’applications et de développement d’algorithmes de
commande, d’identification ou de modélisation, et on ne peut plus parler des RN sans évoquer leurs
applications.
Figure 1
Un neurone est composé de trois éléments fondamentaux :
le corps cellulaire : contient le noyau du neurone et effectue les transformations biochimiques nécessaire
à la synthèse des enzymes et des autres molécules qui assurent la vie du neurone. Ce corps fait quelques
microns de diamètre.
Les dendrites : se sont des fines tubulaires de quelques dixièmes de microns de diamètre et de quelques
dizaines de microns de longueur. Elles sont les récepteurs principaux du neurone pour capter les signaux
qui lui parviennent.
L’axone : c’est la fibre émettrice des signaux du neurone et est d’une longueur de plus d’un millimètre.
Les connexions des neurones : se font en des endroits appelés synapses où ils sont séparés par des
espaces synaptiques de l’ordre du centième de microns. [2] [4]
Schématisation du corps cellulaire comme sommateur à seuil :
Dendrites
Axone
Seuillage
Sommation
Figure 2
Le terme de réseaux de neurones regroupe aujourd’hui un certain nombre de modèles dont l’intention
est d’imiter certaines des fonctions du cerveau humain en reproduisant certaines de ses structures de
base.
Historiquement, les origines de cette discipline sont très diversifiées. En 1943, McCulloh et Pitts
étudièrent un ensemble de neurones formels interconnectés, et montrèrent leurs capacités à calculer
certaines fonctions logiques.
Modèle d’un neurone :
Eh
1
W1 y
Ehj Wj
Eh Wn
Figure 3
n
Avec la sortie y=f(EhjWj) et f : une fonction sigmoïde
Modèle d’un réseau de neurones :
A U U U B
1 1 3 7 1
U
U U B
A 4
U U 6 8 2
2
couche d’entrée
2 5couche cachée couche de sortie
Figure 4
Figure 5
Ce modèle suscita beaucoup de recherche, et sans doute trop d’espoirs. Quand ces deux
mathématiciens, Minsky et Papert, démontrèrent en 1969 les limites théoriques du perceptron, l’effet fut
presque immédiat : chercheurs et investisseurs se désintéressèrent des réseaux de neurones pour tourner
vers l’approche symbolique de l’intelligence artificielle, qui semblait beaucoup plus prometteuse.
Le renouveau actuel des réseaux de neurones est dû à des contributions originales, comme celle de
Hopfield en 1982, qui en montrant l’analogie des réseaux de neurones avec certains systèmes physiques,
a permis de leur appliquer un formalisme riche et bien maîtrisé. Tout de même la mémoire fondamentale
d’un réseau de Hopfield n’est pas toujours stable car il y a présence d’états indésirables (ou poubelles) et
des possibilités d’oubli catastrophique ; pour exploiter ces réseaux on utilise des considérations
probabilistes pour explorer l’instabilité.
Quelques années plus tard, en 1985, des nouveaux modèles mathématiques ont permis de dépasser les
limites du perceptron tel que le modèle de Kohenen, qui est très proche du modèle précité, et qui attribut
une variable d’état S à chaque neurone et son équation d’état dynamique est : , avec
E=Wiei : l’entrée du neurone et p : fonction sigmoïde. La stabilité de l’état du neurone (après plusieurs
Yj(k) dj(k)
Wij -1
Yi(k) ej
Neurone j
Figure 6
L’algorithme de rétropropagation, bien qu’il ait prouvé son efficacité pratique dans de nombreux
problèmes, présente un certain nombre de difficultés encore non résolues (combien de couches de
neurones pour dimensionner correctement un réseau, lourdeur de l‘algorithme pour des grands
problèmes,...)
D’autre modèles ont été mis récemment s’appuyant sur le renforcement de l’apprentissage (commande
de l’apprentissage renforcée : RLC) ou sur l’adaptation du processus (commande neuro-adaptitive :
ANMC) ou autre type de modèle qui ont donné de bon résultat.
Les modèles ne cessent de croître et les applications aussi mais c’est au dépend de l’importance des
calculateurs pour exécuter les algorithmes et leurs nombreuses itérations.