Académique Documents
Professionnel Documents
Culture Documents
THESE
Présentée pour l’obtention du grade de DOCTEUR EN SCIENCES
En : électronique biomédicale
Sujet
A mon père que je le remercie énormément pour ces efforts, ces conseils et sa
surveillance.
A mon rayon de soleil qui rayonne ma vie, mon petit trésor ZAKARIA
MANSOURIA
i
Remerciement
Je tiens à remercier avant tous, le bon Dieu qui ma a donné la force et la
patience tout au long de la préparation de cette thèse.
Je tiens aussi à remercier les membres du jury qui m’ont fait l’honneur de
participer à l’examen de ce travail :
ii
Résumé
Actuellement, il existe beaucoup de travaux dans le domaine des réseaux de
neurones artificiels (RNAs)qui sont liés au traitement des différents problèmes de
classification des données médicales. Ceci est dû à leur simplicité et leur propriété
d'approximation universelle et la capacité du traitement parallèle de l'information. Ces
propriétés font que ces réseaux sont de plus en plus utilisés dans les systèmes de
diagnostic médical automatisés, là où des méthodes classiques ont échoué.
Les réseaux de neurones présentent une grande diversité. En effet un type de réseau
neuronal est défini par sa topologie, ses paramètres et son algorithme d’apprentissage.
Jusqu'à présent, il existe plusieurs problèmes qui restent difficile à résoudre. Ces
problèmes associés généralement à l’apprentissage, au choix d’architecture,
àl’ajustement des paramètres et au cratérisation du vecteur d’entrée.
La problématique traitée dans le cadre de ce travail de thèse s'inscrit dans ce
contexteet portesur la résolution des différents problèmes liés aux
classifieursneuronaux comme : le choix d’architecture du classifieur, la présence des
minima locaux lors de l’apprentissage et la sélection des variables pertinentes du
vecteur d’entrée par l’hybridation des RNAs avec les algorithmes génétiques (AGs).
Néanmoins, même les AGs, présententquelques difficultés dues au phénomène de
processus aléatoire.
Dans le cadre de cette thèse plusieurs contributions ont été effectuées : apprentissage
paramétrique et structurel des RNAs et la sélection des variables pertinentes par
hybridation avec les AGs et une dernière contribution qui concerne l’apprentissage
génétique à deux phases pour résoudre le problème de processus aléatoire des
algorithmes génétiques.
Plusieurs bases de données médicales ont été utilisées : MIT-BIH , BUPA, BREASTW,
HEPATITS etPIMa.
Les travaux menés durant cette thèse ont permis d'apporter une contribution
importante sur l’amélioration des performances des classifieurs neuronaux médicaux.
Plusieurs problèmes ont été traités et les résultats obtenus sont très prometteurs.
iii
Abstract
Currently, there were many works in the neural networks domain associated with
different classification problems of data medical.This is due to their simplicities, their
universal approximation properties and the capacity of the information processing in
the same time.
These properties make that these networks are more and more used to realize an
automated medical diagnosis systems, where classical methods have failed.
The neural networks present a big diversity.In fact a type of neural network is defined
by its topology, its parameters and its learning algorithm.
Until now, there are several problems which remain difficult to solve.These problems
associated generally to the learning, of architectural choices,at the adjustment of
parameters and cratering of the input vector.
The problematic addressed in this PhD thesis is enrolling in this context and focuses on
solving various problems related to neural classifiers like: the choice of the classifier
structure , the presence of local minima during learning and the selection of the relevant
variables of the input vector by hybridization of RNAs with genetic algorithms (GAs).
Nevertheless, even evolutionists systems present a major problem due to their random
process.
In this thesis several contributions are made: parametric learning of RNAs by AG;
structural learning, selection of relevant variables and genetic learning in two-phase
process to solve the problem of random genetic algorithms.
Several medical databases were used: MIT-BIH, BUPA, BREASTW, HEPATITS and PIMa
The work done during this thesis allowed making an important contribution on the
improvement of the performances of the medical neuronal classifiers. Several problems
have been treated and the results are very promising.
Key words,;neural networks, genetic algorithms, neuro-genetic classifiers, structural
and parametric learning, selection of the variables
iv
ﻣﻠﺧص
ﺧﻼل اﻟﻌﻘدﯾن اﻟﻣﺎﺿﯾﯾن ،ھﻧﺎك اﻟﻛﺛﯾر ﻣن اﻷﻋﻣﺎل و اﻟﺑﺣوث ﻓﻲ ﻣﺟﺎل اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ اﻻﺻطﻧﺎﻋﯾﺔ اﻟﻣﺗﻌﻠﻘﺔ ﺑﻣﺧﺗﻠف ﻣﺷﺎﻛل ﺗﺻﻧﯾف
اﻟﻣﻌﻠوﻣﺎت اﻟطﺑﯾﺔ ،و ھدا راﺟﻊ ﻟﺑﺳﺎطﺗﮭﺎ و ﻗدرﺗﮭﺎ ﻋﻠﻰ ﻣﻌﺎﻟﺟﺔ اﻟﻣﻌﻠوﻣﺔ اﻟﻣوازﯾﺔ .ھده اﻟﺧﺻﺎﺋص ﺗﺟﻌل اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ ﻛﺛﯾرة
اﻻﺳﺗﺧدام ﻓﻲ اﻟﺗﺷﺧﯾص اﻟطﺑﻲ اﻵﻟﻲ ﺣﯾت ﻓﺷﻠت اﻟطرق اﻟﺗﻘﻠﯾدﯾﺔ.
ﺧﺻﺎﺋص اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ ﻣﺗﻧوﻋﺔ ،ﺣﯾت أن ﻧﻣوذج اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ ﯾﺗﻣﺛل ﻓﻲ اﻟﺷﻛل )اﻟﺑﻧﯾﺔ اﻟﻣﻌﻣﺎرﯾﺔ( ،ﺧوارزﻣﯾﺔ اﻟﺗﻌﻠم ،ﻗوى
اﻷوزان.
إﻟﻰ ﺣد اﻵن ﯾوﺟد اﻟﻌدﯾد ﻣن اﻹﺷﻛﺎﻟﯾﺎت اﻟﻌﺎﻟﻘﺔ ﻓﻲ اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ اﻻﺻطﻧﺎﻋﯾﺔ ھده اﻹﺷﻛﺎﻟﯾﺎت ﺗﺗﻌﻠق ﺑﺎﻟﺗﻌﻠم ،اﺧﺗﯾﺎر اﻟﺷﻛل )اﻟﺑﻧﯾﺔ
اﻟﻣﻌﻣﺎرﯾﺔ( و ﺗﻌدﯾت إﺷﺎرات اﻟدﺧول.
ﻓﻲ ﺳﯾﺎق ھده اﻷطروﺣﺔ ﻧﻘف أﻣﺎم إﺷﻛﺎﻟﯾﺔ ﺗﺣﺳﯾن أداء اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ اﻻﺻطﻧﺎﻋﯾﺔ )اﺧﺗﯾﺎر اﻟﺑﻧﯾﺔ اﻟﻣﻌﻣﺎرﯾﺔ اﻟﻣﺛﺎﻟﯾﺔ ،ﺗﺣدﯾد اﻟﺣد
اﻷدﻧﻰ اﺧﺗﯾﺎر إﺷﺎرات اﻟدﺧول( ﻋن طرﯾق اﻟﺧوارزﻣﯾﺔ اﻟﺟﯾﻧﯾﺔ وﻟﻛن ﺣﺗﻰ ب اﻟﺧوارزﻣﯾﺔ اﻟﺟﯾﻧﯾﺔ ھﻧﺎك إﺷﻛﺎﻟﯾﺔ اﻟﻌﺷواﺋﯾﺔ
ﻓﻲ ﻣﺧﺗﻠف اﻟﻣراﺣل.
ﻓﻲ ھده اﻷطروﺣﺔ ،اﻗﺗرﺣﻧﺎ اﻟﻌدﯾد ﻣن اﻟﺣﻠول اﻟﻣﺗﻣﺛﻠﺔ ﻓﻲ ﺗﺣدﯾت ﻗوى اﻷوزان ،اﺧﺗﯾﺎر اﻟﺑﻧﯾﺔ اﻟﻣﻌﻣﺎرﯾﺔ اﻟﻣﺛﺎﻟﯾﺔ و اﺧﺗﯾﺎر إﺷﺎرات
اﻟدﺧول اﻟﻣﺛﺎﻟﯾﺔ و دﻟك ﻋن طرﯾق ﺗطﺑﯾق اﻟﺧوارزﻣﯾﺔ اﻟﺟﯾﻧﯾﺔ .ﻛم اﻗﺗرﺣﻧﺎ طرﯾﻘﺔ اﻟﺗﻌﻠﯾم اﻟﺟﯾﻧﻲ ﻓﻲ ﻣرﺣﻠﺗﯾﻧﺎ ﻟﺣل ﻣﺷﺎﻛل
اﻟﻌﺷواﺋﯾﺔ اﻟﻣوﺟودة ﻓﻲ اﻟﺧوارزﻣﯾﺔ اﻟﺟﯾﻧﯾﺔ.
اﻟﻌﻣل اﻟﻣﻧﺟز ﺧﻼل ھده اﻷطروﺣﺔ ﯾﺳﻣﺢ ﺑﺗﻘدﯾم ﻣﺳﺎھﻣﺔ ﻛﺑﯾرة ﻓﻲ ﺗﺣﺳﯾن أداء اﻟﻣﻌﯾدات اﻟطﺑﯾﺔ اﻵﻟﯾﺔ و ﻣﻌﺎﻟﺟﺔ اﻟﻌدﯾد ﻣن اﻟﻣﺷﺎﻛل و
ﺗﺣﺻﻠﻧﺎ ﻋﻠﻰ ﻧﺗﺎﺋﺞ واﻋدة ﺟدا.
ﻛﻠﻣﺎت ﻣﻔﺗﺎﺣﯾﮫ :اﻟﺷﺑﻛﺔ اﻟﻌﺻﺑﯾﺔ اﻻﺻطﻧﺎﻋﯾﺔ ،اﻟﺧوارزﻣﯾﺔ اﻟﺟﯾﻧﯾﺔ ،ﻣﺻﻧف ﻋﺻﺑﻲ-ﺟﯾﻧﻲ ،اﺧﺗﯾﺎر اﻟﺑﻧﯾﺔ اﻟﻣﻌﻣﺎرﯾﺔ ; ﺗﺣدﯾت ﻗوى
اﻷوزان ; اﺧﺗﯾﺎر إﺷﺎرات اﻟدﺧول اﻟﻣﺛﺎﻟﯾﺔ
v
Table des matières
Introduction ............................................................................................................... 1
Chapitre1 Etat de l’art ................................................................................................. 4
1.1 Notions de base d’apprentissage ..................................................................................................................... 4
1.1.1 Quelques définitions d’apprentissage artificiel ................................................................................ 4
1.1.2Notions de base .............................................................................................................................................. 5
1.1.3Types d’apprentissage artificiel ...............................................................................................................6
1.1.3.1 Apprentissage lié aux données manipulées ............................................................................. 6
A. Apprentissage symbolique .................................................................................................................... 6
B. Apprentissage numérique..................................................................................................................... 6
1.1.3.2Apprentissage lié au processus d’apprentissage ....................................................................6
A .Apprentissage par évaluation............................................................................................................... 6
B. Apprentissage par optimisation ..........................................................................................................6
C. Apprentissage par entrainement......................................................................................................... 7
1.1.3.3apprentissage lié à l’information disponible ............................................................................ 7
A. Apprentissage supervisé ........................................................................................................................ 7
B. Apprentissage non supervisé................................................................................................................ 7
C. Apprentissage par renforcement ........................................................................................................7
1.1 .4 Caractéristiques du concept d’apprentissage................................................................................... 7
a. L’abstraction des données ........................................................................................................................... 7
b. l’élément temporel .........................................................................................................................................7
c. le rôle de l’enseignant .................................................................................................................................... 7
1.1.5 Conditions d’apprentissage....................................................................................................................... 7
1 .2 Apprentissage des Réseaux de neurones.................................................................................................... 8
1.3Problèmes d’apprentissage des réseaux de neurones multicouches ............................................... 9
1.3.1Minima locaux .................................................................................................................................................. 9
1.3.2choix d’architecture .................................................................................................................................... 11
1.3.3 Sélection des variables pertinentes .................................................................................................... 11
1.3.4 Sur apprentissage et sur généralisation ........................................................................................... 12
A-Sur apprentissage ........................................................................................................................................ 12
B .Sur –généralisation ..................................................................................................................................... 14
1.3.6prétraitement des données ..................................................................................................................... 14
vi
Table des matières
vii
Table des matières
3.1.6.6Conclusion.............................................................................................................................................. 46
3.1.7classification neuronale élargie à d’autres types d’arythmies : .............................................. 47
3.1.7.1Sélection de la base d’exemples .................................................................................................... 47
3.1.7 .2Sélection des descripteurs ............................................................................................................. 49
3.1.7.3Apprentissage des classifieurs ...................................................................................................... 49
3.1.7.4Résultats et interprétations ............................................................................................................ 50
3.1.7.5Conclusion.............................................................................................................................................. 53
3.2 Apprentissage structurel des RNAs ............................................................................................................ 54
3.2.1introduction ................................................................................................................................................... 54
3.2.2Travail réalisé ............................................................................................................................................... 54
3.2.2.1Apprentissage des classifieurs ...................................................................................................... 55
3.2.2.1.1Apprentissage de classifieur classique....................................................................... 55
3.2.2.1.2Apprentissage de classifieur neuro-génétique...................................................... 56
3.2.2.2Résultats et discussion...................................................................................................................... 57
4 .2 .3.4Conclusion ........................................................................................................................................... 59
3.3Deux phases s’apprentissage pour un classifieur neuro-genetique .............................................. 60
3.3.1introduction ................................................................................................................................................... 60
3 .3.2Etat de l’art .................................................................................................................................................... 60
4 .3 .3Travail expérimental................................................................................................................................ 61
3.3.3.1Apprentissage des classifieurs ...................................................................................................... 62
Classifieur neuro-génétique classique CNGC ................................................................................... 62
Classifieur neuro-génétique a deux phases TPNGC .............................................................. 62
3.3.4Résultats et discussion .............................................................................................................................. 64
3.3.5Conclusion ...................................................................................................................................................... 66
viii
Table des matières
ix
Liste des tableaux
xii
Liste des notations
AG : algorithme génétique.
ECG : électrocardiogramme
FN : faux négatif
FP : faux positif
VN : vrai négatif
VP : vrai positif
xiii
Introduction
Les développements technologiques ont facilité l’acquisition et le recueil de
nombreuses données, notamment dans le domaine médical. Ces données peuvent alors
être utilisées comme support de décision médicale, conduisant aux développements
d’outils capables de les analyser et de les traiter, connu dans la littérature sous le terme«
d’aide au diagnostic ». Depuis de nombreuses années, l’aide au diagnostic médical s’est
développée et a gagné en popularité ; ces systèmes sont même considérés comme étant
essentiels dans beaucoup de disciplines médicales [1 ,2]. En pratique, il existe déjà de
nombreuses applications qui permettent d’assister le médecin et le guider dans ces
démarches thérapeutiques [3]. Par ailleurs, les systèmes reposant sur les techniques
issues de l’apprentissage artificiel sont de plus en plus élaborés [2].
Les approches les plus touchées par l’apprentissage artificiel sont celles des
réseaux de neurones artificiels.
Les systèmes neuronaux ont trouvé leurs premières applications pratiques dans le
développement de systèmes de reconnaissance de forme (reconnaissance de caractères,
vocales, de contours dans une image, etc.).Ils se prêtent bien à des problèmes de
classification en particulier lorsqu’une base de données suffisante est disponible, où la
couche d’entrée du réseau est liée directement aux descripteurs de données ainsi que la
couche de sortie est liée aux résultats de classification.
Problématique
D’autre part ; Les réseaux de neurones présentent une grande diversité. En effet un
type de réseau neuronal est défini par sa topologie, ses paramètres et son algorithme
d’apprentissage.
Jusqu'à présent, il existe plusieurs problèmes qui restent difficile à résoudre. Ces
problèmes sont associés généralement à l’apprentissage, au choix d’architecture et
l’ajustement des paramètres.
Introduction générale
Motivation et contexte
La taille de la population est l'un des choix les plus importants dans l’utilisation des
algorithmes génétiques, comme il peut être critique dans de nombreuses applications. Si
la taille de la population est trop petite, l'algorithme génétique a tendance à ce convergé
trop vite; par contre si elle est trop grande, l'algorithme génétique peut consommer un
temps énorme, [4] rendant leurs taches difficiles.
Contributions
Les travaux effectués dans le cadre de notre thèse ont donné lieu à plusieurs
contributions.
2
Introduction générale
Organisation de manuscrit
Nous terminons notre thèse avec une conclusion générale et des perceptives.
3
Chapitre1
Etat de l’art
Depuis plus décennies, les chercheurs en intelligence artificielle
tentent de concevoir des modèles doté d d’intelligence comme les
systèmes d’aide à la décision médicale ou l’aide au diagnostic médical ;
le contrôle, la prédiction, la reconnaissance des formes ; etc.
L'apprentissage dans un système est indiqué par les changements qu'il subit. Ces
changements sont adaptatifs dans le sens où ils rendent possible au système de réaliser une
même tâche, ou des tâches tirées d'une même population, d'une façon plus efficace et plus
efficiente la prochaine fois qu'elle sera réalisée.
Nous disons qu’une machine apprend des lors qu’elle change sa structure, son
programme ou ses bases en fonction de données en entrée ou des réponses à son
environnement de sorte à ce que ses performance futures deviennent meilleures
(L’objectif de l’apprentissage automatique est de concevoir des programmes pouvant
s’améliorer automatiquement avec l’expérience) ;
1.1.2Notions de base
5
Etat de l’art
posé. Elles sont des connaissances "traitées" qui ont été obtenues à partir de
l'analyse des connaissances de base. Ce type de connaissances représente une
généralisation du représentées par des structures symboliques, comme les règles
de production, les modèles mathématiques, les réseaux sémantiques et les objets
structurés.
6
Etat de l’art
symboles. Par contre, le fonctionnement interne du système est opaque. Il est très
difficile de comprendre comment le système apprend [6 ,7].
7
Etat de l’art
8
Etat de l’art
1.3.1Minima locaux
9
Etat de l’art
Fig 1.1 : Forme générale d'une fonction coût possédant plusieurs minima
10
Etat de l’art
algorithme d'optimisation pour un perceptron multi couche à une seule couche cachée.
Le principe est basé sur un algorithme de combinaison convexe pour des poids
synaptiques dans la couche cachée. En fait, cette technique explore une idée de
continuum qui combine les stratégies de mutation et de croisement classique dans les
algorithmes génétiques. (AG)[18] . Alireza Askarzadeh et al2013 ont traité le problème
d’apprentissage des RNAs par un algorithme d'optimisation méta heuristique
récemment inventé nommé BMO « bird mating optimizer »,. Il est appliqué à
l’apprentissage des poids des RNA pour résoudre des problèmes de
classification .l’algorithme a été testé sur trois bases de données, Iris fleur, le cancer du
sein (Wisconsin breast), et le diabète(Pima indiens).[19].d’autre travaux dans la
littérature traitent le problème de complexité et le temps de convergence de la rétro
propagation ,B. Widrow et al 2013ont proposé un nouvel algorithme nommé :No-
Propagation (No-Prop) pour résoudre le problème de complexité d’apprentissage des
perceptrons multicouches .Les poids des neurones de la couche cachée sont initialisés et
fixés avec des valeurs aléatoires. Seuls les poids des neurones de couche de sortie qui
sont ajustés, ils ont choisis la plus grande pente pour minimiser l'erreur quadratique
moyenne, en se basant sur l'algorithme LMS de Widrow et Hoff. L'algorithme NO-Prop
est beaucoup plus simple et plus facile à mettre en œuvre que l’algorithme de la rétro
propagation. En outre, il converge plus rapidement ; mais l’algorithme de la rétro
propagation est plus puissant pour les architectures complexes [20] . Ozan
Kocadaji2015 a appliqué une nouvelle méthode hybride de Monte Carlo avec les
algorithmes génétiques et la logique floue sur les séries chronologiques et il a analysé la
régression dans le contexte de BNNs. Cette méthode a minimisé le temps
d’apprentissage et a donné une bonne performance d’estimation [21].
1.3.2choix d’architecture
Le choix d’architecture des RNAs est un problème majeur lors de la phase
d’apprentissage, l’utilisateur doit choisir le nombre de neurones cachés, le nombre de
couches cachées et de leur interconnexion.
Cette tâche est souvent réalisé de façon ad-hoc ou en utilisant quelque règles
heuristiques simples. Souvent nous essayons diverses architectures pour un problème
de donnés et en calculant l’erreur de généralisation pour sur un ensemble de validation.
En effet, hormis une exhaustive, aucune méthode n’est connue pour déterminer
l’architecture optimale pour un problème donné. Or tous les résultats théoriques sur les
réseaux de neurones (leur puissance de calcul ou leur faculté de généralisation) ne
tiennent que si l’on utilise l’architecture idéale et nécessaire.
Shih-Hung Yang et al 2012 ont conçu un RNA utilisé dans la prédiction. Il est
basé sur un algorithme évolutionnaire constructive à élagage (ECPA). À l’état initial on
commence par un ensemble de RNA avec la structure la plus simple possible, un
neurone caché relié à un nœud d’entrée. L’utilisation des opérateurs de croisement et
de mutation augmente la complexité d'une population RNA [22]. Dans le même esprit,
Hong-Gui Han et al 2014ont propose une approche de construction à d’élagage (CP)
pour optimiser la structure d'un réseau de neurones, avec une seule couche cachée. Le
nombre de neurones cachés est déterminé par rapport à leurs contributions. Ils sont
11
Etat de l’art
Choo JunTan et al 2014 ont Proposé des algorithmes génétiques multi objectifs
micro Modifié(MMGA), pour sélectionner des variables d’entrée. Cet algorithme est
utilisé pour réaliser un ensemble optimiseur. Le but de l'optimiseur ensemble basé sur
MMGA est double, sélectionner un petit nombre de variable d'entrée pour la
classification, et évaluer l'efficacité du système proposé. Les systèmes a été appliqué à la
détection de mouvement humain. [31] .d’autre part Carlos Affonso et al 2015ont
présenté une approche pour la classification d'images biologiques à travers un réseau
neuronal artificiel hybridé avec les ensembles de la logique floue (FANN). Cette
approche est utilisée pour améliorer le processus d'apprentissage par renforcement, en
se concentrant sur la sélection de la variable d’entrée par les ensembles floue. Les RNAs
sont utilisés pour la classification et la logique floue est utilisée pour la cratérisation de
l’image [32]. Kabiru O. et al2015ont proposé des algorithmes basés sur la corrélation
pour réduire le nombre des variables d’entrée d’un RNA Utilisé pour la recherche
prédiction de cinq puits de pétrole distinct. Cette approche améliore les performances
de la recherche et diminue le temps d’apprentissage. Lors de la sélection des variables
d’entrée pertinentes d’un classifieur neuronal des différents défauts en
12
Etat de l’art
céramique [33].;Manasa Kesharaju et al 2015 ont utilisé un algorithme basé sur les
systèmes évolutionnistes et l’ACP(analyse de la composante principale),. Les résultats
de classification obtenus par les variables sélectionnées par cette approche ont été
comparés avec trois méthodes de sélection de variables. Les résultats empiriques
montrent que l'ACP combinée avec les systèmes évolutionnistes donne des meilleurs
résultats [34].
A. Sur apprentissage
Le phénomène du sur-apprentissage (en englais : overfitting) est l'un des
problèmes majeurs durant la phase d’apprentissage des RNAs.
Une cause très fréquente du sur apprentissage est la présence du bruit dans les
données d’apprentissage. En effet, il n'existe pas un moyen de mesure qui présente des
résultats parfaits. Depuis des années les chercheurs ont montré qu’il leur fallait
contrôler la complexité d'apprentissage pour ne pas tomber dans le sur-
apprentissage[6].
13
Etat de l’art
Pour identifier l’état d’un sur apprentissage, nous divisons les données en deux
sous-ensembles : l'ensemble d'apprentissage et l'ensemble de validation. L'ensemble
d'apprentissage comme son nom l'indique permet d’ajuster les poids du réseau de
neurones en appliquant une rétro propagation. L'ensemble de validation n'est pas utilisé
pour l'apprentissage mais permet de vérifier la pertinence du réseau avec des
échantillons qu'il ne connait pas.
Pour avoir un réseau qui généralise bien, on arrête l'apprentissage dès que l'on
observe cette divergence entre les deux courbes (voir figure1.2). On peut aussi diminuer
la taille du réseau et recommencer l'apprentissage. Dans la littérature beaucoup travaux
de recherche ont traité le problème de sur apprentissage : Wang et al. 2009 ont traité le
problème de sur apprentissage par une bonne sélection des paramètres des RNAs . Mis à
part le choix du type réseau de neurones et l’architecture (nombre de neurones cachés
et le nombre de connexions) .un algorithme d'optimisation des différents paramètres
sera un moyen pour éviter le sur apprentissage [36].D’autre part Jin et Branke, 2005 ont
utilisé les réseaux de neurones en ajoutant de bruit pour éviter le sur-apprentissage.
Cela montre l'importance des méthodes de couplage approprié pour éviter le sur-
apprentissage [37]. Piotrowski et Napiorkowski 2011 ont étudié la meilleure méthode
d’apprentissage des perceptron multicouches ;ils ont conclu que les méthodes
14
Etat de l’art
B .Sur –généralisation
15
Etat de l’art
Jusqu’à présent, le problème qui reste le plus difficile à résoudre est de trouver le
meilleur points dans un espace a trois surfaces (architecture, poids synaptique et les
variables d’entrées) ; Le but d'une optimisation générique est de trouver le meilleur
point meilleur pour résoudre ces problèmes simultanément.
1.4Conclusion
16
Chapitre2
Classifieurs neuro- génétique
Introduction
L’apprentissage, par analogie à celui d’un cerveau humain, consiste à rendre un
réseau apte à résoudre un problème. Il porte le plus souvent sur les valeurs des poids du
réseau, sa topologie ou les deux. Il existe plusieurs méthodes pour entraîner un réseau
de neurones, que l’on peut ranger dans deux classes : les méthodes déterministes et les
méthodes évolutionnistes [44].
Ces individus mieux équipés ont par conséquent une probabilité de survie plus
grande que leurs congénères et auront de fait d’autant plus de chances de pouvoir se
reproduire.
18
Classifieurs neuro-génétique
espèces décrit par Darwin. Le principe de base bien que simple, il n’en demeure pas
moins puissant : il s’inspire de la théorie de Darwin sur l’évolution des espèces qui
explique comment depuis l’apparition de la vie les espèces ont su évoluer de façon
innovante et souple dans le sens d’une meilleure adaptation à l’environnement, tout en
permettant aux seuls individus bien adaptés à leur environnement de se
reproduire[48] .
Les AEs sont des techniques de recherche stochastique qui ont été appliqués avec
succès à une large gamme de problèmes réels et complexes. Un AE est une approche
itérative qui utilise des opérateurs de variations stochastiques sur un ensemble
d’individu (la population). Chaque individu de la population représente une version
encodée (solution) du problème. Au départ, cette population initiale est engendrée
aléatoirement.
Ils ont été imaginés comme outils de modélisation de l'adaptation. C'est les plus
connus des algorithmes évolutionnaires; ils favorisent l’utilisation du croisement comme
principal opérateur de recherche. Il utilise cependant la mutation avec un faible
pourcentage de probabilité, et une méthode de sélection de type probabiliste dans
laquelle la probabilité de sélection est proportionnelle au fonction d’adaptation de
l’individu. La représentation des individus génotype, qui est à l’origine de type binaire, a
été par la suite développée à de nombreuses autres formes de représentation [51, 57].
19
Classifieurs neuro-génétique
Les (AG) sont considérés comme des méthodes de résolution "ascendantes", c'est-
à-dire que la solution optimale peut être obtenue progressivement en assemblant des
parties optimales des solutions partielles, les opérateurs de recombinaison jouent alors
un rôle essentiel. Les stratégies évolutionnistes et la programmation évolutionniste sont
vues comme des méthodes "descendantes", dans lesquelles l'environnement agit comme
20
Classifieurs neuro-génétique
On a tout l’intérêt que peut présenter l’emploi de méthode évolutionnistes lors des
phases d’apprentissage et optimisation d’un réseau de neurones On notera également
que le cerveau humain est le fruit de milliers d’années d’évolution génétiques [59]. Ces
deux points ont aidés beaucoup de chercheurs à suivre cette piste [44].
Le premier à lancer l’idée est Holland en 1975 dans son ouvrage “Adaptation in
Natural and ArtificialSystems” [60].
21
Classifieurs neuro-génétique
Les poids initiaux dans le réseau sont choisis au hasard dans un petit intervalle, [-
1,+1] , L'ensemble de poids peut être représenté par une matrice carrée(voir figure2.1)
dont un nombre réel correspond à la liaison pondérée d'un neurone à l’autre, et 0
signifie qu'il n'y a aucune connexion entre deux neurones donnés.
Dans La deuxième étape nous définissons une fonction d’évaluation (fitness) pour
évaluer la performance des chromosomes. Nous utilisons dans cette étude une fonction
définie par l’erreur quadratique entre la sortie réelle et la sortie désirée du classifieur,
telle que l'algorithme génétique essaye de trouver un ensemble des poids (individu) qui
réduisent au minimum cette fonction.
Nous pouvons utiliser comme une fonction fitness, le taux de classification non
correcte et l’algorithme génétique essaye de trouvé l’individu qui réduise aux minimum
ce taux.
Dans la troisième étape nous appliquons les deux opérateurs des algorithmes
génétiques croissement et mutation. Un opérateur de croisement prend deux
chromosomes parents et crée un chromosome enfant avec les mêmes propriétés
génétiques que les chromosomes parents. Figure 2.2 présente l’opérateur de
croisement dans un classifieur neuro-génétique.
22
Classifieurs neuro-génétique
23
Classifieurs neuro-génétique
La topologie de connexion d'un réseau neuronal peut être représentée par une
matrice de connectivité carrée, comme indiqué dans la figure2.4. Chaque entrée dans la
matrice définit le type de connexion d'un neurone (de la colonne à la ligne) où 0
présente aucune connexion et 1 présente la connexion. Pour transformer la matrice de
connectivité dans un chromosome, nous devons seulement rangées la matrice ensemble,
comme indiqué dans la figure2.4.
24
Classifieurs neuro-génétique
La figure 2.5 présente Un cycle génétique pour développer une topologie d’un
classifieur neural.
25
Classifieurs neuro-génétique
26
Classifieurs neuro-génétique
Les algorithmes génétiques (AG) ont montré avec succès leur grande capacité à
résoudre des problèmes d'optimisation. Ils ont aussi été utilisés dans le domaine de la
sélection de caractéristiques. De nombreuses études rapportées dans la littérature ont
montré que les méthodes qui utilisent les AGs comme technique de recherche ont donné
des meilleurs résultats en comparaison avec les autres méthodes de sélection [67]. En
2000, Kudo et Sklansky ont montré la possibilité d'utiliser les AGs pour la sélection sur
des ensembles de grande échelle (50 caractéristiques et plus) en ajustant les paramètres
de l'AG (le nombre de générations, la taille de la population et les probabilités des
opérations génétiques) d'un côté et la fonction d'évaluation de l'autre côté [68]. Une fois
que les paramètres ont été bien fixes et la fonction d'évaluations bien définie [69].
Après le codage la sélection des caractéristiques passe par les étapes suivantes :
27
Classifieurs neuro-génétique
Fig 2.6 : algorithme génétique pour la sélection des paramètres pertinents [69].
Jusqu’à présent, le problème qui reste le plus difficile à résoudre est l’obtention de
l’architecture adéquate du réseau avec la sélection des paramètres d’entrées
pertinentes. Cette difficulté est mise en évidence par des questions, telles que le nombre
de couches cachées qu’il faut utiliser dans un réseau multicouche, le nombre optimal de
neurones dans chaque couche, les valeurs initiales des poids de connexions du réseau
pendant la phase d’apprentissage, les meilleurs paramètres d’entrée…etc. Un mauvais
choix peut conduire à de mauvaises performances du réseau correspondant.
Ces méthodes sont basées sur la constitution d'une unique fonction objective
définie comme une combinaison des objectifs. Elles sont utilisées avec les modèles de
combinaison tels que le modèle additif et le modèle multiplicatif.
L'application de ces modèles n'est possible que sur des objectifs commensurables
(exprimes dans la même unité). En d'autres termes, il est difficile d'utiliser ces modèles
avec des critères qui peuvent être quantitatifs pour certains et qualitatifs pour d’autres
[70 ,71].
28
Classifieurs neuro-génétique
La première méthode qui utilise la dominance au sens de Pareto pour résoudre des
problèmes multi-objectifs a été proposée en 1989 par Goldberg [73]
La fonction de fitness pour évaluer un individu est basée sur le rang de cet individu
et sur le nombre d'individus ayant le même rang. Le rang d'un individu de la population
est relatif au nombre d'individus qui le dominent. Tous les individus non domines ont le
rang 1 .Cette méthode donne des solutions de bonne qualité et son implémentation est
facile.
En 1994, Srivinas et Deb [75] ont développé une méthode basée sur la dominance
au sens de Pareto appelée NSGA. Dans cette méthode, l'évaluation de la population se
fait par des évaluations partielles sur des groupes d'individus, chaque groupe i
représente les éléments qui constituent l’i_eme frontière de Pareto. L'évaluation
commence par la première frontière en donnant une valeur factice de fitness et en
appliquant une fonction de partage. Une fois ce groupe évalue, il sera supprimé et le
processus se répète jusqu'à ce que tous les groupes aient été évalués. L'algorithme se
déroule ensuite comme un algorithme génétique classique Le tri des solutions en
différentes frontières assure d'une part une répartition plus efficace sur la frontière
Pareto et par ailleurs maintient la diversité de la population. De plus, cette méthode est
applicable dans des problèmes avec un nombre quelconque d'objectifs.
En 2000, une deuxième version de NSGA (NSGA II) a été proposée par Deb [72]
Dans cette version, l'auteur propose quelques solutions qui limitent les principaux
problèmes de la version originale [69] .
29
Classifieurs neuro-génétique
En effet, on observe que les opérateurs de très bas niveau, qui consistent
seulement à couper deux chromosomes parents en deux afin de créer deux fils par
recombinaison des quatre moitiés, engendrent des résultats peu satisfaisants au niveau
de la convergence générale de la population.
30
Classifieurs neuro-génétique
Fig. 2.7 :l’effet du problème des permutations dans l’opérateur de croisement [59]
Premièrement, on voit ici deux réseaux, “parent 1” et “parent 2”, ayant une
représentation génotypique différente mais assumant les mêmes fonctions. On admettra
qu’avec une couche cachéecontenant n neurones, il existe n Réseaux équivalents à la
résolution d’une même tâche [44].
31
Classifieurs neuro-génétique
majorité des cas, il existe plusieurs façons de traiter un problème et que par conséquent
il faudrait considérer les rôles “A”,“B”,“C”,“D”,“E”,etc[44].
32
Classifieurs neuro-génétique
Parfois, les algorithmes génétiques ont du mal à trouver l'optimum global exact car
il y a aucune garantie de trouver la meilleure solution, surtout la taille de la population
est limitée.
La taille de la population est l'un des choix les plus importants rencontrés par
n'importe quel utilisateur d'algorithmes génétiques et peut être critique dans de
nombreuses applications. Si la taille de la population est trop petit, l'algorithme
génétique peut converger trop vite; si elle trop grande, l'algorithme génétique peut
gaspiller des ressources de calcul: le temps d'attente pour une amélioration pourrait
être trop long. [4 ].
Dans cette thèse, nous présentons une nouvelle méthode d'optimisation des poids
dans des classificateurs neuronaux génétique avec la population initiale ne soit pas
choisi au hasard.
Deuxième phase: nous rassemblons tous les poids finaux pour l'apprentissage
individuel de la première phase dans une matrice w. Cette matrice présente la
population initiale pour l'apprentissage global de la base d’apprentissage par un
système de neuro-génétique possède les mêmes paramètres d'entrée et la même
architecture que les classificateurs individuels de la première phase. La fonction fitness
dans cette phase et la somme des erreurs quadratiques voir Figure 2.8
33
Classifieurs neuro-génétique
2.6 Conclusion
Ce chapitre nous a permis d’avoir une vue générale sur l’hybridation des
algorithmes génétiques avec les réseaux de neurones artificiels.
Nous avons présenté les modèles des classifieurs neuro-génétique pour résoudre
des problèmes assez complexes des réseaux de neurones (choix de la topologie
neuronale, apprentissage synaptique, sélection des variables d’entrée).
34
Chapitre3
Apprentissage paramétrique et
structurel des RNAs
3.1.1Problématique
L’absence d’un algorithme d’apprentissage qui trouve le minimum global dans les
réseaux de neurones artificiels (perceptron multicouche) a entravé son utilisation et
surtout dans le domaine médical.
Dans cette partie de thèse, nous développons des classifieurs neuronaux des
arythmies cardiaques, ou les poids synaptiques sont calculés, en utilisant les
algorithmes génétiques. Ces classifieurs sont comparés à des classifieurs neuronaux
classiques à base de la rétro propagation du gradient d’erreur.
3.1.2Arythmies cardiaques
36
Apprentissage paramétrique et structurel des RNAs
Il existe plusieurs types d’anomalies d’ECG, dans ce travail nous utilisons en plus
du battement normal trois autres anomalies les plus rencontrés : battement
ventriculaire prématuré (BVP) , bloc de branche droit(BBD) et bloc de branche
gauche(BBG)
37
Apprentissage paramétrique et structurel des RNAs
V1 V6
V1 V6
38
Apprentissage paramétrique et structurel des RNAs
Dans le cadre de cette thèse, les algorithmes génétiques GA ont été appliqués afin
d'optimiser les paramètres d'un classificateur neuronal.
39
Apprentissage paramétrique et structurel des RNAs
40
Apprentissage paramétrique et structurel des RNAs
3.1.6.2base d’apprentissage
Étant donné la présence d’un grand nombre de battements normaux par rapport
aux BVP et pour éviter la spécialisation. Nous choisissons 500 battements pour chacune
des deux classes (normale etBVP). 1000 au total pour former la base d'apprentissage,
nous avons sélectionné 50battements de type BVP et 50 battements de type N pour
chaque enregistrement.
A partir de cette base de données, nous avons développé et comparer les deux
modèles de classifieurs .
Chacun des deux classifieurs neuronaux (CNC) et CNG dispose d'un réseau de
quatre neurones d’entrée (imposées par le vecteur de caractéristiques), deux neurones
cachés déterminés après plusieurs essais un neurone de sortie correspond aux deux
classes utilisées (BVP,N). Chaque réseau et donne à la sortie une valeur 0 pour le
battement normal, et la valeur 1 pour battement de type BVP.
Les poids et les biais sont initialisés avec des nombres aléatoires entre -1 et1.
41
Apprentissage paramétrique et structurel des RNAs
La méthode de Newton
Dans la pratique, le calcul du hessien et surtout de son inverse est à la fois complexe et
source d'instabilités numériques ; on utilise de préférence une méthode de "quasi-Newton"[97].
La méthode Levenberg-Marquardt
Mais le calcul des dérivées secondes peut être très long, tout d'abord parce que le
nombre de dérivées secondes est le carré de celui des dérivées premières, et également
parce que la dérivée seconde peut être assez complexe. De nombreux algorithmes, peut-
être abusivement appelés algorithmes d'ordre 2, ils utilisent en fait une approximation
des dérivées secondes calculées à partir de dérivées premières. Cependant ils gardent
l'avantage d’utiliser beaucoup moins d'itérations qu'une descente de gradient.
42
Apprentissage paramétrique et structurel des RNAs
Les poids synaptiques initiaux ont été choisis d’une manière aléatoire.
Le seuil de l’erreur globale est fixé à 0.001, après plusieurs essais expérimentaux.
L’apprentissage a été poursuivi jusqu'à ce que l’erreur atteint le seuil déjà fixé.
L'ensemble de poids peut être représenté par une matrice carrée dans laquelle un
nombre réel correspond à la liaison pondérée d'un neurone à un autre, 0 signifie qu'il
n'y a pas de connexion entre deux neurones donnés. Au total, il y a 10 liens pondérés
entre les neurones voir Fig. 3.5. Puisque le chromosome est une collection de gènes, un
ensemble de poids peut être représenté par un chromosome de 10-gène où chaque gène
correspond à lien unique pondérée dans le réseau. Ainsi, si nous chargeons toutes les
lignes de la matrice, en ignorant les zéros, nous obtenons un chromosome représenté
dans la Fig. 3.5.
43
Apprentissage paramétrique et structurel des RNAs
À la fin de la phase d’apprentissage, le classifieur CNG sera testé sur une base de
données de test.
Nous présentons et nous comparons les résultats obtenus par les deux
classifieurs (CNC,CNG)cités auparavant . Les tableaux 3 .3et 3.4 présentent le taux de FP
et FN pour chaque classifieur et pour chaque enregistrement.
44
Apprentissage paramétrique et structurel des RNAs
VP(i)
𝑆𝑆ℯ(𝑖𝑖) =
𝑉𝑉𝑉𝑉 (𝑖𝑖) + 𝐹𝐹𝐹𝐹(𝑖𝑖)
VN(i)
𝑆𝑆𝑆𝑆(𝑖𝑖) =
𝑉𝑉𝑉𝑉 (𝑖𝑖) + 𝐹𝐹𝐹𝐹(𝑖𝑖)
Où les grandeurs VP(i), FN(i), VN(i), FP(i) sont définies dans le tableau 3.2
Présence
Absence d’événement
d’événement de
de classe i
classe i
45
Apprentissage paramétrique et structurel des RNAs
enregistrement VP VN FP FN
105 41 2531 18 0
106 92 1478 20 5
114 43 1786 24 1
116 106 2250 23 2
119 425 1500 35 17
200 810 1720 17 10
210 190 2400 23 4
215 156 3160 21 8
219 60 2049 22 4
221 388 2013 9 5
228 90 1676 20 7
233 804 2200 20 20
a b
Fig 3.6 :a. un battement de l’enregistrement 106 considéré comme un FN pour classifieur CNC et VP pour CNG
b. un battement de l’enregistrement 200 considéré comme un FP pour classifieur CNC et VN pour CNG
46
Apprentissage paramétrique et structurel des RNAs
Nous avons montré dans cette expérimentation l’intérêt des deux algorithmes la
rétro propagation et les algorithmes génétiques lors de phase d’apprentissage et sur les
performances des deux classifieurs (CNC ,CNG).
47
Apprentissage paramétrique et structurel des RNAs
Nous constatons dans le tableau 3.7 que les performances du classificateur CNG
ont été améliorées par une marge considérable (environ de 3%). Aussi L'approche
neuro-génétique a obtenu une bonne précision de la classification par rapport aux
autres méthodes citées dans littérature, en utilisant seulement un petit nombre de
variables d’entrée.
3.1.6.6Conclusion
Nous avons développé un classifieur neuronal basé sur les algorithmes génétiques
pour la reconnaissance de battement ventriculaire prématuré BVP. Ce classifieur a
donné de très bons résultats avec un taux de classification correcte moyenne de 98,72%
et une sensibilité de 97,33% par rapport au classificateur classique qui a donné un taux
de classification correcte de 95,71% et une de sensibilité de 87,98%. Aussi, notre
classificateur CNG réalisé une amélioration considérable par rapport aux classifieurs de
BVP proposé dans la littérature.
48
Apprentissage paramétrique et structurel des RNAs
Dans cette partie de notre travail, nous avons ciblé aussi les blocs de branche
droite (BBD) et les blocs de branche gauche(BBG).
Nous avons développé deux types de classifieurs à quatre classes (normal ; BVP ;
BBD ; BBG). Un classifieur neuronal classique global(CNCG) qui utilise la rétro
propagation comme un algorithme d’apprentissage, le deuxième un classifieur neuro-
génétique global(CNGG) qui utilise les AGs pour l’ajustement des poids synaptiques de
réseaux neuronaux.
Les enregistrements comprenant suffisamment d’arythmies ciblées ont été choisies pour
construire la base d'exemples, (voir tableau3.8).
De 109871 battements annotées, 1,124 ont été sélectionnés pour cette partie d’étude,
selon les 4 types d’arythmies cardiaques ciblées. Nous avons rassemblé les battements de
chaque enregistrement en quatre groupes :
^=
49
Apprentissage paramétrique et structurel des RNAs
Le choix des descripteurs du vecteur d'entrée est lié aux variables pertinentes
avec lesquels on reconnait ces pathologies. .ils sont comparables aux variables sur
lesquels sont construites les connaissances médicales.
Intervalle PR : largeur qui sépare le début de l’onde P jusqu’au début du QRS, il est
de l’ordre de 0.12 à 0.23s.
50
Apprentissage paramétrique et structurel des RNAs
Rapport des intervalles RR(RRs/RRp) :, le rapport RRs/RRp est une variable qui
caractérise une classe donnée. Dans le cas d'un rythme régulier, ce rapport est voisin
de 1, mais il peut largement dépasser cette valeur dans le cas d'un BVP avec repos
compensatoire.
Durée de battement cardiaque : lors d’une variation de rythmes par une présence
d’anomalies cardiaques, cette perturbation peut être identifiée en mesurant la durée
du battement. Elle est calculée du début de l’onde P jusqu’à la fin de l’onde T.
A partir de cette base d’exemple choisie, 50% des battements sont sélectionnés
pour l’apprentissage et le reste pour le test.
Chacun des deux classificeurs neuronaux CNCG et CNGC(voir fig. 3.7) est composé
d'un réseau de six neurones d’entrée (imposées par le vecteur de caractéristiques),
deux neurones cachés déterminés empiriquement et un neurone de sortie. La sortie du
classifieur peut prendre les valeurs suivantes :
• battement normal : 1
• battement BVP :2
• battement BBD :3
• battement BBG :4
Pour les deux types de classifieurs, nous avons utilisé les mêmes conditions
initiales et les mêmes critères d’arrêt que l’étude précédente (classification à 2 classes) .
51
Apprentissage paramétrique et structurel des RNAs
3.1.7.4Résultats et interprétations
Les mêmes critères d’évaluation statistiques que l’étude précédente ont été
adoptés pour mesurer la performance des classifieurs comme: la sensibilité, la
spécificité et le taux de classification correct : les tableaux 3.9 et 3.10 présentent les
performances de chaque classifieur.
Se% SP% CC%
N 85.39 96.62 92.25
V 79.73 94.51 89.96
R 81.84 90.97 90.57
L 77.51 96.43 91.54
moy 81.11 94.62 91.23
52
Apprentissage paramétrique et structurel des RNAs
53
Apprentissage paramétrique et structurel des RNAs
Les figures 3.4, 3.5 ,3.6 et 3.7 présentent des histogrammes de comparaison
entre les performances de classifieurs CNGG et CNCG pour chaque type d’arythmies
ciblés dans cette étude. Nous remarquons dans les quatre histogrammes que le CNGG a
une sensibilité et un taux de classification correct élevés par rapport aux CNGC ce qui
montre la supériorité de classifieur neuro-génétique pour la reconnaissance de BVP,
BBD et BBG.
54
Apprentissage paramétrique et structurel des RNAs
3.1.7.5Conclusion
Nous avons proposé dans cette partie un classifieur neuronal basé sur les
algorithmes génétiques pour la reconnaissance de différents types d’arythmies
cardiaques.
Ces résultats obtenus sont très prometteurs et nous encouragent à étendre cette
étude à d'autres types de signaux biomédicaux.
Le problème major rencontré lors de l'exécution des AGs est le choix de La taille
de la population qui peut être critique dans de nombreuses applications. Si la taille de la
population est trop petite, l'algorithme génétique peut converger trop vite; si elle est
trop grande, l'algorithme génétique fait beaucoup de calcul et le temps d’exécution sera
plus long.
55
Apprentissage paramétrique et structurel des RNAs
3.2.1introduction
L’utilisateur des RNAs doit répondu aux questions suivantes : quel est le nombre
de couches à utiliser ? Quel est le nombre de neurones pour chaque couche ? Comment
connecter ces neurones ? Tous ces facteurs peuvent affecter séparément la performance
du réseau.
3.2.2Travail réalisé
Nous examinons dans cette partie l'efficacité d'un algorithme génétique (AG) à
déterminer l’architecture d’un classifieur neuronal pour la reconnaissance des BVPs .
Nous avons utilisé la base de données des arythmies MIT-BIH pour évaluer ses
performances.
Nous avons choisi 6000 battements (3000 battements de type N et 3000de type
BVP,), divisés en deux sous-ensembles: 3000pour la phase d’apprentissage et 3000 pour
la phase de test.
56
Apprentissage paramétrique et structurel des RNAs
Nous avons réalisé deux classifieurs neuronaux classiques avec les structures
suivantes:
CLS1: 3-2-1 : trois neurones dans la couche d'entrée, deux neurones dans la couche
cachée, un neurone à la couche de sortie et huit connexions entre les neurones; voir
figure3 .12).
CLS2: 4-2-1 : quatre neurones dans la couche d'entrée, deux neurones dans la couche
cachée, un neurone à la couche de sortie et10connexions entre les neurones;( voir figure
3.13) .
57
Apprentissage paramétrique et structurel des RNAs
Les valeurs des paramètres des AGs sont choisies avec soin. Après plusieurs
essais, nous obtenons un croisement uniforme avec une probabilité de 0.9 et une
mutation uniforme avec Pm0.01. La méthode de roulette a été utilisée pour l’opérateur
de sélection.
58
Apprentissage paramétrique et structurel des RNAs
(avec un minimum de connexions). L'objectif est que l'AG arrive à découvrir une bonne
topologie de connexions.
3.2.2.2Résultats et discussion
Les figures 3 .14et 3 .15 présentent les meilleures structures obtenues pour les
deux classifieurs.
Le meilleur chromosome
est codé: 0000000000000000000000000000101100001000000000110.
59
Apprentissage paramétrique et structurel des RNAs
Nous avons mesuré les performances des classifieurs optimisées (AG-CLS1 etAG-
CLS2) et nous les avons comparés avec les performances des classifieurs neuronaux
classiques (CLS1 etCLS2). Plusieurs critères statistiques ont été calculés comme:
lasensibilité, la spécificité et le taux de classification correct de BVP.
La base de données de test a été testée en utilisant les quatre classifieurs et les
résultats obtenus sont présentés dans le tableau3.10. Nous pouvons observer que les
classifieurs neuro-génétique sont plus performants que les classifieurs classiques en
termes de VP et VN. Le classifieurAG-CLS2 a obtenu la meilleure performance
avec743VP pour 750battementsBVP et 740 VN pour 750battements normaux. D'autre
part le meilleurclassifieurclassiqueCLS2a obtenu732 battement VP et730VN (voir le
tableau 3.11)
60
Apprentissage paramétrique et structurel des RNAs
4 .2 .3.4Conclusion
61
Apprentissage paramétrique et structurel des RNAs
3.3.1introduction
Dans les systèmes évolutionnistes, Parfois, les algorithmes génétiques ont du mal à
trouver l'optimum global exact car il y a aucune garantie de trouver la meilleure
solution, sachant que la taille de la population est limitée.
La taille de la population est l'un des choix les plus importants rencontrés par
n'importe quel utilisateur d'algorithmes génétiques et peut être critique dans de
nombreuses applications. Si la taille de la population est trop petit, l'algorithme
génétique peut converger trop vite; si elle trop grande, l'algorithme génétique peut
gaspiller des ressources de calcul: le temps de convergence pourrait être trop long. [4]
ce qui complique leur utilisation dans le monde réel surtout pour les problèmes
complexes
3 .3.2Etat de l’art
Sur un niveau d'abstraction inférieur, nous devons penser à la façon dont les
individus qui constituent la population sont générés. Avec Une initialisation pseudo-
aléatoire de la population nous pouvons obtenir un ensemble de valeurs qui imite la
séquence aléatoire.
Wang Zheng, et Tang ont dit que la population subi l'application de différents
opérateurs; âpres, tous les individus sont mélangés et divisés en plusieurs populations,
chacun subissant alors l'application d'un autre opérateur de mutation. [100]
D .Garis , a présenté un schéma itératif avec plusieurs fonctions fitness, afin que la
population évolue par un algorithme génétique en utilisant la première fonction fitness,
puis la population résultante est utilisée comme la population actuelle dans un AG qui
utilise la deuxième fonction fitness et ainsi de suite. [101]
Dans cette étude, nous présentons une nouvelle méthode d'optimisation des poids
dans classifieurs neuronaux génétiques avec la population initiale ne soit pas choisi au
hasard.
62
Apprentissage paramétrique et structurel des RNAs
4 .3 .3Travail expérimental
Le tableau 3.14 décrit l’ensemble des bases de données utilisées. Toutes ces bases
sont disponibles publiquement au répertoire UCI[102]. Les cinq suivantes ont été
utilisées: l'appendicite «appendicitis » ,le cancer du sein «Breast W»,
l'hépatite « hepatitis », le diabète «Pima », troubles de fonctionnement de foie « Bupa ».
Les bases de données citées sont utilisées pour l'apprentissage et le test des
classificateurs. Le nombre des paramètres d’entrées dépend du problème et varie entre
six et dix-neuf descripteurs. Le nombre de classes est égal à deux (cas positif, cas
négatif). Le tableau 3.15présente le nombre de cas utilisés pour apprentissage et pour
test pour chaque base de données.
Chacune des deux types de classifieurs neuronaux (CNGC et TPNGC) dispose d'un
réseau de différents neurones d'entrée(imposées par le vecteur de caractéristiques), et
différents neurones cachés déterminées par plusieurs essais et expériences et un
neurone de sortie(0 pour le casnégatif,1pourcas positif ).La fonction d'activation pour
chaque neurone est une fonction de type sigmoïde;. Le tableau 3.16 présente le nombre
de neurone d'entrée pour chaque base de données.
63
Apprentissage paramétrique et structurel des RNAs
appendicitis 7
Bupa 6
Breast W 9
hepatitis 19
pima 8
Pour les cinq classifieur nous avons adoptés les structures suivantes :
Appendicitis :7.4 .1
BUPA :6.3.1
Breast W :9.3.1
Hepatitis :19.8 .1
Pima :8.4.1
3.3.3.1Apprentissage des classifieurs
Dans cette expérimentation, les classificateurs CNGC est initialisé avec des poids
aléatoires.. La fonction fitness considéré est le minimum de la somme d’erreur
quadratique calculé par les paramètres de réseaux.
Le taux de croisement Pc a été ajusté à 0,8 la et probabilité de mutation Pm a été
ajustée à 0,01.
64
Apprentissage paramétrique et structurel des RNAs
Cette méthode est tel que cité précédemment présente un apprentissage génétique
de réseaux de neurones artificiels avec deux phases. La première étape consiste un
apprentissage individuel génétique (fonctions fitness à ce stade sont les erreurs
quadratiques individuelles pour 50 exemples de la base d'apprentissage (présenter les
deux cas, négatifs et positifs) avec la même structure et les mêmes paramètres utilisés
dans CNGC classique. Dans la deuxième phase, nous allons rassembler toutes les poids
synaptiques finaux de la première phase et nous constituons une matrice W. cette
matrice présente la population initiale d'apprentissage génétique globale(deuxième
phase). Chaque chromosome représente les poids finaux d'un apprentissage individuel.
Dans cette phase, nous avons augmenté le taux de croisement à 0,85 et réduire la
probabilité de mutation Pm 0,0769, sachant que dans cette approche, nous n’avons pas
besoin beaucoup de diversité, la première phase a orienté correctement le processus
d’apprentissage vers la région des meilleurs résultats. Voir figure3.16
3.3.4Résultats et discussion
Nous avons calculé les performances de TPNGC par rapport aux performances de
CNGC, les mêmes paramètres statistiques que les études précédentes ont été adoptés:
Sensibilité, la spécificité et le taux de classification correcte.
65
Apprentissage paramétrique et structurel des RNAs
Bases de VP VN FP FN
donées
appendicitis 08 35 10 02
Bupa 76 51 24 24
Breast W 140 330 28 01
hepatitis 14 80 09 02
pima 104 256 44 44
Tab3.17: LE nombre de VP, VN, FP et FN pour le classifieur CNGC.
Bases de VP VN FP FN
données
appendicitis 10 39 06 00
Bupa 84 60 15 16
Breast W 141 339 19 00
hepatitis 14 85 04 02
pima 126 259 22 41
Tab3.18: LE nombre de VP, VN, FP and FN pour le classifieur TPNGC.
66
Apprentissage paramétrique et structurel des RNAs
1iteration de TPNGC, cela est dȗ aux choix correcte de la population initiale en première
phase de l'apprentissage dans TPNGC qui influe sur la vitesse de convergence et oriente
le classifieur vers la région des meilleurs résultats dans l'espace des solutions.
Dans ce cas d'étude, par exemple de la base de données BUPA après 1250 itérations de
l'apprentissage, l’erreur quadratique atteint est 0,0162 pour classifieur TPNGC D'autre
part, la phase d'apprentissage de classifieur CNGC est terminée après 4670 itérations
avec ERQ égale à 0, 02395. Nous observons que le classifieur TPNGC fournit des
résultats plus précis avec moins d'itérations.
CNGC TPNGC
67
Apprentissage paramétrique et structurel des RNAs
3.3.5Conclusion
68
Apprentissage paramétrique et structurel des RNAs
69
Chapitre4
Dans cette étude nous examinons l'efficacité d'un algorithme génétique (AG) à la
détection des variables pertinentes d’un signal électrocardiogramme (ECG). Le but
recherché est de réaliser une classification neuronale des battements cardiaques.
Nous avons utilisé la base de données des arythmies MIT-BIH pour évaluer ses
performances.
Nous avons choisi 6000 battements (3000 battements de type normal N et 3000 de
type BVP,), divisés en deux sous-ensembles: 3000pour apprentissage et 3000 pour le
test.
Dans cette partie, un classifieur neuronal à trois couches avec une fonction
d'activation log-sigmoïde a été utilisé.
Les descripteurs décrits ci-dessus sont appliqués aux neurones d'entrée qui ont
des fonctions de transfert linéaires. Nous avons fixé l'erreur quadratique ERQ égal à
0,001et le pas d'apprentissage égale à 0,3.
71
Sélection des variables du classifieur neuro- génétique
De nombreuses études citées dans la littérature ont montré que les méthodes qui
utilisent les AGs comme technique de recherche pour la sélection des caractéristiques
ont donné des meilleurs résultats en comparaison avec les autres méthodes de
sélection [68-69]. Dans ce travail de thèse nous utilisons les algorithmes génétiques
pour trouver les variables pertinentes de signal ECG pour la reconnaissance
de battement BVP.
Les valeurs des paramètres des AGs sont choisies avec soin. Après plusieurs
essais, le croisement uniforme avec une probabilité de 0.8 et une mutation uniforme
avec Pm0.01 ont été choisis. La méthode de roulette a été utilisée pour l’opérateur de
sélection.
72
Sélection des variables du classifieur neuro- génétique
présence de descripteur) les valeurs sont définies de manière aléatoire dans la première
génération.
CLSNG: 2-3-1 : (Deux neurones dans la couche d'entrée, trois neurones dans la couche
cachée, un neurone à la couche de sortie et neuf connexions entre les neurones; voir
figure 4.2).
CODAGE 1 0 0 1 0
PARAMETRE RRp RRs RRs/RRp QRS PP
Tab 4.1 le meilleur chromosome choisi par CLSNG
Nous avons remarqué que les algorithmes génétiques ont écarté 3 descripteurs
(RRs, RRs/RRp, PP) et ils ont gardé les deux meilleurs descripteurs (RRp, QRS)
73
Sélection des variables du classifieur neuro- génétique
Nous avons mesuré les performances de classifieur avec des descripteurs optimisés
CLSNG et comparées avec les performances des classifieur classique CLSN
se sp Cc Nc T(s)
Cls.N 91.81 97.00 96.33 18 60.35
CLSNG 93.73 96.9 96.20 9 36.09
Tab 4.2 : performances des classifieurs CLSN et CLSNG
La base de données choisie a été testée en utilisant les deux classifieurs et les
résultats obtenus sont présentés dans le tableau4.2. Nous remarquons que les
performances du classifieur avec deux descripteurs choisis par les algorithmes
génétiques sont presque identiques au classifieur classique avec les cinq descripteurs.
74
Sélection des variables du classifieur neuro- génétique
4.1.3Conclusion
La sélection des meilleurs descripteurs d’entrée pour la classification présente un
grand défi pour les chercheurs, pour cette raison nous avons utilisé les algorithmes
génétiques pour la sélection de meilleurs descripteurs. Les résultats obtenus montrent
l’importance de RRp et QRS pour la reconnaissance des BVP .aussi l’algorithme
génétique nous a permet de réduire l’architecture du classifieurs (18connexions à 9
connexions).
75
Sélection des variables du classifieur neuro- génétique
L’identification des maladies de foie à un stade précoce est un défi parfois dans le
domaine médical ; une détection précoce augmente le taux de survie des patients.
Dans cette section, nous intéressons à la sélection des descripteurs les plus
pertinents pour une détection précoce de trouble de fonctionnements.
Onisko a utilisé l'arbre de décision, et les réseaux neuronaux, pour reconnaitre les
maladie du foies. Il a obtenu respectivement un taux de classification de 72,55% et une
sensibilité de 78,62% [104].
Comak a présenté une méthode hybride basée sur la combinaison de SVM avec les
moindres carrés (LSSVM) et une pondération floue comme prétraitement pour
identification des troubles du foie en utilisant la base de troubles hépatiques BUPA. La
précision de la classification été très élevée de l’ordre 94,29%[105].
76
Sélection des variables du classifieur neuro- génétique
2/ alkphos :
(abréviation de :alkaline phosphatase)=phosphatases alcalines
Les phosphatases alcalines sont normalement présentes dans le sang, et ils sont
en partie éliminés par la bile. À jeun le sérum contient essentiellement de la PAL
hépatique. La PAL d'origine intestinale augmente en période postprandiale. La PAL
d'origine osseuse est présent chez l'enfant pré pubertaire et celle d'origine placentaire
chez la femme enceinte, surtout au 2ème et 3ème trimestre de la grossesse.
Les valeurs usuelles des PAL se situent entre 25 et 80 UI/L. Ces valeurs seront
physiologiquement plus élevées chez la femme enceinte (car des iso formes des PAL
sont présentes dans le placenta) et chez l'enfant (car des iso formes des PAL sont
présentes au niveau osseux, donc il est normal de les voir augmenter lors période de
croissance osseuse).
Peuvent être enlevées en cas de cancer du foie
3/sgpt
SGPT, Sérum Glutamopyruvate Transférase, (ALAT, Alanine-Aminotransférase).
4/sgot :
SGOT, Sérum Glutamooxaloacétate Transférase (ASAT, Aspartate-Aminotransférase).
Leur augmentation témoigne d'une lésion cellulaire (cytolyse) dans le foie, le cœur, les
muscles ou les reins.
La norme des transaminases varie selon chaque laboratoire. Elle varie en fonction
du sexe, de l'âge, de la température du corps et de l'index de masse corporelle. Les
valeurs normales sont d'environ : 10 à 40 UI
5/gammagt :
Les gamma-GT ou glutamyl-transpeptidases ou gammaglutamyl-transférases,
sont des enzymes retrouvées dans de nombreux organes, comme le rein et les intestins,
mais plus particulièrement présentes dans le foie.
gamma-GT normal est inférieur à 45 UI/L chez l’homme et < 35UI chez la femme
ils peuvent être augmentées en cas de cancer du foie.
6/ drinks :( number of half-pint equivalents of alcoholic beverages drunk per
day)
Boire une demi-pinte est équivalent à boire des boissons alcoolisé par jour.
77
Sélection des variables du classifieur neuro- génétique
CLSN: 6.-3-1 : six neurones dans la couche d'entrée, trois neurones dans
la couche cachée, et un neurone à la couche de sortie et vingt-ans connexions entre les
neurones; voir figure4.3).
4.2.3Résultats et discussion
La figure 4.5 montre les meilleurs descripteurs d’entrée obtenue pour ce classifieur
CLSAG: 4-3-1 : (quatre neurones dans la couche d'entrée, trois neurones dans la
couche cachée, un neurone à la couche de sortie et quinze connexions entre les
neurones; voir figure 4.5).
78
Sélection des variables du classifieur neuro- génétique
CODAGE 0 1 1 1 1 0
PARAMETRE MCV Alkhaphos sgpt Sgot Gammagt Drinks
Tab 4.3 : le meilleur chromosome choisi par CLSAG
se sp Cc Nc T(s)
CLSN 75 66.02 71,30 21 80.52
CLSAG 76 70.00 73.33 15 50.23
Tab 4.4 : performances des classifieurs CLSAG et CLSN
79
Sélection des variables du classifieur neuro- génétique
4.2.4Conclusion
80
Sélection des variables du classifieur neuro- génétique
Le cancer du sein est le cancer qui touche de nos jours de plus en plus de femmes
dans le monde.
Ainsi, la lutte contre le cancer est loin d’être achevée. La médecine avance sur tous
les fronts afin d’améliorer les soins des patients et vaincre cette maladie du siècle. De ce
fait, il est indispensable que plusieurs disciplines continuent à apporter leur
contribution et particulièrement dans le domaine d’aide au diagnostic. Pour aider le
médecin à prendre une décision médicale, robuste et fiable, les réseaux de neurone
artificiels est considérés comme un outil puissant de diagnostic distribué.
Chou, Lee, Shao, et Chen 2004 ont obtenu 98,25% de précision de la classification
avec les réseaux de neurones artificiels et les cannelures de régression multivariée
adaptatifs [108].
Şahan, Polat, Kodaz et Güneş 2007 ont obtenu une précision de la classification de
99,14% avec l'hybridation d'un système artificielle immunitaire floue avec les K-plus
proche [111].
81
Sélection des variables du classifieur neuro- génétique
Karabatak et Ince 2009 ont utilisé une règle d'association pour la réduction de la
dimension de réseau neuronal pour effectuer le classement. Ils ont obtenu une précision
de classification de 97,4%[114].
4.3.2résultats expérimentaux
2. Uniformity of Cell Size : les cellules cancéreuses sont caractérisées par une
anisocytose, à savoir une inégalité au niveau de la taille par comparaison avec les
cellules saines.
3. Uniformity of Cell Shape : les cellules cancéreuses sont marquées par des contours
irréguliers ainsi que des incisures
82
Sélection des variables du classifieur neuro- génétique
5 .Single Epithelial Cell Size: étant donné que les cellules épithéliales sont absentes à
l’état naturel au niveau de la moelle osseuse et qu’elles ne sont pas détectées chez les
individus sains, la moelle osseuse peut, de ce fait, être considérée comme un indicateur
de maladie métastatique chez les patients atteints du cancer du sein au stade primaire.
6. Bare Nuclei: à l’état normal, les nucléoles se trouvent à l’intérieur du noyau. Dans le
cas où ses derniers se trouvent confondus avec le cytoplasme cela indique que la cellule
présente une anomalie et qu’elle est susceptible de devenir cancéreuse.
7 Bland Chromatin : H2az est une protéine qui induit l’expression du gène du récepteur
d’oestrogènes.
8 Normal Nucleoli : L’ADN est naturellement protégé par une membrane nucléraire.
Une défaillance observée au niveau de cette membrane peut refléter une croissance
tumorale.
4.3.3Résultats et discussion
CODAG 1 1 1 1 0 1 1 0 0
E
Paramè Clump Unifor Single Unifor Shape Bar Bland Nor Mito
tres Thick mity of Epithe mity of Margi e Chrom mal ses
ness Cell lial Cell nal Nuc atin Nucl
Shape Cell Adhes lei eoli
Size ion
83
Sélection des variables du classifieur neuro- génétique
Nous avons mesuré les performances de classifieur CLSAG avec des descripteurs
réduits et comparées avec les performances de classifieur classique CLSN.
se sp Cc Nc T(s)
CLSN 94 ,42 95 ,71 94 ,85 50 180.52
CLSAG 100 99.61 99 .71 35 100.23
Tab 4.6: performances des classifieurs CLSN. et CLS.AG
4.4conclusion de chapitre
84
Conclusion générale
Les travaux présentés dans ce manuscrit nous ont donné l’occasion de traiter les
différents problèmes d’apprentissage de classifieurs à base de réseaux de neurones
artificiels tout en présentant une solution par les algorithmes génétiques, dans le but
d’améliorer les performances de ces classifieurs usités en diagnostic médical.
Les travaux réalisés dans le cadre de notre thèse de Doctorat sont réparties en
quatre parties distinctes, l’objectif majeur est de répondre à notre problématique
présentée au début de ce travail de thèse.
Dans la seconde contribution nous avons adopté les algorithmes génétiques pour
un apprentissage structurel des RNAs afin de traiter le problème de choix d’architecture
des classifieurs neuronaux. Nous avons remarquons que l'efficacité d'un algorithme
génétique (GA) a amélioré l’architecture de classificateur neuronal appliqué à la
classification des BVPs. le classifieur réalisé nous a donné un meilleur taux de
reconnaissance de ces types d'arythmies en particulier dans la reconnaissance de vrais
positifs, notre classifieur neuro-génétique a donné une grande sensibilité comparé aux
classifieurs classiques et aux autres classifieurs cités dans la littérature .
Aussi les algorithmes génétiques nous ont permis d’obtenir une architecture
optimale des classifieurs réalisés.
données médicales. Nous avons utilisé plusieurs bases de données médicales: base
d’arythmies cardiaques MIT-BHI, cancer du sein BREAST W et trouble de
fonctionnement de foie BUPA.
Le problème majeur rencontré lors de l'exécution des AGs est le choix de La taille
de la population qui peut être critique dans de nombreuses applications. Si la taille de la
population est trop petite, l'algorithme génétique converge trop vite, par contre si elle
est trop grande, l'algorithme génétique fait beaucoup de calcul et le temps d’exécution
sera plus long. Pour cette raison nous avons traité cette contrainte dans le cadre d’ une
quatrième contribution, où nous avons traité le problème de processus aléatoire des
systèmes évolutionnistes, donnant lieu à une nouvelle méthode d'optimisation des poids
dans les classifieurs neuro- génétiques par un apprentissage génétique à deux phases.
Notre hypothèse de base est d'employer une approche basée sur un choix non aléatoire
de la population initiale par l'apprentissage individuel dans la phase 1, après
l'apprentissage global en phase2.Cette méthode produit une amélioration considérable
sur les résultats obtenus. Où nous avons utilisé plusieurs bases de données médicales:
BUPA, BREASTW,HEPATITS et PIMA.
Perspectives de recherche
Les travaux menés durant cette thèse nousont permis d'apporter une importante
et originale contribution sur l’amélioration des performances de classifieurs neuronaux
médicaux. Où plusieurs problèmes ont été traités et les résultats obtenus sont très
prometteurs.
Jusqu’à présent, le problème qui reste le plus difficile à résoudre est de trouver un
meilleur point dans un espace à trois surfaces différentes (architecture, poids
synaptiques et les variables d’entrée).
86
Conclusion générale
87
Bibliographie
[1] R. A. Miller. Medical diagnostic decision support systems_past, present, and future: a
threaded bibliography and brief commentary. Journal of the American Medical
Informatics Association, 1(1) :8_27, 1994.
[2] E. Coiera. A guide to health informatics. Hodder & Stoughton Educational, UK, 2nd
edition, 2003.
[3] M. Huguier and A. Flahault. Biostatistiques au quotidien. Elsevier, 2003.
[4] Z. Michalewciz. Evolution algorithm+ datstructure=evolutions programs, Springer-
Newyork,1992.
[5] Herbert A . Simon,Why should machines learn?, Machine Learning:An artificial
intelligence approache , Morgan Kaufmann,1983.
[6] Laurent Miclet , Antoine Cornuéjols , Yves Kodratoff . Apprentissage artificiel
(concepts et algorithme), préface de Tom Mitchell , EYROLLES,Paris2003.
[7] Michalski, Kodratoff. Machine Learning-An artificial Intellingence, Morgan Kaufmann,
1990.
[8] Giacometti, Arnaud. Modèles Hybrides de l'Expertise. Thèse de Doctorat en
Informatique et Réseaux, Lab. LIFIA - IMAG, Grenoble / ENST Paris - France, Novembre
1992.
[9] Merabet Rabiya. Une approche automate cellulaire pour L’apprentissage d’un agent,
thèse de magister informatique, université Biskra ,2012 .
[10] Yann Braouezec. Apprentissage et conflit exploration-exploitation . Esilv-Dept
Mathématiques et ingénierie Financière Pôle universitaire léonard de vinci,92916
paris,2004 .
[11] Hebb D.O. The organisation of behavior. Wiley, New-york, 1949.
[12] Rumelhart D., Hinton G. et Williams R., Learning internal representations by error
propagation," Parallel Distributed Processing, Vol. 1, MIT Press, pp. 318-362, 1986.
[13] Mohamed Y. AMMAR. Mise en œuvre de réseaux de neurones pour la modélisation de
cinétique réactionnelle de réseaux de neurones pour la modélisation de cientetiques
reactionnelles en vue de la transposition batch /continu. Thèse de Doctorat de l’I.N.P. –
Toulouse , 2007.
[14] J.M. Torres Moreno and M.B Gordon. Adaptive learning for classification tasks with
binary units . Neural Computation, In Press, 1997.
[15] M. Karouia, R. Lengellé, and Denoeux T. Performance analysis of a MLP weight
initialization algorithm . In Michel Verleysen, editor, European Symposium on Artifcial
Neural Networks, Brussels, 1995.
[16] C. Igel and M. Husken. Sylvain Tertois. Reduction des effets des non-linearites dans
une modulation milti porteuse à l'aide de reseaux de neurones . PhD thesis, Rennes 1, 2003.
[17] Qun Dai, Ningzhong Liu. Alleviating the problem of local minima in Backpropagation
through competitive learning. Neurocomputing, Volume 94, 1 October 2012, Pages 152–
158.
[18] Leong Kwan Lia, Sally Shaob, Ka-Fai Cedric Yiua, A new optimization algorithm for
single hidden layer feedforward neural network; Applied Soft Computing, Volume 13,
Issue 5, May 2013, Pages 2857–2862.
88
Bibliographie
[19] Alireza Askarzadeh, ,Alireza Rezazadeh; Artificial neural network training using a
new efficient optimization algorithm, Applied Soft Computing, Volume 13, Issue 2,
February 2013, Pages 1206–1213.
[20] Bernard Widrow, Aaron Greenblatt , Youngsik Kim , Dookun Park ;The No-Prop
algorithm.A new learning algorithm for multilayer neural networks. Neural Networks
Volume 37, January 2013, Pages 182–188.
[21] Ozan Kocadağlı. A novel hybrid learning algorithm for full Bayesian approach of
artificial neural networks, Applied Soft Computing Volume 35, October 2015, Pages 52–
65.
[22] Shih-Hung Yang, Yon-Ping Chen. An evolutionary constructive and pruning algorithm
for artificial neural networks and its prediction applications; Neurocomputing, Volume
86, 1 June 2012, Pages 140-149
[23] Hong-Gui Han, Li-Dan Wang, Jun-Fei Qiao. Hierarchical extreme learning machine for
feedforward neural network. Neurocomputing, Volume 128, 27 March 2014, Pages 128-
135.
[24] Haydee Melo, Junzo Watada; Gaussian-PSO with fuzzy reasoning based on structural
learning for training a Neural Network. Neurocomputing, Volume 172, 8 January 2016,
Pages 405-412.
[25] R. PAREKH, J. YANG, et V. HONAVAR. Constructive Neural-Network Learning
Algorithms for Pattern Classification . IEEE Transactions on Neural Networks,volume
11(2) 2000:pages436–451.
[26] N. Dunkin, J. Shawe-Taylor, and P. Koiran. A new incremental learning technique.
Springer Verlag, editor, Neural Nets Wirn Vietri-96. Proceedings of the 8th Italian
Workshop on Neural Nets, , 1997.
[27] S. E. Fahlman and C. Lebiere. The cascade-correlation learning architecture. In D. S.
Touretzky, Advances in Neural Information Processing Systems, , Morgan Kaufmann, San
Mateo, Denver 1989, 1990.
[28] TSOPZE Norbert. Treillis de Galois et réseaux de neurones : une approche constructive
d’architecture des réseaux de neurones ;these de doctorat ,Université d’Artois, France
2012.
[29] P. Corcoran, P. Lowery, J. Anglesea. Optimal configuration of a thermally cycled gas
sensor array with neural network pattern recognition; Sensors and Actuators B: Chemical
Volume 48, Issues 1–3, 30 May 1998, Pages 448–455
[30] Gérard Dreyfus, Jean-Marc Martinez, Manuel Samuelides, Collectif, Apprentissage
statistique , Eyrolles , 2008 ,449 pages .
[31] Choo Jun Tan, Chee Peng Lim, Yu–N Cheah ; A multi-objective evolutionary
algorithm-based ensemble optimizer for feature selection and classification with neural
network models; Neurocomputing Volume 125, 11 February 2014, Pages 217–228.
[32] Kabiru O. Akande, Taoreed O. Owolabi, Sunday O. Olatunji; Investigating the effect
of correlation-based feature selection on the performance of neural network in reservoir
characterization. Journal of Natural Gas Science and Engineering, Volume 27, Part 1,
November 2015, Pages 98-108.
[33] Manasa Kesharaju, Romesh Nagarajah; Feature selection for neural network based
defect classification of ceramic components using high frequency ultrasound; Ultrasonics,
Volume 62, September 2015, Pages 271-277
[34] Carlos Affonso, Renato Jose Sassi, Ricardo Marques Barreiros; Biological image
classification using rough-fuzzy artificial neural network; Expert Systems with
Applications, Volume 42, Issue 24, 30 December 2015, Pages 9482-9488.
89
Bibliographie
[35] Ph. PREUX. Fouille de données. Notes de cours. Université de Lille 3 philippe.2011
preux@univ-lille3.fr. http://www.grappa.univ-lille3.fr/~ppreux/fouille.
[36] Guanjun Wang, Jinde Cao, Lan Wang; Global dissipativity of stochastic neural
networks with time delay; Journal of the Franklin Institute, Volume 346, Issue 8, October
2009, Pages 794-807.
[37] Jin Yang, Hugues Rivard, Radu Zmeureanu; On-line building energy prediction using
adaptive artificial neural networks, Energy and Buildings, Volume 37, Issue 12, December
2005, Pages 1250-1259.
[38] Adam P. Piotrowski, Jarosław J. Napiorkowski; Optimizing neural networks for river
flow forecasting – Evolutionary Computation methods versus the Levenberg–Marquardt
approach; Journal of Hydrology, Volume 407, Issues 1–4, 15 September 2011, Pages 12-
27.
[39] Adam P. Piotrowski, , Jarosław J. Napiorkowski; A comparison of methods to avoid
overfitting in neural networks training in the case of catchment runoff modelling, Journal
of Hydrology Volume 476, 7 January 2013, Pages 97–111.
[40] Thomas Weise .Global Optimization Algorithms ;Theory and Application–. 2nd
edition . self-published: Germany. 2009 .
[41] Fardin Ahmadizar, Khabat Soltanian, Fardin AkhlaghianTab, Ioannis
Tsoulos;Artificial neural network development by means of a novel combination of
grammatical evolution and genetic algorithm; Engineering Applications of Artificial
Intelligence, Volume 39, March 2015, Pages 1-13.
[42] M. Castellani; Evolutionary generation of neural network classifiers—An empirical
comparison; Neurocomputing, Volume 99, 1 January 2013, Pages 214-229
[43] Yacoub M. Najjar, Imad A. Basheer, Maha N. Hajmeer; Computational neural
networks for predictive microbiology: I. methodology; i nternational Journal of Food
Microbiology, Volume 34, Issue 1, January 1997, Pages 27-49
[44] David PANZOLI; Simulation comportementale par réseau de neurones et
apprentissage par algorithme génétique ; DEA Informatique de l'image et du
langage,2003 .
[45] V. Maniezzo; Searching among space search: hastening the genetic evolution of
feedforward neural networks in Proceedings of ANNGA, 1993.
[46] J.P. Mague ; Explicitation des connaissances d’un réseau de neurones artificiels à l’aide
d’un moniteur génétique ; Laboratoire Leibniz – IMAG, septembre 1999 .
[47] Maroun Bercachi ;. Algorithme à Etats pour l’Optimisation Difficile. Algo rithme et
structure de données [cs.DS]. Universit´e Nice Sophia Antipolis. Fran¸cais. <tel-
00818459> ,2010.
[48] Th. Back, D.B. Fogel and Z. Michalewicz. Handbook of Evolutionary Computation,
Oxford University Press ,1997.
[49] É. Goubault. Cours sur les Algorithmes Évolutionnaires et Problèmes Inverses, , École
Polytechnique ParisTech, France.
[50] Terki Amel , Analyse des performances des algorithmes génétiques utilisant
différentes techniques d’évolution de la population ;magister électronique, université
Mentouri Costantine,2010 .
[51] R. Dupas, Amélioration de performance des systèmes de production: rapport des
algorithmes Évolutionnistes aux problèmes d’ordonnancement cycliques et flexibles,
Université d’Artois ; 2004.
[52]S. Bernard, Algorithmes Evolutionnaires, Edition addison-Wesley, Paris 2003.
[53]E. Lutton, Darwinisme artificiel, INRIA - Rocquencourt - Equipe Complex - Projet
Fractales, 2004.
90
Bibliographie
91
Bibliographie
[75] Mihail Crucianu, Algorithmes d’évolution pour les réseaux de neurones, Rapport de
recherche 187, E3I Tours, février 1997
[76] P.J.B. Hancock; Coding Strategies for Genetic Algorithms and Neural Networks; PhD
Thesis, University of Stirling, 1992.
[77] P.W. Munro, Genetic search for optimal representations in neural networks technical
report, 1991.
[78] H. Braun , J. Weisbrod, Evolving neural feedforward networks, in Proceedings of the
conference on Artificial Neural Nets and Genetic Algorithm, 1993, pages 25-32.
[79] D. Whitley and C. Bogart, The evolution of connectivity: pruning neural networks
using genetic algorithms, technical report, 1990.
[80] B.L.M. Happel ,J.M.J. Murre Design and evolution of modular neural network
architectures. in Neural Networks 1994,chap. 6-7, pages 985-1004.
[81] S. bornholdt and D. Graudenz; General asymmetric neural networks and structure
design by genetic algorithms ; Neural Networks 1992; chap 5, pages 327-334.
[82] D. Whitley, S. Dominic and R. Das; Genetic reinforcement learning with multiplayer
neural network in Proceeding ; the 4th international conference on Genetic Algorithms
1991, pages 562-569.
[83] J. H. Holland, Adaptation in Natural and Artificial System. Ann Arbor, MI: Univ.
Michigan Press, 1975.
[84] D. E. Goldberg, Genetic Algorithm in Search Optimization and Machine Learning
Reading, MA: Addison-Wesley, 1989.
[85] Z. Michalewicz, Genetic Algorithm + Data Structure = Evolution Program, 3rd ed.
Berlin, Germany: Springer-Verlag, 1996.
[86] M. D. Vose, The Simple Genetic Algorithm. Foundation and Theory. Cambridge, MA:
MIT Press, 1999.
[87] W. Banzhaf and C. Reeves, Foundation of Genetic Algorithm 1–5 Set. San Mateo, CA:
Morgan Kaufmann, Apr. 1999.
[88] R. L. Haupt and S. E. Haupt, Practical Genetic Algorithms, New York: Wiley, 1998.
[89] M. Gen and R. Cheng, Genetic Algorithms and Engineering Optimization, New York:
Wiley, 2000.
[90]A. M. Zalzala and P. Fleming, Eds., Genetic algorithm in engineering systems, in IEE
Control Engineering, ser. 55, 1997.
[91] R.Caponetto,chaotic sequence to improve the performance of evolutionary
algorithms, IEEE transaction on evolutionary computation, vol. 7 NO. 3, June 2003.
[92]Christov, I. and Bortolan, G, Ranking of pattern recognition parameters for
premature ventricular contractions classification by neural networks. Physiological
Measurement, 25, 1281–1290;2004.
[93] Inan OT, Giovangrandi L, Kovacs GTA, Robust neural-network-based classification of
premature ventricular contractions using wavelet transform and timing interval features;
IEEE Trans Biomed Eng 53(12);Dec 2006.
[94] Chudacek V, Georgoulas G, Lhotska L, Stylios C, Petrık M, Cepek M, Examining
crossdatabase global training to evaluate five different methods for ventricular beat
classification, Physiol Meas 30(7):661 677, 2009.
[95]Sajedin A, Zakernejad S, Faridi S, Javadi M, Ebrahimpour R, A trainable neural
network ensemble for ECG beat classification, World Acad Sci Eng Technol 69:788 794,
2010.
[96] Zhou, J., , Automatic Detection of Premature Ventricular Contraction Using Quantum
Neural Networks, bibe, Third IEEE Symposium on BioInformatics and BioEngineering
(BIBE’03), Bethesda, Maryland, , 2003.pages 169–173.
92
Bibliographie
93
Bibliographie
[113] Murat Karabatak , M. Cevdet Ince, An expert system for detection of breast cancer
based on association rules and neural network, Expert Systems with Applications: An
International Journal, v.36 n.2, , March, 2009. Pages3465-3469.
[114] Mehmet Fatih Akay, Support vector machines combined with feature selection for
breast cancer diagnosis, Expert Systems with Applications: An International Journal, v.36
n.2, March, 2009; pages.3240-3247.
[115] Manjeevan Seera , Chee Peng Lim, A hybrid intelligent system for medical data
classification, Expert Systems with Applications: An International Journal, v.41 n.5, ,
April, 2014; pages.2239-2249.
[116] A. Bhardwaj, A. Tiwari, Breast cancer diagnosis using genetically optimized neural
network model, Expert Systems with Applications, 42 -2015; pages 4611-4620.
[117] MIT-BIH arrhythmia database, ,Harvard-MIT Division of Health Science
Technology, Biomedical Health Centre, Cambridge, MA, USA: 1st edn, 1975–1979.
[118] Sekkal,M. and Chikh,M.A. (2012) ’ NEURO-genetic approach to
classification of cardiaque arrithmias’, Journal of Mechanics in Medicine and Biology,
Vol. 12, No. 1 .
[119] Sekkal ,M .and al (2011) ‘Evolving neural networks using a genetic algorithm for
heartbeat classification’, Journal of Medical Engineering & Technology, Volume 35, Issue
5.
[120] Sekkal,M. and Chikh,M.A. (2016) ‘A TWO PHASE GENETIC LEARNING OF A
NEURAL CLASSIFIER APPLICATION IN MEDICAL DIAGNOSTIC’, international
journal of biomedical engineering and technology’ accepted August2016
94