Vous êtes sur la page 1sur 10

MACHINE LEARNING

1. L’intelligence artificielle :
Hna nzido introduction en general ela l’IA, (mazal malgitech wahed mliih)
L'intelligence artificielle est une branche de l'informatique capable d'analyser des données
médicales complexes. Leur potentiel à exploiter des relations significatives avec un ensemble
de données peut être utilisé dans le diagnostic, le traitement et la prévision des résultats dans
de nombreux scénarios cliniques1.

2. C’est quoi une machine learning :


L'apprentissage automatique est le sous-domaine de l'IA concerné par les systèmes
intelligents qui apprennent. Pour comprendre le machine learning, il est utile d'avoir une
notion claire des systèmes intelligents. Un agent est intelligent dans la mesure où ses actions
réussissent. Les agents intelligents peuvent être naturels ou artificiels. La recherche sur
l’apprentissage automatique est pertinente aux objectifs de l’intelligence artificielle et de la
psychologie cognitive. À l’heure actuelle, les humains apprennent, pour la plupart, bien mieux
que les programmes d’apprentissage automatique ou les modèles psychologiques. Sauf dans
certaines circonstances artificielles, la lacune écrasante des modèles psychologiques actuels
d’apprentissage réside dans leur totale incompétence en tant qu’apprenants. Puisque l’objectif
de l’apprentissage automatique est de créer de meilleurs mécanismes d’apprentissage et de les
comprendre, les résultats de l’apprentissage automatique seront utiles aux psychologues au
moins jusqu’à ce que les systèmes d’apprentissage automatique approchent ou dépassent les
humains dans leurs capacités d’apprentissage générales. Tous les problèmes qui surviennent
dans la capacité de généralisation de l'apprentissage automatique, la gestion des entrées
bruyantes, l'utilisation de connaissances préalables, la gestion de complexes 2.
L’apprentissage automatique consiste à programmer des ordinateurs pour optimiser un
critère de performance à l’aide d’exemples de données ou d’expériences passées. Et
l’apprentissage est l’exécution d’un programme informatique pour optimiser les paramètres
du modèle en utilisant les données de formation ou l’expérience passée. Le modèle peut être
prédictif pour faire des prédictions dans le futur, ou descriptif pour acquérir des connaissances
à partir de données, ou les deux3.
Le domaine d’étude connu sous le nom Hedi Apres n3amrouha ba3d ma nsa9siwha prof
S’intéresse à la question de savoir comment construire des programmes informatiques qui
s’améliorent automatiquement avec l’expérience.

1
Artificial intelligence in medicine, Ann R Coll Surg Engl 2004 ; 86 : 334–338.
2
Artificial intelligence, Margaret A.Bden ; 89-90.
3
Machine learning, Dr.A.Senthilselvi, Dr.Balika J.Chelliah, Mr.S.Senthil Pandi, 2021; 1-2.
P a g e 1 | 10
3. Types d’algorithmes d’apprentissage automatique :
En général, les algorithmes d'apprentissage automatique peuvent être classés en 3
types :
3.1 L’apprentissage supervisé :
L'apprentissage supervisé est la tâche d'apprentissage automatique consistant à apprendre
une fonction qui mappe une entrée à une sortie sur la base d'exemples de paires entrée-sortie.
Dans l'apprentissage supervisé, chaque exemple de l'ensemble d'apprentissage est une paire
composée d'un objet d'entrée (généralement un vecteur) et d'une valeur de sortie.
Un algorithme d'apprentissage supervisé analyse les données d'entraînement et produit une
fonction qui peut être utilisée pour cartographier de nouveaux exemples.
Dans le cas optimal, la fonction déterminera correctement les étiquettes de classe pour les
instances invisibles.
Les problèmes de classification et de régression sont des problèmes d'apprentissage
supervisé1:

Figure 1 (cf) modèle de l'apprentissage supervisé

3.1.1 La régression :
Est utiliser pour faire des prédictions continues, il existe plusieurs algorithmes de
régression, parmi ces algorithmes on a :
 La régression linéaire : Régression linéaire, un algorithme d'apprentissage
supervisé vise à prédire le résultat à valeur réelle. Il est utilisé pour prédire une
réponse B à partir de la variable prédictive A. L'hypothèse est qu'il existe une
relation linéaire entre A et B. Cet algorithme est une méthode paramétrique et
donne des valeurs numériques en sortie. La fonction de coût est un exemple de
régression dans laquelle nous entraînons la machine avec les données
étiquetées et prédit le prochain coût de la maison en tant que sortie en valeur
réelle2. La forme mathématique de l'équation est la suivante :

1
Machine learning, Dr.A.Senthilselvi, Dr.Balika J.Chelliah, Mr.S.Senthil Pandi, 2021; 15.
2
Proceedings of ICRIC 2019 Recent Innovations in Computing, 2019 ; 52-53.
P a g e 2 | 10
y = β0 + β1x1 + β2x2 +···+ βn xn, où y représente la valeur prédite.

Figure 2 : Graphe de régression linéaire

3.1.2 Classification :
La régression logistique est connue sous le nom de classification, qui est une sorte de
technique d'apprentissage supervisé utilisée pour classer entre deux ou plusieurs classes. La
classification des e-mails, qu'il s'agisse de spam ou non, la classification entre fruits
comestibles et fruits vénéneux, etc., sont autant d'exemples de classification. L'algorithme
utilise une équation linéaire avec des prédicteurs indépendants pour prédire la valeur, et le
résultat est soit un oui (1), soit un non (0). (Figure 3)1.
3.2 L’apprentissage non supervisé :
L'apprentissage non supervisé est un type d'algorithme d'apprentissage automatique
utilisé pour tirer des inférences à partir d'ensembles de données constitués de données d'entrée
sans réponses étiquetées.
Dans les algorithmes d'apprentissage non supervisé, une classification ou une
catégorisation n'est pas incluse dans les observations. Il n'y a pas de valeurs de sortie et donc
il n'y a pas d'estimation des fonctions. Étant donné que les exemples donnés à l’apprenant ne
sont pas étiquetés, l’exactitude de la structure produite par l’algorithme ne peut pas être
évaluée2.

Figure 3 : Graphe de classification

1
Proceedings of ICRIC 2019 Recent Innovations in Computing, 2019 ; 53-54.
2
Machine learning, Dr.A.Senthilselvi, Dr.Balika J.Chelliah, Mr.S.Senthil Pandi, 2021; 17.
P a g e 3 | 10
La méthode d'apprentissage non supervisée la plus courante est l'analyse cluster, qui
est utilisée pour l'analyse exploratoire des données afin de trouver des modèles cachés ou de
regrouper des données.
3.2.1 K-means Clustering :
Le clustering ou regroupement K-means est un algorithme d'apprentissage non supervisé
qui crée automatiquement des groupes ou des clusters lorsqu'il est lancé. Les données
possédant des caractéristiques similaires sont regroupées dans le même cluster. L'algorithme
est nommé K-means car il crée K-groupes distincts. L'objectif est de présenter les K-
centroïdes, un centroïde pour le Machine Learning : une revue des algorithmes et de ses
applications1.

Figure 4 : Variance inégale

3.2.2 Analyse des composants principaux :


Dans l'analyse en composantes principales ou PCA, la dimension des données est
réduite pour rendre les calculs plus rapides et plus faciles. Pour comprendre le fonctionnement
de la PCA, prenons un exemple de données 2D. Lorsque les données sont tracées dans un
graphique, elles occuperont deux axes. PCA est appliqué sur les données, les données seront
alors 1D. Ceci est expliqué sur la figure 5 2.

1
Proceedings of ICRIC 2019 Recent Innovations in Computing, 2019 ; 55-56.
2
Machine Learning Algorithms : A Review, Department of CSE, Gautam Buddha University, Greater Noida,
Uttar Pradesh, India; 1176-1177.

4
Figure 5 : Visualisation des données avant et après l'application de la PCA

3.3 L'apprentissage par renforcement :


L'apprentissage par renforcement est un domaine de l'apprentissage automatique qui
concerne la manière dont les agents logiciels doivent entreprendre des actions dans un
environnement afin de maximiser une certaine notion de récompense cumulative.
L’apprentissage par renforcement est l’un des trois paradigmes de base de l’apprentissage
automatique, aux côtés de l’apprentissage supervisé et de l’apprentissage non supervisé 1.

Figure 5 : Le modèle d'apprentissage par renforcement

1
Machine Learning Algorithms - A Review, International Journal of Science and Research (IJSR) ISSN: 2319-
7064.

5
6
DEEP Learning :

1. Définition : L’apprentissage profond (Deep Learning) est une sous-catégorie de


l'apprentissage automatique qui tente d'apprendre des abstractions de haut niveau dans
les données en utilisant des architectures hiérarchiques. C'est une approche émergente
qui a été largement appliquée dans des domaines traditionnels de l'intelligence
artificielle, tels que l'analyse sémantique, le transfert d’apprentissage, le traitement du
langage naturel, la vision par ordinateur, et bien d'autres. Il existe principalement trois
raisons importantes pour l'essor du L’apprentissage profond aujourd'hui :
l'augmentation spectaculaire des capacités de traitement des puces (par exemple, les
unités de traitement graphique), la baisse significative du coût du matériel
informatique et les avancées considérables dans les algorithmes d'apprentissage
automatique.
2. Méthodes de l’apprentissage profond :
2.1 Les réseaux de neurone (CNN) : Les CNN sont des modèles d'apprentissage
profond conçus pour traiter des données en grille, comme les images. Ils
apprennent automatiquement des hiérarchies de caractéristiques en utilisant des

Figure 2 Une vue d'ensemble de l'architecture d'un réseau de neurones convolutifs (CNN) et du processus d'entraînement

couches de convolution, de pooling et entièrement connectées. Les couches de


convolution appliquent des opérations mathématiques, comme la convolution,
pour extraire des caractéristiques à partir des images. Les caractéristiques extraites
deviennent progressivement plus complexes à mesure qu'elles passent à travers les
couches. L'entraînement des CNN consiste à optimiser les paramètres, tels que les
noyaux, en minimisant la différence entre les sorties prédites et les étiquettes
réelles à l'aide de la rétropropagation et de la descente de gradient.

2.2 Les Machines de Boltzmann Restreintes (RBM) :


Une Machine de Boltzmann Restreinte (RBM) est un réseau neuronal stochastique
génératif. Une RBM est une variante de la Machine de Boltzmann avec la
restriction que les unités visibles et les unités cachées doivent former un graphe
7
bipartite. Cette restriction permet d'utiliser des algorithmes d'entraînement plus
efficaces, en particulier l'algorithme de divergence contrastive basé sur les
gradients .

2.3 Les Auto encodeurs : L'auto encodeur est un type particulier de réseau neuronal
artificiel utilisé pour apprendre des encodages efficaces. Au lieu d'entraîner le
réseau à prédire une valeur cible Y à partir des entrées X, un auto encodeur est
entraîné à reconstruire ses propres entrées X. Ainsi, les vecteurs de sortie ont la
même dimension que le vecteur d'entrée.

Figure 2 La pipeline d'un autoencodeur 2.4 Codage


Epars : Le
but du codage parcimonieux (sparse coding) est d'apprendre un ensemble
surcomplet de fonctions de base pour décrire les données d'entrée. Le codage
parcimonieux présente de nombreux avantages :
 Il permet de reconstruire le descripteur de manière plus précise en utilisant
plusieurs bases et en capturant les corrélations entre des descripteurs
similaires qui partagent des bases.
 La parcimonie permet à la représentation de capturer les propriétés
saillantes des images.
 Cela est en accord avec le système visuel biologique, qui soutient que les
caractéristiques parcimonieuses des signaux sont utiles pour
l'apprentissage.
 Les études sur les statistiques des images montrent que les patchs d'images
sont des signaux parcimonieux.
 Les motifs présentant des caractéristiques parcimonieuses sont plus
linéairement séparables.

3.Application de l’apprentissage profond :


3.1 Classification des images : Avant l'apprentissage profond, la classification
d'images était principalement basée sur les sacs de mots visuels (BoW) et les
statistiques de premier ordre. Ces méthodes utilisaient des histogrammes de mots
visuels quantifiés pour représenter les images et des classificateurs tels que les SVM

8
pour effectuer la classification. Cependant, ces approches ne prenaient en compte que
des informations de premier ordre et négligeaient des détails importants de l'image.
L'introduction de l'apprentissage profond, en particulier des réseaux de neurones
convolutionnels (CNN), a révolutionné la classification d'images. Les CNN sont capables
d'apprendre des représentations hautement discriminatives à partir des données brutes de
l'image. L'AlexNet, un CNN développé en 2012, a marqué un tournant majeur en remportant
une compétition de classification avec un taux d'erreur impressionnant.
Depuis lors, les CNN ont continué à progresser. Des stratégies d'augmentation de données ont
été développées pour améliorer les performances de classification en augmentant la taille et la
diversité des ensembles de données d'entraînement. Les architectures de CNN sont devenues
plus profondes et plus complexes, ce qui a également contribué à des améliorations
significatives des performances.
En résumé, l'apprentissage profond, en particulier les CNN, a surpassé les méthodes
traditionnelles de classification d'images en utilisant des descripteurs plus discriminatifs et des
architectures plus profondes. Les progrès dans les CNN ont été soutenus par l'utilisation de
stratégies d'augmentation de données et de modèles plus avancés. Cette évolution a
révolutionné la manière dont les images sont classifiées et a ouvert la voie à de nombreuses
avancées dans le domaine.

3.2 Détection des objets : Avant l'apprentissage profond, la détection d'objets utilisait
généralement le modèle à parties déformables (DPM). Cependant, les méthodes basées
sur l'apprentissage profond, telles que le schéma RCNN, ont apporté une amélioration
significative des performances. Les réseaux de neurones convolutifs (CNN) sont
couramment utilisés pour la détection d'objets, générant des boîtes englobantes pour
chaque objet identifié. Les approches dérivées de RCNN se divisent en deux
catégories principales : celles qui cherchent à accélérer la détection tout en maintenant
une précision élevée, et celles qui visent à améliorer la précision en abordant la qualité
des hypothèses sur les objets. Des techniques combinant détection d'objets et
segmentation sémantique ont également émergé pour améliorer la localisation précise
des objets.
Cependant, l'extension de la détection d'objets à un grand nombre de catégories reste
un défi en raison du manque de données étiquetées. Des travaux ont exploré le
transfert de connaissances à partir de classificateurs existants ou l'apprentissage à
partir de données faiblement étiquetées ou non étiquetées pour relever ce défi.
En résumé, l'apprentissage profond a considérablement amélioré la détection d'objets.
Les CNN sont largement utilisés et ont permis des avancées majeures dans ce
domaine. La combinaison de la détection d'objets et de la segmentation sémantique
ainsi que l'utilisation de techniques d'apprentissage non supervisé sont des domaines
de recherche actifs dans ce domaine.

References:
: Y. Guo, et al., Deep learning for visual understanding: A review, Neurocomputing
(2015), http://dx.doi.org/ 10.1016/j.neucom.2015.09.116i

9
Yamashita, R., Nishio, M., Do, R.K.G. et al. Convolutional neural networks: an
overview and application in radiology. Insights Imaging 9, 611–629 (2018).
https://doi.org/10.1007/s13244-018-0639-9

10

Vous aimerez peut-être aussi