Vous êtes sur la page 1sur 17

CHAPITRE 1

1.1 L’intelligence artificielle : L'intelligence artificielle (IA) vise à rendre les


machines aussi intelligentes que le cerveau humain. En informatique, l'IA désigne
l'étude des "agents intelligents" : tout dispositif qui perçoit son environnement et
prend des actions pour maximiser ses chances d'atteindre ses objectifs avec succès.
Informellement, le terme "intelligence artificielle" est utilisé lorsque qu'une
machine est capable d'effectuer des fonctions que les humains associent à d'autres
esprits humains, telles que "l'apprentissage" et "la résolution de problèmes".
L'apprentissage est un aspect essentiel des machines, ce qui fait que l'apprentissage
automatique est un sous-domaine de l'IA. Les informaticiens ont travaillé sur le
domaine de l'apprentissage automatique depuis les années 1950. Au cours des
dernières décennies, d'énormes efforts ont été déployés dans les avancées de
l'apprentissage automatique, ce qui a suscité des attentes plus élevées vis-à-vis des
machines. L’apprentissage profond est une tentative dans cette direction et il est
une sous-catégorie de l'apprentissage automatique. Le travail sur l'apprentissage
s'étend à de nombreux nouveaux domaines, et l'applicabilité de ces domaines est
un travail en cours dans la communauté de recherche. (Pramila P. Shinde, Seema
Shah,2018) [1]

1.2 L’apprentissage automatique (Maching learning) :


Le domaine fascinant de l’apprentissage automatique émerge de diverses disciplines
telles que les statistiques, l'optimisation, l'algorithmique et le traitement du signal. Il représente
un champ d'études en constante évolution qui a solidement pris sa place dans notre société.
Initialement utilisé depuis plusieurs décennies dans des applications telles que la reconnaissance
automatique de caractères et les filtres anti-spam, l’apprentissage automatique joue désormais un
rôle crucial dans la lutte contre la fraude bancaire, la recommandation de produits adaptés à nos
préférences, la détection faciale sur nos appareils photo, et même la traduction automatique de
textes entre langues. (Chloé-Agathe Azencott , 2022)[2]
L’apprentissage automatique consiste à programmer des ordinateurs pour optimiser un critère de
performance à l’aide d’exemples de données ou d’expériences passées. Et l’apprentissage est
l’exécution d’un programme informatique pour optimiser les paramètres du modèle en utilisant
les données de formation ou l’expérience passée. Le modèle peut être prédictif pour faire des
prédictions dans le futur, ou descriptif pour acquérir des connaissances à partir de données, ou
les deux. (A.Senthilselvi et al , 2021)[3]
À l’avenir, l’apprentissage automatique devrait jouer un rôle majeur dans l’amélioration de la
sécurité routière, notamment grâce aux véhicules autonomes. Il pourrait également contribuer à
renforcer les interventions d’urgence face aux catastrophes naturelles, faciliter le développement
de nouveaux médicaments, et accroître l’efficacité énergétique de nos bâtiments et industries.
(Chloé-Agathe Azencott , 2022)[2]

2.1 Type de méthodes de l’apprentissage automatique :


Il existe 3 méthodes de l’apprentissage automatique :
2.1.1 L’apprentissage supervisé : L’apprentissage supervisé est la tâche d’apprentissage
automatique consistant à apprendre une fonction qui mappe une entrée à une sortie sur la
base d’exemples de paires entrée-sortie. Dans l’apprentissage supervisé, chaque exemple de
l’ensemble d’apprentissage est une paire composée d’un objet d’entrée (généralement un
vecteur) et d’une valeur de sortie.
Un algorithme d’apprentissage supervisé analyse les données d’entraînement et produit une
fonction qui peut être utilisée pour cartographier de nouveaux exemples. Dans le cas optimal,
la fonction déterminera correctement les étiquettes de classe pour les instances invisibles. La
figure (1) montre un modèle de l’apprentissage supervisé : (A. Senthilselvi,2021) [3]

Figure 1 Modèle de l'apprentissage supervisé

Parmi les méthodes de l’apprentissage supervisé on a :


2.1.1.1 La classification : il existe plusieurs algorithmes de classification, parmi ces
algorithmes on a :
 La classification linéaire : La classification consiste à regrouper des vecteurs
d’entrée en différentes classes en utilisant des frontières de décision linéaires (ou
des hyperplans). L’objectif de la classification dans les classifieurs linéaires en
apprentissage automatique est de regrouper des éléments ayant des valeurs de
caractéristiques similaires dans des groupes. (Awodele O et al,2017)[4]
 Support Vector Machines (SVMs) : Les machines à vecteurs de support (SVM) sont
considérées comme l’une des techniques les plus récentes en apprentissage
supervisé. Les modèles SVM sont étroitement liés aux réseaux de neurones
multicouches classiques. Les SVM reposent sur la notion de « marge » – de chaque
côté d’un hyperplan qui sépare deux classes de données. Maximiser la marge et
ainsi créer la distance la plus grande possible entre l’hyperplan de séparation et les
instances de chaque côté a été prouvé pour réduire une borne supérieure sur
l’erreur de généralisation attendue. En d’autres termes, les SVM cherchent à
trouver un hyperplan qui maximise la séparation entre les classes, ce qui permet
de réduire l’erreur de prédiction sur de nouvelles données. (Awodele O et al,2017)
[4]

2.1.1.2 La régression : est utiliser pour faire des prédictions continues, il existe plusieurs
algorithmes de régression, parmi ces algorithmes on a :
 La régression linéaire : Régression linéaire, un algorithme d’apprentissage
supervisé vise à prédire le résultat à valeur réelle. Il est utilisé pour prédire
une réponse B à partir de la variable prédictive A. L’hypothèse est qu’il existe
une relation linéaire entre A et B. Cet algorithme est une méthode
paramétrique et donne des valeurs numériques en sortie. La fonction de coût
est un exemple de régression dans laquelle nous entraînons la machine avec
les données étiquetées et prédit le prochain coût de la maison en tant que
sortie en valeur réelle (SUDEEP TANWAR et al, 2019)[5]. La forme
mathématique de l’équation est la suivante :
y = β0 + β1x1 + β2x2 +···+ βn xn, où y représente la valeur prédite.

Figure 2 : Graphe de régression linéaire

2.2 L’apprentissage non supervisé : L’apprentissage non supervisé est ainsi appelé car,
contrairement à l’apprentissage supervisé mentionné précédemment, il n’y a pas de réponses
correctes ni de professeur. Les algorithmes sont laissés à eux-mêmes pour découvrir et présenter
les structures intéressantes dans les données. Les algorithmes d’apprentissage non supervisé
apprennent des caractéristiques à partir des données. Lorsque de nouvelles données sont
introduites, ils utilisent les caractéristiques précédemment apprises pour reconnaître la classe des
données. L’apprentissage non supervisé est principalement utilisé pour le regroupement
(clustering) et la réduction de caractéristiques (Batta Mahesh,2020)[6]. Parmi les algorithmes de
l’apprentissage non-supervisé on a :

 K-means Clustering :
Le clustering ou regroupement K-means est un
algorithme d’apprentissage non supervisé qui crée
automatiquement des groupes ou des clusters lorsqu’il
est lancé. Les données possédant des caractéristiques
similaires sont regroupées dans le même cluster.
L’algorithme est nommé K-means car il crée K-groupes
distincts. L’objectif est de présenter les K- centroïdes,
un centroïde pour le Machine Learning : une revue des
algorithmes et de ses applications.la figure (4) montre
un modèle de clustering : (Pradeep Kumar Singh,2019)
[7]
Figure 3 : Variance inégale

 Analyse des composants principaux :


Dans l’analyse en composantes principales ou PCA, la
dimension des données est réduite pour rendre les calculs plus
rapides et plus faciles. Pour comprendre le fonctionnement de la
PCA, prenons un exemple de données 2D. Lorsque les données
sont tracées dans un graphique, elles occuperont deux axes. PCA
est appliqué sur les données, les données seront alors 1D. Ceci
est expliqué sur la figure 4 (Ayon Dey,2016).[8]

Figure 4: Visualisation des données avant et après l’application de la PCA

2.3 L’apprentissage par renforcement :


L’apprentissage par renforcement est un domaine de l’apprentissage automatique
qui concerne la manière dont les agents logiciels doivent entreprendre des actions dans
un environnement afin de maximiser une certaine notion de récompense cumulative.
L’apprentissage par renforcement est l’un des trois paradigmes de base de l’apprentissage
automatique, aux côtés de l’apprentissage supervisé et de l’apprentissage non supervisé.
(Ayon Dey,2016) [8]

Figure 5 : Le modèle d’apprentissage par renforcement

2.2 L’apprentissage profond :


L’apprentissage profond (Deep Learning) est une sous-catégorie de l’apprentissage
automatique qui tente d’apprendre des abstractions de haut niveau dans les données en
utilisant des architectures hiérarchiques. C’est une approche émergente qui a été
largement appliquée dans des domaines traditionnels de l’intelligence artificielle, tels
que l’analyse sémantique, le transfert d’apprentissage, le traitement du langage naturel,
la vision par ordinateur, et bien d’autres. Il existe principalement trois raisons
importantes pour l’essor du L’apprentissage profond aujourd’hui : l’augmentation
spectaculaire des capacités de traitement des puces (par exemple, les unités de
traitement graphique), la baisse significative du coût du matériel informatique et les
avancées considérables dans les algorithmes d’apprentissage automatique. (Yanming
Guo et al,2015) [9]

3.1 Méthodes de l’apprentissage profond : Les méthodes de l’apprentissage profond


peuvent être divisées en quatre catégories principales :
3.1.1 Les réseaux de neurone convolutionnelles (CNN) : Les CNN sont des

Figure 6 Une vue d'ensemble de l'architecture d'un réseau de neurones convolutifs (CNN) et du processus d'entraînement
modèles d’apprentissage profond conçus pour traiter des données en grille,
comme les images. Ils apprennent automatiquement des hiérarchies de
caractéristiques en utilisant de couches de convolution, de pooling et
entièrement connectées. Les couches de convolution appliquent des
opérations mathématiques, comme la convolution, pour extraire des
caractéristiques à partir des images. Les caractéristiques extraites deviennent
progressivement plus complexes à mesure qu’elles passent à travers les
couches. L’entraînement des CNN consiste à optimiser les paramètres, tels
que les noyaux, en minimisant la différence entre les sorties prédites et les
étiquettes réelles à l’aide de la rétropropagation et de la descente de
gradient. (R Yamashita et al. 2018)[10] La figure (3) montre l’architecture d’un
réseau de neurones convolutifs (CNN) : (R Yamashita et al,2018)

3.1.2 Les Machines de Boltzmann Restreintes (RBM) :


Une Machine de Boltzmann Restreinte (RBM) est un réseau neuronal stochastique
génératif. Une RBM est une variante de la Machine de Boltzmann avec la
restriction que les unités visibles et les unités cachées doivent former un graphe
bipartite. Cette restriction permet d’utiliser des algorithmes d’entraînement plus
efficaces, en particulier l’algorithme de divergence contrastive basé sur les
gradients. (M.A. Carreira-Perpinan et G.E. Hinton,2005)[11]

3.1.3 Les Auto encodeurs : L’auto encodeur est un type particulier de réseau neuronal
artificiel utilisé pour apprendre des encodages efficaces. Au lieu d’entraîner le réseau à
prédire une valeur cible Y à partir des entrées X, un auto encodeur est entraîné à
reconstruire ses propres entrées X. Ainsi, les vecteurs de sortie ont la même dimension
que le vecteur d’entrée. La figure 7 montre le pipline d’un auto encodeur : (Yanming
Guo et al,2015)[9]

Figure 7 Pipeline d'un auto encodeur


3.1.4 Codage Epars : Le but du codage parcimonieux (sparse coding) est d’apprendre un
ensemble surcomplet de fonctions de base pour décrire les données d’entrée. Le codage
parcimonieux présente de nombreux avantages :
 Il permet de reconstruire le descripteur de manière plus précise en utilisant plusieurs
bases et en capturant les corrélations entre des descripteurs similaires qui partagent des
bases.
 La parcimonie permet à la représentation de capturer les propriétés saillantes des
images.
 Cela est en accord avec le système visuel biologique, qui soutient que les
caractéristiques parcimonieuses des signaux sont utiles pour l’apprentissage.
 Les études sur les statistiques des images montrent que les patchs d’images sont des
signaux parcimonieux.
Les motifs présentant des caractéristiques parcimonieuses sont plus linéairement séparables.
(Yanming Guo et al,2015)[9]

3.2 Application de l’apprentissage profond : l’apprentissage profond a de nombreuses


applications variées et impactantes. Voici quelques exemples de ces applications :
3.2.1 Classification des images : Avant l’apprentissage profond, la classification
d’images était principalement basée sur les sacs de mots visuels (BoW) et les statistiques de
premier ordre. Ces méthodes utilisaient des histogrammes de mots visuels quantifiés pour
représenter les images et des classificateurs tels que les SVM pour effectuer la classification.
Cependant, ces approches ne prenaient en compte que des informations de premier ordre et
négligeaient des détails importants de l’image. L’introduction de l’apprentissage profond, en
particulier des réseaux de neurones convolutionnels (CNN), a révolutionné la classification
d’images. Les CNN sont capables d’apprendre des représentations hautement discriminatives à
partir des données brutes de l’image. L’AlexNet, un CNN développé en 2012, a marqué un
tournant majeur en remportant une compétition de classification avec un taux d’erreur
impressionnant. Depuis lors, les CNN ont continué à progresser. Des stratégies
d’augmentation de données ont été développées pour améliorer les performances de
classification en augmentant la taille et la diversité des ensembles de données d’entraînement.
Les architectures de CNN sont devenues plus profondes et plus complexes, ce qui a également
contribué à des améliorations significatives des performances. En résumé, l’apprentissage
profond, en particulier les CNN, a surpassé les méthodes traditionnelles de classification
d’images en utilisant des descripteurs plus discriminatifs et des architectures plus profondes.
Les progrès dans les CNN ont été soutenus par l’utilisation de stratégies d’augmentation de
données et de modèles plus avancés. Cette évolution a révolutionné la manière dont les images
sont classifiées et a ouvert la voie à de nombreuses avancées dans le domaine. (Yanming Guo
et al,2015) [9]
3.2.2 Détection des objets : Avant l’apprentissage profond, la détection d’objets utilisait
généralement le modèle à parties déformables (DPM). Cependant, les méthodes basées sur
l’apprentissage profond, telles que le schéma RCNN, ont apporté une amélioration
significative des performances. Les réseaux de neurones convolutifs (CNN) sont couramment
utilisés pour la détection d’objets, générant des boîtes englobantes pour chaque objet identifié.
Les approches dérivées de RCNN se divisent en deux catégories principales : celles qui
cherchent à accélérer la détection tout en maintenant une précision élevée, et celles qui visent à
améliorer la précision en abordant la qualité des hypothèses sur les objets. Des techniques
combinant détection d’objets et segmentation sémantique ont également émergé pour
améliorer la localisation précise des objets. Cependant, l’extension de la détection d’objets à
un grand nombre de catégories reste un défi en raison du manque de données étiquetées. Des
travaux ont exploré le transfert de connaissances à partir de classificateurs existants ou
l’apprentissage à partir de données faiblement étiquetées ou non étiquetées pour relever ce
défi. En résumé, l’apprentissage profond a considérablement amélioré la détection d’objets.
Les CNN sont largement utilisés et ont permis des avancées majeures dans ce domaine. La
combinaison de la détection d’objets et de la segmentation sémantique ainsi que l’utilisation
de techniques d’apprentissage non supervisé sont des domaines de recherche actifs dans ce
domaine. (Yanming Guo et al,2015) [9]
Il existe aussi autres applications qu’on peut mentionner :
 De nos jours, Google Maps utilise l’intelligence artificielle de DeepMind pour prédire
l’heure d’arrivée, et cette technologie est adoptée par les entreprises du secteur public
pour la cybersécurité avec la propagation de la nouvelle norme COVID-19. Beattie et
al. (2020) ont présenté DeepMind Lab2D, un simulateur qui offre un environnement
évolutif pour la recherche en intelligence artificielle. (C. Beattie et al,2020) [12]
 Google, en collaboration avec la société Improbable, recrée le monde réel avec la
réalité augmentée (RA). Par exemple, un système de navigation amélioré utilise la RA
pour superposer l’itinéraire sur la vue en direct de la route. Les agents au sol de
l’aéroport de Singapour utilisent des lunettes à réalité augmentée pour obtenir plus
d’informations sur les conteneurs de fret et accélérer les temps de chargement. (Neha
Sharma et al,2021) [13]
 Les voitures autonomes sont une nouveauté grâce à l’intelligence artificielle. Le
laboratoire d’IA d’Uber travaille sur la création de voitures sans conducteur avec
plusieurs fonctionnalités intelligentes. Selon Forbes, le MIT tente de développer un
système qui permettra la navigation de voitures autonomes sans carte. Il existe toujours
des restrictions pour la cartographie 3D dans certaines zones du monde, car elle n’est
pas efficace pour éviter les accidents. Zhou et al. (2020) ont développé SMARTS en
open-source, qui est une « école de formation évolutive d’apprentissage par
renforcement multi-agent pour la conduite autonome », qui aide à former les
utilisateurs de la route à utiliser différents modèles de comportement, à accumuler des
connaissances. (M Zhou et al,2020) [14]
2. Chapitre 2
Dans cette section, nous examinerons quelques articles qui traitent de l'application de
l'apprentissage profond dans le domaine de la santé, en se concentrant spécifiquement sur le
coronavirus.

1) A Review on Deep Learning Techniques for the Diagnosis of Novel Coronavirus


(COVID-19) (MD. MILON ISLAM et al, 2021) [15]

Cette revue se concentre sur l'utilisation de techniques d'apprentissage profond pour le


diagnostic de la COVID-19. Elle examine spécifiquement les systèmes développés pour ce
diagnostic en utilisant des techniques d'apprentissage profond appliquées aux images de
scanner CT et aux échantillons de radiographie. De plus, elle met en évidence les ensembles
de données couramment utilisés pour entraîner ces réseaux, ainsi que les techniques de
partitionnement des données et les différentes mesures de performance développées par les
chercheurs dans ce domaine. Une taxonomie est établie pour catégoriser les travaux récents et
offrir une meilleure compréhension. Enfin, cette revue conclut en abordant les défis associés à
l'utilisation des méthodes d'apprentissage profond pour la détection de COVID-19, ainsi que
les tendances futures probables dans ce domaine de recherche. L'objectif principal de cet
article est de faciliter la compréhension des experts (qu'ils soient médicaux ou non) et des
techniciens quant aux façons dont les techniques d'apprentissage profond sont utilisées dans ce
contexte, ainsi que leur potentiel d'utilisation supplémentaire pour lutter contre la propagation
de la COVID-19.

2) Deep learning for COVID-19 prediction: (Safa Bahri et al, 2020) [16]

Cet article présente une étude qui explore l'utilisation d'un réseau de neurones
récurrents LSTM pour prédire le taux de guérison de la COVID-19 dans trois pays
spécifiques : l'Italie, l'Inde et les États-Unis. Les chercheurs ont extrait les données
nécessaires à partir du dépôt officiel de l'Organisation mondiale de la santé (OMS). Ils
ont ensuite divisé ces données en deux ensembles : 80 % pour l'entraînement du
modèle et 20 % pour les tests. L'objectif principal était de développer un modèle
capable de fournir des prédictions précises et fiables sur la progression de la guérison
de la maladie. Pour évaluer les performances du modèle, les chercheurs ont utilisé la
mesure d'erreur absolue moyenne pondérée (MAPE). Les résultats de l'expérience ont
démontré que le modèle LSTM avait un taux d'erreur inférieur à 3 %, ce qui indique
une précision élevée dans les prédictions. Ces résultats prometteurs suggèrent que les
réseaux de neurones récurrents LSTM peuvent être un outil efficace pour prédire le
taux de guérison de la COVID-19 dans différents pays.

3) Deep learning COVID-19 detection bias: accuracy through artificial intelligence


(Shashank Vaid et al,2020) [17]

L'article présente le développement d'un modèle d'apprentissage profond basé sur des
réseaux de neurones à convolution (CNN) pour améliorer la précision de la détection
des maladies à partir de radiographies thoraciques. L'objectif était de détecter les
anomalies structurelles et de catégoriser les maladies pour découvrir des motifs cachés.
Les chercheurs ont utilisé une approche d'apprentissage par transfert en utilisant des
ensembles de données disponibles publiquement. Les images utilisées dans cette étude
ont été collectées à partir d'une collection d'articles et de publications récemment
publiés dans le cadre d'un effort mondial de recherche collaborative sur la détection de
la COVID-19. Les données utilisées comprenaient des informations telles que
l'identifiant du patient, le sexe, l'âge, le diagnostic, la survie, la vue de la radiographie,
l'horodatage et le lieu. Ces données ont été réparties en ensembles d'entraînement, de
validation et de test dans un rapport de 80:20:20. Avant l'entraînement, les
radiographies ont été normalisées pour mettre les valeurs des pixels dans la plage de 0
à 1. Ensuite, les images ont été redimensionnées pour avoir des dimensions de 512 ×
512 pixels. Le modèle a été entraîné en utilisant l'optimiseur Adam avec un taux
d'apprentissage initial de 0,001, sur 100 époques et avec une taille de lot de 15.
L'entraînement a été effectué sur un GPU Tesla K80, et des techniques telles que l'arrêt
prématuré et la réduction du taux d'apprentissage ont été utilisées pour améliorer les
performances. Les résultats obtenus ont montré une précision élevée de 96,3% et une
faible perte de 0,151 en utilisant un ensemble de données public comprenant des
patients de différents pays du monde. L'analyse de la matrice de confusion a révélé que
le modèle était capable d'identifier avec précision les vrais négatifs et les vrais positifs.
Cependant, le modèle a également identifié trois cas de faux positifs et un cas de faux
négatif parmi les radiographies de patients en bonne santé.

4) CoroDet: A deep learning based classification for COVID-19 detection using chest
X-ray images (Emtiaz Hussain et al,2020) [18]

L'article présente le développement d'un nouveau réseau de neurones à convolution appelé


CoroDet, composé de 22 couches. L'objectif de ce réseau est d'automatiser la détection de la
COVID-19 à partir d'images brutes de radiographies thoraciques et de tomodensitogrammes.
Pour mener cette étude, une vaste base de données a été créée en combinant et en modifiant
différents référentiels de données accessibles au public. Le réseau CoroDet a été développé
pour effectuer une classification précise en 2 classes (COVID et normal), en 3 classes
(pneumonie COVID, normal et non-COVID) et en 4 classes (pneumonie virale COVID,
normal, non-COVID et pneumonie bactérienne non-COVID). Les performances de ce modèle
ont été évaluées en utilisant différentes mesures telles que la précision, le rappel, le score F1,
l'exactitude, la sensibilité, la spécificité et la matrice de confusion pour chaque pli de
l'expérience. Les résultats ont montré que le modèle CoroDet surpassait les dix techniques
existantes de détection de la COVID-19 en termes de précision. Il a atteint une précision de
classification de 99,1% pour la classification en 2 classes, 94,2% pour la classification en 3
classes et 91,2% pour la classification en 4 classes. Ces performances sont nettement
meilleures que celles des méthodes actuelles utilisées pour la détection de la COVID-19. De
plus, l'ensemble de données préparé pour l'évaluation de cette méthode est le plus grand
ensemble de données disponible à ce jour pour la détection de la COVID-19 à partir d'images
radiographiques. En conclusion, le modèle CoroDet se révèle être une approche prometteuse
pour la détection automatisée de la COVID-19, offrant des performances supérieures à celles
des méthodes existantes. Ce modèle ouvre la voie à de nouvelles possibilités dans le domaine
de la détection précoce et précise de la maladie.

5) Sentiment Analysis of COVID-19 Tweets Using Deep Learning and Lexicon-


Based Approaches (Bharati Sanjay Ainapure et al,2023) [19]
Cet article présente une étude sur l'analyse des sentiments des citoyens indiens à l'égard
de la pandémie de COVID-19 et de la campagne de vaccination en utilisant des
messages texte publiés sur Twitter. L'étude utilise à la fois des techniques basées sur le
lexique et des méthodes de deep learning. Les sentiments exprimés dans les tweets ont
été classifiés en trois catégories : positif, négatif et neutre. Deux ensembles de données
ont été utilisés, comprenant environ 80 000 tweets sur le COVID-19 publiés sur une
période de trois mois (de mars 2020 à mai 2020) et 218 791 tweets sur la vaccination.
Une approche basée sur le lexique a été utilisée pour classifier la polarité des tweets en
utilisant les outils VADER et NRCLex. En utilisant des techniques de deep learning
telles que Bi-LSTM et GRU, un réseau neuronal récurrent a été entraîné. Le modèle a
atteint une précision de 92,70 % et 91,24 % respectivement sur l'ensemble de données
COVID-19. Pour la classification des tweets sur la vaccination, des précisions de 92,48
% et 93,03 % ont été obtenues avec les techniques Bi-LSTM et GRU, respectivement.
Les performances du modèle ont été évaluées en utilisant des mesures standard telles
que la précision, le score F1, la sensibilité, la spécificité et le rappel. Les résultats de
cette analyse peuvent être utiles aux secteurs de la santé et aux organisations
gouvernementales pour comprendre les préoccupations du public concernant la
maladie et prendre les mesures nécessaires.

ARTICLE Base de données Méthode utilisé Objectif


A Review on // Revue sur Aperçu des
Deep plusieurs systèmes
Learning méthodes récemment
Techniques comme développés
for the ResNet50, basés sur des
Diagnosis of COVNet techniques
Novel ai-corona .. d'apprentissage
Coronavirus profond
(COVID-19) utilisant
différentes
modalités
d'imagerie
médicale
Deep learning Référentiel officiel relatif à Long-Short Prédire le taux
for COVID- l'organisation mondiale de la Term Memory de guérison de
19 prediction santé (LSTM) la COVID-19
dans trois pays
spécifiques :
l'Italie, l'Inde et
les États Unis
Deep learning Les images ont été collectées à Convolutional Améliorer la
COVID-19 partir d'une collection de neural précision des
detection documents et d'articles networks cas signalés et
bias: récemment publiés. prédire avec
accuracy précision la
through maladie à partir
artificial des
intelligence radiographies
pulmonaires
CoroDet: A L’ensemble de données est Convolutional Servir de
deep learning préparé en combinant et en neural diagnostic
based modifiant les huit différents networks précis pour la
classification référentiels de données classification en
for COVID- accessibles au public 2 classes
19 detection (COVID et
using chest X- Normal), la
ray images classification en
3 classes
(pneumonie
COVID,
normale et non
COVID) et la
classification en
4 classes
(pneumonie
virale COVID,
normale, non
COVID et non
COVID
pneumonie
bactérienne)
Sentiment https://www.kaggle.com/code RNN Analyser les
Analysis of elgendy5576/tweets/script (Recurrent sentiments des
COVID-19 neural citoyens indiens
Tweets Using https://www.kaggle.com/datasets network) à propos de la
Deep kaushiksuresh147/covidvaccine- pandémie de
Learning and tweets COVID-19 et
Lexicon- de la campagne
Based de vaccination
Approaches

ARTICLE Avantage Inconvénient


A Review on Deep La description détaillée de Certains aspects spécifiques
Learning Techniques for plusieurs études récentes et des réseaux de neurones
the Diagnosis of Novel les méthodes utilisé. examinés, tels que le
Coronavirus (COVID-19) nombre de couches, la
spécification des couches,
le taux d'apprentissage, le
nombre d'époques, en
particulier pour les
architectures
personnalisées, ne sont pas
mentionnés ici.
Deep learning for L'utilisation de modèles L'utilisation des modèles
COVID-19 prediction LSTM dans cette étude LSTM, introduit de la
démontre une grande complexité dans le
précision dans la prévision processus de modélisation
des cas guéris de COVID prédictive, et la nature
19, offrant ainsi un outil gourmande en ressources
précieux pour la prévision de ces méthodes peut poser
de la pandémie en cours. des problèmes de mise en
œuvre sur des systèmes
informatiques moins
puissants.
Deep learning COVID-19 -Méthode moins coûteuse, -Les données d'images seules
detection bias: accuracy plus rapide et plus simple ne sont pas adéquates, tout
through artificial pour soutenir les efforts comme le nombre de cas
intelligence visant à déterminer la d'entraînement, pour garantir
proportion de la population des résultats fiables.
qui aurait déjà été infectée
par le virus
CoroDet: A deep learning -La capacité de ce modèle à -La combinaison et la
based classification for traiter simultanément modification des données
COVID-19 detection plusieurs classes, ce qui lui peuvent introduire des biais
using chest X-ray images confère une grande flexibilité ou des erreurs potentiels, ce
dans la détection de la qui peut avoir un impact sur
COVID-19. les performances globales
du modèle.
Sentiment Analysis of -L’étude proposée prend en -la dépendance exclusive à
COVID-19 Tweets Using compte à la fois les tweets l'égard des données de
Deep Learning and COVID-19 et les tweets de Twitter pour analyser les
Lexicon-Based vaccination pour analyse. sentiments des citoyens
Approaches -Performances supérieures indiens, les utilisateurs de
par rapport au méthodes cette plateforme ne
déjà existants représentent pas
nécessairement l'ensemble
de la population indienne.

Référence :
1. Shinde, P. P., & Shah, S. (2018, August). A review of machine
learning and deep learning applications. In 2018 Fourth
international conference on computing communication control
and automation (ICCUBEA) (pp. 1-6). IEEE.

2. Azencott, C. A. (2022). Introduction au Machine Learning-2e éd.


Dunod.
3.
4. Osisanwo, F. Y., Akinsola, J. E. T., Awodele, O., Hinmikaiye, J.
O., Olakanmi, O., & Akinjobi, J. (2017). Supervised machine
learning algorithms: classification and comparison. International
Journal of Computer Trends and Technology (IJCTT), 48(3), 128-
138.

5. Tanwar, S., Bhatia, Q., Patel, P., Kumari, A., Singh, P. K., &
Hong, W. C. (2019). Machine learning adoption in blockchain-
based smart applications: The challenges, and a way
forward. IEEE Access, 8, 474-488
4.

6. Mahesh, B. (2020). Machine learning algorithms-a


review. International Journal of Science and Research
(IJSR).[Internet], 9(1), 381-386

7. Singh, P. K., Kar, A. K., Singh, Y., Kolekar, M. H., &


Tanwar, S. (Eds.). (2019). Proceedings of ICRIC 2019:
Recent Innovations in Computing (Vol. 597). Springer
Nature.
8.

9. Guo, Y., Liu, Y., Oerlemans, A., Lao, S., Wu, S., & Lew, M. S. (2016). Deep learning for
visual understanding: A review. Neurocomputing, 187, 27-48.

10. Yamashita, R., Nishio, M., Do, R. K. G., & Togashi, K. (2018). Convolutional neural
networks: an overview and application in radiology. Insights into imaging, 9, 611-629.

11. Carreira-Perpinan, M. A., & Hinton, G. (2005, January). On contrastive divergence


learning. In International workshop on artificial intelligence and statistics (pp. 33-40). PMLR.

12. Beattie, C., Köppe, T., Duéñez-Guzmán, E. A., & Leibo, J. Z. (2020). Deepmind
lab2d. arXiv preprint arXiv:2011.07027.

13. Sharma, N., Sharma, R., & Jindal, N. (2021). Machine learning and deep learning
applications-a vision. Global Transitions Proceedings, 2(1), 24-28.

14. Zhou, M., Luo, J., Villella, J., Yang, Y., Rusu, D., Miao, J., ... & Wang, J. (2020). Smarts:
Scalable multi-agent reinforcement learning training school for autonomous driving. arXiv
preprint arXiv:2010.09776.

15. Islam, M. M., Karray, F., Alhajj, R., & Zeng, J. (2021). A review on deep learning
techniques for the diagnosis of novel coronavirus (COVID-19). Ieee Access, 9, 30551-30572.

16. Bahri, S., Kdayem, M., & Zoghlami, N. (2020, December). Deep Learning for COVID-19
prediction. In 2020 4th International Conference on Advanced Systems and Emergent
Technologies (IC_ASET) (pp. 406-411). IEEE.

17. Vaid, S., Kalantar, R., & Bhandari, M. (2020). Deep learning COVID-19 detection bias:
accuracy through artificial intelligence. International Orthopaedics, 44, 1539-1542.

18. Hussain, E., Hasan, M., Rahman, M. A., Lee, I., Tamanna, T., & Parvez, M. Z. (2021).
CoroDet: A deep learning based classification for COVID-19 detection using chest X-ray
images. Chaos, Solitons & Fractals, 142, 110495.

19. Ainapure, B. S., Pise, R. N., Reddy, P., Appasani, B., Srinivasulu, A., Khan, M. S., & Bizon,
N. (2023). Sentiment analysis of COVID-19 tweets using deep learning and lexicon-based
approaches. Sustainability, 15(3), 2573.

Vous aimerez peut-être aussi