Vous êtes sur la page 1sur 22

Abonnez-vous à DeepL Pro pour traduire des fichiers plus volumineux.

Visitez www.DeepL.com/pro pour en savoir plus.

RECHERCHE ORIGINALE
publié : 25 avril 2022 doi :
10.3389/fmicb.2022.829027

EMDS-6 : Environmental
Microorganism Image Dataset Sixth
Version pour le débruitage, la
segmentation, l'extraction de
caractéristiques, la classification et
l'évaluation des méthodes de
détection.
Peng Zhao1 , Chen Li1 *, Md Mamunur Rahaman1,2 , Hao Xu1 , Pingli Ma1 , Hechen Yang1 ,
Hongzan Sun3 , Tao Jiang4 *, Ning Xu5 et Marcin Grzegorzek 6
1Microscopic Image and Medical Image Analysis Group, College of Medicine and Biological Information Engineering,
Northeastern University, Shenyang, Chine,2 School of Computer Science and Engineering, University of New South Wales,
Sydney, NSW, Australie,3 Department of Radiology, Shengjing Hospital, China Medical University, Shenyang, Chine,4 School of
Control Engineering, Chengdu University of Information Technology, Chengdu, Chine,5 School of Arts and Design, Liaoning
Petrochemical University, Fushun, Chine,6 Institute of Medical Informatics, University of Lübeck, Lübeck, Allemagne
Image Dataset Sixth Version for Image Denoising, Segmentation, Feature Extraction, Classification, and Detection
Édité par : Method Evaluation.
George Tsiamis, Front. Microbiol. 13:829027. doi : 10.3389/fmicb.2022.829027
Université de Patras, Grèce

Examiné par :
Muhammad Hassan Khan,
Université du Punjab, Pakistan
Elias Asimakis,
Université de Patras, Grèce

*Correspondance :
Chen Li
lichen201096@hotmail.com
Tao Jiang
jiang@cuit.edu.cn

Section spécialisée
: Cet article a été soumis à
Systems Microbiology,
une section de la
revue Frontiers in
Microbiology

Reçu : 04 décembre 2021


Accepté : 28 mars 2022
Publié : 25 avril 2022

Citation :
Zhao P, Li C, Rahaman MM, Xu H,
Ma P, Yang H, Sun H, Jiang T, Xu
N et Grzegorzek M (2022) EMDS-6
: Environmental Microorganism
Frontiers in Microbiology | www.frontiersin.org 1 Avril 2022 | Volume 13 | Article 829027
tels que le débruitage, la segmentation d'images et la détection d'objets. Les
Les micro-organismes résultats expérimentaux montrent que l'EMDS-6 peut être utilisé pour évaluer les
environnementaux (ME) performances des méthodes de débruitage, de segmentation, d'extraction de
sont omniprésents caractéristiques, de classification et de détection d'objets. L'EMDS-6 est disponible
autour de nous et ont sur le site https://figshare.com/articles/ dataset/EMDS6/17125025/1.
un impact important sur Mots-clés : micro-organismes environnementaux, débruitage d'images, segmentation d'images, extraction de
la survie et le caractéristiques, classification d'images, détection d'objets.
développement de la
société humaine. 1. INTRODUCTION
Toutefois, les normes
élevées et les exigences
1.1. Micro-organismes de l'environnement
Les micro-organismes environnementaux (ME) font généralement référence à de minuscules
strictes en matière de organismes vivants présents dans la nature, invisibles à l'œil nu et visibles uniquement à l'aide
préparation des d'un microscope. Bien que les micro-organismes environnementaux soient minuscules, ils ont un
données sur les micro- impact significatif sur la survie de l'homme (Madigan et al., 1997 ; Rahaman et al., 2020).
Certaines bactéries bénéfiques peuvent être utilisées pour produire des aliments fermentés tels
organismes que le fromage et le pain dans une perspective bénéfique. Par ailleurs, certains EM bénéfiques
environnementaux peuvent dégrader les plastiques, traiter les déchets gazeux contenant du soufre dans l'industrie et
(ME) ont conduit à améliorer le sol. D'un point de vue nuisible,
l'insuffisance des
ensembles de données
connexes existants,
sans parler des
ensembles de données
avec des images de
vérité de terrain (GT).
Ce problème affecte
sérieusement les
progrès des expériences
connexes. C'est
pourquoi cette étude
développe la sixième
version de
l'Environmental
Microorganism Dataset
(EMDS-6), qui contient
21 types d'EM. Chaque
type d'EM contient 40
images originales et 40
images GT, soit un total
de 1680 images EM.
Dans cette étude, afin
de tester l'efficacité de
l'EMDS-6, nous
choisissons des
algorithmes classiques
d'analyse d'images.
Nous choisissons les
algorithmes classiques
des méthodes de
traitement d'images,

Frontiers in Microbiology | www.frontiersin.org 2 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

Les ME provoquent la détérioration des aliments, réduisent la changements radicaux d'environnement et de température
production agricole et sont également l'un des principaux affectent la qualité des échantillons d'EM. Dans le même temps,
responsables de l'épidémie de maladies infectieuses. Afin de si le chercheur observe les EM à l'aide d'un microscope optique
mieux exploiter les avantages des micro-organismes traditionnel, il est très enclin à commettre des erreurs subjectives
environnementaux et de prévenir leurs effets néfastes, un grand en raison d'un traitement visuel continu et à long terme. Par
nombre de chercheurs scientifiques se sont lancés dans la conséquent, la collecte d'ensembles de données d'images de
recherche sur les micro-organismes environnementaux. micro-organismes environnementaux est un défi (Kosov et al.,
L'analyse d'image des EM est à la base de tout cela. 2018). La plupart des ensembles de données d'images de micro-
Les EM sont de taille minuscule, généralement comprise entre organismes environnementaux existants ne sont pas accessibles
0,1 et 100 microns. Cela pose certaines difficultés pour la au public. Cela a un impact important sur les progrès de la
détection et l'identification des EM. Les "méthodes recherche scientifique dans ce domaine. C'est pourquoi nous
morphologiques" traditionnelles obligent les chercheurs à avons créé la sixième version de la base de données d'images de
regarder directement sous un microscope (Madsen, 2008). Les micro-organismes environnementaux (Environmental
résultats sont ensuite présentés en fonction des caractéristiques Microorganism Image Dataset Sixth Version).
de la forme. Cette méthode traditionnelle nécessite davantage de
main-d'œuvre et de temps. Par conséquent, l'extraction des
caractéristiques et l'analyse des images d'EM assistées par
ordinateur peuvent permettre aux chercheurs d'utiliser leurs
connaissances professionnelles minimales en un minimum de
temps pour prendre les décisions les plus précises.

1.2. Traitement et analyse d'images EM


L'analyse d'images est une combinaison de modèles
mathématiques et de technologies de traitement d'images
permettant d'analyser et d'extraire certaines informations. Le
traitement d'images fait référence à l'utilisation d'ordinateurs
pour analyser des images. Le traitement d'image courant
comprend le débruitage, la segmentation d'image et l'extraction
de caractéristiques. Le bruit d'image fait référence à divers
facteurs dans l'image qui empêchent les gens d'accepter
l'information qu'elle contient. Le bruit d'image est généralement
généré lors de l'acquisition, de la transmission et de la
compression de l'image (Pitas, 2000). L'objectif du débruitage
d'images est de récupérer l'image originale à partir de l'image
bruitée (Buades et al., 2005). La segmentation de l'image est une
étape critique du traitement de l'image pour analyser une image.
Dans la segmentation, nous divisons une image en plusieurs
régions ayant des propriétés uniques et nous extrayons les
régions d'intérêt (Kulwa et al., 2019). L'extraction de
caractéristiques se réfère à l'obtention d'informations
importantes à partir d'images telles que des valeurs ou des
vecteurs (Zebari et al., 2020). De plus, ces caractéristiques
peuvent être distinguées d'autres types d'objets. Ces
caractéristiques permettent de classer les images. Par ailleurs, les
caractéristiques d'une image constituent la base de la détection
d'objets. La détection d'objets utilise des algorithmes pour
générer des images candidates d'objets, c'est-à-dire des positions
d'objets. Ensuite, les images candidates sont classées et
régressées.

1.3. La contribution de la sixième


version de l'Environmental
Microorganism Image Dataset
(EMDS-6)
Les prélèvements d'échantillons d'EM sont généralement
effectués à l'extérieur. Lors du transport ou du déplacement des
échantillons vers le laboratoire pour observation, les

Frontiers in Microbiology | www.frontiersin.org 3 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
TABLEAU 1 : Informations de base sur l'ensemble de données EMDS-6, y technologies de Pékin, Chine ; Prof. Dr.-Ing. Chen Li et M.E.
d'images
compris le nombre d'images originales (NoOI) et le nombre d'images GT HaoXu de l'Université de Northeastern, Chine ; Prof. Yanling
(NoGT). Zou de l'Université de Heidelberg, Allemagne. Les images GT de
l'EMDS-6
Classe NoOI NoGT Classe NoOI NoGT

Actinophrys 40 40 Ceratium 40 40
Arcella 40 40 Stentor 40 40
Aspidisca 40 40 Siprostomum 40 40
Codosiga 40 40 K. Quadrala 40 40
Colpode 40 40 Euglena 40 40
Epistylis 40 40 Gymnodinium 40 40
Euglypha 40 40 Gonyaulax 40 40
Paramécie 40 40 Phacus 40 40
Rotifères 40 40 Stylonychie 40 40
Vorticule 40 40 Synchaeta 40 40
Noctiluca 40 40 - - -
Total 840 840 Total 840 840

(EMDS-6) et l'a mis à la disposition du public pour aider les


chercheurs scientifiques concernés. Comparé à d'autres
ensembles d'images de micro-organismes environnementaux,
l'EMDS-6 présente de nombreux avantages. L'ensemble de
données contient une variété de micro-organismes et offre des
possibilités de multi-classification des images EM. En outre, à
chaque image de l'EMDS-6 correspond une image de vérité
terrain (GT). Les images GT peuvent être utilisées pour
l'évaluation des performances de la segmentation d'images et
de la détection d'objets. Toutefois, le processus de production
des images GT est extrêmement compliqué et consomme
énormément de temps et de ressources humaines. Par
conséquent, de nombreux ensembles de données d'images de
micro-organismes environnementaux ne contiennent pas
d'images GT. En revanche, l'ensemble de données que nous
proposons contient des images GT. Dans nos expériences,
l'EMDS-6 peut fournir un support de données robuste pour des
tâches telles que le débruitage, la segmentation d'images,
l'extraction de caractéristiques, la classification d'images et la
détection d'objets. Par conséquent, la principale contribution
de l'ensemble de données EMDS-6 est de fournir un support de
données pour l'analyse d'images et la recherche liée au
traitement d'images et de promouvoir le développement
d'expériences et de recherches liées aux EM.

2. MATÉRIAUX ET MÉTHODES
2.1. Ensemble de données EMDS-6
L'ensemble de données EMDS-6 comprend 1 680 images, dont
21 classes d'images EM originales avec 40 images par classe, ce
qui donne un total de 840 images originales, et chaque image
originale est suivie d'une image GT pour un total de 840. Le
tableau 1 présente les détails de l'ensemble de données EMDS-
6. La figure 1 montre quelques exemples d'images originales et
d'images GT dans l'EMDS-6. L'EMDS-6 est publié
gratuitement à des fins non commerciales à l'adresse suivante :
https://figshare.com/ articles/dataset/EMDS6/17125025/1.
Le processus de collecte des images EMDS-6 s'étend de 2012
à 2020. Les personnes suivantes ont contribué de manière
significative à la production du jeu de données EMDS-6 :
Beihai Zhou et Dr Fangshu Ma de l'Université des sciences et
Frontiers in Microbiology | www.frontiersin.org 4 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

FIGURE 1 - Exemple d'EMDS-6, comprenant des images originales et des images GT.

sont produits par le Prof. Dr.-Ing Chen Li, M.E. Bolin Lu, l'étape clé du prétraitement de l'image (Zhang et al., 2022).
M.E. Xuemin Zhu et B.E. Huaqian Yuan de la Northeastern
University, Chine. Les règles d'étiquetage de l'image GT sont les
suivantes : la zone où se trouve le micro-organisme est marquée
en blanc comme premier plan, et le reste est marqué en noir
comme arrière-plan.

2.2. Méthode et dispositif expérimentaux


Pour mieux démontrer les fonctions de l'EMDS-6, nous
réalisons des expériences d'ajout et de débruitage de bruit, de
segmentation d'images, d'extraction de caractéristiques
d'images, de classification d'images et de détection d'objets. Les
méthodes expérimentales et les paramètres des données sont
présentés ci-dessous. En outre, nous sélectionnons différents
indices critiques pour évaluer chaque résultat expérimental dans
cette section.

2.2.1. Méthode d'addition de bruit et de débruitage


Dans le traitement des images numériques, la qualité d'une
image à reconnaître est souvent affectée par des conditions
externes, telles que l'équipement d'entrée et l'environnement. Le
bruit généré par les influences environnementales externes
affecte largement le traitement et l'analyse des images (par
exemple, la détection des bords de l'image, la classification et la
segmentation). Par conséquent, le débruitage de l'image est
Frontiers in Microbiology | www.frontiersin.org 5 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
Dans cette étude, nous avons utilisé quatre types de bruit : le d'images
bruit de Poisson, le bruit multiplicatif, le bruit gaussien et le
bruit de bretzel. En ajustant la moyenne, la variance et la
densité des différents types de bruit, un total de 13 bruits
spécifiques est généré. Il s'agit d'un bruit multiplicatif avec une
variance de 0,2 et 0,04 (indiqué comme MN:0,2 et MN : 0,04
dans le tableau), d'un bruit poivre et sel avec une densité de
0,01 et 0,03 (SPN:0,01, SPN:0,03), d'un bruit poivre (PpN), d'un
bruit sel (SN), d'un bruit gaussien de luminosité (BGN), d'un
bruit gaussien de position (PGN), d'un bruit gaussien avec une
variance de 0.01 et une moyenne de 0 (GN 0.01-0), bruit
gaussien avec une variance de 0.01 et une moyenne de 0.5 (GN
0.01-0.5), bruit gaussien avec une variance de 0.03 et une
moyenne de 0 (GN 0.03-0), bruit gaussien avec une variance de
0.03 et une moyenne de 0.5 (GN 0.03-0.5),
et le bruit de Poisson (PN). Il existe 9 types de filtres en
même temps, à savoir le filtre bidimensionnel de rang (TROF),
le filtre de Wiener 3 × 3 [WF (3 × 3)], le filtre de Wiener 5 ×
5 [WF (5 × 5)],
Fenêtre 3 × 3 Filtre moyen [MF (3 × 3)], Filtre moyen avec 5
×
5 Fenêtres [MF (5 × 5)]. Filtrage minimal (MinF), filtrage
maximal (MaxF), filtrage de la moyenne géométrique (GMF),
filtrage arithmétique, etc.
Filtrage moyen (AMF). Dans l'expérience, 13 types de bruit
sont ajoutés à l'image de l'ensemble de données EMDS-6, puis
9 types de filtres sont utilisés pour le filtrage. Le résultat de
l'ajout de bruit à l'image et du filtrage est illustré à la figure 2.

Frontiers in Microbiology | www.frontiersin.org 6 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

FIGURE 2 - Exemples d'utilisation de différents filtres pour filtrer le bruit de sel et de poivre.

2.2.2. Méthodes de segmentation d'images seuillage d'Otsu est un algorithme basé sur la binarisation
Cet article conçoit l'expérience suivante pour prouver que globale, qui peut réaliser des seuils adaptatifs. L'algorithme de
l'EMDS-6 peut être utilisé pour tester différentes méthodes de segmentation REG part d'un certain pixel et ajoute
segmentation d'images (Zhang et al., 2021). Six méthodes de progressivement les pixels voisins
segmentation classiques sont utilisées dans l'expérience : k-
means (Burney et Tariq, 2014), Markov Random Field (MRF)
(Kato et Zerubia, 2012), Otsu Thresholding (Otsu, 1979),
Region Growing (REG) (Adams et Bischof, 1994), Region Split
and Merge Algorithm (RSMA) (Chen et al..., 1991) et
Watershed Segmentation (Levner et Zhang, 2007), ainsi qu'une
méthode de segmentation basée sur l'apprentissage profond,
Recurrent Residual CNN-based U-Net (U-Net) (Alom et al.,
2019), sont utilisées dans cette expérience. Lors de l'utilisation
de U-Net pour la segmentation, le taux d'apprentissage du
réseau est de 0,001 et la taille du lot est de 1. Dans l'algorithme
k-means, la valeur de k est fixée à 3, le centre initial est choisi au
hasard et les itérations sont arrêtées lorsque le nombre
d'itérations dépasse le nombre maximal d'itérations. Dans
l'algorithme MRF, le nombre de classifications est fixé à 2 et le
nombre maximal d'itérations est de
60. Dans l'algorithme d'Otsu, la taille du bloc est fixée à 3 et la
valeur moyenne est obtenue par calcul de la moyenne. Dans
l'algorithme de croissance de la région, nous utilisons un
paramètre de croissance de 8 voisinages.
Parmi les sept méthodes de segmentation classiques, la
méthode des k-moyennes est basée sur le regroupement, qui est
une technologie basée sur les régions. L'algorithme des bassins
versants est basé sur l'analyse géomorphologique, comme les
montagnes et les bassins, pour mettre en œuvre différents
algorithmes de segmentation d'objets. Le MRF est un algorithme
de segmentation d'images basé sur les statistiques. Ses
principales caractéristiques sont un nombre réduit de
paramètres de modèle et de fortes contraintes spatiales. Le
Frontiers in Microbiology | www.frontiersin.org 7 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
selon certains critères. Lorsque certaines conditions sont d'images
remplies, la croissance régionale est interrompue et l'extraction
de l'objet est réalisée. Le RSMA commence par déterminer un
critère de division et de fusion. Lors de la division jusqu'au
point où il n'y a plus de division, les zones présentant des
caractéristiques similaires sont intégrées. La figure 3 montre
un échantillon des résultats de différentes méthodes de
segmentation sur l'EMDS-6.

2.2.3. Méthodes d'extraction des caractéristiques de


l'image
Cet article utilise 10 méthodes pour l'extraction de
caractéristiques (Li et al., 2015), y compris deux caractéristiques
de couleur, l'une est la caractéristique HSV (teinte, saturation et
valeur) (Junhua et Jing, 2012), et l'autre est l'histogramme de
couleur RVB (rouge, vert et bleu) (Kavitha et Suruliandi, 2016).
Les trois caractéristiques de texture comprennent le motif
binaire local (LBP) (Ojala et al., 2002), l'histogramme de
gradient orienté (HOG) (Dalal et Triggs, 2005) et la matrice de
cooccurrence des niveaux de gris (GLCM) (Qunqun et al.,
2013) formée par la récurrence de la matrice des niveaux de
gris des pixels. Les quatre caractéristiques géométriques (Geo)
(Mingqiang et al., 2008) comprennent le périmètre, la surface,
l'axe long et l'axe court, ainsi que sept caractéristiques de
moment invariant (Hu) (Hu, 1962). Les caractéristiques de
périmètre, de surface, d'axe long et d'axe court sont extraites de
l'image GT, tandis que les autres sont extraites de l'image
originale. Enfin, nous utilisons une machine à vecteur de
support (SVM) pour classer les caractéristiques extraites. Les
paramètres du classificateur sont présentés dans le tableau 2.

2.2.4. Méthodes de classification des images


Dans cet article, nous concevons les deux expériences suivantes
pour vérifier si l'ensemble de données EMDS-6 permet de
comparer les performances de différents classificateurs (Li et
al., 2019 ; Zhao et al., 2022). Expérience 1 : utiliser des
méthodes traditionnelles d'apprentissage automatique pour

Frontiers in Microbiology | www.frontiersin.org 8 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

FIGURE 3 - Résultats des différentes méthodes de segmentation.

TABLEAU 2 - Paramétrage de la classification des caractéristiques de l'EMDS-6 à TABLEAU 4 - Mesures d'évaluation de la méthode de segmentation.
l'aide d'un SVM.
Indicateurs Formule
Fonctionna Noyau C DFS Tol Max iter
lité 2× |Vpred ∩ Vgt |
Dés | Vpred | + |Vgt |
LBP rbf 50,000 ovr 1e-3 -1 | Vpred ∩ Vgt |
Jaccard |V préd ∪ V gt|
GLCM rbf 10,000 ovr 1e-3 -1 Rappel TP
TP + FN
HOG rbf 1,000 ovr 1e-3 -1
TP, vrai positif ; FN, faux négatif ; Vpred, premier plan prédit par le modèle ; Vgt, premier
HSV rbf 100 ovr 1e-3 -1 plan dans une image GT.
Géo rbf 2,000,000 ovr 1e-3 -1
Hu rbf 100,000 ovr 1e-3 -1
RVB rbf 20 ovr 1e-3 -1
TABLEAU 5 : Indice d'évaluation de la performance de la classification du
C, coefficient de pénalité ; DFS, forme de la fonction de décision ; tol, valeur de l'erreur classificateur.
d'arrêt de la formation ; Geo, caractéristiques géométriques.
Indicateurs d'évaluation Formule

Précision TP+TN
TP+TN+FP+FN
TABLEAU 3 - Paramètres du modèle d'apprentissage profond.
Précision TP
TP+FP

Paramètres Paramètres Score F1 2× P×R


P+R
Rappel TP
TP+FN
Taille du lot, 32 Époque, 100
Apprentissage, 0.002 Optimiseur,
Adam

classer les images. Ce chapitre utilise les caractéristiques Geo l'apprentissage profond pour classer les images. Pendant ce
pour vérifier les performances du classificateur. En outre, les temps, 21 classificateurs sont utilisés pour évaluer
classificateurs traditionnels utilisés pour les tests comprennent
trois classificateurs k-Nearest Neighbor (kNN) (k =
1, 5, 10) (Abeywickrama et al., 2016)], trois Random Forests (RF)
(arbre = 10, 20, 30) (Ho, 1995) et quatre SVM (fonction noyau =
rbf, polynomiale, sigmoïde, linéaire) (Chandra et Bedi, 2021).
Les paramètres des SVM sont fixés comme suit : paramètre de
pénalité C = 1,0, le nombre maximal d'itérations est illimité, la
taille de l'erreur
pour l'arrêt de la formation est de 0,001, et les autres paramètres
ont des valeurs par défaut.
Dans l'expérience 2, nous utilisons des méthodes basées sur
Frontiers in Microbiology | www.frontiersin.org 9 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
les performances, notamment ResNet-18, ResNet-34, ResNet- d'images
50, ResNet-101 (He et al., 2016), VGG-11, VGG-13, VGG-16,
VGG-
19 (Simonyan et Zisserman, 2014), DenseNet-121, DenseNet-
169 (Huang et al., 2017), Inception-V3 (Szegedy et al., 2016),
Xception (Chollet, 2017), AlexNet (Krizhevsky et al., 2012),
GoogleNet (Szegedy et al., 2015), MobileNet-V2 (Sandler et al,
2018), ShuffeleNetV2 (Ma et al., 2018), Inception-ResNet - V1
(Szegedy et al., 2017), et une série de VT, tels que ViT
(Dosovitskiy et al., 2020), BotNet (Srinivas et al., 2021), DeiT
(Touvron et al., 2020), T2T-ViT (Yuan et al., 2021). Les
modèles ci-dessus sont définis avec des hyperparamètres
uniformes, comme indiqué dans le tableau 3.

Frontiers in Microbiology | www.frontiersin.org 10 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

TABLEAU 6 - Comparaison de la similarité entre l'image débruitée et l'image originale.

ToN / DM TROF MF : (3 × MF : (5 × WF : (3 × WF : (5 × MaxF MinF FMV AMF


3) 5) 3) 5)
PN 98.36 98.24 98.00 98.32 98.15 91.97 99.73 99.21 98.11
MN:0.2 99.02 90.29 89.45 91.98 91.08 71.15 99.02 98.89 90.65
MN:0.04 99.51 99.51 99.51 95.57 95.06 82.35 99.51 98.78 94.92
GN 0.01-0 96.79 96.45 96.13 96.75 96.40 85.01 99.44 98.93 96.28
GN 0,01-0,5 98.60 98.52 98.35 98.97 98.81 96.32 99.67 64.35 98.73
GN 0.03-0 94.64 93.99 93.56 94.71 94.71 76.46 99.05 98.74 93.82
GN 0,03-0,5 97.11 96.95 96.66 98.09 97.79 94.04 99.24 66.15 97.54
SPN:0.01 99.28 99.38 99.14 99.60 99.37 95.66 99.71 99.44 99.16
SPN:0.03 98.71 98.57 98.57 99.29 98.87 92.28 99.24 99.26 98.80
PpN 98.45 98.53 98.30 99.46 99.02 96.30 99.04 99.61 98.61
BGN 97.93 97.74 97.74 97.91 97.69 90.00 99.66 99.16 97.60
PGN 96.97 96.63 96.33 97.16 96.85 85.82 99.47 98.98 96.47
SN 97.90 97.97 97.75 99.27 98.63 99.27 98.63 99.64 98.15

ToN, types de bruit ; DM, méthode de débruitage. (En [%]).

TABLEAU 7 - Comparaison de la variance entre l'image débruitée et l'image originale.

ToN / DM TROF MF : (3 × MF : (5 × WF : (3 × WF : (5 × MaxF MinF FMV AMF


3) 5) 3) 5)
PN 1.49 0.77 1.05 0.52 0.66 3.68 2.99 0.41 0.88
MN,v : 0.2 32.49 14.94 15.65 9.33 11.36 39.22 32.49 4.32 13.35
MN,v : 0.04 10.89 10.89 10.89 2.99 3.71 14.41 10.89 0.98 4.28
GN,m : 0,v : 0,01 3.81 3.06 3.44 2.06 2.62 11.68 7.36 1.16 3.00
GN,m : 0,5,v : 0,01 0.89 0.36 0.41 0.21 0.28 0.99 1.74 61.93 0.43
GN,m : 0,v : 0,03 8.60 7.78 8.34 5.04 5.04 27.23 16.55 4.24 7.33
GN,m : 0,5,v : 0,03 1.60 1.08 1.18 0.55 0.73 2.39 3.06 56.17 1.05
SPN,d : 0.01 1.92 1.21 1.46 0.10 0.30 6.37 2.90 4.73 1.25
SPN,d : 0.03 3.84 3.39 3.39 0.33 1.09 14.64 5.18 13.02 3.15
PpN 2.88 2.18 2.44 0.17 0.72 3.72 4.48 16.84 2.09
BGN 2.35 1.63 1.94 1.09 1.38 6.67 4.57 0.84 1.66
PGN 3.79 3.04 3.42 1.67 2.13 11.56 7.33 1.23 2.98
SN 3.86 3.17 3.44 0.31 1.35 4.82 6.25 5.58 2.94

(en [%]).

2.2.5. Méthode de détection des objets peut être exprimée par 1, où i représente l'image originale, i1
Dans cet article, nous utilisons Faster RCNN (Ren et al., 2015) et représente l'image débruitée, N représente le nombre de pixels et
Mask RCNN (He et al., 2017) pour tester la faisabilité de A représente la similarité entre l'image débruitée et l'image
l'ensemble de données EMDS-6 pour la détection d'objets (Li C. originale. Lorsque la valeur de A est proche de 1, la similitude
et al., 2021). Les RCNN plus rapides fournissent d'excellentes entre l'image originale et l'image débruitée est plus élevée et
performances dans de nombreux domaines de la détection l'effet de débruitage est significatif.
d'objets. Le RCNN à masque est optimisé sur le cadre original
du RCNN plus rapide. En utilisant un meilleur squelette
(ResNet combiné à FPN) et l'algorithme AlignPooling, Mask Σ
RCNN atteint les performances suivantes
de meilleurs résultats de détection que le RCNN plus rapide. n
Dans cette expérience, le taux d'apprentissage est de 0,0001, le A=1- i=1 | 1 - i| (1)
modèle
L'épine dorsale est ResNet50 et la taille du lot est de 2. En outre, d'images
nous avons utilisé 25 % des données EMDS-6 pour Cet article utilise des indicateurs de moyenne-variance et de
l'entraînement, 25 % pour la validation et le reste pour les tests. similarité pour évaluer la performance des filtres. L'indice
d'évaluation de la similarité peut
2.3. Méthodes d'évaluation
2.3.1. Méthode d'évaluation pour le débruitage

Frontiers in Microbiology | www.frontiersin.org 11 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
N × 255 d'images

L'indice d'évaluation de la variance peut être exprimé par


l'équation (2), où S représente la moyenne-variance, L(i,j)
représente la valeur correspondant aux coordonnées de
l'image originale (i, j), et B(i,j) la valeur associée aux
coordonnées de l'image débruitée (i, j). Lorsque la valeur de
S est proche de 0, plus la similarité entre l'image originale et
l'image débruitée est élevée, meilleure est la stabilité du
débruitage.

Frontiers in Microbiology | www.frontiersin.org 12 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

TABLEAU 8 - Évaluation des méthodes d'extraction de caractéristiques à l'aide de Tableau 5, TP désigne le nombre d'EM classés comme positifs et
l'ensemble de données EMDS-6.
également étiquetés comme positifs. TN signifie le nombre
Méthode/Index Dés Jaccard Recal
d'EM classés comme négatifs et également étiquetés comme
négatifs. FP désigne le nombre d'EM classés comme positifs
k-means 47.78 31.38 32.11 mais étiquetés comme négatifs. FN désigne le nombre d'EM
MRF 56.23 44.43 69.94 classés comme négatifs mais étiquetés comme positifs.
Otsu 45.23 33.82 40.60
REG 29.72 21.17 26.94
2.3.5. Méthode d'évaluation de la détection d'objets
RSMA 37.35 26.38 30.18
Dans cet article, la précision moyenne (AP) et la précision
Bassin versant 44.21 32.44 40.75
moyenne (mAP) sont utilisées pour évaluer les résultats de la
détection d'objets. La précision moyenne est un indice
U-Net 88.35 81.09 89.67
d'évaluation de modèle largement utilisé dans la détection
(en [%]). d'objets. Plus la PA est élevée, moins il y a d'erreurs de détection.
La méthode de calcul de la PA est présentée dans les équations 3
et 4.
TABLEAU 9 - Différents résultats obtenus en appliquant différentes
caractéristiques dans les expériences de classification de l'EMDS-6 à l'aide d'un
SVM.
FT LBP GLCM HOG N
AP = Σ(rn+1 - rn )Pinterp(r )n+1 (3)
Acc 32.38 10.24 22.98
n=1
HSV Géo Hu RVB
29.52 50.0 7.86 28.81
Pinterp(rn+1 ) = maxrˆ=rn+1 = P(rˆ) (4)
Parmi eux, rn représente la valeur du nième rappel, et p(rˆ)
FT, Feature type ; Acc, Accuracy. (en [%]).
représente la valeur de la précision lorsque le rappel est rˆ.

3. RÉSULTATS EXPÉRIMENTAUX
Σn (L(i,j) - B(i,j))2 ET ANALYSE
S=1-
i=1Σ
n (2) 3.1. Résultats expérimentaux Analyse
i=1 L2(i,j)
du débruitage d'images
Dans l'expérience 1 de la section 2.2.4, nous utilisons uniquement
2.3.2. Méthode d'évaluation pour la segmentation
l'indice de précision pour évaluer la performance des
d'images
classificateurs d'apprentissage automatique traditionnels. Plus le
Nous utilisons des images segmentées et des images GT pour
nombre d'EM correctement classés est élevé, meilleure est la
calculer les indices d'évaluation de Dice, Jaccard et Recall. Parmi
performance de ce classificateur. Dans l'expérience 2, la
les trois mesures d'évaluation, le coefficient de Dice se situe au
performance des modèles d'apprentissage profond doit être
niveau du pixel et est compris entre 0 et 1. Plus il est proche de 1,
considérée dans plusieurs dimensions. Afin d'évaluer plus
meilleure est la structure du modèle. Le coefficient de Jaccard est
précisément la performance des différents modèles
souvent utilisé pour comparer la similarité entre deux
d'apprentissage profond, nous introduisons de nouveaux
échantillons. Lorsque le coefficient de Jaccard est plus élevé, la
indicateurs d'évaluation. Les indices d'évaluation et leur méthode
similarité entre les échantillons est plus grande. Le rappel est
de calcul sont présentés dans le tableau 5. En
une mesure de la couverture, principalement pour la précision
de la prédiction d'un échantillon positif. Les expressions
informatiques de Dice, Jaccard et Rappel sont présentées dans le
tableau 4.

2.3.3. Indice d'évaluation de l'extraction des


caractéristiques d'une image Les caractéristiques d'une
image peuvent être utilisées pour distinguer des classes
d'images. Cependant, la performance des caractéristiques est
limitée par la méthode d'extraction des caractéristiques. Dans
cet article, nous sélectionnons dix méthodes classiques
d'extraction de caractéristiques. Par ailleurs, la précision de
classification du SVM est utilisée pour évaluer la performance
des caractéristiques. Plus la précision de classification du SVM
est élevée, meilleure est la performance de la caractéristique.

2.3.4. Méthode d'évaluation pour la classification des


images
Frontiers in Microbiology | www.frontiersin.org 13 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
Nous calculons l'effet de filtrage de différents filtres pour d'images
différents bruits. Leurs indices d'évaluation de la similarité sont
présentés dans le tableau 6. Le tableau 6 montre que le FMV a
un mauvais effet de filtrage pour GN 0,01-0,5. Le TROF et le
MF ont de meilleurs effets de filtrage pour MN:0,04.
En outre, la moyenne-variance est un indice courant pour
évaluer la stabilité de la méthode de débruitage. Dans cet
article, la variance des images EM débruitées EMDS-6 et des
images EM originales est calculée comme indiqué dans le
tableau 7. À mesure que la densité du bruit augmente, la
variance augmente de manière significative entre les images
débruitées et les images originales. Par exemple, en augmentant
la densité de SPN de 0,01 à 0,03, la variance augmente de
manière significative sous différents filtres. Cela indique que le
résultat après débruitage n'est pas très stable.
Les expériences ci-dessus montrent que l'EMDS-6 permet
de tester et d'évaluer correctement les performances des
méthodes de débruitage d'images. Par conséquent, l'EMDS-6
peut fournir des données solides pour la recherche sur le
débruitage des images EM.

3.2. Analyse des résultats expérimentaux de


la segmentation d'images
Les résultats expérimentaux des sept méthodes de
segmentation d'images sont présentés dans le tableau 8. Dans
le tableau 8, le REG et le RSMA ont des performances de
segmentation médiocres, et leurs indices de Dice, Jaccard et
Recall sont bien inférieurs à ceux des autres méthodes de
segmentation. Cependant, la méthode U-Net, basée sur
l'apprentissage profond, a fourni des performances supérieures.
En comparant ces méthodes de segmentation d'images, on peut
conclure que l'EMDS-6 peut fournir un support de données
solide pour tester et évaluer les méthodes de segmentation
d'images.

Frontiers in Microbiology | www.frontiersin.org 14 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

TABLEAU 10 - Résultats des expériences de classification des caractéristiques Geo à l'aide de classificateurs traditionnels.

Type de classificateur SVM : linéaire SVM : polynomial SVM : RBF SVM : sigmoïde RF,nT : 30

Précision 51.67 27.86 28.81 14.29 98.33


kNN,k : 1 kNN,k : 5 kNN,k : 10 RF,nT : 10 RF,nT : 20 -
23.1 17.86 17.38 96.19 97.86 -

(en [%]).

TABLEAU 11 | Résultats de la classification de différents modèles d'apprentissage profond.

Modèle Précision (%) Rappel (%) Score F1 (%) Acc (%) PS (MB) Temps (S)

Xception 44.29 45.36 42.40 44.29 79.8 1,079


ResNet34 40.00 43.29 39.43 40.00 81.3 862
Googlenet 37.62 40.93 35.49 37.62 21.6 845
Densenet121 35.71 46.09 36.22 35.71 27.1 1,002
Densenet169 40.00 40.04 39.16 40.00 48.7 1,060
ResNet18 39.05 44.71 39.94 39.05 42.7 822
Inception-V3 35.24 37.41 34.14 35.24 83.5 973
Mobilenet-V2 33.33 38.43 33.97 33.33 8.82 848
InceptionResnetV1 35.71 38.75 35.32 35.71 30.9 878
Deit 36.19 41.36 36.23 36.19 21.1 847
ResNet50 35.71 38.58 35.80 35.71 90.1 967
ViT 32.86 37.66 32.47 32.86 31.2 788
ResNet101 35.71 38.98 35.52 35.71 162 1,101
T2T-ViT 30.48 32.22 29.57 30.48 15.5 863
ShuffleNet-V2 23.33 24.65 22.80 23.33 1.52 790
AlexNet 32.86 34.72 31.17 32.86 217 789
VGG11 30.00 31.46 29.18 30.00 491 958
BotNet 28.57 31.23 28.08 28.57 72.2 971
VGG13 5.24 1.82 1.63 5.24 492 1,023
VGG16 4.76 0.23 0.44 4.76 512 1,074
VGG19 4.76 0.23 0.44 4.76 532 1,119

Acc, précision ; PS, taille des


paramètres.

TABLEAU 12 - AP et mAP basés sur la détection d'objets EMDS-6 de différents types d'EM.

Modèle d'échantillon Actinophrys Arcella Aspidisca Codosiga Colpode Epistylis Euglypha Paramécie
(AP)
RCNN plus rapide 0.95 0.75 0.39 0.13 0.52 0.24 0.68 0.70
Masque RCNN 0.70 0.85 0.40 0.18 0.35 0.53 0.25 0.70
Modèle d'échantillon Rotifères Vorticella Noctiluca Ceratium Stentor Siprostomum K.Quadrala Euglena
RCNN plus rapide 0.69 0.30 0.56 0.61 0.47 0.60 0.22 0.37
Masque RCNN 0.40 0.15 0.90 0.70 0.65 0.7 0.45 0.25
Modèle d'échantillon Gymnodinium Gonyaulax Phacus Stylongchia Synchaeta mAP - -
RCNN plus rapide 0.53 0.25 0.43 0.42 0.61 0.50 - -
Masque RCNN 0.60 0.28 0.50 0.68 0.48 0.51 - -

également très différente. En comparant ces résultats de


3.3. Analyse des résultats classification, nous pouvons conclure que l'EMDS-6 peut être
expérimentaux de l'extraction des utilisé pour évaluer les caractéristiques des images.
caractéristiques
Dans cet article, nous utilisons le SVM pour classer différentes
caractéristiques. Les résultats de la classification sont présentés
dans le tableau 9. Les caractéristiques Hu sont peu
performantes, tandis que les caractéristiques Geo sont les plus
performantes. En outre, la précision de classification des
caractéristiques FT, LBP, GLCM, HOG, HSV et RGB est

Frontiers in Microbiology | www.frontiersin.org 15 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
3.4. Analyse des résultats expérimentaux de d'images

la classification des images


Cet article présente les résultats de la classification
traditionnelle par apprentissage automatique dans le tableau
10, et les résultats de la classification par apprentissage profond
dans le tableau 11. Dans le tableau 10, le classificateur RF est le
plus performant. Toutefois, les performances du classificateur
SVM utilisant la fonction noyau sigmoïde sont relativement
faibles. En outre, il existe une grande différence de précision
entre les autres classificateurs classiques. D'après les résultats
des calculs, l'ensemble de données EMDS-6 est capable de

Frontiers in Microbiology | www.frontiersin.org 16 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

FIGURE 4 - Résultats de la détection d'objets par le RCNN plus rapide et le RCNN avec masque.

TABLEAU 13 - Historique des versions de l'EMDS et dernières versions.

Ensemble de données ECN OIN GTIN Lien vers l'ensemble des Fonctions
données
EMDS-1 (Li et al., 2013) 10 200 200 -- IC, IS
EMDS-2 (Li et al., 2013) 10 200 200 -- IC ,IS
EMDS-3 (Li et al., 2016) 15 300 300 -- IC, IS
EMDS-4 (Zou et al., 2016) 21 420 420 https://research.project-10. IC, IS, IR
de/em-classiffication/
EMDS-5 (Li Z. et al., 2021) 21 420 840 (S 420, M 420) https://github.com/ ID, IED, SoIS, MoIS, SoFE, MoFE, IR
NEUZihan/EMDS-5
EMDS-6 [Dans cet article] 21 840 840 https://figshare.com/articles/ ID, IC, IS, IFE, IOD
dataset/EMDS6/17125025/1

IC, classification d'images ; IS, segmentation d'images ; SoIS, segmentation d'images à objet unique ; MoIS, segmentation d'images à objets multiples ; SoFE, extraction de
caractéristiques à objet unique ; MoFE, extraction de caractéristiques à objets multiples ; IR, recherche d'images ; IFE, extraction de caractéristiques d'images ; IOD, détection d'objets
d'images ; IED, détection de bords d'images ; ID, débruitage d'images ; ECN, numéro de classe EM ; OIN, numéro de l'image originale ; GTIN, numéro de l'image de vérité au sol ; S,
objet unique ; M, objets multiples.

afin de fournir des données pour l'évaluation des performances la détection d'objets dans les images
du classificateur. Selon le tableau 11, la précision de Les indicateurs AP et mAP pour Faster CNN et Mast CNN sont
classification de Xception est de 44,29 %, soit la plus élevée présentés dans le tableau 12. Le tableau 12 montre que les
parmi tous les modèles. La formation des modèles indicateurs AP et mAP pour Faster CNN et Mast CNN sont
d'apprentissage profond prend généralement beaucoup de présentés dans le tableau 12.
temps, mais certains modèles ont un avantage significatif en
termes de temps de formation. Parmi les modèles sélectionnés,
ViT est celui qui consomme le moins de temps pour la
formation des échantillons. Le temps d'apprentissage du modèle
ViT est le plus court. La performance de classification du réseau
ShuffieNet-V2 est moyenne, mais le nombre de paramètres est
le plus faible. Par conséquent, les expériences prouvent que
l'EMDS-6 peut être utilisé pour l'évaluation des performances
des classificateurs d'apprentissage profond.

3.5. Analyse des résultats expérimentaux de


Frontiers in Microbiology | www.frontiersin.org 17 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
Les modèles RCNN et Mask RCNN ont des effets très d'images
différents sur la détection des objets en fonction de leur valeur
AP. Parmi eux, le modèle RCNN plus rapide a le meilleur effet
sur la détection des objets Actinophrys. Le modèle RCNN à
masque a le meilleur effet sur la détection des objets Arcella. Sur
la base de la valeur mAP, on constate que le modèle RCNN plus
rapide est meilleur que le modèle RCNN à masque pour la
détection d'objets. Le résultat de la détection d'objets est illustré
à la figure 4. La plupart des EM de l'image peuvent être
marqués avec précision. Il est donc démontré que l'ensemble de
données EMDS-6 peut être appliqué efficacement à la détection
d'objets dans les images.

3.6. Discussion
Comme le montre le tableau 13, six versions de l'ensemble de
données sur les EM ont été publiées. Dans l'itération des
versions, les différents EMS assument des fonctions différentes.
Les EMDS-1 et EMDS-2 ont des fonctions similaires et peuvent
effectuer la classification et la segmentation d'images. En outre,
les EMDS-1 et EMDS-2 contiennent tous deux les éléments
suivants

Frontiers in Microbiology | www.frontiersin.org 18 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

dix classes d'EM, 20 images de chaque classe, avec des images La première expérience utilise trois méthodes classiques
GT. Par rapport à la version précédente, EMDS-3 n'ajoute pas d'apprentissage automatique pour tester la performance de la
de nouvelles fonctions. Cependant, nous avons élargi cinq classification. La deuxième expérience utilise 21 modèles
catégories d'EM. d'apprentissage profond. Parallèlement, des indicateurs tels que
Nous mettons en libre accès les EMDS depuis EMDS-4 la précision et le temps d'apprentissage sont calculés pour
jusqu'à la dernière version d'EMDS-6. Par rapport à l'EMDS-3, vérifier les performances du modèle à partir de plusieurs
l'EMDS-4 étend six classes supplémentaires d'EM et ajoute une dimensions. Les résultats montrent que l'EMDS-6 peut tester
nouvelle fonction de recherche d'images. Dans l'EMDS-5, 420 efficacement les performances de classification des images. En
images GT à objet unique et 420 images GT à objets multiples ce qui concerne la détection d'objets, cet article teste
sont préparées, respectivement. Par conséquent, l'EMDS-5 respectivement le RCNN plus rapide et le RCNN à masque. La
prend en charge davantage de fonctions, comme le montre le plupart des EM de l'expérience peuvent être marqués avec
tableau 13. L'ensemble de données utilisé dans cet article est précision. Par conséquent, l'EMDS-6 peut être appliqué
l'EMDS-6, qui est la dernière version de cette série. Le volume efficacement à la détection d'objets dans les images.
de données de l'EMDS-6 est plus important que celui de À l'avenir, nous augmenterons encore le nombre d'images
l'EMDS-5. EMDS-6 ajoute 420 images originales et 420 images EM de l'EMDS-6. Parallèlement, nous essaierons d'appliquer
GT d'objets multiples, ce qui double le nombre d'images dans l'EMDS-6 à davantage de domaines de traitement de la vision
l'ensemble de données. Grâce à ce volume de données plus par ordinateur afin de promouvoir davantage le développement
important, l'EMDS-6 peut réaliser davantage de fonctions de de la recherche microbienne.
manière plus efficace et plus stable. Par exemple, la classification
d'images, la segmentation d'images, la détection d'objets et DÉCLARATION DE DISPONIBILITÉ DES
d'objets.
DONNÉES
4. CONCLUSION ET TRAVAUX FUTURS Les contributions originales présentées dans l'étude sont
incluses dans l'article/les documents complémentaires. Toute
Cet article développe un ensemble de données d'images EM, à demande de renseignements complémentaires peut être
savoir EMDS-6. EMDS-6 contient 21 types d'EM et un total de adressée à l'auteur/aux auteurs correspondant(s).
1680 images. Elles comprennent 840 images originales et 840
images GT de même taille. Chaque type d'EM comporte 40 CONTRIBUTIONS DES AUTEURS
images originales et 40 images GT. Dans le test, 13 types de
bruits, tels que le bruit multiplicatif et le bruit de sel et de poivre, PZ : expérience, analyse des résultats et rédaction de l'article. CL
sont utilisés, et neuf types de filtres, tels que le filtre de Wiener : préparation des données, méthode, analyse des résultats,
et le filtre à moyenne géométrique, sont utilisés pour tester rédaction de l'article, relecture et soutien financier. MR et NX :
l'effet de débruitage des différents bruits. Les résultats relecture. HX et HY : expérience. PM : traitement des données.
expérimentaux prouvent que l'EMDS-6 permet de tester l'effet HS : soutien à la connaissance des micro-organismes de
de débruitage des filtres. En outre, cet article utilise 6 l'environnement. TJ : analyse des résultats et soutien financier.
algorithmes de segmentation traditionnels tels que k-means et MG : méthode et analyse des résultats. Tous les auteurs ont
MRF et un algorithme d'apprentissage profond pour comparer contribué à l'article et ont approuvé la version soumise.
les performances de l'algorithme de segmentation. Les résultats
expérimentaux prouvent que l'EMDS-6 peut tester efficacement FINANCEMENT
l'effet de segmentation de l'image. Parallèlement, dans
l'expérience d'extraction et d'évaluation des caractéristiques de Ce travail a été soutenu par la Fondation nationale des sciences
l'image, cet article utilise 10 caractéristiques telles que HSV et naturelles de Chine (No.61806047).
RGB extraites de l'EMDS-6. Parallèlement, le classificateur SVM
est utilisé pour tester les caractéristiques. On constate que les
REMERCIEMENTS
résultats de classification des différentes caractéristiques sont
sensiblement différents et que l'EMDS-6 permet de tester les Nous remercions Mlle Zixian Li et M. Guoxian Li pour leur
avantages et les inconvénients des caractéristiques. En ce qui importante discussion.
concerne la classification des images, cet article conçoit deux
expériences. L'expérience

Alom, M. Z., Yakopcic, C., Hasan, M., Taha, T. M. et Asari, V. K. (2019). U-Net
RÉFÉRENCES résiduel récurrent pour la segmentation des images médicales. J. Med. Imaging
6, 014006. doi : 10.1117/1.JMI.6.1.014006
Abeywickrama, T., Cheema, M. A., et Taniar, D. (2016). K-nearest neighbors on Buades, A., Coll, B. et Morel, J.-M. (2005). Une revue des algorithmes de
road networks : a journey in experimentation and in-memory débruitage d'images, avec un nouveau. Multiscale Model. Simul. 4, 490-530. doi
implementation. arXiv preprint arXiv:1601.01549. doi : 10.14778/2904121. : 10.1137/040616024
2904125 Burney, S. M. A. et Tariq, H. (2014). K-means cluster analysis pour la
Adams, R. et Bischof, L. (1994). Seed region growing. IEEE Trans Pattern Anal. segmentation d'images. Int. J. Comput. App. 96, 1-8.
Mach. Intell. 16, 641-647.

Frontiers in Microbiology | www.frontiersin.org 10 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
Chandra, M. A., et Bedi, S. S. (2021). Survey on svm and their application in d'images
image classification. Int. J. Infm. Technol. 13, 1-11. doi : 10.1007/s41870-017-
0080-1
Chen, S.-Y., Lin, W.-C. et Chen, C.-T. (1991). Split-and-merge image
segmentation based on localized feature analysis and statistical tests. CVGIP
Graph. Models Image Process. 53, 457-475.
Chollet, F. (2017). "Xception : deep learning with depthwise separable
convolutions", dans Proceedings of the IEEE Conference on Computer Vision
and Pattern Recognition (Honolulu, HI), 1251-1258.
Dalal, N. et Triggs, B. (2005). "Histograms of oriented gradients for human
detection," in 2005 IEEE Computer Society Conference on Computer Vision
and Pattern Recognition (CVPR'05) (San Diego, CA : IEEE), 886-893.
Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X.,
Unterthiner, T., et al. (2020). An image is worth 16x16 words : transformers
for image recognition at scale. arXiv preprint arXiv:2010.11929. Disponible
en ligne à l'adresse : https://arxiv.53yu.com/abs/2010.11929

Frontiers in Microbiology | www.frontiersin.org 10 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

He, K., Gkioxari, G., Dollár, P. et Girshick, R. (2017). "Mask r-CNN", dans Ojala, T., Pietikainen, M. et Maenpaa, T. (2002). Multirésolution gray-scale and
Proceedings of the IEEE International Conference on Computer Vision rotation invariant texture classification with local binary patterns. IEEE Trans.
(Honolulu, HI), 2961-2969. Pattern Anal. Mach. Intell. 24, 971-987. doi : 10.1109/TPAMI.2002. 1017623
He, K., Zhang, X., Ren, S. et Sun, J. (2016). "Deep residual learning for image Otsu, N. (1979). A threshold selection method from gray-level histograms
recognition", dans Proceedings of the IEEE Conference on Computer Vision (méthode de sélection de seuil à partir d'histogrammes de niveaux de gris).
and Pattern Recognition (Las Vegas, NV), 770-778. IEEE Trans. Syst. Man Cybernet. 9, 62-66.
Ho, T. K. (1995). "Random decision forests", dans Proceedings of 3rd Pitas, I. (2000). Digital Image Processing Algorithms and Applications. Hoboken,
International Conference on Document Analysis and Recognition (Montréal, NJ : Wiley.
QC : IEEE), 278-282. Qunqun, H., Fei, W. et Li, Y. (2013). Extraction de caractéristiques de texture
Hu, M.-K. (1962). Visual pattern recognition by moment invariants. IRE Trans. d'image de couleur basée sur la matrice de cooccurrence de niveau de gris.
Inform. Theory 8, 179-187. Remote Sens. Land Resour. 25, 26-32. doi : 10.6046/gtzyyg.2013.04.05
Huang, G., Liu, Z., Van Der Maaten, L. et Weinberger, K. Q. (2017). "Densely Rahaman, M. M., Li, C., Yao, Y., Kulwa, F., Rahman, M. A., Wang, Q., et al.
connected convolutional networks", dans Proceedings of the IEEE Conference (2020). Identification des échantillons de covid-19 à partir d'images de
on Computer Vision and Pattern Recognition (Honolulu, HI), 4700-4708. radiographie thoracique à l'aide de l'apprentissage profond : A comparison of
Junhua, C. et Jing, L. (2012). "Research on color image classification based on transfer learning approaches. J. Xray Sci. Technol. 28, 821-839. doi :
HSV color space," in 2012 Second International Conference on 10.3233/XST-200715
Instrumentation, Measurement, Computer, Communication and Control Ren, S., He, K., Girshick, R. et Sun, J. (2015). Faster r-CNN : vers la détection
(Harbin : IEEE), 944-947. d'objets en temps réel avec des réseaux de proposition de région. Adv. Neural
Kato, Z., et Zerubia, J. (2012). Markov Random Fields in Image Segmentation Inform. Process. Syst. 28, 91-99. doi : 10.1109/TPAMI.2016. 2577031
(Champs aléatoires de Markov dans la segmentation d'images). Sandler, M., Howard, A., Zhu, M., Zhmoginov, A. et Chen, L.-C. (2018).
Hanover, MA : NOW Publishers. "MobileNetV2 : résidus inversés et goulots d'étranglement linéaires", dans
Kavitha, J., et Suruliandi, A. (2016). "Texture and color feature extraction for Proceedings of the IEEE Conference on Computer Vision and Pattern
classification of melanoma using SVM," in 2016 International Conference on Recognition (Salt Lake City, UT), 4510-4520.
Computing Technologies and Intelligent Data Engineering (ICCTIDE'16) Simonyan, K. et Zisserman, A. (2014). Very deep convolutional networks for
(Kovilpatti : IEEE), 1-6. large-scale image recognition. arXiv preprint arXiv:1409.1556. Disponible en
Kosov, S., Shirahama, K., Li, C. et Grzegorzek, M. (2018). Classification des ligne à l'adresse suivante : https://arxiv.53yu.com/abs/1409.1556
micro-organismes environnementaux à l'aide de champs aléatoires Srinivas, A., Lin, T.-Y., Parmar, N., Shlens, J., Abbeel, P., et Vaswani,
conditionnels et de réseaux neuronaux convolutionnels profonds. Pattern A. (2021). Bottleneck transformers for visual recognition. arXiv preprint
Recogn. 77, 248-261. doi : 10.1016/j.patcog.2017.12.021 arXiv:2101.11605. Disponible en ligne à l'adresse :
Krizhevsky, A., Sutskever, I. et Hinton, G. E. (2012). Imagenet classification with https://arxiv.org/abs/2101.11605
deep convolutional neural networks. Adv. Neural Inform. Process. Syst. 25, Szegedy, C., Ioffe, S., Vanhoucke, V. et Alemi, A. (2017). "Inception-v4,
1097-1105. inception-resnet et l'impact des connexions résiduelles sur l'apprentissage",
Kulwa, F., Li, C., Zhao, X., Cai, B., Xu, N., Qi, S., et al. (2019). Une enquête sur dans les actes de la conférence AAAI sur l'intelligence artificielle (San Francisco,
l'état de l'art pour les méthodes de segmentation d'images de micro- CA).
organismes et le potentiel futur. IEEE Access. 7, 100243-100269. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., et al. (2015).
Levner, I. et Zhang, H. (2007). Classification-driven watershed segmentation. "Going deeper with convolutions", dans Proceedings of the IEEE Conference on
IEEE Trans. Image Process. 16, 1437-1445. doi : 10.1109/TIP.2007.894239 Computer Vision and Pattern Recognition (Boston, MA), 1-9.
Li, C., Ma, P., Rahaman, M. M., Yao, Y., Zhang, J., Zou, S., et al. (2021). A state Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J. et Wojna, Z. (2016). "Rethinking
of- the-art survey of object detection techniques in microorganism image the inception architecture for computer vision," in Proceedings of the IEEE
analysis : from traditional image processing and classical machine learning to Conference on Computer Vision and Pattern Recognition (Las Vegas, NV),
current deep convolutional neural networks and potential visual transformers. 2818-2826.
arXiv [Preprint]. arXiv : 2105.03148. Disponible en ligne à l'adresse : Touvron, H., Cord, M., Douze, M., Massa, F., Sablayrolles, A., et Jégou, H. (2020).
https://arxiv.org/abs/2105. 03148 Training data-efficient image transformers & distillation through attention.
Li, C., Shirahama, K. et Grzegorzek, M. (2015). Application de l'analyse d'images arXiv preprint arXiv:2012.12877. Disponible en ligne à l'adresse :
basée sur le contenu à la classification des micro-organismes environnementaux. https://arxiv.org/abs/2012. 12877
Biocybern. Biomed. Eng. 35, 10-21. doi : 10.1016/j.bbe.2014.07.003 Yuan, L., Chen, Y., Wang, T., Yu, W., Shi, Y., Tay, F. E., et al. (2021). Tokens-to-
Li, C., Shirahama, K. et Grzegorzek, M. (2016). Microbiologie environnementale ken vit : training vision transformers from scratch on imagenet. arXiv preprint
assistée par l'analyse d'images basée sur le contenu. Pattern Anal. Appl. 19, arXiv:2101.11986. Disponible en ligne à l'adresse suivante :
531-547. doi : 10.1007/s10044-015-0498-7 https://arxiv.53yu.com/abs/2101.11986
Li, C., Shirahama, K., Grzegorzek, M., Ma, F. et Zhou, B. (2013). "Classification of Zebari, R., Abdulazeez, A., Zeebaree, D., Zebari, D. et Saeed, J. (2020). A
environmental microorganisms in microscopic images using shape features comprehensive review of dimensionality reduction techniques for feature
and support vector machines," in 2013 IEEE International Conference on selection and feature extraction (Examen complet des techniques de réduction
Image Processing (Melbourne, VIC : IEEE), 2435-2439. de la dimensionnalité pour la sélection et l'extraction des caractéristiques). J.
Li, C., Wang, K. et Xu, N. (2019). Une enquête sur les applications de l'analyse Appl. Sci. Technol. Trends 1, 56-70. doi : 10.38094/jastt1224
d'images microscopiques basée sur le contenu dans les domaines de la Zhang, J., Li, C., Kosov, S., Grzegorzek, M., Shirahama, K., Jiang, T., et al. (2021).
classification des micro-organismes. Artif. Intell. Rev. 51, 577-646. Lcunet : A novel low-cost u-net for environmental microorganism image
Li, Z., Li, C., Yao, Y., Zhang, J., Rahaman, M. M., Xu, H., et al. (2021). EMDS-5 : segmentation. Pattern Recognit. 115, 107885. doi : 10.1016/j.patcog.2021.
Cinquième version de l'ensemble de données d'images de micro-organismes 107885
environnementaux pour des tâches d'analyse d'images multiples. PLoS ONE Zhang, J., Li, C., Rahaman, M., Yao, Y., Ma, P., Zhang, J., et al. (2022). A
16, e0250631. doi : 10.1371/journal.pone.0250631 comprehensive review of image analysis methods for microorganism counting
Ma, N., Zhang, X., Zheng, H.-T., et Sun, J. (2018). "Shuffienet v2 : directives : from classical image processing to deep learning approach. Artif. Intell. Rev.
pratiques pour la conception d'une architecture cnn efficace", dans les Actes de 55, 2875-2944. doi : 10.1007/s10462-021- 10082-4
la Conférence européenne sur la vision par ordinateur (ECCV) (Salt Lake City, Zhao, P., Li, C., Rahaman, M., Xu, H., Yang, H., Sun, H., et al. (2022). Une étude
UT), 116-131. comparative des méthodes de classification par apprentissage profond sur un
Madigan, M. T., Martinko, J. M., Parker, J., et al. (1997). Brock Biology of petit ensemble de données d'images de micro-organismes environnementaux
Microorganisms, Vol. 11. Upper Saddle River, NJ : Prentice Hall. (emds-6) : From convolutional neural networks to visual transformers. arXiv
Madsen, E. L. (2008). Microbiologie environnementale : From Genomes to [Preprint]. arXiv : 2107.07699. Disponible en ligne à l'adresse :
Biogeochemistry. Oxford : Wiley-Blackwell. https://arxiv.org/pdf/2107.07699.pdf
Mingqiang, Y., Kidiyo, K. et Joseph, R. (2008). Enquête sur les techniques Zou, Y. L., Li, C., Boukhers, Z., Shirahama, K., Jiang, T. et Grzegorzek, M. (2016).
d'extraction de caractéristiques de forme. Pattern Recognit. 15, 43-90. doi : "Système d'extraction d'images basé sur le contenu microbiologique de
10.5772/6237 l'environnement à l'aide de

Frontiers in Microbiology | www.frontiersin.org 11 Avril 2022 | Volume 13 | Article 829027


Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images

internal structure histogram", dans Proceedings of the 9th International cet article, ou les affirmations qui peuvent être faites par son fabricant, ne sont
Conference on Computer Recognition Systems, 543-552. pas garantis ou approuvés par l'éditeur.

Conflit d'intérêts : Les auteurs déclarent que la recherche a été menée en Copyright © 2022 Zhao, Li, Rahaman, Xu, Ma, Yang, Sun, Jiang, Xu et Grzegorzek. Il
l'absence de toute relation commerciale ou financière qui pourrait être interprétée s'agit d'un article en libre accès distribué selon les termes de la licence Creative
comme un conflit d'intérêts potentiel. Commons Attribution License (CC BY). L'utilisation, la distribution ou la
reproduction dans d'autres forums est autorisée, à condition que les auteurs
Note de l'éditeur : Toutes les affirmations exprimées dans cet article sont originaux et les détenteurs des droits d'auteur soient mentionnés et que la
uniquement celles des auteurs et ne représentent pas nécessairement celles de publication originale dans ce journal soit citée, conformément aux pratiques
leurs organisations affiliées, ni celles de l'éditeur, des rédacteurs et des réviseurs. académiques reconnues. Toute utilisation, distribution ou reproduction non
Tout produit susceptible d'être évalué dans le cadre du conforme à ces conditions est interdite.

Frontiers in Microbiology | www.frontiersin.org 12 Avril 2022 | Volume 13 | Article 829027

Vous aimerez peut-être aussi