Académique Documents
Professionnel Documents
Culture Documents
RECHERCHE ORIGINALE
publié : 25 avril 2022 doi :
10.3389/fmicb.2022.829027
EMDS-6 : Environmental
Microorganism Image Dataset Sixth
Version pour le débruitage, la
segmentation, l'extraction de
caractéristiques, la classification et
l'évaluation des méthodes de
détection.
Peng Zhao1 , Chen Li1 *, Md Mamunur Rahaman1,2 , Hao Xu1 , Pingli Ma1 , Hechen Yang1 ,
Hongzan Sun3 , Tao Jiang4 *, Ning Xu5 et Marcin Grzegorzek 6
1Microscopic Image and Medical Image Analysis Group, College of Medicine and Biological Information Engineering,
Northeastern University, Shenyang, Chine,2 School of Computer Science and Engineering, University of New South Wales,
Sydney, NSW, Australie,3 Department of Radiology, Shengjing Hospital, China Medical University, Shenyang, Chine,4 School of
Control Engineering, Chengdu University of Information Technology, Chengdu, Chine,5 School of Arts and Design, Liaoning
Petrochemical University, Fushun, Chine,6 Institute of Medical Informatics, University of Lübeck, Lübeck, Allemagne
Image Dataset Sixth Version for Image Denoising, Segmentation, Feature Extraction, Classification, and Detection
Édité par : Method Evaluation.
George Tsiamis, Front. Microbiol. 13:829027. doi : 10.3389/fmicb.2022.829027
Université de Patras, Grèce
Examiné par :
Muhammad Hassan Khan,
Université du Punjab, Pakistan
Elias Asimakis,
Université de Patras, Grèce
*Correspondance :
Chen Li
lichen201096@hotmail.com
Tao Jiang
jiang@cuit.edu.cn
Section spécialisée
: Cet article a été soumis à
Systems Microbiology,
une section de la
revue Frontiers in
Microbiology
Citation :
Zhao P, Li C, Rahaman MM, Xu H,
Ma P, Yang H, Sun H, Jiang T, Xu
N et Grzegorzek M (2022) EMDS-6
: Environmental Microorganism
Frontiers in Microbiology | www.frontiersin.org 1 Avril 2022 | Volume 13 | Article 829027
tels que le débruitage, la segmentation d'images et la détection d'objets. Les
Les micro-organismes résultats expérimentaux montrent que l'EMDS-6 peut être utilisé pour évaluer les
environnementaux (ME) performances des méthodes de débruitage, de segmentation, d'extraction de
sont omniprésents caractéristiques, de classification et de détection d'objets. L'EMDS-6 est disponible
autour de nous et ont sur le site https://figshare.com/articles/ dataset/EMDS6/17125025/1.
un impact important sur Mots-clés : micro-organismes environnementaux, débruitage d'images, segmentation d'images, extraction de
la survie et le caractéristiques, classification d'images, détection d'objets.
développement de la
société humaine. 1. INTRODUCTION
Toutefois, les normes
élevées et les exigences
1.1. Micro-organismes de l'environnement
Les micro-organismes environnementaux (ME) font généralement référence à de minuscules
strictes en matière de organismes vivants présents dans la nature, invisibles à l'œil nu et visibles uniquement à l'aide
préparation des d'un microscope. Bien que les micro-organismes environnementaux soient minuscules, ils ont un
données sur les micro- impact significatif sur la survie de l'homme (Madigan et al., 1997 ; Rahaman et al., 2020).
Certaines bactéries bénéfiques peuvent être utilisées pour produire des aliments fermentés tels
organismes que le fromage et le pain dans une perspective bénéfique. Par ailleurs, certains EM bénéfiques
environnementaux peuvent dégrader les plastiques, traiter les déchets gazeux contenant du soufre dans l'industrie et
(ME) ont conduit à améliorer le sol. D'un point de vue nuisible,
l'insuffisance des
ensembles de données
connexes existants,
sans parler des
ensembles de données
avec des images de
vérité de terrain (GT).
Ce problème affecte
sérieusement les
progrès des expériences
connexes. C'est
pourquoi cette étude
développe la sixième
version de
l'Environmental
Microorganism Dataset
(EMDS-6), qui contient
21 types d'EM. Chaque
type d'EM contient 40
images originales et 40
images GT, soit un total
de 1680 images EM.
Dans cette étude, afin
de tester l'efficacité de
l'EMDS-6, nous
choisissons des
algorithmes classiques
d'analyse d'images.
Nous choisissons les
algorithmes classiques
des méthodes de
traitement d'images,
Les ME provoquent la détérioration des aliments, réduisent la changements radicaux d'environnement et de température
production agricole et sont également l'un des principaux affectent la qualité des échantillons d'EM. Dans le même temps,
responsables de l'épidémie de maladies infectieuses. Afin de si le chercheur observe les EM à l'aide d'un microscope optique
mieux exploiter les avantages des micro-organismes traditionnel, il est très enclin à commettre des erreurs subjectives
environnementaux et de prévenir leurs effets néfastes, un grand en raison d'un traitement visuel continu et à long terme. Par
nombre de chercheurs scientifiques se sont lancés dans la conséquent, la collecte d'ensembles de données d'images de
recherche sur les micro-organismes environnementaux. micro-organismes environnementaux est un défi (Kosov et al.,
L'analyse d'image des EM est à la base de tout cela. 2018). La plupart des ensembles de données d'images de micro-
Les EM sont de taille minuscule, généralement comprise entre organismes environnementaux existants ne sont pas accessibles
0,1 et 100 microns. Cela pose certaines difficultés pour la au public. Cela a un impact important sur les progrès de la
détection et l'identification des EM. Les "méthodes recherche scientifique dans ce domaine. C'est pourquoi nous
morphologiques" traditionnelles obligent les chercheurs à avons créé la sixième version de la base de données d'images de
regarder directement sous un microscope (Madsen, 2008). Les micro-organismes environnementaux (Environmental
résultats sont ensuite présentés en fonction des caractéristiques Microorganism Image Dataset Sixth Version).
de la forme. Cette méthode traditionnelle nécessite davantage de
main-d'œuvre et de temps. Par conséquent, l'extraction des
caractéristiques et l'analyse des images d'EM assistées par
ordinateur peuvent permettre aux chercheurs d'utiliser leurs
connaissances professionnelles minimales en un minimum de
temps pour prendre les décisions les plus précises.
Actinophrys 40 40 Ceratium 40 40
Arcella 40 40 Stentor 40 40
Aspidisca 40 40 Siprostomum 40 40
Codosiga 40 40 K. Quadrala 40 40
Colpode 40 40 Euglena 40 40
Epistylis 40 40 Gymnodinium 40 40
Euglypha 40 40 Gonyaulax 40 40
Paramécie 40 40 Phacus 40 40
Rotifères 40 40 Stylonychie 40 40
Vorticule 40 40 Synchaeta 40 40
Noctiluca 40 40 - - -
Total 840 840 Total 840 840
2. MATÉRIAUX ET MÉTHODES
2.1. Ensemble de données EMDS-6
L'ensemble de données EMDS-6 comprend 1 680 images, dont
21 classes d'images EM originales avec 40 images par classe, ce
qui donne un total de 840 images originales, et chaque image
originale est suivie d'une image GT pour un total de 840. Le
tableau 1 présente les détails de l'ensemble de données EMDS-
6. La figure 1 montre quelques exemples d'images originales et
d'images GT dans l'EMDS-6. L'EMDS-6 est publié
gratuitement à des fins non commerciales à l'adresse suivante :
https://figshare.com/ articles/dataset/EMDS6/17125025/1.
Le processus de collecte des images EMDS-6 s'étend de 2012
à 2020. Les personnes suivantes ont contribué de manière
significative à la production du jeu de données EMDS-6 :
Beihai Zhou et Dr Fangshu Ma de l'Université des sciences et
Frontiers in Microbiology | www.frontiersin.org 4 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
d'images
FIGURE 1 - Exemple d'EMDS-6, comprenant des images originales et des images GT.
sont produits par le Prof. Dr.-Ing Chen Li, M.E. Bolin Lu, l'étape clé du prétraitement de l'image (Zhang et al., 2022).
M.E. Xuemin Zhu et B.E. Huaqian Yuan de la Northeastern
University, Chine. Les règles d'étiquetage de l'image GT sont les
suivantes : la zone où se trouve le micro-organisme est marquée
en blanc comme premier plan, et le reste est marqué en noir
comme arrière-plan.
FIGURE 2 - Exemples d'utilisation de différents filtres pour filtrer le bruit de sel et de poivre.
2.2.2. Méthodes de segmentation d'images seuillage d'Otsu est un algorithme basé sur la binarisation
Cet article conçoit l'expérience suivante pour prouver que globale, qui peut réaliser des seuils adaptatifs. L'algorithme de
l'EMDS-6 peut être utilisé pour tester différentes méthodes de segmentation REG part d'un certain pixel et ajoute
segmentation d'images (Zhang et al., 2021). Six méthodes de progressivement les pixels voisins
segmentation classiques sont utilisées dans l'expérience : k-
means (Burney et Tariq, 2014), Markov Random Field (MRF)
(Kato et Zerubia, 2012), Otsu Thresholding (Otsu, 1979),
Region Growing (REG) (Adams et Bischof, 1994), Region Split
and Merge Algorithm (RSMA) (Chen et al..., 1991) et
Watershed Segmentation (Levner et Zhang, 2007), ainsi qu'une
méthode de segmentation basée sur l'apprentissage profond,
Recurrent Residual CNN-based U-Net (U-Net) (Alom et al.,
2019), sont utilisées dans cette expérience. Lors de l'utilisation
de U-Net pour la segmentation, le taux d'apprentissage du
réseau est de 0,001 et la taille du lot est de 1. Dans l'algorithme
k-means, la valeur de k est fixée à 3, le centre initial est choisi au
hasard et les itérations sont arrêtées lorsque le nombre
d'itérations dépasse le nombre maximal d'itérations. Dans
l'algorithme MRF, le nombre de classifications est fixé à 2 et le
nombre maximal d'itérations est de
60. Dans l'algorithme d'Otsu, la taille du bloc est fixée à 3 et la
valeur moyenne est obtenue par calcul de la moyenne. Dans
l'algorithme de croissance de la région, nous utilisons un
paramètre de croissance de 8 voisinages.
Parmi les sept méthodes de segmentation classiques, la
méthode des k-moyennes est basée sur le regroupement, qui est
une technologie basée sur les régions. L'algorithme des bassins
versants est basé sur l'analyse géomorphologique, comme les
montagnes et les bassins, pour mettre en œuvre différents
algorithmes de segmentation d'objets. Le MRF est un algorithme
de segmentation d'images basé sur les statistiques. Ses
principales caractéristiques sont un nombre réduit de
paramètres de modèle et de fortes contraintes spatiales. Le
Frontiers in Microbiology | www.frontiersin.org 7 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
selon certains critères. Lorsque certaines conditions sont d'images
remplies, la croissance régionale est interrompue et l'extraction
de l'objet est réalisée. Le RSMA commence par déterminer un
critère de division et de fusion. Lors de la division jusqu'au
point où il n'y a plus de division, les zones présentant des
caractéristiques similaires sont intégrées. La figure 3 montre
un échantillon des résultats de différentes méthodes de
segmentation sur l'EMDS-6.
TABLEAU 2 - Paramétrage de la classification des caractéristiques de l'EMDS-6 à TABLEAU 4 - Mesures d'évaluation de la méthode de segmentation.
l'aide d'un SVM.
Indicateurs Formule
Fonctionna Noyau C DFS Tol Max iter
lité 2× |Vpred ∩ Vgt |
Dés | Vpred | + |Vgt |
LBP rbf 50,000 ovr 1e-3 -1 | Vpred ∩ Vgt |
Jaccard |V préd ∪ V gt|
GLCM rbf 10,000 ovr 1e-3 -1 Rappel TP
TP + FN
HOG rbf 1,000 ovr 1e-3 -1
TP, vrai positif ; FN, faux négatif ; Vpred, premier plan prédit par le modèle ; Vgt, premier
HSV rbf 100 ovr 1e-3 -1 plan dans une image GT.
Géo rbf 2,000,000 ovr 1e-3 -1
Hu rbf 100,000 ovr 1e-3 -1
RVB rbf 20 ovr 1e-3 -1
TABLEAU 5 : Indice d'évaluation de la performance de la classification du
C, coefficient de pénalité ; DFS, forme de la fonction de décision ; tol, valeur de l'erreur classificateur.
d'arrêt de la formation ; Geo, caractéristiques géométriques.
Indicateurs d'évaluation Formule
Précision TP+TN
TP+TN+FP+FN
TABLEAU 3 - Paramètres du modèle d'apprentissage profond.
Précision TP
TP+FP
classer les images. Ce chapitre utilise les caractéristiques Geo l'apprentissage profond pour classer les images. Pendant ce
pour vérifier les performances du classificateur. En outre, les temps, 21 classificateurs sont utilisés pour évaluer
classificateurs traditionnels utilisés pour les tests comprennent
trois classificateurs k-Nearest Neighbor (kNN) (k =
1, 5, 10) (Abeywickrama et al., 2016)], trois Random Forests (RF)
(arbre = 10, 20, 30) (Ho, 1995) et quatre SVM (fonction noyau =
rbf, polynomiale, sigmoïde, linéaire) (Chandra et Bedi, 2021).
Les paramètres des SVM sont fixés comme suit : paramètre de
pénalité C = 1,0, le nombre maximal d'itérations est illimité, la
taille de l'erreur
pour l'arrêt de la formation est de 0,001, et les autres paramètres
ont des valeurs par défaut.
Dans l'expérience 2, nous utilisons des méthodes basées sur
Frontiers in Microbiology | www.frontiersin.org 9 Avril 2022 | Volume 13 | Article 829027
Zhao et al. EMDS-6 pour l'évaluation de l'analyse
les performances, notamment ResNet-18, ResNet-34, ResNet- d'images
50, ResNet-101 (He et al., 2016), VGG-11, VGG-13, VGG-16,
VGG-
19 (Simonyan et Zisserman, 2014), DenseNet-121, DenseNet-
169 (Huang et al., 2017), Inception-V3 (Szegedy et al., 2016),
Xception (Chollet, 2017), AlexNet (Krizhevsky et al., 2012),
GoogleNet (Szegedy et al., 2015), MobileNet-V2 (Sandler et al,
2018), ShuffeleNetV2 (Ma et al., 2018), Inception-ResNet - V1
(Szegedy et al., 2017), et une série de VT, tels que ViT
(Dosovitskiy et al., 2020), BotNet (Srinivas et al., 2021), DeiT
(Touvron et al., 2020), T2T-ViT (Yuan et al., 2021). Les
modèles ci-dessus sont définis avec des hyperparamètres
uniformes, comme indiqué dans le tableau 3.
(en [%]).
2.2.5. Méthode de détection des objets peut être exprimée par 1, où i représente l'image originale, i1
Dans cet article, nous utilisons Faster RCNN (Ren et al., 2015) et représente l'image débruitée, N représente le nombre de pixels et
Mask RCNN (He et al., 2017) pour tester la faisabilité de A représente la similarité entre l'image débruitée et l'image
l'ensemble de données EMDS-6 pour la détection d'objets (Li C. originale. Lorsque la valeur de A est proche de 1, la similitude
et al., 2021). Les RCNN plus rapides fournissent d'excellentes entre l'image originale et l'image débruitée est plus élevée et
performances dans de nombreux domaines de la détection l'effet de débruitage est significatif.
d'objets. Le RCNN à masque est optimisé sur le cadre original
du RCNN plus rapide. En utilisant un meilleur squelette
(ResNet combiné à FPN) et l'algorithme AlignPooling, Mask Σ
RCNN atteint les performances suivantes
de meilleurs résultats de détection que le RCNN plus rapide. n
Dans cette expérience, le taux d'apprentissage est de 0,0001, le A=1- i=1 | 1 - i| (1)
modèle
L'épine dorsale est ResNet50 et la taille du lot est de 2. En outre, d'images
nous avons utilisé 25 % des données EMDS-6 pour Cet article utilise des indicateurs de moyenne-variance et de
l'entraînement, 25 % pour la validation et le reste pour les tests. similarité pour évaluer la performance des filtres. L'indice
d'évaluation de la similarité peut
2.3. Méthodes d'évaluation
2.3.1. Méthode d'évaluation pour le débruitage
TABLEAU 8 - Évaluation des méthodes d'extraction de caractéristiques à l'aide de Tableau 5, TP désigne le nombre d'EM classés comme positifs et
l'ensemble de données EMDS-6.
également étiquetés comme positifs. TN signifie le nombre
Méthode/Index Dés Jaccard Recal
d'EM classés comme négatifs et également étiquetés comme
négatifs. FP désigne le nombre d'EM classés comme positifs
k-means 47.78 31.38 32.11 mais étiquetés comme négatifs. FN désigne le nombre d'EM
MRF 56.23 44.43 69.94 classés comme négatifs mais étiquetés comme positifs.
Otsu 45.23 33.82 40.60
REG 29.72 21.17 26.94
2.3.5. Méthode d'évaluation de la détection d'objets
RSMA 37.35 26.38 30.18
Dans cet article, la précision moyenne (AP) et la précision
Bassin versant 44.21 32.44 40.75
moyenne (mAP) sont utilisées pour évaluer les résultats de la
détection d'objets. La précision moyenne est un indice
U-Net 88.35 81.09 89.67
d'évaluation de modèle largement utilisé dans la détection
(en [%]). d'objets. Plus la PA est élevée, moins il y a d'erreurs de détection.
La méthode de calcul de la PA est présentée dans les équations 3
et 4.
TABLEAU 9 - Différents résultats obtenus en appliquant différentes
caractéristiques dans les expériences de classification de l'EMDS-6 à l'aide d'un
SVM.
FT LBP GLCM HOG N
AP = Σ(rn+1 - rn )Pinterp(r )n+1 (3)
Acc 32.38 10.24 22.98
n=1
HSV Géo Hu RVB
29.52 50.0 7.86 28.81
Pinterp(rn+1 ) = maxrˆ=rn+1 = P(rˆ) (4)
Parmi eux, rn représente la valeur du nième rappel, et p(rˆ)
FT, Feature type ; Acc, Accuracy. (en [%]).
représente la valeur de la précision lorsque le rappel est rˆ.
3. RÉSULTATS EXPÉRIMENTAUX
Σn (L(i,j) - B(i,j))2 ET ANALYSE
S=1-
i=1Σ
n (2) 3.1. Résultats expérimentaux Analyse
i=1 L2(i,j)
du débruitage d'images
Dans l'expérience 1 de la section 2.2.4, nous utilisons uniquement
2.3.2. Méthode d'évaluation pour la segmentation
l'indice de précision pour évaluer la performance des
d'images
classificateurs d'apprentissage automatique traditionnels. Plus le
Nous utilisons des images segmentées et des images GT pour
nombre d'EM correctement classés est élevé, meilleure est la
calculer les indices d'évaluation de Dice, Jaccard et Recall. Parmi
performance de ce classificateur. Dans l'expérience 2, la
les trois mesures d'évaluation, le coefficient de Dice se situe au
performance des modèles d'apprentissage profond doit être
niveau du pixel et est compris entre 0 et 1. Plus il est proche de 1,
considérée dans plusieurs dimensions. Afin d'évaluer plus
meilleure est la structure du modèle. Le coefficient de Jaccard est
précisément la performance des différents modèles
souvent utilisé pour comparer la similarité entre deux
d'apprentissage profond, nous introduisons de nouveaux
échantillons. Lorsque le coefficient de Jaccard est plus élevé, la
indicateurs d'évaluation. Les indices d'évaluation et leur méthode
similarité entre les échantillons est plus grande. Le rappel est
de calcul sont présentés dans le tableau 5. En
une mesure de la couverture, principalement pour la précision
de la prédiction d'un échantillon positif. Les expressions
informatiques de Dice, Jaccard et Rappel sont présentées dans le
tableau 4.
TABLEAU 10 - Résultats des expériences de classification des caractéristiques Geo à l'aide de classificateurs traditionnels.
Type de classificateur SVM : linéaire SVM : polynomial SVM : RBF SVM : sigmoïde RF,nT : 30
(en [%]).
Modèle Précision (%) Rappel (%) Score F1 (%) Acc (%) PS (MB) Temps (S)
TABLEAU 12 - AP et mAP basés sur la détection d'objets EMDS-6 de différents types d'EM.
Modèle d'échantillon Actinophrys Arcella Aspidisca Codosiga Colpode Epistylis Euglypha Paramécie
(AP)
RCNN plus rapide 0.95 0.75 0.39 0.13 0.52 0.24 0.68 0.70
Masque RCNN 0.70 0.85 0.40 0.18 0.35 0.53 0.25 0.70
Modèle d'échantillon Rotifères Vorticella Noctiluca Ceratium Stentor Siprostomum K.Quadrala Euglena
RCNN plus rapide 0.69 0.30 0.56 0.61 0.47 0.60 0.22 0.37
Masque RCNN 0.40 0.15 0.90 0.70 0.65 0.7 0.45 0.25
Modèle d'échantillon Gymnodinium Gonyaulax Phacus Stylongchia Synchaeta mAP - -
RCNN plus rapide 0.53 0.25 0.43 0.42 0.61 0.50 - -
Masque RCNN 0.60 0.28 0.50 0.68 0.48 0.51 - -
FIGURE 4 - Résultats de la détection d'objets par le RCNN plus rapide et le RCNN avec masque.
Ensemble de données ECN OIN GTIN Lien vers l'ensemble des Fonctions
données
EMDS-1 (Li et al., 2013) 10 200 200 -- IC, IS
EMDS-2 (Li et al., 2013) 10 200 200 -- IC ,IS
EMDS-3 (Li et al., 2016) 15 300 300 -- IC, IS
EMDS-4 (Zou et al., 2016) 21 420 420 https://research.project-10. IC, IS, IR
de/em-classiffication/
EMDS-5 (Li Z. et al., 2021) 21 420 840 (S 420, M 420) https://github.com/ ID, IED, SoIS, MoIS, SoFE, MoFE, IR
NEUZihan/EMDS-5
EMDS-6 [Dans cet article] 21 840 840 https://figshare.com/articles/ ID, IC, IS, IFE, IOD
dataset/EMDS6/17125025/1
IC, classification d'images ; IS, segmentation d'images ; SoIS, segmentation d'images à objet unique ; MoIS, segmentation d'images à objets multiples ; SoFE, extraction de
caractéristiques à objet unique ; MoFE, extraction de caractéristiques à objets multiples ; IR, recherche d'images ; IFE, extraction de caractéristiques d'images ; IOD, détection d'objets
d'images ; IED, détection de bords d'images ; ID, débruitage d'images ; ECN, numéro de classe EM ; OIN, numéro de l'image originale ; GTIN, numéro de l'image de vérité au sol ; S,
objet unique ; M, objets multiples.
afin de fournir des données pour l'évaluation des performances la détection d'objets dans les images
du classificateur. Selon le tableau 11, la précision de Les indicateurs AP et mAP pour Faster CNN et Mast CNN sont
classification de Xception est de 44,29 %, soit la plus élevée présentés dans le tableau 12. Le tableau 12 montre que les
parmi tous les modèles. La formation des modèles indicateurs AP et mAP pour Faster CNN et Mast CNN sont
d'apprentissage profond prend généralement beaucoup de présentés dans le tableau 12.
temps, mais certains modèles ont un avantage significatif en
termes de temps de formation. Parmi les modèles sélectionnés,
ViT est celui qui consomme le moins de temps pour la
formation des échantillons. Le temps d'apprentissage du modèle
ViT est le plus court. La performance de classification du réseau
ShuffieNet-V2 est moyenne, mais le nombre de paramètres est
le plus faible. Par conséquent, les expériences prouvent que
l'EMDS-6 peut être utilisé pour l'évaluation des performances
des classificateurs d'apprentissage profond.
3.6. Discussion
Comme le montre le tableau 13, six versions de l'ensemble de
données sur les EM ont été publiées. Dans l'itération des
versions, les différents EMS assument des fonctions différentes.
Les EMDS-1 et EMDS-2 ont des fonctions similaires et peuvent
effectuer la classification et la segmentation d'images. En outre,
les EMDS-1 et EMDS-2 contiennent tous deux les éléments
suivants
dix classes d'EM, 20 images de chaque classe, avec des images La première expérience utilise trois méthodes classiques
GT. Par rapport à la version précédente, EMDS-3 n'ajoute pas d'apprentissage automatique pour tester la performance de la
de nouvelles fonctions. Cependant, nous avons élargi cinq classification. La deuxième expérience utilise 21 modèles
catégories d'EM. d'apprentissage profond. Parallèlement, des indicateurs tels que
Nous mettons en libre accès les EMDS depuis EMDS-4 la précision et le temps d'apprentissage sont calculés pour
jusqu'à la dernière version d'EMDS-6. Par rapport à l'EMDS-3, vérifier les performances du modèle à partir de plusieurs
l'EMDS-4 étend six classes supplémentaires d'EM et ajoute une dimensions. Les résultats montrent que l'EMDS-6 peut tester
nouvelle fonction de recherche d'images. Dans l'EMDS-5, 420 efficacement les performances de classification des images. En
images GT à objet unique et 420 images GT à objets multiples ce qui concerne la détection d'objets, cet article teste
sont préparées, respectivement. Par conséquent, l'EMDS-5 respectivement le RCNN plus rapide et le RCNN à masque. La
prend en charge davantage de fonctions, comme le montre le plupart des EM de l'expérience peuvent être marqués avec
tableau 13. L'ensemble de données utilisé dans cet article est précision. Par conséquent, l'EMDS-6 peut être appliqué
l'EMDS-6, qui est la dernière version de cette série. Le volume efficacement à la détection d'objets dans les images.
de données de l'EMDS-6 est plus important que celui de À l'avenir, nous augmenterons encore le nombre d'images
l'EMDS-5. EMDS-6 ajoute 420 images originales et 420 images EM de l'EMDS-6. Parallèlement, nous essaierons d'appliquer
GT d'objets multiples, ce qui double le nombre d'images dans l'EMDS-6 à davantage de domaines de traitement de la vision
l'ensemble de données. Grâce à ce volume de données plus par ordinateur afin de promouvoir davantage le développement
important, l'EMDS-6 peut réaliser davantage de fonctions de de la recherche microbienne.
manière plus efficace et plus stable. Par exemple, la classification
d'images, la segmentation d'images, la détection d'objets et DÉCLARATION DE DISPONIBILITÉ DES
d'objets.
DONNÉES
4. CONCLUSION ET TRAVAUX FUTURS Les contributions originales présentées dans l'étude sont
incluses dans l'article/les documents complémentaires. Toute
Cet article développe un ensemble de données d'images EM, à demande de renseignements complémentaires peut être
savoir EMDS-6. EMDS-6 contient 21 types d'EM et un total de adressée à l'auteur/aux auteurs correspondant(s).
1680 images. Elles comprennent 840 images originales et 840
images GT de même taille. Chaque type d'EM comporte 40 CONTRIBUTIONS DES AUTEURS
images originales et 40 images GT. Dans le test, 13 types de
bruits, tels que le bruit multiplicatif et le bruit de sel et de poivre, PZ : expérience, analyse des résultats et rédaction de l'article. CL
sont utilisés, et neuf types de filtres, tels que le filtre de Wiener : préparation des données, méthode, analyse des résultats,
et le filtre à moyenne géométrique, sont utilisés pour tester rédaction de l'article, relecture et soutien financier. MR et NX :
l'effet de débruitage des différents bruits. Les résultats relecture. HX et HY : expérience. PM : traitement des données.
expérimentaux prouvent que l'EMDS-6 permet de tester l'effet HS : soutien à la connaissance des micro-organismes de
de débruitage des filtres. En outre, cet article utilise 6 l'environnement. TJ : analyse des résultats et soutien financier.
algorithmes de segmentation traditionnels tels que k-means et MG : méthode et analyse des résultats. Tous les auteurs ont
MRF et un algorithme d'apprentissage profond pour comparer contribué à l'article et ont approuvé la version soumise.
les performances de l'algorithme de segmentation. Les résultats
expérimentaux prouvent que l'EMDS-6 peut tester efficacement FINANCEMENT
l'effet de segmentation de l'image. Parallèlement, dans
l'expérience d'extraction et d'évaluation des caractéristiques de Ce travail a été soutenu par la Fondation nationale des sciences
l'image, cet article utilise 10 caractéristiques telles que HSV et naturelles de Chine (No.61806047).
RGB extraites de l'EMDS-6. Parallèlement, le classificateur SVM
est utilisé pour tester les caractéristiques. On constate que les
REMERCIEMENTS
résultats de classification des différentes caractéristiques sont
sensiblement différents et que l'EMDS-6 permet de tester les Nous remercions Mlle Zixian Li et M. Guoxian Li pour leur
avantages et les inconvénients des caractéristiques. En ce qui importante discussion.
concerne la classification des images, cet article conçoit deux
expériences. L'expérience
Alom, M. Z., Yakopcic, C., Hasan, M., Taha, T. M. et Asari, V. K. (2019). U-Net
RÉFÉRENCES résiduel récurrent pour la segmentation des images médicales. J. Med. Imaging
6, 014006. doi : 10.1117/1.JMI.6.1.014006
Abeywickrama, T., Cheema, M. A., et Taniar, D. (2016). K-nearest neighbors on Buades, A., Coll, B. et Morel, J.-M. (2005). Une revue des algorithmes de
road networks : a journey in experimentation and in-memory débruitage d'images, avec un nouveau. Multiscale Model. Simul. 4, 490-530. doi
implementation. arXiv preprint arXiv:1601.01549. doi : 10.14778/2904121. : 10.1137/040616024
2904125 Burney, S. M. A. et Tariq, H. (2014). K-means cluster analysis pour la
Adams, R. et Bischof, L. (1994). Seed region growing. IEEE Trans Pattern Anal. segmentation d'images. Int. J. Comput. App. 96, 1-8.
Mach. Intell. 16, 641-647.
He, K., Gkioxari, G., Dollár, P. et Girshick, R. (2017). "Mask r-CNN", dans Ojala, T., Pietikainen, M. et Maenpaa, T. (2002). Multirésolution gray-scale and
Proceedings of the IEEE International Conference on Computer Vision rotation invariant texture classification with local binary patterns. IEEE Trans.
(Honolulu, HI), 2961-2969. Pattern Anal. Mach. Intell. 24, 971-987. doi : 10.1109/TPAMI.2002. 1017623
He, K., Zhang, X., Ren, S. et Sun, J. (2016). "Deep residual learning for image Otsu, N. (1979). A threshold selection method from gray-level histograms
recognition", dans Proceedings of the IEEE Conference on Computer Vision (méthode de sélection de seuil à partir d'histogrammes de niveaux de gris).
and Pattern Recognition (Las Vegas, NV), 770-778. IEEE Trans. Syst. Man Cybernet. 9, 62-66.
Ho, T. K. (1995). "Random decision forests", dans Proceedings of 3rd Pitas, I. (2000). Digital Image Processing Algorithms and Applications. Hoboken,
International Conference on Document Analysis and Recognition (Montréal, NJ : Wiley.
QC : IEEE), 278-282. Qunqun, H., Fei, W. et Li, Y. (2013). Extraction de caractéristiques de texture
Hu, M.-K. (1962). Visual pattern recognition by moment invariants. IRE Trans. d'image de couleur basée sur la matrice de cooccurrence de niveau de gris.
Inform. Theory 8, 179-187. Remote Sens. Land Resour. 25, 26-32. doi : 10.6046/gtzyyg.2013.04.05
Huang, G., Liu, Z., Van Der Maaten, L. et Weinberger, K. Q. (2017). "Densely Rahaman, M. M., Li, C., Yao, Y., Kulwa, F., Rahman, M. A., Wang, Q., et al.
connected convolutional networks", dans Proceedings of the IEEE Conference (2020). Identification des échantillons de covid-19 à partir d'images de
on Computer Vision and Pattern Recognition (Honolulu, HI), 4700-4708. radiographie thoracique à l'aide de l'apprentissage profond : A comparison of
Junhua, C. et Jing, L. (2012). "Research on color image classification based on transfer learning approaches. J. Xray Sci. Technol. 28, 821-839. doi :
HSV color space," in 2012 Second International Conference on 10.3233/XST-200715
Instrumentation, Measurement, Computer, Communication and Control Ren, S., He, K., Girshick, R. et Sun, J. (2015). Faster r-CNN : vers la détection
(Harbin : IEEE), 944-947. d'objets en temps réel avec des réseaux de proposition de région. Adv. Neural
Kato, Z., et Zerubia, J. (2012). Markov Random Fields in Image Segmentation Inform. Process. Syst. 28, 91-99. doi : 10.1109/TPAMI.2016. 2577031
(Champs aléatoires de Markov dans la segmentation d'images). Sandler, M., Howard, A., Zhu, M., Zhmoginov, A. et Chen, L.-C. (2018).
Hanover, MA : NOW Publishers. "MobileNetV2 : résidus inversés et goulots d'étranglement linéaires", dans
Kavitha, J., et Suruliandi, A. (2016). "Texture and color feature extraction for Proceedings of the IEEE Conference on Computer Vision and Pattern
classification of melanoma using SVM," in 2016 International Conference on Recognition (Salt Lake City, UT), 4510-4520.
Computing Technologies and Intelligent Data Engineering (ICCTIDE'16) Simonyan, K. et Zisserman, A. (2014). Very deep convolutional networks for
(Kovilpatti : IEEE), 1-6. large-scale image recognition. arXiv preprint arXiv:1409.1556. Disponible en
Kosov, S., Shirahama, K., Li, C. et Grzegorzek, M. (2018). Classification des ligne à l'adresse suivante : https://arxiv.53yu.com/abs/1409.1556
micro-organismes environnementaux à l'aide de champs aléatoires Srinivas, A., Lin, T.-Y., Parmar, N., Shlens, J., Abbeel, P., et Vaswani,
conditionnels et de réseaux neuronaux convolutionnels profonds. Pattern A. (2021). Bottleneck transformers for visual recognition. arXiv preprint
Recogn. 77, 248-261. doi : 10.1016/j.patcog.2017.12.021 arXiv:2101.11605. Disponible en ligne à l'adresse :
Krizhevsky, A., Sutskever, I. et Hinton, G. E. (2012). Imagenet classification with https://arxiv.org/abs/2101.11605
deep convolutional neural networks. Adv. Neural Inform. Process. Syst. 25, Szegedy, C., Ioffe, S., Vanhoucke, V. et Alemi, A. (2017). "Inception-v4,
1097-1105. inception-resnet et l'impact des connexions résiduelles sur l'apprentissage",
Kulwa, F., Li, C., Zhao, X., Cai, B., Xu, N., Qi, S., et al. (2019). Une enquête sur dans les actes de la conférence AAAI sur l'intelligence artificielle (San Francisco,
l'état de l'art pour les méthodes de segmentation d'images de micro- CA).
organismes et le potentiel futur. IEEE Access. 7, 100243-100269. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., et al. (2015).
Levner, I. et Zhang, H. (2007). Classification-driven watershed segmentation. "Going deeper with convolutions", dans Proceedings of the IEEE Conference on
IEEE Trans. Image Process. 16, 1437-1445. doi : 10.1109/TIP.2007.894239 Computer Vision and Pattern Recognition (Boston, MA), 1-9.
Li, C., Ma, P., Rahaman, M. M., Yao, Y., Zhang, J., Zou, S., et al. (2021). A state Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J. et Wojna, Z. (2016). "Rethinking
of- the-art survey of object detection techniques in microorganism image the inception architecture for computer vision," in Proceedings of the IEEE
analysis : from traditional image processing and classical machine learning to Conference on Computer Vision and Pattern Recognition (Las Vegas, NV),
current deep convolutional neural networks and potential visual transformers. 2818-2826.
arXiv [Preprint]. arXiv : 2105.03148. Disponible en ligne à l'adresse : Touvron, H., Cord, M., Douze, M., Massa, F., Sablayrolles, A., et Jégou, H. (2020).
https://arxiv.org/abs/2105. 03148 Training data-efficient image transformers & distillation through attention.
Li, C., Shirahama, K. et Grzegorzek, M. (2015). Application de l'analyse d'images arXiv preprint arXiv:2012.12877. Disponible en ligne à l'adresse :
basée sur le contenu à la classification des micro-organismes environnementaux. https://arxiv.org/abs/2012. 12877
Biocybern. Biomed. Eng. 35, 10-21. doi : 10.1016/j.bbe.2014.07.003 Yuan, L., Chen, Y., Wang, T., Yu, W., Shi, Y., Tay, F. E., et al. (2021). Tokens-to-
Li, C., Shirahama, K. et Grzegorzek, M. (2016). Microbiologie environnementale ken vit : training vision transformers from scratch on imagenet. arXiv preprint
assistée par l'analyse d'images basée sur le contenu. Pattern Anal. Appl. 19, arXiv:2101.11986. Disponible en ligne à l'adresse suivante :
531-547. doi : 10.1007/s10044-015-0498-7 https://arxiv.53yu.com/abs/2101.11986
Li, C., Shirahama, K., Grzegorzek, M., Ma, F. et Zhou, B. (2013). "Classification of Zebari, R., Abdulazeez, A., Zeebaree, D., Zebari, D. et Saeed, J. (2020). A
environmental microorganisms in microscopic images using shape features comprehensive review of dimensionality reduction techniques for feature
and support vector machines," in 2013 IEEE International Conference on selection and feature extraction (Examen complet des techniques de réduction
Image Processing (Melbourne, VIC : IEEE), 2435-2439. de la dimensionnalité pour la sélection et l'extraction des caractéristiques). J.
Li, C., Wang, K. et Xu, N. (2019). Une enquête sur les applications de l'analyse Appl. Sci. Technol. Trends 1, 56-70. doi : 10.38094/jastt1224
d'images microscopiques basée sur le contenu dans les domaines de la Zhang, J., Li, C., Kosov, S., Grzegorzek, M., Shirahama, K., Jiang, T., et al. (2021).
classification des micro-organismes. Artif. Intell. Rev. 51, 577-646. Lcunet : A novel low-cost u-net for environmental microorganism image
Li, Z., Li, C., Yao, Y., Zhang, J., Rahaman, M. M., Xu, H., et al. (2021). EMDS-5 : segmentation. Pattern Recognit. 115, 107885. doi : 10.1016/j.patcog.2021.
Cinquième version de l'ensemble de données d'images de micro-organismes 107885
environnementaux pour des tâches d'analyse d'images multiples. PLoS ONE Zhang, J., Li, C., Rahaman, M., Yao, Y., Ma, P., Zhang, J., et al. (2022). A
16, e0250631. doi : 10.1371/journal.pone.0250631 comprehensive review of image analysis methods for microorganism counting
Ma, N., Zhang, X., Zheng, H.-T., et Sun, J. (2018). "Shuffienet v2 : directives : from classical image processing to deep learning approach. Artif. Intell. Rev.
pratiques pour la conception d'une architecture cnn efficace", dans les Actes de 55, 2875-2944. doi : 10.1007/s10462-021- 10082-4
la Conférence européenne sur la vision par ordinateur (ECCV) (Salt Lake City, Zhao, P., Li, C., Rahaman, M., Xu, H., Yang, H., Sun, H., et al. (2022). Une étude
UT), 116-131. comparative des méthodes de classification par apprentissage profond sur un
Madigan, M. T., Martinko, J. M., Parker, J., et al. (1997). Brock Biology of petit ensemble de données d'images de micro-organismes environnementaux
Microorganisms, Vol. 11. Upper Saddle River, NJ : Prentice Hall. (emds-6) : From convolutional neural networks to visual transformers. arXiv
Madsen, E. L. (2008). Microbiologie environnementale : From Genomes to [Preprint]. arXiv : 2107.07699. Disponible en ligne à l'adresse :
Biogeochemistry. Oxford : Wiley-Blackwell. https://arxiv.org/pdf/2107.07699.pdf
Mingqiang, Y., Kidiyo, K. et Joseph, R. (2008). Enquête sur les techniques Zou, Y. L., Li, C., Boukhers, Z., Shirahama, K., Jiang, T. et Grzegorzek, M. (2016).
d'extraction de caractéristiques de forme. Pattern Recognit. 15, 43-90. doi : "Système d'extraction d'images basé sur le contenu microbiologique de
10.5772/6237 l'environnement à l'aide de
internal structure histogram", dans Proceedings of the 9th International cet article, ou les affirmations qui peuvent être faites par son fabricant, ne sont
Conference on Computer Recognition Systems, 543-552. pas garantis ou approuvés par l'éditeur.
Conflit d'intérêts : Les auteurs déclarent que la recherche a été menée en Copyright © 2022 Zhao, Li, Rahaman, Xu, Ma, Yang, Sun, Jiang, Xu et Grzegorzek. Il
l'absence de toute relation commerciale ou financière qui pourrait être interprétée s'agit d'un article en libre accès distribué selon les termes de la licence Creative
comme un conflit d'intérêts potentiel. Commons Attribution License (CC BY). L'utilisation, la distribution ou la
reproduction dans d'autres forums est autorisée, à condition que les auteurs
Note de l'éditeur : Toutes les affirmations exprimées dans cet article sont originaux et les détenteurs des droits d'auteur soient mentionnés et que la
uniquement celles des auteurs et ne représentent pas nécessairement celles de publication originale dans ce journal soit citée, conformément aux pratiques
leurs organisations affiliées, ni celles de l'éditeur, des rédacteurs et des réviseurs. académiques reconnues. Toute utilisation, distribution ou reproduction non
Tout produit susceptible d'être évalué dans le cadre du conforme à ces conditions est interdite.