Académique Documents
Professionnel Documents
Culture Documents
2. Distance Jaccard :
TP
(20)
TP + FP +
FN
3. Coefficient de corrélation
:
1 M N
Isi,j
Est − Igi,j − Ig σIg
∑∑ (21)
M×N σEst
je=1 j=1
1 M N
M×N ∑∑ (Isi,j − Igi,j)
2
(22)
je=1 j=1
où FP était le nombre de faux positifs, TP était le nombre de vrais positifs, FN était le nombre de
faux négatifs, Is faisait référence à l'image segmentée avec notre technique, Ig était l'image Ground
Truth, et M et N représentaient la taille de l'image .
Comme le coefficient de Dice et la distance de Jaccard sont deux métriques de similarité,
une méthode puissante devrait maximiser ces critères. Le critère de corrélation est également une
métrique de similarité, et varie entre -1 et +1 ; la corrélation positive parfaite est obtenue lorsque le
coefficient est égal à +1. RMSE est, d'autre part, une métrique de dissimilitude ; la valeur minimale
de RMSE est indicative d'une technique de segmentation robuste [74].
4. Analyse expérimentale
L'approche proposée de segmentation des tumeurs cérébrales a été évaluée à l'aide des
bases de données privées CIKA [75] et BraTS 2015 [16] . Cette section présente les spécifi cations
de chaque base de données utilisée. De plus, nous analysons les résultats obtenus à partir de
notre approche proposée et comparons les résultats avec d'autres approches classiques.
4.1.2. Expériences
Cette section est divisée en deux parties. La première partie illustre le rôle essentiel de l'
ANOVA dans notre algorithme. Les résultats de la fonction de fitness basée sur l'ANOVA ont été
comparés à ceux obtenus avec la fonction de fitness SAD. Suivant le même concept de variabilité
expliqué ci-dessus, le bloc candidat qui a donné la valeur SAD maximale a été considéré comme le
bloc tumoral. Dans la deuxième partie de ce travail, nous avons comparé les résultats
expérimentaux de notre algorithme avec plusieurs techniques de segmentation bien connues, telles
que les C-
moyennes floues (FCM), les K-moyennes, le seuillage Otsu, le seuillage local et la segmentation des
bassins
méthode ANOVA, en utilisant la fonction de fitness exprimée en (18). Comme la différence pouvait
Machine Translated by Google
également être mesurée avec n'importe quel critère de dissemblance, nous avons changé la fonction
de fitness utilisée de (18) et l'avons remplacée par le critère SAD, afin de prouver l'efficacité de notre
fonction de fitness basée sur l'ANOVA. La métrique SAD, aussi appelée norme L1 ou norme
Cancers 2022, 14, 4399
Manhattan, est un critère de dissemblance, utilisé pour comparer les intensités de deux blocs 1o7usur 32
images [74], et est définie comme suit :
M N
Des vérités avec la plupart des TRISTE =
∑De∑pluI1si,,jn−ouI2si,pj ouvons observer (23)
à partir du . 4
images testées q ueAleNsOrVéAsuélttaatiseni=t 1plju=s1
taebc leau 100%
d e la s e g m e n ta t
é l ev és , e t p ro c h e s d eio n a v
dans la plupart des testés où I1 et I2 représentent les blocs candidats dans l'image de la tumeur
coceéfrféicbireanlet deet lceoarruéclautniocna, sl'imenaguetilidseanlat lme acloaedfifeic. ieent
tpdroecshiemdilear0it%é daeveDciclea, mlaédtriisqtuaencReMdSe EJ.aEccnard et le
dirfefévraenncchees, uSbAsDtanatideollneneéndtreeslerébsluolctactas npdriodmateettteluarsm,
amjoariistéunn'eétvaaitlepuarsSsAaDtiséfaleisvaénetea. mEnongturéisuendee
présenrcéecda'puintuelatutiomne, uilr.ePstacr lcaoirnqsuéequl'uetnilti,slaatifoonncdteioln'AdNeOfVitnA
ecsosmdmu ebloimc acgaendsiadnast amdaolandnieé idnedibqiueen la
demeilleurs
SAD a été résultats que ceux
considérée obtenus
comme avec
le bloc la fonction
tumoral. de fitness
La figure SADlaqui
13 montre a donné
tion, la valeur
démontrant maximale
la robustesse
et l'efficacité de la technique dans l'évaluation des images can originales avant et après les
procédures de prétraitement et de segmentation, où le didate bloque. la fonction de fitness utilisée
était basée sur l'ANOVA et le critère SAD.
Image 1
Image 2
Cancers 2022, 14, 4399 19 sur 33
Image 3
Figure 13. Suite.
Image 4
Machine Translated by Google
Image 3
Cancers 2022, 14, 4399 18 sur 32
Image 4
image 5
Image 6
Image 7
Image 8
Image 9
Image 10
94,535%
TCaobeflfeicaieun4t . Les rés8u9lt,6a3ts7%de notre 8m7é,9t5h9od%e de segme0n,9t5a2ti5o2n4 sur le jeu de
Image 8
Image 9 96,211% do0,n9n4é25e3s6KICA, en u0ti,l0is0a0n12t 2la3 similar0it,é00D0i2c4e02 d9e0,9436,959%3 9%2,,6d9i9st
Image 10 ANNORVSAA
95,154% SNIR 0,950669 0,94286 0,0000414 0,0133088
9e0t,7S5A6D%.
NRS signifie « segmentation non pertinente ».
Coefficient de similarité des dés Distance Jaccard Coefficient de corrélation (−1 à Mesure RMSE (%)
Images (%) (%) +1)
ANOVA TRISTE ANOVA TRISTE ANOVA TRISTE ANOVA TRISTE
B. Expérience #2
Image 62,008 SNIR 44,936% SNIR 0,673064 0,475478 0,0006647 0,0010605
1 %
Image 78,997 SNNIoRus avons é65v,a28lu5é% l'efficacitSéNIdRe notre algo0,r7it9h0m11e6 par rapport0,à38p61lu6s7 ieurs
%
2 se0g,0m00e0n1t5a8tions b0i,e00n14c9o3n4nues
techniques dans la deuxième expérience. Les images segmentées obtenues avec notre méthode,
Image 73,276% 24,432% 57,823% 13,916% 0,761069 0,532032 0,0003579 0,0005049
3
et d'autres méthodes de segmentation, sont illustrés à la figure 14. En outre, les tableaux 5 à 8 mettent en évidence
Image 83,265% 78,242% 71,329% 64,26 0,870553 0,820469 0,0000657 0,0001091
4 %
les résultats statistiques et les comparaisons de notre méthode et d'autres méthodes connexes, en utilisant
image 88,252% 87,581% 78,974% 77,907% 0,897922 0,888510 0,0000398 0,0000464
5
les ;
métriques suivantes : Coefficient de similarité des dés Distance de Jaccard ; Coefficient de corrélation;
Image 87,844% 75,051% 0,891440 0,865518 0,0000243 0,0000361
métr8iq5u,7e4R8 M
6 %S7E8. ,323 % et
91,919 % 88,8 09 % 8 5, 04 6 % 7 9 ,8 7 1% 0 .9 2 5 80 6 0 . 90 3 02 7
Image 7 O n peut ob s e r v er, à p a r t ir des com p a r a i sons quali t a t iv e s et
Image 8 94,535% 9 3 ,5 93 % 8 9 ,6 3 7 % 8 7,9 59 % 0 ,9 52 5 2 4
mé th o d e posée pe u t s e g menter la tu m eur cérébr a le t r è s
96,211% 9 0, 46 9 % 9 2,6 9 9 % 8 2, 59 8 % 0 ,95 3 6 6 3
Image 9 mé th o d e s, où leur s s e g mentat io n s n e sont pa s p e r t inentes ou
0 ,6 63 43 0, 0 0 00 49 8 90 , 756
0,0 0 0 4 3 3 7 S N IR
Image 10 p a s s atisfaisan
95,154% cas. SLNtaIR
e puissance
s d a ns lad em na%jotre
o r méth
i t é des
o d e réside es0s,e95n0t6ie69llement dans0,9le42p86oint
suiva0,n0t00:0l4a14premiè0,r0e13é3t0a8p8 e de
noNtRrede
résultats S sa iglngifoier«itstumorale
segmentation hemgmeexempts
en, taqtiude
oni toute
ndoéinformation
ntpeerrtmineinnte
non e»l.e ROI,
pertinente, tellene
quesegmente alors
l'os du crâne. que cette
Contrairement à
d'autres techniques de segmentation, telles que celles basées sur Otsu ou le seuillage local, certaines
des informations superflues restent sur l'image segmentée.
Machine Translated by Google
B. Expérience #2
Nous avons évalué l'efficacité de notre algorithme par rapport à plusieurs segmentations bien connues
techniques dans la deuxième expérience. Les images segmentées obtenues avec notre méthode,
et d'autres méthodes de segmentation, sont illustrés à la figure 14. En outre, les tableaux 5 à 8 mettent en évidence
les résultats statistiques et les comparaisons de notre méthode et d'autres méthodes connexes, en utilisant le
métriques suivantes : coefficient de similarité des dés ; Distance de Jaccard ; Coefficient de corrélation; et
Métrique RMSE.
Tableau 5. Comparaison entre les résultats de notre méthode de segmentation sur le jeu de données KICA et certains
techniques de segmentation bien connues utilisant le coefficient de similarité de Dice.
Images Notre méthode FCM K-Moyennes Seuil d'Otsu Seuil local Seuil du bassin versant
Tableau 6. Comparaison entre les résultats de notre méthode de segmentation sur le jeu de données KICA et certains
techniques de segmentation bien connues utilisant la distance de Jaccard.
Images Notre Méthode FCM K-Moyennes Seuil d'Otsu Seuil local Seuil du bassin versant
Tableau 7. Comparaison entre les résultats de notre méthode de segmentation sur le jeu de données KICA et certains
techniques de segmentation bien connues utilisant le coefficient de corrélation.
Images Notre Méthode FCM K-Moyennes Seuil d'Otsu Seuil local Seuil du bassin versant
Images
Notre méthode FCM K signifie Otsu Seuil Bassin versant
originales
local
Figure 14. L'efficacité de la segmentation des tumeurs cérébrales sur l'ensemble de données KICA : comparaison entre la méthode basée sur l'ANOVA proposée et d'autres méthodes bien connues.
Figure 14. L'efficacité de la segmentation des tumeurs cérébrales sur l'ensemble de données KICA : comparaison entre la méthode basée sur l'ANOVA proposée et d'autres méthodes bien
connues méthodes.
Machine Translated by Google
Tableau 8. Comparaison entre les résultats de notre méthode de segmentation sur le jeu de données KICA et certains
techniques de segmentation bien connues utilisant la métrique RMSE.
Images Notre méthode FCM K-Moyennes Seuil d'Otsu Seuil local Seuil du bassin versant
(c)
(ré)
Figure 15.
similarité Comparaison
Figure des résultats
15. Comparaison de segmentation
des résultats sur l'ensemble
de segmentation de données
sur l'ensemble CIKA basé
de données CIKA sur : (a)sur
basé Dice
: (a)
Coefficient de similarité Dice ; (b) Distance de Jaccard ; (c) coefficient de corrélation; (d) Métrique RMSE. coefficient;
(b) Distance de Jaccard ; (c) coefficient de corrélation; (d) Métrique RMSE.
2041.52.4E.2x.p1é. rDimesecnrtiapttiioonnsdseulralababsaesedededodnonnéneésesPBourar TS
garantirexterne
données que nosetrésultats précédents
The Medical Image puissent être
Computing généralisés,
and Computer nous avons
Assisted utilisé un ensemble
Intervention de tester
(MICCAI) pour
base de données officielle de l' approche cérébrale de la conférence. défi de segmentation IRM tumorale, 16]
les performances de la segmentation basée sur PSO-ANOVA fournies par la base de données BraTS [ et il; est
c'est la
également couramment utilisé par les chercheurs travaillant sur la segmentation IRM des tumeurs cérébrales. La
base de données BraTS est mise à jour chaque année depuis la version 4.2.1. Base de données Description le
challenge a été lancé en 2012.
Le Medical
données pourImage Computingdes
la segmentation andimages
Computer Assistedcérébrales
de tumeurs Intervention (MICCAI)
s'appelait con 2015.
BraTS L'ensemble de à
Il consistait
référencer la base de données BraTS [16] ; il s'agit de la base de données officielle des IRM des 54 gliomes de bas
grade (LGG) et des 220 gliomes de haut grade (HGG) de la conférence. Ces 274 images du défi de segmentation IRM
des tumeurs cérébrales, et il est également couramment utilisé par les chercheurs, étaient réservées à l'ensemble
de formation, tandis que 110 étaient pour l'ensemble de test. La taille totale de tous les travaux sur la segmentation
IRM des tumeurs cérébrales. La base de données BraTS a été mise à jour annuellement. Les images IRM étaient
de 240 × 240 × 155. Les quatre modalités d'IRM étaient T1, T1c, T2 et T2-FLAIR. allié depuis le lancement du
challenge en 2012.
Quatre classes intra-tumorales - œdème, tumeur rehaussée, tumeur non rehaussée et nécrose - L'ensemble de
données pour la segmentation des images de tumeurs cérébrales s'appelait BraTS 2015. Il consistait en une
«vérité terrain» segmentée. Le coefficient de similarité de Dice a été utilisé pour 54 gliomes de bas grade (LGG) et 220
gliomes de haut grade (HGG). Ces 274 im dans cette expérience pour évaluer et comparer les résultats de
segmentation avec certains âges récents étaient réservés pour l'ensemble d'apprentissage, tandis que 110 étaient
pour l'ensemble de test. La taille totale des méthodes de pointe publiées. Les trois modalités des régions tumorales
- complète,
T2 et T2 -centrale, toutes rehaussées
et les tumeurs les images IRM
- ontétaient de 240
été prises × 240 ×dans
en compte 155. le
Les quatre
calcul de modalités
la mesured'IRM étaient T1, T1c,
de performance. Le
FLEUR. Quatre
(ou entière) classes intratumorales
comprenant - œdème, tumeur
des noyaux rehaussés rehaussée, œdème,
et non rehaussés, tumeur non rehaussée
nécrose et zone
- ont été tumorale
fournies complète
sous forme de
«vnéorintéatmeréralioinr»anstesgémtaeienntéteto. uLse
approches publiées liées à l'ensemble de données difficile BraTS 2015. Pour faire une
Cancers 2022, 14, 4399 comparaison par rapport à l'état de l'art, nous avons reporté dans le tableau 9 les résultats de
segm2e7nstuart3io3n des trois modalités de régions tumorales (c'est-à-dire, tumeurs complètes, centrales et
rehaussées).
Figure 16. Les trois modalités des régions tumorales : tumeurs complètes, centrales et rehaussées.
4.2.2. Expériences
Comme nous l'avons fait avec l'ensemble de données KICA, nous avons mené des expériences visuelles et quantitatives
sur l'ensemble de données BraTS 2015, pour évaluer la performance de notre segment de tumeur cérébrale proposé
approche de mentation. Un sous-ensemble de quatre images T2FLAIR, représentant le plus cliniquement
tumeurs rencontrées, a été choisi, pour mettre en évidence l'évaluation visuelle; La figure 17 montre la
résultats de notre approche proposée de segmentation des tumeurs cérébrales, en utilisant l'IRM HGG et LGG
images. Selon l'OMS, les grades I et II sont considérés comme des gliomes de bas grade (LGG),
tandis que les grades III et IV sont hautement malins et sont appelés gliomes de haut grade (HGG).
Notons que le type de segmentation considéré dans cette démonstration est basé sur la com
les tumeurs pleines, qui comprennent la nécrose, l'œdème et les noyaux rehaussés et non rehaussés.
De plus, le tableau 9 présente les performances de notre approche, en utilisant le Dice similarity co
efficace critère statistique, et compare nos résultats aux résultats de
approches publiées liées à l'ensemble de données difficile BraTS Pour faire une comparaison
fils par rapport à l'état de l'art, nous avons reporté dans le tableau 9 les résultats de segmentation de
Figure 16. Les trois modalités des régions tumorales : tumeurs complètes, centrales et rehaussées.
Figluesretr1oi6s.mLoedsatlirtoésisdmesordéagliioténss tduemsorraélgesio(ncs'estut-mà-doirraeleless
: tmumeuerus rcsomcopmlèptelsè,tecesn, tcraelnestraetleresheaturseshéeasu)s. sées.
tu
4.2.2. Expériences
Comme nous l'avons fait avec l'ensemble de données KICA, nous avons mené des expériences visuelles et quantitatives
sur l'ensemble de données BraTS 2015, pour évaluer la performance de notre segment de tumeur cérébrale proposé
approche de mentation. Un sous-ensemble de quatre images T2FLAIR, représentant le plus cliniquement
tumeurs rencontrées, a été choisi, pour mettre en évidence l'évaluation visuelle; La figure 17 montre la
résultats de notre approche proposée de segmentation des tumeurs cérébrales, en utilisant l'IRM HGG et LGG
images. Selon l'OMS, les grades I et II sont considérés comme des gliomes de bas grade (LGG),
tandis que les grades III et IV sont hautement malins et sont appelés gliomes de haut grade (HGG).
Notons que le type de segmentation considéré dans cette démonstration est basé sur la com
les tumeurs pleines, qui comprennent la nécrose, l'œdème et les noyaux rehaussés et non rehaussés.
De plus, le tableau 9 présente les performances de notre approche, en utilisant le Dice similarity co
efficace comme critère statistique, et compare nos résultats aux résultats de
approches publiées liées à l'ensemble de données difficile BraTS 2015. Pour faire une comparaison
fils par rapport à l'état de l'art, nous avons reporté dans le tableau 9 les résultats de segmentation de
les trois modalités des tumorales (c'est-à-dire les tumeurs complètes, centrales et rehaussées).
Figure 17. L'efficacité de notre proposition de méthode de segmentation des tumeurs cérébrales sur le BraTS 2015
jeu de données : (rangée du haut) images T2-FLAIR originales ; (rangée du bas) résultats de segmentation de tumeurs complètes.
Tableau 9. Les résultats de notre méthode de segmentation sur le jeu de données BraTS 2015, en utilisant la similarité Dice
coefficient appliqué sur les tumeurs complètes, centrales et rehaussées, et comparaison avec l'état de l'art.
Dé
Auteurs An Méthodes
Complet Cœur Améliorer
Havaei et al. [76] 2016 CNN (procédure de formation Patch-Wise en deux phases) 88% 79% 73%
Tseng et al. [78] 2017 CNN (architecture codeur-décodeur) 85% 68% 68%
Machine Translated by Google
Tableau 9. Suite
Dé
Auteurs An Méthodes
Complet Cœur Améliorer
Iqbal et al. [79] 2018 CNN (couches séquentielles multiples de réseau de neurones) 87% 86% 79%
Li et al. [82] 2019 CNN (architecture U-Net modifiée) 89% 73% 73%
Elmezain et al. [83] 2022 CapsNet + LDCRF + Post-traitement 91% 86% 85%
D'après les évaluations visuelles et statistiques, nous pouvons observer que notre approche a donné
résultats de segmentation pertinents dans la plupart des cas testés, et que les résultats de segmentation étaient
près des images Ground Truth. Par ailleurs, nous pouvons observer à partir du tableau 9 que la segmentation
les résultats étaient plus élevés (moyenne ≈87 %) avec les trois modalités de régions tumorales utilisant le Dice
coefficient de similarité. Selon les régions complètes, notre approche a surpassé toutes
comparé des approches de pointe, comme CNN [76–78] et ILinear [39], tout en produisant
des résultats équivalents et compétitifs pour les zones tumorales principales et rehaussées. Enfin, comme
les résultats obtenus étaient similaires aux résultats obtenus avec l'ensemble de données CIKA, nous pouvons
en déduire que notre approche est une technique robuste et efficace.
Comme la majorité des résultats PSO-ANOVA étaient hautement compatibles avec les résultats privés
et ensembles de données publics, nous pouvons en déduire que les performances de notre segmentation des tumeurs
cérébrales approche est satisfaisante, et nous sommes convaincus qu'elle peut être mise en œuvre dans le monde réel
applications, pour aider les médecins à prendre des décisions cliniques.
5. Conclusions
Dans cet article, une nouvelle méthode de segmentation des tumeurs cérébrales a été proposée. Cette
méthode se compose de quatre étapes :
- L'os du crâne est précisément retiré de l'image, pour exclure les données non pertinentes.
- La technique d'optimisation par essaim de particules (PSO) est ensuite appliquée, pour détecter la
région d'intérêt (ROI) qui contient la lésion cérébrale.
- La fonction de fitness utilisée pour évaluer les blocs candidats est basée sur une
analyse de variance à effets fixes (ANOVA).
-
Enfin, dans la dernière étape de la méthode, la méthode de segmentation K-means est utilisée dans
le bloc lésionnel, pour le classer en deux catégories possibles : tumoral et non tumoral.
Une étude d'évaluation a été réalisée à l'aide d'une imagerie par résonance magnétique approfondie
(IRM) bases de données ; une évaluation visuelle et quatre mesures statistiques ont été utilisées pour évaluer
la performance de la segmentation tumorale. Les images représentant le plus cliniquement
les positions rencontrées ont été utilisées pour l'évaluation visuelle. Les résultats montrent que les approches concurrentes
ne fournissent pas de résultats de segmentation utilisables dans certains cas, alors que
notre approche est une solution prometteuse pour l'aide à la décision clinique. En effet, statistiquement,
les résultats montrent que la méthode proposée donne une précision de segmentation tumorale de 96%,
surpassant les autres méthodes de pointe. De plus, en comparant notre méthode avec la
segmentation manuelle et soigneuse effectuée par des experts pour obtenir ce qu'on appelle
Vérité' ne montre pas de différences significatives. En effet, la différence est d'environ 1%.
Les différents résultats, et la comparaison avec les méthodes de l'état de l'art, montrent que
notre approche peut être un outil utile pour la détection, le diagnostic et la radiothérapie du cancer du cerveau
planification du traitement. L'orientation future de nos recherches sur la segmentation des tumeurs cérébrales doit
remédier aux limites de l'approche non supervisée en : (1) combinant PSO, ANOVA et
un modèle CNN [84–90] ; (2) en utilisant des réseaux contradictoires génératifs [91–94] pour pré-traiter,
coloriser, corriger et améliorer les images avant de les présenter à l'algorithme de segmentation.
Machine Translated by Google
Déclaration de disponibilité des données : les données peuvent être partagées sur demande.
Abréviations
Les abréviations et acronymes suivants sont utilisés dans ce manuscrit :
Analyse de variance ANOVA
Défi de segmentation des tumeurs cérébrales multimodales BRATS
Réseaux de neurones convolutifs CNN
FSC
Liquide cérébro-spinal
Imagerie numérique DICOM et communications en médecine
FCM Fuzzy C-Means
Récupération par inversion atténuée par fluide FLAIR
FN Faux négatifs
PF Faux positifs
Géorgie
Algorithme génétique
Dieu Agents de contraste à base de gadolinium
Gliomes de haut grade HGG (HGG)
LGG Gliomes de bas grade (LGG)
Centre d'imagerie KICA Kouba—Alger
IRM
Imagerie par résonance magnétique
Erreur quadratique moyenne RMSE
OSP
Optimisation de l'essaim de particules
ROI
Région d'intérêt
SVM
Soutenir les machines vectorielles
SA
Recuit simulé
TRISTE Somme des différences absolues
ESS
Erreur somme des carrés
FSS
Somme factorielle des carrés
RSS
Somme résiduelle des carrés
SST
Somme totale des carrés
T1
Séquence d'imagerie pondérée en T1
T2
Séquences d'imagerie pondérées en T2
T1c
Contraste pondéré T1
ET Temps d'écho
TR
Temps de répétition
TP Vrais positifs
OMS Organisation mondiale de la santé
Références
1. Parc, JH ; de Lomana, ALG ; Marzese, DM ; Juarez, T.; Feroze, A.; Hothi, P.; Cobbs, C.; Patel, AP ; Kesari, S.; Huang, S.; et coll.
UN Approche systémique du traitement des tumeurs cérébrales. Cancers 2021, 13, 3152. [CrossRef] [Pub Med]
2. Sandler, CX ; Matsuyama, M.; Jones, TL ; Bashford, J.; Langbeker, D.; Hayes, SC Activité physique et exercice chez les adultes
diagnostiqué avec un cancer du cerveau primaire: Une revue systématique. J. Neuro-Oncol. 2021, 153, 1–14. [Référence croisée] [Pub Med]
3. Kanmounye, États-Unis ; Karekezi, C.; Nyalunja, AS ; Awad, AK ; Laeke, T.; Balogun, JA Tumeurs cérébrales chez l'adulte en Afrique
subsaharienne : Un examen de la portée. Neuro-Oncol. 2022, noac098. [Référence croisée] [Pub Med]
Machine Translated by Google
4. Ali, S.; Li, J.; Pei, Y.; Khurram, R.; Rehman, KU; Mahmood, T. Une enquête complète sur le diagnostic des tumeurs cérébrales à l'aide d'apprentissage en profondeur et de
techniques hybrides émergentes avec une image IRM multimodale. Cambre. Calcul. Méthodes Ing. 2022. [Référence croisée]
5. Bai, X.; Zhang, Y.; Liu, H.; Wang, Y. Intuitionistic Center–Free FCM Clustering for MR Brain Image Segmentation. IEEE J. Biomed.
Informer sur la santé. 2019, 23, 2039-2051. [Référence croisée]
6.
Li, S.; Liu, J.; Song, Z. Segmentation des tumeurs cérébrales basée sur la localisation et la segmentation assistées par région d'intérêt U–Net. Int. J
Mach. Apprendre. Cyber. 2022, 13, 2435-2445. [Référence croisée]
7.
Di Ianni, T. ; Airan, RD Deep-fUS : une plate-forme d'apprentissage en profondeur pour l'imagerie ultrasonore fonctionnelle du cerveau à l'aide de données éparses.
IEEE Trans. Méd. Imagerie 2022, 41, 1813–1825. [Référence croisée]
8.
Sastry, R.; Bi, WL; Pieper, S.; Frisken, S.; Kapur, T.; Wells, W.; Golby, AJ Applications des ultrasons dans la résection des tumeurs cérébrales. J. Neuroimagerie 2017, 27, 5–15.
[Référence croisée]
9.
Guetbi, C. ; Kouamé, D.; Ouahabi, A.; Remenieras, JP Nouvelles méthodes de détection des emboles [échographie Doppler]. Dans Actes des Actes du Symposium IEEE Ultrasonics
1997, An International Symposium (Cat. No.97CH36118), Toronto, ON, Canada, 5–8 octobre 1997; pages 1119–1122.
10.
Girault, JM ; Kouamé, D.; Ouahabi, A.; Patat, F. Estimation du décalage de fréquence Doppler sanguin par un paramètre paramétrique variant dans le temps
approcher. Ultrasons 2000, 38, 682–687. [Référence croisée]
11.
Girault, JM ; Ossant, F.; Ouahabi, A.; Kouamé, D. ; Patat, F. Estimation spectrale autorégressive variant dans le temps pour l' atténuation des ultrasons dans la caractérisation des
tissus. IEEE Trans. Ultrason Ferroélectr. Fréq. Contrôle 1998, 45, 650–659. [Référence croisée]
12.
Girault, M. ; Kouamé, D. ; Ouahabi, A.; Patat, F. Détection de micro-emboles : point de vue du traitement du signal Doppler par ultrasons.
IEEE Trans. Biomédical. Ing. 2000, 47, 1431–1439. [Référence croisée]
13.
Mesfin, FB ; Al-Dhahir, MA; Gliomes. Treasure Island 2022. Disponible en ligne : https://www.ncbi.nlm.nih.gov/books/NBK441
874/ (consulté le 5 juin 2022).
14.
Disponible en ligne : https://www.arcagy.org/infocancer/localisations/autres--types--de--cancers/tumeurs--cerebrales/formes- -de--la--maladie/les--gliomes.html/ (consulté le 6 juillet
2022).
15.
QUI. Tumeurs du système nerveux central. Dans Classification OMS des tumeurs, 5e éd.; OMS : Genève, Suisse, 2022 ; Tome 8.
16.
Menze, BH; Jakab, A.; Bauer, S.; Kalpathy-Cramer, J.; Farahani, K.; Kirby, J.; Burren, Y.; Porz, N.; Slotboom, J.; Wiest, R.; et coll. La référence de segmentation d'images de tumeurs
cérébrales multimodales (BRATS). IEEE Trans. Méd. Imagerie 2015, 34, 1993–2024. [Référence croisée]
17.
Le, NQK; Pendu, TNK ; Faire, DT ; Lam, LHT ; Dang, LH ; Huynh, TT Modèle d'apprentissage automatique basé sur Radiomics pour classer efficacement les sous-types de
transcriptome chez les patients atteints de glioblastome à partir de l'IRM. Calcul. Biol. Méd. 2021, 132, 104320. [Référence croisée]
18.
Lam, LHT ; Faire, DT ; Diep, DTN; Nguyet, DLN; Truong, QC ; Tri, TT ; Thanh, HN ; Le, NQK Classification des sous-types moléculaires des gliomes de bas grade à l'aide de la
radiomique basée sur l'imagerie par résonance magnétique et de l'apprentissage automatique. RMN Biomed. 2022, e4792. [Référence croisée]
19.
Yaseen, SF ; Al-Araji, AS ; Humaidi, AJ Segmentation et classification des tumeurs cérébrales : une revue d'une décennie. Int. J. Non linéaire
Anal. Appl. 2022, 13, 1879–1891.
20.
Ouahabi, A. Débruitage d'images par ondelettes : application en imagerie médicale. Dans Advances in Heuristic Signal Processing et
Applications; Chatterjee, A., Nobahari, H., Siarry, P., Eds. ; Springer : Bâle, Suisse, 2013 ; p. 287–313.
21.
Razzak, I. ; Imran, M.; Xu, G. Segmentation efficace des tumeurs cérébrales avec des neurones conventionnels multi-échelles à deux voies
Réseaux. IEEE J. Biomed. Informer sur la santé. 2019, 23, 1911-1919. [Référence croisée]
22.
Zehani, S.; Ouahabi, A.; Oussalah, M.; Mimi, M.; Taleb – Ahmed, A. Caractérisation de la microarchitecture osseuse basée sur la fractale
analyse en imagerie dans le domaine des fréquences spatiales. Int. J. Système d'imagerie. Technol. 2021, 31, 141–159. [Référence croisée]
23.
Vishnuvarthanan, G. ; Rajasekaran, député ; Subbaraj, P.; Vishnuvarthanan, A. Une méthode d'apprentissage non supervisée avec une approche de regroupement pour l'identification
des tumeurs et la segmentation des tissus dans les images cérébrales par résonance magnétique. Appl. Calcul doux. 2016, 38, 190-212. [Référence croisée]
24.
Sujan, M.; Alam, N.; Abdullah, S.; Jahirul, M. Un système automatisé basé sur la segmentation pour la détection des tumeurs cérébrales. Int. J. Comput.
Appl. 2016, 153, 41–49. [Référence croisée]
25.
Ilhan, U. ; Ilhan, A. Segmentation des tumeurs cérébrales basée sur une nouvelle approche de seuil. Process Comput. Sci. 2017, 120, 580–587.
[Référence croisée]
26.
Djeddi, M. ; Ouahabi, A.; Batatia, H.; Basarab, A.; Kouame, D. Transformée discrète en ondelettes pour la classification de textures multifractales : application à l'imagerie ultrasonore.
Dans Actes de la Conférence internationale IEEE 2010 sur le traitement d'images (ICIP), Hong Kong, Chine, 26–29 septembre 2010 ; pages 637–640.
27.
Deng, W. ; Xiao, W.; Deng, H.; Liu, J. Segmentation des tumeurs cérébrales par IRM avec méthode de croissance de région basée sur les gradients et les variances le long et à
l'intérieur de la courbe limite. Dans Actes de la 3e Conférence internationale 2010 sur le génie biomédical et l'informatique, Yantai, Chine, 16-18 octobre 2010 ; p. 393–396.
28.
W˛egli ´nski, T. ; Fabija ´nska, A. Segmentation des tumeurs cérébrales à partir d'ensembles de données IRM en utilisant une approche de croissance de région. Dans les Actes du
2011 Perspective Technologies and Methods in MEMS Design, Polyana, Ukraine, 11-14 mai 2011 ; p. 185–188.
29.
Biratu, ES ; Schwenker, F.; Debelee, TG ; Kebede, SR ; Negera, WG; Molla, HT Enhanced Region Growing for Brain Tumor MR Image Segmentation. J. Imaging 2021, 7, 22.
[CrossRef]
30.
Khosravanian, A. ; Rahmanimanesh, M.; Keshavarzi, P.; Mozaffari, S. Fast Level Set Method for Glioma Brain Tumor Segmentation Based on Super Pixel Fuzzy Clustering and
Lattice Boltzmann Method. Calcul. Méthodes Programmes Biomed. 2021, 198, 105809.
[Référence croisée]
Machine Translated by Google
31.
Hamiane, M. ; Saeed, F. Classification SVM des images cérébrales IRM pour le diagnostic assisté par ordinateur. Int. J. Electr. Calcul. Ing.
2017, 7, 2555-2564. [Référence croisée]
32.
Zhang, N. ; Ruan, S.; Lebonvallet, S.; Liao, Q. ; Zhu, Y. Kernel sélection de fonctionnalités pour fusionner des images IRM multispectrales pour une tumeur cérébrale
segmentation. Calcul. Vis. Compréhension de l'image. 2011, 115, 256–269. [Référence croisée]
33.
Koley, S.; Sadhu, AK ; Mitra, P.; Chakraborty, B.; Chakraborty, C. Délimitation et diagnostic des tumeurs cérébrales à partir d' images IRM pondérées en T1 après contraste à
l'aide d'un calcul granulaire approximatif et d'une forêt aléatoire. Appl. Calcul doux. 2016, 41, 453–465. [Référence croisée]
34.
Srinivasu, Pennsylvanie ; SivaSai, JG; Ijaz, MF; Bhoi, AK ; Kim, W.; Kang, JJ Classification des maladies de la peau à l'aide de neurones d'apprentissage en profondeur
Réseaux avec MobileNet V2 et LSTM. Capteurs 2021, 21, 2852. [CrossRef]
35.
Ijaz, MF ; Attique, M.; Son, Y. Modèle de prédiction du cancer du col de l'utérus basé sur les données avec détection des valeurs aberrantes et suréchantillonnage
Méthodes. Capteurs 2020, 20, 2809. [CrossRef]
36.
Ali, F. ; El–Sappagh, S.; Islam, RSM ; Kwak, D.; Ali, A.; Imran, A.; Kwak, KS Un système de surveillance intelligent des soins de santé pour la prédiction des maladies cardiaques
basé sur l'apprentissage en profondeur d'Ensemble et la fusion de fonctionnalités. Inf. Fusion 2020, 63, 208–222. [Référence croisée]
37.
Havaei, M.; Davy, A.; Warde-Farley, D. ; Biard, A.; Courville, A.; Bengio, Y.; Pal, C.; Jodoin, PM; Larochelle, H. Tumeur cérébrale
segmentation avec les réseaux de neurones profonds. Méd. Image anale. 2017, 35, 18–31. [Référence croisée]
38.
Ma, C.; Luo, G.; Wang, K. Forêts aléatoires concaténées et connectées avec un modèle de contour actif piloté par patch multi-échelles pour la segmentation automatisée des
tumeurs cérébrales des images IRM. IEEE Trans. Méd. Imagerie 2018, 37, 1943–1954. [Référence croisée]
39.
Hussain, S.; Anwar, Segmentation SM des tumeurs de gliome dans le cerveau à l'aide d'un réseau de neurones à convolution profonde. Neuroinformatique
2018, 282, 248-261. [Référence croisée]
40.
Li, Q. ; Yu, Z.; Wang, Y.; Zheng, H. TumorGAN : Un cadre d'augmentation des données multimodales pour la segmentation des tumeurs cérébrales.
Capteurs 2020, 20, 4203. [CrossRef] [Pub Med]
41.
Arora, A.; Jayal, A.; Gupta, M.; Mittal, P.; Satapathy, segmentation des tumeurs cérébrales SC des images IRM à l'aide d'une image traitée
Architecture U-Net pilotée. Ordinateurs 2021, 10, 139. [CrossRef]
42.
Nabizadeh, N. ; Kubat, M. Segmentation automatique des tumeurs en IRM à spectre unique à l'aide d'un algorithme basé sur la texture et sur le contour . Système expert. Appl.
2017, 77, 1–10. [Référence croisée]
43.
Ben George, E.; Rosline, G.; Rajesh, D. Segmentation des tumeurs cérébrales à l'aide de l'optimisation de la recherche de coucou pour les images par résonance magnétique.
Dans Actes de la 8e conférence et exposition du GCC de l'IEEE 2015, Mascate, Oman, 1er au 4 février 2015 ; p. 1–6.
44.
Karnan, M.; Logheshwari, T. Amélioration de la mise en œuvre de la segmentation des images IRM cérébrales à l'aide du système de colonies de fourmis. Dans Actes de la
conférence internationale IEEE 2010 sur l'intelligence computationnelle et la recherche informatique (ICCIC), Coimbatore, Inde, 28-29 décembre 2010 ; p. 1–4.
45.
Larson, MG Analyse de la variance. Diffusion 2008, 117, 115–121. [Référence croisée] [Pub Med]
46.
Soleil, H. ; Wang, W. Un nouvel algorithme pour la segmentation d'images non supervisée basé sur le modèle D – MRF et l'ANOVA. Dans Actes de la Conférence internationale
IEEE 2009 sur l'infrastructure réseau et le contenu numérique (IC–NIDC), Pékin, Chine, 6–8 novembre 2009 ; pp. 754–758.
47.
Farshi, TR ; Drake, JH; Özcan, E. Une approche multimodale basée sur l'optimisation d'un essaim de particules pour la segmentation d'images. Expert
Syst. Appl. 2020, 149, 113233. [Référence croisée]
48.
Bonabeau, E. ; Dorigo, M.; Theraulaz, G. Swarm intelligence : Des systèmes naturels aux systèmes artificiels. Relier. Sci. 2002, 14, 163–164.
49.
Eberhart, RC; Kennedy, J. Optimisation de l'essaim de particules. Dans Actes de la conférence internationale IEEE de 1995 sur les neurones
Networks (ICNN), Perth, WA, Australie, 27 novembre-1er décembre 1995 ; pp. 1942–1948.
50.
Kirkpatrick, S.; Gelatt, CD; Vecchi, MP Optimisation par recuit simulé. Sciences 1983, 220, 671–680. [Référence croisée]
51.
Mirjalili, S. ; Mirjalili, SM; Lewis, A. Optimiseur de loup gris. Adv. Ing. Logiciel 2014, 69, 46–61. [Référence croisée]
52.
Salleh, MNM ; Hussain, K.; Cheng, S.; Shi, Y.; Muhammad, A.; Ullah, G.; Naseem, R. Mesure de l'exploration et de l'exploitation dans les algorithmes métaheuristiques basés
sur les essaims : une analyse empirique. Dans les progrès des systèmes intelligents et de l'informatique ; Ghazali, R., Deris, MM, Nawi, NM, Abawajy, JH, Eds. ; Springer
International Publishing : Berlin/Heidelberg, Allemagne, 2018 ; p. 24–32.
53.
Boussaid, I. ; Lepagnot, J.; Siarry, P. Une enquête sur les métaheuristiques d'optimisation. Inf. Sci. 2013, 237, 82-117. [Référence croisée]
54.
Thangaraj, R. ; Pantalon, M. ; Abraham, A.; Bouvry, P. Optimisation des essaims de particules : perspectives d'hybridation et expériences
illustrations. Appl. Math. Calcul. 2011, 217, 5208-5226. [Référence croisée]
55.
Abdulraqeb, ARA ; Al-Haidri, WA ; Sushkova, LT Un nouvel algorithme de segmentation pour les images IRM de tumeurs cérébrales. Dans Actes du Symposium de l'Oural
2018 sur le génie biomédical, la radioélectronique et les technologies de l'information (USBEREIT), Ekaterinbourg, Russie, 7-8 mai 2018 ; p. 1–4.
56.
Dhanve, V.; Kumar, M. Détection d'une tumeur cérébrale à l'aide d'une segmentation k-means basée sur un algorithme d'étiquetage d'objet. Dans Actes de la Conférence
internationale IEEE 2017 sur l'ingénierie de l'alimentation, du contrôle, des signaux et de l'instrumentation (ICPCSI), Chennai, Inde, 21-22 septembre 2017 ; pp. 944–951.
57.
Girault, JM ; Kouamé, D. ; Ouahabi, A. Formulation analytique de la dimension fractale des signaux stochastiques filtrés. Signal
Traitement 2010, 90, 2690–2697. [Référence croisée]
58.
Ferroukhi, M. ; Ouahabi, A.; Attari, M.; Habchi, Y.; Taleb–Ahmed, A. Codage vidéo médical basé sur des ondelettes de 2e génération : évaluation des performances. Électronique
2019, 8, 88. [CrossRef]
59.
Mahdaoui, AE ; Ouahabi, A.; Moulay, MS Débruitage d'image à l'aide d'une approche de détection compressive basée sur la régularisation
Contraintes. Capteurs 2022, 22, 2199. [CrossRef]
Machine Translated by Google
60.
Haneche, H. ; Ouahabi, A.; Boudraa, B. Nouvelle conception de système de communication mobile pour les environnements Rayleigh basée sur le codage de source de
détection compressé. IET Commun. 2019, 13, 2375–2385. [Référence croisée]
61.
Haneche, H. ; Boudraa, B.; Ouahabi, A. Une nouvelle façon d'améliorer le signal vocal basé sur la détection compressée. Mesure 2020,
151, 107–117. [Référence croisée]
62.
Haneche, H. ; Ouahabi, A.; Boudraa, B. Schéma de codage de détection et de parole compressé pour les communications mobiles. Circuits Syst.
Processus de signalisation. 2021, 40, 5106–5126. [Référence croisée]
63.
Kim, J. ; Wang, Q.; Zhang, S.; Yoon, S. Imagerie ultrasonore à super résolution basée sur la détection compressée pour une acquisition plus rapide et des images de haute
qualité. IEEE Trans. Biomédical. Ing. 2021, 68, 3317–3326. [Référence croisée]
64.
Ouahabi, A. Revue du débruitage en ondelettes en imagerie médicale. Dans Actes du 8e Atelier international 2013 sur les systèmes, le traitement du signal et leurs
applications (WoSSPA), Alger, Algérie, 12-15 mai 2013 ; p. 19–26.
65.
Sidahmed, S. ; Messali, Z.; Ouahabi, A.; Trépout, S.; Messaoudi, C.; Marco, S. Méthodes de débruitage non paramétriques basées sur la transformée de contourlet avec
localisation de fréquence précise : application aux images de microscopie électronique à faible temps d'exposition.
Entropie 2015, 17, 3461–3478.
66.
Ouahabi, A. Analyse multirésolution du signal et de l'image, 1ère éd. ; ISTE–Wiley : Londres, Royaume-Uni, 2012.
67.
Demirhan, A. ; Torü, M.; Güler, I. Segmentation de la tumeur et de l'œdème ainsi que des tissus sains du cerveau à l'aide d'ondelettes
et les réseaux de neurones. IEEE J. Biomed. Informer sur la santé. 2015, 19, 1451–1458. [Référence croisée]
68.
Smith, SM Extraction cérébrale automatisée rapide et robuste. Hum. Cartographie du cerveau. 2002, 17, 143–155. [Référence croisée]
69.
Iglesias, JE ; Liu, CY; Thompson, PM ; Tu, Z. Extraction cérébrale robuste à travers des ensembles de données et comparaison avec des données accessibles au
public méthodes. IEEE Trans. Méd. Imagerie 2011, 30, 1617–1634. [Référence croisée]
70.
Ashburner, J. ; Friston, KJ Segmentation unifiée. Neuroimage 2005, 26, 839–851. [Référence croisée]
71.
Vishnuvarthanan, A.; Rajasekaran, député ; Vishnuvarthanan, G.; Zhang, Y.; Thiyagarajan, A. Une approche hybride automatisée utilisant le regroupement et la technique
d'optimisation inspirée de la nature pour améliorer la segmentation des tumeurs et des tissus dans les images cérébrales par résonance magnétique . Appl. Calcul doux.
2017, 57, 399–426. [Référence croisée]
72.
Akkus, A. ; Galimzianova, A.; Hoogi, A.; Rubin, DL; Erickson, BJ Apprentissage en profondeur pour la segmentation de l'IRM cérébrale : état de
l'art et orientations futures. J. Digit Imaging 2017, 30, 449–459. [Référence croisée]
73.
Cai, J. ; Pan, WD Sur des algorithmes d'estimation de mouvement basés sur des blocs rapides et précis utilisant l'optimisation par essaim de particules. Inf.
Sci. 2012, 197, 53–64. [Référence croisée]
74.
Goshtasby, A. Enregistrement d'images : principes, outils et méthodes ; Springer Science & Business Media : Berlin/Heidelberg, Allemagne, 2012.
75.
Centre d'imagerie de Kouba, Algérie Base de données. Disponible en ligne : https://figshare.com/articles/brain_tumor_dataset/1512427 (consulté le 24 mars 2022).
76.
Havaei, M.; Dutil, F.; Pal, C.; Larochelle, H.; Jodoin, PM Une approche de réseau neuronal convolutif pour la segmentation des tumeurs cérébrales.
Dans les lésions cérébrales : gliome, sclérose en plaques, accident vasculaire cérébral et lésions cérébrales traumatiques ; Springer : Cham, Suisse, 2016 ; p. 195–208.
77.
Pereira, S.; Pinto, A.; Alves, V.; Silva, CA Deep Convolutional Neural Networks pour la segmentation des gliomes en IRM multiséquence. Dans les lésions cérébrales :
gliome, sclérose en plaques, accident vasculaire cérébral et lésions cérébrales traumatiques ; Springer : Cham, Suisse, 2016 ; p. 131–143.
78.
Tseng, KL ; Lin, YL; Hsu, W.; Huang, CY Apprentissage de séquences articulaires et convolution intermodalité pour la segmentation biomédicale 3D. Dans Actes de la
conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR), Honolulu, HI, États-Unis, 21-26 juillet 2017.
79.
Iqbal, S. ; Ghani, MU ; Saba, T.; Rehman, A. Segmentation des tumeurs cérébrales en IRM multispectrale à l'aide de neurones
convolutifs Réseaux (CNN). Microsc. Rés. Technol. 2018, 81, 419–427. [Référence croisée]
80.
Liu, D. ; Zhang, H.; Zhao, M.; Yu, X.; Yao, S.; Zhou, W. Segmentation des tumeurs cérébrales basée sur des réseaux d'affinage à convolution dilatée.
Dans Actes de la 16e Conférence internationale de l'IEEE sur la recherche, la gestion et l'application en génie logiciel, Kunming, Chine, 13-15 juin 2018 ; p. 113–120.
81.
Hu, K. ; Deng, SH Segmentation des tumeurs cérébrales à l'aide de réseaux de neurones convolutifs en cascade multiples et d'un traitement aléatoire
conditionnel Champ. Accès IEEE 2019, 7, 2615–2629. [Référence croisée]
82.
Li, HC; Li, A.; Wang, MH Une nouvelle méthode de segmentation des tumeurs cérébrales de bout en bout utilisant des réseaux entièrement convolutifs améliorés . Calcul. Biol.
Méd. 2019, 108, 150–160. [Référence croisée]
83.
Elmezain, M. ; Mahmoud, A.; Mosa, DT ; Said, W. Segmentation des tumeurs cérébrales à l'aide d'un réseau de capsules profondes et de champs aléatoires
conditionnels dynamiques latents. J. Imaging 2022, 8, 190. [CrossRef]
84.
Adjabi, I. ; Ouahabi, A.; Benzaoui, A.; Taleb-Ahmed, A. Passé, présent et futur de la reconnaissance faciale : un examen. Électronique 2020, 9, 1188.
[Référence croisée]
85.
Adjabi, I. ; Ouahabi, A.; Benzaoui, A.; Jacques, S. Images statistiques multi-blocs couleur-binarisées pour la reconnaissance faciale à échantillon
unique. Capteurs 2021, 21, 728. [CrossRef] [Pub Med]
86.
El Morabit, S.; Rivenq, A.; Zighem, MOI ; Hadid, A.; Ouahabi, A.; Taleb-Ahmed, A. Estimation automatique de la douleur à partir des expressions faciales : une analyse
comparative à l'aide d'architectures CNN standard. Électronique 2021, 10, 1926. [CrossRef]
87.
Khaldi, Y. ; Benzaoui, A.; Ouahabi, A.; Jacques, S.; Taleb–Ahmed, A. Reconnaissance auditive basée sur un apprentissage actif profond non
supervisé. IEEE Sens. J. 2021, 21, 20704–20713. [Référence croisée]
88.
Arbaoui, A. ; Ouahabi, A.; Jacques, S.; Hamiane, M. Détection et surveillance des fissures dans le béton à l'aide d'une analyse multirésolution basée sur l'apprentissage
en profondeur. Électronique 2021, 10, 1772. [CrossRef]