Vous êtes sur la page 1sur 30

sensors

Article

Reconnaissance automatique des plaques d'immatriculation


pour
Environnements à ressources limitées
Heshan Padmasiri 1, Jithmi Shashirangana 1 , Dulani Meedeniya 1 , Omer Rana 2 et Charith Perera 2, *
Droits d'auteur: © 2022 par les auteurs. Licencié MDPI, Bâle, Suisse. Cet article est un article en libre accès distribué selon les termes et
conditions de la licence Creative Commons Attribution (CC BY) ( https://creativecommons.org/licenses/by/
4.0/).
Citation: Padmasiri, H.;
1
Département d'informatique et d'ingénierie, Université de Moratuwa, Moratuwa 10400, Sri Lanka ;
Shashirangana, J.; Meedeniya, D.;
heshanpadmasiri.16@cse.mrt.ac.lk (HP); aajithmishashirangana.16@cse.mrt.ac.lk (JS); dulanim@cse.mrt.ac.lk (DM)
Rana, O.; Perera, C. Automatisé 2 École d'informatique et d'informatique, Université de Cardiff, Cardiff CF10 3AT, Royaume-Uni ; ranaof@cardiff.ac.uk *
Reconnaissance de plaque
d'immatriculation pour Correspondance : pererac@cardiff.ac.uk
Environnements à ressources limitées.
Capteurs 2022 , 22 , 1434. Abstrait: L'incorporation de techniques d'apprentissage en profondeur dans les systèmes embarqués a
https://doi.org/10.3390/s22041434 considérablement amélioré les capacités de l'informatique de pointe. Cependant, la plupart de ces solutions
s'appuient sur du matériel haut de gamme et nécessitent souvent une capacité de traitement élevée, ce qui
académiques : Raffaele Bruno, Leopoldo
ne peut être atteint avec l'edge computing à ressources limitées. Cette étude présente une nouvelle approche
Angrisani, Nikos Fotiou et Ismail Butun
et une preuve de concept pour un système de reconnaissance de plaque d'immatriculation automatisé
Reçu : 26 décembre 2021 efficace sur le plan matériel pour un environnement contraint avec des ressources limitées. La solution
Accepté : 11 février 2022 proposée est purement mise en œuvre pour les appareils périphériques à faibles ressources et fonctionne
Publié: 13 février 2022 bien pour les changements d'éclairage extrêmes tels que le jour et la nuit. La généralisabilité des modèles
proposés a été obtenue à l'aide d'un nouvel ensemble de réseaux de neurones pour différentes configurations
de l'éditeur : MDPI reste neutre en ce qui matérielles basées sur les capacités de calcul et le faible coût. La précision, l'efficacité énergétique, la
concerne les revendications communication et la latence de calcul des modèles proposés sont validées à l'aide de différents ensembles
juridictionnelles dans les cartes publiées de données de plaques d'immatriculation de jour comme de nuit et en temps réel. Pendant ce temps, les
et les affiliations institutionnelles. résultats obtenus à partir de l'étude proposée ont également montré des performances compétitives par
rapport aux solutions matérielles de pointe de niveau serveur.

1
. Introduction
L'émergence de l'edge computing a dévoilé une prolifération exceptionnelle d'applications gourmandes en
ressources informatiques pour les villes intelligentes [ 1 , 2 ] et les maisons intelligentes [ 3 ] pour différents domaines
tels que la sécurité [ 4 ], le stationnement en ville [ 5 ] et la gestion du trafic [ 6 ]. La plupart de ces systèmes modernes
impliquent des capacités allant au-delà de l'informatique traditionnelle en intégrant l'intelligence de pointe pour
permettre des solutions d'auto-apprentissage, notamment l'apprentissage automatique et l'apprentissage en
profondeur [ 7 - 9 ]. En règle générale, les solutions basées sur la périphérie ont tendance à être fiables et efficaces en
raison des inclinations associées à la prise de décision sur l'appareil et au traitement des données. Cependant, l'edge
computing hérite d'un nouvel ensemble de défis en termes de gestion des ressources, d'accumulation de données et de
consommation d'énergie [ 10 , 11 ]. Contrairement aux réseaux traditionnels de l'Internet des objets (IoT), l'informatique
de périphérie minimise la charge du réseau, réduisant ainsi la latence du système. Par exemple, les applications en temps
réel telles que l'identification des plaques d'immatriculation des véhicules dans les villes intelligentes ont généralement
des valeurs de latence plus élevées [ 9 ]. Cependant, avec la technologie informatique de pointe, ceux-ci peuvent être
traités à la périphérie sans envoyer les données vers un cloud central [ 10 , 11 ]. Par conséquent, il est de plus en plus
important de rapprocher les calculs de base en temps opportun du système physique, car cela réduit de plusieurs fois la
latence du système global.
Cet article propose une solution de reconnaissance automatique des plaques d'immatriculation (RAPI) pour
l'informatique de pointe avec des environnements à ressources limitées, qui peut conduire à soutenir les processus de
développement et de gestion des villes intelligentes. Bien que l'ALPR soit un domaine bien établi dans le domaine du
traitement d'images, la recherche sur l'ALPR est toujours difficile avec les contraintes associées dans l'environnement
telles que les conditions météorologiques variables, les variations de plaques d'une région à l'autre, le mouvement des
véhicules, les caractères déformés, les plaques sales, l'ombre et réflexion [ 9 ]. De plus, la plupart des solutions RAPI
existantes sont limitées à une exécution dans du matériel de niveau serveur
Capteurs 2022 , 22 , 1434 2de30

Mots clés: informatique de limitées ; efficacité énergétique; faible coût; vision nocturne
pointe ; appareils à ressources

Capteurs 2022 , 22 , 1434. https://doi.org/10.3390/s22041434 https://www.mdpi.com/journal/sensors


avec des ressources presque illimitées et limitées aux performances de jour. Ainsi, actuellement,
on accorde moins d'attention à la construction de systèmes qui fonctionnent efficacement dans
des environnements contraints, ciblant un faible coût, une efficacité énergétique, des besoins en
puissance de calcul moindres, des déploiements à distance et un travail en vision nocturne. Les
développements technologiques des techniques d'apprentissage en profondeur peuvent être
améliorés pour être utilisés dans des dispositifs de pointe afin de fournir une solution efficace pour
la RAPI dans des environnements à ressources limitées.
Nous présentons une approche et un prototype de preuve de concept pour une RAPI efficace
en matériel la nuit, tout en respectant plusieurs contraintes en termes d'efficacité énergétique,
d'utilisation des ressources, de communication à faible coût et à faible latence et de calcul comme
nouvelles contributions. Le système RAPI proposé peut fonctionner la nuit sans aucun éclairage
supplémentaire visible et ne nécessite aucune connexion Internet pour fonctionner. Par
conséquent, le système est entièrement implémentable sur des appareils de périphérie à faible
consommation tels que Raspberry Pi 3b+ et fonctionne entièrement avec une batterie qui dure
longtemps grâce aux stratégies d'économie d'énergie mises en œuvre dans la solution. Par
conséquent, le système reconnaît les plaques d'immatriculation en temps réel de jour comme de
nuit, et peut être déployé dans les zones rurales ou forestières, où il n'y a pas de connectivité
Internet stable ou de réseau électrique direct, ce qui est l'une des principales contributions de
cette étude.
Notre méthodologie utilise des stratégies de recherche d'architecture neuronale (NAS)
basées sur l'apprentissage en profondeur pour découvrir un nouvel ensemble de réseaux de
neurones efficaces sur le plan matériel pour la gestion autonome du processus de détection et de
reconnaissance des plaques d'immatriculation pour les appareils périphériques à faibles
ressources. La recherche d'architecture différentiable proposée est basée sur FB-Net (Facebook-
BerkeleyNets) [ 12 ] et PC-DARTS (Partially Connected Differentiable architecture search) [ 13 ]. Ces
algorithmes recherchent des architectures efficaces sans compromettre les performances, en
échantillonnant une petite partie d'un super-réseau pour réduire la redondance dans l'exploration
de l'espace réseau. Ainsi, par rapport aux approches générales telles que l'apprentissage par
renforcement et les algorithmes évolutionnaires, la recherche d'architecture différentiable
proposée dans cette étude permet une réduction significative de la puissance de calcul requise
pour rechercher des réseaux de neurones.
Bien que les réseaux de neurones pour la reconnaissance des plaques d'immatriculation
soient un domaine bien exploré pour les images diurnes avec la spécification matérielle de niveau
serveur, nous fournissons une solution pour ALPR avec des ressources limitées dans des
environnements contraints. De plus, par rapport aux études existantes comme indiqué dans le
tableau 1 , à notre connaissance, nous apportons une nouvelle contribution à la conception et au
développement de modèles pour détecter et reconnaître les plaques d'immatriculation à l'aide
d'appareils périphériques à faibles ressources avec différentes configurations. Ainsi, la mise en
œuvre des techniques d'ingénierie de données basées sur le NAS dans les applications IoT pour
des solutions RAPI efficaces sur le plan matériel est l'une des contributions scientifiques de cette
étude. Par conséquent, l'objectif principal de cette étude était de concevoir et de développer des
modèles basés sur des réseaux de neurones qui soient compétitifs avec des modèles de pointe tels
que RPNet (Roadside Parking Net) [ 14 ] qui sont conçus pour du matériel de niveau serveur ,
consomme plus de mémoire et coûte cher en termes de calcul à exécuter sur les appareils
périphériques.
Cependant, il est difficile d'entraîner les réseaux de neurones profonds découverts à
reconnaître les plaques d'immatriculation en raison de l'absence d'un ensemble de données
volumineux, annoté et diversifié. Pour contourner ce problème, nous utilisons un processus de
Capteurs 2022 , 22 , 1434 3de30

génération de données synthétiques basé sur des techniques de traduction d'image à image pour
convertir les images RVB (rouge-vert-bleu) diurnes en images infrarouges thermiques (TIR). Le
processus de synthèse des données présenté est inspiré des travaux connexes qui ont montré des
résultats prometteurs dans la reconnaissance des plaques d'immatriculation, comme indiqué dans
le tableau 2 . Ainsi, nous proposons des approches de génération de données synthétiques pour
atténuer le problème de la rareté d'un ensemble de données de plaques d'immatriculation
nocturne vaste et diversifié pour le processus d'apprentissage des modèles d'apprentissage en
profondeur. En conséquence, cette étude utilise 200 000 images de plaques d'immatriculation
diurnes de l'ensemble de données CCPD Chinese City Parking Data set (CCPD) [ 14 ], et les images
nocturnes correspondantes générées synthétiquement. De plus, nous utilisons 100 images
nocturnes capturées dans un environnement réel montrant la possibilité d'utiliser l'approche
proposée pour différents autres ensembles de données de plaques d'immatriculation.
Tableau 1. Résumé des études de reconnaissance LP connexes sur les plates-formes de périphérie.
Étude Description Techniques Type Performance
connexe (D/N/S)

[ 15 ] Utilisez une carte embarquée NVIDIA Jetson TX1 avec AlexNet (CNN) D CA = 95,25 %
GPU. Fournit une reconnaissance LP sans ligne de
détection. Pas résistant aux plaques cassées ou
réfléchissantes.
[ 16 ] Reconnaissance LP en temps réel sur une plate-forme SVM D F = 86 %
DSP intégrée, Fonctionnement dans des conditions
diurnes avec suffisamment de lumière du jour ou de
lumière artificielle des lampadaires, Haute
performance avec une faible résolution d'image.

[ 17 ] Reconnaissance LP en temps réel sur une plate-forme CNN D, N, S CA = 94%


mobile alimentée par GPU en simplifiant un réseau
neuronal formé développé pour un environnement de
bureau/serveur.
[ 18 ] Implémenté dans un Raspberry Pi3 avec un module CNN D, S CA = 97 %
caméra Pi NoIR v2. Robuste aux variations d'angle,
d'éclairage et de bruit, exempt de segmentation des
caractères pour réduire les erreurs de segmentation
erronée des caractères.
[ 19 ] Un modèle RAPI portable formé sur un ordinateur de CNN D CA = 77,2 %
bureau et exporté vers un appareil mobile Android.

Tableau 2. Comparaison des études avec images synthétiques et nocturnes.


Étude NT Syn. Méthode synthétisée Performance
[ 20 ] X Basé sur le GAN CA = 84,57 %

[ 21 ] X Basé sur le GAN CA = 91,5 %

[ 22 ] X Augmentation (rotation, taille et bruit) CA = 62,47 %

[ 23 ] X Augmentation, superposition, basée sur le PA = 99,32 %


GAN
[ 24 ] X Conditions d'éclairage et de pose R = 93 %

[ 25 ] X Modifications aléatoires (couleur, flou, bruit) CA = 99,98 %

[ 26 ] X X Modifications aléatoires (couleur, profondeur) CA = 85,3 %


[ 27 ] X X Changements d'intensité FN = 1,5 %
[ 17 ] X X Conditions d'éclairage et de pose CA = 94%
[ 28 ] X CA = 96 %

[ 29 ] X CA = 93%

[ 14 ] X PA = 95,5 %

[ 30 ] X F = 98,32 %

[ 31 ] X CA = 95,7 %
Capteurs 2022 , 22 , 1434 4de30

[ 32 ] X CA = 93,99 %

[ 33 ] X AM = 92,6 %

[ 34 ] X Matin = 86 %

[ 35 ] X AM = 96,2 %

Le prototype de notre solution simule une étude de cas d'un problème de détection de
véhicule de braconnier d'animaux. À l'heure actuelle, la faune est confrontée à un problème vaste
et préjudiciable qui a causé la mort d'un nombre incalculable d'animaux sauvages. La plupart des
approches existantes pour minimiser la chasse illégale d'animaux sauvages reposent sur une
surveillance manuelle à partir des flux de caméras. Le système de détection de véhicules
braconniers utilise des techniques modernes de traitement d'image et d'apprentissage en
profondeur pour détecter les véhicules braconniers tout en suivant leurs numéros de plaque
d'immatriculation et en envoyant les détails du véhicule détecté aux parties autorisées par SMS. Il
a été remarqué que les braconniers arrivent surtout la nuit puisque le système de détection des
braconniers est conçu pour fonctionner aussi la nuit. L'environnement de l'étude de cas contient
plusieurs contraintes. Ce système repose uniquement sur l'alimentation par batterie, la
consommation d'énergie doit donc être minimisée. Puisqu'il n'y a pas de connectivité Internet dans
la nature, le SMS est la seule méthode de communication possible, où les images peuvent être
stockées pour du matériel de poursuite ultérieur. De plus, le système doit être déployé de manière
imperceptible pour les braconniers. Ainsi, la solution ALPR proposée prend en compte les
exigences suivantes.
• Le système s'exécute de manière autonome en temps réel sur une plate-forme périphérique
avec une mémoire et des capacités de calcul limitées.
• Le système est faisable, peu coûteux et économe en énergie pour être déployé dans les zones
sauvages ou éloignées, où il n'y a pas de connexion Internet fiable ou de réseau électrique.
• Le système fonctionne la nuit sans éclairage supplémentaire visible à l'œil nu.
De plus, la solution que nous présentons peut être utilisée pour développer des applications
basées sur la ville intelligente telles que l'identification des véhicules frauduleux et surmonter les
défis de sécurité avec de faibles ressources de manière rentable. Ainsi, prend en charge la
communication et le calcul économes en énergie et à faible latence. Par conséquent, la nouvelle
approche que nous avons proposée s'oriente vers la perspective future de l'informatique de
pointe.
Le reste de l'article est organisé comme suit. La section 2 passe en revue la littérature dans le
domaine des systèmes de reconnaissance automatique des plaques d'immatriculation dans les
plates-formes embarquées et le matériel haut de gamme de qualité serveur. L' aperçu de la
conception de la solution proposée est présenté à la section 3 . La section 4 analyse les résultats
et la section 5 discute des conclusions. La section 6 conclut l'étude.

2. Contexte et études connexes


2.1. Aperçu des approches de reconnaissance LP
Au fil du temps, de nombreuses études de recherche ont porté sur la reconnaissance
automatique des plaques d'immatriculation (RAPI). Pourtant, la plupart de ces solutions sont
conçues pour être exécutées sur du matériel de niveau serveur avec des ressources suffisantes.
Aux premiers stades du domaine RAPI, la plupart des études ont appliqué des techniques de vision
par ordinateur traditionnelles bien définies telles que la détection des bords [ 36 - 39 ], les
algorithmes génétiques [ 40 ] et la logique floue [ 33 ] pour la détection et la reconnaissance des
plaques d'immatriculation. Bien que ces solutions soient plus rapides, simples et légères, elles
manquaient toujours de meilleures performances lorsque des scénarios complexes étaient
impliqués. Ces techniques étaient souvent sensibles au bruit, aux variations d'éclairement et
étaient le plus souvent incapables de placer les plaques d'immatriculation lorsqu'elles sont
inclinées ou déformées.
Cependant, avec le développement des techniques d'ingénierie des données, les chercheurs
ont envisagé des solutions basées sur l'apprentissage automatique et l'apprentissage en
Capteurs 2022 , 22 , 1434 5de30

profondeur pour l'ALPR [ 30 , 41 - 43 ] dans le but d'atteindre des performances plus élevées que
les solutions traditionnelles dominantes. Cependant, ces solutions consomment plus de ressources
et de puissance de traitement que les méthodes classiques. En apprentissage profond, le problème
de la reconnaissance automatique des plaques d'immatriculation était considéré comme un
problème général de détection d'objets et de reconnaissance de caractères. Par conséquent,
certains chercheurs [ 44 , 45 ] ont utilisé des modèles génériques de détection d'objets tels que
YOLO [ 46 ] pour détecter la plaque d'immatriculation. Cependant, ces méthodes étaient plus
robustes au bruit, aux illuminations et aux inclinaisons des plaques, éliminant ainsi la plupart des
limitations des méthodes classiques.

2.2. Reconnaissance LP en environnement contraint


Les applications de vision par ordinateur sont souvent développées pour remplacer l'humain
dans des situations difficiles, dangereuses ou fastidieuses pour gérer de nombreuses applications.
Ces environnements difficiles soulèvent souvent de nombreuses conditions difficiles qui sont
difficiles à aborder de manière naïve. Parmi eux, la vision nocturne est un domaine central dans la
plupart des applications critiques pour la sécurité telles que la surveillance, la sécurité automobile
[ 47 ], les systèmes de défense militaire [ 48 ]. Traditionnellement, il existe des moyens courants
de capturer des images nocturnes, tels que des caméras à faible niveau de luminosité (image
intensifiée) et des caméras infrarouges thermiques (TIR). Néanmoins, l'approche largement
utilisée dans la plupart des applications modernes est l'imagerie thermique. Ces images
thermiques sont sensibles à la région infrarouge du spectre électromagnétique et utilisent les
variations des niveaux de température des objets et de l'arrière-plan pour distinguer les objets
dans une image TIR. Le principal avantage de l'utilisation d'images TIR est qu'elles résistent à toutes
les variations d'éclairage et peuvent également être utilisées pour capturer des images la nuit dans
l'obscurité totale. Ils produisent également des images de qualité avec peu ou pas de distorsions
dans des conditions météorologiques difficiles. Cependant, les caméras thermiques sont assez
coûteuses et la rareté des ensembles de données TIR limite la plupart de ses applications. Par
conséquent, une solution pratique pour atténuer ce problème consiste à convertir les ensembles
de données d'images RVB (rouge-vert-bleu) disponibles en images TIR.
Une étude systématique de la conversion des images RVB en TIR a été rapportée par Zhang
et al. [ 49 ]. Un grand ensemble de données synthétiques générées par ce travail a fourni des
résultats plus précis qu'un petit ensemble de données avec de vraies images TIR dans le domaine
du suivi d'objets. Ils ont montré qu'une combinaison d'images TIR réelles et des données
synthétiques générées donne les meilleurs résultats lors du suivi d'objets. Ils ont utilisé
principalement deux méthodes de traduction d'image à image appelées pix2pix [ 50 ] et cycleGAN
[ 51 ]. De plus, certaines applications utilisent des filtres tels que l'échelle de gris pour transformer
les images diurnes en images de vision nocturne. Dans une autre étude connexe, Ismail et al. [ 52
] ont utilisé une méthode efficace de détection d'objets appelée classificateur Cascade pour
fonctionner la nuit et par temps pluvieux. Ils ont amélioré les images en utilisant l'opération de
transformation haut de forme. Un autre nouvel algorithme basé sur les fonctionnalités a été
présenté dans [ 53 ] pour localiser les plaques d'immatriculation même dans des situations
complexes telles que différentes conditions d'éclairage et météorologiques. Ils ont utilisé une
approche basée sur les bords basée sur les bords verticaux et les opérations morphologiques. Cette
étude a montré une précision de 96,5% et a créé une base de données avec 269 images dans des
environnements difficiles. La détection de plaques d'immatriculation à base d'illuminateur IR à
intensité multiple dans la nuit a été présentée dans [ 54 ]. Bien que la lumière infrarouge permette
de détecter les plaques d'immatriculation sous différents éclairages, elle ne fonctionne pas bien
lorsque la distance par rapport à la cible change. Les auteurs ont résolu ce problème en utilisant
un illuminateur IR à intensité multiple qui détecte les plaques d'immatriculation à différents
niveaux d'éclairage et de distances et a montré une précision de 98 %.
De plus, à l'exception des éclairages changeants, certaines conditions météorologiques
dangereuses telles que la pluie, le brouillard, la neige ont toujours rendu complexe le problème de
la reconnaissance des plaques d'immatriculation. Cependant, peu de modèles RAPI sont robustes
à ces situations difficiles dans des environnements extérieurs non contrôlés. Azam et Islam [ 55 ]
ont proposé un tel algorithme RAPI pour traiter les plaques d'immatriculation par temps de pluie
Capteurs 2022 , 22 , 1434 6de30

et de brouillard en supprimant les courants de pluie et le brouillard des images capturées. En


conséquence, la complexité de la tâche de détection de plaque d'immatriculation est fortement
influencée par les différentes conditions environnementales. Bien que de nombreuses études aient
porté sur la détection et la reconnaissance des plaques d'immatriculation, seules quelques-unes
peuvent être appliquées à une situation complexe non contrôlée telle que l'éclairage nocturne et
les conditions météorologiques extrêmes [ 9 ] . D'un autre point de vue, même si la nature rétro-
réfléchissante des plaques d'immatriculation les rend lisibles même la nuit, il est néanmoins
difficile de localiser avec précision une plaque d'immatriculation la nuit, pour des raisons telles que
la quantité insuffisante de lumière pour acquérir les détails . L'utilisation d'un illuminateur peut
être utilisée pour résoudre ce problème dans une certaine mesure. De plus, l'émission de trop de
lumière par les phares entraîne également des difficultés à lire les plaques d'immatriculation, car
la plaque réfléchit plus de lumière et la luminosité qui en résulte rend difficile l'extraction des
données sur la plaque d'immatriculation. Ainsi, les applications associées aux techniques de vision
par ordinateur sont confrontées à des défis dans des situations telles que les conditions
météorologiques changeantes, les problèmes de caméra et d'équipement, la détection d'objets en
mouvement, la demande de ressources et d'énergie excessives.

2.3. RAPI à l'aide d'appareils Edge


L'informatique de périphérie permet de décharger les tâches de calcul à effectuer sur les
appareils de périphérie, contrairement aux approches traditionnelles de détection sociale [ 56 ].
Avec la croissance des données produites sur les appareils de périphérie, il devient de plus en plus
difficile d'effectuer tous les calculs nécessaires dans le cloud avec une latence acceptable. Les
supports informatiques Edge résolvent ce problème en augmentant simplement les capacités de
calcul des périphériques Edge, réduisant ainsi le coût de communication et la latence des
applications. De plus, il est devenu possible en raison de l'augmentation des performances de
calcul dans les dispositifs de pointe sans compromettre de manière significative l'efficacité
énergétique [ 57 ].
Une autre raison d'augmenter les capacités de calcul dans les périphériques de périphérie
est le développement d'accélérateurs matériels pour les périphériques de périphérie. Ce sont des
composants matériels dédiés tels que les unités de traitement graphique (GPU) qui améliorent
les performances graphiques de l'ordinateur et les unités de traitement tenseur (TPU) qui
accélèrent le circuit intégré spécifique à l'application (ASIC) et sont utilisées pour améliorer les
performances dans certaines parties des programmes. réduire le temps d'exécution des réseaux
de neurones profonds. De tels accélérateurs ont été utilisés dans les grands serveurs dans
l'environnement cloud pendant une période relativement longue. Cependant, une grande
efficacité énergétique peut être obtenue sur les appareils de pointe en appliquant ces
accélérateurs, car cela produit une forte augmentation du taux de calcul pour chaque watt
d'énergie consommée.
Le traitement des données au sein des appareils périphériques, sans déplacer les charges de
calcul pour les services cloud, présente des avantages évidents. Par exemple, Hochstetler et al. [
58 ] ont montré qu'un réseau de neurones peut être accéléré par un facteur de 1137 % en ajoutant
un Intel ® Movidius TM Neural Compute Stick (NCS), qui est un accélérateur qui tire un maximum de
2,5 W de puissance vers un Raspberry Pi 3B qui a une puissance absorbée maximale de 6,7 W
d'exécution de MobileNet [ 59 ]. C'est une augmentation importante des performances par rapport
à une augmentation de puissance de moins de 40 %. De tels accélérateurs permettent l'exécution
de calculs qui nécessiteraient autrement des serveurs cloud sur des appareils périphériques. De
plus, Yi et al. [ 60 ] et Ha et al. [ 61 ] ont démontré les améliorations du temps de réponse en
déplaçant les calculs vers les dispositifs périphériques. De plus, en minimisant la quantité de
données à transmettre, Chun et al. [ 62 ] ont montré que jusqu'à 40 % d'amélioration de la
consommation d'énergie peut être obtenue en passant à l'informatique de pointe.
Dans une étude connexe sur la reconnaissance des plaques d'immatriculation sur les
systèmes embarqués, Lee et al. [ 15 ] ont proposé un système RAPI pour détecter les plaques
d'immatriculation coréennes sur une carte embarquée NVIDIA Jetson TX1. Ils ont utilisé une
architecture simple de réseau neuronal convolutif (CNN) appelée "AlexNet" et revendiqué une
précision de reconnaissance élevée de 95,24 %, mais sur un petit ensemble de données avec 63
Capteurs 2022 , 22 , 1434 7de30

images d'entrée. Une autre étude de Luo et al. [ 63 ] ont conçu un système RAPI intégré à faible
coût, à grande vitesse et en temps réel basé sur un processeur de signal numérique (DSP). Dans
cette solution, ils ont regroupé une variété de modules périphériques pour répondre à plusieurs
exigences telles que la mémoire, l'acquisition d'images d'entrée et la mise en réseau, etc.
Néanmoins, la solution proposée est censée consommer moins d'énergie, être rapide et
suffisamment précise pour effectuer des opérations en temps réel reconnaissance de plaque
d'immatriculation dans des applications pratiques. Rezvi et al. [ 17 ] ont proposé une autre solution
pour détecter les plaques d'immatriculation italiennes sur une plate-forme mobile en simplifiant
les architectures de deux CNN pré-formés différents pour la détection et la reconnaissance des
plaques d'immatriculation. Cependant, ce flux de simplification introduit un compromis entre la
précision et le temps d'exécution. Ainsi, une diminution de la précision est attendue concernant le
processus de simplification du réseau. De plus, ils ont examiné le système sur deux environnements
GPU différents, tels qu'un poste de travail de bureau équipé d'une carte GPU Quadro K2200 et
d'une puissante carte embarquée Jetson TX1. Dans les deux environnements, les réseaux simplifiés
présentent un temps d'exécution inférieur à celui des réseaux d'origine. De plus, en convertissant
les paramètres entraînables de double en flottant, ils ont réduit de moitié la consommation de
mémoire des classificateurs de plaques et de caractères. Cependant, cela a effectivement réduit la
précision des architectures simplifiées par rapport aux réseaux d'origine.
En conséquence, de nombreuses solutions pour la détection et la reconnaissance des plaques
d'immatriculation ont été largement discutées dans la littérature [ 9 ]. La plupart des solutions
dominantes dans le domaine de la RAPI ont adressé des environnements sans restriction tels qu'un
ordinateur de bureau avec des processeurs puissants. Ces solutions sont conçues pour atteindre
une précision maximale tout en supposant la disponibilité de ressources de calcul suffisantes.
Cependant, cette hypothèse n'est pas valable pour les périphériques de périphérie tels que
Raspberry Pi. De tels environnements exigent souvent un petit modèle avec une faible complexité
et des images d'entrée à faible résolution. Une explication probable de la faible popularité des
solutions de détection et de reconnaissance de plaques d'immatriculation à la périphérie est la
difficulté de gérer la complexité des calculs dans les ressources limitées des dispositifs de
périphérie. De plus, ces solutions ALPR doivent être efficaces et efficientes pour satisfaire les
contraintes temps réel d'une plateforme embarquée.
Le tableau 1 présente un résumé des solutions basées sur les bords existantes sélectionnées
pour la reconnaissance des plaques d'immatriculation avec des données diurnes (D), nocturnes (N)
et synthétisées (S). La plupart des études connexes ont été mises en œuvre sur des paramètres
matériels modernes et peuvent ne pas s'exécuter sur des appareils périphériques avec des
ressources limitées. Ils ont été testés sur des machines puissantes avec des GPU puissants [ 15 , 17
, 25 , 26 ]. De plus, quelques études ont fourni des solutions pour les plateformes embarquées à
faibles ressources [ 18 ]. Bien que les précisions des modèles proposés ne surpassent pas les
modèles de niveau serveur existants tels que RPNet [ 14 ] et TE2E [ 64 ] qui nécessitent des GPU
puissants, notre objectif de cette étude est de montrer les résultats concurrents des modèles
proposés qui peuvent être exécuter sur des périphériques périphériques avec des ressources
limitées. Dans le même temps, les modèles de niveau intermédiaire et de niveau supérieur
présentés présentent des performances supérieures à la détection des plaques d'immatriculation
à l'aide de Yolo-V3 [ 31 , 65 ]. Cela montre que nos modèles sont compétitifs avec les solutions de
pointe existantes en termes de précision.
De plus, la plupart des études n'ont pris en compte que les images diurnes [ 15 , 16 ] et seules
quelques études ont pris en compte les données nocturnes et synthétisées [ 17 ]. Compte tenu des
défis et des limites des études existantes, nous présentons une famille de modèles basés sur NAS
conçus pour différents niveaux matériels d'appareils périphériques, de manière à ce que la
complexité des modèles proposés soit relativement faible par rapport aux modèles de niveau
serveur. Notre solution peut s'exécuter entièrement sur des appareils périphériques tels que
Raspberry Pi avec des contraintes de mémoire et d'alimentation limitées, affichant des résultats
concurrents comme indiqué dans la section 4.3 . De plus, notre solution a été testée pour les
données diurnes, synthétiques et nocturnes réelles, et a montré les meilleures précisions de 99,87
%, 94, % et 98,82 %, respectivement.
Capteurs 2022 , 22 , 1434 8de30

Dans notre étude précédente [ 57 ], nous avons discuté en détail de l'architecture des
modèles Lite LP-Net. En tant que phase suivante, cet article décrit principalement les
configurations de circuits matériels du point de vue du déploiement, le processus de génération
de données synthétiques, la mise en œuvre de super-réseau stochastique et l'optimisation à deux
niveaux dans la section 3, en tant que contribution scientifique .

2.4. RAPI avec images synthétiques et nocturnes


Plusieurs études ont utilisé l'image de synthèse pour la reconnaissance des plaques
d'immatriculation de jour comme de nuit avec des résultats prometteurs. Le tableau 2 montre les
études existantes qui ont utilisé des images nocturnes (NT) et synthétiques (Syn.). Les mesures de
performance comprennent la précision (AC), le faux négatif (FN), le rappel (R), la précision
moyenne (AP) et le score F (F). La plupart de ces études ont été mises en œuvre sur des paramètres
matériels de niveau serveur. L'étude de Wu et al. [ 20 ], ont obtenu une amélioration de la précision
en utilisant des données synthétiques et un réglage fin avec un nombre limité de données réelles.
Cependant, les résultats dépendent de nombreux facteurs tels que le type d'ensemble de données,
les méthodes d'optimisation et les hyperparamètres utilisés dans les modèles basés sur
l'apprentissage en profondeur. Dans [ 23 ], les modèles les plus performants ont un grand ratio de
données synthétisées en utilisant des techniques telles que CycleGAN, ce qui renforce l'utilité de
l'approche. Dans cette étude, notre méthode de synthèse de données est inspirée du Generative
Adversarial Network (GAN) et nous avons utilisé pix2pix basé sur le GAN [ 20 , 49 ], comme décrit
dans la section 3.2 . De plus, plusieurs études ont utilisé des images nocturnes dans la
reconnaissance LP. Compte tenu des valeurs de performance, on peut observer que les images
nocturnes synthétisées ont également montré de meilleurs résultats. Cependant, ils n'étaient pas
axés sur la mise en œuvre dans des contextes à faibles ressources, comme nous l'avons envisagé
dans cette étude.

3. Conception et méthodologie du système


3.1. Aspects de conception du système RAPI proposé
La conception du système proposé se compose de trois modules principaux : un module
d'entrée, un module de traitement principal et un module de communication, comme illustré à la
Figure 1 . Le module d'entrée capture les images du véhicule et les transmet au module de
traitement principal. Pendant ce temps, le module de traitement principal exécute les fonctions
essentielles du système, qui sont la détection et la reconnaissance des plaques d'immatriculation.
Lors de la récupération des résultats de l'étape de reconnaissance de plaque d'immatriculation, le
module de communication gère la communication de données entre le système RAPI et ses
opérateurs. La figure 2 montre la pile matérielle de notre solution. Les spécifications matérielles
correspondantes sont données dans la section 3.1.1 .

Figure 1. Aperçu du modèle proposé.


Capteurs 2022 , 22 , 1434 9de30

Figure 2. Pile matérielle de la solution proposée.

3.1.1. Spécifications de communication de données de détection mobile rentables


Raspberry Pi 3 Modèle B+
Nous avons utilisé le Raspberry Pi 3 modèle B+, qui est un ordinateur monocarte bien
équilibré comme plate-forme de pointe à faible coût par défaut, car il représente le juste milieu de
la plupart des solutions de produits. Il peut exécuter des modèles d'apprentissage en profondeur
tout en étant à la fois relativement peu coûteux et économe en énergie, avec 4 cœurs Cortex-A53
64 bits cadencés à 1,4 GHz et 1 Go de RAM LPDDR2 [66 ] . Bien que le modèle B d'origine prenne
en charge Bluetooth 4.1, B+ améliore également sa prise en charge de Bluetooth 4.2. Le modèle
B+ dispose également d'une antenne sans fil bi-bande, prenant en charge le Wi-Fi 2,4 GHz et 5 GHz
802.11 b/g/n/ac.

Raspberry Pi Zéro
Nous avons également utilisé Raspberry Pi Zero, qui se compose d'un processeur monocœur
de 1 GHz et de 512 Mo de RAM [ 66 ]. Bien que le modèle Raspberry Pi Zero ne soit pas aussi
puissant que le modèle Raspberry Pi 3, il est moins cher, économe en énergie et plus petit que le
Raspberry Pi 3. Ainsi, Raspberry Pi Zero est utilisé comme plate-forme de pointe pour les situations
où le Raspberry Pi 3 est cher ou consomme plus d'énergie. Cependant, avec des capacités de calcul
relativement limitées, cette unité ne peut pas exécuter de modèles complexes, tels que ceux du Pi
3. Ainsi, le module Raspberry Pi Zero représente les appareils de pointe bas de gamme dans nos
expériences.

Bâton de calcul neuronal Intel 2


L'unité Intel® Neural Compute Stick 2 (Intel® NCS2 ) exécute des modèles d'apprentissage en
profondeur de niveau serveur à la consommation d'énergie au niveau de la périphérie. Il se
compose d'une unité de traitement Intel Movidius Myriad X Vision et de 4 Go de RAM. Avec cet
accélérateur, un Raspberry Pi peut exécuter des modèles complexes comme un GPU ou un TPU
utilisé dans un environnement serveur. Par conséquent, le Raspberry Pi 3 équipé d'un Intel ® NCS2
représente les appareils de pointe haut de gamme dans nos expérimentations [ 67 ].

Module caméra Raspberry Pi


Le module caméra Raspberry Pi est destiné à capturer à la fois des images fixes et des vidéos
haute définition. Le module de caméra Raspberry Pi d'origine a une résolution effective de 5
mégapixels et prend en charge l'enregistrement vidéo à 1080@30fps, 720p@60fps et Vga@90fps.
Plus tard, en 2016, le module de caméra 8 mégapixels v2 est sorti et actuellement, la dernière
version a une résolution de haute qualité de 12 mégapixels. Les deux premières versions prenaient
en charge les versions lumière visible et infrarouge et cependant, il n'y a pas de version infrarouge
pour le dernier modèle 12 mégapixels. Cependant, cette caméra de haute qualité utilise un filtre
infrarouge Hoya CM500 et peut être retirée si nécessaire. Le module de caméra peut être connecté
à Raspberry Pi via le port Camera Serial Interface (CSI) et est accessible via les API Multi-Media
Abstraction Layer (MMAL) et Video4Linux (V4L) et d'autres logiciels tiers tels que Picamera Python
Library [ 68 ] .

Module GSM SIM 900a


Capteurs 2022 , 22 , 1434 10de30

Le module sim 900a du système mondial de communications mobiles (GSM) est un modem
GSM qui prend en charge les quadri-bandes GSM850, EGSM900, DCS1800 et PCS1900. Le
bouclier envoie et reçoit des données GPRS (General Packet Radio Service) via des protocoles tels
que TCP/IP et HTTP. Il permet également d'envoyer des SMS, MMS, GPRS et audio via UART en
utilisant les commandes ATtention (AT) [ 69 ].

3.1.2. Module d'entrée


Le module d'entrée se compose de deux composants principaux, un déclencheur de
mouvement et une caméra. Le déclencheur de mouvement détecte les mouvements tels que le
mouvement d'un véhicule et l'activation du reste du système. La caméra capture les images la nuit
sans éclairage visible supplémentaire. Le déclencheur de mouvement utilise un capteur infrarouge
passif (PIR) pour détecter les mouvements. Le capteur PIR détecte les changements dans la
quantité de rayonnement infrarouge qui tombe dessus et détecte le mouvement. Par exemple,
lorsqu'un véhicule passe à proximité du capteur, le rayonnement thermique du moteur du véhicule
tombe sur le capteur lorsqu'il entre dans le champ de vision du capteur. Lorsque le véhicule quitte
le champ de vision des capteurs, il arrête le rayonnement thermique. Cela provoque un
changement dans la quantité de rayonnement infrarouge tombant sur le capteur provoquant
l'activation du capteur. Un capteur PIR typique peut détecter un mouvement, mais il ne peut pas
reconnaître le mouvement. Malgré cette limitation dans de nombreuses solutions de pointe, les
capteurs PIR sont largement utilisés pour les applications de détection telles que les systèmes de
surveillance, l'éclairage automatique et les systèmes d'alarme en tant que déclencheurs de
mouvement simples mais fiables [70 , 71 ] . Notre solution de conception utilise un capteur PIR
uniquement pour détecter un mouvement se produisant près du déclencheur de mouvement. Que
ce mouvement ait été causé par le passage d'un véhicule sera reconnu par les modules suivants.
La plage de sensibilité d'un capteur PIR est normalement jusqu'à 20 pieds (6 m) et par conséquent,
nous utilisons un groupe de capteurs PIR pour élargir la plage du capteur.
Pour faire fonctionner le déclencheur de mouvement, nous avons utilisé un microcontrôleur
ESP32 avec connectivité WiFi et Bluetooth intégrée, tout en fonctionnant comme un système
autonome complet à faible coût et à faible consommation d'énergie. Lorsqu'un changement du
niveau infrarouge est détecté par le capteur de mouvement PIR, une valeur numérique est
transmise au module ESP32. Après avoir enregistré cette valeur, il envoie un signal au module de
traitement principal via Bluetooth car il augmente considérablement la faible puissance par
rapport à une connexion WiFi. Cependant, comme Bluetooth est plus fiable avec des appareils à
courte portée, la distance entre le module capteur et le module principal doit être inférieure à 10
m, tout en garantissant qu'il n'y a pas d'obstacles entre les deux appareils.
Jusqu'à ce qu'il reçoive un signal du déclencheur de mouvement, le module de traitement
principal sera en mode veille, ce qui permet de réduire la consommation d'énergie. Après avoir
reçu le signal, il passe à l'état de fonctionnement normal. Dans cet état, il utilise la caméra du
module d'entrée pour capturer des images et les fait passer par le module de traitement pour
reconnaître la plaque d'immatriculation. Pour la caméra, nous avons utilisé une caméra Raspberry
Pi NoIR V2. Il est équipé d'un capteur Sony IMX219 de 8 mégapixels sans filtre infrarouge. Ceci
couplé à un illuminateur infrarouge qui capture des images la nuit sans utiliser d'illuminateurs
visibles. Ici, le capteur de la caméra est sensible non seulement au spectre visible mais aussi au
spectre infrarouge, sans filtre infrarouge. Ainsi, il peut capturer des images en utilisant les rayons
infrarouges réfléchis par la plaque d'immatriculation. Cependant, cette configuration de caméra
n'est pas aussi sensible que les caméras thermiques ou de vision nocturne construites à cet effet,
nécessitant ainsi un illuminateur infrarouge. Le principal avantage de l'utilisation de cette
configuration de caméra par rapport à une configuration de caméra de ce type est de produire une
solution à faible coût.

3.1.3. Module de traitement principal


Le module de traitement principal prend l'image du module d'entrée et transmet le contenu
de la plaque d'immatriculation au module de communication. D'un point de vue logiciel, le
module principal de traitement est constitué de deux réseaux de neurones convolutifs, l'un qui
détecte et localise la plaque d'immatriculation dans une image et le second qui reconnaît le
Capteurs 2022 , 22 , 1434 11de30

contenu de la plaque d'immatriculation. Il s'agit donc d'un processus de reconnaissance de


plaque d'immatriculation en deux étapes. La figure 3 montre le flux de processus du processus en
deux étapes de détection et de reconnaissance d'une plaque d'immatriculation.

Figure 3. Pipeline de reconnaissance de plaques d'immatriculation en deux étapes.

L'image d'entrée est soumise à un ensemble de transformations telles que le


redimensionnement et la normalisation, avant de l'envoyer au modèle de détection. Ce modèle
produit deux sorties. Premièrement, une description de la boîte englobante pour la plaque
d'immatriculation et la seconde, une valeur de niveau de confiance indiquant le niveau de
confiance du modèle pour la boîte englobante. La valeur de confiance sera élevée, s'il y a une
plaque d'immatriculation dans l'image, sinon la valeur sera plus proche de 0. Si cette valeur est
supérieure à une valeur de seuil prédéterminée, alors le système passe à l'étape suivante. Si ce
n'est pas le cas, l'image est rejetée et le système passe à l'image suivante de la caméra. Si le
système a rejeté toutes les images dans une période de temps indiquant qu'aucun véhicule n'est
passé à travers le système, alors le module de traitement principal passe en mode veille en
attendant d'être activé par le déclencheur de mouvement.
Une fois qu'une image est passée à l'étape suivante, elle est recadrée dans le cadre de
délimitation de la plaque d'immatriculation et transmise au modèle de reconnaissance. Il
reconnaîtra la plaque d'immatriculation comme une séquence de texte et la transmettra au
module de communication, ainsi, il pourra informer l'opérateur du numéro de plaque
d'immatriculation reconnu, sous forme de SMS car il n'y a pas de connectivité Internet dans cet
environnement. D'un point de vue matériel, il existe trois variantes possibles pour le module de
traitement principal, car une seule solution matérielle peut ne pas couvrir tous les scénarios de
déploiement possibles. Au lieu de cela, nous proposons des configurations matérielles de bas,
moyen et haut niveau. La configuration matérielle de bas niveau est conçue pour être
suffisamment peu coûteuse, ce qui rend économique le déploiement de masse à grande échelle.
La configuration de niveau supérieur est plus adaptée aux situations où le coût unitaire n'est pas
si important et le niveau intermédiaire est censé être un terrain d'entente. Les capacités de calcul
augmentent de bas en haut, permettant l'utilisation de modèles avancés de détection et de
reconnaissance de plaques d'immatriculation offrant une plus grande précision.
L'un des principaux objectifs de cette étude est de développer un système RAPI pour les
appareils de périphérie avec un coût minimum. Le tableau 3 indique les spécifications matérielles
pour un calcul économe en énergie et une communication à faible latence. Chacune des
configurations utilise un ensemble commun de matériel, y compris le module de caméra Raspberry
Pi V2-8 mégapixels, 1080p (23,00 USD), l'alimentation Raspberry Pi (15,00 USD) et le module GSM
sim 900a (7,00 USD), où le total s'élève à 45,00 USD.

Tableau 3. Détails du niveau matériel.


Niveau matériel spécification Coût (à partir de janvier
2022)
Niveau inférieur Raspberry Pi Zéro 10,60 USD
Milieu de gamme Framboise Pi 3 B+ 38,63 USD
Niveau supérieur Raspberry Pi 3b+, Intel Neural Compute Stick 2 38,63 USD + 89,00 USD
Capteurs 2022 , 22 , 1434 12de30

Nous avons développé différents modèles pour la détection et la reconnaissance des


plaques d'immatriculation basés sur des stratégies de recherche d'architecture neuronale comme
décrit dans la section 3.3 , pour chaque niveau afin d'exploiter les capacités des différents
niveaux matériels. L'apparence et le circuit de la configuration sont représentés respectivement
sur la figure 4 et la figure 5 .

Figure 4. Modèle de niveau supérieur ( à gauche ) : vue interne, ( à droite ) : vue de déploiement externe.

Dans le processus de détection des plaques d'immatriculation, nous avons développé deux
modèles pour chaque niveau matériel. Un modèle est optimisé pour la plate-forme matérielle
spécifique à l'aide d'une stratégie de recherche d'architecture sensible au matériel et un autre
modèle optimisé à l'aide d'une recherche d'architecture indépendante du matériel. Les deux
modèles sont de petite taille et la puissance de calcul requise est suffisante pour s'exécuter sur le
matériel cible, tandis que le modèle optimisé pour le matériel offre une meilleure latence par
rapport au modèle indépendant du matériel. Cependant, le modèle indépendant du matériel peut
mieux se généraliser avec d'autres configurations matérielles similaires. Dans le processus de
reconnaissance des plaques d'immatriculation, nous avons développé trois modèles basés sur la
recherche d'architecture indépendante du matériel, représentant chaque niveau matériel.
Par conséquent, la configuration de niveau inférieur utilise un Raspberry Pi Zero comme
plate-forme matérielle. Comme indiqué dans la section 3.1.1 , il s'agit d'un ordinateur monocarte
relativement peu coûteux avec des capacités de traitement limitées. De ce fait, il est couplé aux
modèles de détection et de reconnaissance les plus simples. La configuration intermédiaire utilise
un Raspberry Pi 3 B+ au lieu du Raspberry Pi Zero ; ainsi, permet l'exécution de modèles plus
complexes et possède des capacités de calcul élevées donnant une meilleure précision. La
configuration de niveau supérieur consiste en un Raspberry Pi 3 B+ avec un Intel ® NCS2. Cela
décharge l'exécution des réseaux de neurones à convolutions sur Intel ® NCS2, plus performant en
termes de calcul, permettant l'utilisation de modèles coûteux en calcul mais plus précis.

Figure 5. Schéma de circuit de la conception.


Capteurs 2022 , 22 , 1434 13de30

La figure 4 (à gauche) montre la conception du module interne du module de traitement


principal avec la caméra dans la configuration de niveau supérieur et la figure 4 (à droite) montre
la vue extérieure des unités de traitement principales, qui est conçue pour un environnement
sauvage comme expliqué dans le mise en place de l'expérience avec l'étude de cas. La vue
extérieure du module de traitement principal est basée sur plusieurs considérations basées sur le
domaine d'application proposé. L'emballage doit être compact, il peut donc être facilement
camouflé et caché de la vue directe. En même temps, il doit être suffisamment grand pour stocker
tous les composants du système, à l'exception du déclencheur de mouvement, ainsi que de la
batterie pour les alimenter. La figure 5 montre le circuit de conception de la solution proposée.

3.1.4. Module de communication


Le module de communication se compose de deux composants principaux. Le système de
notification par SMS notifie les caractères des plaques d'immatriculation reconnues aux autorités
et le module de déchargement de preuves à la demande décharge les images stockées dans le
système. Le flux de données de ces composants et du système principal est illustré à la Figure 6 .
Une fois qu'une plaque d'immatriculation a été reconnue avec succès par le modèle de
reconnaissance de plaque d'immatriculation, elle est transmise au système de notification par
SMS. Le système de notification par SMS utilise un module GSM sim 900a mini v3.8.2 connecté au
module de traitement principal pour envoyer des messages SMS. Il est connecté au port série TTL
du Raspberry Pi à l'aide du protocole récepteur/émetteur asynchrone universel (UART). Étant
donné que sim900a est un appareil 5 V et que Raspberry Pi est un appareil 3,3 V, nous avons utilisé
un décaleur logique TTL de 5 V à 3,3 V pour protéger le Raspberry Pi.

Figure 6. Flux de données du système proposé.

Le module de déchargement de preuves à la demande est conçu comme une amélioration de


la qualité de vie, ainsi les opérateurs n'ont pas besoin de connexion physique avec le système pour
décharger les données.
Pour utiliser ce système, l'opérateur envoie un message SMS au système, ce qui permet au
Module Wi-Fi du Raspberry Pi. Il recherche ensuite un point d'accès Wi-Fi avec un
Service Set Identifier (SSID) et mot de passe WiFi Protected Access 2 (WPA2). L'opérateur
transportera un appareil mobile qui utilise la fonctionnalité de point d'accès mobile pour créer ce
point d'accès. Une fois que le Raspberry Pi a été connecté avec succès au point d'accès,
l'opérateur peut accéder aux images stockées dans le Raspberry Pi en mode sans fil et
télécharger les fichiers nécessaires. Avec ce système, les opérateurs peuvent facilement accéder
aux images stockées dans le système sans connexion physique au système, ce qui peut être
difficile en raison du placement camouflé du système.

3.2. Techniques de simulation d'environnement


Généralement, un ensemble de données vaste et diversifié permet de former un modèle
d'apprentissage de manière robuste. Cela permet de classer les données en fonction de conditions
environnementales variables, y compris les conditions météorologiques et les conditions de
caméra défavorables telles que l'emplacement et les vibrations, sans avoir besoin d'étapes de
traitement d'image explicites fragiles. Il existe de tels ensembles de données LP tels que l'ensemble
de données de stationnement urbain chinois (CCPD) [ 14 ] qui est utilisé par des modèles de pointe
Capteurs 2022 , 22 , 1434 14de30

tels que Roadside Parking Net (RPNet) [ 14 ] et Towards End-to-End Car License Détection et
reconnaissance des plaques
(TE2E) [ 64 ] pour réaliser différentes variantes. Cependant, ces ensembles de données se sont
principalement concentrés sur les images de jour. De plus, la conservation d'un tel ensemble de
données pour les images nocturnes est à la fois coûteuse et longue. Par conséquent, pour simuler
la vision nocturne, nous avons utilisé une technique de génération d'images synthétiques pour
convertir les images RVB du jeu de données CCPD en images TIR nocturnes. Cependant, nous avons
également déployé le prototype fonctionnel sur le terrain pour acquérir un ensemble de données
nocturnes réelles afin d'évaluer les performances des modèles proposés.
Le processus de génération des images TIR synthétiques utilisées par ce travail suit une
méthode proposée par Zhang et al. [ 49 ]. Comme le montre la figure 7 , nous avons utilisé un
modèle pix2pix basé sur GAN pour la traduction d'images et avons fourni au modèle un ensemble
apparié de données d'entraînement qui comprend des cadres correspondants dans les images RVB
et TIR. Pour entraîner le modèle à la traduction d'images TIR, nous avons sélectionné le plus grand
ensemble de données multispectrales disponible nommé KAIST [ 72 ] qui contient une quantité
importante d'images RVB et TIR correspondantes. Enfin, nous avons formé le modèle pix2pix et
initialisé les poids à partir d'une distribution gaussienne avec une moyenne de 0 et un écart type
de 0,02. Les images d'entrée ont été agrandies à 480 × 480 pixels et le réseau est formé pendant
100 époques avec un taux d'apprentissage décroissant de 0,0002, lambda_l1 de 120,0 et en
gardant les autres paramètres identiques à ceux de l'étude pix2pix originale. Ensuite, nous avons
utilisé ce modèle pix2pix formé pour traduire les images RVB diurnes de l'ensemble de données
CCPD [ 14 ] en TIR et utilisé ces images nocturnes générées synthétiquement de CCPD pour former
les modèles de détection de notre pipeline. Pour former les modèles de reconnaissance, nous
avions besoin d'images nocturnes de qualité relativement élevée des plaques d'immatriculation.
Par conséquent, nous avons converti les images RVB en niveaux de gris à l'aide de la bibliothèque
Python matplotlib et défini la carte des couleurs sur gris. Ainsi, nous avons préservé la qualité de
l'image et évité de générer des caractères de plaque d'immatriculation incomplets et impossibles
à lire.

Figure 7. Pix2Pix pour la génération d'images nocturnes.

3.3. Algorithmes de détection et de reconnaissance des plaques d'immatriculation


Dans cet article, nous utilisons deux stratégies de recherche d'architecture neuronale
différentielle (ADN) pour automatiser la modélisation de l'architecture des réseaux de neurones
de détection et de reconnaissance. Nous définissons le problème de recherche d'architecture
neuronale comme un problème d'optimisation à deux niveaux comme dans l'équation ( 1 ),
min min L ( une , w une ) (1) une ∈ UNE w une
Capteurs 2022 , 22 , 1434 15de30

où A est l'ensemble des architectures de réseaux de neurones possibles appelé espace


d'architecture et w a est l'ensemble des poids pour l'architecture sélectionnée a . La fonction de
perte L tient compte à la fois de l'utilisation des ressources et de la précision du modèle. Dans ce
travail, nous considérons trois facteurs principaux liés à la recherche d'architecture neuronale, à
savoir l'espace de recherche, la stratégie de recherche et la stratégie d'estimation des
performances.

3.3.1. Espace de recherche


Le processus de recherche d'architecture neuronale (NAS) proposé utilise un espace de
recherche plus grossier avec des "blocs neuronaux" sélectionnés sur la compréhension existante
des domaines tels que la reconnaissance des plaques d'immatriculation et la détection d'objets.
Par conséquent, nous avons sélectionné 4 types de blocs neuronaux : (1) les blocs RPNet [ 14 ], (2)
les blocs MobileNet [ 73 ], (3) les blocs Inception et (4) les connexions d'identité. Les blocs RPNet
ont été considérés comme servant actuellement les résultats de pointe dans le domaine de la
reconnaissance automatique des plaques d'immatriculation. La sélection des blocs MobileNet
était basée sur deux facteurs principaux. Premièrement, c'est l'une des architectures dorsales
utilisées dans la plupart des problèmes de détection d'objets et deuxièmement, elle est légère et
fonctionne efficacement dans des environnements à ressources limitées tels que les appareils
mobiles ou d'autres appareils à faible puissance de calcul et espace mémoire. Les modèles
Inception sont des architectures uniformes, simplifiées et fortement conçues qui introduisent les
concepts de réseaux « plus larges » au lieu de « plus profonds ». On peut considérer l'espace de
recherche comme l'ensemble des permutations possibles de ces blocs pouvant s'exécuter sur le
dispositif de bord. Bien que la sélection d'un espace de recherche "plus fin" ait pu entraîner de
meilleures performances, nous avons décidé de ne pas le faire car cela conduirait à un espace de
recherche beaucoup plus grand nécessitant plus de temps de calcul pour effectuer la recherche
d'architecture.

3.3.2. Stratégie de recherche


Dans cette étude, deux stratégies de recherche d'architecture neuronale, à savoir PC-DARTS
(Partially connected—Differentiable architecture search) [ 13 ] et FB-Net (Facebook-BerkeleyNets)
[ 12 ] sont explorées pour découvrir les architectures de réseau neuronal pour la détection et la
détection des plaques d'immatriculation. modules de reconnaissance optimisés pour les appareils
embarqués à mémoire limitée.
Nos travaux précédents ont présenté les aspects détaillés de la mise en œuvre de l'architecture LP-
net utilisée pour cette étude [ 57 ].
Nous avons utilisé PC-DARTS comme stratégie de recherche d'architecture neuronale
indépendante du matériel. Ainsi, il optimise l'architecture en ne considérant que l'entrée et la
sortie cible, indépendamment de la plate-forme matérielle. Nous avons introduit une limite
supérieure stricte à l'utilisation de la mémoire dans A en fonction de l'appareil cible. Cela garantit
que toutes les valeurs possibles de a peuvent être exécutées sur la cible donnée. La logique
d'effectuer une recherche d'architecture d' une manière indépendante du matériel est de
développer des modèles qui fonctionneront bien sur des cibles similaires à la cible prévue en
empêchant une surspécialisation vers la cible visée. PC-DARTS définit son super-réseau
stochastique comme un graphe orienté où les sommets représentent les tenseurs et les arêtes
représentent l'opération dans l'espace de recherche.
La figure 8 (à gauche) montre un cas simple avec seulement 2 tenseurs intermédiaires à savoir
x 1 et x 2 . Le tenseur x 0 est l'entrée du super-réseau et le tenseur x 3 est la sortie du super-réseau.
Nous appelons le nombre de tenseurs intermédiaires la profondeur du réseau dans notre
implémentation. Comme le montre la figure, chaque tenseur est connecté à chacun de ses
prédécesseurs en utilisant toutes les opérations dans l'espace de recherche. Par souci de brièveté,
nous n'avons montré que op 1 et op n dans la figure. Pour notre processus de recherche
d'architecture, ces opérations sont les blocs neuronaux décrits dans la section précédente.

x j = ∑∑ α ( je , j , o ) o ( X je ) (2)
je < jo ∈ O
Capteurs 2022 , 22 , 1434 16de30

Figure 8. Super-réseau stochastique ( à gauche ) : PC-DARTS, ( à droite ) : FB-Net.

La valeur de chaque tenseur xi peut être définie à l'aide de ses prédécesseurs, comme indiqué
dans l'équation ( 2 ) . Ici, nous utilisons la valeur des indices pour représenter l'ordre des tenseurs
et O représente l'ensemble des opérations dans l'espace de recherche. Nous appelons la valeur de
α ( i , j , o ) le poids de l' architecture de l' opération o pour l' arête ( i , j ) . Ces poids représentent
la probabilité de connecter chaque tenseur avec son prédécesseur j en utilisant l'opération o . Par
conséquent, nous avons utilisé une distribution SoftMax pour représenter ces poids. Nous
appelons l'ensemble de tous ces poids d'architecture les poids d'architecture du super-réseau ( w
α ). Chaque opération individuelle d'une telle convolution peut avoir ses propres poids et
l'ensemble de tous ces poids dans le super-réseau est connu sous le nom de poids d'opération du
super-réseau ( w θ ). Nous pouvons ensuite trouver les valeurs optimales pour w α et w θ en utilisant
l'optimisation à deux niveaux comme indiqué dans l'algorithme 1 . Une fois que cette optimisation
a convergé, nous pouvons trouver l'architecture optimale en effectuant argmax sur les poids de
l'architecture.
Algorithme 1 : Optimisation à deux niveaux.
Données: super-réseau stochastique

( )
( )

←− − ∇ ( )

←− − ∇ ( )

←−

w α : poids de l'architecture γ θ : taux d'apprentissage


pour la mise à jour du poids de l'opération γ α : taux
d'apprentissage pour la mise à jour du poids de
l'architecture L ( w θ , w α ) : perte i θ : nombre
d'itérations pour l'optimisation interne

Le FB-Net a été utilisé comme stratégie de recherche sensible au matériel qui produit des
modèles optimisés pour une plate-forme matérielle spécifique. Par conséquent, les modèles basés
sur FB-Net utilisent des caractéristiques matérielles spéciales des plates-formes cibles pour réduire
leur latence. Cependant, les performances peuvent être réduites, si ces modèles sont utilisés sur
une plate-forme matérielle différente de la plate-forme considérée pour l'optimisation en raison
d'une surspécialisation pour la cible visée. En conséquence, les modèles développés à l'aide de FB-
Capteurs 2022 , 22 , 1434 17de30

Net nous offrent une meilleure utilisation du matériel au détriment de la généralisabilité sur
différentes plates-formes matérielles.
Semblable à PC-DARTS, FB-Net représente également l'espace de recherche comme un
superréseau stochastique. Cependant, il ressemble davantage à un réseau à anticipation typique,
comme illustré à la Figure 8 (à droite). Chaque couche prend la sortie de la couche précédente x i -
1 et applique l'opération comme indiqué dans l'équation ( 3 ) pour obtenir sa sortie x i . O est
l'ensemble de toutes les opérations dans l'espace de recherche.

x je = ∑ α ( je , o ) o ( X je - 1 ) (3) o ∈ O

On appelle la valeur α ( i , o ) poids d'architecture de la couche i par rapport à l'opération o .


L'ensemble de tous ces poids est donné par pi comme indiqué dans l'équation ( 4 ). Nous définissons
l'ensemble de toutes ces valeurs p i comme les poids d'architecture du super-réseau stochastique
( w α ). Nous avons ensuite utilisé l'optimisation à deux niveaux donnée précédemment pour
obtenir l'architecture optimale similaire à PC-DARTS.
p.je _ = α ( je ,1 ) ∀ o ∈ O (4)

3.3.3. Architectures LP-Net légères


Nous avons conçu et développé un ensemble de modèles d'apprentissage optimaux pouvant
être déployés dans des appareils périphériques à faible puissance de traitement et fonctionnant
sans connexion Internet. La famille de modèles Lite LP-Net proposée comprend (1) un modèle de
détection LP optimisé pour le matériel, (2) une détection LP indépendante du matériel et (3) des
sous-réseaux de reconnaissance LP, comme illustré à la figure 9 . La convention de dénomination
des modèles est détaillée dans les tableaux 4 et 5 . Nous avons utilisé l' API tensorflow.keras .layers
et les paramètres par défaut comme dans TensorFlow version 2.3.0. De plus, comme indiqué dans
la section 3.1.2 , le modèle de détection LP optimisé pour le matériel est implémenté en utilisant
l'algorithme FB-Net (Facebook-Berkeley-Nets) [ 12 ] et les deux autres modèles étaient basés sur
PC-DARTS [ 13 ]. Celles-ci ont été implémentées pour trois configurations matérielles, à savoir les
niveaux inférieur, intermédiaire et supérieur, comme décrit à la section 3.1.1 .

Figure 9. Architectures modèles ( à gauche ) : détection optimisée pour le matériel, ( au milieu ) : détection
indépendante du matériel, ( à droite ) : sous-réseaux de reconnaissance.

Tableau 4. Résumé détaillé de l'ensemble de données.


Base de Image de l'heure Nuit synthétisée LP sri-lankais LP sri-lankais
données du jour du CCPD Image du CCPD Images-Jour Images-Nuit

Exemple
d'image
Capteurs 2022 , 22 , 1434 18de30

Nombre d'
images 200 000 200 000 100 100

Tableau 5. Résultats de performance du modèle de détection.


Nom du Ressource Mesure du rendement
modèle Exigence Latence
Modèle PA PA PA
(s)
Taille (Mo) (Jour) (Synthétique) (Réel)
s 1_h Raspberry Pi 3b+, Intel® NCS2 0,012 0,7776 0,9284 0,8451 0,85
s 1_h_h Raspberry Pi 3b+, Intel® NCS2 0,011 0,8707 0,9299 0,8401 0,9
s 1_m Framboise Pi 3b+ 0,157 0,6869 0,9005 0,7982 0,85
s 1_m_h Framboise Pi 3b+ 0,004 0,6830 0,9029 0,7962 1.0
s 1_l Raspberry Pi Zéro 4.54 0,5568 0,8422 0,7146 0,95
s 1_l_h Raspberry Pi Zéro 4.08 0,5625 0,8327 0,6987 0,95
De plus, nous avons utilisé un nouveau processus de recherche d'architecture neuronale
différentiable (NAS) basé sur PC-DARTS et FB-Net pour développer les modèles. L'avantage
d'utiliser la recherche d'architecture différentiable par rapport aux méthodes couramment
utilisées telles que l'apprentissage par renforcement et les algorithmes évolutifs est une réduction
significative des heures GPU nécessaires à la recherche de réseaux de neurones. À notre
connaissance, c'est la première fois que de telles techniques sont utilisées pour le développement
de modèles de reconnaissance de plaques d'immatriculation dans des appareils de pointe tels que
Raspberry Pi et une clé de calcul neuronale, qui a des capacités de calcul différentes et nécessite
différentes conceptions et optimisations de modèles. .
Les modèles de détection LP sont conçus pour prédire les boîtes englobantes de l'image de
la plaque d'immatriculation. Comme le montrent les figures 9 (à gauche) et (au milieu), le modèle
de détection utilise 6 modèles différents. Les modèles optimisés pour le matériel et indépendants
du matériel sont conçus pour réduire la latence et augmenter la précision, respectivement.
Compte tenu du domaine d'application considéré pour cette étude, nous recommandons le
modèle qui prend en charge la faible latence. Ces modèles optimisés pour le matériel sont
implémentés en appliquant NAS avec l'algorithme FB-Net comme décrit dans la section 3.3 . Le
modèle optimisé pour le matériel pour chaque niveau est sélectionné en fonction des valeurs de
latence calculées pour chaque configuration matérielle et en appliquant le NAS. Bien que les
modèles optimisés pour le matériel offrent une faible latence dans le traitement, ces modèles
peuvent donner des performances inférieures à la moyenne dans des unités de traitement
similaires mais non identiques. Ainsi, des modèles indépendants du matériel ont été conçus pour
gérer cette variabilité. La mise en œuvre de ces modèles est basée sur l'algorithme PC-DARTS et
optimisée pour augmenter la précision de détection sans tenir compte de la latence de traitement.
Les modèles de reconnaissance LP fournissent une séquence représentant le contenu, étant
donné une image recadrée de la plaque d'immatriculation. Comme le montre la figure 9 (à droite),
cette étude présente trois 3 modèles indépendants du matériel pour la reconnaissance LP, en
suivant le même processus que celui utilisé pour les modèles de détection indépendants du
matériel. Nous avons appliqué deux paradigmes de conception. (1) Le modèle basé sur le Tuple-
based End-to-end (TE2E) [ 64 ], utilise un modèle unique pour prédire tous les caractères de
l'image. Puisqu'il partage des paramètres lors de la reconnaissance de chaque caractère, la
consommation de mémoire est faible. (2) Le modèle basé sur Roadside Parking Net (RPNet) [ 14 ],
utilise un sous-réseau séparé pour chaque caractère de la plaque d'immatriculation. Étant donné
que les sous-réseaux séparés ne peuvent pas partager les paramètres, la consommation de
mémoire est élevée. Les architectures optimales ont été obtenues en entraînant les super-réseaux
stochastiques comme décrit dans la section 3.3.2 . L'ensemble complet de caractères de la plaque
d'immatriculation est l'entrée pour chaque sous-réseau et les valeurs de sortie consécutives de
chaque sous-réseau forment le numéro de plaque d'immatriculation reconnu. L'approche basée
sur les sous-réseaux a surpassé l'approche à modèle unique, basée sur les expériences effectuées
pour chaque configuration matérielle.

3.3.4. Stratégie d'estimation des performances


La stratégie d'estimation des performances est utilisée pour identifier l'architecture optimale
parmi les architectures sélectionnées. Généralement, la stratégie d'évaluation de NAS a un
problème d'optimisation à deux niveaux comme dans l'équation ( 1 ). Ainsi, pour une entrée
Capteurs 2022 , 22 , 1434 19de30

donnée, le but est d'apprendre une architecture optimale a pour obtenir une sortie donnée, et les
poids associés w au sein de toutes les opérations mixtes. Dans notre expérience, l'entrée du NAS
est soit une image provenant directement de la caméra, soit une image de la plaque
d'immatriculation recadrée, et la sortie est soit la boîte englobante de la plaque d'immatriculation,
soit la séquence représentant les caractères de la plaque d'immatriculation. Cependant,
contrairement à PC-DARTS qui considère uniquement la précision d'une architecture donnée, la
fonction de perte utilisée dans FB-Net est plus approfondie et reflète à la fois la précision et la
latence d'une architecture sur un matériel cible. Ainsi, les architectures recherchées à l'aide de
l'algorithme FB-Net deviennent sensibles au matériel. Dans cette étude, nous avons utilisé la
même fonction de perte sensible à la latence que dans l'implémentation originale de FB-Net.
Tout d'abord, une table de latence est créée pour l'exécution de chaque opération sur le
matériel cible. Ensuite, nous utilisons la table de recherche de latence et calculons la latence de la
couche i en utilisant la valeur pi comme indiqué dans l'équation ( 5 ).

LAT ( p je ) = ∑ lat o α ( je , o ) (5)


o∈O

Dans l'équation ( 5 ), lat o fait référence à la latence de l'opération o lue à partir de la table de
recherche de latence. Ensuite, nous obtenons la latence du super-réseau, LAT ( w α ) , en
additionnant les valeurs de latence pour toutes les couches du réseau. Par conséquent, nous
incluons ce terme de latence dans l'algorithme d'optimisation à deux niveaux pour obtenir un
processus de recherche d'architecture sensible au matériel.

4. Évaluation du système
4.1. Base de données
Deux expériences ont été réalisées pour tester les performances du système de détection et
de reconnaissance proposé en utilisant deux ensembles de données différents : un ensemble de
données nocturnes simulées et réelles, comme indiqué dans le tableau 4 . La première
expérience a été réalisée sur un ensemble de données de stationnement urbain chinois
(CCPD) qui a plus de 200 000 images collectées à partir d'un parking en bordure de route de 07h30 à
22h00 couvrant différentes conditions d'éclairage et environnementales pendant la journée.
Cependant, une grande partie de l'ensemble de données CCPD est également prise à la lumière du
jour, comme la plupart des autres ensembles de données disponibles pour la détection LP. Par
conséquent, en raison de la rareté d'un ensemble de données nocturnes LP accessible au public et
de la conservation d'un si grand ensemble de données nocturnes est à la fois coûteux et long, nous
avons créé un ensemble de données nocturnes synthétiques en utilisant les images diurnes du
CCPD, comme indiqué à la section 3.2 . Bien que CCPD, qui est le plus grand ensemble de données
d'image LP, présente des conditions d'arrière-plan complexes par rapport à une image LP capturée
dans un environnement sauvage, la formation avec cet ensemble de données est bénéfique pour
obtenir un modèle bien formé pour la détection LP, car l'image réelle est moins complexe que
l'ensemble de données formé . Avec l'ensemble de données CCPD généré synthétiquement, nous
avons utilisé une validation croisée quintuple, où chaque pli se compose de 40 000 images.
La deuxième expérience a été réalisée à l'aide d'un ensemble de données sri-lankais du
monde réel qui ont été collectées spécifiquement pour ce cas d'utilisation considéré des conditions
de l'environnement sauvage. L'ensemble de données nocturnes du monde réel créé contient 100
images et a été collecté entre 20 heures et 4 heures du matin. Nous avons ensuite utilisé cet
ensemble de données collectées pour effectuer un apprentissage par transfert sur nos modèles
afin de les former aux plaques d'immatriculation sri-lankaises, puis de valider leurs performances
par rapport à numéros de plaque d'immatriculation locale. Cependant, comme l'objectif principal
de cette étude était de construire un système RAPI pour travailler avec des environnements à
ressources limitées, l'ensemble de données créé n'inclut aucune condition météorologique
complexe.
Capteurs 2022 , 22 , 1434 20de30

4.2. Configuration de l'expérience


Une simulation d'une étude de cas de détection de véhicule de braconnier est utilisée pour
évaluer l'efficacité de l'approche proposée. Cette expérience a été réalisée à l'aide de l'ensemble
de données CCPD avec 200 000 images de plaques d'immatriculation diurnes [ 14 ] et les images
de plaques d'immatriculation nocturnes générées synthétiquement correspondantes en suivant
le processus décrit à la section 3.2 . De plus, le modèle proposé est pratiquement testé dans un
environnement nocturne réel avec
120 images de véhicules. Les spécifications de configuration matérielle ont été décrites dans la
section 3 . La configuration logicielle comprend Raspberry Pi OS (32 bits) version août 2020,
TensorFlow lite version 2.1.0 et Python 3.7.3. Nous avons utilisé la version Open-VINO 2019.3.376
pour convertir
Modèles TensorFlow qui ont été compilés à l'aide de TensorFlow version 2.2 dans des
représentations intermédiaires pour Intel ® NCS2. Le modèle de formation et de codes d'évaluation
pour Lite LP-Net est disponible dans le référentiel GitHub [ 74 ].

4.3. Performances du modèle


Les performances des modèles d'apprentissage en profondeur utilisés pour la reconnaissance
des plaques d'immatriculation ont été mesurées dans deux grandes catégories. Nous avons
mesuré l'exactitude du modèle en utilisant les trois ensembles de données et l'efficacité tout en
réalisant la tâche pour laquelle il a été conçu. Pour les modèles de première étape (détection),
nous avons utilisé une précision moyenne à un seuil d'intersection sur l'union (IOU) fixe, une
métrique généralement utilisée pour la détection d'objets comme métrique d'évaluation. De plus,
pour mesurer l'exactitude des modèles de l'étape 2 (reconnaissance), nous avons utilisé une
métrique de précision plus souple, et nous avons considéré qu'une prédiction était exacte si et
seulement si chaque caractère de la plaque d'immatriculation est reconnu correctement.
L'efficacité du modèle est mesurée à l'aide de deux paramètres, la taille du modèle et la latence
du modèle. La taille du modèle est mesurée en tenant compte de la taille du TensorFlow Flatbuffer
qui estime la RAM requise pour exécuter le modèle. La latence du modèle est calculée en tenant
compte du temps moyen nécessaire pour traiter une seule image. Cela peut également être
considéré comme un indicateur de la complexité de calcul du modèle.
Les résultats de ces expériences sont présentés dans les tableaux 5 et 6 pour les étapes de
détection et de reconnaissance, respectivement. Les noms de modèles se terminant par h, m et l
représentent respectivement les configurations de niveau supérieur, de niveau intermédiaire et de
niveau inférieur. Chaque niveau matériel du processus de détection contient deux types de
modèles, à savoir optimisés pour le matériel à l'aide de FB-Net [ 12 ] et indépendants du matériel
à l'aide de PC-DARTS [ 13 ].
Tableau 6. Résultats de performance du modèle de reconnaissance.
Nom du Ressource Mesure du rendement
modèle Exigence Modèle de latence
Précision Précision Précision
(s) Taille (Mo)
(journée) (synthétique) (réelle)
s 2_h Raspberry Pi 3b+, Intel® NCS2 0,021 4,5 0,9987 0,9476 0,9873
s 2_m Framboise Pi 3b+ 0,148 11,7 0,9877 0,9382 0,9882
s 2_l Raspberry Pi Zéro 6,2 4,5 0,9565 0,9054 0,9586
Nous avons d'abord évalué les performances diurnes et nocturnes de chaque modèle à l'aide
de l'ensemble de données original CCPD [ 14 ] et de l'ensemble de données nocturnes généré
synthétiquement. La figure 10 compare les performances des modèles de détection et de
reconnaissance pour les données diurnes et nocturnes. Selon les valeurs rapportées, tous les
modèles ont montré une grande précision dans des conditions de jour comme de nuit, tandis que
les modèles de haut niveau ont montré une meilleure précision que les autres modèles. De plus,
nous avons testé nos modèles par rapport à certains systèmes RAPI de pointe tels que RPNet [ 14
], TE2E [ 64 ] et des modèles généraux de détection d'objets tels que yolo-v3 [ 46 ] pour une
meilleure comparaison. Nous pouvons également observer que les modèles de détection
proposés, en particulier les modèles de niveau supérieur, affichent des performances proches des
modèles de pointe actuels de niveau serveur tels que RPNet, bien que nos modèles soient conçus
spécifiquement pour les faibles ressources. Dans le même temps, tous les modèles, à l'exception
Capteurs 2022 , 22 , 1434 21de30

de ceux de niveau inférieur, affichent des performances supérieures à YoloV3 [ 46 ], qui est un
détecteur d'objets à usage général populaire qui a été utilisé dans plusieurs études de détection
de plaques d'immatriculation [ 44 , 45 ]. Pendant ce temps, les mêmes tendances peuvent
également être observées pour les modèles de reconnaissance. Les modèles de niveau supérieur
fonctionnent mieux que les modèles de niveau inférieur et, contrairement à la détection, les
modèles de niveau supérieur surpassent en fait les modèles de pointe actuels tels que RPNet.

Figure 10. Précision du modèle sur le jeu de données généré synthétiquement ( à gauche ) : détection, ( à
droite ) reconnaissance.

Dans l'étape de détection, les modèles optimisés pour le matériel ont une latence moindre
que leurs modèles correspondants indépendants du matériel (s1_h, s1_m et s1_l). Dans
l'ensemble, les faibles tailles de modèle ont montré la capacité d'exécuter ces modèles dans des
appareils périphériques avec de faibles ressources.
De plus, nous avons mesuré la robustesse du modèle par rapport aux variations de position
de la caméra pour identifier l'impact de l'angle et de l'élévation de la caméra sur les performances
du système. Cette expérience vise à valider que les performances du modèle ne changent pas de
manière significative avec les changements de position de la caméra. Les métriques liées à
l'efficacité du modèle sont des fonctions du modèle et de la solution matérielle, donc
indépendantes de la position de la caméra. En revanche, nous vérifions si les métriques
d'exactitude du modèle sont affectées par la position de la caméra. Pour valider l'impact de la
position de la caméra sur la précision du modèle, une expérience a été réalisée en conduisant un
véhicule à une vitesse de l'ordre de 20 à 30 km/h vers la caméra. La caméra a été positionnée dans
l'une des quatre positions comme le montre la figure 11 (à gauche). L'indication de mesure d'angle
est entre le centre de la plaque d'immatriculation et la caméra lorsque le véhicule est à 20 m de la
caméra. Nous avons commencé le test lorsque le véhicule est à 20 m de la caméra et avons exécuté
le test jusqu'à ce que le véhicule quitte le champ de vision de la caméra. Pendant ce temps, nous
avons échantillonné le flux vidéo au rythme de 10 images par seconde et identifié le nombre de
numéros de plaque d'immatriculation correctement reconnus.

Figure 11. Positions de la caméra ( à gauche ) et exemple d'image déployée ( à droite ).

L'environnement considéré est une zone rurale avec de nombreux arbres et buissons, qui
peut donc être simulé comme une réserve faunique. La figure 11 (à droite) montre un exemple
d'image prise dans les mêmes conditions à partir de la position de caméra 1 pendant la journée
pour mieux illustrer les conditions environnementales dans lesquelles cette expérience a été
Capteurs 2022 , 22 , 1434 22de30

réalisée. Les images réelles utilisées pour les résultats de précision sont prises au même endroit
pendant la nuit (20h-22h) par une nuit sans lune (13 janvier 2021).
Dans cette expérience, nous avons utilisé une caméra Raspberry Pi NoIR pour capturer des
images nocturnes. Les fonctions de la caméra Pi NoIR sont les mêmes que celles d'une caméra
ordinaire ; cependant, il n'utilise pas de filtre infrarouge pour le blocage des infrarouges, ce qui lui
permet d'être utilisé dans la photographie infrarouge en général. Cependant, l'un des principaux
avantages de l'utilisation d'une caméra NoIR est sa capacité à être utilisée aussi bien de jour que
dans l'obscurité totale. De plus, il est également relativement moins cher par rapport à un module
de caméra IR ordinaire, où l'un des principaux objectifs de cette étude est une solution à faible
coût. Bien qu'une caméra NoIR puisse mieux voir dans un environnement à faible luminosité,
même sans l'aide d'un illuminateur IR, l'utilisation d'une source de lumière infrarouge
(illuminateur) totalement invisible à l'œil humain peut garantir une image plus claire dans
l'obscurité totale. Par conséquent, dans cette conception, nous avons utilisé un illuminateur
infrarouge invisible à l'œil nu pour de meilleures performances. Ainsi, notre solution donne au
système les conditions les plus difficiles car il n'y a pas de sources d'éclairage visibles.
Les résultats de cette expérience sont présentés dans le tableau 7 . Les performances du
modèle proposé ne sont pas affectées négativement en fonction de la position de la caméra. De
plus, comme le montre la figure 12 , les modèles de niveau supérieur ont montré une meilleure
précision. Comme nous pouvons le voir à partir de cette expérience, le modèle proposé est robuste
contre les variations d'élévation et d'angles de la caméra, donnant des résultats similaires les uns
aux autres, quelle que soit la position de la caméra. Il faut s'y attendre, car l'ensemble de données
CCPD [ 14 ] contient des images prises à partir d'appareils portables donnant une forte variation
en termes d'élévation et d'angle de caméra.

Tableau 7. Performances du modèle par rapport à la position de la caméra (Nombre d'images correctement
identifiées).

1 27 25 26 26 1
2 35 30 31 34 1
3 33 30 31 33 2
4 29 24 25 28 2
5 25 21 23 25 3
6 28 22 25 27 3
7 30 25 26 28 4
8 26 19 23 25 4

Figure 12. Précisions du modèle de chaque expérience.

4.4. Performances matérielles


Étant donné que la solution proposée est censée être un système alimenté par batterie qui
sera déployé dans un environnement sauvage, les métriques d'autonomie de la batterie et de
consommation d'énergie sont utilisées pour évaluer les performances matérielles des
périphériques périphériques. Nous avons mesuré la consommation d'énergie maximale lorsque
l'unité de traitement s'exécute à charge maximale, en utilisant la puissance d'entrée via l'interface
USB vers les appareils Raspberry Pi. Étant donné que la caméra et Intel ® NCS2 (le cas échéant) sont
Capteurs 2022 , 22 , 1434 23de30

alimentés via le Raspberry Pi, cela nous donne la puissance requise pour un système RAPI
minimum avec des capacités d'entrée et de traitement. La consommation d'énergie dans le pire
des cas par rapport à un cas général est considérée pour les raisons suivantes :
1. L'estimation probabiliste du nombre de véhicules traversant une unité d'exploitation n'est
pas facilement disponible pour une étude de cas donnée. Ainsi, nous avons considéré la
charge de traitement maximale possible sur l'unité pour un cas général.
2. La consommation d'énergie dans le pire des cas donne une limite supérieure pour la
consommation d'énergie de l'unité. Ainsi, l'utilisation d'une alimentation électrique qui
satisfait aux exigences de puissance maximales peut satisfaire la consommation électrique
de l'unité dans toute autre condition.
Cette mesure inclut la consommation électrique de toutes les unités de traitement
nécessaires pour exécuter le modèle, y compris ses périphériques d'entrée. Comme le montre le
tableau 8 , il y a une augmentation de la consommation d'énergie lors du passage du Raspberry Pi
Zero (bas niveau) au Raspberry Pi 3b+. Bien que nous ayons observé une augmentation de la
consommation d'énergie maximale lorsque le Raspberry Pi 3b+ était combiné avec l'Intel ® NCS2, il
s'agissait d'une augmentation relativement plus faible.

Tableau 8. Performances matérielles de chaque configuration.


Niveau matériel Consommation électrique (W) Autonomie moyenne de la batterie (h)
Niveau inférieur 0,8 132.15
Milieu de gamme 5.15 11.03
Niveau supérieur 6.2 13.04
Pour mesurer la durée de vie prévue de la batterie d'un déploiement typique, nous avons
utilisé une batterie de 10 400 mAh pour alimenter tous les composants du système. Nous avons
chargé la batterie à 100 % et exécuté le système en continu jusqu'à ce qu'il s'éteigne. Nous avons
mesuré le temps nécessaire pour vider complètement la batterie en utilisant l'horodatage de la
dernière image enregistrée par le système. Pour chaque niveau matériel, nous avons répété cette
expérience pendant une semaine et mesuré la durée de vie moyenne de la batterie, comme
indiqué dans le tableau 8 . Le matériel de niveau inférieur a une durée de vie de la batterie
nettement meilleure par rapport aux configurations de niveau intermédiaire et supérieur.
L'observation la plus intéressante dans cette expérience était que le système de niveau supérieur
a une meilleure autonomie de batterie par rapport à l'unité de niveau intermédiaire, même s'il
avait une consommation d'énergie de pointe plus élevée. Cela pourrait s'expliquer par les
meilleures performances de calcul du modèle de niveau supérieur avec Intel ® NCS2. Par
conséquent, les modèles de niveau supérieur n'atteignent pas leur charge maximale aussi souvent
que les modèles de niveau intermédiaire qui fonctionnent plus près de la charge maximale avec le
Raspberry Pi, donc les modèles de niveau supérieur consomment moins d'énergie. Avec la
connaissance de la consommation d'énergie et de la durée de vie de la batterie des modèles, une
batterie appropriée qui répond aux exigences de déploiement telles que le coût, les dimensions
externes, la recharge de la batterie et la fréquence de remplacement peut être sélectionnée dans
la pratique. Bien que 13 h d'autonomie semblent faibles dans le palier supérieur, le temps
enregistré est le temps d'utilisation soutenu, où le système prend des photos et les traite de
manière continue. Cependant, dans un environnement forestier, où il n'y aura pas beaucoup de
véhicules qui passent, nous avons installé un déclencheur de mouvement pour maintenir l'appareil
en mode veille lorsqu'aucun véhicule n'est détecté pendant une durée déterminée. Par
conséquent, la durée de vie réelle de la batterie est beaucoup plus longue que ce temps
d'utilisation. De plus, la conception du système peut même être modifiée pour utiliser des batteries
de recharge solaire.
De plus, nous avons évalué les systèmes de communication de la solution matérielle de
preuve de concept. Nous avons déployé les modèles proposés dans des conditions
opérationnelles et testé l'exactitude de l'envoi des messages SMS et du module de déchargement
des données. Ainsi, nous avons vérifié que la solution matérielle proposée répond aux exigences
de l'étude de cas.
Capteurs 2022 , 22 , 1434 24de30

5. Discussion et leçons apprises


5.1. Contributions à l'étude
Nous avons présenté une approche innovante pour détecter et reconnaître
automatiquement les plaques d'immatriculation pour les plateformes embarquées avec des
capacités de calcul et de mémoire limitées. L'objectif global de cette étude est principalement
double : (1) développer des modèles de détection et de reconnaissance des plaques
d'immatriculation qui donnent des résultats compétitifs aux solutions matérielles de niveau
serveur, tout en étant suffisamment efficaces pour fonctionner sur des plates-formes embarquées
à faible coût et à faibles ressources. et (2) développer un système économe en énergie et viable à
déployer dans des zones sauvages ou éloignées sans connectivité Internet fiable ni alimentation
électrique directe. L'approche proposée a atteint les objectifs suivants;
• Conception et développement d'un modèle léger et peu coûteux de détection et de
reconnaissance de plaques d'immatriculation de véhicules par vision nocturne avec des
précisions compétitives.
• Développement d'un système de lecture de plaques d'immatriculation capable de
fonctionner sans connexion Internet et alimenté par des piles pendant une période
prolongée. Ainsi, la communication mobile pris en charge avec un minimum de ressources.
• Envoi de SMS pris en charge contenant le numéro de plaque d'immatriculation identifié vers
un numéro de téléphone donné (par exemple, envoi au service de la faune dans l'étude de
cas considérée).
• Conçu en apparence de petite taille et déployé discrètement sur le terrain. Ainsi, dans l'étude
de cas considérée, les braconniers peuvent ne pas remarquer ces pièges photographiques et
équipements.
• Analyser les compromis et explorer l'impact des contraintes telles que la précision et la
consommation d'énergie.
• Optimisation de l'utilisation des ressources et minimisation du délai de bout en bout.
Nous avons montré l'utilisation d'une nouvelle famille de réseaux de neurones appelés le
modèle Lite LP-Net pour la détection et la reconnaissance des plaques d'immatriculation, qui sont
légers et optimisés pour les appareils périphériques. Comme autre contribution novatrice, nous
avons utilisé un blaster infrarouge pour capturer des images nocturnes dans l'obscurité. Il capture
la plaque d'immatriculation grâce à son éclairage, sans éclairage visuel la nuit. Nous avons
également présenté une approche basée sur des études de cas comme preuve de concept pour
l'utilisation des modèles proposés dans des applications en temps réel dans la nature. Les résultats
de l'expérience ont montré la robustesse du système aux variations d'angle et sa grande précision
de reconnaissance la nuit. Fournissant une base pour de futures recherches sur la reconnaissance
des plaques d'immatriculation nocturnes, cette étude a également présenté une technique de
génération de données synthétiques pour créer un ensemble de données de plaques
d'immatriculation nocturnes polyvalentes avec des images RVB des plaques d'immatriculation
accessibles au public. Le principal avantage de cette approche est qu'elle aide à atténuer le
problème de la rareté des ensembles de données LP nocturnes volumineux et diversifiés.
De plus, comme le montre la figure 11 (à gauche), la conception du système a pris en compte
les aspects techniques tels que l'angle de la caméra, la distance à la caméra, l'emplacement de la
caméra. Les modèles détectent et reconnaissent la plaque d'immatriculation dans des
environnements contraints avec différentes vitesses de véhicules et conditions d'éclairage. Ainsi,
le modèle peut s'exécuter sur des appareils périphériques avec de faibles besoins en ressources et
a montré des valeurs de précision compétitives par rapport aux systèmes liés aux serveurs.
Cependant, la solution proposée peut être étendue pour former des modèles d'apprentissage pour
différentes variations d'image avec des environnements de contraintes tels que diverses conditions
météorologiques et des paramètres complexes tels que les rotations des plaques
d'immatriculation pour développer des modèles robustes. De plus, ces modèles de communication
et de calcul économes en énergie et à faible latence peuvent être déployés à faible coût, de sorte
que le coût total des modèles de niveau inférieur et de niveau supérieur est respectivement de 63
USD et 146 USD.
Capteurs 2022 , 22 , 1434 25de30

Sur la base de l'étude de cas considérée, la taille du modèle est un facteur limitant principal
lors du déploiement des modèles de reconnaissance de plaque d'immatriculation dans les
appareils périphériques, et une latence plus élevée peut être tolérable. Pour exécuter l'inférence,
la taille du modèle doit être inférieure à la mémoire de l'appareil. Comme le montrent les tableaux
5 et 6 , les tailles de modèle que nous proposons sont nettement plus petites et peuvent donc être
exécutées dans des périphériques de périphérie à mémoire limitée. De plus, bien que les modèles
de niveau supérieur aient une consommation d'énergie élevée, ils exécutent des modèles plus
précis et ont une latence plus faible par rapport aux configurations matérielles de niveau inférieur.
Nous avons simulé une expérience pour l'étude de cas du système de détection de véhicule
braconnier. Un tel système pourrait aider la faune à minimiser le taux de perte de son existence et
les problèmes violents. Elle affectera, directement et indirectement, les droits de la faune en
assurant la sécurité de la vie des animaux sauvages. Ainsi, réduit les dommages causés à la faune
dans les réserves en facilitant la poursuite des braconniers. En conséquence, cette approche peut
être utilisée pour identifier les plaques d'immatriculation des véhicules dans des endroits éloignés
sans accès à Internet ni au réseau électrique. Un système similaire peut être utilisé pour tout
scénario nécessitant la lecture de plaques d'immatriculation, comme la gestion des parkings, la
gestion du trafic.

5.2. Évaluation de la solution


Les problèmes de reconnaissance automatisée des plaques d'immatriculation ont de
nombreuses solutions proposées. Cependant, on ne peut nier que la plupart de ces solutions
dominantes sont limitées à des environnements sans contraintes avec des capacités de calcul et
des capacités de mémoire plus élevées. Malgré leur précision et leur latence dans le matériel de
niveau serveur, la plupart des solutions de pointe dans le domaine RAPI ne sont pas
implémentables sur les plates-formes embarquées en raison de leurs besoins en mémoire et en
énergie. Par exemple, le modèle RPNet [ 14 ] fournit actuellement les résultats de pointe dans le
domaine RAPI, mais il est néanmoins testé sur des PC avec huit processeurs Intel Core i7-6700 à
3,40 GHz, 24 Go de RAM et un Quadro P4000. GPU. Ainsi, bien qu'il atteigne une précision de plus
de 90 % pour la reconnaissance des plaques, il ne peut pas être exécuté sur une plate-forme
périphérique à faible coût telle qu'un Raspberry Pi. Cependant, dans cette étude, nous avons
proposé un système qui est implémentable sur ces plates-formes embarquées mais qui affiche
toujours des résultats compétitifs par rapport aux solutions de niveau serveur.
Étant donné que les solutions construites sur du matériel de niveau serveur nécessitent plus
de mémoire et de puissance de calcul, les chercheurs sont encouragés à créer des systèmes RAPI
légers pour exécuter ces solutions sur des appareils de pointe pour des scénarios pratiques. Pour
évaluer l'importance de notre approche, nous avons comparé la solution proposée avec les
systèmes RAPI embarqués existants, comme indiqué dans le tableau 9 . Étant donné que la plupart
des études ne signalent pas la consommation d'énergie ou les besoins en mémoire pour leurs
méthodes, une comparaison directe de ces valeurs n'a pas été possible. Cependant, notre solution
a montré des performances compétitives et les études ultérieures pourraient utiliser nos valeurs
comme référence pour guider les recherches futures. Contrairement aux études existantes, la
solution proposée n'est pas limitée à une plate-forme périphérique spécifique. Ainsi, notre
approche est généralisée sur trois niveaux matériels et tout périphérique périphérique dans les
spécifications ou les capacités de calcul de l'un de ces niveaux peut utiliser efficacement les
modèles proposés.
Tableau 9. Comparaison avec les études apparentées.
Ressource
Étude Base de données Exigence Précision Latence

Lee et al. Carte embarquée NVIDIA 95,24 %


[ 15 ] Près de 500 images Jetson TX1 ( journée ) N/A

Jeu de test 1 : 260 images Instruments texans uniques


Ensemble de test 2 : 2 600 Point fixe TM C64
Arth et 96%
images Différents types de DSP avec 1 Mo de cache, 0,05211 s
al. [ 16 ] ( journée )
conditions météorologiques SDRAM supplémentaire de 16
et d'éclairage Mo
Capteurs 2022 , 22 , 1434 26de30

Quadro K2200, Jetson Dét : 61 %, Dét : 0,026 s,


Rezvi et LP arrière italien avec Carte embarquée TX1, Rec : 92 % Rec : 0,027 s
al. [ 17 ] 788 récoltes Tablette Nvidia Shield K1 ( journée ) (Quadro K2200)

Jeu de données Dét : 99,37 %,


Izidio et Framboise Pi3 (processeur Rec : 99,53 %
personnalisé avec 4,88 s
al. [ 18 ] ARM Cortex-A53) ( journée )
1190 images,

CCPD (200 000 images),


Ensemble de données
Intel® Dét : 90 %,
nocturnes synthétiques Raspberry Pi 3B+, Dét : 0,011 s Rec
élevé - Rec : 98,73 %
Solution de (CCPD), NCS2 : 0,02176 s
( la nuit )
niveau Vraie nuit
proposée 100 images
De plus, comme le montrent les tableaux 5 et 6 , les modèles de détection de niveau supérieur
proposés présentent des performances proches de l'état de l'art actuel, RPNet [ 14 ]. Dans le même
temps, tous les modèles, à l'exception de ceux de niveau inférieur, affichent des performances
supérieures à Yolo-V3 [ 46 ], qui est un détecteur d'objets à usage général populaire qui a été utilisé
dans plusieurs solutions de détection LP conçues pour s'exécuter sur du matériel de qualité
serveur. [ 31 , 65 ]. De même, compte tenu des modèles de reconnaissance, les modèles de niveau
supérieur fonctionnent mieux que les modèles de niveau inférieur. Contrairement à l'étape de
détection, ces modèles de niveau supérieur surpassent les modèles de pointe actuels tels que
RPNet [ 14 ]. Ici, RPNet [ 14 ] et TE2E [ 64 ] sont des modèles à un étage conçus pour détecter et
reconnaître la LP en un seul passage vers l'avant. Cela montre que nos modèles sont compétitifs
avec les solutions de pointe existantes en termes de précision, ce qui était l'objectif de la
recherche.
De plus, notre solution est testée pour les performances diurnes et nocturnes, tandis que la
plupart des autres méthodes sont limitées aux performances diurnes uniquement. Nous avons
également prouvé la facilité d'utilisation de notre système dans le monde réel en organisant une
étude de cas et avons montré la robustesse du système aux variations de l'angle de la caméra et
aux différentes conditions d'éclairage. Les performances du modèle peuvent être analysées plus
en détail à l'aide d'une matrice de confusion, car elle affiche un résumé du nombre de prédictions
correctes et incorrectes avec des valeurs de comptage pour chaque classe. De plus, nous avons
validé notre solution avec un ensemble de données vaste et diversifié avec plus de 200 000 images
dans différentes conditions. De plus, nous avons obtenu un temps d'exécution moindre par rapport
à d'autres systèmes embarqués, montrant ainsi que notre solution est plus adaptée aux
applications temps réel. De plus, nous avons réussi à maintenir la consommation électrique
maximale de la solution haut de gamme à 6,2 W et la durée d'utilisation moyenne de la batterie à
13,04 h, même dans le pire des cas. De plus, la solution de bas niveau avec une consommation
électrique de 0,8 W a montré un temps d'utilisation de la batterie de 132,15 h. Ainsi, la solution
ALPR proposée est légère, économe en énergie, peu coûteuse et fonctionne en temps réel.
Cependant, l'étude n'a pas été testée dans différentes conditions météorologiques et
environnements bruyants, car l'objectif principal de cette étude était de concevoir et de
développer un modèle RAPI à déployer dans des environnements à faibles ressources. De plus,
cette étude a fourni une solution à déployer dans la nature, où il n'y a pas de connectivité Internet
stable ou de réseau électrique direct, laissant ainsi le SMS comme seule méthode de
communication possible. Par conséquent, bien que les fournisseurs de cloud tels qu'Amazon Web
Services (AWS) fournissent des services d'informatique de périphérie pour des cas d'utilisation de
périphérie spécifiques tels que celui-ci, ils ne prennent toujours pas en charge les environnements
à ressources limitées tels qu'ils sont envisagés dans cette étude.
6. Conclusions
Cet article présente la réalisation d'un système de reconnaissance automatique de plaques
d'immatriculation implémenté sur des dispositifs embarqués avec des ressources limitées. Nous
avons exploité des stratégies de recherche d'architecture neuronale indépendantes du matériel et
efficaces pour découvrir un nouvel ensemble de réseaux neuronaux pour la détection et la
reconnaissance des plaques d'immatriculation qui sont suffisamment efficaces pour s'exécuter sur
des plates-formes périphériques. Dans l'ensemble, le système proposé a fait preuve de robustesse
face aux variations d'angle, aux changements d'éclairage extrêmes tels que le jour et la nuit, et a
Capteurs 2022 , 22 , 1434 27de30

obtenu des résultats compétitifs par rapport aux solutions matérielles de pointe de qualité serveur.
Par conséquent, nos résultats sont significatifs compte tenu des contraintes d'un système
embarqué. De plus, le système proposé est adapté pour être déployé dans un environnement
sauvage, car il ne repose pas sur la connexion Internet pour la communication ou sur un réseau
électrique direct pour le fonctionnement. De plus,
nous avons créé un ensemble de données synthétiques sur les plaques d'immatriculation
nocturnes avec un ensemble de données de stationnement urbain chinois (CCPD) largement utilisé
et un ensemble de données nocturnes réelles à petite échelle pour les plaques d'immatriculation
sri-lankaises qui reflètent les conditions réelles. De plus, pour une comparaison équitable avec les
solutions matérielles de niveau serveur existantes conçues pour des performances diurnes, nous
avons évalué notre système par rapport à un grand ensemble de données diurnes. De plus, pour
la généralisation des solutions sur différentes configurations matérielles, nous avons proposé des
modèles pour trois configurations matérielles comme basse, moyenne et haute en tenant compte
de leurs capacités de calcul et de leur coût.
Cette étude peut être étendue pour personnaliser le processus de recherche d'architecture
neuronale pour différentes plates-formes matérielles. Avec une stratégie de recherche
d'architecture de modèle unique telle que SMASH [ 75 ], le temps de recherche pour découvrir des
modèles optimisés pour n'importe quelle plate-forme matérielle peut être réduit à un temps O(
1). En ce qui concerne la précision des processus de détection et de reconnaissance, même si nos
résultats sont considérés comme fiables, il serait impératif d'évaluer le système sur différents
ensembles de données LP pour un raffinement supplémentaire. En outre, le système proposé peut
également être étendu à des applications telles que l'identification de plaques d'immatriculation
illégales par rapport à une source de données externe, ce qui serait une direction prometteuse à
explorer davantage.

de l'auteur : Tous les auteurs ont également contribué à l'étude. DM et CP ont contribué à la
conceptualisation et à la conception de l'étude. La préparation du matériel, la méthodologie, la validation,
l'analyse, la rédaction du manuscrit et la préparation du projet original ont été effectuées par HP et JSDM a
supervisé l'ensemble de l'étude et a fourni des commentaires critiques et affiné le manuscrit avec révision et
édition. CP a également soutenu la supervision, l'examen et l'administration du projet. L'OR a aidé à proposer
la méthodologie de recherche et à peaufiner l'article lors de la révision et de l'édition du manuscrit. Tous les
auteurs ont lu et accepté la version publiée du manuscrit.

Financement: Le travail de Charith Perera est partiellement financé par EPSRC PETRAS 2 (EP/S035362/1).
Charit
Le travail de Perera et Omer Rana est partiellement soutenu par EPSRC International Partnerships
(EP/W524219/1).

du comité d'examen institutionnel : N'est pas applicable.

de consentement éclairé : N'est pas applicable.

de disponibilité des données : N'est pas applicable.

Conflits d' intérêt : Les auteurs ne déclarent aucun conflit d'intérêt.

Les références
1. Khan, LU; Yaqoob, je. ; Tran, NH; Kazmi, SMA ; Dang, TN ; Hong, CS Villes intelligentes activées par l'informatique de périphérie : une enquête
complète. IEEE Internet Things J. 2020 , 7 , 10200–10232. [ CrossRef ]
2. Hossain, SA ; Anisur Rahman, M.; Hossain, M. Cadre informatique Edge pour permettre la connaissance de la situation dans la ville
intelligente basée sur l'IoT. J. Distribution parallèle. Calcul. 2018 , 122 , 226–237. [ CrossRef ]
3. Chakraborty, T.; Datta, SK Domotique à l'aide de l'Edge Computing et de l'Internet des objets. Au Symposium international sur l'électronique
grand public (ISCE ) ; IEEE : Kuala Lumpur, Malaisie, 2017 ; p. 47–49.
4. Gamage, G. ; Sudasingha, I. ; Perera, I.; Meedeniya, D. Rétablissement des trackers humains de corrélation Dlib sous occlusions dans le suivi
basé sur la détection humaine. Dans Actes de la 18e Conférence internationale sur les progrès des TIC pour les régions émergentes (ICTer),
Colombo, Sri Lanka, 26-29 septembre 2018 ; IEEE : Colombo, Sri Lanka, 2018 ; p. 92–98. [ CrossRef ]
5. Padmasiri, H. ; Madurawe, R.; Abeysinghe, C.; Meedeniya, D. Détection automatisée de l'occupation du stationnement des véhicules en
temps réel. À la Conférence de recherche en ingénierie de Moratuwa (MERCon ) ; IEEE : Colombo, Sri Lanka, 2020 ; pages 644–649. [ CrossRef
]
Capteurs 2022 , 22 , 1434 28de30

6. Wang, X.; Huang, J. Vehicular Fog Computing : permettre la gestion du trafic en temps réel pour les villes intelligentes. IEEE Wirel. Commun.
2018 , 26 , 87–93. [ CrossRef ]
7. Deng, S.; Zhao, H.; Fang, W.; Yin, J.; Dustdar, S.; Zomaya, AY Edge Intelligence : la confluence de l'informatique de périphérie et de
l'intelligence artificielle. IEEE Internet Things J. 2020 , 7 , 7457–7469. [ CrossRef ]
8. Zhou, Z.; Chen, X.; Mensonge.; Zeng, L.; Luo, K.; Zhang, J. Edge Intelligence : ouvrir le dernier kilomètre de l'intelligence artificielle avec Edge
Computing. Proc. IEEE 2019 , 107 , 1738–1762. [ CrossRef ]
9. Shashirangana, J.; Padmasiri, H.; Meedeniya, D.; Perera, C. Reconnaissance automatisée des plaques d'immatriculation : une enquête sur
les méthodes et les techniques. Accès IEEE 2021 , 9 , 11203–11225. [ CrossRef ]
10. Yu, W.; Liang, F.; Lui, X. ; Hatcher, GT ; Lu, C.; Lin, J.; Yang, X. Une enquête sur l'informatique de périphérie pour l'Internet des objets. Accès
IEEE 2018 , 6 , 6900–6919. [ CrossRef ]
11. Xue, H.; Huang, B.; Qin, M.; Zhou, H.; Yang, H. Edge Computing pour l'Internet des objets : une enquête. En 2020 Conférences internationales
sur l'Internet des objets (iThings) et IEEE Green Computing and Communications (GreenCom) et IEEE Cyber, Physical and
Social Computing (CPSCom) et IEEE Smart Data (SmartData) et IEEE Congress on Cybermatics (Cybermatics ) ; IEEE : Rhodes, Grèce, 2020 ;
pp. 755–760. [ CrossRef ]
12. Wu, B.; Dai, X.; Zhang, P.; Wang, Y.; Soleil, F. ; Wu, Y.; Tian, Y.; Vajda, P.; Jia, Y.; Keutzer, K. FBNet : Conception ConvNet efficace et compatible
avec le matériel via une recherche d'architecture neuronale différentiable. Dans Actes de la conférence IEEE sur la vision par ordinateur et
la reconnaissance de formes (CVPR), Long Beach, Californie, États-Unis, 15-20 juin 2019 ; Computer Vision Foundation/IEEE : Long Beach,
Californie, États-Unis, 2019 ; pages 10734–10742.
13. Xu, Y.; Xie, L.; Zhang, X.; Chen, X.; Qi, G.; Tian, Q. ; Xiong, H. PC-DARTS : Connexions de canal partielles pour la recherche d'architecture à
mémoire efficace. arXiv 2020 , arXiv:1907.05737.
14. Xu, Z.; Yang, W.; Meng, A.; Lu, N.; Huang, H.; Ying, C.; Huang, L. Vers la détection et la reconnaissance des plaques d'immatriculation de
bout en bout : un grand ensemble de données et une base de référence. Dans Actes de la Conférence européenne sur la vision par
ordinateur (ECCV), Munich, Allemagne, 8-14 septembre 2018 ; p. 255–271.
15. Lee, S.; Fils, K. ; Kim, H.; Park, J. Reconnaissance de plaque de voiture basée sur CNN utilisant un système embarqué avec GPU. Dans Actes
du
2017 10th International Conference on Human System Interactions (HSI), Ulsan, Corée, 17-19 juillet 2017 ; p. 239–241. [ CrossRef ]
16. Arth, C.; Limberger, F.; Bischof, H. Reconnaissance de plaques d'immatriculation en temps réel sur une plate-forme DSP intégrée. Dans Actes
du
Conférence IEEE 2007 sur la vision par ordinateur et la reconnaissance de formes, Minneapolis, MN, États-Unis, 18-23 juin 2007 ; p. 1–8. [
CrossRef ]
17. Rizvi, STH ; Patti, D.; Bjorklund, T.; Cabodi, G.; Francini, G. Détection, localisation et reconnaissance de plaques d'immatriculation basées sur
des classificateurs profonds sur une plate-forme mobile alimentée par GPU. Futur Internet 2017 , 9 , 66. [ CrossRef ]
18. Izidio, D.; Ferreira, A.; Barros, E. Un système intégré de reconnaissance automatique des plaques d'immatriculation utilisant le Deep
Learning. Dans Actes du VIII Symposium brésilien sur l'ingénierie des systèmes informatiques (SBESC), Salvador, Brésil, 5-8 novembre 2018 ;
pp. 38–45.; [ CrossRef ]
19. Liew, C.; Sur, CK ; Alfred, R.; Guan, TT ; Anthony, P. Système de reconnaissance de plaque d'immatriculation mobile en temps réel avec
réseaux de neurones. Dans Journal of Physics : Série de conférences ; IOP Publishing Ltd. : Bristol, Royaume-Uni, 2020 ; Tome 1502, p.
012032.
20. Wu, S.; Zhai, W.; Cao, Y. PixTextGAN : Synthèse d'images textuelles sensibles à la structure pour la reconnaissance des plaques
d'immatriculation. Processus d'imagerie IET. 2019 , 13 , 2744–2752. [ CrossRef ]
21. Chang, EST ; Park, G. Méthode améliorée de détection et de reconnaissance des plaques d'immatriculation à l'aide d'une plaque
d'immatriculation synthétique. J. Broadcast Eng. 2021 , 26 , 453–462.
22. Barreto, SC ; Lambert, JA ; de Barros Vidal, F. Utilisation d'images synthétiques pour le processus de reconnaissance d'apprentissage en
profondeur sur la reconnaissance automatique des plaques d'immatriculation. Dans Actes de la Conférence mexicaine sur la reconnaissance
des formes, Querétaro, Mexique, 26-29 juin 2019 ; p. 115–126.
23. Harrysson, O. Détection de plaque d'immatriculation à l'aide de données synthétiques issues de la superposition. Mémoire de maîtrise,
Université de Lund, Lund, Suède, 2019.
24. Bjorklund, T.; Fiandrotti, A.; Annarumma, M.; Francini, G.; Magli, E. Reconnaissance automatique des plaques d'immatriculation avec des
réseaux de neurones convolutifs formés sur des données synthétiques. Dans Actes du 19e atelier international sur le traitement du signal
multimédia (MMSP) de l'IEEE 2017, Luton, Royaume-Uni, 16-18 octobre 2017 ; p. 1–6. [ CrossRef ]
25. Zéni, LF ; Jung, C. Détection de caractères faiblement supervisée pour la reconnaissance des plaques d'immatriculation. Dans Actes de la
33e Conférence SIBGRAPI 2020 sur les graphiques, les motifs et les images (SIBGRAPI), Porto de Galinhas, Brésil, 7-10 novembre 2020 ; p.
218–225.
26. Saluja, R.; Maheshwari, A.; Ramakrishnan, G.; Chaudhuri, P.; Carman, M. Ocr on-the-go : systèmes robustes de bout en bout pour lire les
plaques d'immatriculation et les panneaux de signalisation. Dans Actes de la Conférence internationale 2019 sur l'analyse et la
reconnaissance de documents (ICDAR), Sydney, Australie, 20-25 septembre 2019 ; p. 154–159.
27. Matas, J.; Zimmermann, K. Plaque d'immatriculation sans contrainte et localisation et reconnaissance de texte. Dans Actes de la conférence
IEEE sur les systèmes de transport intelligents, Vienne, Autriche, 13-16 septembre 2005 ; p. 225–230.
Capteurs 2022 , 22 , 1434 29de30

28. Zhang, X.; Shen, P.; Xiao, Y.; Li, B.; Hu, Y.; Qi, D.; Xiao, X.; Zhang, L. Emplacement de la plaque d'immatriculation à l'aide de l'algorithme
AdaBoost. Dans Actes de la Conférence internationale IEEE 2010 sur l'information et l'automatisation, Harbin, Chine, 20-23 juin 2010 ; pages
2456–2461. [ CrossRef ]
29. Boonsim, N.; Prakoonwit, S. Reconnaissance de la marque et du modèle de voiture dans des conditions d'éclairage limitées la nuit. Modèle
Anal. Appl. 2017 , 20 , 1195–1207. [ CrossRef ]
30. Xie, L.; Ahmad, T.; Jin, L.; Liu, Y.; Zhang, S. Une nouvelle méthode basée sur CNN pour la détection multidirectionnelle des plaques
d'immatriculation des voitures. IEEE Trans. Renseignement. Transp. Syst. 2018 , 19 , 507–517. [ CrossRef ]
31. Laroca, R.; Zanlorensi, LA ; Gonçalves, GR; Todt, E.; Schwartz, WR; Menotti, D. Un système de reconnaissance automatique de plaque
d'immatriculation efficace et indépendant de la disposition basé sur le détecteur YOLO. arXiv 2019 , arXiv:1909.01754.
32. Montazzolli, S.; Jung, C. Détection et reconnaissance des plaques d'immatriculation brésiliennes en temps réel à l'aide de réseaux de
neurones à convolution profonde. Dans Actes de la 30e conférence SIBGRAPI 2017 sur les graphiques, les motifs et les images (SIBGRAPI),
Rio de Janeiro, Brésil, 17-20 octobre 2017. [ CrossRef ]
33. Wang, F.; Homme, L. ; Wang, B.; Xiao, Y.; Pan, W. ; Lu, X. Algorithme basé sur Fuzzy pour la reconnaissance des couleurs des plaques
d'immatriculation. Reconnaissance de modèle. Lett. 2008 , 29 , 1007–1020. [ CrossRef ]
34. Anagnostopoulos, CN; Anagnostopoulos, I. ; Loumos, V.; Kayafas, E. Un algorithme de reconnaissance de plaques d'immatriculation pour
les applications de systèmes de transport intelligents. IEEE Trans. Renseignement. Transp. Syst. 2006 , 7 , 377–392. [ CrossRef ]
35. Selmi, Z.; Ben Halima, M.; Alimi, A. Système d'apprentissage en profondeur pour la détection et la reconnaissance automatiques des plaques
d'immatriculation. Dans Actes de la 14e Conférence internationale 2017 de l'IAPR sur l'analyse et la reconnaissance de documents (ICDAR),
Kyoto, Japon, 9-15 novembre 2017 ; pages 1132–1138. [ CrossRef ]
36. Luo, L.; Soleil, H. ; Zhou, W.; Luo, L. Une méthode efficace de localisation des plaques d'immatriculation. Dans Actes de la première
conférence internationale 2009 sur les sciences et l'ingénierie de l'information, Lisbonne, Portugal, 23-26 mars 2009 ; pp. 770–773.
37. Busch, C.; Domer, R.; Freytag, C.; Ziegler, H. Reconnaissance basée sur les fonctionnalités des flux vidéo de trafic pour le traçage d'itinéraire
en ligne. Dans les actes de la 48e conférence sur la technologie des véhicules VTC '98 de l'IEEE. Pathway to Global Wireless Revolution (Cat.
No.98CH36151), Ottawa, ON, Canada, 21-21 mai 1998 ; IEEE : Ottawa, ON, Canada, 1998 ; Volume 3, pages 1790–1794.
38. Sarfraz, M.; Ahmed, M.; Ghazi, SA Système de reconnaissance de plaque d'immatriculation saoudienne. Dans Actes de la Conférence
internationale 2003 sur la modélisation géométrique et les graphiques, Londres, Royaume-Uni, 16-18 juillet 2003 ; p. 36–41.
39. Sanyuan, Z.; Mingli, Z.; Xiuzi, Y. Extraction de caractères de plaque de voiture dans un environnement compliqué. Dans Actes de la
Conférence internationale IEEE 2004 sur les systèmes, l'homme et la cybernétique (IEEE Cat. No.04CH37583), La Haye, Pays-Bas, 10-13
octobre 2004 ; Volume 5, p. 4722–4726.
40. Yoshimori, S.; Mitsukura, Y.; Fukumi, M.; Akamatsu, N.; Pedrycz, W. Système de détection de plaque d'immatriculation en utilisant la fonction
de seuil et la méthode de correspondance de modèle améliorée. Dans Actes de la réunion annuelle de l'IEEE sur l'information floue, Banff,
AB, Canada, 27–30 juin 2004 ; Volume 1, p. 357–362.
41. Redmon, J.; Divvala, S.; Girshick, R.; Farhadi, A. Vous ne regardez qu'une seule fois : détection d'objets unifiée en temps réel. Dans Actes de
la conférence IEEE 2016 sur la vision par ordinateur et la reconnaissance de formes (CVPR), Las Vegas, NV, États-Unis, 27-30 juin 2016 ;
pages 779–788.
42. Laroca, R.; Severo, E.; Zanlorensi, L.; Oliveira, L.; Gonçalves, G.; Schwartz, W.; Menotti, D. Une reconnaissance automatique de plaque
d'immatriculation en temps réel robuste basée sur le détecteur YOLO. Dans Actes de la Conférence internationale conjointe sur les réseaux
de neurones 2018 (IJCNN), Rio de Janeiro, Brésil, 8-13 juillet 2018 ; p. 1–10.
43. Hsu, GS ; Ambikapathi, AM ; Chung, SL ; Su, CP Détection de plaque d'immatriculation robuste dans la nature. Dans Actes de la 14e
Conférence internationale IEEE 2017 sur la vidéo avancée et la surveillance basée sur le signal (AVSS), Lecce, Italie, 29 août-1er septembre
2017 ; p. 1–6.
44. Das, S.; Mukherjee, J. Technique de reconnaissance automatique des plaques d'immatriculation utilisant un réseau neuronal convolutif. Int.
J. Comput. Appl. 2017 , 169 , 32–36. [ CrossRef ]
45. Yonetsu, S.; Iwamoto, Y.; Chen, YW YOLOv2 en deux étapes pour une détection précise des plaques d'immatriculation dans les scènes
complexes. Dans Actes de la conférence internationale IEEE 2019 sur l'électronique grand public (ICCE), Las Vegas, NV, États-Unis, 11-13
janvier 2019 ; p. 1–4. [ CrossRef ]
46. Redmon, J.; Farhadi, A. YOLOv3 : Une amélioration progressive. arXiv 2018 , arXiv:1804.02767.
47. Berg, A.; Öfjäll, K.; Ahlberg, J.; Felsberg, M. Détection de rails et d'obstacles à l'aide d'une caméra thermique montée sur un train. Dans
Actes de la Conférence scandinave sur l'analyse d'images, Copenhague, Danemark, 15-17 juin 2015 ; p. 492–503. [ CrossRef ] 48. Siegel, R.
Détection des mines terrestres. Instrument IEEE. Mes. Mag. 2002 , 5 , 22–28. [ CrossRef ]
49. Zhang, L.; Gonzalez-Garcia, A.; van de Weijer, J.; Danelljan, M.; Khan, FS Génération de données synthétiques pour le suivi infrarouge
thermique de bout en bout. IEEE Trans. Processus d'image. 2019 , 28 , 1837–1850. [ CrossRef ]
50. Isola, P.; Zhu, J.; Zhou, T.; Efros, AA Traduction d'image à image avec des réseaux contradictoires conditionnels. Dans Actes de la conférence
IEEE 2017 sur la vision par ordinateur et la reconnaissance de formes (CVPR), Honolulu, HI, États-Unis, 21-26 juillet 2017 ; pages 5967–5976.
51. Zhu, J. ; Parc, T. ; Isola, P.; Efros, AA Traduction d'image à image non appariée à l'aide de réseaux contradictoires à cycle cohérent. Dans
Actes de la Conférence internationale IEEE 2017 sur la vision par ordinateur (ICCV), Venise, Italie, 22-29 octobre 2017 ; pages 2242–2251.
52. Ismail, M. Reconnaissance de plaque d'immatriculation pour le cas des véhicules en mouvement : la nuit et sous la pluie. Dans Actes de la
deuxième Conférence internationale sur l'informatique et l'informatique (ICIC) de 2017, Jayapura, Indonésie, 1er-3 novembre 2017 ; p. 1–
4.
Capteurs 2022 , 22 , 1434 30de30

[ CrossRef ]
53. Mahini, H.; Kasaei, S.; Dorri, F.; Dorri, F. Une méthode de localisation de plaque d'immatriculation basée sur des fonctionnalités efficaces.
Dans Actes de la 18e Conférence internationale sur la reconnaissance des formes (ICPR'06), Hong Kong, Chine, 20-24 août 2006 ; Volume
2, p. 841–844. [ CrossRef ]
54. Chen, Y.-T. ; Chuang, J.-H.; Teng, W.-C. ; Lin, H.-H.; Chen, H.-T. Détection robuste des plaques d'immatriculation dans les scènes nocturnes à
l'aide d'un illuminateur IR à intensités multiples. Dans Actes du Symposium international IEEE 2012 sur l'électronique industrielle,
Hangzhou, Chine, 28-31 mai 2012 ; pp. 893–898. [ CrossRef ]
55. Azam, S.; Islam, M. Détection automatique des plaques d'immatriculation dans des conditions dangereuses. J.Vis. Commun. Représentation
d'image. 2016 , 36 . [ CrossRef ]
56. Shi, W.; Cao, J.; Zhang, Q.; Li, Y.; Xu, L. Edge Computing : vision et défis. IEEE Internet Things J. 2016 , 3 , 637–646. [ CrossRef ]
57. Shashirangana, J.; Padmasiri, H.; Meedeniya, D.; Perera, C.; Nayak, SR; Nayak, J.; Vimal, S.; Kadry, S. Reconnaissance de plaque
d'immatriculation à l'aide de l'architecture neurale Recherche d'appareils Edge. Int. J. Intel. Syst. Spéc. Problème Renseignement ind.
complexe Syst. 2021 , 36 , 1–38. [ CrossRef ]
58. Hochstetler, J.; Padidela, R.; Chen, Q.; Yang, Q.; Fu, S. Apprentissage en profondeur intégré pour l'informatique de périphérie véhiculaire.
Dans Actes du 3e symposium ACM/IEEE 2018 sur l'informatique de périphérie, Bellevue, WA, États-Unis, 25-27 octobre 2018 ; p. 341–343.
[ CrossRef ]
59. Howard, AG ; Zhu, M.; Chen, B.; Kalenichenko, D.; Wang, W.; Weyand, T.; Andreetto, M.; Adam, H. MobileNets : Réseaux neuronaux
convolutifs efficaces pour les applications de vision mobile. arXiv 2017 , arXiv:cs.CV/1704.04861.
60. Yi, S.; Hao, Z.; Qin, Z.; Li, Q. Fog computing : plate-forme et applications. Dans Actes du 3e atelier sur les sujets d'actualité dans les systèmes
et technologies Web, HotWeb 2015, Washington, DC, États-Unis, 12-13 novembre 2016 ; p. 73–78. [ CrossRef ]
61. Ha, K.; Chen, Z.; Hu, W.; Richter, W.; Pillai, P.; Satyanarayanan, M. Vers une assistance cognitive portable. Dans Actes des Actes de la 12e
Conférence internationale annuelle sur les systèmes, applications et services mobiles, Bretton Woods, NH, États-Unis, 16-19 juin 2014 ; p.
68–81. [ CrossRef ]
62. Chun, BG; Ihm, S.; Maniatis, P.; Naik, M.; Patti, A. CloneCloud : Exécution élastique entre l'appareil mobile et le cloud. Dans Actes de la
conférence EuroSys 2011, Salzbourg, Autriche, 10-13 avril 2011 ; p. 301–314. [ CrossRef ]
63. Luo, X.; Xie, M. Conception et réalisation d'un système de reconnaissance de plaque d'immatriculation embarqué basé sur DSP. Dans Actes
de la deuxième conférence internationale 2010 sur la modélisation et la simulation informatiques, Sanya, Chine, 22-24 janvier 2010 ; 2ieme
volume; p. 272–276. [ CrossRef ]
64. Li, H.; Wang, P.; Shen, C. Vers la détection et la reconnaissance de bout en bout des plaques d'immatriculation des voitures avec les réseaux
de neurones profonds. IEEE Trans. Renseignement. Transp. Syst. 2019 , 20 , 1126–1136. [ CrossRef ]
65. Jamtsho, Y.; Riyamongkol, P.; Waranusast, R. Localisation en temps réel des plaques d'immatriculation bhoutanaises à l'aide de YOLO. ICT
Express 2020 , 6 , 121–124. [ CrossRef ]
66. Francis-Mezger, P.; Weaver, VM Un système d'exploitation Raspberry Pi pour explorer les concepts avancés du système de mémoire. Dans
Actes du Symposium international sur les systèmes de mémoire ; Association for Computing Machinery : New York, NY, États-Unis, 2018 ;
MEMSYS '18 ; p. 354–364. [ CrossRef ]
67. Tolmacheva, A.; Ogurtsov, D.; Dorrer, M. Justification du choix d'une plate-forme informatique matérielle monocarte pour un réseau
neuronal effectuant un traitement d'image. Conf. Ser. Mater. Sci. Ing. 2020 , 734 , 012130. [ CrossRef ]
68. Pagnutti, M.; Ryan, R.; Cazenavette, G.; Or, M. ; Harlan, R.; Leggett, E.; Pagnutti, J. Poser les bases pour utiliser l'imagerie du module de
caméra Raspberry Pi 3 V2 à des fins scientifiques et techniques. J. Électron. Imagerie 2017 , 26 , 013014. [ CrossRef ]
69. Gagnez, SS ; Thwe, TT; Swe, MM ; Aung, MM Appelez et envoyez des messages en utilisant le module GSM. J. Myanmar Acad. Arts Sci. 2019
, XVII , 99–107.
70. Odat, E.; Shamma, JS ; Claudel, C. Classification des véhicules et estimation de la vitesse à l'aide de capteurs combinés infrarouge
passif/ultrasons. IEEE Trans. Renseignement. Transp. Syst. 2017 , 19 , 1593–1606. [ CrossRef ]
71. Zappi, P.; Farella, E.; Benini, L. Suivi de la direction et de la distance du mouvement avec des capteurs infrarouges pyroélectriques. IEEE Sens.
J. 2010 , 10 , 1486–1494. [ CrossRef ]
72. Hwang, S.; Park, J.; Kim, N.; Choi, Y.; Kweon, IS Détection multispectrale des piétons : ensemble de données de référence et lignes de base.
Dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR), Boston, MA, États-Unis, 7-12 juin 2015.
73. Sandler, M.; Howard, A.; Zhu, M.; Zhmoginov, A.; Chen, L. MobileNetV2 : Résidus inversés et goulots d'étranglement linéaires. Dans Actes
de la conférence IEEE/CVF 2018 sur la vision par ordinateur et la reconnaissance de formes, Salt Lake City, UT, États-Unis, 18-22 juin 2018 ;
pages 4510–4520. [ CrossRef ]
74. Padmasiri, H. ; Shashirangana, J. Lite-LPNet. 2021. Disponible en ligne : https://github.com/heshanpadmasiri/Lite-LPNet (consulté le 20
octobre 2021).
75. Brock, A.; Lim, T.; Ritchie, JM; Weston, N. SMASH : Recherche d'architecture de modèle unique via HyperNetworks. arXiv 2018 ,
arXiv:1708.05344.

Vous aimerez peut-être aussi