Spécialité : Electronique
Doctorant : Abdelli Ali
Directeur de thèse : Mr. Van Tâm NGUYEN
Laboratoire de recherches : Laboratoire de Traitement et Communication de l'Information
L'IA est essentielle au succès de l’IoT. Les méthodes classiques ne peuvent plus s'appliquer
aux déploiements d’IoT où il y a d'énormes volumes de données d’IoT générés à un rythme
très élevé. Jusqu'à présent, l'IA se trouve principalement à deux endroits au sein du système
d’IoT : le centre et la “edge”. L'IA à proximité des nœuds d'IoT améliorera la sécurité, la
confidentialité et aider à réduire la latence et la bande passante.
AIoT décrit la convergence des systèmes IoT et IA avec l'objectif commun de générer des
données d’IoT utiles et de traiter ces données le plus tôt possible. L'impact de la
combinaison de l'IoT et de l'IA pourra être énorme. AIoT non seulement rapproche le calcul
de l'endroit où se trouvent les données, mais ajoute l'intelligence nécessaire pour améliorer
la fiabilité, l'efficacité et la productivité.
L'architecture d'IoT actuelle met l'accent sur le traitement centralisé de l'information, les
objets connectés servant principalement de nœuds de collecte de données. Alors que le
nombre d'objets connectés augmente de façon exponentielle, l'architecture centralisée des
réseaux IoT souffre d'importants goulots d'étranglement, notamment en connectivité
(interférence), en latence (serveurs distants), en consommation d'énergie (coût de la
communication distante), en traitement centralisé des données (inondation de données). ) et
en gestion de réseau centralisée (nombre d'objets). Pour remédier à ces goulots
d'étranglement, dans cette thèse de doctorat, nous proposerons deux changements majeurs
dans l'architecture actuelle de l'IoT. Premièrement, nous proposerons de décentraliser la
gestion et le calcul du réseau, en permettant aux objets connectés (les nœuds) de devenir
des éléments actifs et d'effectuer des tâches distribuées au sein du réseau, notamment la
détection de réseau, la décision de connectivité, la vérification de la sécurité, la compression
des données, l'élagage des données et le calcul distribué. Deuxièmement, nous renforcerons
l'intelligence des nœuds individuels en intégrant l'intelligence artificielle (IA) et l'analyse
décisionnelle de la théorie des jeux. L'IA intégrée aux nœuds d'IoT améliorera la sécurité,
la confidentialité et contribuera à réduire la latence et la bande passante. AIoT non
seulement rapproche le calcul de l'endroit où les données sont générées, mais ajoute
l'intelligence nécessaire pour améliorer la robustesse, la fiabilité, l'efficacité, la disponibilité
et la productivité.
Le défi majeur de l'architecture proposée est la limitation des ressources matérielles au
niveau des nœuds. La plupart des réseaux d'IoT reposent sur des appareils IoT à faible coût
et à faible consommation d'énergie, qui ont une mémoire, une puissance de calcul et un
stockage très limité. La mémoire sur puce peut être 3 ordres de grandeur plus petite que les
appareils mobiles et 5 à 6 ordres de grandeur plus petite que les GPU, ce qui rend impossible
le déploiement d'algorithmes d'apprentissage de haute performance (tels que l'apprentissage
profond). De plus, ils peuvent ne pas avoir de DRAM ni de système d'exploitation et le
budget mémoire serré limitera la taille de l'entrée. Enfin, ces appareils d'IoT intégrés ouvrent
des opportunités pour les intrus de commettre des cyberattaques, c'est-à-dire des attaques
de trous noirs, de trous gris et DDoS. Par conséquent, de nouvelles méthodes sont
nécessaires pour les contrer dans les futurs appareils.
Pour surmonter les limitations de la puissance de calcul et de la mémoire au niveau des
nœuds dans un réseau d'IoT décentralisé, nous proposons les tâches de recherche suivantes
:
1) Développement d'algorithmes d'apprentissage profond utilisant une architecture basée
sur l'attention (telle que Transformer) pour les systèmes à ressources limitées. L'architecture
basée sur l'attention peut être conçue pour se concentrer sur des informations importantes
et peut capturer des séquences temporelles, qui peuvent ensuite être intégrées à l'analyse
décisionnelle basée sur la théorie des jeux pour prendre des décisions au niveau du nœud, y
compris les décisions de sécurité;
2) Développement d'algorithmes pour la compression de modèles, y compris l'élagage, la
quantification, le codage, le calcul approximatif ;
3) Conception d'algorithmes d'économie d'énergie prenant en compte le coût énergétique
des mouvements de données ;
4) Inférence sur les patchs/blocs, co-conception de l'architecture et planification des
inférences ;
5) Analyse et optimisation de la distribution mémoire, co-conception matérielle et
algorithmique.
2. Objectif de travail
Le candidat devra produire des rapports scientifiques régulièrement pour détailler les
résultats obtenus, à partir des ces rapports nous allons produire des
3) Logiciel / Brevets
[1] Y. LeCun, Y. Bengio, and G. Hinton, “Deep learning,” Nature, vol. 521, no. 7553, pp. 436–
444, 2015.
[2] I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning. Cambridge, MA, USA: MIT
Press, 2016.
[3] V. T. Nguyen et al., “Cognitive computation and communication: a complement
solution to cloud computing for IoT,” Invited paper at the International Conference on
Advanced Technologies for Communications 2016, Hanoi, Vietnam, October 12-14, 2016.
[4] B. L. Deng, G. Li, S. Han, L. Shi, and Y. Xie, “Model compression and hardware
acceleration for neural networks: A comprehensive survey,” Proc. IEEE, vol. 108, no. 4, pp.
485–532, Apr. 2020.
[5] https://arxiv.org/pdf/2110.15352.pdf
Ali Abdelli
Researcher PHD Student at Faculty of Sciences of Monastir
Phone number
Education +216 58320012
Music
Skills
Encryption and
Systems and Networks Security SOC Decryption Data
VHDL Arduino
C++