Académique Documents
Professionnel Documents
Culture Documents
PhD Title: Toward mobile assistant robot for intelligent mapping, server
referencing, surveillance and anomaly detection in DataCenter environment
Laboratoire : Laboratoire d'Ingénierie des Systèmes Physiques et Numériques (LISPEN EA 7515) – Arts
et Métiers campus Lille - ED 432 SMI
Contact Laboratoire : richard.bearee@ensam.eu; adel.olabi@ensam.eu
Mots clés : référencement et détection par vision ; traitement d’image ; IA ; robotique mobile
I) Introduction
OVHcloud est une entreprise internationale implantée dans 19 pays à travers le monde (siège
France) dans le domaine des technologies de l’information. Elle propose aux professionnels des
infrastructures (notamment en hébergement de serveurs) et logiciels dédiés à la gestion, à la sécurité
et à l’évolution des données. Dans le cadre de ses développements prospectifs, et en lien avec ses
activités de recherches partenariales avec le laboratoire LISPEN (Arts et Métiers Lille), OVHcloud
souhaite investiguer, développer et évaluer de nouvelles fonctionnalités que pourrait apporter la
robotique cognitive mobile en environnement de type Datacenter.
La robotique mobile autonome a connu un essor important ces dix dernières années, aussi bien sur
des applicatifs industriels de type logistique, que dans le cadre de la robotique de service. Le
développement d’algorithmes robustes de cartographie et de navigation autonome (SLAM), combinés
aux avancées et à la démocratisation des technologies de télédétection par laser (lidar 1D-2D-3D) sont
à l’origine de nombreuses solutions matures et disponibles sur le marché. Cette maturité en terme
d’industrialisation concerne essentiellement les applications exploitant des bases mobiles robotisées
en environnement structuré et ne présentant pas de complexité d’accessibilité (escalier, zone
d’accessibilité réduite ou complexe). Associer ces solutions robotiques avec les avancées plus récentes
dans le domaine de l’intelligence artificielle et de l’internet des objet, rend plus que jamais tangible le
développement d’un système mobile autonome assurant un ensemble de fonctionnalités adaptées au
1
domaine d’utilisation. Ainsi, l’exploitation d’un système de navigation robotisé en environnement
DataCenter permettrait d’adresser les principales problématiques suivantes :
Au regard de l’objectif, l’état de l’art technologique et scientifique fait ressortir plusieurs verrous à
adresser dans ce sujet.
2
La fonctionnalité de contrôle des serveur pourra s’appuyer avantageusement sur des solutions
technologiques récentes, telle que celle de la société YZROBOT (http://www.yzrobot.cn/), permettant
un contrôle thermique de l’installation, ainsi qu’une visualisation à distance de certaines informations
des serveurs. Le référencement des serveurs est envisagé en s’appuyant sur les méthodes de
reconnaissance rapide de TAG et code à bar en scène 3D [7-9].
La partie surveillance et aide à la levée de doute constituera une contribution majeure du sujet et
s’appuiera sur l’identification d’amers, le template matching et l’auto-apprentissage via réseau de
neurones [10-14] afin de qualifier un état nominal, détecter une exception et la qualifier. La
minimisation de la quantité de données d’entrainement sera un axe d’investigation privilégié.
Le développement d’une preuve de concept évolutive et flexible sur les technologies embarquées,
les algorithmes développés et assurant le lien avec le contrôle de la base mobile nécessitera un
environnement de développement ouvert. Dans ce cadre l’exploitation du middleware ROS sera
privilégiée [15-16].
L’organisation des travaux et la remise des livrables sont décrits dans le planning prévisionnel suivant :
3
Taches Année 1 Année 2 Année 3
Navigation / cartographie Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4
Etat de l’art sur les méthodes et algorithmes de
SLAM (livrable 1); prise en main de la base mobile L1
et des systèmes de vision
Analyse comparatives des méthodes en
simulations; prise en main de l'environnement
L2
ROS; matrice de décision des algorithmes de
SLAM (livrable 2)
Expérimentation navigation/cartographie en
L3
environnement Datacenter (livrable 3)
4
- M. Safeea, P. Neto, R. Béarée, On-line collision avoidance for collaborative robot manipulators by
adjusting off-line generated paths : An industrial use case, Robotics and Autonomous Systems, 119,
278–288, 2019.
- M. Safeea, P. Neto, R. Béarée, Efficient Calculation of Minimum Distance Between Capsules and Its
Use in Robotics, IEEE Access, 7, 5368–5373, 2019.
- D. Busson, R. Béarée. A Pragmatic Approach to Exploiting Full Force Capacity for Serial Redundant
Manipulators, IEEE Robotics and Automation Letters, 3(2) : 888–894, 2018.
- P. Besset, R. Béarée. FIR filter-based online jerk-constrained trajectory generation, Control
Engineering Practice, 66 : 169–180, 2017.
Adel Olabi a obtenu le diplôme d’ingénieur en mécanique de l’Université d’Alep en 2003, le master
recherche en robotique de l’Université de Poitiers en 2007 et le diplôme de Docteur en robotique de
l’Ecole Nationale Supérieure d’Arts et Métiers en 2011. Depuis 2013, il est enseignant-chercheur sur le
campus Arts et Métiers de Lille et occupe actuellement le poste de Maître de conférences. Il est
responsable pour l’établissement du master recherche KIMP (parcours APS) et des parcours étudiants
de la zone EuroNORD. Ses activités de recherche menées au sein du laboratoire d’ingénierie des
systèmes physiques et numérique (LISPEN-EA7115 https://lispen.ensam.eu/), portent sur la
conception en robotique, la calibration avancée de système mécanique, la métrologie en ligne.
Publications récentes
M. Vakilinejad, A. Olabi, O. Gibaru, et al. Geometrical error improvement of Aramid honeycomb
workpieces in robot-based triangular knife ultrasonic cutting process. Int J Adv Manuf Technol 110,
523–541, 2020.
S. R. Fernandez, A. Olabi and O. Gibaru, "Multi-Surface Admittance Control Approach applied on
Robotic Assembly of Large-Scale parts in Aerospace Manufacturing," 2019 19th International
Conference on Advanced Robotics (ICAR), 2019, pp. 688-694.
M. A. Rahmouni, E. Lucet, R. Bearee, A. Olabi and M. Grossard, Robot trajectory generation for three-
dimensional flexible load transfer, IECON 2019 - 45th Annual Conference of the IEEE Industrial
Electronics Society, 2019, pp. 711-716.
M. Vakilinejad, A. Olabi and O. Gibaru, "Identification and Compensation of periodic gear transmission
errors in Robot Manipulators," 2019 IEEE International Conference on Industrial Technology (ICIT),
2019, pp. 126-132
Christophe Thibaut a obtenu son diplôme d’ingénieur en micro-électronique en 2003 à l’ISEN. Depuis
2015, il est responsable de l’équipe Hardware R&D chez OVHcloud. L’équipe de 8 personnes travaillent
au quotidien à la création, l'amélioration et le déploiement des produits à implémenter au sein des
Datacenter de l’entreprise : ils se confrontent aussi bien à des problématiques mécanique qu’à des
sujets d’électronique : ventilateur, PDU, connectique, robotique, … sont autant de sujets rencontrés
au quotidien.
Christophe a débuté sa carrière chez Netasq (maintenant Stormshield) 1er constructeur Européen de
Firewall, en tant qu'ingénieur conception Hardware en participant à la conception du gamme complète
de produits.
Intervenant sur des sujets transverses de la conception mécanique, plasturgique, élelctrique et
électronique.
En souhaitant conserver cette orientation produits, il pris la responsabilité du bureau d'étude d'Exer
technologies, constructeur d'appliances à Euratechnologies avant d'intégrer OVH.
Brevets
US10511307B2 : Circuit and system implementing a smart fuse for a power supply
US10749334B2 : Method and power distribution unit for preventing disjunctions
EP3595119B1 : Method and power distribution unit for limiting a total delivered power
5
EP3697183B1: Rack adapté pour recevoir un composant, système comprenant le rack et le composant
et procédé de distribution d'énergie à un composant monté dans un rack
V) Bibliographie
[1] Rosa S. et al. (2016) An Application of Laser-Based Autonomous Navigation for Data-Center
Monitoring. In: Menegatti E., Michael N., Berns K., Yamaguchi H. (eds) Intelligent Autonomous
Systems 13. Advances in Intelligent Systems and Computing, vol 302. Springer, Cham.
[2] Russo, L.O.; Rosa, S.; Maggiora, M.; Bona, B. A Novel Cloud-Based Service Robotics Application to
Data Center Environmental Monitoring. Sensors 2016, 16, 1255.
https://doi.org/10.3390/s16081255.
[3] A. R. Khairuddin, M. S. Talib and H. Haron, "Review on simultaneous localization and mapping
(SLAM)," 2015 IEEE International Conference on Control System, Computing and Engineering
(ICCSCE), 2015, pp. 85-90.
[4] H. Durrant-Whyte and T. Bailey, "Simultaneous localization and mapping: part I," in IEEE Robotics
& Automation Magazine, vol. 13, no. 2, pp. 99-110, June 2006.
[5] C. Cadena et al., "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the
Robust-Perception Age," in IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, Dec. 2016
[6] W. Xue, R. Ying, Z. Gong, R. Miao, F. Wen and P. Liu, "SLAM Based Topological Mapping and
Navigation," 2020 IEEE/ION Position, Location and Navigation Symposium (PLANS), 2020, pp. 1336-
1341.
[7] H. Huilin and L. Tinghui, "Research on Portable Multi-Bar Code Recognizer Based on Digital Image
Processing Technology," 2020 IEEE International Conference on Artificial Intelligence and Computer
Applications (ICAICA), 2020, pp. 833-837.
[8] J. Li, W. Wang, T. Rao, W. Zhu and C. Liu, "Morphological Segmentation of 2-D Barcode Gray Scale
Image," 2016 International Conference on Information System and Artificial Intelligence (ISAI),
2016, pp. 62-68.
[9] S. Ando and H. Hontani, "Automatic visual searching and reading of barcodes in 3-D scene,"
IVEC2001. Proceedings of the IEEE International Vehicle Electronics Conference 2001. IVEC 2001
(Cat. No.01EX522), 2001, pp. 49-54.
[10] D. M. Dinama, Q. A’yun, A. D. Syahroni, I. Adji Sulistijono and A. Risnumawan, "Human Detection
and Tracking on Surveillance Video Footage Using Convolutional Neural Networks," 2019
International Electronics Symposium (IES), 2019, pp. 534-538.
[11] A. A. Ahmed and M. Echi, "Hawk-Eye: An AI-Powered Threat Detector for Intelligent Surveillance
Cameras," in IEEE Access, vol. 9, pp. 63283-63293, 2021.
[12] G. F. Shidik, E. Noersasongko, A. Nugraha, P. N. Andono, J. Jumanto and E. J. Kusuma, "A Systematic
Review of Intelligence Video Surveillance: Trends, Techniques, Frameworks, and Datasets," in IEEE
Access, vol. 7, pp. 170457-170473, 2019.
[13] A. Khaleghi and M. S. Moin, "Improved anomaly detection in surveillance videos based on a deep
learning method," 2018 8th Conference of AI & Robotics and 10th RoboCup Iranopen International
Symposium (IRANOPEN), 2018, pp. 73-81
[14] D. M. Dinama, Q. A’yun, A. D. Syahroni, I. Adji Sulistijono and A. Risnumawan, "Human Detection
and Tracking on Surveillance Video Footage Using Convolutional Neural Networks," 2019
International Electronics Symposium (IES), 2019, pp. 534-538.
[15] S. Rosa, L. O. Russo and B. Bona, "Towards a ROS-based autonomous cloud robotics platform for
data center monitoring," Proceedings of the 2014 IEEE Emerging Technology and Factory
Automation (ETFA), Barcelona, Spain, 2014, pp. 1-8, doi: 10.1109/ETFA.2014.7005212.
[16] The Robot Operating System (ROS) https://www.ros.org/