Vous êtes sur la page 1sur 6

Proposition de thèse CIFRE – OVHcloud / Laboratoire LISPEN – Arts et Métiers

Titre : Exploitation de la robotique mobile pour le référencement automatisé, la


surveillance et l’aide à la levée de doute en Datacenter

PhD Title: Toward mobile assistant robot for intelligent mapping, server
referencing, surveillance and anomaly detection in DataCenter environment

Entreprise : OVHcloud, Croix


Contact entreprise : christophe.thibaut@ovhcloud.com; aurelien.taniere@ovhcloud.com;
miroslaw.klaba@ovhcloud.com

Laboratoire : Laboratoire d'Ingénierie des Systèmes Physiques et Numériques (LISPEN EA 7515) – Arts
et Métiers campus Lille - ED 432 SMI
Contact Laboratoire : richard.bearee@ensam.eu; adel.olabi@ensam.eu

Mots clés : référencement et détection par vision ; traitement d’image ; IA ; robotique mobile

I) Introduction
OVHcloud est une entreprise internationale implantée dans 19 pays à travers le monde (siège
France) dans le domaine des technologies de l’information. Elle propose aux professionnels des
infrastructures (notamment en hébergement de serveurs) et logiciels dédiés à la gestion, à la sécurité
et à l’évolution des données. Dans le cadre de ses développements prospectifs, et en lien avec ses
activités de recherches partenariales avec le laboratoire LISPEN (Arts et Métiers Lille), OVHcloud
souhaite investiguer, développer et évaluer de nouvelles fonctionnalités que pourrait apporter la
robotique cognitive mobile en environnement de type Datacenter.

II) Contexte et objectifs du projet scientifique


OVHcloud possède 32 datacenters, dont une quinzaine est située en France, regroupant environ
400 000 serveurs. Les plus gros datacenters comptent jusqu’à 15 000 serveurs et s’étendent sur
plusieurs milliers de m2. En l’état, une fois installées, les machines sont peu surveillées en présentiel
mais à distance grâce à des outils de monitoring. Or, une ronde régulière au sein des allées d’un centre
de données permettrait d’effectuer tout un tas d’activités utiles comme par exemple l’inventaire ou
encore la levée de doute, activités que l’on imagine, aujourd’hui, robotisables.

La robotique mobile autonome a connu un essor important ces dix dernières années, aussi bien sur
des applicatifs industriels de type logistique, que dans le cadre de la robotique de service. Le
développement d’algorithmes robustes de cartographie et de navigation autonome (SLAM), combinés
aux avancées et à la démocratisation des technologies de télédétection par laser (lidar 1D-2D-3D) sont
à l’origine de nombreuses solutions matures et disponibles sur le marché. Cette maturité en terme
d’industrialisation concerne essentiellement les applications exploitant des bases mobiles robotisées
en environnement structuré et ne présentant pas de complexité d’accessibilité (escalier, zone
d’accessibilité réduite ou complexe). Associer ces solutions robotiques avec les avancées plus récentes
dans le domaine de l’intelligence artificielle et de l’internet des objet, rend plus que jamais tangible le
développement d’un système mobile autonome assurant un ensemble de fonctionnalités adaptées au

1
domaine d’utilisation. Ainsi, l’exploitation d’un système de navigation robotisé en environnement
DataCenter permettrait d’adresser les principales problématiques suivantes :

1. Cartographier et référencer les équipements de l’installation pour constitution d’une base de


donnée mise à jour.
2. Contrôler l’installation : vérifier l’état des serveurs (reconnaissance affichage, état des
voyants, état et évolution thermique…).
3. Surveiller : Participer à la gestion des exceptions (objet non autorisé, présence humaine non
planifiée, dégradation infrastructure), ainsi qu’à la lever de doute en lien avec les rondes de
surveillance.

L’objet de cette étude consiste à investiguer les solutions algorithmiques et technologiques en


robotique mobile et en traitement d’image afin d’assurer les fonctionnalités de référencement
automatisé, de surveillance et d’aide à la levée de doute en Datacenter.

Figure 1 – Exemple de fonctionnalités investiguées dans le cadre de ce sujet de thèse.

Au regard de l’objectif, l’état de l’art technologique et scientifique fait ressortir plusieurs verrous à
adresser dans ce sujet.

L’environnement DataCenter est principalement statique (peu de mouvements d’objets ou d’humains)


et structuré, ce qui constitue un terrain propice à la navigation autonome robuste. Toutefois,
l’exploitation d’une base mobile autonome peut se heurter à certains verrous en lien avec la symétrie
des installations (plusieurs zones « très » semblables pour l’algorithme de localisation) et les matériaux
rencontrés (les racks de serveurs métalliques et irréguliers peuvent dégrader la précision de détection
des systèmes laser [1-2]. Un premier axe d’investigation consistera à tester et évaluer les performances
en précision et en robustesse des principaux algorithmes récents de type SLAM [3-6] en
environnement réel. Si nécessaire, des adaptations ou combinaisons des méthodes précédentes
seront développées.

2
La fonctionnalité de contrôle des serveur pourra s’appuyer avantageusement sur des solutions
technologiques récentes, telle que celle de la société YZROBOT (http://www.yzrobot.cn/), permettant
un contrôle thermique de l’installation, ainsi qu’une visualisation à distance de certaines informations
des serveurs. Le référencement des serveurs est envisagé en s’appuyant sur les méthodes de
reconnaissance rapide de TAG et code à bar en scène 3D [7-9].

La partie surveillance et aide à la levée de doute constituera une contribution majeure du sujet et
s’appuiera sur l’identification d’amers, le template matching et l’auto-apprentissage via réseau de
neurones [10-14] afin de qualifier un état nominal, détecter une exception et la qualifier. La
minimisation de la quantité de données d’entrainement sera un axe d’investigation privilégié.

Le développement d’une preuve de concept évolutive et flexible sur les technologies embarquées,
les algorithmes développés et assurant le lien avec le contrôle de la base mobile nécessitera un
environnement de développement ouvert. Dans ce cadre l’exploitation du middleware ROS sera
privilégiée [15-16].

III) Organisation des travaux de recherche


Les travaux de recherche seront suivis par Monsieur Christophe THIBAUT, responsable de l’équipe
Hardware R&D pour la société OVHcloud, et l’encadrement scientifique sera assuré par Monsieur
Richard BEAREE, professeur des universités en robotique à Arts et Métiers (ENSAM campus de Lille),
directeur du laboratoire LISPEN (EA 7515) et Monsieur Adel OLABI, maître de conférences en
conception mécanique et en robotique à Arts et Métiers (ENSAM campus de Lille) et membre du
laboratoire LISPEN.

La mise à disposition par l’entreprise et le laboratoire de différents systèmes de robotique mobile et


de plusieurs technologies de capteur (vision 2D, 2D1/2, 3D, laser), associée au support d’ingénieurs,
permettra une prise en main rapide des moyens qui seront exploités durant les phases
d’expérimentation. Au-delà des grandes phases décrites dans le planning qui suit, la proximité
géographique de l’entreprise et du laboratoire favorisera les échanges et déplacements réguliers du(de
la) doctorant(e) en fonction des besoins et en accord avec les deux parties. Prévisionnellement, une
fréquence de présence hebdomadaire de 3 jours au sein de l’entreprise est envisagée.

L’organisation des travaux et la remise des livrables sont décrits dans le planning prévisionnel suivant :

3
Taches Année 1 Année 2 Année 3
Navigation / cartographie Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Q4
Etat de l’art sur les méthodes et algorithmes de
SLAM (livrable 1); prise en main de la base mobile L1
et des systèmes de vision
Analyse comparatives des méthodes en
simulations; prise en main de l'environnement
L2
ROS; matrice de décision des algorithmes de
SLAM (livrable 2)

Expérimentation navigation/cartographie en
L3
environnement Datacenter (livrable 3)

Référencement / état serveur


Etat de l'art des méthodes de détection TAG/code
L4
à bar (livrable 4)
Analyse expérimentale de la robustesse de la
détection en environnement Datacenter
Traitement d'image pour reconnaissance d'état
L5
des serveurs et tests expérimentaux (livrable 5)
Surveillance
Etat de l'art en télésurveillance (Livrable 6) L6
Application à la détection d'humain
Application à la détection d'exception
Démonstrateur de concept global (Livrable 7) L7
Publication (C: Conférence; J: Journal) C + J1 J2
Rédaction mémoire / soutenance M

IV) Mini-CV des encadrants

Richard Béarée a obtenu le diplôme d’ingénieur en conception mécanique de Polytech’Lille en 2001,


le master recherche d’automatique de l’Université des Sciences et Technologies de Lille en 2002 et il a
obtenu sa thèse de doctorat en automatique et robotique de l’Ecole Nationale Supérieure d’Arts et
Métiers en 2005. Depuis 2006, il est enseignant-chercheur à Arts et Métiers, campus de Lille, où il
occupe actuellement le poste de Professeur des Universités. Il dirige le laboratoire multisites
d’ingénierie des systèmes physiques et numérique (LISPEN-EA7115 https://lispen.ensam.eu/). Il a créé
et dirige depuis 2016 le mastère spécialisé Colrobot (https://artsetmetiers.fr/fr/ms-colrobot). Il est
senior member de la société IEEE et membre de la société ASME. Il est éditeur associé pour la revue
Dynamic Systems, Measurement, and Control (ASME), ainsi que pour la revue Control Engineering
Practice (Elsevier). Il a été membre titulaire du Conseil Nationale des Universités (section 61) de 2015
à 2018. Il est experts auprès de différentes instances (ANR, ANRT, Digiteo, Factorylab). Ses axes de
recherche actuels portent sur la robotique, la cobotique, la conception en interaction homme-robot,
la génération de trajectoire et le contrôle vibratoire. Il est auteur ou co-auteur de plus de 50
communications en journal ou conférence internationale.

Publications en revue récentes


- M. Safeea, R. Bearee and P. Neto, A Modified DLS Scheme with Controlled Cyclic Solution for Inverse
Kinematics in Redundant Robots, in IEEE Transactions on Industrial Informatics, 2021.
- M. Safeea, P. Neto, R. Béarée, Collision avoidance of redundant robotic manipulators using Newton’s
method, Journal of Intelligent and Robotic Systems, 2020.
- M. Safeea, P. Neto, R. Béarée, A recursive algorithm for efficient calculation of Christoffel symbols,
Mechanism and Machine Theory, 142, 2019.

4
- M. Safeea, P. Neto, R. Béarée, On-line collision avoidance for collaborative robot manipulators by
adjusting off-line generated paths : An industrial use case, Robotics and Autonomous Systems, 119,
278–288, 2019.
- M. Safeea, P. Neto, R. Béarée, Efficient Calculation of Minimum Distance Between Capsules and Its
Use in Robotics, IEEE Access, 7, 5368–5373, 2019.
- D. Busson, R. Béarée. A Pragmatic Approach to Exploiting Full Force Capacity for Serial Redundant
Manipulators, IEEE Robotics and Automation Letters, 3(2) : 888–894, 2018.
- P. Besset, R. Béarée. FIR filter-based online jerk-constrained trajectory generation, Control
Engineering Practice, 66 : 169–180, 2017.

Adel Olabi a obtenu le diplôme d’ingénieur en mécanique de l’Université d’Alep en 2003, le master
recherche en robotique de l’Université de Poitiers en 2007 et le diplôme de Docteur en robotique de
l’Ecole Nationale Supérieure d’Arts et Métiers en 2011. Depuis 2013, il est enseignant-chercheur sur le
campus Arts et Métiers de Lille et occupe actuellement le poste de Maître de conférences. Il est
responsable pour l’établissement du master recherche KIMP (parcours APS) et des parcours étudiants
de la zone EuroNORD. Ses activités de recherche menées au sein du laboratoire d’ingénierie des
systèmes physiques et numérique (LISPEN-EA7115 https://lispen.ensam.eu/), portent sur la
conception en robotique, la calibration avancée de système mécanique, la métrologie en ligne.

Publications récentes
M. Vakilinejad, A. Olabi, O. Gibaru, et al. Geometrical error improvement of Aramid honeycomb
workpieces in robot-based triangular knife ultrasonic cutting process. Int J Adv Manuf Technol 110,
523–541, 2020.
S. R. Fernandez, A. Olabi and O. Gibaru, "Multi-Surface Admittance Control Approach applied on
Robotic Assembly of Large-Scale parts in Aerospace Manufacturing," 2019 19th International
Conference on Advanced Robotics (ICAR), 2019, pp. 688-694.
M. A. Rahmouni, E. Lucet, R. Bearee, A. Olabi and M. Grossard, Robot trajectory generation for three-
dimensional flexible load transfer, IECON 2019 - 45th Annual Conference of the IEEE Industrial
Electronics Society, 2019, pp. 711-716.
M. Vakilinejad, A. Olabi and O. Gibaru, "Identification and Compensation of periodic gear transmission
errors in Robot Manipulators," 2019 IEEE International Conference on Industrial Technology (ICIT),
2019, pp. 126-132

Christophe Thibaut a obtenu son diplôme d’ingénieur en micro-électronique en 2003 à l’ISEN. Depuis
2015, il est responsable de l’équipe Hardware R&D chez OVHcloud. L’équipe de 8 personnes travaillent
au quotidien à la création, l'amélioration et le déploiement des produits à implémenter au sein des
Datacenter de l’entreprise : ils se confrontent aussi bien à des problématiques mécanique qu’à des
sujets d’électronique : ventilateur, PDU, connectique, robotique, … sont autant de sujets rencontrés
au quotidien.
Christophe a débuté sa carrière chez Netasq (maintenant Stormshield) 1er constructeur Européen de
Firewall, en tant qu'ingénieur conception Hardware en participant à la conception du gamme complète
de produits.
Intervenant sur des sujets transverses de la conception mécanique, plasturgique, élelctrique et
électronique.
En souhaitant conserver cette orientation produits, il pris la responsabilité du bureau d'étude d'Exer
technologies, constructeur d'appliances à Euratechnologies avant d'intégrer OVH.

Brevets
US10511307B2 : Circuit and system implementing a smart fuse for a power supply
US10749334B2 : Method and power distribution unit for preventing disjunctions
EP3595119B1 : Method and power distribution unit for limiting a total delivered power

5
EP3697183B1: Rack adapté pour recevoir un composant, système comprenant le rack et le composant
et procédé de distribution d'énergie à un composant monté dans un rack

V) Bibliographie
[1] Rosa S. et al. (2016) An Application of Laser-Based Autonomous Navigation for Data-Center
Monitoring. In: Menegatti E., Michael N., Berns K., Yamaguchi H. (eds) Intelligent Autonomous
Systems 13. Advances in Intelligent Systems and Computing, vol 302. Springer, Cham.
[2] Russo, L.O.; Rosa, S.; Maggiora, M.; Bona, B. A Novel Cloud-Based Service Robotics Application to
Data Center Environmental Monitoring. Sensors 2016, 16, 1255.
https://doi.org/10.3390/s16081255.
[3] A. R. Khairuddin, M. S. Talib and H. Haron, "Review on simultaneous localization and mapping
(SLAM)," 2015 IEEE International Conference on Control System, Computing and Engineering
(ICCSCE), 2015, pp. 85-90.
[4] H. Durrant-Whyte and T. Bailey, "Simultaneous localization and mapping: part I," in IEEE Robotics
& Automation Magazine, vol. 13, no. 2, pp. 99-110, June 2006.
[5] C. Cadena et al., "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the
Robust-Perception Age," in IEEE Transactions on Robotics, vol. 32, no. 6, pp. 1309-1332, Dec. 2016
[6] W. Xue, R. Ying, Z. Gong, R. Miao, F. Wen and P. Liu, "SLAM Based Topological Mapping and
Navigation," 2020 IEEE/ION Position, Location and Navigation Symposium (PLANS), 2020, pp. 1336-
1341.
[7] H. Huilin and L. Tinghui, "Research on Portable Multi-Bar Code Recognizer Based on Digital Image
Processing Technology," 2020 IEEE International Conference on Artificial Intelligence and Computer
Applications (ICAICA), 2020, pp. 833-837.
[8] J. Li, W. Wang, T. Rao, W. Zhu and C. Liu, "Morphological Segmentation of 2-D Barcode Gray Scale
Image," 2016 International Conference on Information System and Artificial Intelligence (ISAI),
2016, pp. 62-68.
[9] S. Ando and H. Hontani, "Automatic visual searching and reading of barcodes in 3-D scene,"
IVEC2001. Proceedings of the IEEE International Vehicle Electronics Conference 2001. IVEC 2001
(Cat. No.01EX522), 2001, pp. 49-54.
[10] D. M. Dinama, Q. A’yun, A. D. Syahroni, I. Adji Sulistijono and A. Risnumawan, "Human Detection
and Tracking on Surveillance Video Footage Using Convolutional Neural Networks," 2019
International Electronics Symposium (IES), 2019, pp. 534-538.
[11] A. A. Ahmed and M. Echi, "Hawk-Eye: An AI-Powered Threat Detector for Intelligent Surveillance
Cameras," in IEEE Access, vol. 9, pp. 63283-63293, 2021.
[12] G. F. Shidik, E. Noersasongko, A. Nugraha, P. N. Andono, J. Jumanto and E. J. Kusuma, "A Systematic
Review of Intelligence Video Surveillance: Trends, Techniques, Frameworks, and Datasets," in IEEE
Access, vol. 7, pp. 170457-170473, 2019.
[13] A. Khaleghi and M. S. Moin, "Improved anomaly detection in surveillance videos based on a deep
learning method," 2018 8th Conference of AI & Robotics and 10th RoboCup Iranopen International
Symposium (IRANOPEN), 2018, pp. 73-81
[14] D. M. Dinama, Q. A’yun, A. D. Syahroni, I. Adji Sulistijono and A. Risnumawan, "Human Detection
and Tracking on Surveillance Video Footage Using Convolutional Neural Networks," 2019
International Electronics Symposium (IES), 2019, pp. 534-538.
[15] S. Rosa, L. O. Russo and B. Bona, "Towards a ROS-based autonomous cloud robotics platform for
data center monitoring," Proceedings of the 2014 IEEE Emerging Technology and Factory
Automation (ETFA), Barcelona, Spain, 2014, pp. 1-8, doi: 10.1109/ETFA.2014.7005212.
[16] The Robot Operating System (ROS) https://www.ros.org/

Vous aimerez peut-être aussi