Vous êtes sur la page 1sur 13

Sujet 1

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Julien Marot et Ronald Aznavourian
julien.marot@univ-amu.fr
ronald.aznavourian@fresnel.fr

Titre du sujet proposé :


Reconnaissance de caractères sur des ordonnances médicales

Description du sujet :
Nous travaillons avec un pharmacien (M. Bonniol) qui cherche, à partir d’algorithmes
de traitement d’image, à identifier un biais entre une prescription médicale, la
délivrance par le pharmacien et la préparation du pilulier par le patient.
L’objectif du PRT est de mettre en place la reconnaissance de caractères sur des
ordonnances rédigées avec un logiciel (le travail sur des ordonnances rédigées à la main
peut venir ultérieurement) et à transcrire le contenu pertinent des ordonnances dans un
fichier csv. On privilégiera l’usage des méthodes Optical Character Recognition (OCR)
telles pytesseract [1], et les approches par réseau de neurones. La bibliothèque panda
de python sera utilisée pour gérer les fichiers .csv dans lesquels les informations venant
des ordonnances seront retranscrites.
On pourra aussi envisager l’utilisation de bases de données qui seront à termes des
bases de données médicales telles Vidal [2], pour valider les informations venant du
programme de traitement d’image mis en place.

[1] https://pypi.org/project/pytesseract/
[2] https://www.vidal.fr/medicaments.html
Sujet 2

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Julien Marot julien.marot@fresnel.fr
Antoine Morice antoine.morice@univ-amu.fr

Titre du sujet proposé :


Reconnaissance de posture du corps pour la détection de feinte au basket

Description du sujet :

Dans le cadre d’une coopération avec l’Institut des Sciences du mouvement de


Marseille, nous souhaitons faire du traitement de vidéos acquises sur des basketteurs
novices et experts. Pour cela nous adapterons des méthodes de deep learning (keras,
tensorflow, mediapipe, etc.) de classification de vidéos et d’extractions de
caractéristiques corporelles que l’on appelle des landmarks. Les étudiants en projet
pourront, pour prendre en main la problématique, adapter les outils de la bibliothèque
mediapipe de Google pour détecter une vingtaine de points d’intérêt sur le corps entier.
Des programmes de base seront fournis pour cela. On souhaite étudier la faisabilité du
protocole en temps réel, et en conditions réelles dans la salle dédiée sur le campus de
Luminy.
Sujet 3

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Julien Marot julien.marot@fresnel.fr
En coopération avec l’entreprise Mermec (Château-Gombert)

Titre du sujet proposé :


Etude du flou unidirectionnel à partir d'acquisition par caméra thermique.

Description du sujet :

Problématique à dégrossir :
Vitesse de 40 à 160 km/h.
- prise en compte du champ de vue : 4.3 m x 3.2m à 3.5m devant la caméra.
- Prise en compte de la technologie de la caméra thermique : Rolling shutter (10 ms) et
de sens d'avance du train en fonction du rolling shutter
- mise en évidence du flou dynamique par traitement d'image (zone locale de
diminution de la précision de mesure de température
- prise en compte de ce flou pour reconstruire et recalculer la température aux bords des
objets.

Requête de développement :
- Windows 10
- Visual C++ 2019
- Bibliothèque de traitement d'image HALCON

Conditions spécifiques
Interdit : Développement en Python.
Sujet 4

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Julien Marot julien.marot@fresnel.fr

Titre du sujet proposé :


Prise en main d’un drone et d’un setup de réalité virtuelle basé sur un téléphone
portable

Description du sujet :

Problématique à dégrossir :
On dispose d’un drone DJI Tello. Une application dédiée (Tello) permet de visualiser
sur un téléphone portable, et le téléphone portable peut être placé dans un casque qui
contient une coque vide. L’ensemble sert de casque de réalité virtuelle.

Une première consistera à prendre en main le setup drone + téléphone + casque.


Dans un second temps, on s’intéressera à un casque de réalité virtuelle HTC Vive pro,
qui sera mis à disposition à l’Institut Fresnel. A terme, on souhaitera visualiser le flux
vidéo issu du drone sur le casque de réalité virtuelle, en passant par un PC portable.

Conditions spécifiques
Ce projet pourra s’intégrer dans le programme DronAMU d’Aix Marseille Université,
en coopération avec d’autres formations AMU.
Sujet 5

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


André, Rémi, remi.ANDRE@univ-amu.fr

Titre du sujet proposé :


Accélération de l’acquisition IRM

Description du sujet :
L'Imagerie par Résonnance Magnétique (IRM) est une modalité d'imagerie médicale
efficace pour effectuer des examens non-invasifs. Contrairement à d’autres modalités
d’imagerie, l’IRM ne nécessite pas de rayonnement ionisant et offre une bonne
caractérisation des tissus mous. L’IRM permet par exemple de visualiser des structures
anatomiques, des fonctions physiologiques ou encore le flux sanguin.
Malgré tous ces avantages, la durée d’acquisition des images IRM est longue du point
de vue clinique lorsque que l’on souhaite obtenir des images de bonnes qualités. Un
temps d’acquisition long impacte le confort du patient et augmente le risque d’artéfact
dû au mouvement.
Il existe plusieurs techniques pour accélérer l’acquisition des images IRM. L’une d’entre
elles, basée sur des systèmes multi-capteur, consiste à omettre des points dans l’espace
d’acquisition. L’image est alors reconstruite en utilisant la diversité de l’information
fourni les différents capteurs. Cette technique de reconstruction est appelée imagerie
parallèle.
Lors de ce projet de réalisation technique, les étudiants devront comprendre le
fonctionnement global de l’IRM, étudier et implémenter en python un ou plusieurs
algorithmes d’imagerie parallèle.
Pour réussir ce projet, il est nécessaire que les étudiants maitrisent les cours de bases de
traitement du signal (Transformée de Fourrier et échantillonnage).
Sujet 6

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Motasem NAWAF, mohamad-motasem.nawaf@univ-amu.fr

Titre du sujet proposé :


Développement et déploiement de fonctions d'inférence pour l'apprentissage profond
en tant que services serverless sur le cloud.

Description du sujet :
L'apprentissage profond est devenu de plus en plus populaire ces dernières années et
ses applications sont largement répandues dans différents domaines. La reconnaissance
d'objets[2], et la segmentation par instances[2], (voir les figures 2 et 3 respectivement)
sont deux des techniques d'apprentissage profond les plus couramment utilisées dans
les applications de vision par ordinateur. Cependant, rendre ces modèles facilement
utilisables par les utilisateurs hors discipline, comme par exemple, les archéologues, les
biologistes, et les médecins, peut être difficile et chronophage. Ceci est principalement
dû à la complexité d'installation des différents environnements et bibliothèques, mais
aussi à la nécessité de les utiliser par des plateformes matérielles très variées (PC,
tablette, smartphone), ou sur différents systèmes d'exploitation (Windows, Linux,
MacOS).

Fig. 1. Exemples de détection d’objet (gauche) et segmentation par instance (droite)

Dans ce projet, nous proposons de tirer parti des modèles d'apprentissage profond
déployés sous forme de fonctions serverless sur le cloud. Ces modèles seront accessibles
depuis n'importe quel appareil ou système d'exploitation, réduisant ainsi la complexité
de l'installation et l'adaptation à des environnements matériels variés.

Le projet sera divisé en deux phases qui peuvent être mises en œuvre en parallèle. Dans
la première phase, les étudiants devront déployer une plateforme Nuclio [1],
comprendre son fonctionnement et ajouter au moins deux modèles parmi ceux
mentionnés dans le tableau suivant (de préférence Mask-RCNN et YoloV5). Pour cette
phase, des modèles pré-entraînés seront fournis.

Une fois déployée, la plateforme peut recevoir des requêtes, qui contiennent les images
que l'on souhaite traiter, et renvoie les résultats de détection / reconnaissance /
segmentation d’objets d’intérêt.

Dans la deuxième phase, les étudiants devront développer une plateforme capable de
charger des images et de communiquer avec la plateforme Nuclio pour effectuer les
tâches d'apprentissage automatique déployées lors de la première phase. La
bibliothèque Flask en Python représente une solution simple à utiliser mais efficace
pour accomplir cette tâche.
Compétences spécifiques requises :
Langage de programmation : Python.

Système d’exploitation : Linux

Informations supplémentaires
[1] Nuclio : High-Performance Serverless event and data processing platform
https://github.com/nuclio/nuclio

[2] Yuxin Wu and Alexander Kirillov and Francisco Massa and Wan-Yen Lo and Ross
Girshick,
Detectron2, https://github.com/facebookresearch/detectron2, 2019
Sujet 7

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Emmanuel Chevallier, emmanuel.chevallier@univ-amu.fr

Titre du sujet proposé :


Adaptation locale d’une prévision météo

Description du sujet :
La prévision de la vitesse et de l’orientation du vent dans la région de Marseille est
difficile en raison de la géographie locale. Ce projet vise à étudier le lien entre les
prévisions données par les modeles météo à l’échelle de la rade de Marseille, et les
relevés d’un anémomètre situé au port de la pointe rouge. L’objectif du projet est de
voir si l’analyse de ces données permet d’ajuster la prévision météo à l’échelle de la
rade, en une prévision spécifique au port de la pointe rouge. Ce travail nécessitera
d’écrire un programme python mettant en œuvre des techniques de base de traitement
du signal et de traitement des données.

Figure 1: Prévisions météo

Figure 2: relevés de l'anémomètre


Sujet 8

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Emmanuel Chevallier, emmanuel.chevallier@univ-amu.fr

Titre du sujet proposé :


Estimation de la vitesse du vent à partir d’une webcam

Description du sujet :
Il s’agit d’un projet généraliste en traitement d’image et traitement du signal. L’objectif
est d’arriver à estimer la vitesse du vent à partir des images fournies par la webcam de
la pointe-rouge. On utilisera des outils de traitement d’image pour analyser l’état de la
surface de l’eau. L’analyse de la surface de l’eau devra ensuite être mise en relation avec
les données issues de l’anémomètre qui mesure la vitesse du vent sur le site de la pointe
rouge, afin d’être capable d’effectuer des prédictions. Le projet sera effectué en langage
Python.

Figure 4: Webcam au port de la pointe rouge

Figure 3: Données issues de


l'anémomètre
Sujet 9

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Motasem NAWAF, mohamad-motasem.nawaf@univ-amu.fr

Titre du sujet proposé :


Développement et déploiement de fonctions d'inférence pour l'apprentissage profond
en tant que services serverless sur le cloud.

Dans le contexte des projets d'apprentissage profond supervisé, comme la segmentation


d’image par instance, une phase essentielle est l'annotation d'un ensemble d’images,
généralement réalisée manuellement. Un problème crucial dans cette phase est la
sélection du sous-ensemble d'images à annoter. Dans le contexte du projet Vrak3D qui
vise à fournir une reconnaissance pierre à pierre, nous devons sélectionner un nombre
représentatif d'images (environ 1000) parmi plus de 80k images. Cette tâche est difficile
à réaliser manuellement. Une solution est de s’appuyer sur des méthodes capables
d'estimer la similarité / dissimilarité entre les images. De cette façon, nous pouvons
choisir un sous-ensemble d'images de manière à ne pas avoir d'images similaires. Cela
nous permet de mieux représenter l'ensemble de données en incluant les images les plus
variées.

Le projet se compose de deux phases, dans la première phase, les étudiants devraient
rechercher les solutions disponibles dans la littérature tout en se concentrant sur les
méthodes basées sur l'apprentissage profond. De préférence ceux qui ont le code
disponible.

Dans la deuxième phase, les étudiants testeront et évalueront une ou deux méthodes
sur l'ensemble de données VRAK3D.
Exemples d'images ; Colonnes : images dissemblables. Lignes : images similaires
Sujet 10

Nom(s), Prénom(s) et courriel(s) du (ou des) responsable(s) :


Lefèvre, Julien, julien.lefevre@univ-amu.fr

Titre du sujet proposé :


Etude des akènes des fraises et relation avec la forme et la taille des fruits

Description du sujet :
Le sujet proposé s’intéresse à une question de recherche fondamentale sur des liens
entre des caractéristiques de forme et de taille de certains organismes vivants. Nous
considérerons ici des fraises et plus particulièrement les akènes, qui sont les graines
qu’on trouve à la surface de ce fruit. Une question assez naturelle qui peut émerger est
de savoir quelle est la répartition des akènes : est ce que le nombre augmente avec la
taille ? Est ce que la distribution spatiale est uniforme. Certaines de ces questions ont
été abordées il y a longtemps [1].
Le cadre du traitement d’images est bien adapté pour reprendre
ce problème et l’approfondir. Vous pourrez vous appuyer sur
des bases de données d’images annotées comme
https://strawdi.github.io/ ou
https://github.com/imanlab/strawberry-pp-w-r-dataset
(documenté dans [2]). Le choix des méthodes pour extraire les
akènes est libre.

[1] Abbott, A. J., Best, G. R., & Webb, R. A. (1970). The relation of achene number to
berry weight in strawberry fruit. Journal of Horticultural Science, 45(3), 215-222.

[2] Tafuro, A., Adewumi, A., Parsa, S., Amir, G. E., & Debnath, B. (2022, May).
Strawberry picking point localization ripeness and weight estimation. In 2022
International Conference on Robotics and Automation (ICRA) (pp. 2295-2302). IEEE.

Conditions spécifiques éventuelles :


Le sujet est très ouvert mais il n’y a pas de « solutions » a priori. Il demande donc de
l’initiative et du dynamisme de la part du groupe.

Ce travail s’inscrira dans le cadre proposé par la licence UsageRight qui vise à ce que
les productions scientifiques participent d’un monde soutenable.
https://pbil.univ-lyon1.fr/members/tannier/usageright/

Vous aimerez peut-être aussi