Vous êtes sur la page 1sur 5

École d’automne UM6P/ENPC

13-15 Novembre 2019 – UM6P, Benguerir, Maroc


Contexte
Du mercredi 13 au vendredi 15 Novembre 2019, se tiendra à l’Université Mohamed VI Polytechnique, la 3ème édition de l’école
conjointe de l’université Mohammed VI polytechnique (UM6P) et l’école des ponts ParisTech (ENPC) dans le cadre de leur
partenariat.

Cet évènement a été précédé par deux écoles elles-aussi conjointes en février et en novembre 2018 et par la première édition des
Doctoriales tenue en Avril 2019. Ces événements ont vu une participation active de doctorants et post-doctorants provenant de
l’UM6P, de l’ENPC et d’autres institutions marocaines, au travers d’exposés, de posters, de présentations rapides de projets de
recherche (pitches), de discussions...

Objectifs et mise en œuvre


Cette édition de l’école conjointe offrira à une vingtaine de doctorants l’occasion de présenter leurs travaux et projets de recherche
devant leurs pairs et un panel de professeurs, de chercheurs et d’ingénieurs confirmés. Des échanges et des séances de discussions
seront également programmées.

Une attention particulière sera portée à la qualité des présentations à travers une sélection préalable des intervenants. Le programme
comportera

• Cours et présentations :
o Introduction générale aux méthodes d'apprentissage.
o Échantillonnage statistique et apprentissage.
o Problèmes en grandes dimensions.

• Session pitches de poster : 20 présentations de 3 minutes du projet de recherche accompagné du poster.


• Sessions Posters.
• Échanges, networking : rencontres scientifiques entre chercheurs ENPC, chercheurs UM6P et participants.
Informations pratiques
• Thèmes généraux : Mathématiques appliquées / Modélisation / Simulation/ Optimisation/ Apprentissage.
• Public visé en priorité :
- Étudiants en thèse à UM6P et ENPC et dans les universités et écoles d’ingénieurs marocaines.
- Étudiants diplômés de master M2 ou équivalents intéressés par la recherche.
- Enseignants-chercheurs.

• Modalités de participation :
- Renseignement du Google doc de l’évènement

https://forms.gle/HK4tVMdmzZUqyEQCA

- Candidats aux pitches de projets de recherche


- Renseignement du Google docs de l’évènement en joignant
+ Un CV académique
+ Un cours résumé du projet de recherche.
+ Éventuellement le poster du candidat.

• Dates importantes :
- 1 Novembre 2019 : date limite de soumission des candidatures pour pitch.
- 3 Novembre 2019 : décision du comité de sélection.

• Prix : 3 prix pour pitch de projet seront décernés.

• Comité de sélection : Eric Cancès (ENPC), Abdellah Chkifa (UM6P), Michel de Lara (ENPC), Alain Maruani (UM6P).
• Comité d’organisation : Eric Cancès, Abdellah Chkifa.
Programme prévisionnel
Mercredi 13 Jeudi 14 Vendredi 15
Message de bienvenue d’un
8h30 - 9h
représentant de l'UM6P

9h-10h30 IGMA ESA (cours 2) Fin cours / début TP PGD

10h30-11h Pause-café

11 h - 12h30 ESA (cours 1) PGD (cours 2) TP PGD

12h30 - 14h30 Pause déjeuner Fin de l'évènement

14h30 - 16h PGD (cours 1) Fin cours / début TP ESA

16h - 16h30 Pause-café

16h30 - 18h Pitch poster + séance poster TP ESA

IGMA : Introduction générale aux méthodes d’apprentissage.


ESA : Échantillonnage statistique et apprentissage.
PGD : Méthodes numériques pour les problèmes en grande dimension.
Échantillonnage statistique et apprentissage Méthodes numériques pour les problèmes en
grande dimension
Le principe de l'inférence Bayésienne est d'estimer la loi des Les problèmes de grande dimension, c'est-à-dire faisant intervenir
paramètres qui permettent de rendre compte d'un jeu de données. un très grand nombre de variables ou paramètres, peuvent être
Concrètement, il s'agit en pratique d'échantillonner une mesure de rencontrés dans de très nombreux domaines (physique, chimie,
probabilité en dimension grande. Une question similaire se pose en biologie, économie...) et dans de très nombreux contextes
physique statistique numérique, où l'on souhaite calculer les valeurs (quantification d'incertitudes, contrôle en temps réel...). Les
moyennes de certaines fonctions par rapport à une mesure de méthodes numériques standards, telle que la méthode des éléments
probabilité appelée ensemble thermodynamique (par exemple la finis, ne permettent pas en général de résoudre de tels problèmes du
mesure de Boltzmann-Gibbs décrivant les systèmes à température fait de la malédiction de la dimensionnalité. Les techniques
constante). de réduction de la dimensionnalité forment une alternative fiable aux
méthodes classiques.
Ce cours a pour objectif de familiariser les étudiants avec des
méthodes de Monte Carlo permettant d'échantillonner des mesures Dans ce cours, nous allons présenter des exemples typiques de
de probabilité en dimension grande. On présentera notamment les problèmes en grande dimension, se ramenant en définitive à
algorithmes de type Metropolis, et les équations différentielles l’approximation de fonctions à valeurs scalaire ou vectorielle ayant
stochastiques de type Langevin. On discutera dans les deux cas la un grand nombre de variables. Nous présentons ensuite deux
convergence de ces méthodes et l'estimation des erreurs familles de méthodes numériques dédiées au traitement de ce type
numériques associées. de problèmes. La première est fondée sur certaines notions de
régularité anisotrope dans les dimensions, et elle est constituée
La dernière partie du cours sera plus précisément consacrée à fondamentalement d’algorithmes d'approximation polynomiale. La
l'inférence Bayésienne pour des grands jeux de données, pour deuxième famille cherche à approcher la solution des problèmes
lesquels on emploie des techniques de mini-batching. considérés par des tenseurs via des algorithmes itératifs, appelés
algorithmes gloutons.

Gabriel Stoltz Virginie Ehrlacher-Galland


http://cermics.enpc.fr/~stoltz
http://team.inria.fr/matherials/team-members/virginie-
ehrlacher-galland/

Moulay Abdellah Chkifa

https://scholar.google.com/citations?user=LiYln_AAAAAJ&hl=en

Vous aimerez peut-être aussi