Vous êtes sur la page 1sur 72

CATALOGUE DES COURS

OMA 2018-2019

Descriptifs d’iune partie des cours de l’option Mathématiques Appliquées


version du 15/11/2019


Liste des cours

Table des matières


Liste des cours....................................................................................................................................... 2
Cours de tronc commun ........................................................................................................................ 5
Machine Learning et Classification ........................................................................................................................... 6
Optimisation ............................................................................................................................................................. 7
Processus et calcul stochastiques ............................................................................................................................. 8
Statistique ................................................................................................................................................................. 9
Cours de portée générale .................................................................................................................... 10
Analyse Fonctionnelle ............................................................................................................................................. 11
Assurance Vie .......................................................................................................................................................... 12
Séries chronologiques ............................................................................................................................................. 13
Electifs de Finance............................................................................................................................... 14
Modèles dérivés action (E1) .................................................................................................................................... 15
Physique des marchés (E2) ..................................................................................................................................... 16
Méthodes numériques en finance (E3) ................................................................................................................... 17
Cas appliqués de Structuration et Gestion d’Actifs (E4) ......................................................................................... 18
Portfolio Metrics (E5-1) ........................................................................................................................................... 19
Assurance-Prévoyance (E5-2) ................................................................................................................................. 20
Fixed income (E6) .................................................................................................................................................... 21
Données haute-fréquence et carnets d’ordres (E7-1) ............................................................................................ 22
Réassurance (E7-2) .................................................................................................................................................. 23
Electifs de Modélisation Mathématique .............................................................................................. 24
Systèmes Hyperboliques de Lois de Conservation (E1) .......................................................................................... 25
Equations de Hamilton-Jacobi (E2) ......................................................................................................................... 26
Optimisation et calcul des variations (E3) ............................................................................................................... 27
Systèmes désordonnés et percolation (E4)............................................................................................................. 28
Equations différentielles et aux dérivées partielles stochastiques (E5) .................................................................. 29
Processus de Lévy (E6, à confirmer)........................................................................................................................ 30
Maîtrise des Risques (E7) ........................................................................................................................................ 31
Electifs de Statistiques, Signaux et Données ........................................................................................ 32
Analyse spectrale et temps-fréquence (E1) ............................................................................................................ 33
Biostatistique (E2) ................................................................................................................................................... 34
Distributed optimization (E3) .................................................................................................................................. 35
Stastique Bayésienne et Applications (E4) .............................................................................................................. 36
Apprentissage en grande dimension (E5) ............................................................................................................... 37
Traitement des images : méthodes et outils (E6) ................................................................................................... 38
Théorie des Grandes Matrices Aléatoires et Apprentissage (E7) ............................................................................ 39
Cours de Math-Physique ..................................................................................................................... 40
Topics in Mathematical Physics .............................................................................................................................. 41
Théorie quantique des champs ............................................................................................................................... 42
Groupes et Algèbres de Lie ................................................................................................................................... 43
Systèmes désordonnés et percolation .................................................................................................................... 44
Electifs de Data Sciences ..................................................................................................................... 45


Liste des cours

Liste des cours

Master
Type Titre TC/PG/E HYP Apogée Option Remarque
2, MSc

Tronc commun Machine Learning TC MLC MA3XXX OBT


Les deux cours MLC sont en
Machine Learning parallèle.
Tronc commun TC MLC MA3XXX
Avancé

Tronc commun Optimisation TC OPT MA3150AD

Processus et Calcul
Tronc commun TC PS MA3131AB
Stochastiques

Tronc commun Statistique TC STAT MA3XXX

Analyse
Portée générale PG AF MA3112AA
Fonctionnelle

Les 3 cours (AF, AV, MN) sont


Portée générale Assurance Vie PG AV MA3901AA
en parallèle.
Méthodes
Portée générale PG MN MA3120AA
Numériques (*)
Informatique : bases
Portée générale environnements et PG
versionnages

Portée générale C++ PG


Les 2 cours (C++ et PLP) sont
Plateformes et en parallèle.
Portée générale Langages de PG PLP MA3XXX
Programmation (*)
Séries
Portée générale PG SCH MA3502AC
chronologiques

Network Science
Data Sciences E1 NGSA DSBA
Analytics
MVA,
Data Sciences Deep Learning E2 DL MA3601AB DSBA,
AI
MVA,
Data Sciences Graphical Models E3-1 GRM
AI

Geometric Methods
Data Sciences GMDA
in Data Analysis E3-2 DSBA

Data Sciences Computer Graphics E4-1 CGI AI Nouveau cours 2018-2019

Distributed MVA,
Data Sciences E4-2 LSD MA3604AB Commun DS et SigStat
Optimization DSBA
Advanced Medical
Data Sciences E4-2 MIA MVA
Image Analysis (*)


Liste des cours

Data Sciences Natural Language E4-3 NLP MA3320AA DSBA


Processing
DSBA,
Data Sciences Advanced Statistics E5-1 ASI
AI Nouveau cours 2018-2019
Introduction to
Data Sciences VIC AI Nouveau cours 2018-2019
Visual Computing E5-2
Reinforcement
Data Sciences E6 RL MA3608AA DSBA
Learning
MVA,
Data Sciences Advanced Deep ADL DSBA,
Learning E7 AI Nouveau cours 2018-2019
Modèles Dérivés
Finance E1 MDA MA3201AB
Action
Physique des
Finance E2 PHM MA3216AC MSF
marchés
Méthodes
Finance Numériques en E3 MNF MA3202AC
Finance
Structuration et
Finance E4 SGA MA3212AC
Gestion d'actifs
Finance Portfolio Metrics E5-1 PM MA3312AA
Assurance-
Finance E5-2 AP Nouveau cours 2018-2019
Prévoyance
Finance Fixed income E6 FI MA3203AC
Données haute-
Finance fréquence et carnets E7-1 DHF MSF
d'ordres
Finance Réassurance E7-2 REA MA3903AC

Statistique,
Analyse spectrale et
Signaux et E1 ASTF
temps-fréquence
Données

Statistique,
Apprentissage en
Signaux et E2 AGD
grande dimension
Données

Statistique,
Signaux et Biostatistique E3 BS OBT
Données

Statistique,
Distributed
Signaux et E4 LSD MA3604AB Commun Stat&Sig et DS
Optimization
Données

Statistique, Statistique
Signaux et bayésienne et
Données applications
E5 SBA


Liste des cours

Statistique,
Traitement des
Signaux et E6 TIMO OBT
images
Données

Statistique, Théorie des


Signaux et matrices aléatoires E7 TMAA MVA
Données et apprentissage

Systèmes
Modélisation Hyperboliques de E1 SHLC MA3401AB
Lois de Conservation
Equations de
Modélisation E2 EHJ MA3403AD
Hamilton-Jacobi

Optimisation et
Modélisation E3 OCV MA3XXXX Nouveau cours 2018-2019
Calcul des Variations
Systèmes
Modélisation Désordonnés et E4 SyD&P MA3607AA Commun MM et PMP
Percolation
Equations
Modélisation différentielles et aux E5 EDPS MA3218AA Commun MM et PMP
d.p. stochastiques
HPC et Modélisation
Modélisation E6 HPC MA3405AC
(*)

Modélisation Maîtrise des Risques E7 MRI MA3205AB

Topics in
Math-Physique Mathematical PMPE2 TMP MA3190AA
Physics
Théorie Quantique
Math-Physique PMPE4 TQC MA3609AA
des Champs
Systèmes
Math-Physique Désordonnés et PMPE3 SyD&P MA3607AA Commun MM et PMP
Percolation
Equations
Math-Physique différentielles et aux PMPE5 EDPS MA3218AA Commun MM et PMP
d.p. stochastiques
Groupes et Algèbres
Math-Physique PMPE7 GAL MA3180AA
de Lie


Cours de tronc commun

Cours de tronc commun

Cours de tronc commun ...................................................................................................................... 5


Machine Learning et Classification ............................................................................................................... 6
Optimisation ................................................................................................................................................. 7
Processus et calcul stochastiques ................................................................................................................. 8
Statistique ..................................................................................................................................................... 9


Cours de tronc commun

Machine Learning et Classification


Enseignants responsables : Cours standard : Hani Hamdan et Arthur Tenenhaus ; Cours avancé : Frédéric
Pascal et Emilie Chouzenous
Prérequis : Statistique, Algèbre linéaire pour le cours standard ; pour le cours avancé, risque statistique,
sur-apprentissage, régularisation, évaluation d'un modèle, algorithmes d'apprentissage pour la classification et
la régression, réduction de dimension, clustering, savoir formuler un problème d'analyse de données réelles en
termes d'apprentissage statistique, savoir choisir, parmi un éventail de techniques classiques, les algorithmes les
plus apropriés à sa résolution, savoir appliquer, analyser et évaluer ces algorithmes de manière appropriée.


Description :
L'évolution technologique amène à des acquisitions de données de plus en plus volumineuses (signaux,
images, résultats de mesure, etc.) qui nécessitent l'utilisation de techniques permettant d'en extraire
la connaissance utile. La classification et l'apprentissage automatique qui cherchent à transformer les
données brutes en connaissances plus structurées, fournissent des outils adaptés à ce type de
problème. Cet enseignement présente une vue d'ensemble des méthodes d'apprentissage automatique
et de classification ainsi que des exemples d'application des différentes approches développées. À
l'issue de ce cours, les élèves seront capables de définir, comprendre, choisir une méthode
d'apprentissage automatique et la mettre en œuvre, en adéquation avec le problème posé.

Contenu :
Apprentissage supervisé

- Outils classiques : analyse discriminante, SVM, régression multiple, régression logistique, régression Ridge,
régression PLS, LASSO, régression sur composantes principales, etc.
- Extensions non linéaires de ces approches (régression Ridge à noyau, PLS à noyau, SVM à noyau, etc.).
- Sélection de modèle : validation croisée, bootstrap, etc.
Apprentissage non supervisé
- Familles de méthodes : hiérarchie, partition, partition floue.
- Modèle de mélange : définition, algorithmes EM et CEM, utilisation lors de situations spécifiques (données
imprécises, données discrétisées, etc.), modèles gaussiens parcimonieux.
- Sélection de modèle et choix du nombre de classes : critères d'information, etc.

Bibliographie :
[1] T. Hastie, R. Tibshirani, et J. Friedman, "The Elements of Statistical Learning: Data Mining, Inference
and Prediction", Springer, 2001.
[2] R. Duda, P. Hart, et D. Stork, "Pattern classification", John Wiley, 2001.


Equipe pédagogique : Hani Hamdan et Arthur Tenenhaus

Modalités d'évaluation : projet, soutenance


Cours de tronc commun

Optimisation

Enseignants responsables : Paul-Henry Cournède, Laurent Le Brusquet, CentraleSupélec


Prérequis : Calcul Différentiel

Description :
L'optimisation est le domaine étudiant la minimisation ou la maximisation d'un critère à valeurs réelles. Pour
l’optimisation continue, le critère est défini sur un ensemble fermé, d'intérieur non vide. Pour l’optimisation discrète,
le critère est défini sur un ensemble fini ou dénombrable.
L’objectif de ce cours est tout d’abord de présenter le cadre formel des problèmes d’optimisation et d’étudier les
questions d’existence et d’unicité, de caractérisation des solutions. Une large gamme de méthodes de résolution
numérique sera exposée. Pour l’optimisation continue, ces méthodes concerneront la recherche d’optima locaux ou
globaux, avec ou sans contraintes. Pour l’optimisation discrète, ces méthodes pourront être exactes ou approchées.
La capacité des méthodes à fournir de bons résultats dépendant fortement de la description mathématique du
problème à résoudre, le cours insistera sur l’étape de formalisation mathématique préalable à l’utilisation de tout
algorithme d’optimisation.

Contenu : [10 lignes max., têtes de chapitres]
- Problèmes d’optimisation, Existence et unicité, Caractérisation des solutions
- Théorème de Fritz John
- Méthodes numériques pour la recherche de minima locaux sans contraintes
- Optimisation sous contraintes : projection, pénalisation, dualité
- Contrôle optimal
- Méthodes heuristiques
- Résolution exacte de problèmes d’optimisation discrète : branch and bound, programmation dynamique
- Principaux problème d’optimisation sur les graphes
- Optimisation multi-objectifs : dominance de Pareto.

Bibliographie : [5 références max.]
[1] Culioli, J. (1994). Introduction à l'Optimisation. Paris : Ellipses.

[2] Evans, LC. (1987). An Introduction to Mathematical Optimal Control Theory. Berkeley Lecture Notes.

[3] Hiriart-Urruty, J. and Lemaréchal, C. (2001). Fundamentals of Convex Analysis. Springer-Verlag.

[4] Nocedal, J. and Wright, S. (2006). Numerical Optimization (2nd ed.). Springer-Verlag.

[5] Charon I., Germa A et Hudry O. (1996). Méthodes d'optimisation combinatoire, Masson.


Equipe pédagogique : PH Cournède, L Le Brusquet, J Bect (TP), xxx (TP)
Modalités d'évaluation : examen écrit (3h) + Note de TP

7
Cours de tronc commun

Processus et calcul stochastiques

Enseignantes responsables : Hana Baili et Sarah Lemler, CS (2 cours prévus)


Prérequis 1 : cours de probabilités de première année
Prérequis 2 : cours de probabilités avancées (processus gaussien, espérance conditionnelle, temps d’arrêt,
martingale)
Description
Cet enseignement contient une initiation au calcul stochastique utile pour étudier des phénomènes aléatoires
dépendant du temps. Ce qu'on appelle communément calcul stochastique est constitué de la théorie des intégrales
stochastiques et des règles de calcul qui président à l'usage de ces intégrales. À l'issue de ce cours les élèves seront
capables :
• de comprendre les mécanismes de construction d’une intégrale stochastique ; ils verront en particulier
la différence par rapport à l’intégration classique au sens de Lebesgue ;
• de manipuler les semimartingales et en particulier les processus de diffusion via la formule d’Itô ;
• de transformer une semimartingale en une martingale par un changement de mesure ;
• d'appliquer ces objets mathématiques à des problèmes concrets d’analyse, de filtrage ou d ’optimisation de
systèmes dynamiques incertains.
Contenu
Quelques rappels sur les processus. Filtrations. Temps d'arrêt. Espérance conditionnelle. Martingales.
Mouvement brownien. Contruction de l’intégrale stochastique. Formule d’Itô. Théorème de Girsanov. Equations
différentielles stochastiques.

Bibliographie

[1] P. Protter (2005), "Stochastic Integration and Differential Equations", Springer, 2nd edition.
[2] B. Øksendal (2003), "Stochastic Differential Equations: An Introduction with Applications", Springer, 6th
edition.
[3] J.-F. Le Gall, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 1996-1997, Université
Pierre et Marie Curie.
[4] J. Jacod, "Mouvement brownien et calcul stochastique", Notes de cours de DEA 2007-2008, Université
Pierre et Marie Curie.

Modalité d'évaluation : examen écrit

8
Cours de tronc commun
Statistique

Enseignant responsable : Julien BECT, Maître de Conférence de l’Ecole CentraleSupélec


Prérequis : Cours de probabilités / statistique niveau 1A

Description : Ce cours présente un panorama assez large des possibilités offertes par la statistique moderne, à la
fois en terme de modélisation (des modèles paramétriques, tels les modèles linéaires généralisés, aux modèles
non-paramétriques) et d’outils (M-estimateurs, estimateurs à noyaux, tests fondés sur la vraisemblance, etc.).
Le cours s’appuie sur des fondements théoriques fournis par la théorie statistique asymptotique. Des travaux
dirigés réalisés en langage R ou Matlab complètent le cours théorique et permettent l’application des méthodes
présentées à des jeux de données issus de domaines divers.

Contenu
· Convergence de la loi empirique (FRE, théorèmes de Glivenko-Cantelli et de Donsker)
· Estimation non-paramétrique de densité (histogrammes, estimateurs à noyau, biais/variance)
· Modélisation multivariée (copules, modèles de régression, etc.)
· Théorie asymptotique des M-estimateurs, efficacité asymptotique
· Test fondés sur la vraisemblance (la « Saint Trinité » Wald / Rao / Wilks)
· Introductions à la robustesse et à la sélection de modèle

Bibliographie :
[1] Wasserman, “All of Nonparametric Statistics”, 2006, Springer
[2] Dobson & Barnett, “An introduction to General Linear Models”, 3rd ed., 2008, Chapman & Hall / CRC.
[3] Gourieroux & Monfort, “Statistique et modèles économétriques”, vol. 1 et 2, 2e éd., 1996, Economica
[4] Van der Vaart, “Asymptotic Statistics”, 1998, CUP

Equipe pédagogique : Julien Bect, Laurent Le Brusquet, Arthur Tenenhaus
Modalités d'évaluation : Examen écrit (3h)

9
Cours de port e g n rale
Cours de portée générale

Cours de portée générale .......................................................................................................... 10


Analyse Fonctionnelle ......................................................................................................................... 11
Assurance Vie ..................................................................................................................................... 12
Séries chronologiques ......................................................................................................................... 13

10
Cours de port e g n rale

Analyse Fonctionnelle


Enseignant responsable : Anna Rozanova-Pierrat MDC
Prérequis : les cours de première année du cursus centralien, Analyse et EDPs

Description :
L’analyse fonctionnelle est un outil puissant permettant de résoudre des problèmes de mathématiques et de
physique et toutes sortes de problèmes liés aux modèles impliquant des équations intégrales et/ou
différentielles aux applications multiples (modèles de biologie, de finance, de physique, de techniques
d’imagerie et problèmes inverses, problèmes d’optimisation...). Pour être capable de résoudre n’importe quel
type de problème, il faut comprendre la philosophie d’une construction théorique. Le but du cours est donc
non seulement de connaître les résultats les plus fondamentaux de la théorie de l’analyse fonctionnelle mais
aussi savoir les démontrer. Cette vision abstraite globale amènera à des solutions adéquates des problèmes
concrets de nature différente, abordés à la dernière séance.

Contenu : [Séance 1.] Rappels sur les espaces topologiques et métriques.
[Séance 2.] Compacité. Opérateurs linéaires.
[Séance 3.] Espaces de Hilbert.
[Séance 4.] Convergences faible et faible*.
[Séance 5.] Opérateurs compacts et théorie spectrale.
[Séance 6.] Distributions.
[Séance 7.] Transformation de Fourier des distributions. Fonctions de Green.
[Séance 8.] Espaces de Sobolev.
[Séance 9.] Applications. Conséquences des inclusions des espaces de Sobolev.


Bibliographie :
[1] H. Brézis. Analyse fonctionnelle : Théorie et applications. Sciences SUP, 2005.
[2] L. C. Evans. Partial Differential Equations. Graduate Studies in Mathematics, 1994.
[3] F. Golse, Y. Laszlo, F. Pacard, and C. Viterbo. Analyse réelle et complexe. École Polytechnique, 2014.
[4] A.N. Kolmogorov and S.V. Fomin. Introductory Real Analysis. Dover publications, INC., 1975.
[5] V.S. Vladimirov. Equations of Mathematical Physics. Pure and Applied Mathematics, 1971.

Equipe pédagogique : Anna Rozanova-Pierrat

Modalités d'évaluation : examen écrit (3h) sans documents

Remarques : site du cours http://cours.etudes.ecp.fr/claroline/course/index.php?cid=MA3100



11
Cours de port e g n rale

Assurance Vie

Enseignant responsable : Simon COLBOC / Guillaume METGE


Prérequis : notions élémentaires de probabilité

Description : Assurance vie : marché, principes, fonctionnement et calcul actuariel

Contenu :

Objectif du cours :

L’objectif du cours est d’introduire les étudiants aux différentes techniques actuarielles utilisées pour
modéliser un portefeuille d’assurance-vie (comportement de l’assuré, démographie, finance). Par ailleurs,
une attention particulière sera portée à la compréhension du marché de l’assurance vie.

Plan du cours :

1. Produits d’assurance-vie, perspectives d’évolution du marché

2. Calcul des engagements en assurance-vie

Comment calcule-t-on la prime d’un produit d’assurance-vie ?

3. Valorisation d’un portefeuille d’assurance-vie

Market Consistent Embedded Value, valorisation déterministe et valorisation stochastique, introduction


à l’Asset & Liabilities Management

4. Construction de tables de mortalité et calcul de l’espérance de vie

Modèles de durée, estimateur de Kaplan-Meier, modèle de Lee-Carter et dérivés

5. L’option de rachat : modélisations actuarielle

Focus sur l’option de rachat des contrats d’assurance vie : modèles économiques, modèles statistiques
(GLM), modèles machine learning

6. La vision Solvabilité II

Revue des risques précédemment abordés et calcul au quantile 99.5%

7. La distribution dans l’assurance

Equipe pédagogique : Simon COLBOC / Guillaume METGE


Modalités d'évaluation : examen écrit (3h) + 2 TP

12
Cours de port e g n rale

Séries chronologiques


Enseignants responsables : Pascal Bondon, CNRS-CS, et Emmanuelle Clément, CS
Période : du 09/01/2018 au 13/03/2018
Lieu : Gif-sur-Yvette
Prérequis : Cours de probabilités, statistiques, processus stochastiques.

Description : L’objectif de ce cours d'introduction aux séries temporelles est de présenter des modèles
paramétriques de séries d'observations et leurs applications à l'analyse et à la prévision de données observées
séquentiellement dans le temps. On commence par présenter les techniques d'estimation de la tendance et de
la saisonnalité d'une série temporelle. Puis on introduit le modèle autorégressif à moyenne mobile (ARMA) et
on étudie les notions de causalité et d'inversibilité. On aborde ensuite la théorie de la prédiction linéaire d'une
série chronologique stationnaire quelconque à passé fini et infini. Le problème de l'estimation statistique d'un
modèle ARMA est étudié dans le détail et est illustré d’exemples de modélisation de séries réelles. Enfin, on
présente les modèles non linéaires conditionnellement hétéroscédastiques utilisés dans l'analyse de séries
financières.

Contenu :
• Généralités sur les séries temporelles : exemples, modèles simples de séries temporelles, estimation
et élimination de la tendance et de la saisonnalité.

• Stationnarité au second ordre : fonction de covariance, densité spectrale, processus linéaire.

• Processus ARMA et ses généralisations : stationnarité, causalité, inversibilité, série ARIMA
saisonnière,
• série à longue mémoire.

• Prédiction linéaire : passé fini, passé infini, interpolation, filtrage.

• Estimation d’un modèle ARMA : estimation préliminaire, estimation du maximum de vraisemblance
gaussien, estimation des moindres carrés, propriétés asymptotiques des estimateurs, exemples.

• Modèles conditionnellement hétéroscédastiques : modèles ARCH, GARCH, modèles à volatilité
stochastique, modèles à longue mémoire.

Bibliographie :
[1] P. J. Brockwell and R. A. Davis. Time Series : Theory and Methods. Springer Verlag, New York,
second edition, 1991.
[2] J. D. Cryer and K. S. Chan, Time Series Analysis with Applications in R. Springer Verlag, New York,
second edition, 2008.
[3] W. A. Fuller. Introduction to Statistical Time Series. Wiley, New York, second edition, 1995.
[4] R. H. Shumway and D. S. Stoffer, Time Series Analysis and Its Applications with R Examples,
Springer Verlag, New York, second edition, 2005.
[5] R. S. Tsay. Analysis of Financial Time Series. Wiley Series in Probability and Statistics : Probability and
Statistics. Wiley-Interscience, New York, 2001.

Equipe pédagogique : Pascal Bondon (cours), Mabrouk Chetouane (TD) / Emmanuelle Clément
Modalités d'évaluation : Examen écrit (3h) et comptes rendus de TD.





13
Electifs de Finance


Electifs de Finance

Electifs de Finance.............................................................................................................................. 14
Modèles dérivés action (E1) ..........................................................................................................................15
Physique des marchés (E2) ............................................................................................................................16
Méthodes numériques en finance (E3) ..........................................................................................................17
Cas appliqués de Structuration et Gestion d’Actifs (E4) .................................................................................18
Portfolio Metrics (E5-1) .................................................................................................................................19
Assurance-Prévoyance (E5-2) ........................................................................................................................20
Fixed income (E6)..........................................................................................................................................21
Données haute-fréquence et carnets d’ordres (E7-1) ....................................................................................22
Réassurance (E7-2)........................................................................................................................................23

14
Electifs de Finance

Modèles dérivés action (E1)

Enseignant responsable : Ioane Muni Toke, Maître de conférences, CentraleSupélec

Description : Ce cours est présente les modèles stochastiques désormais classiques utilisés pour l’évaluation de
produits dérivés en finance, principalement sur les marchés actions. Les notions mathématiques de base du calcul
stochastique sont (re)vues dans l’optique des applications financières. La théorie de l’évaluation par arbitrage et le
modèle fondateur de Black & Scholes sont présentées et critiquées au regard de données empiriques. Les modèles
plus complexes de volatilité (locale et stochastique) et les modèles dits « à sauts » sont également présentés. Le
cours fournit donc aux étudiants un large panorama des méthodes probabilistes pour l’évaluation de dérivés action.

Contenu : Rappels sur les processus stochastiques. Mouvement brownien. Intégrale stochastique. Equations
différentielles stochastiques. Evaluation par arbitrage. Modèle de Black et Scholes et extensions (dépendance
temporelle, dividendes). Théorèmes fondamentaux de l’évaluation par arbitrage. Evaluation par EDP (Feynman-
Kac). Notions de trading et « grecques ». Modèles de volatilité locale (Dupire) et stochastique (Heston). Introduction
aux modèles à sauts.

Bibliographie :
[1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance, Ellipse.
[2] Shreve S., Stochastic calculus for finance II : Continuous-time models, Springer.

Equipe pédagogique : Ioane Muni Toke


Modalités d'évaluation : un partiel et un examen final

15
Electifs de Finance

Physique des marchés (E2)

Enseignant responsable : Damien Challet, chercheur sénior

Description :
Ce cours propose une vision mécanistique et cohérente des marchés financiers. Il explique comment la
dynamique observable des prix, en particulier la difficulté à prédire les prix, résulte de l’interaction entre les
stratégies utilisés par les agents de change.

Pour ce faire, il aborde une large palette de sujets et procure une façon d’envisager la dynamique financière
microscopique et les principes généraux d’apprentissage statistique appliqué au marchés.

Contenu :
Étudier la phénoménologie des marchés avec une approche Big Data
Considérer les stratégies de trading comme des outils de mesure partielle de la dynamique des prix
Comprendre comment les agents de change apprennent à utiliser leurs stratégies,
Construire des modèles d’agents et étudier comment leur interaction tend à faire disparaître la
prévisibilité.

Bibliographie :

[1] Cont, Rama. "Empirical properties of asset returns: stylized facts and statistical issues."
Quantitative Finance 1 (2001): 223-236.
[2] Freeman, John D. "Behind the smoke and mirrors: Gauging the integrity of investment
simulations." Financial Analysts Journal 48.6 (1992): 26-31.
[3] Chakraborti, Anirban, et al. "Statistical mechanics of competitive resource allocation using
agent-based models." Physics Reports 552 (2015): 1-25.
[4] Bouchaud, Jean-Philippe, J. Doyne Farmer, and Fabrizio Lillo. "How markets slowly digest
changes in supply and demand." Fabrizio, How Markets Slowly Digest Changes in Supply and
Demand (September 11, 2008) (2008).

Equipe pédagogique : Damien Challet, Frédéric Abergel.


Modalités d'évaluation : rendu de 4 travaux pratiques et examen écrit de 2h

16
Electifs de Finance

Méthodes numériques en finance (E3)

Enseignant responsable : Ioane Muni Toke, CentraleSupélec.

Description : Ce cours présente quelques méthodes numériques classiques fréquemment utilisées pour
l’évaluation de produits financiers. Une séance (ou un groupe de deux séances) comprend un cours théorique
présentant le modèle financier et sa résolution numérique proposée, suivi d’un TP au cours duquel l’étudiant est
invité à implémenter une solution en C++ et/ou Python et/ou R (suivant les sujets).

Contenu : Méthodes de Monte Carlo. Méthodes d’arbres. Schémas numériques pour la diffusion. Schéma
numériques pour les EDP. Programmation dynamique et options américaines. Utilisation de copules en finance.

Bibliographie :
[1] Lamberton D. et Lapeyre B., Introduction au calcul stochastique appliqué à la finance,
Ellipse.
[2] Achdou, Pironneau, Computational methods for Option Pricing, SIAM.

Equipe pédagogique : Ioane Muni Toke


Modalités d'évaluation : contrôle continu (Comptes-rendus de TP à rédiger) et soutenance

17
Electifs de Finance

Cas appliqués de Structuration et Gestion d’Actifs (E4)

Enseignant responsable :
Thomas CHEDRU – Crédit Agricole CIB - Structuration Cross Asset
Yann MOYSAN - BNPP – Structuration Cross Asset
Prérequis :
Mathématiques Appliquée (Calcul Stochastique)
Pricing et Théorie des Options et produits Dérivés

Description :
Les Marchés de Capitaux regroupent les activités de financement (bancaire, obligataire, actions, titrisation),
d’investissement (Produits structurés, Dérivés actions, taux, hybrides, Gestion d’Actifs), ou de couverture de
risques (Taux, Change, Crédit, Actions) pour le compte de clients diversifiés : Retail/ Banques Privées, Entreprises,
Institutions financières (Assurances, Banques, Fonds de pension, …).
L’objectif du cours est d’apporter des connaissances appliquées et pratiques des produits Structurés Cross Asset et
des problématiques aujourd’hui au cœur des salles de Marchés (Réglementation, CVA, Risk management, ...).
Dispensé par des professionnels de l’Ingénierie financière il se veut interactif et orienté sur la pratique au Day to
Day du métier de Structuration.

Contenu :
· Cours 1 :
o Overview de la salle de marché et des acteurs
o Présentation et pricing d’un Produit Structuré
· Cours 2 : "Produits structurés ""classiques"" et les problématiques de pricing et gestion qu'ils engendrent"
· Cours 3 : Fixed income et Inflation
· Cours 4 : Les Dérivés sur fonds et la gestion Coussin
· Cours 5 : Gestion de portefeuille et techniques d’allocation
· Cours 6 : "Les sous jacents ""innovants"" et les problématiques de pricing et gestion qu'ils engendrent"
· Cours 7 : "Crédit - Crise / réglementation et Impacts sur les Dérivés"
· Cours 8 : Les Hybrides et les Commodities

Bibliographie :
[1] Options, futures, and other derivatives - John C. Hull
[2] Finance de marché: Instruments de base, produits dérivés, portefeuilles et risques – Patrice Poncet / Roland
Portrait
Equipe pédagogique :
Modalités d'évaluation : Examen écrit (3h), sous forme de QCM

18
Electifs de Finance

Portfolio Metrics (E5-1)

Enseignant responsable : Nicos Millot, CEO, Quarisma Finance


Prérequis : Stochastic calculus for finance, basics of capital markets

Description : The aim of the course is to :


- Understand the difference between economic and theoretical values ;
- Understand the different components entering the price of a trade ;
- Learn about the trading floor organization in relation with those pricing components ;
- Understand the basics of quantitative risk-management and its relation to economic capital ;
- Understand how the 2008 crisis and new regulations have changed the derivatives landscape ;
- Learn about the role of quantitative analysts in this environment.

Contenu : XVA, CSA, Netting, CCR, RWA, PDE, Monte Carlo, VaR, CVaR, Capital allocation

Plan du cours :
1st session: introduction, reminders about the fundamental theorem of asset pricing, Black-
Scholes model
2nd session: default risk, CDS pricing, counterparty credit risk, first derivation of unilateral CVA
3rd session: second derivation of unilateral CVA, own credit risk, first derivation of bilateral
CVA
4th session: second derivation of bilateral CVA, default hedging and funding issues, CVA and
FCA
5th session: credit mitigation, netting and collateral, relations with close-out and funding,
derivation of FVA, fully collateralized trades valuation
6th session: XVA implementation challenges, advanced topics in XVA, wrong-way risk
modelling, ratings-based CVA and multi-currency funding
7th session: Impact of regulations on derivatives valuation, RWA, KVA, CLR charge, relations to
QRM
8th session: risk-measures, VaR, ES, modelling and implementation issues, conclusion

Bibliographie :
[1] Green, A. (2015). XVA : Credit, Funding and Capital Valuation Adjustments . Wiley.
[2] Embrechts, P., R. Frey, and A. McNeil (2005). Quantitative Risk Management : Concepts,
Techniques, Tools. Princeton : Princeton University Press.

Equipe pédagogique : Nicolas Millot


Modalités d'évaluation : Contrôle écrit de 2h

19
Electifs de Finance

Assurance-Prévoyance (E5-2)

Enseignants responsables : Axel Truy, Maxence Pierrat, Amine Mechergui


Prérequis : notions élémentaires de probabilité

Description :
L’objectif de ce cours est de présenter une vue d’ensemble des différentes méthodes actuarielles utilisées en
assurance prévoyance. La première partie du cours sera accordée à une présentation générale de l’assurance
prévoyance (marché, acteurs, produits et garanties). La suite quant à elle sera plus technique et consistera à
parcourir les modèles mathématiques employés en mesure de risque, tarification et provisionnement. Par
ailleurs, des exercices sous Excel/VBA, R et Python permettront aux étudiants de mettre en œuvre les approches
traitées précédemment.
Contenu :
1. Environnement et acteurs (séance 1)
a. Définition de l’Assurance Prévoyance
b. Droit social, Conventions Collectives
c. Les Acteurs
d. Quelques Chiffres sur le Marché de l’Assurance
e. Quelques Chiffres sur le Marché de la Prévoyance

2. Risques et produits (séance 1)


a. Les risques (Décès, Incapacité, Invalidité, Dépendance, …)
b. Les prestations
c. L’assuré
d. Les produits et leur fonctionnement

3. Mesures de risques (séance 2)


a. Introduction et définitions
b. Mesures de risque usuelles, propriétés
c. Application aux exigences de solvabilité des assureurs : la place particulière de la VaR
d. Exemple d’estimation paramétrique
TD : exercices

4. Modèles de durées (séances 3 et 4)


a. Généralités – Contexte réglementaire – Problématique de la donnée
b. Estimation de taux bruts
c. Ajustement et/ou lissage de taux bruts
d. Extrapolation d’une table de mortalité lissée
e. Validation d’une table de mortalité
f. Prise en compte de variables discriminantes dans une table de mortalité
TP sur R : calibrage d’une table de mortalité

5. Tarification (séances 5 et 6)
a. Le cycle Inversé de Production
b. Décomposition de la Prime
c. Principe d’Évaluation de l’Engagement d’un Assureur
d. Comparaisons Internationales
TP (R ou Python) : utilisation du Machine Learning pour la tarification d’un produit d’assurance

6. Provisionnement (séances 7 et 8)
a. Les provisions techniques
b. Les provisions de primes (PPNA, PREC, PRC, PM)
c. Les provisions de sinistres
d. Les autres provisions
TP sur R et Excel : implémentation de quelques méthodes de provisionnement.

20
Electifs de Finance

Modalités d’évaluation : Contrôle intermédiaire, Rendus de TP.

Fixed income (E6)

Enseignants responsables :
Partie Taux de Changes - Anas Elkaddouri – Analyste Quantitatif– Barclays
Partie Taux d’intérêts - Omar Bennani – Analyste Quantitatif –Société Générale
Prérequis : Probabilités continues – Calcul Stochastique

Description :
Partie Taux de Change : Ce cours est une introduction à la modélisation mathématique des taux
de change. On établit d'abord l'équation générale de la dynamique des taux de change et on en
déduit les prix de produits dérivés simples dans le cadre Black-Scholes. Une attention particulière
est portée aux spécificités du marché des taux de change (notion de produit compo/quanto &
symétries). Enfin, on considère deux modèles hybrides simples : action/taux de change et taux
d'intérêt/taux de change et on établit les prix de d'options vanilles dans ces hypothèses. Une
dernière séance type TD clôturera ce cours et comportera une série d'exercices permettant de mettre
en œuvre les connaissances acquises durant les premières séances.
Partie Taux d’intérets : Dans ce cours les produits financiers élémentaires et la modélisation des
taux d’intérêts seront abordés. Dans un premier temps, les produits de bases sur taux d’intérêts :
FRA, Swap, Cap, Floor, Swaption… etc ; puis modèles de taux court, cadre HJM et le modèle
LMM. Une séance d’introduction à la valorisation en environnement multi-courbe clôturera ces
séances.

Contenu :
Partie Taux de Change
• Prix du forward et dynamique des taux de change
• Quelques particularités des taux de change (La symétrie des taux de change, Trio
de devises, Modèle à corrélation locale, Symétries et parité Call/Put)
• Quantoisation
• Modèle hybride Action-Taux de change (Equation générale et prix du Call, EDP
d’évaluation 2D)
• Modèle hybride Taux-Taux de change
Partie Taux d’intérets
• Produits de base
• Modèles de taux court (modèle de Vasicek, modèle de Hull-White 1facteur, modèle
CIR)
• Cadre HJM
• Modèle LMM
• Pricing en multi-courbe

Bibliographie :
[1] Uwe Wystup – “FX Options and Structured Products” – Wiley Finance.
[2] “FX Graduate Lecture – Models and Pricing” – Barclays – Internal Document.
[3] Karatzas, Ioannis, Shreve, Steven – “Brownian Motion and Stochastic Calculus“–
Springer.
[4] L.B.G. Andersen, V. Piterbarg – “Interest Rate Modeling” – 2010.
[5] D. Brigo, F. Mercurio - “Interest Rate Models – Theory and Practice” – 2006.
[6] D. Lamberton, B. Lapeyre - “Introduction au calcul stochastique appliqué à la finance“

Equipe pédagogique : Anas Elkaddouri, Omar Bennani


Modalités d'évaluation : Examen écrit (3h au total)

21
Electifs de Finance

Données haute-fréquence et carnets d’ordres (E7-1)

Enseignant responsable : Frédéric Abergel, CentraleSupélec


Prérequis : Calcul stochastique, EDS

Description : Ce cours s’adresse aux étudiants intéressés par l’étude empirique, la modélisation
mathématique et la simulation numérique des marchés financiers modernes, dits « à carnets d’ordres ».
Ces marchés, qui constituent l’immense majorité des marchés sur actions, indices et dérivés,
comportent un point d’entrée unique, le carnet d’ordres, qui recense de manière transparente et visible
à tous les opérateurs, l’ensemble des intérêts exprimés des participants du marché. Ces carnets d’ordres
sont un objet d’études scientifiques depuis une vingtaine d’année, et bien sûr, un objet d’un intérêt
pratique fondamental.

Contenu :

Séance 1 : Marché financiers électroniques, marchés à carnets d’ordres


Séance 2 : Faits statistiques stylisés des carnets d’ordres
Séance 3 : Modélisation mathématique I : Introduction aux processus ponctuels
Séance 4 : Modélisation mathématique II : Introduction aux processus ponctuels
Séance 5 : Propriétés mathématiques des modèles de carnets d’ordres
Séance 6 : TP « Simulation des carnets d’ordres » I
Séance 7 : TP « Simulation des carnets d’ordres » II
Séance 8 : Stratégies d’investissement, exécution optimale, market making
Séance 9 : examen

Bibliographie : Limit order books, F. Abergel, M. Anane, A. Chakraborti, A. Jedidi, I. Muni Toke,
Cambridge university press + notes de cours en anglais

Equipe pédagogique : F. Abergel, S. Lemler, C. Huré


Modalités d'évaluation : Examen final (2/3)+ TP (1/3)

22
Electifs de Finance

Réassurance (E7-2)

Enseignant responsable : Robin CHICHE, analyste ILS

Description : Le cours de data science pour la réassurance a pour but de faire découvrir les risques extrêmes
aux étudiants, et les raisons pour lesquelles toute compagnie d’assurance a besoin de les couvrir, en se
réassurant. Après avoir vu les deux grands types de réassurance existants (traditionnelle et titrisée), nous
aborderons les méthodes pour la structuration et la tarification. Puis nous étudierons les concepts de data
science utilisés pour la modélisation et la tarification des risques extrêmes (théorie des valeurs extrêmes,
modélisation physique des catastrophes naturelles). Enfin, les deux derniers cours permettront de mettre en
application les approches vues précédemment.

Contenu :
· Partie 1 : Réassurance (3 séances)
1. Réassurance traditionnelle
2. Réassurance titrisée
3. Design et pricing de traités
· Partie 2 : Data science pour les risques extrêmes (3 séances)
4. Pricing des catastrophes naturelles
5. Modélisation des risques extrêmes
6. Modélisation des catastrophes naturelles
· Partie 3 : Mise en application (2 séances)
7. Construction d’un modèle simplifié de tremblements de terres
8. Calibration d’un programme de réassurance

Equipe pédagogique : Robin CHICHE, Simon BLAQUIERE, Théo SERMET


Modalités d'évaluation : Examen écrit (2h)

23
Electifs de Mod lisation Math matique

Electifs de Modélisation Mathématique

Electifs de Modélisation Mathématique ........................................................................... 24


Systèmes Hyperboliques de Lois de Conservation (E1)............................................................... 25
Equations de Hamilton-Jacobi (E2) ............................................................................................ 26
Optimisation et calcul des variations (E3) .................................................................................. 27
Systèmes désordonnés et percolation (E4) ................................................................................ 28
Equations différentielles et aux dérivées partielles stochastiques (E5) ...................................... 29
Processus de Lévy (E6, à confirmer) ........................................................................................... 30
Maîtrise des Risques (E7)........................................................................................................... 31

24
Electifs de Mod lisation Math matique

Systèmes Hyperboliques de Lois de Conservation (E1)

Enseignant responsable : Cédric ENAUX, ingénieur-chercheur au CEA


Prérequis : non

Description :
Présentes dans de nombreux modèles physiques divers et variés (écoulement de fluide, trafic
routier, dynamique de pandémie, etc.), les lois de conservation sont des équations aux dérivées
partielles dotées d’une forme simple, mais dont le caractère non linéaire justifie à lui seul
l’émergence d’une branche moderne des mathématiques appliquées. En effet, lorsqu’elles sont non
linéaires, les lois de conservation développent des solutions discontinues (formation et propagation
de « chocs ») indépendamment de la régularité des données initiales.
La présence des discontinuités explique l’échec des méthodes numériques de type Différences
Finies – basées sur l’hypothèse de solutions régulières – à converger vers la solution d’intérêt. Par
ailleurs, l’absence de formulation faible vérifiant les hypothèses du théorème de Lax-Milgram
empêche d’utiliser les méthodes de type Eléments Finis. Ainsi la résolution numérique des lois de
conservation nécessite l’emploi de méthodes numériques spécifiques, dîtes de type Volumes Finis,
dont la construction et l’efficacité ne peuvent être expliquées que par l’analyse mathématique et
numérique des équations considérées.
Ce cours a pour principal objectif de familiariser l’élève-ingénieur aux notions fondamentales et
aux outils de l’analyse mathématique et numérique des systèmes de lois de conservation, mais
aussi de lui permettre d’acquérir un savoir-faire, via la réalisation suivie d’un projet individuel de
résolution numérique d’un système donné.

Contenu :
Organisation du cours : 4x3h de cours magistral + 2x3h de suivi de projet individuel.
- séances 1 et 2 (2x3h) : théorie mathématique des systèmes hyperboliques de lois de
conservation
(hyperbolicité, solutions classiques, méthode des caractéristiques, solutions faibles,
relations de Rankine-Hugoniot, etc.)
- séance 3 (3h) : projet individuel - démarrage
(présentation des sujets, analyse mathématique, prise en main de l’outil informatique)
- séances 4 et 5 (2x3h) : méthodes numériques pour les systèmes hyperboliques de lois de
conservation
(rappels de Différences Finies, méthode des Volumes Finis, construction et analyse de
quelques
flux numériques, etc.)
- séance 6 (3h) : projet individuel - poursuite
(analyse numérique et développement d’un schéma aux Volumes Finis pour la
résolution du problème)

Bibliographie :
[1] E. Godlewski & P.-A. Raviart (1995), Numerical approximation of hyperbolic systems of
conservation laws, Springer ISBN 0-387-94529-6.
[2] R.J. LeVeque (1992), Numerical methods for conservation laws, Birkhäuser ISBN 3-7643-
2723-5.
[3] D. Serre (1999), Systems of conservation laws 1: hyperbolicity, entropies, shock waves,
Cambridge University Press ISBN 0-5215-8233-4.

Equipe pédagogique : C. Enaux


Modalités d'évaluation : examen écrit (3h) et soutenance de projet individuel (15min)

25
Electifs de Mod lisation Math matique

Equations de Hamilton-Jacobi (E2)

Enseignant responsable : Christophe Chalons, Professeur à l’UVSQ


Prérequis : notions d’analyse et de méthodes de discrétisation

Description : L'objectif de ce cours est de présenter une vue d'ensemble des différentes approches
permettant de caractériser et d'approcher numériquement les équations décrivant la propagation de fronts,
et plus généralement les équations d'Hamilton-Jacobi. Ces équations interviennent dans plusieurs domaines
tels que la propagation d'ondes (dans l'approximation haute fréquence), la modélisation de propagation
d'interfaces ou le calcul de plus courts chemins (géodisques) en théorie du contrôle optimal.
Après une introduction de la notion de solution de viscosité, différentes méthodes numériques seront
présentées, analysées (stabilité, convergence) et programmées sur ordinateur.
Nous souhaitons ainsi apporter aux élèves une expertise numérique pour la résolution de certains problèmes
non linéaires en leur proposant de programmer, de tester et de comparer ces méthodes sur des problèmes
concrets.

Contenu :
1) Introduction et Formulation Mathématique
- méthodes du temps minimal et des courbes de niveaux
- principe de Huygens
- notion de solution de viscosité et principe d'unicité
2) Méthodes Numériques
- résultat général de convergence des schémas numériques
- méthodes semi-lagrangiennes : présentation, analyse, programmation
- méthodes aux différences finies : présentation, analyse, programmation
- méthodes fast-marching : présentation, analyse, programmation

Bibliographie :
[1] H. Zidani et O. Bokanowski , Méthodes numériques pour la propagation de front, disponible en
ligne
[2] J. Droniou et C. Imbert, Solutions de viscosité et solutions variationnelles pour les EDP non
linéaires, disponible en ligne
[3] Guy Barles, Solutions de viscosité et équations elliptiques du deuxième ordre, disponible en ligne

Equipe pédagogique : Christophe Chalons


Modalités d'évaluation : Examen écrit (3h) et/ou compte-rendu de TPs

26
Electifs de Mod lisation Math matique

Optimisation et calcul des variations (E3)

Enseignant responsable : John Cagnol, Professeur à CentraleSupélec


Prérequis : Cours d’optimisation du tronc commun de 3e année de l’option OMA ainsi que les
compétences acquises dans le cursus ingénieur en 1e et 2e années d’étude.


Description :

L’objectif de ce cours est de déterminer les évolutions des variables d’un système réel ou virtuel, en les
reliant aux variations des divers paramètres de ce système. La visée est classiquement d’optimiser le
système mais il peut y avoir d’autres intentions. Cet enseignement s’attachera à modéliser et à
formaliser une large classe de problèmes puis à les résoudre.


Contenu :

Après avoir introduit les principes généraux du calcul des variations et de l’optimisation, dont certains
prolongent les éléments donnés dans le cours de tronc commun, nous présenterons les méthodes de
modélisation de ces problèmes, c’est-à-dire la formalisation du problème d’optimisation pour un
phénomène réel ou virtuel d’intérêt. Parmi les méthodes présentées, nous discuterons du principe de
moindre action. Nous étudierons les différentes méthodes d’optimisation pour ces méthodes. Le cours
de tronc commun prend comme cadre le cas où l’ensemble des états admissibles est un sous ensemble
fermé d’un espace de Banach ; dans ce cours, nous nous intéresserons également à certains cas qui
n’entrent pas dans ce cadre, en particulier la question de l’optimisation de forme où la variable à
optimiser est la géométrie du domaine.


Bibliographie :

(Cournède Paul-Henry; Pierre Donald A 1969; Clarke Frank H 1983; Sokolowski and Zolesio 1992;
Delfour Michel C. 2012)
Clarke Frank H (1983) Optimization and nonsmooth analysis. Chischester Brisbane: Wiley-
Interscience, New York
Cournède Paul-Henry Optimisation continue et contrôle optimal : cours de 3e année de l’École centrale
Paris. Ecole Centrale Paris (CentraleSupélec)
Delfour Michel C. (2012) Introduction à l’optimisation et au calcul semi-différentiel. Dunod, Paris
Pierre Donald A (1969) Optimization theory with applications. J. Wiley & Sons, New York
Sokolowski J, Zolesio JP (1992) Introduction to shape optimization : shape sensitivity analysis.
Springer-Verlag

Equipe pédagogique : John Cagnol

Modalités d'évaluation :

Un contrôle continu de 1h30 le 8 janvier 2019 [25% de la note finale]
Un mini-projet à réaliser entre le 9 janvier 2019 et le 19 février 2019 [35% de la note finale]
Un examen écrit de 3h le 26 février 2019 [40% de la note finale]

27
Electifs de Mod lisation Math matique

Systèmes désordonnés et percolation (E4)

Enseignant responsable : Erick Herbin, professeur à CentraleSupélec


Prérequis : non

Description :Contenu :
Nous ne pouvons pas afficher lʼimage.

Bibliographie :

Equipe pédagogique : E. Herbin

Modalités d'évaluation : Exposés notés

28
Electifs de Mod lisation Math matique

Equations différentielles et aux dérivées partielles stochastiques (E5)

Enseignant responsable : Ludovic Goudenège, Chargé de Recherche CNRS, Fédération de Mathématiques


de CentraleSupélec
Prérequis : Notions de filtrations et martingales.

Description : Nous aborderons dans ce cours les notions fondamentales nécessaires à la description
d'une équation différentielle stochastique. Ces notions seront utilisées pour résoudre analytiquement
des équations différentielles stochastiques simples, mais également pour montrer l'existence de
solutions à des équations différentielles stochastiques sous de faibles hypothèses de régularité. Dans
une seconde partie du cours, nous présenterons les notions équivalentes qui permettent de définir des
équations aux dérivées partielles stochastiques, notamment la construction de processus de Wiener et
une intégrale stochastique en dimension infinie. Cela nous permettra de démontrer l'existence de
solutions pour des équations aux dérivées partielles avec bruit additif. Enfin le dernier chapitre abordera
des exemples de méthodes numériques qui permettent d'approcher les solutions de ces équations
stochastiques. Des exemples d'équations stochastiques sur des modèles variés (biologie, chaleur,
circuits électriques, finance, filtrage) seront présents dans chaque chapitre afin illustrer certains
comportements des solutions.

Contenu :
1) Formulation mathématique des équations différentielles stochastiques
Intégrale stochastique
Processus d'Ito
Existence de solutions, régularité et théorèmes clés
2) Formulation des équations aux dérivées partielles stochastiques
Processus de Wiener
Intégrale stochastique
Existence de solutions, régularité et théorèmes clés
3) Méthodes Numériques
Schémas numériques, convergence et simulations numériques

Bibliographie :
[1] B. Øksendal, Stochastic Differential Equations : An Introduction with Applications.
Fifth Edition, Corrected Printing. Springer-Verlag Heidelberg New York. Springer-Verlag.
[2] E. Pardoux, Stochastic partial differential equations.
Lectures given in Fudan University, Shangai, 2007.
[3] G. Da Prato and J. Zabczyk, Stochastic Equations in Infinite Dimensions, volume 44.
Cambridge University Press, In Encyclopedia of Mathematics and Its Applications, 1992.
[4] D. Revuz and M. Yor, Continuous martingales and Brownian motion, volume 293 of Grundlehren
der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences].
Springer-Verlag, Berlin, third edition, 1999.
[5] J.B. Walsh, An introduction to stochastic partial differential equations,
volume Lect. Notes Math. 1180, 265-437.
[6] Ecole d'Eté de Probabilités de Saint-Flour XIV - 1984, 1986.

Modalités d'évaluation : Examen Ecrit (3h), Examen Partiel (1h)

29
Electifs de Mod lisation Math matique

Processus de Lévy (E6, à confirmer)

Enseignant responsable :
Prérequis :
Description : Ce cours est une introduction aux processus de Lévy et au calcul stochastique avec sauts. Les
processus de Lévy forment une classe extrêmement riche de processus stochastiques, incluant en particulier le
mouvement Brownien et les processus de Poisson, et interviennent dans de nombreux domaines (modèles de
trafic, évolution de population, marché de l’énergie). Après une rapide présentation des processus de Markov,
dont les processus de Lévy font partie, nous exposerons les principales propriétés des processus de Lévy et
établirons par la formule de Lévy-Khintchine qu’ils sont caractérisés par un triplet (b, c, ν). Nous introduirons
ensuite les mesures aléatoires de Poisson et verrons leur lien avec les processus de Lévy grâce `a le
décomposition de Lévy-Itô. Nous terminerons par des résultats classiques de calcul stochastique avec sauts.
Contenu :

1. Processus de Markov : définition, probabilités de transition, générateur, processus de Poisson, processus


de Poisson composé.
2. Processus de Lévy : lois indéfiniment divisibles, lois stables, formule de Lévy-Khintchine, pro- cessus
de Lévy, triplet de caractéristiques.
3. Mesures aléatoires de Poisson : définition, propriétés, sauts d’un processus de Lévy, indice de
Blumenthal-Getoor, décomposition de Lévy-Itˆo.

4. Calcul stochastique avec sauts : intégrale stochastique contre une mesure aléatoire de Poisson, formule
d’Itˆo.

5. Changement de mesure : exponentielle de Doléans-Dade, théorème de Girsanov.

Bibliographie :

Applebaum, D. Lévy Processes and Stochastic calculus. Cambridge studies in advanced mathe- matics
116. Cambridge University Press 2009.

Cinlar, E. Probability and Stochastics. Graduate Texts in mathematics 261. Springer 2011.

Sato, K. Lévy Processes and Infinitely Divisible Distributions. Cambridge studies in advanced

mathematics 68. Cambridge University Press 1999.


Equipe pédagogique : Emmanuelle Clément
Modalités d'évaluation : contrôle intermédiaire et examen écrit

30
Electifs de Mod lisation Math matique

Maîtrise des Risques (E7)

Statistiques appliquées à la maîtrise des risques industriels :


traitement des incertitudes en simulation numérique
Enseignant responsable : Bertrand Iooss, checheur senior à EDF R&D (Département de Management des
risques Industriels) - http://www.gdr-mascotnum.fr/iooss1.html
Période :
Lieu : Gif-sur-Yvette
Prérequis : Cours de base en proba/stats (estimation, lois, tests), Régression linéaire, Notions de R

Description :
L’objectif principal de ce cours est d’expliciter quelques outils statistiques nécessaires à la maîtrise de
procédés industriels. Un focus particulier sera fait sur la prise en compte des incertitudes lors de
l’utilisation de modèles numériques permettant de simuler des phénomènes physiques. Les méthodes
enseignées couvriront en particulier la modélisation de variables aléatoires par des lois de probabilités,
la méthode de simulation de Monte Carlo et ses variantes, l’inférence d’événements rares, les plans
d’expériences, l’analyse de sensibilité, l’analyse fonctionnelle de la variance et l’approximation par
processus gaussiens.
L’intérêt pratique de ces techniques sera illustré via différentes applications industrielles (estimation
de risque d’inondation, maîtrise d’accidents graves par la simulation, optimisation de la gestion
d’actifs pour la maintenance de centrales, …).

Contenu :
1. Quantification et modélisation de sources d’incertitudes,
2. Propagation des incertitudes et inférence d’événements rares,
3. Planification d’expériences numériques,
4. Analyse de sensibilité par criblage et par décomposition de Sobol,
5. Krigeage et métamodèle processus gaussien.
Les travaux pratiques consisteront en des exercices dans l’environnement logiciel R (http://www.r-
project.org/), en utilisant des algorithmes déjà codés ou à coder.

Bibliographie :
[1] E. De Rocquigny. Modelling under risk and uncertainty, Wiley, 2012.
[2] R. Faivre, B. Iooss, S. Mahévas, D. Makowski & H. Monod (eds). Analyse de sensibilité et exploration
de modèles - Application aux sciences de la nature et de l’environnement, Editions Quaé, 2013.
[3] K. Fang, R. Li & A. Sudjianto. Design and modeling for computer experiments. Chapman & Hall,
2006.
[4] R.C. Smith. Uncertainty quantification – Theory, implementation, and applications, SIAM, 2014.
[5] B. Iooss. Revue sur l'analyse de sensibilité globale de modèles numériques. Journal de la Société
Française de Statistique, 152:1-23, 2011.

Modalités d'évaluation : Compte-rendu d’un TP et examen écrit (2h)

31
Electifs de Statistiques, Signaux et Donn es

Electifs de Statistiques, Signaux et Données

Electifs de Signal et Statistiques ....................................................................................... 32


Analyse spectrale et temps-fréquence (E1) ................................................................................ 33
Biostatistique (E2) ..................................................................................................................... 34
Distributed optimization (E3) .................................................................................................... 35
Stastique Bayésienne et Applications (E4) ................................................................................. 36
Apprentissage en grande dimension (E5) ................................................................................... 37
Traitement des images : méthodes et outils (E6) ....................................................................... 38
Théorie des Grandes Matrices Aléatoires et Apprentissage (E7) ................................................ 39

32
Electifs de Statistiques, Signaux et Donn es

Analyse spectrale et temps-fréquence (E1)

Enseignants responsables : Gilles Chardon et José Picheral (CentraleSupélec)


Prérequis : Séries chronologiques

Description :
Le but de cet enseignement est de présenter les modèles et les méthodes, de ces dernières décennies,
concourant à l'analyse spectrale de signaux dans des contextes particuliers. La première partie du cours
portera sur un rappel des méthodes classiques (périodagrammes et modélisation ARMA) puis
s'intéressera aux méthodes d'analyse spectrale à haute résolution. Enfin une ouverture sur l’application
de ces méthodes au traitement multicapteurs pour la localisation de sources sera proposée.
La seconde partie du cours concernera l'analyse de signaux non-stationnaires (parole, musique,
images) pour lesquels l'analyse fréquentielle classique n’est pas adaptée. Les analyses temps-
fréquence (transformée de Fourier à court terme) et temps-échelle (ondelettes) seront présentées dans
leurs version continues et discrètes.
Ces techniques seront appliquées au débruitage et à la compression de signaux sonores ou d’images.

Contenu :
Analyse spectrale
Périodogramme et variantes, MVDR
Modèles AR, MA et ARMA pour l’estimation spectrale
Méthodes à haute résolution : séparation en sous espaces, MUSIC, ESPRIT
Traitement multicapteurs et localisation de sources : modèle, formation de voies
Etudes de laboratoire : localisation de sources

Analyse temps-fréquence et temps-échelle


Limitations de l'analyse de Fourier.
Transformée de Fourier à court terme et en ondelettes continues
Définition et propriétés des bases et trames dans un espace de Hilbert.
Transformées discrètes, théorème de Balian-Low. Aspects algorithmiques : transformée
en ondelettes discrètes.
Applications : débruitage, compression

Bibliographie :
[1] R. Moses and P. Stoica , "Introduction to Spectral Analysis", Prentice Hall, 1997.
[2] G. Fleury, "Analyse spectrale", TechnoSup-Ellipse, 2001.
[3] S. Mallat, A Wavelet Tour of Signal Processing, Academic Press, 2008

Equipe pédagogique : Gilles Chardon et José Picheral


Modalités d'évaluation :
Examen écrit (4h) comportant des exercices de mise en œuvre sur PC

Remarques : Un accent particulier sera mis sur la mise en œuvre des méthodes par les étudiants sur
des applications concrètes.

33
Electifs de Statistiques, Signaux et Donn es

Biostatistique (E2)

Enseignant responsable : Arthur Tenenhaus (CentraleSupélec)

Description :
Les données recueillies en biologie et en médecine permettent aujourd’hui une meilleure
compréhension des phénomènes sous-jacents. Ce cours présente les principales méthodes statistiques
pour l’analyse de ce type de données. Une grande partie des méthodes décrites s’accompagneront
d’applications et de mises œuvre devant machine au travers du logiciel R. À l’issue de ce module, les
élèves disposeront d’une boîte à outils utiles pour répondre aux différentes questions soulevées par
l’analyse de données biologiques.

Contenu :
Analyse univariée et problématique des tests multiples (Bonferonni, False Discovery Rate…)
Modèle linéaire et analyse de la (co)-variance
Modèles linéaires à effets mixtes.
Modèle linéaire généralisée (régression logistique, régression de Poisson, etc.)
Analyse en Composantes Principales et régression PLS
Classification Ascendante Hiérarchique

Bibliographie :
[1] McCullagh, P. and Nelder, J. (1989). Generalized Linear Models, Second Edition. Boca
Raton: Chapman and Hall/CRC.
[2] Brown, H., & Prescott, R. (2014). Applied mixed models in medicine. John Wiley & Sons.
[3] Friedman, J., Hastie, T., & Tibshirani, R. (2001). The elements of statistical learning (Vol. 1).
Springer, Berlin: Springer series in statistics.
[4] Efron, B. (2012). Large-scale inference: empirical Bayes methods for estimation, testing, and
prediction (Vol. 1). Cambridge University Press.

Equipe pédagogique : Arthur Tenenhaus (CentraleSupélec), Christophe Lalanne (Université Paris


Diderot & Hopital Saint Louis)
Modalités d'évaluation : projet

34
Electifs de Statistiques, Signaux et Donn es

Distributed optimization (E3)

Enseignant responsable : Jean-Christophe PESQUET (Professeur)

Description :

In a wide range of application fields (inverse problems, machine learning, computer vision, data
analysis, networking,...), large scale optimization problems need to be solved.
The objective of this course is to introduce the theoretical background which makes it possible to
develop efficient algorithms to successfully address these problems by taking advantage of modern
multicore or distributed computing architectures. This course will be mainly focused on nonlinear
optimization tools for dealing with convex problems. Proximal tools, splitting techniques and
Majorization-Minimization strategies which are now very popular for processing massive datasets
will be presented. Illustrations of these methods on various applicative examples will be provided.

Contenu :

The course consists of eight sessions (3h each) combining lectures and exercices. The following concepts
will be presented:

1. Background on convex analysis


(Convex sets and functions - Differentiability and subdifferentiability - Proximity
operator - Conjugate function - Duality results)

2. Parallel and distributed proximal splitting methods


( Fixed point algorithm and Fejér sequences - Minimization of a sum of convex
functions – Primal-dual proximal parallel algorithms - Distributed techniques)

3. Parallelization through Majorization-Minimization approaches


(Majorization-Minimization principle - Majorization techniques - Half-Quadratic
methods - Variable metric Forward-Backward algorithm - Subspace
algorithms (memory gradient, BFGS, ...) - Parallel block coordinate
descent approaches)

Bibliographie :

Equipe pédagogique : Jean-Christophe PESQUET and Emilie CHOUZENOUX


Modalités d'évaluation : [par ex. examen écrit (3h), projet, soutenance, contrôle continu]
Examen écrit (2h)
Rapport de TP (par binôme)

35
Electifs de Statistiques, Signaux et Donn es

Stastique Bayésienne et Applications (E4)

Enseignant responsable : Emmanuel Vazquez, enseignant-chercheur CS


Prérequis : statistique

Description : Ce cours comprend trois parties. La première est consacrée aux fondements de la
statistique bayésienne. L’inférence bayésienne repose sur le choix d’un modèle bayésien, lui-même
constitué d’un modèle des observations et d’une loi de probabilité a priori pour les paramètres du
modèle. Étant donnée des observations, on calcule ce que l’on appelle une loi a posteriori des
paramètres du modèle bayésien (à l'aide de la règle de Bayes). La connaissance de cette loi a posteriori
permet ensuite d’accéder à la loi a posteriori des quantités d’intérêt. La deuxième partie du cours est
consacrée aux techniques d’échantillonnage par chaînes de Markov (Monte Carlo Markov Chains). La
troisième partie est consacrée aux applications de l’inférence bayésienne, en particulier aux problèmes
inverses. Par problème inverse, on entend la détermination d'une grandeur (scalaire ou vectorielle) à
partir d’observations indirectes (lorsque l'observation directe d’une grandeur physique n'est pas
possible).

Contenu :
Statistique Bayésienne -- Modèle paramétrique. Loi a priori. Loi a posteriori. Performance
d’un estimateur en moyenne (fonction de perte, risque). A priori diffus. A priori conjugués.
Echantillonnage par chaînes de Markov -- Intégration en grande dimension. Principes
élémentaires de simulations d’une variable aléatoire scalaire. Principe d’acceptation-rejet.
Principes et variantes de l’algorithme de Metropolis-Hastings. Introduction aux chaînes
de Markov et éléments d’analyse des algorithmes MCMC.
Problèmes inverses -- Définition et exemples de problèmes inverses, problèmes mal posés.
Régularisation et méthodes classiques d'inversion. Approche bayésienne de la résolution
des problèmes inverses. Inversion dans le cas gaussien et filtre de Kalman.
Approches MCMC et bayésiennes variationnelles. Applications.

Bibliographie :
[1] C. Robert (2004) Monte Carlo Statistical Methods, Springer
[2] C. Robert (2007), The Bayesian Choice, Springer.
[3] A. Mohammad-Djafari (2010), Inverse Problems in Vision and 3D Tomography. Iste-Wiley

Equipe pédagogique : Gilles Chardon et Emmanuel Vazquez


Modalités d'évaluation : Travaux pratiques

36
Electifs de Statistiques, Signaux et Donn es

Apprentissage en grande dimension (E5)

Enseignant responsable : Arthur Tenenhaus (CentraleSupélec)


Prérequis : Bio-statistique

Description :
Il est fréquent qu’en analyse de données, le nombre de variables à analyser soit bien plus grand que la
taille de l’échantillon. C’est particulièrement vrai en génomique et en médecine où les technologies
permettent de mesurer une quantité astronomique d'information. Par exemple, il est désormais possible
de récolter l'information relative à l'expression de l'ensemble des gènes (25 000 gènes pour l'Homme)
d'un organisme en une seule expérience.
L'analyse de ce type de données soulève de véritable challenges méthodologiques qu'il s'agit de
relever. Ce cours fait le point sur les méthodes d’apprentissage les plus récentes.

Contenu :
Régression parcimonieuse L1 (algorithmes proximaux)
Optimisation convexe pour l’introduction de contraintes de parcimonie structurées
Exemple : régression avec parcimonie structurée
Modèle graphique gaussien et parcimonie
RGCCA : Intégration de données ; Analyse canonique généralisée régularisée (et cas particuliers)
Méthodes à noyaux (kPCA, kPLS, KLR, RGCCA).

Bibliographie :
[1] Hastie, T., Tibshirani, R., & Wainwright, M. (2015). Statistical learning with sparsity. CRC
press.
[2] Adachi, K. (2016). Matrix-based introduction to multivariate data analysis. Springer

Equipe pédagogique : Arthur Tenenhaus (CentraleSupélec), Vincent Guillemot (Institut Pasteur)


Modalités d'évaluation : projet

Remarques : Une grande partie des points abordés seront mis en œuvre devant machine au travers du
logiciel R.

37
Electifs de Statistiques, Signaux et Donn es

Traitement des images : méthodes et outils (E6)

Enseignant responsable : Elisabeth Lahalle (CentraleSupelec)


Prérequis : électif « traitement du signal et parcimonie »

Description :
Le terme générique d'analyse d'image désigne l'ensemble des opérations suivantes : à partir d'une
image numérique, il convient d'extraire les informations pertinentes en regard de l'application
concernée, les traiter et les interpréter. La modélisation préalable de l'information, les prétraitements
permettant de garantir une bonne qualité d'image, la détection et l'estimation d'attributs de régions ou
de points d'intérêt sont les différentes phases de traitement d'images que l'on souhaite détailler en
s'appuyant sur des concepts et des méthodes qui ont fait leur preuve. Le but de ce cours est d'exposer
les méthodes d'analyse d'images choisies pour leur pertinence ou pour la qualité des résultats obtenus.

Contenu :
Propriétés statistiques et spectrales-modèles
Attributs de région
Echantillonnage-interpolation-représentations discrètes
Prétraitements
Détection de contours
Détection d'attributs particuliers
Segmentation : introduction
L'approche morphologique de l'analyse d'image
Fondements algébriques de la morphologie mathématique et introduction des opérateurs
élémentaires
Analyse dans les espaces d'échelle : fondements de l'analyse granulométrique
L'approche morphologique de la segmentation d'image

Bibliographie :
[1] H. Maitre, "Le traitement des images", Edition Hermes, 2003.
[2] J.P. Cocquerez et S. Philipp, "Analyse d’images : filtrage et segmentation", Edition Masson,
1995.
[3] S. Bres, J.M. Jolion, F. Lebourgeois, "Traitement et analyse des images numériques", Edition
Hermes, 2003.
[4] L. Najman and H. Talbot (Editors), "Mathematical Morphology", Wiley-ISTE, 2010.

Equipe pédagogique : Elisabeth Lahalle (CentraleSupelec), Antoine Manzanera (ENSTA)


Modalités d'évaluation : TP-projet

38
Electifs de Statistiques, Signaux et Donn es

Théorie des Grandes Matrices Aléatoires et Apprentissage (E7)

Enseignant responsable : Romain COUILLET (CS)


Lieu : ENS Cachan
Prérequis : probabilités, analyse complexe, bases d’apprentissage statistique

Description :
Le cours offre une introduction à la théorie des matrices aléatoires et à leurs applications en estimation,
inférence statistique et apprentissage pour les données de grandes dimensions. Il se divise en une
première partie théorique (J. Najim) sur les outils fondamentaux de la théorie (transformée de Stieltjes,
méthodes gaussiennes) ainsi que les résultats-clés (modèle de covariances, petites perturbations, etc.).
La seconde partie, plus applicative (R. Couillet) porte sur l’inférence statistique dans les modèles de
covariances et les méthodes d’estimation spectrale entre autres, particulièrement dans le contexte de
l’apprentissage.

Des devoirs maison (deux seront notés) et lectures anticipées du polycopié de cours sont proposées afin de
se familiariser avec les outils non standard. Deux TPs sont également au programme, au cours desquels des
algorithmes d’inférence et de détection de communautés sur graphes seront analysés et optimisés.
Le cours s’achèvera par un devoir sur table de 2h.

Contenu :
Introduction
La transformée de Stieltjes
Théorème de Marcenko-Pastur
Modèle de grandes matrices de covariance
Inférence statistique (cours + TP)
Petites perturbations
Applications à l’apprentissage (méthodes spectrales, à noyaux, réseaux de neurones, etc.)
Application à la détection de communautés (TP)

Bibliographie :
[1] Couillet, R., & Debbah, M. (2011). Random matrix methods for wireless communications.
Cambridge University Press.
[2] Couillet, R., & Benaych-Georges, F. (2016). Kernel spectral clustering of large dimensional
data. Electronic Journal of Statistics, 10(1), 1393-1454.
[3] R. Couillet, G. Wainrib, "Perspectives en matrices aléatoires et grands réseaux", Revue
Traitement du Signal, vol. 33, no. 2-3, pp. 351-376, 2016.
[4] Hachem, W., Khorunzhiy, O., Loubaton, P., Najim, J., & Pastur, L. (2008). A new approach
for mutual information analysis of large dimensional multi-antenna channels. IEEE
Transactions on Information Theory, 54(9), 3987-4004.

Equipe pédagogique : Jamal Najim et Romain Couillet


Modalités d'évaluation : Examen écrit + 2 CRs de TP + 2 DMs.
Note = max( Examen , (1/2) Examen + (1/2) (TP+DMs) )

39
Cours de Math-Physique

Cours de Math-Physique

Cours de Math-Physique .................................................................................................. 40


Topics in Mathematical Physics ................................................................................................. 41
Théorie quantique des champs .................................................................................................. 42
Groupes et Algèbres de Lie .................................................................................................... 43
Systèmes désordonnés et percolation ....................................................................................... 44

40
Cours de Math-Physique

Topics in Mathematical Physics

Enseignant responsable : Igor Kornev, professeur CentraleSupélec


Prérequis : non

Description :

Contenu :

1. Classical Mechanics vs. Symplectic Geometry


2. Gravitation vs. Riemann Geometry

3. Physical Fields vs. Bundles

4. Geometrical Berry Phase vs. Homolomy

5. Forces and Potential vs. Cohomology

6. Topological Insulators vs. Homotopy


7. Defects vs. Algebraic Topology


8. Topological Quantum Fields Theory vs. Categories

Bibliographie :

Equipe pédagogique : I. Kornev

Modalités d'évaluation :

41
Cours de Math-Physique

Théorie quantique des champs

Enseignant responsable : Hervé Moutarde, physicien au CEA


Prérequis : bases de la mécanique quantique (fonction d’onde, amplitude de probabilité, relations de
commutations, formalismes des bras et des kets, fermions et bosons). Bases de la relativité restreinte
(transformations de Lorentz, espace-temps de Minkowski et quadrivecteurs). Distribution de Dirac et
transformation de Fourier. Tenseurs.

Description :
La Théorie Quantique des Champs (TQC) est le langage décrivant les systèmes physiques à nombre
infini de degrés de liberté. Elle a de nombreuses applications en physique nucléaire et des particules,
en physique statistique et en physique de la matière condensée. C’est le cadre conceptuel du Modèle
Standard de la physique des particules, qui décrit avec succès tous les phénomènes connus relatifs
aux interactions électromagnétique, faible et forte.
La TQC peut être vue comme un algorithme livrant des prédictions testables expérimentalement avec
une précision susceptible d’être accrue systématiquement. Cependant la description formelle de cet
algorithme n’atteint pas encore les standards de la rigueur mathématique, et un certain nombre de
questions physique d’importance sont laissées sans réponse, comme la courte portée de l’interaction
forte ou le confinement des quarks dans les protons et neutrons.

Contenu :
Le cours introduit les différents types de champs jouant un rôle important en physique nucléaire et des
particules : scalaire, spinoriel et vectoriel, et discute leur quantification. Le formalisme en intégrale de
chemins est présenté. L’invariance relativiste et les symétries de jauge sont traitées dans un formalisme
lagrangien. Les diagrammes de Feynman sont introduits et motivés dans une formulation
perturbative. Le cours s’achève par le calcul de certains processus impliquant électrons, positrons et
photons en Electrodynamique Quantique (QED).

Bibliographie :
[1] Bell, Experimental Quantum Field Theory, CERN-JINR School of Physics, 1977.
[2] Griffiths, Introduction to Elementary Particles, John Wiley & Sons, 1987 (first edition).
[3] Mandl and Shaw, Quantum Field Theory, John Wiley & Sons, 1993 (revised edition).
[4] Ryder, Quantum Field Theory, Cambridge University Press, 1996 (second edition).
[5] Jaffe and Witten, Quantum Yang-Mills theory, Millenium Prize Problem, Clay Institute, 2000.

Equipe pédagogique : Hervé Moutarde


Modalités d'évaluation : Examen oral (45 minutes) pour la moitié de la note, contrôle continu
(exercices à rendre) pour la moitié de la note.

Remarques : Une sélection de documents introductifs peut être fournie sur demande.

42
Cours de Math-Physique

Groupes et Algèbres de Lie

Enseignant responsable : Frédéric Paulin, Université d’Orsay


Prérequis : Calcul différentiel, algèbre linéaire

Description : Le but de ce cours est de donner une introduction aux groupes de Lie classiques (dont
SO(n), SU(n), SO(3,1)) et à la classification de leur représentations de dimension finie. Nous
discuterons de leurs
apparitions en physique des particules (groupe de jauge du modèle standard, groupe de jauge de la
chromodynamique quantique, symétrie d’isospin des nucléons et pions, …) et en relativité restreinte.

Contenu :
Groupes et algèbres de Lie matriciels
Représentations linéaires de dimension finie d’algèbres de Lie
Représentations linéaires de dimension finie de groupes de Lie
Les groupes SU(2) et SO(3), et la symétrie d’isospin
Les groupes de Lorentz et de Poincaré en relativité restreinte
Le groupe SU (3) de la symétrie de saveur

Bibliographie :
[1] E. Gourgoulhon. Relativité restreinte : Des particules à l’astrophysique. Savoirs actuels, EDP
Sciences, 2010.
[2] Y. Kosmann-Schwarzbach. Groupes et symétries : Groupes finis, groupes et algèbres de Lie,
représentations. Éditions de l’Ecole Polytechnique, 2006.
[3] F. Paulin, Introduction aux groupes de Lie pour la physique, Notes de cours.

Modalités d'évaluation : Devoir maison + examen écrit (3h)

43
Cours de Math-Physique

Systèmes désordonnés et percolation

Enseignant responsable : Erick Herbin, professeur à CentraleSupélec


Prérequis : non

Description :

Contenu :

Bibliographie :

Equipe pédagogique : E. Herbin

Modalités d'évaluation : Exposés notés

44
Electifs de Data Sciences

Electifs de Data Sciences

45
OMA

DATA SCIENCES

COURSES CATALOGUE
Theory
– Advanced Statistics - Pascal (DSBA, AI)
– Deep Learning – Lepetit (MVA, DSBA, AI)
– Reinforcement learning – Oyallon (DSBA, AI)
– Network Science Analytics - Maliaros (DSBA, AI)
– Distributed Optimization & Computing - Chouzenoux (MVA)
– Geometric Methods in Data Analysis – Cazals & Oudot (DSBA)
– Discrete Inference & Learning – Alahari & Tarabalka (MVA, DSBA,
AI)
Domain Specific
– Advanced Image Synthesis - Drettakis & Bousseau (AI)
– Advanced Visual Computing – Vakalpopoulou & Talbot (AI)
– Natural Language Processing – Galle (DSBA, AI)
– Advanced Medical Imaging – Dellingette & Pennec (MVA, AI)
Practice
– Deep Learning in Practice – Chapriat (MVA, DSBA, AI)
Title : FOUNDATIONS OF DEEP LEARNING

Duration : 24 hours

Professor : Vincent Lepetit, University of Bordeaux

Email : vincent.lepetit@u-bordeaux.fr

Website : https://www.labri.fr/~vlepetit

Course description

With the increase of computational power and amounts of available data, but also with
the development of novel training algorithms and new whole approaches, many
breakthroughs occurred over the few last years in Deep Learning for object and spoken
language recognition, text generation, and robotics. This class will cover the
fundamental aspects and the recent developments in deep learning in different
domains: Computer Vision, Natural Language Processing, and Deep Reinforcement
Learning.

Structure:

Each section of the course is divided into 1h30' lecture and 1h30' lab. The labs will
allow the students to start developing the mini-projects on which the evaluation is
based, and receive feedback.

Content (table of contents)

- history of deep learning and its relation to cognitive science;


- feedforward networks, regularisation and optimization;
- representation learning & siamese networks;
- GAN & transfer learning;
- recurrent networks and LSTM for Natural Language Processing;
- object detection;
- self-supervised methods;
- deep reinforcement learning.

Learning objectives

The course aims to introduce students to Deep Learning through the development of
practical projects. We expect that by the end of the course, the students will be able to
implement and develop new methods in different domains.

Prerequisites

There is no official prerequisite for this course. However, the students are expected
to have basic knowledge of Python.

Reading material
Deep Learning. Ian Goodfellow, Yoshua Bengio, and Aaron Courville, MIT Press,
2016.

Evaluation

The evaluation of the course will be based on 3 individual mini-projects on object


recognition, natural language processing, and reinforcement learning.

Resources

- Software tools: Python, Keras, PyTorch

- Related conferences: NIPS, ICML, ICLR, CVPR, ECCV, ICCV

- Related Courses: Deep Learning in Practice (second semester)

Title : NETWORK SCIENCE ANALYTICS

Duration : 24 hours

Professor : Fragkiskos MALLIAROS (Assistant Professor, CVN, CentraleSupélec)

Email : fragkiskos.malliaros@centralesupelec.fr

Website : http://fragkiskos.me/

Course description

Networks (or graphs) have become ubiquitous as data from diverse disciplines can
naturally be mapped to graph structures. Social networks, such as academic
collaboration networks and interaction networks over online social networking
applications are used to represent and model the social ties among individuals.
Information networks, including the hyperlink structure of the Web and blog networks,
have become crucial mediums for information dissemination, offering an effective way
to represent content and navigate through it. A plethora of technological networks,
including the Internet, power grids, telephone networks and road networks are an
important part of everyday life. The problem of extracting meaningful information from
large scale graph data in an efficient and effective way has become crucial and
challenging with several important applications and towards this end, graph mining and
analysis methods constitute prominent tools. The goal of this course is to present
recent and state-of-the-art methods and algorithms for analyzing, mining and learning
large-scale graph data, as well as their practical applications in various domains (e.g.,
the web, social networks, recommender systems).

Structure
Each section of the course is divided into 1h30' lecture and 1h30' lab. The labs will
include hands-on assignments (using Python) and will provide the students the
opportunity to deal with graph mining tasks in practice.

Content (table of contents)

1. Introduction to network science and graph mining


Graph theory and linear algebra recap; basic network properties
2. Random graphs and the small-world phenomenon
Power-law degree distribution and the Preferential Attachment model
3. Time-evolving graphs and network models
Centrality criteria and link analysis algorithms
4. Graph clustering and community detection
5. Node similarity and link prediction
Graph similarity
6. Representation learning in graphs
Graph sampling and summarization
7. Epidemic processes and cascading behavior in networks
Influence maximization in social networks
8. Core decomposition in networks and applications
Review of topics
9. Project presentations

Learning objectives

The course aims to introduce students to the field of graph mining and network analysis
by:

• Covering a wide range of topics, methodologies and related applications.


• Giving the students the opportunity to obtain hands-on experience on dealing
with graph data and graph mining tasks.

We expect that by the end of the course, the students will have a thorough
understanding of various graph mining and learning tasks, will be able to analyze large-
scale graph data as well as to formulate and solve problems that involve graph
structures.

Prerequisites

There is no official prerequisite for this course. However, the students are expected to:

• Have basic knowledge of graph theory and linear algebra.


• Be familiar with fundamental data mining and machine learning tasks.
• Be familiar with at least one programming language (e.g., Python or any
language of their preference).

In the first lecture, we will review basic concepts in graph theory, linear algebra and
machine learning.
Reading material

Most of the material of the course is based on research articles. Some of the topics
are also covered by the following books:

• David Easley and Jon Kleinberg. Networks, Crowds, and Markets. Cambridge
University Press, 2010.
• Mark E.J. Newman. Networks: An Introduction. Oxford University Press, 2010.
• Deepayan Chakrabarti and Christos Faloutsos. Graph Mining: Laws, Tools, and
Case Studies. Synthesis Lectures on Data Mining and Knowledge Discovery,
Morgan and Claypool Publishers, 2012.
• Reza Zafarani, Mohammad Ali Abbasi and Huan Liu. Social Media Mining.
Cambridge University Press, 2014.
• Albert-Laszlo Barabasi. Network Science. Cambridge University Press, 2016.

Evaluation

The evaluation of the course will be based on the following:

1. Two assignments: the assignments will include theoretical questions as well


hands-on practical questions and will familiarize the students with basic graph
mining tasks.
2. Project: The students are expected to form groups of 3-4 people, propose a
topic for their project, and submit a final project report. There will also be a final
presentation in class during the last lecture of the course.

The grading will be as follows:

Assignment 1 (individually): 25%


Assignment 2 (groups of 3-4 students): 25%
Project (groups of 3-4 students): 50%

Resources

Resources about the course (including software tools and datasets) can be found in
the website of the course: http://fragkiskos.me/teaching/NGSA-S19/

Title : DISCRETE INFERENCE AND LEARNING

Duration : 24 hours

Professor : Karteek ALAHARI (Researcher, Inria Grenoble) and


Yuliya TARABALKA (Researcher, Inria Sophia-Antipolis)

Email : karteek.alahari@inria.fr, yuliya.tarabalka@inria.fr

Website : https://thoth.inrialpes.fr/people/alahari,
http://www-sop.inria.fr/members/Yuliya.Tarabalka
Course description / summary

Graphical models (or probabilistic graphical models) provide a powerful paradigm to


jointly exploit probability theory and graph theory for solving complex real-world
problems. They form an indispensable component in several research areas, such as
statistics, machine learning, computer vision, where a graph expresses the conditional
(probabilistic) dependence among random variables.

This course will focus on discrete models, that is, cases where the random variables
of the graphical models are discrete. After an introduction to the basics of graphical
models, the course will then focus on problems in representation, inference, and
learning of graphical models. We will cover classical as well as state of the art
algorithms used for these problems. Several applications in machine learning and
computer vision will be studied as part of the course.

Structure

8 lectures of 3 hours.

Content (table of contents)

1. Introduction, basic concepts, Bayesian networks, Markov random fields


2. Dynamic programming, message-passing methods, belief propagation
3. Graph-cuts: binary energy minimization, multi-label energy minimization
4. Move-making algorithms, tree-reweighted message passing
5. Primal-dual schema, dual decomposition
6. Parameter learning, classical and modern learning
7. Recommender systems

Learning objectives

The aim of this course is to introduce students to the relevant concepts and techniques
of graphical models, discrete inference and learning, and to familiarize them with how
these methods can be applied.

Prerequisites

Solid understanding of mathematical methods, including linear algebra, probability,


integral transforms and differential equations.

Reading material

Probabilistic graphical models: principles and techniques, Daphne Koller and Nir
Friedman, MIT Press
Convex Optimization, Stephen Boyd and Lieven Vanderbeghe

Numerical Optimization, Jorge Nocedal and Stephen J. Wright

Introduction to Operations Research, Frederick S. Hillier and Gerald J. Lieberman

An Analysis of Convex Relaxations for MAP Estimation of Discrete MRFs, M. Pawan


Kumar, Vladimir Kolmogorov and Phil Torr

Convergent Tree-reweighted Message Passing for Energy Minimization, Vladimir Kolmogorov

Evaluation

The evaluation of the course will be based on quizzes during the course and the final
exam.

Title : FOUNDATIONS OF GEOMETRIC METHODS IN DATA


ANALYSIS

Duration : 24 hours

Professor : Frederic Cazals and Frederic Chazal (research director, Inria)

Email : frederic.cazals@inria.fr & Frederic.Chazal@inria.fr

Websites : https://team.inria.fr/abs/team-members/homepage-frederic-cazals/
https://geometrica.saclay.inria.fr/team/Fred.Chazal/

Course description

Data analysis is the process of cleaning, transforming, modeling or comparing data, in


order to infer useful information and gain insights into complex phenomena. From a
geometric perspective, when an instance (a physical phenomenon, an individual, etc.)
is given as a fixed-sized collection of real-valued observations, it is naturally identified
with a geometric point having these observations as coordinates. Any collection of
such instances is then seen as a point cloud sampled in some metric or normed space.
This course reviews fundamental constructions related to the manipulation of such
point clouds, mixing ideas from computational geometry and topology, statistics, and
machine learning. The emphasis is on methods that not only come with theoretical
guarantees, but also work well in practice. In particular, software references and
example datasets will be provided to illustrate the constructions.

Structure
Each course involves two lectures (1h30' each), providing the theoretical foundations,
together with illustrations of the methods on practical datasets.

Content (table of contents)

The topic covered in the 8 lectures are as follows :


• 1. Nearest neighbors in Euclidean and metric spaces: search data structures
and algorithms
• 2. Nearest neighbors in Euclidean and metric spaces: analysis
• 3. Dimensionality reduction algorithms
• 4. Covers and nerves: geometric inference and the Mapper algorithm
• 5. Clustering algorithms and introduction to persistent homology
• 6. Statistical hypothesis testing and two-sample tests (TST)
• 7. Comparing high-dimensional distributions, comparing clusterings
• 8. Shape signatures: stability and statistical aspects

Learning objectives

The goals are twofold :


-- to master the fundamentals of geometric data analysis,
-- to acquire expertise to decide which methods are practically best suited to deal
with data of a certain type

Prerequisites

There is no official prerequisite for this course. However, the students are expected
to have a good familiarity with:
-- Basics in algorithms (notions of complexity)
-- Basics in linear algebra, geometry, probability theory.
Proficiency with one programming language (C/C++, python, R) is also expected.

Reading material

A reading list for each course is provided on the following web site:
http://www-sop.inria.fr/abs/teaching/centrale-FGMDA/centrale-FGMDA.html

Evaluation

The evaluation of the course will be based on a project, undertaken by groups of two
students. Two types of projects will be provided, to match the background of
students. On the one hand, projects with a mathematical-algorithmic inclination will
provide the opportunity to deepen the theoretical understanding of a recent research
result. On the other hand, data processing projects will provide the opportunity to
gain a fine understanding on complex data, using (selected) methods studied during
the class.

For each project, the code developed and a report will be returned.
Resources

The course material is made available from : http://www-


sop.inria.fr/abs/teaching/centrale-FGMDA/centrale-FGMDA.html

Title : REINFORCEMENT LEARNING

Duration : 24 hours

Professor : Edouard Oyallon (CVN, CentraleSupelec)

Email : edouard.oyallon@centralesupelec.fr

Website : https://edouardoyallon.github.io/teaching

Course description

Reinforcement Learning (RL) methods are at the intersection of several fields such as
machine learning, control theory, or game theory. They study how an algorithm can
optimally evolve in an environment in order to optimizing a future reward. Recently,
they were applied to complex games such as the Game of Go or Atari games and have
lead to super-human performances in those contexts. This class will cover the
necessary tools to understand how such breakthrough was possible.

Structure

Each section of the course is divided into 1h30' lecture and 1h30' lab. The labs will
include exercises and practical session in python.

Content (table of contents)

1. Introduction to RL
2. MDP and bandits
3. Dynamic Programming
4. Prediction
5. Control
6. Guest speaker (TBC, Alessandro Lazaric (Facebook))
7. (Deep) gradient based learning
8. Delving into Deep RL

Learning objectives

The course aims to introduce students to understand the underlying concepts of


reinforcement learning algorithms. Beyond the theory, the students will have the
opportunity to practice (deep) Reinforcement Learning via pytorch lab sessions; in
particular, they will have to tackle non-trivial RL tasks and re-implement recent works
w.r.t. deep Reinforcement Learning.

Prerequisites
The students are expected to have taken the introduction to Deep learning class of the
first semester. Furthermore, the students are also expected to be familiar with basic
probabilities concepts, such as Markov Chain, as well as foundations of machine
learning concepts.

Reading material

• Sutton & Barto, Reinforcement Learning: An Introduction


• Szepesvari, Algorithms for Reinforcement Learning
• Bertsekas, Dynamic Programming and Optimal Control, Vols I and II
• Puterman, Markov Decision Processes: Discrete Stochastic Dynamic
Programming
• Powell, Approximate Dynamic Programming

Evaluation

The evaluation of the course will be based on the following:


- Assignments: the assignments will include theoretical questions as well as practical
codes that should run on jupyter notebooks.

- Project: The students are expected to form groups of 4 people, propose a topic for
their project(that will have to be validated), and submit a final project report.

The grading will be as follows:

Assignment 1 (individually): 25%


Assignment 2 (individually): 25%
Project (groups of 3-4 students): 50%

Resources

- Software tools : Pytorch ; Gym(OpenAI)


- Related conferences : ICLR, ICML, NIPS, AAAI
- Related Courses : Excellent in Game Theory, Multi-agents systems, Introduction to
Deep Learning, Deep Learning in Practice.

Title : LARGE SCALE DISTRIBUTED OPTIMIZATION & COMPUTING

Duration : 24 hours

Professor : Emilie CHOUZENOUX (CVN, CentraleSupelec)

Email : emilie.chouzenoux@centralesupelec.fr

Website : http://www-syscom.univ-mlv.fr/~chouzeno/

Course description
In a wide range of application fields (inverse problems, machine learning, computer
vision, data analysis, networking,...), large scale optimization problems need to be
solved.
The objective of this course is to introduce the theoretical background which makes it
possible to develop efficient algorithms to successfully address these problems by
taking advantage of modern multicore or distributed computing architectures. This
course will be mainly focused on nonlinear optimization tools for dealing with convex
problems. Proximal tools, splitting techniques and Majorization-Minimization strategies
which are now very popular for processing massive datasets will be presented.
Illustrations of these methods on various applicative examples will be provided.

Structure

Each section of the course is divided into 1h30' lecture and 1h30' lab. The labs will
include Python programming of optimization algorithms and will provide the students
the opportunity to apply the methods seen in lecture to applicative examples in the
context of datascience.

Content (table of contents)

1. Background on convex analysis


(Convex sets and functions - Differentiability and subdifferentiability - Proximity operator -
Conjugate function - Duality results)

2. Parallel and distributed proximal splitting methods


( Fixed point algorithm and Fejér sequences - Minimization of a sum of convex functions -
Primal-dual proximal parallel algorithms - Distributed techniques)

3. Parallelization through Majorization-Minimization approaches


( Majorization-Minimization principle - Majorization techniques - Half-Quadratic methods -
Variable metric Forward-Backward algorithm - Subspace algorithms (memory gradient, BFGS,
...) - Parallel block coordinate descent approaches)

Learning objectives

The course aims to introduce students to state of the art algorithms for large scale
continuous optimization.

Prerequisites

There is no official prerequisite for this course. However, the students are expected
to :
Have basic knowledge of linear algebra and functionnal analysis.
Be familiar with Python programming.
Reading material

D. Bertsekas, Nonlinear programming, Athena Scientic, Belmont, Massachussets,


1995.
Y. Nesterov, Introductory Lectures on Convex Optimization: A Basic Course,
Springer, 2004.
S. Boyd and L. Vandenberghe, Convex optimization, Cambridge University Press,
2004.
H. H. Bauschke and P. L. Combettes, Convex Analysis and Monotone Operator
Theory in Hilbert Spaces, Springer, New York, 2011.

Evaluation

The evaluation of the course will be based on the following :


- Written exam: the exam will include theoretical questions related to the course, as
well as the study of a research paper.

- Labs reports: The students are expected to submit an individual for 3 of the lab
sessions.

The grading will be as follows:


- Exam 50%
- Lab reports 50%

Resources
- Lecture supports : http://www-syscom.univ-mlv.fr/~chouzeno/Cours.html

Title : ADVANCED STATISTICS

Duration : 24 hours

Professor : Frédéric PASCAL (Professor, L2S, CentraleSupélec)

Email : frederic.pascal@centralesupelec.fr

Website : http://fredericpascal.blogspot.com

Teaching assistants :

Violeta ROIZMAN (L2S, CentraleSupélec)


Violeta.roizman@l2s.centralesupelec.fr

Course description / summary

This course aims first at introducing the general methodology of mathematical


statistics through the fundamental concepts (statistical modelling and sampling,
estimation problems, decision theory and hypothesis testing). Then, this course
provides advanced statistical techniques for multivariate analysis with a particular
focus on computational statistics and robust estimation approaches. Regularized /
penalized techniques are also presented.

Structure

Each section of the course is divided into 1h30' lecture and 1h30' exercises sessions.
3 courses (3hrs) are fully dedicated to lab sessions in Python.

Content (table of contents)

1. Introduction – Reminders in probability theory


2. Statistical modeling
3. Estimation
4. Computational statistics
5. Hypothesis testing / Decision Theory
6. Multivariate robust estimation
7. Regularized approaches

Learning objectives

We expect that by the end of the course, the students will be able to apply advanced
statistical methods on real data applications

Prerequisites
The students are expected to have basic knowledge of basic probabilities concepts.
Moreover, the students must be familiar with Python programming or at least with
Matlab or R languages.

Reading material

The three first references contain classical elements for a course of mathematical
statistics, including some reminders on Probability theory while references 4 to 6
contain advanced results on asymptotic theory and on mathematical statistics.
[1] Casella, George, and Roger L. Berger. Statistical inference. Vol. 2. Pacific
Grove, CA: Duxbury, 2002.
[2] Lehmann, Erich Leo, and George Casella. Theory of point estimation.
Springer Science & Business Media, 2006.
[3] Lehmann, Erich L., and Joseph P. Romano. Testing statistical hypotheses.
Springer Science & Business Media, 2006.
[4] Van der Vaart, Aad W. Asymptotic statistics. Vol. 3. Cambridge university
press, 2000.
[5] Bilodeau, Martin and Brenner, David. Theory of multivariate statistics. Springer
Verlag, 1999.
[6] Anderson, T. W. An Introduction to Multivariate Statistical Analysis. John Wiley
& Sons, New York, 3rd ed., 2003.
[7] Maronna, A., Martin, D. R. and Yohai, Robust Statistics: Theory and Methods.
J. V. Wiley Series in Probability and Statistics, John Wiley & Sons, 2006.

Evaluation

The evaluation of the course will be based on the following:


- Written exam: the exam will include theoretical questions related to the course
- Labs reports: the students should submit an individual for the 3 lab sessions.

The grading will be as follows:


Exam 50%
Lab reports 50%

Title : DEEP LEARNING IN PRACTICE

Duration : 24 hours

Professors : Guillaume Charpiat (TAU team, INRIA / LRI),


Edouard Oyallon (CVN, CentraleSupelec)

Email : guillaume.charpiat@inria.fr
edouard.oyallon@centralesupelec.fr

Website : https://www.lri.fr/~gcharpia/deeppractice/

Course description

Deep learning methods are now the state of the art in many machine learning tasks,
leading to impressive results. Nevertheless, they are still poorly understood, neural
networks are still difficult to train, and the results are black-boxes missing explanations.
Given the societal impact of machine learning techniques today (used as assistance
in medicine, hiring process, bank loans...), it is crucial to make their decisions
explainable or to offer guarantees. Besides, real world problems usually do not fit the
standard assumptions or frameworks of the most famous academic work (data quantity
and quality, expert knowledge availability...). This course aims at providing insights and
tools to address these practical aspects, based on mathematical concepts.

Structure

Each session of the course will comprise a lecture and practical exercises (mini-
projects) using PyTorch.
Content (table of contents)

1. Introduction: gap between practice and theory


2. Interpretability
3. Small data and robustness

4. Towards real-world problems: from synthethic Reinforcement Learning to


robots
5. Scaling Deep learning
6. Auto-DeepLearning
7. Guest lectures from the Industry

More detailed content

This class will start by emphasizing theoretical misconceptions, by exhibiting cases


where neural networks do not reach classical techniques' performance, and also, on
the opposite, explicit cases of deep learning success with proofs of depth requirement.
We will then study different ways to visualize what a neural network is doing, in order
to interpret its decisions, and check that it does neither reproduce undesired biases
present in the dataset (such as sensitivity to ethnicity when matching CVs to job offers),
nor disclose private information from people in the dataset.
The rest of the course will investigate practical issues when training neural networks,
in particular data quantity, trials to apply deep learning to real Reinforcement Learning
problems, and automatic hyper-parameter tuning.
The last lesson will be a set of lectures by guests from different domains of the
Industry, as a showcase of successful applications of deep learning, with practical
recommendations.

Learning objectives

The course aims to introduce students to common issues in daily deep learning
practice. We expect that by the end of the course, the students will be able to better
grasp the potential problems and better define their training setup.

Prerequisites

The only prerequisite for this course is the introduction to Deep Learning course by
Vincent Lepetit (taking place during the 1st semester), as well as coding skills in
python (as execices will be in PyTorch). However, the students are expected to have
some notions in information theory, Bayesian statistics, analysis, differential calculus.

Reading material

1. Deep Learning, Ian Goodfellow and Yoshua Bengio and Aaron Courville, 2013

2. Why does deep and cheap learning work so well?, Henry W. Lin, Max Tegmark,
David Rolnick
3. Learning from Simulated and Unsupervised Images through Adversarial
Training, Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Josh Susskind, Wenda
Wang, Russ Webb
More references can be found on the webpage of the course.

Evaluation

The course sessions will comprise practical exercises (three mini-projects total, in
PyTorch), which will be evaluated.

Resources

- Software tools : linux, anaconda, python(3.6), pytorch, sckitlearn, numpy

- Related conferences : ICLR, ICML, NIPS, CVPR, ICCV, ECCV

- Related Courses : Introduction to Deep learning, by Vincent Lepetit


(first semester)

Title : NATURAL LANGUAGE PROCESSING

Duration : 24hours

Professor : Matthias GALLÉ (Naver Labs Europe)

Email : matthias.galle@naverlabs.com

Website : http://europe.naverlabs.com/NAVER-LABS-Europe/People/Matthias-Galle

Course description

This course will give an overview of the topics of study of the field of Natural Language
Processing. It will take a problem-centric approach, introducing increasingly complexer
problems, starting from basic building blocks like language modeling, tagging and
parsing; and progressing towards complex problems like opinion mining, machine
translation, question & answering and dialogue. While important historical methods will
be mentioned (and studied if still relevant), a focus will be on current state-of-the-art
involving many times recent advances in training neural networks and novel
architectures.

Structure

The course consist of two sections. The first one introduces typical NLP tasks, while
the second focuses on end application.
Content (table of contents)

FIRST PART
1. Introduction
2. Language model
3. Representation of words & documents
4. Tagging, Named Entity Recognition
5. Parsing

SECOND PART
6. Mining User Generated Content
7. Machine Translation and Natural Language Generation
8. Machine Reading
9. Dialogue

Learning objectives

The goal of the course is to provide an introduction to the field of Natural Language
Processing. By the end of the course, the student will:
• know what are the main applications, why they are challenging and how they
can be used
• have grasp of the proven methods and their inner working
• be exposed to current research directions, and have the basic fundamentals to
be able to follow the field in the coming years

Prerequisites

• coding skills. All exercises will be done in python.


◦ Knowledge of relevant libraries (scikit-learn, spacy, kears, pytorch,
tensorflow) is not required but useful
• linear algebra
◦ a basic knowledge of machine learning will be helpful
• basic computer science concepts

Reading material

The main reference will be


Speech and Language Processing. Jurafsky & Martin. Draft of 3rd edition online
at https://web.stanford.edu/~jurafsky/slp3/

Evaluation
The evaluation of the course will be done by three exercises, graded equally.
Evaluation will be done mostly automatic (performance on a test set), but qualitative
assessment (text file containing explanations, code quality, etc) will also be taken into
account.
All projets will be done in groups of not more than 4 students.

Resources

- Software tools :
https://spacy.io
https://pytorch.org/

- Related conferences:
https://acl2018.org
http://emnlp2018.org

- Related Courses :
http://web.stanford.edu/class/cs224n/syllabus.html
https://uva-slpl.github.io/ull/syllabus.html

Title : ADVANCED IMAGE SYNTHESIS

Duration : 24 hours

Professor : George DRETTAKIS, Adrien Bousseau

Email : George.Drettakis@inria,fr

Website : http://www-sop.inria.fr/members/George.Drettakis

Course description / summary

This course provides an introduction to computer graphics with a particular focus on


rendering, and presents several advanced elements that constitute active research
topics. We introduce the theoretical and mathematical foundations of CG rendering
while proposing practical exercises/labs to deepen understanding of concepts. For
these we rely on the OpenGL 3D library and the GLSL shader language for
programming real-time graphics systems, and on the Nori educational rendering
system for programming global illumination algorithms. Labs are done in class, but can
be completed after the course.

Structure

Classes are divided into 1h30' lecture and 1h30' lab, except the first which is a 3h
lecture.

Content (table of contents)

1. Introduction to Image Synthesis


a. Overview of image synthesis and its applications
b. Graphic pipeline to generate a 2D image from a 3D scene description
c. Transformation matrices, perspective camera models
d. Algorithms for rasterization and OpenGL principles
2. Introduction to Rendering
a. Algorithms and data structures to compute visibility
b. Materials models and lighting
c. Material capture
d. Shading computation in OpenGL
3. Algorithms for Textures and Shadows
a. Algorithms and data structures to render appearance details on
surfaces
b. By-example and procedural texture synthesis
c. Shadow computation (ray-tracing, shadow maps, shadow volumes)
d. Soft shadows
4. Ray Tracing & Monte Carlo Sampling
a. Algorithms and data structures to compute ray/surface intersections
b. Theory of Monte Carlo sampling and its application to image synthesis
c. Stochastic integration for direct shading, motion blur and soft shadows
5. Global Illumination Algorithms
a. Rendering equation and its physical basis
b. Global illumination with finite elements (radiosity)
c. Global illumination with stochastic integration (Monte Carlo)
6. Image-Based Rendering
a. Computer vision algorithms for multi-view stereo reconstruction
b. View interpolation (morphing, Lightfields, Lumigraph)
c. Re-lighting (light-stage, environment lighting, intrinsic images)
7. Learning for Rendering and Rendering for Learning
a. Deep learning for denoising of rendered images
b. Learning for efficient path tracing
c. Rendering for training with synthetic data
d. Differentiable renderer for un-supervised learning

Learning objectives

The course begins with a general introduction that presents applications of image
synthesis as well as the underlying mathematical and algorithmic principles. The
following six sessions cover visibility calculations, theory and practice of material
representations and direct lighting, shadow and texture calculation algorithms, ray
tracing algorithms (theory and practice). We then cover Monte Carlo sampling, global
lighting algorithms, real-world capture and image-based rendering, and a session on
learning for rendering and rendering for learning.
By the end of the course, students will have a solid grasp of image synthesis
algorithms and rendering in particular, and will have basic ability to perform graphics
programming, both for rasterization (OpenGL) and ray-tracing/path tracing (using
Nori/C++).

Prerequisites

Students should have a strong linear algebra background, and be able to program in
C++.

Evaluation

The evaluation of the course will be based on the following :


- In class labs, performed during the courses.
- Project: The students are expected to form groups of 3-4 people, and work on a
topic defined by the teachers.

The grading will be as follows:

Labs: 55%
Project: 40%
Class Participation: 5%

Resources
- Graphdeco research group :
http://team.inria.fr/graphdeco

and our publications (including videos):

https://team.inria.fr/graphdeco/publications/

- Software tools :
OpenGL: https://opengl.org/
Nori: https://wjakob.github.io/nori/
PBRT : https://pbrt.org/

- Related conferences :
SIGGRAPH: https://s2018.siggraph.org/conference/
Eurographics : https://www.eurographics2018.nl/

- Related Courses :
EPFL: https://lgg.epfl.ch/teaching_advanced_computer_graphics.php
UCSD: http://cseweb.ucsd.edu/~ravir/190/2015/190.html
Title: ADVANCED VISUAL COMPUTING

Duration : 24 hours

Professor : Maria Vakalopoulou (Postdoctoral researcher, CVN, CentraleSupélec)

Email : maria.vakalopoulou@centralesupelec.fr

Website : http://users.ntua.gr/mariavak/

Course description / summary

Computer vision is an interdisciplinary field with the goal of enabling automatical


processing and understanding of digital images. These images can be captured by
video cameras, radars, satellites or even very specialised sensors such as the ones
used for medical purposes. The course has been designed to provide an introduction
to computer vision, including fundamentals on image processing, computational
photography, multiview geometry, stereo, tracking, segmentation and object detection.
It will expose students to a number of real-world applications that are important to our
daily life.

Structure

Each section of the course is divided into a 1h30' lecture and a 1h30' lab. The labs
will include practical applications of the theoretical sessions and will provide the
students the opportunity to obtain hands-on experience on variety of basic problems
of computer vision.

Content (table of contents)

1. Overview of Computer Vision, Image-formation model


2. Feature Extraction, Saliency, Edge Detection
3. Computational Photography
4. Optical Flow
5. 3D Modeling & Stereo Algorithms image-based modeling
6. Segmentation & Grouping
7. Object Detection/ Recognition
8. Tracking
9. Applications: robotics, medical, remote sensing

Learning objectives

The course aims to introduce students to computer vision by both theoretical and
practical sessions.
We expect that by the end of the course, the students will:
1. be familiar with theoretical and practical aspects of computer vision,
2. understand the principles and have an overview of state-of-the-art vision
algorithms,
3. have been exposed to a wide range of classic and modern fudamentals of
computer vision,
4. develop the practical skills necessary to build computer vision applications.

Prerequisites

There is no official prerequisite for this course. However, the students are expected
to :
Have a basic knowledge of linear algebra, real multivariable analysis, basic
probability theory and statistics.
Be familiar with programming in Python.

Reading material

The four first references contain books with the fundamental theory while references
5 and 6 contain books with more specific applications of computer vision.
1. Simon Prince, Computer Vision: Models, Learning, and Interface, Cambridge University Press,
2. Richard Szeliski, Computer Vision: Algorithms and Applications, Springer, 2010
3. Mubarak Shah, Fundamentals of Computer Vision,
4.Forsyth and Ponce, Computer Vision: A Modern Approach, Prentice Hall, 2002,
5.N. Paragios, Y. Chen & O. Faugeras. Handbook of Mathematical Models of Computer Vision, Springer, ISBN
0387263713, 2005.
6.Duda, Hart and Stork, Pattern Classification (2nd Edition), Wiley, 2000,

Evaluation

The evaluation of the course will be based on the following :


- Assignments: the assignments will include theoretical questions as well as hands-
on practical tasks and will familiarize the students with basic algorithms and
applications in computer vision.

- Project: The students are expected to form groups of 3-4 people, propose a topic
for their project, and submit a final project report. This project will be the main
component for the evaluation of the course.

The grading will be as follows:

Assignment 1 (individually): 25%


Assignment 2 (individually): 25%
Project (groups of 3-4 students): 50%
Resources

- Datasets:
Imagenet (http://www.image-net.org/)
COCO (http://cocodataset.org/#home)
Middlebury Stereo Datasets (http://vision.middlebury.edu/stereo/data/)
CamVid Database (http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/)

- Software tools: OpenCV, Scikit-learn, ITK

- Related conferences:
Computer Vision and Pattern Recognition (CVPR)
International Conference on Computer Vision (ICCV)
European Conference on Computer Vision (ECCV)
Asian Conference on Computer Vision (ACCV)
British Machine Vision Conference (BMVC)
International Conference on Pattern Recognition (ICPR)
Medical Image Computing and Computer Assisted Intervention (MICCAI)

Title : ADVANCED MEDICAL IMAGE ANALYSIS

Duration : 24 hours

Professor : Xavier Pennec (Directeur de Recherche Inria Sophia-Antipolis)


Hervé Delingette (Directeur de Recherche Inria Sophia-Antipolis)

Email : Xavier.Pennec@inria.fr, Herve.Delingette@inria.fr

Website : http://www-sop.inria.fr/asclepios/cours/MVA/Module2/

Course description / summary

Over the last decade, medical imaging has influenced a large part of medicine and its
clinical practice. The quantity of information available today through these images can
open the way to finer and earlier diagnosis and to more efficient interventions and
treatments. The challenge is now to analyze and interpret this overwhelming
information which processing is beyond the sole human capacity: we enter the
computational medical imaging era.

The course focuses on advanced statistical and mechanical modeling techniques for
computational anatomy and physiology. We detail the foundations of statistical and
mechanical modeling and we show how these models can be coupled with
observations (medical images). The long term goal of this type of techniques is to arrive
to a personalized in-silico medicine.
Structure

Each section of the course is divided into two lectures of 1h30'.

Content (table of contents)

• Medical image acquisition, segmentation and registration


• Continuum Mechanics
• Sequential and Variational Data assimilation methods
• Statistics on Riemannian manifolds and Lie groups
• Manifold-valued image processing
• Diffeomorphic transformations for image registration
• Statistics on deformations for computational anatomy

Mathematical content
• Riemannian manifolds and affine spaces: metric, geodesics, connection,
exponential, parallel transport
• Lie groups: left and right invariant metric, Cartan Schouten (non metric)
connection
• Statistics on manifolds: Fréchet mean, Covariance tensor field, Maximum
entropy distribution…
• The natural geometry of Positive definite matrices
• Algorithms on manifold-valued images: Gaussian filtering, anisotropic
smoothing…
• Groups of diffeomorphisms, diffeomorphic image registration
• Finite element analysis
• Reaction diffusion partial differential equations
• Data Assimilation of dynamical systems

Learning objectives

Building and optimizing non-linear models of the organs anatomy and function is a
key step for designing explainable artificial intelligence in medicine. The course aims
to introduce students to the geometrical, statistical and physiological modeling of the
human body from medical images and other clinical data sources (computational
anatomy & physiology). The course is giving the students the opportunity to learn
advanced mathematical concepts in statistical computing related to the analysis of
specific data. More precisely, we are considering quantities that are lying on
manifolds (like rigid transformation, diffusion tensors…) and time-dependent
quantities governed by physical laws (such as electrical wave propagation and
mechanical deformation of tissue). Finally, the course is the occasion to discover
emerging applications in medicine like augmented reality, surgery simulation, image-
guided surgery, medical robotics…
We expect that by the end of the course, the students will be able to understand key
statistically concepts, read research papers on those fields and implement core
algorithms.

Prerequisites

There is no official prerequisite for this course. However, the students are expected
to
• be familiar with linear algebra and multivariate statistics
• have basic knowledge of image processing, mechanics, and calculus of
variations

Reading material

The three first references are related to the analysis of time-dependent


biomechanical tissue while references 4 to 7 are related to statistics on manifolds
and Lie groups.

1. H. Delingette and N. Ayache. Hepatic Surgery Simulation. Communications of the


ACM, 48(2):31-36, February 2005.
2. Ender Konukoglu, Olivier Clatz, Bjoern H. Menze, Marc-André Weber, Bram
Stieltjes, Emmanuel Mandonnet, Hervé Delingette, and Nicholas Ayache. Image
Guided Personalization of Reaction-Diffusion Type Tumor Growth Models Using
Modified Anisotropic Eikonal Equations. IEEE Transactions on Medical Imaging,
29(1):77-95, 2010
3. Hervé Delingette, Florence Billet, Ken C.L. Wong, Maxime Sermesant, S.
Rhode, Kawal, Matt Ginks, C.A. Rinaldi, Reza Razavi, and Nicholas Ayache.
Personalization of Cardiac Motion and Contractility from Images using
Variational Data Assimilation. IEEE Transactions on Biomedical Engineering,
2011.
4. Riemannian Geometric Statistics in Medical Image Analysis. Academic Press.
To appear in Summer 2019. Pre-print will be distributed.
5. X. Pennec. Intrinsic Statistics on Riemannian Manifolds: Basic Tools for
Geometric Measurements. Journal of Mathematical Imaging and Vision,
25(1):127-154, July 2006.
6. X. Pennec, P. Fillard, and N. Ayache. A Riemannian Framework for Tensor
Computing. International Journal of Computer Vision, 66(1):41-66, Jan. 2006.
7. M. Lorenzi and X. Pennec. Geodesics, Parallel Transport & One-parameter
Subgroups for Diffeomorphic Image Registration. International Journal of
Computer Vision, 105(2), November 2013

Evaluation

The evaluation of the course will be based on the following :


- Multiple Choice Questionnaire including 10-15 questions about the main concepts
presented in the class.

- Project: The students are expected to form groups of 2-3 people or work alone,
choose a research paper among those proposed, make a 10min presentation of the
paper content, write a project report (eventually including personal implementation
results), answer orally questions for 5-10min about the paper content.

The grading will be as follows:

Multiple Choice Questionnaire (individually): 25%


Project Presentation (individually) 25%
Project answers to questions (individually) 25%
Project report (individually) 25%

Resources

- Datasets :

- Software tools : SOFA, Geomstats

- Related conferences : MICCAI, IPMI, FIMH, GSI

- Related Courses : Medical Image Analysis (MVA, 1st quarter)

Vous aimerez peut-être aussi