Académique Documents
Professionnel Documents
Culture Documents
Pr. A. EL Hammadi
2021-2022
1
• Algèbre linéaire, Calculs matriciels, développement d'une
fonction en série entière; régressions linéaires simple et
Prérequis multiple
• Statistiques descriptives et testsstatistiques
2
Introduction
Définition et cadre général de la chimiométrie
Abréviations
ACP : Analyse en composantes principale SVM : Support Vector Machines
ICA : Analyse en Composantes Indépendantes ANN : Réseaux de Neurones Artificiels
CAH : Classification Ascendante CART : Classification And
Hiérarchique RegressionTrees
MLR : Multiple LinearRegression RF : RandomForests (forêtsaléatoires)
PCR : Principal Component Regression ANN: Réseaux de Neurones Artificiels
PLS : Partial Least Square Regression CNN : Convolutional Neural Network
SIMCA : Soft Independent Modelling of Class MSPC : Multivariate Statistical Process
Analogy Control
PLS-DA : PLS Discriminant Analysis BSPC : Batch Statistical Process Control.
Ce chapitre I est une introduction à la chimiométrie. Des généralités sur les calculs
matriciels utilisées pour la compréhension des principes de base sur lesquels repose
l’ACP sont d’abord exposées suivie par la définition des différentes méthodes de la
chimiométrie les plus utilisées. La méthode ACP fera l’objet de la partie 2 de ce
chapitre..
4
I. Notions mathématiques appliquées à l’ACP et l’AFC
1. Matrices
1.1 Définition
Une matrice est un tableau rectangulaire d’élément de K.
Les nombres aij qui composent la matrice sont appelés les éléments de la matrice ou
aussi les coefficients.
Une matrice à n lignes et p colonnes est dite matrice d’ordre (n, p) ou de
dimension n p . L’ensemble des matrices à n lignes et p colonnes à coefficients dans K
est noté Mn,p(K). Les éléments de Mn,p (R) sont appelées des matrices réelles.
Un tel tableau est représenté comme suit :
1 1 2
A a12 1 ; a13 2 ; a 21 3
3 0 2
Est une matrice (2,3) avec a11 1; a12 1 ; a13 2 ; a21 3 ; a22 0 et a23 2
5
Les éléments a11, a22 ; a33...... ; ann forment la diagonale principale de la matrice.
Une matrice qui n’a qu’une seule ligne (n = 1) est appelée matrice ligne ou
vecteur ligne. On la note :
A (a11, a12 ; a13......; a1 p ) .
De même, une matrice qui n’a qu’une seule colonne (p = 1) est appelée
matrice colonne ou vecteur colonne. On la note :
a11
...
A a i1
...
a n1
La matrice (de taille n × p) dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0n,p ou plus simplement 0. Dans le calcul
matriciel, la matrice nulle joue le rôle du nombre 0 pour les réels.
1 0 0 ... 0
0 1 0 ... 0
In 0 0 1 ... 0
... ... ... 1 0
0 ... 0 0 1
Ses éléments diagonaux sont égaux à 1 et tous ses autres éléments sont égaux à 0.
Elle se note In ou simplement I .
Dans le calcul matriciel, la matrice identité joue un rôle analogue à celui du
nombre 1 pour les réels. C’est l’élément neutre pour la multiplication. En d’autres termes :
In A A et A I p A
Deux matrices A=(aij) et B=(bij) de même type (n, p)) peuvent s'additionner ou se
soustraire. La somme (ou différence) de ces deux matrices est une matrice C (cij) du
même type telle que :
ABCa ijbijc ij
6
Propriétés:
A B B A : La somme est commutative
ABC ABC : La somme est associative
A 0 0 A A : La matrice nulle est l’élément neutre de l’addition
A (A) (A) A 0 : -A est l’élément symétrique de la matrice A.
(α+β)A=αA+βA
Α(A+B)= αA+αB
(AB)AB
,
- n
- ()AAA
- A A
- 1A A
7
Propriété
- Le produit matriciel n'est pas, en général, commutatif:
.
BA n'existe pas car le nombre de colonnes(=3) de B est différent du nombre de lignes de A.
- Le produit matriciel est associatif : (AB)C=A(BC)
- Le produit matriciel est distributif par rapport à l'addition:
A aij t At aij a ji
Propriétés :
- A A
t t
1 3
1 1 2
t
1 1 2
A , la matrice transposée : t A 1 0
3 0 2 3 0 2 2 2
t
1 3
t t
1 1 2
A 1 0
A
2 2 3 0 2
-
-
-
8
1.5 Déterminant d’une matrice
a) Définition
Soit la matrice carrée A , 1 i, j n
b) Mineur
On appelle mineur Mij de l'élément aij du déterminant d'ordre n, le déterminant d'ordre
(n-1) obtenu en supprimant la ième ligne et la jème colonne de |A|.
c) Cofacteur
On appelle cofacteur ij de l’élément aij, le mineur Mij affecté du signe (+) ou (-) suivant la
relation :
(i j )
(1)
ij
Exemple :
a11 a12 a13
A a21 a22 a a
a23 M12 21 23 a21 * a33 a31 * a23
a31 a32 a33 a31 a33
9
Exemple
a11 a12
A 11 (1)11 M11 a22
n=2 a21 a22
n=3
Propriété 1: Si tous les éléments d'une ligne (ou colonne) d'un déterminant |A| sont nuls
alors|A|=0.
Propriété 2 :Si deux lignes (ou deux colonnes) d'un déterminant |A| sont proportionnelles (ou
identiques) alors |A|=0.
Exemple :
a b d c
com
c d b a
Soit A une matrice carrée d’ordre n. On dit que A est inversible s’il existe une matrice B
telle que : A B = BA = I.
On appelle B matrice inverse de A et on la note A−1.
Une matrice carrée est inversible si et seulement si son déterminant est différent de 0.
Soit A une matrice carré n x n de déterminant non nul :
a11 ... a1n t
A11 ... A1n
1
A ... ... ...
A
1
... ... ...
la matrice inverse est :
a det( A)
n1 ... ann An1 ... Ann
11
1.7 Système d’équations linéaires
lignes et p colonnes.
Les coefficients aij K (R ou C ) avec 1 i n et 1 j p
Propriété : Toute opération élémentaire sur les lignes d'un système d'équations linéaires
transforme ce dernier en un système équivalent ayant le même ensemble de solutions.
12
,
p e .
o t
étantu le déterminant de la matrice obtenu en remplaçant la ième
r
colonne de par la colonne des constantes .
,
et le déterminant de A :
- A est inversible.
- Le système est de Cramer et admet une solution unique:
,
1 3 50
3 5 2
4 7 31 64
x3 8
8 8
13
2ème méthode : Inversion matricielle
Pour |A| 0, la matrice carrée admet une matrice inverse A-1.
Le système sous la forme matricielle AX=B peut être pré-multiplié par A-1
t
(com(A)) est la matrice transposée de la comatrice
de A.
,
sachant que |A|=-8 et
Où
La méthode matricielle est la méthode choisie et utilisée dans la résolution des systèmes
d’équations linéaires abordés dans la suite de ce chapitre.
14
ANNEXE
Méthodes de Chimiométrie et de Machine Learning
Document source : https://ondalys.fr/ressources-scientifiques/methodes-de-machine-learning/.
L’Analyse en Composantes Principales ou ACP est une des méthodes les plus utilisées en
chimiométrie. Cette méthode est utilisée pour les objectifs suivants :
L’ACP peut être considéré comme un changement d’axes, conçus pour mieux visualiser la
variabilité des échantillons, tout en maintenant les distances et les échelles entre les échantillons.
Pour simplifier la visualisation, les échantillons sont habituellement observés sur un plan 2D ou
3D, correspondant à la projection des échantillons sur un ensemble de 2 ou 3 axes.
15
I.2. Analyse Multi-blocs
Le but des méthodes d’analyse de données multi-blocs est d’identifier des informations
communes et spécifiques au sein des différents blocs de données.
16
II. Méthodes de Classification non supervisée (clustering) :
La classification hiérarchique est une méthode qui assemble ou dissocie successivement les
ensembles d’échantillons. Dans la Classification Ascendante Hiérarchique (CAH), n classes sont
considérées au départ, à savoir une classe par échantillon, et ces classes sont ensuite regroupées
successivement jusqu’à constituer une classe unique. Le résultat est donné sous la forme d’un
arbre de classification, appelé dendrogramme, où la longueur des branches représente la
distance entre les groupes. Le choix des groupes finaux est décidé en coupant l’arbre à un seuil
spécifique ; ainsi le nombre de clusters n’est pas un paramètre à régler à l’avance.
En revanche, deux autres critères doivent être définis : la distance entre échantillons
(généralement la distance Euclidienne) et le critère de regroupement.
Différents arbres sont indiqués dans la figure en fonction du critère choisi. L’impact du critère
sur la classification est assez visible sur cette figure.
17
II.2 K-Means
Les méthodes de regroupement non hiérarchique visent à construire une partition finale
des données. Contrairement à l’approche hiérarchique, l’utilisateur doit définir un nombre fixe
de groupes a priori. Ce qui peut être une forte limitation à l’utilisation de ces techniques.
La méthode des K-means très répandue est une procédure itérative qui permet de trouver
la partition optimale de k classes.
La partition initiale de k groupes est généralement générée au hasard. Les résultats sont
très dépendants de cette partition initiale, ainsi que du choix du nombre de classes k.
Puis, à chaque itération, le barycentre de chacune des classes est recalculé et les
échantillons sont réaffectés au centre le plus proche.
Cette procédure est effectuée jusqu’à ce que le critère d’arrêt soit atteint (par exemple : aucun
changement d’affectation ou bien un nombre maximum d’itérations atteint).
18
III. Les méthodes de régression MLR, PCR, PLS :
III.1 MLR – Multiple Linear Regression
La régression linéaire multiple (MLR) est la méthode de modélisation multivariée la plus
basique. C’est l’extension de la régression linéaire simple au cas multivarié.
Cette méthode a l’avantage d’être facile à mettre en oeuvre. Toutefois, si les variables
explicatives sont corrélées (colinéarité), le calcul matriciel pseudo-inverse conduit à des modèles
instables. Une autre contrainte importante est que la MLR ne peut pas être calibrée si le nombre
d’échantillons est inférieur au nombre de variables. Ces deux limitations sont très souvent
rencontrées en spectroscopie ou en imagerie où les variables sont nombreuses et fortement
colinéaires. Ainsi, d’autres méthodes de modélisation doivent être adoptées pour ce type de
données.
Afin de pallier aux problèmes inhérents de la méthode MLR, c’est-à-dire la gestion de données
colinéaires et/ou de données pour lesquelles le nombre de variables est supérieur au nombre
d’échantillons, il est possible de procéder en deux étapes :
Cette méthode est appelée Régression sur Composantes Principales (PCR). Son inconvénient est
que les composantes extraites par l’ACP ne sont pas calculées en fonction de leur lien avec le
paramètre y mais uniquement en fonction de la variance maximale de X. Le paramètre y n’étant
pas toujours lié aux variations les plus importantes dans X, les modèles ne sont donc pas toujours
très performants.
19
III.3 PLS – Partial Least Square Regression
Des méthodes quantitatives, la Régression aux Moindres Carrés (PLS) est la méthode la plus
utilisée en chimiométrie.
Plutôt que de calculer les composantes en utilisant uniquement la variance de X, ce que fait
l’ACP, la PLS prend en compte la covariance entre les variables X et les variables Y, c’est-à-dire
les variances de X et Y et la corrélation entre X et Y. Les composantes, appelées ici variables
latentes (LV), sont donc construites de façon à modéliser Y. Cette méthode est donc généralement
plus performante que la PCR.
Plus le nombre de variables latentes est faible, plus le modèle est robuste, c’est-à-dire stable vis
à vis de perturbations extérieures ,mais plus il risque d’être sous-ajusté. Il est donc nécessaire de
bien choisir le nombre de variables latentes afin de créer un modèle performant et robuste.
SIMCA – (Soft Independent Modelling of Class Analogy) est basée sur l’ACP (Analyse en
Composantes Principales) et convient donc aux données de grande dimension.
Chaque classe k est modélisée par une ACP spécifique. Cette ACP permet de modéliser la
variance intra-classe. Puis, pour chaque modèle, un intervalle de confiance est créé pour définir
la limite d’appartenance de la classe. Cette limite peut être basée sur la distance euclidienne des
résidus X (notée Q), sur le levier (ou de façon équivalente le T² de Hotelling ou la distance de
Mahalanobis) ou, le plus souvent, sur la combinaison de ces deux critères.
Un échantillon inconnu est ensuite classé dans la classe k s’il se situe dans les limites de la
classe. Un échantillon peut être affecté à plusieurs classes si elles se chevauchent ou sont très
proches les unes des autres, ou bien à aucune des classes et, dans ce cas, il est possible de
considérer une « classe de rejet ».
L’avantage de SIMCA par rapport à d’autres méthodes de discrimination est qu’il est très facile
de rajouter de nouvelles classes. En effet, les modèles ACP sont réalisés par classe,
indépendamment des autres classes.
Cette méthode fonctionne très bien pour l’authentification de produits qui présentent des valeurs
X bien différentes. En revanche, lorsque les signaux sont très proches, des méthodes basées sur
les différences inter-classes seront préférables.
La PLS-DA est une méthode dérivée de la PLS qui permet une analyse qualitative ou analyse
discriminante.
Comme pour la PLS, la construction du modèle PLS-DA est basée sur la covariance de X et de Y.
Mais contrairement à la PLS, les Y de la PLS-DA ne sont pas des valeurs continues. Chaque
20
colonne de Y correspond à une classe et contient 1 si l’échantillon appartient à la classe, ou 0
sinon (codage disjonctif complet).
La PLS-DA se focalise donc sur la séparation des classes contrairement à la méthode SIMCA. En
revanche, si les classes sont très hétérogènes cela peut compliquer la modélisation car tous les
échantillons de la classe se voient attribuer la même valeur quantitative.
Les prédictions sont des valeurs continues car le modèle reste tout de même une PLS. Un nouvel
échantillon sera attribué à la classe si celui-ci présente une prédiction proche de 1 pour la
colonne associée. Un seuil est généralement établi pour décider si l’échantillon est attribué ou
non à la classe, comme le montre la figure.
La méthode des SVM (Support Vector Machines) est la plupart du temps utilisée pour les
problématiques non-linéaires ou complexes. Elle est basée sur la recherche de frontières pour la
séparation de deux classes. Ainsi, seule une partie des échantillons d’étalonnage est réellement
utilisée : il s’agit des vecteurs supports délimitant les frontières.
Les données sont transformées dans un nouvel espace, appelé noyau (kernel), qui permet de
modéliser la non-linéarité. En étalonnage, cette matrice est de dimension NxN. Le noyau le plus
courant est le noyau gaussien qui nécessite un paramètre d’optimisation de la largeur de la
gaussienne (sigma) qui permet d’ajuster le degré de linéarité. La méthode SVM nécessite
également l’optimisation d’un paramètre de régularisation qui permet d’éviter le sur-
apprentissage (C ou cost). Le réglage de ces deux paramètres est crucial pour obtenir un modèle
à la fois performant et robuste.
Bien qu’à l’origine créées pour la classification, les SVM ont été étendues à la régression. Il
existe notamment deux méthodes : la SVM-R et la LS-SVM.
21
V.2. ANN – Réseaux de Neurones Artificiels
Les réseaux de neurones artificiels (ANN), ou shallow networks (pour les différencier des
méthodes de deeplearning), sont des outils de modélisation mimant le principe biologique des
neurones.
Le Réseau de Neurones Artificiels le plus utilisé est le Multi-Layer Perceptron (MLP). Il est
organisé sous formes de couches de neurones interconnectés (fullyconnected), avec, a minima 3
couches :
1 couche d’entrée correspondant aux variables X (1 neurone par colonne)
1 ou plusieurs couche(s) cachée(s) de k neurones qui correspondent aux poids qu’il faudra
entrainer pour réaliser le modèle
1 couche de sortie qui correspond aux Y (1 neurone par colonne).
Les Y peuvent correspondre à des valeurs quantitatives à prédire ou à des classes selon le type de
réseau développé. Les ANN sont des méthodes non-linéaires stochastiques, c’est-à-dire que
chaque processus de modélisation aboutira à un résultat différent, il est généralement conseillé
de réaliser plusieurs itérations.
Les non-linéarités sont gérées par l’utilisation de fonctions d’activation à la sortie de chaque
neurone de la couche cachée. Ces fonctions d’activation peuvent être de différentes sortes
(tangente, sigmoïde, …).
Les poids sont ajustés en parcourant plusieurs fois chaque échantillon de la base d’étalonnage.
Un critère d’arrêt est alors nécessaire pour éviter le sur-apprentissage. Ces méthodes sont donc
à utiliser avec précaution, mais des astuces de modélisation permettent d’obtenir des modèles
robustes.
22
V.3. CART – Classification And RegressionTrees
Les modèles CART (Classification And RegressionTrees) fonctionnent selon des séparations
séquentielles dichotomiques du jeu de données, sous forme d’arbre.
À chaque nœud de l’arbre, une variable est sélectionnée selon son intérêt prédictif, et le seuil
optimal de séparation est calculé. Les échantillons ayant une valeur inférieure au seuil sont
dirigés sur la gauche de l’arbre et ceux supérieurs ou égaux au seuil sur la droite. Puis, chaque
sous-partie est à nouveau divisée en deux à partir d’une nouvelle variable (qui peut être
identique ou différente). Ce procédé est réalisé jusqu’à ce que l’ensemble des échantillons se
retrouve séparé ou qu’un minimum par feuille (nœud terminal) est atteint.
Dans le cas d’un modèle de discrimination, un nouvel échantillon sera attribué à la classe
majoritaire de la feuille dans laquelle il tombe après avoir parcouru l’arbre. Dans le cas d’un
modèle de régression, la valeur attribuée est la moyenne des échantillons de la feuille.
Une amélioration de cette approche, les « RandomForests », permet de palier aux problèmes de
sur-apprentissage inhérents à la méthode CART.
Le principe est de réaliser plusieurs arbres à partir d’un échantillonnage bootstrap des données
initiales, aussi bien sur les échantillons que sur les variables. Lorsqu’un nouvel échantillon est
soumis à la forêt, sa prédiction finale correspond à la moyenne des prédictions de l’ensemble des
arbres dans le cas d’une prédiction quantitative, et à la classe majoritaire dans le cas d’une
classification. Les méthodes basées sur la génération de plusieurs modèles sont regroupées sous
le terme des « ensemble methods », les RF en font partie.
Les RF permettent à la fois de modéliser de fortes non-linéarités et de gérer les distributions
asymétriques des variables X. Elles permettent également d’utiliser des variables catégorielles en
entrée (tout comme CART) en combinaisons des variables quantitatives discrètes ou continues.
Plusieurs paramètres sont à optimiser dont, le nombre d’arbres dans la forêt, le nombre de
variables à tirer aléatoirement à chaque nœud, et le nombre d’échantillons minimum par feuille.
V.5. Boosting
23
Les méthodes de Boosting, tout comme les RandomForests, font partie des ensemble methods. En
revanche, contrairement aux RF, les modèles de boosting sont réalisés de façon séquentielle.
Les méthodes les plus classiques utilisent des arbres successifs de type CART peu profonds, mais
il est possible d’appliquer le même principe avec d’autres méthodes comme par exemple des
SVM. La librairie la plus connue est XGBoost, elle regroupe plusieurs méthodes de boosting.
Dans le cas de la régression, on peut citer la méthode LSBoost, dont le principe est de réaliser un
premier arbre pour modéliser Y. Le deuxième arbre est ensuite construit afin de prédire le résidu
de Y (auquel une partie du Y initial est rajouté de façon à réaliser un apprentissage plus
progressif), et ainsi de suite jusqu’à obtenir un nombre suffisant d’arbres pour obtenir un modèle
performant.
Dans le cas de la discrimination, l’algorithme AdaBoost procède par pondération des
échantillons mal classés. Un premier arbre permet de réaliser une première séparation des
classes. Les échantillons mal classés se voient alors attribuer un poids plus important avant de
construire l’arbre suivant afin que ce dernier puisse se focaliser sur les échantillons
problématiques. Le procédé est répété jusqu’à obtenir un modèle performant.
Les résultats des différents arbres sont combinés pour obtenir la prédiction finale.
La méthode des Convolutional Neural Networks (CNN) est la plus répandue du domaine du
deeplearning. Elle fait partie des réseaux de neurones profonds, il y a donc de grandes
similarités avec les réseaux de neurones déjà cités plus haut.
Cette méthode a été initialement développée pour la reconnaissance d’images. L’idée est
d’ajouter des couches de convolution en amont des couches « classiques » des ANN, dans
l’objectif d’extraire automatiquement (par apprentissage) des caractéristiques (features)
informatives pour l’objectif recherché. Pour l’analyse d’images, ces couches convolutionnelles
(combinées à d’autres paramètres : pooling, reLu, …) permettent de s’affranchir notamment de
la position de l’objet et de sa taille dans l’image afin de réaliser des modèles robustes. De
nombreux paramètres sont à définir : le nombre et la nature des couches, la taille des filtres, le
nombre de neurones des couches cachées, … Elle requiert ainsi un nombre très important
d’échantillons pour permettre d’entrainer une très grande quantité de poids sans sur-
apprentissage. La complexité de cette méthode en fait cependant un outil très puissant.
Ce type de méthode peut également être étendu à d’autres types de données comme par exemple
des données spectroscopiques, en ajustant les paramètres de façon adéquate.
24
VII. Les prétraitements
VII.1. Prétraitements spectroscopiques
Les signaux spectraux sont de nature continue et sont donc colinéaires. Ils présentent également
très souvent un très grand nombre de variables. Certaines méthodes ne seront donc pas
appropriées, comme par exemple la MLR ou encore des méthodes pour lesquelles le sur-
apprentissage peut être critique si le nombre de variables est important comme par exemple les
ANN (plus de poids à entrainer). Il est ainsi assez courant d’appliquer des méthodes de réduction
de dimensions avant d’utiliser ce type de modèles.
25
La plus simple étant d’appliquer une ACP et d’en extraire k composantes, supposées informatives
(non bruitées). Ces composantes étant ensuite utilisées comme variables prédictives dans la
méthode choisie.
Il est également possible de réaliser par exemple une PLS ou une PLS-DA (selon si l’on souhaite
réaliser un modèle de régression quantitative ou une discrimination), de façon à extraire des
composantes plus informatives que celle issues d’une ACP.
La méthode la plus efficace serait de pouvoir tester toutes les combinaisons de variables
possibles. Malgré les avancées au niveau des puissances de calcul des ordinateurs, ce procédé
n’est pas réellement envisageable si le nombre de variables est important. Des stratégies doivent
alors être mises en place afin de diminuer le nombre de combinaisons à tester. Quelques
méthodes sont citées à titre d’exemples mais il existe de nombreuses autres méthodes de sélection
de variables.
La sélection pas à pas
La sélection de variables pas à pas (ou stepwise) peut être réalisée soit de façon forward en
sélectionnant une à une les variables informatives, soit de façon backward en éliminant une à une
les variables non informatives, soit en combinant les deux approches.
Dans le cas de la sélection forward, le principe est de réaliser un modèle sur chacune des
variables, et celle aboutissant aux meilleures performances est sélectionnée. A l’étape suivante,
la combinaison 2 à 2 de cette première variable avec toutes les autres variables permet de
sélectionner une deuxième variable, … On procède ainsi jusqu’à sélectionner k variables ou
jusqu’à ce que les performances atteignent un minimum.
La BSPC (Batch StatisticalProcess Control) est l’équivalent de la MSPC mais pour le contrôle
de procédés en batch. Le système est donc plus complexe.
La méthode la plus classique est généralement de comparer les nouveaux batch à un « golden
batchs », qui représente un lot de référence pour lequel les conditions sont maitrisées et
optimales. Ce « golden batch » représente la trajectoire idéale ou standard. Les batchs déviant
de cette trajectoire peuvent ainsi être détectés, de la même façon que pour un modèle MSPC en
suivant les scores, et/ou les résidus et le levier. Il doit donc être bien défini à partir de plusieurs
28
batchs réalisés en conditions standard afin de réaliser un modèle robuste avec des intervalles de
confiance pertinents.
Bien que l’ACP soit la méthode la plus courante, des méthodes multivoies peuvent également être
utilisées pour suivre le procédé, comme par exemple la méthode PARAFAC, les données sont en
effet de nature organisées en 3 dimensions : batch x temps x variables.
La BSPC fait appel à divers challenges en termes de traitement de données, dont notamment le
recalage temporel des batchs de façon à bien pouvoir les comparer entre eux (durée différente,
étapes-clés intervenant à différents moments dans le temps, …). Plusieurs méthodes permettent
de gérer ce problème selon le cas étudié : synchronisation, déformation temporelle,
normalisation, index de maturité, …. Cette étape est cruciale lorsque l’objectif est de comparer à
un « golden batch » et/ou lorsque des méthodes multivoies sont utilisées.
-----------------------------------------------------------------------------------------------------------
29