Académique Documents
Professionnel Documents
Culture Documents
Année universitaire:2021-2022
Introduction
La méthode NIPALS
La régression PLS
La régression PLS1
La régression PLS2
Analyse discriminante PLS
Régression logistique PLS
INTRODUCTION
• La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et
son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression
PLS (« Partial Least Squares régression » et/ou « Projection to Latent Structure »)
• . La régression PLS est une technique pour modéliser une relation linéaire entre un
ensemble de variables réponses Y et un ensemble de variables explicatives X. Dans
un premier temps PLS crée des composantes non corrélées qui sont des
combinaisons linéaires des X avec des poids proportionnels à la covariance entre les
variables explicatives et les variables de réponse. Un modèle de régression linéaire est
ensuite construit sur ces composantes. Cela conduit à des coefficients biaisés mais
cohérents et plus stables qu’avec les moindres carrés ordinaires. C’est une technique
particulièrement utile en cas de forte multi colinéarité des descripteurs ou lorsque
le nombre de descripteurs excède le nombre d’individus comme c’est le cas par
exemple dans les applications en Chimiométrie (spectroscopie NIR) ou
Bioinformatique où on est confronté à des matrices très larges avec souvent des
milliers de variables pour seulement quelques dizaines d’individus, et où les
méthodes classiques deviennent inopérantes
• Pour réaliser la méthode PLS, Mini tab utilise l'algorithme
NIPALS (nonlinear itérative partial least squares) développé par
Herman Wold. Cet algorithme réduit le nombre de prédicteurs
en utilisant une technique semblable à l'analyse en
composantes principales pour extraire l'ensemble des
composantes qui décrit la corrélation maximum entre les
variables de prédiction et de réponse. La fonctionnalité PLS peut
calculer autant de composantes qu'il existe de prédicteurs ;
souvent, la validation croisée permet d'identifier le plus petit
ensemble de composantes qui offre la meilleure capacité de
prévision. Si vous calculez toutes les composantes possibles, le
modèle obtenu est équivalent au modèle que vous obtiendriez
à l'aide de la régression sur les moindres carrés.
. Dans la fonctionnalité PLS, les composantes sont sélectionnées
en fonction du degré de variance qu'elles expliquent d'une part
dans les prédicteurs, d'autre part entre les prédicteurs et la ou
les réponses. Si les prédicteurs sont fortement corrélés ou qu'un
plus petit nombre de composantes modélise parfaitement la
réponse, le nombre de composantes dans le modèle PLS peut
être largement inférieur au nombre de prédicteurs.
La régression PLS
• Le modèle linéaire généralisé PLS peut être construit selon les mêmes
procédures.
• Approche beaucoup plus simple que la méthode de Brian Marx