Vous êtes sur la page 1sur 10

Menu principal








 Créer un compte
 Se connecter

Outils personnels


Sommaire

Début


Ajustement algébrique ou géométrique


Fonction modèle utilisée


Démarche de régression

 

Considérations générales


Régression non linéaire

Régression circulaire

Régression elliptique


Applications


Notes et références


Voir aussi


o

Articles connexes

Ajustement de courbe

 Article
 Discussion

 Lire
 Modifier
 Modifier le code
 Voir l’historique

Outils










(Redirigé depuis Ajustement de profil)

Cet article ne cite pas suffisamment ses sources (décembre 2021).

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de
qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références
utiles à sa vérifiabilité et en les liant à la section « Notes et références »

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?


Ajustement par itérations d'une courbe bruitée par un modèle de pic asymétrique (méthode de
Gauss-Newton avec facteur d'amortissement variable).

L'ajustement de courbe est une technique d'analyse d'une courbe expérimentale, consistant à
construire une courbe à partir de fonctions mathématiques et d'ajuster les paramètres de ces
fonctions pour se rapprocher de la courbe mesurée — on parle donc aussi d'ajustement de
paramètres. On utilise souvent le terme anglais curve fitting, profile fitting ou simplement
fitting, pour désigner cette méthode ; on utilise souvent le franglais « fitter une courbe » pour
dire « ajuster une courbe »1.

On utilise des méthodes de régression. Dans les cas simples, il s'agit de régression
multilinéaire si la loi est linéaire pour tous les paramètres, ou de régression polynomiale
lorsque l'on utilise un polynôme pour simuler le phénomène (les paramètres physiques
pouvant être déduits des coefficients du polynôme).

Les méthodes de régression classiques permettent de déterminer les paramètres à partir de


calculs sur les données, mais sont inapplicables si la fonction est trop complexe. Il faut alors
travailler par essai-erreur pour se rapprocher d'une solution, au sens de la méthode des
moindres carrés. La solution n'est pas nécessairement unique.

Ajustement algébrique ou géométrique


On distingue deux types d'ajustement :

 les ajustements algébriques consistent à minimiser l'écart vertical (en y) entre la


courbe modèle et les points expérimentaux ;
 les ajustements géométriques consistent à minimiser la distance perpendiculairement à
la courbe modèle ; c'est le cas par exemple de la régression circulaire ou elliptique, qui
consiste à trouver le cercle, resp. l'ellipse, la plus proche des points

Dans le cas d'un ajustement géométrique, on parle de la méthode des moindres carrés totaux
(total least square, TLS) : en effet, on prend en compte les deux coordonnées x et y pour la
détermination de l'écart quadratique.

Fonction modèle utilisée

Régression sur un nuage de points par un polynôme de degré croissant.


Dans certains cas, on a un modèle théorique permettant de prévoir la forme de la courbe ; la
méthode d'ajustement permet de déterminer les paramètres de l'échantillon. Dans d'autres cas,
on utilise une fonction empirique ; on s'intéresse alors en général à la surface, la largeur ou à
la position du maximum de la fonction.

On utilise souvent des polynômes : ce sont des modèles qui se calculent facilement. Pour les
formes de type « pic » (distributions unimodales), on utilise fréquemment des fonctions
gaussiennes, lorentziennes ou bien des combinaisons (fonctions ou pseudo-fonctions de
Voigt), ou encore des fonctions de Pearson. Les courbes présentant un amortissement
comportent fréquemment une composante exponentielle négative (fonction en e-x) ; les
courbes en S peuvent être modélisées par une fonction sigmoïde.

De manière générale, on a une fonction f modèle ayant n paramètres p1, p2, …, pn qui relie
l'abscisse x à l'ordonnée y :

et on compare cette fonction avec les m points expérimentaux

La fonction f peut être parfois décomposée en plusieurs fonctions f1, f2… soit qu'elle en est la
somme, le produit, le produit de convolution…

Démarche de régression
Considérations générales

On calcule les points yical de la courbe simulée :

Habituellement, on utilise un algorithme de régression visant à minimiser l'écart quadratique


entre la courbe simulée et la courbe expérimentale ; on parle d'algorithme de minimisation de
l'erreur.

On définit donc un facteur de fiabilité (reliability factor) R :

où yiexp est le i-ème point mesuré et yical est le i-ème point calculé. Le facteur R est similaire
dans son expression au coefficient de corrélation multiple (R2 étant alors le coefficient de
détermination). On utilise plus couramment le facteur de fiabilité pondérée (weighted
reliability factor) Rwp :

où wi est le poids attribué au point i ; ce poids représente l'incertitude associée au point i.

La régression consiste à trouver le jeu de paramètres (p1, p2, …, pn ) tel que Rwp est minimal.
On a donc notamment

Dans les cas simples, le système d'équations que l'on obtient peut se résoudre
« simplement » ; en particulier pour les régressions multilinéaires, on peut le résoudre par
inversion de matrice.

Régression non linéaire

Article détaillé : Régression non linéaire.

Lorsqu'il n'est pas possible de résoudre simplement le système d'équations, on peut utiliser la
méthode de Newton-Raphson.

C'est un algorithme itératif : à chaque étape, on regarde de quelle manière une petite variation
d'un paramètre fait varier la fonction de fiabilité R. Le jeu de paramètre retenu pour l'étape
suivante est obtenue par extrapolation de ces petites variations, par linéarisation : on cherche
les valeurs des paramètres qui rendraient R nul si les variations de R étaient proportionnelles
aux variations des paramètres. Le calcul s'arrête lorsque l'on n'arrive plus à diminuer le facteur
de fiabilité, on parle de convergence.

Si l'on note (pk) l'ensemble des paramètres, l'intensité calculée en chaque point i à l'étape j
s'exprime par

Pour simplifier les calculs, on peut faire un développement limité du premier ordre de cette
fonction f, alors en appliquant des incréments Δpk aux paramètres, on peut écrire

en imposant yical = yiexp, on obtient ainsi un système d'équations linéaires (l'indice j est omis
pour plus de clarté) :
qui peut se résoudre par une pseudo-inversion de matrice, ce qui permet de calculer les Δpk et
donc les valeurs des paramètres à l'étape suivante j + 1 :

si l'on appelle A la matrice , le système d'équations s'écrit

La matrice pseudo-inverse B a les mêmes dimensions que tA (la matrice transposée de


A) et vérifie

 A × B × A = A ;
 B × A × B = B ;
 A × B et B × A sont hermitiennes.

La matrice pseudo-inverse peut se calculer par décomposition en valeurs singulières.

On prend alors

et

La pseudo-inversion est justifiée par le fait que le premier membre du système d'équations
s'écrit alors

si on le multiplie par B, il devient :

et donc on a bien

Notons qu'il s'agit d'une condition suffisante, mais pas nécessaire.

Il s'agit bien d'une méthode de Newton-Raphson, puisque l'on linéarise la fonction et que l'on
cherche le point qui annule R (R = 0 si yical = yiexp pour tout i).

En remarquant que A est en fait la matrice jacobienne de f (A = J), on voit que le système
d'équations est constitué des équations normales. Les incréments des paramètres peuvent alors
se calculer par
On retrouve alors l'algorithme de Gauss-Newton.

Parfois, la linéarisation est « trop violente » : si la fonction présente une « courbure »


importante lorsque les paramètres varient, l'application de la « loi tangente » peut éloigner de
la solution plutôt que rapprocher. On peut donc utiliser un coefficient d'atténuation d ≤ 1, on a
alors :

On peut aussi utiliser un algorithme plus complexe utilisant les dérivées secondes.

Il peut arriver que le programme converge vers un minimum local de R qui n'est pas le
minimum absolu. Pour éviter cette situation, on utilise l'algorithme de Metropolis-Hastings :
lorsque l'on a convergé, on fait varier les paramètres d'une certaine valeur et on recommence
le processus pour voir si l'on arrive à converger vers un autre jeu de paramètres ayant un
facteur de fiabilité plus faible.

Si la simulation était parfaite, le facteur de fiabilité aurait une valeur dépendant du rapport
signal sur bruit. Si l'on sait calculer ce rapport signal sur bruit, c'est-à-dire si l'on connaît la loi
de probabilité régissant les fluctuations du signal, on peut alors déterminer un facteur de
fiabilité incompressible R0. Si la simulation est parfaite, on a alors R = R0 de fait, la qualité de
la simulation est souvent exprimée par le rapport R/R0, qui doit tendre vers 1 au fur et à
mesure des étapes itératives.

Régression circulaire

Article détaillé : Régression circulaire.

La régression circulaire consiste à trouver le « meilleur cercle », au sens des moindres carrés,
décrivant un ensemble de points. C'est un problème de régression géométrique non linéaire.
Cependant, un choix astucieux de la fonction d'erreur permet de se ramener à un problème
linéaire.

Régression elliptique

Régression elliptique.
La régression elliptique consiste à trouver la « meilleure ellipse », au sens des moindres
carrés, décrivant un ensemble de points.

Applications
 Déconvolution
 Méthode de Rietveld
 Compression de courbe

Notes et références
1.

1. « Phil Weyman a fait découvrir son savoir-faire » [archive], sur Ouest-France.fr (consulté


le 22 juin 2015)

Voir aussi
Articles connexes

 Approximation de fonction
 Interpolation (mathématiques)
 Régression multilinéaire
 Algorithme de Levenberg-Marquardt

 Portail des mathématiques

Catégories :

 Analyse du signal
 Calcul numérique

[+]

 La dernière modification de cette page a été faite le 21 novembre 2022 à 23:16.


 Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution,
partage dans les mêmes conditions ; d’autres conditions peuvent s’appliquer. Voyez
les conditions d’utilisation pour plus de détails, ainsi que les crédits graphiques. En cas
de réutilisation des textes de cette page, voyez comment citer les auteurs et mentionner
la licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation
de bienfaisance régie par le paragraphe 501(c)(3) du code fiscal des États-Unis.

 Politique de confidentialité
 À propos de Wikipédia
 Avertissements
 Contact
 Version mobile
 Développeurs
 Statistiques
 Déclaration sur les témoins (cookies)

Vous aimerez peut-être aussi