Académique Documents
Professionnel Documents
Culture Documents
Créer un compte
Se connecter
Outils personnels
Sommaire
Début
Ajustement algébrique ou géométrique
Fonction modèle utilisée
Démarche de régression
Considérations générales
Régression non linéaire
Régression circulaire
Régression elliptique
Applications
Notes et références
Voir aussi
o
Articles connexes
Ajustement de courbe
Article
Discussion
Lire
Modifier
Modifier le code
Voir l’historique
Outils
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de
qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références
utiles à sa vérifiabilité et en les liant à la section « Notes et références »
L'ajustement de courbe est une technique d'analyse d'une courbe expérimentale, consistant à
construire une courbe à partir de fonctions mathématiques et d'ajuster les paramètres de ces
fonctions pour se rapprocher de la courbe mesurée — on parle donc aussi d'ajustement de
paramètres. On utilise souvent le terme anglais curve fitting, profile fitting ou simplement
fitting, pour désigner cette méthode ; on utilise souvent le franglais « fitter une courbe » pour
dire « ajuster une courbe »1.
On utilise des méthodes de régression. Dans les cas simples, il s'agit de régression
multilinéaire si la loi est linéaire pour tous les paramètres, ou de régression polynomiale
lorsque l'on utilise un polynôme pour simuler le phénomène (les paramètres physiques
pouvant être déduits des coefficients du polynôme).
Dans le cas d'un ajustement géométrique, on parle de la méthode des moindres carrés totaux
(total least square, TLS) : en effet, on prend en compte les deux coordonnées x et y pour la
détermination de l'écart quadratique.
On utilise souvent des polynômes : ce sont des modèles qui se calculent facilement. Pour les
formes de type « pic » (distributions unimodales), on utilise fréquemment des fonctions
gaussiennes, lorentziennes ou bien des combinaisons (fonctions ou pseudo-fonctions de
Voigt), ou encore des fonctions de Pearson. Les courbes présentant un amortissement
comportent fréquemment une composante exponentielle négative (fonction en e-x) ; les
courbes en S peuvent être modélisées par une fonction sigmoïde.
De manière générale, on a une fonction f modèle ayant n paramètres p1, p2, …, pn qui relie
l'abscisse x à l'ordonnée y :
La fonction f peut être parfois décomposée en plusieurs fonctions f1, f2… soit qu'elle en est la
somme, le produit, le produit de convolution…
Démarche de régression
Considérations générales
où yiexp est le i-ème point mesuré et yical est le i-ème point calculé. Le facteur R est similaire
dans son expression au coefficient de corrélation multiple (R2 étant alors le coefficient de
détermination). On utilise plus couramment le facteur de fiabilité pondérée (weighted
reliability factor) Rwp :
où wi est le poids attribué au point i ; ce poids représente l'incertitude associée au point i.
La régression consiste à trouver le jeu de paramètres (p1, p2, …, pn ) tel que Rwp est minimal.
On a donc notamment
Dans les cas simples, le système d'équations que l'on obtient peut se résoudre
« simplement » ; en particulier pour les régressions multilinéaires, on peut le résoudre par
inversion de matrice.
Lorsqu'il n'est pas possible de résoudre simplement le système d'équations, on peut utiliser la
méthode de Newton-Raphson.
C'est un algorithme itératif : à chaque étape, on regarde de quelle manière une petite variation
d'un paramètre fait varier la fonction de fiabilité R. Le jeu de paramètre retenu pour l'étape
suivante est obtenue par extrapolation de ces petites variations, par linéarisation : on cherche
les valeurs des paramètres qui rendraient R nul si les variations de R étaient proportionnelles
aux variations des paramètres. Le calcul s'arrête lorsque l'on n'arrive plus à diminuer le facteur
de fiabilité, on parle de convergence.
Si l'on note (pk) l'ensemble des paramètres, l'intensité calculée en chaque point i à l'étape j
s'exprime par
Pour simplifier les calculs, on peut faire un développement limité du premier ordre de cette
fonction f, alors en appliquant des incréments Δpk aux paramètres, on peut écrire
en imposant yical = yiexp, on obtient ainsi un système d'équations linéaires (l'indice j est omis
pour plus de clarté) :
qui peut se résoudre par une pseudo-inversion de matrice, ce qui permet de calculer les Δpk et
donc les valeurs des paramètres à l'étape suivante j + 1 :
A × B × A = A ;
B × A × B = B ;
A × B et B × A sont hermitiennes.
On prend alors
et
La pseudo-inversion est justifiée par le fait que le premier membre du système d'équations
s'écrit alors
et donc on a bien
Il s'agit bien d'une méthode de Newton-Raphson, puisque l'on linéarise la fonction et que l'on
cherche le point qui annule R (R = 0 si yical = yiexp pour tout i).
En remarquant que A est en fait la matrice jacobienne de f (A = J), on voit que le système
d'équations est constitué des équations normales. Les incréments des paramètres peuvent alors
se calculer par
On retrouve alors l'algorithme de Gauss-Newton.
On peut aussi utiliser un algorithme plus complexe utilisant les dérivées secondes.
Il peut arriver que le programme converge vers un minimum local de R qui n'est pas le
minimum absolu. Pour éviter cette situation, on utilise l'algorithme de Metropolis-Hastings :
lorsque l'on a convergé, on fait varier les paramètres d'une certaine valeur et on recommence
le processus pour voir si l'on arrive à converger vers un autre jeu de paramètres ayant un
facteur de fiabilité plus faible.
Si la simulation était parfaite, le facteur de fiabilité aurait une valeur dépendant du rapport
signal sur bruit. Si l'on sait calculer ce rapport signal sur bruit, c'est-à-dire si l'on connaît la loi
de probabilité régissant les fluctuations du signal, on peut alors déterminer un facteur de
fiabilité incompressible R0. Si la simulation est parfaite, on a alors R = R0 de fait, la qualité de
la simulation est souvent exprimée par le rapport R/R0, qui doit tendre vers 1 au fur et à
mesure des étapes itératives.
Régression circulaire
La régression circulaire consiste à trouver le « meilleur cercle », au sens des moindres carrés,
décrivant un ensemble de points. C'est un problème de régression géométrique non linéaire.
Cependant, un choix astucieux de la fonction d'erreur permet de se ramener à un problème
linéaire.
Régression elliptique
Régression elliptique.
La régression elliptique consiste à trouver la « meilleure ellipse », au sens des moindres
carrés, décrivant un ensemble de points.
Applications
Déconvolution
Méthode de Rietveld
Compression de courbe
Notes et références
1.
Voir aussi
Articles connexes
Approximation de fonction
Interpolation (mathématiques)
Régression multilinéaire
Algorithme de Levenberg-Marquardt
Catégories :
Analyse du signal
Calcul numérique
[+]
Politique de confidentialité
À propos de Wikipédia
Avertissements
Contact
Version mobile
Développeurs
Statistiques
Déclaration sur les témoins (cookies)