Vous êtes sur la page 1sur 13

THEORIE DE L’INVERSION

1. Définitions
Soit 𝛥 un système physique donné, pour un astrophysicien 𝛥 peut être une galaxie, pour un
géophysicien 𝛥 peut être la Terre, pour un biologiste 𝛥 peut etre une cellule.

L’étude du système 𝛥 peut être effectuer comme suit :

On admet une distribution des paramètres du système, pour laquelle on va estimer la réponse,
ces paramètres sont appelés paramètres modèle et leurs valeurs caractérisent complètement le
système, cette opération est appelée paramétrisation
A partir des paramètres modèle caractérisant le système 𝛥, on va estimer une réponse, qui est
appelée observation ou expérimentation. Pour cela, on doit déterminer une relation entre les
paramètres modèle et les observations, cette opération est appelée problème direct. Autrement
dit, le problème direct est la découverte des lois physiques qu’a partir d’elles et pour des
paramètres modèle données, on peut calculer la réponse observée.
La détermination des caractéristiques du système Δ à partir des observations est appelée
problème inverse. Autrement dit, l’inversion est l’utilisation des réponses actuelles de quelques
mesures des paramètres observés pour estimer les paramètres modèle caractérisant le système 𝛥.

Problème directe

Données
Paramètres Observations
dd Modèle mesurées
modèle

Problème inverse

Fig.1 Problème direct, Problème inverse


2. Problème bien posé, problème mal posé
Le concept mathématique de problème bien posé provient d'une définition de Hadamard qui
pensait que les modèles mathématiques de phénomènes physiques devraient avoir les propriétés
suivantes :
 Critère d’existence : la solution existe.
 Critère d’unicité : la solution doit être unique.
 Critère de stabilité : la solution dépend continûment des données, une erreur de mesure,
doit avoir le même ordre de grandeur dans l’estimation des paramètres du modèle.
Le problème est mal posé si l’une de ces propriétés n’est pas satisfaite. En pratique, les
problèmes inverses ne vérifient souvent pas l’une ou l’autre de ces conditions :
Un modèle physique étant fixé, les données expérimentales dont on dispose sont en général
bruitées, et rien ne garantit que de telles données proviennent de ce modèle, même pour un autre
jeu de paramètres.
Si une solution existe, il est parfaitement concevable que des paramètres différents conduisent
aux mêmes observations
Le fait que la solution d’un problème inverse puisse ne pas exister n’est pas une difficulté
sérieuse. La non-unicité est un problème plus sérieux. Si un problème a plusieurs solutions, il faut
un moyen de choisir entre elles. Pour cela, il faut disposer d’informations supplémentaires (une
information a priori).
Le manque de continuité est sans doute le plus problématique, Le manque de continuité est
sans doute le plus problématique, en particulier en vue d’une résolution approchée ou numérique.
Cela veut dire qu’il ne sera pas possible (indépendamment de la m´méthode numérique)
d’approcher de façon satisfaisante la solution du problème inverse, puisque les données
disponibles seront bruitées donc proches, mais différentes, des données réelles.

 Exemples de problèmes inverses en géophysique :


a) Sismique :
Le but est d’établir une cartographie des hétérogénéités du sous-sol décrites généralement par la
vitesse de propagation des ondes sismiques. La propagation des ondes sismiques dans le sous-sol
est en général provoquée par des sources artificielles (généralement des sources explosives)
activées à des temps et des positions contrôlées. Les ondes sismiques sont enregistrées par un
dispositif de capteurs situé à la surface de la terre ou au fond de la mer. Les capteurs enregistrent
l’arrivée des différentes ondes sismiques au cours du temps sous forme d’une série temporelle
appelée sismogramme. La numérisation des temps d’arrivée des ondes sismiques sur les
sismogrammes fournit un ensemble d’observations représentant une mesure indirecte des
propriétés du sous-sol (vitesse de propagation des ondes). Il s’agit donc d’un problème inverse :
retrouver les propriétés du sous-sol à partir des sismogrammes.
b) La gravimétrie :
La gravimétrie, technique permettant de détecter les variations de densité (selon la composition
des terrains) à partir de la mesure de l'intensité du champ de gravité g comparée à une valeur de
référence, A partir de la mesure des champs gravitationnels en utilisant des appareils appelés
Gravimètres, et avec les techniques de l’inversion on modélise les variations de la densité dans le
sous-sol, et par conséquent on tire un modèle (ou plusieurs modèles) géologique du sous-sol.
3. Formulation du problème :
La plupart des phénomènes physiques peuvent être décrites mathématiquement, L’une des
relations les plus utilisées pour nous permettre de calculer la réponse d’un système physique à
partir de ses paramètres modèle est l’équation-intégrale de Fredholm du premier type :
𝑎
(1)
𝑑𝑖 = ∫ 𝑘𝑖 (𝑧). 𝑝(𝑧)𝑑𝑧
0


𝑑𝑖 : représente la 𝑖 𝑒𝑚𝑒 donnée mesurée ou observée ;
𝑘𝑖 (𝑧) : Représente la relation mathématique liant l’espace des données à celui des paramètres,
appelé Kernel ;
𝑝(𝑧) : Représentation spatiale des paramètres du modèle ;
Le problème inverse consiste à calculer les paramètres du modèle 𝑝(𝑧) à partir des données
observées ou mesurées, en se basant sur la relation liant les deux espaces. Cette relation peut être
linéaire ou non-linéaire.

A. Problèmes inverses linéaires :

On parle d’une fonction linéaire si elle respecte les conditions suivantes :


𝑓(𝑥 + 𝑦) = 𝑓(𝑥) + 𝑓(𝑦) (Principe de superposition)

𝑓(𝜆𝑥) = 𝜆𝑓(𝑥) (Principe d’homogénéité)


Dans le cas linéaire et continu, le problème inverse est formulé comme suis :
𝑎
𝑑𝑖 = ∫0 𝑘𝑖 (𝑧). 𝑝(𝑧)𝑑𝑧

Où :
𝑑𝑖 : représente le vecteur des observations
𝑘𝑖 (𝑧) : le kernel ;
𝑝(𝑧) : les paramètres modèles.
Dans le cas linéaire discret, le problème direct se formule comme suit :
𝑑 = 𝐺𝑚

𝑑 : représente les 𝑁 données (mesurées) ;

𝑚 : représente le 𝑀 inconnus (paramètres modèle) ;


𝐺 : est appelé operateur, est une matrice de dimension 𝑀 × 𝑁.
Pour un problème inverse bien posé, la solution exacte peut être calculée par deux méthodes :
 En utilisant les méthodes numériques de résolution directe des systèmes linéaires.
 En calculant l’inverse de la matrice 𝐺 :
𝑚 = 𝐺 ¨1 . 𝑑 (2)
Ce cas est très rare en pratique à cause du caractère mal posé du problème, en géophysique les
problèmes inverses peuvent être :

 Surdéterminés : 𝑖 > 𝑗 nombre de mesures supérieur au nombre de paramètres.


 Sous-déterminés : 𝑖 < 𝑗 nombre de mesures inférieur au nombre de paramètres.
 Uniformément déterminés : 𝑖 = 𝑗 nombre de mesure égale au nombre de paramètres, mais
ce qui ne représente pas forcément un problème bien posé car
o La matrice 𝐺, peut être singulière et donc non inversible.
o Le système peut être mal conditionné (instable).

a) Résolution du problème linéaire mal posé par la méthode des moindres


carrés :
La méthode des moindres carrés permet de comparer des données expérimentales,
généralement entachées d’erreurs de mesure à un modèle mathématique censé décrire ces
données :
𝑑 − 𝐺𝑚 = 𝑒 (3)

Ainsi, la meilleure façon d’obtenir une solution unique, qui se rapproche le mieux de la solution
exacte, est de minimiser l’écart entre les données mesurées, et les données calculées à partir des
paramètres estimés, au sens des moindres carrés (norme euclidienne L2), et qui s’écrit comme
suit :
𝛷 = 𝑒 𝑇 𝑒 = ∑𝑛𝑖=1 (𝑑𝑖 − ∑𝑚
𝑗=1 𝐺𝑖𝑗 𝑚𝑗 )
2 (4)

𝛷 : est appelée fonction coût ou fonction objectif,


Le but de la méthode est de minimiser la fonction coût, c’est à dire minimiser l’écart entre les
données mesurées et les données calculées à partir des paramètres estimés :
𝛷 = 𝑒 𝑇 𝑒 = (𝑑𝑖 − 𝐺𝑖 𝑚𝑖 )𝑇 . (𝑑𝑖 − 𝐺𝑖 𝑚𝑖 ) (5)
Pour minimiser cette fonction objectif, on doit annuler sa dérivée pour tout 𝑚 :

𝑑𝛷 𝑑(𝑑 𝑇 − 𝑑 𝑇 𝐺𝑚 − 𝑚𝑇 𝐺 𝑇 𝑑 + 𝑚𝑇 𝐺 𝑇 𝐺𝑚) (6)


= =0
𝑑𝑚 𝑑𝑚
On obtient :
−𝑑 𝑇 𝐺 − 𝐺 𝑇 𝑑 + 𝐺 𝑇 𝐺𝑚 + 𝑚𝑇 𝐺 𝑇 𝐺 = 0 (7)

On obtient :
𝐺 𝑇 𝐺𝑚 = 𝐺 𝑇 𝑑 (8)

Ce qui donne :
𝑚̇ = (𝐺 𝑇 𝐺)−1 𝐺 𝑇 𝑑 (9)

Cette valeur représente la solution générale des problèmes inverses linéaire par la méthode des
moindres carrés.

b) Régularisation du problème inverse linéaire :


Avant d’aborder la régularisation du problème inverse on doit introduire la notion de
l’information à priori.
 L’information à priori :
C’est une information connue au préalable, qui ne dépend pas des données observées, elle peut
provenir des mesures directes des paramètres du modèle (sur des affleurements de structures, ou
données de puits), d’expérimentations, ou de la théorie sur la physique du système. Ces
informations sont souvent limitées spatialement.
En géophysique, et sciences associées, les données observées sont souvent bruitées, et donc
contiennent des signaux non représentatifs de l’état du modèle, en inversant ces données, la
solution résultante peut dévier de la réalité géologique, afin de contraindre le système à converger
vers la solution réelle, on peut utiliser des informations à priori. L’incorporation de ses
informations sert aussi à contraindre le système à choisir une, parmi les nombreuses solutions
équivalentes du modèle.
En problèmes inverses, la régularisation consiste à ajouter des informations à priori afin de
résoudre les problèmes mal posés qui sont dus à la présence de bruits, ce qui a une grande
influence sur l’opération de l’inversion. Alors l’utilisation de l’information à priori sert à
contraindre le système à converger à une solution réelle qui reflète la réalité géologique.
Alors la régularisation d’un problème inverse correspond à l’idée que les données seules ne
permettent pas d’obtenir une solution acceptable et qu’il faut donc introduire une information a
priori sur la régularité de l’objet à estimer. Nous entendons ici par le terme régularité le fait que
l’objet, pour des raisons physiques tenant à sa nature même, doit posséder certaines propriétés, ou
encore obéir à certaines règles (de signe, de taille, de fréquences par exemple). La solution résulte
alors d’un compromis entre l’exigence de fidélité aux données et celle de la régularité postulée de
l’objet. On peut définir la régularisation comme étant une manière de forcer le système à
converger vers la solution réelle en se basant sur des informations à priori, et ce, en ajoutant un
second terme à la fonction coût qu’on cherchera à minimiser.

 Formulation mathématique de la régularisation de Tikhonov :


Dans le but de privilégier une solution particulière dotée de propriétés qui semblent pertinentes,
un terme de régularisation est introduit dans la minimisation :

‖𝐺𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2 (10)

Ύ Est appelé matrice de Tikhonov, elle doit être judicieusement choisie pour le problème
considéré.

̂ = 𝑎𝑟𝑔𝑚𝑖𝑛‖𝐺𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2


𝑚 (11)

Le but est d’annuler la dérivée de ‖𝐺𝑚 − 𝑑‖2 − ‖Ύ𝑚‖2 :

2𝐺 𝑇 (𝐺𝑚 − 𝑑) − 2Ύ𝑇 Ύ𝑚 = 0 (12)

Ce qui nous donne :

̂ = (𝐺 𝑇 𝐺 + Ύ𝑇 Ύ)−1 𝐺 𝑇 𝑑
𝑚 (13)
L'effet de la régularisation dépend du choix de la matrice Ύ . Lorsque Ύ est nulle, on en revient
au cas de la solution, non régularisée, des moindres carrés, pourvu que (𝐴𝑇 𝐴)−1−1 existe.

B. Problèmes inverses non-linéaires :


a) Problèmes inverses non-linéaires sans contraintes :

Dans les problèmes inverses non linéaires la relation entre les observations et les paramètres du
modèle est plus complexe. On peut écrire cette relation sous la forme m = G(p) où cette fois,
l'opérateur G est non linéaire.
La résolution de ce type de problème se fait comme suit :
1) Caractérisation de linéarité :
Dans de nombreux problèmes physiques, la relation liant les paramètres modèles aux données
mesurées est non linéaire, pour certains cas il est très facile de réarranger le problème sous forme
linéaire. Tenant par exemple la fameuse relation en sismique réfraction liant les données
observées (les temps de parcours) aux paramètres du modèle (Vitesses des ondes réfractées) :
𝑋𝑛 2ℎ cos 𝛩 (14)
𝑡𝑛 = + ∑𝑛−1
𝑖=1
𝑉𝑛 𝑉𝑖

Il est évident que la relation entre l’espace des données et l’espace des paramètres n’est pas
linéaire, pour linéariser le problème on procédera l’opération suivante :
2ℎ cos 𝛩 (15)
𝑡𝑛 = 𝑋𝑛. 𝑆𝑛 + ∑𝑛−1
𝑖=1
𝑉𝑖

Où :
1
𝑆 = 𝑉 : est la lenteur.
Afin de linéariser le problème, on remplace un paramètre par un autre paramètre pour rendre la
relation linéaire.
Mais cette opération n’est pas toujours facile, il existe des relations complexes qui ne peuvent
être linéarisées par simple paramétrisation.
Alors la résolution de ce type complexe de problème se fait en utilisant les moindres carrés tout
en linéarisant le système par le développement de Taylor :
Soit 𝒅 le vecteur de dimension m des valeurs observées, et β le vecteur de dimensions n des
paramètres modèle, avec la fonction f qui relie l’espace des paramètres à l’espace des données :
𝑑 = 𝑓(𝛽)
On souhaite trouver le vecteur de paramètres β qui ajuste au mieux les données, au sens des
moindres carrés :
Soit S la somme des carrés résidus 𝑟𝑖 :
𝑆 = ∑𝑚 𝑖=1 𝑟𝑖
2 (16)

Avec 𝑟𝑖 = 𝑑𝑖 − 𝑓(𝛽)
Le but est d’atteindre le minimum, c’est-à-dire que le gradient s’annule :
𝜕𝑆 𝜕𝑟𝑖 (17)
= 2∑𝑚 𝑖=1 𝑟𝑖
𝜕𝛽 𝜕𝛽𝑗

Pour converger vers la solution du problème il faut fournir des approximations successives βk de
plus en plus proches de la vraie valeur (inconnue) des paramètres β,
𝛽𝑘+1 = 𝛽𝑘 + 𝛥𝛽 (18)

À chaque itération, le modèle initial est linéarisé par un développement de Taylor autour
de βk comme suit :
𝜕𝑓𝑖 (𝛽) (19)
𝑓(𝛽) ≃ 𝑓(𝛽𝑘 ) +∗ ∑𝑚
𝑗=1 𝛥𝛽 ≃ 𝑓(𝛽𝑘 ) + ∑𝑚
𝑗=1 𝐽𝑖𝑗 𝛥𝛽𝑗
𝜕𝛽𝑗

La matrice jacobienne J dépend des données et de l'approximation en cours, aussi change-t-elle


𝜕𝑟
d'une itération à l'autre. Ainsi, en terme du modèle linéarisé, 𝜕𝛽𝑖 = −𝐽𝑖𝑗 et les résidus sont donnés
𝑗
par :
𝑟𝑖 = 𝛥𝑦𝑖 − ∑𝑚
𝑗=1 𝐽𝑖𝑗 𝛥𝛽𝑗 ; 𝛥𝑦𝑖 = 𝑦𝑖 − 𝑓(𝛽𝑘 ) (20)

On pose
Y= 𝛥𝑦𝑖
A=∑𝑚𝑗=1 𝐽𝑖𝑗
X= 𝛥𝛽𝑗
On obtient :
𝑟𝑖 = 𝑌 − 𝐴𝑋 (21)

Y : représente la différence entre les données calculées à partir du modèle initial et celles
observées.
𝐴: Matrice contenant les dérivées partielles de f, de taille (n×p), pour n données et p paramètres,
appelée matrice jacobienne
X : représente les perturbations à apporter à 𝛽𝑘 pour minimiser le résidu 𝑟𝑖 .

2) Résolution du problème :
 Méthode de Gauss-Newton :
On revient à l’équation :
𝜕𝑆 𝜕𝑟𝑖 (22)
= 2∑𝑚
𝑖=1 𝑟𝑖 =0
𝜕𝛽 𝜕𝛽𝑗

On obtient :
−2∑𝑚 𝑛
𝑖=1 𝐽𝑖𝑗 (𝛥𝑦𝑖 − ∑𝑠=1 𝐽𝑖𝑠 𝛥𝛽𝑠 ) = 0 (j=1,2,…..,,) (23)

Ou encore
∑𝑚 𝑛 𝑚
𝑖=1 ∑𝑠=1 𝐽𝑖𝑗 𝐽𝑖𝑠 𝛥𝛽𝑠 = ∑𝑖=1 𝐽𝑖𝑗 𝛥𝑦𝑖 (24)

Matriciellement, on en arrive à :
(𝐽𝑇 𝐽)𝛥𝛽𝑠 = 𝐽𝑇 𝛥𝑦𝑖 (25)
La linéarisation permet alors d’écrire :
𝛽𝑘+1 = 𝛽𝑘 + (𝐽𝑇 𝐽)−1 𝐽𝑇 𝛥𝑦 (26)

 Méthode de la plus forte pente (méthode du gradient) :


La méthode de la plus forte pente est une méthode de gradient, elle consiste à minimiser la
fonction coût de manière itérative, tel que, à chaque itération, le modèle initial est corrigé suivant
la plus forte pente, dans la direction opposée au gradient de la fonction coût :
On a:
𝑚𝑘+1 = 𝑚𝑘 + 𝛼𝑘 𝑑𝑘 (27)

Avec :
𝑑: la direction de la plus forte pente

𝛼 : représente le pas le long de la direction de descente, tél que le nouveau itéré donne à la
fonction une valeur inférieure à celle qu'elle a en l'itéré courant.
Il est clair que la direction de la plus forte descente est l’opposé du gradient de la fonction cout
𝑑 = −𝛻𝜙 (28)

Alors l’algorithme de calcul se fait comme suit :

On se donne un point/itéré initial 𝑚0 et un seuil de tolérance 𝜀 ≫ 0. L'algorithme du gradient


définit une suite d'itérés (𝑚1 , 𝑚2…. ,) jusqu'à ce qu'un test d'arrêt soit satisfait. Il passe
de 𝑚𝑘 à 𝑚𝑘+1 par les étapes suivantes :
o Simulation : calcul de 𝛻𝜙 .
o Test d'arrêt : si ‖𝛻𝜙‖ < 𝜀, arrêt.
o Calcul du pas 𝛼𝑘 > 0 le long de la direction
o Novel itéré.
𝑚𝑘+1 = 𝑚𝑘 − 𝛼𝑘 𝛻𝜙 (29)

 Méthode du gradient conjugué vue comme une méthode directe :


L'objectif est de minimiser la fonction coût de la forme Am - b , où A est une matrice carrée
symétrique définie positive de taille n
On rappelle que deux vecteurs non nuls u et v sont conjugués par rapport à A si :
𝑢𝐴𝑣 = 0 (30)

Sachant que A est symétrique définie positive. La conjugaison est une relation symétrique :
si u est conjugué à v pour A, alors v est conjugué à u.
Supposons que {pk} est une suite de n directions conjuguées deux à deux. Alors les {pk}
forment une base de 𝑹𝒏 , ainsi la solution 𝑚∗ de 𝑨𝒎 = 𝑏 dans cette base :
n

𝑚∗ = ∑𝑛𝑖=1 𝛼𝑖 𝑝𝑖 (31)

Alors
𝑛
𝑏 = 𝐴𝑚∗ = ∑𝑖=1 𝛼𝑖 𝐴𝑝𝑖 (32)

En multipliant par 𝑝𝑘 𝑇
𝑛
𝑝𝑘 𝑇 𝑏 = 𝑝𝑘 𝑇 𝐴𝑚∗ = ∑𝑖=1 𝛼𝑖 𝑝𝑘 𝑇 𝐴𝑝𝑖 = 𝛼𝑘 𝑝𝑘 𝑇 𝐴𝑝𝑘 (33)

(car ∀𝑖 ≠ 𝑘 𝑝𝑖 𝑒𝑡 𝑝𝑘 sont conjugué deux à deux)


Alors :
𝑝𝑘 𝑇 𝑏 (34)
𝛼𝑘 = 𝑇
𝑝𝑘 𝐴𝑝𝑘

On a ainsi l'idée directrice de la méthode pour résoudre le système 𝑨𝑥 = 𝑏 : trouver une suite
de n directions conjuguées, et calculer les coefficients 𝛼𝑘 .

 La méthode du gradient conjugué vue comme une méthode itérative


La méthode du gradient conjugué est la méthode itérative la plus utilisée pour résoudre les
problèmes inverses, sous sa forme la plus simple, elle est facile à programmer et à utiliser, tout en
conservant la souplesse nécéssaire pour résoudre certains problèmes difficiles. Théoriquement, la
méthode du radient conjugé est descente de la méthode de la plus forte pente.
On considère ainsi un premier vecteur 𝑚0 , tel que :
𝑦 = 𝑑 − 𝐴𝑚0 (35)

Ainsi, si notre fonction diminue après une itération, alors on s'approche de 𝑚.


Soit rk le résidu à la ke itération :
𝑟𝑘 = 𝑏 − 𝐴𝑚𝑘 (36)

Notons que 𝑟𝑘 est l'opposé du gradient de f en 𝑚 = 𝑚𝑘 , ainsi, l'algorithme du gradient indique


d'évoluer dans la direction 𝑟𝑘 . On rappelle que les directions pk sont conjuguées deux à deux. On
veut aussi que la direction suivante soit construite à partir du résidu courant et des directions
précédemment construites, ce qui est une hypothèse raisonnable en pratique.
On a ainsi :
𝑝𝑖 𝑇 𝐴𝑟𝑘 (37)
𝑝𝑘+1 = 𝑟𝑘 − ∑𝑖≤𝑘 𝑇 𝑝𝑖
𝑝𝑖 𝐴𝑝𝑖

Suivant cette direction, le point suivant est donné par :


𝑚𝑘+1 = 𝑚𝑘 + 𝛼𝑘+1 𝑝𝑘+1 (38)
Avec :
𝑝𝑘+1 𝑇 (𝑏 − 𝐴𝑚𝑘 ) 𝑝𝑘+1 𝑇 𝑟𝑘 (39)
𝛼𝑘+1 = =
𝑝𝑘+1 𝑇 𝐴𝑝𝑘+1 𝑝𝑘+1 𝑇 𝐴𝑝𝑘+1

b) Problèmes inverses non linéaire avec contrainte :


 Méthode de Levenberg-Marquardt :
La méthode de Levenberg-Marquard permet d'obtenir une solution numérique au problème
de minimisation d'une fonction, souvent non linéaire et dépendant de plusieurs variables.
L'algorithme repose sur les méthodes derrière l'algorithme de Gauss-Newton et l'algorithme du
gradient. Plus stable que celui de Gauss-Newton, il trouve une solution même s'il est démarré très
loin d'un minimum. Cependant, pour certaines fonctions très régulières, il peut converger
légèrement moins vite. L'algorithme fut développé par Kenneth Levenberg, puis publié
par Donald Marquardt.

Dans notre travail, la matrice 𝐴𝑇 𝐴 est mal conditionnées, pour remédier au problème de
conditionnement, Levenberg (1944) a suggéré l’ajout d’un terme arbitraire constant à la
diagonale de la matrice 𝐴𝑇 𝐴 , Marquardt a formulé le problème de façon à amortir (régulariser)
la perturbation du modèle afin d’éviter que la solution croisse de manière démesurée à chaque
itération, la méthode LM minimise alors l’écart 𝑒 = 𝑦 − 𝐴𝑥et la perturbation 𝑥, la fonction coût
s’écrira alors comme suit :
𝜙 = 𝑞1 + 𝛽𝑞2 = 𝑒 𝑇 𝑒 + 𝛽(𝑥 𝑇 𝑥 − 𝐿2 ) (40)

𝛽 : Représente le poids donné à la régularisation.


𝐿2 : Représente la contrainte que l’énergie de la perturbation ne doit dépasser.
Pour résoudre le problème :
𝑑𝜙 𝑑(𝑦 − 𝐴𝑥)𝑇 (𝑦 − 𝐴𝑥) + 𝛽(𝑥 𝑇 𝑥 − 𝐿2 ) (40)
=
𝑑𝑥 𝑑𝑥

−2𝐴𝑇 𝑦 + 2𝐴𝑇 𝐴𝑥 + 2𝜷𝑥 = 0 (41)

𝑥 = (𝐴𝑇 𝐴 + 𝛽𝐼)−1 𝐴𝑇 𝑦 (42)

On remarque dans le résultat ci-dessus l’ajout d’une constante β à la diagonale de la matrice


jacobienne 𝐴𝑇 𝐴 , afin de remédier au problème de conditionnement. On remarque que si β tend
vers zéro, on se retrouve dans le cas de la méthode de Gauss-Newton.
La formule de récurrence s’écrit comme suit :
𝑚𝑘+1 = 𝑚𝑘 + (𝐴𝑇 𝐴 + 𝛽𝐼)−1 𝐴𝑇 𝑦 (43)

La méthode Levenberg-Marquardt combine celle de Gauss-Newton et celle de la plus forte


pente, tel que cette dernière domine lorsque le modèle initial est loin du minima, alors que celle
de Gauss-Newton domine lorsque le point de départ est proche du minima. On peut dire que cette
méthode, remédie au problème de stabilité de la méthode de Gauss-Newton, et au problème de
convergence de celle du gradient, ce qui fait d’elle la méthode la plus efficace et la plus utilisée
pour résoudre les problèmes inverses non linéaires en pratique.
4. Bibliographie:
[1] Albert Tarantola. Inverse Problem Theory and Methods for Model Parameter
Estimation.2005
[2] John A. Scales, Martin L. Smith and Sven Treitel. Introductory Geophysical Inverse
Theory 2001
[3] Maëlle Nodet. Problèmes inverses pour l’environnement : outils, méthodes et
applications. Optimisation et contrôle [math. OC]. Université de Grenoble, 2013.
[4] Michel Kern. Problèmes inverses : aspects numériques. Engineering school. 1999 à 2002,
École supérieure d’ingénieurs Léonard de Vinci, 2002, pp.138.
[5] Peter Bühlmann, Sara van de Geer. Statistics for High-Dimensional Data. 2011
[6]Philippe Ciarlet, Introduction à l’analyse numérique matricielle et à l’optimisation,
Masson, coll. « Math. Appl. pour la Maîtrise », 1985 (réimpr. 2001)