Vous êtes sur la page 1sur 79

1

TRAITEMENT
3

II TRAITEMENT SISMIQUE

GENERALITES

1. PREPARATION DES DONNEES

2. STATIQUES

2.1 STATIQUES AU DATUM


2.2 STATIQUES RESIDUELLES

3. VITESSES

3.1 ANALYSE DE VITESSES A TROIS PARAMETRES


3.2 COURBURE DE PENDAGE (DMO)

4. SOMMATION

5. MIGRATION

5.1 GENERALITES
5.2 FONDEMENTS MATHEMATIQUES REGISSANT LA MIGRATION
5.3 REALISATION PRATIQUE DE L'OPERATION
5.4 DIFFERENTS ALGORITHMES
5.5 MIGRATION 3D

6. ATTRIBUTS DE LA TRACE

CONCLUSION

ANNEXES
4

Généralités
Les fronts d'ondes, qui se propagent dans le sous-sol et qui intéressent le prospecteur
pétrolier, après avoir été générés par des sources artificielles, sont, de par leur nature,
volumétriques: c'est à dire, tridimensionnels.
Les observations de ces champs d'ondes à la surface du sol, après réflexions et
réfractions, se faisaient, dans un passé récent, le long de profilages courts dont la grandeur
était dictée par les contraintes techniques ou matérielles du moment ou par les deux
réunies.

Modèle à deux couches de 120X120 points ; deux fronts d’onde pour une
source enterrée avec dx=4 m, dt=0.004 s, v1=1500m/s, v2=1950m/s.

Avec l'avènement des enregistreurs multi-traces, il est possible, aujourd'hui, de couvrir des
surfaces importantes par des récepteurs dont la densité est telle qu'elle simulerait un
enregistrement spatial continu quel qu'en soit l'azimut.
5

L'énergie de l'onde sismique, en propagation dans un milieu homogène et isotrope, se


répartit d'une manière expansive sur la surface d'une sphère, subissant une atténuation dont
l'amplitude est proportionnelle à 1/R (R : rayon de la sphère), à laquelle s'ajoute celle des
pertes par transmission dues à l'inélasticité et à l'inertie des roches sollicitées par l'onde en
cours de propagation dans le sous-sol ; des corrections de compensation doivent être
apportées par des programmes de normalisation statique ou dynamique des amplitudes des
traces ; elles sont les toutes premières étapes du traitement de l'information sismique.
Le sous-sol agit comme une suite de filtres coupes hauts sur le signal, atténuant
sélectivement les "Hautes Fréquences". Un filtrage inverse devra être appliqué aux
informations pour éliminer les trains d'onde gênants et restaurer les "HF" qui ont été
dissipées en cours de propagation de l'onde, cette opération résulterait en une compression
de l'ondelette "signal".

Les observations qui se font, évidemment, à la surface du sol, sont souvent empreintes
d'erreurs dues aux irrégularités du relief, et de la zone altérée qu'il faut corriger en ramenant
les mesures à une surface d'observation plane appelée : Datum Plane.
La sommation par le recouvrement multiple (stack) en plus de l'amélioration du niveau
du signal par rapport à celui du bruit, associe une harmonisation spatiale de toutes les traces
résultantes qui sont construites par de mêmes distributions d'offsets et d'azimuts des couples
émetteurs récepteurs assurant ainsi une meilleure cohérence des événements entre les
traces voisines.
Tous les concepts du traitement sismique classique s'appliquent en traitement 3D. Des
complications additionnelles peuvent surgir dans les contrôles de qualité de la géométrie 3D,
des statiques, de certains filtrages, des analyses de vitesses et de la migration que nous
allons développer plus loin.

1. Préparation des données


Souvent l'information enregistrée par des laboratoires numériques à grandes capacités
de traces est soumise aux contraintes d'acquisition et de visualisation. Ces contraintes
résultent en des modes de formatage qui n'observent plus la forme séquentielle de
l'information et qui amplifient pour des contrôles de qualité les échantillons indépendamment
de leur position.
Si l'opération de multiplexage est une organisation adéquate de l'information par
intervalles de temps composés chacun d'une séquence d'échantillons correspondant à
l'ensemble des traces.
L'organisation de l'information selon le format de "multiplexage" ne permet pas la
visualisation des données, contrairement au mode "démultiplexage", qui correspond, en fait,
à la transposition de la matrice des données multiplexées, donnant ainsi la succession des
échantillons correspondants à chacune des traces.
L'opération de démultiplexage est l'organisation de l'information par unité d'espace des
séquences temporelles des échantillons (traces) dont le gain terrain a été soustrait.
Plusieurs types de bruits s'additionnent aux signaux rendant l'information parfois
indéchiffrable. Certains se présentent sous la forme d'ondes dans un plan (t,x) ayant un fort
degré de corrélation sur un assez grand nombre de traces; nous les considérons comme des
bruits organisés, leurs caractéristiques propres (fréquence ω, longueur d'onde λ, ou vitesse
apparente Va), permettent, par l'emploi de filtres adaptés, leur atténuation.

D'autres bruits, par contre, se présentent sous la forme d'ondes dans le plan (x, t) dont la
corrélation se fait sur des distances variables et très courtes impliquant qu'ils ne sont
prévisibles ni en ω, ni en λ, ni en Va. Nous les appellerons: bruits aléatoires. Leur
atténuation s'opère par l'utilisation de filtres, à phase nulle, variables avec le temps que nous
construirons par une succession de filtres adaptés à chacune des fenêtres de temps ou par
le filtre de Wiener qui utilise l'information enregistrée pour déterminer ses propres
6

caractéristiques afin que la sortie soit au sens des moindres carrés, la plus proche possible
d'une information sans bruit.

Les dispositions géométriques des traces (stations de réception) par rapport aux points
d'émission (stations d'émission) et leurs positionnements topographiques et celles des CMP
du sous-sol en correspondance avec la surface sont, en fait, fondamentales pour pouvoir
procéder au traitement de l'information. Le support utilisé est un diagramme d'exploitation qui
porte le nom de "stacking chart".

Des dispositifs de réception de 24 traces pour des tirs en bout avec un offset de 2 positions
par rapport à la première trace. Les dispositifs sont décalés sur la ligne de d’observation d’une
position à chaque tir.

Si en 2D, nous continuons encore de produire des documents sur l'organisation


géométrique et topographique des stations sur papier, sur les statiques, sur la densité des
mesures et enfin sur l'édition et l'harmonisation de l'information.
En 3D, le nombre impressionnant de stations ne permet plus les évaluations manuelles sur
papier si ce n'est pour des contrôles locaux de qualité. Une base de données est alors
nécessaire, elle doit être conçue de telle sorte à pouvoir contenir toutes les informations
utiles de géométrie et de positionnement et permettre tous les tris possibles des données,
ainsi que des possibilités de correction des erreurs; en effet, certains algorithmes de calcul
utilisent des modes d'organisation préférentiels de l'information; qui peuvent être le "CMP"
(common mid-point), le "CSG" (common source gather), le "CGG" (common geophone
gather) ou bien le "COG" (common offset gather) ; chacun de ces modes (gather) permet
des manipulations de l'information qui ne sont pas ou peu possibles dans les autres modes.

La base de données doit aussi disposer de capacités de communications conviviales


pour permettre aussi bien les calculs que les traitements sophistiqués.
7

Exemple de différentes collections

2. Statiques
Pour obtenir la meilleure précision de la cartographie du sous-sol à partir des mesures des
temps sismiques, il est impératif de corriger en temps les irrégularités dues aux différences
d'élévation de la surface, aux variations de vitesses dans la zone altérée et à la géométrie
des trajectoires des rayons sismiques, (obliquité).
La géométrie des trajectoires des rayons est prise en charge par les corrections
dynamiques (ou de courbures normales), afin de simuler des trajectoires normales aux
horizons réflecteurs, et dont nous allons développer certains aspects plus loin.

D'autres irrégularités sont manipulées par la correction statique, qui est, en fait, un
ajustement en temps constant d'une trace sismique pour corriger les anomalies de temps de
propagation introduites par des variations des caractéristiques du milieu superficiel.

Les statiques sont de deux sortes: les statiques au datum et les statiques
résiduelles.

Les statiques au datum sont habituellement calculées sur terrain à partir de mesures de
temps indépendantes et des vitesses superficielles; elles sont appliquées aux données.
Après l'application des corrections statiques et dynamiques à l'information enregistrée, des
résidus des corrections demeurent et engendrent une détérioration de la qualité de
l'information, sur les coupes temps. Ces résidus sont généralement dus aux mauvaises
estimations du modèle de la zone altérée (WZ) ou à des appréciations erronées des vitesses
caractérisant le modèle.
8

En considérant le profil des erreurs de statiques comme une trace exhibant les erreurs
de temps distribuées le long du profil d'observation, il est possible de l'estimer dans le
domaine fréquentiel par transformée de Fourier.
La décomposition en sinusoïdes élémentaires de cette trace se répartit en deux types de
statiques qui sont: les statiques à grandes longueurs d'ondes et les statiques à courtes
longueurs d'ondes.
L'effet d'une erreur statique à courte longueur d'onde λc est la détérioration de la
sommation CMP alors que celui d'une erreur à grande longueur d'onde λg génère une
anomalie régionale; en d'autres termes, des erreurs de statiques à courte longueur d'onde,
indiquent des changements rapides dans les conditions de la proximité de la surface, alors
que des erreurs à grande longueur d'onde indiquent un changement graduel des vitesses
que nous rencontrons dans certaines situations géologiques.

2.1. Statique au datum

Un réflecteur plat serait perturbé par une dénivelée de surface telle : une montagne, une
vallée ou d'autres traits topographiques. A partir de renseignements sur l'élévation, sur les
vitesses ou les épaisseurs de la zone altérée ; nous pouvons calculer les variations en temps
de réflexion aux points de mesure le long de la surface. Les temps de trajet observés,
peuvent être corrigés pour de telles anomalies en soustrayant ou en additionnant des délais
de temps calculés à une référence particulière plane (DP). L'information concernant la
profondeur et la vitesse de milieu superficiel est obtenue sur terrain par des observations
spécifiques dénommées (carottages VT ou tirs de petite réfraction "TPR")

A) Carottages "Vertical Time"

Les observations par carottages " VT" fournissent la mesure la plus directe des
propriétés de la zone altérée. Un trou est foré et des tirs sont effectués à des profondeurs
variables, les détecteurs en surface enregistrent les temps d'arrivée de l'onde directe. Ces
temps, une fois corrigés d'obliquité, sont reportés sur des graphes de dépendance
temps/profondeur. Les lignes droites joignant les points correspondent aux pentes des
vitesses de la zone. Les points de brisure de ces droites marquent la où les bases de la zone
altérée.

B) Tirs "Petite Réfraction"

Nous utilisons les "TPR" pour avoir des mesures de proximité de la surface qui ne sont
pas toujours disponibles à partir de l'information de production, dont l'échantillonnage spatial
est trop large pour détecter des variations des caractéristiques de la zone altérée et, dont les
déports (offsets) sont souvent assez importants pour être au-delà des premières arrivées
utiles permettant la connaissance des caractéristiques de la zone altérée. Si les temps
d'arrivée des ondes sont pointés en fonction de l'offset et reportés sur un graphe de
dépendance temps/offset. Le tracé de lignes droites passant au mieux de tous les points
nous donne les évaluations des vitesses et des épaisseurs des couches de terrain du milieu
superficiel.
La version TPR la plus utilisée est celle qui consiste à procéder à des enregistrements
issus de deux tirs situés aux extrémités d'un même dispositif de réception. Les intercepts et
les vitesses du substratum sont mieux définis par la possibilité d'utilisation des relations
réciproques.
Les points de mesure sont répartis de telle sorte à bien échantillonner toute anomalie
présente dans la zone de prospection pouvant offrir des potentialités pétrolières justifiant un
forage et apporter ainsi une solution aux erreurs de statiques à grandes longueurs d'onde.
Pour éliminer les effets des anomalies de la zone altérée, les temps de trajets sismiques
sont ramenés à un plan d'observation de référence (DP), qui peut être horizontal ou incliné
pour épouser le niveau moyen du relief.
9

2.2. Résiduelles

La statique n'est pas toujours adéquate pour aligner les traces à additionner (CMP) afin
de relever le niveau du signal par rapport à celui du bruit; il faut cibler et éliminer les facteurs
principaux qui contribuent à la détérioration de ce rapport :
- la mauvaise appréciation des vitesses et des épaisseurs de la couche altérée entre
les points de mesure;
- les temps VT anomaux;
- la mauvaise appréciation des vitesses de correction de courbure normale (NMO)
- le pendage des couches
Des techniques de corrections automatiques, utilisant la redondance fournie par la
couverture multiple, sont utilisées pour l'obtention des estimations statistiques de résidus qui
pourraient se dégager des collections des sources communes (CSG) et celles des
récepteurs communs (CRG) ou bien celles des points profonds communs (CDP).
Lorsque des pendages ou des variations latérales de vitesses existent, les deux termes
CDP et CMP se différencient l'un de l'autre; en effet, les termes CMP et CDP ne sont
équivalents que dans le cas où le modèle du sous-sol est à stratifications horizontales.
Les corrections obtenues, sont supposées être à temps invariants. Ces corrections sont
une combinaison de résidus de statiques, de courbure normale et du pendage structural,
exprimée par la relation:

trésiduel = si +rj + gk + Mk.Xij2

avec si = résidu à la source;


rj = résidu au récepteur;
gk = résidu dû au pendage structural;
Mk.Xij2 = résidu de NMO

La manipulation des deux premiers termes du second membre implique la méthode dite
"surface consistent" et la manipulation des deux derniers termes implique celle dite "CDP
consistent".
Le terme de pendage G peut être minimisé en réduisant la trace pilote servant de
modèle à un petit nombre impair de traces entrant dans l'addition. Cette minimisation dépend
du décalage en temps impliqué par le pendage du signal des traces extrêmes afin d'éviter la
détérioration du signal.
Le terme dynamique M.X2 peut, lui aussi, être minimisé par le centrage de la fonction de
corrélation sur les événements correspondant aux grandes profondeurs (où l'effet d'obliquité
est plu réduit).
Le choix d'un filtre interne (bande limitée en HF) permet l'utilisation de grandes
fourchettes de balayage par corrélation (shifts) tout en évitant la génération de sauts de
phases.
La méthode "surface consistent" trie l'information selon les CSG et les CRG. Des
décalages de trace à trace sont évalués par corrélation; une moyenne statistique des résidus
est calculée et appliquée ensuite à la source correspondant à la collection CRG ou au
géophone pour chacune des collections de source commune.
Cette méthode nous permet d'avoir les résidus de correction pour toute station qu'elle
soit d’émission ou de réception.

La méthode "CDP Consistent" trie l'information selon les collections CDP. Une trace
pilote est construite par le mixage d'un nombre impair de traces sommes. Les composantes
de la trace somme centrale sont alors inter-corrélées avec la trace pilote. Les décalages
10

correspondant aux maxima de corrélation sont appliquées aux traces composantes avant
leur sommation.
Une version plus élaborée du "CDP consistent" consiste à pondérer les traces
participant à la construction de la pilote. Ces méthodes peuvent être utilisées itérativement
jusqu'à réduire à zéro les décalages.

Il est à noter que des combinaisons des deux méthodes sont très largement utilisées
dans l'industrie.

En 3D, toutes ces méthodes s'appliqueraient avec succès; une trace pilote initiale se
construirait, par exemple, à partir d’un ensemble de "Common cell gather" voisins dans une
zone ou le rapport S/B est bon. Les suivantes seront construites avec la participation des
traces déjà calculées.
Il y a lieu de prévoir aussi un chevauchement entre les swaths voisins pour assurer un
bon couplage des statiques entre les swaths.
11

3. Vitesses
La vitesse sismique dans les différentes couches géologiques est le paramètre clé que
ce soit en interprétation ou en traitement. La vitesse est utilisée pour corriger les distorsions
géométriques (obliquités) que subissent les trajectoires de rayons sismiques, de façon à
pouvoir simuler la verticale (qui est en fait la normale) à déport nul des configurations de
réflexion.

La vitesse est essentielle pour le calcul des corrections statiques, pour la conversion des
sections temps en sections profondeurs; elle est essentielle dans les investigations
lithologiques.
Elle doit être précise et sûre pour une bonne exploration car l'application d'une fonction
de vitesses faussant les statiques et la distorsion géométrique; peut facilement effacer une
anomalie existante ou introduire une anomalie fictive.

Les facteurs influençant négativement les estimations de vitesses découlent des


contraintes de l'acquisition et du traitement. La qualité de l'information est aussi un facteur
prépondérant d'estimation. Les déports (offsets) jouent un grand rôle pour la détermination
des vitesses à partir des hyperboles des réflexions. De la longueur de ces déports, dépendra
la précision des estimations, surtout pour les événements profonds. Notons que les déports
minima (Xmin) participent aussi à la résolution optimale des réflexions superficielles.

Un rapport S/B faible peut être un grand handicap dans la définition des vitesses car les
corrélations reposent souvent sur des appréciations subjectives.
De mauvaises statiques peuvent affecter l'allure hyperbolique des réflexions, engendrant
ainsi de mauvaises estimations des lois de vitesses.
L'échantillonnage de vitesses, quand il est mal choisi, peut dégrader les facteurs
d'estimation; il en est de même pour la fonction d'effacement "mute", quand elle est mal
définie, par la réduction du niveau de couverture et l'affaiblissement de l'énergie dans la
partie superficielle des enregistrements.
Hormis les méthodes de détermination de vitesses à partir de données de puits qui servent
surtout d'étalons; il existe des méthodes de détermination des vitesses à partir de
l'information sismique dont les plus courantes reposent sur l'hypothèse de la stratification
horizontale du sous-sol.
Les supports d'information sur lesquels reposent les analyses de vitesses sont surtout
les collections CMP et exceptionnellement les collections CSG dans le cas de couverture
très faible.
Des analyses de vitesses, se construisant sur les collections de traces CMP, après
application des corrections statiques, se déduisent de la génération de courbures d'obliquité
évaluées pour chacune des valeurs de vitesses dans une plage intégrant toutes les vitesses
de la zone, ou de délais de temps impliqués par la relation de DIX.
Les traces, corrigées de courbure, de chaque collection peuvent être soit sommées
pour produire une trace résultante CMP, dont le critère de sélection est l'énergie de
l'événement corrigé (addition horizontale optimale); ou alors, être gardées telles quelles
pour apprécier l'effet des corrections (cette dernière est généralement préférée pour définir la
fonction mute). Le calcul se répétera plusieurs fois jusqu'à couvrir toute la gamme des
vitesses caractérisant la région.

Quand une vitesse corrige bien un événement, une forte amplitude apparaît dans un
cas ou une continuité dans l'autre, pendant que les autres événements s'additionnent
déphasés (sous ou sur-correction).
Une analyse de vitesses basée sur les collections CSG, peut se constituer, en l'absence
de pendage, sur un pseudo-enregistrement composé d'autant de canaux que nous désirons,
et dont les traces à corriger sont fabriquées par la sommation, entre elles, de traces ayant
les mêmes offsets afin d'améliorer le rapport S/B.
12

Le spectre des vitesses est alors évalué sur la recherche des trajets hyperboliques pour
une plage de valeurs de vitesses constantes ou de délais de temps constants. Le pointé des
vitesses repose sur l'optimisation de l'énergie après alignement horizontal des événements.

Le spectre de vitesses, basé sur les CMP, peut se construire sur une couverture faible
et un sous-échantillonnage avant analyse; un filtrage et un AGC peuvent aider le processus
d'inter-corrélation quand le rapport S/B est faible.

L'utilisation de points CMP voisins améliore l'analyse; notons que ce type d'analyse de
vitesses est très rapide à mettre en œuvre, elle nécessite peu de données d'entrée.

Pour des études 3D qui présentent très peu de pendages, ces évaluations de vitesses
peuvent être utilisées, en privilégiant les collections de traces dans les bins ; mais, comme
les études 3D sont généralement fondées sur une définition de pendages conséquents,
aussi des méthodes propres à la sismique 3D vont être discutées.

Exemple d’analyse de vitesses en 2 dimensions

3.1 Analyse de vitesses à 3 paramètres

La géométrie du profilage croisé (swath shooting) communément utilisée en 3D, produit


des collections de cellules "bins" communs dont les points milieux coïncident avec les
centres des cellules.
Pourtant, cette technique peut aussi résulter en de grandes variations dans les azimuts
des lignes joignant les couples émetteurs récepteurs (ER) impliquant des déviations en
temps de parcours assez importantes.
13

A ces géométries d'enregistrement qui renferment des plages d'azimuts, des


réflexions venant d'interfaces inclinées ne s'aligneraient pas le long d'une simple courbure
normale hyperbolique car des déviations dans les temps de trajet s'insinuent. En utilisant une
seule vitesse pour corriger la courbure normale pour un miroir donné, il se produirait un
signal sommé avec une forte atténuation des HF comme cela arrive avec la dérive des
streamers en marine. L'atténuation de la somme s'accroît avec l'augmentation de la plage
des azimuts. Si cette atténuation est très sérieuse, une correction de l'effet d'azimut devra
être effectuée avant la sommation.

L'azimut est mesuré à partir de la direction de la ligne de pendage. Les traces dans une
collection CMP peuvent être groupées en plages variées d'azimuts et, des vitesses
différentes peuvent être tirées pour la correction de la courbure normale (NMO) de chacun
des groupes de traces. Dans un milieu d'"anisotropie relative" de vitesse, il est utile d'utiliser
la relation de Levin qui correspond à l'équation d'une ellipse en coordonnées polaires, où la
coordonnée radiale est représentée par la vitesse de courbure normale, et l'angle polaire par
l'azimut.

La relation de LEVIN est fondée sur l'évaluation de la courbure de l'hyperbole de


réflexion pour un simple miroir présentant un pendage φ:
2
x .cos( φ ) 
t 2( x ) = t 2( 0 ) +  
 v 

qui est aussi l'équation d'une hyperbole.

L'addition adéquate des CMP se rapportant à un événement incliné exige une vitesse
qui soit plus grande que la vitesse moyenne. Pour une interface inclinée dans un
environnement 3D, la vitesse de correction de courbure ne dépend plus seulement du
pendage mais aussi de l'azimut de la ligne d'observation par rapport au pendage structural.

 v 
v nmo =  
 ( 1− sin ( φ )cos ( ϕ ))
2 2 1/ 2

Ligne d'observation

Direction du pendage structural ϕ

V (vitesse vraie)

L'azimut ϕ est l'angle formé entre la direction du pendage structural et la direction de la


ligne d'observation. Le pendage apparent de la ligne d'observation peut se définir en
fonction du pendage structural de la façon suivante:

sin( γ ) = sin( φ )cos( ϕ )

et la vitesse deviendrait alors: v nmo =  v 


 cos( γ ) 
14

Notons que le rapport vnmo/v le long des lignes de pendages demeure voisin de 1 pour
des pendages < à 15°.

L'orientation de l'axe majeur de l'ellipse de vitesse est la direction du vrai pendage.


L'ellipse de vitesse peut être construite, basée sur les vitesses de courbures normales
mesurées dans trois directions différentes.
En regroupant les traces d'une collection CMP en trois secteurs azimutaux centrés sur (a1,
a2, a3), les vitesses de sommation (v1, v2, v3) peuvent être estimées le long des azimuts
moyens.

Si les sommations selon les trois différentes directions sont connues, le demi-axe,
majeur et le demi-axe mineur (a et b), et l'orientation de l'angle azimutal de l'ellipse de
vitesse peuvent être définis; Une fois, l'ellipse de vitesse construite pour un réflecteur incliné
à la position du CMP, alors les paramètres suivants sont déterminés:
- le pendage vrai du réflecteur φ = cos-1(b/a)
- l'azimut du pendage structural ε
- la vitesse de sommation pour n'importe quel azimut
 v 
v nmo =  
 ( 1 − sin 2 ( φ )cos 2 ( ϕ )) 1 / 2

ou v= b (vitesse moyenne au-dessus du réflecteur et,
ϕ est l'angle d'azimut mesuré à partir de l'axe majeur a).
15

Cette opération est appelée « analyse de vitesses à trois paramètres ». Chaque trace
dans la collection CMP est corrigée de courbure, en utilisant la vitesse le long de l'azimut qui
lui est associé avec le point milieu ; bien que des variations azimutales en vitesse puissent
être observées sur le spectre de vitesses. Elles n'ont pas un grand impact sur la sommation.
Quelques différences entre les trois lois de vitesses à une seule position CMP peut
résulter d'une couverture azimutale non uniforme et d'une large distribution d'offsets.

Tous les offsets de tous les azimuts des couples ER sont nécessités pour définir l'ellipse
de vitesse précisément à la position du CMP. Dans cette situation idéale et en utilisant
l'approche à 3 paramètres, la vitesse de courbure normale Vnmo à n'importe quel azimut ER,
le pendage vrai, et l'azimut du pendage structural d'un réflecteur, peuvent, en principe, être
déterminés.

Les données 3D terrestres sont souvent de couverture faible; aussi, procéder à une
division des données selon les plages d'azimuts avec des couvertures très faibles ne fournit
pas une bonne estimation des vitesses.

Les variations azimutales peuvent être minimisées en enregistrement terrestre par


swaths en minimisant l'offset perpendiculaire des sources à partir des récepteurs.

Si les variations en azimut sont grandes sur les offsets proches où la correction NMO
totale est petite ; alors, l'effet sur la sommation est plus petit qu'il n'est normalement perçu.
Une autre alternative est basée sur la distribution des offsets ; il est alors intéressant d'avoir
une large sélection des offsets ER pour chacune des collections de traces dans les bins
communs. Néanmoins, de petites erreurs dans les corrections dynamiques peuvent causer
des dégradations de trace à trace sur les sections sommes.
16

3.2 courbure de pendage (DMO)

L'existence d'événements inclinés dans le sous-sol ne répond plus à l'hypothèse de


stratifications horizontales préconisée par le processus de détermination des vitesses à partir
des corrections de courbures normales (NMO).
Les pendages conditionnent donc la précision des estimations de vitesses ; la sommation
CMP conséquente devient alors inefficace pour permettre à la migration d'imager
précisément le sous-sol.
La solution idéale serait de pouvoir migrer l'information avant sommation; mais le rapport
S/B réduit des traces composant la sommation et leur nombre à l'entrée du processus de
migration ne sont pas des facteurs d'efficacité ou d'économie. Cette solution n'est
envisageable que dans le cas où le sous-sol présenterait de grandes variations latérales de
vitesses.
Si le problème de définition de vitesses est dû au pendage structural, alors il existe des
solutions appelées "DMO" .

h2
x=x−=h−2 sin(sin(
θ) θ)
D D
xs xm=0 xg

xs : abscisse de tir
D Xg : abscisse de réception
Xm : abscisse du point milieu
θ : pendage
X : abscisse à offset nul
L h : offset

Le pendage et ses effets sur les points milieux

Dans un demi espace homogène et isotrope, qui représenterait le sous-sol, supposons que
nous procédons à des enregistrements de réflexions primaires sur un point unique du sous-
sol agissant comme une source de diffraction. Un CMP corrigé de courbure normale nous
donnerait un hémisphère centré en surface sur la verticale qui passe par la source de
diffraction. Cet hémisphère se transforme pour un CMP non corrigé de courbure normale en
une série de demi ellipsoïdes dont les foyers correspondraient aux positions de chacun des
couples émetteurs récepteurs composant le CMP dans l'espace (x,y,z). Ces demi
ellipsoïdes se couperaient au point de diffraction D et au point image D' du diffracteur,
symétrique de D par rapport au point milieu à déport nul.
Du recouvrement multiple dépend la concentration de l'énergie sur le point diffractant et
sur son image par rapport à leur environnement (les énergies sur les surfaces des
hyperboloïdes se détruisent par interférences mutuelles).
17

Ces demi ellipsoïdes donnent naissance dans l'espace (x,y,t) à des ensembles
d'hyperboloïdes dont les génératrices présentent des pendages de plus en plus raides qui
sont inversement proportionnels à l'excentricité b/a des demi ellipsoïdes.
L'opération de DMO consiste à convertir physiquement les hyperboloïdes correspondant
aux demi ellipsoïdes en un hyperboloïde correspondant au seul hémisphère qui est la figure
des données à déport nul.

En résumé, la correction DMO convertit les données à déports non nuls en données
à déports nuls.

La correction DMO peut être appliquée après ou en conjonction avec la correction


NMO.

Présentation de la PSPM

La migration partielle avant sommation est désignée dans la littérature géophysique par
PSPM. Que devons nous faire de plus au traitement classique pour obtenir une section non
migrée avec la préservation des pendages?

Le schéma suivant est une solution et une alternative au traitement conventionnel:

DONNEES TERRAIN --> NMO A PENDAGE NUL --> PSPM -->> STACK OPTIMUM --> MIGRATION A H=0

Que fait donc la PSPM? lorsque le problème avec le stack conventionnel concerne les
pendages conflictuels qu'il faut prendre en charge; considérons l'équation NMO pour un
simple réflecteur incliné: 2
x .cos( φ ) 
t 2( x ) = t 2( 0 ) +  
qui peut encore s'écrire:  v 

()
2
x .sin( φ ) 
t 2 ( x ) = t 2 ( 0 ) + x − 
2

v v 
 

où φ est l'angle de pendage, v la vitesse moyenne et x l'offset.

La courbure peut être divisée en deux parties : la première partie est la courbure
associée au NMO à offset nul et la deuxième partie est à la courbure due au pendage du
réflecteur étudié.

Cette équation implique que nous devrions en premier lieu appliquer la correction de
courbure normale (NMO) en employant la vitesse du milieu ensuite appliquer la correction de
courbure de pendage (DMO).

Nous allons montrer que l'opération de DMO peut être effectuée par une migration
partielle avant sommation. Au contraire du terme NMO qui est mis en œuvre dans le
domaine CMP, le terme DMO nécessite d'être mis en œuvre dans un domaine où les
pendages peuvent être facilement reconnus : tel l'espace à offsets communs (COG).

De l'équation ci-dessus, nous tirons les propriétés du terme DMO, d'abord, il n'a aucun
effet sur des données à offset nul quel que soit le pendage ; ensuite, nous constatons que
plus le pendage est raide, plus grande est la correction ; et enfin, plus la vitesse est faible,
plus grande devient cette correction. Ceci implique aussi que plus l'événement est proche de
la surface du sol, plus ce terme devient significatif (des vitesses plus faibles sont
généralement rencontrées dans la partie superficielle du sous-sol).
Maintenant que les propriétés de ce terme ont été discutées, nous pouvons réaliser
pratiquement l'opération. Le problème de pendages conflictuels a longtemps été le pôle
d'attraction de plusieurs chercheurs qui ont suggéré et proposé des solutions plus ou moins
intéressantes selon les points de vue des utilisateurs.
18

La méthode de Hale est, sur le plan calcul, très coûteuse; elle correspondrait à réaliser
le NMO dans le domaine fréquentiel. En pratique, souvent la forme de mise en œuvre de
Kirchhoff de la PSPM est couramment utilisée; cette approche est applicable
immédiatement aux données sismiques 3D. Néanmoins, à cause de son exactitude pour une
vitesse constante, la réalisation du DMO est décrite qualitativement par la méthode de Hale.

Nous réécrivons l'équation dans les formes suivantes:

t 2 ( x ) = t n2 ( 0 ) − ( X . p )
2

avec

( )
t n2 ( 0 ) = t 2 ( 0 ) + X
v
2
p = 

sin( φ ) 
v 

Dans le domaine F-K:

p= (2K. ω )
x
0

où ωo est la variable transformée associée avec le temps t(0) à déport nul.

Une fois que les données à déports communs aient été corrigées de NMO dans la dimension
point milieu (y), le pendage et la vitesse sont explicitement enlevés du terme DMO (X.p)2.
Alors dans le domaine F-K, la correction DMO n'exige ni la spécification du pendage ni
l'information de vitesse.
19

4. Sommation (stack)

La sommation est le terme qui indique un mixage de deux ou plusieurs fonctions:


telles les traces sismiques. Le mixage implique généralement la sommation des traces pour
obtenir une moyenne arithmétique; la sommation est une application des plus utiles en
traitement et en acquisition de données parce qu'elle améliore le rapport signal sur bruit.

Figure 1. Enregistrement sismique brut avec signalisation des différents


bruits.

Comme le bruit incohérent est généralement aléatoire en phase et en amplitude, ce qui n'est
pas le cas du signal, l’ensemble de "n" traces dotées de ces propriétés sont alors mixées et
le résultat est n fois plus grand que le signal d'entrée, le bruit a tendance, par contre, à
s'autodétruire par interférences destructives et le niveau de sortie converge statistiquement
vers n1/2 fois le niveau moyen du bruit aléatoire.

Il existe plusieurs types de sommation, et chacune répond à des besoins spécifiques de la


qualité recherchée en traitement.
20

Différents types d’addition (stack)

La sommation verticale est le terme utilisé indiquant le mixage de traces ayant presque les
mêmes localisations de surface. Cette sommation est utilisée en collecte de données avec
des sources de faibles énergies (vibroseis, chute de poids, etc.) ou en traitement pour
renforcer le filtrage spatial des données dont les bruits à grande longueur d'onde sont
prépondérants.

La sommation horizontale est le mixage des traces correspondant au même CMP, une fois
qu'elles sont corrigées de courbures normales (NMO). Elle est d'un emploi très courant
parce qu'elle apporte une nette amélioration du rapport S/B; et ceci, même en présence de
bruits organisés comme les multiples ou le "ground roll". Les collections CMP servent
généralement de support pour les estimations de vitesses.

Une version de cette sommation appelée sommation sélective est un mixage de traces
auxquelles des coefficients de pondération ont été appliqués; cette pondération privilégie les
traces en fonction de leur déports par rapport à la localisation à déport nul.

La sommation devient plus efficace quand les traces participant au mixage, sont nettoyées
de toute distorsion; en effet, après l'application de corrections dynamiques, les événements
ayant de grands déports subissent un étirement en temps qui correspond à un décalage du
spectre du signal vers les basses fréquences (BF).

La dégradation de l'information se présente sous la forme d'une distorsion fréquentielle dans


laquelle les spectres de fréquences des événements sont décalés subissant ainsi un
aliasing. Cette dégradation est quantifiée par le rapport:

∆f ∆tnmo
=
f t0
21

Pour éviter le phénomène d'aliasing, le gradient de fréquence ∆f doit correspondre à un


échantillonnage en fréquences adéquat, impliquant un seuil maximum de la correction
dynamique ∆tnmo à ne pas dépasser.

L'opération qui nous permet d'annuler les informations ayant subi ces distorsions porte le
nom de "mute".

Les filtres multicanaux, qui sont construits sur des versions évoluées de la fonction de
mixage et se basant sur le critère de sélectivité en vitesses apparentes Va, ne répondent pas
efficacement dans les modes d'organisation de l'information 3D car les bruits organisés,
générés par des sources sismiques, dans un environnement tridimensionnel, présentent
leurs énergies sur les surfaces de cônes de révolution dont les sommets coïncident avec les
points sources dans l'espace (x,y,t).

Offsets

Horizon superficiel

Zone d’intérêt

Configuration du mute

Fonction « mute » tracée sur un regroupement de traces avec définition des offsets
maximum et minimum pour des objectifs donnés.
22

Les génératrices de ces cônes présentent des pentes qui sont inversement
proportionnelles aux vitesses apparentes de propagation des bruits. L'énergie n'est pas
prélevée de façon cohérente sur la surface de ces cônes, étant donné, le nombre fini de
sources et de récepteurs, qui résulte par un sous-échantillonnage des points de mesure des
bruits; il est, de ce fait, difficilement concevable de procéder à des filtrages en éventail
classiques de ces bruits dans le mode "CCG" (common cell gather) où la représentation de
l'énergie obéit à des lois complexes de distribution en offset et en azimut. Cette distribution
suit, en effet, une évolution qui n'a rien de linéaire (elle est quelconque), impliquant un
éventail infini de vitesses apparentes.
Comme ce type de filtrage repose sur le critère de sélectivité qui est la vitesse apparente ;
pour le rendre efficace, il est alors utile de revenir à des tris de données basés non plus sur
les CCG mais sur les collections CSG en s'occupant de chaque ligne de réception
séparément et les collections CRG pour chaque ligne de tir si toutefois la couverture
transversale est importante. Il agirait surtout sur les branches des hyperboles apportant tout
de même, une atténuation additionnelle assez consistante des bruits.

Il faut noter que les offsets latéraux peuvent dégrader plus ou moins les pentes des
bruits engendrant une plage de Va dont l'éventail peut être minimisé par la réduction de ces
offsets par exemple.

Un filtre F-Kx-Ky tridimensionnel peut se concevoir et se construire en tenant compte de


la distribution des offsets selon les différents azimuts et en travaillant sur des représentations
spectrales kx, ky pour chacune des fréquences temporelles du signal.
23

Migration

Entre le modèle géologique et sa configuration sismique, il existe, en présence de pendages


des différences qui peuvent parfois suggérer des interprétations erronées. Le rétablissement
du modèle de départ passe par la migration.

Exemples de configurations sismiques générées par des


modèles géologiques complexes
24

5.1. Généralités

Avant d'aborder la migration, il est essentiel de cerner les contraintes majeures


inhérentes au processus (diffractions et pendages) et de rappeler les fondements
mathématiques qui régissent ce processus.

a) Diffraction

La théorie de la diffraction s'appliquant à des situations ou toutes les dimensions


significatives sont plus grandes que les longueurs d'ondes λ correspondantes, implique que
l'onde peut être entièrement décrite par son scalaire:

U =a.exp( i.φ)
avec ( φ = phase)

Tous les points d'une même surface d'onde, selon le principe de Huygens, se
comportent comme de nouvelles sources émettant des ondes sphériques. A tout instant
ultérieur, la nouvelle surface d'onde est l'enveloppe de ces ondelettes.
Qualitativement, il est établi qu'une onde sphérique demeure sphérique en cours de
propagation et une onde plane reste plane. Fresnel a développé des résultats quantitatifs
également confirmés par l'expérience, en considérant que l'amplitude complexe en chaque
point de l'onde résultante est égale à la somme des amplitudes complexes des ondelettes
avec:
exp( i.k.r)
dU = a.u.ds .
r

résultant par ce que l'ondelette soit déphasée de π/2 par rapport à l'onde primaire et
que son amplitude soit celle de l'onde primaire divisée par λ, outre le facteur de divergence
ds/r déjà connu.
Kirchhoff a donné à la méthode de Huygens-Fresnel des bases mathématiques plus
solides quoique certaines hypothèses demeurent encore nécessaires.
L'application de la théorie de Kirchhoff à la diffraction par un trou dans un écran plan
conduit à l'établissement d'une relation de dépendance des amplitudes de l'onde comme la
somme sur la surface de diffraction à un coefficient complexe près du produit du facteur
d'obliquité par l'onde corrigée de divergence sphérique (1/r).

La diffraction peut être définie en sismique par une répartition sphérique complexe de
l'énergie reçue par un point anomal du sous-sol. Ce point anomal est caractérisé par des
changements latéraux abrupts des caractéristiques des roches ( terminaisons sédimentaires)
ou par des figures géologiques dont les contours offrent des rayons de courbure plus petits
que ceux du front d'onde qui les balayent.
La diffraction se présente sous la forme d'un hyperboloïde de révolution dont la raideur
des pentes est inversement proportionnelle à la vitesse du milieu sus-jacent.
Pour illustrer le phénomène, imaginons l'exemple d'une onde marine provenant du large
qui soit enregistrée sur terre, après son passage par une ouverture dans un brise-lames.
Nous constatons que le front d'onde prend une forme circulaire avec pour origine le centre
de l'ouverture que nous pouvons d'ailleurs représenter dans un système cartésien par la
relation:
(x − x 0 ) 2 + (z − z 0 ) 2 = (v . t ) 2

(ou xo et zo sont les coordonnées de l'ouverture); cette relation est l'équation d'un cône
que nous interpréterons comme l'équation d'un ensemble de cercles concentriques pour des
temps t constants ou bien comme celle d'un ensemble d'hyperboles pour des z constants.
25

Cette relation peut être manipulée pour avoir l'expression suivante dans le milieu homogène
qui nous intéresserait.

(t x ) 2 = (t 0 ) 2 + = ( x ) 2
v

Les hyperboles s'étendent à l'infini mais pour des commodités de calcul nous les
arrêtons à un temps t égal à to1/2 de la verticale impliquant seulement la plage de rayons
faisant avec elle moins de 45°.
Il est bon de se rappeler que le rapport de la première arrivée sur n'importe quel temps
d'arrivée sur l'hyperbole donne le cosinus de l'angle de propagation.
Le système cartésien (x,t) donnant la relation ci-dessus peut représenter autant
d'hyperboles qu'il y a de valeurs de z. Nous pouvons encore représenter ces hyperboles
dans un système de coordonnées (x, t'= t+z/v) à temps retardé, que nous allons développer
par la suite.

b) Pendage

La recherche de la fermeture structurale d'un gisement d'hydrocarbures est un des


objectifs primordiaux de l'exploration pétrolière. Ces fermetures sont à la base des volumes
de terrain caractérisant les piégeages. La surface latérale de ces figures offre un éventail de
pentes qu'il est nécessaire de restituer.
En effet, par gravité, les hydrocarbures ont tendance à vouloir s'échapper et à remonter
à la surface du sol où ils subissent généralement une dégradation.
Les roches servant d'écran de piégeage présentent souvent des pentes qui empêchent
les hydrocarbures de migrer, même en présence d'un hydrodynamisme important.
Sur les documents sismiques, les pendages des couches géologiques sont illustrés, à
priori, par des ondelettes caractérisant des événements offrant des corrélations spatiales sur
des ensembles des traces sismiques.
Une trace sismique corrigée d'obliquité représente des événements dont les trajectoires
de rayons obéissent au principe de Fermat (qui stipule que la propagation d'une onde d'un
point à un autre suit le chemin le plus court). Ces trajectoires sont donc normales aux
horizons réflecteurs. Tant que les réflecteurs demeurent des plans horizontaux, les
trajectoires normales sont identiques aux trajectoires verticales mais dès que les horizons
présentent des pendages, il devient difficile de repositionner les événements à l'aplomb des
stations de surface.

Les pendages ne sont pas seulement associés aux horizons réflecteurs; ils le sont aussi
aux branches des hyperboles de diffraction. La raideur de ces pendages conditionne le pas
d'échantillonnage spatial. Pour pouvoir manipuler ces figures, il faut pouvoir les faire suivre
par des algorithmes.; cette condition n'est possible que si l'espacement entre les stations
d'observation est inférieur ou égal à la demi-longueur d'onde du signal dx < λ/2.

Il faut noter, d'autre part, que les pendages observés sur les sections sismiques sont
des pendages apparents, qui peuvent avoir leurs équivalents géologiques par la relation
suivante:

u=arctan(sin (arctan( dz )));


dx

Pour éviter les problèmes d'aliasing dus au pendage durant la phase de traitement, il faut
tenir compte des pendages vrais (après migration de l'information) afin d'en déterminer le
pas d'échantillonnage spatial adéquat.
26

c) Interpolation

Nous devons retenir un échantillonnage spatial adéquat qui puisse donner l'illusion de
continuité de toutes les figures sismiques présentes dans un prospect. La densité des points
d'observations peut devenir excessive pour éviter les problèmes d'aliasing spatial, quand des
figures présentent de très forts pendages.
En 2D, une forte densité de points de mesure peut être tolérable car les coûts de
campagne de prospection ne sont jamais très élevés et la migration n'est pas nécessaire
pour carter l'information.
En 3D par contre, les coûts deviendraient prohibitifs, si une forte densité de points de
mesure devait se concrétiser sur le terrain; aussi une solution technique a été apportée pour
ramener les coûts à de justes proportions.
Si le but du planificateur est celui de réaliser une campagne de sismique 3D à moindre
coût avec une information suffisante et fiable, il doit, alors, disposer en traitement d'un
programme efficace de restauration des traces volontairement décimées à l'acquisition pour
des nécessités économiques ou opérationnelles. Il est évident que les techniques
d'interpolation de traces ne créent pas d'informations nouvelles mais elles permettent une
visualisation plus fiable et flexible des volumes de données 3D.
Les concepts utilisés par les différents algorithmes se basent sur l'hypothèse que les
événements sismiques sur une coupe temps présentent des courbures variant lentement et
que leurs dérivées spatiales sont presque des décalages linéaires des traces à l'entrée le
long des directions de pendage. Et aussi sur le fait que tout événement sur une trace
sismique correspond à une contribution complexe des amplitudes d'un front d'onde ayant
pris naissance sur l'horizon réflecteur en d'autres mots, c'est la partie consistante de
l'énergie formée par la combinaison des interférences constructives (au sens de Fresnel) qui
implique une similitude des événements sur les traces voisines correspondant
approximativement à la même zone de Fresnel (lissage des anomalies).
Dans des situations réelles, les événements présentent souvent des configurations
croisées complexes; aussi, l'interpolation intelligente doit pouvoir calquer le même
raisonnement que celui du géophysicien qui peut facilement reconnaître les figures
sismiques en dépit d'indications visuelles contraires.

Tout algorithme d'interpolation doit donc être en mesure:


- d'estimer les pendages de tous les événements dans la zone décimée en se basant
sur la distribution des pendages des deux côtés de la zone par inter-corrélation.
- de répartir les gradients de pendage en fonction de l'espacement en créant une
matrice des pendages dans la zone de restauration.
- d'appliquer une fonction capable de restaurer le caractère de chacun des événements
existants.

L'information à l'entrée d'un programme de migration doit présenter un échantillonnage


calculé sur les pendages à restituer.
27

5.2 fondements mathématiques régissant la migration

5.2.1 Propriétés de l'extrapolation d'un champ d'ondes

L'équation de propagation des ondes est donnée par la relation:

Φ xx +Φ zz − 12 Φtt =0
v

Si les coordonnées des sources et des récepteurs sont (xs,zs) et (xr,zr) avec des mesures
prises à (xs,0) et (xr,0). En général, les champs d'ondes mesurés pour n'importe quelle
position de la source ou du récepteur seraient représentés par la relation:

P(xs, zs, xr, zr,t) où t = temps double de la réflexion.

Que deviendrait P pour des sources et des récepteurs situés sur des plans horizontaux de
plus en plus profonds? En utilisant la propriété du prolongement vers le bas d'un champ
d'ondes, un point du sous-sol serait atteint pour les conditions:

x s = x r = x ; z s = z r = z ;t = 0

la sortie serait donc ; P (x , z , x , z ,0 )= R (x , z )


S(xs, z=0) O(xr,z=0)

Si nous prenons le cas de sections sommes, une première


approximation serait de laisser la position de la source et du
récepteur comme un même point. Les coordonnées des
points milieux et des déports relatifs pourraient être utilisées
donnant:

X = x s + xr ;Z = z s + z r ; x = xr − x s ; z = z r − z s
2 2 2 2
R(x,y)

Si nous désirons représenter le champ d'ondes P(xs,zs,xr,zr,t)


par les nouvelles coordonnées, nous l'écrirons P(X,x,Z,z,t);
la section somme serait P(X,0,0,0,t) et la section migrée serait :P(X,0,Z,0,0).
Sous certaines conditions, l'équation d'onde devient:

Φ XX +Φ ZZ − 4 Φ tt =0
v 2(X,Z)
qui diffère de l'équation d'origine par le scalaire 4 dans le troisième terme de l'équation; nous
pouvons corriger cette différence en redéfinissant t comme un temps de trajet simple; ce
qui nous ramène au concept de réflecteur explosant.

5.1.2 Approximation parabolique

L'équation d'onde scalaire 2D qui décrit la propagation d'une onde longitudinale dans un
milieu à vitesse constante, est de la forme:
28

 ∂2 ∂2 ∂2 
 2 + 2 + 2 2 .P(x, z,t)=0
 ∂x ∂z v ∂t 
avec x comme abscisse,
z comme ordonnée orientée vers le bas et
t le temps.

Une onde plane se propageant verticalement est représentée mathématiquement par la


relation:

(
P(x, z,t)= P0.exp −i.ω(t − z )
v
)
Pour une incidence qui s'écarte légèrement de la verticale, la constante Po peut être
remplacée par Q(x,z).

(
P(x, z,t)=Q(x, z).exp −i.ω(t − z )
v
)
En insérant cette relation dans l'équation d'onde scalaire, nous obtenons:

 ∂x
(
+ +
v ∂z 2 v 
) ()
 ∂ 2 iω ∂ 2 ω 2 
 2+ . Q = 0

 ∂2
( )  ∂2
 2 Q + 2 . i . ω ∂ . Q +  2
 
. Q  = 0
 ∂x v ∂z  ∂z  

En négligeant la dérivée partielle de second ordre en z, nous aboutissons à l'équation


d'onde parabolique.

∂ Q= v . ∂ Q
2

∂z 2 .i.ω ∂ z 2

Cette relation est très utile pour des incidences proches de la verticale; elle a été
remplacée par la "relation de dispersion" qui permet des extrapolations des champs d'ondes
avec de plus grands angles d'incidence.

5.1.3. Extrapolation et relation de dispersion

Connaissant le champ d'ondes enregistré en surface P(x,0,t), nous désirons déterminer la


réflectivité (l'image) du sous-sol P(x,z,0). Pour pouvoir déterminer la réflectivité, il est
nécessaire de procéder à une extrapolation du champ d'onde de surface à des profondeurs z
puis à collecter le champ d'ondes au temps t=0. Si nous décomposons le champ d'ondes en
ondes planes monochromatiques avec des angles de propagation différents de la verticale.
Nous allons travailler dans le domaine de Fourier autant que possible; le champ d'onde peut
toujours subir une transformée de Fourier sur l'axe des temps; et, s'il n'y a pas de variation
latérale de vitesses, le champ d'ondes peut aussi subir une transformée de Fourier sur
l'abscisse x.
P(K x, z,ω)= ∫∫ P(x, z,t).exp(−i.K x.x −i.ωt )dx.dt

et inversement:

P(x, z,t)= ∫∫ P(K x, z,ω).exp(−i.K x.x +i.ωt )dK x.dω= A


29

L'application des opérateurs différentiels à A va nous donner:

 ∂2 ∂2 ∂2 ∂2 
 2 A = − K x. P ( K x , z ,ω ); 2 A = 2 P ( K x , z ,ω ); 2 . A = − ω 2. P ( K x , z ,ω ) .
 ∂ x ∂ z ∂ z ∂ t 

Kz /ω

Kx/ω

exacte 45° 15°

Ce qui nous amène à écrire:

.  ∂2 
 2 P ( K x , z ,ω ) + (( ω ) 2 − K x .) P ( K x , z ,ω )  = 0 .
2

 ∂ z v 

Nous avons donc deux solutions pour cette équation, une pour les ondes montantes et une
autre pour les ondes descendantes.

La solution pour les ondes montantes est connue sous la forme:

P ( K x , z ,ω ) = P ( K x , 0 ,ω ). exp( − i .(( ω ) 2 − K x .) 1 / 2. z )
2
v
Cette solution l'est aussi pour l'équation d'onde à un trajet.

∂ P ( K x , z ,ω ) = − i .(( ω ) 2 − K x 2.) 1 / 2. P ( K x , z ,ω )
∂z v
De cette relation, nous définissons le nombre d'onde vertical Kz:
K z = (( ω ) 2 − K x .) 1 / 2.= ω ( 1− ( vK x ) 2 )1 / 2
2
v v ω

Cette dernière équation est appelée "Relation de dispersion" de l'équation d'onde


scalaire à un trajet.

Cette relation a pour objectif principal de servir d’outil d'extrapolation (prolongement vers
le bas) d'un champ d'ondes donné, enregistré en surface. Physiquement, nous pouvons
illustrer ce processus par la figure ci-après.
30

Surface dx
v.∆t
Fronts d'onde u
∆ t = ∆ z cos( u )
v ∆z
rayon

où v/Cos(u) est la vitesse de phase verticale pour une onde monochromatique dont la
longueur d'onde est: λ = v.∆t.

En surface, la longueur d'onde apparente serait λx donnant un nombre d'onde horizontal

Kx= 2.π/λx.

De la figure, nous tirons les relations suivantes:

sin( u ) = v . K x ;cos( u ) = v . K z ; ∆ t = 1 v . K z
ω ω v ω

Si la vitesse v varie avec z (v=v(z)), l'équation d'onde à un trajet est aussi valable:

∂ P ( K x , z , ω ) = − i .(( ω ) 2 − K x 2.) 1 / 2. P ( K x ,ω , z = 0 )
∂z v (z )
Z
P ( K x , z ,ω ) = P ( K x ,ω , z = 0 ). exp( − i ∫ K z dz )
0

∂2 dK z ( z .) dv ( z )
P = − i. .P − i.K z ( z ) ∂ P
∂z 2 dz dz ∂z

où P = P(Kx,z,ω)
∂2 dK z ( z .) dv ( z )
P = − i. − K z2 ( z ). P
∂z 2 dz dz

Si le gradient de vitesse devrait être ignoré alors le premier terme tombe et l'expression
finale devient:
∂2
P + K z2 ( z ). P = 0
∂z 2

5.1.4 Approximations de la relation de dispersion

A partir de la relation de dispersion exacte, nous pouvons définir plusieurs ordres


d'approximation. Chaque approximation se rapporte à un algorithme de migration (5°, 15°,
45°, etc..) Le développement en fractions définit la relation de récurrence suivante, en
posant Kz= 2.ω/v.(R)
31

X2
R n + 1 =1−
1+ R n

Avec R0=1

Une écriture plus générale de la relation de récurrence (de Muir) est exprimée sous la
forme d'un rapport polynomial d'ordre pair R2n comme suit:

n
R 2 n =1− ∑ α i X 2 ( 1− β i X 2 )
i =1

Les coefficients αi et βi ont été calculés au sens des moindres carrés

Chaque ordre défini correspond à une approximation particulière de la relation de


différence selon le pendage. Pour faire ressortir l'équation différentielle correspondante à
l'approximation 45° par exemple: nous allons réécrire la relation de dispersion avec le champ
d'onde P:
K x2 v 2
− i . K z. P == − i . 2 ω ( 1− α . ). P
v β . K x2 v 2
1−
4ω2

Le premier terme à droite correspond à un décalage vertical qui peut être éliminé en opérant
avec le champ d'onde retardé Q lié à P par la relation:
P = Q .exp( − i . ω . t )

z
avec t = ∫ dz
0
v '( z )

v'(z) étant la vitesse moyenne horizontale

En dérivant, nous aurions:


∂ P = ( ∂ − i . 2 ω ) Q .exp( i ω t )
∂z ∂z v (z )
Ce qui nous amène à écrire:

∂Q K x2 v 2
= − i.α . ). Q + i . 2 . ω 1 − 1 . Q
∂z 4ω2  v '( z ) v ( z ) 
β . K x2 v 2
1−
4 .ω 2

=terme de diffraction + terme de lentilles minces

Dans le cas où il n'y a pas de variation latérale de vitesse: v'=v de l'équation


précédente, il ne reste que le terme de diffraction. En remplaçant Kx par l'opérateur
différentiel d/dx et en réarrangeant l'équation différentielle pour une approximation à 45°
dans l'espace (x,z,ω)
i . v . β ∂ 3Q ∂ 2Q 2 . i . ω ∂ Q
. +. 2 + =0
2 .ω .α ∂ z ∂ x 2 ∂x v .α ∂ z
32

avec α=0,5; β=0,25

Pour obtenir une bonne approximation, il suffit de choisir convenablement les coefficients
α et β.

5.2.1 Astuces de traitement

.1 Développement de l'équation à double racine carrée

L'équation à double racine carrée "DSR" est un opérateur dans un espace à 4


dimensions (z,s,g,t); nous le retrouvons souvent en traitement.
Il est utile de trouver des solutions pour réduire son dimensionnement. Il est à noter que
les variations de vitesses latérales sont négligées.

∂Q
= − i . ω (( 1− G 2 )1 / 2.+ ( 1− S 2 )1 / 2.). U = − i . ω (( 1− ( Y + H ) 2 )1 / 2.+ ( 1− ( Y − H ) 2 )1 / 2.). U
∂z v v

En posant H=0 (cas de déport nul), l'équation DSR se ramène à l'équation paraxiale
familière:

∂Q
= − i . ω ( 1 − Y 2 ) 1 / 2. Q
∂z v

avec Y = (v. K y )
2 .ω
La deuxième solution serait de considérer l'addition à pendage nul (Y=0), ce qui nous
donne:
∂Q
= − 2 . i . ω (( 1− ( v . K h ) 2 )1 / 2.) Q
∂z v 2 .ω

En utilisant cette équation pour le prolongement vers le bas des hyperboloïdes à partir
de la surface, nous constatons un rétrécissement des hyperboloïdes avec la profondeur
jusqu'à ce que la profondeur correcte soit atteinte.

.2 Approximation par séparation

Cet opérateur n'est malheureusement pas séparable, en effet le développement en série


de Fourier de DSR contient des termes croisés Y2.H2. De tels termes ne peuvent être
exprimés ni en fonction de Y ni en fonction de H. La non séparabilité est un véritable
désastre en traitement parce qu'elle implique que la migration et l'addition se fassent
simultanément et non de façon séquentielle. La séparabilité se rencontre dans l'espace
(s,g), mais des problèmes inhérents à cet espace font qu'il vaut mieux se tourner vers
l'espace (y,h).

Une approximation géniale de la relation (1-X2-Y2)1/2 a été suggérée par J.F. Claerbout,
elle consiste à poser :

(1-X2 -Y2)1/2 = (1-X2)1/2 + (1-Y2)1/2;

qui coïncide pour tous les Y exactement quand X=0 et pour tous les X quand Y=0.
33

SEP(Y,H) = 2 +(DSR(Y,0)-2) +(DSR(0,H)-2)

SEP(Y,H) = 2((1+(1-Y2)1/2-1)+(1-H2)1/2-1))

Notons que pour H=0 l'équation devient égale à l'opérateur DSR, il en est de même que
pour Y=0.

La partition de la relation précédente en une somme de trois termes offre des avantages
de calcul. Ces trois termes correspondent à :
- une conversion temps profondeur
- une migration
- une courbure normale (NMO)

ce qui donne :

SEP(Y,H) =TD + MIG(Y) + NMO(H)

Ainsi tous les termes de l'opérateur SEP sont interchangeables, il serait intéressant de
l'utiliser pour migrer tous les offsets avant sommation. Le résultat en faisant cela serait
identique à une migration avant stack. Il serait judicieux de discuter enfin des espaces
utilisés en traitement: Quand de grandes variations de vitesses (si elles sont connues)
existent, la migration se réalise dans l'espace (s,g), il en est de même lorsque l'espacement
entre les tirs est très grand afin d'éviter que les données ne soient aliasées dans un autre
espace. Malheureusement le rapport signal sur bruit est généralement très petit dans cet
espace, et le volume de données est immense.
Aussi, l'espace déport/point milieu commun (y,h) offre des aspects intéressants en
traitement sismique: en permettant la mesure des vitesses des ondes dans les roches et en
autorisant la redondance des données par des mesures indépendantes des mêmes
quantités:
- La superposition de ces mesures offre un potentiel d'amélioration de qualité de
l'information par l'interférence destructive des bruits (stack). Il a le désavantage de la non
séparabilité, que nous pouvons contourner moyennant certaines approximations.
La transformation des paramètres d'enregistrement (s,g) en paramètres de traitement
(y,h) s'obtient par :

y = (g+s)/2 et h = (g-s)/2

La raison de l'utilisation de l'offset moitié dans les relations est de pouvoir les simplifier
et les rendre symétriques G, S, Y et H sont les nombres d'ondes normalisés, ils s'évaluent
comme suit:

G=v.Kg/ω ; S= v.Ks/ω; Y=v.Ky/(2.ω); H=v.Kh/(2.ω).


34

5.2.2 Réalisation pratique de la migration

La migration est un processus mathématique qui permet de repositionner à l'aplomb des


stations de surface l'information sismique provenant du sous-sol; elle agit tout comme un
filtre multicanal sur l'atténuation des bruits. Le processus s'illustre physiquement par la
restitution des pendages des horizons selon l'azimut des lignes d'observation et par la
résorption des figures de diffraction à leurs points sources. Cette action est bien sûr guidée
par le type d'approche.
Le but de la migration est de rendre comparable une section sismique à la coupe
géologique correspondante le long d'une ligne d'observation. L'idéal serait bien sûr d'obtenir
une section profondeur mais la limitation en précision de la vitesse fait que nous préférons
les maintenir dans le temps tant que les variations latérales de vitesse demeurent
négligeables, autrement, il serait utile de les transformer en coupes profondeurs.

L'équation d'onde scalaire est à la base de tous les algorithmes de migration. Ces
algorithmes ne modélisent explicitement ni les réflexions multiples, ni les ondes
transformées, ni les ondes de surface ni les bruits.
Toute énergie présente sur les sections est interprétée et traitée comme des réflexions
primaires. Les algorithmes travaillent, en fait sur le « concept du réflecteur explosant ». Les
algorithmes de migration sont testés sur leur fidélité de restitution en évaluant leur réponse
impulsionnelle (en imposant à l'entrée un ensemble de traces nulles à l'exception de la trace
centrale qui porterait une impulsion à bande limitée). Le résultat, après migration, s'illustre
par la reproduction de l'impulsion d'entrée le long d'un demi-cercle centrée sur l'origine de la
trace porteuse d'information à un coefficient d'amplitude près.
35

5.3 Présentation des différents algorithmes

5.3.1 Méthodes de KHIRCHHOFF

Le schéma basé sur la sommation des hyperboles de diffraction consiste à rechercher


dans les données d'entrée (x,t), l'énergie qui résulterait si une source de diffraction était
localisée dans le plan (x,z). Cette recherche est entreprise en procédant aux sommations
des amplitudes le long des trajectoires hyperboliques qui correspondraient aux sources
secondaires (au sens de Huygens) des points de l'espace (x,z). Le résultat de cette
sommation est alors reporté sur les points correspondants du plan (x,z). La sommation de
diffraction est une sommation directe des amplitudes le long des trajectoires hyperboliques
dont la courbure est régie par la fonction de la vitesse.

L'équation de cette trajectoire découle de la figure géométrique.


Après le calcul de Tx de l'entrée, l'amplitude à la position B est représentée en sortie à
la position A correspondant au temps de sortie t = To au sommet de l'hyperbole. Si nous
considérons les amplitudes et les phases de l'onde le long de l'hyperbole de diffraction, il
découle que les amplitudes subissent une atténuation proportionnelle:
- au facteur d'obliquité ou de directivité qui décrit la dépendance angulaire des
amplitudes et est donné par le cosinus de l'angle entre la direction de propagation et
la verticale.
- au facteur d'expansion sphérique qui est proportionnel à (1/R)1/2 pour une onde se
propageant en 2D ou 1/r pour une onde se propageant en 3D.
- un troisième facteur (le facteur de mise en forme impliquant, bien sûr, la propriété de
Huygens) est la mise en forme de l'onde qui subit:
- un décalage constant de phase de 90° et une application de la fonction affine égale à
w en 3D.
- un décalage constant de phase de 45° et une application de la fonction rampe égale à
(w)1/2 en 2D. Y

A B

To

Tx

Hyperboloïde

L'énergie sur l'hyperbole de diffraction est additionnée


t
au point A
36

La méthode de migration par la sommation des hyperboles de diffraction qui incorpore ces
trois facteurs est appelée "migration de Kirchhoff".

Pour la réaliser, il faut appliquer aux données d'entrée:


- la correction due au facteur d'obliquité
- la correction due à la dissipation de l'énergie par divergence sphérique
- un filtre avec les spécifications du facteur de mise en forme.
et ensuite additionner les données le long des trajectoires hyperboliques qui sont
définies par la relation ci-dessus; le résultat ainsi obtenu sera placé sur la section migrée au
temps t = To correspondant au sommet de l'hyperbole.
Notons que des variations latérales de vitesses peuvent détruire la nature hyperbolique
des figures de diffraction. D'un point de vue physique, la solution intégrale de l'équation
d'onde scalaire donne le champ d'onde de sortie Ps(x,z,t) à la position dans le plan (x,z) d'un
champ d'onde à déport nul Pe(xe,z=0,t) qui est mesuré à la surface z=0.

La solution intégrale utilisée en migration sismique comporte deux termes:

cos (u)
2
Ps (x, z,t)= 1 ∫ ( +cos( u) ∂ ( 1 ).Pe(xe, z =0,t − r ))dx
2π r ∂t v.r v

avec v = vq au point de sortie (x,z) et r2 = ((xe-x)2 + z2);


r : est la distance entre le point d'entrée (xe,z=0) et le point de sortie (x,z).

Pour obtenir la section migrée à un temps de sortie t, l'équation doit être évaluée à z =
v.t/2. et le principe de représentation doit être invoqué par le report des amplitudes du champ
d'onde résultant à t=0 sur la section migrée au temps de sortie t.
La section migrée complète est obtenue en réalisant l'intégration et en posant t=0 pour
chaque position de sortie. Notons que l'intégration est sur toute la surface de mesure. une
contribution négligeable par rapport au second terme (effet d'éloignement du champ) qui, lui,
est proportionnel à 1/r.
Le premier terme est généralement négligé dans la réalisation pratique de l'intégrale;
c'est le deuxième terme qui est utilisé en migration. La dérivée temporelle du champ d'onde
mesuré en surface fournit un décalage de phase constant de 90° et un ajustement du
spectre par une fonction proportionnelle à la fréquence. Les paramètres qui affectent la
performance de la migration de Kirchhoff sont la largeur d'ouverture et le pendage maximum
de migration

a) Largeur d'ouverture

Partant de l'hypothèse que tous les algorithmes de migration traitent un événement sur
une trace comme une répétition de ce dernier le long d'un demi-cercle centré en surface à
l'aplomb de l'événement en question et dont le rayon de courbure est le temps de trajet à
l'événement d'origine. Pour des considérations d'efficacité, les méthodes, utilisant les
sommations (les superpositions), nécessitent une ouverture assez large qui correspondrait
donc à l'ouverture du front d'onde dont la taille est au moins égale à la zone de Fresnel de
l'objectif en profondeur pour la fréquence la plus basse du spectre du signal. La demi
ouverture minimale s'évalue par la relation:

Xmin = (1/2)(V.(T2 -(T-1/(2.Fmin))2)1/2

Il est à noter que de la densité des traces dans l'ouverture dépend la qualité de l'information.
En effet, si le nombre de traces est petit, alors l'opérateur de migration agira très mal
37

découlant du fait que, les énergies, s'interférant destructivement, laissent des résidus
d'amplitudes, provenant du petit nombre de traces, croître le niveau moyen du bruit.

b) Pendage maximum de migration

Pour qu'un pendage soit réellement pris en charge par les algorithmes de migration, il
faut leur présenter un espace additif (extension) en aval pendage appelé "demi ouverture
maximale". La relation s'y rapportant est:

Xmax= V.T.Sin(u)/2

Le paramètre pendage peut réduire les coûts de calcul si nous venons à réduire
l'ouverture maximale; il peut être utile quand nous avons besoin de supprimer des bruits
cohérents ayant des pendages très raides. Il existe des relations réciproques entre les deux
ouvertures, pour optimiser les coûts et la qualité d'information, nous prenons la plus
grande des deux ouvertures au lieu de leur sommation.

Notons que les erreurs de migration peuvent soit sur-corriger ou sous-corriger les
hyperboles de diffraction par une résorption partielle ou une réorientation des branches vers
le haut de l'hyperbole corrigée.
38

5.3.2 Méthodes par les différences finies

Contrairement à la migration de Kirchhoff qui exige la sommation des amplitudes pour


résorber l'hyperbole de diffraction; l'approche que nous allons développer consiste à utiliser
l'hyperbole construite à une distance donnée afin
temps de construire d'autres hyperboles à des distances
de plus en plus rapprochées de la source de
diffraction.
Le processus est stoppé quand l'hyperbole se
résorbe à l'origine de la diffraction. L'exemple de
Diffraction l'onde marine transitant par une ouverture d'une
digue et enregistrée par une ligne de réception sur
la berge, est édifiant; si nous venons à déplacer la
ligne de réception à intervalles réguliers de la
berge jusqu'à la jetée, les différents
enregistrements montreront que l'hyperbole
Ouverture
s'amenuise de plus en plus jusqu'à se ramasser
Berge : ligne d’observation complètement au niveau de la jetée: ce processus
peut être simulé par calculateur.
Fronts d’onde

Les méthodes par les différences finies sont


basées, elles aussi, sur l'équation d'onde scalaire
mais sur la solution différentielle contrairement aux
méthodes de Kirchhoff qui, elles, sont basées sur
jetée
les solutions intégrales. Les différences finies
utilisent le critère de prolongement vers le bas
Observation temporelle d’une onde avec le principe de représentation à t=0.
marine passant par une ouverture.

L'opération peut être illustrée par le schéma suivant. En déplaçant l'opérateur vers le bas
dans la direction du temps:

dP/dt = (P(t+∆t)-P(t))/∆t = a.P(t)

Cette équation peut s'écrire soit sous une forme explicite comme:

P(t+∆t) + P(t)(-1-a) =0

ou bien alors sous une forme implicite du genre:

P(t+∆t)-P(t) = a/2((P(t+∆t) + P(t))

(1-a/2)P(t+∆t) + (-1-a/2)P(t) = 0

L'équation d'onde scalaire peut être traitée de façon analogue mais d'une manière un
peu plus compliquée. Les complications surviennent parce que l'équation différentielle a des
dérivées partielles du champ d'onde par rapport à la profondeur, au temps et aux axes
spatiaux. Il y a à retenir que les schémas implicites offrent des résultats plus précis et plus
stables en raison de la moyenne faite des valeurs du second membre de la relation ci-
dessus: ces schémas portent le nom de schémas de CRANK-NICOLSON. Ils ont le
désavantage d'être plus coûteux (en temps de calcul machine).
39

Nous allons donc discuter du schéma aux différences implicites centré en (i,j+1/2):

∂Q/∂z(i,j+1/2)= 1/∆z(Q(i,j+1)-Q(i,j))

∂2Q/∂x2 = 0,5.(T/(∆x.(1-s.T)).(Q(i,j+1)+Q(i,j)) = -1/∆z.(1/(1-s.T)).Q(i,j+1)-Q(i,j)

avec T=(-1,2,-1)

En procédant aux remplacements dans l'équation suivante:

v.i.β/(2.ω.α). ∂3Q/(∂z∂x2) + ∂2Q/∂x2 +2.ω.i/(v.α). ∂Q/∂z= 0

nous obtenons:
i.β.T.v/(α.2.ω.∆z)+0,5.T-∆x/∆z.(1-s.T).i.2.ω/(v.α))Q(i,j+1)=
i.β.T.v/(α.2.ω.∆z)-0,5.T-∆x/∆z.(1-s.T).i.2.ω/(v.α))Q(i,j)

En développant cette expression par rapport à la matrice T, nous obtenons :

aa.Q(i-1,j+1)+bb.Q(i,j+1)+cc.Q(i+1,j+1)= cc.Q(i-1,j) + dd.Q(i,j) + cc.Q(i+1,j)

avec aa = - (i.b.v/(a.2.ω.∆z)) - (1/2) - (i.2.ω.∆x /(a.v.∆z))


bb = +2.( i.b.v/(a.2.ω.∆z)) + 1 - (i.2.ω.∆x /(a.v.∆z)).(1-2.s)
cc = - (i.b.v/(a.2.ω.∆z) ) + (1/2) - (i.2.ω.∆x /(a.v.∆z))
dd = +2.( i.b.v/(a.2.ω.∆z)) - 1 - (i.2.ω.∆x /(a.v.∆z)).(1-2.s ) et s= 1/12

En posant D(i)= cc.Q(i-1,j) +dd.Q(i,j) +cc.Q(i+1,j);

l'expression précédente devient:

aa.Q(i-1,j+1) + bb.Q(i,j+1) +cc.Q(i+1,j+1) = D(i)

En faisant varier i de 1 à NX, nous obtenons à partir de ce schéma aux différences, une
équation matricielle qui nous permet de déterminer le champ d'onde au niveau (j+1).Dz à
partir de sa valeur déjà connue du niveau j.Dz. Cette équation s'écrit sous sa forme
matricielle:

A.Q = D
40

5.3.3 Méthodes de migration dans le domaine F-K

Les techniques de Fourier appliquées à un champ d'onde permettent des processus


efficaces de migration des données sismiques. Ces processus sont régis sur la solution de
l'équation d'onde scalaire d'un champ d'ondes à déport nul.

a) Méthode de GAZDAG

Elle procède directement du prolongement vers le bas du champ d'onde de surface avec
le noyau exp(-i.kz.z) dont kz est le nombre d'onde vertical à une profondeur z ou nous
évaluons le champ d'onde à t=0 (concept du réflecteur explosant). Même les corrections de
phase et les corrections d'obliquité sont prises en compte automatiquement. Au contraire des
méthodes de Kirchhoff, l'opérateur de migration ne présente pas du tout le danger de subir
une distorsion. La méthode à décalage de phase débute avec une FT-2D d'un ensemble de
données d'entrée. ensuite les valeurs des données transformées dans le plan (x,kx) sont
prolongées vers le bas à une profondeur ∆Z par la multiplication par l'opérateur de phase
exp(i.kz.∆z). Habituellement, le pas d'échantillonnage temporel ∆t pour la section migrée est
choisi égal au pas d'échantillonnage des données d'entrée (4 msec. par exemple); ensuite
nous choisissons les profondeurs ∆z = ∆t.v.
L'opérateur d'extrapolation vers le bas par unité de temps est:
2
C =exp(−i.ω.∆t.(1− vky  ).05)
 ω
Les données seront plusieurs fois multipliées par C au fur et à mesure de l'évolution du
prolongement vers le bas. Quand à la représentation, à chaque profondeur, une TF-2D est
effectuée suivie par la recherche de sa valeur à t=0. Heureusement seule la TF en un point
est nécessitée (t=0). Le calcul est spécialement aisé lorsque la valeur à t=0 correspond
presque à une sommation de chaque composante fréquentielle. Finalement une TF inverse
de kx vers x est effectuée. La vitesse est toujours difficile à connaître précisément. Elle est
souvent une fonction complexe de la profondeur. Elle est approchée par un ensemble de
vitesses constantes dans des couches au lieu de changements lents et continus à chacun
des milles points de temps d'un sismogramme par exemple.
L'avantage de cette approximation est l'économie. Une fois la racine carrée, les sinus et
les cosinus de la relation de C sont connus, le multiplicateur C peut être appliqué autant de
fois que nécessaire. Les migrations à décalage de phase effectuées avec des tailles
différentes de paliers de profondeur donnent des résultats également acceptables. Les
grands pendages sont bien pris en charge sauf que les grandes tailles de paliers restituent
ces pentes raides par un « dentelure » de l'information.
Avec des paliers de 20 à 40 msec. la migration de Gazdag ne produit plus d'informations
distordues (dentelures) des réflecteurs inclinés. En pratique, la taille des paliers de
profondeur est prise à l'intérieur des limites entre la période et de la demi période dominante
du signal; c'est à dire de: 20 à 40 msec.
La méthode de Gazdag peut seulement manipuler des vitesses variant verticalement;
aussi Gazdag a développé une méthode pour manipuler des variations latérales de
vitesses. Pour atteindre cet objectif, il nous suggère d'extrapoler le champ d'ondes d'entrée
par la méthode des décalages de phases en utilisant un nombre multiple de fonctions de
vitesses pour échantillonner les variations latérales et ainsi une série de champs d'ondes de
référence sont créés. Le champ d'onde image (migré) est alors calculé par interpolation des
champs d'ondes de référence.

Cette méthode est connue sous le nom de ": migration PSPI" ; elle est illustrée par l’exemple
de la figure suivante :
41

Exemple de migration par décalage de phase plus interpolation du


modèle sismique de gauche

Exemple de migration par décalage de phase du modèle sismique de


gauche présentant une anisotropie de vitesses
42

b) Méthode de STOLT

Sur la plupart des calculateurs, la méthode de migration de Stolt est de très loin la plus
rapide. Ce qui est d'ailleurs son attribut principal. Pour un sous-sol à vitesse constante, elle
décrit exactement et correctement les sources secondaires de Huygens. Elle ne peut
malheureusement pas manipuler les variations verticales de vitesses. La technique de
migration de Stolt implique une représentation efficace dans le domaine de Fourier TF-2D de
la fréquence temporelle ω en nombre d'onde vertical kz.

ω=−sgn(kz).v((kx)2 +(kz)2).0.5)

dω =−sgn(kz).v kz
dkz ((kx) +(kz)2).0.5
2

Le principe de représentation étant:

P(x, z,t =0)=∫∫exp(−i.kz.z −ikx x)P(ω(kx,kz,0),kx,0).v. kz dkx.dkz


((kx)2 +(kz)2).0.5

qui est l'équation de Stolt à vitesse verticale constante.

Au fur et à mesure que l'image est profonde, des images miroirs en forme de demi-
cercles présentant des énergies de plus en plus fortes et ayant pour origine la base du
modèle apparaissent. L'élimination de ces figures peut se faire par une interpolation soignée
(conversion d'une maille uniforme en ω à une maille uniforme en kz; ou bien en éloignant le
plus possible la base du modèle. Ce qui implique l'addition d'un ensemble de zéros sur l'axe
des temps

.1) Facteur d'étalement W

Stolt a développé une méthode pour manipuler les variations verticales de vitesses qui
consiste à modifier le champ d'ondes d'entrée pour le faire apparaître comme s'il évoluait
dans un milieu à vitesse constante; ensuite, à appliquer l'algorithme à vitesse constante et
enfin à renverser la modification apportée au champ d'onde d'entrée.
Cette modification est essentiellement une manipulation de l'axe des temps pour rendre
les temps des réflexions approximativement équivalents à ceux censés être enregistrés dans
un milieu à vitesse constante.
Bien que la fonction d'étalement W soit compliquée; dans la pratique, elle est donnée
comme un scalaire. La plage théorique de ce facteur va de 0 à 2.
Quand W=1 , nous revenons à l'algorithme exact à vitesse constante. En posant W<1,
nous constatons une compression de la réponse impulsionnelle vers l'intérieur le long des
flancs raides de pendages impliquant une sous-migration; quand W>1 nous constatons le
contraire, c'est à dire impliquant des phénomènes de sur-migration.

L'expérience a souvent montré que la migration de Stolt avec la définition du facteur


d'étalement W donne des résultats très acceptables.

.2) Migration résiduelle

Quoique l'algorithme de Stolt puisse être considéré comme un exercice purement


académique, il est d'un emploi très courant. Comme la migration par les différences finies a
des difficultés à résorber les diffractions ; il existe des moyens aidant à rendre la méthode
43

beaucoup plus attractive donc performante en présence de forts pendages. Ces moyens
consistent à rabaisser les pendages apparents perçus par la migration par l'utilisation en
premier de la méthode de Stolt à vitesse constante avec la plus faible des vitesses
rencontrées; ensuite, l'emploi de la méthode par les différences finies de 15° avec l'emploi
des vitesses résiduelles.

La méthode par décalage de phase de Gazdaz est beaucoup plus onéreuse qu'une
application combinée de la méthode de Stolt, suivie par celle des différences finies avec
l'approximation parabolique. Si les pendages demeurent encore importants pour le
deuxième passage, ils impliqueront une sous-migration.

Arrivées latérales provenant d'un édifice


émergeant sur le fond de la mer

La migration 2D n'est pas en mesure d'éliminer les échos qui proviennent en


dehors du plan vertical de mesures.
44

La migration 3D par rapport à la migration 2D présente des événements


clairs et concis.
45

5.3. MIGRATION 3D

Nous discuterons maintenant de quelques alternatives pratiques à la sommation sur la


surface de l'hyperboloïde. Le plus grand apport de la technique de représentation 3D est
discuté par Ristow en 1980. L'hyperboloïde de diffraction, qui est associé strictement à un
milieu à vitesse constante, présente des suites successives de sections hyperboliques pour
chacun des azimuts. La sommation le long de ces sections hyperboliques prises dans une
direction particulière, longitudinale par exemple, place les amplitudes sommées aux
sommets locaux de ces hyperboles. L'hyperboloïde est maintenant réduit à une hyperbole
qui est dans le plan perpendiculaire à la direction des premières sommations. Cette
hyperbole comprend les premières amplitudes sommées aux sommets locaux et est
contenue dans le plan de la direction transversale. Ensuite, il faut additionner l'énergie le
long de cette hyperbole et la replacer à son sommet qui est aussi celui de l'hyperboloïde
d'origine et c'est là ou le point de l'imagerie devrait se situer.

La notion mathématique de base de l'approche à deux passages s'édifie sur la


séparation totale des opérateurs d'extrapolation dans les directions longitudinales et
transversales.

L'approche par partition (splitting) se base, elle, sur le fait que les opérateurs
d'extrapolation sont appliqués indépendamment aux données dans les directions
longitudinales et transversales à chacune des étapes de prolongement vers le bas.

Mathématiquement l'équation d'onde 2D peut être réécrite au cas 3D comme suit:

P(K x,K y,z,ω)= P(K x,K y,0,ω).exp( i.K z.z)


avec

K z =2.ω (1− X 2 −Y 2)1/ 2; X =v. Kx


v 2.ω

X et Y sont des nombres d'ondes normalisés.


et x et y sont les axes longitudinaux et transversaux.

En reconsidérant le cas où la vitesse de milieu est constante, nous pouvons remplacer


Kz par ωt qui est la fréquence temporelle de sortie:
2 2
v 2. K x v 2. K y 1/ 2
ωt = ( ω −
2 − )
4 4
Supposons que nous faisons une migration 2D sur toutes les lignes longitudinales en
cartographiant la fréquence d'entrée ω à une fréquence de sortie ω1 par l’emploi de la
relation: 2
v 2. K x 1/ 2
ω1= ( ω 2 − )
2
Nous allons réorganiser les lignes déjà migrées dans la direction transversale et en
faisant une nouvelle migration 2D sur toutes les lignes transversales. Ce deuxième passage
de migration est effectué en cartographiant ω1 de l'équation précédente à une fréquence de
sortie ω2 en utilisant la relation:
2
v 2. K y 1/ 2
ω2 =(ω − 2
1 )
4
Par substitution, nous obtenons:
46

2 2
v 2. K x v 2. K y 1/ 2
ω 2 = (ω −
2 − )
4 4
Ce qui nous amène à dire que la migration 3D peut être réalisée en deux passages. Cette
dérivation de l'opérateur 3D est basée sur l'idée de la pleine séparation des opérateurs de
migration 2D.
La séparation est valable seulement dans le cas ou la vitesse du milieu est constante
(ce qui correspond à la justification de Jakubowicz).
Des problèmes supplémentaires surgissent quand beaucoup plus de précision est
demandée, les termes X et Y ne sont plus découplés; l'approximation à 45° introduit, par
exemple, des termes croisés (XY). Une autre solution serait de représenter la simple racine
carrée par deux racines carrées:
K z = 2.ω.((1− X 2)1/ 2 +(1−Y 2)1/ 2 −1)
v
Notons que cette équation a la même forme que Kz = DSR(S,G)

Par le développement des séries de Taylor, les deux racines carrées se réduisent à
l'équation:
X 2 Y2
K z = 2.ω.(1−( )−( ))
v 2 2
Si nous désirons plus de précision dans la direction longitudinale, nous pouvons l'atteindre
en y faisant l'approximation à 45° dans la direction ou la précision est recherchée:

X2 Y2
K z = 2.ω.(1−( ) −( ))
v X2 2
2−( )
2
Si nous voulons plus de précision dans les deux directions, le dernier terme de la relation
suivante prendrait la forme de:
Y2
−( )
Y2
2−( )
2

Les plus grandes erreurs de sous-migration surgissent dans les directions diagonales.

En résumé, pour réaliser des migrations selon la séparation ou la partition, les termes
longitudinaux et transversaux de l'opérateur 3D doivent obligatoirement être découplés. En
dépit du large emploi de l'approche à deux passages parce qu'étant plus simple et moins
coûteuse; elle est en fait imprécise.
En considérant la réponse 3D d'un point diffractant dans un milieu à vitesse constante,
elle aurait la forme d'un hyperboloïde de révolution, dont les sections verticales seront des
hyperboles ayant des courbures qui décroissent en fonction de leur distance par rapport aux
axes. Ces hyperboles satisfont à la relation générale:
v.t0 =(S 2 + Z 2)1/ 2
2
avec S= (x2 +y2) 1/ 2 qui est l'offset et dont la dérivée est:

dS = v .t0 = v 2.t0
2

dt 4.S 4.(x 2 + y 2)1/ 2


47

En comparant les hyperboles à offsets par rapport à celle qui est à l'aplomb de l'axe des x (
pour y=0), il semble qu'elles soient générées à des vitesses v plus faibles que celle qui
correspond aux y=0 qui est v'.
v 2.t0 v'2.t0
=
4.(x 2 + y 2)1/ 2 4.x
v' =( x
2
donnant la rapport suivant: )0.25
v .(x 2 + y 2)

Modèle synthétique de French illustrant l'inadéquation des migrations


2D des données sismiques et les solutions 3D.
48

Nous constatons que ce rapport montre la divergence des deux vitesses; par
conséquent, l'application d'une même vitesse au milieu par la méthode à deux passages
produirait un résultat "surmigré". Pour éviter ce type de problème, il est alors nécessaire de
réduire artificiellement le champ de vitesse à utiliser pour la migration.
Dans le but d'estimer la réduction la plus appropriée, il vaut mieux construire le modèle
synthétique le plus rapprochant et le migrer ensuite afin de bien apprécier le résultat.
49

6. Attributs de la trace
Les mesures instantanées, tirées de la trace analytique sont associées avec un instant
de temps plutôt qu'à une moyenne sur un intervalle de temps. Ces mesures sont sûres
quand le signal sismique est enregistré et traité de telle sorte que la sommation CMP
représente étroitement le sous-sol; en d'autres mots, pour déduire une quelconque
signification stratigraphique à partir des données sismiques, le contenu spectral du signal
sismique doit être préservé de toute distorsion à chacune des étapes de traitement.

L'enveloppe instantanée est un outil efficace pour identifier les anomalies d'amplitude
telles les "Bright spots" ou les "Dim spots". La phase instantanée est utile pour délimiter les
traits intéressants comme les biseaux, les failles, les recouvrements en progradation, etc..
Les variations en fréquence dominante instantanée peuvent aider à identifier et à
caractériser les anomalies géologiques comme les réservoirs à condensats qui atténuent les
hautes fréquences par exemple.

Le détail mathématique du calcul des attributs repose sur l'association de la quadrature


y(t) d'un signal x(t) à lui même:

u(t)= x(t)+i.y(t)

La quadrature est obtenue en prenant la transformée de Hilbert de x(t):

y(t)= 1 *x(t);(produit _ de _ convolutio n)


πt
Pour obtenir le signal analytique d'une trace sismique, l'opérateur {δ(t)+1/(π.t)} doit être
appliqué à la trace; cet opérateur implique que la trace complexe ne contient pas de
composantes négatives en fréquences.

u(t)= R(t).exp( i.φ(t))


R(t)=(x 2(t)+ y 2(t))0.5

φ(t)=arctan( y(t) / x(t))


R(t): représente l'enveloppe de la trace
φ(t): la phase instantanée

La phase instantanée peut être calculée en prenant les logarithmes des deux côtés de la
relation précédente:
log(u(t))=log(R(t))+i.φ(t)

La fréquence instantanée w(t) est la différentielle temporelle de la fonction phase


instantanée:
dφ(t) du(t)
w (t ) = =imag ( 1 . )
dt u(t) dt

où imag est la partie imaginaire du nombre complexe


50

Trace sismique avec sa quadrature : bleu et rouge


0.1

-0.1
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Enveloppe de la trace : magenta


0.2

0.1

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Phase instantanée : noir


2

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Fréquence instantanée : vert


2

-2
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Résultats de calcul des attributs d’une trace sismique


51

COMMENTAIRES SUR L'ETAT DE L'ART EN SISMIQUE 3D DANS LA DECENNIE 1990


52

IMAGERIE SISMIQUE par William S. FRENCH

Le nombre d'options disponibles chez l'explorateur pour imager l'information sismique est très
impressionnant. La tendance actuelle de remplacer les études 2D par des études 3D ne fait qu'en
multiplier le nombre.

Dans ce qui suit, nous utiliserons des exemples d'informations synthétiques et réelles pour pouvoir
comparer pratiquement les méthodes de traitement qui sont couramment utilisées.

Les leçons à tirer de ces comparaisons impliquent des meilleures approches pratiques menant vers
l'imagerie sismique. Aussi, nous serions à même de considérer, dans ce cas, l’alternative suivante:

- Quand est-ce qu'il faut (ou ne faut pas) utiliser la 3D?

Tableau 1: Options de traitement

1. CMP stack, time migration


2. DMO stack, time migration
a) constant velocity
b) vertical variation
3. Prestack time migration
4. Item 1 Image rays
5. Item 2b Image rays
6.. Item 3 Image rays
7. CMP stack, depth migration
8. DMO stack, depth migration
9. Prestack depth migration

Le tableau 1 liste les options disponibles pour le traitement des données sismiques; elles ont été
séparées en trois groupes basés sur des différents degrés de la complexité géologique. Le paramètre
géophysique divisant les groupes est le taux de variation de la vitesse horizontale. L'addition CMP est
basée sur la géométrie d'acquisition des données à la surface du sol. Le stack DMO et les méthodes de
migration complète avant-stack sont basées, elles, sur la géométrie du sous-sol.
Chacune des migrations temps peut être convertie en migrations profondeurs.

Commençons d'abord par comparer les deux premiers items.


La figure 1 est une ligne sismique générée par un traitement CMP conventionnel. La géologie est
complexe, mais les pendages des interfaces sédimentaires sont faibles. La figure 2 montre les mêmes
données, mais qui sont retraitées en utilisant le DMO (courbure de pendage). La bande de fréquences
est maintenue aussi large que possible et les informations sont migrées dans les deux cas.
La figure 2 montre beaucoup plus d'informations géologiques que la figure 1; par exemple, les
réflexions proches de la faille se distinguent mieux, elles définissent précisément aussi bien les faibles
que les grands rejets des failles.
En plus, des détails supplémentaires géologiques peuvent, aussi, être tirés, tels que :
- les variations en amplitudes,
- les changements de polarité,
- les extrémités des réflexions sur les plans des failles.

C'est juste un cas, parmi tant d'autres, qui montre que nous devons traiter les données sismiques
avec le soin de préserver tous les pendages possibles. Parce que l’addition CMP préserve seulement
53

les pendages sélectionnés, elle ne peut donc pas être considérée comme un produit final de traitement,
ce qui est, en d'autres termes, notre première leçon.

La figure 3 illustre un modèle utilisé pour générer des données synthétiques qui serviraient de
base pour la comparaison de plusieurs méthodes d'analyse des vitesses. Le modèle de vitesses
d'intervalles croît linéairement avec la profondeur. Le modèle à trois réflecteurs horizontaux et deux
réflecteurs inclinés (qui pourraient représenter des plans de failles); les temps doubles de réflexion sur
chaque interface sont reproduits. Les données synthétiques sont générées comme si la ligne sismique
traversait le modèle avec une couverture de l'ordre de 30.
Les analyses de vitesses sont positionnées en surface sous la ligne verticale hachurée.

La figure 4 compare les trois procédures d'analyses de vitesses utilisées sur les données
synthétiques. Le spectre le plus à gauche montre les réflecteurs horizontaux qui produisent des
vitesses qui coïncident avec les vraies vitesses par contre, les événements inclinés montrent des
vitesses plus grandes; cette augmentation des vitesses correspond aux effets bien connus du pendage.
Le spectre central implique l'étape du DMO; le NMO conventionnel suivi par le DMO
(permettant à la vitesse de changer avec le temps mais pas avec les pendages); le renversement de la
procédure NMO (NMI), une fois appliquée, en donnerait le DMO, qu'il faut extraire; une analyse de
vitesses est alors évaluée sur ce résultat.
Le spectre le plus à droite découle de la réalisation du NMO et du DMO simultanément. Dans
cette méthode, la vitesse NMO est autorisée à changer avec la profondeur aussi bien qu'avec le temps.
Cette procédure produit le même résultat de vitesses que l'analyse de vitesses de migration mais exige
moins de temps de calcul.
Les analyses des vitesses de migration cartographient les événements à leurs temps migrés avec
les vitesses quadratiques verticales correspondantes. Tandis que les analyses de vitesses DMO-NMO
cartographient, elles, les événements à leurs temps non migrés avec les vitesses quadratiques
verticales correspondantes.
Nous considérons une section de temps non migrée comme un produit de contrôle de qualité
intermédiaire de valeur comme nous l'expliquerons plus tard.
De plus, l'évidence suggère que l’opération DMO-NMO simultanée suivie par une migration post-
stack donne un résultat identique à la migration temps avant-stack quand les deux opérations sont
faites correctement. Nous préférons l'approche par le DMO parce qu'elle est moins coûteuse même si
elle est plus difficile à réaliser en traitement de production.

Pourquoi devons nous réaliser des analyses de vitesses?


Nous les faisons pour au moins deux raisons: une vitesse correcte est nécessitée pour
l'optimisation d’additon (stack) des données d'une part et pour la migration d'autre part.

La leçon donnée par la figure 4 est que seulement le spectre le plus à droite atteint ces buts. En
fait, il produit des vitesses pour le modèle qui coïncident avec la fonction des vitesses vraies quelle
que soit la position où la vitesse est située.
L'autre méthode génère des vitesses qui ne coïncident pas avec la fonction de vitesses vraies et, en
plus, elle produit différentes fonctions de vitesses à des positions différentes à travers le modèle.

Maintenant retournons au tableau 1 avec ces deux premières leçons à l'esprit. Nous trouvons qu’à
travers quelques unes des options:
- toutes les techniques se rapportant au CMP ( n° 1,4 et 7) avec le DMO à vitesse constante (n°2a) - ne
peuvent pas prétendre à de sérieuses considérations pour être des produits finals utiles. Pour de
l'information 2D, les items 2b et 3 s'accommodent avec des variations de vitesses verticales et des
variations modérées de vitesses latérales. La migration avant-addition exige plus de temps de calcul
mais elle est bien plus précise.
Les méthodes de lancé de rayons sont prévues pour fournir des réponses utiles dans les cas de
variations modérées de vitesses latérales où, pour construire des cartes de profondeurs, nous devons
faire plus qu'une simple mise à l’échelle (rescaling) de l'axe des temps. Donc, une fois le modèle du
sous-sol requis pour le lancé de rayons est construit, les ordinateurs modernes le réalisent plutôt aussi
54

facilement que pour réaliser des migrations profondeurs sur des données 2D. Ensuite, la cartographie
par tracé de rayons est probablement plus utile pour des campagnes 3D que celles exploitées en 2D.
Le troisième groupe est applicable à la géologie complexe. Donc, le stacking dans l'item 8 est un
facteur de limitation et ensuite, la leçon à retenir ici est que seulement la migration profondeur avant-
stack (item 9) fonctionnerait dans la plupart des géologies complexes.
A notre avis, les traitements sophistiqués de l'information sismique 2D sont souvent de peu de
valeur étant donné la nature tridimensionnelle (3D) de l'information.

Nous avons publié, il y a 16 ans déjà, des comparaisons entre des profils 2D et des profils 3D
enregistrés sur un modèle simple (deux dômes et une faille) illustré par la figure 5. La figure 6
compare une ligne 2D non migrée, une ligne 2D migrée et la même ligne 3D. Certes, la migration 2D
améliore l'interprétation mais des ambiguïtés demeurent. La leçon à tirer de ce travail, d'il y a 16 ans,
est que la migration 3D est nécessitée pour obtenir la structuration réelle.

Aujourd'hui nous pouvons faire les mêmes comparaisons entre des données réelles 2D et 3D.

Est- ce que la leçon est toujours la même?

La figure 7 représente une ligne sismique 2D avec les traitements modernes incluant le 2D-DMO
et la migration 2D. La figure 8 présente la même section verticale extraite d'une étude 3D qui a été
traitée avec le 3D-DMO et la migration 3D. Nous voyons clairement les tracés des failles et les
réservoirs potentiels sur de l'information 3D qui ne peuvent pas être interprétés précisément sur des
lignes 2D. Il serait vain de vouloir appliquer une migration profondeur 2D, ou une migration avant-
stack 2D, ou le tracé de rayons ou d'autres traitements sophistiqués dans l'espoir d'améliorer le résultat
2D de la figure 7.
La figure 9 et 10 fournissent une comparaison similaire; de nouveau, aucun surplus de traitement
ne permettrait aux données 2D de révéler le détail donné par l'information 3D.
Nous avons eu affaire, de près ou de loin, à quelques 200 études 3D. Chaque fois nous faisons des
comparaisons entre les résultats 2D et les résultats 3D; il y a toujours des différences assez grandes,
habituellement, bien marquantes quand nous devons arrêter le positionnement définitif d'un forage.
Depuis, l'expérience a confirmé l'hypothèse que les données 3D sont très supérieures aux résultats
de la même étude 2D malgré la sophistication la plus extrême des traitements 2D. Nous devons, par
conséquent, nous concentrer sur des méthodes qui assureraient l’optimisation du produit final 3D.

Les campagnes 3D peuvent être classées en deux catégories sur la base de leur géométrie
d'acquisition.

La figure 11 montre une étude 3D unidirectionnelle c'est à dire que tous les couples sources
récepteurs dans les bins présentent une même direction d'alignement (une campagne 3D idéale
exploitée comme une série de lignes droites parfaitement parallèles et séparées). Des analyses de
vitesses 2D et des procédures d'addition peuvent être appliquées à ces études unidirectionnelles.

La figure 12 illustre une étude réelle 3D, c'est à dire avec une distribution uniforme de directions
des couples E-R dans un CMP bin. Pour un réflecteur incliné des paires émetteurs récepteurs sont
alignées selon la direction du pendage (dip) et d'autres sont alignées selon la direction orthogonale
(strike).

Ainsi, la vitesse de stack devrait changer avec les changements de direction des couples E-R. Une
complication supplémentaire vient de ce que les points milieux ne coïncident pas et sont donc
distribués sur toute la surface de la cellule. Les campagnes actuelles 3D tombent entre ces deux
méthodes extrêmes décrites par les figures 11 et 12.

Les études modernes 3D, qu'elles soient marines ou terrestres éparpillent les points milieux.
55

Une manière de manipuler les effets compliqués de l'information 3D vraie serait d'étendre les
procédures du spectre de vitesse habituel pour fournir de l'information structurale aussi bien que
l'information de vitesse.

La figure 14 en est un exemple. Elle montre les résultats d'un algorithme qui recherche
simultanément la direction du pendage, la magnitude du pendage géologique et les vitesses corrigées
de pendage comme une fonction de temps.

Cette analyse de vitesses (fonction de la structuration) peut être utilisée pour réaliser le NMO-3D
exigé par les campagnes 3D actuelles. Par NMO-3D, nous voulons dire que la vitesse peut varier en
fonction de l'angle entre la direction du pendage et l'orientation de la ligne du couple ER. Les points
milieux peuvent être corrigés au centre de la cellule:- tout cela comme une fonction du temps.

La figure 15 présente des résultats des NMO-2D et NMO-3D. Les panneaux de données brutes
(gauche) montrent une cellule CMP de traces non corrigées d'une étude 3D. Sur les données 2D, nous
avons l'habitude de voir les configurations hyperboliques des réflexions sur les données non corrigées.
Pour des études 3D, il est souvent difficile de reconnaître les événements réfléchis (comme c'est le cas
dans la figure 15). Il y a 3 raisons à cela, les cellules CMP-3D peuvent paraître avoir un niveau plus
faible du rapport S/B que ce qu’il est réellement ; d'abord, pour des campagnes 2D, la séparation E-R
(offset) habituellement augmente uniformément d'une trace à l'autre ; alors que pour des campagnes
3D vraies, la géométrie est plus compliquée.
Les données dans la figure 15 ont été mutées par une fonction linéaire de la séparation E-R. La
configuration des premières arrivées irrégulières de données brutes est une indication directe de la
séparation E-R qui n'est pas une augmentation uniforme dans la cellule CMP. Cette configuration
irrégulière est aussi imposée sur les événements réfléchis causant une distorsion des formes
hyperboliques. Deuxièmement le point milieu éparpillé imposera des décalages en temps aléatoires sur
les configurations de réflexion des événements inclinés.

Finalement, les variations de direction E-R causent aux réflexions d'un événement incliné
spécifique de sauter n'importe où entre les différentes hyperboles de réflexion.

Le panneau central est le résultat d'un NMO-2D conventionnel et le panneau à droite est le
résultat du NMO-3D; ce dernier montre un meilleur alignement des événements que les précédents.

La leçon à tirer est qu'il y a deux avantages à utiliser le NMO-3D: d'abord, nous obtenons une trace
sommée CMP meilleure et ensuite, une meilleure solution aux statiques résiduelles. Le NMO-2D
laisse des décalages de temps dans les données qui résultent des variations de direction des couples E-
R. Les algorithmes de statiques résiduelles vont essayer en vain de résoudre pour ces décalages en
temps qui se rapportent à la géométrie comme les statiques compatibles surface.
Le NMO-3D corrige les effets se rapportant à la géométrie antérieurement à la solution des
statiques.
Nous ne suggérons pas que l'addition CMP avec le NMO-3D serait utilisée comme un produit
final. Cette technique devrait plutôt être utilisée comme une étape de pré-traitement dans la
détermination des statiques résiduelles 3D. Après que les statiques 3D aient été déterminées, elles
pourraient être appliquées aux traces non sommées et le processus CMP pourrait alors être établi en
faveur de la plus précise analyse de vitesse DMO-NMO aboutissant ainsi au meilleur stack possible.

Une autre leçon importante à tirer est que les études 3D ressemblant aux études 2D devraient toujours
être sommées et migrées avec l'hypothèse de l'existence de pendages raides dans le volume de
données.
La technique populaire de réalisation de la migration 3D par la méthode à deux passages montre
un positionnement incorrect des pendages raides. De nouveaux algorithmes 3D sont disponibles
actuellement; ils peuvent même préserver des pendages approchant 90°.
56

Ce qui suit montre la différence entre la migration 3D à deux passages et la migration 3D à


pendages raides d'abord sur des données synthétiques et ensuite sur des données réelles.

La figure 16 montre le modèle utilisé pour générer des données synthétiques; un dôme sphérique
est centré sur un des coins d'un volume 3D. La vitesse croît avec la profondeur; les traces synthétiques
sont générées sur une grille 3D.
Les données étaient migrées 3D en utilisant l'approche à deux passages. Une ligne diagonale
radiale au dôme est extraite du résultat de cette migration à deux passages : ce qui est montré par la
figure 17. Le résultat imagé n'est pas conforme au-delà de 45° de pendage. Ce résultat bien connu est
dû à l'erreur inhérente de vitesses dans le premier passage de la migration à deux passages.

Le volume d'informations 3D subit une migration en utilisant un algorithme de migration 3D


complète. La même ligne radiale est extraite de cette migration 3D à pendages raides et, elle est, aussi,
montrée par la figure 17 où des pendages approchant 90° sont correctement imagés.

Les figures 18 et 19 sont une comparaison similaire prise d'une étude 3D réelle. La figure 18
montre une ligne qui est extraite d'une étude 3D qui a été migrée avec un algorithme de migration 3D
à deux passages.

La figure 19 est la même ligne prise de la même campagne mais migrée avec un algorithme de
migration 3D à pendages raides. L'événement raide le long du flanc du dôme de la figure 19 a un sens
géologique; nous conclurons ainsi que l'approche à deux passages est inefficace pour des pendages
raides.

Table 2: Résumé des étapes de traitement

1 Shot oriented noise suppression


2 Receiver oriented noise suppression
3 3D- NMO
4 True 3D statics
5 CMP oriented noise suppression

6 3D DMO-NMO velocity analysis


7 3D DMO-NMO stack
8 3D-90° time migration

9 Image rays corrections


a) time maps
b) seismic data
10 3D depth migration

La table 2 résume les étapes de traitement discutées dans cet article. Ce résumé fournit une approche
pratique du traitement sismique sur les supercomputers modernes. La table 2 implique que nous
devons toujours penser en termes de données 3D vraies (comme cela est défini dans la figure 12) parce
que c'est ce que nous attendons quand nous collectons des informations 3D par les méthodes les plus
efficaces.

Avant de discuter la table 2 plus en détail, nous devons nous demander quand est ce que nous
désirons utiliser la 3D? Le coût moyen d'un forage peut être la clé pour répondre à une telle question.

Le compromis se dégage quand les coûts de l'observation 3D reviennent à quelques 2,5 fois ceux
d'un forage durant la phase initiale de découverte - développement d'un champ pétrolier.
57

Tout ce qu'il y a à faire c'est de multiplier le coût de forage par 2,5 et envoyer le devis aux
entrepreneurs pour voir s'ils veulent mener des études 3D qui pourraient rencontrer les objectifs
géologiques recherchés tout en demeurant dans les limites des coûts arrêtés. Cette situation peut
déboucher soit sur un oui définitif ou sur un éventuel non et là, d'autres facteurs doivent être
reconsidérés. Ces autres facteurs impliquent si les méthodes de découverte secondaire ou tertiaire
peuvent être éventuellement employées et sur la probabilité que plus de forages secs seraient forés à
cause de la complexité géologique.

En revenant à la table 2, les processus au-dessus de la ligne continue sont basés sur la géométrie
d'acquisition de surface et ceux au-dessous sont, eux, basés sur la géométrie du sous-sol.
Les processus au-dessus de la ligne discontinue sont basés sur le temps double alors que ceux
situés au-dessous sont eux basés sur la profondeur.
La table 2 révèle que nous n'avons pas une procédure unique pour simultanément supprimer les
bruits, déterminer les statiques, analyser les vitesses et restituer le modèle géologique. Le traitement se
sépare en trois groupes distincts et nous devons alors fixer notre séquence de traitement pour inclure
les trois groupes à partir du commencement.

Le premier groupe s'occupe des données qui sont dans le système de coordonnées de surface et
qui se rapportent à la géométrie d'acquisition. La section temps CMP est l'outil de contrôle de qualité
(QC) de base. Le but est de supprimer le bruit et de déterminer les statiques pour obtenir le meilleur
stack possible en utilisant une section temps CMP brute comme point de départ.

Il faut se rappeler que le 3D-NMO (et non le 2D-NMO) devrait être appliqué.

Après optimisation du stack CMP, les traces non sommées (après avoir subi les techniques de
suppression de bruit et l'application des statiques) passent au deuxième groupe des étapes de
traitement. Il est intéressant de noter que les méthodes CMP qui ont représenté le produit final de
traitement des données depuis l'avènement du traitement numérique sont aujourd'hui seulement des
outils de pré-traitement.
Le deuxième groupe s'occupe de la géométrie du sous-sol en temps; les développements récents de
l'opération 3D-DMO-NMO vraie pour un milieu verticalement non homogène permet le stack 3D-
DMO-NMO suivi par une migration "post-stack" 3D qui est équivalente à une migration 3D complète
"avant-stack".

Le stack 3D-DMO-NMO peut être comparé directement au stack CMP comme une étape
additionnelle de QC. Occasionnellement dû à l'effort terrain insuffisant, le DMO produit des effets
d'"aliasing" qui peuvent être identifiés dans cette étape de contrôle de qualité. L'interpolation avant
stack est alors exigée pour en résoudre le problème; dans des cas sévères de sous-échantillonnage
spatial. Le stack CMP doit être utilisé au lieu du DMO; mais il vaut mieux disposer de l'option de
revenir sur ses pas. La migration 3D à forts pendages est le résultat du contrôle de qualité final de ce
2ième groupe des étapes de traitement.
Le 3ième groupe de traitement représente le traitement interprétatif. La migration 3D en temps
devient alors rapidement un résultat intermédiaire plutôt qu'une phase finale. Des résultats de
traitement du 2ième groupe peuvent être interprétés pour fournir le modèle de milieu de vitesses 3D
initial. La technologie du lancé de rayons 3D peut être utilisée pour convertir les cartes en temps (les
données migrées en temps) en cartes profondeurs.

Autrement dit les migrations profondeurs 3D peuvent être réalisées sur le stack 3D-DMO-NMO.

La migration 3D profondeur avant stack n'est pas une procédure courante de traitement de
production. Elle est utilisée dans des cas spéciaux, car elle est très coûteuse quand elle est faite
proprement.
Nous ne devons jamais planifier de réaliser une migration profondeur une seule fois sur des
données 2D ou 3D étant donné que les résultats de la migration profondeur sont très dépendants du
modèle de vitesses utilisé.
58

Nous ne devons pas voir en une migration profondeur une méthode permettant l'obtention d'une
image profondeur à partir des données. La migration profondeur devrait être perçue comme une
méthode pour extraire 10 à 15 images profondeurs à partir de 10 à 15 perturbations du modèle de
vitesses; en d'autres mots, la précision des modèles de vitesses en géologie complexe est toujours
problématique.

La migration profondeur est simplement une méthode pour tester la sensibilité des résultats
d'interprétation qui sont dus aux variations du modèle de vitesses.
Dans l'imagerie sismique, nous ne devons jamais jeter aux oubliettes les anciennes technologies
quand des processus nouveaux sont mis en place.

Nous terminons en disant que le produit final d'aujourd'hui deviendra simplement une étape de
pré-traitement ou une étape de QC dans la séquence de traitement de demain.
59
60
61
62
63
64

Aspects pratiques de la détermination des vitesses de stack en 3D


par Lehmann et Houba
Introduction

De nombreux prospects sismiques étaient observés dans le détail, c'est à dire en trois dimensions.
Ces campagnes étaient exécutées avec de petits pas d'échantillonnage et de petites longueurs
d'enregistrement dans le cas d’une délimitation des filons de houilles superficielles ou bien avec des
pas d'échantillonnage et des longueurs d'enregistrement importants (normaux) dans le cas de
prospection pétrolière détaillée. Ces études, pour la plupart, ont apporté des résultats meilleurs que
ceux des campagnes conventionnelles. Par exemple, une résolution plus haute dans la reconnaissance
des failles fait que les compagnies minières aussi bien que les compagnies pétrolière appliquent ces
observations en dépit des grands coûts et de longs temps d'exécution.
Avec une résolution sismique plus fine, la précision des estimations de vitesses joue un grand rôle.
Les investigations rapportées dans cet article étaient exécutées dans le but de répondre aux questions si
souvent posées:
- Quand est ce que nous avons réellement besoin de la détermination des vitesses 3D?
- Quelles méthodes simples et pratiques peuvent être appliquées pour obtenir la variation
azimutale de vitesses de stack aux positions d'analyse?
La première question se rapporte aux choix des configurations E-R et du dispositif d'étalement.
Très souvent, l'orientation de la grille peut être choisie de sorte que les limites de la zone soient
parallèles à la direction générale du pendage (dip) et de la direction orthogonale au pendage (strike). Si
la composante de pendage du vecteur E-R peut être gardée assez petite pour une configuration E-R
appropriée, la variation azimutale de la vitesse NMO peut être négligée.

Campagnes 3D marines

La dépendance azimutale de la vitesse NMO peut être négligée pour des lignes de tir selon le
pendage ou l'orthogonale au pendage dans les campagnes 3D marines. Si l'angle de dérive est inférieur
à 10° et que la direction orthogonale ne présente pas de changement rapide à l'intérieur de la zone. Cet
énoncé est valable parce qu'au contraire des campagnes 3D sismiques terrestres, tous les vecteurs E-R
d'une cellule "bin" sont généralement orientés dan la même direction, tout le temps ou la méthode
d'observation se réalise avec un seul bateau (avec un seul ou deux streamers au plus).
Alors les procédures d'analyses classiques à travers toute la zone font que les données utilisées à
l'intérieur des bins correspondants soient caractérisées par des angles de dérive presque constants.

Pour des directions orthogonales (strike) changeantes, le champ de vitesses peut être optimisé en
utilisant la formule (1) donnée par LEVIN (1971):

Vnmo = V
(1−sin 2(φ).cos 2(ϕ))1/ 2

ϕ est l'angle entre la direction du streamer et la direction du pendage


φ est l'angle de pendage
V est la vitesse moyenne quadratique (RMS)

Cette conversion est faite pour chaque horizon interprété ensuite les champs de vitesses RMS sont
ajustés et lissés pour permettre des interpolations ultérieures de la vitesse de stack pour tous les
cellules (bins), en utilisant la formule de LEVIN avec le pendage et l'azimut de la position de la
cellule.
Cette procédure est seulement une première approximation car (1) n'est valable seulement que pour
des couches parallèles.
65

Pour la détermination des vitesses; les procédures 2D peuvent être appliquées après rangement des
traces lorsque le calcul final des positions de traces prend du temps; nous pouvons être tentés d'utiliser
seulement les traces traitées 2D pour la détermination des vitesses dans le but d'accélérer le
traitement. Ceci bien sûr peut être fait si le pendage transversal est négligeable, autrement cette
procédure déboucherait sur des estimations de vitesses erronées.
Dans la figure 1, le dernier hydrophone est à 210m en dehors de la ligne de profilage; ce qui est dû
à un angle de dérive de 5° d'un streamer ayant une longueur de 2350m. Le point milieu correspondant
est à 105m en dehors, résultant en une extension latérale des CDP de cette grandeur après le triage des
traces selon les CDPs.
La modélisation des vitesses prouve que pour une couche à 2750m de profondeur (to=1.93s) et un
pendage transversal de 20°, la vitesse de stack déterminée sera de 2940m/s au lieu de sa vraie valeur
qui est de 2800m/s; c'est à dire 5% plus haute. L'utilisation de cette vitesse 2D pour la sommation des
traces rangées en 3D résultera en une addition de qualité médiocre.
La différence des vitesses de sommation est le résultat des mauvais replacements des traces
lointaines plutôt que la dépendance azimutale et elle peut être évitée par la correction de position en
utilisant l'information de pendage.

Campagnes 3D terrestres

Les configurations 3D en terrestre sont généralement du type "swath shooting" dont la direction
longitudinale correspond aux lignes de réception et l'orthogonale à celle des tirs. Ce système en grille
mène à des multiplications dans les directions x et y.

Par conséquent, et au contraire des campagnes marines, les CDPs sont caractérisés par de grandes
variations des directions E-R. Une addition correcte des traces de campagnes terrestres exigera la
connaissance des vitesses d'addition dans toutes les directions contribuant à la collection du CDP. Pour
le cas d'interfaces planes inclinées plus ou moins dans la même direction, des vitesses approximatives
dans toutes les directions azimutales peuvent être dérivées de (1).

Pour des réflexions à pendages arbitraires, la variation azimutale de la vitesse de stack est
elliptique seulement dans l'approximation du premier ordre et ce qui est plus important, l'axe majeur
ne coïncide ni avec la direction du pendage du réflecteur ni avec celle du gradient du temps de
réflexion.
La structure complète de la couverture sédimentaire influencera la forme de l'ellipse et la direction
de l'axe majeur.

La généralisation de (1) s'écrit:

Vnmo i =Vmin.(1−e 2.cos 2(ϕ−ϕi ))1/ 2


2 2
Vmax −Vmin
e =
2
2
Vmax

ϕ :est l'azimut du grand axe principal


ϕi: l'azimut de la ième direction ER

En conséquence, la variation de la vitesse de stack devrait être déterminée de mesures dans les
différentes directions ou pourrait être dérivée avec l'aide d'information additionnelle.

Tracé de rayons 3D
66

Les idées de base de ces méthodes ont été décrites par plusieurs auteurs. Les premiers résultats
pratiques ont été présentés par MEIXNER. L'aide apportée par ces méthodes réside dans la
détermination itérative des vitesses d'intervalles en utilisant des cartes de temps et des vitesses NMO.
En travaillant à partir de la première carte de temps et les vitesses de sommation, palier par palier vers
le bas, les vitesses d'intervalles sont optimisées jusqu'à ce que les horizons correspondants se
positionnent à des profondeurs correctes; ce qui signifie que les courbes NMO mesurées et corrigées
sont identiques.

Le succès des méthodes de tracé de rayons 3D dépend cependant de la sûreté des données d'entrée
de l'horizon incliné et de la forme des interfaces sismiques sus-jacentes. Les applications correctes
exigeraient beaucoup d'effort. Toutefois, pour l'estimation de la variation azimutale de la vitesse de
stack; deux procédures simples et économiques ont été développées en traitement standard 3D.

Analyse par secteur

Une distribution caractéristique en grille régulière, appelée "spider-like" (configuration en


araignée), des vecteurs E-R contribuant aux collections CDPs est considérée sur la figure 2. En
sélectionnant les données à partir de secteurs spécifiés individuellement dans la figure qui couvre une
plage de directions E-R, des pseudo-profils 2D sont ainsi créés. Ce qui signifie que toutes les traces à
l'intérieur d'un tel secteur sont utilisées pour une analyse de vitesses standard indépendamment des
directions individuelles E-R.
Les traces dont les offsets sont inférieurs à une certaine limite dans cet exemple, celles à l'intérieur
de la zone centrale en gris sont considérées communes à tous les secteurs.
L'estimation de vitesse obtenue par les analyses conventionnelles 2D d'un secteur correspond à
l'azimut moyen du secteur qui est calculé par une procédure de pondération des offsets E-R et des
directions.
Ces paires vitesses/azimuts résultantes (au moins trois paires sont exigées) représentent les
données d'entrée pour le programme d'inversion de l'ellipse qui calcule les vitesses de sommation
minimale et maximale et l'orientation de l'axe principal.
Si plus de trois directions peuvent être fournies, une estimation par les moindres carrés
améliorera les résultats; pour le contrôle des déviations de l'erreur, les directions d'entrée sont
calculées et listées.

L'efficacité de l'analyse par secteur va être montrée avec l'aide de deux modèles synthétiques et
d'un modèle réel.

Analyse par secteur pour des modèles de données

Modèle 1

Pour les trois plans inclinés, les temps de réflexion pour un certain nombre de paires E-R sont
déterminés au moyen de tracé de rayons 3D. Les paramètres caractérisant le modèle 1 sont donnés par
la table suivante

Plan profondeur sous pendage To(s) vitesses


CDP Vi
1 305m 25°N .3625 1524
m/s
2 1524m 25°W 1.2855 2440

3 3048m 20°N 2.1231 3660


m/s

Pour les horizons 2 et 3, les figures 3 a & b montrent les données d'entrée aussi bien que les
résultats d'analyse; c'est à dire les profondeurs en codage couleurs, les contours To sont les lignes en
67

noir et les ellipses de vitesses aux localisations de CDP avec les valeurs de Vmax et Vmin. Une
divergence remarquable des 3 vecteurs de pendage, de gradient To et de Vmax peut être perçue.
Il est à noter que le gradient de temps et la direction de Vmax sont localisés sur les côtés opposés
du vecteur de pendage.
Pour l'horizon 2, le pendage apparent est marqué dans le coin droit inférieur qui est la valeur
calculée à partir de Vmin et Vmax en utilisant (1). Ce peudo-pendage est considérablement plus petit
que le pendage réel.
Ce fait autorise la conclusion que pour ce cas, la procédure inverse en dérivant les valeurs de Vmax
et Vmin du pendage vrai de l'horizon résulterait en une trop grande différence entre les deux valeurs.
Trois secteurs de la figure conçue ont été définis pour la sélection de traces. Chacun d'eux avec
une largeur de 18° contenant 24 localisations E-R.
Les données des temps de réflexion pour ces 24 offsets sont convolués avec une ondelette de pas
d'échantillonnage de 2msec., du bruit aléatoire a été additionné. L'offset E-R maximum est de 600m.
Les résultats de l'analyse de vitesse pour ces trois secteurs coïncident bien avec ceux des vrais profils.
Les seules différences sont que les fonctions de cohérence soient plus larges dans la direction du temps
aussi bien que dans la direction des vitesses dérivées des données de secteur que celles des données de
profil.
La variation azimutale de ces vitesses de stack pour les interfaces 1-3 est montrée par la figure 4.
De gauche à droite, l'azimut croît de 0 à 180°, les positions et largeurs de secteurs sont marquées au
dessus de l'axe des azimuts, les directions moyennes de secteur sont indiquées par les lignes en
pointillé. Les deux courbes de vitesses sont dessinées pour chacun des horizons. Comme il peut être
facilement observé, les variations obtenues par le programme d'inversion de l'ellipse à partir des
résultats d'analyse coïncident bien avec les courbes réelles, les déviations maximales de 40m/s sont
négligeables. Le côté droit de cette figure montre les valeurs absolues et les variations relatives de
vitesses.
Pour le 3ième horizon, la variation azimutale est proche des limites de la précision générale des
algorithmes de détermination des vitesses.
Les corrections NMO du modèle avec les valeurs de vitesses moyennes aussi bien avec les
vitesses correspondantes dépendant de pendage ont montré que pour les traces avec un offset
maximum de 600m, seulement le premier horizon superficiel est insuffisamment corrigé, même sans
l'application de vitesses de stack différentes pour des traces avec des directions E-R différentes. Pour
le 2ième horizon à 1,3s qui est déjà incliné à 25°, la vitesse moyenne est suffisante pour l'aligner.

Modèle 2

Un deuxième modèle est construit (fig 5) avec trois réflecteurs courbes inclinés dans différentes
directions. Les pendages verticalement au-dessous du CDP croissent de 13° pour le premier horizon à
36° pour le dernier. Les dessins des contours de To des deux interfaces inférieures sont montrés en
perspective dans les figures 6 et 7. Les ellipses de vitesses, les vecteurs de pendage et les gradients de
temps concernent la position CDP. Les directions des vitesses maxima diffèrent des directions des
horizons respectifs comme c'est le cas dans le modèle 1. Pour le 2ième horizon, le pendage apparent est
à nouveau plus petit que le pendage réel de la couche sous le CDP.
Les traces étaient sélectionnées avec une couverture 24 et un offset maximum de 2400m dans
chacun des secteurs adjacents de 45° de largeur (figure 8). Les triangles marquent les positions de tir,
la zone de traces communes est très petite.
Le secteur 110 suit la direction orthogonale et le secteur 120, la direction de pendage. Ces deux
collections du CDP sont illustrées par la figure 9a pour montrer le caractère des données d'entrée.
Les fonctions de cohérence pour les données de secteur dessinées sur un graphe de dépendance
vitesse/temps (partie inférieure de la figure 10) sont comparées à celles des données de profil
calculées séparément (figure 10 partie supérieure). Les différences principales sont indiquées par des
flèches; les amplitudes de cohérence pour les horizons plus profonds sont évidemment plus petites, les
contours sont comprimés. Néanmoins, les vitesses obtenues coïncident bien avec les résultats
correspondants du profil.
La figure 9b montre la correction NMO quand les vitesses moyennes sont utilisées ; c'est à dire, si
aucune dépendance azimutale n'est considérée du tout. Evidemment, la qualité du stack pour l'horizon
68

2 et 3 serait très pauvre. Dans la figure 9c, les résultats de la correction NMO avec les vitesses
moyennes par secteur sont donnés. Pour le second horizon, la variation (la déviation de la vitesse
moyenne) est de +4,5%, pour le 3ième horizon, elle est de +8%. Ces valeurs sont considérées plus
grandes que la valeur de la précision globale de la procédure de détermination de vitesses.
L'alignement des horizons inférieurs montre des décalages en temps résiduels allant jusqu'à ±
8msec. et ± 5 msec. respectivement pour les traces lointaines. Ils surviennent à cause des variations de
vitesse à l'intérieur des secteurs de 45°. Un correction de courbure optimale peut, bien sûr, être tirée
quand les vitesses corrigées d'azimut sont appliquées individuellement pour chacune des traces (figure
9d). Par conséquent, pour des pendages excédant 25° et des offsets supérieurs à 1000m, la correction
dynamique 3D doit être exécutée sous des considérations propres de vitesses dépendant de l'azimut.
Les limites peuvent être estimées au moyen d'une simple formulation prenant en compte le contenu en
fréquences du signal de la réflexion respective, les composantes de pendage de l'horizon et le pas
d'échantillonnage.

Analyse par secteur sur des données réelles

La méthode de séparation des données CDP en secteurs est appliquée aux données 3D d'une
campagne sismique effectuée en Allemagne. La localisation de l'analyse est marquée sur la section
“ Xline” et sur le section “ Inline” du volume de données. Les interfaces dans le section WE sont
généralement plates tandis que dans la direction SN un pendage de quelques 20° est observé. Les
horizons objectifs s'étendent dans la région inclinée à une plage de temps allant de 1,0 à 1,3s.
L'observation est exécutée avec une couverture CDP de 600%, la grille CDP est espacée de 25m et
l'offset maximum au point d'analyse est de 1300m. Pour améliorer le degré de couverture, pour une
analyse sectorielle sûre, les données des CDPs voisins ont été incorporées comme il est indiqué par la
figure 12; C'est bien sûr faisable seulement dans le cas ou le gradient de temps à l'intérieur d'un groupe
n'excède pas une certaine limite (ou quand elles sont utilisés pour éliminer les différences en To entre
les CDPs adjacents en appliquant une formule NMO modifiée par la "correction de position" donnée
dans la figure (12)
Tnmo =((t0 +tk )2 +( ER )2)1/ 2
V
tk =(x− x0) dt0 +(y − y0) dt0
dx dy

Quatre points de la grille dans la direction orthogonale sont composés en une famille CDP
résultante en une couverture totale de 2400%. 8 traces avec des offsets inférieurs à 500m sont prises
dans la zone des traces communes; les 16 autres sont collectionnées dans deux secteurs de 60°
fournissant ensemble avec les 8 traces intérieures une couverture 24 pour l'analyse par secteur. Les
résultats dans la figure 13 dans l'intervalle d'intérêt (1.0 à 1.3s) montrent des valeurs de vitesses plus
hautes pour les traces dont les directions E-R Nord que pour les traces avec des azimuts Ouest.

Méthode générale d'estimation des vitesses en 3D

La méthode utilise la courbure résiduelle des traces à offsets lointains pour la détermination des
vitesses. Le principe est illustré avec l'aide des données synthétiques du modèle 2. Les collections
entières de traces du "CDP spider" avec des directions d'offsets distribuées arbitrairement, sont
utilisées pour l'analyse.
Des données d'entrée avec 24 traces sont montrées dans la partie gauche de la figure 14, l'offset
maximum est de 2400m. Sur le graphe de cohérence (figure 15) pour l'horizon 1, la vitesse est bien
définie tandis que pour les horizons 2 et 3, les maxima de cohérence à 1,2 et 1,8s se trouvent être
diffus sur une large plage de vitesses. Par exemple, pour le 2ième horizon, les indications de vitesses
varient de quelques ± 300m/s autour de 2400m/s alors que la vitesse moyenne est connue comme étant
de 2243m/s. La correction NMO avec les vitesses moyennes est montrée sur le panneau droit de la
figure 14. Pour ces données de modèle, les sur-corrections et les sous-corrections des traces à offsets
lointains vont jusqu'à 50msec. La procédure générale estime les décalages des temps résiduels pour
69

les traces lointaines par cross-correlation avec la trace de référence à offset court. Ces différences de
temps ∆t sont converties en valeurs de vitesses ∆V dans les directions des offsets des traces
correspondantes comme cela est illustré par la partie droite de la figure 14. Alors les données
vitesse/azimut sont introduites au programme de détermination de l'ellipse. Le regroupement de 9 CDP
voisins en une famille (figure 12) peut facilement améliorer la couverture de par exemple 1200% à
plus de 5000% si les six traces les plus extérieures d'un CDP sont toujours comparées à la trace de
référence correspondante. Alors la correction de position dépendant de pendage peut être négligée.
Une telle sous-estimation est omise pour éviter de fausses estimations de vitesses résultant de
mauvaises corrélations dues à une pauvre qualité des données ou à de trop grands décalages de temps.
En plus, les paires vitesse/azimut et les ellipses résultantes peuvent être éditées sur écran graphique.
En répétant cette procédure, des vitesses de sommation optimales peuvent être déterminées. Avec cette
méthode de corrélation, le nombre de volume de données à contrôler et à interpréter demeure dans la
plage de celui des données 2D; c'est à dire, cette méthode est moins chère que l'analyse par secteur.

Approximations pour l'application des vitesses de stack 3D

En traitement, nous cherchons généralement des approximations qui peuvent nous permettre
d'économiser le temps machine. La figure 16 montre quelques possibilités pour approcher la formule
générale de Levin ou (e2 ) est l'excentricité de l'ellipse de vitesse. Ces quatre approximations s'avèrent
meilleures que la valeur moyenne (0), mais l'approximation linéaire (1) dévie moins de la courbe de
variation que le premier développement de la série de Taylor (2), la simple interpolation avec le terme
en (Cos2) (3) coïncide bien et bien sûr, le développement (4) ne dévie pas du tout de la courbe réelle.

Conclusion

D'un point de vue théorique, les procédures d'estimation de vitesses 3D propres exigent plus
d'effort dans l'établissement de valeurs de NMO sûres pour des stacks 3D optima. Cet effort résulte en
coûts additionnels qui devraient être en rapport avec le degré d'amélioration des données : ce qui veut
dire que le point de vue économique doit toujours primer.
Différentes approches ont été essayées pour résoudre le problème du NMO 3D par beaucoup
d'auteurs. Ils ont tous statué que la solution ne peut être qu'hybride; c'est à dire, en utilisant
l'information sismique et l'information géologique disponibles, si c'est nécessaire, dans une mode
interactif. Nous avons illustré deux procédures pratiques pour l'estimation des données de vitesses
NMO 3D qui peuvent effectivement aider à améliorer les résultats de stack.
Il a été clairement montré que la variation azimutale de la vitesse NMO affecte seulement la
qualité du signal et seulement au delà d'un certain pendage et d'un certain offset E-R. Alors, pour
beaucoup de campagnes 3D classiques, les analyses de vitesses 2D demeurent très suffisantes.
70

Figure 1 : Modèle 3D de vitesses pour déterminer les vitesses d’addition dans la


direction d’observation.

Figure 2 :
Sélection des traces du CDP par secteurs en fonction des directions émetteurs -
récepteurs pour l’application des procédures d’analyse de vitesses classiques
71

Figure 4 : Modèle 1. Variation azimutale des vitesses d’addition par


position sectorielle et les résultats d’analyse

Les composantes de pendage


au centre du modèle sont :
Interface 1 : 12°N - 06°E
Interface 2 : 15°N - 20°E
Interface 3 : 20°N - 30°E

Figure 5 :Modèle 2 Représentation du modèle de sous-sol avec des


interfaces curvilignes.
72

Figure 6 : Représentation de l’horizon 2 sur une carte temps en perspective avec


l’ellipse des vitesses d’addition le gradient temps et le vecteur pendage.

Figure 7 : Représentation de l’horizon 3 sur une carte temps en perspective avec


l’ellipse des vitesses d’addition le gradient temps et le vecteur pendage.
73

Figure 8 : Sélection de traces

Figure 9 : Modèle 2 Collection CDP


a) données d’entrée ;
b) résultats après correction NMO par des fonctions de vitesses moyennes ;
c) résultats après correction NMO par des fonctions de vitesses par secteur ;
d)résultats après correction NMO par des fonctions de vitesses corrigées d’azimut.
74

Figure 10 :Résultats de comparaison d’analyses de vitesses de données synthétiques :


les tirs et les récepteurs sont arrangés en profils en haut et en secteurs sélectionnés

Figure 11 :Sections longitudinale et transversale pour


une analyse de vitesses 3D par secteur.

( )
1/ 2
 2

TNMO = (T0 +Tk ) + SR  ; avec Tk =(x − x0). dT0 + (y − y0). dT0
2

 V  dx dy
Figure 12 :Correction NMO pour une famille de CDP avec
correction de position.
75

vitesses

temps

Figure 13 : Résultats d’analyse de vitesses d’une étude 3D par secteurs


montrant des vitesses plus fortes vers le nord pour les horizons inclinés.

Figure 14 :Détermination de vitesses 3D dérivant de vitesse azimutale à


partir de décalages de temps après correction NMO préliminaire avec des
fonctions de vitesses moyennes.
76

temps
cohérence
vitesses

Figure 15 : Résultats de l’analysetemps


de vitesses pour le modèle 2 avec des
directions E-R distribuées aléatoirement.

m/s

azimut

Figure 16 : Approximations de l’application des vitesses d’adition dépendant de


l’azimut.

( ) VNMO= Vav (0)


( ) VNMO= Vlin (1)
( ) VNMO= Vmin *[1+0.5*e2*cos2(θ−θi)] (2)
( ***** ) VNMO= Vmin +( Vmax -Vmin)*cos2(θ−θi)] (3)
( ) VNMO= Vmin*(4- e2cos2(θ−θi))/ (4- 3*e2*cos2(θ−θi)) (4)
77

SISMIQUE 3D (acquisition et traitement )

Références et bibliographies

Anstey, N., 1986, Whatever happened to ground roll?: The Leading Edge, 5, No.3, 40-45.
Anstey, N., 1987, Discussion of the stack-array concept continues: The Leading Edge, 6, No. 7, 28-32.)

Bading, 1986, How to optimise 3-D seismic land surveys – some rules for areal data gathering : in Coal
geophysics, S.E.G., Tulsa, 211-236

Beasley, C.F., 1993, Quality assurance of spatial sampling for DMO: 63rd Ann. Internat. Mtg., S.E.G.,
Expanded Abstracts, 544-547.

Berkhout, AJ, 1985, Wave field extrapolation techniques in seismic migration: Ed. Gardner, GHF, S.E.G., Tulsa,
414-432.
Berkhout, AJ, 1988, Seismic inversion in terms of prestack migration and multiple elimination : Ed. Lines, LR ,
S.E.G., Tulsa, 404-416.

Biondo, L.B, 2001, 3-D seismic imaging, Stanford University.

Claerbout, J., 1976, Fundamentals of Geophysical Data Processing, McGraw-Hill Book Co., New York
Claerbout, J., 1985 Imaging the earth interior, Stanford University.

Cordsen, A., 1993, Flexi-bin™ 3D seismic acquisition method: Presented at the Ann. Mtg., Can. S.E..G.
Cordsen, A., 1995, How to find the optimum 3D fold: Presented at the Ann. Mtg., Can. S.E.G.

Cotton, W.R., 1992, The acquisition of seismic reflection data in 3 dimensions : HGS private document.

Deregowski, S.M., 1982, Dip moveout and reflection point dispersal: G. P., 30, No. 3, 318-322.

French, W., 1990, 3-D Seismic Imaging : The Leading Edge.

Galbraith, J.M., 1995, Seismic processing issues in the design of 3D surveys: Presented at the Ann. Mtg.,
Can.S.E.G..
Galbraith, J.M., Cordsen, A., 1998, Designing 3-D seismic surveys using OMNI.

Gazdag, J., Wave Equation Migration with Accurate Space Derivatives Method, G.P., 28, N°1, 60-70.

Hale, D., 1984, Dip-moveout by Fourier transform: Geophysics, 49, No. 6, 741-757.

Krey,Th.C.,1987, Attenuation of random noise by 2-D and 3-D CDP Stacking and Kirchhoff Migration: G.P., 35,
135-147.

Labarrere, M., Krief, J.P., Gimonet, B., 1979, Le filtrage et ses applications : Editions Capadues.

Laug, M.,1980, Traitement optique du signal et des images : Cepadues éditions .

Lehmann, HJ, Houba, W., 1990, Practical aspects of the determination of 3-D stacking velocities : G.P., 33, 34-
51.

Levin, F.K.,1971, Apparent velocities from dipping interface reflections: geophysics, 36, 510-516

Lindsey, J. P., 1989, The Fresnel zone and its interpretive significance: The Leading Edge, 8, No. 10, 33-39.

Pritchett, W.C.,, 1991 An example of simultaneous recording where necessary signal separation is easily
achieved : Geophysics, 56, 9-17

Ristow, D.,1980, 3-D downward Extrapolation of Seismic Data in particular by finite-difference methods : PHD
thesis, University of Utrecht , NE
78

Scales, J., Geophysical Inverse Theory, Samizdat Press


Scales, J., Theory of seismic Imaging, Samizdat Press

Schnieder, W., 1985, Integral formulation for migration in 2-D and 3-D : Geophysics, 43, 49-76.

Sheriff, R.E., 1991, Encyclopaedic dictionary of exploration geophysics, third edition: Geophysical References, 1:
S.E.G.

S.E.G., 1983, Special report on SEG standard exchange formats for positional data: Geophysics, 48, No.
4, 488-503.

Stockwell, J., Seismic Unix : Colorado School of Mines

Stolt, R. H., 1985, Migration by Fourier Transform : Geophysics, 43, 23-48

Tatham, R.H., Keeney, J. Massel, W.F., 1981, Spatial sampling and realizable 3-D surveys : 51 annual Mtg.,
S.E.G.

Vermeer, G., 1990, Seismic wavefield sampling: Geophysical References, 4: S.E.G.


Vermeer, G., 1995, 3D symmetric sampling in land data acquisition: Presented at the Ann. Mtg., Can. S.E.G.

Werner,H., Marschall, R and Rietsch, E., 1995, Some aspects of retrocorrelation noise : journal of seismic
exploration, 4, N°2/3, 211-245

Widess, MB, 1986, How thin is a thin bed ? : Ed. Buckannan, DJ ; Jackson, LJ , S.E.G., Tulsa, 105-109.

Yilmaz, O, 1987, Seismic data processing: Investigations in Geophysics, 2: S.E.G.


79

Sismique 3D

Vous aimerez peut-être aussi