Vous êtes sur la page 1sur 34

Évaluation des risques naturels

Une approche probabiliste?


par Jean-Louis FAVRE
Professeur à l’École Centrale Paris (§ 1 à 4)
avec la collaboration de Pierre MOUROUX, Directeur du Service Géologique Régional (§ 3)
et Éric LEROI, Directeur du Centre Thématique Risques (§ 4), Bureau de Recherches Géolo-
giques et Minières
Gérard BRUGNOT
Conseiller Scientifique au Centre d’Étude du Machinisme Agricole, du Génie Rural, des
Eaux et des Forêts (§ 5)
Jean-Michel GRESILLON
Directeur de l’École Nationale Supérieure d’Hydraulique et de Mécanique de Grenoble (§ 6)
et Marielle JAPPIOT
Ingénieur de Recherche au Centre d’Étude du Machinisme Agricole, du Génie Rural, des
Eaux et des Forêts (§ 7)

1. Les différents risques. Leur cadre législatif .................................... C 3 295 - 2


2. L’analyse de risque ................................................................................... — 6
3. Les séismes................................................................................................. — 9
4. Mouvements de terrain ........................................................................... — 17
5. Avalanches ................................................................................................. — 23
6. Pluies - Crues - Inondations ................................................................... — 27
7. Feux de forêt .............................................................................................. — 31
Pour en savoir plus ........................................................................................... Doc. C 3 295

a protection contre les risques anthropiques et naturels est un problème


L mondial. En France, il est du ressort de l’aménagement du territoire, et fait
l’objet de différentes lois et décrets qui seront rappelés avant d’examiner les
parades prévues par la société. Mais pour bien des risques, les scénarios de
dommages aux personnes, aux biens, aux activités et à l’environnement sont
encore mal établis, en particulier parce que les mécanismes d’occurrence des
phénomènes anthropiques et naturels dommageables le sont également. Aussi,
tout en faisant le point sur les différentes méthodes actuelles de protection, nous
examinerons comment la société évalue les risques et quel est le niveau actuel
d’une mise en œuvre probabiliste explicite à travers 5 risques naturels : les séis-
mes, les mouvements de terrains, les avalanches, les inondations et les incen-
dies de forêt.
Pourquoi ces 5 risques? Ils ne sont pas négligeables en France métropolitaine
et font l’objet d’une cartographie et de développements encore récents de la
législation. On ne parlera des risques volcaniques et d’ouragans, plus spécifi-
ques à la France d’outre-mer, que dans la présentation générale.
Nous avons affaire à des événements naturels incertains, délimités dans le
temps et dans l’espace, qui induisent des risques ; l’évaluation de ceux-ci se pré-
sente sous divers aspects :

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 1
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

— les événements ont des lois mal ou très mal connues ; ils se sont manifestés
«peu» de fois. Seuls quelques experts arrivent à se faire une idée sur leur occur-
rence dans tel ou tel cas concret afin de décider du type de mesures. C’est
l’approche experte qui s’exprime en terme de jugement, au cas par cas ;
— les événements ont des lois mal connues mais ils se sont manifestés
«assez» de fois pour que leur fréquence relative ait un sens. Alors les événe-
ments sont étudiés en fonction du temps, et en fonction de leurs conditions de
manifestation. C’est l’approche statistique qui peut déboucher sur une modélisa-
tion probabiliste ;
— enfin, les événements ont des lois «bien» connues et les agents de ces lois
sont observables dans toutes leurs manifestations possibles. On peut donc pro-
babiliser ces agents et ces lois. C’est l’approche déductive analytique, purement
probabiliste.
Des situations mixtes peuvent exister et conduire à des méthodes mixtes pre-
nant une forme purement déterministe avec, par exemple, des coefficients pon-
dérateurs ou de sécurité.
Qu’apporte une formulation probabiliste ?
Elle donne des critères quantitatifs et objectifs de décision dans l’aménage-
ment du territoire : jusqu’où la société va-t-elle se protéger des événements
naturels sachant qu’elle ne dépense en principe que l’espérance de son gain,
c’est-à-dire le coût des dégâts évités (y compris humains, politiques, etc.), mul-
tiplié par leur probabilité d’occurrence ? L’on n’aura jamais la réponse complète
mais l’évaluation probabiliste est l’un des moyens de s’en approcher ; encore
faut-il qu’elle ait un sens !
La société essaiera toujours d’aller plus loin vers la compréhension et la modé-
lisation des événements, mais sans jamais se couper du jugement de l’expert et
de l’observation statistique.

1. Les différents risques. personnes qui furent ainsi victimes en Afrique Australe sur une
superficie de 6 millions de km2 : «la famine est le résultat d’une suc-
Leur cadre législatif cession de processus et d’événements qui entraînent la diminution
des quantités de vivres disponibles ou accessibles, ainsi qu’un
accroissement important et général de la morbidité et de la
mortalité», d’après Downing (1990) [2]. C’est un phénomène très
On distingue deux types de risques : les risques naturels et les ris-
vieux et très répandu : simplement en France, pays de climat tem-
ques technologiques. Dans notre aperçu mondial, nous parlerons
péré, il y a eu 90 famines générales du Xe au XVIIIe siècle et des cen-
uniquement des risques naturels. Pour la France, nous donnerons
taines de locales. La famine frappe de façon sélective des catégories
leur cadre législatif ; nous signalerons aussi les risques technologi-
de population plus vulnérables comme les enfants, les femmes et
ques.
les vieillards, et souvent de façon «invisible». Il faut la distinguer de
la faim chronique qui touche un tiers de la population mondiale.

1.1 Aperçu mondial


1.1.2 Les catastrophes naturelles

1.1.1 Les deux calamités internationales ■ Caractéristiques


Chaque année, les catastrophes naturelles [2] font des centaines
Dans son éditorial de novembre-décembre 1992, le DHA-News de milliers de victimes, des milliards de dollars de dégâts à tel point
des Nations Unies [1] écrivait : «...L’homme n’a jamais été aussi fort que les Nations Unies ont décrété la décennie 90 «décennie interna-
et aussi vulnérable. Alors qu’il n’a jamais exercé autant de pouvoir tionale de la prévention des catastrophes naturelles».
sur sa planète et sa destinée, il n’a jamais été aussi proche de son Les populations des pays à faible revenu sont les plus frappées,
autodestruction ainsi que de celle de son environnement. L’escalade surtout les enfants, les femmes, les vieillards, les groupes pauvres,
de la violence est une caractéristique de notre temps. Plus de minoritaires, etc. L’OMS (Organisation Mondiale de la Santé) estime
150 conflits armés régionaux ont éclaté depuis la fin de la Seconde que le nombre des tués, lors des catastrophes, est de trois à quatre
Guerre mondiale, faisant plus de 20 millions de victimes... En 1990, fois plus élevé dans les pays en développement que dans les pays
on estimait que le monde n’avait pas connu plus de 26 jours de paix développés ; la différence est encore plus frappante concernant le
totale depuis 1945... dont pas un seul en 1992... Les victimes sont de nombre de sinistrés : ils sont 40 fois plus nombreux. Des 109 pires
plus en plus des civils... Aujourd’hui, leur nombre dépasse bien sou- catastrophes naturelles qui se sont produites de 1960 à 1987, réper-
vent 75 %». toriées et étudiées par Bers (1989) [3], 41 ont touché des pays en
Par ailleurs, la sécheresse, suivie de famine, touche des quantités développement. On a compté 11 441 décès dans les pays dévelop-
très importantes de population. En 1992, ce furent 18 millions de pés et 758 850 dans les pays en développement.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 2 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Tableau 1 – Pertes économiques causées par les séismes (1)


PNB de l’année
Pertes Pertes pourcentage
Pays Tremblement de terre Année considérée
(milliards de $) du PNB
(milliards de $)
Nicaragua Managua 1972 5,0 2,0 40,0
Guatémala Guatemala City 1976 6,1 1,1 18,0
Chine Tangshan 1976 400,0 6,0 1,5
Roumanie Bucarest 1977 26,7 0,8 3,0
Yougoslavie Montenégro 1979 22,0 2,2 10,0
Italie Campanie 1980 661,8 45,0 6,8
Mexique Mexico City 1985 166,7 5,0 3,0
Grèce Kalamata 1986 40,0 0,8 2,0
El Salvador San Salvador 1986 4,8 1,5 31,0
URSS Arménie 1988 566,7 17,0 3,0
États-Unis Loma Prieta 1989 4705,8 8,0 0,2
Iran Manjil 1990 100,0 7,2 7,2
Philippines Luzon 1990 55,1 1,5 2,7
(1) Source : Martin Centre Earthquake Database - in Coburn and Spence ; Earthquake Protection, 1992.

Enfin, autre caractéristique, le nombre des victimes est en aug- ■ Catastrophes historiques
mentation, non pas à cause d’une occurrence ou d’une intensité Le tableau 2 indique celles qui ont causé le plus de victimes
plus grandes des catastrophes, mais à cause d’une augmentation depuis le XVIe siècle. Il existe une carte universelle des risques
démographique et du phénomène de concentration urbaine, con- naturels [4], qui signale les séismes et tsunamis, les volcans, les
duisant les populations à occuper de plus en plus des zones à ris- cyclones tropicaux, tempêtes d’hiver et tornades et enfin, la ban-
ques. quise et icebergs.
■ Principales catastrophes
De 1900 à 1988, les estimations concernant les principales catas- Tableau 2 – Catastrophes historiques
trophes qui se sont produites dans le monde entier (non compris les
États-Unis), font état de [3] : Catastrophe Année Morts
— inondations : 340 millions de sinistrés, 36 millions de sans- Tremblement de terre de Shanxi ( Chine) 1556 830 000
abri ; pour l’année 1991: 7 500 morts ;
— tremblements de terre : 26 millions de sinistrés. Tremblement de terre de Calcutta (Inde) 1737 300 000
Une évolution continue des dégâts est à remarquer tout au long Tremblement de terre de Messine (Italie) 1908 120 000
du siècle : ainsi, pour plus de 200 séismes en moyenne par décade, Tremblement de terre de Kan-su (Chine) 1920 180 000
de magnitude supérieure à 6, dans la première décade, de 1900 à Tremblement de terre de Kuranto (Japon) 1923 143 000
1910, 35 % d’entre eux avaient causé des morts dont 10 % plus de
1 000 morts, alors que, lors de la décade passée, de 1980 à 1990, Cyclone au Bangladesh 1970 400 000
60 % ont causé des morts dont 28 % plus de 1 000. Tremblement de terre de Tangshan (Chine) 1976 240 000 (1)
Les séismes causent des pertes économiques très importantes Cyclone au Bangladesh 1991 133 000
pouvant atteindre le tiers du produit national brut (PNB) pour des (1) Chiffres officiels. Autre évaluation : entre 650000 et 800000 (information
pays en développement (tableau 1). réunie par le DAH).
On compte 10 éruptions volcaniques environ par siècle, entraî-
nant plus de 1 000 morts. Celles-ci sont en augmentation :
— typhons, cyclones, ouragans : 30 millions de sinistrés, Elle fait l’inventaire depuis l’an 1000, des catastrophes ayant pro-
10 millions de sans-abri. voqué plus de 1 000 morts ou à dégâts considérables, par pays et
Pour les ouragans atlantiques, les plus meurtriers depuis 1954 ont par année pour les séismes, les tempêtes, les inondations et autres
été : catastrophes (volcans, mouvements de terrain, avalanches, grêle,
froid, sécheresse et incendies de forêt).
— Flora 1963, Cuba et Haïti : 6 000 morts ;
— Fifi 1974, Honduras : 2 000 morts ;
— David 1979, Dominique et Floride : 1 200 morts ;
et les plus dévastateurs ont été :
1.2 Quelques définitions
— Camille 1969, Mississippi et Louisiane : 3,8 milliards de
$; Le risque naturel n’est pas à confondre avec le phénomène natu-
— Agnès 1972, de Floride à New York : 4,7 milliards de $ ; rel. L’UNDRO (United Nations Disaster Refief Organisation) a défini
— Andrew 1992, Bahamas et États-Unis : 20 milliards de $. ce phénomène [5].

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 3
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

■ Phénomène naturel, aléa ■ Barrages


Outre les phénomènes naturels, on parle de phénomènes anthro- Il y a 400 grands barrages en France (hauteur supérieure à 20 m
piques qui conduisent aux risques technologiques dont on fera, plus ou retenue supérieure à 15 millions de m3). Depuis 1966, l’examen
loin, un inventaire rapide dans le cas de la France. Les incendies de des projets est fait par un Comité Technique Permanent des Barra-
forêt, bien que très souvent provoqués par l’homme, sont considé- ges et les règles d’inspection et de surveillance ont été mises en
rés comme des risques naturels. place en 1970. Rappelons Malpasset, 1959, 421 morts, Vaïont (Italie),
1963, 1 925 morts et Tereso (Italie), 1985, 200 morts.
Parmi les phénomènes naturels, on distingue deux grandes
catégories : les phénomènes délocalisés dont la probabilité d’occur- ■ Tunnels
rence est indépendante du territoire considéré — ce sont essentiel-
Ils font l’objet de mesures cas par cas, par exemple le récent acci-
lement les phénomènes atmosphériques — et les phénomènes
dent dans le tunnel sous la Manche.
localisés où celle-ci en dépend.
Si pour chaque intensité donnée du phénomène, on peut établir ■ Canalisations
une statistique fiable de ses occurrences, on pourra alors définir et Elles concernent le transport de matières dangereuses. Une régle-
calculer la probabilité d’occurrence du phénomène à un niveau mentation spécifique existe suivant leur nature : hydrocarbures, gaz
donné. On l’appelle l’aléa. ou produits chimiques. Indiquons un accident exceptionnel d’explo-
sion d’un gazoduc en Oural en 1989 au moment où se croisaient
■ Vulnérabilité, risque 2 trains : 645 morts et disparus.
La notion de risque, complémentaire de la précédente, suppose
l’existence de biens, d’activités ou d’un environnement, dommagea- ■ Centrales nucléaires
bles que l’on appelle des éléments à risque et qui ont un coût. Le La France est le pays le plus «nucléarisé» avec 75 % de sa produc-
degré des dommages qu’ils subissent, pour une intensité donnée du tion d’électricité par énergie nucléaire. Les centrales sont l’objet de
phénomène, est appelé la vulnérabilité. L’espérance du degré des mesures de sécurité et de surveillance exceptionnelles par le Ser-
dommages est appelé risque spécifique ; enfin, le risque est l’espé- vice central de sûreté des installations nucléaires, l’Institut de pro-
rance du coût total des dommages (pertes de vies humaines, sinis- tection et de sûreté nucléaire et le Groupe permanent chargé de la
trés, dommages aux biens, aux activités et à l’environnement). Il sûreté des réacteurs. On se souviendra des accidents de Three Mile
apparaît comme étant la conjonction : Island en 1979 et de Tchernobyl en 1986.
Risque = aléa × vulnérabilité × coût = risque spécifique × coût.
On parle aussi de catastrophe naturelle pour un phénomène dont 1.3.2 Risques naturels à paysages marqués
une forte intensité conduit à des dommages importants. C’est un ris-
que majeur. Nous utiliserons ici et dans le paragraphe suivant la classification
et la terminologie propres aux géographes qui sont très partie pre-
La loi du 13 juillet 1982, dont nous parlerons par la suite, stipule:
nante de l’étude des risques [7].
«Sont considérés comme effets des catastrophes naturelles, les
dommages matériels directs ayant eu pour cause déterminante ■ Risques localisés, rapides, brutaux ou lents
l’intensité anormale d’un agent naturel, lorsque les mesures habi- ● Les mouvements de terrain concernent 3 500 communes en
tuelles à prendre pour prévenir ces dommages n’ont pu empêcher France : 60 d’entre eux sont classés catastrophes naturelles. Ils sont
leur survenance ou n’ont pu être prises». dus à des affaissements (anciennes mines et carrières, principale-
ment dans le nord) et à des facteurs géomorphologiques dans les
vallées alpines, les versants de bassins sédimentaires à séries argi-
leuses, les falaises vives du littoral, de plus en plus urbanisées.
1.3 Risques en France ● Les avalanches concernent 3 700 communes en France, tout
d’abord dans les Alpes Centrales, puis les Alpes Septentrionales et
les Pyrénées, accessoirement dans le Jura, les Vosges et le Massif
1.3.1 Risques technologiques Central. Elles provoquent 25 à 50 morts par an, principalement des
skieurs, peuvent occasionner des destructions matérielles
Nous ne donnons ici que quelques éléments succincts ; on trou- spectaculaires ; elles sont une menace sur tous les équipements
vera plus d’information auprès de la Délégation aux risques montagnards.
majeurs [6]. ● Les séismes ont été le domaine moteur de la gestion des ris-
ques en France où 5 900 communes sont concernées. La France a
■ Établissements industriels type Seveso fait l’objet d’un zonage en 1985. Sept départements métropolitains
Ils concernent les industries de la chimie, du pétrole, des gaz sont de sismicité moyenne (fréquence des intensités supérieures à
liquéfiés. Ils sont 310 en France, dont 38 en Seine-Maritime, 31 dans VIII : 250 ans), la Guadeloupe et la Martinique étant de sismicité
les Bouches-du-Rhône et 21 dans le Nord ; ils font l’objet de la direc- forte. Le séisme de Lambesc a fait 40 morts en 1909 ; s’il survenait
tive Seveso. Les catastrophes marquantes dans le Monde ont été maintenant, il en ferait 1 000 avec 5 000 blessés et 5 milliards de
Feyzin en 1966, 18 morts, 84 blessés, Seveso en 1976, dégâts.
750 évacuations, 42 avortements préventifs, 1 800 ha contaminés, ● Les incendies de forêt : ils sont devenus un traumatisme natio-
Bhospal en Inde en 1984, 2 500 morts, des milliers de blessés, nal, marquant durablement les paysages. Les causes et responsabi-
Mexico en 1984, 2 000 morts, 7 000 blessés, 200 000 évacuations, et lités sont complexes même si les données permanentes de climat et
Nantes 1987, 40 000 évacuations. de météorologie dynamique sont claires ; les causes anthropiques
dans le déclenchement le sont aussi. Mais dans l’ensemble, les
■ Transport de matières dangereuses
milieux se reconstituent à terme : la forêt progresse naturellement
Il concerne le transport par des moyens mobiles (TMD). Pour ces plus vite qu’elle ne régresse par le feu.
derniers, 160 millions de tonnes pour 20 milliards de t.km, la route
en assurant 52 %, le rail 42 % et les voies navigables 6 %. Ils font ■ Risques généralisés
l’objet de réglementations intérieure et internationale. Parmi les ● Les inondations concernent 7 500 communes et 2 millions de
accidents marquants, citons, pour la route, Los Alfaques 1978, personnes. De 1982 à 1987, 800 dossiers «inondations» ont été
216 morts, pour le rail, Canada 1979, 250 000 évacuations, pour la déposés, pour un total de 950 concernant les catastrophes natu-
navigation, Texas City, 1947, 700 morts. relles. Le coût moyen du dossier est de 3 millions contre 1 pour les

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 4 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

avalanches et 0,8 pour les mouvements de terrain. Si l’on a un 1.4.1 Bases de la législation
meilleur contrôle du réseau hydrographique, par contre certaines
zones sont à sensibilité croissante (agriculture industrielle fermant ■ Historique
les sols, remembrement) et les sites à catastrophe augmentent
[urbanisation sauvage particulièrement en PACA (Provence-Alpes- Si le contrôle des constructions est ancien, la prise en compte des
Côte d’Azur)]. 52 villes sont classées vulnérables, dont quasiment risques naturels est récente dans le droit positif. Elle apparaît dans
toutes celles du littoral méditerranéen. la constitution de 1946 «La Nation proclame la solidarité et l’égalité
de tous les Français devant les charges qui résultent des calamités
■ Risques ponctuels, risques occasionnels nationales». Les articles R111.2 et R111.3 du Code de l’Urbanisme
datent de 1955. En 1967, sont créées dans les POS (plans d’occupa-
Ce sont les risques non localisés à impact précis, imprévisibles tion des sols) les zones protégées en raison des risques. Les
comme les tempêtes, tornades et orages de grêle, la neige intense et années 60 et 70 voient arriver les instruments d’étude comme les
les vagues de gel, la sécheresse et les vagues de chaleur. Il y a par cartes ZERMOS (zones exposées au risque de mouvement du sol et
exemple 2 millions d’impacts de foudre par an, provoquant du sous-sol), PZEA (plan des zones exposées aux avalanches). Le
15 000 incendies, 20 à 40 morts et tuant 20 000 animaux. 13 juillet 1982 est adoptée la loi sur l’indemnisation des victimes et
la prévention des risques. Les projets d’enjeux importants sont
■ Complexes de risques réglementés avec les PIG (plans d’intérêts généraux) en 1985. C’est
aussi l’année du débat «Montagne». Le 22 juillet 1987 une touche
On peut appeler ainsi les interférences de risques naturels conju- finale est donnée en introduisant la notion de risque, à égalité avec
gués éventuellement avec des risques technologiques. L’exemple le les autres préoccupations d’aménagement du territoire, dans le
plus marquant en France est celui du mouvement de terrain des Code de l’Urbanisme. Une nouvelle législation voit le jour avec la loi
«ruines de Séchilienne» qui, outre son effet ponctuel, pourrait con- du 2 février 1995.
duire à une lame d’eau déferlant sur le complexe chimique de Pont-
de-Claix à l’entrée de Grenoble. ■ La prévention
Pour les risques majeurs délocalisés, liés aux agents atmosphéri-
ques, sont édictées des règles de construction indépendantes du
1.3.3 Risques diffus à environnement menacé droit des sols. Les risques majeurs localisés sont liés indirectement
aux implantations et à l’utilisation du sol et sont à prendre en
compte dans les documents de planification. C’est le cas pour les
Les géographes désignent ainsi les risques liés à un processus 5 risques que nous présentons dans cet article.
discontinu dans le temps, diffus dans l’espace mais dont la répéti-
tion conduit à des effets puissants. Ils ont pour cause les modifica- ■ Les moyens de prise en compte
tions du fonctionnement des géosystèmes, soit par suite de facteurs
Il y a trois types de documents de prise en compte [6] :
naturels, soit par suite d’erreurs d’exploitation de ces milieux. Il
s’agit par exemple de l’érosion des sols, celle des terres arables — les documents de planification à vocation générale d’urba-
devenant une menace majeure touchant la plupart des zones de nisme :
grande culture industrielle, mais aussi de la dégradation forestière • le schéma directeur et le schéma de secteur ;
pouvant venir d’agents chimiques, des incendies et des guerres qui • le plan d’occupation des sols (POS) ;
laissent encore leur trace à la périphérie du bassin parisien, et enfin • le plan d’aménagement de zone (PAZ), la «carte communale» ;
de la dégradation des composantes naturelles des systèmes urbains — les documents de prévention à finalité spécifique «risque» tels
(températures, vents, pluviométrie, pollution). que l’article R 111-3 du Code de l’urbanisme établissant un périmè-
tre de risques, le plan d’exposition aux risques naturels prévisibles
(PER) évoqué brièvement par la suite, le plan de surface submersi-
1.3.4 France tropicale ble (PSS). Ils sont remplacés par les plans de prévention des risques
naturels prévisibles (PPR) mais leur applicabilité est maintenue ;
— les documents informatifs sans valeur juridique propre,
Les départements de la Guadeloupe et de la Martinique sont très comme le plan des zones exposées aux avalanches (PZEA), les
exposés au risque volcanique, au risque sismique et au risque cyclo- zones exposées au risque de mouvement du sol et du sous-sol (ZER-
nique. La Réunion est très exposée au premier et au troisième. Ces MOS), la carte de zonage sismique, la carte des carrières.
trois îles connaissent, en plus, les risques d’inondations, de raz de
marée, d’érosion généralisée et de mouvements de terrain. Le ris- ■ Loi du 13 juillet 1982
que cyclonique est le risque dominant dans les Territoires du Pacifi- Cette loi avait un caractère tout à fait novateur car elle reconnais-
que. Les petites îles de l’océan Indien, Saint Pierre et Miquelon et la sait le droit à indemnisation pour les victimes des catastrophes
Guyane ne présentent pas de hauts risques. naturelles (article 1) ; elle créait les plans d’exposition aux risques
naturels prévisibles (article 5), les PER, zones et techniques de pré-
vention à mettre en œuvre. Un décret d’application du 3 mai 1984
précisait le devoir d’affichage de l’État (délimitation des zones
1.4 Cadre législatif français exposées : rouge, inconstructible ; bleue, constructible avec des
mesures de prévention et effet rétroactif sur le bâti existant ; blan-
che, constructible sans mesure spéciale). Les PER étaient prescrits
Ainsi, 10 500 communes sont touchées en France métropolitaine par arrêté préfectoral, après enquête publique, les communes con-
par les risques sismiques, mouvements de terrain, avalanches et cernées étant consultées à chaque étape de l’élaboration.
inondations. Pour s’en prémunir la société met en place deux types
de mesures : ■ Loi du 22 juillet 1987
Enfin la loi du 22 juillet 1987 venait compléter ce cadre législatif
— des mesures palliatives, basées sur l’alerte avant l’événement, par l’«organisation de la sécurité civile» en instituant les plans
la protection au cours de l’événement et les secours après Orsec et les plans d’urgence. Elle précisait par ailleurs les mesures
l’événement ; de «protection de la forêt contre l’incendie et prévention des risques
— des mesures de prévention qui sont la prise en compte du ris- majeurs» ; en particulier, le droit à l’information des citoyens sur les
que dans la planification territoriale. C’est le cadre législatif que risques majeurs auxquels ils peuvent être soumis, était clairement
nous présentons ici. affirmé (article 21).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 5
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

1.4.2 La nouvelle législation [8] — pour résoudre des problèmes concrets, il faut pouvoir donner
«à la limite», à chacun de ces poids, le sens d’une fréquence relative
La mise en place des PER s’est avérée lourde et les moyens dont ou d’une proportion, à savoir le nombre de fois k où l’événement
disposait l’État, en matière de prévention, insuffisants. Aussi, la loi choisi s’est manifesté par rapport au nombre de fois n où l’on a
du 2 février 1995 crée une procédure unique, les plans de prévention observé les événements.
des risques naturels prévisibles (PPR) remplaçant les R 111-3, PER,
PSS et les plans de zones sensibles aux incendies de forêt (PZSIF) ; Les événements qui nous préoccupent satisfont en principe à ces
elle donne aussi à l’État la possibilité d’exproprier les biens exposés exigences, mais en pratique on peut avoir des problèmes de défini-
à certains risques menaçant gravement les vies humaines. tion des événements et de passage à la limite des fréquences
relatives :
■ Principes du droit à l’environnement
Les principes du droit à l’environnement sont précisés, en particu- k /n → p quand n → ∞
lier le principe de précaution (dans le doute, ne t’abstiens pas de
prévenir le risque), le principe d’action préventive et de correction
(tu le préviens à la source et au meilleur prix), le principe de respon-
sabilité (qui pollue ou menace l’environnement doit payer) et le prin-
cipe de participation (tous doivent être informés des risques).
2.2 Analyse des systèmes, des ouvrages
et des risques naturels
■ Prévention des risques naturels
L’expropriation pour cause d’utilité publique est prononcée si la
protection est plus chère que l’expropriation. 2.2.1 Méthode commune
Les PPR délimitent les zones exposées directement ou indirecte-
ment aux risques avec les mesures éventuellement obligatoires de
prévention, protection et sauvegarde à prendre par les particuliers Il s’agit de l’analyse d’événements, dommageables aux person-
et les collectivités et les mesures d’aménagement, utilisation ou nes et aux biens, et dus à des causes multiples et incertaines. Une
exploitation relatives à l’existant. C’est essentiellement dans la pro- même méthodologie doit pouvoir être utilisée ; c’est celle des arbres
cédure de mise en œuvre et dans la conduite des études que les PPR de causes/conséquences que nous illustrerons par la suite (§ 2.3).
innovent en s’adaptant toujours plus au terrain (la loi est une «boîte
à outil»), et en décidant, même sans toute l’information (le mieux Pour un réacteur de centrale nucléaire, il est possible d’examiner
est l’ennemi du bien). l’ensemble des causes de dysfonctionnement mécanique d’organes
Un chapitre traite de l’entretien régulier des cours d’eau modifiant du réacteur (vannes, commandes, pompes, etc.), l’ensemble des
le livre 1 du code rural en précisant les contraintes et modalités du conséquences d’une rupture de canalisation de circuit primaire ou
curage, entretien, élargissement et redressement. secondaire et les différents scénarios plus ou moins graves.

■ Décret d’application du 5 octobre 1995 Pour un grand barrage, on peut examiner l’ensemble des actions
Il définit les modalités des PPR : un arrêté préfectoral définit le trop fortes et des résistances trop faibles conduisant à un non fonc-
périmètre et la nature des risques. Le dossier de PPR comprend une tionnement de l’ouvrage ou à sa détérioration plus ou moins impor-
note de présentation, un ou plusieurs documents graphiques et un tante (états limites de service et états limites ultimes), l’ensemble
règlement fixant interdiction et prescription, prévention, protection des conséquences consécutives à ces états limites et les différents
et sauvegarde. scénarios plus ou moins graves.

Pour un risque naturel, il est possible de chercher à estimer son


occurrence à travers celle de ses causes (comme pour un état
2. L’analyse de risque limite), la vulnérabilité du site suivant l’intensité du phénomène
(comme les dégâts à un ouvrage et par l’ouvrage) et les différents
scénarios plus ou moins graves.

2.1 Utilisation de la théorie On a affaire à des vocabulaires différents mais à une démarche et
à des concepts semblables. On s’en tiendra aux principes de la
des probabilités méthode mais on cherchera à l’adapter et à l’enrichir. On n’oubliera
jamais la finalité des études : les décisions en aménagement du ter-
L’analyse de risque est implicitement probabiliste puisqu’elle ritoire qui conduisent à l’utilité maximale.
repose sur une espérance de gain (cf. § 1.2), mais elle peut s’expri-
mer sous forme de jugements, de coefficients déterministes. Quel-
les sont les bases simples (nous n’avons pas ici de présentations 2.2.2 Apport des dénombrements statistiques
théoriques) d’une approche probabiliste explicite ?
On traite d’événements incertains délimités dans le temps et dans
l’espace : Un exemple nous en est donné sur le tableau 3 par Post et Londe
pour les grands barrages [9]. Ces dénombrements conduisent à dif-
— il faut pouvoir les inventorier, quitte à faire des
regroupements ; il ne se passe «rien» est un événement. On doit férencier les ouvrages tout comme on introduit une typologie pour
pouvoir construire un espace probabilisable ; certains phénomènes naturels, les mouvements de terrain par
— il faut pouvoir attacher un poids p entre 0 et 1 à chaque événe- exemple ; ils conduisent à identifier les différents grands mécanis-
ment, tel que l’événement certain pèse 1, ou tel que, si l’on peut défi- mes ou états critiques qui seraient, pour un risque naturel, les diffé-
nir des événements élémentaires tels qu’on ait toujours la rentes situations pouvant être dommageables aux personnes et aux
manifestation de l’un d’eux et rien que de l’un d’eux, la somme des biens, et pour chaque mécanisme, les différents types de causes.
poids de ces événements soit égale à 1. On crée ainsi une distribu- L’échantillonnage est rarement suffisant et homogène pour en tirer
tion de probabilité et un espace probabilisé ; des probabilités de ruine.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 6 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Tableau 3 – Dénombrements statistiques (d’après [9])

Causes Voûte Contreforts Poids Terres Enrochements Divers


Total
(insuffisances) R (1) A (1) R A R A R A R A R A
Stabilité
Renversement 4 4
Glissement 1 1 1 3 3 3 1 13
Résistance 1 3 1 1 2 3 11 35 2 59
Déformation 1 1 7 18 4 31
Durabilité
Fuites 2 1 1 2 22 28
Action interne de l’eau (renard) 2 1 3 2 1 1 15 20 2 1 48
Érosion de surface 1 4 10 1 16
Actions climatique et chimiques 2 1 3 4 4 1 1 16
Drainage 2 2
Fonction
Effet de l’eau 1 3 1 2 1 12 3 3 2 28
Autres 2 8 1 1 12
Autres conditions 1 1 1 4 6 1 14
(tremblements de terre, etc.)
6 13 7 8 10 18 57 130 7 11 3
Total
19 15 28 187 18 3 270
(1) R : rupture A : accident

2.3 Arbres de causes-conséquences.


Optimisation des décisions Causes primaires

11 12 2 31 32 33
La figure 1 présente un tel arbre utilisé pour analyser le risque lié
à un barrage dans les Alpes [10]. On remarquera qu’ici chaque évé-
Analyse des causes

nement est dichotomique, 1 ou 0 ; il se passe avec une probabilité p ET OU ET OU


ou ne se passe pas avec une probabilité 1− p : l’événement n’est pas
continu comme une résistance mécanique par exemple.
Événements
1 2 3
initiateurs

2.3.1 État critique et causes


e
ET OU e nc
qu
On cherche à avoir une famille complète des états critiques (on en Sé
a toujours un, «rien compris, et rien qu’un» : ce sont des événe-
ments incompatibles). Ainsi, la probabilité totale est la somme des Condition critique
probabilités. Ces états critiques sont dus à des causes primaires et
événements initiateurs. Il faut la conjonction des deux pour produire
Analyse des conséquences

l’état critique et si ces derniers sont indépendants, la probabilité de Accident ?


l’état critique est le produit des probabilités de ceux-ci.
Non Oui

2.3.2 Conséquences et mesures palliatives Dégats dus aux Échec des


événements non désirés ? mesures palliatives ?
Il est en général facile d’avoir une famille complète des consé- Non Oui Non Oui
quences pour chaque état critique : on considère que l’on ne peut
avoir qu’un scénario à la fois : c’est le cas si chaque scénario est P1 P2 P3 P4
défini par un intervalle de gravité. Ainsi on peut considérer, outre
des dégâts minimes ou nuls, un état limite de service, un état limite C1 C2 C3 C4
ultime, sans conséquences au voisinage et un état limite ultime,
avec conséquences au voisinage (non fonctionnement des mesures Conséquences
palliatives d’alerte et évacuation).
Ainsi, les scénarios peuvent être représentés par la variable aléa- Figure 1 – Principe de l’analyse des causes-conséquences
toire «coût des conséquences» : C1 , C2 , C3 , C4 . (d’après [10])

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 7
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

2.3.3 Risque et décision a) prévision des actions qui s’exerceront ;


b) dépassement des prévisions et combinaisons défavorables
Le risque Rc , pour un état critique donné c, se définit alors comme d’actions.
l’espérance des coûts, soit ici la somme des produits de la probabi- 2. Incertitudes sur les valeurs des résistances des matériaux :
lité p i de chaque scénario, par son coût Ci .
a) dispersion des mesures effectuées sur échantillons ;
Le risque total RT est la somme des risques de chaque état
critique : b) différence des mesures avec la résistance du matériau en place.
3. Incertitudes sur les valeurs de sollicitations :
Rc = Σ p i C i
— imperfection des modèles de calcul et de l’exécution.
RT = Σ Rc Les incertitudes 1a et 2a sont prises en compte avec des valeurs
dites caractéristiques qui sont, pour les actions, la valeur qu’on a
Le choix des paramètres a d’un projet, consiste alors à minimiser 5 % de chance de dépasser, au vu de son problème particulier et
le coût total pour un niveau de service rendu par l’ouvrage ; ce coût pour les résistances 95 %. Les autres incertitudes sont prises en
total apparaît comme la somme du coût initial C0 , des mesures pal- compte par des coefficients dits pondérateurs qui ont été calés
liatives Mp , et du risque total RT . Il ne s’agit donc pas d’une maximi- grâce à de très nombreuses données statistiques et à des calculs
sation de la sécurité mais d’une optimisation économique. probabilistes de niveau 2 et 3 afin de trouver des probabilités de
CT = C0 + Mp + R T ruine et des risques acceptables par la société.
Le risque sismique fait l’objet de règles aux états limites.
avec a tel que : δCT /δa = 0.
C’est la forme que doivent prendre, dans la réglementation, les
analyses de niveaux supérieurs.
2.3.4 Arbre pour les risques naturels
2.4.3 Méthode probabiliste simplifiée : niveau 2
On peut chercher à appliquer cette démarche et ces concepts aux
risques naturels : un état critique sera une situation pouvant con-
duire à des dégâts sur un site donné, l’arbre des causes sera défini Le problème peut se mettre sous la forme d’une fonction de per-
par la susceptibilité du site et les événements déclenchants, l’arbre formance g (X) telle que g (X) < 0 définisse la ruine (par exemple :
des conséquences sera composé des différents scénarios de catas- moment résistant − moment agissant pour un glissement de terrain
trophes, la loi de coût sera la vulnérabilité du site multipliée par circulaire dans un talus). X sont les paramètres aléatoires du pro-
l’ensemble de ses valeurs (personnes, biens, activités et environne- blème ou variables de base. Le domaine de ruine D est l’ensemble
ment), les mesures palliatives seront les mesures de prévention et des valeurs des X telles que la fonction de performance soit
de protection et les paramètres de projet seront les décisions d’amé- négative :
nagement. D = { X  g (X) < 0}
On suppose qu’on peut connaître la densité de probabilité con-
jointe de X : f x (x).
2.4 Mesures de la sécurité Alors la probabilité de ruine s’écrit :

Nous reprendrons ici les niveaux de sécurité proposés par Ferry


Borges [11].
Pf = Prob { X ∈ D } =
∫ f (x) dx
D
x

ou encore :
2.4.1 Coefficients de sécurité 0

En géotechnique, on utilise toujours des coefficients globaux qui


Pf = Prob { g ( X ) < 0 } =

Ð∞
f g ( g ) dg

sont le rapport entre ce qui est favorable (les résistances) et ce qui


est défavorable (les sollicitations) : pour se protéger des incertitudes Toute la difficulté est de connaître la densité de probabilité con-
du problème dont on a bien conscience mais que l’on ne chiffre pas, jointe de X : fx (x) et, soit de l’intégrer dans le domaine D, soit de cal-
on prend un rapport supérieur à 1. Mais ce rapport peut varier beau- culer la densité de probabilité fg (g) de la fonction de performance à
coup d’un problème à l’autre, suivant que sa modélisation est plus partir d’elle : cette difficulté conduit aux simplifications du niveau 2 :
ou moins approchée et en fonction des conditions particulières du — on ne cherche à connaître que les deux premiers moments
problème : prise en compte de charges extrêmes, de résistances (moyenne, dispersion et corrélation) des variables aléatoires :
minimales, importance de la campagne d’investigation. Les coeffi- — on fait une approximation du premier ordre de g (X) au voisi-
cients de sécurité sont donnés sous forme d’une fourchette mini- nage de l’espérance de X : g1 (X) ;
male. On peut dire que l’on y met la somme des ignorances. Ils — on calcule un indice de sécurité β1 , soit par la méthode de Cor-
conduisent statistiquement à des probabilités de ruine et à des ris- nell (β1 = E[g1 (X)]/σg 1(X) , E et σ étant respectivement l’espérance et
ques acceptés par la société. En risque naturel, la méthode experte l’écart-type de g1 (X)), soit par la méthode d’Hasofer-Lind (transfor-
s’en apparente. mation des X en variables gaussiennes) ;
— on approxime la probabilité de ruine par :

2.4.2 Méthode semi-probabiliste : niveau 1 Pf = Φ(− β1),


Φ étant la fonction de répartition de la variable normale, centrée
Elle a pris la forme des règles aux états limites comme le BAEL réduite.
(béton armé aux états limites) ; elle est généralisée dans les Euroco- Cette méthode porte aussi le nom de méthode FOSM (First Order
des à toutes les constructions. Second Moment).
Elle considère trois groupes de facteurs aléatoires d’insécurité. La méthode de niveau 2 a connu quelques développements en
1. Incertitudes sur les valeurs des actions : géotechnique en particulier pour les stabilités de pentes.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 8 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

2.4.4 Méthode probabiliste exacte : niveau 3 3.1 L’aléa sismique

C’est la méthode de niveau 2 sans les approximations.


3.1.1 Caractérisation d’un séisme
Les méthodes de niveau 2 et 3 ont connu beaucoup de développe-
ments dans le domaine des structures. 3.1.1.1 Différentes descriptions

Le phénomène sismique est un phénomène rare, donc pernicieux,


souvent intense, multiforme et très complexe.
2.4.5 Méthode décisionnelle : niveau 4
Dans le cadre de l’aménagement du territoire, il peut être regardé
de plusieurs points de vue :
C’est la méthode 2 ou 3 avec le calcul du risque, les paramètres de
projet étant calculés par minimisation du coût total (cf. § 2.3.3). — par rapport aux ouvrages qu’il affecte, on parlera d’un contexte
risque spécial, par exemple pour les centrales nucléaires et d’un
Quelques applications du niveau 4 ont été tentées dans le contexte risque normal pour des immeubles d’habitation ;
domaine des structures, en particulier en offshore. — par rapport à son échelle : à une échelle régionale, on caracté-
risera une secousse moyenne et à une échelle locale, ce mouvement
moyen sera modulé par des effets de site ;
— par rapport à sa prévention qui pourra être déterministe par
2.5 Quel niveau de sécurité une borne supérieure au mouvement du sol ou probabiliste par la
probabilité d’occurrence associée à chaque niveau d’intensité.
pour les risques naturels ?
3.1.1.2 Origine et localisation
Il est en fait contradictoire de parler de niveau de sécurité en La figure 2 donne la signification de quelques termes utilisés pour
matière de risque, le second étant le complémentaire du premier caractériser les séismes ; l’intensité est une mesure des effets de
multiplié par les dommages. Le niveau acceptable serait le niveau 4, surface, la magnitude est une mesure d’énergie libérée.
mais il est encore plus difficile à pratiquer que dans le cas des cons-
tructions. En effet, il faut inventorier les événements, les observer, ■ Origine
connaître leur fréquence, constituer des banques de données.
Pour les mouvements des plaques tectoniques avec les directions
de déplacement, les dorsales et failles transformantes océaniques
Il faut inventorier les facteurs de susceptibilité (ou facteurs perma-
(coulissage horizontal d’une plaque contre l’autre), les zones de sub-
nents) et les événements déclenchants ; ces facteurs peuvent être
duction (plongée d’une plaque sous une autre), et de collision fron-
modélisés continûment, quantitativement et parfois qualitative- tale le lecteur pourra se reporter en [20]. Outre ces déplacements
ment, avec des classes ; l’on procède, quand faire se peut, à la carto- interplaques, le plus souvent par à-coups, il existe des déplace-
graphie des facteurs, à la constitution de banques des événements ments intraplaques.
déclenchants afin de tenter d’en déduire des lois d’occurence.
D’autres sources comme les séismes volcaniques, artificiels
La définition des situations à risque est aussi difficile et la modéli- (explosion souterraine), ou induits (effondrements, rupture par
sation physique de leurs mécanismes encore plus. Néanmoins on dégradation mécanique, etc.) sont également citées en [20].
dispose de beaucoup d’outils et de très nombreuses recherches En France, les séismes sont faibles à modérés. Ils sont dus à des
sont développées dans ce sens. déplacements intraplaques provoquant différents types de mouve-
ments de faille (faille normale, faille inverse, faille à coulissage
Dans le domaine des scénarios de dégâts, des lois de coût, de la horizontal : cf. [20]). On a affaire à une réactivation d’accidents
vulnérabilité, on balbutie, tant les situations peuvent être variées, anciens avec réajustement du champ des contraintes de la croûte
sauf dans le cas des séismes pour le risque normal. Il en est de terrestre.
même pour les paramètres décisionnels, sauf encore pour les séis-
mes où les règles de construction parasismique viennent d’être
réactualisées. Ces différentes questions ne seront pas toujours trai-
tées explicitement pour les cinq risques mais, pour bien montrer
Intensité (effets)
qu’elles sont en œuvre, nous présenterons chaque risque par l’aléa
I0 > I1 > I2 > I3
du phénomène naturel, puis par la vulnérabilité des sites concernés.
Épicentre

ale
3. Les séismes cef
oc
tan
Faille Dis

L’auteur remercie le Service Géologique Régional du BRGM et


plus particulièrement Pierre Mouroux son Directeur. Foyer Distance épicentrale
(hypocentre) X
L’article de Jacques Betbeder-Matibet Constructions parasis-
miques [20] présente certains éléments de l’aléa sismique ainsi que Magnitude (énergie)
de la vulnérabilité sismique. Nous y renverrons donc le lecteur, cha-
que fois que cela ne nuira pas à la compréhension de ce texte. Figure 2 – Magnitude et intensité

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 9
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

Figure 3 – Épicentres des principaux séismes métropolitains et frontaliers (d’après [16] J. Lambert 1997)

■ Localisation 3.1.1.3 Mesures


On peut voir sur la figure 3 cette localisation en France [16], avec Les données d’observation [20] : ce sont les échelles d’intensité
4 régions principales : Pyrénées, Alpes-Provence, Alsace-Lorraine, dont l’échelle MSK64 est actuellement la plus utilisée en Europe
Sud Armorique. On notera un événement intense (intensités VIII-IX (Mercalli modifiée aux États-Unis) : c’est une intensité macroscopi-
et IX) par siècle : Bâle (1356), Pyrénées-Orientales (1428), Alpes- que (régionale), décrivant les effets de surface.
Maritimes (1564), Pyrénées (1660 et 1750), Ligure (1887), et Pro-
vence (1909). À quand et où, un événement intense pour le [20] indique aussi les données d’enregistrement : les magnitudes.
XXIe siècle ? Elles caractérisent l’énergie liée à la source. Outre la magnitude

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 10 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

locale ML (Richter 1935), il y a un grand nombre de magnitudes. La


plus représentative de l’énergie totale est la magnitude du moment NW SE
Mw qui se déduit du moment sismique M0 (énergie libérée par la
surface de rupture sur la faille) par :
1m
lg M0 = 1,5 Mw + 16,05
Ainsi, un degré de magnitude est un facteur 30 sur l’énergie !
En champ proche (de 0 à 200 km), on utilise les accéléromètres qui 1m
donnent 3 informations fondamentales pour la protection sismique :
— l’accélération maximale ;
— la durée ;
— le contenu fréquenciel.
Pl
an
3.1.2 Aléa sismique régional

ax
ia
ld
u
Il se définit à l’échelle du 1/200000 ou du 1/100000 : il caractérise

pl
i=
un mouvement sismique au «rocher horizontal», pour cette région

fa
idéalisée, topographiquement et géologiquement homogène. Dans

ille
sa forme la plus complète, la cartographie de l’aléa sismique con-

in
ve
siste à déterminer des zones sismotectoniques homogènes ou

rs
régions sismotectoniques puis à y attacher des événements sismi-

e
ques, avec leur loi d’occurence, et à en trouver l’effet, en tout point,
par des lois d’atténuation. Dans sa forme réduite, la cartographie
consiste à définir un zonage d’après la sismicité historique. Nous Figure 4 – Coupe de la tranchée d’étude paléosismique de
reviendrons sur cette question dans la partie concernant la vulnéra- Manosque-Valveranne (d’après [22] J.L. Blès et al. 1996)
bilité. Nous présentons ici la forme la plus complète.

3.1.2.1 Analyse sismotectonique ■ Choix d’une loi de fréquence


■ But
On définit la loi de fréquence P(Ie > i ) des intensités épicentrales
La définition de régions sismotectoniques nécessite : pour la source de type 1 de la province sismotectonique S1 , à partir
— de localiser les différents types de structures tectoniques sis- d’échantillons homogènes (tous les événements supérieurs à I0 à
miquement actives ou susceptibles de l’être ; partir d’une certaine date). Le phénomène est supposé poissonien
— de caractériser les mécanismes de déformations récentes ; (un seul séisme avec une faible probabilité sur un court intervalle de
— de reconstituer le champ de contraintes régional. temps et arrivées indépendantes d’un intervalle à l’autre). On trouve
des lois de répartition P(Ie > i ) de type exponentiel (loi de Weibull
■ Données par exemple), avec une loi de renouvellement du type :
Pour ce faire, le sismologue utilise différents types de données :
— celles de la sismicité historique : distribution spatiale et tem- Pa(Ie > i ) = µP(Ie > i ),
porelle des foyers (figure 3) ; à ces données, on rajoute les informa-
tions sur les mécanismes au foyer ; où µ est le taux annuel des séismes d’intensité supérieure à I0 . On a
— celles de l’analyse structurelle : grands accidents géologiques ainsi la probabilité annuelle d’avoir une intensité épicentrale supé-
(failles, flexures, contacts anormaux) y compris à l’échelle crustale. rieure à i pour la source 1.
Le sismologue fait appel :
■ Choix d’une loi d’atténuation
• à la géologie de surface (tectonique et géomorphologie) ;
• aux images satellite (télédétection) ; Pour la source 1 de profondeur H, sur un site particulier à la dis-
• à la géophysique (sismique, gravimétrie, magnétisme) ; tance R de l’épicentre, dans le secteur θ (la propagation du mouve-
• à la sismologie expérimentale (grands profils sismiques). ment sismique peut ne pas être isotrope), l’intensité induite I est
— celles de la néotectonique : il s’agit de l’analyse des événe- donnée par un modèle de corrélation basé sur le dépouillement des
ments récents (pas de changement qualitatif du champ des cartes de courbes isoséistes observées après chaque séisme ; ce
contraintes ; 1 à 10 millions d’années) grâce essentiellement à des modèle comporte une forte incertitude. Il existe différents modèles.
observations en tranchées. La figure 4 [22] en donne un exemple ; On a ainsi la probabilité annuelle d’avoir, sur le site considéré, un
l’intensité de l’événement est estimée par l’importance du décroche- séisme d’intensité supérieure à i, dû à la source 1.
ment, et la datation par l’importance des dépôts supérieurs.
■ Choix d’une densité d’apparition spatiale
■ Résultats
Ce travail, commencé fin des années 70, a abouti à la carte des On choisit une densité spatiale gS1 (r, h ) et l’on intègre sur la pro-
failles actives et des provinces sismotectoniques de la France [21] vince S1 . On a ainsi la probabilité annuelle d’avoir, sur le site consi-
(figure 5). déré, un séisme d’intensité supérieure à i, dû à la province S1 .
La suite de la cartographie, dans notre contexte de sismicité faible ■ Somme sur toutes les provinces
à modérée, a été établie de manière déterministe. La méthode de
Cornell que nous allons exposer n’a été appliquée au début qu’à la On a ainsi la probabilité annuelle d’avoir, sur le site considéré, un
région PACA [25], [27]. Elle est maintenant mise en œuvre sur tout le séisme d’intensité supérieure à i pour toutes les provinces sismotec-
territoire métropolitain (groupe de travail EPAS de l’AFPS). toniques pouvant avoir un effet.

■ Ce résultat global peut se traduire par des cartes d’isoprobabilité


3.1.2.2 Méthode de Cornell
de dépassement d’une intensité donnée (VIII par exemple) ou
On étudie les séismes d’intensité supérieure à un seuil donné I0 . d’isointensité pour une probabilité annuelle donnée (figure 6) [23].

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 11
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

Structures sismogènes (F1 à F16)


(ayant une incidence sur le zonage)

Domaines sismotectoniques (D1 à D27) Systèmes de structures sismogènes (S1 à S36)

Figure 5 – Carte des unités sismotectoniques de la France métropolitaine (d’après [21] J.L. Blès et al. 1995)

3.1.3 Aléa local

Il se définit à l’échelle du 1/5000 à 1/25000. Il complète l’approche


précédente par deux aspects fondamentaux, non envisagés
jusqu’alors :
— les effets directs, propres à chaque site : amplification du mou-
vement et changement de son contenu fréquentiel. La figure 7 illus-
tre dramatiquement cette question dans le cas du séisme de Mexico
du 19 septembre 1985 : on voit l’évolution des accélérogrammes de
l’épicentre à l’université (UNAM, encore sur le rocher) et le brusque
changement au centre ville (SCT, sur les dépôts lacustres) [24] ; les
spectres de réponses (cf. § 3.2.2.3 leur définition) sont encore plus
parlants : entre l’UNAM et le SCT, l’accélération maximale a été mul-
tipliée par 3 pour des bâtiments de 5 niveaux et par près de 8 pour
des bâtiments de 20 niveaux [31] !
— les effets induits correspondant à de grands déplacements dus
à des ruptures du sol :
• déformations tectoniques en surface ;
• liquéfaction des sols entraînant des affaissements ;
• liquéfaction des sols entraînant des glissements ;
• glissements et éboulements sans liquéfaction.
Figure 6 – Courbes d’isointensité pour une probabilité annuelle Ces phénomènes sont maintenant particulièrement étudiés et
de 10−3 (d’après [23] S. Bottard, H. Ferrieux 1992) modélisés [19] : ils sont susceptibles d’une analyse probabiliste par

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 12 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Accélération
spectrale
Bâtiment
0,9g 20 niveaux
amplification : 7,7 Amortissement 5 % 170
0,8 x (T = 2 s) Accélération
2
(cm/s )
– 170
0,7 Site SCT 10 s Accélération 170
Profondeur (cm/s2)
0,6 des niveaux raides
D ∼ 37 m – 170
0,5 10 s SCT
Bâtiment Accélération 170
5 niveaux (T = 0,5 s) UNAM
0,4 (cm/s2) Accélération
amplification : 3 170 (cm/s2) Teacalco
2 200 m – 170
0,3 (approx.) 10 s
– 170 10 s
x Rochers
0,2 Caleta de Campos
et sol raide Niveau
0,1 de la mer Épicentre

0 CO 332 km (approx.)
CO
SP 379 km (approx.)
0 1 2 3 4 5 LAT
E 400 km (approx.)
Période (s)

Figure 7 – Différents accélérogrammes enregistrés lors du séisme du Mexique du 19-09-85 de l’épicentre à Mexico (d’après [24] M. Celebri et al. 1987)
et spectres d’accélérations au centre-ville (SCT) et à la périphérie (UNAM) (d’après [31] H.B. Seed et al. 1988)

probabilisation des paramètres mécaniques qui les gouvernent (cf.


l’analyse de niveau 2, § 2.4.3). Responsabilité des communes Responsabilité de l'État
et de l'État (DRIRE)
et de l'industriel

LOI DU 22 JUILLET 1987 + DÉCRET DU 14 MAI 1991


3.2 La vulnérabilité sismique
OUVRAGES
Il s’agit ici uniquement de la vulnérabilité des constructions (de
leurs occupants et de l’environnement immédiat). Les règles de
À RISQUE NORMAL À RISQUE SPÉCIAL
dimensionnement de celles-ci ont été récemment actualisées. Nous
en présentons ici les grandes lignes, en renvoyant à la référence [20]
pour ce qui est de leur évolution. PROTECTION

3.2.1 Principes de protection et réglementation STATISTIQUE INTRINSÈQUE

Ceux-ci sont illustrés par la figure 8 [29]. CLASSES

■ Les ouvrages à risque normal sont répartis en 4 classes :


BARRAGES ET RÉACTEUR
— classe A : bâtiments à activité humaine intermittente, «grange
A B C D INSTALLATIONS NUCLÉAIRE À EAU
à foin» ; CLASSÉES DONT SOUS PRESSION
— classe B : bâtiments d’habitation, de bureaux et industriels ne SEVESO R.F.S. N° 1-2.c
dépassant pas 28 m de haut ;
— classe C : les précédents dépassant 28 m, les bâtiments rece- RISQUE CROISSANT
vant du public ou plus de 300 personnes, les centres de production
collective d’énergie ; ZONAGE
— classe D : les bâtiments dont la protection est primordiale pour
la sécurité civile, la défense nationale et le maintien de l’ordre SISMICITE ANALYSE
public, les bâtiments de santé, de communications, de production HISTORIQUE SISMOTECTONIQUE
d’eau, de distribution d’énergie, de météorologie. EXISTANT (1996)
Ils font l’objet d’une protection statistique (non exprimée en pour- INTENSITÉ DE CALCUL +
centage, les textes indiquent «peu» de dégâts), fonction d’un EXIGENCES DE COMPORTEMENT
zonage fondé sur la sismicité historique (cf. § 3.2.2.2). Les règles de
calcul sont les Règles PS 92 adoptées par arrêté du 29.5.97 qui sont
ARRÊTÉ DU 29/05/1997 ARRÊTÉ DU 29/05/1993
présentées par la suite (§ 3.2.2.3).
Les ouvrages «à risque spécial» sont l’objet d’une protection (J.O. DU 30/06/1997) (J.O. DU 17/07/1993)
intrinsèque (choix du séisme et des règles de calcul tel que le risque Circulaire d'application du 27/05/1994
soit «nul» pour l’environnement immédiat, même si l’on admet des
dégâts pour l’ouvrage). Le zonage est fondé sur l’analyse sismotec- Figure 8 – Principes de protection et réglementation parasismique
tonique. (d’après [29] P. Mouroux 1995)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 13
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

base à l’élaboration des Règles PS 92 avec comme autres nouveau-


Ouvrages à Ouvrages à
risque normal risque spécial
tés par rapport aux PS 69/82 :
Règles PS Études — la définition du mouvement sismique par des spectres de
spécifiques réponse élastique, différents suivant la nature du sol ;
— l’extension considérable du champ d’application ;
Réacteur nucléaire
∆C /C, ∆R /C à eau sous pression — élargissement de l’éventail des méthodes de calcul ;
— l’harmonisation des critères de vérification de la sécurité.
Par ailleurs, le «nouveau zonage sismique de la France» [26], éla-
boré en 1985 est officialisé par le décret du 14.5.91, en application de
la loi du 22.7.87 (cf. § 1.4.1 : il utilise la sismicité historique, réactua-
∆C /C lisée grâce à de nouvelles recherches, et des éléments d’analyse sis-
motectonique pour définir une zone de transition IA entre la zone de
sismicité négligeable, zone 0, et celle de sismicité faible, zone I. Il
s’appuie sur des critères quantitatifs clairs (intensité maximale, fré-
∆R/C
quence) dans un but de réelles homogénéité et objectivité. Ce
Classe D zonage est donné à la figure 10 [18].

Classe C
3.2.2.3 Règles PS 92
■ Le niveau minimal de protection n’est plus une fonction de
Classe B
Classe A l’intensité (α dans les Règles PS 69/82) mais de l’accélération nomi-
(hangar) nale aN , fonction du zonage sismique et de la classe des construc-
tions (tableau 4) [14].

ID

Figure 9 – Arbitrage économique pour la détermination de l’intensité


de calcul (d’après [30] P. Mouroux 1987) Tableau 4 – Accélérations nominales aN exprimées
en m/s2 (d’après [14])

À la base du choix des niveaux de séismes dont on veut se proté- Classes d’ouvrage
Zones de
ger, il y a un arbitrage économique dont le principe est illustré par la sismicité
figure 9 [30] : on compare la courbe de supplément de dépense A B C D
∆C / C occasionnée par la protection vis-à-vis d’une intensité ID , aux
courbes de réduction de la perte probable ∆R / C causée par cette 0
intensité, ces courbes variant d’un type de bâtiment à l’autre. Ia 1,0 1,5 2,0
On a ici une analyse de risque complètement explicite, probabi- Ib 1,5 2,0 2,5
liste, même si sa traduction réglementaire est déterministe. La pro-
tection choisie est celle qui conduit au risque minimal. II 2,5 3,0 3,5
III 3,5 4,0 4,5

3.2.2 Risque normal


■ Des règles générales de conception sont édictées concernant le
3.2.2.1 Règles parasismiques PS 69/82
choix du site, les reconnaissances, les fondations et les structures.
J. Betbeder-Matibet [20] indique les événements et préoccupa-
tions qui ont conduit à ces codes dits de la deuxième génération, à ■ Le séisme de calcul est défini, pour les translations d’ensemble,
savoir : dans les 3 directions par des spectres de réponse, le vertical étant
les 70 % des horizontaux. Un spectre de réponse est la courbe de
— l’explicitation du caractère dynamique de la réponse ; l’accélération maximale d’un oscillateur simple en fonction de sa
— la reconnaissance implicite du rôle de la ductilité. période, excité par l’accélérogramme du séisme. J. Betbeder-Mati-
Le coefficient sismique horizontal s’écrit : bet [20] détaille cette notion et donne les spectres de réponse élasti-
que normalisés (c’est-à-dire « lissés statistiquement» pour les
σx = αβγδ différents types de sol. Ces spectres de réponse permettent de
déduire les spectres de dimensionnement.
où : α est fonction de l’intensité,
L’action sismique est définie par une accélération spectrale R (T ),
β est fonction de la période fondamentale et du
fonction de la période du bâtiment, qui est le produit suivant :
niveau d’amortissement,
γ varie suivant les étages, R (T ) = aN , RD (T ) ρτ
δ est fonction du sol de fondation. avec aN accélération nominale (tableau 4),
RD (T ) spectre de dimensionnement normalisé, fonction
3.2.2.2 Nouveau zonage sismique et évolution des principes
du type de site et de la période (figure 11) [14],
J. Betbeder-Matibet parle du souci, à partir de 1982, d’expliciter la
ρ coefficient d’amortissement : ρ = [5/ζ]0,4 si
prise en compte de la ductilité par un coefficient de comportement
l’amortissement est différent de 5 %,
dans la mise au point de codes, dits de la troisième génération, dont
les Recommandations de l’AFPS [13] (Association Française de τ coefficient de topographie (construction en bord
Génie Parasismique), parues en 1990. Ces dernières ont servi de de talus).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 14 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Figure 10 – Zonage sismique de la France (d’après [18] J. Lambert, 1997 et [26] J. Despeyroux et P. Godefroy, 1985)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 15
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

RD Sites rocheux (site de référence)


Sites S0
Sols du groupe a en épaisseur inférieure à 15 m
3

0,3
0,4
Sites S1 Sols du groupe a en épaisseur supérieure à 15 m
Sols du groupe b en épaisseur inférieure à 15 m

0,6

0,9
2,5
2,25 Sites S2 Sols du groupe b en épaisseur comprise entre 15 et 50 m
2 R = 1,86 Sols du groupe c en épaisseur inférieure à 10 m
T 2/3
R = 1,60 Sols du groupe b en épaisseur supérieure à 50 m
(S ) T 2/3 Sites S3
3D Sols du groupe c en épaisseur comprise entre 10 et 100 m
1,5 R = 1,36
(S2)D T 2/3 R = 1,12
T 2/3 Sols de résistance bonne à très bonne (par exemple,
1 (S1)D Groupe a sables et graviers compacts, marnes ou argiles raides
fortement consolidées)
(S0)D
0,5 Sols de résistance moyenne (par exemple, roches altérées,
Groupe b sables et graviers moyennement compacts, marnes ou
argiles de raideur moyenne)
0
0 0,5 1 1,5 2 2,5 Groupe c Sols de faible résistance (par exemple, sables ou graviers
lâches, argiles molles, craies altérées, vases)
T (s)

Figure 11 – Spectres de dimensionnement RD (T ) normalisés suivant le type de site (S0 , S1 , S2 , S3 ) pour un amortissement de 5 % (d’après [14])

Tableau 5 – Valeurs du coefficient de comportement pour le béton armé (d’après [14])


Bâtiments réguliers Bâtiments à régularité
Type de structure qi Bâtiments irréguliers
moyenne

1 Structures dont le contreventement est assuré uni- 3,5 (1) 0,85 q1 (1) 0,7 q1 (1)
quement par des voiles
2 Structures dont le contreventement est assuré uni- 5 0,85 q2 0,7 q2
quement par des portiques
3a Maçonnerie porteuse chaînée 2,5 0,85 q3 0,7 q3
3b Maçonnerie porteuse armée et chaînée 3 0,85 q3 0,7 q3
3c Ossature avec remplissage a posteriori 1,5 0,85 q3 0,7 q3
4 Structures mixtes dont le contreventement est Interpolation entre les valeurs 1, 2 et 3 par la formule :
assuré par des voiles et des portiques ou de la
maçonnerie Vi 2
Σ  -----
1  q i
--- = ----------------- avec V effort tranchant équilibré par le système de contreventement
q Σ Vi
2

5 Structures fonctionnant en console verticale à mas- 3 0,85 q5 0,7 q5


ses réparties prédominantes
6 Structures comportant des transparences sans objet 2 à 3 (1) 1,5 à 2,5 (1)
(1) Les structures comportant des transparences ainsi que les structures contreventées par des voiles doivent faire l’objet de la vérification de compatibilité de
déformations.

■ Les calculs sont faits pour des actions sismiques d’ensemble et 3.2.3 Risque spécial
locales, en tenant compte du comportement non linéaire à travers
un coefficient q de comportement, fonction des matériaux, du type L’action sismique est toujours représentée par des spectres de
de construction, de la redistribution des efforts et de l’incursion réponse mais le choix du niveau n’est pas statistique, comme pour
dans le domaine post-élastique. Ce coefficient, qui n’a pas de justifi- le risque normal, mais intrinsèque à chaque ouvrage. Ce choix est
cation théorique explicite, est le fruit de l’expertise actuelle. Il est illustré par la figure 12 [29] : l’analyse sismotectonique permet de
fourni dans chaque chapitre concernant les matériaux. Le tableau 5 définir les provinces sismotectoniques et les accidents sismogènes
[14] montre les valeurs adoptées pour le béton armé. pouvant concerner le site. On identifie sur chaque zone le séisme
■ Les règles de vérification sont basées sur les combinaisons maximal historiquement vraisemblable, le SMHV (figure 12 a
d’actions et sur les états limites. aspects techniques). On fait l’hypothèse qu’il peut se reproduire en
tout point de ces zones et au plus près du site. On prend le plus fort
■ Les règles précisent le dimensionnement des fondations, des d’entre eux et on le majore d’un degré d’intensité (environ 30 fois
soutènements, du béton armé et béton précontraint, de la maçonne- plus d’énergie), le séisme majoré de service (SMS). On choisit dans
rie, de la construction métallique, de la construction en bois, des des banques de données les spectres de réponse correspondant au
façades légères et du préfabriqué. SMS (figure 12 b aspects réglementaires).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 16 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Ce paragraphe s’appuie essentiellement sur le contexte alpin à


Bilan de sismicité Géologie structurale
travers le rapport Rivet «Prévention des risques générés par l’insta-
bilité des versants», réalisé par le BRGM, le CETE (Centre d’Études
Techniques de l’Équipement) de Lyon, l’IRIGM (Institut de Recherche
Interdisciplinaire de Géologie et de Mécanique) de l’Université de
Grenoble et l’ADRGT (Association pour le Développement des
Site X Site X Recherches sur les Glissements de Terrain) et à travers une étude de
l’École Centrale Paris et du BRGM sur la région du Trièves.

4.1 L’aléa MVT

Faille sismogène
10 avec séisme 4.1.1 Nature des phénomènes
0 de référence et schéma général d’approche
à
20
0
km
Site X Les phénomènes regroupés sous le titre mouvement de terrain
(MVT) sont très divers tant par leur typologie (mouvements verti-
Domaine caux, glissements de rochers, glissements de terrain, très grands
sismotectonique déplacements sur de faibles pentes) que par leur échelle (de la
avec séisme dizaine de mètres au kilomètre et plus) et leur mécanisme (écoule-
de référence ments visqueux, écoulements plastiques, instabilité de blocs).
a aspects techniques
En France, ils se manifestent principalement dans les massifs
montagneux, les versants des bassins sédimentaires à séries argi-
(ISMHV)1 leuses et les falaises vives du littoral ; 3500 communes sont concer-
nées à divers niveaux avec deux mouvements majeurs, celui de la
R1 Clapière dans les Alpes Maritimes et celui de Séchilienne dans
l’Isère.
Site X R
2
Leur degré de connaissance est assez faible, à cause de typolo-
gies mal identifiables, de mécanismes complexes et de facteurs cau-
(ISMHV)2 saux nombreux et mal repérés ; par ailleurs, on manque d’un
inventaire détaillé et exhaustif.

R distance focale Pourtant leurs conséquences peuvent être extrêmement graves


mais généralement très peu perçues ; leur poids économique se
Spectres Spectres
SMHV SMS situe entre celui des séismes et celui des inondations. Il est de
l’ordre de 500 MF par an en France. On met en place essentiellement
b aspects réglementaires des mesures de prévention sans pour autant bien apprécier les ris-
RFSI2C ques dont on se protège, la prédiction de l’aléa étant encore impré-
Figure 12 – Risque spécial (d’après [29] P. Mouroux 1995) cise et les analyses de vulnérabilité étant balbutiantes.
L’étude des mouvements de terrains est à la croisée de plusieurs
spécialités : le géologue contribue à définir la typologie, le mécani-
Si cette procédure prend une formalisation déterministe, elle a un cien analyse le comportement des roches, des sols et des boues,
sens probabiliste clair : la probabilité du SMS est quasiment nulle. l’informaticien contribue par des systèmes d’information géogra-
phique (SIG), des systèmes de gestion de bases de données rela-
tionnels (SGBD-R) et du dessin assisté par ordinateur (DAO) à
3.2.4 Conclusion stocker, gérer, et rendre utilisables les données sur les causes (fac-
teurs permanents et éléments aggravants) ou sur la manifestation
des mouvements de terrain. La conjonction de ces trois disciplines
Le risque sismique est l’exemple le plus avancé d’une approche conduit à la cartographie du risque qui peut être soutenue par le sta-
probabiliste explicite tant au niveau de l’aléa que de la vulnérabilité. tisticien à travers l’analyse de données sur les MVT observés dans
Il est à l’origine du développement de cette approche dans les autres une zone dite d’apprentissage.
domaines. Sa prise en compte réglementaire est beaucoup plus éla-
borée que celle des autres risques bien que ceux-ci aient eu des
impacts médiatiques importants (avalanche de Val d’Isère, inonda-
tion de Nîmes, incendies en région PACA, mouvement de Séchi- 4.1.2 Typologie et mécanismes
lienne) conduisant à la législation de 1982, 1987 et 1995 (cf. § 1.4)
pour les risques naturels en général et de 1991, 1992, 1993 et 1997 4.1.2.1 Priorité aux mécanismes
pour le risque sismique en particulier.
Il existe de nombreuses typologies. Dans le contexte alpin, le rap-
port Rivet a donné la priorité aux mécanismes. Ainsi sept types [35]
sont définis : le fauchage, la subsidence, le tassement, la chute des
4. Mouvements de terrain blocs, les écroulements, les glissements et les écoulements.
D’autre part, le BRGM a procédé à une analyse exhaustive des
modèles de propagation en grande masse [45] : mettant ainsi à dis-
L’auteur remercie le Centre Thématique Risques Naturels et Géo- position une base de modèles mathématiques d’états critiques sus-
logiques du BRGM et plus particulièrement Éric Leroi, son Directeur. ceptibles d’une probabilisation.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 17
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

Tableau 6 – Identification de la topologie des mouvements de terrain (d’après [35] P. Antoine et A. Giraud)
Classe Orientation Pente α Formes Discontinuité Climat et
Épaisseur
lithologique et structure du versant morphologiques préexistante végétation

Chutes Présence de crevasses Formation massive


en masse ouvertes en tête très fracturée avec
de talus fractures ± parallèles
I, II, III, IV Cataclinale > 40o
inférieure Existence de au versant ou détermi-
morphologie nant des dièdres dont
Écroulement d’écroulement ancien l’arête est inclinée
au voisinage vers la vallée

Glissements Crevasses de tête ±


dans les rectiligne Discontinuité
formations Conforme ou sédimentaire Pluie ou neige
rocheuses II, III cataclinale 0 < α < 45o Glissements proches ou > 600 mm/an
inférieure survenus dans les
tectonique parallèle
(Glissement mêmes conditions
au versant
PLAN)
α > 5o Présence de ravines
(Classe
Glissements lithologique
dans les Présence de
> 10 m VIa, VIb, VIc VIa) dépressions
formations α > 15o
meubles (Classe Existence au voisinage
lithologique de formes de slump
VIb ou VIc)

4.1.2.2 Critères d’identification typologique


Tableau 7 – Distorsions des principaux systèmes
Le rapport Rivet [35] propose les critères suivants pour l’identifi- de projection (d’après [34] M. Terrier et al.)
cation typologique dans le contexte alpin : épaisseur, classe litholo-
gique, orientation et structure, pente du versant, formes
Système
morphologiques, discontinuité préexistante, climat et végétation.
de Forme Superficie Distance Direction
Nous donnons, tableau 6, l’exemple des chutes en masse et des
projection
glissements rocheux ou meubles, les 6 classes lithologiques simpli-
fiées étant les suivantes : Distorsion
— classe I : massif rocheux isotrope, homogène (IA) ou hétéro- Conservée augmentant Toute ligne
gène (IB) ; mais Distorsion vers les droite sur la
Mercator distorsion certaine pôles ; fai- carte est de
— classe II : massif rocheux anisotrope, à faciès argileux (IIA) ou vers les ble jusqu’à direction
autre (IIB) ; pôles 15o de constante
— classe III : massif rocheux hétérogène, anisotrope ; l’équateur
— classe IV : massif rocheux très fracturé ; Distorsion Distorsion
— classe V : massif rocheux soluble ; Mercator Conservée à partir du à partir du Quelques
— classe VI : terrains de couvertures, argileux (VIA), sablo-grave- transverse méridien méridien distorsions
central central
leux (VIB) ou à granulométrie grossière (VIC).
Légère Légère Légère
distorsion distorsion distorsion
4.1.3 Facteurs des MVT ; acquisition Lambert Conservée augmentant augmentant augmentant
au-delà des au-delà des au-delà des
et structuration des données parallèles de parallèles de parallèles de
référence référence référence
4.1.3.1 Information géographique
■ Définition
■ Attributs et modèles de représentation
On appelle ainsi toute donnée se rapportant à une entité localisée
Ces attributs sont qualitatifs ou quantitatifs, discrets (comptage)
(point, ligne, surface) caractérisée par une localisation, des attributs
ou continus (modèles numériques de terrain : MNT). Ce sont des
et la date de l’information, des relations spatiales et un mode de
données physiques et socio-économiques. Les modèles de repré-
représentation.
sentation sont soit du type raster (image par pixels) soit du type
■ Localisation vecteur (couverture par points, lignes ou surfaces). Entre ces repré-
sentations, sont définies des relations spatiales par connexions.
Elle est faite par les coordonnées, soit géographiques, soit proje-
tées. On utilise trois systèmes de projection : Mercator (cylindrique),
4.1.3.2 Mouvements de terrains
Mercator transverse (azimutale) ou Lambert (conique) (cf. article
C 5010 Topographie. Topométrie. Géodésie dans le présent traité). Ils font l’objet d’une base de données nationale sur les mouve-
On verra dans le tableau 7 [34] leurs distorsions respectives, souli- ments de terrain à partir d’une collecte du BRGM, du Laboratoire
gnant la difficulté d’une représentation correcte. Central des Ponts et Chaussées (LCPC) et du service de restauration

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 18 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

des terrains de montagne (RTM/CEMAGREF). Ce fichier comporte 4.1.4 Cartographie de l’aléa


les événements majeurs lointains (identification de spécialistes),
historiques (trace écrite) et actuels. Les informations pour chaque
4.1.4.1 L’expertise
fiche sont, en ce qui concerne le phénomène, de plus en plus lacu-
naires depuis la typologie puis les causes jusqu’aux matériaux con- La démarche de l’expert est une démarche naturaliste, implicite.
cernés sur lesquels on a très peu d’éléments, et en ce qui concerne Elle a fait l’objet d’organigrammes [36] : à partir de références à des
les dommages, depuis les dégâts au milieu humain puis aux biens, événements vécus, ou sur le site ou sur un environnement analo-
jusqu’aux activités sur lesquelles on a aussi très peu d’éléments. gue, on peut passer à un premier diagnostic typologique ; l’évalua-
tion des causes, soit permanentes soit aggravantes, conduit à la
définition du type de mouvement et de son extension spatiale avec
4.1.3.3 Facteurs : bases de données existantes
un pronostic sur l’évolution et l’occurrence puis la définition d’un
■ Facteurs permanents ; cartes système de surveillance qui permet une réactualisation du pronos-
tic. Les différentes étapes peuvent être soutenues par des bases de
On distingue tout d’abord les facteurs permanents ou évolutifs données. Les cartes ZERMOS sont typiquement le résultat de cette
lents : démarche — figure 13 [36]. On peut aussi proposer des algorithmes
— la morphologie du terrain, altitude, pente, orientation, forme, de règles de présomption dont la figure 14 [36] donne un exemple.
bassin versant ;
— la nature des matériaux, propriétés, géométrie ; 4.1.4.2 Reconnaissance de forme
— l’existence de discontinuités ; Ce type d’analyse en retour sur une zone d’apprentissage a été
— le pourcentage de saturation ; impulsé dans le rapport Rivet [36] et développé par l’École Centrale
de Paris et le BRGM [50] sur les données du Trièves : un modèle
— les cheminements d’eau ;
d’estimation de la probabilité conditionnelle de glissement en ter-
— le contexte climatologique ; rain meuble, sachant un facteur aggravant, doit être mis en pratique
— le mode d’occupation des sols, imperméabilisation, surchar- par le BRGM. Il est fondé sur une analyse de variance des facteurs
ges, concentration d’eau ; permanents additifs et interactifs [48] :
— le couvert végétal ; Pf ij..m = µ + α i (A ) + β j (B ) + γ ij (AB ) + ... + ε ij..m
— les érosions, de pied, marine, éolienne ;
— l’évolution de la pratique agricole ; avec Pf ij..m , probabilité de glissement pour une zone
présentant les modalités i du facteur A, j du
— l’évolution des écoulements superficiels ; facteur B, etc.,
— l’état d’entretien, etc.
µ terme moyen,
Un certain nombre d’entre eux font l’objet des cartes qui se pré- αi contribution de la modalité i du facteur A,
sentent à différentes échelles (régionale 1/50000 ou 1/25000 et
locale 1/10000 ou 1/5000), venant de différents concepteurs et diffu- γi j contribution de l’interaction des modalités i de A
seurs [IGN, BRGM, INRA, IFN (Inventaire Forestier National), CNRS]. et j de B,
Elles portent sur la topographie, la géologie, la pédologie, la géo- ε ij..m résidu.
morphologie, la végétation, le climat. La géotechnique fait l’objet de
Pf est mesurée sur le terrain : c’est la surface glissée sur la surface
la banque BSS (Banque de données du sous-sol) du BRGM.
totale ; elle a bien le sens d’une fréquence relative [50]. Ces surfaces
On dispose, par ailleurs, des images aériennes et satellitaires. sont obtenues en croisant sous SIG les couvertures de chaque fac-
Leur très grand intérêt est qu’elles fournissent une information teur avec la couverture des MVT [48] [49]. Les distributions des
exhaustive, objective, directe et restituant parfaitement le relief. Il modalités de chaque facteur ou des croisements de leurs modalités
s’agit des documents de la photothèque nationale (IGN), de SPOT peuvent être visualisées pour mieux comprendre l’échantillonnage
image ou de documents élaborés pour des besoins spécifiques et l’analyser en terme de susceptibilité, figure 15 [48].
(ISTAR). Les µ, α i , β j , etc., sont estimés par l’analyse de variance et leur
signification testée [50].
■ Facteurs aggravants ; données spatio-temporelles
On distingue les facteurs aggravants, transitoires ou évolutifs 4.1.4.3 Approche analytique
rapides ; ils sont soit :
Elle nécessite d’avoir un modèle mécanique analytique du mou-
— naturels : vement de terrain où apparaissent, sous forme de variables dites de
• hydro-météorologiques ; base (§ 2.4.3), les facteurs causaux, permanents et aggravants, de
l’aléa. Malgré les travaux sophistiqués et nombreux sur les modèles
• sismiques ;
[40], on est loin, en général, de pouvoir appréhender la réalité dans
• volcaniques, etc. ; toute son ampleur. Aussi toute approche analytique probabilisée ne
— anthropiques : sera qu’une approche conditionnelle, sachant les facteurs non pris
en compte. Elle peut être très profitable car elle donne parfaitement
• terrassements, excavations ;
ce jugement «conditionnel». Elle a été mise en application depuis
• fuites de réseaux, etc. longtemps par les mécaniciens des sols pour la stabilité des digues
Pour les séismes, on dispose des cartes des unités structurales [51], des barrages ou des versants naturels sous marins [45] et peut
majeures, du fichier SIRENE de la sismicité historique mais aussi du s’étendre facilement à celle des versants naturels en terrains meu-
zonage sismique de la France, des cartes d’isointensité ou d’isopro- bles. Ainsi, dans un premier temps, le BRGM a cartographié au
babilité (cf. § 3.1.1). 1/50000 et au 1/10000, figure 16 [47], sans le probabiliser, le coeffi-
cient de sécurité des versants dans la région du Trièves sur la base
Pour les données hydro-météorologiques, on dispose de la plu- d’un modèle de glissement plan, en prenant en compte la cause sis-
viométrie et de la température données par les stations météorolo- mique et la cause hydraulique. La probabilisation du modèle
giques. On a tenté de mettre au point des modèles statistiques entre demanderait des données sur les variations et incertitudes, spatiales
le mouvement sur un site et la pluviométrie dans le bassin versant, et temporelles, des caractéristiques des terrains, de la topographie,
sans succès réel jusqu’à présent. des accélérations sismiques, des hauteurs de nappes, toutes choses

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 19
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

Figure 13 – Cartographie ZERMOS, région de Modane Charmaix (Savoie) (d’après BRGM 1975 [36])

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 20 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Précipitation 860 000 870 000


Pluie > 600 mm/an

oui non
PLUS DE 5,0

3 300 000
3 300 000
Lithologie non selectionné DE 4,0 À 5,0
si CL = II ou III DE 3,0 À 4,0
DE 2,0 À 3,0
oui non
DE 1,0 À 2,0
Pente Lithologie MOINS DE 1,0
si P < 45° si CL = IV

oui non oui non

non selectionné
Pente

3 290 000
3 290 000
Structure si P < 45°
si pente versant > pente So
et
si exposition versant = exposition So
oui non

non selectionné
non oui

non selectionné

Glissement potentiel

3 280 000
3 280 000

dans les formations rocheuses

CL classe lithologique (cf. § 4.1.2.2)


P pente

Figure 14 – Algorithmes de règles de présomption d’une démarche


experte (d’après [36] E. Leroi et al.)

Facteur 1
+ 860 000 870 000
Susceptibilité 0 10 000
Facteur 2
(%)
+
Facteur 3 50 Figure 16 – Exemple de carte de coefficient de sécurité à l’échelle
+ régionale (≈ 1/50000) de la région de Trièves (d’après [47] E. Leroi, 1996)
40
Facteur 4
30
+
Facteur 5 20 coulées) et de peu d’analyses statistiques. Ainsi, dans le fichier INVI
5
+ 15
(Inventaire National des Versants Instables) du BRGM avant 1992,
10 les informations relatives aux dommages sont disponibles dans
Mouvements 25
35 0
93 % des cas en ce qui concerne le milieu humain, mais seulement
= Pente 45 h dans 39 % des cas en ce qui concerne les biens et 9 % les activités ;
(%) f g quant aux conséquences économiques différées, on n’en dispose
Union 55
c d e
a b Géologie qu’exceptionnellement. Aussi, nous présentons ici, pour illustrer
l’état des synthèses en cours, le bilan technique et économique
régional (Rhône-Alpes) ainsi que les guides méthodologiques pour
a caratéristiques sous SIG b exemple de susceptibilité la protection et la prévention, présentés par le CETE Lyon dans le
des polygones pour 2 facteurs
rapport Rivet [37].
Figure 15 – Construction des polygones (d’après [48] E. Leroi, 1997)

4.2.1 Bilan technique et économique


en région Rhône-Alpes
étant égales par ailleurs. On est assez loin d’avoir ces données sur
les nappes et les caractéristiques de terrain mais on peut y tendre. Il prend trois risques en compte :
— les chutes de blocs (de 1 dm3 à quelques m3) ;
— les glissements de terrain (mouvements cohérents en masse
4.2 La vulnérabilité MVT d’épaisseur supérieure à 10 m) ;
— les coulées, érosion torrentielle (transport solide important
avec effet d’érosion sur le lit et les environs) et laves torrentielles
Les modèles de vulnérabilité sont au stade des balbutiements. On (boue homogénéisée avec comportement monophasique comme
dispose en effet de peu de modèles de propagation (chutes de blocs, les laves volcaniques).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 21
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

— les méthodes d’évaluation du risque, aléa et vulnérabilité ;


Modification Entretien
11 %
— les objectifs et stratégie de protection ;
géométrique
5,1 % — un aperçu des méthodes (classées par famille) ;
Drainage et, pour chaque méthode de parades :
12,6 % — le but couramment recherché ;
— sa description sommaire ;
Soutènement — l’exploitation du fichier INVITES ;
25,8 % — quelques notions de mise en œuvre, d’efficience et de
pérennité ;
Anti-érosion — un ou plusieurs exemples.
4,6 %

Amélioration 4.2.3 Exemple des chutes de blocs


4,4 %
Surveillance 4.2.3.1 Évaluation du risque
1,5 %
Les paramètres pris en compte sont le volume à l’arrivée, l’occur-
rence de chute, l’éloignement de la zone de départ, la concentration
Purge spatiale des biens dommageables, les activités et équipements à
11,2 % protéger. Aussi, pour suivre l’évolution du phénomène, les guides
préconisent :
Végétalisation — une mise en observation (définition des moyens) ;
Stockage 2%
18,9 — un suivi (examen périodique) ;
Translation
2,6 % — une auscultation (quantification phénoménologique) ;
— une surveillance (en vue de la gestion de la sécurité) ;
Figure 17 – Type de protection et pourcentages des fiches du fichier — une détection (dépassements de seuils pour des scénarios pré-
INVITES concernées (d’après [37] J.P. Rotheval et L. Coudercy) définis).

4.2.3.2 Objectifs, stratégie


Les données proviennent du Ministère de l’équipement qui a en
■ Risque proche
charge la gestion de tout le réseau routier existant, de la SNCF qui
se caractérise par ses énormes exigences en matière de sécurité et Il se définit vis-à-vis des bâtiments et voies de communications en
du service de restauration des terrains de montagne qui dispose pied de chutes de blocs. Une stratégie peut être mise en œuvre soit
d’une très ancienne expérience acquise dès le Second Empire. Elles active, empêchant le déclenchement du phénomène, soit passive,
ont été rassemblées par le CETE de Lyon dans la base INVITES qui contenant le phénomène hors des zones à biens dommageables.
compte 605 fiches sur la Savoie, la Haute-Savoie et l’Isère avec une
■ Une stratégie active est souvent possible, si la zone de départ est
double typologie, type de protection et type d’ouvrage et avec une
accessible. On trouve alors comme moyens de prévention la végéta-
évaluation économique des coûts individuel et global.
lisation (de talus, banquettes, fascines), le revêtement (grillages ou
La figure 17 [37] illustre les types de protection inventoriés avec filets plaqués, banquettes, fascines) et le soutènement (contreforts,
leur proportion d’utilisation. Pour ce qui est des types d’ouvrages ancrages passifs ou actifs), figure 18 [37].
liés à chaque protection, on peut prendre l’exemple du
soutènement : murs ancrés 10 %, souples 32 %, rigides 25 %, guni-
tage 3 %, supports rigides 15 %, nappes de filets 15 %.
Le bilan économique fait état de 1000 MF dépensés pour cinq ans
dans les trois départements (y compris les chantiers des jeux olym-
piques d’Alberville et du Fréjus). Pour ce qui est du nombre, 25 %
des protections ne dépassent pas les 50 KF l’unité, 50 % des protec-
tions coûtent de 50 à 500 KF l’unité, et 1 % de 100 MF à 500 MF ! Par
contre, pour ce qui est des coûts, 88 % d’entre eux concernent 8 %
des protections (celles supérieures à 10 MF).
2/5 des coûts sont consacrés aux glissements, 2/5 aux éboule-
ments et 1/5 aux écoulements.

4.2.2 Guides méthodologiques


Ces guides comportent des aspects juridiques portant principale-
ment sur le réseau routier avec l’obligation d’intervention de l’État
(DDE Direction Départemental de l’Équipement) et la règle du défaut
d’entretien normal ; ils portent aussi sur les types de victimes et les
cas d’exonération.
Ils concernent essentiellement les stratégies d’intervention : plus
qu’une efficacité «technique», sera recherchée la pérennité d’une
mesure de prévention (durée de vie par rapport aux agressions,
entretien) et sa rentabilité (coûts des dégâts par rapport aux amor-
tissements). Cette approche est typiquement une approche risque,
même si elle n’est pas formalisée comme telle.
Pour chacun des trois phénomènes (éboulements, glissements, Figure 18 – Protection active par contreforts en Maurienne (d’après
coulées), les guides présentent : [37] J.P. Rotheval et L. Coudercy)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 22 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

5. Avalanches

5.1 Aléa avalanche

5.1.1 Définition du phénomène avalanche

Une avalanche est un mouvement rapide qui affecte une masse


de neige plus ou moins importante, variant de quelques mètres
cubes à des millions de mètres cubes, qui atteint des vitesses loca-
les dépassant le mètre/seconde. On ne doit pas confondre avec la
reptation, mouvement lent, semblable à la solifluxion des sols, qui
peut créer des dégâts matériels importants à des structures enfouies
dans la neige ni avec un autre phénomène bien identifié, le transport
de neige par le vent, créateur de pertes de visibilité et de congères,
n’a pas de nom universellement admis en France, aussi propose-
t-on de le nommer poudrerie, comme au Québec.

5.1.2 Classification

La classification des avalanches illustre bien la difficulté de sépa-


rer aléa et vulnérabilité. Il existe en effet deux classifications distinc-
tes, chacune se réclamant d’une même rigueur scientifique, tout en
étant fortement marquées par une vision de l’aléa très contaminée
par la vulnérabilité. D’une part, on trouve une classification, qui est
plus une classification des types de manteau neigeux, mais qui a
une logique de vulnérabilité du skieur en neige non damée (ski hors
piste), auquel une simple instabilité locale du manteau neigeux peut
être fatale ; d’autre part, on est en présence d’une classification du
phénomène sous sa forme vraiment étymologique, la vulnérabilité
étant dans ce cas plutôt concernée par les routes, les remontées
mécaniques, les lignes électriques et téléphoniques et surtout les
habitations, qui ne seront atteintes que par des phénomènes pleine-
ment développés. On préférera présenter une classification des ava-
lanches «du deuxième type», prenant en compte la dynamique du
phénomène sous sa forme développée, la première étant abordée à
travers l’analyse de la formation du phénomène [53] [55] [63].
On distingue fondamentalement deux types d’avalanche : les ava-
lanches poudreuses ou avalanches aérosols et les avalanches den-
Figure 19 – Protection passive par barrière grillagée double nappe ses ou avalanches coulantes. Ce sont deux phénomènes physiques
(d’après [37]) assez différents.

5.1.2.1 Avalanche poudreuse


Une stratégie passive peut être utilisée si le risque est diffus ou si
l’accès est difficile. On trouve alors les arrêts (barrières grillagées, Une avalanche poudreuse est un mélange d’air et de neige dont la
écrans rigides souples ou massifs, plages d’arrêt) (figure 19), le gui- dynamique dépend essentiellement de son interaction avec l’air
dage (grillage pendu, déviateurs, galeries, casquettes) et enfin l’évi- ambiant, ainsi qu’avec le manteau neigeux en place (phénomène de
reprise), et enfin de la topographie. On distingue la bouffée de den-
tement (tunnel, viaduc, écartement du tracé de communication).
sité, de masse constante, qui ne reprend pas ou plus de neige, et le
courant de gravité dont la masse croît par incorporation de neige à
■ Risque lointain l’avant. Dans chaque cas, une distinction est établie entre l’écoule-
ment canalisé (bidimensionnel) et non canalisé (tridimensionnel).
Il nécessite une étude de trajectoires. Plusieurs logiciels ont été Une avalanche poudreuse s’apparente aux courants de gravité
développés dans ce sens tout d’abord par le LRPC Lyon puis par le sous-marins, mais aussi aux écoulements volcaniques pyroclasti-
BRGM (ROCKFALL) ; il peut être aussi apprécié par expertise. On ques et aux vents de sable.
retrouvera dans les méthodes actives, le soutènement et les purges, Une avalanche poudreuse est donc d’abord contrôlée, non par la
et dans les méthodes passives, l’arrêt, le guidage, l’évitement et la surface sur laquelle elle s’écoule, mais par l’air, qui lui oppose une
surveillance. résistance. Cela explique plusieurs de ses propriétés carac-
téristiques : sa vitesse élevée (jusqu’à 100 m/s, soit 360 km/h), sa
densité faible (elle atteint, par mélange, la densité de l’air ambiant
4.2.3.3 Conclusion dans le cas des bouffées de densité), ses proportions importantes
(jusqu’à plusieurs centaines de mètres de hauteur) et une mise en
Les MVT sont un domaine où l’approche probabiliste peut contri- vitesse de l’air à l’avant, souvent décrite à tort comme une onde de
buer à mieux définir l’aléa (reconnaissance statistique de forme, choc. Il en résulte des efforts de l’ordre de quelques kilopascals dans
probabilisation des mécanismes), mais nous en sommes encore aux la zone terminale d’une avalanche poudreuse, mais le phénomène
balbutiements pour ce qui est de la vulnérabilité. est redouté du fait de son extension, du caractère relativement iso-

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 23
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

trope des efforts et surtout du fait que l’écoulement n’est qu’impar- en revue, on peut essayer d’établir des scénarios de formation
faitement guidé par le relief. En outre, les effets dynamiques d’avalanche, desquels on ne peut pas éliminer les facteurs morpho-
peuvent être importants (fréquence des grands tourbillons de logiques.
l’ordre de la fréquence propre de grands ouvrages de Génie civil) et
la mise en vitesse de l’air ambiant conduit à des effets de pression ■ Avalanche poudreuse : neige sans cohésion, en général neige
d’arrêt qui, s’ils ne sont pas très destructeurs, impressionnent beau- récente et froide ; éventuellement transformée en plaque friable. Elle
coup les habitants (vitres cassées sur le versant opposé, parfois à est favorisée par de fortes pentes, de grandes dénivelées et des sin-
plusieurs kilomètres de la zone d’arrêt de la neige). gularités dans le profil en long (rupture de pente et changements
brutaux de direction) et plus fréquente en versant nord et en haute
altitude. Elle peut parcourir des dénivelées énormes, jusqu’à
5.1.2.2 Avalanche dense 3000 m.
Les avalanches denses sont proches d’un écoulement hydrauli-
■ Avalanche dense : neige transformée, sous l’action du vent, de la
que de type torrentiel, du moins dans leur zone canalisée. On distin-
pluie et du soleil ; plus ou moins cohérente (toute forme de plaque)
gue, comme dans le cas d’un torrent, une zone d’accumulation, une
elle est plus fréquente en versant sud sur des pentes et dénivelées
zone canalisée (chenal d’écoulement) et une zone d’arrêt (zone de
faibles à moyenne.
dépôt). Dans la zone d’accumulation, il y a mise en mouvement pro-
gressive de la neige. Le mouvement peut s’arrêter avant la zone ■ Avalanche en plaques : neige en plaques de forte cohésion, déni-
canalisée si l’énergie n’est pas suffisante pour provoquer la décohé- vélées faibles.
sion et/ou la rupture au cisaillement de la neige en place.
Si l’on considère la vulnérabilité «skieur», le principal facteur
Si l’écoulement arrive avec une énergie suffisante à l’entrée de la d’accidents est la formation de plaque, la terreur de tout skieur de
zone canalisée, l’avalanche va atteindre un régime relativement sta- randonnée. La formation de plaque, liée à l’évolution de la cohésion
ble. Sa vitesse de front et sa hauteur varient peu si la pente et le pro- du manteau neigeux, est encore assez mal connue. Le vent joue un
fil en travers restent constants et si des singularités de relief ne rôle certainement important, mais peut-être pas aussi exclusif que
perturbent pas l’écoulement, auquel cas on pourrait passer au cela était admis il y a quelque temps.
régime d’avalanche poudreuse. Dans la zone canalisée, les ordres
de grandeur sont les suivants : vitesse de front, de 10 à 50 m/s (envi-
ron de 40 à 200 km/h) ; hauteur de front, de 1 à 10 m ; masse spécifi- 5.1.4 Bases de données sur les avalanches
que, de 100 à 300 kg/m3.
La sortie de la zone canalisée coïncide généralement, pour des rai- Il existe deux bases de données, l’une de nature plutôt temporelle/
sons liées à la géomorphologie, avec une réduction importante de la événementielle et l’autre, qui est géoréférencée.
pente. L’avalanche subit alors une réduction de sa vitesse de front,
un étalement avec parfois une séparation de sous-écoulements 5.1.4.1 Enquête permanente sur les avalanches (EPA)
(«doigts de gant»). L’analogie hydraulique n’est pas valable dans
cette phase où le fluide n’est pas newtonien, mais probablement Plus de 3000 sites, observés par 300 agents de l’Office National
binghamien, c’est-à-dire que son comportement est intermédiaire des Forêts. Chaque événement donne lieu à l’émission d’une carte-
entre celui d’un fluide comme l’eau et celui d’un solide. avis, qui est envoyée au Cemagref et, dans certain cas, une base
d’observation est disponible qui dépasse le siècle. Les sites obser-
Les effets dynamiques d’une avalanche dense sont beaucoup plus
vés sont choisis de façon à garantir une bonne qualité d’observa-
faciles à comprendre que ceux d’une avalanche poudreuse ; ce sont
tion. Les données sont utilisées pour les expertises et pour des
d’abord des effets de choc provoqués par un écoulement en masse.
recherches scientifiques.
Cependant, surtout si l’on se trouve à proximité de la sortie de la
zone canalisée, on note, dans les efforts enregistrés, une grande dis-
persion spatiale et temporelle. 5.1.4.2 Carte de localisation probable des avalanches
(CLPA)
5.1.2.3 Avalanche en plaques C’est un document au 1/25000, qui comporte les enveloppes de
toutes les avalanches menaçant des routes ou des lieux habités. Elle
Le terme d’avalanche en plaques est souvent utilisé impropre- est exhaustive, mieux géoréférencée que l’EPA, mais les informa-
ment pour caractériser tous les écoulements consécutifs à la rupture tions sont plus pauvres, car l’avalanche est représentée de la même
d’une plaque, c’est-à-dire d’une couche de neige cohérente. On doit façon, quelle que soit sa fréquence. Les travaux de génie paravalan-
le réserver aux glissements en masse à qui la topographie et l’état che sont représentés de façon systématique. Les sources d’informa-
physique du manteau neigeux en surface ne permettent pas tion sont les témoignages et la photo-interprétation. La CLPA est
d’atteindre une vitesse suffisante pour se développer sous la forme une carte historique d’aléas. Ses données sont utilisées dans les
d’une avalanche proprement dite. opérations de zonage de risque. Elle est de plus en plus utilisée dans
des expertises judiciaires, parfois dans des conditions assez contes-
5.1.2.4 Slush flows tables.
On ne peut plus ignorer ce type d’écoulement dans une revue de
types d’avalanche. Certes, il n’a pas été documenté très fréquem-
ment dans les Alpes. Cependant, il est maintenant bien attesté dans 5.2 Vulnérabilité aux avalanches
les régions arctiques. Les descriptions qui en sont faites font état
d’un mélange d’eau et de neige, qui démarre et s’écoule sur des
pentes très faibles. Les avalanches se produisent dans toutes les régions du monde
où les conditions de pente et d’enneigement sont réunies. Cepen-
dant, les régions les plus touchées sont celles où la densité de la
5.1.3 Formation population et l’intensité de l’activité humaine sont les plus fortes.
Ainsi, en France, 400 communes sont menacées et l’on a compté
Compte tenu des choix exposés plus haut, on n’insistera pas sur 350 victimes de 1980 à 1990 ; la plupart ont été emportées dans le
cet aspect, qui correspond en fait à un type de vulnérabilité particu- cadre d’activités touristiques et sportives et les dégâts matériels ont
lier, où la victime est en général celle qui provoque l’aléa. On pourra été importants. On compte une centaine de morts chaque année
trouver dans la bibliographie des ouvrages sur l’évolution du man- dans les Alpes. D’autres massifs sont également affectés ; ainsi
teau neigeux. Pour établir un lien avec la nomenclature déjà passée depuis le début des années 1990, les pays les plus touchés ont été la

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 24 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

Turquie (450 morts en 2 hivers, dans des villages) et l’Islande


(39 morts pendant l’année civile 1995 − à noter que les vulnérabilités
sont des villages de pêcheurs). On compte aussi chaque année des
accidents dans les Andes (extraction minière), l’Himalaya (exercices
militaires et alpinisme) et les montagnes rocheuses des États-Unis
et du Canada (tourisme hivernal). Sont concernées également des
régions comme la Scandinavie (Suède, Norvège, presqu’île de
Kola), la Nouvelle-Zélande, le Japon et l’Écosse.

5.2.1 Zonage des avalanches

Les avalanches sont le premier risque naturel qui a fait l’objet


d’une procédure de zonage codifiée, le plan des zones exposées aux
avalanches, défini par une circulaire de 1974. Ces plans ont consti-
tué une base de travail, et la plupart ont été transformés par la suite
en PER (plan d’exposition aux risques) et PPR (plan de prévention
des risques), ce qui explique que, dans le domaine des avalanches,
le zonage est à peu près terminé, du moins pour toutes les urbanisa-
tions les plus exposées.
Figure 20 – Dispositif complet de retenue de neige

5.2.2 Mesures de protection

L’éventail des mesures de protection contre les avalanches est


assez vaste, car, en dehors des parades communes à tous les types
de risque, les avalanches peuvent être assez facilement déclenchées
artificiellement, ce qui est une solution assez séduisante pour la pro-
tection des routes d’accès et des pistes de ski, deux vulnérabilités
importantes d’une station de sport d’hiver. Ce déclenchement artifi-
ciel est un poste de coût non négligeable si l’on établit un bilan des
coûts de toutes les mesures préventives [62].
La protection comprend les actions de cartographie [CLPA (Carte
de localisation probable des avalanches) et PZEA (Plan de zone
exposée aux avalanches)/PPR].
Le tableau 8 ne comprend pas le coût des actions de secours, ni
les coûts de «réparation», qu’ils correspondent aux dommages, aux
personnes ou aux biens. Il ne comprend pas non plus les coûts indi-
rects, comme ceux qui sont engendrés par la fermeture des routes
et des pistes de ski, ou la perte de valeur due au fait qu’un bien
immobilier est situé dans une avalanche.
Figure 21 – Filets de retenue de neige

Tableau 8 – Coût des actions de prévention contre


les avalanches (en MF) ■ Agir sur l’avalanche pleinement développée :
— dévier l’écoulement : digue, étrave, galerie de protection de
Déclenche route ;
Postes de dépense Prévision Protection Total
ment
— dissiper l’énergie de l’écoulement : tas freineur, dents freineu-
Travaux de génie 0 25,6 0 25,6 ses (figure 22) ;
civil subventionnés
— arrêter l’avalanche en phase terminale.
Dépense des orga- 18,2 13,6 0 31,8
nismes publics
■ Déclencher le phénomène = utilisation d’explosif :
Dépense des sta- 2 0,2 13,5 15,7
tions de ski — câbles transporteurs d’explosifs ;
Total 20,2 39,4 14 73,1 — exploseurs à gaz (figure 23) ;
— lanceurs pneumatiques ;
— lancer/glisser de charge.
On classe les mesures de protection en plusieurs catégories,
selon des critères qui ne sont clairs que pour les spécialistes. Pour
employer des termes du français courant, on distinguera les diver- ■ Évacuer la zone menacée :
ses parades selon les buts poursuivis.
— temps réel : le détecteur routier d’avalanche ;
■ Maîtriser le manteau neigeux dans la zone de départ : — temps différé : alerte sur prévision (réseau Météo France).
— ouvrages de retenue de neige : claies, râteliers, filets, planta-
tions (figures 20, 21) ; Ces différentes parades peuvent être classées dans un tableau
— barrières à neige, appellation préférable à barrières à vent. coût/avantage [61].

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 25
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

5.3 Limites des avalanches : expertise,


scénarios ou tentatives probabilistes

L’avalanche est un phénomène qui se prête mal au calcul probabi-


liste. Ceci s’explique par le caractère complexe des scénarios de
départs, particulièrement pour les phénomènes de grande ampleur.
Pour les petits phénomènes, en pratique initiés dans des zones de
départ abritées des effets du vent, on peut imaginer des scénarios
probabilistes fondés sur la hauteur de la précipitation. Pour des
zones de départ plus vastes, exposées aux effets du vent et consti-
tuées de «panneaux» plus ou moins indépendants on ne peut pas
employer de façon raisonnable une approche probabiliste.

5.3.1 Schéma spatio-temporel pseudo-probabiliste

Le principe est de caler un modèle statistique sur un ensemble de


Figure 22 – Ouvrage de dissipation d’énergie sites d’avalanche, la variable à ajuster étant l’avalanche la plus
importante connue sur le site et les variables d’ajustement les carac-
téristiques morphologiques du site.
Le site peut être décrit à l’aide d’un certain nombre d’angles,
comme l’ont fait les premiers K. Lied et S. Bakkehøi [57]. À partir de
trois points caractéristiques (points de départ de décélération et
d’arrêt, il est possible de définir trois angles α, β et δ. α représente la
variable à expliquer, β et δ les variables explicatives. En pratique, δ,
qui a le défaut de dépendre de la variable à expliquer, est rarement
utilisé (figure 25).
Cette paramétrisation ne donne la description du profil en long
qu’à une homothétie près, le modèle est invariant par changement
d’échelle, ce qui est une hypothèse critiquable.
On va l’illustrer à partir d’un essai effectué en France dans le cadre
d’un travail de thèse [52]. Sur un ensemble de 116 sites, l’ajustement
obtenu est :

αö = 0,85 β + 1,82

avec les paramètres de qualité suivants (R : coefficient de corréla-


tion et s : estimateur sans biais de l’écart-type) :

R = 0,85 et s = 2,33.

On introduit un aspect probabiliste à travers un modèle d’erreur


sur l’ajustement réalisé. Ceci donne un majorant de α :

Ð1 Ð1
α P = 0,85 β + 1,82 + 2,33 1 + x ( X ′X ) x ′ T n Ð 2 ( P )

avec T coefficient de Student à n − 2 degrés de liberté,


x vecteur de variables explicatives,
X matrice des variables explicatives.

Point de départ

β
α
Point d'arrêt

Point de décélération δ

Figure 23 – Exploseur à gaz Figure 24 – Détermination d’un site

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 26 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

En pratique, cela signifie que pour une valeur de P (par exemple


0,01) α est inférieur à la valeur définie par l’équation précédente, par 6. Pluies - Crues - Inondations
exemple 19o pour β = 25o.
Ce schéma est employé de façon opérationnelle en Norvège (logi-
ciel de cartographie Termos), et commence à l’être en Islande. Dans 6.1 Importance du problème
ces pays, les sites d’avalanche ont des topographies assez lissées,
des dénivelées comparables et les enjeux ne sont pas, en terme éco-
nomiques, extrêmement importants. Chaque année en France, les inondations créent des dégâts
importants dont le coût moyen dépasse largement celui des autres
En France, son application se heurte à des obstacles théoriques sinistres. Ainsi, dans les quinze dernières années, 90 % des indem-
(beaucoup de sites ne se prêtent pas au mode de description utilisé, nisations au titre des catastrophes naturelles concernent des dégâts
du fait de leur géométrie trop complexe, exemple les sites glaciaires dus aux eaux.
ou les sites dits «en crosse de hockey», formés d’une pente cons-
tante suivie d’un replat) et pratiques (la précision des résultats est L’aléa climatique est pourtant celui qui nous est le plus familier,
insuffisante, et une conséquence est, que dès que l’on veut prendre comme en témoignent les expressions d’entrée en matière des
des P très faibles, on fait passer en zones inconstructibles de nom- conversations ordinaires («il n’y a plus de saison»...). Elles portent
breuses zones densément bâties et où aucune avalanche n’a jamais la marque de cette connaissance empirique d’un aléa bien connu et,
été constatée). pour cela sans doute, sous-estimé dans ses effets. À juste titre, on
considère comme normales quelques inondations occasionnelles
On peut améliorer la méthode en effectuant une typologie des en zones rurales ; moins raisonnablement, on a parfois construit
sites [54]. Au Canada, Mc Clung a préféré une typologie des avalan- dans ces zones dont on oublie la sensibilité vis-à-vis de ce problème.
ches, classées en terme de «magnitude» [58]. Ces méthodes amé- Il en résulte que pour un même aléa d’origine atmosphérique, le
liorent théoriquement les résultats, mais il en résulte une diminution risque est devenu localement beaucoup plus grand parce que la vul-
de la taille des échantillons qui peut créer des difficultés pour cer- nérabilité a été largement accrue dans des zones inondables. Par
tains types de sites. ailleurs, les conditions hydrologiques ont également pu évoluer
localement (imperméabilisation des terrains en zone urbaine, modi-
fication du type d’occupation des sols, etc.) de sorte que les crues
5.3.2 Méthode des scénarios (aléa hydrologique) ont pu aussi être modifiées.
Crues et inondations résultent d’une conjonction de phénomènes
La méthode des scénarios n’est pas une méthode probabiliste. physiques dont l’enchaînement échappe pour le moment à une
Son ambition est beaucoup plus modeste, puisqu’elle n’est utilisée approche déterministe. Dans le cas général, une crue survient
qu’après une avalanche exceptionnelle qui, outre le déclenchement lorsqu’une précipitation importante (pluie, neige ou grêle) atteint un
de la procédure de catastrophe naturelle, contraint le préfet à réviser bassin versant dont les conditions initiales permettent la formation
le PPR. Cette méthode comprend les étapes suivantes [60] : d’écoulements plutôt que de l’infiltration. La survenue de pluies
importantes en un lieu donné est elle-même la conséquence de
— reconstitution des conditions de production du phénomène ; conditions particulières en termes de champ de pression, d’humi-
— analyse des destructions, non seulement sur le bâti (habita- dité de l’air, de contrastes de température, etc. C’est l’association de
tions, remontées mécaniques, ligne d’énergie) mais aussi sur le tous ces phénomènes, plus ou moins indépendants, qui engendre
milieu naturel (arbres...). Cette analyse porte surtout sur la zone les phénomènes hydrologiques extrêmes et rares. L’approche statis-
d’arrivée du phénomène, et ceci pour des raisons pratiques. Le cas tique est particulièrement adaptée aux phénomènes physiques qui,
échéant, des données de dégâts sur la zone d’écoulement peuvent comme les crues, sont issus d’un cumul de circonstances comple-
être très précieuses ; xes et instables, encore très inaccessibles par une démarche déter-
— mise en œuvre de logiciels de calcul d’avalanche dense ou ministe. Même si les progrès de la météorologie permettent de
poudreuse, selon les cas (modèles de type Saint-Venant [59]) ; qualifier le temps qu’il fera dans les jours qui viennent, anticiper la
mesure de la pluie en un lieu donné plusieurs jours à l’avance est
— reconstitution d’un scénario jugé le plus plausible du phéno- encore très difficile sinon inabordable (des approches récentes
mène responsable de l’accident, le scénario reconstitué ; montrent néanmoins que de petites capacités prédictives pourraient
— présentation de ce scénario aux victimes ou à leurs représen- se développer à l’avenir).
tants (maire, comité de défense, association de (co)propriétaires) ;
Toutefois, si la prévision quantitative n’est pas vraiment possible
— choix d’un paramètre de discussion, par exemple la hauteur de dans le domaine des pluies et des débits, à une échéance de plu-
neige dans la zone de départ, la surface de la zone de départ etc. ; sieurs jours, la quantité des données disponibles permet une appro-
— nouvelles simulations numériques (éventuellement physi- che statistique et, dans certains cas plus rares, probabiliste.
ques) sur la base des nouvelles hypothèses ;
— présentation des résultats et choix d’un scénario de référence,
sur la base duquel va être effectué le nouveau zonage. Comme on 6.2 Données en hydrologie
peut l’imaginer, si un niveau de sécurité élevé a été choisi, le nou-
veau zonage va situer de nombreuses constructions existantes − ou
ayant existé ! − en zone non constructible. Pour débloquer la situa- Les données principalement utilisées en hydrologie des écoule-
tion, même si rien n’oblige la puissance publique à un tel geste (les ments superficiels sont de deux sortes : celles qui concernent les
servitudes créées par une avalanche à travers un PPR ne sont pas débits des rivières et celles qui concernent les pluies.
indemnisables), en pratique des crédits sont débloqués pour des
travaux de protection ; dans ce cas, l’avalanche du scénario de réfé- Une des limitations actuelles de l’approche statistique en hydrolo-
rence va être celle pour laquelle les travaux de protection seront gie réside dans le fait que les débits et les précipitations sont des
dimensionnés. chroniques temporelles. Hydrogrammes et « hyétogrammes » sont
des objets complexes qui sont, en général, schématisés de manière
À titre d’exemple, on citera le cas d’une commune où le scénario simpliste et brutale pour en permettre l’analyse statistique.
de référence a été celui d’une avalanche poudreuse, calculée en
«ajoutant» 30 % à la hauteur de neige accumulée dans toute la zone ■ Séries débitmétriques
de départ, telle qu’on avait pu l’appréhender à travers les calculs Il s’agit en général de mesures indirectes : hauteurs d’eaux mesu-
aboutissant au scénario reconstitué. rées et traduites ensuite en débits, avec une erreur plus ou moins

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 27
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

facile à estimer. Dans les cas favorables, des mesures ponctuelles de plus ou moins long. Par ailleurs, il joue un rôle retardateur de la
vitesses ou encore de moyennes de vitesses améliorent la précision. pluie qui ne devient débit à la sortie du bassin qu’après un certain
La mesure est en général supposée relative à un instant, il s’agit délai de cheminement au sol ou dans le sol. Par rapport à la chroni-
d’une donnée instantanée. Elle peut être répétée. Le rythme de ces que des précipitations, le bassin opère donc une réduction du
mesures détermine la précision de la connaissance des volumes volume disponible pour l’écoulement et un retard de ces écoule-
écoulés à différents pas de temps. ments sur la pluie. On parle de fonction de production (réduction
des volumes, variable dans le temps) et de fonction de transfert
Un débit est une grandeur relative à un endroit donné, délimitant (retard entre précipitation et écoulements). Il existe de nombreuses
un bassin versant sur une rivière. Ailleurs les débits et les volumes formalisations pour ces deux fonctions. On conçoit que le retard
sont différents. Les mesures de débits, chères et délicates, ne peu- entre précipitation et débits soit d’autant plus important que le bas-
vent pas couvrir l’intégralité des fleuves, rivières et leurs affluents. sin est plus grand (temps de cheminement plus importants). Par
Par ailleurs, la variabilité des régimes hydrologiques est telle qu’une voie de conséquence, pour passer de la chronique des pluies à celle
statistique de débits, valable en un point, ne peut en général pas être des débits, il est nécessaire de connaître la pluie à un pas de temps
exportée ailleurs. L’un des sujets d’étude de l’hydrologie est la beaucoup plus faible lorsque le bassin est petit que lorsqu’il est
liaison entre la pluie sur un bassin versant et le débit qu’elle engen- grand. Le pas de temps pertinent pour l’acquisition des données est
dre, aussi a-t-on souvent recours aux mesures des pluies, plus faci- donc lié à la taille des bassins.
les à réaliser et indirectement utiles pour la connaissance des débits.
Il existe des approches physiques plus fines, décrivant les bassins
■ Séries pluviométriques selon leur géométrie (relief et forme), leurs sols avec leurs proprié-
tés hydrodynamiques, leurs végétations... Elles sont beaucoup plus
Avec les méthodes classiques, les mesures de pluies sont relative-
lourdes à manipuler et ne garantissent pas toujours de meilleurs
ment simples et faciles à mécaniser. Pluviomètres ou pluviogra-
résultats. La connaissance des processus réels de cheminements
phes, mesurent au pas de temps journalier ou à un pas de temps
hydrauliques sur les bassins versants est en effet encore très
plus fin des hauteurs d’eau précipitées (épaisseur de la lame d’eau
embryonnaire, malgré des contributions déterminantes depuis de
précipitée sur une petite surface (quelques décimètres carrés). La
nombreuses années (Horton 1933, Dunne et Black 1970), suivies par
couverture spatiale des mesures de pluie est plus dense et les séries
des travaux actuels très actifs.
de données en général plus longues que celles des débits. Les sta-
tistiques sur les séries de pluies sont donc plus riches. Moyennant ■ Approche empirique stochastique
l’emploi d’outils approchés permettant de transformer la pluie en
débit, les séries des débits reconstitués deviennent ainsi également Avec des hypothèses analytiques relativement simples, tradui-
disponibles pour un traitement statistique. Le pas de temps d’acqui- sant plus ou moins clairement des fonctionnements hydrologiques
sition de la donnée de pluie est en général la journée ; les séries dis- schématiques, et à partir de critères statistiques objectifs de simili-
ponibles à ce pas de temps sont nombreuses ; elles peuvent être tude entre séries observées et modélisées, on peut parvenir à une
relativement longues dans certains cas (plusieurs décades, parfois bonne description des crues sur des bassins versants sur lesquels
plus d’un siècle). Les pas de temps plus fins, exigeant des dispositifs des séries de pluies et de débits ont été mesurées. On parle dans ce
d’enregistrement, sont évidemment beaucoup moins fréquents. cas de modèles conceptuels empiriques.
En régions de montagne, sous les climats tempérés, les précipita-
tions ont souvent lieu sous forme de neige. La mesure de la précipi-
tation est plus complexe ; elle fait appel à une mesure d’équivalent 6.4 Aléa pluviométrique
en eau du manteau neigeux dont la disponibilité, pour les écoule-
ments, fait appel à la température et à l’exposition des versants. Les
statistiques pertinentes vis-à-vis des problèmes d’inondation intè-
grent alors des données climatiques. La connaissance des pluies et de leurs variabilités est relative-
ment bonne si l’on s’intéresse aux précipitations ponctuelles, celles
qui correspondent aux mesures (pluviomètre ou pluviographe). Elle
est nettement moins précise lorsqu’il s’agit d’étudier les précipita-
6.3 Relation pluie - débit tions à une échelle spatiale correspondant à des superficies perti-
nentes par rapport aux problèmes d’inondations et de crues. La
variabilité spatiale ajoutée à la variabilité temporelle ajoute en effet
Les données de précipitation ne sont utiles à la prévision ou à la une complexité dont l’importance réelle sur les crues n’est pas
prédétermination des crues que dans la mesure où, par une modéli- encore bien connue. On peut relier cette méconnaissance partielle à
sation quelconque, il est possible d’établir un lien précipitation- celle qui concerne les processus générateurs des écoulements.
débit.
■ Séries de précipitations ponctuelles
Diverses approches sont possibles et jalonnent l’histoire de
Les chroniques de précipitation peuvent faire l’objet d’analyses
l’hydrologie de l’ingénieur. Elles peuvent être regroupées sous deux
complexes : étude de la variabilité des intensités d’averses, de leur
types de familles : une approche dite « physique » inspirée d’une
espacement dans le temps à l’intérieur d’un épisode pluvieux...
certaine idée des mécanismes hydrologiques, une approche empiri-
Liées aux relations pluies débits, les études statistiques permettent
que, plus proche d’une démarche stochastique.
la « génération stochastique » des pluies et des débits.
■ Approche physique
■ La notion d’intensité d’averse nécessite de préciser les grandeurs
Il existe plusieurs niveaux de modélisation à base physique. À un analysées et les pas de temps auxquels on travaille.
niveau très schématique (et pas forcément le moins efficace), on
considère le bassin versant comme un tout, sans distinguer les rôles Exemples de grandeurs intéressantes, notamment dans l’optique
de chacune de ses parties (tête de bassin, bas de versants, zones cul- de la génération stochastique des pluies et des débits associées :
tivées, forêts, zones urbaines). Le bassin, lieu des points d’où les — les volumes (ou hauteurs) des précipitations à l’échelle
précipitations au sol peuvent rejoindre l’exutoire considéré, joue un annuelle, utiles en particulier pour la connaissance des apports à la
rôle important que l’on peut schématiquement séparer en deux végétation (sécheresse, excès d’eaux...), mais aussi aux nappes ;
fonctions. D’une part, il absorbe une partie des précipitations qui — les hauteurs des précipitations à l’échelle de la saison ou du
s’infiltrent dans les sols. Cette part infiltrée est ensuite réévaporée mois : il s’agit de grandeurs qui peuvent être comparées aux évapo-
(après la pluie, par le jeu de l’évapotranspiration des plantes) ou transpirations potentielles dans le but de déterminer des besoins en
éventuellement, elle rejoint la rivière après un parcours souterrain irrigation, par exemple ;

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 28 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

— les hauteurs précipitées à l’échelle journalière : ces séries Loi de Gumbel :


comprennent évidemment beaucoup de valeurs nulles. En général, le
pas de temps journalier est celui auquel les mesures sont effectuées, pÐp
 Ð ---------------0
les précédentes s’en déduisent par cumul. Les hauteurs journalières F ( p ) = Prob [ P < p ] = exp  Ð e s 
représentent une indication souvent pertinente pour les crues des bas-  
sins versants de tailles pas trop réduites (de l’ordre de plusieurs centai-
nes de kilomètres carrés) ; avec les mêmes notations que précédemment, sauf s qui est une
— les hauteurs précipitées au pas de temps de la minute, de fonction de l’écart-type σ.
l’heure ou de quelques heures : ces valeurs sont essentielles pour la
connaissance des crues des petits bassins versants, notamment La question des valeurs très fortes est essentielle puisque ces
urbains (le pas de temps de la minute pour les bassins de quelques ajustements ont pour objectif de préciser la fréquence qui peut être
hectares). Lorsque la donnée est disponible à un pas de temps fin, la attribuée à des valeurs de précipitations susceptibles d’entraîner
question se pose de déterminer la manière dont le découpage tempo- des catastrophes. Dit autrement et sous l’angle «ingénieur», le but
rel est effectué pour travailler à des pas de temps plus grands (pro- de ces ajustements est de permettre de déterminer une valeur de
blème des frontières : à heures fixes par exemple ou au contraire en précipitation à partir de laquelle le risque de dépassement est
effectuant un centrage sur les valeurs extrêmes. Cette question est accepté parce que la fréquence prévisible de cette précipitation (ou
importante pour l’étude des valeurs fortes et des crues associées). son inverse, la durée de retour) est jugée suffisamment faible (res-
pectivement suffisamment grande). Il s’agit évidemment de choix
■ Ajustement des lois essentiellement économiques puisque les valeurs de précipitations
ainsi retenues servent à dimensionner les réseaux d’assainisse-
Seules les pluies annuelles, cumul d’un grand nombre de pluies ments, les ponts, à implanter les zones habitables ou à refuser des
générées par des épisodes à peu près indépendants, peuvent être permis de construire... Aucune loi empirique n’ayant véritablement
considérées comme appartenant à une population gaussienne de raison théorique d’être extrapolée, et les échantillons de valeurs
(théorème de la limite centrale). La distribution des fréquences observées étant presque toujours de tailles inférieures aux durées
empiriques des précipitations annuelles doit, pour cela, ne pas de retour admises, les extrapolations réalisées sont en général dis-
s’écarter trop de celle qui est définie par l’expression : cutables... et discutées dès qu’une inondation grave intervient quel-
que part. Outre les problèmes d’intervalles de confiance qu’elle
pÐp
---------------0 engendre, cette démarche d’ingénieur souffre d’une grande insuffi-


σ 2
exp  Ð ---- dt
1 t
F ( p ) = Prob [ P < p ] = -----------  2
sance dont l’origine réside dans le fait que la variable ainsi extrapo-
2π Ð∞ lée est souvent trop simpliste (une intensité de pluie...) pour
représenter un véritable hyétogramme. La connaissance des débits
où F (p) est la distribution de fréquence théorique à par le canal d’une transformation pluie débit connaîtra la même
comparer avec la distribution empirique calculée insuffisance.
sur l’échantillon des valeurs disponibles, On considère tout de même en général que les lois de précipita-
tions fortes obéissent à des lois exponentielles. On parle, dans ce
P est la variable aléatoire pouvant prendre
cas, du «gradex» des pluies pour signifier la pente du graphique
n’importe quelle valeur, dont p,
donnant le logarithme des débits en fonction de sa fréquence.
p0 la précipitation moyenne calculée sur
l’échantillon, ■ Graphiques intensités - durées - fréquences

σ est l’écart-type mesuré sur l’échantillon. ■ Les notions de hauteurs de pluies en fonction du pas de temps
choisi introduisent naturellement celle d’intensité de pluie : rapport
Il existe des tests pour mesurer les écarts entre la distribution de la hauteur précipitée à la durée considérée. Cette intensité, qui
empirique et la loi qu’elle est supposée suivre. s’exprime en général en hauteur d’eau (en millimètres) par heure est
en fait la véritable grandeur étudiée dans la plupart des cas. Pour
Les ajustements des pluies annuelles sur des lois normales sont l’analyse hydrologique, les intensités intéressantes sont celles qui
en effet fréquemment de bonne qualité selon les tests courants. sont fortes, elles font l’objet du traitement évoqué précédemment,
Néanmoins cette règle n’est pas vérifiée dans les climats (très arides les seules valeurs les plus fortes de l’échantillon des valeurs obser-
par exemple) où les précipitations annuelles résultent d’un cumul de vées étant considérées. Dans ces conditions, en termes statistiques,
pluies peu nombreuses et éventuellement non indépendantes. pour une fréquence donnée (définie expérimentalement sur un
En ce qui concerne les précipitations au pas de temps journalier, échantillon de données disponibles, éventuellement extrapolé selon
les courbes de fréquences empiriques permettent de proposer des les techniques envisagées précédemment), l’intensité de la pluie est
lois diverses (Pearson, Galton...) sans fondement théorique incon- une fonction décroissante de sa durée. Cette décroissance dérive
testable, mais justifiées par la qualité des ajustements observés. directement de la définition de l’intensité maximale retenue pour
constituer l’échantillon des valeurs observées : elle intègre les maxi-
■ Valeurs fortes mums des courbes de l’intensité de la pluie, ce qui veut dire que la
valeur moyenne de cette intensité a tendance à diminuer lorsque la
Le même type de procédé empirique est utilisé pour l’ajustement moyenne est effectuée sur une durée plus grande. La forme des
des valeurs fortes (journalières ou à des pas de temps plus fins). courbes exprimant la décroissance de l’intensité de la pluie en fonc-
Compte tenu de leur importance pour l’étude des crues, celles-ci ont tion de sa durée pour une fréquence donnée est importante
donné lieu à de nombreux travaux. L’échantillon des valeurs étu- figure 26. Pour un bassin donné, il existe en effet une durée de pluie
diées résulte toujours d’une sélection d’épisodes forts. Il existe (le temps de concentration) telle que, à la fin de la pluie, les eaux qui
diverses méthodes pour opérer la sélection : soit la valeur la plus arrivent à l’exutoire sont celles qui, tombées en début de pluie, pro-
forte est retenue chaque année, soit les valeurs sélectionnées sont viennent des parties les plus éloignées du bassin et s’ajoutent à tou-
prises au-dessus d’un seuil donné, certaines années fournissant plu- tes les autres qui, précipitées plus récemment, proviennent des
sieurs valeurs et d’autres n’en donnant aucune. Les courbes de fré- zones plus proches. En cas de pluie de durée plus faible que ce
quences cumulées, obtenues avec ces échantillons, donnent lieu à temps de concentration, les crues ne correspondent pas à la contri-
des ajustements sans fondement théorique et donc sans cesse dis- bution de l’ensemble du bassin. La crue a peu de chance d’être
cutés. Les lois les plus fréquemment admises pour l’ajustement importante. L’association des notions de temps de concentration et
empirique des fortes précipitations à tous ces pas de temps fins sont de courbes intensités - durées - fréquences est très féconde et utile,
des lois exponentielles (Gumbel, Fréchet...). notamment en hydrologie urbaine.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 29
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

uniformité n’est vraie que pour des pas de temps longs, et non pas,
Intensités I
en général, au pas de temps de l’épisode qui provoque une crue.
(mm/h)
Il y a donc lieu de définir, pour un bassin versant, une statistique
260 des pluies moyennes sur le bassin. Ce travail donne lieu à plusieurs
240 types d’approches dont la plus simple consiste à définir une relation
entre la pluie mesurée ponctuellement et celle qui correspond à la
220 moyenne sur le bassin. Il s’agit de relier une pluie ponctuelle de fai-
ble fréquence empirique à la précipitation de même fréquence cor-
200
respondant à la moyenne reçue par le bassin. Cette méthode ne
180 s’intéresse pas à la position de l’épicentre des pluies par rapport à
l’exutoire. On parle dans ce cas de «l’abattement des pluies». Cet
160 abattement dépend de la taille du bassin mais aussi de la fréquence.
140 Ainsi l’augmentation de la pluie moyenne sur un bassin avec la fré-
quence n’est pas celle de la pluie ponctuelle.
120
La «régionalisation» des pluies ou l’étude des caractéristiques
100 principales des pluies à une échelle spatiale susceptible d’être carto-
8 graphiée est une approche en cours de développement à l’heure
80
actuelle. Les isohyètes, ou courbes d’égales hauteurs de précipita-
7
60 6
tions, existent depuis longtemps pour les pas de temps annuels ou
5 mensuels. La cartographie de grandeurs plus utiles pour l’étude des
40 4 crues donne lieu à des travaux qui associent l’approche statistique à
3 l’échelle ponctuelle et géostatistique pour les aspects spatiaux : car-
20 2
1 tes des «gradients exponentiels des pluies» de différentes durées
0 par exemple.
0 0,30 1 1,30 2 2,30 3 3,30 4 4,30 5
Durée de l'intervalle de référence t (h)

Figure 25 – Intensité de la pluie en fonction de sa durée 6.5 Aléa hydrologique


pour une fréquence donnée

Le traitement des débits présente beaucoup de similitude avec


celui des pluies. Il peut paraître plus simple parce que la dimension
spatiale n’apparaît pas dans les mêmes termes : un débit instantané
est relatif à un point sur une rivière et à nul autre endroit. Des ques-
tions relatives aux pas de temps se posent aussi en revanche.
■ Problème du pas de temps
Les mesures de débits instantanés, ou supposés tels, définissent
des chroniques temporelles relativement simples à interpoler, la
variabilité temporelle des débits étant en général beaucoup moins
rapide que celle des pluies. Il est donc possible de définir des débits
moyens, ou mieux des volumes écoulés pendant un certain temps.
Le débit moyen annuel peut, comme les pluies annuelles, être
considéré comme la somme de volumes d’écoulement de carac-
tères aléatoires. La loi normale est souvent convenable pour repré-
senter les statistiques des débits moyens annuels (ou des volumes
écoulés annuels).
Pour des pas de temps plus courts, le même problème d’absence
de loi d’ajustement théorique se pose. Ce sont des ajustements
expérimentaux qui sont extrapolés sur la base d’une expression
analytique sans autre véritable fondement que sa bonne concor-
dance avec les séries observées. Pour ce qui concerne les valeurs
extrêmes, le traitement est très semblable à celui des pluies et les
lois qui conviennent sont en général des lois exponentielles.
Pour étudier les crues et les inondations, la notion de durée conti-
Figure 26 – Bassin versant. Équidistances de parcours nue est maintenant utilisée par opposition à celle de durée
cumulée : il s’agit d’étudier les valeurs fortes des débits qui dépas-
sent un seuil donné sur une durée continue et non pas seulement la
proportion du temps sur une année où le débit dépasse ce seuil.
■ Spatialisation des pluies, régionalisation Cette manière de voir est conforme aux besoins en matière d’étude
des inondations : une inondation sur des cultures ne présente pas
Le régime des précipitations est fortement dominé par la proxi- les mêmes inconvénients selon qu’elle dure un jour ou dix jours
mité des océans, par le climat, par les rencontres de fronts chauds et (asphyxie des plantes).
froids, par l’orographie. Il a donc une forte composante géographi-
que. La taille des cellules précipitantes n’a pas de relation avec celle ■ Valeurs extrêmes en débits
des bassins versants (figure 27). Lorsqu’elle est supérieure, l’épi- Les valeurs extrêmes en matière de débits (instantanés ou sur une
centre des pluies (zone des plus fortes précipitations) ne coïncide durée continue) sont plus mal connues que celles qui correspondent
pas forcément avec le cœur du bassin. Ainsi, même en supposant le aux pluies. Les séries de données sont, en effet, plus courtes et
régime des pluies presque uniforme à l’échelle d’un bassin, cette moins représentatives spatialement. Un procédé de calcul hydrolo-

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 30 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

— la cause des incendies est anthropique dans la très grande


Débits de crue Durée de retour (années) majorité des cas, qu’il s’agisse d’imprudence (cas le plus fréquent)
(m3/s)
1,01 2 5 10 20 100 200 ou de malveillance ;
6 000 — le risque d’incendie est spatialement diffus : alors que les cou-
loirs d’avalanches ou les zones inondables en bordure des cours
5 000 d’eau font de ces aléas des phénomènes localisés, en matière
d’incendie, le bassin de risque est constitué par les espaces naturels
moyenne

4 000 méditerranéens, constitués de forêts ou de formations subforestiè-


mode

res. Le degré de risque est certes plus ou moins élevé selon les lieux
3 000 mais le risque existe partout ;
— si, quel que soit le risque naturel, (avalanche, inondation ou
2 000 incendie), la protection des vies et des installations humaines repré-
sente l’enjeu principal, face au risque d’incendie la préservation du
1 000 patrimoine naturel devient un enjeu très important ;
0,01 0,1 0,3 0,5 0,7 0,8 0,9 0,95 0,99 0,995 — contrairement aux autres risques, les services de secours ont
Probabilité Φ (y)
la possibilité d’intervenir sur l’évolution du phénomène physique ;
–2 –1 0 1 2 3 4 5 — enfin, l’historique des feux du passé a son importance dans la
Variable réduite mesure où le risque, en un lieu donné, dépend de la date du dernier
sinistre : en effet la quantité de biomasse accumulée est fonction de
Figure 27 – Un exemple d’ajustement d’une loi de Gumbel aux débits
la fréquence de passage du feu.
maximaux du Rhin (Réméniéras)
L’incendie de forêt est donc un phénomène se déroulant dans des
milieux naturels ou semi-naturels, mais il faut noter l’importance
des facteurs humains, autant dans le déclenchement des feux que
gique, très spécifique à la France, exploite la courbe des fréquences
dans la vulnérabilité au feu ou dans la lutte (forme finale du feu).
des pluies fortes pour en déduire celle des débits forts. Il s’agit de la
méthode dite du «gradex» qui suppose que, au-delà d’une certaine Face à cet aspect humain, la forêt reste le vecteur et la victime du
fréquence (forte), l’intégralité des pluies excédentaires s’écoule. feu. Dans ces conditions spécifiques, une analyse de risque se
Cette méthode exploite la statistique locale des pluies extrêmes scinde tout naturellement en deux études : l’aléa feu de forêt et la
pour en déduire celle des crues, en partant des valeurs de crues vulnérabilité au feu.
observées les plus fortes (figure 28).
■ Régionalisation des débits
Il s’agit d’une démarche difficile puisque, comme on l’a indiqué 7.1 Aléa feux de forêt
plus haut, les débits sont relatifs à un point sur une rivière. Néan-
moins, pour des pas de temps qui ne sont pas courts (année ou
mois), les volumes qui s’écoulent sont fonction des précipitations et 7.1.1 Nature du phénomène
des évapotranspirations. Aux pas de temps plus courts, les capaci-
tés de stockage des sols interviennent et rendent difficile une 7.1.1.1 Le mécanisme du feu et son comportement
démarche cartographique.
Le feu a besoin de deux éléments essentiels pour éclore et se
propager : un combustible et un flux de chaleur permettant de trans-
porter les calories de combustion, le comburant étant constitué par
6.6 Vulnérabilité en hydrologie l’oxygène de l’air [70].
■ Le combustible : il se répartit en quatre strates : ligneux hauts,
Les outils statistiques rappelés précédemment sont depuis long- ligneux bas, strate herbacée, litière. La composition et la structure
temps disponibles pour définir les aléas pluviométrique et hydrolo- de ces différents strates va influencer la combustion. Ainsi, plus le
gique. Sauf pour les grands barrages, les dimensionnements combustible sera finement divisé, plus il sera inflammable.
d’ouvrages hydrauliques sont, en général, définis sur la base de la La teneur en eau joue également un rôle important dans la com-
protection par rapport à un aléa hydrologique d’une fréquence choi- bustion. Le combustible perd d’abord son eau par évaporation, puis
sie. Cette manière de faire ne correspond pas à une démarche rai- émet des gaz inflammables, par pyrolyse, avant que ne se déclenche
sonnable. En effet, dans le choix d’un dimensionnement, il y a lieu la mise à feu.
de tenir compte de la valeur des biens exposés plus encore que de
la fréquence d’apparition des inondations. Les inondations de la ■ Le flux de chaleur : la convection est le principal processus de
dernière décennie nous ont rappelé que la notion de fréquence transport des calories produites par la combustion. Ces calories sont
d’apparition ne peut pas suffire en zones urbaines en particulier où évacuées sous forme de gaz brûlés et d’air chaud, vers le ciel, en
les biens et les personnes sont concentrés. La notion de vulnérabi- absence de vent, et sur terrain plat. Cette colonne de convection
lité, qui fait intervenir la valeur économique est donc à croiser avec peut également transporter des matières en ignition, pouvant
celle d’aléa. retomber quelques centaines de mètres plus loin et être à l’origine
de feux secondaires.

7.1.1.2 Origine des incendies


7. Feux de forêt La base de données Prométhée recueille de nombreuses caracté-
ristiques sur les feux de forêt, depuis 1973, sur les 15 départements
du Sud-Est de la France. On peut en extraire certaines statistiques
Le risque d’incendie de forêt est classé dans la catégorie des ris-
[71] parmi lesquelles les principales causes de départs des feux
ques naturels dans la mesure où il est susceptible de toucher les
(figure 29).
quelque 4,6 millions d’hectares d’espaces naturels méditerranéens.
Il présente cependant certaines spécificités parmi lesquelles on Les causes les plus fréquentes sont les imprudences, liées aux tra-
retient que : vaux agricoles ou forestiers (c’est le cas de l’incendie du massif de

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 31
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

— une politique raisonnée en matière d’urbanisation en forêt et


Autre au contact de celle-ci (décret du 23/03/92 relatif aux plans de zones
Imprudence 3%
sensibles aux incendies de forêts - loi du 02.2.95 relative aux plans
15 % de prévention des risques) ;
— une politique raisonnée en matière de gestion du territoire.
Accidentelle
5% Les crédits publics destinés à la mise en valeur de la forêt méditer-
ranéenne étant limités, il convient d’investir dans les domaines de la
Malveillance sylviculture et de l’aménagement forestier là où le risque a été
6% abaissé à un niveau raisonnable, tout en s’impliquant dans la pro-
tection du patrimoine naturel là où le risque demeure élevé.
Dans toute la suite, on ne fera référence qu’à l’évaluation spatiale
de l’aléa, l’objectif étant d’en fournir une cartographie.

■ Aléas d’éclosion et de propagation


L’aléa feux de forêt se caractérise à l’aide de deux critères complé-
Inconnue mentaires, pouvant se traduire par une double cartographie :
71 %
— la fréquence des départs de feu : certaines zones sont plus
sujettes que d’autres aux départs de feu, essentiellement en relation
Figure 28 – Causes des incendies. Répartition d’enquêtes pour avec les activités humaines → carte des niveaux de l’aléa d’éclosion
l’année 1995 sur les 15 départements méditerranéens (d’après [71]) des feux (figure 30) ;
— l’étendue de la surface brûlée : elle résulte de facteurs favora-
bles à la propagation, les contours finaux des surfaces étant en rela-
la Sainte Victoire en 1989), aux loisirs en forêt, ou encore aux habi- tion avec l’intervention des moyens de protection → carte des
tations. niveaux d’aléa de propagation des feux (figure 31).
Autres causes fréquentes : les accidents, liés à la circulation
(réseau routier, voies SNCF), aux lignes électriques ou aux dépôts
d’ordure. 7.1.2 Analyse de l’aléa
Les causes humaines volontaires ne constituent qu’un faible
pourcentage de l’origine des départs de feu. Par contre, les surfaces 7.1.2.1 Facteurs de l’aléa
brûlées deviennent imposantes car le feu est souvent mis dans des Les principaux facteurs du milieu naturel qui ont une influence sur
conditions de vent violent, rendant la lutte difficile. le comportement du front de flamme sont le vent, le relief et la végé-
L’unique cause naturelle des incendies de forêts est la foudre. Il tation [75].
s’agit cependant d’une cause peu probable en pays méditerranéen
(2 à 3 % des cas). ■ L’effet du vent sur la propagation d’un feu est lié à sa vitesse et à
sa direction. Mais en terme de propagation, l’interaction vent - relief
est tout aussi importante.
7.1.1.3 Schéma général d’approche
■ Évaluation temporelle et spatiale ■ L’effet du relief sur la propagation d’un feu se traduit par :
● Évaluation temporelle : il s’agit de suivre dans le temps l’évolu- — une action directe de la pente qui modifie l’inclinaison relative
tion de l’aléa feux de forêt, afin de déterminer les périodes à risque du front de flamme par rapport au sol, ce qui favorise l’efficacité des
majeur. Cette approche est particulièrement utile aux services opé- transferts thermiques par rayonnement entre le front de flamme et
rationnels car elle leur fournit un outil d’aide à la décision dans les la végétation, encore intacte lors d’une propagation ascendante ;
domaines de la mobilisation préventive des moyens de surveillance — une action indirecte de l’exposition soit par rapport à la végé-
et d’intervention (patrouilles au sol, guets aériens, activation des tation (opposition versants chauds et versants frais), soit par rapport
vigies, fermeture de certaines voies à la circulation...). au vent (combinaison exposition / direction du vent, d’où présence
de zones au vent et de zones sous le vent).
Les techniques utilisées classiquement reposent soit sur la prise
en compte de paramètres météorologiques, soit sur la mesure de ■ La végétation intervient sur l’éclosion ou la propagation d’un feu
paramètres biologiques. par son inflammabilité et sa combustibilité qui peuvent être esti-
Dans le premier cas, il s’agit des indices de risque météo mis au mées à partir de données relatives à sa composition, sa structure
point successivement par Orieux [74], par Carrega [68] et par Sol (quantité de biomasse combustible) et son état hydrique.
[77]. Dans le cas de l’aléa d’éclosion, le facteur humain joue un rôle
Dans le deuxième cas, il s’agit essentiellement des travaux de important (cf § 7.1.1.2).
l’INRA (Valette) sur l’inflammabilité des végétaux mesurée à l’épira-
diateur, en fonction de leur état hydrique. 7.1.2.2 Différentes approches
Le Cemagref, pour sa part, a exploré les possibilités d’utilisation
de la télédétection pour le suivi de la variabilité temporelle de l’aléa ■ Modélisation
d’éclosion, à partir de données de l’infrarouge thermique [78]. Ce type de recherches a été très développé en Amérique du Nord
● Évaluation spatiale : elle consiste à cartographier l’aléa sur une depuis une cinquantaine d’années. Il existe de nombreux modèles
zone géographique précise, c’est-à-dire à découper cette zone en de propagation du front de flamme, dont le plus célèbre est le
différentes classes en fonction de l’aléa présent ou à venir. Cette modèle Behave.
approche peut être soit dynamique (utilisation de modèles de pro-
En France, de nombreux laboratoires se sont investis dans la
pagation du feu) soit statique (statistique ou dires d’experts).
modélisation des feux. Citons à titre d’exemple le logiciel Géofeu de
L’évaluation spatiale du risque constitue un préalable indispensa- l’Agence MTDA, le banc d’essai de l’INRA, les études de modélisa-
ble à : tion physique du vent du Cemagref de Grenoble.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 32 © Techniques de l’Ingénieur, traité Construction
_____________________________________________________________________________________________________ ÉVALUATION DES RISQUES NATURELS

L’apparition de grands feux ne résulte donc pas exclusivement


d’une accumulation de conditions conjoncturelles défavorables
(déficit hydrique ou épisodes de grands vents). De telles conditions,
si elles sont nécessaires, ne sont pas suffisantes pour expliquer
l’occurrence ou l’absence de grands feux dans un secteur donné.

■ Expertise : élaboration d’indices

C’est la méthodologie choisie dans le cadre de l’étude de carto-


graphie du risque d’incendie de forêt dans le massif des Maures
[72]. Cette étude a été commandée par le SIVOM (Syndicat Inter-
communal à Vocation Multiple) du Pays des Maures pour un zonage
du risque d’incendie, en préalable aux plans de prévention des ris-
ques.

Chaque facteur de l’aléa est cartographié puis traduit en terme de


«risque». Pour les différentes modalités d’un facteur, une note est
attribuée en fonction de leur contribution à l’éclosion ou à la propa-
gation du feu. Cette notation se fait à partir d’une relation connue,
d’une hypothèse de relation entre le facteur et son influence sur
l’aléa, ou à dires d’experts.

Figure 29 – Carte de l’aléa d’éclosion du feu (Massif des Maures) Un indice synthétique d’aléa peut ensuite être déterminé, en
superposant l’ensemble des cartes élémentaires, selon l’hypothèse
de l’additivité des facteurs.

La figure 31 compare l’aléa de propagation du feu et les zones


parcourues par de grands incendies dans le massif des Maures
depuis 1959.

Cette méthodologie est également couramment employée, en


France [69] comme à l’étranger [76].

7.2 Vulnérabilité aux feux de forêt

7.2.1 Détermination des objectifs de protection

L’ensemble d’un massif forestier étant potentiellement menacé, il


est nécessaire de recenser les différents enjeux nécessitant une pro-
tection. Cette étape ne se veut pas forcément exhaustive. Elle est
destinée à aider les gestionnaires et les élus locaux à faire un bilan
de la vulnérabilité en fonction de critères qu’ils restent seuls à esti-
mer.
Figure 30 – Carte de l’aléa de propagation du feu
(Massif des Maures) ■ La protection des vies et des installations humaines est bien évi-
demment prioritaire. Les zones les plus menacées correspondent
aux interfaces habitat-forêt et à l’habitat diffus en forêt. Par ailleurs,
l’ensemble des lieux fréquentés par le public doit être inventorié et
■ Statistique cartographié. Dans le cas du massif des Maures, c’est le Service
Concernant l’aléa d’éclosion, la connaissance de sa variabilité Départemental d’Incendie et de Secours du Var qui cartographie les
spatiale suppose une connaissance approfondie des causes de mise points sensibles. Parmi les différents thèmes de cette carte, on peut
à feu [67]. citer les suivants : industries (entrepôts, dépôt d’hydrocarbures),
équipements, environnement (décharges, carrières), tourisme (cam-
Concernant l’aléa de propagation, on citera une étude statistique ping, gîtes, centres de vacances, hôtels, parcs, résidences, par-
qui a été réalisée sur l’ensemble du massif des Maures [73]. Ce mas- kings), agriculture (exploitations agricoles, cheptels), enseignement,
sif présente, en effet, sur une surface significative, de bonnes poten- eaux (stations de pompage, d’épuration, barrage), santé (maisons
tialités forestières associées à une forte sensibilité au feu. de retraite, établissements de soins), culture (théâtres, monuments).
Par ailleurs, il a connu de nombreux feux de grande ampleur, pour
lesquels une cartographie assez précise a été établie. ■ La préservation du patrimoine naturel présente des aspects très
variés, selon le thème d’intérêt. Les secteurs à protéger en priorité
Les premiers résultats obtenus font apparaître une très nette spé- sont alors très variables selon le critère de sensibilité envisagé. Ils
cificité des zones touchées par des grands feux. Cela concerne aussi peuvent être présentés sous forme d’inventaires, reportés sur diffé-
bien les descripteurs du milieu naturel (pente, exposition, végéta- rentes cartes thématiques. On citera à titre d’exemple les zones sen-
tion, bioclimat...) que les descripteurs de l’occupation du sol par les sibles à l’érosion, les perceptions du paysage à différentes échelles
activités humaines [taux de SAU (surface agricole utile), nombre de (impact visuel d’un incendie) ou les richesses floristiques, faunisti-
permis de construire délivrés, autres données INSEE...]. ques et culturelles.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 3 295 − 33
ÉVALUATION DES RISQUES NATURELS _____________________________________________________________________________________________________

7.2.2 Mesures de protection Ces équipements sont cartographiés de façon de plus en plus sys-
tématique sur l’ensemble des 15 départements du Sud-Est de la
France. Un groupe d’experts constitué de forestiers et sapeurs-pom-
7.2.2.1 Cadre législatif piers, a défini des critères de normalisation des ouvrages tactiques.
La Délégation à la Protection de la Forêt Méditerranéenne a
Les plans de prévention des risques s’inscrivent dans la suite logi-
publié, à la fin de l’année 1996, le «Guide de normalisation» sur les
que des différentes lois et règlements déjà existant en matière de
équipements de prévention et leur représentation graphique.
défense des forêts contre les incendies (DFCI).
■ Structuration de l’espace
Liste de quelques lois et règlements en matière de DFCI :
L’aménagement de l’espace rural peut se faire dans un objectif de
protection des forêts contre l’incendie et dans le sens d’une amélio-
1966-68 : Création de périmètres de protection et de reconsti- ration des conditions de lutte.
tution forestière. La déprise rurale observée depuis le siècle dernier accroît consi-
1980 : Débroussaillement (PIDAF : Plan Intercommunal de dérablement le risque d’incendie dans les massifs forestiers médi-
Débroussaillement et d’Aménagement Forestier). terranéens. Ainsi, la fermeture des formations végétales contribue à
1985 : Gestion, valorisation, protection de la forêt. la constitution de vastes étendues boisées, d’un seul tenant, au sein
1987 : Organisation de la sécurité civile. Prévention des ris- desquelles les feux peuvent se propager sur de très grandes surfa-
ques majeurs. ces.
1991-92 : Plans de zones sensibles aux incendies de forêt
Face à ce constat, les gestionnaires cherchent à améliorer les pos-
(PZSIF).
sibilités d’autodéfense des massifs forestiers, par une structuration
1992 : Obligations de débroussaillement, travaux et entretiens
du territoire s’appuyant sur le cloisonnement des massifs. Ceci per-
d’utilité publique.
met de diminuer la biomasse combustible et d’améliorer les condi-
tions de lutte. Le développement de ces infrastructures s’inscrit
dans le cadre des grandes coupures de combustibles.
7.2.2.2 Aménagement du territoire

■ Équipements de terrain 7.2.3 Mesures de réhabilitation après incendie


Les différents équipements de terrain (figure 31) doivent avoir
pour objectif de faciliter l’intervention des équipes de lutte. Ils doi- À la suite d’un incendie de forêt, le risque évolue. De nouveaux
vent donc permettre une détection rapide des feux (postes de vigie), risques apparaissent. Ceux-ci doivent être gérés à plus ou moins
l’accès rapide sur le lieu de l’incendie (réseau de pistes). Ils doivent long terme.
permettre d’établir des lignes de lutte contre les grands feux, dans ■ À court terme : éviter les risques induits par l’incendie
des endroits stratégiques (zones d’appui). Ils doivent offrir des
● Risques d’érosion : ils dépendent de la pente, de la nature du
conditions de sécurité satisfaisantes (bandes débroussaillées). Ils
doivent permettre l’approvisionnement en eau (citernes et autres terrain, de la météorologie faisant suite à l’incendie et de la végéta-
points d’eau). tion qui redémarre. Des fascines sont alors souvent mises en place.
Des travaux de restauration des terrains en montagne peuvent être
entrepris dans des conditions de milieu particulièrement difficiles.
● Dépérissement : les arbres peuvent être mutilés suite à un
incendie. Il faut souvent recéper les tiges pour que les rejets soient
sains et vigoureux.
■ À moyen et long termes : réaménager la forêt
Il s’agit de redéfinir les objectifs de la gestion forestière ainsi que
les moyens d’atteindre ces objectifs.
À la suite d’un incendie se pose la question du reboisement.
Actuellement, le sujet est particulièrement sensible, à la suite des
incendies catastrophiques de la fin d’été 1997, avec plus de 3000 ha
brûlés aux portes de Marseille, et 65 départs de feux en Haute-
Corse, en un seul jour, par grand vent.
Bien souvent, le reboisement n’est pas indispensable, car une
végétation spontanée se réinstalle rapidement : les feuillus présen-
tent des rejets de souche et les résineux se resèment si les semen-
ciers ont survécu.
La nature de l’impact de l’incendie est cependant très différente
selon la nature du substrat.
Dans tous les cas, une étude des types de stations doit être entre-
Figure 31 – Équipements de terrain : piste, zone d’appui, citerne. prise afin de connaître les potentialités forestières des zones incen-
Aménagement de crête, La Londe (Photo SDIS, Draguignan) diées.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 3 295 − 34 © Techniques de l’Ingénieur, traité Construction

Vous aimerez peut-être aussi